id stringlengths 9 9 | text stringlengths 10.2k 92.7k | title stringclasses 1 value |
|---|---|---|
V14N04-04 | \section{はじめに}
近年,構文解析は高い精度で行うことができるようになった.構文解析手法は,ルールベースのもの(e.g.,\cite{Kurohashi1994}),統計ベースのもの(e.g.,\cite{Kudo2002})に大別することができるが,どちらの手法も基本的には,形態素の品詞・活用,読点や機能語の情報に基づいて高精度を実現している.例えば,\begin{lingexample}\single{弁当を食べて出発した}{Example::Simple}\end{lingexample}\noindentという文は,「弁当を$\rightarrow$食べて」のように正しく解析できる.これは,「〜を」はほとんどの場合もっとも近い用言に係るという傾向を考慮しているからである.このような品詞や機能語などの情報に基づく係り受け制約・選好を,ルールベースの手法は人手で記述し,統計ベースの手法はタグ付きコーパスから学習している.しかし,どちらの手法も語彙的な選好に関してはほとんど扱うことができない.\begin{lingexample}\label{Example::Undoable1}\head{弁当を出発する前に食べた}\sent{弁当は食べて出発した}\end{lingexample}(2a)では,「弁当を」が\ref{Example::Simple}と同じように扱われ,「弁当を$\rightarrow$出発する」のように誤って解析される.(2b)においては,「〜は」が文末など遠くの文節に係りやすいという傾向に影響されて,やはり「弁当は$\rightarrow$出発した」のように誤って解析されてしまう.これらの場合,「弁当を食べる」のような語彙的選好が学習されていれば正しく解析できると思われる.統計的構文解析器においては多くの場合,語彙情報が素性として考慮されているが,それらが用いている数万文程度の学習コーパスからでは,データスパースネスの影響を顕著に受け,語彙的選好をほとんど学習することができない.さらに,2項関係の語彙的選好が十分に学習されたとしても,次のような例を解析することは難しい.\begin{lingexample}\single{太郎が食べた花子の弁当}{Example::1}\end{lingexample}\noindent「弁当を食べる」「花子が食べる」という語彙的選好を両方とも学習しているとすると,「食べた」の係り先はこれらの情報からでは決定することができない.この例文を正しく解析するには,「食べた」は「太郎が」というガ格をもっており,ヲ格の格要素は被連体修飾詞「弁当」であると認識する必要がある.このように,語彙的選好を述語項構造としてきちんと考慮できれば構文解析のさらなる精度向上が期待できる.述語項構造を明らかにする格解析を実用的に行うためには,語と語の関係を記述した格フレームが不可欠であり,それもカバレージの大きいものが要求される.そのような格フレームとして,大規模ウェブテキストから自動的に構築したものを利用することができる\cite{Kawahara2006}.本稿では,この大規模格フレームに基づく構文・格解析の統合的確率モデルを提案する.本モデルは,格解析を生成的確率モデルで行い,格解析の確率値の高い構文構造を選択するということを行う.構文解析手法として,語彙的選好を明示的に扱うものはこれまでにいくつか提案されてきた.白井らと藤尾らは,数十〜数百万文のコーパスから語の共起確率を推定し利用している\cite{Shirai1998,Fujio1999}.本研究にもっとも関連している研究として,阿辺川らによる構文解析手法がある\cite{Abekawa2006}.阿辺川らは,同じ用言を係り先とする格要素間の従属関係と,格要素・用言間の共起関係を利用した構文解析手法を提案している.これら2つの関係を新聞記事30年分から収集し,PLSIを用いて確率推定を行っている.既存の構文解析器の出力するn-bestの構文木候補に対して,確率モデルに基づくリランキングを適用し,もっとも確率値の高い構文木を選択している.この手法は,PLSIを用いることによって潜在的な意味クラスを導入し,確率を中規模のコーパスから推定している.本研究は,これらの研究に対して次の点で異なる.\begin{itemize}\item明示的に意味,用法が分類された格フレームを用いている.解析時に格フレームを選択することにより,用言の意味的曖昧性を解消し,その意味,用法下において正確な格解析を行うことができる.\item非常に大規模なコーパスから構築された格フレームを用いることによって,用例の出現を汎化せずに用いている.\item阿辺川らの手法のようにn-best解をリランキングするのではなく,構文,格構造を生成する生成モデルを定義している.\end{itemize}
\section{ウェブから獲得した大規模格フレーム}
\label{Section::格フレーム辞書の自動構築}格フレームは,ウェブから収集した大規模コーパスを用いて,\cite{Kawahara2006}の手法により自動構築を行う.本節では,格フレーム構築手法の概要を述べる.人間のもつ常識的知識の重要な部分である格フレームは,様々な言語現象をカバーすることが望ましい.そのような格フレームを構築するために,大規模コーパスから漸進的に確からしい情報を抽出する.\begin{table}[b]\input{table1.txt}\end{table}まず最初に,大規模コーパスを構文解析し,その解析結果から第1段階の格フレームを構築する.格フレームを構築する際の最大の問題は,用言の用法の曖昧性である.つまり,同じ表記の用言でも複数の意味,用法をもち,とりうる格や用例が異なる.例えば,以下の2つの例は,用言は「積む」で同じであるが用法が異なっている.\begin{lingexample}\head{トラックに荷物を積む}\sent{経験を積む}\end{lingexample}\noindent用法が異なる格フレームを別々につくるために,我々は,格フレーム収集の単位を用言とその直前の格要素の組とした.「積む」の例では,「荷物を積む」「経験を積む」を単位として格フレームを収集する.さらに,「荷物を積む」「物資を積む」などかなり類似している格フレームをマージするためにクラスタリングを行う.上記の第1段階の構築手法では構文解析を用いているために,基本的に格助詞の付属している格要素を収集している.このため,得られる格フレームは,二重主語構文,外の関係,格変化のような複雑な言語現象には対処できないという問題がある.この問題に対処するために,上記で得られた格フレームを用いて再度テキストを解析し,新たな情報を格フレームに与える.新たに得られる情報は,1回目の格フレーム構築では扱うことができなかった係助詞句(「〜は」や「〜も」)や被連体修飾詞に関する関係である.\begin{lingexample}\single{この車はエンジンが良い}{ガ21}\end{lingexample}例えば,上例において,構文解析の段階では「車は」は解釈できなかったが,格解析では「{エンジン}がよい」という格フレームを用いることによって,格フレームにガ格以外の格がないことから「車は」は2つ目のガ格であり,「{エンジン}がよい」は二重主語構文をとることがわかる.\begin{lingexample}\single{その問題は彼が図書館で調べている}{ガ22}\end{lingexample}この例文の「問題は」は,すでに得られている格フレーム「{問題,課題}を{図書館}で調べる」のヲ格の用例群に合致するため,格解析ではヲ格と解析されるだけで,新しい情報は得られない.同様に,被連体修飾詞は構文解析では扱われないが,格解析では,格フレームのガ格,ヲ格などの用例と類似しているかどうか調べることによって解釈される.例えば,「業務を営む免許」の「免許」は,格フレーム「{銀行,会社}が{業務,ビジネス}を営む」のどの格の用例とも類似せず,外の関係と呼ばれる関係をもっていると判定され,この情報が格フレームに加えられる.上記の手法を用いて,ウェブから収集した約5億日本語文から格フレームを構築した.約350CPUの計算機グリッドを用いてこの処理を行い,約1週間で格フレームを構築することができた.この格フレームは約90,000用言からなる.その一部を表\ref{例::格フレーム}に示す.
\section{構文・格解析の統合的確率モデル}
本論文で提案する構文・格解析統合モデルは,入力文がとりうるすべての構文構造に対して確率的格解析を行い,もっとも確率値の高い格解析結果をもつ構文構造を出力する.すなわち,入力文$S$が与えられたときの構文構造$T$と述語項構造$L$の同時確率$P(T,L|S)$を最大にするような構文構造$T_{best}$と述語項構造$L_{best}$を出力する.次のように,$P(S)$は一定であるので,本モデルは$P(T,L,S)$を最大にすることを考える.\begin{align}(T_{best},L_{best})&=\argmax{(T,L)}{P(T,L|S)}\nonumber\\&=\argmax{(T,L)}{\frac{P(T,L,S)}{P(S)}}\nonumber\\&=\argmax{(T,L)}{P(T,L,S)}\end{align}\subsection{構文・格解析の統合的確率モデルの概略}本論文では,依存構造に基づく確率的生成モデルを提案する.本モデルは「節」を基本単位とし,主節(文末の節)から順次生成していく.「節」とは,用言1つと,それと関係をもつ格要素群を意味する.$P(T,L,S)$は,文に含まれる節$c_i$を生成する確率の積として次のように定義する.\begin{equation}\label{Formula::Division}P(T,L,S)=\prod_{c_i\inS}P(c_i|b_{h})\end{equation}$n$は文$S$中に存在する節の数(=用言数)であり,ここで$b_{h}$は節$c_i$の係り先文節である.主節は係り先をもたないが,仮想的な係り先を$\mbox{EOS}$とする.従来研究のほとんどは,文生成の確率を,2文節間の係り受け確率の積としていたが,本研究では式(\ref{Formula::Division})のように,節,つまり用言と格要素群を単位として生成するモデルとしている.そのため,複数の格要素を考慮して係り受けを決定することができ,例(3)のような文も正しく解析できるようなモデルとなっている.例えば「弁当は食べて目的地に出発した.」という文を考える.「弁当は」が「食べて」に係る場合には,2つの節「弁当は食べて」「目的地に出発した.」があり,次の確率を考える.\[P(\mbox{目的地に出発した.}|\mbox{EOS})\timesP(\mbox{弁当は食べて}|\mbox{出発した.})\]「弁当は」が「出発した.」に係る場合には,2つの節「食べて」「弁当は目的地に出発した.」があり,次の確率を考える.\[P(\mbox{弁当は目的地に出発した.}|\mbox{EOS})\timesP(\mbox{食べて}|\mbox{出発した.})\]本モデルは,これらのうちもっとも確率の高い構造を採用する.節$c_i$は,述語項構造$\mathit{CS}_i$と用言タイプ$f_i$に分解して考える.用言タイプとは,用言の活用や付属語列を意味する.そのため,述語項構造$\mathit{CS}_i$に含まれる用言は原型である.係り先の文節$b_{h}$も同様に,語$w_{h}$とタイプ$f_{h}$に分けて考える.\begin{align}P(c_i|b_{h})&=P(\mathit{CS}_i,f_i|w_{h},f_{h})\nonumber\\&=P(\mathit{CS}_i|f_i,w_{h},f_{h})\timesP(f_i|w_{h},f_{h})\nonumber\\&\approxP(\mathit{CS}_i|f_i,w_{h})\timesP(f_i|f_{h})\label{Formula::FirstDecomposition}\end{align}この近似は,用言は係り先文節のタイプには依存しない,また用言タイプは係り先の語には依存しないと考えられるからである.例えば,$P(\mbox{弁当は食べて}|\mbox{出発した.})$は次のようになる.\[P(\mathit{CS}(\mbox{弁当は食べる})|\mbox{テ形},\mbox{出発する})\timesP(\mbox{テ形}|\mbox{タ形.})\]ただし,本モデルにおいて,副詞,連体詞,および連体修飾句は述語項構造に入れず,考慮しない.これらは用言に対して格関係を持たないので,用言格フレームにおいて扱うことができず,生成することができないためである.これらの係り先は,読点がなければ直近の係りうる文節とするなどといったルールに基づいて決定する\cite{Kurohashi1994}.式(\ref{Formula::FirstDecomposition})の$P(\mathit{CS}_i|f_i,w_{h})$を述語項構造生成確率,$P(f_i|f_{h})$を用言タイプ生成確率と呼び,これらについて次の2つの節で説明する.\subsection{述語項構造生成確率}\label{Section::述語項構造生成確率}述語項構造の生成モデルは,その述語項構造にマッチする格フレームの選択と,入力側の各格要素の格フレームへの対応付けを同時に行うモデルである.述語項構造$\mathit{CS}_i$は,述語$v_i$,格フレーム$\mathit{CF}_l$,格の対応関係$\mathit{CA}_k$の3つからなると考える.格の対応関係$\mathit{CA}_k$とは,図\ref{Figure::Correspondence}に示すように,入力側の格要素と格フレームの格との対応付け全体を表す.対応関係は図示のもの以外にも,「弁当は」をガ格に対応付ける可能性がある.述語項構造生成確率$P(\mathit{CS}_i|f_i,w_{h})$は次のようになる.\begin{align}P(\mathit{CS}_i|f_i,w_{h})&=P(v_i,\mathit{CF}_l,\mathit{CA}_k|f_i,w_{h})\nonumber\\&=P(v_i|f_i,w_{h})\nonumber\\&\timesP(\mathit{CF}_l|f_i,w_{h},v_i)\nonumber\\&\timesP(\mathit{CA}_k|f_i,w_{h},v_i,\mathit{CF}_l)\nonumber\\&\hboxto105pt{$\approxP(v_i|w_{h})$\hfill}\mbox{(用言生成確率)}\label{Formula::PA}\\&\hboxto105pt{$\quad{}\timesP(\mathit{CF}_l|v_i)$\hfill}\mbox{(格フレーム生成確率)}\nonumber\\&\hboxto105pt{$\quad{}\timesP(\mathit{CA}_k|\mathit{CF}_l,f_i)$\hfill}\mbox{(格の対応関係生成確率)}\nonumber\end{align}この近似は,述語$v_i$はその係り先の語$w_{h}$のみに,格フレーム$\mathit{CF}_l$は述語$v_i$のみに,格の対応関係$\mathit{CA}_k$は格フレーム$\mathit{CF}_l$と付属語列$f_i$に依存すると考えられることによる.\begin{figure}[b]\begin{center}\includegraphics{14-4ia4f1.eps}\caption{格の対応関係$\mathit{CA}_k$の例}\label{Figure::Correspondence}\end{center}\end{figure}用言生成確率と格フレーム生成確率は大規模コーパスの格解析結果から推定する.\unskip$P(\mathit{CA}_k|\mathit{CF}_l,f_i)$は,格の対応関係生成確率と呼び,以下で詳説する.\subsubsection{格の対応関係生成確率}格の対応関係$\mathit{CA}_k$を,格フレームの格スロット$s_j$ごとに考える.格スロット$s_j$に入力側の格要素(体言$n_j$,格要素タイプ$f_j$)が対応付けられているかどうかで場合分けすると,次のように書き換えることができる.\begin{equation}\begin{aligned}[b]P(\mathit{CA}_k|\mathit{CF}_l,f_i)&=\prod_{s_j:A(s_j)=1}P(A(s_j)=1,n_j,f_j|\mathit{CF}_l,f_i,s_j)\\&\times\prod_{s_j:A(s_j)=0}P(A(s_j)=0|\mathit{CF}_l,f_i,s_j)\end{aligned}\label{Formula::CCExample}\end{equation}ただし,$A(s_j)$は,格スロット$s_j$に入力側格要素が対応付けられていれば$1$,そうでなければ$0$をとる関数である.式(\ref{Formula::CCExample})右辺第1項の各確率は次のように分解できる.\begin{equation}\begin{aligned}[b]P(A(s_j)&=1,n_j,f_j|\mathit{CF}_l,f_i,s_j)\\&=P(A(s_j)=1|\mathit{CF}_l,f_i,s_j)\timesP(n_j,f_j|\mathit{CF}_l,f_i,A(s_j)=1,s_j)\end{aligned}\label{Formula::CaseAndExample}\end{equation}この式の第1項と式(\ref{Formula::CCExample})第2項の各確率は,$f_i$には依存しないと考えられるので,それぞれ$P(A(s_j)=1|\mathit{CF}_l,s_j)$,$P(A(s_j)=0|\mathit{CF}_l,s_j)$となる.これらは格スロット生成確率と呼び,大規模コーパスの格解析結果から推定する.$P(n_j,f_j|\mathit{CF}_l,f_i,A(s_j)=1,s_j)$は格要素生成確率と呼ぶ.例えば,$P(CS(\mbox{弁当は食べる})|\mbox{テ形},\mbox{出発する})$について考える.「食べる」のある格フレーム$CF_{\mathrm{食べる1}}$がガ格とヲ格をもっているならば,この格フレームを用いたときの述語項構造生成確率としては,「弁当は」をガ格またはヲ格に対応付けるときの2つを考えることになる.以下に「弁当は」をヲ格に対応付けるときの確率を示す.\begin{align*}P(CS(\mbox{弁当は食べる})|\mbox{テ形},\mbox{出発する})&=P(\mathrm{食べる|出発する})\\&\timesP(CF_{\mathrm{食べる1}}|\mathrm{食べる})\\&\timesP(A(\mathrm{を})=1|CF_{\mathrm{食べる1}},\mbox{を})\\&\timesP(A(\mathrm{が})=0|CF_{\mathrm{食べる1}},\mbox{が})\\&\timesP(\mathrm{弁当},\mathrm{は}|CF_{\mathrm{食べる1}},\mbox{テ形},A(\mathrm{を})=1,\mbox{を})\end{align*}\subsubsection{格要素生成確率}\label{Section::用例生成確率}格要素の体言$n_j$と格要素タイプ$f_j$を生成する確率は独立であり,表層格の解釈は格フレームに依存しないと考え,格要素生成確率は以下のように近似する.\begin{equation}P(n_j,f_j|\mathit{CF}_l,f_i,A(s_j)=1,s_j)\approxP(n_j|\mathit{CF}_l,A(s_j)=1,s_j)\timesP(f_j|s_j,f_i)\label{Prob::CaseComponent}\end{equation}$P(n_j|\mathit{CF}_l,A(s_j)=1,s_j)$は用例生成確率と呼び,格フレーム自体から推定する.格要素タイプ$f_j$としては,表層格$c_j$,読点の有無$p_j$,提題助詞「は」の有無$t_j$の3つを考慮する.\begin{align}P(f_j|s_j,f_i)&=P(c_j,t_j,p_j|s_j,f_i)\nonumber\\&=P(c_j|s_j,f_i)\nonumber\\&\timesP(p_j|s_j,f_i,c_j)\nonumber\\&\timesP(t_j|s_j,f_i,c_j,p_j)\nonumber\\&\hboxto84pt{$\approxP(c_j|s_j)$\hfill}\mbox{(表層格生成確率)}\\&\hboxto84pt{$\quad{}\timesP(p_j|f_i)$\hfill}\mbox{(読点生成確率)}\nonumber\\&\hboxto84pt{$\quad{}\timesP(t_j|f_i,p_j)$\hfill}\mbox{(提題助詞生成確率)}\nonumber\end{align}この近似は,$c_j$は$s_j$のみに,$p_j$は$f_i$のみに,$t_j$は$f_i$と$p_j$に依存すると考えられるためである.表層格生成確率は,表層格を解釈した格をタグ付けした京都テキストコーパス\cite{Kawahara2002j}を用いて推定する.日本語では,読点や提題助詞はそれらの属する文節が遠くに係る場合に用いられやすいという傾向がある.このような傾向を考慮して,読点生成確率$P(p_j|f_i)$と提題助詞生成確率$P(t_j|f_i,p_j)$を以下のように定義する.\begin{align}P(p_j|f_i)&=P(p_j|o_i,u_i)\\P(t_j|f_i,p_j)&=P(t_j|o_i,u_i,p_j)\end{align}$o_{i}$は,対象格要素がほかの係り先候補を越えて$v_i$に係る場合に$1$をとり,それ以外では$0$となる.$u_i$は,節の区切れとしての強さであり,強い節ほど読点や提題助詞をもつ句を受けやすい.節の強さとしては,南による節の分類\cite{Minami1993}を参考にして設定した5段階を考える.\subsection{用言タイプ生成確率}\label{Section::付属語列生成確率}用言タイプ生成確率$P(f_i|f_{h})$は,文節$b_{h}$のタイプを条件にしたときに,それに係っている節$c_i$の用言タイプを生成する確率である.この確率は,節$c_i$が連用節であるか連体節であるかで次のように異なる.節$c_i$が連用節の場合は,節間の係り受けに大きな影響を及ぼすと考えられる読点の有無と連用節のタイプ(強さ)を考慮する.これに加えて,$c_i$がほかの係り先候補を越えて$b_{h}$に係るかどうかを考慮する.\begin{equation}P_{\mathit{VBmod}}(f_i|f_{h})=P_{\mathit{VBmod}}(p_i,u_i|p_{h},u_{h},o_{h})\end{equation}節$c_i$が連体節である場合は,受側すなわち体言のタイプには依存しないと考え,次のように定義する.\begin{equation}P_{\mathit{NBmod}}(f_i|f_{h})=P_{\mathit{NBmod}}(p_i|o_{h})\end{equation}
\section{実験}
提案手法によって解析した構文・述語項構造の評価実験を行った.各パラメータは表\ref{Table::ParameterEstimation}のリソースから最尤推定によって計算した.これらのリソースは一度の処理で得られたものではなく,構文解析,格フレーム構築,格解析という順番で処理を行い,得られたものである.ここにおける格解析は,シソーラスに基づく類似度を用いた格解析\cite{Kawahara2005}である.格フレームはウェブテキスト約5億文から自動構築したものを用い,格解析済みデータはウェブテキスト約600万文を格解析することによって得たものを用いた.構文構造の候補としては,ルールベースの構文解析器KNPが出力するすべての候補を用いた.\begin{table}[b]\input{table2.txt}\end{table}\subsection{構文解析実験}構文解析実験は,ウェブテキスト675文\footnote{これらの文は格フレーム構築とモデル学習には用いていない.}を形態素解析器JUMANに通した結果を提案システムに入力することによって行う.その675文には,京都テキストコーパスと同じ基準で係り受けのタグ付けを行い,これを用いて係り受けの評価を行った.文末から2つ目までの文節以外の係り受けを評価し,その評価結果を表\ref{Table::Accuracy}に示す.表において,「CaboCha」とは,SVMに基づく統計的構文解析器CaboCha\footnote{http://chasen.org/{\textasciitilde}taku/software/cabocha/(形態素解析器JUMANの結果を入力できる最後のバージョンであるCaboCha0.36を用いた.)}を表し,「KNP」とは,構文解析器KNPを表しており,いずれのシステムにも同じ形態素解析結果を入力している.係り受けの精度比較のため,「CaboCha」には「KNP」による文節区切りの結果を入力し,文節区切りも一致させている.\begin{table}[b]\input{table3.txt}\end{table}\begin{table}[b]\input{table4.txt}\end{table}表\ref{Table::Accuracy}より,提案手法は「CaboCha」や「KNP」より精度がよいことがわかる.マクネマー検定を行った結果,提案手法の精度は「CaboCha」と「KNP」より有意($p<0.05$)に上回っていることがわかった.また,表には,係り受けのタイプごとの精度も併せて示してある.述語項構造と密接に関係しているのは,「体言$\rightarrow$用言」の係り受けであり,その中で中心的なのは「係助詞句以外」である.その精度は「KNP」と比べて1.6\%向上しており,エラー率は10.9\%減少している.これより提案手法が,述語項構造に関係する係り受けの解析に有効であることがわかる.表\ref{Table::GoodExamples}に,「KNP」では誤りになるが,提案手法によって正解になった例を挙げる.四角形で囲まれた文節の係り先が×下線部から○下線部に変化したことを示している.また,以下に提案手法の主な誤り原因を挙げる.\subsubsection*{係り受けの正解基準からのずれ}提案モデルは,語彙的な選好を強く考慮して係り受けを決定する.しかし,解析結果が,係り受けの正解基準とずれるために,誤りとなる場合がある.\begin{itemize}\item\fbox{行政相談委員は,}~いつでも自宅でみなさんからのご相談に\qline{応じていますが,}{×}この期間中は次のところで行政相談所を\qline{開きます.}{○}\end{itemize}この文において,「行政相談委員は,」の正解係り先は「開きます.」であるが,提案手法は係り先を「応じていますが,」と解析し,誤りとなる.「開きます.」,「応じていますが,」のどちらも意味的には係り先として正しいと考えられるが,基準としては文末の「開きます.」であるのでずれが生じる.このような問題を解決するには,省略関係の正解を考慮しながら評価を行う必要がある.\subsubsection*{係り受けの制約}KNPが出力している構文構造の候補中に,正解の構造が含まれていないことがある.\begin{itemize}\item本当に,美味い~\fbox{コーヒーを}~\qline{お探しの}{○}方にオススメの\qline{サイトです.}{×}\end{itemize}この文において,「コーヒーを」の正解係り先は「お探しの」であるが,「お探しの」は「コーヒーを」の係り先候補にはなっていないために解析が誤る.「お探しの」のような体言の文節は,通常,連体修飾しか受けないためこのような扱いになっているが,この問題を解決するためにはこのような制約を緩める,より多くの候補を探索する必要がある.\subsubsection*{各確率の重み付け}提案モデルにおいて,各確率を重み付けすることは行っていない.実際には,読点を考慮する確率と用例を生成する確率のどちらかを強く考慮するかの重みを最適化した方がよい場合があり,機械学習手法を用いてそのような最適化を行うことが考えられる.\subsection{格解析実験}述語項構造が正しく認識されているかを評価するために,係助詞句と被連体修飾詞の格が正しく認識できているかどうかを調べた.ウェブテキスト215文に対して京都コーパスと同様の基準で関係タグを付与し,それと自動解析結果を比較した.精度を表\ref{Table::CaseAccuracy}に示す.ベースラインとは,類似度に基づく格解析手法\cite{Kawahara2005}である.この表より,ベースラインから大幅に改善しており,提案手法が有効であることがわかる.\begin{table}[b]\input{table5.txt}\end{table}\subsection{格フレームのカバレージ}解析における格フレームのカバレージを調べるために,格要素がその係り先用言の格フレームの用例になっているかどうかを調べた.正しい係り受けのみを評価したところ,60.7\%の格要素が格フレームの用例となっていた.比較のため,新聞記事26年分の2,600万文から構築した格フレームで同様の実験を行ったところ,35.1\%であった.これより,ウェブテキスト5億文から構築した格フレームは高いカバレージをもっていることが確認された.また,英語の統計的構文解析器において,テスト文中の2項間の依存関係が学習コーパス中に存在する割合が約1.5\%であるという報告がある\cite{Bikel2004}.言語・リソースの違いがあるので直接の比較はできないが,格フレームのカバレージは非常に高いと思われる.
\section{関連研究}
これまでに,語彙的選好を明示的に扱う構文解析手法がいくつか提案されてきた.白井らは,PGLRの枠組みに基づく統計的構文解析手法を提案している\cite{Shirai1998}.語彙的選好として,例えば$P(パイ|を,食べる)$のような確率を新聞記事5年分から学習している.しかし,本研究で用いたような格フレームは導入しておらず,用言の意味的曖昧性を区別せずに確率推定を行っている.京都テキストコーパス中の比較的短い500文を用いて評価を行い,84.34\%の解析精度であったと報告している.藤尾らは,語の共起確率に基づく構文解析手法を提案している\cite{Fujio1999}.2つの語が係り受けをもつ確率と距離確率の積で定義した確率モデルを用いており,それらの確率はEDRコーパスから学習している.EDRコーパス1万文を用いて評価を行い,86.89\%であったと報告している\footnote{文末から2つ目の文節も評価に入れている.}.阿辺川らは,同じ用言を係り先とする格要素間の従属関係と,格要素・用言間の共起関係を利用した構文解析手法を提案している\cite{Abekawa2006}.これら2つの関係を新聞記事30年分から収集し確率モデルを学習している.既存の構文解析器の出力するn-bestの構文木候補に対して,確率モデルに基づくリランキングを適用し,もっとも確率値の高い構文木を選択している.京都テキストコーパス中の約9,000文を用いて評価を行い,既存の構文解析器よりも0.26\%高い91.21\%の精度を実現している\kern0pt$^{3}$.さらに,阿辺川らの被連体修飾詞の解析\cite{Abekawa2005}を統合することによって,0.04\%高い91.25\%の精度を得ている.一方,語彙情報を素性として用いている様々な機械学習手法が提案されている.その中でもっとも良い精度を実現しているのは,工藤らが提案している統計的構文解析手法である\cite{Kudo2002}.この手法は,SVMに基いてチャンキングを段階的に適応していくモデルであり,京都テキストコーパスから学習している.同コーパス(約40,000文)を用いて2分割交差検定により評価を行い,90.46\%の精度を実現している\kern0pt$^{3}$.しかし,数万文程度のタグ付きコーパスからでは,係り先候補間の語彙的選好を十分学習するのはほとんど困難であると思われる.なお,本論文の実験で比較対象とした「CaboCha」は,本手法を実装した解析器である.\vspace{-0.5\baselineskip}
\section{おわりに}
本論文では,ウェブから獲得した格フレームに基づく構文・格解析の統合的確率モデルを提案した.このモデルによって,構文解析の精度が向上することを確認した.今後は,省略・照応解析を統合することによって,格フレームに基づく構文・格・省略・照応解析の統合的確率モデルを構築する予定である.\vspace{-0.5\baselineskip}\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bikel}{Bikel}{2004}]{Bikel2004}Bikel,D.~M.\BBOP2004\BBCP.\newblock\BBOQIntricaciesof{C}ollins'ParsingModel\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf30}(4),\mbox{\BPGS\479--511}.\bibitem[\protect\BCAY{藤尾\JBA松本}{藤尾\JBA松本}{1999}]{Fujio1999}藤尾正和\JBA松本裕治\BBOP1999\BBCP.\newblock\JBOQ語の共起確率に基づく係り受け解析とその評価\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(12),\mbox{\BPGS\4201--4212}.\bibitem[\protect\BCAY{白井\JBA乾\JBA徳永\JBA田中}{白井\Jetal}{1998}]{Shirai1998}白井清昭\JBA乾健太郎\JBA徳永健伸\JBA田中穂積\BBOP1998\BBCP.\newblock\JBOQ統計的構文解析における構文的統計情報と語彙的統計情報の統合について\JBCQ\\newblock\Jem{自然言語処理},{\Bbf5}(3),\mbox{\BPGS\85--106}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2005}]{Kawahara2005}河原大輔\JBA黒橋禎夫\BBOP2005\BBCP.\newblock\JBOQ格フレーム辞書の漸次的自動構築\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\109--132}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2006}]{Kawahara2006}河原大輔\JBA黒橋禎夫\BBOP2006\BBCP.\newblock\JBOQ高性能計算環境を用いた{W}ebからの大規模格フレーム構築\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2006-NL-171},\mbox{\BPGS\67--73}.\bibitem[\protect\BCAY{河原\JBA黒橋\JBA橋田}{河原\Jetal}{2002}]{Kawahara2002j}河原大輔\JBA黒橋禎夫\JBA橋田浩一\BBOP2002\BBCP.\newblock\JBOQ「関係」タグ付きコーパスの作成\JBCQ\\newblock\Jem{言語処理学会第8回年次大会},\mbox{\BPGS\495--498}.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2002}]{Kudo2002}工藤拓\JBA松本裕治\BBOP2002\BBCP.\newblock\JBOQチャンキングの段階適用による係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(6),\mbox{\BPGS\1834--1842}.\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1994}]{Kurohashi1994}黒橋禎夫\JBA長尾眞\BBOP1994\BBCP.\newblock\JBOQ並列構造の検出に基づく長い日本語文の構文解析\JBCQ\\newblock\Jem{自然言語処理},{\Bbf1}(1),\mbox{\BPGS\35--57}.\bibitem[\protect\BCAY{南}{南}{1993}]{Minami1993}南不二男\BBOP1993\BBCP.\newblock\Jem{現代日本語文法の輪郭}.\newblock大修館書店.\bibitem[\protect\BCAY{阿辺川\JBA奥村}{阿辺川\JBA奥村}{2005}]{Abekawa2005}阿辺川武\JBA奥村学\BBOP2005\BBCP.\newblock\JBOQ日本語連体修飾節と被修飾名詞間の関係の解析\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(1),\mbox{\BPGS\107--123}.\bibitem[\protect\BCAY{阿辺川\JBA奥村}{阿辺川\JBA奥村}{2006}]{Abekawa2006}阿辺川武\JBA奥村学\BBOP2006\BBCP.\newblock\JBOQ共起情報及び複数格の組み合わせを考慮した係り受け解析\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(2),\mbox{\BPGS\43--62}.\end{thebibliography}\begin{biography}\bioauthor{河原大輔}{1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.2002年同大学院博士課程単位取得認定退学.東京大学大学院情報理工学系研究科学術研究支援員を経て,2006年独立行政法人情報通信研究機構研究員,現在に至る.構文解析,省略解析,知識獲得の研究に従事.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程修了.京都大学工学部助手,京都大学大学院情報学研究科講師,東京大学大学院情報理工学系研究科助教授を経て,2006年京都大学大学院情報学研究科教授,現在に至る.自然言語処理,知識情報処理の研究に従事.}\end{biography}\biodate\end{document}
| |
V15N04-04 | \section{はじめに}
計算機科学でいう「オントロジー」とは,ある行為者や行為者のコミュニティーに対して存在しうる概念と関係の記述であり「概念」というのは,何らかの目的のために表現したいと思う抽象的で単純化した世界観である(Gruber1992).認知科学では,「概念」について外延的意味(事例集合で定義された意味)と内包的意味(属性の集合から定義された意味)の見方があるとする\cite{Book_02}.我々の認知活動の中で,概念化は,語,文,文脈,動作の仕方,事柄,場面など,様々なレベルで行われている.では,なぜ対象の概念化が必要かというと,河原では,MedinandGoldstone\nocite{book_24}を引用して「概念」の機能を次のように述べている(MedinandGoldstone1990;河原2001)「現在の経験を,あるカテゴリの成員とみなす(分類)ことで,その経験を意味のあるまとまりとして解釈し(理解と説明),そこから将来に何がおきるか(予測)や関連する別の知識(推論)を引き出すことが可能になる(コミュニケーション).その他,複数の概念を表す語を組み合わせて新たな概念を生成したり,新たな概念の記述を生成してから,その記述にあう事例を検索することもできる」.つまり,人間や計算機が効率的に柔軟な活動をするために,概念と,(言語化する・しないにかかわらず)概念の具体化された表現(あるいは事例)の総体である「オントロジー」は重要な役割を担っているといえる.我々が対象とする言語的オントロジー,特に,語彙の概念を体系化したオントロジーは,概念体系や意味体系と呼ばれ10年以上前から人手で構築されてきた(EDR電子化辞書(日本電子化辞書研究所1995)や分類語彙表\cite{book_16}など).その目的は,ある特定のアプリケーションでの利用ではなく,我々の言語知識を体系化することであり,その知識体系を利用して計算機に予測・推論・事例の検索・新たな概念の理解など,深い意味処理をさせることを目的としている.本研究がめざす「形容詞のオントロジー」の目的も,従来の語彙的なオントロジーの目的と同様に,計算機や人間が,形容詞を使って表現する知識の体系化をはかるものである.ここで本研究の「形容詞」とは,形容詞と形容動詞を含むものとする.従来のものと異なる点は,実データからの獲得を図るため,運用の実態を反映したオントロジーを得ようとすることである.人間の内省による分析の場合,概念記述を行う個々人の言語的経験から,概念体系の粒度や概念記述に差異がでてくる.心理実験のように,複数の人が同じタスクをすれば共通の傾向もとれるが,通常のプロジェクトでは同じ個所に多くの人を投入することは不可能である.自動獲得の目的は,できるだけ実際の言語データから言語事実を反映した結果を得ることである.一つ一つのテキストは個々人の記述だが,それを量的に集めれば,複数の人のバリエーションを拾うことができ,結果的に多くの人の言語運用の実態をとることができる.言語データから意味関係を反映した概念体系を捉えられれば,人間の内省によって作られたオントロジーや言語学的知見,意味分類などと比較することは意義があるのではないかと考える.ところで,コーパスからの語彙のクラスタリングや上位下位関係の自動構築などについては,Webの自動アノテーションやインデックス,情報検索など,その目的は様々であるが,そのほとんどが,名詞や動詞を対象にした分類や関係抽出である.形容詞や副詞に関する研究はまだ少ない.しかし,形容詞や副詞が語彙のオントロジーにとって重要でないわけではなく,たとえば,WordNetで形容詞の意味情報が手薄であることを指摘し,イタリア語形容詞の意味情報を導入することで,ヨーロッパの複数言語で共同開発しているEuroWordNetの抽象レベルの高い概念体系(EuroWordNetTopOntology)に変更を加えることを試みている研究がある\cite{Inproc_01}.オントロジーの主要な関係の一つに,類義関係と階層関係がある.形容詞概念を表すような抽象的な名詞の類義関係については,馬らなどの研究がある\cite{Article_21}.しかし,形容詞概念の階層関係については,まだ研究が進んでいない.本研究では,形容詞概念の階層関係に着目し,コーパスから取得した概念から階層を構築する方法と,妥当そうな階層を得るための評価について述べる.本研究で扱う概念数は約365概念であり,それに対しEDR電子化辞書の形容詞の概念数が約2000概念ほどと考えると取り扱うべき概念はさらに増える可能性があるが,本研究は,現時点よりも多くの概念数を扱うために,まず,現段階での概念数で,階層構築とその評価方法について実験および考察を行ったものである.我々は,第2節でオントロジーのタイプの中で本研究がめざすオントロジーについて述べ,第3節で先行研究の言語学的考察から,形容詞の概念を語彙化したような表現があることを述べ,形容詞の概念をコーパスから抽出する.第4節では第3節で抽出したデータをもとに複数の尺度での階層構築と,得られた階層のうち,妥当そうな階層を判別するための条件を述べ,第5節で心理実験によってEDRの形容詞概念階層と比較評価を行う.第6節でオントロジー構築に向けての今後の展望をのべ,第7節でまとめを行う.
\section{オントロジーのタイプ}
「オントロジー」という用語が喚起する定義や種類,目的などは多様化しているため,本研究がどのようなオントロジーで,何を目的として作るのかを明らかにする必要がある.Sowaは,主なオントロジーのタイプとして,terminologicalontology,prototype-basedontology,formalontologyなどをあげている(Sowa2003).Terminologicalontologyは,概念の上位下位関係や部分全体関係などの関係が特定され,他の概念との相対的な関係が決められているタイプのものである.このタイプのオントロジーは概念を完全に定義するものではない.意味公理や論理的な定義よりも,プロトタイプや事例によって弁別されるオントロジーが,prototype-basedontologyである.つまりプロトタイプ集合や事例集合が相対的な関係をもって分類されているタイプのものである.また,論理形式で書かれる意味公理や定義によって概念が弁別されるオントロジーがformalontologyである.論理の複雑さの制限はない.一般的なterminologicalontologyとformalontologyの違いは,種類というより,概念間の関係の深さが異なり,formalontologyは規模が概して小さいが,深い記述がされるため推論をサポートするのに用いられる.Biemannはそれぞれのタイプを図示し(図1),長所と短所を述べている\cite{Article_03}.このうち,formalontologyは直接推論に使えるものの,コード化に労力がかかり,大規模になると不整合もおきる危険性がある.一方,terminologicalontologyやprototype-basedontologyは自動化がしやすく作りやすい.しかし,prototype-basedontologyは,概念ラベルがないので,QAシステムなどには使いにくい.このオントロジーは語のクラスタリングによってすぐに導出されるのでterminologicalontologyより構築しやすいが,利用しにくい.その他の種類として,シソーラスがあげられる.シソーラスは関連語のまとまりをもち,prototype-basedontologyに似ている.しかし,関連語などの中には互いに異なった関係も含まれている場合がある.テキストからオントロジーを学習するのに利用できる手法として,分布特性によるクラスタリングをはじめ,表層的な統語情報や特定の言語表現パタンなどを利用して,階層関係や部分全体関係などの単語間の関係を獲得する研究などがある\cite{Inproc_10,Inproc_09,Inproc_05,Inproc_04}.これらの研究と関係が深いが,Semanticlexiconの構築としてのオントロジーの学習という観点もある.Semanticlexiconは,カテゴリと事例のセットという形であるが,オントロジーのように内部的に構造化されていない.そのアルゴリズムのほとんどがbootstrappingのアプローチである\cite{Inproc_29,Inproc_36,Inproc_18,Inproc_27}.\begin{figure}[t]\begin{center}\includegraphics{15-4ia4f1.eps}\caption{菜食主義用食物と非菜食主義用食物を区別する食物オントロジー}(Biemann2005\nocite{Article_03}p.79からの引用)\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{15-4ia4f2.eps}\end{center}\caption{Semanticlexicon}\end{figure}以上,Sowa,Biemann\nocite{Article_03}に従ってオントロジーのタイプを概観したが,我々が目的とする形容詞のオントロジーは,形容詞が事例となり,その事例が共通してもつ概念がラベルとなり,その概念ラベルが構造化されたオントロジーという形である.上記でいえば,Semanticlexiconのように形容詞の事例とそれらが共通にもつ概念を一つのユニットとして,それが,ラベルつきprototype-basedontologyのように構造化されたものである.これは,EDR電子化辞書や分類語彙表などの語彙の概念体系/意味体系と同様の形である.ただし,概念名については,EDR電子化辞書は説明的記述を使い,『分類語彙表』の項目では抽象的な語句あるいは代表的な形容詞を使っているが,本研究では,概念ラベルを抽象的な名詞で表現している.オントロジーは柔軟に概念と表現を結びつける必要があるので,概念間の関係は一種類ではなく複数想定され,木構造よりネットワーク的な形態の可能性もある.しかしまずは,概念の類義関係と階層関係をとらえていきたいと考える.本稿では,その一環として,特に,形容詞の概念の上位・下位関係について焦点をあてる.
\section{言語表現に現れる「概念とその具体事例」という関係}
\subsection{言語現象}日本語では,高橋が,以下のような例を言語学的に観察している\cite{Article_34}.(1)やぎは\underline{性質}がおとなしい\par(2)ぞうは\underline{鼻}が長い(1)の「性質」は,主体「やぎ」からみると主体のある一面を表すので「側面語」であり,(2)は,主体「ぞう」からみると身体の一部であるので「部分語」と呼び分けて,統語的には同じ構造でも,語の文中での役割の違いを指摘した.そして,側面語については,主語が示すものの側面を表すとともに,述語が示す属性の類概念(上位概念)を表す単語であると考察している.また根本は,「色が白い」「速さがはやい」「年が若い」「背が高い」などは,同義反復的な性格が強いと述べている\cite{Book_26}.このように,我々の言語活動の中でも,形容詞の上位概念を語彙化した表現がみられる.本研究では,(1)の「性質—おとなしい」や「色—白い」「速さ—はやい」などの関係を,「概念とその具体事例」という関係と捉え,このような抽象的な名詞と形容詞の共起をコーパスから抽出する.本稿では,このような抽象的な名詞を「概念」とよび,共起する形容詞を「事例」と考える.\subsection{コーパスからの抽出方法}次に抽出方法であるが,上記の例のような「NはXがAdj」というパタンは今回は利用していない.この構文のNとX,Adjの意味関係は様々である.それは,3.1節の(1)と(2)が構文上同じ形をしているにもかかわらず,NやAdjに対するXの意味関係が違っていることからもわかる.従って,コーパスから「NはXがAdj」の文型を集めると,量は多いが,「概念とその具体事例」という関係を雑多な関係の中から取捨選択することが難しい.これにはなんらかの基準が必要である.(なるべくある程度のノイズがあっても自動化したり,あるいは人間が簡単に判別できる基準を求める必要があろうが,それは今後の課題とする.)\begin{description}\item[1]抽出方法は,毎日新聞94年,95年の2年分のデータから,「XトイウY」の句を抽出することからスタートする.「トイウ」の直前に現れる表現は,内容節(あるいは内容語)である.寺村,益岡は連体修飾表現を分析しているが,特に益岡では「トイウ」内容節をとる場合は,YがXの属する範疇だとしている\cite{Book_35,Book_19}.たとえば,「質実剛健という気風」の例では,「気風」(Yに相当)は「質実剛健」(Xに相当)の属する範疇ということである.そこで,何かを範疇化する可能性をもつ「Y」の収集を目的として,「XトイウY」を使って「Y」をコーパスから自動的に抽出した.このプロセスは,具体事例によって説明される被修飾名詞の収集を意図している.具体的には,コーパスを形態素解析(JUMANを使用)したあと,「トイウ」の前後の単語を抽出した.最終的にYにくる被修飾名詞は15,391語となった.\item[2]次に,「トイウ」を介在して内容語を取るYを集めた後,Yと共起する形容詞をコーパスから抽出する.たとえば,「温和な性格」とは表現しても,「トイウ」を介在させた「温和という性格」のような表現はあまり見られない.そこで,単にYと共起する形容詞を取り出すことにした.使用したデータは,毎日新聞11年分,日本経済新聞10年分,日経産業金融流通新聞7年分,読売新聞14年分である.また,新聞以外でも形容詞とY(名詞)の共起をとるため,新潮文庫100選,新書100冊についても使用例を人手によって調べ追加した.このように取り出した共起関係には,雑多な共起関係が含まれているので,本研究で対象とした,Xが具体事例でYがそれを範疇化した語という共起対(「赤い」と「色」のような共起対)を,最終的に人手で整理した.人手によるデータ整理は,一人の作業者が行った.判定基準は,神崎,神崎・井佐原で記述されている,連体用法にみられる形容詞と名詞の統語的・意味的関係の中から,以下の関係を採用した\cite{Article_12,Article_13}.\end{description}\begin{description}\item[I]Adj(形容詞)+X(名詞)⇒XがAdj\\Xを限定する表現(そのX,「NはXが〜」など)をとらなくても「XがAdj」に変換可能なもの.\\被修飾名詞が属性を表現するタイプ.(例)ゆるやかな傾斜\item[II]主語述語関係に変換ができない\begin{description}\item[II-1]形容詞は,被修飾名詞の意味を構成する一部の意味だけにかかり,類似した意味を重ねて強調する働き(例)古い昔\item[II-2]被修飾名詞の指示対象の内容を表す(例)悲しい思い\end{description}\end{description}I)は直接的な属性—属性値の関係であり,II-1)は被修飾名詞の意味の一部を形容詞で顕在化し重ねることで強調する関係,II-2)は被修飾名詞の指示対象の内容を具体化する関係となっている.どれも被修飾名詞の意味を含意しつつ形容詞表現で具体化する関係であるため,これら3つのパタンを採用した.以上のように,上記プロセスの2のステップでは,最終的に人間の内省で取捨選択しており,やはり労力がかかるが,1のステップで,被修飾名詞を「何かを範疇化する可能性のある語」に限定することで,抽出対象とする形容詞と概念の共起対を多く含んだデータを得ようとした.人間の取捨選択で得られた形容詞とY(名詞)共起対の総数は36,023共起対,異なりが10,524共起対である.概念数は365で,最大共起形容詞数は,「こと」の1,594語である.出現する共起形容詞数に対する各概念の例は以下のようになる.\pagebreak\begin{table}[h]\caption{形容詞の共起数ごとの概念例}\begin{center}\input{04table01.txt}\end{center}\end{table}そして,抽出した概念と形容詞グループを最終的に以下のようなリストにまとめた.\begin{table}[h]\caption{抽出した概念と形容詞グループ}\begin{center}\includegraphics{15-4ia4t2.eps}\end{center}\end{table}概念名となる抽象名詞と形容詞集合のリストを作る際,同じ抽象名詞であっても,明らかに指示対象が異なる場合は,番号をつけて区別した.たとえば,物理的な「形」(たとえば「丸い形」)と,形式的な意味の「形」(たとえば「おだやかな形で〜」)では,「形」の指すものが異なるので,「形1」「形2」のように区別し,形容詞集合をわけた.一方,形容詞についてはどのような名詞と共起しているか,だけをみており,ここで形容詞の多義は区別していない.
\section{概念の階層関係の構築—階層構築の手法と閾値の選定基準—}
本節では,包含関係を求める尺度を使い,第3節で抽出した形容詞の概念の階層構築を行う.概念間の包含関係を求める尺度として,HagitaandSawakiが開発し山本・梅村が言語データへ応用した補完類似度(ComplementarySimilarityMeasure,CSM)と,頻度を考慮したCSM(Freq),そして,CSM以外の尺度としてオーバーラップ相関係数(OverlapCoefficient,Ovlp)を使う\cite{Inproc_08,Article_37,Book_22}.2つの概念間の包含関係を計算したのち階層構築を行うが,予備実験を行った結果,全ての包含関係の概念ペアを使うと明らかにランダムな長い階層ができた.そこで,包含関係が希薄な概念ペアが階層関係の精度を低くすることを阻止するため,包含関係の値に閾値を設定することにした.しかし,閾値設定の問題点として,ゴールドスタンダードがないこのタスクで,複数の尺度や閾値の組み合わせから構築された階層の明らかな差異を,一見して判定できない場合,どのように妥当そうな階層を特定したらよいのだろうか.第5節では心理実験によって階層評価を行うが,事前に明らかに不適当な尺度と閾値の組み合わせを除外するために,緩やかな階層の評価方法が必要になる.本節では,包含関係の尺度を用いて階層構築を述べた後,包含関係の尺度と閾値の組み合わせの妥当性をいくつかの観点から眺め,妥当そうな類似尺度と閾値をある程度特定する方法を述べる.\subsection{包含関係の尺度}包含関係の尺度として,3種類の方法を用いた.まず,補完類似度(CSM)について述べる.補完類似度は一対多関係を推定する尺度として提案されたが,事象間の一対多関係は,包含関係(あるいは上位下位関係)を表すので,包含関係を推定する尺度とも考えられる.山本,梅村では,{沖縄県,那覇市}のような一対多関係を推定するタスクを行っており,そのタスクでは,コーパスからの関係抽出に用いられた他の類似尺度や連想規則の抽出に用いられる類似尺度など(たとえば相互情報量,コサイン関数,ダイス相関係数など)よりもよい結果を示したことが報告されている\cite{Article_37}.この補完類似度を用いて,対象としている概念の包含関係,つまり上位下位関係を推定する.補完類似度は以下のようになる.今,共起形容詞のセットで定義した抽象名詞$F$と$T$があるとする.我々のデータでは,FとTの特徴ベクトルは,双方の共起形容詞の出現状況を0または1で表現したものに相当する.それを以下のように表す.\begin{align*}&\overrightarrow{F}=(f_{1},f_{2},...,f_{i},...,f_{n})\quad(f_{i}=0または1)\\&\overrightarrow{T}=(t_{1},t_{2},...,t_{i},...,t_{n})\quad(t_{i}=0または1)\end{align*}そして,補完類似度の式は以下のようになる.\begin{gather}CSM(F,T)=\frac{ad-bc}{\sqrt{(a+c)(b+d)}}\\\begin{aligned}&a=\sum_{i=1}^nf_i\cdott_i,&&b=\sum_{i=1}^nf_i\cdot(1-t_i),\\&c=\sum_{i=1}^n(1-f_i)\cdott_i,&&d=\sum_{i=1}^n(1-f_i)\cdot(1-t_i),\\&n=a+b+c+d&&\end{aligned}\nonumber\end{gather}``$a$''はFとTで共通する共起形容詞の数である.\\``$b$''はFとは共起するがTとは共起しない形容詞の数である.\\``$c$''はFとは共起しないがTとは共起する形容詞の数である.\\``$d$''はFともTとも共起しない形容詞の数である.\\``$n$''は,ベクトルの次元数となる.\vspace{\baselineskip}FがTを完全に包含する場合,$c=0$となり,TがFを包含する場合,$b=0$となるため,$bc=0$となる.補完類似度では,一致情報(ad)と不一致情報(bc)の差分をとるので,包含関係にある二語間の類似度は高くなる.さらに,補完類似度はFからTの類似度とTからFの類似度が非対称であることも特徴の一つである.FからTをみた補完類似度では,$b$はFだけに出現する形容詞の数,$c$はTだけに出現する形容詞の数である.逆に,TからFをみた補完類似度では,$b$はTだけに出現する形容詞の数となり,$c$はFだけに出現する形容詞の数となる.計算式の分母をみると,FとTがどちらの方向の類似度を計算するかで,$b$と$c$に代入される数値の大小が逆転し,それに伴って,類似度も非対称になる.次にCSMと比較する手法として,オーバーラップ相関係数(Ovlp)と頻度つきCSM(Freq)の階層を用いる.オーバーラップ相関係数について,ManningandSh\"{u}tzeは包含関係を求める尺度として述べている\cite{Book_22}.これは,二値ベクトル間の類似尺度で,計算式は以下のようになる.{\allowdisplaybreaks\begin{gather}\begin{aligned}&\overrightarrow{F}=(f_{1},f_{2},...,f_{i},...,f_{n})\qquad&(f_{i}=0または1)\\&\overrightarrow{T}=(t_{1},t_{2},...,t_{i},...,t_{n})&(t_{i}=0または1)\end{aligned}\nonumber\\\begin{aligned}[b]\mathit{Ovlp}(F,T)&=\frac{|F\capT|}{\mathit{min}(|F|,|T|)}\\&=\frac{a}{\mathit{min}(a+b,a+c)}\end{aligned}\\\begin{aligned}&a=\sum_{i=1}^nf_i\cdott_i,&b=\sum_{i=1}^nf_i\cdot(1-t_i),\\&c=\sum_{i=1}^n(1-f_i)\cdott_i&\end{aligned}\nonumber\end{gather}}$a$,$b$,$c$などのパラメータは,CSMでの定義と同様である.次に頻度を考慮した補完類似度について計算式を示す.これは,Sawaki,Hagiga,andIshiiが二値画像のための補完類似度を,多値画像解析のために拡張したものである\cite{Inproc_31}.Yamamoto,Kanzaki,andIsaharaではこれを言語データに応用している\cite{Inproc_39}.これは,多値ベクトル間の類似尺度で,計算式は以下のようになる.\begin{gather}\begin{aligned}&\overrightarrow{F}_g=(f_{g1},f_{g2},...,f_{gi},...,f_{gn})\qquad&(0\leqf_{gi}<1)\\&\overrightarrow{T}_g=(t_{g1},t_{g2},...,t_{gi},...,t_{gn})&(0\leqt_{gi}<1)\end{aligned}\nonumber\\CSM_{g}(F_{g},T_{g})=\frac{a_{g}d_{g}-b_{g}c_{g}}{\sqrt{nT_{g2}-T_{g}^{2}}}\\\begin{aligned}&a_{g}=\sum_{i=1}^nf_{gi}\cdott_{gi},&&b_{g}=\sum_{i=1}^nf_{gi}\cdot(1-t_{gi}),\\&c_{g}=\sum_{i=1}^n(1-f_{gi})\cdott_{gi},&&d_{g}=\sum_{i=1}^n(1-f_{gi})\cdot(1-t_{gi}),\\&T_{g}=\sum_{i=1}^nT_{gi},&&T_{g2}=\sum_{i=1}^nt_{gi}^2\\\end{aligned}\nonumber\end{gather}この定義式において,各要素は,には,抽象名詞(概念に相当)がi番目の形容詞と頻繁に共起するかどうかの状況を表す,共起頻度に基づく重みを用いる.重みは以下のように求める.\begin{gather}\mathit{Weight}(\mathit{noun},\mathit{adj})=\frac{\mathit{Freq}(\mathit{noun},\mathit{adj})}{\mathit{Freq}(\mathit{noun},\mathit{adj})+1}\\\text{重みの値域は$0\leq\mathit{Weight}(\mathit{noun},\mathit{adj})<1$である.}\nonumber\end{gather}ベクトル$\overrightarrow{F}_g$を持つ抽象名詞を$\mathit{noun}_F$と$\overrightarrow{T}_g$を持つ抽象名詞を$\mathit{noun}_T$とし,上式の重みで$f_{gi}とt_{gi}$を表すと,ベクトルは以下のように表される.\begin{align}\overrightarrow{F}_g&=(f_{gi},f_{g2},...,f_{gn})\nonumber\\&=(\mathit{Weight}(\mathit{noun}_F,\mathit{adj}_1),\mathit{Weight}(\mathit{noun}_F,\mathit{adj}_2),\dots,\mathit{Weight}(\mathit{noun}_F.\mathit{adj}_n))\nonumber\\\overrightarrow{T}_g&=(t_{gi},t_{g2},\dots,t_{gn})\nonumber\\&=(\mathit{Weight}(\mathit{noun}_T,\mathit{adj}_1),\mathit{Weight}(\mathit{noun}_T,\mathit{adj}_2),\dots,\mathit{Weight}(\mathit{noun}_T.\mathit{adj}_n))\end{align}\subsection{概念階層の構築方法}CSMなどによって包含関係を計算し,値を正規化して得られたリストの一部を示すと以下のようになる.\vspace{-1\baselineskip}\begin{table}[h]\caption{CSMによって推定された包含関係}\begin{center}\includegraphics{15-4ia4t3.eps}\end{center}\vspace{-2\baselineskip}\end{table}単語Aから単語Bを見たときのCSM値が,単語Bから単語Aを見たときのCSM値より大きければ,単語Aが上位語,単語Bが下位語となる.たとえば,本稿では概念とは第3節で抽出した抽象的な名詞で定義しており,上記の概念の並びは,左の概念からみた右の概念の包含関係を表している.たとえば,左の概念が「印象」で右の概念が「感じ」の場合は,「印象」からみた「感じ」を示し,上記ではCSM値は0.936となる.逆に,方向が逆転し,左の概念が「感じ」で右の概念が「印象」の場合は,「感じ」からみた「印象」の包含関係を表し,0.778となる.この場合「印象」から「感じ」を見るほうが,CSM値が高いので,「印象」は「感じ」の上位概念となる.ただし,この場合は両方向からのCSM値が高いので,かなり事例に重なりがあると考えられる.上記のような二単語間の包含関係を求めた後,これを利用して階層を構築する.階層構築方法は次のようになる.\begin{itemize}\item[(0)]初期階層として,CSM値の高い順に二単語をつなげる.\\ここでは,仮に単語Aが上位語,単語Bが下位語という関係とする.\\階層(0):A-B(``-''は上位下位関係を示す記号とする)\item[(1)]まず,階層(0):A-Bの下位語を探索する.\\二単語間のCSM値のリストから,単語Bを上位語として,Bの下位語として最大値をとる単語Xを探して,単語Bの後ろに連結し,次に,その単語Xを上位語として,Xの下位語として最大値をとる単語Yを探して,単語Xの後ろに連結する.この操作を下位語がなくなるまで繰り返す.これによって以下のような階層ができる.\\階層(1):A-B-X-Y\item[(2)]次に,\pagebreak階層(0):A-Bの上位語を探索する.\\二単語間のCSM値のリストから,単語Aを下位語として,Aの上位語として最大値をとる単語Wを探して,単語Aの前に連結し,次に,その単語Wを下位語として,Wの上位語として最大値をとる単語Vを探す.この操作を上位語がなくなるまで繰り返す.階層(1)と連結することで以下のような階層ができる.\\階層(2):V-W-A-B-X-Y\\ただし,上位下位関係は必ず保存する.もし上位下位関係が逆転した場合はその関係は連結しない.\item[(3)]長い階層に完全に含まれる短い階層はマージし,二つの階層のうち一単語ずつ異なる場合は,各階層の差異となる二単語の補完類似度の値を測り,上位下位関係があれば結合した.\begin{itemize}\item[例1)]A-B-C-D-EとA-B-Dという階層があるとき\\A-B-Dは,順序を保存した状態で長い階層に完全に含まれるのでマージし,短い階層は削除する.\\A-B-C-D-E\item[例2)]A-B-C-D-EとA-B-X-D-Eがあるとき\\CとXの補完類似度の値を求め,CとXに上位下位関係があれば結合した.\\A-B-C-X-D-E\end{itemize}\item[(4)]最後に各階層のトップに「こと」を結合する.「こと」は全ての形容詞と共起するとして,計算時間の便宜上,「こと」は最後に各階層のトップに結合させることとした.\\最終階層:こと-V-W-A-B-X-Y\end{itemize}\subsection{妥当そうな手法と閾値の選定}4.2節で求めた概念間の包含関係を全て使って階層を構築すると,冗長な意味のない概念階層(つまり単語の羅列)になり,閾値があまりに高いと,概念階層は非常に短くなる(つまり,連結される名詞があまりにも少なくなる).そこで,包含関係が希薄な概念ペアが階層関係構築時に悪影響を及ぼすことを阻止するため,包含関係の値に閾値を設定することにした.CSMについては0.3と0.2,Ovlpについては0.3と0.2,Freqについては0.2と0.1の閾値を設定し,その閾値以上の概念間の包含関係を用いて階層を構築した.これらの閾値による階層は,概念を連結したある程度の長さの階層であり,かつ,明らかにおかしい概念の羅列ではない.この閾値以上でも以下でも,前述の弊害が出る.逆にいえば,前述の閾値からできた階層は,一見して妥当なのか,妥当ではないのか,すぐにはわからないともいえる.手法ごとに多くの階層が生成され,閾値をいくつか設定すれば,その分だけ,また階層が増えるので,心理実験などで既存辞書との比較評価を行おうと思えば,妥当そうな階層を事前に選定した方が効率的である.そこで,次のような観点から,階層を分析した.\begin{itemize}\item[(1)]形容詞の階層としてできた階層の割合\\第2節で述べたprototype-basedontologyで構造化された事例集合(図1)をみるとわかるように,最下位レベルで出現している「チーズ」は,最上位レベルの事例集合にも出現している.通常,上位概念の特徴は下位概念の特徴に「継承」される.概念の特徴を定義するのが事例集合である場合,下位レベルで出現する事例は,上位レベルの概念の事例にもなる(「すずめ」は,鳥の事例でもあり,動物の事例でもあり,生物の事例である).この認知科学的ルールから,自動構築した階層の,最下位概念の事例集合(形容詞の集合)が,最上位概念までの各概念の事例集合に含まれているかを調べ,連続して出現していれば,その階層は,当該形容詞の階層と考える.本稿のデータで考えると,「形容詞の階層としてできた階層」とは,ある形容詞が,最下位から最上位に位置するすべての概念の形容詞集合に出現している場合,その階層を「形容詞の階層としてできた階層」と呼ぶ.もし,ある形容詞が,階層のどこかの概念の形容詞集合の成員でなければ,形容詞の階層とはよばず,手法によって得られた「階層」とよぶ.この考えに則って,手法ごとに,得られた階層の中で,形容詞の階層として得られた階層が何割あるか,計算した.分母は,ある手法に基づいて構築された全階層であり,分子は「形容詞の階層としてできた階層」である.\\\begin{equation}形容詞の階層として得られた階層の割合=\frac{形容詞の階層としてできた階層数}{ある手法に基づいて構築された階層の総数}\end{equation}\item[(2)]事例としてコーパスから抽出された全形容詞のうち,何語の形容詞に「形容詞の階層」が得られたか.\item[(3)]階層を構成する概念の割合\\概念としてコーパスから抽出した抽象名詞は全部で365語あるが,そのうち何割が階層を構成しているか.階層を構成する概念の割合は次のように計算した.\begin{equation}階層を構成する概念の割合=\frac{階層を構成する概念の異なり数}{抽出した全概念数(365語)}\end{equation}\end{itemize}上記3つの観点から各手法の結果を求めると,表4のようになる.表中で,高い数値の第一位から第三位に「○」,そのうち極端に数値が高い場合は「◎」を数字の前に付与した.また,極端に数値が低いものには「*」を付与した.表1から,総合的にみるとCSM0.2とOvlp0.3が,形容詞の階層としてできた階層の割合も,階層ができた形容詞数や365の概念のうちで階層を構成する概念の割合もよいとわかる.CSM0.3は,6種類の階層の中で形容詞の階層を最も多く作っているが,階層を構成している概念の数が最も低い.これは同じ階層をもつ形容詞のグループが,未分化である可能性がある.また,Ovlp0.2の階層は,形容詞の階層はあまり作られていないが,対象にしている365の概念をほとんど使って,階層を作っている.これは,冗長に階層を作っている可能性がある.程度の差こそあれ同様の傾向がみられるのはFreq0.1である.形容詞をカバーする階層は少ないが,階層を構成している概念が多いことがわかる.Freq0.2は,形容詞をカバーする階層は多めであるが,それより顕著な特徴は,階層を構成する概念の種類が少ないことである.程度の差こそあれ,その点では,CSM0.3に似た傾向がみられる.\begin{table}[t]\caption{階層の作られ方からみた手法別の階層の特徴}\input{04table04.txt}\end{table}上記の結果より,CSM0.2とOvlp0.3は,外見的に妥当そうな階層となっているので,EDRと比較する階層としてこの二者を選択する.また,頻度を考慮したCSM(Freq)については,両者の閾値とも外見上それほど適当ではないが,異なる種類を比較するということで,形容詞の階層が比較的得られているFreq0.2を,EDRとの比較実験に加えることとする.
\section{自動構築の階層とEDR辞書の概念階層との比較評価}
本節では,本研究の提案手法によって自動構築した階層と,EDR階層の優劣を心理実験によって定量的に比較する.EDR電子化辞書は,10年ほどの年月をかけ,言語学者や辞書編纂者などが携わった大規模な計算機用辞書である.この電子化辞書は概念体系をもち,各語彙は概念IDによって概念体系とリンクしており,概念IDから上位概念や下位概念などを辿ることができる.EDRの概念体系には局所的な不整合性や冗長性などの問題はあるものの,概念分類と概念間の関係を細かく記述した全品詞にわたる大規模シソーラスである.本研究が対象とする形容詞概念についても,EDRは広範囲にカバーしているため,本実験ではEDRを比較対象とした.EDRの概念記述は単語で定義されている場合もあれば,文で説明していることもある.たとえば,EDRの「肯定的な」という形容詞の概念階層の例を示すと次のようになる.\begin{description}\item[EDR階層:「肯定的な」]\mbox{}\\概念(3aa966)→事象(30f7e4)→移動(30f801)→情報の移動(30f832)→情報の受信(3f96e7)→知る(30f876)→認知主体と認知対象との認知的距離減少(3f972c)→(意見などに)同意しているさま(0f0ae2)\end{description}一方,自動生成の階層は,各ノードの概念が抽象名詞で表現されている.たとえば以下のような階層である.階層中,「面1」のような名詞の横の番号は,「面」の意味を区別した際に付与した番号である.(ここでは,「やさしい面がある」のような形式的な意味の「面」と「丸い面」のような物理的な面とを区別し,前者の形式的な意味の「面」を「面1」とした.)\begin{description}\item[自動生成の階層:「肯定的な」]\mbox{}\\こと→面1→傾向→見方→評価\end{description}二つの異なる形式の階層比較をした研究としては,概念記述間の単語の一致度によって表層的に評価した研究がある\cite{Article_38}.しかし上記の通り,本研究で自動抽出された階層とEDR階層の構造は異なり,また概念の比較評価という抽象的な対象を扱うタスクであるため,我々は,表層的な比較ではなく,心理実験による優劣の比較を行った.4.3節(1)でも触れたが,階層関係が成立する重要な条件として,\begin{itemize}\item[1)]上位概念の下位概念への継承性\item[2)]事例(本稿では形容詞)が,事例集合の成員として最下位概念から最上位概念まで出現する連続性\end{itemize}という二つの条件がある.本実験の目的は,上記二つの観点から,自動構築の階層とEDR階層の優劣の程度に関する人間の判断を数値化することにより,これら二つの階層間の優劣を統計的に比較することである.数値化手法としてはScheffeの一対比較法を用いた\cite{Article_32}.Scheffeの一対比較法で得られる値は相対的な値であるため,各々の階層の絶対的な優劣の程度は数値化できないが,異なる階層間の優劣の相対的な程度を数値化することができる.そしてこのような数値化によって,階層間の優劣の判断に関する被験者間のばらつきを考慮した上で,階層間の優劣を統計的に検定することができる.なお,言語データの評価にScheffeの一対比較法を用いた他の研究として,丸元らの研究があるが,この研究は敬語表現の丁寧さの程度の数値化にScheffe法を用いたものである\cite{Article_23}.\subsection{実験データについて}実験には,下記に示す三種類のデータを用いた.\begin{itemize}\item[1)]30語の形容詞に対して,CSM0.2,Ovlp0.3,Freq0.2の三手法の全て,あるいは,三手法のうち少なくともいずれか二手法で共通して生成された階層(以下,COMMONと呼ぶ)と,EDRの階層のペア.(COMMON-EDR)\item[2)]10語の形容詞に対して,CSM0.2だけで生成された階層とEDRの階層のペア.(CSM-EDR)\item[3)]10語の形容詞に対して,Ovlp0.3だけで生成された階層とEDRの階層のペア.(Ovlp-EDR)\end{itemize}Freq0.2の階層はCSM0.2の階層と殆ど同じであったので,本実験では,Freq0.2の手法だけで生成された階層は対象外にし,CSM0.2の階層のみをとりあげた.1)(COMMON-EDR)で対象となる30語の形容詞のリスト,2)(CSM0.2-EDR)で対象となる10語の形容詞のリスト,3)(Ovlp0.3-EDR)で対象となる10語の形容詞のリストをそれぞれ表5,表6,表7に示す.\setcounter{table}{4}\begin{table}[t]\caption{COMMON-EDRで対象となる形容詞(30語)}\input{04table05.txt}\end{table}\begin{table}[t]\begin{minipage}{200pt}\caption{CSM-EDRで対象となる形容詞(10語)}\input{04table06.txt}\end{minipage}\hfill\begin{minipage}{200pt}\caption{Ovlp-EDRで対象となる形容詞(10語)}\begin{center}\input{04table07.txt}\end{minipage}\end{table}\subsection{被験者}言語学者,辞書編集者,自然言語処理に関係する人,合計20人が被験者として参加した.\subsection{実験方法}各々の被験者には,各々の形容詞に対する自動構築の階層とEDRの階層のペアが各行に記された回答用紙が示された.この例を図3に示す.各行の左側には自動構築による階層(図中,A-B-C),右にEDR階層(図中,P-Q-R)が記される.ただし左が自動構築の階層で,右がEDRの階層であることは,被験者には知らせていない.被験者は,各行に記された2つの階層の妥当性を比較し,“左が妥当”/“どちらかといえば左が妥当”/“どちらともいえない”/“どちらかといえば右が妥当”/“右が妥当”のいずれかを回答するよう求められた.階層の判定基準として,被験者には概念の階層関係のルールを示した.これは第4節で述べた概念と事例の関係と同様の考え方である.\noindent[被験者に示したルール]\begin{itemize}\item[1)]事例の成員としての連続性:もし概念が階層関係であるならば,最下位概念の成員となる事例(本実験では形容詞)は最上位概念まで一貫して成員として出現している.\item[2)]概念の継承性:もし概念が階層関係であるならば,下位概念は上位概念から特徴を「継承」しており,下位概念は一方向的に上位概念の特徴を含意している.\end{itemize}\begin{figure}[t]\begin{center}\includegraphics{15-4ia4f3.eps}\end{center}\caption{被験者に提示した刺激と回答フォーム}\end{figure}ルール2は,以下の考察に基づいて設定した.即ちCruseでは次の様に述べている\cite{book_06}.もし,「Aはf(X)」であれば,「Aはf(Y)」が成り立つが,その逆の,「Aはf(Y)」であっても,「Aはf(X)」が必ずしも成り立たない場合には,XがYの下位語で,YはXの上位語であるといえる.たとえば,「太郎は犬です」が成り立てば必然的に「太郎は動物です」が成り立つが,「太郎は動物です」が成り立つ場合に,必ずしも「太郎は犬です」が成立するとは限らない.上位から下位へ概念が並んでいるためには,上位から下位への一方向的な概念継承がみられる必要がある.ルール1および2によって,下位から上位への事例(共起形容詞)の出現状況と,上位から下位への概念の継承性とを考慮して,階層の妥当性を判定してもらったのである.階層の妥当性に関し,Scheffe法によって数値化された値に基づき,自動生成で得られた階層とEDRの階層の間の平均値の有意差を,下記に示す検定量Tを用いて検定した.\begin{equation}T=\frac{\overline{x_1}-\overline{x_2}}{\sqrt{\frac{s_1^2}{N}+\frac{s_2^2}{N}}}\end{equation}Nは対象とする形容詞の数である,とはMethod1(自動構築)で得られた階層に対して各被験者について得られた数値の全被験者(20人)にわたる平均と不偏分散である.とはMethod2(EDR)で得られた数値の全被験者にわたる平均と不偏分散である.\subsection{実験結果}図4に,$\overline{x_{1}}$(“◆”で示す),$\overline{x_{2}}$(“■”で示す)を標準誤差とともに示す.図中の横軸は形容詞ID,縦軸は計量化した値を表す.縦軸の値が大きいほど,“より妥当である”ことを意味する.エラーバーはそれぞれの標準誤差を示す.エラーバーが長いほど被験者間のばらつきが大きいことを意味する.\begin{figure}[b]\begin{center}\includegraphics{15-4ia4f4.eps}\end{center}\caption{COMMONとEDRの階層の全被験者にわたる平均値と標準誤差}\end{figure}\subsubsection{30形容詞に対するCOMMON-EDR階層ペア}\noindent[検定結果]\begin{description}\item[有意にCOMMON$>$EDR]\mbox{}\\形容詞ID:22,26(30個中2個)\item[有意にCOMMON$<$EDR]\mbox{}\\形容詞ID:1,2,4,7,8,9,11,16,19,20,21,23,24,25,27,29,30(30個中17個)\item[両Method間に有意差なし(ただしCOMMON$>$EDR)]\mbox{}\\形容詞ID:3,13,14,18,28(30個中5個)\item[両Method間に有意差なし(ただしCOMMON$<$EDR)]\mbox{}\\形容詞ID:5,6,10,12,15,17(30個中6個)\end{description}\noindent[COMMON-EDR階層比較の考察]本提案手法で自動生成(COMMON)された階層がEDR階層より有意に良かった形容詞は2個であった.一方,自動生成の階層よりもEDR階層の方が有意に良かった形容詞は17個であった.また,両者の間に有意差がなかった形容詞は11個であった.例として形容詞IDを挙げるが,その形容詞IDに対する階層については付録に載せる.本提案手法で得られた階層の方がEDR階層より良かった形容詞は,例えば,ID-22の「肯定的な」に対する階層である.本提案手法で得られた階層よりEDR階層の方が優位に良かった形容詞は,例えば,ID-7の「早い」に対する階層である.両方に有意差がなかった形容詞はたとえば,ID-17の「甘美な」に対する階層である.以上から,COMMONに関しては,本研究で提案した手法は,43\%(30個中13個)の形容詞に関しEDRと同程度あるいはEDRより人間の直感にあう階層が生成できたことが示唆された.\subsubsection{10形容詞に対するCSM-EDR階層比較}\begin{figure}[b]\begin{center}\includegraphics{15-4ia4f5.eps}\end{center}\caption{CSMとEDRの階層の全被験者にわたる平均値と標準誤差}\end{figure}\noindent[検定結果]\begin{description}\item[有意にCSM$>$EDR]\mbox{}\\形容詞ID:無し(10個中0個)\item[有意にCSM$<$EDR]\mbox{}\\形容詞ID:1,5,6,9,10(10個中5個)\item[両Method間に有意差なし(ただしCSM$>$EDR)]\mbox{}\\形容詞ID:3,4(10個中2個)\item[両Method間に有意差なし(ただしCSM$<$EDR)]\mbox{}\\形容詞ID:2,7,8(10個中3個)\end{description}\noindent[CSM-EDR階層比較の考察]CSMでのみ作られた階層では,EDR階層の方が有意によいと判定された形容詞は5個(10個中50\%)であり,CSMの階層の方が有意によいと判定された形容詞は0個であった.また,CSM階層とEDR階層で有意差がないと判定された形容詞は5個(10個中50\%)であった.EDR階層の方が有意によいと判定された階層は,ID-1,5,6,9,10の形容詞であったが,特に,ID-5,10は,明確な有意差がみられる.たとえば,ID-5の「狭い」の階層を付録に示す.また,両手法間で有意差がなかった形容詞のうち,ID-4「開放的な」を付録に示す.以上から,CSMに関しては,本研究で提案した手法は,50\%(10個中5個)の形容詞に関しEDRと有意差がない階層を生成したことが示唆された.\subsubsection{10形容詞に対するOvlp-EDR階層比較}\begin{figure}[b]\begin{center}\includegraphics{15-4ia4f6.eps}\end{center}\caption{OvlpとEDRの階層の全被験者にわたる平均値と標準誤差}\end{figure}\noindent[検定結果]\begin{description}\item[有意にOvlp$>$EDR]\mbox{}\\形容詞ID:無し(10個中0個)\item[有意にOvlp$<$EDR]\mbox{}\\形容詞ID:1,2,3,4,5,6,7,8,10(10個中9個)\item[両Method間に有意差なし(ただしOvlp$>$EDR)]\mbox{}\\形容詞ID:無し(10個中0個)\item[両Method間に有意差なし(ただしOvlp$<$EDR)]\mbox{}\\形容詞ID:9(10個中1個)\end{description}\noindent[Ovlp-EDR階層比較の考察]Ovlp-EDRの階層比較では,EDR階層の方が有意によいと判定された形容詞が10個中9個あった.それに対し,Ovlpの階層とEDRの階層とで有意差がないと判定された形容詞は,ID-9のわずか1個だけであった.Ovlpの階層よりEDRの階層の方があきらかに有意によい階層としては,たとえば,ID-4「果敢な」に対する階層がある.階層例は付録に付す.両手法間で有意差のない階層(一つのみ)はID-9「不公平な」に対する階層である.階層例は付録に付す.以上から,Ovlpに関しては,本研究で提案した手法は,10\%(10個中1個)の形容詞に関しEDRと同程度の階層を生成したことが示唆された.\subsection{考察}本実験では,概念階層関係が成立するための重要な条件である「事例の成員としての連続性」と「概念の継承性」の点から,提案手法の階層とEDR階層の優劣の程度に関して,人間の判断を数値化することにより,統計的に検定した.その結果,EDRの階層の方が,「事例の成員としての連続性」と「概念の継承性」の観点で,COMMON,CSM,Ovlp,のどの手法による階層よりも,概ね良いことがわかったが,COMMONとCSMの階層においては,半分ほどはEDRの階層と同程度くらいであった.特にOvlpの評価は,全体の90\%ほどもEDRの方が有意に良いという判定となり,かなり悪かった.しかし,表1(第4節)で表層的な特徴からみると,CSM手法による階層と比較して悪い結果ではなかった.ここで実験した自動構築手法の階層に共通して言えることであるが,特にOvlpで顕著にみられた原因があった.では,その原因は何か.それを探るため,被験者のコメントを参考に分析した.被験者は概して最下位概念と最上位概念との間に中間的な概念がないと,妥当性が低いと判断した.つまり,ルールで提示した継承性が失われていると判定した.表1の「階層の長さ」をみるとわかるように,Ovlpはノードの深さが9と短い.逆にCSMは,ノードの深さが13あり,これはほぼEDRのノードの深さと同じくらいである.短い階層を作るOvlpは,中間的なノードが作られていないと判断されたのである.CSM階層をEDR階層と比較する場合にも,多かれ少なかれ,この判断が反映されていた.上記の概念の継承性の問題で考えられるのは,概念数の不足があげられる.第4節の表1で示したように,CSM0.2は階層を構成している抽象名詞(本稿では概念に相当)は,365語中325語で約90\%,Ovlp0.3は,365語中317語で86\%となっており,閾値設定によって,抽象名詞が大幅に削られているわけでない.では,そもそも365語の名詞が不足なのかどうかについてであるが,365語の名詞は,新聞2年分から第3節で述べたパタン(「XというY」など)を使い特定の意味関係(「具体事例とそれが属する概念」という意味関係)を抽出したものであり,データスパースネスの問題も考えられる.また,一つの目安としてEDRの形容詞の概念数を調べると約2000強ほどある.365概念ではまだ不足していると考えられる.今後さらに抽出方法も含めデータを精査していきたい.また,我々の手法で取り出した365語の抽象名詞は,質的に,形容詞の概念のラベルとして適当かどうかという問題もある.この問題については,試験的に,我々が抽出した抽象的な名詞(本稿で概念と呼んでいるもの)とその形容詞集合の組をランダムサンプリングして18組用意し,5人の被験者に,同じ形容詞集合に対するEDRの概念と比較評価してもらった.この小規模な実験では,提示した形容詞集合に対してEDRの概念より我々が抽出した概念の方が適当という回答が多くみられ(全90問(18組×5人)中57問,63\%),18組での小規模な実験の範囲ではよい感触を得ているが,さらに実験方法とその結果も含めさらに精査していきたいと考えている.その他,人手でデータを取捨選択した際に,「具体事例とそれが属する概念」という関係以外の関係も含まれている可能性もあり,データを見直し対象外のものを除く必要があろう.次に,継承性が低いと評価された階層について考察すると,形容詞の多義性と事例数の関係が問題として考えられる.EDRに比べ明確に有意に悪い形容詞は,COMMONのID-1「ユニークな」ID-4「古い」,ID-7「早い」,ID-9「遅い」,ID-16「鋭い」ID-23「高い」である.どれも基本的な抽象度の高い形容詞である.提案手法での自動階層では,多義的な語についてうまく階層を構築できていない可能性がある.原因として考えられるのは,一つはそもそも多義の場合の概念をすべてコーパスから抽出しきれていない可能性である.もう一つは,階層構築で考えられる問題点である.ある概念の事例集合に多義的な形容詞が1語しかない,つまり他に手がかりとなる事例がない場合,概念間の包含関係の質的な判断を必要とする.たとえば,[背丈]にも[金額]にも「高い」「低い」だけが事例として出現している場合,[背丈]と[金額]の「高い」を区別する必要がある.しかし,階層をみると,現状では,最上位レベルの概念と直接結合したり,多義の別の概念と結びついたり(たとえば,「高い」に対して[背丈]と[金額]が結びつく),概念の継承性の評価が低いようである.今後の課題として,各概念の事例としての形容詞の網羅性と,事例が少ない概念間の関係(特に事例が多義的な場合の概念間の関係)についての対応について考える必要がある.自動抽出した語彙の評価方法には,他にも語義のあいまい性解消,情報検索などへの応用によって評価を行うことも考えられる.それらの多角的な観点も含め,概念階層の評価方法についても今後,さらに検討していきたいと考える.
\section{今後の展望—類義関係と階層関係をとらえるために—}
第3節で取り出した言語データから形容詞概念を体系的にとらえるためには,階層関係と同時に類義関係も考慮する必要がある.これまでに,形容詞と抽象的な名詞を類義関係によって自動分類する研究として,Kohonenの自己組織化神経回路網モデル(Self-Organizingmap,SOM)を用いた研究がある\cite{Article_28,Article_21}.Kohonenの自己組織化神経回路網モデルは,高次元入力をもつ2次元配列のノード(ニューロン)で構成され,自己組織化によって高次元データを2次元空間に,その特徴を反映するように,非線形的に射影する.特徴は,得られる分布が可視的でまた連続的であるということである.特に,連続的な分布という性質は,言葉の意味の連続性を反映できると考えられ,馬らの研究に用いられている.出力される2次元平面は,意味的に類似性の高い名詞どうしが近くに配置され,意味的に類似性の低い名詞どうしが遠くに配置されるような,意味的類似性を距離とする2次元表現である.馬らは出力される2次元平面をマップと呼んでいる.馬らの研究では,SOMの分類能力を多変量解析や階層型クラスタリング手法等と比較実験し,その結果,他手法より劣らない,あるいは彼らのタスクに関してはむしろよい結果を得たと報告している.しかし,提案されたSOMによる分類では,類義関係以外の意味関係は求めることができなかった.Kanzakiet~al.では,上位下位関係(包含関係)をSOMに導入する実験を行っている\cite{Inproc_14}.この実験でSOMの入力データとなる単語の特徴ベクトルは,当該単語に対する全対象単語との包含関係値を多次元ベクトルにしたものである.つまり,この特徴ベクトルをSOMの入力とすることにより,類似した包含関係をもつ単語どうしが類義関係をもつことになる.SOMは通常,類義関係を可視化するので,SOMに包含関係を導入した場合,出力されるマップは,上位下位関係が反映された方向性ある分布になるか,あるいは方向性の全くみられない分布になるかの可能性が考えられる.包含関係を導入したSOMの分布は,評価方法が提案されていないためさらに検討する必要があるものの,抽象度が高い名詞から抽象度の低い名詞へと方向性ある分布を示唆したものとなった.SOMによるマップに,概念の階層関係が反映されれば,同じような上位下位関係をもつ概念が類義関係となって近くに分布することになり,階層関係と類義関係を同時に反映した分類をえられる可能性がある.結果は,既存のシソーラスなどと比較して差異を考察すると共に,形容詞側から,得られた概念体系に従って形容詞表現の様相をとらえていきたい.
\section{まとめ}
本研究では,将来的に実データに基づいた形容詞の観点からみた上位下位関係と類義関係をとらえるため,その一環として形容詞の概念の階層関係に着目し,コーパスから取得した概念から階層を構築する方法と,妥当そうな階層を得るための評価について述べたものである.階層の評価は,事例(形容詞)の各概念の成員としての連続性と概念の継承関係という観点から評価し,まず,収集した形容詞の出現状況や構築された概念の表層的な面からと,心理実験でEDRとの比較を行う質的な面から評価した.表層的な観点からの評価で,CSM,Ovlp,Freqの三つの手法と複数の閾値を組み合わせた階層の中で,CSMの手法で閾値0.2以上を使った階層と,Ovlpの手法で閾値0.3以上を使った階層を外見的に妥当そうな階層として絞った.そして次のステップの心理実験で,EDR概念階層との比較評価の対象として採用した.心理実験によるEDR概念階層との比較評価では,「概念の継承性」と「事例の成員としての連続性」という観点で,自動構築とEDRとで概念階層の優劣を判定してもらい統計的に数値化した.その結果上記二つの観点からの評価では,EDRの階層の方が,COMMON(Ovlp,CSM,Freq共通),CSM,Ovlpのどの手法による階層よりも,概ね,有意に良いことがわかったが,COMMONとCSMの階層においては,半分ほどはEDRの階層と同程度くらいであった.自動生成の階層が既存辞書の階層に対して,その結果の半分弱の階層で問題を提起するという意味で,ベースラインとなる数値と考える.自動階層の評価が低かった主な要因は,最下位概念と最上位概念との間に中間的な概念がないと,妥当性が低いと判断されたことであった.原因としては,概念数の不足,形容詞の概念ラベルの妥当性,形容詞の多義性などが考えられる.これらの点をさらに精査し,今後,SOMによる概念分布に対応させ,類義関係とあわせタクソノミー的な構造として,形容詞の概念体系をとらえていきたい.オントロジーは必ずしも木構造ではないかもしれないが,階層関係と類義関係については,それを計算する尺度が利用できることもあり,最初にこれらの関係を明らかにしていきたいと考える.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Alonge,Bertagna,Calzolari,Roventini,\BBA\Zampolli}{Alongeet~al.}{2000}]{Inproc_01}Alonge,A.,Bertagna,F.,Calzolari,N.,Roventini,A.,\BBA\Zampolli,A.\BBOP2000\BBCP.\newblock\BBOQEncodinginformationonadjectivesinalexical-semanticnetforcomputationalapplications\BBCQ\\newblockIn{\Bemthe1stConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(ACL)}.\bibitem[\protect\BCAY{安西}{安西}{1989}]{Book_02}安西祐一郎\BBOP1989\BBCP.\newblock\Jem{岩波講座ソフトウエア科学認識と学習,第16巻}.\newblock岩波書店.\bibitem[\protect\BCAY{Berland\BBA\Charniak}{Berland\BBA\Charniak}{2000}]{Inproc_04}Berland,M.\BBACOMMA\\BBA\Charniak,E.\BBOP2000\BBCP.\newblock\BBOQFindingPartsinVeryLargeCorpora\BBCQ\\newblockIn{\Bem38thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)}.\bibitem[\protect\BCAY{Biemann}{Biemann}{2005}]{Article_03}Biemann,C.\BBOP2005\BBCP.\newblock\BBOQOntologyLearningfromText:ASurveyofMethods\BBCQ\\newblock{\BemLDV-Forum},{\Bbf20}(2),\mbox{\BPGS\75--93}.\bibitem[\protect\BCAY{Caraballo}{Caraballo}{1999}]{Inproc_05}Caraballo,A.~S.\BBOP1999\BBCP.\newblock\BBOQAutomaticAcquisitionofaHypernym-LabeledNounHierarchyfromText\BBCQ\\newblockIn{\Bem37thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)}.\bibitem[\protect\BCAY{Cruse}{Cruse}{1986}]{book_06}Cruse,D.~A.\BBOP1986\BBCP.\newblock{\BemLexicalSemantics}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Hagita\BBA\Sawaki}{Hagita\BBA\Sawaki}{1995}]{Inproc_08}Hagita,N.\BBACOMMA\\BBA\Sawaki,M.\BBOP1995\BBCP.\newblock\BBOQRobustRecognitionofDegradedMachine-PrintedCharactersusingComplimentarySimilarityMeasureandError-CorrectionLearning\BBCQ\\newblockIn{\BemtheSPIE---TheInternationalSocietyforOpticalEngineering,2442}.\bibitem[\protect\BCAY{Hearst}{Hearst}{1992}]{Inproc_09}Hearst,A.~M.\BBOP1992\BBCP.\newblock\BBOQAutomaticAcquisitionofHyponymsfromLargeTextCorpora\BBCQ\\newblockIn{\Bemthe14thInternationalConferenceonComputationalLinguistics}.\bibitem[\protect\BCAY{Hindle}{Hindle}{1990}]{Inproc_10}Hindle,D.\BBOP1990\BBCP.\newblock\BBOQNounClassificationFromPredicate-ArgumentStructures\BBCQ\\newblockIn{\Bemthe28thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)}.\bibitem[\protect\BCAY{Kanzaki,Ma,Yamamoto,\BBA\Isahara}{Kanzakiet~al.}{2004}]{Inproc_14}Kanzaki,K.,Ma,Q.,Yamamoto,E.,\BBA\Isahara,H.\BBOP2004\BBCP.\newblock\BBOQConstructionofanObjectiveHierarchyofAbstractConceptsviaDirectionalSimilarity\BBCQ\\newblockIn{\Bem21stInternationalConferenceonComputationalLinguistics(COLING)}.\bibitem[\protect\BCAY{神崎}{神崎}{1997}]{Article_12}神崎享子\BBOP1997\BBCP.\newblock\JBOQ連体修飾関係を結ぶ形容詞類と名詞\JBCQ\\newblock\Jem{計量国語学},{\Bbf21}(2),\mbox{\BPGS\53--68}.\bibitem[\protect\BCAY{神崎\JBA井佐原}{神崎\JBA井佐原}{1999}]{Article_13}神崎享子\JBA井佐原均\BBOP1999\BBCP.\newblock\JBOQ形容詞類の連体用法にみられる連用的な意味\JBCQ\\newblock\Jem{計量国語学},{\Bbf22}(2),\mbox{\BPGS\51--65}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{1964}]{book_16}国立国語研究所\BBOP1964\BBCP.\newblock\Jem{分類語彙表}.\newblock秀英出版.\bibitem[\protect\BCAY{Lin\BBA\Pantel}{Lin\BBA\Pantel}{2002}]{Inproc_18}Lin,D.\BBACOMMA\\BBA\Pantel,P.\BBOP2002\BBCP.\newblock\BBOQConceptDiscoveryfromText\BBCQ\\newblockIn{\Bemthe19thInternationalConferenceonComputationalLinguistics(COLING)}.\bibitem[\protect\BCAY{馬\JBA神崎\JBA村田\JBA内元\JBA井佐原}{馬\Jetal}{2001}]{Article_21}馬青\JBA神崎享子\JBA村田真樹\JBA内元清貴\JBA井佐原均\BBOP2001\BBCP.\newblock\JBOQ日本語名詞の意味マップの自己組織化\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(10),\mbox{\BPGS\2379--2391}.\bibitem[\protect\BCAY{Manning\BBA\Sh{\"u}tze}{Manning\BBA\Sh{\"u}tze}{1999}]{Book_22}Manning,C.~D.\BBACOMMA\\BBA\Sh{\"u}tze,H.\BBOP1999\BBCP.\newblock{\BemFoundationsofStatisticalNaturallanguageProcessing}.\newblockTheMITPress.\newblockpp.~298--303.\bibitem[\protect\BCAY{丸元\JBA白土\JBA井佐原}{丸元\Jetal}{2005}]{Article_23}丸元聡子\JBA白土保\JBA井佐原均\BBOP2005\BBCP.\newblock\JBOQ動詞待遇表現に対する丁寧さの印象に関する定量的分析—接頭辞オを用いた表現と接頭辞ゴを用いた表現との比較—\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(5),\mbox{\BPGS\71--90}.\bibitem[\protect\BCAY{益岡}{益岡}{1994}]{Book_19}益岡隆志\BBOP1994\BBCP.\newblock\Jem{名詞修飾節の接続形式—内容節を中心に—.田窪行則編『日本語の名詞修飾表現』}.\newblockくろしお出版.\newblockpp.~5--27.\bibitem[\protect\BCAY{Medin\BBA\Goldstone}{Medin\BBA\Goldstone}{1990}]{book_24}Medin,D.~L.\BBACOMMA\\BBA\Goldstone,R.~L.\BBOP1990\BBCP.\newblock{\BemConceptinEysenck,M.W.Ed.,TheBlackwellDictionaryofCognitivepsychology,\textup{Cambridge,MA:BasicBlackwellInc}}.\bibitem[\protect\BCAY{根本}{根本}{1969}]{Book_26}根本今朝男\BBOP1969\BBCP.\newblock\JBOQ「が格」の名詞と形容詞とのくみあわせ\JBCQ\\newblock\Jem{国立国語研究所報告書,電子計算機のための国語研究II}.\bibitem[\protect\BCAY{Pantel\BBA\Ravichandran}{Pantel\BBA\Ravichandran}{2004}]{Inproc_27}Pantel,P.\BBACOMMA\\BBA\Ravichandran,D.\BBOP2004\BBCP.\newblock\BBOQAutomaticallyLabelingSemanticClasses\BBCQ\\newblockIn{\BemHumanLanguageTechnology/NorthAmericanAssociationforComputationalLinguistics(HLT/NAACL)}.\bibitem[\protect\BCAY{Riloff\BBA\Shepherd}{Riloff\BBA\Shepherd}{1997}]{Inproc_29}Riloff,E.\BBACOMMA\\BBA\Shepherd,J.\BBOP1997\BBCP.\newblock\BBOQAcorpusbasedapproachforbuildingsemanticlexicons\BBCQ\\newblockIn{\BemtheSecondConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)}.\bibitem[\protect\BCAY{Ritter\BBA\Kohonen}{Ritter\BBA\Kohonen}{1989}]{Article_28}Ritter,H.\BBACOMMA\\BBA\Kohonen,T.\BBOP1989\BBCP.\newblock\BBOQSelf-OrganizingSemanticMaps\BBCQ\\newblock{\BemBiologicalCybernetics},{\Bbf61},\mbox{\BPGS\241--254}.\bibitem[\protect\BCAY{Sawaki,Hagiga,\BBA\Ishii}{Sawakiet~al.}{1997}]{Inproc_31}Sawaki,M.,Hagiga,N.,\BBA\Ishii,K.\BBOP1997\BBCP.\newblock\BBOQRobustCharacterRecognitionofGray-ScaledImageswithGraphicalDesignsandNoise\BBCQ\\newblockIn{\BemtheInternationalConferenceonDocumentAnalysisandRecognition.IEEE.ComputerSciety}.\bibitem[\protect\BCAY{Scheffe}{Scheffe}{1952}]{Article_32}Scheffe,H.\BBOP1952\BBCP.\newblock\BBOQAnanalysisofvarianceforpairedcomparison\BBCQ\\newblock{\BemJournaloftheAmericanStatisticalAssociation},{\Bbf47},\mbox{\BPGS\381--400}.\bibitem[\protect\BCAY{高橋}{高橋}{1975}]{Article_34}高橋太郎\BBOP1975\BBCP.\newblock\JBOQ文中にあらわれる所属関係の種々相\JBCQ\\newblock\Jem{国語学},{\Bbf103},\mbox{\BPGS\1--16}.\bibitem[\protect\BCAY{寺村}{寺村}{1991}]{Book_35}寺村秀夫\BBOP1991\BBCP.\newblock\Jem{日本語のシンタクスと意味III}.\newblockくろしお出版.\bibitem[\protect\BCAY{Thelen\BBA\Riloff}{Thelen\BBA\Riloff}{2002}]{Inproc_36}Thelen,M.\BBACOMMA\\BBA\Riloff,E.\BBOP2002\BBCP.\newblock\BBOQABootstrappingMethodforLearningSemanticLexiconsusingExtractionPatternContexts\BBCQ\\newblockIn{\Bemthe2002ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)}.\bibitem[\protect\BCAY{Yamamoto,Kanzaki,\BBA\Isahara}{Yamamotoet~al.}{2005}]{Inproc_39}Yamamoto,E.,Kanzaki,K.,\BBA\Isahara,H.\BBOP2005\BBCP.\newblock\BBOQExtractionofHierarchiesBasedonInclusionofCo-occurringWordswithFrequencyInformation\BBCQ\\newblockIn{\Bem19thInternationalJointConferenceonArtificialIntelligence(IJCAI)}.\bibitem[\protect\BCAY{山本\JBA神崎\JBA井佐原}{山本\Jetal}{2006}]{Article_38}山本英子\JBA神崎享子\JBA井佐原均\BBOP2006\BBCP.\newblock\JBOQ出現状況の包含関係による語彙の階層構造の構築\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(6),\mbox{\BPGS\1872--1883}.\bibitem[\protect\BCAY{山本\JBA梅村}{山本\JBA梅村}{2002}]{Article_37}山本英子\JBA梅村恭司\BBOP2002\BBCP.\newblock\JBOQコーパス中の一対多関係を推定する問題における類似尺度\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(2),\mbox{\BPGS\46--75}.\end{thebibliography}\appendix\noindent5.4.1.30形容詞に対するCOMMON-EDR階層ペア\\5.4.2.10形容詞に対するCSM-EDR階層比較\\5.4.3.10形容詞に対するOvlp-EDR階層比較上記3節に挙げた形容詞の階層を以下に示す.
\section{5.4.1.30形容詞に対するCOMMON-EDR階層ペア}
\noindent[自動階層の方がEDR階層より良いと判定された形容詞の階層]\noindentID-22肯定的な\begin{description}\item[自動階層:]\mbox{}\\こと→面1→傾向→見方→評価\item[EDR階層:]\mbox{}\\概念(3aa966)→事象(30f7e4)→行為(30f83e)→対象行為(444dd)→ものを対象とする行為(444dd9)→情報の移動(30f832)→情報の受信(3f96e7)→知る(30f876)→認知主体と認知対象との認知的距離減少(3f972c)\end{description}\noindent[EDR階層の方が有意に良いと判定された形容詞の階層]\noindentID-7早い\begin{description}\item[自動階層:]\mbox{}\\こと→時→速度→時刻\item[EDR階層:]\mbox{}\\概念(3aa966)→時(30f776)→時間点(3f9882)→基準時点の前後の時(444da3)→ある時間点よりも前の時点(444cc3)→基準になる時刻や時期より前であること(3cf6d9)\end{description}\noindent[両方に有意差がなかった形容詞の階層]\noindentID-17甘美な\begin{description}\item[自動階層:]\mbox{}\\こと→面1→イメージ→感覚→雰囲気→空気→気配→魅惑\item[EDR階層:]\mbox{}\\概念(3aa966)→事象(30f7e4)→状態(3aa963)→性状・性向(3f9871)→性状(444e60)→人のありさま(444db3)→人の気持ち(30f7b7)→人の気持ちの様子(3f98bd)→自分自身の感情や心境(444ded)→愉快・不愉快(30f961)→良い気持(0e89db)→心地よい(3cf426)\end{description}
\section{5.4.2.10形容詞に対するCSM-EDR階層比較}
\noindent[EDR階層の方が有意によいと判定された形容詞の階層]\noindentID-5狭い\begin{description}\item[自動階層:]\mbox{}\\こと→方→空間→面積\item[EDR階層:]\mbox{}\\概念(3aa966)→事象(30f7e4)→状態(3aa963)→性状・性向(3f9871)→事物の属性(444db1)→具体物の属性(3aa962)→具体物の空間的属性(444ce7)→形の値(444ce8)→形の広狭(3f9876)→空間的に小さいさま(1e88a8)\end{description}\noindent[両手法間で有意差がなかった形容詞の階層]\noindentID-4開放的な\begin{description}\item[自動階層:]\mbox{}\\こと→面1→イメージ→印象→態度→人柄→気質→気風→気性\item[EDR階層:]\mbox{}\\概念(3aa966)→*事象(30f7e4)→状態(3aa963)→性状・性向(3f9871)→事物の属性(444db1)→人間の属性(3aa961)→人の性格や態度(3f98c9)→態度や性格の値(444ce3)→善良(30f96d)→かくしだてをせず,あけっぴろげであること(3cf4b7)→かくしだてをすることなく,あけっぴろげであるさま(3ce57e)\end{description}
\section{5.4.3.10形容詞に対するOvlp-EDR階層比較}
\noindent[EDR階層の方が有意によいと判定された形容詞の階層]\noindent\ID-4果敢な\begin{description}\item[自動階層:]\mbox{}\\こと→性格→勇気\item[EDR階層:]\mbox{}\\概念(3aa966)→事象(30f7e4)→状態(3aa963)→性状・性向(3f9871)→事物の属性(444db1)→人間の属性(3aa961)→人の性格や態度(3f98c9)→態度や性格の値(444ce3)→豪胆・臆病(30f96f)→勇敢(30f96b)→思い切ったことをすること(3cefc5)\end{description}\noindent[両手法間で有意差がなかった形容詞の階層]\noindentID-9不公平な\begin{description}\item[自動階層:]\mbox{}\\こと→関係→差別\item[EDR階層:]\mbox{}\\概念(3aa966)→事象(30f7e4)→状態(3aa963)→性状・性向(3f9871)→さまざまな属性(444d17)→いろいろな抽象物の属性(444d27)→かたよりがあって平等でないようす(3cfcd6)\end{description}\begin{biography}\bioauthor{神崎享子}{1994年早稲田大学大学院文学研究科日本語日本文化専攻修士課程修了.1998年同大学院文学研究科日本語日本文化専攻博士課程単位取得後満期退学.2001年神戸大学大学院自然科学研究科修了.博士(学術).1998年〜2005年郵政省通信総合研究所.2005年〜独立行政法人情報通信研究機構.現在,独立行政法人情報通信研究機構主任研究員.自然言語処理,言語学の研究に従事.言語処理学会,計量国語学会,日本言語学会,日本語学会,会員.}\bioauthor{馬青}{1983年北京航空航天大学自動制御学科卒業.1987年筑波大学大学院修士課程理工学研究科修了.1990年同大学院博士課程工学研究科修了工学博士.1990--19931年株式会社小野測器勤務.1993年郵政省通信総合研究所入所.1994年同所主任研究官.2003年龍谷大学理工学部教授.自然言語処理の研究に従事.言語処理学会,情報処理学会,電子情報通信学会,日本神経回路学会,各会員}\bioauthor{山本英子}{1998年豊橋技術科学大学大学院工学研究科情報工学専攻修士課程修了.2002年同大学大学院工学研究科電子・情報工学専攻博士後期課程修了.博士(工学).2002年--2007年10月独立行政法人情報通信研究機構専攻研究員.現在,神戸大学工学研究科プロジェクト奨励研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{白土保}{1999年電気通信大学博士(工学).情報通信研究機構知識創成コミュニケーション研究センター推進室研究マネージャ.専門分野は,言語心理,音楽音響,感性情報処理.言語処理学会,電子情報通信学会,日本音響学会各会員.}\bioauthor{井佐原均}{1980年京都大学大学院工学研究科電気工学専攻修士課程修了.博士(工学).1980年通商産業省工業技術院電子技術総合研究所入所.1995年郵政省通信総合研究所知的機能研究室長.現在,独立行政法人情報通信研究機構上席研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会,日本認知科学会,人工知能学会各会員.}\end{biography}\biodate\end{document}
| |
V14N02-01 | \section{はじめに}
シソーラスは,機械翻訳や情報検索のクエリー拡張,語の曖昧性の解消など,言語処理のさまざまな場面で用いられる.シソーラスは,WordNet\cite{Miller90}やEDR電子化辞書\cite{EDR},日本語語彙大系\cite{goitaikei}など,人手で長い年月をかけて作られたものがよく用いられている\footnote{2003年からはWordNetだけに焦点を当てたInternationalWordNetconferenceも開催されている.}.しかし,こういったシソーラスを作成するのは手間がかかり,また日々現れる新しい語に対応するのも大変である.一方で,シソーラスを自動的に構築する研究が以前から行われている\cite{Crouch92,Grefenstette94}.Webページをはじめとする大規模で多様な文書を扱うには,シソーラスを自動で構築する,もしくは既存のシソーラスを自動で追加修正する手段が有効である.シソーラスの自動構築は,語の関連度の算出と,その関連度を使った関連語の同定という段階に分けられる\cite{Curran02-2}.2語の関連度は,コーパス中の共起頻度を用いて求めることができる\cite{Church90}.これまでの研究では,コーパスとして新聞記事や学術文書が用いられることが多かった.それに対し,近年ではWebをコーパスとして用いる手法が提案されている.Kilgarriffらは,Webをコーパスとして用いるための手法やそれに当たっての調査を詳細に行っている\cite{Kilgarriff03}.佐々木らはWebを用いた関連度の指標を提案している\cite{Sasaki05}.Webには,新聞記事や論文といった従来からある整形された文書のみならず,日記や掲示板,ブログなど,よりユーザの日常生活に関連したテキストも数多く存在している.世界全体で80億ページを超えるWebは,間違いなく現時点で手に入る最大のコーパスであり,今後も増え続けるだろう.Kilgarriffらが議論しているように,Webの文書が代表性を持つのかといった議論はこれからも重要になるが,Webはコーパスとしての大きな可能性を秘めていると著者らは考えている.Webをコーパスとして扱う際にひとつの重要な手段になるのが,検索エンジンである.これまでに多くの研究が検索エンジンを用いて,Web上の文書を収集したり,Webにおける語の頻度情報を得ている\cite{Turney01,Heylighen01}.しかし検索エンジンを用いる手法とコーパスを直接解析する手法には違いがあるため,従来使われてきた計算指標がそのまま有効に働くとは限らない.本論文では,Webを対象とし,検索エンジンを用いて関連語のシソーラスを構築する手法を提案する.特に,検索エンジンを大量に使用すること,統計的な処理を行うこと,スケーラブルなクラスタリング手法を用いていることが特徴である.ただし,類義・同義語に加え,上位・下位語や連想語など,より広い意味である語に関連した語を関連語とする.まず,2章で関連研究について述べる.そして,3章で検索エンジンを用いた関連度の指標を提案し,さらに4章では関連語ネットワークをクラスタリングする手法について紹介する.そして,5章では評価実験を行い,この手法の効果について議論を行う.
\section{関連研究}
語の関連性を自動的に得る方法は,これまでにさまざまな研究が行われている.コーパス中での語の共起情報をもとに語の関連度を測る指標として,様々なものが提案され用いられており\cite{Church90,Wettler93,Croft99,Curran02-2},それらは大きく2つに分けられる.1つは単語ベクトルを用いたベクトル空間手法である.これは,単語を多次元ベクトル空間の単語ベクトルで表現し,それぞれの単語ベクトルを比較することで関連度を測る手法である.ベクトル空間手法では,表\ref{CompareMethod}のようにベクトルの内積をもとにした計算指標が用いられている.表\ref{CompareMethod}において,$x_i,y_i$はそれぞれ単語ベクトル$\vec{x},\vec{y}$の$i$番目の要素を表す.なお,overlap係数はバイナリベクトルにしか用いることはできない.単語ベクトルの要素の取り方は研究によって様々であり,各文書への出現頻度を要素とするベクトルや各単語との共起頻度を要素とするベクトルなどが考えられる.ただし,独立な事象の確率は足し合わせることができないため,内積を用いる関連度では,語の出現確率を単語ベクトルの要素とすることは不適切と考えられる.もう1つはコーパス中での確率を用いる確率手法である.この手法では,2語がコーパス中で共起する確率をもとに関連度を算出している.確率手法で用いられている計算指標を表\ref{CompareMethod}に示す.表\ref{CompareMethod}において,$p(w\capw')$は語$w,w'$の共起確率を表し,$p(w\cupw')$は語$w,w'$のどちらかが出現する確率を表す.また$f$は\cite{Lin98a}で定義されている関数であり,$f(w,r,w')$は語$w,w'$が$r$の関係を持って出現する頻度を,$f(*,r,w')$は語$w'$がいずれかの語と$r$の関係を持って出現する頻度を表す.これらの計算指標は,ベクトル空間手法で用いられている指標を書き換えたものが多い.また,単語同士の共起確率ではなく,各単語が他の語と共起する確率の確率分布関数の類似性を用いて関連度を算出する研究も数多く行われている\cite{Brown92,Baker98,Slonim00}.確率分布関数を用いた類似度は,確率分布類似度(DistributionalSimilarity)と呼ばれる.類似した名詞は共通した動詞と共起すると仮定し,動詞との共起分布の類似性から関連度を算出している.\begin{table}[b]\begin{center}\caption{類似度の計算指標}\label{CompareMethod}\begin{tabular}{|c|c|c|c|}\hline\multicolumn{2}{|c|}{ベクトル空間手法}&\multicolumn{2}{|c|}{確率手法}\\\hlinecosine&$\frac{\vec{x}\cdot\vec{y}}{\sqrt{|\vec{x}||\vec{y}|}}$&相互情報量&$\log\left(\frac{p(w\capw')}{p(w)p(w')}\right)$\\\hlinedice&$\frac{2(\vec{x}\cdot\vec{y})}{\sum(x_i+y_i)}$&dice&$\frac{2p(w\capw')}{p(w\cupw')}$\\\hlineJaccard&$\frac{\vec{x}\cdot\vec{y}}{\sum(x_i+y_i)}$&Jaccard&$\frac{p(w\capw')}{p(w\cupw')}$\\\hlineoverlap&$\frac{|\vec{x}\cap\vec{y}|}{min(|\vec{x}|,|\vec{y}|)}$&T検定&$\frac{p(w\capw')-p(w')p(w)}{\sqrt{p(w')p(w)}}$\\\hlineLin$^{*1}$&$\frac{\sum(x_i+y_i)}{|\vec{x}|+|\vec{y}|}$&Lin98A$^{*2}$\footnotemark&$\log\left(\frac{f(w,r,w')f(*,r,*)}{f(*,r,w')f(w,r,*)}\right)$\\\hline\multicolumn{4}{l}{$^{*1}$\cite{Lin98a}で提案されている手法.}\\\multicolumn{4}{l}{$^{*2}$\cite{Lin98a}で提案されている手法.}\end{tabular}\end{center}\end{table}語の関連度が得られれば,関連度に基づいて語をクラスタリングすることで関連語が得られる.実際には,同じクラスタに分類された語同士を関連語や同義語であるとしている.語のクラスタリングには分布クラスタリング(DistributionalClustering)が用いられることが多い.分布クラスタリングとは,類似した名詞は共通した動詞と共起すると仮定し,各語の動詞との確率分布の類似度に基づいて,データを結合もしくは分割していくクラスタリング手法である\cite{Pereira93,HangLi98,Dhillon02}.これらコーパスから関連度を自動的に算出する手法では,コーパス内に出現する語しか扱えないという欠点がある.そのため,広範囲の語をカバーするためには,広範囲の内容をカバーするコーパスが必要となる.近年では,より広範囲の語をカバーするためにWebをコーパスとして用いることが提案されている.しかしWeb上の文書は莫大であり,直接収集し,解析するためには非常に大きな時間コストと設備コストがかかる.そのため,Web全体での語の出現頻度や2語の共起頻度を獲得するためには従来のコーパスを用いたシソーラス構築とは異なる工夫が必要である.そのような工夫の一つとしてKilgarriffらは検索エンジンを用いた手法を紹介している\cite{Kilgarriff03}.「語$w_a$」をクエリーとして検索エンジンを利用すると,語$w_a$のWeb上でのヒット件数が得られる.検索エンジンは非常に多くのページをクローリングしているため,このヒット件数を語$w_a$のWeb全体での出現頻度と近似できる.同様にして,「語$w_a$and語$w_b$」をクエリーとすれば,Web上での語$w_a$と語$w_b$の共起頻度を獲得することができる.検索エンジンから獲得できる頻度情報を用いて関連度を算出する手法としては,次のようなものがある.Heylighenは検索エンジンのヒット件数を用いた語の関連度の尺度により,語の分類や語の曖昧性解消,より優れた検索エンジンの開発の可能性を示唆している\cite{Heylighen01}.BaroniやTuerneyは,類義語を同定するために,検索エンジンを用いた語の関連性の尺度を提案している\cite{Baroni04,Turney01}.Turneyはその結果を用いることでTOEFLのシソーラスの問題で平均的な学生よりもよい得点を挙げたことを報告している.佐々木らは検索エンジンの上位ページとヒット件数を利用した専門用語集の自動構築を行っている\cite{Sasaki05}.Szpektorは名詞ではなく動詞の関連度を検索エンジンを用いて定義している\cite{Szpektor04}.これら検索エンジンを用いて関連度の計算を行っている研究では,条件付き確率や表\ref{CompareMethod}の確率手法で定義されているような相互情報量,Jaccard係数が計算指標として用いられている.
\section{検索エンジンを用いた関連性の測定}
本章では,Web上の情報を用いて語の関連度を測る手法を提案する.\subsection{検索エンジンのヒット件数の利用と従来手法の問題点}検索エンジンのヒット件数を用いて2語の関連度を計算する手法について説明する.ここでは,従来研究で用いられている相互情報量を計算指標として関連度を算出する.そして,その関連度を検証し,従来手法の問題点について述べる.具体的な例を使って説明しよう.ここで用いられている手法は,\cite{Baroni04}のものと同一である\footnote{ただし,Baroniらは検索エンジンとしてAltavistaを用いているが,Altavistaは日本語に正式に対応していないため,検索エンジンはGoogleを用いた.}.関連度を測りたい語を,例えば「インク」「インターレーザー」「プリンタ」「印刷」「液晶」「Aquos」「テレビ」「Sharp」の8語とする.これらの語群は,Epsonのプリンタであるインターレーザーに関する語と,Sharpの液晶TVであるAquosに関する語であり,各語の関連度を得ることで,2つのグループを適切に分けたいと仮定する.表\ref{singlehit}に示しているのは,語群の各語に対して,検索エンジンによって得られたヒット件数である.表\ref{cooccur-list}には,語群中の2語を検索エンジンのクエリーとしたときのヒット件数を行列形式にしたものを示す.例えば,「インク」と「プリンタ」であれば,\begin{center}``インク''\\\``プリンタ''\end{center}をクエリーとして検索エンジンに入力し,そのヒット件数を調べる\footnote{ダブルクオーテーションで囲んでいるのは,2単語以上からなるフレーズに対しても適切に処理するためである.}.8語に対してこの行列を得るには,$_8C_2=28$回のクエリーが必要となる.\begin{table}[b]\begin{center}\caption{語単独でのヒット件数}\label{singlehit}\begin{tabular}{c|c|c|c|c|c|c|c}プリンタ&印刷&\hspace{-0.5zw}{\footnotesizeインターレーザー}\hspace{-0.5zw}&インク&液晶&テレビ&Aquos&Sharp\\\hline17000000&103000000&215&18900000&69100000&192000000&2510000&186000000\\\end{tabular}\end{center}\vspace{\baselineskip}\caption{2語でのヒット件数の行列}\label{cooccur-list}\setlength{\tabcolsep}{2.5pt}\begin{tabular}{c|cccccccc|c}語/語&プリンタ&印刷&\hspace{-1.3zw}\scalebox{0.6}[1]{インターレーザー}\hspace{-1.3zw}&インク&液晶&テレビ&Aquos&Sharp&合計\\\hlineプリンタ&0&4780000&273&4720000&4820000&5090000&201000&990000&20601273\\印刷&4780000&0&183&4800000&6520000&11200000&86400&1390000&28776583\\\hspace{-1.3zw}\scalebox{0.6}[1]{インターレーザー}\hspace{-0.3zw}&273&183&0&116&176&91&0&0&839\\インク&4720000&4800000&116&0&3230000&4950000&144000&656000&18500116\\液晶&4820000&6520000&176&3230000&0&18400000&903000&4880000&38753176\\テレビ&5090000&11200000&91&4950000&18400000&0&840000&2830000&43310091\\Aquos&201000&86400&0&144000&903000&840000&0&1790000&3964400\\Sharp&990000&1390000&0&656000&4880000&2830000&1790000&0&12536000\\\hline合計&20601273&28776583&839&18500116&38753176&43310091&3964400&12536000&166442478\\\end{tabular}\end{table}Baroniらは,この2つの情報を使って求めた相互情報量の値が,語の関連度を示すよい指標になると述べている.相互情報量は,語$w_a$の出現確率を$p(w_a)$,語$w_b$の出現確率を$p(w_b)$,語$w_a$と語$w_b$の同時出現確率を$p(w_a\capw_b)$とすると,\pagebreak\begin{align}\label{MI}MI(w_a,w_b)&=\log\frac{p(w_a\capw_b)}{p(w_a)p(w_b)}\\\nonumber&=\log\frac{Nn(w_a,w_b)}{n(w_a)n(w_b)}\end{align}と表される.ここで$n(w_a)$は語$w_a$をクエリーとしたときのヒット数,$n(w_a,w_b)$は「語$w_a$語$w_b$」をクエリーとしたときのヒット数であり,また,$N$は検索エンジンのクロールした全ページ数である.Baroniらは$N$を3億5千万ページとしているが,2006年末現在では,Googleは約150億ページ,AltaVistaは約120億のページである.ここでは$N=100\times10^8$とした.表\ref{mutual}に相互情報量を示す.「液晶」の行に注目すると,「液晶」と関連が強いとあらかじめ想定している語は「テレビ」「Aquos」「Sharp」であるが,「プリンタ」や「インターレーザー」との相互情報量が大きく,「テレビ」や「Sharp」との値は小さくなっており,適切な関連度が算出されていない.\begin{table}[b]\begin{center}\caption{相互情報量行列}\label{mutual}\begin{tabular}{c|cccccccc}語/語&プリンタ&印刷&\scalebox{0.8}[1]{インターレーザー}&インク&液晶&テレビ&Aquos&Sharp\\\hlineプリンタ&0&4.195&7.504&5.878&4.602&3.635&4.740&2.029\\印刷&4.195&0&5.302&4.093&3.103&2.622&2.094&0.567\\\scalebox{0.8}[1]{インターレーザー}&7.504&5.302&0&6.542&5.663&3.981&0.000&0.000\\インク&5.878&4.093&6.542&0&4.096&3.501&4.301&1.512\\液晶&4.602&3.103&5.663&4.096&0&3.518&4.840&2.222\\テレビ&3.635&2.622&3.981&3.501&3.518&0&3.746&0.655\\Aquos&4.740&2.094&0.000&4.301&4.840&3.746&0&4.534\\Sharp&2.029&0.567&0.000&1.512&2.222&0.655&4.534&0\\\hline\end{tabular}\end{center}\end{table}この原因は,相互情報量が「出現確率の影響を受ける」という特徴を持つためである.この特徴は式(\ref{MI})を次式のように書き換えるとわかりやすい.\begin{equation}MI(w_a,w_b)=\logp(w_a|w_b)-\logp(w_a)\end{equation}$p(w_a|w_b)$は語$w_b$が出現するときに語$w_a$と語$w_b$が共起する条件付き確率を表す.$p(w_a|w_b)$が等しい場合は,$p(w_a)$の出現確率が小さいほど相互情報量は大きい値になる.この特徴自体は「共起する確率が同じなら,出現確率の低い語と共起する方が関連性が強い」と考えられるので,問題がない.しかし,検索エンジンにおいては語によって出現頻度に大きなばらつきがあり,また全事象を表す$N$が非常に大きいために出現確率の違いによる影響が大きくなり過ぎてしまう.例えば,「テレビ」のように出現確率の極端に大きい語と他の語の相互情報量が小さくなる.表\ref{mutual}の「テレビ」の列に注目すると,いずれの語においても「テレビ」との相互情報量が小さくなっていることが分かる.実際に表\ref{singlehit}の語のヒット件数と表\ref{mutual}の各行との相関係数(式\ref{correlation})は$-0.35$となり,相互情報量と語の出現確率にやや強い負の相関があることが分かる.それに対し,表\ref{cooccur-list}の共起ヒット件数と表\ref{mutual}の相互情報量のとの相関係数は$0.06$となり,ほとんど相関がないことが分かる.\begin{equation}\label{correlation}r=\frac{\sum_{i=1}^n(x_i-\bar{x})(y_i-\bar{y})}{\sqrt{\sum_{i=1}^n{(x_i-\bar{x})^2}}{\sqrt{\sum_{i=1}^n{(x_i-\bar{x})^2}}}}\left(\bar{x}:x_iの平均値\right)\end{equation}このように,従来用いられてきた相互情報量は語の出現確率に影響を受けるため,関連度を測る際に各語の出現確率に数千倍,数万倍といった開きがある場合,値の信頼性は低くなるという問題がある.これは,Jaccard係数やdice係数など他の類似度の指標についても当てはまる.\subsection{$\chi^2$値を用いた関連度の指標}本論文では,$\chi^2$値を使った関連度の指標を用いる.$\chi^2$値は,あるデータ集合内での統計的な偏りを表す指標であり,機械翻訳やコロケーション処理など,多くの手法で用いられている.語の関連度としてはCurranらが用いている\cite{Curran02-2}.$\chi^2$値を関連度に用いるのは,語の出現頻度のばらつきによる影響を排除するためである.相互情報量やJaccard係数を関連度に用いる場合の問題点は,語の出現確率に大きな影響を受ける点である.この問題の解決策として,出現確率を適切に正規化するというアプローチが考えられる.$\chi^2$値では,語群を構成する語の出現頻度を正規化要素とし,値の正規化を行ったうえで,共起の偏りを算出するので,出現確率のばらつきによる影響を抑えることができる\cite{Yang97}.このため,値のばらつきが大きい検索エンジンのヒット件数を用いて関連度を算出する場合,$\chi^2$値を計算指標として用いることが適切であると考えられる.対象とする語群の中で,共起の偏りを統計的に調べるために,1つ1つの語について,語群内の他の語との共起頻度を標本値とし,「$w_i,w_j\inG$が共起する確率は,語$w_i$と語群$G$内の語が共起する確率と等しい」という帰無仮説をおいて検定を行う.語$w_i$と語$w_j$の実際の共起頻度を$n(w_i,w_j)$,語$w_i$と語群Gの語との共起頻度の和を$\displaystyleS_{w_i}=\sum_{k}n(w_i,w_k)$,全ての共起頻度の和を$\displaystyleS_G=\sum_{w_i\inG}S_{w_i}$とするとき,語$w_i$と語$w_j$に関する$\chi^2$値は次式で表される.\begin{align}\chi^2(w_i,w_j)&=\frac{n(w_i,w_j)-E(w_i,w_j)}{E(w_i,w_j)}\nonumber\\E(w_i,w_j)&=S_{w_i}\times\frac{S_{w_j}}{S_G}\label{chi}\end{align}$E(w_i,w_j)$は語$w_i,w_j$の共起頻度の期待値を表している.例えば,語$w_i$を「プリンタ」,語$w_j$を「インターレーザー」とすると,$n(w_i,w_j)$は$273$,$S_{w_i}=20601273$,${S_{w_j}}/{S_G}=839/166552478$となる.表\ref{chilist}は,表\ref{cooccur-list}から計算された$\chi^2$値行列である.表\ref{chilist}では,「プリンタ」は「印刷」や「インク」と偏って共起している.また,「インターレーザー」は「プリンタ」との共起が,「Aquos」は「Sharp」との共起が強いなど,良好な結果となっている.また,表\ref{chilist2}のような,「プリンタ」「液晶」との関連が低いと考えられる4語と「プリンタ」「液晶」の2語で構成される計6語の語群を与えた場合を考える.この語群では,表\ref{singlehit}の語群と違い,「プリンタ」と「液晶」の関連性が強いと考えられる.「プリンタ」の行に注目すると,確かに「プリンタ」と「液晶」の$\chi^2$値が大きくなっており,語群に基づいた適切な結果が得られている.\begin{table}[tb]\caption{$\chi^2$行列}\label{chilist}\begin{tabular}{c|cccccccc}語/語&プリンタ&印刷&\hspace{-1.3zw}\scalebox{0.8}[1]{インターレーザー}\hspace{-1.3zw}&インク&液晶&テレビ&Aquos&Sharp\\\hlineプリンタ&0.000&416649&275.5&2579092&113.8&0.000&0.000&0.000\\印刷&416649&0.000&9.925&801848&0.000&1840173&0.000&0.000\\\hspace{-1.3zw}\scalebox{0.8}[1]{インターレーザー}\hspace{-0.3zw}&275.5&9.925&0.000&5.548&0.000&0.000&0.000&0.000\\インク&2579092&801848&5.548&0.000&0.000&3846&0.000&0.000\\液晶&113.8&0.000&0.000&0.000&0.000&6858012&0.000&1317796\\テレビ&0.000&1840173&0.000&3846&6858012&0.000&0.000&0.000\\Aquos&0.000&0.000&0.000&0.000&0.000&0.000&0.000&7449430\\Sharp&0.000&0.000&0.000&0.000&1317796&0.000&7449430&0.000\\\hline\end{tabular}\end{table}\begin{table}[tb]\begin{center}\caption{$\chi^2$行列-2}\label{chilist2}\begin{tabular}{c|cccccc}語/語&プリンタ&小説&液晶&紅茶&バイオリン&化粧品\\\hlineプリンタ&0.000&0.000&2402760&0.000&0.000&0.000\\小説&0.000&0.000&0.000&277513&712208&19024\\液晶&2402760&0.000&0.000&0.000&0.000&116983\\紅茶&0.000&277513&0.000&0.000&11149&597032\\バイオリン&0.000&712208&0.000&11149&0.000&0.000\\化粧品&0.000&19024&116983&597032&0.000&0.000\\\hline\end{tabular}\end{center}\end{table}
\section{関連度を用いたネットワークに基づくクラスタリング}
従来は,確率分布の類似度に基づいた分布クラスタリングの方法を用いて,関連語をクラスタに分けることが多かった.本研究では,語の関連度からネットワークを構築し,ネットワークに基づく新しいクラスタリングの方法を適用する.関連語ネットワーク上でNewman法によりクラスタリングを行い,その結果,同じクラスタに分類されたもの同士を関連語として取り出す.このクラスタリング法は,語の数が大規模になったときにでも適用でき,対象によってはよいクラスタを生成するので近年注目を集めている.\subsection{関連語ネットワークの構築}まず,語の関連性を用いて,語のネットワークを構築する.ノードが語,エッジが強い関連を表す.本論文では,これを関連語ネットワークと呼ぶ.関連語ネットワークは次のように構成される.\begin{figure}[b]\begin{center}\includegraphics[width=120mm,clip]{network.eps}\caption{関連語ネットワーク}\label{related-network}\end{center}\end{figure}\begin{enumerate}\item語群$G$を与える.\item次式により2語$w_i,w_j\inG$の関連度$\chi^2_{w_i,w_j}$を計算する.\begin{align}\label{chi2}\chi^2_{w_i,w_j}&=\frac{n(w_i,w_j)-E(w_i,w_j)}{E(w_i,w_j)}\nonumber\\E(w_i,w_j)&=S_{w_i}\times\frac{S_{w_j}}{S_G}\\S_{w_i}&=\sum_{k}n(w_i,w_k)\nonumber\\S_G&=\sum_{w_i\inG}S_{w_i}\nonumber\end{align}\item各語$w_i\inG$をノードとして配置する.\item$\chi^2_{w_i,w_j}>0$のとき,ノード$w_i$,$w_j$間にエッジを張る.\end{enumerate}例を図\ref{related-network}に示す.これは,Webから獲得したコーパス中に高頻度に出現する計90語をこのネットワークの構成語として用い,ヒット件数を得る検索エンジンとしてGoogleを用いた関連語ネットワークである.この関連語ネットワーク上では,関連の強い語同士が近く配置されている.例えば,図\ref{related-network}の左下には「疾患」「患者」などの医学関連の語が密集している.また,上部では「アプリケーション」「ファイル」などのコンピュータ関連の語が密集している.このように関連語ネットワーク上では,関連の強い語同士が密集して存在している.\subsection{ネットワークに基づくクラスタリング}従来のシソーラス構築における語のクラスタリングには確率分布を用いた分布クラスタリング手法が一般的に用いられている.\cite{Pereira93,Dhillon02}.また情報検索の分野では,語を属性とする高次元のベクトルを用いた語のクラスタリング手法も多く,LSAやrandomprojectionといった次元を圧縮する手法も有効である\cite{Deerwester90,papadim98}.一方で,近年ではデータをネットワークとして表した上で,それを分析する手法が提案され,着目を集めており,語の関係性の分析にも用いられている\cite{Widdows02,motter02,Palla05}.SigmanはWordNetがネットワーク構造としての性質を持っていることを示し,WordNetにネットワーク分析の手法を適用できることを示している\cite{sigman02}.\begin{table}[b]\begin{center}\caption{階層的クラスタリングで用いられる距離関数$D(c_i,c_j)$}\label{Hierarchical}\begin{tabular}{|c|c|c|c|}\hline手法&最大距離法&最小距離法&群平均法\\\hline$D(c_i,c_j)$&$\displaystyle\max_{w_k\inc_i,w_l\inc_j}Sim(w_k,w_l)$&$\displaystyle\min_{w_k\inc_i,w_l\inc_j}Sim(w_k,w_l)$&$\frac{1}{n_in_j}\displaystyle\sum_{w_k\inc_i}\sum_{w_l\inc_j}Sim(w_k,w_l)$\\\hline\end{tabular}\end{center}\end{table}ネットワークのクラスタリングには,従来,表\ref{Hierarchical}のように距離関数$D(c_i,c_j)$を定義し($n_i$はクラスタ$c_i$に含まれる語の数,$Sim(w_k,w_l)$は$語w_k,w_l$の類似度を表す),距離の近い順に各クラスタをマージしていく階層的クラスタリング手法や,EMアルゴリズム,NaiveBayesといった機械学習の手法を用いたクラスタリング手法が一般的に用いられてきた.しかし,ここ数年で新たなクラスタリング手法がいくつも提案されている.代表例としては,betweennessクラスタリングがあげられる.betweennessクラスタリングは,グラフ\footnote{ネットワークは,エッジに重みや長さなどの数値が付加されているのに対し,グラフはエッジに数値の付加されていない,接続関係だけを表すものである.}のbetweennessというエッジの媒介性を表す指標(あるエッジが他のエッジの最短パスにどの程度の割合で含まれているか)に注目し,できるだけ部分グラフをつなぐようなbetweennessの高いエッジを削除していくことにより,密度の濃いサブグラフを同定する手法である\cite{Newman02}.これらの手法は高次元のベクトルに対しても有効であり,以前の手法と比べて高い精度で現実のクラスタ構造を再現することができる.その反面,時間計算量が大きく,大規模なネットワークに適用することは難しい.例えば,ネットワークのノード数を$n$,エッジ数を$m$とするとき,betweennessクラスタリングの時間計算量は$O(n^3)$または$O(m^2n)$であり,ノード数が多いネットワーク上でbetweennessクラスタリングを行うことは困難である.そこで,本研究では大規模なネットワークにも適用可能なクラスタリング手法であるNewman法を用いる.Newman法は,階層的クラスタリング手法の一つであるが,クラスタリングを評価関数$Q$の最大値導出問題に置き換えた手法である\cite{Newman04}.評価関数$Q$とは,各クラスタの結合度を表す関数であり,$Q$が大きいほど各クラスタ内の結合が強いことを表している.Newman法では,$Q$の高い状態がより適切にクラスタリングされた状態であると定義している.そして,$Q$の最大値を求めることで,そのネットワークに最適なクラスタリング結果を得ることを目標としている.評価関数$Q$は次式で表される.\begin{equation}\label{newman}Q=\frac{1}{2m}\left[\left(\sum_{v,w}A_{vw}\delta(c_v,c_w)\right)-\left(\sum_{v,w}\frac{k_vk_w}{2m}\delta(c_v,c_w)\right)\right]\end{equation}$k_v$は頂点vが持っているエッジの本数,$m$は全エッジ本数の合計,$c_v$は頂点$v$が属しているクラスタを表している.$\delta(c_v,c_w)$はクロネッカーの$\delta$である.式(\ref{newman})の第1項において,$A_{vw}$は頂点$v,w$間のエッジの有無を表しており,また頂点$v,w$が同じクラスタのときのみ,$\delta(c_v,c_w)=1$となる.つまり,第1項は各クラスタ内に含まれるエッジの本数の合計を表している.同様に第2項においては,$\frac{k_vk_w}{2m}$は頂点$v,w$間にエッジが引かれる確率を表しているため,第2項は,各クラスタ内に含まれるエッジの本数の合計の期待値を表している.すなわち,評価関数$Q$とは,クラスター内に存在するエッジの本数の合計が期待値からどの程度ずれているかを相対的に表した値である.クラスター内のエッジ本数の和が期待値と同じなら$Q=0$,それより強いクラスターなら$Q>0$であり,弱いクラスターなら$Q<0$となる.$Q$が最大であるとき,各クラスター内での結合度が最大であるので,ネットワーク全体として最も良くクラスタリングされた状態であると考えられる.しかし$Q$の最大値を求める場合,エッジ数$m$,ノード数$n$のとき,計算量が$O(n^3)$もしくは$O(m^2n)$となり,大きくなってしまう.そこでNewman法ではGreedyアルゴリズムを用いて$Q$の値が極大値をとるようにクラスタリングを行う.Greedyアルゴリズムなので,「$Q$の変化量$\DeltaQ$が最大になるようにクラスタ,もしくはノードをマージする」という手順を繰り返していく.そして「$\DeltaQの最大値<0$」となった時点でクラスタリングを終了とする.このようにして$Q$の極大値を求めている.この際,常に「$\DeltaQ$が最大になるような2つのクラスタを選んでマージ」するため,クラスタがマージされていく順序は一意であり,初期条件によってクラスタリングの結果は変化しない.また,クラスタ数を任意に制御したい場合は,終了条件を$\DeltaQ<0$ではなくクラスタ数にすることも可能である.Newman法とbetweennessクラスタリングを比較すると,NewmanらによりNewman法はbetweennessクラスタリングとほぼ同じ精度のクラスタリング結果が得られることが示されている.また,Newman法の時間計算量は$O((m+n)n)$もしくは$O(n^2)$であり,時間計算量が$O(m^2n)$あるいは$O(n^3)$であるbetweennessクラスタリングと比べ,計算量が少なく,高速な手法となっている.そのため,Newman法はノード数やエッジ数が大きい大規模ネットワークに適用可能である.\subsection{Newman法による関連語の獲得}語群$G$を用いてシソーラスを構築する場合,Newman法を用いて関連語を同定する手順は次のようになる.\begin{enumerate}\item検索エンジンのヒット件数と$\chi^2$値を用いて語群$G$の語の関連度を算出する.\item関連度をもとに語群$G$を構成語とする関連語ネットワークを構築する.\item1つの語を1つのクラスタとする.\itemある2つのクラスタが1つのクラスタになったと仮定して,$Q$の変化量$\DeltaQ$(式\ref{deltaq})を計算する.\item(4)を全てのクラスタの組み合わせについて行う.\item$\DeltaQ$が最大となるような2つのクラスタをマージし,1つのクラスタとする.ただし,最大の$\DeltaQ<0$なら(8)へ.\itemマージしたクラスタの$e_{ij},a_i$を再計算し,(4)に戻る.\item同じクラスタに属している語を関連語とみなす.\end{enumerate}\begin{align}\label{deltaq}\DeltaQ_{ij}&=2(e_{ij}-a_ia_j)\nonumber\\e_{ij}&=クラスタi,j間のエッジの本数(割合)\\a_i&=\sum_{i}e_{ii}\nonumber\end{align}
\section{評価}
\subsection{評価実験の概要と正解セットの作成}シソーラスを評価する手法として,WordNetやEDRなど人手で構築された既存のシソーラスと比較する方法\cite{Jarmasz03,Curran02},綿密に作られたアンケートや語の分類タスクを人が行い,その結果と比較することでシソーラスの適切さを評価する方法\cite{Croft99,Hodge02}がある.前者の手法はWordNetに出現する語しか評価できないため語の範囲が限られてしまい,後者はコストがかかるのが問題である.本研究では,提案手法で構築されたシソーラスと,2種類のシソーラスを比較することで,提案手法の評価を行う.1つ目はWebより収集したコーパスから作成したシソーラスであり,これを関連語の正解セット作成用のデータとして用いることで提案手法と従来のコーパスを用いた手法との比較を行う.2つ目は既存のシソーラスであり,これから作成した関連語の正解セットを用いて,人手によって構築されたシソーラスと提案手法との比較を行う.また,1つ目の正解セットにはWebに特徴的な語が多く含まれるのに対し,2つ目の正解セットでは,既存のシソーラスに含まれるような,いわゆる汎用的な語が多く含まれる.そのため,それぞれの正解セットを評価実験に用いることで,Webに特徴的な語に対する提案手法の有効性,汎用的な語に対する提案手法の有効性を検証することにもなる.\subsubsection{OpenDirectoryを用いた正解セットの作成}シソーラスを作成するコーパスとしてOpenDirectory\footnote{http://dmoz.org/World/Japanese/}を用い,あらかじめ各カテゴリに特徴的な語を抽出することで,正解となるシソーラスを模擬的に作成する.OpenDirectoryは,ボランティア方式で運営される世界最大のウェブディレクトリであり,各カテゴリは,担当のエディタによって管理されている.Webディレクトリの中では,カテゴリ分類の信頼性が高いもののひとつである.各カテゴリに特徴的に出現する語は互いに関連しているという仮定のもとで,提案手法および比較手法による語の関連性の適切さを評価する.OpenDirectoryの14個のカテゴリの中から,「アート」,「スポーツ」,「コンピュータ」,「ゲーム」,「社会」,「家族」,「科学」,「健康」,「レクリエーション」の9つのカテゴリを用い\linebreakた\footnote{なお,「ニュース」,「キッズ&ティーンズ」,「ビジネス」,「オンラインショップ」,「各種資料」は,他のカテゴリとの重複が大きいため除いた.}.各カテゴリ内に含まれるWebページを用い,次のようにカテゴリに特徴的な語を抽出する.\begin{enumerate}\item各カテゴリ$C_i(i=1...9)$ごとに登録順に1000ページの文書を取得する.\item全ての文書に形態素解析\footnote{茶筌.http://chasen.aist-nara.ac.jp/.}を行う.そして連接する名詞5-gramまでを単語として取り出す\cite{Manning99}.\itemカテゴリ$C_i$内で,単語$w_a$が含まれる文書の数を$f^i_{w_a}$とする.また,全てのカテゴリで語$w_a$が含まれる文書数を$f^{all}_{w_a}$とする.\itemカテゴリ$C_i$における語$w_a$の重みを次のように計算する.\begin{equation}score^i_{w_a}=f^i_{w_a}\times\log(N/f^{all}_{w_a})\label{tfidf}\end{equation}ただし,$N$は全文書数である.\itemカテゴリ$C_i$ごとにscoreの高い語$w_a$を取り出し,それらをそのカテゴリに特徴的な語群$R_{C_i}$とする.すなわち,$R_{C_i}=\{w_k|rank_i(w_k)\leq10\}$である($rank_i(w_k)は,カテゴリC_i内での語w_kのscoreの順位を表す$).また,$A=\{w|w\inR_{C_i},i=1...9\}$とする.\end{enumerate}ここでは,各カテゴリごとに特徴的に現れる語を,tfidfの考え方を用いて重み付けしている.また上記説明の(1)において「登録順に」とあるが,これはOpenDirectoryのサイトから文書データを収集する際に,データが得られる順番を意味している.この順番は,文書の内容に関係なく無作為に並んでおり,特定のルールはないと考えられるため,ランダムな順番と考えても問題ないと言える.\begin{table}[b]\caption{OpenDirectoryから取り出した関連語群}\label{wordlist}\begin{center}\begin{tabular}{ll}\hlineカテゴリー&関連語群\\\hlineアート&画廊,作品,劇場,サックス,短歌,ライブ,ギター,披露,バレエ,個展\\コンピュータ&掲示板,ソースコード,無料レンタル,アクセス数,文字コード,初期値,拡張子\\科学&情報処理,実証,方法論,社会科学,研究対象,格差,研究員,専門,専攻,討論\\\hline\end{tabular}\end{center}\end{table}得られた語の一部を表\ref{wordlist}に示す.例えば「アート」カテゴリから取り出された語に注目すれば,「画廊」「作品」「個展」は絵画関連の語,「サックス」「ライブ」「ギター」は音楽関連の語,「バレエ」「披露」「劇場」はパフォーミングアート関連の語,「短歌」は文芸関連の語となっており,いずれも「アート」に関連した語が取り出されている.こうして得られたカテゴリごとの特徴的な語を用いて,\begin{itemize}\itemある2語が同一カテゴリ内に含まれれば,関連している\itemある2語が異なるカテゴリであれば,関連していない\end{itemize}と見なす.ここでの評価法は,カテゴリごとの特徴語の抽出に基づいている.各カテゴリに特徴的に現れる語を重み付けする方法は,\cite{Nagao76}や\cite{Xu02}で用いられている.後者では,各カテゴリに特徴的な語をtfidfで重み付けし,tfidf値の高い語をカテゴリに特徴的な語として抽出している.さらに\cite{Chang05}では,OpenDirectoryのカテゴリ分類を用いて各カテゴリに特徴的な語を取得し,その結果,人手による評価で平均65\%,最大で81\%の正解率を得ている.もちろん,ここでの関連語の正解セットは完全ではなく,異なるカテゴリに含まれていても関連している場合もあるかもしれないし,同一カテゴリ内であっても,その関連の度合いは程度の差が大きいかもしれない.しかし,本研究では,このデータを手法の比較を行うための目安として用いており,比較手法の優劣を示すには十分であると考えている.\begin{figure}[b]\begin{center}\includegraphics[width=8cm,clip]{evaluate.eps}\end{center}\caption{評価実験の概略図}\label{evaluate}\end{figure}図\ref{evaluate}に全体の概要を図示する.OpenDirectoryから獲得したカテゴリ分類されたコーパスを用いて関連語の正解セットを作成する.その正解セットの語を用いて提案手法および比較手法によって関連語を出力する.その際,比較手法はコーパス内の共起情報を用いて関連度の算出を行う.そして出力結果と正解セットを比較し,手法の評価を行う.図\ref{evaluate}に示すとおり,本評価実験では正解セット作成用コーパス,比較手法で用いる関連度学習用コーパスの2種類のコーパスが必要となる.そこで,全部で各カテゴリから5000ページずつ計4万5千ページの文書をコーパスとして用意し,$1/5$を正解セット作成用に,$4/5$を関連度の学習用に用いて5分割交差検定を行った\footnote{ただし,関連度の学習を行う際はコーパスの持つカテゴリ分類は無視し,flatなコーパスとして扱った.}.正解セット作成用のコーパスを変えたそれぞれの正解セットを$Ao_i(i=1,2,3,4,5)$とする.関連度の評価は,適合率,再現率,InverseRankScoreによって測る.InverseRankScoreとは正解とマッチした語の順位の逆数の合計値であり,正解となる語が上位にランクされる程大きい値となる.この値を用いることで,順位を考慮した比較を行うことができる.\begin{table}[t]\caption{評価実験の例(ヴァイオリン)}\label{ex-experiment}\begin{center}\begin{tabular}{l|c|c|c|c}&関連語&適合率&再現率&InvR\\\hline正解セット&ビオラ,チェロ,笛,ギター&&&\\\hline手法1&1位:ビオラ2位:チェロ3位:ビール4位:ピック&0.5&0.5&1.50\\\hline手法2&1位:ピック2位:ビール3位:ビオラ4位:チェロ5位:ギター&0.6&0.75&0.78\\\hline\end{tabular}\end{center}\end{table}簡単な算出例を表\ref{ex-experiment}に示す.この場合,手法1による出力は4語中2語が正解であるので$適合率=\frac{2}{4}=0.50$,正解セット4語のうち2語が手法1により出力に含まれているので,$再現率=\frac{2}{4}=0.50$となる.同様に手法2では$適合率=\frac{3}{5}=0.60$,$再現率=\frac{3}{4}=0.75$となり,手法2の方が優位となる.しかし,正解の語が上位にランクされている手法1の方が手法としての実用性が高い,とも考えられる.このような場合に各手法のInverseRankScoreを求めると手法1では,$\frac{1}{1}+\frac{1}{2}=1.50$,手法2では$\frac{1}{3}+\frac{1}{4}+\frac{1}{5}=0.78$となり,手法1の方が優位となる.このように適合率,再現率に加え,InverseRankScoreを用いることで,順位を加味した評価を行うことができる.\cite{Widdows02,Curran02}.\subsubsection{既存シソーラスを用いた正解セットの作成}本論文では,Curranら\cite{Curran02}の手法を元にして,提案手法と既存のシソーラスを比較を行う.そのために,正解セット作成用シソーラスと比較用シソーラス,2種類のシソーラスを用意する.まず,正解セット作成用シソーラスから関連語を取り出し,正解セットを作成する.この正解セットの語群に対して提案手法と比較用シソーラスを適用して関連語の分類を行う.その結果,どの程度正しく語群が関連語群に分類されるかによって提案手法と既存シソーラスとの比較を行う.本論文では,Curranらが用いたRoget'sThesaurusの最新版であるRoget'sMilleniumThesaurus~\cite{RogetMillenium}を正解セット作成用のシソーラスとして用い,WordNet及びMobyThesaurus~\cite{MobyThesaurus}を比較用のシソーラスとして用いる.Roget'sMilleniumThesaurusは見出語を持ち,その見出語がそれぞれ関連語群を持つ,という2層構造をしたシソーラスである.本実験においては,1つの見出語から取り出される関連語群をそのまま正解の関連語群とした.ただし,比較用シソーラスに含まれない語は除くものとする.関連語の例は表\ref{WordNetExample}のようになる.今回,見出語としてはTOEIC最頻出英単語リスト\footnote{http://www.linkage-club.co.jp/ExamInfo\&Data/toeic.htm}に含まれる名詞の計220語を用いる.これらの見出語から無作為に10語選び,その10語からそれぞれ関連語群を取り出し,1組の関連語正解セットとする.本実験では,計10組の正解セット$Aw_i(i=1,2,...,10)$を作成した.また比較用のシソーラスを用いた関連語群の分類では,算出した関連度に基づいて行うのではなく,各2語が比較用シソーラスで関連語とされているか,いないかの2値的な判定によって行うものとする\footnote{WordNetを用いて2語の関連度を算出する方法もあるが,予備実験により関連語の分類には適さないことが判明したので,本論文では採用しなかった.}.この際,どの2語を関連語とみなすかは,シソーラスの構造によって違う方法を用いた.Roget'sThesaurusと同様に見出語と関連語群の2層構造を持つMobyThesaurusにおいては,見出語とその関連語群同士,及び同じ見出語を持つ語同士を関連語とみなす.木構造を持つWordNetにおいては,見出語とHyponyms(下位語),見出語とHypernyms(上位語)及び見出語とCoordinateTerms(共通の上位語を持つ語)同士を関連語とみなす.関連度の評価指標としては,OpenDirectoryを用いる場合と同様に,適合率とInverseRankScoreを用いる.\begin{table}[t]\caption{正解用シソーラスから取り出した関連語群}\label{WordNetExample}\begin{center}\begin{tabular}{ll}\hline見出語&関連語群\\\hlineaccess&admission,contact,door,entrance,entree,\\&ingress,introduction,opendoor,road,route,\\election&acclamation,appointment,by-election,referendum\\&polls,primary,selection,voting\\pollution&abuse,contamination,corruption,decomposition,uncleanness\\&dirtying,impurity,infection,rottenness,spoliation\\agriculture&agronomy,culture,horticulture,tillage,husbandry\\\hline\end{tabular}\end{center}\end{table}\subsection{関連度の指標の評価}関連度の指標に関する評価を行う.提案手法では,関連度の計算に$\chi^2$値を用いているが,この有効性を示すため,相互情報量,Jaccard係数を用いた関連度と比較する.検索エンジンを利用する際,日本語のみを扱うOpenDirectoryによる正解セットでは,検索時のオプションとして「日本語のページを検索」を選択した値を用い,英語のみを扱う既存のシソーラスによる正解セットでは検索時のオプションとして「ウェブ全体から検索」を選択した値を用いる\footnote{Googleではオプションによって検索するページの対象範囲をコントロールできる.}.また,コーパスを用いて学習する手法との比較も行う.コーパスを用いる手法では,tfidf値を要素とする単語ベクトルを用い,計算指標としてはcosineを用いた.実験の手順を以下に示す.\begin{enumerate}\item正解セット$A_i$に含まれる全ての語について,各指標ごとに2語の関連度を計算する(比較用シソーラスを用いる際はこの手順は省略).\item各指標ごとに語$w_i$と関連度の高い上位9語を$A_i$から選び,それを語$w$の関連語群$G_{w}$とする(比較用のシソーラスを用いる場合は,比較用シソーラスにおいて語$w_i$の関連語とされる語を全て取り出し,$G_{w}$とする).$G_{w}$と正解セットを比較し,適合率を計算する.\item(2)を語$w_i\inA_i$全てについて行い,指標ごとに適合率の平均値を算出する.\item(1)から(3)を正解セット$A_i(i=1〜n)$について行う.\end{enumerate}OpenDirectoryから作成した正解セットの適合率の平均値を表\ref{result-word}に,InverseRankScoreの平均値を表\ref{result-word-inv}に示す.\begin{table}[b]\begin{center}\caption{OpenDirectoryを用いた正解セットでの適合率}\label{result-word}\begin{tabular}{c|c|c|c|c}正解セット/指標&cosine&相互情報量&Jaccard係数&$\chi^2$値\\\hlineセット$Ao_1$&0.557&0.447&0.424&0.567\\セット$Ao_2$&0.513&0.406&0.389&0.493\\セット$Ao_3$&0.519&0.396&0.376&0.539\\セット$Ao_4$&0.561&0.404&0.417&0.569\\セット$Ao_5$&0.529&0.421&0.404&0.519\\\hline平均&0.535&0.415&0.402&0.538\\\end{tabular}\vspace{\baselineskip}\caption{OpenDirectoryを用いた正解セットでのInverseRank}\label{result-word-inv}\begin{tabular}{c|c|c|c|c}正解セット/指標&cosine&相互情報量&Jaccard係数&$\chi^2$値\\\hlineセット$Ao_1$&2.42&1.58&1.63&2.36\\セット$Ao_2$&2.41&1.90&1.43&2.75\\セット$Ao_3$&1.97&1.09&1.02&1.64\\セット$Ao_4$&2.29&2.04&1.84&2.52\\セット$Ao_5$&1.70&2.17&1.83&2.20\\\hline平均&2.16&1.76&1.55&2.29\\\end{tabular}\end{center}\end{table}まず,検索エンジンを用いた手法同士で比較すると,どの正解セットにおいても$\chi^2$値が他の2つの計算指標よりもよい適合率,InverseRankScoreを示している.これより,$\chi^2$値が検索エンジンを用いる手法の関連度の指標として有効であることが分かる.また,コーパスを用いて学習した手法であるcosineと検索エンジンを用いた手法を比較するとJaccard係数,相互情報量はcosineよりも低い適合率,InverseRankScoreである.cosineと$\chi^2$値を比較すると正解セットによって2つの評価指標の優劣が変化している.しかし,平均ではほとんど差がないことから,$\chi^2$値とcosineはほぼ同じ適合率であると考えられる.ただし,コーパスから学習する手法ではコーパス中に出現する語しか扱えないという欠点を持つのに対し,検索エンジンを用いる手法ではWeb上に出現するほとんどの語を扱うことができる.そのため同じ適合率ならば,$\chi^2$値を計算指標として検索エンジンを用いる手法の方が優れていると言える.また,表\ref{result-word},\ref{result-word-inv}において,5つの正解セットにおける標準偏差(式\ref{hensa})を求める.\begin{equation}\label{hensa}\sigma^2=\frac{1}{n}\sum_{i=1}^{n}\left(x_i-\bar{x}\right)\left(\bar{x}:x_iの平均値\right)\end{equation}すると適合率の標準偏差は0.014,InverseRankScoreの標準偏差は0.12であり,いずれも標準偏差は10\%以内に収まっている.このことから,正解セットによるばらつきによる影響はあまり大きくないと考えられる.次にRoget'sThesaurusから作成した正解セットを用いた既存シソーラスと提案手法の比較実験の結果を表\ref{result-wordnet}と\ref{result-wordnet-inv}に示す.ただし,比較用シソーラスにおいては,全ての関連語が等価に扱われており順位が存在しないため,InverseRankScoreの算出は省略する.\begin{table}[b]\begin{center}\caption{既存シソーラスを用いた正解セットでの適合率}\label{result-wordnet}\begin{tabular}{c|c|c|c|c}正解セット/指標&シソーラス&相互情報量&Jaccard係数&$\chi^2$値\\\hlineセット$Aw_1$&0.385&0.324&0.374&0.405\\セット$Aw_2$&0.375&0.322&0.311&0.353\\セット$Aw_3$&0.342&0.365&0.402&0.411\\セット$Aw_4$&0.370&0.291&0.295&0.320\\セット$Aw_5$&0.438&0.459&0.487&0.515\\セット$Aw_6$&0.339&0.390&0.369&0.374\\セット$Aw_7$&0.391&0.287&0.335&0.345\\セット$Aw_8$&0.290&0.337&0.330&0.339\\セット$Aw_9$&0.468&0.295&0.279&0.316\\セット$Aw_{10}$&0.444&0.375&0.368&0.390\\\hline平均&0.392&0.345&0.349&0.369\\\end{tabular}\vspace{\baselineskip}\caption{既存シソーラスを用いた正解セットでのInverseRank}\label{result-wordnet-inv}\begin{tabular}{c|c|c|c}正解セット/指標&相互情報量&Jaccard係数&$\chi^2$値\\\hlineセット$Aw_1$&1.260&1.277&1.441\\セット$Aw_2$&1.145&1.263&1.290\\セット$Aw_3$&1.329&1.390&1.477\\セット$Aw_4$&1.184&1.006&1.144\\セット$Aw_5$&1.526&1.453&1.572\\セット$Aw_6$&1.498&1.273&1.241\\セット$Aw_7$&1.250&1.183&1.255\\セット$Aw_8$&1.337&1.354&1.432\\セット$Aw_9$&1.033&1.101&1.298\\セット$Aw_{10}$&1.320&1.313&1.301\\\hline平均&1.288&1.255&1.3321\\\end{tabular}\end{center}\end{table}まず,Webを用いる手法同士を比較すると,OpenDirectoryを用いた正解セットと比べて適合率の差が小さくなってはいるが,シソーラスを用いた正解セットにおいても,$\chi^2$値が他の計算指標よりよい数値を示している.これより,提案手法の優位性は小さくなるものの,Web上での出現頻度にばらつきの少ない汎用的な語に対しても,提案手法が有効であることがわかる.次に$\chi^2$値と既存のシソーラスを比較すると,既存のシソーラスの精度の方が若干高い数値を出してはいるものの,ほぼ同程度の精度・適合率が得られている.これより,関連語を同定するタスクにおいて,提案手法を用いることで既存シソーラスと同程度の効果が得られると言える.以上より,提案手法を用いることで,検索エンジンを用いた既存手法やコーパスから学習する手法よりも適切に関連度を算出することができていると考えられる.ただし,コーパスから学習する手法ではcosine以外の計算指標を用いた手法があるため,今後それらの指標とも比較する必要がある.\subsection{クラスタリングの評価}次に,クラスタリングの評価を行う.提案手法ではNewton法を用いているが,比較手法としては,群平均法を距離関数とする階層的クラスタリングを用いる.クラスタリング手法の評価手法を以下に示す.\begin{enumerate}\item正解セット$A_i$に含まれる全ての語について,2語の関連度を計算する.\item関連度をもとに関連語ネットワークを構築する.その際,ネットワークの密度が$0.3$\footnote{$\chi^2$値による関連度を用いた関連語ネットワークの密度の平均値が約$0.3$であるため.}になるように関連度の低いエッジを切る.ネットワークの密度とは,エッジ数を存在し得る最大のエッジ数(ノード数を$n$とすると$_nC_2$)で割ったものである\cite{Scott00}.\item提案手法及び比較手法により,クラスタリングを行う.今回は,使用したカテゴリ数が$9$であるため,群平均法はクラスタ数が$9$になった時点でクラスタリングを終了とする.また,本実験では条件を均一化するためにNewman法においても終了条件を$\DeltaQ<0$ではなくクラスタ数9とする.\item同一クラスタに属する2語は関連語,異なるクラスタに属する2語は非関連語とする.この結果を正解セットと比較し,適合率・再現率・F値を求める.\item(1)から(4)を正解セット$A_i(i=1〜n)$について行う.\end{enumerate}\begin{table}[b]\begin{center}\caption{関連語抽出実験結果(上段:適合率\中段:再現率\下段:F値)OpenDirectory使用}\label{result-cluster}\begin{tabular}{c|c|cccc}クラスタリング&&cosine&相互情報量&Jaccard係数&$\chi^2$値\\\hline群平均法&適合率&0.772&0.864&0.848&0.812\\&再現率&0.209&0.222&0.208&0.221\\&F値&0.328&0.353&0.333&0.347\\\hlineNewman法&適合率&0.815&0.792&0.797&0.738\\&再現率&0.344&0.332&0.346&0.631\\&F値&0.483&0.465&0.482&0.680\\\hline\end{tabular}\vspace{\baselineskip}\caption{関連語抽出実験結果(上段:適合率\中段:再現率\下段:F値)Roget'sThesaurus使用}\label{result-cluster-wordnet}\begin{tabular}{c|c|ccc}クラスタリング&&相互情報量&Jaccard係数&$\chi^2$値\\\hline群平均法&適合率&0.887&0.861&0.852\\&再現率&0.174&0.186&0.184\\&F値&0.291&0.305&0.302\\\hlineNewman法&適合率&0.688&0.705&0.598\\&再現率&0.329&0.302&0.411\\&F値&0.440&0.419&0.485\\\hline\end{tabular}\end{center}\end{table}OpenDirectoryによる正解セットを用いた評価結果を表\ref{result-cluster}に,Roget'sThesaurusによる正解セットを用いた評価結果を表\ref{result-cluster-wordnet}に示す.示されている値はそれぞれ,5個のOpenDirectory正解セット$Ao_i(i=1〜5)$と10個のRoget'sThesaurus正解セット$Aw_i(i=1〜10)$について実験を行った結果の平均値である.各計算指標の群平均法とNewman法の結果を比較すると,いずれも群平均法では適合率が高く,再現率が低い.クラスタリングの評価では一般的なことであるが,これは1つのクラスタにほとんどの語が含まれ,残り8つのクラスタにそれぞれ1〜3語程度の語が含まれている状態と考えられる.例えば,極端な例ではクラスタ内の語数が1であれば適合率が$\frac{1}{1}=1.0$になる.そのため,含まれている語数の少ないクラスタが多数できる手法の方が精度が上がりやすい.しかし,再現率やF値で見ると,各クラスタに含まれる語数が均等に近くなるようなクラスタリング手法の評価が高くなる.表\ref{result-cluster},表\ref{result-cluster-wordnet}から群平均法の代わりにNewman法を用いることで,いずれの指標においてもF値が高くなっている.このことから,提案手法を用いることでより適切に語がクラスタリングされていると言える.ただし,群平均法がこの実験に適していない可能性も考えられるので,今後他の手法との比較を行う必要がある.Newman法を用いた場合の各指標を比較すると,表\ref{result-cluster},表\ref{result-cluster-wordnet}いずれにおいても,$\chi^2$値が最も良いF値を示している.これより,語のクラスタリングを行う関連語ネットワークの構築には$\chi^2$値による関連度を用いることが適切であると言える.次に評価手法(3)におけるNewman法の終了条件を「クラスタ数9」とした場合と「$\DeltaQ<0$」とした場合の評価実験結果を表\ref{final-condition}に示す.またその際の正解セットごとのクラスタ数のグラフを図\ref{cluster-num}に示す.\begin{table}[b]\begin{center}\caption{終了条件による比較($\chi^2$)(上段:適合率\中段:再現率\下段:F値)}\label{final-condition}\begin{tabular}{c|cc|cc}&\multicolumn{2}{c|}{OpenDirectory}&\multicolumn{2}{c}{WordNet}\\\hline&クラスタ数指定&自動終了($\DeltaQ<0$)&クラスタ数指定&自動終了($\DeltaQ<0$)\\\hline適合率&0.738&0.601&0.598&0.470\\再現率&0.631&0.911&0.411&0.591\\F値&0.680&0.722&0.485&0.520\\\hline\end{tabular}\end{center}\end{table}表\ref{final-condition}より,終了条件を「$\DeltaQ<0$」とした方が「クラスタ数指定」とした場合よりも高いF値を示している.しかし,その差は4ポイント程度であり,精度に大きな違いはないといえる.これより,提案手法においては,条件としてクラスタ数を与えない場合でも,与えた場合とほぼ同程度の精度で関連語のクラスタリングを行うことができることがわかる.\begin{figure}[b]\begin{center}\includegraphics[width=8cm,clip]{cluster.eps}\end{center}\caption{クラスタ数横軸:正解セット縦軸:クラスタ数}\label{cluster-num}\end{figure}\begin{table}[b]\caption{クラスタリング結果の具体例}\label{cluster-example}\begin{center}\begin{tabular}{l|c|c}終了条件&クラスタ名&\\\hlineクラスタ数指定&クラスタ$A_1$&情報処理,方法論,実証,ソースコード,文字コード,初期値\\\cline{2-3}&クラスタ$A_2$&無料レンタル,掲示板,アクセス数\\\hline$\DeltaQ<0$&クラスタ$B$&情報処理,方法論,実証,ソースコード,文字コード\\&&初期値,無料レンタル,掲示板,アクセス\\\hline\end{tabular}\end{center}\end{table}ただし,今回の実験ではそれぞれの終了条件によって違う傾向を持っている.「クラスタ数指定」では,$適合率>再現率$となっているが,「$\DeltaQ<0$」では,$適合率<再現率$となっている.これは,終了条件によるクラスタ数の違いとWebを用いて関連度を算出する際に必ずしも目的とする語の関連性が得られないためである,これに関して,クラスタリング結果の具体例を表\ref{cluster-example}に示す.ここに用いられている語は表\ref{ex-experiment}に示されている語である.本実験では,表\ref{ex-experiment}より,表\ref{cluster-example}の正解セットでは「科学」及び「コンピュータ」という関連性によってクラスタリングされることが想定されている.しかし,実際には「クラスタ数指定」のクラスタ$A_1$に含まれる語は,「情報科学」及び「プログラミング」という共通の関連性を持っていると考えられる.クラスタ$A_2$に含まれる語は「Web掲示板」という共通の関連性を持っていると考えられる.また「$\DeltaQ<0$」では,クラスタ$A_1,A_2$が1つにマージされ$クラスタB$を構成している.このように提案手法では,正解セットで目的としている関連性とは異なる関連性に基づいてクラスタリングされる場合が多い.これはクラスタリング手法によるものではなく,主に算出された関連度によるものである.実際には,クラスタ$A_1$のように2つ以上のカテゴリの語で構成されるクラスタやクラスタ$A_2$のように1つのカテゴリの語の一部のみで構成されるクラスタなど,正解セットのカテゴリ分けとは異なるクラスタができてしまっている.今回の実験においては,「クラスタ数指定」ではクラスタ$A_2$のようなクラスタが多かったために$適合率>再現率$となっている.また,クラスタ数の少なかった「$\DeltaQ<0$」ではクラスタ$B$のようなクラスタが多かったために$適合率<再現率$となっている.以上より,提案手法の精度を高めていくためには,目的にあわせた関連度を取得する手法とより適切にクラスタ数を自動取得する手法が必要となってくる.また,ネットワークのノード数とクラスタリングの実行時間の関係を図\ref{scalable}に示す\footnote{実行環境CPU:Pentium43.0Ghzメモリ:1GB}.基準線は,$x$をノード数,$z$をエッジ数とするとき,式$y=1.8\times10^{-8}x(z+x)$のあらわす曲線である($1.8\times10^{-8}は比例定数)$.図\ref{scalable}で実測値と基準線を比較するとほぼ一致しており,確かにNewman法の計算量が$O(n(m+n))$に比例している.そして,$n=4029$,$m=7146169$のとき実行時間は$532$秒であり,$n,m$が大きい大規模ネットワークにも提案手法が適用可能であると考えられる.\begin{figure}[t]\begin{center}\includegraphics[width=8cm,clip]{scale.eps}\end{center}\caption{ノード数と実行時間横軸:ノード数縦軸:実行時間(秒)}\label{scalable}\end{figure}以上の評価実験の結果より,提案手法について以下の3点を述べることができる.\begin{itemize}\item既存手法よりも適切に関連語のクラスタリングを行うことができる\itemクラスタ数が未知の場合でも,クラスタ数が既知の場合と同程度の精度で関連語のクラスタリングを行うことができる\item大規模なネットワークにも適用可能である\end{itemize}
\section{議論}
語の関連は,相対的なものである.候補となる語群によって,あるときは関連した語同士でも,他の場合には関連していないこともあり得る.ある語群において全ての語同士の関連度が分かっているとき,どの語とどの語を関連語と見なすかは,関連度によって規定される語の関係性によると考えられる.語の関連性を図\ref{ex-clustering}のようなネットワーク図(ノード間の距離を(1/語の関連度)とおく)で可視化すると,図\ref{ex-clustering}-aのような時は部分集合A,B,Cそれぞれが,関連語の集まった関連語群であると言える.同様に図\ref{ex-clustering}-bであれば,部分集合A,B,C,Dそれぞれが関連語群であると言える.このように語のネットワーク上で周囲と比べて密度が高くなっている部分を抽出することで,各語の関連語を同定することができる.\begin{figure}[b]\begin{center}\includegraphics[width=8cm,clip]{ex-clustering.eps}\end{center}\caption{クラスタリングによる関連語の同定}\label{ex-clustering}\end{figure}Webは非常に多様性に富んだテキストから構成されている.したがって,目的に合わせた語の関連性を得るには,Webから適切な文書集合を切り出した上で,その文書集合内での関連度を求めるという方法が考えられる.これには,検索クエリーに特定の検索語(keywordspice)を加える方法が有効であろう\cite{Oyama04}.本論文では,関連語ネットワーク上のエッジには重みを与えていないが,語の関連性が多値的であることを考えると,重みを考慮する必要がある.ただし,既存のNewman法は重みのあるネットワークに対応していない.そこで,重みを扱えるようにNewman法を改良することで,重みつきのネットワーク上でクラスタリングを行うことが考えられる.語の関連性を「関連がある,ない」の2値ではなく,重みという多値で扱うことで,クラスタ数の自動取得も含めて,より適切なクラスタリング結果が得られることが予想される.加えて,Newman法では1語が1つのクラスタリングにしか所属できないハードクラスタリングであるため,語の持つ多義性を解消することができない,という問題点がある.しかし,Newman法をもとにしたソフトクラスタリングの手法も提案されており\cite{Reichard04},この手法を関連語ネットワークに適用することで語の多義性を解消できると考えられる.また本研究では,同義・類義,上位語・下位語,連想語をすべて関連語としたが,こういった語を関係性を分類していくことも重要であろう.こういった研究には,前置詞を手がかりとして語の関係性を同定する\cite{Litkowski02}の手法があるが,これを検索エンジンを利用していかに効率的に行うかは今後の検討課題のひとつである.
\section{結論}
本論文では,自動的に関連語のシソーラスを構築する手法について提案した.提案手法では,検索エンジンを利用し,Webをコーパスとして用いる.Newman法をクラスタリング法として用いる部分が大きな特徴のひとつである.検索エンジンを用いて語の関連度を取得する研究においては,コーパスを直接解析する手法と比べ,共起頻度以外の文法的な情報が得られないため,クラスタリングによって関連語を同定し,高い精度を得られている研究はなかった.本論文では,共起頻度のみを用いたクラスタリングで精度の高い関連語の同定に成功しており,そのような点で非常に有意義な研究だと考えられる.また,語の関係の相対性に着目し,相対性を考慮した手法を用いた.$\chi^2値$は語群内での相対的な偏りを示す統計的指標であり,またNewman法はネットワーク全体で相対的に結合度の強いノードをマージするクラスタリング手法である.これらの手法を用いることにより,より適合率が高く,適用範囲の広いシソーラスの構築手法を提案することができた.Webは重要な言語資源であり,その利用のためには検索エンジンの利用や大規模な処理への対応など,Webならではのアルゴリズムの工夫が必要になる.今後,検索エンジンを利用した言語処理の可能性をさらに追求していきたい.\acknowledgment株式会社社長ホットリンク下大園貞寛氏,国立情報学研究所大向一輝氏をはじめ,本研究にアドバイスをくださった全ての方に感謝いたします.\bibliographystyle{jnlpbbl_1.1}\begin{thebibliography}{}\bibitem[\protect\BCAY{Baker\BBA\McCallum}{Baker\BBA\McCallum}{1998}]{Baker98}Baker,D.\BBACOMMA\\BBA\McCallum,A.\BBOP1998\BBCP.\newblock\BBOQDistributionalClusteringforTextClassification\BBCQ\\newblockIn{\BemProceedingsofSIGIR-98,21stACMInternationalConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\96--103}.\bibitem[\protect\BCAY{BarbaraAnn~Kipfer}{BarbaraAnn~Kipfer}{2006}]{RogetMillenium}BarbaraAnn~Kipfer,P.\BED\\BBOP2006\BBCP.\newblock\Jem{Roget'sNewMillenniumThesaurus,FirstEdition}.\newblockLexicoPublishingGroup.\bibitem[\protect\BCAY{Baroni\BBA\Bisi}{Baroni\BBA\Bisi}{2004}]{Baroni04}Baroni,M.\BBACOMMA\\BBA\Bisi,S.\BBOP2004\BBCP.\newblock\BBOQUsingcooccurrencestatisticsandthewebtodiscoversynonymsinatechnicallanguage\BBCQ\\newblockIn{\BemInProceedingsofLREC2004},\mbox{\BPGS\26--28}.\bibitem[\protect\BCAY{Brown,Pietra,deSouza,Lai,\BBA\Mercer}{Brownet~al.}{1992}]{Brown92}Brown,P.,Pietra,V.,deSouza,P.,Lai,J.,\BBA\Mercer,R.\BBOP1992\BBCP.\newblock\BBOQClass-basedn-grammodelofnaturallanguage\BBCQ\\newblock{\BemComput.Linguist.},{\Bbf18}(4),\mbox{\BPGS\467--479}.\bibitem[\protect\BCAY{Chang}{Chang}{2005}]{Chang05}Chang,J.\BBOP2005\BBCP.\newblock\BBOQDomainSpecificWordExtractionfromHierarchicalWebDocuments:AFirstStepTowardBuildingLexiconTreesfromWebCorpora\BBCQ\\newblockIn{\BemProceedingsoftheFourthSIGHANWorkshoponChineseLanguageProcessing},\mbox{\BPGS\64--71}.\bibitem[\protect\BCAY{Church\BBA\Hanks}{Church\BBA\Hanks}{1990}]{Church90}Church,W.\BBACOMMA\\BBA\Hanks,P.\BBOP1990\BBCP.\newblock\BBOQWordassociationnorms,mutualinformation,andlexicography\BBCQ\\newblock{\BemComput.Linguist.},{\Bbf16}(1).\bibitem[\protect\BCAY{Crouch\BBA\Yang}{Crouch\BBA\Yang}{1992}]{Crouch92}Crouch,C.~J.\BBACOMMA\\BBA\Yang,B.\BBOP1992\BBCP.\newblock\BBOQExperimentsinautomaticstatisticalthesaurusconstruction\BBCQ\\newblockIn{\BemSIGIR'92:Proceedingsofthe15thannualinternationalACMSIGIRconferenceonResearchanddevelopmentininformationretrieval},\mbox{\BPGS\77--88}.\bibitem[\protect\BCAY{Curran}{Curran}{2002}]{Curran02}Curran,J.\BBOP2002\BBCP.\newblock\BBOQEnsembleMethodsforAutomaticThesaurusExtraction\BBCQ\\newblockIn{\BemProceedingsofthe2002ConferenceonEmpiricalMethodsinNLP},\mbox{\BPGS\222--229}.\bibitem[\protect\BCAY{Curran\BBA\Moens}{Curran\BBA\Moens}{2002}]{Curran02-2}Curran,J.\BBACOMMA\\BBA\Moens,M.\BBOP2002\BBCP.\newblock\BBOQImprovementsinAutomaticThesaurusExtraction\BBCQ\\newblockIn{\BemProceedingsoftheWorkshopoftheACLSIGLEX},\mbox{\BPGS\59--66}.\bibitem[\protect\BCAY{Deerwester,Dumais,Landauer,Furnas,\BBA\Harshman}{Deerwesteret~al.}{1990}]{Deerwester90}Deerwester,S.,Dumais,S.,Landauer,T.,Furnas,G.,\BBA\Harshman,R.\BBOP1990\BBCP.\newblock\BBOQIndexingbyLatentSemanticAnalysis\BBCQ\\newblock{\BemJournaloftheAmericanSocietyofInformationScience},{\Bbf41}(6),\mbox{\BPGS\391--407}.\bibitem[\protect\BCAY{Dhillon}{Dhillon}{2002}]{Dhillon02}Dhillon,S.\BBOP2002\BBCP.\newblock\BBOQEnhancedWordClusteringforHierarchicalTextClassification\BBCQ\\newblockIn{\BemProceedingsofthe8thACMSIGKDD},\mbox{\BPGS\191--200}.\bibitem[\protect\BCAY{Girvan\BBA\Newman}{Girvan\BBA\Newman}{2002}]{Newman02}Girvan,M.\BBACOMMA\\BBA\Newman,M.\BBOP2002\BBCP.\newblock\BBOQCommunitystructureinsocialandbiologicalnetworks\BBCQ\\newblockIn{\BemProceedingsofNationalAcademicScience},\mbox{\BPGS\7821--7826}.\bibitem[\protect\BCAY{Grefenstette}{Grefenstette}{1994}]{Grefenstette94}Grefenstette,G.\BBOP1994\BBCP.\newblock{\BemExplorationsinAutomaticThesaurusDiscovery}.\newblockKluwerAcademicPublishers.\bibitem[\protect\BCAY{Heylighen}{Heylighen}{2001}]{Heylighen01}Heylighen,F.\BBOP2001\BBCP.\newblock\BBOQMiningAssociativeMeaningsfromtheWeb:fromworddisambiguationtotheglobalbrain\BBCQ\\newblockIn{\BemProceedingsoftheInternationalColloquium:TrendsinSpecialLanguage\&LanguageTechnology,R.Temmerman\&M.Lutjeharms},\mbox{\BPGS\15--44}.\bibitem[\protect\BCAY{Hodge\BBA\Austin}{Hodge\BBA\Austin}{2002}]{Hodge02}Hodge,V.\BBACOMMA\\BBA\Austin,J.\BBOP2002\BBCP.\newblock\BBOQ{Hierarchicalwordclustering---automaticthesaurusgeneration}\BBCQ\\newblock{\BemNeurocomputing},{\Bbf48},\mbox{\BPGS\819--846}.\bibitem[\protect\BCAY{Jarmasz\BBA\Szpakowicz}{Jarmasz\BBA\Szpakowicz}{2003}]{Jarmasz03}Jarmasz,M.\BBACOMMA\\BBA\Szpakowicz,S.\BBOP2003\BBCP.\newblock\BBOQRoget'sThesaurusandSemanticSimilarity\BBCQ\\newblockIn{\BemProceedingsofConferenceRecnetAdvancesinNLP},\mbox{\BPGS\212--219}.\bibitem[\protect\BCAY{Kilgarriff\BBA\Grefenstette}{Kilgarriff\BBA\Grefenstette}{2003}]{Kilgarriff03}Kilgarriff,A.\BBACOMMA\\BBA\Grefenstette,G.\BBOP2003\BBCP.\newblock\BBOQWebasCorpus\BBCQ\\newblockIn{\BemInProceedings.oftheACLWorkshoponIntellignentScalableTextSummarization}.\bibitem[\protect\BCAY{Li\BBA\Abe}{Li\BBA\Abe}{1998}]{HangLi98}Li,H.\BBACOMMA\\BBA\Abe,N.\BBOP1998\BBCP.\newblock\BBOQWordclusteringanddisambiguationbasedonco-occurrencedata\BBCQ\\newblockIn{\BemProceedingsofthe17thinternationalconferenceonComputationallinguistics},\mbox{\BPGS\749--755}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Lin}{Lin}{1998}]{Lin98a}Lin,D.\BBOP1998\BBCP.\newblock\BBOQAutomaticretrievalandclusteringofsimilarwords\BBCQ\\newblockIn{\BemProceedingsofthe17thinternationalconferenceonComputationallinguistics},\mbox{\BPGS\768--774}\Morristown,NJ,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Litkowski}{Litkowski}{2002}]{Litkowski02}Litkowski,C.\BBOP2002\BBCP.\newblock\BBOQDigraphAnalysisofDictionaryPrepositiondefinition\BBCQ\\newblockIn{\BemProceedingsoftheSIGLEX/SENSEVALWorkshoponWordSenseDisambiguation:RecentSuccessesandFutureDirections},\mbox{\BPGS\9--16}.\bibitem[\protect\BCAY{Manning\BBA\Schutze}{Manning\BBA\Schutze}{1999}]{Manning99}Manning,C.\BBACOMMA\\BBA\Schutze,H.\BBOP1999\BBCP.\newblock\BBOQFoundationsofstatisticalnaturallanguageprocessing\BBCQ\\newblockIn{\BemMITPress}.\bibitem[\protect\BCAY{Miller}{Miller}{1990}]{Miller90}Miller,G.\BBOP1990\BBCP.\newblock\BBOQWordNet:anon-linelexicaldatabase\BBCQ\\newblockIn{\BemInternationalBooktitleofLexicography}.\bibitem[\protect\BCAY{Motter,Moura,Lai,\BBA\Dasgupta}{Motteret~al.}{2002}]{motter02}Motter,A.,Moura,A.,Lai,Y.,\BBA\Dasgupta,P.\BBOP2002\BBCP.\newblock\BBOQTopologyoftheconceptualnetworkoflanguage\BBCQ\\newblock{\BemPhysicalReviewE},{\Bbf65}(065102).\bibitem[\protect\BCAY{長尾\JBA水谷\JBA池田}{長尾\Jetal}{1976}]{Nagao76}長尾真\JBA水谷幹男\JBA池田浩之\BBOP1976\BBCP.\newblock\JBOQ日本語文献における重要語の自動抽出\JBCQ\\newblock\Jem{情報処理},{\Bbf17}(2),\mbox{\BPGS\pp.110--117}.\bibitem[\protect\BCAY{Newman}{Newman}{2004}]{Newman04}Newman,M.\BBOP2004\BBCP.\newblock\BBOQFastalgorithmfordetectingcommunitystructureinnetworks\BBCQ\\newblockIn{\BemPhys.Rev.E69,2004}.\bibitem[\protect\BCAY{Oyama,Kokubo,\BBA\Ishida}{Oyamaet~al.}{2004}]{Oyama04}Oyama,S.,Kokubo,T.,\BBA\Ishida,T.\BBOP2004\BBCP.\newblock\BBOQDomain-SpecificWebSearchwithKeywordSpices\BBCQ\\newblock{\BemIEEETransactionsonKnowledgeandDataEngineering(TKDE)},{\Bbf16}(1),\mbox{\BPGS\17--27}.\bibitem[\protect\BCAY{Palla,Der{\'e}nyi,Farkas,\BBA\Vicsek}{Pallaet~al.}{2005}]{Palla05}Palla,G.,Der{\'e}nyi,I.,Farkas,I.,\BBA\Vicsek,T.\BBOP2005\BBCP.\newblock\BBOQ{Uncoveringtheoverlappingcommunitystructureofcomplexnetworksinnatureandsociety}\BBCQ\\newblock{\BemNature},{\Bbf435},\mbox{\BPGS\814--818}.\bibitem[\protect\BCAY{Papadimitriou,Tamaki,Raghavan,\BBA\Vempala}{Papadimitriouet~al.}{1998}]{papadim98}Papadimitriou,C.,Tamaki,H.,Raghavan,P.,\BBA\Vempala,S.\BBOP1998\BBCP.\newblock\BBOQLatentSemanticIndexing:AProbabilisticAnalysis\BBCQ.\bibitem[\protect\BCAY{Pereira,Tishby,\BBA\Lee}{Pereiraet~al.}{1993}]{Pereira93}Pereira,F.,Tishby,N.,\BBA\Lee,L.\BBOP1993\BBCP.\newblock\BBOQDistributionalClusteringofEnglishwords\BBCQ\\newblockIn{\BemProceedingsofthe31stannualmeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\183--190}.\bibitem[\protect\BCAY{Reichardt\BBA\Bornholdt}{Reichardt\BBA\Bornholdt}{2004}]{Reichard04}Reichardt,J.\BBACOMMA\\BBA\Bornholdt,S.\BBOP2004\BBCP.\newblock\BBOQDetectingFuzzyCommunityStructuresinComplexNetworkswithaPottsModel\BBCQ\\newblock{\BemPhysicalReviewLetters},{\Bbf93}.\bibitem[\protect\BCAY{Sanderson\BBA\Croft}{Sanderson\BBA\Croft}{1999}]{Croft99}Sanderson,M.\BBACOMMA\\BBA\Croft,B.\BBOP1999\BBCP.\newblock\BBOQDerivingconcepthierarchiesfromtext\BBCQ\\newblockIn{\BemSIGIR'99:Proceedingsofthe22ndannualinternationalACMSIGIRconferenceonResearchanddevelopmentininformationretrieval},\mbox{\BPGS\206--213}.ACMPress.\bibitem[\protect\BCAY{Scott}{Scott}{2000}]{Scott00}Scott,J.\BBOP2000\BBCP.\newblock{\BemSocialNetworkAnalysis:AHandbook}.\newblock{SAGEPublications}.\bibitem[\protect\BCAY{Sigman\BBA\Cecchi}{Sigman\BBA\Cecchi}{2002}]{sigman02}Sigman,M.\BBACOMMA\\BBA\Cecchi,G.\BBOP2002\BBCP.\newblock\BBOQGlobalorganizationoftheWordnetlexicon\BBCQ\\newblock{\BemPNAS},{\Bbf99}(3),\mbox{\BPGS\1742--1747}.\bibitem[\protect\BCAY{Slonim\BBA\Tishby}{Slonim\BBA\Tishby}{2000}]{Slonim00}Slonim,N.\BBACOMMA\\BBA\Tishby,N.\BBOP2000\BBCP.\newblock\BBOQDocumentClustringusingWordClusterviatheInformationBottleneckMethod\BBCQ\\newblockIn{\BemResearchandDevelopmentInformationRetrieval},\mbox{\BPGS\208--215}.\bibitem[\protect\BCAY{Szpektor,Tanev,Dagan,\BBA\Coppola}{Szpektoret~al.}{2004}]{Szpektor04}Szpektor,I.,Tanev,H.,Dagan,I.,\BBA\Coppola,B.\BBOP2004\BBCP.\newblock\BBOQScalingWeb-basedAcquisitionofEntailmentRelations\BBCQ\\newblockIn{\BemProceedingsofEMNLP2004},\mbox{\BPGS\41--48}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Turney}{Turney}{2001}]{Turney01}Turney,P.\BBOP2001\BBCP.\newblock\BBOQMiningthewebforsynonyms:PMI-IRversusLSAonTOEFL\BBCQ\\newblockIn{\BemEMCL'01:Proceedingsofthe12thEuropeanConferenceonMachineLearning},\mbox{\BPGS\491--502}.\bibitem[\protect\BCAY{Ward}{Ward}{1996}]{MobyThesaurus}Ward,G.\BED\\BBOP1996\BBCP.\newblock{\BemMobyThesaurus}.\newblockMobyProject.\bibitem[\protect\BCAY{Wettler\BBA\Rapp}{Wettler\BBA\Rapp}{1993}]{Wettler93}Wettler,M.\BBACOMMA\\BBA\Rapp,R.\BBOP1993\BBCP.\newblock\BBOQComputationofwordassociationsbasedontheco-occurrencesofwordsinlargecorpora\BBCQ\\newblockIn{\BemInProceedingsofthe1stWorkshoponVeryLargeCorpora:AcademicandIndustrialPerspectives},\mbox{\BPGS\84--93}.\bibitem[\protect\BCAY{Widdows\BBA\Dorow}{Widdows\BBA\Dorow}{2002}]{Widdows02}Widdows,D.\BBACOMMA\\BBA\Dorow,B.\BBOP2002\BBCP.\newblock\BBOQAGraphModelforUnsupervisedLexicalAcquisition\BBCQ\\newblockIn{\BemCOLING2002,19thInternationalConferenceonComputationalLinguistics}.\bibitem[\protect\BCAY{Xu,Kurz,Piskorski,\BBA\Schmeier}{Xuet~al.}{2002}]{Xu02}Xu,F.,Kurz,D.,Piskorski,J.,\BBA\Schmeier,S.\BBOP2002\BBCP.\newblock\BBOQADomainAdaptiveApproachtoAutomaticAcquisitionofDomainRelevantTermsandtheirRelationswithBootstrapping\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonLanguageResourcesanEvaluation(LREC'02),May29-31}.\bibitem[\protect\BCAY{Yang\BBA\Pedersen}{Yang\BBA\Pedersen}{1997}]{Yang97}Yang,Y.\BBACOMMA\\BBA\Pedersen,J.\BBOP1997\BBCP.\newblock\BBOQAComparativeStudyonFeatureSelectioninTextCategorization\BBCQ\\newblockIn{\BemICML'97:ProceedingsoftheFourteenthInternationalConferenceonMachineLearning},\mbox{\BPGS\412--420}.MorganKaufmannPublishersInc.\bibitem[\protect\BCAY{佐々木靖弘\JBA佐藤理史\JBA宇津呂武仁}{佐々木靖弘\Jetal}{2005}]{Sasaki05}佐々木靖弘\JBA佐藤理史\JBA宇津呂武仁\BBOP2005\BBCP.\newblock\JBOQウェブを利用した専門用語集の自動編集\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\895--898}.\bibitem[\protect\BCAY{池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦}{池原悟\Jetal}{1997}]{goitaikei}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\JEDS\\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{日本電子化辞書研究所}{日本電子化辞書研究所}{1996}]{EDR}日本電子化辞書研究所\JED\\BBOP1996\BBCP.\newblock\Jem{EDR電子化辞書仕様説明書}.\newblock日本電子化辞書研究所.\end{thebibliography}\begin{biography}\bioauthor{榊剛史}{2000年東京大学工学部電子情報工学科卒業.2006年同大学院情報理工学系研究科修士課程修了.研究分野はWebマインニング,言語処理.}\bioauthor{松尾豊}{1997年東京大学工学部電子情報工学科卒業.2002年同大学院博士課程修了.同年より産業技術総合研究所に勤務.現在同研究所情報技術研究部門勤務,スタンフォード大学客員研究員.高次Webマインニングに興味がある.人工知能学会,情報処理学会,AAAI,各会員.}\bioauthor{内山幸樹}{株式会社ホットリンク代表取締役社長.1995年,東京大学大学院在学中にマジックマウスの設立に加わり,日本最初期のサーチエンジンの開発に携わる.97年マジックマウス入社.98年デジット常務.2000年6月,技術とアイディアで世界に勝負するためホットリンクを設立する.近年では,HottoLaboやてくてく.jpなど研究者・技術者の交流支援事業などを立ち上げている.}\bioauthor{石塚満}{1971年東京大学工学部電子卒.1976年同大学院博士課程修了.NTT,東大大学院生産技術研究所・助教授,同大学工学部電子情報・教授を経て,現在は2005年より同大学院情報理工学系研究科創造情報学専攻・教授.研究分野は人工知能,Webインテリジェンス,次世代Web情報基盤,マルチモーダルエージェント.人工知能学会(会長),IEEE,AAAI,情報処理学会,電子情報通信学会の会員.}\end{biography}\biodate\end{document}
| |
V09N03-01 | \section{はじめに}
決定リストとは統計的なクラス分類器である.自然言語処理の多くは,クラス分類問題として捉えることが可能であり,近年,様々な自然言語処理において,決定リストによる手法の有効性が示されている\cite{Yarowsky:unsupervised,新納:日本語形態素解析,宇津呂:コーパス,白木:複数決定リスト}.特に,語義曖昧性解消問題に対しては,語義曖昧性解消システムの性能を競う競技会であるSenseval-1において,決定リストを階層的に拡張した手法が最も良い成績をあげている\cite{Yarowsky:Hierarchical}.クラス分類器としては,分類精度の点だけでいえば,最近ではサポートベクタマシン\cite{vapnik95nature}やアダブースト\cite{freund99short}といった手法が,その性能の高さから注目を集めている\cite{nagata01text}.しかし,それらの手法は,学習結果が人間にとってブラックボックスなのに対して,決定リストによる手法では,作成された分類器がif-then形式のルールの並びであるために,人間が容易に理解可能であるというメリットがある.学習した決定リストに人間の手を入れることで,性能を向上させることができるとの報告もある\cite{Li:Text}.決定リストを作成する上で最も重要な問題は,ルールの信頼度の算出法である.信頼度を計算するためには,限られた事例から,ルールに関する条件付き確率を計算する必要がある.事例の数が多ければ,確率値を最尤推定法によって頻度の比として推定することにほとんど問題はない.しかし,事例の数が少ない場合,最尤推定法による推定値の誤差は非常に大きくなってしまう.このような問題に対し,決定リストを用いた多くの研究では,事例の数が少ないルールを間引いたり,簡単なスムージングを行なうことによって対処している.しかし,ルールを間引く手法では重要なルールを取りこぼしてしまう危険があり,計算式に適当な数値を足してスムージングを行なう手法では加算する値の設定の理論的な指針がないという問題がある.他方,決定リスト手法の改良として,特徴の種類ごとに異なった信頼度の重み付けを与える手法が提案され,日本語の同音異義語解消の実験によってその有効性が示されている\cite{新納:複合語}.このことは,特徴の種類によって,ルールの信頼度に最尤推定法では考慮することのできない違いが存在することを示唆している.そこで本論文では,ルールの確率値の推定にベイズ統計の手法を利用する.ベイズ統計では,確率変数に関する推定を行なう際に,学習者の持っている事前知識を活用することができる.そのため,適切な事前知識を利用することができれば,最尤推定よりも正確な推定を行なうことができる.また,上記の,証拠の種類による信頼度の違いも,事前分布の違いとして自然に導入することができる.本論文では,語義曖昧性解消の問題を例にとり,ベイズ学習による信頼度の算出が,決定リストの性能を向上させることを示す.本論文の構成は以下の通りである.2章で決定リストによるクラス分類の手法を説明する.3章で,ベイズ学習による確率値の算出法を示す.4章で,他のルールの確率値を利用して事前分布を構成する方法を示す.5章で,決定リストを語義曖昧性解消問題に適用した実験結果を示す.6章で,まとめを行なう.
\section{決定リスト}
決定リストとは,クラス分類のためのルールを,その信頼度の高い順に並べたものである.それぞれのルールは,「もし(証拠$E_i$)ならば,クラスは$C_j$である」という形式をしている.証拠というのは,判定の手がかりとなる事例の特徴である.例として,英語の多義語{\itplant}(A:植物,B:工場)に関してYarowskyが行なった実験での決定リストを表\ref{tab:ex_dlist}に示す\cite{Yarowsky:Decision}.最上位のルールは,「右隣にlifeという単語があったら,語義はA」という意味,4番目のルールは,「距離2〜10単語以内にmanufacturingという単語があったら,語義はB」という意味である.\begin{table}\caption{決定リストの例}\label{tab:ex_dlist}\begin{center}\begin{tabular}{ccc}\hline\hline信頼度&証拠&語義\\\hline8.10&{\itplant}{\bflife}&A\\7.58&{\bfmanufacturing}{\itplant}&B\\7.39&{\bflife}(within$\pm$2--10words)&A\\7.20&{\bfmanufacturing}(within$\pm$2--10words)&B\\6.27&{\bfanimal}(within$\pm$2--10words)&A\\4.70&{\bfequipment}(within$\pm$2--10words)&B\\4.39&{\bfemployee}(within$\pm$2--10words)&B\\:&:&:\\\hline\end{tabular}\end{center}\end{table}実際にクラスの分類を行なう際には,その事例に対して適用可能なルールのうち,最も上位のルールを用いて分類が行なわれる.例えば入力文が,\begin{center}...dividelifeinto{\itplant}andanimalkingdom...\end{center}\noindentであるとすると,適用可能なルールのうち最上位なのは3番目のルールであるから,{\itplant}の語義はAだと判定されることになる.このように,決定リストによる手法では,他の多くの機械学習手法と異なり,特徴を単独で利用する.単独でしか利用しないのは一見不利なようであるが,語義曖昧性解消などの,文脈の語彙的な特徴を利用する問題に関しては,単独の証拠が分類の決定的な証拠になることが多いため,決定リストによる手法が有効であるといわれている.本論文で提案する決定リストのルール信頼度の推定手法は,特定の自然言語処理に特化したものではないが,本論文では,決定リストの適用例として,上記のような語義曖昧性解消の問題を取り上げる.ここで,本論文で用いる文脈上の特徴を以下に示す.\begin{itemize}\item{Window}ターゲットから,距離10単語以内に出現する単語\item{Adjacent}ターゲットの左隣に出現する単語ターゲットの右隣に出現する単語\item{Pair}ターゲットの左隣にある単語対ターゲットを挟む単語対ターゲットの右隣にある単語対\end{itemize}\vspace{3mm}すなわち,文脈情報としての詳細さが異なる三つのタイプの特徴を利用する.文脈情報として最も詳細なのはPairであり,最も粗いのがWindowである.\subsection{ルールの信頼度}決定リストは,事例とその正解ラベルを含む訓練コーパスから作成される.決定リストの作成において最も重要な問題は,それぞれのルールの信頼度の計算法である.文献\cite{Yarowsky:Decision}では,次の式に従って信頼度を計算している.\begin{equation}\label{eq:yarowsky}(信頼度)=\log\Big(\frac{P(C_A|E_i)}{P(C_B|E_i)}\Big)\end{equation}すなわち,証拠$E_i$のもとでクラス(語義)がAである確率と,同じ証拠$E_i$のもとでクラスがBである確率との比の対数をとったものである.従来の決定リストを用いた自然言語処理の研究では,ルールの信頼度の算出法として,式(\ref{eq:yarowsky}),あるいは,式(\ref{eq:yarowsky})をクラスが3つ以上の場合でも適用できるように変形した次の式,\begin{equation}\label{eq:yarowsky1}(信頼度)=\log\Big(\frac{P(C_A|E_i)}{1-P(C_A|E_i)}\Big)\end{equation}が用いられることが多い\cite{Yarowsky:Decision,Yarowsky:Hierarchical,新納:日本語形態素解析}.また,対数をとらずに,\begin{equation}\label{eq:reliability}(信頼度)=P(C_A|E_i)\end{equation}とする場合もある\cite{白木:複数決定リスト}.ここで,式(\ref{eq:reliability})と式(\ref{eq:yarowsky1})を見比べてみると,式(\ref{eq:yarowsky1})は,式(\ref{eq:reliability})に関して単調増加であり,決定リストでは信頼度の大小関係しか問題にならないのだから,後述するスムージングの問題を考慮しなければ,式(\ref{eq:yarowsky1})を用いた場合と,式(\ref{eq:reliability})を用いた場合では,結果的に作成される決定リストは等価になる.一般にクラス分類器の目標は,分類の正解率を最大にすることであるから,ルールの信頼度としては,そのルールが正解する確率である式(\ref{eq:reliability})を用いるのが自然である.また,クラス分類器が,自然言語処理システムの一部を構成している場合,分類の信頼度は確率として出力された方が扱いやすいことが多い.そこで本論文では,ルールの信頼度として式(\ref{eq:reliability})を用いることにする.式(\ref{eq:reliability})の値は,訓練事例が多ければ,ベルヌーイ試行における最尤推定により,次のように計算することができる.\begin{equation}(信頼度)=P(C_A|E_i)=\frac{f(C_A,E_i)}{f(E_i)}\end{equation}ただし,$f(C_A,E_i)$は,クラスAに属するターゲットと証拠$E_i$が同時に出現した回数.$f(E_i)$は,証拠$E_i$の出現回数である.ところが,通常は出現回数が少ない証拠も多い.例えば,\begin{equation}f(C_A,E_i)=1,\\f(E_i)=1\end{equation}の場合,信頼度は$1/1=1$と計算されるが,たった一つの事例しかないのに,その信頼度は100\%,すなわち最も信頼度の高いルールだとみなされてしまう.このように,出現回数の少ない事例において,そのままでは統計的に信頼性のある確率値が算出できないことをスパースネスの問題という.そこで本論文では,ベイズ学習の手法を用いてこの問題の解決を試みる.
\section{ベイズ学習によるルール確率値の推定}
いま,求めたいルールの確率値を$\theta$とする.最尤推定の枠組では,確率モデルの尤度が最大となるように$\theta$を決定するが,ベイズ学習の枠組では,$\theta$を確率変数と考えて,その確率分布を求める問題と考える.本論文では,得られた確率分布を決定リストのルールの信頼度として利用したいのだから,その確率分布から$\theta$の期待値を計算して利用すればよい.訓練コーパスにおいて,確率を求めたいルールに関する事例が$n$個あり,そのうちの$k$個において,そのルールが正しいというデータがあるとする.このデータを$y$とすると,データ$y$を観測した後の$\theta$の事後密度は,\begin{eqnarray}p(\theta|y)&=&\frac{p(\theta)p(y|\theta)}{p(y)}\\\label{eq:jigo}&=&\frac{p(\theta)p(y|\theta)}{\int_0^1{p(\theta)p(y|\theta)}d\theta}\end{eqnarray}で与えられる.ここで,事象$y$はベルヌーイ試行と考えられるから,その確率は二項分布により次のように与えられる.\begin{equation}p(y|\theta)={}_nC_k\theta^k(1-\theta)^{n-k}\end{equation}これを式(\ref{eq:jigo})に代入して,\begin{eqnarray}p(\theta|y)&=&\frac{p(\theta){}_nC_k\theta^k(1-\theta)^{n-k}}{\int_0^1{p(\theta){}_nC_k\theta^k(1-\theta)^{n-k}}d\theta}\\&=&\frac{p(\theta)\theta^k(1-\theta)^{n-k}}{\int_0^1{p(\theta)\theta^k(1-\theta)^{n-k}}d\theta}\label{eq:post}\end{eqnarray}を得る.ここで,事前分布$p(\theta)$をどのように設定するのか,という問題が浮上する.事前分布は,$\theta$について学習者が持っている事前知識を表す.ベイズ学習における事前分布の設定方法に関しては,大きく分けて2つのアプローチがある.一つは,できるだけ公平で無知の状態を表すように事前分布を設定する方法である.そのような事前分布としては,一様分布やJeffreysの無情報事前分布などが提案されている\cite{繁桝:ベイズ}.もう一つは,学習者が事前に持っている知識を積極的に表現するような事前分布を設定する方法である.\subsection{一様分布}\vspace{-6pt}まず,無知の状態を表す事前分布として,一様分布を用いた場合について説明する.いま,あるルールの確率に関して,事前知識が全くないものと考えると,すべての確率値の事前確率について同じ値とするのが自然である.$\theta$は[0,1]を定義域とする連続の確率変数であり,$p(\theta)$は密度関数であるから,\begin{equation}p(\theta)=1\end{equation}とすればよい.そうすると,事後分布は次のようになる.\begin{eqnarray}p(\theta|y)&=&\frac{\theta^k(1-\theta)^{n-k}}{\int_0^1{\theta^k(1-\theta)^{n-k}}d\theta}\\&=&\frac{\theta^{(k+1)-1}(1-\theta)^{(n+2)-(k+1)-1}}{\int_0^1{\theta^{(k+1)-1}(1-\theta)^{(n+2)-(k+1)-1}}d\theta}\end{eqnarray}この確率分布は,ベータ分布と呼ばれ,期待値は次式で与えられる\cite{鈴木:ベイズ}.\begin{equation}E[\theta]=\frac{k+1}{n+2}\end{equation}いま,$k$と$n$は,それぞれ,$f(C_A,E_i)$と$f(E_i)$に対応しているのだから,\begin{equation}\label{eq:myreliability}(信頼度)=P(C_A|E_i)=\frac{f(C_A,E_i)+1}{f(E_i)+2}\end{equation}となる.結論は非常にシンプルである.すなわち,頻度$f(C_A,E_i)$と$f(E_i)$をそのまま用いる代わりに,$f(C_A,E_i)+1$と$f(E_i)+2$を用いればよい,ということである.
\section{事前分布の利用による確率値の正確な推定}
前章では,ベイズ学習において事前情報が全くないものとし,事前分布を一様分布として事後分布の導出を行なった.しかし,\ref{sc:experiments}章で述べる実験結果から明らかなように,実際の正解率と,ベイズ学習による確率から計算された期待正解率との間には開きがある.これは,推定された確率が真の確率からずれていることを示している.この原因には,以下の3つが考えられる.\begin{itemize}\itemトレーニングデータvs.テストデータもし,学習のためのトレーニングデータと,テストデータの性質が異なっている場合,実際の正解率は低下する.これは,コーパスベースの手法の本質的な問題である.\itemGlobalvs.history-conditional決定リストにおいて,あるルールが適用されるということは,そのルールより上位のルールが,その文脈に適用できなかったことを示している.したがって,確率値はその条件を反映したものでなければならない.ところが,式(\ref{eq:myreliability})では,そのような条件を考慮せず,単に事例全体の中での確率しか考慮していない.そのような条件を考慮した確率値を算出するためには,決定木を構成するように,決定リストにルールを追加するたびに,それに適合する事例を削除していく,というようなことをする必要がある.しかし,そのようにすると,下位にいくにしたがって事例の数が少なくなっていくため,確率値の推定誤差が大きくなってしまうことや,計算量が事例数の2乗に比例するようになってしまうという問題がある.文献\cite{Yarowsky:Hierarchical}では,ルールの確率値を,上記の2つの確率,すなわち事例全体の中での確率と,上位のルールにマッチしなかったという条件付き確率との重み付き平均をとることによって計算している.\item事前分布前章では,事前分布を一様分布と仮定した.しかし,例えば,分類すべきクラスの数が5個あり,学習者が全く情報を持たないとすれば,特定のクラスを出力するルールが正解する確率の事前分布としては0.2を期待値とするような分布であるべきであろう.しかし,一様分布の期待値は0.5である.この例からもわかるように,一様分布はどんな場合でも適切な事前分布というわけではない.\end{itemize}上記の三つの問題に対して,最初の二つの問題については本論文では扱わない.本章では,他のルールの確率値を利用して適切な事前分布を設定する手法を提案する.\vspace{-0.5mm}事前分布とは,$\theta$に関するデータがない段階で仮定される,$\theta$がとる値の確率分布である.いま,$\theta$は,あるルールの確率を表しているが,ここで$\theta$を単独で考えるのではなく,$\theta$は,同じ証拠タイプ内の他の多くのルールの確率値と同じような性質を持っていると考えることにする.つまり,あるルールの事前分布を,他のルールの確率値を利用して構成する\footnote{このような考え方は,経験ベイズと呼ばれることもある\cite{gelman:bayesian}.また,ベイズ統計の枠組を用いてはいないが,単語の出現確率の代表的なディスカウンティング手法であるグッド・チューリング推定法の考え方ともよく似ている\cite{北:確率的}.}まず,ルールの確率値の分布がどのような性格を持っているのかを見るために,実際のルールの確率値の分布の例を図\ref{fig:distribution}に示す.これは,\ref{sc:experiments}章の実験で用いられた多義語accidentにおいて,それぞれの証拠のタイプに属するルールの確率値の,正規化されたヒストグラムを示したものである(グラフ中の曲線については後述する).ただし,各々のルールの確率値は,事前分布を一様分布としたベイズ学習により算出し,出現回数が10回未満のルールは除いている.ここで,ルールの確率値の統計的性質は,そのルールの証拠の事例数に依存しないと仮定すれば,図\ref{fig:distribution}に示したような,事例の数が多いルールの実際の確率値の分布を利用して,事前分布を構成することができる.事前分布の確率分布としては,ベータ分布を採用する.ベータ分布は,ベルヌーイ試行において自然共役事前分布と呼ばれる確率分布であり,事後分布の導出が解析的に可能であることが知られている\cite{繁桝:ベイズ}.ベータ分布は,2つのパラメータによって決定されるが,本論文では最も簡単なパラメータ推定法の一つであるモーメント法によってパラメータを決定する.モーメント法とは,母集団$j$次モーメント\begin{equation}E_{(a,b)}[\theta^j]=\int\theta^jp(\theta)d\theta\end{equation}と,標本$j$次モーメント\begin{equation}\mu_j=\frac{1}{m}\sum_{i=1}^m(\frac{k_i+1}{n_i+2})^j\end{equation}がそれぞれ等しいと置いた連立方程式を得くことでパラメータ$a,b$を計算する方法である.図\ref{fig:distribution}のグラフ中の曲線は,ヒストグラムで示した確率値のデータから,モーメント法によって得たベータ分布を表している.\begin{figure}\begin{center}\epsfile{file=window.eps,width=4.6cm,height=4.6cm}\epsfile{file=adjacent.eps,width=4.6cm,height=4.6cm}\epsfile{file=pair.eps,width=4.6cm,height=4.6cm}\end{center}\caption{ルールの確率値の分布}\label{fig:distribution}\end{figure}以下に事前分布をベータ分布とした場合の,事後分布の導出の過程を示す.まず,ベータ分布は次の式で与えられる.\begin{equation}p(\theta)=\frac{1}{B(a,b)}\theta^{(a-1)}(1-\theta)^{(b-1)}\end{equation}ただし,$B(a,b)$はベータ関数\begin{equation}B(a,b)=\int_0^1{\theta^{(a-1)}(1-\theta)^{(b-1)}}d\theta\end{equation}である.ベータ分布の1次モーメントは,\begin{equation}\frac{a}{a+b}\end{equation}2次モーメントは,\begin{equation}\frac{a+1}{a+b+1}\cdot\frac{a}{a+b}\end{equation}で与えられるから,同じタイプの証拠に属し,出現頻度が閾値(本論文では10とした)以上のルールの確率値の,1次モーメント,2次モーメントをそれぞれ$\mu_1,\mu_2$とすれば,ベータ分布の2つのパラメータは,\begin{eqnarray}a&=&\frac{\mu_1(\mu_1-\mu_2)}{\mu_2-\mu_1^2}\\b&=&\frac{(\mu_1-\mu_2)(1-\mu_1)}{\mu_2-\mu_1^2}\end{eqnarray}と指定すればよい.この事前分布を式(\ref{eq:post})に代入することにより,事後分布は次のようになる.\begin{equation}p(\theta|A)=\frac{1}{B(a+k,b+n-k)}\theta^{(a+k-1)}(1-\theta)^{(b+n-k-1)}\end{equation}事後分布の期待値,すなわちルールの信頼度は次のように得られる.\begin{equation}E[\theta]=\frac{a+k}{a+b+n}\end{equation}このように,信頼度は最終的に加算スムージングのような形式で得られることから,信頼度の計算自体は非常に簡単に行なうことができる.\vspace{-2pt}
\section{実験\label{sc:experiments}}
提案手法の有効性を確かめるため,決定リストを用いて,英語の語義曖昧性解消と,日本語の疑似単語判定問題に関して実験を行なった.語義曖昧性解消とは,多義語の語義を文脈から判定する問題で,自然言語処理における典型的なクラス分類問題である.また,疑似単語判定とは,複数の単語をシステムの側からは単一の単語にしか見えないようにしておき,どの単語であるのかを文脈から判定させるという問題である.この問題は,人工的な語義曖昧性解消問題ということができる.実験によって評価すべき点は二つある.一つはもちろん,クラス分類の正解率である.従来手法と比べて,正解率が向上するかどうかを評価する.もう一つは,出力する確率値の正確さである.つまり,ルールの確率値が,どの程度正確に推定できているかということである.それを評価するために,「期待正解率」というものを考える.これは,それぞれの分類に用いられたルールの確率値を平均したものである.もし,確率値の推定が理想的に行なわれたとすれば,実際の正解率と,期待正解率はほぼ等しくなるはずである.すなわち,実際の正解率と期待正解率のずれは,確率値の推定の「悪さ」を表すことになる.比較対象とする従来手法は以下の二つである.\begin{itemize}\item間引き出現回数が閾値未満の証拠のルールは使用しないようにする手法.ルールの確率値は式(\ref{eq:reliability}),すなわち最尤推定により算出する.確率値が等しい場合は,出現回数の多いルールを優先する.\item対数尤度比式(\ref{eq:yarowsky1})を用いる手法.文献\cite{Yarowsky:Decision}\cite{新納:複合語}などで用いられている.この場合,式(\ref{eq:yarowsky1})の分母が0になってしまう可能性があるため,頻度の比の式の分母と分子に小さな値$\alpha$を足す.このようにすることで,分母が0になってしまう問題を防げる.また,同じ確率であれば,頻度の高い証拠のルールを優先することとした.\end{itemize}\subsection{Senseval-1データセットによる実験}英語の語義曖昧性解消については,語義曖昧性解消の競技会であるSenseval-1のデータセットが公開されているので,それを利用して実験を行なった\footnote{http://www.itri.brighton.ac.uk/events/senseval/}.Senseval-1データセットには,訓練データが利用可能な多義語が36個含まれている.表\ref{tab:senseval1}に,それぞれの多義語の語義数,訓練事例数,テスト事例数を示す.\begin{table*}\caption{Senseval-1データセット}\label{tab:senseval1}\begin{center}\renewcommand{\arraystretch}{}\begin{tabular}{|lcrrr|lcrrr|}\hline&&&訓練~&テスト&&&&訓練~&テスト\\多義語&品詞&語義数&事例数&事例数&多義語&品詞&語義数&事例数&事例数\\\hlineaccident&n&8&1234&267&giant&a&5&315&97\\amaze&v&1&133&70&giant&n&7&342&118\\band&p&32&1326&302&invade&v&6&45&207\\behaviour&n&3&994&279&knee&n&22&417&251\\bet&n&15&106&273&modest&a&9&374&270\\bet&v&9&59&116&onion&n&4&26&214\\bitter&p&17&144&372&promise&n&8&586&113\\bother&v&8&282&209&promise&v&6&1160&224\\brilliant&a&10&440&229&sack&n&11&97&82\\bury&v&14&272&201&sack&v&4&185&178\\calculate&v&5&218&218&sanction&p&10&96&431\\consume&v&6&56&183&scrap&n&14&27&156\\derive&v&6&255&217&scrap&v&3&30&186\\excess&n&8&178&186&seize&v&11&287&259\\float&n&12&61&75&shake&p&39&963&356\\float&v&16&182&229&shirt&n&8&531&184\\floating&a&5&39&47&slight&a&6&380&218\\generous&a&6&307&227&wooden&a&4&361&196\\\hline\end{tabular}\end{center}\vspace{0.5mm}\begin{flushright}(品詞がpとは品詞情報が判定システムに与えられないことを示す)\end{flushright}\end{table*}本実験では,品詞タグ付けなどの前処理は行わず,生のテキストデータを利用して決定リストの学習と評価を行なった.従来手法に関しては,最も良い場合と比較するため,間引きの閾値を変化させて,最も正解率が高くなる値を採用した.本データセットに関しては,最も良い閾値は2であった.また,対数尤度比でのスムージングのパラメータ$\alpha$に関しても0.1きざみで変化させ,最も正解率が高くなる値を採用した.本データセットに関しては,最も良い$\alpha$は0.9であった.表\ref{tab:basic}に結果を示す.表中の数字は正解率を表している.正解率の右側にある括弧内の数字は,先に述べた「期待正解率」との差の絶対値を表している.この値が小さいほど,確率値の推定が正確であることを示している.\begin{table*}\caption{Senseval-1データセットによる評価}\label{tab:basic}\begin{center}\renewcommand{\arraystretch}{}\begin{tabular}{l|c|cc|c|cc|cc}\hline&&&&&\multicolumn{2}{c|}{ベイズ}&\multicolumn{2}{c}{ベイズ}\\単語&品詞&\multicolumn{2}{c|}{間引き}&対数尤度比&\multicolumn{2}{c|}{一様分布}&\multicolumn{2}{c}{ベータ分布}\\\hlineaccident&n&85.0\%&(13.6)&85.0\%&83.9\%&(7.8)&89.9\%&(3.2)\\amaze&v&100.0\%&(0.1)&100.0\%&100.0\%&(1.0)&100.0\%&(0.2)\\band&p&86.8\%&(11.4)&84.4\%&84.1\%&(5.9)&87.4\%&(2.6)\\behaviour&n&95.3\%&(4.6)&94.6\%&94.6\%&(2.7)&94.6\%&(3.1)\\bet&n&48.4\%&(30.7)&44.3\%&45.1\%&(27.8)&50.5\%&(9.5)\\bet&v&66.4\%&(26.2)&69.0\%&70.7\%&(10.1)&76.7\%&(2.3)\\bitter&p&44.9\%&(31.9)&49.2\%&49.2\%&(22.2)&51.1\%&(4.0)\\bother&v&76.1\%&(18.8)&78.5\%&78.5\%&(5.5)&78.0\%&(5.1)\\brilliant&a&48.5\%&(33.6)&48.5\%&47.6\%&(24.9)&49.3\%&(11.7)\\bury&v&44.3\%&(34.7)&49.8\%&49.3\%&(22.4)&49.3\%&(10.0)\\calculate&v&88.5\%&(11.0)&86.7\%&86.7\%&(2.6)&86.7\%&(2.8)\\consume&v&43.7\%&(37.1)&42.1\%&42.6\%&(29.1)&42.1\%&(18.3)\\derive&v&55.3\%&(33.1)&53.9\%&54.4\%&(20.8)&64.1\%&(3.5)\\excess&n&79.6\%&(13.8)&81.7\%&81.7\%&(8.9)&81.2\%&(9.7)\\float&n&50.7\%&(38.4)&53.3\%&53.3\%&(21.8)&56.0\%&(5.3)\\float&v&41.5\%&(38.0)&45.4\%&45.0\%&(27.7)&42.8\%&(16.5)\\floating&a&63.8\%&(20.5)&59.6\%&59.6\%&(13.0)&61.7\%&(7.7)\\generous&a&44.1\%&(36.9)&48.9\%&49.3\%&(23.5)&46.7\%&(9.8)\\giant&a&97.9\%&(1.5)&96.9\%&96.9\%&(1.9)&96.9\%&(0.9)\\giant&n&74.6\%&(20.1)&78.8\%&79.7\%&(5.9)&79.7\%&(4.2)\\invade&v&44.4\%&(35.0)&46.4\%&46.9\%&(24.4)&50.2\%&(15.1)\\knee&n&71.3\%&(18.8)&70.5\%&70.9\%&(8.3)&72.9\%&(0.2)\\modest&a&66.7\%&(24.0)&67.0\%&66.3\%&(10.8)&66.3\%&(2.5)\\onion&n&84.6\%&(15.1)&84.6\%&84.6\%&(6.5)&84.6\%&(9.8)\\promise&n&74.3\%&(19.8)&74.3\%&74.3\%&(7.4)&74.3\%&(5.4)\\promise&v&87.5\%&(12.0)&88.4\%&88.4\%&(5.4)&92.9\%&(1.7)\\sack&n&82.9\%&(10.1)&85.4\%&81.7\%&(3.3)&85.4\%&(2.6)\\sack&v&97.8\%&(2.3)&97.8\%&97.8\%&(0.6)&97.8\%&(1.5)\\sanction&p&72.6\%&(21.9)&74.5\%&74.5\%&(7.6)&77.7\%&(2.3)\\scrap&n&42.3\%&(47.6)&41.7\%&41.7\%&(38.7)&45.5\%&(31.8)\\scrap&v&87.6\%&(11.7)&87.6\%&87.6\%&(1.8)&87.6\%&(4.5)\\seize&v&59.5\%&(26.9)&60.6\%&60.2\%&(17.1)&64.5\%&(4.3)\\shake&p&60.1\%&(25.0)&62.1\%&61.2\%&(19.7)&61.2\%&(17.6)\\shirt&n&82.1\%&(13.0)&83.7\%&83.7\%&(3.7)&82.6\%&(2.6)\\slight&a&90.8\%&(8.3)&94.0\%&94.0\%&(0.3)&94.0\%&(0.8)\\wooden&a&93.9\%&(6.1)&93.9\%&93.9\%&(3.1)&93.9\%&(3.9)\\\hline平均&&70.4\%&(20.9)&71.2\%&71.1\%&(12.3)&72.7\%&(6.6)\\\hline\end{tabular}\end{center}\vspace{0.5mm}\begin{flushright}(括弧内の数字は正解率と期待正解率との差)\end{flushright}\end{table*}まず,正解率に関して見ると,間引きの正解率が最も低い.これは,間引きによって重要なルールを捨ててしまっていることが原因だと考えられる.対数尤度比による手法と,事前分布を一様分布としてベイズ学習による手法が,ほぼ同じ正解率である.ただし,ここで注意するべきなのは,対数尤度比による手法では,スムージングのパラメータに関して,正解率が最もよくなるようにチューニングがなされたうえでの結果だということである.事前分布を一様分布としたベイズ学習による手法は,そのようなチューニングを全く必要としないにもかかわらず,それとほぼ同じ正解率を達成している.また,期待正解率と実際の正解率とのずれに関しても,最尤推定(間引き)に比べてかなり小さく,ベイズ学習による推定の有効性を示している.最も正解率が高いのは,他のルールの確率値を利用してベータ分布によって事前分布を構成する手法である\footnote{ただし,本手法で得られた正解率(72.7\%)は,Senseval-1参加システムでの最高正解率(78.9\%)\cite{Yarowsky:Hierarchical}よりも低い.本論文では正解率を追求することが目的ではないため,stemmingや品詞タグ付けなどの前処理を行なっていない.そのような前処理や,\cite{Yarowsky:Hierarchical}のような言語学的知識を利用した決定リストの階層化などを行なえば,正解率を上昇させることは可能だと考えられる.}.これは,適切な事前分布によって,ルールの確率値の推定が正確になり,本当に信頼できるルールが上位に位置するようになったからだと考えられる.そのことを裏付けるように,実際の正解率と期待正解率のずれが,一様分布の場合と比較して半減している.つまり,確率値の推定がそれだけ正確になったということを示している.\subsection{日本語の疑似単語判定の実験}日本語の語義曖昧性解消に関しては,Senseval-1のようなデータセットが公開されていないことから,疑似単語を用いて実験を行なった.疑似単語とは,複数の異なる単語を判定システムの側からは同一の単語にしか見えないようにし,文脈からどの単語であるのかを判定させる手法である.例えば,「銀行」という単語と,「土手」という単語を用いて疑似単語を作ったとすると,判定システムからは,入力文は例えば,\begin{center}...お金をおろしに**へ行く途中...\end{center}\noindentのように見える.**の部分が疑似単語である.そして,文脈から,「銀行」であるのか「土手」であるのかを判定させるというわけである.これは,文脈から多義語の語義の判定を行う多義性解消の問題とかなり似た問題になる.実験に用いる疑似単語に関しては,ベースラインとしての正解率(単純に最も出現頻度の高い単語を選ぶ方法の正解率)が高くならないように,一つの疑似単語を構成する各々の単語の出現頻度がほぼ等しくなるようにして構成した.コーパスとしては,「CD-毎日新聞97年版」をJUMANversion3.6\cite{juman}で形態素解析したものを用いた.事例の数に関しては,各々の疑似単語について,1024の訓練事例,1000のテスト事例を重なりがないようにコーパスからランダムに抽出して,トレーニングとテストを行なった.\begin{table*}\caption{日本語疑似単語による評価}\label{tab:comp}\begin{center}\begin{tabular}{l|c|c|c|c}\hline&&&ベイズ&ベイズ\\疑似単語&間引き&対数尤度比&一様分布&ベータ分布\\\hline政策/テレビ&90.4\%(7.1)&92.4\%&92.0\%(1.5)&92.6\%(2.5)\\大統領/首相&84.9\%(9.9)&90.5\%&88.6\%(0.0)&89.4\%(1.2)\\仕事/言葉/資金/文化&66.2\%(18.8)&72.8\%&71.6\%(9.6)&75.1\%(6.3)\\持つ/含む&83.7\%(13.1)&87.2\%&86.6\%(2.3)&90.3\%(0.9)\\考える/見る/目指す&67.8\%(17.8)&67.6\%&70.5\%(8.4)&73.6\%(2.1)\\入る/示す/開く/進める&73.1\%(15.2)&77.2\%&76.3\%(6.8)&79.3\%(2.8)\\近い/難しい&84.1\%(12.3)&88.5\%&88.6\%(2.0)&90.5\%(0.2)\\新しい/高い/強い&65.7\%(18.2)&68.9\%&68.7\%(10.1)&72.6\%(2.6)\\若い/厳しい/大きい/よい&67.8\%(16.3)&72.8\%&72.0\%(7.8)&77.4\%(1.4)\\\hline平均&76.0\%(14.3)&79.8\%&79.4\%(5.4)&82.3\%(2.2)\\\hline\end{tabular}\end{center}\vspace{0.5mm}\begin{flushright}(括弧内の数字は正解率と期待正解率との差)\end{flushright}\end{table*}\begin{table*}\caption{事前分布の期待値}\label{tab:prior}\begin{center}\begin{tabular}{l|c|c|c}\hline疑似単語&Window&Adjacent&Pair\\\hline政策/テレビ&0.74&0.77&0.82\\大統領/首相&0.67&0.75&0.80\\仕事/言葉/資金/文化&0.54&0.64&0.70\\持つ/含む&0.70&0.82&0.89\\考える/見る/目指す&0.57&0.65&0.68\\入る/示す/開く/進める&0.51&0.54&0.72\\近い/難しい&0.68&0.74&0.85\\新しい/高い/強い&0.54&0.64&0.64\\若い/厳しい/大きい/よい&0.48&0.64&0.71\\\hline\end{tabular}\end{center}\end{table*}従来手法のパラメータに関しては,英語の多義語での実験と同様に,正解率が最も高くなる値を採用した.間引きの閾値に関しては3,対数尤度比のスムージングパラメータ$\alpha$に関しては0.4とした.表\ref{tab:comp}に結果を示す.傾向は,表\ref{tab:basic}に示した英語の多義語での結果とほとんど同じである.最も正解率が悪いのは,間引きによる手法である.一様分布のベイズ学習は,対数尤度比とほぼ同じ正解率を達成している.最も正解率が高いのは,他のルールの確率値を利用してベータ分布によって事前分布を構成する手法である.ここで,事前分布をベータ分布とした場合の,証拠のタイプによる事前分布の違いを見るために,表\ref{tab:prior}に事前分布の期待値を示す.この表からわかるように,事前分布の期待値の傾向は,$Window<Adjacent<Pair$となっている.すなわち,あるルールに関して何もデータがなければ,そのルールがWindowであるよりもAdjacentである方が,さらに,AdjacentであるよりもPairである方が信頼できるということである.これは,より詳細な文脈情報を用いた方が正確な判断ができるという我々の直感とも一致する.また,これらの事前分布に影響によって,最終的な信頼度も全体として,PairやAdjacentのルールが上位に位置することになる.\clearpage
\section{おわりに}
本論文では,統計的クラス分類器である決定リストに対して,二つの改善方法を示した.\begin{itemize}\itemベイズ学習によるルール確率値の推定決定リストを作成するにあたって最も重要なことは,ルールの信頼度をどのようにして計算するかということである.本論文では,ベイズ学習の手法を用いることにより,理論的な裏付けのあるスムージングによる計算が可能なことを示した.\item証拠の種類ごとに事前分布を設定することによる精度向上証拠の種類ごとに,他のルールの確率値を利用して事前分布を構成することによって,より正確な確率値の推定ができることを示した.また,その結果,決定リストにおいて,より信頼性の高いルールが上位に位置するようになり,決定リストの分類性能が向上することを示した.\end{itemize}本論文では,ベイズ学習の枠組で証拠の種類ごとに異なった確率値を算出することで,決定リストの性能を向上させることができることを示した.このように,証拠のタイプごとに信頼度の値を変えることで決定リストの性能向上を図った研究として,\cite{新納:複合語}がある.この研究では,決定リストによる同音異義語判別において,複合語からの証拠に重みを付けることで,分類精度の向上を図っている.そこでは,決定リストの信頼度として,式(\ref{eq:yarowsky1})を用い,複合語からの証拠には,信頼度に重み付けのための係数を掛けることで,複合語からの証拠を用いたルールを優先させている.本論文では,証拠の種類ごとに対する異なった重みづけをベイズ推定の枠組における事前分布を使用して行なったと考えることができる.本手法の利点は,どの種類の証拠にどの程度重み付けをするのかを,言語学的な直観に頼ることなく,実際のルールの確率値の分布から事前分布を構成することによって自動的に決定できるという点であるといえる.また,本論文で提案した手法は,決定リストの分類性能を向上させるだけでなく,出力する確率値の推定精度も向上させる.クラス分類器は,大きな自然言語処理システムの構成要素として用いられることも多い.その場合,各構成要素であるクラス分類器の出力は,その後の処理に利用されることになるが,出力された信頼度自体が不正確では,それらを利用する後の処理の性能を低下させる恐れがある.したがって,分類性能だけでなく,分類器の出力確率の精度も向上させる本手法は,そのような場合にさらに有効になる可能性があるだろう.本論文では,似たような性質を持つ他の多くの確率値を利用することで,少ない事例から計算される確率値の精度を高められることを示した.この手法は同様の性質をもつ他の統計的手法に適用できると考えられる.例えば,最大エントロピー法では素性の確率を求める必要がある.最大エントロピー法を利用した多くの研究では,素性の確率値を最尤推定法によって求めているが,その場合,本論文で指摘したような確率値の推定誤差の問題がある.実際には,事例の数が少ない素性を使用しないようにすることが多いためにその問題が顕在化することは少ないが,本論文で示した手法によって,事例の数が少ない素性も利用することで最終的な性能向上につながる可能性もあり,興味深い課題といえる.\bibliographystyle{jnlpbbl}\bibliography{dlbayes}\clearpage\begin{biography}\biotitle{略歴}\bioauthor{鶴岡慶雅(非会員)}{1997年東京大学工学部電気工学科卒業.2002年同大学院博士課程修了.工学博士.同年,科学技術振興事業団研究員,現在に至る.}\bioauthor{近山隆(非会員)}{1977年東京大学工学部計数工学科卒.1982年同大学院工学系研究科情報工学専門課程博士課程修了.工博.(株)富士通,(財)新世代コンピュータ技術開発機構を経て,現在東京大学新領域創成科学研究科基盤情報学専攻教授.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V10N03-04 | \section{はじめに}
本論文では,Nigamらによって提案されたEMアルゴリズムを利用した教師なし学習の手法\cite{nigam00}を,SENSEVAL2の日本語翻訳タスク\cite{sen2}で出題された名詞の語義の曖昧性解消問題に適用する.その結果,通常の教師付き学習で得られる分類規則の精度を向上させ得ることを示す.自然言語処理では個々の問題を分類問題として定式化し,帰納学習の手法を利用して,その問題を解決するというアプローチが大きな成功をおさめている.しかしこのアプローチには帰納学習で必要とされる訓練データを用意しなければならないという大きな問題がある.この問題に対して,近年,少量のラベル付き訓練データから得られる分類器の精度を,大量のラベルなし訓練データによって高めてゆく教師なし学習が散見される.代表的な手法として,Co-training\cite{blum98}と,EMアルゴリズムを利用した手法\cite{nigam00}がある.Co-trainingは2つの独立した属性AとBを設定し,一方の属性Aから構築される分類器を利用して,ラベルなしデータにラベル(クラス)を付与する.その中から信頼性のあるラベルが付与されたデータをラベル付き訓練データに加える.このようにして追加されたラベル付き訓練データは,もう一方の属性Bから見るとランダムなサンプルにラベル付けされたデータとして振る舞うので,属性Bから構築される分類器の精度が高まる.これをお互いに作用し合うことで,分類器の精度が高められる.一方,EMアルゴリズムは,部分的に欠損値のある不完全な観測データ\(x_1,x_2,\cdots,x_N\)から,そのデータを発生する確率モデル\(P_{\theta}(x)\)を推定する手法である.\(P_{\theta}(x)\)は未知パラメータ\(\theta\)を含み,\(P_{\theta}(x)\)の推定は,\(\theta\)の推定に帰着される.分類問題の教師なし学習では,ラベル付き訓練データが完全な観測データ,ラベルなし訓練データがラベルを欠損値とした不完全な観測データとなる.EMアルゴリズムは,現時点での\(\theta\)を使って,モデル\(P_{\theta}(c|x_i)\)のもとでの\(\logP_{\hat{\theta}}(x_i,c)\)の期待値を取る(E-step).次に,この期待値を最大にするような\(\hat{\theta}\)を求める(M-Step).\(\hat{\theta}\)を新たな\(\theta\)として先のE-stepとM-stepを繰り返す.ここで\(c\)は欠損値となるラベルである.EMアルゴリズムはパラメータ\(\theta\)とモデル\(P_\theta(x)\)を適切に設定することで,隠れマルコフモデルや文脈自由文法のパラメータ推定,あるいは名詞と動詞間の関係クラスの教師なし学習\cite{rooth}\cite{torisawa}などに利用できる.そして,Nigamらは文書分類を題材にモデル\(P_\theta(x)\)をNaiveBayesのモデル,\(\theta\)をラベル\(c\)のもとで素性\(f\)が起る条件付き確率\(p(f|c)\)に設定することで,教師なし学習を試みている\cite{nigam00}.NigamらのEMアルゴリズムを利用した手法やCo-trainingは,どちらも本来は文書分類に対して考案されており,多義語の曖昧性解消に利用できるかどうかは明らかではない.多義語の曖昧性解消は自然言語処理の中心的な課題であり,これらの手法が適用できることが望ましい.ここではSENSEVAL2の日本語翻訳タスクで出題された名詞を題材に,EMアルゴリズムを利用した教師なし学習の手法が名詞の語義の曖昧性解消に適用可能であることを示す.翻訳タスクの出題形式はある単語\(w\)がマークされた(日本語)文書である.翻訳タスクでは予め,単語\(w\)に関するTranslationMemory(以下TMと略す)と呼ばれる日英の対訳例文の集合が解答者に配られている.そして翻訳タスクの解答形式は,出題された文書内において注目する単語\(w\)を英訳する際に利用できるTMの例文番号である\footnote{厳密には,翻訳システムも参加できるように,英訳自身を返す解答形式も認められているが,ここでは例文番号を返す解答形式のみを考える.}.つまり,翻訳タスクは単語\(w\)の訳を語義と考えた多義語の曖昧性解消問題となっている.また同時に,翻訳タスクはTMの例文番号をクラスと考えた場合の分類問題として扱える.ここで注意すべきは,翻訳タスクは訓練データを作るのが困難な点である.TMは1つの単語に対して平均して21.6例文がある.今仮にある単語\(w\)の例文として\(id_1\)から\(id_{20}\)までの20例文がTMに記載されていたとする.新たに訓練データを作成する場合,単語\(w\)を含む新たな文を持ってきて,\(id_1\)から\(id_{20}\)のどれか1つのラベルを与える必要がある.〇か×かの二者択一は比較的容易であるが,20個のラベルの中から最も適切な1つを選ぶのは非常に負荷のかかる作業である.このように,翻訳タスクは訓練データを新たに作るのが困難であるために,教師なし学習を適用する格好のタスクになっている.実験ではSENSEVAL2の日本語翻訳タスクで出題された全名詞20単語を用いて,本手法の評価を行う.各単語に対して,平均70事例(TMの例文も含む)からなるラベル付き訓練データと,新聞記事1年分から取り出した平均3,354事例からなるラベルなし訓練データを作成し,本手法を適用した.ラベル付き訓練データだけから学習できた決定リストの正解率は58.9\,\%(コンテストでのIbarakiの成績)であり,NaiveBayesによる分類器の正解率は58.2\,\%であった.そして本手法を用いてNaiveBayesによる分類器の精度を高めた結果61.8\,\%まで改善された.また一部,訓練データの不具合を修正することで,NaiveBayesによる分類器の正解率を62.3\,\%,決定リストでの正解率を63.2\,\%に向上できた.更に,本手法を用いてNaiveBayesによる分類器の正解率(62.3\,\%)を68.2\,\%まで高めることができた.
\section{NaiveBayesによる多義語の曖昧性解消}
まず,用語の混乱を避けるため,本論文で用いる「属性」と「素性」の区別をしておく.本論文では,例えば,「対象単語の直前の単語」といった識別のための観点を「属性」と呼び,属性に具体的な値が与えられたものを「素性」と呼んでいる.例えば「対象単語の直前の単語」といった属性を\verb|e1|などで表し,対象単語の直前の単語が,例えば,「日本」であった場合に,\verb|'e1=日本'|と表されたものを素性と呼ぶ.ある事例\(x\)が素性のベクトルとして,以下のように表現されたとする.\[x=(f_1,f_2,\cdots,f_n)\]\(x\)の分類先のクラスの集合を\(C=\{c_1,c_2,\cdots,c_m\}\)と置く.分類問題は\(P(c|x)\)の分布を推定することで解決できる.実際に,\(x\)のクラス\(c_x\)は以下の式で求まる.\[c_x=arg\max_{c\inC}P(c|x)\]ベイズの定理を用いると,\[P(c|x)=\frac{P(c)P(x|c)}{P(x)}\]\noindentなので,結局,以下が成立する.\[c_x=arg\max_{c\inC}P(c)P(x|c)\]ここで,\(P(c)\)は比較的簡単に推定できる.問題は,\(P(x|c)\)の推定だが,これは現実的には難しい.NaiveBayesのモデルは,この推定に以下の仮定を導入する.\begin{equation}\label{siki1}P(x|c)=\prod_{i=1}^{n}P(f_i|c)\end{equation}\(P(f_i|c)\)の推定は比較的容易であるために,結果として\(P(x|c)\)が推定できる\cite{ml-text}.NaiveBayesを使った分類がうまくゆくかどうかは,\mbox{式\ref{siki1}}の仮定をできるだけ満たすような素性を選択することである.文書分類であれば,各素性を各単語の生起に設定することで,NaiveBayesが有効であることが知られている.多義語の曖昧性解消でも\mbox{式\ref{siki1}}の仮定をできるだけ満たすような素性を選択すればNaiveBayesが利用できる.本論文では以下の4つの属性を利用することにした.\bigskip\begin{verbatim}e1:直前の単語,e2:直後の単語,e3:前方の内容語(2つまで)e4:後方の内容語(2つまで)\end{verbatim}\bigskip例えば,「胸」の語義は『体の一部としての胸』という語義と『心の中』という語義がある.そして,「その無力感は今も原告たちの胸に染み付いている」という文中の「胸」の語義は『心の中』なので,この事例のクラスは『心の中』となる.また,この文は以下のように形態素解析される.各行が分割された単語であり,第1列が表記,第2列が原型,第3列が品詞を表す.\bigskip\begin{verbatim}そのその連体詞無力無力名詞-形容動詞語幹感感名詞-接尾-一般はは助詞-係助詞今今名詞-副詞可能もも助詞-係助詞原告原告名詞-一般たちたち名詞-接尾-一般のの助詞-連体化胸胸名詞-一般にに助詞-格助詞-一般染み付い染み付く動詞-自立てて助詞-接続助詞いるいる動詞-非自立\end{verbatim}\bigskipこの結果から以下の4つの素性が抽出できる.\bigskip\begin{verbatim}e1=の,e2=に,e3={原告,たち},e4={染み付く,いる}\end{verbatim}\bigskip属性\verb|e3|と\verb|e4|の値は集合になるが,学習の際に以下のように分割して,素性として表す.\begin{verbatim}e3=原告,e3=たち,e4=染み付く,e4=いる\end{verbatim}
\section{EMアルゴリズムによる教師なし学習}
分類問題の解決にNaiveBayesが使えれば,Nigamらが提案した教師なし学習が利用できる.そこではEMアルゴリズムを用いることで,ラベルなし訓練データを用いて,ラベル付き訓練データから学習された分類器の精度を向上させる.ここではポイントとなる式とアルゴリズムだけを示す\cite{nigam00}.基本となるのは,あるクラス\(c_j\)のもとで,素性\(f_i\)が発生する確率\(P(f_i|c_j)\)を求めることである.これは以下の式で求まる.この式は頻度0の部分を考慮したスムージングを行っている.\begin{equation}\label{siki6}P(f_i|c_j)=\frac{1+\sum_{k=1}^{|D|}N(f_i,d_k)P(c_j|d_k)}{|F|+\sum_{m=1}^{|F|}\sum_{k=1}^{|D|}N(f_m,d_k)P(c_j|d_k)}\end{equation}式\ref{siki6}の\(D\)はラベル付けされた訓練データとラベル付けされていない訓練データを合わせた訓練データ全体を示す.\(D\)の各要素を\(d_k\)で表す.\(F\)は素性全体の集合である.\(F\)の各要素を\(f_m\)で表す.また,\(N(f_i,d_k)\)は,訓練事例\(d_k\)に含まれる素性\(f_i\)の個数を表す.ここでの設定では,\(N(f_i,d_k)\)は0か1の値であり,ほとんどの場合0である.\(P(c_j|d_k)\)は訓練データがクラス\(c_j\)を持つ確率である.ラベル付けされた訓練データに対しては,0か1の値をとる.ラベル付けされていない訓練データに対しては,最初は0であるが,EMアルゴリズムの繰り返しによって,徐々に適切な値に更新されてゆく.式\ref{siki6}を利用して,以下の分類器が作成できる.\begin{equation}\label{siki8}P(c_j|d_i)=\frac{P(c_j)\prod_{f_n\inK_{d_i}}P(f_n|c_j)}{\sum_{r=1}^{|C|}P(c_r)\prod_{f_n\inK_{d_i}}P(f_n|c_r)}\end{equation}\noindentここで,\(C\)はクラスの集合である.\(K_{d_i}\)は訓練事例\(d_i\)に含まれる素性の集合を示す.\(P(c_j)\)はクラス\(c_j\)の発生確率であり,以下の式で計算する.\[P(c_j)=\frac{1+\sum_{k=1}^{|D|}P(c_j|d_k)}{|C|+|D|}\]EMアルゴリズムは\mbox{式\ref{siki8}}を利用して,ラベル付けされていない事例\(d_i\)に対して,\(P(c_j|d_i)\)を求める(E-step).次に\mbox{式\ref{siki6}}を利用して,\(P(f_i|c_j)\)を求める(M-step).このE-stepとM-stepを交互に繰り返して,\(P(f_i|c_j)\)と\(P(c_j|d_i)\)を収束するまで更新してゆく.最終的には収束した\(P(f_i|c_j)\)を使って,\mbox{式\ref{siki8}}から分類が行える.
\section{実験}
SENSEVAL2の日本語翻訳タスクで課題として出題された全名詞20単語に対して本手法を適用する.翻訳タスクのコンテストでは,手作業で訓練データを作成し,それを用いて学習するというオーソドックスな戦略を用いたシステムはIbarakiだけであった.ここではそこで用意された訓練データを借用し,Ibarakiの結果と比較することで本手法を評価する.Ibarakiでは,TMの他に毎日新聞'95年度版から該当単語を含む文を適当な数だけ取りだし,ラベルを付けることで訓練データを増やしている.名詞に対しては各単語に対して約50事例を追加している.結果として,各単語に対して平均70事例がラベル付き訓練データとして用意された.そのラベル付き訓練データから決定リスト\cite{Yarowsky1}を作成し,課題の曖昧性解消問題を解いている.名詞20単語に対するIbarakiの翻訳タスクに対する公式成績を\mbox{表\ref{result}}に示す\cite{shinnou-sen2}.\begin{table}[htbp]\begin{center}\leavevmode\caption{Ibaraki(決定リスト)の正解率}\label{result}\begin{tabular}{|c|c|c|c|}\hline見出し&訓練事例数&決定リストのサイズ&正解率\\\hlineippan&87&174&0.467\\ippou&63&101&0.567\\ima&67&135&0.267\\imi&69&181&0.700\\kaku\_n&58&121&0.800\\kiroku&65&159&0.467\\kokunai&62&144&0.733\\kotoba&79&183&0.800\\shimin&64&157&0.733\\jigyou&66&186&0.400\\jidai&89&249&0.800\\sugata&77&206&0.367\\chikaku&64&165&0.600\\chushin&61&157&0.500\\hana&64&139&0.533\\hantai&73&176&0.733\\baai&73&194&0.733\\mae&62&161&0.700\\mune&79&179&0.567\\mondai&81&204&0.500\\\hline\end{tabular}\end{center}\end{table}Ibarakiで利用した訓練データを借用し,それを本手法のラベル付き訓練データとした.次に,毎日新聞'96年度版から該当単語を含む文を取りだし,それをラベルなし訓練データとした.\mbox{表\ref{result2}}に,名詞20単語の各単語に対するラベル付き訓練データLの数,ラベルなし訓練データUの数,ラベル付き訓練データから学習できた決定リスト(DLと略す)による正解率(Ibarakiの結果),ラベル付き訓練データのみから学習できたNaiveBayes(NBと略す)による正解率,NBをEMアルゴリズムにより改善させた分類器(NB+EMと略す)の正解率を示す.\begin{table}[htbp]\begin{center}\leavevmode\caption{実験結果}\label{result2}\begin{tabular}{|c|c|c|c|c|c|}\hline見出し&L&U&DL&NB&NB+EM\\\hlineippan&87&2170&0.467&0.467&0.400\\ippou&63&4033&0.567&0.633&0.700\\ima&67&5081&0.267&0.200&0.033\\imi&69&1761&0.700&0.467&0.467\\kaku\_n&58&1135&0.800&0.767&0.700\\kiroku&65&1726&0.467&0.233&0.500\\kokunai&62&2468&0.733&0.700&0.967\\kotoba&79&2225&0.800&0.900&0.967\\shimin&64&2069&0.733&0.567&0.500\\jigyou&66&3500&0.400&0.367&0.467\\jidai&89&4397&0.800&0.867&0.833\\sugata&77&1971&0.367&0.367&0.333\\chikaku&64&1944&0.600&0.600&0.667\\chushin&61&3194&0.500&0.600&0.633\\hana&64&851&0.533&0.633&0.667\\hantai&73&2103&0.733&0.900&0.967\\baai&73&3413&0.733&0.833&0.900\\mae&62&10931&0.700&0.633&0.667\\mune&79&676&0.567&0.633&0.500\\mondai&81&11424&0.500&0.500&0.500\\\hline平均&70&3354&0.589&0.582&0.618\\\hline\end{tabular}\end{center}\end{table}\mbox{表\ref{result2}}から分るようにラベル付き訓練データLのみから学習できたDLもNBもほぼ同等の正解率(58.9\,\%と58.2\,\%)である.一方,NB+EMの正解率は61.8\,\%であり,本手法の効果が確認できる.特に教師なし学習が効果的に行えたkokunaiとkirokuの2単語について,その学習のグラフを\mbox{図\ref{kokunai-fig}}と\mbox{図\ref{kiroku-fig}}に示す.このグラフの横軸はEMアルゴリズムの繰り返しの回数,縦軸はテスト文に対する正解率を示す.\begin{figure}[htbp]\begin{minipage}[t]{70mm}\begin{center}\epsfxsize=63.5mm\epsfbox{kokunai.eps}\end{center}\caption{kokunaiの学習}\label{kokunai-fig}\end{minipage}\hfill\begin{minipage}[t]{70mm}\begin{center}\epsfxsize=63.5mm\epsfbox{kiroku.eps}\end{center}\caption{kirokuの学習}\label{kiroku-fig}\end{minipage}\end{figure}\begin{table}[htbp]\begin{center}\leavevmode\caption{大きく精度が下がる単語}\label{badword}\begin{tabular}{|c|c|c|}\hline見出し&NB&NB+EM\\\hlineima&0.200&0.033\\mune&0.633&0.500\\\hline\end{tabular}\end{center}\end{table}ラベルなし訓練データを用いることで全体の正解率は向上したが,個々の単語をみると,本手法を利用することで精度が大きく下がる単語が存在する.具体的には\mbox{表\ref{badword}}に示す2単語である.調査したところ,これは最初に用意しているラベル付き訓練データ中の誤りが原因であった.Ibarakiで用意されたラベル付き訓練データは,一部の単語で必要以上に語義を細かく分けている.上記の2単語はその例であり,特にimaではUNASSIGNABLEのラベル(適切な例文がないことを意味するラベル)を付けている事例が67事例中20事例も存在する.実際はUNASSIGNABLEのラベルを与えた事例にはdefaultの語義(この場合,『重要性』の意味で使われている例文番号)を与えるべきであった.muneでも慣用的な表現が多く細かく語義を分けすぎている.正解を見れば,『体の一部としての胸』と『心の中』の2つに分類できればよいだけである.これらを考慮して,この2単語に関しては,ラベル付き訓練データを修正した.具体的には,imaに対してはUNASSIGNABLEをdefaultの語義に変更し,muneでは語義を2値に変更した.修正して得られた訓練データに対して,本手法をもう一度試した.またこれらの2単語に対しては,修正したラベル付き訓練データを利用したIbarakiによる決定リストDLの正解率も調べた.修正して得られた結果を\mbox{表\ref{result3}}に示す.結果的にラベル付き訓練データLのみから学習できたNBの正解率62.3\,\%を本手法により68.2\,\%まで高めることができた.\begin{table}[htbp]\begin{center}\leavevmode\caption{一部修正後の実験結果}\label{result3}\begin{tabular}{|c|c|c|c|c|c|}\hline見出し&L&U&DL&NB&NB+EM\\\hlineippan&87&2170&0.467&0.467&0.400\\ippou&63&4033&0.567&0.633&0.700\\ima&67&5081&\underline{0.700}&\underline{0.833}&\underline{1.000}\\imi&69&1761&0.700&0.467&0.467\\kaku\_n&58&1135&0.800&0.767&0.700\\kiroku&65&1726&0.467&0.233&0.500\\kokunai&62&2468&0.733&0.700&0.967\\kotoba&79&2225&0.800&0.900&0.967\\shimin&64&2069&0.733&0.567&0.500\\jigyou&66&3500&0.400&0.367&0.467\\jidai&89&4397&0.800&0.867&0.833\\sugata&77&1971&0.367&0.367&0.333\\chikaku&64&1944&0.600&0.600&0.667\\chushin&61&3194&0.500&0.600&0.633\\hana&64&851&0.533&0.633&0.667\\hantai&73&2103&0.733&0.900&0.967\\baai&73&3413&0.733&0.833&0.900\\mae&62&10931&0.700&0.633&0.667\\mune&79&676&\underline{0.800}&\underline{0.633}&\underline{0.800}\\mondai&81&11424&0.500&0.500&0.500\\\hline平均&70&3354&\underline{0.632}&\underline{0.623}&\underline{0.682}\\\hline\end{tabular}\end{center}\end{table}
\section{考察}
ここでは本手法を名詞のみに適用した.同じ処理によって,動詞に対しても適用することができるが,ここではその実験を行わなかった.教師なし学習を利用するには,本質的に,識別のための冗長性のある情報が必要である.名詞の場合,その名詞を修飾する語句(左文脈)は,その名詞の語義を特定できる可能性が高いし,その名詞を格にもつ動詞(右文脈)もその名詞の語義を特定できる可能性が高いので,一方の文脈から名詞の語義が識別できれば,もう一方の文脈は識別のための冗長性のある情報となる.このため,設定した属性は教師なし学習に適していると考えられる.一方,動詞の語義を識別するのは,格要素になる名詞,つまり左文脈が重要であり,右文脈は語義の識別の助けになることは少ない.連体修飾の用法にしても,左右が逆になるだけである.つまり,どちらかの文脈を利用して語義を識別した場合に,もう一方の文脈は識別に寄与する情報にならない.このため,動詞に対しては,本手法を利用する効果は低いと考えた\cite{shinnou-lrec02}.ただし「効果がない」ということでもないことを注意しておく.本手法はラベル付き訓練データのみから得られた分類器の精度を必ずしも向上するとは言えず,逆に精度を落す危険性もある.そのために,本手法を利用する効果があまり期待できない場合には,危険性を犯してまで本手法を試みる必要はないと判断した.動詞に対して実際にどの程度の精度向上,あるいは精度低下があるのか,あるいは動詞に対してはどのような属性を設定するのが良いのかを調べることは今後の課題である.先ほども述べたが,本手法により必ずしも精度が向上するとは限らない.実際に,実験では\mbox{表\ref{badword2}}の5単語に関して,わずかではあるが精度が低下している.\begin{table}[htbp]\begin{center}\leavevmode\caption{精度が下がる単語}\label{badword2}\begin{tabular}{|c|c|c|}\hline見出し&NB&NB+EM\\\hlineippan&0.467&0.400\\kaku\_n&0.767&0.700\\shimin&0.567&0.500\\jidai&0.867&0.833\\sugata&0.367&0.333\\\hline\end{tabular}\end{center}\end{table}\noindent精度低下の原因を一般的に論じるのは難しい.この実験の場合,偶然的な要素が強かった.NBによる分類器では正解したが,NB+EMによる分類器では誤るようなテスト文を調査すると,NBによる分類器で正解したのは,たまたまdefaultの規則が適用できて,正解になったというように,偶然的な要素が強い.EMによる学習が進むと,defaultから少しずれてくるために,誤ってしまう.精度低下の原因に関しては,ラベル付き訓練データ,ラベルなし訓練データおよびテストデータの関係を詳しく調査する必要がある.本手法による更なる精度向上をはかるための最も有効な手段は,最初のラベル付き訓練データを見直すことである.今回利用したラベル付き訓練データは,コンテストの正解が提示される以前に作成されたものであり,出題者が想定した語義と微妙に違う部分がある.概して,出題者が想定した語義は荒く,Ibarakiで用意された語義は細かい.語義が細かいと,結果として訓練データが小さいものになり,学習から得られる規則の精度が悪く,無用な部分で識別が誤る.imaやmuneでもラベル付きの訓練データを見直すことで精度が改善された.またラベルなし訓練データの量の問題が指摘されるかも知れない.ラベルなし訓練データは多ければ多いほど精度が向上すると言われている.今回,精度低下のあったippan,shimin,jidaiの3単語に関して,ラベルなし訓練データの量を約4倍に増やして実験を行った.このデータは別年度の毎日新聞記事から取り出した\footnote{ただしテスト文が94年度版から取られることが分っているので,94年度版は利用していない.}.結果を\mbox{表\ref{muchunlabel}}に示す.\begin{table}[htbp]\begin{center}\leavevmode\caption{ラベルなし訓練データを増やした実験}\label{muchunlabel}\begin{tabular}{|c|c|c|c|c|c|c|}\hline見出し&L&U&newU&NB&NB+EM(usingL+U)&NB+EM(usingL+newU)\\\hlineippan&87&2170&8048&0.467&0.400&0.400\\shimin&64&2069&7912&0.567&0.500&0.533\\jidai&89&4397&15858&0.867&0.833&0.833\\\hline\end{tabular}\end{center}\end{table}精度は悪くなることはなかったが,ほとんど変化は生じなかった.おそらく今回実験で利用した程度のラベルなし訓練データの量でも,このタスクでは十分であったと考えられる.またもう一つの代表的な教師なし学習の手法であるCo-training\cite{blum98}との比較について述べておく.Co-trainingは独立な2つの属性させ設定できれば,ベースとなる学習手法を問わないために,応用範囲が広い.また完全に独立な2つの属性が設定できた場合,Co-trainingはEMアルゴリズムを利用した手法よりも優れていることが報告されている\cite{nigam00-2}.しかしCo-trainingには独立な2つの属性という条件の他に,属性の一貫性という条件も必要になる.この条件のために,実際はCo-trainingを多値の分類問題に適用することは難しい\cite{shinnou-sen2}.一方,本手法はNaiveBayesの学習を基本とするという制限はあるが,分類問題が多値であっても,原理的に問題はない.そのために,より頑健性の高い現実的な手法と言える.また多義語の曖昧性解消問題に教師なし学習を利用したYarowskyの研究\cite{Yarowsky2}との比較についても述べておく.Yarowskyの教師なし学習も,実はCo-trainingの特殊ケースと見なせる\cite{blum98}.2つの独立した属性として,1つは前後の文脈,もう1つは「同じ文書内で使われている曖昧な単語の語義は1つに固定される」というヒューリスティクスである.このヒューリスティクスが翻訳タスクで設定している語義の細かさに対して,どれほど成立しているかは未知である.またこの手法では,必要とされるラベルなし訓練データは文書,しかも対象単語が複数含まれているような文書となる.これはいかにラベルなしと言えども収集は容易ではない.このため比較対象の実験も困難である.一方,本手法はその対象単語を含む文が訓練データとなるので,収集は容易であり,より現実的な手法と言える.今後の課題としては2つある.1つは名詞以外の単語への適用である.教師なし学習が機能するような属性をどのように設定するかが課題である.2つ目は教師なし学習による精度低下の原因の調査,およびその回避策の検討である.これによってより頑健な教師なし学習が可能となる.
\section{おわりに}
本論文では,Nigamらによって提案されたEMアルゴリズムを利用した教師なし学習の手法を,SENSEVAL2の日本語翻訳タスクで出題された名詞に適用した.識別のための属性としては,対象単語の前後数単語の原型や表記という簡易なものを利用した.ラベル付き訓練データだけから学習できた決定リストの正解率は58.9\,\%(コンテストでのIbarakiの成績)であり,NaiveBayesによる分類器の正解率は58.2\,\%であった.そして本手法を用いてNaiveBayesによる分類器の正解率を61.8\,\%まで改善できた.また一部,訓練データの不具合を修正することで,NaiveBayesによる分類器の正解率62.3\,\%(決定リストでの正解率は63.2\,\%)を,本手法により68.2\,\%まで高めることができた.問題点としては名詞のみの適用である点と,精度が低下するケースも存在する点である.これら問題の解決が今後の課題であり,より頑健性の高い教師なし学習手法の構築を目指す.\bibliographystyle{jnlpbbl}\bibliography{4}\begin{biography}\biotitle{略歴}\bioauthor{新納浩幸}{1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年茨城大学工学部システム工学科助手.1997年同学科講師,2001年同学科助教授.情報処理学会,人工知能学会,言語処理学会,ACL各会員.博士(工学).}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V10N01-03 | \section{はじめに}
文書データベースから必要な文書を検索する場合,対象となる文書を正確に表現する検索式を作成する必要がある.しかし正確な検索式を作成するためには,検索対象となる文書の内容について十分な知識が必要であり,必要な文書を入手する前の検索者にとって適切な検索式を作成するのは難しい.レレバンスフィードバックはこの問題を解決する手法であり,システムと検索者が協調して検索式を作成することで,検索者にとって容易かつ高い精度で文書検索を行う手段である.検索者はまず初期の検索条件を与え,この検索条件により検索される文書からシステムが特定のアルゴリズムに従ってサンプル文書を選択する(本稿ではこの選択アルゴリズムをサンプリングと呼ぶ).サンプル文書から検索者が必要文書と不要文書を選択すると,選択された文書からシステムが自動的に検索条件を更新し,検索を行う.この検索結果に対してシステムによるサンプリング,検索者による選択,再検索が繰り返される.この選択による検索条件の更新がレレバンスフィードバックであり,検索結果について必要文書と不要文書を選択することで,利用者は容易に必要文書を収集することができる.また,この選択--検索のプロセスを繰り返すことで,検索条件がより検索者のニーズを反映したものとなるとともに,検索者は検索要求に適合する文書をより多く入手することができる.レレバンスフィードバックの検索精度はサンプリング手法によって異なる.通常のレレバンスフィードバックでは最も検索条件に適合すると考えられる文書をサンプル文書とする(本稿ではこの手法を「レレバンスサンプリング」と呼ぶ).これに対してLewisらはuncertaintyサンプリングを提案している\cite{bib:DLewis}.これは文書のうち必要であるか不要であるかを最も判定しにくいものをサンプルとする手法で,レレバンスサンプリングよりも高い検索精度が得られると報告されている.これらサンプリング手法は検索結果の上位から順に(レレバンスサンプリング),ないし必要文書と不要文書の境界と推定される文書,およびその前後の順位の文書(uncertaintyサンプリング)をサンプル文書として選択する.このため検索条件との適合度により順位付けされた検索結果のうち,適合度がある範囲にある文書からサンプルが選択される.比較的類似した文書は同じ検索条件との適合度が類似した値となる傾向があることから,これらサンプリング手法は複数の類似した文書をサンプルとして選択する可能性が高い.この問題点に対処するため,筆者はunfamiliarサンプリングを提案する.unfamiliarサンプリングはレレバンスサンプリングおよびuncertaintyサンプリングを改良する手法であり,既存のサンプル文書と類似した文書がサンプルとして追加されないように,サンプル選択の際に既存のサンプルと文書間距離が近いサンプルを排除する.この改良により,選択されるサンプル文書はよりバラエティに富んだものとなり,複数の類似した文書がサンプルとして用いられる場合に比べて検索精度の向上が期待できる.レレバンスフィードバックを用いた文書検索を行う場合,検索者が多くの文書について必要ないし不要の判定をすることは考えにくいので,少数のサンプル文書で高い精度を得ることが重要になる.近年,文書検索や文書分類を高い精度で実現する手法としてAdaBoostがよく用いられる\cite{bib:Boost}.AdaBoostは既存の分類アルゴリズム(弱学習アルゴリズム)を組合せることでより精度の高いアルゴリズムを生成する手法であるが,決定株,ベイズ推定法を弱学習アルゴリズムとして用いる場合,サンプル文書が少ない場合にはRocchioフィードバックに劣る精度となることが知られている\cite{bib:Boost_and_Rocchio,bib:Yu}.本稿ではRocchioフィードバックを弱学習アルゴリズムとして用いる例(Rocchio-Boost)を示し,実験により少数のサンプル文書でも高い検索精度を実現することを示す.次章以降の本稿の構成は次の通りである.2章で既存のレレバンスフィードバック技術であるRocchioフィードバックについて述べ,3章ではAdaBoostのRocchioフィードバックへの適用について述べる.4章で既存のサンプリング手法であるレレバンスサンプリング,uncertaintyサンプリングについて述べ,5章で提案手法であるunfamiliarサンプリングについて述べる.6章で実験に用いたNPLテストコレクションおよび実験手法について述べる.7章で実験結果とその考察について述べ,8章で本稿のまとめを述べる.
\section{従来のレレバンスフィードバック技術}
\label{sec:jyuurai}本章ではレレバンスフィードバックを実現する標準的な手法であるRocchioフィードバックアルゴリズムについて述べる.Rocchioフィードバック\cite{bib:Rocchio}はベクトル空間法とTF/IDF法\cite{bib:Salton}を用いた文書検索システムにおいて,レレバンスフィードバックを実現する.Rocchioフィードバックは検索要求文とその要求に適合するかどうか判定された文書(サンプル文書)を入力として,検索要求を表すベクトルを出力する.作成されたベクトルと検索対象となる文書のベクトルの内積が,文書と検索要求文との関連度を示す.ベクトル空間法\cite{bib:Salton}は文書や検索要求文をベクトル空間上のベクトルとして表現する.このベクトルは文書および文中の単語が持つ重要性を示す``重み''を要素として持つ.TF/IDF法は,文書データベース中の少数の文書に数多く登場する語を重要な語として扱い,大きな重みを与えることで語の``重み''を決定する\cite{bib:Salton,bib:Umino,bib:Buckley}.本稿ではTF/IDF法の一つである{\itltc-lnc}手法について述べる\cite{bib:Buckley5}.{\itltc-lnc}手法は検索要求文,サンプル文書については{\itltc}手法により単語の持つ重みを計算することでベクトルを作成し,検索対象文書については{\itlnc}手法によって同様にベクトルを作成する.{\itltc}手法は以下の式により単語の重みを計算する.\\文ないし文書$d_{j}$中の単語$t_{i}$の重み$w_{i,j}$は,文ないし文書$d_{j}$中に単語$t_{i}$が出現する回数$f_{i,j}$(TermFrequency,$\:$TF)および単語$t_{i}$が出現する文書データベース中の文書数$n_{i}$の逆数(InvertedDocumentFrequency,$\;$IDF)を用いて以下の式により計算される\cite{bib:Buckley}.\[w_{i,j}=\frac{(\log(f_{i,j})+1.0)*log(\frac{|DB|}{n_{i}})}{\sqrt{\sum_{k=1}^{N}{(\log(f_{k,j})+1.0)*log(\frac{|DB|}{n_{k}})}^2}}\label{eqn:tf-idf}\]なお$|DB|$は文書データベース中の文書総数である.{\itlnc}手法は以下の式により単語の重みを計算する.\[w'_{i}=\frac{(\log(f_{i})+1.0)}{\sqrt{\sum_{k=1}^{N}{(\log(f_{k})+1.0)}^2}}\]Rocchioフィードバック\cite{bib:Rocchio}は検索要求文およびサンプル文書のベクトルを用いて以下の式により検索者の意図を反映したベクトルを作成する.検索要求文のベクトルを$v_q$,提示した文書中から検索者が選択した必要文書$num_{rel}$件の持つベクトルの和を$v_{rel}$,検索者が選択しなかった文書(不要文書)$num_{nonrel}$件の持つベクトルの和を$v_{nonrel}$としたとき,新たなベクトルは\[v=\alphav_{q}+\frac{\betav_{rel}}{num_{rel}}-\frac{\gammav_{nonrel}}{num_{nonrel}}\]となる.ここで$\alpha,\beta,\gamma$は定数(本稿では各々16,32,8とした),また重みが負の値となる語は用いない.得られたベクトルと検索対象となる文書のベクトルの内積値が,検索要求に対する文書の関連度を表す.関連度が高い文書は必要文書に,関連度の低い文書は不要文書に分類されたと考えることができるため,Rocchioフィードバックは必要ないし不要の判定がされたサンプル文書を学習例として,未知の文書について必要ないし不要の判定をする分類学習アルゴリズムと考えられる.また内積値の大きさが必要文書に分類される確からしさを表していると考えられる.
\section{Rocchio-Boost}
AdaBoostはランダム予測より良い予測を行う学習アルゴリズム(弱学習アルゴリズム)を組み合わせることで,より高精度な予測を行う強学習アルゴリズムを構成するアルゴリズムであり,多くの実験結果から既存の分類学習アルゴリズムを弱学習アルゴリズムとして得られる強学習アルゴリズムは,従来の分類学習アルゴリズムに比べて高い性能が得られることが示されている\cite{bib:Boost}.AdaBoostの特徴は学習例に重みを付け,弱学習アルゴリズムでは学習が難しい学習例の重みを相対的に増加させることで,難しい例に適応した学習結果を得ること,また重み付きの学習例に対する学習の正確さを評価し,その正確さに応じた重みを付けて各学習結果を結合して強学習アルゴリズムを得る点にある.AdaBoostは多くの実験によりその効果が確認されているが,得られる強学習アルゴリズムの性質は弱学習アルゴリズムの性質に強く依存する.レレバンスフィードバックへの適用例として決定株,ベイズ推定を弱学習アルゴリズムとする手法が提案されているが,十分な数の学習例が得られる場合にはRocchioフィードバックより優れた精度が得られるものの,決定株,ベイズ推定は学習例が少ない場合には良好な精度が得られないため,これらを弱学習アルゴリズムとするAdaBoostは少ない学習例ではRocchioフィードバックに劣る精度となることが報告されている\cite{bib:Boost_and_Rocchio,bib:Yu}.これら結果は逆に,Rocchioフィードバックが少数の学習例でも良好な精度を示すと捉えることができる.Rocchioフィードバックによる検索対象文書の順位付けは文書を必要文書ないし不要文書に分類していると考えることができるため,Rocchioフィードバックを弱学習アルゴリズムとして用いることもできる.Rocchioフィードバックは少ない学習例でも比較的良好な精度が得られると考えられることから,Rocchioを弱学習アルゴリズムとしてAdaBoostを適用することで,少数の学習例でも良好な結果が得られる可能性がある.ここではRocchioフィードバックを弱学習アルゴリズムとしてAdaBoostを適用したアルゴリズムの一例(Rocchio-Boost)を示す.AdaBoostは弱学習アルゴリズムによる分類結果に,分類の確からしさを示すスコアが与えられる場合,これを信頼度(confidenceratio)として利用することができる\cite{bib:Boost_conf}.以下では長さ1に正規化したRocchioフィードバックによるベクトルと,文書ベクトル間の内積値(0から1までの値を取る)を-1から1にマッピングし,これを信頼度として用いる.\begin{enumerate}\item$x_{i}$を$i$番目のサンプル文書,$y_{i}$を$x_{i}$が正解文書なら1,不要文書なら-1とする.$m$をサンプル文書数とする.\item$D_{1}(i)=\frac{1}{m}$とする(学習例の重みを示す変数)\itemラウンド$s$を1から1ずつ加算して$T$に達するまで以下の作業を繰り返す\begin{enumerate}\itemRocchioフィードバックの式により$\vec{Q}_{s}$を計算する\begin{eqnarray*}\vec{Q}_{s}&=&\alpha\vec{Q}_{org}\\&&+\frac{\betam}{R}\sum_{y_{i}=1}{D_{s}(i)\vec{x_{i}}}\\&&-\frac{\gammam}{N}\sum_{y_{j}=-1}{D_{s}(j)\vec{x_{j}}}\end{eqnarray*}ここで$\vec{x_{i}}$は文書$x_{i}$のベクトルを表す.\itemベクトル$\vec{Q'}_{s}=\frac{\vec{Q}_{s}}{|\vec{Q}_{s}|}$とする.\item$\vec{Q'}_{s}$とサンプル文書$x_{i}$のベクトルの内積$p_{i}$を計算し,$h_{s}(x_{i})=2p_{i}-1$とする($\vec{Q'}_{s}$と文書ベクトルの内積値が0から1までの値を取るため,$-1\leqh_{s}(x_{i})\leq1$となる).\item弱学習アルゴリズムによる学習の正確さを示す変数$\alpha_{s}$を以下の式で求める.\[r=\sum_{i=1}^{m}D_{s}(i)y_{i}h_{s}(x_{i})\]\[\alpha_{s}=\frac{1}{2}\ln(\frac{1+r}{1-r})\]\item学習例の重みを更新する.\[D_{s+1}(i)=\frac{D_{s}(i)\exp{(-\alpha_{s}y_{i}h_{s}(x_{i})})}{Z_{s}}\]$Z_{s}$はいずれのラウンド$s$でも\[\sum_{i}D_{s+1}(i)=1\]となるよう定める.\end{enumerate}\itemラウンド$s$が$T$に達したら,各ラウンド$s$で得られた$\alpha_{s}$,$h_{s}$,$\vec{Q'_{s}}$を用いて最終的な強学習アルゴリズムを得ることができる.検索対象となる文書$x'_{i}$の文書ベクトルを$\vec{x'_{i}}$とすると,最終的な強学習アルゴリズム$H(x'_{i})$は\begin{eqnarray*}H(x'_{i})&=&\sum_{s=1}^{T}{\alpha_{s}h_{s}(x'_{i})}\\&=&\sum_{s=1}^{T}{\alpha_{s}(2(\vec{Q'_{s}}\cdot\vec{x'_{i}})-1)}\\&=&2(\sum_{s=1}^{T}{\alpha_{s}\vec{Q'_{s}}})\cdot\vec{x_{i}}-\sum_{s=1}^{T}\alpha_{s}\end{eqnarray*}となり,この式の値が検索要求に対して文書$x'_{i}$が持つ関連度となる.なお上式では文書$x'_{i}$を評価する際にRocchioフィードバックと同じく内積計算は一度のみ行えばよい.$H(x'_{i})$が大きい文書$x'_{i}$ほど検索要求に適合する度合が強いと考えられ,この値の大小で文書をソートし順位付けして出力する.\end{enumerate}
\section{既存のサンプリング手法}
本章では既存のサンプリング手法について述べる.レレバンスサンプリングは最も検索条件に適合すると考えられる文書をサンプル文書とする手法であり,レレバンスフィードバックでのサンプル選択方法として最も良く用いられる.サンプル文書と検索者が閲覧する文書を同一のものとした場合,レレバンスフィードバックの繰り返しの過程で検索者に示されるサンプル文書は,常に既知のサンプルから推定される最も検索要求に合致した文書となる.このため,少数の正解文書を閲覧すれば十分な場合,サンプル文書の閲覧とフィードバックのみで目的が達成できる.以下にレレバンスサンプリングのアルゴリズムを示す.なお,本稿では各フィードバックにおいて選択されるサンプル文書を$n$文書とし,この$n$文書を各サンプリング手法により選択するものとする.また各フィードバックにおいては既存のサンプル文書全てを用いる.このためフィードバックの繰り返しごとにサンプル文書は$n$文書ずつ増加する.\renewcommand{\theenumii}{}\begin{enumerate}\item検索要求と既存のサンプル文書を用いたレレバンスフィードバックで得られる分類アルゴリズムを$A_{1}$とする.\item$s=1$として$s$を1ずつ加算して以下を任意の回数繰り返す.\begin{description}\item[(a)]検索対象の文書$x_{i}$をアルゴリズム$A_{s}$により分類し,より必要文書である(検索要求に適合する)と判定された文書の順に順位付けする.\item[(b)]高い順位の文書から$n$文書選択する.なお既存のサンプル文書は選択対象から外す.\item[(c)]選択された$n$文書について必要/不要の判定を行い,サンプル文書に追加する.\item[(d)]増加したサンプル文書を用いてレレバンスフィードバックを行い新たな分類アルゴリズム$A_{s+1}$を得る.\end{description}\end{enumerate}このレレバンスサンプリングと異なるサンプリング手法としてLewisらによってuncertaintyサンプリングが提案されている\cite{bib:DLewis}.これは文書のうち必要であるか不要であるか最も判定しにくいものをサンプルとする手法である.このサンプリング手法を用いることで,より良い分類学習が可能となり,最終的に得られる検索結果はレレバンスサンプリングに比して良くなると報告されている.uncertaintyサンプリングによるレレバンスフィードバックの過程では,検索者に示されるサンプル文書はレレバンスサンプリングに比べて検索要求との関連は低いため,フィードバックの過程で検索者が閲覧する文書の正解率は低い.このため,少数の正解文書を閲覧すれば十分な場合でも,サンプル文書とは別に検索結果の上位文書を閲覧する必要がある.以下にuncertaintyサンプリングのアルゴリズムを示す.\begin{enumerate}\item検索要求と既存のサンプル文書を用いたレレバンスフィードバックで得られる分類アルゴリズムを$A_{1}$とする.\item$s=1$として$s$を1ずつ加算して以下を任意の回数繰り返す.\begin{description}\item[(a)]検索対象の文書$x_{i}$をアルゴリズム$A_{s}$により分類し,より必要文書である(検索要求に適合する)と判定された文書の順に順位付けする.\item[(b)]必要文書か不要文書か最も分類が難しい文書から順に$n$文書選択する.「最も分類が難しい文書」としては分類アルゴリズムにより出力される分類の確からしさを表す値を用いて判定するが,AdaBoostでは強学習アルゴリズム$H(x_{i})$がこれに相当する.$H(x_{i})$が0に近いほど必要文書か不要文書か最も曖昧な,分類の難しい文書と判定されるので,$H(x_{i})$が0に近い文書から$n$文書を選択する.なお既存のサンプル文書は選択対象から外す.\item[(c)]選択された$n$文書について必要/不要の判定を行い,サンプル文書に追加する.\item[(d)]増加したサンプル文書を用いてレレバンスフィードバックを行い新たなベクトル$A_{s+1}$を得る.\end{description}\end{enumerate}
\section{unfamiliarサンプリング}
検索要求に対して文書検索結果を順位付きで出力する文書検索システム(例えばWebサイトを検索するインターネット検索サイト等)を用いると,ほとんど同じ内容の文書が近い順位に複数提示されることがある.\footnote{この現象はクラスタ仮説(「文書が類似していれば,同じ検索要求に対する適合性も同様に類似している」\cite{bib:Cluster_hypo})の妥当性を裏付けるものと考えられる.}これはサンプリングにおいて以下のような問題を起こす可能性がある.レレバンスサンプリングは検索結果の上位文書を,uncertaintyサンプリングは最も判定が難しい文書をサンプル文書として選択する.このため検索要求との適合度により順位付けされた検索結果のうち,適合度が一定の範囲にある文書からサンプルが選択される.互いに類似した文書の文書ベクトルは,多くの共通した単語を同じ重みで持つことが多いため,同じ検索要求との適合度が類似した値となることがあり,これらサンプリング手法は複数の類似した文書をサンプルとして選択する可能性がある.文書データベースには内容がほぼ同一の文書が複数登録されていることがあるため,サンプルとして追加される文書が全て同じ内容の文書となることすらあり得る.このような場合,サンプル文書を追加しても,検索精度向上の効果が十分に得られない恐れがある.この問題点は互いに類似した文書がサンプル文書として用いられるために生じる.そのため追加サンプル選択の際に,既存のサンプル文書と文書間距離が近い文書を対象から除外することで,この問題を避けることができる.本稿では$ltc$手法により計算される文書ベクトル間の内積値を文書間距離として用い,レレバンスサンプリングおよびuncertaintyサンプリングにおける追加サンプル文書選択の際にいずれか既存のサンプル文書の最近傍(=全ての文書の中で内積値が最小となるもの)となっていないか確認する.もしいずれか既存のサンプル文書の最近傍であれば,既存サンプルの類似文書と考えられるので,この文書はサンプルとして追加しないことで,類似した文書がサンプルに追加されるのを防ぐ.レレバンスサンプリングに類似サンプル除外の手順を加えると,(2)-(b)の手順が以下の(2)-(b)\('\)に置き換わる.\begin{description}\item[(2)-(b)\('\)]$t=0$とし,$t<n$の間,以下を繰り返す.\begin{enumerate}\item順位付けされた文書から(2)-(b)\('\)で処理されていない最も内積値の高い文書$x_{i}$を取り出す.なお既存のサンプル文書は対象から外す.\item$x_{i}$がいずれのサンプル文書の最近傍でなければサンプル文書集合に追加し$t$を1加算する.最近傍ならサンプル文書集合に加えない.\end{enumerate}\end{description}uncertaintyサンプリングも手順(2)-(b)が以下の(2)-(b)\(''\)に置き換わる.\begin{description}\item[(2)-(b)\(''\)]$t=0$とし,$t<n$の間,以下を繰り返す.\begin{enumerate}\item順位付けされた文書から(2)-(b)\(''\)で処理されていない文書のうち,最も$H(x_{i})$が0に近い文書$x_{i}$を取り出す.なお既存のサンプル文書は対象から外す.\item$x_{i}$がいずれのサンプル文書の最近傍でなければサンプル文書集合に追加し$t$を1加算する.最近傍なら集合に加えない.\end{enumerate}\end{description}本稿では上記の手順でサンプリングの際に類似文書を除外する手法をunfamiliarサンプリングと呼ぶ.このunfamiliarサンプリングをレレバンスサンプリング,uncertaintyサンプリングに適用することで,選択されるサンプル文書はよりバラエティに富んだものとなり,複数の類似した文書がサンプルとして用いられる場合に比べて検索精度の向上が期待できる.
\section{実験}
\label{sec:experiment}本章では実験に用いたデータと実験手順について述べる.\subsection{実験に用いたデータ}検索精度の評価には,英文を対象とした文書検索テストコレクションとして広く用いられているNPLテストコレクション\cite{bib:NPL,bib:Glasgow}を用いた(表\ref{table:collections},対象文書は物理分野の文献の要約).テストコレクションは文書の集合と検索要求文からなり,検索要求文に対して関連する文書(正解)が与えられている.\begin{table}[tbp]\begin{center}\caption{NPLテストコレクション}\begin{tabular}{c|c|c|c|c}\hline文書数&文書総量(MB)&質問数&平均質問語数&平均正解数\\\hline11429&3.1&93&6.7&22.4\\\hline\end{tabular}\label{table:collections}\end{center}\end{table}テストコレクションの各質問,文書からはFreeWAIS-sf\cite{bib:free_wais}の不要語辞書に登場する語を除去後,Porterのstemmingアルゴリズム\cite{bib:Porter}により語幹を取り出して利用した.\subsection{実験手順}以下に実験手順を示す.\begin{enumerate}\item検索要求文からTF/IDF法を用いて$\vec{v_{q}}$を作成し,各文書のベクトルとの内積を計算して各文書のスコアとする.\label{enu:normal_search}\itemスコア上位30件を最初のサンプル文書集合とする.なお,この30件の文書については精度評価に用いない.\item$f=1$として以下のフィードバックを繰り返す.各フィードバックによってサンプル文書が追加されるが,各サンプリング手法,文書順位付け手法によって追加されるサンプル文書が異なり,その違いが検索精度に与える影響を検証する.\begin{description}\item[(a)]テストセットの正解を用いてサンプル文書集合中の各文書について正解($=$必要文書)と不正解($=$不要文書)を判定する.\label{enu:sample_doc}\item[(b)]RocchioフィードバックおよびRocchio-Boost(ラウンド数$T=50$)により,検索対象文書の順位付けを行う.$\alpha,\beta,\gamma$は文献\cite{bib:Buckley}より各々8,16,4とした.また他の弱学習アルゴリズムを用いたAdaBoostと比較するため,決定株を用いたAdaBoost(BoosTexterを使用\cite{bib:Boostexter})\footnote{学習例には$ltc$手法により重み付けされた文書ベクトルを与えた.ラウンド数$T$は300とした.}も用いる.\item[(c)]順位付けされた出力の各順位での適合率の平均を求める.評価にはtrec\_eval\cite{bib:trec_eval}を使用した.なお検索結果が検索要求文に対する正解記事であれば正解とする.\item[(d)]順位付けされた結果から各サンプリング手法によりサンプル文書を選択し,サンプル文書集合に追加する.\item[(e)]$f$に1を加算し,(a)に戻る.\end{description}\end{enumerate}なおRocchioフィードバックによって順位付けを行う場合,uncertaintyサンプリングでの$H(x_{i})$による「最も分類が難しい文書」の判定ができないため,代わりにサンプル文書中で最も順位の低い必要文書と最も順位の高い不要文書の中間の順位の文書を「最も分類が難しい文書」として扱い,その文書より上位にある4文書,下位にある5文書をサンプル文書として選択した.
\section{実験結果}
各サンプル手法のフィードバック回数$f$における平均適合率を表\ref{table:NPL_n30}に示す.\begin{table*}[tbp]\begin{center}\caption{平均適合率(\%)}\begin{tabular}{c|c||c|c|c|c}\hlineサンプリング手法&順位付け&$f=1$&$f=2$&$f=3$&$f=4$\\\hline\hline{\bfrel}&{\bfBoost}&6.46&10.61&15.39&20.23\\\hline\hline{\bfrel}&{\bfRoc}&14.78&21.26&28.28&35.15\\\hline{\bfrel+unf}&{\bfRoc}&-&21.98&29.47&36.55\\\hline{\bfunc}&{\bfRoc}&-&21.29&28.30&35.16\\\hline{\bfunc+unf}&{\bfRoc}&-&22.01&29.69&36.71\\\hline\hline{\bfrel}&{\bfRoc-Boo}&14.83&21.73&31.31&38.35\\\hline{\bfrel+unf}&{\bfRoc-Boo}&-&22.77&34.16&38.42\\\hline{\bfunc}&{\bfRoc-Boo}&-&21.74&31.31&38.35\\\hline{\bfunc+unf}&{\bfRoc-Boo}&-&22.82&34.54&38.94\\\hline\end{tabular}\label{table:NPL_n30}\end{center}\end{table*}表中{\bfrel}がレレバンスサンプリング,{\bfunc}がuncertaintyサンプリングを示す.{\bf+unf}はunfamiliarサンプリングをレレバンスサンプリング,uncertaintyサンプリングに適用したことを示す.また``順位付け''の欄は検索結果の順位付けに用いた手法を示し,それぞれRocchioフィードバック({\bfRoc}),Rocchio-Boost({\bfRoc-Boo}),決定株を弱学習アルゴリズムとするBoosTexter({\bfBoost})を示す.なおフィードバック回数$f=1$では検索要求文による検索結果の上位30件をサンプルとして用いるので,サンプリング手法による違いはない.本稿で用いた学習例は30文書($f=1$)から60文書($f=4$)と比較的少数であるが,Rocchioフィードバックを弱学習アルゴリズムとするAdaBoost({\bfRoc-Boo})がRocchioフィードバック({\bfRoc})より優れた結果を示している.一方,弱学習アルゴリズムに決定株を用いる場合({\bfBoost}),本実験で扱う少数の学習例では優れた結果が得られないことが確認できる.そのため弱学習アルゴリズムとしてRocchioフィードバックを用いたことが,少数の学習例でも比較的良好な精度が得られるアルゴリズムとなった原因と考えられる.unfamiliarサンプリング({\bf+unf})をレレバンスサンプリング,uncertaintyサンプリングに適用すると{\bfRoc},{\bfRoc-Boo}ともに検索精度が向上している.順位付けを{\bfRoc}から{\bfRoc-Boo}に変えた場合と同じ程度,すなわちAdaBoostによる精度向上効果と同じ程度の効果を示す場合もあり,比較的良好な結果と考えられる.unfamiliarサンプリングとRocchio-Boostの両方を適用した場合には$f=3$で6\,\%程度の精度向上効果が得られていることがわかる.本稿で実施した実験ではレレバンスサンプリング({\bfrel})とuncertaintyサンプリング({\bfunc})で精度にほとんど差が見られない.表\ref{table:common_sample}に順位付けにRocchio-Boostを用いた場合にレレバンスサンプリングとuncertaintyサンプリングの両方で用いられるサンプル数(共通サンプル数)を示す(サンプル数は全ての検索要求文についての平均).\begin{table}[tbp]\begin{center}\caption{共通サンプル数}\begin{tabular}{c||c|c|c}\hline&$f=2$&$f=3$&$f=4$\\\hline\hline総サンプル数&40&50&60\\\hline共通サンプル数&38.04&46.11&54.17\\\hline\end{tabular}\label{table:common_sample}\end{center}\end{table}これはuncertaintyサンプリングで最も分類が難しいと判断される文書が比較的高い順位にあり,その前後の文書を選択しても,検索結果の上位から文書を選択するレレバンスサンプリングとあまり差がないためと考えられる.どの文書を最も分類が難しいと判断するかによって精度が変化すると考えられるので,$h_{t}(x_{i})=0$に最も近い点ではなく,必要文書の平均順位と不要文書の平均順位の中間の順位にある文書を最も分類が難しい文書とした場合の結果({\bfunc2})を表\ref{table:unc_n30}に示す.\begin{table}[tbp]\begin{center}\caption{2つのuncertaintyサンプリングの比較}\begin{tabular}{c|c||c|c|c}\hlineサンプリング手法&順位付け&$f=2$&$f=3$&$f=4$\\\hline\hline{\bfunc}&{\bfRoc-Boo}&21.74&31.31&38.35\\\hline{\bfunc2}&{\bfRoc-Boo}&23.51&30.18&33.35\\\hline\end{tabular}\label{table:unc_n30}\end{center}\end{table}{\bfunc}と{\bfunc2}で精度が大きく異なる.{\bfunc2}は{\bfunc}より優れた方法とはいえないが,少なくとも{\bfunc}における「最も分類が難しい文書」の選択方法を変化させることで精度が向上する場合があることがわかる.
\section{まとめ}
レレバンスフィードバックにおけるサンプル文書選択(サンプリング)において,類似したサンプルが追加されることを防ぐunfamiliarサンプリングと,少ないサンプル数でも良好な検索精度を得ることができるRocchioフィードバックを弱学習アルゴリズムとするAdaBoost(Rocchio-Boost)を提案した.これら手法をNPLテストコレクションを用いて検証したところ,従来手法に比較して平均適合率を6\,\%程度向上させることができた.また弱学習アルゴリズムとして決定株を用いるAdaBoost(BoosTexter)と比較したところ,30から70文書程度の比較的少数のサンプル数ではBoosTexterはRocchioフィードバックに劣る検索精度であるのに対して,Rocchio-BoostはRocchioフィードバックより優れた検索精度を示したことから,少数のサンプル数においてRocchioフィードバックを弱学習アルゴリズムとして用いる手法が有効であることがわかった.unfamiliarサンプリングを用いる際には文書間距離を計算する必要がある.今回は文書ベクトル間の内積値を用いたが,実際の検索システムでは大量の文書が検索対象となる上,同じ文書が何回も検索されることがあるので,検索毎に内積値を計算するのは無駄が多い.あらかじめ文書間距離が近いものを計算しておく,ないし一度発見された最近傍文書をキャッシュしておくなどの手段が必要になると考えられる.本稿のRocchio-Boostでは弱学習アルゴリズムとしてRocchioフィードバックを適用するAdaBoostの一例を示した.Rocchioフィードバックを弱学習アルゴリズムとして用いる手法は他にも考え得るが,本稿で提案する利用法では検索対象文書との内積計算を一度だけ行えばよい.一般にTF/IDF法を用いる文書検索においては,この内積計算に最も処理時間が必要となるが,通常のRocchioフィードバックと同じくRocchio-Boostにおいても内積計算は一度のみ行えばよいので実用上の利点として大きいと考えられる.本稿で述べた実験ではuncertaintyサンプリングの効果が明らかには得られなかった.Rocchio-Boostにおける強学習アルゴリズム$H(x_{i})$では分類の確からしさをうまく判定できていない可能性がある.また用いたテストコレクションによって効果に違いがある可能性があるので,条件を変更して検証する予定である.\bibliographystyle{jnlpbbl}\bibliography{bunken}\begin{biography}\biotitle{略歴}\bioauthor{中島浩之}{1994年東京工業大学大学院理工学研究科情報工学専攻修了.1994年4月NTTデータ通信(株)(現(株)NTTデータ)入社.2000年5月から2002年3月までNTTコミュニケーション科学基礎研究所に勤務.2002年4月より(株)NTTデータ,現在に至る.情報検索,言語処理の技術開発に従事.情報処理学会および人工知能学会会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V12N05-07 | \section{はじめに}
\label{sec:hajime}最近、種々の応用を睨んで言い換えの研究がさかんになっている\cite{inui02,acl03}。例えば、語彙的言い換えの研究\cite{yamamoto02}は種々の応用に役立つ。また、機械翻訳の前処理や評価\cite{kanayama03}、情報検索、質問応答、情報抽出の柔軟性を上げること\cite{Fabio03,Shinyama03}、年少者や初心者向けの教科書やマニュアルを読みやすくする、などは直接的に役立つ応用である。似た研究としては聾唖者に理解し易いテキスト言い換えもある\cite{inui-acl03}。また、非母国語話者が理解しやすいように簡易な言い方に言い換えることも有意義である。こういった目的のためには、国語辞典を用いた用言の言い換え\cite{kaji03}や普通名詞の言い換え\cite{fujita00}などが役立つ。一方、要約も言い換えの応用分野として有力である。従来の文書要約は重要文の抽出が主体であった\cite{mani01}。しかし、抽出した文をさらに短縮することを目指す場合には言い換えが役立つ。例えば、\begin{description}\item[例文1:]\hspace{2em}本法案が衆議院本会議で審議が始まった。\\を\item[例文2:]\hspace{2em}本法案、衆議院本会議で審議。\end{description}というような言い換えが考えられる。実際にこの例文2のような短縮された表現はテレビの字幕あるいは列車の字幕ニュースなどでよく見かける。このような応用は文書表示を行う端末の多様化からみても有用さが増してくる。Webページは従来からパソコンの大画面への表示を想定して作られていた。しかし、携帯電話やPDAの普及により100文字程度の小画面への表示を念頭におくテキストも増加している。このような画面へ表示するコンパクトなテキストは多くの場合短縮された表現である。このような短縮を自動的に行うために言い換え表現を収集することは意義深い。新聞記事の場合、重要な文は記事の先頭に現れることが多いという性質を利用して抽出できるが、画面が小さく表示文字数に限りがあること、短い時間で読むことができることなどを考慮すると、さらに縮約が要請される。後に詳しく述べるが、よく使われるのは、上記の例文2に見られる体言止めのような文末の短縮表現である。また、「国会で審議へ」という文末の助詞止めも多く使われる。このような縮約した文末表現は従来から字幕放送で用いられている。しかし、通常の書き言葉の文末である終止形を体言止めや助詞止めに変換する規則は、これまでほとんど手作りであった\cite{ando01}。このような文短縮を目的とした言い換え表現を言語の実際の使用例から自動収集するための言語資源としてWebに配信されている新聞記事と、これに対応した内容を携帯電話向けに発信している新聞記事に注目する。これらは毎日数十記事発信され、長期間にわたって蓄積すれば大量の言語資源となる。すなわち、同じ内容が数十文字程度で構成された携帯端末向けの新聞記事と数百文字程度で構成されているWeb新聞記事が対応付けられれば、ある言語表現とその短縮表現の対応データとして使える。この対応付けコーパスを用いれば、多様な文末表現の縮約のための言い換え表現を機械的な手法で抽出することが可能になる。ここで留意しなければならないのは、この研究で目的としている言い換えは「Web記事の文$\rightarrow$携帯端末向け記事の文」という方向性を持つ点である。実際には、書き手がこの方向で作業しているかどうかは不明である。しかし、縮約のような言い換えによって短縮された記事を作ることは技術的に可能であっても、その逆方向の言い換えは困難である。よって、この方向性を前提として研究を進める。なお、以下では必要に応じて、言い換え操作の対象になるWeb記事の文からの抽出表現を「言い換え元表現」、対応する携帯端末向け記事の文からの抽出表現を「言い換え先表現」と呼ぶ。さて\cite{inui02}は言い換えの研究にいくつかの問題を提起している。それらに対して、この研究ではいかなる解決策を採っているかをまとめることによって、本論文の構成を述べる。\\\noindent\textbf{言い換え事例をどのように集めるか}\\この問題に対しては、1)Web上から得られる言い換え表現獲得のための言語資源としてWeb新聞記事と携帯端末向けの新聞記事を用いること、2)この両記事コーパスを文単位で対応付ける方法の提案と実験的評価、を行って対処している。具体的には\ref{sec:taiou}節において、研究で使用した記事データについて、およびWeb記事と携帯記事の対応付け、さらにそこから文単位での対応付けを行う方法について述べる。このような対応付けコーパスを用いる言い換え事例収集は多くの研究\cite{braz01,sekine01}があるが、本研究での新規性のひとつは対象としている言語資源にある。\\\noindent\textbf{どの表現を言い換えるか}\\この問題は、これまでの言い換え研究の中心課題のひとつであった。特に類似した表現の対をコーパスから探し出すことは重要なテーマで、多くの研究\cite{murata01,torisawa01,terada01}がなされた。我々の場合、\ref{sec:chushutu}節において述べるように、対応付けられた文からなるコーパスを利用してWeb記事文の文末を縮約する携帯端末向け文の文末の言い換え表現を獲得することに的を絞っている。よって、言い換えるべき場所はWeb記事文の文末のうち、本論文で述べる方法で抽出した言い換えにおける言い換え元の表現が出現した場合と限定できる。\\\noindent\textbf{可能な言い換えの網羅的生成と、生成された候補の評価}\\\cite{inui02}では、この問題は上の問題の一部と位置付けられているが、本研究では網羅性の確保はその困難さから諦めた。代わりに文末表現に限定し、どのような範囲の形態素列を切り出せば正しい言い換え表現を抽出できるかという問題に絞って扱う。\ref{sub:webbunmatsu}節で言い換え表現の抽出について説明し、その抽出結果に\ref{sub:junni}節で説明する得点付けを行うことによって正しい言い換え表現を取得する。\ref{sub:filter}節では、その結果の言い換え表現のうち必要な名詞を削りすぎた不適切な言い換えを除去するフィルタリングについて述べる。これらの\ref{sec:chushutu}節に提案する手法の実験評価を\ref{sec:hyouka}節で述べる。\\\noindent\textbf{意味の差、およびその計算法}\\この問題はこの論文では人手での評価に頼った。今後の課題である。\\\noindent\textbf{言い換え知識の共有}\\本論文で述べた言い換え知識は文末表現の縮約に役立つが、これを大きくの研究者、技術者に共有する枠組みについても今後の課題である。
\section{対象とする新聞記事データとその対応付け}
\label{sec:taiou}\subsection{対応付けの概要}文縮約のための言い換え規則を機械的に取り出すためには同一内容の長短2文が大量に必要となる。そこで本研究では、\cite{oomori03}の手法を利用してWebから長期にわたって収集したコーパスを用いる。このコーパスは、インターネット上に配信されていて、パソコンでの閲覧用に作成されている新聞記事(以下、Web記事と呼ぶ)と携帯端末向けに作成されている新聞記事(以下、携帯記事と呼ぶ)の間で同じ内容のものを自動的に対応付けたものである。さらに言い換え表現抽出のために、その携帯記事中の文(以下、携帯文と呼ぶ)に対しそれに対応付けられた新聞記事中から同一内容を持った文(以下、Web文と呼ぶ)を対応付ける\cite{sato04}。本節以下の実験では2001年4月26日から2003年11月30日までに収集したWeb記事と携帯記事から得た48075組の記事から抽出した合計72203組の対応文を用いた。Web記事は通常、数百文字で構成されているのに対して、携帯記事は50文字程度で構成されている。また携帯記事は体言止めや文末が助詞で終わる文が多いのが特徴として挙げられる。携帯記事の文末品詞の割合を表\ref{bunsu}に示す。\begin{table}[htbp]\begin{center}\caption{携帯記事の文末品詞の割合}\label{bunsu}\begin{tabular}{|r|r|r|r|}\hline\multicolumn{2}{|r|}{品詞}&頻度[個]&頻度\slash合計[\%]\\\hline\hline名詞&サ変接続&28687&39.7\\\cline{2-4}&その他&11796&16.3\\\hline\multicolumn{2}{|r|}{助詞}&13397&18.6\\\hline\multicolumn{2}{|r|}{動詞}&11988&16.6\\\hline\multicolumn{2}{|r|}{助動詞}&5589&7.7\\\hline\multicolumn{2}{|r|}{その他}&746&1.1\\\hline\hline\multicolumn{2}{|r|}{合計}&72203&100.00\\\hline\end{tabular}\end{center}\end{table}\subsection{記事単位での対応付け}\label{sub:kiji-taiou}新聞記事の対応付けの方法は以下のようになる。収集した記事群で1日単位にWeb記事と携帯記事の対応付けを行う。まず、両記事群を「茶筅」\cite{chasen}で形態素解析する。この結果に対して、携帯記事$i$中の名詞とWeb記事$j$中の名詞を調べ、次式のようにこの両者の記事の類似度$Sim(i,j)$を計算する。ここで$M(i)$は携帯記事$i$中の名詞の集合、$Wt(j)$をWeb記事$j$の見出し中の名詞の集合、$Wb(j)$をWeb記事の本文中の名詞集合とする。なお、携帯記事には見出しは付いていない。\begin{eqnarray}Sim(i,j)=3\times|\mbox{$Wt(j)\capM(i)$}|+|\mbox{$Wb(j)\capM(i)$}|\end{eqnarray}2001年5月10日から同8月10日まで毎月10日と20日に収集した605記事について$Sim$の値と人手でつけた対応付けの正解率の関係を図\ref{art-align}に示した。\begin{figure}[htb]\begin{center}\includegraphics[width=90mm]{img/art-align.eps}\caption{$Sim$の値と記事単位の対応付けの精度}\label{art-align}\end{center}\end{figure}この図より、$Sim$の値が35以上の場合を正しく対応が付いたとすることにより、現在までの実験で481記事が正しく対応した。すなわち、約80\%の携帯記事を100\%の精度で対応付けができた。そこで、この方法、すなわち$Sim\geqq35$の条件を満たす記事対を取り出すことにより、約3年分の記事対応付けコーパスを作成した。\subsection{文単位での対応付け}\label{sub:bun-taiou}記事単位で対応付けられたコーパスにおいて携帯記事を基準としてWeb記事から対応文の抽出を行う。これも以下に示すように対応した記事対において共起した名詞の頻度によって行った。具体的アルゴリズムを以下に示す。\\\noindent\textbf{文対応付けアルゴリズム}\\\begin{description}\item[Step:1]$i=1$\\携帯記事の第$i$文を形態素解析し、第$i$文に含まれる全名詞を抽出し、この集合を$Ms(i)$とする。\item[Step:2]$j=1$\item[Step:3]Web記事の第$j$文を形態素解析し、第$j$文に含まれる全名詞を抽出し、この集合を$Ws(j)$とする。\\$S(j)$=\textbar\mbox{$Ms(i)\capWs(j)$}\textbar\\を求める。\item[Step:4]$j=j+1$\\Web記事の最後の文になるまでStep:3、Step:4を繰り返す。\item[Step:5]$S(j)$がもっとも高いWeb記事の文を携帯記事第$i$文の対応文とする。なお、一致した名詞の数が同数の文が複数あった場合は、記事の先頭に近いものを対応文として選ぶ。\item[Step:6]$i=i+1$\\携帯記事に残った文があればStep:1に戻る\\\end{description}\textbf{Step:5}で名詞一致数が同数の場合に記事先頭に近いものを選ぶのは、新聞記事の場合は先頭に近い文が重要な情報を担うからである。つまり、携帯文に対応する文のうち、より重要な情報を含む文を選択しようという指針を採った。以上の方法で抽出した対応文対のうち、以後、携帯記事から抽出した文を携帯文、Web記事から抽出した文をWeb文と呼ぶ。ここまでに述べた方法で抽出したデータのうち、2001年の約一年分の対応記事コーパスの43171組の対応文についての詳細を表\ref{kousei}に示す。携帯記事のほとんどが二文で構成されていることから、使用した対応付けコーパスの記事数の約二倍の対応文が抽出される。また携帯文は一文が数十文字程度であるのに対して、Web文はそれよりも長い構成になっているので、二文の携帯文に対して、Web文が一文で抽出される場合もある。これは携帯記事が二文で構成されているときのみ現れる。\begin{table*}[htb]\caption{記事の構成文数と対応文の抽出状況}\label{kousei}\begin{center}\begin{tabular}{|r|r|r|}\hline携帯記事&抽出した時&抽出した\\の構成&の状態&対応文\\&(携帯文対Web文)&\\\hline\hline1文&1対1&1801\\\hline2文&2対1&9606\\\cline{2-3}&1対1&29732\\\hline3文&1対1&2028\\\hline4文&1対1&4\\\hline\hline\multicolumn{2}{|c|}{合計}&43171\\\hline\end{tabular}\end{center}\end{table*}次に今回、抽出した対応文からランダムで500組を抽出し対応付けの精度を求めた。\begin{eqnarray}\mbox{精度}=\frac{\mbox{抽出した対応付け正解文数}}{\mbox{抽出した全文数}}\end{eqnarray}対応付けの正解・不正解は人手で行っており、対応付けられている場合は正解、対応付けられていない場合は不正解として2人で行った。2人の判断が異なった場合には3人目が判断して、多数決で正解・不正解を判断する。この方法により評価を行った精度は92.8\%であった。この精度は対応付けそのものとしては必ずしも十分ではないが、次節で述べる言い換え表現抽出では、さらに頻度などに基づく言い換え表現の重み付けなども行っているため、100\%の精度は必須とは言えない。よって、この方法によって得られた対応文のデータによって、言い換え元表現と言い換え先表現抽出の実験を進めることにした。
\section{言い換え表現の抽出}
label{sec:chushutu}\subsection{言い換え抽出の枠組}本節では、\ref{sub:bun-taiou}節で述べた方法で抽出した携帯文とWeb文を用いて、言い換え先表現と言い換え元表現の対を抽出する方法について述べる。例えば、\\\begin{description}\item[携帯文:]コンピュータウィルス感染防止に有力な方法が\underline{判明}。\item[Web文:]コンピュータウィルス感染防止に有力な方法があることが、研究所の調査で\underline{分かった}。\\\end{description}という対応文があったとする。このとき文末に注目すると携帯文では\underline{判明}で終わっているのに対して、Web文では\underline{分かった}で文が終わっている。文の内容から要約の際は\underline{判明}を言い換え先表現に、\underline{分かった}を言い換え元表現に使えることが、人間が見れば容易に判断できる。このような携帯文の文末にある言い換え先表現に対する言い換え元表現をWeb文から自動的に抽出するのは、概略、以下のような方法になる。\\\begin{description}\item[Step:1]\ref{sub:bun-taiou}節で作成された対応文から同じ言い換え先表現を文末に持つ携帯文とWeb文の関連付けする。この詳細は\ref{sub:kouho}節で述べる。\item[Step:2]Step:1で関連付けられたWeb文から言い換え元表現の候補を抽出する。この詳細は\ref{sub:webbunmatsu}節で述べる。\item[Step:3]抽出された言い換え先表現の候補それぞれに対し、語彙の分岐数、出現頻度、文字列長から正しい言い換え元表現が高得点になるような得点付けを行い、順位付けする。この詳細は\ref{sub:junni}節で述べる。\item[Step:4]Step:3の結果に対して、精度の向上を図るため、言い換え元表現として不適切な表現を削除する。この詳細は\ref{sub:filter}節で述べる。\\\end{description}すなわち、この処理では、\textbf{言い換え先である携帯文文末の表現をまず決め、それに対応する複数のWeb文の言い換え元表現を推定する}という問題を解くことになる。\subsection{言い換え先表現および対応するWeb文集合の抽出}\label{sub:kouho}まず言い換え先表現の抽出方法について説明する。言い換え先表現の抽出のために携帯文を形態素解析し、文末にある1形態素を取り出す。これによりサ変接続の名詞であれば「会談」や「表明」といった表現が抽出される。しかし、これだけでは助詞や助動詞、動詞の場合は「も」や「た」、「示す」といった言い換え表現として使用が難しい表現や、意味の範囲が広すぎるために言い換え表現の抽出が困難な表現が抽出されてしまう。その問題はさらに文頭方向にある形態素を続けて抽出することにより解消できる。その結果、「可能性も」や「述べた」、「認識示す」といった言い換え先表現が取り出され、言い換え元表現の抽出も容易になる。次に図\ref{buntaiou}に抽出した言い換え先表現に対する対応文集合を作成する流れを示す。まず図の左側の枠内にあるように、抽出した言い換え先表現に対しその言い換え先表現を文末に持つ携帯文を集める。そして図の右側の枠内にあるように、集めた携帯文に対応するWeb文を集め、それをWeb文集合とする。そのときのWeb文集合の要素数を以下「対応文数」と呼ぶ。\ref{sub:webbunmatsu}節以降で説明する言い換え元表現の抽出は、ここで作成されたWeb文集合の文末から抽出することになる。\begin{figure}[htb]\begin{center}\includegraphics[width=110mm]{img/buntaiou.eps}\caption{言い換え先表現の抽出と対応文集合}\label{buntaiou}\end{center}\end{figure}この方法により、言い換え先表現として4617表現を抽出した。抽出した言い換え先表現のうち頻度が上位30位までの表現を表\ref{kouho_space}に示す。動詞終止形、助詞、形容詞語幹(「高」「安」)、など様々だが、一番多いのはサ変接続名詞であり60\%を占める18個である。文末のサ変名詞はいわゆる体言止めであり、この表にも示されるように頻度が高く、結果として適用される頻度も高いと推測される。\begin{table}[htb]\caption{言い換え先表現の例}\label{kouho_space}\begin{center}\begin{tabular}{|r|r||r|r||r|r|}\hline抽出表現&対応文数&抽出表現&対応文数&抽出表現&対応文数\\\hline\hline高&1780&ている&505&協議&315\\\hline安&1668&判明&422&可能性も&310\\\hline発表&1118&方針&408&要請&292\\\hline逮捕&967&見通し&402&れた&286\\\hline」と&933&ため&399&発言&282\\\hline会談&788&強調&378&指摘&270\\\hline表明&735&合意&341&」&264\\\hline死亡&629&開始&329&確認&261\\\hline決定&538&検討&328&予定&254\\\hlineいた&513&批判&317&みられる&247\\\hline\end{tabular}\end{center}\end{table}ここで頻度が高かった「高」と「安」であるが、これはほぼ全てが経済の記事からであり、「円高」「円安」などが元となっている。さらに対応するWeb文では「円高・ドル安となった」「円安・ドル高となった」という表現が固定的に用いられている。その特殊性から正解となる言い換え元表現が少なく、例を挙げての説明が困難となるため、以下の説明の際は頻度が次に多い「発表」を用いる。\subsection{言い換え元表現候補の抽出}\label{sub:webbunmatsu}\ref{sub:kouho}節で作成されたデータを用い、言い換え先表現に対応する言い換え元表現をWeb文集合の各文の文末から抽出する。言い換え元表現の抽出にはWeb文を形態素解析し、文末から文頭方向に向かって1形態素ずつ増やしながら表現を抽出する。言い換え元表現が含まれる長さとして十分な15形態素までを使用する。ここでは単純に形態素区切りで表現を取り出すため、言い換え元表現に適さない表現も数多く抽出されるが、\ref{sub:junni}節で述べる得点付けや\ref{sub:filter}節で述べるフィルタリングによって排除を試みる。この時点で抽出された言い換え表現の例を表\ref{iikae-chushutu}に示す。\begin{table}[htb]\caption{言い換え先表現が「発表」時の言い換え元表現の候補の例}\label{iikae-chushutu}\begin{center}\begin{tabular}{|r|r|}\hlineた&れた\\\hlineした&された\\\hline発表した&指定された\\\hlineを発表した&が指定された\\\hline結果を発表した&公表された\\\hline調査結果を発表した&から公表された\\\hlineの調査結果を発表した&発表された\\\hline費の調査結果を発表した&日発表された\\\hline医療費の調査結果を発表した&が発表された\\\hline\end{tabular}\end{center}\end{table}\subsection{分岐数、頻度、文字列長に基づく言い換え元候補の順位付け}\label{sub:junni}\ref{sub:webbunmatsu}節で抽出された言い換え元表現には言い換えとして適切な表現と言い換えとして不適切な表現が含まれていることになる。そこで、抽出された表現に対して正解が上位に集中することを目的とした順位付けを行う。順位付けを行うにあたってまず、ある言い換え先表現に対応するWeb文集合において、集合全体としてWeb文の文末が持つ特徴を説明する。図\ref{rev-bunki}にWeb文集合中のWeb文の文末から文頭方向への語の分岐の様子の例を示す。図から前方に向かって形態素が分岐していることが分かる。まず、一番右側にWeb文の一番文末の形態素となる「た」や「する」がくる。さらに1つ前方にある形態素を繋げると「した」や「だった」や「発表する」が抽出できる。例えば、「を発表した」に続く形態素は「結果」「表明」「コメント」など111種類ある。ここで、ある表現から1つ前方の形態素の種類数をその形態素の分岐数と呼ぶ。さらに図\ref{happyo-bunki}に図\ref{rev-bunki}で示した内容の一部分の分岐数と頻度の関係を示した。このグラフからは「発表した」までは分岐数が小さく、「を発表した」で分岐数が大きく、さらに「結果を発表した」となるとまた小さくなることが分かる。これは、(a)固定された表現の内部では部分形態素列を長く与えれば与えるほど、直前あるいは直後の形態素が絞り込まれること、(b)ひとたび固定的な表現が終わると、その前後にはいかなる表現も現れることができるようになること、に対応している。よって分岐数が大きい形態素までの形態素列がよい言い換え元の候補であると考えることができる。さらに良く使われる表現ほどその表現は固定的な言い回しで、言い換え先表現と深くかかわっている可能性が高いと考えられる。\begin{figure}[htb]\begin{center}\includegraphics{img/back.eps}\caption{言い換え先表現が「発表」時のWeb文を文末からみた様子}\label{rev-bunki}\end{center}\end{figure}\begin{figure}[htb]\begin{center}\includegraphics[width=100mm]{img/happyo-bunki.eps}\caption{言い換え先表現が「発表」時のWeb文を文末からみた分岐数と頻度の関係}\label{happyo-bunki}\end{center}\end{figure}以上の特徴を踏まえ、言い換えのよさを示す評価関数の構成要素として以下を用いる。\begin{description}\item[分岐数:]分岐数の大小が言い換え表現句としての切れ目の可能性の大小を表すと考えられるので評価関数の構成要素として用いる。\item[頻度:]良く使われる表現は安定していることを示すので、他の要因と組み合わせて用いることは有益である。\item[文字列長:]ここでいう文字列長は形態素数ではなく文字数である。言い換え元表現は短過ぎるならば言い回しにならず、長過ぎるならば文脈に依存した表現になってしまう。長過ぎもせず、短すぎもせず、適度な長さの表現を抽出したい。そのため評価関数ではlog(文字列長$-$1)を用いる。$\log$により長い文字列に対して得点の抑制を、文字列長$-$1により1〜2文字の表現の排除をする効果がある。さて、長さに形態素数を使うという選択肢もある。しかし、もし形態素数を文字列長の代わりに使うと、十分に長くて意味のある形態素(例えば固有表現)が長さ=1で排除されてしまいかねない。これを避けるために文字数を用いた。\end{description}\noindent上記の各要素を\\$a=$分岐数\\$b=$頻度\\$c=\log($文字列長$-1)$\\\\と定義し、評価関数を$a,b,c,a\timesb,a\timesc,b\timesc,a\timesb\timesc$の7種類を用いて比較実験を行った。対応文数の多かった100位までの言い換え元表現の候補のスコアが1位の表現を人手で評価し、評価関数の違いによる正しい表現の割合を表\ref{score7}に示す。この結果から、評価関数$a\timesb\timesc$を用いた方法が最も精度が高いことがわかる。よって、評価関数$a\timesb\timesc$を用いた得点付けのデータを用いる。\begin{table}[htb]\caption{計算手法の違いによる精度の違い}\label{score7}\begin{center}\begin{tabular}{|r||r|r|r|r|r|r|r|}\hline評価関数&$a$&$b$&$c$&$a\timesb$&$a\timesc$&$b\timesc$&$a\timesb\timesc$\\\hline\hline正解の割合&18\%&5\%&0\%&12\%&46\%&65\%&71\%\\\hline\end{tabular}\end{center}\end{table}さらに言い換え元表現として正しい表現が得点が高くなり、高順位になることを示すために、図\ref{happyo-bunpu}に言い換え先が「発表」の場合に$a\timesb\timesc$の方法で得点付けをした場合の言い換え元の正しい表現の分布グラフを示す。このグラフから、多くの正しい言い換え元表現が高順位に集中していることがわかる。低い順位にいくつか正しい言い換え元表現がきているが、これは表現の頻度が少なかったために得点が低くなったことが原因である。\begin{figure}[htb]\begin{center}\includegraphics[width=100mm]{img/happyo-bunpu.eps}\caption{言い換え先表現が「発表」の場合の正しい表現の分布}\label{happyo-bunpu}\end{center}\end{figure}\subsection{フィルタリングによる不適切な言い換え元表現の削除}\label{sub:filter}言い換え元表現として抽出した表現の中には文の意味として欠落してはならない語を含んでいることがあるため、その語を言い換えによって削除してしまうと意味が通らない文になってしまう可能性がある。このような不適切な言い換え元表現は前節の得点付けによって順位が下位になる場合は採用されないが、収集した記事中でよく使われる表現であれば言い換え元表現として不適切な表現も上位になってしまう。そのような言い換え元表現を削除するためのフィルタリングを行う。そのアルゴリズムは次のようになる。\\\noindent\textbf{フィルタリングアルゴリズム}\\\noindent$n$を言い換え元表現の数とし、言い換え元表現の集合を$\{x_1,x_2,$…$,x_n\}$,言い換え元表現を$x_i=S_{1}S_{2}$…$S_{m}$($S_{k}$は形態素),言い換え先表現を$y$,携帯文を$M_{1}$…$M_{j}\/y$($M_{l}$は形態素,\/$y$は言い換え先表現),$C$を名詞とすると、\\for($i$=1,$n$)\{\\\hspace{2em}if($C\in\{M_{1},$…$,M_{j}\}\wedgeC\in\{S_{1},$…$,S_{m}\}\wedgeC\notiny$)\\\hspace{2em}$then$$x_i$を言い換え元表現集合から除く\\\indent\}\\なぜなら名詞$C$は携帯文に含まれるが、言い換え先表現$y$には含まれない。つまり$C$は携帯文にとって必須の意味を担う。よって$C$を含む言い換え元表現$x_i$を$C$を含まない言い換え先表現$y$に省略することはできない。具体例を図\ref{filter-img}に示す。ここで$C$は「声明」となり、削除対象となる言い換え元表現$x_i$は「声明を発表した」となる。なお、$y$は「発表」である。Web文にも携帯文にも「声明」という語が含まれ、文の内容として必須の語であることがわかる。よって「声明」という意味を削除する「声明を発表した」は「発表」の言い換え元表現として正しくないと考えられるため、言い換え元表現の候補から削除する。\begin{figure}[htb]\begin{center}\includegraphics[width=110mm]{img/filter-img.eps}\caption{フィルタリング処理の具体例}\label{filter-img}\end{center}\end{figure}フィルタリングによって\ref{sub:junni}節で得られたデータがどのように変化するかを表\ref{filter-henka}に示す。表中でアンダーラインが引かれているものがフィルタリングによって削除された表現である。この表から、言い換え元表現として用いるには不適切な表現が削除できていることが分かる。\begin{table}[htb]\caption{フィルタリングによる言い換え元表現の削除の例\\(言い換え先:「発表」)}\label{filter-henka}\begin{center}\begin{tabular}{|r|r|}\hlineを発表した&を明らかにした\\\hlineと発表した&\underline{ことを明らかにした}\\\hline発表した&\underline{たことを明らかにした}\\\hlineすると発表した&\underline{調査結果を発表した}\\\hlineたと発表した&明らかにした\\\hlineしたと発表した&\underline{策を発表した}\\\hline\underline{結果を発表した}&となった\\\hline\underline{声明を発表した}&したことを明らかにした\\\hline\underline{計画を発表した}&\underline{する声明を発表した}\\\hline\end{tabular}\end{center}\end{table}
\section{抽出された言い換え元表現の評価}
label{sec:hyouka}提案した手法で抽出した言い換えの全体に対しての数量的評価を\ref{subsec:suuryou}節で述べる。\ref{subsec:rei}節では抽出した言い換えの典型例についての考察を行う。\subsection{数量的評価}\label{subsec:suuryou}まず言い換え元表現と言い換え先表現の長さについて述べる。\ref{sub:kouho}節で述べた方法で抽出した言い換え先表現4617個を対象にしたときの言い換え先表現の平均文字数は2.6文字、標準偏差は1.1で、正しい言い換え元表現の平均文字列長は5.7文字、標準偏差は3.2であった。さらに言い換え表現先と言い換え元表現の文字列長の差の平均は3.0文字で標準偏差は2.2であった。また、表\ref{hyougen-rei}に言い換え先表現の品詞ごとに抽出例をあげる。「ている」や「している」といった言い換え元表現として用いることができない表現が出現しているが、この様な表現を削除することは今後の課題である。\begin{table}[htb]\caption{言い換え元表現の抽出例}\label{hyougen-rei}\begin{center}\begin{tabular}{|r|r|r|r|}\hline会談(名詞)&可能性も(助詞)&と語る(動詞)&述べた(助動詞)\\\hline\hlineと会談した&ている&を示した&と述べた\\\hline会談した&可能性がある&と語った&述べた\\\hlineで会談した&可能性もある&と述べた&を示した\\\hlineについて意見交換した&している&語った&を述べた\\\hlineと相次いで会談した&可能性が出てきた&考えを示した&を明らかにした\\\hline\end{tabular}\end{center}\end{table}次に言い換え元表現の抽出精度について示す。まず精度の評価方法について説明する。精度は人手により評価を行っている。3人が言い換え元表現について、新聞記事のニュースであることは勘案せずに正否を判定し、2名以上が正しいと判断した場合を正解、それ以外は不正解としている。なお、グラフはそのままのデータでは見難いため10〜50件で平均をとって表示している。図\ref{1-all}は全品詞を対応文数の多い順に並べ、それぞれの言い換え元表現の得点付け順位が1位になった表現について人手で評価を行ったものである。なお、全体の傾向を把握するために、縦軸の精度を対数とした場合のデータへの当てはめ近似曲線を実線で示した。図\ref{hikaku-all}には\ref{sub:filter}節で行ったフィルタリングの有効性についての評価を示す。図\ref{hikaku-all}は全品詞でフィルタリング前後の精度の対数曲線での近似のみを示したものである。全体では精度が12\%向上し、特に対応文数が少ない部分ではかなりの精度向上が見られる。\begin{figure}[htbp]\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-all.eps}\end{center}\caption{全品詞のフィルタリング前の精度}\label{1-all}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/hikaku-all.eps}\end{center}\caption{全品詞のフィルタリング前後の精度の比較}\label{hikaku-all}\end{minipage}\end{figure}上記評価方法とは別に以下に述べる評価方法を用いた場合におけるフィルタリング前後の評価を図\ref{1-3-all}から図\ref{1-3-filter-jodoushi}に示す。この評価方法は各言い換え先表現のWeb文集合における対応文数が10件になるまでの部分で、言い換え元表現の得点付けによる順位が3位までの正否を判定し、全品詞を対象にした場合、名詞、助詞、動詞、助動詞を別々に対象にした場合について、その平均をとったものである。この図からは、フィルタリングが品詞にかかわらず精度の向上に効果があることがわかる。対応文数が10件までということもあり比較的正解となる言い換え元表現が抽出されているため前の全品詞の得点付けが1位の場合のデータ程ではないが、フィルタリングにより全品詞において4\%程度の精度が向上がみられる。今回用いた言い換え元表現の抽出方法では携帯文の文末にくる表現とWeb文の文末にくる表現が同一内容である必要がある。携帯文の文末が名詞の場合は、抽出した言い換え先表現と言い換え元表現が同一内容の表現がくることが多いため図\ref{1-3-filter-meishi}のように高い精度を得られたが、携帯文の文末が助詞や助動詞の場合では言い換え先表現と同一内容の抽出すべき言い換え元表現は文末よりかなり前にあることが多いという特徴がある。そのため、図\ref{1-3-filter-joshi}や図\ref{1-3-filter-jodoushi}のようにどのような順位でも精度が低いという結果が得られた。この問題の解決は今後の課題となる。\begin{figure}[htbp]\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-3-all.eps}\end{center}\caption{全品詞のフィルタリング前の精度}\label{1-3-all}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-3-filter-all.eps}\end{center}\caption{全品詞のフィルタリング後の精度}\label{1-3-filter-all}\end{minipage}\end{figure}\begin{figure}[htbp]\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-3-meishi.eps}\end{center}\caption{名詞のフィルタリング前の精度}\label{1-3-meishi}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-3-filter-meishi.eps}\end{center}\caption{名詞のフィルタリング後の精度}\label{1-3-filter-meishi}\end{minipage}\end{figure}\begin{figure}[htbp]\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-3-joshi.eps}\end{center}\caption{助詞のフィルタリング前の精度}\label{1-3-joshi}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-3-filter-joshi.eps}\end{center}\caption{助詞のフィルタリング後の精度}\label{1-3-filter-joshi}\end{minipage}\end{figure}\begin{figure}[htbp]\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-3-doushi.eps}\end{center}\caption{動詞のフィルタリング前の精度}\label{1-3-doushi}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-3-filter-doushi.eps}\end{center}\caption{動詞のフィルタリング後の精度}\label{1-3-filter-doushi}\end{minipage}\end{figure}\begin{figure}[htbp]\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-3-jodoushi.eps}\end{center}\caption{助動詞のフィルタリング前の精度}\label{1-3-jodoushi}\end{minipage}\begin{minipage}{0.5\hsize}\begin{center}\includegraphics[width=70mm]{img/1-3-filter-jodoushi.eps}\end{center}\caption{助動詞のフィルタリング後の精度}\label{1-3-filter-jodoushi}\end{minipage}\end{figure}最後に「精度」と「対応文数」の関係について図\ref{hindo-seido}に示す。用いるデータは図\ref{1-all}と同じ全品詞を対応文数の多い順に並べ、それぞれの言い換え元表現の得点付け順位が1位になった表現について人手で評価したものである。この図からは、言い換え先表現に対する対応文数が少ないと精度が低く、対応文数が増えるにつれ対数関数的に精度が向上していくことが分かる。つまり、この手法で正解となる表現のより高い抽出精度を求めるならば、精度は対応文数に対し指数関数的な数のコーパスを集めなければならないということであり、これには相当な困難が伴う。よって、今後は構文構造や意味内容を利用する精密な手法を用いることによる言い換え表現抽出を行う必要がある。\begin{figure}[htbp]\begin{center}\includegraphics[width=70mm]{img/hindo-seido2.eps}\end{center}\caption{対応文数と精度の関連}\label{hindo-seido}\end{figure}\subsection{言い換え例についての考察}\label{subsec:rei}言い換え先表現の各々に対応する言い換え先表現についての言語学的考察は興味深いものである。しかし、\ref{sub:kouho}節で述べた方法で抽出した言い換え先表現4617個全体を対象にすると、各言い換え先表現に対して多い場合は100種以上、少ない場合でも10種近い言い換え元表現が抽出されているため膨大な労力が必要である。よって相当に長期にわたる研究が必要であるので、別の機会に譲りたい。しかし、典型的な例について言語学的な考察をしておくことは、抽出された言い換え先、言い換え元の性質を窺う上で意味がある。よって、この節では、抽出した全言い換えのうちの相当数を観察した結果、筆者が得た典型的な言い換えパターンについての例示と考察を行うことにする。なお、以下の例では「言い換え先表現$\leftarrow$言い換え元表現(言い換え先表現に対する表\ref{score7}の$a\timesb\timesc$による順位)」という形式で言い換えを記述する。\subsubsection*{(1)文末用言の省略による体言止め、など}以下に例を示す。\\\begin{tabular}{llcl}(1-a)&発表&$\leftarrow$&発表した(3位)\\(1-b)&見通し&$\leftarrow$&見通しだ(1位)\\(1-c)&見通し&$\leftarrow$&見通しを明らかにした(6位)\\(1-d)&見通し&$\leftarrow$&見通しを示した(17位)\\(1-e)&高&$\leftarrow$&高で取引を終了した(18位)\\(1-f)&事故&$\leftarrow$&事故となった(3位)\\\end{tabular}\\文末用言の省略の結果、体言止めになる場合では、(1-a)に見られる「した」(=「する」の過去形)を省略してサ変名詞のみを残して体言止めにする場合が多い。(1-b)の場合は「である」の言い切りの形である「だ」の省略だが、これも同じようなタイプである。(1-c)(1-d)は形式的用言である「する」や「だ」のような機能語的な用言の省略ではなく、内容語を伴う用言句「明らかにした」「示した」の省略である。これは形式的には導けない言い換えであり、今回のようなコーパスからの抽出データを用いて明らかになった言い換えである。ニュースの文の言い換えとしては普遍性を持つと予想できるが、その適用範囲についてはより深い考察を必要とする。(1-e)はニュース特有の言い換えで、株価や為替レートについての報告となる。これは、株価、為替などの分野でしか成立しない言い換えである。(1-f)はサ変ではない名詞「事故」の場合である。この場合はこの例に見られる「となる」のほかに「になる」などいくつかの典型的用言が省略候補になると予想されるが、それを網羅的に調べることは大規模データを用いての実験となるため今後の課題である。文末の用言句が省略されても体言止めになるとは限らない。例えば次のような例がある。\\\begin{tabular}{llcl}(1-g)&盗まれる&$\leftarrow$&が盗まれていた(1位)\\(1-i)&盗まれる&$\leftarrow$&が盗まれていたことが分かった(2位)\end{tabular}\\(1-g)は「いた」という完了を表す動詞接尾辞の省略であり、これは文法的には大きな変化だが、大方の意味は保存されている。(1-i)は「いたことが分かった」という部分の省略である。この部分は「こと」で体言化し、それによって客観化(言語学的には命題化)を行った後、記者ないし記者が直接取材した人の判断である「分かった」が連接している。文を日本語学で使われる$\mbox{命題}+\mbox{モダリティ}$という構造で捉えると、命題の部分だけを単独で取り出すという言い換えである。ニュース記事が少ない文字数で事実、すなわち言語学的には命題、を伝えるものと考えれば、その言い換えの構造は理解しやすいものであろうし、ニュース記事の言い換えとしては普遍性を持つ。この問題については、後に助詞止めのところでもう一度議論する。\subsubsection*{(2)引用の「」と」の言い換え}文末用言の省略の結果、体言止めになる場合は、引用を表す「」と」で終わる例が多数観察された。以下に例を示す。\\\begin{tabular}{llcl}(2-a)&」と&$\leftarrow$&と述べた(1位)\\(2-b)&」と&$\leftarrow$&との認識を示した(3位)\\(2-c)&」と&$\leftarrow$&と語った(4位)\\(2-d)&」と&$\leftarrow$&と報じた(34位)\\(2-e)&」と&$\leftarrow$&という(8位)\end{tabular}\\引用や報告を表すこれらの言い換えが組織的に抽出できたことは、本論文で説明したコーパスの効果である。ただし、(2-e)の「という」は今日では実際上「と言う」ではなく固定した表現のように扱われることが多く、必ずしも「いう」の省略でなく、語彙的な言い換えとみなすべきかもしれない。これらはニュース記事であれば正しい縮約と考えられるが、(2-a)から(2-d)については、もう少し深い言語学的考察を(5)で述べる。\subsubsection*{(3)助詞の省略など文法構造上の言い換え}文末用言に加え、用言の左方の助詞を省略する場合もある。以下に例を示す。\\\begin{tabular}{llcl}(3-a)&発表&$\leftarrow$&を発表した(1位)\\(3-b)&発表&$\leftarrow$&に発表した(7位)\end{tabular}\\用言の直前の助詞を省略した場合もある。具体的には(3-a)だと「移転計画を発表した」を「移転計画発表」、(3-b)だと「午後に発表した」を「午後発表」という言い換えになる。しかし、この言い換えは不自然な言い換えになることがある。例えば。「XX誌に発表した」を「XX誌発表」というのは不自然である。このような例は正解としなかった。さらに\\\begin{tabular}{llcl}(3-c)&発表&$\leftarrow$&と発表した(2位)\end{tabular}\\という「と」を省略する場合は特に不自然さが大きい。例えば、「移転すると発表した」を言い換えた「移転する発表」は非文である。ただし、「移転計画と発表した」を「移転計画発表」とする言い換えは若干不自然な程度である。現象的にはかなり複雑だけに、厳密な言語学的分析は今後の研究を待たなければならない。\subsubsection*{(4)意味の類似した語彙ないし言い回しでの言い換え}言い換えの研究でしばしば対象になるものに語彙的な言い換えがある。この範疇に入る言い換えとしては、まず同じ意味を持つ単語への言い換えがある。次に用言の言い換えの例を示す。ただしこの例では、一つの言い換え先「発表」に対する複数の言い換え元をまとめて$\leftarrow$の右側に「、」で区切って示す。\\\begin{tabular}{llcl}(4-a)&発表&$\leftarrow$&公表した(10位)、分かった(16位)、まとめた(24位)、\\&&&示した(43位)、述べた(58位)、表明した(60位)\\\end{tabular}\\このような同じ意味を持つ表現がコーパスから機械的に得られ、本提案の言い換え抽出の有効性を示している。しかし、このような言い換えは多数得られているわけではない。というのは、文末に使われる用言の種類は相当に限定されているからである。上記のような同義あるいは類義の用言を網羅的に求めるためには、文末以外の部分からの言い換え抽出が必要であるが、これは本論文の範囲を超える研究テーマである。また、サ変名詞以外の体言は、そもそも文末に出現することが少なく、ほとんど言い換えは得られていない。本研究の方法論的限界といえる。一方、ニュース記事の言い換えという点で特徴的な例を示そう。(1-e)の例で示した株価、為替のニュースに現れる「高」あるいは「安」であるが、以下のような言い換え元表現が求まっている。\\\begin{tabular}{llcl}(4-b)&高&$\leftarrow$&高で取引を終了した(18位)\\(4-c)&高&$\leftarrow$&で取引を終えた(2位)\\(4-d)&高&$\leftarrow$&高・ドル安となった(5位)\\(4-e)&高&$\leftarrow$&高の8424円51銭で取引を終えた(43位)\\(4-f)&高&$\leftarrow$&反発して取引を終えた(24位)\\(4-g)&高&$\leftarrow$&続伸して取引を終えた(25位)\\(4-h)&安&$\leftarrow$&安・ドル高となった(7位)\\(4-i)&安&$\leftarrow$&割り込んで取引を終えた(34位)\\(4-j)&安&$\leftarrow$&反落して取引を終えた(43位)\end{tabular}\\(4-b)は言い換え元の「で取引を終了した」が省略されているが、これを省略してもよいのは、為替、株価のニュースという背景が読み手にも分かっているからである。(4-c)は、言い換え元が「高で取引を終えた」か「安で取引を終えた」であるのかという情報を無視して「高」とするため誤った言い換えである。このような言い換えも候補に出てきてしまうのが、提案手法の限界である。(4-d)は興味深い。原文では「円高・ドル安となった」なのだが「円高・ドル安」が為替としては同じ情報の繰り返しであるが慣用化している。ところが、短縮すると「円高」にだけ焦点を当て、「高」と言い換えられる。これは、「円」を通常使用する日本人を対象にした文章だからであろう。(4-h)の「円安・ドル高」についての言い換えも同様である。このように言い換えは、前後の文章という狭義の文脈だけではなく、文化、国家などを含んで考えなければならないため、扱いが難しいことがわかる。(4-e)は、言い換え元では「XX円YY銭高の8424円51銭で取引を終えた」という構造なので(4-e)で言い換えれば「XX円YY銭高」となり新聞記事としては許容できるが、明らかに情報は欠落している。よって、一般的な言い換えとしては不適切である。今後、言い換え先、元ともに数値まで含めた言い換え抽出の方法を検討する必要があることが分かった。(4-f)、(4-g)、(4-i)、(4-j)は、深い意味解釈をした上での言い換えである。このような言い換えが抽出できたのは、ここで使っている携帯記事とWeb記事のコーパスが言い換え対象以外の部分を用いて対応付けされていること、対象の言い換えを文末に限定したことの2点によって、抽出が可能になったと考えられる。しかし、これらもまた新聞記事ニュースでだけ成立する言い換えである。上記の「高」「安」は典型的な意味的言い換えが行われていたが、それ以外でも、内容を解釈した上で言い換える例がある。例えば次のようなものである。\\\begin{tabular}{llcl}(4-k)&事故&$\leftarrow$&行方不明になっている(17位)\\(4-l)&事故&$\leftarrow$&で止まっていた大型トレーラーに追突(28位)\\(4-m)&盗まれる&$\leftarrow$&窃盗事件として捜査を始めた(92位)\end{tabular}\\このような言い換えも普遍的に正しいものではないが、高い圧縮率の要約とみなすことはできる。実際、抽出された言い換え元表現のうち、この例のような長めの表現のうち正しいと判断できるものは、相当な情報の損失を伴う高い圧縮率の要約という性格を持つ。\subsubsection*{(5)助詞止め}言い換え先が「焦点に」のような助詞止めの場合は、言語的には複雑である。まず典型的な例を示そう。「」と」についての要約は既に一部述べたが、言い換え元表現に存在した認識や引用という記者あるいは記者が直接取材した人の持った事実認識を表すモダリティの表現が省略されたものが多い。この言い換えは新聞ニュース記事であれば成立する言い換えである。以下はそのような例である。「認識を示した」「報じた」は少々長い表現であるが、判断や伝聞のモダリティを表すと考えられる。\\\begin{tabular}{llcl}(5-a)&」と&$\leftarrow$&との認識を示した(3位)\\(5-b)&」と&$\leftarrow$&と報じた(34位)\end{tabular}\\一方、記者らの事実認識を示すモダリティではなく、記者の取材した事実関係そのものの中で、登場人物が行った言語行動を省略した以下のような例もある。\\\begin{tabular}{llcl}(5-c)&」と&$\leftarrow$&を言い渡した(10位)\\(5-d)&」と&$\leftarrow$&求めた(21位)\\(5-e)&」と&$\leftarrow$&をけん制した(39位)\end{tabular}\\これらは引用符の前に書かれた内容から、「言い渡す」「求める」「けん制する」という言語行動が十分に予想できるからこその省略である。その意味では普遍性のある言い換えではない。\\\begin{tabular}{llcl}(5-f)&会談へ&$\leftarrow$&と会談することが決まった(4位)\\(5-g)&焦点に&$\leftarrow$&焦点となる(1位)\end{tabular}\\これらの例は、「へ」や「に」のような方向性を表す助詞は、確定的になった将来の事柄を表す例である。より詳しく調査分析すれば、言語学的には興味深い観察が得られるが、この論文の範囲を越える研究テーマと考える。さて、終助詞「か」は元来が疑問などのモダリティを意味するだけに言い換え元に興味深いものが多い。\\\begin{tabular}{llcl}(5-h)&狙いか&$\leftarrow$&狙いがあるとみられる(2位)\\(5-i)&原因か&$\leftarrow$&が原因とみられる(2位)\\(5-j)&犯行か&$\leftarrow$&の犯行とみている(3位)\end{tabular}\\(5-h)と(5-i)は言い換え元表現に記者自身の判断が記載されているが、それが「か」という終助詞に凝縮していると考えられる。また、(5-j)は、言い換え元表現において記者ではなく警察などの判断を表している。しかし、警察の判断まで含めたモダリティも「犯行」という事実があれば、「か」という終助詞に凝縮することができることを示している。よって、これらの言い換えもまたニュースであることに依存して成立するタイプであるといえよう。このような、命題にモダリティが後接する日本語の基本構造に基づく助詞への言い換えは、言語学の課題としては興味深いし、大きなテーマであるが、詳細に踏み込むことは、この論文の範囲を越えると考える。以上、本論文で述べた携帯記事とWeb記事の対応付けコーパスを用いて抽出された言い換え先と言い換え元表現のうち筆者が典型例と考えるものについて若干の分析を試みてきた。しかし、この分析自体は、大きなテーマであり、本格的な分析は、本論文で述べたような言い換え抽出結果を用いて言語学的に精密に行うことが望まれる。さらに、ここまで述べてきた分析において問題になったのは、言い換えが新聞記事ニュースとしてなら許容されるが、一般的ではないという場合が多数抽出されたことである。このような場合は、既に述べたように、言い換えよりは、要約あるいは縮約という性質を持つ。要約や縮約の正しさは、informative、indicativeの区別に見られるように、目的依存性があるため、正解の決め方が難しい。この論文では、普遍性のある言い換えを正解と考えているが、要約あるいは縮約としての評価も必要であることが明らかになってきている。しかし、そのことは大きな研究テーマであるため、今後の課題としたい。
\section{おわりに}
本論文では携帯端末向け新聞記事とWeb新聞記事の対応付けコーパスから文末表現に関する言い換え表現の抽出方法を示した。まず、記事対応になっているデータから文単位での対応付けを行った。そしてそこから言い換え元表現の抽出を形態素単位で行い、それに対して分岐数、頻度、文字列長による得点付けし、さらに言い換え表現を要約に適用した時に必要な意味が削除されることを防ぐためのフィルタリングを行うことにより言い換え表現抽出の精度向上を行った。今回作成した携帯端末向け新聞記事とWeb新聞記事の対応付けコーパスを用いることを想定すると、以下のような課題が残っている。\subsubsection*{(1)抽出された言い換え表現を用いた文縮約を試みることおよびその評価}言い換え元表現と言い換え先表現の組から機械的に言い換えを生成することができる。文字列の単純マッチングを用いて、「〜を明らかにした。」を「〜表明。」へ、「〜を決めた。」を「〜決定。」へと言い換えることができる。実際、我々はこのようなシステムを試作したが、この方法から分かるように予測された結果以上のものは得られない。したがって、抽出した言い換えを言語的に分析して一般化したルールを作成することができれば、「を$M($名詞サ変接続)する方針。$=>M$へ。」というルールで、「〜審議経過を開示する方針。」を「〜審議経過開示へ。」という適用範囲の広い言い換えが可能になると予想される。しかし、言語的分析は、人間が行うにしても、機械学習を利用するにしても、それ自体が大きなテーマであるため、今後の課題としたい。\subsubsection*{(2)名詞以外での言い換え表現の精度の向上}\subsubsection*{(3)精度向上を目的としたフィルタリング規則の追加}\subsubsection*{(4)文末以外に現れる表現の言い換え抽出の検討}通常、言い換え抽出においては、\cite{inui02}で述べられ、また本論文第\ref{sec:hajime}節でも述べたように、言い換え候補をコーパスから網羅性良く抽出することが大きな課題である。提案手法の場合は、携帯端末向け新聞記事とWeb新聞記事の対応付けコーパス双方の文末表現に限定したことによって、この問題を回避した。しかし、文末以外に現れる表現の言い換えを抽出しようとした場合は、たちどころにこの網羅性の良い言い換え候補抽出を解決しなければならない。これに関しては多くの研究成果があるが、文末言い換えに限定して機能する本論文での提案とは根本的に異なる方法論が必要となる。したがって、本論文で紹介したコーパスを用いるにしても、新たな研究テーマとして検討する必要があるため、将来的な研究課題となる。\\\acknowledgment本研究の初期の段階で尽力いただいた佐藤大君(東京電機大学大学院、現在、富士電機情報サービス株式会社勤務)に深く感謝いたします。なお、本研究の一部は、科学研究費補助金特定領域研究「情報学」、課題番号16016215の補助を受けて行われました。\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Brazilay\BBA\McKeown}{Brazilay\BBA\McKeown}{2001}]{braz01}Brazilay,R.\BBACOMMA\\BBA\McKeown,K.\BBOP2001\BBCP.\newblock\BBOQExtractingparaphrasesfromaparallelcorpus\BBCQ\\newblock{\BemProceedingsofACL-EACL2001},50--57.\bibitem[\protect\BCAY{Inui\BBA\Hermjakob}{Inui\BBA\Hermjakob}{2003}]{acl03}Inui,K.\BBACOMMA\\BBA\Hermjakob,U.\BEDS\\BBOP2003\BBCP.\newblock{\BemProceedingsoftheSecondInternationalWorkhoponParaphrasing}.ACL2003.\bibitem[\protect\BCAY{Inui,Fujita,Takahashi,Iida,\BBA\Iwakura}{Inuiet~al.}{2003}]{inui-acl03}Inui,K.,Fujita,A.,Takahashi,T.,Iida,R.,\BBA\Iwakura,T.\BBOP2003\BBCP.\newblock\BBOQTextSimplificationforReadingAssistance:AProjectNote\BBCQ\\newblock{\BemProceedingsofTheSecondInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications,WorkshopofACL03},9--16.\bibitem[\protect\BCAY{Kanayama}{Kanayama}{2003}]{kanayama03}Kanayama,H.\BBOP2003\BBCP.\newblock\BBOQParaphrasingRulesforAutomaticEvaluationofTranslationintoJapanese\BBCQ\\newblock{\BemProceedingsofTheSecondInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications,WorkshopofACL03},88--93.\bibitem[\protect\BCAY{Mani}{Mani}{2001}]{mani01}Mani,I.\BBOP2001\BBCP.\newblock\BBOQAutomaticSummarization\BBCQ\\newblock{\BemJohnBenjamins}.\bibitem[\protect\BCAY{Murata\BBA\Isahara}{Murata\BBA\Isahara}{2001}]{murata01}Murata,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2001\BBCP.\newblock\BBOQUniversalmodelforparaphrasing-usingtransformationbasedonadefinedcriteria\BBCQ\\newblock{\BemProceedingsofWorkshoponAutomaticParaphrasing:TheoriesandApplications,NLPRS2001},47--54.\bibitem[\protect\BCAY{Rinaldi,Dowdall,Kaljurand,Hess,\BBA\Molla}{Rinaldiet~al.}{2003}]{Fabio03}Rinaldi,F.,Dowdall,J.,Kaljurand,K.,Hess,M.,\BBA\Molla,D.\BBOP2003\BBCP.\newblock\BBOQExploitingParaphrasesinaQuestionAnsweringSystem\BBCQ\\newblock{\BemProceedingsofTheSecondInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications,WorkshopofACL03},25--32.\bibitem[\protect\BCAY{Shinyama\BBA\Sekine}{Shinyama\BBA\Sekine}{2003}]{Shinyama03}Shinyama,Y.\BBACOMMA\\BBA\Sekine,S.\BBOP2003\BBCP.\newblock\BBOQParaphraseAcquistionforInformationExtraction\BBCQ\\newblock{\BemProceedingsofTheSecondInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications,WorkshopofACL03},65--71.\bibitem[\protect\BCAY{Terada\BBA\Tokunaga}{Terada\BBA\Tokunaga}{2001}]{terada01}Terada,T.\BBACOMMA\\BBA\Tokunaga,T.\BBOP2001\BBCP.\newblock\BBOQAutomaticdisabbreviationbyusingcontextinformation\BBCQ\\newblock{\BemProceedingsofWorkshoponAutomaticParaphrasing:TheoriesandApplications,NLPRS2001},21--28.\bibitem[\protect\BCAY{Torisawa}{Torisawa}{2001}]{torisawa01}Torisawa,K.\BBOP2001\BBCP.\newblock\BBOQAnearlyunsupervisedlearningmethodforautomaticparaphrasingofJapanesenounphrases\BBCQ\\newblock{\BemProceedingsofWorkshoponAutomaticParaphrasing:TheoriesandApplications,NLPRS2001},63--72.\bibitem[\protect\BCAY{Yamamoto}{Yamamoto}{2002}]{yamamoto02}Yamamoto,K.\BBOP2002\BBCP.\newblock\BBOQAcquisitionofLexicalParaphrasesfromTexts\BBCQ\\newblock{\BemProceedingsofComputerm2WorkshopofCOLING2002},22--28.\bibitem[\protect\BCAY{安藤彰男今井亨ほか}{安藤彰男\JBA今井亨ほか}{2001}]{ando01}安藤彰男\BBACOMMA\今井亨ほか\BBOP2001\BBCP.\newblock\JBOQ音声認識を利用した放送用ニュース字幕制作システム\JBCQ\\newblock\Jem{電子情報通信学会論文誌},\Bbf{84-D-II},877--887.\bibitem[\protect\BCAY{乾健太郎}{乾健太郎}{2002}]{inui02}乾健太郎\BBOP2002\BBCP.\newblock\JBOQ言語表現を言い換える技術\JBCQ\\newblock\Jem{言語処理学会第8回年次大会チュートリアル},1--22.\bibitem[\protect\BCAY{関根聡}{関根聡}{2001}]{sekine01}関根聡\BBOP2001\BBCP.\newblock\JBOQ複数の新聞を使用した言い換え表現の自動抽出\JBCQ\\newblock\Jem{言語処理学会第7回大会ワークショップ「言い換え/パラフレーズの自動化」}.\bibitem[\protect\BCAY{佐藤大,岩越守孝,増田英孝,中川裕志}{佐藤大\Jetal}{2004}]{sato04}佐藤大,岩越守孝,増田英孝,中川裕志\BBOP2004\BBCP.\newblock\JBOQWebと携帯端末向けの新聞記事の対応コーパスからの言い換え抽出\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会},\Bbf{159},193--200.\bibitem[\protect\BCAY{松本裕治,北内啓,平野善隆,松田寛}{松本裕治\Jetal}{2002}]{chasen}松本裕治,北内啓,平野善隆,松田寛\BBOP2002\BBCP.\newblock\JBOQ形態素解析システム「茶筌」version2.2.9使用説明書\JBCQ\\newblock\Jem{奈良先端科学技術大学院大学松本研究室}.\bibitem[\protect\BCAY{大森岳史,増田英孝,中川裕志}{大森岳史\Jetal}{2003}]{oomori03}大森岳史,増田英孝,中川裕志\BBOP2003\BBCP.\newblock\JBOQWeb新聞記事の要約とその携帯端末向け記事による評価\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会},\Bbf{153},1--8.\bibitem[\protect\BCAY{鍛冶伸裕,川原大輔,黒橋禎夫,佐藤理史}{鍛冶伸裕\Jetal}{2003}]{kaji03}鍛冶伸裕,川原大輔,黒橋禎夫,佐藤理史\BBOP2003\BBCP.\newblock\JBOQ格フレームに基づく用言の言い換え\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(4),64--81.\bibitem[\protect\BCAY{藤田篤,乾健太郎,乾裕子}{藤田篤\Jetal}{2000}]{fujita00}藤田篤,乾健太郎,乾裕子\BBOP2000\BBCP.\newblock\JBOQ名詞言い換えコーパスの作成環境\JBCQ\\newblock\Jem{電子情報通信学会思考と言語研究会予稿集},53--60.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{岩越守孝}{2003年東京電機大学工学部電気工学科卒業.2005年同大学院工学研究科情報通信工学専攻修士課程修了.現在、キヤノン株式会社に勤務.本論文は在学中の成果をまとめたものである.}\bioauthor{増田英孝}{1995年東京電機大学大学院博士後期課程修了.博士(工学).東京電機大学工学部助手,講師を経て,同助教授.Web情報検索、Webマイニングなどの研究に従事.}\bioauthor{中川裕志}{1975年東京大学工学部卒業.1980年同大学院博士課程修了.工学博士.横浜国立大学工学部講師,助教授,教授を経て,1999年より東京大学情報基盤センター教授.言語処理学会長(2004.6-現在),ACLExecutiveCommittee(2002-2004).計算言語学、Webテキストマイニング、情報検索、情報抽出などの研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V08N02-01 | \section{はじめに}
本論文では日本語単語分割を分類問題とみなし,決定リストを利用してその問題を解く.このアプローチは文字ベースの手法の一種となり,未知語の問題を受けないという長所がある.また分類問題ととらえることで,ブースティングの手法が適用できる.その結果,単独の決定リストを利用するよりも,さらに精度を向上させることができる.日本語形態素解析は,日本語情報処理において必須の要素技術であり,その重要性は明らかである.日本語形態素解析は単語分割と分割された単語への品詞付与という2つのタスクをもつ.正しい単語分割からは英語の品詞タガーなどの技術を利用して,高精度に品詞付与ができるために,日本語形態素解析の本質的に困難な部分は単語分割である.特に未知語の問題が深刻である.未知語の問題とは,辞書に登録されていない単語の出現によりその単語とその単語の前後での単語分割が誤るという問題である.未知語の問題に対処する一つの方法として,文字ベースの単語分割手法がある.文字ベースの手法とは,辞書を使わずに,各文字間に単語境界が存在するかどうかを判定することで単語分割を行う手法である.従来,文字ベースの手法としては,文字ベースのHMM(HiddenMarkovModel)が提案されている.文字ベースのHMMは,状態として文字間に単語境界が存在する(状態1)としない(状態0)の2つを設定し,状態間を遷移するときに各文字が出力されるモデルである.単語分割は遷移した状態列を推定することで行える.文字ベースのHMMでは状態aから状態bに移るときに文字cを出力する確率を訓練データから得る.本質的にこの確率の精度が単語分割の精度を左右する.通常その確率を計算するためにtri-gramモデルを利用するが,常識的に考えても,前2文字から次の文字を予測することは難しく,文字ベースのHMM単独ではそれほどの精度は期待できない.このため,様々な工夫を付加する必要がある\cite{yamamoto97,tsuji97,oda98}.本論文では単語分割をHMMによりモデル化して解くのではなく,分類問題として定式化して解く.先ほども述べたように,日本語単語分割は,各文字間に単語境界が存在する(クラス\(+1\))か存在しない(クラス\(-1\))かを判定する問題であり,これは分類問題に他ならない.分類問題を解くために設定する属性として,辞書情報を使わないことで,文字ベースの単語分割手法と同様未知語の問題を受けない.また分類問題として見なすことで,n-gramモデルでは利用の困難であった様々な属性を判定の材料として利用可能になる.さらに,分類問題は機械学習や統計学で活発に研究されている問題であり,それらの研究成果を直接利用することができる.本論文では単語分割を分類問題と見なし,分類問題に対する帰納学習手法の一つである決定リスト\cite{Yarowsky1}を用いて,その問題を解く.さらに,近年,機械学習の研究分野では弱学習器を組み合わせて強学習器をつくるブースティングの研究が盛んである.ここではその代表的な手法であるアダブースト\cite{adaboost}を本問題に対して適用する.実験では,タグつきのコーパスである京大コーパス(約4万文)を訓練データとして,決定リストを作成した.その決定リストを利用した単語分割は,同じデータから学習させた文字tri-gramモデルに基づく単語分割法(文字ベースのHMMの一種)よりも高い精度を示した.さらに,アダブーストを利用することで,単独の決定リストよりも高い精度を得ることができた.また本手法の未知語の検出率が高いことも確認した.
\section{決定リストによる単語分割}
\subsection{単語分割と分類問題}\(n\)文字からなる入力文を\(s=c_1c_2\cdotsc_n\)(各\(c_i\)は文字を表す)とすると,日本語単語分割は文字\(c_{i}\)と\(c_{i+1}\)の間(\(b_{i}\)と名付ける)に単語境界がある(\(+1\))かない(\(-1\))かを与えることによって行える。つまり\(b_{i}\)(\(i=1,2,\cdots,n-1\))に\(+1\)か\(-1\)を与える分類問題としてとらえられる.例えば,「太郎は海でアイスクリームを食べた。」という文に対しては,\mbox{図\ref{zu1}}のように各文字間にクラス\(+1\)あるいは\(-1\)を付与し,\(+1\)の部分を単語境界に置き換えることにより単語分割が行える.\begin{figure*}[htbp]\begin{center}\atari(116.3,42.2)\end{center}\caption{クラスの付与による単語分割}\ecaption{Wordsegmentationbyclassassignment}\label{zu1}\end{figure*}分類問題を解く手法は様々なものがある.どの手法が優れているかは問題に依存するために一概には言えない.本論文では決定リストを利用して上記の分類問題を解く.\subsection{決定リストの構築}決定リストは帰納学習手法の一種であり,正解付きの訓練データから,分類規則を学習する.決定リストの場合,分類規則は証拠とクラスの組の順序付きの表となる.ここで証拠とは属性とその属性の値の組である.実際の分類はリストの上位のものから順に,その証拠があるかどうかを調べ,その証拠があれば,それに対応するクラスを出力する.決定リストの作成は概ね以下の手順による.\begin{description}\item[step1]属性を設定する.例えば\(n\)個の属性を\(att_{1},att_{2},\cdots,att_{n}\)とする。\item[step2]訓練データから証拠とクラスの組の頻度を調べる.訓練データ中のあるデータの属性\(att\)の値が\(a\)であるとし,そのデータのクラスが\(C\)だとする.その場合,\((att,a)\)という証拠とクラス\(C\)の組\(((att,a),C)\)の頻度に1を足す.これを訓練データ中の全データに対する全属性について行う.\item[step3]証拠の判別力と分類クラスを導く.\(((att,a),C)\)の頻度が\(f_{C}\)であった場合,\(f_{C}\)の最大値を与える\(\hat{C}\)が証拠\((att,a)\)に対する分類クラスとなる.またそのときの判別力\(pw(att,a)\)は以下で定義される.\[pw((att,a))=\log\frac{f_{\hat{C}}}{\sum_{C\neq\hat{C}}f_{C}}\]\item[step4]判別力の順に並べる.全ての証拠と分類クラスの組を判別力の大きい順に並べる.これによって作成できた表が決定リストである.\end{description}\subsection{属性の設定}各文字間\(b_i\)がどのクラスに属するかを判断する材料が属性である.本論文では\(b_i\)の属性として,\mbox{表\ref{attribute}}の7種類を用意した.\begin{table}[h]\begin{center}\leavevmode\small\caption{設定した属性}\ecaption{Settingattributes}\label{attribute}\begin{tabular}{|c|cc|}\hline属性&値&\\\hline\(att_{1}\)&文字列&\(c_{i-1}c_{i}c_{i+1}\)\\\hline\(att_{2}\)&文字列&\(c_{i}c_{i+1}c_{i+2}\)\\\hline\(att_{3}\)&文字列&\(c_{i-1}c_{i}\)\\\hline\(att_{4}\)&文字列&\(c_{i}c_{i+1}\)\\\hline\(att_{5}\)&文字列&\(c_{i+1}c_{i+2}\)\\\hline\(att_{6}\)&字種の接続関係1&\(((c_{i}の大分類字種),(c_{i+1}の大分類字種))\)\\\hline\(att_{7}\)&字種の接続関係2&\(((c_{i}の細分類字種),(c_{i+1}の細分類字種))\)\\\hline\end{tabular}\end{center}\end{table}6,7番目の属性として,字種の情報を利用している形になっている.ここでは字種を大分類と細分類の二つの観点から分類した.字種の大分類は6番目の属性,字種の細分類は7番目の属性で利用した.字種の大分類は\mbox{表\ref{dai-bunrui}}に示した9種類である.\newpage\begin{table}[h]\begin{center}\leavevmode\small\caption{大分類字種}\ecaption{Classificationofcharactertypes}\label{dai-bunrui}\begin{tabular}{|c|c|c|}\hline字種&意味&例\\\hline平&平仮名&あ,い,う,…\\\hlineカ&カタカナ&ア,イ,ウ,…\\\hline数&漢数字&一,二,…,百,千,…\\\hline漢&漢字&亜,位,卯,…\\\hlineN&英数字&0,1,2,…\\\hlineア&アルファベット&A,B,C,…\\\hline記&記号&、,。,「,…\\\hline〇&小丸かゼロ&〇\\\hline○&大丸かゼロ&○\\\hline\end{tabular}\end{center}\end{table}字種の細分類は大分類の平仮名の部分をその文字自身にしたものである.また注意として,本論文の決定リストでは\(default\)の証拠を導入していない.決定リストでは通常\(default\)という証拠を設けて,それ以下の判別力の証拠は表には入れない.\(default\)は文脈上の証拠が決定リストに存在しない場合の処理ととらえられるが,ここでは大分類の字種の情報が必ずヒットするので,\(default\)の証拠を含める必要がない.6番目の属性からの証拠の最下位のものが,決定リストの最下位の証拠となる.\subsection{利用例}決定リストの利用例を示す.例えば「太郎は海でアイスクリームを食べた。」という入力文の5番目の文字``で''と6番目の文字``ア''の間,つまり\(b_5\)にクラス\(+1\)あるいは\(-1\)を与えてみる.\(b_5\)の持つ証拠は以下の7種である.\bigskip\begin{center}\((att_{1},"海でア")\),\((att_{2},"でアイ")\),\((att_{3},"海で")\),\\\((att_{4},"でア")\),\((att_{5},"アイ")\),\((att_{6},"平カ")\),\((att_{7},"でカ")\)\end{center}\bigskip後述する実験で得られた決定リストを用いると,各証拠の分類クラスと判別力は以下の通りである.\newpage\begin{table}[h]\begin{center}\leavevmode\small\caption{クラス判別の例}\ecaption{Exampleofclassjudgement}\label{class-hanbetu}\begin{tabular}{|c|cc|}\hline証拠&分類クラス&判別力\\\hline\((att_{1},"海でア")\)&--&--\\\hline\((att_{2},"でアイ")\)&--&--\\\hline\((att_{3},"海で")\)&+1&2.74377\\\hline\((att_{4},"でア")\)&+1&5.83188\\\hline\((att_{5},"アイ")\)&+1&1.64565\\\hline\((att_{6},"平カ")\)&+1&6.33293\\\hline\((att_{7},"でカ")\)&+1&8.64488\\\hline\end{tabular}\end{center}\end{table}表の中で``--''の記号のものは,決定リスト中にその証拠がないことをあらわす.また本来ならば,決定リスト中の順位を求めなければならないが,ここでは相対的な順位関係だけが必要であり,順位の値自体は必要でない.判別力の最も大きなものが最上位の順位になるはずである.この場合,証拠\((att_{7},"でカ")\)が最も大きな判別力を持つので,この証拠の分類クラス+1が判定結果となる.つまり\(b_5\)には単語境界を置くと判定する.
\section{アダブーストの利用}
精度の低い分類規則を組み合わせて精度の高い分類規則を得る方式をブースティングという.アダブーストはブースティング方式の一つであり,現在まで多くの理論的検証と実験的実証から有効性が示されている.アダブーストのアルゴリズムを\mbox{図\ref{algo}}に示す.分類クラス(\mbox{図\ref{algo}}の\(Y\))をここでは\(\{+1,-1\}\)の2値とする.また訓練データを\((x_1,y_1),(x_2,y_2),\cdots,(x_m,y_m)\)で表す.ここで各\(x_i\)はデータを表し,\(y_i\)はデータ\(x_i\)のクラスである.具体的に\(y_i\)は\(+1\)あるいは\(-1\)の値である.この訓練データに対して,分類問題に対する学習アルゴリズム,例えば,決定木や決定リストなどを適用して,分類規則\(h_1\)を学習する.得られた分類規則\(h_1\)を訓練データに適用すると,\(h_1\)によって各\(x_i\)の判定クラスが得られる.今,\(x_i\)の実際のクラス\(y_i\)は与えられているので,分類規則\(h_1\)が各\(x_i\)に対して正しい判定を行ったかどうかを調べられる.これによって不正解のデータを集め,それら不正解のデータに対してある重みを付加して,訓練データ\((x_1,y_1),(x_2,y_2),\cdots,(x_m,y_m)\)を再構成する.そしてこの再構成された訓練データに対して,再び学習アルゴリズムを適用して,分類規則\(h_2\)を学習する.これを\(T\)回繰り返す.この繰り返しによって,\(T\)組の分類規則\(h_1,h_2,\cdots,h_T\)が得られる.実際の判定は入力データに対して各分類規則が出力するクラスの重み付き多数決により行われる.例えば,\(T=3\)とし,入力データ\(x\)に対して,分類器\(h_1\)による判定クラスが\(+1\),\(h_2\)による判定クラスが\(-1\),\(h_3\)による判定クラスが\(+1\)であり,各重みが1,2.0,2.2であった場合,重み付き多数決の結果は\(+1.2\)である.最終的な判定クラスは総和の符合により求まる.この例の場合,符合は正であるので,\(+1\)が判定クラスになる.アダブーストのポイントは不正解のデータに課す重みの与え方である.概略,得られた分類規則の誤り確率(\mbox{図\ref{algo}}における\(\epsilon_{t}\))が小さいほど重みが大きくなるように設定している.\begin{figure*}[htbp]\begin{center}\atari(120.5,128)\end{center}\caption{アダブースト}\ecaption{AdaBoost}\label{algo}\end{figure*}本論文では.分類問題に対する学習アルゴリズムを決定リストに設定する.不正解データに与える重みをどのように反映させるかが問題である.ここでは,重みを頻度として与えることにした.例えば,「太郎が東京へ行く。」という文に以下のように単語境界``/''が置かれたものが訓練データである.\begin{verbatim}太郎/が/東京/へ/行く/。\end{verbatim}今,4番目の文字``東''と5番目の文字``京''の間,つまり\(b_4\)に対する証拠は以下の通りである.\bigskip\begin{center}\((att_{1},"が東京")\),\((att_{2},"東京へ")\),\((att_{3},"が東")\),\\\((att_{4},"東京")\),\((att_{5},"京へ")\),\((att_{6},"漢漢")\),\((att_{7},"漢漢")\)\end{center}\bigskip``東''と``京''の間には,単語境界がないので,クラスは\(-1\)である.そして,決定リスト作成のstep2で示したように,以下の証拠の頻度に1が足される.\bigskip\begin{center}\(((att_{1},"が東京"),-1)\),\(((att_{2},"東京へ"),-1)\),\(((att_{3},"が東"),-1)\),\\\(((att_{4},"東京"),-1)\),\(((att_{5},"京へ"),-1)\),\(((att_{6},"漢漢"),-1)\),\(((att_{7},"漢漢"),-1)\)\end{center}\bigskipこの頻度に加算される1という数値に重みを反映させる.例えば,決定リスト\(h_k\)により上記例文の4番目の文字``東''と5番目の文字``京''の間の判定クラスが\(+1\)と判定された場合,この判定は不正解である.そこで次の決定リスト\(h_{k+1}\)を作成するときに,上記の7つの各証拠の頻度に1ではなく,重み自身を加える.つまり決定リストを作成する際には各訓練データには重みがついているとして,その重みが決定リスト作成のstep2で各証拠と正解の組に付加する数値とする.\mbox{図\ref{algo}}のアルゴリズムでは正規化するために重みの総和が1になっているが,ここでは重みの最小値が1となるようにして計算を簡単にした.このため最初の決定リストを作成する際の各訓練データの重みは1であり,2回目では正解のデータの重みは1で変化せず,不正解の部分の重みが大きくなる.
\section{実験}
\subsection{文字n-gramモデルに基づく単語分割法との比較}ここでは決定リストを利用した単語分割の有効性を示すために,文字n-gramモデルに基づく単語分割法\cite{oda98}との比較を行う.文字n-gramモデルに基づく単語分割法では,概略,単語境界を付与した訓練データにおいて,単語境界の記号自体も一つの特殊文字として考えて,ある文字列の後に単語境界が生じる確率あるいは生じない確率を文字n-gramモデルに基づいて計算する.最終的にはViterbiアルゴリズムなどの動的計画法を利用して,文字列の出現確率が最大になるように単語境界のあるなしの列を決定する.これは文字ベースのHMMにおいて,遷移確率やシンボル出力確率をある確率モデルに基づいて計算したものと同等である.訓練データとしては京大コーパス(約4万文)を利用した.京大コーパスは人手でタグをつけたコーパスであり,正解付きの訓練データとして利用できる.京大コーパスの中から950117.KNPというファイルに納められた1,234文\footnote{ここではコーパス中の記号EOSの数を文の数としている.句点``。''の数ではないことを注意しておく.}をテストデータとした.結果,訓練データは京大コーパスからテストデータを除いた35,717文である.テストデータ1,234文の中には,単語境界を置くか置かないかを判定する位置が56,411個所存在する.この56,411個所に対して正しいクラスを付与できた割合を正解率とする.訓練データから文字tri-gram確率を求めるためにCMU-CambridgeToolkit\footnote{CMU-CambridgeToolkitは以下のアドレスから入手可能.\mbox{{\tthttp://svr-www.eng.cam.ac.uk/\(\tilde{}\)prc14/toolkit.html}}}を利用した.スムージングの手法としてはWitten-Belldiscountingを用い,カットオフは頻度0と設定した\cite{kita99}.文字tri-gram確率からtri-gramモデルに基づく単語分割法を実装したシステムを作成し,テストデータに対して単語分割を行った.結果,56,411個所の判定位置について,52,328個所で正しい判定を行い,4,083個所で誤った判定を行った.つまり正解率は92.76\%であった.次に上記の訓練データを利用して本論文で提案した決定リストを作成した.頻度7以下の証拠は間引いた.作成できた決定リストの大きさは136,114であった.この決定リストによりテストデータに対して単語分割を行った.結果として,56,411個所の判定位置について,55,015個所で正しい判定を行い,1,396個所で誤った判定を行った.つまり正解率は97.52\%であった.この値はtri-gramモデルに基づく単語分割法の正解率92.76\%を大きく上回っており,本手法の有効性が示せた.\subsection{ブースティングの効果}前述したアダブーストにより,決定リストのブースティングを行った.ブースティングの回数を横軸に,テストデータに対する正解率\%を縦軸にしたグラフが\mbox{図\ref{graph}}である.\begin{figure*}[htbp]\begin{center}\atari(127,88.9)\end{center}\caption{ブースティングによる正解率}\ecaption{Precisionbyboosting}\label{graph}\end{figure*}\mbox{図\ref{graph}}からわかるように,ブースティングにより3組の決定リストを作成し,それらの重み付き多数決によって判別した結果が最も優れていた.そのとき56,411個所の判定位置について,55,560個所で正しい判定を行い,851個所で誤った判定を行った.つまり正解率は98.49\%まで向上した.\subsection{未知語の検出}ブースティングにより3組の決定リストを作成し,それらの重み付き多数決によって各文字間に単語境界の有無を判定する手法(以下これを本手法と呼ぶ)が,本実験において,どの程度の未知語を検出できたか調べる.前述した訓練データ35,717文とテストデータ1,234文の正確な単語分割結果から,それぞれに含まれている単語文字列を取り出した.ここでいう単語文字列とは,単純に単語分割された分割要素の文字列のことである.つまり用言の活用語尾が異なるものも,異なる単語文字列として取り出すことに注意する.結果,訓練データには914,392個(41,890種類)の単語文字列,テストデータには32,764個(6,479種類)の単語文字列が存在した.そしてテストデータには含まれるが,訓練データには含まれない単語文字列が1,024個(832種類)存在した.この1,024個(832種類)の単語文字列が本実験における未知語となる.結論から述べると,本手法によりこの1,024個(832種類)の未知語の中で,正しく検出できたものは688個(562種類),つまり個数で67.2\%,種類数で67.5\%の検出率であった.検出できた未知語の中には,字種区切りのような単純なヒューリスティクスから検出できるものも存在するので,本手法の未知語検出が,実質どの程度の有用性があるのかを示すために,対象の未知語を以下のように9タイプに分類した.\begin{description}\item[(1)用言であり,その原型を同じとする単語が訓練データに含まれる(124個(123種類)).]例えば,「押しつぶした」という単語文字列は,テストデータには含まれるが,訓練データには含まれないために,本手法では未知語として扱われる.しかし通常の辞書を利用したシステムでは,「押しつぶした」の原型「押しつぶす」が辞書に登録されていれば,正しく解析できる.訓練データには,「押しつぶす」の語尾変化形である単語文字列「押しつぶして」が含まれている.そこで,通常のシステムの辞書には,原型「押しつぶす」が登録されていたと考え,「押しつぶした」は正しく解析できると考える.ここでは,このようなタイプの未知語は,通常のシステムの用言の語尾変化の規則によって検出できるタイプの未知語として考える.\item[(2)用言であり,その原型を同じとする単語が訓練データに含まれない(94個(91種類)).]例えば,「飲みすぎて」という単語文字列は,テストデータには含まれるが,訓練データには含まれない.しかも(1)の場合とは異なり,「飲みすぎて」の原型「飲みすぎる」を語尾変化させた単語文字列も訓練データに含まれない.これは通常のシステムにおいても未知語となるものである.\item[(3)数値表現となっている(44個(41種類)).]例えば,「一万九千百八十五」や「27・7」という単語文字列は未知語となっているが,通常のシステムはこれらの表現を数値表現として認識できる規則を持っている.この種の未知語も通常のシステムで検出できるタイプの未知語とする.\item[(4)アルファベットのみで構成される(7個(3種類)).]「AC」「OEK」「PAH」の単語文字列である.これらは字種区切りのような単純なヒューリスティクスから通常のシステムでも検出可能である.\item[(5)カタカナのみで構成される(210個(156種類)).]例えば,「アロマセラピスト」や「スーザン」のような単語文字列である.これらも字種区切りのような単純なヒューリスティクスから通常のシステムでも検出可能である.\item[(6)平仮名のみで構成される(38個(32種類)).]例えば,「ごあいさつ」や「ぞろぞろ」のような単語文字列である.これらの検出は通常のシステムでは不可能である.\item[(7)漢字1文字で構成される(21個(17種類)).]例えば,「魁」や「鋼」のような単語文字列である.通常のシステムでも未知語となるが,単語分割の他の候補が生じないために,結果的に正しく単語分割できる場合も多い.\item[(8)漢字のみで構成される(426個(310種類)).]例えば,「重文」や「三井造船」のような単語文字列である.これらの検出は通常のシステムでは不可能である\footnote{例えば,漢字1文字からなる未知語と既知語を全体として未知語として認識できる可能性が指摘された.しかしそのヒューリスティクスがどの程度妥当かは疑問がある.また,その場合(7)との区別がつかない.ここでは多少強引だが,(8)は既存のシステムでは検出不可能とした.}.\item[(9)複数の字種から構成される(64個(59種類)).]例えば,「寝泊まり」や「亡き後」のような単語文字列である.これらの検出は通常のシステムでは不可能である.\end{description}上記9タイプの未知語の本手法による検出結果を\mbox{表\ref{unknown}}に示す.同時に通常のシステムで想定できる検出結果も示す.\newpage\begin{table}[h]\begin{center}\leavevmode\small\caption{未知語の検出}\ecaption{Detectionofunknownwords}\label{unknown}\begin{tabular}{|l|r|r|r|}\hlineタイプ&総出現数&本手法による検出&通常のシステムによる検出\\\hline\hline(1)辞書登録の用言&124&101&124\\\hline(2)辞書未登録の用言&94&57&0\\\hline(3)数値表現&44&40&44\\\hline(4)アルファベット列&7&5&7\\\hline(5)カタカナ列&210&188&210\\\hline(6)平仮名列&38&19&0\\\hline(7)漢字1文字&21&4&21\\\hline(8)漢字列&426&246&0\\\hline(9)複数の字種&64&28&0\\\hline\hline合計&1,024&688(67.2\%)&406(39.6\%)\\\hline\end{tabular}\end{center}\end{table}\mbox{表\ref{unknown}}に示すように通常のシステムの検出率は39.6\%であり,本システムの検出率67.2\%と大きく差がある.これは本システムの未知語の検出能力の高さを示している.また通常のシステムにより検出できるとした未知語のタイプ(1),(3),(4),(5),(7)に対して,本手法の検出率は83.3\%であり,通常のシステムにより検出できる未知語の多くは本システムでも検出できると考えられる.
\section{考察}
本手法での判別の出力は2値であり,判別に使った判別力の値自体は利用されていない.テストデータに対して判別力の値による正解率を調べるために,以下の調査を行った.テストデータには56,411個所の判定位置があるが,0以上1未満の間の判別力で判定された位置は83個所であり,その正解率は57.83\%であった.同様にして,1以上2未満の間,2以上3未満の間という具合いに順に調べていった結果を示したものが\mbox{図\ref{kousatu2}}である.このグラフからもわかるように,判別に利用した判別力が小さいほど誤る確率が高くなる.このような判別力の値を利用して,さらに誤りを減らせる工夫も可能であろう.\begin{figure}[htbp]\begin{center}\atari(101.6,71.1)\end{center}\caption{判別力と正解率}\ecaption{Identificationstrengthandprecision}\label{kousatu2}\end{figure}また本論文では分類問題の解法として決定リストを利用したが,他の手法,例えば,決定木\cite{quinlan93}や最大エントロピー法\cite{ratnaparkhi98}の利用も可能である.ただし本論文で利用した属性にあたるものを,それらの手法では単純には利用できない.決定木を利用する場合,属性の数は7種類であり問題ないが,bi-gramあるいはtri-gramにあたる属性の値の種類数が非常に多い.このため決定木の各ノードから出る枝の数が膨大になり,現実的には決定木を作成できない.また最大エントロピー法では素性の設定と素性パラメータの算出が必要となる.素性は本論文で述べた証拠自体となるため,素性の種類は頻度7で間引いて約14万弱である.最大エントロピー法で利用できる素性の数は現実的には,数万が限度であるために,最大エントロピー法の利用も現実的には無理がある.文字ベースの手法を利用する場合には,bi-gramやtri-gramなどの情報を直接利用できる決定リストは現実的に有効な選択である.本論文では単語分割を分類問題としてみなして解決した.分類問題とみなした場合,精度に関わる最も大きな要因は属性の選択である.アダブーストを利用するという枠組みでは,属性の設定はさらに考慮すべきである.ブースティングは弱学習アルゴリズムに対して利用できる.具体的には精度が50\%を越えるようなアルゴリズムであれば適用できる.つまり作成できた決定木などの分類器自体の精度はそれほど高い必要はない.属性をうまく考慮して決定リストの精度を上げるよりも,作成される決定リストの精度は低いが,ブースティングにより精度が増してゆくような属性を設定するアプローチも有望である.いくつかの実験を行った結果,以下の点が確認できた.\begin{itemize}\item属性を増やす,間引きの頻度を調整する,などの工夫を入れて決定リストの精度を上げた場合,ブースティングでは精度が上がらなかった.\item属性を単純化して決定リストの精度を若干下げた場合,ブースティングによって精度は上がるが本実験で行った結果以上には精度は上がらなかった.\end{itemize}\noindent結論的には本論文で設定した属性の情報を利用する上では,本論文で示した値程度が限界に近いと感じられた.分類誤りの原因を追求すると,訓練データに現れない表現あるいは頻度の低い表現の部分で分類が誤っている\footnote{先の実験により示した本手法が検出できなかった未知語の出現数(336)から考えて,全体の誤りの数(851)が多いようにも感じられる.しかしこれは,本実験では頻度7以下の証拠を間引いているために,本手法における未知語の実質的な総数は,先の実験で示した数よりも多いことによる.}.これは未知語の問題そのものであり,未知語への対処が単語分割の中心の課題と言える.この解決策は3つ考えられる.1つ目は規則の一般化を精度良く行うことである.例えば文字クラス\cite{oda99}などの導入などが考えられる.2つ目は別リソースの利用である.例えば辞書の利用である.単語分割に本手法の分類手法と辞書による最長一致法を利用することも考えられる.3つ目は訓練データの拡充である.事例ベースの手法\cite{yamashita98,ito99}は訓練データつまり事例を大規模化することで精度が上がる.ただし大規模な正解付きの訓練データが用意できない現状では,正解のない訓練データをどう使うかが鍵となる\cite{shinno00}.1つ目のアプローチ以外は,未知語の検出に対して理論的な保証がない.しかしだからといって,単語分割を文字ベースの手法によって解くことに意味がないわけではない.辞書に基づいた分割では数値表現や字種区切りが有効になるような未知語しか解析できず,解析できる未知語が限定されている.このような未知語の多くは,実験に示したように,本手法でもその多くを検出できる.さらに文字ベースの手法では,その他のタイプの未知語も検出できる場合が多々あるが,辞書に基づいた分割では確実に検出できない.この違いは大きい.最後に本手法のアプローチは解析が決定的になるという長所もあることを付記しておく\cite{shinnou00}.通常の形態素解析システムも現実的にはほぼ文字数に比例した時間で解析が行えるので,決定的であるということはそれほど大きな長所ではない.ただし理論的に線形時間での解析を保証できることには意味がある.
\section{おわりに}
本論文では日本語単語分割を分類問題とみなし,決定リストを利用してその問題を解いた.本手法は未知語の問題を受けないという長所がある.実験では,文字ベースのn-gramモデルに基づく単語分割法との比較を行い,決定リストによる単語分割の方が優れていることを示した.また分類問題ととらえることで,ブースティングの手法を適用できることも示した.アダブーストを利用することによって,単独の決定リストよりもさらに精度を向上させることができた.未知語の検出能力も高かった.訓練データにない表現をどのようにカバーしてゆくかが今後の課題である.\acknowledgment本研究は(財)栢森情報科学振興財団の研究助成金(K11研IV第71号)によって行われました.深く感謝します.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\newpage\begin{biography}\biotitle{略歴}\bioauthor{新納浩幸}{昭和36年生.昭和60年東京工業大学理学部情報科学科卒業.昭和62年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,平成5年4月茨城大学工学部システム工学科助手.平成9年10月同学科講師,平成13年4月同学科助教授,現在に至る.博士(工学).}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V09N01-03 | \section{はじめに}
\label{sec-intro}音声対話システムとは,ユーザとの音声対話を通して,あらかじめ決められたタスクをユーザと協同で実行するシステムである.タスクとは,音声対話システムごとに定められた作業のことであり,たとえば,各種の予約,個人スケジュールの管理といったタスクがある.近年の音声情報処理技術,自然言語処理技術の発展に伴って,様々なタスクにおいて音声対話システムが実現されてきている~\cite{TRIPS,DUG1,PEGASUS}.音声対話インタフェースは,人にとって親しみやすく,手や目を占有しないという利点をもつ.人とコンピュータが,円滑な音声対話を通して意思疎通できるようになれば,音声対話は理想的な人−コンピュータのインタフェースとなることが期待される.しかし,円滑な音声対話を実現するためには,音声認識誤りに対処することが必要となる.システムは,ユーザ音声の認識結果からユーザ要求の内容を理解し,ユーザ要求内容に応じて適切な情報をユーザに伝達しなければならないが,音声認識誤りの可能性があるため,ユーザ音声の認識結果のみに頼ってユーザ要求の内容を確定してしまうと,ユーザ要求通りに正しくタスクを遂行できない場合が生じる.音声対話システムでは,この問題に対処するために,ユーザとの間で確認対話と呼ぶ対話を行い,確認対話を通してユーザ要求内容を確定するという方法をとることが普通である.音声認識誤りのため確認対話は必須であるが,確認対話の最中にも音声認識誤りが起きる可能性があるので,確認対話が長ければ長いほど,対話の円滑な流れが阻害される危険性が高まる.したがって、不必要な確認対話はできる限り避けることが望ましい.不必要な確認対話の一つの典型は,ユーザ要求内容がシステムの限られた知識の範囲を越えている場合に,システムがユーザ要求内容のすべてを逐一確認する場合に起きる.ここで,システム知識とは,システムが対話時点でデータベース内に保持しているタスク遂行のために必要なデータの集合を意味する.また,ユーザ要求内容がシステムの限られた知識の範囲を越えている状況とは,システムがユーザ発話を理解できるのだけれども,システムが保有していない情報をユーザが要求している,あるいは,システムが詳しい情報を保有していない事柄に関して,ユーザが詳細な情報を要求しているという状況である.\footnote{本稿では,システムが認識できる語彙の集合が限られているために,システムがユーザ発話を理解できない状況や,ユーザが期待するタスクとシステムが想定するタスクが相違しているために、ユーザが期待するタスクをシステムが実行できない状況は扱わない.}音声対話システムとユーザの対話は,ユーザの要求内容を確定するために確認対話を行い,その後で,確定した要求内容に応じて適切な情報をユーザに対し応答するという順序で進行する.確認対話でユーザ要求内容をすべて確認したところで,確認対話に続くシステム応答の長さを考慮しなければ,対話全体を効率的に実施することにはならない.システム応答の長さは,対話時点のシステム知識の内容に依存するので,システムの限られた知識の範囲を考慮した上で,対話全体を制御する必要がある.例として,気象情報を案内する音声対話システムを考える.システムは,各場所ごとに予報されている気象情報や,現在発表されている警報についてのデータをシステム知識として保有している.今,ユーザが神奈川県に大雨警報が発表されているかどうか尋ねているとシステムが理解した状況を想定する.また,どこにも警報が発表されていない,あるいは,警報が発表されている場所は少数であるという知識をシステムが保有しているとする.このとき,ユーザが関心のある場所が神奈川県であることや,警報の種別が大雨であるといった項目は確認する必要がない.なぜなら,システムは,ユーザ要求内容に含まれる場所や警報の種別が何であるかということを識別するに足るほど詳しい情報を保有しておらず,場所や警報の種別についての確認なしでも,システム応答の長さはほとんど同じであり,対話全体の長さが増大することもないからである.また,システムが認識している神奈川県,大雨といった項目は認識誤りかもしれず,それらの項目を確認すると,ユーザの訂正発話を招き,対話が不必要に長くなる危険性が高い.音声対話システムとユーザの間で効率的な対話を実現するための対話制御法について盛んに研究が進められている\cite{Chu:00,LPE:98,Niimi:96,LKSM:00,RPT:00}.これらの従来法は,音声認識結果の信頼度,音声認識率,システム理解状態といった情報を利用して,確認対話の長さを削減することに注目している.しかし,確認対話に続くシステム応答の長さを含めて対話全体を効率的に実施することは行っておらず,ユーザ要求内容がシステムの限られた知識の範囲を越えている場合に,著しく無駄な対話を行ってしまうという問題点がある.従来法の中には,強化学習を利用して最適な対話戦略を学習するという方法がある~\cite{LPE:98,LKSM:00,RPT:00}.これらの従来方法では,対話戦略の効率性を評価するための報酬関数あるいはコスト関数を定義し,システムとユーザの間の多くの対話例を使って,報酬関数を最大化あるいはコスト関数を最小化するような対話戦略が学習される.しかし,これらの従来法はシステムが対話時点で保有する知識の範囲が対話の効率性に対して及ぼす影響を報酬関数やコスト関数に組み入れてはいない.したがって,強化学習に基づく従来法によって学習される対話戦略を使っても,本稿で問題としているような無駄な対話を避けることはできない.ユーザ発話内容が曖昧なときに,ユーザ発話内容の曖昧さを解消してもシステム応答が同一で変化しないなら,ユーザ発話内容の曖昧さを解消せずに応答を生成するという方法が提案されている~\cite{Ardissono:96,RasZuk:94,vBkCoh:91}.これらの従来法は,システム応答の同一性が保証されていない場合には適用できないという問題がある.また,音声認識誤りにより発生する余分な対話については考慮されていない.そこで,本稿では,ユーザ要求内容がシステムの限られた知識の範囲を越えている場合であっても,無駄な確認を避けて効率的な対話を実施することを目的とした方法として,デュアルコスト法とよぶ対話制御法を提案する.デュアルコスト法では,確認対話の長さを表す確認コストと,確認対話後のシステム応答の長さを表す情報伝達コストという2つのコストを導入し,確認コストと情報伝達コストの和を最小化するように対話を制御する.音声認識が誤っていると,余分な確認を行わないといけないことを反映して,確認コストは音声認識率に依存する.情報伝達コストはシステムが対話時点で保有する知識の内容に依存する.確認コストと情報伝達コストという2種類のコストを導入するのは,対話全体を効率的に実施するためには,確認対話の長さだけでなく,システム応答の長さを考慮する必要があるためである.すなわち,確認対話に手間をかければかけるほど対話全体を効率的に実施できるというわけではなく,ユーザ要求内容確定のための手間は,システム応答の長さとのバランスによって決める必要があるということである.この2つのコストの和を最小化することにより,システム知識の内容に応じて,無駄な確認を避け,対話全体を効率的に実施することが可能となる.この提案方法は,システム応答の同一性が保証されない場合であっても,情報伝達コストの増大が確認コストの減少に見合う範囲内であれば,ユーザ発話理解結果の一部を確認しないという方法であり,従来方法~\cite{Ardissono:96,RasZuk:94,vBkCoh:91}を一般化したものとなっている.また,デュアルコスト法とユーザ要求内容のすべてを逐一確認する従来方法を対話の効率性の観点から比較したシミュレーション対話実験の結果を示し,デュアルコスト法が従来法よりも効率的に対話を実施できることを論じる.
\section{音声対話システムの対話制御}
\label{sec-system}\begin{figure}[t]\begin{center}\atari(130,42.7)\end{center}\caption{音声対話システムの構成}\label{fig-system}\end{figure}ここで想定している音声対話システムの構成を図~\ref{fig-system}に示す.システムは,音声理解,発話生成,対話制御を行う各モジュールとデータベースから構成される.データベースの内容は一定ではなく,日々内容が更新されるようなタスクを想定する.音声理解モジュールはユーザ音声からユーザ発話内容を理解し,理解した結果はシステム理解状態として保持される.対話制御モジュールは,以下に述べるように,システム理解状態と現在のデータベースの内容に基づいて,システム行動を決定する.発話生成モジュールは,対話制御モジュールの決定にしたがって,システム応答の言語表現を生成し,音声として出力する.音声対話システムとユーザの対話は,ユーザ要求確定フェーズとシステム情報伝達フェーズという2つの対話フェーズの間を移行しながら進行する.ユーザ要求確定フェーズにおいて,ユーザはシステムに対する要求を音声によって伝える.システムとユーザは確認対話を通してユーザ要求内容を確定する.ユーザ要求内容を確定した後,対話はシステム情報伝達フェーズに移行し,確定したユーザ要求にしたがって情報を伝達するためのシステム応答が生成される.システム理解状態は,3つ組$<$属性,値,確定フラグ$>$の集合として保持される.ユーザ要求タイプの種類と属性の全体集合はタスクごとに決まっている.各ユーザ要求タイプについて,ユーザ要求の内容として含むことができる属性と,各属性がとりうる値の範囲が決まっている.各ユーザ要求タイプについて,ユーザ要求内容として含むことができる属性を有効な属性,値としてとりうる属性値を有効な属性値とよぶ.有効でない属性,属性値を無効な属性,属性値とよぶ.確定フラグは,属性の値が確認対話により確定するまで「未」という値をとり,確認対話により確定されると「済」という値をとる.ユーザ要求確定フェーズでは,システム理解状態にしたがって,確認行動,情報要求行動のいずれかのシステム行動を行う.確認行動とは,システム理解状態において値が与えられている属性について,ユーザに対して属性値を確認する発話(確認発話)を行い,「はい」といったユーザの肯定的な発話(承認発話)によって属性値が確定されるまで,その属性の値の確認を繰り返すという行動である.ユーザは,承認発話以外に,システムの確認内容を訂正する発話(訂正発話)を行うことができる.情報要求行動とは,システム理解状態において値が与えられていない属性について,ユーザに対して属性の値を要求する発話(情報要求発話)を行い,その後,その属性についての確認行動を実施するという行動である.すなわち,情報要求行動とは一つの情報要求発話に続く確認発話の繰り返しである.ユーザ要求確定フェーズにおいて,ユーザ要求タイプが一意に決定されており,その時点で確定しているユーザ要求内容にしたがってシステム応答を生成することが適切であると判断されると,システム情報伝達フェーズに移行する.システム情報伝達フェーズにおいて,確定済みのユーザ要求内容に応じて情報をユーザに伝達するためにシステム応答を生成するという行動を情報伝達行動と呼ぶ.対話制御とは,対話の各時点において,対話を効率的に実施するという観点から最適なシステム行動を決定することである.システム行動としては,確認行動,情報要求行動,情報伝達行動がある.情報伝達行動を選択するということは,ユーザ要求確定フェーズからシステム情報伝達フェーズへの移行を決定することと同等である.\begin{table}\begin{center}\begin{tabular}{|l||c|c|c|c|}\hline&\multicolumn{4}{|c|}{\bf属性}\\\cline{2-5}\multicolumn{1}{|l||}{\bfユーザ要求タイプ}&\multicolumn{1}{c|}{場所}&\multicolumn{1}{c|}{日}&\multicolumn{1}{c|}{警報種別}&\multicolumn{1}{c|}{情報種別}\\\hline天気問い合わせ&◯&◯&×&\multicolumn{1}{l|}{◯(値は天気のみ)}\\\hline気温問い合わせ&◯&◯&×&\multicolumn{1}{l|}{◯(値は気温のみ)}\\\hline降水確率問い合わせ&◯&◯&×&\multicolumn{1}{l|}{◯(値は降水確率のみ)}\\\hline警報問い合わせ&◯&×&◯&\multicolumn{1}{l|}{◯(値は警報のみ)}\\\hline\end{tabular}\end{center}\caption{天気情報案内タスクにおけるユーザ要求タイプと属性の関係}\label{tab-task}\end{table}本稿では気象情報案内を行う音声対話システムを想定する.ユーザ要求タイプとして,警報問い合わせ,天気問い合わせ,気温問い合わせ,降水確率問い合わせの4種類のユーザ要求タイプを考える.属性の全体集合は,場所,日,警報種別,情報種別の4つの属性から成る集合である.ユーザ要求タイプと属性との間の関係を表~\ref{tab-task}に示す.各ユーザ要求タイプについて,有効な属性を◯,無効な属性を×で示している.場所属性は,どのユーザ要求タイプでも有効な属性であり,特定の場所の名前を値としてとる.日属性は,ユーザ要求タイプが天気,気温,降水確率の問い合わせであるなら,今日か明日という値をとる.警報問い合わせでは,日属性は無効な属性である.警報種別属性は,大雨,洪水といった値をとり,天気問い合わせ,気温問い合わせ,降水確率問い合わせの各ユーザ要求タイプにとっては無効な属性である.情報種別属性は,ユーザ要求タイプに応じて,警報,天気,気温,降水確率という値をとる.警報という属性値は,ユーザ要求タイプが警報問い合わせであるときにのみ有効であり,他のユーザ要求タイプでは無効である.天気,気温,降水確率という属性値についても,同様である.たとえば,ユーザ要求確定フェーズにおいて,ユーザが神奈川県という場所を指定したとシステムが理解したという状況を想定すると,システム理解状態は次のようになる.$${\bfS_{1}}=\{<場所,神奈川県,未>\}$$ここで,システムがとりうる行動として,場所属性についての確認行動と,情報種別属性についての情報要求行動を考える.まず,場所属性についての確認行動をとるとすると,システムは「神奈川県ですか?」といった確認発話を行う.システムは,ユーザが肯定的な応答で承認したとシステムが認識するまで,場所属性の値の確認を続ける.${\bfS_{1}}$におけるシステム確認発話「神奈川県ですか?」に対して,ユーザが肯定発話で応じたとき,システム理解状態は次のようになる.$${\bfS_{2}}=\{<場所,神奈川県,済>\}$$あるいは,${\bfS_{1}}$において,情報種別属性についての情報要求行動をとるとすると,システムは「お尋ねの情報種別は何ですか?」,「天気についてお尋ねですか?」といった情報要求発話を行う.ユーザは情報種別属性の値を伝達する.その後,システムは確認発話によって情報種別属性の値を確定していく.ユーザが知りたい情報種別が警報であったとすると,情報要求行動が完了したときのシステム理解状態は次のようになる.$${\bfS_{3}}=\{<場所,神奈川県,未>,<情報種別,警報,済>\}$$
\section{デュアルコスト法}
\label{sec-dualcost}\subsection{対話コスト}\label{sec-cost-intro}デュアルコスト法は,対話の効率を確認コストと情報伝達コストの和として計量し,2つのコストの和を最小化することにより,対話を制御する方法である.確認コストと情報伝達コストの和を対話コストと呼ぶ.確認コストはユーザ要求確定フェーズにおける確認対話の長さの期待値と定義し,情報伝達コストはシステム情報伝達フェーズにおけるシステム応答の長さの期待値と定義する.確認コスト,情報伝達コストという2種類のコストを導入するのは,できるだけ短い対話で,ユーザが必要とする情報を伝達するためには,確認対話の長さだけでなく,それに続くシステム応答の長さも考慮する必要があるためである.たとえば,ユーザ要求タイプが警報問い合わせであり,現在のデータベースの内容が,多くの場所に警報が発表されているという内容である場合を想定する.この場合,ユーザが関心のある場所について確認対話を行わないとすると,システム応答が極端に長くなってしまう.ユーザが関心のある場所を確定することによって,対話全体を短くすることができるので,場所についての確認は行う価値があると言える.しかし,どこにも警報が発表されていない,あるいは,ごく少数の場所にしか警報が発表されていないというデータベースの内容である場合には,場所の確認を行わなくても,システム応答が極端に長くなることはなく,むしろ場所の確認を行わないことで,対話全体を短く済ますことができる可能性がある.このように,システムのデータベースの内容に応じて,最も短い対話でユーザが要求する情報を伝達するためには,確認コストという確認対話の長さの期待値と情報伝達コストというシステム応答の長さの期待値の双方を考慮する必要がある.\subsection{処理の流れ}\label{sec-procedure}デュアルコスト法の対話制御手順を説明する.\begin{description}\item[(Step1)]ユーザ要求確定フェーズにおいて,現時点のシステム理解状態で確定済となっている属性値が無効となるようなユーザ要求タイプを排除することにより,現時点で可能なユーザ要求タイプを導き出す.可能なユーザ要求タイプごとに,可能な対話プランをすべて生成する.対話プランとは,\ref{sec-plan}節で説明するように,ユーザ要求内容を確定するために確認行動と情報要求行動を繰り返し,その後,確定されたユーザ要求内容にしたがって情報伝達行動を実行するという一連の手順を記述したものである.\item[(Step2)]ユーザ要求タイプごとに,各対話プランの確認コストと情報伝達コストを計算し,対話コスト(確認コストと情報伝達コストの和)が最小となるような対話プランを選択する.そのプランを各ユーザ要求タイプの最適プランと呼び,最適プランの対話コストを各ユーザ要求タイプの最適コストと呼ぶ.\end{description}ここで,ユーザ要求タイプが一意に決まっている場合には,その最適プランにしたがって,システム行動を選択すればよい.問題となるのは,現在のシステム理解状態からはユーザ要求タイプが曖昧で一意に決めることができない場合である.この場合に対処するために,システム行動の損失という概念を導入する.一つのユーザ要求タイプを仮定するとき,システム行動の損失とは,その行動をとったがゆえに,ユーザ要求タイプの最適コストと比較して余計に費すことになるコストであると定義する.その行動が最適プランに沿ったものであるならば,損失は$0$であるが,さもなければ,損失は正値をとる.損失という概念を用いて,次の手順に進む.\begin{description}\item[(Step3)]現時点で実行可能なシステム行動をすべて生成し,ユーザ要求タイプごとに各システム行動の損失を計算する.\item[(Step4)]ユーザ要求タイプの確率分布に基づいて,各システム行動の損失の期待値を計算する.損失の期待値を期待損失とよぶ.最小の期待損失をもつシステム行動を選択する.\item[(Step5)]選択されたシステム行動を実行し,ユーザからの応答を待って,システム理解状態を更新する.\item[(Step6)]ユーザ要求タイプが一意に決まっており,これ以上システム行動を実施しても対話コストが下がらないなら,システム情報伝達フェーズに移行する.さもなければ,{\bf(Step1)}に戻る.\end{description}以下においては,例として,ユーザが場所属性を神奈川県と指定したとシステムが認識したという状況を考える.この状況は,ユーザが「神奈川県」とだけ発話したとシステムが認識した場合に相当する.システム理解状態は,\ref{sec-system}節で示した${\bfS_{1}}$によって表される.${\bfS_{1}}$から導き出されるユーザ要求タイプは曖昧であり,警報問い合わせ,天気問い合わせ,気温問い合わせ,降水確率問い合わせの4つの要求タイプが導き出される.また,システム知識の内容は,どの場所にも警報は発表されていないという内容であるとする.\subsection{対話プランの生成}\label{sec-plan}システムの対話プランとは,確認行動と情報要求行動の任意回の繰り返しと,それに続く一つの情報伝達行動から成る.{\bf(Step1)}では,現在のシステム理解状態から可能なユーザ要求タイプを導出した後,ユーザ要求タイプの各々について,可能な対話プランを網羅的に生成する.そのために,まず,各ユーザ要求タイプについて有効な属性を選びだし,有効な属性の中で既に値が確定したものを除いた残りの属性に注目する.それらの属性すべての値を確定するための対話プランとして,次の条件を満たす確認行動,情報要求行動,情報伝達行動から成るプランを網羅的に生成する.ただし,一つのプランの中で,一つの属性が異なる確認行動や情報要求行動の対象になることはないものとする.\begin{itemize}\item[(a)]システム理解状態で値が与えられている属性の部分集合${\bfA}$について,${\bfA}$に含まれるすべての属性の値を確定するための確認行動.\item[(b)]システム理解状態で値が与えられていない1つの属性について,その属性の値を確定するための情報要求行動.\item[(c)]プランに含まれるすべての確認行動と情報要求行動によってユーザ要求内容が確定したと仮定したときに,確定した要求内容に応じてユーザに対し情報を伝達するための情報伝達行動.\end{itemize}本稿では,属性を確認する順序によって確認コストは変わらないと仮定する.したがって,プランの中の確認行動と情報伝達行動の順序を入れ換えても確認コストは変わらない.情報伝達行動の生成は,ユーザ要求内容が確定したと仮定した上で,データベースを検索し,ユーザ要求内容に対するシステム応答内容を仮想的に生成することによって行う.例として,システム理解状態${\bfS_{1}}$の下での対話プランについて考える.まず,ユーザ要求タイプが警報問い合わせの場合を想定する.可能な対話プランは多数あるが,簡単のため,情報種別を確認してから応答を行うプラン$Plan_{1}$と,場所と情報種別を確認してから応答を行うプラン$Plan_{2}$に注目する.2つのプランは次のように表記される.$A_{1}\RightarrowA_{2}$は,行動$A_{1}$に続いて行動$A_{2}$を実行することを意味する.\begin{description}\item[$Plan_{1}$]:=$(Act_{1}\RightarrowRes_{1})$\item[$Plan_{2}$]:=$(Act_{2}\RightarrowAct_{1}\RightarrowRes_{2})$\end{description}\noindentただし,\begin{description}\item[$Act_{1}$]:=情報種別属性についての情報要求行動\item[$Act_{2}$]:=場所属性についての確認行動\item[$Res_{1}$]:=どこにも警報が発表されていないことを伝達するための情報伝達行動.\item[$Res_{2}$]:=確定された場所には警報が発表されていないことを伝達するための情報伝達行動.\end{description}ユーザ要求タイプが天気問い合わせ,気温問い合わせ,降水確率問い合わせの場合に,次の対話プランを考える.\begin{description}\item[$Plan_{3}$]:=$(Act_{2}\RightarrowAct_{1}\RightarrowAct_{3}\RightarrowRes_{3})$,\end{description}\noindentただし,\begin{description}\item[$Act_{3}$]:=日属性についての情報要求行動.\item[$Res_{3}$]:=確定された場所,日における天気(あるいは,気温,降水確率)を伝達するための情報伝達行動.\end{description}\subsection{対話コストの計算}\label{sec-cost}確認コストを計算するために,まず,一つの確認行動あるいは情報要求行動が完了するまでに要するターン数の期待値について考える.一つのターンは,システムの確認発話(例:「神奈川県ですか?」)あるいは情報要求発話(例:「いつですか?」)と,ユーザの訂正発話(例:「香川県です」)あるいは承認発話(例:「はい」)から成るとする.システムが各属性の値を正しく認識する確率を属性認識率とよぶ.属性認識率は$0$よりも大きく,$1$よりも小さな値であり,前もって与えられていることを前提とする.また,属性の集合が与えられるとき,その集合に含まれるすべての属性の値を一度に正しく認識する確率を属性集合の認識率とび,各属性の属性認識率の積として計算できるものとする.また,システムはユーザの承認発話を常に正しく認識できるものと仮定する.属性の集合が与えられるとき,その集合に含まれるすべての属性の値を確定するための確認行動について考える.システムとユーザの対話は,システムがすべての属性値を一度に提示することにより確認発話を行い,システムが提示した属性の値が一つでも誤っているなら,ユーザはすべての属性値を提示することにより訂正発話を行うというターンを繰り返していき,システムの提示する属性値がすべて正しければ,ユーザは承認発話を行い,そこで確認行動が完了するという動作系列であると仮定する.属性集合の認識率を$p$とするとき,確認行動が完了するまでのターン数の期待値は,次の式で与えられる\cite{YDK:01}\footnote{式の導出過程は付録で説明する.}.\begin{equation}\label{turnc-label}TURN_{c}=\sum_{i=1}^{\infty}i(1-p)^{(i-1)}p=\frac{1}{p}\end{equation}情報要求行動は,属性の値が与えられていないときに,最初に情報要求発話を1回行い,その後は確認行動と同じ動作系列をとる.したがって,情報要求行動が完了するまでのターン数の期待値は,次の式で与えられる.\begin{equation}TURN_{d}=1+TURN_{c}=1+\frac{1}{p}\end{equation}次に,確認行動,情報要求行動の長さについて考える.各行動の長さは,行動を遂行するために要する各ターンに含まれるシステム発話とユーザ発話の長さの和である.ここでは,確認発話,情報要求発話,訂正発話においては,一つの属性が一つの名詞句として実現されると仮定し,発話の長さを発話に含まれる名詞句の延べ数と定義する.また,承認発話は,1個の肯定的な応答表現(例:「はい」)によって実現されると仮定し,その長さを1と定義する.まず,確認行動の長さについて考える.確認すべき属性の数を$m$個とすると,システム確認発話,ユーザの訂正発話においては,常にすべての属性値が言及されると仮定しているので,最後の1回を除くターンには,長さ$m$のシステム確認発話,長さ$m$のユーザ訂正発話が含まれ,最後1回のターンには,長さ$m$のシステム確認発話,長さ$1$のユーザ承認発話が含まれることになる.したがって,一つの確認行動の長さは,次の式で定義される.\begin{equation}LEN_{c}=2m(TURN_{c}-1)+m+1=\frac{2m}{p}-m+1\end{equation}次に,一つの情報要求行動の長さは,次の式で定義される.\begin{equation}LEN_{d}=2m(TURN_{d}-1)+m+1=\frac{2m}{p}+m+1\end{equation}確認行動と情報要求行動の長さの定義に基づいて,対話プランの確認コストは,対話プランに含まれるすべての確認行動と情報伝達行動の長さの和と定義する.次に,情報伝達コストの算出について説明する.情報伝達コストは,情報伝達行動を実施するために生成されるシステム応答の長さの期待値であるとする.システム応答の長さは,応答に含まれる内容語の延べ数の期待値であると定義する.たとえば,情報伝達行動が「警報はどこにも発表されていない」というシステム応答として実行されるなら,内容語として,「警報」,「どこにも」,「発表されていない」の3つの内容語を含むので,情報伝達コストは3となる.対話プランによっては,確認行動や情報要求行動によって確定される属性の値が複数通りあり,対話を実際に行ってみないことには値が決まらず,情報伝達行動として生成されるシステム応答も一意に決まらないという場合がある.こういった場合には,属性がとりうる値の生起確率は等確率であると仮定した上で,すべての値の組合せを考慮したときのシステム応答の長さの期待値が情報伝達コストであると定義する.たとえば,プラン$Plan_{3}$では,場所属性,日属性の値は,実際に対話を行ってみないと決まらない.$Plan_{3}$の情報伝達コストは,場所属性,日属性のとりえる値のすべての組合せを考慮したときのシステム応答の長さの期待値となる.\subsection{最適な対話プランの決定}{\bf(Step2)}では,\ref{sec-cost}節で説明したコスト計算方法にしたがって,各対話プランの対話コストが計算される.今取り上げている例において,ユーザ要求タイプが警報問い合わせである場合を考える.各属性の認識率は0.8であるとする.$Plan_{1}$の確認コストは,$Act_{1}$の長さと等しい.$LEN_{d}$によって,確認コストは,$2/0.8+1+1=4.5$となる.$Res_{1}$は,「どこにも警報は発表されていない」という応答文で実行されると仮定する.情報伝達コストは3となる.したがって,$Plan_{1}$の対話コストは$7.5$となる.$Plan_{2}$の確認コストは,$Act_{2}$と$Act_{1}$の長さの和である.$Act_{1}$の長さは$2/0.8+1+1=4.5$,$Act_{2}$の長さは$2/0.8-1+1=2.5$であるので,確認コストは$7$となる.確認行動によって確定する場所属性の値を$v$とするとき,$Res_{2}$は「$v$には警報は発表されていません」という応答文で実行されると仮定する.情報伝達コストは$3$となる.したがって,$Plan_{2}$の対話コストは$10$となる.結局,最適プランは$Plan_{1}$であり,最適コストは$7.5$である.次に,ユーザ要求タイプが天気問い合わせである場合を考える.ここでは,簡単のため,$Plan_{3}$が最適プランであると仮定する.これは,天気問い合わせの場合は,場所や日が未定であると,すべての場所や日についての天気情報を伝達しなければならず,情報伝達コストが極端に増大すると考えるのが自然であるからである.また,属性を確認する順序によって確認コストは変わらないと仮定しているので,$Plan_{3}$に含まれる確認行動,情報伝達行動の順序を入れ換えたプランも最適プランとなる.最適プラン$Plan_{3}$の確認コストは,$2.5+4.5+4.5=11.5$となる.応答文は「晴れです」といった文であると仮定する.情報伝達コストは$1$となる.したがって,最適コストは$12.5$となる.同様に,気温問い合わせ,降水確率問い合わせの場合も,最適プランは$Plan_{3}$と$Plan_{3}$に含まれる確認行動と情報伝達行動の順序を入れ換えた対話プランであると考える.なお,ここでは,簡単のため$Plan_{3}$が最適プランであると仮定しているが,システムのデータベースに登録されている場所の数が少ない場合には,場所属性についての確認を行わないで,すべての場所の天気情報をユーザに対し伝達するという対話プランが最適プランになることもありえる.\subsection{システム行動の選択}{\bf(Step3)}では,各ユーザ要求タイプごとにシステム行動の損失が計算される.システム行動$Act$の損失を計算するためには,まず,システム行動$Act$を含むような対話プランで,最小の対話コストをもつプランが探索される.そのプランをシステム行動$Act$のための準最適プランとよび,その対話コストを準最適コストとよぶ.システム行動$Act$の損失は最適コストと準最適コストの差であると定義する.例として,$Act_{1}$と$Act_{2}$の2つの行動に注目する.警報問い合わせに関して,$Act_{1}$の準最適プランは,最適プラン$Plan_{1}$に等しく,$Act_{1}$の損失は0である.$Act_{2}$の準最適プランが$Plan_{2}$であるとすると,$Act_{2}$の損失は$10-7.5=2.5$となる.天気問い合わせ,気温問い合わせ,降水確率問い合わせに関しては,最適プラン$Plan_{3}$の中に$Act_{1}$,$Act_{2}$が含まれているので,$Act_{1}$,$Act_{2}$の損失はいずれも0となる.次に,{\bf(Step4)}において期待損失が計算される.今取り上げている例では,ユーザ要求タイプの確率分布によらず,$Act_{1}$の期待損失は0であり,$Act_{2}$の期待損失は正値をとるので,$Act_{1}$が次のシステム行動として選択される.すなわち,ユーザが「神奈川県」といった発話を行ったとシステムが認識した場合には,対話全体を効率的に進めるという観点からは,「神奈川県ですか?」と場所の確認をするのではなく,「どういった情報をお尋ねですか?」,「天気についてお尋ねですか?」といった情報種別を要求する発話を行うことが望ましい.さらに複雑な例においては,期待損失を計算するためにユーザ要求タイプの確率分布が必要となる.ここでは,ユーザ要求タイプのシステム理解状態に対する適切度\cite{YDK:01}という概念に基づいて,ユーザ要求タイプの確率分布を近似的に求める.現在のシステム理解状態において,各属性$attr_{i}\(i=1,...,n)$が値$v_{i}$をとっており,各属性の属性認識率は$r_{i}$であるとする.このシステム理解状態から導かれる可能なユーザ要求タイプが$REQ_{j}\(j=1,...,m)$であるとする.このとき,ユーザ要求タイプ$REQ_{j}$として有効な属性の個数を$N_{REQ_{j}}$,属性値$v_{i}$が有効となるようなユーザ要求タイプの個数を$M_{v_{i}}$とするとき,ユーザ要求タイプ$REQ_{j}$の現在のシステム理解状態に対する適切度$Relevance(REQ_{j})$を次のように定義する.\begin{equation}Relevance(REQ_{j})=\frac{1}{N_{REQ_{j}}}\sum_{i=1}^{n}\frac{r_{i}}{M_{v_{i}}}\end{equation}デュアルコスト法は,各ユーザ要求タイプの適切度を正規化したものをユーザ要求タイプの確率分布として用いている.例として取り上げているシステム理解状態${\bfS_{1}}$では,各ユーザ要求タイプの確率は等確率で$0.25$となる.したがって,$Act_{1}$の期待損失は$0$,$Act_{2}$の期待損失は$2.5\times0.25=0.63$となる.
\section{評価}
\label{sec-experiment}システムと模擬ユーザとの間のシミュレーション対話実験によって,デュアルコスト法の評価を行った.模擬ユーザとは,実ユーザの振舞をシミュレートしながらシステムと対話するエージェントである.各対話の初期時点において,模擬ユーザはシステムに対する要求内容を保持している.ユーザはシステムに要求内容を伝え,ユーザとシステムは確認対話を通して要求内容を確定する.要求内容が確定すると,システムは確定したユーザ要求内容に応じたデータをユーザに伝達する.システムと模擬ユーザは,音声で対話するのではなく,発話内容を属性と値の対のリストとして表現した上で、属性と値の対のリストをやり取りすることによって対話を行う.ユーザの発話内容をシステムに送るときには,属性認識率に応じて属性値に誤りが含まれるように,システムの音声認識誤りをシミュレートした.実験で用いたタスクは,\ref{sec-system}節で述べた気象情報案内タスクである.場所は50個の都市,日は今日か明日の2通りである.警報種別としては,洪水,大雨など10個の種別がある.システムは,データベースの中に,各都市の今日,明日の天気,最高気温と最低気温,6時間ごとの降水確率のデータを保持している.また,警報については,現在どこにも警報は発表されていないということをデータとして保持している.このデータベースの内容の場合,警報の問い合わせに関しては,情報種別だけを確認することが,最適な対話プランとなる.天気,気温,降水確率の問い合わせに関しては,たいていの場合,場所,日,情報種別の属性をすべてを確認することが最適な対話プランとなる.ただし,属性認識率が低い状況においては,日属性の確認を行わずに,今日と明日の両日の気象情報を伝達することが,最適なプランとなる場合もある.これは,属性認識率によっては,日属性の確認をするための確認対話が,一日分の気象情報を伝達するための応答文よりも長くなる場合があるからである.デュアルコスト法と比較するために,システム知識の範囲にかかわらずユーザ要求の内容のすべてを逐一確認する2つの従来方法として,従来法1,従来法2と呼ぶ対話制御方法を用いた.従来法1は,できるだけ多くの属性を一度に確定しようとする方法であり,従来法2は,属性を一つずつ確定する方法である.従来法1は次のように動作する.なお,従来法1,従来法2とデュアルコスト法の違いは,以下に述べる点のみである.\begin{description}\item[(C1-1)]システム理解状態から可能なユーザ要求タイプを導き出す.\item[(C1-2)]システム理解状態において,既に値が与えられている属性があるなら,そういった属性の値をできるだけ多く一度に確定するための確認行動を選択し,{\bf(C1-4)}へ移行する.さもなければ,{\bf(C1-3)}へ移行する.\item[(C1-3)]できだけ多くのユーザ要求タイプで有効となる属性を優先するように,値が与えられていない属性を一つ選択し,その属性のための情報要求行動を選択する.\item[(C1-4)]選択されたシステム行動を実行し,ユーザからの応答を待って,システム理解状態を更新する.\item[(C1-5)]ユーザ要求タイプが一意に決まっており,その要求タイプの属性値がすべて確定しているなら,システム情報伝達フェーズに移行する.さもなければ,{\bf(C1-1)}に戻る.\end{description}従来法2は,従来法1の{\bf(C1-2)}を次の{\bf(C2-2)}に置き換えた方法である.\begin{description}\item[(C2-2)]システム理解状態において,値が既に与えられている属性があるなら,それらの属性の一つを確定するための確認行動を選択し,{\bf(C1-4)}へ移行する.さもなければ,{\bf(C1-3)}へ移行する.\end{description}模擬ユーザの振舞は以下の通りである.\begin{description}\item[(U1)]対話の開始時点で要求内容の一部をシステムに伝える.\item[(U2)]システムの確認発話に対して,訂正発話か承認発話を行う.訂正発話は,システムの確認発話に含まれるすべての属性の値を伝達することによって行う.\item[(U3)]システムの情報要求発話に対して,属性の値を伝達するための発話を行う.\item[(U4)]システムがユーザ要求タイプにとって無効な属性の値を要求してきたならば,システム発話を拒否する.\end{description}{\bf(U4)}は,ユーザ要求タイプが天気問い合わせであるにもかかわらず,システムが警報種別属性の値を要求してくるような場合に相当する.そういった場合,ユーザはシステムの情報要求に応えることができないことを伝えるための発話(拒否発話)を行う.システムは,ユーザの拒否発話を受け取ると,現在の行動をあきらめ,別のシステム行動を選択し,実行する.各方法において別のシステム行動を選択する際の基準を説明する.デュアルコスト法では,損失ができるだけ小さい行動を優先して選択する.従来法1では,{\bf(C1-2)}で選んだ確認行動が拒否されたなら,まだ確認を試みていない属性の組合せのうち,できるだけ多くの属性の値を一度に確定する確認行動を優先して選択し,{\bf(C1-3)}で選んだ情報要求行動が拒否されたなら,まだ情報要求を試みていない属性のうち,できだけ多くのユーザ要求タイプで有効となる属性を優先して選び,その属性のための情報要求行動を選択する.従来法2では,{\bf(C2-2)}で選んだ確認行動が拒否されたなら,値が与えられている別の属性を任意に選び,その属性についての確認行動を選択する.{\bf(C1-3)}で選んだ情報要求行動が拒否された場合は,従来法1と同様である.シミュレーション対話実験では,4つのユーザ要求タイプごとに,ユーザの要求内容をランダムに生成した.各属性の属性認識率を等しく0.5から1.0まで0.005刻みで変化させていった.各認識率において5000回のシミュレーション対話が実施された.3つの対話制御法の性能を対話の効率性の観点から比較した.対話の効率性は,タスクが完了するまでの対話の長さの平均によって評価した.対話の長さは,\ref{sec-cost}節で述べた基準に加えて,模擬ユーザの振舞{\bf(U4)}におけるユーザ拒否発話は簡潔な否定的表現(例:「いいえ」,「分かりません」)として実現されると仮定した上で,拒否発話の長さは1であるという基準にしたがって計算した.\begin{figure}[t]{\begin{center}\atari(76.2,53.3)\end{center}\caption{ユーザ要求タイプが警報問い合わせの場合における属性認識率に応じた対話の長さの平均}\label{p-a-1-graph}}\end{figure}\begin{figure}[t]{\begin{center}\atari(76.2,53.3)\end{center}\caption{ユーザ要求タイプが気温問い合わせの場合における属性認識率に応じた対話の長さの平均}\label{p-a-3-graph}}\end{figure}シミュレーション対話実験の結果を示す.図~\ref{p-a-1-graph}は,ユーザ要求タイプが警報問い合わせの場合における属性の認識率に応じた対話の長さの平均の推移を示しており,図~\ref{p-a-3-graph}は,ユーザ要求タイプが気温問い合わせの場合における属性の認識率に応じた対話の長さの平均の推移を示している.警報問い合わせと気温問い合わせの2例を取り上げたのは,警報問い合わせの場合は,場所属性の確認を回避できるという点で,デュアルコスト法の効果が最も発揮されやすい場合であり,気温問い合わせの場合は,デュアルコストであっても,場所属性,日属性,情報種別属性のすべてを確認しなければならない場合がほとんどであり,デュアルコスト法の効果を発揮することが困難な場合であるからである.両極端な場合を取り上げることにより,デュアルコスト法にとって有利な状況では,デュアルコスト法が実際に効果を上げることができ,そうでない状況であっても,従来法に比べて対話の効率を低下させないことを実証することを目的とする.図\ref{p-a-1-graph}から分かるように,ユーザ要求タイプが警報問い合わせの場合,デュアルコスト法は,従来法1,従来法2と比較して,より効率的に対話を実施できた.警報問い合わせの場合には,警報がどこにも発表されていないというデータベースの内容であるにもかかわらず,場所属性の確認をすると対話が著しく無駄になる場合があるが,デュアルコスト法は,従来法1,従来法2が避けることができない無駄な対話を回避することによって,対話を効率的に実施できたことが分かる.この実験においては,システムは模擬ユーザ発話を正しく認識できるとは限らず,模擬ユーザが警報の問い合わせを行ったとしても,システムは天気,気温,降水確率の問い合わせであると誤認識する場合がある.また,ユーザは対話開始時点において要求内容のすべてを伝えるとは限らない.そのような場合にはシステム理解状態からはユーザ要求タイプを警報問い合わせであると一意に決定することはできないが,デュアルコスト法は,期待損失という概念を活用することによって,対話全体の効率性を向上させるように対話を制御できたことが分かる.図\ref{p-a-3-graph}から分かるように,ユーザ要求タイプが気温問い合わせの場合には,デュアルコスト法による対話の効率性は,従来法2とほぼ同じである.これは,気温問い合わせの場合には,デュアルコスト法であろうと,場所属性,日属性,情報種別属性をすべて確認しなければならない場合がほとんどであるからである.データベースの内容によらずユーザ要求のすべてを逐一確認しなければならないような場合であっても,デュアルコスト法が対話の効率を低下させることはない.このことから,デュアルコスト法は圧倒的に効果を発揮しやすい場合から,効果を発揮することが困難な場合まで,すべての場合で有効であることが言える.なお,図\ref{p-a-1-graph},図\ref{p-a-3-graph}の双方において,属性認識率が低い状況では,従来法1の効率が極端に低い.これは,認識率が低い状況では,できるだけ多くの属性の値を一度に確定するという従来法1の戦略が,模擬ユーザからの多くの訂正発話を引き起こしてしまうため,不利に働くからある.認識率が低い状況では,属性の値を1個ずつ確定するという従来法2の戦略の方が有利に働く.また,図\ref{p-a-3-graph}において,従来法2が,属性認識率が1.0に近づくと,デュアルコスト法より効率が低下していくのは,認識率が高い状況では,複数の属性の値をまとめて確定した方が有利であるにもかかわらず,従来法2が属性の値を常に1個ずつ確定する戦略をとるからである.デュアルコスト法では,一度に値を確定する属性の可能な組合せごとに異なる対話プランを用意し,認識率に応じて自動的に適切なプランを選択することができる.このことにより,デュアルコスト法は,認識率が高い状況では,複数の属性の値を一度に確定する対話プランを選択することになり,従来法2より有利であったと考えることができる.この実験においては,4つの属性から成るタスクを用いたが,属性の数はデュアルコスト法にとっては本質的なことではない.属性の数が多くなっても,ここで用いた気象情報案内タスクのように,データベースの内容が日々更新され,対話時点のデータベースの内容に依存して対話を制御しないことには,短い対話でユーザの必要とする情報を伝達することができないようなタスクであれば,デュアルコスト法は効果を発揮する.
\section{おわりに}
\label{sec-concl}本稿では,音声対話システムが対話時点でデータベース内に保有する知識の制限下でユーザとの間で効率的な対話を実施するための対話制御法として,デュアルコスト法を提案した.デュアルコスト法によって,システムが詳しい情報を保有していない事柄に関して,ユーザが詳細な情報を要求する場合であっても,システムは,現在のデータベースの内容に応じて,短い対話でユーザが必要とする情報を伝達することができる.デュアルコスト法は,対話の各時点において,確認コストと情報伝達コストという2つのコストの和を最小化するという原理に基づいて,システム行動を選択する.このことにより,デュアルコスト法は,対話全体の長さを最小化するように対話を制御し,従来の方法では避けることができなかった無駄な確認を回避しながら、短い対話でユーザの必要とする情報を伝達することができる.また,システムと模擬ユーザの間のシミュレーション対話実験によって,デュアルコスト法が,ユーザ要求内容のすべてを逐一確認する従来法と比較して,より効率的に対話を実施できることを実証した.\acknowledgment日頃よりご指導いただくNTT先端技術総合研究所東倉洋一所長,コミュニケーション科学基礎研究所石井健一郎所長,メディア情報研究部村瀬洋部長,ATRメディア情報科学研究所萩田紀博所長,熱心に討論してくださるNTTコミュニケーション科学基礎研究所メディア情報研究部マルチモーダル対話研究グループの諸氏に感謝致します.\bibliographystyle{jnlpbbl}\bibliography{dohsaka-bib}\section*{付録}\subsection*{ターン数の期待値$TURN_{c}$の導出}ここでは,\ref{sec-cost}節の式(\ref{turnc-label})で示した確認行動が完了するまでのターン数の期待値$TURN_{c}$の導出過程を説明する.確認対話を通して値を確定すべき属性の集合${\bfA}$が与えられている.属性集合${\bfA}$の認識率を$p$($0<p<1$)とする.\ref{sec-cost}節で定義した通り,属性集合${\bfA}$の認識率とは,${\bfA}$に含まれるすべての属性の値を一度に正しく認識できる確率である.また,ユーザの承認発話は常に正しく認識されるものと仮定する.確認対話は,システムの確認発話とそれに続くユーザの承認発話あるいは訂正発話から成るターンが繰り返されることによって進行する.各ターンにおいて,システムとユーザは次のように行動すると仮定する.\begin{description}\item[\bf(システムの確認発話)]システムは,システム理解状態にしたがって,${\bfA}$に含まれるすべての属性の値を提示する.\item[\bf(ユーザの承認発話あるいは訂正発話)]システムが提示した属性値がすべて正しいなら,ユーザは承認発話を行う.さもなければ,ユーザは${\bfA}$に含まれるすべての属性の正しい値を提示することにより,訂正発話を行う.\end{description}ユーザが承認発話を行う場合,システムは承認発話を常に正しく認識すると仮定しているので,その時点で確認対話は終了する.ユーザが訂正発話を行う場合,システム理解状態はユーザ訂正発話の認識結果にしたがって更新され,次のターンが始まる.システムがユーザによって提示された属性値をすべて正しく認識する確率は$p$であるので,確認対話が1ターンで終了する確率は$p$となる.次に,確認対話が2ターンで終了する確率を考える.確認対話が2ターンで終了するということは,1ターン目の冒頭では,システムがいずれかの属性の値を正しく認識できておらず,2ターン目の冒頭では,1ターン目のユーザ訂正発話にしたがって,システムが属性の値をすべて正しく認識していることを意味する.したがって,確認対話が2ターンで終了する確率は$(1-p)p$となる.同様に,3ターンで終了する確率は$(1-p)^{2}p$,$i$ターンで終了する確率は$(1-p)^{(i-1)}p$となる.結局,確認対話が終了までに要するターン数の期待値は,次の式で与えられる.\begin{equation}\label{e1}TURN_{c}=\sum_{i=1}^{\infty}i(1-p)^{(i-1)}p\end{equation}次に,式(\ref{e1})の値が$\frac{1}{p}$となることを導出する.式(\ref{e1})の右辺の$n$項までの和を$S(n)$とおく.\begin{equation}S(n)=\sum_{i=1}^{n}i(1-p)^{(i-1)}p\end{equation}$TURN_{c}$は,$S(n)$を使って,次のように書ける.\begin{equation}\label{e2}TURN_{c}=\lim_{n\rightarrow\infty}S(n)\end{equation}ここで$S(n)-(1-p)S(n)$を計算する.\begin{eqnarray}\lefteqn{S(n)-(1-p)S(n)=}\nonumber\\&p&+2(1-p)p+\cdots+n(1-p)^{(n-1)}p\nonumber\\&&-1(1-p)p-\cdots-(n-1)(1-p)^{(n-1)}p-n(1-p)^{n}p=\nonumber\\\label{e3}&p&+(1-p)p+\cdots+(1-p)^{(n-1)}p-n(1-p)^{n}p\end{eqnarray}式(\ref{e3})の最初のn項の和は,初項$p$,公比$1-p$の等比数列の$n$項までの和であるから,次が導かれる.\begin{equation}S(n)-(1-p)S(n)=\frac{p((1-p)^{n}-1)}{(1-p)-1}-n(1-p)^{n}p\end{equation}辺々を変形すると,\begin{equation}pS(n)=-(1-p)^{n}+1-n(1-p)^{n}p\end{equation}$p$は$0$よりも大きな値を仮定しているので,辺々を$p$で割ると,\begin{equation}\label{e4}S(n)=-\frac{(1-p)^{n}}{p}+\frac{1}{p}-n(1-p)^{n}\end{equation}$p$は$1$よりも小さな値であることを仮定しているので,式(\ref{e4})の右辺の第1項と第3項は,$n$を無限大に近づけると,$0$に収束する.したがって,式(\ref{e2}),(\ref{e4})より,次を得る.\begin{equation}TURN_{c}=\lim_{n\rightarrow\infty}S(n)=\frac{1}{p}\end{equation}\begin{biography}\biotitle{略歴}\bioauthor{堂坂浩二}{1984年大阪大学基礎工学部情報工学科卒業.1986年同大学院博士前期課程了.同年,日本電信電話(株)入社.現在,NTTコミュニケーション科学基礎研究所勤務.音声対話システム,言語生成,文脈理解の研究に従事.情報処理学会平成9年度論文賞受賞.言語処理学会,ACL,情報処理学会,電子情報通信学会,人工知能学会各会員.}\bioauthor{安田宜仁}{1997年京都大学総合人間学部基礎科学科卒業.1999年同大学院人間・環境学研究科修士課程了.同年,日本電信電話(株)入社.現在,NTTコミュニケーション科学基礎研究所勤務.音声対話システムの研究に従事.}\bioauthor{相川清明}{1975年東京大学工学部電子工学科卒業.1980年同大学院博士課程了.工学博士.同年,日本電信電話公社武蔵野電気通信研究所入所.現在,NTTコミュニケーション科学基礎研究所勤務.連続音声認識,聴覚モデル,ニューラルネット,音声対話システムの研究に従事.1997年テレコムシステム技術賞,日本音響学会佐藤論文賞受賞.IEEE,ASA,日本音響学会,電子情報通信学会,情報処理学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V20N02-08 | \section{はじめに}
label{intro}述語項構造解析は,言語処理分野における挑戦的な研究分野の一つである.この解析は,自然文または自然文による文章から,「誰が,何を,誰に,どうした」というような,基本的な構造情報を抽出する.これらの情報は,文書要約や機械翻訳など,他の応用的な言語処理研究に不可欠なものであり,その他にも幅広い応用が期待されている.図\ref{example1}に,日本語の述語項構造の一例を示す.この例では,「行った」が\textbf{述語}であり,この述語が二つの\emph{項}を持っている.一つは\textbf{ガ格}の「彼」,もう一つは\textbf{ニ格}の「図書館」である.このように,述語とそれに対応する項を抽出し,\textbf{格}と呼ばれるラベルを付与するのが述語項構造解析である.それゆえに,述語項構造解析は,格解析と呼ばれることもある.本稿では,個々の述語—項の間にある関係を\emph{述語項関係},そして,文全体における述語項関係の集合を\emph{述語項構造}と呼ぶことにする.\begin{figure}[b]\begin{center}\includegraphics{20-2ia8f1.eps}\end{center}\caption{日本語述語項構造の例}\label{example1}\end{figure}尚,一般には図\ref{example1}の「昨日」という単語も時間格相当の項の対象となり得るが,本研究の述語項構造解析では限定的な述語項関係を対象としており,「昨日」はその対象としない.この対象の範囲は解析に利用するデータのアノテーション基準に依存する.本研究ではNAISTテキストコーパス~\cite{iida:2007:law}を利用しており,このデータのアノテーションに準拠した述語項関係のみの解析を行う.日本語以外の言語では,意味役割付与と呼ばれる述語項構造解析に相当する解析が行われている.特に英語では,FrameNet~\cite{fillmore:2001:paclic}やPropBank~\cite{palmer:2005:cl}など,意味役割を付与した中規模のコーパスが構築されてきた.さらに近年では,CoNLLSharedTask\footnote{CoNLLSharedTask2004,2005では意味役割付与(SemanticRoleLabeling),同2008,2009では意味論的依存構造解析(SemanticDependencyParsing)のタスクが設定された.}などの評価型ワークショップが意味役割付与をテーマとして複数行われ,盛んに研究されている.日本語の述語項構造解析はいくつかの点で英語の意味役割付与以上に困難であると考えられている.中でも特に大きな問題とされるのが,\emph{ゼロ照応}と呼ばれる現象である.この現象は,述語に対する必須格が省略される現象で,日本語では特にガ格の省略が頻繁に起きる.英語では対象となる述語の項がその述語と同一の文内に出現する上,必須格の述語項関係については,直接係り受け関係(係り受け木上の親子関係)になる場合が多い.ゆえにPropBankではタグ付与の範囲を同一文内に限定しており,解析も相対的に容易になる.ゼロ照応には分類があり,述語に対する項の出現位置によって,\emph{文内ゼロ照応},\emph{文間ゼロ照応},\emph{文章外ゼロ照応(外界照応)}の三つに大別される.述語項関係の種類は,この3種類のゼロ照応に加えて,直接係り受け関係にある場合(以下,「\emph{直接係り受け}」とする),そして同一文節内にある照応(以下,「\emph{同一文節内}」とする)がある.本研究では「直接係り受け」と「文内ゼロ照応」を対象に解析を行うものとする.日本語の述語項構造解析研究では,平ら~\cite{taira:2008:emnlp}や今村ら~\cite{imamura:2009:acl}がNAISTテキストコーパスを用いた研究を行っているが,彼らはいずれも,コーパス中に存在する3種類の格:ガ格,ヲ格,ニ格について,別々のモデルを構築して解析を行っている.また別の視点から見ると,彼らの手法は``述語毎''に解析を行っていると言える.英語における意味役割付与の手法でも,この``述語毎''の解析を行った手法が多い~\cite{toutanova:2008:cl,watanabe:2010:acl}.しかしながら,現実の文書では同じ述語に属する項の間には依存関係があると考えられる.例えば,次の文を考えてみる.\begin{enumerate}\item\textit{ライオン}$_i$が\textit{シマウマ}$_j$を\underline{食べた}$_{ガ:i,ヲ:j}$\end{enumerate}この例文の``食べた''という述語に対し,ガ格とヲ格がともに``ライオン''になることは考えにくいが,ガ格とヲ格を個別に扱う分類器で解析を行った場合,このような矛盾した結果を生んでしまうことがありうる.さらには,ある述語とその項の関係を同定する際に,文内にある他の述語との関係が同定の手がかりになることがある.次の例文を見てみよう.\begin{enumerate}\setcounter{enumi}{1}\itemライオン$_i$に\underline{追いかけ}$_{ガ:i,ヲ:j}$られたシマウマ$_j$が谷底$_k$に\underline{落ちた}$_{ガ:j,二:k}$\end{enumerate}この例文(2)において``ライオン''が項として妥当なものであり,且つ,述語``落ちた''の項が``シマウマ''と``谷底''だけであると仮定すると,``ライオン''はもう一つの述語``追いかける''の項になることが確定する.このように,同一文内に複数の述語が存在し,固有表現などを手がかりとして,項候補が絞り込まれている時には,どの項候補をどの述語に割り当てるべきかという述語間の依存関係を考慮することで,最適な述語—項の配置を得ることができるのである.本研究では日本語の述語項構造解析を扱うが,``文毎''の解析を行う手法を用い,文内に複数ある述語項関係の重要な依存関係を利用できるようにする.このような依存関係を大域的な制約として扱うために,本研究ではMarkovLogicを利用した解析器を提案する.英語の意味役割付与ではMarkovLogicによる手法が提案されており,効果的であることが示されている~\cite{meza:2009:naacl}.これは,MarkovLogicモデルが複数の述語項関係を捉え,その間の依存関係を考慮することにより,文内における論理的矛盾を軽減できるためである.さらに本研究では,述語項構造の要素として不適切な文節を効率的に削減するため,新たな大域的制約を導入する.明らかに不適切な候補を削除することは,適切な述語項構造を抽出するための探索空間を小さくすることができ,項同定を行う述語の推論をより確かなものとする.本稿の実験では,MarkovLogicを用いた日本語述語項構造解析を行い,その大域的制約が効果的に働くことを詳細に示す.従来手法の結果と比較しても,本研究の提案手法は,同等以上の結果を達成していることを示す.また,定性的な分析においても,大域的制約が効果的に働いた事例を紹介する.なお,次章以降,本稿の構成は次のようになる.まず2章では関連研究についてまとめ,3章ではMarkovLogicについて導入の説明を行う.4章では提案手法として構築されるMarkovLogicNetworkについて詳細に述べる.5章は評価実験について述べ,実験結果について考察する.6章はまとめである.
\section{関連研究}
label{related}日本語における述語項構造のタグ付きコーパスとして代表的なものには,京都大学テキストコーパス~\cite{kawahara:2002:jnlp}とNAISTテキストコーパス~\cite{iida:2007:law}がある.これら二つのコーパスを中心にして日本語述語項構造解析の研究は進められてきた.また,CoNLLSharedTask2009~\cite{hajivc:2009:conll}は多言語を対象にした意味役割付与のワークショップであり,日本語述語項構造解析もタスクの一つとして取り組まれた.本研究で用いたデータはNAISTテキストコーパスである.NAISTテキストコーパスは,毎日新聞から抽出された2,929記事,38,384文に対して,述語項構造及び照応・共参照のタグが付与されている.NAISTテキストコーパスでは,ガ格,ヲ格,ニ格の3種類の格のみを表層格レベルで扱っているが,格交替を考慮するなど,京都大学テキストコーパスとは異なるタグ付け基準を採用して述語項構造を付与している.NAISTテキストコーパスが付与するのは述語項構造と照応の情報だけであるが,京都大学テキストコーパスのテキストに対してアノテーションされているため,人手で整備された形態素や係り受けの情報を利用することができる.本研究でもこれらの情報については京都大学テキストコーパスのものを利用する.本研究で利用するNAISTテキストコーパスにおける日本語述語項構造解析の先行研究として代表的なものは二つある.一つは平らによるSVM分類器と決定リストの併用による述語項構造解析~\cite{taira:2008:emnlp}で,彼らの研究では動詞だけで無く,事態性名詞についても述語項構造の解析を行っている.もう一つは,最大エントロピー法に大規模データから構築した言語モデルを組み合わせることで,平らを上回る性能を達成した今村らの研究である~\cite{imamura:2009:acl}.今村らの研究では,述語項構造の解析対象を述語に限定しており事態性名詞は扱っていない.また,述語項が同一文節内にある場合は無視できる程に少ないため,直接係り受け,文内ゼロ照応,文間ゼロ照応の3種類のみの解析を行っている.本研究の解析対象は今村らの研究よりも一段狭く,述語と項が同一文内にある場合に限定される.これは文内の全体最適化を行うためだが,その従来研究手法との差異を以下で説明する.平らと今村らの手法は,ガ,ヲ,ニという3種類の格毎に別々の分類器を構築して解析するものであった(図\ref{models}左を参照).ゆえに,彼らの手法では格の間にある依存関係を無視したまま解析を行っていた.しかし,この格間の依存関係を無視することは,しばしば矛盾した解析結果を出力する危険性を孕むことになる.例えば,図\ref{models}にある左のモデルでは,ガ格と二格の両方に,同じ名詞句``NP2''を出力しているが,一般に同じ名詞句が一つの述語の二つ以上の格を占めることは起こりにくく,このような事例は矛盾していることが多い.格間の依存関係を無視したモデルでは,このような事例が起こり得るのである.\begin{figure}[b]\begin{center}\includegraphics{20-2ia8f2.eps}\end{center}\caption{本研究の提案手法と従来手法との相違}\label{models}\end{figure}本研究で提案するMarkovLogicモデルは,三つの格を同時に取扱い,格間の依存関係を考慮しながら,最適な状態を見つけ出すことができる手法である.その結果として,先に示したような矛盾を排除できるのである(図\ref{models}右).さらに,今村らのモデルとは対照的に,本研究の提案手法は大規模データを利用しない.今村らは大規模データを元に構築した言語モデルを利用することで,述語と項の間における選択選好性を考慮している.一方,本研究では,文内での全体最適化により,大規模データを利用することなく解析している.MarkovLogicモデルによる述語項構造解析の先行研究はCoNLLSharedTask2008,2009にある.また英語では特に詳しい報告がMeza-Ruizらによってなされている~\cite{meza:2009:naacl}.彼らの手法では,述語項構造解析を,述語同定,項同定,語義曖昧性解消,そして意味役割付与の四つの部分問題に分割しており,これらの部分問題を同時に解くモデルを提案している.本研究では彼らの手法を元にして日本語述語項構造解析器を構築する.実験結果を比較するため,平ら及び今村らの実験設定に合わせ,本研究では述語項構造解析問題のうち,項同定及び,意味役割付与のみを対象とする.ただし,日本語では格(ガ,ヲ,ニ)の同定が意味役割付与に代わることになる.MarkovLogicを利用しない述語項構造解析の同時推定手法も,CoNLLSharedTaskの参加者を中心に様々なモデルが提案されている.例えば,\cite{toutanova:2008:cl}と\cite{watanabe:2010:acl}は,それぞれCoNLLSharedTask2005と2009のデータを利用して同時推定モデルを提案している.ただし,彼らの手法は\emph{述語毎}の推定モデルであるのに対し,本研究やMeza-RuizらのMarkovLogicモデルが\emph{文毎}の推定を行うモデルであるのは大きな相違点である.NAISTテキストコーパスは,出現する述語の格フレーム辞書が整備されていない上に,格交替を考慮した述語項構造アノテーションを持ったデータである.特に日本語では主節と従属節とで格要素を共有する形式,ゼロ代名詞の出現が多く,このようなデータに対する述語項構造解析は,一つの述語を考慮するだけでは,その項の充足が決定できないため,文毎での解析により文全体での最適化手法が望ましいと考えられる.さらに,この最適化手法は直接係り受けの述語項関係と比較して,述語と項の統語的関係が弱い文内ゼロ照応の場合にこそ,高い効果を発揮すると期待できる.
\section{MarkovLogic}
\label{mln}述語項構造解析を含めて,我々が現実に遭遇する問題の多くは,局所的な分類学習だけで挑んでも十分な解決を望めないことは古くから認識されてきた.局所的な分類学習に対し,統計的な変量の間にある全体的(大域的)な相互関係をとらえながら学習を行うのが,統計的関係学習である~\cite{ng:1992}.MarkovLogicは近年急速に広まりつつある統計的関係学習法の一つであり,全体最適化を可能にする学習と推論のための統合的な枠組みである.これは一階述語論理とMarkovNetworksを組み合わせたもので,本来矛盾が許されない一階述語論理式に,ある程度の罰則を以って矛盾を許容する枠組みであると考えることができる.また,それはMarkovNetworksを一階述語論理式によって表現するテンプレート言語であるとの解釈もできる.自然言語処理の分野においても,実体解析~\cite{singla:2006:icdm},情報抽出~\cite{poon:2007:aaai},共参照解析~\cite{poon:2008:emnlp}など,大域的な制約が重要な分野において特に利用されてきた.本研究でこのMarkovLogicが日本語述語項構造解析に適した枠組みであると考える理由は三つある.一つ目は,二律背反の絶対的な制約をモデル化する\emph{hard}制約と,実数値による重みで強さを制御できる\emph{soft}制約の2種類の全体制約を利用できること,二つ目は,識別学習を利用できること,三つ目は,フリーで利用できるライブラリがあることである.統計的関係学習法としては,他にもPRM~\cite{koller:1999}や,RMN~\cite{taskar:2002:uai}があるが,上に挙げた3点を満たしてはいない.MarkovLogicでは,重み付きの論理式の集合を\emph{MarkovLogicNetworks}(MLNs)と呼ぶ.一つのMLN\emph{M}は,$(\phi,w)$の組の集合であり,$\phi$が一階述語論理式,$w$が実数値の重みとなる.定義された一階述語に対する基底述語(\emph{groundatom})の集合を,可能世界と呼び,\emph{M}は一つの可能世界に対して,次のような確率分布を定義する.\begin{equation}\prob\left(\y\right)=\frac{1}{Z}\exp\left(\sum_{\left(\phi,w\right)\inM}w\sum_{\boldc\inC^{\phi}}f_{\boldc}^{\phi}\left(\y\right)\right)\label{eq:prob}\end{equation}ここで,$\boldc$は論理式$\phi$の中にある変数に対して割り当てられる定数の組であり,論理式$\phi$に$\boldc$を割り当てた論理式を基底論理式(\emph{groundformula})と呼んでいる.$f_{\boldc}^{\phi}$は,対応する基底論理式が可能世界$\y$の中で真の場合には1,偽の場合は0となるような二値の素性関数である.$C^{\phi}$は定数組の定義域であり,$\phi$が持つ変数はこの定義域内の値により全て置き換えることができる.また$Z$は正規化定数である.この確率分布は,一つのMarkovNetwork(\emph{GroundMarkovNetwork})に対応しており,このネットワーク構造の中で,頂点が示すのは基底述語,辺を含む部分完全グラフが示すのは基底論理式である.MarkovLogicにおける論理式の設計は人手で行う必要があり,この作業は従来の機械学習器を利用する場合の素性選択に対応する.その前段階として,解くべき問題に合わせて有効な学習手法や効率的な推論手法を選択する必要があるのはMarkovLogicにおいても同様である.しかし,これらの実装については,{\itAlchemy}\footnote{http://alchemy.cs.washington.edu/}や{\itMarkovthebeast}\footnote{http://code.google.com/p/thebeast/}など,既存のツールを利用することができるので,次節以降では,述語項構造解析のために,どのような論理式を設計するかに焦点を絞って述べるものとする.
\section{提案手法}
\label{method}この節では日本語述語項構造解析のためのMarkovLogicモデルについて,その詳細を述べる.\subsection{述語定義}まずはMarkovLogicNetwork(MLN)の構築に必要な論理述語を定義することからはじめる.論理述語には2種類ある.一つは推定したい情報を表すもので,モデルには学習時にだけその情報を与えるため,潜在述語(\emph{hiddenpredicate})と呼ばれる.もう一つは,観測述語(\emph{observedpredicate})と呼ばれ,学習時と推定時の両方において,モデルにその情報が与えられる.表\ref{hidden}には本研究で定義した三つの潜在述語が示されている.これら三つの潜在述語が,我々の推定したい情報を定義している.即ち,文節$a$は述語の項になっているか(項同定),文節$i$は削除されるか(項候補削減),述語$p$は文節$a$を項に持ち,その意味役割が$r$になるか(意味役割付与)である.最初の二つの推定事項に対しては1変数の$\mathit{isArg}(a)$と$\mathit{delete}(i)$が対応し,残り一つに対しては$\mathit{role}(p,a,r)$という3変数の潜在述語が対応することになる.\begin{table}[b]\caption{潜在述語}\label{hidden}\input{08table01.txt}\end{table}本研究の手法はMarkovLogicによる英語意味役割付与~\cite{meza:2009:naacl}を元にしている.先に述べた通り,Meza-Ruizらは問題を四つの部分問題に分け,それに対して五つの潜在述語(\emph{isPredicate,isArgument,hasRole,role,sense})を定義している.しかし,本研究では,先行研究~\cite{taira:2008:emnlp,imamura:2009:acl}との比較のため,項同定と意味役割付与に限定して行っている.その結果,表\ref{hidden}の三つが本研究で定義する潜在述語となった.項同定を固有の推定問題として扱うことには議論の余地がある.項同定は述語との組で定義するべきで,$\mathit{isArg}$が単体で定義されるのは不自然と考えることもできる.しかし,固有表現抽出などにより同定される,「人物・組織」といった名詞は,高確率で何らかの述語の項となり,逆にどの述語とも結びつかないことが不自然である.そこで,項同定を一つの推定すべき問題として定義することで,項として同定されるものが,孤立するような事象を避けるように解析を行うのである.同様の議論はMeza-Ruizらの研究でも見られ,英語においても項同定を一つのタスクとして扱うことで,一定の性能向上が達成されることを彼らは報告している~\cite{meza:2009:naacl}.ただし,\emph{isArg}は\emph{role}や\emph{delete}と制約で結ばれるため,学習・推論時に項同定が独立して解析されるわけではなく,項から述語に対する制約を与えるために定義した潜在述語であると捉えることもできる.一方,観測述語は潜在述語の推定のために利用される手がかりとなる情報を定義する.例えば,$\mathit{form}(i,w)$は文節$i$が表層形$w$を持つことを表現する観測述語である.観測述語で表される情報には,表層形,品詞,固有表現など,様々なものが考えられるため,潜在述語に比べてその種類は多くなる.全ての観測述語は表\ref{observed}にまとめて示した.\begin{table}[t]\caption{観測述語}\label{observed}\input{08table02.txt}\end{table}潜在述語と観測述語が定義されれば,次はこれらの組み合わせによって論理式を考えていくことになる.まずは$\mathit{isArg}$と$\mathit{role}$に着目し,その局所論理式と大域論理式について,それぞれ\ref{lf}節と\ref{gf}節で述べる.$\mathit{delete}$については\ref{deletion}節でまとめて説明する.\subsection{局所論理式}\label{lf}局所論理式(\emph{localformula})とは,潜在述語をただ一つしか含まない論理式のことである.一方,観測述語については任意の数含めることができる.即ち,一つの推定事項に対して,その素性や制約の組み合わせを考える論理式となる.$\mathit{isArg}$や$\mathit{delete}$に対する局所論理式は,対象となる一つの文節について,語彙的及び構文的な特徴を捉えたものである.例えば単語表層形に対する局所的な特徴を表現した論理式は次のようになる\begin{equation}\mathit{form}(a,+w)\Rightarrow\mathit{isArg}(a).\label{word}\end{equation}これは文節$a$が表層形$w$の単語を持つならば項であるということ表している.尚,$+$という表現は,この論理式が表層形$w$によって別々に重み付けされることを示す.$\mathit{role}$に対する局所論理式は,対象とする文節が二つあり,その間の特徴を捉えることになる.例えば,\begin{equation}\mathit{ne}(a,+n)\wedge\mathit{dep}(p,a,+d)\Rightarrow\mathit{role}(p,a,+r)\label{path}\end{equation}が表すのは,文節$a$に対する固有表現と,述語$p$と文節$a$の間の係り受け関係を組み合わせた特徴である.この式(\ref{path})と同様に,表\ref{observed}にある$\mathit{goiMatch}$\footnote{$\mathit{goiMatch}$と$\mathit{goiCate}$にはシソーラスである日本語語彙大系~\cite{ikehara:1997}を利用している.},$\mathit{dep}$,$\mathit{path}$の三つの観測述語は,他の観測述語と組み合わせで論理式を構築する.式(\ref{word})や式(\ref{path})などの一階述語論理式は,MarkovNetworkの素性テンプレートと考えることができる.即ち,一つのテンプレートからは複数の基底論理式(\emph{groundformula})が生成され,別々の重みがつくことになる.式(\ref{word})が生成する基底論理式を,図\ref{example1}の例から考えてみると,\begin{gather}\mathit{form}\left(a,``\mbox{昨日''}\right)\Rightarrow\mathit{isArg}\left(a\right)\label{yesterday}\\\mathit{form}\left(a,``\mbox{図書館''}\right)\Rightarrow\mathit{isArg}\left(a\right)\label{library}\end{gather}は,学習によってそれぞれ別の重みを獲得することになる.図\ref{example1}の事例から学習すれば,``図書館''はニ格になり,``昨日''は項となっていないため,式(\ref{library})が式(\ref{yesterday})よりも大きな重みを獲得するものと考えられる.このように,論理式のもつ曖昧さは重みによって制御されるため,曖昧な制約でも記述することができるのである.\subsection{大域論理式}\label{gf}局所論理式で扱う素性は,局所的な分類器でも捉えることできるが,MarkovLogicではさらに次のような記述も可能である.\begin{equation}\mathit{isArg}\left(a\right)\Rightarrow\existsp.\exists\mathit{r.role}(p,a,r)\label{a2r}\end{equation}これはある文節$a$が項であるならば,少なくとも一つ以上の述語と関係があることを保証する論理式である.式(\ref{a2r})のように,二つ以上の潜在述語を持つ論理式のことを大域論理式と呼ぶ.この大域論理式を利用することで,本研究のモデルは複数の決定を同時に行うことができるようになる.即ち,$\mathit{isArg}$と$\mathit{role}$の依存関係まで考慮して,最適な状態を推定することが可能になるのである.このような大域的な素性は,局所的な分類器では捉えることが難しく,MarkovLogicを利用する最大の利点となる.\begin{table}[t]\centering\caption{\emph{isArg}と\emph{role}のための大域論理式}\label{global}\input{08table03.txt}\end{table}本研究で$\mathit{isArg}$と$\mathit{role}$に対して定義する大域論理式は表\ref{global}にまとめて示した.表\ref{global}にある大域論理式は全てhard制約であり,潜在述語の間の一貫性を確保するための制約である.MLNの中で,hard制約は無限の重みを持つ特別な論理式として定義されており,この制約に違反した可能世界は決して解として選択されない.例えば,式(\ref{a2r})は$\mathit{isArg}$から$\mathit{role}$への一貫性を保証している.$\mathit{role}$と$\mathit{isArg}$の一貫性を保つためにあるもう一つの論理式は,\begin{equation}\mathit{role}(p,a,r)\Rightarrow\mathit{isArg}\left(a\right)\label{r2a}\end{equation}であり,文節$a$が述語$p$の項となるならば,文節$a$は項であることを保証する.残る大域論理式は,\begin{equation}\mathit{role}(p,a,r_1)\wedger_1\neqr_2\Rightarrow\neg\mathit{role}(p,a,r_2)\label{r2r}\end{equation}のように二つ$\mathit{role}$間の関係を表現したもので,述語$p$と項$a$の間には,ただ一つの意味役割しか成立しないことを保証している.これにより,図\ref{models}で示したような論理的矛盾を回避できることになる.日本語述語項構造解析において,大きな障害となるゼロ照応に対しては,式(\ref{a2r})と式(\ref{r2r})が大きく貢献できると予想される.つまり,式(\ref{r2r})は,ある述語において格が重複することを防ぐものであり,式(\ref{a2r})は,述語との統語的な関係が弱い項候補であっても,孤立する(どの述語の格にもならない)ことが無いように,文全体の項候補に対して適切な述語と格の割り当てを行うためのものである.これにより,複数の述語に対して統語的関係の強い項候補が,他の候補との依存関係を考えずに,格を独占してしまう状態を回避できるのである.\subsection{削除論理式}\label{deletion}本節では項候補削減に関する論理式を解説する.項候補削減は,述語と項に関係のない文節を探索空間から削除することで,効率的に項の同定を行うとともに,精度の向上を狙うのが目的である.どのような考えに基づいて項候補を削減するか,その具体例を図\ref{example2}に示した.この例には,文末に``行った''という述語があり,その項候補となる文節が五つ存在する.この五つの中から,正しい項として,文節``彼は''をガ格に,``図書館に''をニ格に,それぞれ同定するのが述語項構造解析である.そして,項候補削減は,五つの候補から項を選ぶのではなく,項にならない候補を削除する.もしも``母の新しい車で''という抽出対象ではない具格を構成する句を削除できたなら,残り二つの候補から正しい項を選ぶことは容易である.この項候補削減の着想は文書自動要約の要素技術である文圧縮からきており,近年,係り受け関係を利用することによって,文の統語構造を維持したままに適切な単語の削除を行い,文を圧縮する手法が提案されている.~\cite{clarke:2008:jair,huang:2012:aaai}削除論理式のために定義された$\mathit{delete}$は,このような文圧縮の手法を利用して,述語と項にならない文節を削除するために定義されたものである.\begin{figure}[t]\begin{center}\includegraphics{20-2ia8f3.eps}\end{center}\caption{具格を持つ述語項構造の例}\label{example2}\end{figure}ただし,ここで重要なことは,本研究ではこの項候補削減を前処理として行うのではなく,項同定と同時に行っている点である.なぜなら,過剰な項候補の削減は,再現率を大幅に傷つけることになるからで,本研究ではこの現象を\emph{過剰削減}と呼んでいる.項同定,項候補削減,意味役割付与の三つを同時に行うモデルを作ることにより,過剰削減を防いだ上で述語項構造解析の性能を改善している.削除論理式にも局所論理式と大域論理式がある.まず,局所論理式として,次の式(\ref{notPred})のように,一つだけhard制約を導入する.\begin{equation}\mathit{isPred}(i)\Leftrightarrow\neg\mathit{delete}(i).\label{notPred}\end{equation}これにより,述語になる文節は削除されないということを表現している.残りの局所論理式については,全てsoft制約で,\ref{lf}節で述べた$\mathit{isArg}$と同じ素性を使って定義している.例外は,次の式(\ref{bias})で,\begin{equation}\mathit{dep}(i,j,+d)\wedge\mathit{isPred}(j)\Rightarrow\neg\mathit{delete}(i).\label{bias}\end{equation}これは述語と係り受け関係にある文節は削除しないという制約を表現している.一般に,述語項構造関係にある文節対の多くは統語構造的にも依存関係があることが知られている.表\ref{sts}にはコーパスの統計を示したが,述語項構造関係の多くが直接係り受け関係にあることが分かる.この制約もsoft制約であり,削除されないことを保証するわけではない.英語など,ラベルありの係り受け解析が行われる場合には,係り受けラベル$d$によってその制約の強弱が重み付けされる.しかし,日本語の係り受けラベルは,多くの場合``D''になるため,ラベルによる強弱の差は期待できない.しかし,局所論理式は一つの文節に対して,それを削除するか否かという視点しか持つことができず,削減による十分な性能改善は期待できない.\emph{delete}の追加により十分な効果を得るためには,大域論理式の利用が必要になる.\emph{delete}のための大域論理式は,表\ref{delFormula}に示すように,三つのhard制約と一つのsoft制約がある.この表\ref{delFormula}にある上の三つが,$\mathit{isArg}$及び$\mathit{role}$との整合性を保証するためのhard制約である.例えば,\begin{equation}\mathit{delete}(i)\Rightarrow\neg\mathit{isArg}(i)\end{equation}この論理式は削除された文節は項とならないことを保証している.\begin{table}[b]\centering\caption{大域削除論理式}\label{delFormula}\input{08table04.txt}\end{table}表\ref{delFormula}にある最後の論理式は次のsoft制約として定義している,\begin{equation}\mathit{form}(h,+w)\wedge\mathit{pos}(h,+p)\wedge\mathit{dep}(h,m,+d)\wedge\mathit{delete}(h)\Rightarrow\mathit{delete}(m)\label{del}\end{equation}これは,親(ヘッド)となる文節$h$が削除された時,それに依存した子文節$m$も同じく削除するということを表した大域論理式である.この論理式は常に成り立つものではないが,コーパスからの学習した重みによって緩和された制約となり,適切な削除が行われる.式(\ref{del})による制約の働きで,先に述べたような具格になる句の削除が実現される.図\ref{example2}の例を考えてみると,式(\ref{del})は次のように展開される.\begin{equation}\mathit{form}(4,``\mbox{車で}'')\wedge\mathit{pos}(4,\mbox{名詞+助詞—格助詞})\wedge\mathit{dep}(4,2,``D'')\wedge\mathit{delete}(4)\Rightarrow\mathit{delete}(2)\label{delGround}\end{equation}これはつまり,``車で''が削除されたならば,``母の''も同じく削除されるということを表現している.soft制約なので必ず保証される制約ではないが,割り当てられている重みに準じて削除が行われる.図\ref{tree}に示したのは,図\ref{example2}の文を解析して出力した係り受け木である.この木の中では,式(\ref{del})の制約によって,``車で''以下の部分木に属する文節が全て削除されることになる.本来,係り受け木でこのような枝刈りを行う場合,係り受けのラベルが大きな役割を果たすことが多い.英語の文圧縮では,係り受けラベルを利用した単語・句の削除が行われている~\cite{clarke:2008:jair,clarke:2010:cl}.しかし,日本語ではほとんどのラベルが``D(通常の係り受け)''であり,他の``P(並列)'',``A(同格)'',``I(部分並列)'',といったラベルは数が少なく,連用修飾や連体修飾といった係り受け関係情報を持たないため,係り受けラベル$d$によって式(\ref{del})の重みを変えることが述語項構造解析に寄与しないと考える.その代替になるものとして,表層形と品詞の組み合わせを利用している.例えば,式(\ref{delGround})のように表層形が``車で''になり,品詞が``名詞''+``助詞—格助詞''ならば,具格の可能性が高いので,重みを大きくすることになる.もし,英語に本研究の削減手法を適用するのであれば,係り受けのラベルを利用するのが単純で効果的であろう.\begin{figure}[t]\begin{center}\includegraphics{20-2ia8f4.eps}\end{center}\caption{係り受け木を利用した具格の削減}\label{tree}\end{figure}
\section{実験と結果}
\label{ex}\subsection{実験設定}本研究の実験は,先行研究である平ら~\cite{taira:2008:emnlp}と今村ら~\cite{imamura:2009:acl}の実験設定を元にする.まずは実験に利用したデータ及びツールについて述べる.実験データはNAISTテキストコーパスで,この最新版はバージョン$1.5$であるが,平ら及び今村らの実験設定に合わせるため,本研究ではバージョン$1.4\beta$を選択し,そのニュース記事及び社説記事の両方を利用する.実験に際してこのデータを三つに分割する.訓練データとして,1月1日から1月11日までのニュース記事と,1月から8月までの社説記事を,開発データとしては,1月12日と1月13日のニュース記事及び,9月の社説記事を,残りの1月14日から17日までのニュース記事と,10月から12月の社説記事を評価データとして利用するものとする.このデータの分割方法は,平ら~\cite{taira:2008:emnlp}の方法と同じである.次に評価データにおける統計を表\ref{sts}に示す.この表に示される通り,述語項関係の格ラベルとしては,ガ格が一番多いことが分かる.また,\ref{related}章でも述べた通り,述語項関係の種類として,直接の係り受け関係にあるもの(直接係り受け)が,文内のゼロ照応関係にあるもの(ゼロ照応(文内))よりも多い.しかしながら,日本語は英語などと比較すると,格の省略と呼ばれるゼロ照応が頻出することも確かであり,特にガ格では無視できない数となっている.述語項関係の種類について,より詳細な議論は\cite{iida:2006:acl}にある.日本語には文間の述語項関係も存在するが,本研究で扱う述語項関係は,文内のものに限られる.\ref{method}章で述べた通り,本研究で提案するMarkovLogicを利用した手法は,対象とする文全体で最適化を行うことで述語項関係を推定している.この全体最適化の枠組みは,計算量の点で,文から文章へと単純に拡張することが難しい.このことが本研究では文間の述語項関係を扱えなかった理由である.実験では,文内の最適化を正しく行うため,文間の述語項関係を含む文については省いた上で,学習・開発・評価を行うものとする.素性を抽出するため,本研究では,京都大学テキストコーパスの品詞タグ及び係り受けタグを利用する.さらに,CaboChaバージョン0.53\footnote{http:/code.google.com/p/cabocha/}を利用して,固有表現タグを付与する.平ららの研究を参考にし,本研究でも選択選好の素性を扱うために,日本語語彙大系~\cite{ikehara:1997}を利用する.学習及び推定には,自然言語処理向けのMarkovLogicエンジンであるMarkovthebeastを利用している.\begin{table}[b]\caption{評価データにおける述語項関係の統計}\label{sts}\input{08table05.txt}\end{table}\subsection{実験結果}\begin{table}[b]\caption{局所モデルvs大域モデル(潜在述語の正解率,再現率,F値)}\label{ret1}\input{08table06.txt}\end{table}まず,表\ref{ret1}に示したのは,大域的制約を利用したモデルと利用しないモデルの比較である.\textbf{大域モデル(\textit{Global})}が,大域的制約を利用したモデルであり,\textbf{局所モデル(\textit{Local})}が,大域的制約を利用していないモデルである.ここで言う大域的制約とは,\ref{method}章で示した表\ref{global}と表\ref{delFormula}の論理式のことである.表\ref{ret1}には,潜在述語それぞれについて,精度(P),再現率(R),F値(F)を示した.F値で評価すれば,局所モデルに比べて大域モデルは,全ての述語について性能が改善されている.この改善はマクネマー検定により統計的に有意であることを確認した.大域モデルが局所モデルよりも性能が良いということは,ただ大域的制約が有効というだけでなく,本研究で扱っている三つの部分問題,項同定(\emph{isArg}),項候補削減(\emph{delete}),意味役割付与(\emph{role})の間には相互関係があり,同時に解くことが述語項構造解析の性能改善に意味があるということを示している.意味役割付与の結果で特に大きく改善したのは再現率で,より多くの述語項関係を抽出できるようになったことが分かる.表\ref{ret3}には,大域モデルに対して,\emph{isArg}(項同定)を削除した時と,\emph{delete}(項候補削減)を削除した時,それぞれの意味役割付与の結果がどのように変化するかを示してある.この表\ref{ret3}から,$\mathit{delete}$の削除は$\mathit{isArg}$よりも性能の低下が大きいことが分かる.また,$\mathit{isArg}$の削除が精度を下げるのに対し,$\mathit{delete}$の削除は再現率を傷つけることも分かる.両方の潜在述語を削除した時は,局所モデルと同じである.次に,表\ref{ret2}では,意味役割付与についてより詳細な結果を示す.この表では,意味役割付与の結果をガ格,ヲ格,ニ格,それぞれに分けて示し,直接係り受けか,文内ゼロ照応か,その種類によっても分けている.示した数値は全てF値である.\begin{table}[b]\centering\caption{潜在述語($\mathit{isArg}$,$\mathit{delete}$)を削除した時の意味役割付与(role)の解析性能}\label{ret3}\input{08table07.txt}\end{table}\begin{table}[b]\centering\caption{先行研究との比較}\label{ret2}\input{08table08.txt}\end{table}大域モデルは文内ゼロ照応において,局所モデルよりも性能が高いことが分かる.特にガ格の文内ゼロ照応では,$42.1\%$から$54.1\%$に大きく改善している.この結果は,大域的制約により,文全体での最適化を行ったことから導かれたものと考察できる.即ち,直接係り受け関係に無いということは,述語項間に構文的なつながりが薄いことを意味しており,局所的な素性のみでその関係を捉えることは難しいのである.本研究の大域的制約は特にそのような場合において大きな性能改善を実現している.続いて先行研究である平ら及び今村らの結果との比較を行う.この表\ref{ret2}には,格ごとに最も高い性能の数値を太字で示してある.ガ格では,本研究の大域モデルが二つの先行研究の結果を圧倒している.一方,ヲ格とニ格では,本研究の結果は相対的に低い数値となっている.本研究の提案手法は,三つの格を一つのモデル(大域モデル)で扱うため,ヲ格とニ格よりも数の多いガ格を多く同定し,出力するのである.しかしながら,ガ格は一般に必須格と呼ばれ,述語項構造解析で最も重要な格であることが知られている.従って,先行研究に比べ,その必須格を多く正確に抽出できる本研究の提案手法の意義は大きいと考えられる.本研究では,今村らのように大規模データを利用していないが,彼らのシステムと同等以上の結果を達成している.\paragraph{誤り分析}\begin{center}\Rubyb{この}{1}\Rubyb{ため}{2},\Rubyb{灰色狼の}{3}\Rubyb{\underline{\bf米復活を}}{4}\Rubyb{\colorbox[gray]{.75}{進める}}{5}\Rubyb{\underline{\bf魚類野生動物局が}}{6}\Rubyb{カナダで}{7}\Rubyb{\colorbox[gray]{.75}{捕獲した}}{8}\Rubyb{野性の}{9}\Rubyb{\underline{\bf十二匹を}}{10}\Rubyb{\colorbox[gray]{.75}{空輸}}{11}.\end{center}ここで示した例文では,三つの述語(網掛け)と三つの項(下線付き)がある.関係節を伴うために述語項関係が複雑で,システムにとって間違い易い事例である.局所モデルでこの文を解析した場合,出力される述語項関係($\mathit{role}$)は,\begin{gather*}\{\mathit{role}(5,6,\ga),\mathit{role}(5,4,\wo),\mathit{role}(8,6,\ga),\\\underline{\mbox{$\mathit{role}(11,2,\ga)$}},\mathit{role}(11,10,\wo)\}\end{gather*}まず,誤りとして挙げられる点は,``捕獲した''のヲ格が出力されていないことである.この理由は,NAISTテキストコーパスが格フレーム辞書を持っていないため,``捕獲した''という述語が一般にヲ格を取ることが分からないからである.もう一つの誤りは,下線のついている$\mathit{role}(11,2,\ga)$のように,``空輸''という述語に対し,``ため''をガ格として出力していることである.この理由は,``ため''が``空輸''と直接係り受けの関係にあるからである.一方,大域モデルで解析した結果を見ると,次のように改善されている.\begin{gather*}\{\mathit{role}(5,6,\ga),\mathit{role}(5,4,\wo),\mathit{role}(8,6,\ga),\\\underline{\mbox{$\mathit{role}(8,10,\wo)$}},\underline{\mbox{$\mathit{role}(11,6,\ga)$}},\mathit{role}(11,10,\wo)\}.\end{gather*}大域モデルは,格フレーム情報など意味的な素性が少ないにも関わらず,``十二匹を''を``捕獲した''のヲ格として同定できている.この述語項関係は連体修飾である関係節と被修飾名詞との間に格関係が認められる「内の関係」と呼ばれるものであり,一般に同定することが難しい.阿辺川らは,連体修飾節と非修飾名詞が格関係にあるかどうかを判別するために,大規模データを利用している~\cite{abekawa:2005:ijcnlp}.しかし,MarkovLogicを利用した本研究の提案手法では,文内の全体最適化でそれを実現している.さらに言えば,大域モデルでは,$\{\mathit{delete}(1),\mathit{delete}(2),\mathit{delete}(7)\}$も出力されており,``この''と``ため''はともに項の候補になっていない.結果として,``魚類野性動物局が''を正しく``空輸''に対するガ格として抽出できているのである.
\section{おわりに}
\label{conclusion}本稿では,MarkovLogicを利用した日本語述語項構造解析手法を提案した.この提案手法は,複数の述語項関係の依存関係を捉える制約と,項候補削減を行う制約を組み合わせて文内最適化を行うもので,これらの大域的制約により,述語項構造解析の性能を大幅に向上させることに成功した.実験では,大規模データを利用していないにもかかわらず,先行研究と同等の性能を達成している.今後の展望としては,今村らの研究を参考に,大規模データの併用して,さらに解析性能を向上させることを考えている.大規模データから得られた選択選好性の素性は,本研究では先行研究に比べて性能が低かったヲ格,ニ格について,特に性能の改善が期待できる.また,今回は項候補を削減する際に,文内の局所的な素性・制約を考えるに留まったが,より正確に不要な項候補を削減できるようにするため,現在,文圧縮の技術についても調査を進めている.本研究の提案手法は文内最適化を主軸としたため,直接係り受けと文内ゼロ照応の2種類の述語項構造のみを扱った.つまり,文間ゼロ照応を含む一般の文書に対して解析を行った場合,本研究の手法のままでは性能が低下することが予想される.NAISTテキストコーパス中において,文間ゼロ照応が述語項関係全体に占める割合は,ヲ格及び二格では3\%未満に留まるが,ガ格の場合には15\%程度になり,無視できない数となる~\cite{iida:2007:law}.本研究の提案手法の優位性を保ったまま文間ゼロ照応を扱うために考えられる方法として,次の一つが有力だと考えている.\begin{enumerate}\item文間ゼロ照応の項候補を別システムで抽出し,その候補を含めて文内最適化を行う\item文書全体での最適化を行う\end{enumerate}まず,一つ目はゼロ照応があると仮定した時の,文外にある先行詞候補を常にリストの形式で保持しておき,文内の解析を行う際に,そのリスト内の候補を含めて解析を行う手法である.これはゼロ照応解析の先行詞同定では有効な手法~\cite{iida:2009:acl}であり,広大な先行詞の探索空間を大幅に削減して,効率的な解析を行える手段であると考える.ただし,文内の項候補に比べて,文外の項候補には利用できる素性が大幅に少なくなるため,推論時には文内と文外でバランスを取る必要があるものと考える.二つ目の手法は文内の最適化を,文書全体へと拡張する手法であるといえる.この手法の最大の問題点は文書全体が項の探索空間になることによる膨大な計算量である.現在の文書最適化手法を単純に拡張するだけでは時間・空間計算量共に実用的な範囲には収まらない.従って,この手法を実現するためには,文圧縮・文書要約の技術を併用することで,可能な限りに項の探索空間を削減すると共に,制約緩和などの近似手法を併用することも必要と考えられる.\acknowledgment本研究の一部は,国立国語研究所基幹型共同研究「コーパスアノテーションの基礎研究」および国立国語研究所「超大規模コーパス構築プロジェクト」による補助を得ています.\bibliographystyle{jnlpbbl_1.5}{\addtolength{\baselineskip}{-1pt}\begin{thebibliography}{}\bibitem[\protect\BCAY{Abekawa\BBA\Okumura}{Abekawa\BBA\Okumura}{2005}]{abekawa:2005:ijcnlp}Abekawa,T.\BBACOMMA\\BBA\Okumura,M.\BBOP2005\BBCP.\newblock\BBOQCorpus-BasedAnalysisofJapaneseRelativeClauseConstructions.\BBCQ\\newblockIn{\BemProceedingsof2ndInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP)},\mbox{\BPGS\46--57},JejuIsland,Korea.\bibitem[\protect\BCAY{Clarke\BBA\Lapata}{Clarke\BBA\Lapata}{2008}]{clarke:2008:jair}Clarke,J.\BBACOMMA\\BBA\Lapata,M.\BBOP2008\BBCP.\newblock\BBOQGlobalInferenceforSentenceCompressionAnIntegerLinearProgrammingApproach.\BBCQ\\newblock{\BemJournalofArtificialIntelligenceResearch},{\Bbf31},\mbox{\BPGS\399--429}.\bibitem[\protect\BCAY{Clarke\BBA\Lapata}{Clarke\BBA\Lapata}{2010}]{clarke:2010:cl}Clarke,J.\BBACOMMA\\BBA\Lapata,M.\BBOP2010\BBCP.\newblock\BBOQDiscourseconstraintsfordocumentcompression.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf36}(3),\mbox{\BPGS\411--441}.\bibitem[\protect\BCAY{Fillmore,Wooters,\BBA\Baker}{Fillmoreet~al.}{2001}]{fillmore:2001:paclic}Fillmore,C.~J.,Wooters,C.,\BBA\Baker,C.~F.\BBOP2001\BBCP.\newblock\BBOQBuildingaLargeLexicalDatabankWhichProvidesDeepSemantics.\BBCQ\\newblockIn{\BemProceedingsofthePacificAsianConferenceonLanguage,InformationandComputation(PACLIC)},\mbox{\BPGS\3--26},HongKong.\bibitem[\protect\BCAY{Haji\v{c},Ciaramita,Johansson,Kawahara,Mart\'{\i},M\`{a}rquez,Meyers,Nivre,Pad\'{o},\v{S}t\v{e}p\'{a}nek,Stra\v{n}\'{a}k,Surdeanu,Xue,\BBA\Zhang}{Haji\v{c}et~al.}{2009}]{hajivc:2009:conll}Haji\v{c},J.,Ciaramita,M.,Johansson,R.,Kawahara,D.,Mart\'{\i},M.~A.,M\`{a}rquez,L.,Meyers,A.,Nivre,J.,Pad\'{o},S.,\v{S}t\v{e}p\'{a}nek,J.,Stra\v{n}\'{a}k,P.,Surdeanu,M.,Xue,N.,\BBA\Zhang,Y.\BBOP2009\BBCP.\newblock\BBOQTheCoNLL-2009SharedTask:SyntacticandSemanticDependenciesinMultipleLanguages.\BBCQ\\newblockIn{\BemProceedingsoftheThirteenthConferenceonComputationalNaturalLanguageLearning(CoNLL2009):SharedTask},\mbox{\BPGS\1--18},Boulder,Colorado.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Huang,Shi,Jin,\BBA\Zhu}{Huanget~al.}{2012}]{huang:2012:aaai}Huang,M.,Shi,X.,Jin,F.,\BBA\Zhu,X.\BBOP2012\BBCP.\newblock\BBOQUsingFirst-OrderLogictoCompressSentences.\BBCQ\\newblockIn{\BemTwenty-SixthAAAIConferenceonArtificialIntelligence(AAAI'12)},\mbox{\BPGS\1657--1663}.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2006}]{iida:2006:acl}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2006\BBCP.\newblock\BBOQExploitingsyntacticpatternsascluesinzero-anaphoraresolution.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsandthe44thannualmeetingoftheAssociationforComputationalLinguistics},ACL-44,\mbox{\BPGS\625--632},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2009}]{iida:2009:acl}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2009\BBCP.\newblock\BBOQCapturingSaliencewithaTrainableCacheModelforZero-anaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheACLandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP},\mbox{\BPGS\647--655},Suntec,Singapore.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Iida,Komachi,Inui,\BBA\Matsumoto}{Iidaet~al.}{2007}]{iida:2007:law}Iida,R.,Komachi,M.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQAnnotatingaJapanesetextcorpuswithpredicate-argumentandcoreferencerelations.\BBCQ\\newblockIn{\BemProceedingsoftheLinguisticAnnotationWorkshop},LAW'07,\mbox{\BPGS\132--139},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Ikehara,Miyazaki,Shirai,Yokoo,Nakaiwa,Ogura,Ooyama,\BBA\Hayashi}{Ikeharaet~al.}{1997}]{ikehara:1997}Ikehara,S.,Miyazaki,M.,Shirai,S.,Yokoo,A.,Nakaiwa,H.,Ogura,K.,Ooyama,Y.,\BBA\Hayashi,Y.\BBOP1997\BBCP.\newblock{\BemNihongoGoiTaikei,AJapaneseLexicon}.\newblockIwanamiShoten,Tokyo.\bibitem[\protect\BCAY{Imamura,Saito,\BBA\Izumi}{Imamuraet~al.}{2009}]{imamura:2009:acl}Imamura,K.,Saito,K.,\BBA\Izumi,T.\BBOP2009\BBCP.\newblock\BBOQDiscriminativeApproachtoPredicate-ArgumentStructureAnalysiswithZero-AnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheACLandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP(ACL-IJCNLP),ConferenceShortPapers},\mbox{\BPGS\85--88},Suntec,Singapore.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kawahara,Kurohashi,\BBA\Hashida}{Kawaharaet~al.}{2002}]{kawahara:2002:jnlp}Kawahara,D.,Kurohashi,S.,\BBA\Hashida,K.\BBOP2002\BBCP.\newblock\BBOQConstructionofJapaneserelevance-taggedcorpus.\BBCQ\\newblockIn{\Bemthe8thAnnualMeetingoftheAssociationforNaturalLanguageProcessing},\mbox{\BPGS\495--498}.\bibitem[\protect\BCAY{Koller}{Koller}{1999}]{koller:1999}Koller,D.\BBOP1999\BBCP.\newblock{\BemProbabilisticRelationalModels},\mbox{\BPGS\3--13}.\newblockSpringer,Berlin/Heidelberg,Germany.\bibitem[\protect\BCAY{Meza-Ruiz\BBA\Riedel}{Meza-Ruiz\BBA\Riedel}{2009}]{meza:2009:naacl}Meza-Ruiz,I.\BBACOMMA\\BBA\Riedel,S.\BBOP2009\BBCP.\newblock\BBOQJointlyIdentifyingPredicates,ArgumentsandSensesusingMarkovLogic.\BBCQ\\newblockIn{\BemProceedingsofHumanLanguageTechnologies:The2009AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\155--163},Boulder,CO,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Ng\BBA\Subrahmanian}{Ng\BBA\Subrahmanian}{1992}]{ng:1992}Ng,R.\BBACOMMA\\BBA\Subrahmanian,V.~S.\BBOP1992\BBCP.\newblock\BBOQProbabilisticlogicprogramming.\BBCQ\\newblock{\BemInf.Comput.},{\Bbf101}(2),\mbox{\BPGS\150--201}.\bibitem[\protect\BCAY{Palmer,Kingsbury,\BBA\Gildea}{Palmeret~al.}{2005}]{palmer:2005:cl}Palmer,M.,Kingsbury,P.,\BBA\Gildea,D.\BBOP2005\BBCP.\newblock\BBOQThePropositionBank:AnAnnotatedCorpusofSemanticRoles.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf31},\mbox{\BPGS\71--106}.\bibitem[\protect\BCAY{Poon\BBA\Domingos}{Poon\BBA\Domingos}{2007}]{poon:2007:aaai}Poon,H.\BBACOMMA\\BBA\Domingos,P.\BBOP2007\BBCP.\newblock\BBOQJointInferenceinInformationExtraction.\BBCQ\\newblockIn{\BemProceedingsoftheTwenty-SecondNationalConferenceonArtificialIntelligence},\mbox{\BPGS\913--918},Vancouver,Canada.AAAIPress.\bibitem[\protect\BCAY{Poon\BBA\Domingos}{Poon\BBA\Domingos}{2008}]{poon:2008:emnlp}Poon,H.\BBACOMMA\\BBA\Domingos,P.\BBOP2008\BBCP.\newblock\BBOQJointUnsupervisedCoreferenceResolutionwith{MarkovLogic}.\BBCQ\\newblockIn{\BemProceedingsofthe2008ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\650--659},Honolulu,Hawaii.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Singla\BBA\Domingos}{Singla\BBA\Domingos}{2006}]{singla:2006:icdm}Singla,P.\BBACOMMA\\BBA\Domingos,P.\BBOP2006\BBCP.\newblock\BBOQEntityResolutionwithMarkovLogic.\BBCQ\\newblockIn{\BemProceedingsoftheSixthInternationalConferenceonDataMining(ICDM)},\mbox{\BPGS\572--582},Washington,DC,USA.IEEEComputerSociety.\bibitem[\protect\BCAY{Taira,Fujita,\BBA\Nagata}{Tairaet~al.}{2008}]{taira:2008:emnlp}Taira,H.,Fujita,S.,\BBA\Nagata,M.\BBOP2008\BBCP.\newblock\BBOQAJapanesepredicateargumentstructureanalysisusingdecisionlists.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\523--532},Honolulu,HI,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Taskar,Pieter,\BBA\Koller}{Taskaret~al.}{2002}]{taskar:2002:uai}Taskar,B.,Pieter,A.,\BBA\Koller,D.\BBOP2002\BBCP.\newblock\BBOQDiscriminativeProbabilisticModelsforRelationalData.\BBCQ\\newblockIn{\BemProceedingsofthe18thAnnualConferenceonUncertaintyinArtificialIntelligence(UAI-02)},\mbox{\BPGS\485--492},SanFrancisco,CA.MorganKaufmann.\bibitem[\protect\BCAY{Toutanova,Haghighi,\BBA\Manning}{Toutanovaet~al.}{2008}]{toutanova:2008:cl}Toutanova,K.,Haghighi,A.,\BBA\Manning,C.~D.\BBOP2008\BBCP.\newblock\BBOQAglobaljointmodelforsemanticrolelabeling.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf34},\mbox{\BPGS\161--191}.\bibitem[\protect\BCAY{Watanabe,Asahara,\BBA\Matsumoto}{Watanabeet~al.}{2010}]{watanabe:2010:acl}Watanabe,Y.,Asahara,M.,\BBA\Matsumoto,Y.\BBOP2010\BBCP.\newblock\BBOQAStructuredModelforJointLearningofArgumentRolesandPredicateSenses.\BBCQ\\newblockIn{\BemProceedingsoftheACL2010ConferenceShortPapers},\mbox{\BPGS\98--102},Uppsala,Sweden.AssociationforComputationalLinguistics.\end{thebibliography}}\begin{biography}\bioauthor{吉川克正}{2005年東北大学工学部材料加工学科卒業.2006〜2007年アイダホ大学計算機科学科.2009年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2011年同大学情報科学研究科博士後期課程修了.同年より日本学術振興会特別研究員.2011〜2012年東京工業大学精密工学研究所.2012年日本アイ・ビー・エム株式会社入社.同社東京基礎研究所にて自然言語処理の研究開発に従事.博士(工学).}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2004年より同大学助教.2012年より国立国語研究所コーパス開発センター特任准教授.現在に至る.博士(工学).自然言語処理・コーパス言語学の研究に従事.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒業.1979年同大学工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜1985年英国インペリアルカレッジ客員研究員.1985〜1987年財団法人新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授.現在に至る.工学博士.専門は自然言語処理.}\end{biography}\biodate\end{document}
| |
V12N01-04 | \section{はじめに}
省略補完や代用表現の解釈といった対話理解のための対話構造のモデル化と解析は,音声対話を対象にした機械翻訳の分野で特に重要とされている.これに対し,チャット対話を対象とした対話構造のモデル化と解析は,情報抽出やコミュニケーション支援といったチャット対話を言語資源として利用する研究分野においても重要とされている\cite{Khan:02,Kurabayashi:02,Ogura:03}.このような分野では,「現在話されている話題は何か」「誰がどの話題について情報をもっているか」といった情報を獲得することが必要であり,各発言の相互の関係を示す対話構造を同定する必要がある.チャット対話では,表\ref{tbl:chat}のようにメッセージを送受信することで対話が進む.対話は文字データとして記録されるため,そのまま言語資源として利用できる.しかし,チャット対話はその独特の特徴のため,音声対話を対象とした既存の対話構造モデルをそのまま適用することは難しい.まず,表\ref{tbl:chat}の25と27の発言のように,質問と応答のような意味的につながりを持つ発言が隣接しない場合がある.また,質問や応答を構成する発言自体も31と32,33の発言のように区切って送信({\bf区切り送信})される場合がある\cite{Werry:96}.このように,チャット対話の基本単位は音声対話のそれとは異なる.本論文の目的は,チャット対話の発言間の二項関係である継続関係と応答関係を同定する処理を自動化して対話構造を解析する手法を提案し,その実現可能性について論じることである.2節で詳述するように同一話者による発言のまとまりを{\bfムーブ}と呼ぶ.このとき,チャット対話の対話構造を解析する作業は,次の2つの処理に分解できる.\begin{description}\item{\boldmath$継続関係の同定:$}\.同\.一\.話\.者の発言間の継続関係を同定することによってそれらをムーブにまとめる処理.\item{\boldmath$応答関係の同定:$}質問と応答のような\.異\.な\.る\.話\.者のムーブ間の応答関係を同定し,チャット対話全体の対話構造を抽出する処理.\end{description}具体的には,表\ref{tbl:chat}の発言31から33までからなるムーブを構成する発言間の二項関係(例えば,発言31と32及び発言32と33)を継続関係,質問と応答のような異なる話者のムーブ間の二項関係(例えば,発言31から33までからなるムーブと発言34からなるムーブ)を応答関係と定義し,これらの関係に基づいて,発言をまとめあげることで対話構造を解析する.本研究では,この問題をある発言とそれに先行する発言との間に継続関係があるか否か,または応答関係があるか否かの2値分類問題に分解し,コーパスベースの教師あり機械学習を試みた.解析対象はオフラインのチャット対話ログである.
\section{対話構造のモデル}
\begin{table}[tbt]\begin{center}\caption{チャット対話例}\label{tbl:chat}\begin{tabular}{cccl}\hline\hline発言ID&受信時刻&送信者名&\multicolumn{1}{c}{送信内容(発言)}\\\hline...&...&...&...\\24&23:01&A&もう少し早くやるべきだったのでは\\25&23:01&B&仕事ですか?\\26&23:01&C&すみませぬm(\_\_)m\\27&23:02&A&いえ\\28&23:02&A&ファンハール解任の話です\\29&23:02&C&インテル戦前にですか?\\30&23:02&A&いよいよ解任されそうって話です\\31&23:03&B&ファンファールのサッカーを\\32&23:03&B&出来る面子じゃありませんよ\\33&23:03&B&バルセロナは\\34&23:03&C&確かに\\...&...&...&...\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[tbt]\centerline{\includegraphics{fig/chat_layeredstructure2relateness.eps}}\caption{チャット対話の対話構造モデル}\label{fig:chat_layeredstructure2relateness}\end{figure}我々は,Sinclairらの対話構造モデル\cite{Sinclair:92}を拡張し,チャット対話に適用した.表\ref{tbl:chat}のチャット対話例にこのモデルを適用した結果を図\ref{fig:chat_layeredstructure2relateness}に示す.Sinclairらは対話構造を,複数の階層から構成される対話のやりとりの構造としてモデル化している.まず,対話中の発言を相互行為上の機能(真偽を確かめる質問や確認など)によって定義される単位である{\bfアクト}と見なす.次に,\.同\.一\.話\.者による複数のアクトを,質問や応答などの対話の局所構造の中での機能を表現する{\bfムーブ}にまとめる.さらに,\.異\.な\.る\.話\.者によるムーブの間の関係(例えば,話者Aの質問に対する話者Bの応答)を考え,こうした関係にある複数のムーブのまとまりを{\bfエクスチェンジ}とする.Sinclairらのモデルは,対話の発言間の関係を捉える道具立てとしてチャット対話の構造解析にも有用であると考えられる.しかし,チャット対話にこのモデルをそのまま適用することは2つの理由で難しい.1つ目の理由は,処理の基本単位の違いである.Sinclairらの対話構造モデルでは,区切り送信によって生じた表\ref{tbl:chat}の31のような未完結な発言を想定しておらず,そうした発言の扱いが明らかでない.2つ目の理由は,ムーブ間の応答関係の交差の問題である.チャット対話では,表1の対話例の発言24と26のように,応答関係にあるムーブ同士が必ずしも隣接しない.Sinclairらのモデルはこの例のようにムーブ間の応答関係が交差する可能性を想定していない.我々は,Sinclairらのモデルを以下のように拡張する.区切り送信は発言権を相手に渡さないために起こるとされている\cite{Hosoma:00}.我々は,このような発言を発言権の保持を意図するアクトと見なし,モデルの基本単位を区切り送信によって区切られた個々の発言に変更する.また,ムーブ間の応答関係が交差する現象を表現できるよう,交差を許すモデルに拡張する.これらの拡張により,チャット対話特有の現象を含めて対話構造を表現することができるようになり,対話構造解析アルゴリズムの議論が可能になる.また,Sinclairらのモデルは,どのような発言(アクト)同士が継続関係をなしてムーブを構成するか,あるいはどのようなムーブ同士が応答関係をなしてエクスチェンジを構成するかに関する具体的な規定が示されておらず,この点も問題である.4節に詳述するように,本論文で提案する解析手法には,教師データとして対話構造を付与した信頼性の高いコーパスが必要である.このため,対話構造モデルをチャット対話データに適用するための具体的な指針が必要である.以下2.1節及び2.2節では,発言間の継続関係およびムーブ間の応答関係を新しく規定し,指針を示す.この結果,3節で述べるように,タグ付け作業者間の判断のゆれが少ない,信頼性の高い注釈つきコーパスを構築することができた.\subsection{継続関係の定義}ムーブを構成する同一話者による発言(アクト)間の関係を継続関係と呼ぶ.表\ref{tbl:chat}の例で言うと,発言31から33までの同一話者による一連の発言のまとまりがムーブであり,発言31と32の関係及び32と33の関係をそれぞれ継続関係と言う.一方,発言28と30は同一話者による発言であるが,それぞれ異なるムーブの構成素であり,この発言間には継続関係はないと考える.上で論じたように,本モデルでは区切り送信で区切られた発言を基本単位に変更したので,どのような発言同士が継続関係をなしてムーブを構成するかを新しく規定する必要がある.以下,継続関係にある発言(例えば発言27と28)において,前の発言(例えば発言27)を先行発言,後の発言(例えば発言28)を後続発言と呼ぶ.継続関係の定義は,人間が判断しやすいもので,かつ同定の自動化も容易なものでなければならない.本論文では新たに,統語的手がかりに基づいて,継続関係を助詞類型,接続詞類型,特殊表記型,名詞類型,倒置型,挿入節型の6つの型に分けて定義する.以下に示す継続関係の例では,統語的手がかりに下線をひく.\begin{description}\item{\boldmath$助詞類型:$}先行発言(a)の末尾表現が格助詞または接続助詞,読点であるといった局所的な情報から,先行発言(a)の一部が後続発言(b)の一部に係ると判断できる場合を助詞類型を呼ぶ.\eenumsentence{\item[a)]Aさん:Bさん\underline{は}\item[b)]Aさん:技術がないからダメ.}\eenumsentence{\item[a)]Aさん:一生懸命やってるのですが\underline{、}\item[b)]Aさん:報われません}\item{\boldmath$接続詞類型:$}先行発言(a)の末尾表現が発言のはじまりを示す合図表現または接続詞,フィラー,感動詞,接続表現であるといった局所的な情報から,先行発言(a)の一部が後続発言(b)の一部に係ると判断できる場合を接続詞類型と呼ぶ.\eenumsentence{\item[a)]Aさん:\underline{あのー、で}\item[b)]Aさん:Xって会社名、聞いたことある?}\item{\boldmath$特殊表記型:$}先行発言(a)の末尾表現が終助詞または助動詞などの文末表現であり,後続発言(b)の先頭表現がエモーティコンや引用記号を使った引用表現であるといった局所的な情報から,先行発言(a)の一部が後続発言(b)の一部に係ると判断できる場合を特殊表記型と呼ぶ.\eenumsentence{\item[a)]Aさん:で,実際やめたけど\underline{ね}\item[b)]Aさん:\underline{(笑)}}\item{\boldmath$名詞型:$}先行発言(a)の末尾の形態素が名詞であり,名詞が数詞又は名詞の後に助詞が省略されていると判断でき先行発言(a)の一部が後続発言(b)の一部に係ると判断できる場合を名詞型と呼ぶ.下の例では,先行発言(a)の名詞「S選手」の後に助詞が省略されていると判断できる.\eenumsentence{\item[a)]Aさん:\underline{S選手}\item[b)]Aさん:エースですよ}\item{\boldmath$倒置型:$}後続発言(b)の一部が先行発言(a)の一部に係ると判断できる場合を倒置型と呼ぶ.\eenumsentence{\item[a)]Aさん:エースですよ\item[b)]Aさん:\underline{マンチェスターでも}}\item{\boldmath$挿入節型:$}後続発言(b)が先行発言(a)に対しての言い換えや言い直し等の挿入節と判断できる場合を挿入節型と呼ぶ.下の例では,発言(a)から(c)にかけての同一話者による一連の発言が同一ムーブである.挿入型に限り,発言(a)と(b)及び発言(a)と(c)がそれぞれ継続関係にあるとする.つまり,継続関係が枝分かれすることになる.発言(b)と(c)の間には何ら統語的関係は認められないので,枝分かれ構造を仮定するのは自然である.また,厳密には挿入節とは言えないが,自分の発言に対する付加的発言,いわゆる自己レスも挿入型とする.自己レスは,例えば下の例の発言(a)と(b)のように,挿入型と同様の出現形態と判断できるからである.\eenumsentence{\item[a)]Aさん:勘違いしていると思いますが\item[b)]Aさん:\underline{変な文章だな(´Д`;)}\item[c)]Aさん:北の某大学は俺にとっちゃアントラーズみたいなもんです}\end{description}\subsection{応答関係の定義}エクスチェンジを構成する異なる話者によるムーブ間の関係を応答関係と呼ぶ.表\ref{tbl:chat}の例で言うと,発言31から33までのムーブAとそれと異なる話者による発言34からなるムーブBが応答関係にある.一方,発言30からなるムーブCとムーブAは発話者は異なるが,応答関係にはなく,異なるエクスチェンジに属する.本論文では,エクスチェンジの一般形\cite{Sinclair:92,Ishizaki:01}にしたがってムーブの機能を{\bf働きかけ},{\bf応答},{\bf補足},{\bf応答/働きかけ}の4つに分類し,ムーブ間の応答関係を規定する.エクスチェンジの構成規則は以下のように一般化されている\cite{Ishizaki:01}.*は0回以上の繰り返しを表す.\begin{description}\item{\boldmath$エクスチェンジの一般形:$}\begin{eqnarray*}[働きかけ]+([応答/働きかけ])+[応答]+[補足]*\end{eqnarray*}\end{description}この構成規則から,応答関係にあるムーブの機能の組合せとしては,[働きかけ]→[応答],[応答]→[補足],[補足]→[補足]の3通りが可能である.さらに我々は以下に述べるように,各ムーブを構成する発言の種類に基づいて,ムーブ間の応答関係をより詳細に制限する.まず,発言をアクトと呼ばれる下位分類に分類する.アクトの分類方法についてはすでにいくつかの提案がある.本研究では発話行為タグ\cite{Araki:99}を参考に表\ref{tbl:acts}に示す20種類のアクトを定義した.ただし,アクトが区切り送信によって複数の発言に分割されている場合は,それら複数の発言をまとめたものにアクトを与える.次に,どのようなムーブ同士が応答関係を構成し得るかに関する制約をムーブに含まれるアクトに基づいて表\ref{tbl:crp}のように与える.例(8)は,発言(a)と(b)からなるムーブAと発言(c)と(d)からなるムーブBとの応答関係である.発言(a)と(b)のアクトは区切り送信によって複数の発言に分割された真偽情報要求アクトである.一方,発言(c)は否定・拒否アクト,発言(d)は情報伝達アクトであり,ムーブBは2つのアクトからなる.表\ref{tbl:crp}から,真偽情報要求アクトを含むムーブと応答関係を構成し得るのは,肯定アクトあるいは否定・拒否アクト,不明な応答アクトを含むムーブである.\eenumsentence{\item[a)]Aさん:ベロンって[真偽情報要求]\item[b)]Aさん:まだラツィオにいるんだっけ?[(区切り送信)]\item[c)]Bさん:いや[否定・拒否]\item[d)]Bさん:彼はマンチェスターにいます。[情報伝達]}\begin{table}[tbt]\begin{center}\caption{ムーブの機能に対応する発言のアクト}\label{tbl:acts}\begin{tabular}{|c|c|l|}\hline\multicolumn{1}{|c|}{機能}&\multicolumn{1}{|c|}{アクト}&\multicolumn{1}{|c|}{定義}\\\hline\hline働きかけ&示唆&聞き手に対する行為の要求で,聞き手が諾否または何らかの応答を\\&&返す必要が必ずしもないもの\\&依頼&聞き手に対する行為の要求で,聞き手が諾否または何らかの応答を\\&&返す必要のあるもの\\&提案&両者で行う行為の提案で,聞き手が諾否または何らかの応答を返す\\&&必要が必ずしもないもの\\&勧誘&両者で行う行為の提案で,聞き手が諾否または何らかの応答を返す\\&&必要のあるもの\\&確認&話し手が文脈または何らかの知識から聞き手の応答に対して予測を\\&&持って発する質問\\&真偽情報要求&話し手が聞き手の応答に対する予測をもっていない質問で,「はい」\\&&または「いいえ」で答えられるもの\\&未知情報要求&話し手が聞き手の応答に対する予測をもっていない質問で,なんら\\&&かの値または表現を応答として要求するもの\\&約束・申し出&話し手の行為の提案\\&希望&話し手が目標とする状態を述べるもの\\&情報伝達&話し手の知識や意見,または話し手が事実と思っていることを述べ\\&&るもの\\&その他の言明&感謝・謝意の表明など\\&その他の働きかけ&対話の調整など\\&不明な働きかけ&働き掛けを意味する発言ではあるが,上記の分類には含まれない\\&&もの\\\hline応答&肯定・受諾&真偽情報要求に対してその命題内容を肯定する際の返答,および依\\&&頼や勧誘に対してその要求を受け入れることを示す際の返答\\&否定・拒否&真偽情報要求に対してその命題内容を否定する際の返答,および依\\&&頼や勧誘に対してその要求を受け入れないことを示す際の返答\\&未知情報応答&未知情報要求に対して,その値を与える発言\\&あいづち&相手の発言をうながす発言\\&不明な応答&応答を意図する発言ではあるが,上記の分類には含まれないもの\\\hline補足&了解&応答の後に続き,やりとりの目的が達成されたことを伝えるもの\\&不明な補足&補足の機能をもつが,上記の分類には含まれないもの\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tbt]\begin{center}\caption{応答関係にあるムーブの対応表}\label{tbl:crp}\begin{tabular}{|l|l|l|}\hline\multicolumn{1}{|c|}{先行ムーブの機能}&\multicolumn{1}{|c|}{先行ムーブに含まれるアクト}&\multicolumn{1}{|c|}{後続ムーブに含まれるアクト}\\\hline\hline働きかけ&示唆&肯定・受諾,否定・拒否,不明な応答\\&依頼&肯定・受諾,否定・拒否,不明な応答\\&提案&肯定・受諾,否定・拒否,不明な応答\\&勧誘&肯定・受諾,否定・拒否,不明な応答\\&確認&肯定・受諾,否定・拒否,不明な応答\\&真偽情報要求&肯定・受諾,否定・拒否,不明な応答\\&未知情報要求&未知情報応答,不明な応答\\&約束・申し出&肯定・受諾,否定・拒否,不明な応答\\&希望&あいづち,不明な応答\\&情報伝達&肯定・受諾,否定・拒否,あいづち\\&&不明な応答\\&その他の言明&不明な応答\\&その他の働きかけ&不明な応答\\&不明な働きかけ&肯定・受諾,否定・拒否,未知情報応答\\&&あいづち,不明な応答\\\hline応答&肯定・受諾&了解,不明な補足\\&否定・拒否&了解,不明な補足\\&未知情報応答&了解,不明な補足\\&あいづち&了解,不明な補足\\&不明な応答&了解,不明な補足\\\hline補足&了解&了解,不明な補足\\&不明な補足&了解,不明な補足\\\hline\end{tabular}\end{center}\end{table}
\section{実験用コーパス}
本研究では,教師付き機械学習を利用し,チャット対話の対話構造解析を行なう.そのために,訓練データとして対話構造を付与したコーパスが必要になる.しかし,これまでの研究では主に人手で作った規則を用いて解析する手法をとっていたため,訓練データとして使える大規模な対話構造付きコーパスは存在しない.そこで我々は,対話構造を付与したコーパスを作成した.\subsection{コーパスの元にしたデータ}本研究で使用するコーパスは,IRC(InternetRelayChat)で公開されているチャット対話データを独自に収集し,それを元に作成したものである.使用したチャットシステムは,CHOCOA\footnote{http://www.labs.fujitsu.com/freesoft/chocoa/}である.CHOCOAでは,分単位の受信時刻,送信者名,送信内容の3つ組が一度に送受信できる.本研究では,これを入力対話の基本単位とした.対話参加者の入退出の通知などチャットシステム自体が通知する発言は分析対象から除外した.収集した対話データは,2人対話34対話(5769発言中システム発言を除外した5180発言)と3人対話35対話(7439発言中システム発言を除外した6725発言)の合計69対話(13208発言中システム発言を除外した11905発言)である.発言者の異なりは27名であり,多くの話題は進路,サッカー,テレビゲームについてである.収録期間は約4カ月である.全発言に占める関係先を持つ発言数は表\ref{tbl:relrate4.1}の通りである.\begin{table}[tbt]\begin{center}\caption{全発言に占める関係先を持つ発言数}\label{tbl:relrate4.1}\begin{tabular}{|l|r|r|}\hline&2人対話&3人対話\\\hline継続関係先をもつ発言数&1635&1599\\\hline応答関係先をもつ発言数&500&589\\\hline総発言数&5180&6725\\\hline\end{tabular}\end{center}\end{table}\subsection{対話構造の表現方法}2節で提示した対話構造モデルをチャット対話データに付与したコーパスの一部を表\ref{tbl:exp4.1}に示す.コーパスの各項目について説明する.発言IDは各発言固有のIDである.関係先は,発言と関係を持つ発言のIDである.関係先の発言が複数考えられる場合(例えば,発言45,46,47のように,2つの質問発言に対して1発言で答えるもの)は両方の発言を関係先とする.関係名は,継続関係,応答関係のいずれかであり,関係先を持たない場合は空欄にする.継続型は2.1節の継続関係のタイプ,アクトは2.2節の表\ref{tbl:acts}で示したアクトを表す.発言31,32,33のように,区切り送信によって一つのアクトが複数の発言に分割されたと考えられる場合は,先頭の発言(例えば,発言31)にアクトを付与する.受信時刻は発言を受信した時間,送信者は発言者名,送信内容は発言内容を指す.\begin{table}[tbt]\footnotesize\begin{center}\caption{チャット対話の対話構造を付与したコーパス}\label{tbl:exp4.1}\begin{tabular}{cccccccl}\hline\hline発言ID&関係先&関係&継続型&アクト&受信時刻&送信者&\multicolumn{1}{c}{送信内容}\\\hline...&...&...&...&...&...&...&...\\24&-&-&-&真偽情報要求&23:01&A&もう少し早くやるべきだったのでは\\25&-&-&-&真偽情報要求&23:01&B&仕事ですか?\\26&24&応答&-&真偽情報応答&23:01&C&すみませぬm(\_\_)m\\27&25&応答&-&真偽情報応答&23:02&A&いえ\\28&27&継続&接続詞類型&情報伝達&23:02&A&ファンハール解任の話です\\29&-&-&-&真偽情報要求&23:02&C&インテル戦前にですか?\\30&29&応答&-&真偽情報応答&23:02&A&いよいよ解任されそうって話です\\31&-&-&-&情報伝達&23:03&B&ファンファールのサッカーを\\32&31&継続&助詞類型&(区切り送信)&23:03&B&出来る面子じゃありませんよ\\33&32&継続&倒置型&(区切り送信)&23:03&B&バルセロナは\\34&31&応答&-&あいづち&23:03&C&確かに\\...&...&...&...&...&...&...&...\\45&-&-&-&真偽情報要求&23:15&A&Cさんいたりしない?\\46&-&-&-&真偽情報要求&23:16&A&Dさんとか?\\47&45,46&応答&-&真偽情報応答&23:16&B&さあ\\...&...&...&...&...&...&...&...\\\hline\end{tabular}\end{center}\end{table}コーパスの信頼性をタグ(関係先ID及び関係名)の一致率で評価した.評価尺度としてκ値(KappaStatistics)を採用した.コーパスから取り出した3人対話837発言について2人の作業者がそれぞれタグを付与し,κ値を求めた結果は\boldmath{$0.762$}であった.この結果から,2節で論じた継続関係,応答関係の基準によって,比較的信頼性の高い注釈付きコーパスが構築できたと言える.得られたデータは提案手法の評価対象としても信頼に足るものであると判断した.
\section{提案手法}
\subsection{対話構造解析アルゴリズム}入力対話に対し,対話の先頭の発言から最末の発言にかけて順番に解析する.提案した対話構造の階層モデルに従い,まず継続関係の同定を入力対話全てに対して試み,発言をムーブにまとめあげる.その後,ムーブ間の応答関係を同定し,ムーブをエクスチェンジにまとめあげる.本手法では,ムーブ間の応答関係を同定する際には,ムーブを構成する全ての発言を素性の抽出対象とするため,ボトムアップに対話構造を解析する手法を用いた.\begin{figure}[tbt]\centerline{\includegraphics{fig/identify_relateness3.eps}}\caption{継続先発言の同定手順}\label{fig:identify_relateness3}\end{figure}\subsubsection{継続関係の同定}入力対話に対し,対話の先頭の発言から最末の発言までを走査しながら,その位置での発言(以下,{\bf対象発言}と呼ぶ)ごとに次のステップに従って処理を進める.\begin{description}\item{\bfステップ1:継続先発言候補の抽出}継続関係にある発言が対象発言に隣接しているとは限らないため,対象発言から$n$発言前までの対象発言と同一話者の発言とのペアを全て抽出する.一つの対象発言に対する$n$個の異なる先行発言とのペアの集合を候補ペア集合とする.\item{\bfステップ2:継続先発言の決定}分類器は,表\ref{tbl:features}に示す素性集合を利用して,候補ペア集合に含まれるすべてのペアに対して継続関係があるか否かを分類する.複数のペアが関係ありと分類された場合は,分類器の出力するスコア(確信度)の一番高いペアに一意に決定する.候補のペア全てが関係なしと分類された場合,対象発言には継続関係にある先行発言が存在しないとする.つまり,対象発言はムーブを構成する先頭の発言と同定される.表\ref{tbl:features}については4.3節で詳述する.\end{description}表\ref{tbl:chat}の対話を例に継続関係の同定手順を図\ref{fig:identify_relateness3}に示す.図は対象発言が28,先行発言の参照数$n$が4の場合を表している.まず,対象発言と同一話者による発言である24と27の発言とのペアを候補ペアとして抽出し,分類する.分類後,発言24と28及び27と28のペアと複数のペアが関係ありと分類されるが,スコアを比較した結果,27と28のペアが継続関係となる.\begin{figure}[tbt]\centerline{\includegraphics{fig/identify_OTOrelateness.eps}}\caption{応答先ムーブの同定手順}\label{fig:identify_OTOrelateness}\end{figure}\subsubsection{応答関係の同定}入力対話に対し,対話の先頭のムーブから最末のムーブまでを走査しながら,その位置でのムーブ(以下,{\bf対象ムーブ}と呼ぶ)ごとに次のステップに従って処理が進む.\begin{description}\item{\bfステップ1:応答先ムーブ候補の抽出}応答関係にあるムーブが対象ムーブに隣接しているとは限らないため,対象ムーブから$n$ムーブ前までの対象ムーブと異なる話者のムーブとのペアをすべて抽出する.一つの対象ムーブに対する$n$個の異なる先行ムーブとのペアの集合を,候補ペア集合とする.\item{\bfステップ2:応答先ムーブの決定}分類器は,表\ref{tbl:features}に示す素性集合を利用して,候補ペア集合に含まれるすべてのペアに対して応答関係があるか否かを分類する.複数のペアが関係ありと分類された場合は,分類器が出力するスコア(確信度)の一番高いペアに一意に決定する.候補のペア全てが関係なしと分類された場合,対象ムーブには応答関係にある先行ムーブが存在しないとする.つまり,対象ムーブがエクスチェンジを構成する先頭のムーブと同定される.\end{description}表\ref{tbl:chat}の対話を例に応答関係の同定手順を図\ref{fig:identify_OTOrelateness}に示す.図は対象ムーブが34(この事例では,発言34のみがムーブを構成する発言),先行発言の参照数$n$が7の場合を表している.対象ムーブと異なる話者によるムーブ(27,30,31の発言が各ムーブを構成する発言の中で,先頭の発言)のペアを候補ペアとして抽出し,分類する.結果,31と34の発言を含むムーブのペアが応答関係となる.\subsection{分類器}本手法では,素性として複数の発言の形態素情報の2つ組の組合せを全て考えるため,素性の異なりは数万となり分類器への入力ベクトルは高次元になる.そこで,分類器には,素性集合の冗長性に対して比較的頑健な性質を持つサポートベクタマシン\cite{Vapnik1995a}を利用した.スコア(確信度)としては分離平面からの距離を用いた.訓練時には,継続関係及び応答関係の同定処理のステップ1と同じ処理を行ない獲得した各ペアから表\ref{tbl:features}に示す素性集合を抽出し,各訓練事例とする.素性集合は継続関係及び応答関係で異なる.\subsection{素性}表\ref{tbl:features}に示す素性について説明する.表中及び文中の略表記はそれぞれ,CRRuは対象発言.CRRmは対象ムーブ.PREuは先行発言.PREmは先行ムーブ.NANu\_sは対象発言と先行発言の間にある対象発言に最寄りの同一話者の発言.NANm\_sは対象ムーブと先行ムーブの間にある対象ムーブに最寄り同一話者のムーブ.NANm\_dは対象ムーブと先行ムーブの間にある最寄りの対象ムーブと異なる話者のムーブ.NBNu\_sは対象発言の発言時間から1分以内に発言された最寄りの対象発言と同一話者の発言.を表す.\begin{description}\item{\bf発言に含まれる形態素情報:crr\_o,pre\_o,nan\_o,nbn\_o}発言CRRu,NBNu\_sの先頭の一形態素情報と発言CRRu,PREu,NANu\_sの末尾の一形態素情報をそれぞれ素性とする.形態素の異なりの数だけ素性がある.\item{\bf発言の末尾の表層表現:lw}発言CRRu,PREuの末尾の表層表現が句点または読点,クエスチョンマークであるか否かの2値を素性とする.\item{\bf発言間の発言時刻の差:time}CRRuとPREu間の発言時刻の差が2分以上離れているか否かの2値を素性とする.\item{\bf発言間の結束度:coh}本研究で言う結束度は,発言同士のムーブ単位へのまとまりやすさを表す.CRRuとPREu間及びCRRuとNBNu\_s間の結束度を計り,どちらのペアの結束度が強いかの2値を素性とする.強さが同じであった場合は,CRRuとPREu間の結束度が強いとする.結束度の強さは,個々のペアの$\langlen(名詞),rel(助詞),v(動詞)\rangle$の共起確率$P(\langlen,rel,v\rangle)$の大きさで計る.共起確率の求め方の詳細については付録を参照されたい.\item{\bfムーブに含まれるアクト:crr\_a,pre\_a,nans\_a,nand\_a}素性の抽出対象となる各発言が表\ref{tbl:acts}に示したアクトを含むか否かを表すバイナリベクタ.アクトは,あらかじめ定義した表層表現パタンとの対応を示すテーブルを用いて推定し,20種のアクトラベルを用いて表現する.このテーブルは,作成したコーパスの837事例を観察し,ムーブに含まれるアクトとムーブの表層表現を元に作成した.このテーブルをアクト辞書と呼び,内容の一部を表\ref{tbl:dic1}に示す.実験に用いたアクト辞書は,108個の表層表現パタンを持つ.複数のアクトラベルが記述されているものは,行為の多義があることを示す.\begin{table}[tbt]\begin{center}\caption{素性と抽出対象}\begin{tabular}{|c|l|l|l|}\hline&抽出対象&\multicolumn{2}{|l|}{CRRu,PREu,NANu\_s,NBNu\_s}\\\cline{2-2}\cline{3-3}\cline{4-4}継続&素性&単体&発言CRRuの先頭と末尾の形態素情報:crr\_o\\&&&発言PREuの末尾の形態素情報:pre\_o\\&&&発言NANu\_sの先頭と末尾の形態素情報:nan\_o\\&&&発言NBNu\_sの先頭の形態素情報:nbn\_o\\&&&発言CRRu,PREuの末尾の表層表現:lw\\\cline{3-4}&&二項間&発言間の結束度:coh\\&&&CRRu,PREu間の発言時刻の差:time\\\hline&抽出対象&\multicolumn{2}{|l|}{CRRm,PREm,NANm\_s,NANm\_d}\\\cline{2-2}\cline{3-3}\cline{4-4}応答&素性&単体&ムーブCRRmに含まれるアクト:crr\_a\\&&&ムーブPREmに含まれるアクト:pre\_a\\&&&ムーブNANm\_sに含まれるアクト:nans\_a\\&&&ムーブNANm\_dに含まれるアクト:nand\_a\\&&&ムーブCRRm,PREmの末尾の表層表現:lw\\\cline{3-4}&&二項間&CRRm,PREm間の名詞または動詞,形容詞いずれかの一致:match\\&&&CRRm,PREm間の発言時刻の差:time\\\hline\end{tabular}\label{tbl:features}\end{center}\end{table}\begin{table}[tbt]\small\begin{center}\caption{アクト辞書}\label{tbl:dic1}\begin{tabular}{l|l}\hline表層表現パタン&\multicolumn{1}{c}{アクトラベル}\\\hlineはい&[肯定・許諾][あいづち]\\ほう&[あいづち]\\できるの&[真偽情報要求]\\だよね&[確認]\\したい&[希望]\\...&...\\\hline\end{tabular}\end{center}\end{table}\item{\bfムーブの末尾の表層表現:lw}ムーブCRRm,PREmを構成する発言の中で一番最後の発言の末尾の表層表現がクエスチョンマークであるか否かの2値を素性とする.\item{\bfムーブ間の名詞または動詞,形容詞いずれかの一致:match}ムーブCRRm,PREmに含まれる名詞,動詞または形容詞のいずれかが一致するか否かの2値を素性とする.\item{\bfムーブ間の発言時刻の差:time}ムーブCRRm,PREmを構成する先頭の発言の発言時刻の差が5分以上離れているか否かの2値を素性とする.\end{description}
\section{評価実験}
\subsection{実験環境}実験には,本研究で作成したチャット対話コーパス(2節で述べた対話構造モデル及び指針作成,アクト辞書作成で分析対象とした837事例を除いた計11028事例)を用いた.事前にすべての発言に対して茶筌\cite{Matsumoto:02}を利用し形態素解析を行なった.結果の妥当性・再現性を高めるために5分割交差検定を行なった.素性の組合せも同定規則として採り入れるため,分類器(サポートベクタマシン)のカーネル関数として2次の多項式カーネルを用いた.参照する先行発言数は解析時及び訓練時共に,継続関係で7,応答関係で8発言とした.これはコーパスにある発言から最も遠い関係先までの発言数である.解析時に対象発言からいくつ先の発言までとのペアを考えるかという参照先数のパラメタ最適化の問題があるが,今回は扱わなかった.\subsection{調査項目}本手法及びベースラインの手法による対話構造の解析精度について調査した.2.1節及び2.2節で詳述した継続型や,ムーブに含まれるアクトまでは同定しない.この分類は,3節で詳述したコーパス作成の指針,4.3節で詳述したアクト辞書の作成時,および実験結果の分析作業で利用した.ベースラインの手法では,入力対話の先頭から最末の発言までを走査しながら,(ステップ1)対象発言と対象発言に最寄りの同一話者による先行発言が継続関係にあるとみなし,(ステップ2)正しい継続関係先を与えた状態で,対象ムーブとそれに最寄りの異なる話者の先行ムーブが応答関係にあるとみなし,対話構造を解析する.継続関係と応答関係の同定実験の結果は,精度及び再現率,F値で評価した.対話構造全体の解析結果は一致率で評価した.関係先が複数ある発言では,いずれかひとつと一致した場合を正解とした.\vspace{-0.4cm}\begin{eqnarray*}精度&=&\frac{\mbox{\small解析器が関係同定に成功した事例数}}{\mbox{\small解析器が関係を持つと判断した事例数}}\end{eqnarray*}\vspace{-0.9cm}\begin{eqnarray*}再現率&=&\frac{\mbox{\small解析器が関係同定に成功した事例数}}{\mbox{\small実際に関係を持つ事例数}}\end{eqnarray*}\vspace{-0.9cm}\begin{eqnarray*}一致率&=&\frac{\mbox{\small解析器が特定した関係先がコーパスの正解タグと一致した発言の総数}}{\mbox{\smallコーパス中の発言の総数}}\end{eqnarray*}\subsection{実験結果}本手法とベースラインの手法による対話構造の解析結果を比較することにより,本手法の有効性を評価した.対話構造全体の解析結果を表\ref{tbl:tree5.1}に示す.BL2p及びBL3pは2人対話及び3人対話データにベースラインの手法を適用した結果,提案2p及び提案3pは2人対話及び3人対話データに本手法を適用した結果である.一致率は,2人対話及び3人対話それぞれにおいて,本手法がベースラインの手法を上回っている.継続関係及び応答関係の同定結果を表\ref{tbl:result2}に示す.継続関係にある発言の多くは隣接しているため,BL2p,BL3pの再現率は高い.しかし,互いに隣接する発言でも実際には継続関係を持たない場合もあるため,精度は低い.これに対し本手法では,継続関係を持たない発言間の関係も同定しているため,精度も高くなっている.応答関係の同定における再現率は,継続関係のものと比べて低い.5.4節で詳述するように,特に情報伝達や真偽情報要求,未知情報要求アクトを含むムーブとの応答関係同定の失敗が再現率を大きく下げる原因となっている.しかしながら,精度については,BL2p,BL3pに比べ本手法が大きく上回った.アクト辞書を用いてムーブに含まれるアクトを推定することで,適切な応答関係を同定できたと言える.アクト辞書によるアクト推定を行なわなかった場合の精度,再現率,F値はそれぞれ2人対話で0.633,0.169,0.266,3人対話で0.690,0.117,0.200であった.ここで,2人対話と3人対話それぞれの同定精度がほぼ同程度であったことは興味深い.この理由としては,3人対話において2人の情報交換が支配的であったことが関係していると考えられる.このような現象は音声対話においても報告されている\cite{Ishizaki:99}.以上の結果から,本タスクは単純な方法で解けるほど簡単な問題ではないが,アルゴリズムを工夫すれば自動化の実現性が十分にある問題であることが分かる.こうした問題に取り組みその実現可能性を実証した例は我々の知る限り過去にない.\subsection{結果に対する考察}\subsubsection{継続関係の同定性能}\begin{table}[tbt]\small\begin{center}\caption{対話構造の一致率}\label{tbl:tree5.1}\begin{tabular}{|l|c|c||c|c|}\hline&BL2p&提案2p&BL3p&提案3p\\\hline一致率&.334&\boldmath{$.874$}&.265&\boldmath{$.846$}\\\hline\end{tabular}\end{center}\end{table}\begin{table*}[tbt]\small\begin{center}\caption{継続関係及び応答関係の同定結果}\label{tbl:result2}\begin{tabular}{cc}継続関係の同定結果&応答関係の同定結果\\\begin{tabular}{|l|c|c||c|c|}\hline&BL2p&提案2p&BL3p&提案3p\\\hline精度&.381&\boldmath{$.914$}&.348&\boldmath{$.927$}\\再現率&\boldmath{$.985$}&.909&\boldmath{$.986$}&.881\\F値&.549&\boldmath{$.912$}&.515&\boldmath{$.903$}\\\hline\end{tabular}&\begin{tabular}{|l|c|c||c|c|}\hline&BL2p&提案2p&BL3p&提案3p\\\hline精度&.098&\boldmath{$.743$}&.131&\boldmath{$.743$}\\再現率&\boldmath{$.613$}&.418&\boldmath{$.682$}&.361\\F値&.169&\boldmath{$.535$}&.220&\boldmath{$.486$}\\\hline\end{tabular}\\\end{tabular}\end{center}\end{table*}継続関係の同定における継続型毎の再現率を表\ref{tbl:cont_2_inve5.2}に示す.今回の実験では,継続型までは同定していないため,精度,及びF値を求めることはできなかった.表\ref{tbl:cont_2_inve5.2}に示すとおり,特殊表記型と倒置型,挿入型の再現率が他の型に比べて低い.このうち,倒置型と挿入型の誤りは頻度も少なくなく,無視できない.\begin{description}\item{\boldmath$倒置型:$}187件のうち,約3割を再現できなかった.このうち12件は,事例(9)のように,$\langlen,rel,v\rangle$の3つ組(4.3節「発言間の結束度」の項を参照)だけでは発言間の結束度を判断しにくい場合であった.このため,発言bと発言cが継続関係にあるという間違った判断をした事例も多く観察された.これは,共起確率モデルに取り入れる事例を拡張することで改善できると考えられる.$\langlen,rel,v\rangle$の3つ組だけではなく,$\langleポジションチェンジ,オーバーラップ\rangle$といった$\langlen(名詞),n(名詞)\rangle$等の共起確率も考慮する.また,助詞「は」の二重使用はペナルティを与えるといった文法上の制約を取り入れることも考えられる.\eenumsentence{\item[a)]Aさん:ポジションチェンジなんですよね\item[b)]Aさん:\underline{向こうのオーバーラップは}[関係先:(a),関係名:継続(倒置型)]\item[c)]Aさん:攻めきれない時はどうするんだろ}\item{\boldmath$挿入型:$}87件のうち,約3割を再現できなかった.このうち11件は,事例(10)のように,表層表現からは判断しにくい場合であった.文末表現(例えば,「〜ですか?」や「〜か」)をもつ発言間には継続関係がない場合が本コーパス中には多い.このため,訓練事例中に正例と負例が混在し,関係同定に教師あり学習器を利用した本手法ではうまく扱えなかった.このような事例を扱える素性を考える必要がある.\eenumsentence{\item[a)]Aさん:受けた仕事はどうするん\underline{ですか?}\item[b)]Aさん:まだ受けてなかった\underline{か}[関係先:(a),関係名:継続(挿入型)]}また,事例(11)のような,誤字の修正を意図した発言との同定を誤る場合も少なくなかった.このような事例では,発言a,b間における文節(例えば,「服にしですが」と「福西ですが」)を同定し,文字列間の類似度を利用することが考えられる.\eenumsentence{\item[a)]Aさん:個人的には\underline{服にしですが}\item[b)]Aさん:\underline{福西ですが}[関係先:(a),関係名:継続(挿入型)]}\end{description}\begin{table}[tbt]\small\begin{center}\caption{継続型毎の継続関係の再現率}\label{tbl:cont_2_inve5.2}\begin{tabular}{|l|c|r||c|r|}\hline\multicolumn{1}{|c|}{継続型}&提案2p&発言数&提案3p&発言数\\\hline助詞類型&.948&1021&.921&937\\接続詞類型&.851&215&.822&191\\特殊表記型&.833&6&.857&7\\名詞型&.903&62&.791&86\\倒置型&.735&102&.698&86\\挿入型&.755&49&.789&38\\\hline\end{tabular}\end{center}\end{table}\subsubsection{応答関係の同定性能}応答関係については,再現率,精度とも継続関係に比べて劣っている.これについては,まずタスク自身の難しさが理由の一つとして考えられる.3.2節で述べたように,本研究ではコーパスに付与したタグの信頼性を2人の作業者の一致率で評価したが,もう少し詳しく見ると,継続関係のκ値0.825に対し,応答関係のκ値は0.634であり,継続関係と比べると応答関係の同定は人間にとっても難しい作業であることがわかる.つぎに,ムーブに含まれるアクト毎の応答関係の再現率を表\ref{tbl:res5.2.1},表\ref{tbl:res5.2.2}に示す.横軸はデータセットを表し,縦軸はムーブに含まれるアクト毎の応答関係を表す.縦軸で,ブラケットで囲まれた2つの部分のうち,左の部分は,先行ムーブに含まれるアクトであり,右は後続ムーブに含まれるアクトである.表\ref{tbl:res5.2.1}のブラケットの中の”$all$”は,表\ref{tbl:acts}で示した全てのアクトを意味する.表\ref{tbl:res5.2.2}は,表\ref{tbl:res5.2.1}のうち事例の多かった情報伝達および真偽情報要求,未知情報要求アクトを先行ムーブに含む場合の再現率をさらに詳しく分析したものである.ムーブに複数のアクトが含まれる場合は,ムーブを構成する先頭の発言のアクトのみをカウントした.表\ref{tbl:res5.2.1},表\ref{tbl:res5.2.2}に示すとおり,全体的な再現率は高くはない.このうち,情報伝達と真偽情報要求,未知情報要求アクトを先行ムーブに含む応答関係は頻度も少なくなく,無視できない.\begin{table}[tbt]\small\begin{center}\caption{アクト毎の応答関係の再現率}\label{tbl:res5.2.1}\begin{tabular}{|l|c|r||c|r|}\hline\multicolumn{1}{|c|}{アクト}&提案2p&関係数&提案3p&関係数\\\hline$[勧誘][all]$&.500&2&-&0\\$[依頼][all]$&.167&6&.000&1\\$[確認][all]$&.333&24&.360&25\\$[示唆][all]$&.200&5&.000&4\\$[提案][all]$&.000&1&1&1\\$[情報伝達][all]$&.432&185&.330&270\\$[肯定・受諾][all]$&.100&10&.000&8\\$[否定・拒否][all]$&.143&7&.231&13\\$[不明な応答][all]$&.500&5&.333&12\\$[真偽情報要求][all]$&.544&79&.547&75\\$[未知情報応答][all]$&.500&6&.333&12\\$[未知情報要求][all]$&.460&50&.442&52\\$[約束・申し出][all]$&.000&1&.000&1\\$[その他の言明][all]$&.000&3&-&0\\$[その他の働き掛け][all]$&.000&3&.500&10\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tbt]\small\begin{center}\caption{アクト毎の応答関係の再現率(一部)}\label{tbl:res5.2.2}\begin{tabular}{|l|c|r||c|r|}\hline\multicolumn{1}{|c|}{アクト}&提案2p&関係数&提案3p&関係数\\\hline$[情報伝達][あいづち]$&.491&114&.345&168\\$[情報伝達][肯定・受諾]$&.667&36&.267&60\\$[情報伝達][否定・拒否]$&.167&12&.179&28\\$[情報伝達][不明な応答]$&.900&20&.714&14\\$[真偽情報要求][あいづち]$&.000&1&-&0\\$[真偽情報要求][肯定・受諾]$&.667&33&.500&36\\$[真偽情報要求][否定・拒否]$&.385&26&.583&24\\$[真偽情報要求][不明な応答]$&.500&19&.583&12\\$[未知情報要求][あいづち]$&-&0&.000&1\\$[未知情報要求][不明な応答]$&.667&3&.600&5\\$[未知情報要求][未知情報応答]$&.447&47&.444&45\\\hline\end{tabular}\end{center}\end{table}\begin{description}\item{\boldmath$情報伝達:$}情報伝達アクトを先行ムーブに含む応答関係455件のうち,約6割を再現できなかった.事例の多くは,例(12)のような後続ムーブを構成する発言のアクトがあいづちであるムーブとの応答関係であった.実験では,4.3節で述べたようにアクト辞書を人手で作成しているため,例(12)のような表記のゆれには対応仕切れない.文字列毎の一致から類似度を計り,表記の揺れを吸収するといった拡張が必要である.\eenumsentence{\item[a)]Aさん:狭いスペースでやらないと駄目なんすよ[情報伝達]\item[b)]Bさん:なるほろ[関係先:(a),関係名:応答(あいづち)]}\item{\boldmath$真偽情報要求:$}真偽情報要求アクトを先行ムーブに含む応答関係154件のうち,約5割を再現できなかった.多くは,肯定・承諾や否定・拒否を明示する表現(「はい」や「いいえ」など)が使われていないムーブであり,アクト辞書だけではアクトを推定できない事例であった.このため,再現率が低くなったと考える.例(13)のように,否定・拒否を意図する表現が明示的されていない場合がある.発言者Aの「オフシーズンはあるのか?」という真偽情報要求に対して,発言者Bは「正月もイベントです」と答えている.このムーブは,「多くの人が休むであろう正月にもイベントをやるのだから,オフシーズンはない」という否定・拒否を暗示している.\eenumsentence{\item[a)]Aさん:オフシーズンってのがあるんですか?[真偽情報要求]\item[b)]Bさん:正月もイベント参加です[関係先:(a),関係名:応答(否定・拒否)]}こうした事例に対応するには,常識的知識と複雑な推論が必要であると考えられる.表層的な手がかりを使った統計的学習によるアプローチの限界を示すものと言えるかもしれない.\item{\boldmath$未知情報要求:$}未知情報要求アクトを先行ムーブに含む応答関係102件のうち,約5割を再現できなかった.しかし我々は,再現率の低さはもっと深刻になると予想していた.本手法では,アクト辞書を用いて各ムーブに含まれるアクトを推定し素性とすることは可能であるが,未知情報応答発言におけるいわゆる5W1Hを推定することはできない.にも関わらず,このような再現率及び精度が得られたことは興味深い.本手法では,例(14)の発言(ムーブ)(b),(d)間のような未知情報要求アクトを含むムーブと未知情報応答アクトを含むムーブ間の応答関係を同定するための特別な処理は行なっていない(「誰が来たの?」という発言が人の情報を要求していることを推定していない).応答関係にあるムーブ同士の近接性や,ムーブ間の動詞が一致していることが同定に役立ったと考えられる.\eenumsentence{\item[a)]Aさん:\underline{うちの大学は}\item[b)]Bさん:\underline{K大から誰が来たの?}[未知情報要求]\item[c)]Aさん:\underline{大丈夫らしいです}[関係先:(a),関係名:継続(助詞型)]\item[d)]Aさん:\underline{凄く優秀な助手が来ました}[関係先:(b),関係名:応答(未知情報応答)]}\end{description}\subsection{各素性の有効性について}4.3節で詳述した素性全てを使用して作成した解析器を用いた同定結果と1つの素性を省いた残りの素性を用いた同定結果とを比較し,省いた素性が関係同定にどの程度有効かを考察する.表\ref{tbl:featureAnalysys_cont}は,解析器作成で使用した素性の組み合わせ毎の継続関係の同定精度,再現率,F値を表している.素性を削除して精度等が下がる場合は,削除した素性は関係同定に有効であると考えられる.表中の略表記の意味は4.3節及び表\ref{tbl:features}を参照されたい.precは精度.recは再現率.fはF値を表す.なお,全ての素性の組み合わせc0は,本手法で使用した素性の組み合わせである.\begin{table}[tbt]\footnotesize\begin{center}\caption{素性の組み合わせと継続関係の同定性能}\label{tbl:featureAnalysys_cont}\begin{tabular}{|c|ccccccc|rrr|rrr|}\hline\multicolumn{1}{|c|}{}&\multicolumn{7}{|c|}{素性の組み合わせ}&\multicolumn{3}{|c|}{2人対話}&\multicolumn{3}{|c|}{3人対話}\\\hline&crr\_o&pre\_o&nan\_o&nbn\_o&lw&coh&time&\multicolumn{1}{c}{prec}&\multicolumn{1}{c}{rec}&\multicolumn{1}{c|}{f}&\multicolumn{1}{c}{prec}&\multicolumn{1}{c}{rec}&\multicolumn{1}{c|}{f}\\\hlinec0&○&○&○&○&○&○&○&\boldmath{$.914$}&\boldmath{$.909$}&\boldmath{$.912$}&.926&\boldmath{$.882$}&\boldmath{$.903$}\\c1&×&○&○&○&○&○&○&.845&.759&.800&.876&.729&.796\\c2&○&×&○&○&○&○&○&.779&.839&.808&.817&.758&.786\\c3&○&○&×&○&○&○&○&.911&.905&.908&.924&.878&.900\\c4&○&○&○&×&○&○&○&.895&.874&.884&.905&.828&.864\\c5&○&○&○&○&×&○&○&.907&.902&.904&\boldmath{$.928$}&.869&.898\\c6&○&○&○&○&○&×&○&.912&\boldmath{$.909$}&.911&.925&.880&.902\\c7&○&○&○&○&○&○&×&.908&.903&.905&.918&.867&.892\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tbt]\small\begin{center}\caption{素性の組み合わせと継続型毎の再現率(2人対話)}\label{tbl:cont-featureByType-2}\begin{tabular}{|l|cccccccc|}\hline\multicolumn{1}{|c|}{継続型}&c0&c1&c2&c3&c4&c5&c6&c7\\\hline助詞類型&.948&.860&.868&.946&.921&.948&.950&.949\\接続詞類型&.851&.716&.786&.847&.833&.833&.851&.847\\特殊表記型&.833&.167&.667&.667&.667&.667&.833&.667\\名詞型&.903&.565&.758&.903&.823&.871&.903&.823\\倒置型&.735&.206&.794&.725&.608&.725&.725&.696\\挿入節型&.755&.306&.714&.735&.735&.755&.755&.755\\\hline\end{tabular}\end{center}\end{table}表\ref{tbl:featureAnalysys_cont}から,全ての素性を用いた組み合わせc0を用いた場合のF値が2人対話,3人対話共に一番高いことがわかる.また,ほぼ素性crr\_o,pre\_o,nbn\_oの順に関係同定に寄与していることがわかる.表\ref{tbl:cont-featureByType-2}からは,各素性がどの種類の関係同定に寄与しているかを見ることができる.なお,3人対話の結果は,2人対話と傾向が似ていたため割愛する.crr\_oは,特殊表記型,倒置型および挿入節型で特に効果がある.2.1節の事例からもわかるように,対象発言の先頭と末尾の形態素情報といった統語的手がかりが関係同定に有用であったと考えられる.pre\_oは助詞類型,接続詞類型で特に効果がある.2.1節の事例からもわかるように,先行発言の末尾の形態素情報といった統語的手がかりが関係同定に有用であったと考えられる.しかし一方で,倒置型の同定には悪影響を及ぼしている.例(15),(16)のように,先行発言の末尾の形態素情報が同じ発言でも継続関係を持つ場合と持たない場合が本コーパス中には多い.このため,訓練事例中に正例と負例が混在し,関係同定に教師あり学習器を利用した本手法ではうまく扱えず,再現率を下げたと考えられる.\eenumsentence{\item[a)]Aさん:出来る面子じゃありませんよ\item[b)]Aさん:バルセロナ\underline{は}[関係先:(a),関係名:継続(倒置型)]}\eenumsentence{\item[a)]Aさん:そうは思いません\item[b)]Aさん:ベッカム\underline{は}\item[c)]Aさん:移籍しますよ[関係先:(b),関係名:継続(助詞型)]}nbn\_oは倒置型の同定に効果がある.例(17)のようにNBNu\_sの先頭の形態素がムーブの先頭を表す接続詞類と考えられるものであった場合,対象発言と先行発言が継続関係にあるという判断に効果があったと考えられる.\eenumsentence{\item[a)]Aさん:ポジションチェンジなんですよね\item[b)]Aさん:向こうのオーバーラップは[関係先:(a),関係名:継続(倒置型)]\item[c)]Aさん:\underline{ところで}、}次に,応答関係の場合について述べる.表\ref{tbl:featureAnalysys_res}は,解析器作成で使用した素性の組み合わせ毎の応答関係の同定精度,再現率,F値を表している.表中の略表記の意味は4.3節及び表\ref{tbl:features}を参照されたい.なお,全ての素性の組み合わせr0は,本手法で使用した素性の組み合わせである.\begin{table}[tbt]\footnotesize\begin{center}\caption{素性の組み合わせと応答関係の同定性能}\label{tbl:featureAnalysys_res}\begin{tabular}{|c|ccccccc|rrr|rrr|}\hline\multicolumn{1}{|c|}{}&\multicolumn{7}{|c|}{素性の組み合わせ}&\multicolumn{3}{|c|}{2人対話}&\multicolumn{3}{|c|}{3人対話}\\\hline&crr\_a&pre\_a&nans\_a&nand\_a&lw&match&time&\multicolumn{1}{c}{prec}&\multicolumn{1}{c}{rec}&\multicolumn{1}{c|}{f}&\multicolumn{1}{c}{prec}&\multicolumn{1}{c}{rec}&\multicolumn{1}{c|}{f}\\\hliner0&○&○&○&○&○&○&○&.743&.418&.535&.743&\boldmath{$.361$}&\boldmath{$.486$}\\r1&×&○&○&○&○&○&○&.672&.191&.297&.705&.159&.260\\r2&○&×&○&○&○&○&○&.729&.389&.507&.707&.327&.447\\r3&○&○&×&○&○&○&○&.727&.411&.525&.741&.357&.482\\r4&○&○&○&×&○&○&○&.738&.421&.536&\boldmath{$.764$}&.353&.483\\r5&○&○&○&○&×&○&○&\boldmath{$.816$}&.281&.418&.746&.254&.379\\r6&○&○&○&○&○&×&○&.746&.423&\boldmath{$.540$}&.712&.349&.468\\r7&○&○&○&○&○&○&×&.724&\boldmath{$.430$}&\boldmath{$.540$}&.750&.357&.484\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tbt]\small\begin{center}\caption{アクト毎の応答関係の再現率2人対話}\label{tbl:res-featureByType-2}\begin{tabular}{|l|cccccccc|}\hline\multicolumn{1}{|c|}{アクト}&r0&r1&r2&r3&r4&r5&r6&r7\\\hline$[勧誘][all]$&.500&.500&.000&.000&.500&.500&.000&.500\\$[依頼][all]$&.167&.167&.000&.167&.167&.167&.000&.167\\$[確認][all]$&.333&.125&.167&.333&.333&.167&.292&.333\\$[示唆][all]$&.200&.000&.200&.200&.200&.200&.200&.200\\$[提案][all]$&.000&.000&.000&.000&.000&.000&.000&.000\\$[情報伝達][all]$&.432&.027&.405&.405&.422&.427&.438&.432\\$[肯定・受諾][all]$&.100&.100&.100&.100&.100&.000&.100&.100\\$[否定・拒否][all]$&.143&.000&.143&.143&.143&.143&.143&.143\\$[不明な応答][all]$&.500&.000&.500&.500&.500&.500&.500&.500\\$[真偽情報要求][all]$&.544&.494&.519&.557&.570&.165&.582&.570\\$[未知情報応答][all]$&.500&.167&.500&.500&.500&.333&.500&.500\\$[未知情報要求][all]$&.460&.500&.500&.500&.500&.060&.500&.500\\$[約束・申し出][all]$&.000&.000&.000&.000&.000&.000&.000&.000\\$[その他の言明][all]$&.000&.333&.000&.333&.333&.333&.000&.333\\$[その他の働き掛け][all]$&.000&.000&.000&.000&.000&.000&.000&.000\\\hline\end{tabular}\end{center}\end{table}表\ref{tbl:featureAnalysys_res}から,全ての素性を用いた組み合わせr0を用いた場合のF値が3人対話で一番高いが,2人対話では,r6およびr7の素性の組み合わせを用いたF値がr0よりも若干高く,一番高い.また,素性crr\_aおよび素性lwが他の素性に比べて大きく関係同定に寄与していることがわかる.表\ref{tbl:res-featureByType-2}からは,各素性がどの種類の応答関係同定に寄与しているかを見ることができる.なお,3人対話の結果は,2人対話と傾向が似ていたため割愛する.crr\_aは,確認アクトおよび情報伝達アクトを含むムーブとの関係同定で特に効果がある.これは,対象ムーブのアクトを推定することで表\ref{tbl:crp}で示した制約が利用できたためと考えられる.lwは真偽情報要求アクトおよび未知情報要求アクトを含むムーブとの関係同定で特に効果がある.これらのアクトを含むムーブの多くは末尾にクエスチョンマークを持つため,末尾の表層表現がクエスチョンマークであるか否かという情報が関係同定に有用であったと考えられる.
\section{関連研究}
\subsection{チャット対話を対象とした対話構造解析研究との関係}Khanらは,チャット対話から話題や参加者の興味等を抽出することを目的として,本論文で言う応答関係の同定を試みた\cite{Khan:02}.具体的には,質問とそれに対する応答のまとまりからなるスレッドという単位を定義し,スレッドの始まりの発言を同定する実験を行なった.スレッドの始まりとそうではない発言の特徴を分析し,人手でルールを作成した.ルールは表層表現と発言内の単語数の組合せである.実験対象は,チャットアプリケーションAOLInstantMessenger(AIM)\footnote{http://www.jp.aol.com/aim/}を利用して収集した約1500発言で,対話の参加人数の異なりは12名である.小倉らは,本論文で言う応答関係の同定を目的とし,チャット対話特有の表現等を手がかりとした同定実験を行なった\cite{Ogura:03}.具体的には,引用記号を使用した次話者の指定表現「>Aさん」や,関連する発言を明示する表現「ほんとに?>りんごと蜂蜜」等の表層表現だけで判断できる5種類の同定要素を組合せたルールを用いて,関係同定のためのにどのような表層表現が有効かを調査した.実験対象は,独自に作成したチャット対話データであり,参加者の異なりは16名,2人対話と3人対話合わせて870発言である.これらの先行研究は,本論文では応答関係と定義した関係の同定に必要な手がかりに焦点を当てたものであり,対話構造の解析及び継続関係の同定には踏み込んでいない.ルールベースの関係同定手法は,チャット特有の言語表現が発言中に存在するもののみを主な対象としたものであり,定量的な性能比較は難しい.しかし,我々のアプローチには,こうした既知の知見を素性としてモデルに組み込める柔軟性を持っているという利点がある.実際,小倉らの知見は,4.3節で述べたムーブの末尾の表層表現などの素性としてモデルに反映させてある.小林は,多人数が参加するチャット会議のログからの議事録自動生成を目的とし,本論文で言う継続関係及び応答関係の同定を試みた\cite{Kobayashi:03}.発話文という単位を処理の基本単位とし,それらの間の関係を同定した.具体的には,基点となる発話文の前後の発話文を探索し関係先候補を複数抽出する.その後,発話文内の表層情報と品詞情報を手がかりとして関係先を決定する.発話文を可能な限りつなげていくことで,ある話題に対する継続した対話部分を抽出する.関係先の決定には,関係先の候補発話文にヒューリスティックを用いてポイントを与える.ポイントの計算は指定した表層表現や品詞の有無で加算される.実験対象は,会議の進行役のいるチャット会議ログであり,関係先を同定するためのヒューリスティクスもこの対話スタイルに特化したものになっている.彼らは,ある発話文と二項関係にある発話文を特定する際に,その2つの発話文の素性のみを利用している.本手法では,発言間の二項関係同定のために,関係を同定したい発言とそのまわりの発言の素性も利用した.継続関係について触れられているが,その同定方法については説明されていない.このため,本論文の解析手法と比較することはできなかった.\subsection{音声対話を対象とした対話構造解析研究との関係}質問とそれに対する応答のような対話構造をある種の文法規則によって捉えようとする考えとして談話分析がある.Groszらは,談話中の発話の処理を記述するための枠組となる理論を提示している\cite{Grosz:86}.この理論では,談話の構造は,相互に関係する3種の要素,言語構造(linguisticstructure),意図構造(intentionalstructure),注視状況(attentionalstructure)から構成される.この理論に基づく談話単位は,一貫したゴールを持つ部分を1つの単位としている.しかし,本研究で求めようとしている対話構造の単位は,質問と応答のようなまとまりからなる単位であり,より小さな単位となる.Sinclairらは,より局所的な視点から対話構造の階層モデル提案している\cite{Sinclair:92}.これは,Hallidayのランク尺度の考え方\cite{Halliday:61}に基づいている.彼らは,談話に対して相互作用,交渉,エクスチェンジ,ムーブ,アクトの5つのランクからなるランク尺度を定義し,それに基づいた対話構造のモデルを提案している.本研究で対象としたチャット対話は,質問とそれに対する応答のような意味的につながりを持つ発言が必ずしも隣接しない.また,質問とそれに対する応答を構成する発言自体も区切り送信される場合があり,対話構造を構成する基本単位が異なる.このような特徴ため,既存の対話構造モデルをそのままチャット対話に適用することはできない.我々は,対話構造の基本単位をチャット対話の基本単位に変更し,意味的につながりを持つ発言が隣接しない現象を表現できるよう,交差を許すモデルに拡張した.厳寺らは,Sinclairらのモデル\cite{Sinclair:92}を参考にして対話構造の形成を試みた\cite{Iwadera:98}.彼らは,2人対話を対象とし,発言がなされる毎に漸次的に対話構造を認識する手法を提案している.具体的には,文末表現等から構成される表層表現パタンと対話特有の現象である話者交替に関する情報を用い,現在処理している発言のアクトを同定する.アクト情報を基に,直前の発言との関係を同定し,ムーブ,エクスチェンジまで発言をまとめあげて対話構造を構築する.彼らは,音声対話の書き起こしテキストを実験対象とし,対話構造の同定の際に現在処理している発言とその直前の発言との関係だけを利用した.高梨らは,独話を対象に話し言葉の処理の基本単位を節と定義し,節の同定を試みた\cite{Takanashi:03}.節の同定には,発言に含まれる形態素といった局所的な情報を利用している.局所的な情報だけでは節の同定が難しい倒置のような表現は同定対象としていない.本研究では,意味的につながりを持つ発言が必ずしも隣接しないという特徴を持つチャット対話を対象としている.このため,現在処理している発言の直前の発言だけでなく,それよりも前の発言との関連も調べる解析手法を提案した.また,倒置等の局所的な情報だけでは判断できない関係の同定も対象とした.
\section{おわりに}
本研究では,チャット対話を対象として対話構造解析を行なった.本研究の成果は以下の通りである.\paragraph{既存の対話構造モデルの拡張とコーパス構築における指針の提案:}対話構造解析アルゴリズムの適用を可能とするため,Sinclairらの対話構造モデル\cite{Sinclair:92}をチャット対話に適用できるよう拡張したモデルを提示した.このモデルは,継続関係と応答関係という発言間の二項関係から成る.さらに,どのような発言(アクト)同士が継続関係をなしてムーブを構成するか,あるいはどのようなムーブ同士が応答関係をなしてエクスチェンジを構成するかを新しく規定し,分析作業及び教師あり機械学習に利用できる大規模なコーパス作成のための指針を提案した.この指針に基づく対話構造を付与したコーパスを作成し,2人の作業者同士のタグ付けの一致度を調査したところ,κ値0.762という結果が得られた.この結果から,提案したタグ付けの指針が人間の判断のゆれに比較的強い基準になっていることが経験的に確かめられた.\paragraph{チャット対話の対話構造解析:}対話構造全体の一致率は2人対話87.4\%,3人対話84.6\%であり,ベースラインの手法を上回っている.この結果は,発言間の二項関係を同定する計算モデルが,少なくとも教師データがあれば,教師あり機械学習によって構築可能であることを経験的に示した.本タスクは単純な方法で解けるほど簡単な問題ではないが,アルゴリズムを工夫すれば自動化の実現性が十分にある問題であることが分かる.こうした問題に取り組みその実現可能性を実証した例は過去にない.\acknowledgment本研究を進めるにあたって有意義なコメントを戴いた奈良先端大松本研究室の皆様に深く感謝いたします.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{荒木,伊藤,熊谷,石崎}{荒木ら}{1999}]{Araki:99}荒木雅弘,伊藤敏彦,熊谷智子,石崎雅人.(1999).\newblock発話行為タグ標準化案の作成.\newblock人工知能学会誌,Vol.14,No.2,pp.53--62.\bibitem[\protect\BCAY{Grosz\BBA\Sidner}{Groszet~al.}{1986}]{Grosz:86}Grosz,B.J.andSidner,C.L.(1986).\newblockAttention,intentionandthestructureofdiscourse.\newblockIn{\emConputationalLinguistics,Vol12,No.3},pp.175--204.\bibitem[\protect\BCAY{Halliday}{Halliday}{1961}]{Halliday:61}Halliday,M.A.K.(1961).\newblockCategoriesofthetheoryofgrammar.\newblockIn{\emWord,17},pp.241--292.\bibitem[\protect\BCAY{細馬}{細馬}{2000}]{Hosoma:00}細馬宏通.(2000).\newblockチャットは何を前提としているか-チャットの時間構造と音声会話の時間構造-.\newblock「身体性とコンピュータ」:bit別冊,共立出版.\bibitem[\protect\BCAY{石崎,加藤}{石崎ら}{1999}]{Ishizaki:99}石崎雅人,加藤恒昭.(1999).\newblock多人数対話の特徴分析.\newblock人工知能学会{\emSIG-SLUD-9901-3}.\bibitem[\protect\BCAY{石崎,伝}{石崎ら}{2001}]{Ishizaki:01}石崎雅人,伝康晴.(2001).\newblock談話と対話言語と計算-3,6章.\newblock東京大学出版会.\bibitem[\protect\BCAY{巌寺,石崎,森元}{巌寺ら}{1998}]{Iwadera:98}巌寺俊哲,石崎雅人,森元逞.(1998).\newblock表層表現パターンを用いた対話構造の認識.\newblock情報処理学会論文誌,Vol.39,No.8,pp.2452--2465.\bibitem[\protect\BCAY{Khan,Fisher,Shuler,Wu\BBA\Pottenger}{Khanet~al.}{2002}]{Khan:02}FaisalM.Khan,ToddA.Fisher,LoriShuler,TianhaoWu,WilliamM.Pottenger.(2002).\newblockMiningChat-roomConversationsforSocialandSemanticInteractions.\bibitem[\protect\BCAY{小林}{小林}{2003}]{Kobayashi:03}小林竜己.(2003).\newblock談話の局所・中位構造を利用したチャット会議ログからの議事録自動生成.\newblock人工知能学会{\emSIG-SLUD-A203-05},pp.29--34.\bibitem[\protect\BCAY{倉林,山崎,湯淺,蓮池}{倉林ら}{2002}]{Kurabayashi:02}倉林則之,山崎達也,湯淺太一,蓮池和夫.(2002).\newblockネットワークコミュニティにおける関心の類似性に基いた知識共有の促進.\newblock情報処理学会論文誌,vol.43,No.12.\bibitem[\protect\BCAY{松本,北内,山下,平野,松田,高岡,浅原}{松本ら}{2002}]{Matsumoto:02}松本裕治,北内啓,山下達雄,平野善隆,松田寛,高岡一馬,浅原正幸.\newblock日本語形態素解析システム『茶筌』version2.2.9使用説明書.(2002).\bibitem[\protect\BCAY{小倉,石崎}{小倉ら}{2003}]{Ogura:03}小倉加奈代,石崎雅人.(2003).\newblockチャット対話における関連発言同定のための表層情報の分析.\newblock人工知能学会{\emSIG-SLUD-A203-P05}.\bibitem[\protect\BCAY{Pereira,Tishby\BBA\Lee}{Pereiraet~al.}{1993}]{pereira93distributional}FernandoPereira,NaftaliTishby,andLillianLee.(1993).\newblockDistributionalclusteringof{E}nglishwords.\newblockIn{\emProceedingsofthe31stAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},pp.183--190.\bibitem[\protect\BCAY{Sinclair\BBA\Coulthard}{Sinclairet~al.}{1992}]{Sinclair:92}Sinclair,J.McH,Coulthard,R.M.(1992).\newblockTowardsananalysisofdiscourse.\newblockIn{\emAdvancesinspokendiscourseanalysis},Routledge.\bibitem[\protect\BCAY{高梨,丸山,内元,井佐原}{高梨ら}{2003}]{Takanashi:03}高梨克也,丸山岳彦,内元清貴,井佐原均.(2003).\newblock話し言葉の文境界-CSJコーパスにおける文境界の定義と半自動認定-.\newblock言語処理学会第9回年次大会.\bibitem[\protect\BCAY{Hofmann}{Hofmann}{1999}]{th:plsi}ThomasHofmann.(1999).\newblockProbabilisticlatentsemanticindexing.\newblockIn{\emProceedingsofthe22ndAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR)},pp.50--57.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1995}]{Vapnik1995a}V.~N.Vapnik.(1995).\newblock{\emTheNatureofStatisticalLearningTheory}.\newblockSpringer.\bibitem[\protect\BCAY{Werry}{Werry}{1996}]{Werry:96}Werry,C.C.(1996).\newblockLinguisticandinteractionalfeaturesofInternetRelayChat.\newblockIn{\emS.C.Herring(Ed.)Computer-mediatedcommunication:Linguistic,socialandcross-culturalperspectives},pp.47--63.\end{thebibliography}\appendix
\section{発言間の結束度}
本研究で言う結束度は,発言同士のムーブ単位へのまとまりやすさを表す.対象発言(以下CRRu)と先行発言(以下PREu)間及びCRRuとCRRuの発言時刻から1分以内に発言された最寄りのCRRuと同一話者の発言(以下NBNu\_s)間の結束度を計り,どちらのペアの結束度が強いかの2値を素性とする.なお今回は,動詞を持たないCRRuに対象を制限した.結束度の強さは,PREu及びNBNu\_sに出現する全ての動詞及びCRRuに出現する全ての名詞と名詞に連接する助詞を組合せた3つ組$\langlen(名詞),rel(助詞),v(動詞)\rangle$の共起確率$P(\langlen,rel,v\rangle)$を求め,3つ組の数で正規化することで計る.例(11)の発言(a)がPREuで(b)がCRRu,(c)がNBNu\_sである場合,$P(\langle宛,で,来る\rangle)$と$P(\langle宛,で,直す\rangle)$を比較する.\eenumsentence{\item[a)]Aさん:メール\underline{来ちゃった}\item[b)]Aさん:個人\underline{宛で}\item[c)]Aさん:前の文章を\underline{直す}}$P(\langlen,rel,v\rangle)$を推定する手法としては,単語の共起を潜在的な意味からの同時発生とみなすProbabilisticLatentSemanticIndexing(PLSI)\cite{th:plsi}を使用し,共起確率モデルを作成した.発言間の共起確率モデルは任意の入力$\langlen,rel,v\rangle$に対して,共起確率を出力する.$\langlen,rel,v\rangle$を$\langlerel,v\rangle$と$n$の共起とみなすと,PLSIにおける共起確率$P(\langlen,rel,v\rangle)$は次式で与えられる.\begin{eqnarray*}P(\langlen,rel,v\rangle)&=&\sum_{z\inZ}P(\langlerel,v\rangle|z)P(n|z)P(z).\end{eqnarray*}ここで,zは共起の潜在的な意味クラス(隠れクラス)を指す.式中の確率的パラメタ$P(\langlerel,v\rangle|z)$,$p(n|z)$,$p(z)$は,EMアルゴリズムによって推定できる\cite{th:plsi}.モデルの訓練の手順を以下に示す.\begin{enumerate}\item新聞記事19年分(毎日新聞9年分,日経新聞10年分)のべ25,061,504文をCaboCha\footnote{http://chasen.org/\~{}taku/software/cabocha/}で係り受け解析し,動詞とそれに係かる名詞と助詞の3つ組$\langlen,rel,v\rangle$を抽出した.モデルの訓練事例として,チャット対話コーパスではなく新聞記事コーパスを利用した.これは,新聞記事コーパスから獲得できる共起用例は大規模であることと,チャット対話コーパスは,関連する発言が必ずしも隣接しないという特徴のため正しい共起用例を自動的に抽出することが難しいことがその理由である.\item今回は,のべ2回以上出現した名詞,動詞を採用した.助詞は,格助詞は``が'',``を'',``に'',``で'',``へ'',``から'',``より''の7つに``は'',``も''を加えた9つとした.\item2.で得た3つ組をPLSI学習パッケージ\footnote{http://chasen.org/\~{}taku/software/plsi/}に入力し,確率的パラメタを推定した.隠れ変数の個数$|Z|$は1000とした.\end{enumerate}\begin{biography}\biotitle{略歴}\bioauthor{徳永泰浩}{1979年生.2002年九州工業大学情報工学部卒業.2004年奈良先端科学技術大学院大学情報科学研究科博士前期過程修了.同年任天堂(株)入社,現在に至る.}\bioauthor{乾健太郎}{1967年生.1995年東京工業大学大学院情報理工学研究科博士課程終了.同年同研究科助手.1998年九州工業大学情報工学部助教授.1998年〜2001年科学技術振興事業団さきがけ研究21研究員を兼任.2001年より奈良先端科学技術大学院大学情報科学研究科助教授,現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL各会員.}\bioauthor{松本裕治(正会員)}{1955年生.1977年京都大学工学部情報工学科卒業.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.専門は自然言語処理.情報処理学会,人工知能学会,日本ソフトウェア科学会,認知科学会,AAAI,ACL,ACM各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V16N01-05 | \section{まえがき}
\label{sec:intro}単語オントロジーは自然言語処理の基礎データとして様々な知識処理技術に利用されており,その重要性は年々高まっている.現在広く知られている日本語オントロジーとしては,例えば日本語語彙大系\cite{goitaikeij}等が挙げられる.日本語語彙大系は人手により編集された大規模オントロジーであり,約3,000の意味カテゴリーを木構造状に分類し,約40万語を各意味カテゴリーに割当てている.しかしながら,これらは翻訳への適用を主な目的として作成されており,利用目的によっては必ずしも適切な分類とはならない.言い換えれば,オントロジーは利用目的に応じて異なるものが求められるのである.ところが,オントロジーの作成には膨大な労力が必要であり,また,言葉が日々進化するものであることを考えると,特定目的に応じたオントロジー作成を人手で行うことは現実的に不可能である.従って,オントロジーの生成は自動化されることが望まれる.そこで本論文ではオントロジー自動生成手法の検討を行う.技術的検討を行う上では特定目的のオントロジー生成よりも,むしろ一般のオントロジーを取り扱う方が検証を行いやすい.従って,本論文ではオントロジー自動生成の第一歩として,日本語語彙大系のような一般的なオントロジーの自動生成を目的とし,検討を進めることとする.オントロジーは単語の意味的関連性を表すものであり,この点からみると,基礎となるデータは共起情報を与えるコーパスよりも単語の意味を直接定義している辞書(国語辞典)の方が適していると考えられる.辞書を用いた関連性抽出の例を挙げると,例えば,鶴丸らは辞書の定義文のパターン抽出により上位語の同定が可能であることを示している\cite{tsurumaru1991}.また,オントロジーの自動獲得の試みも行われており,例えばNicholsらは定義文中に上位語が含まれているという仮定の下での単語階層化手法を提案している\cite{Nichols:Bond:2005}.上記の手法は,定義文を構文解析し,その主辞を上位語とするものであるが,必ずしも定義文の主辞が上位語であるとは限らないため,決定論的に上位語を決めてしまうとオントロジー生成時に矛盾を引き起こすことになる.従って,決定論的に上位語を決めるのではなく,順位づけられた上位語候補を取り出すことが望まれる.しかしながら,辞書の短い定義文からこれを行うことは難しい.一方で,上位語を抽出する方法として,コーパスから''is-a''構造等を取り出すという方法がある.この方法は統計量が大きければ信頼性の高い情報が得られる一方,基本的な単語が網羅される保証はなく,単語の偏りが起こる可能性が高い.また,Snowらは''is-a''構造を持つデータを利用してオントロジーを構築する手法を提案しているが\cite{Snow06},この手法は既存のオントロジーに単語を追加する手法としては有効であるが,オントロジーの骨格をゼロから作り上げることには向いていない.このように,上位語抽出とオントロジー構築にはそれぞれの課題があり,オントロジーを生成するためには,上位語の抽出方法と上位語候補を用いたオントロジー生成手法とを分けて考えるべきであり,まず適切な上位語情報を抽出することが重要である.以上の点から,本論文では,順位付け可能な上位語情報を取り出し,その情報を利用した最適化学習によりオントロジーを生成することを目指す.ところで,鈴木は辞書の定義文を再帰的に展開することでカバー率の非常に大きい単語類似度計算手法を提案している\cite{Suzuki2,Suzuki3j}.この方法によると,辞書の定義文を仮想的に巨大な単語集合と見なすことができ,各単語の出現頻度は確率として与えられるため,上位語候補の不足を解決できる可能性がある.そこで本論文では上位語情報の抽出を主な目的とし,辞書の定義文を巨大な単語集合として再定義することにより上位語侯補を増やすという手法を試みる.提案手法では,定義文中に上位語が含まれるという前堤を保ちつつ,大きな単語集合の中から上位語候補を確率的指標を伴った形でリストアップする.即ち,辞書の定義文を基に,上位語の尤もらしさを数値として表す手法を提案する.更に,この上位語候補情報を利用したオントロジー自動生成も試みる.本論文に示す自動生成手法は簡易的なものであるが,前述の上位語候補情報の効果を確認するには非常に有効である.以下,確率モデルによる定義文の拡張方法を簡単に説明し,この手法により一般的な国語辞典から上位語候補が確率的指標と共に取り出せることを示す.また同時に,従来手法との比較も行い,その有効性を検証する.次に,この指標の利用例としてオントロジー自動生成手法を提案し,この手法に上記指標を適用した結果を示す.
\section{辞書からの上位語情報抽出}
\label{sec:hyperinfo}まずはじめに,辞書から単語の上位語情報を取り出すことを考える.ここで言う上位語情報とは,上位語と相関のある数値情報のことであり,上位語を一意に決定するものではない.一般に定義文中に同じ単語が複数回現れることは稀なので,そのままでは単語間で差を付けることはできない.そこで,定義文を再帰的に展開し,拡張した定義文の中での出現頻度の差を利用することにする.この再帰的展開は適当な回数の展開を設定しても良いが,本稿は上位語抽出方法として鈴木による再帰的語義展開手法\cite{Suzuki2,Suzuki3j}を利用することにする.この手法によれば,定義文を無限に再帰的に展開することにより巨大な仮想定義文を生成し,そこから頻度情報を取り出すことができる.辞書の定義文が見出語に意味を与えるためのものであるとすれば,上位語は単語に意味付けするために非常に重要な要素である.従って,この仮想定義文中には上位語が高い頻度で出現することを期待できる.\subsection{再帰的語義展開}\label{sec:method}再帰的語義展開の基本的な考えは,定義文中の単語頻度を再帰的に展開し,より多くの単語からなる定義文を作成するということである.辞書(国語辞典)は見出語と定義文の組合せから成り立っている.定義文は単語の集合であり,これを見出語の集合とみなせば,一つの定義文を複数の定義文の集合として再定義することができる.ところが,このような展開は無限に続いてしまう.従って,展開された定義文中の単語数も無限になり,頻度計算は一般に不可能になる.しかしながら,定義文の展開を行なう毎に一定の割合でその影響が小さくなるとすれば,無限に展開された定義文の影響は元の定義文に比べて微小になる.このとき,定義文の影響力は語義展開の回数に従う等比数列として表すことができる.同時に,様々な深さまで展開した定義文の集合体を考え,その総和を無限級数として計算すると必ず有限な値となる.これにより,定義文の集合体中の単語頻度も有限になり,計算可能となる.これらを確率モデルに置き換えることで,無限の展開を含めた定義文の集合体から単語の出現確率を取り出すことが可能になり,拡張された定義文として再定義することができる.計算の概要を以下にまとめる.以下,$n$回展開された定義文を$n$次の定義文と呼ぶ.また,辞書中の定義文を0次定義文とする.まず,見出語$w_i$と0次定義文中の単語$w_j$の関係は$P(w_j^{(0)}|w_i)$と表すものとする.ここで,$w^{(n)}$は$n$次の定義文中の単語$w$を表す.従って,確率$P(w_j^{(0)}|w_i)$は,見出語$w_i$の0次定義文中に現れる$w_j$の出現確率である.この表記を用いると,各見出語に関する0次定義文中の単語の出現確率は\begin{equation}A=\begin{bmatrix}{P\left({w_1^{(0)}|w_1}\right)}&\cdots&\cdots&{P\left({w_1^{(0)}|w_m}\right)}\\{P\left({w_2^{(0)}|w_1}\right)}&\ddots&{}&{}\\\vdots&{}&\ddots&{}\\{P\left({w_m^{(0)}|w_1}\right)}&{}&{}&{P\left({w_m^{(0)}|w_m}\right)}\end{bmatrix}\label{eq:matrix}\end{equation}の列ベクトルとして表される.ここで,$m$は辞書中の見出語の数である.行列$A$の各要素$P(w_j^{(0)}|w_i)$は見出語$w_i$の定義文中の単語頻度$N_i(w)$を用いて\begin{equation}P(w_j^{(0)}|w_i)=\frac{N_i(w_j^{(0)})}{\sum_{all\;k}N_i(w_k^{(0)})}\label{eq:frequency}\end{equation}と書ける.このとき,全ての列ベクトルは,要素の合計が$1$であり,確率表現となっている.さらに,この表記に従うと,$n$次定義文は$A^{n+1}$により表される.目的とする定義文の集合体$C$は,語義展開の度に定義文の影響が一定の割合$a$で減少すると仮定すると,\pagebreak\begin{equation}C=(1-a)(A+aA^2+\cdots+a^{n-1}A^n+\cdots)\label{eq:Ca}\end{equation}と書ける.ここで,係数$1-a$は正規化のための定数である.式(\ref{eq:Ca})は無限級数の計算から\begin{equation}(I-aA)C=(1-a)A\label{eq:target}\end{equation}と書け,線型計算により解を求めることができる.計算により得られる行列$C$は,列ベクトルの各要素の合計が必ず1となり,確率として扱うことが出来る.$C$の$(j,i)$要素を$P(w_j^*|w_i)$と書くと,$w^*$は定義文の集合体の中の単語を意味することになる.以下,この定義文の集合体を拡張定義文と呼ぶことにする.すなわち,$P(w_j^*|w_i)$は拡張定義文中の単語の確率頻度である.\subsection{拡張定義文}\label{subsec:expand}上記の手法を実際に国語辞典\cite{gakkenj}に適用した結果を以下に示す.前処理として,扱う単語を一般名詞とサ変名詞に限定(形態素解析は茶筌\cite{chasenj}を利用)し,語義の区別はせず,語義文と例文をまとめて見出語の定義文とした.その結果,43,915語の見出語と,平均約7語の0次定義文を得た.以下,$a=0.9$で行った実験結果を例に詳細を記す.まず,式(\ref{eq:matrix})(\ref{eq:frequency})から確率行列$A$を計算した.これはスパースな43,915次元の正方行列である.次に式(\ref{eq:target})から線形ライブラリ$CLAPACK$\cite{clapack}を利用して$C$を求めた.このときの計算精度は32~bit長の浮動小数点演算で,有効桁は$10^{-7}$までとした.この結果得られた列ベクトルの非ゼロの値を持つ次元数は平均約33,000であった.すなわち,平均約33,000語の仮想定義文ができたことになる.表\ref{tab:expand}に0次定義文と拡張定義文との比較を示す.まず,見出語「通信」に関しては,0次定義文では「通信」が頻度4,他の13語が等しく頻度1で,「通信」のみが突出して頻度が高い.一方,拡張定義文では全ての単語の確率頻度が異なっており,順位づけすることができる.また,頻度1位の「通信」と2位の「人」との差は相対的に小さくなっている.さらに,0次定義文に現れていなかった「物事」「一つ」が拡張定義文では上位の頻度で現れている.定義文中の語数は,0次定義文では14語だったものが,拡張定義文では32,182語に大幅に増えている.\begin{table}[t]\caption{0次定義文と拡張定義文の比較}\label{tab:expand}\begin{center}\input{05table01.txt}\end{center}\end{table}同様に,見出語「傍受」に関しては,0次定義文では5単語が等しく頻度1で現れているのに対し,拡張定義文では順位が付けられ,中でも「通信」が相対的に大きな頻度を示している.また,見出語「通信」の場合と同様に「人」「物事」「自分」「行動」といった一般的な単語が現れているほか,「電線」「有線」「発信」といった見出語と関連の深い特徴的な単語が現れている.本手法を用いると,辞書全体でよく使われる単語,即ち一般的な単語が上位に現れやすくなる.この性質により,等しい頻度の単語でも,より一般的な語が拡張定義文中の上位に現れる傾向があり,場合によっては0次定義文に現れない単語が確率頻度最大となることもある.\subsection{上位語情報としての評価}\label{subsec:eval-hyper}見出語$w_i$の拡張定義文中に上位語$w_j$があるとすれば,上位語$w_j$は見出語$w_i$を説明するために非常に重要な単語であるため,その確率頻度$P(w_j^*|w_i)$は高いことが予想される.従って,見出語$w_i$の上位語は,その拡張定義文の中から確率頻度$P(w_j^*|w_i)$が高い順に尤もらしいと考えることができる.この仮説を検証するために,日本語語彙大系\cite{goitaikeij}を正解データとした検証実験を行った.対象としたのは,前節で用いた43,915語のうち,日本語語彙大系と表記が一致する39,982語である.\ref{sec:intro}節で記したように,日本語語彙大系は意味的上下関係を表した約3,000のカテゴリーからなるオントロジーと各カテゴリーに割当てられた合計約40万語からなる大規模語彙データである.ただし,単語の割当てに関しては翻訳への適用を主な目的として作成されているため,オントロジーとしては必ずしも正しいとは限らない.そこで,本論文では,まずはじめに日本語語彙大系をオントロジー検証のための正解データとして適切に利用する方法を検討し,その後,提案手法に対する評価を行うことにする.まず,日本語語彙大系のオントロジーとしての性質を調べるため,既存手法による上位語抽出結果と,その結果を人手により修正した正解データ\footnote{この正解データはLexeedに上位語を付与することを目的として作成されたものであり,上位語はLexeedの見出語の中から選ばれている.{但し,この修正は,正解データとして一般性があるものを目指したものではなく,あくまでも既存手法の評価のための修正であることに注意を要する.実際,修正に際しては,既存手法による結果をできるだけ残す方針で編集されており,かなりのバイアスがかかっている.また,このため,上位語の数は定義文中の文(主辞)の数に等しい.}}を利用した.この既存手法は,Nicholsらにより提案された,辞書定義文の構文解析により得られた主辞を上位語とみなす手法である\cite{Nichols:Bond:2005}.ただし,ここで用いた辞書(Lexeed\cite{lexeed})は前節の実験で用いた辞書(学研国語辞典\cite{gakkenj})とは異なる.これらのデータを利用して,日本語語彙大系の意味カテゴリー間の関係を上位語の評価指標としての妥当性という観点から評価した.評価方法は,次に示す3種類をそれぞれ上位語の正解データとして精度を計算するものである.\begin{enumerate}\item見出語の含まれる意味カテゴリーの直接上位カテゴリー中の全単語\item直接上位カテゴリーを除く全ての上位カテゴリー(間接上位カテゴリー)中の全単語\item見出語と同一カテゴリーに属する全単語\end{enumerate}評価結果を表\ref{tab:head}に示す.\begin{table}[b]\begin{center}\caption{日本語語彙大系カテゴリーの上位語集合としての妥当性評価}\label{tab:head}\input{05table02.txt}\end{center}\end{table}人手修正データの評価結果を見ると,直接上位カテゴリーよりもむしろ同一カテゴリーの単語に上位語が多く含まれていることがわかる.人手修正による精度の向上も同一カテゴリーの方が大きく,上位語の多くはここに集まっていると考えられる.逆に,間接上位カテゴリーでは,人手修正による精度向上率は$-24.5\%$であり,精度を大きく下げている.この結果は,間接上位カテゴリーは上位語以外の単語を多く含んでおり,間違った結果を正解と判断している率が非常に高いことを示している.{言い替えると,間接上位カテゴリーは再現率が非常に低く,一方,直接上位カテゴリーと同一カテゴリーには従来手法のような構文解析手法では取り出しにくい上位語が集まる傾向があるといえる.ここで,人手修正データに強いバイアスが掛っている(脚注参照)点を考慮すると,実際に修正を加えられた人手修正データの方がより信頼性の高いデータであることに気附く.従って,精度の絶対値ではなく,向上率を重視したほうが信頼性が高いと考えられる.よって,本論文においては,日本語語彙大系を上位語の評価として使う場合には,同一カテゴリーあるいは直接上位カテゴリーを正解とみなして評価を行うことにする.特に同一カテゴリーによる評価を重視する方向で検討をすすめることとする.}この結果を考慮して,提案手法による上位語情報の抽出結果を日本語語彙大系の直接上位カテゴリーおよび同一カテゴリーを正解データとして評価した.その結果を図\ref{fig:hyper-above},\ref{fig:hyper-same}に示す.図\ref{fig:hyper-above}は直接上位カテゴリーを正解とした場合,図\ref{fig:hyper-same}は同一カテゴリーを正解とした場合である.それぞれの図には,横軸に拡張定義文中の確率頻度を降順に並べた順位を,縦軸に正解データに対する精度をとり,全ての見出語に関する統計量でプロットしている.黒丸は前述の人手修正による正解データを,白丸は同じく前述の既存手法による結果である.太い実線は再帰的展開を行わない場合,即ち$a=0$の結果である.ここでは同一頻度のものは任意に順位を割当てた.破線,細い実線,鎖線はそれぞれ$a=0.1,0.5,0.9$の場合の結果を示している.\begin{figure}[b]\vspace{-1\baselineskip}\begin{center}\includegraphics{16-1ia5f1.eps}\end{center}\caption{出現頻度順位と精度(日本語語彙大系直接上位カテゴリーによる評価)}\label{fig:hyper-above}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-1ia5f2.eps}\end{center}\caption{出現頻度順位と精度(日本語語彙大系同一カテゴリーによる評価)}\label{fig:hyper-same}\end{figure}図\ref{fig:hyper-above}の順位1位を比較すると,既存手法の精度$0.0399$に対して$a=0.1$では$0.0402$であり,提案手法の精度が上回っている.また,$a=0.5,0.9$でもそれぞれ$0.0389,0.0378$であり,ほぼ同等の結果を得ている.ただし,人手修正による正解データの精度$0.0510$には及んでいない.一方,図\ref{fig:hyper-same}の順位1位での比較では,既存手法の精度$0.2170$に対して$a=0.1,0.5,0.9$のそれぞれで$0.2628,0.2915,0.2932$と大きく上回る結果を出している.さらに,$a=0.5,0.9$は人手修正による正解データの精度$0.2793$をも僅かに上回っている.\footnote{既存手法との比較は異なる辞書を基にして計算された結果の比較であるため微小な差異は意味を持たないが,どちらの辞書も国語辞典であり,同じ性質の文章であるためその影響は非常に小さいと考えられる.特に,図\ref{fig:hyper-same}の結果は人手修正データとの相対比較という観点からみても大きな差があり,十分意味を持つものである.}また,再帰的展開前の結果($a=0$)と展開後の結果($a=0.1,0.5.0.9$)とを比較してみると,展開後の結果は,展開前に比べて順位1位の精度が上り,順位2,3位以下では精度が下っている.これは,再帰的展開により,低い順位にあった上位語が高い順位に移動したことを示しており,再帰的展開の効果を明確に表す結果である.以上の結果から,提案手法は既存手法と同等以上の精度を持ち,評価方法によっては手作業にも劣らない精度を出せることが示された.さらに,上位語候補として1語あるいは数語しか提示できない既存手法に比べて,提案手法では順位2位以下の情報を多量に持っているため,アプリケーションへの応用の際にこれらの情報が有効に働くことを期待できる.
\section{オントロジーの生成}
\subsection{学習モデル}\ref{sec:hyperinfo}節で得られた上位語情報を利用して,単語オントロジーの自動生成を試みた.以下は,今回検証したモデルである.まず,目的とするオントロジーは上位語が下位語を意味的に包含するものである.従って,下位語は上位語の意味を要素として含まなければならない.逆に,下位語は上位語以外の単語の意味を要素として含んではいけないことになる.いま,あるオントロジーが存在し,その中の単語$C$の上位語が$A,B$である場合を考える(図\ref{fig:ont-model}(a)参照).このとき,$C$の持つ意味は$A,B$及び$C$自身により特徴づけられると考える.ところが,$C$は拡張定義文において様々な単語から成り立っている.そこで,単語の意味空間の集合としての見出語の意味空間を考える(図\ref{fig:ont-model}(b)参照).\begin{figure}[b]\vspace{-0.5\baselineskip}\begin{center}\includegraphics{16-1ia5f3.eps}\end{center}\caption{オントロジー学習モデル}\label{fig:ont-model}\end{figure}拡張定義文中の各単語は見出語を構成する要素(部分空間)であると考え,見出語自身とその上位語のみが,その見出語を特徴づける意味要素として有効であると仮定する.即ち,\begin{quote}オントロジー上に単語$C$の上位語として単語$A,B$のみが存在する場合,このオントロジーにおける$C$の意味は拡張定義文中の$A,B,C$で構成される部分空間に限定され,拡張定義文中の他の単語は無視される.そして,これらの単語の確率頻度の合計が大きいほど,見出語の本来の意味が再現される\end{quote}と考える.この再現率がオントロジー全体で高いほど,良いオントロジーとなる.これにオントロジー上の距離の要素を加味し,単語の確率頻度(\ref{sec:method}節参照)を用いて,上位語を$A,B,C,D,\cdots$としたときの再現率を\begin{equation}P'(w)=b_AP(w_A^*|w)+b_BP(w_B^*|w)+b_CP(w_C^*|w)+b_DP(w_D^*|w)+\cdots\end{equation}と書くことにする.ただし,$b_x$は単語$w_x^*$の木構造の頂点からのトポロジカルな距離に従う定数($\sum_xb_x=1$)である.以下,この$P'(w)$を意味再現率と呼ぶ.この仮定の下で,あるオントロジー$T$が存在している場合,$T$が存在する確からしさは全単語の意味再現率の積,即ち,\begin{equation}\label{eq:prob_t}P(T)=\prod_{w_x}^{all\;words}P'(w_x)\end{equation}で表すことができる.\pagebreakつまり,全ての単語がより良く元の意味を再現できている状態がオントロジーの存在が最も安定している状態であると考える.計算を簡単にするため,式(\ref{eq:prob_t})の対数をとれば,\begin{equation}\begin{aligned}[b]L(T)&=\logP(T)\\&=\sum_{w_x}^{all\;words}\logP'(w_x)\\&=\sum_{w_x}^{all\;words}\log\sum_{w_y^*}^{all\;hypernyms}b_yP(w_y^*|w_x)\end{aligned}\end{equation}となる.この$L(T)$を最大化することにより,前述の仮定の下での最適な単語オントロジーが取り出せる.\subsection{計算機実験}本論文では,計算コストを抑えるため,最適化アルゴリズムを各単語の意味再現率最大化と,その組合せとしての全体の最適化の2段階に分離して行った.即ち,\begin{enumerate}\item$\forallw_x,\P'(w_x)=\sum_{w_y^*}^{all\;hypernyms}b_yP(w_y^*|w_x)$の最大化\item$L(T)=\sum_{w_x}^{all\;words}\logP'(w_x)$の最大化\end{enumerate}を交互に行うことで,近似的に最適化を行った.オントロジー上の距離に関するパラメータ$b_y$は,上位語の木構造の最上位からの階層の深さを$n$としたとき,$b_y\proptoz^n,z=0.1,0.5,0.9,0.99$の4種類とした.学習の前提として,オントロジー上での各単語の直接上位語は1語に限定し,自身を上位語とすることを許可している.自身が上位語となる場合は,当該単語は木構造の最上位に位置するものと考える.これらの前提の下,学習の初期状態は全ての単語が自身を上位語とする状態にあるものとし,学習を行った.具体的な学習手順は,次の通りである.\begin{enumerate}\item見出語を1つ選ぶ.\item上位語候補を$N$個選ぶ.\item各上位語候補に対して$P'(w_x)$を計算し,最大となる上位語を決定する.\item上記に対し$L(T)$を計算し,値が増加すれば上位語を置換,それ以外なら元に戻す.\end{enumerate}を全見出語に関し変化がなくなるまで繰り返す.ただし,$N$は事前に与えられる定数であり,今回の実験では$N=100$とした.\subsection{結果}\begin{figure}[p]\begin{center}\includegraphics{16-1ia5f4.eps}\end{center}\caption{獲得されたオントロジーの例(「通信」の上位語/下位語)}\label{fig:tree-word}\end{figure}以下,$a=0.1$の場合を例に,結果の詳細を記す.学習の結果得られたオントロジーの一部を図\ref{fig:tree-word}に示す.「通信」の全上位語および全下位語の構造を表示している\footnote{上位語の他の下位語,即ち,「兄弟」「従兄弟」等の関係にあたる単語は全て省略している.}.(a)はオントロジー上の距離に関するパラメータ$b(z=0.1)$を用いて学習した結果である.同様に(b),(c),(d)はそれぞれ$b(z=0.5,0.9,0.99)$のときの結果である.この値が大きくなる程,上位語の影響は階層の離れた下位語まで届くため,深い木構造が期待できる.逆にこの値が小さいと,浅い木構造ができることが期待される.今回の実験では,独立した木構造の数は,(a)1687,(b)1472,(c)788,(d)142であった.(a),(b),(c)では「通信」は木構造の最上位に位置しているが,(d)では「人」を頂点とする巨大な木構造の一部であり,多くの上位語の下に位置している.これらの結果から,パラメータ$z$の値が増加するに従い木構造の階層がより深く大きくなるのが確認できる.また,図\ref{fig:tree-word}を詳細にみると,上下関係が特定の意味関係で統一されているとは言い難いものの,関連のある言葉が集まり木構造を構築していることは確認できる.次に,生成されたオントロジーの精度を,\ref{subsec:eval-hyper}節同様,日本語語彙大系のカテゴリー間の上下関係との一致度を測ることにより調べた.評価方法は\ref{subsec:eval-hyper}節の結果を考慮して,2種類の正解データを設定した.一つは,見出語の含まれる意味カテゴリーの直接上位カテゴリーを正解とするもの,もう一つは,見出語の含まれる意味カテゴリーと同一カテゴリーを正解とするものである.これら正解カテゴリー内の単語のいずれかに,生成したオントロジーから得られる上位語が一致すれば正解とみなした.この手法による評価を,オントロジー上での上位語の距離に対する精度としてプロットしたのが図\ref{fig:eval-direct}および図\ref{fig:eval-all}である.横軸は上位語のトポロジカルな距離で,直接上位語であれば``1'',さらにその上位語であれば``2''というように,オントロジー上の距離を表している.縦軸は精度である.図の各線は,学習時のパラメータ$b(z=0.1,0.5,0.9,0.99)$のそれぞれの結果をプロットしたものである.また,白丸はオントロジー生成学習前(拡張定義文中の出現頻度最大の単語を正解とみなした場合)の精度を,黒丸は人手で修正したデータの精度(表\ref{tab:head}参照)を表している.\begin{figure}[t]\begin{center}\includegraphics{16-1ia5f5.eps}\end{center}\caption{オントロジー上の上位語の精度(直接上位カテゴリーによる評価)}\label{fig:eval-direct}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-1ia5f6.eps}\end{center}\caption{オントロジー上の上位語の精度(同一カテゴリーによる評価)}\label{fig:eval-all}\vspace{-1.5\baselineskip}\end{figure}全体的に,学習時のパラメータ$z$が小さいほど距離1での精度が高く,また,距離が大きくなるに従い急激に精度を落している.$z$が小さいと,生成された木構造の階層が浅いため大きな距離の上位語は非常に少くなり,逆に,$z$が大きいと,木構造の階層が深くなり,多くの上位語を同時に学習するため直接上位語の精度が犠牲になると考えられる.ただし,この差は僅かであり,距離2以上では逆転するものもあるので,$z$を如何に設定すべきかは更なる検討が必要である.さらに,これらの結果を学習の前後で比較してみる.図\ref{fig:eval-direct}の距離が1(直接上位語)の場合を見ると,オントロジー生成学習前(図では白丸)よりも後の方が大きく精度を下げている.人手修正データの場合(図では黒丸)と比べると,半分程度の精度である.ここで人手修正データの性質を考える.このデータはオントロジーを意識して作成されたものではないので,上位語にさらにその上位語を積上げる手法をとっても木構造にはならず,ループ状につながってしまう.従って,木構造にするには,いくつかの上位語を変える必要があり,多少の精度低下が起る.この点を考慮すると,学習前後で精度が低下することは妥当であると思われる.一方,図\ref{fig:eval-all}では距離が1の各値はオントロジー生成学習前(図の白丸)および人手修正データ(図の黒丸)と比べて大きく精度を上げている.\ref{subsec:eval-hyper}節の結果を考慮すれば同一カテゴリーによる評価がより重要であるとも考えられるが,同義語など他の要素が影響している可能性も考えられる.この点に関しても更なる検討が必要である.以上の結果は,$a=0.5,0.9$の場合でも同様の傾向がみられる.上述のように,オントロジーとしての十分な評価を下すためには更に検証を加える必要があるが,上記の実験結果は計算により得られた上位語情報を学習によって木構造に組み上げる方法論の妥当性を示唆している.また,再帰的展開の影響が小さい$a=0.1$での結果が学習前から大きく改善したことは,辞書から得たカバー率の高い上位語情報が有効に活用されていることを表すものである.
\section{むすび}
本論文では辞書の定義文から上位語情報を取り出し,検証を行った.取り出した上位語情報はカバー率が非常に高いという特徴をもっており,精度の検証では既存の手法を上回る結果を示した.また,上位語情報を利用したオントロジー生成手法を提案し,上位語情報のカバー率の高さが有効に働いていることを示した.提案したオントロジー生成手法はまだ簡易的なものであるが,パラメータに従い様々な深さの階層をもつオントロジーを生成できる.ただし,その精度の評価方法に関しては更なる検討が必要であることも明らかになった.今後の課題としては,第一に評価手法の確立が挙げられる.今回は正解データとして日本語語彙大系のみを利用したが,様々な辞書等を組合せて,より精度の高い評価手法を確立したいと考えている.更に,学習の最適化手法の改良に関しても今後の課題である.今回用いた最適化手法は簡易的なもので,極めて局所的な最適解しか得られない.この点を改善すれば,今後の更なる精度の向上も期待できる.また,今回の実験では語義の曖昧性については考慮せず,1表記につき1語義として実験を行ったが,定義文中の語義曖昧性を排除した辞書(例えばLexeed\cite{lexeed})を利用することにより,語義レベルの上位語抽出,オントロジー生成が可能である.今回は特殊な辞書であるLexeedの利用は避けたが,これの再帰的展開への適用については現在検討を進めているところである.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Anderson,Bai,Bischof,Blackford,Demmel,Dongarra,Du~Croz,Greenbaum,Hammarling,McKenney,\BBA\Sorensen}{Andersonet~al.}{1999}]{clapack}Anderson,E.,Bai,Z.,Bischof,C.,Blackford,S.,Demmel,J.,Dongarra,J.,Du~Croz,J.,Greenbaum,A.,Hammarling,S.,McKenney,A.,\BBA\Sorensen,D.\BBOP1999\BBCP.\newblock{\Bem{LAPACK}Users'Guide\/}(Third\BEd).\newblockSocietyforIndustrialandAppliedMathematics,Philadelphia,PA.\bibitem[\protect\BCAY{Nichols\BBA\Bond}{Nichols\BBA\Bond}{2005}]{Nichols:Bond:2005}Nichols,E.\BBACOMMA\\BBA\Bond,F.\BBOP2005\BBCP.\newblock\BBOQAcquiringOntologiesUsingDeepandShallowProcessing\BBCQ\\newblockIn{\Bem11thAnnualMeetingoftheAssociationforNaturalLanguageProcessing},\mbox{\BPGS\494--498}\Takamatsu.\bibitem[\protect\BCAY{Snow,Jurafsky,\BBA\Ng}{Snowet~al.}{2006}]{Snow06}Snow,R.,Jurafsky,D.,\BBA\Ng,A.~Y.\BBOP2006\BBCP.\newblock\BBOQSemanticTaxonomyInductionfromHeterogenousEvidence\BBCQ\\newblockIn{\BemProceedingsof44thAnnualMeetingoftheACL},\mbox{\BPGS\801--808}.AssociationforComputationalLinguistics,ACL.\bibitem[\protect\BCAY{Suzuki}{Suzuki}{2003}]{Suzuki2}Suzuki,S.\BBOP2003\BBCP.\newblock\BBOQProbabilisticWordVectorandSimilaritybasedonDictionaries\BBCQ\\newblock{\BemComputationalLinguisticsandIntelligentTextProcessingLectureNotesinComputerScience(InproceedingsofCICLing2003)},{\Bbf\textmd{N2588}},\mbox{\BPGS\564--574}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{goitaikeij}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{鶴丸\JBA竹下\JBA伊丹\JBA柳川\JBA吉田}{鶴丸\Jetal}{1991}]{tsurumaru1991}鶴丸弘昭\JBA竹下克典\JBA伊丹克企\JBA柳川俊英\JBA吉田将\BBOP1991\BBCP.\newblock\JBOQ国語辞典情報を用いたシソーラスの作成について\JBCQ\\newblock\Jem{情報処理学会自然言語研究会},{\Bbf\textmd{1991-NL-}83}.\bibitem[\protect\BCAY{金田一\JBA池田}{金田一\JBA池田}{1988}]{gakkenj}金田一春彦\JBA池田弥三朗\BBOP1988\BBCP.\newblock\Jem{学研国語大辞典第二版}.\newblock学習研究社.\bibitem[\protect\BCAY{鈴木}{鈴木}{2005}]{Suzuki3j}鈴木敏\BBOP2005\BBCP.\newblock\JBOQ辞書に基づく単語の再帰的語義展開\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf46}(2),\mbox{\BPGS\624--630}.\bibitem[\protect\BCAY{松本\JBA北内\JBA山下\JBA平野\JBA松田\JBA高岡\JBA浅原}{松本\Jetal}{2000}]{chasenj}松本裕治\JBA北内啓\JBA山下達雄\JBA平野善隆\JBA松田寛\JBA高岡一馬\JBA浅原正幸\BBOP2000\BBCP.\newblock\JBOQ日本語形態素解析システム『茶筌』version2.2.1使用説明書\JBCQ.\newblockhttp://chasen.aist-nara.ac.jp/.\bibitem[\protect\BCAY{笠原\JBA佐藤\JBA田中\JBA藤田\JBA金杉\JBA天野}{笠原\Jetal}{2004}]{lexeed}笠原要\JBA佐藤浩史\JBA田中貴秋\JBA藤田早苗\JBA金杉友子\JBA天野成昭\BBOP2004\BBCP.\newblock\JBOQ「基本語意味データベース:Lexeed」の構築(辞書,コーパス)\JBCQ\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf2004}(1),\mbox{\BPGS\75--82}.\end{thebibliography}\begin{biography}\bioauthor{鈴木敏(正会員)}{昭和42年生.平成2年東京大学教養学部基礎科学科卒.同年NTT入社.統計的学習理論,物体認識に関わる計算モデル,自然言語処理のための学習モデルの研究に従事.平成4〜9年ATR人間情報通信研究所研究員.平成6年日本神経回路学会研究賞受賞.}\end{biography}\biodate\end{document}
| |
V16N05-04 | \section{はじめに}
\label{sec:introduction}テキスト中の含意関係や因果関係を理解することが,質問応答,情報抽出,複数文章要約などの自然言語処理の応用に役立つと知られている.これを実現するためには,例えば,動詞「洗う」と動詞句「きれいになる」が,何かを洗うという行為の結果としてその何かがきれいになるという因果関係である,といったような知識が必要である.本論文では,事態と事態の間にある関係を大規模にかつ機械的に獲得するための手法について述べ,この手法を用いた実験結果を示す.因果関係,時間関係,含意関係等の事態間関係を機械的に獲得するための研究が既に存在する~\cite[etc.]{Dekang-Lin,inui:DS03,chklovski,torisawa:NAACL,pekar:2006:HLT-NAACL06-Main,zanzotto:06}.これらの研究に共通する方法論は,特定の事態間関係を表現する語彙統語的なパターンを人手で作成し,このパターンと共起する事態対をテキストから抽出することで,特定の関係を満たす事態対を獲得するという方法である.なお,このように共起関係を利用するパターンを共起パターンと言うことにする.例えば``toVerb-XandthenVerb-Y''という時間的前後関係を表現する共起パターンを用いて,テキスト``tomarryandthendivorce''から動詞``marry''と動詞``divorce''が時間的前後関係にあるという知識を獲得できる~\cite{chklovski}.こうした手法では,大量の共起パターンを人手で作成することが困難であるため,多くの事態対と共起する傾向を持つような一般的な共起パターンを用意することで,少量の一般的な共起パターンを用いて特定の関係を満たす事態対を大量に獲得することが可能となる.しかし,このような一般的な共起パターンを用いて獲得した事態対には誤りが多いという傾向がある.この問題に対処するために,一般的な共起パターンを利用して獲得した事態間関係に別の手法を適用して誤った事態間関係を取り除く手法があり,代表的なものとして発見的な統計情報を用いる手法~\cite{chklovski,torisawa:NAACL,zanzotto:06}と曖昧性の問題を解消するために学習を行う方法~\cite{inui:DS03}がある.一方で,実体間関係を獲得する研究~\cite[etc.]{ravichandran:02,pantel2006}が共起パターンと獲得できる事例の性質を次のように報告している.\begin{itemize}\item多くの事例と共起するパターン(一般的なパターン)を利用して実体間関係知識を獲得すると精度が低い傾向がある.そのため,精度を向上させるためには誤った関係を除く別の手法が必要である.\item逆に少数の事例のみと共起するパターン(特殊なパターン)を利用することで高い精度で実体間関係を獲得することが可能になる.しかし,大量に実体間関係知識を獲得するためには大量の共起パターンを用意する必要がある.\item一般的な共起パターンと特殊な共起パターンを組み合わせて実体間関係を獲得することで高い精度で大量の実体間関係知識を獲得できる可能性がある.\end{itemize}これを受けてPantelとPennacchiotti~\cite{pantel2006}は,実体間関係を表現する共起パターンと実体対をブートストラップ的に獲得する手法を開発した.しかし,これと同様の手法は事態間関係獲得でまだ試みられていないため,この手法を事態間関係獲得に適用した場合に実体間関係獲得のように良い成果を上げるのかという点が明かではない.これらの実体間関係獲得の研究成果を事態間関係獲得に応用するために,PantelとPennacchiotti~\cite{pantel2006}のブートストラップ的実体間関係獲得手法を事態間関係獲得に適用させるように拡張し(\ref{ssec:argument_selection}〜\ref{ssec:pattern}節),拡張した手法が事態間関係獲得においても有効であるかを確認するために,日本語5億文Webコーパスから従来の手法と拡張した手法を用いて行為—結果関係にある事態間関係を獲得し,この結果を評価する(\ref{sec:experiment}節).
\section{事態間関係知識獲得の関連研究}
\label{sec:related_work}\sec{introduction}でいくつか関連研究を取り上げたが,そこで紹介できなかった関連研究を本節で紹介する.初期の共起パターンを用いた事態間関係獲得の手法はChklovskiとPantel~\cite{chklovski}のVerbOceanである.この手法は人手で作成した\textit{toVerb-XandthenVerb-Y}のような少数の共起パターンを利用して,\textit{strength}(例えば\textit{taint--poison})や\textit{happens-before}(例えば\textit{marry--divorce})のような6種類の事態間関係を獲得し,約29,000の述語対を65.6\%の精度で獲得した.多くの事例と共起するパターンを用いて獲得した事態間関係から誤りを除くために,Inuiら~\cite{inui:DS03}は因果関係を表わす接続表現「ため」と教師付き分類学習を用いて,80\%の再現率と95\%以上の精度で因果関係を4種類\textit{cause},\textit{precondition},\textit{effect},\textit{means}に分類した.他に,Torisawa~\cite{torisawa:NAACL}は接続パターン「Verb-XてVerb-Y」を用いて獲得した述語対と,それぞれの述語と格の間の共起情報を組み合せて時間的制約にある事態対を獲得した.ただし,この手法は時間的制約にある事態対以外の関係を獲得するために応用できるのかは明かではない.また,共起パターンを用いた~\cite{chklovski}手法を元にZanzottoら~\cite{zanzotto:06}は名詞化した動詞を利用して含意関係にある事態対を獲得した.例えば,含意関係\textit{Xwins$\rightarrow$Xplays}を\textit{playerwins}のようなパターンから獲得した\footnote{動詞``play''を名詞化すると名詞``player''となる.}.しかし,動詞を名詞化するには様々な変形パターンを考えることができるが,この実験では限定的な変形パターンのみを対象としている.
\section{Espresso}
\label{sec:espresso}本節ではPantelとPennacchiottiが実体間関係を獲得するために開発したEspressoアルゴリズム~\cite{pantel2006}を紹介する.共起パターンを用いた実体間関係獲得手法のひとつであるEspressoは,特定の関係を満たす実体対とよく共起するパターンが存在するという共起パターンを用いた手法に共通する仮定を置いている.Espressoは,この仮説に加えて,共起パターンまたは実体対が特定の関係を表わす程度を信頼度という指標で表わし,信頼度の高い共起パターンが支持する実体対の信頼度は高く,信頼度の高い事態対が支持する共起パターンの信頼度も高いという仮定を置いた\footnote{本稿において,「支持する」という言葉は「同時に出現する」と同じ意味とする.例えば,「共起パターンが実体対を支持する」は「共起パターンと実体対が同時に出現した」と同じ意味である.}.このとき,Espressoは人手で作成した信頼度の高い実体対を入力として,これと共起する信頼度の高い共起パターンを獲得する.次に信頼度の高い共起パターンを用いて,信頼度の高い実体対を獲得する.この操作をブートストラップ的に繰り返すことで,信頼度の高い実体対を大量に獲得する.\subsection{共起パターンの信頼度}\label{ssec:equation}獲得したい関係にある実体対\bracket{$x,y$}が与えられたとき,Espressoは$x$と$y$の両方が含まれた文をコーパスから探し出す.例えば,\textsl{is-a}関係の実体対\bracket{$\text{Italy},\text{country}$}が与えられたとき,Espressoはテキスト\textit{countriessuchasItaly}が含まれるような文を見つけ出し,共起パターン\textit{YsuchasX}を獲得する.Espressoは共起パターン$p$の良さを測るために信頼度$r_\pi(p)$という尺度を用いる.共起パターンの信頼度$r_\pi(p)$は,共起パターン$p$を支持する実体対$i$の信頼度$r_\iota(i)$から求められる.共起パターン$p$を支持する実体対$i$の集合を$I$とする.\begin{eqnarray}\label{eq:rpi}r_\pi(p)=\frac{1}{|I|}\sum_{i\inI}\frac{\mathit{pmi}(i,p)}{\mathit{max}_{pmi}}\timesr_\iota(i)\end{eqnarray}$\mathit{pmi}(i,p)$は\eq{pmi}で定義される$i$と$p$のpointwisemutualinformation(PMI)であり,$i$と$p$の関連度を表現する.$max_{pmi}$は,共起パターンと実体対が共起した場合全てのPMIの中で最大となるPMIである.\begin{eqnarray}\label{eq:pmi}\mathit{pmi}(x,y)=\log\frac{P(x,y)}{P(x)P(y)}\end{eqnarray}PMIは頻度が少ないときに不当に高い関連性を示すという問題が知られている.この問題を軽減するために,Espressoでは\eq{pmi}の代りに~\cite{pantel2004}で定義された\eq{pmi2}を用いる.\begin{eqnarray}\label{eq:pmi2}\mathit{pmi}(x,y)=\log\frac{P(x,y)}{P(x)P(y)}\times\frac{C_{xy}}{C_{xy}+1}\times\frac{min(\sum_{i=1}^{n}C_{x_i},\sum_{j=1}^{m}C_{y_j})}{min(\sum_{i=1}^{n}C_{x_i},\sum_{j=1}^{m}C_{y_j})+1}\end{eqnarray}$C_{xy}$は$x_i$と$y_j$が同時に出現した回数,$C_{x_i}$は個々の$x_i$の出現した回数,$C_{y_j}$は個々の$y_j$の出現した回数,$n$は$x$の異り数,$m$は$y$の異り数である.\subsection{実体対の信頼度}共起パターンの信頼度と同じように,実体対$i$の信頼度$r_\iota(i)$を次のように定義する.\begin{eqnarray}\label{eq:rl}r_\iota(i)=\frac{1}{|P|}\sum_{p\inP}\frac{\mathit{pmi}(i,p)}{\mathit{max}_{pmi}}\timesr_\pi(p)\end{eqnarray}共起パターン$p$の信頼度$r_\pi(p)$は,前述の\eq{rpi}で定義され,$max_{pmi}$は先の定義と同じであり,実体対$i$を支持する共起パターン$p$の集合を$P$とする.共起パターンの信頼度$r_\iota(i)$と実体対の信頼度$r_\pi(p)$は再帰的に定義され,人手で与えたシード$i$の信頼度を$r_\iota(i)=1$とする.なお,我々の拡張では,人手で与えた負例関係にある事態対の信頼度を$r_\iota(i)=-1$とした.
\section{事態間関係獲得}
\label{sec:event_relation_acquisition}実体対関係を獲得するための手法であるEspressoを,我々は事態間関係を獲得できるように拡張した.この拡張はEspressoが獲得する対象である「実体対」を「事態対」に置き換えたものではあるが,実体と事態は特徴が異なるため,様々な変更を施した.本稿では事態間関係獲得に拡張したEspressoを拡張Espressoと言うことにする.本節では,拡張Espressoについて説明する.事態の表現について\ssec{event_representation}〜\ssec{argument_selection}で説明し,共起パターンの表現について\ssec{pattern}〜\ssec{volition}で説明し,その他の変更を\ssec{verbal_nouns}〜\ssec{eq_change}で説明する.\subsection{事態の表現}\label{ssec:event_representation}事態は述語項構造を用いて表現する.述語項構造を用いて表現することで,動詞句の名詞句化や連体節化,照応/省略などによって表層的な統語構造に生じる差異を吸収し,標準的な表現に統一することができる.例えば,「夏目漱石によって発表された『坊ちゃん』」や「夏目漱石による『坊ちゃん』の発表」は統語構造では異なるが,述語項構造では「夏目漱石ガ『坊ちゃん』ヲ発表する」に統一される.また,テキスト中に出現した表記のままではなく,形態素の原形で事態を表現する.ただし事態が動詞として出現し,その後に,受け身(〜される),使役(〜させる),可能(〜られる),希望(〜したい)を表わす表現が続く場合はこれらも事態の一部であるとみなす.例えば,テキスト中で「走る」という表記で出現した場合も「走った」と出現した場合も事態「走る」であるとみなし,表現「走りたかった」は事態「走りたい」であるとみなす.他に,テキスト中にサ変名詞とそれに後続する動詞「する」が表われ,これを事態とする場合はサ変名詞の原形と動詞「する」の組み合わせを事態の表現とする.例えば,テキスト中の「研究したかった」は事態「研究したい」とみなす.これとは別に,「ある」「なる」「する」のようなそれ自身が意味を持たない語句や非常に多義な語句からなる事態対の間には適切な事態間関係が成立し難い.そこで,このような語句は,単独では事態とみなさず,直前の格とその格要素を含めてひとつの事態とみなす.例えば,テキスト中の「焦げ目が付く」の「付く」は単独では事態とみなさないが,「焦げ目が付く」はひとつ事態であるとみなす.さらに,直前の格がヲ格であり動詞が「する」の場合は,格を省略して格要素と「する」を組み合わせてひとつの事態とみなす.例えばテキスト中の「研究をする」はヲ格を省略して「研究する」という事態とみなす.実験では次の語句を単独では事態とみなさないようにした.\begin{quotation}「ある」「いく」「いる」「おこなう」「かる」「する」「ちる」「できる」「とめる」「なる」「みる」「やる」「付く」「伝える」「似る」「作る」「使う」「保つ」「入る」「入れる」「出す」「出る」「分かる」「加える」「取り戻す」「取る」「向ける」「含む」「呼ぶ」「因る」「増える」「変わる」「変化(する)」「寄る」「対処(する)」「居る」「建つ」「引く」「弱る」「影響(する)」「得る」「思う」「拡大(する)」「救う」「断つ」「書く」「止める」「残る」「決定(する)」「減る」「生じる」「知る」「立つ」「終る」「終わる」「終了」「経つ」「経る」「続ける」「縮小(する)」「考え」「考える」「聞く」「行う」「見える」「見せる」「見る」「見失う」「言う」「言える」「話す」「語る」「読む」「踏み切る」「込める」「通る」「進む」「進める」「進展(する)」「開始(する)」「関係(する)」\end{quotation}このリストは,「付く」のようにほとんど意味を持たないために単独では事態と見なせない語句と,「開始する」や「影響する」のように多義であるために事態対を構成したときに事態間に適切な関係を成立さえることが難しい語句からなる.\subsection{格の選択}\label{ssec:argument_selection}事態間関係知識をテキストから獲得する際には事態をどの程度一般化するかという問題がある.実体間関係獲得にも同様の問題はあるが,固有名または1つの単語の間で関係が成り立つため,獲得した実体表現を適切に一般化するという問題は事態間関係知識獲得と比較して重要ではない.しかし,事態間関係獲得においてこの問題は重要であり,実体間関係知識獲得との大きな違いである.例を用いてこの問題を説明する.(A)は「肉を焼く」と「焦げ目が付く」が行為—効果関係であることを示唆している.\begin{itemize}\item[(A)]焦げ目が付くくらい肉を焼く\end{itemize}このテキストから事態間関係知識を獲得する方法を考えるが,ここでは関係を決める方法には触れず,適切な事態対を獲得する方法だけを考慮する.最初に,入力文に形態素解析と係り受け解析を適用して動詞とその格を見付ける.ここから,このテキストに含まれる事態は「付く」と「焼く」であることと,「付く」の格は「焦げ目が」で,「焼く」の格は「肉を」であることがわかる.この結果,事態対「焦げ目が付く::肉を焼く」を機械的に獲得することができる.この事態対は,人間であれば「肉を焼いたら焦げ目が付く」という行為—効果関係であると解釈することができるため,事態間関係になりうる正しい事態対である.また,「焼く」の格「肉を」を事態に含めない場合に獲得できる事態対は「焦げ目が付く::焼く」であり,この事態対も行為—効果関係と解釈することができるため正しい事態対である.しかし,動詞「付く」の格「焦げ目が」を事態に含めない場合に獲得できる事態対「付く::肉を焼く」と「付く::焼く」は行為—効果関係であると解釈することはできないため,事態間関係になりえない誤った事態対である.まとめると,事態対に含める格を変化させることで様々な事態対を獲得できるが,同時に誤った事態対を獲得する可能性が生じるため,正しい事態対のみを選択することが必要である.この問題に対して我々は,事態対に格を含めるか含めないかという全ての可能性を考慮し,\ssec{event_representation}で述べた語句のリストと事態間関係獲得モデルの信頼度を用いて正しい事態対を選ぶ.例えば,テキスト(A)から獲得できる事態対は(B)に示すように4種類ある.\begin{itemize}\item[(B1)]焦げ目が付く::肉を焼く\item[(B2)]焦げ目が付く::焼く\item[(B3)]付く::肉を焼く\item[(B4)]付く::焼く\end{itemize}\ssec{event_representation}の語句のリストに事態「付く」が含まれているため,事態「付く」を含む事態対「付く::肉を焼く」と「付く::焼く」を無効な事態対とみなすことができ,事態対「焦げ目が付く::肉を焼く」と「焦げ目が付く::焼く」を事態対候補とすることができる.仮に「付く」が\ssec{event_representation}の語句のリストに含まれていかったとしても,「焦げ目が付く::肉を焼く」と「焦げ目が付く::焼く」には高い信頼度が与えられ,「付く::肉を焼く」と「付く::焼く」には低い信頼度が与えられると期待できるため,最終的に信頼度の高い事態対のみを選ぶことで,適切な事態対を選ぶことができる.実験(\sec{experiment})では計算コストの観点から事態の格の数を最大1個に制限した.例えば,事態「肉に焦げ目が付く」の可能性として「肉に付く」「焦げ目が付く」「付く」だけを考える(「肉に焦げ目が付く」は考えない).\subsection{共起パターンの表現}\label{ssec:pattern}Espressoは実体間関係を獲得するために「$x$は歴史のある$y$」のような共起パターンを用いる.この共起パターンはis-a関係を表現しており,テキスト「イタリア\textbf{は歴史のある}国」から「イタリア」は「国」のis-a関係であるという実体間関係知識を獲得する.また,Espressoで用いる共起パターンは実体を表現する語句の間にある単語列である.一方で,我々は事態間関係獲得における共起パターンを,事態を表現する語句の間の係り受け関係から成る単語列とした.この理由は,事態においては実体と比較して格を考慮することが重要であるという,実体と事態の性質の違いに基いている.我々は事態の格を考慮するために係り受け関係を用いる.このとき,係り受け関係で構成された事態の間に存在する共起パターンを認識するためにも係り受けを用いることは自然であると考えられる.そのため,我々は係り受け関係に基づく共起パターンを用いることにする.事態間の関係を十分に表現しつつも事態対との共起が疎にならないような共起パターンを設計することが重要である.なぜならば,事態間の関係を十分に表現するために共起パターンに多くの情報を入れ過ぎると事態対との共起が疎となり,逆に共起パターンから過度に情報を除くと共起パターンは事態間の関係を適切に表現しなくなるためである.ここから,共起パターンが含む最適な情報量を見付けることが重要な課題であることがわかるが,これは難しい問題である.この問題に対して,本研究において予備実験から共起パターンを獲得するための規則を決定した.\ssec{pattern2}でこの規則について述べる.\subsection{事態対の周辺語句からなる共起パターン}\label{ssec:pattern2}本研究で用いる共起パターンは,事態対の間に存在する語句,事態の後方にある特定の語句,事態の品詞,事態が意志性を持つかという情報からなる.具体的には次の通りである.事態表現を含む文節(事態文節)対が係り受け関係の木において先祖と子孫の関係にある場合のみ,次の規則で表わされる文字列から共起パターンを構成する.\begin{itemize}\item[規則a\hspace{-1zw}]前方の事態文節中で事態を表わす内容語より後方にある機能語列の文字列\item[規則b\hspace{-1zw}]係り受け関係の木において事態文節対の間に存在する文節中の単語列からなる文字列\item[規則c\hspace{-1zw}]後方の事態文節または係り先の文節中に次に示す表現が含まれている場合,\begin{itemize}\item[規則c1]文節中に否定表現「〜ない」「〜ません」「〜せず」「〜ぬ」が含まれる場合は,文字列「ない」\item[規則c2]文節中に可能表現「〜できる」「〜出来る」「〜することができる」「〜することが出来る」「〜することが可能だ」が含まれる場合は,文字列「できる」\item[規則c3]文節中に否定表現と可能表現の両方が含まれる場合は,文字列「できない」\end{itemize}\item[規則d\hspace{-1zw}]事態の品詞を表わす文字列\item[規則e\hspace{-1zw}]事態の意志性の有無を表わす文字列\end{itemize}共起パターンの例を示す.「/」は文節の区切りを表わす.(C)は,事態「リラックスする」を含む事態文節が事態「入る」を含む事態文節に係っており,事態文節が係り受け関係の木において先祖と子孫の関係にあるという制約を満すため,この事例から事態対と共起パターンを獲得することができる.このとき,前方の事態「リラックスする」を含む事態文節中で「リラックスする」よりも後方にある機能語「\textbf{ので}」を共起パターンに加える(規則a).さらに,事態「リラックスする」と事態「入る」の品詞と意志性の有無も共起パターンに加える(規則d,規則e).結果,共起パターンは「\bracket{動詞;意志性なし}ので\linebreak\bracket{動詞;意志性あり}」となる.\begin{itemize}\item[(C)]リラックスする\textbf{ので}/風呂に/入る\end{itemize}(D)は,事態「リラックスする」を含む事態文節が文節「\textbf{ために}」に係り,文節「\textbf{ために}」が事態「入る」を含む事態文節に係っており,事態文節が係り受け関係の制約を満すため,この事例から事態対と共起パターンを獲得することができる.このとき,係り受け木において事態文節間に存在する文節「\textbf{ために}」の単語列を共起パターンに加える(規則b).これに規則d,規則eを適用し,共起パターンは「\bracket{動詞;意志性なし}ために\bracket{動詞;意志性あり}」となる.\begin{itemize}\item[(D)]リラックスする/\textbf{ために}/風呂に/入る\end{itemize}(E)は,事態「退職する」を含む事態文節が文節「\textbf{楽みに}」に係り,文節「\textbf{楽みに}」が事態「始める」を含む事態文節に係っており,事態文節が係り受け関係の制約を満すため,この事例から事態対と共起パターンを獲得することができる.このとき,規則aと規則bより単語列「\textbf{後の楽みに}」を共起パターンに加え,これに規則d,規則eを適用し,共起パターンは「\bracket{名詞;意志性なし}後の楽みに\bracket{動詞;意志性あり}」となる.\begin{itemize}\item[(E)]退職\textbf{後の}/\textbf{楽みに}/PCを/始める\end{itemize}\subsection{共起パターンの表記の統一}\label{ssec:pattern3}前述した方法で獲得した共起パターンの表現を統一するための規則を説明する.なお,Espressoにおいても同様の操作を行っている.共起パターン中の機能表現の表記を揃えるために日本語機能語表現辞書~\cite{DBLP:conf/iccpol/MatsuyoshiSU06}を利用し,共起パターン中の日本語機能語表現辞書の機能表現レベル9の機能表現を対応する機能表現レベル3の機能表現に置き換える.これ以外に,「〜する」と「〜します」を同じ表現とみなすために機能表現「ます」を共起パターンから削除する.同様に「〜する」と「〜すると思う」を同じ表現とみなすために「と思う」を共起パターンから削除する.また,句読点や記号,接尾辞の「達」「等」も共起パターンから削除する.テキスト「\textbf{待つ}こと30分で彼が\textbf{来た}」から「待つ」と「来る」の関係を獲得する場合の共起パターンの文字列部分は「こと30分で」である.しかし,この共起パターン中の「30分」は「40分」でも「1時間」でもよく,「30分」の部分は時間を意味していればどのような文字列でも共起パターンが表現する関係は同じである.これらの共起パターンを同じものとみなすために共起パターン中の固有表現相当の文字列を,その固有表現の分類で置き換える.例えば,「30分」は時間を表わす固有表現ため,共起パターン「こと\textbf{30分}で」を「こと\textbf{固有表現—時間}で」と置き換える.実験ではCaboCha~\cite{cabocha}を用いて固有表現解析\footnote{CaboChaによる固有表現解析の結果はIREXの定義に基づいた次の9分類である.ARTIFACT,DATE,LOCATION,MONEY,OPTIONAL,ORGANIZATION,PERCENT,PERSON,TIME.}を実施し,この結果を用いて共起パターンの表記を統一した.また,Cabochaで固有表現であると見なされなかった語についても,固有表現である可能性が高い品詞を持つ語も固有表現であると見なした.実験では,MeCab\footnote{http://mecab.sourceforge.net/}を用いて形態素解析を実施し,この結果を用いて共起パターンの表記を統一した\footnote{IPA品詞体系において次の品詞を固有表現とみなした.名詞—接尾—人名,名詞—接尾—地域,名詞—接尾—助数詞,名詞—数,名詞—固有名詞—一般,名詞—固有名詞—人名,名詞—固有名詞—組織,名詞—固有名詞—地域.なお,CaboChaによる固有表現解析の結果とは独立して扱った.}.\subsection{事態の意志性}\label{ssec:volition}Inuiら~\cite{inui:DS03}は意味推論のための事態間の因果関係について議論を行い,事態に関係する意志性を基本とする4種類の因果関係---Effect,Means,Precondition,Cause---を定義した.例えば,Effect関係は意志性のある行為と意志性のない結果や状態や出来事や経験の間に成り立つ関係であり,Cause関係は意志性のない状態や出来事や経験の間に成り立つ関係である.これを受けて,12,000以上の動詞に人手で意志性の有無を付与した辞書を構築し,これを実験に用いた.この辞書には,8,968の意志性のある動詞,3,597の意志性のない動詞,547の意志性の有無が曖昧な動詞が含まれている.「食べる」や「研究する」に「意志性あり」とし,「温まる」や「壊れる」を「意志性なし」とした.実験では意志性が曖昧な動詞については共起事例から除いた.また,この動詞の意志性辞書を利用するとき,辞書に記述されていない動詞で「される」が末尾にある事態を「意志性なし」とし,形容詞も「意志性なし」とした.\subsection{信頼度の式への変更点}\label{ssec:eq_change}予備実験の結果から,\eq{rpi},\eq{rl}をそれぞれ\eq{rpi2},\eq{rl2}に変更し,ブートストラップの各段階で信頼度を$-1$〜1の間に正規化するようにした.\begin{gather}\label{eq:rpi2}r_\pi'(p)=\sum_{i\inI}\mathit{pmi}(i,p)\timesr_\iota'(i)\\\label{eq:rl2}r_\iota'(i)=\sum_{p\inP}\mathit{pmi}(i,p)\timesr_\pi'(p)\end{gather}この変更は次の2つの理由から成っている.\eq{rpi}から$|I|$で割る部分を,\eq{rl}から$|P|$で割る部分を削除した理由は,信頼度の高い共起パターンから支持された事態対の信頼度は高く,信頼度の高い事態対から支持された共起パターンの信頼度は高いという,Espressoの仮定を実現するためである.変更前の式である\eq{rpi}は$|I|$で割ることで,共起パターンを支持する事態対の信頼度とPMIをかけた値(PMI信頼度と呼ぶ)の平均を共起パターンの信頼度としている(同様に\eq{rl}は$|P|$で割ることで,事態対を支持する共起パターンのPMI信頼度の平均を事態対の信頼度としている).そのため,PMI信頼度の高い事態対(または共起パターン)とPMI信頼度の低い事態対(または共起パターン)から支持を受けた共起パターン(または事態対)の信頼度は低くなりがちである.この傾向は,数多くの事態対(または共起パターン)から支持される共起パターン(または事態対)においては顕著である.なぜならば,こういった共起パターン(または事態対)は,PMI信頼度の高い少数の事態対(または共起パターン)とPMI信頼度の低い多数の事態対(または共起パターン)から支持される傾向にあるためである.このような傾向を考慮し,PMI信頼度の平均ではなく,PMI信頼度を足し合わせた値を信頼度とする.\eq{rpi}と\eq{rl}から$\mathit{max}_{pmi}$で割る部分を削除した理由は,$\mathit{max}_{pmi}$で割ることは正規化を目的としていると考えられるが,この正規化では信頼度が$-1$〜1の範囲\footnote{シードの信頼度が1であることを考慮すると,信頼度は$-1$〜1であると考えられる.}におさまらないためである.我々の変更では,$\mathit{max}_{pmi}$で割らない代りにブートストラップの各段階において,信頼度の絶対値が最も大きな信頼度の絶対値で各信頼度を割ることで,全ての信頼度を$-1$〜1の間に正規化する.\subsection{事態含意名詞を用いた共起獲得}\label{ssec:verbal_nouns}ここまではEspressoを事態間関係獲得に適用させるために施した変更を説明したが,ここでは事態含意名詞という事態表現を考慮した場合の事態間関係獲得に与える影響を述べる.述語または述語を含む句は典型的に事態を表現するため,過去の事態間関係獲得手法は述語と述語の共起を利用して事態間の関係を獲得した.しかし,述語だけが事態を表現するわけではなく,名詞が事態を含意する場合もある.本論文では事態を含意する名詞を事態含意名詞と呼ぶ.例えば,名詞「研究」は事態「研究する」を含意する事態含意名詞である.このように動詞「する」を付与することで動詞のように働く名詞はサ変名詞を呼ばれる.例えば,(F1)のように動詞「する」を伴って動詞のように機能する場合がある.一方,(F2)のように格助詞「を」を伴って名詞のように機能する場合がある.また,(F3)のようにサ変名詞は様々な接尾辞と共に名詞を構成する.\begin{itemize}\item[(F1)]健が言語を研究する\item[(F2)]健が言語の研究を止めた\item[(F3)]\begin{itemize}\item\textit{-者}:\textit{研究者}\item\textit{-室}:\textit{研究室}\item\textit{-後}:\textit{研究後}\end{itemize}\end{itemize}このようなサ変名詞を用いることで,事態間関係と共起パターンの候補を大幅に増やすことができる(どの程度増えたかという情報は節\ssec{results}を参照).また,サ変名詞「研究」と動詞「実験する」は(G1)のような文脈でしばしば共起するため,(G2)の共起パターンは「実験する」が「研究する」過程の一部で行われる行為であるという知識を獲得するための有力な証拠となる可能性がある.\begin{itemize}\item[(G1)]研究室で実験する\item[(G2)](Act-X)室で(Act-Y)\end{itemize}他に,「(Act-X)中に(Act-Y)」という共起パターンも行為間の部分全体関係を表わし,「会議中に意見を述べる」や「会議中に話を聞く」から「会議する」の部分関係が「意見を述べる」や「話を聞く」ことであるという知識を獲得することができる.さらに,「(Act-X)後に(Act-Y)」という共起パターンは行為間の前後関係を表わし,「会談後に会見を開いた」から「会談する」の後には「会見を開く」という知識を獲得することができる.このように事態含意名詞を利用することで事態間関係獲得手法を改善できる可能性もあるが,次のような欠点もある.それは,名詞として用いられるときのサ変名詞は,事態を表わしているのか実体を表わしているのか潜在的に曖昧であるという問題に依る.例えば,サ変名詞「電話」は「電話で」というコンテキストでは「電話をする」と事態を含意しているのか物体としての電話を表しているのか曖昧である\footnote{「電話で連絡する」であれば「電話する」という事態を含意している.一方で「電話が壊れる」であれば「電話」という物体を意味している.}.そのため,テキストからサ変名詞を伴う共起事例を獲得するさいに,この曖昧性を解消して事態を含意するサ変名詞のみを共起事例として利用するべきであるが,この曖昧性解消は困難な問題であり,我々の事態間関係獲得という問題の範囲を超えている.そのため,実験では曖昧性を解消せずに全てのサ変名詞は事態を含意していると見なすことで,事態含意名詞の利用による影響を確認する\footnote{このサ変名詞が事態を表わしているかの判定が事態間関係獲得の性能にどのような影響を与えるのかは興味深い問題である.}.このように事態含意名詞の利用は利点と欠点があるため,事態含意名詞を用いることが事態間関係知識獲得にとって効果的であるとは言うことができない.これを確認するために,実験によって事態含意名詞の効果を測る.実験ではIPA品詞体系で品詞「名詞—接尾」を接尾辞とみなし,係助詞,ガ格,ヲ格,ニ格を伴うサ変名詞は事態性が曖昧になりがちであるため,これらを事態含意名詞とはみなさないようにする.
\section{実験}
\subsection{実験条件}\label{sec:experiment}人手で作成した行為—効果関係を表す共起パターンを用いて事態間関係を獲得した場合と拡張Espressoを用いた場合を比較するために,それぞれの手法を用いて実験を行った.実験では,河原ら~\cite{kawahara2006}がWebから収集した約5億文の日本語コーパスを用いた.これに対してMeCabで形態素解析,CaboCha~\cite{cabocha}で係り受け解析を行い,~\sec{event_relation_acquisition}で述べた方法で事態対と共起パターンを抽出した.このとき,事態対と共起パターンの共起頻度が20回未満の事例,ガ格やヲ格の格要素が事態性名詞となる事例を除いた.我々は事態間の意味を推論するために事態間関係知識を獲得しているので,Inuiら~\cite{inui:DS03}が意味推論のために定義した事態間の因果関係を用いる.本実験では4つの因果関係のうちEffectの関係を獲得する実験を行う.ここではEffect関係を行為—効果関係と呼び,「行為の結果事態がおうおうにして起こる.または行為をすることは事態を保つこと.」とその関係を定義した.\subsection{結果}\label{ssec:results}行為—効果関係にある事態対を人手で少量作成し,これを正例シードとして拡張Espressoを用いて事態対を獲得する\footnote{このときは負例シードがないため,負例シードを用いないで拡張Espressoを利用する.}.ここで獲得した事態対を人手で見直し,行為—効果関係にある事態対を正例シードに,行為—効果関係にないシードを負例シードに追加し,再び拡張Espressoを用いて事態対を獲得する.ここで獲得した事態対を人手で見直しシードに追加して拡張Espressoを利用する,という操作を何度か試行し,正例971事態対と負例1,069事態対のシードを作成した.次に,これをシードとして拡張Espressoを用いて事態対を獲得した(このとき事態含意名詞も利用する).このとき共起パターンの獲得と事態対の獲得を20回繰り返した結果,共起パターン34,993個,事態対173,806個を得た.ここで獲得した共起パターンと共起した事態対の例を表\ref{tab:examples}に示す\footnote{表ではひとつの共起パターン毎に共起した事態対を示しているが,共起パターンが複数の事態対から支持されているように,事態対も複数の共起パターンから支持されている.}.\begin{table}[tb]\caption{共起パターンと事態対の例}\label{tab:examples}\input{04table01.txt}\end{table}拡張Espressoと比較するために,行為—効果関係を表す接続表現「(〜し)たため」「(〜し)たから」「(〜し)て」を用いて事態対を獲得した.\subsection{評価}人手で作成した少数の共起パターンを用いて獲得した事態間関係の精度と拡張Espressoで獲得した事態間関係の精度を比較する.人手で作成した少数の共起パターンを用いて獲得した事態対をPMIの値の高い順に並べ,上位1〜500件,501〜1,500件,1,501〜3,500件,3,500〜7,500件からそれぞれ100件ずつランダムに事態対をサンプリングした.同様に,拡張Espressoで獲得した事態対からシードに含まれている事態対を除き,これを信頼度の値の高い順に並べ,4つの区間からそれぞれ100件ずつランダムにサンプリングした.それぞれサンプリングした事態対が正しい関係にあるかを評価者2名で判断した.このとき次の2つの条件を両方とも満たす事態対を正しい関係とした.\begin{description}\item[(a)]事態対が行為—効果関係である.ただしこの関係は必然的である必要はなく,しばしば関係が成立する場合も正解とする.\item[(b)]事態対の間で最低でもひとつの格要素が共有されていれば正解とする.\end{description}例えば「飲む→二日酔いになる」は行為—効果関係である.行為「飲む」の結果として必然的に状態「二日酔いになる」とはならないが,しばしば状態「二日酔いになる」という結果になるため条件(a)を満している.さらに,この場合は飲む人と二日酔いになる人が同じ人物であり,「$X$が飲む→$X$が二日酔いになる」($X$には,「部長」や「太郎」など同じ語が入る)と解釈できるため条件(b)を満している.よって,条件(a)と(b)を満しているため「飲む→二日酔いになる」は行為—効果関係にある.条件(b)について補足する.\textit{XがVP$_1$→XがVP$_2$}(前件と後件の間でガ格の要素が等しい)場合と\textit{XをVP$_1$→XがVP$_2$}(前件のヲ格の要素と後件のガ格の要素が等しい)場合の両方とも正解とする.どの格の要素が共有しているのかを自動的に決定する手法の開発は将来の課題である.評価者2人が共に正しいと判断した事態対のみを正解とした.また,2人の評価結果の$\kappa$統計値は,人手で作成した共起パターンを用いた場合の結果では0.55,拡張Espressoを用いた結果では0.53であった.この値はどちらも「moderate」であると解釈できる.そのため,2人の評価結果は適度に一致しており,この精度は信頼できる.\subsection{拡張Espressoの精度}\label{ssec:experiment_main}\begin{figure}[t]\begin{center}\includegraphics{16-4ia4f1.eps}\end{center}\caption{共起パターンを用いた手法と拡張Espressoの比較}\label{fig:baseline_vs_bootstrapping}\end{figure}\fig{baseline_vs_bootstrapping}は,人手で作成した少数の共起パターンを用いた場合と拡張Espressoを比較した結果であり,Espressoを拡張した手法の方が高い精度で事態間関係を獲得できている.ここから実体間関係知識の獲得で用いられた手法を事態間関係獲得に応用できること,\sec{event_relation_acquisition}で述べた拡張方法が適切であったことがわかる.信頼度の高い1〜500件の領域では高い精度で事態間関係を獲得しており,信頼度と精度の間に相関関係があり,信頼度という指標が事態間関係獲得に寄与しているように解釈することができる.一方で,これより信頼度の低い領域では信頼度と精度の間に相関関係がないように見える.\fig{change_of_reliability}は事態対を信頼度の高い順に並べたときの信頼度の分布を表しており,この図から例えば10番目に信頼度が高い事態対の信頼度と110番目の事態対の信頼度の値の差は大きな違いであるが,1,000番目と2,000番目の事態対の信頼度の値の差は小さいことがわかる.よって,信頼度の低い領域では信頼度と精度の間には相関関係があり,信頼度という指標が事態間関係獲得に寄与していることがわかる.\begin{figure}[p]\begin{center}\includegraphics{16-4ia4f2.eps}\end{center}\caption{獲得した事態対を信頼度順に並べたときの信頼度}\label{fig:change_of_reliability}\end{figure}\begin{figure}[p]\begin{center}\includegraphics{16-4ia4f3.eps}\end{center}\caption{シードを半分だけ利用した場合の精度}\label{fig:using_half_seed}\end{figure}\subsection{シードの数の影響}\label{seed_number}拡張Espressoにおいて,シードの数が事態間関係獲得の精度に与える影響を確認するために,行為—効果関係のシードを正例500事態対と負例500事態対にして実験を行った.精度を\fig{using_half_seed}に示す\footnote{この評価は1名で行った.そのため,\fig{using_half_seed}の「シードを全て利用」も「シードを半分だけ利用」も1名で評価したときの精度である.}.この結果は全てのシードを用いた場合と比較して低い精度であり,信頼度が高い領域でも低い領域でも精度が低下している.ここから拡張Espressoは小さなシード集合で動くように設計されているが,その結果はシードの数に依存していることがわかる.さらにシードを追加することでが精度向上の可能性があることがわかる.\subsection{事態性名詞を用いたときの効果}事態含意名詞が精度に与える効果を確認するために,事態含意名詞を用いた場合の精度と,そこから事態含意名詞の影響を除いた場合の精度を比較した.\fig{without_noun}は,\ssec{experiment_main}から事態含意名詞の影響を除いた結果である.この結果は,事態含意名詞の影響を除くために事態が事態含意名詞として出現したときの共起パターンの信頼度を0とみなし,事態対の信頼度を再計算し,再び信頼度の順番に並べ替えた結果である.事態含意名詞を用いた場合も事態含意名詞の影響を除いた場合もほぼ同じ精度であり,事態含意名詞の利用はほとんど精度に影響していないことがわかる.\begin{figure}[b]\begin{center}\includegraphics{16-4ia4f4.eps}\end{center}\caption{事態含意名詞を用いない場合の精度}\label{fig:without_noun}\end{figure}また,本実験で獲得した全ての事態対は,述語対と共起可能なパターンから支持されていた.つまり,事態含意名詞と共起可能なパターンから支持されていた事態対は,述語対と共起可能なパターンからも支持されていた.そのため,事態含意名詞を用いることで初めて獲得できるような事態対は出現しなかった\footnote{例えば,事態間関係「検索する::見つかる」は,事態含意名詞と共起するパターン「〈名詞;意志性あり〉をして〈動詞;意志性なし〉ない」や「〈名詞;意志性あり〉をすれば〈動詞;意志性なし〉」と共起したが,動詞対と共起するパターン「〈動詞;意志性あり〉ものの〈動詞;意志性なし〉ない」とも共起していた.}.\subsection{格の選択}\fig{strict_vs_lenient}は,(a)格を含めて正しい事態間関係を正解した場合の精度と,(b)誤った事態間関係であるが適切な格を追加することで正しい事態間関係になる事例も正解とした場合の精度を比較している.例えば,行為—効果の関係において\textit{Xが食べる}と\textit{Xが死ぬ}は誤りであるが,前件に「毒茸を」があれば正解であるため,この事例は(a)の基準では不正解であるが,(b)の基準では正解とみなす.なお,ここまでの評価全て(a)の基準で行っている.\begin{figure}[b]\begin{center}\includegraphics{16-4ia4f5.eps}\end{center}\caption{格を考慮しない場合の精度}\label{fig:strict_vs_lenient}\end{figure}我々はEspressoを拡張する際に単純な手法で格の選択という問題に対処したが,この結果から,このような単純な手法では適切に格を選択することが難しいことがわかった.他にこの結果から適切に格を選択することで最大26\%精度向上を期待することができるため,事態間関係獲得において格の選択という問題が重要であることがわかる.
\section{結論と今後の課題}
\label{sec:discussion}実体間関係を獲得するためにブートストラップ的に共起パターンを獲得する手法を拡張して事態間関係に適用した.事態間関係獲得にこの手法が適用できるという報告は過去になく,本実験の結果,この手法が事態間関係獲得にも有効であることがわかった.また,事態の格を選択するということが重要な問題であることを明かにした.格の選択という問題は,実体間関係では重要ではないが事態間関係では重要な問題である.次に今後の課題を述べる.今回の実験では,前件と後件の間で任意の格の格要素が共有され,かつ任意の関係にある事態対を正解とした.しかし知識という視点からは前件と後件の間でどの格の格要素が共有されているのか明かになった方が利便性がある.例えば,行為—効果関係「〈A氏〉が〈花瓶〉を投げる」と「〈花瓶〉が壊れる」の間では,前件のヲ格と後件のガ格の格要素が共有されており,正しい関係であれば前件のガ格と後件のガ格は共有されていない.このようにどの格の格要素が共有されているかで事態間関係の正解/不正解が変化する場合があるため,今回の手法で獲得した知識では問題になる場合がある.そのため,我々は将来的には格要素がどの格で共有されているかを判断できるようにしたいと考えている.だが今回の手法では格要素がどの格で共有されているかを判断することは難しい.なぜならば,「水を冷して飲む」とは言うが「水を冷して水を飲む」のようにはあまり言わないように,同一文内で共起する述語対の格はしばしば省略される傾向にあるため,同一文内で共起する述語対から関係を獲得している我々の手法では,どの格が省略されているのかをあてない限り,どの格が共有されているかを認識することは難しい.そのため,どの格が共有されていのかをあてるためには,格の省略をあてるか,別の手法を用いてどの格が共有されているのかを当てる必要がある.今後はこの問題に取り込みたい.今回の実験では,前件と後件の間で任意の格の格要素が共有され,かつ任意の関係にある事態対を正解とした.しかし知識という視点からは前件と後件の間でどの格の格要素が共有されているのか明かになった方が利便性がある.例えば,行為—効果関係「〈A氏〉が〈花瓶〉を投げる」と「〈花瓶〉が壊れる」の間では,前件のヲ格と後件のガ格の格要素が共有されており,正しい関係であれば前件のガ格と後件のガ格は共有されていない.このようにどの格の格要素が共有されているかで事態間関係の正解/不正解が変化する場合があるため,今回の手法で獲得した知識では問題になる場合がある.そのため,我々は将来的には格要素がどの格で共有されているかを判断できるようにしたいと考えている.しかし,「水を冷して飲む」とは言うが「水を冷して水を飲む」とはあまり言わないように,同一文内で共起する述語対の格はしばしば省略される傾向にあるため,同一文内で共起する述語対から関係を獲得している我々の手法では共有されている格を認識することが難しい.そのため,共有されている格を認識するためには,前処理として格の省略を認識した後で我々の手法を用いるか,別の独立した手法を用いて共有されている項を認識する必要がある.今後はこの問題に取り込みたい.実験では5億文から事態間関係知識を獲得したが,事態対とそれと共起するパターンの頻度が十分でないために正確な統計量を推定できないことがあった.今後,より多くの文から事態間関係知識を獲得することで精度が向上することを実験により確認したい.本手法は原理的には様々な事態間関係を扱うことができるが,今回の実験では行為—効果関係を満たす事態対を獲得できることのみを確認した.今後は,行為—効果関係以外の事態間関係獲得に本手法を利用できることを実験的に確認したい.本稿では,アプリケーションへの応用を目指して事態間関係知識を獲得し,この知識の精度を直接的に評価した.次に,アプリケーションへ知識を適用した場合の性能を測るためにタスクベースの評価を検討しているが,これに必要な日本語のベンチマークが未だ存在しない.今後は,ベンチマークの作成と,これを用いた評価を予定している.\acknowledgment「Web上の5億文の日本語テキスト」の使用許可を下さった情報通信研究機構の河原大輔氏と京都大学大学院の黒橋禎夫氏に感謝いたします.\bibliographystyle{jnlpbbl_1.4a}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chklovski\BBA\Pantel}{Chklovski\BBA\Pantel}{2005}]{chklovski}Chklovski,T.\BBACOMMA\\BBA\Pantel,P.\BBOP2005\BBCP.\newblock\BBOQGlobalPath-basedRefinementofNoisyGraphsAppliedtoVerbSemantics.\BBCQ\\newblockIn{\BemProceedingsofJointConferenceonNaturalLanguageProcessing(IJCNLP-05)},\mbox{\BPGS\792--803}.\bibitem[\protect\BCAY{Inui,Inui,\BBA\Matsumoto}{Inuiet~al.}{2003}]{inui:DS03}Inui,T.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQWhatkindsandamountsofcausalknowledgecanbeacquiredfromtextbyusingconnectivemarkersasclues?\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalConferenceonDiscoveryScience},\mbox{\BPGS\180--193}.\newblockAnextendedversion:InuiT.,InuiK.,andMatsumotoY.(2005).Acquiringcausalknowledgefromtextusingtheconnectivemarkertame.{\emACMTransactionsonAsianLanguageInformationProcessing(TALIP)},\textbf{4}(4),pp.~435--474.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{kawahara2006}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQCaseFrameCompilationfromtheWebusingHigh-PerformanceComputing.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonLanguageResourcesandEvaluation}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{cabocha}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQJapaneseDependencyAnalysisusingCascadedChunking.\BBCQ\\newblockIn{\BemCoNLL2002:Proceedingsofthe6thConferenceonNaturalLanguageLearning2002(COLING2002Post-ConferenceWorkshops)},\mbox{\BPGS\63--69}.\bibitem[\protect\BCAY{Lin\BBA\Pantel}{Lin\BBA\Pantel}{2001}]{Dekang-Lin}Lin,D.\BBACOMMA\\BBA\Pantel,P.\BBOP2001\BBCP.\newblock\BBOQ{DIRT}---DiscoveryofInferenceRulesfromText.\BBCQ\\newblockIn{\BemProceedingsofACMSIGKDDConferenceonKnowledgeDiscoveryandDataMining2001},\mbox{\BPGS\323--328}.\bibitem[\protect\BCAY{Matsuyoshi,Sato,\BBA\Utsuro}{Matsuyoshiet~al.}{2006}]{DBLP:conf/iccpol/MatsuyoshiSU06}Matsuyoshi,S.,Sato,S.,\BBA\Utsuro,T.\BBOP2006\BBCP.\newblock\BBOQCompilationofaDictionaryofJapaneseFunctionalExpressionswithHierarchicalOrganization.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputerProcessingofOrientalLanguages},\mbox{\BPGS\395--402}.\bibitem[\protect\BCAY{Pantel\BBA\Pennacchiotti}{Pantel\BBA\Pennacchiotti}{2006}]{pantel2006}Pantel,P.\BBACOMMA\\BBA\Pennacchiotti,M.\BBOP2006\BBCP.\newblock\BBOQEspresso:LeveragingGenericPatternsforAutomaticallyHarvestingSemanticRelations.\BBCQ\\newblockIn{\Bemthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheACL},\mbox{\BPGS\113--120}.\bibitem[\protect\BCAY{Pantel\BBA\Ravichandran}{Pantel\BBA\Ravichandran}{2004}]{pantel2004}Pantel,P.\BBACOMMA\\BBA\Ravichandran,D.\BBOP2004\BBCP.\newblock\BBOQAutomaticallyLabelingSemanticClasses.\BBCQ\\newblockIn{\BemProceedingsofHumanLanguageTechnology/NorthAmericanchapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\321--328}.\bibitem[\protect\BCAY{Pekar}{Pekar}{2006}]{pekar:2006:HLT-NAACL06-Main}Pekar,V.\BBOP2006\BBCP.\newblock\BBOQAcquisitionofVerbEntailmentfromText.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNAACL,MainConference},\mbox{\BPGS\49--56}.\bibitem[\protect\BCAY{Ravichandran\BBA\Hovy}{Ravichandran\BBA\Hovy}{2002}]{ravichandran:02}Ravichandran,D.\BBACOMMA\\BBA\Hovy,E.\BBOP2002\BBCP.\newblock\BBOQLearningsurfacetextpatternsforaQuestionAnsweringSystem.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\41--47}.\bibitem[\protect\BCAY{Torisawa}{Torisawa}{2006}]{torisawa:NAACL}Torisawa,K.\BBOP2006\BBCP.\newblock\BBOQAcquiringInferenceRuleswithTemporalConstraintsbyUsingJapaneseCoordinatedSentencesandNoun-VerbCo-occurrences.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNAACL,MainConference},\mbox{\BPGS\57--64}.\bibitem[\protect\BCAY{Zanzotto,Pennacchiotti,\BBA\Pazienza}{Zanzottoet~al.}{2006}]{zanzotto:06}Zanzotto,F.~M.,Pennacchiotti,M.,\BBA\Pazienza,M.~T.\BBOP2006\BBCP.\newblock\BBOQDiscoveringAsymmetricEntailmentRelationsbetweenVerbsUsingSelectionalPreferences.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\849--856.}\Sydney,Australia.AssociationforComputationalLinguistics.\end{thebibliography}\begin{biography}\bioauthor{阿部修也}{2008年奈良先端科学技術大学院大学後期課程単位取得満期退学.同年,奈良先端科学技術大学院大学研究員,現在に至る.専門は自然言語処理.情報処理学会員.}\bioauthor{乾健太郎}{1995年東京工業大学大学院情報理工学研究科博士課程修了.工学博士.同研究科助手,九州工業大学情報工学部助教授を経て,2002年より奈良先端科学技術大学院大学情報科学研究科助教授.現在同研究科准教授,情報通信研究機構有期研究員を兼任.自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL各会員,ComputationalLinguistics編集委員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.工学博士.同年電子技術総合研究所入所.1984〜1985年英国インペリアルカレッジ客員研究員.1985〜1987年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.専門は自然言語処理.情報処理学会,人工知能学会,日本ソフトウェア科学会,認知科学会,AAAI,ACL,ACM各会員.}\end{biography}\biodate\end{document}
| |
V25N05-02 | \section{はじめに}
label{introduction}ニューラル機械翻訳\cite{bahdanau2014neural,sutskever2014sequence,cho2014learning}は,ソース言語を数値ベクトルによる分散表現で表し,それをニューラルネットワークを用いて変換して求めた数値ベクトルからターゲット言語の単語列を求めることで翻訳を行う手法である.従来の統計的機械翻訳\cite{koehn2003statistical}では対訳コーパスから求めた変換規則の確率を用いてソース言語の単語やフレーズをターゲット言語への単語やフレーズに変換していたため,フレーズ同士の長い区間でのつながりが十分に反映されていなかった.これに対して,ニューラル機械翻訳では,リカレントニューラルネットワークおよびLSTM(LongShortTermMemory)の利用により,長い区間での単語のつながりが考慮されている.そのため,ニューラル機械翻訳を用いると従来の統計的機械翻訳と比べて流暢な文を生成できるが,訳抜けや繰り返しがあることや,出力結果に未知語(UNK)が含まれる\cite{luong2015addressing,jean2015using}という問題が指摘されている.未知語が含まれる問題に対処するこれまでに提案されている主な手法には以下のものがある.まず,コーパスに前処理を行う方法としては,コーパス中の未知語をすべて未知語トークンに置き換え,位置情報を付け加えて学習を行うPosUNK\cite{luong2015addressing}がある.通常の手法では,語彙制限のために未知語が生じた場合は,ソース言語およびターゲット言語内の未知語を一律に特殊な未知語トークンUNKで置き換える.一方PosUNKにおいては,ソース言語内の未知語はすべてUNKに置き換えるのは同じだが,ターゲット言語の未知語は位置情報を利用して区別する.具体的には,ソース言語を{$f_1$,\ldots,$f_n$}とし,ターゲット言語を{$e_1$,\ldots,$e_m$}として,ソース言語に未知語{$f_i$}が存在したとする.{$f_i$}に対応する未知語{$e_j$}がターゲット言語内に存在した場合は,相対位置{$d=j-i$}を利用して,{$e_j$}を位置情報付き未知語トークンPosUNK{$_d$}に置き換える.ただし,ソース言語に対応する未知語を持たないターゲット言語の未知語は,空集合{$\phi$}に対応するPosUNK{$_\phi$}に置き換える.これにより学習した翻訳機は,未知語を一律にUNKとしてではなく,PosUNK{$_d$}として相対位置付きで推定するため,dを利用して対応するソース言語内の単語を推定することができる.しかしながら,この手法を日英の言語対で実験を行ったところ,効果が低かった(4.3節参照).この手法は,ターゲット言語とソース言語において,単語間の相対位置は同一であると仮定しているため,日英のような文法構造が大幅に異なる言語間では適用が困難であるためと考えられる.また,コーパス中の単語を分割して全体の単語の種類を少なくするBPE(BytePairEncoding)\cite{sennrich2016neural}がある.BPEは頻度の低い単語を複数の文字列に分割することで,単語の頻度を増やし学習しやすくする方法である.この手法も日英の言語対で実験を行ったところ,効果が低かった(4.3節参照).ヨーロッパ言語などの文字の種類が少なく単語の成り立ちが類似する言語間に比べ,日本語と英語では単語の構成が大きく異なり,日本語は文字の種類が多いことが原因だと考えられる.ニューラル機械翻訳のモデルを変更する方法としては,アテンションの計算で単語翻訳確率を考慮する方法\cite{arthur2016incorporating},coverageを導入する方法\cite{tu2016modeling,tu2017context},統計的機械翻訳で作成したフレーズテーブルを組み入れる方法{\cite{stahlberg2016syntactically,khayrallah2017neural,zhang2018guiding}},入力文中の単語が既知語の場合はそのまま処理し,未知語の場合は単語を文字に分解して処理する方法\cite{luong2016achieving}などがあるが,いずれもニューラルネットワークの性能を改善させることが主眼であり,未知語そのものを完全に消去することを目的としていない.ニューラル機械翻訳の出力結果の単語列を統計的機械翻訳を用いて並べ替える手法\cite{skadina2016towards}もあるが,この手法では単語の辞書を作るためだけにニューラル機械翻訳を使っており,最終的な翻訳は統計的機械翻訳で行っている.よってニューラル機械翻訳の利点である単語間の長区間でのつながりを考慮した流暢性が失われてしまう.以上のように従来の手法の多くは,未知語を減少させることはできているが,日英翻訳では翻訳精度の向上が期待できない.そこで本論文では,ニューラルネットワークのモデルや探索方法を変更することなく未知語を減少させ,かつ翻訳精度を向上させる手法を提案する.そのために,アテンションに基づいたニューラル機械翻訳をソース言語に対して適用することで生成されたアテンションを利用する.アテンションは翻訳におけるソース言語の単語とターゲット言語の単語の対応を数値化したもの{\cite{bahdanau2014neural}}で,統計的機械翻訳における2言語間の単語の対応を表す単語アライメント表\cite{koehn2003statistical}と類似したものである.{\cite{hashimoto2016domain}}及び{\cite{freitag2016fast}}では,この性質を利用し,アテンションを元に対応する未知語を推定する手法を提案している.ともに未知語が対応する単語はアテンションが最も高い値を持つ単語だとしている.しかしながら,類似しているとはいえ,アテンションは単語アライメント表そのものではなく,数値の大小と実際のアライメントが一致しない場合も多い.また,言語学的な性質を満たしているとも限らない.本研究では,隣接関係等の,単語間の対応関係の言語学的性質に関するヒューリスティックを利用して,アテンションから単語アライメント表を推定する手法を提案する.そして,その単語アライメント表を利用して未知語を置き換える.これによりニューラル翻訳の利点を生かしたアテンションと言語学的な性質の双方を組み合わせた未知語問題の解決を行う.本論文はアテンションを用いた未知語解決に関する論文\cite{ibe2018}の内容を発展させたものである.ASPECと{\ntcir}の2つのコーパスに提案手法を適用したところ,未知語を完全に除くことができ,BLEU値も上昇させることができた.
\section{背景}
\label{background}本章では,ニューラル機械翻訳の手法と統計的機械翻訳の手法の中から本論文で使用している手法の説明を行う.\subsection{フレーズに基づく統計的機械翻訳}本論文では,未知語を置き換える単語を探す時にフレーズベース機械翻訳\cite{koehn2003statistical}で生成されるフレーズテーブルを使うため,フレーズベース機械翻訳について説明する.フレーズベース機械翻訳は,統計的手法を用いて翻訳規則を学習し,翻訳を行う手法である.手順を以下に示す.\begin{enumerate}\item対訳コーパスにアライメントモデルを適用し,単語アライメント表を作成する.単語アライメント表の計算では同時に単語翻訳確率$t(e|f)$も計算される.単語アライメント表をソース言語からターゲット言語,またその逆に対して作成し,grow-diag-final-and(gdfa)などのヒューリスティックを用いて2つの表を重ね合わせたものを最終的な単語アライメント表とする.\item作成した単語アライメント表とソース言語・ターゲット言語をもとに,ソース言語における単語列がターゲット言語におけるどの単語列に翻訳されるかを表す翻訳規則と,フレーズ翻訳確率$P(\bm{e}|\bm{f})$を学習する.規則の抽出は\cite{och2004alignment}などの方法がある.\item翻訳規則を利用して出力候補文をいくつか生成する.各候補文に対し翻訳規則の確率と言語モデルを用いて翻訳確率を計算し,翻訳確率が最も高い候補文を出力結果とする.\end{enumerate}\subsection{アテンションに基づくニューラル機械翻訳}アテンションに基づくニューラル機械翻訳\cite{bahdanau2014neural}は,アテンションを用いて翻訳するソース言語の各単語に異なる重みを与えるニューラル機械翻訳である.入力文$\bm{f}=(f_1,f_2,\ldots,f_J)$とその分散表現$\bm{x}=(x_1,x_2,\ldots,x_J)$,出力文$\bm{e}=(e_1,e_2,\ldots,e_I)$とその分散表現$\bm{y}=(y_1,y_2,\ldots,y_I)$のペアの条件付き確率を最大化するように学習する.\begin{equation}p(\bm{e}|\bm{f})=\prod_{i=1}^{I}p(e_i|e_1,\ldots,e_{i-1},\bm{f})\end{equation}$e_i$の生成確率は以下で与えられる.\begin{equation}p(e_i|e_1,\ldots,e_{i-1},\bm{x})=g(y_{i-1},s_i,c_i)\end{equation}$s_i$は$i$番目の出力単語列の隠れ状態であり,以下の式(3)で計算される.\begin{equation}s_i=f(s_{i-1},y_{i-1},c_i)\end{equation}$c_i$は出力文の$i$番目の単語の文脈ベクトルといい,以下の式(4)で計算される.\begin{equation}c_i=\sum_{j=1}^{J}\alpha_{ij}h_j\end{equation}$\alpha_{ij}$はアテンション値といい,{$y_i$}に関連しているのが{$x_j$}である確率である.式(5)と式(6)に従って計算する.\begin{gather}\alpha_{ij}=\frac{\expe_{ij}}{\sum_{k=1}^{J}\expe_{ik}}\\e_{ij}=a(s_{i-1},h_j)\end{gather}$h_j$は入力文の$j$番目の単語の文脈ベクトルで,式(7)に従って計算する\footnote{双方向RNNの場合は入力文を逆向きに計算した{$h_j'$}を計算し,$h_j$と$h_j'$を連結したベクトルを使うが,ここでは説明は省略する.}.\begin{equation}h_j=h(x_j,h_{j-1})\end{equation}以上の$a(),f(),g(),h()$は入力変数の重み付き線形和を何らかの非線形関数(通常は{$\tanh$}関数)で変換したものである.具体的には,入力変数群を{$v_{1},\ldots,v_{n}$}とすると,{$a(v_{1},\ldots,v_{n})=\tanh(\sum_{i}w_{i}v_{i}+c)$}と表される.{$w_{i}$}は各変数の重みであり,{$c$}は切片である.全てのw{$_{i}$}およびcがパラメータとして,損失関数を最小化するために最適化される.学習では,以下の式(8)で定義されるクロスエントロピーを損失関数として用いる.\begin{equation}L={-{\sum_j{z_j\log{z'}_j}}}\end{equation}{$z_j$}はコーパスにおける{$y_j$}に対応する単語{$e_j$}の出現確率,{$z'_j$}は学習したパラメータを用いて翻訳を行った時に{$y_j$}に対応する単語{$e_j$}が出力される確率である.学習後の翻訳では式(1)を最大化する$\mathbf{e}$をビームサーチなどで求める.
\section{手法}
\label{proposedmethod}本章ではニューラル機械翻訳を用いてモデル学習し翻訳を行った後,アテンションから単語アライメント表を作成し,作成した単語アライメント表を用いて未知語を適切な単語に置き換える手法を説明する.\ref{alignment-construction}節では,単語アライメント表の作成の方法として,従来手法であるintersectionとgdfaを説明し,提案手法である{gdfa-f}~(gdfafill)を導入する.\ref{replacement-unknowns}節では,生成した単語アライメント表にしたがって未知語に対応する単語を決定する方法を説明する.\subsection{単語アライメント表の作成}\label{alignment-construction}単語アライメント表の作成アルゴリズムのintersectionとgdfaは\cite{koehn2003statistical}で提案されたもので,{gdfa-f}はgdfaを改良した提案手法である.ある$i,j$に対する$a_{ij}$や単語アライメント表の要素をセルと呼ぶ.\begin{description}\item[intersection]ソース言語とターゲット言語どちらから見てもアテンション値が最も高いセルを対応付ける.各セルの値{$b_{ij}$}は以下の式に従って計算する.\[b_{ij}=\begin{cases}1&\mathrm{if}\\i=\argmax_{i'}a_{i'j}\\mathrm{and}\j=\argmax_{j'}a_{ij'}\\0&\mathrm{otherwise}\end{cases}\]\item[gdfa]gdfaでは,intersectionにより作成した{$b_{ij}=1$}となるセルに隣接するセル群をまず候補として抽出する.最初は全ての候補セルの値は0である.ある候補セルのアテンション値が,他のソース単語に対応するアテンション値と比べて大きい場合,そのセルの値を1とする.言い換えれば,そのセルのアテンション値が,その列内で最大値をとる場合,セルの値を1とする.また,ある候補セル内のアテンション値が,他のターゲット単語に対応するアテンション値と比べて大きい場合(すなわち,行内で最大値をとる場合)も,そのセルの値を1とする(厳密な定義は以下の式を参照のこと).これはソース言語の1つの単語がターゲット言語において複数の単語に対応している場合,それらは隣り合うことが多いので,すでに単語アライメント表に入っている単語と隣り合う単語のみを表に追加することを許すという考え方による.gdfaによる単語アライメント表$b_{ij}'$は,{$b_{p,q}$}の(上下左右の)隣接セルの中で1をとるセルの個数を返す関数\[neighbor(b_{pq})=b_{(p-1)q}+b_{(p+1)q}+b_{p(q-1)}+b_{p(q+1)}\]を使って以下のように計算する.\[b_{ij}'=\begin{cases}1&\mathrm{if}\\left(b_{ij}=1\right)\\mathrm{or}\\left(neighbor\left(b_{ij}\right)\ge1\\mathrm{and}\left(i=\argmax_{i'}a_{i'j}\\mathrm{or}\j=\argmax_{j'}a_{ij'}\right)\right)\\0&\mathrm{otherwise}\end{cases}\]\item[{gdfa-f}]gdfaにおいて作成した行列$b_{ij}'$をもとに,ソース言語のそれぞれの単語に対して,対応付けされているターゲット言語の単語がなければ,アテンション値が最も高いセルに対応付ける.ターゲット言語のそれぞれの単語に対しても同様の操作を行う.{gdfa-f}による単語アライメント表$b_{ij}''$は以下の式に従い計算する.\[b_{ij}''=\begin{cases}1&\mathrm{if}\b_{ij}'=1\\mathrm{or}\(j=\argmax_{j'\in\mathcal{J}}a_{ij'}\\mathrm{and}\i\in\mathcal{I})\\mathrm{or}\(i=\argmax_{i'\in\mathcal{I}}a_{i'j}\\mathrm{and}\j\in\mathcal{J})\\0&\mathrm{otherwise}\end{cases}\]ここで$\mathcal{I}$,$\mathcal{J}$はそれぞれ以下の式で定義される.\[\mathcal{I}=\{i\|\\sum_jb_{ij}'=0\}\\mathrm{and}\\mathcal{J}=\{j\|\\sum_ib_{ij}'=0\}\]\end{description}アテンションからintersection,gdfa,{gdfa-f}を求めた例を図\ref{alignment}に示す.図中の各セルはそれぞれ$b_{ij}$,$b_{ij}'$,$b_{ij}''$の値を表し,白は0,灰色は1とした.{gdfa-f}では,出力文中の各単語に対して,少なくとも一つの入力文中の単語が必ず対応する.言い換えれば,gdfa-fにより,出力文中の全ての未知語に対して,既知の入力文中の単語を必ず割り当てることができる.\begin{figure}[t]\begin{center}\includegraphics{25-5ia2f1.eps}\end{center}\caption{intersection,gdfa,{gdfa-f}の例}\label{alignment}\end{figure}\subsection{未知語の置き換え}\label{replacement-unknowns}生成した単語アライメント表を用いて,ニューラル機械翻訳の出力文中の未知語$e_i$を単語に置き換える方法について説明する.まず,$e_i$に対応している入力文中の単語列$\bm{f_i}$を{$\bm{f_i}=\{f_j|b_{ij}=1\}$}とする.次に,$\bm{f_i}$の翻訳となる単語列を決定して未知語$e_i$と置き換える.本論文では$\bm{f_i}$の翻訳となる単語列の決定方法としてIBMとChangePhrase~\cite{koehn2003statistical}とDictを用いた.\begin{description}\item[IBM]単語アライメント表の主な作成法は{\cite{hashimoto2016domain,arthur2016incorporating}}などで用いられているIBMモデルが挙げられる.ここではIBMモデル4を用いた.対訳コーパスにIBMモデル4を適用したときの単語翻訳確率$t(e|f)$を使い,$\bm{f_i}=(f_{i_1},\ldots,f_{i_n})$の要素それぞれにおいて最も確率の高い$e_{best}=\argmax_{e}{t(e|f_i)}$を選択する手法である.\item[ChangePhrase]$\bm{f_i}$の翻訳を統計的機械翻訳で作成したフレーズテーブルから参照し,コーパスから計算したフレーズ翻訳確率$P(\bm{e}|\bm{f})=\frac{c(\bm{e},\bm{f})}{c(\bm{f})}$が最も高いフレーズ$\bm{e_{best}}=\argmax_{\bm{e}}P(\bm{e}|\bm{f_i})$を選択する手法である.$c(\bm{f})$はコーパス中のフレーズ$\bm{f}$の出現回数,$c(\bm{e},\bm{f})$はフレーズ$\bm{e}$と$\bm{f}$の同時出現回数である.フレーズで置き換えるため,未知語を複数単語と置き換えることもある.\item[Dict]外部の辞書から$\bm{f_j}$の各単語の訳を検索した単語を選択する手法である.\end{description}\begin{table}[b]\caption{各コーパスのサイズと全語彙数}\label{corpus}\input{02table01.tex}\end{table}
\section{実験}
\label{experiment}\subsection{実験データ・方法}対訳コーパスとしてはASPEC\cite{NAKAZAWA16.621},{\ntcir}のpatentMT\cite{goto2013overview}\footnote{日英特許機械翻訳タスクデータ中のNTCIR-7およびNTCIR-8を合わせたものを用いた.}を用いた.コーパスのサイズと単語数を表\ref{corpus}に示す.モデル学習およびデコーダにはnematus\footnote{https://github.com/EdinburghNLP/nematus}を用い,日英および英日の翻訳を行った.隠れ層の数は1,000,単語ベクトルの次元数は512,RNNはGRU,学習アルゴリズムはAdam,学習率は0.0001,バッチサイズは40,dropoutは未使用で学習を行った.英語の構文解析にはStanfordParser\footnote{https://stanfordnlp.github.io/CoreNLP/}を,日本語のトークン化にはKyTea\footnote{http://www.phontron.com/kytea/index-ja.html}を用いた.IBMモデル4の実装としてはGIZA++\footnote{https://github.com/moses-smt/giza-pp}を用いた.フレーズテーブルの抽出はmosesdecoder\footnote{https://github.com/moses-smt/mosesdecoder}を用いた.未知語の置き換えの手法のDictでは外部辞書としてEDict~\cite{breen2000japanese}を用いた.コーパスの前処理としては,\cite{neubig2013travatar}を参考に,単語数51以上の文は学習データから取り除いた.ASPECで語彙数を1万から5万まで1万ずつ変化させた時の翻訳結果のBLEU値を計算した結果を表\ref{vocab}に示す.この結果から,最もBLEU値が高かった語彙数4万を実験で用いた.パラメータを統一するために{\ntcir}でも同じパラメータで実験を行った.語彙数を4万に制限した時の(延べ)全単語数における未知語の割合を表\ref{vocabresult}に示す.\begin{table}[t]\caption{ASPECにおいて語彙数を変化させたときの日英の翻訳結果のBLEU値}\label{vocab}\input{02table02.tex}\end{table}\begin{table}[t]\caption{語彙数を制限した時の未知語の割合}\label{vocabresult}\input{02table03.tex}\end{table}次にニューラル機械翻訳のコーパスからの学習における適切な更新回数を調べるために,更新回数1万から15万まで1万ごとに損失関数の値を計算した.その結果ASPECは10万回,{\ntcir}は12万回以降,損失関数の値が変化しなくなったため,これらを更新回数として設定した.\subsection{評価指標}翻訳精度の評価指標にはBLEU~\cite{papineni2002bleu},METEOR~\cite{banerjee2005meteor}の2つを用いた.またMETEORは日本語の評価には対応していないため日英翻訳の評価のみに用いた.\subsection{実験結果と考察}コーパスとしてASPECを用いた翻訳の結果を表\ref{nresult}に示す.baselineはアテンションベースのニューラル機械翻訳のシステムであるnematusのデフォルトの設定で学習したモデルである.BPEは\cite{sennrich2016neural},PosUNKは\cite{luong2015addressing}を再実装して実験した結果である.語彙数はそれぞれ4万とした.語彙数を変更した実験も行ったが,BLUE値や未知語の割合に大きな変化はなかったため,ここでは提案手法と同様の4万とした.学習の更新回数については,提案手法同様に損失関数の値が最も小さくなった時のBLEU値を採用した.intersection+ChangePhrase以下が提案手法を実装して実験した結果である.これはbaselineであるnematusで求めたアテンションからintersection,gdfa,{gdfa-f}のいずれかを用いて単語アライメント表を作成し,ChangePhrase,IBM,Dictのいずれかを用いて未知語に置き換える単語列を決めたものである.単語アライメント表の作成方法と未知語に置き換える単語列の決め方の$3\times3$通りの全ての組合せを実行した.表\ref{nresult}より,未知語を置き換える手法としてはChangePhraseよりIBMの方が良い結果が出ている.ChangePhraseでは未知語が複数連続している場合にそれらをまとめてフレーズとするため,そのフレーズの訳が見つからなければ置き換えることができないが,IBMでは1単語ずつ未知語を置き換えているので,学習コーパス中にある単語であれば必ず置き換えることができるので,それが原因として考えられる.\begin{table}[b]\caption{ASPECコーパスでの翻訳結果の精度比較結果}\input{02table04.tex}\end{table}単語アライメントを求める方法としては,{gdfa-f}とIBMを組み合わせるとすべての未知語を別の単語で置き換えることができている.またBLEU値もよく使われる手法であるintersectionと比べて大差がなく,同等の結果となっている.一方,既存手法であるBPEとPosUNKでは,未知語の数を大幅に減らすことはできているが,翻訳性能そのものはむしろ悪化している.コーパスとして{\ntcir}を用いて同じ実験を行った結果を表\ref{nresult-ntcir}に示す.{\ntcir}では語彙数を4万に制限した場合に未知語の数自体が少なくBLEU値などに差が少ないが,ASPECと同様に{gdfa-f}+IBMを使うとすべての未知語を別の単語で置き換えることができている.またBLEU値もintersectionと比べて大差がなく,同等の結果となっている.\begin{table}[b]\caption{{\ntcir}コーパスでの翻訳結果の精度比較結果}\label{nresult-ntcir}\input{02table05.tex}\end{table}\begin{figure}[b]\begin{center}\includegraphics{25-5ia2f2.eps}\end{center}\caption{パラメータ更新回数とBLEU値の関係(日英)}\label{iter-bleu-je-gdfa-f}\end{figure}表\ref{nresult}を見るとMETEORではgdfa-f+IBMが最も高い数値を出している.METEORはBLEUと違い同義語に高いスコアを与える翻訳の評価指標であるため,これはgdfa-fを適用することで意味の近い単語を選択できているということを示唆する.次に,{gdfa-f}+IBMにおいて,パラメータ更新回数とBLEU値およびUNKの出現率の関係をグラフに表したものが図\ref{iter-bleu-je-gdfa-f}および図\ref{iter-bleu-ej-gdfa-f}である.ここからパラメータ更新回数が少ない場合でも{gdfa-f}+IBMを適用することで未知語をなくし,BLEU値も若干あげることができることがわかる.\begin{figure}[t]\begin{center}\includegraphics{25-5ia2f3.eps}\end{center}\caption{パラメータ更新回数とBLEU値の関係(英日)}\label{iter-bleu-ej-gdfa-f}\end{figure}
\section{おわりに}
\label{conclusion}本論文では,ニューラル機械翻訳により生成されたアテンションをもとに,単語の重複がないように単語アライメント表を作成することで,出力結果における未知語が入力文のどの単語に対応しているかを判別し,統計的機械翻訳でのモデルを用いて未知語を適切な単語に置き換える手法を提案した.その結果,提案手法の{gdfa-f}を用いて単語アライメント表を作ることで未知語をなくすことができ,BLEU値なども向上させることができることがわかった.今後はより大きな外部辞書を活用するなどしてさらに翻訳精度を高めていきたい.また,本論文で提案した手法はターゲット言語における1つの未知語が単語もしくはフレーズに対応しているという仮定に基づいているが,未知語とその周辺の単語またはフレーズが一つの単語に対応している,すなわち置き換えた単語と周辺の単語が重複する状況も考えられる.そのような場合も考慮した手法を検討していきたい.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Arthur,Neubig,\BBA\Nakamura}{Arthuret~al.}{2016}]{arthur2016incorporating}Arthur,P.,Neubig,G.,\BBA\Nakamura,S.\BBOP2016\BBCP.\newblock\BBOQIncorporatingDiscreteTranslationLexiconsintoNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1557--1567}.\bibitem[\protect\BCAY{Bahdanau,Cho,\BBA\Bengio}{Bahdanauet~al.}{2014}]{bahdanau2014neural}Bahdanau,D.,Cho,K.,\BBA\Bengio,Y.\BBOP2014\BBCP.\newblock\BBOQNeuralMachineTranslationbyJointlyLearningtoAlignandTranslate.\BBCQ\\newblock{\BemarXivpreprintarXiv:1409.0473}.\bibitem[\protect\BCAY{Banerjee\BBA\Lavie}{Banerjee\BBA\Lavie}{2005}]{banerjee2005meteor}Banerjee,S.\BBACOMMA\\BBA\Lavie,A.\BBOP2005\BBCP.\newblock\BBOQMETEOR:AnAutomaticMetricforMTEvaluationwithImprovedCorrelationwithHumanJudgments.\BBCQ\\newblockIn{\BemProceedingsofACLWorkshoponIntrinsicandExtrinsicEvaluationMeasuresforMachineTranslationAnd/orSummarization},\lowercase{\BVOL}~29,\mbox{\BPGS\65--72}.\bibitem[\protect\BCAY{Breen}{Breen}{2000}]{breen2000japanese}Breen,J.\BBOP2000\BBCP.\newblock\BBOQAwwwJapaneseDictionary.\BBCQ\\newblock{\BemJapaneseStudies},{\Bbf20}(3),\mbox{\BPGS\313--317}.\bibitem[\protect\BCAY{Cho,vanMerrienboer,Gulcehre,Bahdanau,Bougares,Schwenk,\BBA\Bengio}{Choet~al.}{2014}]{cho2014learning}Cho,K.,vanMerrienboer,B.,Gulcehre,C.,Bahdanau,D.,Bougares,F.,Schwenk,H.,\BBA\Bengio,Y.\BBOP2014\BBCP.\newblock\BBOQLearningPhraseRepresentationsusingRNNEncoder--DecoderforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1724--1734},Doha,Qatar.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Freitag\BBA\Al-Onaizan}{Freitag\BBA\Al-Onaizan}{2016}]{freitag2016fast}Freitag,M.\BBACOMMA\\BBA\Al-Onaizan,Y.\BBOP2016\BBCP.\newblock\BBOQFastDomainAdaptationforNeuralMachineTranslation.\BBCQ\\newblock{\BemarXivpreprintarXiv:1612.06897}.\bibitem[\protect\BCAY{Goto,Chow,Lu,Sumita,\BBA\Tsou}{Gotoet~al.}{2013}]{goto2013overview}Goto,I.,Chow,K.-P.,Lu,B.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2013\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskattheNTCIR-10Workshop.\BBCQ\\newblockIn{\BemNTCIR}.\bibitem[\protect\BCAY{Hashimoto,Eriguchi,\BBA\Tsuruoka}{Hashimotoet~al.}{2016}]{hashimoto2016domain}Hashimoto,K.,Eriguchi,A.,\BBA\Tsuruoka,Y.\BBOP2016\BBCP.\newblock\BBOQDomainAdaptationandAttention-basedUnknownWordReplacementinChinese-to-JapaneseNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe3rdWorkshoponAsianTranslation(WAT2016)},\mbox{\BPGS\75--83}.\bibitem[\protect\BCAY{伊部\JBA松田\JBA山口}{伊部\Jetal}{2018}]{ibe2018}伊部早紀\JBA松田源立\JBA山口和紀\BBOP2018\BBCP.\newblock日英ニューラル機械翻訳における未知語への対応.\\newblock\Jem{言語処理学会第24年次大会発表論文集},\mbox{\BPGS\1046--1049}.\bibitem[\protect\BCAY{Jean,Cho,Memisevic,\BBA\Bengio}{Jeanet~al.}{2015}]{jean2015using}Jean,S.,Cho,K.,Memisevic,R.,\BBA\Bengio,Y.\BBOP2015\BBCP.\newblock\BBOQOnUsingVeryLargeTargetVocabularyforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\lowercase{\BVOL}~1,\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{Khayrallah,Kumar,Duh,Post,\BBA\Koehn}{Khayrallahet~al.}{2017}]{khayrallah2017neural}Khayrallah,H.,Kumar,G.,Duh,K.,Post,M.,\BBA\Koehn,P.\BBOP2017\BBCP.\newblock\BBOQNeuralLatticeSearchforDomainAdaptationinMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalJointConferenceonNaturalLanguageProcessing(Volume2:ShortPapers)},\lowercase{\BVOL}~2,\mbox{\BPGS\20--25}.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{koehn2003statistical}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-basedTranslation.\BBCQ\\newblockIn{\BemNAACLHLT-Volume1},\mbox{\BPGS\48--54}.ACL.\bibitem[\protect\BCAY{Luong\BBA\Manning}{Luong\BBA\Manning}{2016}]{luong2016achieving}Luong,M.-T.\BBACOMMA\\BBA\Manning,C.~D.\BBOP2016\BBCP.\newblock\BBOQAchievingOpenVocabularyNeuralMachineTranslationwithHybridWord-CharacterModels.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\lowercase{\BVOL}~1,\mbox{\BPGS\1054--1063}.\bibitem[\protect\BCAY{Luong,Sutskever,Le,Vinyals,\BBA\Zaremba}{Luonget~al.}{2015}]{luong2015addressing}Luong,T.,Sutskever,I.,Le,Q.,Vinyals,O.,\BBA\Zaremba,W.\BBOP2015\BBCP.\newblock\BBOQAddressingtheRareWordProbleminNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\lowercase{\BVOL}~1,\mbox{\BPGS\11--19}.\bibitem[\protect\BCAY{Nakazawa,Yaguchi,Uchimoto,Utiyama,Sumita,Kurohashi,\BBA\Isahara}{Nakazawaet~al.}{2016}]{NAKAZAWA16.621}Nakazawa,T.,Yaguchi,M.,Uchimoto,K.,Utiyama,M.,Sumita,E.,Kurohashi,S.,\BBA\Isahara,H.\BBOP2016\BBCP.\newblock\BBOQASPEC:AsianScientificPaperExcerptCorpus.\BBCQ\\newblockInCalzolari,N.,Choukri,K.,Declerck,T.,Grobelnik,M.,Maegaard,B.,Mariani,J.,Moreno,A.,Odijk,J.,\BBA\Piperidis,S.\BEDS,{\BemProceedingsofthe9thInternationalConferenceonLanguageResourcesandEvaluation(LREC2016)},\mbox{\BPGS\2204--2208},Portoro{\r{A}},Slovenia.ELRA.\bibitem[\protect\BCAY{Neubig}{Neubig}{2013}]{neubig2013travatar}Neubig,G.\BBOP2013\BBCP.\newblock\BBOQTravatar:AForest-to-StringMachineTranslationEnginebasedonTreeTransducers.\BBCQ\\newblockIn{\BemACLSystemDemonstrations},\mbox{\BPGS\91--96}.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2004}]{och2004alignment}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2004\BBCP.\newblock\BBOQTheAlignmentTemplateApproachtoStatisticalMachineTranslation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf30}(4),\mbox{\BPGS\417--449}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni2002bleu}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemACL},\mbox{\BPGS\311--318}.ACL.\bibitem[\protect\BCAY{Sennrich,Haddow,\BBA\Birch}{Sennrichet~al.}{2016}]{sennrich2016neural}Sennrich,R.,Haddow,B.,\BBA\Birch,A.\BBOP2016\BBCP.\newblock\BBOQNeuralMachineTranslationofRareWordswithSubwordUnits.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\lowercase{\BVOL}~1,\mbox{\BPGS\1715--1725}.\bibitem[\protect\BCAY{Skadina\BBA\Rozis}{Skadina\BBA\Rozis}{2016}]{skadina2016towards}Skadina,I.\BBACOMMA\\BBA\Rozis,R.\BBOP2016\BBCP.\newblock\BBOQTowardsHybridNeuralMachineTranslationforEnglish-Latvian.\BBCQ\\newblockIn{\BemHumanLanguageTechnologies--TheBalticPerspective:ProceedingsoftheSeventhInternationalConferenceBalticHLT2016},\lowercase{\BVOL}\289,\mbox{\BPG~84}.IOSPress.\bibitem[\protect\BCAY{Stahlberg,Hasler,Waite,\BBA\Byrne}{Stahlberget~al.}{2016}]{stahlberg2016syntactically}Stahlberg,F.,Hasler,E.,Waite,A.,\BBA\Byrne,B.\BBOP2016\BBCP.\newblock\BBOQSyntacticallyGuidedNeuralMachineTranslation.\BBCQ\\newblockIn{\BemThe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPG\299}.\bibitem[\protect\BCAY{Sutskever,Vinyals,\BBA\Le}{Sutskeveret~al.}{2014}]{sutskever2014sequence}Sutskever,I.,Vinyals,O.,\BBA\Le,Q.~V.\BBOP2014\BBCP.\newblock\BBOQSequencetoSequenceLearningwithNeuralNetworks.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems},\mbox{\BPGS\3104--3112}.\bibitem[\protect\BCAY{Tu,Liu,Lu,Liu,\BBA\Li}{Tuet~al.}{2017}]{tu2017context}Tu,Z.,Liu,Y.,Lu,Z.,Liu,X.,\BBA\Li,H.\BBOP2017\BBCP.\newblock\BBOQContextGatesforNeuralMachineTranslation.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf5},\mbox{\BPGS\87--99}.\bibitem[\protect\BCAY{Tu,Lu,Liu,Liu,\BBA\Li}{Tuet~al.}{2016}]{tu2016modeling}Tu,Z.,Lu,Z.,Liu,Y.,Liu,X.,\BBA\Li,H.\BBOP2016\BBCP.\newblock\BBOQModelingCoverageforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\lowercase{\BVOL}~1,\mbox{\BPGS\76--85}.\bibitem[\protect\BCAY{Zhang,Utiyama,Sumita,Neubig,\BBA\Nakamura}{Zhanget~al.}{2018}]{zhang2018guiding}Zhang,J.,Utiyama,M.,Sumita,E.,Neubig,G.,\BBA\Nakamura,S.\BBOP2018\BBCP.\newblock\BBOQGuidingNeuralMachineTranslationwithRetrievedTranslationPieces.\BBCQ\\newblockIn{\BemProceedingsofthe2018ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies,Volume1(LongPapers)},\lowercase{\BVOL}~1,\mbox{\BPGS\1325--1335}.\end{thebibliography}\begin{biography}\bioauthor{伊部早紀}{2017年東京大学教養学部学際科学科卒業.東京大学大学院総合文化研究科広域システム科学専攻修士課程在学中.言語処理に関する研究開発に従事.}\bioauthor{松田源立}{1997年東京大学教養学部卒業.2002年東京大学大学院総合文化研究科博士課程修了.博士(学術).学振特別研究員(PD),青山学院大学理工学部助教を経て,2013年より東京大学大学院総合文化研究科学術研究員.}\bioauthor{山口和紀}{1979年東京大学理学部数学科卒業.1985年理学博士(東京大学).1992年東京大学教養学部助教授.2007年より東京大学大学院総合文化研究科教授.コンピュータのためのモデリング全般に興味を持つ.}\end{biography}\biodate\end{document}
| |
V07N04-02 | \section{はじめに}
韓国語言語処理について述べる.朝鮮半島は日本にとって歴史的,経済的,社会的に関係の深い周辺地域であり,その意味において韓国語は非常に重要な外国語の一つである.また言語的に,韓国語は日本語に類似する特徴を最も多く持つ言語,つまり日本語に最も近い言語と考えられている.すなわち,日本語言語処理にとって最も参考にすべき外国語が韓国語である.このような背景にも関わらず,日本における韓国語処理,特に日韓翻訳や韓日翻訳に関する研究は,十分に議論されているとは言えない.韓国語は日本語に最も類似した言語であるが故に機械翻訳も容易であり,研究の必要性は低く見られがちである.しかし日韓翻訳に関して文献\cite{日韓評価}が指摘するように,市販システムの翻訳品質は依然低い.また我々の見る限り,韓日翻訳に関しても状況は同じである.これは同論文の結論でも述べているように,正確な分析に基づく翻訳になっていないからであると考える.そこで,本研究では韓国語を対象に,機械翻訳をはじめほとんどの言語処理の基本単位である形態素に対して検討を行なった.日韓翻訳あるいは韓日翻訳の際に,形態素をどのように捉えて,どのように処理すればいいのだろうか.特に,韓国語形態素をどう機械処理すべきか,一般に言われている韓国語の品詞体系が本当に計算機処理に適当なのかという議論,あるいは後述する音韻縮約現象をどう捉えるかという問題を,ここでは研究の対象にする.このような問題意識に基づく研究は,従来ほとんど見ることができない{}\footnote{これは韓国語に限定したことではない.計算機用言語体系の議論は日本語\cite{渕文法}\cite{宮崎文法}やスペイン語\cite{スペイン語品詞体系}に対する文献など若干が見受けられるのみである.}.以上のような動機のもと,日本における韓国語処理への理解と議論の活性化を願い,本論文では韓国語の言語処理をどう行なうべきかの一つの実例を示すことによって提案を行なう.本論文で行なう提案は大きく,以下の4項目に分類される.\begin{itemize}\item形態素体系(\ref{節:形態素体系}節)\item品詞体系(\ref{節:品詞体系}節)\item形態素解析(\ref{節:形態素解析}節)\item生成処理(\ref{節:生成処理}節)\end{itemize}日本語について考えた場合,これら形態素に関連する4項目は別個に検討され,議論されている場合が多い.しかし,本論文では韓国語に関して一括して議論を進める.これは,形態素や品詞体系と形態素解析,生成処理は相互に深く関係している体系と処理であり,相互を関連づけながら議論を進めた方が得策と考えたからである.どのような品詞体系を取るか,形態素にどのような情報をどのように持たせるかによって,最適な形態素解析手法は異なることが予想され,例えば同一の統計的手法であっても品詞数によって最適な統計の取り方は異なってくるはずである.また逆に,形態素解析結果を分析することによって言語体系は再検討すべきであり,例えば正しく解析できることが全く期待できない言語体系は機械処理上意味がないので体系を見直さなければならない.本論文で提示する韓国語体系の特徴は機械処理のしやすさを考慮して設計した体系である,という点にある.すなわち,形態素解析における誤りを分析することで仕様を再検討し,できるだけ誤りの少ない体系となるよう努めた.また,機械翻訳での必要性を考慮して,機械翻訳で必要性の低い品詞分類は統合し,重要な分類は必要に応じて細分化を行なった.また韓国語の一つの特徴である分かち書きや音韻縮約に対して,どのように機械的な処理を行なうかについても提案を行なった.形態素解析では,統計的手法を基本としながら韓国語固有の問題に対しては独自の対応を施すことで良好な解析精度が得られた.韓国語生成処理では,特に分かち書き処理について,提案した品詞体系を利用した規則を作成した.我々は,多言語話し言葉翻訳の一環として日韓翻訳,並びに韓日翻訳の研究を行なっている.翻訳手法としては変換主導翻訳(Transfer-DrivenMachineTranslation,TDMT)\cite{古瀬99}を用い,日韓/韓日のみならず日英/英日/日独/日中を全く同一の翻訳部で処理を行なっている.各言語固有の形態素解析,生成処理については言語ごとに作成する.本論文で述べる形態素体系,品詞体系,形態素解析,生成処理はいずれもTDMTの日韓翻訳部,韓日翻訳部に実装されている.本論文では韓国語固有の問題について議論するため,共通のエンジンである翻訳部については述べない.従ってTDMTによる翻訳処理機構に関しては{}\cite{古瀬99}を,特にTDMTの日韓翻訳部については{}\cite{IPSJ:TDMT日韓}を,それぞれ参照されたい.本論文では,論文の読者が日本語話者であることを意識して議論を進める.すなわち,日本語と韓国語の両言語を比較,対比して述べたり,韓国語の現象を日本語に写像して説明したりすることを試みる.日本語と対照させることで韓国語の特徴を浮彫りにすることができると考えた.またこれによって韓国語処理の研究もしくは韓国語そのものに理解を深めることができればと願っている.前述したように,日本語は韓国語と類似する特徴を多く持つ言語であるから,本論文で述べる体系や処理は,韓国語処理のみならず日本語処理に関しても部分的に有用であると期待している.なお,本論文の処理対象言語であり,主に朝鮮半島において使用されるこの言語の名称は,ハングル,朝鮮語,コリア語などと表現される場合もあるが,本論文ではこれを「韓国語」で統一する.
\section{計算機処理から見た韓国語の特徴}
韓国語は日本語と同じく膠着語であり,韓国語の言語体系は多くの部分が日本語と類似している言語であるが,異なる部分も存在する.本節では両言語の差異のうち,計算機による形態素処理の観点で重要である以下の4点について,紹介すると共に検討を行なう.\begin{itemize}\item形態素と文字の対応\item活用\item分かち書き\item音韻縮約\end{itemize}以下,これらについて順に述べる.\subsection{形態素と文字の対応}韓国語の表記文字をハングルと呼ぶ\footnote{日本においては,言語自体を「ハングル」と呼ぶことがある.}.ハングル綴字法では,韓国語の「文字」は14個の子音文字と10個の母音文字とで規定されており,これらの組合せ{}\footnote{組合せ上可能な音節文字の数は11,172であるが,計算機で処理できるのは韓国語表記によく使用される2,350である.}によって一つの文字(音節文字)を表現する.このため,そのままではそれ以上分解することが不可能な日本語のひらがな,カタカナとは異なり,分解することができる.例えば,「\bdf{"4751}({\tthan})」という音節文字は「\bdf{"243E}({\tth})」「\bdf{"243F}({\tta})」「\bdf{"2424}({\ttn})」という音を示す子音文字及び母音文字に分解が可能である.以上のように,韓国語において音節文字はさらに分解可能であるため,形態素の単位と音節文字の単位は一致しない\footnote{これらは日本語においても,例えば「読めば」が「yom--」+「--ba」と考える立場においては形態素の単位と音節の単位は一致しない\cite{日本語百科}.}.例えば,韓国語形態素には「〜\bdf{"2424}」「〜\bdf{"2429}」「〜\bdf{"2431}」のように子音文字一つで構成される形態素があるだけではなく「〜\bdf{"2432}\bdf{"344F}\bdf{"3459}」「〜\bdf{"2432}\bdf{"344F}\bdf{"316E}」「〜\bdf{"2429}\\bdf{"304D}\bdf{"404C}」等のような子音文字から始まる形態素が多い.このような子音で始まる形態素は,直前の形態素の終音節と結合したり(母音で終わる場合),媒介母音「\bdf{"4038}」と結合して新しい音節文字を作る(子音で終わる場合).\subsection{活用}韓国語の用言には語幹と語尾が結合して活用する時,音韻縮約か形態音韻変化によって語幹や語尾の形が変わる場合が多い.語幹が変わる多くの場合は語幹の終りが脱落または変化したり,または語幹の終りが脱落すると同時に語尾の先頭が変化する.さらに,このような形態素結合の際の形態音韻変化によって派生する音節文字の数も,数百種類に及ぶ.従って,このような韓国語の形態音韻的特徴のために,韓国語の形態素処理を日本語のように音節文字単位とすることはできない.一例として,様々な動詞,形容詞に「〜\bdf{"3E6E}(〜て)」という語尾がついた時にどのように形態変化するかを以下に示す.\vspace{\baselineskip}\begin{tabular}{lllll}\bdf{"3568}(聞く)&+&\bdf{"3E6E}&⇒&\bdf{"3569}\bdf{"3E6E}\\\bdf{"3569}(入れる)&+&\bdf{"3E6E}&⇒&\bdf{"3569}\bdf{"3E6E}\\\bdf{"353D}(助ける)&+&\bdf{"3E6E}&⇒&\bdf{"3535}\bdf{"3F4D}\\\bdf{"3870}\bdf{"3823}(知らない)&+&\bdf{"3E6E}&⇒&\bdf{"3874}\bdf{"3673}\\\bdf{"4644}\bdf{"367E}(青い)&+&\bdf{"3E6E}&⇒&\bdf{"4644}\bdf{"3721}\\\bdf{"3375}(置く)&+&\bdf{"3E6E}&⇒&\bdf{"3376}(\bdf{"3375}\bdf{"3E46})\\\bdf{"3E32}(書く)&+&\bdf{"3E6E}&⇒&\bdf{"3D61}\\\end{tabular}\vspace{\baselineskip}以上の形態素単位ならびに活用の複雑性から,韓国語を音節文字単位で処理することは困難である.このため,計算機で処理する際にはこれら音節文字をすべてアルファベットに変換して各処理を行なっている.これについては\ref{節:内部表現}節で述べる.\subsection{分かち書き}韓国語は日本語と異なり,分かち書きを行なう言語である.これは漢字やひらがな,カタカナなど多様な文字種を持つ日本語や一覧性の高い漢字を多く使う中国語と異なり,分かち書きなしでは読みにくいためと予想する.韓国語処理を困難にしている一つの理由は,この分かち書きの単位と形態素単位が一致していないためである.以下に例文と,それを本論文で示す体系によって形態素(分割境界を`/'で示す)に分割した結果を示す.なお,以後は必要に応じて空白を\verb*!!と記述する.\begin{example}\item\bdf{"3535}\bdf{"4278}\bdf{"404C}\verb*||\bdf{"344A}\bdf{"403B}\verb*||\bdf{"304D}\verb*||\bdf{"3030}\bdf{"4038}\bdf{"344F}\verb*||\bdf{"3966}\bdf{"403B}\verb*||\bdf{"3033}\bdf{"3731}\bdf{"463C}\bdf{"374E}\verb*||\bdf{"4758}\verb*||\bdf{"4156}\bdf{"3C4C}\bdf{"4038}\bdf{"3869}\verb*||\bdf{"474F}\bdf{"3442}\bdf{"3525}\bdf{"3F64}.(到着が遅くなりそうなので,ギャランティにしていただきたいんですけれども.)\label{例:文}\item/\bdf{"3535}\bdf{"4278}/\bdf{"3021}/\bdf{"344A}/\bdf{"2429}\verb*||\bdf{"304D}\verb*||\bdf{"3030}/\bdf{"344F}/\bdf{"3966}/\bdf{"3826}/\bdf{"3033}\bdf{"3731}\bdf{"463C}/\bdf{"374E}/\bdf{"474F}/\bdf{"3E6E}\verb*||\bdf{"4156}/\bdf{"3D43}/\bdf{"3E7A}\bdf{"4038}\bdf{"3869}\verb*||\bdf{"474F}/\\\bdf{"2424}\bdf{"3525}/\bdf{"3F64}/./\label{例:形態素分割}\end{example}この例にあるように,[\ref{例:文}]における空白が必ずしも[\ref{例:形態素分割}]における形態素の区切りと対応していないことがわかる.このように,韓国語は英語などと異なり,空白を含む形態素(「\bdf{"2429}\verb*||\bdf{"304D}\verb*||\bdf{"3030}」)や縮約(「\bdf{"474F}」と「\bdf{"3E6E}\verb*||\bdf{"4156}」の一部「\bdf{"3E6E}」が「\bdf{"4758}」と縮約される)などの現象をごく普通に見ることができる.\subsection{音韻縮約}韓国語においては,音韻縮約という現象が頻出する.これは,ある特定の2音が連続した際に音変化を起こして別の音になり,その結果原音と対応が取れなくなる現象である.ただしこれは韓国語特有の現象ではなく,日本語においても特に話し言葉において起こることがある\cite{基礎日本語文法}.以下にその一例を示す.\begin{example}\item早く帰りたいんだ\underline{けど}(けれど/けれども).\label{例:けど}\item\underline{そりゃ}(それは)困ったな.\label{例:そりゃ}\item間違え\underline{ちゃ}(てしま)った.しっかりしな\underline{きゃ}(ければ).\end{example}縮約を機械処理する観点で見た場合,[\ref{例:けど}]における「けど」はこれを「けれども」もしくは「けれど」と同様に異表記の1形態素として認定すれば問題は起こらないが,[\ref{例:そりゃ}]においては縮約前が2語(「それ」と「は」)にわたるため「そりゃ」という1語に対して既存の品詞体系では品詞付与ができず,その結果これを1形態素として認定することが非常に難しい.そのため形態素解析において,これら縮約を還元する(縮約を起こす前の状態に戻す)処理がどうしても必要となる.韓国語における縮約の例を表\ref{表:縮約}に示す.縮約の中には,表における「\bdf{"4277}」のように変化を起こさず後続の形態素のみが変化する場合や,「\bdf{"474F}」「\bdf{"3E6E}\verb*||\bdf{"3375}」「\bdf{"3E7A}」の3形態素が連続することで縮約が2箇所で発生して「\bdf{"4758}\verb*||\bdf{"3379}」となるような例もある.また表\ref{表:縮約}最後の例のように,「\bdf{"474F}」と「\bdf{"4176}\verb*||\bdf{"3E4A}」という2形態素が「\bdf{"4421}\verb*||\bdf{"3E4A}」と縮約し,さらに場合によってこれが「\bdf{"427A}」に縮約する,というように2段階に縮約するものもある.また,縮約には表に示したように2形態素の境界で起こるだけでなく,例えば「\bdf{"392B}\bdf{"3E79}(何)」という1形態素が単独で「\bdf{"392B}\bdf{"3E6E}」あるいは「\bdf{"3939}」に縮約する場合がある.しかしこのような縮約は,先に示した日本語の例における「けど」の扱いと同様,これらを異表記の別形態素と認定し,\ref{節:タグ付け}節で述べるように同一の正規形を設定することで,縮約の問題を回避することができる.\begin{table}\caption{連続する2形態素による縮約の例}\label{表:縮約}\y{3}\begin{center}\begin{tabular}{cc|c}\hline\hline前形態素&後形態素&縮約結果\\\hline\bdf{"3E32}&\bdf{"3E6E}\verb*||\bdf{"4156}&\bdf{"3D61}\verb*||\bdf{"4156}\\\bdf{"474F}&\bdf{"3E7A}&\bdf{"475F}\\\bdf{"4277}&\bdf{"3E7A}&\bdf{"4321}\\\bdf{"404C}\bdf{"304D}&\bdf{"404C}\footnotemark&\bdf{"404C}\bdf{"3054}\\\bdf{"474F}&\bdf{"4176}\verb*||\bdf{"3E4A}&\bdf{"4421}\verb*||\bdf{"3E4A}(\bdf{"427A})\\\hline\end{tabular}\end{center}\end{table}\footnotetext{正規形は「\bdf{"3021}」であるが,\bdf{"404C}\bdf{"304D}に続く場合は「\bdf{"404C}」となるので,表では「\bdf{"404C}」と記述した.}
\section{韓国語形態素体系}
\label{節:形態素体系}本節では,韓国語の形態素をどのように取り扱い,どのように機械処理すべきかについて述べる.まず,分かち書きをどのような書式で記述すべきかを具体的に提示し,各形態素にどのような情報を不可すべきかを述べる.次に,縮約をどのように捉え,どのような書式で記述すべきかを紹介する.\subsection{形態素情報の書式}\label{節:タグ付け}コーパスはすべて人手により,または半自動で形態素分割され,すべての形態素に品詞などの情報を付与する.我々が行なった韓国語形態素情報付与の特徴は以下の通りである.\begin{enumerate}\item1行に1形態素を記述する\item空行によって分かち書きを表現する\item形態素に縮約情報を持たせる\end{enumerate}図\ref{図:タグ付与}に形態素情報が付与された文の例を示す.図では,「\bdf{"3157}\bdf{"372F}\bdf{"3869}\verb*||\bdf{"3966}\bdf{"4038}\bdf{"374E}\verb*||\bdf{"3E48}\bdf{"333B}\bdf{"4758}\verb*||\bdf{"3565}\bdf{"382E}\bdf{"305A}\bdf{"3D40}\bdf{"344F}\bdf{"3459}.(では,お部屋にご案内いたします.)」という文に対して形態素分割され,品詞付与されている.図から分かるように,文末のピリオドに対しても,他の形態素と全く同様の書式によって情報が付与されている.各形態素は以下に示す8項目の情報を有している.すなわち,\y{3}\centerline{/文番号/形態素番号/表層形/縮約情報/正規形/品詞/活用型/属性/}\y{3}である.このうち,「縮約情報」欄については,次節で説明する.各形態素情報には,実際に文字列として出現した表層形とは別に,正規形という概念を持たせている.この両者は,意味論における表層と深層という関係にあるのではなく,計算機処理の都合上,出現形態素と形態素解析以降の処理の単位を別個にしたほうが有利であるためである.表層形と正規形が異なるのは,以下のような語である.\begin{enumerate}\item活用を行なう語\item縮約を行なう語(次節で述べる)\item音韻変化する語.例えば全く同一の意味を有するが前接する語の品詞および表記によって語形が変化する転成連結語尾「\bdf{"2424}〜」「\bdf{"3442}〜」「\bdf{"403A}〜」を同一の正規形「\bdf{"2424}〜」としている.\end{enumerate}ただし,感嘆詞の「\bdf{"306D}\bdf{"3836}\bdf{"3F4D}\bdf{"3F64}(ありがとう)」と「\bdf{"306D}\bdf{"3836}\bdf{"3F76}\bdf{"3F64}(ありがとう)」は音韻変化による異形態と考えられるが,このような語は異なる語と考えた.これは基準の明確化が困難であるのがその理由であり,本来は正規形により統一して処理するのが望ましいと考える.どこまでを音韻変化と認定するかは今後の課題である.\begin{figure}\begin{boxit}\noindent\verb|/420/10/|\bdf{"3157}\bdf{"372F}\bdf{"3869}\verb|//|\bdf{"3157}\bdf{"372F}\bdf{"3869}\verb|/|\bdf{"4122}\bdf{"3C53}\bdf{"3B67}\verb|///|\vspace{0.8\baselineskip}\noindent\verb|/420/20/|\bdf{"3966}\verb|//|\bdf{"3966}\verb|/|\bdf{"3A38}\bdf{"456B}\bdf{"386D}\bdf{"3B67}\verb|/|\bdf{"3A52}\bdf{"3021}\verb|//|\\\verb|/420/30/|\bdf{"4038}\bdf{"374E}\verb|//|\bdf{"374E}\verb|/|\bdf{"3A4E}\bdf{"3B67}\bdf{"305D}\bdf{"4136}\bdf{"3B67}\verb|///|\vspace{0.8\baselineskip}\noindent\verb|/420/40/|\bdf{"3E48}\bdf{"333B}\verb|//|\bdf{"3E48}\bdf{"333B}\verb|/|\bdf{"353F}\bdf{"405B}\bdf{"386D}\bdf{"3B67}\verb|///|\\\verb|/420/50/|\begin{epsf}\underline{\raisebox{-2pt}{\epsfile{file=1.ps,width=1zw}}\verb|/+|\bdf{"3E46}\verb|/|\bdf{"474F}}\end{epsf}\begin{draft}\underline{\raisebox{-2pt}{\atari(9,9,1bp)}\verb|/+|\bdf{"3E46}\verb|/|\bdf{"474F}}\end{draft}\verb|/|\bdf{"353F}\bdf{"3B67}\bdf{"4644}\bdf{"3B7D}\bdf{"4122}\bdf{"394C}\bdf{"3B67}\verb|///|\vspace{0.8\baselineskip}\noindent\verb|/420/60/|\underline{\bdf{"3565}\bdf{"382E}\verb|/|\bdf{"3E46}\verb|+/|\bdf{"3E6E}\\bdf{"3565}\bdf{"382E}}\verb|//|\bdf{"3A38}\bdf{"4136}\bdf{"353F}\bdf{"3B67}\verb|/|\bdf{"3154}\bdf{"4422}\verb|/|\bdf{"3A40}\bdf{"3B67}\verb|/|\\\verb|/420/70/|\begin{epsf}\raisebox{-2pt}{\epsfile{file=2.ps,width=1zw}}\end{epsf}\begin{draft}\raisebox{-2pt}{\atari(9,10,1bp)}\end{draft}\verb|//|\begin{epsf}\raisebox{-2pt}{\epsfile{file=2.ps,width=1zw}}\end{epsf}\begin{draft}\raisebox{-2pt}{\atari(9,10,1bp)}\end{draft}\verb|/|\bdf{"3C31}\bdf{"3E6E}\bdf{"383B}\bdf{"3E6E}\bdf{"394C}\verb|/|\bdf{"404F}\bdf{"395D}\verb|/|\bdf{"4047}\bdf{"4176}\verb|/|\\\verb|/420/80/|\bdf{"3D40}\bdf{"344F}\bdf{"3459}\verb|//|\bdf{"2432}\bdf{"344F}\bdf{"3459}\verb|/|\bdf{"392E}\bdf{"383B}\bdf{"3E6E}\bdf{"394C}\verb|/|\bdf{"3F6B}\bdf{"3E70}\verb|/|\bdf{"3C2D}\bdf{"3C7A}\bdf{"477C}\verb|/|\\\verb|/420/90/.//./|\bdf{"3162}\bdf{"4823}\verb|///|\end{boxit}\y{2}\caption{形態素情報付与の例}\label{図:タグ付与}\end{figure}\subsection{縮約の取り扱い}前述したように,韓国語においては縮約という現象が頻繁に起こる.これに対して,どのように情報を付与するのが計算機処理に好都合か,という問題がある.例えば,縮約を起こしている\bdf{"4758}\verb*||\bdf{"3565}\bdf{"382E}という文字列に対して,この文字列が「\bdf{"474F}」+「\bdf{"3E6E}\verb*||\bdf{"3565}\bdf{"382E}」の2形態素で構成されているという情報をどのようにして付加するか,という問題がある.これに対して,我々は以下のような方策を取った.2語による縮約された文字列に対し,縮約部分を前の形態素に含めるように文字列を分離してそれぞれの表層形と認めた.仮に縮約部分を「明らかに前の形態素に含まれる部分」「前後のどちらに含まれるか不明の部分」「明らかに後の形態素に含まれる部分」に分けると,前2要素は前の形態素表層形,最終要素を後の形態素表層形とした.\bdf{"4758}\verb*||\bdf{"3565}\bdf{"382E}の例では,以下のようになる.\begin{enumerate}\item表層形として,「\bdf{"4758}」と「\bdf{"3565}\bdf{"382E}」の2語からなる:これを表層形の欄に記述する\itemこれら2語の正規形は,それぞれ「\bdf{"474F}」「\bdf{"3E6E}\verb*||\bdf{"3565}\bdf{"382E}」である:これを正規形の欄に記述する\itemこれら2語は縮約を起こしている.すなわち「\bdf{"4758}」は後続形態素の先頭「\bdf{"3E6E}」と縮約しており,「\bdf{"3565}\bdf{"382E}」は先頭に「\bdf{"3E6E}」を本来持つ:これを縮約情報の欄に記述する\end{enumerate}これらの情報をすべて示したものが図\ref{図:タグ付与}の下線部である.この情報を利用することによって,どのような語の連続に対して縮約が行われ,その結果どのように変化するかという情報を容易に抽出することができる.その結果,形態素解析において縮約を取り扱うことが可能になり,表層形の列から正規形を復元することが可能になる.これについては,\ref{節:形態素解析}節で説明する.また,表の「\bdf{"404C}\bdf{"304D}(これ)」+「\bdf{"404C}(は)」の2形態素で「\bdf{"404C}\bdf{"3054}(これは)」と縮約する例においては,定義により表層形はそれぞれ「\bdf{"404C}\bdf{"3054}」と「(空)」となり,後者の形態素は表層形が長さ0の文字列となるが,本体系ではこのような表層が空である形態素も認める.ただしこのような形態素は,形態素解析の際に不必要な曖昧性が増大する可能性があるため,局所的な連接を考慮することによって直前で縮約が起きている一部の単語にしか接続しないことを,何らかの方法で認知する必要がある.
\section{韓国語品詞体系}
\label{節:品詞体系}\subsection{概要,総論}本論文では表\ref{表:品詞一覧}に示す33品詞を認定する.表には品詞の上位概念として便宜上13の品詞類を設けたが,処理の際には品詞類という単位は使用しない.また,基本的に品詞の下位分類は設けないが,動詞における変則型など,ある品詞において他と性質の異なる語があり,かつ機械処理にとってその性質の記述が有用と判断した場合に属性を設け,属性値を付与することがある.本論文で提案する体系の特長は以下の通りである.\begin{enumerate}\item形態素解析を考慮した品詞体系\\ほとんどの機械翻訳システムにおいて,形態素解析は必須の処理であり,形態素解析の誤りは以後の処理に大きな影響を与える.そこで,従来のように形態素解析の誤りを解析処理のみに帰属した問題と捉えるのではなく,形態素及び品詞体系の問題としても捉え,できるだけ誤りのないように体系を設計した.具体的には,多品詞語が局所的な情報のみで解決できるように品詞の設定を行ない,語の前後の接続を考慮することによって弁別できるように調整を行なった.この際,\ref{節:形態素解析}節に述べる形態素解析エンジンを実際に使用し,この形態素解析誤りを分析することで体系の調整を試みた.ただし,局所的な情報のみで弁別することが極めて困難な語であっても,品詞が異なる場合に意味の違いが著しく,機械翻訳の観点から同一の品詞にすることが好ましくない場合に対しては,それぞれの品詞を設定した.\item機械翻訳を考慮した品詞の細分化\\機械翻訳処理の際に必要となる機能語に対して,形態素解析が可能な範囲で品詞を細分化した.このため,例えば「朝鮮語辞典」\cite{朝鮮語辞典}のような辞書における「語尾」「助詞」「接尾辞」などは機械翻訳の際に重要な役割を果たすと判断したためそれぞれ3分類,8分類,4分類されており,細かな品詞体系となっている.また,全品詞の中で最も所属語数の多い名詞に対しても,一般的な分類である名詞,代名詞,数詞の3分類を主にその機能によってさらに細分化し,新たに固有名詞,動作名詞,形容名詞,ローマ字を設定した.\item翻訳処理に不要な品詞の統合\\前項とは逆に,機械翻訳の際に必要のない品詞分類は統合した.例えば,動詞は「朝鮮語辞典」\cite{朝鮮語辞典}においては自動詞,他動詞,使役動詞,受動動詞と細分類されている.しかし,日本語と同様,同一の動詞が場合により自動詞と他動詞のどちらにもなる場合が多く見受けられ,またその場合の品詞決定すなわち形態素解析が容易でない例も多い.一方本体系を使用した翻訳システムTDMT\cite{古瀬99}においては自動詞,他動詞,使役動詞,受動動詞の区別は(品詞以外の情報で判断するため)必要なく,これらを一つの品詞「動詞」に統合した.\item「記号」の設定\\テキストを機械処理することを考えた場合,``,''や``.''などの記号も文字と同様の扱いをするのが都合がよい.このため,これらの記号も一つの形態素という立場を取り,これらに対して「記号」という品詞を設定した.\end{enumerate}また,本体系の基準は以下の通りである.\begin{itemize}\item最短単位分割の原則:原則として,分割可能な語は可能な限り短い単位に分割する.\item綴字法は「\bdf{"4751}\bdf{"315B}\\bdf{"3842}\bdf{"4363}\bdf{"397D}・\bdf{"4725}\bdf{"4158}\bdf{"3E6E}\\bdf{"4758}\bdf{"3C33}」\cite{ハングル綴字法}を基準とする.ただし最短単位分割の原則を優先する.この結果,合成動詞等も極力分解し,わかち書きにおいて上掲書の原則とは異なる.\item外来語表記については,日本語は「朝鮮語辞典」\cite{朝鮮語辞典},その他言語は「\bdf{"3139}\bdf{"3E6E}\bdf{"346B}\bdf{"3B67}\bdf{"407C}」\cite{国語大辞典}を参照する.\end{itemize}\begin{table}\begin{center}\caption{韓国語品詞一覧}\y{3}\label{表:品詞一覧}\begin{tabular}{l|l}\hline\hline品詞類&品詞\\\hline名詞類&普通名詞,固有名詞,動作名詞,形容名詞,ローマ字,代名詞,数詞\\\hline(動詞)&動詞\\\hline(形容詞)&形容詞\\\hline補助用言類&補助用言,補助動詞,補助形容詞\\\hline語尾類&先語末語尾,転成連結語尾,文末語尾\\\hline(冠形詞)&冠形詞\\\hline(接続詞)&接続詞\\\hline(副詞)&副詞\\\hline(感嘆詞)&感嘆詞\\\hline助詞類&主格助詞,冠形格助詞,目的格助詞,叙述格助詞\\&接続格助詞,副詞格助詞,主題補助詞,一般補助詞\\\hline(接頭辞)&接頭辞\\\hline接尾辞類&名詞形接尾辞,動詞派生接尾辞,形容詞派生接尾辞,副詞派生接尾辞\\\hline(記号)&記号\\\hline\end{tabular}\end{center}\end{table}\subsection{品詞定義}各品詞別に説明,例,注意すべき事項を述べる.所属する語句が少数の場合は,全語を列挙する.また以下の説明においては,紛らわしい語句などに対して適宜日本語の対訳を付与する.また,品詞ならびに属性を<$\cdots$>で表現する.例えば,「不可」という属性を持つ普通名詞を<普通名詞/不可>と記述する.\subsubsection{固有名詞}[説明]人名,国名,地名,団体名,書名,商品名(登録商標)等.日本語文法の「固有名詞」と同一概念.\begin{quote}{\bf[例]}\bdf{"3168}(金),\bdf{"3459}\bdf{"374E}(太郎),\bdf{"346B}\bdf{"4751}\\bdf{"4757}\bdf{"3078}(大韓航空),\bdf{"3535}\bdf{"446C}(東京),\bdf{"3D3A}\bdf{"4664}\bdf{"3C48}\\bdf{"445A}\bdf{"3D3A}(スペシャルコース),\bdf{"3F76}\bdf{"4529}\bdf{"3847}(ウォークマン),\bdf{"3F40}\bdf{"3B67}\bdf{"442B}\bdf{"4136}\\bdf{"3078}\bdf{"3F78}(大阪城公園),\bdf{"4126}\bdf{"404C}\bdf{"3E46}\bdf{"3823}(JR),\bdf{"3164}\bdf{"4557}\bdf{"3E32}(近鉄),\bdf{"4751}\bdf{"3139}\bdf{"3E6E}(韓国語)\end{quote}\subsubsection{動作名詞}[説明]\bdf{"474F}\bdf{"3459}が後接することにより動詞として働く名詞.機能的には,「する」が後接することで動詞として働く日本語のサ変名詞に対応する.ただし,\bdf{"336B}\bdf{"3721}(歌)や\bdf{"353F}\bdf{"3066}(憧れ)などのように、韓国語の動作名詞に属する語が日本語のサ変名詞に属するとは限らない。\begin{quote}{\bf[例]}\bdf{"315D}\bdf{"3F2C}(禁煙),\bdf{"3459}\bdf{"3832}\bdf{"417A}(アイロンがけ),\bdf{"373B}\bdf{"4550}(レンタル),\bdf{"3845}\bdf{"4178}(完売),\bdf{"3B7D}\bdf{"3022}(考え),\bdf{"3C2D}\bdf{"3A71}\bdf{"3D3A}(サービス),\bdf{"3C31}\bdf{"3930}(プレゼント),\bdf{"3D3A}\bdf{"4530}(スキー),\bdf{"3D43}\bdf{"405B}(始まり),\bdf{"427C}\bdf{"306D}(参考)\end{quote}\subsubsection{形容名詞}[説明]\bdf{"474F}\bdf{"3459}が後接することにより形容詞として働く名詞.漢字語および外来語.「だ/な」が後接することで形容動詞として働く名詞(以下,形容名詞と呼ぶ)に対応する.\begin{quote}{\bf[例]}\bdf{"3021}\bdf{"3449}(可能),\bdf{"3023}\bdf{"345C}(簡単),\bdf{"306F}\bdf{"3675}(困難),\bdf{"3459}\bdf{"4760}(幸い),\bdf{"3A39}\bdf{"4062}(複雑),\bdf{"3A4E}\bdf{"4137}(不足),\bdf{"3F2D}\bdf{"3D49}(一所懸命),\bdf{"404C}\bdf{"3B73}(変),\bdf{"445E}\bdf{"4651}\bdf{"462E}(コンパクト),\bdf{"462F}\bdf{"3A30}(特別),\bdf{"474A}\bdf{"3F64}(入り用)\end{quote}ただし,以下の2語は形容名詞としない.\begin{description}\item[\underline{\bdf{"346B}\bdf{"345C}(大端)}]大端が当て字なのでこれと認めない.すなわち\bdf{"346B}\bdf{"345C}\bdf{"474F}(えらい)は形容詞,\bdf{"346B}\bdf{"345C}\bdf{"4877}(誠に)は副詞とする.\item[\underline{\bdf{"3535}\bdf{"407A}(到底)}]\bdf{"474F}\bdf{"3459}がつくときと\bdf{"4877}がつくときとで\bdf{"3535}\bdf{"407A}(到底)の意味が変化するため.従って,\bdf{"3535}\bdf{"407A}\bdf{"474F}(徹底している)は形容詞,\bdf{"3535}\bdf{"407A}\bdf{"4877}(とうてい)は副詞とする.\end{description}\subsubsection{普通名詞}[説明]同一種類の事物を示す語で固有名詞,動作名詞,形容名詞を除いたもの.本体系では,普通名詞を数量表現の違いによって「不可」「漢字数」「ハングル数」「選択」の4項目に分類する.この属性は,韓国語形態素解析での曖昧性抑制,及び韓国語生成での数字生成の際に使用する.\begin{description}\item[{[不可]}]数量表現する際,数詞がその直前にこない普通名詞.\begin{quote}{\bf[例]}\bdf{"307C}\bdf{"333B}(館内),\bdf{"332A}\bdf{"415F}(あと),\bdf{"332D}(欄),\bdf{"333B}\bdf{"404F}(明日),\bdf{"3459}\bdf{"3459}\bdf{"394C}\\bdf{"3966}(和室),\bdf{"3551}\bdf{"404C}(ふたり),\bdf{"376B}\\bdf{"3C2D}\bdf{"3A71}\bdf{"3D3A}(ルームサービス),\bdf{"3838}\bdf{"333B}(湾内),\bdf{"3867}\bdf{"4425}(何日),\bdf{"3968}\bdf{"466D}(船便)\end{quote}\begin{itemize}\item〜\bdf{"3021}(街),〜\bdf{"3028}(感),〜\bdf{"3068}(係),〜\bdf{"3761}(料),〜\bdf{"3A4E}(中心部の部),〜\bdf{"3D47}(室),〜\bdf{"405A}(者),〜\bdf{"4121}(点,店),〜\bdf{"4126}(制,製),〜\bdf{"4176}(地)等は前接する語と共に一形態素と認め,<普通名詞/不可>とする.ただし,〜\bdf{"4121}(点)については数詞が先行するときのみ<普通名詞/選択>とする.\item「\bdf{"404C}\\bdf{"3F2A}\bdf{"404C}\\bdf{"3D45}\bdf{"434C}\bdf{"404C}\\bdf{"3842}\bdf{"3D40}\bdf{"344F}\bdf{"316E}?」(この駅はシンチョンで合っていますか?)の\bdf{"3F2A}(駅)は<普通名詞/不可>とし,\bdf{"3C2D}\bdf{"3F6F}\bdf{"3F2A}(ソウル駅),\bdf{"3D45}\bdf{"434C}\bdf{"3F2A}(シンチョン駅)の\bdf{"3F2A}(駅)は<名詞形接尾辞>とする.\item数詞+\bdf{"356E}(等)は一形態素と認め,<普通名詞/不可>とする.\item\bdf{"466D}について.方向,側,便等を表す\bdf{"466D}について,以下の基準により区別する.\begin{enumerate}\item冠形詞+方向,側の\bdf{"466D}:先行する冠形詞とともに一形態素として<普通名詞/不可>\\{\bf[例]}\bdf{"3F40}\bdf{"3825}\bdf{"466D}(右側),\bdf{"3F5E}\bdf{"466D}(左側)\item普通名詞(または動作名詞)+方向,側の\bdf{"466D}:2形態素に分けて<普通名詞>+\bdf{"466D}<普通名詞/不可>\\{\bf[例]}\bdf{"3047}\bdf{"334A}\bdf{"466D}(向こう側),\bdf{"355A}\bdf{"466D}(後ろ側),\bdf{"395D}\bdf{"346B}\bdf{"466D}(反対側)\item交通,郵便,便数の\bdf{"466D}:<普通名詞/選択>\\{\bf[例]}\bdf{"442E}\\bdf{"4425}\\bdf{"404C}\\bdf{"3B6F}\\bdf{"466D}(KAL723便)\bdf{"474F}\bdf{"3767}\bdf{"3F21}\\bdf{"354E}\\bdf{"466D}\\bdf{"4056}\bdf{"3459}.(一日2便ある.)\bdf{"3459}\bdf{"3825}\\bdf{"466D}\bdf{"4038}\bdf{"374E}\\bdf{"3A4E}\bdf{"4346}\bdf{"3459}.(別便で送った.)ただし,\bdf{"3968}\bdf{"466D}(船便),\bdf{"3C31}\bdf{"466D}(船便),\bdf{"3F6C}\bdf{"466D}(右側),\bdf{"4757}\bdf{"3078}\bdf{"466D}(航空便)など,前接する語と共に辞書\cite{朝鮮語辞典}の一見出し語としてでてくるものについては各々前接する語と共に一形態素とし,<普通名詞/不可>とする.\item<転成連結語尾/冠形形>+\bdf{"466D}のうち,文末にその形が現れるもの:〜\bdf{"3442}/\bdf{"403A}/\bdf{"2424}\\bdf{"466D}\bdf{"404C}<補助形容詞/規則/傾向>\\{\bf[例]}\bdf{"3F40}\bdf{"3443}\bdf{"403A}\\bdf{"4126}\bdf{"397D}\\bdf{"357B}\bdf{"3666}\bdf{"4751}\\bdf{"466D}\bdf{"4054}\bdf{"344F}\bdf{"3459}.(今日はわりと暖かいほうです.)\item<転成連結語尾/冠形形>+\bdf{"466D}のうち,文中にその形が現れ,\bdf{"466D}(方,側)に後接する\bdf{"404C}が主格助詞の\bdf{"404C}であるもの:\bdf{"466D}<普通名詞/不可>\\{\bf[例]}\bdf{"3976}\bdf{"3D3A}\bdf{"374E}\\bdf{"3021}\bdf{"3442}\\bdf{"466D}\bdf{"404C}\\bdf{"3475}\\bdf{"3A7C}\bdf{"3823}\bdf{"4176}\bdf{"3F64}.(バスで行く方がより速いですよ.)\end{enumerate}\item多品詞語「\bdf{"3A50}」について,以下のように区別する.\begin{enumerate}\item(何時間)何分(何秒)の\bdf{"3A50}:<普通名詞/漢字数>\\{}{\bf[例]}\bdf{"4751}\\bdf{"3D43}\bdf{"3023}\\bdf{"3B6F}\bdf{"3D4A}\\bdf{"3A50}(1時間30分)\item人に対する尊敬語の\bdf{"3A50}:<普通名詞/ハングル数>\\{}{\bf[例]}\bdf{"3E6E}\bdf{"3C2D}\\bdf{"3F40}\bdf{"3C3C}\bdf{"3F64}.\\bdf{"3C3C}\\bdf{"3A50}\bdf{"404C}\bdf{"3D4A}\bdf{"344F}\bdf{"316E}?(いらっしゃいませ.三名様ですか.)\item分け前,分量の\bdf{"3A50}:<名詞形接尾辞>\\{}{\bf[例]}\bdf{"3B6F}\bdf{"3068}\bdf{"4541}\\bdf{"404C}\bdf{"404E}\bdf{"3A50}\\bdf{"4156}\bdf{"3C3C}\bdf{"3F64}.(サムゲタン二人前ください.)\end{enumerate}\item\bdf{"306D}\bdf{"3C53}\\bdf{"3976}\bdf{"3D3A}(ハイウェイバス),\bdf{"4177}\bdf{"4760}\\bdf{"3976}\bdf{"3D3A}(直行バス),\bdf{"462F}\bdf{"315E}\\bdf{"3F2D}\bdf{"4277}(特急列車),\bdf{"3F4F}\bdf{"4760}\\bdf{"3F2D}\bdf{"4277}(鈍行列車),\bdf{"306D}\bdf{"3C53}\\bdf{"4664}\bdf{"382E}(高速フェリー)など,漢字語が先行することによってできた合成名詞中,乗物名については,先行する漢字語と〜\bdf{"3976}\bdf{"3D3A}(バス),〜\bdf{"3F2D}\bdf{"4277}(列車),〜\bdf{"4664}\bdf{"382E}(フェリー)を分けて処理する.ただし,\bdf{"3A4E}\bdf{"307C}\\bdf{"4664}\bdf{"382E}(釜関フェリー)のように,固有名詞のものは分けない.\end{itemize}\item[{[漢字数]}]漢字数(\bdf{"404F},\bdf{"404C},\bdf{"3B6F}...)を先行させることで数量,順序計算できる普通名詞.\begin{quote}{\bf[例]}\bdf{"3139}(局),\bdf{"3362}(年),\bdf{"394C}\bdf{"454D}(メートル),\bdf{"395A}(泊),\bdf{"3A50}(分),\bdf{"3F78}(ウォン),\bdf{"3F79}(月),\bdf{"404E}(人),\bdf{"404F}(日),\bdf{"4823}\bdf{"3D47}(号室)\end{quote}\item[{[ハングル数]}]ハングル数(\bdf{"474F}\bdf{"332A},\bdf{"3551},\bdf{"3C42}...)を先行させることで数量,順序計算できる普通名詞.\begin{quote}{\bf[例]}\bdf{"3033}(ヶ),\bdf{"3047}(件),\bdf{"3A50}(分),\bdf{"3B67}\bdf{"3677}(人),\bdf{"3D43}\bdf{"3023}(時間),\bdf{"3E4B}(粒),\bdf{"405A}\bdf{"382E}(席),\bdf{"4065}(枚),\bdf{"4159}(列),\bdf{"424A}(かけら),\bdf{"4277}\bdf{"374A}(回)\end{quote}\item[{[選択]}]文脈により漢字数,ハングル数のいずれかを先行させることで数量,順序計算できる普通名詞.\begin{quote}{\bf[例]}\bdf{"3978}(度,番),\bdf{"3A4E}(部),\bdf{"3B76}(色),\bdf{"3D43}(時),数詞+\bdf{"4121}(点),\bdf{"445A}\bdf{"3D3A}(コース)\end{quote}\begin{itemize}\item\bdf{"3978}$\longrightarrow$\bdf{"4176}\bdf{"474F}\bdf{"4336}\\bdf{"3F40}\\bdf{"3978}\\bdf{"4362}\bdf{"3138}(地下鉄25番出口)\bdf{"4751}\bdf{"3139}\bdf{"3F21}\bdf{"3442}\\bdf{"3459}\bdf{"3C38}\\bdf{"3978}\\bdf{"3021}\\bdf{"3A43}\bdf{"3459}.(韓国には5回(度)行った.)\item\bdf{"3A4E}$\longrightarrow$\bdf{"3870}\bdf{"3721}\bdf{"3D43}\bdf{"3068}\\bdf{"4126}\\bdf{"4030}\\bdf{"3A4E}(モレシゲ第6話)\bdf{"4136}\bdf{"3C31}\\bdf{"404F}\bdf{"3A38}\\bdf{"3357}\\bdf{"3A4E}\\bdf{"4156}\bdf{"3C3C}\bdf{"3F64}.(朝鮮日報4部ください.)\item\bdf{"3D43}$\longrightarrow$\bdf{"3459}\bdf{"3C38}\\bdf{"3D43}(5時)\bdf{"3D4A}\bdf{"4425}\\bdf{"3D43}または\bdf{"3F2D}\bdf{"404F}\bdf{"3076}\\bdf{"3D43}(17時)\item\bdf{"445A}\bdf{"3D3A}$\longrightarrow$\bdf{"4126}\\bdf{"3B6F}\\bdf{"445A}\bdf{"3D3A}(第3コース)\bdf{"3459}\bdf{"3C38}\\bdf{"445A}\bdf{"3D3A}\\bdf{"4056}\bdf{"3442}\\bdf{"472E}(5コースあるプール)\item\bdf{"3B76}(色)について.先行する語が<形容詞>+<転成連結語尾/冠形形>のとき,\bdf{"3B76}は単独で<普通名詞/選択>とし,それ以外のときは前接する語と共に一形態素と認める.\vspace{\baselineskip}{\bf[例]}\bdf{"4644}\bdf{"3675}\\bdf{"3B76}(青い色),\bdf{"4872}\\bdf{"3B76}(白い色)$\longrightarrow$<形容詞>+<転成連結語尾/冠形形>+\bdf{"3B76}<普通名詞/選択>\\{\bf[例]}\bdf{"304B}\bdf{"4124}\bdf{"3B76}(黒色),\bdf{"3A50}\bdf{"482B}\bdf{"3B76}(ピンク色)$\longrightarrow$<普通名詞/不可>\vspace{\baselineskip}\item\bdf{"4121}(点)について,先行する語が数詞以外のときは,前接する語と共に一形態素と認め,<普通名詞/不可>とする.\vspace{\baselineskip}{\bf[例]}\bdf{"3162}\bdf{"4158}\bdf{"4121}(基準点),\bdf{"4047}\bdf{"392E}\bdf{"4121}(疑問点)$\longrightarrow$<普通名詞/不可>\\{\bf[例]}\bdf{"3F35}\\bdf{"4121}\\bdf{"3B6F}(4.3),\bdf{"354E}\\bdf{"4121}\bdf{"403B}\\bdf{"4176}\bdf{"332A}\\bdf{"3021}\bdf{"3459}(二つの点を通る)$\longrightarrow$<普通名詞/選択>\end{itemize}\end{description}\subsubsection{代名詞}[説明]ある事物や概念を具体的に表さず代わって表現する時に用いられる語.ただし,「こっち」の\bdf{"404C}\bdf{"382E},「あっち」の\bdf{"407A}\bdf{"382E}等は副詞とする.\begin{quote}{\bf[例]}\bdf{"404C}\bdf{"304D}(これ),\bdf{"407A}\bdf{"304D}(あれ),\bdf{"3F29}\bdf{"3162}(ここ),\bdf{"3045}\bdf{"3162}(そこ),\bdf{"3F29}\bdf{"3162}\bdf{"407A}\bdf{"3162}(あちこち),\bdf{"3E6E}\bdf{"3570}(どこ),\bdf{"3157}(彼),\bdf{"407A}(私),\bdf{"332A}(僕),\bdf{"3467}\bdf{"3D45}(あなた)\end{quote}\subsubsection{数詞}[説明]事物の数量や順序を表す語.最短単位分割を原則とする.なお,属性として以下の二つを区別,付与する.\begin{description}\item[{[漢字数]}]\bdf{"3F35}(零),\bdf{"404F}(一),\bdf{"404C}(二),\bdf{"3B6F}(三),\bdf{"3B67}(四),\bdf{"3F40}(五),\bdf{"4030}(\bdf{"402F})(六),\bdf{"4425}(七),\bdf{"4648}(八),\bdf{"3138}(九),\bdf{"3D4A}(\bdf{"3D43})(十),\bdf{"3969}(百),\bdf{"4335}(千),\bdf{"3838}(万)\item[{[ハングル数]}]\bdf{"3078}(ゼロ),\bdf{"474F}\bdf{"332A}(\bdf{"4751})(ひとつ),\bdf{"3551}(\bdf{"354E})(ふたつ),\bdf{"3C42}(\bdf{"3C3C},\bdf{"3C2E})(みっつ),\bdf{"335D}(\bdf{"3357},\\bdf{"334B})(よっつ),\bdf{"3459}\bdf{"3C38}(いつつ)\end{description}\subsubsection{ローマ字}[説明]単に羅列されたローマ字表記で以下の26語をこれと認める.\begin{quote}\bdf{"3F21}\bdf{"404C}(a),\bdf{"3A71}(b),\bdf{"3D43}(c),\bdf{"3570}(d),\bdf{"404C}(e),\bdf{"3F21}\bdf{"4741}(f),\bdf{"4176}(g),\bdf{"3F21}\bdf{"404C}\bdf{"4421}(h),\bdf{"3E46}\bdf{"404C}(i),\bdf{"4126}\bdf{"404C}(j),\bdf{"4449}\bdf{"404C}(k),\bdf{"3F24}(l),\bdf{"3F25}(m),\bdf{"3F23}(n),\bdf{"3F40}(o),\bdf{"4747}(p),\bdf{"4525}(q),\bdf{"3E46}\bdf{"3823}(r),\bdf{"3F21}\bdf{"3D3A}(s),\bdf{"463C}(t),\bdf{"402F}(u),\bdf{"3A6A}\bdf{"404C}(v),\bdf{"3475}\bdf{"3A6D}\bdf{"3779}(w),\bdf{"3F22}\bdf{"3D3A}(x),\bdf{"3F4D}\bdf{"404C}(y),\bdf{"4126}\bdf{"462E}(z)\end{quote}\subsubsection{動詞}[説明]事物の動作や作用を表す語.活用する.日本語の動詞とほぼ同一概念.活用の種類によって区別し,これを属性として記述する.\begin{itemize}\item動詞に補助動詞\bdf{"3E46}/\bdf{"3E6E}\\bdf{"3021},\bdf{"3E46}/\bdf{"3E6E}\\bdf{"3F40},\bdf{"3E46}/\bdf{"3E6E}\\bdf{"3A38},\bdf{"3E46}/\bdf{"3E6E}\\bdf{"4156},\bdf{"3E46}/\bdf{"3E6E}\\bdf{"4176}等が後接してできたいわゆる合成動詞は次に挙げるもののみを動詞と認める.\begin{tabular}{ll}動詞+\bdf{"3E46}/\bdf{"3E6E}\\bdf{"3021},\bdf{"3F40}&\bdf{"3021}\bdf{"412E}\bdf{"3021}(\bdf{"3045}\bdf{"3673}-不規則)\\&\bdf{"3021}\bdf{"412E}\bdf{"3F40}(\bdf{"334A}\bdf{"3673}-不規則)\\&\bdf{"3049}\bdf{"3E6E}\bdf{"3021}(\bdf{"3045}\bdf{"3673}-不規則)\\&\bdf{"3049}\bdf{"3E6E}\bdf{"3F40}(\bdf{"334A}\bdf{"3673}-不規則)\\&\bdf{"332A}\bdf{"3021}(\bdf{"3045}\bdf{"3673}-不規則)\\&\bdf{"332A}\bdf{"3F40}(\bdf{"334A}\bdf{"3673}-不規則)\\&\bdf{"333B}\bdf{"3741}\bdf{"3021}(\bdf{"3045}\bdf{"3673}-不規則)\\&\bdf{"333B}\bdf{"3741}\bdf{"3F40}(\bdf{"334A}\bdf{"3673}-不規則)\\&\bdf{"3459}\bdf{"3360}\bdf{"3021}(\bdf{"3045}\bdf{"3673}-不規則)\\&\bdf{"3459}\bdf{"3360}\bdf{"3F40}(\bdf{"334A}\bdf{"3673}-不規則)\\&\bdf{"3539}\bdf{"3E46}\bdf{"3F40}(\bdf{"334A}\bdf{"3673}-不規則)\\&\bdf{"3539}\bdf{"3E46}\bdf{"3021}(\bdf{"3045}\bdf{"3673}-不規則)\\&\bdf{"3569}\bdf{"3E6E}\bdf{"3021}(\bdf{"3045}\bdf{"3673}-不規則)\\&\bdf{"3569}\bdf{"3E6E}\bdf{"3F40}(\bdf{"334A}\bdf{"3673}-不規則)\\&\bdf{"3F43}\bdf{"3673}\bdf{"3021}(\bdf{"3045}\bdf{"3673}-不規則)\\&\bdf{"3F43}\bdf{"3673}\bdf{"3F40}(\bdf{"334A}\bdf{"3673}-不規則)\\動詞+\bdf{"3E46}/\bdf{"3E6E}\\bdf{"3A38}&\bdf{"3959}\bdf{"3673}\bdf{"3A38}(規則)\\&\bdf{"3E4B}\bdf{"3E46}\bdf{"3A38}(規則)\\&\bdf{"4323}\bdf{"3E46}\bdf{"3A38}(規則)\\動詞+\bdf{"3E46}/\bdf{"3E6E}\\bdf{"4156}&\bdf{"3539}\bdf{"3741}\bdf{"4156}(規則){\small(下記参照)}\\動詞+\bdf{"3E46}/\bdf{"3E6E}\\bdf{"4176}&\bdf{"3351}\bdf{"3E6E}\bdf{"4176}(規則)\\&\bdf{"3633}\bdf{"3E6E}\bdf{"4176}(規則)\\&\bdf{"3841}\bdf{"3021}\bdf{"4176}(規則)\\&\bdf{"476C}\bdf{"3E6E}\bdf{"4176}(規則)\\\end{tabular}\item\bdf{"3539}\bdf{"3741}\bdf{"4156}について,その意味により以下のように区別する.\begin{enumerate}\item\bdf{"3539}\bdf{"3741}\bdf{"4156}が「配る,配布する,回す+てください」という意味で使われているとき,\bdf{"3539}\bdf{"382E}<動詞/規則>+\bdf{"3E6E}\verb*||\bdf{"4156}<補助動詞/規則>とする.この場合,\bdf{"3741}\と\bdf{"4156}\の間に空白が入り,\bdf{"3539}\bdf{"3741}\verb*!!\bdf{"4156}と表記される.\item\bdf{"3539}\bdf{"3741}\bdf{"4156}が「返す,返還する」という意味で使われている場合,\bdf{"3539}\bdf{"3741}\bdf{"4156}<動詞/規則>とする.この場合,\bdf{"3741}\と\bdf{"4156}\の間に空白は入らず,\bdf{"3539}\bdf{"3741}\bdf{"4156}と表記される.\end{enumerate}\item<動詞/規則>の\bdf{"3547}について,その日本語対訳により以下のように区別する.\begin{enumerate}\item「〜できる」と日本語訳されるもの\vspace{\baselineskip}\begin{example}\item\bdf{"3068}\bdf{"3B6A}\bdf{"404C}\\bdf{"3547}\bdf{"3E7A}\bdf{"3D40}\bdf{"344F}\bdf{"3459}.(計算できました.)\item\bdf{"3068}\bdf{"3B6A}<動作名詞>\bdf{"404C}<主格助詞>\bdf{"3547}<動詞/規則>\bdf{"3E7A}<先語末語尾/一般/過去>\bdf{"3D40}\bdf{"344F}\bdf{"3459}<文末語尾/用言/叙述形>.<記号>\end{example}先行する動作名詞の後ろに主格助詞の\bdf{"3021}/\bdf{"404C}が存在する時,また存在しない時(この場合,先行する動作名詞と\bdf{"3547}はわかち書きされる)はそれを挿入して意味がとおる場合,\bdf{"3547}は<動詞/規則>とする.ただし,先行する動作名詞の後ろに主格助詞の\bdf{"3021}/\bdf{"404C}が入っていても文によっては「〜できる」ではなく,「〜(が)なされる」と訳されることがある.この時も\bdf{"3021}/\bdf{"404C}が入っていれば\bdf{"3547}は<動詞/規則>とする.「〜(が)なされる」と訳され,\bdf{"3021}/\bdf{"404C}が入っていない場合(この場合,先行する動作名詞と\bdf{"3547}はわかち書きされない)は下記項目の\bdf{"3547}は<動詞派生接尾辞>となる.\item「〜(に)なる」と日本語訳されるもの\vspace{\baselineskip}\begin{example}\item\bdf{"3078}\bdf{"3A4E}\bdf{"3021}\\bdf{"3547}\bdf{"3E7A}\bdf{"3D40}\bdf{"344F}\bdf{"3459}.(勉強になりました.)\item\bdf{"3078}\bdf{"3A4E}<動作名詞>\bdf{"3021}<副詞格助詞>\bdf{"3547}<動詞/規則>\bdf{"3E7A}<先語末語尾/一般/過去>\bdf{"3D40}\bdf{"344F}\bdf{"3459}<文末語尾/用言/叙述形>.<記号>\end{example}先行する動作名詞の後ろに副詞格助詞の\bdf{"3021}/\bdf{"404C}が存在したり,副詞\bdf{"3E6E}\bdf{"363B}\bdf{"3054},\bdf{"404C}\bdf{"3738}\bdf{"3054}等が先行して,「〜(に)なる」「〜(に)該当する」と訳される時,\bdf{"3547}は<動詞/規則>とする.\item動作名詞に後接して自動詞,受動動詞をつくり,「〜される」「〜になる」と日本語訳されるもの\vspace{\baselineskip}\begin{example}\item\bdf{"3A38}\bdf{"3535}\bdf{"3547}\bdf{"3E7A}\bdf{"3D40}\bdf{"344F}\bdf{"3459}.(報道されました.)\item\bdf{"3A38}\bdf{"3535}<動作名詞>\bdf{"3547}<動詞派生接尾辞>\bdf{"3E7A}<先語末語尾/一般/過去>\bdf{"3D40}\bdf{"344F}\bdf{"3459}<文末語尾/用言/叙述形>.<記号>\vspace{\baselineskip}\item\bdf{"3D43}\bdf{"405B}\bdf{"3547}\bdf{"3E7A}\bdf{"3D40}\bdf{"344F}\bdf{"3459}.(始まりました.)\item\bdf{"3D43}\bdf{"405B}<動作名詞>\bdf{"3547}<動詞派生接尾辞>\bdf{"3E7A}<先語末語尾/一般/過去>\bdf{"3D40}\bdf{"344F}\bdf{"3459}<文末語尾/用言/叙述形>.<記号>\end{example}先行する動作名詞の直後(わかち書きされずに)に\bdf{"3547}がきたとき,\bdf{"3547}は<動詞派生接尾辞>となる.\itemその他\\「(桝で)量る」などの意味の場合\bdf{"3547}は<動詞/規則>となり,「(水分が少なく)固い,厳しい」などの意味の場合\bdf{"3547}は<形容詞/規則>となる.\end{enumerate}\item\bdf{"3E48}+\bdf{"3547}\bdf{"3459}について.その意味により以下のように区別する.\begin{enumerate}\item\bdf{"3E48}+\bdf{"3547}\bdf{"3459}が禁止の「だめ」という意味で用いられる時,\bdf{"3E48}\bdf{"3547}を一形態素とし,<動詞/規則>とする.この場合\bdf{"3E48}\bdf{"3547}はわかち書きしない.(補助動詞の\bdf{"3E48}\bdf{"3547}もこれに該当するので,わかち書きしない.)\item上記以外で,\bdf{"3547}\bdf{"3459}の品詞が動詞の場合,\bdf{"3E48}<副詞>+\bdf{"3547}<動詞/規則>とする.この場合\bdf{"3E48}と\bdf{"3547}はわかち書きする.\end{enumerate}\item\bdf{"3854}\bdf{"3459}(食べる,飲む)の美化語\bdf{"3569}\bdf{"3459}(召し上がる)に尊敬の先語末語尾\bdf{"3D43}がついた\bdf{"3565}\bdf{"3D43}\bdf{"3459}(召し上がる),\bdf{"3854}\bdf{"3459}(食べる,飲む)の尊敬語\bdf{"4062}\bdf{"3C76}\bdf{"3459}(召し上がる)に尊敬の先語末語尾\bdf{"3D43}がついた\bdf{"4062}\bdf{"3C76}\bdf{"3D43}\bdf{"3459}(召し上がる)も一形態素とし,動詞と認める.\end{itemize}\subsubsection{形容詞}[説明]事物の状態,性質がどうであるかを説明する語.活用する.日本語の形容詞もしくは形容名詞とほぼ同一概念.\begin{quote}{\bf[例]}\bdf{"3021}\bdf{"3175}(近い),\bdf{"302D}\bdf{"474F}(強い),\bdf{"3E46}\bdf{"3827}\bdf{"3464}(美しい),\bdf{"347E}(暑い),\bdf{"3A71}\bdf{"3D4E}(高い),\bdf{"3A71}\bdf{"3D41}\bdf{"474F}(似ている),\bdf{"3459}\bdf{"3823}(違う),\bdf{"306D}\bdf{"4741}(減る),\bdf{"4136}\bdf{"3F6B}\bdf{"474F}(静か),\bdf{"3068}\bdf{"3D43}(いらっしゃる)\end{quote}\begin{itemize}\item存在詞の問題\\一般には存在詞とされている\bdf{"3068}\bdf{"3D43}(いらっしゃる)は\ref{節:存在詞}節に述べる理由で,形容詞とする.\end{itemize}\subsubsection{補助用言}[説明]語の末尾に接続し,その意味を補う役割をする語のうち,後述する補助動詞,補助形容詞を除いたもの.活用する.ここでは,否定の\bdf{"4176}(\bdf{"2424},\bdf{"3442},\bdf{"2429},\bdf{"3535})\bdf{"3878}\bdf{"474F}と\bdf{"4176}(\bdf{"2424},\bdf{"3442},\bdf{"2429},\bdf{"3535})\bdf{"3E4A}のみこれと認める.\subsubsection{補助動詞}[説明]語の末尾に接続し,その意味を補う役割をする語.\bdf{"2424}<転成連結語尾/冠形形/現在>が後接すると動詞後接時と同様に活用する.同一の語であっても翻訳の際に大きく翻訳結果が変化する場合があるため,その意味的内容により,「変化」「受動」などの属性を持つ場合がある.\begin{itemize}\item<補助動詞/変化>の\bdf{"3E6E}\\bdf{"4176}と<補助動詞/受動>の\bdf{"3E6E}\\bdf{"4176}について,形容詞に接続している時は<補助動詞/変化>,動詞に接続している時は<補助動詞/受動>,と区別する.\end{itemize}\subsubsection{補助形容詞}[説明]語の末尾に接続し,その意味を補う役割をする語.\bdf{"2424}<転成連結語尾/冠形形/現在>が後接すると形容詞後接時と同様に活用する.\begin{itemize}\item結論の意味を表す\bdf{"3442}/\bdf{"403A}/\bdf{"2424}\\bdf{"304D}\bdf{"404C}は,文末に現れた時のみ<補助形容詞/規則/結論>とし,その他文中で現れた時は\bdf{"3442}/\bdf{"403A}/\bdf{"2424}<転成連結語尾/冠形形>+\bdf{"304D}<普通名詞/不可>とする.\end{itemize}\subsubsection{先語末語尾}[説明]語の末尾に接続しその意味を補う働きをする語.\begin{itemize}\item<先語末語尾/現在>の\bdf{"2424}/\bdf{"3442}とは,動詞の語幹,\bdf{"2429}語幹の\bdf{"2429}脱落形,\bdf{"3068}\bdf{"3D43}\bdf{"3459}の語幹,動詞に後接した先語末語尾\bdf{"3D43}につき,現在の動作,習慣,未来の確定した動作等を表す語尾である([\ref{例:!1}]).また,いわゆる動詞の間接話法(引用表現)における\bdf{"2424}/\bdf{"3442}\bdf{"3459}\bdf{"306D}の\bdf{"2424}/\bdf{"3442}もこの<先語末語尾/現在>\bdf{"2424}/\bdf{"3442}に相当する([\ref{例:!2}]).\begin{example}\item\bdf{"3F35}\bdf{"4336}\bdf{"404C}\bdf{"3442}\\bdf{"3E46}\bdf{"4427}\bdf{"3836}\bdf{"3459}\\bdf{"3B6A}\bdf{"4325}\bdf{"403B}\\bdf{"4751}\bdf{"3459}.(ヨンチョルは毎朝散歩する.)\label{例:!1}\item\bdf{"3C3A}\bdf{"3F78}\bdf{"404C}\bdf{"3442}\\bdf{"3F42}\bdf{"3459}\bdf{"306D}\\bdf{"475F}\bdf{"3E7A}\bdf{"3442}\bdf{"3525}.(ソンウォンは来るって言ってたのに.)\label{例:!2}\end{example}\end{itemize}\subsubsection{転成連結語尾}[説明]語の末尾に接続し,他品詞に性質を変化させる語.また,二つ以上の文をつなげる役割をする語.\begin{itemize}\item\bdf{"3673}\bdf{"306D}(と)について.<転成連結語尾/用言/接続形>の\bdf{"3673}\bdf{"306D}は,いわゆる命令の間接話法(引用表現)時に用いられる\bdf{"3673}\bdf{"306D}であって,体言,助詞類,尊敬の先語末語尾,転成連結語尾,文末語尾等に後接して引用を表す一般補助詞の(\bdf{"404C})\bdf{"3673}\bdf{"306D}とは区別される.\end{itemize}\subsubsection{文末語尾}[説明]文の末尾に用いられた語に接続し,その文を結ぶ働きをする語.日本語の終助詞がこれに相当すると考えられる.\bdf{"3E46}/\bdf{"3E6E}\bdf{"3F64},\bdf{"3F64},\bdf{"4152},\bdf{"4176},\bdf{"4176}\bdf{"3F64}は文によって,叙述文,疑問文,勧誘文,命令文のいずれに対しても同一の形態で使用される\footnote{日本語話し言葉における「食べる?」などの場合と同様,イントネーションなど音韻情報の差異と文脈によってこれら4形態を区別しているものと予想される.}.これらは形態素解析の際に区別することは非常に困難であるが,全く異なる翻訳結果となり,また,これらの差異は翻訳の際に非常に重要であることから,本体系では,叙述形,疑問形,勧誘形,命令形という属性を各形態素に持たせた.\subsubsection{冠形詞}[説明]体言の前で用いられ,その体言を修飾する語.活用せず,助詞が後接しない.日本語の連体詞が,これに相当する.\begin{quote}{\bf[例]}\bdf{"404C}(この),\bdf{"3157}(その),\bdf{"3157}\bdf{"3731}(そんな),\bdf{"3B75}(新),\bdf{"3E6E}\bdf{"3440}(どの),\bdf{"3E6E}\bdf{"3632}(どのような),\bdf{"4751}(約)\end{quote}\begin{itemize}\item\bdf{"4339}\bdf{"4277}(始発)は<普通名詞/不可>.\item\bdf{"3459}\bdf{"3825}について.<冠形詞>\bdf{"3459}\bdf{"3825}と,\bdf{"3459}\bdf{"3823}<形容詞>+\bdf{"2424}<転成連結語尾/一般/冠形形>,さらに\bdf{"3459}\bdf{"3823}<形容詞>+\bdf{"2424}〜<補助動詞,補助形容詞>について,以下のように区別する.\begin{enumerate}\item\bdf{"3459}\bdf{"3825}全体が後続する体言を修飾し,「他の」という意味で用いられている場合,\bdf{"3459}\bdf{"3825}<冠形詞>.{\bf[例]}\underline{\bdf{"3459}\bdf{"3825}}\bdf{"3077}\bdf{"403B}\\bdf{"4323}\bdf{"3E46}\bdf{"3A38}\bdf{"305A}\bdf{"3D40}\bdf{"344F}\bdf{"3459}.(他を探してみます.)\item\bdf{"3459}\bdf{"3825}の\bdf{"3459}\bdf{"3823}が述語の働きをなしている場合,\bdf{"3459}\bdf{"3823}<形容詞>+\bdf{"2424}<転成連結語尾/一般/冠形形>.{\bf[例]}\bdf{"3022}\bdf{"3F2A}\bdf{"3F21}\\bdf{"3B76}\bdf{"3172}\bdf{"404C}\\underline{\bdf{"3459}\bdf{"3825}}\bdf{"3C31}\bdf{"403B}\\bdf{"4725}\bdf{"3D43}\bdf{"4758}\\bdf{"3375}\bdf{"3E52}\bdf{"3162}\\bdf{"3627}\bdf{"392E}\bdf{"3F21}\\bdf{"3025}\bdf{"3E46}\bdf{"4538}\bdf{"3442}\\bdf{"304D}\bdf{"403A}\\bdf{"3023}\bdf{"345C}\bdf{"4758}\bdf{"3F64}.(各駅に色で線を表示しているので乗換は簡単ですよ.)\item\bdf{"3459}\bdf{"3825}の直後に\bdf{"2424}音ではじまる補助動詞,補助形容詞が接続している場合,\bdf{"3459}\bdf{"3823}<形容詞>+\bdf{"2424}〜<補助動詞,補助形容詞>.{\bf[例]}\bdf{"3021}\bdf{"404C}\bdf{"3565}\\bdf{"3A4F}\bdf{"3F21}\bdf{"3C2D}\\bdf{"3A3B}\\bdf{"3F64}\bdf{"315D}\bdf{"307A}\underline{\bdf{"3459}\bdf{"3825}}\\bdf{"304D}\\bdf{"3030}\bdf{"403A}\bdf{"3525}\bdf{"3F64}.(あれ,ガイドブックで見た料金と違うようですが.)\end{enumerate}\end{itemize}\subsubsection{接続詞}[説明]単語や句,節,文をつなぐ自立語で,活用しない語.\begin{quote}{\bf[例]}\bdf{"3157}\bdf{"3721}\bdf{"3535}(それでも),\bdf{"3157}\bdf{"3721}\bdf{"3C2D}(ということで),\bdf{"3157}\bdf{"372F}\bdf{"344F}\bdf{"316E}(だから),\bdf{"3157}\bdf{"372F}\bdf{"3869}(だったら),\bdf{"3157}\bdf{"3731}\bdf{"3525}(ところが),\bdf{"3157}\bdf{"3733}(すると),\bdf{"3157}\bdf{"3738}\bdf{"3459}\bdf{"3869}(それなら),\bdf{"3157}\bdf{"382E}\bdf{"306D}(そして),\bdf{"3647}\bdf{"3442}(または),\bdf{"3957}(および)\end{quote}\begin{itemize}\item\bdf{"357B}\bdf{"3673}\bdf{"3C2D}は文頭にきて,「よって(従って)」の意味で用いられる時,接続詞とする.これに対して,「\bdf{"3966}\bdf{"3F21}\underline{\bdf{"357B}\bdf{"3673}\bdf{"3C2D}}\\bdf{"3F64}\bdf{"315D}\bdf{"404C}\\bdf{"3459}\bdf{"3828}\bdf{"344F}\bdf{"3459}.(お部屋によって料金はちがいます.)」における\bdf{"357B}\bdf{"3673}\bdf{"3C2D}は,\bdf{"357B}\bdf{"3823}(従う)<動詞/規則>+\bdf{"3E6E}\bdf{"3C2D}(〜て)<転成連結語尾>とする.\end{itemize}\subsubsection{副詞}[説明]主に動詞,他の副詞の前に来て,その意味を限定する.活用しない.\begin{quote}{\bf[例]}\bdf{"3021}\bdf{"4065}(最も),\bdf{"3022}\bdf{"3022}(それぞれ),\bdf{"3045}\bdf{"4047}(ほぼ),\bdf{"3061}\bdf{"3139}(結局),\bdf{"3070}(すぐに),\bdf{"3157}\bdf{"3459}\bdf{"4176}(さぞかし),\bdf{"3157}\bdf{"346B}\bdf{"374E}(そのまま),\bdf{"3157}\bdf{"3738}\bdf{"3054}(そのように),\bdf{"315D}\bdf{"3966}(もうすぐ),\bdf{"3240}(必ず)\end{quote}\begin{itemize}\item\bdf{"3E73}\bdf{"3836}(いくつ),\bdf{"4177}\bdf{"4122}(直接)は<普通名詞/不可>とする.\item右記の2例は副詞としない.\begin{itemize}\item\bdf{"3162}\bdf{"3F55}\bdf{"404C}\bdf{"3869}(どうせなら)$\longrightarrow$\bdf{"3162}\bdf{"3F55}(過去)<普通名詞/不可>+\bdf{"404C}(である)<叙述格助詞>+\bdf{"3869}(ならば)<転成連結語尾/一般/接続形>\item\bdf{"474F}\bdf{"474A}\bdf{"404C}\bdf{"3869}(よりによって)$\longrightarrow$\bdf{"474F}\bdf{"474A}(どうして)<副詞>+\bdf{"404C}(である)<叙述格助詞>+\bdf{"3869}(ならば)<転成連結語尾/一般/接続形>\end{itemize}\end{itemize}\subsubsection{感嘆詞}[説明]応答,挨拶,呼びかけ,感動等を表し,独立性がある語.\bdf{"3028}\bdf{"3B67}\bdf{"4755}\bdf{"344F}\bdf{"3459}(ありがとうございます),\bdf{"3E6E}\bdf{"3C2D}\\bdf{"3F40}\bdf{"3C3C}\bdf{"3F64}(いらっしゃい),\bdf{"3F39}(はい),\bdf{"3E6E}(おお)などが感嘆詞に属する.ここでは言い淀み等(\bdf{"3E6E},\bdf{"3F78},\bdf{"4763}...)や,以下に列挙するもののみを感嘆詞と認める.\vspace{\baselineskip}\begin{epsf}\epsfile{file=interjection.eps,width=.8\columnwidth}\end{epsf}\begin{draft}\atari(325,227,1bp)\end{draft}\vspace{\baselineskip}\begin{itemize}\item\bdf{"3157}\bdf{"3721}の判定方法は以下の通り.\begin{enumerate}\item相手の言葉を肯定したり,自分が思い出した事を切り出す際に用いられている場合:<感嘆詞>\begin{example}\item\bdf{"3157}\bdf{"3721}\\bdf{"3842}\bdf{"3E46}.(そのとおり.)\item\bdf{"3157}\bdf{"3721}\\bdf{"3157}\bdf{"3731}\\bdf{"404F}\bdf{"3535}\\bdf{"4056}\bdf{"3E7A}\bdf{"4176}.(そう,そんな事もあったね.)\end{example}\item述語として用いられている.\begin{itemize}\item\bdf{"3157}\bdf{"3738}\bdf{"3054}\\bdf{"474F}\bdf{"3459}(そう言う,そうする)の意味で用いられている場合:<動詞/規則>\begin{example}\item\bdf{"3157}\bdf{"3721}\\bdf{"4156}\bdf{"3D43}\bdf{"3869}\\bdf{"306D}\bdf{"383F}\bdf{"305A}\bdf{"3D40}\bdf{"344F}\bdf{"3459}.(そうしてくださるとありがたいです.)\item\bdf{"3157}\bdf{"3721}\\bdf{"3A38}\bdf{"4152}.(そうしてみましょう.)\item\bdfkanji{hanglm24.bdf}{"3429}\bdf{"3021}\\bdf{"3157}\bdf{"3721}?(誰がそう言ってるの.)\end{example}\item\bdf{"3157}\bdf{"372F}\bdf{"474F}\bdf{"3459},\bdf{"3157}\bdf{"3738}\bdf{"3459}(そうだ)の意味で用いられている場合:<形容詞/\bdf{"243E}-不規則>\begin{example}\item\bdf{"3F29}\bdf{"3162}\bdf{"3021}\\bdf{"3C3C}\bdf{"3068}\bdf{"407B}\bdf{"4038}\bdf{"374E}\\bdf{"402F}\bdf{"386D}\bdf{"4751}\\bdf{"4823}\bdf{"3779}\bdf{"4176}\bdf{"3F21}\bdf{"3F64}.\\bdf{"3E6E}\\bdf{"3F29}\bdf{"3162}\bdf{"3021}\\bdf{"3157}\bdf{"3721}?(ここが世界的に有名な法隆寺です.へえ,ここがそうなの.)\end{example}\end{itemize}\end{enumerate}\end{itemize}\subsubsection{主格助詞}[説明]体言に後接し,その体言が文の主語であることを表す助詞.\subsubsection{冠形格助詞}[説明]体言に後接し,その体言を後続の体言に対する冠形語(体言の前で用いられ,その体言を修飾する語)にする機能をもつ.\subsubsection{目的格助詞}[説明]体言に後接し,その体言を後続する他動詞の目的語にする機能をもつ.\subsubsection{叙述格助詞}[説明]体言に後接し,その体言を文の叙述語(一文の主語下でその動作,形態,存在等を表示する語)にする機能をもつ.「\bdf{"3139}\bdf{"3E6E}\bdf{"346B}\bdf{"3B67}\bdf{"407C}」\cite{国語大辞典}や一般文法書で叙述格助詞は指定詞\bdf{"404C}に語尾が合成された語として説明されているが,ここでは指定詞\bdf{"404C}以後に出てくる語尾が一般用言の語幹の後に出てくる語尾と同じように生成力があるので,指定詞\bdf{"404C}だけを叙述格助詞として取り扱う.\subsubsection{接続格助詞}[説明]体言を列挙し,接続する際用いられる助詞.\begin{itemize}\item(\bdf{"404C})\bdf{"306D}について.(\bdf{"404C})\bdf{"306D}<接続格助詞>と\bdf{"404C}<叙述格助詞>+\bdf{"306D}<転成連結語尾>を以下のように区別する.\begin{enumerate}\item接続格助詞(\bdf{"404C})\bdf{"306D}:体言に後接し,二つ以上のことを合わせて述べるのに用いられる.対訳として「〜であれ」「〜でも」「〜も」等があてられる.\\{\bf[例]}\bdf{"3E46}\bdf{"4156}\\bdf{"4141}\bdf{"403A}\\bdf{"435F}\bdf{"3E6F}\underline{\bdf{"404C}\bdf{"306D}}\\bdf{"3C31}\bdf{"3930}\bdf{"404C}\\bdf{"3549}\\bdf{"3045}\bdf{"3F21}\bdf{"3F64}.(非常にいい思い出に,おみやげになると思うんですけれども.)\item叙述格助詞\bdf{"404C}+転成連結語尾\bdf{"306D}:二つ以上の動作,性質,状態などを並列したり,先行する動作,状態の完了を表したり,さらに前後に用いる用言の強調などに用いられる.\\{\bf[例]}\bdf{"4356}\bdf{"407A}\\bdf{"433C}\bdf{"3779}\\bdf{"404F}\bdf{"3C76}\bdf{"3021}\\bdf{"4030}\\bdf{"404F}\bdf{"3023}\underline{\bdf{"404C}\bdf{"306D}}\\bdf{"4356}\bdf{"306D}\\bdf{"433C}\bdf{"3779}\\bdf{"404F}\bdf{"3C76}\bdf{"3021}\bdf{"4030}\\bdf{"3033}\bdf{"3F79}\bdf{"374E}\\bdf{"3547}\bdf{"3E6E}\\bdf{"4056}\bdf{"3D40}\bdf{"344F}\bdf{"3459}.(最低滞在日数が六日間で最高滞在日数が六ヶ月となっております.)\end{enumerate}\item(\bdf{"404C})\bdf{"332A}について.接続格助詞(\bdf{"404C})\bdf{"332A}と一般補助詞(\bdf{"404C})\bdf{"332A}を以下のように区別する.\begin{enumerate}\item例示,容認,同様,列挙を表す時用いられる(\bdf{"404C})\bdf{"332A}:接続格助詞\\{\bf[例]}\bdf{"3F39}\bdf{"3E60}\bdf{"4751}\\bdf{"3966}\bdf{"3F21}\bdf{"3C2D}\\bdf{"3959}\bdf{"3459}\underline{\bdf{"332A}}\\bdf{"302D}\bdf{"403A}\\bdf{"3A38}\bdf{"4054}\bdf{"344F}\bdf{"316E}?(予約してる部屋から海か川は見えますか.)\item予想外の数量,漠然とした数量を表す時用いられる(\bdf{"404C})\bdf{"332A}:一般補助詞\\{\bf[例]}\bdf{"3867}\bdf{"4425}\underline{\bdf{"404C}\bdf{"332A}}\\bdf{"3E32}\bdf{"3D47}\\bdf{"304C}\bdf{"344F}\bdf{"316E}?(何日ご使用になるのですか.)\end{enumerate}\end{itemize}\subsubsection{副詞格助詞}[説明]体言に後接し,その体言とともに用言を修飾する.\begin{itemize}\item\bdf{"3459}\bdf{"3021}について.体言に後接するときのみ副詞格助詞と認める.\item\bdf{"346B}\bdf{"374E}について.副詞格助詞の\bdf{"346B}\bdf{"374E}と<普通名詞/不可>の\bdf{"346B}\bdf{"374E}を以下のように区別する.\begin{enumerate}\item体言+\bdf{"346B}\bdf{"374E}(〜の通りに):<副詞格助詞>\item用言+<転成連結語尾/冠形形>+\bdf{"346B}\bdf{"374E}(〜たらすぐに):<普通名詞/不可>\end{enumerate}\end{itemize}\subsubsection{主題補助詞}[説明]体言,副詞,語尾等に後接し,それらを他と区別して取りあげ,文の主題にする機能をもつ.\subsubsection{一般補助詞}[説明]体言,副詞,語尾等に後接し,それらにある特別な意味を付加する助詞.一般に補助詞と呼ばれるものの中から上述した主題補助詞を除いたものをいう.\bdf{"374E}\bdf{"3A4E}\bdf{"454D}(〜から),\bdf{"3C2D}\bdf{"3A4E}\bdf{"454D}(〜から)も一形態素とし,一般補助詞と認める.\subsubsection{接頭辞}[説明]ある語に前接して意味を添加し,新たに違った意味の語を作る働きをする.ここでは以下に挙げるもののみをこれと認め,これ以外のもので一般に接頭辞とされるものについては,後接する形態素とともに一形態素として処理する.\begin{quote}\bdf{"3A71}(非),\bdf{"3A4E}(不),\bdf{"3A52}(不),\bdf{"394C}(未)\end{quote}\begin{itemize}\item数詞が後続する場合のみ接頭辞と認めるもの.\begin{description}\item[\bdf{"3022}(各)]\bdf{"3332}\bdf{"3360}\\bdf{"3022}\\bdf{"3F2D}\\bdf{"386D}(男女各10名)\item[\bdf{"3D45}(新)]\bdf{"3D45}\\bdf{"404F}\\bdf{"4750}\bdf{"3362}(新一年生)\item[\bdf{"407C}(全)]\bdf{"407C}\\bdf{"3969}\\bdf{"3147}(全100巻)\item[\bdf{"4126}(第)]\bdf{"4126}\\bdf{"404F}\\bdf{"307A}(第一課)\end{description}\end{itemize}\subsubsection{名詞形接尾辞}[説明]ある語に後接して意味を添加し,新たに違った意味の語を作る働きをする.ここでは以下に挙げるもののみをこれと認め,これ以外のもので一般に接尾辞とされるものについては,前接する形態素とともに一形態素として処理する.\begin{quote}\bdf{"3454}(さん),\bdf{"3569}(たち),\bdf{"3978}\bdf{"4230}(番目),\bdf{"3B73}(山田\underline{さん}の\bdf{"3B73}),\bdf{"3E3E}(氏),\bdf{"3E3F}(ずつ),\bdf{"4225}\bdf{"382E}(に値するもの),\bdf{"426B}(頃),\bdf{"4230}(番目),\bdf{"3023}(十日\underline{間}の\bdf{"3023}),\bdf{"3066}(十時\underline{頃}の\bdf{"3066}),\bdf{"3147}(入場\underline{券},首都\underline{圏}の\bdf{"3147}),\bdf{"3467}(一時間\underline{当り}の\bdf{"3467}),\bdf{"395F}(大阪\underline{発}の\bdf{"395F}),\bdf{"3A50}(一人\underline{分}の\bdf{"3A50}),\bdf{"3C2E}(指定\underline{席}の\bdf{"3C2E}),\bdf{"3D44}(日本\underline{式}の\bdf{"3D44}),\bdf{"3F2A}(関西空港\underline{駅}の\bdf{"3F2A}),\bdf{"3F6B}(携帯\underline{用}の\bdf{"3F6B}),\bdf{"407B}(客観\underline{的}の\bdf{"407B}),\bdf{"4278}(ソウル\underline{着}の\bdf{"4278}),\bdf{"4760}(ソウル\underline{行}の\bdf{"4760})\end{quote}\begin{itemize}\item\bdf{"3021}\bdf{"315E}\bdf{"407B}(可及的)は,\bdf{"3021}\bdf{"315E}(可及)という形態素が存在しない為,\bdf{"3021}\bdf{"315E}\bdf{"407B}(可及的)$\longrightarrow$<副詞>とする.\end{itemize}\subsubsection{動詞派生接尾辞}[説明]動作名詞に後接して動詞化する機能をもつ.活用する.\subsubsection{形容詞派生接尾辞}[説明]形容名詞,及び普通名詞に後接して形容詞化する機能をもつ.活用する.〜\bdf{"3464},〜\bdf{"3753}は,前接する語とあわせて一形態素とする.\subsubsection{副詞派生接尾辞}[説明]形容名詞,及び普通名詞に後接して副詞化する機能をもつ.ここでは〜\bdf{"4877}だけを副詞派生接尾辞と認める.\subsubsection{記号}[説明]言語の機械処理を考えた場合,記号も形態素と認知したほうが処理には都合よい.このため本論文では,記号という品詞を作成した.韓国語正書法において認められている記号は``.''および``?''の2種類である.\subsection{議論}\subsubsection{存在詞の問題}\label{節:存在詞}一般的には\bdf{"4056}(ある,いる),\bdf{"3E78}(ない),\bdf{"3068}\bdf{"3D43}(いらっしゃる)の3語は存在詞という品詞が設定されている.これに対し本体系では,これら3語は語形変化が同一ではないため同一の品詞である必要性が低いと考えた.そこで\bdf{"4056},\bdf{"3E78}\の2語は後続する語に対し動詞と同様の語形変化を起こすことが多いため,<動詞/規則>とし,\bdf{"3068}\bdf{"3D43}については<形容詞/規則>とした.なお,普通名詞や動作名詞,動詞,形容詞+<転成連結語尾/一般/名詞形>の後ろに\bdf{"4056},\bdf{"3E78}が接続し,一般的に一形態素と認められる\bdf{"3840}\bdf{"4056}(おいしい),\bdf{"385A}\bdf{"4056}(すてきだ),\bdf{"4067}\bdf{"394C}\bdf{"4056}(面白い),\bdf{"3A73}\bdf{"4634}\bdf{"3E78}(すきがない),\bdf{"3B73}\bdf{"307C}\bdf{"3E78}(関係ない),\bdf{"3A2F}\bdf{"4754}\bdf{"3E78}(変わりない),\bdfkanji{hanglm24.bdf}{"4632}\bdfkanji{hanglm24.bdf}{"3832}\bdf{"3E78}(間違いない)なども一形態素とし,<動詞/規則>とする.\subsubsection{指定詞の問題}文献\cite{国語大辞典}や一般文法書では,体言に後接し,その体言を文の叙述語(一文の主語下でその動作,形態,存在等を表示する語)にする機能をもつ日本語の「〜である」に相当する語「\bdf{"404C}」は指定詞という品詞を立てるか,または形態素として認めず,「\bdf{"4038}」などと同様に媒介母音のための文字であると考える場合が多い.しかし,本品詞体系では指定詞という品詞を立てず,「\bdf{"404C}」1語のみを叙述格助詞とした.理由は以下の通りである.\begin{itemize}\item一般の指定詞の定義では「\bdf{"404C}(〜である)」と「\bdf{"3E46}\bdf{"344F}(〜でない)」の2語が属するとされるが,両者は分かち書きに関して別の振舞いをするため,形態素処理の観点から両者を同一の品詞とするのは好ましくない\item「\bdf{"404C}」と同一の振舞いをする他の品詞がないため,他のどの品詞にも含めることができない\end{itemize}なお,「\bdf{"3E46}\bdf{"344F}(〜でない)」に関しては,形態変化並びに分かち書きに関して全く同一の振舞いをする形容詞に含めた.\subsubsection{「動作形容名詞」の認知}日本語で「無理」という単語は,「する」を後接することで動詞として働き,「だ/な」を後接することで形容動詞として働く.このため,サ変名詞あるいは形容名詞とは別個の新品詞「サ変形容名詞」を立てたほうが,品詞の連接を利用して統計的な処理を行なう場合(例えば形態素解析)に扱いやすい.これと全く同様の現象が韓国語にもあり,動作名詞と形容名詞の両機能を持つ単語を「動作形容名詞」として認めたほうがいいようにも見える.しかし,本論文ではこれを認めない立場を取った.理由は,韓国語においては動作名詞,形容名詞のいずれにも\bdf{"474F}\bdf{"3459}という同一の形態素を後接して動詞もしくは形容詞になるため,形態上の判断が困難なためである.
\section{韓国語形態素解析}
\label{節:形態素解析}本節では韓国語の形態素解析について述べる.前述したように,日本語または英語の形態素解析と比較して,韓国語文の形態素解析は以下の理由により困難である.\begin{enumerate}\item音韻縮約という現象が頻出する\item分かち書きの単位と形態素の単位が一致しない場合が頻出する\item分かち書きの記述が個人差などによって揺れる場合がある\item特に短い語に関して多品詞語が多い\end{enumerate}以上により,日本語あるいは英語で知られている形態素解析の種々の手法をそのまま韓国語に適用したのでは十分な精度が得られないことは容易に想像できる.これに対し,本論文では韓国語固有の事情を十分に考慮に入れた形態素解析の手法を提案する.我々は日本語,英語,韓国語の3言語に対し,いずれも品詞と単語の混合n-gramを利用することによって行なう形態素解析手法を提案している.本論文における提案手法は,この提案手法を利用して,どのように韓国語固有の問題に対して適用させるか,あるいはこの言語非依存の部分と韓国語固有の部分をどのように組み合わせるべきかを提案する.同形態素解析手法の日本語への適用結果ならびに解析精度については,文献\cite{IPSJ:混合bigram}を参照されたい.韓国語の形態素解析に関しては\cite{DBkim}や\cite{Kwon}などが知られている.\cite{DBkim}では,計算機処理のための韓国語ローマ字表記法を提案すると共に,形態素分割に関して表層形(surfaceform)から語彙形(lexicalform)に変換する規則を作成している.我々の提案手法ではこれらの規則に相当する変換操作をコーパスから自動獲得可能な点が異なる.実例からの規則の自動獲得は,一般的な文法で処理可能な現象を逸脱する話し言葉の処理において,特に優位と考えられる.一方\cite{Kwon}では,空白をすべての形態素分割単位として一旦分割し,分割された「語」をどのように解析するかに関する手法を提案している.本論文では空白は英語のような形態素の分割単位ではなく,むしろ文字の一部であるという認識で形態素解析を行なっている.すなわち,{}\cite{Kwon}で行なっているような英語的な視点ではなく,日本語的な視点で解析を行なっており,空白を分割単位と考えないほうが有利であると主張する.空白の取り扱いに関しては後述する.\subsection{言語体系の形態素解析への影響}\ref{節:形態素体系}節と\ref{節:品詞体系}節で述べた形態素体系ならびに品詞体系が本節で述べる形態素解析手法にどのように影響するのかを説明する.後述するように,本論文で提案する形態素解析手法は,主に局所的な連接の可能性を計算することで尤度を計算している.ここで,名詞などの内容語に対しては,品詞でまとめて考慮している.一方本体系では,動作名詞,形容名詞という品詞を設けている.これは,これら2品詞には補助動詞,補助形容詞の\bdf{"474F}\bdf{"3459}がそれぞれ接続し得るが一般の普通名詞の後にはどちらも接続することはない\footnote{ただし普通名詞の後に動詞\bdf{"474F}\bdf{"3459}は接続し得る.}.以上の性質を持つにもかかわらずこれを一律に一つの品詞で取り扱った場合,名詞+補助動詞\bdf{"474F}\bdf{"3459},もしくは名詞+補助形容詞\bdf{"474F}\bdf{"3459}という接続の可能性を多くの場合で考慮する必要が生じ,その結果解析誤りが増大する可能性が高くなる.また,本体系ではローマ字を独立させたが,これは(名前のスペルを読み上げる場合などにおいて)ローマ字の接続が非常に頻出するからである.これを名詞として扱うと名詞+名詞+名詞$\cdots$という可能性を考慮しないといけなくなるが,実際このような数回の連続はローマ字にしかなく,名詞すべてにこのような可能性を考えるのは無駄である.このように,本体系では考慮する必要のない語連続ができるだけ少なくなるように設計を行なっている.すなわち,同一の品詞に属する語群は前後に出現する語や品詞の傾向がほぼ同一になるように品詞設定している.また,{}\ref{節:存在詞}節で述べたように,一般の体系における存在詞を廃止することで,形態素解析の精度の向上が期待できる.\subsection{コーパスの収集と形態素情報付与}金らは,日韓対訳コーパス構築の必要性を日韓翻訳システムの中長期的課題の一つに取り上げている\cite{日韓評価}.我々は多言語話し言葉翻訳の実現に向けて,旅行時に起こり得る会話を対象として会話コーパスを収集した.この一環として,韓国語についても日本語,英語と対照できる形でコーパスを収集し,形態素分割し品詞を付与した形態素情報を付与した.この全体像については{}\cite{Takezawa98}に譲るが,ここでは韓国語に関係する部分について述べる.表\ref{表:コーパス}に,収集したコーパスの規模を示す.コーパスは日本語話者と韓国語話者による会話,およびそれらの韓国語訳,日本語訳が付与され,会話として完結している二言語会話と,各場面において使用され得る表現を文単位で収集し,日本語および韓国語で記述した基本表現集の2種類からなる.これらを合計すると,のべ文数で互いに対応関係のある日本語17596文,韓国語17676文を収集した\footnote{ここで,日韓両言語において文数が異なるのは,日本語文と韓国語文が1対1対応しない場合があるためである.}.\begin{table}\begin{center}\caption{ATR日韓コーパスの規模}\label{表:コーパス}\y{3}\begin{tabular}{l|rr}\hline\hline種類&二言語会話&基本表現集\\\hline会話数&194&125\\発話数&3402&---\\発声数&4018&11342\\韓国語文数&5231&12445\\日本語文数&5221&12375\\\hline\end{tabular}\end{center}\end{table}\subsection{混合n-gramによる形態素解析}言語非依存の形態素解析エンジンについて述べる.形態素解析の手法として,我々は統計的手法を用いる.コーパスから単語,及び品詞のn-gram出現頻度を学習し,その連接確率を用いて形態素解析を行なう.統計モデルによる形態素解析では,周辺の語(あるいは品詞)との共起によって単語分割および品詞付与の尤度を推定している.ここで,実際に作られたn-gramを観察すると,前後の語の連接状況がほぼ同一であると見倣すことのできる語群と,同一品詞であっても接続関係が個別に異なると考えられる語群に大別できることに気付く.例えば,ある二つの一般的な普通名詞の近傍の語の連接状況は多くの場合似通っており,その一方で助動詞に対する接続はそれぞれの語によって大きく異なっている.また以上の観察結果は,我々の直観とも一致する.以上の考察から,我々は単語群をその品詞によって2種類に分類する.一つは品詞単位で連接状況を記述することのできる,つまり品詞に抽象化できる語群でこれらを品詞要素群と呼び,もう一つは単語単位で連接を考慮する必要がある助詞などの語群で,これらを単語要素群と呼ぶ.また,各品詞に活用形などの属性が付与されている場合,これらの情報も考慮して処理を行なう.すなわち,例えば<普通名詞/不可>と<普通名詞/選択>は,別個の要素として処理を行なう.どの品詞を品詞要素,あるいは単語要素にするかは品詞体系に依存するが,本稿で行なう以下の実験では品詞要素と単語要素を表\ref{表:要素}に示すように分類した\footnote{表\ref{表:要素}において「$\cdots$類」とあるものは,表\ref{表:品詞一覧}に示したもの.}.\begin{table}\begin{center}\caption{品詞要素と単語要素に該当する品詞}\label{表:要素}\y{3}\begin{tabular}{l|l}\hline\hline品詞要素&名詞類,動詞,形容詞,冠形詞,接続詞,副詞,感嘆詞\\単語要素&補助用言類,語尾類,助詞類,接頭辞,接尾辞類,記号\\\hline\end{tabular}\end{center}\end{table}\subsubsection{混合n-gramの定式化}入力文の単語列$W=W_1,W_2,\cdots,W_k=W_1^k$,品詞列$T=T_1,T_2,\cdots,T_k=T_1^k$としたときのn-gramにおける単語列と品詞列の同時出現確率$P(W,T,n)$を以下の式によって定義する.{\small\begin{eqnarray}P(W,T,n)&=&\prod^{k}_{i=n}\left\{P(E_{i}|E_{i-n+1}^{i-1})\times\frac{P(W_{i})}{P(E_{i})}\right\}\end{eqnarray}}\noindentここで要素$E_i$は以下のように定義する.\begin{equation}E_i=\left\{\begin{array}{ll}W_i&:E_iが単語要素の時\\T_i&:E_iが品詞要素の時\\\end{array}\right.\end{equation}\noindentただし,$W_i$:該当単語,$T_i$:単語$W_i$と同一品詞の単語である.\subsubsection{接続表の導入}データの希薄性に対処するためにこれまで種々の平滑化手法が提案されているが,本手法では品詞2-gramの出現情報からなる接続表を用意する.接続表は混合n-gramにおいて存在しない場合に参照され,その接続が接続表にある場合は小さい定数をそのn-gram確率として代用する.\subsection{韓国語への対応}前節では混合n-gram統計による形態素解析手法について述べた.この処理は言語に依存せず,一般的に局所的情報によって形態素解析可能と考えられる任意の言語に対して適用可能である.しかし,各言語は独自の特性を持っており,より高精度の形態素解析を行なうためにはその言語に適応するための処理が必要であると考える.韓国語においても独自の処理が必要と考えたため,本研究では,前節で述べた手法を根幹のエンジンとしながらも,これを韓国語でも十分な精度で利用できるよう,以下の点において変更を行なった.\begin{enumerate}\itemハングル文字のアルファベット化\item形態素に空白を含める\item形態素に「残留文字」という属性の付加\item一文字語のn-gram取り扱いの変更\end{enumerate}以下,順に説明を行なう.\subsubsection{韓国語内部表現}\label{節:内部表現}計算機によって韓国語の処理を行なう際には,1バイト文字のアルファベットを使用する.このローマ字文字は,文献\cite{DBkim}で提案された体系にローマ字の発音とハングル文字の発音を考慮して若干の修正を加えたものである.\begin{itemize}\item初声子音:{\ttg}(\bdf{"2421}),{\ttn}(\bdf{"2424}),{\ttd}(\bdf{"2427}),{\ttl}(\bdf{"2429}),{\ttm}(\bdf{"2431}),{\ttb}(\bdf{"2432}),{\tts}(\bdf{"2435}),{\ttj}(\bdf{"2438}),{\ttc}(\bdf{"243A}),{\ttk}(\bdf{"243B}),{\ttt}(\bdf{"243C}),{\ttp}(\bdf{"243D}),{\tth}(\bdf{"243E})\item半母音:{\ttw},{\tty}\item母音:{\tta}(\bdf{"243F}),{\ttE}(\bdf{"243F}\bdf{"2453}),{\ttA}(\bdf{"2443}),{\tte}(\bdf{"2443}\bdf{"2453}),{\tto}(\bdf{"2447}),{\ttu}(\bdf{"244C}),{\ttU}(\bdf{"2451}),{\tti}(\bdf{"2453})\item終声子音:{\ttG}(\bdf{"2421}),{\ttN}(\bdf{"2424}),{\ttD}(\bdf{"2427}),{\ttL}(\bdf{"2429}),{\ttM}(\bdf{"2431}),{\ttB}(\bdf{"2432}),{\ttS}(\bdf{"2435}),{\ttQ}(\bdf{"2437}),{\ttJ}(\bdf{"2438}),{\ttC}(\bdf{"243A}),{\ttK}(\bdf{"243B}),{\ttT}(\bdf{"243C}),{\ttP}(\bdf{"243D}),{\ttH}(\bdf{"243E})\end{itemize}上記の文字に含まれない音は二つ以上のアルファベットを合わせて書く.\begin{itemize}\item二重子音(初声):{\ttgg}(\bdf{"2421}\bdf{"2421}),{\ttdd}(\bdf{"2427}\bdf{"2427}),{\ttbb}(\bdf{"2432}\bdf{"2432}),{\ttss}(\bdf{"2435}\bdf{"2435}),{\ttjj}(\bdf{"2438}\bdf{"2438})\item二重子音(終声):{\ttGG}(\bdf{"2421}\bdf{"2421}),{\ttSS}(\bdf{"2435}\bdf{"2435})\item複合子音(終声):{\ttGS}(\bdf{"2421}\bdf{"2435}),{\ttNJ}(\bdf{"2424}\bdf{"2438}),{\ttNH}(\bdf{"2424}\bdf{"243E}),{\ttLG}(\bdf{"2429}\bdf{"2421}),{\ttLM}(\bdf{"2429}\bdf{"2431}),{\ttLB}(\bdf{"2429}\bdf{"2432}),{\ttLS}(\bdf{"2429}\bdf{"2435}),{\ttLP}(\bdf{"2429}\bdf{"243D}),{\ttLT}(\bdf{"2429}\bdf{"243C}),{\ttLH}(\bdf{"2429}\bdf{"243E}),{\ttBS}(\bdf{"2432}\bdf{"2435})\item複合母音:{\ttya}(\bdf{"2441}),{\ttyA}(\bdf{"2445}),{\ttyo}(\bdf{"244B}),{\ttyu}(\bdf{"2450}),{\ttyE}(\bdf{"2441}\bdf{"2453}),{\ttye}(\bdf{"2445}\bdf{"2453}),{\ttwa}(\bdf{"2447}\bdf{"243F}),{\ttwE}(\bdf{"2447}\bdf{"243F}\bdf{"2453}),{\ttwi}(\bdf{"2447}\bdf{"2453}),{\ttwA}(\bdf{"244C}\bdf{"2443}),{\ttwe}(\bdf{"244C}\bdf{"2443}\bdf{"2453}),{\ttyi}(\bdf{"244C}\bdf{"2453}),{\ttyU}(\bdf{"2451}\bdf{"2453})\end{itemize}この結果,韓国語の単語の音節表現を本体系によるローマ字で表現すると次のようになる.\y{5}\begin{tabular}{lccccccccccccl}\bdf{"4751}\bdf{"3139}\bdf{"3E6E}&⇒&{\tth}&{\tta}&{\ttN}&{\ttg}&{\ttu}&{\ttG}&{\ttA}&&&&&(韓国語)\\\bdf{"404F}\bdf{"3A3B}\bdf{"3E6E}&⇒&{\tti}&{\ttL}&{\ttb}&{\tto}&{\ttN}&{\ttA}&&&&&&(日本語)\\\bdf{"3D56}\bdf{"3966}\bdf{"4762}&⇒&{\tts}&{\tts}&{\tta}&{\ttQ}&{\ttb}&{\tta}&{\ttQ}&{\tth}&{\tty}&{\tta}&{\ttQ}&(双方向)\\\bdf{"3162}\bdf{"3068}\bdf{"3978}\bdf{"3F2A}&⇒&{\ttg}&{\tti}&{\ttg}&{\tty}&{\tte}&{\ttb}&{\ttA}&{\ttN}&{\tty}&{\ttA}&{\ttG}&(機械翻訳)\end{tabular}\subsubsection{空白付き形態素}韓国語は英語などの西欧諸言語と異なり,分かち書きの分割単位が形態素の単位と異なる場合が非常に多い.このため,辞書に記載したすべての語について,その語が直前の語に対して分かち書きするかどうかという情報を何らかの形で保有しなければならない.多くの場合,これは品詞によって判断できるが,例えば普通名詞でも,常に分かち書きを行なう語と分かち書きに揺れがある語があり,これを品詞のみの情報で統一的に扱うことは,不要な可能性の増大をもたらし,好ましくない.そこで本論文では,形態素解析辞書の検索キーに空白を追加することを提案する.すなわち,空白も形態素の一部であるという見方を取り,「\bdf{"2429}\verb*||\bdf{"3C76}\verb*||\bdf{"4056}」(\verb*!!は空白を表す)のような形態素中に空白のあるもののみならず,「\verb*||\bdf{"3078}\bdf{"4757}」のような先頭に空白のある語を認める.これによって,分かち書きを行なわない助動詞,接尾辞などは空白後に出現しないという情報を持たせることができる.また逆に,分かち書きに揺れがある普通名詞などは,その語だけに対して分かち書きをしないという可能性を持たせることが可能になる.検索キーを変更するだけであるので,正規形は同一となりこの後の処理,例えば機械翻訳処理などに影響は何ら起こらないし,分かち書きに関して複雑なもしくは過負荷の処理を行なうこともない.分かち書きを行なうかどうかの判断は,コーパスから自動的に学習し,辞書作成することも可能になる.\subsubsection{残留文字}縮約に対応可能な形態素解析を行なうため,本論文では「残留文字」という概念を導入することを提案する.これは韓国語のみならず,日本語など,前後2形態素に対して縮約する任意の言語に対しても有効に機能する,汎用的な手法である.\begin{figure}\begin{center}\begin{tabular}{lllll}\hline\hline検索キー&表層形&正規形&品詞&残留文字\\\hline{\tt+ayo}&\bdf{"3F64}&\bdf{"3E6E}\bdf{"3F64}&文末語尾&\\{\ttyo}&\bdf{"3F64}&\bdf{"3F64}&一般補助詞&\\\verb*!!{\tthE}&\bdf{"4758}&\bdf{"474F}&本動詞&{\tt+a}\\{\tt?}&?&?&記号&\\\hline\end{tabular}\end{center}\caption{形態素解析辞書(一部)}\label{図:形態素解析辞書}\end{figure}例として「\bdf{"4758}\bdf{"3F64}?」という文を形態素解析することを考える.形態素解析辞書には,各形態素に対して「残留文字」という情報を付与する.辞書の例を図\ref{図:形態素解析辞書}に示す.例の場合,「\bdf{"4758}」には`{\tt+a}'という残留文字があり,その他の形態素は残留文字を持たない.辞書引きを行ない「{\tthE}(\bdf{"4758})」が照合した際に,残留文字があるかどうかによって次に辞書引きすべき形態素を変更する.残留文字がない場合は通常の辞書引きと同様である.残留文字がある場合,後続の語の辞書引きを行なう際にはこの残留文字を先頭に付加する.例文では,`{\tt+a}'を付加した`{\tt+ayo?}'に対して以後の辞書引きを行ない,キーに`{\tt+ayo}'を持つ文末語尾の「\bdf{"3E6E}\bdf{"3F64}」が照合し,一般補助詞の「\bdf{"3F64}」には照合しない.残留文字の先頭に`{\tt+}'という特殊な記号を付与しているのは,後続する辞書引きを行なう際に`{\ttayo}'という文字列が一般の文字列なのか,縮約を展開した後の文字列なのかを区別するためである.現在の形態素解析辞書で使用している残留文字としては,`{\tt+a}',`{\tt+A}',`{\tt+i}',`{\tt+ji}'の4種類がある.\subsubsection{一文字語の取り扱い}韓国語は日本語,英語などと比較して同表記異義語\footnote{一般には「同音異義語」と呼ばれるが,韓国語では音と表記は必ずしも一対一対応しないため,ここでは「同表記異義語」と呼ぶ.}が多い.例えば「\bdf{"404C}」という形態素は,本品詞体系において意味の全く異なる9品詞,すなわち普通名詞(「歯」),固有名詞(姓の「李」),代名詞(「これ」),ローマ字(E/e),数詞(2),冠形詞(「この」),主格助詞(「〜が」),副詞格助詞(「〜になる」の「に」),叙述格助詞(「〜である」)を持つ{}\footnote{これ以外にも,普通名詞(「シラミ」「利(益)」「理」),固有名詞(「イタリア」)などの意味を持つ.}.表\ref{表:多品詞語}に示すように,我々の観察ではこのような多品詞語は特に一文字語に対して多く見られた.このような曖昧性の高い多品詞語に対して,他のほとんど曖昧性のない語と同様に統計処理を行なうのは賢明でないと考えた.これらの語は何らかの形で特殊な考慮が必要である.\begin{table}\begin{center}\caption{多品詞語の語長別分布}\label{表:多品詞語}\y{3}\begin{tabular}{l|rrrrrrr}\hline\hline&2&3&4&5&6&7&9\\\hline1文字語&67&29&10&2&1&3&1\\2文字語&40&4&1&0&0&0&0\\3文字語&2&0&0&0&0&0&0\\\hline\end{tabular}\end{center}\end{table}そこで本研究では,多品詞を有するこれら形態素に対して,これらの品詞が内容語であっても単語単位でn-gram統計を取り,尤度計算を行なった.\subsection{性能評価実験}以上述べた形態素解析器を計算機上に実装し,性能評価実験を行なった.評価尺度として,処理速度と精度を測定した.実験の結果を表{}\ref{表:実験結果}に示す.実験は4000文の10分割交差検定を行なった.\begin{itemize}\item処理速度(平均速度,最悪速度.単位sec.)\item精度\begin{itemize}\item再現率(recall):$Rcl.$\[Rcl.=\frac{M_{match}}{M_{tagged}}\]\item適合率(precision):$Pcn.$\[Pcn.=\frac{M_{match}}{M_{output}}\]\item文正解率(sentenceaccuracy):$S.Ary.$\[S.Ary.=\frac{S_{match}}{S}\]\end{itemize}ただし,\begin{tabular}{ll}$M_{tagged}$:&正解形態素数\\$M_{output}$:&出力形態素数\\$M_{match}$:&正解と出力で一致する形態素数\\$S$:&正解文数($=$出力文数)\\$S_{match}$:&正解と出力で一致する文数\\\end{tabular}\end{itemize}出力形態素によっては,$M_{match}$に複数の数え方が存在する可能性がある.この場合は,それらのうち最も高い値を$M_{match}$として計算した.なお,解析速度はSunSparcStation10によって測定した.実験結果に示すように,概ね良好な結果を得ることができた.比較手法に比較して最悪処理速度が遅いが,平均速度は向上しており,実用上問題は少ないと考えられる.\begin{table}\begin{center}\caption{実験結果}\label{表:実験結果}\y{3}\begin{tabular}{lrr}\hline\hline&提案手法\\\hline単語再現率(\%)&99.077\\単語適合率(\%)&98.932\\文正解率(\%)&92.629\\\hline平均処理速度(秒)&0.032\\最大処理速度(秒)&0.366\\\hline\end{tabular}\end{center}\end{table}\subsection{誤り傾向の考察}本実験で得られた誤りの傾向を考察する.高頻度誤りを表\ref{表:誤り傾向}に示す.\begin{table}\begin{center}\caption{形態素解析の誤り傾向}\label{表:誤り傾向}\y{3}\begin{tabular}{rll}\hline\hline頻度&正解&出力結果\\\hline14&\bdf{"404F}<数詞>&\bdf{"404F}<普通名詞/漢字数>\\14&\bdf{"404C}<主格助詞>&\bdf{"404C}<叙述格助詞>\\12&\bdf{"404C}<主格助詞>&\bdf{"404C}<副詞格助詞>\\10&\bdf{"466D}<普通名詞/不可>&\bdf{"466D}<普通名詞/選択>\\9&\bdf{"4152}<文末語尾/叙述形>&\bdf{"4152}<文末語尾/命令形>\\9&\bdf{"404C}<数詞>&\bdf{"404C}<主格助詞>\\9&\bdf{"3459}\bdf{"3825}<冠形詞>&\bdf{"3459}\bdf{"3823}<形容詞>\bdf{"2424}<転成連結語尾>\\7&\bdf{"3E6E}\bdf{"3632}<冠形詞>&\bdf{"3E6E}\bdfkanji{hanglm24.bdf}{"3630}<形容詞>\bdf{"2424}<転成連結語尾>\\6&\bdf{"4152}<文末語尾/叙述形>&\bdf{"4152}<文末語尾/勧誘形>\\6&\bdf{"3F64}<文末語尾/叙述形>&\bdf{"3F64}<文末語尾/命令形>\\\hline\end{tabular}\end{center}\end{table}形態素誤りの傾向を見ると,局所的な連接で解決可能な品詞付与に対しては誤りはほとんど見られず,良好な結果が得られた.直接な比較は困難だが,一般に知られている日本語形態素解析の精度と韓国語における多品詞語が多い性質を考えると,ほぼ妥当な精度が得られていると考えることができる.誤りのうち,例えば「\bdf{"4152}」という形態素は,文末語尾の叙述形と命令形の二つの意味を持ち,それぞれ平叙文と命令文に用いられる.この両者の表層上の区別は困難であるため,現在の手法では原理的に不可能であり,やむを得ないと考えられる.また「\bdf{"404C}」なども含め,文脈情報がないと解決できないもののみが誤りとして残っていることから,より一層の精度向上には,後続の処理で曖昧性を解消するなど,根本的な手法の改善が必要と考えられる.また,1文字語だけに対して単語要素としてn-gram統計を取った点に関しては,誤りの中に2文字語がほとんど見られなかったことから,妥当な処理であったと言える.なお,本形態素解析において誤りとされるものの中には,品詞認定の基準によっては複数の可能性が考えられる語が存在する.それらの語のほとんどは品詞体系の基準に反映し,できるだけ誤りが起こりにくい品詞体系を目指したが,今後より一層,各誤りに対する品詞認定基準の再検討が必要である.
\section{韓国語生成}
\label{節:生成処理}本節ではTDMT日韓翻訳における韓国語生成について述べる.前述したように日本語と韓国語は品詞体系の面でかなり類似の体系を持っているが,構文的な面においても非常に類似した言語である.このため,文献\cite{古瀬99}の英語例文で行なっているような,英語に対する語順調整などの操作は,韓国語生成においては必要がない.その一方で,韓国語正書法では,日本語にはない分かち書き(ある一定の規則で単語と単語の間に空白を挿入すること)があるため,これらの処理を行なう必要がある.また活用処理は日本語よりも複雑であり,縮約処理,音韻変化処理など,日本語ではあまり見られない形態変化処理も必要となる.この結果,韓国語生成部において必要な処理は以下のように分類することができる.\begin{enumerate}\item分かち書き処理\item不規則活用用言の語形変化処理\item前後の語による語形変化処理\item数字処理\end{enumerate}(1)は前述した.(2)は例えば,サ変動詞「する」に「〜た」を連接させた場合,「するた」にはならず「した」と変化させる処理に該当する.韓国語には不規則変化用言(変則用言と呼ぶ)が数多く存在し,その語形変化が日本語の用言以上に複雑である.(3)は縮約などの処理のことで,日本語では「〜て」+「は」が「〜ちゃ」に,「〜の」+「〜だ」が「〜んだ」などの語形変化が該当する.例えば,韓国語においては表\ref{表:縮約}左に示したような形態素の連続があった場合にこれを同表右に示す語形に変形する処理である.ただし,この処理は曖昧性がないため形態素解析における縮約の還元処理と比較してはるかに容易であり,考えられる縮約現象を予め収集することで容易に対応できる.また,本論文\ref{節:形態素体系}節で提案した記述形式に従ってコーパス収集し形態素情報を付与すれば,これら縮約現象の収集もまた容易である.(4)はTDMT特有の処理である.TDMT変換部では数字をアラビア数字で記述している.生成部ではこれを漢数字(日本語の「いち」「に」が該当する)もしくはハングル数字(日本語の「ひと」「ふた」が該当する)に変換する処理を行なっている.アラビア数字を漢数字とハングル数字のどちらで記述するかは,直後の普通名詞の属性(漢字数,ハングル数)などで判断する.本論文で提案する生成処理は,事例による自動的な情報収集と,人手による規則作成を融合することで実現した.例えば,次節で述べる生成辞書や縮約現象などは事例を収集することによって行ない,活用変化の記述や分かち書きは網羅が可能であるので人手によって規則の記述を行ない,網羅した.事例の収集は,韓日翻訳と日韓翻訳の両者で全く同一の韓国語言語体系を使用していることで可能となる.これによって,少なくとも収集した韓国語コーパスの全文を本生成処理において正しく生成可能であり,また未知の形態素列に対しても組合せ的に生成可能である場合が多い.\subsection{生成辞書}生成処理においては,形態素に関する情報を参照する辞書を持つ.これを生成辞書と呼ぶ.生成辞書の目的は普通名詞の可算情報(「漢字数」「不可」など),および用言の変則情報を入手することである.このため,これ以外の語(助詞類など)に対しては必要な情報がないため,生成辞書には記述しない.また,規則活用をする用言も省略している.このため,語彙集合は形態素解析辞書の部分集合となる.生成辞書の例を図\ref{図:生成辞書}に示す.生成辞書は以下の様式で記述する.\vspace{.5\baselineskip}\begin{quote}\begin{tabular}{ll}普通名詞の場合:&(単語品詞({\ttconnect}可算情報))\\用言の場合:&(単語品詞({\ttchange}変則情報))\\\end{tabular}\end{quote}\vspace{.5\baselineskip}\begin{figure}\begin{boxit}\noindent\verb|(|\bdf{"2424}\verb*||\bdf{"356D}\bdf{"474F}\補助形容詞\verb|(change|\bdf{"3F29}\verb|-|\bdf{"3A52}\bdf{"3154}\bdf{"4422}\verb|))|\\\verb|(|\bdf{"2429}\verb*||\bdf{"3B37}\bdf{"474F}\補助形容詞\verb|(change|\\bdf{"3F29}\verb|-|\bdf{"3A52}\bdf{"3154}\bdf{"4422}\verb|))|\\\verb|(|\bdf{"2429}\bdf{"4176}\bdf{"3535}\verb*||\bdf{"3870}\bdf{"3823}\補助動詞\verb|(change|\\bdf{"3823}\verb|-|\bdf{"3A52}\bdf{"3154}\bdf{"4422}\verb|))|\\\verb|(|\bdf{"3021}\動詞\verb|(change|\\bdf{"3045}\bdf{"3673}\verb|-|\bdf{"3A52}\bdf{"3154}\bdf{"4422}\verb|))|\\\verb|(|\bdf{"3021}\bdf{"3054}\普通名詞\verb|(connect|\\bdf{"3A52}\bdf{"3021}\verb|))|\\\verb|(|\bdf{"3021}\bdf{"305D}\bdf{"4725}\普通名詞\verb|(connect|\\bdf{"3A52}\bdf{"3021}\verb|))|\\\verb|(|\bdf{"3021}\bdf{"3175}\形容詞\verb|(change|\\bdf{"2432}\verb|-|\bdf{"3A52}\bdf{"3154}\bdf{"4422}\verb|))|\\\verb|(|\bdf{"3021}\bdf{"3673}\bdf{"3F40}\bdf{"4449}\普通名詞\verb|(connect|\\bdf{"3A52}\bdf{"3021}\verb|))|\\\verb|(|\bdf{"3021}\bdf{"3767}\普通名詞\verb|(connect|\\bdf{"3A52}\bdf{"3021}\verb|))|\\\verb|(|\bdf{"3021}\bdf{"3A31}\形容詞\verb|(change|\\bdf{"2432}\verb|-|\bdf{"3A52}\bdf{"3154}\bdf{"4422}\verb|))|\\\verb|(|\bdf{"3021}\bdf{"3A4E}\bdf{"4530}\普通名詞\verb|(connect|\\bdf{"3A52}\bdf{"3021}\verb|))|\vspace{0.8\baselineskip}\noindent\verb|(|\bdf{"392F}\verb|-|\bdf{"2427}\動詞\verb|(change|\\bdf{"2427}\verb|-|\bdf{"3A52}\bdf{"3154}\bdf{"4422}\verb|)(regexp|\\bdf{"392F}\verb|))|\\\verb|(|\bdf{"392F}\動詞\verb|(change|\\bdf{"3154}\bdf{"4422}\verb|))|\end{boxit}\caption{生成辞書の例}\label{図:生成辞書}\end{figure}ただし,例外的に{\ttregexp}属性を持たせることがある.図\ref{図:生成辞書}最下部に示した「\bdf{"392F}」という動詞は,「埋める」もしくは「くっつく」という意味の場合と,「尋ねる」という意味の場合に活用型が異なる.このような場合に,辞書引きの対象となる正規形を「{\tt\bdf{"392F}-\bdf{"2427}}」のように一時的に変化させることで対応する.このような現象が頻出する場合には,正規形,品詞,活用型の3つ組によって生成辞書を引けば問題ないが,このような語はほとんどなく,実際に現在の語彙中には「\bdf{"3048}」「\bdf{"392F}」の2語しかないため,ほとんどの語に対して活用型は必要ない.よって変則的に,正規形を変化させる上記のような方策を取った.韓国語生成部において使用している形態素体系はTDMT韓日翻訳の入力として使用している形態素体系と基本的に同一である.このため,ATR旅行会話コーパスから自動生成した形態素解析辞書に存在する単語の情報はそのまま生成辞書としても使用することが可能である.ただし,実際には韓日翻訳の原言語語彙数よりも日韓翻訳の目的言語語彙数のほうが多いので,この差分となる語彙に関しては,人手により追加している.以上により,現在の生成辞書は,形態素解析辞書から自動生成を行ない,不足分を手作業によって追加している.\subsection{分かち書き規則}韓国語における分かち書き処理の実現は容易ではない.英語などと異なり,原則として単語間に空白を入れる,というような明確な規則がないためである.例えば「\bdf{"3157}\bdf{"395B}\bdf{"3F21}」という表現は,「\underline{\bdf{"3157}\bdf{"395B}\bdf{"3F21}}\\bdf{"3E78}\bdf{"3459}.(\underline{それしか}ない.)」などの場合には分かち書きしないが「\underline{\bdf{"3157}\\bdf{"395B}\bdf{"3F21}}\bdf{"3535}\\bdf{"4056}\bdf{"3459}.(\underline{そのほかに}もある.)」は分かち書きを行なう\cite{分かち書き}.また,韓国語話者にとって読みやすくなると考えられる位置において分かち書きするため,個人差もある.そのため,例えば書籍\cite{分かち書き}のような,分かち書きする表現の事例集が出版されているほどである.本研究では,この分かち書きを原則的に品詞によって判断する分かち書き規則を作成した.韓国語話者は品詞を意識して分かち書きしているとは考えにくいが,我々の観察から,多くの場合は品詞を基準に分かち書きが可能であると考えた.また,分かち書きを極力考慮して形態素の品詞認定を行なっているため,このようにして作成した品詞体系では,品詞自体が部分的に分かち書きの情報を持つはずである.我々の作成した分かち書き基準を表\ref{表:分かち書き基準}に示す.表に示した品詞の形態素が連続した場合に,その両形態素間に空白を挿入する.ここで,「名詞類」「助詞類」などは表\ref{表:品詞一覧}で便宜上設けた分類を示す.また「内容語」は表\ref{表:要素}における「品詞要素」に属する品詞を示す.\begin{table}\begin{center}\caption{韓国語分かち書き基準}\label{表:分かち書き基準}\y{3}\begin{tabular}{rl}\hline\hline前形態素&後形態素\\\hline名詞類&内容語\\\hline固有名詞代名詞動作名詞形容名詞&接頭辞\\\hline転成連結語尾文末語尾感嘆詞接続詞&内容語接頭辞\\副詞助詞類接尾辞類記号&\\\hline「\bdf{"404C}/\bdf{"3157}/\bdf{"407A}」以外の冠形詞&「\bdf{"304D}」以外の普通名詞\\\hline転成連結語尾&副詞格助詞\\\hline\end{tabular}\end{center}\end{table}
\section{結論}
韓国語の形態素をどのように認知し,どのように機械処理するかについての言語体系並びに形態素処理に関する総合的な提案を行なった.本韓国語体系は機械処理のしやすさを考慮した体系であり,形態素解析精度や機械翻訳での必要性を考慮した設計を行なった.また分かち書きや音韻縮約の機械処理手法についても提案を行なった.形態素解析では,統計的手法を基本としながら韓国語固有の問題に対しては独自の対応を施すことで,文正解率92.6\%という良好な解析精度が得られた.韓国語生成処理では,特に分かち書き処理について,提案した品詞体系を利用した規則を作成した.本論文で提案した形態素体系,品詞体系,形態素解析,生成処理はいずれも変換主導翻訳システムTDMTの日韓,並びに韓日翻訳部に実装されており,このシステムが良好な翻訳性能を得ていることは論文\cite{古瀬99}において既に報告した.本研究で構築した体系は,韓国語を原言語もしくは目的言語とする機械翻訳での利用が目的であるが,この他の韓国語言語処理においても必要により一部変更することで適用可能であると期待する.韓国語は日本語と類似していると一般的には認識されている.本論文では,日本語と比較しながら韓国語の特徴をできるだけ明確にするよう努めた.これによって,どのような部分に韓国語固有の問題があるのか,あるいはどの部分に日本語処理の手法を導入できるのかを明確にした.言語処理の観点からどのような形態素体系や品詞体系が望ましいかという言語体系に関する議論は,韓国語のみならず,日本語に対しても依然少ない.これらは個別的で場当たり的な要素を多く持つため,学術論文としてあまり開示されにくい側面を持つのが一つの原因と考える.しかし金らも強調するように,韓国語(および日本語)の正確な分析は日韓および韓日翻訳の性能向上に寄与すると考える\cite{日韓評価}.我々は,機械処理に適した言語体系の提案と議論の蓄積をこれからも進めていかなければならない.地味ではあるが,このような基礎的研究の活性化に本論文が多少なりともきっかけになればと,心から願う.\section*{謝辞}本論文で提示した体系と処理は金徳奉(\bdf{"3168}\\bdf{"3476}\bdf{"3A40})氏(当時ATR音声翻訳通信研究所客員研究員)によって提案された原型をもとに全面的に検討,改良を行なったものであり,ここに金徳奉氏に対し深謝する.また,本研究を進めるにあたり,韓国語言語体系の全面にわたり終始議論に参加し,惜しみない協力をしていただいた小谷昌彦氏((株)コングレ)に対し,心から深謝する.\begin{thebibliography}{}\bibitem[\protect\BCAY{渕,米澤}{渕,米澤}{1995}]{渕文法}渕武志,米澤明憲\BBOP1995\BBCP.\newblock\JBOQ日本語形態素解析システムのための形態素文法\JBCQ\\newblock\Jem{自然言語処理},{\Bbf2}(4),37--65.\bibitem[\protect\BCAY{古瀬,山本,山田}{古瀬\Jetal}{1999}]{古瀬99}古瀬蔵,山本和英,山田節夫\BBOP1999\BBCP.\newblock\JBOQ構成素境界解析を用いた多言語話し言葉翻訳\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(5),63--91.\bibitem[\protect\BCAY{李}{李}{1994}]{国語大辞典}李煕昇\BBOP1994\BBCP.\newblock\Jem{国語大辞典}.\newblock民衆書林(韓国).\newblock(韓国語).\bibitem[\protect\BCAY{李}{李}{1988}]{ハングル綴字法}李殷正\BBOP1988\BBCP.\newblock\Jem{ハングル綴字法・標準語解説}.\newblock大提閣(韓国).\newblock(韓国語).\bibitem[\protect\BCAY{Kim,Lee,Choi,\BBA\Kim}{Kimet~al.}{1994}]{DBkim}Kim,D.-B.,Lee,S.-J.,Choi,K.-S.,\BBA\Kim,G.-C.\BBOP1994\BBCP.\newblock\BBOQATwo-LevelMorphologicalAnalysisofKorean\BBCQ\\newblockIn{\BemProc.ofColing94},\BPGS\535--539.\bibitem[\protect\BCAY{金,崔}{金,崔}{1998}]{日韓評価}金泰完,崔杞鮮\BBOP1998\BBCP.\newblock\JBOQ日韓機械翻訳システムの現状分析及び開発への提言\JBCQ\\newblock\Jem{自然言語処理},{\Bbf5}(4),127--149.\bibitem[\protect\BCAY{金田一,林,柴田}{金田一\Jetal}{1988}]{日本語百科}金田一春彦,林大,柴田武(編集代表)\BBOP1988\BBCP.\newblock\Jem{日本語百科大事典}.\newblock大修館書店.\bibitem[\protect\BCAY{栗林}{栗林}{1999}]{スペイン語品詞体系}栗林ゆき絵\BBOP1999\BBCP.\newblock\JBOQ構文解析システムを利用したスペイン語品詞体系の設定\JBCQ\\newblock\Jem{年次大会発表論文集},第5回,\BPGS\145--148.言語処理学会.\bibitem[\protect\BCAY{Kwon,Jeong,\BBA\Chae}{Kwonet~al.}{1991}]{Kwon}Kwon,H.-C.,Jeong,G.-O.,\BBA\Chae,Y.-S.\BBOP1991\BBCP.\newblock\BBOQADictionary-basedMorphologicalAnalysis\BBCQ\\newblockIn{\BemProc.ofNLPRS'91},\BPGS\178--185.\bibitem[\protect\BCAY{益岡,田窪}{益岡,田窪}{1989}]{基礎日本語文法}益岡隆志,田窪行則\BBOP1989\BBCP.\newblock\Jem{基礎日本語文法}.\newblockくろしお出版.\bibitem[\protect\BCAY{宮崎,白井,池原}{宮崎\Jetal}{1995}]{宮崎文法}宮崎正弘,白井諭,池原悟\BBOP1995\BBCP.\newblock\JBOQ言語過程説に基づく日本語品詞の体系化とその効用\JBCQ\\newblock\Jem{自然言語処理},{\Bbf2}(3),3--25.\bibitem[\protect\BCAY{Takezawa,Morimoto,\BBA\Sagisaka}{Takezawaet~al.}{1998}]{Takezawa98}Takezawa,T.,Morimoto,T.,\BBA\Sagisaka,Y.\BBOP1998\BBCP.\newblock\BBOQSpeechandLanguageDatabaseforSpeechTranslationResearchin{ATR}\BBCQ\\newblockIn{\BemProc.of1stInternationalWorkshoponEast-AsianLanguageResourcesandEvaluation--OrientalCOCOSDAWorkshop},\BPGS\148--155.\bibitem[\protect\BCAY{山本,古瀬,飯田}{山本\Jetal}{1996}]{IPSJ:TDMT日韓}山本和英,古瀬蔵,飯田仁\BBOP1996\BBCP.\newblock\JBOQ用例に基づく日韓の対話翻訳処理機構\JBCQ\\newblock\Jem{全国大会講演論文集}.53,4L--10\JNUM,\BPGS\2/71--72.情報処理学会.\bibitem[\protect\BCAY{山本,河井,隅田,古瀬}{山本\Jetal}{1997}]{IPSJ:混合bigram}山本和英,河井淳,隅田英一郎,古瀬蔵\BBOP1997\BBCP.\newblock\JBOQ単語と品詞の混合n-gramを用いた形態素解析\JBCQ\\newblock\Jem{全国大会講演論文集}.54,1C--02\JNUM.情報処理学会.\bibitem[\protect\BCAY{油谷,門脇,松尾,高島}{油谷\Jetal}{1995}]{朝鮮語辞典}油谷幸利,門脇誠一,松尾勇,高島淑郎\BBOP1995\BBCP.\newblock\Jem{朝鮮語辞典}.\newblock小学館/金星出版社(韓国).\bibitem[\protect\BCAY{イ}{イ}{1995}]{分かち書き}イソング\BBOP1995\BBCP.\newblock\Jem{分かち書き実務辞典}.\newblock図書出版アップル企画(韓国).\newblock(韓国語).\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{山本和英}{1996年豊橋技術科学大学大学院博士後期課程システム情報工学専攻修了.博士(工学).1996年〜2000年ATR音声翻訳通信研究所客員研究員,2000年〜ATR音声言語通信研究所客員研究員,現在に至る.1998年中国科学院自動化研究所国外訪問学者.要約処理,機械翻訳,韓国語及び中国語処理の研究に従事.1995年NLPRS'95BestPaperAwards.言語処理学会,情報処理学会,ACL各会員.{\ttE-mail:yamamoto@slt.atr.co.jp}}\bioreceived{受付}\biorevised{再受付}\bioaccepted{再受付}\end{biography}\end{document}
| |
V26N03-02 | \section{序論}
世界的に高齢化が進む中,高齢者の社会からの孤立は特に深刻な課題である.内閣府の調査では,65歳以上の高齢者のうち夫婦または単身で生活している高齢者の割合は56.9\%で,子ども世代と同居している高齢者の割合の39\%に比べて高くなっている\cite{naikakufu1}.また,60歳以上を対象にした「対面だけではなくメールや電話も含めてどのぐらいの頻度で他者と対話するか」という調査では,一人暮らしの高齢者のうち男性では7.5\%,女性では4.9\%が週に1度以下しか他人と会話しないという結果が出ている\cite{naikakufu2}.このような社会的な背景から,高齢者の話し相手となる対話システムの研究が盛んにおこなわれており,高齢者の話を聴く傾聴対話システム\cite{lala2017attentive,sitaoka2017}や,高齢者の孤独を和らげるシステム\cite{sidner2013always}など,話題を限定せずに高齢者と自然に対話できるシステムが提案されている.このような対話システムが人の代わりに高齢者と対話することで,高齢者の孤独を紛らわせることができるかもしれないが,高齢者と他者とのコミュニケーションが不足しているという本質的な課題は解決できない.一方,老年学や老年医学では,高齢者の健康状態の理解やケアのあるべき姿が研究されており,QualityofLife(QOL)という概念が注目されている.QOLとは,高齢者の健康状態を肉体的・精神的・社会的な側面から多面的に評価するための尺度である.高齢者の健康状態をQOLでとらえることにより,肉体的な状態だけでなく高齢者の感情や状況などを評価することで,高齢者に合ったケアが実現できると報告されている\cite{Marja2009QOL,Ylva2001QOL}.また,ICTを活用して高齢者の心身状況を家族や介護士などと共有する仕組みに関する実証も進められている\cite{uchiyama2006}.この研究の中で,内山らは,介護における関係者間のコミュニケーションモデルのあり方について「関係者間にヒエラルキがあると,気後れや遠慮などのために自由な意思に基づくコミュニケーションが阻害される.医療における医者−患者モデルはその典型とされているが,介護にもコンシューマ(利用者)−サービス提供者間,また家庭内でも家族−本人間で必ずしも対等でない関係が存在し,さらに立場の相違からくる見解の相違が存在する.そうした中で納得や信頼を醸成するには,立場の上下のない,水平型のコミュニケーションが必要となる.」と述べている.このことから,高齢者と家族とができるだけ対等な立場で高齢者のQOLを共有することは重要な要素である.高齢者のQOLを共有する方法として,家族から高齢者に対しQOLに関する質問を投げかけるという方法も考えられるが,家族の質問の仕方によっては内山らの指摘する「上下関係」を発生させる可能性がある.そこで我々は,高齢者と離れて住む家族との日常的なコミュニケーションを通じて自然に高齢者のQOLを家族へ伝えることで,高齢者と家族とのコミュニケーションの質の向上と,活性化を実現するようなシステムの構築をすすめている\cite{tokuhisa}.図\ref{dialog1}に,我々が目標とする高齢者と家族との対話例を示す.図\ref{dialog1}(A)の「かわいいね.」は応答としては適切であるが,高齢者のQOLは娘へ伝わらない.一方で図\ref{dialog1}(B)の「でも私は最近肩こりで頭痛がするから無理だわ.」は高齢者のQOLを表出する応答であり,これにより高齢者のQOL(ここでは健康状態が良くないこと)が娘に伝わったことで「大丈夫?連休には帰るから肩もみするね.」というQOLに配慮した娘の発話が誘発されている.\begin{figure}[b]\begin{center}\includegraphics[scale=1.1]{26-3ia2f1.eps}\end{center}\caption{(A)通常の対話と(B)本研究の目標の対話}\label{dialog1}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{26-3ia2f2.eps}\end{center}\hangcaption{QOL表出発話を誘発するための返信補助システム.「返信候補」から返信を選択すると,「返信メッセージ」に選択した内容が入力される.返信候補の中に高齢者の所望する候補がない場合は,高齢者が自分で返信を記述したり,返信候補を編集することもできる.上記は「かわいいね.」と「折り紙を見つけたら買って送るね.」という返信候補が選択された様子を示している.}\label{system}\end{figure}我々は以前の研究で,家族と高齢者とのメールのやりとりを対象として,\begin{enumerate}\itemQOL表出発話(高齢者のQOLを推定するのに有用な手がかりを含んだ発話)とはどのような特徴を持つ発話か\itemシステムの支援のない状態でQOL表出発話がどのようにやりとりされていて,システムはどんな支援をすべきか\end{enumerate}を分析した\cite{tokuhisa}.その結果,上記の(1)については,高齢者が主体となり高齢者の行動や状態を表す発話が高齢者のQOL表出発話になりやすいことが明らかとなった.また,上記の(2)については,家族からのメールに対する高齢者の返信のうち85.7\%(3,574発話中3,064発話)が家族が主体となる発話(e.g.かわいいね.)で,高齢者が主体となる発話(e.g.私は最近肩こりで頭痛がするから無理だわ.)はわずか6.4\%(3,574発話中229発話)であることが明らかとなった\footnote{なお,家族と高齢者の両方が主体となる発話(e.g.今度一緒にやろう)は3,574発話中69発話であった.本論文では「家族と高齢者の両方が主体となる発話」は,「家族が主体となる発話」や「高齢者が主体となる発話」には含まずに割合を算出している.}.この結果を受けて,高齢者が主体となり自らのQOLを伝達するような返信を生成することを,システムにより補助することを考える.具体的には,図\ref{system}のように,「私もやってみようかな.」「折り紙を見つけたら買って送るね.」「でも私は最近肩こりで頭痛がするから無理だわ.」といった高齢者が主体となるQOL表出発話を応答のヒントとして高齢者に提示することで,高齢者を刺激し,システムの支援のない状態では記述されない高齢者のQOL表出発話を誘発するような返信補助システムを目指している.本システムは,高齢者と家族との過去のコミュニケーションで家族に伝達されていないQOLカテゴリおよび家族が特に知りたがっているQOLカテゴリに関するQOL表出発話を優先的に返信候補として提示することで,高齢者のQOLを家族への伝達を補助する役割を果たすものと想定している.たとえば,過去のコミュニケーションで経済的な情報がやりとりされていない場合は高齢者の経済的な余裕の有無がわかるようなQOL表出発話を返信候補として提示し,家族が高齢者の健康状態を知りたがっている場合には健康状態に関するQOL表出発話を提示する.できるだけ文脈にあった候補を提示することは,システムの支援がない状態では家族に伝えられない高齢者のQOL表出発話を誘発できる可能性が高くなると考える.本研究では,このようなシステムの構築に向けて,QOL表出発話候補の生成を試みる.本論文で述べる貢献は以下の2点である.\begin{enumerate}\item大規模なQOLラベルつき対話コーパスの構築に向けて,高齢者が主体となる高齢者のQOL表出発話を大規模に収集するためのコーパス収集方法を提案する.提案するコーパス収集に関してふたつの予備実験を実施し,a)本論文で提案するコーパス収集の方法の有用性を示すとともに,b)本論文で提案するコーパス収集の方法でも40代・50代のクラウドワーカから模擬的に高齢者の発話を収集できることを示す.\item構築したQOLラベルつき対話コーパスを用いて,QOLラベルにより特定のQOL情報を伝達するように制御しながら,高齢者のQOLを伝達する応答を生成する.これにより,近年提案されている条件付き文生成技術がどの程度適切なQOL表出発話が生成できるか,また返信補助システムの実現に向けて残る技術的な課題は何か,を明らかにする.\end{enumerate}
\section{QOLラベルつき対話コーパスの構築}
\label{sec:corpusconst}\subsection{QOLラベルつき対話コーパス構築のための予備実験}\label{sec:pre-exp}\subsubsection{予備実験1:高齢者が主体となるQOL表出発話の収集}\label{subsubsec:pre-exp1}図\ref{system}のようなシステムにおいてQOL表出発話の候補を生成するために,まずはじめに高齢者の返信として想定する高齢者が主体となるQOL発話からなるコーパスを構築したい.このとき,構築するコーパスはできるだけ規模が大きく質が高いことが望ましい.しかし,前述した通り,家族からのメールに対する高齢者の返信は,特別なコントロールのない状態では家族が主体となる発話が85.7\%で,高齢者が主体となる発話はわずか6.4\%であることが以前の分析から明らかとなっている\cite{tokuhisa}.したがって,高齢者が主体となるQOL表出発話を大規模に収集するためには適切な教示が必要と考えられる.そこで,本論文では,図\ref{yobi1:kyouji}に示す設問\footnote{教示の際の注意事項は4点である.注意事項1は高齢者が主体となるQOL表出発話を記述させるための教示で,注意事項2はやりとりとして適切な応答を記述させるための教示である.また,注意事項3は40代・50代のクラウドワーカに高齢者の立場になって回答してもらうための教示で,注意事項4はポジティブな応答とネガティブな応答の両方を記述させるための教示である.予備調査の結果,注意事項2がない場合はQOL表出発話ではあるものの応答としては適切でない応答が記述されたり,注意事項4がない場合はポジティブな応答ばかりが記述されたりしたことから,このような教示を設計した.}と,図\ref{yobi1:kyouji2}に示すチェック設問\footnote{チェック設問とは,あらかじめ正解が定められた設問のことである.チェック設問に正しく回答できたクラウドワーカのみを採用することができる.}とを用いた教示を提案する.図\ref{yobi1:kyouji}の『注意事項1:「私は」「おじいちゃんは」などを主語にして,「高齢者の行動や状態や感情を表す返信」を1文で書いてください.』は,高齢者が主体となるQOL表出発話を記述させるための教示である.この教示は,以前の我々の分析\cite{tokuhisa}で,QOL表出発話である発話には高齢者の行動や状態を表す発話が多いという特徴が明らかになったことから設計した.さらに,図\ref{yobi1:kyouji2}に示すチェック設問を用いて,クラウドワーカが教示内容を理解しているかどうかを確認する.チェック設問を活用してタスクを教示することで,タスクを正しく理解したクラウドワーカの回答のみを採用することができる.\begin{figure}[t]\begin{center}\includegraphics{26-3ia2f3.eps}\end{center}\caption{高齢者が主体となるQOL表出発話を収集するための設問}\label{yobi1:kyouji}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{26-3ia2f4.eps}\end{center}\caption{高齢者が主体となるQOL表出発話を収集するためのチェック設問}\label{yobi1:kyouji2}\end{figure}本論文で我々が提案したコーパス収集方法の有用性を評価するため,提案方法により実際に高齢者が主体となるQOL表出発話が収集できるかどうかを確かめる.具体的には,以前の分析\cite{tokuhisa}で用いたメールと同じ6通のメール(表\ref{tab:familymail})を用いて,図\ref{yobi1:kyouji}および図\ref{yobi1:kyouji2}に示す方法で発話を収集する.クラウドワーカは40代・50代382名(男性187名,女性195名)\footnote{発話収集自体は合計400名(男性200名,女性200名)で実施したが,18名(男性13名,女性5名;全体の4.5\%)は倫理的に不適切な内容を記載していたことから,分析対象から除外した.}である.なお,クラウドワーカの年齢は,クラウドソーシング\footnote{Yahoo!クラウドソーシング(https://crowdsourcing.yahoo.co.jp/)を用いた.}のプロフィールにより確認した.収集された発話に対してアノテータ\footnote{以前の分析の際に,2名のアノテータによりタグ付与作業の信頼性を評価した結果,主体タグについては$\kappa=0.94$でほぼ完全な一致であった.本研究では,以前の分析でも主体タグの付与を行ったアノテータAが一名でタグを付与する.}が表\ref{tab:syutaitag}に示す主体タグを付与した.また,ひとつの応答に複数の発話が含まれる場合は,それぞれの発話に対して主体タグを付与した\footnote{応答は1文で記載するよう教示したが,回答の中には複数文で回答された事例もあったため,ひとつの応答に複数の発話が含まれる場合はそれぞれの発話に主体タグを付与した.}.結果を図\ref{yobi1:result}に示す.図\ref{yobi1:result}の「コントロールなし」は以前の我々の分析結果で,図\ref{yobi1:result}の「提案手法によるコーパス収集」は本論文で提案したコーパス収集方法(図\ref{yobi1:kyouji}および図\ref{yobi1:kyouji2})により発話を収集した結果である.図\ref{yobi1:result}が示す通り,以前の我々の分析では高齢者が主体となる発話は6.4\%(3,574発話中229発話)であったのに対し,本論文で提案したコーパス収集方法を適応した場合には89.2\%(4,717発話中4,207発話)まで増加した.このことから,本論文で提案した教示を用いたコーパス収集は,高齢者が主体となり高齢者の行動や状態を表す発話が収集に効果的であることが示された.\begin{table}[p]\caption{予備実験に用いた家族からのメール}\label{tab:familymail}\input{02table01.tex}\end{table}\begin{table}[p]\caption{主体タグの定義}\label{tab:syutaitag}\input{02table02.tex}\end{table}\begin{figure}[p]\begin{center}\includegraphics{26-3ia2f5.eps}\end{center}\caption{予備実験1:収集した発話の主体タグの割合}\label{yobi1:result}\end{figure}\subsubsection{予備実験2:実際の高齢者の発話と高齢者を模擬した40代・50代の発話の比較}大量の発話データを収集する方法として,クラウドソーシングを用いる方法が多くの研究で採用されている\cite{crowd2015}.しかし,高齢のクラウドワーカが十分に存在しないことから,クラウドソーシングで高齢者の発話データを大量に収集することは容易ではない.我々は,以前の研究で65歳以上のクラウドワーカから収集した発話と40代・50代\footnote{両親が65歳以上の可能性が高い年代として40代・50代のクラウドワーカを選んだ.}のクラウドワーカから収集した発話を比較し,第三者がこれらの発話を識別することが困難であることを示した\cite{tokuhisa}.この結果は,高齢者の代わりに高齢者を模擬した40代・50代のクラウドワーカを用いることで,大規模なコーパスが収集できる可能性が示唆している.しかし,図\ref{yobi1:kyouji}のように教示が複雑になった場合でも,65歳以上の高齢者から収集した発話と40代・50代から収集した発話が類似するかどうかは明らかではない.特に,高齢者の行動や状態や感情を記述するという指示について,40代・50代が高齢者のことを十分模擬して発話を記述できるかどうかは明らかでない.そこで我々は,これらを明らかにするため,以下のふたつのグループに対して予備的な発話収集を行い,両者の違いについて分析する.\begin{table}[b]\caption{GroupA(一般の65歳以上の男女10名)の年齢と性別}\label{yobi2:age}\input{02table03.tex}\end{table}\begin{figure}[b]\begin{center}\includegraphics{26-3ia2f6.eps}\end{center}\hangcaption{GroupAの発話収集の実施風景.左の写真は67歳女性と72歳男性,右の写真は71歳女性と71歳男性である.実験に参加した10名のうち,最年少は65歳女性,最高齢は89歳男性であった.}\label{jikkenpic}\end{figure}\begin{description}\item[GroupA:]一般の65歳以上の男女10名(男性3名,女性7名)を対象に発話を収集する.発話収集に参加した高齢者の年齢と性別を表\ref{yobi2:age}に,実施風景を図~\ref{jikkenpic}に示す.収集は高齢者の自宅で実施し,年齢は本人に直接対面して確認した.なお,キーボードが利用できない高齢者がいたことと,オペレータを介さずご自身の言葉で回答していただくため,設問を紙に印刷して収集を行う.また,夫婦で回答する場合は,お互いに話し合わずに独立に発話を記述するよう指示した.発話収集に参加した高齢者は,図\ref{yobi1:kyouji}に示すように,ひとつのメールに対してポジティブとネガティブの返信を記述する.表\ref{tab:familymail}に示す6通のメールに対する返信を図\ref{yobi1:kyouji}の設問を用いて,高齢者ひとりあたり12個の応答,10名で合計120個の応答を収集した.\item[GroupB:]2.1.1項の予備実験1を実施した40代・50代のクラウドワーカ382名から,男女10名(男性3名,女性7名)を無作為に選んで40代・50代のクラウドワーカの発話として利用する.男女の比率はGroupAにそろえた.表1に示す6通のメールに対する返信を図\ref{yobi1:kyouji}の設問を用いて,各クラウドワーカあたり12個の応答,10名で合計120個の応答を収集した.\end{description}\begin{table}[b]\caption{メール1に対するGroupAとGroupBの返信の一部}\label{tab:uttexample1}\input{02table04.tex}\end{table}GroupAとGroupBから収集した発話の一部を表\ref{tab:uttexample1}と表\ref{tab:uttexample2}に示す.表\ref{tab:uttexample1}は表\ref{tab:familymail}のメール1に対する返信で,表\ref{tab:uttexample2}は表\ref{tab:familymail}のメール2に対する返信である.\begin{table}[p]\caption{メール2に対するGroupAとGroupBの返信の一部}\label{tab:uttexample2}\input{02table05.tex}\end{table}\begin{figure}[p]\begin{center}\includegraphics{26-3ia2f7.eps}\end{center}\hangcaption{一対比較の画面の例.返信Aと返信Bのどちらに実際の高齢者の発話を対応させるかはランダムとした.上記の例では,返信AはGroupA(65歳以上の実際の高齢者)が書いた発話で返信BはGroupB(40代・50代のクラウドワーカが高齢者を模擬して書いた発話)である.}\label{fig_ittui2}\end{figure}収集したこれらの発話を一対比較にし,発話収集に参加したクラウドワーカとは別のクラウドワーカが「実際の高齢者が書いた発話」を正しく識別できるかどうかを調べた.図~\ref{fig_ittui2}に一対比較の画面を示す.返信Aと返信Bのどちらに「実際の高齢者の発話」を対応させるかはランダムとし,各設問に対して3名のクラウドワーカが独立に評価した.結果を図~\ref{fig_ittuig}に示す.図~\ref{fig_ittuig}の「正解」は返信Aと返信Bのどちらが実際の高齢者の発話かを正しく判断できたクラウドワーカの数を,「不正解」は正しく判断できなかったクラウドワーカの数を,「わからない」は図~\ref{fig_ittui2}の一対比較で選択肢「実際の高齢者が書いた返信は,返信Aと返信Bのどちらか分からない」を選択したクラウドワーカの数を示す.実際の高齢者の発話を正しく回答できたのは39.2\%(3,600発話中1,411発話)であり,不正解の回答数と大きな差がないことから,「実際の高齢者が書いた発話」と「40代・50代のクラウドワーカが高齢者を模擬して書いた発話」の識別は困難であったと考えられる.\begin{figure}[b]\begin{center}\includegraphics{26-3ia2f8.eps}\end{center}\hangcaption{実際の高齢者の発話と40代・50代のクラウドワーカが高齢者を模擬して書いた発話の一対比較による識別の評価結果}\label{fig_ittuig}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{26-3ia2f9.eps}\end{center}\caption{65歳以上の高齢者の返信と40代・50代のクラウドワーカが高齢者を模擬した返信の内容の比較}\label{fig_eyuttanalysis}\end{figure}また,高齢者の行動や状態や感情を記述するという指示について両者が記述した内容に違いがあるかどうかを調べるため,GroupAとGroupBの発話を行動・状態・感情とに分類した.ひとつの応答に複数の発話が含まれる場合は,それぞれの発話を行動・状態・感情に分類した.また,ひとつの発話に複数の内容が含まれる場合は,「行動+感情」のように複数のタグを付与した.結果を図\ref{fig_eyuttanalysis}に示す.図\ref{fig_eyuttanalysis}が示す通り,行動・状態・感情の割合に顕著な差は確認されなかった.これらの結果から,本論文で提案したコーパス収集方法は,65歳以上の高齢者の発話と類似の発話が40代・50代のクラウドワーカから収集できることが示唆された.40代および50代のクラウドワーカであれば十分な数が存在するため,40代および50代のクラウドワーカから疑似的に高齢者の発話を収集することにより,クラウドソーシングを用いて65歳以上の高齢者の発話を大規模に収集できると考えられる.次節では,本節で得られた知見を用いた大規模なQOLラベルつき対話コーパスの構築について論じる.\subsection{QOLラベルつき対話コーパスの構築}\label{sec.corpus_construction}\ref{sec:pre-exp}節では,QOLラベルつき対話コーパス構築における高齢者の発話収集について述べた.本節では,QOLラベルつき対話コーパスの構築の全体の手順について説明する.我々の提案するQOLラベルつき対話コーパスの構築手順を以下に示す.\begin{description}\item[手順1.家族の発話収集:]両親と離れて住む40代および50代のクラウドワーカから家族の発話を収集する.クラウドワーカには,自分の両親にメールを書くつもりで2〜3文で発話を書くよう教示した.なお,予備調査の際,クラウドソーシングを実施する時期と収集される発話の話題に偏りが見られたため,さまざまな話題に関する発話を収集することを目的として「子どもの学芸会について,日常の家事について,花見について,紅葉狩りについて」など,さまざまな季節や場面をこちらから指定し,クラウドワーカは指定された話題のメールを記述した.\item[手順2.高齢者の発話収集:]手順1で収集したさまざまな話題の家族からのメールを1文ずつに分割した上で,\ref{sec:pre-exp}節で述べた方法で40代および50代のクラウドワーカから高齢者の発話を模擬的に収集する.図\ref{yobi1:kyouji}に示す通り,クラウドワーカは各メールに対してポジティブな返信とネガティブな返信を記述する.クラウドワーカへの教示は以下の4点である.\begin{enumerate}\item「私は」「おじいちゃんは」「おばあちゃんは」など\footnote{メールを受け取った高齢者が,メールを書いた家族の父親であるか母親であるかについてはランダムとし,記述される発話の話者の性別が偏らないようにした.}を主語にして,「高齢者の行動や状態や感情を表す返信」を1文で書く.\item「家族からのメール」の指定された発話の内容にあった返信を書く.\itemあなたの父親もしくは母親がこのメールを受け取った設定で,あなたの父親もしくは母親のつもりで返信を書く.\itemポジティブとネガティブを間違えないようにする.\end{enumerate}\ref{subsubsec:pre-exp1}項で述べた通り,上記の4点の教示はタスク実施時(図\ref{yobi1:kyouji})と,チェック設問(図\ref{yobi1:kyouji2})でクラウドワーカに提示する.チェック設問を用いてタスクの内容を説明することで,タスクを正しく理解できたクラウドワーカのみを採用できると考えられる.なお,図\ref{yobi1:kyouji2}に示すようなチェック設問を複数用意し,クラウドワーカひとりあたり3問のチェック設問を提示した.\item[手順3.QOLラベル付与:]手順2で収集した高齢者の発話に対して,3名のクラウドワーカが独立に表\ref{tab:qollabel}に示すQOLラベルを付与した\footnote{予備調査の結果,手順2の注意事項4がない場合はポジティブな応答ばかり記述されたことから注意事項4を追加し,ポジティブとネガティブの応答が均等に収集されるようにした.手順3ではポジティブとネガティブのどちらの欄に記述された応答であるかに関わらず,表\ref{tab:qollabel}の12種類から適切なQOLラベルを付与する.}.これらのラベルは太田らのQOLの6項目の尺度(生活活動力,健康満足感,人的サポート満足感,経済的ゆとり満足感,精神的健康,精神的活力)をもとに定義したものである\cite{oota2001}.太田らは,65歳以上の2,944名を用いてQOLの尺度の構成要素の妥当性を評価した結果,高齢者のQOL評価に必要な基本的な要素が備えられていることが確認されたと報告している.高齢者のQOLを家族に伝達する場合に,どのような粒度のQOLを伝達すべきかは議論の余地があるが,本研究では太田らが定義したQOLの尺度を参考にしてQOLラベルを定義した.なお,ひとつの発話に複数のQOLラベルが付与できる場合はすべてのQOLラベルを付与した.\item[手順4.QOLラベルの選定:]手順3で付与したQOLラベルのうち,2名以上が付与したQOLラベルを当該発話のQOLラベルとして採用する.収集した高齢者の発話のうち,2名以上が一致したQOLラベルがない発話はQOLラベルつき対話コーパスには登録しない.その結果,52,079発話に対して81,228個(1発話あたり1.6個)のQOLラベルが付与されたQOLラベルつき対話コーパスが構築された.\end{description}\begin{table}[t]\caption{QOLラベルと定義}\label{tab:qollabel}\input{02table06.tex}\vspace*{-0.5\Cvs}\end{table}表\ref{qolexample}にQOLラベルつき対話コーパスの例を示す.表\ref{qolexample}の「家族の発話」は手順1で収集した家族の発話を,表\ref{qolexample}の「高齢者の発話」は手順2で収集した高齢者の発話を,表\ref{qolexample}の「QOLラベル」は手順3および手順4で3名中2名のクラウドワーカが付与したQOLラベルを示す.\begin{table}[t]\caption{QOLラベルつき対話コーパスの例}\label{qolexample}\input{02table07.tex}\end{table}
\section{QOLラベルつき対話コーパスを用いたQOL表出発話の生成}
本章では,\ref{sec:corpusconst}章で構築したQOLラベルつき対話コーパスを用いてQOL表出発話の生成実験をおこない,その結果を報告する.ここで生成するQOL表出発話は,図\ref{system}に示す高齢者向け返信補助システムで高齢者に提示される返信候補としての利用を想定している.図\ref{system}のシステムで提示する返信候補には,その候補を目にすることがきっかけで,高齢者が自身のQOL状態を顧みること,該当するQOL状態に気づくこと,高齢者が自身のQOL状態を相手に伝えようと思うことを補助する役割を期待している.そのため,ここで生成する応答は,高齢者が応答として適切と感じて自然に選択したくなるような発話であり,かつそこから特定のQOLが読み取れるような発話であることが望ましい.本章では,我々の目的に合致するいくつかの既存手法により応答生成実験をおこない,生成結果を評価する.生成した応答が先行発話に対して適切であるか,および特定のQOLを表出するかを人手評価により確かめる.\subsection{条件付き対話応答生成実験}本論文では,特定のQOL情報を伝達するように制御しながら高齢者のQOLを伝達する方法として,生成ベースと用例ベースの二通りの方法を用いて応答生成をおこなった.それぞれの手法について,詳細を以下で述べる.\subsubsection*{生成ベース応答生成}近年の機械学習ベースの対話応答生成システムでは,高性能な応答生成モデルとしてsequencetosequence(seq2seq)\cite{seq2seq2014nips,vinyals2015conv}が注目されている.Seq2seqをベースとした方法により生成される応答は,入力発話に対して流暢かつ適切な内容であることが多数報告されている\cite{sordoni2015conv,li2016persona,akama2017gen,emnlp2017att,wu2018neural,nlp2018sato}.Liらはseq2seqをベースに,学習時および応答生成時に話者情報の埋め込み表現をデコーダへ合わせて入力することで生成を制御し,話者に条件付けられた内容を含んだ応答を生成する方法を提案している\cite{li2016persona}.我々はLiらの手法を参考に,図\ref{fig:structure}に示す方法でQOLに関する制御をおこない,特定のQOLを表出する発話を生成する.図\ref{fig:structure}のモデルは,入力発話を$X=(x_1,\dots,x_T)$,生成応答を$Y=(y_1,\dots,y_{T'})$として,次のように定式化される:\begin{align}\label{eq:prob}p(Y|X,q)=\prod_{t=1}^{T'}p(y_t|X,y_{<t},q)\end{align}ここで,$T,T'$はそれぞれ入力発話および生成応答の文字列長である.デコーダの各時刻では,前時刻までの出力$y_{<t}$およびQOLラベル$q$を用いて次の単語$y_t$の予測をおこなう.応答生成時には,入力発話$X$および表出させたいQOLのラベル$q$をモデルに与えることで,特定のQOL情報を伝達する応答$Y$が生成されることを期待する.この方法を\texttt{S2S-QOL}と表記する.\begin{figure}[b]\begin{center}\includegraphics{26-3ia2f10.eps}\end{center}\caption{QOLラベルを用いた条件付き対話応答生成.デコーダの各時刻でQOL情報(青色)を入力する.}\label{fig:structure}\end{figure}\subsubsection*{用例ベース応答生成}本研究のように高品質かつ比較的データ数の少ないデータを扱う応答生成手法として,用例ベースの手法も考えられる\cite{isbell2000aaai,ritter2011emnlp,sordoni2015conv}.用例ベースの応答生成は,与えられた発話$X$に対して,用例データベース$\mathcal{D}$から最も適切な応答$\widetilde{Y}$を選択する問題である.$\widetilde{Y}$の選択方法は複数あるが,本研究では$X$と$\widetilde{X}$の類似度を算出し,最も類似する$\widetilde{X}$を含む$(\widetilde{X},\widetilde{Y})\in\mathcal{D}_q$の$\widetilde{Y}$を発話$X$に対する応答$Y$として獲得するシンプルな方法を採用する:\begin{equation}\widetilde{Y}=\argmax_{(\widetilde{X},\widetilde{Y})\in\mathcal{D}_q}sim(X,\widetilde{X})\end{equation}ここで,$\mathcal{D}_q$は特定のQOLラベル$q$が付与されたペアのみからなる用例データベースであり,QOLラベルごとに全12種類の用例データベースを保持しておく.生成時に任意のQOLラベル$q$を指定すると,指定されたQOLラベルの用例ベース$\mathcal{D}_q$からのみ応答を選択する.また,$sim(・)$は2つの文の類似度を返す関数で,ここではコサイン類似度を用いた.文のベクトル表現の獲得には,一般的に広く利用される埋め込み手法のひとつであるword2vec\cite{mikolov13iclr}と,前後の文脈をよく捉えた埋め込み表現を与えるELMo\cite{peters2018naacl}の二通りの方法を用いた.これら二通りの方法をそれぞれ\texttt{W2V-QOL},\texttt{ELMo-QOL}と表記する.\subsection{実験}\label{sec:experiment}構築したQOLラベルつき対話コーパスを用いて,応答生成実験をおこなった.生成した応答について定性的な分析と人手による主観評価をおこない,生成をQOLラベルで条件付けできているか(特定のQOLを表出する発話が生成できているか)を確かめる.コーパス全体の95\%を訓練データ,5\%をテストデータとして用いた.\subsubsection*{\texttt{S2S-QOL}モデルの設定}12種類のQOLラベルは固定12次元の$\{0,1\}$バイナリベクトルで表現し,これをデコーダへの入力に用いた.エンコーダおよびデコーダを隠れ層512次元の2層LSTM\cite{hochreiter1997lstm},単語ベクトルを512次元とし,訓練データを最大100周学習した.パラメータ最適化にはAdam\cite{kingma2015adam}を用いた.\ref{sec:vannila_seq2seq}節で用いる純粋なseq2seqモデル\cite{seq2seq2014nips}(\texttt{S2S})の学習にも同様のモデルパラメータおよび学習方法を用いた.\subsubsection*{\texttt{W2V-QOL},\texttt{ELMo-QOL}モデルの設定}\texttt{W2V-QOL}は,配布されている学習済みword2vecモデル\footnote{https://github.com/Kyubyong/wordvectors.Wikipediaから抽出したデータで学習済み.}を利用した.単語ベクトルの次元数は300であった.ある文に含まれるすべての単語に対応する単語ベクトルの平均を文ベクトル(300次元)とし,これを類似度の算出に用いた.\texttt{ELMo-QOL}は,wikipediaから抽出したデータでモデルを学習し,512次元の単語ベクトルを獲得した.\texttt{W2V-QOL}と同様の方法で文ベクトル(512次元)を構築し,これを類似度の算出に用いた.それぞれのQOLラベルに対応する12種類の用例データベースは,訓練データから作成した(各QOLラベルに対応する用例データベースのサイズについては付録Aを参照されたい).\subsubsection*{テストセットの用意}応答生成に用いるテストセットとして,2種類のデータを用意した.ひとつは,$\mathcal{S}_{10-l12}$である.まず構築したコーパスのテストデータから,家族の発話(QOL表出発話の先行発話)を無作為に10発話抽出した.たとえば,「着くとすぐに本を読んでいるよ」「今日は,1日かけて角煮を作りましたがとっても美味しくできました.」「私はウオーキングにハマっています.」などの家族の発話が得られた.これらの発話に対して表\ref{tab:qollabel}で定義した12種類のQOLラベルで条件づけを行い(家族の発話,\textbf{QOLラベル})の組を作成した.10発話それぞれに12種類のQOLラベルを対応させ,最終的に合計120の組を$\mathcal{S}_{10-l12}$として獲得した.ひとつの発話に対して12種類のQOLラベル通りの応答が生成できるかを評価する目的で$\mathcal{S}_{10-l12}$を使用する.上述の$\mathcal{S}_{10-l12}$では,家族の発話各々について,12種類すべてのQOLラベルに相当する応答を無理に生成するタスクになっている.しかし,これは必ずしも自然な設定ではない.たとえば,家族の発話「私はウオーキングにハマっています.」に対してQOL状態《経済的ゆとり満足感(positive)》を表出するような自然な応答を思い浮かべるのは簡単ではなく,実際,\ref{sec:corpusconst}章で述べたクラウドソーシングではこのラベルに対応する応答例は得られていない.そこで,上述のテストデータから(家族の発話,高齢者の発話,QOLラベル)の三つ組を無作為に100組抽出した集合をもうひとつのテストセットとし,これを$\mathcal{S}_{100}$とする.$\mathcal{S}_{100}$では,$\mathcal{S}_{10-l12}$とは異なり,与えられた家族の発話に対して指定のQOLラベルに対応する応答を人間(クラウドワーカ)が生成できていることが保証されており,応用の観点からより自然な条件での応答性能を評価することができる.\begin{table}[p]\caption{異なるQOLラベルを指定したときの生成結果}\label{output3}\input{02table08.tex}\par\vspace{4pt}\small左部:モデルが生成した応答(\ref{sec:genresp}節),右部:各応答についての人手評価結果(\ref{sec:humaneval}節).表中の値は評価者5名のうち正解と判定した人数を表す.\end{table}\subsection{生成された応答の例}\label{sec:genresp}表\ref{output3}左部に,テストセット$\mathcal{S}_{10-l12}$を用いて生成した応答の一例を示す\footnote{表\ref{output3}右部の数値については\ref{sec:humaneval}節で説明する.}.表\ref{output3}は「着くとすぐに本を読んでるよ」という家族の発話に対して3種類の生成モデル\texttt{S2S-QOL},\texttt{W2V-QOL},\texttt{ELMo-QOL}がQOLラベルごとにどのような内容の応答を生成したかを示している.たとえば,QOLラベル《経済的ゆとり満足感(positive)》が与えられた場合,応答として\texttt{S2S-QOL}では「今度本を買ってそちらに行くよ」が,\texttt{W2V-QOL}および\texttt{ELMo-QOL}では「今度本を買って持っていくよ.」が生成されており,これらの応答からは,少なくとも本を購入してそれを発話者のもとへ届けに行くだけの``経済的ゆとりがある''という高齢者のQOL状態が読み取れる.また,QOLラベル《精神的活力(negative)》の場合の\texttt{S2S-QOL}の応答「私には興味がないな」,\texttt{W2V-QOL}の応答「本にはわしは興味ないからなあ.」,\texttt{ELMo-QOL}の応答「私は外に出かけることも少なくなったよ.」のいずれの応答にも無関心さや無気力さが表れており,これらからは高齢者の``活力がない''様子が読み取れる.このような先行発話に対する応答として適切かつ高齢者のQOL状態を十分に表出する応答は,返信補助システムにおける返信候補として我々が想定している通りのものである.すべての種類のQOLラベルで,《*(positive)》には「今度」「〜する」「〜してあげる」というこれからのことについての前向きな表現が多く見られ,反対に《*(negative)》には「億劫」「面倒」「無駄」など後ろ向きな表現が多く見られた.全体として,与えられたQOLラベルに応じた内容の応答が概ね生成されていることが確認された.\subsection{人手評価}\label{sec:humaneval}生成した応答について,指定したQOLが表出された応答の生成制御できていることを確かめるために,クラウドソーシング\footnote{Yahoo!クラウドソーシング(https://crowdsourcing.yahoo.co.jp/)を用いた.}を利用して人手評価を実施した.\subsubsection*{評価設定}生成された応答を,次の3つの観点について人手で評価した.\begin{itemize}\item観点(1):指定したQOLラベル通りのQOL状態が生成した応答に表出していること\item観点(2):指定したQOLラベルの特にポジティブ・ネガティブの状態の一致\item観点(3):先行発話に対する応答としての適切さ\end{itemize}観点(1)では,生成した応答とそれに先行する発話を評価者に与え,「応答から最も読み取ることができるQOL状態」と「応答から二番目に読み取ることができるQOL状態」を,表\ref{tab:qollabel}で定義した12種類のQOL状態に「わからない・該当なし」を加えた13種類から選択するよう指示した.なお,応答に表出しているQOL状態がひとつのみであると評価者が考える場合は,「応答から二番目に読み取ることができるQOL状態」では「わからない・該当なし」を選択するよう指示した.ひとつの応答につき5人の評価者が評価した.観点(2)と(3)では,生成した応答とそれに先行する発話を評価者に与え,「応答の内容がどちらの状態を表しているか」という問いに対し選択肢\{ポジティブ,ネガティブ,わからない\}からひとつを,「与えられた発話と応答は対話として適切か」という問いに対し選択肢\{適切である,適切でない,わからない\}からひとつをそれぞれ選択するよう指示した.ここでの「対話として適切」とは,先行発話に対する返答として自然に繋がっていること,文法的に正しいことを指す.なお,本タスクは上述のQOL表出に関する評価とは独立に実施した.本タスクもひとつの応答につき5人の評価者が評価した.\subsubsection*{結果}表\ref{tab:humaneval3shu}にQOL表出および応答の適切さに関する人手評価結果を示す.表\ref{tab:humaneval3shu}の(1)(2)(3)について,以下にそれぞれ説明する.\begin{table}[t]\caption{QOL表出および応答の適切さに関する人手評価結果}\label{tab:humaneval3shu}\input{02table09.tex}\vspace{4pt}\small(1)の@1は評価者の「応答から最も読み取ることができるQOL状態」が生成時に指定したQOLラベルと一致している割合を,@2は評価者の「応答から最も読み取ることができるQOL状態」もしくは「応答から二番目に読み取ることができるQOL状態」が指定したQOLラベルと一致している割合を表す.(2)の\checkmark・$\times$は生成時に指定したQOLラベルのボジ・ネガと評価者の判断が一致している・一致してない割合をそれぞれ表す.(3)の\checkmark・$\times$は応答として適切である・適切でないと評価者に判断された割合をそれぞれ表す.()内の数字は人数を表す.\end{table}まず,表\ref{tab:humaneval3shu}「(1)QOL表出」列は上述の観点(1)の評価結果である.@1は評価者の「応答から最も読み取ることができるQOL状態」が生成時に指定したQOLラベルと一致している割合を,@2は評価者の「応答から最も読み取ることができるQOL状態」もしくは「応答から二番目に読み取ることができるQOL状態」が指定したQOLラベルと一致している割合を表す.表\ref{tab:humaneval3shu}に示すように,テストセット$\mathcal{S}_{10-l12}$では@1は0.31〜0.38,@2は0.43〜0.51程度,$\mathcal{S}_{100}$では@1は0.61〜0.62,@2は0.70〜0.72程度であった.文脈的に無理がある場合でも必ず12種類すべてのQOLラベルについて生成する条件($\mathcal{S}_{10-l12}$)では,指定されたQOLの表出に成功するケースは高々半数に留まったが,クラウドワーカが実際に適当な応答を作ることができた条件($\mathcal{S}_{100}$)では比較的高い割合でQOLの表出に成功している.また,生成時に指定したQOLラベルと生成応答に表出しているQOLとの相関を確かめるためCramerの連関係数\cite{math1946cramer}を算出したところ,$\mathcal{S}_{10-l12}$上で\texttt{S2S-QOL}は0.32,\texttt{W2V-QOL}は0.38,\texttt{ELMo-QOL}は0.38となり\footnote{生成時に指定したQOLラベルと,\texttt{S2S-QOL},\texttt{W2V-QOL},\texttt{ELMo-QOL}により生成した応答に表出するQOLに関する人手評価(@1)の詳細を付録Bの図\ref{fig:human_vari12total},図\ref{fig:human_vari12total_w2v},図\ref{fig:human_vari12total_elmo}にそれぞれ示しており,連関係数の算出にはこれらを用いた.},生成時に指定したQOLラベルと人手評価により表出が認められたQOLとの間には中程度の相関が認められる結果となった.次に,表\ref{tab:humaneval3shu}の「(2)ポジ・ネガ一致」の列および付録Cに上述の観点(2)の結果を示す.これは,生成時に指定したポジティブまたはネガティブ(《*(positive)》または《*(negative)》)と,評価者が読み取ったポジティブまたはネガティブの極性が一致するかどうかを評価した結果である.表\ref{tab:humaneval3shu}より,すべてのモデルで生成時に指定したQOLラベルと生成応答で表出が認められたQOLラベルとのポジティブ・ネガティブの極性は,全体として90\%前後で一致した.表\ref{tab:humaneval3shu}の「(3)応答の適切さ」の列および付録Dには,観点(3)の結果を示す.これは,生成した応答がどの程度先行発話に対する応答として適切であるかを人手評価により評価した結果である.\texttt{S2S-QOL}および\texttt{ELMo-QOL}では,全体として60\%以上の応答が適切であると評価された.\texttt{W2V-QOL}は適切と評価された応答の割合は60\%未満で,他の2つの生成モデルよりも低かった.具体的な事例に対する評価例として,表\ref{output3}の右部にそれぞれの応答に対する上述の3つの観点での人手評価の結果を示す.たとえば,「着くとすぐに本を読んでいるよ」という先行発話に対して\texttt{S2S-QOL}が生成した応答「今度わしが見に行くよ」について,(1)の@1では評価者5名のうち1名が生成応答から《生活活動力(positive)》を読み取り,@2では評価者5名のうち3名が《生活活動力(positive)》を読み取っている.(2)については評価者全員が生成応答から高齢者の状態がポジティブであることを読み取り,(3)について評価者5名のうち3名が生成応答は先行発話に対する応答として適切であると判断している.以上をまとめると,まず,本研究で生成した応答は,QOL状態のポジティブ・ネガティブの極性については生成時に指定した通りの状態が高精度で表出していることがわかる.また,12種類のQOLラベルについても,$\mathcal{S}_{100}$での評価からわかるように,人間が適切な応答を生成できるような条件下ではモデルも60\%から70\%の精度で指定のQOL状態を表出する発話を生成できている.図\ref{system}のようなQOL表出発話を誘発するための返信補助システムへの応用を考えた場合,本研究で構築した生成モデルは,特定のQOLをある程度制御可能であるという点で,QOL伝達補助の実証実験に利用可能な水準に達していると考えられる.一方で,現状,QOL表出発話の生成時に高齢者個人の特性や状態を考慮していないため,たとえば「今度本を買ってそちらに行くよ」という返信候補を生成しても高齢者自身の実際の日常生活の活動力や経済的なゆとりの状況と合っていない可能性もある.図\ref{system}に示す通り,我々の提案システムは高齢者自身が返信する内容を編集できるインタフェースを想定しているものの,高齢者の特性や状態にできるだけ合った返信候補を生成することが望ましい.高齢者個人の特性や状況を加味したQOL表出発話の生成モデルの構築に関しては今後検討していきたい.\subsection{QOL制御の影響:応答の適切さに関する調査}\label{sec:vannila_seq2seq}構築した対話コーパスはQOLを制御しない単純な対話応答生成のための学習データとしても利用することができる.本研究ではQOL表出発話の生成を目的としてQOLラベルを用いた条件付き対話応答生成の枠組みで特定のQOL情報を表出するような制御をしながら応答を生成することを主目的としたが,本節では同じコーパスを用いてQOL制御をすることなく対話応答生成をおこなうことで,QOL制御が生成にもたらす影響を調査し報告する.具体的には,生成応答の定性的分析と人手評価により,QOL制御の有無による生成された応答の「対話としての適切さ」を比較調査した.QOLを制御しない応答生成の枠組みとして,構造はシンプルながらも流暢かつ適切な内容の応答を生成するとの報告が多数なされている純粋なseq2seqモデル(\texttt{S2S}と表記)を用いた.\texttt{S2S}の学習設定は,前述の\ref{sec:experiment}節「\texttt{S2S-QOL}モデルの設定」に示した通りである.さらに,QOLを制御しない用例ベースの応答生成手法として\texttt{W2V}および\texttt{ELMo}モデルを用いた.\texttt{W2V},\texttt{ELMo}では,用例データベースとしてすべての訓練データを用いた.\begin{table}[b]\hangcaption{QOLを制御したモデル\texttt{S2S-QOL,W2V-QOL,ELMo-QOL}と制御しないモデル\texttt{S2S,W2V,ELMo}の応答例}\label{output}\input{02table10.tex}\end{table}\subsubsection*{定性的分析}表\ref{output}に,QOLを制御した3種のモデルおよびQOLを制御しない3種のモデルが生成した応答の例を示す.生成時の入力には,$\mathcal{S}_{100}$を用いた.表\ref{output}中のQOLラベルは,生成時にQOLを制御するモデルでのみ用いた.表\ref{output}の結果から,\texttt{S2S-QOL}では与えられたQOLラベルに応じた応答はある程度生成できているが,\texttt{S2S}と比較して応答の自然性に欠ける例も観察された.具体的には,表\ref{output}の2つ目の入力に示す「昨日の日曜日,小学校の運動会だったの」という発話に対して,\texttt{S2S}では「言ってくれれば行ったのに」という発話に対する応答として自然な応答が得られているが,一方で\texttt{S2S-QOL}では「私は趣味の散歩ですら最近は億劫なのに」と《健康満足感(negative)》がQOL状態として読み取れる内容ではあるものの,先行発話との繋がりは不自然で,対話としては許容し難い応答が生成されている様子が確認された.用例ベースのモデルについても,同様の様子が確認された.\subsubsection*{人手評価}QOL制御の影響を調査するために,クラウドソーシング\footnote{Yahoo!クラウドソーシング(https://crowdsourcing.yahoo.co.jp/)を用いた}による人手評価を実施した.生成時の入力には$\mathcal{S}_{100}$を用い,QOLを制御した3種のモデルおよびQOLを制御しない3種のモデルによりそれぞれ生成した合計600の応答を評価対象とした.評価者は,生成した応答とそれに先行する発話を与えられ,「与えられた発話と応答は対話として適切か」という問いに対し選択肢\{適切である,適切でない,わからない\}からひとつを選択した.ここでの「対話として適切」とは,先行発話に対する返答として自然に繋がっていること,統語的および文法的に正しいことを指す.ひとつの応答につき,5人の評価者が評価をおこなった.\begin{figure}[t]\begin{center}\includegraphics{26-3ia2f11.eps}\end{center}\caption{応答の適切さに関する人手評価結果}\label{fig:human_vsbase}\vspace*{-0.5\Cvs}\end{figure}人手評価の結果を図\ref{fig:human_vsbase}に示す.生成応答のうち対話として適切と評価された生成応答の割合は,\texttt{S2S}では約70\%であったのに対し,\texttt{S2S-QOL}ではそれよりも約10\%ほど低い約60\%という結果であった.\texttt{W2V-QOL}と\texttt{W2V},\texttt{ELMo-QOL}と\texttt{ELMo}についても同様で,QOLを制御したモデルは制御しないモデルよりも対話としての適切さが低下した.QOLを制御することよってそれぞれのモデルに生じた約10--15\%の低下は,Mann-WhitneyのU検定\cite{mann1947utest}により\texttt{S2S-QOL}および\texttt{W2V-QOL}では$p<0.01$,\texttt{ELMo-QOL}では$p<0.05$の有意が認められるものであった.生成応答の質を損なわないQOL制御の実現は,今後の課題である.また,\texttt{S2S}が生成した応答の約70\%が人手評価により応答として適切であると評価されたことから,今回構築した数万規模のコーパスがニューラル対話応答生成の学習データとして機能し得るということが示唆された.一般的にseq2seqを始めとするニューラル生成モデルの学習には数百万オーダーの学習データが必要とされているが\cite{vinyals2015conv,sordoni2015conv,emnlp2017att,wu2018neural},今回のようにドメインが限定的であることやデータの質が高い(たとえば,統語的および文法的に正しい,内容が明確に記述されている)などの条件下では,より少量のデータでもニューラル生成モデルの学習が可能であることがわかった.
\section{結論}
我々は,高齢者のQOLを家族に伝えることで,高齢者と離れて住む家族とのコミュニケーションの質を向上させるシステムの構築を進めている.本研究では,QOL情報の伝達補助を目的としたQOL表出発話の生成に取り組んだ.具体的には,大規模なQOLラベルつき対話コーパスの構築に向けて,高齢者が主体となる高齢者のQOL表出発話を大規模に収集するためのコーパス収集方法を提案した.提案するコーパス収集に関してふたつの予備実験を実施し,a)本論文で提案するコーパス収集の方法で高齢者が主体となり高齢者の行動や状態を表すQOL表出発話が収集できていることを示すとともに,b)対面で収集した高齢者の発話と40代・50代が高齢者を模擬した発話とを比較し,本論文で提案するコーパス収集の方法でも40代・50代のクラウドワーカから模擬的に高齢者の発話を収集できることを示した.さらに,52,079発話のQOLラベルつき対話コーパスを構築した上で,QOLラベルにより特定のQOL情報を伝達するよう制御しながら,高齢者のQOLを表出する応答を生成する実験を行った.人手による評価の結果,与えられたQOLラベルに応じた応答が生成できているかという観点については,本研究で用いた生成ベースおよび用例ベースのいずれの手法でも,生成応答からは概ね指定通りのQOLが表出できているという評価を得た.特に,QOL状態のポジティブ・ネガティブの極性については生成時に指定した通りの状態が高精度で表出していることがわかった.また,12種類のQOLラベルについても,人間が適切な応答を生成できるような条件に関しては生成モデルでは60\%から70\%の精度で指定のQOL状態を表出する発話を生成することがわかった.また,応答の適切さに関しては生成した応答のうち60\%以上が適切と評価された.これらの結果から,本研究の応答生成モデルは,高齢者のQOL伝達補助の実証実験ができる水準に達していると考えられる.一方で,返信候補として提示する応答におけるQOLの表出と応答としての自然性の両立,および,高齢者の個人の特性や状態に合わせたQOL表出発話の生成に関しては,QOL表出発話の生成モデルの改良も含めて今後取り組む必要があることも明らかとなった.なお,図~\ref{system}のシステムでは「かわいいね.」「上手だね.」なども返信候補として生成しているが,本研究の応答生成実験ではQOL表出発話の生成のみを対象とした.これらのQOL表出発話以外の応答生成,および図~\ref{system}のシステムの実装については,実証実験に向けて今後取り組む予定である.また,高齢者のQOLを家族に伝えるシステムとしては,図~\ref{system}で提案したシステムの他にも,高齢者とチャットボットとの対話から高齢者のQOLを推定して家族に伝えるシステムや,家族が高齢者のQOLについて質問することを支援するシステムなど,さまざまなシステムが考えられる.本論文で提案したシステムの有効性の評価,他のシステムも含めてどのようなシステムが有効かについては,今後実証実験を通じて明らかにしていきたい.また,どのような粒度でQOLを伝達すると実際にコミュニケーションの質が向上するかについても,今後,実証的に検証していきたい.\acknowledgment本論文の査読にあたり,ご意見・ご指摘をくださった査読者の方々へ深く感謝いたします.本論文の内容の一部は,第84回人工知能学会言語・音声理解と対話処理研究会で発表したものです\cite{slud2018akama}.\begin{thebibliography}{}\bibitem[\protect\BCAY{赤間\JBA徳久\JBA乾}{赤間\Jetal}{2018}]{slud2018akama}赤間怜奈\JBA徳久良子\JBA乾健太郎\BBOP2018\BBCP.\newblockQualityofLife情報の伝達補助を目的とする対話応答生成.\\newblock{\BemSIG-SLUD},{\BbfB5}(02),\mbox{\BPGS\23--26}.\bibitem[\protect\BCAY{Akama,Inada,Inoue,Kobayashi,\BBA\Inui}{Akamaet~al.}{2017}]{akama2017gen}Akama,R.,Inada,K.,Inoue,N.,Kobayashi,S.,\BBA\Inui,K.\BBOP2017\BBCP.\newblock\BBOQGeneratingStylisticallyConsistentDialogResponseswithTransferLearning.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP)},\mbox{\BPGS\408--412}.\bibitem[\protect\BCAY{Callison-Burch,Ungar,\BBA\Pavlick}{Callison-Burchet~al.}{2015}]{crowd2015}Callison-Burch,C.,Ungar,L.,\BBA\Pavlick,E.\BBOP2015\BBCP.\newblock\BBOQCrowdsourcingforNLP.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(NAACL):TutorialAbstracts},\mbox{\BPGS\2--3}.\bibitem[\protect\BCAY{Cramer}{Cramer}{1946}]{math1946cramer}Cramer,H.\BBOP1946\BBCP.\newblock{\BemMathematicalMethodsofStatistics}.\newblockPrincetonUniversityPressPrinceton.\bibitem[\protect\BCAY{Hellst{\"{o}}rm\BBA\Hallberg}{Hellst{\"{o}}rm\BBA\Hallberg}{2001}]{Ylva2001QOL}Hellst{\"{o}}rm,Y.\BBACOMMA\\BBA\Hallberg,I.~R.\BBOP2001\BBCP.\newblock\BBOQPerspectivesofelderlypeoplereceivinghomehelponhealthcareandqualityoflife.\BBCQ\\newblockIn{\BemHealthandSocialCareintheCommunity},\mbox{\BPGS\61--71}.\bibitem[\protect\BCAY{Hochreiter\BBA\Schmidhuber}{Hochreiter\BBA\Schmidhuber}{1997}]{hochreiter1997lstm}Hochreiter,S.\BBACOMMA\\BBA\Schmidhuber,J.\BBOP1997\BBCP.\newblock\BBOQLongShort-TermMemory.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf9}(8),\mbox{\BPGS\1735--1780}.\bibitem[\protect\BCAY{Isbell,Kearns,Kormann,Singh,\BBA\Stone}{Isbellet~al.}{2000}]{isbell2000aaai}Isbell,C.~L.,Kearns,M.,Kormann,D.,Singh,S.,\BBA\Stone,P.\BBOP2000\BBCP.\newblock\BBOQCobotinLambdaMOO:ASocialStatisticsAgent.\BBCQ\\newblockIn{\BemProceedingsofthe17thNationalConferenceonArtificialIntelligenceand12thConferenceonInnovativeApplicationsofArtificialIntelligence(AAAI)},\mbox{\BPGS\36--41}.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2015}]{kingma2015adam}Kingma,D.~P.\BBACOMMA\\BBA\Ba,J.\BBOP2015\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblockIn{\BemThe3rdInternationalConferenceonLearningRepresentations(ICLR)}.\bibitem[\protect\BCAY{Lala,Milhorat,Inoue,Ishida,Takanashi,\BBA\Kawahara}{Lalaet~al.}{2017}]{lala2017attentive}Lala,D.,Milhorat,P.,Inoue,K.,Ishida,M.,Takanashi,K.,\BBA\Kawahara,T.\BBOP2017\BBCP.\newblock\BBOQAttentiveListeningSystemwithBackchanneling,ResponseGenerationandFlexibleTurn-Taking.\BBCQ\\newblockIn{\BemProceedingsofthe18thAnnualMeetingoftheSpecialInterestGrouponDiscourseandDialogue(SIGDIAL)},\mbox{\BPGS\127--136}.\bibitem[\protect\BCAY{Li,Galley,Brockett,Spithourakis,Gao,\BBA\Dolan}{Liet~al.}{2016}]{li2016persona}Li,J.,Galley,M.,Brockett,C.,Spithourakis,G.,Gao,J.,\BBA\Dolan,B.\BBOP2016\BBCP.\newblock\BBOQAPersona-BasedNeuralConversationModel.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\994--1003}.\bibitem[\protect\BCAY{Mann\BBA\Whitney}{Mann\BBA\Whitney}{1947}]{mann1947utest}Mann,H.~B.\BBACOMMA\\BBA\Whitney,D.~R.\BBOP1947\BBCP.\newblock\BBOQOnaTestofWhetherOneofTwoRandomVariablesisStochasticallyLargerthantheOther.\BBCQ\\newblock{\BemTheAnnalsofMathematicalStatistics},{\Bbf18}(1),\mbox{\BPGS\50--60}.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{mikolov13iclr}Mikolov,T.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQEfficientEstimationofWordRepresentationsinVectorSpace.\BBCQ\\newblockIn{\BemInternationalConferenceonLearningRepresentations(ICLR)Workshop}.\bibitem[\protect\BCAY{内閣府}{内閣府}{2015}]{naikakufu2}内閣府\BBOP2015\BBCP.\newblock平成27年度版高齢社会白書(全体版).\\newblockhttp://www8.cao.go.jp/\linebreak[2]kourei/\linebreak[2]whitepaper/\linebreak[2]w-2015/\linebreak[2]html/s1\_2\_6.html.\bibitem[\protect\BCAY{内閣府}{内閣府}{2017}]{naikakufu1}内閣府\BBOP2017\BBCP.\newblock平成29年度版高齢社会白書(全体版).\\newblockhttp://www8.cao.go.jp/\linebreak[2]kourei/\linebreak[2]whitepaper/\linebreak[2]w-2017/\linebreak[2]html/zenbun/s1\_2\_1.html.\bibitem[\protect\BCAY{太田\JBA芳賀\JBA長田\JBA田中\JBA前田\JBA嶽崎\JBA関\JBA大山\JBA中西\JBA石川}{太田\Jetal}{2001}]{oota2001}太田壽城\JBA芳賀博\JBA長田久雄\JBA田中喜代次\JBA前田清\JBA嶽崎俊郎\JBA関奈緒\JBA大山泰緒\JBA中西好子\JBA石川和子\BBOP2001\BBCP.\newblock地域高齢者のためのQOL質問表の開発と評価.\\newblock\Jem{日本公衆衛生雑誌},\mbox{\BPGS\258--267}.\bibitem[\protect\BCAY{Peters,Neumann,Iyyer,Gardner,Clark,Lee,\BBA\Zettlemoyer}{Peterset~al.}{2018}]{peters2018naacl}Peters,M.,Neumann,M.,Iyyer,M.,Gardner,M.,Clark,C.,Lee,K.,\BBA\Zettlemoyer,L.\BBOP2018\BBCP.\newblock\BBOQDeepContextualizedWordRepresentations.\BBCQ\\newblockIn{\BemProceedingsofthe2018ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies(NAACL-HLT)},\mbox{\BPGS\2227--2237}.\bibitem[\protect\BCAY{Ritter,Cherry,\BBA\Dolan}{Ritteret~al.}{2011}]{ritter2011emnlp}Ritter,A.,Cherry,C.,\BBA\Dolan,W.~B.\BBOP2011\BBCP.\newblock\BBOQData-DrivenResponseGenerationinSocialMedia.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\583--593}.\bibitem[\protect\BCAY{Shao,Gouws,Britz,Goldie,Strope,\BBA\Kurzweil}{Shaoet~al.}{2017}]{emnlp2017att}Shao,Y.,Gouws,S.,Britz,D.,Goldie,A.,Strope,B.,\BBA\Kurzweil,R.\BBOP2017\BBCP.\newblock\BBOQGeneratingHigh-QualityandInformativeConversationResponseswithSequence-to-SequenceModels.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\2210--2219}.\bibitem[\protect\BCAY{下岡\JBA徳久\JBA吉村\JBA星野\JBA渡部}{下岡\Jetal}{2017}]{sitaoka2017}下岡和也\JBA徳久良子\JBA吉村貴克\JBA星野博之\JBA渡部生聖\BBOP2017\BBCP.\newblock音声対話ロボットのための傾聴対話システムの開発.\\newblock\Jem{自然言語処理},{\Bbf24}(1),\mbox{\BPGS\3--47}.\bibitem[\protect\BCAY{佐藤\JBA乾}{佐藤\JBA乾}{2018}]{nlp2018sato}佐藤祥多\JBA乾健太郎\BBOP2018\BBCP.\newblock因果関係に基づくデータサンプリングを利用した雑談応答学習.\\newblock\Jem{言語処理学会第24回年次大会},\mbox{\BPGS\1219--1222}.\bibitem[\protect\BCAY{Sidner,Bickmore,Rich,Barry,Ring,Behrooz,\BBA\Shayganfar}{Sidneret~al.}{2013}]{sidner2013always}Sidner,C.,Bickmore,T.,Rich,C.,Barry,B.,Ring,L.,Behrooz,M.,\BBA\Shayganfar,M.\BBOP2013\BBCP.\newblock\BBOQDemonstrationofanAlways-OnCompanionforIslatedOlderAdults.\BBCQ\\newblockIn{\BemProceedingsofthe14thAnnualMeetingoftheSpecialInterestGrouponDiscourseandDialogue(SIGDIAL)},\mbox{\BPGS\148--150}.\bibitem[\protect\BCAY{Sordoni,Galley,Auli,Brockett,Ji,Mitchell,Nie,Gao,\BBA\Dolan}{Sordoniet~al.}{2015}]{sordoni2015conv}Sordoni,A.,Galley,M.,Auli,M.,Brockett,C.,Ji,Y.,Mitchell,M.,Nie,J.-Y.,Gao,J.,\BBA\Dolan,B.\BBOP2015\BBCP.\newblock\BBOQANeuralNetworkApproachtoContext-SensitiveGenerationofConversationalResponses.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies(NAACL-HLT)},\mbox{\BPGS\196--205}.\bibitem[\protect\BCAY{Sutskever,Vinyals,\BBA\Le}{Sutskeveret~al.}{2014}]{seq2seq2014nips}Sutskever,I.,Vinyals,O.,\BBA\Le,Q.~V.\BBOP2014\BBCP.\newblock\BBOQSequencetoSequenceLearningwithNeuralNetwork.\BBCQ\\newblockIn{\BemProceedingsofthe27thInternationalConferenceonNeuralInformationProcessingSystems(NIPS)},\mbox{\BPGS\3104--3112}.\bibitem[\protect\BCAY{徳久\JBA寺嶌\JBA乾}{徳久\Jetal}{2019}]{tokuhisa}徳久良子\JBA寺嶌立太\JBA乾健太郎\BBOP2019\BBCP.\newblock高齢者と家族とのコミュニケーションの質の向上に向けて:高齢者のQualityofLife表出発話の分析.\\newblock\Jem{情報処理学会論文誌},{\Bbf60}(2),\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{内山\JBA宮川}{内山\JBA宮川}{2006}]{uchiyama2006}内山映子\JBA宮川祥子\BBOP2006\BBCP.\newblock在宅介護を前提とした小規模コミュニティにおける情報流通と管理.\\newblockIn{\BemKeioSFCJournal},\mbox{\BPGS\30--53}.\bibitem[\protect\BCAY{Vaarama}{Vaarama}{2009}]{Marja2009QOL}Vaarama,M.\BBOP2009\BBCP.\newblock\BBOQCare-relatedQualityofLifeinOldAge.\BBCQ\\newblockIn{\BemEuropeanJournalofAging},\mbox{\BPGS\113--125}.\bibitem[\protect\BCAY{Vinyals\BBA\Le}{Vinyals\BBA\Le}{2015}]{vinyals2015conv}Vinyals,O.\BBACOMMA\\BBA\Le,Q.\BBOP2015\BBCP.\newblock\BBOQANeuralConversationalModel.\BBCQ\\newblockIn{\BemInternationalConferenceonMachineLearning(ICML)DeepLearningWorkshop}.\bibitem[\protect\BCAY{Wu,Wu,Yang,Xu,\BBA\Li}{Wuet~al.}{2018}]{wu2018neural}Wu,Y.,Wu,W.,Yang,D.,Xu,C.,\BBA\Li,Z.\BBOP2018\BBCP.\newblock\BBOQNeuralResponseGenerationwithDynamicVocabularies.\BBCQ\\newblockIn{\Bem32ndAAAIConferenceonArtificialIntelligence(AAAI)},\mbox{\BPGS\5594--5601}.\end{thebibliography}\bibliographystyle{jnlpbbl_1.5}\vspace*{1\Cvs}\appendix
\section{用例データベースの規模}
表\ref{tab:numofexample}に,実験で用いる各QOLラベルに対応するそれぞれの用例データベースの規模を示す.複数のQOLラベル$q_i,q_j$が付与されているようなペア$(\widetilde{X},\widetilde{Y})$については,付与されているすべてのラベルに対応する用例データベースにそれぞれ用例として含まれる:$(\widetilde{X},\widetilde{Y})\in\mathcal{D}_{q_i},(\widetilde{X},\widetilde{Y})\in\mathcal{D}_{q_j}$.\begin{table}[h]\caption{各QOLラベルに対応する用例データベースの規模}\label{tab:numofexample}\input{02table11.tex}\end{table}\vspace*{-1\Cvs}
\section{生成応答に表出するQOL状態に関する人手評価結果の詳細}
\texttt{S2S-QOL},\texttt{W2V-QOL},\texttt{ELMo-QOL}により生成した応答について,生成応答に表出するQOL状態を人手により評価した結果を,図\ref{fig:human_vari12total},図\ref{fig:human_vari12total_w2v},図\ref{fig:human_vari12total_elmo}にそれぞれ示す.評価方法の詳細は,本文中の\ref{sec:humaneval}節「評価設定」を参照されたい.図の各行は生成時に指定したQOLラベル,各列は評価者によって生成された応答に表出していると判断されたQOLラベルである.図中の灰色のセルは,生成時に指定したラベルと生成応答のQOL状態の表出に関する評価者の判断が一致している(指定した通りのQOL状態が表出している)ことを示している.たとえば,図\ref{fig:human_vari12total}より,生成時に《生活活動力(positive)》を指定して\texttt{S2S-QOL}により生成した100個の応答(1行目)のうち,指定した通りのQOLが表出したと判断された応答の数は13(1列目)で,最も多く表出していると判断されたQOL状態は《精神的活力(positive)》の18(11行目)であった.\begin{figure}[t]\begin{center}\includegraphics{26-3ia2f12.eps}\end{center}\caption{\texttt{S2S-QOL}により生成した応答に表出するQOL状態に関する人手評価結果}\label{fig:human_vari12total}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{26-3ia2f13.eps}\end{center}\caption{\texttt{W2V-QOL}により生成した応答に表出するQOL状態に関する人手評価結果}\label{fig:human_vari12total_w2v}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{26-3ia2f14.eps}\end{center}\caption{\texttt{ELMo-QOL}により生成した応答に表出するQOL状態に関する人手評価結果}\label{fig:human_vari12total_elmo}\end{figure}図\ref{fig:human_vari12total},図\ref{fig:human_vari12total_w2v},図\ref{fig:human_vari12total_elmo}より,いずれのモデルでも,程度に差はあるものの指定したQOLラベルに概ね評価が集まっていることから,指定した通りのQOL状態を表出する応答の生成にある程度成功していると考えられる.また,モデル間で大きな傾向の差は見られなかった.具体的には,たとえば《健康的満足感(negative)》や《経済的ゆとり満足感(negative)》を生成時に指定した場合,いずれのモデルでも評価の約40\%以上がそれぞれのQOL状態を生成応答から読み取ることに成功しており,生成応答におけるQOL状態の表出が特に顕著という結果となった,一方で,《生活活動力(positive)》や《健康的満足感(positive)》を生成時に指定した場合,いずれのモデルでも評価者が生成応答から最も読み取れると判断したQOL状態は《精神的活力(positive)》であった.これは,「生活活動力」,「健康的満足感」および「精神的活力」といったQOLが,実際は互いに強く関連し合う概念であるため,それらを明確に識別することが困難であることが原因のひとつと考えられる.\begin{figure}[b]\begin{center}\includegraphics{26-3ia2f15.eps}\end{center}\caption{\texttt{S2S-QOL}により生成した応答のポジティブまたはネガティブの表出に関する各ラベルごとの評価}\label{fig:human_posneg}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{26-3ia2f16.eps}\end{center}\caption{\texttt{W2V-QOL}により生成した応答のポジティブまたはネガティブの表出に関する各ラベルごとの評価}\label{fig:human_posneg_w2v}\end{figure}
\section{QOL状態のポジティブ・ネガティブに関する人手評価結果の詳細}
\texttt{S2S-QOL},\texttt{W2V-QOL},\texttt{ELMo-QOL}により生成した応答について,生成時に指定したQOLラベルの特にポジティブまたはネガティブの状態が生成応答に表出するポジティブまたはネガティブと一致するかを人手により評価した結果を,図\ref{fig:human_posneg},図\ref{fig:human_posneg_w2v},図\ref{fig:human_posneg_elmo}にそれぞれ示す.評価方法の詳細は,本文中の\ref{sec:humaneval}節「評価設定」を参照されたい.たとえば,図\ref{fig:human_posneg}より,生成時にQOLラベル《生活活動力(positive)》を指定して生成した応答に関する評価(全体数は50)のうち,応答の内容はポジティブな状態を表していると評価したもの,すなわち生成時に指定された状態と一致したものが35(全体の70\%に相当)で,ネガティブな状態を表していると評価したものが6(全体の12\%)であった.\begin{figure}[t]\begin{center}\includegraphics{26-3ia2f17.eps}\end{center}\caption{\texttt{ELMo-QOL}により生成した応答のポジティブまたはネガティブの表出に関する各ラベルごとの評価}\label{fig:human_posneg_elmo}\end{figure}いずれのモデルでも,生成応答に表出するポジティブまたはネガティブの状態が生成時に指定されたものと一致する割合はQOLラベルによって差があり,小さいものでは70\%から,大きいものでは100\%まであった.また,いずれのモデルでも《経済的ゆとり満足感(negative)》は一致する割合が大きく,一方で《精神的健康(negative)》は一致する割合が小さい傾向にあった.実際の生成応答例を見ると,たとえば本文の表\ref{output3}の\#8,QOLラベル《経済的ゆとり満足感(negative)》のもとで\texttt{ELMo-QOL}が生成した応答「おばあちゃんあちこち痛いけど湿布買うお金無いわ.」は「お金がない」ということばで経済的ゆとりがない様子が直接的に表現されているが,一方で表\ref{output3}の\#10,QOLラベル《精神的健康(negative)》のもとで\texttt{ELMo-QOL}が生成した応答「俺が一緒に読んでやれたらいいんだけどな.」は精神の健康状態が良くない様子の直接的な表現が含まれておらず,そのため状態がネガティブであるとの判断が比較的困難となったことで,一致する割合が小さくなったと考えられる.\begin{figure}[b]\begin{center}\includegraphics{26-3ia2f18.eps}\end{center}\caption{\texttt{S2S-QOL}により生成した応答の応答としての適切さに関する各ラベルごとの評価}\label{fig:human_rep}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{26-3ia2f19.eps}\end{center}\caption{\texttt{W2V-QOL}により生成した応答の応答としての適切さに関する各ラベルごとの評価}\label{fig:human_rep_w2v}\end{figure}
\section{生成応答の適切さに関する人手評価結果の詳細}
\texttt{S2S-QOL},\texttt{W2V-QOL},\texttt{ELMo-QOL}により生成した応答について,生成時に指定したQOLラベルの特にポジティブまたはネガティブの状態が生成応答に表出するポジティブまたはネガティブと一致するかを人手により評価した結果を,図\ref{fig:human_rep},図\ref{fig:human_rep_w2v},図\ref{fig:human_rep_elmo}にそれぞれ示す.評価方法の詳細は,本文中の\ref{sec:humaneval}節「評価設定」を参照されたい.たとえば,図\ref{fig:human_rep}より,生成時にQOLラベル《生活活動力(positive)》を指定して生成した応答に関する評価(全体数は50)のうち,生成応答の内容が先行発話に対して適切と判断されたものが31(全体の61\%に相当)で,不適切と判断されたものが18(全体の36\%)であった.それぞれのモデルで傾向は異なり,たとえば,《精神的活力(positive)》で適切と判断された応答の割合は,\texttt{S2S-QOL}では同モデルの平均程度の60\%であるが,\texttt{W2V-QOL}では同モデルのなかでは比較的大きい66\%で,\texttt{ELMo-QOL}では同モデルのなかで最も大きい78\%であった.\begin{figure}[t]\begin{center}\includegraphics{26-3ia2f20.eps}\end{center}\caption{\texttt{ELMo-QOL}により生成した応答の応答としての適切さに関する各ラベルごとの評価}\label{fig:human_rep_elmo}\end{figure}\begin{biography}\bioauthor{赤間怜奈}{2017年東北大学工学部卒業.2018年東北大学大学院情報科学研究科博士前期課程修了.現在,同研究科博士後期課程在学中.自然言語処理に関する研究に従事.人工知能学会,ACL各学生会員.}\bioauthor{徳久良子}{2001年九工大大学院修士課程修了.同年(株)豊田中研入社.2009年奈良先端大学情報工学研究科博士課程修了.感情や対話に関する研究に従事.博士(工学).人工知能学会,言語処理学会,IEEE各会員.}\bioauthor{乾健太郎}{東北大学大学院情報科学研究科教授.1995年東京工業大学大学院情報理工学研究科博士課程修了.同大学助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より現職.2016年より理化学研究所AIPセンター自然言語理解チームリーダー兼任.}\end{biography}\biodate\end{document}
| |
V03N03-03 | \section{はじめに}
\vspace*{-1mm}機械翻訳システムは,巨大なルールベースシステムであり,NTTにおいて開発を進めている機械翻訳システムALT-J/E~\cite{Ikehara89,Ikehara90}でも,1万ルール以上のパタン対ルール(翻訳ルール)を利用している.他のルールベースシステムと同様,機械翻訳システムにおいても,ルールベースの作成・改良工数は大きな問題であり,特にそのルール数が巨大なだけに,その工数削減が強く望まれている.ルールベースの構築・保守を支援する手法として,近年,事例からの学習を利用する研究が活発となっている.機械翻訳システムにおいても,ルールベース構築への学習技術適用が試みられており,田中は,英日翻訳事例(コーパス)から語彙選択ルールを学習する手法を提案している\cite{Tanaka94}.また,Almuallimも,日英翻訳事例から,英語動詞選択ルール\footnote{パタン対ルールの主要部分である.}を学習している\cite{Almuallim94c}.更に,宇津呂は,日英翻訳事例から格フレームを獲得している\cite{Utsuro93}.これら既存のアプローチでは,ルールが全く存在しない状態からスタートして,事例のみに基づいてルールを作り出している.従って,未知事例に対して高い正解率を持つルールを学習するには,多くの翻訳事例(これを以下,{\bf実事例}と呼ぶ.)を必要とする.しかし,現実には,既存文書における動詞分布の偏り等の理由により,学習に必要な個数の実事例を,全動詞に対して収集する事は,極めて困難である.事例からの学習がルールベース構築に利用されるようになったのは,矛盾の無い完全なルールを生成する事が,人間には困難だからである.しかし,人間は,完全なルールを構成できなくとも,概略的あるいは部分的なルールは生成できる.そこで,人手作成の粗いルールと実事例とを融合してルールを学習できれば,人手作成ルール及び実事例のいずれよりも高い正解率を持つルールが作成でき,実事例のスパース性の問題を回避できる可能性がある.そこで,本論文では,人手作成のルールと実事例を統合して,より精度の高いルールを生成する,修正型の学習方法を提案する.具体的には,まず,人手作成のルールから逆に事例を生成(以下,この生成された事例を{\bf仮事例}と呼ぶ.)する.次に,仮事例と実事例を既存の学習アルゴリズム(これを,以下,{\bf内部学習アルゴリズム}と呼ぶ.)に入力する.内部学習アルゴリズムの出力が,最終的に獲得されたルールである.内部学習アルゴリズムは,属性ベクトル型の事例表現を持つ学習アルゴリズムなら任意の学習アルゴリズムを選択できる.尚,人手作成ルールの表現形式は,その表現能力の高さからHausslerによるIDE形式\cite{Haussler88}とした.提案手法では,仮事例と実事例の重要度を表現するために,重みを各事例に対して与える必要がある.即ち,人手作成のルールが非常に正確であれば,ルールから生成された仮事例に大きな重みを置くべきである.逆に,人手作成のルールが不正確であれば,小さい重みを置くべきである.提案手法では,この最適な重みの決定に,クロスバリデーションによるパラメータチューニングを利用する.本手法の有効性を評価するため,既存のドキュメントから抽出した実事例を用いて,ALT-J/Eの英語動詞選択ルールの獲得実験を行なった.内部学習アルゴリズムとしては,意味カテゴリーシソーラスのエンコーディング手法に特徴を持つAlmuallimによる学習手法\cite{Almuallim94c}を利用した.その結果,本手法により獲得された英語動詞選択ルールは,実事例のみから獲得されたルールや初期投入した人手作成のルールに比べて,高い正解率を示した.以下,第2章では,英語動詞選択ルールを説明する.第3章では,従来のアルゴリズムとその問題を概観する.新しい学習手法を第4章で提案する.第5章では,評価結果を示す.第6章では,他の修正型学習手法との差異について論ずる.第7章は本論文のまとめである.
\section{英語動詞選択ルールとその獲得}
本章では,英語動詞選択ルールを説明し,その獲得における問題点について述べる.\subsection{英語動詞選択ルール}NTTの開発しているALT-J/Eでは,日英翻訳のために,1万個を超えるパタン対ルールを利用している.パタン対ルールは,日本文のパターン(単文)に英文のパターンを対応させるマッピングルールである.即ち,左辺に日本文のパターンを,右辺に英文のパターンをもつ.以下に,日本語動詞「焼く」に対するパタン対ルールの例を示す.{\scriptsize\begin{center}\begin{tabular}[t]{llllll}IF&&&THEN&&\\&J-Verb&=``焼く''&&Subj&=$N_1$\\&$N_1$(Subj)&\myinm``人''&&E-Verb&=``bake''\\&$N_2$(Obj)&\myinm``パン''or``菓子''&&Obj&=$N_2$\\\end{tabular}\\\end{center}}\noindent{だだし,これより以下,``\myinm''は,``aninstanceof''を意味するものとする.}本論文における英語動詞選択ルールとは,図~\ref{YakuSelectionRule}のようなルールで,左辺に日本文パターン,右辺に英語動詞を持ち,日本文パターンを英語動詞に対応させる.即ち,英語動詞選択ルールは,パタン対ルールにおいて,英語側パタンを英語動詞のみに限定したものである\footnote{英語パタン自体を学習できる事が望ましいが,本論文では,その第1ステップとして,その主要部である動詞のみを対象とする.}.\begin{figure}[ht]{\scriptsize\begin{center}\begin{tabular}[t]{llllll}IF&&&THEN&&\\&J-Verb&=``焼く''&&&\\&$N_1$(主格)&\myinm``人''&&E-Verb&=``bake''\\&$N_2$(目的格)&\myinm``パン''or``菓子''&&&\\IF&&&THEN&&\\&J-Verb&=``焼く''&&&\\&$N_1$(主格)&\myinm``人''&&E-Verb&=``roast''\\&$N_2$(目的格)&\myinm``肉''&&&\\IF&&&THEN&&\\&J-Verb&=``焼く''&&&\\&$N_1$(主格)&\myinm``人''&&E-Verb&=``broil''\\&$N_2$(目的格)&\myinm``魚''or``魚介類''&&&\\IF&&&THEN&&\\&J-Verb&=``焼く''&&&\\&$N_1$(主格)&\myinm``主体''&&E-Verb&=``cremate''\\&$N_2$(目的格)&\myinm``人''or``動物''&&&\\IF&&&THEN&&\\&J-Verb&=``焼く''&&&\\&$N_1$(主格)&\myinm``主体''or``機械''&&E-Verb&=``burn''\\&$N_2$(目的格)&\myinm``場所''or``具対物''or&&&\\&&~~~``場''&&&\\\end{tabular}\\\vspace{1em}\vspace{-1mm}\caption{日本語動詞``焼く''に対する英語動詞選択ルール}\label{YakuSelectionRule}\end{center}}\begin{center}\epsfile{file=zu3.eps}\vspace*{-1mm}\caption{ALT-J/Eにおける意味カテゴリーシソーラスの一部}\label{SemanticHierarchy}\end{center}\vspace*{-2mm}\end{figure}図~\ref{YakuSelectionRule}から分かるように,左側の日本文パターンは,一つの日本語動詞と$N_1,N_2$等のパラメータから成る.$N_1,N_2$等は,主格,目的格等の日本文を構成する格である.ALT-J/Eでは,13種類の格を持つ.また,``魚'',``魚介類''等は,意味カテゴリーである.ALT-J/Eの場合,約3千個の意味カテゴリーを持ち,各意味カテゴリーは,12段を持つ意味カテゴリーシソーラス上のノードである.上位ノードと下位ノードは,is-a関係で結ばれている.図\ref{SemanticHierarchy}に,意味カテゴリーシソーラスの一部を示す.ALT-J/Eは,約40万語の名詞意味辞書を持ち,この名詞意味辞書は,日本語名詞を意味カテゴリーに対応させる機能を持つ.例えば,名詞``鶏''は,肉と鳥のインスタンスを持つ.この例からも分かる様に,1個の名詞は,通常,複数の意味カテゴリーを持っている.図~\ref{YakuSelectionRule}において,例えば,英語動詞がbakeとなるのは,(1)~入力された日本文の主格の名詞が,``人''またはその下位の意味カテゴリーを持ち,かつ,(2)~目的格の名詞が,``パン'',``菓子'',またはそれらの下位の意味カテゴリーを持ち,かつ日本語動詞が,``焼く''である時である.\subsection{英語動詞選択ルールを獲得する難しさ}英語動詞選択ルールを獲得する際に,最も困難な作業は,ルール中の各格に対する適切な意味カテゴリーの組合せの選択である.これは,ALT-J/Eにおける約3千の意味カテゴリーの組合せが巨大である点に起因する.従って,ルール中の各格に対して適切な意味カテゴリーの組合せを見い出す事が,学習アルゴリズムに課せられた課題となる.
\section{従来手法とその問題点\label{TheFormerWork}}
本章では,従来手法のひとつとしてAlmuallimの手法\cite{Almuallim94c}を例にとり,学習事例収集の困難さについて論ずる.尚,ここで示す問題は他の事例からの翻訳ルール学習手法にも共通していると思われる.Almuallimは,日英翻訳事例から英語動詞選択ルールを学習する2つのアルゴリズム\cite{Almuallim94c}を提案した.このAlmuallimのアプローチでは,学習用の事例(以下これを,``訓練事例''と呼ぶ.)が,以下のようにして作成される.\begin{description}\item[(1)]次のような日本語の単文と適切な英語動詞の対を準備,\\(``コックがアップルパイを焼く''``bake'')\item[(2)]日本語の単文を構文解析,\item[(3)]単文中の主名詞を抽出,\item[(4)]ステップ(3)で抽出した名詞を元に以下のように訓練事例を生成.\\$\langle$N1\myinm``道具'',``人'',or``職業'',N2\myinm``菓子'',``bake''$\rangle$\\\end{description}Almuallimのアプローチで,未知事例に対して高い正解率を示す英語動詞選択ルールを獲得するには,訓練事例を多数必要とする.英語動詞選択ルールを獲得するために,十分な訓練事例が現実に準備できるか否かを検証するため,5万事例規模の対訳コーパスを既存のドキュメントから抽出した\cite{bunka90,Keene91}.この5万文の対訳コーパスには,約5千種類の日本語動詞が含まれていた.Almuallimらの実験によれば,英語動詞選択ルール1個あたり,最低でも20から30の翻訳事例が必要である.仮に日本語動詞に対応する英語動詞が,日本語動詞1個あたり平均4英語動詞だとすると,1日本語動詞につき100事例を,準備する必要がある.5万文の中で,100文以上の日本文で使われている動詞(つまり,訓練事例が100個以上収集できる動詞)は,全体の僅か約1\%にすぎなかった.しかも,現実には,翻訳事例の中には繰り返し出てくるものもあるため,実効的な個数は更に減少する.逆に,上記の5万事例中では,事例数を2まで許容すれば95\%の動詞を包含できた.従って,95\%の動詞を学習するには,5万事例の50倍,250万の単文の対訳が必要になる.この規模の翻訳事例は,収集が極めて困難である.即ち,既存のドキュメントだけから抽出した翻訳事例から学習アルゴリズムにより英語動詞選択ルールを獲得できると結論付けるのは楽観的すぎる.ところで,人間が動詞選択ルールを作成する過程を考えると,(1)頭の中に仮想的な事例を思い浮かべながらざっとしたルールを作成し,(2)この粗いルールを現実の事例と照合させながら修正し,最終的なルールを作成してゆくと考えられる.もし,実事例に加え,頭に思い浮かべた仮想事例をも学習に利用できれば,学習アルゴリズムに入力される訓練事例を増加させることができる.しかし,仮想事例そのものにアクセスすることは一般に出来ない.一方,仮想事例を説明している人手作成の英語動詞選択ルールには,アクセスできる.従って,上記の事例のスパース性を回避する現実的な方法として,最初に人間にルールを作成させ,この人手作成の英語動詞選択ルールと現実の翻訳事例を融合して最終的なルールを形成する方法が考えられる.即ち,少ない実事例と,正解率が十分でない人手作成動詞選択ルールを入力として,十分な正解率を示す英語動詞選択ルールを学習する学習アルゴリズムが望まれる.次章では,上記のアプローチを実現する学習方法を提案する.
\section{修正型学習手法}
本章では,英語動詞選択ルールを人手作成ルールと現実の翻訳事例から獲得する修正型学習手法を提案する.まず最初に,学習タスクを明確にする.\subsection{学習タスク\label{LearningTask}}与えられた日本語動詞\myjv{}と可能なその英語訳$\ev_i$に対して,アルゴリズムに与えられた課題は,\myjv{}に$\ev_i$を対応させるために,文脈上,取るべき適切な条件を探す事である.ある日本語動詞(例えば日本語動詞``焼く'')に対する,英語動詞選択ルールを学習するためには,その学習タスクは以下のように記述される.\\【学習タスク】\begin{description}\item[Step-I]図\ref{YakuSelectionRule}に示すような英語動詞選択ルールを人手作成.\item[Step-II]実事例を収集\footnote{収集される実事例は,それらだけから英語動詞選択ルールを獲得するには,少ないものとする.}.\item[Step-III]上記実事例と上記人手作成ルールから最終的なルールを生成.\end{description}\subsection{修正型学習手法の概要\label{Outline}}修正型学習手法は,人手作成の英語動詞選択ルールと実事例から情報を得る.もし,人手作成のルールが,非常に正確であるなら,修正型学習手法は人手作成のルールに重きを置く必要がある.一方,人手作成のルールが余り正確でなければ,それらのルールに対して,小さな重みだけが付加される必要がある.人手作成のルールへの重さの程度と実事例への重さの程度を表現するために,修正型学習手法は,数値を利用する.この数値を以後,``{\bf重み値}''と呼ぶ.修正型学習手法では,この重み値を定めるための情報を,人手作成ルールと実事例以外には持たない.重み値の候補数をNとすれば,修正型学習手法の骨子は以下の通りである.\\【修正型学習手法】\begin{description}\item[Step-i]人手作成の英語動詞選択ルールから仮事例を生成.ここで,生成方法の詳細は,\ref{GenerationMethod}節で述べる.\item[Step-ii]事例集合の族$\{Data_j;j=1\cdotsN\}$を作成.ここで,$Data_j$は,Step-iで生成された仮事例と予め準備した実事例全体からなる集合で,第j番目の重み値候補に従って,仮事例と実事例に重み値が付加されている.尚,重み値候補の集合は,実事例の重み値と仮事例の重み値の対をその要素としている.\item[Step-iii]各$Data_j$に対して,$Data_j$から学習されたルールの未知事例に対する平均正解率$A_j$をクロスバリデーション法により算出.ここで,クロスバリデーション法\footnote{クロスバリデーション法を実行する際には,テスト事例の重み値は,1.0とすべきである.}の詳細は,\ref{CrossValidation}節で述べる.\item[Step-iv]最後に,$A_i~~(i=1\cdotsN)$の中で,最高値をもつルールを出力.\end{description}\bigskip修正型学習手法Step-iで生成される仮事例は,3章で述べた仮想事例に当るものである.仮想事例は人手作成のルールで説明されているので,仮事例の中には仮想事例が含まれている.仮事例の,実事例への混合は,仮想事例をも学習に利用するという狙いの実現である.ただし,仮事例の中には言語的に間違った事例が存在する可能性がある.これを防止するためには,ルール作成者が既存ルールを作成する際に,思い浮かべた具体例を汎化し過ぎないように注意する必要がある.そうすれば,言語的に間違った事例,即ちノイズ事例を最小限に押えられる.ノイズが少なければ,内部学習アルゴリズムとして,C4.5の様にノイズに強い学習アルゴリズムを選択すれば,提案手法で生成される英語動詞選択ルールは,ノイズの影響を殆んど受けない.\subsection{仮事例生成法\label{GenerationMethod}}本節では,\ref{Outline}節のStep-iにおける,仮事例の生成法について説明する.仮事例生成法は以下の通りである.\bigskip\begin{description}\item[Step-A]人手作成の英語動詞選択ルールを単位ルールに分解.ここで,単位ルールとは,以下に示すようなルール\footnote{ルール条件部の否定は,次の形式で表現される.:\\$N_1$$\equiv$not$V_1$.}である.\begin{flushleft}IF($N_1\equivV_1$)\&($N_2\equivV_2$)\&$\cdots$\\THENClass=CV,\\\end{flushleft}ただし,$N_1,N_2$等は格要素,$V_1,V_2$等は意味カテゴリー,CVはある英語動詞である.\item[Step-B]上記単位ルールから,以下に示す形式の仮事例を生成.\begin{flushleft}$\langleN_1\equivv_1,N_2\equivv_2,\cdots,CV\rangle$,\\\end{flushleft}ここで,$N_1,N_2$等は格要素,$v_i$は単位ルール中の意味カテゴリー$V_i$の下位ノード(意味カテゴリーシソーラス上の)からランダムに選択する.\item[Step-C]望まれる個数の仮事例が生成されるまで,Step-Bを反復.\end{description}\bigskip仮事例生成法Step-Bにおけるランダムな事例生成は一様分布に基づいており,日本語の分布とは異なるが,今の所一様分布に従うのが最善の策と考える.本来は,実際に使われる日本語の分布の真の分布に従ってランダム生成するのがいいように思われるが,真の分布は知られておらず,大量の解析済みの日本語コーパスが現在ない以上,真の分布のよい近似を得るのも難しい.この現実を鑑みると,現在我々が拠り所とすべき分布は,統計学的に見て一様分布をおいて他にない.もちろん,将来的に,真の分布を推定するのに,十分な量の解析済み日本語コーパスが準備出来れば,それらを利用して推定した分布に基づきランダムな事例生成を行なうべきであろう.\subsection{クロスバリデーション法\label{CrossValidation}}仮事例/実事例の重み値を決定するためには,与えられた重み値で学習を行なった時の,結果として得られるルールの未知事例に対する性能を推定する必要がある.本論文では,このためにクロスバリデーション法を用いる.以下,\ref{Outline}節のStep-iiiクロスバリデーション法について説明する.クロスバリデーションは,機械学習の分野では良く知られている.クロスバリデーションは,通常はルールの正解率を推定するためにだけに使われる.しかし,本論文では,これを学習段階の重み値調整に利用する.与えられた正整数$m$とデータ集合$D$に対して,クロスバリデーションは以下のようになる\footnote{正確には,mフォールドクロスバリデーションである.}.\begin{description}\item[Step-a]与えられた集合$D$を$m$個の部分集合$S_k~~(k=1\cdotsm)$に分割.但し,各$S_k$は,共通な事例を持たない.\item[Step-b]各差集合$D\setminusS_k~~(k=1\cdotsm)$毎に内部学習アルゴリズムを利用して,ルール$rule_k$を学習.\item[Step-c]各ルール$rule_k~~(k=1\cdotsm)$毎に,残りの集合$S_k$をテスト事例として利用し,正解率$accuracy_k$を計算.\item[Step-d]正解率$accuracy_k~~(k=1\cdotsm)$の平均値を計算.\end{description}\bigskip尚,通常は,ルールの正解率を計算するために,mの値を10または「学習事例の個数」とする.
\section{実験結果}
提案手法を実験的に評価した.適用する内部学習アルゴリズムは,学習アルゴリズムID3(C4.5)\cite{Quinlan86,Quinlan92}に基づくAlmuallimの学習手法\cite{Almuallim94c}である.\subsection{実験}以下に示す実験を行なった.\begin{description}\item[\underline{評価データ}]評価に利用した人手作成のルールは,ALT-J/Eの中の英語動詞選択ルールから選択した.実事例は,既存のドキュメント\cite{Horiguchi89}を参考にして作ったものであり,必須格のみで表現されている.対象とした日本語動詞は,``入る'',``見える'',``見る'',及び``取る''である.実事例の個数は,それぞれ,95,33,385そして130事例である.また,仮事例の個数は,それぞれ,92,33,384そして128事例で,実事例とほぼ同数\footnote{各単位ルールからは,同数の仮事例を生成した.各単位ルールから生成した仮事例の数は,生成される仮事例の総数が実事例の個数を越えない最大の整数にした.そのため,実事例の個数と仮事例の個数に,若干差がある.}になるように生成した.ほぼ同数になるようにしたのは,実事例と仮事例に与える重み値が同じ時に,実事例と仮事例が学習アルゴリズムに与える影響を互角にするためである.意味カテゴリーシソーラスは,ALT-J/Eの意味カテゴリーシソーラスを利用し,クロスバリデーションは,10フォールド・クロスバリデーションである.\item[\underline{仮事例中の格要素の値}]普通,ルールは,意味カテゴリーシソーラス上の上層部に位置する意味カテゴリーで記述されている.それに対して,実事例は,意味カテゴリーシソーラス上の下層部に位置する意味カテゴリーで記述されている.従って,ルールから仮事例を生成する際に(\ref{GenerationMethod}節を参照),仮事例を表現する意味カテゴリーとして,次のいずれかを選択し得る.\begin{itemize}\item[(1)]ルール中の意味カテゴリーを先祖に持つ葉(以下の評価結果では,``leaf''と図示する.),\item[(2)]ルール中の意味カテゴリーの任意の下位ノード(以下の評価結果では,``descendant''と図示する.).\end{itemize}これら2つのカテゴリー選択法を用いて評価する.\item[\underline{学習されるルール中の格要素の値}]良く知られているように,ID3は属性選択に``informationgain''を利用している.本論文の場合,属性は格要素である.この場合,``informationgain''値が等しい格要素が複数ある事がしばしば生じる.従って,我々は,``informationgain''値が等しい場合について,次の2種類の学習戦略を比較評価する事とする.\begin{itemize}\item[(1)]意味カテゴリーシソーラス上で上位ノードを優先して選択(以下の評価結果では,``upper''と図示する.),\item[(2)]意味カテゴリーシソーラス上で下位ノードを優先して選択(以下の評価結果では,``lower''と図示する.).\end{itemize}\item[\underline{正解率}]本論文では,正解率として,訓練事例に対する正解率ではなく,未知の事例に対する正解率を利用している.この要件は,4.4節のクロスバリデーションで実現される.但し,4.4節から分かるように,テスト事例は仮事例からも実事例からも採られている.従って,生成されるルールは,いままで正しく翻訳されていた例文に対する性能を極力下げることなく,一方,新しい翻訳文(実事例)に対する翻訳も正しく行なわれる様にチューンされる.\end{description}\subsection{評価結果}\begin{table}\caption{正解率が最大となる重み組み合わせ}\label{最大重み}\begin{center}\begin{tabular}[b]{|c|c|c|c|c|}\hline&\begin{minipage}[c]{3em}\begin{center}\vspace{0.5em}upper\\\vspace{-0.2em}+leaf\vspace{0.5em}\end{center}\end{minipage}&\begin{minipage}[c]{3em}\begin{center}\vspace{0.5em}lower\\\vspace{-0.2em}+leaf\vspace{0.5em}\end{center}\end{minipage}&\begin{minipage}[c]{6em}\begin{center}\vspace{0.5em}upper\\\vspace{-0.2em}+descendant\vspace{0.5em}\end{center}\end{minipage}&\begin{minipage}[c]{6em}\begin{center}\vspace{0.5em}lower\\\vspace{-0.2em}+descendant\vspace{0.5em}\end{center}\end{minipage}\\\hline入る&(5,5)&(4,6),(5,5)&(7,3)&(4,6)\\\hline見える&(4,6)&\begin{minipage}[c]{5em}\vspace{0.5em}(4,6),(5,5),\\(6,4),(7,3),\\(8,2)\vspace{0.5em}\end{minipage}&(9,1)&(5,5),(6,4)\\\hline見る&(5,5)&(7,3),(8,2)&(9,1)&(5,5)\\\hline取る&(9,1)&(7,3)&(1,9)&(2,8),(3,7)\\\hline\end{tabular}\end{center}\end{table}\begin{figure}\begin{center}\epsfile{file=zu6.eps}\caption{未知事例に関する正解率(``入る'')}\label{test1}\epsfile{file=zu7.eps}\caption{未知事例に関する正解率(``見える'')}\label{test2}\end{center}\end{figure}\begin{figure}\begin{center}\epsfile{file=zu8.eps}\caption{未知事例に関する正解率(``見る'')}\label{test3}\epsfile{file=zu9.eps}\caption{未知事例に関する正解率(``取る'')}\label{test4}\end{center}\end{figure}実験結果を図3--図6に示す.これらの図中で,realexamplesは,実事例だけから学習したルールの正解率を意味し,artificialexamplesは,仮事例だけから学習されたルールの正解率を意味する.また,mixedexamplesは,実事例と仮事例の双方から学習したルールの正解率である.mixedexamplesの場合,\ref{Outline}節Step-ii中の重み値の候補は,以下に示す候補集合から選んだ.実事例と仮事例それぞれに対する重み値は,その和を10としている.(実事例の重み値,仮事例の重み値)=(0.01,9.99),(0.1,9.9),(1,9),(2,8),(3,7),(4,8),(5,5),(6,4),(7,3),(8,2),(9,1),(9.9,0.1),(9.99,0.01).図3--図6中に示されたmixedexamplesの正解率は,これら重み値候補中で正解率の一番高かったものであり,その時の重み組み合わせは表\ref{最大重み}に示す通りである.これらの図の中で,例えば,{\emUpper+Descendant}は(1)学習されるルール中の格要素の値は,意味カテゴリーシソーラス上で上位の意味カテゴリーを優先して選択し,(2)仮事例生成において,ルール条件に指定された意味カテゴリーの下位にあるノードから,ランダムにノードが選ばれて仮事例生成に利用される,事を意味する.図3--図6に示すように,仮事例生成時の下位ノードの選択方法や,学習時の上位/下位のノード選択方法にかかわらず,提案手法により学習されたルールは,最も高い正解率を持つ.従って,実事例と人手作成のルールを同時に利用する我々のアプローチは,実事例不足を補っていると言えよう.本手法において,一番高い正解率を示す条件は,日本語3動詞``入る'',``見える'',及び``取る''の場合は,``lower+leaf''である.また,日本語動詞``見る''の場合は,``upper+leaf''である.ここに示した動詞のみではなく,一般に事例が多い場合には,``upper''が良く,事例が少ない場合には,``leaf''が良い傾向がある.このような違いを生じる理由は明確ではないが,(1)数多くの実事例を集められるなら,どこまでをカバーして良いかが明確にわかるので,できるだけ,汎化してルールを作成した方が良く,(2)事例が少ない場合には,不用意に,上位のノードとして汎化すると,カバーしてはならない部分までカバーする,ためではないかと推定される.また,動詞``見る''では,正解率が,他の日本語動詞に対する正解率より,大幅に良くなっている.この現象は,人手作成ルールの条件と,実事例が表す条件が良くマッチしていたためと思われる.また,本評価では,実事例の重み値と仮事例の重み値の合計を10とした.直観的に考えれば,実事例の重みを1として,仮事例の重みを変化させれば充分である.しかし,C4.5では,事例の重みが変化すると,プルーニング機能に影響し,未知事例に対する性能が変化する.一般には,事例の重みを増加させた方が,性能が向上する.本論文で,仮/実事例の重み合計を一定としたのは,このC4.5固有の性質を極力排除するためである.他の学習アルゴリズムでは,このような配慮が不要となる場合もあるものと思われる.
\section{関連学習手法との比較}
本論文の修正型学習手法の様に,既存のルールと実事例から新たにルールを生成する学習手法としてはTheoryRevisionがあり,既に多くの研究がある\cite{Tangkitvanich93,Raedt92}.しかし,TheoryRevisionでは,新たな事例を許容する様に既存のルールを修正する事に主眼がおかれ,本論文の様に,既存のルールを満たしていた事例の一部が例外として除去されるようなケースは想定していない\cite{Murphy94}.このため,TheoryRevisionは本論文の応用には適用困難である.また,一階述語論理形式の事例表現を用いるTheoryRevision以外にも,本論文で扱った属性型の事例表現を用いるものとして,AQ\cite{AI-jiten2}\footnote{学習アルゴリズムAQは,事例とルールの間で表現形式が同一であり,一種の修正型学習アルゴリズムである.},ID3\cite{Quinlan86}において知識と事例の融合を可能にした手法\cite{Tsujino94}等がある.しかし,TheoryRevisionを含めて,これら従来の手法では,いずれも,既存の学習アルゴリズムを,個別に修正型へ改造している.これに対して,現実の応用においては,対象タスクによって最適な学習アルゴリズムは変化する.即ち,最初に様々の修正型学習アルゴリズムを適用して,その結果,最も正答率のよい学習アルゴリズムを最終的に採用できる事が望ましい.本論文で提案した修正型学習アルゴリズムは,内部学習アルゴリムを自由に選択できる点に大きな特長があり,上記要求を満たすロバストな学習アルゴリズムである.本論文で,複雑な背景知識(意味カテゴリーシソーラス)を前提とした修正型学習が実現できたのもこのロバスト性のひとつの成果である.尚,評価結果にも示した様に,どの様な人手作成ルールを与えても最終的な学習結果が向上するわけではなく,事例のもつ情報と合致/相補する人手作成ルールを与えない限り,最終的な結果の性能向上は望めない.従って,事例の統計的性質に合致したルールをどのようにして人間に生成させるかが,今後の一つの課題となると思われる.
\section{むすび}
本論文では,人手作成の英語動詞選択ルールと少ない実事例から高い正解率を示す英語動詞選択ルールを自動獲得する手法を提案した.まず,仮事例を人手作成の英語動詞選択ルールから生成する.次に,上記仮事例と実事例を内部学習アルゴリズムに対する訓練事例として利用する.最後に,内部学習アルゴリズムは,人手作成ルールより高い正解率を示す英語動詞選択ルールを出力する.ここでの課題は,仮事例と実事例の双方に与える重み値の決定である.本論文では,最適重み値をクロスバリデーションにより決定した.提案手法の性能を評価するために,人手作成の英語動詞選択ルールとドキュメントから抽出した現実の事例に適用した.なお,内部学習アルゴリズムには,Almuallimの学習アルゴリズムを利用した.和語動詞4種類に本提案の手法を適用した結果,クロスバリデーションによる重み値決定は正常に動作し,実事例のみから生成されたルールや人手作成ルールと比べて,平均10\%以上の高い正解率をもつルールを獲得できた.尚,本提案の手法の最大の特長は,内部学習アルゴリズムを選ばないロバスト性にある.従って,Almuallimの学習アルゴリズムのみではなく,統計解析的手法を含めた幅広い学習アルゴリズムに本手法を適用できる.\acknowledgment本研究を進めるにあたり,種々の協力・議論を頂いた,NTTコミュニケーション科学研究所・池原悟主幹研究員(現在,鳥取大学工学部教授)を初めとする,池原研究グループ各位に深謝いたします.また,事例データを提供頂いた,NTTコミュニケーション科学研究所・山崎毅文主任研究員に深謝いたします.\bibliographystyle{jnlpbbl}\bibliography{final}\begin{biography}\biotitle{略歴}\bioauthor{秋葉泰弘}{昭和63年早稲田大学教育学部理学科数学専修卒業.平成2年同大大学院理工学研究科数学専攻修士課程修了.同年,日本電信電話株式会社入社.以来,機械学習,知識獲得等の研究に従事.平成7年人工知能学会全国大会優秀論文賞受賞.現在,NTTコミュニケーション科学研究所,研究主任.情報処理学会会員.}\bioauthor{石井恵}{平成1年慶応義塾大学理工学部数理科学科卒業.同年,日本電信電話株式会社入社.以来,エキスパートシステム,機械学習の研究に従事.平成4,7年人工知能学会全国大会優秀論文賞受賞.平成5年情報処理学会・秋期・全国大会奨励賞受賞.現在,NTTコミュニケーション科学研究所,研究主任.情報処理学会,人工知能学会各会員.}\bioauthor{HusseinALMUALLIM}{昭和59年東京工業大学工学部電子物理工学科卒業.昭和61年同大学大学院工学研究科情報工学専攻修士課程修了.平成4年OregonStateUniversity計算機学科博士課程修了.同年,NTT情報通信網研究所にて,ポスドク研究員.現在,サウジアラビア国立石油鉱物大学計算機学科助教授.平成6年NTTコミュニケーション科学研究所招聘教授.Ph.D.inComputerScience.機械学習,文字認識などの研究に従事.平成3年AAAIHonorableMentionAward受賞.平成7年人工知能学会全国大会優秀論文賞受賞.AAAI,人工知能学会各会員.}\bioauthor{金田重郎}{昭和49年京都大学工学部電気第二学科卒業.昭和51年同大学大学院電子工学専攻修士課程修了.同年,日本電信電話公社・武蔵野電気通信研究所入所.以来,誤り訂正符号,フォールトトレラント技術,知識獲得,エキスパートシステム,等の研究に従事.現在,NTTコミュニケーション科学研究所,主幹研究員.工学博士.技術士(情報処理部門).平成4,7年人工知能学会全国大会優秀論文賞受賞.IEEE,電子情報通信学会,情報処理学会,人工知能学会各会員.}\bioreceived{受付}\biorevised{再受付}\再受付{96}{1}{25}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V10N03-07 | \section{はじめに}
われわれは2001年に行なわれたSENSEVAL2\cite{senseval2}の日本語辞書タスクのコンテストに参加した.このコンテストでは,日本語多義性の解消の問題を扱っており,高い精度で日本語多義性の解消を実現するほどよいとされる.われわれは機械学習手法を用いるアプローチを採用した.機械学習手法としては多くのものを調査した方がよいと考え,予備調査として先行研究\cite{murata_nlc2001_wsd}においてシンプルベイズ法,決定リスト法,サポートベクトルマシン法などの手法を比較検討した.その結果,シンプルベイズ法とサポートベクトルマシン法が比較的よい精度を出したのでその二つの機械学習手法を基本とすることにした.また,学習に用いる素性は,豊富なほどよいと考え,文字列素性,形態素素性,構文素性,共起素性,UDC素性(図書館などで用いられる国際十進分類を利用した素性)と,非常に多くの素性を利用した.コンテストには,シンプルベイズ法,サポートベクトルマシン法,またそれらの組み合わせのシステム二つの合計四つのシステムをコンテストに提出した.その結果,組合わせシステムが参加システム中もっとも高い精度(0.786)を得た.コンテストの後,シンプルベイズ法で用いていたパラメータを調節したところさらに高い精度を得た.また,解析に用いる情報(素性)を変更する追加実験も行ない,各素性の有効性,特徴を調査した.本稿では,これらのシステムの説明と結果を述べる.以降,\ref{sec:imp}節で多義解消の重要性を述べ,\ref{sec:mondai_settei}節で本コンテストの問題設定を述べる.\ref{sec:ml_method}節でわれわれが利用した機械学習手法について述べ,\ref{sec:sosei}節でその機械学習手法で用いる素性について述べ,\ref{sec:experiment}節でその機械学習手法と素性を用いた実験とその考察について述べる.\ref{ref:kanren}節では関連文献について述べる.
\section{多義性解消の重要性}
\label{sec:imp}本節では多義性解消の重要性を例を用いながら説明する.例えば,最近重要視されつつある質問応答\cite{murata2000_1_nl,qac_hp}の問題を考えてみる.ここで,質問応答の質問として以下のようなものがあったとしよう.\begin{quote}「トラは天王寺動物園にはどのくらいいますか。」\end{quote}ここで質問応答システムの知識源として,\begin{quote}「天王寺動物園にはトラが11頭飼育されており…」\end{quote}があったとする.この場合システムは「どのくらい」などの表現から数量表現が解とわかるのでこの知識源から「11頭」を解として正しく抽出することができる.しかし,質問が以下のようであったとしよう.\begin{quote}「虎は天王寺動物園にはどのくらいいますか。」\end{quote}この質問では先の質問の「トラ」が「虎」に変わっている.この場合,「トラ」と「虎」が同一であることを計算機に認識させなければならないが,これをするためには計算機に単語の意味に関する情報を与えておかなければならない.ここで例えばEDR辞書\cite{edr}を利用すると,「虎」の同義語としては「トラ」「酒酔」「酒酔い」「酔客」「酔狂人」「酔人」が得られる.これは「虎」には「虎という動物」と「酒に酔った人」の二つの意味があり,この後ろの「酒に酔った人」の意味の場合の同義語が得られて「酒酔い」などの不要な同義語が得られるのである.この不要な同義語を使って解の抽出を試みる場合,例えば\begin{quote}\mbox{「昨夜未明,天王寺動物園で5人の酒酔い客が暴れだし…」}\end{quote}という文が知識中にある場合,誤って「5人」を解として取り出してしまう可能性がある.ここで多義性の解消をし,ここでの「虎」の意味は「虎という動物」と認識し同義語は「トラ」だけであるとしてから,解の抽出をした方が誤る可能性は減るのである.「虎」の場合はまだ意味が二つであったからよいが,高頻度に用いられる平易な語ほど語義の数が多く,この問題は深刻なものとなる.このことから,多義性の解消の重要性がわかる.ここでは質問応答の場合の例をあげたが各解析システムにおいて多義性の解消は同様に重要なものとなろう.例えば,照応解析\cite{murata_deno_nlp}においても,ある語Aが「人間」と「物」の二つの意味をもっていて,物しか指示しない「それ」という指示詞が出現した場合,語Aの多義性を解消し,もし「人間」であるということがわかれば,この「それ」の指示先は語Aではありえないとわかり他の指示先の候補を探せばよいとわかる.また,機械翻訳でも訳し分けが必要な語は多義性を解消しなければ正しい翻訳をすることができない.このように多義性の解消は種々の場面で役に立つものである.
\section{問題設定}
\label{sec:mondai_settei}本節ではSENSEVAL2の日本語辞書タスクの問題設定について説明する.SENSEVAL2の日本語辞書タスクでは,評価用のデータとしては100単語(このうち50単語が名詞で50単語が動詞)についてそれぞれ100事例が与えられ,合計10000事例が与えられた.学習用のデータとしては,RWCコーパス\cite{shirai_nl2001}が与えられた.このコーパスは毎日新聞の1994年の3,000個の記事を用いたもので,コーパス中の主要な名詞,動詞,形容詞(総数:約15万個)に対して,岩波国語辞典に基づいて定義された語義がふられている.このタスクの目的は,この語義をその単語のまわりの情報などを用いて推定することである.また,精度の評価には,SENSEVAL2のホームページ\footnote{http://www.sle.sharp.co.uk/senseval2}より取得できるscorer2という評価用プログラムによって算出される,mixed-grainedscoreという値が用いられた\footnote{具体的には``scorer2結果のファイル正解のファイルsense-map-gmixed''というコマンドを打ち込むことにより算出される.}.
\section{機械学習手法}
\label{sec:ml_method}一般に,単語多義性解消問題の場合,各単語にふられる語義は,単語ごとにかわるので,機械学習手法による実験は各単語ごとに逐次的に行なわれる.つまり,学習器は単語の異なり数の分だけ作成する.しかし本タスクでは,あらかじめ50個が名詞で,50個が動詞であるとわかっている.このため,システムは,単語ごとだけでなく,単語と品詞の組に対して個々に作成した.本コンテストの場合,50個の名詞と50個の動詞が対象であったので,合計100個の学習器を作ることになる.本稿では学習器のために用いる機械学習手法としては,以下の方法を利用した\footnote{機械学習手法としては,他にC4.5\cite{c4.5j}などの決定木学習を利用する方法があるが,本稿では,種々の問題で決定木学習手法が他の手法に比べて劣っていること\cite{murata:nlken98,murata_haihan_rule_ipsj,taira_svm},また,本稿で扱う問題は属性の種類の数が多くC4.5が走るまで属性の数を減らすと精度が落ちるであろうことの二つの理由により,用いていない.また,最大エントロピー法も有力な手法であるが,システムの都合で動かない単語があったこと,また先行研究\cite{murata_nlc2001_wsd}において最大エントロピー法が他の手法よりも精度が低かったことにより本稿では用いていない.}.\begin{itemize}\itemシンプルベイズ法\item決定リスト法\itemサポートベクトルマシン法\end{itemize}本節ではこれらの個々の機械学習手法の説明と,これらの機械学習手法のいくつかを組み合わせる融合手法について説明する.\subsection{シンプルベイズ法}シンプルベイズ法は,ベイズの定理に基づいて各分類になる確率を推定し,その確率値が最も大きい分類を求める分類とする方法であり,多義性解消の研究における基本的な方法である.文脈$b$で分類$a$を出力する確率は以下の式で与えられる.{\begin{eqnarray}p(a|b)&=&\frac{p(a)}{p(b)}p(b|a)\\\label{eq:simple_bayes}&\simeq&\frac{\tilde{p}(a)}{p(b)}\prod_i\tilde{p}(f_i|a)\end{eqnarray}}ただし,ここで文脈$b$は,あらかじめ設定しておいた素性$f_j(\inF,1\leqj\leqk)$の集合である.$p(b)$は,文脈$b$の出現確率で,今回の場合分類aに非依存で定数のため,計算しない.$\tilde{p}(a)$と$\tilde{p}(f_i|a)$は,それぞれ学習データから推定された確率で,分類aの出現の確率,分類aのときに素性$f_i$を持つ確率を意味する.$\tilde{p}(f_i|a)$として最尤推定し求めた値を用いると,しばしば値がゼロになり,式(\ref{eq:simple_bayes})の値がゼロになり分類先を決めるのが難しい場合が多い.このため,スムージングがなされるが,本稿では以下のスムージングをしたものを用いる.{\begin{eqnarray}\label{eq:simple_bayes2}\tilde{p}(f_i|a)=\frac{freq(f_i,a)+\epsilon*freq(a)}{freq(a)+\epsilon*freq(a)}\end{eqnarray}}ただし,$freq(f_i,a)$と$freq(a)$は,それぞれ,素性$f_i$を持ちかつ分類が$a$である事例の個数,分類が$a$である事例の個数を意味する.$\epsilon$は実験で定める定数である.本稿では,$\epsilon$としては0.01と0.0001を用いた\footnote{\label{fn:bayes_epsilon}SENSEVAL2のコンテストでは,われわれは$\epsilon$としては0.01を用いていた.コンテストの終了後,$\epsilon$として0.1から0.00000001まで1/10の倍率でいくつか試してみた.その結果,学習用データでの10分割のクロスバリデーションの結果では$\epsilon=0.0001$のときの値がもっともよかった.}.\subsection{決定リスト法}これは,素性$f_i$と分類先$a$の組を規則とし,それらをあらかじめ定めた優先順序でリストに蓄えておき,リストで優先順位の高いところから,入力と素性が一致する規則を利用して分類先を求める方法である\cite{Yarowsky:ACL94}.本稿では優先順序としては以下のものを用いる\footnote{$\tilde{p}(a|f_i)$の値が等しい場合は,出現頻度の多い規則,すなわち,素性$f_j$で分類$a$である事例の多い規則を優先するようにしている.}$^,$\footnote{Yarowskyの研究など一般に用いられている決定リストでは,対数尤度比,さらには,その尤度比をスムージングしたものが用いられている.ところで最近では,本手法と同じ確率$\tilde{p}(a|f_i)$の式の上でベイズ推定に基づくスムージングをした式を用いることで,従来の尤度比を用いる方法よりも高い精度を得たという報告\cite{tsuruoka_nlp2002}がある.本稿ではこのあたりはそれほど注意深く検討していない.種々のスムージングをすることで今よりもよい精度を得る可能性はある.}.{\begin{eqnarray}\label{eq:decision_list_order}\tilde{p}(a|f_i)\end{eqnarray}}この方法は,以下の式で与えられる,ある文脈$b$での分類$a$を出力する確率$p(a|b)$がもっとも高い分類$a$を解とする方法と等価であり,本稿では実際にはこの方法を用いて分類先を特定する.{\begin{eqnarray}\label{eq:decision_list}p(a|b)=\tilde{p}(a|f_{max})\end{eqnarray}}ただし,$f_{max}$は以下の式によって与えられる.{\begin{eqnarray}\label{eq:decision_list2}f_{max}=argmax_{f_j\inF}\max_{a_i\inA}\\tilde{p}(a_i|f_j)\end{eqnarray}}また,$\tilde{p}(a_i|f_j)$は学習データで素性$f_j$を文脈に持つ場合の分類$a_i$の出現の割合である.\begin{figure}[t]\begin{center}\epsfile{file=margin.eps,height=4cm,width=8cm}\end{center}\caption{マージン最大化}\label{fig:margin}\end{figure}\subsection{サポートベクトルマシン法}サポートベクトルマシン法は,空間を超平面で分割することにより2つの分類からなるデータを分類する手法である.このとき,2つの分類が正例と負例からなるものとすると,学習データにおける正例と負例の間隔(マージン)が大きいもの(図\ref{fig:margin}参照\footnote{図の白丸,黒丸は,正例,負例を意味し,実線は空間を分割する超平面を意味し,破線はマージン領域の境界を表す面を意味する.})ほどオープンデータで誤った分類をする可能性が低いと考えられ,このマージンを最大にする超平面を求めそれを用いて分類を行なう.基本的には上記のとおりであるが,通常,学習データにおいてマージンの内部領域に少数の事例が含まれてもよいとする手法の拡張や,超平面の線形の部分を非線型にする拡張(カーネル関数の導入)がなされたものが用いられる.この拡張された方法は,以下の識別関数を用いて分類することと等価であり,その識別関数の出力値が正か負かによって二つの分類を判別することができる\cite{SVM,kudoh_svm}.{\begin{eqnarray}\label{eq:svm1}f({\bfx})&=&sgn\left(\sum^{l}_{i=1}\alpha_iy_iK({\bfx}_i,{\bfx})+b\right)\\b&=&-\frac{max_{i,y_i=-1}b_i+min_{i,y_i=1}b_i}{2}\nonumber\\b_i&=&\sum^l_{j=1}\alpha_jy_jK({\bfx}_j,{\bfx}_i)\nonumber\end{eqnarray}}ただし,${\bfx}$は識別したい事例の文脈(素性の集合)を,${\bfx}_{i}$と$y_i(i=1,...,l,y_i\in\{1,-1\})$は学習データの文脈と分類先を意味し,関数$sgn$は,{\begin{eqnarray}\label{eq:svm2}sgn(x)\,=&1&(x\geq0)\\&-1&(otherwise)\nonumber\end{eqnarray}}であり,また,各$\alpha_i$は式(\ref{eq:svm5})と式(\ref{eq:svm6})の制約のもと式(\ref{eq:svm4})の$L(\alpha)$を最大にする場合のものである.{\begin{eqnarray}\label{eq:svm4}L({\alpha})&=&\sum^l_{i=1}\alpha_i-\frac{1}{2}\sum^l_{i,j=1}\alpha_i\alpha_jy_iy_jK({\bfx_i},{\bfx_j})\end{eqnarray}}{\begin{eqnarray}\label{eq:svm5}0\leq\alpha_i\leqC\,\,(i=1,...,l)\end{eqnarray}}{\begin{eqnarray}\label{eq:svm6}\sum^l_{i=1}\alpha_iy_i=0\end{eqnarray}}また,関数$K$はカーネル関数と呼ばれ,様々なものが用いられるが本稿では以下の多項式のものを用いる.{\begin{eqnarray}\label{eq:svm3}K({\bfx},{\bfy})&=({\bfx}\cdot{\bfy}+1)^d\end{eqnarray}}$C,d$は実験的に設定される定数である.本稿ではすべての実験を通して$C$,$d$はそれぞれ1と2に固定した.ここで,$\alpha_i>0$となる${\bfx}_i$は,サポートベクトルと呼ばれ,通常,式(\ref{eq:svm1})の和をとっている部分はこの事例のみを用いて計算される.つまり,実際の解析には学習データのうちサポートベクトルと呼ばれる事例のみしか用いられない.サポートベクトルマシン法は分類の数が2個のデータを扱うもので,通常これにペアワイズ手法を組み合わせて用いることで,分類の数が3個以上のデータを扱うことになる\cite{kudoh_chunk_nl2000}.ペアワイズ手法とは,N個の分類を持つデータの場合,異なる二つの分類先のあらゆるペア(N(N-1)/2個)を作り,各ペアごとにどちらがよいかを2値分類器(ここではサポートベクトルマシン法\footnote{本稿の2値分類器としてのサポートベクトルマシンは,工藤氏が作成したTinySVM\cite{kudoh_svm}を利用している.})で求め,最終的にN(N-1)/2個の2値分類器の分類先の多数決により,分類先を求める方法である.本稿のサポートベクトルマシン法は,上記のようにサポートベクトルマシン法とペアワイズ手法を組み合わせることによって実現される.\subsection{融合手法}\label{sec:yuugou}本節では,いくつかの機械学習を組み合わせて用いる融合手法について説明する.われわれの融合手法では,それぞれの単語ごとに用いる機械学習手法を変更する.(厳密には,本稿の場合は単語と名詞の組に対して学習器を作成しているので,この融合手法はそれぞれの単語と名詞の組ごとに機械学習手法を変更することになる.)各単語ごとに用いられる機械学習手法は,融合する機械学習手法のうち学習データでの10分割のクロスバリデーションの精度がもっともよかったものとする.われわれは融合手法としては以下の五つの手法を試した.\begin{itemize}\item融合手法1シンプルベイズ($\epsilon$=0.01)とサポートベクトルマシンの組み合わせ\item融合手法2二種類のシンプルベイズ($\epsilon$=0.01)と二種類のサポートベクトルマシンの合計四種類のシステムの組み合わせただし,ここでいう二種類は\ref{sec:sosei}節で後述する素性(解析に用いる情報)をすべて用いた場合と,KNP構文素性のみを削除した場合の二つの場合を意味する\footnote{KNP構文素性のみを削除した場合のものを融合の一つに用いたのは,先行研究\cite{murata_nlc2001_wsd}においてKNP構文素性のみを削除した場合の方が精度が高かった場合があったことによる.}.\item融合手法3シンプルベイズ($\epsilon$=0.0001)とサポートベクトルマシンの組み合わせ\item融合手法4二種類のシンプルベイズ($\epsilon$=0.0001)と二種類のサポートベクトルマシンの合計四種類のシステムの組み合わせただし,ここでいう二種類は\ref{sec:sosei}節で後述する素性(解析に用いる情報)をすべて用いた場合と,KNP構文素性のみを削除した場合の二つの場合を意味する.\item融合手法5$\epsilon$=0.01のシンプルベイズと$\epsilon$=0.0001のシンプルベイズの組み合わせ\end{itemize}
\section{素性(解析に用いる情報)}
\label{sec:sosei}前節で種々の機械学習の説明を述べたが,それぞれの手法ともに素性(解析に用いる情報)を定義しなければ,その手法を用いることができない.本節ではその素性の説明を行なう.\ref{sec:mondai_settei}節の問題設定で述べたように,本稿の問題設定では,日本語文の入力を与えられたときに,その入力中の語義タグがふられていた各形態素に対して,その語義の分類を推定して出力することになっている.このため,解析に用いる情報,すなわち,素性は入力される日本語文から取り出すことになる.本稿では素性としては以下のものを定義する.\begin{itemize}\item{\bf文字列素性}\footnote{日本語の研究で機械学習手法の素性に文字列素性を用いた研究としては文献\cite{NLP98_nakano,inui:nlken98,murata_nlc2001}などがある.}\begin{itemize}\item解析する形態素自身の文字列\item解析する形態素の直前の1〜3gramの文字列\item解析する形態素の直後の1〜3gramの文字列\end{itemize}\item{\bfRWC形態素素性}\begin{itemize}\item解析する形態素自身のRWCコーパスの品詞情報,品詞細分類情報,品詞細細分類情報\footnote{ここで,品詞情報,品詞細分類情報,品詞細細分類情報は,RWCコーパスでの3,4,5カラム目のものを意味する.}\item解析する形態素の直前の形態素の単語自身,その単語の分類語彙表\cite{bgh}の5桁,その単語の分類語彙表の3桁,品詞情報,品詞細分類情報,品詞細細分類情報\item解析する形態素の直後の形態素の単語自身,その単語の分類語彙表の5桁,その単語の分類語彙表の3桁,品詞情報,品詞細分類情報,品詞細細分類情報\end{itemize}\item{\bfJUMAN形態素素性}コーパスをJUMAN\cite{JUMAN3.6}で形態素解析し,その結果を素性として利用する.\begin{itemize}\item解析する形態素自身のJUMANの解析結果の品詞情報,品詞細分類情報,品詞活用形情報\item解析する形態素の直前の形態素の単語自身,その単語の分類語彙表の5桁,その単語の分類語彙表の3桁,品詞情報,品詞細分類情報,品詞活用形情報\item解析する形態素の直後の形態素の単語自身,その単語の分類語彙表の5桁,その単語の分類語彙表の3桁,品詞情報,品詞細分類情報,品詞活用形情報\end{itemize}\item{\bf構文素性}コーパスをKNP\cite{KNP2.0b6}で構文解析し,その結果を素性として利用する.\begin{itemize}\item解析する形態素を含む文節自身,また,その文節が体言かいなか,付属語の品詞,品詞細分類,活用情報\item解析する形態素を含む文節の係り先の文節の自立語,その単語の分類語彙表の5桁,その単語の分類語彙表の3桁,品詞情報,品詞細分類情報,品詞活用形情報\item解析する形態素を含む文節の係り元の文節の自立語,その単語の分類語彙表の5桁,その単語の分類語彙表の3桁,品詞情報,品詞細分類情報,品詞活用形情報.ただし,すべての場合において,付属語の情報を併用する.\end{itemize}\item{\bf同一文内共起素性}コーパスをJUMANで形態素解析し,その解析結果の形態素列を素性として利用する.\begin{itemize}\item同一文中の各形態素,また,その単語の分類語彙表の5桁,その単語の分類語彙表の3桁.\end{itemize}\item{\bfUDC素性}RWCコーパスには,各記事ごとに図書館などで書籍の分類に用いられる,国際十進分類(UDC)がふられている.この情報は各記事がどういう分野のものかを示している.\begin{itemize}\item解析対象とする形態素を含む記事のUDCコードの最初の1桁,2桁,3桁.\end{itemize}\end{itemize}
\section{実験}
\label{sec:experiment}本節ではまず\ref{sec:experiment1}節で,コンテストに提出したシステム,また,コンテストの後に改良したシステムについて記述し,その後\ref{sec:experiment2}節で,素性を変更した実験について記述する.\subsection{コンテストの実験結果(一部コンテスト後のシステムも含む)}\label{sec:experiment1}われわれはSENEVAL2のコンテストに四つのシステム(CRL1からCRL4),すなわち,サポートベクトルマシン,シンプルベイズ($\epsilon=0.01$),融合手法1,融合手法2を提出した.また,コンテストの後,$\epsilon=0.0001$を用いるシンプルベイズと決定リスト法,融合手法3,4,5を用いて実験を行なった.これらの結果を表\ref{tab:result}に示す.「ベースライン」は学習データで最も頻度の大きかった分類を常に正解として選ぶ手法を意味する.「コンテストの最高システム」はコンテストに参加した団体によって提出されたすべてのシステムにおいてもっとも高いシステムを意味し,実際にはそれは融合手法2であった.表の値は,\ref{sec:mondai_settei}節でも述べたscorer2から算出されるmixed-grainedscoreの値である.値の分子が整数でないのは複数の語義が正解となる場合も考慮し部分点も与えるためである\footnote{われわれのシステムでは複数の解を出力することは基本的にできない.このため,複数の解が答えになる場合はその複数の解を一つの組にしてその組を個々の解の分類とは別に新たに一つの分類として扱うことで,複数の解が答えになる場合を扱っている.}.また,scorer2のプログラムでは適合率(精度)と再現率を出力するが,われわれのシステムではすべての事例に対して解を出すため適合率(精度)と再現率の値は常に一致する.このため,表ではそれらを精度として統一して記述している.\begin{table*}[t]\caption{実験結果}\label{tab:result}\begin{center}\small\renewcommand{\arraystretch}{}\hspace*{-1cm}\begin{tabular}[c]{|l|cc|}\hline\multicolumn{1}{|c|}{方法}&\multicolumn{2}{|c|}{精度}\\\hlineベースライン&0.726&(7260.00/10000)\\サポートベクトルマシン(CRL1)&0.783&(7829.75/10000)\\シンプルベイズ$\epsilon=0.01$(CRL2)&0.778&(7775.82/10000)\\シンプルベイズ$\epsilon=0.0001$&0.790&(7902.53/10000)\\決定リスト&0.760&(7603.70/10000)\\融合手法1(CRL3)&0.786&(7864.50/10000)\\融合手法2(CRL4)(コンテストでの最高システム)&0.786&(7864.83/10000)\\融合手法3&0.787&(7873.33/10000)\\融合手法4&0.787&(7869.00/10000)\\融合手法5&0.793&(7933.37/10000)\\\hline\end{tabular}\end{center}\end{table*}表\ref{tab:result}の結果より以下のことがわかる.\begin{itemize}\itemすべてのシステムがベースラインよりも高い精度を出した.このことから,それぞれの手法ともにそれなりにまともな解析をしていることがわかる.\item提出した4システム(CRL1からCRL4)の中では,CRL4の融合手法2が最も高い精度(0.786)をえた.\itemまた,コンテストの後,$\epsilon=0.0001$を用いるシンプルベイズを用いたところ,さらに高い精度(0.790)をえた.(この$\epsilon=0.0001$の設定は脚注\ref{fn:bayes_epsilon}でのべたように学習データのみを用いて定めた値なので恣意的ではない.)この結果から,この問題ではシンプルベイズ法が有効であることがわかる.最近の機械学習手法を用いた種々の研究\cite{taira_svm,kudoh_chunk_nl2000,murata_nlc2001}ではたいていの場合サポートベクトルマシン法がよいようだが,日本語多義解消ではそうではないことがあることがわかる\footnote{われわれの先行研究\cite{murata_nlc2001_wsd}では日本語多義性解消でサポートベクトルマシンがもっともよい精度としていたが,これはシンプルベイズで$\epsilon=0.01$で実験した場合であって,$\epsilon=0.0001$の場合はシンプルベイズの方がよいこともあることに注意して欲しい.}.しかし,シンプルベイズとサポートベクトルマシンの精度差はそれほど大きいものではない.\item融合手法としてはシンプルベイズ法でのパラメータ調整が適切でない場合つまり,$\epsilon=0.01$のとき,サポートベクトルマシンが0.783でシンプルベイズが0.778でそれらの融合が0.786であったので,精度向上を実現できる場合があることがわかる.しかし,シンプルベイズ法でのパラメータ調整を適切にした場合つまり,$\epsilon=0.0001$のとき,サポートベクトルマシンが0.783でシンプルベイズが0.790でそれらの融合が0.787であったので,精度向上を実現できていない.このことから,システムの融合がいつでも効果があるわけではなく効果がないことがあることもわかる.\item融合手法としては,$\epsilon=0.01$のシンプルベイズと$\epsilon=0.0001$のシンプルベイズを融合する手法も用いたが,この精度は0.793となり精度向上を実現した.これは単語ごとに最適な$\epsilon$が異なることを示唆する.本稿のシンプルベイズ法では単純なスムージング法を採用しているが,本稿のスムージング法があまりよくないために単語ごとに最適なパラメータがかわっている可能性もある.今後は他のもう少し高度なスムージング法も試してみる必要があると思われる.ところで,融合手法としては同じシンプルベイズでもパラメータをかえたものを組み合わせることで精度向上ができる場合があることがわかった\footnote{$\epsilon$を0.1から0.00000001まで0.1倍ずつ変えたシステム8個を本稿の融合手法で組み合わせたシステムでも実験してみたが,その精度は0.01と0.0001の融合手法とまったく同じ精度であった.}.\end{itemize}\begin{table}[t]\caption{融合手法において用いられている学習手法の内訳}\label{tab:yuugou_wariai}\vspace*{.5cm}\hspace*{1.5cm}\begin{minipage}[h]{20cm}(a)融合手法1\begin{tabular}[c]{|l|c|}\hline\multicolumn{1}{|c|}{手法}&\multicolumn{1}{|c|}{用いられた単語の数}\\\hlineサポートベクトルマシン&69単語\\シンプルベイズ($\epsilon$=0.01)&31単語\\\hline\end{tabular}\vspace{0.5cm}(b)融合手法2\begin{tabular}[c]{|l|c|}\hline\multicolumn{1}{|c|}{手法}&\multicolumn{1}{|c|}{用いられた単語の数}\\\hlineサポートベクトルマシン&48単語\\シンプルベイズ($\epsilon$=0.01)&24単語\\サポートベクトルマシン(KNP構文素性削除)&19単語\\シンプルベイズ(KNP構文素性削除,$\epsilon$=0.01)&9単語\\\hline\end{tabular}\vspace{0.5cm}(c)融合手法3\begin{tabular}[c]{|l|c|}\hline\multicolumn{1}{|c|}{手法}&\multicolumn{1}{|c|}{用いられた単語の数}\\\hlineサポートベクトルマシン&37単語\\シンプルベイズ($\epsilon$=0.0001)&63単語\\\hline\end{tabular}\vspace{0.5cm}(d)融合手法4\begin{tabular}[c]{|l|c|}\hline\multicolumn{1}{|c|}{手法}&\multicolumn{1}{|c|}{用いられた単語の数}\\\hlineサポートベクトルマシン&26単語\\シンプルベイズ($\epsilon$=0.0001)&46単語\\サポートベクトルマシン(KNP構文素性削除)&17単語\\シンプルベイズ(KNP構文素性削除,$\epsilon$=0.0001)&11単語\\\hline\end{tabular}\vspace{0.5cm}(e)融合手法5\begin{tabular}[c]{|l|c|}\hline\multicolumn{1}{|c|}{手法}&\multicolumn{1}{|c|}{用いられた単語の数}\\\hlineシンプルベイズ($\epsilon$=0.01)&33単語\\シンプルベイズ($\epsilon$=0.0001)&67単語\\\hline\end{tabular}\end{minipage}\end{table}本研究では,融合手法としては\ref{sec:yuugou}節で述べたように5つのものを用いている.ここで,実際に実験対象である100単語のうち,どのくらいの割合で融合される個々の機械学習手法が用いられていたかを示しておきたい.この用いられた機械学習手法の内訳を表\ref{tab:yuugou_wariai}に示す.ただし,融合手法において用いる学習手法は,学習データでの10分割のクロスバリデーションの精度がもっともよかったものとしているが,この精度が同点であった場合は,その同点であった学習手法のうち表に示した順序で最初に出現した手法を用いている.表\ref{tab:yuugou_wariai}からわかるように精度の高い手法ほど,融合手法において多く利用されていることがわかる.例えば,「サポートベクトルマシン」の精度は0.783で,「シンプルベイズ($\epsilon$=0.01)」の精度は0.778で,「サポートベクトルマシン」の方が精度が高いが,実際に表\ref{tab:yuugou_wariai}(a)では,「サポートベクトルマシン」の方が多く用いられている.\begin{table*}[t]\caption{素性を変更した場合の精度(全課題100単語)}\label{tab:sosei_change}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l@{}|c@{}c@{}|c@{}c@{}|c@{}c@{}|}\hline\multicolumn{1}{|c|}{素性}&\multicolumn{2}{|c|}{シンプルベイズ}&\multicolumn{2}{|c|}{サポートベクトル}&\multicolumn{2}{|c|}{決定リスト}\\\hline全素性利用&{\bf0.790}&(7902.53/10000)&0.783&(7829.25/10000)&0.760&(7603.70/10000)\\\hline文字列素性なし&0.786&(7863.03/10000)&0.781&(7810.08/10000)&0.757&(7574.03/10000)\\RWC形態素素性なし&0.787&(7869.87/10000)&0.780&(7800.58/10000)&0.759&(7592.70/10000)\\JUMAN形態素素性なし&0.787&(7872.70/10000)&0.783&(7826.75/10000)&0.760&(7598.20/10000)\\KNP構文素性なし&0.784&(7838.37/10000)&0.779&(7788.70/10000)&0.757&(7568.52/10000)\\文内共起素性なし&0.778&(7782.30/10000)&0.770&(7696.67/10000)&0.766&(7658.35/10000)\\UDC素性なし&0.788&(7883.12/10000)&{\bf0.784}&(7842.58/10000)&0.759&(7589.70/10000)\\\hline文字列素性のみ&0.760&(7600.33/10000)&0.777&(7774.93/10000)&{\bf0.773}&(7731.63/10000)\\RWC形態素素性のみ&0.710&(7104.92/10000)&------&(---------/------)&0.759&(7589.30/10000)\\JUMAN形態素素性のみ&0.723&(7231.01/10000)&------&(---------/------)&0.758&(7579.07/10000)\\KNP構文素性のみ&0.749&(7487.18/10000)&0.738&(7379.62/10000)&-----&(------/------)\\文内共起素性のみ&0.754&(7539.53/10000)&------&(---------/------)&0.741&(7410.77/10000)\\UDC素性のみ&------&(---------/------)&------&(---------/------)&-----&(------/------)\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}[t]\caption{素性を変更した場合の精度(名詞50単語)}\label{tab:sosei_change_noun}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l@{}|c@{}c@{}|c@{}c@{}|c@{}c@{}|}\hline\multicolumn{1}{|c|}{素性}&\multicolumn{2}{|c|}{シンプルベイズ}&\multicolumn{2}{|c|}{サポートベクトル}&\multicolumn{2}{|c|}{決定リスト}\\\hline全素性利用&{\bf0.782}&(3911.50/5000)&0.780&(3899.42/5000)&0.749&(3745.58/5000)\\\hline文字列素性なし&0.779&(3897.00/5000)&0.779&(3896.08/5000)&0.746&(3729.92/5000)\\RWC形態素素性なし&0.777&(3886.67/5000)&0.775&(3872.58/5000)&0.748&(3737.58/5000)\\JUMAN形態素素性なし&0.778&(3887.67/5000)&0.779&(3895.75/5000)&0.748&(3740.08/5000)\\KNP構文素性なし&0.777&(3883.83/5000)&0.772&(3862.50/5000)&0.745&(3725.25/5000)\\文内共起素性なし&0.766&(3828.08/5000)&0.768&(3840.33/5000)&0.753&(3762.92/5000)\\UDC素性なし&0.781&(3906.83/5000)&{\bf0.785}&(3922.58/5000)&0.747&(3736.08/5000)\\\hline文字列素性のみ&0.758&(3790.08/5000)&0.767&(3835.00/5000)&0.764&(3819.58/5000)\\RWC形態素素性のみ&0.745&(3723.25/5000)&------&(---------/------)&{\bf0.771}&(3852.67/5000)\\JUMAN形態素素性のみ&0.737&(3685.25/5000)&------&(---------/------)&0.766&(3831.33/5000)\\KNP構文素性のみ&0.721&(3605.58/5000)&0.739&(3695.08/5000)&------&(---------/------)\\文内共起素性のみ&0.739&(3693.75/5000)&------&(---------/------)&0.726&(3629.25/5000)\\UDC素性のみ&------&(---------/------)&------&(---------/------)&------&(---------/------)\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}[t]\caption{素性を変更した場合の精度(動詞50単語)}\label{tab:sosei_change_verb}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l@{}|c@{}c@{}|c@{}c@{}|c@{}c@{}|}\hline\multicolumn{1}{|c|}{素性}&\multicolumn{2}{|c|}{シンプルベイズ}&\multicolumn{2}{|c|}{サポートベクトル}&\multicolumn{2}{|c|}{決定リスト}\\\hline全素性利用&{\bf0.798}&(3991.03/5000)&0.786&(3930.33/5000)&0.772&(3858.12/5000)\\\hline文字列素性なし&0.793&(3966.03/5000)&0.783&(3914.00/5000)&0.769&(3844.12/5000)\\RWC形態素素性なし&0.797&(3983.20/5000)&0.786&(3928.00/5000)&0.771&(3855.12/5000)\\JUMAN形態素素性なし&0.797&(3985.03/5000)&0.786&(3931.00/5000)&0.772&(3858.12/5000)\\KNP構文素性なし&0.791&(3954.53/5000)&0.785&(3926.20/5000)&0.769&(3844.27/5000)\\文内共起素性なし&0.791&(3954.22/5000)&0.771&(3856.33/5000)&0.779&(3895.43/5000)\\UDC素性なし&0.795&(3976.28/5000)&0.784&(3920.00/5000)&0.771&(3853.62/5000)\\\hline文字列素性のみ&0.762&(3810.25/5000)&{\bf0.788}&(3939.93/5000)&{\bf0.782}&(3912.05/5000)\\RWC形態素素性のみ&0.676&(3381.66/5000)&------&(---------/------)&0.747&(3736.63/5000)\\JUMAN形態素素性のみ&0.709&(3545.76/5000)&------&(---------/------)&0.750&(3747.73/5000)\\KNP構文素性のみ&0.776&(3881.60/5000)&0.737&(3684.53/5000)&------&(---------/------)\\文内共起素性のみ&0.769&(3845.78/5000)&------&(---------/------)&0.756&(3781.52/5000)\\UDC素性のみ&------&(---------/------)&------&(---------/------)&------&(---------/------)\\\hline\end{tabular}\end{center}\end{table*}\subsection{素性を変更した実験}\label{sec:experiment2}次に解析に用いる情報,すなわち,素性を変更した場合の実験を行なった.この実験では融合手法は用いず,シンプルベイズ($\epsilon=0.0001$),サポートベクトルマシン,決定リストで行なった.この結果を表\ref{tab:sosei_change}から表\ref{tab:sosei_change_verb}までに示す.表\ref{tab:sosei_change}は課題の100単語すべてでの結果であり,表\ref{tab:sosei_change_noun}と表\ref{tab:sosei_change_verb}は名詞50単語,動詞50単語に対する結果である.各表とも,まず全素性を用いる方法の精度を示し,次に各素性を省いた場合のもの,最後に各素性のみを用いた場合のものを示している.各手法で最も大きいときの精度を太字にしている.また,表で``------''としている部分については,システムおよび素性の設定の都合でシステムが問題を解けなかった単語が一部あったため精度が算出できなかったものを示す.\begin{itemize}\item全課題での実験において精度がもっとも高かったのは,全素性を用いるシンプルベイズ法であった.シンプルベイズ法では,名詞50単語,動詞50単語でも,全素性を用いる方法が安定して最も高い精度を獲得した.\itemサポートベクトルマシン法では,名詞ではUDC素性を用いない方法が最もよく,動詞では文字列素性のみを用いる方法がもっともよかった.\item決定リスト法では名詞ではRWC形態素素性のみを用いる方法がもっともよく,動詞では文字列素性のみを用いる方法がもっともよかった.\item名詞50単語の精度では,UDC素性を用いないサポートベクトルマシンがもっとも精度がよい.このことから,常にシンプルベイズ法がよいわけではなく,他の方法の方がよい場合があることがわかる.\item表\ref{tab:sosei_change}の文字列素性のみを用いる場合の各手法の精度を見て欲しい.このときは,サポートベクトルマシン法がもっとも精度がよく0.777であった.また,決定リスト法では0.773であった.これらの数字は最高精度に比較してもそれほど悪くなく,単なる文字列の素性だけでも高い精度を獲得できることを示している.また,特に動詞の場合は,サポートベクトルマシン,決定リスト法ともに文字列素性のみを用いた場合がもっとも精度が高い.\end{itemize}これらの結果から現状で日本語多義解消を行なう場合,簡便性を考えると以下の二通りのアプローチがあると思われる.\begin{itemize}\item手法としては簡便なシンプルベイズを用いるが,素性としてはさまざまなものを用意して高い精度を目指す.\item手法としては,サポートベクトルマシンや決定リストなどの強力な機械学習手法を用いるが,文字列素性などの少数の有用な素性のみを用いるもの.このアプローチでは前者に比べて素性が簡便であってもよい.\end{itemize}
\section{関連文献}
\label{ref:kanren}本節では関連文献について説明する.英語単語の多義語の曖昧性解消に機械学習手法を用いた研究は極めて多数存在する\cite{Fuji98a,sense1,fukumoto_ipsj2001}が,日本語単語の多義語の曖昧性解消に機械学習手法を用いた研究は,SENSEVAL2以前はほとんどなかった\cite{shinou98}.例えば,新納の研究では語の多義の解消ではなく,同音異義語の判別を扱っていた.その意味で,日本語多義解消の問題で「シンプルベイズ法」「決定リスト法」「サポートベクトルマシン法」の三つの機械学習手法,さらには,素性を変化させた場合の実験結果を示している本稿は,今後の日本語単語の多義語の曖昧性解消の問題を考えるための資料として非常に役に立つものと思われる.次にいくつかの関連研究を紹介したい.まず,SENSEVAL2で英語を含む数多くの言語で優秀な成績をとっていたYarowskyらのシステム\cite{yarowsky_s2}について説明する.Yarowskyらのシステムは,シンプルベイス法と決定リストの組み合わせであり,決定リストで求まる確信度が高いところでは決定リストの手法の解を用い,それ以外の場合は種々の手法の多数決の結果を解とする手法である.確信度を用い決定リストで確実に求まるところだけを別個に扱っているところが興味深い.次に,SENSEVAL2の日本語辞書タスクに参加していた八木らのシステム\cite{yagi_nlc2001}について説明する.八木らのシステムは決定リスト法を機械学習手法として用いており,学習用のデータとして,RWCコーパス以外に岩波国語辞典の例文のデータを用いていることを特徴としている.RWCコーパスでの語義の定義は岩波国語辞典を用いているため,岩波国語辞典の例文のデータも語義解析のための学習データとして利用できるのである.八木らの研究ではこの例文データも利用した場合の方が利用しない場合よりも精度が高かったとしている.この結果は,われわれの研究でもこのデータを追加で用いることで精度を向上できる可能性を示唆するものであり,興味深い.次に,高村らの素性空間を再構成する手法\cite{takamura2001_NL}について説明する.この研究は英語を対象に行なわれており,機械学習手法としてはサポートベクトルマシン法を利用している.この手法は学習に用いる素性を構成し直すところに特徴がある.普通に抽出した素性だけでなく,その素性の分布に対して独立成分分析や主成分分析を行ない,元々の素性よりも一段抽象化したような素性を新たに作り出し,これも素性として追加で用いる方法である.この素性を再構成する方法を含めた複数のシステムの多数決を用いる方法で,単純なサポートベクトルマシン法の性能を上回ったとしている.独立成分分析などにより素性の情報を抽象化することでデータスパースネス対策などに役立っていると思われ,興味深い.最後に,中野らのAdaBoostを用いた手法\cite{nakano_ada}を説明する.この研究ではSENSEVAL2日本語タスクのデータを対象としており,AdaBoostを機械学習手法として利用している.AdaBoostは正しく分類された事例の重みを下げ,誤って分類された事例の重みを上げて,再学習をする手法である.中野らの報告では,AdaBoostを利用することで決定リスト法,シンプルベイズ法よりも高い精度を得たと報告している.ただし,その最高精度は79.1\,\%であり,われわれの最高精度の79.3\,\%より若干低い.しかし,この結果はわれわれのシステムの素性の情報が豊かであるためである可能性があり,われわれのシステムの素性の情報でAdaBoostを利用するとさらによい精度を得ることができる可能性がある.しかし,中野らはわれわれのシステムでは用いていない日本語語彙体系\cite{ntt}の辞書の情報を用いており,中野らの方が素性の情報が少ないとは言い切れないので,われわれのシステムの素性の情報でAdaBoostを利用するとさらによい精度を得ることができるかどうかはわからない.また,われわれのシステムの素性の情報の方が豊富であっても,われわれのシステムの素性でAdaBoostが本当によい精度を出せるかどうかはわからない.次に,多義性の研究に直接は関係はないが,複数の機械学習の方法を組み合わせるのに,スタッキングを用いる手法\cite{Halteren_cl2001}について説明したい.スタッキングを用いる手法とは,もともとの素性の他に,複数の機械学習の結果を素性として追加し,その追加された素性を用いて機械学習を行なう方法である.従来は複数の機械学習の方法の融合には多数決が多く用いられていたが,スタッキングの方法ではどの機械学習の方法がよいかを学習することになっておりたいていの場合で多数決の方法よりも精度が高くなると思われる.このスタッキングを利用する研究としては,形態素解析のもの\cite{Halteren_cl2001}や固有名詞表現抽出のもの\cite{Utsuro_ne}などがある.本稿でのシステムの融合では,各単語でもっとも精度の高い手法を利用していた.このわれわれの融合手法は各単語ごとに用いる手法を最尤推定で求めるものになっていて少々は融合に学習を用いていることにはなっている.しかし,手法の組み合わせにおいても強力な学習手法を用いた方が精度はよいと思われるので,われわれの手法でもスタッキングを利用することを考えた方がよい.以上,種々の有力な関連研究を紹介した.それぞれの手法ともに特徴的な要素を持っており,\ref{sec:experiment2}節の最後に述べた考察と含めてそれらを総合的に考察し,それぞれの手法の良い面を組み合わせることで,さらによりよい多義解消を行なえると思われる.
\section{おわりに}
本稿では,2001年に行なわれたSENSEVAL2コンテストの日本語辞書タスクでのわれわれの取り組みについて述べた.我々は,サポートベクトルマシン法,シンプルベイズ法,またそれらの組み合わせのシステム二つの合計4システムを提出し,組合わせシステムが参加システム中もっとも高い精度(0.786)を得た.コンテストの後,シンプルベイズ法で用いていたパラメータを調節したところさらに高い精度を得た.現在もっとも性能の高いシステムは二つのシンプルベイズ法を組み合わせたシステムであり,その精度は0.793である.また,本稿では素性を変更した実験もいくつか追加で行ない,各素性の有効性,特徴を調査した.その調査結果では文字列素性のみを用いても比較的高い精度が得られるなどの興味深い知見が得られている.また,関連文献も紹介し,今後の多義解消の研究のための有益な情報を提供した.\acknowledgmentSENSEVAL2の運営,および,本特集号に尽力してくださいました,東大黒橋助教授と北陸先端大白井助教授をはじめとする方々に感謝いたします.\begin{thebibliography}{}\bibitem[\protect\BCAY{Cristianini\BBA\Shawe-Taylor}{Cristianini\BBA\Shawe-Taylor}{2000}]{SVM}Cristianini,N.\BBACOMMA\\BBA\Shawe-Taylor,J.\BBOP2000\BBCP.\newblock{\BemAnIntroductiontoSupportVectorMachinesandOtherKernel-basedLearningMethods}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{藤井}{藤井}{1998}]{Fuji98a}藤井敦\BBOP1998\BBCP.\newblock\JBOQコーパスに基づく多義性解消\JBCQ\\newblock\Jem{人工知能学会},{\Bbf13}(6),pp.~904--911.\bibitem[\protect\BCAY{福本}{福本}{2002}]{fukumoto_ipsj2001}福本文代\BBOP2002\BBCP.\newblock\JBOQ語義の曖昧性解消のための最適な属性選択\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(1).\bibitem[\protect\BCAY{Halteren,vanZavrel,\BBA\Daelemans}{Halterenet~al.}{2001}]{Halteren_cl2001}Halteren,V.H.,Zavrel,J.,\BBA\Daelemans,W.\BBOP2001\BBCP.\newblock\BBOQImprovingAccuracyinWordClassTaggingthroughtheCombinationofMachineLearningSystems\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf27}(2),pp.~199--229.\bibitem[\protect\BCAY{Ide\BBA\Mylonas}{Ide\BBA\Mylonas}{2000}]{sense1}Ide,N.\BBACOMMA\\BBA\Mylonas,E.\BBOP2000\BBCP.\newblock{\BemComputersandthehumanities,SpecialIssueonSENSEVAL}.\newblockKluwerAcademicPublishers.\bibitem[\protect\BCAY{池原,宮崎,白井,横尾,中岩,小倉,大山,林}{池原\Jetal}{1997}]{ntt}池原悟,宮崎正弘,白井諭,横尾昭男,中岩浩巳,小倉健太郎,大山芳史,林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙体系}.\newblock岩波書店.\bibitem[\protect\BCAY{乾,内元,村田,井佐原}{乾\Jetal}{1998}]{inui:nlken98}乾裕子,内元清貴,村田真樹,井佐原均\BBOP1998\BBCP.\newblock\JBOQ文末表現に着目した自由回答アンケートの分類\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会NL128-25}.\bibitem[\protect\BCAY{キンラン}{キンラン}{1995}]{c4.5j}J.R.キンラン\BBOP1995\BBCP.\newblock\Jem{AIによるデータ解析}.\newblockトッパン.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{1964}]{bgh}国立国語研究所\BBOP1964\BBCP.\newblock\Jem{分類語彙表}.\newblock秀英出版.\bibitem[\protect\BCAY{工藤,松本}{工藤,松本}{2000}]{kudoh_chunk_nl2000}工藤拓,松本裕治\BBOP2000\BBCP.\newblock\JBOQSupportVectorMachineを用いたChunk同定\JBCQ\\newblock\Jem{自然言語処理研究会2000-NL-140}.\bibitem[\protect\BCAY{Kudoh}{Kudoh}{2000}]{kudoh_svm}Kudoh,T.\BBOP2000\BBCP.\newblock\BBOQ{TinySVM:SupportVectorMachines}\BBCQ\\\\newblock{http://cl.aist-nara.ac.jp/\verb+~+taku-ku/software/TinySVM/index.html}.\bibitem[\protect\BCAY{黒橋,長尾}{黒橋,長尾}{1998}]{JUMAN3.6}黒橋禎夫,長尾真\BBOP1998\BBCP.\newblock\Jem{日本語形態素解析システム{JUMAN}使用説明書version3.6}.\newblock京都大学大学院工学研究科.\bibitem[\protect\BCAY{黒橋}{黒橋}{1998}]{KNP2.0b6}黒橋禎夫\BBOP1998\BBCP.\newblock\Jem{日本語構文解析システム{KNP}使用説明書version2.0b6}.\newblock京都大学大学院情報学研究科.\bibitem[\protect\BCAY{村田,長尾}{村田,長尾}{1997}]{murata_deno_nlp}村田真樹,長尾真\BBOP1997\BBCP.\newblock\JBOQ用例や表層表現を用いた日本語文章中の指示詞・代名詞・ゼロ代名詞の指示対象の推定\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf4}(1).\bibitem[\protect\BCAY{村田,内元,馬,井佐原}{村田\Jetal}{1998}]{murata:nlken98}村田真樹,内元清貴,馬青,井佐原均\BBOP1998\BBCP.\newblock\JBOQ学習による文節まとめあげ---決定木学習,最大エントロピー法,用例ベースによる手法と排反な規則を用いる新手法の比較---\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会NL128-4}.\bibitem[\protect\BCAY{村田,内元,馬,井佐原}{村田\Jetal}{2000a}]{murata_haihan_rule_ipsj}村田真樹,内元清貴,馬青,井佐原均\BBOP2000a\BBCP.\newblock\JBOQ排反な規則を用いた文節まとめあげ\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf41}(1),pp.~59--69.\bibitem[\protect\BCAY{村田,内山,井佐原}{村田\Jetal}{2000b}]{murata2000_1_nl}村田真樹,内山将夫,井佐原均\BBOP2000b\BBCP.\newblock\JBOQ類似度に基づく推論を用いた質問応答システム\JBCQ\\newblock\Jem{自然言語処理研究会2000-NL-135},pp.~181--188.\bibitem[\protect\BCAY{村田,馬,内元,井佐原}{村田\Jetal}{2001a}]{murata_nlc2001}村田真樹,馬青,内元清貴,井佐原均\BBOP2001a\BBCP.\newblock\JBOQサポートベクトルマシンを用いたテンス・アスペクト・モダリティの日英翻訳\JBCQ\\newblock\Jem{電子情報通信学会言語理解とコミュニケーション研究会NLC2000-78}.\bibitem[\protect\BCAY{村田,内山,内元,馬,井佐原}{村田\Jetal}{2001b}]{murata_nlc2001_wsd}村田真樹,内山将夫,内元清貴,馬青,井佐原均\BBOP2001b\BBCP.\newblock\JBOQ種々の機械学習手法を用いた多義解消実験\JBCQ\\newblock\Jem{電子情報通信学会言語理解とコミュニケーション研究会NLC2001-2}.\bibitem[\protect\BCAY{中野,村田,長尾}{中野\Jetal}{1998}]{NLP98_nakano}中野貴之,村田真樹,長尾真\BBOP1998\BBCP.\newblock\JBOQネットニュース記事のタイプ分類\JBCQ\\newblock\Jem{言語処理学会第4回年次大会}.\bibitem[\protect\BCAY{中野,平井}{中野,平井}{2002}]{nakano_ada}中野桂吾,平井有三\BBOP2002\BBCP.\newblock\JBOQ{AdaBoost}を用いた語義の曖昧性解消\JBCQ\\newblock\Jem{言語処理学会第8回年次大会}.\bibitem[\protect\BCAY{日本電子化辞書研究所}{日本電子化辞書研究所}{1993}]{edr}日本電子化辞書研究所\BBOP1993\BBCP.\newblock\JBOQ{EDR}電子化辞書仕様説明書\JBCQ.\bibitem[\protect\BCAY{{NTCIR-3QACtaskcommittee}}{{NTCIR-3QACtaskcommittee}}{2001}]{qac_hp}{NTCIR-3QACtaskcommittee}\BBOP2001\BBCP.\newblock\newblock\BBOQQuestionAnsweringChallenge(QAC)HomePage\BBCQ.\\\newblock{http://www.nlp.cs.ritsumei.ac.jp/qac/}.\bibitem[\protect\BCAY{新納}{新納}{1998}]{shinou98}新納浩幸\BBOP1998\BBCP.\newblock\JBOQ複合語からの証拠に重みをつけた決定リストによる同音異義語判別\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(12).\bibitem[\protect\BCAY{白井,柏野,橋本,徳永,有田,井佐原,荻野,小船,高橋,長尾,橋田,村田}{白井\Jetal}{2001}]{shirai_nl2001}白井清昭,柏野和佳子,橋本三奈子,徳永健伸,有田英一,井佐原均,荻野紫穂,小船隆一,高橋裕信,長尾確,橋田浩一,村田真樹\BBOP2001\BBCP.\newblock\JBOQ岩波国語辞典を利用した語義タグ付きテキストデータベースの作成\JBCQ\\newblock\Jem{自然言語処理研究会2001-NL-141}.\bibitem[\protect\BCAY{平,春野}{平,春野}{2000}]{taira_svm}平博順,春野雅彦\BBOP2000\BBCP.\newblock\JBOQSupportVectorMachineによるテキスト分類における属性選択\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf41}(4),pp.~1113--1123.\bibitem[\protect\BCAY{高村,山田,工藤,山本,松本}{高村\Jetal}{2001}]{takamura2001_NL}高村大也,山田寛康,工藤拓,山本薫,松本裕治\BBOP2001\BBCP.\newblock\JBOQ素性空間再構成によるWord-SenseDisambiguation\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2001-NL-144}.\bibitem[\protect\BCAY{鶴岡,近山}{鶴岡,近山}{2002}]{tsuruoka_nlp2002}鶴岡慶雅,近山隆\BBOP2002\BBCP.\newblock\JBOQベイズ統計の手法を利用した決定リストのルール信頼度推定法\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf9}(3).\bibitem[\protect\BCAY{宇津呂,颯々野,内元}{宇津呂\Jetal}{2002}]{Utsuro_ne}宇津呂武仁,颯々野学,内元清貴\BBOP2002\BBCP.\newblock\JBOQ正誤判別規則学習を用いた複数の日本語固有表現抽出システムの出力の混合\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf9}(1).\bibitem[\protect\BCAY{八木,野呂,白井,徳永,田中}{八木\Jetal}{2001}]{yagi_nlc2001}八木豊,野呂智哉,白井清昭,徳永健伸,田中穂積\BBOP2001\BBCP.\newblock\JBOQ決定リストを用いた語義曖昧性解消\JBCQ\\newblock\Jem{電子情報通信学会言語理解とコミュニケーション研究会NLC2001-42}.\bibitem[\protect\BCAY{Yarowsky}{Yarowsky}{1994}]{Yarowsky:ACL94}Yarowsky,D.\BBOP1994\BBCP.\newblock\BBOQDecisionListsForLexicalAmbiguityResolution:ApplicationtoAccentRestorationin{Spanish}and{French}\BBCQ\\newblockIn{\Bem32rdAnnualMeetingoftheAssociationoftheComputationalLinguistics},\BPGS\pp.~88--95.\bibitem[\protect\BCAY{Yarowsky}{Yarowsky}{2001}]{senseval2}Yarowsky,D.\BBOP2001\BBCP.\newblock{\BemProceedingsofSENSEVAL-2}.\bibitem[\protect\BCAY{Yarowsky,Cucerzan,Florian,Schafer,\BBA\Wicentowski}{Yarowskyet~al.}{2001}]{yarowsky_s2}Yarowsky,D.,Cucerzan,S.,Florian,R.,Schafer,C.,\BBA\Wicentowski,R.\BBOP2001\BBCP.\newblock\BBOQTheJohnsHopkinsSENSEVAL-2SystemDescriptions\BBCQ\\newblockIn{\BemProceedingsofSENSEVAL-2}.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.現在,独立行政法人通信総合研究所主任研究員.自然言語処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,ACL,各会員.}\bioauthor{内山将夫}{1992年筑波大学第三学群情報学類卒業.1997年筑波大学大学院工学研究科博士課程修了.博士(工学).1997年信州大学工学部電気電子工学科助手.1999年郵政省通信総合研究所非常勤職員.2001年独立行政法人通信総合研究所任期付き研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本音響学会,ACL,各会員.}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所.現在,独立行政法人通信総合研究所研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{馬青}{1983年北京航空航天大学自動制御学部卒業.1987年筑波大学大学院理工学研究科修士課程修了.1990年同大学院工学研究科博士課程修了.工学博士.1990$\sim$93年株式会社小野測器勤務.1993年郵政省通信総合研究所入所.1994年同所主任研究官.2003年龍谷大学理工学部教授.人工神経回路網モデル,知識表現,自然言語処理の研究に従事.日本神経回路学会,言語処理学会,電子情報通信学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所.現在,独立行政法人通信総合研究所けいはんな情報通信融合研究センター自然言語グループリーダー.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V20N02-02 | \section{はじめに}
\label{First}ロボットと人間との関係は,今後大きく変化していくと考える.今までのような単純な機械作業だけがロボットに求められるのではなく,例えば施設案内や介護現場のサポート,愛玩目的,ひいては人間と同じようにコミュニケーションを行うパートナーとしての存在も要求されると考える.このとき,人間との円滑なコミュニケーションのために必要不可欠となるのが会話能力である.あいさつや質問応答,提案,雑談といった様々な会話を人間のように行えてこそ,自然なコミュニケーションが実現すると考える.ロボットがこういった会話,とくに提案や雑談といった能動的なものを行うためにはそのためのリソースが必要である.例えば日々の時事情報が詰まった新聞などは,情報量の多さや入手の手軽さ,話題の更新速度などから言っても適当なリソースといえる.この新聞記事によって与えられる時事情報を会話の話題として利用することは,ロボットに人間らしい会話を行わせるためには有効なのではないかと考えた.新聞記事を利用した会話をロボットに行わせる最も簡単な方法は,新聞記事表現を会話テンプレートに埋め込むといったものと考える.このとき問題になるのが新聞記事表現の難解さである.新聞のように公に対して公開される文章は短い文で端的に内容を表すため,馴染みの薄い難解な言葉,俗にいう「堅い」言葉を多く使う.これらの言葉は文章として読むには違和感はないが,会話に用いるには自然ではないことが多い.例えば「貸与する」という言葉は会話では「貸す」という言い方をするほうが自然である.また,一般的にはそう難解ではない言葉,例えば「落下した」という言葉も会話ということを考えると「落ちた」のような更に易しい表現の方が馴染みやすいと感じる.つまり会話に用いられる言葉と新聞といった公的な文中に用いられる言葉の間には,同じ意味を表すにしても難易度や馴染みの深さに違いがある.ロボットの発話リソースとして新聞を用いることを考えると,このような語の馴染みの違いに考慮しなければならない.そこで本稿ではロボットと人間との自然な会話生成を担う技術の一端として,新聞記事中の難解な語を会話表現に見あった平易な表現へと変換する手法を提案する.本稿では変換後の記事をより人間にとって違和感の無いものとするために,人間が自然に行う語の変換に則った処理を提案する.つまり,語をそれと同じもしくは近い意味の別の平易な1語に変換する1:1の変換処理(1語変換)および語を平易な文章表現に変換する1:$N$の変換処理($N$語変換)の双方を併用することで人間が自然だと感じる語の変換を目指す.語の難解さ,平易さの判断には\cite{Book_01}で報告されている単語親密度を用いる.これは語の「馴染み深さ」を定量化した数値であり,新聞記事に用いられる語と一般的な会話に用いられる語の間にある単語親密度の差を調査することで新聞記事中の難解語を自動的に判断,平易な表現への変換を可能とする.また,変換処理を行う上で重要な意味の保持に関しては,人間の連想能力を模倣した語概念連想を用いることでそれを実現する.語と語,文と文の間の意味関係を柔軟に表現することを目指した語概念連想の機構を利用することで,変換前の記事が持つ意味を考慮した変換を行う.
\section{関連研究と本研究の特徴}
\label{Second}文中の語を他の表現に変換に関する研究は数多くなされており,平易な表現への変換技術そのものとしての研究\cite{Article_02}やWeb検索への利用を目的とした複数パターンの変換の生成\cite{Article_13},利用者の言語能力に配慮した平易化\cite{Article_01,Article_12,Article_16},会話への利用\cite{Article_15}といった形で報告が成されている.これらの研究においても,語の表現を変換するためのアプローチとして\ref{First}章で述べたような1:1の変換処理および語を文によって表現する1:{$N$}の変換処理が挙げられている.1:1の変換については,例えば\cite{Article_01}では児童向け新聞の記事と一般の新聞記事との間でベクトル空間モデルによるマッチングを取り,同一内容の記事の対から1語対1語の変換対を作成している.また\cite{Article_13}ではWebを用いて入力された文字列中の語の変換候補を生成している.変換対象となる語(名詞,形容詞,動詞,カタカナ語)を入力から取り除いた文字列を用いてWeb検索を行うことで,変換対象の語があった場所に入る他の語を取得することが出来る.対して\cite{Article_02}の報告では,国語辞典の定義文を変換に用いる1:$N$の変換処理が報告されている.定義文を変換に適した形の文に整形するルールを策定し,日本語として違和感の無い変換を行うことを目指している.これらの変換処理はそれぞれ,1:1の変換処理および1:$N$の変換処理を単独で行っているが,本稿で提案する手法はこの双方を組み合わせることでより人間の思考に沿った変換処理を提案できると考える.人間がある語の変換を行う際には,まず別の1語に言い換えることができないかを考える.これは変換の対象となる語の同義語や類義語によって行うことが可能である.しかし同義語や類義語を持たない語も数多く存在することを考えると,この1:1の変換では不十分である.また私たちの行う会話では,1つの語の変換に文を用いる場合も多々考えられる.これは分かりにくい語が出現した場合にその語の「意味を説明する」ことで語の変換を行っている.例えば「明言」という語ならば,同じ意味を持つ一語を探すよりも「はっきりと言い切る」という文による変換が自然である.1つの語に対して文,つまり$N$個の語による変換という機能が無ければ,人間の会話に近い自然な変換はできない.\cite{Article_12}や\cite{Article_16}では,本稿と同じく1:1の変換と1:$N$の変換の組み合わせについて述べられている.例えば\cite{Article_12}では対象となる文章を自治体のWebページに固定し,人手による変換対の作成によって語の変換を実現している.変換対はシソーラスや国語辞典の定義文を人の目で参照して作成しており,よってある語を変換するための対は1語である場合もあれば短い文の場合もある.\cite{Article_16}では文化遺産に関する説明文を平易化することを目的として,そのための変換パターンの解析を行っている.この中では専門用語に対して文章による変換で補足を行うパターンや,外来語を同じ意味の日本語へ変換するといった手法により説明文を平易化できると報告している.これらの手法では変換対や変換のためのパターンが人手により作成されるため高精度を期待できるが,それに伴う労力も非常に大きい.また,変換対象を固定しているため作成した変換対やパターンの汎用性に欠けると考えられる.本稿の提案手法では変換のための語や文を既存の辞書資源から自動的に選択するため,労力や汎用性の点で優位性があると考える.国外でも語の変換に着目した評価型ワークショップ\cite{Article_22,Article_23}が開催され,\cite{Article_24,Article_25,Article_26}といった研究が報告されている.\cite{Article_22}では文章中の英単語1語を別の語で変換するというタスクが設定されており,例えば\cite{Article_24}では変換のための語を得るために$N-gram$,語の出現頻度,Webヒット件数,さらには変換前の文章を他言語に翻訳した後,再度英語に翻訳するなどの様々な手法を組み合わせることで語にポイント付けを行い,変換を実現している.\cite{Article_23}では\cite{Article_22}で示された1語の変換に際してより平易な語を選択するというタスクになっている.例えば\cite{Article_25}では\cite{Article_24}のポイント付けを基礎とし,さらに\cite{Article_27,Article_28}で定義された心理言語学的モデル,例えば語の具体性やイメージアビリティといった側面でスコア付けを行ったデータを用いて平易性の判断を行っている.\cite{Article_26}では語の平易性の判断材料として様々なコーパス内における出現頻度や語の長さを用いている.これらのタスクにおいても変換の処理は1:1のものが大半であり,英文による変換は行われていない.また,\cite{Article_23}のタスクでは人手で用意された変換の候補となる語に対して平易性のランク付けをすることで変換を行っており,変換の候補となる語の選出は行っていない.候補の選出処理は\cite{Article_24}によって報告されているが,この手法は\cite{Article_22}における総括でも述べられている通り,変換に必要なリソースや処理過程が非常に複雑なものとなっている.前述したとおり,本稿の提案手法では1:1および1:$N$の変換手法を組み合わせることで人間の自然な変換を実現する点,語概念連想を用いることで変換のための語や文を既存の辞書資源から自動的に選択できる点でこれらの研究と比べて優位性があると考える.
\section{難解語の変換手法の概要}
本稿で提案する難解語の変換手法は人間が自然に行う語の変換に沿い,1:1および1:$N$の変換処理を組み合わせることで行う.同義語,類義語を用いた1:1の変換処理(1語変換)と,1つの語を文で変換する1:$N$の変換処理($N$語変換)によりこれを実現する.また,各変換処理において人間の連想能力を模倣した語概念連想を用いることで,語の表記に依存しない柔軟な語の変換を行う.語と語,文と文の意味的な近さを考慮した変換を行うことで,人間の常識に沿った語の選択や多義性の解消を図ることが出来る.語概念連想の詳しい構造については\ref{Gogainen}章に示す.\begin{figure}[b]\begin{center}\includegraphics{20-2ia2f1.eps}\end{center}\caption{語変換処理の概要図}\label{fig:gaiyouzu}\end{figure}図\ref{fig:gaiyouzu}に提案する語変換処理の概要図を示す.入力は新聞記事とし,語の変換処理は句点を区切りとする記事中の1文ずつで行う.入力された記事中から会話に適さない馴染みの薄い語(難解語)を判別し,別の平易な語もしくは文に変換する.難解語の判別には単語親密度\cite{Book_01}を用いる.単語親密度とは単語に対する馴染みの度合いを主観的に評価した値であり,数値が高いほどより馴染みのある単語であることを示す.これは18歳以上の被験者40名に対して単語を提示し,1から7までの数字で馴染みがあるか否かを評価した結果を平均化することで算出される.表\ref{tab:tansin_rei}に単語親密度の一部を示す.\begin{table}[b]\vspace{-1\Cvs}\caption{単語親密度の例}\label{tab:tansin_rei}\input{02table01.txt}\end{table}表\ref{tab:tansin_rei}に示した通り,例えば「あいさつ」のようにごく一般的な語は単語親密度が高く,万人にとって馴染みの深い語であることがわかる.一方「サイドマイド」(睡眠薬の一種)は専門的な用語であり,一般的には馴染みが薄く単語親密度も低い値となる.日常的に使用する語とは,万人にとって馴染みのある語であると考える.新聞記事中に現れる「危ぶむ」という表現は,一般的な会話ならば「心配する」程度の表現の方が違和感なく馴染みやすい.つまり馴染みの度合いが高い語ほど会話への利用に適していると考えられる.また単語親密度が高ければ高い語ほど,その語を文字として提示された場合と音声として提示された場合の双方で語彙判断の反応時間が短く認知の誤りも少ないという結果が報告されており\cite{Article_20,Article_21,Book_05},この事からも単語親密度が高い語ほど会話への利用に適した平易な語であるといえる.そこで本稿では単語親密度が低い語を変換すべき難解語とみなし,平易な表現への変換処理を行う.難解語と置き換える平易な表現は語の同義・類義関係を示した関係語辞書\cite{Article_10,Article_11}および国語辞書から得る.1語変換においては国語辞典から自動構築された関係語辞書を用いて難解語の同義語・類義語を取得し,これらを変換に用いる語の候補(変換候補語)とする.辞書における同義語はある語と同じ意味を持つ別表記の語,類義語は類似の意味を持ち言い換えることの出来る語と定義されているため,これらの語を用いることで1語変換を行うことができる.$N$語変換では国語辞書を用いて難解語の意味を説明する定義文を取得し,これらを変換に用いる文の候補(変換候補文)とする.$N$語変換に用いる変換候補文は辞書に記載されているそのままの形で語の変換を行うと,出力される文が日本語として不自然な場合がある.例えば辞書の定義文に出現する「転じて」や「〜の別名」といった言い回しは,そのままの形で変換に用いた場合に不自然さを発生させる要因となる.このような変換に必要の無い語を不要語と定義し,不要語リストを用いてこれらの削除を行う.また,元の記事中の語を定義文で変換した際にWhatやWhoといった文中の情報が重複することによって不自然さが発生する場合がある.そこで意味理解システム\cite{Article_03}を用いて不自然さを排除した上で難解語を文に変換し,会話に適した語句で構成された文を出力する.
\section{語概念連想}
\label{Gogainen}一般的に語や文の類似性を計る際には,ベクトル空間モデル\cite{Article_08}のように単語の出現頻度や共起,表記の一致などを利用した手法が往々にとられる.しかし人間はそのような情報に依存することなく,語と語や文と文の間に意味的な関連性を自然と連想し,処理している.そのような人間の連想能力を模倣し,人間らしい柔軟な言葉の意味理解を行う機構として語概念連想が提案されている.語概念連想は語の意味定義を行う概念ベース\cite{Article_04}と,語と語の間の関連性を定量的に表現する手法である関連度計算方式\cite{Article_05},そしてヒッチコック型輸送問題\cite{Book_06}で計算される距離尺度であるEarthMover'sDistance(EMD)を用いた記事関連度計算方式\cite{Article_06}を有する,人間の連想能力を表現した機構である.語概念連想に関する研究報告ではベクトル空間モデルといった従来手法と比べてその有効性が示されている\cite{Article_05}.本稿では語の変換を行う際に,元の語と変換の候補となる語(変換候補語)との間の意味的な近さを考慮するために語概念連想を用いる.具体的には,まず1語変換においては複数得られる可能性のある同義語・類義語の中から最も元の語に近い意味を持つ変換候補語を選別するために関連度計算方式を用いる.次に$N$語変換においては多義性の解消のためにEMDを用いた記事関連度計算方式を用いる.これは難解語が多義語であった場合に辞書の定義文が複数取得されるため,文書間の関連性を定量化することで元の記事と最も関連の強い定義文を判別し,意味の特定を図るものである.以下に概念ベース,関連度計算方式,EMDを用いた記事関連度計算方式について述べる.\subsection{概念ベース}概念ベースは複数の電子化国語辞書などの見出し語を概念と定義し,見出し語の定義文に使われる自立語群を概念の特徴を表す属性として構築された知識ベースである.本稿で使用した概念ベースは自動的に概念および属性を構築した後に人間の常識に沿った属性の追加や削除を行ったものであり,概念は87,242語となっている.概念ベースのある概念$A$は,$m$個の属性$a_i$と,その属性の重要性を表す重み$w_i$の対によって次のように表現される.\[\text{概念}A=\{(a_1,w_1),(a_2,w_2),\cdots,(a_m,w_m)\}\]概念$A$の意味定義を行う属性$a_i$を,概念$A$の一次属性と呼ぶ.概念ベースの特徴として,属性を成す単語群も概念ベースの中で概念として定義されている点がある.つまり属性$a_i$を概念とみなして更に属性を導くことができる.概念$a_i$から導かれた属性$a_i{}_j$を,元の概念$A$の二次属性と呼ぶ.概念ベースの具体例を表\ref{tab:gainenrei}に示す.\begin{table}[t]\caption{概念ベースの例}\label{tab:gainenrei}\input{02table02.txt}\end{table}例えば「医者」という概念が持つ属性「患者」は,概念「患者」としても定義されている.この概念「患者」の持つ「病人,看病,治療,…」といった属性群が,元の概念「医者」の二次属性ということになる.\subsection{関連度計算方式}\label{DOA}関連度計算方式は概念ベースの特徴である属性の連鎖的構造を活用して,高い精度で概念間の関連性を定量化することが可能である.概念をベクトルで表現し,概念間の関連性をベクトル内積により算出した場合と比較しても,関連度計算方式は高い精度となっており,概念間の関連性の定量化における関連度の有効性が示されている\cite{Article_05}.以下に関連度計算方式の具体的な処理を述べる.関連度計算方式では2つの概念間の関連性を関連度という値で定量的に表現する.関連性を算出する概念の二次属性を用いて,それぞれの一次属性を最も関連が強いもの同士で対応付けを行った上で算出する.以下に,概念$A$と概念$B$の関連度$DoA(A,B)$の算出方法について示す.概念$A$および概念$B$の一次属性をそれぞれ$a_i$,$b_i$とし,対応する重みを$u_i$,$v_i$とする.それぞれが持つ属性数が$L$個と$M$個($L\leqM$)とすると,概念$A$,$B$はそれぞれ以下のようになる.\begin{gather*}\text{概念}A=\{(a_1,u_1),(a_2,u_2),\cdots,(a_L,u_L)\}\\\text{概念}B=\{(b_1,v_1),(b_2,v_2),\cdots,(b_M,v_M)\}\end{gather*}なお,このとき各概念の属性の重みを,その総和が1.0となるよう正規化している.ここで一次属性の数が少ない概念$A$の属性の並びを固定する.その上で概念$B$の各一次属性を対応する概念$A$の各一次属性との一致度$DoM(A,B)$の合計が最大になるように並べ替える.ただし,概念$A$の属性と対応付けされなかった属性については無視する.\[\text{概念}B=\{(b_{x1},v_{x1}),(b_{x2},v_{x2}),\cdots,(b_{xL},v_{xL})\}\]このとき,概念$A$と概念$B$の関連度$DoA(A,B)$は,\begin{equation}\mathit{DoA}(A,B)=\displaystyle{\sum_{i=1}^{L}\mathit{DoM}(a_i,b_{xi})\times\frac{(u_i+v_{xi})}{2}\times\frac{\mathit{min}(u_i,v_{xi})}{\mathit{max}(u_i,v_{xi})}}\end{equation}と定義する.ここで$\mathit{min}(u_i,v_{xi})$は$u_i$と$v_{xi}$を比較して小さい値を,$\mathit{max}(u_i,v_{xi})$は大きい値を指す.なお,一致度$\mathit{DoM}(A,B)$は以下のように定義する.\begin{equation}\mathit{DoM}(A,B)=\displaystyle{\sum_{a_i=b_j}^{}\mathit{min}(u_i,v_j)}\end{equation}$a_i=b_j$は属性が表記的に一致した場合を示している.つまり一致度とは概念$A$と概念$B$双方が共通して持つ属性の内,小さいほうの重みを足し合わせたものとなる.共通した属性は概念$A$と概念$B$でそれぞれ重みが付与されており,このうち小さいほうの重み分は概念$A$と概念$B$両方の属性に有効であると考えるためである.\subsection{EMDを用いた記事関連度計算方式}\label{EMD}EMDを用いた記事関連度計算方式は,ヒッチコック型輸送問題\cite{Book_06}(需要地の需要を満たすように供給地から輸送を行う際の最小輸送コストを解く問題)で計算される距離尺度であるEMDを文書検索へ適用したもので,2つの記事間の関連性を定量的に表現することが可能であり\cite{Article_06}によりその有用性が報告されている.EMDとは2つの離散分布があるときに一方からもう一方の分布への変換を行う際の最小コストを指す.離散分布はそれを構成する要素と重みの対の集合で表現され,コスト算出の際には変換前の離散分布の要素が持つ重みを供給量,変換先の離散分布の要素が持つ重みを需要量と考え,要素間の距離を供給量,需要量にしたがって重みを運送すると考える.できるだけ短い距離で,かつ需要量に対して効率的に重みを運送する経路がEMDとなる.これを文書検索に適応させる際には,文章中の自立語(名詞,動詞,形容詞)を要素として捉え,自立語の集合を離散分布と考える.ある文章の離散分布を違う文章の離散分布へ変換すると考えると,その際のコストが最小となる文章が元の文章に最も近い文章となり文書検索へ適用することが可能となる.EMDを用いた記事関連度計算方式について,以下の図\ref{fig:EMD}に示すような簡略図を用いて説明する.\begin{figure}[t]\begin{center}\includegraphics{20-2ia2f2.eps}\end{center}\caption{EMDによる記事関連度計算方式}\label{fig:EMD}\end{figure}ある文書$A$と$B$があったとき,文書$A$を文書$B$に変換する際のコストを考える.それぞれの文書を文中の自立語$\mathit{Word}_{Ai},\mathit{Word}_{Bj}$の離散分布と考える.まず自立語それぞれには重みの付与を行うが,本稿では$tf・idf$の考え方を用いた.語の網羅性である$tf$は,文書$A$中に出現する語$\mathit{Word}_{Ai}$の頻度$\mathit{tfreq}(\mathit{Word}_{Ai},A)$を文書$A$中のすべての語数$\mathit{tnum}(A)$で割ったものを利用する.算出式は以下のようになる.\begin{equation}\mathit{tf}(\mathit{Word}_{Ai},A)=\frac{\mathit{tfreq}(\mathit{Word}_{Ai},A)}{\mathit{tnum}(A)}\end{equation}次に語の特定性である$idf$については,概念ベース$idf$\cite{Article_09}を用いた.概念ベースは一次属性,二次属性,というように$N$次までの属性の連鎖集合を持つ.この$N$次まで属性を展開した空間内で,ある概念$X$を属性として持つ概念数から算出されるのが概念ベース$idf$である.概念ベース$idf$の算出式は以下のように定義される.\begin{equation}CV_N(\mathit{Word}_{Ai})=\log\frac{V_{\mathit{all}}}{\mathit{df}_N(\mathit{Word}_{Ai})}\end{equation}$CV_N(\mathit{Word}_{Ai})$は$N$次属性空間内における概念$\mathit{Word}_{Ai}$の概念ベース$idf$である.$V_{\mathit{all}}$は概念ベースに定義されている全概念数,$\mathit{df}_N(\mathit{Word}_{Ai})$は$N$次属性集合内において概念$\mathit{Word}_{Ai}$を属性として持つ概念の数である.本稿では\cite{Article_09}の報告より最も精度が良いとされる三次属性空間内における概念ベース$\mathit{idf}$を用いた.以上で示した式により,自立語$\mathit{Word}_{Ai}$へ付与する重み$w$は次のような式で定義される.\begin{equation}w=\mathit{tf}(\mathit{Word}_{Ai},A){\times}CV_3(\mathit{Word}_{Ai})\end{equation}つまりある自立語の重みは,自立語の網羅性$\mathit{tf}$と自立語の概念ベース$\mathit{idf}$を掛け合わせることで与えられる.このようにして文書$A,B$共に自立語への重みを付与する.ここでは例として図\ref{fig:EMD}のように重みが付与されたとする.EMDでは変換コストの算出を行う際に離散分布を構成する要素同士の距離を用いる.EMDを用いた記事分類方式ではこの距離を自立語同士の関連性であると考え,一致度によってこれを求める.$\mathit{Word}_{A1}$と$\mathit{Word}_{B1}$の距離$\mathit{dis}_{A1B1}$は次の式で表される.\begin{equation}\mathit{dis}_{A1B1}=1-\mathit{DoM}(\mathit{Word}_{A1},\mathit{Word}_{B1})\end{equation}一致度は関連性が高いと値が大きくなるため,1から引いた値を距離としている.ここで$\mathit{Word}_{A1}$と$\mathit{Word}_{B1}$の間の変換コスト$\mathit{cost}_{A1B1}$は次の式で算出される.\begin{equation}\mathit{cost}_{A1B1}=\mathit{dis}_{A1B1}{\times}1.5\end{equation}これは$\mathit{Word}_{A1}$と$\mathit{Word}_{B1}$の距離に重みを掛けたものである.$\mathit{Word}_{A1}$と$\mathit{Word}_{B1}$が持つ重みは同じく1.5であるため供給量と需要量が合致し,$\mathit{Word}_{A1}$からの重みの運送はこの時点で終了する.同様にコストの計算を行っていき,最終的にすべての運送経路のコストを足し合わせたものがEMDとなる.図\ref{fig:EMD}の例ではEMDは次のように表される.\begin{gather}\mathit{EMD}=\mathit{cost}_{A1B1}+\mathit{cost}_{A2B2}+\mathit{cost}_{A2B3}\\\mathit{cost}_{A1B1}=\mathit{dis}_{A1B1}{\times}1.5\\\mathit{cost}_{A2B2}=\mathit{dis}_{A2B2}{\times}2.0\\\mathit{cost}_{A2B3}=\mathit{dis}_{A2B3}{\times}1.0\end{gather}以上のような式で算出されたEMDの値の最小値を最適化計算で求めて文書間の類似性を算出している.
\section{語の変換処理の流れ}
\label{nagarezu}語の変換処理では入力された文から難解語を自動的に判別し,関係語辞書\cite{Article_10,Article_11}による馴染みのある語への変換,もしくは国語辞書による文への変換を行う.具体的な処理の流れを図\ref{fig:nagare}に示す.まず入力文を構成する単語の内,馴染みのない語を単語親密度の閾値により判別し,難解語とする.この難解語をシソーラス\cite{Book_02}上で検索し,難解語を意味的に包含するノードの中にノード名「具体物」が存在する場合には$N$語変換を,それ以外の場合には1語変換を先に行う.これは具体的な物を示す単語は別の1語に変換することが困難であるため,シソーラスにより具体物と判断できる語に関しては$N$語変換のみによって変換を行うためである.例えば「サリドマイド」のように具体的な薬品名を別の1語に変換することを考えると,物質を示す化学式や化合物名などが挙がる.それらは平易な表現とは言いがたく,そもそも難解な具体物の別称が平易であることは少ないと考えられる.この場合ならば「睡眠薬の一種」という文による変換を行えば自然でかつ平易な表現となる.ノード「具体物」を上位に持たない語は,まず1語変換の処理を行う.ここでは語の同義,類義関係を示した関係語辞書から難解語の同義語および類義語を取得することで変換候補語を得る.これら変換候補語と難解語との関連度を算出し,最も高い関連度の候補語を用いて変換を行う.ただし,この際の関連度には下限値を設定し,最大関連度が閾値以下の場合には1語変換によって得られた候補語の信憑性が薄いと判断して$N$語変換へ処理を移す.\begin{figure}[t]\begin{center}\includegraphics{20-2ia2f3.eps}\end{center}\caption{語の変換処理の流れ}\label{fig:nagare}\end{figure}$N$語変換では国語辞書から変換候補文を取得して変換を行う.難解語が多義性を持つ場合には複数の変換候補文を取得することになるため,元の記事中で使われている意味をもつ変換候補文を記事関連度計算方式により判別する.また,難解語をそのまま変換候補文に変換した場合,辞書特有の言い回しや記事全体での情報の重複などにより元の文が不自然になる場合がある.そこで元の文と変換候補文との比較を行い,不要語句の削除を行うことで変換による不自然さを排除する.これらの処理を行った上で得られる文を用いて新聞記事中の1文を変換する.
\section{難解語の判別}
\label{ikiti}まず入力された新聞記事から,変換すべき馴染みの薄い語を判別する処理を行う.入力された新聞記事を句点(“。”もしくは“.”)を区切りとして1文ごとの記事文に分割して処理を行う.1文に対して形態素解析を行い,各単語の単語親密度に閾値を定めることによって馴染みの有無を判断し,馴染みの無い単語を難解語とする.本稿では会話のための資源として新聞記事を用いることを背景としているため,単語の馴染み深さの基準は「一般的な会話で使われる単語であるか否か」とする.この基準の作成には日本語話し言葉コーパス\cite{Book_03}を用いた.\subsection{閾値の決定}\label{ikiti_hyouka}日本語話し言葉コーパスとは日本語による発話音声を大量に収集したデータベースである.収録されている発話音声中の語数は約750万語,時間は約66時間分となっている.発話音声には一般的な対話や学会講演といった様々なデータが収録されているが,このうち対話の音声を用いて「一般的な会話で使われる単語」の調査を行った.表\ref{tab:nihongo}にデータの一部を示す.\begin{table}[b]\vspace{-0.5\Cvs}\caption{日本語話し言葉コーパスの例}\label{tab:nihongo}\input{02table03.txt}\end{table}単語親密度の閾値を決定するために,表\ref{tab:nihongo}に示したような日本語話し言葉コーパスの対話データを構成する単語2,000語と,新聞記事中の単語2,000語とを無作為に抽出し,それぞれの単語親密度の平均と分布を調査した.その結果,新聞記事における単語親密度の平均が5.74,標準偏差は0.70,対話データにおける単語親密度は平均が6.05,標準偏差が0.66となった.対話において用いられる語の単語親密度の平均の方が,新聞記事より高い値になっている.この事から会話に利用するには新聞記事中の単語は馴染みが薄いことがわかる.新聞記事における単語親密度のデータ群($A$とおく)と対話データにおける単語親密度のデータ群($B$とおく)が,お互いにできるだけ他方の分布に属さないような値を閾値とすれば,「一般的な会話で使われる単語」を判別する閾値になると考えられる.そこで確率密度関数を用いて最適な閾値の調査を行った.確率密度関数は以下の式によって求める.\begin{equation}f_{(x)}=\frac{1}{\sqrt[]{\mathstrut(2\pi\sigma^{2})}}\mathrm{e}^{\frac{(x-\mu)^{2}}{\sigma^{2}}}\end{equation}ここで$\mu$は単語親密度の平均,$\sigma$は標準偏差である.ある閾値があった時に,$A$に属するデータが閾値を越える確率および$B$に属するデータが閾値を越える確率を算出し,双方の和が最も小さい時の閾値を$A$と$B$を区切る最適な値とした.その結果,新聞記事に用いられる単語と一般的な会話で使われる単語の単語親密度による閾値は5.82となった.よって,入力された新聞記事中の単語の内,単語親密度が5.82以下の単語を難解語と判別し,語の変換処理を行うこととした.\subsection{閾値の評価}前節で決定した閾値が,人間と同じレベルで馴染み深い語と難解語を判別できるかの評価を行った.単語親密度が5.82よりも大きい,つまり馴染み深いと判断された200語と,単語親密度が5.82以下,難解語と判断された200語を新聞記事からランダムに取得し,それらを人間の目視で評価した.評価は著者,共著者を含まない被験者3名(男性2名,女性1名)で行い,それぞれの語が会話に出現する語としたときに難解と感じるか,平易と感じるかの判断を行った.なおこのとき,被験者には評価を行う合計400語が単語親密度の閾値以上であるか否かは知らせていない.多数決により2名以上が難解と感じた語は「人が難解と感じる語」,2名以上が平易と判断した語を「人が平易と感じる語」とした.単語親密度の閾値によって馴染み深いと判断された200語については「人が難解と感じる語」であった場合に×,「人が平易と感じる語」であった場合に○と評価する.単語親密度の閾値によって難解語と判断された200語については,「人が難解と感じる語」であった場合に○,「人が平易と感じる語」であった場合に×と評価する.表\ref{tab:ikitiHyouka}に閾値の評価結果を示す.\begin{table}[t]\caption{閾値の評価結果}\label{tab:ikitiHyouka}\input{02table04.txt}\end{table}各評価者2名ずつのkappa係数はそれぞれ0.729,0.668,0.790であった.結果として,「人が難解と感じる語」を83.0\%の精度で難解語であると判断できた.また,「人が平易と感じる語」に関しては99.5\%の精度で馴染み深い語,つまり変換の必要がない語であると判断することができた.
\section{1語変換}
1語変換では1つの単語をより平易な別の1つの単語に変換する.難解語の同義語・類義語を取得してこれらを変換候補語とし,その中から変換に最も適した語を選択する.本稿における変換に適した語とは,変換前の語と比べて平易であり,かつ意味が同じ語である.平易であるかどうかの判断は単語親密度により行う.また,変換前と意味が同じ語を適切に選択するために関連度計算方式を用いた手法を提案する.\subsection{変換候補語の取得}変換候補語には難解語の同義語・類義語を用いる.これにより難解語と同じもしくは近い意味を持つ別の単語群を得ることができる.同義語・類義語の取得には関係語辞書を用いた.関係語辞書とは国語辞書に記載されている定義文から,見出し語の同義語,類義語といった関係語を自動的に抽出した辞書である.関係語の抽出手法に関しては\cite{Article_10}および\cite{Article_11}において示されている.定義される関係語の例を表\ref{tab:gokankei}に示す.\begin{table}[b]\vspace{-0.5\Cvs}\caption{関係語辞書の例}\label{tab:gokankei}\input{02table05.txt}\end{table}この辞書から得られる同義語,類義語を1語変換における変換候補語とする.表に示したように,1つの単語に対して複数の同義語・類義語が定義されている場合があるため,変換候補語は複数の単語群となる.\subsection{単語親密度と関連度による変換語の選出}\begin{figure}[b]\begin{center}\includegraphics{20-2ia2f4.eps}\end{center}\caption{変換語の選出}\label{fig:syorirei}\end{figure}変換候補語の語群から1語変換に適切な変換語を選出する.選出には変換候補語の単語親密度および,難解語と変換候補語との関連度を用いる.まず同義語・類義語として得られた語のうち,\ref{ikiti}章で述べた閾値5.82以上の単語親密度を持つ語を選出する.これは単語親密度が高く馴染みが深いと判断される語であるほど,平易な変換に適すると考えられるためである.しかし単語親密度は馴染みの深さのみを表現する数値であり,語と語の意味の近さに関しては考慮されていない.変換を行う以上,難解語と最も意味の近い語が選出されるべきである.そこで語の意味を定量化する手法として,\ref{DOA}節で述べた関連度計算方式を用いる.単語親密度が閾値以上である変換候補語の中から,元の難解語との関連度が最も高い語を選出することで「平易性がある語のうち,最も意味が近い語」を変換語とすることが出来る.具体的な変換候補語の選出方法について,「わが国は支配者の法を否定した.」というトルコの憲法改正についての記事の一部を用いて説明する(図\ref{fig:syorirei}).この文の中で「法」という語の単語親密度は5.75であり,これは\ref{ikiti}章で述べた閾値5.82を下回るため難解語となる.「法」の同義語・類義語から「法律」「規則」「方法」「道理」という4つの変換候補語が得られる.これら変換候補語から,最も適切な変換語を選択する.まずそれぞれの単語親密度を見ると,「道理」は単語親密度が5.44となり閾値5.82に達していないため変換語から外れる.ここで各変換候補語と元の難解語「法」との関連度を算出し,最も関連度が高い語を変換語として選出する.この例では単語親密度が最も高い「方法」ではなく,関連度の最も高い「法律」が変換語として選ばれることになる.\subsection{1語変換から$N$語変換へ移行する条件}\label{1Nzyouken}難解語と変換候補語との関連度に閾値を定め,閾値を越える変換候補語が存在しない場合には$N$語変換を行う.これは関連度が低いということは難解語と変換候補語との関連性が薄く,変換には不適切であると判断できるためである.関連度の閾値設定は概念ベースの評価方法である$X$-$ABC$評価\cite{Article_04}を参考にして行う.この評価は関連度の値を比較することで概念ベースを評価する方法であり,表\ref{tab:xabc}に示すような評価セットを用いる.\begin{table}[b]\caption{$X$-$\mathit{ABC}$評価セットの例}\label{tab:xabc}\input{02table06.txt}\end{table}評価セットはある基準概念$X$と,この概念$X$と非常に関連が強い概念$A$,概念$A$ほどではないが関連があると思われる概念$B$,まったく関連のない概念$C$によって構成される.実際に用いた評価セットは\cite{Article_05}に示された方法で人手により作成された500組のセットとなっている\cite{Article_04}.ここで,$X$-$A$の関係は基準概念$X$と非常に関連が強い概念$A$というもので,実際の評価セット作成時には\cite{Article_05}に示された方法を基に$X$の同義ないしは類義語となりうる語を収集している.このテストセットは被験者実験によって作成されており,つまり人間の感覚に合致した評価セットになっている.人間の自然な感覚を反映しているこの評価セットにおいて同義,類義関係と判断された$X$-$A$間の関連度は,本提案手法における難解語と変換候補語との関連性の有無を判断する閾値に値すると考えた.評価セットは500組存在するため,$X$-$A$間の関連度も500個の値が算出される.そこから人間が同義,類義と感じる語同士の関連度を意味する値として平均値を算出した.これは\cite{Article_04}において用いられている評価式の中で,まったく関連のない$X$-$C$間の関連度の平均値を「関連がない語の間で算出される関連度」として用いる考え方に倣い,同義,類義関係にある$X$-$A$間の関連度の平均値を「同義,類義関係の語の間で算出される関連度」とした.$X$-$A$間の平均値は0.34,分散は0.04,$X$-$C$間の平均値は0.002,分散は$9.43×10^{-6}$であった.よって提案手法では,難解語と変換候補語との関連度が$X$-$A$間の平均値である0.34より低かった場合には$N$語変換へ処理を移行する.
\section{$N$語変換}
1語変換では変換ができない場合,つまり1つの語では説明できない語を相手に伝える際に人間はその語の意味を文で伝える.そこで$N$語変換では1つの単語を$N$語の単語群,つまり文で変換することで1語変換ができない難解語の変換を行う.\ref{nagarezu}章に示した通り,まずシソーラスにおいて難解語の包含関係にあるノードに「具体物」が存在する場合には1語変換が不可能であると判断し,$N$語変換を行う.例えば「サリドマイド」という具体物は一般的に馴染みの薄い語であるが,「催眠薬の一種」という文章で変換されることでその内容を理解することが出来る.このように具体的な物を示す語は,同じ意味を持つ別の1語に変換するよりも具体物の説明を文章で行う方が馴染みのある表現になる.また\ref{1Nzyouken}節に示したように1語変換における変換候補語の関連度が閾値以下の場合にも,1語変換では適切な変換を行えなかったと判断して$N$語変換を行う.\subsection{変換候補文の取得}$N$語変換では国語辞書\cite{Book_04}に記載された語の定義文を,変換を行うための文(変換候補文)として利用する.国語辞書の定義文は語の意味を説明する文であるため,これを利用することで難解語の意味を損ねることなく$N$語による変換が可能になる.また,定義文が端的かつ正しい日本語表現で記されているため,変換後の記事表現が煩雑にならないと考えられる点で,$N$語変換の資源として国語辞書は適当である.本稿で使用した国語辞書には238,000語の見出し語とその定義文が格納されている.このうち,固有名詞および単一で意味を成さない代名詞,助詞の見出し語を省いた94,544語の見出し語と定義文を$N$語変換に用いた.\subsection{多義語の意味特定}難解語が多義語であった場合,それぞれの意味から辞書の説明文が得られるため変換候補文が複数取得される.そこで適切な文を選択するために\ref{EMD}節で説明した記事関連度計算方式を用いて難解語が含まれる元の文に意味が近い変換候補文を選択して変換を行う.図\ref{fig:tagigo}に具体的な変換候補文の選択方法を示す.\begin{figure}[b]\begin{center}\includegraphics{20-2ia2f5.eps}\end{center}\caption{多義語の意味特定の具体例}\label{fig:tagigo}\end{figure}「日中」という語には図に示すように2つの意味が定義文として記載されており,多義語である.このような多義語の場合は,辞書のそれぞれの定義文と,難解語を含む元の記事文との間で記事関連度の算出を行い,値の高い変換候補文を語の変換に用いる.例の場合では「日中」は「日本と中国」という候補文が選択され,記事は「日本と中国の未来志向の…」と変換される.\subsection{不自然さの排除}\label{NoNeed}辞書の定義文の中には,そのままの形で$N$語変換に用いると日本語として不自然になってしまうものがある.例えば「財政再生計画を策定する」という文中の「策定」は単語親密度が3.16の難解語であり,1語変換では関連度が閾値より大きい変換候補語が得られず,$N$語変換が行われる語である.この時,辞書における「策定」の定義文「政策や計画などを考えて決めること」をそのまま語の変換に用いてしまうと「財政再生計画を政策や計画などを考えて決めること」となり,日本語として不自然である.このような変換によって起こる不自然さの排除方法として,不要語の削除と記事中の情報の重複排除を行う.まず,不要語の削除について述べる.不要語とは辞書によく出現する言い回しのうち,変換を行う際には必要の無い語の事を指す.この不要語を人手で判断してリスト化したものが不要語リストである.図\ref{fig:fuyougo}に具体的な不要語の一覧を示す.\begin{figure}[b]\begin{center}\includegraphics{20-2ia2f6.eps}\end{center}\caption{不要語の一覧}\label{fig:fuyougo}\end{figure}例えば「蜀魂」という語の定義文は「ホトトギスの別名」となっているが,実際に「蜀魂」という語を変換する際に必要となる語は「ホトトギス」の部分のみである.このように辞書の定義文に存在する不要な言い回しは変換の際に削除する.不要語を削除した後に記事中の情報の重複排除を行うが,これには意味理解システム\cite{Article_03}を利用する.このシステムは入力された文を,6W1H(Who,What,When,Where,WhomWhy,How)と用言の8種類に分類する.意味理解システムの出力例を図\ref{fig:imirikai}に示す.\begin{figure}[t]\begin{center}\includegraphics{20-2ia2f7.eps}\end{center}\caption{意味理解システム}\label{fig:imirikai}\end{figure}入力文の「誰が」にあたる語は「妹」であり,これが意味理解システムではWhoに分類される.このシステムで元の記事文と辞書から得た変換候補文をそれぞれ処理し,分類が重複した場合には不自然にならないように不要部分を削除する.具体的な例を図\ref{fig:kakusaku}に示す.\begin{figure}[t]\begin{center}\includegraphics{20-2ia2f8.eps}\end{center}\caption{格重複の排除}\label{fig:kakusaku}\end{figure}図\ref{fig:kakusaku}の例では元の記事文「財政再生計画を策定する」と不要語を削除した変換候補文「政策や計画を考えて決める」の2文である.ここで元の記事文と変換候補文の間で分類に重複があった場合,どちらか一方を用いて出力する文を作成する.具体的には難解語ではない部分で分類の重複が起こった場合には元の記事文を,難解語の部分で分類の重複が起こった場合には変換候補文を用いる.図\ref{fig:kakusaku}を見るとWhatの重複は難解語ではない部分であるため,元の記事文である「財政再生計画」が選択される.逆に用言での重複は難解語の部分であるため,変換候補文である「考えて決める」が選択される.このようにして分類の重複を排除した上で,変換を行い結果を出力する.図\ref{fig:kakusaku}の例では最終的に「財政再生計画を策定する」という元の記事文が「財政再生計画を考えて決める」と変換される.
\section{提案手法の評価と考察}
\ref{First}章,\ref{Second}章で述べたとおり,人間が違和感を感じない語の変換を行うためには,人間と同じく1:1の変換と1:$N$の変換を組み合わせることが必要である.それを踏まえ,ここまでで提案してきた1語変換および$N$語変換の手法を統合した手法を,本稿で提案する難解語の変換手法としてその評価を行う.変換処理を統合したことによる有効性を示すため,提案手法,難解語を無理やり1語変換のみで変換した場合,$N$語変換のみで変換した場合の3種類の変換について評価を行った.評価実験の方法および評価結果について以下に述べる.評価には朝日新聞から取得した50記事からランダムに選んだ記事文を利用した.全単語数は1567語,うち単語親密度の閾値によって難解語と判断された語は249語である.まず著者,共著者以外の被験者3名(男性2名,女性1名)に対して記事中の全単語を提示し,それぞれの語について会話に出現する語としたときに難解と感じるか,平易と感じるかの判断を行った.多数決により全単語を難解と感じる語,平易と感じる語に分類し,人が変換すべきと判断した語と変換しなくてよいと判断した語の判別を行った.次に評価に用いた記事を変換前と変換後のセットにして被験者に提示し,平易な表現となっている方の記事を選択させる.この際,被験者にはどちらが変換前でどちらが変換後かは示さない状態で記事を提示し,表現が分かりやすいと感じる方を選択させた.提案手法により変換された後の記事が平易であると選ばれた場合に○,変換前が選ばれた場合に×の評価とする.最後に同じ被験者3名に対して変換前と変換後の記事を各々がどちらの記事であるか示した上で,変換後の記事が意味的に欠損したり違和感のある表現になっていないかという意味の保持性について評価を行った.意味が保持され,違和感もない場合には○,何らかの違和感を感じる場合には△,意味が違っていたり,日本語表現としておかしいといった意味が保持されていない場合に×の評価とした.手法の評価は,人が変換すべきと判断した語と変換すべきでないと判断した語に分けて示す.まず人が変換すべきと判断した語については,変換手法により語が適切に変換されたか否かを評価した.なお,人が変換すべきと判断した語は222語,そのうち提案手法によって変換された語は206語であった.平易性に関する評価結果を図\ref{fig:hyouka1H}に,意味保持性に関する評価結果を図\ref{fig:hyouka1I}に示す.提案手法では平易性の評価が75.7\%,意味保持性の評価が81.1\%となった.難解語となった249語について1語変換および$N$語変換のどちらで処理が行われたかの内訳は,1語変換によって処理された難解語が76語,$N$語変換によって処理された難解語が173語であった.\begin{figure}[t]\begin{center}\includegraphics{20-2ia2f9.eps}\end{center}\caption{変換すべき語の評価結果(平易性)}\label{fig:hyouka1H}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{20-2ia2f10.eps}\end{center}\caption{変換すべき語の評価結果(意味保持性)}\label{fig:hyouka1I}\end{figure}1語変換のみで変換を行った場合,平易性で58.7\%,意味保持性で52.9\%が×の評価となった.これは,1語変換では同義語および類義語が存在しない場合は変換することが出来ないため,変換すべき語の多くが変換できず難解語のまま残ってしまったためである.今回の評価ではすべての難解語のうち48.1\%にあたる99語が変換不可となった.$N$語変換のみの場合は辞書に定義された語であれば変換可能であるため,変換不可の語は全体の7.3\%,15語に留まったが,こちらも提案手法と比べて平易性,意味保持性共に評価は低くなっている.次に変換すべきでないと判断した1,345語についての評価を表\ref{tab:NoChange1}および表\ref{tab:NoChange2}に示す.人が変換すべきでないと判断した語に関しては,変換が行われないもしくは変換されてしまったが平易である,意味が保持されている場合にそれぞれ○の評価としている.すべての手法において,○の評価は高くなっている.1語変換のみの場合には,前述したとおり変換がそもそも不可能である難解語が多かったため,変換すべきで無い語の多くが変換されないままとなり○の評価が高くなっている.以下に実際の変換例を示す.まず表\ref{tab:1orTei}に1語変換のみを用いた場合と提案手法の変換例を示す.なお,括弧の中は各変換の評価を示す.\begin{table}[t]\caption{変換すべきでない語の評価結果(平易性)}\label{tab:NoChange1}\input{02table07.txt}\end{table}\begin{table}[t]\caption{変換すべきでない語の評価結果(意味保持性)}\label{tab:NoChange2}\input{02table08.txt}\end{table}\begin{table}[t]\caption{1語変換のみと提案手法の比較}\label{tab:1orTei}\input{02table09.txt}\end{table}「送還」という難解語は同義語,類義語ともに得られず,1語変換のみでは変換することができない.$N$語変換では送還の意味として「送り返すこと」が存在するため正しい変換が行えている.「維持」の例では1語変換を行うと類義語から「持つ」という変換候補語が得られる.「持つ」は確かに「維持」を平易に変換したものだが,文脈から不自然であると判断されて意味保持性は×となった.これを提案手法で変換すると$N$語変換により「保ち続ける」という変換がされ,双方とも○の評価となった.最後の例では難解語が2つ存在している.1語変換のみの場合には「破片」という難解語が「かけら」に変換されるが,「落下」に関しては変換候補語が得られずに変換できない.提案手法では$N$語変換により「落下」に関しても「下に落ちること」という定義文から変換が可能となり,結果として表のような変換が行えた.次に,表\ref{tab:NorTei}に$N$語変換のみを用いた場合と提案手法の変換例を示す.\begin{table}[t]\caption{N語変換のみと提案手法の比較}\label{tab:NorTei}\input{02table10.txt}\end{table}表\ref{tab:NorTei}に示した例を見ると,$N$語変換のみを用いた場合の変換結果は意味的には元の記事文と相違ない.しかしこれらの表現が会話中に現れると想定すると多くの人は不自然であると感じる.$N$語変換は文章による変換であるため,この変換が多用されると変換後の記事が冗長であると感じやすく,結果として意味保持性において違和感を感じてしまい△の評価となる場合や,平易性の無い×の評価となっている.一方,提案手法ではこれらの記事は1語変換によって変換され,その変換結果は意味を損ねず,かつ違和感もないことがわかる.以上のことから,1語変換および{$N$}語変換を組み合わせることによってより人間にとって違和感の無い変換が行えることが分かる.提案手法では難解語の判別に\ref{ikiti_hyouka}節で示した閾値を用いている.本評価では人が変換すべきと判断した222語のうち206語が難解語と判別されており,つまり変換すべき難解語16語がこの閾値では難解語と判断されていない.人が難解と感じる語を100.0\%判断できることを重視する場合には親密度の閾値を上げればよいが,閾値が高すぎると記事中の多くの語が難解語と判断されると考えられる.各変換処理によってそれらの語が全て別表現に変換されると変換後の記事が冗長になる可能性がある.そこで本評価において人が変換すべきと判断したが,提案手法では難解語と判別されなかった語のうち最も高い親密度であった「汚染」という語を基準として評価を行い,提案手法との比較を行った.具体的な親密度の閾値は6.15である.平易性に関する評価結果を図\ref{fig:hyoukananhen1}に,意味保持性に関する評価結果を図\ref{fig:hyoukananhen2}に示す.結果として,難解語判別の閾値を6.15とした場合には平易性,意味保持性ともに評価が下がる結果となった.表\ref{tab:IkitiChange}に提案手法による出力と難解語判別の閾値変更を行った場合の出力の比較を示す.\begin{figure}[t]\begin{center}\includegraphics{20-2ia2f11.eps}\end{center}\caption{難解語判別の閾値変更による評価結果(平易性)}\label{fig:hyoukananhen1}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{20-2ia2f12.eps}\end{center}\caption{難解語判別の閾値変更による評価結果(意味保持性)}\label{fig:hyoukananhen2}\end{figure}難解語判別の閾値を高くしたことで,提案手法では変換されなかった「視野」や「交差点」といった語が難解語と判断されている.これらの語は目視では変換しなくて良い語と判断されていた語である.これらが難解語と判断されることによって,例えば「視野」という語は$N$語変換により「視線を固定したままの状態で見ることのできる範囲」と変換されている.これは意味としては正しいが,元の「視野」という1語の表現と比べて非常に冗長であるため,平易性において評価が×となっている.「交差点」の評価も「視野」と同様に冗長な表現で平易性を失っている.しかし同じ記事中の「右折」という語は,人が変換すべきと判断したが提案手法では変換されなかった16語の1つであり,これは「右へ曲がる」という平易な表現へ変換することが出来ている.閾値を上げることで,人が変換すべきと判断したが提案手法では変換されなかった16語に対しての変換は行われたが,それに伴い人が変換しなくてよいと判断した語に対しても多くの変換が行われた.具体的には新たに88語が難解語となったが,これらの語は人の判断では変換せずとも平易であるとされており,変換を行うことで逆に平易性が損なわれやすい結果となった.このことより,\ref{ikiti_hyouka}節において示した閾値の設定は有効であると考える.\begin{table}[t]\caption{提案手法と難解語判別の閾値変更の出力比較}\label{tab:IkitiChange}\input{02table11.txt}\end{table}以上の評価結果より,会話中に出現する語の単語親密度によって難解語の判別を行い,1語変換と$N$語変換を組み合わせることで平易な表現への変換を行う提案手法の有効性を示した.
\section{おわりに}
本稿では,新聞記事中の難解な語を会話に適した平易な表現へ変換する手法を提案した.変換の際には人間が行う語の変換処理に沿い,1つの語を別の1語で変換する1語変換および文章で変換す$N$語変換を組み合わせることでより人間にとって自然な変換が行えることを示した.1語変換では難解な語を同義語・類義語により別の1語へ変換し,$N$語変換では1語では変換できないような語や具体物を示す語について文による変換を行った.この二つの変換を組み合わせた変換手法を提案,評価してその有効性を示した.また,処理の各段階において語概念連想により語と語,文と文の関連性の有無を判断することで変換前の語から変換後表現にかけて意味の保持を行った.最終的な結果として新聞記事50件,249語の変換を行い,変換すべき難解語を結果として変換すべき難解語を75.7\%の精度で平易な表現に,81.1\%の精度で正しい意味を保持した表現に変換することが出来た.これにより,ロボットと人間との自然な会話生成を担う技術の一端を示せたと考える.\acknowledgment本研究の一部は,科学研究費補助金(若手研究(B)24700215)の補助を受けて行った.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{天野\JBA近藤}{天野\JBA近藤}{1998}]{Article_20}天野成昭\JBA近藤公久\BBOP1998\BBCP.\newblock音声単語の語彙判断に対する新密度の影響.\\newblock\Jem{日本音響学会秋季研究発表会講演論文集1},\mbox{\BPGS\363--364}.\bibitem[\protect\BCAY{天野\JBA近藤}{天野\JBA近藤}{1999}]{Book_01}天野成昭\JBA近藤公久\BBOP1999\BBCP.\newblock\Jem{NTTデータベースシリーズ日本語の語彙特性(第1期CD-ROM版)}.\newblock三省堂.\bibitem[\protect\BCAY{天野\JBA近藤}{天野\JBA近藤}{2008}]{Book_05}天野成昭\JBA近藤公久\BBOP2008\BBCP.\newblock\Jem{日本語の語彙特性第1巻単語新密度増補}.\newblock三省堂.\bibitem[\protect\BCAY{Connine,Mullennix,Shernoff,\BBA\Yelen}{Connineet~al.}{1990}]{Article_21}Connine,C.~M.,Mullennix,J.,Shernoff,E.,\BBA\Yelen,J.\BBOP1990\BBCP.\newblock\BBOQWordfamiliarityandfrequencyinvisualandauditorywordrecognition.\BBCQ\\newblock{\BemJournalofExperimentalPsychology.Leaning,memoryandcognition},{\Bbf16}(6),\mbox{\BPGS\1084--1096}.\bibitem[\protect\BCAY{藤江\JBA渡部\JBA河岡}{藤江\Jetal}{2009}]{Article_06}藤江悠五\JBA渡部広一\JBA河岡司\BBOP2009\BBCP.\newblock概念ベースとEarthMover'sDistanceを用いた文書検索.\\newblock\Jem{自然言語処理},{\Bbf16}(3),\mbox{\BPGS\25--49}.\bibitem[\protect\BCAY{藤沢\JBA相原\JBA神門}{藤沢\Jetal}{2006}]{Article_16}藤沢仁子\JBA相原健郎\JBA神門典子\BBOP2006\BBCP.\newblock文化遺産に関する説明文の対象ユーザに合わせた言い換えの提案.\\newblock\Jem{電子情報通信学会技術研究報告.NLC,言語理解とコミュニケーション},{\Bbf106}(109),\mbox{\BPGS\7--12}.\bibitem[\protect\BCAY{Gonzalez\BBA\Davis}{Gonzalez\BBA\Davis}{2006}]{Article_28}Gonzalez,H.~S.\BBACOMMA\\BBA\Davis,C.\BBOP2006\BBCP.\newblock\BBOQThebristolnormsforageofacquisition,imageability,andfamiliarity.\BBCQ\\newblock{\BemBehaviorResearchMethods},{\Bbf38}(4),\mbox{\BPGS\598--605}.\bibitem[\protect\BCAY{Hassan,Csomai,Banea,Sinha,\BBA\Mihalcea}{Hassanet~al.}{2007}]{Article_24}Hassan,S.,Csomai,A.,Banea,C.,Sinha,R.,\BBA\Mihalcea,R.\BBOP2007\BBCP.\newblock\BBOQUNT:SubFinder:combiningknowledgesourcesforautomaticlexicalsubstitution.\BBCQ\\newblock{\BemSemEval'07Proceedingsofthe4thInternationalWorkshoponSemanticEvaluations},\mbox{\BPGS\410--413}.\bibitem[\protect\BCAY{Hoffman}{Hoffman}{1963}]{Book_06}Hoffman,A.~J.\BBOP1963\BBCP.\newblock\BBOQOnsimplelinearprogramingproblems.\BBCQ\\newblockIn{\BemProceedingsofthe7thSymposiuminPureMathmaticsoftheAMS},\mbox{\BPGS\317--327}.\bibitem[\protect\BCAY{Jauhar\BBA\Specia}{Jauhar\BBA\Specia}{2012}]{Article_25}Jauhar,S.~K.\BBACOMMA\\BBA\Specia,L.\BBOP2012\BBCP.\newblock\BBOQUOW-SHEF:SimpLex:lexicalsimplicityrankingbasedoncontextualandpsycholinguisticfeatures.\BBCQ\\newblock{\BemSemEval'12ProceedingsoftheFirstJointConferenceonLexicalandComputationalSemantics},\mbox{\BPGS\477--481}.\bibitem[\protect\BCAY{鍜治\JBA黒橋\JBA佐藤}{鍜治\Jetal}{2001}]{Article_02}鍜治伸裕\JBA黒橋禎夫\JBA佐藤理史\BBOP2001\BBCP.\newblock国語辞典に基づく平易文へのパラフレーズ.\\newblock\Jem{情報処理学会研究報告},{\Bbf2001}(69),\mbox{\BPGS\167--174}.\bibitem[\protect\BCAY{鍜治\JBA岡本\JBA黒橋}{鍜治\Jetal}{2004}]{Article_15}鍜治伸裕\JBA岡本雅史\JBA黒橋禎夫\BBOP2004\BBCP.\newblockWWWを用いた書き言葉特有語彙から話し言葉語彙への用言の言い換え.\\newblock\Jem{自然言語処理},{\Bbf11}(5),\mbox{\BPGS\19--37}.\bibitem[\protect\BCAY{小島\JBA渡部\JBA河岡}{小島\Jetal}{2001}]{Article_10}小島一秀\JBA渡部広一\JBA河岡司\BBOP2001\BBCP.\newblock常識判断のための概念ベース構成法:概念間論理関係を用いた概念属性の重み決定法.\\newblock\Jem{電子情報通信学会技術研究報告.AI,人工知能と知識処理},{\Bbf100}(709),\mbox{\BPGS\57--64}.\bibitem[\protect\BCAY{小島\JBA渡部\JBA河岡}{小島\Jetal}{2002}]{Article_11}小島一秀\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock連想システムのための概念ベース構成法—属性信頼度の考え方に基づく属性重みの決定.\\newblock\Jem{自然言語処理},{\Bbf9}(5),\mbox{\BPGS\93--110}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2006}]{Book_03}国立国語研究所\BBOP2006\BBCP.\newblock\Jem{日本語話し言葉コーパスの構築法}.\newblock国立国語研究所.\bibitem[\protect\BCAY{熊本\JBA田中}{熊本\JBA田中}{2008}]{Article_13}熊本忠彦\JBA田中克己\BBOP2008\BBCP.\newblock2種類の共起辞書を用いた語彙的言い換えに基づくWeb検索システム.\\newblock\Jem{人工知能学会論文誌},{\Bbf23}(5),\mbox{\BPGS\355--363}.\bibitem[\protect\BCAY{松村}{松村}{1995}]{Book_04}松村明\BBOP1995\BBCP.\newblock\Jem{大辞林第2版}.\newblock三省堂.\bibitem[\protect\BCAY{McCarthy\BBA\Navigli}{McCarthy\BBA\Navigli}{2007}]{Article_22}McCarthy,D.\BBACOMMA\\BBA\Navigli,R.\BBOP2007\BBCP.\newblock\BBOQSemEval-2007task10:Englishlexicalsubstitutiontask.\BBCQ\\newblock{\BemSemEval'07Proceedingsofthe4thInternationalWorkshoponSemanticEvaluations},\mbox{\BPGS\48--53}.\bibitem[\protect\BCAY{中野\JBA遠藤\JBA菅原\JBA乾\JBA藤田}{中野\Jetal}{2005}]{Article_12}中野智子\JBA遠藤淳\JBA菅原昌平\JBA乾健太郎\JBA藤田篤\BBOP2005\BBCP.\newblockWebサイトへのアクセシビリティ向上を目的とした難語の平易化.\\newblock\Jem{電子情報通信学会技術研究報告},{\Bbf105}(186),\mbox{\BPGS\11--14}.\bibitem[\protect\BCAY{西村\JBA田中\JBA北野\JBA田中\JBA大林}{西村\Jetal}{2009}]{Article_01}西村健二\JBA田中成典\JBA北野光一\JBA田中裕一\JBA大林睦\BBOP2009\BBCP.\newblock児童向け新聞教材のための言い換え表現対の抽出に関する研究.\\newblock\Jem{情報処理学会第71回全国大会},\mbox{\BPGS\293--294}.\bibitem[\protect\BCAY{NTTコミュニケーション科学研究所}{NTTコミュニケーション科学研究所}{1997}]{Book_02}NTTコミュニケーション科学研究所\BBOP1997\BBCP.\newblock\Jem{日本語語彙体系}.\newblock岩波書店.\bibitem[\protect\BCAY{奥村\JBA小島\JBA渡部\JBA河岡}{奥村\Jetal}{2005}]{Article_09}奥村紀之\JBA小島一秀\JBA渡部広一\JBA河岡司\BBOP2005\BBCP.\newblock電子化新聞を用いた概念ベースの拡張と属性重み付与方式.\\newblock\Jem{情報処理学会研究報告},\mbox{\BPGS\55--62}.\bibitem[\protect\BCAY{奥村\JBA土屋\JBA渡部\JBA河岡}{奥村\Jetal}{2007}]{Article_04}奥村紀之\JBA土屋誠司\JBA渡部広一\JBA河岡司\BBOP2007\BBCP.\newblock概念間の関連度計算のための大規模概念ベースの構築.\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\41--64}.\bibitem[\protect\BCAY{Salton,Wong,\BBA\Yang}{Saltonet~al.}{1975}]{Article_08}Salton,G.,Wong,A.,\BBA\Yang,C.~S.\BBOP1975\BBCP.\newblock\BBOQAVectorspacemodelforautomaticindexing.\BBCQ\\newblock{\BemCommunicationsoftheACM},{\Bbf18}(3),\mbox{\BPGS\613--620}.\bibitem[\protect\BCAY{篠原\JBA渡部\JBA河岡}{篠原\Jetal}{2002}]{Article_03}篠原宜道\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock常識判断に基づく会話意味理解方式.\\newblock\Jem{言語処理学会第8回年次大会発表論文集},\mbox{\BPGS\651--654}.\bibitem[\protect\BCAY{Sinha}{Sinha}{2012}]{Article_26}Sinha,R.\BBOP2012\BBCP.\newblock\BBOQUNT-SimpRank:systemsforlexicalsimplificationranking.\BBCQ\\newblock{\BemSemEval'12ProceedingsoftheFirstJointConferenceonLexicalandComputationalSemantics},\mbox{\BPGS\493--496}.\bibitem[\protect\BCAY{Specia,Jauhar,\BBA\Mihalcea}{Speciaet~al.}{2012}]{Article_23}Specia,L.,Jauhar,S.~K.,\BBA\Mihalcea,R.\BBOP2012\BBCP.\newblock\BBOQSemEval-2012task1:EnglishLexicalSimplification.\BBCQ\\newblock{\BemSemEval'12ProceedingsoftheFirstJointConferenceonLexicalandComputationalSemantics},\mbox{\BPGS\347--355}.\bibitem[\protect\BCAY{渡部\JBA河岡}{渡部\JBA河岡}{2001}]{Article_05}渡部広一\JBA河岡司\BBOP2001\BBCP.\newblock常識的判断のための概念間の関連度評価モデル.\\newblock\Jem{自然言語処理},{\Bbf8}(2),\mbox{\BPGS\39--54}.\bibitem[\protect\BCAY{Wilson}{Wilson}{1988}]{Article_27}Wilson,M.\BBOP1988\BBCP.\newblock\BBOQTheMRCPsycholinguisticDatabase:MachineReadableDictionary,Version2.\BBCQ\\newblock{\BemBehaviorResearchMethods},{\Bbf20}(1),\mbox{\BPGS\6--11}.\end{thebibliography}\begin{biography}\bioauthor{芋野美紗子}{2009年同志社大学工学部知識工学科卒業.2011年同大学院工学研究科情報工学専攻博士前期課程修了.同大学院工学研究科情報工学専攻博士後期課程在学.主に,概念処理の研究に従事.言語処理学会会員.}\bioauthor{吉村枝里子}{2004年同志社大学工学部知識工学科卒業.2006年同大学院工学研究科知識工学専攻博士前期課程修了.2009年同大学院工学研究科知識工学専攻博士後期課程修了.博士(工学).同年より同志社大学理工学部研究員.主に,知識処理,意味処理,会話処理の研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{土屋誠司}{2000年同志社大学工学部知識工学科卒業.2002年同大学院工学研究科知識工学専攻博士前期課程修了.同年,三洋電機株式会社入社.2007年同志社大学大学院工学研究科知識工学専攻博士後期課程修了.同年,徳島大学大学院ソシオテクノサイエンス研究部助教.2009年同志社大学理工学部インテリジェント情報工学科助教.2011年同准教授.博士(工学).主に,知識処理,概念処理,意味解釈の研究に従事.言語処理学会,人工知能学会,情報処理学会,日本認知科学会,電子情報通信学会各会員.}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.2006年同教授.工学博士.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会各会員.}\end{biography}\biodate\end{document}
| |
V09N04-04 | \section{はじめに}
\label{hajimeni}情報検索の結果から検索意図に適合する文書をふるいわけるのに,文書内容に対する手がかりとして要約が用いられる.このようなindicativeな目的に用いられる要約の目標は,できるだけ短い時間で正確な判断ができることである.多くの自動要約システムでは,単語の頻度や文の出現位置などの情報を用いて文ごとにスコアを付与し,高スコアの文をピックアップする方法(以降では重要文選択と呼ぶ)を採用している.この方法では長く複雑な文が選ばれがちである.このような要約を読むには,頭の中で文の構造を再構築するプロセスが必要になり,読者にとって負荷になる.我々は,この負荷を軽減するため,「読む」のではなく「一目でわかる」要約,すなわち,``At-a-glance''要約を研究の目標として設定した.句表現要約手法は,``At-a-glance''要約のひとつの実現方法として開発した.ここでは,その概念とアルゴリズムを述べる.また,この手法で作られた要約のふるいわけ効果の評価実験について述べる.
\section{句表現要約の概念}
\label{gainen}At-a-glance要約でひとつの具体的な目標にしたのが,電車の中吊り広告として見られる雑誌広告である.ここで示される記事の見出しは,その記事本体を読むか否かを判断するための情報で,まさにindicative要約になっている.これらの見出しは次のような性質をもっている.\begin{itemize}\item構造が単純\item文は短く\end{itemize}\noindent我々は,この単純さ,短さを「句」という言葉を用いて表す\footnote{日本語では「句」と「節」の明確な区別はない.ここでは,「句」を言語学的なものとは異なり,「短さ」,「単純さ」を強調するための概念的なものとして用いる.}.句表現要約は,重要概念(単語)を含んだ短い句の並びで文書の概要を表現することによって,「読む」負荷を読者に与えずに,重要概念間の関係が把握できることを目指すものである.短い句を生成するために,単語と単語の係り受け関係を基本単位として,ふるいわけに必要な重要な概念を含み,意味にまとまりをもたせるのに必要な最低限の関係だけを選択して組み立てる方法をとる.
\section{アルゴリズム}
\subsection{アルゴリズム概要}まず図\ref{algo}を用いてアルゴリズムの概要を示す.句表現要約手法には,大きくは次の4つのステップがある.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/algorithm.eps,width=10cm}\caption{アルゴリズム概略}\label{algo}\end{center}\end{figure}\begin{description}\item[1)係り受け関係の解析:]文書中の文を一文ごとに解析し,それぞれDAG(DirectedAcyclicGraph)を得る.ここでは,アークとその両端のノード(単語列:名詞連続も含む)をまとめたものを関係の単位(以降では{\bf関係単位}と呼ぶ)とする.アークは係り側単語列と受け側単語列の係り受け関係を示しており,関係名がラベルとして付与される.図\ref{algo}では説明のため意味的な役割を付記しているが,表層格を関係名として用いている.\item[2)コア関係の選択:]文書中の全関係単位から重要な関係単位をひとつ選択する.これを{\bfコア関係}と呼ぶ.図中では薄墨をつけたノードと太線のアークで示している.\item[3)関係の補完:]コア関係だけでは意味が特定されずふるいわけの情報としては不十分であるので,意味を限定し,意味的なまとまりを持たせるために必要な関係単位を補完する.図\ref{algo}ではこれらを二重線で囲んだ要素で示している.\item[4)表層句の生成:]DAG中で選択されたサブツリーから,次に示すような短い句を生成する.\begin{center}「ライフサイクル全体を視野に入れたリサイクルモデル」\end{center}\end{description}このアルゴリズムの基本構造を図\ref{frame}に示す.上記のステップを,最初に設定した条件(句の数や要約全体の長さなど)を満たすまで繰り返すことで,短い句を複数個得る.繰り返しの際に,用いた単語のスコアを一定の割合で落とすことにより,同じ単語ばかりが繰り返し出現することを避ける.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/frame.eps,width=8cm}\caption{アルゴリズム基本構造}\label{frame}\end{center}\end{figure}次節以降に,個々のステップを検討する.\subsection{係り受け解析}文書中の各文に対して係り受け解析を行い,単語(列)をノード,係り受け関係をアークとするDAGを得る.係り受け解析は,形態素解析結果の単語列に対して,パターンマッチにより係り受け関係を抽出する方法~\cite{miyauchi95}を用いている.この方法ではバックトラックを行わないため,解析誤りも含まれる.例えば,「N1のN2のN3」は基本的にあいまいな構造であるが,名詞$+$「の」は直後の名詞に係るようにしており,解析誤りが生じる可能性がある.このような解析誤りの一部は,関係補完のステップで``ambiguitypacking''という方法で隠蔽される.\subsection{関係スコアリングとコア関係選択}すべての関係単位に重要度スコアを付与する.まず,すべての単語にスコアを付与する.スコア付けの方法としては,一般的な方法であるtf*IDF積~\cite{salton89}をベースとして採用しているが\footnote{IDFを決めるためには,文書の全体集合を規定する必要があるが,ここではある時点でWWWから集めた100万文書を文書集合として用いている.また,これとは別に新聞記事からDFをカウントしたものも用意している(CD-毎日新聞95年版を利用させていただいた).},tf*IDF積ではtfの影響が強すぎる傾向が見られるので,tfの平方根をとることでtfによるスコアの伸びを抑える.関係スコアの計算式は次式で与える.\begin{equation}{\rmScore}={\rmSrel}\ast({\rmS1}+{\rmS2})\label{eq-score}\end{equation}S1,S2は関係アークでつながれる係り側と受け側の語ノードそれぞれのスコアである\footnote{なお,検索におけるクエリー中の語のスコアを高くすることで,それらの語が要約に含まれやすくし,ふるいわけにより適した要約を生成することが可能になる.この方法は次のテーマとして検討を進めている.}.複合語のスコアは,構成要素の単語スコアから計算する.長い複合語は意味を特定する目的には効果があるのだが,短い句を出す目的には不利になるので,両者のバランスをとり,構成要素の単語スコアの和を,それを構成する単語数に応じて減少させている.Srelは関係の種類に与える重要度である.動詞の格のように概念の中心的な役割を果たすものは大きく,名詞の並列のように関係が周辺的と考えられるものは低く設定している~\cite{oka99}.また,副詞のように修飾的な意味が強いものは,関係そのものを選択しないよう,${\rmSrel}=0$としている.付録\ref{app1}に関係の種類を列挙する.このようにしてスコア付けしたすべての関係単位の中から,スコアの最も大きいものを選択し,コア関係とする.\subsection{関係補完}コア関係だけでは提示される情報が不足し,ふるいわけの目的には十分ではない.情報をより特定する付加的な要素を補完し,読者が元文書の内容を推測することを助ける.ここではその補完規則から一部を示す(付録\ref{app2}に存在する規則を列挙する).\begin{itemize}\item{\bf必須格にあたる関係[H1]}\\係り側,受け側のいずれかが用言の場合,必須格に当たる関係を追加する.一部の動詞に対してはそれぞれに必須格にあたる関係を規定しているが,それ以外の動詞に対しては一律に「が」関係,「を」関係,「に」関係を必須格関係として扱っている.また,係助詞「は」,「も」,格助詞「の」,無形格もこれらを置き換え得るものとして同じ扱いとする.\begin{tabular}{ll}例)&フーバー社が発売する→フーバー社が\underline{PDAを}発売する\\&美しい女性→\underline{髪の}美しい女性\\\end{tabular}\item{\bf用言に修飾される名詞[E1]}\\用言によって修飾される名詞がある場合,この用言部分は埋め込み構造を形成する.受け側の名詞は,埋め込み文中の格を占める場合と,格を占めない場合(同格など)がある.いずれの場合も,句のまとまりを形成する上で必要であるため,用言から名詞への修飾関係を付加している.\begin{tabular}{ll}例)&PDAを発売する→PDAを発売する\underline{フーバー社}\\&PDAを発売する→PDAを発売する\underline{計画}\\\end{tabular}\item{\bf抽象度の高い名詞への修飾[H5]}\\「こと」,「もの」などの形式名詞や,「場合」,「時代」などそれ自身では独立して存在することが少なく,なんらかの限定的な修飾句を伴わなければ意味が通じないことが多い名詞を抽象度の高い名詞として定義し,これらの名詞を受け側とする関係を付加することにより,より適切な情報を提供する.\begin{tabular}{ll}例)&時代に活躍した→\underline{激動の}時代に活躍した\\\end{tabular}\item{\bfAmbiguityPacking\footnote{構文解析で用いられている場合とは異なった意味で用いている.}[E3]}\\既に述べたように,パターンマッチによる解析ではあいまいさを解消する能力までもたないため,解析誤りが含まれることが多い.例えば,\begin{center}アーチ型の屋根の庇\end{center}では,「アーチ型→屋根」,「屋根→庇」の2つの関係しかとっておらず,正しい「アーチ型→庇」がとれない.「アーチ型→屋根」の関係がすでに選択されている場合,「屋根→庇」の関係を補完し,結果的に「アーチ型の屋根の庇」として要約に含まれるようにする.より性能の高い解析器を用いた場合でも,あいまいさの完璧な解消はできないため,この方法は有効である\footnote{このように補完規則で解決できる解析誤りは一部である.誤った例として,元文書の「広東式月餅は日本で一年中売っているお菓子の月餅のような皮,潮州式月餅はパイ生地の皮という違いがあります.」という文から,「広東式月餅は...一年中売っている...」という句が生成されている例があった.「広東式月餅は」から「売っている」という係り受けが誤って抽出されていることがわかる.後述する実験の結果では,このような誤った係り受けが含まれている要約を用いながら,他の要約より良好な結果を得ている.Indicative目的にのみ用いていることが,誤りの悪影響の少ない要因と考えられる.}.\end{itemize}\subsection{終了条件の判定と繰り返し}終了条件は,句の数または要約全体の長さのいずれかで指定する.終了条件が満たされない場合,次の句を選択するため図\ref{frame}のコア選択以降を繰り返す.要約中の手がかりとなる語の種類を増やすため,このループで得られた句の中の語がなるべく繰り返し使われないようにする.このために今回使われた語(補完された単語も含む)のスコアを減らす.これを行う関係再スコアリングというステップを図\ref{frame}のコア選択に入る前に入れる.関係再スコアリングで行っている処理は以下のとおり.\begin{enumerate}\item今回使われた語(補完された単語も含む)のスコアに一定の逓減率R($0<{\rmR}<1$)を積算する\item新しい単語スコアを用いて,式(\ref{eq-score})に従い,文書中のすべての関係単位のスコアを計算する.\end{enumerate}逓減率Rは0.5を標準としている.Rの値の設定に関する考察は付録\ref{app3}を参照されたい.なお,2回目以降のコア選択においては,それまでに用いられた関係単位は除外する.この除外規定では1文中から複数のコア関係が選択されることはありうるので,1文から複数の句が生成される場合もある.またそれらがお互いの一部を共有する場合もある\footnote{一部を共有する句の場合,一つの句に結合しても予め設定した句長制限よりも短い場合には,結合した句を出力するようにしている.}.\subsection{表層句の生成}このようにして,コア関係にいくつかの関係が付加された複数のDAGが得られる.このステップにおいては,ノードおよびアークにそれぞれ対応付けられている表層表現を出現順に取り出して結合することで,それぞれのDAGごとに表層表現を得る.得られた表層表現を,元文書における出現順に列挙する.
\section{実現と応用}
このアルゴリズムに基づいて,要約システムを開発した.開発言語はJavaで,WindowsNT~/~2000およびSolaris2.6上で稼動している\footnote{JavaおよびSolarisはSunMicrosystems社の,WindowsはMicrosoft社,CeleronはIntel社の商標である.}.要約に要する時間はテキスト長に比例し,4KB(2000文字,A4文書1ページ相当)の文書の場合,Celeron500MHzのPCで約700\,msecである.95\,\%以上が解析(形態素解析と係り受け解析)で消費されている.\begin{figure}[htbp]\vspace{-1em}\begin{center}\epsfile{file=eps/applyex.eps,width=10cm}\caption{適用例}\label{applyex}\end{center}\end{figure}文書管理システムとの統合例を図\ref{applyex}に示す.検索結果として得られた文書に,句表現要約(ここでは「キーフレーズ」という名前で示されている)を付加して列挙している.
\section{評価}
句表現要約の目的は,検索結果のふるいわけを速く的確に行えるようにすることである.これを評価するために,タスクベースの評価実験を設計し,実施した~\cite{oka00}.その方法と結果を示す.また,国立情報学研究所主催のNTCIR-2ワークショップのサブタスクであるTSC(TextSummarizationChallenge)での評価結果~\cite{oka01}を述べる.\subsection{タスクベース実験の設計と実施}タスクベースの評価実験~\cite{jing98,mani98,hand97}は,ある課題・場面を設定して,人間がその道具を用いてどれだけ問題を解決できたかという達成度から,道具を評価するものである.このような人間を評価者として用いる実験の問題には,評価のゆれによる不正確さがある.このゆれを少なくするため,既存の評価研究を調査して問題点を検討し,以下の方針で臨んだ.\begin{description}\item[1)評価者を多くして平均をとる:]これまでのタスクベース評価では,ひとつの要約に対する評価者数はせいぜい1名または2名であった.我々は評価者を10名アサインすることで,個人差による影響を減らした.\item[2)評価者に詳細な指示を与える:]ある情報を調べる必要性が生じた状況までバックグラウンドストーリーとして与えることで,情報要求を明確化し,評価者の検索結果に対する判断の統一を図った.\item[3)判断のレベルを設定する:]要約から本文を読むか否かを判断する基準は個人により大きく異なり,緊急度など状況にも依存するので,適合/非適合の2段階での評価は不正確である.このため,4段階の適合レベルを設定し,それぞれの判断基準を明確化して評価者に与えた.\end{description}\subsubsection{実験方法}評価実験方法の概略を示す(図\ref{expoutline}).\begin{figure}[htbp]\begin{center}\epsfile{file=eps/expoutline.eps,width=10cm}\caption{情報検索タスクに基づく評価実験}\label{expoutline}\end{center}\end{figure}\begin{enumerate}\item情報要求(informationneed)を仮定し,その情報要求を得るためのクエリーを決める.\item実際のWWW検索結果から,情報要求に適合するものとそうでないものが適当な数混じるように10文書選択し,それぞれについて以下の4種の要約を作成する.選択した元文書の大きさは最小372文字,最大5633文字(平均1502文字)とばらつきがあるが,要約はほぼ同じ長さ(80文字)に近くなるようになるように作成した.\begin{enumerate}\item[(A)]先頭80文字(WWW検索エンジンで主に用いられる方法)\item[(B)]重要文選択~\cite{zechner96}\item[(C)]句表現要約(本手法)\item[(D)]キーワード列挙\end{enumerate}\item評価者に,これらの要約から各検索結果がどれだけ情報要求と適合するかを判定してもらう.被験者には,以下のような評価基準を与え,4段階(以降ではこれをL0(×)からL3(◎)に読み替える)に評価してもらった.\begin{center}\vspace{0.3cm}\begin{tabular}{|p{2em}rl|}\hline\multicolumn{3}{|l|}{評価基準(被験者に与えたもの)}\\&◎:&要約の中に,知りたいことの答の一部と思われる箇所がある.\\&○:&要約の中に,答に関連すると思われる箇所がある.\\&△:&約の中には,知りたいことに関連しそうな箇所はない.\\&&しかし,原文書に書いてある可能性は捨て切れない.\\&×:&要約からは,知りたいこととの関連は見出せない.\\\hline\end{tabular}\vspace{0.3cm}\end{center}被験者にはクエリーごとの評価基準は与えておらず,通常検索を行う際と同様に要約を手がかりとして情報要求に適合するかどうかを判断してもらった(ただし質問があれば答えている).\item文書から判定した情報要求との関連性と比較する.文書自体は,情報要求への適合と不適合の2レベルに分けられ,この判断は実験者側で行った.課題は表\ref{kadai}に示す3つを選択した.このうちの2つ(課題a1とa2)は,同じコンテキスト中から2つ選択したので,ひとつの検索結果(10文書)を用意し,それぞれの文書に対し,課題a1とa2それぞれの適合性を評価してもらった.\end{enumerate}\begin{table}[hbtp]\begin{center}\caption{選択した課題}\epsfile{file=eps/kadai.eps,width=9.5cm}\label{kadai}\end{center}\end{table}\subsubsection{分析方法}次に,このようにして得られた実験結果の分析方法に関して検討する.\paragraph{適合率と再現率}~\\\indent要約の適切さは,要約から適合と判断した文書集合が実際に適合している文書の集合と一致する度合い,すなわち適合率と再現率(図\ref{howtocalc}に計算方法を示す)を用いて評価できる.4段階の適合レベル(まったく適合していないL0から最も適合しているL3)を導入したため,評価者が適合と判断した検索結果集合のサブセットEは,E3(L3のみ適合とみなす),E2(L3とL2を適合とみなす),E1(L3+L2+L1をすべて適合とみなす)の3種類を考えることができる.一方元文書が適合している文書の集合Rは固定的に決まるので,3種類の適合率・再現率を考えることができる.E3は確実に適合しているもののみを適合とみなすので適合率重視,E1は不確実なものも含めるため再現率重視ということができる.この方法をとることにより,要約が,適合率重視の検索に適しているか,再現率重視の検索に適しているかというように,目的に適しているかどうかの評価を行うことができる.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/howtocalc.eps,width=11cm}\caption{適合率と再現率の計算方法}\label{howtocalc}\end{center}\end{figure}\paragraph{適合性スコア}~\\\indent適合率と再現率は要約結果を集合として評価するため,個々の要約結果が適合性の判断にどのような効果を与えるか判断できない.要約品質を向上させるためには,個々の要約結果の品質を評価できる必要がある.このため,評価者による関連度の評価と実際の関連度の関係を示す{\bf適合性スコア}という指標を導入した.このスコアは表\ref{score}のように与える.\begin{table}[htbp]\begin{center}\caption{適合性スコア}\epsfile{file=eps/score.eps,width=10.5cm}\label{score}\end{center}\end{table}個々の要約結果に対して,評価者の適合性スコアの平均を出すことで,要約結果ごとの評価を行うことができる.要約手法ごとにこの値を平均することで,要約手法の比較評価ができる.適合性スコアの付与においては,適合であるとの判断の正誤には高い配点を,不適合との判断の正誤には低い配点を与えている.要約が本文全体の情報を含むことができないという性質上,適合であることの判断はできても,不適合であるという判断は完全にはできないためである.\subsubsection{実験結果}\paragraph{再現率と適合率}~\\\indent再現率と適合率はトレードオフの関係にあるため,両者の総合指標であるF-measureを用いる.\[\mbox{F-measure}=\frac{2\ast{\rmprecision}\ast{\rmrecall}}{{\rmprecision}+{\rmrecall}}\]3種の異なったタスクの実験結果のF-measureの平均を図\ref{fmeasure}に示す.適合性重視,再現性重視のいずれの場合も,句表現要約(C)のスコアが高いことがわかる.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/fmeasure.eps,width=10cm}\caption{F-measure}\label{fmeasure}\end{center}\end{figure}\paragraph{適合性スコア}~\\\indent適合性スコアによる評価結果を図\ref{scoregraph}に示す.句表現要約(C)が平均では最も高い値を出している.タスク別では課題a2と課題bで最大になっている.課題a1に対しては,重要文選択(B)が最も高い値にはなっているが,どの要約も全体的に低いスコアにとどまっている.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/scoregraph.eps,width=12cm}\caption{適合性スコア}\label{scoregraph}\end{center}\end{figure}\vspace{-2em}\begin{table}[htbp]\begin{center}\caption{手がかりの数と適合性スコア}\epsfile{file=eps/score2.eps,width=14cm}\label{score2}\end{center}\end{table}\vspace{-2em}\subsubsection{結果の分析}適合性の評価結果は,情報要求に対する手がかりを含む要約の数で異なってくると考えられる.(C)句や(D)キーワードのように短い単位で構成されているものの要約は,元文書の広い範囲から集められたものになっており,手がかりを含む可能性が高い.手がかりを含む要約の数の平均をとると,(B)文:2.0,(C)句:4.3,(D)キーワード:4.7である(表\ref{score2}).(D)キーワードは他の要約例よりも手がかりを含む要約数が多いにもかかわらず,結果のF-measureは高くない.表\ref{score2}には,手がかりを含む要約に対する適合性スコアも同時に示している.(C)句と(D)キーワードを比較すると,(C)句が高い値を示している.(D)キーワードは,キーワード間の関係に関する情報が欠けているため,十分な情報量が得られないためと考えられる.一方(B)文は,手がかりを含む要約の間では最も高い値を示しているが,手がかりを含む要約自体が少ないため,全体的にふるいわけ効果が低いと考えられる.このように,ふるいわけに適した要約とは,手がかりのカバー率が高く,個々の要約が十分な情報量をもつ必要があると考えられる.句表現要約は両者のバランスがとれているため,ふるいわけに適していると考えられる.\subsubsection{結果の分析}我々のタスクベース実験はこれまでの行われたタスクベース実験に比べ以下のような利点があると考えられる.\paragraph{より正確な評価}~\\\indentこれまでの評価方法よりも詳細なインストラクションを与えたことと,ひとつの要約サンプルを評価する人数をこれまでの1〜2名から10名に増やしたことでより正確な評価を目指した.タスクベース実験後,被験者に元文書のクエリーへの適合度を評価してもらったところ,我々の設定した評価と93\,\%が一致した.同様の評価がSUMMAC(TIPSTERTextSummarizationEvaluationConference)でなされたが,一致度は69\,\%にしかならなかった.また全ての被験者(40名)の評価が我々の評価と一致した文書の割合は33\,\%だったのに対し,SUMMACでは14人と評価者が少ないにもかかわらず一致したものは17\,\%に過ぎなかった~\cite{mani98}.このようにインストラクションを詳細に与えても,「本文が適合するか否かを要約を用いて判断する」というタスクの性格上,被験者間の差異が生じうる.月餅の中身を知る例では,具体的な中身がひとつだけかかれている例(句表現要約)として「...お茶メーカーなどが「茶月餅」と名付けたお茶入り...」が含まれるものがあり,これに対して被験者の4名が◎,3名が○,3名が△の評価を与えている(一方,「...フルーツ風味餡の月餅...」を含む要約では9名が◎,1名が○となっており,要約の現れ方により差が出ている).インストラクションを詳細に与えても評価者間の差異が生じるため,被験者が1〜2名では十分ではないことがわかる.\paragraph{目的に合わせた評価を可能にする複数レベルの適合性の導入}~\\\indent不適合を含め4レベルの適合性評価を行ったことで,3種類の適合文書セットを得られるため,適合率重視の場合/再現率重視の場合を想定することができ,それぞれの要約の目的に合わせた評価を可能にする.\paragraph{要約ごとの評価を可能にする適合性スコアの導入}~\\\indent適合率再現率は複数の要約があって成立するものであるが,我々が導入した適合性スコアを用いれば個々の要約ごとに評価が可能になる.検索キーワードの含有率などの特性評価との相関を検討することにより,要約の品質を向上させる方法を知ることができる.我々自身も,句表現要約の改良にはこの恩恵を受けている.\subsection{TSC評価実験}句表現要約は検索のふるいわけに適した要約を目指しているため,TSC(TextSummarizationChallenge)~\cite{fukushima01}でも,タスクベース実験に参加した.TSCの実験方法は,我々の実験と同様,評価者が適合と判定した文書の再現率・適合率を出すものである.ここではBレベルの正解判定(主題ではないものも含む)の結果を用いた.情報要求が満たせれば,それが主題であるか否かは無関係であるためである.また,今回はクエリーに含まれる語のスコアを高くする方法を採用し,「検索要求に適した要約」の予備評価を行うことにした.TSCでは要約長は規定されていなかったが,元文書の適合性を判断するには,要約の情報量が多いほど有利になるため,規定を設ける必要があったと考える.我々は,要約があることで本文を読むことなく本文の適合性を判断するという目的を考え,本文約800文字に対して,100文字以内と150文字以内の2つの句表現要約をエントリーした(以降では,それぞれSystem3,System4としてリファーされている)が,図\ref{charfme}でわかるように他の参加システムに比べ,要約長はかなり短いものであった.要約長が長いと適合率・再現率は上がると考えられ,図\ref{charfme}でもそれは現れている.評価に要した時間も計測したので,図\ref{timefme}には時間とF-measureの関係を示す.要約を読む時間は長さにほぼ比例すると考えられるので,我々のシステムは時間でも最も短くなっている.\begin{figure}[htbp]\vspace{2em}\begin{center}\begin{minipage}{0.53\textwidth}\begin{center}\epsfile{file=eps/charfme.eps,height=6.8cm}\caption{文字数とF-measureの関係}\label{charfme}\end{center}\end{minipage}\begin{minipage}{0.47\textwidth}\begin{center}\epsfile{file=eps/timefme.eps,height=6.8cm}\caption{所要時間とF-measureの関係}\label{timefme}\end{center}\end{minipage}\end{center}\vspace*{1em}\end{figure}この評価から次のような考察が得られる.\begin{enumerate}\item句表現要約は,ほぼ同等のF-measureである他の要約群に比べ,速いスピードでの判定が可能である.\item本文の長さの約1/8で要約が表現されているにもかかわらず,本文そのものと同程度の正確さでの判定が可能である.\end{enumerate}
\section{関連研究}
\cite{zechner96}をはじめとして,多くの研究が重要文選択という手法を採用しており,その中で,どのように重要文を選択するかを問題にしている~\cite{okumura98}.我々は,重要文選択では長い文が選択されがちで,読む負荷が大きいことを問題にし,関係を組み合わせて句を合成することによる要約の生成手法を提案した.ここでは,我々の視点で類似研究をまとめる.まず,短い文にするという点では,文の言い替え,不要な修飾語の削除で文を短縮するという方向がある.\cite{wakao98},\cite{mikami98}は,TVニュースにおいて,聞かせるための原稿から,読ませるための字幕を作成することを目的としている.このinformativeという性質上,情報をなるべく落とさないようにすることが必要で,あまり短くはできない.Indicativeを目的とする場合はもっと短くできるはずであるが,文の中心構造を残し,修飾部分を減らす方向では,句表現要約ほど短い要約を作ることはできない.\cite{boguraev97}による要約手法は,文またはパラグラフではなく,句表現(``phrasalexpression'')を採用している.この要約の目的は速読であり,そのため段落ごとにトピックを選定し,そのトピックがどのように扱われるかを提示するのに用いられている.方法としては,単語で表したトピック(``topicstamp'')から句を作っていくもので,ひとつのトピックから複数の句を構成するため,検索結果のふるいわけに適した要約にはなっていない.また,アークの役割や重要性を使っていないため,あまり重要でない語も同様にコアに付加される.文を合成するという立場が似ている研究としては,\cite{hovy97},\cite{kondou96}などがある.これらは,シソーラスなどを用いて複数の単語を上位概念で置き換えた文を構成することをねらっている.文章全体の意味を短い表現で置き換えることは要約の目指すところではあるが,単語レベルでの置換では適用範囲が限られるし,より大きな単位の置換が可能になると,知りたかったことが抽象化されすぎて見えなくなる問題も生じるだろう.我々の句表現要約と同じく,語と語の関係をベースに要約を作るものには,\cite{nagao97}がある.これは,GDA(GlobalDocumentAnnotation)という意味構造をあらかじめ文書中にタグとして付与しておくことにより,要約など文書の種々の機械的処理を可能にしようという試みである.必須格などの重要な関係を追加していく点などで手法に類似性があるが,At-a-glanceを目的とした短い句を出すものではなく,文の形式を保持しながら長さを柔軟に変更できる要約を目指したものになっている.検索対象文書全てに適切な意味構造が与えられる状況は当面期待できず,検索結果のふるいわけへの応用は難しい.
\section{おわりに}
本論文では,At-a-glance要約の概念を提示し,この概念の具体化である句表現要約手法のアルゴリズムを示した.また,開発したシステムを紹介した.さらに,新しく考案したタスクベース評価の方法を示し,句表現要約手法によって作られた要約がふるいわけに有効であることを示した.今後の課題として次のようなものがある.\begin{description}\item[1)クエリーを反映させた要約:]検索結果のふるいわけに用いる場合,クエリーで用いられた語がどのように使われているか知ることが,要不要の判断に重要な役割を果たす.このため,クエリーを反映させた要約作成の方法を検討している.\cite{oka01}は,その予備的評価になっている.\item[2)他言語への適応:]このアルゴリズムは日本語に特化したものであるが,基本的な考え方は他の言語にも適用可能と考える\footnote{ただし,``At-a-glance''性の効果が,漢字の表意文字の性質から得られている可能性も検討する必要がある.}.\cite{ueda00}では,英語での句表現要約生成方法について検討している.\item[3)品質の向上:]要約の品質は解析の精度による部分が大きい.現在はパターンマッチをベースとしているが,意味を考慮に入れた構文解析器の導入で精度の向上を図ることが可能であると考える.\end{description}\acknowledgment研究所および開発部をはじめ,議論,レビューを通じ本論文のブラッシュアップに貢献していただいた諸氏,および評価実験の被験者を快く引き受けていただいた諸氏に感謝する.\bibliographystyle{jnlpbbl}\bibliography{353}\appendix
\section{関係の種類}
\label{app1}係り受け関係は個別には100種類以上あるので,タイプ別にまとめ図\ref{kankei}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/kankei.eps,width=12cm}\caption{関係の種類別リスト}\label{kankei}\end{center}\end{figure}
\section{補完規則}
\label{app2}ここでは補完規則のうちコア関係に対する補完規則を示す.補完された関係にさらに補完を行う規則が存在するが,この規則のサブセットであるため省略する.コア関係が図\ref{complement}のノードA,BとアークRcoreで形成されているとき,付加可能な関係は,係り側Aにかかる関係(ノードCとアークRc),受け側Bに係る関係(ノードDとアークRd),受け側Bからかかる関係(アークReとノードE)の3種である.表\ref{comprule}に補完規則をまとめる.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/complement.eps,width=10cm}\caption{補完される場所}\label{complement}\end{center}\end{figure}\vspace{-2em}\begin{table}[htbp]\begin{center}\caption{補完規則}\epsfile{file=eps/comprule.eps,width=14cm}\label{comprule}\end{center}\end{table}
\section{低減率の効果}
\label{app3}低減率を変え,本論文の第\ref{hajimeni}章および第\ref{gainen}章に対して句表現要約を作成した結果を示す.\bigskip{\bf\begin{tabular}{l}${\rmR}=0.9$\\...indicativeな目的に用いられる要約の目標...\\句表現要約手法は,...開発した.\\句表現要約は,...「読む」負荷を読者に与えず...\\句表現要約は,...句の並びで文書の概要を表現する...\\...単語と単語の係り受け関係を...ふるいわけ...\\\end{tabular}}\bigskip{\bf\begin{tabular}{l}${\rmR}=0.6$\\...文をピックアップする方法を採用している.\\句表現要約手法は,...開発した.\\...要約のふるいわけ効果の評価実験について述べる.\\句表現要約は,...「読む」負荷を読者に与えず...\\...単語と単語の係り受け関係を...ふるいわけ...\\\end{tabular}}\bigskip{\bf\begin{tabular}{l}${\rmR}=0.3$\\...文をピックアップする方法を採用している.\\...要約のふるいわけ効果の評価実験について述べる.\\At-a-glance要約で...具体的な目標にした...\\句表現要約は,...「読む」負荷を読者に与えず...\\...単語と単語の係り受け関係を...ふるいわけ...\end{tabular}}\vspace{2zw}このように低減率を1に近くすると初期スコアの高い単語列(この場合は「句表現要約」)が複数回出現し,0に近づけると異なった部分が採用されやすくなる.どの要約が最もよいかという評価基準は存在せず,目的に合わせて選択することになる.現状では,要約を予め作成しておくため,より広い検索要求に応えられるよう異なった重要語が含まれるように(低減率は小さく),一方特に重要な語はそれに応じて複数回出すこともできるように(低減率は大きく)という目的にあわせて0.5に設定している.検索要求に適した要約を検索時に作成する場合には検索要求に現れる語がどのようなコンテキストで現れているかがなるべく多く現れるようにするため低減率を1に近く設定しておいたほうがよいと考えられる.\vspace{.5zw}\begin{biography}\biotitle{略歴}\bioauthor{上田良寛}{1980年京都大学工学部卒業.1982年同大学大学院工学研究科修士課程修了.同年富士ゼロックスに入社.機械翻訳,推敲支援,情報検索,要約などの研究・開発に従事.1988年から1991年までATR自動翻訳電話研究所に在籍.言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{岡満美子}{1988年早稲田大学理工学部卒業.1990年同大学大学院理工学研究科修士課程修了.同年富士ゼロックスに入社.情報検索,テキスト要約などの研究・開発に従事.言語処理学会,情報処理学会,日本認知科学会各会員.}\bioauthor{小山剛弘}{1983年九州大学工学部卒業.1985年同大学大学院工学研究科修士課程修了.同年日本電気に入社.機械翻訳の研究・開発に従事.1991年富士ゼロックスに入社.情報検索,要約,分類などの研究・開発に従事.}\bioauthor{宮内忠信}{1987年東京農工大学工学部数理情報工学科卒業.同年富士ゼロックス入社.自然言語処理,情報検索等の研究開発に従事.情報処理学会会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V20N02-07 | \section{はじめに}
\label{sec:introduction}文字による記述だけでなく,画像も付与された辞書は,教育分野\cite{Popescu:Millet:etc:2006}や言語\linebreak横断検索\cite{Hayashi:Bora:Nagata:2012j}での利用,子供や異なる言語の話者\cite{Suwa:Miyabe:Yoshino:2012j},文字の認識に困難を\linebreak伴うような人とのコミュニケーションを助けるツール\cite{Mihalcea:Leong:2008,Goldberg:Rosin:Zhu:Dyer:2009}の構築に使うことができるなど,様々な潜在的な可能性を持っている.そのため,本稿では,できるだけ広範な語義に対して画像が付与された辞書を構築することを第一目標とする.辞書やシソーラスに画像を付与する研究はこれまでにもいくつか存在する.特に,見出し語を含む検索語を用いて画像検索を行ない,インターネットから画像を獲得する研究は複数存在する.\PN\cite{PicNet}や\IN\cite{ImageNet}といったプロジェクトでは,\WN{}\cite{_Fellbaum:1998}のsynsetに対し,画像検索で獲得した候補画像の中から適切な画像を人手で選択して付与している.\PN{}や\IN{}では,近年発達してきたAmazonMechanicalTurkサービス\footnote{http://www.mturk.com/}を始めとする,データ作成を行なう参加者をインターネット上で募り,大量のデータに対して人手でタグを付与する仕組みを用いて大量の画像の収集とタグ付けを行なっている.これらの手法は,大量のデータを精度良く集めることができるため有望である.しかし,現在は対象synsetが限定されているため,辞書全体に対するカバー率や,多義語の複数語義に対する網羅性には疑問が残る\footnote{\IN{}の場合,HP(http://www.image-net.org/)によると,2010年4月30日時点で,\WN{}の約100,000synsetsのうち,21,841synsetには画像が付与されているとしている.多義性に関する報告はない.}.また,\PN{}や\IN{}では,上位語や同義語にあたる語で検索語を拡張して用いているが,どのような語による拡張がより有効かといった調査は報告されていない.また,\IO{}\cite{Popescu:Millet:etc:2006,Popescu:Millet:etc:2007,Zinger:Millet:etc:2006}でも,\WN{}のsynsetに対してインターネットから獲得した画像を付与している.\IO{}では,不適切な画像を取り除くために,人の顔が含まれるかどうかによる自動的フィルタリングや,画素情報による分類などを用いている.この手法は,自動的に大量のデータを集めることができるため有望である.しかし,\PN{}や\IN{}と同様,現在は対象synsetが具体物などに限定されているため,辞書全体に対するカバー率や,多義語の複数語義に対する網羅性には疑問が残る\footnote{\cite{Popescu:Millet:etc:2007}は実験対象を\WN{}の\textit{placental}配下の1,113synsetsに限定しており,多義性に関する報告はない.}.一方,語の多義性に着目し,多義のある語に対しても語義毎に適切な画像を付与する研究として,\cite{Bond:Isahara:Fujita:Uchimoto:Kuribayashi:Kanzaki:2009}や\cite{Fujii:Ishikawa:2005a}がある.\cite{Bond:Isahara:Fujita:Uchimoto:Kuribayashi:Kanzaki:2009}では,日本語\WN\footnote{http://nlpwww.nict.go.jp/wn-ja/}のsynsetに対し,OpenClipArtLibrary(\OCAL)\footnote{http://openclipart.org/}から獲得した画像を付与している.彼らは,\OCAL{}と\WN{}の階層構造を比較し,両方の上位階層で同じ語が出現する画像のみを候補として残すことで,多義性に対応している.さらに,候補の画像の中から各synsetの画像として適切な画像を人手で選択している.\OCAL{}は著作権フリーで再配布可能という利点があるが,含まれる画像が限られるため,画像を付与できる語義も限られている.\cite{Fujii:Ishikawa:2005a}では,インターネットから収集した画像を事典検索システム\CL\footnote{http://cyclone.cl.cs.titech.ac.jp/}における語義と対応付ける実験を行なっている.彼らは,辞書の見出し語を検索語として用い,インターネットから候補となる画像とそのリンク元テキストを収集し,テキストの曖昧性解消をおこなうことによって,画像の意味を推定している.これは,多義性に対応できる手法であるが,出現頻度の低い語義の画像収集は困難だという問題がある.なぜなら,見出し語のみを検索語としてインターネット検索を行なった場合,得られる画像のほとんどは,最も出現頻度の高い語義に関連する画像になるからである.例えば,「アーチ」という語には,“上部を弓の形にして支えやすくした建物.”や,“野球で,本塁打.”などの語義があるが,見出し語である「アーチ」を検索語とした場合に得られた画像のうち,上位500画像には後者の語義に対応する画像はない\footnote{Google画像検索の結果(2009年12月実施)}.本稿の第一目標は,できるだけ広範な語義に対して画像が付与された辞書を構築することである.本稿では,基本語データベース\lxd{}\cite{Amano:Kobayashi:2008j}の内容語(一般名詞,サ変名詞,動詞,形容詞類,副詞類)を対象に画像付与を試みる.幅広い語義に画像を付与するため,インターネットから画像検索によって画像を獲得する.また,多義性のある語にも語義毎に適切な画像を付与するため,語義毎に検索語セットを用意する.第二の目標は,画像検索を行なう時に重要な問題である検索語の設定方法についての知見を得ることである.本稿では,作業者が対象語義に画像が付与できるかどうかという判断を行なった後,用意した検索語セットの中から適切な検索語セットを選択・修正して画像検索に用いる.最終的に利用された検索語セットを分析することで知見を得たい.第三の目標は,提案する検索語セットの優先順位,特に,最も優先順位が高い検索語セットをデフォルトの検索語セットとして利用することの妥当性を示すことである.今後の作成・維持コストや,新しい辞書への適用を考えると,人手による画像付与ができない場合でも,優先順位の高い検索語セットによる検索結果が利用できれば,有用だと考えられるからである.以降,\ref{sec:resource}章では画像付与の対象である\lxd{}について紹介する.\ref{sec:make-query}章では,まず,200語義を対象として行なった予備実験\cite{Fujita:Nagata:2010}を紹介する(\refsec{sec:pre-exp}).その結果を踏まえた上で,画像検索に用いる検索語セットの作成方法を紹介し(\refsec{sec:queryset}),検索語セットの優先順位の決定方法を提案する(\refsec{sec:query-order}).\ref{sec:all-lxd-exp}章では,作成した検索語セットを用いた画像獲得方法,および,評価方法について述べる.\ref{sec:ana-rand-best}章では,第三の目標である提案した優先順位の決定方法の妥当性を示す.\ref{sec:all-lxd-analysis}章では,第二の目標である最終的に利用された検索語に関する分析と,改良点の調査を行なう.ここまでの実験で,第一の目標である\lxd{}の広範な語義に対する画像付与を行ない,\ref{sec:ana-cannot}章では,構築した辞書を用いて画像付与可能/不可能な語義について,意味クラスや品詞などの特徴から分析を行なう.最後に,\ref{sec:conclusion}章で本稿の実験と分析をまとめる.
\section{言語資源}
\label{sec:resource}\subsection{言語資源の概要}\label{sec:lexeed}本章では,用いる言語資源についての概略を説明する.画像付与対象の辞書である\lxd{}と,関連する言語資源から得られる情報の例を図~\ref{fig:arch-lxd}にまとめて提示する.\begin{figure}[t]\input{07figure01.txt}\vspace{0.5zw}\small但し,下付き文字で表される番号は語義番号を示している.\par\caption{\lxdと\hkの例:アーチ}\label{fig:arch-lxd}\end{figure}\subsubsection{基本語データベース:語義別単語親密度(Lexeed)}本稿では,「基本語データベース:語義別単語親密度」(\lxd{})を画像付与の対象とする.\lxd{}は,心理実験により,対象語の日本人の成人にとっての平均的な馴染み深さを「親密度」として測定し,日本人の95\%以上が知っていると推定される語を基本語として収録したものである.収録語数は約29,000語である.各語は平均1.7語義からなり,語義数では約48,000語義収録されている.各エントリは,見出し語,読み,品詞,見出し語の親密度,および,語義毎の親密度,定義文と例文から構成される.ここで,見出し語には,複数の表記が含まれる場合がある.それらは代表的な表記(以下,代表表記)とそれ以外(以下,表記ゆれ)に分けられている.例えば,「たまねぎ」の場合,見出し語には「たまねぎ」「玉葱」が含まれるが,「たまねぎ」が代表表記,「玉葱」は表記ゆれになっている.代表表記は,必ず一つ以上記載されているが,表記ゆれは,全エントリに記載されているわけではない.なお,語義は,「アーチ$_1$」のように下付き文字で語義番号を付与した形で示す.\subsubsection{檜オントロジと檜センスバンク}\lxd{}の各エントリには,「檜」プロジェクトにより様々な付加情報が付与されている.「檜」プロジェクトでは,\lxd{}を用いたセンスバンクやツリーバンクの構築\cite{Bond:Fujita:Tanaka:2006},語義文からの半自動的なオントロジ構築\cite{Bond:Nichols:Fujita:Tanaka:2004},日本語語彙大系\cite{GoiTaikeij}や\WN{}などの既存言語資源とのリンク構築\cite{Nichols:Bond:Tanaka:Fujita:Flickinger:2006}などが行なわれた.本稿では,「檜」プロジェクトで構築された檜オントロジ,檜センスバンク,日本語語彙大系の一般名詞カテゴリ(以下,意味クラス)とのリンクから得られる情報を用いる.檜オントロジは,\lxd{}の定義文の構文解析結果とルールにより,見出し語に対する上位語や同義語,分野情報などを抽出したものである(図~\ref{fig:arch-lxd}の\ul{下線部}).檜センスバンクは,\lxd{}の語義を付与したコーパスである.\lxd{}の語義文と例文,京都大学テキストコーパス\footnote{http://www-lab25.kuee.kyoto-u.ac.jp/nl-resource/corpus.html},Senseval-2日本語辞書タスク\cite{Shirai:2003j}の訓練データ等,約194,000文が含まれ,その内容語のうち約1,403,000語に語義が付与されている.日本語語彙大系は深さ0から11までの階層構造をもつシソーラスである.意味クラスは,2,710個存在し,各意味クラスには,固有の番号とクラス名が付与されている.番号は深さ優先で振られており,例えば,3から999番までの意味クラスはすべて\izs{2:具体}の配下であり,具体的な事物を表すことを示している.また,1000以上の番号を持つ意味クラスはすべて\izs{1000:抽象}の配下であり,抽象的な事物を表すことを示している.なお,意味クラス同士の関係の97.9\%はis-a関係\footnote{is-a関係とは,包含関係を示している.例えば,\izs{531:星}isa\izs{527:天体}など.}残りの2.1\%はhas-a関係\footnote{has-a関係とは,全体部分関係を示している.例えば,\izs{0555:顔}hasa\izs{0571:耳}など.}である.\subsection{画像付与実験対象語}\label{sec:all-lxd-target}\lxd{}の内容語(一般名詞,サ変名詞,動詞,形容詞類,副詞類)のエントリを画像付与実験の対象とした.ただし,檜オントロジ構築時と出版時のバージョンの違いにより檜オントロジや意味クラス等の付加情報が付与されていないエントリは,これらの情報との関係分析が行なえないため対象外とした.その結果,画像付与実験の対象語は,25,481語,39,251語義となった.\lxd{}出版版の収録語のうち内容語は,27,787語,47,106語義であるため,今回の対象語により,語単位で91.7\%,語義単位で83.3\%をカバーすることになる.\begin{table}[b]\caption{対象語数と品詞内訳}\label{tb:lxd-all-target}\input{07table01.txt}\end{table}表~\ref{tb:lxd-all-target}に,対象語全体の数を品詞毎に示す.ただし,名詞は,すべての語義が\izs{1000:抽象}配下,すべての語義が\izs{2:具体}配下,\izs{1000:抽象}配下と\izs{2:具体}配下の両方含む,および,サ変名詞に分割し,それらの小計も表示している.ここで,\izs{2:具体}配下かどうか等は,\lxd{}の各語義にリンクされた意味クラスで分類している.例えば,図~\ref{fig:arch-lxd}の「アーチ$_1$」には意味クラス\izs{865:家屋(本体)}と\izs{2435:類型}が付与されており,それぞれ\izs{2:具体}配下と\izs{1000:抽象}配下にあるため,両方含む,と分類される.
\section{検索語の拡張}
\label{sec:make-query}\subsection{画像付与予備実験の概要(\ano)}\label{sec:pre-exp}辞書の語義毎に適切な画像をWebから獲得する方法を提案した予備実験について紹介する.予備実験では,\lxd(図~\ref{fig:arch-lxd})と\wpd{}という,非常に傾向の異なる2種類の辞書を対象としているが,本章では,\lxdを対象とした実験について紹介する.\ref{sec:introduction}章で述べたように,見出し語(代表表記)のみで画像検索した場合,最もメジャーな語義の画像しか得られないことが多く,複数の語義に適切な画像を獲得することは難しい.そこで予備実験では,語義毎に適切な画像を得るため,あらかじめ検索語を語義毎に拡張し,その効果を評価した.予備実験で検索語として利用したのは,次の4通りである.\\(1)代表表記のみ(\bl),(2)代表表記と同義語類(\syn),(3)代表表記と上位語等(\hyp),(4)基本的に代表表記のみ利用するが,代表表記がひらがなの場合のみ表記ゆれも利用(\mono)\footnote{例えば,「たまねぎ」の場合,表記揺れである「玉葱」も利用する.}.また,具体物かどうか,単義語か多義語か,によって傾向と難しさが異なると考えられるため,\lxd{}の対象語義を次の4つのタイプに分類した.``具体物で単義語'',``具体物で多義語'',``具体物以外で単義語'',``具体物以外で多義語''である.本稿と同様,\izs{2:具体}配下の意味クラスだけが付与されている場合を具体物とした.対象語義は,各タイプからランダムに50語義ずつ選択,合計200語義について,適切な画像を付与できるかどうか,また,どの検索語がより良い画像を得るのに有効かを調べた.\subsubsection{予備実験結果の概要}\label{sec:pre-exp-conclusion}予備実験では,\bl{},\syn{},\hyp{},\mono{}のそれぞれの検索語によって獲得した画像\footnote{画像検索は,2009年9月に実施.}を人手評価した.その結果,以下のようなことがわかった.\begin{itemize}\itemいずれのタイプに対しても\syn{}の方が\hyp{}による画像より適合率が高い.つまり,同義語類の方が上位語等より適切な画像に絞る効果がある.\item検索語の拡張は特に多義語に対して効果が高い.\item逆に具体物の単義語の場合,\syn{},\hyp{}共に適合率は\bl{}より下がる.これは,単義語の具体物の場合,対象語義自体がメジャーな語義になるため,拡張するとむしろ典型的な画像が獲得できなくなるためだと考えられる.\item具体物の単義語でも,\mono{}だけは\bl{}より良くなる.つまり,ひらがな以外の語の利用は,語義を絞る上で効果がある.\item検索で得られた画像の適合率は,各タイプの語義に対して,``具体物で単義語''の場合\mono{}で87.7\%,``具体物で多義語''の場合\syn{}で69.2\%,``具体物以外で単義語''の場合\mono{}で66.7\%,``具体物以外で多義語''の場合\syn{}で66.3\%だった.\end{itemize}また,画像獲得がうまくいかなかった原因を調べた結果,以下のようなことがわかった.\begin{itemize}\item多義語でもメジャーな語義に対しては,単義語と同様拡張しないほうがよい.\item拡張に使った語の語義がマイナーだった場合,メジャーな語義の画像が得られて適合率が下がるため,マイナーな語義は拡張に使わない方がよい.\end{itemize}本稿では,こうした予備実験の結果を反映して,検索語セットの作成(\refsec{sec:queryset}),および,優先順位の決定方法を提案する(\refsec{sec:query-order}).\subsection{検索語セットの作成方法}\label{sec:queryset}\refsec{sec:pre-exp}の結果から,特に多義語の場合,複数の語義に適切な画像を獲得するためには,検索語の拡張が有効であることがわかっている.また,同義語類による拡張が,適切な画像を獲得するために有効なことがわかっている.しかし,同義語類はすべての語義で得られるわけではない.また,他の関連語の効果もより詳細に調査し,今後の改良につながる知見を得たい(第二の目標).そのため,本稿では辞書から得られるできるだけ多くの関連語から検索語セットを作成,比較する.検索語セットに利用する情報は以下の通りである.\subsubsection{見出し語:代表表記と表記ゆれ(\refsec{sec:lexeed}参照)}代表表記は,\lxd{}では必ず一つ以上記載されており,最も代表的な表記と考えられる.そこでまず,代表表記のみを用いた検索語セットを作成する(以下,$q_{代表}$).単義語の場合など,拡張しない方が良い検索結果が得られる場合が考えられるためである.また,代表表記がひらがなの場合は漢字の表記ゆれを追加し,ひらがな以外の場合は代表表記のみを用いた検索語セットを用意する(以下,$q_{基本}$).これは,予備実験の\mono{}にあたり,曖昧性を軽減するのに有効だったためである.以降の検索語セットはすべて,$q_{基本}$に1語追加して作成する.例えば,「たまねぎ」の場合,$q_{代表}$は「たまねぎ」,$q_{基本}$は「たまねぎ」「玉葱」となる.$q_{基本}$で利用しなかった表記ゆれは,同音異表記の同義語といえるため,檜オントロジの同語義と同様に扱う.なお表記ゆれは,全エントリに記載されているわけではなく,49,245エントリ中,11,083語にのみ存在した.\subsubsection{檜オントロジ(\refsec{sec:lexeed}参照)}檜オントロジでは,定義文から獲得した同義語,分野情報,上位語などの関連語を,語義ごとに抽出している.これらの関連語1語ずつを$q_{基本}$に追加することで,検索語セットを作成する(以下,$q_{関連語}$).\refsec{sec:pre-exp}の結果から,特に多義語では,関連語(特に同義語)による検索語の拡張が有効であることがわかっているが,関連語ごとに検索語セットを作成・比較することで,適切な画像を獲得するために有効な検索語の特徴を詳細に調査する.なお,関連語は檜オントロジでは語義番号を含めた語義として抽出されているが,検索語セットでは語義番号は含めず,語として利用する.表~\ref{tb:hinoki-ont-data-new}に,利用する檜オントロジの内訳を示す.\begin{table}[t]\caption{檜オントロジの内訳}\label{tb:hinoki-ont-data-new}\input{07table02.txt}\end{table}檜オントロジは,対象語義側から関連語を参照する(以下,順方向)ように構築されているが,カバー率をあげるため,本稿では逆方向の参照も行なう(以下,逆方向).例えば,「アーチ$_3$」の同義語は「ホームラン$_1$」なので,逆に「アーチ$_3$」を「ホームラン$_1$」の同義語として用いることができる.\subsubsection{定義文中,例文中の特徴的な語}定義文中,および,例文中に出現する内容語のうち特徴的な語を$q_{基本}$に追加する(以下,$q_{定義文}$,$q_{例文}$).そうした語は語義を特徴付け,適合率の高い画像を得るのに有効な可能性があると考えたためである.特徴的かどうかは,各語の\tfidf{}\cite{Tokunaga:1999j}によって決定する.\tfidf{}の計算は,式(\ref{s:tfidf})を用いる.\begin{equation}\mathit{tf}\cdot\mathit{idf}_{i,j}=\frac{n_{i,j}}{\sum_{k}^{}n_{k,j}}\times\log{\frac{D}{df_i}}\label{s:tfidf}\end{equation}ここで,$n_{i,j}$は,文$j$中で,ある語義$_i$の出現する回数,$\sum_{k}^{}n_{k,j}$は,文$j$に含まれる内容語の数,$D$は全文数,$df_i$は語義$_i$の出現する文の数を表している.\tfidf{}の計算は,定義文と例文で別個に行ない,檜オントロジですでに関係が獲得されている語を除き,最も\tfidf{}の高い語をそれぞれ検索語の拡張に利用した.例えば「アーチ」(図~\ref{fig:arch-lxd})の場合に得られる$q_{定義文}$と$q_{例文}$は表~\ref{tb:tfidf}の通りである.ここで,「アーチ$_3$」で$q_{定義文}$がないのは,定義文中の内容語がすべて,檜オントロジですでに関係が獲得されているためである.\begin{table}[t]\caption{「アーチ」(図~\ref{fig:arch-lxd})の定義文/例文から得られる検索語セット}\label{tb:tfidf}\input{07table03.txt}\end{table}\subsubsection{検索語セットに利用しない語}前述の情報を用いて検索語セットを作成するが,以下の様な語は利用しない.\begin{itemize}\item同じ見出し語の語義間で共通する語は用いない.\\語義間で共通する語では,別の語義に関連する画像が得られる可能性があるためである.例えば,「口紅$_1$」\gogi{化粧品の一種。唇に\ul{塗る}\ul{紅}。…}と,「口紅$_2$」\gogi{物の周り、特に陶磁器の周囲に赤い色を\ul{塗る}こと。また、その\ul{紅}。}の場合,「塗る」「紅」は両方の定義文に出現するため利用しない.\item低頻度語義は利用しない.\\ここで低頻度語義とは,語としては一定回数以上出現するにも関わらず,その語義としてはほとんど利用されない語義である.低頻度語義を利用すると,意図した語義ではなく,同じ見出し語のもっとメジャーな語義に関する画像が得られる可能性があるためである.本稿では,檜センスバンク全体で5回以上出現する語にも関わらず,自分自身の例文以外には利用されていない語義を低頻度語義とした.逆に,語としての出現回数が少ない場合でも,例えば100\%対象語義として利用されているような場合,意図した語義以外の画像が得られる可能性は低いため,対象外とする必要はないと判断した.\\例えば,「アイス」は檜センスバンク全体で9回出現するが,「アイス$_3$」\gogi{高利貸し$_1$.}の語義はほとんど出現しない.檜オントロジでは,「高利貸し$_1$」は,「アイス$_3$」の順方向の同義語として獲得されており,「アイス$_3$」の検索語の拡張に利用する.しかし,逆に「高利貸し$_1$」の拡張に「アイス$_3$」を利用することはない.\item見出し語側に完全に含まれる語は利用しない.\\冗長だと考えられるためである.\\例えば,「アイス$_1$」は「アイスキャンデー$_1$」の同義語だが,完全に含まれるので,利用しない.\item檜オントロジで関係が「部分全体」「分野」の場合,逆方向に参照された語は利用しない.\\同義語類とは異なり,逆方向では同じ関係にならないためである.\\例えば,「アーチ$_3$」の分野として「野球$_1$」が獲得されているが,「野球$_1$」の拡張に「アーチ$_3$」は利用しない.\end{itemize}\subsection{検索語セットの優先順位}\label{sec:query-order}\begin{figure}[b]\input{07figure02.txt}\caption{検索語セットの優先順位決定方法}\label{fig:query-order}\end{figure}\begin{table}[b]\caption{検索語セットと優先順位の例}\label{tb:query-set-arch}\input{07table04.txt}\end{table}\refsec{sec:queryset}では検索語セットの作成方法を述べた.この方法では複数の検索語セットが作られる.人手で画像付与を行なう場合,これらの検索語セットによる検索結果をすべて表示し,最も良い画像を選べば良いだろう.しかし,辞書のエントリが増えた場合や,他の辞書に画像を付与したい場合など,いつでも人手で画像付与ができるわけではない.そのため,デフォルトで利用する検索語セットを設定しておくことは重要である.そこで本稿では,予備実験(\refsec{sec:pre-exp})の結果とヒューリスティックスから,複数の検索語セットの優先順位を決定する方法を提案する(図~\ref{fig:query-order}).付与した優先順位,特に最も高い優先順位を与えたものがよかったかどうかは,後の実験で検証する.また,検索語セットと優先順位の例を表~\ref{tb:query-set-arch}に示す.
\section{実験方法}
\label{sec:all-lxd-exp}本章では,対象語義に適切な画像を付与する実験手順について述べる\footnote{実験は,google画像検索を利用して,2011年1月から12月にかけて実施した.}.\refsec{sec:exp-steps}では,画像付与,および,評価の手順について,\refsec{sec:exp-eva}では,画像自体の評価基準について述べる.\subsection{画像付与・優先順位の妥当性評価方法}\label{sec:exp-steps}本稿では,複数の検索語セットを用意し,それらに優先順位を付与する方法を提案した.そこでまず,第三の目標としてあげたように,付与した優先順位の妥当性を評価する.特に,自動的に画像を付与する場合,最も優先順位が高くなった検索語セット(以下,\best{})を用いて適切な画像が得られるかどうかが重要である.\begin{figure}[b]\input{07figure03.txt}\caption{評価方法:\evaR{}}\label{tb:eva-method-rand}\vspace{-1\Cvs}\end{figure}そこで,検索語セットの提示方法として2通りの方法を試し,結果を比較する.つまり,すべての検索語セットによる検索結果をランダムに表示する方法(\evaR{},図~\ref{tb:eva-method-rand})と,\best{}による検索結果を最初に表示し,その段階で高い評価の画像が十分獲得できれば,他の検索語セットは利用しない方法(\evaB{},図~\ref{tb:eva-method-best})である.いずれの方法でも,用意した検索語セットでは適切な画像が得られない場合,作業者に自由に検索語を修正してもらう(図~\ref{tb:eva-method-rand},Step2-1).なお,そもそも画像表示できない語義の場合,どのような方法であっても画像を付与できないため,そのような語義かどうかを判断する箇所も設けてある(図~\ref{tb:eva-method-rand},Step-1).\begin{figure}[b]\input{07figure04.txt}\caption{評価方法:\evaB{}}\label{tb:eva-method-best}\end{figure}\begin{figure}[b]\input{07figure05.txt}\caption{画像の適合度評価例}\label{tb:eva-ex}\end{figure}比較に用いるのは,10,500語義\footnote{10,500語義の品詞割合は,名詞(\izs{2:具体})20.5\%,名詞(\izs{1000:抽象})27.6\%,名詞(両方)15.7\%,サ変名詞13.5\%,動詞13.7\%,形容詞類4.8\%,副詞類4.3\%}ずつ,合計21,000語義であり,作業者は各語義につき一人である.画像の適合度評価(図~\ref{tb:eva-method-rand},Step3)まで含めた作業にかかる時間は,用意した検索語セットから選択する場合,1語義につき平均約3分,作業者が検索語を修正する場合,平均約4分と報告されている.\subsection{画像の適合度評価}\label{sec:exp-eva}図~\ref{tb:eva-method-rand}のStep3において,作業者には,各語義5枚の画像を選択してもらい,各画像の適合度を評価してもらった.評価値は,1--5の5段階であり,数字が大きい方が適合度が高い.なお,画像表示可能と評価された語義には,評価値3以上の画像が少なくとも1枚以上付与されるように作業している.図~\ref{tb:eva-ex}に評価例を示す.
\section{優先順位の妥当性の評価}
\label{sec:ana-rand-best}本章では,提案した優先順位,特に,\best{}が妥当かどうかを評価する(第三の目標).そのため,\evaR{}と\evaB{}のそれぞれの場合で最終的に選択された検索語セットの優先順位を比較する.比較のため10,500語義ずつを選び,それぞれの方法によって作業を行った.選択された検索語セットの優先順位の占める割合を図~\ref{fig:used-query-order}に示す.なお,画像表示が出来ないと判断された語義は除いて集計した.両者の対象語義は異なるので厳密な比較はできないが,各評価における対象語義の品詞割合は同じであり傾向調査としては十分な量であると考える.\begin{figure}[b]\begin{center}\includegraphics{20-2ia7f6.eps}\end{center}\smallここで,\sel{}は全拡張語候補中から作業者が検索語を選び直した場合,\added{}は作業者により検索語が追加された場合,\fixed{}は全組合せ中にない検索語が用いられた場合を示す.\vspace{0.5\Cvs}\caption{画像獲得のために利用された検索語セットの優先順位:\evaR{}と\evaB{}の比較}\label{fig:used-query-order}\end{figure}図~\ref{fig:used-query-order}から,\evaR{}でも\evaB{}でも,最も多く利用された検索語セットは,\best{},つまり,最も良いと予想した検索語セットであることがわかる.検索結果はStep-1ではランダムに表示されており,作業者には優先順位はわからないにも関わらず,利用された検索語セットの割合は優先順位の通りになっている.そのため,提案した検索語セットの優先順位は妥当だといえる.さらに,\evaB{}の場合,\best{}が利用された割合は,\evaR{}の場合より非常に高い(全体で,+23\%).これは,最初に\best{}を表示し,そこで十分な画像が獲得できれば,終了しているためである.つまり,ランダムに表示すれば,同じくらいよい結果があれば他の検索語セットを利用する可能性があるが,\best{}を先に表示することで,\best{}で十分だと判断されることが多くなっているのだと考えられる.つまり,特に,人手で画像付与ができずに自動的な検索結果を用いる場合,デフォルトの検索語セットとして\best{}を利用しておくことは妥当であるといえる.
\section{検索語に関する分析}
\label{sec:all-lxd-analysis}本章の目的は,最終的に利用された検索語の調査である(第二の目標).検索を行なう場合に,どのような検索語を利用すれば良いかは重要な問題である.\ref{sec:ana-rand-best}章では,提案した優先順位の決定方法の妥当性を示したが,\evaB{}の場合でも,全体の46.6\%は\best{}以外の検索語が利用されている.そこで本章では,最終的に利用された検索語をより詳細に調査し,できれば改良につながる知見を得たい(\refsec{sec:ana-query},\refsec{sec:ana-add-fixed}).また,利用された検索語を手がかりにセンスバンクや語義親密度との関係分析も行なう(\refsec{sec:judge-major}).本稿では,\ref{sec:ana-rand-best}章で比較のために\evaB{}を用いた10,500語義以外は,\evaR{}によって画像付与実験を行なっている.そこで本章では,評価方法の違いによるバイアスを避けるため,\evaR{}による画像付与実験結果を対象に,最終的に利用された検索語を分析する\footnote{ただし,すべての語義を対象として同様の分析を行なった場合でも,傾向はほぼ変わらなかった.}.\subsection{利用された検索語セット}\label{sec:ana-query}\evaR{}における評価実験で,作業者によって最終的に選択された検索語セットの内訳を図~\ref{fig:used-query}に示す.図~\ref{fig:used-query}によると,図~\ref{fig:query-order}で定義した\MONO{}と\MAJOR{}の場合,最も利用されている検索語セットは代表表記のみを用いたものであり,それぞれ44.9\%,31.3\%を占める.\MINOR{}の場合でも,12.9\%は代表表記のみが用いられている.多義語にも関わらず代表表記のみで検索されている語義は,少なくとも画像検索では最も出現頻度が高い語義であるといえるだろう.なお,代表表記のみが利用された場合の分析は\refsec{sec:judge-major}で行なう.\begin{figure}[b]\begin{minipage}{212pt}\includegraphics{20-2ia7f7.eps}\caption{画像獲得に利用された検索語セットの内訳}\label{fig:used-query}\end{minipage}\hfill\begin{minipage}{188pt}\setlength{\captionwidth}{188pt}\begin{center}\includegraphics{20-2ia7f8.eps}\end{center}\hangcaption{図~\ref{fig:used-query}の作業者による\added{},\fixed{},\sel{}で利用された検索語の内訳}\label{fig:used-query-fixed}\end{minipage}\end{figure}\MINOR{}の場合最も多いのは,人手で追加・修正・削除された検索語セットが用いられた割合であり,あわせて約59\%を占める.これは,こうした語義に適切な検索語セットを自動的に用意することの難しさを示している.\MONO{}や\MAJOR{}でも人手で追加・修正・削除された場合は多いが,それらを除くと,上位語,定義文から,同義語,例文からの情報が,よく用いられている.これらの間には,高々1--2\%程度の差分しかなく,予備実験で得られた結果のように明らかに同義語の方が良いとはいいがたい.ただし,すべての語義について同義語が獲得できているわけではないことを考慮する必要がある.つまり,同義語があれば同義語の方が良いが,ないので上位語が用いられた可能性もある.そこで,各タイプ毎に,作成された検索語セットのうち,最終的に利用された検索語セットの割合を表~\ref{tb:used-query-inall}に示す.\begin{table}[t]\caption{作成された検索語セットのうち,実際に利用されたものの割合}\label{tb:used-query-inall}\input{07table05.txt}\end{table}表~\ref{tb:used-query-inall}によると,同義語を用いて作られた検索語セットのうち,24.9\%は最終的に利用されている.また,同義語の一種である略称(正式名称への展開)や別称も利用される割合が高い.分野情報は作られた数自体が少ないが,特に\MINOR{}でよく選択されている.逆に,上位語の場合は,作られた検索語セットのうち,実際に利用されたのは8.4\%であり,同義語類に比べるとかなり低い割合である.つまり,同義語が存在する場合には,同義語は比較的利用される割合が高いといえる.ただし,\MONO{},\MAJOR{},\MINOR{}のそれぞれにおいて,利用された検索語セットの割合は相当異なっており,同じ同語義類でも,\MONO{}では同義語のうち31.6\%が利用されているが,\MINOR{}では10.2\%に留まり,代わりに略称や別称などが利用される割合が高くなっている.今後は,優先順位の決定において,タイプ別にこれらの優先順位を決定することも考えられる.\subsection{人手で追加/修正/選択された検索語}\label{sec:ana-add-fixed}図~\ref{fig:used-query}(\refsec{sec:ana-query})に示した様に,人手で検索語が追加/修正/選択された割合は,それぞれ,21.3\%,16.1\%,7.7\%と高い.これらの,人手によって追加/修正/選択されて作られた検索語セットに含まれる語のタイプを分類した(図~\ref{fig:used-query-fixed}).検索語セットには複数の語が含まれることがあるが,語毎に分割して集計してある.同義語類には,同義語,略称,別称などをまとめた.図~\ref{fig:used-query-fixed}によると,新しく追加された語の割合が最も多い.次いで,代表表記が利用される割合が高く,定義文,例文からの語が続く.定義文からの語とは,定義文中に出現する語のうち,檜オントロジでは同義語や上位語といった関係にない語になる.また,同義語や上位語などもあり,こうした語や代表表記に,何らかの語句が追加されているというパターンが多く見られた.ここで,追加された検索語のトップ10を表~\ref{tb:added-queries}に示す.追加された語で最も多いのは「イラスト」で,3,612回と際だって多く追加されている.「イラスト」が追加された語の品詞を集計すると,多い順に,動詞(34.4\%),サ変名詞(25.3\%),名詞\izs{1000:抽象}(19.7\%)と続いており,特に動作を表すような語義や抽象的な語義に対し,イラスト化された画像を得るために多く利用されたことが推測できる.それ以外にも,「イメージ」「グラフ」「写真」「図」など,語自体が図や画を想起させる語が多く追加されている.これは画像検索ならではの特徴だと思われる.\begin{table}[t]\caption{\changed{画像獲得のために追加された検索語のトップ10}}\label{tb:added-queries}\input{07table06.txt}\end{table}また,典型的と思われる事物や用法に具体化するための検索語の追加も多く見受けられる.例えば,「くたくた$_1$」\gogi{布や衣服などが使い古されて,張りを失い弱くなった様子.}に対して「服」が追加され,「くたくたになっている服」の画像が選ばれたり,「災難$_1$」\gogi{不意に起こる不幸な出来事.}に対し,「事故」が追加され,事故場面の写真が選ばれたりしている.\subsection{代表表記のみで検索された語義}\label{sec:judge-major}図~\ref{fig:used-query}(\refsec{sec:ana-query})によると,\MINOR{},つまり,多義語において高頻度語義だと判断しなかった語義でも,検索には代表表記のみが利用された語義が12.9\%(1,646語義)存在する.同じ見出し語に対し,語義が複数存在するにもかかわらず,代表表記のみで検索されているということは,これらの語義は,少なくとも画像検索では最も出現頻度が高い語義であるといえるだろう.本実験では,檜センスバンクで5回以上出現する語の,出現率が80\%以上の語義を高頻度語義としている(\refsec{sec:query-order}参照).この条件はヒューリスティックに設定しており,厳しかった可能性もある.そこで,檜センスバンクにおける出現率と,多義語のうち代表表記のみが利用された語義の関係を調べる.図~\ref{fig:major-hyouki}に,多義語のうち10回以上出現する語についての関係を示す\footnote{足きりする出現回数を変えても,同様の傾向を示した.}.出現率は10\%単位でまとめて集計してある.また,檜センスバンクは,新聞と辞書定義文,辞書例文からなるが,これらのコーパスにおける語義の出現率と人間の感覚は異なっている可能性も考えられる.本実験で利用した辞書\lxd{}には,語義別の親密度が付与されており,これは,各語義に対する馴染み深さを心理実験により付与したものである.そこで図~\ref{fig:psy-hyouki}に,語義親密度と,多義語のうち代表表記のみが利用された語義の関係を示す.語義親密度は1から7の間の値で表わされ,数値が大きくなるほど親密度が高い.図~\ref{fig:psy-hyouki}では,1以上2未満,2以上3未満というようにまとめて集計してある.\begin{figure}[b]\begin{minipage}[t]{183pt}\setlength{\captionwidth}{181pt}\includegraphics{20-2ia7f9.eps}\hangcaption{檜センスバンクにおける出現率と,代表表記のみを検索語に利用した語義の割合}\label{fig:major-hyouki}\end{minipage}\hfill\begin{minipage}[t]{178pt}\setlength{\captionwidth}{176pt}\includegraphics{20-2ia7f10.eps}\hangcaption{語義親密度と,代表表記のみを検索に利用した語義の割合}\label{fig:psy-hyouki}\end{minipage}\vspace{-1\Cvs}\end{figure}まず図~\ref{fig:major-hyouki}から,基本的には,センスバンクでの出現率が高ければ高いほど,代表表記のみが利用される割合も高くなっていることがわかる\footnote{センスバンクにおける出現率と代表表記のみ利用された語義の相関係数は,0.35であり,弱い相関があると言える.}.そのため,デフォルトの検索語セットを用意する場合,出現率が高い語は代表表記のみを利用するのは妥当と言えるだろう.しかしながら,図~\ref{fig:major-hyouki}からは,センスバンクでの出現率が高ければ必ず代表表記のみが用いられたわけではないこともわかる.出現率が90\%以上と非常に高い場合であっても,代表表記のみ検索に利用されたのは該当する語義の53\%程度であり,残り47\%程度は異なる検索語が利用されている.出現率が高いにも関わらず,代表表記以外で検索されている語を確認したところ,語からイメージされる,代表的シーンを示す様な検索語が利用されていることが多かった.例えば,「悔やむ$_1$」の場合は「悔やむ,マウンド」,「封鎖$_1$」の場合は「事件現場」が利用されている.両方,センスバンクでの出現率は100\%である.逆に,出現率が低い(10\%以下)にも関わらず,代表表記で検索されている語も存在する.例えば,「チェック」の6つの語義のうち,代表表記のみが検索に用いられているのは,「チェック$_3$」\gogi{洋服地の碁盤の目のような柄.}である.この語義の出現率は,2.1\%(96回のうち2回)と非常に低い.それに対し,最も出現率の高い(89\%)語義は,「チェック$_6$」\gogi{照合の印を付けること.また,その印.また,照合して検査すること.}であるが,検索語は作業者による自由修正によって,「チェックマーク,イラスト」が用いられている.なお,「チェック$_3$」の語義親密度は4.225,「チェック$_6$」の語義親密度は5.300であり,語義親密度についても「チェッ\mbox{ク$_6$」}の方が高かった.同様に語義親密度との関係(図~\ref{fig:psy-hyouki})でも,基本的に,語義親密度が高くなれば代表表記のみが利用される割合は高くなる\footnote{語義親密度と代表表記のみ利用された語義の相関係数は,0.27であり,弱い相関があると言える.}.ただし,やはり例外も存在する.語義親密度が低いにも関わらず代表表記のみが利用されている語を調べると,語義の親密度以外に,その語義に関連する画像の存在する量も影響している可能性がある.例えば,「縄張り$_2$」\gogi{建築の敷地に縄を張って建物の位置を定めること.}は,語義親密度が1.825とかなり低いが,代表表記のみが利用されている.「縄張り$_2$」は家を建てる時に行なわれ,記念,記録として撮られたらしい写真が多く存在する.逆に,「縄張り」の中で,最も親密度が高い語義は,「縄張り$_5$」\gogi{動物の個体や集団が,他の侵入を許すまいと努める地域.テリトリー.}(語義親密度5.225)だが,こちらは比較的画像で表しにくく\footnote{本実験では,犬などがテリトリーの匂い付け行動をしている写真などが付与されている.},関連する画像の量自体が少ないのだと思われる.つまり,画像検索での出現率と,人間のその語義に対する親密度,あるいは,センスバンクでの出現率は,関連はするものの,完全一致ではなく,画像として表現しやすいかどうか,画像として残されやすいかどうか,という条件を加味しなければ,画像検索に代表表記のみを利用すればよい語義を正確に推定することはできないだろう.
\section{画像表示可能/不可能な語義の分析}
\label{sec:ana-cannot}\vspace{-0.2\Cvs}第一の目標として,辞書のほとんどの内容語を対象として画像付与実験を行なったが,対象語義の中には,そもそも画像表示できない語義も存在している.そのため評価時に,そもそも画像表示可能な語義かどうかを判断している(\refsec{sec:exp-steps},図~\ref{tb:eva-method-rand},Step1-2).これまでの分析では,画像表示可能と判断されたものだけを対象にしてきたが,本章では,そもそも画像表示可能,あるいは,不可能と判断された語義はどのような特徴を持つのかを調査する.まず,\refsec{sec:pos-cannot}では品詞との関係について,\refsec{sec:iz-cannot}では意味クラスとの関係について定量的に調査する.また,\refsec{sec:ex-cannot}では,画像表示不可能な語義の傾向について述べる.\subsection{品詞と画像表示可能/不可能の関係}\label{sec:pos-cannot}本章では,品詞と画像表示可能/不可能と判断された語義の関係について述べる.図~\ref{fig:pos-cannot}に,画像表示が可能,あるいは,不可能と判断された語義の品詞毎の割合を示す.どの品詞でも「可能」と判定された語義が最も多くなった.特に,動詞は97.8\%が「可能」と判断されており,\izs{2:具体}配下の名詞よりも割合が高い.最も「可能」と判断された語義の割合が少なかったのは,副詞類だが,それでも60.1\%は「可能」と判断されている.ただし,本実験は,できるかぎり画像を付与するという方針で行なっているため,画像表示が「可能」と判断されていても,適合度が高い画像が獲得できているとは限らない.そこで,画像表示可能と判定された語義に付与された画像のうち,評価値が5(適切),および,4(適合度\_高)と評価された画像の枚数を図~\ref{fig:eva4-5}に示した.評価の高い画像を多く獲得できているということは,それだけ画像付与が容易な語義であるといえる.実験では,30枚の検索結果から,各語義につき5枚ずつ,評価の高い画像から獲得するようにしており,最大獲得枚数は5枚である.図~\ref{fig:eva4-5}からは,\izs{1000:抽象}配下の名詞,形容詞類,副詞類の場合,評価値4以上の画像が1枚も獲得できていない語義が最も多いことがわかる.\begin{figure}[b]\begin{minipage}[t]{188pt}\setlength{\captionwidth}{186pt}\includegraphics{20-2ia7f11.eps}\hangcaption{画像表示可能/不可能と判断された語義の割合}\label{fig:pos-cannot}\end{minipage}\hfill\begin{minipage}[t]{184pt}\setlength{\captionwidth}{182pt}\includegraphics{20-2ia7f12.eps}\hangcaption{画像表示可能な語義に付与された画像のうち,評価値が4(適合度\_高)以上の画像の枚数}\label{fig:eva4-5}\end{minipage}\vspace{-0.5\Cvs}\end{figure}評価自体は作業者によってゆれがあるため,各画像について評価値毎の詳細な区別は難しい\footnote{ランダムに選択した100語義500画像の適合度評価について,二人の作業者間の一致率を調べたところ,Cohenの重み付きkappa係数は0.602となり実質的に一致しているといえた.}.しかし,このように評価値の高い画像が何枚とれたか,という観点でみると,品詞と,画像としての表現しやすさとの傾向が良くわかる.「可能」か「不可能」かという点だけをみると,動詞は非常に「可能」の割合が高いが,評価値が4の画像が5枚獲得されているのは,24.0\%のみである.図~\ref{fig:eva4-5}から,評価値の高い画像が獲得できている品詞は,順に,名詞(\izs{2:具体}),名詞(両方含む),サ変名詞,動詞,副詞類,名詞(\izs{1000:抽象}),形容詞類となる.\subsection{意味クラスと画像表示可能/不可能の関係}\label{sec:iz-cannot}\refsec{sec:pos-cannot}では,品詞と画像表示可能/不可能の関係について調べた.ただし,名詞は,\izs{2:具体}配下か,\izs{1000:抽象}配下か,その両方を含むか,によって分割している.しかし,意味クラスは2,710クラス存在しており,本章では,さらに詳細な意味クラスとの関係を調査する.本章では,各語義に付与された意味クラス毎に,その語義が「可能」「不可能」と判断された数をカウントする.ただし,各語義に複数の意味クラスが付与されている場合,すべての意味クラスでカウントしている.例えば,アーチ$_1$の場合,\izs{865:家屋(本体)}と\izs{2435:類型}が付与されているため,両方でカウントする.50回以上利用されている意味クラスの中で,属する語義が「可能」あるいは「不可能」と判断されている割合を調べた.その結果,すべての語義が「可能」と判断された意味クラスは,\izs{2:具体}配下では,\izs{677:作物},\izs{818:衣服(本体)},\izs{920:出版物}などの23クラス,\izs{1000:抽象}配下では\izs{1048:絵画},\izs{2360:天気},\izs{2498:構造}などの7クラスだった.なお,すべての語義が「不可能」と判断された意味クラスはなかった.このことから,画像表示が不可能な語義を,属する意味クラスのみから判定することは難しいが,逆に,いくつかの意味クラスに関しては,新規の語義であっても,画像表示が可能である可能性は高いといえる.また,個別の意味クラスだけでなく,配下のすべての意味クラスで,属する語義がすべて「可能」と判断されている場合もある.表~\ref{tb:cats-cannot}に,配下の意味クラスに属する語義すべてが画像表示可能と判断された意味クラスを列挙した\footnote{なお,同様にすべてが画像表示不可能と判断された意味クラスはなかった.}.こうした意味クラスには,\izs{838:食料},\izs{671:植物},\izs{925:目印・象徴物}などが存在する.画像表示可能かどうかの判別には,個別の意味クラスだけでなく,こうした階層構造も重要だろう.\begin{table}[p]\hangcaption{配下のすべての意味クラスに属する語義が,画像表示可能と判断された意味クラス(累計100回以上出現する意味クラスのみ)}\label{tb:cats-cannot}\input{07table07.txt}\end{table}\subsection{画像表示不可能な語義の傾向}\label{sec:ex-cannot}画像表示不可能と判断された語義として,作業者から報告された語義の傾向は以下の通りである.\begin{enumerate}\item否定的な意味をもつ語義\item[例]「干す$_4$」\gogi{仕事などを与えない.}\\「無給$_1$」\gogi{給料が無いこと.給料を支給しないこと.}\item言語表現\item[例]「悪しからず$_1$」\gogi{悪く思わないで.よろしく.相手の気持ちを考えないで物事をしたときなどに了承を得るために使う言葉.}\item仮定表現\item[例]「ひょっとしたら$_1$」\gogi{もしかすると.ひょっとすると.}\item相対表現\item[例]「絶品$_1$」\gogi{比べるものが無いほど優れた品物や作品.}\\「別件$_1$」\gogi{別の用件.別の事件.}\item内容を厳密には表せない語義(\ul{下線部}の意味が画像で表現できない)\item[例]「だて眼鏡$_1$」\gogi{\ul{実際には掛ける必要が無いのに}、お洒落のために掛ける眼鏡.}\\「テストパイロット$_1$」\gogi{新しく製造された航空機の\ul{試験飛行をする}パイロット.}\end{enumerate}画像表示不可能な語義かどうかの判別の自動化の可能性について考えてみると,上記(5)の「だて眼鏡$_1$」「テストパイロット$_1$」のような語義では,自動化は困難だと思われる.一方,上記(1)から(4)については,語義文からある程度の手がかりは獲得できるかもしれない.例えば,(2)にあたるものとして,上位語が「言葉」や「語」の語義は「不可能」と判断される可能性が高いかもしれない.実際に「不可能」とされたのは,本稿での対象語のうち上位語が「言葉」である語義の11.0\%\footnote{上位語が「言葉」の語義で,「可能」と判断されたのは,「お世辞$_1$」「見出し$_1$」「歌詞$_2$」「気障$_1$」など.逆に「不可能」と判断されたのは,「一言$_2$」「禁句$_2$」「殺し文句$_1$」「片言$_1$」など.},「語」である語義の25.7\%\footnote{上位語が「語」の語義で,「可能」と判断されたのは,「謙譲語$_1$」「流行語$_1$」「反意語$_1$」「結び$_3$」など.逆に「不可能」と判断されたのは,「ご存じ$_1$」「良く$_5$」「むしろ$_1$」「何なら$_1$」など.}だった.この割合は,全体の割合に比べればかなり高いが(図~\ref{fig:pos-cannot}),必ず「不可能」と判断されたわけでもない.なお,これらの語義で,「可能」と判断された語義には,その語が利用される典型的なシーンの画像が付与されることが多かった.\subsection{画像の多様性}\label{sec:disc-diver}本章ではこれまで画像表示が可能かどうか,といった観点で調べてきたが,「可能」と判断された語義の中にも,一つの画像だけでなく,多様な画像が求められる場合がある.例えば,同じ\izs{537:獣}という意味クラスに含まれる語であっても,「シロナガスクジラ$_1$」ならシロナガスクジラの画像のみだが,「家畜$_1$」は,豚,鶏,牛など,複数種類の動物の画像が付与されている.どれか一種類の動物の画像だけであれば,「家畜$_1$」がその動物を指すのだという誤解を招くおそれがあるが,複数種類の動物の画像を付与することで,これらすべてを含むような概念であるとわかる.また,「牛$_1$」のような場合でも,細分類すると,白黒の斑のあるホルスタイン種,茶色いジャージー種,黒毛の和牛など様々な種類があり,本実験においても出来る限り多くの種類の画像が付与されている.このように,一つの語義に対して複数の画像を付与するのは,イメージの固定化を防ぎ\cite{Suwa:Miyabe:Yoshino:2012j},対象語義の範囲を示す上で重要だと思われる.また,より具体的な下位概念の方が適切な画像を付与しやすい場合も多い.作業者によって検索語に追加された語に,対象語義を典型的と思われる事物や用法に具体化するための語句が多く含まれたのもそのためだろう(\refsec{sec:ana-add-fixed}).\cite{Popescu:Millet:etc:2007}では,\WN{}のある対象synset配下のリーフノードのみを画像付与の対象にしており,上位synsetは上下関係から間接的にカバーされると述べられている.同様に,動植物など一部の上下関係に対しては,より具体性の高い下位語義(概念)に対して画像を付与し,上位概念はその集合として扱うことも可能かもしれない.こうした方法は,作業量の削減や画像の多様性確保に効果がある可能性がある.ただし,抽象的な概念への適用はかなり難しいと考えられるため,適用範囲に注意する必要がある.
\section{まとめと今後の課題}
\label{sec:conclusion}画像が付与された辞書は,教育分野や言語横断検索での利用,子供や異なる言語の話者,文字の認識に困難を伴うような人とのコミュニケーションを助けるツールの構築,セマンティックギャップを埋めるための研究利用など,様々な用途が考えられる.作成・維持コストを考えれば,なるべく自動的に画像を付与することが望ましいが,大量の辞書エントリに対して,高い精度で画像を付与することは容易ではない.また,そもそもどういった語義には画像を付与できるのか,あるいはできないのかといった調査が大規模になされた例はなく,画像が付与できる語義を自動的に判別することも困難である.そこで,まず語義別に画像が付与された辞書を人手で構築することを第一の目標とした.幅広い語義に適切な画像を付与するため,インターネットから画像検索によって画像を獲得する.そこで,語義毎に適切な画像を得るための検索語を調査することを第二の目標とした.さらに,本稿では検索語セットの優先順位の決定方法も提案した.今後の作成・維持コストや,新しい辞書への適用を考えると,人手による画像付与ができない場合でも,優先順位の高い検索語セットによる検索結果が利用できれば,有用だと考えられるからである.そのため,提案した優先順位の決定方法の妥当性を示すことを第三の目標とした.まず第一の目標に関して,本稿全体では,辞書\lxd{}の名詞,動詞,形容詞,副詞類の25,481語,39,251語義を対象として,画像付与実験を行なった.その結果,対象語義全体の94.0\%に画像付与が可能と判断され,画像が付与できた.構築した辞書を用いて,\ref{sec:ana-cannot}章では,画像付与が可能/不可能な語義の特徴を,品詞との関係や意味クラスとの関係に着目して調査した.品詞との関係では,語義との適合度が高い画像が獲得できた品詞は,順に,名詞(\izs{2:具体}),名詞(両方含む),サ変名詞,動詞,副詞類,名詞(\izs{1000:抽象}),形容詞類であることを示した.意味クラスとの関係分析では,意味クラスによってはほぼ確実に画像付与可能なクラスが存在し,さらに,画像付与が可能かどうかの判断には階層構造も考慮することが有効だと思われることを示した.第二,第三の目標は,辞書の構築過程に関係している.本稿では,語義毎に,上位語や同義語,例文中の語など,辞書から得られる様々な語を用いた検索語セットを用意し,それらに優先順位を付与する手法を提案した.提案手法では,対象語義が単義語や多義語のメジャーな語義の場合には代表表記のみを利用した検索語セットを優先させ,それ以外の語義の場合は同義語によって拡張した検索語セットを優先させた.本稿では,用意した検索語セットによる検索結果を作業者に提示し,最も適切な検索語セットを選択してもらった.ここで,2通りの提示方法を試すことで,デフォルトとして自動的な検索結果を表示する場合でも,最も優先順位の高い検索語セットによる検索結果を利用することが妥当であることを示した(\ref{sec:ana-rand-best}章,第三の目標).第二の目標に関しては,最終的に作業者によって選択された検索語を分析することで改良点を探った(\ref{sec:all-lxd-analysis}章).その結果,同義語類,分野情報は検索語として選択されやすいことや,メジャーな語義かどうかによって優先順位の決定方法を改良すればよいことがわかった.こうした知見は,今後追加されるエントリや,新しい辞書への適用時に有効である.また,検索語については更に2種類の分析をおこなった.まず,適切な検索語セットが候補にない場合に,追加・修正された検索語の分析を行なった.その結果,追加された検索語には,「イラスト」や「イメージ」など,語自体が図や画を想起させる語や,典型的と思われる事物や用法に具体化するための語が多く含まれることがわかった.さらに,多義語であるにも関わらず,代表表記のみが検索語として利用された語義は,少なくとも画像検索においては最頻語義だと考えられるという点に着目し,こうした語義のセンスバンクでの出現率,語義親密度との関連性についても分析した.その結果,センスバンクでの出現率や語義親密度と,画像検索における最頻語義は相関関係があるが,完全一致ではなく,画像として表現しやすいか,画像として残されやすいかどうか,という条件を加味しなければ,画像検索における最頻語義を正確に推定することは困難であることがわかった.このように,本稿では,様々な品詞を含む幅広い語義に対して画像を付与する実験と分析を行なった.今後はさらに,画像研究者と協力し,色や輪郭などの画像自体の特徴と言語的特徴の両面から,語義と画像の関係分析を行なっていきたい.また,提案した検索語セットは,語義曖昧性解消のための学習データ獲得にも利用できるかもしれない.例えば,単義の同義語によって検索語を拡張し,Web検索によって得られた文を訓練データとして利用する方法も提案されている\cite{Mihalcea:Moldovan:1999,Agirre:Martinez:2000}.同様に,本稿での提案手法によって優先順位が高くなった検索語セットや,作業者によって選ばれた検索語セットを用いて\footnote{ただし,作業者によって追加された語で,「イメージ」のように画像検索特有だと思われる語を除く必要はある.}学習データを獲得した場合,語義曖昧性解消の精度向上に貢献できるかどうか調査したい.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Agirre\BBA\Martinez}{Agirre\BBA\Martinez}{2000}]{Agirre:Martinez:2000}Agirre,E.\BBACOMMA\\BBA\Martinez,D.\BBOP2000\BBCP.\newblock\BBOQ{ExploringAutomaticWordSenseDisambiguationwithDecisionListsandtheWeb.}\BBCQ\\newblockIn{\BemProceedingsofCOLING-2010WorkshoponSemanticAnnotationAndIntelligent},\mbox{\BPGS\11--19}.\bibitem[\protect\BCAY{天野\JBA小林}{天野\JBA小林}{2008}]{Amano:Kobayashi:2008j}天野成昭\JBA小林哲生\BBOP2008\BBCP.\newblock\Jem{基本語データベース:語義別単語親密度}.\newblock学習研究社.\bibitem[\protect\BCAY{Bondet~al.}{Bondet~al.}{2006}]{Bond:Fujita:Tanaka:2006}Bond,F.,Fujita,S.,\BBA\Tanaka,T.\BBOP2006\BBCP.\newblock\BBOQ{TheHinokiSyntacticandSemanticTreebankofJapanese.}\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf40}(3--4),\mbox{\BPGS\253--261}.\newblock(SpecialissueonAsianlanguagetechnology).\bibitem[\protect\BCAY{Bondet~al.}{Bondet~al.}{2009}]{Bond:Isahara:Fujita:Uchimoto:Kuribayashi:Kanzaki:2009}Bond,F.,Isahara,H.,Fujita,S.,Uchimoto,K.,Kuribayashi,T.,\BBA\Kanzaki,K.\BBOP2009\BBCP.\newblock\BBOQ{EnhancingtheJapaneseWordNet.}\BBCQ\\newblockIn{\BemProceedingsoftheJointconferenceofthe47thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAsianFederationofNaturalLanguageProcessing:ACL-IJCNLP-2009},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Bondet~al.}{Bondet~al.}{2004}]{Bond:Nichols:Fujita:Tanaka:2004}Bond,F.,Nichols,E.,Fujita,S.,\BBA\Tanaka,T.\BBOP2004\BBCP.\newblock\BBOQ{AcquiringanOntologyforaFundamentalVocabulary.}\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics:COLING-2004},\mbox{\BPGS\1319--1325},\Geneva.\bibitem[\protect\BCAY{Bormanet~al.}{Bormanet~al.}{2005}]{PicNet}Borman,A.,Mihalcea,R.,\BBA\Tarau,P.\BBOP2005\BBCP.\newblock\BBOQ{PicNet:PictorialRepresentationsforIllustratedSemanticNetworks.}\BBCQ\\newblockIn{\BemProceedingsoftheAAAISpringSymposiumonKnowledgeCollectionfromVolunteerContributors}.\bibitem[\protect\BCAY{Denget~al.}{Denget~al.}{2009}]{ImageNet}Deng,J.,Dong,W.,Socher,R.,Li,L.-J.,Li,K.,\BBA\Fei-Fei,L.\BBOP2009\BBCP.\newblock\BBOQ{ImageNet:ALarge-ScaleHierarchicalImageDatabase.}\BBCQ\\newblockIn{\BemIEEEComputerVisionandPatternRecognition(CVPR)},pp.248--155.\bibitem[\protect\BCAY{Fang\BBA\Zhai}{Fang\BBA\Zhai}{2006}]{Fang:Zhai:2006}Fang,H.\BBACOMMA\\BBA\Zhai,C.\BBOP2006\BBCP.\newblock\BBOQSemantictermmatchinginaxiomaticapproachestoinformationretrieval.\BBCQ\\newblockIn{\BemProceedingsofthe29thannualinternationalACMSIGIRconferenceonResearchanddevelopmentininformationretrieval},SIGIR'06,\mbox{\BPGS\115--122},ACM.\bibitem[\protect\BCAY{Fellbaum}{Fellbaum}{1998}]{_Fellbaum:1998}Fellbaum,C.\BED\\BBOP1998\BBCP.\newblock{\Bem{WordNet}:AnElectronicLexicalDatabase}.\newblockMITPress.\bibitem[\protect\BCAY{Fujii\BBA\Ishikawa}{Fujii\BBA\Ishikawa}{2005}]{Fujii:Ishikawa:2005a}Fujii,A.\BBACOMMA\\BBA\Ishikawa,T.\BBOP2005\BBCP.\newblock\BBOQ{ImageRetrievalandDisambiguationforEncyclopedicWebSearch.}\BBCQ\\newblockIn{\BemProceedingsoftheInternationalJointConferenceonArtificialIntelligence:IJCAI-2005},\mbox{\BPGS\1598--1599}.\bibitem[\protect\BCAY{Fujita\BBA\Nagata}{Fujita\BBA\Nagata}{2010}]{Fujita:Nagata:2010}Fujita,S.\BBACOMMA\\BBA\Nagata,M.\BBOP2010\BBCP.\newblock\BBOQEnrichingDictionarieswithImagesfromtheInternet-TargetingWikipediaandaJapaneseSemanticLexicon:Lexeed-.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalConferenceonComputationalLinguistics:COLING-2010},\mbox{\BPGS\331--339},\Beijing,China.\bibitem[\protect\BCAY{{Goldberget~al.}}{{Goldberget~al.}}{2009}]{Goldberg:Rosin:Zhu:Dyer:2009}{Goldberg,A.~B.,Rosin,J.,Zhu,X.andDyer,C.~R.}\BBOP2009\BBCP.\newblock\BBOQTowardText-to-PictureSynthesis.\BBCQ\\newblockIn{\BemNIPS2009Mini-SymposiaonAssistiveMachineLearningforPeoplewithDisabilities}.\bibitem[\protect\BCAY{林\Jetal}{林\Jetal}{2012}]{Hayashi:Bora:Nagata:2012j}林良彦\JBA永田昌明\JBAサワシュ・ボラ\BBOP2012\BBCP.\newblock言語横断情報検索における画像手がかりを用いたインタラクティブな翻訳曖昧性解消の評価.\newblock\Jem{情報処理学会論文誌データベース},{\Bbf5}(2),\mbox{\BPGS\26--35}.\bibitem[\protect\BCAY{井手\JBA柳井}{井手\JBA柳井}{2009}]{Ide:Yanai:2009j}井手一郎\JBA柳井啓司\BBOP2009\BBCP.\newblockセマンティックギャップを越えて:画像・映像の内容理解に向けて.\\newblock\Jem{人工知能学会誌},{\Bbf24}(5),\mbox{\BPGS\i--ii,691--699}.\bibitem[\protect\BCAY{池原\Jetal}{池原\Jetal}{1997}]{GoiTaikeij}池原悟\JBA宮崎雅弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{海野\Jetal}{海野\Jetal}{2008}]{Unno:Miyao:Tsujii:2008j}海野裕也\JBA宮尾祐介\JBA辻井潤一\BBOP2008\BBCP.\newblock自動獲得された言い換え表現を使った情報検索.\\newblock\Jem{言語処理学会第14回年次大会(NLP-2008)},\mbox{\BPGS\123--126}.\bibitem[\protect\BCAY{Mihalcea\BBA\Leong}{Mihalcea\BBA\Leong}{2008}]{Mihalcea:Leong:2008}Mihalcea,R.\BBACOMMA\\BBA\Leong,C.~W.\BBOP2008\BBCP.\newblock\BBOQTowardcommunicatingsimplesentencesusingpictorialrepresentations.\BBCQ\\newblock{\BemMachineTranslation},{\Bbf22}(3),\mbox{\BPGS\153--173}.\bibitem[\protect\BCAY{Mihalcea\BBA\Moldovan}{Mihalcea\BBA\Moldovan}{1999}]{Mihalcea:Moldovan:1999}Mihalcea,R.\BBACOMMA\\BBA\Moldovan,D.\BBOP1999\BBCP.\newblock\BBOQ{AnAutomaticMethodforGeneratingSenseTaggedCorpora.}\BBCQ\\newblockIn{\BemProceedingsoftheAmericanAssociationforArtificialIntelligence(AAAI-1999)},\mbox{\BPGS\461--466}.\bibitem[\protect\BCAY{Nicholset~al.}{Nicholset~al.}{2006}]{Nichols:Bond:Tanaka:Fujita:Flickinger:2006}Nichols,E.,Bond,F.,Tanaka,T.,Fujita,S.,\BBA\Flickinger,D.\BBOP2006\BBCP.\newblock\BBOQ{RobustOntologyAcquisitionfromMultipleSources.}\BBCQ\\newblockIn{\BemProceedingsofCOLING-20062ndWorkshoponOntologyLearningandPopulation:BridgingtheGapbetweenTextandKnowledge},\mbox{\BPGS\10--17},\Sydney.\bibitem[\protect\BCAY{Popescuet~al.}{Popescuet~al.}{2007}]{Popescu:Millet:etc:2007}Popescu,A.,Millet,C.,\BBA\Mo{\"e}llic,P.-A.\BBOP2007\BBCP.\newblock\BBOQOntologyDrivenContentBasedImageRetrieval.\BBCQ\\newblockIn{\BemProceedingsoftheACMInternationalConferenceonImageandVideoRetrieval},pp.387--394.\bibitem[\protect\BCAY{Popescuet~al.}{Popescuet~al.}{2006}]{Popescu:Millet:etc:2006}Popescu,A.,Millet,C.,Mo{\"{e}}llic,P.-A.,\BBA\H{\`{e}}de,P.\BBOP2006\BBCP.\newblock\BBOQAutomaticConstructionofaGroundedMultimediaOntologyofObjectstoIllustrateConceptsinaLearningProcess.\BBCQ\\newblockIn{\BemNETTIES2006Conference:AdvancedEducationalTechnologiesforaFuturee-Europe}.\bibitem[\protect\BCAY{白井}{白井}{2003}]{Shirai:2003j}白井清昭\BBOP2003\BBCP.\newblock{SENSEVAL-2}日本語辞書タスク.\\newblock\Jem{自然言語処理},{\Bbf10}(3),\mbox{\BPGS\3--24}.\bibitem[\protect\BCAY{諏訪\Jetal}{諏訪\Jetal}{2012}]{Suwa:Miyabe:Yoshino:2012j}諏訪智大\JBA宮部真衣\JBA吉野孝\BBOP2012\BBCP.\newblockWebページにおける文化差可視化システムの開発.\\newblock\Jem{平成24年情報処理学会関西支部大会},E-14,pp.1--4..\bibitem[\protect\BCAY{徳永}{徳永}{1999}]{Tokunaga:1999j}徳永健伸\BBOP1999\BBCP.\newblock\Jem{情報検索と言語処理},\Jem{言語と計算シリーズ},5\JVOL.\newblock東京大学出版会.\bibitem[\protect\BCAY{Voorhees}{Voorhees}{1994}]{Voorhees:1994}Voorhees,E.~M.\BBOP1994\BBCP.\newblock\BBOQQueryExpansionusingLexical-SemanticRelations.\BBCQ\\newblockIn{\Bemthe17thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformaionRetrieval},\mbox{\BPGS\61--69}.\bibitem[\protect\BCAY{Zingeret~al.}{Zingeret~al.}{2006}]{Zinger:Millet:etc:2006}Zinger,S.,Millet,C.,Mathieu,B.,Grefenstette,G.,H{\`e}de,P.,\BBA\Mo{\"e}llic,P.-A.\BBOP2006\BBCP.\newblock\BBOQClusteringandsemanticallyfilteringwebimagestocreatealarge-scaleimageontology.\BBCQ\\newblockIn{\Bem{SPIE18thAnnualSymposiumElectronicImaging,InternetImagingVII}},\lowercase{\BVOL}\6061,\mbox{\BPGS\89--97}.\end{thebibliography}\begin{biography}\bioauthor{藤田早苗}{1999年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年,NTT日本電信電話株式会社入社.現在,コミュニケーション科学基礎研究所研究主任.工学博士.自然言語処理の研究に従事.言語処理学会,ACL各会員.}\bioauthor{平博順}{1994年東京大学理学部化学科卒業.1996年同大学院修士課程修了.同年,日本電信電話株式会社入社,2002年奈良先端大学院大学情報学専攻博士後期課程修了.博士(工学).2005年〜2007年株式会社NTTデータ技術開発本部.現在,NTTコミュニケーション科学基礎研究所研究主任.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{永田昌明}{1987年京都大学大学院工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,コミュニケーション科学研究所主幹研究員(上席特別研究員).工学博士.統計的自然言語処理の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
| |
V24N02-01 | \section{序論}
\label{sec:introduction}自然言語処理において高度な意味処理を実現する上で,同義語の自動獲得は重要な課題である\cite{inui}.例えば,近年の検索エンジンのクエリ拡張においては同義語辞書が用いられている\cite{utsumi}が,新出単語に対し全て人手で同義語辞書を整備することは現実的ではない.同義語の獲得には様々な手法が提案されている.例えば笠原ら\cite{kato}は国語辞典を用いて,見出し語に対して語義文により単語のベクトルを作成した後,シソーラスにより次元圧縮を行う方法で同義語の獲得を行った.また,渡部ら(渡部,Bollegala,松尾,石塚2008)は,\nocite{watanabe}検索エンジンを用いて,同義対を共に含むようなパターンを抽出し,得られたパターンから同義語の候補を得るという手法で同義語の抽出を行い,係り受け解析を行わずとも既存手法と同様の性能が得られることを示した.一方,これらの研究とは異なり「同じ文脈に現れる単語は類似した意味を持つ」という分布仮説(distributionalhypothesis)\cite{harris}に基づいたアプローチも存在する.実際に文脈情報が同義語獲得に有用であるとの報告\cite{hagiwara}もあり,加えてその他の手法と組み合わせて使用することが可能であるという利点もある.そこで,本研究では文脈情報を用いたアプローチを検討する.文脈情報の獲得にも手法が多数存在するが,近年では,分布仮説に基づきニューラルネットワーク的な手法を用いて単語の``意味''を表すベクトル(単語ベクトル)を求めるSkip-gramモデル\cite{mikolov1}が注目されている.Skip-gramモデルで得られた単語ベクトルを利用するとコサイン類似度により単語の意味の類似度が計算できることが知られており,その性能は既存手法より良いという報告\cite{roy}もある.しかし,Skip-gramモデルでは周辺単語の品詞や語順を無視したものを文脈情報として用いており,有用な情報を無視している可能性がある.実際に既存のSkip-gramモデルでは同義語獲得に失敗する例として,「カタカナ語」と「和語」からなる同義語対の場合,コサイン類似度が低くなることなどが知られており\cite{joko},改善が望まれる.そこで,本研究では,Skip-gramを拡張し,周辺単語の品詞情報や語順情報を取り込み可能なモデル(文脈限定Skip-gram)を提案する.文脈限定Skip-gramでは,既存のSkip-gramと違い,周辺の単語のうち,ある条件を満たすもの(特定の単語分類属性(品詞等)や特定の相対位置)のみを文脈として利用し,単語ベクトルを学習する.たとえば,「カタカナ語」あるいは「カタカナ語」ではないもの(これを「非カタカナ語」と呼ぶ)のみに周辺単語を限定することによって,周辺の「カタカナ語」あるいは「非カタカナ語」との関係を強く反映した単語ベクトルを学習することができる.そして,そのような様々な限定条件ごとに単語ベクトル及びコサイン類似度を計算し,それらを線形サポートベクトルマシン(SVM)と同義対データを用いた教師あり学習による合成することで,同義語獲得を行った.その結果,日本語の言語特性を適切に抽出して利用できていることがわかった.たとえば,同義語の獲得精度が一番高かったモデルにおいては,「非カタカナ語」および「直後の単語」などの特定の限定条件から得られたコサイン類似度への重みが大きいことがわかった.また,これらの限定条件への重みを大きくすることは,既存のSkip-gramモデルでは獲得が難しかった「カタカナ語」と「和語」からなる同義対の獲得の精度へ大きな影響をあたえることもわかった.本論文の構成は以下のとおりである.第\ref{sec:related-work}節では,関連研究について述べる.第\ref{sec:method}節では,提案手法について述べる.\ref{subsec:method:skipgram}節では,既存のSkip-gramモデルについて概説し,\ref{subsec:method:limited-skipgram}節では,提案する文脈限定Skip-gramモデルについて説明する.第\ref{sec:data-and-preexperiment}節では,使用データと予備実験について述べる.\ref{subsec:ex:data}節では実験に使用したコーパス及び同義語対/非同義語対の教師データ作成方法について,\ref{preliminary-experiment}節ではSkip-gramにおける設定とSVMの素性作成方法に関する予備実験について述べる.第\ref{sec:experiment}節では提案手法による結果を示し,有効性を議論する.最後に第\ref{sec:conclusion}節において結論を述べる.
\section{関連研究}
\label{sec:related-work}同義語の自動推定には様々な手法が存在する.笠原ら\citeyear{kato}は,第\ref{sec:introduction}節に述べたように,国語辞典の語義文と大規模なシソーラスを用いて単語ベクトルを作成し,同義語の獲得を行った.また,渡部ら\citeyear{watanabe}は,検索エンジンを用いて同義対(X,Y)を共に含むようなパターンを抽出した後に,得られたパターンから同義対の候補を抽出し順位付けを行うことで,同義対(と関連語)を獲得し,係り受け解析を行わずとも既存手法と同様の性能が得られることを示した.これらの手法では,同義語の推定に,何らかの単語の素性を使用している.例えば,笠原ら\citeyear{kato}はVSM(ベクトル空間モデル)を使用しており,渡部ら\citeyear{watanabe}は同義対を共に含むようなパターンを使用している.笠原ら\citeyear{kato}のような文章中の単語の出現頻度のみを用いたVSMは,語の位置関係を無視し(必然的に,周辺文脈を無視し)ているが,特異値分解やシソーラスなどによる次元圧縮手法が適用可能であり,スパースネスなどの問題を緩和できるという利点を持つ.また,渡部ら\citeyear{watanabe}の手法は,パターンを事前に獲得しておくことで新出の同義語を新たに学習すること無く獲得できるという利点がある.これらの素性による同義語獲得は一定の成果を上げているものの,精度の面においてはまだ課題が残る.一方,第\ref{sec:introduction}節において述べたように,文脈情報からニューラルネットワーク的な手法を用いて単語の``意味''を表すベクトル(単語ベクトル)を求める手法が,その高い意味獲得精度から注目されている\cite{roy}.文脈情報から単語ベクトルを獲得する研究には様々なものがある.周辺単語の相対位置や語順に着目したものとしてはLingetal.\cite{ling}のものや,Trasketal.\cite{trask}のものが挙げられる.Lingetal.\citeyear{ling}は周辺単語の相対位置を考慮した重み付けを行うことで,Trasketal.\citeyear{trask}は単語の語順や文字列を利用したSkip-gramモデルを作成することで,文法構造をより反映する単語ベクトルが学習できることを示した.また,\citeA{ariga}は周辺単語から中心単語の言い換え表現を予測するタスクにおいて,周辺単語の語順を考慮して単語ベクトルを学習することで,精度が向上することを報告した.一方,周辺単語だけでなく,他の事前情報を加えた研究も存在する.例えば,\citeA{levy}は係り受け構造を考慮して,単語ベクトルの学習をし,意味の類似度判定テストでSkip-gramモデルより高い精度を報告した.\citeA{bian}は辞書などの意味情報を加えることで,\citeA{yu}は辞書情報とコーパスから単語ベクトルを同時に学習することで,意味の類似度判定テストの精度が高まることを示した.これらの研究は,周辺文脈に出現する単語の種類だけでなく,語順や係り受け構造などの条件を加え,その上で単語ベクトルを「同時に」学習することで単語ベクトルの質を高める研究である.このようなモデルそのものに様々な要因をまとめて組み込んで新たなモデルを構築する研究に対して,本研究では単語ベクトルを限定条件ごとに「個別に」学習し,その後,同義語を教師あり学習により獲得するアプローチを試みる.具体的には,第\ref{sec:introduction}節に述べたように様々な限定条件ごとの単語ベクトルを学習し,それらを線形SVMにて合成することで同義語の獲得を行う.提案手法では,線形SVMを用いた重み付けの際に,教師例として同義対を用いることから,「同義語の獲得」において重要なものの重みを学習する.そのため,線形SVMで学習された重みを見ることで,周辺単語が「同義語の獲得」に与える影響を知ることができる.このように,提案手法には高い解釈可能性がある.また,Skip-gramのモデル自体は変更せず,文脈限定関数で学習データを変更するだけで,利用する単語属性の追加や変更が可能であるという高い拡張可能性もある.これらの解釈可能性と拡張可能性の二点が,既存手法に対する提案手法の大きな優位点である.
\section{提案手法}
\label{sec:method}\subsection{既存のSkip-gramモデル}\label{subsec:method:skipgram}ここではSkip-gramモデル\cite{mikolov1}について概説する.Skip-gramモデルは,ニューラルネットワーク的な手法を用いて,コーパスの文脈情報から,各単語の単語ベクトルを学習する手法の一種である.Skip-gramモデルでは,ある単語$w_t$が文章内の位置$t$に存在した場合,その周辺単語$w_{t+j}(j\neq0)$の発生確率$p(w_{t+j}|w_t)$を以下の式で与える.\begin{equation}p(w_{t+j}|w_t)\proptoe^{v'(w_{t+j})^Tv(w_t)}\end{equation}ここで,ニューラルネットワークモデル的に言えば,$v(w)$はある入力単語(中心単語)$w$に依存した入力用ベクトル,$v'(w)$はある周辺単語$w$の出力確率を計算するための出力用ベクトルである.$v$および$v'$の次元は事前に与えられる.出力確率は,入力用ベクトルと出力用ベクトルの内積に依存し,内積が大きい程確率は高くなる.本論文では,わかりやすさのため,$v(w)$を単語$w$の単語ベクトル,$v'(w)$を文脈ベクトルと呼ぶことにする,なお,確率分布は$1$に正規化されるので,語彙に含まれるすべての単語$w$での正規化により,$p(w_{t+j}|w_t)$は以下で与えられる.\begin{equation}p(w_{t+j}|w_t)=\frac{e^{v'(w_{t+j})^Tv(w_t)}}{\sum_we^{v'(w)^Tv(w_t)}}\end{equation}さらに$p(w_{t+j}|w_t)$から,あるコーパスが与えられたときの尤度関数$\ell$を以下の式(\ref{eq:likelihood})で定義する.\begin{equation}\ell=\sum_{t=1}^T\sum_{-c\leqj\leqc,j\neq0}\logp(w_{t+j}|w_t)\label{eq:likelihood}\end{equation}ここで$T$はコーパスのサイズ,$c$は文脈窓サイズであり,$1\leqc\leqK$の範囲で一様分布でランダムに決定される.$K$は事前に与えられる最大文脈窓サイズである.実際のコーパスを利用して,$\ell$を最大化する単語ベクトル$v(w)$および文脈ベクトル$v'(w)$を求めることが,Skip-gramモデルにおける学習である.なお,本来のモデルは以上の通りであるが,尤度関数$\ell$をこのままの形で最大化することは,計算量等の問題で困難であるため,実際にはいくつかの近似が用いられる.例えば,\cite{mikolov1}では,階層的softmaxモデル近似が利用されているが,本論文では説明を省略する.\subsection{文脈限定Skip-gramモデル}\label{subsec:method:limited-skipgram}既存のSkip-gramモデルでは,周辺単語として,文脈窓の中に存在するすべての単語を利用している.そのため,周辺単語の種類,語順等の情報を利用することはできない.本研究では,文脈として利用される単語を限定することで,Skip-gramを改良する.なお,単語ベクトルの推定に文脈での語順を考慮した既存研究としては第\ref{sec:related-work}節に述べた有賀ら\cite{ariga}のものがあるが,本研究は,文脈間の依存関係を考慮していないという点において有賀らの研究とは異なる.文脈限定Skip-gramモデルでは,式\ref{eq:likelihood}の目的尤度関数$\ell$が以下のように変更される.\begin{equation}\ell=\sum_{t=1}^T\sum_{-c\leqj\leqc,j\neq0}\logp(w_{t+j}|w_t)\phi(w_{t+j},j)\label{eq:limited-likelihood}\end{equation}ここで,文脈限定関数$\phi(w_{t+j},j)$は,周辺単語$w_{t+j}$および相対位置$j$がある条件を満たす時のみ1となり,それ以外は0となる関数である.詳細は省略するが,式\ref{eq:limited-likelihood}は既存のSkip-gramと同様の方法で最大化することが可能である.なお,$w_{t+j}$と$j$に関係なく常に1となる文脈限定関数($\phi_{\rm{ALL}}$と呼ぶ)においては,式\ref{eq:limited-likelihood}は式\ref{eq:likelihood}と同一である.さて,本研究では,基本的な文脈限定関数$\phi(w_{t+j},j)$として,周辺単語の品詞,種類に依存した$\phi_{\rm{POS}}^{p}\left(w_{t+j}\right)$,周辺単語の左右に依存した$\phi_{\rm{LR}}^{p}\left(j\right)$,周辺単語の相対距離に依存した$\phi_{\rm{WO}}^{p}\left(j\right)$の3種類を用いる(これらの文脈限定関数をPOS,LR,WOと参照する).さらに,それらの組み合わせとして「POS-LR」「POS-WO」も利用する.$\phi_{\rm{POS}}^{p}\left(w\right)$は,単語$w$が品詞等のある分類属性を持つ時のみ1となる文脈限定関数である.本論文では,「副詞,助詞,動詞,名詞,固有名詞,形容詞,接頭詞,数,記号,カタカナ,非カタカナ」の計11個を分類属性として利用する.従って,$\phi_{\rm{POS}}^{1}\left(w\right),\ldots,\phi_{\rm{POS}}^{11}\left(w\right)$の11種類が存在する.$\phi_{\rm{LR}}^{p}\left(j\right)$は,$j$が正の時のみ1となる関数もしくは$j$が負の時のみ1となる関数である.具体的には$j$が正の時のみ1となる関数$\phi_{\rm{LR}}^{0}\left(j\right)$と,$j$が負の時のみ1となる関数$\phi_{\rm{LR}}^{1}\left(j\right)$の二つが存在する.これらは,周辺単語が右側にある場合と左側にある場合に対応している.$\phi_{\rm{WO}}^{p}\left(j\right)$は,$\phi_{\rm{LR}}^{p}\left(j\right)$のある種の拡張であり,$j=p$の時のみ1となる関数である.本論文では,前後10単語を対象とすることとした.したがって,,$p=-10,\ldots,-1,1,\ldots,10$として与えられ,文脈窓の特定の相対位置にある時のみに限定する20種類の関数となる.さらに,組み合わせにより,$\phi_{\rm{POS-LR}}^{pq}\left(w,j\right)=\phi_{\rm{POS}}^{p}\left(w\right)\phi_{\rm{LR}}^{q}\left(j\right)$および$\phi_{\rm{POS-WO}}^{pq}\left(w,j\right)=\phi_{\rm{POS}}^{p}\left(w\right)\phi_{\rm{WO}}^{q}\left(j\right)$として新たな文脈限定関数を構成可能である.表\ref{tb:context_size}に構成可能な文脈限定関数の個数一覧を示す.一つの文脈限定関数に関して一つのSkip-gramモデルが学習されるので,最大で,276個のモデルが利用可能である.なお,相対位置を全て区別するWO,POS-WOに関しては,元のSkip-gramと異なり,文脈窓サイズ$c$は常に最大値$K$をとるものとした.\begin{table}[b]\caption{文脈限定関数の個数一覧}\label{tb:context_size}\input{01table01.txt}\end{table}実際の同義語獲得を行う際には,学習された各Skip-gramモデルにおいて単語間のコサイン類似度を計算する(コサイン類似度を用いる理由は\ref{sec:pre-combine}節において後述する).本研究では,各モデルでの類似度を素性とみなし,教師データに基づいて,線形SVMで各々の素性に対する重みを学習することにより,判定関数を構築する.そのため,提案手法は教師なし学習のSkip-gramを教師あり学習により拡張しているといえる.更に,素性の重みについては線形SVMの値を利用するが,閾値についてはF値を最大化をするようなものを推定することで(F値最大化),さらなる最適化を行った.また,SVM使用の際には加算平均が0,分散が1となるように各素性の正規化処理を行った.
\section{使用データと予備実験}
\label{sec:data-and-preexperiment}\subsection{使用データ}\label{subsec:ex:data}単語ベクトル作成において用いたコーパスとして,日本語Wikipediaデータ\footnote{http://dumps.wikimedia.org/jawiki/,2015年6月5日取得}(2~Gbytes)をMeCab\footnote{http://taku910.github.io/mecab/}によりmecab-ipadic-neologd辞書\footnote{https://github.com/neologd/mecab-ipadic-neologd,2015年12月9日取得}を用いて基本形出力でわかち書きと品詞付与を行った後に,出現回数が100回未満の低頻度語を除いたものを使用した.最終的に,Skip-gramモデルで単語ベクトルが獲得された単語は104,630種類となった.ただし,同じ単語であっても品詞が異なるものは区別して扱った.Skip-gramモデル\footnote{https://code.google.com/p/word2vec/にてGoogleが公開している実装を使用した.}では,階層的softmaxモデルを用いて学習を行った.文脈限定Skip-gramの計算時間については,各々の文脈モデルは独立に学習していることから,計算時間はALL(既存Skip-gram)とモデル数を乗算した値で見積もることができる.実際には学習する回数が文脈限定により減少することから,各文脈限定モデルでは基本的にALLより学習時間が短くなり,計算時間は見積もりより短くなる.実際に全ての文脈限定Skip-gram($\mathrm{N}=300$)の学習に要したトータルの計算時間は,CPUとしてAMD1.4~GHzを用いて20スレッドの並列処理を行った場合,60時間程度であった.なお,ALL($\mathrm{N}=300$)の学習時間は2~時間程度である.また,一旦単語ベクトルの獲得を行えば,線形SVMの学習や個々の判定には長い時間は要さない.同義対の正例として,WordNet同義対データベース\footnote{http://nlpwww.nict.go.jp/wn-ja/jpn/downloads.htmlにてNICTが提供する,WordNet\cite{wordnet}を元に人手で作成された同義対データベースである.}に含まれる同義対を利用した.発生頻度が極端に低くSkip-gramで単語ベクトルの獲得できなかった単語を除き,最終的に5,848対を正例として用いた.負例(非同義対)としては,まず,単語ベクトルが獲得可能であった単語(\textless/s\textgreaterは除く)の中から,ランダムに作成した17,544対(正例の3倍)を利用した.更に,正例に含まれる単語群をランダムに組み合せることで作成した5,848対(正例と同数)を,負例として追加した.この負例の追加により,正例に含まれる特定の単語の出現のみによって同義対と誤判定してしまう問題を緩和した.SVMのパッケージとしてはWeka(SMO)とSVMlightを用いた.\subsection{予備実験}\label{preliminary-experiment}\subsubsection{文脈窓$K$と次元$N$の与える影響}\label{sec:pre-kn}提案手法に関する実験を行う前に,既存Skip-gram(ALL)における適切な文脈窓$K$と単語ベクトルの次元$N$を調べる目的で,$K$と$N$の違いによる同義語獲得性能の比較を行った.調査対象とした$K$は,1,2,3,4,5,6,7,8,9,10,20,30,50の13種類,$N$は100,200,300,500,1,000,1,500,2,000,2,500,3,000の9種類である.$K$を変更させた際は$N=300$に,$N$を変更させた際は$K=5$に固定した.また,同義語獲得においてはALLで獲得されたコサイン類似度を素性とし,F値が最大となるような閾値を調べ,その時のF値を結果として記した.実験結果を図\ref{fig:SGwindim}に示す.\begin{figure}[b]\begin{center}\includegraphics{24-2ia1f1.eps}\end{center}\caption{文脈窓のサイズ$K$と次元$N$による同義語獲得におけるF値の変化}\label{fig:SGwindim}\label{fig:img}\end{figure}実験結果からF-Measureは$K$が$2〜7$の時に高くなり,8以降は減少傾向にあることが分かった.また,$K=2$の時にF値が最大となったが,$2〜7$の間でのF値には大きな差がない.そこで,Skip-gramの結果が初期値に依存することを考え,\ref{sec:experiment}節の評価実験では,ALLを用いる際は$2〜7$の中間付近である$K=5$を用いることにした.単語ベクトルの次元$N$においては,100次元から500次元までは次元が高くなるにつれ,急激にF値が高くなるが,以降は伸びが緩やかとなり,1,500次元から3,000次元にかけてF値は下がる事がわかる.上記の結果から,1,000次元〜1,500次元が最適な次元数であることが分かった.そこで,\ref{sec:experiment}節の評価実験においては,計算時間を考慮しALLについては1,000次元としたものを用いる.\subsubsection{ベクトル結合方法の比較}\label{sec:pre-combine}第\ref{sec:introduction}節に述べたようにコサイン類似度に単語の意味の近さが表れるという報告があるが,本章では実際にコサイン類似度が線形SVMの素性の作成方法として妥当であることを同義語獲得性能の比較によって示す.単語ベクトルの結合方法には様々考えられる.例えば,\cite{oyama}では,異表記されている同一著者の判定問題において,著者の論文タイトルや共著者情報などから作成された単語のベクトルをSVMで判定している.Oyamaetal.\cite{oyama}の研究では素性の作成方法だけでなく,カーネルの変更によっても性能が高まることが示されている.そこで,予備実験では比較対象として単語ベクトルの要素をSVMの素性とし,同義語獲得を行った.具体的には,単語ベクトルの各々の要素を結合するもの(Combine)と乗算するもの(Multiplication)をSVMの素性とした.例えば,着目している単語対の単語ベクトルを$(a_1,a_2,a_3,...,a_N)$,$(b_1,b_2,b_3,...,b_N)$とすると,これらの単語ベクトルのCombineにより作成されたSVMの素性は$(a_1,a_2,a_3,...,a_N,b_1,b_2,b_3,...,b_N)$の$2N$次元となり,Multiplicationにより作成されたSVMの素性は$(a_1\timesb_1,a_2\timesb_2,a_3\timesb_3,...,a_N\timesb_N)$の$N$次元となる.SVMのカーネルにおいては線形カーネルの他に多項式カーネル\footnote{二次の多項式カーネルを用いた.}とRBFカーネル\footnote{$\gamma=0.01$とした.}を用いた.また,閾値の学習は\ref{subsec:method:limited-skipgram}節に述べたようにF値最大化を用いて行った.使用した組み合わせは以下の6つである.\begin{itemize}\itemCombine+線形カーネル\itemCombine+多項式カーネル(二次)\itemCombine+RBFカーネル\itemMultiplication+線形カーネル\itemMultiplication+多項式カーネル(二次)\itemMultiplication+RBFカーネル\end{itemize}また,単語ベクトル$v$(および文脈ベクトル$v'$)の次元は計算時間の関係から300とし,$K=5$とした.線形SVMを用いた同義語獲得に関しては,教師例のデータ量が29,240対(\ref{sec:pre-kn}節)と少なくオーバーフィットの可能性が考えられる.そのため,線形SVMによる同義語獲得の際には,5分割交差検定により,精度,再現率,F値を評価した.交差検定の分割はそれぞれの結果について同じであり,結果の比較が可能である.結果を表\ref{tb:SVMfeature}に示す.比較対象として,一番下の行に実験1の結果\ref{fig:SGwindim}における$K=5(N=300)$の結果を記した.``Combine+線形カーネル'',``Combine+RBFカーネル'',``Multiplication+RBFカーネル''においては正例(同義対)と負例(非同義対)を分離可能な超平面が作成できず,SVMが全てのデータを負例として識別するように学習したため,精度もF値も計算不能であった.F値が計算可能であった``Combine+多項式'',``Multiplication+線形'',``Multiplication+多項式''に関しても,コサイン類似度のF値を大幅に下回った.以上の結果から本論文においては素性の作成方法としてコサイン類似度を用いて分析を行うこととする.\begin{table}[t]\caption{SVMにおける素性作成方法や使用カーネルと同義語獲得精度の関係}\label{tb:SVMfeature}\input{01table02.txt}\end{table}
\section{実験結果}
\label{sec:experiment}ここでは,提案手法(文脈限定Skip-gram)による同義語獲得の性能の評価実験を行った.学習時における最大文脈窓サイズ$K$に関しては,文脈限定の無い既存Skip-gram(ALL)については\ref{sec:pre-kn}節に述べたように$K=5$とし,他のモデルに関しては学習対象になる周辺単語の数が減少することを考慮に入れ$K=10$とした.単語ベクトルの次元数$N$も\ref{sec:pre-kn}節に述べたようにALLのみ$N=1,000$とし,その他のモデルに関しては計算時間を考慮し$N=300$とした.ある文脈限定関数について一つの素性が対応する.本研究では,表\ref{tb:context_size}の文脈限定関数の組み合わせにより素性群を作成した.なお,すべての素性群は必ずALLを含むものとした.与えられた素性群について線形SVMで重みを学習した.\ref{sec:pre-combine}節と同様の理由で,線形SVMによる同義語獲得においては5分割交差検定により,精度,再現率,F値を評価した.交差検定の分割も,\ref{sec:pre-combine}節と同様にそれぞれの結果について同じである.\begin{table}[b]\caption{文脈限定Skip-gramによる同義語獲得精度の評価}\label{tb:proposed-result}\input{01table03.txt}\end{table}提案手法を用いた同義語獲得の結果を表\ref{tb:proposed-result}に示す.最初の5行は,ALLと一つのタイプの文脈限定関数群を組み合せた結果である\footnote{その他,別途モデル群にALLを含まない組合せも試したが,わずかに性能が上がる場合もあったものの,大幅な向上は見られなかったため,結果の表示は省略する.}.その次の行は,ALLと複数タイプの組み合わせ$2^5$の$32$通りの中で,F値が最も高くなった結果を表示している.ただし,十分に素性を含んでいるものに関してはF値の差がそれほど見られなかった.最後の行に,既存のSkip-gramモデルとの比較として,ALLのみを用いた結果を示した.表\ref{tb:proposed-result}において,ALLと一つのタイプのみの文脈限定関数を組み合わせた場合でも,「ALL+WO」「ALL+POS-LR」「ALL+POS-WO」で既存手法のF値を上回ることが示されている.これは,同義語獲得において,周辺単語の相対的な位置およびその品詞などの分類属性が,重要な情報であるということを示している.また,提案手法におけるF値最大となる組み合わせは,「ALL+POS-LR+POS-WO」であり,F値は0.792となった.これは既存手法の最大F値である0.712より高い.次に,本手法の解釈可能性の高さを実証するために,提案手法においてF値が最大であった「ALL+POS-LR+POS-WO」の組み合わせ(以後,「MAX」と参照)の線形SVMの重みについてのグラフを図\ref{fig:WOMAX-weight}から図\ref{fig:append-POS-LR}に示す.重みの値が大きければ同義対の判定に正の影響を,値が小さければ負の影響を与え,0であれば影響を及ぼさない.R1,L1などは中心単語から見た時の相対的位置が「右1つ目」,「左1つ目」であることを示している.\begin{figure}[b]\begin{center}\includegraphics{24-2ia1f2.eps}\end{center}\hangcaption{MAXにおける相対的位置ごとの重みの合計:各相対位置について,POS-WOにおける重みを,すべてのPOS分類属性に関して合計した値を示した.}\label{fig:WOMAX-weight}\end{figure}まず,図\ref{fig:WOMAX-weight}と図\ref{fig:POSMAX-weight}の考察を行う.図\ref{fig:WOMAX-weight}を見ると,中心単語の直後の単語が同義語獲得に大きな影響を及ぼしていることが分かる.また,影響の大きさは中心単語から離れれば離れるほど減っていくこともわかる.また,図\ref{fig:POSMAX-weight}からは,非カタカナ語の重みが他の分類属性と比較した時に一番大きいことが分かる.これは\ref{sec:introduction}節で述べたように非カタカナ語に注目することが重要であることを示している.\begin{figure}[b]\begin{center}\includegraphics{24-2ia1f3.eps}\end{center}\hangcaption{MAXにおける分類属性ごとの重みの合計:各POS分類属性について,POS-WOとPOS-LRにおける重みを,全ての相対位置(L,R,L1--L10,R1--R10)に関して合計した値を示した.}\label{fig:POSMAX-weight}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{24-2ia1f4.eps}\end{center}\hangcaption{MAXにおける左右に着目した相対的位置ごとの重みの合計:左側はLとL1からL10までのPOS-WOとPOS-LRにおける重みの合計を,右側はRとR1からR10までの合計を示した.すべてのPOS分類属性についても合計している.}\label{fig:append-LR}\end{figure}次に,図\ref{fig:append-LR}と図\ref{fig:append-POS-LR}の考察を行う.図\ref{fig:append-LR}から,一般に同義語獲得においては,右側(R,R1〜R10)の影響が左側(L,L1〜L10)の影響より大きいことがわかる.一方で,これを品詞ごとにわけたものが図\ref{fig:append-POS-LR}である.図\ref{fig:append-POS-LR}から,動詞や非カタカナ語に関しては右側にある単語の与える影響が大きいことがわかる.これは,全体として右側が与える影響が強い(図\ref{fig:append-LR})ことから,その性質を反映していると考えられる.一方,形容詞や接頭詞においては,左側にある単語の方が同義語獲得に大きな影響を与えることがわかる.これは,形容詞や接頭詞は修飾する単語の左側に付くことが多いためであると考えられる.このように,周辺単語の単語属性や相対位置をそれぞれ区別して扱うことで,日本語の性質を反映した同義語獲得が可能になると考えられる.\begin{figure}[b]\begin{center}\includegraphics{24-2ia1f5.eps}\end{center}\hangcaption{MAXにおける単語分類属性に着目した左右の相対位置ごとの重みの合計:POS分類属性ごとに左側(L,L1〜L10)と右側(R,R1〜R10)のPOS-WOとPOS-LRにおける重みを合計した値を示した.}\label{fig:append-POS-LR}\end{figure}\begin{table}[b]\begin{minipage}[t]{162pt}\setlength{\captionwidth}{162pt}\hangcaption{カタカナ語と和語からなる対の同義語獲得におけるALLとMAXの性能比較}\label{tb:katakana}\input{01table04.txt}\end{minipage}\hfill\begin{minipage}[t]{243pt}\setlength{\captionwidth}{243pt}\hangcaption{MAXにおいて獲得可能となった同義対のうちALLでの順位が低い対}\label{tb:katakana-synonym}\input{01table05.txt}\end{minipage}\end{table}さて,同義語獲得の具体的な問題として,第\ref{sec:introduction}節において,カタカナ語と和語からなる同義対のコサイン類似度が低くなるという報告があると述べた.そこで,提案手法でこの問題が解決されるかを調べた.そこで,ALLとMAXについて,カタカナ語と和語からなる対の同義語獲得問題に関する性能を比較した.正例の同義対の中で,対の片方がカタカナ語であり,もう一方が和語のものは,2,457対存在した.同様に負例は7,782対存在した.このデータセットを利用した性能比較の結果を表\ref{tb:katakana}に示す.既存手法ALLと比べ,提案手法MAXの精度,再現率は高い値を示している.また,具体的な成功例として,ALLでは非同義対と判定されMAXにて同義対と正しく判定されたもののうちALLでの順位が低いもの10例を表\ref{tb:katakana-synonym}に示す.一方,失敗例としてALLでは獲得できていたがMAXで獲得不可能になった同義対のうちALLでの順位が高いもの10例を表\ref{tb:MAX-cannot-acquire}に示す.また,それぞれの表にはALLとMAXにおけるSVMの学習に用いた単語対(29,240対)の中での順位も示した.なお,ここでいう順位とは線形SVMの値とF値最大化によって得られた閾値の距離を降順に並べた時の順位である.表\ref{tb:katakana-synonym}の10例中7例はカタカナ語と和語からなる対であるが,ALLでは獲得が難しかったこれらの対の順位がMAXでは高くなっていることがわかる.このことから,カタカナ語と和語からなる対に対してMAXが有効であるといえる.一方,MAXにおいて獲得不可能になった対(表\ref{tb:MAX-cannot-acquire})を見ると,カタカナ語と和語からなる対が少ないことが読み取れる.これは,カタカナ語と和語からなる対のALLの値が低くなること,および,MAXにおいてはカタカナ語と和語/漢語の対の獲得性能が向上しているためであると考えられる.\begin{table}[t]\caption{ALLにおいては獲得できたがMAXでは獲得不可能になった同義対のうちALLでの順位が高い対}\label{tb:MAX-cannot-acquire}\input{01table06.txt}\end{table}第\ref{sec:introduction}節に述べたように,カタカナ語は周辺単語にカタカナ語を生じやすいが,非カタカナ語は周辺単語に非カタカナ語を生じやすいという傾向がある.そのため,周辺単語から中心単語のベクトル表現を学習するというモデルでは,「カタカナ語と非カタカナ語からなる同義対」の獲得が難しいという問題点があった.提案手法では,図\ref{fig:POSMAX-weight}に示したように,周辺単語を非カタカナ語に限定した要素の重みを線形SVMを用いて最適に調節することで,上記の問題を緩和し,カタカナ語と和語/漢語からなる同義対の獲得精度を高めることができたと考えられる.
\section{結論}
\label{sec:conclusion}本研究では,同義語獲得において周辺単語の相対位置や品詞等の様々な属性情報を利用するために,Skip-gramモデルを改良し,文脈限定関数を利用した手法を提案した.実験の結果,周辺単語の語順や品詞を考慮して文脈を限定し,それらの影響の重みを線形SVMで推定することで,同義語獲得の精度を向上させることができることがわかった.また,中心単語の直後の単語と非カタカナ語が同義語獲得に大きな影響を与えていること,及び,全体としては相対位置が右側にある単語の与える影響が大きいが,形容詞や接続詞においては,逆に左側の与える影響が大きいことがわかった.本研究のひとつの大きな優位点は,文脈情報や単語分類属性(品詞等)を用いてSkip-gramを「個別に」学習したものを組み合わせることで,同義語獲得において重要であると考えられる周辺単語の性質を知ることができる高い解釈可能性である.もうひとつの大きな優位点は,Skip-gramのモデル自体は変更せず,文脈限定関数で学習データを変更するだけで,利用する単語属性の追加や変更が可能であるという高い拡張可能性である.本論文で挙げた属性以外にも,容易に他の有用と考えられる単語属性を利用することができる.本手法を,既存の辞書ベースの手法\cite{kato}や検索エンジンを利用する手法(渡辺他2008)\nocite{watanabe}等と組み合わせることで,さらに同義語獲得精度を向上させることができると期待される.以下,今後の課題について述べる.最初に多義性の問題に関して述べる.提案手法と既存手法の両者において獲得に失敗した単語対の傾向を観察したところ,その単語の多くに多義性が見られた.既存手法のSkip-gramモデルおよび提案手法である文脈限定Skip-gramモデルは1つの単語につき1つの``意味''しか学習できないため,このような傾向が生じると考えられる.この問題は,多義性の問題の解決を試みたSkip-gramモデル(\citeA{neelakantan},\citeA{bartunov},\citeA{cheng}など)を提案手法と組み合わせ同義語獲得に適用することで解決できる可能性がある.第二に,データスパースネスの問題について述べる.既存手法では獲得に成功していたが提案手法において失敗するようになった単語については一般的には使われない単語が多く見受けられたが,これは文脈限定Skip-gramモデルでは文脈を限定していることから既存手法よりもデータスパースネスに弱くなり,低頻度語の``意味''の獲得精度が弱まっていることが原因であると考えられる.この問題は,``Yahoo!知恵袋データ''\footnote{http://www.nii.ac.jp/dsc/idr/yahoo/chiebkr2/Y\_chiebukuro.html}など,他のコーパスも加えデータサイズを増やすことで本問題を緩和可能であると考えられる.また,Skip-gramにおける学習の特徴として,局所最適解の影響により,単語ベクトルが実行ごとに結果が変化することが知られている\cite{suzuki}.そこで,コーパスのデータサイズを増やすことでこのような局所最適解の影響を調査することも必要であると考えられる.第三に,文脈限定関数の構築方法に関して述べる.本研究では多くの文脈限定関数について(品詞)辞書を使用したが,表\ref{tb:proposed-result}からもわかるように,(品詞)辞書情報を必要としないALL+WOにおいても既存手法に比べて大きなF値の向上が見られた.このことから,位置情報を始めとする,辞書情報を必要としない文脈限定関数を利用することでも精度が更に高まる可能性があると考えられる.このような文脈限定関数としては,本研究で述べたLRやWO以外にも「ある特定の文脈窓内(例えば,L2〜L5以内)に含まれるかどうか」によって限定するものも考えられる.また,辞書を使用するものに関しても「内容語か機能語か」という限定の仕方なども考えられる.これら「文脈窓内に含まれるかどうか」や「内容語か機能語か」といった限定条件の変更は,文脈の限定の程度を緩和することから,上に述べたデータスパースネスの問題を緩和することにも繋がる点でもメリットがある.最後に,同義対教師データについて述べる.今回は教師例が少ないため最善モデルのF値の推定にとどまったが,今後はさらに教師例を収集して,提案手法の正確なF値の推定を行う必要があると考えられる.以上を踏まえ,今後は多義性の問題緩和と,コーパスのサイズや同義対教師例の増加,文脈限定関数の変更・追加により,提案手法のさらなる精度向上を目指していく予定である.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{有賀\JBA鶴岡}{有賀\JBA鶴岡}{2015}]{ariga}有賀竣哉\JBA鶴岡慶雅\BBOP2015\BBCP.\newblock単語のベクトル表現による文脈に応じた単語の同義語拡張.\\newblock\Jem{言語処理学会第21回年次大会発表論文集(NLP2015)},\mbox{\BPGS\752--755}.\bibitem[\protect\BCAY{Bartunov,Kondrashkin,Osokin,\BBA\Vetrov}{Bartunovet~al.}{2015}]{bartunov}Bartunov,S.,Kondrashkin,D.,Osokin,A.,\BBA\Vetrov,D.\BBOP2015\BBCP.\newblock\BBOQBreakingSticksandAmbiguitieswithAdaptiveSkip-gram.\BBCQ\\newblock{\BemCoRR},{\Bbf{\mdseriesarXiv:1502.07257}}.\bibitem[\protect\BCAY{Bian,Gao,\BBA\Liu}{Bianet~al.}{2014}]{bian}Bian,J.,Gao,B.,\BBA\Liu,T.-Y.\BBOP2014\BBCP.\newblock\BBOQKnowledge-poweredDeepLearningforWordEmbedding.\BBCQ\\newblockIn{\BemJointEuropeanConferenceonMachineLearningandKnowledgeDiscoveryinDatabases},\mbox{\BPGS\132--148}.Springer.\bibitem[\protect\BCAY{Cheng,Wang,Wen,Yan,\BBA\Chen}{Chenget~al.}{2015}]{cheng}Cheng,J.,Wang,Z.,Wen,J.-R.,Yan,J.,\BBA\Chen,Z.\BBOP2015\BBCP.\newblock\BBOQContextualTextUnderstandinginDistributionalSemanticSpace.\BBCQ\\newblockIn{\BemACMInternationalConferenceonInformationandKnowledgeManagement(CIKM)}.ACM--AssociationforComputingMachinery.\bibitem[\protect\BCAY{Hagiwara,Ogawa,\BBA\Toyama}{Hagiwaraet~al.}{2006}]{hagiwara}Hagiwara,M.,Ogawa,Y.,\BBA\Toyama,K.\BBOP2006\BBCP.\newblock\BBOQSelectionofEffectiveContextualInformationforAutomaticSynonymAcquisition.\BBCQ\\newblockIn{\BemProceedingsofColing/ACL2006},\mbox{\BPGS\353--360}.\bibitem[\protect\BCAY{乾}{乾}{2007}]{inui}乾健太郎\BBOP2007\BBCP.\newblock自然言語処理と言い換え.\\newblock\Jem{日本語学},{\Bbf26}(13),\mbox{\BPGS\50--59}.\bibitem[\protect\BCAY{城光\JBA松田\JBA山口}{城光\Jetal}{2015}]{joko}城光英彰\JBA松田源立\JBA山口和紀\BBOP2015\BBCP.\newblock同義語判定問題を用いた語義ベクトルの評価の検討.\\newblock\Jem{人工知能学会インタラクティブ情報アクセスと可視化マイニング研究会},{\Bbf10},\mbox{\BPGS\21--25}.\bibitem[\protect\BCAY{笠原\JBA稲子\JBA加藤}{笠原\Jetal}{2003}]{kato}笠原要\JBA稲子希望\JBA加藤恒昭\BBOP2003\BBCP.\newblockテキストデータを用いた類義語の自動作成.\\newblock\Jem{人工知能学会論文誌},{\Bbf18}(4),\mbox{\BPGS\221--232}.\bibitem[\protect\BCAY{Levy\BBA\Goldberg}{Levy\BBA\Goldberg}{2014}]{levy}Levy,O.\BBACOMMA\\BBA\Goldberg,Y.\BBOP2014\BBCP.\newblock\BBOQDependency-BasedWordEmbeddings.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\302--308}.\bibitem[\protect\BCAY{Ling,Tsvetkov,Amir,Fermandez,Dyer,Black,Trancoso,\BBA\Lin}{Linget~al.}{2015}]{ling}Ling,W.,Tsvetkov,Y.,Amir,S.,Fermandez,R.,Dyer,C.,Black,A.~W.,Trancoso,I.,\BBA\Lin,C.-C.\BBOP2015\BBCP.\newblock\BBOQNotAllContextsAreCreatedEqual:BetterWordRepresentationswithVariableAttention.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1367--1372},Lisbon,Portugal.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{mikolov1}Mikolov,T.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQEfficientEstimationofWordRepresentationsinVectorSpace.\BBCQ\\newblock{\BemProceedingsofWorkshopatInternationalConferenceonLearningRepresentations(ICLR)},{\Bbf\textmd{arXiv:1301.3781}}.\bibitem[\protect\BCAY{Neelakantan,Shankar,Passos,\BBA\McCallum}{Neelakantanet~al.}{2015}]{neelakantan}Neelakantan,A.,Shankar,J.,Passos,A.,\BBA\McCallum,A.\BBOP2015\BBCP.\newblock\BBOQEfficientNon-parametricEstimationofMultipleEmbeddingsperWordinVectorSpace.\BBCQ\\newblock{\BemCoRR},{\Bbf\textmd{arXiv:1504.06654}}.\bibitem[\protect\BCAY{Oyama\BBA\Manning}{Oyama\BBA\Manning}{2004}]{oyama}Oyama,S.\BBACOMMA\\BBA\Manning,C.~D.\BBOP2004\BBCP.\newblock\BBOQUsingFeatureConjunctionsacrossExamplesforLearningPairwiseClassifiers.\BBCQ\\newblockIn{\BemProdeedingsofthe15thEuropeanConferenceonMachineLearning(ECML2004)},\mbox{\BPGS\322--333}.\bibitem[\protect\BCAY{Schwartz,Reichart,\BBA\Rappoport}{Schwartzet~al.}{2015}]{roy}Schwartz,R.,Reichart,R.,\BBA\Rappoport,A.\BBOP2015\BBCP.\newblock\BBOQSymmetricPatternBasedWordEmbeddingsforImprovedWordSimilarityPrediction.\BBCQ\\newblockIn{\BemProceedingsofCoNLL},\mbox{\BPGS\258--267}.\bibitem[\protect\BCAY{Suzuki\BBA\Nagata}{Suzuki\BBA\Nagata}{2015}]{suzuki}Suzuki,J.\BBACOMMA\\BBA\Nagata,M.\BBOP2015\BBCP.\newblock\BBOQAUnifiedLearningFrameworkofSkip-GramsandGlobalVectors.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\186--191}.\bibitem[\protect\BCAY{Trask,Gilmore,\BBA\Russell}{Trasket~al.}{2015}]{trask}Trask,A.,Gilmore,D.,\BBA\Russell,M.\BBOP2015\BBCP.\newblock\BBOQModelingOrderinNeuralWordEmbeddingsatScale.\BBCQ\\newblockIn{\BemProceedingsofthe32ndInternationalConferenceonMachineLearning(ICML)},\mbox{\BPGS\2266--2275}.\bibitem[\protect\BCAY{内海\JBA小町}{内海\JBA小町}{2013}]{utsumi}内海慶\JBA小町守\BBOP2013\BBCP.\newblockウェブ検索クエリログとクリックスルーログを用いた同義語獲得.\\newblock\Jem{情報処理学会論文誌},{\Bbf6}(1),\mbox{\BPGS\16--28}.\bibitem[\protect\BCAY{渡部\JBA{DanushkaBollegala}\JBA松尾\JBA石塚}{渡部\Jetal}{2008}]{watanabe}渡部啓吾\JBA{DanushkaBollegala}\JBA松尾豊\JBA石塚満\BBOP2008\BBCP.\newblock検索エンジンを用いた関連語の自動抽出.\\newblock\Jem{人工知能学会全国大会論文集}.\bibitem[\protect\BCAY{Wen,Eshley,\BBA\Bond}{Wenet~al.}{2006}]{wordnet}Wen,H.M.~S.,Eshley,G.~H.,\BBA\Bond,F.\BBOP2006\BBCP.\newblock\BBOQUsingWordNettopredictnumeralclassifiersinChineseandJapanese.\BBCQ\\newblockIn{\BemThe6thInternationalConferenceoftheGlobalWordNetAssociation},\mbox{\BPG\211}.\bibitem[\protect\BCAY{Yu\BBA\Dredze}{Yu\BBA\Dredze}{2014}]{yu}Yu,M.\BBACOMMA\\BBA\Dredze,M.\BBOP2014\BBCP.\newblock\BBOQImprovinglexicalembeddingswithsemanticknowledge.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\545--550}.\bibitem[\protect\BCAY{Zellig}{Zellig}{1954}]{harris}Zellig,H.\BBOP1954\BBCP.\newblock\BBOQDistributionalStructure.\BBCQ\\newblock{\BemWord},{\Bbf10}(23),\mbox{\BPGS\146--162}.\end{thebibliography}\begin{biography}\bioauthor{城光英彰}{2014年早稲田大学基幹理工学部応用数理学科卒業.2016年東京大学大学院総合文化研究科広域科学専攻修士課程修了.同年,三菱電機(株)情報技術総合研究所入社.言語処理に関する研究開発に従事.}\bioauthor{松田源立}{1997年東京大学教養学部卒業.2002年東京大学大学院総合文化研究科博士課程修了.博士(学術).学振特別研究員(PD),青山学院大学理工学部助教を経て,2013年より東京大学大学院総合文化研究科学術研究員.}\bioauthor{山口和紀}{1979年東京大学理学部数学科卒業.1985年理学博士(東京大学).1992年東京大学教養学部助教授.2007年より東京大学大学院総合文化研究科教授.コンピュータのためのモデリング全般に興味を持つ.}\end{biography}\biodate\end{document}
| |
V08N03-05 | \section{はじめに}
\label{sec:introduction}よく知られているように,人間が英語を日本語に翻訳するとき,英語の代名詞を日本語の代名詞としては表現せず,ゼロ代名詞化したり他の表現に置き換えたりすることが多い.これに対して,従来の英日機械翻訳システムでは,多くの場合,英語の代名詞はそのまま日本語の代名詞に訳される.このように代名詞を直訳すると,英文が伝えている意味と異なる意味を伝える訳文が生成されたり,文意は同じでも不自然で読みにくい訳文が生成されてしまうという問題が生じる.従って,品質の高い英日機械翻訳システムを実現するためには,ゼロ代名詞化する必要のある代名詞や他の表現に置き換えるべき代名詞を直訳しないようにすることが重要な課題となる.直訳すべきでない代名詞を認識することは一見単純であるように思えるが,ゼロ代名詞化や他の表現への書き換えには様々な要因が絡んでいるため,代名詞を直訳してもよい場合とそうでない場合をどのように区別すればよいかはそれほど自明なことではない.なお,本稿では,紛れない限り,人称代名詞と限定的機能を持つ所有代名詞\cite{Quirk85}を単に代名詞と呼ぶ.ゼロ代名詞化に関する工学的な研究は,滑川ら\cite{Namekawa99}や宮ら\cite{Miya00}による報告がある程度で,これまであまり行なわれていない.宮らの方法では,機械翻訳システムの出力文から代名詞を消すかそのまま残すかの二値の判定が,代名詞とそれに付属する助詞の表記に着目して人手で記述した規則に基づいて行なわれる.しかし,二値の判定では次の文(J\ref{SENT:scold})のような場合に適切に対処できない.文(J\ref{SENT:scold})には,``she''が``Mary''を指しているという文(E\ref{SENT:scold})の文意を伝えないという問題がある\cite{Kanzaki94}.この問題に対処するために,文(J\ref{SENT:scold})から「彼女」を消すと「家を出る」の主語が「メアリー」であるのか「ジョン」であるのかが曖昧になるという問題が新たに生じる.主語の曖昧さが生じるのを抑え,かつ文(E\ref{SENT:scold})と同じ文意を伝えるためには,文(J\ref{SENT:scold}'')のように「彼女」を「自分」に置き換える必要がある.\begin{SENT3}\sentEMaryscoldedJohnbefore{\itshe}lefthome.\sentJ彼女が家を出る前に,メアリーはジョンを叱った.\NewsentJ$\phi_{she}$家を出る前に,メアリーはジョンを叱った.\YAJ自分が家を出る前に,メアリーはジョンを叱った.\label{SENT:scold}\end{SENT3}また,代名詞をどのように書き換えるかは様々な要因によって決まるため,複雑に関連し合う要因を人手で整理し,その結果に基づいて規則を記述するより,統計的帰納学習法を利用して事例集から規則を自動的に作成するほうが適切であると考えられる.このようなことから本稿では,1)代名詞を消すか残すかの二値の判定ではなく,消すか残すかあるいは他の表現に置き換えるかの多値の判定を行ない,2)規則の記述を人手で行なうのではなく,決定木学習アルゴリズムを利用して事例集から規則を自動的に作成する方法を示す.以下,代名詞を直訳するとどのような問題が生じるかを\ref{sec:problems}\,節で整理する.次に\ref{sec:decision_tree}\,節で決定木学習に簡単に触れる.\ref{sec:corpus}\,節では決定木学習に必要な正解付きコーパスの作成について述べ,\ref{sec:feats}\,節で決定木学習に使用した属性について説明する.\ref{sec:experiment}\,節では,提案手法の有効性を検証するために行なった実験の結果について考察する.
\section{代名詞の日英対照比較}
\label{sec:problems}英語の代名詞を日本語の代名詞に直訳したときに生じる問題として,英文では代名詞がある名詞句を指していないのに,訳文では指しているように解釈されてしまうという問題と,その逆に,英文では代名詞がある名詞句を指しているのに,訳文ではそのように解釈できないという問題がある.本節では,後者の問題について検討する.\subsection{後方照応(語順逆転)}英語では代名詞による後方照応が可能であるのに対して,日本語では基本的に不可能である\cite{Kanzaki94}.このため,次の文(E\ref{SENT:bank-cataphora})では``he''は``John''を指していると解釈されるのに対して,文(J\ref{SENT:bank-cataphora})では「彼」が「ジョン」を指しているとは解釈されない.\begin{SENT}\sentEWhen{\ithe}arrived,Johnwentstraighttothebank.\sentJ彼が着くと、ジョンは、銀行にまっすぐ行った。\label{SENT:bank-cataphora}\end{SENT}また,英語では前方照応であっても,日本語に翻訳するときに主節と従属節の順序を逆転させると,文(J\ref{SENT:bank-anaphora})のような不適格な訳文となる.文(J\ref{SENT:bank-cataphora})や文(J\ref{SENT:bank-anaphora})を適格文にするには,文(J\ref{SENT:bank-anaphora}')のように代名詞「彼」をゼロ代名詞化する必要がある.\begin{SENT2}\sentEJohnwentstraighttothebankwhen{\ithe}arrived.\sentJ彼が着くと、ジョンは、銀行にまっすぐ行った。\NewsentJ$\phi_{he}$着くと、ジョンは、銀行にまっすぐ行った。\label{SENT:bank-anaphora}\end{SENT2}後方照応は限られた条件の下でしか用いられず使用頻度も低いため,あまり問題にならないともいえるが,従来の機械翻訳システムによる処理では主節と従属節の順序の逆転は頻繁に生じるため,代名詞に対する適切な書き換えが重要となる.\subsection{総称名詞句と不定代名詞}\label{sec:problem:indef_pron}英語の代名詞は総称的に使われている名詞句を指すことができるのに対して,日本語の代名詞は総称的名詞句を指すことはできない\cite{Kanzaki94}.例えば,次の文(E\ref{SENT:indef-pron})を機械翻訳システムで処理すると,文(J\ref{SENT:indef-pron})のように翻訳される.\begin{SENT2}\sentEBythetimetheaverageAmericanreachestheageof70,{\ithe}consumes13tonsofbeef.\sentJ平均的米国人は70歳に達する時までに、彼は、13トンの牛肉を消費する。\NewsentJ平均的米国人は70歳に達する時までに、$\phi_{he}$13トンの牛肉を消費する。\label{SENT:indef-pron}\end{SENT2}文(E\ref{SENT:indef-pron})において,``theaverageAmerican''は特定の人物を指しているのではなく総称的な意味で用いられているが,``he''は``theaverageAmerican''を指していると解釈できる.これに対して,文(J\ref{SENT:indef-pron})では「彼」が「平均的米国人」を指しているとは解釈されにくい.不適格文(J\ref{SENT:indef-pron})を適格文にするには,文(J\ref{SENT:indef-pron}')のように代名詞「彼」をゼロ代名詞化しなければならない.総称名詞句と同じく,``nobody''や``everyone''などの不定代名詞も英語では代名詞によって指示されるが日本語では指示されない.従って,次の文(J\ref{SENT:everyone})は,文(J\ref{SENT:everyone}')のように,代名詞「彼」をゼロ代名詞化するかあるいは再帰代名詞「自分」に置き換える必要がある.\begin{SENT2}\sentEEveryoneloves{\ithis}mother.\sentJ全ての人は、彼の母親を愛する。\NewsentJ全ての人は、$\{\phi_{his},自分の\}$母親を愛する。\label{SENT:everyone}\end{SENT2}\subsection{伝達文の話法}\label{sec:problem:narration}英語では話法が比較的確立されており直接話法と間接話法の対立が形式上明確であるのに対して,日本語では厳密な間接話法は事実上不可能である\cite{Anzai83}.このため,英語の間接話法は,日本語では直接話法あるいはそれに近い形式で表現される.このとき,英語の代名詞を直訳すると,不適格なあるいは不自然な訳文になることがある.例えば,次の文(E\ref{SENT:narration})を機械翻訳システムで翻訳した文(J\ref{SENT:narration})は,引用符が存在しないだけで実質的には直接話法になっている.このとき,代名詞``he''を直訳することは不適切である.代名詞「彼」をゼロ代名詞化するか「私」に置き換えると,日本語として自然な文(J\ref{SENT:narration}')が得られる.\begin{SENT2}\sentEJohnsaid{\ithe}usuallygetsupat6o'clock.\sentJジョンは、彼がいつも6時に起きると言った。\NewsentJジョンは、$\{\phi_{he},私は\}$いつも6時に起きると言った。\label{SENT:narration}\end{SENT2}話法の問題は,伝達文の出現頻度が比較的低い技術文書を対象としている限りあまり生じないが,本研究では,伝達文の出現頻度が比較的高い新聞記事を主な対象としているため,被伝達部に現れる代名詞を適切に翻訳することが重要な課題となる.\subsection{theyの訳}\label{sec:problem:they}三人称複数の代名詞``they'',``their'',``them''を直訳するとき,少なくとも「彼ら」か「それら」に訳し分けなければならない.この訳し分けの手がかりになるのは共起的意味制約や照応関係であるが,従来の機械翻訳システムではこれらの手がかりが必ずしも有効に活用できていないため,訳し分けの精度は十分高いとはいえない.実際,実験に用いたシステムでは,文(E\ref{SENT:they-artists})のように``they''が人間を表わす表現を指していると考えられるときでも「それら」と訳されることが多く,次の文(J\ref{SENT:they-artists})のような不自然な訳文となる.文(J\ref{SENT:they-artists})のような翻訳では,おそらく先行文中に存在する人間を表わす表現を「それら」が指しているとは解釈されない.文(J\ref{SENT:they-artists})の主節の主語の「それら」はゼロ代名詞化すると主語の曖昧さが生じる可能性があるので,「彼ら」に置き換えなければならない.\begin{SENT2}\sentE{\itThey}gatheredtodiscusswhattodotopreventenvironmentaldestruction.\sentJそれらは、公害を防ぐために何をするかを議論するために、集まった。\NewsentJ彼らは、公害を防ぐために何をするかを議論するために、集まった。\label{SENT:they-artists}\end{SENT2}
\section{決定木学習の利用}
\label{sec:decision_tree}本研究では,代名詞の書き換えを実現するために,統計的帰納学習手法の一つである決定木学習を利用する.代名詞をどのようなときにどのように書き換えればよいかを決定する要因は,多岐に渡っており複雑に関連し合っていると考えられる.書き換えに関連する様々な要因を人手で明示的にかつ統一的に記述することは容易ではない.これに対して,決定木による方法では,様々な要因の統合と重要な要因の選別が自動的に行なわれる.決定木学習にはC4.5\cite{Quinlan92}を利用する.C4.5は,事例を一般化することによって決定木の形式で分類モデルを帰納的に作成する.事例は,あらかじめ定められた属性とクラスによって表現される.決定木は,クラスを表わす終端節点と,一つの属性を調べるテストに対応する非終端節点(判別節点)から成り,根節点から終端節点に向けて判別節点でのテストの結果に従って,終端節点に対応するクラスに事例を分類する.C4.5による決定木の作成は,事例の集合$T$を$n$個の部分集合に分割するテスト$X$を利得比基準に従って選択することによって行なわれる.利得比基準では,$T$をテスト$X$で分割することによって得られる情報量を,$T$を$n$個の部分集合に分割することによって得られる全情報量で割った値(利得比)を最大にするようなテスト$X$が選ばれる.
\section{正解付きコーパスの作成}
\label{sec:corpus}\subsection{作成の基本方針}\label{sec:corpus:policy}不適切な代名詞をどのように書き換えるべきかを人手で判断し,書き換え方を示すラベルを付与したコーパスを次のような方針で作成した.ラベルは決定木学習のクラスに対応する.\begin{enumerate}\item代名詞を書き換えるか否か,書き換える場合どのように書き換えるかは,文意の正しさはもちろん,文意の曖昧さや文の簡潔さ,自然さなどの条件も考慮に入れて決定しなければならない.これらすべての条件を満たす書き換え方が常に存在するとは限らず,いくつかの条件は満たすが他の条件は満たさないような書き換えしかできないこともある.このようなときには,文意の正しさが保たれる書き換えと文意の曖昧さが生じない書き換えを優先する.すなわち,原文の文意と訳文の文意が異なったり,原文には存在しない曖昧さが訳文で生じてしまったりするような書き換えは,たとえその書き換えによって文の簡潔さや自然さが増すとしても行なわない.\itemある代名詞をどのように書き換えればよいかは,その代名詞を含む文がどのような文脈で用いられているかを参照しなければ確定できない場合と,その文の情報だけでほぼ確実に判断できる場合がある.特に,代名詞を消すか残すかに関しては,ある特定の先行文が存在すれば消すことができる(消しても文意が曖昧にならない)が,そのような先行文が存在しなければ消すことはできない(消すと曖昧になる)ということが起こりやすい.今回のコーパス作成では,先行文が存在しないという条件の下で適切な書き換えになるようにする.\end{enumerate}\subsection{代名詞に付与するラベル}\label{sec:corpus:label}代名詞の書き換え方を示すラベルとして,[残],[消],[換(私)],[換(我々)],[換(彼ら)],[換(自分)]の六種類を設けた.ラベル[残]は,着目している代名詞を書き換えると,意味的に不適格になるか,文意の曖昧さが増すか,文の不自然さが増すときに付与する.[消]は,代名詞を消しても意味的に適格であり,曖昧さが生じず,文の自然さが増すときに付与する.[換(私)],[換(我々)],[換(彼ら)],[換(自分)]は,それぞれ,代名詞を括弧内の語(「私」など)に置き換えると意味的に適格であり,曖昧さが生じず,より自然であるときに付与する.[換]は,代名詞を消しても残しても不適切である場合に対処するために設けたラベルであり,[換(私)]と[換(我々)]は\ref{sec:problem:narration}\,節で述べた話法の問題の解決を,また[換(彼ら)]は\ref{sec:problem:they}\,節で述べた``they''の訳語の問題の解決を主に目指している.ある一つの代名詞に対して複数通りのラベル付けができることがある.例えば,「私は,彼が私を助けてくれた恩を忘れはしない.」という文において,「私を」は消しても「自分を」に置き換えてもよい.このようなときには,次の優先順位に従ってラベル付けを行なうことにした.\[[消]>[残]>[換]\]\subsection{作成された正解付きコーパスの諸元}\label{sec:corpus:spec}正解付きコーパス作成用の資料には英字新聞記事300記事を用いた.この300記事は4240文から成るが,このうち代名詞を含む文は1845文であった.この1845文を我々の機械翻訳システムで処理して得られた訳文から,代名詞の問題を除けば文法的にも意味的にも適格である文を選別し,1015文を得た.1015文には合計で1350個の代名詞が出現していたが,1015文のうち代名詞を一つだけ含む文が734文(72.3\%),二つ含む文が218文(21.5\%)と,ほとんどの文が代名詞を一つか二つ含む文であった.最も多い場合,一文に五つ含まれていた.1015文における各代名詞の出現頻度と各代名詞に付与されたラベルの分布を表\ref{tab:pron-freq-label}\,に示す.「彼」,「それ」「それら」で出現した全代名詞の75.2\%を占めている.また,「あなた」は全く出現していなかった.設定したラベルのうち「我々」への置き換えを示すラベル[換(我々)]は付与する必要がなかった.ラベル[消]や[残]の数に比べ[換]の件数が少ないが,これは\ref{sec:corpus:label}\,節で述べたラベルの優先順位を設けたことに一因がある.表\ref{tab:pron-freq-label}\,において,「それら自身」,「彼自身」,「それ自身」は再帰代名詞``{\itoneself}''の訳ではなく,``{\itone's}own''の訳であり,これらに付与されているラベル[消]は,全体を消すのではなく,それぞれ「それら」,「彼」,「それ」を消し「自身」は残すことを意味する.\begin{table}[htbp]\caption{各代名詞の出現頻度と付与したラベルの分布}\label{tab:pron-freq-label}\begin{center}\begin{tabular}{|l||r|r|r|r|r|r|r|}\hline&\multicolumn{1}{c|}{[消]}&\multicolumn{1}{|c}{[残]}&\multicolumn{1}{|c}{[換(私)]}&\multicolumn{1}{|c}{[換(我々)]}&\multicolumn{1}{|c}{[換(彼ら)]}&\multicolumn{1}{|c|}{[換(自分)]}&\multicolumn{1}{c|}{計}\\\hline\hline彼&212&263&12&0&0&19&506\\それ&161&109&0&0&0&0&270\\それら&158&22&0&0&58&1&239\\我々&28&99&0&0&0&1&128\\私&54&56&0&0&0&1&111\\彼女&21&21&1&0&0&2&45\\彼ら&1&24&0&0&0&0&25\\それら自身&7&0&0&0&3&0&10\\自分&6&2&0&0&0&0&8\\彼自身&3&0&0&0&0&0&3\\それ自身&3&0&0&0&0&0&3\\私自身&0&1&0&0&0&0&1\\それら双方共&0&1&0&0&0&0&1\\\hline&654&598&13&0&61&24&1350\\\multicolumn{1}{|c||}{\raisebox{1.5ex}[0pt]{計}}&(48.4\%)&(44.3\%)&(1.0\%)&(0.0\%)&(4.5\%)&(1.8\%)&(100\%)\\\hline\end{tabular}\end{center}\end{table}\subsection{正解付きコーパス作成に要する労力}決定木学習による代名詞書き換えにおける課題の一つは,代名詞に関する英日比較対照コーパスをいかにして作成するかである.現在のところ,大規模で一貫性のある正解付きコーパスはほとんど整備されていない.正解付きコーパスの作成に必要な作業は,対訳コーパスの作成と,代名詞への正解ラベルの付与の二つの作業であるが,一般にこれらは両方とも労力を要する作業である.対訳コーパスには,本研究では,人手で作成したものではなく,機械翻訳システムで作成したものを利用している.なぜならば,機械翻訳システムからの出力文に含まれる不適切な代名詞を書き換えることが本研究の目的であるため,決定木学習に必要な属性は,人間による訳文から得られる属性ではなく,機械翻訳システムによる訳文から得られる属性であるからである.このように,人手による対訳コーパスを必要としない本研究では,正解ラベルの付与の労力だけで済む.正解付きコーパスの作成に今回要した労力は,およそ1.6人月であった.
\section{着目した属性}
\label{sec:feats}決定木学習による代名詞の書き換えでは,学習に用いる属性としてどのような情報を取り入れるかが重要である.代名詞の書き換えには,文の情報構造(旧情報と新情報の区別)や結束性,視点なども関連している\cite{Kuno78,Kuno83,Mizutani83,Kamio85,Hinds86,Takami97}.しかし,現状の技術レベルではこれらを直接利用することは容易でないので,これらに関連し現状の技術レベルで扱える情報を利用せざるを得ない.また,日英機械翻訳などにおいてゼロ代名詞をどのようにして復元するかが課題となっており,様々な手法が提案されている\cite{Fujisawa93,Kudo93,Nakaiwa93,Dosaka94,Ehara96,Murata96,Nakaiwa96}が,これらの手法で利用されている情報も属性として有効である可能性が高い.このようなことから本稿では,書き換えに影響しうる属性として,表\ref{tab:feats}\,に示す13種類の属性に着目した.これらの属性には構文レベルのものや照応レベルのものも含まれているが,構文解析や照応解析は行なわずに,「茶筅」\cite{Matsumoto99}による形態素解析の結果に基づいて,後述する単純な方法で正解付きコーパスから求めた.表\ref{tab:feats}\,の「属性数」欄は作成した正解付きコーパスに実際に出現した属性値の数であり,「属性値」欄は値の例である.\begin{table}[htbp]\caption{着目した属性の一覧}\label{tab:feats}\begin{center}\begin{tabular}{|l|r|p{0.6\textwidth}|}\hline\multicolumn{1}{|c|}{属性名}&\multicolumn{1}{c|}{属性数}&\multicolumn{1}{c|}{属性値(一部)}\\\hline\hline\PRON&14&それ,その,それら,それら自身,それら双方共,それ自身,我々,私,私自身,自分,彼,彼ら,彼自身,彼女\\\FZKG&25&から,が,と,と共に,に,において,にとっての,には,によって,に関する,に対して,の,のうちの,のために\\\COORD&2&有,無\\\GVNRSEM&69&111,112,113,114,115,116,117,118,119,120,121,122,123,124,125,126,127,128,130,131,132,133,未定義\\\GVNRFZKG&45&から,が,で,と,と共に,に,において,における,について,にもかかわらず,意志形,基本形,連用テ接続,連用ニ接続,連用形\\\CLSTYPE&4&主節,伝達節,従属節,対象外\\\CLSENDB&48&\Q{が},\Q{けれども},\Q{て},\Q{と,と},\Q{と,ので,て},\Q{と,ので},\Q{と,のに,と},\Q{と,連用形},\Q{と},\Q{ので},\Q{ば,連用形},\Q{連用形,て},\Q{連用形,ば},\Q{連用形,連用形},\Q{連用形},無\\\CLSENDF&65&\Q{けれども,と},\Q{て},\Q{で,と},\Q{と,て},\Q{と,と,と,連用形},\Q{と,と,ば},\Q{と,と},\Q{と,連用形,と},\Q{と},\Q{ので,と},\Q{ので},\Q{ば},\Q{連用形,と},\Q{連用形,ば},\Q{連用形},無\\\INDEFPRON&3&だれ,全て,無\\\SAMEPRONB&40&\Q{[消]我々},\Q{[消]我々,[消]我々},\Q{[消]それ},\Q{[消]それら},\Q{[残]私},\Q{[残]我々,[消]我々,[消]我々},\Q{[残]我々},\Q{[消]彼},\Q{[消]彼,[残]彼},\Q{[消]彼女},\Q{[残]彼},\Q{[残]それ},無\\\SAMEPRONF&41&\Q{[消]それ},\Q{[消]それら},\Q{[消]私},\Q{[消]我々},\Q{[消]我々,[残]我々,[換(自分)]我々},\Q{[消]彼},\Q{[消]彼,[消]彼},\Q{[消]彼女},\Q{[換(自分)]彼},\Q{[換(自分)]我々},\Q{[残]それ},\Q{[残]我々},\Q{[残]我々,[換(自分)]我々},無\\\ANAPH&4&成立,不成立,先行名詞無,文脈外\\\CONJ&15&けれども,しかし,しかしながら,そこで,そして,それでも,それに,だが,なぜなら,にもかかわらず,または,もしくは,一方,従って,無\\\hline\end{tabular}\end{center}\end{table}以下,各属性について,その属性に着目した理由と,それを文から抽出する方法について述べる.\paragraph{\PRON}表\ref{tab:pron-freq-label}\,からわかるように,適切な書き換えの傾向は代名詞毎に異なる.例えば,「それら」はほとんどの場合書き換える必要があるのに対して,「我々」や「彼ら」は書き換えられにくい.従って,代名詞の表記は書き換え方を分類する手がかりとして利用できる可能性がある.\paragraph{\FZKG}一般に,旧情報は省略されやすく,新情報は省略されにくいことが知られている\cite{Kuno78}.旧情報と新情報を区別する手がかりの一つとして助詞がある.助詞「は」には旧情報を示す一機能があり,助詞「が」には新情報を示す機能がある.このようにゼロ代名詞化は助詞の影響を受けるため,代名詞に付属する助詞の表記を属性として取り入れる.\paragraph{\COORD}次の文(J\ref{SENT:coord})における「彼」や「私」のように代名詞が等位句の構成要素になっているとき,その代名詞をゼロ代名詞化してはならない.従って,代名詞が等位句の構成要素になっているかどうかを,助詞「と」が直前に存在するかどうかで判断する.なお,「彼」が等位句の構成要素になっているかどうかは,属性「\FZKG」によって判断できる.\begin{SENT}\sentEHeandIwentthere.\sentJ彼と私は、そこに行った。\label{SENT:coord}\end{SENT}\paragraph{\GVNRSEMと\GVNRFZKG}代名詞の書き換えには,「\PRON」や「\FZKG」のような形態素語彙レベルの情報だけでなく,構文レベルの情報,例えば代名詞が係っている用言や体言に関する情報も重要である.特に用言には,待遇表現\cite{Mizutani83}や受給表現のようにゼロ代名詞を復元するために有効な情報が含まれている.これらの情報は,「伺う」や「いらっしゃる」のような動詞から得られる場合と,「致します」や「下さい」のような助動詞(相当表現)から得られる場合\cite{Kudo93,Nakaiwa96}があるが,属性「\GVNRSEM」は前者を対象とし,属性「\GVNRFZKG」は後者を対象とする.ここで,代名詞がどの用言あるいは体言に係っているかを正確に認識するためには構文解析を行なう必要がある.しかし,本稿では,次のような簡単な手順で近似的に認識する.代名詞が体言に係りうるとき,最も近い体言に係るものとし,その体言の意味標識を属性「\GVNRSEM」の値とし,その体言に付属する助詞の表記を属性「\GVNRFZKG」の値とする.代名詞が用言に係りうるときは,代名詞に付属する助詞が「は」でありその直後に読点「,」が存在するとき最も遠い用言に係るものとし,それ以外は最も近い用言に係るものとする.意味標識としては,分類語彙表\cite{NLRI84}の意味コードの上位三桁を利用する.用言あるいは体言の意味コードが分類語彙表に記述されていないとき,属性「\GVNRSEM」の値は未定義とする.\paragraph{\CLSTYPE}\ref{sec:problem:narration}\,節で述べたように,英語の間接話法の被伝達節で使用されている代名詞は,日本語では「私」などに置き換える必要がある.従って,代名詞が被伝達節に属しているかどうかが代名詞書き換えの手がかりになる.また,代名詞が属している節が被伝達節でないときでも,主節か(被伝達節以外の)従属節かの区別は有用であると考えられる.代名詞が属する節の種類についても正確な認識には構文解析が必要であるが,次のような簡単な手順で近似的に認識する.代名詞が属している節が被伝達節かどうかは,引用の助詞「と」や引用符が代名詞より文末側に存在するかどうかで判断する.代名詞が属している節が主節か従属節の判断は次のように行なう.もし,代名詞に付属する助詞が「は」でありその直後に読点「,」が存在すれば,主節に属するものとする.さもなければ,代名詞より文末側に存在する用言の数が一つだけならば主節に属するものとし,複数ならば従属節に属するものとする.ただし,この区別は代名詞が用言に係っているときにのみ行ない,体言に係っているときは対象外とする.\paragraph{\CLSEND}久野の考察\cite{Kuno83}によれば,次の文(J\ref{SENT:yamada})の適格性が低いのに対して文(J\ref{SENT:yamada}')が適格である理由の一つは,「ので」と「間に」の違いにある.文(J\ref{SENT:yamada}')では,因果関係を表わす「ので」の存在によって,「山田」を「批判した」の目的語とする蓋然性が高くなっている.これに対して,「間に」によって従属節と主節が結び付けられている文(J\ref{SENT:yamada})では,主節で「山田」を目的語とする蓋然性はそれほど高くない.\begin{JSENT}\sentJ山田がアメリカに行っている間に,私が学会で$\phi_{山田}$批判した.\sentJJ山田が久し振りで帰って来たので,$\phi_{山田}$夕食に招いた.\label{SENT:yamada}\end{JSENT}このように従属節の接続形が代名詞の書き換えに影響を及ぼすことから,着目している代名詞より文頭側あるいは文末側にどのような従属節の接続形が存在するかを属性として取り入れる.\paragraph{\INDEFPRON}\ref{sec:problem:indef_pron}\,節で述べたように,日本語で総称名詞句や不定代名詞を指せるのはゼロ代名詞か再帰代名詞「自分」である.このことを考慮して,着目している代名詞より文頭側に不定代名詞が存在するかどうか,存在する場合それはどのような不定代名詞かを属性として取り入れる.総称名詞句は,その認識が容易ではないため,本稿では対象外とする\footnote{総称名詞句の認識に村田の手法\cite{Murata96}を利用することが考えられる.しかし,村田の手法では構文構造が正しく得られることが前提になっているのに対して,本稿ではごく簡単な処理によって得られる属性を利用する方針であるため,総称名詞句は対象外とする.}.\paragraph{\SAMEPRON}ある代名詞をどのように書き換えるかには,それと同じ代名詞が文のどの位置に存在しており,かつそれらがどのように書き換えられるかも関連している可能性がある.次の文(J\ref{SENT:he})において文頭の「彼」を消す理由の一つは,(主節の主語である)「彼」が後方に存在しており,それが残されることであろう.\begin{SENT2}\sentE{\itHe}does{\ithis}workwhen{\ithe}feelslikedoing{\itit}.\sentJ彼がそれをしたいと思うとき、彼は、彼の仕事をする。\NewsentJ$\phi_{he}$$\phi_{it}$したいと思うとき、彼は、$\phi_{his}$仕事をする。\label{SENT:he}\end{SENT2}表\ref{tab:feats}\,の「\SAMEPRONB」と「\SAMEPRONF」の属性値はそれぞれ,着目している代名詞より文頭側,文末側に存在する同一代名詞のリストを表わしている.各代名詞に付与されているラベルは,その代名詞に対する書き換えを示す.例えば\Q{[残]我々,[換(自分)]我々}は,残される「我々」と「自分」に置き換えられる「我々」がこの順に存在することを意味する.\paragraph{\ANAPH}藤沢らの調査\cite{Fujisawa93}によれば,明示されている代名詞の先行詞は代名詞が含まれている文の直前の文に現れることが最も多いのに対して,ゼロ代名詞の先行詞はゼロ代名詞が存在する文と同じ文に現れることが最も多い.このことから,逆に,代名詞とその先行詞が同じ文に存在すれば,代名詞をゼロ代名詞化する必要性が高いとも考えられる.照応に関する属性値は,照応成立,照応不成立,先行名詞無,文脈外照応とする.代名詞が一人称か二人称であるときは,先行名詞を指さない文脈外照応であるとみなす.代名詞が三人称であり先行名詞が存在するとき,分類語彙表の意味コードを利用して照応の成立,不成立を次のような簡単な手順で判定する.代名詞が人間を指せる「彼」,「彼女」,「彼ら」であるとき,人間を表わす分類語彙表の意味コード120,121,123,124を持つ先行名詞が存在すれば照応成立とみなす.代名詞が人間以外を指せる「それ」,「それら」であるときは,上記以外の意味コードを持つ先行名詞が存在すれば照応成立とみなす.先行名詞の意味コードが分類語彙表で未定義であるときは照応不成立とする.着目している代名詞と同一の代名詞が存在するときはそれとの間で照応が成立するとみなす.\paragraph{\CONJ}代名詞の書き換えには,同一文内の照応だけでなく,先行文との関係も影響を及ぼす.二つの文をつなぐ言語的手段の一つとして,先行文との修辞的関係\cite{Cohen84,Mann84,Knott94}を表わす接続表現の使用がある\cite{Halliday76}.このような先行文との修辞的関係を考慮に入れ,文頭に存在する接続詞の表記を属性として取り入れる.
\section{実験と考察}
\label{sec:experiment}代名詞書き換えの有効性を検証するために,次の五種類の実験を行なった.決定木学習アルゴリズムにはC4.5をオプションなしで利用した.いずれの実験でも十分割の交差検定を行なった.\begin{LIST}\item[\bf実験1]代名詞を消すか残すかの二クラスでの実験\item[\bf実験2]代名詞を消すか残すか他の表現に置き換えるかの五クラスでの実験\item[\bf実験3]各クラスの事例数をほぼ同数にしての実験(五クラス)\item[\bf実験4]各属性の効果を確認するための実験(五クラス)\item[\bf実験5]代名詞毎の実験(五クラス)\end{LIST}\subsection{[消]/[残]の二クラスでの実験}\label{sec:experiment:binary}まず予備的な実験として,宮ら\cite{Miya00}の設定と同じく,代名詞を消すか残すかを分類する場合について精度を調べる実験を行なった.実験に用いた事例は,作成した1350事例のうちラベル[消]または[残]が付与されている1252事例である.誤分類率は,十分割の交差検定の平均で,訓練事例に対して6.4\%,試験事例に対して21.8\%であった.試験事例に対する正誤行列を表\ref{tab:confusion_matrix1}\,に示す.表中の数値は,十分割の交差検定による結果の和である.表\ref{tab:confusion_matrix1}\,より,正しく分類された事例は,消すべき代名詞が正しく消された564件と,残すべき代名詞が正しく残された437件である.他方,誤って分類された事例は,残すべき代名詞が誤って消された161件と,消すべき代名詞が誤って残された90件である.誤りのうち前者の場合は,曖昧さの増大につながり翻訳品質に悪影響を及ぼす.これに対して後者の場合は,翻訳品質は現状維持となり,実用上新たな悪影響は出ないと考えてよい.このことから,提案手法で[消]/[残]の二クラスの分類を行なった場合の真の精度は79.9\%((564+437)/1252),実用精度は87.1\%((564+437+90)/1252)となる.実験に用いた1252事例のうち,代名詞を消すべき事例は654件,残すべき事例は598件である(表\ref{tab:pron-freq-label}\,参照)ので,単純な多数決基準に従って分類したときの誤分類率は47.8\%(598/1252)である.この値を基準誤分類率とみなせば,提案手法は有効であると考えられる.実験条件が異なるので単純な比較はできないが,宮らの実験結果では人手で記述した規則の精度が85.8\%であることから,決定木学習によってほぼ同程度の精度が達成できているといえる.\begin{table}[htbp]\caption{[消]/[残]での分類精度}\label{tab:confusion_matrix1}\begin{center}\begin{tabular}{|rr|rr|l|}\hline\multicolumn{2}{|c|}{(a)}&\multicolumn{2}{c|}{(b)}&$\leftarrow$classifiedas\\\hline\hline564&(45.0\%)&90&(7.2\%)&(a):[消]\\161&(12.9\%)&437&(34.9\%)&(b):[残]\\\hline\end{tabular}\end{center}\end{table}\vspace{6pt}\subsection{[消]/[残]/[換(私)]/[換(彼ら)]/[換(自分)]の五クラスでの実験}\label{sec:experiment:trinary}本節では,代名詞を消しても残しておいても不適切な翻訳に対処するために他の表現に置き換えるというクラスを設定した場合の実験結果について考察する.実験対象は1350事例である.誤分類率は,十分割の交差検定の平均で,訓練事例に対して9.2\%,試験事例に対して29.2\%であった.試験事例に対する正誤行列を表\ref{tab:confusion_matrix2}\,に示す.表\ref{tab:confusion_matrix2}\,より,提案手法で[消]/[残]/[換(私)]/[換(彼ら)]/[換(自分)]の五クラスの分類を行なった場合,真の精度は72.2\%((566+409)/1350)である.また,[残]に分類された事例は翻訳品質に新たな悪影響を及ぼさないので,実用精度は80.1\%((566+409+87+1+13+5)/1350)になる.表\ref{tab:confusion_matrix2}\,を見てまず気付くことは,新たに導入したクラス[換]に分類されるべき事例が一件も正しく分類されていないことである.クラス[換]の全事例が誤って分類された原因は,表\ref{tab:pron-freq-label}\,に示したように,このクラスの事例数がクラス[消]や[残]の事例数に比べて極端に少なかったため,適切な学習ができなかったことあると考えられる.この点に関しては,クラス分布の偏りが少ない場合にどの程度の分類精度が得られるのかを確認するための実験を\ref{sec:experiment:same_num_of_class}\,節で別途行なう.\begin{table}[htbp]\caption{[消]/[残]/[換]での分類精度}\label{tab:confusion_matrix2}\begin{center}\begin{tabular}{|r|r|r|r|r|l|}\hline\multicolumn{1}{|c|}{(a)}&\multicolumn{1}{c|}{(b)}&\multicolumn{1}{|c|}{(c)}&\multicolumn{1}{c|}{(d)}&\multicolumn{1}{|c|}{(e)}&$\leftarrow$classifiedas\\\hline\hline566&87&0&0&1&(a):[消]\\187&409&1&1&0&(b):[残]\\12&1&0&0&0&(c):[換(私)]\\48&13&0&0&0&(d):[換(彼ら)]\\19&5&0&0&0&(e):[換(自分)]\\\hline\end{tabular}\end{center}\end{table}十分割の交差検定によって作成された十本の決定木のうちの一本の一部を図\ref{fig:d-tree}\,に示す.図\ref{fig:d-tree}\,の決定木では,属性「\CLSTYPE」が最も重要であり,「\PRON」,「\FZKG」が次に重要であるとみなされている.十本のうち七本の決定木で,このように,「\CLSTYPE」が根節点に配置され,「\PRON」,「\FZKG」,「\ANAPH」,「\SAMEPRONB」がその子節点に配置されていた.残り三本の決定木では,根節点に配置された属性は「\FZKG」であり,その子節点に配置されたのは,「\SAMEPRONB」,「\CLSENDB」,「\CLSENDF」,「\ANAPH」,「\PRON」,「\GVNRSEM」であった.宮らは代名詞と助詞の表記に着目して規則を記述しているが,これら形態素語彙レベルの属性以外に,「\CLSTYPE」などの構文レベルの属性や「\ANAPH」などの照応レベルの属性も重要であることを,実験で得られた決定木の形状は示唆している.ただし,今回の実験では構文レベルの属性値と照応レベルの属性値は近似的な方法で決定しているが,これら重要視された属性の値をより正確に求め今後さらに検証を行なう必要がある.\ref{sec:feats}\,節で設定した属性のうち最も重要視されなかった属性は,「\COORD」と「\INDEFPRON」であった.「\COORD」と「\INDEFPRON」以外は全ての決定木に現れたが,「\COORD」は1本の決定木にしか現れず,「\INDEFPRON」はどの決定木にも現れなかった.これらが重要視されなかった理由は,等位句,不定代名詞がコーパス中にそれぞれ20個と少数しか存在しなかったことにあると考えられる.\begin{figure}[tbhp]\begin{DTREE}{0.9\textwidth}\begin{verbatim}節タイプ=主節:|代名詞の表記=我々:[残](15.0)|代名詞の表記=私:[残](11.0/1.0)|代名詞の表記=彼ら:[残](19.0)|代名詞の表記=彼女:[残](7.0)|代名詞の表記=それ:||接続表現=しかし:[消](4.0)||接続表現=そして:[残](7.0)||接続表現=なぜなら:[残](1.0):::||接続表現=無:|||係り先の意味コード=114:[残](1.0)|||係り先の意味コード=116:[消](1.0)::::|代名詞の表記=それら:||従属節の接続形(文頭側)=<ば>:[換(彼ら)](4.0)||従属節の接続形(文頭側)=<連用形>:[消](1.0):::|代名詞の表記=彼:||係り先の意味コード=231:[残](106.0):::節タイプ=従属節:|代名詞の付属語=において:[消](1.0)|代名詞の付属語=に対して:[換(自分)](1.0)|代名詞の付属語=のように:[残](1.0)|代名詞の付属語=の後:[消](1.0)|代名詞の付属語=は:[残](3.0)::|代名詞の付属語=が:||同一代名詞(文末側)=<[消]それら>:[消](3.0/1.0)||同一代名詞(文末側)=<[消]彼>:[消](8.0):::|代名詞の付属語=に:||係り先の付属語=こと:[換(自分)](1.0)||係り先の付属語=ば:[残](5.0):::|代名詞の付属語=を:||代名詞の表記=それ:[消](2.0/1.0)||代名詞の表記=それら:[換(彼ら)](1.0):::\end{verbatim}\end{DTREE}\caption{作成された決定木の一部}\label{fig:d-tree}\end{figure}\subsection{クラス分布の偏りを排除した実験}\label{sec:experiment:same_num_of_class}\ref{sec:experiment:trinary}\,節の実験で見られたクラス分布の偏りの影響を抑えるために,各クラスの数をほぼ同じになるように,クラス[消]が付与されている事例とクラス[残]が付与されている事例からそれぞれ50事例ずつを無作為に抽出し,これらの事例とクラス[換]の全事例を合わせた198事例を対象として実験を行なった.この場合の誤分類率は,十分割の交差検定の平均で,訓練事例に対して7.6\%,試験事例に対して35.3\%であった.\ref{sec:experiment:trinary}\,節での実験結果(訓練事例:9.2\%,試験事例:29.2\%)に比べると試験事例に対する誤分類率が高くなっているが,これは事例数が少ないことが主な原因であろう.試験事例に対する正誤行列を表\ref{tab:confusion_matrix3}\,に示す.クラス[換(私)]と[換(自分)]の正解率は十分高いとはいえないが,\ref{sec:experiment:trinary}\,節での結果に比べると改善されている.また,クラス[換(彼ら)]は全事例が正しく分類されている.このことから,クラス[換]に関する事例を今後重点的に収集していくことが,全体の精度向上に有効である.\begin{table}[htbp]\caption{[消]/[残]/[換]での分類精度(ほぼ同じ事例数)}\label{tab:confusion_matrix3}\begin{center}\begin{tabular}{|r|r|r|r|r|l|}\hline\multicolumn{1}{|c|}{(a)}&\multicolumn{1}{c|}{(b)}&\multicolumn{1}{|c|}{(c)}&\multicolumn{1}{c|}{(d)}&\multicolumn{1}{|c|}{(e)}&$\leftarrow$classifiedas\\\hline\hline24&6&5&12&3&(a):[消]\\9&32&3&3&3&(b):[残]\\1&3&3&0&6&(c):[換(私)]\\0&0&0&61&0&(d):[換(彼ら)]\\4&5&5&1&9&(e):[換(自分)]\\\hline\end{tabular}\end{center}\end{table}\subsection{各属性の有効性を調べる実験}本節では,着目した個々の属性が分類精度にどの程度寄与しているかを調べる.各属性を利用しないときに誤分類率がどのように変化するかを表\ref{tab:feats-effect}\,に示す.表\ref{tab:feats-effect}\,より,精度に悪影響を及ぼしている属性は存在しないことがわかる.特に分類に有効な属性は,「\PRON」,「\GVNRSEM」,「\GVNRFZKG」,「\CLSENDF」である.属性「\PRON」の有効性が高いことから,宮らが「\PRON」を手がかりにしていることは適切であるといえる.属性「\GVNRSEM」の値は分類語彙表に基づいて与えたが,1350事例のうち220事例(16.3\%)で,代名詞の係り先である用言や体言の意味コードが分類語彙表に記述されていないため,「\GVNRSEM」の値が未定義となっていた.これらに対して適切な意味コードを与えることができれば,精度向上につながる可能性が高い.他方,分類精度の向上に寄与していない属性は,「\COORD」,「\INDEFPRON」,「\SAMEPRONB」である.このうち,「\COORD」と「\INDEFPRON」が寄与しなかった理由は,事例数が少なかったことにある.「\SAMEPRONB」が寄与しなかった理由は,\ref{sec:corpus:spec}\,節で示したように,代名詞を一つしか含まない文がコーパス全体の72.3\%を占めており,これらの文から作成される事例では「\SAMEPRONB」の値がすべて同じ「無」になるため,有効に働かなかったのではないかと考えられる.しかし,「\SAMEPRONB」が精度向上にまったく寄与していないのに対して,「\SAMEPRONF」は若干寄与している.この差がなぜ生じたかについては今後の検討課題である.\begin{table}[htbp]\caption{各属性の有効性}\label{tab:feats-effect}\begin{center}\begin{tabular}{|l||r|}\hline\multicolumn{1}{|c||}{属性}&\multicolumn{1}{c|}{誤分類率}\\\hline\hline全属性&9.2\%\\\PRON&11.0\%\\\FZKG&9.6\%\\\COORD&9.2\%\\\GVNRSEM&10.4\%\\\GVNRFZKG&10.0\%\\\CLSTYPE&9.6\%\\\CLSENDB&9.9\%\\\CLSENDF&10.2\%\\\ANAPH&9.3\%\\\SAMEPRONB&9.2\%\\\SAMEPRONF&9.5\%\\\CONJ&9.7\%\\\INDEFPRON&9.2\%\\\hline\end{tabular}\end{center}\end{table}\subsection{代名詞毎の実験}分類精度は代名詞の種類によっても異なると予想される.そこで,表\ref{tab:pron-freq-label}\,に示した代名詞のうち,出現頻度が高い「彼」,「それ」,「それら」,「我々」,「私」の五種類の代名詞について,代名詞毎に実験を行なった.結果を表\ref{tab:pron-freq-result}\,に示す.基準誤分類率は,出現頻度が最も高いクラスを選んだときの誤分類率である.表\ref{tab:pron-freq-result}\,を見ると,代名詞「それら」と「私」に対する分類精度が特に悪い.「それら」に関しては,適切に分類できないクラス[換]の多さが高い誤分類率の原因である.「私」に関しては,分類に有効であろうと当初考えていた手がかり(属性値)が適切に得られなかったことに原因がある.「私」に関する有力な手がかりの一つは受給表現や待遇表現であり,これらは「\GVNRSEM」や「\GVNRFZKG」の値として反映されるものと考えていた.ところが,実験に用いた機械翻訳システムからの出力文にはこれらの表現が含まれていなかった.今後,他のシステムからの出力文を用いてこれらの表現の有効性を検証していく必要がある.\begin{table}[htbp]\caption{代名詞毎の誤分類率}\label{tab:pron-freq-result}\begin{center}\begin{tabular}{|l||r|r|r|}\hline&\multicolumn{2}{|c|}{誤分類率}&\\\cline{2-3}\multicolumn{1}{|c||}{\raisebox{1.5ex}[0pt]{代名詞}}&\multicolumn{1}{c|}{訓練事例}&\multicolumn{1}{|c|}{試験事例}&\multicolumn{1}{c|}{\raisebox{1.5ex}[0pt]{基準誤分類率}}\\\hline\hline彼&8.2\%&24.7\%&48.0\%\\それ&8.0\%&28.5\%&40.4\%\\それら&13.1\%&35.1\%&33.9\%\\我々&4.6\%&14.8\%&22.7\%\\私&13.0\%&47.7\%&49.5\%\\\hline\end{tabular}\end{center}\end{table}
\section{おわりに}
本稿では,従来の英日機械翻訳システムにおける代名詞翻訳の問題点を挙げ,それらを解決する方法を提案した.すなわち,従来研究と異なり,1)不適切な代名詞を消すか残すかあるいは他の表現に置き換えるかの判定を行ない,2)決定木学習アルゴリズムを利用して事例集から規則を自動的に作成する方法を示した.評価実験を通じて明らかになった主要な点は,1)人手で記述した規則の精度と同程度の精度が得られることと,2)ゼロ代名詞化に関する言語学的制約だけでなく,ゼロ代名詞の復元に関する手がかりも,ゼロ代名詞化を含む代名詞書き換えの可否を判断するための手がかりとして利用できることである.今後の課題として,次のような点が残されている.\begin{LIST}\item[\bf機械翻訳システムとの密な結合]提案手法は,既存の機械翻訳システムから独立した後編集と位置付けることができるが,既存システムの生成部に組み込むことも可能である.一般に生成部では目的言語の構文木を参照することができるので,提案手法を既存システムの内部に組み込むことによって正確な構文情報を得ることが可能になり,分類精度の向上が期待される.今後この点に関して検討を行なっていく.\item[\bf用言属性の拡張]今回の実験では,代名詞が係っている用言に関する属性として用言の意味コードと用言に付属している助動詞(相当表現)を用いたが,今後は結合価フレームも用言の属性として取り入れていく必要がある.なぜならば,代名詞がゼロ代名詞化されるかどうかは,代名詞に付属している助詞の表記と用言の結合価フレームによって判断しなければならないこともあるからである.例えば,助詞「に」をとることが明らかな用言のとき,「に」格の代名詞をゼロ代名詞化しても,それを復元することは比較的容易であるので,ゼロ代名詞化されやすい.これに対して,「に」をとることが明らかでない用言のときは,「に」格の代名詞のゼロ代名詞化は起こりにくいものと考えられる.\item[\bfテキスト属性の導入]今回の正解付きコーパス作成では,代名詞をどのように書き換えるかの判断を,先行文が存在しないという条件の下で行なった.しかし,一文単位では代名詞の存在が不自然でなくとも,代名詞を含む文が連続して出現すると,日本語テキストして不自然になることもある.従って,テキストレベルでの属性を取り入れる必要がある.このとき,一文内で観察される現象に比べて,複数の文から成るテキストにおいて初めて観察される現象の頻度が低くなることは避けられない.このため,テキストレベルの属性の信頼性を保つためには,非常に大規模なコーパスが必要となる.\end{LIST}\acknowledgment議論に参加頂いた英日機械翻訳グループの諸氏に感謝します.また,本稿の改善に有益なコメントを下さった査読者の方に感謝いたします.\vspace{6pt}\bibliographystyle{jnlpbbl}\bibliography{delpron}\clearpage\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.1987年よりシャープ(株)にて機械翻訳システムの研究開発に従事.1999年神戸大学大学院自然科学研究科博士課程修了.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V22N05-03 | \section{はじめに}
\label{sec_intro}近年,ブログ等の個人が自由に情報を発信できる環境の爆発的な普及に伴い,膨大なテキスト情報がWeb上に加速度的に蓄積され,利用できるようになってきている.これらの情報を整理し,そこから有益な情報を得るためには,「誰が」「いつ」「どこで」「何を」といった情報を認識するだけでなく,文に記述されている事象が,実際に起こったことなのかそうでないことなのかという情報を解析する必要がある.我々はこのような,文中の事象に対する,著者や文中の登場人物による成否の判断を表す情報を事実性と呼ぶ.\eenumsentence{\item[a.]\underline{\mbox{商品Aを使い}}始めた。\item[b.]\underline{\mbox{商品Aを使う}}のは簡単ではなかった。\item[c.]\underline{\mbox{商品Aを使っ}}てみたい。\item[d.]\underline{\mbox{商品Aを使っ}}ているわけではない。\item[e.]\underline{\mbox{商品Aを使っ}}ているはずだ。}\label{ex_ie}(\ref{ex_ie})に示す例は,いずれも「商品Aを使う」という事象が含まれるが,その事実性は異なる.(\ref{ex_ie}a)と(\ref{ex_ie}b)は,事象が成立していると解釈できる一方で,(\ref{ex_ie}c)と(\ref{ex_ie}d)は,事象は成立していないと解釈できる.さらに(\ref{ex_ie}e)は,事象の成立を推量していると解釈できる.評判分析などの文脈で,商品Aを使っているユーザの情報のみを抽出したい場合,(\ref{ex_ie})に示した全ての文に対して,「商品Aを使う」と照合するだけでは,(\ref{ex_ie}c)や(\ref{ex_ie}d)といった,商品Aを実際には使っていないユーザの情報まで抽出されてしまう.そこで事実性解析を用いると,(\ref{ex_ie}a)や(\ref{ex_ie}b)が実際に商品Aを使っており,(\ref{ex_ie}c)や(\ref{ex_ie}d)が使っていない,(\ref{ex_ie}e)は使っていない可能性がある,ということを区別することができる.事実性解析は,評判分析だけでなく,含意関係認識や知識獲得といった課題に対しても重要な技術である~\cite{Karttunen2005,Sauri2007,Hickl2008}.事実性解析は,事象が実際に起こったかを解析する技術ではあるが,真に起こったかどうかを与えられた文のみから判断することは不可能である.例えば,「太郎は先に帰ったはずです。」という文に対して,「太郎は帰った」という事象が真に事実か否かは,「太郎」にしか分からない.そこで本研究では,事実性を,文中の事象の成否について,著者の判断を表す情報と定義する.ただし,実際には著者の判断も真にはわからないため,著者の判断を読者がどう解釈できるかによって事実性を表す.前述の例では,著者は事象「太郎は帰った」の成立を推量していると読者は解釈できる.事実性の付与対象となる事象は,\citeA{Matsuyoshi2010}と同様に,行為,出来事,状態の総称であると定義する.\eenumsentence{\item[a.]雨が\event{降っ}$_{\mathrm{出来事}}$たら、バスで\event{行き}$_{\mathrm{行為}}$ます。\item[b.]\event{混雑}$_{\mathrm{状態}}$していたら、別のところに\event{行き}$_{\mathrm{行為}}$ます。}\label{ex:event}(\ref{ex:event})に示す例では,「(雨が)降る」,「(バスで)行く」,「混雑する」,「(別のところに)行く」が全て事象である.\event{}で囲まれた述語は,それぞれの事象の中心となる語であり,事象参照表現(あるいは単に事象表現)と呼ぶ.アノテーションや解析において,事実性のラベルは事象表現に付与する.先行研究では,事実性だけでなく,時制などの関連情報についても,付与基準が議論されるとともに,コーパス構築が進められてきた~\cite{Sauri2009,Matsuyoshi2010,Kawazoe2011,Kawazoe2011_report}.日本語を対象とした事実性解析の研究は少なく,述部(本研究の事象表現に相当)に続く表現形式によるルールベースの解析~\cite{Umezawa2008SAGE}や,機械学習に基づく解析器~\cite{Eguchi2010_nlp}がある.前者はその性能は報告されていないが,後者の解析性能は,9種類の事実性ラベルの分類性能がマクロF値で48\%であり,実用上十分とはいえない.事実性解析の性能向上が困難である理由の一つは,事象表現に続く機能表現の多様性にある.詳しくは\ref{sec_factvalue}節で述べるが,例えば「\event{使わ}\underline{ない}」「\event{使う}\underline{わけない}」「\event{使わ}\underline{ねぇ}」「\event{使う}\underline{もんか}」のように,事象が成立しないことを示す機能表現(下線部)が多々ある.機能表現以外に,「\event{使う}のを\underline{やめた}」のように,文節境界を越えて事象の不成立を示唆する述語(下線部)の存在もあり,さらにこれらの要素の組み合わせが,事実性解析の性能向上を阻んでいる.本研究では,事実性解析の課題分析を行うために,機能表現のみを用いたルールベースの事実性解析器を構築し,1,533文に含まれる3,734事象に適用した結果の誤りを分析する.このとき全ての事象表現に続く機能表現に対して意味ラベルを人手で付与する.要素の組み合わせを解きほぐすために,3,734事象を,最も文末に近い主事象1,533事象と,それ以外の従属事象2,201事象に分割し,それぞれについて誤り分析を行う.誤り分析の結果,主事象の事実性解析については,機能表現の意味ラベルが正しく解析できれば,現在の意味ラベルの体系と本研究で用いた単純な規則だけでも,90\%に近い正解率が得られることがわかった.また,機能表現解析の問題を除けば,誤りの半数は副詞に起因するものであった.一方で,従属事象の事実性解析は,主事象に比べて考慮すべき要素が多いため,性能も低いことがわかった.従属事象でのみ考慮すべき要素は大きく二つあり,文節境界を越えて事実性に影響を与える述語と,従属事象に直接付随しない機能表現の影響である.前者は,既存の辞書のカバレッジを調査した結果,これを利用することで誤りの一部を解消できるものの,さらなる拡充が必要であることが分かった.後者は,問題となるケースは多様ではないことと,隣接する事象の機能表現が及ぼす範囲(スコープ)を精緻に判定することで概ね解決できることを確認した.
\section{関連研究}
\label{sec_related}事実性に大きく関連する概念として,態度表明者の主観的な態度(モダリティ),および,肯定/否定があげられる.本研究における事実性は,事象の真偽に対する書き手の確信度を表した「真偽判断のモダリティ」\cite{Masuoka2007}と,肯定/否定の組み合わせに相当している.\subsection{タグ体系およびコーパス構築に関する研究}\label{subsec_corpus}事実性およびその周辺情報を付与するためのタグ体系およびコーパス構築の関連研究として,\citeA{Sauri2008_Guidelines,Sauri2009}によるFactBankや,\citeA{Matsuyoshi2010,Matsuyoshi2011}による拡張モダリティタグ付与コーパスなどがある.\citeA{Sauri2008_Guidelines,Sauri2009}は,事象を対象とし,以下の2つ組のタグによって事実性を定義した.\begin{description}\item[modality]事実らしさに対する態度表明者の確信度.CT(Certain),PR(Probable),PS(Possible),U(Underspecified)の4種類で表す\item[polarity]事象に対する確信の方向.+(positive),$-$(negative),u(underspecified)の3種類で表す\end{description}例えば,事象が実際に起こったことである,ということをCT+と表す.そして,事象とその時間情報や,事象間の時間的順序関係が付与されたTimeML~\cite{Sauri2006}の上に,確信度と肯否極性を態度表明者(source)ごとに付与する枠組みを提案し,FactBankと呼ばれるコーパスを構築した.\citeA{Marneffe2012}は,PR+とPS$-$,PS+とPR$-$をそれぞれ論理的に等価なラベルとして扱っており,それらのラベルを統合した,5種類のラベル体系による評価を行っている.\citeA{Matsuyoshi2010,Matsuyoshi2011}は,〈態度表明者〉,〈相対時〉,〈仮想〉,〈態度〉,〈真偽判断〉,〈価値判断〉の6項目からなる拡張モダリティタグ体系を設計し,それを現代日本語書き言葉均衡コーパス(BCCWJ)\footnote{http://www.ninjal.ac.jp/corpus\_center/bccwj/}の各事象に付与したコーパスを構築した.彼らのタグ体系の内,〈真偽判断〉は\citeA{Sauri2009}の事実性に相当している.拡張モダリティタグ体系を用いた解析では,項目間の依存関係を考慮することが可能であるが,それ故に処理が複雑化してしまうという問題がある.本研究では,\citeA{Marneffe2012}の枠組みに基づいて事実性のラベルを定義する.この枠組みを利用することで,事実性を確信度と肯否極性の2軸に分けることができるため,問題の分析がしやすくなると考えた.誤り分析には,\citeA{Matsuyoshi2010,Matsuyoshi2011}の拡張モダリティタグ付与コーパスを用いる.事実性解析における課題分析をする上で十分な量であり,一般に利用可能なコーパスは他にないため,拡張モダリティタグのうち〈真偽判断〉を事実性の正解として利用し,事実性解析の誤り分析を行う.\subsection{解析および課題分析に関する研究}\label{subsec_method}事実性は,機械学習に基づく手法や,人手で構築した語彙的・統語的な知識を利用したパターンベースの手法などを用いて解析が行われているが,その性能および課題分析は十分でない.\citeA{Hara2008}は,事象の事実性情報を,時間情報と話者態度で表現し,SVMを学習器に用いた解析手法を提案した.\citeA{Inui2008}は,\citeA{Hara2008}の提案するタグ体系を整理統合し,条件付き確率場を学習器として用いた解析手法を提案した.SVMを用いるよりも,項目間の依存関係を考慮できる条件付き確率場を用いたほうが,高い精度を示すことが報告されている.\citeA{Eguchi2010_nlp}は,項目間,および事象間の依存関係を考慮できるFactorialCRF~\cite{Sutton2007}を用いた拡張モダリティ解析システムを構築した.事実性に関連の深い〈真偽判断〉には9種類のラベルが存在するが,そのマクロF値で48\%の性能を示している.さまざまな枠組みによって事実性の解析が行われているが,いまだ十分な性能は達成できておらず,その課題を分析する余地が多分に残されている.モダリティ解析における課題分析としては,\citeA{Matsuyoshi2011}が最大エントロピーモデルを用いた拡張モダリティ解析システム分析を試作し,その中の1つの項目である〈態度〉に着目した誤り分析を行っている.彼らは語義曖昧性解消や連体節内の述語に及ぼす影響の解明,節間の意味的関係の認識などが,〈態度〉に関するモダリティ解析の精度向上に向けた課題であることを述べている.事実性に,より直接的に関連する〈真偽判断〉の誤り分析でも同様の結果が得られるかどうかは明らかではない.英語においては,\citeA{Sauri2012}や\citeA{Marneffe2012}が事実性の解析に取り組んでいる.\citeA{Sauri2012}は,事象の成立に影響を与える手がかり表現を利用し,態度表明者ごとに,確信度と肯否極性で表される事実性を,依存構造木の根から伝搬させて解析する,パターンベースの決定的アルゴリズムを提案した.例えば{\itnot}があれば肯否極性を反転させる,{\itmay}があれば確信度を下げる,といったルールに基づいて解析を行い,F値でマクロ平均70\%,マイクロ平均80\%の性能を実現している.誤り分析の結果,ルールのカバレッジや表現の曖昧性が大きな問題であることを報告している.\citeA{Sauri2012}のアノテーション基準では,事実性は可能な限り客観的に判断される.一方で,\citeA{Marneffe2012}は,主観的な判断の自動推定に取り組んだ.主観的な判断とは,例えば態度表明者の社会的な信頼性によるものである.信頼に足る組織が表明した事象の事実性は,CT$+$にバイアスがかかるが,表明者が不明な場合は事象の事実性は,CT$-$にバイアスがかかる.彼女らは,FactBank中の各事象に対して,10名ずつアノテーションを行い,その分布を最大エントロピーモデルによって推定した.解析性能は,多数がアノテートしたラベルを正解とした場合に,F値でマクロ平均70\%,マイクロ平均83\%の性能をあげられている.本研究では,日本語事実性解析の課題に関して議論するために,機能表現に基づき,決定的に事実性を解析するルールベースのモデルを構築し,誤り分析を行う.ここでルールベースモデルを用いる理由としては,機械学習に基づく手法と比べ,出力結果がどのような要素に基づいて選択されたかがわかりやすく,本研究の目的とする,日本語事実性解析における課題の分析に対して適当であると判断したためである.また,事実性に影響を与える要素はさまざま存在しており,いろいろな要素を複合的に加味したモデルが提案されてきている.しかしながら,どの要素がどの程度事実性に影響を与えるのか,という分析は十分に行われていない.そこで,事実性に影響を与える要素を切り分けることにより,事実性解析における各要素の重要性を議論し,課題の分析を行う.\subsection{事実性に影響を与える要素に関する研究}\label{subsec_mergin}事実性に影響を与える要素としては,機能表現や後続する述語,および,それらの作用する範囲(スコープ)などがある.\eenumsentence{\item[a.]もう\event{遅い}から、彼は先に\event{帰っ}ている\underline{だろう}。\item[b.]問題が\event{発生する}のを\underline{防いだ}。}\label{ex_effect}例えば,(\ref{ex_effect}a)の事象「帰る」の事実性は,「だろう」という機能表現に影響を受け,(\ref{ex_effect}b)の事象「発生する」の事実性は,「防いだ」という述語に影響を受けている.また,(\ref{ex_effect}a)では,「だろう」という機能表現は「帰る」のみに影響を与え,先行する事象「遅い」には影響しない,というように,機能表現や後続する述語の作用する範囲,即ちスコープを特定することも,事実性解析において重要な要素だと考えられる.事実性に影響を与える表現として,「〜ない」「〜だろう」などの機能表現があり,このような日本語機能表現の意味に関連した研究が多く進められている.例えば,機能表現を網羅的に集めた辞書として,日本語機能表現辞書『つつじ』\cite{Matsuyoshi2007}が利用されている.この辞書は,日本語の機能表現の表層形約17,000種に対して,そのID,意味,文法的機能,音韻的変化などを網羅的に収録した辞書であり,機能表現の意味として,「対象」や「目的」,「名詞化」など,89種類のラベルが定義されている.その中には「推量」や「否定」,「疑問」など,事実性に影響を与えるラベルも多数含まれている.また,機能表現の中には表層を見ただけでは判別が難しいものも存在する.\enumsentence{パソコンが\event{壊れ}\underline{てしまったかも知れない}。}\label{ex_funcchunk}(\ref{ex_funcchunk})では,事象「壊れる」に対して,「てしまっ」「た」「かも知れない」という機能表現が付随している.「知る」という表現は,機能表現の一部として用いられるだけでなく,述語としても用いられるため,(\ref{ex_funcchunk})では「かも知れない」で1つの機能表現として用いられている,ということを判別する必要がある.このような曖昧性を解消するため,どの部分が機能表現なのかを特定し,その意味を同定する研究も行われている\cite{Suzuki2011,Imamura2011,Kamioka2015}.事実性に影響を与える述語に関する研究としては,\citeA{Eguchi2010_nlp}が構築した,モダリティ解析手がかり表現辞書がある.彼らは,「防いだ」のような,拡張モダリティに影響する動詞,形容詞が存在していることに着目した.こうした動詞,形容詞が直前の事象に与える影響を記述した,モダリティ解析のための手がかりを集めた表現辞書を作成し,機械学習による拡張モダリティ解析を行う上で,素性として利用している.このような表現を集めた利用可能なリソースは他に存在しておらず,この辞書を利用することでどの程度事実性解析の性能改善につながるのか,この辞書でどの程度の述語がカバーできているのか,といったことを調査する必要がある.事実性を決定する上で,否定や推量などのスコープを決定することは重要だと考えられる.否定表現および推量表現のスコープを同定する研究は,近年盛んに行われている.例えばBioScope~\cite{Szarvas2008}は,医学・生物学ドメインのテキストを対象に,否定表現,様相表現,そして,それらのスコープをアノテーションしたコーパスであり,このコーパスを用いてSharedTask~\cite{CoNLL2010,SEM2012}が開催されるなど,スコープを特定する研究に広く利用されている.日本語においては,\citeA{Kawazoe2011,Kawazoe2011_report}が,テキストに現れる事実とそれ以外の情報との区別,また推量や仮定などの間に見られる確実性の差を自動的に識別するため,様相表現,否定表現といった「確実性」に影響を与える言語表現を分析・分類し,それに従ってそれらの言語表現およびそのスコープをアノテーションしたコーパスを構築しているが,それらの定量的な分析を行うまでには至っていない.\citeA{Matsuyoshi2014}は,否定の焦点検出システムを構築するための基盤として,日本語における否定の焦点をテキストにアノテーションする枠組みを提案し,否定の焦点コーパスを構築している.否定の焦点は,否定のスコープの中で特に否定される部分であるため,焦点の検出はスコープの特定と密接に関連している.このように,事実性に影響を与える要素がいくつか存在しており,これらの要素を複合的に考慮することで事実性を決定できると考えられる.しかしながら,どの要素がどの程度事実性に影響を与えるのか,ということは明確ではない.本研究では,これらの事実性に影響を与える要素を切り分け,事実性解析における各要素の重要性を議論することにより,課題の分析を行う.
\section{誤り分析を通した課題分析の方針}
\label{sec_factvalue}本節では,事実性解析に関連する種々の要素(機能表現や副詞など)について整理し,その関連性を述べる(\ref{sec:fact_features}節).事実性は,これらの要素が複合的に組み合わさって決定されるため,各要素の重要性を見極めるためには,これらを切り分けて分析することが肝要である.\ref{sec:fact_approach}節では,どのようにしてそれらを切り分けるのかを述べる.3.3節では,課題分析に用いるコーパスについて述べ,3.4節では,分析に用いるルールベースの事実性解析モデルについて述べる.\subsection{事実性解析に関わる言語要素}\label{sec:fact_features}先行研究によって,事実性解析に関連する言語要素は文内では大きく4つに分けられることが分かっている.事象に含まれる機能表現,疑問詞を含む副詞,文節境界を越えて事実性に影響を与える語とそのスコープ,その他の4種類である.図\ref{fig:sent_structure}に,文内での各要素の関係を示す.ここで,事象の中心的な述語を\textbf{事象表現}と呼び,事象の事実性は事象表現に割り当てられると定義する.以降の例では,\event{}で囲むことで表す.また,文中での出現位置によって事象表現を二種類に分類する.各文につき,最も文末に近い事象表現を\textbf{主事象}と呼び,それ以外の事象表現を\textbf{従属事象}と呼ぶ.図中の矢印は,その言語要素が事象表現の事実性に影響することを示している.以下では,その他以外の3つの要素について,事象表現の事実性にどのように関連するかを述べる.なお,文をまたいだ言語要素による否定や推量も存在するが,本研究では文内の現象のみを取り扱う.\begin{figure}[b]\begin{center}\includegraphics{22-5ia3f1.eps}\end{center}\hangcaption{事実性に関わる言語要素の構造}\centering\small矢印は,要素が事象表現の事実性に影響することを示す.\label{fig:sent_structure}\end{figure}\subsubsection{機能表現}事象表現に直接後続する機能表現(図\ref{fig:sent_structure}では,述語Aに対する機能表現A,述語Bに対する機能表現B)の問題は,多義性と表現の多様性の二つに大きく分けられる.\eenumsentence{\item[a.]太郎は\event{走っ}たんでした\underline{よね}$_{\mathrm{態度}}$\item[b.]太郎は\event{走る}んです\underline{よね}$_{\mathrm{疑問}}$}\label{ex:func_sem}まず,多義性について,(\ref{ex:func_sem})に示す2つの例には,いずれも機能表現「よね」が出現しているが,それが示す意味は異なる.(\ref{ex:func_sem}a)は「太郎が走る」ことを推量しているが,(\ref{ex:func_sem}b)は「太郎が走る」ことを確認していることから事象は成立していないことを示している.このような文を解析するためには,機能表現の多義性の解消は必須の技術である.\eenumsentence{\item[a.]太郎は\event{走ら}\underline{ない}$_{\mathrm{否定}}$。\item[b.]太郎は\event{走る}\underline{わけない}$_{\mathrm{否定}}$。\item[c.]太郎が\event{走ら}\underline{ねぇ}$_{\mathrm{否定}}$。\item[d.]太郎が\event{走れる}\underline{もんか}$_{\mathrm{否定}}$。}\label{ex:func_vari}次に,表現の多様性について,(\ref{ex:func_vari})に示す4つの例は,いずれも「太郎が走る」という事象が成立していないということを,異なる機能表現によって記述している.そのため,否定を認識するためには,典型的な否定の機能語である「ぬ,ない」だけでなく,「ねぇ,もんか」といった砕けた表現もとらえる必要がある.これらに加えて,複数の表現の組み合わせの問題がある.\eenumsentence{\item[a.]太郎は\event{走れ}\underline{なくなる}$_{\mathrm{否定}}$\underline{ようだ}$_{\mathrm{推量}}$。\item[b.]太郎が\event{走る}\underline{かもしれない}$_{\mathrm{推量}}$。}\label{ex:func_combi}機能表現の組み合わせは,複数の表現の意味が組み合わさって事実性を表す場合(\ref{ex:func_combi}a)と,単語自体では意味を持たず複数の語が組み合わさってはじめて意味を持つ場合(\ref{ex:func_combi}b複合辞と呼ばれる)がある.(\ref{ex:func_combi}a)は,否定の機能表現「なくなる」と,推量の機能表現「よう」が組み合わさることで,「太郎が走る」という事象が成立しないことを推測していることを示している.この事例を正しく認識するためには,機能語単位での意味ラベルだけでなく,その組み合わせに従って事実性を演算することが必要となる.一方,(\ref{ex:func_combi}b)は複合辞の事例であるが,「走る」に後続する3つの単語「かも,しれ,ない」は,ひとまとまりで推量の機能表現を構成している.このとき,「ない」は否定の意味を持っておらず,機能表現を解釈するには,特定の単語列を複合辞としてまとめた上でその意味を認識する必要がある.\subsubsection{述語周辺の副詞}事実性は,事象に後続する機能表現だけでなく,周辺の副詞(図\ref{fig:sent_structure}では,述語Aに対する副詞A,述語Bに対する副詞B)によって決定される場合がある.\eenumsentence{\item[a.]\underline{確か}太郎は\event{走っ}た。\item[b.]太郎は\underline{果たして}\event{走る}のだろうか。\item[c.]\underline{どうしたら}太郎は\event{走る}だろう。}\label{ex:func_fukushi}(\ref{ex:func_fukushi})に示す例は,いずれも下線部の副詞が事象「太郎が走る」の事実性に影響する.(\ref{ex:func_fukushi}a)では,副詞がなければ事象は成立しているが,副詞「確か」が付加されることによって確信度が下がる.(\ref{ex:func_fukushi}b)は,同様に「果たして」が付加されることにより,事象成立の確信度は大きく下がり,どちらかといえば事象は成立しないと読み取れる.(\ref{ex:func_fukushi}c)は,下線部の副詞がなければ,推量を意味する機能表現「だろう」により,事象の成立を推量していると読み取れる.しかし方法を問う副詞「どうしたら」が付加されることにより,事象は成立していないと読み取れる.また,このとき「だろう」は推量の意味を持たない.前述の例のように,事象表現の周辺に副詞が存在する場合,事実性に大きな影響を与える場合がある.副詞は,用法がまとめられた辞書はあるものの~\cite{Hida1994Fukushi},事実性に及ぼす影響についての研究は進められていない.よって,副詞が事実性に影響を与える事例を収集するところから着手する必要がある.\subsubsection{文節境界を越えて事実性に影響を与える語とそのスコープ}事象表現が含まれる文節よりも文末側に現れる語(図\ref{fig:sent_structure}では,述語Aに対する述語Bおよび機能表現B)によって,事実性が決定される場合がある.\eenumsentence{\item[a.]太郎は\event{走る}ことを\underline{拒否した}。\item[b.]太郎は\event{走る}と言っていたが、\underline{やめた}。\item[c.]太郎は\event{走り}も歩きもし\underline{なかった}$_{\mathrm{否定}}$。\item[d.]太郎は\event{走った}が、楽しく\underline{なかった}$_{\mathrm{否定}}$\underline{らしい}$_{\mathrm{伝聞}}$。}\label{ex:func_followings}(\ref{ex:func_followings})に「太郎が走る」という事象が,文節境界を越えた後続の述語や機能表現によって,否定あるいは推量されている事例を示す.(\ref{ex:func_followings}a)および(\ref{ex:func_followings}b)は,下線部の述語によって事象の成立が否定されている.このような述語は,他の事象表現の事実性に及ぼす影響を決定すること,その及ぼす範囲を決定することが重要である.(\ref{ex:func_followings}c)は,後続の述語「歩く」に付随する否定の機能表現「なかった」が,事象「太郎が走る」にも影響して,その事実性が否定であることが示唆される.一方で,(\ref{ex:func_followings}d)は,後続の述語「楽しい」に否定の機能表現「なかった」と,伝聞の機能表現「らしい」が付随するが,事象「太郎が走る」の事実性には影響せず,この事象が成立することが読み取れる.このように,後続の述語に付随する機能表現が,文節境界を越えて事実性に影響する場合があり,その範囲の同定は,否定/推量のスコープの問題として知られている.\subsection{課題分析の方針}\label{sec:fact_approach}事実性は,\ref{sec:fact_features}節で述べた各言語要素が単体で影響するだけでなく,その組み合わせによって決定される.\eenumsentence{\item[a.]太郎が\event{走ら}\underline{ない}$_{\mathrm{否定}}$というのは\underline{間違っていた}。(機能表現と後続する述語の組み合わせ)\item[b.]\underline{たぶん}太郎は\event{走ら}\underline{ない}$_{否定}$。(副詞と機能表現の組み合わせ)}\label{ex:fact_combi}例えば(\ref{ex:fact_combi}a)は,事象表現「走る」の直後にある否定の機能表現「ない」と,後続する述語「間違っていた」が組み合わさって,事象「太郎が走る」が成立することを示している.(\ref{ex:fact_combi}b)は,副詞と機能表現の組み合わせによって,事象が成立しないことが推量されている.課題分析においては,複合的に影響する要素は可能な限り切り分けることが重要である.そこで,事実性が機能表現のみで決定可能であるかという点と,文節境界を越えて後続する述語や機能表現の影響を受けるかという点の2つに着目して,課題を切り分ける.機能表現は,\ref{sec:fact_features}節で述べた3種類の要素の中では,記述的研究に基づいて体系化が進められている領域であり~\cite{Morita1989,Endo2003},辞書も整備されている~\cite{Matsuyoshi2007}ため,切り分けが容易であると考えた.文節境界を越えて後続する述語や機能表現の影響を受ける場合とそうでない場合とを切り分けるために,文の主節(日本語の場合は最も文末に近い述語節)に着目する.主節に位置する事象表現(主事象)は,文節境界を越えて後続する述語や機能表現を持たないため,その影響を受けることはない.それ以外の事象(従属事象)は,後続の述語や機能表現の影響を受ける可能性がある.まとめると,事実性解析課題の切り分けは図\ref{fig:approach}のようになる.\begin{figure}[b]\begin{center}\includegraphics{22-5ia3f2.eps}\end{center}\caption{事実性解析課題の切り分け}\label{fig:approach}\end{figure}課題の切り分けを効率的に行うために,機能表現に基づくルールベースの事実性解析器を構築する(詳細は\ref{sec:fact_model}節で述べる).本解析器は,各事象表現について,直接後続する機能表現の意味ラベルのみに基づいて事実性を決定する.事実性解析において,機能表現のみで事実性が決定可能な事例は少なくないと考えられる.そのため,偶然正解する可能性の低い解析器を用いることで,難度の低い事例を分析対象から除外し,課題分析に注力することができる.本解析器を主事象に対して適用すると,正解事例は機能表現のみで決定可能な事例であると判断できる.一方で,誤り事例は以下の3種類に分類できる.\begin{enumerate}\item機能表現の意味ラベルや解析器のルールがナイーブであることが原因で誤ったが,機能表現のみで決定可能な事例\item副詞の影響を受けるため機能表現のみでは決定できない事例\itemその他\end{enumerate}次に,従属事象に対して適用すると,正解事例は,主事象と同様に,機能表現のみで決定可能な事例である.一方で,誤り事例は以下の4種類に分類できる.\begin{enumerate}\item文節境界を越えて影響を及ぼす述語を持つ事例\item文節境界を越えて影響を及ぼす機能表現を持つ事例\item文節境界を越えて文末側に位置する述語や機能表現の影響を受けず,機能表現の意味ラベルや解析器のルールがナイーブであることが原因で誤ったが,機能表現または副詞によって決定可能な事例\itemその他\end{enumerate}このような誤り分析によって,事実性解析の性能を向上させるには,どの言語要素に注力することが重要か,また各要素の部分課題にどの程度の解析性能が要求されるのかが明らかとなる.\subsection{課題分析のためのコーパス構築}本研究では,課題分析のために拡張モダリティタグ付与コーパス\cite{Matsuyoshi2010,Matsuyoshi2011}を利用する.拡張モダリティタグ付与コーパスは,『現代日本語書き言葉均衡コーパス』(BCCWJ)\footnote{http://www.ninjal.ac.jp/corpus\_center/bccwj/}を付与対象としており,そのうちのYahoo!知恵袋データを利用して誤り分析を行う.拡張モダリティタグ付与コーパスを用いるのは,事実性に関する情報が付与されており,課題分析に十分な事例数が確保できるとともに,同様の規模の利用可能なコーパスが他にないためである.拡張モダリティタグ付与コーパスには,Yahoo!知恵袋データの他にも,新聞,書籍,白書を対象としたデータも含まれているが,本研究ではYahoo!知恵袋データを対象に分析を行い,その他のドメインに対する分析は今後の課題とする.その理由としては以下の2点がある.\begin{enumerate}\renewcommand{\labelenumi}{}\itemアノテーションガイドライン\footnote{http://cl.cs.yamanashi.ac.jp/nldata/modality/}の付録Bに「OC(Yahoo!知恵袋)の14,089事象に対しては、実装した解析システムの解析結果をフィードバックさせ、それを参照しながらのタグ見直し作業を数回行い、タグの質を向上させている。」と記載がある.できるだけ信頼性の高いタグで誤り分析を行うため,Yahoo!知恵袋データを利用した\item言論マップ(水野,渡邉,ニコルズ,村上,乾,松本2011)\nocite{Mizuno2011}や対災害SNS情報分析システム(後藤,大竹,DeSaeger,橋本,Kloetzer,川田,鳥澤2013)\nocite{Goto2013}などの,Webデータを用いたアプリケーションに対する利用を想定している\end{enumerate}拡張モダリティタグ付与コーパスには6,362文が収録されている.6,362文のうち,主事象に機能表現を一つ以上含む文は5,198文ある.そのうちの約30\%である1,533文をランダムに選択し,課題分析の対象とした.この中には,主事象が1,533事象,従属事象が2,201事象含まれている.事実性ラベルは,\citeA{Sauri2009}の体系を一部簡素にした\citeA{Marneffe2012}によるラベル体系を採用する.本体系は,3種類の確信度と,3種類の肯否極性の2軸に分けて事実性を定義しており,それぞれの軸で評価できることが,課題分析に有効であると考えた.拡張モダリティタグ付与コーパスの真偽判断タグと,事実性ラベルとの対応を表\ref{tab_def}に示す.表\ref{tab:fact:distribution}に,本実験の解析対象である1,533文における,主事象と従属事象の事実性の分布を示す.\begin{table}[b]\caption{確信度と肯否極性の組み合わせによる事実性のラベル}\label{tab_def}\input{03table01.txt}\vspace{4pt}\small下段は拡張モダリティタグ付与コーパスの真偽判断タグとの対応\end{table}\begin{table}[b]\caption{コーパス中の事実性の分布}\label{tab:fact:distribution}\input{03table02.txt}\end{table}事実性は,それを判断したのが著者なのか,あるいは文中の登場人物なのかによって変化する.\citeA{Sauri2009}は,著者以外の文中の登場人物から見た事実性も考慮してアノテーションを行っている.以下に\citeA{Sauri2009}によるFactBankのアノテーション例を示す.\enumsentence{Hedoesnot\textbf{\underline{think}}$_{e_0}$she\textbf{\underline{followed}}$_{e_1}$therules.\\f($e_0$,{\ttauthor})=CT$-$\\f($e_1$,{\ttauthor})=Uu\\f($e_1$,{\tthe\_author})=PR$-$}\label{ex_factbank}f($e$,{\tts})は態度表明者{\tts}から見た事象$e$の事実性を示している.この文では,著者から見た$e_0$~({\bfthink})の事実性がCT$-$,著者から見た$e_1$~({\bffollowed})の事実性がUuであることが付与されるとともに,文中の登場人物{\ithe}から見た$e_1$~({\bffollowed})の事実性を著者はPR$-$と判断している,ということが付与されている.一方で,\citeA{Marneffe2012}は著者から見た事実性のみに焦点を当てている.日本語においては,\citeA{Matsuyoshi2011}が登場人物ごとの事実性判断をアノテーションしている.しかしながら,彼らの構築したコーパスでは,著者が事実性を判断している事象が,いずれのドメインにおいても9割前後という大きな割合を占め,著者以外の事実性判断を認識すべき事象は少ない.これらの事実を背景として,本研究では著者の事実性のみを解析対象とする.著者以外から見た事実性に関しては,今後の課題とする.機能表現に関連する問題であるかを切り分けるために,1,533文に含まれる3,734個の事象について,それに続く機能表現に意味ラベルを付与した.機能表現の意味ラベルは,記述的研究\cite{Morita1989,Endo2003}に基づいて体系化された『つつじ』~\cite{Matsuyoshi2007}がある.しかし,\citeA{Imamura2011}によると,『つつじ』に掲載されていない機能表現および意味ラベルが存在する.本研究では,『つつじ』に不足する機能表現や意味ラベルを拡充しながら,事象表現に付随する機能表現の意味ラベルを付与した.『つつじ』では89種類の意味ラベルが定義されているが,1,533文からなる本コーパスに付与された意味ラベルは66種類であった.『つつじ』には名詞に続く格助詞なども掲載されているが,それらは本研究では付与対象外であるため,付与されたラベルの種類は少なくなる.構築したコーパスは,BCCWJとの差分データとして,アノテーション仕様と合わせて公開している\footnote{http://tinyurl.com/ja-fe-corpus}.\subsection{誤り分析に用いる事実性解析モデル}\label{sec:fact_model}日本語事実性解析における課題分析のため,挙動が明確なルールベースモデルを用いて事実性解析を行う.事実性解析器の入力は,解析対象となる事象表現,文全体の形態素情報,および事象表現に付随する機能表現の意味ラベル列であり,入力された事象表現に対して事実性ラベルを付与して出力する.事実性を付与すべき事象表現の同定に関しては,あらかじめ正解を与える.形態素情報は,UniDic体系で与えられているが,機能表現はIPA辞書体系であるため,自動でマッピングを行っている.本研究では,事実性の解析に,各事象表現よりも後ろにある機能表現の意味ラベルを利用する.例えば,$\langle\text{否定}\rangle$の機能表現が付随している場合には肯否極性を反転する,といった事実性更新ルールを適用する.主事象の事実性は,文末から主事象の間に存在する,すべての機能表現の意味ラベル列に基づいて更新ルールを適用することで決定される\footnote{疑問符も事実性に影響を与える要素として考えられるが,疑問符があっても,事実性がCT+である事象も少なくないため,本研究では採用していない.}.従属事象の事実性は,従属事象から次の内容語までの間に連なる機能表現の意味ラベル列に基づいて更新ルールを適用することで決定される.更新ルールは以下の3種類を用いる.\begin{enumerate}\renewcommand{\labelenumi}{}\item機能表現の意味ラベルが$\langle\text{否定}\rangle\langle\text{否定意志}\rangle\langle\text{否定推量}\rangle\langle\text{無意味}\rangle\langle\text{不明確}\rangle\langle\text{不可能}\rangle\langle\text{回避}\rangle\linebreak\langle\text{不必要}\rangle\langle\text{放置}\rangle\langle\text{困難}\rangle$のいずれかの場合,肯否極性を反転する\item機能表現の意味ラベルが$\langle\text{推量-不確実}\rangle$$\langle\text{推量-高確実性}\rangle$$\langle\text{否定推量}\rangle$$\langle\text{意志}\rangle$$\langle\text{否定意志}\rangle$\linebreak$\langle\text{伝聞}\rangle$$\langle\text{様態}\rangle$$\langle\text{容易}\rangle$$\langle\text{困難}\rangle$のいずれかの場合,確信度を下げる\item機能表現の意味ラベルが$\langle\text{疑問}\rangle$$\langle\text{勧誘}\rangle$$\langle\text{勧め}\rangle$$\langle\text{願望}\rangle$$\langle\text{依頼}\rangle$のいずれかの場合,事実性をUuにする\end{enumerate}更新ルールは,機能表現の意味ラベルの定義およびその表現例にもとづき,人手で設計した.それぞれの意味ラベルにおける表現例と,コーパス中にその意味ラベルをもつ機能表現が出現した延べ数を表\ref{tab:fe}に示す.延べ数が0の意味ラベルは,分析対象のコーパスに一度も出現していない意味ラベルである.\begin{table}[b]\caption{更新ルールと意味ラベルの対応}\label{tab:fe}\input{03table03.txt}\end{table}\begin{algorithm}[t]\caption{ルールベースの事実性解析モデル}\label{alg:model}\input{03algo01.txt}\end{algorithm}ルールベースモデルのアルゴリズムをAlgorithm~\ref{alg:model}に示す.本モデルは,事象に付随する機能表現に基づく更新ルールを順次適用することで,事象の事実性を決定するモデルとなっている.以下にこのアルゴリズムによる解析例を示す.\enumsentence{小さい方がいい場合も\event{ある}\underline{らしい}$_{伝聞}$\underline{ので}$_{理由}$一概にそうとも\event{言え}\underline{ない}$_{否定}$\\\underline{みたい}$_{推量\mathchar`-不確実}$\underline{です}$_{判断}$。}\label{ex:factuality:model}主事象「言う」の事実性を決定する場合には,付随している3つの機能表現「ない」「みたい」「です」の意味ラベル列である$\langle\text{否定}\rangle$$\langle\text{推量-不確実}\rangle$$\langle\text{判断}\rangle$に基づいて解析を行う.Algorithm~\ref{alg:model}中の$C$,$P$は,それぞれ確信度,肯否極性の値をもつ変数であり,最終的にこれらの組み合わせで事実性の値を表す.初期値として,$C$にCT,$P$に+を割り当てる(line3).次に,文末側から順に,機能表現の意味ラベルに対応した更新ルールを適用していく(line4--20).まず,「です」は$\langle\text{判断}\rangle$の機能表現であり,更新ルール1--3のいずれにも該当しないため,$C$,$P$は更新しない.次に,「みたい」は$\langle\text{推量-不確実}\rangle$の機能表現であり,更新ルール2に該当するため,$C$をPRに更新し,$P$は更新しない(line12--16).最後に,「ない」は$\langle\text{否定}\rangle$の機能表現であり,更新ルール1に該当するため,$C$は更新せず,$P$を$-$に更新する(line5--11).結果的に,$C=PR$,$P=-$となり,主事象「言う」の事実性としてPR$-$が得られる(line21).従属事象「ある」の場合は,直後に連なる機能表現列である「らしい」「ので」の意味ラベル列$\langle\text{伝聞}\rangle$$\langle\text{理由}\rangle$に基づいて,更新ルール2のみを適用する(line12--16).その結果,従属事象「ある」の事実性はPR+となる.\begin{table}[b]\caption{機械学習モデルで用いた素性一覧および(\ref{ex:factuality:model})における素性抽出例}\label{tab:zunda}\input{03table04.txt}\end{table}本モデルは機能表現の意味ラベルのみを用いたシンプルなモデルであるため,必要以上に多く誤解析してしまう恐れがある.そこで,既存の素性~\cite{Eguchi2010_nlp}を,オープンソースのモダリティ解析器Zunda~\cite{Mizuno2013}\footnote{https://code.google.com/p/zunda/}に実装することで,リファレンスとなる解析性能を得る.Zundaは,拡張モダリティタグ体系に基づいて,タグごとに線形分類器による多クラス分類を行う.まず,真偽判断タグのラベルを表~\ref{tab_def}に基づいて本研究の事実性ラベルに置き換える.他の5種類のタグについては,拡張モダリティタグをそのまま採用する.次に,素性は,\citeA{Eguchi2010_nlp}で利用されている素性のうち,リソースが利用可能なものを利用する.表~\ref{tab:zunda}に,利用した素性の一覧と(\ref{ex:factuality:model})から抽出される素性の例を示す.「事象選択述語が示唆する事実性」は,5.1節で詳述するが,解析対象の素性として述語が含まれる文節の係り先文節に含まれる述語が示唆する事実性である.例えば「たばこを/\event{吸う}のを/\event{やめる}。」について,「やめる」は係り元文節中の「吸う」がCT$-$であることを示唆する述語であることから,「吸う」を解析するとき,その事実性がCT$-$であることが示唆されるという素性を抽出する.最後に,分類器について,\citeA{Eguchi2010_nlp}は事象間の依存構造が考慮できるFactorialCRF~\cite{Sutton2007}を利用していたが,ZundaはLIBLINEAR~\cite{REF08a}\footnote{http://www.csie.ntu.edu.tw/{\textasciitilde}cjlin/liblinear/の1.80を利用した.}を利用している.事象間の依存関係を考慮するため,解析対象の事象より文末側にあり,かつ最も近傍にある事象の拡張モダリティタグのうち,真偽判断と態度の2つについて,その解析結果を素性として利用する.例えば(\ref{ex:factuality:model})では,解析対象が「ある」のときに,素性として「言う」の解析結果を利用する.LIBLINEARの学習アルゴリズムは,L2正則化ロジスティック回帰を利用し,パラメータはweightを0に設定した以外はデフォルトの値を利用した(epsilon$=0.1$,cost$=1$,bias$=-1$).評価は10分割交差検定によって行う.文単位で分割することによって,同一文中の複数の事象が学習データとテストデータに属することはない.交差検定の段階では,主事象と従属事象は区別せずに学習させるが,精度と再現率を算出する段階では,主事象と従属事象を区別する.ルールベースによる解析モデルを主事象に適用し,誤り分析を行うことで,機能表現のみで事実性が決定可能な事例の割合を明らかにするとともに,副詞の影響を受ける事例がどの程度存在するのか,また,その他の要素はどのようなものがあるのかを明らかにする.次に,ルールベースによる解析モデルを従属事象に適用し,誤り分析を行うことで,機能表現以外の事実性を決定するための要素に関して,その重要性を定量的に分析し,事実性解析の今後の方針を議論する.
\section{主事象に対する事実性解析}
\label{sec_matrix}\begin{table}[b]\caption{主事象に対する事実性解析の評価}\label{tab:eval:mat:fact}\input{03table05.txt}\end{table}\ref{sec:fact_model}節で構築した事実性解析器を主事象に対して適用し,誤り分析を行うことで,機能表現のみで決定可能な事象,副詞の影響を受ける事象,その他の3種類に分類する.対象となる事象は1,533事象あり,その解析結果を表\ref{tab:eval:mat:fact},\ref{tab:eval:mat:axis}に示す.表\ref{tab:eval:mat:fact}には,確信度と肯否極性を組み合わせた事実性の各ラベルにおける精度,再現率,F値,およびそれらのマイクロ平均,マクロ平均を示した.表\ref{tab:eval:mat:axis}には,確信度と肯否極性の二軸それぞれにおける精度,再現率,F値,およびそれらのマクロ平均を示した.これらの結果から,機能表現のみを利用したシンプルなルールベースモデルであっても肯否極性は高い精度,再現率で判定可能であることが分かる.一方で,確信度については,PRの分類性能は高くない.また,機械学習ベースのモデルでは,機能表現などの素性も導入されているものの,十分な性能があげられていない.これは,事例数の偏りや,機能表現の多様性などの要因により,事実性解析が簡単な課題ではないことを示している.ルールベースモデルと機械学習ベースのモデルとを比較すると,全体の事例数が少なく,大きな偏りもあるため,機械学習ベースのモデルの方が若干不利ではあることを考慮しても,ルールベースモデルは,機械学習ベースのモデルと遜色ない性能を示している.このことから,本ルールベースのモデルの性能は極端に低いわけではなく,このモデルを用いた誤りを分析することで,事実性解析の課題分析を行うのは妥当であるといえる.\begin{table}[b]\caption{主事象に対する事実性解析の各軸ごとの評価}\label{tab:eval:mat:axis}\input{03table06.txt}\end{table}\begin{table}[b]\caption{誤りの種類の分布}\label{tab:error:mat}\input{03table07.txt}\vspace{4pt}\centering\smallカッコ内は,事実性のアノテーション誤りを除いた部分での誤りの割合\end{table}前述の実験で正解した事象は,機能表現のみで決定可能な事象であると判断することができる.残る240個の誤り事例を分析することによって,機能表現の意味ラベルあるいは事実性解析モデルが原因による誤り事例,副詞の影響を受ける事例,その他の事例に分類する.誤り分析の結果を表\ref{tab:error:mat}に示す.機能表現のみで決定可能な事例が4割以上と,まだ多く残されている.本実験で用いたルールは人手で構築しているため,ルールの改善の余地が残されている.このようなルールが改善でき,機能表現をしっかり捉えることが出来るようになると,すでに正解できている1,293事例と合わせて,機能表現のみで90.5\%(1,387/1,533)の正解率をあげられることがわかった.\eenumsentence{\item[a.]ビタミンは、野菜や海草から\event{補給する}\underline{べき}$_{当為}$\underline{です}$_{判断}$。\\(正解ラベルに基づく解析:CT+,正解:Uu)\item[b.]入札前に\event{確認す}\underline{べき}$_{当為}$\underline{でし}$_{判断}$\underline{た}$_{完了}$\underline{ね}$_{態度}$。\\(正解ラベルに基づく解析:CT+,正解:CT$-$)\item[c.]大至急オーストラリアへ書類を\event{送ら}\underline{なくてはなりません}$_{当為}$。\\(正解ラベルに基づく解析:CT+,正解:PR+)}\label{ex:factuality:addrule}(\ref{ex:factuality:addrule})は,機能表現だけで事実性を決定できるものの,現在の更新ルールが不足しているために誤った事例である.このようなルール不足に起因する誤りとしては,$\langle\text{当為}\rangle$や$\langle\text{不許可}\rangle$のように,更新ルールを割り当てるべき意味ラベルを追加することで改善が期待できる事例が見られた.(\ref{ex:factuality:addrule}a)の機能表現「べき」「です」はそれぞれ$\langle\text{当為}\rangle$$\langle\text{判断}\rangle$の意味をもっているが,これは,$\langle\text{当為}\rangle$に関する更新ルールが不足していたことによる誤りである.(\ref{ex:factuality:addrule}a)は$\langle\text{当為}\rangle$を更新ルール3の適用対象に加えれば解決する問題である.今回の分析対象のコーパス中に,$\langle\text{当為}\rangle$が付随している主事象は,8事例見られた.そのうち,更新ルール3を変更することによって,もともと正解できていた事例が2事例,誤りだった事例が正解できるようになる事例が4事例,もともと誤っており,更新ルール3を変更しても正解できない事例が2事例あり,正解できていた事例が誤りとなるような事例は見られなかった.更新ルール3を変更しても正しく解析できない事例を(\ref{ex:factuality:addrule}b),(\ref{ex:factuality:addrule}c)に示す.(\ref{ex:factuality:addrule}b)では,「確認する」に付随する機能表現列は,$\langle$当為$\rangle$$\langle\text{判断}\rangle$$\langle\text{完了}\rangle$$\langle$態度$\rangle$であるから,その事実性はCT$+$となるが,正解はCT$-$である.この場合,更新ルール1の適用対象として$\langle\text{当為}\rangle$と$\langle$完了$\rangle$の組み合わせを追加し,更新ルール3は適用しないように変更することで正しく解析することができる.$\langle\text{当為}\rangle$と$\langle$完了$\rangle$の両方が付随する事例は,コーパス中に1事例のみであることから,この変更による悪影響はない.本分析では,1,533文を分析したが,このように一度しか現れない機能表現のパターンがある.従って,更新ルールを洗練するには,規則ベース,学習ベースのいずれのアプローチをとるにせよ,機能表現の意味ラベルのアノテーションを拡充していく必要があるであろう.(\ref{ex:factuality:addrule}c)は,「大至急」という副詞があることからPR+と判断されている.この事例は$\langle\text{当為}\rangle$を考慮するだけでは不十分で,「大至急」という副詞を考慮しなければならない.一方で,副詞の影響を加味する必要がある事例は半分近くにのぼった.\eenumsentence{\item[a.]\underline{やはり}この御時世、\event{きつい}のではない\underline{でしょうか}$_{疑問}$?\\(正解ラベルに基づく解析:Uu,正解:PR+)\item[b.]\underline{どうやって}\event{判別し}てる\underline{んでしょうか}$_{疑問}$?\\(正解ラベルに基づく解析:Uu,正解:CT+)}\label{ex:factuality:discussion}(\ref{ex:factuality:discussion})は,機能表現だけは不十分であり,副詞と機能表現とを組み合わせる必要がある事例である.いずれの事例も,$\langle\text{疑問}\rangle$の機能表現が後続しているため,主事象の事実性はUuと解析された.しかしながら,(\ref{ex:factuality:discussion}a)は,問いかけではあるものの,推量の意味合いが強いため,正解はPR+となっている.(\ref{ex:factuality:discussion}b)は,前提として起こった事象である「判別する」の方法を問う文であるため,CT+が正解である.このような事象の事実性を決定するためには,$\langle\text{疑問}\rangle$の機能表現を利用するだけでは不十分であり,「やはり」や「どうやって」のような副詞を手がかりとし,それらを組み合わせて解析する必要がある.\enumsentence{\underline{おそらく}ただの\event{見栄っ張り}です。\\(正解ラベルに基づく解析:CT+,正解:PR+)}\label{ex:factuality:adverb}(\ref{ex:factuality:adverb})では,事実性に影響を与えるような機能表現は付随していないが,その代わりに副詞「おそらく」によって事実性が決定されている.どのような副詞が事実性に影響を与えるかを分類し,手がかりとして捉える必要がある.また,機能表現や副詞のみでは決定できない,その他の誤りとして,機能表現の省略による誤り事例が見られた.\enumsentence{とれないので\event{注意}!!\\(正解ラベルに基づく解析:CT+,正解:Uu)}\label{ex:notfunc}例えば(\ref{ex:notfunc})では,事象「注意」で文が終わっており,機能表現が存在していないが,依頼の意味をもつ文であることが解釈できる.しかしながら,機能表現のみに基づいた解析では,機能表現が存在していないために依頼の意味を捉えられず,正しく解析することができない.そこで,文末の感嘆符など,機能表現以外の要素を利用して解析を行わなければならない.また,「注意」で文が終わる場合には依頼文であることが多いと予測できるため,事象自身の情報を利用することで,「注意」で終わる場合には依頼であると判定する,といったことが考えられる.形態素解析やアノテーションの誤りについて,正しい情報が与えられた場合についても検証した.まず,形態素解析および機能表現のアノテーション誤りが解消された場合,事実性も正しく解析可能であることが分かった.また,事実性のアノテーション誤りについては,システムが出力したラベルの方が正しいことが分かった.以上より,主事象の事実性解析については,機能表現の意味ラベルが正しく解析できれば,現在の意味ラベルの体系と本研究で用いた単純な規則だけでも,90\%に近い正解率が得られることがわかった.3節で述べたように,現在の機能表現の意味ラベルは,既存の記述的研究に基づいた体系になっているが,これが事実性解析に最適な体系になっているかを評価することは容易ではない.しかし,現在の体系でも90\%に迫る正解率が得られる余地があることは,この体系に基づく機能表現の解析モデルを研究開発することに一定の支持を与えるものと考える.今後は,\citeA{Kamioka2015}のような機能表現解析の研究に注力したい.もう一つの大きな課題は副詞の扱いである.今回得られた誤りの半数近くは副詞に起因するものであった.意味解析における副詞の扱いは先行研究も乏しく,辞書の整備を初め,やるべき課題は多い.まずは事実性解析という切り口で,それに関連する情報に焦点を当ててリソースを設計・開発していく予定である.
\section{従属事象における事実性解析}
\label{sec_subord}表\ref{tab:eval:sub:fact},\ref{tab:eval:sub:axis}に,2,201の従属事象に対して事実性解析器を適用した結果を示す.主事象の場合と比較すると,全体の性能は下がっており,従属事象の方が解析が難しいことがわかる.機械学習ベースのモデルと比較すると,主事象の場合と同様に,ルールベースモデルが,機能表現等が素性に入った機械学習ベースのモデルと遜色ない性能を示している.従属事象の場合においても,本ルールベースのモデルの性能は極端に低いわけではなく,このモデルを用いた誤りを分析することで,事実性解析の課題分析を行うのは妥当であるといえる.\begin{table}[b]\caption{従属事象に対する事実性解析の評価}\label{tab:eval:sub:fact}\input{03table08.txt}\end{table}\begin{table}[b]\caption{従属事象に対する事実性解析の各軸ごとの評価}\label{tab:eval:sub:axis}\input{03table09.txt}\end{table}従属事象において,機能表現以外に考慮すべき要素として,どのような要素が重要なのかを定量的に分析するために,正解ラベルを用いた場合の誤り分析を行う.主事象においては機能表現が付随している事象のみ扱ったが,機能表現が付随した主事象を含む文における従属事象を対象としているため,必ずしもすべての従属事象に機能表現が付随しているとは限らない.そこで,機能表現が付随している事象であるか否かをまず分類する.また,名詞述語なのか,動詞や形容詞といった述語なのかが,事実性解析の難易度に影響していると考えられるため,名詞述語なのか否かに従属事象を分類する\footnote{単純に事実性が付与された名詞をすべて名詞述語と分類するわけではないため,人手による分類を行っている.例えば「判別する」「判別できる」など,「〜する」「〜できる」が付随する場合には,まとめて動詞述語として扱うが,「判別をする」といった場合には「判別」を名詞述語,「する」を動詞述語として扱い,「判別」が「する」の項になっていると判断する.}.510の誤り事例の中から,200事例をランダムにサンプリングし,誤り分析を行った.従属事象特有の誤りとしては,後続する述語の影響が事実性を決めている場合と,さらにその後ろの機能表現が事実性を決めている場合の2種類が考えられる.\eenumsentence{\item[a.]安いものだと\event{防水}は怪しいです。\\(正解:PR$-$,システム:CT+)\item[b.]物語を\event{楽しみ}つつ、\event{冒険}を堪能してください。\\(「楽しむ」正解:Uu,システム:CT+,「冒険する」正解:Uu,システム:CT+)}\label{ex:suberror}(\ref{ex:suberror})は,機能表現の正解ラベルを用いても正解できなかった従属事象の例である.まず(\ref{ex:suberror}a)の従属事象「防水する」は,事実性の正解がPR$-$であるが,「防水する」自身に付随している機能表現だけでこれが決まっているわけではなく,後続する述語であり,疑いをもっていることを示す表現である「怪しい」の影響が大きい.このように,従属事象に後続する述語が事実性を決めている場合を「後続する述語の影響」による誤りと分類した.このような事象の事実性を解くためには,どの述語が事実性にどういった影響を与えるかを分類する必要がある.次に(\ref{ex:suberror}b)の「楽しむ」および「冒険する」は,正解がUuであるが,(\ref{ex:suberror}a)と同様に,それぞれに付随している機能表現だけでは事実性は決定できない.しかしながら,後続する述語である「堪能する」自身にそういった影響があるとはいえない.これは,「堪能する」を抽象的な述語「する」に置き換えた場合でも,「楽しむ」および「冒険する」の事実性がUuと判断できることから明らかである.ではどういった要素が「楽しむ」および「冒険する」の事実性をUuにしているかというと,「堪能する」に付随する機能表現「ください」が影響を与えているということが考えられる.このように,後続する述語ではなく,さらにその後ろに見られる機能表現が広く影響を与えているために,事実性をうまく解析できない事例を「後方の機能表現が影響する範囲」による誤りと分類した.このような事象の事実性を解くために,機能表現がどの事象までその影響を与えるのかを解析する必要がある.「後続する述語の影響」と「後方の機能表現が影響する範囲」とを区別する基準としては,後続する述語を「する」などの抽象的な述語に置き換えた場合に,事実性が変化するかどうかを考える.例えば(\ref{ex:suberror}a)において「怪しいです」を「しています」と置き換えた場合,事実性が全く異なってしまう.このような述語の置き換えを一つの判断基準として,誤りの分類を行った.誤り分析の結果を表\ref{tab:error:sub}に示す.主事象の場合と同様の誤りも見られたが,従属事象特有の誤りが誤り全体の6割を占めた.特に,機能表現が付随していない名詞述語においては,機能表現が影響する範囲を考慮すべき誤りが大半を占めていることから,機能表現が影響する範囲を捉えることの重要性を示している.以降の節では,後続する述語や機能表現が影響する範囲のような従属事象特有の問題を解決するために,既存のコーパス中における現象を分析することで,今後の方針について議論する.\begin{table}[t]\makeatletter\def\@cline#1-#2\@nil{\noalign{\vskip-\arrayrulewidth}\omit\@multicnt#1\advance\@multispan\m@ne\ifnum\@multicnt=\@ne\@firstofone{&\omit}\fi\@multicnt#2\advance\@multicnt-#1\advance\@multispan\@ne{\CT@arc@\leaders\hrule\@height\arrayrulewidth\hfill}\cr}\makeatother\caption{誤りの種類の分布}\label{tab:error:sub}\input{03table10.txt}\par\vspace{4pt}\smallカッコ内は,事実性のアノテーション誤りを除いた部分での誤りの割合\par\vspace{-0.5\Cvs}\end{table}\subsection{事象参照表現に後続する述語に関する分析}「あり得る」のような,事実性に影響を与える述語(以降,事象選択述語と呼ぶ)については,\citeA{Eguchi2010_nlp}が構築した辞書がある.\citeA{Eguchi2010_nlp}は,拡張モダリティを解析する手がかりとして利用するために,拡張モダリティに影響を与える表現を収録した辞書(以降,事象選択述語辞書と呼ぶ)を構築した.事象選択述語辞書は,行為・出来事を表す事象を必須格にとり得る述語を対象に,分類語彙表\cite{BunruiGoihyo}に収録されている述語の中から,拡張モダリティに影響を与える8,580述語を収録している.事象選択述語辞書の項目の例を表\ref{tab_mkd}に示す.この辞書は,各述語が格にとる事象に与える影響を,直前の事象の時制および,述語の肯否極性ごとに収録している\footnote{この辞書はhttp://bit.ly/ja-esp-dicより入手可能である.}.この辞書のうち,真偽判断の項目が,事実性解析に利用できると考えられる.\eenumsentence{\item[a.]問題が\event{発生する}のを防いだ。\item[b.]問題が\event{発生する}のを防がなかった。}\label{ex_pred}例えば(\ref{ex_pred})の「防ぐ」という述語は,\pagebreak(\ref{ex_pred}a)のような肯定環境下では不成立,(\ref{ex_pred}b)のような否定環境下では成立というように,事象「発生する」の肯否極性に影響を与える.(\ref{ex_mkd})の「忘れる」は,直前の事象の時制を考慮した例である.\eenumsentence{\item[a.]彼は\event{発言し}{たのを忘れ}ている。\item[b.]彼は\event{発言する}{のを忘れ}ている。}\label{ex_mkd}事象「発言する」に対して,(\ref{ex_mkd}a)では過去に成立している事象であるが,(\ref{ex_mkd}b)では「発言する」ことが実際には起こっておらず,不成立である.\begin{table}[t]\caption{事象選択述語辞書の記述例}\label{tab_mkd}\input{03table11.txt}\end{table}事象選択述語に関する問題は,このような既存の辞書を手がかりとして解決できると考えられる.現在の辞書のカバレッジを見積もるため,表\ref{tab:error:sub}において,後続する述語の影響が原因とされた誤りである25事例を対象に,事象選択述語辞書がカバーできているかどうか,を人手で分類した.例えば(\ref{ex:suberror}a)の「怪しい」といった述語が辞書中に登録されているかを判断する.そして,「怪しい」が辞書中に登録されている場合,登録されている情報を利用すれば正しく事実性ラベルを選択できるのか,即ち(\ref{ex:suberror}a)では,「直前の事象の時制が未来」であり,「述語自身の肯否極性が成立」である場合に,辞書に「真偽判断が低確率」と登録されているかどうか,を人手で判定した.このとき,直前の事象の時制や述語自身の肯否極性も人手で判定を行った.その結果,25事例のうち20事例については,事象選択述語が辞書に収録されており,辞書の情報を利用すれば正しく事実性ラベルを選択できることがわかった.現在の辞書でも事実性解析の精度向上に貢献できることを示している.残りの5事例についても,現在の辞書には収録されていないものの,適切な情報が辞書に収録されていれば,辞書情報を用いて正しく事実性ラベルを選択することができる.現在の辞書でカバーできていた述語とカバーできていなかった述語を表\ref{tab:esp}に示す.「気がある」「関係ある」などの複合表現が現在の辞書でカバーできていない傾向が見られ,こうした多様な表現の獲得が今後重要な課題として浮かび上がった.\begin{table}[t]\caption{誤り事例における事象選択述語}\label{tab:esp}\input{03table12.txt}\vspace{-1\Cvs}\end{table}\subsection{事象間の接続表現に基づくスコープに関する分析}(\ref{ex:suberror}b)のように,機能表現が直接付随する事象だけでなく,従属事象にまで影響を与えることによって解析に失敗した事例が,従属事象における誤りの4割以上を占めた.このような後方の機能表現が影響する範囲による誤りを解消するために,どのような情報が利用できるのかを分析する.本研究では,機能表現が影響する範囲を決定する問題を,機能表現のスコープを認識する問題として扱う.スコープとは「否定などの作用が及ぶ範囲」\cite{Grammar3}であり,(\ref{ex:sc})では,角括弧で囲まれた範囲が否定を表す機能表現のスコープとなる.\eenumsentence{\item[a.][仕事で\event{行っ}た]の\underline{ではない}$_{否定}$。\item[b.]\event{残念}なことに、[鈴木さんは\event{来}]\underline{なかっ}$_{否定}$た。}\label{ex:sc}(\ref{ex:sc}a)では,「仕事で行った」という事象が否定されている.(\ref{ex:sc}b)では,「鈴木さんは来た」という事象が否定されており,「残念である」という事象は否定されていない.一方で,(\ref{ex:suberror}b)では,主事象に付随する「ください」の影響が,従属事象である「楽しむ」「冒険する」にも影響を与える.現在のモデルでは,スコープを機能表現の直前の事象のみとして解析を行うため,(\ref{ex:suberror}b)は正解できなかった.そこで,スコープを必要に応じて広げ,機能表現の影響をスコープ内の事例に与えることで,後方の機能表現が影響する範囲による誤りを解消することができる.機能表現のスコープを広げるべき場合とそうでない場合とを認識するために,どのような情報が利用できるのか,それらの事例の割合はどの程度なのかを分析する.\citeA{Minami1974}は,従属節内の要素の表れ方に基づき,従属節を接続助詞で分類している.\eenumsentence{\item[a.][タバコを飲むが]ガンのことは心配していない。\item[b.][タバコを飲みながら]おしゃべりしている。}\label{ex:minami}例えば(\ref{ex:minami}a)では,従属節の述語的部分「飲むが」には,「飲まないが」「飲んだが」「飲みますが」「飲むだろうが」などのさまざまな要素を入れられる.一方(\ref{ex:minami}b)では,「*飲まないながら」「*飲んだながら」「*飲みましながら」「*飲むだろうながら」などを用いることは出来ず,表れる要素が制限されている.これは,「〜ながら」を伴う従属事象では,主事象に付随する機能表現が否定やモダリティなどを表しており,接続表現「〜ながら」によってスコープが広がっていることを示唆している.また,\citeA{Arita2007}は日本語の時制節性に着目することで,\citeA{Minami1974}の分類がさらに分類できることを示している.\citeA{Takubo2010}は,\citeA{Minami1974}の分類を一部修正し,その分類をもとに疑問の焦点やスコープに関して議論している.このように,主事象と従属事象をつなぐ接続表現の差によって,スコープの判断に接続表現を利用することが考えられる.そこで,実際にコーパス中に含まれる文を対象に,機能表現のスコープが従属事象にまで及んでいるかどうかを接続表現ごとに分類することで,スコープを考えるべき事例がどの程度存在するのか,接続表現がスコープ解析ならびに事実性解析に利用できるのか,を明らかにする.\begin{table}[b]\vspace{-0.5\Cvs}\caption{誤り事例における接続表現の分類}\label{tab:scope}\input{03table13.txt}\end{table}我々が分析の対象とした従属事象の誤り200件のうち,後方の機能表現を考慮しなかったことによる誤りは80件あった(表\ref{tab:error:sub}の「後方の機能表現が影響する範囲」).これらは,(\ref{ex:suberror}b)の従属事象「楽しむ」の事実性のように,文節境界を越えた後方の機能表現(この例では「ください」)を事実性推定に考慮していないことによる誤りである.これらの従属事象の事実性は後方の機能表現の影響を受けるので,それぞれの従属事象は後方の機能表現のスコープの中に入っていることになる.上の80件の従属事象がそれぞれ後方の機能表現にどのように繋がっているかのパターンを調べると表\ref{tab:scope}のような分布が得られた.主なパターンは次のとおりである.\begin{description}\item[直接の項]従属事象(「冒険」)が上位事象(「堪能し」)の項になっており,上位事象に付随する機能表現(「ください」)の影響を受けるパターン\enumsentence{物語を楽しみつつ、\event{冒険}を\event{堪能し}て\underline{ください}$_{依頼}$。}\item[テ形接続]従属事象(「活かし」)がテ形接続で後続事象(「働く」)に係っており,その後続事象の機能表現(「なかっ」)の影響を受けるパターン\enumsentence{うまく\event{活かし}て\event{働く}ことができ\underline{なかっ}$_{否定}$た。}\item[項を修飾]従属事象(「難しい」)が後続の事象表現(「ある」)の項になっている名詞(「試験」)を修飾しているパターン\enumsentence{そんなに\event{難しい}試験が\event{ある}\underline{のでしょうか}$_{疑問}$?}\item[名詞述語を修飾]従属事象(「質問し」が名詞述語(「子かな」)の名詞を修飾しており,その名詞述語の機能表現(「かな」)の影響を受けるパターン\enumsentence{昨日楽譜何がいいって\event{質問し}た\event{子}\underline{かな}$_{疑問}$。}\end{description}これらのパターンについては,事実性解析時に後続の機能表現の影響を考慮する必要があるが,そのためには当該の従属事象が後続の機能表現のスコープ内にあるかどうかを正確に判別する必要がある.そこで,こうした機能表現のスコープの分布についてさらにデータを拡充して調査を行った.\begin{table}[b]\caption{ランダムに抽出した140文中の従属事象の分布}\label{tab:subdist}\input{03table14.txt}\end{table}拡張モダリティタグ付与コーパスのうち,2個以上事象が含まれており,かつ,主事象の事実性がCT+ではない文を140文ランダムに抽出した.主事象の事実性がCT+でない文では,主事象の後ろに何らかの機能表現が付随している場合が多いため,今回の分析目的にかなうと考えられる.140文中には事象表現が全部で440個含まれ,そのうち主事象が140個,従属事象が300個であった.この300個の従属事象を対象に,主事象に付随する機能表現のスコープ内に従属事象が入っているか,主事象と従属事象の間にどのような接続パターンが見られるかを人手で調査した.ただし,当該の従属事象が主事象から表層的に離れている場合は,隣接する場合にくらべて主事象に付随する機能表現のスコープ内には入りにくいと予測されるので,表\ref{tab:subdist}では,上記300個の従属事象をさらに主事象に隣接する事例140個とそれ以外の160個に場合分けして集計した.ここでいう「隣接」とは,係り受け関係にある事象の中で最も表層上近いものを指す.係り受けは,CaboCha~\cite{CaboCha}による自動解析結果を利用した.まず,主事象から離れた従属事象160個について,従属事象が主事象と同じスコープ内に入っているかどうかを調べた.表\ref{tab:subdist}に示すように,スコープ内に入っている従属事象が11個,スコープ外にある従属事象が147個,後方の機能表現ではなく事象選択述語の影響を加味すべき事象が2個であり,「スコープ外」への偏りが極めて大きいことがわかった.すなわち,主事象から離れた従属事象が主事象の機能表現の影響を受けることは極めてまれで,その可能性を事実性解析プロセスの中で考慮しても精度のゲインはほとんど期待できない.\begin{table}[b]\vspace{-0.5\Cvs}\caption{主事象と最も近い従属事象との間の接続表現の分類}\label{tab:scope:add}\input{03table15.txt}\end{table}つぎに,当該従属事象が主事象に隣接している事例140個の分布を表\ref{tab:subdist}に示す.上段の「スコープ内が見られた表現」には,従属事象が主事象に付随する機能表現のスコープ内に入っている場合が一度でも観察された接続パターンを並べた.「〜てから」のように表\ref{tab:scope}に入っているが,上記140個の事例の中には出現しなかったものも含めてある.表\ref{tab:scope}と表\ref{tab:scope:add}を合わせると興味深い知見が得られる.表\ref{tab:scope}の誤りを解消するためには,主として「直接の項」「テ形接続」「項を修飾」「名詞述語を修飾」などの接続パターンのスコープを決定する必要があるが,このうち「直接の項」をのぞく3つのパターンはいずれもスコープ内外の選択が高度に曖昧であり(例えば「テ形接続」は「スコープ内」が5件,「スコープ外」が9件),これらのパターンのスコープを決定する課題に注力することに一定の効用があることがわかる.(\ref{ex:scopeamb})に「テ形接続」でスコープ内外が異なる例を示す.\eenumsentence{\item[a.]うまく\event{活かし}て\event{働く}ことができ\underline{なかっ}$_{否定}$た。(スコープ内)\item[b.]諸事情が\event{あっ}て\event{離婚する}ことができ\underline{なかっ}$_{否定}$た。(スコープ外)}\label{ex:scopeamb}一方,「直接の項」については,つねにスコープ内であると判断してもよい.また,「〜が」「〜ので」「〜たら」などの接続パターンは「スコープ外」への偏りが大きく,決定的に「スコープ外」と決めても大きなリスクにはならない可能性がある.その他の接続パターンに関しても,ある程度の偏りが見られ,規則ベースで決めても問題はないと考えられる.離れた事象と比較して,隣接する事象のほうがスコープ内に入る場合が多いことから,事実性解析プロセスの中で隣接事象のスコープを考慮することによって,ある程度のゲインが期待できる.隣接事象のスコープを考慮することが,事実性解析の性能改善に繋がるのかを検証するために,隣接事象のスコープを付与し,それを考慮した解析モデルを適用して,誤り分析を行う.まず,隣接事象対に対して同じスコープ内に入るかを人手で付与する.例えば(\ref{ex:scopeamb}a)では,「活かす」と「働く」は同じスコープ内に入ると付与し,(\ref{ex:scopeamb}b)では,「ある」と「離婚する」は同じスコープに入らないと付与する.次に,解析モデルを,スコープを考慮したものに拡張する.同じスコープに入ると付与された事象対について,前件の事象(文頭側の事象)については,自身に付随する機能表現の意味ラベル列に加えて,後件の事象(文末側の事象)に付随する機能表現の意味ラベル列についても考慮して,事実性の更新ルールを適用する.例えば(\ref{ex:scopeamb}a)では「活かす」と「働く」が同じスコープ内であり,(\ref{ex:scopeamb}b)では「ある」と「離婚する」が同じスコープ内にはない,というアノテーションを行う.このアノテーションを利用し,3.4節で述べた解析モデルを拡張することで,事実性の解析を行う.具体的には,「同じスコープ内である」と付与された事象対のうち,前件の事象については,前件の事象自身に付随する機能表現の意味ラベル列に加えて,後件の事象に付随する機能表現の意味ラベル列に基づいた更新ルールを適用することで,事実性を決定する.例えば(\ref{ex:scopeamb}a)では「活かす」と「働く」が同じスコープ内であるため,「活かす」の事実性を決定する際には,「活かす」自身の機能表現がもつ更新ルールを適用する(今回は更新ルールをもつ機能表現は付随していない)だけでなく,「働く」に付随する機能表現である「なかっ」がもつ更新ルール1も適用する.\begin{table}[b]\vspace{-0.5\Cvs}\caption{スコープのアノテーションによる事実性解析性能}\label{tab:scope:result}\input{03table16.txt}\end{table}\begin{table}[b]\caption{スコープのアノテーションによる事実性解析結果の変化}\label{tab:scope:change}\input{03table17.txt}\end{table}1,533文のうち,2個以上事象が含まれており,かつ,主事象の事実性がCT+ではない441文を抽出し,その中で係り受け関係にある900事象対に対してスコープのアノテーションを行った.その結果,同じスコープ内に入ると判断されたのは120事象対であった.これらの事象対のうち,後件の事象の事実性はスコープに関わらず変化しないが,前件の事象の事実性はスコープを利用することによって,後件の事象に付随する機能表現の影響を受けて変化する.前件の事象120事象における事実性解析の性能を表\ref{tab:scope:result},事実性解析性能の変化を表\ref{tab:scope:change}に示す.事例数の変化を見ると,改善事例が多く,36事例見られたものの,スコープを考慮しても誤る事例も51事例見られた.しかしながら,その誤り原因を確認すると,51事例のうち32事例は事実性のアノテーション誤りであり,システムは正しく事実性を解析することができていた.それ以外の事例において,スコープを考慮しても正解できなかったものとしては,以下の事例がある.\enumsentence{あなた自身が\event{貯金する}くせを\event{つけ}\underline{ないと}$_{当為}$。\\(「つける」正解:Uu,スコープ無:CT+,スコープ有:CT+)\\(「貯金する」正解:Uu,スコープ無:CT+,スコープ有:CT+)}\label{ex:inscope:error}(\ref{ex:inscope:error})では,「貯金する」と「つける」が同じスコープ内にあると判断された事例であるが,従属事象「貯金する」だけでなく,主事象「つける」も誤りとなっている.主事象「つける」が誤った原因は,主事象における誤り分析で述べたように,主事象に付随する機能表現である$\langle\text{当為}\rangle$のルールが不足していることである.このルールが追加されれば,主事象の改善とともに,同一スコープ内の事象である「貯金する」も同時に正しく判定できるようになる.このように,主事象で見られた誤りを改善することで,スコープ内と判断された従属事象の性能改善にもつながる事例が19事例見られた.スコープを考慮した事実性解析を行うことで,CT+以外の性能,特に再現率を向上させることができるため,マクロ平均はスコープを考慮した方が大きく上回る性能となった.このことから,隣接事象対のスコープ判定を精緻に行うことが,事実性解析の性能向上に貢献することを確認することができた.以上の観察を合わせると,次のことが言える.\begin{itemize}\item調査した接続パターンのうち,誤りの半分近く(36/80)にあたる「直接の項」は我々の分析データを見る限り,全ての場合においてスコープ内に来るので,述語項構造解析の結果に基づいてスコープを広げることにより,事実性解析の性能を向上させることができる.\item誤りのうち4割以上(33/80)にあたる「テ形接続」「項を修飾」「名詞述語を修飾」等の接続パターンの場合には,スコープ内外の選択が高度に曖昧であり,これらのパターンのスコープを決定する課題に注力することに一定の効用があることがわかる.\itemスコープを人手で付与し,事実性解析に取り入れることで,CT+以外の性能,特に再現率を向上させることができるため,マクロ平均はスコープを考慮した方が大きく上回る性能を得られる.このことから,隣接事象対のスコープ判定を精緻に行うことが,事実性解析の性能向上に貢献することを確認できた.\end{itemize}
\section{おわりに}
\label{sec_conc}事実性解析には,事象に含まれる機能表現,疑問詞を含む副詞,文節境界を越えて事実性に影響を与える語とそのスコープ,その他の4種類の問題が含まれている.それぞれは単独でも一つの研究課題になるほどに,容易な問題ではないが,事実性解析ではさらにその組み合わせがあるため,性能の向上が難しい.本研究では,事実性解析の課題分析を行うために,機能表現のみを用いたルールベースの事実性解析器を構築し,1,533文に含まれる3,734事象に適用した結果の誤りを分析した.このとき全ての事象表現について,述語に続く機能表現に対して意味ラベルを付与した.主事象の事実性解析については,機能表現の意味ラベルが正しく解析できれば,現在の意味ラベルの体系と本研究で用いた単純な規則だけでも,90\%に近い正解率が得られることがわかった.本研究で用いた規則は人手で構築したものであるため,その整備は必要ではあるものの,それよりもむしろ,現在の機能表現の意味ラベル体系に基づいて機能表現解析モデルの研究開発を行うことに一定の支持を与えるものと考える.また,機能表現解析の問題を除けば,誤りの半数は副詞に起因するものであった.したがって,事実性解析は副詞の意味解析の研究を動機付ける良い課題となりうる.従属事象の事実性解析は,主事象に比べて考慮すべき要素が多く,性能も低い.従属事象でのみ考慮すべき要素は大きく二つあり,文節境界を越えて事実性に影響を与える述語と,従属事象に直接付随しない機能表現の影響である.文節境界を越えて事実性に影響を与える述語については,既存の事象選択述語辞書が一定のカバレッジを持っており,これを利用することで誤りの多くを解消できる可能性がある.しかし,複合語のカバレッジに問題があるなど,こうしたリソースの整備が今後の課題であることがわかった.従属事象に直接付随しない機能表現については,直接の親の事象に付随する機能表現の影響を受ける可能性があるが,その他の事象表現に付随する機能表現の影響はほとんど無視できることも明らかになった.前者の場合については,誤りの半分近く(36/80)にあたる「直接の項」は我々の分析データを見る限り,全ての場合においてスコープ内に来るので,述語項構造解析の結果に基づいてスコープを広げることにより,事実性解析の性能を向上させることができる.一方で,誤りのうち4割以上(33/80)「テ形接続」「項を修飾」「名詞述語を修飾」等の接続パターンの場合には,スコープ内外の選択が高度に曖昧であり,これらのパターンのスコープを決定する課題に注力することに一定の効用があることかがわかる.それ以外の主要な接続パターンはスコープの範囲を規則ベースで決めても大きな問題は生じそうにない.また,離れた事象対と比較して,隣接事象対のスコープを特定する方が,事実性解析に対して大きなゲインが期待できる.実際にスコープを人手で付与し,事実性解析に取り入れることで,CT+以外の性能,特に再現率を向上させることができた.このことから,隣接事象対のスコープ判定を精緻に行うことが,事実性解析の性能向上に貢献することを確認できた.本研究で報告した誤り分析・課題分析は「Yahoo!知恵袋」のコーパスを用いており,他のドメインやスタイルの文章で同様の傾向が得られるかは明らかでない.今後は調査の範囲を広げ,問題の性質の一般化を図る.また,本研究では,機能表現の意味ラベルに関して正解を与えることで,人手で構築した規則ベースのモデルでも,主事象においては90\%近くの正解率となり,ある程度の性能をあげられることを示した.機能表現の意味ラベルを人手で与えることで,更新ルールや辞書の改善によって得られるゲインよりもかなり大きなゲインが得られていると考えられる.このことから,更新ルールや辞書の整備も必要な課題ではあるものの,今後は,本研究では正解を与えた,機能表現の意味ラベルを自動で解析する課題に注力することが重要であると考える.従属事象においては,主事象同様に機能表現解析も重要な要素となるが,特に隣接する事象が同一スコープに入るか否かを自動で解析することが,事実性解析の性能向上に寄与することが明らかになっている.人手で与えていたスコープを自動で解析することが重要な課題であると考える.\acknowledgment本研究は,文部科学省科研費(15H01702),JST戦略的創造研究推進事業CREST,および,文部科学省「ビッグデータ利活用のためのシステム研究等」委託事業「実社会ビッグデータ利活用のためのデータ統合・解析技術の研究開発」の一環として行われた.\bibliographystyle{jnlpbbl_1.5}\addtolength{\baselineskip}{-0.75pt}\begin{thebibliography}{}\bibitem[\protect\BCAY{有田}{有田}{2007}]{Arita2007}有田節子\BBOP2007\BBCP.\newblock\Jem{日本語条件文と時制節性}.\newblockくろしお出版.\bibitem[\protect\BCAY{de~Marneffe,Manning,\BBA\Potts}{de~Marneffeet~al.}{2012}]{Marneffe2012}de~Marneffe,M.-C.,Manning,C.~D.,\BBA\Potts,C.\BBOP2012\BBCP.\newblock\BBOQDidItHappen?ThePragmaticComplexityofVeridicalityAssessment.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf38}(2),\mbox{\BPGS\301--333}.\bibitem[\protect\BCAY{江口\JBA松吉\JBA佐尾\JBA乾\JBA松本}{江口\Jetal}{2010}]{Eguchi2010_nlp}江口萌\JBA松吉俊\JBA佐尾ちとせ\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblockモダリティ,真偽情報,価値情報を統合した拡張モダリティ解析.\\newblock\Jem{言語処理学会第16回年次大会発表論文集},\mbox{\BPGS\852--855}.\bibitem[\protect\BCAY{遠藤\JBA小林\JBA三井\JBA村木\JBA吉沢}{遠藤\Jetal}{2003}]{Endo2003}遠藤織枝\JBA小林賢次\JBA三井昭子\JBA村木新次郎\JBA吉沢靖\JEDS\\BBOP2003\BBCP.\newblock\Jem{使い方の分かる類語例解辞典新装版}.\newblock小学館.\bibitem[\protect\BCAY{Fan,Chang,Hsieh,Wang,\BBA\Lin}{Fanet~al.}{2008}]{REF08a}Fan,R.-E.,Chang,K.-W.,Hsieh,C.-J.,Wang,X.-R.,\BBA\Lin,C.-J.\BBOP2008\BBCP.\newblock\BBOQLIBLINEAR:ALibraryforLargeLinearClassification.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf9},\mbox{\BPGS\1871--1874}.\bibitem[\protect\BCAY{Farkas,Vincze,M\'{o}ra,Csirik,\BBA\Szarvas}{Farkaset~al.}{2010}]{CoNLL2010}Farkas,R.,Vincze,V.,M\'{o}ra,G.,Csirik,J.,\BBA\Szarvas,G.\BBOP2010\BBCP.\newblock\BBOQTheCoNLL-2010SharedTask:LearningtoDetectHedgesandTheirScopeinNaturalLanguageText.\BBCQ\\newblockIn{\BemProceedingsofthe14thConferenceonComputationalNaturalLanguageLearning---SharedTask},\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{後藤\JBA大竹\JBA{StijnDe~Saeger}\JBA橋本\JBA{JulienKloetzer}\JBA川田\JBA鳥澤}{後藤\Jetal}{2013}]{Goto2013}後藤淳\JBA大竹清敬\JBA{StijnDe~Saeger}\JBA橋本力\JBA{JulienKloetzer}\JBA川田拓也\JBA鳥澤健太郎\BBOP2013\BBCP.\newblock質問応答に基づく対災害情報分析システム.\\newblock\Jem{自然言語処理},{\Bbf20}(3),\mbox{\BPGS\367--404}.\bibitem[\protect\BCAY{原\JBA乾}{原\JBA乾}{2008}]{Hara2008}原一夫\JBA乾健太郎\BBOP2008\BBCP.\newblock事態抽出のための事実性解析.\\newblock\Jem{情報処理学会研究報告,2008-FI-89,2008-NL-183},\mbox{\BPGS\75--80}.\bibitem[\protect\BCAY{Hickl}{Hickl}{2008}]{Hickl2008}Hickl,A.\BBOP2008\BBCP.\newblock\BBOQUsingDiscourseCommitmentstoRecognizeTextualEntailment.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics},\lowercase{\BVOL}~1,\mbox{\BPGS\337--344}.\bibitem[\protect\BCAY{飛田\JBA浅田}{飛田\JBA浅田}{1994}]{Hida1994Fukushi}飛田良文\JBA浅田秀子\BBOP1994\BBCP.\newblock\Jem{現代副詞用法辞典}.\newblock東京堂出版.\bibitem[\protect\BCAY{今村\JBA泉\JBA菊井\JBA佐藤}{今村\Jetal}{2011}]{Imamura2011}今村賢治\JBA泉朋子\JBA菊井玄一郎\JBA佐藤理史\BBOP2011\BBCP.\newblock述部機能表現の意味ラベルタガー.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},\mbox{\BPGS\308--311}.\bibitem[\protect\BCAY{Inui,Abe,Hara,Morita,Sao,Eguchi,Sumida,Murakami,\BBA\Matsuyoshi}{Inuiet~al.}{2008}]{Inui2008}Inui,K.,Abe,S.,Hara,K.,Morita,H.,Sao,C.,Eguchi,M.,Sumida,A.,Murakami,K.,\BBA\Matsuyoshi,S.\BBOP2008\BBCP.\newblock\BBOQExperienceMining:BuildingaLarge-ScaleDatabaseofPersonalExperiencesandOpinionsfromWebDocuments.\BBCQ\\newblockIn{\BemProceedingsofthe2008IEEE/WIC/ACMInternationalConferenceonWebIntelligenceandIntelligentAgentTechnology-Volume01},\mbox{\BPGS\314--321}.\bibitem[\protect\BCAY{Kamioka,Narita,Mizuno,Kanno,\BBA\Inui}{Kamiokaet~al.}{2015}]{Kamioka2015}Kamioka,Y.,Narita,K.,Mizuno,J.,Kanno,M.,\BBA\Inui,K.\BBOP2015\BBCP.\newblock\BBOQSemanticAnnotationofJapaneseFunctionalExpressionsanditsImpactonFactualityAnalysis.\BBCQ\\newblockIn{\BemProceedingsofThe9thLinguisticAnnotationWorkshop},\mbox{\BPGS\52--61}.\bibitem[\protect\BCAY{Karttunen\BBA\Zaenen}{Karttunen\BBA\Zaenen}{2005}]{Karttunen2005}Karttunen,L.\BBACOMMA\\BBA\Zaenen,A.\BBOP2005\BBCP.\newblock\BBOQVeridicity.\BBCQ\\newblockInKatz,G.,Pustejovsky,J.,\BBA\Schilder,F.\BEDS,{\BemAnnotating,ExtractingandReasoningaboutTimeandEvents},\lowercase{\BNUM}\05151inDagstuhlSeminarProceedings.\bibitem[\protect\BCAY{川添\JBA齊藤\JBA片岡\JBA崔\JBA戸次}{川添\Jetal}{2011a}]{Kawazoe2011}川添愛\JBA齊藤学\JBA片岡喜代子\JBA崔栄殊\JBA戸次大介\BBOP2011a\BBCP.\newblock確実性判断のためのアノテーション済みコーパスの構築.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},\mbox{\BPGS\143--146}.\bibitem[\protect\BCAY{川添\JBA齊藤\JBA片岡\JBA崔\JBA戸次}{川添\Jetal}{2011b}]{Kawazoe2011_report}川添愛\JBA齊藤学\JBA片岡喜代子\JBA崔栄殊\JBA戸次大介\BBOP2011b\BBCP.\newblock言語情報の確実性に影響する表現およびそのスコープのためのアノテーションガイドラインVer.2.4.\\newblock\JTR,DepartmentofInformationScience,OchanomizuUniversity,OCHA-IS10-4.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2004}]{BunruiGoihyo}国立国語研究所\BBOP2004\BBCP.\newblock\Jem{分類語彙表}.\newblock大日本図書.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2002}]{CaboCha}工藤拓\JBA松本裕治\BBOP2002\BBCP.\newblockチャンキングの段階適用による日本語係り受け解析.\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(6),\mbox{\BPGS\1834--1842}.\bibitem[\protect\BCAY{益岡}{益岡}{2007}]{Masuoka2007}益岡隆志\BBOP2007\BBCP.\newblock\Jem{日本語モダリティ探求}.\newblockくろしお出版.\bibitem[\protect\BCAY{松吉}{松吉}{2014}]{Matsuyoshi2014}松吉俊\BBOP2014\BBCP.\newblock否定の焦点情報アノテーション.\\newblock\Jem{自然言語処理},{\Bbf21}(2),\mbox{\BPGS\249--270}.\bibitem[\protect\BCAY{松吉\JBA佐尾\JBA乾\JBA松本}{松吉\Jetal}{2011}]{Matsuyoshi2011}松吉俊\JBA佐尾ちとせ\JBA乾健太郎\JBA松本裕治\BBOP2011\BBCP.\newblock拡張モダリティタグ付与コーパスの設計と構築.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},\mbox{\BPGS\147--150}.\bibitem[\protect\BCAY{{松吉}\JBA江口\JBA佐尾\JBA村上\JBA乾\JBA松本}{{松吉}\Jetal}{2010}]{Matsuyoshi2010}{松吉}俊\JBA江口萌\JBA佐尾ちとせ\JBA村上浩司\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblockテキスト情報分析のための判断情報アノテーション.\\newblock\Jem{電子情報通信学会論文誌D},{\BbfJ93-D}(6),\mbox{\BPGS\705--713}.\bibitem[\protect\BCAY{松吉\JBA佐藤\JBA宇津呂}{松吉\Jetal}{2007}]{Matsuyoshi2007}松吉俊\JBA佐藤理史\JBA宇津呂武仁\BBOP2007\BBCP.\newblock日本語機能表現辞書の編纂.\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\123--146}.\bibitem[\protect\BCAY{南}{南}{1974}]{Minami1974}南不二男\BBOP1974\BBCP.\newblock\Jem{現代日本語の構造}.\newblock大修館書店.\bibitem[\protect\BCAY{水野\JBA成田\JBA乾\JBA大竹\JBA鳥澤}{水野\Jetal}{2013}]{Mizuno2013}水野淳太\JBA成田和弥\JBA乾健太郎\JBA大竹清敬\JBA鳥澤健太郎\BBOP2013\BBCP.\newblock拡張モダリティ解析器の試作と課題分析.\\newblock\Jem{ALAGIN\&NLP若手の会合同シンポジウム}.\bibitem[\protect\BCAY{水野\JBA渡邉\JBA{エリックニコルズ}\JBA村上\JBA乾\JBA松本}{水野\Jetal}{2011}]{Mizuno2011}水野淳太\JBA渡邉陽太郎\JBA{エリックニコルズ}\JBA村上浩司\JBA乾健太郎\JBA松本裕治\BBOP2011\BBCP.\newblock文間関係認識に基づく賛成・反対意見の俯瞰.\\newblock\Jem{情報処理学会論文誌},{\Bbf52}(12),\mbox{\BPGS\3408--3422}.\bibitem[\protect\BCAY{Morante\BBA\Blanco}{Morante\BBA\Blanco}{2012}]{SEM2012}Morante,R.\BBACOMMA\\BBA\Blanco,E.\BBOP2012\BBCP.\newblock\BBOQ*SEM2012SharedTask:ResolvingtheScopeandFocusofNegation.\BBCQ\\newblockIn{\Bem*SEM2012:The1stJointConferenceonLexicalandComputationalSemantics-Volume1:ProceedingsoftheMainConferenceandtheSharedTask},\mbox{\BPGS\265--274}.\bibitem[\protect\BCAY{森田\JBA松木}{森田\JBA松木}{1989}]{Morita1989}森田良行\JBA松木正恵\BBOP1989\BBCP.\newblock\Jem{日本語表現文型用例中心・複合辞の意味と用法}.\newblockアルク.\bibitem[\protect\BCAY{日本語記述文法研究会(編)}{日本語記述文法研究会(編)}{2003}]{Grammar3}日本語記述文法研究会(編)\BBOP2003\BBCP.\newblock\Jem{現代日本語文法3}.\newblockくろしお出版.\bibitem[\protect\BCAY{Saur\'{\i}}{Saur\'{\i}}{2008}]{Sauri2008_Guidelines}Saur\'{\i},R.\BBOP2008\BBCP.\newblock\BBOQFactBank1.0AnnotationGuidelines.\BBCQ\{\ttfamilyhttp://\linebreak[2]www.cs.brandeis.edu/\linebreak[2]{\textasciitilde}roser/\linebreak[2]pubs/\linebreak[2]fb\_annotGuidelines.pdf}.\bibitem[\protect\BCAY{Saur\'{\i},Littman,Gaizauskas,Setzer,\BBA\Pustejovsky}{Saur\'{\i}et~al.}{2006}]{Sauri2006}Saur\'{\i},R.,Littman,J.,Gaizauskas,R.,Setzer,A.,\BBA\Pustejovsky,J.\BBOP2006\BBCP.\newblock\BBOQTimeMLAnnotationGuidelines,Version1.2.1.\BBCQ\{\ttfamilyhttp://\linebreak[2]www.timeml.org/\linebreak[2]site/\linebreak[2]publications/\linebreak[2]timeMLdocs/\linebreak[2]annguide\_1.2.1.pdf}.\bibitem[\protect\BCAY{Saur\'{\i}\BBA\Pustejovsky}{Saur\'{\i}\BBA\Pustejovsky}{2007}]{Sauri2007}Saur\'{\i},R.\BBACOMMA\\BBA\Pustejovsky,J.\BBOP2007\BBCP.\newblock\BBOQDeterminingModalityandFactualityforTextEntailment.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonSemanticComputing},\mbox{\BPGS\509--516}.\bibitem[\protect\BCAY{Saur\'{\i}\BBA\Pustejovsky}{Saur\'{\i}\BBA\Pustejovsky}{2009}]{Sauri2009}Saur\'{\i},R.\BBACOMMA\\BBA\Pustejovsky,J.\BBOP2009\BBCP.\newblock\BBOQFactBank:ACorpusAnnotatedwithEventFactuality.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf43}(3),\mbox{\BPGS\227--268}.\bibitem[\protect\BCAY{Saur\'{\i}\BBA\Pustejovsky}{Saur\'{\i}\BBA\Pustejovsky}{2012}]{Sauri2012}Saur\'{\i},R.\BBACOMMA\\BBA\Pustejovsky,J.\BBOP2012\BBCP.\newblock\BBOQAreYouSurethatThisHappened?AssessingtheFactualityDegreeofEventsinText.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf38}(2),\mbox{\BPGS\261--299}.\bibitem[\protect\BCAY{Sutton,McCallum,\BBA\Rohanimanesh}{Suttonet~al.}{2007}]{Sutton2007}Sutton,C.,McCallum,A.,\BBA\Rohanimanesh,K.\BBOP2007\BBCP.\newblock\BBOQDynamicConditionalRandomFields:FactorizedProbabilisticModelsforLabelingandSegmentingSequenceData.\BBCQ\\newblock{\BemTheJournalofMachineLearningResearch},{\Bbf8},\mbox{\BPGS\693--723}.\bibitem[\protect\BCAY{鈴木\JBA阿部\JBA宇津呂\JBA松吉\JBA土屋}{鈴木\Jetal}{2011}]{Suzuki2011}鈴木敬文\JBA阿部佑亮\JBA宇津呂武仁\JBA松吉俊\JBA土屋雅稔\BBOP2011\BBCP.\newblock大規模階層辞書と用例を用いた日本語機能表現の解析.\\newblock\Jem{『現代日本語書き言葉均衡コーパス』完成記念講演会予稿集},\mbox{\BPGS\105--110}.\bibitem[\protect\BCAY{Szarvas,Vincze,Farkas,\BBA\Csirik}{Szarvaset~al.}{2008}]{Szarvas2008}Szarvas,G.,Vincze,V.,Farkas,R.,\BBA\Csirik,J.\BBOP2008\BBCP.\newblock\BBOQTheBioScopeCorpus:AnnotationforNegation,UncertaintyandTheirScopeinBiomedicalTexts.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponCurrentTrendsinBiomedicalNaturalLanguageProcessing},\mbox{\BPGS\38--45}.\bibitem[\protect\BCAY{田窪}{田窪}{2010}]{Takubo2010}田窪行則\BBOP2010\BBCP.\newblock\Jem{日本語の構造推論と知識管理}.\newblockくろしお出版.\bibitem[\protect\BCAY{梅澤\JBA西尾\JBA松田\JBA原田}{梅澤\Jetal}{2008}]{Umezawa2008SAGE}梅澤俊之\JBA西尾華織\JBA松田源立\JBA原田実\BBOP2008\BBCP.\newblock意味解析システムSAGEの精度向上とモダリティの付与と辞書更新支援系の開発.\\newblock\Jem{言語処理学会第14回年次大会発表論文集},\mbox{\BPGS\548--551}.\end{thebibliography}\begin{biography}\bioauthor{成田和弥}{2015年東北大学大学院情報科学研究科博士後期課程科目修了退学.同年より同研究科研究員,現在に至る.自然言語処理の研究に従事.}\bioauthor{水野淳太}{2012年奈良先端科学技術大学院大学情報科学研究科博士課程修了.同年より東北大学大学院情報科学研究科研究員.2013年より独立行政法人情報通信研究機構耐災害ICT研究センター研究員,現在に至る.博士(工学).自然言語処理,耐災害情報通信の研究に従事.情報処理学会,人工知能学会各会員.}\bioauthor{上岡裕大}{2014年東北大学工学部情報知能システム総合学科卒業.同年,同大学大学院情報科学研究科博士前期課程に進学,現在に至る.自然言語処理の研究に従事.情報処理学会学生会員.}\bioauthor{菅野美和}{2013年より東北大学大学院情報科学研究科技術補佐員,現在に至る.自然言語処理研究データのアノテーションに従事.}\bioauthor{乾健太郎}{1995年東京工業大学大学院情報理工学研究科博士課程修了.同研究科助手,九州工業大学助教授.奈良先端科学技術大学院大学助教授を経て,2010年より東北大学大学院情報科学研究科教授,現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL,AAAI各会員.}\end{biography}\biodate\end{document}
| |
V08N01-04 | \section{はじめに}
情報検索の分野は,欧米において過去数十年の間に,英語を中心とした文書を対象に研究が盛んに進められ,高速な文字列検索アルゴリズムや自動索引づけなどに多くの成果が得られた.これらの技術が基礎となり,大規模な文書集合に対する検索技術,新しい評価技術の向上を目的として,TREC(TextREtrievalConference)\footnote{TRECワークショップホームページ:http://trec.nist.gov}などのコンテストが開催され,新しい技術の開発やこれまでの技術の改良などが活発に行われている.日本においても,情報抽出,検索技術に関する研究が盛んに行われ,数多くの優れた日本語情報検索システムが提案されている.このようなシステムを評価するための日本語テストコレクションの整備も進み\cite{kitani},個々の検索システムを容易に評価できるようになった.さらに,共通のデータベース,プラットフォームにおけるシステム評価の場として,IREX(InformationRetrievalandExtractionExercise)ワークショップ\footnote{IREXワークショップホームページ:http://cs.nyu.edu/cs/projects/proteus/irex/}が開催された.このワークショップには,情報検索(IR)と情報抽出(NE)の各課題に対して数多くのシステムが参加し,全体的な評価を通して様々な議論が行われた.IREXの目標のひとつとして,共通の基準における各検索システムの評価を基にした問題点の共有と,それによるこの分野の飛躍的な進歩,発展がある\cite{sekine99}.一般的に,情報検索システムの性能評価をする際には,提案された手法を利用したシステムと利用していないシステムとの比較を行う.比較する際,一つのシステムからみると,参加した数多くのシステムにおける評価結果の違いから,研究の新しい方向性や発展性が発見できる.しかし,IREXでは,数多くのシステムが参加しているため,ふたつのシステム間の比較実験では実験回数が莫大となり,共通点,相違点の整理が複雑になってしまう.また,他の比較手法として,使用されたシステムとは別の基準システムを作り,比較を行う手法も提案されている\cite{Hull93}.しかし,その場合,システム間の相違点が多くなり,直接的に何が精度向上の原因であるのかをとらえることが難しくなる.したがって,すべての検索システムを対象として,システムの構成要素を評価すると同時に,全体的なシステムの検索精度を評価するようなシステム指向の評価方法が必要となる.このような全体的な評価は,問題点を発見,解決するための議論を進める上で重要な課題であると考えられ,TRECやIREXでは様々な評価が行われている\cite{Lagergren98}\cite{Voorhees98SIGIR}\cite{Matuo99}.本論文では,IREXにおけるIR課題の本試験の結果,および参加した各システムについての,参加者が回答したアンケート結果を参考にして,IR課題におけるシステムの特徴と精度の関連性を独自の統計的な手法を用いて分析する.これまでは,手法を利用したシステムと利用していないシステムとの実験結果を比較することによって,その手法の有効性が評価されていた.これに対し,我々の提案する評価手法は,数多くのシステムにおける検索結果を基にして,システムに用いられた手法との関連性を客観的な相関係数として表し,検索システムに対し有効な手法を明確にしている.このような検索システムに対し有効な手法を示す評価は,これまでTREC7においても行われているが,比較に用いられたすべてのシステムで再現率・適合率曲線の違いがほとんど無い条件の下で行われている\cite{Voorhees98}.この条件において,比較に用いたシステムが利用した手法が示されているが,客観的にその手法が有効かどうかの判断は難しい.その点で,我々の評価手法はどのような再現率・適合率曲線に対しても客観的に有効な手法を示すことができる.さらに,我々の評価手法は,検索結果でのランクの上位に,関連のある文書を数多く検索するための有効な手法を示すことができる.この分析においては,IRシステムのアンケートの中でシステムの性能に大きく影響する次の3点\begin{itemize}\item索引づけ,索引構造\item検索式の生成\item検索モデル,ランクづけ\end{itemize}に注目して,これらの要素を実現するために用いられた手法が検索精度とどの程度関連があるのかを調査する.IREXでは,検索課題\footnote{検索課題の例としては,以下のようなものがある.\\$<$TOPIC$>$\\$<$TOPIC-ID$>$1001$<$/TOPIC-ID$>$\\$<$DESCRIPTION$>$企業合併$<$/DESCRIPTION$>$\\$<$NARRATIVE$>$記事には企業合併成立の発表が述べられており、その合併に参加する企業の名前が認定できる事。また、合併企業の分野、目的など具体的内容のいずれかが認定できる事。企業合併は企業併合、企業統合、企業買収も含む。$<$/NARRATIVE$>$\\$<$/TOPIC$>$}に,検索要求を簡潔に表現したDESCRIPTIONタグと,人間が判断可能な程度の詳細な検索要求の記述をしたNARRATIVEタグが用いられている.通常,WWWサイトなどに存在する検索エンジンに入力される索引語の数は2,3語と少ないために,DESCRIPTIONタグのみを検索実験に考慮する方が実用的である.しかし,DESCRIPTIONタグのみを利用した場合には曖昧さが生じてしまい,人間が可能な限り正確に検索できるという点においては,詳細に書かれているNARRATIVEタグの方が重要な情報であるといえる.実際,TRECなどにおいても,このような検索要求の長さに対する精度への影響が議論され,NARRATIVEタグの使用による精度の違いが分析されている\cite{Voorhees97}\cite{Voorhees98}\cite{Hull96}.このようなことから,IREXにおいても,検索式を作成する際のNARRATIVEタグの使用有無により,検索システムに与える影響が変化するものと考えられる.このことを明らかにするため,検索システムにおけるNARRATIVEタグの利用有無によりshortとlongに分け,それぞれの平均適合率と相関の高いシステムの特徴を調べる.再現率・適合率曲線に対し単回帰分析を行い直線として近似した場合,その切片が大きい時,ランクの上位に適合する文書を検索できる確率が高いと考えられる.また,傾きが平行に近いほど,システムは再現率の増加とともに起こる適合率の減少を抑えることができると考えられる.そこで,検索結果を平均して得られた再現率・適合率曲線に単回帰分析を行い直線として近似し,その切片と傾きがさまざまな手法のなかでどの手法に関連性が強いのかを調べる.また,同様に,shortとlongにおける切片と傾きとの相関が高いシステムの特徴を調べる.これらを分析することにより,本試験に参加したすべてのシステムで,検索質問をshortとlongに分けたそれぞれの場合に対して,傾き,切片から総合的に,どの手法と関連性が強いかを考察する.\vspace*{-0.3cm}
\section{再現率と適合率の関係}
IRシステムの評価には,一般的に適合率(Precision)と再現率(Recall)が使用される\cite{lewis2}\cite{Witten}.適合率は,システムが検索した文書に対する,検索した正解文書数の割合であり,検索の能力を表している.再現率は,全正解文書数に対するシステムが検索した正解文書数の割合であり,システムがすべての適合する文書のうちどの程度実際に検索可能かという検索の幅を表している.再現率と適合率はそれぞれ個別に用いてもシステムの評価を行うことができるが,ランクづけを行う検索システムでは,一般的に再現率・適合率曲線が用いられている.\begin{figure}[t]\begin{center}\atari(110,76)\end{center}\caption{A判定のみの再現率・適合率曲線}\label{re_pre}\end{figure}IREXワークショップにおけるIR課題は,2年分の新聞記事から検索課題に書かれた検索要求に関連する文書を検索するもので,予備試験と本試験が行われた.予備試験は課題数が6課題あり,評価結果は非公開で,本試験は課題数が30課題あり,評価結果は実際の団体名が分からないように各団体をシステムIDにより表し,公開している.検索結果の判定基準にはA,B,Cの3種類あり,A判定は記事の主題が検索課題に関連している場合,B判定はA判定のように記事の主題には関連性がないが,記事の一部が関連している場合,C判定は何も関連していない場合という判断基準になっている.そのIRの本試験に参加したすべてのシステムにおける,A判定のみを正解とした検索結果を図\ref{re_pre}に示す.このグラフにおいて,一つの曲線を示す`1103a'などの文字列はシステムIDを表している.このグラフから分かるように,再現率と適合率の関係は大きく分けて2種類あると考えられる.一つ目は,適合率が再現率の増加に対し,直線的に減少する関係である.これは,ほとんどのシステムに当てはまる傾向で,特に再現率が0.0での適合率の値が高いシステムがこのようなグラフになっている.もう一つはグラフが下に凸の曲線を描くように適合率が減少する関係である.このような曲線は,検索の結果上位にランクされている文書に適合する文書が少ないため,再現率が少ない値において適合率の変動が激しくなっていると考えられる.システムについてのアンケートから,この曲線になる直接的な原因を調査したが,特にシステムに共通して用いられている手法は存在しなかった.また,多くのシステムが再現率0.0における適合率が0.7を超えており,ランク上位に適合する文書が検索される確率が高くなっている.再現率0.0における適合率の値はランク上位に適合する文書を検索できるのかを表す尺度で,高い値をもつシステムほどユーザの探している情報が検索されていると考えることができる.ランクの1位で検索された文書が適合する文書であると,その時点で再現率0.0での適合率は1.0となる.適合しない文書の場合には適合率は1.0にはならず,以降の検索結果のランクに従って適合率に大きな変動が生じる.変動の大きさはあるものの,その後適合する文書が適合しない文書に比べ数多く検索されると,適合率は高い値となる.しかし,再現率0.0での適合率の大きさには関係なく,再現率・適合率曲線のグラフは必ず単調に減少する特徴を持っている.ランクに関係なく適合する文書が連続して検索される,または適合する文書の割合が適合しない文書に比べ大きい場合には,再現率の増加に対する適合率の減少量が少なくなる.ランクの上位にいくらか適合しない文書を検索していたとしても,途中で適合する文書を連続して検索し,適合しない文書の数に比べて多くなることで,適合率の減少が少なくなり,傾きの最大値である0に近くなる.これより,適合する文書を効率良く検索するためには,グラフの減少量を少なくする必要があり,これはシステムを評価する上で重要な尺度であると考えられる.\clearpage
\section{評価実験}
IREXワークショップにおける,IR本試験の結果を公表する方法については,団体名を実名で公表するのではなく,各団体に割り当てられたID番号で結果を公表する方法がとられた.このため,検索結果に対してどのような手法が用いられているのか,研究的な内容を対応づけることが難しくなっている.システムの詳細を知る手段として,検索結果と同時に提出したIRシステムアンケートがある.このアンケートにより,各システムがどのような手法を利用したかが理解できるようになっている.IRシステムアンケートは,各システムについてどのような手法を用いて本試験の検索結果を出したのかを回答したものであり,主に次の項目がある.\begin{itemize}\item索引づけとそのデータ構造\item検索式の作成\item検索を実行する環境\item検索モデル\itemその他\end{itemize}これらの項目の回答を集計して,システムが用いた手法の内,主要な55個の手法に注目した.これらの手法を平均適合率などの数値と比較するために,手法の使用の有無により数値を割り当てる.本実験では,各システムが用いた手法には1を,用いていない手法については0を割り当て,数値データに変換した.このときアンケートの中で「はい」,「いいえ」で答えられない質問項目については,システムにただひとつしか用いられていない手法でもひとつの手法として数値を割り当て,システムの違いを明確に定めることにした.このように変換をしたデータに平均適合率を付け足してひとつの行列にして,用いられた手法と平均適合率との相関係数を求めた.相関とは,変数$x$,$y$において一方の変化が他方の変化にある傾向を伴うとき,$x$と$y$の間に相関関係があるという.相関には次の3種類がある.\begin{itemize}\item[]正の相関:一方の値が大きくなると,他方の値も大きくなる.\item[]負の相関:一方の値が小さくなると,他方の値も小さくなる.\item[]無相関:2つの値に明白な関係がみられない.\end{itemize}この相関を数値的に表したものに相関係数があり,2つの変数の相互関係の程度を表したものである.本実験では,相関の有無を明確にするために,相関係数の絶対値が0.5を超える手法は相関が認められるとして,システムが用いた手法に対して評価を行った.\subsection{平均適合率とシステムの関連}平均適合率とシステムとの相関係数を求めた結果,相関係数の高かった主なシステムの特徴を表\ref{pre_sys}に示す.相関係数の高い手法は,全体的に正の相関を持っているが,すべての手法に対し,相関係数の絶対値が0.5を下回っている.表\ref{pre_sys}において,相関係数の絶対値の高いLSI(LatentSemanticIndexing)やIDF(InverseDocumentFrequency)については,若干の相関は見られるものの,0.5に満たしていないため,平均適合率との間に明確な相関を認めることができなかった.\begin{table}[t]\renewcommand{\arraystretch}{}\caption{平均適合率と相関の高い主なシステムの特徴}\centering\small\label{pre_sys}\begin{tabular}{lcc}システムの特徴&平均&相関係数\\\hlineLSI&0.04545&-0.49600\\IDF&0.86364&0.49341\\レレバンスフィードバック&0.22727&0.45499\\名詞&0.45455&-0.42376\\フレーズ&0.31818&0.41665\\NEGタグ&0.36364&0.40655\\ロバートソン法&0.09091&0.40427\\文書の長さ&0.45455&0.38297\\名詞以外の品詞&0.40909&-0.38053\\シソーラス&0.13636&0.33728\\DESCRIPTOINタグ&0.90909&-0.33728\\文字列形態素インデクス&0.09091&0.32822\\BM25&0.09091&0.32822\\\hline\end{tabular}\end{table}また,この表\ref{pre_sys}を見ると,DESCRIPTOINタグから索引語を抽出する手法とNEGタグなどのようにNARRATIVEタグを利用した手法が混在していることが分かる.実際に,NARRATIVEタグ自体を利用することについては,平均適合率との相関係数が$-0.03864$と低く,NARRATIVEタグは他の2つのタグに比べ,適合率との関連性が少ない結果となった.これは,NARRATIVEタグの中には比較的長い文章が存在し,検索に重要な索引語が存在するのと同時に,一般的に広い分野で使われる索引語も比較的多く存在しているため,このタグを使う際には注意が必要であると考えられる.このようなことから,IREXワークショップに参加したシステムを検索課題を簡潔に表現したDESCRIPTOINタグのみを用いたシステムと比較的長い文章が存在し,NEGタグ\footnote{NARRATIVEタグ中において,「〜を除く」などの否定的な表現を示すもの}が存在するNARRATIVEタグを同時に用いたシステムに分けて評価を行う.これにより,相関の認められる手法がより顕著に現れ,より有効な評価をすることができると考えられる.\clearpage\subsection{shortおよびlongでの平均適合率とシステムの関連}\label{slheikin}DESCRIPTIONタグのみを用い,NARRATIVEタグを利用しない場合をshort,検索課題をすべて使用した場合をlongとして,それぞれを用いたシステムにおける平均適合率と利用した手法との関連性を比較する.そのために,short,longそれぞれにおける平均適合率とシステムが用いた手法との相関係数を求め,NARRATIVEタグを利用しない場合にはどのような手法が有効であるか,また,NARRATIVEタグを利用した場合についても同様に有効な手法にどのようなものがあるかを調査する.その結果,shortを用いたシステム,longを用いたシステムの平均適合率との相関係数が高かった主なシステムの特徴を,それぞれ表\ref{sho_sys}と表\ref{lon_sys}に示す.\begin{table}[t]\renewcommand{\arraystretch}{}\caption{shortの平均適合率と相関の高い主なシステムの特徴}\centering\small\label{sho_sys}\begin{tabular}{lcc}システムの特徴&平均&相関係数\\\hlineIDF&0.88888&0.64416\\LSI&0.11111&-0.64416\\フレーズ&0.55555&0.61796\\レレバンスフィードバック&0.33333&0.57326\\確率と情報量&0.33333&0.56095\\名詞&0.66667&-0.54080\\名詞以外の品詞&0.66667&-0.54080\\構文解析&0.22222&-0.43654\\NEGタグ&0.22222&0.42834\\シソーラス&0.22222&0.42834\\単語&0.77778&-0.42834\\\hline\end{tabular}\end{table}\begin{table}[t]\renewcommand{\arraystretch}{}\caption{longの平均適合率と相関の高い主なシステムの特徴}\centering\small\label{lon_sys}\begin{tabular}{lcc}システムの特徴&平均&相関係数\\\hline固有名詞&0.15385&0.74158\\ロバートソン法&0.15385&0.74158\\構文的な手がかり&0.15385&0.74158\\文書の長さ&0.46154&0.68955\\NEGタグ&0.46154&0.48372\\名詞&0.30769&-0.41387\\面の情報&0.15385&-0.41384\\IDF&0.84615&0.39269\\単語&0.61538&0.37213\\形態素解析&0.15385&-0.36284\\\hline\end{tabular}\end{table}表\ref{sho_sys}と表\ref{lon_sys}から共通して言えることは,shortとlongに分ける前の表\ref{pre_sys}と比較すると相関係数が全体的に高くなっているということである.すなわち,shortとlongに分けることによって,それぞれの検索システムに対して,平均適合率により関係深いシステムの特徴が顕著になっている.shortで平均適合率と相関が最も高かったのは,LSIとIDFである.LSIは負の相関を持ち,検索精度を下げる傾向があるため,今回の本試験での結果においては,LSIの利用や索引づけに改良が必要であった.平均適合率と直接関連のある手法に,文書の重みづけとしてはIDF,索引語には意味を限定しやすいフレーズが,共に正の相関を持ち検索精度を上げる傾向がある.フレーズを用いるとき,索引語が数多く存在しない場合があるため,レレバンスフィードバックを用いて検索式を拡張させることで,性能の良いシステムが構築できると考えられる.名詞や名詞以外という品詞情報を用いて索引づけを行う方法は,どちらも負の相関が高くなった.これは,元々索引語の数などのように情報量が少ない上に,一般的な単語まで取り出していたために,検索精度が下がる傾向があると考えられる.longで平均適合率と相関が最も高かったのは,固有名詞である.これは,NARRATIVEタグにある文章が比較的長いめ,索引づけの手法の中でも特定分野にしか出現しない語を抽出できる固有名詞の相関が高くなったと考えられる.また,ロバートソン法や構文的な手がかり,文書の長さといった文書そのものの違いや特徴を明確にする重みづけの手法も相関が高かった.shortでは平均適合率に関連性があったIDFは,longの場合,これらの手法より相関が低かった.このことより,索引語に対する重みづけ手法は関連性が低いと考えられる.表\ref{sho_sys}に見られる手法と表\ref{pre_sys}に見られる手法を比較すると,同じような手法が全体に見受けられた.すなわち,shortの場合は,一般的な検索システムの平均適合率に関連性のある手法がそのまま関連性があるということができる.longの場合は,表\ref{lon_sys}に示した相関と全体の結果とを比較すると,全体的に正の相関を持つものが多かったが,表\ref{pre_sys}では見られなかった手法が多く現れた.これらの結果から,NARRATIVEタグの使用有無によって検索システムの平均適合率に関連性のある手法が変化することが分かった.したがって,NARRATIVEタグを用いる際には,平均適合率に関連性のある,適した手法を選択する必要があると考えられる.\subsection{回帰式とシステムの関連}検索結果を平均して得られた,再現率と適合率の関係のデータを単回帰分析を用いて直線近似を行う.計算の結果,傾き(回帰係数)や切片(定数項)に対して相関の高かった手法を,それぞれ表\ref{coe_sys}と表\ref{con_sys}に示す.直線回帰を行ったときの決定係数は最大で0.99446,最小で0.69193となり,22個のシステムにおける平均が0.942と高い値となり,再現率・適合率曲線を直線で近似することが妥当であることを表している.\begin{table}[htb]\renewcommand{\arraystretch}{}\caption{回帰係数と相関の高い主なシステムの特徴}\centering\small\label{coe_sys}\begin{tabular}{lcc}システムの特徴&平均&相関係数\\\hline文書の長さ&0.45455&-0.60396\\構文解析&0.04545&-0.49385\\IDF&0.86364&-0.44741\\固有名詞(索引)&0.22727&-0.43614\\固有名詞(検索式)&0.22727&-0.36891\\単語&0.68182&-0.30771\\面の情報&0.09091&0.30267\\LSI&0.04545&0.30140\\\hline\end{tabular}\end{table}\begin{table}[htb]\renewcommand{\arraystretch}{}\caption{回帰直線の定数項と相関の高い主なシステムの特徴}\centering\small\label{con_sys}\begin{tabular}{lcc}システムの特徴&平均&相関係数\\\hlineIDF&0.86364&0.60051\\文書の長さ&0.45455&0.55917\\LSI&0.04545&-0.55286\\ロバートソン法&0.09091&0.44812\\NEGタグ&0.36364&0.42826\\フレーズ&0.31818&0.39632\\固有名詞(検索式)&0.22727&0.39059\\レレバンスフィードバック&0.22727&0.37556\\面の情報&0.09091&-0.36234\\照合文字列長&0.33400&-0.34285\\\hline\end{tabular}\end{table}傾きと最も相関係数の高いものは文書の長さで,相関係数が$-0.60396$と相関の認められる数値で,傾きを下げる傾向がある.これは,検索した文書数が増えるにつれて,適合する文書を検索する割合が少なくなることを表している.特に,傾き,切片共に関連が大きいIDFと文書の長さは重みづけ手法であり,文書間での違いや特徴を明確にしているため,検索システムの構築において,重みづけ手法が特に重要であると考えることができる.切片と最も相関係数の高いものはIDFで,次いで,文書の長さ,LSIとなっている.全体的に正の相関を持つ手法が多く,切片を上げる傾向がある.しかし,これらの手法には,傾きにおいて負の相関の高い手法と共通するものが多く存在している.これより,これらの手法に対して,切片の大きさと傾きの大きさにはトレードオフの関係が存在していることが分かる.\clearpage\subsection{shortおよびlongでの回帰式とシステムの関連}NARRATIVEタグの有効性,有効な利用方法について考えるため,\ref{slheikin}節と同様にshortとlongに分割し,評価を行った.傾きや切片に対して相関の高かった手法を,shortの場合をそれぞれ表\ref{coe_s_sys},表\ref{con_s_sys}に,longの場合をそれぞれ表\ref{coe_l_sys},表\ref{con_l_sys}に示す.\begin{table}[t]\renewcommand{\arraystretch}{}\caption{shortの回帰係数と相関の高い主なシステムの特徴}\centering\small\label{coe_s_sys}\begin{tabular}{lcc}システムの特徴&平均&相関係数\\\hlineシソーラス&0.12500&0.75160\\LSI&0.12500&0.75160\\自動検索質問拡張&0.12500&0.75160\\IDF&0.75000&-0.74788\\フレーズ&0.37500&-0.57108\\文字列形態素インデクス&0.25000&-0.51490\\確率と情報量&0.25000&-0.51490\\BM25&0.25000&-0.51490\\\hline\end{tabular}\end{table}\begin{table}[t]\renewcommand{\arraystretch}{}\caption{shortの回帰直線の定数項と相関の高い主なシステムの特徴}\centering\small\label{con_s_sys}\begin{tabular}{lcc}システムの特徴&平均&相関係数\\\hlineIDF&0.75000&0.60051\\シソーラス&0.12500&0.55917\\LSI&0.12500&-0.55286\\自動検索質問拡張&0.12500&0.44812\\文字列形態素インデクス&0.25000&0.42826\\確率と情報量&0.25000&0.39632\\BM25&0.25000&0.39059\\\hline\end{tabular}\end{table}\subsubsection*{shortにおける関連性}shortの場合,傾きと最も相関係数の高い手法は,シソーラス,LSI,自動検索質問拡張で,これら3つは等しい値で,正の高い相関を持つ.しかし,全体的には負の相関を持つ手法が多く,傾きを下げる傾向がある.shortでは情報が少ないために,索引づけされた語をあらかじめ準備した知識集合であるシソーラスで拡張することにより,傾きを上げる高い正の相関が得られたものと考えられる.さらに,LSI,フレーズ,自動検索質問拡張,文字列形態素インデクスもシソーラスと同様に索引づけの手法で,相関係数は比較的高い値になっている.このことから,検索に有効な索引語の選択やLSIによる意味的な表現形式を得る手法が,傾きに深く関わっているといえる.また,切片と最も相関係数の高い手法はIDFで,次いで,シソーラス,LSIとなっている.こちらは,全体的に正の相関を持つものが多く,切片を上げる傾向がある.傾きとの相関の高い手法と共通するものが多く,切片でも索引づけの手法が深く関連しているといえる.シソーラスや自動検索質問拡張は傾き,切片ともに正の相関係数を持ち,shortの場合,シソーラスが切片と傾きに最も関連の深い手法だと考えられる.しかし,LSI,IDFなどは,傾きでは正の相関,切片では負の相関を持っているために,ここでも傾きと切片の間にトレードオフの関係が存在することが分かる.\begin{table}[t]\renewcommand{\arraystretch}{}\caption{longの回帰係数と相関の高い主なシステムの特徴}\centering\small\label{coe_l_sys}\begin{tabular}{lcc}システムの特徴&平均&相関係数\\\hlineベクトル&0.14285&-0.60621\\文書の長さ&0.14285&-0.60621\\索引語の長さ&0.14285&0.59558\\IDF&0.42857&-0.58837\\フレーズ&0.28571&-0.47094\\インデクス(ベクトル)&0.92857&0.38171\\TF&0.07142&-0.38171\\構文的な手がかり&0.07142&-0.38171\\\hline\end{tabular}\end{table}\begin{table}[t]\renewcommand{\arraystretch}{}\caption{longの回帰直線の定数項と相関の高い主なシステムの特徴}\centering\small\label{con_l_sys}\begin{tabular}{lcc}システムの特徴&平均&相関係数\\\hlineフレーズ&0.28571&0.75913\\ベクトル&0.14285&0.62619\\文書の長さ&0.14285&0.62619\\索引語の長さ&0.14285&-0.60014\\NEGタグ&0.57142&0.52856\\IDF&0.42857&0.49117\\名詞&0.28571&-0.46559\\n-gram&0.28571&0.36211\\\hline\end{tabular}\end{table}\subsubsection*{longにおける関連性}longの場合,傾きと最も相関係数の高い手法は,ベクトル,文書の長さで,次いで索引語の長さとなる.shortと同様に,全体的に負の相関を持つ手法が多く,ベクトルなどは傾きを下げる傾向がある.また,検索要求全体における傾き,切片と同様に,文書の長さ,索引語の長さ,IDFなどの重みづけ手法が深く関わっていることが分かる.さらに,ベクトルは文書または検索要求全体を用いた手法であるため,longを扱う際の索引語の増加に従って,関連性がより顕著に現れたと考えられる.切片と最も相関係数の高い手法はフレーズで,次いで,ベクトルと文書の長さが高い相関を持っている.short同様,正の相関を持つものが多く,切片を上げる傾向がみられるが,これらのほとんどは重みづけの手法である.しかし,これらの手法は,傾きと負の相関の高い手法と多数共通しているため,longにおいてもトレードオフの関係が存在していることが明らかになった.また,検索要求の長いlongの場合,正の相関が高いNEGタグは,傾きとの相関係数が低く,切片との相関係数は高い.したがって,NEGタグの利用は,ランクの上位に適合する文書を検索する有効な手段であると考えることができる.
\section{まとめ}
本論文では,IREXワークショップにおけるIRの本試験の結果,および,参加したすべてのIRシステムについてのアンケートを基に,平均適合率,再現率・適合率曲線を直線回帰させた傾きと切片がIRシステムに用いられた手法とどのような相関関係をもっているのかを調査し,それぞれの手法がシステムの性能に与える影響の大きさを示した.その結果,名詞や名詞以外の品詞単語を用いる以上にフレーズが性能向上に関係あり,複数の単語を組み合わせることで意味が限定され,精度に良い影響を与えることを確認することができた.また,再現率・適合率曲線の切片と傾きにトレードオフの関係が多くの手法に見られ,検索システムに用いる手法の選択の難しさが現れる結果となった.さらに,NARRATIVEタグの使用有無によりshortとlongに分け,平均適合率との相関関係,また,再現率・適合率曲線を直線回帰させた傾きと切片にそれぞれどのような相関関係があるかを調査し,システムの性能に与える影響の大きさを示した.その結果,分ける前と比較して,全体的に相関が高くなり,関連が大きいシステムの特徴が顕著に現れるようになった.また,NARRATIVEタグを利用する場合,それに適した有効な手法を選択することが重要であることが分かった.shortでは,分ける前と比較して,索引語そのものに対する索引づけの手法への関連性がより顕著に現れた.その中でも,シソーラスや自動検索質問拡張は検索性能を上げる関連の深い手法であった.一方,longでは文書全体に対する重みづけの手法が性能向上に関係があった.形態素解析やそれにより抽出される名詞単語を用いるよりも,フレーズや固有名詞などを用いる方が性能向上に関連が深く,より要求する意味が明確になっている.このことは形態素解析により索引語を選択する難しさを表現し,形態素から索引語をより有効的に選択する手法が必要であることを示している.最後に,情報検索システムの用いる手法の選択の難しさを克服するため,本論文におけるデータが今後の研究開発で広く利用され,情報検索システムの分野の進歩と発展につながることを期待したい.\subsection*{謝辞}本論文をまとめる機会を与えてくださり,有用なデータを提供して下さったIREX実行委員の方々,及び,IREX-IRの本試験に参加した方々と判定者の方々に心から感謝したい.\bibliographystyle{jnlpbbl}\bibliography{sankou}\begin{biography}\biotitle{略歴}\bioauthor{佐々木稔}{1973年生.1996年徳島大学工学部知能情報工学科卒業.1998年徳島大学大学院博士前期課程修了.同年,徳島大学大学院博士後期課程入学,現在に至る.機械学習,情報検索等の研究に従事.情報処理学会会員.}\bioauthor{北研二}{1957年生.1981年早稲田大学理工学部数学科卒業.1983年から1992年まで沖電気工業(株)勤務.この間,1987年から1992年までATR自動翻訳電話研究所に出向.1992年9月から徳島大学工学部勤務.現在,同教授.工学博士.確率・統計的自然言語処理,情報検索等の研究に従事.情報処理学会,電子情報通信学会,日本音響学会,日本言語学会,計量国語学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V26N02-02 | \section{はじめに}
テキストのリーダビリティ評価は,人間の作文の評価だけでなく,機械による文生成の評価においても重要な問題である.日本語のリーダビリティ研究は表記や語彙の難易度など表層的な情報に基づいて,テキストの難易度の評価モデルとして研究が進められてきた\cite{渡邉-2017,李-2011,柴崎-2010,佐藤-2011}.しかしながら,既存のモデルのほとんどは読み手を陽に仮定していない.リーダビリティは,眼球運動に基づく読み時間により,直接的に評価できる.筆者らは視線走査装置に基づいた読み時間データを整備するだけでなく,統語・意味分類や情報構造との関連について調査してきた.単語や文節の統語・意味分類が読み時間にどのように影響を及ぼすかだけでなく,情報伝達に必要な情報の新旧と読み時間の関連について分析を進めてきた.\modified{情報の伝達においては,複数の述語を含む複文や重文を用いることが考えられる.}複文や重文は節境界を有し,節境界においては読み時間が変化するという先行研究がある.英語においては\cite{Just-1980,Rayner-2000}が,句末や節末において読み時間が長くなるwrap-upeffectと呼ばれる傾向について議論している.しかしながら,主辞が後置される日本語においては,補部が主辞より先に提示されることにより,主辞を予測することができ読み時間が短くなることが考えられる.本稿では,日本語の節境界が読み時間に対してどのような影響を与えるのかについて,探索的データ分析により調査する.具体的には,『現代日本語書き言葉均衡コーパス』(以下BCCWJ)\cite{Maekawa-2014-LRE}の読み時間データBCCWJ-EyeTrack\cite{Asahara-2019d}に対して,節境界アノテーションBCCWJ-ToriClause\cite{matsumoto-2018}を重ね合わせたものを,節境界情報を固定要因としたベイジアン線形混合モデル\cite{Sorensen-2016}を用いて検討を行う.分析においては詳細な節分類について読み時間がどう異なるかについて検討した.例えば,名詞修飾節においては,補足語修飾節(関係節ウチの関係)が,内容節(関係節ソトの関係)よりも節末において読み時間が短くなる傾向が見られた.補足節においては,名詞節の節末が,引用節の節末よりも読み時間が短くなる傾向が見られた.また,副詞節においては,因果関係節と付帯状況節とで読み時間のふるまいの違いが確認できた.これらの分析結果は,従前の言語処理において研究されてきたリーダビリティ評価において,\modified{眼球運動に基づく読み時間の評価の観点から}節レベルの統語構造に対して実証的な根拠を与えるものになる.以下,2節では関連研究について示す.3節では利用したデータの概要について示す.各データの詳細については元論文を参照されたい.4節では統計処理手法について述べ,5節で結果と考察を示す.最後にまとめと今後の研究の方向性について示す.
\section{関連研究}
\modified{まず,}前に述べたwrap-upeffectの評価以外に次のような先行研究がある.\cite{Hill-2000}は,前置詞句を含む句読点近辺の読み時間を評価した.\cite{Hirotani-2006}は節末や文末の句読点近辺の読み時間を評価した.\cite{Warren-2009}は節内と節間の読み時間の関係を視線走査法に基づいて評価した.しかしながら,これらの評価はいずれも英語の分析であった.\modified{これらの分析は,ANOVA(分散分析)など単純な統計処理に基づく分析であったために,多くの固定要因を検討できないほか,ランダム要因を考慮できないために,例文や被験者の統制が求められていた.}\modified{この統制に基づく分析において,不自然な例文を不自然な分布で呈示し,都度,文の構造を正しく把握しているのか質問するという問題点があり,自然な眼球運動が得られていないという批判もある\cite{Futrell-2018}.このような批判のもと,コーパスからのサンプリングに基づくテキストや,文脈を変えずに語順や語彙を入れ替えるなどしたテキストに対して,読み時間データを構築し,研究する流れが生まれた.}DundeeEyetrackingCorpus\cite{Kennedy-2005}は英語とフランス語の新聞記事社説について,母語話者10人分の視線走査情報を収集したものである.同データに対して,品詞情報,係り受け情報,句構造木,共参照情報が付与され,分析が進められている.他に英語のデータとして,\cite{Frank-2013},NaturalStoriesCorpus\cite{Futrell-2018}などがある.他言語のデータとして,ドイツ語のPotsdamSentenceCorpus\cite{Kliegl-2006},ヒンディー語のPotsdam-AllahabadHindiEyetrackingcorpus\cite{Husain-2015},中国語のBeijingSentenceCorpusofMandarinChinese\cite{Yan-2010}がある.\modified{このような自然なテキストの分析には,レイアウト情報や呈示順などの要因を考慮するために複雑な統計処理手法が求められる.頻度主義的な一般化線形混合モデルなどでは収束判定やモデル選択など煩雑な処理が伴う.そこで,ベイジアン線形混合モデル\cite{Sorensen-2016}を導入することで,帰無仮説の多重比較の問題を回避し,サンプリングにより推定された事後平均と事後標準偏差に基づく分析により推定する手法が用いられている.}最後に,日本語のテキストの難易度・リーダビリティ評価研究について示す.\cite{渡邉-2017}は文長・語彙の難易度・語種・品詞・語彙の具体度・仮定節や係り受け木の深さなどを特徴に入れているが,評価自体は株価のポラティリティに対して行っており,読みやすさ自体の実証的な評価を行っていない.\cite{李-2011}はBCCWJを日本語能力試験の読解テキストに対応させて難易度を評価しているが,文字・漢字・語彙などに基づきL2学習者向けに頻度主義的な手法でテキストの難易度をモデル化したものであり,日本語母語話者の読解過程をモデル化したものではない.\cite{柴崎-2010}は小学1年から中学3年に収められた国語科教科書に収録したものの文字数・文節数・述語数・漢語の割合・ひらがなの割合などで頻度主義的な手法でテキストの難易度\modified{を}モデル化した.L1学習者向けには適切かもしれないが,成人日本語母語話者のリーダビリティ評価に対して適切なモデルとは言えない.\cite{佐藤-2011}は文字n-gramを特徴量とした難易度モデルを提案した.統語情報を考慮していないほか,読み手の存在を陽に仮定していないという問題がある.\modified{\cite{藤田-2015}は未就学児を対象としたテキストの対象年齢を推定している.}これらの研究は,いずれも読み時間などを用いた実証的な分析ではなく,利用している特徴も表記・語彙などが中心で,複文や重文の節間の関係を適切にモデル化し,リーダビリティを評価しているものは管見の限り存在しない.
\section{データ}
本節では,読み時間データBCCWJ-EyeTrackと節境界アノテーション\modified{BCCWJ-ToriClause}について概説する.これらの2つのデータを重ね合わせたデータを表\ref{tbl:data2}に示す.\subsection{BCCWJ-EyeTrack}ここでは読み時間データBCCWJ-EyeTrackについて概説する.詳細については\cite{Asahara-2019d}を参照されたい.新聞記事に対する読み時間の収集方法として2種類の手法を用いた.1つは移動窓方式の自己ペース読文法(SELF)で,Linger\footnote{http://tedlab.mit.edu/~dr/Linger/}と呼ばれるソフトウェアで収集した.もう1つは眼球運動を計測する視線走査法で,タワーマウント型のEyeLink1000を用いた.\modified{なお,EyeLink1000がfixationとみなしたものを「停留」とみなす.}自己ペース読文法では一度に1文節のみ呈示されるが,視線走査法では一度に1画面分(最大53文字×5行)が呈示される.しかしながら,いずれの実験でも前の画面に戻ることはできない設定にした.各被験者は視線走査法$\rightarrow$自己ペース読文法の順で実施し,文節境界に空白を入れるか否かを含めてラテン方格による実験配置により,それぞれのテキストを一度だけ見るような設定にした.視線走査データについては,視線走査順の読み時間データをテキスト順に変換したfirstfixationtime(FFT),first-passtime(FPT),regressionpathtime(RPT),second-passtime(SPT),totaltime(TOTAL)の5種類のデータ(読み時間のタイプ)を用いる.FFTは対象領域に最初に入ったときの視線停留時間である.FPTは対象領域に最初に入ってから,左右どちらかの領域境界を出るまでの視線停留時間の総計である.RPTは対象領域に最初に入ってから,右の領域境界を出るまでの視線停留時間の総計である.SPTは対象領域に2回目以降に入った視線停留時間の総計で,次のTOTALからFPTを引いたものである.TOTALは対象領域に入った視線停留時間の総計である.図\ref{fig:eyetrack}に読み時間のタイプの集計例を示す.\begin{table}[p]\caption{利用するデータの概要}\label{tbl:data2}\input{02table01.tex}\end{table}\begin{figure}[p]\begin{center}\includegraphics{26-2ia2f1.eps}\end{center}\caption{視線走査データの読み時間のタイプの集計例}\label{fig:eyetrack}\end{figure}表\ref{tbl:data2}の上部に読み時間データの詳細について示す.{\ttsurface}は単語の表層形である.読み時間(i.e.,{\tttime})は対数に変換したデータ(i.e.,{\ttlogtime})も保持し,一般化線形混合モデル用に用いられる.{\ttmeasure}は読み時間のタイプ\{SELF,FFT,FPT,RPT,SPT,TOTAL\}を表す.{\ttsample,article,metadata\_orig,metadata}は記事に関連する情報である.{\ttspace}は文節境界に半角空白を入れたか否かを示す.{\ttlength}は表層形の文字数である.{\ttis\_first,is\_last,is\_second\_last}はレイアウトに関する特徴量である.{\ttsessionN,articleN,screenN,lineN,segmentN}は要素の呈示順に関する特徴量である.{\ttsubj}は被験者のIDで統計処理においてランダム要因として用いる.{\ttdependent}は当該文節に係る文節の数を人手で付与したもの\cite{Asahara-2018d}である.\modified{被験者は日本語母語話者24人(女性19人,未回答1人\modified{,男性4人})である.詳細な情報は\cite{Asahara-2019d}を参照されたい.また,被験者属性の読み時間の影響については\cite{浅原-2017-NLP}を参照されたい.}\modified{また,被験者が記事をきちんと読んでいるか確認するために,各記事を読んだ後に,Yes/Noで解答できる簡単な内容理解課題を課した.視線走査法の内容理解課題の正解率は99.2\%(238/240)で,自己ペース読文法の内容理解課題の正解率77.9\%(187/240)より有意に高かった(p$<$0.001).視線走査法は一画面の間は自由に再読することができる一方,自己ペース読文法は,読み戻しが許されず,複数の画面に記事が続く場合など,内容を記憶している負荷が高かったことがうかがえる.}\subsection{節境界情報アノテーション}節境界情報のアノテーションは「鳥バンク」\cite{toribank}の複文アノテーション基準に基づく.鳥バンクは2007年に鳥取大学において複文や重文の日本語の意味類型パターン辞書を編纂するために開発されたデータベースである.節境界情報は4層からなる階層構造によりラベルが設計され,最上位の階層では補足節(HS),名詞修飾節(MS),副詞節(FU),並列節(HR)の4種類からなる.第2階層では26のラベルにより構成される.詳細については鳥バンクのウェブサイト\footnote{http://unicorn.ike.tottori-u.ac.jp/toribank/}を参照されたい.BCCWJ-ToriClause\cite{matsumoto-2018}はBCCWJの新聞記事コアデータの一部に対して鳥バンク互換の節境界ラベル(第3階層まで)を付与したものである.節境界は節の最右要素に対して国語研短単位\footnote{『現代日本語書き言葉均衡コーパス』の形態素の基本単位\cite{小椋-2010}.}に基づいて付与するが,節の最左要素に関しては文節係り受けアノテーション\cite{Asahara-2018d}と重ね合わせることにより得ることができる.本研究ではBCCWJ-ToriClauseのアノテーションを文節単位に変換したうえで,BCCWJEyeTrackデータを重ね合わせて分析する.表\ref{tbl:data2}の下部に示す通り,最上位階層と第2階層についての情報を付与する.最上位階層が異なる節境界に関しては,文節内に複数の節境界がある場合もありマルチラベルの設定となる.表\ref{tbl:clause}に節境界分類とBCCWJ-EyeTrack上での頻度を示す.第2階層では26の全てのラベルが出現するわけではない.\begin{table}[t]\caption{節末のタイプと頻度}\label{tbl:clause}\input{02table02.tex}\end{table}
\section{統計モデル}
統計モデルとしてベイジアン線形混合モデル\cite{Sorensen-2016}を用いる.Rのrstanパッケージを用いて分析を行う.\modified{従前の読み時間分析は,ANOVA(分散分析)や一般化線形混合モデルであった.ANOVAでは被験者の統制を実験実施者が行う必要があったが,混合モデルでは被験者をランダム要因として入れることにより被験者ごとの差異をモデル化する.また,一般化線形混合モデルは以下に示すレイアウト情報・呈示順・係り受け構造・節境界情報すべてを固定要因として入れると,収束のコントロールやモデル選択が困難であった.しかしながらベイジアン線形混合モデルは,これらの処理を適切に行うことが可能である.}データ中6種類の読み時間のタイプ(SELF,FFT,FPT,SPT,RPT,TOTAL)の{\tttime}を対数正規分布({\ttlognormal})により,レイアウト情報・呈示順・係り受け構造・節境界情報を固定要因とし,記事情報と被験者をランダム要因としたモデルで回帰分析する.前処理として{\ttmetadata}が\{{\ttauthorsData},{\ttcaption},{\ttlistItem},{\ttprofile},{\tttitleBlock}\}のものを除いた.\modified{これらは新聞記事において,本文(地の文)と異なる読み方をする可能性があるためである.}\modified{視線走査データにおいては0msのデータを全て欠損値として扱った.これにより欠損値を読み飛ばしとみなすバイアスを排除するほか,対数正規分布を用いることでサンプリング時に正定値のみを定義域とすることが自然に行える.}分析においては節境界分類の最上位階層と第2階層の2種類の分析を行う.最上位階層は,補足節(HS),名詞修飾節(MS),副詞節(FU),並列節(HR)の4種類の固定要因からなる.図~\ref{formula1}に最上位階層の分析のための線形式を示す.第2階層においては補足節の3ラベル,名詞修飾節の5ラベル,副詞節の14ラベル,並列節の2ラベルを固定要因とする.図\ref{formula2}に第2階層の分析のための線形式を示す.\begin{figure}[b]\begin{center}\includegraphics{26-2ia2f2.eps}\end{center}\caption{最上位階層の線形式}\label{formula1}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{26-2ia2f3.eps}\end{center}\caption{第2階層の線形式}\label{formula2}\end{figure}ここで${\tttime}$は分析対象の読み時間である.{\ttlognormal}はrstanの対数正規分布関数である.$\sigma$は{\ttlognormal}の標準偏差である.$\mu$は{\ttlognormal}の期待値(平均)で線形式によって与えられる.$\alpha$は線形式の切片である.$\beta^{\ttlength}$は固定要因$length(x)$に対する傾きで,視線が停留した文節の長さに対するものである.$\beta^{\ttspace}$は固定要因$\chi_{{space}}(x)$に対する傾きで,文節境界に半角空白を入れて呈示したか否かを表す\footnote{ここで$\chi_{A}$は次の指示関数とする:$$\chi_{A}(x)=\begin{cases}1&\mbox{if}\;\;\;x\inA,\\0&\mbox{if}\;\;\;x\not\inA\\\end{cases}$$.}.$\beta^{\ttsessionN}$,$\beta^{\ttarticleN}$,$\beta^{\ttscreenN}$,$\beta^{\ttlineN}$,$\beta^{\ttsegmentN}$は呈示順に対する固定要因${\ttsessionN}(x)$,${\ttarticleN}(x)$,${\ttscreenN}(x)$,${\ttlineN}(x)$,${\ttsegmentN}(x)$の傾きである.$\beta^{\ttis\_first}$,$\beta^{\ttis\_last}$,$\beta^{\ttis\_second\_last}$はレイアウト情報に関する固定要因$\chi_{\ttis\_first}(x)$,$\chi_{\ttis\_last}(x)$,$\chi_{\ttis\_second\_last}(x)$の傾きである.$\beta^{\ttHS=TRUE}$,$\beta^{\ttHS=FALSE}$,$\beta^{\ttMS=TRUE}$,$\beta^{\ttMS=FALSE}$,$\beta^{\ttFU=TRUE}$,$\beta^{\ttFU=FALSE}$,$\beta^{\ttHR=TRUE}$,$\beta^{\ttHR=FALSE}$は節境界の最上位階層に対する固定要因に対する傾きである.節境界は国語研短単位に対して付与しているものを文節単位に変換しており,最上位階層においては文節単位でマルチラベルになるため,節境界情報に対して負のクラスについてもモデル化する.$\sum_{HS?}\beta^{\ttHS?}\cdot\chi_{\ttHS?}$は第2階層の補足節に関する固定要因を表す.$\sum_{MS?}\beta^{MS?}\cdot\chi_{MS?}$は第2階層の名詞修飾節に関する固定要因を表す.$\sum_{FU?}\beta^{FU?}\cdot\chi_{FU?}$は第2階層の副詞節に関する固定要因を表す.$\sum_{HR?}\beta^{HR?}\cdot\chi_{HR?}$は第2階層の並列節に関する固定要因を表す.$\sum_{a(x)\inA}\gamma^{\ttarticle=a(x)}$は記事情報に対するランダム要因で,$a(x)$は$x$の記事情報を表す.$\sum_{s(x)\inS}\gamma^{\ttsubj=s(x)}$は被験者に対するランダム要因で,$s(x)$は$x$の被験者IDを表す.ベイズ推定においてはwarmup後に5000回のイテレーションを4chains実施し,全てのモデルは収束した.\begin{figure}[b]\begin{minipage}{0.49\textwidth}\begin{center}\includegraphics{26-2ia2f4.eps}\\\caption{節境界以外の固定要因(SELF)}\label{result:self-others}\end{center}\end{minipage}\begin{minipage}{0.49\textwidth}\begin{center}\includegraphics{26-2ia2f5.eps}\\\caption{節境界以外の固定要因(TOTAL)}\label{result:total-others}\end{center}\end{minipage}\end{figure}
\section{結果}
\subsection{節境界以外に関する結果}まず,節境界以外の固定要因が読み時間に与える影響について確認する.図\ref{result:self-others}と図\ref{result:total-others}に,自己ペース読文法(SELF)と視線走査法(TOTAL)の節境界以外の固定要因に対する事後確率分布を示す.紙面の都合上,第2階層のものを示す.詳細については\ref{appendix}節を参照されたい.係数が負の値の場合,その要因が読み時間を短くするために,読みを促進することを表す.一方,係数が正の値の場合,その要因が読み時間を長くするために,読みを阻害することを表す.半角空白({\ttspace})を文節境界に入れた場合,視線走査法のTOTALにおいて読み時間を短くする効果が見られた.このことから,単純に文節境界に空白を入れることによってレジビリティが上がることがわかる.レイアウト情報({\ttis\_first,is\_last,is\_second\_last})はテキストの折り返しに対する要因である.読み時間は最左要素({\ttis\_first})で長くなる傾向にある.これは視線が右から左に戻ってきたときの負荷だと考える.視線走査法のFPT,RPT,TOTALに関しては,最右もしくは右から2番目の要素({\ttis\_last,is\_second\_last})で長くなる傾向が見られた.呈示順({\ttsessionN,articleN,screenN,lineN,segmentN})に関して,実験が進捗するにつれて読み時間が短くなる傾向が見られた.これは被験者が実験に慣れていく効果である.文節の長さ({\ttlength})に対しては,FFT以外において読み時間が長くなる.これは単純に文節の長さが視線停留箇所の面積に比例し,視線停留の確率が相関していることによる.係り受けの数{\ttdependency}は,多ければ多いほど読み時間が短くなる傾向がある.この事実は{\itAnti-locality}\cite{Konieczny-2000}を支持する.この結果は,線形混合モデルに基づく結果\cite{Asahara-2019d}と同じ傾向である.\begin{figure}[b]\begin{minipage}{0.49\textwidth}\begin{center}\includegraphics{26-2ia2f6.eps}\\\caption{節境界(最上位階層)の固定要因(SELF)}\label{result:self-top}\end{center}\end{minipage}\begin{minipage}{0.49\textwidth}\begin{center}\includegraphics{26-2ia2f7.eps}\\\caption{節境界(最上位階層)の固定要因(TOTAL)}\label{result:total-top}\end{center}\end{minipage}\end{figure}\subsection{節境界(最上位階層)に関する結果}次に節境界の最上位階層に関して検討する.図\ref{result:self-top}と図\ref{result:total-top}に自己ペース読文法(SELF)と視線走査法(TOTAL)の結果を示す.詳細については\ref{appendix}節を参照されたい.自己ペース読文法(SELF)では,並列節以外の節末で読み時間で短くなる傾向が見られた.しかしながら,並列節に関しては強い傾向が見られなかった.視線走査法(TOTAL)では,全ての節末で読み時間が短くなる傾向が見られた.特に副詞節(FU)において強い傾向が見られた.これは英語で言われているwrap-upeffectと正反対の結果である.\subsection{節境界(第2階層)に関する結果}以下,第2階層の節境界について,特徴的な部分について検討する.まず,最初に名詞修飾節について検討する.図\ref{result:total-second-ms}と図\ref{result:spt-second-ms}に,視線走査法TOTALとSPTの名詞修飾節末の傾向について示す.\begin{figure}[b]\begin{minipage}{0.49\textwidth}\begin{center}\includegraphics{26-2ia2f8.eps}\\\caption{名詞修飾節境界の固定要因(TOTAL)}\label{result:total-second-ms}\end{center}\end{minipage}\begin{minipage}{0.49\textwidth}\begin{center}\includegraphics{26-2ia2f9.eps}\\\caption{名詞修飾節境界の固定要因(SPT)}\label{result:spt-second-ms}\end{center}\end{minipage}\end{figure}視線走査法(TOTAL,SPT)において,補足語修飾節(MSa)は内容節(MSb)に比べて読み時間が短い.例(\ref{msa})は補足語修飾節の例で,節内の述語と係り先の語とに述語項関係がある(関係節ウチの関係).例(\ref{msb})は内容節の例で,節内の述語と係り先の語とに述語項関係がない(関係節ソトの関係).この述語項関係が読み時間を促進していることが推察される.\begin{exe}\ex幼稚園から大学まで\underline{通った}青山学院では,\label{msa}\\\hfill{(読売新聞2001[BCCWJ:00001\_A\_PN1c\_00001\_A\_1])}\\\hfill{MSa200:名詞修飾節:補足語修飾節:非制限用法}\ex支払利息や減価償却費の計上額が\underline{少ない}傾向がある.\label{msb}\\\hfill{(北海道新聞2002[BCCWJ:00005\_A\_PN2e\_00001\_A\_2])}\\\hfill{MSb:名詞修飾節:内容節}\end{exe}次に補足節(HS)について示す.頻度の高い名詞節(HSa)と引用節(HSc)について検討する.例文(\ref{hsa})は「こと」を含む名詞句であり,例文(\ref{hsc})は引用の「と」を含む引用節である.名詞句は引用節よりも読み時間が短くなることが,自己ペース読文法(図\ref{result:self-second-hs})と視線走査法(TOTAL:図\ref{result:total-second-hs})で確認された.\begin{figure}[b]\begin{minipage}{0.49\textwidth}\begin{center}\includegraphics{26-2ia2f10.eps}\\\caption{補足節の固定要因(SELF)}\label{result:self-second-hs}\end{center}\end{minipage}\begin{minipage}{0.49\textwidth}\begin{center}\includegraphics{26-2ia2f11.eps}\\\caption{補足節の固定要因(TOTAL)}\label{result:total-second-hs}\end{center}\end{minipage}\end{figure}\begin{exe}\exタイミングよくまぶたを閉じてくれた\underline{ことで,}独特な雰囲気の写真になりました.\label{hsa}\\\hfill{(産経新聞2001[BCCWJ:00002\_A\_PN1d\_00001\_B\_1])}\\\hfill{HSa:補足節:名詞節}\\\exシャープの携帯情報端末「ザウルス」のコンテンツを5月中旬から\underline{販売すると}発表した.\label{hsc}\\\hfill{(産経新聞2001[BCCWJ:00015\_A\_PN1d\_00002\_B\_5])}\\\hfill{HSc:補足節:引用節}\end{exe}最後に副詞節の傾向について確認する.頻度の高い因果関係(FUb)と付帯状況(FUd)について検討する.図\ref{result:self-second-fu}と図\ref{result:fpt-second-fu}に2種類の副詞節について自己ペース読文法と視線走査法(FPT)の結果を示す.\begin{figure}[t]\setlength{\captionwidth}{182pt}\begin{minipage}{182pt}\begin{center}\includegraphics{26-2ia2f12.eps}\\\hangcaption{因果関係と付帯状況節境界の固定要因(SELF)}\label{result:self-second-fu}\end{center}\end{minipage}\hfill\begin{minipage}{182pt}\begin{center}\includegraphics{26-2ia2f13.eps}\\\hangcaption{因果関係と付帯状況節境界の固定要因(FPT)}\label{result:fpt-second-fu}\end{center}\end{minipage}\end{figure}例文(\ref{fub})は因果関係の例で,例文(\ref{fud})は付帯状況の例である.2種類の副詞節において,実験方法によって読み時間に異なる傾向が見られた.自己ペース読文法において,因果関係のほうが付帯状況よりも読み時間が短くなる傾向が見られた.しかしながら,視線走査法(FPT)においては反対の傾向が見られた.これは「て」形が付帯状況だけでなく,引用・手段・並列などのさまざまな節に分類されるが,自己ペース読文法においては隣接文節が見られないために周辺視野による予測が効かないことに起因すると考える.\begin{exe}\ex「しゃべるのが\underline{得意なんだから,}能力を生かしてみたら」と,\label{fub}\\\hfill{(読売新聞2001[BCCWJ:00001\_A\_PN1c\_00001\_A\_1])}\\\hfill{FUb:副詞節:因果関係}\\\exもみじの木に\underline{とまって}仲良く寄り添う二羽のキジバト.\label{fud}\\\hfill{(産経新聞2001[BCCWJ:00002\_A\_PN1d\_00001\_B\_1])}\\\hfill{FUd:副詞節:付帯状況}\\\end{exe}\subsection{考察}より詳細な結果を\ref{appendix}節に示す.まず,英語で言及されているwrap-upeffect\cite{Just-1980,Rayner-2000}(節末で読み時間が長くなる傾向)は確認されなかった.日本語においては基本的に節末に主辞がくるために,先行する従属句が予測のために働くことが考えられる.係り受けの数{\ttdependent}が読み時間を短くする効果からも,先行する従属句が読みやすさに寄与することが支持される.名詞修飾節においては,補足語修飾節(関係節ウチの関係)のほうが内容節(関係節ソトの関係)より読み時間が短くなることが観察された.従属節内の述語と節の修飾先の名詞とに述語項関係がある場合に読み時間が短くなることから,先行する文脈が読み時間を短くする傾向が見られる.同様のことが補足節でもみられ,名詞節のように後置する格要素になりうるものが,引用節よりも読み時間が短くなる傾向が見られる.副詞節においては,より自然な環境である視線走査法においては,付帯状況よりも因果関係のほうが読み時間が短くなる傾向が見られた.副詞節については今後より大規模なデータで調査する必要がある.頻度5の条件節(仮定節)は\cite{渡邉-2017}で用いられているが,日本語において条件節(仮定節)を読み時間を短くする傾向が確認された.
\section{おわりに}
本稿では,日本語の節境界がテキストの読み時間に対してどのように影響を与えるかについて,経験的に検証した.その結果,英語などで言われているwrap-upeffectが,主辞後置言語である日本語においては認められず,反対に節末で読み時間が短くなる傾向を確認した.名詞修飾節においては,補足語修飾節末のほうが内容節末よりも読み時間が短くなる傾向が見られた.補足節の分析においては,名詞節のほうが引用節よりも読み時間が短くなる傾向が見られた.これらは従属節と係り先の要素との間に述語項関係などの強い統語関係があるか否かにより説明ができる.BCCWJ-EyeTrack\cite{Asahara-2019d}と言語情報アノテーションの比較として,分類語彙表番号アノテーション\cite{Kato-2019}との比較\cite{Asahara-2019c},情報構造アノテーション\cite{Miyauchi-2017-PACLING}との比較\cite{Asahara-2018e},述語項構造アノテーションとの比較\cite{浅原-2019b}が進められている.\modified{また,単語埋め込みに基づく読み時間のモデル化\cite{Asahara-2018-言語学会}も進められている.}単語埋め込みや各種言語情報を用いることで,テキストの読み時間が線形式により推定できる環境が整いつつある.今回利用したモデルは,ベイズ手法に基づく線形式である.二次の項を用いていないために,どの要因が読み時間に対してどのような影響を与えるかが直接的に説明できる.これらにより,語彙的な情報・統語的な情報・意味的な情報・談話的な情報を複合的に用いた,リーダビリティ推定モデルが\modified{読み時間の観点から}単純な線形式で構築できると考える.\acknowledgment本研究は,国立国語研究所コーパス開発センター共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」によるものです.本研究の一部はJSPS科研費挑戦的萌芽研究JP15K12888,基盤研究(A)17H00917,新学術領域研究18H05521の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原}{浅原}{2017}]{Asahara-2017-言語学会}浅原正幸\BBOP2017\BBCP.\newblock読み時間と節境界について.\\newblock\Jem{日本言語学会第154回発表予稿集},\mbox{\BPGS\46--51}.\bibitem[\protect\BCAY{浅原}{浅原}{2018a}]{Asahara-2018-言語学会}浅原正幸\BBOP2018a\BBCP.\newblock単語埋め込みに基づくサプライザルのモデル化.\\newblock\Jem{日本言語学会第157回発表予稿集},\mbox{\BPGS\82--87}.\bibitem[\protect\BCAY{浅原}{浅原}{2018b}]{Asahara-2018e}浅原正幸\BBOP2018b\BBCP.\newblock名詞句の情報の状態と読み時間について.\\newblock\Jem{自然言語処理},{\Bbf25}(5),\mbox{\BPGS\527--554}.\bibitem[\protect\BCAY{浅原}{浅原}{2019}]{浅原-2019b}浅原正幸\BBOP2019\BBCP.\newblock読み時間と述語項構造・共参照について.\\newblock\Jem{言語処理学会第25回年次大会発表論文集},\mbox{\BPGS\249--252}.\bibitem[\protect\BCAY{浅原\JBA加藤}{浅原\JBA加藤}{2019}]{Asahara-2019c}浅原正幸\JBA加藤祥\BBOP2019\BBCP.\newblock読み時間と統語・意味分類.\\newblock\Jem{認知科学},{\Bbf26}(2),\mbox{\BPG\ToAppear}.\bibitem[\protect\BCAY{浅原\JBA松本}{浅原\JBA松本}{2018}]{Asahara-2018d}浅原正幸\JBA松本裕治\BBOP2018\BBCP.\newblock『現代日本語書き言葉均衡コーパス』に対する文節係り受け・並列構造アノテーション.\\newblock\Jem{自然言語処理},{\Bbf25}(4),\mbox{\BPGS\331--357}.\bibitem[\protect\BCAY{浅原\JBA小野\JBA宮本}{浅原\Jetal}{2017}]{浅原-2017-NLP}浅原正幸\JBA小野創\JBA宮本エジソン正\BBOP2017\BBCP.\newblock『現代日本語書き言葉均衡コーパス』の読み時間とその被験者属性.\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\473--477}.\bibitem[\protect\BCAY{浅原\JBA小野\JBA宮本}{浅原\Jetal}{2019}]{Asahara-2019d}浅原正幸\JBA小野創\JBA宮本エジソン正\BBOP2019\BBCP.\newblockBCCWJ-EyeTrack『現代日本語書き言葉均衡コーパス』に対する読み時間付与とその分析.\\newblock\Jem{言語研究},{\Bbf156},\mbox{\BPG\ToAppear}.\bibitem[\protect\BCAY{Frank,Monsalve,Thompson,\BBA\Vigliocco}{Franket~al.}{2013}]{Frank-2013}Frank,S.~L.,Monsalve,I.~F.,Thompson,R.~L.,\BBA\Vigliocco,G.\BBOP2013\BBCP.\newblock\BBOQReadingTimeDataforEvaluatingBroad-coverageModelsofEnglishSentenceProcessing.\BBCQ\\newblock{\BemBehaviorResearchMethods},{\Bbf45}(4),\mbox{\BPGS\1182--1190}.\bibitem[\protect\BCAY{藤田}{藤田}{2015}]{藤田-2015}藤田早苗\BBOP2015\BBCP.\newblock幼児を対象としたテキストの対象年齢推定手法.\\newblock\Jem{認知科学},{\Bbf22}(4),\mbox{\BPGS\604--620}.\bibitem[\protect\BCAY{Futrell,Gibson,Tily,Blank,Vishnevetsky,Piantadosi,\BBA\Fedorenko}{Futrellet~al.}{2018}]{Futrell-2018}Futrell,R.,Gibson,E.,Tily,H.~J.,Blank,I.,Vishnevetsky,A.,Piantadosi,S.~T.,\BBA\Fedorenko,E.\BBOP2018\BBCP.\newblock\BBOQTheNaturalStoriesCorpus.\BBCQ\\newblockIn{\BemProceedingsofLREC-2018},\mbox{\BPGS\76--82}.\bibitem[\protect\BCAY{Hill\BBA\Murray}{Hill\BBA\Murray}{2000}]{Hill-2000}Hill,R.\BBACOMMA\\BBA\Murray,W.\BBOP2000\BBCP.\newblock{\BemReadingasaPerceptualProcess},\BCH\CommasandSpaces:EffectsofPunctuationonEyeMovementsandSentenceProcessing,\mbox{\BPGS\565--589}.\newblockElsevier,Amsterdam.\bibitem[\protect\BCAY{Hirotani,Frazier,\BBA\Rayner}{Hirotaniet~al.}{2006}]{Hirotani-2006}Hirotani,M.,Frazier,L.,\BBA\Rayner,K.\BBOP2006\BBCP.\newblock\BBOQPunctuationandIntonationEffectsonClauseandSentenceWrap-up:EvidencefromEyeMovements.\BBCQ\\newblock{\BemJournalofMemoryandLanguage},{\Bbf54},\mbox{\BPGS\425--443}.\bibitem[\protect\BCAY{Husain,Vasishth,\BBA\Srinivasan}{Husainet~al.}{2015}]{Husain-2015}Husain,S.,Vasishth,S.,\BBA\Srinivasan,N.\BBOP2015\BBCP.\newblock\BBOQIntegrationandPredictionDifficultyinHindiSentenceComprehension:EvidencefromanEye-trackingCorpus.\BBCQ\\newblock{\BemJournalofEyeMovementResearch},{\Bbf8}(2),\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{Ikehara}{Ikehara}{2007}]{toribank}Ikehara,S.\BBOP2007\BBCP.\newblock\BBOQJapaneseSemanticPatternDictionary---CompoundandComplexSentenceEds.---.\BBCQ\\newblock\texttt{http://unicorn.ike.tottori-u.ac.jp/toribank/}.\bibitem[\protect\BCAY{Just\BBA\Carpenter}{Just\BBA\Carpenter}{1980}]{Just-1980}Just,M.~A.\BBACOMMA\\BBA\Carpenter,P.~A.\BBOP1980\BBCP.\newblock\BBOQATheoryofReading:FromEyeFixationstoComprehension.\BBCQ\\newblock{\BemPsychologicalReview},{\Bbf87}(4),\mbox{\BPGS\329--354}.\bibitem[\protect\BCAY{加藤\JBA浅原\JBA山崎}{加藤\Jetal}{2019}]{Kato-2019}加藤祥\JBA浅原正幸\JBA山崎誠\BBOP2019\BBCP.\newblock分類語彙表番号を付与した『現代日本語書き言葉均衡コーパス』の書籍・新聞・雑誌データ.\\newblock\Jem{日本語の研究},{\Bbf15}(2),\mbox{\BPG\ToAppear}.\bibitem[\protect\BCAY{Kennedy\BBA\Pynte}{Kennedy\BBA\Pynte}{2005}]{Kennedy-2005}Kennedy,A.\BBACOMMA\\BBA\Pynte,J.\BBOP2005\BBCP.\newblock\BBOQParafoveal-on-fovealEffectsinNormalReading.\BBCQ\\newblock{\BemVisionResearch},{\Bbf45},\mbox{\BPGS\153--168}.\bibitem[\protect\BCAY{Kliegl,Nuthmann,\BBA\Engbert}{Klieglet~al.}{2006}]{Kliegl-2006}Kliegl,R.,Nuthmann,A.,\BBA\Engbert,R.\BBOP2006\BBCP.\newblock\BBOQTrackingtheMindDuringReading:TheinfluenceofPast,Present,andFutureWordsonFixationDurations.\BBCQ\\newblock{\BemJournalofExperimentalPsychology},{\Bbf135}(1),\mbox{\BPGS\12--35}.\bibitem[\protect\BCAY{Konieczny}{Konieczny}{2000}]{Konieczny-2000}Konieczny,L.\BBOP2000\BBCP.\newblock\BBOQLocalityandParsingComplexity.\BBCQ\\newblock{\BemJournalofPsycholinguisticResearch},{\Bbf29}(6),\mbox{\BPGS\627--645}.\bibitem[\protect\BCAY{李}{李}{2011}]{李-2011}李在鎬\BBOP2011\BBCP.\newblock大規模テストの読解問題作成過程へのコーパス利用の可能性.\\newblock\Jem{日本語教育},{\Bbf148},\mbox{\BPGS\84--98}.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Ogiso,Maruyama,Ogura,Kashino,Koiso,Yamaguchi,Tanaka,\BBA\Den}{Maekawaet~al.}{2014}]{Maekawa-2014-LRE}Maekawa,K.,Yamazaki,M.,Ogiso,T.,Maruyama,T.,Ogura,H.,Kashino,W.,Koiso,H.,Yamaguchi,M.,Tanaka,M.,\BBA\Den,Y.\BBOP2014\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf48},\mbox{\BPGS\345--371}.\bibitem[\protect\BCAY{Matsumoto,Asahara,\BBA\Arita}{Matsumotoet~al.}{2018}]{matsumoto-2018}Matsumoto,S.,Asahara,M.,\BBA\Arita,S.\BBOP2018\BBCP.\newblock\BBOQJapaneseClauseClassificationAnnotationonthe`BalancedCorpusofContemporaryWrittenJapanese'.\BBCQ\\newblockIn{\BemProceedingsofthe13thWorkshoponAsianLanguageResources(ALR13)},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Miyauchi,Asahara,Nakagawa,\BBA\Kato}{Miyauchiet~al.}{2017}]{Miyauchi-2017-PACLING}Miyauchi,T.,Asahara,M.,Nakagawa,N.,\BBA\Kato,S.\BBOP2017\BBCP.\newblock\BBOQAnnotationofInformationStructureon``TheBalancedCorpusofContemporaryWrittenJapanese''.\BBCQ\\newblockIn{\BemProceedingsofPACLING2017,the15thInternationalConferenceofthePacificAssociationforComputationalLinguistics},\mbox{\BPGS\166--175}.\bibitem[\protect\BCAY{小椋\JBA小磯\JBA冨士池\JBA宮内\JBA小西\JBA原}{小椋\Jetal}{2010}]{小椋-2010}小椋秀樹\JBA小磯花絵\JBA冨士池優美\JBA宮内佐夜香\JBA小西光\JBA原裕\BBOP2010\BBCP.\newblock『現代日本語書き言葉均衡コーパス』形態論情報規程集第4版(下).\\newblock\JTR,国立国語研究所.\bibitem[\protect\BCAY{Rayner,Kambe,\BBA\Duffy}{Rayneret~al.}{2000}]{Rayner-2000}Rayner,K.,Kambe,G.,\BBA\Duffy,S.~A.\BBOP2000\BBCP.\newblock\BBOQTheEffectofClauseWrap-uponEyeMovementsDuringReading.\BBCQ\\newblock{\BemTheQuarterlyJournalofExperimentalPsychology},{\Bbf53A}(4),\mbox{\BPGS\1061--1080}.\bibitem[\protect\BCAY{佐藤}{佐藤}{2011}]{佐藤-2011}佐藤理史\BBOP2011\BBCP.\newblock均衡コーパスを規範とするテキスト難易度測定.\\newblock\Jem{情報処理学会論文誌},{\Bbf52}(4),\mbox{\BPGS\1777--1789}.\bibitem[\protect\BCAY{柴崎\JBA玉岡}{柴崎\JBA玉岡}{2010}]{柴崎-2010}柴崎秀子\JBA玉岡賀津雄\BBOP2010\BBCP.\newblock国語科教科書を基にした小・中学校の文章難易学年判定式の構築.\\newblock\Jem{日本教育工学会論文誌},{\Bbf33}(4),\mbox{\BPGS\449--458}.\bibitem[\protect\BCAY{Sorensen,Hohenstein,\BBA\Vasishth}{Sorensenet~al.}{2016}]{Sorensen-2016}Sorensen,T.,Hohenstein,S.,\BBA\Vasishth,S.\BBOP2016\BBCP.\newblock\BBOQBayesianLinearMixedModelsusingStan:ATutorialforPsychologists,Linguists,andCognitiveScientists.\BBCQ\\newblock{\BemQuantitativeMethodsforPsychology},{\Bbf12},\mbox{\BPGS\175--200}.\bibitem[\protect\BCAY{Warren,White,\BBA\Reichle}{Warrenet~al.}{2009}]{Warren-2009}Warren,T.,White,S.~J.,\BBA\Reichle,E.~D.\BBOP2009\BBCP.\newblock\BBOQInvestigatingtheCausesofWrap-upEffects:EvidencefromEyeMovementsandE-ZReader.\BBCQ\\newblock{\BemCognition},{\Bbf111}(1),\mbox{\BPGS\132--137}.\bibitem[\protect\BCAY{渡邉\JBA村上\JBA宮澤\JBA五島\JBA柳瀬\JBA高村\JBA宮尾}{渡邉\Jetal}{2017}]{渡邉-2017}渡邉亮彦\JBA村上聡一朗\JBA宮澤彬\JBA五島圭一\JBA柳瀬利彦\JBA高村大也\JBA宮尾祐介\BBOP2017\BBCP.\newblockTRF:テキストの読みやすさ解析ツール.\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\477--480}.\bibitem[\protect\BCAY{Yan,Kliegl,Richter,\BBA\Shu}{Yanet~al.}{2010}]{Yan-2010}Yan,M.,Kliegl,R.,Richter,E.~M.,\BBA\Shu,H.\BBOP2010\BBCP.\newblock\BBOQFlexibleSaccade-targetSelectioninChineseReading.\BBCQ\\newblock{\BemTheQuarterlyJournalofExperimentalPsychology},{\Bbf63}(4),\mbox{\BPGS\705--725}.\end{thebibliography}\appendix
\section{詳細な結果}
\label{appendix}以下に詳細な結果を示す.表\ref{tbl:self:1st},\ref{tbl:fft:1st},\ref{tbl:fpt:1st},\ref{tbl:spt:1st},\ref{tbl:rpt:1st},\ref{tbl:total:1st}に節の最上位階層モデルの結果を,表\ref{tbl:self:2nd},\ref{tbl:fft:2nd},\ref{tbl:fpt:2nd},\ref{tbl:spt:2nd},\ref{tbl:rpt:2nd},\ref{tbl:total:2nd}に節の第2階層モデルの結果を示す.Rhatが収束判定指標でchain数4以上ですべての値が1.2以下を収束とみなす.n\_effが有効サンプル数,meanがサンプルの期待値(事後平均),sdがMCMC標準偏差(事後標準偏差),se\_meanが標準誤差で,MCMCのサンプルの分散をn\_effで割った値の平方根を表す.2.5\%,50\%,97.5\%はそれぞれの位の値である.分析においては頻度5以上のラベルについて検討する.meanが2sd以上の差がある場合に強い証拠,meanが1sd以上の差がある場合に弱い証拠があるとする\footnote{\modified{頻度主義的な手法と異なり,帰無仮説を前提としないため有意差の議論は行えない.}}.\modified{なお,一般化線形混合モデルの結果は\cite{Asahara-2017-言語学会}を参照されたい.}\clearpage\begin{table}[p]\caption{自己ペース読文法(SELF)の事後確率分布(最上位階層モデル)}\label{tbl:self:1st}\input{02table03.tex}\vspace{12pt}\caption{視線走査法(FFT)の事後確率分布(最上位階層モデル)}\label{tbl:fft:1st}\input{02table04.tex}\end{table}\begin{table}[p]\caption{視線走査法(FPT)の事後確率分布(最上位階層モデル)}\label{tbl:fpt:1st}\input{02table05.tex}\vspace{12pt}\caption{視線走査法(SPT)の事後確率分布(最上位階層モデル)}\label{tbl:spt:1st}\input{02table06.tex}\end{table}\begin{table}[p]\caption{視線走査法(RPT)の事後確率分布(最上位階層モデル)}\label{tbl:rpt:1st}\input{02table07.tex}\vspace{12pt}\caption{視線走査法(TOTAL)の事後確率分布(最上位階層モデル)}\label{tbl:total:1st}\input{02table08.tex}\end{table}\begin{table}[p]\caption{自己ペース読文法(SELF)の事後確率分布(第2階層モデル)}\label{tbl:self:2nd}\input{02table09.tex}\vspace{4pt}\footnotesize\begin{itemize}\item補足節において,\verb+beta_clrhsl[2]+(HSa:名詞節)と\verb+beta_clrhsl[4]+(HSc:引用節)と間に2sd以上の差がある.名詞節のほうが引用節より読み時間が短い.\item名詞修飾節において,\verb+beta_clrmsl[2]+(MSa:補足語修飾節)と\verb+beta_clrmsl[3]+(MSb:内容節)と間に1sd以上の差がある.補足語修飾節のほうが内容節より読み時間が短い.\item副詞節において,\verb+beta_clrful[6]+(FUe:逆接)が最も読み時間が短い.副詞節でない箇所より3sd以上短い.\item副詞節において,\verb+beta_clrful[2]+(FUa:時)と\verb+beta_clrful[4]+(FUc:条件・譲歩)と間に2sd以上の差がある.条件・譲歩のほうが時より読み時間が短い.\item副詞節において,\verb+beta_clrful[3]+(FUb:因果関係)と\verb+beta_clrful[5]+(FUd:付帯状況・様態)と間に1sd以上の差がある.因果関係のほうが付帯状況・様態より読み時間が短い.\end{itemize}\end{table}\begin{table}[p]\caption{視線走査法(FFT)の事後確率分布(第2階層モデル)}\label{tbl:fft:2nd}\input{02table10.tex}\vspace{4pt}\footnotesize\begin{itemize}\item補足節において,1sdを超える傾向はみられない.\item名詞修飾節において,1sdを超える傾向はみられない.\item副詞節において,\verb+beta_clrful[2]+(FUa:時)が最も読み時間が短い.副詞節でない箇所より2sd以上短い.\item副詞節において,\verb+beta_clrful[5]+(FUd:付帯状況・様態)は副詞節でない箇所より2sd以上短い.\item副詞節において,\verb+beta_clrful[12]+(FUl:判断・主観)は副詞節でない箇所より1sd以上短い.\end{itemize}\end{table}\begin{table}[p]\caption{視線走査法(FPT)の事後確率分布(第2階層モデル)}\label{tbl:fpt:2nd}\input{02table11.tex}\vspace{4pt}\footnotesize\begin{itemize}\item補足節において,\verb+beta_clrhsl[2]+(HSa:名詞節)は補足節でない箇所より2sd以上短い.\item名詞修飾節において,\verb+beta_clrmsl[2]+(MSa:補足語修飾節)は名詞修飾節でない箇所より2sd以上短い.\item名詞修飾節において,\verb+beta_clrmsl[2]+(MSa:補足語修飾節)と\verb+beta_clrmsl[3]+(MSb:内容節)の差は小さい.\item副詞節において,副詞節でない部分が\verb+beta_clrful[0]+(FALSE)が最も読み時間が長い.\item副詞節において,\verb+beta_clrful[3]+(FUb:因果関係)と\verb+beta_clrful[5]+(FUd:付帯状況・様態)と間に1sd以上の差がある.付帯状況・様態のほうが因果関係より読み時間が短い.\end{itemize}\end{table}\begin{table}[p]\caption{視線走査法(SPT)の事後確率分布(第2階層モデル)}\label{tbl:spt:2nd}\input{02table12.tex}\vspace{4pt}\footnotesize\begin{itemize}\item補足節において,\verb+beta_clrhsl[2]+(HSa:名詞節)は\verb+beta_clrhsl[4]+(HSc:引用節)より1sd以上短い.\item名詞修飾節において,1sdを超える傾向はみられない.\item副詞節において,副詞節でない部分が\verb+beta_clrful[0]+(FALSE)が最も読み時間が長い.\item副詞節において,\verb+beta_clrful[2]+(FUa:時)と\verb+beta_clrful[4]+(FUc:条件・譲歩)と間に1sd以上の差がある.条件・譲歩のほうが時より読み時間が短い.\end{itemize}\end{table}\begin{table}[p]\caption{視線走査法(RPT)の事後確率分布(第2階層モデル)}\label{tbl:rpt:2nd}\input{02table13.tex}\vspace{4pt}\footnotesize\begin{itemize}\item補足節において,\verb+beta_clrhsl[2]+(HSa:名詞節)は補足節でない箇所より1sd以上短い.\item補足節において,\verb+beta_clrhsl[2]+(HSa:名詞節)は\verb+beta_clrhsl[4]+(HSc:引用節)より1sd以上短い.\item名詞修飾節において,\verb+beta_clrmsl[2]+(MSa:補足語修飾節)は名詞修飾節でない箇所より2sd以上短い.\item名詞修飾節において,\verb+beta_clrmsl[3]+(MSb:内容節)は名詞修飾節でない箇所より2sd以上短い.\item副詞節において,副詞節でない部分が\verb+beta_clrful[0]+(FALSE)が最も読み時間が長い.\item副詞節において,\verb+beta_clrful[5]+(FUd:付帯状況・様態)は副詞節でない箇所より2sd以上短い.\end{itemize}\end{table}\begin{table}[p]\caption{視線走査法(TOTAL)の事後確率分布(第2階層モデル)}\label{tbl:total:2nd}\input{02table14.tex}\vspace{4pt}\footnotesize\begin{itemize}\item補足節において,\verb+beta_clrhsl[2]+(HSa:名詞節)は補足節でない箇所より2sd以上短い.\item補足節において,\verb+beta_clrhsl[2]+(HSa:名詞節)は\verb+beta_clrhsl[4]+(HSc:引用節)より1sd以上短い.\item名詞修飾節において,\verb+beta_clrmsl[2]+(MSa:補足語修飾節)は名詞修飾節でない箇所より2sd以上短い.\item副詞節において,副詞節でない部分が\verb+beta_clrful[0]+(FALSE)が最も読み時間が長い.\item副詞節において,\verb+beta_clrful[4]+(FUc:条件・譲歩)は副詞節でない箇所より2sd以上短い.\end{itemize}\end{table}\clearpage\begin{biography}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究博士後期課程修了.2004年より同大学助教.2012年より人間文化研究機構国立国語研究所コーパス開発センター特任准教授.2019年より同教授.博士(工学).言語処理学会,日本言語学会,日本語学会各会員.}\end{biography}\biodate\end{document}
| |
V12N03-03 | \section{はじめに}
近年のWroldWideWeb(WWW)の急速な普及により,世界中から発信された膨大な電子化文書へのアクセスが可能になった.しかしながら,そのような膨大な情報源から,必要な情報のみを的確に得ることは困難を極める.的確な情報を得るために,テキストを対象とした文書分類や情報の抽出などの様々な技術が注目され,研究されている.しかしながら,Web上に存在するのはテキスト情報だけではなく,表や画像など様々な表現形式が使用されている.ここで,表形式で記述された情報について着目する.従来の情報検索システムなどでは,表はテキストとして扱われることが多かった.表は属性と属性値によって構造化された情報であり,その特性を考えると,表をテキストとして扱うのではなく,テキスト部分と切り離し,表として認識し,利用することが情報検索システムなどの精度向上に繋がる.また表は情報間の関係を記述するのに適した表現形式であり,Web上に存在する文書から表を抽出することは,WebMiningや質疑応答システム,要約処理などのための重要なタスクの一つである\cite[など]{hurst,itai,pinto,shimada2,wang}.本稿では,電子化された情報の一つである,製品のスペック情報の抽出について議論する.一般に,パソコンやデジタルカメラ,プリンタなどの製品の機能や装備などのスペック情報は表形式で記述される.本稿ではこれらの表形式で記述されたスペック情報を性能表と呼ぶことにする.その例を図\ref{spec}に示す.性能表を扱う理由としては,\begin{itemize}\itemポータルサイトの存在\\現在,Web上には,数多くの製品情報に関するポータルサイトやオンラインショッピングサイトが存在する\footnote{価格.com(\verb+http://www.kakaku.com/+)やYahoo!Shopping(\verb+http://shopping.yahoo.co.jp/+)など.}.これらのサイトで,ユーザが製品を比較する際に最も重要な情報の一つが性能表である.多くの製品は頻繁に最新機種が発表され,その度に性能表を人手で収集するのはコストがかかる.膨大なWebページの中から製品のスペック情報を的確に抽出することは,そのようなポータルサイトの自動構築のために大きな意義を持つ.\item製品情報のデータベース化\\性能表は表形式で記述されているので,表領域が正しく特定されれば,属性と属性値の切り分けや対応付けなどの解析が比較的容易で,製品データベースの自動獲得が可能になる.これらのデータを利用し,ユーザの要求に合致した製品を選択するシステムなどの構築が可能になる\cite{shimada4}.\end{itemize}などが挙げられる.\begin{figure}\begin{center}\epsfile{file=base.eps,height=14.0cm}\end{center}\caption{パソコンの性能表の例}\label{spec}\end{figure}Web上での表の記述に関しては,いくつか問題点がある.その一つが,\verb+<+TABLE\verb+>+タグの一般的な使用方法である.Web上の表はHTMLの\verb+<+TABLE\verb+>+タグを用いて記述されるが,\verb+<+TABLE\verb+>+タグは表を記述する以外にも,レイアウトを整えたりする場合に頻繁に用いられる.ある特定の領域においては,\verb+<+TABLE\verb+>+の70\%がレイアウト目的で使われているとの報告もある\cite{chen}.そのため,HTML文書中の\verb+<+TABLE\verb+>+タグが表なのか,それとも他の目的で使用されているのかを判別する必要がある.また,実際のWeb文書では,\verb+<+TABLE\verb+>+の入れ子構造が頻繁に見られる.性能表抽出のタスクでは,入れ子構造になった\verb+<+TABLE\verb+>+の中で,どこまでが性能表を表しているかという表領域を特定する必要がある.提案手法では,(1)フィルタリング,(2)表領域抽出,の2つのプロセスによってWeb文書群から性能表を獲得することを試みる.処理の流れを図\ref{outline}に示す.ここで,フィルタリングとは,製品メーカのサイトからHTMLダウンローダで獲得したWeb文書群を対象とし,その中から性能表を含む文書を抽出することを指す.フィルタリング処理では,文書分類などのタスクで高い精度を収めているSupportVectorMachines(SVM)を用いる.また,少ない訓練データでもSVMと比較して高い精度を得ることができるといわれているTransductiveSVM(TSVM)とSVMを比較する.一方,表領域抽出とは,フィルタリング処理で得られた文書中から,性能表の領域のみを抽出することを意味する.表領域抽出処理では,フィルタリングの際にSVMおよびTSVMのための素性として選ばれた語をキーワードとし,それらを基に表領域を特定する.以下では,まず,2節で,本稿で扱う性能表抽出のタスクに最も関連のある表認識などの関連研究について説明する.3節では,フィルタリングに用いるSVMとTSVMについて述べ,学習に用いる素性選択の手法について説明する.続いて,4節で,各Web文書から表領域を特定する手法について述べ,5節で提案手法の有効性を検証し,6節でまとめる.\begin{figure}\begin{center}\epsfile{file=outline.eps}\end{center}\vspace{-3mm}\caption{処理の概要}\label{outline}\end{figure}
\section{関連研究}
本節では,本稿で扱う性能表抽出のタスクに最も関連のある表認識・抽出などについての先行研究について述べる.表やレイアウト構造を持つ文書からの構造解析および情報抽出に関する研究は,古くからなされている.しかしながら,従来の研究では,画像中の表領域の認識,箇条書きやプレインテキストで書かれた表の認識などが主な研究対象だった\cite[など]{hu,kawai,ng,pinto,sato}.一方で,近年,HTMLで記述された文書を対象とした表認識や表抽出に関する研究がなされている.Chenら\cite{chen}は,HTML文書中の表の認識手法について提案したが,表認識のためのルールが人手で作成されており,汎用性や拡張性に問題がある.Itaiら\cite{itai}は,表を対象としたHTML文書からの情報抽出とその統合について報告している.しかし,表領域の抽出手法については十分に議論されていない.Wangら\cite{wang}は,決定木やSVMなどを用いて表抽出を試みている.しかし,これらの手法は,学習のために十分な訓練データが必要となる.Yoshidaら\cite{yoshida}は,EMアルゴリズムを用いることで,この問題を解消しているが,精度は,Wangらの手法の方が高い.本稿では,文書分類で高い精度を収めているSVMを性能表抽出のタスクに適用し,少ない訓練データでも比較的高い精度が得られるといわれるTSVMとSVMの精度を比較する.上に述べた従来のHTMLからの表抽出に関する研究は,一般的な表を抽出することを目的としていることが多い.すなわち,\verb+<+TABLE\verb+>+タグで記述された領域が表であるか否かのみを判定することである.このような一般的な表抽出タスクでは,その\verb+<+TABLE\verb+>+タグ中にどのような内容が記述されているかを対象としないため,言語情報よりも構造情報(例えば,縦および横のセルの一貫性など)を重視する.一方で,本タスクは表という構造情報を利用しながら,「ある特定の内容が記述された表」を抽出することを目的としている.内容にまで踏みいった抽出を行うには,構造情報だけではなく,言語情報も重要な手がかりとなる.本タスクが従来の表抽出と大きく異なる点は,上記の理由から,言語情報を重視した抽出処理を行うことである.先行研究において,Yoshidaら\cite{yoshida}は表抽出ののちに表のクラスタリングを行なっている.しかし,一般に1つの文書中に膨大な数の\verb+<+TABLE\verb+>+タグが存在するため,機械学習などのための訓練データとして,全ての表にその表の内容が何であるかというラベルを付ける作業が高コストとなる.この問題点を解消するために,本研究では文書をフィルタリングしたのちに特定の表を抽出するという手法を取る.この手法により,正例および負例のラベル付けは,\verb+<+TABLE\verb+>+タグ単位ではなく,ページ単位となり,人手によるコストを最小限に抑え,実用的な精度を得ることができるという利点がある.
\section{フィルタリング}
本節では,フィルタリング処理について述べる.フィルタリングとは,製品メーカのサイトからHTMLダウンローダで獲得したWeb文書群から,性能表を含む文書を抽出することを指す.フィルタリング処理では,SVMおよびTSVMを用いる.\subsection{SupportVectorMachines}SVMはVapnikらが考案したOptimalSeparatingHyperplaneを起源とする,超平面による特徴空間の分割法であり,現在,二値分類問題を解決するための最も優秀な学習モデルの一つとして知られている\cite{vapnik}.SVMは訓練サンプル集合からマージン最大化と呼ばれる戦略を用いて,線形識別関数\begin{equation}f(\mbox{\boldmath$x$})=\mbox{\boldmath$w$}\cdot\mbox{\boldmath$x$}+b\end{equation}のパラメータを学習する.ここで,\mbox{\boldmath$x$}は入力ベクトルである.\mbox{\boldmath$w$}と$b$がマージン最大化戦略の際に学習されるパラメータであり,$f(\mbox{\boldmath$x$})\in\{+1,-1\}$となる.図\ref{svm}にSVMの学習モデルを示す.+は正のサンプル,−は負のサンプルである.図中の実線は$y=f(\mbox{\boldmath$x$})=0$となる点の集合であり,分離超平面(hyperplane)と呼ばれる.サンプルは,この超平面を境界として2つのクラスに分類される.すなわち,識別関数は分離超平面によって入力素性空間を二分する.また,超平面に対して最近傍のサンプル間の距離をマージンと呼び,$|\mbox{\boldmath$w\cdotx$}+b|/||\mbox{\boldmath$w$}||$で表す.図中の2つの破線上にある,分類を決定づける事例をサポートベクタと呼ぶ.\begin{figure}\begin{center}\epsfile{file=svm.eps}\end{center}\vspace{-3mm}\caption{SVMの学習モデル}\label{svm}\end{figure}訓練データが線形分離可能な場合,$\mbox{\boldmath$w$}$および$b$は複数存在することから,以下のような制約を与える.\begin{equation}\min_{i=1,\ldots,n}|{\mbox{\boldmath$w\cdotx$}}_{i}+b|=1\end{equation}この制約により,距離は$1/||{\mbox{\boldmath$w$}}||$となり,結論として識別関数は\begin{equation}\min~~\frac{1}{2}||{\mbox{\boldmath$w$}}||^{2}\end{equation}\[subject~~to:\forall^{n}_{i=1}:y_{i}[{\mbox{\boldmath$w\cdotx$}}_{i}+b]\geq1\]となる.本研究では,線形カーネルを利用した.\subsection{TransductiveSVM}一般に,高精度の分類器生成には多量の訓練サンプルを必要とする.しかし,十分な量の訓練データを人手によってラベリングするのは非常に高コストな作業といえる.そこで,少量の訓練データで高精度の分類器を生成する手法が期待される.Vapnik\cite{vapnik}が提案した理論を基にJoachims\cite{joachims}によって具体化されたTransductiveSVM(TSVM)は,Transductive法と呼ばれる,与えられたラベル無しデータの分布に注目し,ラベル無しデータの誤分類の最小化を目的とする学習方法をSVMに適用し,拡張したもので,学習時にラベル無しデータの分布を考慮する事で分類精度を上げる手法である.以下にTSVMのアルゴリズムを示す.\begin{description}\item[Step1]訓練データを基にSVMで分類器を生成する.\item[Step2]得られた分類器を用いてラベル無しデータを分類する.得られた分類結果をそれぞれのラベル無しデータの仮クラスとする.\item[Step3]仮クラスの付与されたラベル無しデータを訓練データに含め,SVMによって分類器を再生成する.\item[Step4]マージン内のラベル無しデータのうち,各々の仮クラスを入れ替えることでマージンを最大化できるペアを見つけ,入れ換える.入れ換えられたデータセットを用いて,SVMによる再学習を行う.この処理の際に,ラベル無しデータ中の正例および負例の分布を考慮する\footnote{一般には,ラベル無しデータ中の正例および負例の分布比率は未知なため,訓練データ中の正例と負例の比率などを参考にして求められた予測比率を利用し,パラメータが調整されることが多い.}.\item[Step5]入れ換えるペアがなくなるまで{\bfStep4}を繰り返す.\end{description}\begin{figure}\begin{center}\epsfile{file=tsvm.eps,height=4.4cm}\end{center}\vspace{-3mm}\caption{TSVMの学習モデル}\label{tsvm}\end{figure}図\ref{tsvm}は,TSVMの学習過程の例である.図中の+と−は,通常のSVMが分離超平面を生成する際に使用した正のサンプルと負のサンプルを表す(すなわち図\ref{svm}における+および−と同じ意味を持つ).ここで,$\circ$および$\bullet$はそれぞれ最初のSVMによる分離超平面によって正例および負例と判断されたラベル無しデータを表す.例では,マージン内にある\mbox{\boldmath$x^*_1$}と\mbox{\boldmath$x^*_2$}がアルゴリズム中の{\bfStep4}の部分で入れ換えられ,再学習の結果,マージンが最大化された新しい分離超平面が得られる過程を示している.TSVMにおいても,通常のSVMと同様に線形カーネルを使用した.線形分離可能な場合,TSVMの識別関数および制約条件は下式に拡張される.\begin{equation}\min~~\frac{1}{2}||{\mbox{\boldmath$w$}}||^{2}\end{equation}\[subject~~to:\forall^{n}_{i=1}:y_{i}[{\mbox{\boldmath$w\cdotx$}}_{i}+b]\geq1\]\[\hspace*{6em}\forall^{n}_{i=1}:y_{i}^{*}[{\mbox{\boldmath$w\cdotx$}}_{i}^{*}+b]\geq1\]ここで,${\mbox{\boldmath$x$}}_{j}^{*}$および$y_{j}^{*}$は,それぞれ仮クラスが与えられたラベル無データにおける入力ベクトルおよび仮クラスである.\subsection{素性選択}\label{sec3.3}続いて,SVMおよびTSVMのための素性選択について述べる.本研究では,以下の条件を全て満たすものを素性候補とした.\begin{description}\item[(1)]表の属性欄中に出現する単語\item[(2)]一定長以内の文章中に出現する単語\item[(3)]性能表が存在する文書および性能表が存在しない文書内で顕著または限定的に出現する単語\vspace{-1cm}\end{description}\mbox{}\\これらの条件に基づき,素性となる候補をWeb文書から抽出する.条件{\bf(1)}では表中の要素を属性および属性値に切り分ける必要がある.ここでは,一般に殆どの性能表は第1列目(最左列)に属性が現れ,それより右側の列に属性値が存在するという経験則から,最左列の要素を属性だと解釈する.表の属性部分を素性に使い,属性値を素性として用いない理由は,製品の属性(例えば,パソコンならCPUやメモリなど)は,新しい機種が発売されても変更されにくいのに対し,属性値(例えば,CPUでいえば,800MHz,2GHzなど)は,その値や表現に揺れが生じやすいためである.素性候補の抽出は,以下の手順で行われる.\begin{enumerate}\itemHTML文書から\verb+<+TABLE\verb+>+タグで記述された領域を抽出する.\item\verb+<+TABLE\verb+>+タグ中の各\verb+<+TR\verb+>+タグ中の初めの\verb+<+TD\verb+>+タグの内容を抽出する(図\ref{tdandtr}).\item得られた文字列が25文字以内であれば,形態素解析\footnote{形態素解析には奈良先端科学技術大学で開発された「茶筌」を用いた.\verb+http://chasen.naist.jp/hiki/ChaSen/+}を行い,素性候補を抽出する.25文字という制約は経験的に定められた.\end{enumerate}\begin{figure}\begin{center}\epsfile{file=trandtd.eps,height=5.5cm}\end{center}\caption{素性候補の例}\label{tdandtr}\end{figure}続いて,素性候補について重み付けを行い,素性を選択する.本稿では,(1)正規化$tf\cdotidf$,(2)ベイズの定理の2種類を用いて,その精度を比較,考察する.ここで,性能表を含んでいる文書中の\verb+<+TABLE\verb+>+タグ内で顕著に生起する語と,性能表を含んでいない文書中の\verb+<+TABLE\verb+>+タグ内で顕著に生起する語を素性とする.以下に各手法での素性選択の流れを示す.\begin{description}\item[正規化$tf\cdotidf$]\mbox{}\\$tf\cdotidf$は,文書群$D=\{d_1,...,d_N\}$について,文書$d$におけるキーワード候補$t$の生起数$tf(t,d)$,および候補が生起する文書数$df(t)$を基に重み付けを行う最も有名な手法の一つである.ここで,本研究では,素性候補の抽出条件を考慮する.すなわち,素性の候補となる単語$t$としては,文書$d$中の\verb+<+TABLE\verb+>+タグにおける最左列の単語のみを利用する.さらに,これを学習用に拡張し,$D=\{D_{real},~D_{no}\}$とする.ここで,$D_{real}$は性能表を含む文書群,$D_{no}$は求めている製品の性能表を含まないもしくは性能表以外のテーブルを含む文書群である.各々の文書群に生起する単語$t$について,Wangら\cite{wang}が表抽出で用いた式を基に重み付けを行う.\begin{equation}w^{real}_t=\sum_{d_i\inD_{real}}tf(t,d_i)\times\log(\frac{df^{real}_t}{N_{real}}\frac{N_{no}}{df^{no}_t}+1)\end{equation}\begin{equation}w^{no}_t=\sum_{d_i\inD_{no}}tf(t,d_i)\times\log(\frac{df^{no}_t}{N_{no}}\frac{N_{real}}{df^{real}_t}+1)\end{equation}ここで,$df^{real}_{t},df^{no}_{t}$は$D_{real}$および$D_{no}$における単語$t$の$df$値である.また,$N_{real}$および$N_{no}$は,$D_{real}$および$D_{no}$に属する文書の総数を表す.最終的な重みは以下の式で求める.\begin{equation}ws^{real}_t=\frac{w^{real}_t}{Norm_{real}},~~ws^{no}_t=\frac{w^{no}_t}{Norm_{no}}\end{equation}ただし,\begin{equation}Norm_{real}=\sqrt{\sum_{t\inD_{real}}w^{real}_t\timesw^{real}_t},~~Norm_{no}=\sqrt{\sum_{t\inD_{no}}w^{no}_t\timesw^{no}_t}\end{equation}ここで閾値以上の値を持つ$ws^{real}_t$および$ws^{no}_t$をSVMおよびTSVMのための素性として扱う.\item[ベイズの定理]\mbox{}\\素性選択のためのもう一つの手段として,パターン認識・分類の分野で広く知られているベイズの定理を用いる.事象$C={[C_{i}]}${\footnotesize$_{i=1}^M$}において,$P(C_{i})$$(\sum${\footnotesize$^{M}_{i=1}$}$P(C_{i})=1)$は事前確率と呼ばれる.ここで,正規化$tf\cdotidf$と同様に素性候補の抽出条件を考える.すなわち,単語$t$としては,文書$d$中の\verb+<+TABLE\verb+>+タグにおける最左列に生じるもののみを利用する.事前確率と条件付き確率密度分布$p(t|C_i)$が事前に得られる場合,単語$t$が$C_i$に属する事後確率$P(C_i|t)$は次の式で求められる.\begin{equation}P(C_i|t)=\frac{P(C_i)p(t|C_i)}{\sum^M_{j=1}P(C_j)p(t|C_j)}\end{equation}ここで,$C=\{D_{real},D_{no}\}$である.全単語に対して各クラスでの事後確率を求め,それらを単語の重みと考える.すなわち,$ws_t^{real}=P(D_{real}|t)$,および$ws_t^{no}=P(D_{no}|t)$である.ここで,$ws_t^{real}>0.75$を満たす語,$ws_t^{no}>0.75$でかつ5回以上生起した語を素性とする.\end{description}
\section{表領域抽出}
本節では,表領域抽出処理について述べる.表領域抽出処理とは,フィルタリング処理によって得られた性能表を含んでいる文書から性能表の領域を特定する処理を指す.一般に,1つのHTML文書中には複数の\verb+<+TABLE\verb+>+タグが存在するため,それらの中から特定の表のみを抽出する処理が必要となる\footnote{我々が実験で用いたデータでは,1つのHTML文書中に含まれる\verb+<+TABLE\verb+>+タグの数の平均は27.4個だった.}.\subsection{スコアリング}まず,文書内の全ての\verb+<+TABLE\verb+>+タグについて,それぞれにユニークなIDとその\verb+<+TABLE\verb+>+タグの深さに関する情報を付加する.深さは1から始まり\footnote{深さ1は,\verb+<HTML>+$\cdots$\verb+</HTML>+のレベル.},\verb+<+TABLE\verb+>+タグが入れ子構造になれば,その値は大きくなる.例を図\ref{numbering}に示す.\begin{figure}\begin{center}\epsfile{file=numbering.eps,height=6cm}\end{center}\vspace{-3mm}\caption{IDと深さ}\label{numbering}\end{figure}次に,各\verb+<+TABLE\verb+>+$_{id}$についてスコアリングを行う.スコアリングには,前節で素性として選ばれた語$t$とその値$ws^{real}_t$を用いる.各\verb+<+TABLE\verb+>+$_{id}$の最左列の要素について,以下の式でスコアを計算する.\begin{equation}Score_{id}=\sum_{t\inW_{list}}ws^{real}_t\times\log(s)\end{equation}ここで,$W_{list}$は各\verb+<+TABLE\verb+>+$_{id}$の最左列のセル中に存在する単語のリストを表し,$s$は,\verb+<+TABLE\verb+>+$_{id}$の最左列の要素に生起したキーワード$t$の総数を表す.この$Score_{id}$が最大になる\verb+<+TABLE\verb+>+$_{id}$を性能表であると見なし,抽出する.また,1つの文書に複数の性能表が含まれていることもある\footnote{実験データでは,1つの文書に複数の性能表が存在した割合はデジタルカメラとプリンタの場合は1\%以下だったが,パソコンの場合は6\%であった.}.そこで,$Score$が最大になる\verb+<+TABLE\verb+>+にマッチしたキーワードの$\frac{4}{5}$がマッチする\verb+<+TABLE\verb+>+も性能表だとして抽出する.\subsection{特殊な構造への処理}性能表が必ずしも1つの\verb+<+TABLE\verb+>+タグで構成されているとは限らない.実際に複数の表が入れ子構造になった性能表や複数の\verb+<+TABLE\verb+>+タグで分割されている性能表が多く存在する.前者の例は,図\ref{numbering}で$id=5$および$id=6$がまとまって1つの性能表である場合であり,後者の例は$id=1$と$id=5$が1つの性能表である場合である.入れ子構造になった\verb+<+TABLE\verb+>+タグの場合,ある\verb+<+TABLE\verb+>+$_{id}$が性能表と見なされたとすると,その\verb+<+TABLE\verb+>+より深さの深い\verb+<+TABLE\verb+>+は,性能表の一部だとして抽出する.さらに特殊な入れ子構造の例として,ブラウジングの際の視覚効果を狙い,\verb+<+TABLE\verb+>+タグ中の各\verb+<TD>...</TD>+内の要素が単一の\verb+<+TABLE\verb+>+タグで構成されている場合がある.このような場合は入れ子構造になっている\verb+<+TABLE\verb+>+タグ部分を通常の単一セルと見なして処理する.図\ref{nest}に例を示す.\begin{figure}\begin{center}\epsfile{file=nest.eps}\end{center}\vspace{-3mm}\caption{単一セルと見なされる入れ子構造}\label{nest}\end{figure}続いて,1つの性能表が複数の\verb+<+TABLE\verb+>+タグによって構成されている場合の処理について述べる.まず,次の条件を満たす\verb+<+TABLE\verb+>+$_{id}$を抽出する.\begin{itemize}\item\verb+<+TABLE\verb+>+タグの深さが等しい.\item同じ親を持つ\verb+<+TABLE\verb+>+タグである.\end{itemize}図\ref{numbering}でいえば,$id=1$と$id=5$のペア,$id=2$と$id=4$のペアがこれにあたる.次に抽出された\verb+<+TABLE\verb+>+タグ群について,次の項目をチェックする.\begin{description}\item[(1)]各行のセルの数が一致するか\item[(2)]\verb+<+TABLE\verb+>+タグに幅(width)が指定されている場合,その値が一致するか\item[(3)]\verb+<+TABLE\verb+>+タグの\verb+<TD>+タグについて,背景色(bgcolor)が指定されている場合,その使用パターンが一致するか\end{description}これらの項目のうち,2つ以上の項目に,抽出された\verb+<+TABLE\verb+>+群がマッチする場合は,それらを1つの\verb+<+TABLE\verb+>+として捉え,スコアリングの際に,それぞれのスコアの和をその\verb+<+TABLE\verb+>+のスコアとする.
\section{実験}
\begin{table}\caption{データセット}\label{dataset}\begin{center}\begin{tabular}{|c|c|c|c|}\hline&パソコン&デジタルカメラ&プリンタ\\\hline\hline性能表を含んでいる文書数&2090&236&520\\\hline性能表を含んでいない文書数&50621&11215&22055\\\hline\end{tabular}\end{center}\end{table}本節では,提案したフィルタリングおよび表領域抽出処理に関する評価実験について述べる.実験対象となる製品は,パソコン,デジタルカメラおよびプリンタの3種類とした.28の製品メーカサイトからHTMLダウンローダを用いて獲得したHTML文書群を評価実験の対象とした.総データ数は86737文書であり,それら文書の製品ごとの内訳を表\ref{dataset}に示す.但し,性能表を含んでいない文書群中には,別の製品の性能表が含まれている.例えば,デジタルカメラの場合は,性能表を含んでいない文書にフィルムカメラやビデオカメラなどの性能表が含まれていることがある.\subsection{フィルタリングに関する実験}まず,フィルタリング処理について評価する.実装には,SVM$^{light}$を使用した\footnote{\verb+http://svmlight.joachims.org+}.評価の基準として,適合率,再現率,F値を用いる.それぞれの値は以下の式で算出される.\begin{equation}適合率(P)=\frac{抽出された文書中で性能表を含んでいる文書の数}{抽出された文書の総数}\end{equation}\begin{equation}再現率(R)=\frac{抽出された文書中で性能表を含んでいる文書の数}{性能表を含んでいる文書の総数}\end{equation}\vspace*{-0.3cm}\begin{equation}F値(F)=\frac{1}{\frac{1}{2P}+\frac{1}{2R}}\end{equation}フィルタリング処理では,訓練データ数を100文書,300文書,500文書,1000文書とした,4つの場合について評価した.それぞれの訓練データは全データからランダムに5セットずつ抽出され,適合率および再現率は5セットの実験結果の平均値とした.評価データは,ダウンローダによって獲得された全データから,サンプリングされた訓練データを除いたもので,訓練データと評価用のデータは重複しない.TSVMのためのラベル無しデータとしては,評価データからサンプリングした1000文書を用いた.ラベル無しデータと評価データは重複している.素性選択としてベイズの定理を用いた場合の実験結果を表\ref{fi-bay}に,正規化$tf\cdotidf$を用いた場合の実験結果を表\ref{fi-tf}に示す.図\ref{keys}にベイズの定理もしくは正規化$tf\cdotidf$によって素性として選択された単語の例を示す.単語とともに記述されている数値は,それぞれの手法によって算出された,性能表を含む文書群($D_{real}$)もしくは性能表を含まない文書群($D_{no}$)における,その単語の重みを表す.例えば,図中の正規化$tf\cdotidf$の例では,メモリやスロットという単語は$D_{real}$で顕著に出現し,方法やロードなどは$D_{no}$で顕著に出現したことを表している.この値を基にSVMのための素性が選択された.\begin{figure}[!tb]\begin{center}\epsfile{file=key_example.eps,height=8cm}\end{center}\vspace{-3mm}\caption{選択された素性とその値の例(パソコンの場合)}\label{keys}\end{figure}フィルタリング処理で抽出された文書の例を示す\footnote{訓練データ数が1000文書の場合の実験結果からの抜粋.}.図\ref{ok}は,デジタルカメラを対象とした場合の正解例である.表の最左列に細分化された多くの属性が存在するため,訓練データから抽出された素性とマッチする.このように最左列に多く属性が存在する場合は,正しく分類される.一方で,図\ref{bad}は同じくデジタルカメラを対象とした場合の失敗例である.この失敗例は,ある製品で撮影した写真の画像サンプルに関する文書であり,この文書には性能表が含まれていない.しかし,文書中にあるいくつかの\verb+<+TABLE\verb+>+中の最左列に訓練データで抽出した素性がマッチしてしまい,誤抽出となった.図\ref{miss}は,性能表を含んでいるにもかかわらず,フィルタリングで獲得できなかった例である.この文書に含まれる性能表は,属性部分が細かく分類されておらず,属性値の欄に箇条書きで細分化された属性が記述されている.提案手法では,分類器のための素性を表の最左列に限定しているため,このような性能表は正しく獲得できない場合がある.\begin{figure}[!tb]\begin{center}\epsfile{file=ok.eps,height=13.5cm}\end{center}\vspace{-3mm}\caption{正しく獲得できた性能表を含む文書の例}\label{ok}\end{figure}\begin{figure}[!tb]\begin{center}\epsfile{file=bad.eps,height=13.5cm}\end{center}\vspace{-3mm}\caption{誤って獲得した性能表を含まない文書の例}\label{bad}\end{figure}\begin{figure}[!tb]\begin{center}\epsfile{file=miss.eps,height=13.5cm}\end{center}\vspace{-3mm}\caption{正しく獲得できなかった性能表を含む文書の例}\label{miss}\end{figure}\begin{table}[!bt]\caption{フィルタリング実験結果-ベイズの定理-}\label{fi-bay}\begin{center}\begin{tabular}{|c|c|c|c|c||c|c|c|}\hline\lw{製品}&\lw{訓練データ数}&\multicolumn{3}{|c||}{SVM}&\multicolumn{3}{c|}{TransductiveSVM}\\\cline{3-8}&&適合率&再現率&F値&適合率&再現率&F値\\\hline\hlineパソコン&100&0.9121&0.5318&0.6719&0.7946&0.7848&\bf0.7897\\\cline{2-8}&300&0.8934&0.8885&0.8909&0.8507&0.8870&0.8685\\\cline{2-8}&500&0.9226&0.8284&0.8730&0.8924&0.8870&\bf0.8897\\\cline{2-8}&1000&0.9200&0.9028&0.9113&0.9037&0.9191&\bf0.9113\\\hline\hlineデジカメ&100&0.8845&0.4383&0.5862&0.6426&0.8580&\bf0.7348\\\cline{2-8}&300&0.8405&0.6668&0.7437&0.7389&0.8556&\bf0.7930\\\cline{2-8}&500&0.8751&0.7197&0.7898&0.8232&0.8196&\bf0.8214\\\cline{2-8}&1000&0.8830&0.8267&0.8539&0.8171&0.8785&0.8466\\\hline\hlineプリンタ&100&0.8772&0.2247&0.3577&0.6099&0.6077&\bf0.6088\\\cline{2-8}&300&0.9327&0.5132&0.6621&0.7647&0.7494&\bf0.7570\\\cline{2-8}&500&0.7263&0.5949&0.6540&0.8024&0.9098&\bf0.8527\\\cline{2-8}&1000&0.9245&0.8628&0.8926&0.8946&0.9147&\bf0.9045\\\hline\end{tabular}\end{center}\end{table}\begin{table}[!bt]\caption{フィルタリング実験結果-$tf\cdotidf$-}\label{fi-tf}\begin{center}\begin{tabular}{|c|c|c|c|c||c|c|c|}\hline\lw{製品}&\lw{訓練データ数}&\multicolumn{3}{|c||}{SVM}&\multicolumn{3}{c|}{TransductiveSVM}\\\cline{3-8}&&適合率&再現率&F値&適合率&再現率&F値\\\hline\hlineパソコン&100&0.8532&0.7510&0.7988&0.7595&0.8427&\bf0.7990\\\cline{2-8}&300&0.8792&0.9318&0.9047&0.8564&0.9144&0.8845\\\cline{2-8}&500&0.9142&0.8816&0.8976&0.9223&0.8776&\bf0.8994\\\cline{2-8}&1000&0.9293&0.9329&0.9311&0.9140&0.8946&0.9042\\\hline\hlineデジカメ&100&0.7510&0.7145&0.7323&0.6049&0.8211&0.6966\\\cline{2-8}&300&0.8141&0.7870&0.8003&0.6856&0.8212&0.7473\\\cline{2-8}&500&0.8793&0.7948&0.8349&0.7776&0.8392&0.8072\\\cline{2-8}&1000&0.8532&0.8935&0.8729&0.8041&0.9200&0.8582\\\hline\hlineプリンタ&100&0.8684&0.5664&0.6856&0.6657&0.8145&\bf0.7326\\\cline{2-8}&300&0.8755&0.7926&0.8320&0.7915&0.8859&\bf0.8360\\\cline{2-8}&500&0.8620&0.9110&0.8859&0.8141&0.8907&0.8506\\\cline{2-8}&1000&0.8973&0.9471&0.9215&0.8995&0.9040&0.9017\\\hline\end{tabular}\end{center}\end{table}\begin{table}[!tb]\caption{テストデータの分布を使用した場合の実験結果}\label{right-dis}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline製品&訓練データ数&適合率&再現率&F値\\\hline\hlineパソコン&100&0.8239&0.8763&0.8493\\\cline{2-5}&300&0.8518&0.9312&0.8897\\\cline{2-5}&500&0.8723&0.9106&0.8910\\\cline{2-5}&1000&0.9185&0.9392&0.9287\\\hline\hlineデジカメ&100&0.7173&0.7548&0.7356\\\cline{2-5}&300&0.8080&0.7904&0.7991\\\cline{2-5}&500&0.8065&0.7697&0.7877\\\cline{2-5}&1000&0.8158&0.9198&0.8647\\\hline\hlineプリンタ&100&0.7280&0.7540&0.7408\\\cline{2-5}&300&0.7983&0.8893&0.8413\\\cline{2-5}&500&0.8438&0.8788&0.8609\\\cline{2-5}&1000&0.9151&0.9046&0.9098\\\hline\end{tabular}\end{center}\end{table}\begin{table}[!tb]\caption{全てのセルを使用した場合のSVMの結果}\label{all_fea}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline製品&訓練データ数&適合率&再現率&F値\\\hline\hlineパソコン&100&0.8336&0.7679&0.7994\\\cline{2-5}&300&0.8665&0.8859&0.8761\\\cline{2-5}&500&0.9029&0.8651&0.8836\\\cline{2-5}&1000&0.9266&0.8742&0.8996\\\hline\hlineデジカメ&100&0.7030&0.5297&0.6041\\\cline{2-5}&300&0.7817&0.8461&0.8126\\\cline{2-5}&500&0.8004&0.7544&0.7767\\\cline{2-5}&1000&0.8269&0.8834&0.8542\\\hline\hlineプリンタ&100&0.7692&0.5640&0.6511\\\cline{2-5}&300&0.8463&0.7431&0.7913\\\cline{2-5}&500&0.8324&0.8557&0.8439\\\cline{2-5}&1000&0.8751&0.8545&0.8646\\\hline\end{tabular}\end{center}\end{table}ベイズの定理と正規化$tf\cdotidf$によって選ばれた素性を比較すると,多くの場合,正規化$tf\cdotidf$の方が高いF値を収めた.製品種別で比較すると,デジタルカメラの精度が低くなる傾向があり,プリンタもパソコンに比べると精度が落ちる.この理由としては,(1)パソコンの性能表は比較的大きな表であることが多く,有効なキーワードが得やすいこと,(2)デジタルカメラのメーカは,フィルムカメラやビデオカメラも扱っていることが多く,プリンタの場合にもコピー機やスキャナのような対象となる性能表によく似たノイズが同じサイト内に存在すること,などが挙げられる.しかしながら,このように非常に似た性能表が混在しているにもかかわらず,比較的高いF値を得ることができている.SVMとTSVMについて比較すると,ベイズの定理を用いて素性を選択した場合は殆どの実験でSVMに比べ,TSVMの方が高いF値を得た.正規化$tf\cdotidf$を用いた場合は,TSVMのF値の方が低くなることが多いが,両方の素性とも,訓練データが少ない場合は,TSVMのF値がSVMのF値を上回る傾向がみられた.これは,訓練データが少ない場合のTSVMの有効性を示している.TSVMがSVMのF値を上回っている殆どの場合では,再現率が大幅に向上している.これは,TSVMが正例と負例の分布に基づいて再学習を行うためである.今回の実験では,ラベル無しデータの正例と負例の分布については,訓練データ中の正例と負例の分布を用いたが,ここに全データから算出された正例と負例の比を適用すると実験結果は表\ref{right-dis}のようになる\footnote{素性には正規化$tf\cdotidf$で選ばれたものを利用した.使用した正例と負例の比は表\ref{dataset}の文書数の比である.}.TSVMで使用する正例と負例の比が正確であれば,少数の訓練データの場合,さらなる精度向上に繋がることが確認できた.実験結果より,本タスクでは,訓練データが少ない場合においてTSVMが有効に機能することが確認された.続いて,素性選択に使用した条件について考察する.\ref{sec3.3}節で示したように,素性は表の最左列のみを使用している.この条件の有効性を検証するために,素性選択に最左列という条件を除いた場合の結果を表\ref{all_fea}に示す.訓練および評価データは最左列に限定したものと同じものを使用しており,素性選択の手法には,正規化$tf\cdotidf$を用いた.表は,通常のSVMに関する実験結果である.一部で,表中の全ての要素を素性選択に用いた場合の方が良いF値を得ることがあるが,平均で3〜4\%程度,最大で約13\%,素性選択を最左列に限定した方が良いという実験結果が得られた.素性選択を最左列に限定しない場合にF値が落ちる原因は,1つの文書に含まれる\verb+<+TABLE\verb+>+タグが多いことが考えられる.我々が用いた実験データでは,1つの文書に30個程度の\verb+<+TABLE\verb+>+タグが存在する.最左列という条件を除くと,性能表を含む文書中の関係のない\verb+<+TABLE\verb+>+タグの中身まで素性候補としてしまう可能性が高くなり,それが精度に影響するものと考えられる.実験結果より,素性選択に関する条件の有効性も確認できた.\clearpage\subsection{表領域抽出に関する実験}続いて,表領域抽出処理について実験する.ここでは,SVMおよびTSVMの素性選択に使用した,性能表を含む文書群($D_{real}$)中で高い重みを持つ単語$t$をキーワードとし,その値$ws^{real}_t$を用いる.それらのキーワードによって,性能表を含む文書からどれだけの性能表の領域を正しく特定できるかを評価する.すなわち,実験データは,表\ref{dataset}の各製品の「性能表を含んでいる文書」に含まれる文書となる.実験には,フィルタリング処理で最もF値が良かった実験結果の素性をキーワードとして用いた.実験結果を表\ref{tableext}に示す.正解率は以下の式で算出される.\begin{equation}正解率=\frac{正しく抽出された性能表の数}{全文書に含まれる性能表の数}\end{equation}表中で,部分成功とは,ある製品の性能表が複数の並列した\verb+<+TABLE\verb+>+タグで構成されており(例えば,図\ref{numbering}の$id=1$と$id=5$が1つの性能表である場合),その内のどれかが欠けている場合を指す.過抽出は,正解領域だけでなく,別の\verb+<+TABLE\verb+>+タグも併せて抽出した場合を表しており,誤抽出は,性能表ではない\verb+<+TABLE\verb+>+タグを抽出した場合である.\begin{table}[t]\caption{表領域抽出実験の結果(フィルタリングの素性を利用)}\label{tableext}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline\lw{製品}&\lw{正解率}&\multicolumn{3}{c|}{不正解の内訳(文書数)}\\\cline{3-5}&&部分成功&過抽出&誤抽出\\\hline\hlineパソコン&0.991&5&5&8\\\hlineデジカメ&0.907&17&0&5\\\hlineプリンタ&0.887&24&5&30\\\hline\end{tabular}\end{center}\end{table}実験結果より,パソコンの場合は非常に高い精度で表領域を特定できることがわかる.パソコンの性能表の領域抽出の精度が高い理由としては,一般にパソコンの性能表が(1)比較的大きな表であること,(2)性能表が複数の並列した\verb+<+TABLE\verb+>+タグで記述されることが少ないこと,などが挙げられる.それと比較すると,デジタルカメラとプリンタの表領域抽出精度は若干落ちる.デジタルカメラやプリンタは,(3)性能表を含む文書中に存在する\verb+<+TABLE\verb+>+タグの数がパソコンに比べて若干多いこと\footnote{実験データにおいて,パソコンは1文書中の\verb+<+TABLE\verb+>+タグの数が平均24.8個であり,デジタルカメラとプリンタはそれぞれ29.4個,36.6個であった.},(4)複数の並列した\verb+<+TABLE\verb+>+タグで一つの性能表が記述されることが多いこと,などが精度が劣る原因である.プリンタの場合で,誤抽出が多く見られるのは,(3)が大きな原因だと考えられる.(4)に対しては,表領域抽出処理で,各\verb+<+TABLE\verb+>+の構造的な類似度を用いて結合処理を行っているが,並列する\verb+<+TABLE\verb+>+間に書式の異なる\verb+<+TABLE\verb+>+や性能表と関係のない\verb+<+TABLE\verb+>+が挿入されると,条件を満たさなくなり,\verb+<+TABLE\verb+>+が結合されない.その例を図\ref{missint}に示す.図\ref{missint}(b)の例では,3つの\verb+<+TABLE\verb+>+は同じ深さで存在するが,[スキャナ付属品]の表が[スキャナ部分]と[プリンタ部分]の表の構造(セルの数とセルの幅,対応するセルへの背景色)と異なるため,結合されず,最もスコアが高い\verb+<+TABLE\verb+>+のみが抽出されることになる.\begin{figure}\begin{center}\epsfile{file=missext.eps,height=6cm}(a)正しく抽出される場合\hspace{30mm}(b)一部しか抽出されない場合\end{center}\vspace{-3mm}\caption{複数の\verb+<+TABLE\verb+>+による性能表}\label{missint}\end{figure}誤抽出や結合に失敗する場合の対処法として,スコアがある閾値以上の\verb+<+TABLE\verb+>+のみを性能表として抽出するという手法が考えられるが,一般的な閾値を見つけることは難しい.また,現在我々が対象としているデータは,負例($D_{no}$)に比べて,正例($D_{Real}$)の数が極端に少ないため,サンプリングする訓練データの数によっては,十分な正例が得られず,必ずしも十分なキーワードが得られるとは限らない.その結果,設定した閾値によっては多くの性能表が棄却される場合もある.精度向上のためには,訓練データ中の正例の数をいかに多く獲得するかが課題となる.性能表には製品ごとやメーカごとに,その書式や使われている用語にある程度一貫性がある場合が多い.精度向上のための別の手法としては,抽出処理に利用するキーワードを全データから獲得するのではなく,メーカごとに獲得し,それらを用いて表領域抽出処理を行うことなども今後の課題として考えられる.また,この実験とは別に,各製品に対して5分割交差検定を行った.すなわち,全データを5分割し,そのうち4つを性能表抽出のためのキーワード抽出処理の訓練データとし,残りの1つを評価データとした.実験結果を表\ref{5cross}に示す.5分割にして実験を行ったことにより,フィルタリングに使用した素性の場合に比べ,訓練データの数が多くなるため\footnote{例えば,PCでは,1000文書をサンプリングした場合(フィルタリングで使用した素性をキーワードとする場合)の平均正例数は41文書だが,5分割交差検定の場合,1672文書の正例から性能表抽出のためのキーワードを獲得したことになる.},有効なキーワードが獲得できた結果,全体的に誤抽出の数が減少した.部分成功の数が増加したのは,フィルタリングに使用した素性ではキーワード不足で誤抽出となっていたものが,キーワードの増加によって抽出され,部分成功になったためである.\begin{table}\caption{表領域抽出実験の結果(5分割交差検定)}\label{5cross}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline\lw{製品}&\lw{正解率}&\multicolumn{3}{c|}{不正解の内訳(文書数)}\\\cline{3-5}&&部分成功&過抽出&誤抽出\\\hline\hlineパソコン&0.993&3&5&6\\\hlineデジカメ&0.911&19&0&2\\\hlineプリンタ&0.923&27&8&5\\\hline\end{tabular}\end{center}\end{table}続いて,特殊な構造を持った文書について考察する.\verb+<TD>...</TD>+内の要素が単一の\verb+<+TABLE\verb+>+タグで構成されている場合(以下,単一セルと呼ぶ)と複数の\verb+<+TABLE\verb+>+によって1つの性能表が構成されている場合(以下,複数テーブルと呼ぶ)の内訳と全体に占める割合を表\ref{unicellandmulti}に示す.\begin{table}\caption{単一セルと複数テーブルの数と全体に占める割合}\label{unicellandmulti}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline&パソコン&デジカメ&プリンタ\\\hline\hline性能表を含んでいる文書の数&2090&236&520\\\hline単一セルの数(割合)&6(0.3\%)&32(13.6\%)&0(0\%)\\\hline複数テーブルの数(割合)&10(0.4\%)&23(9.7\%)&69(13.3\%)\\\hline\end{tabular}\end{center}\end{table}パソコンの場合は,単一セル,複数テーブルが存在する文書は正例中の1\%以下だが,プリンタの場合は13\%の文書が,例え,抽出のための十分なキーワードを獲得できていたとしても,特殊構造への処理を行わないと根本的に抽出できないことになる.デジタルカメラの場合は単一セルと複数テーブルに重複があり,それを考慮すると,17\%の文書(42文書)が同じく根本的に抽出できないことになる.特殊構造への処理を行わなかった場合と行った場合の正解率を表\ref{nothing}に示す.実験では,表\ref{tableext}の実験で使用したキーワードを利用した.パソコンについては,単一セルと複数テーブルの数が全体に対して少ないため,正解率の上昇は1\%以下であった.一方で,特殊構造に対する処理を行わなかった場合,デジタルカメラの正解率は0.800,プリンタの場合は0.833となった.すなわち,提案手法による特殊構造への処理は,プリンタの場合で5\%程度,デジタルカメラの場合は約10\%の正解率の向上に繋がっている.特殊構造への対応にはいくつかの課題が残るが,この実験結果より,提案手法の有効性は確認できた.\begin{table}\caption{特殊構造への処理の有効性}\label{nothing}\begin{center}\begin{tabular}{|c|c|c|}\hline\lw{製品}&特殊構造への処理を&特殊構造への処理を\\&行わない場合の正解率&行う場合の正解率(表\ref{tableext}の正解率)\\\hline\hlineパソコン&0.988&0.991\\\hlineデジカメ&0.800&0.907\\\hlineプリンタ&0.833&0.887\\\hline\end{tabular}\end{center}\end{table}本研究では,フィルタリングで性能表を含んでいる文書を絞り込み,続いて性能表を抽出するという流れを取った.提案手法以外にも,まず従来の表抽出の研究に基づき,一般的な表抽出を実行し,その表から特定の内容を含んだ表を抽出するという手法も考えられる.しかし,この手法を用いる場合,訓練データの獲得のために,全ての\verb+<+TABLE\verb+>+タグを人手でチェックし,正例もしくは負例のラベル付けをする必要がある.我々の使用した実験データでは,1つの文書中に30前後の\verb+<+TABLE\verb+>+タグが存在する.すなわち,膨大な数の\verb+<+TABLE\verb+>+タグへのチェックが必要になり,実用面を考えればコストが高い.一方で,提案手法は,そのページに性能表が含まれているかもしくは含まれていないかのチェックをするだけで良いという利点がある.また,表抽出処理では,フィルタリング処理で用いたSVMのような機械学習のアルゴリズムを使用しなかった.これは,上記の表抽出を行い,内容を分類するという手法における問題点と同様に,性能表の正確な領域を膨大な\verb+<+TABLE\verb+>+タグをチェックしながら,人手で正例のラベルを付けることが,高コストなためである.このように提案手法には,訓練データの作成に関して,実用的な面での大きな利点がある.
\section{おわりに}
本稿では,Webから製品のスペック情報を記述した表(性能表)の抽出方法について述べた.提案手法は,Webからの製品データベースの自動獲得や,オンラインショッピングサイトの自動構築などのために有効である.提案手法では,(1)フィルタリング,(2)表領域抽出,の2つのプロセスによってWeb文書群から性能表を獲得することを試みた.フィルタリングでは,SVMとTSVMを用い,その精度を検証した.訓練データが少ない場合,TSVMが有効に機能することを確認した.TSVMの精度を向上させるには,ラベル無しデータ中の正例と負例の正確な比を推定することが有効である.少ない訓練データで,いかにラベル無しデータの正例と負例の分布を推測するかが今後の課題の一つとなる.表領域抽出処理では,パソコンの場合で,非常に高い抽出正解率を得た.デジタルカメラとプリンタの場合においても90\%程度の精度を得ている.並列した複数の\verb+<+TABLE\verb+>+タグからなる性能表をより正確に抽出するためには,訓練データ中の正例をいかに多く獲得できるかや,構造的類似度に関する新たな尺度の導入が課題となる.2つのプロセスにおいて,現在は一括して素性選択やキーワード抽出を行っているが,メーカや製品ごとの表の記述方法の一貫性などを利用することで,より高い抽出精度が得られる可能性がある.その実装と評価は,今後の課題の一つである.両プロセスとも90\%程度の精度を得ており,実験結果から本手法の有効性と実用性を確認できた.\acknowledgment実験の説明において,図\ref{ok}はオリンパス株式会社\footnote{http://www.olympus.co.jp/jp/news/2001a/nr010321c700uzspj.cfm},図\ref{bad}は松下電器産業株式会社\footnote{http://panasonic.jp/dc/gallery/fz3.html},図\ref{miss}はコダック株式会社\footnote{http://wwwjp.kodak.com/JP/ja/digital/cameras/dc80/spec.shtml}に,論文中でのデータの利用についてご許可いただきました.但し,図\ref{bad}では肖像権上の都合により一部の画像を差し替えている.また,本稿の改善に対して,査読者の方から数多くの有益なコメントをいただきました.ここに深く感謝いたします.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chen,Tsai,\BBA\Tsai}{Chenet~al.}{2000}]{chen}Chen,H.,Tsai,S.,\BBA\Tsai,J.\BBOP2000\BBCP.\newblock\BBOQMiningtablesfromlargescaleHTMLtexts\BBCQ\\newblockIn{\BemProceedingsofCOLING2000},\BPGS\166--172.\bibitem[\protect\BCAY{Hu,Kashi,Lopresti,\BBA\Wilfong}{Huet~al.}{2000}]{hu}Hu,J.,Kashi,R.,Lopresti,D.,\BBA\Wilfong,G.\BBOP2000\BBCP.\newblock\BBOQMedium-independenttabledetection\BBCQ\\newblockIn{\BemProceedingsofDocumentRecognitionandRetrievalVII},\BPGS\23--28.\bibitem[\protect\BCAY{Hurst}{Hurst}{2001}]{hurst}Hurst,M.\BBOP2001\BBCP.\newblock\BBOQLayoutandlanguage:Challengesfortableunderstandingontheweb\BBCQ\\newblockIn{\BemProceedingsofWorkshoponWebDocumentAnalysis,WDA01},\BPGS\27--30.\bibitem[\protect\BCAY{Itai,Takasu,\BBA\Adachi}{Itaiet~al.}{2003}]{itai}Itai,K.,Takasu,A.,\BBA\Adachi,J.\BBOP2003\BBCP.\newblock\BBOQInformationextractionfromHTMLpagesanditsintegration\BBCQ\\newblockIn{\BemProceedingsofthe2003SymposiumonApplicationandtheInternetWorkshops(SAINT03)},\BPGS\276--281.\bibitem[\protect\BCAY{Joachims}{Joachims}{1999}]{joachims}Joachims,T.\BBOP1999\BBCP.\newblock\BBOQTransductiveinferencefortextclassificationusingSupportVecorMachines\BBCQ\\newblockIn{\BemProceedingsoftheSixteenthInternationalConferenceonMachineLearning},\BPGS\200--209.\bibitem[\protect\BCAY{河合,塚本,山本,椎野}{河合\Jetal}{1998}]{kawai}河合敦夫,塚本雄之,山本勝紀,椎野務\BBOP1998\BBCP.\newblock\JBOQ文書構造を利用した箇条書きや表形式文書からの内容抽出\JBCQ\\newblock\Jem{信学論(D-II)},{\BbfJ81-D2}(7),1609--1619.\bibitem[\protect\BCAY{Ng,Lim,\BBA\Koo}{Nget~al.}{1999}]{ng}Ng,H.,Lim,C.,\BBA\Koo,J.\BBOP1999\BBCP.\newblock\BBOQLearningtorecognizetablesinfreetext\BBCQ\\newblockIn{\BemProceedingsofthe37thAnnualMeetingofACL},\BPGS\443--450.\bibitem[\protect\BCAY{Pinto,McCallum,Wei,\BBA\Croft}{Pintoet~al.}{2003}]{pinto}Pinto,D.,McCallum,A.,Wei,X.,\BBA\Croft,W.~B.\BBOP2003\BBCP.\newblock\BBOQTableextractionusingconditionalrandomfeilds\BBCQ\\newblockIn{\BemProceedingsofthe26thannualinternationalACMSIGIRconferenceonResearchanddevelopmentininformaionretrieval},\BPGS\235--242.\bibitem[\protect\BCAY{佐藤,佐藤,篠田}{佐藤\Jetal}{1997}]{sato}佐藤円,佐藤理史,篠田陽一\BBOP1997\BBCP.\newblock\JBOQ電子ニュースのダイジェスト自動生成\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf36}(10),2371--2379.\bibitem[\protect\BCAY{Shimada\BBA\Endo}{Shimada\BBA\Endo}{2003}]{shimada4}Shimada,K.\BBACOMMA\\BBA\Endo,T.\BBOP2003\BBCP.\newblock\BBOQProductSpecificationsSummarizationandProductRankingSystemusingUser'sRequests\BBCQ\\newblockIn{\BemInformationModellingandKnowledgeBasesXV,IOSPress},\BPGS\315--331.\bibitem[\protect\BCAY{Shimada,Ito,\BBA\Endo}{Shimadaet~al.}{2003}]{shimada2}Shimada,K.,Ito,T.,\BBA\Endo,T.\BBOP2003\BBCP.\newblock\BBOQMultiformSummarizationfromProductSpecifications\BBCQ\\newblockIn{\BemProceedingsofPACLING2003},\BPGS\83--92.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1999}]{vapnik}Vapnik,V.~N.\BBOP1999\BBCP.\newblock{\BemStatisticalLearningTheory}.\newblockWiley.\bibitem[\protect\BCAY{Wang\BBA\Hu}{Wang\BBA\Hu}{2002}]{wang}Wang,Y.\BBACOMMA\\BBA\Hu,J.\BBOP2002\BBCP.\newblock\BBOQAmachinelearningbasedapproachfortabledetectionontheWeb\BBCQ\\newblockIn{\BemProceedingsofTheEleventhInternationalWorldWebConference}.\bibitem[\protect\BCAY{Yoshida,Torisawa,\BBA\Tsujii}{Yoshidaet~al.}{2001}]{yoshida}Yoshida,M.,Torisawa,K.,\BBA\Tsujii,J.\BBOP2001\BBCP.\newblock\BBOQExtractingontologiesfromWorldWideWebviaHTMLtables\BBCQ\\newblockIn{\BemProceedingsofPACLING2001},\BPGS\332--341.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{嶋田和孝}{1997年大分大学工学部知能情報システム工学科卒.1999年同大大学院博士前期課程了.2002年同大大学院博士後期課程単位取得退学.同年より九州工業大学情報工学部助手.博士(工学).表抽出,テキスト処理などの研究に従事.言語処理学会,電子情報通信学会,情報処理学会各会員.}\bioauthor{林晃司}{2002年九州工業大学情報工学部卒.2004年同大大学院修士課程了.現在は富士ゼロックス株式会社.在学中は表の分類・抽出に関する研究に従事.}\bioauthor{遠藤勉}{1972年九州大学工学部電子工学科卒業.1974年同大学院修士課程修了.1977年同博士課程単位取得退学.同大助手を経て,1980年大分大学工学部講師.同大助教授,教授を経て,2000年より九州工業大学情報工学部知能情報工学科教授.工学博士.自然言語処理,コンピュータビジョンの研究に従事.電子情報通信学会,情報処理学会,人工知能学会,日本ロボット学会,日本ソフトウェア科学会,IEEEComputerSociety各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V17N04-06 | \section{はじめに}
近年の音声合成技術の進歩により合成音声によるカーナビのガイダンスやパソコンによるテキストの読み上げなど様々な場面で合成音声が聞かれるようになった.また,Webを読み上げるための取り組みが進められており,Webコンテンツを音声に変換するための議論がなされている\cite{SOUMU,Guidance,Dialogue}.音声合成の分野においては従来からTTS(Text-to-Speech)\cite{MITalk,TTS}により電子化されたテキストを音声に変換する試みがなされてきた.メール,電子図書,Webページに至るまで様々なテキストを合成音声によって流暢に朗読する仕組みが検討されている.そして近年では,テキストに制御タグを挿入して音声合成の韻律パラメータを制御するアプローチ(VoiceXML;RamanandGries1997;SSML)がなされている.\nocite{VoiceXML,Raman,SSML}韻律パラメータの制御により,従来の朗読調をベースとした合成音声をより表情豊かな音声に変えられることが分かっている.合成音声を音声対話など様々な分野で利用するためには音声に含まれる表現力を高めることが重要であり,そのために韻律パラメータの制御を行うための仕組みづくりが重要になってきている.我々は,韻律パラメータの制御を行うための記述言語MSCL(Multi-layeredSpeech/SoundSynthesisControlLanguage)\cite{MSCL}を開発し,記述による柔軟な韻律制御を実現した.読み上げ用の電子テキストに直接韻律制御コマンドを記述することで韻律制御が可能となった.本研究では,MSCLをより効果的に利用するための韻律制御コマンドの作成方法について述べ,専門的な知識がなくとも新たな韻律制御規則を作成可能にするアプローチについて1つの方向性を提案する.\subsection{記述言語による韻律制御}PML\cite{Ramming}から発展したVoiceXML\citeauthor{VoiceXML}は記述というスタイルにより,音声対話システムの制御を行うフレームワークであり,音声合成から音声認識に至るまでの制御を一元的に行うことで,電話の音声ガイダンスや自動応答を可能にしている.VoiceXMLのように制御タグにより音声合成の制御を行うことの利点は,テキスト処理の範疇で編集作業や情報の伝送が可能になることである.また,Webコンテンツなどの豊富な電子テキスト情報に制御コマンドを付与し読み上げを行うことが容易になる.インターネット上の豊富なテキスト情報を取り込み,テキスト処理と制御タグの挿入により柔軟な音声ガイダンスシステムが可能になる.しかし,従来の音声合成の記述言語では音声合成で用いる韻律パラメータの制御(以下,韻律制御)をするための制御タグを新たに定義することはできず,利用できるタグの数も限られている.例えば,SSMLなどでは\begin{verbatim}<voicegender="female">天気は晴れです</voice><prosodyrate="-10\end{verbatim}のように,声質の変更(gender)や話速(rate)などのパラメータの変更を行うことは可能であるが,複数のパラメータを同時に変更する場合は,タグの記述が膨大になり可読性が損なわれる可能性もある.韻律パラメータを直接指定する制御タグが主体であるためにタグの名称から韻律制御によって期待しうる効果(印象)を予測することができない.このように,従来法ではきめ細かな韻律制御や直感的な制御ができないといった問題があった.MSCLはきめ細かな韻律制御を行うコマンド群の層と直感的な韻律制御が可能になるコマンド群の層に分離し,韻律制御の自由度や使いやすさを高めている.次節においてMSCLについて述べる.\subsection{MSCLによるアプローチ}利用者が簡単に制作を行えるインタフェースの原則として以下の3点\cite{Stgif}にまとめられている.\begin{itemize}\item[ア.]初心者保護の原則:レポートとは何か\item[イ.]熟練者優遇の原則:レポートの必要十分条件\item[ウ.]上級利用移行支援の原則:利用者に対して特化手段を用意し利用を促進する枠組み\end{itemize}\begin{figure}[b]\begin{center}\includegraphics{17-4ia7f1.eps}\end{center}\caption{MSCLの階層構造}\end{figure}MSCLは,音声合成で必要となるピッチやパワーなどの韻律パラメータ群であるP層と,その韻律パラメータを制御するためのコマンド群であるI層と韻律パラメータに1つの解釈を与えるコマンド群であるS層の3つの階層(図1)がある.I層のコマンドは韻律パラメータを直接指定可能であるため,熟練者はより詳細な音声合成の韻律制御が可能になる.S層のコマンドは効果を直感的に理解した上での韻律制御が可能になり,初学者でも利用可能になる.MSCLの利点をまとめると以下の通りである.\begin{itemize}\item記述というスタイルで合成音声に様々な表現力を与える\item階層構造の記述体系を持つことで,初学者から専門的知識を持つ利用者までの様々なレベルへの対応が可能になる\item新たなコマンドを定義し,利用者独自の韻律制御方法を生み出せる\end{itemize}図1中の韻律制御のための記述がそのまま制御コマンド名になっている.特にS層コマンドであれば直感的な利用が可能となり,I層のコマンドの組み合わせにより利用者が定義した新たな制御コマンドを作成することが可能になる.例えば,以下のように記述できる.\begin{verbatim}[duration](0.8){[〜\](20Hz){はい}}@define:相槌=duration,〜\(0.8,20Hz){}@相槌{はい}\end{verbatim}1行目は,I層コマンド“〜\”により最終母音「い」のピッチを20~Hz降下させており,さらに,``duration''より継続時間長を0.8倍して話速を上げている.この韻律制御をまとめて,「相槌」というS層のコマンド名に置き換えているのが2行目である.そして,3行目からは「相槌」というコマンド名を使うことで韻律制御可能となる.これらの利点により,MSCLはロボットを使った対話システム\cite{Yamato},メール読み上げシステム\cite{Nakayama},など多種多様な音声表現が必要な場面で利用されている.\subsection{MSCLにおける課題}これらの利点に対しMSCLの課題は,新たな韻律制御コマンドの作成が容易ではないことにある.韻律制御という営みは,Sesign\cite{Sesign}が示すように韻律パラメータの操作により合成音声の音程を上げたり,継続時間長を伸縮させたりすることである.例えば“疑問”であれば,最終母音のイントネーションを上昇パターンにさせることは良く知られている.また,文中のある単語について“目立たせる”合成音声を生成するためには,対象となる単語のピッチパターンのダイナミックレンジを広くすることが1つの方法\cite{Iwata}とされる.このようにSesignでは合成音声から目的とする印象を想起できるようになるまで韻律パラメータの操作を繰り返した後に韻律制御方法が決定されるため,利用者が効率的に編集作業を行うには韻律制御による効果を習熟する必要がある.MSCLにおいても韻律制御を行うには,韻律パラメータをどのように制御すれば良いか予め知る必要がある.韻律制御と印象の変化に関する知識を容易に獲得できれば編集の時間を短縮することが可能になる.特に制御コマンド名として効果が表現されていれば便利である.これまで韻律制御と印象の関連性については,感情音声と呼ばれる喜怒哀楽をイメージしながらサンプルテキストを読み上げた音声と平常時に読み上げた音声との韻律パラメータの違いを比較するものが多い\cite{Hirose,Arimoto}.しかし,韻律制御を行った合成音声に対しどのような印象が得られるかを検討した報告はあまりない.そこで,合成音声の韻律制御によって音声の印象がどのように変化するかを調べ,MSCLのS層のコマンドとして利用者に提供する.本研究では,韻律制御方法の提案と韻律制御と印象との関係を明らかにするとともに,効果的に韻律制御を行うための方法について述べる.\subsection{本研究のアプローチ}本研究は,韻律制御と印象との関係について明らかにすることで,音声学的な知識をあまり有さない利用者でもMSCLのコマンド作成が可能になるための1つの方向性を与えるものである.音声合成のための韻律制御という観点で言えば,大きく2つのアプローチが考えられる.\begin{itemize}\item[ア.]コーパスベースのアプローチ:コーパス毎に韻律パターンを保持し,適切なパターンを選択する\cite{Corpus}\item[イ.]韻律生成規則ベースのアプローチ:朗読調の韻律生成規則をベースに,新たな規則を加えることで物理パラメータを制御する\end{itemize}ア.はプリミティブな韻律制御規則を組み合わせて新たな制御コマンドを作るというMSCLのアプローチに適用することが困難である.イ.は物理パラメータの制御規則を制御コマンドとして置き換えることで,値の変更や組み合わせが可能になる.従って,ここではイ.のアプローチで進めていくことにする.まず,従来の音声合成の韻律生成規則によって生成された韻律パラメータに対し,一定の変化を与える制御規則を規定することで新たな韻律制御規則を作成する.次に韻律制御と印象の関係について聴取実験を行う.韻律パラメータを変化させることによって,聴取者が合成音声に対しどのような印象を持つかを連想法により分析する.また,韻律制御と言葉の意味の影響により印象がどのように変化するかを調べる.
\section{韻律制御に基づく印象の抽出}
\subsection{韻律制御規則}音声合成の韻律生成規則をベースにしてさらに韻律制御を行うための制御規則を決める.ベースとなる合成音声の韻律生成規則はFluet\cite{Hakoda,FLUET}で利用されているものである.このモデルでは,話調成分,アクセント情報,音調結合情報などが考慮されており,藤崎モデル\cite{Fujisaki}などのモデルとの共通点がある.これに対し,図2に示す8つの韻律制御規則を提案する.\begin{figure}[t]\begin{center}\includegraphics{17-4ia7f2.eps}\end{center}\caption{8つの韻律制御規則}\end{figure}\begin{itemize}\itemPattern1:最終母音のピッチパターンを上昇\itemPattern2:最終母音のピッチパターンを降下\itemPattern3:音声全体の継続時間長を一律に伸長\itemPattern4:音声全体の継続時間長を一律に縮小\itemPattern5:ピッチパターンの振幅値を収縮\itemPattern6:ピッチパターンの振幅値を拡大\itemPattern7:ピークまでのピッチパターンを下に凸に変形\itemPattern8:ピークまでのピッチパターンを上に凸に変形\end{itemize}ここでは,文節を制御範囲(スコープ)とした制御方法を検討した.対話ロボットの音声や電話での応答を合成音声によって実現する場合,「そうです!」「本当?」などのワンフレーズで返す場面が多いことと,このようなワンフレーズでの音声の韻律パターンは多様に変化することによるためである.そこで,文節を制御単位とした韻律制御を行うこととした.対象とする韻律パラメータはピッチと継続時間長のみである.パワーについては,合成方式が音声素片接続型を用いているため,大声小声のための制御というよりは制御結果が音量の大小として聴取されることから用いていない.ピッチパターンの韻律制御については,ピッチパターンのピーク位置から最終母音の始点までの変形を行うとアクセント位置がずれたように聞こえることがあり,異なった言語情報として聴取される可能性が高い.つまり,「雨」が「飴」として聞こえてしまうようにアクセント型が変化したように聴取されることがある.そこで,この区間を除いて適用できる制御規則を用いた.始端からピーク位置の区間,最終母音の区間,全体の抑揚の強さ,の制御についてはパターンを変化させてもアクセント型が変化しないことから,この区間を対象とした6つの韻律制御規則を選択した.特にPattern1は疑問文,Pattern5は単語の強調に関係するといわれており,Patetern7,8について印象になんらかの変化を与える\cite{Kawakami}との報告がある.継続時間長については音韻毎の伸縮も考えられるが,ここでは話速に関係するPattern3,4を用いている.この8つのパターンはMSCLのI層のコマンドに相当する.これらのコマンドを用いて合成音声を作成し,その音声から感じ取れる印象を抽出する.\subsection{連想法による印象の抽出}韻律制御と印象の関係を調べるには,事前に対象にしたい言葉を選択しておき,その中から適切なものを被験者に選択させる方法がよく使われている.例えば,感性工学においてはSD法(SemanticDifferentialMethod)が多く利用されている.相対する意味の言葉の対(明るい—暗い,暑い—寒い,等)を事前に用意しておき,被験者が印象に近いものを選択するという方法であり,効率的に統計的なデータを導くことができる.しかし,まず事前の知識(タスク,対象分野,条件などの情報)に基づき言葉の対がどの種類の言葉であるかを予測しておく必要があり,さらにはいくつかの言葉の候補から統計的に絞り込むという作業を繰り返さなくてはならない.本研究では事前の知識が用意されないため,SD法で調査を実施するには無数の実験を繰り返さなくてはならない.そこで,最初に連想法を用いて韻律制御と印象の関係を導くことにした.連想法を使えば被験者が自由に想起した印象を述べることができる.その想起された言葉の傾向を分析し,事前の知識とすることで,どのような印象が最も適するかを調べることが可能である.今回の実験では,提案した8つのパターンにより韻律制御した合成音声を刺激音とし,被験者に想起する印象(連想表現)を全て述べさせた.そこから得られた連想表現の頻度を求めクラスター分析によりパターンを最も要約する印象を求めた.\subsection{連想法による実験}Fluetの生成する韻律パラメータをベースに8つのパターンにより韻律制御したものを音声資料とした.被験者はヘッドフォンによって音声資料を聴取した.合成音声はサンプリング周波数12\,kHz,男性音声を用いている.被験者は関東圏内に在住する25歳から35歳までの男性3名,女性2名の計5名である.音声資料が数百msecといった短いものでありこれを聞き取り判断しなくてはならないため,音声ラベリング作業などに従事し合成音声に慣れた者を被験者とした.音声合成を行う際の入力テキストは“本当(1型アクセント)”“大丈夫(0型アクセント)”“分からない(2型アクセント)”の3単語を用いた.最初にFluetにより生成された朗読調の合成音声を基準音として被験者に聴取させた上で,韻律パラメータを変化させた音声資料を聴取し,連想する言葉やシチュエーションなどを述べさせた.実験中,音声資料は何度聞いても良く,回答のための制限時間も設けなかった.実験中の様子は録音され,試験終了後に被験者の回答を全て書き起こした.被験者あたりの実験の平均時間は約61分となった.書き起こした被験者の回答の中には,名詞句,形容詞句,擬態語,固有名詞(○○さん風など),長文などがあった.これらの回答から韻律制御を最もよく表す連想表現を調べるために次の処理を行った.\begin{itemize}\item長文など複数の印象を示す表現が含まれる回答は,印象を的確に表すと考えられる表現ごとに分割を行う\item同義語などは,国語辞典などを参考に1つの単語に統一する\end{itemize}この処理の結果,各被験者が1つの音声資料を聴取した場合に回答された連想表現の数は,異なり語数として平均で約6.5語となった.8つのパターンから想起される印象の傾向については,上記の連想表現の出現頻度を求めることで可能である.しかし,3つの単語に共通に得られる印象を調べるためにクラスター分析\cite{Cluster}を用いた.クラスター分析を行うにあたり,3つの単語“本当”“大丈夫”“分からない”のそれぞれの単語に出現した連想表現の出現頻度を用い,分析の項目として実験で現れた連想表現を用いた.クラスター間の距離計算はウォード法を用いた.\begin{figure}[b]\setlength{\captionwidth}{0.45\textwidth}\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{17-4ia7f3.eps}\end{center}\hangcaption{Pattern1の連想表現のクラスター分析結果}\label{fig:one}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{17-4ia7f4.eps}\end{center}\hangcaption{Pattern2の連想表現のクラスター分析結果}\label{fig:two}\end{minipage}\end{figure}Pattern1の実験結果を図3に示す.樹状図の下の葉の部分が連想表現とその出現頻度である.実験では5名が3つの単語に対しそれぞれ印象を述べるため,連想表現の出現頻度の最大値は15となる.また,分析対象とする最小頻度は3とした.例えば,連想表現「問いかけ」については14回の回答があったことになり最大値に近い結果が得られた.「意外」については,被験者が連想した回数が少なく3回となっている.葉から延びた線の高さがクラスター分析による連想表現間の距離を示しており,仮に出現頻度が同じでも出現する単語に偏りがあれば,連想表現間の距離は遠くなるため,高さが異なったり枝分かれすることがある.さらに,高い位置で分岐している連想表現がそのクラスターを要約するものであるといえる.図3では,「問いかけ」が連想表現としての出現頻度が高く,3つの単語に共通に現れた連想表現であった.樹状図においても最も高い位置で分岐しており,これらのことからPattern1の与える印象の1つであるといえる.図の右側「驚き」「意外」「疑問」「確認」については,“本当”の連想表現として多く出現した.“本当”という真実を表す言葉と共に情報がうまく処理できていないことを表していると考えられる.「気遣う」は“大丈夫”の連想表現として多く出現した.“大丈夫”という状態がしっかりしている様を表す言葉と共に状態が安定していないということを表していると考えられる.「軽い」も“大丈夫”の連想表現として現れたが,落ち着いた状態でないことを表していることに関係していると考えられる.そして頻度の高かった「問いかけ」により,Pattern1の韻律制御によって,情報の信頼性やシチュエーションに対して不安定な状況にあることを伝える効果を持つことが分かる.Pattern2の結果を図4に示す.「了解」が連想表現としての出現頻度も高く,Pattern2の与える印象の1つであるといえる.中央「相槌」「冷静」は“本当”の連想表現として多く出現しており,落ち着いた状態を示していることが分かる.「答える」は“大丈夫”の連想表現として多く出現し,右側の「納得」は“分からない”の連想表現として多く出現したが,何れも落ち着いている状態を示しているといえる.そして頻度の高かった「了解」により,Pattern2の韻律制御によって,真意をみとめた落ち着いた状態を示す効果を持つことが分かる.\begin{figure}[b]\setlength{\captionwidth}{0.45\textwidth}\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{17-4ia7f5.eps}\end{center}\hangcaption{Pattern3の連想表現のクラスター分析結果}\label{fig:three}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{17-4ia7f6.eps}\end{center}\hangcaption{Pattern4の連想表現のクラスター分析結果}\label{fig:four}\end{minipage}\end{figure}Pattern3の結果を図5に示す.「ゆっくり」が連想表現としての出現頻度も高く,Pattern3の与える印象の1つであるといえる.右側の「考えている」「内容を整理する」は出現頻度が少ないが3つの単語に対して共通に得られた印象であった.中央の「思い返す」「確かめる」は“本当”の連想表現として多く出現した.左側「念を押す」は“大丈夫”“本当”の連想表現として多く出現した.そして頻度の高かった「ゆっくり」により,Pattern3の韻律制御によって,情報処理や動作について時間を要すること・要していることを示す効果を持つことが分かる.Pattern4の結果を図6に示す.「せかす」そして「早口」が連想表現としての出現頻度が高く,Pattern4の与える印象の1つであるといえる.右側の「軽い」「テンポ良く」「遮る」は“本当”の連想表現として多く出現した.左側「大丈夫」は“大丈夫”の意味そのままに連想表現として出現した.そして頻度の高かった「せかす」により,Pattern4の韻律制御によって,情報処理や動作について短い時間で対応することを示す効果を持つことが分かる.\begin{figure}[b]\setlength{\captionwidth}{0.45\textwidth}\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{17-4ia7f7.eps}\end{center}\hangcaption{Pattern5の連想表現のクラスター分析結果}\label{fig:five}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{17-4ia7f8.eps}\end{center}\hangcaption{Pattern6の連想表現のクラスター分析結果}\label{fig:six}\end{minipage}\end{figure}Pattern5の結果を図7に示す.「消極的」「沈んでいる」が連想表現としての出現頻度も高く,Pattern5の与える印象の1つであるといえる.右側「冷静」は出現頻度が少ないが3つの単語に対して共通に得られた印象であった.中央「我慢」は“大丈夫”の連想表現として多く出現した.左側「考え込む」「困る」は“分からない”の連想表現として多く出現した.そして頻度の高かった「消極的」「沈んでいる」により,Pattern5の韻律制御によって,興奮を抑えた状態(沈静)を示す効果を持つことが分かる.Pattern6の結果を図8に示す.「テンションの高い」が連想表現としての出現頻度も高く,Pattern6の与える印象の1つであるといえる.中央の「驚き」は“本当”の連想表現として多く出現した.左側「怒り」「いらいら」は“大丈夫”“分からない”の連想表現として多く出現した.右側「うれしそう」は“本当”の連想表現として多く出現した.そして頻度の高かった「テンションの高い」により,Pattern6の韻律制御によって,気持ちの高ぶっている様子を示す効果を持つことが分かる.Pattern7の結果を図9に示す.「様子を伺う」が連想表現としての出現頻度も高く,Pattern7の与える印象の1つであるといえる.右側「低く構える」「心のこもらない」は“本当”の連想表現として多く出現した.中央の「冷静」は“本当”“大丈夫”の連想表現として多く出現した.左側の「威圧的」「困惑」は“分からない”の連想表現として多く出現した.そして頻度の高かった「様子を伺う」により,Pattern7の韻律制御によって相手に慎重な態度を示す効果を持つことが分かる.Pattern8の結果を図10に示す.「あきれる」と「緊張感の無い」が連想表現として出現頻度が高く,Pattern8の与える印象の1つであるといえる.左側の「なだめる」は“大丈夫”に多く出現した.右側の「弱々しい」は“分からない”に多く出現した.そして頻度の高かった「あきれる」と「緊張感の無い」により,Pattern8の韻律制御によって相手に対し緊張感が無いことを示す効果を持つことが分かる.\begin{figure}[t]\setlength{\captionwidth}{0.45\textwidth}\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{17-4ia7f9.eps}\end{center}\hangcaption{Pattern7の連想表現のクラスター分析結果}\label{fig:seven}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{17-4ia7f10.eps}\end{center}\hangcaption{Pattern8の連想表現のクラスター分析結果}\label{fig:eight}\end{minipage}\end{figure}\begin{table}[t]\caption{制御パターン毎の主要な連想表現とその頻度}\input{07table01.txt}\end{table}以上より,単語の意味の影響を受けながらも韻律制御によって与える印象について傾向があることがわかった.表1には,最も頻度の高かった印象(連想表現)をまとめている.各印象をMSCLのS層のコマンド名として付与することで韻律制御の結果のイメージがつき易くなり作業が格段に早くなるものと考えられる.但し,Pattern6の「うれしそう」と「怒り」(図8)のように同一の韻律制御規則の中でも対照的な印象が現れる場合もある.「うれしそう」と「怒り」は共に興奮している状態に起因していると考えられるが,様々な情報をそぎ落として1つの印象でコマンド名を表現する場合には十分な注意が必要であることが分かる.さらには,Pattern6とPattern1においては異なる制御方法であるにも関わらず「驚き」という連想表現が表れている.3章でも述べるが韻律制御と印象の関係が多対多の関係になる場合がある.しかし,記述言語というフレームワークにおいて1つのコマンド名に対し複数の効果のうちどれかを選択する方法を提供することは記述をより複雑にする可能性があり,S層のコマンドの持つ容易さを失うことになる.多対多の関係ではなく,一対多の関係であることが望ましい.このため,MSCLでは「驚き」に対して,「驚愕」や「びっくり」等の同義語や「驚き1」「驚き2」などの番号を付与し,その中で利用者が適した「驚き」を選択する,という方法で一対多の関係を維持することとした.コマンド名は,韻律制御のための1つのヒントを与えるものであるといえる.しかし,本実験により平易な言葉でコマンド名を付与していくということについては限界があることが分かった.より専門的な表現を使ったり,ユニークな番号を付与したりすることで対応可能であるが,初学者に対してはコマンドが持つ効果を解説する必要がある.今回の実験のように概念を構造化する手法などを用いて,利用者に分かりやすく説明する仕組みが必要であると考える.さらには,韻律制御において音声合成をしたいテキストに含まれる意味なども考慮しなくてはならないことがわかる.
\section{韻律制御に基づく印象の変化の実験}
次に表1の連想表現を印象語として用いて多数の被験者を対象に聴取評価実験を行う.被験者は前回と同様に8パターンによる韻律制御を行った合成音声を聴取し,8種類の印象語すべてに対して{“1.あてはまらない”,“2.どちらでもない”,“3.あてはまる”}の3件法で回答を行う.被験者は関東圏内に在住する25歳から35歳までの男性6名,女性9名の計15名である.最初に基準音として朗読調の合成音声を聞き,次に韻律制御を行った合成音声を一定間隔で6回提示する.その間に8つの項目全てを対象に印象として適切であるか回答を行う.前回と同様に音声合成には“本当”“大丈夫”“分からない”の3つの単語を用いている.表2は評価結果の平均値を混同対照表(ConfusionMatrix)によって表したものである.左側に表1の8パターンの韻律制御によって期待される連想表現を列記しており,それぞれがコマンド名に相当すると考えられる.上段には評価に用いた全ての印象語を記している.高い値を示している連想表現がより適切な合成音声に対する印象を表していることになる.例えばPattern1によって生成された「問いかけ」の合成音声については,印象語「問いかけ」の評価が2.9となっており最も高い値となっている.その他の印象語については2を下回る値となっている.このことから,Pattern1によって生成された音声は「問いかけ」以外の7つの印象とは混同しにくいことが分かる.表の左上から右下にかけての値が全て高い値を示していることから,表1で得られた結果が概ね良好であることが分かる.但し,Pattern7によって生成された「様子を伺う」の合成音声については,「問いかけ」の印象が最も強く,その次に「様子を伺う」についての評価が高いという結果となった.Pattern7によって相手に慎重な態度を表すことを示したが,単一の言葉で表したときは「様子を伺う」に加えてさらに「問いかけ」という表現が受け入れやすいことが分かった.\begin{table}[t]\caption{聴取実験結果の混同対照表}\input{07table02.txt}\end{table}次に表2の結果を箱ヒゲ図で用いて表したのが図11である.図の下に書かれた印象語に対し,評価値の分布がどのようになるかを示したものである.箱の中の太実線が平均値であり,コマンドに対する全印象語の評価平均を示す.例えば,「問いかけ」については,約1.6が平均値となっている.また,箱の両端が標準偏差を示している.図中の黒丸はコマンドが表す印象語の評価値であり,表2より2.9であることが分かる.各評価値の分布に対し,黒丸の位置は箱の上端より外に位置していることが分かる.この結果から,MSCLで表1の8つのコマンドを設定した場合,他の7つのコマンドに対して生成される合成音声の印象の違いを利用者が受け入れやすいものと考えられる.但し,表2の結果にもあるようにPattern7が「問いかけ」と「様子を伺う」の両方の印象として感じられる可能性が高いと考えられる.また,黒丸の平均値が2付近にあることから,コマンド名としてさらに適切なものも存在する可能性があると考えられる.\begin{figure}[t]\begin{center}\includegraphics{17-4ia7f11.eps}\end{center}\caption{箱ヒゲ図による回答の分布(3単語)}\end{figure}
\section{言葉の意味による影響}
2章で述べたように,音声合成を行う単語などの持つ意味によって印象が変わる可能性がある.そこで,単語の意味による印象の変化について調べた.ここでは,“問いかけ”に着目し,問いかけ時に使われる単語“もしもし”“どうする”を用いて3章と同様の実験を行った.被験者は3章と同じ15名であり,2つの単語について8パターンの韻律制御を行った合成音声を生成し聴取させた.但し,問いかけ時に使う言葉ではあるが,デフォルトの韻律生成規則に対し最終母音が上昇パターンになる指定は行っていない.図12が実験結果である.黒丸の位置は全て分布の上端に来ていることから,8つの連想表現の中でそれぞれ韻律規則と関連の深いものが「あてはまる」と回答されやすいことを示している.\begin{figure}[t]\begin{center}\includegraphics{17-4ia7f12.eps}\end{center}\caption{単語の意味による評価結果の変化}\end{figure}図11とは異なり,“問いかけ”の平均値が2を超えている.“了解”全体の分布は1.5を下回っている.また,“様子を伺う”の平均値が2を超えている.つまり,“問いかけ”“様子を伺う”は全ての制御規則において当該の印象を感じやすくなっており,逆に“了解”の印象を感じにくくしていることが分かる.この結果から,韻律制御がもたらす印象の傾向はあるものの,言葉の意味が印象に影響を与えることも分かった.MSCLにおける韻律制御においては,韻律制御規則とその主な印象,そして音声合成する言葉の意味の3つを考慮して行うことが必要であることがわかった.
\section{制御規則の組み合わせによる印象の強調}
これまでの結果から,“様子を伺う”は連想法では強い傾向が得られたものの,聴取実験ではコンテクストなどを排除した単体の言葉による被験者の解釈によって,傾向として弱められた結果となった.つまり,2章の連想法での被験者の回答は,緊張した面持ちで相手を注視するようなイメージに基づいた“様子を伺う”であった.しかし,連想表現としてまとめあげた段階で“様子を伺う”に関する語幹に多様性が生まれ,例えば“問いかけ”よりもスコアが低くなってしまったものと考えられる.そこで,連想法で得られた結果のように,“様子を伺う”について評価値を上げる方法を検討した.これまでの先行研究(白井,岩田1987;有本,大野,飯田2007)では,1つの印象を表現するためにいくつかの韻律制御を組み合わせることを行っている.継続時間長,抑揚,文末最終母音のピッチパターンなどのそれぞれの特徴的な傾向を複合的に用いることで,1つの印象を表現している.言い換えれば,韻律制御を因子とした線形結合で表されていると考えることができる.そこで我々は,“様子を伺う”について印象を補い合う(因子負荷が正となる)韻律制御を組み合わせて,評価値を上げることができるか実験を行った.図13は,3章で得られた評価値と各項目の関係についてクラスター分析を行った結果である.図に示すように8つの韻律制御をパラメータとして用いた場合“様子を伺う”は“問いかけ”と近いクラスに属することが分かった.そこで,“問いかけ”で最も高い評価値を持つPattern1を用いて,Pattern7とPattern1を組み合わせた時の“様子を伺う”の評価値を調べる.\begin{figure}[t]\setlength{\captionwidth}{0.45\textwidth}\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{17-4ia7f13.eps}\end{center}\caption{クラスター分析による類似度の分析}\label{fig:ten}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\makeatletter\def\@captype{}\makeatother\hangcaption{制御規則の組み合わせによる“様子を伺う”の評価結果}\input{07table03.txt}\end{minipage}\end{figure}評価は,より詳細に印象の強さを調べるために「非常に含んでいる($+3$)」から「非常に含んでいない($-3$)までの7件法\cite{Psychology}を用いた.被験者は関東圏内に在住する25歳から35歳までの女性6名である.音声は“本当”の合成音声を用いている.“本当”の音声を選択した理由は3章の実験を行った際に,例えばPattern7の評価値が“様子を伺う”で2.5,“問いかけ”で2.3と連想表現と韻律制御が2章で行った連想法の実験に比較的似ていることが分かったためである.表2に結果を示す.Pattern7のみの場合では評価の平均値が1.67(「やや含んでいる」と「かなり含んでいる」の中間)であった.これに対し2つの規則を組み合わせることで被験者の平均が3.0(「非常に含んでいる」)になった.この結果,Pattern7+Pattern1という組み合わせにより,S層の新たなコマンドである,“(より強い印象を与える)様子を伺う”が定義できることが分かった.本実験は組み合わせることの効果の一例ではあるが,このようにいくつかの組み合わせの手法を導き,それらを記述によって表現できる仕組みを検討していく予定である.
\section{まとめ}
本研究はMSCLを様々な利用者が利用するための韻律制御の1つの考え方やコマンドの作成方法について述べた.文節という制御単位ではあるが韻律制御規則の規定を行い,韻律制御規則と印象の関係を導くことで利用者がより直感的に編集可能になった.また,留意点としては,制御規則と印象が1対1の関係ではなく1対多の関係にあり,1つの制御規則に対して得られる印象をいくつか知っておく必要がある.MSCLで編集作業を行う際は,制御規則,印象,言葉の意味をセットで考慮することで,より高い効果での韻律制御が可能であることが分かった.さらには,MSCLの特徴である制御規則を組み合わせることで印象を強めることが可能であることが分かった.MSCLを利用する上で重要な要素のいくつかを確認できたが,より便利に使うためには,文節単位以上に,文単位あるいは文章単位での制御を可能にする制御規則が必要になってくると考えられる.また,8つの時系列変化パターンだけでなく,韻律制御規則を増やし,様々な印象が表現できるコマンドを用意していく必要がある.さらには,利用者がMSCLで編集作業を行うためのノウハウを体系的にまとめていきたいと考えている.その1つとして,韻律制御による効果をクラスター分析などにより構造化し,効果的に説明することを課題としている.今回は,物理パラメータの制御と印象の関係について分析を行ったが,被験者の所在地や年齢の範囲が限定的であるため,地域差や年齢差等による影響についても検討が必要であると考える.また,このレベルの検討を行いながら新たな制御規則を創出することは一般の利用者が行うことは難しいと考える.その労力を軽減するために,今回の韻律制御規則をテンプレートとして,実音声の韻律パターンを抽象化し,新しい制御規則の手がかりにする方法などがあり,これらが今後の課題であるといえる.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{阿部\Jetal}{阿部\Jetal}{2001}]{Sesign}阿部匡伸\Jetal\BBOP2001\BBCP.\newblock音声デザインツールSesign.\\newblock\Jem{信学会論文誌D--II},{\BbfJ84--D--II}(6),\mbox{\BPGS\927--935}.\bibitem[\protect\BCAY{Allen,Hunnicutt,\BBA\Klatt}{Allenet~al.}{1987}]{MITalk}Allen,J.,Hunnicutt,M.,\BBA\Klatt,D.\BBOP1987\BBCP.\newblock{\BemFromtexttospeech:TheMITalksystem}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{有本\JBA大野\JBA飯田}{有本\Jetal}{2007}]{Arimoto}有本\JBA大野\JBA飯田\BBOP2007\BBCP.\newblock「怒り」の発話を対象とした話者の感情の程度推定法.\\newblock\Jem{自然言語処理},{\Bbf14}(3),\mbox{\BPGS\149--163}.\bibitem[\protect\BCAY{箱田\JBA佐藤}{箱田\JBA佐藤}{1980}]{Hakoda}箱田\JBA佐藤\BBOP1980\BBCP.\newblock文音声合成における音調規則.\\newblock\Jem{信学会論文誌D--II},{\BbfJ63--D}(9),\mbox{\BPGS\715--722}.\bibitem[\protect\BCAY{箱田\JBA塚田\JBA吉田\JBA広川\JBA水野}{箱田\Jetal}{1996}]{FLUET}箱田\JBA塚田\JBA吉田\JBA広川\JBA水野\BBOP1996\BBCP.\newblock波形合成法を用いたテキスト音声合成ソフトウェア(FLUET).\\newblock\Jem{信学会ISソサイエティ大会}.\bibitem[\protect\BCAY{Hartigan}{Hartigan}{1983}]{Cluster}Hartigan,J.~A.\BBOP1983\BBCP.\newblock\Jem{クラスター分析}.\newblockマイクロソフトウェア株式会社.\bibitem[\protect\BCAY{広瀬\JBA高橋\JBA藤崎\JBA大野}{広瀬\Jetal}{1994}]{Hirose}広瀬\JBA高橋\JBA藤崎\JBA大野\BBOP1994\BBCP.\newblock音声の基本周波数パターンにおける話者の意図・感情の表現.\\newblock\JTR,信学技法HC94-41,pp.~33--40.\bibitem[\protect\BCAY{川上}{川上}{1956}]{Kawakami}川上秦\BBOP1956\BBCP.\newblock文頭のイントネーション.\\newblock\JTR,国語学,24,pp.~21-30.\bibitem[\protect\BCAY{Klatt}{Klatt}{1987}]{TTS}Klatt,D.\BBOP1987\BBCP.\newblock\BBOQReaviewoftext-to-speechconversionforEnglish.\BBCQ\\newblock{\BemJ.Acoust.Soc.Am},{\Bbf82}(3),\mbox{\BPGS\737--793}.\bibitem[\protect\BCAY{水野}{水野}{2005}]{Corpus}水野秀之\BBOP2005\BBCP.\newblockコーパスベース音声合成における音声合成単位とコーパスの設計方法.\\newblock\Jem{信学技報},{\BbfSP2005}(10),\mbox{\BPGS\25--30}.\bibitem[\protect\BCAY{Mizuno\BBA\Nakajima}{Mizuno\BBA\Nakajima}{1998}]{MSCL}Mizuno,O.\BBACOMMA\\BBA\Nakajima,S.\BBOP1998\BBCP.\newblock\BBOQSyntheticSpeech/SoundControlLanguage:MSCL.\BBCQ\\newblockIn{\BemThirdESCA/COCOSDAWorkshoponSpeechSynthesis},\mbox{\BPGS\21--26}.\bibitem[\protect\BCAY{中山\JBA町野\JBA北岸\JBA岩城\JBA奥平}{中山\Jetal}{2005}]{Nakayama}中山\JBA町野\JBA北岸\JBA岩城\JBA奥平\BBOP2005\BBCP.\newblock音を用いたモーションメディアコンテンツ流通方式の提案とそのネットワークコミュニケーションサービスへの応用.\\newblock\Jem{日本ロボット学会誌},{\Bbf23}(5),\mbox{\BPGS\602--611}.\bibitem[\protect\BCAY{成澤\JBA峯松\JBA広瀬\JBA藤崎}{成澤\Jetal}{2007}]{Fujisaki}成澤\JBA峯松\JBA広瀬\JBA藤崎\BBOP2007\BBCP.\newblock音声の基本周波数パターン生成過程モデルのパラメータ自動抽出法の評価.\\newblock\JTR,信学技法,SP2002-27.\bibitem[\protect\BCAY{西本\JBA志田\JBA小林\JBA白井}{西本\Jetal}{1996}]{Stgif}西本\JBA志田\JBA小林\JBA白井\BBOP1996\BBCP.\newblockマルチモーダル入力環境下における音声の協調的利用—音声作図システムS-tgifの設計と評価.\\newblock\Jem{信学会論文誌D--II},{\BbfJ79--D--II}(12),\mbox{\BPGS\2176--2183}.\bibitem[\protect\BCAY{大山\Jetal}{大山\Jetal}{1973}]{Psychology}大山\Jetal\BBOP1973\BBCP.\newblock\Jem{心理学研究法4実験III}.\newblock東京大学出版.\bibitem[\protect\BCAY{Raman\BBA\Gries}{Raman\BBA\Gries}{1997}]{Raman}Raman,T.~V.\BBACOMMA\\BBA\Gries,D.\BBOP1997\BBCP.\newblock\BBOQAudioformatting?Makingspokentextandmathcomprehensible.\BBCQ\\newblock{\BemInternationalJournalofSpeechTechnology},{\Bbf2}(1),\mbox{\BPGS\21--31}.\bibitem[\protect\BCAY{Ramming}{Ramming}{1998}]{Ramming}Ramming,J.~C.\BBOP1998\BBCP.\newblock\BBOQPML:ALanguageInterfacetoNetworkedVoiceResponseUnits.\BBCQ\\newblockIn{\BemWorkshoponInternetProgrammingLanguages,ICCL'98}.\bibitem[\protect\BCAY{Sasajima,Yano,\BBA\Kono}{Sasajimaet~al.}{1999}]{Dialogue}Sasajima,M.,Yano,T.,\BBA\Kono,Y.\BBOP1999\BBCP.\newblock\BBOQEUROPA:AGenericFrameworkforDevelopingSpokenDialogueSystems.\BBCQ\\newblockIn{\BemEUROSPEECH99},\mbox{\BPGS\1163--1166}.\bibitem[\protect\BCAY{白井\JBA岩田}{白井\JBA岩田}{1987}]{Iwata}白井克彦\JBA岩田和彦\BBOP1987\BBCP.\newblock音声合成のための単語の強調表現の規則化.\\newblock\Jem{信学論文誌},{\BbfJ70--A}(5),\mbox{\BPGS\816--821}.\bibitem[\protect\BCAY{総務省報告資料}{総務省報告資料}{2007}]{SOUMU}総務省報告資料\BBOP2007\BBCP.\newblock電気通信アクセシビリティガイドラインの国際標準化.\\newblock\JTR,総務省.\bibitem[\protect\BCAY{SSML}{SSML}{}]{SSML}SSML.\newblock\BBOQSSML.\BBCQ\\newblock\Turl{http://www.w3.org/TR/2007/WD-speech-synthesis11-20070110/}.\bibitem[\protect\BCAY{翠\JBA河原\Jetal}{翠\Jetal}{2007}]{Guidance}翠\JBA河原\Jetal\BBOP2007\BBCP.\newblock質問応答・情報推薦機能を備えた音声による情報案内システム.\\newblock\Jem{情報処理学会},{\Bbf48}(12),\mbox{\BPGS\3602--3611}.\bibitem[\protect\BCAY{VoiceXML}{VoiceXML}{}]{VoiceXML}VoiceXML.\newblock\BBOQVoiceXML.\BBCQ\\newblock\Turl{http://www.voicexml.org/}.\bibitem[\protect\BCAY{Yamato,Shinozawa,Naya,\BBA\Kogure}{Yamatoet~al.}{2001}]{Yamato}Yamato,J.,Shinozawa,K.,Naya,F.,\BBA\Kogure,K.\BBOP2001\BBCP.\newblock\BBOQEffectsofConversationalAgentandRobotonUserDecision.\BBCQ\\newblock\BTR,IJCAI-01Workshop.\end{thebibliography}\begin{biography}\bioauthor{水野理}{1994年早大理工電気工学科大学院修了.同年日本電信電話株式会社入社.NTTサイバースペース研究所勤務.言語処理学会,日本音響学会各会員.}\bioauthor{阿部匡伸}{1982年早大・理工・電気卒.1984年同大大学院修了.博士(工学).同年日本電信電話公社入社.1987年から1991年までATR自動翻訳電話研究所出向.1989年MIT滞在研究員.1991年日本音響学会第8回粟屋潔学術奨励賞,1996年日本音響学会第36回佐藤論文賞各章受賞.現在,NTTサイバーソリューション研究所勤務主幹研究員.著書「RecentprogressinJapaneseSpeechSynthesis」.日本音響学会,電子情報通信学会,IEEE各会員.}\end{biography}\biodate\end{document}
| |
V25N01-02 | \section{はじめに}
言語に関する能力を,客観的かつ自動的に把握する需要が高まっている.言語能力把握の需要がある場面の一つに,認知症スクリーニングがある.日本は世界に先駆けて超高齢社会に突入した.2013年の高齢化率は25.1\%にのぼり\footnote{内閣府平成26年5月「選択する未来」委員会.\\http://www5.cao.go.jp/keizai-shimon/kaigi/special/future/chuukanseiri/04.pdf},世界でも例を見ないスピードで高齢化が進行している.高齢化の進行に伴い,認知症高齢者の増加も見込まれる.2012年8月の厚生労働省発表によると,2010年における日常生活自立度II\footnote{「日常生活に支障を来すような症状・行動や意志疎通の困難さが多少みられても,誰かが注意していれば自立できる状態」を指す.}以上の認知高齢者数\footnote{65歳以上を指す.}は280万人にのぼり,将来推計として2025年には323万人,65歳以上の人口比率にして9.3\%にまで上昇するだろうと予測されている\footnote{認知症高齢者数について,http://www.mhlw.go.jp/stf/houdou/2r9852000002iau1.html}.また,日本における人口10万人当たりの若年性認知症者数(18〜64歳)は,47.6人にものぼるとされている\footnote{若年性認知症の実態等に関する調査結果の概要および厚生労働省の若年性認知症対策について.\\http://www.mhlw.go.jp/houdou/2009/03/h0319-2.html}.今や,認知症は我々にとって非常に身近なものとなっている.厚生労働省の調査によると\footnote{厚生労働省の認知症施策等の概要について.\\http://www.mhlw.go.jp/file/05-Shingikai-12301000-Roukenkyoku-Soumuka/0000031337.pdf},最初に認知症に気づくきっかけとなる症状の一つとして,言語障害がある.言語能力は長期にわたる学習や経験によって発達するものであり,一定レベルまで発達した後は,加齢によっても衰えにくいとされる\cite{Hampshire}.一方で,構文をあやつる能力は,70代後半を境に低下しはじめるという報告もある\cite{Kemper}.Kemperによると,英文における認知症の進行度は語彙能力,構文能力ともに相関関係にあり,症状が進行するにつれ,構文能力の顕著な低下がみられるという.つまり,認知症は言語能力,とりわけ語彙能力に,加齢の影響ではない何らかの特徴が表出する可能性をもつものである.もし言語能力を測り,その兆候を捉えることができれば,早期発見や療養に役立つのではないかと考えた.また,留学生の日本語能力評価においても,言語能力の自動測定への期待が高まっている.現在,多くの留学生が日本語教育機関において日本語を学んでいる.学習者の習熟度に対し,適切な評価を与えることが各教育機関に求められているが,言語能力の評価は,一概に容易とは言えない.具体的には,作文課題やスピーチテストなどの,「書く能力」「話す能力」の評価は,評価者の主観によって行われることが一般的であるが\cite{Kimura,Torii,Kanakubo},このような評価は評価者の能力や判断に大きく依存してしまうという問題を孕む.機械による客観的かつ自動的な評価が実現できれば,評価者による判断の揺れという問題を排除した尺度として活用できる可能性がある.近年,大規模なコホート研究によって,数十年の言語能力の経過を観察する試みが行われている.その結果,老化や認知症などと加齢によるさまざまな能力との関係は徐々に明らかになりつつある\cite{Kubo,Snowdon}.しかし,これらの取り組みには,人手でのテキストデータの作成・収集,テキストの分類,各評価スコアの算出などが必要であり,時間・金銭的コストが高い.また,テキストの分類には訓練をつんだ専門家が必要であるなど,言語能力測定のハードルが高い.そこで本研究では,言語能力測定システム「言秤(コトバカリ)」を提案する.言語能力測定における大きな課題の一つとして,分析対象となるテキストデータの作成がある.従来は,音声データの書き起こしなど,人手でのテキスト化が必要であり,多大な時間を要していた.提案システムでは,音声認識システムにより,言語能力の被測定者の発話データを自動的にテキスト変換することで,コストの大幅な軽減を行う.ただし,音声認識システムの認識精度には限界があり,常に正しい認識結果が得られるとは限らない.我々はこれまでに,テキストデータに基づいて定量的に言語能力を測定する指標(以降,言語能力指標と表記する)を提案してきた\cite{Aramaki2}.また,提案指標を用いたテキスト分析の結果,一部の指標(TTR(Type・Token割合)およびJEL(日本語学習語彙レベル))によって認知症者の特徴的な傾向などを観察できる可能性を示した\cite{Shikata,Aramaki2}.このうち,TTRは,Type(異なり語数)とToken(延べ語数)の比率(Type/Token)であるため,TTRスコアは語の内容ではなく,出現回数のみに基づいて算出される指標であり,発話されたのがどのような語であるかという点については関与しない.そのため,TTRを用いた場合,たとえ語の内容の認識結果が誤っていたとしても,算出されるスコアに問題は生じにくいと考えられる.よって,提案システムでは,先行研究における提案指標を採用し,特にTTRスコアに着目することで,音声認識による認識誤りの影響を受けにくく,さらに人手作業を排除した定量的なスコア算出を実現する.本提案のポイントを以下に整理する.\begin{description}\item[分析テキスト作成コストの軽減]音声認識システムを組み込むことにより,音声を録音/入力するだけで,言語能力の測定を可能にする.\item[スコアリングコストの軽減]定量的に算出可能な言語能力指標を採用することにより,認識誤りを許容し,さらにスコア算出のための人間の介在を省略可能にする.\end{description}本論文では,採用する言語能力測定指標と提案システムについて概説した後,低コストな言語能力測定の要となる音声認識システムの利用可能性について,検証実験の結果から議論する.
\section{関連研究}
本研究で実現を目指す言語能力の自動測定は,認知症のスクリーニングや留学生の言語能力評価などの様々な場面において応用が期待されるものである.本章では,言語能力と老化/疾患に関する先行研究および音声認識の活用事例について述べる.\subsection{言語能力と老化/疾患}一般に,老化と言語能力とは相関しないといわれている.例えば,一部の言語能力は,高齢者においても伸び続けるため,老人が理解している語彙数は,若者の約1.3倍だという報告もある\cite{Kureda}.その一方で,人間が構文をあやつる能力は,70代後半を境に低下しはじめるという報告もある\cite{Kemper}.失語症などの言語との関連が深い疾患を除けば,罹患中の言語能力の変化についての調査は少ない.しかし,85歳以上の40\%が罹患している認知症\cite{Kosei}については近年研究が進んでいる.Snowdonは,認知症者は認知症の症状が認められ始める50年前から語彙能力が低いと報告した\cite{Snowdon}.また,Kemperによると,英文における認知症の進行度は語彙能力,構文能力ともに相関関係にあり,症状が進行するにつれ,構文能力の顕著な低下がみられるという\cite{Kemper}.ただし,ある人間が認知症か否かを判定するための項目に,言語能力に関するものがあることを考慮すれば,認知症患者が言語能力の低下を示すことは,ある種のトートロジーであり,言語能力と認知症,さらに老化の関係は,複雑な様相を呈しているといえる.文章から認知症などの疾患を推定することが可能となれば,測定の侵襲度が低く,かつ,超早期からの検出が可能となる.\subsection{音声認識の活用事例}近年,音声認識技術が進展し,様々な場面で音声認識が利用されている.例えば,スマートフォンの普及に伴い,ブラウザ上での音声検索なども利用できるようになった.また,旅行対話を対象とした音声翻訳\cite{Ikeda,Sasajima,Hanazawa}や,コールセンターの自動案内のための電話音声認識\cite{Kato},英語字幕の生成\cite{Shimogori},議事録の作成\cite{Bessho}など,音声認識を利用した多様なシステムがこれまでに提案されている.旅行対話など,分野を限定した場合,音声認識によって高精度な認識を実現することは可能であるが,分野を制限せずに精度のよい認識結果を得ることは未だ容易ではない.従来の音声認識を利用したシステムは,限定的な分野を対象にするなどして精度改善の工夫を行い,正しい認識結果を取得し,その結果を利用することが前提となっている.本研究では,言語能力の測定において,音声認識を利用する.精度の良い認識結果が得られれば,より正確な言語能力測定が可能であるが,認識誤りが生じていても,その影響を受けにくいと考えられる言語能力指標を採用することで,頑健な言語能力測定の実現を目指している.
\section{言語能力指標}
\label{sec:wordIndex}我々はこれまでに,言語能力指標の提案および提案指標を用いたテキスト分析を行い,提案指標によって認知症者の特徴的な傾向などを観察できる可能性を示してきた\cite{Shikata,Aramaki2}.本論文では,この先行研究で提案した言語能力指標を採用し,提案システムを実現する.そこで本章では,まず,提案システムで採用する言語能力指標について概説する.一般に,言語能力は「話す(speaking)・聞く(listening)・読む(reading)・書く(writing)」の4つに大別される.本研究は,人間からの出力に関わる,〈話す〉能力および〈書く〉能力に注目する.〈話す〉能力および〈書く〉能力は,大別すると語彙に関する能力(以降,語彙能力とよぶ)と文法に関する能力(以降,文法能力とよぶ)の2つになる\cite{Kintsch,Turner}.本研究で採用する言語能力指標は,主に語彙能力に関わるものであり,以下の2つの観点で分類できる.\begin{description}\item[単位:]語単位で算出され,それを全文で平均するタイプのもの(単語指標),文単位で算出され,それを全文で平均するタイプのもの(単文指標),および使用語彙数など,全文から導出されるタイプのもの(文章指標)\item[方法:]辞書などで定義された基準に基づいてレベル付けされたもの(辞書定義尺度),および大規模コーパスから統計的に算出されるもの(統計量)\end{description}これらの観点から指標を分類した結果を表\ref{table:wordIndex}に示す.以下,各指標の定義を述べる.\begin{table}[b]\vspace{-0.5\Cvs}\caption{本研究で用いる言語能力指標}\label{table:wordIndex}\input{02table01.txt}\end{table}\begin{enumerate}\itemType・Token割合(TypeTokenRatio;TTR):\\Type(異なり語数)とToken(延べ語数)の比率(Type/Token)を示す.この値が大きいほど,語彙量が多いことを意味する.文章全体で集計した値をTTRスコアとする.\item頻度・使用者数比(FrequencyperUserPopularity;FPU):\\語の特殊性を示す指標である.語の特殊性は,語の出現頻度を語のユーザ数で割った値と定義する.この値が低いほど,その語は一般的であり,高いほど,その語のユーザ数が少ない語(特殊な語)であることを示す.例えば,スラングや専門用語などは高い値を持つ.ソーシャルメディア上の10万人の発言を8ヶ月間調査して得たデータをもとに,語のユーザ数および出現頻度を算出し,各語の頻度・使用者数比コーパスを構築した\cite{Aramaki1}.このコーパスを参照して語ごとに頻度・使用者数比を算出し,全単語の値を平均した値をFPUスコアとする.\item日本語学習語彙レベル(JapaneseEducationalLexiconLevel;JEL):\\語彙の難易度を示す指標である.難易度は日本語学習辞書\footnote{http://jishokaken.sakura.ne.jp/DB/}に収載されている語彙レベルを用いた.語彙レベルは,1(初級前半),2(初級後半),3(中級前半),4(中級後半),5(上級前半),6(上級後半)に分けられる\cite{Sunagawa}.語ごとに算出し,全単語の平均をJELスコアとする.\item機能表現難度(DifficultyofFunctionalExpression;FNC):\\機能表現\footnote{日本語の文を構成する要素のうち,機能語(助詞や助動詞といった,主に文の構成に関わる要素)と複合辞(複数の語から構成され,かつ,全体として機能語のように働く表現)を総称したもの.}の難易度を示す.この値が大きいほど,文章内で用いられている機能表現の難易度が高いことを意味する.難易度の定義は「日本語機能表現辞書つつじ」\cite{Matsuyoshi1}で設定されている難易度による.難易度はA1,A2,B,C,Fの5段階に分かれており,これを1(A1)から5(F)に変換した.文ごとに算出し,平均した値をFNCスコアとする.\itemポライトネス(PolitenessofFunctionalExpression;PLT):\\機能表現の丁寧さの度合いを示す.この値が大きいとき,機能表現が丁寧であることを表す.ポライトネスは「日本語機能表現辞書つつじ」\cite{Matsuyoshi1,Matsuyoshi2}の分類を採用した.分類では機能表現が常体(normal),敬体(polite),口語体(colloquial),堅い文体(stiff)の4種類に分けられており,口語体(colloquial)=1,常体(normal)=3,敬体(polite)=5,堅い文体(stiff)=5に変換した.文ごとに算出し,平均した値をPLTスコアとする.\item具体性(NamedEntityRatio;NER):\\固有名詞の割合を示す.具体性は,固有名形態素数を全名詞形態素数で割った値と定義する.この値が大きければ,文章の内容がより具体的であることを示す.固有名詞の判定は,形態素解析器JUMAN\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN}\cite{Kurohashi}を用いて行う.地名,数詞,固有名詞の割合を文ごとに算出し,平均した値をNERスコアとする.\end{enumerate}以降,これらの言語能力指標をもとに算出される値を「言語能力スコア」と総称する.なお,これらの指標は,人間の言語能力によって表出したテキストの特徴を表すものの一つであると見なし,本論文では「言語能力指標」と呼ぶこととしているが,これらの指標は人間の言語能力を直接的に表すものではない.
\section{提案システム:言秤(コトバカリ)}
本章では,まず,想定するシステムの用途を整理し,提案システムの構成について述べる.\subsection{想定するシステムの用途}\label{sec:scene}前述したように,本研究で提案する言語能力測定は,様々な場面へと適用できる可能性があるが,本論文では,適用対象の一つとして想定している認知症者を例として,システムの用途を整理する.認知症予防回復支援のアプローチの一つとして,認知的アプローチがある\cite{Otake}.これは,知的活動と社会的ネットワークの構築により,認知症になると衰える認知機能を必要とする認知活動を行い,認知機能の低下を遅らせるものである.本人が認知症であると自分の状態を認識しており,その状態の維持や改善に取り組みたいと考えている場合,被測定者自身が前向きかつ積極的にシステムを利用する可能性がある.一方で,認知症の疑いのある人の言語能力を測定する場合などは,上述したケースとは異なると考えられる.日本イーライリリー株式会社が行った調査\footnote{https://www.lilly.co.jp/pressrelease/2014/news\_2014\_033.aspx}によると,認知症を疑うきっかけとなる変化に気づいてから,最初に医療機関を受診するまでにかかった期間は平均9.5か月,変化に気づいてから確定診断までにかかった期間は平均15.0か月であるとの調査結果がある.認知症には様々な原因があり,早期診断で治療可能なものがあるが,上述の調査では,確定診断までに時間がかかったことによる患者や家族の負担に関して,「適切な治療がなされなかった」という回答が36.7\%を占めており,早期診断の重要性が見て取れる.しかし,それにも関わらず,認知症の疑いのある人自身が受診を嫌がる\footnote{http://www.fukushihoken.metro.tokyo.jp/kourei/ninchi/suishin\_kaigi/haifushiryoucarepass5.\linebreak[2]files/\linebreak[2]23carepass5\_\linebreak[2]sankou3.pdf}ことなども多い.このような場合,被測定者の周囲の人々(家族など)は測定に対して前向きであっても,言語能力の被測定者がシステムの利用に後ろ向きである可能性がある.そこで本提案システムでは,以下の2種類の用途を想定し,システムの検討を行う.\begin{description}\item[用途1:]被測定者\underline{自身}による自己把握・状況改善\\被測定者が自発的にシステムを利用し,その結果を自分自身で確認することにより,言語能力の現状を把握し,改善などに役立てることを想定している.\item[用途2:]被測定者\underline{以外}による能力の高低の判断\\例えば,認知症の疑いのある人(被測定者)の家族などが,被測定者の発話を音声データとして保存しておき,そのデータから言語能力を測定することにより,被測定者の言語能力傾向を把握するために用いることを想定している.\end{description}なお,用途の整理においては認知症者を例としたが,他の分野においてもこれらの用途はあると考えらえる.例えば,留学生の能力評価の場合,留学生自身による自己の能力把握が用途1,教師などの評価者による能力評価が用途2に該当する.\subsection{システム構成}本研究では,\ref{sec:wordIndex}章で述べた6指標に基づき,言語能力を測定するシステム「言秤」を提案する.言秤のシステム構成を図\ref{fig:config}に示す.\begin{figure}[b]\begin{center}\includegraphics{25-1ia2f1.eps}\end{center}\caption{システム構成}\label{fig:config}\end{figure}\ref{sec:scene}節で述べたシステムの用途を考慮し,音声データの入力は,入力方式(1)ユーザ端末に保存された音声データ(wavファイルなど),または入力方式(2)マイクによるリアルタイム入力を想定する.入力方式(1)は,用途2のように,被測定者以外がシステムを利用する場合に必須となり,また用途1でも利用可能である.入力方式(2)については,用途1のように自発的な測定を行う際,音声データの作成の手間を減らし,その場で直接入力するために必要であると考えた.音声データあるいはマイク入力に対し,以下の3つのモジュールでの処理を行い,言語能力スコアを出力する.\begin{description}\item[(A)音声認識モジュール]音声認識ソフトウェアにより,入力音声をテキストデータに変換する.\item[(B)言語処理モジュール]音声認識モジュールにより変換したテキストデータに対し,形態素解析を行う.\item[(C)スコアリングモジュール]言語処理モジュールによって得られた解析結果をもとに,\ref{sec:wordIndex}章で述べた言語能力スコアを算出する.\end{description}方式(1)保存された音声データおよび方式(2)マイクによるリアルタイム入力については,全てのモジュールでの処理が必要となる.また,本システムでは,音声入力だけでなく,テキストによる入力も可能であり,その場合は,音声認識モジュールを除いた2つのモジュール(言語処理モジュールおよびスコアリングモジュール)によって処理される.\begin{figure}[b]\begin{center}\includegraphics{25-1ia2f2.eps}\end{center}\caption{言語能力スコア表示画面}\label{fig:screen}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{25-1ia2f3.eps}\end{center}\caption{リアルタイムフィードバック画面}\label{fig:screen2}\end{figure}提案システムの画面例を図\ref{fig:screen}および図\ref{fig:screen2}に示す.スコアリングモジュールにより算出された6つの言語能力スコアは,図\ref{fig:screen}のようにレーダーチャートとして画面上に表示される.なお,方式(2)マイクによるリアルタイム入力の場合,入力結果を随時可視化し,ユーザへとフィードバックする(図\ref{fig:screen2})こともできる.
\section{検証実験}
\label{sec:experiment}音声認識システムによる言語能力の測定可能性を検証するために,音声データを用いた言語能力スコアの比較実験を行う.本章では,検証仮説と評価に用いるデータについて説明する.\subsection{検証仮説}\label{sec:hypo}音声認識システムの認識精度が高い場合,認識結果が発話内容と完全一致することも考えられる.もし,完全一致するならば,算出される言語能力スコアには何の問題もない.しかし,現在の音声認識システムでは,常に高精度な認識ができるとは限らない.では,認識結果と実際の発話内容にずれがある場合,正しい言語能力スコアの算出はできないのだろうか.これまでに行った分析の結果,我々が提案・採用する6つの言語能力指標のうち,認知症の傾向把握に大きく寄与しうる\footnote{先行研究\cite{Aramaki2}における検証の結果,健常高齢者・認知症者のいずれも,時間経過とともにTTR・JELの低下が確認された.しかし,健常高齢者と比較して,認知症者はTTRとJELに大きな差が生じており,認知症の初期段階において,甚大な低下が起こる可能性があることが示唆された.なお,その他の指標については,認知症との顕著な関係性は確認できておらず,他の指標を用いて認知症の兆候を捉えることは難しいと考えられる.ただし,十分な認知症者のデータが得られているとは言い難く,今後多数のデータに基づいたさらなる検証が期待される.}指標は,TTR(Type・Token割合)およびJEL(日本語学習語彙レベル)の2つであることが判明した\cite{Aramaki2}.この2つの指標はまた,日本語学習者の日本語習熟度の変遷を把握する際にも活用できる可能性がある指標でもある\cite{KayKubo}.特にTTRは,Type(異なり語数)とToken(延べ語数)の比率(Type/Token)であり,TTRスコアの算出において,発話されたのがどのような語であるかという点については関与しない.我々はこの点において,音声認識システムによる認識結果が不完全であっても,TTRスコアを算出できる可能性があると考えた.具体的には,ある語の認識を誤った(例えば,「機械」という発話を「機会」と変換したり,全く異なる語として認識するなど)としても,発話者によって語の発声の仕方が変わらないと仮定すれば,音声認識システムは毎回同じ誤りとして出力し,総じて異なり語数,述べ語数が大きく変わらない可能性があると考えている.異なり語数,述べ語数が大よそ合っていれば,仮説上はTTRスコアも実際の発話内容から算出されるものと類似するはずである.そこで,本実験では,「音声認識システムの認識結果が正しくなくとも,Type数,Token数は実際の発話データと相関する」という仮説を立て,言語能力スコアの算出・比較を行う.本検証では,理論的に認識誤りに頑健な指標であると考えられるTTRスコアをもとに,音声認識システムを介した言語能力の測定可能性を議論することとし,認識内容の影響を受けるその他の指標については,参考値として掲載する.なお,今回は,音声認識することを想定していない録音音声データを評価用音声データとし,検証を行う.マイクに向かい,音声認識することを意図して入力するよりも認識精度が低くなると考えられ,より劣悪な環境下を想定した検証結果になると考えている.\subsection{評価用音声データ}\label{sec:voice}評価用音声データとして,模擬面接の設定で収録された音声データ\cite{Yasuda}を用いた.今回用いたデータは,模擬面接の設定において,5名の実験協力者(男性2名,女性3名であり,年齢は20〜40代である)が各10回収録したデータ(合計50回分)である.就職活動を前提とした模擬面接の設定で,実験協力者はあらかじめ考えてきた「学生生活で力を入れてきたこと」についての発話(3分間程度)を行ってもらった.なお,収録時,偶数回のみ聴衆(面接官役)を配置したが,聴衆には聴いていることを表すためにうなずくことのみを許可し,話者への質問や意見など,発話は一切行わないようにしている.発話内容は,ボイスレコーダーおよびビデオカメラにおいて収録した.収録環境のイメージを図\ref{fig:haichi}に示す.ボイスレコーダーは机の上に置き,被験者からは少し距離のある状態で録音している.評価用音声データとしては,ボイスレコーダーで収録したものを利用した.なお,このデータの収録においては,同じ内容を話してもらっているが,テキストを読み上げるのではなく,面接の設定でその場で話してもらっているため,実験協力者の10回の発話内容はそれぞれ異なっている\footnote{10回収録しているが,同内容を繰り返すことや何回依頼するかは実験協力者に知らせていない.}.\begin{figure}[b]\begin{center}\includegraphics{25-1ia2f4.eps}\end{center}\caption{音声データの収録環境}\label{fig:haichi}\end{figure}発話者には,発話内容を録音していることを伝えているが,音声認識によるテキスト化を前提として収録したものではない.したがって,このデータは,録音を意識している可能性はあるが,音声認識することを意識した発話データではないといえる.\subsection{評価用テキストデータの作成}音声認識による言語能力測定の可能性を検証するためには,\ref{sec:voice}節で述べた各評価用音声データに対して,テキストデータを作成する必要がある.まず,音声認識結果と比較するための正解データを作成した.正解データについては,音声を聞きながら,人手で書き起こし作業を行い作成した.なお,書き起こしの際は,「えー」や「あー」などの言いよどみ(フィラー)もテキストとして書き起こしている.次に,音声認識システムによるテキストデータの生成を行った\footnote{2014年9月にデータを生成した.}.現在,様々な音声認識システムが公開されているが,その精度はシステム毎に異なると考えられる.そこで,実験結果に対する音声認識システムの精度の影響を考慮し,異なる2種類の音声認識システムを用いて実験を行うこととした.本実験においては,以下の2種類の音声認識システム\footnote{今回用いた2種類の音声認識システムのうち,Juliusはフリーのソフトウェアであり,AmiVoiceは市販ソフトウェアである.}を用いて,音声認識結果を生成する.\begin{table}[b]\par\vspace{-0.5\Cvs}\caption{各テキストデータの一部}\label{table:sampletext}\input{02table02.txt}\par\vspace{4pt}\smallJulius,AmiVoiceのテキストについては,音声認識システムから出力された結果をそのまま掲載している.\end{table}\begin{itemize}\item大語彙連続音声認識エンジンJulius(Rev.~4.2)\cite{Kawahara}\itemアドバンスト・メディア社のAmiVoiceSP2\footnote{http://sp.advanced-media.co.jp/}\end{itemize}本検証実験で用いるテキストデータは以下の3種類である.各テキストの一部を表\ref{table:sampletext}に示す.\begin{enumerate}\item書き起こしデータ(以下,「書き起こし」と表記する)\itemJuliusを用いた認識結果(以下,Juliusと表記する)\itemAmiVoiceSP2を用いた認識結果(以下,AmiVoiceと表記する)\end{enumerate}
\section{実験結果と考察}
本章では,それぞれのテキストに対する,スコアリングモジュールによる言語能力スコアの算出結果を比較する.なお,本論文では理論的に認識誤りに頑健な指標であるTTRスコアをもとに,音声認識システムを用いた言語能力測定の可能性を議論する.TTRスコア以外の言語能力スコアについては,今回は参考値として提示することとし,今後,認識結果と併せた詳細な分析を行うことにより,測定可能性を検証する.\subsection{平均スコアとデータ間の相関}\label{sec:res}Type(異なり語数),Token(延べ語数)および\ref{sec:wordIndex}章で述べた6指標,音声認識率\footnote{音声認識率の評価尺度としては,単語正解精度を用いる.なお,単語正解精度は,以下の式によって算出した.\\$単語正解精度=(N-D-S-I)/N$\\N:書き起こしデータの総単語数,D:脱落誤りの数,S:置換誤りの数,I:挿入誤りの数}の平均値を表\ref{table:average}に示す.表\ref{table:average}より,Typeについては書き起こしよりも,Julius,AmiVoiceの方が多い傾向がみられる.一方,Tokenについては,書き起こしよりもJulius,AmiVoiceの方が少ない傾向がみられた.TTRについては,Julius,AmiVoiceが,書き起こしよりも若干高い値となった.その他の言語能力スコアについては,大きな違いはみられなかった.\begin{table}[b]\caption{各スコアの平均値}\label{table:average}\input{02table03.txt}\end{table}各スコアに関する,テキストデータ間のピアソンの相関係数を表\ref{table:correl}にそれぞれ示す.表\ref{table:correl}より,Type,Tokenについてはいずれの組み合わせでも0.9前後の強い正の相関($p<0.05$)が確認できた.一方,TTRスコアについては,書き起こしとJulius,書き起こしとAmiVoiceの相関係数はいずれも0.2未満であった.\begin{table}[b]\caption{テキストデータ間の相関係数}\label{table:correl}\input{02table04.txt}\end{table}表\ref{table:correl}における相関係数は,50回分の発話データ全体での相関を調べたものである.発話者ごとの各スコアの相関係数および音声認識率を表\ref{table:correl2}および表\ref{table:correl3}に示す.表\ref{table:correl2},表\ref{table:correl3}のTTRスコアの相関係数より,正の相関がある発話者が一部見られるものの,全発話者に相関が見られるわけではなく,相関の有無には個人差があることがわかった.\begin{table}[b]\caption{話者別に見た言語能力指標に関する書き起こしデータ・音声認識結果(Julius)間の相関係数}\label{table:correl2}\input{02table05.txt}\end{table}\begin{table}[b]\caption{話者別に見た言語能力指標に関する書き起こしデータ・音声認識結果(AmiVoice)間の相関係数}\label{table:correl3}\input{02table06.txt}\end{table}また,TTRスコアの相関係数と音声認識率とを比較すると,相関係数が0.4以上だが音声認識率が低い場合(表\ref{table:correl2}発話者D)や,相関係数が0.4未満だが音声認識率が高い場合(表\ref{table:correl3}発話者C)などが見られ,書き起こしと音声認識とのTTRスコアの相関の高さには,音声認識精度による大きな影響は見られなかった.ただし,今回の検証は5名の発話者のみで行っているため,今後より多数の話者データを確保した上で影響の有無を検証する必要がある.\subsection{発話音声データに基づく言語能力測定の可能性}\subsubsection{TTRスコアの測定可能性}\ref{sec:res}節で示したように,検証の結果,Type,Tokenについては実際の発話内容(書き起こし)と音声認識システムの認識結果(Julius,AmiVoice)との間に強い正の相関がみられたが,50回分の発話データ全体で検証すると,TTRスコアの相関は確認できなかった.一方,発話者ごとにTTRスコアの相関係数(表\ref{table:correl2})をみると,5\%水準で有意なものは一部のみであるが,一部の発話者については正の相関が見られており,相関の見られる発話者とそうでない発話者に分かれることが示された.以上の結果から,音声認識システムを用いた言語能力の測定可能性について議論する.\ref{sec:res}節で示したように,単純にTTRスコアのみを比較した場合,本来のTTRスコア(表\ref{table:average}では「書き起こし」が相当)よりも高くなる可能性がある.したがって,単純にある閾値を下回ったかどうか,といった観点から,TTRスコアを認知症の初期症状の発見など,能力の高低の判断(\ref{sec:scene}節用途2)に用いることは難しい.ただし,本研究で,音声認識により各指標がどの程度バイアスを受けるかが明らかになった.今後,これを補正することで,さらに精度の高い推定を実現できる可能があると思われる.一方,発話者ごとに分けて検証を行った結果,音声認識によるTTRスコアと本来のTTRスコアに相関が見られる発話者と,相関が見られない発話者がいることが分かった.有意な相関が見られた発話者A(Julius使用,AmiVoice使用),発話者D(AmiVoice使用)に関して,音声認識によるTTRスコアと本来のTTRスコアとの比例定数を調査した結果,発話者A(Julius使用)の比例定数は平均0.66,標準偏差0.02,発話者A(AmiVoice使用)の比例定数は平均0.59,標準偏差0.02,発話者D(AmiVoice使用)の比例定数は平均0.57,標準偏差0.03となり,ほぼ一定の比例定数が確認された.また,TTRスコアに相関が見られなかった発話者の発話内容を確認すると,Juliusを用いた場合(表\ref{table:correl2})に相関が見られなかった発話者B(相関係数0.049),E(相関係数$-0.156$)については,どちらの発話者も,発話の中で「えーと」「えー」といったフィラーを頻繁に使用している傾向が見られた.また,AmiVoiceを用いた場合(表\ref{table:correl3})に強い相関が見られなかった発話者C(相関係数0.379)は,5名の発話者の中でも音声認識率が高く,発話者Cの10回分のデータの中で,TTRスコアの大きな変化が生じていない傾向が見られた.音声認識率が高いにも関わらず,TTRスコアに相関が見られなかった原因としては,このTTRスコアの変化の小ささが関係すると考えられる.発話者Cと,表\ref{table:correl3}において有意な相関が見られた発話者AのTTRスコアの取りうる幅(最大値−最小値)を比較すると,発話者Aの幅が0.054(書き起こし)および0.107(AmiVoice)であったのに対し,発話者Cの幅は0.019(書き起こし)および0.066(AmiVoice)であり,発話者Aと比較すると,発話者CのTTRスコアはごく狭い範囲に密集する傾向が見られた.そのため,発話者Cの10回の計測データではTTRスコアの揺れがあまり見られず,その中でやや傾向の異なるTTRスコアの一つのペアが外れ値となり,相関係数が低くなった可能性がある.このような発話者については,より多くの発話データを収集することで,音声認識によるTTRスコアと本来のTTRスコアとの高い相関が得られる可能性がある.なお,今回検証に用いた発話者データは5名分であり,今後より多くの発話者データを用いた比較を行うことで,TTRスコアに相関が見られない発話者らに,今回見られたこれらの傾向が現れるかどうか確認する必要がある.これまでの調査では,長期的に認知症者の言語能力スコアの変化を見ていくと,徐々に減少していく傾向が確認されている\cite{Shikata}.このような傾向を鑑みると,スコアに相関が見られる一部の発話者に関しては,継続的に被測定者のTTRスコアを測定・記録し,その変化を見るという利用法において,認知症の初期症状の発見(\ref{sec:scene}節用途2)に役立てることができる可能性がある.同様に,被測定者自身が現状把握・言語能力の維持・改善目的で継続的に言語能力スコアを計測し比較するといった利用方法(\ref{sec:scene}節用途1)も可能であると考えられる.なお,音声認識結果から算出された言語能力スコアに基づいて言語能力の変化を把握していくためには,本来のスコアと音声認識によるスコアとの相関が見られた上で,比例定数が一定となる必要があると考えられる.そのため,完璧でない音声認識システムを用いる場合,提案システムによって能力の測定が可能な発話者かどうかは,複数回の測定を行い,スコアの相関と比例定数を確認した上で判断する必要がある.\subsubsection{その他のスコアの測定可能性}\ref{sec:hypo}節でも述べたが,今回,理論的に認識誤りに頑健な指標であると考えられるTTRスコアに基づいて,音声認識システムを介した言語能力の測定可能性を議論することとし,TTRについては前述のような測定可能性があることを明らかにした.一方,TTR以外の指標は,各語に紐づいた特有の値(例えば,FPUの場合は頻度・使用者数の比)や,品詞(NERの場合,固有名詞の数)に基づいてスコアが算出される.つまり,発話内容が正しく認識されなければ,正しいスコア算出が難しい指標であるといえる.表\ref{table:correl},表\ref{table:correl2},表\ref{table:correl3}においては,参考値としてTTRスコア以外の指標についても相関係数を示した.表\ref{table:correl},表\ref{table:correl2},表\ref{table:correl3}より,FPUとFNCについては,全体および一部の発話者において,0.4以上の正の相関が見られた.FPUスコアに相関が見られた発話者と見られなかった発話者に関して,特徴があるのかどうかを確認したところ,相関の高さに影響を与えるような特徴は見られなかった.ただし,相関の見られなかった発話者Bの書き起こしデータには,FPUの算出に用いたコーパスに含まれない専門用語が含まれていたのに対し,その音声認識結果では,それらの専門用語が,コーパスに含まれる(FPUの算出対象となる)単語として誤って認識されている,という場合が見られた.また,FNCスコアの相関が高かった発話者C(Julius:0.479,AmiVoice:0.602)の特徴を確認したところ,音声認識率が高く,機能表現も比較的正確に認識できていたのに対し,その他の発話者については,機能表現を認識できていなかったり,誤った機能表現として認識されていたりする場合が見られた.ただし,これらの傾向は,今回用いたデータから見られた少数の事例であるため,その他のデータにおいても同様の傾向が見られるのかどうか,専門用語の有無や,使用する機能表現のパターンなどが十分な検証用データを収集した上で,今後,検証する必要があると考えられる.また,今後音声認識の精度が向上し,正確な認識結果が得られるようになれば,TTR以外の5指標についても自動測定が可能になると考えられる.\subsection{高齢者施設におけるシステムの試用}\ref{sec:experiment}章で述べた実験において用いた音声データには,高齢者の音声データは含まれていない.本提案システムの適用対象の一つである認知症患者は高齢者に多いため,高齢者の音声データによる検証についても今後行う必要があると考えている.\begin{figure}[b]\begin{center}\includegraphics{25-1ia2f5.eps}\end{center}\caption{試用時の様子}\label{fig:siyou}\end{figure}これまでに我々は,高齢者施設が主催した認知症相談会において,システムの試用を行った.図\ref{fig:siyou}に試用時の様子を示す.なお,認知症相談会における試用時には,システムの説明などを行うため,説明者が試用者の側に同席する形で行った.相談会での試用においては,マイクを用いたリアルタイム入力による測定を行った.ただし,言語能力スコアの算出にはある程度の発話量が必要となる.自由な発話を測定対象とした場合,発話内容を思いつかないなど,測定のための十分な発話量が確保できない可能性があると考え,3つの設問を用意し,被測定者にはその設問に沿って発話してもらう形式を取った.また,システムのインタフェースについては,測定環境に合わせて変更している.具体的には,発話中には設問が表示され(図\ref{fig:siyou_interface}),全ての設問に答えた後,言語能力スコアがレーダーチャートとして表示される形式に変更した.\begin{figure}[t]\begin{center}\includegraphics{25-1ia2f6.eps}\end{center}\caption{試用時のインタフェース}\label{fig:siyou_interface}\end{figure}相談会においては,51歳〜92歳(平均78歳)の高齢者19名にシステムを試用してもらった.システムによる測定結果(音声認識ソフトウェアJuliusを使用\footnote{検証実験では,JuliusおよびAmiVoiceSP2を使用したが,実験の結果,言語能力スコアと音声認識結果との相関は,個々人によって相関の高い音声認識システムが異なっていた.そのため,この試用においては,フリーのソフトウェアであるJuliusを使用することとした.})と,録音した音声データの書き起こし結果との比較を行った結果,TTRスコアの相関係数は0.379であり,相関は見られなかった.小沼らの研究では,一般的な音響モデルは成人の音声を用いていること,また,高齢者話者の音声には口をあまり開けないことによる不明瞭な音声などがあることから,高齢者の音声の音響特性と音響モデルとの間にミスマッチを生じ,認識率が低下することが報告されている\cite{Konuma}.高齢者を測定対象とした際に,一般的な音響モデルを用いた音声認識システムを使うことで認識率が低下し,それが言語能力スコアの検証結果に影響を及ぼす可能性もある.ただし,\ref{sec:experiment}章で述べた検証実験と異なり,同一発話者による複数回の測定は行っていない.そのため,今後,高齢者に本システムを継続的に利用してもらい,同一発話者(高齢者)による測定の可能性について,検証していく必要がある.また,高齢者音声の高精度な認識を目指した研究も進められており\cite{Baba},今後このような研究が発展したとき,ユーザに応じて音響モデルの変更などができるようになれば,より正確な測定が可能になると考えられる.
\section{おわりに}
本研究では,発話者の音声から言語能力を測定するシステム「言秤」を提案した.提案システムは,認知症における初期症状の発見や自己把握・状況改善,留学生の日本語能力の客観的な評価などにおいて利用されることを想定したシステムである.(1)音声認識システムの組み込み,および(2)テキストデータから定量的に言語能力を測定する指標の採用を行うことで,従来人手で行っていたテキスト化および言語能力指標の算出を自動化し,コストの軽減と手軽な測定を実現した.ただし,テキスト化に音声認識システムを用いることで,正確な言語能力スコアの算出が困難となる可能性がある.そこで,言語能力測定の適用先の一つである認知症の初期発見を想定して用途を整理し,「被測定者自身による自己把握・状況改善(用途1)」および「被測定者以外による能力の高低の判断(用途2)」という観点から,言語能力スコア算出における音声認識システムの利用可能性について検証を行った.検証実験の結果,以下の点を明らかにした.\begin{enumerate}\itemType(異なり語数),Token(延べ語数)は,発話内容と音声認識結果で強い正の相関がある.また,TTRスコア(Type・Tokenの比率)は,複数発話者の混在するデータにおいて相関はみられなかったが,同じ発話者の発話データにおいては,相関が見られる発話者と,相関が見られない発話者とに分かれる傾向がみられた.\itemType,Token,TTRスコアのいずれも,相関関係はみられるものの,実際の値には発話データとの差異がみられた.\item上記の(1),(2)より,閾値との比較のような,単純な言語能力スコアの対比による能力の高低の判断(用途2)は難しい.一方,TTRスコアに相関が見られる発話者については,被測定者の言語能力スコアを継続的に測定し,その変化を観察することによる初期症状の発見(用途1)や言語能力の現状把握・維持・改善(用途2)ができる可能性がある.\end{enumerate}今回の検証においては,評価用音声データとして,音声認識することを想定していない録音音声データを用いた.ただし,発話者に対し,録音していることを伝えているため,録音されることを意識している可能性はある.今後,録音を全く意識していない発話データでの検証を行い,同様の傾向が得られるかを確認する.また,今回用いた音声データには,高齢者の音声データは含まれていないため,それを用いた検証も行う必要があると考えている.今回の検証においては,TTRスコア以外の言語能力スコアを参考値として提示したが,今後,認識結果と併せた詳細な分析により,それらの測定可能性を検証する.また,今回得られた結果は,音声認識エンジンJulius(Rev.~4.2)および音声認識システムAmiVoiceSP2を用いて検証した結果であり,より高精度な認識結果の得られるソフトウェアを用いた場合には,結果が変わる可能性がある.完璧な認識結果が得られるようになれば,正確な言語能力スコアを測定することが可能になるため,今後は音声認識の認識率向上に併せて,本論文と同様の検証を行い,スコアの相関について検証していく必要がある.\acknowledgment評価に用いた音声データの収録・書き起こしにあたり,国立国語研究所の加藤祥氏に多大なるご協力をいただいた.音声認識システムAmiVoiceSP2は,アドバンスト・メディア社にご提供いただいた.ここに深く感謝の意を表する.本研究の一部は,JST戦略的創造研究推進事業,日本学術振興会補助金番号JP16H06395および16H06399,16K12489の助成による.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{荒牧\JBA久保\JBA四方}{荒牧\Jetal}{2014}]{Aramaki2}荒牧英治\JBA久保圭\JBA四方朱子\BBOP2014\BBCP.\newblock老いと〈ことば〉:ブログ・テキストから測る老化.\\newblock\Jem{電子情報通信学会技術研究報告=IEICEtechnicalreport:信学技報},{\Bbf114}(173),\mbox{\BPGS\131--136}.\bibitem[\protect\BCAY{Aramaki,Maskawa,Miyabe,Morita,\BBA\Yasuda}{Aramakiet~al.}{2013}]{Aramaki1}Aramaki,E.,Maskawa,S.,Miyabe,M.,Morita,M.,\BBA\Yasuda,S.\BBOP2013\BBCP.\newblock\BBOQAWordinaDictionaryisusedbyNumerousUsers.\BBCQ\\newblockIn{\BemProceedingsofInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP2013)},\mbox{\BPGS\874--877}.\bibitem[\protect\BCAY{馬場\JBA芳澤\JBA山田\JBA李\JBA鹿野}{馬場\Jetal}{2002}]{Baba}馬場朗\JBA芳澤伸一\JBA山田実一\JBA李晃伸\JBA鹿野清宏\BBOP2002\BBCP.\newblock高齢者音響モデルによる大語彙連続音声認識.\\newblock\Jem{電子情報通信学会論文誌.D-II,情報・システム,II-パターン処理=ThetransactionsoftheInstituteofElectronics,InformationandCommunicationEngineers.D-II},{\Bbf85}(3),\mbox{\BPGS\390--397}.\bibitem[\protect\BCAY{別所\JBA松永\JBA大附\JBA廣嶋\JBA奥}{別所\Jetal}{2008}]{Bessho}別所克人\JBA松永昭一\JBA大附克年\JBA廣嶋伸章\JBA奥雅博\BBOP2008\BBCP.\newblock話題構造抽出に基づく会議音声インデクシングシステム.\\newblock\Jem{電子情報通信学会論文誌.D,情報・システム},{\Bbf91}(9),\mbox{\BPGS\2256--2267}.\bibitem[\protect\BCAY{Hampshire,Highfield,Parkin,\BBA\Owen}{Hampshireet~al.}{2012}]{Hampshire}Hampshire,A.,Highfield,R.~R.,Parkin,B.~L.,\BBA\Owen,A.~M.\BBOP2012\BBCP.\newblock\BBOQFractionatingHumanIntelligence.\BBCQ\\newblock{\BemNeuron},{\Bbf76}(6),\mbox{\BPGS\1225--1237}.\bibitem[\protect\BCAY{花沢\JBA荒川\JBA岡部\JBA辻川\JBA長田\JBA磯谷\JBA奥村}{花沢\Jetal}{2009}]{Hanazawa}花沢健\JBA荒川隆行\JBA岡部浩司\JBA辻川剛範\JBA長田誠也\JBA磯谷亮輔\JBA奥村明俊\BBOP2009\BBCP.\newblock携帯電話試作機上で動作する旅行会話向け音声認識システム.\\newblock\Jem{情報処理学会第71回全国大会講演論文集(人工知能と認知科学)},\mbox{\BPGS\39--40}.\bibitem[\protect\BCAY{Ikeda,Ando,Satoh,Okumura,\BBA\Watanabe}{Ikedaet~al.}{2002}]{Ikeda}Ikeda,T.,Ando,S.,Satoh,K.,Okumura,A.,\BBA\Watanabe,T.\BBOP2002\BBCP.\newblock\BBOQAutomaticInterpretationSystemIntegratingFree-styleSentenceTranslationandParallelTextBasedTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheACL-02WorkshoponSpeech-to-speechTranslation:AlgorithmsandSystems},\lowercase{\BVOL}~7,\mbox{\BPGS\85--92}.\bibitem[\protect\BCAY{金久保}{金久保}{2016}]{Kanakubo}金久保紀子\BBOP2016\BBCP.\newblock日本語スピーチコンテスト実態と課題.\\newblock\Jem{筑波学院大学紀要},{\Bbf11},\mbox{\BPGS\13--23}.\bibitem[\protect\BCAY{加藤}{加藤}{2010}]{Kato}加藤恒夫\BBOP2010\BBCP.\newblock携帯電話における分散型音声認識システムの実用化.\\newblock\Jem{情報処理学会誌},{\Bbf51}(11),\mbox{\BPGS\1394--1400}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{Kurohashi}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQAFully-LexicalizedProbabilisticModelforJapaneseSyntacticandCaseStructureAnalysis.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(HLT-NAACL2006)},\mbox{\BPGS\176--183}.\bibitem[\protect\BCAY{河原\JBA李}{河原\JBA李}{2005}]{Kawahara}河原達也\JBA李晃伸\BBOP2005\BBCP.\newblock連続音声認識ソフトウェアJulius.\\newblock\Jem{人工知能学会誌},{\Bbf20}(1),\mbox{\BPGS\41--49}.\bibitem[\protect\BCAY{Kemper,Marquis,\BBA\Thompson}{Kemperet~al.}{2001}]{Kemper}Kemper,S.,Marquis,J.,\BBA\Thompson,M.\BBOP2001\BBCP.\newblock\BBOQLongitudinalChangeinLanguageProduction:EffectsofAgingandDementiaonGrammaticalComplexityandPropositionalContent.\BBCQ\\newblock{\BemPsychologyandAging},{\Bbf16}(4),\mbox{\BPGS\600--614}.\bibitem[\protect\BCAY{木村}{木村}{2009}]{Kimura}木村かおり\BBOP2009\BBCP.\newblock「書く」能力を評価する—評価プロセスの見える評価を目指して—.\\newblock\Jem{2009年度日本語教育実践研究フォーラム},\mbox{\BPGS\1--9}.\bibitem[\protect\BCAY{Kintsch\BBA\Keenan}{Kintsch\BBA\Keenan}{1973}]{Kintsch}Kintsch,W.\BBACOMMA\\BBA\Keenan,J.\BBOP1973\BBCP.\newblock\BBOQReadingRateandRetentionasaFunctionoftheNumberofthePropositionsintheBaseStructureofSentences.\BBCQ\\newblock{\BemCognitivePsychology},{\Bbf5}(3),\mbox{\BPGS\257--274}.\bibitem[\protect\BCAY{小沼\JBA桑野\JBA木村\JBA渡辺}{小沼\Jetal}{1997}]{Konuma}小沼知浩\JBA桑野裕康\JBA木村達也\JBA渡辺泰助\BBOP1997\BBCP.\newblock高齢者音声の解析と認識評価.\\newblock\Jem{日本音響学会研究発表会講演論文集},{\Bbf1997}(2),\mbox{\BPGS\117--118}.\bibitem[\protect\BCAY{厚生労働省研究班}{厚生労働省研究班}{2013}]{Kosei}厚生労働省研究班.\newblock都市部における認知症有病率と認知症の生活機能障害への対応.\\newblock\Turl{http://www.tsukuba-psychiatry.com/wp-content/uploads/2013/06/H24Report\_Part1.\protect\linebreak[2]pdf}.\bibitem[\protect\BCAY{Kubo,Kiyohara,Kato,Tanizaki,Arima,Tanaka,Nakamura,Okubo,\BBA\Iida}{Kuboet~al.}{2003}]{Kubo}Kubo,M.,Kiyohara,Y.,Kato,I.,Tanizaki,Y.,Arima,H.,Tanaka,K.,Nakamura,H.,Okubo,K.,\BBA\Iida,M.\BBOP2003\BBCP.\newblock\BBOQTrendsintheIncidence,Mortality,andSurvivalRateofCardiovascularDiseaseinaJapaneseCommunity:TheHisayamaStudy.\BBCQ\\newblock{\BemStroke},{\Bbf34}(10),\mbox{\BPGS\2349--2354}.\bibitem[\protect\BCAY{久保\JBA宮部\JBA四方\JBA荒牧\JBA李}{久保\Jetal}{2015}]{KayKubo}久保圭\JBA宮部真衣\JBA四方朱子\JBA荒牧英治\JBA李在鎬\BBOP2015\BBCP.\newblock『言秤』による日本語運用能力の自動測定:日本語学習者の書き言葉と話し言葉との差異を定量的に示す試み.\\newblock\Jem{2015年度日本語教育学会春季大会予稿集},\mbox{\BPGS\267--268}.\bibitem[\protect\BCAY{呉田\JBA伏見\JBA佐久間}{呉田\Jetal}{2002}]{Kureda}呉田陽一\JBA伏見貴夫\JBA佐久間尚子\BBOP2002\BBCP.\newblock言語能力の加齢変化.\\newblock\Jem{第9回東京都老年学会誌},\mbox{\BPGS\200--205}.\bibitem[\protect\BCAY{松吉\JBA佐藤\JBA宇津呂}{松吉\Jetal}{2007}]{Matsuyoshi1}松吉俊\JBA佐藤理史\JBA宇津呂武仁\BBOP2007\BBCP.\newblock日本語機能表現辞書の編纂.\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\123--146}.\bibitem[\protect\BCAY{松吉\JBA佐藤}{松吉\JBA佐藤}{2008}]{Matsuyoshi2}松吉俊\JBA佐藤理史\BBOP2008\BBCP.\newblock文体と難易度を制御可能な日本語機能表現の言い換え.\\newblock\Jem{自然言語処理},{\Bbf15}(2),\mbox{\BPGS\75--99}.\bibitem[\protect\BCAY{大武}{大武}{2010}]{Otake}大武美保子\BBOP2010\BBCP.\newblock認知症予防回復支援サービスの開発と忘却の科学—会話における思考の状態遷移モデルと会話相互作用量計測法の開発—.\\newblock\Jem{人工知能学会論文誌},{\Bbf25}(5),\mbox{\BPGS\662--669}.\bibitem[\protect\BCAY{笹島\JBA井本\JBA下森\JBA山中\JBA矢島\JBA福永\JBA正井}{笹島\Jetal}{2005}]{Sasajima}笹島宗彦\JBA井本和範\JBA下森大志\JBA山中紀子\JBA矢島真人\JBA福永幸弘\JBA正井康之\BBOP2005\BBCP.\newblock発話意図理解と回答誘導による異言語間会話支援ツール「グローバルコミュニケーター」.\\newblock\Jem{インタラクション2005予稿集},\mbox{\BPGS\119--126}.\bibitem[\protect\BCAY{四方\JBA荒牧}{四方\JBA荒牧}{2014}]{Shikata}四方朱子\JBA荒牧英治\BBOP2014\BBCP.\newblock言語能力検査としての言語処理:長期間のブログ執筆を継続した認知症の1例.\\newblock\Jem{言語処理学会第20回年次大会},\mbox{\BPGS\1126--1129}.\bibitem[\protect\BCAY{下郡\JBA坪井}{下郡\JBA坪井}{2010}]{Shimogori}下郡信宏\JBA坪井創吾\BBOP2010\BBCP.\newblock音声認識で生成した英語字幕による英語理解向上の測定実験.\\newblock\Jem{情報処理学会論文誌},{\Bbf51}(9),\mbox{\BPGS\1951--1959}.\bibitem[\protect\BCAY{Snowdon,Kemper,Mortimer,Greiner,Wekstein,\BBA\Markesbery}{Snowdonet~al.}{1996}]{Snowdon}Snowdon,D.~A.,Kemper,S.~J.,Mortimer,J.~A.,Greiner,L.~H.,Wekstein,D.~R.,\BBA\Markesbery,W.~R.\BBOP1996\BBCP.\newblock\BBOQLinguisticabilityinearlylifeandcognitivefunctionandAlzheimer'sdiseaseinlatelife.\BBCQ\\newblock{\BemFindingsfromtheNunStudy,JAMA},{\Bbf275}(7),\mbox{\BPGS\528--532}.\bibitem[\protect\BCAY{砂川}{砂川}{2012}]{Sunagawa}砂川有里子\BBOP2012\BBCP.\newblock学習辞書編集支援データベース作成について—『学習辞書科研』プロジェクトの紹介.\\newblock\Jem{日本語教育連絡会議論文集},{\Bbf24},\mbox{\BPGS\164--169}.\bibitem[\protect\BCAY{鳥井}{鳥井}{2013}]{Torii}鳥井俊祐\BBOP2013\BBCP.\newblock日本語スピーチ授業におけるピア・フィードバック活動の試み:中国の大学生を対象として.\\newblock{\BemPolyglossia:TheAsia-Pacific'sVoiceinLanguageandLanguageTeaching},{\Bbf25},\mbox{\BPGS\141--148}.\bibitem[\protect\BCAY{Turner\BBA\Greene}{Turner\BBA\Greene}{1977}]{Turner}Turner,A.\BBACOMMA\\BBA\Greene,E.\BBOP1977\BBCP.\newblock\BBOQTheConstructionandUseofaPropositionalTextBase.\BBCQ\\newblock{\BemTechnicalReport63,InstitutefortheStudyofIntellectualBehavior},\mbox{\BPGS\1--87}.\bibitem[\protect\BCAY{保田\JBA田中\JBA荒牧}{保田\Jetal}{2013}]{Yasuda}保田祥\JBA田中弥生\JBA荒牧英治\BBOP2013\BBCP.\newblock繰り返しにおける独話の変化.\\newblock\Jem{社会言語科学会第31回大会発表論文集},\mbox{\BPGS\190--193}.\end{thebibliography}\begin{biography}\bioauthor{宮部真衣}{2006年和歌山大学システム工学部デザイン情報学科中退.2008年同大学大学院システム工学研究科システム工学専攻博士前期課程修了.2011年同大学院システム工学研究科システム工学専攻博士後期課程修了.博士(工学).同年,東京大学知の構造化センター特任研究員.2013年京都大学学際融合教育研究推進センター特定研究員.2015年和歌山大学システム工学部講師.現在,諏訪東京理科大学経営情報学部講師.コミュニケーション支援,ソーシャルメディア分析に関する研究に従事.}\bioauthor{四方朱子}{2000年北海道大学大学院文学研究科日本文化論修士課程修了(文学修士).2006年北海道大学大学院文学研究科歴史地域文化学博士後期課程単位取得満期修了.2017年京都大学大学院人間・環境学研究科博士後期課程.現在,長浜バイオ大学バイオサイエンス学部非常勤講師・学習支援センター講師(現代文/英語).主に,比較文化論,日本および英米文学研究に従事.}\bioauthor{久保圭}{2007年神戸市外国語大学外国語学部卒業.2010年京都大学大学院人間・環境学研究科修士課程修了.2017年京都大学大学院人間・環境学研究科博士後期課程修了.人間・環境学博士.現在,大阪大学日本語日本文化教育センター非常勤講師.主に日本語学,日本語教育学の研究に従事.}\bioauthor{荒牧英治}{2000年京都大学総合人間学部卒業.2002年京都大学大学院情報学研究科修士課程修了.2005年東京大学大学院情報理工系研究科博士課程修了.博士(情報理工学).2005年東京大学医学部附属病院特任助教,2008年東京大学知の構造化センター特任講師,2013年京都大学デザイン学ユニット特定准教授を経て,奈良先端科学技術大学院大学特任准教授.医療情報学,自然言語処理の研究に従事.}\end{biography}\biodate\end{document}
| |
V06N07-03 | \section{はじめに}
GeorgeA.Millerは1956年に人間の短期記憶の容量は7±2程度のチャンク\footnote{チャンクとはある程度まとまった情報を計る,情報の認知単位のこと.}(スロット)しかないこと,つまり,人間は短期的には7±2程度のものしか覚えられないことを提唱した\cite{miller56}.本研究では,京大コーパス\cite{kurohashi_nlp97}を用いて日本語文の各部分において係り先が未決定な文節の個数を数えあげ,その個数がおおよそ7±2程度でおさえられていたことを報告する.この結果は,人間の文の理解過程において係り先が未決定な文節を短期記憶に格納するものであると仮定した場合,京大コーパスではその格納される量がちょうどMillerのいう7±2の上限の9程度でおさえられており,Millerの7±2の提唱と矛盾しないものとなっている.またYngveによって提案されている方法\cite{yngve60}により英語文でも同様な調査を行ない,NP程度のものをまとめて認識すると仮定した場合,必要となる短期記憶の容量が7±2の上限の9程度でおさえられていたことを確認した.近年,タグつきコーパスの増加により,コーパスに基づく機械学習の研究が盛んになっているが\cite{murata:nlken98},タグつきコーパスというものは機械学習の研究のためだけにあるのではなく,本研究のような言語の数量的な調査にも役に立つものである.現在の日本の言語処理研究ではコーパスを機械学習の研究に用いるものがほとんどであるが,本論文のようにコーパスの様々な使い道を考慮するべき時代がきていると思っている.
\section{短期記憶と7±2}
Millerは短期記憶の容量を計る,言葉,音感,味覚,視覚などを対象とした種々の実験におけるデータが,いずれも概ね7±2であったことから,人間の短期記憶の容量は7±2程度のチャンクであることを提唱した.7±2の「±2」は個人差を意味しており,一般の人は7個程度,人によっては二つ多いめに,もしくは二つ少なめに覚えることができることを意味している\footnote{\baselineskip=0.85\baselineskipMillerの7±2とは直接関係ないが,言語の特性を短期記憶と結びつけて議論しているものにLewisのマジカルナンバ2or3\cite{Lewis96}という研究がある.これは中央埋め込みの数に関する研究で,英語では主節と一つの中央埋め込みの二つの文(ここでいう文は,句点によって区切られる文ではなく,動詞によって構成される節のような部分的な文のことを意味する.)まで(日本語では主節と二つの中央埋め込みの三つまで)しか短期的に覚えることができないと主張するもので,これは英語については古くはKimballの7つの原則\cite{Kimball73}のうちの四つ目の「文二つの原則」にあげられていることである.これらの研究は文理解において中央埋め込みの数に制限があるのは人間の短期記憶の容量に限界があるためであると考えているものである.}.7±2の研究は心理学の分野に属するものではあるが,工学の分野にも応用することができる.例えば,文生成の研究では7±2の容量を越える文を作成するとわかりにくい文になるであろうから\cite{matsuoka96},その条件を満足するように文生成を行なうということがある\cite{yngve60}.また,画像処理の分野では最近はやりのカーナビを構築する際に,一画面に多くの情報を与えすぎると人間の認識に支障をきたすので,7±2程度のものしか提示しないようにするなどの研究を行なっているものもある\cite{Inui91}.7±2の研究は,単なる知的好奇心による人間の解明に役に立つだけでなく,実際の社会においても利用されうる有益な研究なのである.
\section{日本語文での調査報告}
\begin{figure}[t]\begin{center}\fbox{\begin{minipage}{7cm}\begin{center}\epsfile{file=jap.eps,height=4cm,width=7cm}\end{center}\vspace{-0.5cm}\caption{係り先が未決定の文節数の数え方}\label{fig:jap}\end{minipage}}\end{center}\end{figure}本節では実際に京大コーパスを用いて行なった調査結果を報告する.(京大コーパスは1995年の毎日新聞のデータをもとに作成されたタグつきコーパスである.)まず調査方法を述べる.本研究では文の理解とは文の係り受け構造の解析であるとみなし,文を理解するときに短期記憶に格納することが必要とされるものは,係り先が未決定な文節であると考える.図\ref{fig:jap}に例を示す.図は「その少年は小さい人形を持っている.」という文の係り受け構造を頭から解析するときに,各文節において係り先が未決定になっている文節の数を数えているものである.図の矢印は係り受け構造を示し,数字は係り先が未決定な文節の個数を示し,その下に係り先が未決定な文節として短期記憶に格納しなければならない要素を示している.この文を頭から見てみると,「その」が入ってきたときはそれの係り先はまだ決まっていないのでそれは覚えておかなければならず,係り先が未決定なものとして短期記憶に格納される.次に「少年は」が入ってきたときは,「その」は「少年は」に係るとわかり「その」単独ではもう今後係り受けの解析に利用する必要はないので単独で認識する必要はなく,「少年は」とくっつけて「その少年は」という形で認識され,結局係り先が未決定な「その少年は」が一つだけ短期記憶に格納されることになる.その次に「小さい」が入ってくる.このときは新たに係り受け関係が定まるものはないので,「その少年は」と「小さい」が短期記憶に格納される.その次の「人形を」が入ってきたときは,「小さい」は「人形を」に係るので「小さい」はもう今後単独では解析に用いられることはないので,「人形を」とくっつけて「小さい人形を」とまとめて認識され,前から覚えていた「その少年は」とあわせて二つ覚えるだけでよい.最後に文末の「持っている。」が入ってくると,すべての係り受け関係が定まるので係り先の未決定数は0となり,短期記憶に覚えていたものはすべて忘れてもよいこととなる.\begin{table}[t]\caption{係り先が未決定な文節の個数の頻度統計}\label{tab:hindo_toukei}\begin{center}\small\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|r|r|r|}\hline未決定文節数&\multicolumn{2}{c|}{頻度}\\\cline{2-3}&\multicolumn{1}{c|}{文節数}&\multicolumn{1}{c|}{文数}\\\hline0&19954&90\\1&52751&1352\\2&59494&5022\\3&38465&6823\\4&15802&4468\\5&4488&1593\\6&1143&480\\7&195&102\\8&47&17\\9&10&5\\10&3&2\\\hline\end{tabular}\end{center}\end{table}\begin{table*}[t]\vspace{-5mm}\caption{係り先が未決定な文節の個数が10であった箇所を持つ文}\label{tab:10deatta_bun}\begin{center}\small\begin{tabular}[c]{|p{13.5cm}|}\hline調べでは、同町○○(地名)、建設業、○○○○(人名)容疑者は、九月六日告示の町議選を無投票にするため、逮捕された議員十五人が出し合った現金四百五十万円を告示日の六日、同町○○○(地名)、元町議で農業の○○○○(人名)容疑者に、また百万円を告示翌日の七日、新人で出馬予定だった同町○○○(地名)、会社員、○○○○(人名)容疑者と夫の会社代表、○○(人名)容疑者の二人に渡した疑い。\\\hline国はその後、このうち二十三点の公開は「やむを得ない」と認めたものの、主に電子機器などを置いてある地下部分の資料二十一点については「ASWOCはシーレーン防衛のための中枢基地であり、公開されると国防や警備上、重大な支障が生じる」などと主張、決定の取り消しなどを要求して争ってきた。\\\hline\end{tabular}\end{center}\end{table*}本稿では,人間が文を理解する際に以上のような過程をたどると想定し,実際に係り受け構造のタグがふってある京大コーパスにおいて,実際に上記の方法で係り先が未決定な文節の数を数えあげた.その結果を表\ref{tab:hindo_toukei}に示す.この表の「文節数」の列の数字は,京大コーパス(未定義のタグがふってあった2文を除く19,954文,192,352文節)の全文節において上記の方法で係り先が未決定な文節の数を調べ,その係り先未決定文節数ごとに,文節の頻度を調べたものである.また,表の「文数」の列は,一文中で最も大きかった係り先未決定文節数をその文の係り先未決定文節数と考えて,係り先未決定文節数ごとに文の頻度を調べたものである.この表では,未決定文節数が10つまり,Millerの7±2の上限9を越える文が二つあったが,おおよそ7±2の理論の範囲でおさまっていることを意味する.7±2を越えた二つの文を表\ref{tab:10deatta_bun}に示す.これらの文は極めて読解が難解なもので真剣に読んでもなかなか理解ができない文である.7±2の上限の9を越えた文が少ないこと,また,7±2の上限の9を越えた二文も読解が難解な文であったことから,この調査結果はMillerの7±2の理論と矛盾しないものとなっている.本研究では京大コーパスの係り受けのタグにしたがって係り先が未決定な文節の個数を数えたが,京大コーパスは助詞「は」がつく文節が複数の係り先が想定される場合なるべく後ろの文節に係るようにタグづけされており,これを近くにかかるようにすれば統計結果は変化するだろう.また,接続詞など,記憶が必要でないかもしれない文節も数えてしまっている.これらに対して適切な処理を施せば,係り先の未決定な文節の個数はさらに少なくなると予想される.
\section{英語文での調査報告}
前節は日本語コーパスを用いて文の理解に必要な短期記憶の上限を調査するものだった.本節では,英語コーパスにおける調査結果について記述する.まず,Yngveにより提案されている英語コーパスでの短期記憶の容量の計算方法を述べる.次にSampsonが行なった英語のSUSANNEコーパスにおける同様な調査\cite{Sampson97}の紹介と,われわれが行なった英語のPennTreebankコーパスにおける調査結果を報告する.\begin{figure}[t]\begin{center}\fbox{\begin{minipage}{7cm}\begin{center}\epsfile{file=eng.eps,height=5.5cm,width=5cm}\end{center}\vspace{-0.5cm}\caption{スタックに蓄える非終端記号の数の数え方}\label{fig:eng}\end{minipage}}\end{center}\end{figure}英語での文の構造解析に必要な短期記憶の容量を求める方法はYngve\cite{yngve60}によってすでに提案されている.この方法は文をプッシュダウンオートマトンでトップダウンに解析する際にスタックに蓄えられるSやNPなどの非終端記号を短期記憶するべきものと考え,このスタックにつまれる記号の個数を数えるものである.図\ref{fig:eng}は``Theboyhasasmalldoll.''をプッシュダウンオートマトンで解析したときにスタックに蓄える非終端記号の数の数え方を示したものである.\begin{figure}[t]\vspace{-5mm}\begin{center}\fbox{\begin{minipage}{7cm}\begin{center}\epsfile{file=eng_1.eps,height=0.5cm,width=2cm}\end{center}\vspace{-0.5cm}\caption{各枝への数の付与の仕方}\label{fig:eng_1}\end{minipage}}\end{center}\end{figure}\begin{figure}[t]\vspace{-1mm}\begin{center}\fbox{\begin{minipage}{7cm}\begin{center}\epsfile{file=eng_3.eps,height=3cm,width=5cm}\end{center}\vspace{-0.5cm}\caption{Sampsonの変更した計算方法}\label{fig:eng_3}\end{minipage}}\end{center}\end{figure}図\ref{fig:eng_3}の下の方にある四角い箱は人間の短期記憶の格納庫に相当するスタックを表す.この文を頭から見て``The''が入ってきたときに,トップダウンで解析するのでまず最初にSから始まってSを(NPVP)に変形しVPを覚えておいてNPを(DTN)に変形してNを覚えておいてDTの部分を``The''と認識するので\footnote{\baselineskip=0.85\baselineskipこのトップダウンの認識はわれわれ日本人には若干不自然に思えるものだが,英語文の場合はボトムアップよりも,文が成立すると仮定しまた主語と述部があると仮定して読み進めるトップダウンの方が人間の文理解のモデルとしてもよいとされている\cite{Kimball73}.}$^{,}$\footnote{\baselineskip=0.85\baselineskip図\ref{fig:eng}ではNPを展開する際に(DTN)と(DTJN)の二種類が想定でき,``The''が入ってきただけではそのどちらであるかを特定できないという問題がある.また,前提とする文法ルールを変更したりすることで,構文木の表現がかわり集計結果が変わってしまう問題がある.Yngveの方法はそういう問題を持っているが,タグつきコーパスからの計数方法が非常に容易であるため本稿はそれにしたがって計数している.},都合``The''のところではVPとNの二つをスタックに覚えておく必要がある.同様な考え方でスタックに積む必要のある非終端記号は図\ref{fig:eng}のようになり各単語でのスタックに積んでおく必要のある数は図\ref{fig:eng}のように``2,1,1,2,1,0''となる.Yngveはこのスタックに積んでおく必要のある数を簡単に数える方法も示している.それは,図\ref{fig:eng}の構文木の各枝に図\ref{fig:eng_1}に示した要領で数字をふりSから単語までの経路の数字を足したものがスタックに積む個数とする方法である.``The''を見るとS,NP,DTと見て1と1があるので足して2となりスタックの数2と一致する.\begin{table}[t]\vspace{-1mm}\caption{スタックに積まれる非終端記号の個数の頻度統計(SUSANNEコーパス)}\label{tab:hindo_toukei_eng_sussane}\begin{center}\small\small\renewcommand{\arraystretch}{}\begin{tabular}[t]{|r|r|}\multicolumn{2}{c}{(a)Yngveの方法で集計}\\\hline\multicolumn{1}{|l|}{積む}&\multicolumn{1}{c|}{頻度}\\記号数&\multicolumn{1}{c|}{(単語数)}\\\hline0&7851\\1&30798\\2&34352\\3&26459\\4&16753\\5&9463\\6&4803\\7&2125\\8&863\\9&313\\10&119\\11&32\\12&4\\13&1\\\hline\end{tabular}\vspace{-5mm}\begin{tabular}[t]{|r|r|}\multicolumn{2}{c}{(b)Sampsonの変更した方法で集計}\\\hline\multicolumn{1}{|l|}{積む}&\multicolumn{1}{c|}{頻度}\\記号数&\multicolumn{1}{c|}{(単語数)}\\\hline0&55866\\1&64552\\2&12164\\3&1274\\4&76\\5&4\\\hline\end{tabular}\end{center}\vspace{3mm}\end{table}\begin{table}[t]\vspace{-3mm}\caption{スタックに積まれる非終端記号の個数の頻度統計(PennTreebankコーパス)}\label{tab:hindo_toukei_eng}\begin{center}\small\small\renewcommand{\arraystretch}{}\begin{tabular}[t]{|r|r|r|}\multicolumn{3}{c}{Yngveの方法で単語部分で集計}\\\hline\multicolumn{1}{|l|}{積む}&\multicolumn{2}{c|}{頻度}\\\cline{2-3}記号数&\multicolumn{1}{c|}{単語数}&\multicolumn{1}{c|}{文数}\\\hline0&49208&132\\1&377740&772\\2&309255&3921\\3&213294&9528\\4&103864&13324\\5&44274&11163\\6&16478&6158\\7&5750&2719\\8&1939&981\\9&661&338\\10&243&111\\11&92&29\\12&43&17\\13&15&14\\14&1&1\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\vspace{-1mm}\caption{スタックに積まれる非終端記号の個数の頻度統計(PennTreebankコーパス)}\label{tab:hindo_toukei_engb}\begin{center}\small\small\renewcommand{\arraystretch}{}\begin{tabular}[t]{|r|r|r|}\multicolumn{3}{c}{Sampsonの方法で単語部分で集計}\\\hline\multicolumn{1}{|l|}{積む}&\multicolumn{2}{c|}{頻度}\\\cline{2-3}記号数&\multicolumn{1}{c|}{単語数}&\multicolumn{1}{c|}{文数}\\\hline0&49208&132\\1&485849&1956\\2&414945&13367\\3&140611&22966\\4&28317&9124\\5&3616&1518\\6&283&133\\7&28&12\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\vspace{-0.5mm}\caption{スタックに積まれる非終端記号の個数の頻度統計(PennTreebankコーパス)}\label{tab:hindo_toukei_engc}\vspace{-2mm}\begin{center}\small\small\renewcommand{\arraystretch}{}\begin{tabular}[t]{|r|r|r|}\multicolumn{3}{c}{Yngveの方法でNP部分で集計}\\\hline\multicolumn{1}{|l|}{積む}&\multicolumn{2}{c|}{頻度}\\\cline{2-3}記号数&\multicolumn{1}{c|}{NP数}&\multicolumn{1}{c|}{文数}\\\hline0&69820&4546\\1&102337&7634\\2&74126&16847\\3&30025&11489\\4&11432&5780\\5&3336&2020\\6&963&633\\7&273&187\\8&76&51\\9&29&13\\10&13&8\\\hline\end{tabular}\end{center}\vspace{-3mm}\end{table}\begin{figure}[t]\vspace{-0.5mm}\begin{center}\fbox{\begin{minipage}{7cm}\begin{center}\epsfile{file=eng_2.eps,height=3cm,width=5cm}\end{center}\vspace{-0.5cm}\caption{並列節の各枝の数の修正方法}\label{fig:eng_2}\end{minipage}}\end{center}\end{figure}この方法を用いてSampsonはSUSANNEコーパス(約13万語)において表\ref{tab:hindo_toukei_eng_sussane}(a)の結果を得ている.表の「頻度(単語数)」はスタックに積まれる非終端記号数ごとの単語の頻度を意味している.詳細な計算方法はSampsonの論文を参照のこと.この結果では,7±2の上限9を越える文が多く存在している.そこで,Sampsonは各ノードでふられている数字を図\ref{fig:eng_3}のように変更して計数している.図\ref{fig:eng_3}のトップダウンの文の構造認識においてAを認識する際にB,C,D,Eを個々に覚えておくのではなく,B,C,D,Eをまとめて認識し覚えておくのは(B,C,D,E)の一つのセットでよい(もしくは,Aを認識する際にB,C,D,Eを個々に覚えておくのではなく,その親のノードを一個だけを覚えておく)と仮定するものである.この計数方法によりSampsonは表\ref{tab:hindo_toukei_eng_sussane}(b)の結果を得ている.この結果は7±2の下限5以下でおさえられており,Millerの7±2の理論と矛盾しないものとなっている.われわれは上記の調査をPennTreebank\cite{Marcus93}のWallStreetJournalのコーパス(49,208文,1,122,857単語)で行なってみた.SUSANNEコーパスで調査を行なわなかったのは,SUSANNEコーパスの構造が若干複雑なことと,PennTreebankの方がデータ量が多いこととSUSANNEコーパスではすでにSUSANNEコーパスの作成者のSampsonが調査を行なっていたことに起因する.PennTreebankにおける実験結果を表\ref{tab:hindo_toukei_eng}に示す.表の「単語数」はスタックに積まれる非終端記号数ごとの単語の頻度を意味し,「文数」は一文で最も多く積んだときの非終端記号数をその文の非終端記号数としたときの非終端記号数ごとの文の頻度を意味する.ただし,ピリオドなどの記号は削除し,また``and''などによって構成される並列節の表現形式がこのコーパスではスタックの非終端記号の数を余分に数えるような構造になっていたので,その部分は図\ref{fig:eng_2}のように数値をふり直すことで余分に数えなくてすむようにして数えあげた.表\ref{tab:hindo_toukei_eng}の結果は表\ref{tab:hindo_toukei_eng_sussane}(a)の結果とよく似ていることがわかる.この結果でも7±2の上限9を越える文が多く存在することが気になる.そこで,Sampsonの修正した方法で計数してみた.その結果を表\ref{tab:hindo_toukei_engb}に示す.SampsonのSUSANNEコーパスでの結果では5でおさえられていたが,PennTreebankの結果では7のものもあることがわかる.われわれはさらにYngveとSampsonと異なる英語コーパスにおける新しい計数方法を考えた.これは,日本語では文節を単位としてカウントし英語では単語を単位としてカウントするのは若干不公平ではないだろうかという考えに基づく.そのわれわれの方法は,人間は日本語の文節のように個々の単語にまで分解せずにNP程度のものはまとめて認識すると仮定してNPの部分におけるスタックの数を勘定するものである.つまり,SからNPにいたる経路に書いてある数字を足しあわせたものを用いて集計した.その結果を表\ref{tab:hindo_toukei_engc}に示す.この結果では,10のものがありMillerの7±2を逸脱している文もいくつかあるが,表\ref{tab:hindo_toukei}の日本語文での結果とよく似ており,またMillerの7±2のプラス2の部分に相当する8,9の文もあるということで我々の計数方法も有力ではないかと考えている.いずれにせよ,Yngveの方法のまま計数すればMillerの7±2の理論を満足しないが,Sampsonの新しい計数方法か我々の新しい計数方法を採用すれば,Millerの7±2と矛盾しない説明をつけることができることがわかる.また,Sampsonの計数方法に比べわれわれの計数方法は以下の二つの利点がある.\begin{itemize}\itemわれわれの英語における計数方法は,計数の単位に文節に対応するNPを考慮するものであり,われわれの日本語における計数方法から学んだものであるという理由づけがある.\itemSampsonの方法だとMillerの7±2の7あたりまで(SUSANNEコーパスでは5あたりまで)しか出現しないことになるが,われわれの方法ではMillerの7±2の8,9あたりの文も出現している.\end{itemize}\vspace{-1.5mm}
\section{おわりに}
GeorgeA.Millerは人間の短期記憶の容量は7±2程度のスロットしかないことを提唱している\cite{miller56}.本研究では,京大コーパス\cite{kurohashi_nlp97}を用いて日本語文の各部分において係り先が未決定な文節の個数を数えあげ,その個数がおおよそ7±2の上限9程度でおさえられていたことを報告した.また,英語文でも同様な調査を行ないNP程度のものをまとめて認識すると仮定した場合7±2の上限9程度でおさえられていたことを確認した.これらのことは,文理解における情報の認知単位(チャンク)として日本語と英語で文節,NPといったフレーズという同程度のものを仮定すると,Millerの7±2の理論と,言語解析・生成において短期記憶するものは7±2程度ですむというYngveの主張を整合性よく説明できることを意味する.最後に本論文で得られた知見を再度整理しておくと以下のようになる.\begin{itemize}\item日本語文の統語構造認識に関する調査結果において,文節を認知単位とするとMillerの7±2の理論と矛盾しない.\item英語文の調査結果においてNPレベルを認知単位とするとMillerの7±2の理論と矛盾しない.このことから,NPレベルを認知単位とするとよさそうであることが推測される.また,日本語文では文節を認知単位としており,文節と同レベルのNPレベルを認知単位とするのは自然なように思える\footnote{正しいかどうかはわからないが,われわれの直観としては,短期記憶から長期記憶の意味ネットワークへの変換過程で格にとられるもの,格をとるものといったものが認知単位になるように思われるため,その直観から日本語と英語で同じフレーズというものが認知単位になるのは自然に感じられる.}.\item上記二つを仮定すると,日本語文,英語文の調査結果と,Millerの7±2の理論・Yngveの主張(言語解析・生成において短期記憶するものは7±2程度ですむという主張)は矛盾しないものとなる.このことから,Millerの7±2の理論・Yngveの主張が必ず正しいということが証明されるわけではないが,矛盾しない事柄が増えたという意味で理論・主張が補強されたことになる.言語処理の立場からすると,Yngveの主張が正しければ「言語解析・生成において短期記憶するものは7±2程度である」ことを実際のシステム作りに役立てることができることになる.\end{itemize}\section*{謝辞}本研究の初期の段階において京大長尾真総長と議論した.また,慶応大学メディアセンターの榎沢康子さんには文献検索において非常にお世話になった.また,郵政省通信総研の藤原伸彦研究員には心理学の基礎的な事柄について教わった.ここに感謝する.\bibliographystyle{jnlpbbl}\bibliography{v06n7_03}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.研究官.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所,郵政技官.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{馬青}{1983年北京航空航天大学自動制御学部卒業.1987年筑波大学大学院理工学研究科修士課程修了.1990年同大学院工学研究科博士課程修了.工学博士.1990$\sim$93年株式会社小野測器勤務.1993年郵政省通信総合研究所入所,主任研究官.人工神経回路網モデル,知識表現,自然言語処理の研究に従事.日本神経回路学会,言語処理学会,電子情報通信学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V17N04-08 | \section{はじめに}
現在,機械翻訳システムの分野において,対訳データから自動的に翻訳モデルと言語モデルを獲得し統計的に翻訳を行う,統計翻訳が注目されている.翻訳モデルは,原言語の単語列から目的言語の単語列への翻訳を確率的に表現するモデルである.言語モデルは,目的言語の単語列に対して,それらが起こる確率を与えるモデルである.翻訳モデルには,大きくわけて語に基づく翻訳モデルと句に基づく翻訳モデルがある.初期の統計翻訳は,語に基づく翻訳モデルであった.語に基づく翻訳モデルでは,原言語の単語から目的言語の単語の対応表を作成する.対応する単語が無い場合はNULLMODELに対応させる~\cite{IBM}.しかし,翻訳文を生成する時,NULLMODELに対して,全ての単語の出現を仮定する必要がある.これが翻訳精度が低下する原因の一つになっていた.そのため現在では句に基づく翻訳モデルが主流になっている~\cite{PSMT}.句に基づく翻訳モデルは,原言語の単語列から目的言語の単語列の翻訳に対して確率を付与する.また,NULLMODELは使用しない.そして,原言語の単語列から目的言語の単語列への翻訳を,フレーズテーブルで管理する.しかし,フレーズテーブルのフレーズ対はヒューリスティクを用いて自動作成されるため,一般にカバー率は高いが信頼性は低いと考えられる.また,フレーズテーブルのフレーズ対は,確率値の信頼性を高めるため,短いフレーズ対に分割される.そのため,長いフレーズ対は少ない.ところで,日英翻訳では,過去に手作業で作成した日本語の単語列から英語の単語列への翻訳対が大量に作成されている.この翻訳対の信頼性は高いと考えられる.しかし自動作成されたフレーズ対と比較すると,カバー率は低い.そこで,本研究では,それぞれの長所を生かすために,プログラムで自動作成したフレーズ対に手作業で作成された翻訳対を追加することで翻訳精度の向上を目指した.本研究では,手作業で作成した原言語の単語列から目的言語の単語列への翻訳対を,自動的に作成したフレーズテーブルに追加する.この追加されたフレーズテーブルを利用して日英翻訳の精度向上を試みる.実験では,日英重複文文型パターン辞書~\cite{tori}の対訳文対から得られた翻訳対を利用する.手作業で作成された約13万の翻訳対に翻訳確率を与え,プログラムで自動作成したフレーズテーブルに追加する.この結果,BLEUスコアが,単文では12.5\%から13.4\%に0.9\%向上した.また重複文では7.7\%から8.5\%に0.8\%向上した.また得られた英文100文に対し,人間による対比較実験を行ったところ,単文では,従来法が5文であるのに対し提案法では23文,また重複文では,従来法が15文であるのに対し提案法では35文,翻訳精度が良いと判断された.これらの結果から,自動作成されたフレーズテーブルに手作業で作成された翻訳対を追加する,提案手法の有効性が示された.
\section{統計翻訳システム}
\subsection{基本概念}日英の統計翻訳は,日本語文$j$が与えられたとき,全ての組合せの中から確率が最大になる英語文$\hat{e}$を探索することで翻訳を行う~\cite{IBM}.以下にその基本式を示す.\[\hat{e}=argmax_{e}P(j|e)P(e)\]$P(j|e)$は翻訳モデル,$P(e)$は言語モデルと呼ぶ.翻訳モデルは日本語と英語が対になった対訳コーパスから学習して作成する.また,言語モデルは,出力文側の言語である英語コーパスから学習して作成する.デコーダは言語モデルと翻訳モデルを用いて,尤度の最も高い英文を生成する.\subsection{翻訳モデル}\begin{table}[b]\caption{フレーズテーブルの例}\label{tbl:フレーズテーブルの例}\input{09table01.txt}\end{table}翻訳モデルは,日本語の単語列から英語の単語列または英語の単語列から日本語の単語列へ,確率的に翻訳を行うモデルである.翻訳モデルには,大きくわけて語に基づく翻訳モデルと句に基づく翻訳モデルがある.初期の統計翻訳では,語に基づく翻訳モデルを用いていたが,現在は句に基づく翻訳モデルが翻訳精度が高いため主流になっている.句に基づく翻訳モデルでは,日本語や英語の単語列と確率は,フレーズテーブルで管理される~\cite{moses}.表\ref{tbl:フレーズテーブルの例}にフレーズテーブルの例を示す.このテーブルは,左から,``日本語フレーズ'',``英語フレーズ'',``フレーズの英日翻訳確率$P(j|e)$'',``英日方向の単語の翻訳確率の積'',``フレーズの日英翻訳確率$P(e|j)$'',``日英方向の単語の翻訳確率の積''である.\subsection{フレーズテーブルの作成法}句に基づく翻訳モデルは,原言語の単語列から目的言語の単語列の翻訳に対して確率を付与する.これをフレーズテーブルで管理する.以下に作成手順について説明する.\begin{description}\item[手順1]単語alignmentの計算(日英,英日)まず,IBMモデル~\cite{IBM}を利用することで,単語alignmentを得る.これを英日,日英の両方向に対して行う.つまり,学習データに対して,英日方向の単語alignmentと日英方向の単語alignmentを計算する.このtoolとしてGIZA++~\cite{giza}が用いられる.\item[手順2]単語列alignmentの計算(unionとintersection)次に,英日・日英両方向の単語alignmentから,英日・日英両方向に1対多の対応を認めた単語列alignmentを求める.この単語列alignmentは英日・日英両方向の単語対応の積集合(intersection)と和集合(union)を利用してヒューリスティックスで求める~\cite{Och}.尚,積集合(intersection)は,両方向ともに単語alignmentが存在する場合のみ単語列alignmentを残し,和集合(union)は,少なくとも片方向に単語alignmentが存在する場合に単語列alignmentを残す.対称な単語列対応を求めるヒューリスティックス(grow-diag-final)は,まず積集合から始まり,和集合にしかない単語対応が妥当であるかを判断しながら,単語対応を徐々に加える~\cite{tsukuba}.なお通常の統計翻訳では,grow-diag-finalが利用されている.\begin{table}[b]\caption{対訳文の例}\label{対訳文の例}\input{09table02.txt}\end{table}\item[手順3]フレーズテーブルの抽出単語列alignmentから,ヒューリステックを用いて日本語単語列と英語単語列のフレーズ対を得る.そのフレーズ対に対して翻訳確率を計算してフレーズテーブルを作成する.表\ref{対訳文の例}を学習データとしたとき,grow-diag-finalで作成されたフレーズテーブルを表\ref{tbl:作成されたフレーズテーブルの例(grow-diag-final)}に示す.また,intersectionで作成されたフレーズテーブルを表\ref{tbl:作成されたフレーズテーブルの例(intersection)}に示す.パラメータintersectionで作成したフレーズテーブルは,多くのフレーズ対を持ち,かつ長いフレーズ対を含むことが分かる.\end{description}\begin{table}[t]\caption{grow-diag-finalで作成されたフレーズテーブル(全12フレーズ)}\label{tbl:作成されたフレーズテーブルの例(grow-diag-final)}\input{09table03.txt}\end{table}\begin{table}[t]\caption{intersectionで作成したフレーズテーブルの例(全185フレーズから一部抜粋)}\label{tbl:作成されたフレーズテーブルの例(intersection)}\input{09table04.txt}\end{table}\subsection{言語モデル}言語モデルは,目的言語の単語列に対して,それらが起こる確率を与えるモデルである.日英翻訳では,より英語らしい文に対して高い確率を与えることで,翻訳モデルで翻訳された訳文候補の中から英語として自然な文を選出する.言語モデルとしては$N$-gramモデルが代表的である.尚,学習データに表れない単語連鎖確率値を0.0とすると,テストデータにおいて,目的言語の全ての単語列の確率が0.0になって,単語列が出力されないことがある.そのため,学習データに存在しない単語連鎖確率は,スムージングによって0.0以外の確率を割り当てる.代表的なスムージング法として,BackoffやKneser-Neyがある.これらは高次の$N$-gramに,低次の$N$-gramと閾値を掛けて利用する.\subsection{デコーダ}デコーダは翻訳モデルと言語モデルの確率が最大となる文を探索し,出力する.デコーダとしてmoses~\cite{moses}が代表的である.mosesはいくつかのパラメータを設定することが出来る.mosesで設定できるパラメータの例を以下に示す.\begin{itemize}\itemweight-l…言語モデルの重み\itemweight-t…翻訳モデルの重み\itemweight-d…単語の移動の距離の重み\itemweight-w…目的言語の長さに関するペナルティ\itemdistortion-limit…フレーズの並び変えの範囲の制限値\end{itemize}これらのパラメータは,パラメータチューニング(\ref{sec:papametertuning}節)を行うことで最適値を求めることが出来る.\subsection{パラメータチューニング}\label{sec:papametertuning}正解があるdevelopmentデータに対して評価値を最大にするように,デコーダのパラメータを最適化することができる.これをパラメータチューニングと呼ぶ.この方法として,MinimumErrorRateTraining(MERT)~\cite{mert}が一般的によく利用される.MERTは,developmentデータの,各文について上位$N$個(通常100個)の翻訳候補を出力し,目的の評価値(通常BLEU)を最大にするようにデコーダのパラメータの値を調節する.通常,パラメータチューニングを行うと,テストデータのBLEUスコアは上昇する.しかし,実験条件を変更するたびに,パラメータチューニングを行うと,多くの時間がかかる.また,本研究では,全ての実験において,実験条件を同一にする必要がある.そのため,パラメータの最適化は行わない.
\section{自動的に作成したフレーズテーブルへの翻訳対の追加(提案方法)}
\subsection{翻訳対への翻訳確率の付与}手作業で作成された翻訳対を,自動的に作成したフレーズテーブルに追加するために,翻訳対に翻訳確率を付与する必要がある.この翻訳確率として,自動作成したフレーズテーブルの翻訳確率を利用する.ただし,フレーズテーブルを作成するときにパラメータgrow-diag-finalを用いると,確率が付与される翻訳対は少ない.そこで,翻訳確率を与えるためのフレーズテーブルには,多くのフレーズ対を作成するパラメータintersectionを用いて作成する.\subsection{翻訳対の追加手順}手作業で作成した翻訳対をフレーズテーブルに追加する手順を図\ref{fig:手作業で作成したフレーズ対への確率値の付与方法}に示す.\begin{figure}[t]\begin{center}\includegraphics{17-4ia9f1.eps}\end{center}\caption{手作業で作成したフレーズ対への確率値の付与方法}\label{fig:手作業で作成したフレーズ対への確率値の付与方法}\end{figure}手作業で作成した翻訳対をフレーズテーブルに追加する手順を以下に示す.\begin{table}[t]\caption{パラメータintersectionで作成したフレーズテーブルの例}\label{tbl:パラメータintersectionで作成したフレーズテーブルの例}\input{09table05.txt}\end{table}\begin{description}\item[手順1]前処理日英重複文文型パターン辞書~\cite{tori}から対訳文を抽出し``chasen~\cite{chasen}''で形態素解析を行う.英語文に対しては大文字の小文字化を行う.また,句読点の前にスペースを入れる.前処理を行った後の対訳文の具体例を表\ref{tbl:対訳文の例}に示す.\item[手順2]intersectionを用いたフレーズテーブルの作成手順1で抽出した対訳文を用いてフレーズテーブルを作成する.作成時のパラメータにはintersectionを用いる.作成したフレーズテーブルの例を表\ref{tbl:パラメータintersectionで作成したフレーズテーブルの例}に示す.\item[手順3]手作業で作成した翻訳対への翻訳確率値を付与手順2で作成したフレーズテーブルを参照して,手作業で作成した翻訳対に翻訳確率値を付与する.翻訳対が``オーバーコートを脱ぎ捨て$|||$flunghiscoatoff''の場合は1行目のフレーズ対の翻訳確率値``0.53.88199e-080.56.46865e-06''を付与する.\item[手順4]grow-diag-finalをもちいたフレーズテーブルの作成手順1で抽出した対訳文を用いてフレーズテーブルを作成する.作成時のパラメータにはgrow-diag-finalを用いる.作成したフレーズテーブルの例を表\ref{tbl:パラメータgrow-diag-finalで作成したフレーズテーブルの例}に示す.\item[手順5]フレーズテーブルの追加\pagebreak手順4で作成したフレーズテーブルに,手順3で作成した翻訳確率を付与した翻訳対を追加する.\end{description}\begin{table}[t]\caption{パラメータgrow-diag-finalで作成したフレーズテーブルの例}\label{tbl:パラメータgrow-diag-finalで作成したフレーズテーブルの例}\input{09table06.txt}\end{table}\begin{table}[t]\caption{確率値を付与した翻訳対を追加したフレーズテーブルの例}\label{tbl:確率値を付与した翻訳対を追加したフレーズテーブルの例}\input{09table07.txt}\end{table}尚,本稿では,手順4で作成したフレーズテーブルを用いた翻訳をベースラインと呼び,手順5のフレーズテーブルを用いた翻訳を提案手法と呼ぶ.
\section{翻訳実験}
\label{翻訳実験の結果}翻訳実験は,単文と重複文の2種類で行う.\subsection{学習データ}\label{sec:trainingdata}単文の翻訳実験には,電子辞書などから抽出した単文10万文対~\cite{murakami}を学習データとして用いる.重複文の翻訳実験には日英重複文文型パターン辞書~\cite{tori}から抽出した対訳文対,121,913文対を用いる.尚,単文10万文は,日本語が単文であるが,対訳英文は単文とは限らず複文の場合もある.重複文121,913文は,日本文が重文もしくは複文であるが,英文は複文とは限らず単文である場合もある.前処理[手順1]を行った対訳文の例を表\ref{tbl:対訳文の例}に示す.\subsection{手作業で作成された翻訳対}\label{sec:translationpair}手作業で作成された翻訳対は,日英重複文文型パターン辞書~\cite{tori}から抽出した対訳コーパスから作成された翻訳対261,453個を用いる.この翻訳対は,プロの翻訳者が手動で作成した対訳対で,単語,句,節の単位で対応づけられている.また,この翻訳対は日本語文が重複文で英語が単文もしくは重複文である対訳コーパスから抽出されている.文献~\cite{ikehara}に,この翻訳対の詳しい説明がある.基本的には,日本語文と英語文の対訳文から日本語パターンと英語パターンを作成する.このとき,作成できる日英翻訳対を利用する.翻訳対の抽出において,長さの制限は行っていない.また,重複する句は抽出していない.例を表\ref{tbl:翻訳対の作成例}に示す.\begin{table}[t]\caption{対訳文の例}\label{tbl:対訳文の例}\input{09table08.txt}\end{table}\begin{table}[t]\caption{翻訳対の作成例}\label{tbl:翻訳対の作成例}\input{09table09.txt}\end{table}手作業で作成された翻訳対の例を表{\ref{tbl:手作業で作成された翻訳対の例}}に示す.翻訳対の分布図を図{\ref{fig:手作業で作成した翻訳対の単語数の分布図}}に示す.この図では,縦軸が全体に占める割合で,横軸が1つの翻訳対における単語数である.日本語における単語数を■,英語における単語数を□で示している.これからわかるように,2単語のフレーズが最も多く,単語数と,その単語数がしめる割合は,zipfの法則に沿っていることがわかる.なお,本稿では,手作業で作成された単語列の対訳対を翻訳対と呼ぶ.\subsection{テストデータ}\label{sec:testdata}テストデータには,電子辞書などから抽出した単文1,000文対~\cite{murakami}を用いる.重複文の翻訳実験には日英重複文文型パターン辞書~\cite{tori}から抽出した対訳文対1,000文対を用いる.ただし,テストデータは学習データ(\ref{sec:trainingdata}節)や手作業で作成された翻訳対(\ref{sec:translationpair}節)と,別の辞書を利用する.従って,テストデータは,学習データや翻訳対に対してopendataとなる.\begin{table}[t]\caption{手作業で作成された翻訳対の例}\label{tbl:手作業で作成された翻訳対の例}\input{09table10.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{17-4ia9f2.eps}\end{center}\caption{手作業で作成した翻訳対の単語数の分布図}\label{fig:手作業で作成した翻訳対の単語数の分布図}\vspace{-1\baselineskip}\end{figure}\subsection{翻訳モデルと言語モデルとデコーダ}\begin{enumerate}\item{フレーズテーブルの作成}翻訳モデルはフレーズテーブルで管理される.フレーズテーブルの作成には,train-phrase-model.perl~\cite{pharaoh}を用いて自動的に作成する.尚,本稿では,プログラムで自動作成した単語列の対訳対をフレーズ対と呼ぶ.また,フレーズ対の最大の単語数を決めるmaxphraselengthは20とする.\item{$N$-gramモデルの学習}言語モデルには,$N$-gramモデルを用いる.$N$-gramモデルの学習には,``SRILM~\cite{srilm}''を用いる.本研究では5-gramモデルを用いる.また,スムージングのパラメータには,Kneser-Neyである``-ukndiscount''を用いる.\item{デコーダ}デコーダは``moses~\cite{moses}''を用いる.また,翻訳モデルには,日英翻訳確率と英日翻訳確率の相互情報を用いる~\cite{closs}.したがって,翻訳モデルの重み``weight-t''は``0.500.500''とする.また,翻訳時にフレーズの位置の変化に柔軟に対応するため,単語の移動重み``weight-d''は0.2とする.また単語の移動距離の制限``distortion-limit''は,$-1$(無制限を意味)とする.その他は,default値とする.\end{enumerate}\subsection{評価方法}評価は,コンピュータによる自動評価と人間による評価の,2種類で行う.\begin{enumerate}\item{自動評価}機械翻訳システムの翻訳精度を自動評価する手法として,あらかじめ実験者が用意した正解文と,翻訳システムが出力した文とを比較する手法が利用されている.この自動評価法には多くの方法が提案されている.本研究では,$N$-gramを用いたBLEU~\cite{BLEU}と類似単語辞書を用いたMETEOR~\cite{METEOR}を用いる.\item{人間による評価}人間による評価として,対比較実験を行う.得られた英文から100文をランダムに抽出し,ベースラインの翻訳結果と提案手法の翻訳結果のどちらの翻訳結果が優れているかを人間で判断する.その際,本研究において固有名詞の未知語はローマ字変換して評価し,それ以外の未知語は存在しないとして評価を行う.\end{enumerate}\begin{table}[b]\vspace{-1\baselineskip}\caption{総フレーズ数}\label{tbl:総フレーズ数}\input{09table11.txt}\end{table}\subsection{実験結果フレーズテーブルの増加数}ベースラインのフレーズ数,確率値が付与できた翻訳対の数,最終的に作成されたフレーズ数を表\ref{tbl:総フレーズ数}に示す.手作業で作成された翻訳対は,261,453対であった.しかし約半数以上に対して確率値を付与できなくて,削除されていることがわかる.また,提案法におけるフレーズテーブルのフレーズ数は,ベースラインと比較すると約2割増加している.確率が付与された翻訳対の例を表\ref{tbl:確率値が付与された翻訳対の例}に示す.\subsection{実験結果翻訳精度の評価}\label{subsec:翻訳精度の評価}\begin{enumerate}\item{自動評価}日英翻訳のテストデータには,単文1,000文と重複文1,000文を用いる.ベースラインと提案手法の翻訳精度の自動評価の結果を表\ref{tbl:日英翻訳の実験結果(テストデータ1,000文)}に示す.結果から,単文,重複文のいずれの翻訳においても提案手法の翻訳精度が向上していることが分かる.\begin{table}[b]\caption{確率値が付与された翻訳対の例}\label{tbl:確率値が付与された翻訳対の例}\input{09table12.txt}\end{table}\begin{table}[b]\caption{実験結果(テストデータ1,000文)}\label{tbl:日英翻訳の実験結果(テストデータ1,000文)}\input{09table13.txt}\end{table}\begin{table}[b]\caption{対比較実験の結果}\label{tbl:対比較実験の結果}\input{09table14.txt}\end{table}\item{人間による対比較実験}\label{sec:対比較実験}表\ref{tbl:日英翻訳の実験結果(テストデータ1,000文)}の日英翻訳結果からランダムに抽出した100文に対して,人間による対比較実験を行う.対比較実験において,ベースラインの翻訳結果の方が,優れていると評価した文を,``提案手法×''とする.提案手法の翻訳結果が,ベースラインの翻訳結果より優れていると評価した文を,``提案手法○''とする.また,ベースラインと提案手法で翻訳結果が変化しなかった文を``変化無し''とする.対比較実験の結果を表\ref{tbl:対比較実験の結果}に示す.結果から,全ての翻訳において,提案手法が優れている割合が高くなっていることが分かる.\end{enumerate}
\section{翻訳対の翻訳確率の重みの最適化}
\label{sec:翻訳対の翻訳確率の重みの最適化}\ref{翻訳実験の結果}章の実験では,手作業によって作成した翻訳対に,パラメータintersectionで作成した翻訳確率を付与した.しかし,手作業で作成された翻訳対は信頼性が高いと考えられる.そこで,翻訳対に付与する翻訳確率の重みを大きくした方が翻訳精度が向上すると考えられる.そこで,翻訳対に付与する翻訳確率の重みを大きくした実験を行う.\subsection{翻訳確率の重みを変えた翻訳実験}単文および重複文の翻訳実験において,手作業で作成した翻訳対の翻訳確率の重みを2倍,4倍,8倍に変化させたときの,BLEUスコアとMETEORの変化を調査する.結果を表\ref{tbl:翻訳確率の重みを変化させた時の翻訳実験結果}に示す.\begin{table}[b]\caption{翻訳確率の重みを変化させた時の翻訳実験結果}\label{tbl:翻訳確率の重みを変化させた時の翻訳実験結果}\input{09table15.txt}\end{table}\begin{table}[b]\caption{対比較実験の結果}\label{tbl1:対比較実験の結果}\input{09table16.txt}\end{table}日英の翻訳において,単文の翻訳時には翻訳確率の重みを2倍,重複文の翻訳時には8倍にした時に翻訳精度がもっとも良かった.最適な翻訳確率の重みを用いたときの提案手法の翻訳精度と,ベースラインの翻訳精度の差を比較した場合,BLEUでは,単文で0.9\%,重複文で0.8\%向上していることがわかる.\subsection{対比較実験}\label{sec1:対比較実験}表\ref{tbl:翻訳確率の重みを変化させた時の翻訳実験結果}の翻訳結果100文に対して,表\ref{tbl:対比較実験の結果}と同じ条件で対比較実験を行った結果を表\ref{tbl1:対比較実験の結果}に示す.表\ref{tbl:対比較実験の結果}と比較すると,特に重複文において改善が見られる.\subsection{対比較実験の解析}表\ref{tbl1:対比較実験の結果}における対比較実験の例文を以下に示す.\begin{enumerate}\item{提案手法が優れている例}提案手法が優れていると評価した例を表\ref{tbl1:対比較実験の結果提案手法が優れていると評価した例(日英翻訳の単文)}に示す.\begin{table}[b]\caption{提案手法が優れていると評価した例}\label{tbl1:対比較実験の結果提案手法が優れていると評価した例(日英翻訳の単文)}\input{09table17.txt}\end{table}\item{提案手法が劣っていると評価した例}提案手法が劣っていると評価した例を表\ref{tb11:対比較実験の結果提案手法が劣ると評価した例(日英翻訳の単文)}に示す.\end{enumerate}\begin{table}[t]\caption{提案手法が劣ると評価した例}\label{tb11:対比較実験の結果提案手法が劣ると評価した例(日英翻訳の単文)}\input{09table18.txt}\end{table}\subsection{パラメータを最適化した翻訳実験}\begin{enumerate}\item{パラメータの最適化}通常,統計翻訳においては,翻訳精度の向上を目的として,パラメータの最適化を行う.この節では,パラメータの最適化を行ったときの,提案方法の有効性を調査する.パラメータの最適化には,MinimumErrorRateTraining(MERT)~\cite{mert}を用いる.尚,フレーズテーブルの作成にはmosesに付属しているtrain-factored-phrase-model.perlを用いる.また,reorderingモデルも組み込む.\item{developmentデータ}developmentデータは,単文の実験も重複文の実験も,テストデータ(\ref{sec:testdata}節)と同一の辞書から抽出したデータを利用する.単文の翻訳実験には,developmentデータに単文100文を使用してパラメータの最適化を行う.重複文の翻訳実験にはdevelopmentデータに重複文1,000文を使用してパラメータの最適化を行う.\item{翻訳実験の結果}翻訳実験の結果を表\ref{tbl:最適化したパラメータを用いた実験結果}に示す.表{\ref{tbl:最適化したパラメータを用いた実験結果}}の結果から,パラメータの最適化を行った翻訳実験においても,BLEUが単文において0.9\%,重複文において0.2\%上昇し,提案手法の有効性が示された.\end{enumerate}\begin{table}[t]\caption{パラメータチューニングを行った実験結果}\label{tbl:最適化したパラメータを用いた実験結果}\input{09table19.txt}\end{table}
\section{考察}
\subsection{提案手法の効果の分析}表\ref{sec1:対比較実験}の対比較実験の結果において,翻訳結果が変化した78文中,58文が提案手法が優れていると評価した.この評価の理由として,妥当な語順による向上と未知語の減少に分けることが出来る.以下にその分析結果を述べる.\begin{enumerate}\item{妥当な語順による向上}提案手法の翻訳結果がベースラインと比較して,妥当な語順となって文質が向上したと判断した例を表\ref{tbl:妥当な語順の例日英翻訳}に示す.\item{未知語の減少}未知語が減少したことにより翻訳精度が向上した例を表\ref{tbl:未知語が減少した例日英翻訳}に示す.\item{妥当な語順になった文と未知語が減少した文の比較}提案手法が優れていると評価した58文において,未知語が減少した文数と,妥当な語順になった文数を表\ref{tbl:文質が向上した文数と未知語が減少した文数の比較}に示す.表\ref{tbl:文質が向上した文数と未知語が減少した文数の比較}から,約8割の文が,未知語の減少よりも妥当な語順になって翻訳精度が向上していると判断された.つまり,提案手法の有効性は,主に妥当な語順になった文の増加にあると言える.\end{enumerate}\begin{table}[t]\caption{妥当な語順による向上例}\label{tbl:妥当な語順の例日英翻訳}\input{09table20.txt}\end{table}\subsection{今後の課題}今後の課題として,以下の項目がある.\begin{enumerate}\item{手作業で作成された翻訳対の翻訳確率の最適化}手作業で作成された翻訳対は信頼性が高いため,翻訳確率値が大きい方が,高い翻訳精度が得られると考え,第\ref{sec:翻訳対の翻訳確率の重みの最適化}章において翻訳対に付与した翻訳確率の重みを変化させて翻訳実験を行った.この結果,翻訳精度が向上した(表\ref{tbl:翻訳確率の重みを変化させた時の翻訳実験結果}).しかし,重みを大きすぎると翻訳精度が低下した.この結果から,重みの最適化が必要であると考えている.そして,この重みの最適化にMERTが使用できると考えている.\item{翻訳確率値を付与できなかった翻訳対の追加}本研究では約26万個の手作業で作成された翻訳対のうち,約13万個の翻訳対に翻訳確率値を付与できた.そして,翻訳確率値を付与できなかった翻訳対約13万個は,削除した.そこで,翻訳確率値を付与できなかった翻訳対約13万個に対して,翻訳確率として閾値を与えて,翻訳実験を行った.しかし,どのような閾値を与えても,BLEU,METEORともに低下した.今後,確率を付与できなかった翻訳対の,確率の付け方を考えてみたい.\item{述語節に関する翻訳対の追加}翻訳において,述語節が正しく翻訳されているか否かは,人間の評価において重要な判断要素となりやすい.つまり,述語節が正しく翻訳されると,文の意味が分かりやすくなり,人間による翻訳精度の評価が向上する,そこで,今後は特に,述語節に関する翻訳対を追加し,翻訳精度の調査を行いたいと考えている.また,英辞郎~\cite{eijiro}には,手作業によって作成された200万以上の日英の翻訳対がある.これを利用することでさらに翻訳精度が向上すると考えている.\end{enumerate}\begin{table}[t]\caption{未知語が減少した例}\label{tbl:未知語が減少した例日英翻訳}\input{09table21.txt}\end{table}\begin{table}[t]\caption{妥当な語順になった文数と未知語が減少した文数の比較}\label{tbl:文質が向上した文数と未知語が減少した文数の比較}\input{09table22.txt}\end{table}
\section{おわりに}
本研究では,手作業で作成した信頼性の高い翻訳対を,プログラムで自動作成したフレーズテーブルに追加して,単文と重複文における日英翻訳の精度評価を行った.約13万の翻訳対を追加し,追加した翻訳対の翻訳確率の重みを変えた結果,BLEUスコアが日英翻訳において,単文では12.5\%から13.4\%に0.9\%向上した.また重複文では7.7\%から8.5\%に0.8\%向上した.また出力英文100文に対し人間による対比較実験を行ったところ,単文では,従来法が良いと判断された文が5文であるのに対し,提案法では23文,また重複文では,従来法が良いと判断された文が15文であるのに対し,提案法では35文となった.以上の結果から,提案手法の有効性が示された.今回の実験では日英重複文文型パターン辞書~\cite{tori}の対訳文対から,手作業で作成した翻訳対を追加した.今後は他の辞書の翻訳対も追加して,翻訳精度の調査をすることを考えている.また,追加する翻訳対の翻訳確率値に対する重みの最適化の方法についても考えていく.\acknowledgment日英重複文文型パターン辞書の対訳文対や,この対訳対から得られる翻訳対の作成には,多くの方の協力を得ました.基本的には鳥バンクの作成において関連した方々です.特に,以下の人に厚くお礼を申し上げます(順不同).白井諭,藤波進,小見佳恵,阿部さつき,木村淳子,竹内奈央,小船園望(以上NTT-AT),池田尚志(岐阜大学),佐良木昌(長崎純心大),新田義彦(日本大学),柴田勝征(福岡大学),山本理恵(鳥取大学工学部:事務局),大山芳史(NTT-CS研),衛藤純司(ランゲージウエア)\begin{thebibliography}{99}\bibitem{IBM}Brown,PeterF.,JohnCocke,StephenDellaPietra,VincentJ.DellaPietra,FrederickJelinek,JohnD.Lafferty,RobertL.Mercer,andPaulS.Roossin(1990).``AStatisticalApproachtoMachineTranslation.''\textit{ComputationalLinguistics},\textbf{16}(2),pp.~7985.\bibitem{PSMT}PhilippKoehn,FranzJ.Och,andDanielMarcu(2003).``Statisticalphrase-basedtranslation'',\textit{HLT-NAACL2003},pp.~127--133.\bibitem{tori}鳥バンク,``http://unicorn.ike.tottori-u.ac.jp/toribank/'',2007.\bibitem{moses}PhilippKoehn,MarcelloFederico,BrookeCowan,RichardZens,ChrisDyer,OndejBojar,AlexandraConstantin,andEvanHerbst(2007).``Moses:OpenSourceToolkitforStatisticalMachineTranslation'',In\textit{ProceedingsoftheACL2007DemoandPosterSessions},pp.~177--180.\bibitem{giza}FranzJosefOch,andHermannNey(2003).``ASystematicComparisonofVariousStatisticalAlignmentModels.''\textit{ComputationalLinguistics},\textbf{29}(1),pp.~19--51,2003.\bibitem{Och}FranzJosefOchandHermannNey(2003).``Asystematiccomparisonofvariousstatisticalalignmentmodels.''\textit{ComputationalLinguistics},\textbf{29}(1),pp.~19--51.\bibitem{tsukuba}山本幹雄,藤井敦,内山将夫,宇津呂武仁(2007).統計的機械翻訳における特許文翻訳に関する講習会,pp.~11.\bibitem{mert}FranzJosefOch(2003).``MinimumErrorRateTraininginStatisticalMachineTranslation.''In\textit{Proceedingsofthe41stAnnualMeetingoftheAssociationforComputationalLinguistics},pp.~160--167.\bibitem{chasen}松本裕治(2000).形態素解析システム「茶筌」,情報処理\textbf{41}(11),pp.~1208--1214.\bibitem{ikehara}池原悟(2009).非線形言語モデルによる自然言語処理,岩波書店,ISBN978-4-00-005882-7,pp.~220--242.\bibitem{murakami}村上仁一,池原悟,徳久雅人(2002).日本語英語の文対応の対訳データベースの作成,第7回「言語,認識,表現」年次研究会.\bibitem{pharaoh}NAACL(2006).``WorkshoponStatisticalMachineTranslationSharedTask,ExploitingParallelTextsforStatisticalMachineTranslationSharedTaskBaselineSystem,training-release-1.3.tgz''.http://www.statmt.org/wmt06/shared-task/baseline.html\bibitem{srilm}AndreasStolcke(2002).``SRILM---AnExtensibleLanguageModelingToolkit'',In\textit{ProceedignsIntl.Conf.SpokenLanguageProcessing},Denver,Colorado.\bibitem{closs}Jin'ichiMurakami,MasatoTokuhisa,andSatoruIkehara(2007).``StatisticalMachineTranslationusingLargeJ/EParallelCorpusandLongPhraseTables'',In\textit{InternationalWorkshoponSpokenLanguageTranslation2007},pp.~151--155.\bibitem{BLEU}Papineni,K.,Roukos,S.,Ward,T.,andZhu,W.~J.(2002).``BLEU:amethodforautomaticevaluationofmachinetranslation'',In\textit{40thAnnualmeetingoftheAssociationforComputationalLinguistics}pp.~311--318.\bibitem{METEOR}Banerjee,S.andLavie,A.(2005).``METEOR:AnAutomaticMetricforMTEvaluationwithImprovedCorrelationwithHumanJudgments'',In\textit{ProceedingsofWorkshoponIntrinsicandExtrinsicEvaluationMeasuresforMTand/orSummarizationatthe43thAnnualMeetingoftheAssociationofComputationalLinguistics(ACL-2005)}.\bibitem{eijiro}EDP編集(2008).英辞郎第4版,株式会社アルク,ISBN4757414560.\bibitem{nlp}鏡味良太,村上仁一,徳久雅人,池原悟(2009).統計翻訳における人手で作成された大規模フレーズテーブルの効果,言語処理学会第15回年次大会,pp.~224--227.\end{thebibliography}\begin{biography}\bioauthor{村上仁一}{1984年筑波大学第3学群基礎工学類卒業.1986年筑波大学大学院修士課程理工学研究科理工学専攻修了.同年NTTに入社.NTT情報通信処理研究所に勤務.1991年国際通信基礎研究所(ATR)自動翻訳電話研究所に出向.1995年NTT情報通信網研究所に復帰.1997年豊橋技術科学大学にて博士(工学).1998年鳥取大学工学部知能情報工学科に転職.現在に至る.主に音声認識のための言語処理の研究を行う.最近は統計翻訳の研究に従事.電子情報通信学会,日本音響学会,言語処理学会各会員.}\bioauthor{鏡味良太}{2009年鳥取大学工学部知能情報工学科卒業.同年エヌデック株式会社に入社.現在に至る.}\bioauthor{徳久雅人}{1995年九州工業大学大学院情報工学研究科博士前期課程修了.博士(工学).同年同大学情報工学部知能情報工学科助手,2002年鳥取大学工学部知能情報工学科助手,現在,同大学大学院工学研究科情報エレクトロニクス専攻講師.情報処理学会,電子情報通信学会,人工知能学会,言語処理学会各会員.}\bioauthor{池原悟}{1967年大阪大学基礎工学部電気工学科卒業.1969年同大学院修士課程終了.工学博士.同年日本電信電話公社に入社.1982年情報処理学会論文賞.1993年情報処理学会研究賞.1995年日本科学技術情報センター賞.1995年人工知能学会論文賞.1996年スタンフォード大学客員教授.1996年鳥取大学工学部教授.2002年電気通信普及財団賞受賞.2006年文部科学大臣表彰科学技術賞.2009年12月逝去.数式処理,トラフィック理論,自然言語処理の研究に従事.}\end{biography}\biodate\end{document}
| |
V05N01-02 | \section{はじめに}
従来の自然言語処理研究の多くは,言語の論理的側面に注目したものであった.しかし,計算機が人間と同じように自然言語を取り扱うことができるようになるためには,言語の論理的な取り扱いだけでなく,言語が人間の感性に及ぼす働きの実装が不可欠である.このような観点から,我々は感性を取り扱うことのできる自然言語処理システムの開発に向けた基礎研究のひとつとして,待遇表現の計算モデルに関する研究を行っている.待遇表現とは,話し手が,聞き手及び話題に含まれる人物と自分との間に,尊卑,優劣,利害,疎遠等どのような関係があるかを認識し,その認識を言語形式の上に表したものである(鈴木1984).本研究ではこれらの関係を総称して{\bf待遇関係}と呼び,待遇表現に対して心理上持つ丁寧さの度合いを{\bf待遇値}と呼ぶ.さまざまな待遇表現を柔軟に取り扱うことができる自然言語処理システムを構築するためには,待遇表現の構成要素と待遇表現全体の待遇値の関係を記述するモデルが必要である.しかし,数学的な形式化に重点を置いた研究(水谷1995),心理実験による待遇表現の計量化に重点を置いた研究(荻野1984),あるいは丁寧さを考慮した文生成プログラムの開発(田中1983)などの従来の待遇表現に関する研究においては,このようなモデルの提案,及び心理実験に基づくモデルの検証は行われていなかった.本研究では,話し手及び聞き手以外の人に関する話題が含まれないような発話内容に関する待遇表現に限定した上で,待遇表現に語尾を付加した際の待遇値の変化に関する計算モデルを提案する.モデルの妥当性の検証を行うため,(1)ある事柄について{\bf知っている}という意図を伝える際に用いられる待遇表現のグループに対し,語尾:``よ''を付加した際の待遇値変化,及び(2)聞き手が会議などで{\bf発言するか否か}を聞き手に質問する際に用いられる待遇表現のグループに対し,語尾:``ます?''を付加した際の待遇値変化を求める心理実験を行った.実験の結果,いずれのグループにおける待遇値変化もモデルから予測される傾向に従い,モデルの妥当性が支持された.
\section{語尾の付加による待遇値変化の計算モデル}
\subsection{モデルが想定している発話状況}本研究では,第三者(話し手及び聞き手以外の人)に関する話題が含まれないような発話内容に関する待遇表現に限定したモデルを提案している.ただし第三者に関する話題が含まれるような待遇表現に対しても,その表現を話し手と聞き手の待遇関係,話し手と第三者の待遇関係,及び聞き手と第三者の待遇関係,のそれぞれに対応した構成要素に分けることが可能な場合は,今回提案するモデルをそれぞれの要素に対して独立に適用することにより,ある程度のモデル化が可能であると考えられる.\subsection{待遇値の確率分布}荻野はクロス集計表に基づく待遇表現の計量化の研究において,ほとんどすべての待遇表現の待遇値は一次元の値として表現できることを示した(荻野1986).本研究ではこの結果をふまえ,任意の待遇表現{\bfP}は一次元の値として計量化できると考え,待遇表現{\bfP}を計量化した値を\(V\)({\bfP})と記す.\(V\)({\bfP})は,計量化の手法に依存した尺度空間上で割り当てられた値であり,本来は待遇値(待遇表現に対して心理上持つ丁寧さの度合い)とは異なるが,ここでは\(V\)({\bfP})を単に{\bf待遇値}と呼び,待遇表現{\bfP}に対して心理上持つ丁寧さの度合いと同義に用いる.ひとつの待遇表現はいろいろな待遇関係の場面において用いることが可能であるが,これはそれぞれの待遇表現{\bfP}に対し,その表現が用いられるべき待遇関係を表す待遇値が一定の確率分布を持っており,{\bfP}の計量化によってその確率分布の平均が\(V\)({\bfP})として観測されていることを示唆する.ここでは,確率分布を正規分布({\emN}\(_{\mbox{\tiny{P}}}\)と記す)であるとし,仮定1を提案する.\medskip\begin{description}\item[仮定1:]待遇表現{\bfP}(待遇値\(V\)({\bfP}))に対し,{\bfP}が用いられるべき待遇関係が,待遇値に関する平均\(V\)({\bfP})の正規分布({\emN}\(_{\mbox{\tiny{P}}}\))として表される.\end{description}\medskip図1に待遇表現{\bfP}\(_{1}\):“知ってます”(待遇値\(V\)({\bfP}\(_{1}\))),及び{\bfP}\(_{2}\):``存じてます”(待遇値\(V\)({\bfP}\(_{2}\)))に対する確率分布の例を示す.\begin{center}\epsfile{file=shirado2_1.eps,width=100mm}{\bf図1}“知ってます”及び``存じてます”に対する確率分布の例\end{center}\subsection{整合度}我々は,待遇表現{\bfP}へ語尾{\bfE}を付加する際,文法的には間違いでなくてもその付加が{\bfしっくりとする},あるいは{\bfしっくりとしない},などの印象を持つことがある(前者の例としては,{\bfP}:``知ってる''への{\bfE}:``よ''の付加,後者の例としては,{\bfP}:``存じあげております''への{\bfE}:``よ''の付加).これは,それぞれの語尾{\bfE}に対し,{\bfE}が付加される待遇表現が用いられるべき待遇関係が,待遇値に関する確率分布\hspace{-0.5mm}({\emN}\(_{\mbox{\tiny{E}}}\)と記す)\hspace{-0.5mm}を持っており,{\bfE}を実際の待遇表現{\bfP}に付加する際には,{\bfP}に対する確率分布{\emN}\(_{\mbox{\tiny{P}}}\)と{\emN}\(_{\mbox{\tiny{E}}}\)との間の類似性の大/小に応じ,しっくりする/しっくりとしない,などの印象の違いが現れるからであると考えることができる.ここでは,{\emN}\(_{\mbox{\tiny{E}}}\)が正規分布であるとし,仮定2を提案する.\medskip\begin{description}\item[仮定2:]語尾{\bfE}に対し,{\bfE}が付加される待遇表現が用いられるべき待遇関係が,待遇値に関する正規分布({\emN}\(_{\mbox{\tiny{E}}}\))として表される.\end{description}\medskipいま,確率分布{\emN}\(_{\mbox{\tiny{P}}}\)と{\emN}\(_{\mbox{\tiny{E}}}\)との間の類似性の大きさを,これらの共通面積の広さ\(C\)として表す.以下\(C\)を,{\bfP}と{\bfE}との間の{\bf整合度}と呼ぶ.図2に,{\bfP}:``知ってます''と{\bfE}:``よ''との間の整合度\hspace{-0.5mm}\(C\)\hspace{-0.5mm}の例を示す.図中\hspace{-0.5mm}\(\mu_{\mbox{\tiny{E}}}\)\hspace{-0.5mm}は正規分布\hspace{-0.5mm}{\emN}\(_{\mbox{\tiny{E}}}\)\hspace{-0.5mm}の平均,\hspace{-0.5mm}\(X\)は{\emN}\(_{\mbox{\tiny{E}}}\)\hspace{-0.5mm}を表す確率密度関数と\hspace{-0.5mm}{\emN}\(_{\mbox{\tiny{P}}}\)\hspace{-0.5mm}を表す確率密度関数の交点の\hspace{-0.5mm}\(x\)\hspace{-0.5mm}座標を表す.\begin{center}\epsfile{file=shirado2_2.eps,width=80mm}{\bf図2}整合度\(C\)の例\end{center}ここで{\emN}\(_{\mbox{\tiny{P}}}\),{\emN}\(_{\mbox{\tiny{E}}}\)の分散をそれぞれ\(\sigma_{\mbox{\tiny{P}}}^{2}\),\(\sigma_{\mbox{\tiny{E}}}^{2}\)とすると,整合度\(C\)は次式で定義される.\begin{equation}C\stackrel{\triangle}{=}\frac{1}{\sigma_{\mbox{\tiny{P}}}\sqrt{2\pi}}\int^{X}_{−\infty}e^{−\frac{(x−V({\mbox{\tiny\bfP}}))^{2}}{2\sigma_{\mbox{\tiny{P}}}^{2}}}dx+\frac{1}{\sigma_{\mbox{\tiny{E}}}\sqrt{2\pi}}\int^{+\infty}_{X}e^{−\frac{(x−\mu_{\mbox{\tinyE}})^{2}}{2\sigma_{\mbox{\tinyE}}^{2}}}dx\end{equation}式(1)は\(\mu_{\mbox{\tiny{E}}}\)\(\le\)\(V\)({\bfP})の場合を想定しているが,\(V\)({\bfP})\(\le\)\(\mu_{\mbox{\tiny{E}}}\)の場合も同様の式で定義できる.\subsection{語尾の付加によって得られる情報量と待遇値変化}いま,{\bf待遇表現が持つ情報}={\bf意図を伝えるのに必要最小限の情報}+{\bf話し手と聞き手の待遇関係に応じた丁寧さ(あるいはぞんざいさ)を伝える情報},と考えると待遇値は後者の情報量に対応した値であると考えられる.また,待遇表現が持つ情報量のうち,意図を伝えるのに必要最小限の情報量は語尾\hspace{-0.5mm}{\bfE}\hspace{-0.5mm}の付加によってほとんど変化しない,と考えると,\hspace{-0.5mm}{\bfE}\hspace{-0.5mm}の付加による待遇表現の情報量の変化(即ち,{\bfE}の付加によって新たに得られた情報量)\hspace{-1.5mm}\(I\)\hspace{-0.5mm}は,話し手と聞き手の待遇関係に応じた丁寧さを伝える情報量の変化にほぼ一致することになる.従って,{\bfE}の付加による待遇値変化\hspace{-0.5mm}\(\Delta\)({\bfP},{\bfE})\hspace{-0.5mm}と,{\bfE}の付加によって得られた情報量\(I\)との間には一定の関係があると考えられるが,ここではこの関係を線形であるとし,仮定3を提案する.\medskip\begin{description}\item[仮定3:]待遇表現{\bfP}に語尾{\bfE}を付加した際の待遇値の変化量\(\Delta\)({\bfP},{\bfE})と,{\bfE}の付加によって得られた情報量\(I\)との間には線形の関係がある.\end{description}\medskip仮定3を式で表したものが,式(2)である.\begin{equation}\Delta({\bfP,E})\stackrel{\triangle}{=}{\rmk}_{1}\cdotI+{\rmk}_{2}\end{equation}ただし,係数k\(_{1}\),k\(_{2}\)は{\bfP},{\bfE}及び待遇値の計量化方法に依存した定数である.待遇表現{\bfP}への語尾{\bfE}の付加によって得られる情報量\(I\)は,整合度\(C\)を用い$I=\log_{e}(1/C)$で与えることができる.なぜなら,整合度\(C\)は{\bfP}によって期待されるすべての待遇関係の空間の中で{\bfE}によって期待される待遇関係が生じる確率を表している,と考えることができ,更にシャノンの情報量(例えば,Abramson1969)によると確率\(p\)の事象が生起したことを知ったときに得る情報量は$\log_{e}(1/p)$で与えられる(ここでは対数の底を\(e\)とした単位で情報量を定義する)からである.以上から,待遇表現{\bfP}に語尾{\bfE}を付加した際の待遇値の変化量\(\Delta\)({\bfP,E})の計算モデルは次式で定義される.\begin{equation}\Delta({\bfP,E})\stackrel{\triangle}{=}{\rmk}_{1}\cdot\log_{e}(1/C)+{\rmk}_{2}\end{equation}ただし,\(C\)は式(1)で定義される整合度.
\section{計算モデルから予測される,語尾の付加による待遇値変化}
前章で提案した計算モデルから予測される性質として,待遇値変化\(\Delta\)({\bfP,E})=\(V\)({\bfP}+{\bfE})−\(V\)({\bfP})の待遇値\(V\)({\bfP})に関する性質に注目する(ただし``{\bfP}+{\bfE}''は,{\bfP}へ{\bfE}を付加して作られた待遇表現を表す).ここでは,個々の待遇表現における待遇値変化については議論せず,待遇表現の集まりにおける待遇値変化の普遍的な特性を調べることを目的とするが,この目的からは数学的な取扱いの簡便さのため確率分布\hspace{-0.2mm}{\emN}\(_{\mbox{\tiny{P}}}\),{\emN}\(_{\mbox{\tiny{E}}}\)\hspace{-0.2mm}の分散\hspace{-0.2mm}\(\sigma_{\mbox{\tiny{P}}}^{2}\),\(\sigma_{\mbox{\tiny{E}}}^{2}\)\hspace{-0.2mm}に関し\hspace{-0.2mm}\(\sigma_{\mbox{\tiny{P}}}^{2}\)=\(\sigma_{\mbox{\tiny{E}}}^{2}\)(=\(\sigma^{2}\))\hspace{-0.2mm}と仮定しても差し支えないと考えられる.このとき式(1)は,\(X\)=(\(\mu_{\mbox{\tiny{E}}}\)+\(V\)({\bfP}))/2に関する式として,式(4)のように書き直すことができる.\begin{equation}C(X)=\frac{2}{\sigma\sqrt{2\pi}}\int_{−\infty}^{X}e^{−\frac{(x−V({\rmP}))^{2}}{2\sigma^{2}}}dx\end{equation}式(4)を(\(x\)-\(V\)({\bfP}))/\(\sigma\)=\(t\)として正規化し,式(5)を得る.\begin{equation}C(X^{\prime})=\frac{2}{\sqrt{2\pi}}\int^{X^{\prime}}_{−\infty}e^{−\frac{t^{2}}{2}}dt\end{equation}ただし,\(X^{\prime}\)=(\(\mu_{\mbox{\tiny{E}}}\)−\(V\)({\bfP}))/2\(\sigma\).\(C\)(\(X^{\prime}\))の形の関数は誤差関数と呼ばれ解析的には解けないことが知られている(例えば,森口1957).このため\(C\)(\(X^{\prime}\))を,より取り扱いやすい関数で近似することを考える.いま\(V\)({\bfP})と\(\mu_{\mbox{\tiny{E}}}\)の間で\(\mid\)\(\mu_{\mbox{\tiny{E}}}\)−\(V\)({\bfP})\(\mid\)\(\le\)5\(\sigma\)(即ち,\(\mid\)\(X^{\prime}\)\(\mid\)\(\le\)2.5)が満たされるものとする.この制約は,確率分布{\emN}\(_{\mbox{\tiny{P}}}\)(あるいは{\emN}\(_{\mbox{\tiny{E}}}\))全体の面積の中で,{\emN}\(_{\mbox{\tiny{P}}}\)と{\emN}\(_{\mbox{\tiny{E}}}\)の共通部分の面積\(C(X^{\prime})\)が占める割合が(\(\sigma_{\mbox{\tiny{P}}}\)=\(\sigma_{\mbox{\tiny{E}}}\)の場合には)1.2%以上の場合に相当し,これは{\bfP}と{\bfE}の任意の組み合わせに関する多くの状況において満たされると思われる.このとき\(C\)(\(X^{\prime}\))を,\(X^{\prime}\)についての一次式\(p\)(\(X^{\prime}\))=k\(_{3}\)\(X^{\prime}\)+k\(_{4}\)(k\(_{3}\),k\(_{4}\)は定数)に関する関数\(e^{-p(X^{\prime})}\)で近似する.関数\(e^{-p(X^{\prime})}\)は,\(\mid\)\(X^{\prime}\)\(\mid\)\(\le\)2.5において関数\(C\)(\(X^{\prime}\))を数値的によく近似する.なぜなら,\(\mid\)\(X^{\prime}\)\(\mid\)\(\le\)2.5における関数\(C\)(\(X^{\prime}\))の値を表すデータ群に対し関数\(e^{-p(X^{\prime})}\)で回帰すると,回帰の当てはまりの良さを示す決定係数\(R^{2}\)(例えば,Snedecor1972)は約0.97となるからである.よって,\(C\)(\(X^{\prime}\))\(\simeq\)\(e^{-p(X^{\prime})}\)を式(3)に代入し,更に\(X^{\prime}\)=(\(\mu_{\mbox{\tiny{E}}}\)−\(V\)({\bfP}))/2\(\sigma\)を代入して整理すると式(6)が得られる.\begin{equation}\Delta({\bfP,E})\simeq{\rmK}_{1}(\mu_{\mbox{\tiny{E}}}-V({\bfP}))+{\rmK}_{2}\end{equation}ただし,K\(_{1}\)=k\(_{1}\)k\(_{3}\)/2\(\sigma\),K\(_{2}\)=k\(_{2}\)+k\(_{1}\)k\(_{4}\).以上から,待遇表現{\bfP}への語尾{\bfE}の付加による待遇値変化\(\Delta\)({\bfP,E})は,\(\mu_{\mbox{\tiny{E}}}\)−\(V\)({\bfP})に関する一次式で表されることが予測される.
\section{モデルの妥当性の検証実験}
前章で提案されたモデルの妥当性を検証するため,語尾{\bfE}を固定(即ち\(\mu_{\mbox{\tiny{E}}}\),及び\(\sigma_{\mbox{\tiny{E}}}^{2}\)を固定)した状況において,いくつかの異なった待遇表現{\bfP}に{\bfE}を付加した際の待遇値変化\(\Delta\)({\bfP,E})が\(V\)({\bfP})の一次式で表されることを確かめるための心理実験を行った.実験は,10代〜70代の関西在住の日本人男女97名を被験者とし,一対比較法によって行った.それぞれの待遇表現(語尾を付加する前の待遇表現,及び待遇表現に語尾を付加して作られた待遇表現)に対する待遇値は,サーストンの比較判断の法則(ケースV)による計量化手続きにより求めた.実際のいろいろな待遇関係の場面において,どの待遇表現が用いられるかには個人差がある.しかし,待遇表現間の丁寧さの大小には普遍性があると考えられる.即ち,この実験で得られる待遇値\(V\)({\bfP})は,各個人がその待遇表現に対して持つ絶対的な値ではなく,待遇表現間の丁寧さの大小の程度に関する相対的かつ普遍的な値と考えられる.実験の詳細は以下の通り.\subsection{実験に用いた表現}実験では2種類の発話状況を想定し,それぞれの状況において用いられる待遇表現のグループを実験刺激とした.\bigskip{\flushleft\bf[待遇表現グループ1]}\bigskip語尾を付加する前の待遇表現としては,ある事柄について{\bf知っている}という意図を伝える際に用いる待遇表現21種類(表1)を用い,各待遇表現に付加する語尾としては,終助詞``よ''を用いた.(従って,計量化の対象となる待遇表現は21×2=42種類).この場合,語尾``よ''の付加により,概して,元の待遇表現がよりぞんざいになることが予測される(中川1996).待遇表現グループ1は,少数の被験者を用いた予備的な実験(白土1996)において刺激として用いられた待遇表現の種類を増やしたものに当たる.\begin{center}{\bf表1}待遇表現グループ1\medskip\begin{tabular}{|lll|}\hline1:分かる&8:知ってる&15:存じております\\2:分かります&9:知っている&16:存じあげてます\\3:分かってる&10:知ってます&17:存じあげております\\4:分かっている&11:知っています&18:承知してる\\5:分かってます&12:知っております&19:承知してます\\6:分かっています&13:存じてます&20:承知しています\\7:分かっております&14:存じています&21:承知しております\\\hline\end{tabular}\end{center}\bigskip{\flushleft\bf[待遇表現グループ2]}\bigskip語尾を付加する前の待遇表現としては,聞き手が会議などで{\bf発言するか否か}を聞き手に質問する際に用いる待遇表現19種類(表2)を用い,各待遇表現に付加する語尾としては,助動詞``ます''を用いた(従って,計量化の対象となる表現は19×2=38種類).この場合,語尾が付加される待遇表現の語尾が変化する(例えば,``言う?''+``ます''は,``言います?''になる).また,``ます''の付加により,元の待遇表現がより丁寧になることが予測される.\begin{center}{\bf表2}待遇表現グループ2\medskip\begin{tabular}{|lll|}\hline1:言う?&8:仰せになる?&14:述べる?\\2:言われる?&9:仰せになられる?&15:述べられる?\\3:話す?&10:しゃべる?&16:お述べになる?\\4:話される?&11:しゃべられる?&17:お述べになられる?\\5:お話になる?&12:おしゃべりになる?&18:おっしゃる?\\6:お話になられる?&13:おしゃべりになられる?&19:おっしゃられる?\\7:お話する?&&\\\hline\end{tabular}\end{center}\subsection{一対比較法による心理実験}いま,計量化の対象となる\(n\)個の待遇表現を{\bfP}\(_{1}\),{\bfP}\(_{2}\),..,{\bfP}\(_{n}\)と記す.一対比較法では,{\bfP}\(_{1}\),{\bfP}\(_{2}\),..,{\bfP}\(_{n}\)の中の異なる全ての待遇表現の対\hspace{-0.5mm}(計\(_{n}\)C\(_{2}\)対)\hspace{-0.5mm}を作り,一対ずつ被験者に呈示する.被験者は呈示された一対の待遇表現のうちいずれの表現がより丁寧な表現だと感じるかを回答するように求められる.また,両方の表現が同じ位丁寧であると感じた場合はその旨回答するよう求められる.\subsection{サーストンの比較判断の法則に基づく計量化}一対比較法による実験の結果,待遇表現{\bfP}\(_{i}\)が{\bfP}\(_{j}\)より丁寧だと判断した被験者数を全被験者数で割った値を\(p_{ij}\)とする.ただし,両者が同じ位丁寧な表現だと判断した回答に対しては,その回答をした被験者数を\(p_{ij}\)及び\(p_{ji}\)の計算にそれぞれ半分ずつ割り振る.更に,\(p_{ij}\)を\hspace{-0.2mm}\(Z\)\hspace{-0.2mm}得点(例えば,田中1977)で表した値を\(Z_{ij}\)とする.一対比較法においては,被験者にふたつの刺激{\bfP}\(_{i}\),{\bfP}\(_{j}\)の間の丁寧さの大小に関する判断を行わせることになるが,この際,各刺激{\bfP}\(_{i}\),{\bfP}\(_{j}\)に対する弁別過程がそれぞれ,平均:\(\mu_{i}\),\(\mu_{j}\),標準偏差:\(\sigma_{i}\),\(\sigma_{j}\)(ただし,\(\sigma_{i}\)=\(\sigma_{j}\)=\(\sigma\))の正規分布に従い,両弁別過程の間の相関係数:\(r_{ij}\)=0と仮定する(サーストンの比較判断の法則ケースV).このとき,次式が成立する(例えば田中1977).\begin{equation}\mu_{i}-\mu_{j}=Z_{ij}\sqrt{2}\sigma\end{equation}従って最も小さい\hspace{-0.1mm}\(\mu\)\hspace{-0.1mm}の値\hspace{-0.1mm}\(\mu_{0}\)\hspace{-0.1mm}を0と置くと,式(7)によって他の全ての\hspace{-0.1mm}\(\mu_{i}\)\hspace{-0.1mm}を\hspace{-0.1mm}\(\mu_{0}\)\hspace{-0.1mm}からの相対値として決めることができる(ただし,各\hspace{-0.2mm}\(\mu_{i}\)\hspace{-0.2mm}の値は\hspace{-0.2mm}\(\sqrt{2}\)\(\sigma\)\hspace{-0.2mm}を単位とした値).以上によって得られた\hspace{-0.2mm}\(\mu_{i}\)\hspace{-0.2mm}を待遇表現{\bfP}\(_{i}\)の待遇値とする.
\section{実験結果}
待遇表現グループ1,待遇表現グループ2それぞれに対して得られた待遇値を用い,横軸(X軸)に語尾{\bfE}が付加される前の待遇表現{\bfP}\(_{i}\)の待遇値\(V\)({\bfP}\(_{i}\)),縦軸(Y軸)に{\bfE}の付加による待遇値変化\hspace{-0.2mm}\(\Delta\)({\bfP}\(_{i}\),{\bfE})=\(V\)({\bfP}\(_{i}\)+{\bfE})−\(V\)({\bfP}\(_{i}\))\hspace{-0.2mm}をプロットした図をそれぞれ図3,図4に示す.図の各点に添えられた番号は,表1,表2それぞれにおける待遇表現を示す番号である.\begin{center}\epsfile{file=shirado2_3.eps,width=100mm}{\bf図3}語尾``よ''の付加による待遇値変化\end{center}\begin{center}\epsfile{file=shirado2_4.eps,width=100mm}{\bf図4}語尾``ます''の付加による待遇値変化\end{center}各図における点群(\(x_{i}\),\(y_{i}\))=(\(V\)({\bfP}\(_{i}\)),\(\Delta\)({\bfP}\(_{i}\),{\bfE})),\(i\)=1,2,..,\(n\)を,直線\(y\)=\(a\)\(x\)+\(b\)で回帰した.ここで,回帰パラメタ\(a\),\(b\)は次式で推定される(例えば,肥田1961).\begin{equation}a\stackrel{\triangle}{=}\frac{\sum\limits_{i=1}^{n}(y_{i}-\bar{y})(x_{i}-\bar{x})}{\sum\limits_{i=1}^{n}(x_{i}-\bar{x})^{2}}\end{equation}\begin{equation}b\stackrel{\triangle}{=}\bar{y}−a\bar{x}\end{equation}ここで,\(\bar{x}\),\(\bar{y}\)はそれぞれ\(i\)に関する\(x_{i}\),\(y_{i}\)の平均,\(n\)はサンプル点数である.回帰直線のデータへの当てはまりの良さは,次式で定義される決定係数\(R^{2}\)により評価した(例えば,肥田1961).\begin{equation}R^{2}\stackrel{\triangle}{=}\frac{\sum\limits_{i=1}^{n}(\bar{y}-(ax_{i}+b))^{2}}{\sum\limits_{i=1}^{n}(y_{i}-\bar{y})^{2}}\end{equation}更に,回帰直線の傾きの有意性を検定量\(T\)=\(a\)/\(\sigma_{a}\)\hspace{-0.25mm}を用い自由度\hspace{-0.25mm}\(f\)=\(n\)−2,危険率5%で\(t\)検定した(例えば,Snedecor1972),ただし\hspace{-0.12mm}\(\sigma_{a}\)\hspace{-0.12mm}は回帰直線の傾きの標準偏差である.以下,自由度\(f\)の\(t\)分布における5%点を\(T\)\(_{0.05}\)(\(f\))と記す.\subsection{待遇表現グループ1}図3は,語尾:``よ''が付加される前の待遇表現の待遇値が大きいほど``よ''の付加による待遇値変化(待遇値の減少量)が大きくなる傾向があることを示している.直線\(y\)=\(a\)\(x\)+\(b\)によって回帰した結果,\(a\)=−0.28,\(b\)=0.71,\(\sigma_{a}\)=0.027,\(R^{2}\)=0.84となった.また,回帰直線の傾きは有意に負(検定量\(T\)=−10.37<−1.73=−\(T\)\(_{0.05}\)(19))であった.\subsection{待遇表現グループ2}図4は,語尾:``ます''の付加による待遇値変化が待遇表現{\bfP}\(_{18}\):``おっしゃる?''(図4中の矢印のついた点)付近で最大で,この点を境にして左側の(待遇値がより小さい)領域で単調増加,右側の(待遇値がより大きい)領域で単調減少の傾向を示している.左右それぞれの領域に含まれる点群に対し,別々の直線\(y\)=\(a\)\(x\)+\(b\)によって回帰したところ,左側の領域({\bfP}\(_{18}\)\hspace{-0.25mm}の点を含め,データ点数12個)では,\(a\)=0.58,\(b\)=1.6,\(\sigma_{a}\)=0.052,\(R^{2}\)=0.925となり,回帰直線の傾きは有意に正(検定量\(T\)=11.2>1.8=T\(_{0.05}\)(10))であった.また右側の領域({\bfP}\(_{18}\)の点を含め,データ点数8個)では,\(a\)=−0.54,\(b\)=8.47,\(\sigma_{a}\)=0.194,\(R^{2}\)=0.749となり,回帰直線の傾きは有意に負(検定量\(T\)=−2.78<−1.9=−T\(_{0.05}\)(6))であった.
\section{考察}
待遇表現グループ1に対する実験結果は,語尾``よ''の付加による待遇値変化\(\Delta\)({\bfP,E})が\(V\)({\bfP})に関する傾き負の直線でよく近似されることを示唆する.この結果は,\(\Delta\)({\bfP,E})=K\(_{1}\)(\(\mu_{\mbox{\tiny{E}}}\)−\(V\)({\bfP}))+K\(_{2}\)の係数K\(_{1}\)が正定数である場合に当たる.待遇表現グループ2に対する実験結果は,語尾:``ます''の付加による待遇値変化\hspace{-0.25mm}\(\Delta\)({\bfP,E})が表現:``おっしゃる''より待遇値が小さい領域においては\(V\)({\bfP})に関する傾き正の直線,表現:``おっしゃる''\hspace{1.5mm}より待遇値が大きい領域においては\hspace{0.8mm}\(V\)({\bfP})\hspace{0.8mm}に関する傾き負の直線でよく近似されることを示唆する.この結果は,\hspace{-0.2mm}\(\Delta\)({\bfP,E})=K\(_{1}\)(\(\mu_{\mbox{\tiny{E}}}\)−\(V\)({\bfP}))+K\(_{2}\)\hspace{-0.2mm}の係数\hspace{-0.2mm}K\(_{1}\)\hspace{-0.2mm}が前者の領域では負定数,後者の領域では正定数である場合に当たる.以上の結果は,\(\Delta\)({\bfP,E})=K\(_{1}\)(\(\mu_{\mbox{\tiny{E}}}\)−\(V\)({\bfP}))+K\(_{2}\)の係数K\(_{1}\)が\begin{enumerate}\item\(\mu_{\mbox{\tiny{E}}}\)\(<\)\(V\)({\bfP})のとき正の定数,\item\(\mu_{\mbox{\tiny{E}}}\)\(>\)\(V\)({\bfP})のとき負の定数\end{enumerate}となっている,と考えることにより以下のように説明が可能である.{\flushleft\bf[待遇表現グループ1に対する結果の説明]}グループに含まれるすべての待遇表現{\bfP}\(_{i}\)=1,..,21に関し,語尾{\bfE}:``よ''に対する確率分布{\emN}\(_{\mbox{\tiny{E}}}\)の平均\hspace{-0.12mm}\(\mu_{\mbox{\tiny{E}}}\)\hspace{-0.12mm}との間で,\(\mu_{\mbox{\tiny{E}}}\)<\(V\)({\bfP}\(_{i}\))が満たされる(即ち,{\bfP}\(_{i}\)=1,..,21のいずれの待遇表現も,``よ''との整合性が最も大きい待遇表現より待遇値が大きい領域にある)と考える.このとき係数K\(_{1}\)は常に正定数となり,従って\(\Delta\)({\bfP,E})は\(V\)({\bfP})に関する傾き負の一次式となる.{\flushleft\bf[待遇表現グループ2に対する結果の説明]}語尾{\bfE}:``ます''に対する確率分布{\emN}\(_{\mbox{\tiny{E}}}\)の平均\(\mu_{\mbox{\tiny{E}}}\)と,{\bfP}\(_{18}\):``おっしゃる''に対する待遇値\(V\)({\bfP}\(_{18}\))がほぼ等しいと考える.このとき{\bfP}\(_{18}\)より待遇値が小さい待遇表現{\bfP}\(_{i}\),\(i\)=1,2,3,4,5,7,10,11,12,14,15に対しては係数K\(_{1}\)は負定数となり,従って\(\Delta\)({\bfP,E})は\(V\)({\bfP})に関する傾き正の一次式となる.また,\hspace{-0.12mm}{\bfP}\(_{18}\)\hspace{-0.12mm}より待遇値が大きい待遇表現{\bfP}\(_{i}\),\(i\)=6,8,9,13,16,17,19に対しては係数K\(_{1}\)は正定数となり,従って\(\Delta\)({\bfP,E})は\(V\)({\bfP})に関する傾き負の一次式となる.
\section{まとめ}
待遇表現の丁寧さの計算モデルとして,待遇表現に語尾を付加した際の待遇値の変化に関する定量的なモデルを提案し,心理実験によるモデルの妥当性の検証を行った.今回実験に用いた待遇表現,及び語尾については,実験によって得られた待遇値変化はモデルから予測される傾向に従うことが示され,モデルの妥当性が支持された.今後,実用性のある定量的なモデルの構築のためには,各待遇表現や各語尾に対する確率分布の平均,分散,係数K\(_{1}\)及びK\(_{2}\)の推定が必要となる.また今回は,第三者に関する話題を含む発話内容に関する待遇表現は対象としなかったが,今後,このような表現に対する本計算モデルの拡張を検討して行く.\acknowledgment心理実験にご協力頂いた,ATR人間情報通信研究所足立整治博士に深謝致します.\vspace*{-1mm}\begin{thebibliography}{99}\vspace*{-2mm}\bibitem{}AbramsonN.(宮川洋訳)(1969).情報理論入門.好学社.\bibitem{}肥田野直・瀬谷正敏・大川信明(1961).心理教育統計学.培風館.\bibitem{}水谷静夫(1995).待遇表現概要.計量計画研究所.\bibitem{}森口繁一他(1957).数学公式II.岩波書店.\bibitem{}中川裕志・小野晋(1996).``日本語の終助詞の機能−「よ」「ね」「な」を中心として−.''自然言語処理,{\bf3}(2),3-18.\bibitem{}荻野綱男(1984).``敬語の丁寧さを決定するもの.''数理科学,No.258,43-50.\bibitem{}荻野綱男(1986).``待遇表現の社会言語学的研究.''日本語学,{\bf5}(12),55-63.\bibitem{}白土保・井佐原均(1996).``待遇表現の計算モデル−語尾の付加による待遇値変化について−.''情処研報,{\bf96-NL-116},115-120.\bibitem{}SnedecorG.W.(畑村又好他訳)(1972).統計的方法.岩波書店.\bibitem{}鈴木一彦・林巨樹編(1984).研究資料日本文法9敬語法編.明治書院.\bibitem{}田中幸子・林四郎・荻野綱男・樺島忠夫(1983).朝倉書店日本語新講座5第3章.朝倉書店.\bibitem{}田中良久(1977).心理学的測定法.東大出版会.\end{thebibliography}\vspace*{-1mm}\begin{biography}\biotitle{略歴}\bioauthor{白土保}{1983年電気通信大学電気通信学部計算機科学科卒業.同年日本IBM(株)入社.1986年郵政省電波研究所(現通信総合研究所)入所.鹿島宇宙通信センター,平磯宇宙環境センターを経て,1992年より関西先端研究センター知的機能研究室勤務.主任研究官.感性情報処理の研究に従事.日本音響学会音楽音響研究会幹事.電子情報通信学会,情報処理学会,日本音響学会各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年京都大学大学院工学研究科電気工学専攻修士課程修了.同年通商産業省工業技術院電子技術総合研究所入所.1995年郵政省通信総合研究所入所.現在,同関西先端研究センター知的機能研究室長.自然言語処理の研究に従事.情報処理学会,言語処理学会,人工知能学会,日本認知科学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V03N04-07 | \section{まえがき}
自然言語の機械による処理方法の一つに,人間が与えた規則を用いて解析する方法がある.この方法では,一般に知識が複雑になるほど精密な解析ができるが,この複雑化に伴い知識獲得が難しくなるため,解析の対象となる話題を限定することがほぼ必須となる.この点において,人間により与えられた規則にのみ基づく解析は,限界にきているとの見方もある.これに対して,自然言語に関する統計的情報を自然言語処理に利用する研究が盛んに行われている\cite{utsu,kudo,mich}.人間によって与えられた規則を元に解析を行う方法においても,規則の適用される確率を統計的に調べておくことにより良い結果が得られることが多く,統計的な情報を自然言語処理に用いることは処理の効率化に効果があるとみられる.筆者らは既に,統計情報を自然言語処理に利用する方式の一つとして,コーパスに基づいて日本語文法を自動獲得する方法を提案している\cite{yoko2}.この獲得法は,まず構文木情報の付加されたコーパスから多数の文の構文木を作成し,それぞれの節点にランダムに非終端記号を割り当て,その後この割当てをエントロピーにより評価し,エントロピーが最小となるようシミュレーテッド・アニーリング法により割り当てを変更するものである\cite{shan,asai,patr}.この方法を新聞記事の文法の獲得に適用した所,得られた文法は終端記号と非終端記号との間の置き換え規則のエントロピーが比較的高いことがわかった.従って,この獲得法の単位として形態素より長い単位---認知単位---を利用することによりエントロピーを下げれば,パーザの動作効率を高めることができると期待される.本論文ではこのような知見に基づき,形態素より長い単位を人間による知覚実験の結果から定義し,文法の自動獲得に応用した,新しい方法を提案する.
\section{文法の自動獲得法}
今,図\ref{zu1}(a)のように例文と構文木が与えられていると仮定する.この場合,文脈自由文法における終端記号の集合は$T=\{東,日本,では,晴れて,い,ます\}$と書ける.非終端記号の集合を$N=\{n_1,n_2,n_3,n_4\}$,\hspace*{-1mm}初期記号を$n_1$として,\hspace*{-1mm}この構文木を同図(b)のように変形し,各節点に非終端記号を割り当てたとする.すると,各節点の上下関係から次のshift-reduceパーザの規則を得ることができる\cite{yoko2}.\newpage\begin{figure}\begin{center}\epsfile{file=7-1.eps,width=90mm}\end{center}\caption{構文木の各節点に対する非終端記号の割り当て}\label{zu1}\end{figure}\begin{center}\begin{minipage}[t]{6cm}\begin{flushleft}\baselineskip=15pt\smallskip$R1$:東$\rightarrow$$n_2$\\$R2$:日本$\rightarrow$$n_3$\\$R3$:では$\rightarrow$$n_3$\\$R4$:晴れ$\rightarrow$$n_4$\\$R5$:て$\rightarrow$$n_3$\\$R6$:い$\rightarrow$$n_2$\\$R7$:ます$\rightarrow$$n_4$\\$R8$:$n_2$,$n_3$$\rightarrow$$n_4$\\$R9$:$n_4$,$n_3$$\rightarrow$$n_2$\\$R10$:$n_2$,$n_4$$\rightarrow$shift\\$R11$:$n_4$,$n_3$$\rightarrow$$n_2$\\$R12$:$n_2$,$n_2$$\rightarrow$shift\\$R13$:$n_2$,$n_2$$\rightarrow$shift\\$R14$:$n_2$,$n_4$$\rightarrow$$n_3$\\$R15$:$n_2$,$n_3$$\rightarrow$$n_4$\\$R16$:$n_2$,$n_4$$\rightarrow$$n_1$\\\end{flushleft}\end{minipage}\end{center}この規則の中には$R10$,$R14$,$R16$のように左辺が等しく右辺が異なるものが存在する.このような規則は,shift-reduceパーザの探索空間を広げ,処理速度を低下させる.先の規則において左辺が$n_i,n_j$の時,右辺が$n_k$となる条件つき確率を$P_{n_in_j}(n_k)$,右辺がshiftとなる条件つき確率を$P_{\mbox{\footnotesizeShift}n_in_j}$とする.同様に,左辺が終端記号$t_i$の時,右辺が$n_j$となる条件つき確率を$P_{t_i}(n_j)$で表す.更に規則$n_i,n_j\rightarrown_k$の出現確率を$P(n_i,n_j,n_k)$,規則$n_i,n_j\rightarrow$shiftの出現確率を$P_{\mbox{\footnotesizeshift}}(n_i,n_j)$とする.また規則$t_i\rightarrown_j$の出現確率を$P(t_i,n_j)$とする.すると,上記のshift-reduceパーザの規則はこれらの確率を用いて次のように書き直すことができる.\[\begin{array}{ll}P(東,n_2)=0.06,&P_{東}(n_2)=1.00\\P(日本,n_3)=0.06,&P_{日本}(n_3)=1.00\\P(では,n_3)=0.06,&P_{では}(n_3)=1.00\\P(晴れ,n_4)=0.06,&P_{晴れ}(n_4)=1.00\\P(て,n_3)=0.06,&P_{て}(n_3)=1.00\\P(い,n_2)=0.06,&P_{い}(n_2)=1.00\\P(ます,n_4)=0.06,&P_{ます}(n_4)=1.00\\P(n_2,n_3,n_4)=0.13,&P_{n_2n_3}(n_4)=1.00\\P(n_4,n_3,n_2)=0.13,&P_{n_4n_3}(n_2)=1.00\\P_{\mbox{\footnotesizeshift}}(n_2,n_4)=0.06,&P_{\mbox{\footnotesizeshift}n_2n_4}=0.33\\P_{\mbox{\footnotesizeshift}}(n_2,n_2)=0.13,&P_{\mbox{\footnotesizeshift}n_2n_2}=1.00\\P(n_2,n_4,n_3)=0.06,&P_{n_2n_4}(n_3)=0.33\\P(n_2,n_3,n_4)=0.13,&P_{n_2n_3}(n_4)=1.00\\P(n_2,n_4,n_1)=0.06,&P_{n_2n_4}(n_1)=0.33\\\end{array}\]$R1\cdotsR16$において左辺が等しく右辺が異なるような規則を減らすということは,上記の条件つき確率のすべてを1または0に近づけるということに対応する.これは更に次の(\ref{eq5})式で定義されるエントロピー$H$を減少させることに等しい\cite{shan}.\vspace*{-2mm}\begin{eqnarray}H&=&\sum_{i,j}P_{\mbox{\footnotesizeshift}}(n_i,n_j)\logP_{\mbox{\footnotesizeshift}n_in_j}\nonumber\\&&-\sum_{i,j,k}P(n_i,n_j,n_k)\logP_{n_in_j}(n_k)\nonumber\\&&-\sum_{i,j}P(t_i,n_j)\logP_{t_i}(n_j)\label{eq5}\end{eqnarray}従って,構文木の各節点に対する非終端記号の割当てを,\hspace*{-1mm}$H$が最小となるように変更すれば,shift-reduceパーザの動作に最適な規則を得ることができる.\hspace*{-2mm}この最小化は組合わせ最適化問題に対応する.この場合,組合せ空間にはいくつもの極小値が存在する.よって,この方法ではシミュレーテッド・アニーリング法を用いて$H$の最小化を行う\cite{patr}.こうして獲得したshift-reduceパーザの動作規則からは,容易に文脈自由文法を作り出すことができる.すなわちこの方法は,文法を獲得する方法であるとみなせる.また,$H$を用いてperplexity$Q$を次のように計算できる.\vspace*{-2mm}\begin{equation}Q=\exp(H)\label{eq6}\end{equation}$Q$は物理的には,一つの左辺に対して平均いくつの右辺が存在するかを示す値となる.新聞記事7500文を対象として,この方法により解析を行った結果,左辺が形態素である規則の条件つき生起確率$P_{t_i}(n_j)$は,左辺が非終端記号2個の規則の条件つき生起確率$P_{n_in_j}(n_k)$と比べて,値が小さくなることが示された\cite{yoko2}.これは,一つの形態素が多数の用法を持っていることを示している.従って複数の形態素を組合わせたより長い文字列を,この解析の単位として用いることにより,shift-reduceパーザの解析効率をより高めることができると予想される.
\section{認知単位の知覚実験}
機械による文解析は,専ら形態素を単位として行われている\cite{taka}.しかし,人間では果たしてどのような単位が用いられているのだろうか.これを確かめるため,知覚実験を行った.この実験では,コンピュータのディスプレイ上に30字程度の漢字かな混じり文を短時間表示し,被験者に口頭で読んでもらう.使用したディスプレイは,640$\times$400ピクセルの15インチディスプレイで,被験者から約1mの距離に配置してあり,16$\times$16ピクセルの白いフォントで文が提示される.被験者は成人男子大学生4名である.まず,表示時間を50msとして1文を提示し,被験者に直ちに口頭で再生してもらう.文は24用意してあり,この実験を全文につき行なう.24文の実験が終了すると,提示時間を100msとして再度24文の実験を行なう.ただし,次に現れる文が予測できないよう文を提示する順序を変える.表示時間を50ms刻みで1sまで長くしながらこの実験を繰り返し,表示時間と,被験者が読むことのできた文字数との関係を調べる.画面上には,文の開始位置が常に示されており,被験者には提示の前に視点をその位置に移動しておくように指示してある.従って,被験者は文を文頭から認識することになる.被験者にはあらかじめ文を覚えないよう伝えてあるが,実験を繰り返すうちに文頭付近を覚えることは避けられない.しかし,提示時間は徐々に長くなるため,被験者が再生できた文字列の末尾付近については認識経験が少なく,記憶による影響は小さい.実験結果を図\ref{zu2}に示す.\hspace*{-2mm}この例では,\hspace*{-2mm}「この問題は解決ずみというつもりなのかもしれないが私はそうは思わない.」という文を表示している.結果は図のような階段状になり,人間が文字単位で文を処理しているのではないことは明らかである.また,読めた部分の最後に着目すると,それはすべて文節境界となりうる形態素で終っている.更に,「$\cdots$というつもり」\hspace*{-1mm}や\hspace*{-1mm}「$\cdots$かもしれないが」などのように,複数の文節にまたがる句が一度に検出されているケースもある.従って,人間は文節よりも長い句を一度に検出していることが分かる.「$\cdots$は」,「$\cdots$している」,「$\cdots$というつもり」,「$\cdots$かもしれないが」のように,それだけでは意味をなさず,先行する句の後について補助的な意味を表すような句は,先行する句の一部として先行する句とともに一度に検出されている.この結果から,人間の場合,まずこのような補助的な句を含めた長い句を一度に検出する処理を行い,この処理の後,検出された長い句を組合わせて文を処理していると考えられる.24文の実験結果から,人間は,次のような句を一度に検出していることが分かった.\begin{figure}\begin{flushleft}\small\makebox[30mm][r]{50ms:}この\\\makebox[30mm][r]{100ms:}この問題は\\\makebox[30mm][r]{150ms:}この問題は\\\makebox[30mm][r]{200ms:}この問題は解決\\\makebox[30mm][r]{250ms:}この問題は解決\\\makebox[30mm][r]{300ms:}この問題は解決\\\makebox[30mm][r]{350ms:}この問題は解決ずみ\\\makebox[30mm][r]{400ms:}この問題は解決ずみ\\\makebox[30mm][r]{450ms:}この問題は解決ずみと\\\makebox[30mm][r]{500ms:}この問題は解決ずみと\\\makebox[30mm][r]{550ms:}この問題は解決ずみ\\\makebox[30mm][r]{600ms:}この問題は解決ずみというつもりなのか\\\makebox[30mm][r]{650ms:}この問題は解決ずみというつもりなのか\\\makebox[30mm][r]{700ms:}この問題は解決ずみというつもりなのか\\\makebox[30mm][r]{750ms:}この問題は解決ずみというつもりなのかもしれないが私は\\\makebox[30mm][r]{800ms:}この問題は解決ずみというつもりなのか\\\makebox[30mm][r]{850ms:}この問題は解決ずみというつもりなのかもしれないが\\\makebox[30mm][r]{900ms:}この問題は解決ずみというつもりなのかもしれないが私は\\\makebox[30mm][r]{950ms:}この問題は解決ずみというつもりなのかもしれないが私はそう思わない.\\\makebox[30mm][r]{1000ms:}この問題は解決ずみというつもりなのかもしれないが私はそう思わない.\\\makebox[30mm][r]{stimulus}この問題は解決ずみというつもりなのかもしれないが私はそうは思わない.\\\end{flushleft}\caption{認知単位知覚実験の結果例}\label{zu2}\vspace*{5mm}\end{figure}\begin{enumerate}\item文節\item「〜かもしれない」などの慣用句\item「〜している」などの補助用言を含んだ句\end{enumerate}このような句を,本論文は認知単位と呼ぶことにする\cite{yoko}.
\section{認知単位を用いた文法の獲得法}
\subsection{認知単位を用いた文法の獲得法の概要}2節で述べた獲得法により獲得した文法を用いるshift-reduceパーザは,認知単位の内部まで係受けを調べるため,探索空間は膨大なものとなる.しかし,前節の考察から,人間においては,認知単位の内部については,通常解析は行っていないと考えられる.よって,2節の解析方法の単位として,3節で述べた認知単位を用いれば,探索空間は大きく狭まり検索効率は向上すると考えられる.本研究では,図{\ref{zu3a}}のように,認知単位を用いた構文木を作り文法を獲得するものとした.\begin{figure}[htb]\begin{center}\epsfile{file=7-3.eps,width=82mm}\end{center}\caption{認知単位を用いた構文木}\label{zu3a}\end{figure}\subsection{天気概況文における機械処理用の認知単位}この文法獲得を行うにあたり,NHKの気象通報の始めに放送される天気概況文1000文を,構文木情報を含めて手入力し,コーパスとして用いた.使用した天気概況文の例を図\ref{zu3}に示す.人間の認知単位は知覚実験により得られるもので,人間における認知単位をすべて明らかにして辞書を作成するためには膨大な知覚実験が必要となる.従って,本研究では簡単のため,人間同様と思われる単位を新たに定義し,機械処理用の認知単位として解析に利用することとした.以下,本論文ではこの機械処理用の認知単位を,単に認知単位と呼ぶ.本論文では,天気概況文における機械処理用の認知単位を次のように定義する.\subsection*{[天気概況文における機械処理用の認知単位の定義]}\begin{quotation}\[認知単位=\left\{\begin{array}{l}自立語\\自立語+補助的な語\\\end{array}\right.\]ただし,複合語は1つの自立語として扱う.また,活用する語については活用語尾も含めて1つの自立語とする.補助的な語は,以下の形態素もしくはその組み合わせとする.\begin{enumerate}\item「が」,「は」,「です」,「ます」のような付属語列\item継続,状態を示す「いる」,「おる」\item状態を示す「なる」\end{enumerate}\end{quotation}\begin{figure}[t]\scriptsizeオホーツク海には,発達中の低気圧があって,北北東へ進んでいます.一方,中国東北部には高気圧があって,ほとんど停滞しています.西日本は晴れ,東日本はくもりで,北日本では所々で雨が降っています.尚,北海道周辺海域と三陸沖では所々濃い霧の為見通しが悪くなっています.日本近海は,北海道東方海上から関東海域北部にかけて,シケています.気温は,北海道,北陸,東海で,平年より1度高い他は,平年並か,1度から2度低くなっています.\caption{天気概況文の例}\label{zu3}\end{figure}\newpage\subsection{認知単位を用いた文法の獲得実験}\vspace{4mm}\begin{figure}[b]\begin{center}\epsfile{file=7-5.eps,width=110mm}\end{center}\caption{認知単位を用いた文法の自動獲得の様子}\label{zu4}\end{figure}前節に示したコーパスを用いて実際に文法の自動獲得を行なった.非終端記号数$N_n=\hspace*{1mm}20,40,60,80$における,シミュレーテッド・アニーリング法による文法獲得の様子を図\ref{zu4}に示す.$C_p$は温度パラメータであり,初期値を経験的に定め,項比0.98の等比数列に従い減少させた.\hspace*{-2mm}各$C_p$について,各節点とも$2N_n$回の非終端記号の更新を行った.この結果得られた$Q$の最終値を表\ref{hyo1}に示す.獲得の結果は,すべて$Q$が$1.3$以下になった.これは動作規則の左辺1つに対して,右辺が$1.3$以下となる規則が得られたことを示している.\vfill\begin{table}\caption{獲得により得られた$Q$の最終値}\label{hyo1}\begin{center}\begin{tabular}{c|c}\hline\hline非終端記号数$N_n$&最終値\\\hline\hline20&1.21\\40&1.06\\60&1.09\\80&1.10\\\hline\hline\end{tabular}\end{center}\end{table}
\section{未知の認知単位の自動獲得法}
前節に述べた方法により,認知単位を基本とした文法を獲得することができる.従って,コーパスに出現した認知単位のすべてを辞書に納めておけば,前節で獲得した動作規則に基づいて構文解析を行うことができる.しかし,認知単位は形態素を複数組合わせたものであるため,認知単位の中には極めて出現率が低いものがいくつも存在し,これらの認知単位は限られたコーパス中においては,一度も出現しない可能性がある.従って収録文数が限られたコーパスでは,形態素を単位とした解析法よりも,認知単位を単位とした解析法の方が未知語の比率が高くなる.このようなコーパスの場合,2節の方法の単位として単に認知単位を用いただけでは,未知の認知単位を含む文が解析不能となり,結果的に解析効率が低下する.この現象を抑えるためには,未知の認知単位に関する知識を,既知の認知単位に関する知識から推定する必要がある.本研究ではこの推定を行うため,認知単位を,形態素を基本とする状態遷移図で表現できると仮定する.すると,例えば「東日本では」という認知単位が「東」,「日本」,「では」という3つの形態素からなり,shift-reduceパーザの動作規則または文脈自由文法の生成規則によって,非終端記号$n_1$に置き換え可能であるとすると,この認知単位を図\ref{zu5}のように,隠れ状態$u_1\ldotsu_4$を持つ状態遷移図モデルで表現し,取り扱うことができる.\begin{figure}[b]\begin{center}\epsfile{file=7-6.eps,width=71mm}\end{center}\caption{認知単位の状態遷移図モデル}\label{zu5}\end{figure}同図における各状態に対して更に,\hspace*{-1mm}$u_1$を初期状態,$u_2$,$u_3$を中間状態,$u_4$を受理状態と呼ぶ\\ことにし,この受理状態$u_4$が非終端記号$n_1$に対応しているものと考える.コーパスに出現するすべての認知単位に対しこのモデルを適用し,各認知単位についてすべて異なる隠れ状態$u_i$を生成すると,おびただしい数の隠れ状態が必要となる.このため,隠れ状態の総数$N_u$より小さい$N_s$を考え,\hspace*{-2mm}$u_1$のような初期状態を初期状態記号$s_1$に写像し,\hspace*{-1mm}$u_2$,\hspace*{-1mm}$u_3$のような中間状態を中間状態記号$s_2\ldotss_{N_s}$のいずれかに写像する写像$s_y=T_{us}(u_x)$を考え,状\\態を統一化する.写像$T_{us}$を決めると,コーパスより,状態$s_i$から単語$w_j$を通って$s_k$に移る確率$P_s(s_i,w_j,s_k)$と条件つき確率$P_{ss_i}(w_j,s_k)$を調べることができる.同様に状態$s_i$から単語$w_j$を通って$n_k$に移る確率$P_s(s_i,w_j,n_k)$と条件つき確率$P_{ss_i}(w_j,n_k)$も調べることができる.これらの確率を用いて,状態遷移図のエントロピーは次のように表現される.\begin{eqnarray}H_s&=&-\sum_{i,j,k}P_s(s_i,w_j,s_k)\logP_{ss_i}(w_j,s_k)\nonumber\\&&-\sum_{i,j,k}P_s(s_i,w_j,n_k)\logP_{ss_i}(w_j,n_k)\label{eq7}\end{eqnarray}このエントロピー$H_s$を用いて,状態遷移図における平均分岐数は次のように求まる.\begin{equation}Q_s=\exp(H_s)\label{eq8}\end{equation}$Q_s$は物理的には,一つの状態から平均いくつの枝が出ているかを示している.この方法で得られた状態遷移図を用いて,有限オートマトンで認知単位を検出するとすれば,この分岐数$Q_s$が小さい程オートマトンの決定性が高まり,動作が効率的になる.$Q_s$が最小となるよう$T_{us}$を求める問題は,組合わせ最適化問題となる.この組合わせ空間に\\はやはり多数の極小値が存在するため,本研究ではシミュレーテッド・アニーリング法により$Q_s$を最小化する.$T_{us}$による状態の統一化により,ある認知単位に関する状態遷移図と,その認知単位に近い用法を持つ別の認知単位に関する状態遷移図は交差する.この交差により,認知単位に関する知識は統一化され,未知の認知単位も受理できるようになる.従って,こうして得た状態遷移図は未知の認知単位を含めた状態遷移図となる.$T_{us}$の最適化は,エントロピー$H_s$を基準としてこの交差を最適化することになる.本研究では,この最適化により未知の認知単位に関する状態遷移図も最適化されると仮定し,最適化により得た状態遷移図に基づき認知単位を受理する.このように形態素を基本とした状態遷移図を用いる方法では,最終的には辞書としては形態素の辞書を持つことになる.しかし,有限オートマトンによる解析は,shift-reduceパーザのようなより高次の解析方法に比べて動作が直線的であるため一般に高速である.従って,認知単位内の解析に状態遷移図と有限オートマトンを用いる方法は,文全体をshift-reduceパーザで処理する方法に比べ高速となる利点がある.
\section{未知の認知単位の自動獲得実験}
\begin{figure}[b]\begin{center}\epsfile{file=7-7.eps,width=126mm}\end{center}\caption{認知単位を表現する状態遷移図の獲得}\label{zu6}\end{figure}4節で獲得した認知単位に関する知識に基づき,5節で述べた方法により未知の認知単位も含めた状態遷移図を獲得する実験を行った.状態記号数$N_u$は20とした.この獲得の様子を図\ref{zu6}に示す.この結果,最終的に得られた$Q_s$はほぼ9程度となった.$Q_s$の最終値を表\ref{hyo2}に示す.非終端記号数$N_n=20$として獲得した場合の,状態遷移図における遷移確率の高い枝の一部を表\ref{hyo3}に示す.状態遷移図の獲得により,形態素は自動的にクラスタリングされるが,このクラスタリングは人間のクラスタリングに類似していることが分かる.\begin{table}[htb]\caption{獲得により得られた$Q_s$の最終値}\label{hyo2}\begin{center}\begin{tabular}{c|c}\hline\hline非終端記号数$N_n$&最終値\\\hline\hline20&9.02\\40&8.71\\60&9.23\\80&9.36\\\hline\hline\end{tabular}\end{center}\end{table}\begin{table}[htb]\begin{center}\caption{獲得により得られた状態遷移表(部分)}\label{hyo3}\scriptsize\begin{tabular}{c|c|ccc}\hline\hline前状態&次状態&&主な形態素\\\hline\hline1&2&一部&西&北\\&3&シケて&進んで&停滞して\\&4&父島&別&霧\\&5&移動して&降って&晴れて\\&6&6&他&\\&7&黄海&気温&三陸沖\\&8&1&2&3\\&9&千島&日本&発達中\\&10&前線&東北&平年並\\&11&低気圧\\&12&悪く&高く&大シケと\\&13&サハリン&沖縄&九州\\&14&かけて&西日本&南\\&15&九州&オホーツク海&沖縄\\&16&見通し&高気圧&波\\&17&東&東シナ海&東北東\\&18&沖縄&関東&東海\\&19&シケて&見込み&中\\&20&平年\\&$n_2$&一方&尚&又\\&$n_4$&ため&為\\&$n_5$&共に&所々&伴った\\&$n_6$&かけて&高い\\&$n_7$&あって\\&$n_{10}$&あって&大体&低い\\&$n_{13}$&ほとんど&ほぼ&大体\\&$n_{15}$&濃い&発達した&ほとんど\\&$n_{16}$&あって\\&$n_{18}$&次第に&伴った\\&$n_{19}$&今後&日本海\\\hline\hline\end{tabular}\end{center}\end{table}
\section{獲得した知識に基づく構文解析}
以上の議論に基づき,(A)形態素を基本として文法を獲得する方法,(B)認知単位を基本として文法を獲得し,認知単位をそのまま辞書に登録する方法,(C)認知単位を基本として文法を獲得し,認知単位を受理する状態遷移図を獲得する方法の3つの評価を行った.評価は,獲得した文法に基づき,別に用意した100文を構文解析することによって行った.計算はSUNのSPARCStation20モデル612を用いた.この結果を表\ref{hyo4}に示す.表中において正解率はこの結果,最も確からしいと判断された構文木が,コーパスに与えられている構文木と等しい確率を示す.探索はbest-firstsearch法を用いているため,既存の知識では最終的に構文木が生成できない文があると,その文の処理に極端に時間がかかる.その一方で,解に容易に到達できる場合もあり,文によって処理時間のばらつきが大きい.非終端記号20では,このように探索に時間がかかる文が多く,(A)(B)(C)ともに長い時間を要している.特に認知単位を用いた(B)および(C)では,表\ref{hyo1}における$Q$が,他に比べて大きく,この結果長い時間がかかっているものと思われる.従って,認知単位を用いた方法では,非終端記号20では十分に整理された文法が得られないものと考えられる.しかし,非終端記号数が$40$以上になると(B)(C),特に(B)は,処理速度が著しく高速になる.これは,認知単位を用いる方が,構文木を構成する葉の候補の数が少ないため,構文解析での探索経路が少なくなることに起因する.\begin{table}\caption{獲得した知識に基づく構文解析結果}\label{hyo4}\begin{center}\begin{tabular}{c|c|cc}\hline\hline方法&$非終端記号数N_n$[個]&時間[s]&正解率[\%]\\\hline\hline(A)&20&1156&47\\&40&347&43\\&60&181&44\\&80&267&40\\\hline(B)&20&1877&44\\&40&3&42\\&60&4&35\\&80&4&38\\\hline(C)&20&2799&49\\&40&226&44\\&60&95&44\\&80&9&43\\\hline\hline\end{tabular}\vspace*{-4mm}\end{center}\end{table}正解率でみると,(C)が最も良く,ついで(A)(B)の順となっている.(B)が(A)に比べて劣るのは未知認知単位があるためであると考えられる.(C)において未知認知単位の自動獲得が有効に機能しているのが分かる.
\section{むすび}
以上,認知単位を用いた文法の自動獲得法を提案した.認知単位を基本とした文法を用いる解析法は,形態素を基本とした文法を用いる解析法に比べ効率が高い.一般に自然言語の文法は多重折込み要素が存在するため,文全体の解析に状態遷移図を利用するのは適当ではないが,認知単位のような狭い範囲に状態遷移図を利用するのは有効であることが明らかとなった.本方法以外の文解析方法においても,認知単位を利用することにより処理を効率化することができるものと考えられる.\acknowledgment本研究を進めるにあたり,データ入力やプログラミングに協力してくれた東京理科大学藤崎研究室の阿部賢司氏並びに青島直哉氏に深く感謝する.\bibliographystyle{jnlpbbl}\bibliography{nlp002t}\begin{biography}\biotitle{略歴}\bioauthor{横田和章}{1989年東京理科大学基礎工学部電子応用工学科卒業.1993年同大学大学院修士課程了.1996年同大学大学院博士後期課程了.現在,(株)東芝青梅工場所属.}\bioauthor{亀田弘之}{1982年東京大学工学部電子工学科卒業.1984年同大学大学院修士課程了.1987年同大学大学院博士課程了.工学博士.現在,東京工科大学工学部助教授.自然言語処理の研究に従事.}\bioauthor{藤崎博也}{1954年東京大学工学部電気工学科卒業.MIT・KTH(1958--1961).1962年東京大学大学院博士課程了.工学博士.同年東京大学工学部専任講師.1963年同助教授.1973年同教授.1991年東京大学名誉教授,東京理科大学基礎工学部教授.音声生成・知覚・情報処理,自然言語処理等の研究に従事.昭和38年度電気通信学会稲田賞,昭和42年度同学会論文賞,昭和42年度電気学会論文賞,昭和47年度電子通信学会業績賞,1987年IEEE音響・音声・信号処理学会功績賞,1988年米国音響学会特別功績賞,1989年東京都科学技術功労表彰受賞.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V21N01-04 | \section{はじめに}
本稿では語義曖昧性解消(WordSenseDisambiguation,WSD)をタスクとした領域適応の問題が共変量シフトの問題と見なせることを示す.そして共変量シフトの解法である確率密度比を重みにしたパラメータ学習により,WSDの領域適応の解決を図る.共変量シフトの解法では確率密度比の算出が鍵となるが,ここではNaiveBayesで利用されるモデルを利用した簡易な算出法を試みた.そして素性空間拡張法により拡張されたデータに対して,共変量シフトの解法を行う.この手法を本稿の提案手法とする.自然言語処理の多くのタスクにおいて帰納学習手法が利用される.そこではコーパス\(S\)からタスクに応じた訓練データを作成し,その訓練データから分類器を学習する.そしてこの分類器を利用することで当初のタスクを解決する.このとき実際のタスクとなるデータはコーパス\(S\)とは領域が異なるコーパス\(T\)のものであることがしばしば起こる.この場合,コーパス\(S\)(ソース領域)から学習された分類器では,コーパス\(T\)(ターゲット領域)のデータを精度良く解析することができない問題が生じる.これが領域適応の問題であり\footnote{領域適応は機械学習の分野では転移学習\cite{kamishima}の一種と見なされている.},近年活発に研究が行われている\cite{da-book}.WSDは文\(\boldsymbol{x}\)内の多義語\(w\)の語義\(c\inC\)を識別する問題である.\(P(c|\boldsymbol{x})\)を文\(\boldsymbol{x}\)内の単語\(w\)の語義が\(c\)である確率とすると,確率統計的には\(\arg\max_{c\inC}P(c|\boldsymbol{x})\)を解く問題といえる.例えば単語\(w=\)「ボタン」には少なくとも\(c_1:\)服のボタン,\(c_2:\)スイッチのボタン,\(c_3:\)花のボタン(牡丹),の3つの語義がある.そして文\(\boldsymbol{x}=\)「シャツのボタンが取れた」が与えられたときに,文中の「ボタン」が\(C=\{c_1,c_2,c_3\}\)内のどれかを識別する.直接的には教師付き学習手法を用いて\(P(c|\boldsymbol{x})\)を推定して解くことになる.WSDの領域適応の問題は,前述したように,教師付き学習手法を利用する際に学習もとのソース領域のコーパス\(S\)と,分類器の適用先であるターゲット領域のコーパス\(T\)が異なる問題である.領域適応ではソース領域\(S\)から\(S\)上の条件付き分布\(P_S(c|\boldsymbol{x})\)は学習できるという設定なので,\(P_S(c|\boldsymbol{x})\)やその他の情報を利用して,ターゲット領域\(T\)上の条件付き分布\(P_T(c|\boldsymbol{x})\)を推定できれば良い.ここで「シャツのボタンが取れた」という文中の「ボタン」の語義は,この文がどのような領域のコーパスに現れても変化するとは考えづらい.つまり\(P_T(c|\boldsymbol{x})\)は領域に依存していないため,\(P_S(c|\boldsymbol{x})=P_T(c|\boldsymbol{x})\)が成立していると考えられる.今\(P_S(c|\boldsymbol{x})\)は推定できるので,\(P_S(c|\boldsymbol{x})=P_T(c|\boldsymbol{x})\)が成立していれば,\(P_T(c|\boldsymbol{x})\)を推定する必要はないように見える.ただしソース領域だけを使って推定した\(P_S(c|\boldsymbol{x})\)では,実際の識別精度は低い場合が多い.それは\(P_S(\boldsymbol{x})\neP_T(\boldsymbol{x})\)から生じている.\(P_S(c|\boldsymbol{x})=P_T(c|\boldsymbol{x})\)だが\(P_S(\boldsymbol{x})\neP_T(\boldsymbol{x})\)という仮定の下で,\(P_T(c|\boldsymbol{x})\)を推定する問題は共変量シフトの問題\cite{shimodaira2000improving,sugiyama-2006-09-05,sugiyama-book}である.本稿ではWSDの領域適応の問題を共変量シフトの問題として捉え,共変量シフトの解法を利用してWSDの領域適応を解決することを試みる.訓練データを\(D=\{(\boldsymbol{x_i},c_i)\}_{i=1}^N\)とする.共変量シフトの標準的な解法では\(P_T(c|\boldsymbol{x})\)に確率モデル\(P(c|\boldsymbol{x};\boldsymbol{\theta})\)を設定し,次に確率密度比\(r(\boldsymbol{x_i})=P_T(\boldsymbol{x_i})/P_S(\boldsymbol{x_i})\)を重みにした以下の対数尤度を最大にする\(\boldsymbol{\theta}\)を求めることで,\(P_T(c|\boldsymbol{x})\)を構築する.\[\sum_{i=1}^{N}r(\boldsymbol{x_i})\logP(c_i|\boldsymbol{x_i};\boldsymbol{\theta})\]また領域適応に対してはDaum{\'e}の手法\cite{daume0}が非常に簡易でありながら,効果が高い手法として知られている.Daum{\'e}の手法は,データの表現を領域適応に効果が出るように拡張し,拡張されたデータを用いてSVM等の学習手法を利用する手法である.ここでは拡張する手法を「素性空間拡張法(FeatureAugmentation)」と呼び,拡張されたデータを用いてSVMなどで識別までを行う手法を「Daum{\'e}の手法」と呼ぶことにする.拡張されたデータに対しては任意の学習手法が利用できる.つまり素性空間拡張法により拡張されたデータに対して,共変量シフトによる解法を利用することも可能である.本稿ではこの手法を提案手法とする.実験では現代日本語書き言葉均衡コーパス(BCCWJコーパス\cite{bccwj})における3つの領域OC(Yahoo!知恵袋),PB(書籍)及びPN(新聞)を利用する.SemEval-2の日本語WSDタスク\cite{semeval-2010}ではこれらのコーパスの一部に語義タグを付けたデータを公開しており,そのデータを利用する.すべての領域である程度の頻度が存在する多義語16単語を対象にして,WSDの領域適応の実験を行う.領域適応としてはOC→PB,PB→PN,PN→OC,OC→PN,PN→PB,PB→OCの計6通りが存在する.結果\(16\times6=96\)通りのWSDの領域適応の問題に対して実験を行った.その結果,提案手法はDaum{\'e}の手法と同等以上の正解率を出した.本稿で用いた簡易な確率密度比の算出法であっても共変量シフトの解法を利用する効果が高いことが示された.より正確な確率密度比の推定法を利用したり,SVMを利用するなどの工夫で更なる改善が可能である.また教師なし領域適応へも応用可能である.WSDの領域適応に共変量シフトの解法を利用することは有望であると考えられる.
\section{関連研究}
自然言語処理における領域適応は,帰納学習手法を利用する全てのタスクで生じる問題であるために,その研究は多岐にわたる.利用手法をおおまかに分類すると,ターゲット領域のラベル付きデータを利用するかしないかで分類できる.利用する場合を教師付き領域適応手法,利用しない場合を教師なし領域適応手法と呼ぶ.本稿における手法は教師付き領域適応手法の範疇に入るので,ここでは提案手法に関連する教師付き領域適応手法の従来研究を述べる.教師付き領域適応手法においては,一般に,ターゲット領域の知識は使えるだけ使えばよいはずなので,ポイントはソース領域の知識の利用方法にある.ソース領域とターゲット領域間の距離が離れすぎている場合,ソース領域の知識を使いすぎると分類器の精度が悪化する現象がおこる.これは負の転移\cite{rosenstein2005transfer}と呼ばれている.負の転移を避けるには,本質的に,ソース領域とターゲット領域間の距離を測り,その距離を利用してソース領域の知識の利用を制御する形となる.Aschは品詞タグ付けをタスクとして領域間の類似性を測り,その類似度から領域適応を行った際に精度がどの程度悪くなるかを予測できることを示した\cite{vanasch}.張本は構文解析をタスクとしてターゲット領域を変化させたときの精度低下の要因を調査し,そこから新たな領域間の類似性の尺度を提案している\cite{harimoto}.Plankは構文解析をタスクとして領域間の類似性を測ることで,ターゲット領域を解析するのに最も適したソース領域を選んでいる\cite{plank}.Ponomareva\cite{ponomareva}やRemus\cite{rem2012}は感情極性分類をタスクとして領域間の類似度を学習中のパラメータに利用した.これらの研究はタスク毎に類似性を測るが,WSDがタスクの場合,領域間の類似性はWSDの対象単語に依存していると考えられる.古宮は対象単語毎に領域間の距離を含めた性質\footnote{これら性質を全て含めて,領域間の類似性と呼べる.}によって適用する学習手法を変化させている\cite{komiya3,komiya2,komiya-nlp2012}.上記した古宮の一連の研究は広い意味でアンサンブル学習の一種である.そこでアンサンブルされる各要素となる学習手法をみるとソース領域のデータとターゲット領域のデータへの各重みが異なるだけである.つまり領域適応においてはソース領域のデータとターゲット領域のデータへの各重みを調整して,学習手法を適用するというアプローチが有力である.Jiang\cite{jiang2007instance}は\(P_S(c|\boldsymbol{x})\)と\(P_T(c|\boldsymbol{x})\)との差が極端に大きいデータを``misleading''データとして訓練データから取り除いて学習することを試みた.これは``misleading''データの重みを0にした学習と見なせるため,この手法も重み付けの手法と見なせる.本稿で利用する共変量シフト下での学習もこの範疇の手法といえる.素性空間拡張法\cite{daume0}も重み付け手法である.ただしデータではなくデータ中の素性に重みをつける.そこではソース領域の訓練データのベクトル\(\boldsymbol{x_s}\)を\((\boldsymbol{x_s},\boldsymbol{x_s},\boldsymbol{0})\)と連結した3倍の長さのベクトルに直し,ターゲット領域の訓練データのベクトル\(\boldsymbol{x_t}\)を\((\boldsymbol{0},\boldsymbol{x_t},\boldsymbol{x_t})\)と連結した3倍の長さのベクトルに直す.ここで\(\boldsymbol{0}\)は\(\boldsymbol{x_s}\)や\(\boldsymbol{x_t}\)と同じ次元数であり,しかもすべての次元の値が0であるようなベクトルである.この3倍にしたベクトルを用いて,通常の分類問題として解く.この手法は非常に簡易でありながら,効果が高い手法として知られている.この拡張手法はソース領域とターゲット領域に共通している特徴が重なることで,結果として共通している特徴の重みがつくことで領域適応に効果が出ると考えられる.また領域適応の問題を共変量シフト下の学習を用いて解決する研究としては,Jiangの研究\cite{jiang2007instance}と齋木の研究\cite{saiki-2008-03-27}がある.Jiangは確率密度比を手動で調整し,モデルにはロジステック回帰を用いている.また齋木は\(P(\boldsymbol{x})\)をunigramでモデル化することで確率密度比を推定し,モデルには最大エントロピー法のモデルを用いている.ただしどちらの研究もタスクはWSDではない.また共変量シフト下では\(P_S(c|\boldsymbol{x})=P_T(c|\boldsymbol{x})\)を仮定するが,\(P_S(\boldsymbol{x}|c)=P_T(\boldsymbol{x}|c)\)を仮定するアプローチもある.この場合,ベイズの定理から\begin{align*}\arg\max_{c\inC}P_T(c|\boldsymbol{x})&=\arg\max_{c\inC}P_T(c)P_T(\boldsymbol{x}|c)\\&=\arg\max_{c\inC}P_T(c)P_S(\boldsymbol{x}|c)\end{align*}となるので領域適応の問題は\(P_T(c)\)の推定に帰着できる.実際,Chanらは\(P_S(\boldsymbol{x}|c)\)と\(P_T(\boldsymbol{x}|c)\)の違いの影響は非常に小さいと考え,\(P_S(\boldsymbol{x}|c)=P_T(\boldsymbol{x}|c)\)を仮定し,\(P_T(c)\)をEMアルゴリズムで推定することでWSDの領域適応を行っている\cite{chan2005word,chan2006estimating}.更に新納らは\(P_S(\boldsymbol{x}|c)=P_T(\boldsymbol{x}|c)\)の仮定があったとしても,コーパスのスパース性から単純に\(P_T(\boldsymbol{x}|c)\)を\(P_S(\boldsymbol{x}|c)\)で置き換えることはできないと考え,\(P_T(c)\)の推定の問題と\(P_T(\boldsymbol{x}|c)\)の推定の問題を個別に対処することを提案している\cite{shinnou-gengo-13}.
\section{期待損失最小化からみた共変量シフト}
対象単語\(w\)の語義の集合を\(C\),また\(w\)の用例\(\boldsymbol{x}\)内の\(w\)の語義を\(c\)と識別したときの損失関数を\(l(\boldsymbol{x},c,d)\)で表す.\(d\)は\(w\)の語義を識別する分類器である.\(P_T(\boldsymbol{x},c)\)をターゲット領域上の分布とすれば,領域適応の問題における期待損失\(L_0\)は以下で表せる.\[L_0=\sum_{\boldsymbol{x},c}l(\boldsymbol{x},c,d)P_T(\boldsymbol{x},c)\]また\(P_S(\boldsymbol{x},c)\)をソース領域上の分布とすると以下が成立する.\[L_0=\sum_{\boldsymbol{x},c}l(\boldsymbol{x},c)\frac{P_T(\boldsymbol{x},c)}{P_S(\boldsymbol{x},c)}P_S(\boldsymbol{x},c)\]ここで共変量シフトの仮定から\[\frac{P_T(\boldsymbol{x},c)}{P_S(\boldsymbol{x},c)}=\frac{P_T(\boldsymbol{x})P_T(c|\boldsymbol{x})}{P_S(\boldsymbol{x})P_S(c|\boldsymbol{x})}=\frac{P_T(\boldsymbol{x})}{P_S(\boldsymbol{x})}\]となり,\(r(\boldsymbol{x})=P_T(\boldsymbol{x})/P_S(\boldsymbol{x})\)とおくと以下が成立する.\[L_0=\sum_{\boldsymbol{x},c}r(\boldsymbol{x})l(\boldsymbol{x},c,d)P_S(\boldsymbol{x},c)\]訓練データを\(D=\{(\boldsymbol{x_i},c_i)\}_{i=1}^N\)とし,\(P_S(\boldsymbol{x},c)\)を経験分布で近似すれば,\[L_0\approx\frac{1}{N}\sum_{i=1}^Nr(\boldsymbol{x_i})l(\boldsymbol{x_i},c_i,d)\]となるので,期待損失最小化の観点から考えると,共変量シフトの問題は以下の式\(L_1\)を最小にする\(d\)を求めればよいことがわかる.\begin{equation}L_1=\sum_{i=1}^Nr(\boldsymbol{x_i})l(\boldsymbol{x_i},c_i,d)\label{eq:1}\end{equation}
\section{重み付き対数尤度の最大化}
分類器\(d\)として以下の事後確率最大化推定に基づく識別を考える.\[d(\boldsymbol{x})=\arg\max_{c}P_T(c|\boldsymbol{x})\]また損失関数として対数損失\(-\logP_T(c|\boldsymbol{x})\)を用いれば,\mbox{式(\ref{eq:1})}は以下となる.\[L_1=-\sum_{i=1}^Nr(\boldsymbol{x_i})\logP_T(c|\boldsymbol{x_i})\]つまり,分類問題の解決に\(P_T(c|\boldsymbol{x},\boldsymbol{\lambda})\)のモデルを導入するアプローチを取る場合,共変量シフト下での学習では,確率密度比を重みとした以下に示す重み付き対数尤度\(L(\boldsymbol{\lambda})\)を最大化するパラメータ\(\boldsymbol{\lambda}\)を求める形となる.\begin{equation}L(\boldsymbol{\lambda})=\sum_{i=1}^Nr(\boldsymbol{x_i})\logP(c_i|\boldsymbol{x_i},\boldsymbol{\lambda})\label{eq:2}\end{equation}ここではモデルとして以下の式で示される最大エントロピー法を用いる.\begin{equation}P_T(c|\boldsymbol{x},\boldsymbol{\lambda})=\frac{1}{Z(\boldsymbol{x},\boldsymbol{\lambda})}\exp\left(\sum_{j=1}^M\lambda_jf_j(\boldsymbol{x},c)\right)\label{eq:3}\end{equation}\(\boldsymbol{x}=(x_1,x_2,\cdots,x_M)\)が入力で\(c\)がクラスである.関数\(f_j(\boldsymbol{x},c)\)は素性関数であり,実質\(\boldsymbol{x}\)の真のクラスが\(c\)のときに\(x_j\)を返し,そうでないとき0を返す関数に設定される.\(Z(\boldsymbol{x},\boldsymbol{\lambda})\)は正規化項であり,以下で表せる.\begin{equation}Z(\boldsymbol{x},\boldsymbol{\lambda})=\sum_{c\inC}\exp\left(\sum_{j=1}^M\lambda_jf_j(\boldsymbol{x},c)\right)\label{eq:4}\end{equation}\noindentそして\(\boldsymbol{\lambda}=(\lambda_1,\lambda_2,\cdots,\lambda_M)\)が素性に対応する重みパラメータとなる.共変量シフト下ではない通常のケースでは,重みパラメータは最尤法から求める.つまり,訓練データ\(D=\{(\boldsymbol{x_i},c_i)\}_{i=1}^N\)とすると,以下の式\(F(\boldsymbol{\lambda})\)を最大にする\(\boldsymbol{\lambda}\)を求める.\[F(\boldsymbol{\lambda})=\sum_{i=1}^N\logP(c_i|\boldsymbol{x_i})\]これを各\(\lambda_j\)で偏微分し極値問題に直すと以下が成立する.\[\frac{\partialF(\boldsymbol{\lambda})}{\partial\lambda_j}=\sum_{i=1}^Nf_j(\boldsymbol{x_i},c_i)-\sum_{i=1}^N\sum_{c\inC}P_T(c|\boldsymbol{x_i},\boldsymbol{\lambda})f_j(\boldsymbol{x_i},c)=0\]これを勾配法などで解くことにより\(\boldsymbol{\lambda}\)が求まる.共変量シフト下の学習では\mbox{式(\ref{eq:2})}の\(L(\boldsymbol{\lambda})\)を最大にする\(\boldsymbol{\lambda}\)を求める.上記と全く同じ手順で,\[\frac{\partialL(\boldsymbol{\lambda})}{\partial\lambda_j}=\sum_{i=1}^Nr(\boldsymbol{x_i})f_j(\boldsymbol{x_i},c_i)-\sum_{i=1}^N\sum_{c\inC}P(c|\boldsymbol{x_i},\boldsymbol{\lambda})r(\boldsymbol{x_i})f_j(\boldsymbol{x_i},c)=0\]が得られる.これを勾配法などで解くことにより\(\boldsymbol{\lambda}\)が求まる.今,事例\(\boldsymbol{x_i}\)の頻度を\(h_i\)とすると,尤度は以下となる.\[\prod_{i=1}^NP(c_i|\boldsymbol{x_i})^{h_i}\]対数を取れば以下が得られる.\[\sum_{i=1}^Nh_i\logP(c_i|\boldsymbol{x_i})\]この式は重み付き対数尤度の\mbox{式(\ref{eq:2})}と同じ形なので,実際に\(\boldsymbol{\lambda}\)を求めるためには,事例\(\boldsymbol{x_i}\)の頻度\(h_i\)を\(r(\boldsymbol{x_i})\)と考えて,最大エントロピー法のツールなどを用いればよい\footnote{ただし利用できるツールは頻度を実数値として与えられるものでなくてはならない.事例の重みを頻度の拡張として実装したツールであるともいえる.本稿で用いた機械学習ツールClassias\cite{Classias}はこの条件を満たすため利用可能である.}.
\section{確率密度比の算出}
共変量シフト下の学習では確率密度比の算出が鍵である.直接的には\(P_S(\boldsymbol{x})\)と\(P_T(\boldsymbol{x})\)を推定し,その比を取ればよいが,\(P_S(\boldsymbol{x})\)や\(P_T(\boldsymbol{x})\)を正確に推定することは困難であり,その比をとれば更に誤差が大きくなると予想できる.そのため確率密度比を直接モデル化して求める手法が活発に研究されている\cite{sugiyama-2010}.ただし本稿では簡易な手法を利用して確率密度比を算出することにした.本稿の目的はこのような簡易な手法による確率密度比の算出法であっても,WSDの領域適応の有力な解法になることを示すことである.対象単語\(w\)の用例\(\boldsymbol{x}\)の素性リストを\(\{f_1,f_2,\cdots,f_n\}\)とする.求めるのは領域\(R\in\{S,T\}\)上の\(\boldsymbol{x}\)の分布\(P_R(\boldsymbol{x})\)である.ここではNaiveBayesで使われるモデルを用いて算出する.NaiveBayesのモデルでは以下を仮定する.\[P_R(\boldsymbol{x})=\prod_{i=1}^{n}P_R(f_i)\]領域\(R\)のコーパス内の\(w\)の全ての用例について素性リストを作成しておく.ここで用例の数を\(N(R)\)とおく.また\(N(R)\)個の用例の中で,素性\(f\)が現れた用例数を\(n(R,f)\)とおく.MAP推定でスムージングを行い,\(P_R(f)\)を以下で定義する\cite{takamura}.\[P_R(f)=\frac{n(R,f)+1}{N(R)+2}\]以上より,ソース領域\(S\)の用例\(\boldsymbol{x}\)に対して,確率密度比\(r(\boldsymbol{x})=\frac{P_T(\boldsymbol{x})}{P_S(\boldsymbol{x})}\)が計算できる.ターゲット領域\(T\)の用例\(\boldsymbol{x}\)に対しては\(r(\boldsymbol{x})=1\)とする.また\(r_x<0.01\)となる用例\(\boldsymbol{x}\)は訓練データから削除した\footnote{この削除は処理の効率化のために行っている.また本稿の実験では削除しない場合よりもわずかによい結果となっていた.}.
\section{提案手法}
「関連手法」の節で素性空間拡張法を紹介した.素性空間拡張法はデータの表現を領域適応で効果が出るように拡張する手法である.そして拡張されたデータに対しては任意の学習手法が利用できる.つまり拡張されたデータに対して,共変量シフト下の学習も可能である.本稿では,素性空間拡張法により拡張されたデータに対して,4章で説明した共変量シフト下の学習を行うことを提案手法する.具体的に示す.素性空間拡張法により,ソース領域の訓練データ\(\boldsymbol{x_s}\)は\(\boldsymbol{u_s}=(\boldsymbol{x_s},\boldsymbol{x_s},\boldsymbol{0})\)という3倍の長さのベクトルに拡張され,ターゲット領域の訓練データ\(\boldsymbol{x_t}\)は\(\boldsymbol{u_t}=(\boldsymbol{0},\boldsymbol{x_t},\boldsymbol{x_t})\)という3倍の長さのベクトルに拡張される.ここで\(\boldsymbol{u_s}\)に対しては確率密度比\(r(\boldsymbol{x_s})=P_T(\boldsymbol{x_s})/P_S(\boldsymbol{x_s})\)の重みをつけ,\(\boldsymbol{u_t}\)に対しては重み1をつける.また\(P_T(c|\boldsymbol{u})\)のモデルに最大エントロピー法を用い,重み付き対数尤度を最大化するパラメータを求めることで,\(P(c|\boldsymbol{u})\)を推定する.上記の重み付き対数尤度の式(目的関数)を示しておく.今,ソース領域の訓練データを\(D_s=\{(\boldsymbol{x_s^{(i)}},c_s^{(i)})\}_{i=1}^n\),ターゲット領域の訓練データを\(D_t=\{(\boldsymbol{x_t^{(i)}},c_t^{(i)})\}_{i=1}^m\)とおく.また\(\boldsymbol{x_s^{(i)}}\)と\(\boldsymbol{x_t^{(i)}}\)を素性空間拡張法により拡張したデータをそれぞれ\(\boldsymbol{u_s^{(i)}}\)と\(\boldsymbol{u_t^{(i)}}\)とおく.ここで\(\boldsymbol{x_s^{(i)}}\)と\(\boldsymbol{x_t^{(i)}}\)は\(M\)次元,\(\boldsymbol{u_s^{(i)}}\)と\(\boldsymbol{u_t^{(i)}}\)は\(3M\)次元のベクトルであることに注意する.提案手法の重み付き対数尤度の式は以下となる.\begin{gather*}L(\boldsymbol{\lambda})=\sum_{i=1}^nr(\boldsymbol{x_s^{(i)}})\logP(c_s^{(i)}|\boldsymbol{u_s^{(i)}},\boldsymbol{\lambda})+\sum_{i=1}^m\logP(c_t^{(i)}|\boldsymbol{u_t^{(i)}},\boldsymbol{\lambda})\\P(c|\boldsymbol{u},\boldsymbol{\lambda})=\frac{1}{Z(\boldsymbol{u},\boldsymbol{\lambda})}\exp\left(\sum_{j=1}^{3M}\lambda_jf_j(\boldsymbol{u},c)\right)\\Z(\boldsymbol{u},\boldsymbol{\lambda})=\sum_{c\inC}\exp\left(\sum_{j=1}^{3M}\lambda_jf_j(\boldsymbol{u},c)\right)\end{gather*}
\section{実験}
BCCWJコーパスのPB(書籍),OC(Yahoo!知恵袋)及びPN(新聞)を異なった領域として実験を行う.SemEval-2の日本語WSDタスク\cite{semeval-2010}ではこれら領域のコーパスの一部に語義タグを付けたデータを公開しており,そのデータを利用する.この3つの領域からある程度頻度のある多義語16単語をWSDの対象単語とする.これら単語と辞書上での語義数及び各コーパスでの頻度と語義数を\mbox{表\ref{tab:target-word}}に示す\footnote{語義は岩波国語辞書がもとになっている.そこでの中分類までを対象にした.また「入る」は辞書上の語義が3つだが,OCやPBでは4つの語義がある.これはSemEval-2の日本語WSDタスクでは新語義のタグも許しているからである.}.領域適応の方向としてはOC→PB,PB→PN,PN→OC,OC→PN,PN→PB,PB→OCの計6通りの方向が存在する.\begin{table}[t]\caption{対象単語}\label{tab:target-word}\input{04table01.txt}\end{table}本稿で利用した素性は以下の8種類である.(e0)\(w\)の表記,(e1)\(w\)の品詞,(e2)\(w_{-1}\)の表記,(e3)\(w_{-1}\)の品詞,(e4)\(w_1\)の表記,(e5)\(w_1\)の品詞,(e6)\(w\)の前後3単語までの自立語の表記,(e7)e6の分類語彙表の番号の4桁と5桁.なお対象単語の直前の単語を\(w_{-1}\),直後の単語を\(w_1\)としている.単語\(w_i\)についてソース領域\(S\)からターゲット領域\(T\)への領域適応の実験について説明する.まずターゲット領域\(T\)のラベル付きデータをランダムに15個取り出し,残りを評価データとする.つまり利用できる訓練データはソース領域\(S\)のラベル付きデータとターゲット領域\(T\)からランダムに取り出した15個のラベル付きデータとなる.この訓練データを用いて手法Aにより分類器を作成し,先の評価データの語義識別の正解率\(P_{i,k}\)を測る.この実験を5回行い\(P_{i,1},P_{i,2},\cdots,P_{i,5}\)を得る.それらの平均\(P_i\)を「単語\(w_i\)の\(S\)から\(T\)への領域適応における手法Aの平均正解率」とする.上記の単語\(w_i\)を16種類の各対象単語\(w_1,w_2,\cdots,w_{16}\)に変えることで,16個の平均正解率\(P_1,P_2,\cdots,P_{16}\)が得られる.それらの平均\(P\)を「\(S\)から\(T\)への領域適応における手法Aの平均正解率」とする(\mbox{図~\ref{zu1}}参照).\begin{figure}[b]\begin{center}\includegraphics{21-1ia4f1.eps}\end{center}\caption{手法の評価値(平均正解率)の算出}\label{zu1}\end{figure}\begin{table}[b]\caption{各手法の平均正解率}\label{tab:resultall}\input{04table02.txt}\end{table}上記の手法Aとしては,以下の6種類を試す.(1)ソース領域のラベル付きデータのみを用いる手法(ターゲット領域の15個のラベル付きデータの重みを0とする手法)(S-Only),(2)ターゲット領域からランダムに取り出した15個のラベル付きデータのみを用いる手法(ソース領域のラベル付きデータの重みを0とする手法)(T-Only),(3)ソース領域のラベル付きデータとターゲット領域の15個のラベル付きデータを用いる手法(S+T),(4)Daum{\'e}の手法(Daum{\'e}),(5)本稿で示した簡易手法により算出した確率密度比を用いた共変量シフトによる手法(Cov-Shift),(6)素性空間拡張法から得られた訓練データに対して,本稿で示した簡易手法により算出した確率密度比を用いた共変量シフトによる手法(提案手法)の計6種類である.またすべての手法において学習アルゴリズムとしては最大エントロピー法を用いた.またその実行にはツールのClassiasを用いた\cite{Classias}.\(S\)から\(T\)への領域適応における各手法の平均正解率を\mbox{表\ref{tab:resultall}}に示す.Daum{\'e}とCov-Shiftを比較するとDaum{\'e}の方がわずかに高い正解率を示している.この点は考察で議論する.ただし提案手法はDaum{\'e}よりも高い正解率であり,共変量シフトによる解法の効果が確認できる.
\section{考察}
\subsection{負の転移の有無}WSDの領域適応では,対象単語毎に領域適応の問題が生じている.実験では領域の組み合わせで6通り,対象単語が16単語あるので,合計96($=6\times16$)通りの領域適応の問題を扱ったことになる.ここでは各領域適応の問題に対して負の転移が生じているかどうかを調べ,それぞれのケースに分けて,各手法の正解率を調べた.\begin{table}[b]\caption{負の転移が生じていない領域適応}\label{tab:funoteni}\input{04table03.txt}\end{table}まず負の転移が生じているかどうかの判定には,先の実験でより得られた\verb|T-Only|,\verb|S-Only|及び\verb|S+T|の正解率を利用する.もしも正解率で以下の関係が成立しているなら,負の転移が生じていないと考えられる.\begin{center}\verb|T-Only,S-Only<S+T|\end{center}結果を\mbox{表\ref{tab:funoteni}}に示す.チェックがつけられた箇所が負の転移が生じていない領域適応の問題である.96種類の領域適応の問題の中で44種類において負の転移が生じていない.次に負の転移が生じているかいないかのケースに分けて,各手法の平均正解率を調べた.結果を\mbox{表\ref{tab:funoteni2}}に示す.\begin{table}[t]\caption{負の転移と各手法の平均正解率}\label{tab:funoteni2}\input{04table04.txt}\end{table}\mbox{表\ref{tab:funoteni2}}において領域適応に対処する3手法(Daum{\'e},Cov-Shift,提案手法)を見ると,提案手法は負の転移の有無に関わらずCov-Shiftよりも高い正解率であり,提案手法はCov-Shiftの改良になっていることがわかる.更に負の転移が生じていないケースではCov-ShiftはDaum{\'e}よりも正解率が高く,このケースでは素性に重みをつけるよりも事例に重みをつける方が効果があることがわかる.ただし負の転移が生じるケースでは,提案手法はDaum{\'e}よりも正解率が若干低い.つまり提案手法をDaum{\'e}の手法の改良と見た場合,負の転移が生じるケースでは正解率の低下を抑え,その代わりに負の転移が生じないケースで正解率を高めることで,全体的な正解率を改善する手法と見なせる.また領域適応に対処しない3手法(S-Only,T-Only,S+T)も含めて比較すると,負の転移が生じるケースでは領域適応に対処する3手法(Daum{\'e},Cov-Shift,提案手法)の正解率はかなり悪い.つまりWSDの領域適応では負の転移を検出することで大きな改善が期待できる.共変量シフト下の学習では,負の転移が生じているケースに対しては,ソース領域のデータに0に近い重みを与えられればよいはずである.より正確な確率密度比の推定法を利用することで,このような重み付けが可能だと考える.この点は今後の課題である.\subsection{確率密度比の調整}確率密度比を精度良く推定することは困難な問題である.そのために求まった確率密度比を調整することも行われている.杉山は確率密度比\(r\)に\(p\)(\(0<p<1\))乗した\(r^p\)を重みにすることを提案している\cite{sugiyama-2006-09-05}.またYamadaはrelativedensityratioとして確率密度比を以下の形で求めることを提案してる\cite{yamada2011relative}.\[\frac{P_T(\boldsymbol{x})}{\alphaP_T(\boldsymbol{x})+(1-\alpha)P_S(\boldsymbol{x})}\]ここでは\(r^{0.5}\)の重みと\(\alpha=0.5\)のrelativedensityratioを試した.結果を\mbox{表\ref{tab:mitudohi-hikaku}}に示す.\mbox{表\ref{tab:mitudohi-hikaku}}における提案手法とCov-Shiftは\mbox{表\ref{tab:resultall}}における提案手法とCov-Shiftと同じものである.\(r^{0.5}\)が\mbox{Cov-Shift}の重み\(r\)を0.5乗したものであり,RDRが\(\alpha=0.5\)のrelativedensityratioである.\mbox{表\ref{tab:mitudohi-hikaku}}をみると,\(r^{0.5}\)やrelativedensityratioの調整は一部有効な問題もあったが,全体として見ると,効果はあまりない.これも本来の確率密度値\(P_S(\boldsymbol{x})\)や\(P_T(\boldsymbol{x})\)の推定が簡易すぎるために生じていると考える.\begin{table}[b]\caption{確率密度比の調整による平均正解率}\label{tab:mitudohi-hikaku}\input{04table05.txt}\end{table}確率密度比を確率統計的により精緻に求めていくことは重要である.ただし確率密度比は事例の重み,つまり事例の重要度を意味している.事例の重要度という自然言語処理的な観点からWSDの領域適応に特化した重みの設定も可能である.\subsection{SVMの利用}本稿では学習アルゴリズムとして最大エントロピー法を用いた.共変量シフトの解法として,重み付き対数尤度を最大化する形では,\(P_T(c|\boldsymbol{x})\)をモデル化するアプローチに限られる.しかし共変量シフト下の学習では確率密度比を重みにして期待損失を最小化すれば良いので,損失関数ベースの学習手法が利用できる.例えばヒンジ損失関数に密度比で重みづけすることで共変量シフト下の学習にSVMを利用できる\cite{sugiyama-book}.ただしSVM自体の実装が容易ではないために簡単に試すことはできない.\begin{table}[b]\caption{SVMによる平均正解率}\label{tab:result-svm}\input{04table06.txt}\end{table}ここでは共変量シフト下の学習にSVMを用いるのではなく,素性空間拡張法により拡張されたデータに対して,SVMを利用してみる.実行にはツールのlibsvm\footnote{http://www.csie.ntu.edu.tw/\~{}cjlin/libsvm/}を用いた.またそこで利用したカーネルは線形カーネルである.実験結果を\mbox{表\ref{tab:result-svm}}に示す.提案手法が本稿での提案手法での平均正解率であり,D3-MEが素性空間拡張法と最大エントロピー法を利用した場合の平均正解率である.つまり提案手法とD3-MEは,\mbox{表\ref{tab:resultall}}での提案手法とDaum{\'e}に対応する.そしてD3-SVMが素性空間拡張法とSVMを利用した場合の平均正解率である.提案手法はD3-SVMよりもわずかに高い正解率となっているが,その差は小さく識別能力については,提案手法とD3-SVMは同程度と言える.またD3-SVMはD3-MEよりも正解率が高い.つまり最大エントロピー法ではなく,SVMを利用する方が正解率が高くなると予想できる.このことから共変量シフト下の学習にSVMを利用すれば,改善が可能であると考えられる.これは今後の課題である.\subsection{教師なし手法への適用}共変量シフト下での学習では訓練データの中にターゲット領域のデータが含まれる必要はない.ターゲット領域の訓練データを含めなければ,教師なし領域適応手法となるはずである.この点を確認した実験を行った.実験結果を\mbox{表\ref{tab:unsuper}}に示す.表のS-Onlyの列はソース領域の訓練データだけで学習した結果である.これは\mbox{表\ref{tab:resultall}}のS-Onlyに対応する.W-S-Onlyはソース領域の訓練データのみを使った共変量シフト下での学習手法である.また参考までに提案手法の結果も記している.\begin{table}[b]\caption{重み付き教師なし学習による平均正解率}\label{tab:unsuper}\input{04table07.txt}\end{table}確率密度比を用いるW-S-Onlyではソース領域のデータへの重みが小さくなりがちである.ここでの実験では重みが0.01未満の場合はそのデータを省いて学習させている.そのためにW-S-Onlyでは極端にラベル付きデータが減少するケースがあった.結果として精度が低くなってしまったと考えられる.また多くの単語で正解率の低下が起こっていた.この原因としては,重みのあるデータの欠如だと考える.例えば,語義\(c_1\)のデータ\(x_1\)の重みが\(0.01\),語義\(c_2\)のデータ\(x_2\)の重みが\(0.02\)である場合,どちらの重みも「小さく」,その差はほぼ等しいと見なして\(P(c_1)=P(c_2)=0.5\)と考えるのが妥当であるが,「小さい」という点を考えないと\(P(c_1)=1/3\),\(P(c_2)=2/3\)となってしまう.「小さい」という点を考えるためには比較となるある程度「大きな」データが必要である.例えば,上記の設定の上で語義\(c_1\)のデータ\(x_3\)の重みが1などというデータが存在すれば,\(P(c_1)=101/103\),\(P(c_2)=2/103\)となり,これは妥当である.つまり重みが低いデータが多数を占めるような場合,信頼性のある推定が行えない.ある程度,重みのあるデータが必要だと思われる.このため共変量シフト下での学習を教師なしの枠組みに単純に利用することは難しい.教師なしの枠組みへの利用方法の検討は今後の課題である.
\section{おわりに}
本稿ではWSDの領域適応の問題が共変量シフトの問題と見なせることを示した.そして,共変量シフトの標準的な解法である確率密度比を重みにしたパラメータ学習により,WSDの領域適応の解決が図れることを示した.また素性空間拡張法により拡張されたデータに対して,共変量シフトの解法を行う手法を提案した.BCCWJコーパスの3つ領域OC(Yahoo!知恵袋),PB(書籍)及びPN(新聞)を選び,SemEval-2の日本語WSDタスクのデータを利用して,上記領域にある程度の頻度がある多義語16単語を対象に,WSDの領域適応の実験を行った.実験の結果,提案手法はDaum{\'e}の手法と同等以上の正解率を出した.共変量シフトの解法では確率密度比の算出が鍵となるが,ここではNaiveBayesで利用されるモデルを利用した簡易な算出法を試みた.このような簡易な算出法であってもWSDの領域適応に共変量シフトの解法を利用する効果が高いことが示された.より正確な確率密度比の推定法を利用したり,最大エントロピー法に代えてSVMを利用するなどの工夫で更なる改善が可能である.また教師なし領域適応へも応用可能である.WSDの領域適応に共変量シフトの解法を利用することは有望であると考えられる.\acknowledgmentClassiasの作者である岡崎直観氏に,Classiasの事例の重み付け方法について教えていただきました.また本稿の査読者殿には有益なコメントいただきました.感謝いたします.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chan\BBA\Ng}{Chan\BBA\Ng}{2005}]{chan2005word}Chan,Y.~S.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2005\BBCP.\newblock\BBOQWordSenseDisambiguationwithDistributionEstimation.\BBCQ\\newblockIn{\BemProceedingsofIJCAI-2005},\mbox{\BPGS\1010--1015}.\bibitem[\protect\BCAY{Chan\BBA\Ng}{Chan\BBA\Ng}{2006}]{chan2006estimating}Chan,Y.~S.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2006\BBCP.\newblock\BBOQEstimatingclasspriorsindomainadaptationforwordsensedisambiguation.\BBCQ\\newblockIn{\BemProceedingsofCOLING-ACL-2006},\mbox{\BPGS\89--96}.\bibitem[\protect\BCAY{Daum\'{e}}{Daum\'{e}}{2007}]{daume0}Daum\'{e},H.~I.\BBOP2007\BBCP.\newblock\BBOQFrustratinglyEasyDomainAdaptation.\BBCQ\\newblockIn{\BemProceedingsofACL-2007},\mbox{\BPGS\256--263}.\bibitem[\protect\BCAY{張本\JBA宮尾\JBA辻井}{張本\Jetal}{2010}]{harimoto}張本佳子\JBA宮尾祐介\JBA辻井潤一\BBOP2010\BBCP.\newblock構文解析の分野適応における精度低下要因の分析及び分野間距離の測定手法.\\newblock\Jem{言語処理学会第16回年次大会},\mbox{\BPGS\27--30}.\bibitem[\protect\BCAY{Jiang\BBA\Zhai}{Jiang\BBA\Zhai}{2007}]{jiang2007instance}Jiang,J.\BBACOMMA\\BBA\Zhai,C.\BBOP2007\BBCP.\newblock\BBOQInstanceweightingfordomainadaptationinNLP.\BBCQ\\newblockIn{\BemProceedingsofACL-2007},\mbox{\BPGS\264--271}.\bibitem[\protect\BCAY{神嶌}{神嶌}{2010}]{kamishima}神嶌敏弘\BBOP2010\BBCP.\newblock転移学習.\\newblock\Jem{人工知能学会誌},{\Bbf25}(4),\mbox{\BPGS\572--580}.\bibitem[\protect\BCAY{古宮\JBA奥村}{古宮\JBA奥村}{2012}]{komiya-nlp2012}古宮嘉那子\JBA奥村学\BBOP2012\BBCP.\newblock語義曖昧性解消のための領域適応手法の決定木学習による自動選択.\\newblock\Jem{自然言語処理},{\Bbf19}(3),\mbox{\BPGS\143--166}.\bibitem[\protect\BCAY{Komiya\BBA\Okumura}{Komiya\BBA\Okumura}{2011}]{komiya3}Komiya,K.\BBACOMMA\\BBA\Okumura,M.\BBOP2011\BBCP.\newblock\BBOQAutomaticDeterminationofaDomainAdaptationMethodforWordSenseDisambiguationusingDecisionTreeLearning.\BBCQ\\newblockIn{\BemProceedingsofIJCNLP-2011},\mbox{\BPGS\1107--1115}.\bibitem[\protect\BCAY{Komiya\BBA\Okumura}{Komiya\BBA\Okumura}{2012}]{komiya2}Komiya,K.\BBACOMMA\\BBA\Okumura,M.\BBOP2012\BBCP.\newblock\BBOQAutomaticDomainAdaptationforWordSenseDisambiguationBasedonComparisonofMultipleClassifiers.\BBCQ\\newblockIn{\BemProceedingsofPACLIC-2012},\mbox{\BPGS\75--85}.\bibitem[\protect\BCAY{Maekawa}{Maekawa}{2007}]{bccwj}Maekawa,K.\BBOP2007\BBCP.\newblock\BBOQDesignofaBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemSymposiumonLarge-ScaleKnowledgeResources(LKR2007)},\mbox{\BPGS\55--58}.\bibitem[\protect\BCAY{Okazaki}{Okazaki}{2009}]{Classias}Okazaki,N.\BBOP2009\BBCP.\newblock\BBOQClassias:acollectionofmachine-learningalgorithmsforclassification.\BBCQ\\texttt{http://www.chokkan.org/software/classias/}.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2010}]{semeval-2010}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2010\BBCP.\newblock\BBOQSemEval-2010Task:JapaneseWSD.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\69--74}.\bibitem[\protect\BCAY{Plank\BBA\vanNoord}{Plank\BBA\vanNoord}{2011}]{plank}Plank,B.\BBACOMMA\\BBA\vanNoord,G.\BBOP2011\BBCP.\newblock\BBOQEffectivemeasuresofdomainsimilarityforparsing.\BBCQ\\newblockIn{\BemProceedingsofACL-2011},\mbox{\BPGS\1566--1576}.\bibitem[\protect\BCAY{Ponomareva\BBA\Thelwall}{Ponomareva\BBA\Thelwall}{2012}]{ponomareva}Ponomareva,N.\BBACOMMA\\BBA\Thelwall,M.\BBOP2012\BBCP.\newblock\BBOQWhichresourceisbestforcross-domainsentimentanalysis?\BBCQ\\newblockIn{\BemProceedingsofCICLing-2012},\mbox{\BPGS\488--499}.\bibitem[\protect\BCAY{Remus}{Remus}{2012}]{rem2012}Remus,R.\BBOP2012\BBCP.\newblock\BBOQDomainAdaptationUsingDomainSimilarity-andDomainComplexity-basedInstanceSelectionforCross-domainSentimentAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe2012IEEE12thInternationalConferenceonDataMiningWorkshops(ICDMW2012)WorkshoponSentimentElicitationfromNaturalTextforInformationRetrievalandExtraction(SENTIRE)},\mbox{\BPGS\717--723}.\bibitem[\protect\BCAY{Rosenstein,Marx,Kaelbling,\BBA\Dietterich}{Rosensteinet~al.}{2005}]{rosenstein2005transfer}Rosenstein,M.~T.,Marx,Z.,Kaelbling,L.~P.,\BBA\Dietterich,T.~G.\BBOP2005\BBCP.\newblock\BBOQTotransferornottotransfer.\BBCQ\\newblockIn{\BemProceedingsoftheNIPS2005WorkshoponInductiveTransfer:10YearsLater}.\bibitem[\protect\BCAY{齋木\JBA高村\JBA奥村}{齋木\Jetal}{2008}]{saiki-2008-03-27}齋木陽介\JBA高村大也\JBA奥村学\BBOP2008\BBCP.\newblock文の感情極性判定における事例重み付けによるドメイン適応.\\newblock\Jem{情報処理学会第184回自然言語処理研究会},\mbox{\BPGS\61--67}.\bibitem[\protect\BCAY{Shimodaira}{Shimodaira}{2000}]{shimodaira2000improving}Shimodaira,H.\BBOP2000\BBCP.\newblock\BBOQImprovingpredictiveinferenceundercovariateshiftbyweightingthelog-likelihoodfunction.\BBCQ\\newblock{\BemJournalofstatisticalplanningandinference},{\Bbf90}(2),\mbox{\BPGS\227--244}.\bibitem[\protect\BCAY{新納\JBA佐々木}{新納\JBA佐々木}{2013}]{shinnou-gengo-13}新納浩幸\JBA佐々木稔\BBOP2013\BBCP.\newblockk近傍法とトピックモデルを利用した語義曖昧性解消の領域適応.\\newblock\Jem{自然言語処理},{\Bbf20}(5),\mbox{\BPGS\707--726}.\bibitem[\protect\BCAY{Sogaard}{Sogaard}{2013}]{da-book}Sogaard,A.\BBOP2013\BBCP.\newblock{\BemSemi-SupervisedLearningandDomainAdaptationinNaturalLanguageProcessing}.\newblockMorgan\&Claypool.\bibitem[\protect\BCAY{杉山}{杉山}{2006}]{sugiyama-2006-09-05}杉山将\BBOP2006\BBCP.\newblock共変量シフト下での教師付き学習.\\newblock\Jem{日本神経回路学会誌},{\Bbf13}(3),\mbox{\BPGS\111--118}.\bibitem[\protect\BCAY{杉山}{杉山}{2010}]{sugiyama-2010}杉山将\BBOP2010\BBCP.\newblock密度比に基づく機械学習の新たなアプローチ.\\newblock\Jem{統計数理},{\Bbf58}(2),\mbox{\BPGS\141--155}.\bibitem[\protect\BCAY{Sugiyama\BBA\Kawanabe}{Sugiyama\BBA\Kawanabe}{2011}]{sugiyama-book}Sugiyama,M.\BBACOMMA\\BBA\Kawanabe,M.\BBOP2011\BBCP.\newblock{\BemMachineLearninginNon-StationaryEnvironments:IntroductiontoCovariateShiftAdaptation}.\newblockMITPress.\bibitem[\protect\BCAY{高村}{高村}{2010}]{takamura}高村大也\BBOP2010\BBCP.\newblock\Jem{言語処理のための機械学習入門}.\newblockコロナ社.\bibitem[\protect\BCAY{Van~Asch\BBA\Daelemans}{Van~Asch\BBA\Daelemans}{2010}]{vanasch}Van~Asch,V.\BBACOMMA\\BBA\Daelemans,W.\BBOP2010\BBCP.\newblock\BBOQUsingdomainsimilarityforperformanceestimation.\BBCQ\\newblockIn{\BemProceedingsofthe2010WorkshoponDomainAdaptationforNaturalLanguageProcessing},\mbox{\BPGS\31--36}.\bibitem[\protect\BCAY{Yamada,Suzuki,Kanamori,Hachiya,\BBA\Sugiyama}{Yamadaet~al.}{2011}]{yamada2011relative}Yamada,M.,Suzuki,T.,Kanamori,T.,Hachiya,H.,\BBA\Sugiyama,M.\BBOP2011\BBCP.\newblock\BBOQRelativedensity-ratioestimationforrobustdistributioncomparison.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf25}(5),\mbox{\BPGS\1370--1370}.\end{thebibliography}\begin{biography}\bioauthor{新納浩幸}{1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年4月茨城大学工学部システム工学科助手.1997年10月同学科講師,2001年4月同学科助教授,現在,茨城大学工学部情報工学科准教授.博士(工学).機械学習や統計的手法による自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{佐々木稔}{1996年徳島大学工学部知能情報工学科卒業.2001年同大学大学院博士後期課程修了.博士(工学).2001年12月茨城大学工学部情報工学科助手.現在,茨城大学工学部情報工学科講師.機械学習や統計的手法による情報検索,自然言語処理等に関する研究に従事.言語処理学会,情報処理学会各会員.}\end{biography}\biodate\end{document}
| |
V10N03-05 | \section{はじめに}
本論文では,SENSEVAL2の日本語翻訳タスクに対して帰納論理プログラミング(InductiveLogicPrograming,以下ILPと略す)を適用する.背景知識として分類語彙表を利用することで,正解率54.0\,\%を達成した.この値は,訓練データを新たに作成しない翻訳タスク参加の他システムと比較して優れている.SENSEVAL2の日本語翻訳タスクは,TranslationMemory(以下TMと略す)と呼ばれる日英対訳対が与えられ,テスト文中の該当単語を英訳する際に利用できるTMの例文番号を返すタスクである\footnote{厳密には,英訳自体を解答としてもよいが,ここではこの解答形式は考慮しない.}\cite{sen2}.これは英訳を語義と考えた場合の多義語の曖昧性解消問題となっており,分類問題の一種である.このため従来から活発に研究されている帰納学習手法を用いて解決可能である.おそらく大規模かつ高品質な訓練データを用いたシステムが,コンテストで優秀な成績を納めるはずである.しかし翻訳タスクでは大規模かつ高品質な訓練データを用意するコストが高い.TMは1つの単語に対して平均して21.6例文がある.今仮にある単語Aの例文として\(id_1\)から\(id_{20}\)までの20例文がTMに記載されているとする.新たに訓練データを作成する場合,単語Aを含む新たな文を持ってきて,\(id_1\)から\(id_{20}\)のどれか1つのラベルをその事例に与える必要がある.〇か×かの二者択一は比較的容易であるが,20個のラベルの中から最も適切な1つを選ぶのは非常に負荷のかかる作業である.この理由のために,実際のコンテストにおいて,大規模かつ高品質な訓練データを用意する方法をとったシステムは1つ(Ibaraki)だけであった.ここでは訓練データを新たに作成せずに,日本語翻訳タスクを解決することを目標とする.訓練データを新たに作成しないとしても,TMの例文は訓練データとして扱える.ただしTMの例文を訓練データと見た場合,その量は少量と言わざるをえない.つまり問題は,少量の訓練データからどのようにして精度の高い分類規則を獲得するかである.そのための戦略としてILPを用いる.少量の訓練データからどのようして分類規則を学習したらよいかは,機械学習における1つの重要な課題である.その解決方法として背景知識の利用が提案されている\cite{ipsj-kaisetu}.背景知識とは,訓練データには明示されない問題固有の知識であり,広く捉えれば,人間の持つ常識的知識と考えて良い.一種の知識データベースである.問題はその背景知識を,どのように学習手法に取り入れてゆくかである.その解決のために提案されているのがILPである.ILPは訓練データを述語論理の形式で表し,そこから分類規則に相当する規則(述語論理の形式では節に対応)を導出する.知識データベースは述語論理の形式によって自然に表現できるので,背景知識の利用の観点からはILPを用いた学習戦略が優れている\cite{furukawa}.更にILPの背景知識では,複雑なグラフ構造を持ったものも表現できるので,近年,CMUの機械学習チームはWebページの文書分類にILPを利用している\cite{webkb}.更にいくつかの自然言語処理への応用も知られている\cite{cohen}\cite{califf}\cite{shimazu}.本論文では,ILPの処理系としてMuggletonによるProgolを利用する\cite{muggen2}.Progolによって多義語の曖昧性解消を行う.そして背景知識としては分類語彙表\cite{bunrui-tab}を利用する.以下2章で多義語の曖昧性解消をILPで行う方法を示す.3章では分類語彙表をどのように背景知識として組み込むかを説明し,4章で実験,5章で考察を述べ,最後にまとめる.
\section{ILPによる多義語の曖昧性解消}
ILPによる分類問題の解決については,書籍\cite{furukawa}に詳しく解説されている.ここでは関連する事柄についてのポイントのみを述べる.自然言語処理の個々の問題の多くは分類問題として以下のように定式化できる.まず分類先のクラスの集合\(C=\{c_1,c_2,\cdots,c_m\}\)を設定し,次に事例\(x\)を\(n\)個の要素からなる素性ベクトル\((f_1,f_1,\cdots,f_n)\)で表す.各素性は事例を識別するための観点に対応する.\(k\)番目の素性を\(attr_k\)と名前をつけておく.訓練事例は事例\(x\)とそのクラス\(c_x\)の対の情報\((x,c_x)\)であり,これを多数集めたものが訓練データとなる.確率統計的な帰納学習手法(決定木,決定リスト,ME法など)は訓練データを入力として,分類器\(F\)を構築する.分類器\(F\)への入力は事例であり,出力はクラスである.分類問題を解決するとは,この分類器\(F\)を作成することである.ILPでは訓練事例\((x,c_x)\)を以下の節で表現する.\bigskip\hspace{25mm}\begin{minipage}[t]{50mm}\verb|class(|{\bfx},\(\bf{c_x}\)).\\\verb|attr_1(|{\bfx},\(\bf{f_1}\)).\\\verb|attr_2(|{\bfx},\(\bf{f_2}\)).\\...\\\verb|attr_n(|{\bfx},\(\bf{f_n}\)).\end{minipage}\bigskipこれらの節が訓練データとなる.ILPではここからあるクラスにのみ共通して見られ,他のクラスには見られないある種のパターンの発見を行う.これは本質的に帰納推論の処理である.その結果,例えば,以下のような節をILPは出力する.\bigskip\hspace{25mm}\begin{minipage}[t]{50mm}\verb|class(X,c):-attr_5(X,h).|\end{minipage}\bigskipこれは事例\verb|X|の5番目の素性が\verb|h|であれば,事例\verb|X|のクラスが\verb|c|であることを示している.また左辺が\verb|class(Y,c)|である節が他になくしかも,事例\verb|X|の5番目の素性が\verb|h|でなければ,事例\verb|X|のクラスは\verb|c|でないことも示している.ここまでは特に確率統計的な手法と大きな違いはない.確率統計的手法にはないILPの大きな特徴は,訓練データ中に任意の述語や節を記述できる点である.この与えられた訓練事例の集合以外から追加される述語や節を背景知識と呼ぶ.つまり問題固有の知識や,人間の常識といったものを背景知識として訓練データ内に簡単に追加できることがILPの大きな特徴となっている.特に,述語論理の節の表現力は高く,ILPは表形式(素性ベクトル)では表現できない複雑な構造を持つ訓練事例も表現できる.以下,ILPによって多義語の曖昧性解消を行う.利用する素性は以下の4種類を用いた.\begin{verbatim}対象単語の直前の単語e1対象単語の直後の単語e2e1から前方3単語e3e2から後方3単語e4\end{verbatim}例を示す.対象とする多義語を「与える」として「彼では力不足という印象を与えるかもしれない。」という文は,以下のように形態素解析される.第1列が表記,第2列が原型,第3列が品詞を表す.\begin{verbatim}彼彼普通名詞でで格助詞はは副助詞力力普通名詞不足不足サ変名詞とと格助詞いういう動詞印象印象普通名詞をを格助詞与える与える動詞かもかも接続助詞しれしれる動詞ないない形容詞性述語接。。句点\end{verbatim}ここから以下の素性が得られる.\begin{verbatim}e1='を'e2='かも'e3={'と','いう','印象'}e4={'しれ','ない'}\end{verbatim}例えば,この例文のIDが\verb|sen25|であり,この文の「与える」の語義IDが\verb|ataeru2|だとすれば,この例文に対するデータは,以下の節で表現される.\begin{verbatim}class(sen25,ataeru2).e1(sen25,'を').e2(sen25,'かも').e3(sen25,'と').e3(sen25,'いう').e3(sen25,'印象').e4(sen25,'しれ').e4(sen25,'ない').\end{verbatim}
\section{分類語彙表の利用}
前節の設定で,訓練事例を節に変換すれば,ILPにより分類規則が節の形で得られる.ここで得られる規則を,背景知識を利用することで更に高めることも可能である.本論文では,背景知識として分類語彙表\cite{bunrui-tab}を利用する.分類語彙表は木構造をもったシソーラスである.ただし木のリーフノードにのみ単語が配置されている.つまり木のあるノード以下に位置するリーフノードの単語群はそのノードの階層において同一の意味クラスに属すると考えて良い.当然階層が上がるほど,同じ意味クラスの単語は増加することになる.\begin{figure}[htbp]\begin{center}\epsfxsize=95.67mm\epsfbox{bunrui2.eps}\end{center}\caption{分類語彙表}\label{fig::bunrui}\end{figure}例えば\mbox{図\ref{fig::bunrui}}において一番下の階層で考えると,「課題」「宿題」「問題」は同じ意味をもつグループとなり,「語意」「題意」「意義」は別の意味のグループとなる.1つ上の階層で考えると,これらの単語はすべて同じ意味をもつ単語と見なせる.本論では一番下の階層でみた場合のグループの単語を同じ意味をもつ単語とした.図\ref{fig::ex_rule}に示した規則は,素性(\verb|e1|,\verb|e2|,\verb|e3|,\verb|e4|の単語)と,分類語彙表に含まれる単語と,その単語と同じ意味を持つ単語を結び付ける.つまり,ILPは同じ意味の単語を同じ単語として扱うようになる.述語\verb|b|は,分類語彙表の単語とその意味の番号の組を表す.述語\verb|e1〜e4|は,文の素性を表す.述語\verb|e1_w〜e4_w|は,単語の代わりに語義を用いることによって述語\verb|e1〜e4|を拡張したものであり,\verb|e1〜e4|の代りに素性として用いられる.\begin{figure}[htbp]\begin{verbatim}e1_w(ID,Number):-e1(ID,Word),b(Word,Number).e2_w(ID,Number):-e2(ID,Word),b(Word,Number).e3_w(ID,Number):-e3(ID,Word),b(Word,Number).e4_w(ID,Number):-e4(ID,Word),b(Word,Number).\end{verbatim}\caption{単語を語義に一般化する規則}\label{fig::ex_rule}\end{figure}
\section{実験}
本論文ではILPの実装システムとしてMuggletonによるProgol\cite{muggen2}を利用した.Progolへの入力形式は,Prolog形式の述語や節であり,本論文で説明に用いた形式で行える.ILPの実装システムは他にも存在するが,Progolが最もよく利用される代表的なシステムである.まず,TMの形態素解析結果から素性(\verb|e1|,\verb|e2|,\verb|e3|,\verb|e4|)を抽出する.また例文番号を分類先のクラスとする.例文番号,クラス,素性の情報を節に変換し,Progolの入力ファイルを作成する.入力ファイルをProgolに読み込ませて,規則を生成した.テストは翻訳タスクのコンテストで用いられた全40単語(各単語30問,計1,200問)が対象である.それらに対して,Progolにより得られた規則を使い,多義語の曖昧性解消のテストを行った(実験1).次に,TMの例文の他に背景知識として分類語彙表を用いて,Progolにより規則を生成した.得られた規則を使い,40単語に対してテストを行った(実験2).実験1と実験2の結果を\mbox{表\ref{result1}}に示す.\mbox{表\ref{result1}}のTMの列は実験1の結果を示し,TM+背景知識の列は実験2の結果を示している.\begin{table}[htbp]\begin{center}\leavevmode\caption{背景知識の効果}\label{result1}\begin{tabular}{|c|c|c||c|c|c|}\hline見出し&TM&TM+背景知識&↓&↓&↓\\\hlineataeru&0.167&0.167&kiroku&0.267&0.267\\baai&0.033&0.033&koeru&0.967&0.867\\chikaku&0.333&0.500&kokunai&1.000&1.000\\chushin&0.367&0.367&kotoba&0.700&0.933\\deru&0.333&0.333&mae&0.167&0.000\\egaku&0.333&0.333&mamoru&0.033&0.033\\hakaru&0.600&0.567&matsu&0.867&0.867\\hana&0.667&0.700&miseru&0.733&0.933\\hantai&0.800&0.933&mitomeru&0.233&0.233\\ima&0.067&0.867&mondai&0.533&0.533\\imi&0.400&0.567&motomeru&0.867&0.867\\ippan&0.333&0.533&motsu&0.333&0.867\\ippou&0.633&0.533&mune&0.233&0.267\\iu&0.033&0.033&noru&0.300&0.267\\jidai&0.700&0.733&shimin&0.867&0.967\\jigyou&0.500&0.500&sugata&0.200&0.133\\kaku\_n&0.800&0.733&tsukau&0.700&0.667\\kaku\_v&0.967&0.967&tsukuru&0.633&0.367\\kau&0.467&0.833&tsutaeru&0.400&0.367\\kiku&0.500&0.500&ukeru&0.400&0.433\\\hline↓&↓&↓&平均&0.487&0.540\\\hline\end{tabular}\end{center}\end{table}平均の正解率はTMのみは48.7\,\%であり,TM+背景知識では54.0\,\%であった.分類語彙表を背景知識として用いた効果が確認できる.またこの54.0\,\%という値は,付加的な訓練データを用いない翻訳タスクの他のシステムの正解率と比較しても,優秀な値と言える.次に確率統計的な手法の1つである決定リストと比較してみる.論文\cite{shinnou-sen2}では翻訳タスクの正解から語義(例文番号)をグループ化して,TMの例文番号をグループ化することで,正解率が向上することを述べている.そのため翻訳タスクに対する学習手法を比較する場合,TMの例文のグループ化を揃える必要がある.そこで,ここでは論文\cite{shinnou-sen2}と同じ手法を用いて,正解データから例文をクラスタリングし,同一の訓練データを用いることにした.確率統計的な学習手法としては,決定リストを用いた(実験3).実験の結果を\mbox{表\ref{result2}}に示す.\begin{table}[htbp]\begin{center}\leavevmode\caption{決定リストとの比較}\label{result2}\begin{tabular}{|c|c|c||c|c|c|}\hline見出し&決定リスト&ILP&↓&↓&↓\\\hlineataeru&0.333&0.867&kiroku&0.833&0.933\\baai&0.367&0.933&koeru&0.633&0.600\\chikaku&0.367&0.467&kokunai&1.000&0.633\\chushin&0.200&0.700&kotoba&0.967&0.967\\deru&0.367&0.233&mae&0.267&0.200\\egaku&0.567&0.267&mamoru&0.367&0.833\\hakaru&0.733&0.900&matsu&0.867&0.767\\hana&0.800&0.933&miseru&0.933&0.733\\hantai&0.900&0.967&mitomeru&0.200&0.300\\ima&0.367&0.933&mondai&0.533&0.467\\imi&0.767&1.000&motomeru&0.633&0.000\\ippan&0.333&0.567&motsu&0.900&0.833\\ippou&0.500&0.767&mune&0.267&0.300\\iu&0.733&0.900&noru&0.300&0.433\\jidai&0.567&0.233&shimin&0.567&0.433\\jigyou&0.667&0.567&sugata&0.367&0.233\\kaku\_n&0.300&0.800&tsukau&0.533&0.967\\kaku\_v&0.967&0.967&tsukuru&0.033&0.233\\kau&0.733&0.533&tsutaeru&0.367&0.200\\kiku&0.467&0.500&ukeru&0.333&0.100\\\hline↓&↓&↓&平均&0.548&0.605\\\hline\end{tabular}\end{center}\end{table}平均の正解率は決定リストでは54.8\,\%であったが,本手法では60.5\,\%の結果を得た.つまりTMだけを用いた学習システムとしては,決定リストよりもILPの方が優れていた.ただし,いくつかの単語については,実験3でのILPの正解率が,実験1でのILPの正解率や,実験3での決定リストの正解率よりも,極端に低くなっている.例えば,mokuteki,jidai,ukeru,baai,egaku,imaなどである.これらの正解率が極端に下がっている理由は,学習結果として生成された節の順序の問題である.これは,default規則にあたるものを適切に設定できなかったことを意味している.これについては次節の考察に記述する.
\section{考察}
背景知識を用いても必ずしも正解率が高くなるとは限らないことは容易に予想がつく.実際に,実験1,2でも精度が下がる単語がいくつか存在する.また,実験3と同様の課題についてさらに分類語彙表を背景知識として用いた実験も行ったが,この場合の平均の正解率も60.5\,\%から58.9\,\%に低下した.分類語彙表を用いることで,単語を語義に一般化すれば,ある部分では効果があるが,別の部分では過度の一般化になるので,その影響が現れると精度は下がる.過度の一般化への対処は今後の課題である.また節を規則として見た場合,節の適用順序が重要になる.これは入力事例と訓練事例に矛盾がないことを仮定する論理を基盤とする推論では問題にならない.しかし現実の問題では訓練データに矛盾する入力も有り得る.例えば,以下のケースを考えてみる.\begin{verbatim}class(X,c1):-attr_1(X,a).class(X,c2):-attr_2(X,b).\end{verbatim}節Aは事例の1番目の素性の値がaなら分類クラスがc1であることを示し,節Bは事例の2番目の素性の値がbなら分類クラスがc2であることを示している.この2つの規則が学習されたということは,訓練データ内には,1番目の素性の値がaでしかも2番目の素性の値がbの事例が存在しなかったことを意味する.また同時にそのような事例が存在しないことも仮定したことになる.ところが,現実にはそのような事例が入力されることもある.この場合,上記の規則では,クラスはc1と識別される.一方,上記の規則の順序を変更し,以下の形にすれば,クラスはc2と識別される.\begin{verbatim}class(X,c2):-attr_2(X,b).class(X,c1):-attr_1(X,a).\end{verbatim}節の出現順序はProgolでは考慮されていないようである.訓練データに対応する述語や節の与える順序が,生成される節の順序に影響する.本実験ではこの点は何も対策をたてずに,学習された節をそのまま適用した.しかしこのような節の順序はdefault規則が何に対応するかという問題にもなっており,正解率に大きく影響する.実験3で正解率が大きく下がる単語は,みなこの問題がからんでいた.この対策も今後の課題である.また上記の問題とも関連するがILPでは頻度の情報がなくなってしまう.例えば,上記の節Bに合致した訓練事例の数が10,000で,節Aに合致した訓練事例の数が1のとき,普通に考えれば合致する事例数の多い節Bを優先させるのが正しいであろう.しかしILPでは,頻度の情報が節Bと節Aに反映されず,結果として同じ重みを与えている形になる.この問題は,確率と論理を結び付ける研究と関連しており,いまだ決定版は出ていない状況である\cite{furukawa}.少量の訓練データしかない場合,識別精度を高めるには,訓練データ以外の情報,つまり背景知識をいかに取り込むかが重要である.今回の実験では背景知識として分類語彙表を用いたが,単語を語義で一般化することは通常の確率統計的な手法でも実現可能であり\cite{almuallim},この点ではILPを用いた利点は少ない.ただし翻訳タスクでは背景知識の利用という観点以外からも,ILPを用いた方が適切であると思われる.なぜならここで扱っている少量のデータは統計学でいうサンプルではないからである.例えば,仮に\begin{verbatim}語義c1の例文1からe1=aとe2=bいう素性語義c2の例文2からe1=cとe2=dいう素性語義c1の例文3からe1=aとe2=eいう素性\end{verbatim}\noindentが得られたとする.確率統計的な手法では,以下の5つの確率が高くなる.\begin{verbatim}確率対応する例文------------------------------P(c1|e1=a)例文1,例文3P(c1|e2=b)例文1P(c1|e2=e)例文3P(c2|e1=c)例文2P(c2|e2=d)例文2\end{verbatim}\noindentそして特に\verb#P(c1|e1=a)#の確率が高くなる.同じクラスc1の例文1と3に素性\verb|e1=a|が発生しているからである.ただし,このような確率の算出が妥当なのは,例文1,2,3がサンプル,つまり等確率で現れる事例という仮定がある.TMの例文はサンプルではありえない.例えば,ある単語は90\,\%以上の割合で,語義c1の意味用法で利用されるとしても,TMのその単語の例文の90\,\%以上が語義c1の例文であることはない.つまり,TMの例文数から素性に重みをつけるのは意味がない.そのためTMから得られる素性は,同じ重みで評価するのが妥当であろう.今回ILPが決定リストよりも優れた結果を出せた要因がそこにあると思われる.またILPの背景知識として,今回は分類語彙表を用いたが,任意の節が組み込めることは大きな魅力である.特に,Webページは解析の観点によっては,複雑な構造をもつことになり,そのような複雑なデータ構造からの学習にはILPが利用できるため,今後応用範囲が広がる研究分野だと思われる.
\section{おわりに}
本論文では,SENSEVAL2の日本語翻訳タスクに対してILPを適用した.ILPは背景知識を容易に学習に組み込めるという確率統計的な手法にはない長所がある.翻訳タスクは少量の訓練データしか利用できない分類問題と見なせるため,翻訳タスクはILPの格好の応用となっている.ここではILPの実装システムとしてProgol,背景知識として分類語彙表を利用することで,正解率54.0\,\%を達成した.この値は,訓練データを新たに作成しない翻訳タスクの他システムと比較して優れている.また語義のクラスを同一にした訓練データを用いて,確率統計的手法の1つである決定リストと比較したところ,決定リストの正解率54.8\,\%に対して,ILPでは60.5\,\%となり,決定リストよりも良い結果が得られた.分類語彙表を利用した場合の過度の一般化をどう押さえるか,出力される規則の優先順序をどのように制御するかが今後の課題である.\bibliographystyle{jnlpbbl}\bibliography{ilp}\begin{biography}\biotitle{略歴}\bioauthor{新納浩幸}{1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年茨城大学工学部システム工学科助手.1997年同学科講師,2001年同学科助教授.情報処理学会,人工知能学会,言語処理学会,ACL各会員.博士(工学).}\bioauthor{阿部修也}{2001年茨城大学工学部システム工学科卒業.2003年茨城大学大学院理工学研究科システム工学専攻博士前期課程修了.同年4月より株式会社システム計画研究所.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V04N02-02 | \section{まえがき}
自然言語処理における重要な問題の一つに,形態\hspace{-0.1mm}$\cdot$\hspace{-0.1mm}構文\hspace{-0.1mm}$\cdot$\hspace{-0.1mm}意味といった言語に関する様々な曖昧性の問題がある.一般に,意味的な曖昧性を解消するためには,意味に関するさまざまな情報を規則化し記述しておく必要がある.しかし,意味は文脈に依存して決まるため,あらゆる文脈に対応できるすべての意味を予め規則として網羅的に記述しておくことは難しい.CollinsEnglishDictionary,Rogetのシソーラス,分類語彙表など,機械可読辞書として電子化されたものがあるが,辞書の記述は語の定義が言語学者によりまちまちであるため,現実の文に対処できる有用な意味情報を得ることは難しい.そこで,意味的な曖昧性を解消するためには,解消手法と同時に,文脈に依存した情報をどのように獲得するかが重要となる.こうしたことを背景に,最近コーパスから意味的に近い語群の情報や,共起関係の情報などを抽出する研究が盛んに行なわれている\cite[など]{Church1991,Hindle1990,Tsujii1992,Sekine1992,Smadja1993}.これらのアプローチは知識獲得のためのアルゴリズムを提案することで,コーパスからその分野に依存した知識を自動的に抽出するというものである.本稿では,単一言語コーパスから抽出した動詞の語義情報を利用し,文中に含まれる多義語の曖昧性を解消する手法について述べる.2章では,関連した研究について述べる.3章ではコーパスから多義解消に必要な情報を抽出する手法について述べる.4章では得られた情報を基に,文中に含まれる多義語の曖昧性を解消する手法について述べる.5章では丹羽らの提案した文脈ベクトルを用いた名詞の多義解消手法\cite{Niwa1994}を動詞に適用した結果と比較することで,本手法の有効性を検証する.
\section{関連した研究}
近年,大量のコーパスが利用可能になったことを背景に,コーパスから得られた情報を用いて語義の曖昧性を解消する研究が多数行なわれている\cite[など]{Brown1991,Schutze1992,Zernik1991,Yarowsky1992,Niwa1994}.Yarowskyらは,Rogetのシソーラスカテゴリを利用し,統計手法を用いることでテキスト中に現れる多義語の曖昧性を解消する手法を提案した.彼らの手法は,統計情報を用いてシソーラスカテゴリに出現する単語に重み付けを行なった後,その結果を利用して多義語の周辺語の重みの和から多義語がどのシソーラスカテゴリに属するかを決定するというものである.この手法を12の多義語名詞に適用し実験を行なった結果,平均解消率92\%という高い正解率が得られることが報告されている\cite{Yarowsky1992}.しかし,Yarowskyらのシソーラスを用いる問題として,データスパースネスの問題が指摘されている.すなわち,シソーラスカテゴリに示されている語が抽象的な語で定義されているため,文書の種類によっては,その語が文書に出現しない場合がある\cite{Niwa1995}.また,Yarowskyらは彼らの手法が動詞の多義解消については名詞と同様の正解率が得られないことを指摘している.丹羽らは,文脈を構成する単語をベクトルで表現し,文脈をそれらベクトルの和で表した.任意の文脈Aにおける単語の意味は,多義の各意味を表す文脈例を各意味に応じてあらかじめ用意しておき,各々の例と文脈Aにおける単語の意味との類似度(内積)を計算し,その値が最も大きい文脈が示す意味であるとした.この手法を名詞の多義判定に適用した結果,平均80\%の正解率が得られている\cite{Niwa1994}.Brownらは対訳テキストを用い,一方の言語の語義の曖昧性を他方の語の情報を利用することで解消する手法を提案している\cite{Brown1991}.彼らは実際に英仏機械翻訳システムにこの手法を適用し,検証を行なっている.しかし彼らは問題点として,(1)多義語の持つ意味を予め高々2つに限定している.(2)語が,ターゲット言語の2つの異なる訳に翻訳できないとき,語義の解消ができない.(3)膨大な対訳テキストを必要とする,を挙げている.ZernikやSch\"{u}tzeらは,動詞の多義を判定するための情報として名詞と動詞の共起関係を利用している.任意の動詞がどの意味を持つかは,動詞と共起する名詞の集合に応じて決定される.しかし,名詞の集合を意味に応じて分割する処理は人手で行なっているため,語の分類は人間の言語的な直観に頼ることになってしまう.本稿では,Yarowskyらがシソーラスカテゴリを利用しているのに対し,単一言語コーパスから抽出した動詞の語義情報を利用し,文中に含まれる多義語の曖昧性を解消する手法について述べる.我々の手法は名詞の集合を意味に応じて人手により分割するZernikやSch\"{u}tzeらの手法,と異なり,多義解消に必要な情報は,与えられた多義語を含む動詞グループに対し,クラスタリングアルゴリズムを適用することで自動的に得られるため,人間の介在を必要としない.また,Brownらが多義語の持つ意味を予め高々2つに限定しているのに対し,本手法では,多義語を含む動詞グループに対し,クラスタリングアルゴリズムを適用するため,2つ以上の意味を持つ語に対しても曖昧性の解消が可能である.
\section{多義解消に必要な情報の抽出}
一般に,意味的に近い2つの動詞は同じ名詞と共起して現れる.\vspace*{2mm}\begin{tabular}{ll}(s1)&\parbox[t]{12cm}{Inthepast,however,cokehastypically\underline{taken}aminority\underline{stake}insuchventures.}\\(s1')&\parbox[t]{12cm}{GuberandPeterstriedto\underline{buy}a\underline{stake}inMgmin1988.}\\\end{tabular}\begin{tabular}{ll}(s2)&\parbox[t]{12cm}{Thatprocessofsortingoutspecifiesislikelyto\underline{take}\underline{time}.}\\(s2')&\parbox[t]{12cm}{We\underline{spent}alotof\underline{time}andmoneyinbuildingourgroupofstations.}\\\end{tabular}\vspace*{2mm}\noindent例えば,{\itWallStreetJournal}から抽出した例文(s1)$\sim$(s2')において,(s1),(s1')に現れる\underline{take}と\underline{buy}は共に\underline{stake}と共起して現れ,ほぼ同じ意味を持つ\cite{Liberman1991}.同様に(s2),(s2')に現れる$\!$\underline{take}$\!$と$\!$\underline{spend}$\!$は共に$\!$\underline{time}$\!$と共起して現れ,両者は同じ意味を持つ.従って多義語$\!$\underline{take}$\!$がもつ複数の意味は,各意味に対応した動詞\underline{buy},\underline{spend}と共起して現れる名詞\underline{stake},\underline{time}と特徴づけて考えることができる.すなわち,多義語を含む文において,もし多義語と共起する名詞のうち少なくとも一つが多義語の意味を特徴づける名詞と同じ(あるいは名詞の集合に属する)ならば,文中の多義語の意味はその名詞と共起する動詞の意味に同定することができる.我々は文中に現れる多義語の曖昧性を,その語と共起する名詞を用いることで解消した.以下,3.1節では仮想動詞について述べる.3.2節では語の意味的な偏差を計算する手法について述べ,3.3節では3.2節で述べた偏差の値を用いてクラスタリングを行なうためのアルゴリズムについて説明する.多義語を含む動詞グループに対し,クラスタリングアルゴリズムを適用することで多義語の各意味を示す動詞(仮想動詞)と共起する名詞の集合が,動詞の個数分得られる.3.4節では仮想動詞,及びそれと共起する名詞との相互情報量を求める手法について述べる.仮想動詞と名詞の相互情報量は,文中に現れる名詞が複数の(名詞の)集合に含まれる場合にどの集合に含まれるかを一意に決定するために用いられる.\subsection{仮想動詞}本手法では,多義を判定しながら意味的なクラスタリングを行なうことで多義語の曖昧性解消に必要な情報,すなわち,多義語の意味を特徴づける名詞の集合を抽出する.そこで,表層上は一つの要素である多義語を,多義が持つ各意味がまとまった複数要素であると捉え,これを一つ一つの意味に対応させた要素(本稿ではこの要素を{\bf仮想動詞}ベクトルと呼ぶ)に分解した上でクラスタを作成するという手法を用いた.我々は,動詞をベクトルと捉え,動詞と共起する$n$個の名詞を軸とする$n$次元名詞空間上でこれを表した.軸$i$(1$\leq$$i$$\leq$$n$)における動詞ベクトルの長さは,$i$軸で示される名詞と動詞の相互情報量\hspace{-0.15mm}\cite{Church1990}\hspace{-0.1mm}の値を用いた.仮に2つの動詞に多義性がなく,かつこの2つの動詞が意味的に近いとすると,これらの動詞はこの空間上で互いに距離が近いため,同一のクラスタに含まれることになる.一方,\hspace{-0.05mm}(s1)\hspace{-0.05mm}と\hspace{-0.05mm}(s2)\hspace{-0.05mm}に現れる\underline{take}は多義であるため,各意味を表す動詞ベクトル\underline{buy},\underline{spend}のいずれともクラスタを構成しなければならない.そこで,ベクトル\underline{take}を各軸に従って(この場合,\underline{stake}と\underline{time}の2軸)分割することを考える.ベクトル\underline{take}を\underline{stake}と\underline{time}の軸に従って分割した結果を図\ref{cluster1}に示す.{\begin{figure}[htbp]\centerline{\epsfile{file=cluster1.eps,height=45mm}}\caption{ベクトルtakeの分割}\label{cluster1}\begin{center}\vspace*{-5mm}Figure1Thedecompositionoftheverb\underline{take}\end{center}\end{figure}}\noindent図\ref{cluster1}において,ベクトル\hspace{-0.2mm}\underline{take}は,\underline{stake}\hspace{-0.2mm}と\hspace{-0.2mm}\underline{time}の軸上でベクトル\hspace{-0.2mm}{\sftake1}\hspace{-0.3mm}と\hspace{-0.2mm}{\sftake2}に分割されている.{\sftake1}と{\sftake2}を{\bf仮想動詞}ベクトルと呼ぶ.図\ref{cluster1}は仮想動詞ベクトルを導入することで,各々意味的に近い要素を持つ2つのクラスタ\{{\sftake1},buy\},\{{\sftake2},spend\}が得られることを示す.\subsection{動詞グループの偏差}クラスタリングアルゴリズムは動詞グループの意味的な偏差を比較し,偏差の少ない順にクラスタを生成する.今$m$個から成る動詞グループをVG=\{$v_{1}$,$\cdots$,$v_{m}$\}とすると,VGの偏差$Dev(\mbox{VG})$は式(\ref{22})で示される.ただし,$n$は動詞と共起する名詞の個数とする.\begin{eqnarray}Dev(\mbox{VG})&=&\frac{1}{\mid\bar{g}\mid(\beta\astm+\gamma)}\sqrt{\sum_{i=1}^{m}\sum_{j=1}^{n}(v_{ij}-\bar{g_{j}})^{2}}\label{22}\end{eqnarray}\noindent(\ref{22})の$\bar{g_{j}}$\\hspace{-0.3mm}(\hspace{-0.3mm}=\\hspace{-0.3mm}$\frac{1}{m}\sum_{i=1}^{m}v_{ij}$)は,$j$軸での重心の値を示す.また,$\mid$$\bar{g}$$\mid$\\hspace{-0.3mm}(\hspace{-0.5mm}=\\hspace{-0.5mm}$\frac{1}{m}\sqrt{\sum_{j=1}^{n}(\sum_{i}^{m}v_{ij})^{2}}$)は重心ベクトルの長さを示す.(\ref{22})の$v_{ij}$は,\begin{equation}v_{ij}=\left\{\begin{array}{ll}Mu(v_{i},n_{j})&\mbox{if$Mu$($v_{i}$,$n_{j}$)$\geq$$\alpha$}\\0&\mbox{otherwise}\end{array}\right.\label{v}\end{equation}\noindentとする.ここで,$Mu(v_{i},n_{j})$は動詞$v_{i}$(1$\leq$$i$$\leq$$m$)と名詞$n_{j}$(1$\leq$$j$$\leq$$n$)の相互情報量の値を表し,式(\ref{church_mu})で示される.\begin{eqnarray}Mu(x,y)&=&log_{2}\frac{P(x,y)}{P(x)P(y)}\label{church_mu}\end{eqnarray}\noindent$P(x)$,$P(y)$は,$x$,$y$の頻度数$f(x)$,$f(y)$をそれぞれコーパスに出現する語の総数$N$で正規化したものであり,\hspace{0.1mm}$P(x,y)$は$x$\hspace{-0.1mm}と\hspace{-0.1mm}$y$の共起頻度数$f(x,y)$を\hspace{-0.1mm}$N$\hspace{-0.1mm}で正規化したものである.また,式(\ref{v})における$\alpha$は閾値とする.式(\ref{22})の\hspace{-0.1mm}$\beta$$\ast$$m$+$\gamma$は,動詞の偏差を示す値が動詞の個数に比例して増加することを防ぐために最小2乗法を用いて行なった正規化である\footnote{{\itWallStreetJournal}を用いた実験では,$\alpha$を3に設定し,$\beta$,$\gamma$それぞれ0.964,-0.495を得た.}.式(\ref{22})はその値が小さいほどより偏差が少ないことを示す.\subsection{クラスタリング手法}クラスタリングアルゴリズムは,non-overlappingとoverlappingアルゴリズムに大別できる.本手法はoverlappingクラスタリングアルゴリズムに含まれる.Overlappingアルゴリズムの代表的なものとして$B_{k}$($k$=1,2,$\cdots$)手法がある\cite{Jardine1968}.本手法と$B_{k}$手法との違いは,$B_{k}$手法では要素が複数のクラスタに属すか否かは$k$の個数に依存して決まるのに対し,我々の手法は,複数のクラスタに属すか否かを判定する条件をアルゴリズムの中に導入している点が異なる.我々の手法では,動詞ベクトルを分割して仮想動詞ベクトルを作成し,\その仮想動詞ベクトルを含むクラスタの偏差を比較することで,\要素が複数のクラスタに属すか否か,すなわち多義であるかどうかの判定を行なっている.例えば,\underline{take}が\underline{buy}\hspace{-0.1mm}と\underline{spend}\hspace{-0.1mm}の意味を持つかどうかを判定するために,ベクトル\hspace{-0.1mm}\underline{take}\hspace{-0.1mm}を\underline{stake}\hspace{-0.1mm}と\underline{time}\hspace{-0.1mm}の軸に従い分割し,仮想動詞ベクトル{\sftake1}と{\sftake2}を作成する.\underline{take}が多義であるか否かは,\{{\sftake1},buy\},\{{\sftake2},spend\}及び,\{take,buy,spend\}のクラスタの偏差を比較することにより決定される.\subsubsection{SplittingとLumping}今$v$と$w_{p}$を動詞とし,$w_{1}$,$\cdots$,$w_{n}$を動詞,または仮想動詞とする.また,$Dev(v,w_{i})$$\leq$$Dev(v,w_{j})$(1$\leq$$i$$\leq$$j$$\leq$$n$)かつ,$Dev(v,w_{1})$$\leq$$Dev(v,w_{p})$とする.本手法では$v$が$w_{1}$と$w_{p}$で示される2つの意味を持つか否かを判定するために,(\ref{split})と(\ref{lump})で示されるクラスタを作成し,それぞれの偏差を比較する.\begin{eqnarray}\{v_{x},w_{p}\},\{v_{y},w_{1},\cdots,w_{n}\}\label{split}\\\{v,w_{1},\cdots,w_{p},\cdots,w_{n}\}\label{lump}\end{eqnarray}\noindentただし,(\ref{lump})の$w_{1}$,$\cdots$,$w_{p}$,$\cdots$,$w_{n}$は$Dev(v,w_{i})$$\leq$$Dev(v,w_{j})$(1$\leq$$i$$\leq$$j$$\leq$$n$)を満たすとする.(\ref{split})の$v_{x}$と$v_{y}$は$v$の仮想動詞を示す.以下では,(4)で示されるクラスタを作成するために,\hspace{-0.1mm}$v$,\hspace{-0.1mm}$w_{1}$,\hspace{-0.1mm}$w_{p}$を入力とし,仮想動詞$v_{x}$\hspace{-0.1mm}と\hspace{-0.1mm}$v_{y}$を出力する関数$split$,及び,\hspace{-0.1mm}(5)で示されるクラスタを作成する過程で仮想動詞$v_{x}$,$v_{y}$が現れた場合にそれらをマージする関数$lump$を定義する.\begin{enumerate}\item関数$split$は入力$v$,$w_{1}$,$w_{p}$に対し,$v_{x}$と$v_{y}$を出力する.ただしベクトル$v$は,($v_{1}$,$\cdots$,$v_{n}$)で示されるとする.\begin{eqnarray}split(v,w_{p},w_{1})&=&(v_{x},v_{y})\label{sp}\\\mbox{where}\\\Dev(v,w_{1})&\leq&Dev(v,w_{p})\end{eqnarray}\vspace*{-2mm}\[v_{x}=\left[\begin{array}{l}v_{x1}\\v_{x2}\\\vdots\\v_{xn}\end{array}\right]\\hbox{s.t.}\\v_{xj}\=\left\{\begin{array}{lll}v_{j}&\mbox{if$w_{pj}$$\neq$0}&(8)\nonumber\\0&\mbox{otherwise}\hspace*{2.2cm}&(8')\nonumber\end{array}\right.\]\[v_{y}=\left[\begin{array}{l}v_{y1}\\v_{y2}\\\vdots\\v_{yn}\end{array}\right]\\hbox{s.t.}\\v_{yj}\=\left\{\begin{array}{lll}v_{j}&\mbox{if($w_{1j}$$\neq$0or$w_{pj}$=$w_{1j}$=0)}&(9)\nonumber\\0&\mbox{otherwise}&(9')\nonumber\end{array}\right.\]\addtocounter{equation}{2}式(8),(9)において$v$と共起する$n_{j}$が,$w_{p}$と$w_{1}$の両方と共起する場合には,$v_{xj}$と$v_{yj}$は共に$v_{j}$\=\$Mu(v,n_{j})$とした.また式(9)において$v$と共起する$n_{j}$が,$w_{1}$と$w_{p}$のいずれとも共起しない場合には,$v_{yj}$の値は$v_{j}$の値とした.これは,$v_{j}$が$v_{x}$と$v_{y}$の両方に含まれない場合,\{$v_{y}$,$w_{1}$\}の偏差は常に,\{$v_{x}$,$w_{p}$\}よりも小さくなる.よって,$v_{x}$と$v_{y}$の偏差をできるだけ均等にするため,$v_{yj}$の値は,$v_{j}$の値とした.\item関数$lump$は仮想動詞$v_{x}$と$v_{y}$を入力とし$w$を出力する.\vspace*{-5mm}\begin{eqnarray}lump(v_{x},v_{y})&=&w\label{lu}\end{eqnarray}\vspace*{-7mm}\begin{equation}\hspace*{-3mm}w=\left[\begin{array}{l}w_{1}\\w_{2}\\\vdots\\w_{n}\end{array}\right]\\hbox{s.t.}\w_{j}\=\left\{\begin{array}{ll}v_{xj}+v_{yj}&\mbox{if$v_{xj}$$\neq$$v_{yj}$}\\v_{xj}&\mbox{if$v_{xj}$=$v_{yj}$}\end{array}\right.\end{equation}\end{enumerate}\noindent実験では,(\ref{split})で示される二つのクラスタの偏差の値が共に(\ref{lump})で示されるクラスタの偏差の値よりも小さい場合に動詞$v$は多義とみなした.\subsubsection{クラスタリングアルゴリズム}クラスタリングアルゴリズムの流れを図\ref{flow_algo}に示す.図\ref{flow_algo}の`('はその上で示される関数の処理を示す.{\begin{figure}[htbp]\begin{center}\fbox{\parbox{130mm}{{\bfbegin}\\\hspace*{5mm}ICS:={\sfMake-Initial-Cluster-Set}(VG)\\\[\left(\begin{array}{l}\mbox{VG}=\{v_{i}\midi=1,\cdots,m\}\\\mbox{ICS}=\{Set_{1},\cdots,Set_{\frac{m(m-1)}{2}}\}\\ただし\Set_{p}=\{v_{i},v_{j}\}\と\Set_{q}=\{v_{k},v_{l}\}\in\mbox{ICS}\(1\leqp<q\leqm)は\hspace*{2cm}\\Dev(v_{i},v_{j})\leqDev(v_{k},v_{l})を満たす.\end{array}\right.\]\hspace*{5mm}{\bffor}\$i$:=1{\bfto}$\frac{m(m-1)}{2}${\bfdo}\\\hspace*{10mm}\parbox{125mm}{{\bfif}\CCS=$\phi$\\\hspace*{10mm}{\bfthen}\$Set_{\gamma}$:=$Set_{i}$\\\hspace*{10mm}\hspace*{10mm}i.e.$Set_{i}$は新たに得られるクラスタとしてCCSに蓄積される.\\{\bfelseif}\$Set_{\alpha}$$\in$CCSexists{\itsuchthat}$Set_{i}$$\subset$$Set_{\alpha}$\\\hspace*{10mm}{\bfthen}\$Set_{i}$がICSから削除され,$Set_{\gamma}$:=$\phi$となる.\\{\bfelseif}\\\hspace*{10mm}{\bfforall}$Set_{\alpha}$$\in$CCS{\bfdo}\\\hspace*{15mm}{\bfif}\$Set_{i}$$\cap$$Set_{\alpha}$=$\phi$\\\hspace*{20mm}{\bfthen}\$Set_{\gamma}$:=$Set_{i}$\\\hspace*{15mm}\hspace*{15mm}i.e.$Set_{i}$は新たに得られるクラスタとしてCCSに蓄積\\\hspace*{38mm}される.\\\hspace*{15mm}{\bfend\_if}\\{\bfelse}$Set_{\beta}$:={\sfMake-Temporary-Cluster-Set}($Set_{i}$,CCS)\\\hspace*{0.8cm}{\bf(}$Set_{\beta}$:=$Set_{\alpha}$$\in$\mbox{CCS}\{\itsuchthat}\$Set_{i}$$\cap$$Set_{\alpha}$$\neq$$\phi$\hspace*{4cm}\\\hspace*{10mm}$Set_{\gamma}$:={\sfRecognition-of-Polysemy}($Set_{i}$,$Set_{\beta}$)\\{\bfend\_if}\\{\bfend\_if}\\{\bfend\_if}}\\\\\hspace*{10mm}{\bfif}\$Set_{\gamma}$=VG\\\hspace*{15mm}{\bfthen}\{\itfor\_loop}を抜ける.\\\hspace*{10mm}{\bfend\_if}\\\hspace*{5mm}{\bfend\_for}\\{\bfend}}}\caption{クラスタリングアルゴリズムの流れ}\label{flow_algo}Figure2Theflowoftheclusteringalgorithm\end{center}\end{figure}}\noindent図\ref{flow_algo}において,関数{\sfMake-Initial-Cluster-Set}は,動詞グループVGを入力とし,VGの任意の動詞対の組合せに対し,意味的な偏差の値を計算し,任意の動詞対と偏差の値をその値が昇順になるように出力する.この結果をICS(InitialClusterSet)と呼ぶ.CCS(CreatedClusterSet)は作成されたクラスタの集合を示す.関数{\sfMake-Temporary-Cluster-Set}は$Set_{i}$のどちらか一方の動詞を含むクラスタをCCSから抽出する.その結果である$Set_{\beta}$が関数{\sfRecognition-of-Polysemy}に渡される.関数{\sfRecognition-of-Polysemy}は動詞が多義か否かを判定する関数である.今$Set_{i}$と$Set_{\beta}$の両方に属する動詞を$v$とする.$v$が多義であり$w_{p}$(ただし$w_{p}$は$Set_{i}$の要素とする)と$w_{1}$(ただし$w_{1}$は$Set_{\beta}$の要素とする)の意味を持つか否かを判定するために,(\ref{split})と(\ref{lump})で示されるクラスタが作成される.具体的には関数(\ref{sp})が$v$,$w_{1}$,と$w_{p}$に適用され$v_{x}$と$v_{y}$が作成される.もし$v_{x}$と$v_{y}$が(\ref{lump})で示されるクラスタを作成する過程で存在する場合,関数(\ref{lu})が$v_{x}$と$v_{y}$に適用され,$w$が作成される.この処理は新しく得られるクラスタ$Set_{\gamma}$がVGと等しくなるか,あるいはICSの要素がなくなるまで適用される.\subsection{仮想動詞と名詞の相互情報量}多義語を含む動詞グループに対し,前節で述べたアルゴリズムを適用することで,多義語の各意味を示す動詞と共起する名詞の集合が動詞の個数分得られる.\vspace*{-0.5cm}{\footnotesize\begin{table}[htbp]\begin{center}\caption{\{take,obtain,spend,buy\}のクラスタリング結果}\label{app_1}Table1Theclusteringresultsof\{take,obtain,spend,buy\}\\\begin{tabular}{l||l|r|r|c|r|c}\hline\hline\multicolumn{2}{}{}&\multicolumn{3}{|l|}{クラスタリング結果得られる値}&\multicolumn{2}{l}{(\ref{re_cal}),(\ref{church_mu})より得られる値}\\\hline$v_{i}$&$n_{ij}$&$f(n_{ij})$&$f(v,n_{ij})$&$Mu(v,n_{ij})$&$f(v_{i})$&$Mu(v_{i},n_{ij})$\\\hline{\sftake1}&columbia&418&\hspace*{2mm}5&3.543&214&7.330\\(buy)&equity&510&\hspace*{2mm}6&3.519&214&7.306\\&lot&610&\hspace*{2mm}8&3.676&214&7.463\\¬e&936&14&7.653&214&3.866\\&option&640&\hspace*{2mm}7&3.414&214&7.201\\&order&1004&\hspace*{2mm}9&3.127&214&6.914\\&part&1664&27&7.770&214&3.983\\&property&505&\hspace*{2mm}7&3.756&214&7.543\\&stake&1081&28&4.658&214&8.445\\&thrift&494&\hspace*{2mm}9&4.150&214&7.937\\\hline{\sftake2}&hour&443&\hspace*{2mm}9&4.307&270&7.759\\(spend)&lot&610&\hspace*{2mm}8&3.676&270&7.127\\&minute&197&\hspace*{2mm}5&4.628&270&8.080\\&money&1569&19&3.561&270&7.012\\&month&3546&39&3.422&270&6.874\\&time&2866&45&3.936&270&7.387\\&week&2647&26&3.259&270&6.710\\\hline{\sftake3}&drug&1164&11&3.203&\hspace*{2mm}41&9.374\\(obtain)&loan&1369&12&3.095&\hspace*{2mm}41&9.265\\\hline\multicolumn{7}{c}{}\\\multicolumn{7}{c}{}\\\hline\multicolumn{2}{}{}&\multicolumn{3}{|l|}{クラスタリング結果得られる値}&\multicolumn{2}{l}{(\ref{re_cal_oh}),(\ref{church_mu})より得られる値}\\\hline\footnotesize{$v_{r}$}&\footnotesize{$n_{rj}$}&\footnotesize{$f(n_{rj})$}&\footnotesize{$f(v,n_{rj})$}&\footnotesize{$Mu(v,n_{rj})$}&\footnotesize{$f(v_{r})$}&\footnotesize{$Mu(v_{r},n_{rj})$}\\\hlineresidue&account&375&33&6.422&\hspace*{-2mm}2429&6.704\\&action&560&52&6.500&\hspace*{-2mm}2429&6.782\\&\multicolumn{6}{l}{etc.total102}\\\end{tabular}\end{center}\end{table}}\noindent表\ref{app_1}は,多義語takeを含む動詞グループ\{take,obtain,spend,buy\}に対し,クラスタリングアルゴリズムを適用した結果を示す.クラスタリングの結果得られるこのテーブルを{\itpvn}(polysemousverbnoun)テーブルと呼ぶ.$v_{i}$は仮想動詞{\sftake1},{\sftake2},{\sftake3}を示し,それぞれ,`buy',`spend',`obtain'を示す.$v_{r}$は$v_{i}$以外の意味を示す仮想動詞`residue'を示す.$n_{ij}$は,仮想動詞$v_{i}$と共起する名詞を示し,$n_{rj}$は仮想動詞$v_{r}$と共起する名詞を示す.$f(n_{ij})$と$f(n_{rj})$はそれぞれ$n_{ij}$,$n_{rj}$の頻度を示し,$f(v,n_{ij})$と$f(v,n_{rj})$はそれぞれ`take'と$n_{ij}$,`take'と$n_{rj}$の共起頻度数を示す.文中に現れる動詞の多義解消は基本的に名詞$n_{ij}$及び$n_{rj}$を用いて行なわれる.すなわち,文中に現れる動詞と共起する名詞が表\ref{app_1}に示されているとき,文中の動詞は,その名詞と共起する仮想動詞の意味となる.例えば,(s3)において,\underline{stake}は表\ref{app_1}に示されている.従って(s3)の\underline{taken}の意味は,{\sftake1}が示す意味である`buy'と判定される.\vspace*{2mm}\begin{tabular}{ll}(s3)&\parbox[t]{12cm}{Inthepast,however,Cokehastypically\underline{taken}aminority\underline{stake}insuchventures.}\\\end{tabular}\vspace*{2mm}\noindent名詞の中には,例えば表\ref{app_1}の`lot'のように複数の集合に属する名詞が存在する.この場合は,各仮想動詞と`lot'との相互情報量の中で大きい値を持つ仮想動詞の意味とした.ただし,表\ref{app_1}の$Mu(v,n_{ij})$及び$Mu(v,n_{rj})$は,`take'と各名詞との相互情報量を示す.そこで,仮想動詞$v_{i}$及び$v_{r}$と各名詞との相互情報量$Mu(v_{i},n_{ij})$及び$Mu(v_{r},n_{rj})$を以下のようにして求めた.\begin{enumerate}\item$v_{i}$\(1$\leq$$i$$\leq$$k$)を仮想動詞とし,$v_{r}$を$v$における各仮想動詞以外の意味を示す仮想動詞とする.$num(i)$$(1\leqi\leqk)$を$v_{i}$と共起する名詞の個数とし,$n_{ij}$$(1\leqi\leqk,\1\leqj\leqnum(i))$を$v_{i}$\hspace{-0.1mm}と共起する$j$軸の名詞とする.\hspace{-0.1mm}$v_{i}$の頻度$f(v_{i})$と$v_{r}$の頻度$f(v_{r})$は以下の式で示される.\begin{eqnarray}f(v_{i})&=&f(v)\times\frac{\sum_{j=1}^{num(i)}f(v,n_{ij})}{\sum_{p=1}^{k}(\sum_{q=1}^{num(p)}f(v,n_{pq}))}\label{re_cal}\\f(v_{r})&=&f(v)-\sum_{i=1}^{k}f(v_{i})\label{re_cal_oh}\end{eqnarray}\item式(\ref{re_cal})と(\ref{church_mu}),及び(\ref{re_cal_oh})と(\ref{church_mu})を用いて,$Mu(v_{i},n_{ij})$と$Mu(v_{r},n_{rj})$を求める.\end{enumerate}\noindent表\ref{app_1}の$Mu(v_{i},n_{ij})$と$Mu(v_{r},n_{rj})$はそれぞれ仮想動詞$v_{i}$と名詞$n_{ij}$,仮想動詞$v_{r}$と名詞$n_{rj}$との相互情報量を示す.
\section{多義語の解消}
文中の多義語$v$の意味は,$v$の{\itpvn}テーブルを用いて以下のように決定される.\begin{enumerate}\item[\bf1.]$v$の後方5語以内に出現する名詞を$x$とすると,$x$が{\itpvn}テーブルに存在する場合:\begin{enumerate}\item[\bf1-1.]$x$が一つのみ存在する場合,$v$の意味は,$x$と共起する仮想動詞の意味とする.\item[\bf1-2.]$x$が二つ以上存在する場合,$v$の意味は,$x$と共起する仮想動詞のうち,$x$との相互情報量の値が最も高い仮想動詞の意味とする.\end{enumerate}\item[\bf2.]$x$が{\itpvn}テーブルに存在しない場合,$rel(v_{i},x)$の値が最大になるような仮想動詞$v_{i}$を求める.$v$の意味は,$v_{i}$の意味とする.\end{enumerate}\noindent$rel(v_{i},x)$は,$v_{i}$と$x$の意味的な関係を示す式であり,以下のように定義した.\begin{eqnarray}rel(v_{i},x)&=&\max_{y\inN_{i}}(\frac{Mu(v_{i},y)}{Dis(x,y)})\\\(1\leqi\leqk)\label{co}\end{eqnarray}\noindent式(\ref{co})において,$N_{i}$は$v_{i}$と共起する名詞の集合を示す.$Dis(x,y)$は,$x$と{\itpvn}テーブルに登録されている名詞$y$\hspace{-0.05mm}との偏差を示す.すなわち,\hspace{-0.1mm}式(\ref{22})\hspace{-0.1mm}において$m$を2とし,$v_{1j}$と$v_{2j}$をそれぞれ,$x$\hspace{-0.05mm},$y$\hspace{-0.05mm}とする.さらに式(\ref{22})\hspace{-0.1mm}中の動詞と共起する名詞の個数を名詞$x$\hspace{-0.05mm}及び$y$\hspace{-0.05mm}と共起する動詞の個数に置き換えることにより$Dis(x,y)$が得られる.\vspace*{-2mm}
\section{実験}
実験では,14の動詞グループに対しクラスタリングアルゴリズムを適用した結果得られた$pvn$テーブルを用い,$pvn$テーブルが曖昧性の解消にどの程度有効であるかの検証を行なった.さらに丹羽らの提案した文脈ベクトルを用いた名詞の多義解消手法を動詞に適用した結果と,本手法とを比較することで,本手法の有効性を検証した.先ず,実験で用いたデータについて述べ,実験とその結果を示す.次に丹羽らの多義解消手法の概略を示し,比較を行なった結果について述べる.\vspace*{-2mm}\subsection{データ}コーパスはタグ付けされた{\itWallStreetJournal}であり,182,992文,総数2,878,688語(総異なり数73,225語)から成る\cite{Liberman1991}.実験では,このコーパスからウィンドウサイズを5語にとり,総数5,940,193個から成る任意の2語対(総異なり数2,743,974組)を得た.ここで単語$x$と$y$のウィンドウサイズが5語であるとは,$x$の出現位置から$x$の後方5語以内に現れる単語$y$と$x$との組を示す.我々は,動詞$x$と名詞$y$の組を使用した.これは5語という比較的小さいウィンドウサイズでは,動詞と目的語という観点から動詞と名詞の意味的な関係が顕著に現れると考えられるためである.また,動詞の中には,特定の副詞,例えば様態を示す副詞と共起することで,その動詞の意味が決まる場合も存在する.そこで,名詞と動詞の組で正解が得られなかった多義(表\ref{disam}の(11)$\sim$(14)のグループ)に対しては,動詞$x$と副詞$y$の組を使用することで正解が得られた{\itpvn}テーブルを用いて文中における多義語の解消を行なった.総異なり数2,743,974組に対し相互情報量を計算し,一定の閾値(動詞と名詞,及び動詞と副詞の共起頻度数の閾値を5,相互情報量の閾値を3)以上である動詞と名詞,動詞と副詞の組を抽出した結果,それぞれ6,768,1,200の組を得た.実験では14種類の多義語を用いた.テスト文として,各々の多義語に対しランダムに100文,総計1,400文を抽出し,これらから{\itdelexicalusage},イディオム,メタファ,多義語の意味が曖昧で人間が一意に決定できないものを除く1,226文を対象とし実験を行なった.\subsection{曖昧性解消実験の結果}実験で用いた動詞グループと実験結果を表\ref{disam}に示す.\vspace*{-0.6cm}{\footnotesize\begin{table}[htbp]\begin{center}\caption{曖昧性解消実験の結果}\label{disam}\vspace*{-0.2cm}Table2TheresultsofDisambiguationExperiment\\\begin{tabular}{c||c|c}\multicolumn{3}{l}{\bf{(1)\{\underline{close},open,end\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&\hspace*{1mm}34&26(26/99=26.2)\\\hline$without$$the$$pvn$$table$&65&31(31/99=31.3)\\\hline{\bfTotal}&99&57(57/99=57.5)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(2)\{\underline{take},spend,buy,obtain\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&\hspace*{2mm}6&5(5/42=11.9)\\\hline$without$$the$$pvn$$table$&36&28(28/42=66.6)\\\hline{\bfTotal}&42&33(33/42=78.5)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(3)\{\underline{lose},win,miss\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&\hspace*{1mm}51&41(41/97=42.2)\\\hline$without$$the$$pvn$$table$&46&36(36/97=37.1)\\\hline{\bfTotal}&97&77(77/97=79.3)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(4)\{\underline{get},receive,gain\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&\hspace*{1mm}30&25(25/83=30.1)\\\hline$without$$the$$pvn$$table$&53&24(24/83=28.9)\\\hline{\bfTotal}&83&49(49/83=59.0)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(5)\{\underline{give},provide,impose\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&\hspace*{1mm}33&31(31/85=36.4)\\\hline$without$$the$$pvn$$table$&52&26(26/85=30.6)\\\hline{\bfTotal}&85&57(57/85=67.0)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(6)\{\underline{make},earn,build\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&\hspace*{1mm}65&63(63/93=67.7)\\\hline$without$$the$$pvn$$table$&28&15(15/93=16.1)\\\hline{\bfTotal}&93&78(78/93=83.8)\\\hline\end{tabular}\end{center}\end{table}}{\footnotesize\begin{table}[htbp]\begin{center}\begin{tabular}{c||c|c}\multicolumn{3}{l}{\bf{(7)\{\underline{bring},take,cause\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&\hspace*{1mm}26&24(24/83=28.9)\\\hline$without$$the$$pvn$$table$&57&49(49/83=59.0)\\\hline{\bfTotal}&83&73(73/83=87.9)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(8)\{\underline{leave},go,receive\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&\hspace*{1mm}26&25(25/93=26.8)\\\hline$without$$the$$pvn$$table$&67&48(48/93=51.6)\\\hline{\bfTotal}&93&73(73/93=78.4)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(9)\{\underline{run},operate,move\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&\hspace*{1mm}57&56(56/97=57.7)\\\hline$without$$the$$pvn$$table$&40&19(19/97=17.5)\\\hline{\bfTotal}&97&73(73/97=75.2)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(10)\{\underline{set},fix,put\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&\hspace*{1mm}58&51(51/91=56.0)\\\hline$without$$the$$pvn$$table$&33&21(21/91=23.0)\\\hline{\bfTotal}&91&72(72/91=79.1)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(11)\{\underline{see},look,know\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&53&41(41/100=41.0)\\\hline$without$$the$$pvn$$table$&47&9(9/100=9.0)\\\hline{\bfTotal}&100&50(50/100=50.0)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(12)\{\underline{come},go,become\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&44&41(41/74=55.4)\\\hline$without$$the$$pvn$$table$&30&7(7/74=9.4)\\\hline{\bfTotal}&74&48(48/74=64.8)\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{l}{\bf{(13)\{\underline{find},receive,see\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&60&50(50/92=54.3)\\\hline$without$$the$$pvn$$table$&32&10(10/92=10.8)\\\hline{\bfTotal}&92&60(60/92=65.2)\\\hline\end{tabular}\end{center}\end{table}}\clearpage{\footnotesize\begin{table}[htbp]\begin{center}\begin{tabular}{c||c|c}\multicolumn{3}{l}{\bf{(14)\{\underline{leave},retire,remain\}}}\\\hline\hlineProcedures&disambiguated&correct(\%)\\\hline\hline$within$$the$$pvn$$table$&63&60(60/96=65.6)\\\hline$without$$the$$pvn$$table$&33&12(12/96=12.5)\\\hline{\bfTotal}&96&72(72/96=75.0)\\\hline\end{tabular}\end{center}\end{table}}\noindent表\ref{disam}で示される動詞グループにおいて,多義語は下線で示されている.`Procedures'の`{\itwithinthepvntable}'と`{\itwithoutthepvntable}'はそれぞれ4章で示した決定法における{\bf1}と{\bf2}を示す.`disambiguated'は各`Procedures'で正しく判定できる文数を示す.`correct'は実際に正しく判定できた文数を示す.\subsection{他手法との比較}本手法の有効性を検証するため,丹羽らの提案した文脈ベクトルを用いた名詞の多義解消手法を動詞に適用した結果と,本手法とを比較する.先ず,丹羽らの手法の概略を示し,次に比較実験の結果を示す.\begin{enumerate}\item単語$w$の文脈$C$:$\cdots$,$w_{-N}$,$\cdots$,$w_{-1}$,$w$,$w_{1}$,$\cdots$,$w_{N'}$,$\cdots$,に対する文脈ベクトル$V(C)$を\begin{eqnarray}V(C)&=&\sum_{i=-N}^{N'}V(w_{i})\nonumber\end{eqnarray}と定義する.ここで,$V(w_{i})$は,\[V(w_{i})=\left(\begin{array}{c}I(w_{i},O_{1})\\I(w_{i},O_{2})\\\vdots\\I(w_{i},O_{m})\\\end{array}\right)\]で示される.$I(x,y)$は$x$と$y$の相互情報量であり,基準単語と呼ばれる$O_{1}$,$\cdots$,$O_{m}$は,ACLCD-ROM所収のCollinsEnglishDictionaryの語義文における頻度をカウントし,最上位50単語を除いて抽出した1000語を示す.\item二つの文脈ベクトルの類似度は正規化されたベクトルの内積で表す.\begin{eqnarray}sim(C_{1},C_{2})&=&\frac{V(C_{1})}{\midV(C_{1})\mid}\frac{V(C_{2})}{\midV(C_{2})\mid}\label{niwa1}\end{eqnarray}式(\ref{niwa1})において,$sim(C_{1},C_{2})$の値が大きいほど,文脈$C_{1}$,$C_{2}$は類似していることを示す.\item今,単語$w$\hspace{-0.01mm}が複数の意味\hspace{-0.01mm}$s_{1}$,$s_{2}$,$\cdots$,$s_{m}$\hspace{-0.25mm}を持ち,\hspace{-0.1mm}各意味に対して次のような文脈例が与えられているとする.(各$C_{ij}$が文脈例){\begin{center}\begin{tabular}{ccccc}意味&\multicolumn{4}{c}{文脈リスト}\\\hline$s_{1}$&$C_{11}$&$C_{12}$&$\cdots$&$C_{1n_{1}}$\\$\vdots$&$\vdots$&$\vdots$&$\vdots$&$\vdots$\\$s_{m}$&$C_{m1}$&$C_{m2}$&$\cdots$&$C_{mn_{m}}$\\\end{tabular}\end{center}}この時,任意の文脈$C$における単語$w$の意味は,類似度$sim(C,C_{ij})$が最大となる文脈例$C_{ij}$を持つ意味$s_{i}$に決定される.\end{enumerate}丹羽らの手法を用いた実験では,$I(x,y)$を求めるときに使用する$x$と$y$のウィンドウサイズは前後50語とした.多義語の各意味を示す文脈例として{\itWallStreetJournal}から,各意味ごとに10例ずつ抽出し,文脈リストを作成した.{\bf文脈サイズ}は,5語と10語を用いた.ここで,例えば文脈サイズが\hspace{-0.05mm}10\hspace{-0.05mm}であるとは,\hspace{-0.05mm}多義性を解消しようとする語の前後10語を文脈として用いたことを意味する.実験結果を表\ref{poly_result1}に示す.{\begin{table}[htbp]\begin{center}\caption{比較実験の結果}\label{poly_result1}Table3Theresultsofcomparativeexperiment\\\vspace*{2mm}\begin{tabular}{r|l|c||c|c|c}\hline\hline\raisebox{-1.5ex}{Num}&\raisebox{-1.5ex}{Word}&\raisebox{-1.5ex}{Sentence}&\raisebox{-1.5ex}{\itHypo.Verb}&\multicolumn{2}{c}{Co-occurrencevector}\\\cline{5-6}&&&&{\bf10}&{\bf5}\\\hline(1)&close&99&57&39&42\\\hline(2)&take&42&33&30&30\\\hline(3)&lose&97&77&67&75\\\hline(4)&get&83&49&48&48\\\hline(5)&give&85&57&67&71\\\hline(6)&make&93&78&52&49\\\hline(7)&bring&83&73&64&56\\\hline(8)&leave&93&73&32&37\\\hline(9)&run&97&73&66&80\\\hline(10)&set&91&72&61&58\\\hline(11)&see&100&50&43&46\\\hline(12)&come&74&48&48&52\\\hline(13)&find&92&60&50&60\\\hline(14)&leave&96&72&70&65\\\hline\multicolumn{2}{c|}{Total}&1,226&872(71.1\%)&730(60.0\%)&712(62.7\%)\\\hline\end{tabular}\end{center}\end{table}}\noindent表\ref{poly_result1}において,`Num'は表\ref{disam}で示した動詞グループの各番号を表す.`Word'は動詞グループに含まれる多義語を示し,`Sentence'はテスト文の総数を示す.`{\itHypo.Verb}'は本手法による正解数を示し,`Co-occurrencevector'は丹羽の提案した手法を用いた実験結果の正解数を示す.`Co-occurrenceverctor'における{\bf10},{\bf5}は文脈サイズを示す.
\section{考察}
\subsection{曖昧性解消実験}表\ref{disam}によると,4章で示した決定法の{\bf2}は解消に重要な役割を果たし,名詞間に意味的な近さを示す尺度を導入する必要があることを示している.また総正解数は,総数1,226文のうち872文であり正解率が71.1\%に達していること,特に`{\itwithinthepvntable}'の正解は,総数606文のうち539文であり,正解率が88.9\%に達していることから,クラスタリングの結果得られた情報が有効であることを示す.{\bf1}と{\bf2}における正解率を比較すると,全ての動詞のグループに対し,{\bf2}の方が正解率が低かった.例えば,(1)の動詞グループ\{{\bf\underline{close},open,end}\}において,{\bf1}である`$within$$the$$pvn$'における正解率が76.4\%(26/34=76.4)であるのに対し,{\bf2}である`$without$$the$$pvn$'における正解率は47.6\%(31/65=47.6\%)であった.式(\ref{co})中の$Dis(x,n)$を用いて偏差を計算した結果例を表\ref{noun}に示す.{\footnotesize\begin{table}[htbp]\begin{center}\caption{2語間の偏差の値}\label{noun}Table4Semanticdissimilarityoftwonouns\\\begin{tabular}{rlc|rlc|rlc}\hline\hlineNo.&$n$&{\footnotesize(month,$n$)}&No.&$n$&{\footnotesize(loss,$n$)}&No.&$n$&{\footnotesize(stake,$n$)}\\\hline1.&Monday&0.542&1.&profit&0.410&1.&equity&0.427\\2.&week&0.563&2.&earnings&0.461&2.&interest&0.468\\3.&August&0.578&3.&income&0.462&3.&cash&0.531\\4.&end&0.586&4.&net&0.479&4.&shares&0.547\\5.&Tuesday&0.589&5.&gain&0.487&5.&amount&0.560\\6.&agreement&0.593&6.&result&0.492&6.&asset&0.582\\7.&Wednesday&0.603&7.&decline&0.528&7.&value&0.592\\8.&yesterday&0.614&8.&revenue&0.578&8.&option&0.595\\9.&office&0.626&9.¢&0.605&9.&stock&0.628\\10.&year&0.637&10.&increase&0.620&10.÷nd&0.634\\\hline&&\multicolumn{1}{r}{}&&&\multicolumn{1}{r}{}&&&\\\hline\hlineNo.&$n$&{\footnotesize(profit,$n$)}&No.&$n$&{\footnotesize(loan,$n$)}&No.&$n$&{\footnotesize(money,$n$)}\\\hline1.&earnings&0.335&1.&tax&0.543&1.&cash&0.611\\2.&result&0.405&2.&use&0.563&2.&tax&0.616\\3.&loss&0.410&3.&debt&0.571&3.&control&0.637\\4.&income&0.492&4.&computer&0.586&4.&dollar&0.654\\5.&revenue&0.496&5.&payment&0.587&5.&power&0.657\\6.&decline&0.540&6.&investment&0.589&6.&position&0.659\\7.&gains&0.565&7.&shareholder&0.598&7.&time&0.661\\8.&growth&0.566&8.&proposal&0.606&8.&drug&0.663\\9.&operating&0.571&9.&fund&0.613&9.&lot&0.666\\10.&net&0.580&10.&benefit&0.628&10.&loan&0.674\\\hline\end{tabular}\end{center}\end{table}}\noindent表\ref{noun}は,`month',`loss',`stake',`profit',`loan',`money'との偏差が少ない語をそれぞれ上位10語抽出した結果を示す.数値は偏差の値を示す.表\ref{noun}によると,$Dis(x,n)$によりほぼ意味的に近いものを抽出できていることがわかる.このことから,式(\ref{co})中の$Dis(x,n)$は,妥当であると言える.{\bf2}における正解率が{\bf1}よりも低かった原因として,積関数である式(\ref{co})が考えられる.すなわち,{\bf2}において,文中に現れる名詞$x$が$pvn$に存在しない場合,$pvn$に示される名詞の要素一つ一つに対して,式(\ref{co})を適用し,$x$との意味的な関係を求めた.しかし多義語の各意味は,名詞の部分集合全体で特徴づけられていることから,文中における名詞$x$と部分集合全体との偏差を考慮に入れるよう式(\ref{co})を改良する必要がある.\subsection{他手法との比較}表\ref{poly_result1}の結果から,本手法の正解率が71.1\%であるのに対し,丹羽らの提案した手法は,62.7\%(文脈サイズ5)であることから,本手法の方が良い正解率が得られることがわかる.一般にある文章の話題抽出には名詞が用いられていることから,名詞同士の意味的な関係は広いウィンドウサイズが適切である.一方,動詞と名詞の意味的な関係は比較的狭いウィンドウサイズを用いた方が(動詞と目的語という観点から)顕著に現れる.このことは,表\ref{poly_result1}においてウィンドウサイズが{\bf10}のときよりも{\bf5}の方が良い結果が得られていることからも明らかである.ところがウィンドウサイズを狭くとるとデータスパースネスの問題が生じる.すなわち丹羽らの手法では文脈中の各単語と基準単語との相互情報量の値を用いてベクトルの内積を計算しているが,ウィンドウサイズを狭くとると基準単語と共起する単語数が相対的に減少する.その結果,内積がゼロになり類似度が計算できない場合が生じた.さらに丹羽らの手法では,基準単語はCollinsEnglishDictionaryの語義文における頻度をカウントし,最上位50単語を除いて1000語を抽出しこれを用いている.しかし,これは辞書から得られた一般的な情報であり,{\itWallStreetJournal}のような分野依存のコーパスにおいて同様に高頻度に現れるとは限らない.実際,CollinsEnglishDictionaryの見出し語約6万2千語の内,少なくとも{\itWallStreetJournal}に一回以上出現した単語は約半数であり,単語と基準単語1000語との総組数のうち,実際に一回以上共起したのは約15.8\%であった.丹羽らの手法において,このことが本手法よりも高い正解率が得られなかった要因と考えられる.
\section{むすび}
本稿では,コーパスから抽出した動詞の語義情報を利用し,文中に含まれる多義語の曖昧性を解消する手法を提案した.本手法の基本的なアイデアは,表層上は一つの要素である多義語動詞を,多義が持つ各意味がまとまった複数要素であると捉え,これを一つ一つの意味に対応させた要素に分解した上でクラスタを作成すれば,多義を判定しながら意味的なクラスタリングが行なえるということである.本手法の有効性を検証するため,丹羽らの提案した単語ベクトルを用いた多義語の解消手法と比較した結果,14種類の多義語動詞を含む1,226文に対し,丹羽らの手法が平均62.7\%の正解率に対し,本手法では,71.1\%の正解率を得た.本手法では動詞の多義を判定するため,動詞を$n$次元($n$は名詞の個数)名詞空間で,ベクトルとして表現した.しかし,名詞にも多義性があることを考慮していない.軸となる名詞の多義性をどのように扱うかは今後の課題である.\bibliographystyle{jnlpbbl}\bibliography{main}\begin{biography}\biotitle{略歴}\bioauthor{福本文代}{1986年学習院大学理学部数学科卒業.同年沖電気工業(株)入社.総合システム研究所勤務.1988年より1992年まで(財)新世代コンピュータ技術開発機構へ出向.1993年マンチェスター工科大学計算言語学部修士課程終了.同大学客員研究員を経て1994年より山梨大学工学部助手,現在に至る.自然言語処理の研究に従事.情報処理学会,ACL各会員.}\bioauthor{辻井潤一}{1971年,京都大学工学部電子工学科卒業,1973年,同大学院工学研究科修士過程修了.同年,京都大学工学部電気第二工学科助手,同助教授を経て,1988年英国UMIST(マンチェスタ理工科大学:UniversityofManchesterInstituteofScienceandTechnology)教授.同大学計算言語学研究センタ(CentreforComputationalLinguistics:CCL)所長,および,言語工学科主任教授を経て,1995年より東京大学大学院理学系研究科情報科学専攻教授.1981年から1982年まで,フランス・CNRS招待研究者として,グルノーブル大学自動翻訳研究所(GETA)に滞在.工学博士.国際計算言語学委員(ICCL)メンバー,1996年,国際計算言語学会(Coling96)プログラム委員長,NATO機械翻訳プロジェクト(トルコ)技術顧問など.人工知能学会等会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V24N05-04 | \section{はじめに}
一般に,自然言語処理システムでは単語を何らかの数値ベクトルとして表現する必要がある.単純にベクトル化する方法としてはone-hot表現がある.これは単語の種類数が$N$の場合,$N$次元ベクトルを用意し,単語$w$が$i$番目の種類の単語であれば,$N$次元ベクトルの$i$番目だけを1に,他は0にして$w$をベクトル化する方法である.one-hot表現によるベクトル化は単にベクトル化しただけであり,ベクトル間の関係はその単語間のなんらかの関係を反映しているわけではない.処理の意味を考えれば,単語のベクトルはその単語の意味を表し,ベクトル間の関係は,単語の意味の関係を反映したものになっていることが望ましい.このような背景下で,Mikolovはword2vecを発表し\cite{Mikolov1,Mikolov-2013},単語の意味を低次元密なベクトルとして表現する分散表現が大きな成功を収めた.その後,自然言語処理の様々なタスクにおいて,分散表現が導入され,既存のシステムを改善している.また同時に近年,自然言語処理の分野でも深層学習の利用が活発だが,そこでは単語のベクトル化に分散表現が用いられる\cite{okazaki}.つまり,現在,自然言語処理システムにおける単語のベクトル化には分散表現を用いることが一般的な状況となっている.分散表現は,単語分割されたコーパス\footnote{日本語の場合,'mecab-Owakati'により,容易にテキストコーパスをword2vecの入力形式に変換できる.}があればword2vec\footnote{https://github.com/svn2github/word2vec}やGloVe\footnote{https://nlp.stanford.edu/projects/glove/}などの公開されているツールを用いて簡単に構築できる.また深層学習で利用する場合は,ネットワークの一部として分散表現を学習できる.このため分散表現のデータ自体の品質に関心が持たれることは少ない.ただし分散表現を利用したシステムでは,分散表現の品質がそのシステムの精度に大きな影響を与えている.また深層学習では,学習時間や得られるモデルの品質の観点から,分散表現を学習時に構築するよりも,既存の学習済みの分散表現を用いる方が望ましい.このような観点から容易に利用できる高品質の分散表現データがあれば,様々な自然言語処理システムの構築に有益であることは明らかである.以上の潜在的な需要に応えるために我々は国語研日本語ウェブコーパス(以下,NWJC)\cite{asahara2014archiving}を利用して分散表現を構築し,それをnwjc2vecと名付けて公開している\footnote{http://nwjc-data.ninjal.ac.jp/}.NWJCは約258億語からなるコーパスである.1年分の新聞記事中のプレーンな文のデータが約2,050万語\footnote{2008年度の毎日新聞記事から,文としてなりたつと考えられるものを抽出し,unidicを基に形態素解析したものから算出した.}であることを考えると,NWJCは1,200年分以上の新聞記事に相当し,超大規模コーパスといえる.そのためそのコーパスから構築されたnwjc2vecが高品質であることが期待できる.本稿ではnwjc2vecを紹介するとともに,nwjc2vecの品質を評価するために行った二種類の評価実験の結果を報告する.第一の評価実験では,単語間類似度の評価として,単語類似度データセットを利用して人間の主観評価とのスピアマン順位相関係数を算出する.第二の評価実験では,タスクに基づく評価として,nwjc2vecを用いて語義曖昧性解消及び回帰型ニューラルネットワーク(RecurrentNeuralNetwork,以下RNN)による言語モデルの構築を行う.なおここでの言語モデルとは確率的言語モデルであり単語列に対する確率分布を意味する.構築した言語モデルはパープレキシティにより評価できるので,その評価値により構築の基になった分散表現データを評価する.どちらの評価実験においても,新聞記事7年分の記事データから構築した分散表現を用いた場合の結果と比較することで,nwjc2vecが高品質であることを示す.
\section{nwjc2vecの構築}
\subsection{NWJC}NWJCはウェブを母集団とし,100億語規模を目標として構築した日本語コーパスである.ウェブアーカイブの構築で用いられるHeritrix-3.1.1\footnote{http://webarchive.jira.com/wiki/display/Heritrix/Heritrix/}クローラを運用することで,1年間,3か月おきに,固定した約1億URLのウェブページを収集している.得られたウェブページはnwc-toolkit-0.0.2\footnote{https://github.com/xen/nwc-toolkit}を用いて,日本語文抽出と正規化を行う.コピーサイトの問題を緩和するために,文単位の単一化(文の異なりを用いる)を行った.アノテーションはすべて自動解析を用い,形態論情報,および係り受け情報を付与している.形態素解析には形態素解析器MeCab-0.996\footnote{https://taku910.github.io/mecab/}とUniDic-2.1.2\footnote{http://unidic.ninjal.ac.jp/}を使用し,係り受け解析には係り受け解析器CaboCha-0.69\footnote{https://taku910.github.io/cabocha/}とUniDic主辞規則\footnote{CaboChaコンパイル時に{\tt./configure--with-posset=UNIDIC}と指定することで,解析器の主辞規則を\mbox{UniDic}品詞体系に適応することができる.}を使用した.収集したデータを研究者に提供することが求められているが,著作権の問題があり,収集したデータをそのまま外部の研究者に提供することは難しい.そこで,文字列のみならず,形態論情報や係り受け構造に基づく検索系を構築し,例文とともに元データが含まれるURLへのリンクを含めて提示するサービスを構築した\cite{Asahara-2016-bonten}.このサービスから利用可能なデータは,2014年10--12月期収集データ(NWJC-2014-4Qデータ)に基づく.基礎統計は表\ref{table1}のとおりである.\begin{table}[b]\caption{基礎統計:NWJC-2014-4Qデータ}\label{table1}\input{03table01.txt}\end{table}\subsection{word2vecによる分散表現の構築}表1に示したNWJC-2014-4Qデータを用いて分散表現データを構築する.分散表現データの構築にはword2vec\footnote{https://github.com/svn2github/word2vec}のCBOWモデルを用いた.表\ref{table2}にword2vec実行時の各種パラメータを示す\footnote{これらのパラメータはword2vecのソースと一緒に配布されるdemo-word.shに記載されているパラメータである.NWJCに特化してチューニングした値ではない.nwjc2vecの構築に要する時間は高性能マシンを用いても3週間以上であるため,他のパラメータとの比較は行っていない.}.\begin{table}[b]\caption{word2vecの実行時のパラメータ}\label{table2}\input{03table02.txt}\end{table}分散表現の学習に利用するコーパスは単語分割されている必要がある.ここではこの単語として,書字形出現形のみを使ったwordと,形態論情報\footnote{unidic-mecab\_kana-accent-2.1.2のdicrcに記載の素性26種.}を含めたmrphの2種類を用意し,それぞれの単語単位に対してモデルを構築した.\subsection{nwjc2vec}上記により構築できた2つのモデルのうち特に有用であるのは形態論情報を含めた分散表現である.このモデルの分散表現をnwjc2vecと名付けて公開している.nwjc2vecは柔軟な利用が可能なように,分散表現をテキストファイルの形式で保存している.1行は1形態素に相当し,以下の形式になっている.\vspace{0.3\Cvs}\begin{center}\begin{minipage}{150pt}\begin{screen}形態素\verb|e_1|\verb|e_2|・・・\verb|e_200|\end{screen}\end{minipage}\end{center}\vspace{0.7\Cvs}\verb|e_i|がその形態素の分散表現の\verb|i|次元目の値である.例えば,以下は「意味」に対応する分散表現である.\vspace{0.3\Cvs}\begin{center}\begin{minipage}{330pt}\small\begin{screen}意味,名詞,普通名詞,サ変可能,*,*,*,イミ,意味,意味,イミ,意味,イミ,漢,*,*,*,-10.491043-2.121982-3.084628$\cdots$4.0247053.57007212.781445\end{screen}\end{minipage}\end{center}\vspace{0.7\Cvs}つまり``意味,名詞,普通名詞,サ変可能,*,*,*,イミ,意味,意味,イミ,意味,イミ,漢,*,*,*,''が1形態素である.またベクトル値はword2vecの出力値をそのまま書き出しており,大きさ\footnote{本論文ではベクトルの「大きさ」をベクトルの「L2-ノルム」の意味で用いている.}を1とする正規化はされていない.nwjc2vec全体としては1,738,455形態素からなる\footnote{そのテキストファイルはheaderの1行を含め1,738,456行である.}.書字形出現形は1,541,651種類存在するので,書字形出現形が同じでも形態論情報が異なるものが多数存在する.従来の単語分散表現は書字形出現形を形態素としたものが一般的であり,その場合,品詞の違いによる別単語を同一の分散表現にしているという明らかな欠点がある.nwjc2vecではその欠点を回避できている.\begin{table}[b]\caption{品詞別の形態素数}\label{myhinshi}\input{03table03.txt}\end{table}大分類の品詞別の形態素数を頻度順に\mbox{表\ref{myhinshi}}にまとめる.etcは半角英単語などの未知語であり,語彙素の付与に失敗しているものである.次に\mbox{表\ref{myhinshi}}のetc以外の分散表現のベクトルの大きさを調べた.平均は9.261,標準偏差は9.641,中央値は5.105であった.またベクトルの大きさを0.1刻みに丸め,その頻度分布を調べた.結果を\mbox{図\ref{myhindo2}}に示す.\begin{figure}[b]\begin{center}\includegraphics{24-5ia3f1.eps}\end{center}\caption{分散表現ベクトルの大きさの頻度分布}\label{myhindo2}\end{figure}参考として,ベクトルの大きさとその単語の関係を調べた.ベクトルの大きさの小数点以下を切り捨て,大きさ3,15,75\footnote{この3つの数値は,ベクトルの大きさは3が最頻出であったことから選んだ.}の単語をランダムに10個取り出した.その結果を表\ref{w-len}に示す.ここから明確な特徴を示すことはできないが,頻度が小さな単語はそのベクトルも小さく,頻度が大きな単語はそのベクトルも大きいという傾向があると考えられる.\begin{table}[b]\caption{ベクトルの大きさと単語の関係}\label{w-len}\input{03table04.txt}\end{table}
\section{評価実験}
一般に分散表現の評価法には単語間類似度の観点からのものと,分散表現を用いたタスクの精度の観点からのものが存在する.単語間類似度からnwjc2vecを評価したものとして,分類語彙表との対応をみた評価が報告されている\cite{asahara-nwjc}.そこでは主観的な評価ではあるが,nwjc2vecが高品質であることが示されている.ここでは更に定量的な評価を行うために,単語類似度データセットを利用する.またタスクの精度の観点としては,語義曖昧性解消と言語モデル構築という2つのタスクから評価を行う.どちらの評価実験においても,新聞記事7年分の記事データから構築した分散表現を用いた場合の結果と比較することで,nwjc2vecが高品質であることを示す.\subsection{比較のための分散表現mai2vecの構築}nwjc2vecとの比較のために,新聞記事7年分から分散表現を構築する.用いたコーパスは毎日新聞'93年度版から'99年度版の7年分の記事であり,そこから見出しや表内の文字列等を取り除き,文として認められるものだけを取り出した.取り出した文は6,791,403文であった.これをMeCab-0.996とUniDic-2.1.2を用いて分かち書きし,これをword2vecにかけることで分散表現を構築した.この分散表現データをここではmai2vecと名付ける.word2vec実行時の各種パラメータはnwjc2vecを構築したもの(\mbox{表\ref{table2}})と合わせた.最終的に得られたmai2vecの形態素数は132,509であった.\subsection{単語間類似度による評価}分散表現を単語間類似度の観点から評価する方法として,単語類似度データセットを利用する方法がある.単語類似度データセットは用意された単語ペアに対して,複数の人間が主観的にその類似度を付けたものである.複数人の類似度の平均を,その単語ペアの類似度とみなす.単語類似度データセット中の単語ペアの類似度を,分散表現データを用いて算出する.データセットに記されている類似度が高い単語ペアに対しては,分散表現データも高い類似度を算出し,低い単語ペアに対しては分散表現データも低い類似度を算出するというように,データセット内に記された類似度と分散表現が算出する類似度に相関があれば,その分散表現データの単語間類似度が概ね正しいと考えられる.この相関の算出には一般にスピアマン順位相関係数が用いられる.ここでは首都大学東京の小町研究室が以下で公開している単語類似度データセットを利用する.このデータセットは形容詞,副詞,名詞及び動詞の4つの単語類似度データセットからなる.10人のアノテータにより各単語ペアに対して11段階(0から10)の類似度が付与されている.\vspace{0.5\Cvs}\begin{center}https://github.com/tmu-nlp/JapaneseWordSimilarityDataset\end{center}\vspace{0.5\Cvs}このデータセット中の単語ペアのうちmai2vecとnwjc2vecの両方に登録されている単語ペアだけを評価に利用した.利用した単語ペア数を表\ref{wdsim-tab}に示す.\begin{table}[t]\caption{単語類似度データセット中の利用した単語ペア数}\label{wdsim-tab}\input{03table05.txt}\end{table}上記の単語ペアに対してmai2vecあるいはnwjc2vecから類似度を求め\footnote{類似度は両者のベクトルの大きさを1に正規化し,そららの余弦(この場合,内積)から求めた.},形容詞,副詞,名詞及び動詞の各データセットに対して,スピアマン順位相関係数を算出した.結果を表\ref{wdsim-kekka}に示す.\begin{table}[t]\caption{単語間類似度の実験結果}\label{wdsim-kekka}\input{03table06.txt}\end{table}全てのデータセットにおいてnwjc2vecはmai2vecよりも評価値が高く,単語間類似度の観点ではmai2vecよりも品質が高いと言える.\subsection{タスクに基づく評価}\subsubsection{語義曖昧性解消タスク}分散表現を用いて,教師あり学習による語義曖昧性解消を行う.語義曖昧性解消に分散表現を用いる手法にはSugawaraが提案した手法\cite{sugawara}を用いる.Sugawaraの手法は語義曖昧性解消に対して通常設定する素性群(基本素性と呼ぶ)の他に対象単語の前後2単語の分散表現を素性として加えるというものである.例えば以下の文を考える.語義曖昧性解消の対象単語は「意味」であり,単語区切りを``/''で示す.\begin{screen}\begin{verbatim}江戸/時代/の/庶民/たち/が/そこ/に/新た/な/意味/の/付与/を/おこなっ/て/き/た/。\end{verbatim}\end{screen}標準的な教師あり学習の手法では「意味」の前後の文脈情報(例えば前後に現れる自立語や直前の品詞など)を素性で表す.これが基本素性となる.この基本素性をベクトル表現したものを$V$とする.Sugawara手法は対象単語の前後2単語,つまり「新た」「な」「の」「付与」の4単語の分散表現$V_{新た}$,$V_{な}$,$V_{の}$,$V_{付与}$を$V$に結合させ,それを新たな上記文の素性ベクトルとして教師あり学習を行うというものである.ここでの実験では分散表現の差異を明確にするために基本素性を利用せずに,前後2単語の分散表現(上記例では$V_{新た}$,$V_{な}$,$V_{の}$,$V_{付与}$)だけを結合させた素性ベクトルを用いることにする.各分散表現を求める際にnwjc2vecあるいはmai2vecを利用する.ただしnwjc2vecの形態素には形態論情報が付与されているが,ここでは大分類の品詞だけを用いることにした.例えば上記文では,形態素解析時に各単語に大分類の品詞名を付与し,以下のような形に直すことで分散表現を求めている.\begin{screen}\begin{verbatim}江戸-名詞/時代-名詞/の-助詞/庶民-名詞/たち-接尾辞/が-助詞/そこ-代名詞/に-助詞/新た-形状詞/な-助動詞/意味-名詞/の-助詞/付与-名詞/を-助詞/おこなっ-動詞/て-助詞/き-動詞/た-助動詞/。-補助記号\end{verbatim}\end{screen}語義曖昧性解消のデータセットとしてはSemEval-2の日本語辞書タスク\cite{semeval-2010}のデータセットを用いる.このタスクでは50単語の対象単語が設定され,各対象単語に対して,50用例の訓練データと50用例のテストデータが与えられている.各対象単語に対して訓練データで分類器を学習し,その単語のテストデータにより分類器の正解率を測る.そして50単語に対する正解率の平均によって評価を行う.実験結果を表\ref{mykekka1}に示す.表中のbaselineはSemEval-2でのベースラインである.表中のmai2vecは分散表現mai2vecから素性ベクトルを作る手法である.表中のnwjc2vecは分散表現nwjc2vecから素性ベクトルを作る手法である.どちらの場合も分散表現のベクトルは大きさを1に正規化している.また大きさを1に正規化せずに,word2vecから求まった値を直接使った場合をmai2vec-0とnwjc2vec-0により示した.ベースラインも含め,いずれのシステムも学習アルゴリズムとしては線形のSVM\footnote{https://www.csie.ntu.edu.tw/~cjlin/libsvm/}を用いた.\begin{table}[t]\caption{平均正解率(\%)}\label{mykekka1}\input{03table07.txt}\end{table}nwjc2vecが最も高い正解率を出しており,nwjc2vecが高品質であると考えられる.また分散表現のベクトルの大きさは1に正規化して利用した方がよいことも確認できる.\subsubsection{RNNによる言語モデル構築}RNNは時系列データを処理する深層学習のモデルである.様々な応用があるが,最も典型的な応用は言語モデルの構築である.時刻$t$の入力データを,文$s$内の$t$番目の単語$w_t$とし,その教師データを次に現れる単語$w_{t+1}$とすることで言語モデルが学習できる.ここではRNNの拡張版であるLongShort-TermMemory(以下LSTM)\cite{gers2000learning}を用いる.言語モデルを学習するLSTMの時刻$t$時の入出力を表したネットワークを\mbox{図\ref{rnn}}に示す.時刻$t$で単語$w_t$が入力され,それを$w_t$の分散表現のベクトルに変換し,その分散表現のベクトルをLSTMブロックに入力する.LSTMブロックでは次の時刻$t+1$へのLSTMブロックへ$w_0$から$w_t$の単語列の情報を圧縮したベクトル$h_t$と記憶セル$c_t$を渡す.同時に$y_t$を出力し,それを線形作用素$W$でone-hot形式のベクトルに直すことで次に現れる単語を予測する.学習時には$Wy_t$と$w_{t+1}$との誤差からネットワークの重みを学習する.\begin{figure}[b]\begin{center}\includegraphics{24-5ia3f2.eps}\end{center}\caption{LSTMの時刻$t$時の入出力}\label{rnn}\end{figure}上記ネットワークでは,$w_t$をその分散表現のベクトルに変換するが,その変換,つまり$w_t$の分散表現自体をLSTM内で学習している.その際,学習対象の分散表現の初期値は通常ランダムな値を設定する.しかしこの初期値に既存の分散表現のデータを利用することも可能である.あるいは,分散表現を学習対象から外し,分散表現への変換は既存の分散表現のデータを利用する形でも良い.ここでの実験では分散表現の品質の比較を目的としているために,分散表現を学習対象から外し,分散表現への変換は評価対象の分散表現データを利用する形で実験を行う.つまり分散表現への変換にmai2vecを用いて構築した言語モデル(mai2vec-lm),及び分散表現への変換にnwjc2vecを用いて構築した言語モデル(nwjc2vec-lm)を比較することでnwjc2vecを評価する.また参考として分散表現をLSTM内で学習して構築した言語モデル(base-lm)も評価する.言語モデルの評価にはパープレキシティを用いる.言語モデルの学習用のコーパスとしては現代日本語書き言葉均衡コーパス\cite{maekawa2014balanced}のYahoo!ブログとYahoo!知恵袋から取り出した7,330文のうち7,226文を学習用コーパス,104文を評価用コーパスとした.1epoch\footnote{一つの学習用データ(ここでは7,226文)を何回繰り返して学習させたかの単位.}毎に構築した言語モデルのパープレキシティを表\ref{rnn-tb}と図\ref{rnn-fg}に示す.\begin{table}[b]\vspace{-0.5\Cvs}\caption{エポック毎のパープレキシティ}\label{rnn-tb}\input{03table08.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{24-5ia3f3.eps}\end{center}\caption{分散表現の違いによる言語モデルのパープレキシティ}\label{rnn-fg}\vspace{-0.5\Cvs}\end{figure}mai2vec-lmとnwjc2vec-lmはbase-lmよりもパープレキシティが低く,言語モデルの学習には分散表現への変換を同時に学習するよりも,既存の分散表現を利用した方がよいと言える.またnwjc2vec-lmはmai2vec-lmよりもパープレキシティが低く,nwjc2vecの方がmai2vecよりも品質が高いと言える.
\section{考察}
単語間類似度に基づく評価実験では,mai2vecもnwjc2vecもスピアマン順位相関係数の値自体は低かった.ただしnwjc2vecはmai2vecよりも明らかに評価値が高く,少なくともmai2vecよりも品質が高いと言える.分類語彙表との対応をみた実験\cite{asahara-nwjc}からも単語間類似度の精度は良く,しかもタスクに基づく評価実験からmai2vecもかなり品質が高いことがうかがえるため,nwjc2vecは単語間類似度の観点からは高品質であると考える.タスクに基づく評価実験では,語義曖昧性解消でも言語モデルの構築でもnwjc2vecはmai2vecよりも良い値を出したが,その差はわずかであった.ただし品質の差は数値の差以上のものがあると考えられる.まず語義曖昧性解消ではSemEval-2の日本語辞書タスクのデータを用いたが,このタスクはbaselineがかなり高く,通常のリソースを使う限りではbaselineを超えることは困難である.実際にSemEval-2の参加システムでbaselineを超える正解率を出したシステムはなかった.また新納はこのタスクにおいて様々なシソーラスの情報を試したが,baselineを0.2\%以上改善できるものはなかった\cite{shinnou}.そこではシソーラスの粒度を混合して利用することで77.28\%まで改善しているが,nwjc2vecはこの値よりも0.43\%高い.Yamakiはwikipediaから構築した分散表現と独自の手法を利用して,77.10\%の正解率を出したが\cite{yamaki},この値はmai2vecと同程度である.mai2vecもnwjc2vecもbaselineを超えているので,どちらの分散表現もかなり品質は高いといえるが,nwjc2vecはmai2vecよりも0.64\%高い.この0.64\%の差はなかなか埋めることができないものである.次に言語モデルを用いたここでの実験では,未知語の問題を避けていることを注記したい.ここで利用した学習用コーパスと評価用コーパスにはmai2vecおよびnwjc2vecのどちらにも未知語が存在しないように,どちらかに未知語が存在する場合は,その文を予めコーパスから取り除いている.初期のコーパス(175,302単語,異なり単語数15,082単語)ではmai2vecを用いた場合の未知語は7,424単語(異なり数3,204単語)存在したが,nwjc2vecを用いた場合の未知語は404単語(異なり数324単語)であり,大きな差がある.本実験において,学習用コーパスあるいは評価用コーパス内の分散表現データにおける未知語の出現が,構築できる言語モデルにどの程度悪影響を与えるかは不明である.ただし明らかに未知語の出現により評価値は悪くなるはずであり,この点からnwjc2vecとmai2vecの品質の差は更にあると考えられる.最後にnwjc2vecのfine-tuningについて述べる.あるモデルの学習を行う際に,訓練データが少量しかないことは通常起こりえる.このとき別の訓練データから学習された既存のモデルが利用できれば,手持ちの少量の訓練データからその既存のモデルを自分の用途に調整することができる.これをfine-tuningという.分散表現もfine-tuningが可能であるため,nwjc2vecの存在意義は更に高い.この点を確認するため,分散表現の学習プログラム\footnote{windowの幅は5単語,NegativeSampleの個数は20単語,モデルはSkipGramを用いた.}を作成し\cite{shinnou-book},その分散表現の初期値をnwjc2vecに設定し,学習用コーパスとしてはmai2vecの基になったコーパスから30万文をランダムに取り出したものを用いてnwjc2vecのfine-tuningを行った.得られた分散表現を用いて,前章で行ったLSTMによる言語モデルの学習を再度行った.学習用コーパスと評価用コーパスも前章のものと同じである.結果を\mbox{表\ref{rnn-tb2}}と\mbox{図\ref{rnn-fg2}}に示す.各epoch後に学習できた言語モデルのパープレキシティはfine-tuningによる分散表現を用いたものの方が優れており,fine-tuningの効果が確認できる.\begin{table}[t]\caption{fine-tuningの効果}\label{rnn-tb2}\input{03table09.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{24-5ia3f4.eps}\end{center}\caption{fine-tuningによる言語モデルのパープレキシティ}\label{rnn-fg2}\end{figure}
\section{おわりに}
本稿では我々が構築,公開している日本語単語の分散表現のデータnwjc2vecを紹介した.nwjc2vecは超大規模コーパスである国語研日本語ウェブコーパスからword2vecを用いて構築した分散表現のデータである.ここではnwjc2vecの品質を評価するため2種類の評価実験を行った.第一の評価実験では単語間類似度の評価として,単語類似度データセットを利用して人間の主観評価とのスピアマン順位相関係数を算出した.第二の評価実験では,タスクに基づく評価として,nwjc2vecを用いて語義曖昧性解消及び回帰型ニューラルネットワークによる言語モデルの構築からnwjc2vecの評価を行った.二つの評価実験からnwjc2vecが高品質であることが示された.今後はnwjc2vecのfine-tuningの可能性を調査したい.\acknowledgment本研究の一部は国語研コーパス開発センター「超大規模コーパス」プロジェクト(2011--\linebreak2015)・コーパス開発センター共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」(2016--2021)・新領域創出型共同研究プロジェクト「all-wordsWSDシステムの構築及び分類語彙表と岩波国語辞典の対応表作成への利用」(2016--2017)によるものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Asahara,Kawahara,Takei,Masuoka,Ohba,Torii,Morii,Tanaka,Maekawa,Kato,\BBA\Konishi}{Asaharaet~al.}{2016}]{Asahara-2016-bonten}Asahara,M.,Kawahara,K.,Takei,Y.,Masuoka,H.,Ohba,Y.,Torii,Y.,Morii,T.,Tanaka,Y.,Maekawa,K.,Kato,S.,\BBA\Konishi,H.\BBOP2016\BBCP.\newblock\BBOQ`BonTen'---CorpusConcordanceSystemfor`NINJALWebJapaneseCorpus'.\BBCQ\\newblockIn{\BemProceedingsofCOLING2016,the26thInternationalConferenceonComputationalLinguistics:SystemDemonstrations},\mbox{\BPGS\25--29}.\bibitem[\protect\BCAY{Asahara,Maekawa,Imada,Kato,\BBA\Konishi}{Asaharaet~al.}{2014}]{asahara2014archiving}Asahara,M.,Maekawa,K.,Imada,M.,Kato,S.,\BBA\Konishi,H.\BBOP2014\BBCP.\newblock\BBOQArchivingandAnalysingTechniquesoftheUltra-large-scaleWeb-basedCorpusProjectofNINJAL,Japan.\BBCQ\\newblock{\BemAlexandria:TheJournalofNationalandInternationalLibraryandInformationIssues},{\Bbf25}(1--2),\mbox{\BPGS\129--148}.\bibitem[\protect\BCAY{浅原\JBA岡}{浅原\JBA岡}{2017}]{asahara-nwjc}浅原正幸\JBA岡照晃\BBOP2017\BBCP.\newblocknwjc2vec:『国語研日本語ウェブコーパス』に基づく単語の分散表現データ.\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\94--97}.\bibitem[\protect\BCAY{Gers,Schmidhuber,\BBA\Cummins}{Gerset~al.}{2000}]{gers2000learning}Gers,F.~A.,Schmidhuber,J.,\BBA\Cummins,F.\BBOP2000\BBCP.\newblock\BBOQLearningtoForget:ContinualPredictionwithLSTM.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf12}(10),\mbox{\BPGS\2451--2471}.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Ogiso,Maruyama,Ogura,Kashino,Koiso,Yamaguchi,Tanaka,\BBA\Den}{Maekawaet~al.}{2014}]{maekawa2014balanced}Maekawa,K.,Yamazaki,M.,Ogiso,T.,Maruyama,T.,Ogura,H.,Kashino,W.,Koiso,H.,Yamaguchi,M.,Tanaka,M.,\BBA\Den,Y.\BBOP2014\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf48}(2),\mbox{\BPGS\345--371}.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013a}]{Mikolov-2013}Mikolov,T.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013a\BBCP.\newblock\BBOQEfficientEstimationofWordRepresentationsinVectorSpace.\BBCQ\\newblockIn{\BemICLRWorkshopPaper}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013b}]{Mikolov1}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.~S.,\BBA\Dean,J.\BBOP2013b\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandTheirCompositionality.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems},\mbox{\BPGS\3111--3119}.\bibitem[\protect\BCAY{岡崎}{岡崎}{2016}]{okazaki}岡崎直観\BBOP2016\BBCP.\newblock言語処理における分散表現学習のフロンティア(〈特集〉ニューラルネットワーク研究のフロンティア).\\newblock\Jem{人工知能:人工知能学会誌},{\Bbf31}(2),\mbox{\BPGS\189--201}.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2011}]{semeval-2010}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2011\BBCP.\newblock\BBOQOnSemEval-2010JapaneseWSDTask.\BBCQ\\newblock\Jem{自然言語処理},{\Bbf18}(3),\mbox{\BPGS\293--307}.\bibitem[\protect\BCAY{新納}{新納}{2016}]{shinnou-book}新納浩幸\BBOP2016\BBCP.\newblock\Jem{Chainerによる実践深層学習}.\newblockオーム社.\bibitem[\protect\BCAY{新納\JBA佐々木\JBA古宮}{新納\Jetal}{2015}]{shinnou}新納浩幸\JBA佐々木稔\JBA古宮嘉那子\BBOP2015\BBCP.\newblock語義曖昧性解消におけるシソーラス利用の問題分析.\\newblock\Jem{言語処理学会第21回年次大会発表論文集},\mbox{\BPGS\59--62}.\bibitem[\protect\BCAY{Sugawara,Takamura,Sasano,\BBA\Okumura}{Sugawaraet~al.}{2015}]{sugawara}Sugawara,H.,Takamura,H.,Sasano,R.,\BBA\Okumura,M.\BBOP2015\BBCP.\newblock\BBOQContextRepresentationwithWordEmbeddingsforWSD.\BBCQ\\newblockIn{\BemPACLING-2015},\mbox{\BPGS\149--155}.\bibitem[\protect\BCAY{Yamaki,Shinnou,Komiya,\BBA\Sasaki}{Yamakiet~al.}{2016}]{yamaki}Yamaki,S.,Shinnou,H.,Komiya,K.,\BBA\Sasaki,M.\BBOP2016\BBCP.\newblock\BBOQSupervisedWordSenseDisambiguationwithSentencesSimilaritiesfromContextWordEmbeddings.\BBCQ\\newblockIn{\BemPACLIC-30},\mbox{\BPGS\115--121}.\end{thebibliography}\begin{biography}\bioauthor{新納浩幸}{1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年より茨城大学工学部.現在,茨城大学工学部情報工学科教授.博士(工学).機械学習や統計的手法による自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{浅原正幸}{1998年京都大学総合人間学部卒.2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2004年より同大学助教.2012年より国立国語研究所コーパス開発センター特任准教授.現在同准教授.博士(工学).自然言語処理・コーパス言語学の研究に従事.情報処理学会,言語処理学会,言語学会,日本語学会各会員.}\bioauthor{古宮嘉那子}{2005年東京農工大学工学部情報コミュニケーション工学科卒.2009年同大大学院博士後期課程電子情報工学専攻修了.博士(工学).同年東京工業大学精密工学研究所研究員,2010年東京農工大学工学研究院特任助教,2014年茨城大学工学部情報工学科講師.現在に至る.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{佐々木稔}{1996年徳島大学工学部知能情報工学科卒業.2001年同大学大学院博士後期課程修了.博士(工学).2001年12月茨城大学工学部情報工学科助手.現在,茨城大学工学部情報工学科講師.機械学習や統計的手法による情報検索,自然言語処理等に関する研究に従事.言語処理学会,情報処理学会各会員.}\end{biography}\biodate\end{document}
| |
V12N05-02 | \section{はじめに}
近年,コーパスを利用した機械翻訳の研究においては,翻訳システムに不足している翻訳知識を人手で増強していく際のコストを軽減する目的で,対訳コーパスやコンパラブルコーパス等の多言語コーパスから様々な翻訳知識を獲得する手法の研究が行なわれてきた~\cite{Matsumoto00a}.これまでに研究されてきた翻訳知識獲得の手法は,大きく,対訳コーパスからの獲得手法とコンパラブルコーパスからの獲得手法に分けられる.通常,対訳コーパスからの獲得(例えば,\cite{Gale91a})においては,文の対応の情報を利用することにより,片方の言語におけるタームや表現について,もう一方の言語における訳の候補が比較的少数に絞られるため,翻訳知識の獲得は相対的には容易といえる.ただし,そのような対訳コーパスを人手で整備する必要がある点が短所である.一方,コンパラブルコーパスからの獲得(例えば,\cite{Rapp95a,Fung98a})では,各タームの周囲の文脈の類似性を言語横断して測定することにより,訳語対応の推定が行われる.情報源となるコーパスを用意するコストは小さくて済むが,対訳コーパスと比較すると,片方の言語のコーパス中のタームや表現の訳がもう一方の言語のコーパスに出現する可能性が相対的に低いため,翻訳知識の獲得は相対的に難しく,高性能に翻訳知識獲得を行うのは容易ではない.そこで,本論文では,翻訳知識獲得の目的において,人手で整備された対訳コーパスよりも利用可能性が高く,一般のコンパラブルコーパスよりも翻訳知識の獲得が容易である情報源として,日英二言語で書かれた報道記事に着目する.近年,ウェブ上の日本国内の新聞社などのサイトには,日本語だけでなく英語で書かれた報道記事も掲載されており,これらの英語記事においては,同一時期の日本語記事とほぼ同じ内容の報道が含まれている.これらの日本語および英語の報道記事のページにおいては,最新の情報が日々刻々と更新されており,分野特有の新出語(造語)や言い回しなどの翻訳知識を得るための情報源として,非常に有用である.そこで,本論文では,これらの報道記事のページから日本語および英語など,異なった言語で書かれた文書を収集し,多種多様な分野について,分野固有の人名・地名・組織名などの固有名詞(固有表現)や事象・言い回しなどの翻訳知識を自動または半自動で獲得するというアプローチをとる.本論文のアプローチは,情報源となるコーパスを用意するコストについては,コンパラブルコーパスを用いるアプローチと同等に小さく,しかも同時期の報道記事を用いるため,片方の言語におけるタームや表現の訳がもう一方の言語の記事の方に出現する可能性が高く,翻訳知識の獲得が相対的に容易になるという大きな利点がある.\begin{figure}\begin{center}\epsfile{file=FIG/pic01.ai,scale=0.6}\end{center}\vspace*{-.0cm}\caption{日英関連報道記事からの翻訳知識獲得のプロセス}\label{fig:pic01}\end{figure}本論文の翻訳知識獲得のアプローチにおいて,日英関連報道記事から翻訳知識を獲得するプロセスの一般的な流れを図~\ref{fig:pic01}に示す.まず,翻訳知識獲得のための情報源収集を目的として,同時期に日英二言語で書かれたウェブ上の新聞社やテレビ局のサイトから,報道内容がほぼ同一もしくは密接に関連した日本語記事および英語記事を検索する.この際には,既存の対訳辞書,翻訳ソフトの翻訳知識を利用することにより,日本語記事と英語記事の間の関連性を測定する.そして,取得された関連記事対に対し,内容的に対応する翻訳部分の推定を行い,その推定範囲から二言語間の訳語対応を推定し,訳語対の獲得を行う.ここで,従来のコンパラブルコーパスからの訳語対獲得のアプローチにおいては,原理的には,コンパラブルコーパスに出現する全ての日本語タームおよび英語タームの組を訳語対応の候補としていた.一方,本論文のアプローチでは,予備調査の結果~\cite{Utsuro03b,Horiuchi03aj}をふまえて,関連報道記事の組において共起した日本語ターム,および,英語タームの組を収集し,これを訳語対応の候補としており,この点が特徴的である\footnote{予備調査の結果~\cite{Utsuro03b,Horiuchi03aj}においては,関連報道記事の組において共起した日本語ターム,および,英語タームの組を訳語対応の候補とすることにより,不要な訳語対応の候補を大幅に削減できることが分かっており,本論文のアプローチが適切であることの裏付けとなっている.}.ただし,本論文で述べる手法の範囲では,現在のところ,関連記事中で内容的に対応する翻訳部分の推定は行なっておらず,関連記事対全体から訳語対応を推定している.また,訳語対応を推定する尺度としては,関連記事組における訳語候補の共起を利用する方法を適用し,評価実験を通して,この方法が有効であることを示す.特に,評価実験においては,訳語対応を推定すべき英語タームの出現頻度の分布に応じて,訳語対応推定性能がどのように変化するかを調査し,その相関を評価する.以下,\ref{sec:clir}~節では,翻訳知識獲得のための情報源収集を目的として,言語を横断して,報道内容がほぼ同一もしくは密接に関連した日本語記事および英語記事を検索する処理について述べる.次に,\ref{sec:msr}~節では,関連記事組の集合から訳語対応を推定する手法について述べる.\ref{sec:eval}~節において,実験を通して提案手法の評価を行ない,\ref{sec:related}~節において,関連研究について詳細に述べる.
\section{言語横断関連報道記事検索}
\label{sec:clir}\begin{figure}\begin{center}\epsfile{file=FIG/clir.ai,scale=0.5}\caption{日英関連報道記事検索のプロセス}\label{fig:clir}\end{center}\end{figure}本論文の翻訳知識獲得のアプローチにおける言語横断関連報道記事検索の流れを図~\ref{fig:clir}に示す.言語横断関連報道記事検索においては,まず,新聞社やテレビ局のサイトから英語記事$d_E$と日本語記事$d_J$を取得する.次に,内容的にほぼ同一の日英記事対は,お互いの日付が前後数日程度の範囲にあるという調査結果~\cite{Horiuchi02aj,Horiuchi02bj}に基づいて,日付の情報を用いて検索対象の記事を絞りこむ(実際に,評価実験において用いた日英記事間の日付の幅の詳細については,\ref{subsec:expr_sb}~節で述べる.).そして,取得した英語記事$d_E$と日本語記事$d_J$の間の類似性を測るために,翻訳ソフト・対訳辞書・数値表現翻訳規則などの情報源を利用して英語記事$d_E$を日本語訳に変換する.ここで,言語横断関連報道記事検索の性能において,翻訳ソフト(オムロン社製「翻訳魂」),対訳辞書(英辞郎Ver.37,85万語),および,数値表現翻訳規則(規則数約300)の三種類の情報源の性能を比較した結果においては,翻訳ソフトが最も高い検索性能を達成した~\cite{Hamamoto03aj}.そこで,本論文の評価実験においても,翻訳ソフトを用いて英語記事の日本語訳を行った後,関連記事検索を行った結果を用いる\footnote{\cite{Hino04aj}においては,訳語対応推定の性能において,翻訳ソフトを用いて日英関連報道記事を検索した結果,および,対訳辞書を用いて日英関連報道記事を検索した結果を比較しているが,ここでも,翻訳ソフトを用いた方が高い性能となっている.}.次に,英語記事$d_E$の日本語訳から日本語訳頻度ベクトル$v_{trJ}(d_E)$を,また,日本語記事$d_J$から日本語頻度ベクトル$v(d_J)$を,それぞれ作成する.ここでは,日本語形態素解析システム「茶筌」\footnote{{\tthttp://chasen.naist.jp/hiki/ChaSen/}}を用いてテキストを形態素列に分割し,平仮名語の高頻度機能的表現26語を不要語として削除した.また,頻度ベクトルにおいては,接頭詞,名詞,動詞によって構成され,形態素長が5以内の形態素列を次元とした\footnote{各記事の頻度ベクトルの次元としては,\ref{subsec:estm-cv}~節で述べる文単位の文脈頻度ベクトルの次元と同じものを用いている.予備調査の結果,文脈頻度ベクトルを用いた訳語対応推定においては,一形態素のみを次元とした文脈頻度ベクトルでは不十分であるが,5形態素長以内の形態素列を次元としておけば,周囲の文脈として必要な表現がほぼ含まれることが分かっている.これは,5形態素を越える長さの形態素列を用いないと,周囲の文脈の特性を表現しきれない,ということが極めて稀であるからである.一方,関連記事検索の性能を評価した予備調査の結果においては,名詞および動詞の一形態素のみを次元とした場合と,5形態素長以内の形態素列を次元とした場合との間の性能差はわずかであった.以上をふまえて,本論文では,頻度ベクトルの次元としては,形態素長が5以内の形態素列を用いる.}.最後に,頻度ベクトル間で余弦類似度を計算し,余弦類似度が下限値以上の記事を関連記事検索結果とする.ここで,この検索結果から,日英関連記事組を作成する場合には,英語記事を検索質問として関連日本語記事を収集する場合と,逆に,日本語記事を検索質問として関連英語記事を収集する場合の二通りが考えられる.詳細については\ref{subsec:expr_sb}~節で述べるが,本論文の評価実験において対象とした新聞社・テレビ局のサイトは日本国内のもので,掲載される報道記事数は,日本語記事数が英語記事数の4$\sim$6倍となっている.したがって,検索質問として日本語記事を用いる場合よりも,検索質問として英語記事を用いた場合の方が,関連記事組が収集できる割合が大きい.実際に,検索質問として英語記事を用いた場合には,検索質問の約半数に対して関連記事組が収集できることが分かっている~\cite{Horiuchi02aj,Horiuchi02bj}.これらの調査結果をふまえて,本論文では,英語記事を検索質問として関連日本語記事を収集することにより,日英関連記事組を作成する.ここで,検索質問となる英語記事$d_E$の日本語訳頻度ベクトル$v_{trJ}(d_E)$との間で余弦類似度の値が下限値$L_d$以上となる日本語記事の集合を$D_J$とする.{\begin{eqnarray*}D_J&=&\Bigl\{d_J\mid\cos(v_{trJ}(d_E),v(d_J))\geqL_d\Bigr\}\end{eqnarray*}}そして,$D_J$中の記事を結合することにより一つの日本語記事$D'_J$を構成し,このような英日関連記事組$\langled_E,D'_J\rangle$を集めた集合を$RC_{EJ}$とする(ここで,$D_J$中の記事を結合して一つの日本語記事$D'_J$を構成するのは,\ref{subsec:estm-cont}~節において,関連記事組の集合$RC_{EJ}$を疑似的な対訳コーパスとみなして訳語対応の推定を行なうためである.).{\begin{eqnarray}\label{eqn:RCej}RC_{EJ}&=&\Bigl\{\langled_E,D'_J\rangle\midD_J\neq\emptyset\Bigr\}\end{eqnarray}}\begin{table}\begin{center}\caption{$2\times2$分割表}\label{tab:2t2}{\begin{center}\begin{tabular}{c|cccc}\hline&$t_J$&&&$\negt_J$\\\hline$t_E$&$df(t_E,t_J)=a$&&&$df(t_E,\negt_J)=b$\\$\negt_E$&$df(\negt_E,t_J)=c$&&&$df(\negt_E,\negt_J)=d$\\\hline\end{tabular}\end{center}}\end{center}\end{table}
\section{日英関連報道記事における訳語対応の推定}
\label{sec:msr}\vspace*{-.0cm}本論文では,関連記事組の集合$RC_{EJ}$から訳語対応を推定する方法として,関連記事組の集合を疑似的な対訳コーパスとみなして,対訳コーパスにおける共起頻度を用いた訳語対応推定尺度を適用する方法,および,関連記事組の集合をコンパラブルコーパスとみなして,コンパラブルコーパスからの訳語対応推定手法を適用する方法の二種類を比較する.本節では,関連記事組の集合を疑似的な対訳コーパスとみなす場合の方法を\ref{subsec:estm-cont}~節で,関連記事組の集合をコンパラブルコーパスとみなす場合の方法を\ref{subsec:estm-cv}~節で,それぞれ説明する.以下,訳語対応推定の対象となる英語ターム(連語または単語)を$t_E$,日本語ターム(連語または単語)を$t_J$として,$t_E$と$t_J$の間の訳語対応推定値を$corr_{EJ}(t_E,t_J)$とする.\subsection{関連記事組における訳語候補の共起および分割表を用いた推定}\label{subsec:estm-cont}関連記事組の集合$RC_{EJ}$を疑似的な対訳コーパスとみなして訳語対応の推定を行う場合は,対訳コーパスからの訳語対応推定の場合と同様に,一般に共起推定でよく用いられる相互情報量,$\phi^2$統計,dice係数,対数尤度比などの尺度\cite{Matsumoto00a}が適用可能である.これらの尺度を比較したところ,訳語対応推定の性能としては,$\phi^2$統計,dice係数,対数尤度比がほぼ同程度の性能となり,相互情報量はやや劣るという結果が得られた.そこで,本論文では,$t_E$と$t_J$の統計的相関を測定する尺度としては,$\phi^2$統計を用いることとし,これを訳語対応推定値$corr_{EJ}(t_E,t_J)$とする.具体的には,$RC_{EJ}$中の関連記事組$\langled_E,D'_J\rangle$において$t_E$と$t_J$が共起する記事組数$df(t_E,t_J)(=aとする)$,$t_E$のみが含まれ$t_J$が含まれない記事組数$df(t_E,\negt_J)(=bとする)$,$t_J$のみが含まれ$t_E$が含まれない記事組数$df(\negt_E,t_J)(=cとする)$,$t_E$も$t_J$も含まれない記事組数$df(\negt_E,\negt_J)(=dとする)$を用いて表1の$2\times2$分割表を構成する.この$2\times2$分割表を用いると,$t_E$と$t_J$の$\phi^2$統計は以下で与えられる.{\begin{eqnarray*}\phi^2(t_E,t_J)&=&\frac{(ad-bc)^2}{(a+b)(a+c)(b+d)(c+d)}\end{eqnarray*}}\subsection{文脈の類似性を用いた推定}\label{subsec:estm-cv}関連記事組の集合$RC_{EJ}$をコンパラブルコーパスとみなして訳語対応の推定を行う場合は,$t_E$および$t_J$についての文単位の文脈頻度ベクトルを求め,これらの文脈頻度ベクトル間の類似性を用いて$t_E$と$t_J$の訳語対応を推定する.具体的には,前節で述べたように,英語記事$d_E$に対する日本語訳頻度ベクトルを$v_{trJ}(d_E)$として,$d_E$において$t_E$が出現する文の日本語訳の頻度ベクトルを$v_{trJ}(d_E)$から求め,これを加算して,$t_E$に対する文単位の文脈頻度ベクトル$cv_{trJ}(t_E)$を構成する.同様に,日本語記事$d_J$を集めた記事集合において$t_J$が出現する文について,それらの頻度ベクトルを加算することにより,$t_J$に対する文単位の文脈頻度ベクトル$cv(t_J)$を構成する.そして,この文脈頻度ベクトル間の余弦$\cos(cv_{trJ}(t_E),cv(t_J))$を$corr_{EJ}(t_E,t_J)$とする.
\section{実験および評価}
\label{sec:eval}\subsection{言語横断関連報道記事検索}\label{subsec:expr_sb}国内の新聞社等三社のウェブサイトから,表~\ref{tab:01}に示す日数・記事数・記事長の英語および日本語の報道記事を収集した.また,表~\ref{tab:01}には,言語横断関連報道記事検索の性能の評価のために用いる評価用日英記事対数も示す.ここで,本論文では,報道内容がほぼ同一の日英記事対のことを「同一内容」の記事対とよび,報道内容は同一ではないが,記事として密接に関連している日英記事対(例えば,事件発生に関する報道記事に対して,犯人逮捕に関する続報記事など)のことを「関連話題」の記事対とよぶ.次に,\ref{sec:clir}~節で述べたように,英語の記事に対してほぼ同一の内容の日本語記事が存在する日付の幅を設定し,その日付の幅の範囲で言語横断関連報道記事検索を行った.評価用日英記事対のうちの英語記事を検索質問として,日本語記事を検索した場合の適合率・再現率の変化をプロットしたものを図~\ref{fig:recSim}に示す.ここで,評価用(同一内容または関連話題)記事対の集合を$DP_{ref}$,記事間類似度の下限値を$L_d$とすると,この場合の適合率・再現率の定義は,{\begin{eqnarray*}適合率&=&\frac{|\{\langled_E,d_J\rangle\mid\langled_E,d_J\rangle\inDP_{ref},\cos(d_E,d_J)\geqL_d\}|}{|\{d_E\mid\existsd'_J,\langled_E,d'_J\rangle\inDP_{ref},\existsd_J\cos(d_E,d_J)\geqL_d\}|}\\&&\\再現率&=&\frac{|\{\langled_E,d_J\rangle\mid\langled_E,d_J\rangle\inDP_{ref},\cos(d_E,d_J)\geqL_d\}|}{|\{\langled_E,d_J\rangle\mid\langled_E,d_J\rangle\inDP_{ref}\}|}\end{eqnarray*}}となる.また,表~\ref{tab:acq_art}には,記事間類似度下限$L_d$を変化させた場合に検索される記事数の一覧を示す.表~\ref{tab:acq_art}においては,各サイトについて用いた日付の幅もともに示す.ここで,「日本語記事数(重複あり)」の欄には,二つ以上の英語記事に対して重複して検索された日本語記事を重複して数えた記事数を示す.この結果から,類似度下限$L_d$が0.4や0.5の場合は,利用可能な記事数が著しく減少することが分かる.また,図~\ref{fig:recSim}においても,類似度下限$L_d$が0.4や0.5の場合は,再現率が大きく低下している.ここで,予備実験において,訳語対応推定が安定して行えるためには,一定規模以上の記事が必要であるという結果が得られていたため,以降の訳語対応推定は,類似度下限$L_d=0.3$の条件のもとで行う.\begin{table}\begin{center}\caption{記事の日数・記事数・平均記事長}\label{tab:01}\newcommand{\lw}[1]{}{\begin{tabular}{|c|c||c|c|c|c|c|c|}\hline&&&&一日の平&一記事の平均&\multicolumn{2}{|c|}{評価用記事対数}\\\cline{7-8}新聞社&&総日数&総記事数&均記事数&記事長(byte)&同一内容&関連話題\\\hline\hline&英語&935&23064&24.7&3228.9&\lw{28}&\lw{31}\\\cline{2-6}サイトA&日本語&941&96688&102.8&837.7&&\\\hline&英語&935&14587&15.6&3302.6&\lw{28}&\lw{82}\\\cline{2-6}サイトB&日本語&941&81652&86.8&867.9&&\\\hline&英語&935&1553&1.6&1368.6&\lw{24}&\lw{33}\\\cline{2-6}サイトC&日本語&941&9660&10.2&774.3&&\\\hline\end{tabular}}\vspace*{.5cm}\caption{記事間類似度の下限を満たす日英報道記事の数}\label{tab:acq_art}{\begin{tabular}{|c|c||r|r|r|}\hline&\multicolumn{1}{|c||}{類似度下限$L_d$}&\multicolumn{1}{|c|}{0.3}&\multicolumn{1}{|c|}{0.4}&\multicolumn{1}{|c|}{0.5}\\\hline\hline&\multicolumn{1}{|c||}{日付幅(日)}&\multicolumn{3}{|c|}{$\pm$2}\\\cline{2-5}サイトA&英語記事数&6073&2392&701\\\cline{2-5}&日本語記事数&12367&3444&882\\\cline{2-2}\cline{3-5}&日本語記事数(重複あり)&16507&3840&918\\\hline\hline&\multicolumn{1}{|c||}{日付幅(日)}&\multicolumn{3}{|c|}{$\pm$2}\\\cline{2-5}サイトB&英語記事数&4316&1658&396\\\cline{2-5}&日本語記事数&8108&2349&499\\\cline{2-2}\cline{3-5}&日本語記事数(重複あり)&11451&2694&523\\\hline\hline&\multicolumn{1}{|c||}{日付幅(日)}&\multicolumn{3}{|c|}{$\pm$4}\\\cline{2-5}サイトC&英語記事数&765&413&159\\\cline{2-5}&日本語記事数&1918&673&192\\\cline{2-2}\cline{3-5}&日本語記事数(重複あり)&2406&766&203\\\hline\end{tabular}}\end{center}\end{table}\begin{figure*}\begin{center}\begin{tabular}{c}サイトA\\\epsfile{file=FIG/yom-pre+rec.eps,scale=0.3}\\サイトB\\\epsfile{file=FIG/asa-pre+rec.eps,scale=0.3}\\サイトC\\\epsfile{file=FIG/tbs-pre+rec.eps,scale=0.3}\end{tabular}\caption{日英関連記事検索の適合率・再現率(記事間類似度$\geq\L_d$)}\label{fig:recSim}\end{center}\end{figure*}\subsection{英語・日本語訳語組候補の条件}本論文では,実装の都合上,英語・日本語間で訳語組候補となるタームに対して,タームを構成する単語もしくは形態素の数に上限を設け,さらに,タームを構成する単語もしくは形態素の品詞にも制限を設ける.まず,タームを構成する単語もしくは形態素の数については,上限を5とする.この条件により,次節で選定される評価用英語ターム(およびその正解日本語訳語)については,構成単語数あるいは構成形態素数が5を越えるものは除外される.また,英語タームとしては名詞句を対象とすることとし,Charniakparser\footnote{\tthttp://www.cs.brown.edu/people/ec/}を用いて各英語単語の品詞付けを行い,英語単語列として以下の表現を満たすものだけを対象とする(ただし,$*$は0回以上の繰り返し,$+$は1回以上の繰り返しを表す.).\begin{itemize}\item$W_1=[形容詞|名詞|現在分詞|\hspace*{0cm}過去分詞|動名詞]*名詞$\item$W_2=([形容詞|名詞|現在分詞|過去分詞|\hspace*{0cm}動名詞]+,)\ast\\\hspace*{2cm}[形容詞|名詞|現在分詞|過去分詞|\hspace*{0cm}動名詞]+\hspace{1mm}and\hspace{2mm}\\\hspace*{2cm}[形容詞|名詞|現在分詞|過去分詞|\hspace*{0cm}動名詞]\ast名詞$\end{itemize}日本語タームについても,名詞句相当のものを対象とする.具体的には,接頭詞,名詞,動詞によって構成される形態素列を対象とする(構成要素に動詞を含めたのは,連用形の名詞用法に対応するためである.ただし,現時点では,活用形の照合は行なっていないため,日本語タームの候補として適切でないものも混入している.).さらに,\ref{sec:clir}~節の(\ref{eqn:RCej})式において,英日関連記事組を集めて構成した集合$RC_{EJ}$中の関連記事組$\langled_E,D'_J\rangle$において,英語ターム$t_E$と日本語ターム$t_J$が共起する記事組数$df(t_E,t_J)$に下限を設け,これを2以上とする.\subsection{評価用英語タームの選定}\label{subsec:perform}本論文の訳語対応推定の評価実験の範囲では,訳語対応推定の対象とする英語タームを自動抽出することは行わず,訳語対応推定の評価用英語タームを人手で選定しておき\footnote{既存のターム抽出技術を用いることにより,一定レベルの性能で英語タームを抽出することは可能である.本論文の訳語対応推定の枠組において,英語ターム自動抽出の技術を併用すれば,訳語組を全自動で獲得する一連の流れの性能を評価することができると考えられる.},これらに対して日本語訳語候補を自動抽出し,日本語訳語候補の順位付け性能の評価を行った.特に,本論文では,既存の翻訳ソフト(オムロン社製「翻訳魂」)によって翻訳することができず,対訳辞書(英辞郎Ver.37,85万語)にも存在しない英語タームを評価用英語タームとして選定した.ここで,英語ターム出現頻度の計算を効率よく行うために,PrefixSpan~\cite{Pei01a}\footnote{{\tthttp://chasen.org/\~{}taku/software/prefixspan/}}を用いて頻度5以上の単語列の頻度を測定した.そして,頻度5以上10未満,10以上20未満,20以上,の三種類の出現頻度分布(ただし,サイトCは,他のサイトに比較して記事数が少ないため,頻度5以上10未満,および,10以上,の二種類の分布とした.)で単語列集合を分割し,それぞれの集合に対して,以下の手順によって評価用英語タームを選定した.\begin{table*}\begin{center}\caption{評価用英語ターム数の分布}\label{tb:03}{\footnotesize\begin{tabular}{|c|c||c|c|c|}\multicolumn{5}{c}{(a)\\全体}\\\hlineサイト&頻度&5$\sim$10&10$\sim$20&20以上\\\hline\hline&MT&117&158&531\\\cline{2-5}&辞書&1391&1718&2507\\\cline{2-5}A&その他&4423&3483&2786\\\cline{2-5}&総数&5931&5359&5824\\\hline\hline&MT&104&214&791\\\cline{2-5}&辞書&1098&1367&1968\\\cline{2-5}B&その他&3105&2364&1868\\\cline{2-5}&総数&4292&3835&4167\\\hline\hline&MT&103&\multicolumn{2}{|c|}{164}\\\cline{2-5}&辞書&226&\multicolumn{2}{|c|}{205}\\\cline{2-5}C&その他&313&\multicolumn{2}{|c|}{152}\\\cline{2-5}&総数&585&\multicolumn{2}{|c|}{424}\\\hline\end{tabular}\vspace*{.3cm}\begin{tabular}{|c|c||c|c|c||c|c|c||c|c|c|c|c|}\multicolumn{11}{c}{(b)\\$\phi^2統計値$ごとの分布}\\\hline&&\multicolumn{3}{|c||}{$\phi^2統計値$1$\sim$0.15}&\multicolumn{3}{|c||}{$\phi^2統計値$0.15$\sim$0.07}&\multicolumn{3}{|c|}{$\phi^2統計値$上位100}\\\cline{2-11}サイト&頻度&5$\sim$10&10$\sim$20&20以上&5$\sim$10&10$\sim$20&20以上&5$\sim$10&10$\sim$20&20以上\\\hline\hline&MT&58&82&289&32&37&147&38&110&103\\\cline{2-11}&辞書&285&407&727&229&304&570&73&166&157\\\cline{2-11}A&評価用&148&116&131&51&48&56&100&100&100\\\cline{2-11}&除外&866&671&687&800&684&618&199&75&66\\\cline{2-11}&総数&1357&1276&1834&1112&1073&1391&397&381&360\\\hline\hline&MT&87&124&377&28&57&226&87&128&95\\\cline{2-11}&辞書&216&321&590&203&236&452&216&333&218\\\cline{2-11}B&評価用&104&71&102&25&45&26&100&100&100\\\cline{2-11}&除外&669&476&462&570&432&418&673&487&306\\\cline{2-11}&総数&1048&922&1298&808&740&995&1048&977&668\\\hline&MT&75&\multicolumn{2}{|c||}{114}&22&\multicolumn{2}{|c||}{43}&103&\multicolumn{2}{|c|}{164}\\\cline{2-11}&辞書&147&\multicolumn{2}{|c||}{125}&46&\multicolumn{2}{|c||}{60}&226&\multicolumn{2}{|c|}{205}\\\cline{2-11}C&評価用&43&\multicolumn{2}{|c||}{35}&10&\multicolumn{2}{|c||}{4}&57&\multicolumn{2}{|c|}{40}\\\cline{2-11}&除外&158&\multicolumn{2}{|c||}{68}&54&\multicolumn{2}{|c||}{33}&256&\multicolumn{2}{|c|}{112}\\\cline{2-11}&総数&379&\multicolumn{2}{|c||}{275}&123&\multicolumn{2}{|c||}{115}&585&\multicolumn{2}{|c|}{424}\\\hline\end{tabular}}\end{center}\end{table*}\begin{enumerate}\item英語タームグループの作成\item$\phi^2$統計値を用いた英語タームグループの整列\item評価用英語タームの選定\end{enumerate}以下,これらの手順の詳細について順に述べる.\subsubsection{英語タームグループの作成}前節で述べた通り,本論文では,英語タームとしては名詞句を対象とする.そこで,まず,前節の制限を満たす英語単語列を抽出する.次に,単語列の上で包含関係にある単語列同士をグルーピングし,英語タームグループを作成した.このとき,多くの場合,一つの英語タームグループ中において,適切な英語タームとして認定すべき単語列は高々一つ程度であるので,実質的なターム数はタームグループ数とほぼ等しい.このことをふまえて,頻度5以上10未満,10以上20未満,20以上,の三種類の出現頻度分布ごとの英語タームの内訳を表~\ref{tb:03}(a)に示す(ただし,サイトCについては,頻度5以上10未満,および,10以上,の二種類の出現頻度分布とする).英語タームの内訳は,翻訳ソフトで翻訳に成功した英語ターム数(「MT」の欄),対訳辞書に存在する英語ターム数(「辞書」の欄),および,翻訳ソフトによって翻訳することができず,対訳辞書にも存在しない英語ターム数(「その他」の欄)によって示す.ただし,翻訳ソフトで翻訳できる英語タームおよび対訳辞書に存在する英語タームの間には重複があり得る.\subsubsection{$\phi^2$統計値を用いた英語タームグループの整列}次に,ある英語タームグループについて,その要素となる英語ターム$t_E$が任意の日本語訳語候補に対して持つ$\phi^2$統計値$\phi^2(t_E,t_J)$の最大値を,そのグループの持つ$\phi^2$統計値とみなして,英語タームグループを$\phi^2$統計値の降順に整列した.なお,詳細は\ref{subsec:estm-eval}~節で述べるが,予備実験\cite{Hino04aj}において,\ref{subsec:estm-cont}~節の$\phi^2$統計を用いる方法と,\ref{subsec:estm-cv}~節の文脈ベクトルを用いる方法を比較した結果では,$\phi^2$統計を用いた方法の方が高い性能であった.そこで,本論文では,$\phi^2$統計値の降順に整列した英語タームグループを用いて評価用英語タームを選定することとした.\subsubsection{評価用英語タームの選定}この整列済み英語タームグループのうち,「その他」に分類される英語タームグループを人手で選別し,以下の個数の評価用英語タームを選定して,合計三種類の評価用英語タームセットを作成した.\begin{enumerate}\item[(i)]$\phi^2$統計値の決められた範囲($1\sim0.15$および\hspace*{0cm}$0.15\sim0.07$)から,無作為に評価用英語ターム\hspace*{0cm}を100個ずつ選定した.ただし,100個に満たない場合は可能な限り選定する.\item[(ii)]上位の英語タームグループに含まれる英語タームから順に評価用英語タームを100個選定した.\end{enumerate}ただし,選別の際には,各新聞記事を参照しながら,冗長部分を持つもの,別の単語列の断片であるもの,一般的で訳語が一意に定まらないようなもの,および,人名と地名を除外した.その上で,日本語関連記事から収集した日本語訳語候補に正解訳語が含まれている,いないに関わらず,英語タームが妥当であると判断したものを選定した\footnote{この条件により,本論文の訳語対応推定の評価は,各サイトから収集した日英関連記事組において,正解の日本語訳語がどの程度の割合で含まれているかを考慮した評価となっていると言える.実際に,正解の日本語訳語が含まれる度合はサイトによって異なっており,その詳細については,次節で考察する.}\footnote{厳密には,正解である日本語訳語が前節の日本語タームの条件(接頭詞,名詞,動詞によって構成され,形態素長が5以内の形態素列)を満たさない場合には,訳語候補の日本語タームとすることができない.このような場合には,正解日本語訳語との間の訳語対応推定が不可能であるため,評価用英語タームとしては選定しなかった.}.この手順から分かるように,「その他」に分類される英語タームは,人手による選定の際に,訳語対応推定対象としては適切でないと判断して除外したもの,訳語対応推定対象として適切であり,評価用英語タームとして選定されたもの,および,人手による選別を受けないまま残されたものの三種類のタームから構成される.この結果,サイトA,および,サイトBについては,頻度5以上10未満,10以上20未満,20以上の三通りの頻度分布ごとにこれらの評価用英語タームセットを作成したため,合計で9個のタームセットとなった.また,サイトCについては,頻度5以上10未満,10以上の二通りの頻度分布ごとにこれらの評価用英語タームセットを作成したため,合計で6個のタームセットとなった.これらのタームセットにおける英語ターム数の内訳を表~\ref{tb:03}(b)に示す\footnote{実際は,英語タームグループ数だが,上述の通り,英語ターム数と英語タームグループ数はほぼ等しい.}.英語ターム数の内訳は,各タームセットについて,翻訳ソフトで翻訳に成功した英語ターム数(「MT」の欄),対訳辞書に存在する英語ターム数(「辞書」の欄),人手で選定した英語ターム数(「評価用」の欄---ただし,100個を超える場合には,実際の評価実験において使用したのは100個のみ),および,上記の理由により除外した英語ターム数(「除外」の欄)によって示す~\footnote{具体的には,「$\phi^2統計値1\sim0.15$」および「$\phi^2統計値0.15\sim0.07$」の「評価用」の欄には,英語タームの$\phi^2統計値$について,それぞれの範囲内で無作為に評価用英語タームを選定した場合のターム数を示し,「$\phi^2$統計値上位100」の「評価用」の欄には,$\phi^2統計値$の降順に,評価用英語タームを100個選定した場合のターム数を示す.}.ただし,翻訳ソフトで翻訳できる英語タームおよび対訳辞書に存在する英語タームの間には重複があり得る.実際に選定した評価用ターム組の例を表~\ref{tab:ex}に示す.表~\ref{tb:03}(b)において,例えば,サイトAに対して$\phi^2$統計値が1$\sim$0.15,頻度分布が5以上10未満の英語タームに注目すると,総数は1,357個,対訳辞書のエントリに含まれたものが285個,翻訳ソフトで訳せたものが58個,対訳辞書のエントリに含まれず翻訳ソフトでも訳せず,訳語対応の獲得対象として判定したターム数は148個,対訳辞書のエントリに含まれず翻訳ソフトでも訳せないが,訳語対応の獲得対象とは判定されなかったターム数が866個となっている.表~\ref{tb:03}から分かるように,本論文における評価用英語タームの選定においては,「除外」と判定されるタームの割合が大きくなっている.{\begin{table}\begin{center}\caption{評価用日英ターム組の例}\label{tab:ex}\begin{tabular}{|c|c|}\hline英語ターム&日本語ターム\\\hline\hlineHighPublicProsecutorsOffice&高検\\\hlineEnvironmentMinistry&環境省\\\hlineJapaneseConsulateGeneral&日本総領事館\\\hlinediesel-poweredvehicles&ディーゼル車\\\hlineJapanCoastGuard&海上保安庁\\\hlinefertilizedeggs&受精卵\\\hlineTokyoDistrictPublicProsecutorsOffice&東京地検\\\hlineAumSupremeTruth&オウム真理教\\\hlineintellectualpropertyrights&知的財産権\\\hlinespecialstructuralreformzones&構造改革特区\\\hline\end{tabular}\end{center}\end{table}}\begin{figure}\begin{minipage}{1\hsize}\begin{center}(1)評価用英語タームのうち$\phi^2$統計値の上位100ターム\\[-.3cm]\epsfile{file=FIG/set1_context_phi2.ai,scale=1.0}\\(2)$\phi^2$統計値の上位1000タームグループから無作為に評価用英語タームを100ターム選定\\[-.3cm]\epsfile{file=FIG/set2_context_phi2.ai,scale=1.0}\end{center}\caption{訳語対応推定手法の比較(サイトA,頻度10以上の評価用英語ターム)}\label{fig:graph-cv-phi}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{1\hsize}\begin{center}\epsfile{file=FIG/yom_top100.ai,hscale=1.35,vscale=1.4}\epsfile{file=FIG/yom_1-015.ai,hscale=1.35,vscale=1.4}\epsfile{file=FIG/yom_015-007.ai,hscale=1.35,vscale=1.4}\end{center}\caption{英語タームの頻度分布及び$\phi^2統計値の分布$ごとの訳語対応推定性能(サイトA)}\label{fig:graph-A}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{1\hsize}\begin{center}\epsfile{file=FIG/asahi_top100.ai,hscale=1.35,vscale=1.4}\epsfile{file=FIG/asahi_1-015.ai,hscale=1.35,vscale=1.4}\epsfile{file=FIG/asahi_015-007.ai,hscale=1.35,vscale=1.4}\end{center}\caption{英語タームの頻度分布及び$\phi^2統計値の分布$ごとの訳語対応推定性能(サイトB)}\label{fig:graph-B}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{1\hsize}\begin{center}\epsfile{file=FIG/tbs_top100.ai,hscale=1.35,vscale=1.4}\epsfile{file=FIG/tbs_1-015.ai,hscale=1.35,vscale=1.4}\epsfile{file=FIG/tbs_015-007.ai,hscale=1.35,vscale=1.4}\end{center}\caption{英語タームの頻度分布及び$\phi^2統計値の分布$ごとの訳語対応推定性能(サイトC)}\label{fig:graph-C}\end{minipage}\end{figure}\subsection{訳語対応推定の性能}\label{subsec:estm-eval}\begin{table}\begin{center}\caption{訳語対応推定例({\bf太字:正解訳語})}\label{tab:est}\hspace*{.001cm}{\begin{tabular}{|c||c|c|c|}\hline英語ターム&順位&日本語訳語候補&訳語対応推定値\\\hline\hline&1&大阪高検&0.640\\\cline{2-4}&2&公安部長&0.450\\\cline{2-4}HighPublicProsecutorsOffice&2&三井環&0.450\\\cline{2-4}&4&登録免許税&0.360\\\cline{2-4}&{\bf5}&{\bf高検}&{\bf0.290}\\\hline\hline&{\bf1}&{\bf環境省}&{\bf0.542}\\\cline{2-4}EnvironmentMinistry&2&国定公園&0.099\\\cline{2-4}&3&鳥獣保護&0.079\\\hline\hline&1&連行事件&0.521\\\cline{2-4}&2&中国・瀋陽&0.507\\\cline{2-4}JapaneseConsulateGeneral&3&亡命者連行事件&0.497\\\cline{2-4}&4&亡命者&0.482\\\cline{2-4}&5&瀋陽&0.393\\\cline{2-4}&{\bf6}&{\bf日本総領事館}&{\bf0.389}\\\hline\hline&1&浄化装置&0.520\\\cline{2-4}diesel-poweredvehicles&2&粒子状物質&0.408\\\cline{2-4}&{\bf3}&{\bfディーゼル車}&{\bf0.382}\\\hline\hline&{\bf1}&{\bf海上保安庁}&{\bf0.503}\\\cline{2-4}JapanCoastGuard&2&巡視&0.394\\\cline{2-4}&3&海保&0.382\\\hline\hline&1&ES細胞&0.500\\\cline{2-4}fertilizedeggs&{\bf2}&{\bf受精卵}&{\bf0.333}\\\cline{2-4}&2&不妊治療&0.333\\\hline\hline&{\bf1}&{\bf東京地検}&0.443\\\cline{2-4}TokyoDistrictPublicProsecutorsOffice&2&東京地検特捜部&0.378\\\cline{2-4}&3&地検特捜部&0.343\\\hline\hline&{\bf1}&{\bfオウム真理教}&{\bf0.467}\\\cline{2-4}AumSupremeTruth&2&松本被告&0.432\\\cline{2-4}&3&こと松本智津夫&0.410\\\hline\hline&1&知的財産&0.095\\\cline{2-4}intellectualpropertyrights&{\bf2}&{\bf知的財産権}&{\bf0.080}\\\cline{2-4}&3&財産権&0.073\\\hline\hline&1&構造改革特区推進&0.457\\\cline{2-4}specialstructuralreformzones&{\bf2}&{\bf構造改革特区}&{\bf0.349}\\\cline{2-4}&3&構造改革特区推進本部&0.321\\\hline\end{tabular}}\end{center}\end{table}\begin{table}\begin{center}\caption{訳語候補順位付けの誤り原因の分析}\label{tab:wrong}{\begin{tabular}{|c|c|c|c|c|c|}\hline&&&\multicolumn{3}{|c|}{誤り原因の内訳(\%)}\\\cline{4-6}サイト&頻度&誤り数&\hspace*{.25cm}(1)\hspace*{.25cm}&\hspace*{.25cm}(2)\hspace*{.25cm}&\hspace*{.25cm}(3)\hspace*{.25cm}\\\hline\hline&5$\sim$10&81&30&27&43\\\cline{2-6}A&10$\sim$20&78&37&47&16\\\cline{2-6}&20以上&57&44&56&0\\\hline&5$\sim$10&84&33&44&23\\\cline{2-6}B&10$\sim$20&78&23&59&18\\\cline{2-6}&20以上&75&24&61&15\\\hline\end{tabular}}\end{center}\end{table}本節では,前節で選定した各サイトの評価用英語タームについて,訳語対応推定値の上位$n$位以内に正解訳語(本論文の実験では,各英語タームにつき一つだけ)が含まれる英語タームの割合をプロットすることにより,訳語対応推定の性能を評価する.まず,サイトAについて,頻度10以上の評価用英語タームを用いて以下の二種類のタームセットを作成し,\ref{subsec:estm-cont}~節の$\phi^2$統計を用いる方法と,\ref{subsec:estm-cv}~節の文脈ベクトルを用いる方法を比較した.\begin{enumerate}\item[i)]評価用英語タームのうち$\phi^2$統計値の上位100タームを集めたタームセット,\item[ii)]$\phi^2$統計値の上位1000タームグループから無作為に評価用英語タームを100ターム選定して作成したタームセット.\end{enumerate}セットi)の選定方法では$\phi^2$統計を用いる方法に有利になる可能性があるため,別途,セットii)を用いた評価も行なった.この結果を図~\ref{fig:graph-cv-phi}に示す.この結果から分かるように,いずれのセットにおいても,$\phi^2$統計を用いる方法の方が高い性能を示すことが分かる.次に,サイトA,B,および,Cの各サイトについて,表~\ref{tb:03}(b)の各タームセットに対する訳語対応推定性能を評価した結果を図~\ref{fig:graph-A}$\sim$図~\ref{fig:graph-C}に示す.ただし,「$\phi^2$統計値上位100」,「$\phi^2統計値1\sim0.15$」,「$\phi^2統計値0.15\sim0.07$」の各々の英語タームセットごとにプロットをまとめた.また,表~\ref{tab:ex}の評価用英語タームに対する訳語対応推定結果の抜粋を表~\ref{tab:est}に示す.表内の太字部分が正解日本語訳語である.全体としては,英語タームの頻度が大きい方が,訳語対応推定の性能が高い.ただし,「$\phi^2統計値0.15\sim0.07$」では,英語タームの頻度分布の違いの影響はかなり小さくなっている.つまり,訳語対応推定値($\phi^2統計値$)が十分大きくなければ,訳語対応推定の性能は,英語タームの頻度によらず,ほぼ同等となると言える.次に,訳語対応推定性能をサイト間で比較すると,特に,サイトCは,サイトAおよびサイトBと比較して,低頻度ターム(頻度5以上10未満)に対する訳語対応推定性能が低くなっている.サイトCの場合,サイトAおよびサイトBと比較して,報道記事の数が約10分の1と少ないために,英語記事に対応する関連日本語記事を十分収集することができず,結果的に正解訳語との共起頻度が小さくなってしまっていると考えられる.また,サイトAとサイトBを比べると,$\phi^2$統計値の上位において,頻度20以上のタームに対する訳語対応推定性能の差が顕著である.この原因を分析するために,次に,訳語対応推定値の一位が正解訳語とならない場合の誤りの内訳を調査した.誤りの原因は主に次の三種類に分類される.\begin{enumerate}\item[(1)]単語列として,正解訳語との間で包含関係にあるタームが同等もしくはそれ以上の訳語対応推定値を持つ.\item[(2)]報道記事中における関連タームが同等もしくはそれ以上の訳語対応推定値を持つ.\item[(3)]正解訳語との共起頻度が小さい.\end{enumerate}(1)の例としては,表~\ref{tab:est}の``HighPublicProsecutorsOffice''の「大阪高検」と{\bf「高検」},``intellectualpropertyrights''の「知的財産」と{\bf「知的財産権」},``specialstructuralreformzones''の「構造改革特区推進」と{\bf「構造改革特区」}などがある.(2)の例としては,``JapaneseConsulateGeneral''の「連行事件」と{\bf「日本総領事館」},``diesel-poweredvehicles''の「浄化装置」と{\bf「ディーゼル車」},``fertilizedeggs''の「ES細胞」と{\bf「受精卵」}などがある.また(3)は,関連記事対検索が失敗した場合や,もともと日本語関連記事において正解訳語が出現しない場合に起こる.さらに,サイトAおよびサイトBにおいて,「$\phi^2$統計値上位100」のタームセットにおける頻度分布ごとに誤り原因の内訳を求めた結果を表~\ref{tab:wrong}に示す.両サイト間の最も顕著な違いとしては,頻度20以上のタームセットにおいて,「正解訳語との共起頻度が小さい」が占める割合の違いが挙げられる.サイトAではこの割合が0\%となるのに対して,サイトBではこの割合が15\%と大きい.これは,サイトAとサイトBでは,特に,日本語記事の文体等の特性が異なっており,サイトBでは日本語関連記事において正解訳語が出現しないということが一定の割合で起こるためであると考えられる.
\section{関連研究}
\label{sec:related}本節では,コーパスを用いて訳語対応等の翻訳知識を獲得する手法に関連する研究のうち,言語横断関連報道記事検索に関する関連研究,および,訳語対応推定に関する関連研究について述べる.\subsection{言語横断関連報道記事検索}\ref{sec:clir}~節で述べた言語横断関連報道記事検索の手法に関連する研究として,内容的に対応した二言語文書を収集する手法に関する研究がいくつか行なわれている.二言語文書の種類としては,同一の期間の報道記事を対象として,内容が対応した二言語の記事を収集するという手法がいくつか提案されている.言語を横断して記事の内容の類似性を測定する手法を分類する観点としては,主として,i)言語を横断する際に用いる対訳情報の情報源の種類,ii)記事間の類似度を測定する際に,文レベルの対応まで考慮するか否か,という二点が挙げられる.i)に関しては,翻訳ソフト,既存の対訳辞書,あるいは,内容的に対応する既知の二言語文書から学習した翻訳モデル,等の情報が用いられる.また,ii)に関しては,既存の多くの研究においては,文レベルの対応までは考慮せず,文書全体での類似性を測定している.そのような事例としては,例えば,数値表現や名前等の訳語対応を情報源として用いるもの~\cite{Takahashi97a,Xu99a},翻訳システムおよび会社名の対訳辞書を情報源として用いるもの~\cite{KMatsumoto02a},翻訳システムおよび既存の対訳辞書を情報源として用い,両者の性能比較を行なったもの~\cite{Collier98a}などがある.また,\cite{Masuichi00a}は,特許文書を対象として,小規模な対訳文書を初期データとして,ブートストラップにより言語横断情報検索モデルを学習しながら,内容的に対応する二言語文書を収集する手法を提案している.一方,\cite{Hasan01a}は,日中二言語間で内容的に対応する文書を収集するタスクにおいて,翻訳ソフトおよび漢字を利用したいくつかの統計量を情報源として用いている.以上の事例においては,いずれも,文レベルの対応までは考慮せず,記事全体で類似性を測定している.それに対して,\cite{Uchiyama03aj}は,読売新聞およびTheDailyYomiuriという,完全な対訳に近い二言語文書対の収集がある程度期待できる文書集合を対象として,既存の対訳辞書を情報源として,記事中の文の対応まで考慮した日英記事間の類似度を用いて,内容的に対応する記事を収集する手法を提案している.これらの関連研究と比較すると,本論文で述べた言語横断関連報道記事検索の手法は,i)の,言語を横断する際に用いる対訳情報の情報源の種類に関しては,\ref{sec:clir}~節で述べたように,翻訳ソフト,対訳辞書,数値表現翻訳規則の三種類のうち,単独の情報源としては翻訳ソフトを用いている.また,ii)に関しては,文レベルの対応までは考慮せず,記事全体で類似性を測定している.したがって,本論文の言語横断関連報道記事検索の手法は,既存の研究事例で用いられた手法と比較すると,相対的に簡便な手法であると言える.本論文における評価実験は,言語横断関連報道記事検索の手法として,最も簡便な手法を採用した場合に,どの程度の記事検索性能,および,訳語対応推定性能が達成できるかを示しているということができる.本論文の評価実験において,関連研究で用いられた技術を導入すれば,言語横断関連報道記事検索の性能が向上することが期待できる.具体的には,i)の,言語を横断する際に用いる対訳情報の情報源の種類に関しては,複数の情報源を併用すること,また,ii)に関しては,文レベルの対応まで考慮して記事間の類似度を測定することが考えられる.ただし,本論文の手法は,厳密な文対応付けが困難であるような粗い関連記事群に対しても有効であるという点が長所の一つであると言えるので,ii)の点に関しては,綿密な分析が必要であると思われる.また,その他の関連研究として,ウェブ上の二言語文書を対象として,URLおよびHTML文書の構造における手がかりを利用することにより,対訳で書かれた文書対を収集する手法も提案されている~\cite{Resnik03a,Nie99a}.\subsection{訳語対応推定}二言語コーパスからの訳語対応推定の手法の研究においては,これまでに,様々な手法が提案されている.本節では,いくつかの観点からそれらの手法を整理するとともに,同一内容の記事組を抽出した後,何らかの形で訳語の対応を推定するという本論文の問題設定に比較的近い研究事例について,本論文の手法との比較を行なう.また,この本論文の問題設定とは独立な観点として,訳語対応を推定する際にどのような情報を用いるかという観点のもとでの整理を行ない,関連研究,および,本論文の手法の間の関係について述べる.まず,訳語対応推定において用いる要素技術は,大きく分けて,文対応がつけられた対訳コーパスからの訳語対応推定手法,および,コンパラブルコーパスからの訳語対応推定手法という二種類の技術に分けることができる.文対応がつけられた対訳コーパスからの訳語対応推定においては,訳語候補となる語の組に対して,分割表を用いて統計的な相関を測定するという手法がよく知られている\cite{Gale91a,Kumano94b,Haruno98dj,Smadja96a,Kitamura96a,Melamed00a}.一方,コンパラブルコーパスからの訳語対応推定においては,一般に,訳語候補となる語の組に対して,何らかの方法で文脈の類似性を測定し,訳語候補の順位付けを行なう.特に,初期の研究~\cite{Fung95b,Rapp95a}においては,基本的な語についての既存の対訳辞書を用いずに,文脈の類似性を測定することが試みられたが,以後の研究\cite{KTanaka96a,Fung98a,Rapp99a,Kaji01aj,Chiao02a,TTanaka02a,Gaussier04a}では,基本的な語についての既存の対訳辞書を用いて,文脈の類似性を測定している.また,訳語対応推定の研究に関連した研究としては,コンパラブルコーパスを用いて,複数の訳語を持つ語の訳語選択を行なう手法を提案しているものもある~\cite{Dagan94c,HNakagawa01a}.一方,比較的最近の研究においては,要素技術としては,特に,コンパラブルコーパスからの訳語対応推定において用いられた,文脈の類似性に基づく手法を用いるものが多いが,問題設定そのものとして,1)ウェブ上のテキストを利用する,2)訳語候補の順位付けにおいて,複数の情報源・推定尺度を併用する,といった点に重点を置いた研究事例がいくつかみられる.例えば,ウェブ上のテキストを利用する研究事例としては,ウェブ上で,他言語への翻訳が専門用語に併記されているページを利用して,訳語対応を推定するもの~\cite{Nagata01a,Cheng04a}がある.特に,\cite{Cheng04a}では,英語タームを検索質問として,ウェブ上の中国語ページを収集した結果から中国語訳語候補を生成し,中国語訳語候補と英語タームとの間の統計的相関,および,文脈ベクトルの類似性を併用して,英語・中国語間の訳語対応を推定する手法を提案している.また,\cite{Cao02a}では,基本語対訳辞書中の訳語の組合せにより,複合語の訳語候補を生成し,ウェブから訳語候補を検索したページから文脈ベクトルを生成して,訳語対応を推定する手法を提案している.また,通常の報道記事をコンパラブルコーパスとして訳語対応を推定する手法の研究においても,英語・中国語間の翻字の情報と文脈ベクトルの類似性を併用して訳語対応を推定するもの\cite{Shao04a,Huang04a}などがある.これらの最近の研究の他に,本論文の問題設定に比較的近い研究事例としては,\cite{Fung04a,Munteanu04a}がある.これらにおいては,まず,同時期の報道記事をコンパラブルコーパスとして,同一内容の記事組を抽出し,その記事組から対訳文を抽出する.そして,その結果から,統計的機械翻訳モデルを用いて訳語対応を推定する\cite{Fung04a},あるいは,統計的機械翻訳モデルの性能により,対訳文の質を評価する\cite{Munteanu04a},といったことが行なわれる.本論文の問題設定と比較すると,これらの研究事例の問題設定は,同一内容の記事組を抽出した後,何らかの形で訳語の対応を推定するという処理を行なう点が類似していると言える.ただし,最も重要な違いとして,これらの研究事例においては,対訳文を抽出する過程を経る必要があるのに対して,本論文の手法においては,記事対応を粗く推定するだけで,訳語対応の推定が可能である点が挙げられる.したがって,本論文の手法は,厳密な文対応付けが困難であるような粗い関連記事群に対しても有効であるという点が特徴であると言える.また,上で述べた本論文の問題設定とは独立な観点として,訳語対応を推定する際に用いる情報という観点から,関連研究,および,本論文の手法の間の関係を整理することができる.まず,本論文では,訳語対応を推定する際に用いる情報としては,「関連記事組における訳語候補の共起および分割表」(\ref{subsec:estm-cont}~節)を用いた場合,および,「文脈の類似性」(\ref{subsec:estm-cv}~節)を用いた場合の比較を行なった.一方,本論文の評価実験で用いなかった情報としては,その他には,複合語の構成要素の訳語対応~\cite{Cao02a,Yoshimi04aj},読み等を利用した翻字の情報~\cite{Shao04a,Huang04a,Yoshimi04aj}等がある.さらに,これらの複数の情報を併用することにより,訳語対応推定の性能が改善することが期待できる~\cite{Hino04aj,Yoshimi04aj}.
\section{おわりに}
本論文では,ウェブ上の報道記事のページから,日本語で書かれた文書および英語で書かれた文書を収集し,多種多様な分野について,分野固有の固有名詞(固有表現)や事象・言い回しなどの翻訳知識を獲得する手法を提案した.翻訳知識獲得においては,まず,報道内容がほぼ同一もしくは密接に関連した日本語記事および英語記事を検索する.そして,関連記事組を用いて二言語間の訳語対応を推定する.訳語対応を推定する尺度としては,関連記事組における訳語候補の共起を利用する方法を適用し,評価実験において文脈ベクトルを用いる方法と比較し,この方法が有効であることを示した.本論文では,特に,日英関連報道記事からの訳語対応推定のタスクにおいて,英語タームの出現頻度と,訳語対応推定性能の相関を評価し,英語タームの頻度が大きいほど,高い訳語対応推定性能が達成できることが分かった.一方,この評価結果に関連して,特に,報道記事において低頻度であるタームに対しては,訳語対応推定の性能が低下することが分かっている~\cite{Hino04bj}.本論文の評価実験において対象としたタームの種類数は高々数百個程度であるが,報道記事に出現するターム全体で言えば,出現頻度が数回程度のタームが相当数あると考えられる.特に,実用的観点から言えば,これらの低頻度タームの訳語をどのようにして獲得するか,という問題を解決することが重要である.この点に関しては,報道記事における出現頻度が小さいタームについては,ウェブ検索エンジンを用いて,ウェブ上での出現文書を収集し,この文書を用いて訳語候補を順位付けることにより,訳語対応推定の性能が改善できることが分かっている~\cite{Utsuro04d,Kida04bj}.また,訳語候補の順位付けにおいて,正解訳語を必ずしも一位に順位付けすることができなくても,上位10位以内程度に正解訳語を含めることができれば,人間が訳語対応を発見する過程を比較的効率的に支援できると考えられる.この点に関しては,訳語対応推定の結果,および,各タームが出現する文書を閲覧する機能を備えた訳語対応獲得支援インタフェース~\cite{Utsuro02gs,Hino03aj}を援用できると考えている.本論文で提案した技術を利用する局面としては,直接的には,機械翻訳用の対訳辞書を強化することが挙げられるが,その他に,例えば,言語横断情報検索において,既存の対訳辞書や機械翻訳システムに未登録の訳語組を収集する場合や,人間の翻訳者が必要とする翻訳知識を収集する場合などが考えられる.\bibliographystyle{jnlpbbl}\newcommand{\gengoshori}{}\newcommand{\kokuken}{}\begin{thebibliography}{}\bibitem[\protect\BCAY{Cao\BBA\Li}{Cao\BBA\Li}{2002}]{Cao02a}Cao,Y.\BBACOMMA\\BBA\Li,H.\BBOP2002\BBCP.\newblock\BBOQBaseNounPhraseTranslationUsing{Web}Dataandthe{EM}Algorithm\BBCQ\\newblockIn{\BemProceedingsofthe19th{COLING}},\BPGS\127--133.\bibitem[\protect\BCAY{Cheng\JBALu\JBATeng\BBA\Chien}{Chenget~al.}{2004}]{Cheng04a}Cheng,P.-J.\JBALu,W.-H.\JBATeng,J.-W.\JBA\BBA\Chien,L.-F.\BBOP2004\BBCP.\newblock\BBOQCreatingMultilingualTranslationLexiconswithRegionalVariationsUsing{Web}Corpora\BBCQ\\newblockIn{\BemProceedingsofthe42nd{ACL}},\BPGS\534--541.\bibitem[\protect\BCAY{Chiao\BBA\Zweigenbaum}{Chiao\BBA\Zweigenbaum}{2002}]{Chiao02a}Chiao,Y.-C.\BBACOMMA\\BBA\Zweigenbaum,P.\BBOP2002\BBCP.\newblock\BBOQLookingforCandidateTranslationalEquivalentsinSpecialized,ComparableCorpora\BBCQ\\newblockIn{\BemProceedingsofthe19th{COLING}},\BPGS\1208--1212.\bibitem[\protect\BCAY{Collier\JBAHirakawa\BBA\Kumano}{Collieret~al.}{1998}]{Collier98a}Collier,N.\JBAHirakawa,H.\JBA\BBA\Kumano,A.\BBOP1998\BBCP.\newblock\BBOQMachineTranslationvs.DictionaryTermTranslation---AComparisonfor{English-Japanese}NewsArticleAlignment\BBCQ\\newblockIn{\BemProceedingsofthe17th{COLING}andthe36thAnnualMeetingof{ACL}},\BPGS\263--267.\bibitem[\protect\BCAY{Dagan\BBA\Itai}{Dagan\BBA\Itai}{1994}]{Dagan94c}Dagan,I.\BBACOMMA\\BBA\Itai,A.\BBOP1994\BBCP.\newblock\BBOQWordSenseDisambiguationUsingaSecondLanguageMonolingualCorpus\BBCQ\\newblock{\Bem{ComputationalLinguistics}},{\Bbf20}(4),563--596.\bibitem[\protect\BCAY{Fung}{Fung}{1995}]{Fung95b}Fung,P.\BBOP1995\BBCP.\newblock\BBOQCompilingBilingualLexiconEntriesFromaNon-Parallel{English-Chinese}Corpus\BBCQ\\newblockIn{\BemProceedingsof3rdWorkshoponVeryLargeCorpora},\BPGS\173--183.\bibitem[\protect\BCAY{Fung\BBA\Cheung}{Fung\BBA\Cheung}{2004}]{Fung04a}Fung,P.\BBACOMMA\\BBA\Cheung,P.\BBOP2004\BBCP.\newblock\BBOQMiningVery-Non-ParallelCorpora:ParallelSentenceandLexiconExtractionviaBootstrappingand{EM}\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\BPGS\57--63.\bibitem[\protect\BCAY{Fung\BBA\Yee}{Fung\BBA\Yee}{1998}]{Fung98a}Fung,P.\BBACOMMA\\BBA\Yee,L.~Y.\BBOP1998\BBCP.\newblock\BBOQAn{IR}ApproachforTranslatingNewWordsfromNonparallel,ComparableTexts\BBCQ\\newblockIn{\BemProceedingsofthe17th{COLING}andthe36thAnnualMeetingof{ACL}},\BPGS\414--420.\bibitem[\protect\BCAY{Gale\BBA\Church}{Gale\BBA\Church}{1991}]{Gale91a}Gale,W.\BBACOMMA\\BBA\Church,K.\BBOP1991\BBCP.\newblock\BBOQIdentifyingWordCorrespondencesinParallelTexts\BBCQ\\newblockIn{\BemProceedingsofthe4th{DARPASpeechandNaturalLanguageWorkshop}},\BPGS\152--157.\bibitem[\protect\BCAY{Gaussier\JBARenders\JBAMatveeva\JBAGoutte\BBA\Dejean}{Gaussieret~al.}{2004}]{Gaussier04a}Gaussier,E.\JBARenders,J.\JBAMatveeva,I.\JBAGoutte,C.\JBA\BBA\Dejean,H.\BBOP2004\BBCP.\newblock\BBOQAGeometricViewonBilingualLexiconExtractionfromComparableCorpora\BBCQ\\newblockIn{\BemProceedingsofthe42nd{ACL}},\BPGS\526--533.\bibitem[\protect\BCAY{浜本\JBA中山\JBA日野\JBA堀内\JBA宇津呂}{浜本\Jetal}{2003}]{Hamamoto03aj}浜本武\JBA中山健明\JBA日野浩平\JBA堀内貴司\JBA宇津呂武仁\BBOP2003\BBCP.\newblock\JBOQ言語横断関連報道記事検索における翻訳ソフト・対訳辞書・数値表現翻訳規則の性能比較\JBCQ\\newblock\Jem{言語処理学会第9回年次大会論文集},\BPGS\425--428.\bibitem[\protect\BCAY{Haruno\BBA\Ikehara}{Haruno\BBA\Ikehara}{1998}]{Haruno98dj}Haruno,M.\BBACOMMA\\BBA\Ikehara,S.\BBOP1998\BBCP.\newblock\BBOQTwo-StepExtractionofBilingualCollocationsbyUsingWord-LevelSorting\BBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfE81-D}(10),1103--1110.\bibitem[\protect\BCAY{Hasan\BBA\Matsumoto}{Hasan\BBA\Matsumoto}{2001}]{Hasan01a}Hasan,M.~M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2001\BBCP.\newblock\BBOQMultilingualDocumentAlignment---AStudywith{Chinese}and{Japanese}\BBCQ\\newblockIn{\BemProceedingsofthe6thNLPRS},\BPGS\617--623.\bibitem[\protect\BCAY{日野\JBA堀内\JBA浜本\JBA中山\JBA宇津呂}{日野\Jetal}{2003}]{Hino03aj}日野浩平\JBA堀内貴司\JBA浜本武\JBA中山健明\JBA宇津呂武仁\BBOP2003\BBCP.\newblock\JBOQ日英関連報道記事からの翻訳知識獲得のためのユーザインタフェースの作成\JBCQ\\newblock\Jem{言語処理学会第9回年次大会論文集},\BPGS\421--424.\bibitem[\protect\BCAY{日野\JBA宇津呂\JBA中川}{日野\Jetal}{2004a}]{Hino04bj}日野浩平\JBA宇津呂武仁\JBA中川聖一\BBOP2004a\BBCP.\newblock\JBOQ日英報道記事からの訳語対応推定:ターム頻度と訳語対応推定性能の相関の評価\JBCQ\\newblock\Jem{情報処理学会研究報告},{\Bbf2004}((2004--NL--162)),57--63.\bibitem[\protect\BCAY{日野\JBA宇津呂\JBA中川}{日野\Jetal}{2004b}]{Hino04aj}日野浩平\JBA宇津呂武仁\JBA中川聖一\BBOP2004b\BBCP.\newblock\JBOQ日英報道記事からの訳語対応推定における複数の推定尺度の利用\JBCQ\\newblock\Jem{言語処理学会第10回年次大会論文集},\BPGS\249--252.\bibitem[\protect\BCAY{堀内\JBA千葉\JBA浜本\JBA宇津呂}{堀内\Jetal}{2002a}]{Horiuchi02bj}堀内貴司\JBA千葉靖伸\JBA浜本武\JBA宇津呂武仁\BBOP2002a\BBCP.\newblock\JBOQ言語横断検索により自動収集された日英関連報道記事からの訳語対応の獲得\JBCQ\\newblock\Jem{情報処理学会研究報告},{\Bbf2002}((2002--NL--150)),191--198.\bibitem[\protect\BCAY{堀内\JBA千葉\JBA浜本\JBA宇津呂}{堀内\Jetal}{2002b}]{Horiuchi02aj}堀内貴司\JBA千葉靖伸\JBA浜本武\JBA宇津呂武仁\BBOP2002b\BBCP.\newblock\JBOQ翻訳知識獲得のための言語横断関連報道記事検索\JBCQ\\newblock\Jem{言語処理学会第8回年次大会論文集},\BPGS\303--306.\bibitem[\protect\BCAY{堀内\JBA日野\JBA浜本\JBA中山\JBA宇津呂}{堀内\Jetal}{2003}]{Horiuchi03aj}堀内貴司\JBA日野浩平\JBA浜本武\JBA中山健明\JBA宇津呂武仁\BBOP2003\BBCP.\newblock\JBOQ日英報道記事からの訳語対獲得における言語横断情報検索の有効性の評価\JBCQ\\newblock\Jem{言語処理学会第9回年次大会論文集},\BPGS\341--344.\bibitem[\protect\BCAY{Huang\JBAVogel\BBA\Waibel}{Huanget~al.}{2004}]{Huang04a}Huang,F.\JBAVogel,S.\JBA\BBA\Waibel,A.\BBOP2004\BBCP.\newblock\BBOQImprovingNamedEntityTranslationCombiningPhoneticandSemanticSimilarities\BBCQ\\newblockIn{\BemProceedingsofHLT-NAACL},\BPGS\281--288.\bibitem[\protect\BCAY{梶\JBA相薗}{梶\JBA相薗}{2001}]{Kaji01aj}梶博行\JBA相薗敏子\BBOP2001\BBCP.\newblock\JBOQ共起集合の類似度に基づく対訳コーパスからの対訳語抽出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(9),2248--2258.\bibitem[\protect\BCAY{木田\JBA宇津呂\JBA日野\JBA佐藤}{木田\Jetal}{2004}]{Kida04bj}木田充洋\JBA宇津呂武仁\JBA日野浩平\JBA佐藤理史\BBOP2004\BBCP.\newblock\JBOQ日英二言語文書を用いた訳語対応推定:ウェブ上の非対訳文書を用いた訳語候補順位付け\JBCQ\\newblock\Jem{情報処理学会研究報告},{\Bbf2004}((2004--NL--162)),65--70.\bibitem[\protect\BCAY{Kitamura\BBA\Matsumoto}{Kitamura\BBA\Matsumoto}{1996}]{Kitamura96a}Kitamura,M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP1996\BBCP.\newblock\BBOQAutomaticExtractionofWordSequenceCorrespondencesinParallelCorpora\BBCQ\\newblockIn{\BemProceedingsofthe4thWorkshoponVeryLargeCorpora},\BPGS\79--87.\bibitem[\protect\BCAY{Kumano\BBA\Hirakawa}{Kumano\BBA\Hirakawa}{1994}]{Kumano94b}Kumano,A.\BBACOMMA\\BBA\Hirakawa,H.\BBOP1994\BBCP.\newblock\BBOQBuildingan{MT}DictionaryfromParallelTextsbasedonLinguisticandStatisticalInformation\BBCQ\\newblockIn{\BemProceedingsofthe15th{COLING}},\BPGS\76--81.\bibitem[\protect\BCAY{Masuichi\JBAFlournoy\JBAKaufmann\BBA\Peters}{Masuichiet~al.}{2000}]{Masuichi00a}Masuichi,H.\JBAFlournoy,R.\JBAKaufmann,S.\JBA\BBA\Peters,S.\BBOP2000\BBCP.\newblock\BBOQABootstrappingMethodforExtractingBilingualTextPairs\BBCQ\\newblockIn{\BemProceedingsofthe18th{COLING}},\BPGS\1066--1070.\bibitem[\protect\BCAY{Matsumoto\BBA\Tanaka}{Matsumoto\BBA\Tanaka}{2002}]{KMatsumoto02a}Matsumoto,K.\BBACOMMA\\BBA\Tanaka,H.\BBOP2002\BBCP.\newblock\BBOQAutomaticAlignmentof{Japanese}and{English}NewspaperArticlesusingan{MT}SystemandaBilingualCompanyNameDictionary\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonLanguageResourcesandEvaluation},\lowercase{\BVOL}~2,\BPGS\480--484.\bibitem[\protect\BCAY{Matsumoto\BBA\Utsuro}{Matsumoto\BBA\Utsuro}{2000}]{Matsumoto00a}Matsumoto,Y.\BBACOMMA\\BBA\Utsuro,T.\BBOP2000\BBCP.\newblock\BBOQLexicalKnowledgeAcquisition\BBCQ\\newblockInDale,R.\JBAMoisl,H.\JBA\BBA\Somers,H.\BEDS,{\Bem{\emHandbookofNaturalLanguageProcessing}},\BCH~24,\BPGS\563--610.MarcelDekkerInc.\bibitem[\protect\BCAY{Melamed}{Melamed}{2000}]{Melamed00a}Melamed,I.~D.\BBOP2000\BBCP.\newblock\BBOQModelsofTranslationalEquivalenceamongWords\BBCQ\\newblock{\Bem{ComputationalLinguistics}},{\Bbf26}(2),221--249.\bibitem[\protect\BCAY{Munteanu\JBAFraser\BBA\Marcu}{Munteanuet~al.}{2004}]{Munteanu04a}Munteanu,D.~S.\JBAFraser,A.\JBA\BBA\Marcu,D.\BBOP2004\BBCP.\newblock\BBOQImprovedMachineTranslationPerformanceviaParallelSentenceExtractionfromComparableCorpora\BBCQ\\newblockIn{\BemProceedingsofHLT-NAACL},\BPGS\265--272.\bibitem[\protect\BCAY{Nagata\JBASaito\BBA\Suzuki}{Nagataet~al.}{2001}]{Nagata01a}Nagata,M.\JBASaito,T.\JBA\BBA\Suzuki,K.\BBOP2001\BBCP.\newblock\BBOQUsingthe{Web}asaBilingualDictionary\BBCQ\\newblockIn{\BemProceedingsoftheACL-2001WorkshoponData-drivenMethodsinMachineTranslation},\BPGS\95--102.\bibitem[\protect\BCAY{Nakagawa}{Nakagawa}{2001}]{HNakagawa01a}Nakagawa,H.\BBOP2001\BBCP.\newblock\BBOQDisambiguationofSingleNounTranslationsExtractedfromBilingualComparableCorpora\BBCQ\\newblock{\BemTerminology},{\Bbf7}(1),63--83.\bibitem[\protect\BCAY{Nie\JBASimard\JBAIsabelle\BBA\Durand}{Nieet~al.}{1999}]{Nie99a}Nie,J.-Y.\JBASimard,M.\JBAIsabelle,P.\JBA\BBA\Durand,R.\BBOP1999\BBCP.\newblock\BBOQCross-LanguageInformationRetrievalbasedonParallelTextsandAutomaticMiningofParallelTextsfromthe{Web}\BBCQ\\newblockIn{\BemProceedingsofthe22ndSIGIR},\BPGS\74--81.\bibitem[\protect\BCAY{Pei\JBAHan\JBAMortazavi-Asl\BBA\Pinto}{Peiet~al.}{2001}]{Pei01a}Pei,J.\JBAHan,J.\JBAMortazavi-Asl,B.\JBA\BBA\Pinto,H.\BBOP2001\BBCP.\newblock\BBOQPrefixSpan:MiningSequentialPatternsEfficientlybyPrefix-ProjectedPatternGrowth\BBCQ\\newblockIn{\BemProceedingsofthe17thInternationalConferenceonDataMining},\BPGS\215--224.\bibitem[\protect\BCAY{Rapp}{Rapp}{1995}]{Rapp95a}Rapp,R.\BBOP1995\BBCP.\newblock\BBOQIdentifyingWordTranslationsinNon-ParallelTexts\BBCQ\\newblockIn{\BemProceedingsofthe33rdAnnualMeetingof{ACL}},\BPGS\320--322.\bibitem[\protect\BCAY{Rapp}{Rapp}{1999}]{Rapp99a}Rapp,R.\BBOP1999\BBCP.\newblock\BBOQAutomaticIdentificationofWordTranslationsfromUnrelated{English}and{German}Corpora\BBCQ\\newblockIn{\BemProceedingsofthe37thAnnualMeetingof{ACL}},\BPGS\519--526.\bibitem[\protect\BCAY{Resnik\BBA\Smith}{Resnik\BBA\Smith}{2003}]{Resnik03a}Resnik,P.\BBACOMMA\\BBA\Smith,N.\BBOP2003\BBCP.\newblock\BBOQThe{Web}asaParallelCorpus\BBCQ\\newblock{\Bem{ComputationalLinguistics}},{\Bbf29}(3),349--380.\bibitem[\protect\BCAY{Shao\BBA\Ng}{Shao\BBA\Ng}{2004}]{Shao04a}Shao,L.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2004\BBCP.\newblock\BBOQMiningNewWordTranslationsfromComparableCorpora\BBCQ\\newblockIn{\BemProceedingsofthe20th{COLING}},\BPGS\618--624.\bibitem[\protect\BCAY{Smadja\JBAMcKeown\BBA\Hatzivassiloglou}{Smadjaet~al.}{1996}]{Smadja96a}Smadja,F.\JBAMcKeown,K.~R.\JBA\BBA\Hatzivassiloglou,V.\BBOP1996\BBCP.\newblock\BBOQTranslatingCollocationsforBilingualLexicons:AStatisticalApproach\BBCQ\\newblock{\Bem{ComputationalLinguistics}},{\Bbf22}(1),1--38.\bibitem[\protect\BCAY{Takahashi\JBAShirai\BBA\Bond}{Takahashiet~al.}{1997}]{Takahashi97a}Takahashi,Y.\JBAShirai,S.\JBA\BBA\Bond,F.\BBOP1997\BBCP.\newblock\BBOQAMethodofAutomaticallyAligning{Japanese}and{English}NewspaperArticles\BBCQ\\newblockIn{\BemProceedingsofthe4thNLPRS},\BPGS\657--660.\bibitem[\protect\BCAY{Tanaka\BBA\Iwasaki}{Tanaka\BBA\Iwasaki}{1996}]{KTanaka96a}Tanaka,K.\BBACOMMA\\BBA\Iwasaki,H.\BBOP1996\BBCP.\newblock\BBOQExtractionofLexicalTranslationsfromNon-AlignedCorpora\BBCQ\\newblockIn{\BemProceedingsofthe16th{COLING}},\BPGS\580--585.\bibitem[\protect\BCAY{Tanaka}{Tanaka}{2002}]{TTanaka02a}Tanaka,T.\BBOP2002\BBCP.\newblock\BBOQMeasuringtheSimilaritybetweenCompoundNounsinDifferentLanguagesUsingNon-ParallelCorpora\BBCQ\\newblockIn{\BemProceedingsofthe19th{COLING}},\BPGS\981--987.\bibitem[\protect\BCAY{内山\JBA井佐原}{内山\JBA井佐原}{2003}]{Uchiyama03aj}内山将夫\JBA井佐原均\BBOP2003\BBCP.\newblock\JBOQ日英新聞の記事および文を対応付けるための高信頼性尺度\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(4),201--220.\bibitem[\protect\BCAY{Utsuro\JBAHoriuchi\JBAChiba\BBA\Hamamoto}{Utsuroet~al.}{2002}]{Utsuro02gs}Utsuro,T.\JBAHoriuchi,T.\JBAChiba,Y.\JBA\BBA\Hamamoto,T.\BBOP2002\BBCP.\newblock\BBOQSemi-automaticCompilationofBilingualLexiconEntriesfromCross-LinguallyRelevantNewsArticleson{WWW}NewsSites\BBCQ\\newblockInRichardson,S.~D.\BED,{\BemMachineTranslation:FromResearchtoRealUsers},LectureNotesinArtificialIntelligence:Vol.2499,\BPGS\165--176.Springer.\bibitem[\protect\BCAY{Utsuro\JBAHoriuchi\JBAHamamoto\JBAHino\BBA\Nakayama}{Utsuroet~al.}{2003}]{Utsuro03b}Utsuro,T.\JBAHoriuchi,T.\JBAHamamoto,T.\JBAHino,K.\JBA\BBA\Nakayama,T.\BBOP2003\BBCP.\newblock\BBOQEffectofCross-Language{IR}inBilingualLexiconAcquisitionfromComparableCorpora\BBCQ\\newblockIn{\BemProceedingsofthe10th{EACL}},\BPGS\355--362.\bibitem[\protect\BCAY{Utsuro\JBAHino\JBAKida\JBANakagawa\BBA\Sato}{Utsuroet~al.}{2004}]{Utsuro04d}Utsuro,T.\JBAHino,K.\JBAKida,M.\JBANakagawa,S.\JBA\BBA\Sato,S.\BBOP2004\BBCP.\newblock\BBOQIntegratingCross-LinguallyRelevantNewsArticlesandMonolingual{Web}DocumentsinBilingualLexiconAcquisition\BBCQ\\newblockIn{\BemProceedingsofthe20th{COLING}},\BPGS\1036--1042.\bibitem[\protect\BCAY{Xu\BBA\Tan}{Xu\BBA\Tan}{1999}]{Xu99a}Xu,D.\BBACOMMA\\BBA\Tan,C.~L.\BBOP1999\BBCP.\newblock\BBOQAlignmentandMatchingofBilingual{English-Chinese}NewsTexts\BBCQ\\newblock{\BemMachineTranslation},{\Bbf14},1--33.\bibitem[\protect\BCAY{吉見\JBA九津見\JBA小谷\JBA佐田\JBA井佐原}{吉見\Jetal}{2004}]{Yoshimi04aj}吉見毅彦\JBA九津見毅\JBA小谷克則\JBA佐田いち子\JBA井佐原均\BBOP2004\BBCP.\newblock\JBOQ複合語の内部情報・外部情報を統合的に利用した訳語対の抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(4),89--103.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{宇津呂武仁}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学大学院工学研究科博士課程電気工学第二専攻修了.京都大学博士(工学).奈良先端科学技術大学院大学情報科学研究科助手,豊橋技術科学大学工学部情報工学系講師を経て,2003年より京都大学情報学研究科知能情報学専攻講師.自然言語処理の研究に従事.}\bioauthor{日野浩平}{2003年豊橋技術科学大学工学部情報工学系卒業.2005年同大学大学院工学研究科修士課程情報工学専攻修了.現在,NTTデータテクノロジー株式会社に勤務.在学中は自然言語処理に関する研究に従事.}\bioauthor{堀内貴司}{2001年豊橋技術科学大学工学部情報工学系卒業.2003年同大学大学院工学研究科修士課程情報工学専攻修了.現在,日立製作所に勤務.在学中は自然言語処理に関する研究に従事.}\bioauthor{中川聖一}{1976年京都大学大学院工学研究科博士課程修了.同年京都大学工学部情報工学科助手.1980年豊橋技術科学大学工学部情報工学系講師.1990年同教授.1985$\sim$1986年カーネギーメロン大学客員研究員.音声言語情報処理,自然言語処理,人工知能の研究に従事.工学博士.1977年電子通信学会論文賞,1998年度IETE最優秀論文賞,2001年電子情報通信学会論文賞受賞.著書「確率モデルによる音声認識」(電子情報通信学会編),「音声・聴覚と神経回路網モデル」(共著,オーム社),「情報理論の基礎と応用」(近代科学社),「パターン情報処理」(丸善)など.}\bioreceived{受付}\biorevised{再受付}\biorevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V11N02-04 | \section{はじめに}
対訳コーパスの充実に伴い,コーパスから自動学習した知識を用いる機械翻訳システムが提案されてきている\cite{Brown:SMT1993,Menezes:PAandTranslation2001,Imamura:PatternGeneration2002}.しかし,対訳コーパスを無制限に用いて翻訳知識を自動構築すると,コーパスに内在する翻訳の多様性に起因して冗長な知識が獲得され,誤訳や曖昧性増大の原因となる.翻訳の多様性はコーパスサイズの拡大と共に増加する.たとえば,対訳コーパスは大規模になるに従い,通常,同一の原文であるにも関わらず異なった翻訳文が含まれる.また,文脈や状況に依存した特異な翻訳も大規模コーパスでは増加する.我々の対象は,このような10万文以上を含んだ大規模対訳コーパスである.本稿では,このような翻訳の多様性に対し,機械翻訳に適した対訳(制限対訳と呼ぶ)に制限することを試みる.制限対訳には様々な指標が考えられるが,本稿では特に直訳性に着目する.そして直訳性を利用した2つの知識構築法を提案する.第一は,翻訳知識構築の前処理としての,直訳性を用いた対訳文フィルタリング,第二は一つの対訳文を直訳部/意訳部に分割し,部分に応じた汎化手法を適用する.このような制限を行いながら機械翻訳知識を自動構築することにより,機械翻訳の訳質が向上することを示す.以下,第\ref{sec-translation-variety}章では翻訳の多様性が引き起こす問題点について述べ,第\ref{sec-controlled-translation}章では機械翻訳に適した対訳とは,どのような対訳であるのか,議論する.続いて第\ref{sec-translation-literalness}章では,制限対訳の指標のうち,直訳性に着目し,その測定手法について提案する.第\ref{sec-construction-methods}章では直訳性を利用した機械翻訳知識構築方法について述べ,第\ref{sec-translation-experiments}章でその評価を行う.
\section{翻訳の多様性}
\label{sec-translation-variety}まず,コーパスに内在する翻訳の多様性と,翻訳知識自動構築の観点から見た場合の問題点について述べる.\subsection{文脈/状況依存訳}対訳コーパス中には通常,文脈や状況に依存した,言い換えると文脈や状況が変わると不適切となる対訳が存在する.たとえば,英語を日本語に翻訳する場合,定冠詞`{\itthe}'は通常訳出されない.しかし,人間の翻訳でも,文内文脈では解決できない曖昧な表現となる場合,「私の」「その」など,限定表現が付与される場合がある.また,日本語「写真を撮っていただけますか」は,通常英語に翻訳した場合,``{\itCouldyoutakeourphotograph?}''となるが,``{\itCouldyoupressthisshutterbutton?}''と,写真撮影を人に依頼する状況でしか使用できない翻訳がされる場合がある.このように,文脈/状況依存訳は,強度な意訳になっていることが多い.このような文脈や状況に依存した対訳から構築した翻訳知識は,適合しない文脈/状況で使用されると,過剰な省略や冗長語が発生し,誤訳の原因となりうる.\subsection{言い換え表現}一般的に,原言語の表現は,様々な目的言語表現に翻訳することができるため,同じ原文であっても複数種類の対訳がコーパス中に存在する.たとえば,日本語「このトラベラーズチェックを現金にしてください」は,英語では,\begin{itemize}\item{\itI'dliketocashthesetraveller'schecks.}(平叙文)\item{\itCouldyouchangethesetraveller'schecksintocash?}(疑問文)\item{\itPleasecashthesetraveller'schecks.}(命令文)\end{itemize}\noindentなどと翻訳することができる.これらは文脈や状況に依存せず,常に正しい翻訳である.実際,BTECコーパス\cite{Takezawa:PBCorpus2002,Kikui:BTECandMADCorpus}では,上記日本語の対訳は10種類存在する.このような多様性を含むコーパスから翻訳知識を学習すると過剰に知識が生成される.たとえば,\shortciteA{Imamura:PatternGeneration2002}が使用したパターンベース翻訳システムの場合,言い換え表現から,すべて異なる変換規則が作成される.しかし,実際の翻訳処理では1規則だけで十分であるため,冗長な規則は曖昧性の増大や翻訳速度の低下を招く\cite{Meyers:PAandTranslation2000}.
\section{機械翻訳に適した対訳}
\label{sec-controlled-translation}\subsection{制限対訳}単言語の処理においては,コーパス中の多様性を排除する方法として,制限言語が提案されている\cite{Mitamura:ControlledLanguage1991,Mitamura:ControlledLanguage1995,Huijsen:ControlledLanguage1998}.これは使用語彙や文法を制限して文章を記述する方法である.制限言語で記述された文章は,人間が読んだりコンピュータが処理を行う際,構文構造や意味解釈の曖昧性を減少させる効果があると報告されている.対訳コーパスからの翻訳知識自動構築の場合にも,同じ考え方が利用できる.すなわち,コーパス中の対訳を,すべての表現を許すのではなく,「機械翻訳に適した対訳」に制限することにより,誤訳の原因となる文脈/状況依存訳を自動構築の前段階で排除したり,そこから構築させた翻訳知識の言語変換時の曖昧性を減少させることができると期待される.これを本稿では制限対訳と呼ぶ.制限対訳の指標としては,以下のものが考えられる.前半3項目は,対訳単位の指標であり,最後の1項目は対訳コーパス全体に対する指標である.\begin{itemize}\item{\bf直訳性}\\原言語・目的言語間で省略・冗長語が少ない.すなわち,原文の単語のほとんどが翻訳文の単語に対応する.\item{\bf文脈自由性}\\原文の単語列が翻訳文の単語列に,局所的に(文脈情報なしで)対応する.この指標は,部分文が翻訳単位として再利用しやすいことを示している.\item{\bf語順一致性}\\原文の語順が翻訳文でも保たれている.この指標は,翻訳時の語順調整が少ないことを示している.\item{\bf訳語一定性}\\コーパスを通じて,ある1単語が常に同じ単語に翻訳されている.たとえば,形容動詞「必要だ」は,英語では形容詞`{\itnecessary}',動詞`{\itneed}',動詞`{\itrequire}'などに翻訳することができる.しかし,可能であれば常に一つの表現,たとえば`{\itnecessary}'に翻訳されている方が望ましい.\end{itemize}これらの指標は,翻訳方式により必要とされるものが異なる.たとえば,単語直接方式の統計翻訳\cite{Brown:SMT1993}では,単語の変換と語順調整を組み合わせて翻訳を行うため,語順一致性は重要な指標となる.しかし,構文トランスファ方式では,構文変換時に語順を大幅に変更することができるため,それほど重要な指標ではない.本稿では,句構造ベースの構文トランスファ方式について検討する.\subsection{前提とした機械翻訳システム}本稿では,句構造ベースの構文トランスファ方式翻訳システムである,HPAT(HierarchicalPhraseAlignment-basedTranslator;\cite{Imamura:PatternGeneration2002})を実験に使用する.これは,変換主導型機械翻訳システムTDMT\cite{Furuse:TDMT1999j}を基に,従来人手で構築していた変換規則を,対訳コーパスから自動獲得するように拡張したものである.\begin{figure*}\begin{center}\leavevmode\epsfxsize=100mm\epsfbox{fig-HPAT.eps}\caption{HPATにおける翻訳知識構築と翻訳処理概要}\label{fig-HPAT-procedure}\end{center}\end{figure*}HPATの動作を簡単に説明する(図\ref{fig-HPAT-procedure}).まずパラレルコーパスから階層的句アライメント\cite{Imamura:PhraseAlignment2002j}を用いて,句レベルの対応を階層的に抽出する.そして,その階層関係を用いて対応をパターン化する.これが変換規則で,基本的には同期文脈自由文法である.翻訳時には,変換規則の原言語パターンを用いて入力文の構文解析を行う.次に使用された原言語パターンを目的言語パターンにマッピングすることにより,目的言語に変換する.解析や変換時に発生した曖昧性は,変換規則に記述されている用例(訓練コーパスの実例)と入力文の意味的距離を計算し,最も近いパターンを選択することにより解消する.\subsection{構文トランスファ方式に適した対訳}\label{sec-suitable-translation}構文トランスファ方式に適した対訳について考察するため,本節ではTDMTを分析する.TDMTは,ルール記述者がコーパスから対訳を一つづつ取得し,それと同等な翻訳が得られるよう,規則を追加または調整し,変換規則が作成された.言い換えると,TDMTのルール記述用対訳は,コーパスの対訳とまったく同一ではなく,訳質を維持したまま規則数が最小となるように,目的言語側の文を書き換えている.つまり,書き換えられた対訳文(以下,TDMT訓練訳と呼ぶ)は,TDMTという構文トランスファ方式翻訳システムに適した対訳となっている.そこで,TDMT(英日翻訳版)の変換規則の訓練に用いられたTDMT訓練訳6,304文と,同じ原文の元コーパスに含まれる対訳(コーパス訳と呼ぶ)の比較を行った\footnote{TDMTは,訓練済みの文に関しては,機械翻訳結果とルール記述者が意図した対訳は等しいため,訓練済の原文をTDMTで翻訳する方法でTDMT訓練訳を取得した.}.その統計データを表\ref{tbl-corpus-comparison}に,例を表\ref{tbl-tdmt-ideal-example}に示す.これらからは,以下の制限対訳指標が構文トランスファ方式の機械翻訳に適していることを示している.なお,本データは,形態素解析結果と,単語アライメント結果(\ref{sec-translation-experiments}章参照)を元に算出した.単語アライメントが出力した単語の対応関係を,単語リンクとも呼ぶ.\begin{table}\begin{center}\caption{TDMT訓練訳とコーパス訳の比較}\label{tbl-corpus-comparison}{\smalltable\begin{tabular}{c|r@{}lr@{}l}\hline\hline&\multicolumn{2}{|c}{コーパス訳}&\multicolumn{2}{c}{TDMT訓練訳}\\\hline目的言語上での単語リンク数&20,722語&(34.0\%)&28,300語&(49.5\%)\\目的言語語彙数&3,601語&&3,107語&\\対応がとれた単語の平均訳語数&1.94語&&1.51語&\\単語リンク4のときの平均文脈自由数&4.21&&4.45&\\\hline\hline\end{tabular}}\vspace*{1.5em}\caption{コーパス訳とTDMT訓練訳の例}\label{tbl-tdmt-ideal-example}{\smalltable\begin{tabular}{c|l|l}\hline\hline番号&種類&文\\\hline1&原文&{\itAretaxandservicechargesincluded?}\\&コーパス訳&その料金は税金とサービス料は込みですか\\&TDMT訓練訳&税とサービス料は含まれていますか\\\hline2&原文&{\itIsbreakfastincluded?}\\&コーパス訳&朝食はついていますか\\&TDMT訓練訳&朝食は含まれていますか\\\hline3&原文&{\itWhat'sthedifferencebetweentherateforasingleandatwin?}\\&コーパス訳&料金はシングルとツインではどのくらい違いますか\\&TDMT訓練訳&シングルとツインの料金の違いはどれくらいですか\\\hline\hline\end{tabular}}\end{center}\end{table}\paragraph{直訳性}まず,表\ref{tbl-corpus-comparison}の単語リンク数について着目すると,TDMT訓練訳は値がかなり増加しており,目的言語の約50\%の単語について,対応する単語が存在することになっている.つまり,TDMT訓練文は原文の単語が忠実に訳されており,直訳的であることを示している.表\ref{tbl-tdmt-ideal-example}の1番の対訳はその例である.コーパス訳では原文に現れない冗長語「その」が付加されているが,TDMT訓練訳では原文の内容語が過不足なく対応している.\paragraph{訳語一定性}次に,目的言語語彙数,および平均訳語数を見ると,TDMT訓練訳は目的言語語彙数がかなり減少しており,それに伴い,平均訳語数が減少している.これは,原文の単語訳ができる限り一定になるように,ルール記述者が翻訳文を書き換えながら訓練したためであり,そのため訳語のバラエティが減少したものである.言い換えると,TDMT訓練訳は訳語一定性が高い.たとえば,表\ref{tbl-tdmt-ideal-example}の1番と2番の`{\itinclude}'について着目すると,コーパス訳では,1番は名詞「込み」,2番は動詞「つく」と異なる訳語が使用されている.しかし,TDMT訓練訳ではどちらも「含む」で一定である.\paragraph{文脈自由性}表\ref{tbl-corpus-comparison}の平均文脈自由数は原文で連続した単語が翻訳文上でも連続している組み合わせ数をカウントしたものである.この値が大きいものは文脈自由性が高く,部品化しやすい対訳であると言える.単語リンク数(単語対応数)が多いほど,この数値は大きくなる傾向があるが,同じ単語リンク数の場合,TDMT訓練訳の方が若干大きい値を示している.表\ref{tbl-tdmt-ideal-example}の3番はその例である.TDMT訓練訳では,名詞句``{\ittherateforasingleandatwin}''は,やはり名詞句「シングルとツインの料金」と局所的にに訳されているため,規則化した際も再利用が可能である.しかし,コーパス訳では,動詞「違う」を修飾する2つの連用修飾句「料金は」「シングルとツインでは」に分割されて訳されている.そのため,修飾先を含めて規則化しないと再利用はできない.
\section{直訳性}
\label{sec-translation-literalness}前節で示した制限対訳指標のうち,本稿では特に直訳性に着目する.直訳性の高い対訳のみを使用して翻訳知識を構築できれば,文脈/状況に依存する変換規則の生成が抑制され,誤訳を減少させることができると期待される.訳語一定性,および文脈自由性は,コーパスを通じて訳語や構造が一定であることを示しているため,言い換え表現対策として有効と考えられるが,今回は曖昧性の減少より,誤訳の減少を優先する.\subsection{直訳性スコア}\label{sec-literalness-score}「直訳」は,原文の単語が忠実に翻訳文に反映されていることを意味する.したがって,対訳文があったとき,原文・翻訳文の単語対応が多く取れる文は直訳性が高い.対訳文の単語対応は,対訳辞書を参照する方法や,統計的単語アライメント(たとえば\cite{Melamed:WordAlignment2000})等を用いると取得することができる.しかし,言語によっては,必ずしも単語同士が対応づかない場合もある.たとえば,日本語と英語を考えたとき,格助詞「が」などは,英語の単語として現れない.ところが同じ助詞でも,副助詞「だけ」の場合は,英語では`{\itonly}'などに訳されている場合が多く,たとえ機能語でも単語としての翻訳が必要な場合と不必要な場合がある.つまり,単語対応数だけでなく,本来翻訳すべき単語が原文・翻訳文双方にどの程度含まれているか判断しなければ,直訳性は決定しない.このような考えから,本稿では直訳性を以下の手順で判定する.なお,ここでは対訳辞書を用いる.対訳辞書は市販辞書を用いることも可能だと考えられるが,ここでは,対訳コーパスの単語アライメント結果から,単語リンクを集めて自動的に作成されるものとする.また,一つの対訳文中で原言語・目的言語間は1対1に単語が対応するものと仮定する.\begin{enumerate}\item原言語の単語で対訳辞書を引く.辞書の見出しに存在する単語は,翻訳されるべき単語と見なす.その数を$T_s$とする.\item目的言語の単語で対訳辞書を逆引きする.辞書の訳語に存在する単語は,翻訳されるべき単語と見なす.その数を$T_t$とする.\item対訳辞書にエントリが存在する対訳単語を,単語リンクと見なす.その数を$L$とする.\item以下の式で直訳性を計算する.これを対訳対応率(TranslationCorrespondenceRate;TCR)と呼ぶ.\begin{equation}TCR=\frac{2L}{T_s+T_t}\label{eqn-tcr}\end{equation}\end{enumerate}対訳対応率は,「本来翻訳されるべき単語のうち,実際に翻訳された語の割合」を表す.双方向に見ているので,省略語と冗長語を同等に検出することができる.また,辞書に記載されていない語は分母・分子共に無視されるため,辞書のカバレッジの影響が少ない.\begin{figure*}\begin{center}\leavevmode\epsfxsize=110mm\epsfbox{fig-example.eps}\caption{対訳対応率(TCR)による直訳性判定例}(丸囲み単語は,対訳辞書に記載されている単語,文間の直線は単語リンクを表す)\label{fig-tcr-example}\end{center}\end{figure*}たとえば,原文「私はこのステーキを頼んでいません」の翻訳として,翻訳文1``{\itIdidn'torderthissteak}''と,翻訳文2``{\itThisisdifferentwhatIordered}''があったとする(図\ref{fig-tcr-example}).直感的には,翻訳文1は原文に忠実な直訳であり,翻訳文2は意訳が含まれている対訳である.図中の丸囲み単語が対訳辞書に載っている単語だったとすると,原文は5単語が見出しとして存在している($T_s=5$).また,翻訳文1の単語も5単語が対訳として存在している($T_t=5$).単語リンクは,I-私,not-ぬ,order-頼む,this-この,steak-ステーキの5つである($L=5$)ので,式(\ref{eqn-tcr})によると,対訳対応率$TCR=1.0$となる.一方,翻訳文2を見ると,対訳辞書の訳語として載っている単語は,this,different,I,orderの4つであり($T_t=4$),単語リンクはthis-これ,order-頼む,I-私の3つしかない($L=3$).したがって,$TCR=\frac{2*3}{5+4}\simeq0.67$となり,翻訳文1の方が直訳性が高いと判断される.このように,対訳対応率は基本的に形態素解析結果と対訳辞書だけから判断され,構文解析などの深い解析を必要としない.
\section{直訳性を用いた翻訳知識構築}
\label{sec-construction-methods}本章では,直訳性を利用した機械翻訳知識構築方法について述べる.本稿では,2つのアプローチを取る.一つは,対訳文からの知識獲得の前処理として,対訳コーパス自体にフィルタリング処理を行い,対訳文を絞り込む方法,もう一つは,翻訳知識構築時に対訳文を直訳部とそれ以外(意訳部)に分離し,構築条件を変える方法である.\subsection{対訳コーパスフィルタリング}ここでは,コーパスフィルタリング方法として,さらに2つの方法を考える.\paragraph{閾値によるフィルタリング}高直訳対訳のみを用いて機械翻訳知識を自動構築した場合.閾値を高く設定するに従い,高直訳対訳だけが残るが,部分コーパスサイズは減少するため,そこから作成した機械翻訳知識のカバレッジが低下する.\paragraph{グループ内最高値によるフィルタリング}原言語が同じ対訳でグループを作成し,各グループから最高スコアを持つものを用いて機械翻訳知識を自動構築した場合.前者に比べてすべての原言語が学習対象となるため,翻訳知識のカバレッジが下がらないが,低直訳対訳であっても,コーパス中に1回しか出現しない場合は知識構築対象となるため,文脈/状況依存訳が残る可能性がある.\subsection{直訳句と意訳部の分割構築}\ref{sec-literalness-score}節で定義した対訳対応率TCRは,完全な文ばかりでなく,部分文(句)に対しても適用可能なスコアである.対訳コーパスフィルタリングの場合,高直訳対訳に絞るに従い,翻訳規則のカバレッジが低下するという欠点がある.しかし低直訳対訳でも,部分的に見ると直訳と見なせる句が存在する.つまり,低直訳対訳の直訳部を抽出し,翻訳知識構築に利用できれば,カバレッジの低下を抑えることができる.ここで問題となるのは,低直訳対訳中には,慣用表現など直訳では訳すべきでないものが存在する点である.たとえば,``{\itMayIhelpyou}''を直訳すると,「あなたを助けてもよいでしょうか」になるが,「どうしましたか」と訳すのが普通である.このような慣用表現は,かなり長単位の単語列で表現される.両者を共存させるため,ここでは対訳を直訳部と意訳部(非直訳部)に分割し,機械翻訳知識の構築方法を変える.すなわち,直訳部に関しては,できる限り再利用可能なように細かい単位で規則化を行い,意訳部は規則化を最小限にして翻訳知識を構築する.具体的には以下の手順による.\begin{enumerate}\item階層的句アライメントを行い,句レベルの対応関係を取得する.\item階層構造をトップダウンに走査し,句レベルで直訳性を測る.直訳性スコアが閾値以上の場合,その句を直訳句と判定する.\item直訳句の場合,自分自身とその下位構造を汎化し,翻訳知識を構築する.\itemもし,最上位構造(対訳文全体)が直訳句でない場合,直訳句までの句対応を無視した翻訳知識を構築する.\end{enumerate}\begin{figure*}\begin{center}\leavevmode\epsfxsize=140mm\epsfbox{fig-rule-example2.eps}\caption{日英翻訳における生成規則例:(A)直訳の場合(B)意訳からの分割構築の場合}\label{fig-rule-example}\end{center}\end{figure*}たとえば,図\ref{fig-rule-example}のように,同じ原文に対応する2つの翻訳文があったとする.翻訳文(A)の場合は,文全体{\tt(A-1)S}のTCR値は1.0である.そのため,すべての句が汎化され,全部で6規則が生成される.直訳から生成された規則は他の翻訳文にも適用可能な一般的な規則である.一方,(B)では文全体{\tt(B-1)S}のTCR値は0.25と低い.しかし,部分的に見ると,名詞句「市内」と``thecity''のTCR値は1.0である.そのため,文全体のうち,句{\tt(B-2)NP}だけが汎化対象となり,{\tt(B-1)S}のように,単語数の多い規則が生成される.このように,分割構築では直訳句は本来の構文トランスファ用変換規則を生成し,意訳部からはテンプレート的パターンを生成する.意訳から生成された規則は,入力文の単語列とほぼ完全一致した場合のみ適用されるため,異なった文脈では使われにくい規則となる.
\section{翻訳実験}
\label{sec-translation-experiments}翻訳知識自動構築における直訳性の効果を測定するため,\ref{sec-construction-methods}章で述べた手法で機械翻訳知識を自動構築し,英日機械翻訳の翻訳品質という観点で評価を行った.\subsection{実験条件}\paragraph{対訳コーパス}対訳コーパスは,BTECコーパス\cite{Takezawa:PBCorpus2002,Kikui:BTECandMADCorpus}のうち,149,882対訳を使用した.このコーパスは,旅行会話に頻出する表現を集めたものである.原文が同じ対訳も多く含まれ,約13\%の英語文が複数の日本語訳を持つ.\paragraph{単語対応抽出方法:対訳辞書構築方法}単語同士の対応は,コーパス中の共起頻度が10回以上の単語については,\shortciteA{Melamed:WordAlignment2000}と同様に,CompetitiveLinkingAlgorithmを用いて統計的に単語アライメントを行い,コーパス全体に対してこの対応を集めて,対訳辞書を構築した.低頻度語については,シソーラス\cite{Thesaurus1984j}を参照し,同一グループに属する単語を対応付けた.この対応付けの結果を用い,以下の2種類の対訳辞書を構成した.\begin{itemize}\item{\bf辞書A}\\統計的単語アライメントとシソーラス参照の両方の対応付けを用いた辞書.再現率が比較的高く,対応付けの精度を内容語のみで測定した場合,クローズドテストで適合率91\%,再現率73\%程度である.\item{\bf辞書B}\\統計的単語アライメントのみの対応付けを用いた辞書.再現率が比較的低い.精度を辞書Aと同様に測定した場合,適合率93\%,再現率61\%程度である.\end{itemize}\paragraph{翻訳品質評価方法}評価方法は,以下の2種類を用いた.\begin{itemize}\item{\bf自動評価}\\自動評価では,予めコーパスから除外したテストセット10,150文を使い,BLEU\cite{papineni-EtAl:2002:ACL}を用いて評価した.使用した参照訳は1原文あたり1つで,4-gramまで使用した.\item{\bf主観評価}\\主観評価では,上記テストセット中の510文を使い,日本語ネイティブ話者1名が一対比較法で評価した.具体的には,全対訳を使用した機械翻訳結果をベースとし,それに対して直訳性に基づく自動構築後の翻訳結果を1文づつ比較し,どちらの翻訳がよい翻訳であるのか,あるいは同品質であるのか,判定する形で行った.主観評価における翻訳品質(主観品質)は,以下の式で表す.したがって,これはベースに対する相対評価である.\begin{equation}\mbox{主観品質}=\frac{\mbox{改善文数}-\mbox{改悪文数}}{\mbox{テスト文数}}\end{equation}\end{itemize}\subsection{閾値によるコーパスフィルタリングの効果}\begin{figure}\begin{center}\leavevmode\epsfxsize=75mm\epsfbox{fig-stat-sem.eps}\caption{対訳対応率の閾値を変化させたときの翻訳品質(辞書A使用時)}\label{fig-stat-sem}\vspace*{2ex}\leavevmode\epsfxsize=75mm\epsfbox{fig-stat-nosem.eps}\caption{対訳対応率の閾値を変化させたときの翻訳品質(辞書B使用時)}\label{fig-stat-nosem}\end{center}\end{figure}まず,対訳対応率の閾値を変化させてコーパスフィルタリングを行い,自動評価で翻訳品質を測定した結果を図\ref{fig-stat-sem}(辞書A使用時),図\ref{fig-stat-nosem}(辞書B使用時)に示す.これは,各閾値以上を持つ対訳文を用いたときの翻訳品質を,対訳数(訓練コーパスサイズ)でプロットしたものである.なお,同グラフ中のランダム選択とは,ランダムに訓練コーパスサイズを変化させた場合を示す.辞書A,辞書B使用時とも,対訳対応率の閾値を上げるに従い,訓練コーパスサイズは減少するが,翻訳品質は逆に若干向上した.どちらも$TCR\geq0.3$のとき,BLEUスコアは最大となっており,辞書Aでは0.233,辞書Bでは0.234を示した.さらに閾値を上げて高直訳対訳に限定すると,訓練コーパスサイズも減少するが,辞書A使用時で約8万対訳,辞書B使用時で約7万対訳まで,ランダム選択より高いBLEUスコア値を示し,その後急激に翻訳品質は悪化した.これは慣用表現など,直訳性が低いにも関わらず翻訳に必要な対訳が排除されたためと考えられる.いずれにしても辞書A,辞書B使用時ともに同じ傾向を示しており,対訳対応率による直訳性の測定は,辞書のカバー率の影響が少ないことを示している.\subsection{構築方法の違いと翻訳品質}\begin{table*}[t]\begin{center}\caption{構築方法を変えたときの翻訳品質(辞書B使用時)}\label{tbl-constructions}{\smalltable\begin{tabular}{p{5pt}l|c|c|c|c}\hline\hline&&全対訳使用&\multicolumn{2}{c|}{フィルタリング}&分割構築\\\cline{4-5}&&(ベース)&閾値($TCR\geq0.3$)&グループ最高値&($TCR\geq0.8$)\\\hline\multicolumn{2}{l|}{対訳数}&149,882&134,521&121,623&121,623\\\multicolumn{2}{l|}{(サイズ比)}&(100\%)&(89.8\%)&(81.1\%)&(81.1\%)\\\hline\multicolumn{2}{l|}{翻訳知識カバー率}&65.7\%&64.0\%&65.3\%&61.4\%\\\hline\multicolumn{2}{l|}{BLEUスコア}&0.232&0.233&0.240&{\bf0.252}\\\hline\multicolumn{2}{l|}{主観品質}&&+3.3\%&+1.8\%&{\bf+8.6\%}\\&改善文数&&30&30&119\\&同品質(同一翻訳)&&467(424)&459(413)&316(213)\\&悪化文数&&13&21&75\\\hline\hline\end{tabular}}\end{center}\end{table*}次に,翻訳知識構築法を変えて,翻訳品質を測定した結果を,表\ref{tbl-constructions}に示す.なお,本表は,辞書Bを用いて測定した結果であり,表中の翻訳知識カバー率とは,翻訳知識中の用例が入力文と完全一致した規則だけで翻訳できた割合を示す.また,分割構築では,グループ最高値によるフィルタリング後の対訳コーパスを用い,TCRが0.8以上の句を直訳句と判断して構築した.閾値によるフィルタリングと,グループ内最高値によるフィルタリングを比較すると,主観評価では閾値によるフィルタリングの方が高品質となっているが,BLEUスコアはグループ内最高値の方が高い.翻訳知識カバー率も,使用した対訳数が減少しているにも関わらず,グループ内最高値の方が若干高く,グループ内最高値によるフィルタリングは,翻訳知識のカバレッジを保持したまま翻訳品質を向上できている.今回用いたコーパスは約13\%の英語文が複数の日本語訳を持つ高密度なコーパスであるにも関わらず,フィルタリングでは1〜3\%程度の品質改善しかできなかった.対訳文のフィルタリングは,誤訳の原因となる低直訳対訳の排除と,翻訳知識のカバレッジ保持の両立は難しく,大幅な品質改善は困難である.一方,分割構築では,BLEUスコア,主観品質共に大幅に向上した.特に主観品質は8.6\%の翻訳文について改善された.意訳から生成される翻訳知識の適用条件を厳しくしたため,翻訳知識カバー率は低下したが,このことが誤訳の抑制に貢献したためである.いずれの構築方法も,ベースに比べ,BLEUスコアまたは主観品質が向上しており,対訳対応率を利用した翻訳知識構築は,機械翻訳品質向上に効果があると言える.
\section{おわりに}
本稿では,対訳コーパス中に含まれる翻訳の多様性を,制限対訳によって機械翻訳に適した対訳に制限することを提案した.制限対訳の指標として,直訳性に着目し,直訳性を測定するスコアとして,対訳対応率を定義した.対訳対応率を用いて対訳文のフィルタリングを行い,低直訳対訳を排除することにより,翻訳品質を若干向上させることができる.対訳対応率は,対訳文の直訳性を測定できるだけでなく,部分文(句)の直訳性も測定することができる.言い換えると,対訳を機械翻訳に適した部分文とそれ以外に分割することができる.このことを利用し,対訳文を直訳部分と意訳部分に分割し,意訳部分から獲得される翻訳規則の適用条件を厳しくすることにより,主観評価では約8.6\%の文について翻訳品質を向上させることができた.今回は直訳性のみに着目したが,制限対訳の指標としては他にも訳語一義性,文脈自由性が考えられる.これらの指標も組み込むことにより,言い換え表現が減少し,翻訳品質はさらに向上できると推測される.\acknowledgment類語新辞典分類体系の研究利用を許可してくださった,(株)角川書店に感謝いたします.また,本研究を進めるにあたって有意義な議論をさせていただいたATR音声言語コミュニケーション研究所の皆様,および奈良先端科学技術大学院大学情報処理学科自然言語処理講座の皆様に感謝いたします.なお,本研究は通信・放送機構の研究委託「大規模コーパスベース音声対話翻訳技術の研究開発」により実施したものです.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Brown,Pietra,Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{Brown:SMT1993}Brown,P.~F.,Pietra,S.A.~D.,Pietra,V.J.~D.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofMachineTranslation:ParameterEstimation\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),263--311.\bibitem[\protect\BCAY{古瀬,山本,山田}{古瀬\Jetal}{1999}]{Furuse:TDMT1999j}古瀬蔵,山本和英,山田節夫\BBOP1999\BBCP.\newblock\JBOQ構成素境界解析を用いた多言語話し言葉翻訳\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(5),63--91.\bibitem[\protect\BCAY{Huijsen}{Huijsen}{1998}]{Huijsen:ControlledLanguage1998}Huijsen,W.-O.\BBOP1998\BBCP.\newblock\BBOQControlledLanguage---AnIntroduction\BBCQ\\newblockIn{\BemProceedingsoftheSecondInternationalWorkshoponControlledLanguageApplications(CLAW-98)},\BPGS\1--15.\bibitem[\protect\BCAY{今村}{今村}{2002}]{Imamura:PhraseAlignment2002j}今村賢治\BBOP2002\BBCP.\newblock\JBOQ構文解析と融合した階層的句アライメント\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(5),23--42.\bibitem[\protect\BCAY{Imamura}{Imamura}{2002}]{Imamura:PatternGeneration2002}Imamura,K.\BBOP2002\BBCP.\newblock\BBOQApplicationofTranslationKnowledgeAcquiredbyHierarchicalPhraseAlignmentforPattern-based{MT}\BBCQ\\newblockIn{\BemProceedingsofthe9thConferenceonTheoreticalandMethodologicalIssuesinMachineTranslation(TMI-2002)},\BPGS\74--84.\bibitem[\protect\BCAY{Kikui,Sumita,Takezawa,\BBA\Yamamoto}{Kikuiet~al.}{2003}]{Kikui:BTECandMADCorpus}Kikui,G.,Sumita,E.,Takezawa,T.,\BBA\Yamamoto,S.\BBOP2003\BBCP.\newblock\BBOQCreatingCorporaforSpeech-to-SpeechTranslation\BBCQ\\newblockIn{\BemProceedingsofEuroSpeech2003},\BPGS\381--384.\bibitem[\protect\BCAY{Melamed}{Melamed}{2000}]{Melamed:WordAlignment2000}Melamed,I.~D.\BBOP2000\BBCP.\newblock\BBOQModelsofTranslationalEquivalenceamongWords\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf26}(2),221--249.\bibitem[\protect\BCAY{Menezes\BBA\Richardson}{Menezes\BBA\Richardson}{2001}]{Menezes:PAandTranslation2001}Menezes,A.\BBACOMMA\\BBA\Richardson,S.~D.\BBOP2001\BBCP.\newblock\BBOQAbestfirstalignmentalgorithmforautomaticextractionoftransfermappingsfrombilingualcorpora\BBCQ\\newblockIn{\BemProceedingsofthe`WorkshoponExample-BasedMachineTranslation'inMTSummitVIII},\BPGS\35--42.\bibitem[\protect\BCAY{Meyers,Kosaka,\BBA\Grishman}{Meyerset~al.}{2000}]{Meyers:PAandTranslation2000}Meyers,A.,Kosaka,M.,\BBA\Grishman,R.\BBOP2000\BBCP.\newblock\BBOQChart-BasedTranslationRuleApplicationinMachineTranslation\BBCQ\\newblockIn{\BemProceedingsofCOLING-2000},\BPGS\537--543.\bibitem[\protect\BCAY{Mitamura\BBA\Nyberg}{Mitamura\BBA\Nyberg}{1995}]{Mitamura:ControlledLanguage1995}Mitamura,T.\BBACOMMA\\BBA\Nyberg,E.~H.\BBOP1995\BBCP.\newblock\BBOQControlled{English}forKnowledge-Based{MT}:Experiencewiththe{KANT}System\BBCQ\\newblockIn{\BemProceedingsofTMI-95}.\bibitem[\protect\BCAY{Mitamura,Nyberg,\BBA\Carbonell}{Mitamuraet~al.}{1991}]{Mitamura:ControlledLanguage1991}Mitamura,T.,Nyberg,E.~H.,\BBA\Carbonell,J.~G.\BBOP1991\BBCP.\newblock\BBOQAnEfficientInterlinguaTranslationSystemforMulti-lingualDocumentProduction\BBCQ\\newblockIn{\BemProceedingsofMachineTranslationSummitIII},\BPGS\55--61\Washington,DC.\bibitem[\protect\BCAY{大野,浜西}{大野\JBA浜西}{1984}]{Thesaurus1984j}大野晋,浜西正人\BBOP1984\BBCP.\newblock\Jem{類語新辞典}.\newblock角川書店.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni-EtAl:2002:ACL}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQ{BLEU}:aMethodforAutomaticEvaluationofMachineTranslation\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\BPGS\311--318.\bibitem[\protect\BCAY{Takezawa,Sumita,Sugaya,Yamamoto,\BBA\Yamamoto}{Takezawaet~al.}{2002}]{Takezawa:PBCorpus2002}Takezawa,T.,Sumita,E.,Sugaya,F.,Yamamoto,H.,\BBA\Yamamoto,S.\BBOP2002\BBCP.\newblock\BBOQTowardaBroad-coverageBilingualCorpusforSpeechTranslationofTravelConversationsintheRealWorld\BBCQ\\newblockIn{\BemProceedingsoftheThirdInternationalConferenceonLanguageResourcesandEvaluation(LREC2002)},\BPGS\147--152.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{今村賢治}{1985年千葉大学工学部電気工学科卒業.同年日本電信電話株式会社入社.2000年より,ATR音声言語通信研究所主任研究員,現在に至る.主として自然言語処理の研究・開発に従事.情報処理学会,電子情報通信学会,ACL各会員.}\bioauthor{隅田英一郎}{1982年電気通信大学大学院計算機科学専攻修士課程修了.1999年京都大学工学博士.ATR音声言語コミュニケーション研究所主任研究員.自然言語処理,機械翻訳,情報検索,並列処理の研究に従事.情報処理学会,電子情報通信学会,ACL各会員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒業.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.情報処理学会,人工知能学会,日本ソフトウェア科学会,認知科学会,AAAI,ACL,ACM各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V14N04-03 | \section{はじめに}
\label{はじめに}言語処理技術を利用した文章の推敲や校正の支援に関する研究が行われている.この研究分野を次の5段階に分けて考える.\begin{description}\item[表記レベル]誤字の検出と修正,表記揺れの指摘など.\item[統語レベル]統語構造の複雑さに起因する読みづらさの指摘など.\item[意味レベル1]欠落した格要素の推定や,照応先の特定が困難な場合の指摘.\item[意味レベル2]情報不足(論理の飛躍や説明が不足しているもの),情報過多(表現が冗長)の指摘.\item[文脈・構成レベル]文間のつながりに関する理解しづらさの指摘.文の構成による論旨の展開についての指摘など.\end{description}まず,「表記レベル」に関しては,自然言語処理の教科書\cite{tanaka}に詳しく解説されているように,研究開発が完成段階に達し\cite{ibuki},コンピュータのアプリケーションソフトとして実装されている\cite{kasahara}.次の「統語レベル」に関しても,係り受けの複雑さに起因する読みづらさを指摘し,書き換え候補を生成する研究が行われ,応用段階に到達している\cite{yokobayashi}\cite{suganuma2006}.以上の「表記レベル」と「統語レベル」の課題に対しては,文を言語解析し,その際の解析困難性の程度を誤りや読みづらさの指標にするという手法が広く用いられている.この手法が使われる理由は,表記レベルと統語レベルに対応した言語解析である形態素解析および係り受け解析の現状の解析精度が十分に高いためであると考えられる.それに対し,次の「意味レベル1」では欠落した格要素の推定や照応詞の照応先の特定の困難さを算出する必要がある.しかしながら,それに対応した格解析や照応解析といった意味解析技術の精度が現状では不十分なため,解析困難の理由が,解析技術の精度不足に起因するのか,原文側の問題に起因するのか区別がつかず,指摘の要否判定ができない.さらに,「意味レベル2」に含まれる情報不足や情報過多の指摘に関しては,対応する言語解析技術も定まっておらず,今後の技術と考えられている.このように,「意味レベル1,2」やその先の「文脈・構成レベル」の検出・支援の技術は研究が進展していないのが現状である.本論文は,「意味レベル2」に含まれる情報不足と情報過多の指摘のうち情報不足の指摘を扱う.以下,文章作成の理論の中で,この課題の位置付けを考える.言語表現とそれを用いる使用者や文脈との関係を研究する分野である語用論\cite{Green}と会話における意志疎通の原理を扱ったGriceの理論\cite{Grice}がある.これはコミュニケーションが成り立つための原理と条件を与える協調の原理についての内容であり,仕事文(仕事に用いる文を仕事文と称する\footnote{本論文では,岩波新書「仕事文の書き方」\cite{高橋昭男}にならい,仕事の場面で用いる文を仕事文と呼ぶ.これに近い概念の「論説文」は,仕事目的以外の,例えば教育用の論説文もあるため,仕事文と完全には一致しない.}.)が満たすべき条件を与える基礎理論である.協調の原理に従うために,いくつかの特定の条件(格率という)に従わなければならない.格率は量,質,関係,様態の4カテゴリにまとめられる.そのうちの量に関して,次の2つの格率に従う必要がある.\begin{enumerate}\item要求に見合うだけの情報を与える発言を行う.\item要求されている以上の情報を与えるような発言を行ってはならない.\end{enumerate}(1)の格率を満たさなければ,情報不足の問題が生じ,(2)の格率を満たさなければ,情報過多の問題を生じる.このうち,本論文で扱う課題は,量に関する1つ目の格率を満たさないために生じる情報不足の課題である.文章講座に関する一般書籍にも情報不足に関する解説が見られる.例えば書籍「仕事文の書き方」\cite{高橋昭男}では,仕事文において正確な文章を書くために,情報不足に注意することを述べている.この書籍では情報不足による論理の飛躍の例として,次に示す入学用ランドセルの広告文を取り上げている.\vspace{10.5pt}\begin{center}\fbox{\parbox{38zw}{ここ数年,児童の数が急激に減っています.そのため,品不足になる恐れがありますので,お早めにお求めください.}}\end{center}\vspace{10.5pt}\noindent第1文と第2文の間に論理の飛躍があって読みづらいため,間に言葉を補い,次のように修正すべきと述べている.\vspace{10.5pt}\begin{center}\fbox{\parbox{38zw}{ここ数年,児童の数が急激に減っており,{\bfそれに対応して,メーカーでは,製造数を大幅に減らしています.このような事情から,人気商品については,}品不足になる恐れがありますので,お早めにお求めください.(文字強調筆者)}}\\\end{center}\vspace{10.5pt}量の格率の2条件を満足しないために生じる情報不足と情報過多の問題の中で,本研究では情報不足の問題のみを扱い,情報過多の問題は扱わない.その理由について述べる.本研究では,ビジネス分野の文章作成支援を目指して,仕事文を対象とする.そのため,情報不足の場合には,文が難解になることに加え,論理の飛躍によって誤解を生じさせると言う深刻な事態を招くのに対し,情報過多の場合には,冗長な情報を無視するのに読解の負担がかかるものの,誤解を生じる可能性は低いため,深刻さの程度は低い.したがって,コンピュータによる文章推敲支援の課題として,情報不足の検出と指摘の課題を扱うことが有用であると考える.本研究では,この課題を情報不足が読者に受容されるかどうかを判定する問題として扱い,コーパスベースの統計的言語処理に基づくアプローチを用いた手法を開発する.
\section{全体概要}
詳細説明に入る前に,本章では,実験に用いる文を準備する段階から,機械学習アルゴリズムを用いた自動判定に至る流れの概略を説明する(図\ref{fig:全体概要}).\begin{figure}[b]\includegraphics[width=\textwidth]{14-4ia3f1.eps}\caption{全体概要}\label{fig:全体概要}\end{figure}原文として,新聞記事を基にして作られた京大コーパス\footnote{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/corpus.html}を用いる.京大コーパスは,文に,形態素情報と係り受け情報が付与されているので,係り受け構造を利用して連体修飾節あるいは連体修飾句の場所を認定する.その部分を欠落させた文を作成し,被験者判定用の文とする.この文を被験者に提示して,欠落箇所に情報不足を感じるかどうか判定してもらう.被験者数は4名である.判定対象とする文の数は約1,800文である.全員が各々これら約1,800文を判定する.通常,被験者毎の判定結果は異なる.そのため,OK判定(情報不足なし)とNG判定(情報不足あり)の比率は1対1にならない.本研究は,機械判定の要素技術を確立する段階の研究であるため,手法の性能を評価する際の容易さから,次のように,OKとNG判定が1対1になるようなデータセットを作成する.すなわち,評価データから,各被験者毎に,OK判定とNG判定の比率が同じになるように文を抜き取り,データセットを作成する.そのように作成された被験者毎のデータセットは,判定の正解値に関するベースラインが50{\kern0pt}%である.次の段階は,機械判定に用いる素性値の算出である.素性は全部で11素性である.その中の1つは,例えば,各文の情報不足評価位置での文の滑らかさ等に関する素性情報である.それらの素性値を使って,10-foldcrossvalidation法に基づく学習と判定を行う.機械学習アルゴリズムを用いた自動判定の手法としてSVM(SupportVectorMachines)を用いる.なお,4名の被験者による判定を各々の正解値としたため,正解率も4通りが得られる.一方,被験者の判定の一致率によって手法の精度の上限を推定し,それを基に正解率を評価する.
\section{課題文と正解データの作成}
\subsection{課題文の作成手順}\label{課題文の作成手順}本研究では毎日新聞の記事に形態素・構文情報などの各種言語情報を人手で付与したテキストコーパスである京大コーパスを用いて課題文の作成を行った.京大コーパスを利用するのは次の理由による.\begin{itemize}\item自動的に付与した形態素,構文解析に関して人手修正を行っているため,解析誤りが少ない.\item京大コーパスの素材となった毎日新聞記事は新聞記事であり,本研究が対象とする仕事文に相当する.また,文の品質が高く,機械処理向きの優れた素材である.\end{itemize}次に,京大コーパスから機械処理で課題文を作成する方法について説明する.本研究では原文のある部分を削除する加工を行って情報不足を生じさせた文を生成する\footnote{場合によっては,曖昧な部分が削除されることによって,文が明確になる可能性もある.しかし,文意には立ち入らず機械処理によって文を生成する.}.削除する部分の選定基準を以下のように設定する.\begin{description}\item[連続した文字列]削除する部分は文中で連続した文字列部分である.\item[1文につき1箇所]削除する部分の数は1文につき最大1箇所に限定する.この条件を満たさない文は採用しない.削除する部分の候補が1文につき複数存在する場合,文頭に近い方1箇所を採用する.理由は,1文中に複数箇所ある場合に,後続の評価が,前の評価結果に影響される可能性を否定できないため,その影響を避けるためである.\item[連体修飾部]削除対象を連体修飾部(本論文では連体修飾句と連体修飾節を合わせて連体修飾部と称する)に限定する.連用修飾を扱わない理由について述べる.連体修飾と連用修飾では機械判定に使う素性が少し異なる.そのため,判定の正解率を高めるには,素性のセットを入れ換えて個々に処理することになる.しかし,解析の流れが煩雑になるだけで,判定手法の基本的な枠組は同一であるため,今回の研究では連体修飾部に限定して検討する.機械処理で連体修飾部を求めるには,係り受け解析結果から認定する(図\ref{fig:連体修飾部}参照).同図(b)は連体修飾部が再帰的な修飾状態(以下,再帰修飾と呼ぶ)になっている例を示す.再帰修飾の場合は,最も外側の修飾部を採用する.\item[係り先の品詞制限]連体修飾の係り先である名詞の種類を一般名詞に限定する.その理由を述べる.名詞は一般名詞,固有名詞,形式名詞,その他(数詞,時相名詞,副詞的名詞)に分かれる.情報不足判定のアルゴリズムを構築するにあたって,これらの種類によってアルゴリズムが異なる.このうち,出現頻度は一般名詞が非常に多く\footnote{京大コーパスの600記事中に,名詞が54,061個含まれ,そのうちの70{\kern0pt}%が一般名詞,14{\kern0pt}%が固有名詞,2%が形式名詞,その他(数詞,時相名詞,副詞的名詞)が4%である.},実用上の観点からも一般名詞を扱うのが有利である.次に判定処理を考えると,固有名詞では,初めに出現した固有名詞には説明が必要で,次回以降は不要であるといった判定法が有効であると予想される.また,形式名詞は指示照応の問題が深く関係し,先行文脈に関する文脈処理の判定問題となる.後述する通り,本研究では文脈の要素を除外して1文内で完結した主観評価と機械判定を行うため,固有名詞と形式名詞を扱うと,この基準を超えることになる.以上の理由から一般名詞に限定する.\item[直前文節が存在]連体修飾部を削除したとき,その位置の前に文節が存在するという条件を課す.このようにした理由は,本研究で扱う素性が文節間のつながりに関する情報を利用するためである.\end{description}\begin{figure}[b]\begin{center}\includegraphics{14-4ia3f2.eps}\end{center}\caption{連体修飾部の認定}\label{fig:連体修飾部}\end{figure}以上の処理により,京大コーパスの初めの600記事から,1文に1箇所の評価箇所を含む課題文を作成した結果1,792文が得られた.評価は1文毎の評価で行う.被験者への文の提示と評価も1文単位で行い,機械判定も1文内の情報を基に行う.主観評価において,文脈上の影響を除外するために,文の提示順をランダムにした.\subsection{主観評価}機械学習アルゴリズムに基づく自動判定に用いる正解値を与えるために,被験者による主観評価を行う.成人男性4名によって評価を行った.評価にあたって,被験者に与えた教示は次の通りである.\begin{quote}新聞記事(毎日新聞1995年版)の文を素材として,加工を加えた文を読んでもらい主観評価して頂きます.1文ずつ文が表示され,評価してもらいますが,文毎に独立しており,文脈はありません.1文につき1箇所の評価箇所があり,「★」印がついています.この部分に,原文ではなんらかの文字が挿入されていましたが,それを欠落させています.この文を読み,ここに何か言葉を補った方が良いか,その必要はないかを評価していただきます.なお,文字を欠落させるにあたり,言語解析を行うことにより,文法的な誤りは生じないようになっています.従いまして,ここに何か言葉を補わないと文を理解する上で読み辛いかどうかの観点で評価して下さい.\end{quote}被験者に,初めの10問は練習用と断って評価してもらい,以降のデータ処理で使用していない.評価の際に,評価時間に制限は設けていない.総計1,792文を評価するのにおおよそ10数時間を要するため,被験者の判断で,数日に分けて評価した.\subsection{被験者間での主観評価の一致率}\label{label:主観評価の一致率}被験者間での主観評価の一致率を計算する.一致率を次のように定義する.\begin{equation}一致率=一致した数/全評価数\end{equation}ただし,計算は文単位で行う.4名の被験者から2名を選んだ6通りの組に対しての一致率は,表\ref{table:一致率}に示す通りである.全て,ほぼ,80{\kern0pt}%の一致率が得られた.また,主観評価の一致の程度を$\kappa$係数\cite{kappa}\cite{kappa2}で検証した.$\kappa$係数について簡単に説明する.2名の被験者がカテゴリ判定したデータのクロス集計結果を表\ref{table:行列定義}とするとき,$\kappa$係数は,$\kappa=(P_o-P_e)/(1-P_e)$で定義される.ここで,$P_o$は実際の一致割合(被験者A,BともにNGあるいは,ともにOK)であり,$P_o=(a+d)/N$である.$P_e$は被験者AとBの間に関連がない場合の各セルの期待値を足して全数で割った値であり,$P_e=(n_1m_1/N+n_2m_2/N)/N$である.$\kappa$係数の値により,一致の度合は表\ref{table:カッパ係数}のように評価される.今回の実験において,6通り全ての組に関し,表\ref{table:一致率κ}に示すように,``moderate''な一致の範囲であった.\begin{table}[t]\input{table1-2.txt}\end{table}\begin{table}[t]\input{table3-4.txt}\end{table}
\section{機械判定で用いる素性の定義}
\label{label:機械判定用の素性定義}文の受容性に関する機械判定を行うための識別器としてSVMを用いる.SVMは最大マージン原理を利用した2クラスの分類問題を解くための識別器であり,SVMは言語処理分野の他にも様々な分野に利用されている\cite{SVMapplication}.SVMの一般的な教科書としては\cite{Cristianini}\cite{Vapnik}がある.また,高い性能を持つSVMの性能に関係する汎化誤差の議論については,例えば「パターン認識と学習の統計学」6.4節\cite{Aso}等を参照されたい.素性として,以下で定義する11個の素性を用いる.11個のうちの3個は語彙表記と語の意味クラスに関する素性である.その他の8個は,大規模な生コーパスから計算した言語統計量を用いて計算した素性である.以上の枠組を模式図の形式で図\ref{fig:機械判定の枠組}に示す.\begin{figure}[t]\begin{center}\includegraphics{14-4ia3f3.eps}\end{center}\caption{機械学習アルゴリズムに基づく自動判定の枠組を示す模式図}\label{fig:機械判定の枠組}\end{figure}\subsection{語彙素性}はじめに,語彙に関する3つの素性について図\ref{fig:素性1}を参照しながら説明する.\begin{figure}[t]\begin{center}\includegraphics{14-4ia3f4.eps}\end{center}\caption{語彙素性の説明図}\label{fig:素性1}\end{figure}\begin{description}\item[評価文節先頭形態素の表記]本論文では図\ref{fig:素性1}に示すように,文中に存在する複数の文節のうち,評価位置の直後に来る文節を「評価文節」と呼ぶ.評価文節に含まれる複数の形態素のうち,先頭に位置する形態素の表記が本素性である.\item[評価文節先頭形態素の意味クラス]「評価文節先頭形態素の表記」と同じ形態素に対して,日本語語彙大系\cite{語彙大系}の意味クラスをツリー構造を持たない単なるカテゴリとみなして素性に割り当てたものである.複数の意味クラスを持つ場合,第1語義に対する意味クラスを用いる.\item[直前文節末形態素の表記]本論文では図\ref{fig:素性1}の中で示すように,文を構成する複数の文節のうち,評価位置の直前に来る文節を「直前文節」と呼ぶ.本素性は,直前文節に含まれる複数の形態素のうち,最後の形態素の表記である.\end{description}\subsection{語彙素性以外の素性}以下に示す8個の素性は,大規模な生コーパスから計算した統計量を用いて計算した素性である.大規模な生コーパスとして,2000年の毎日新聞記事を収めた「CD-毎日新聞2000\cite{mainichi}」1年分を用いる.形態素の分割には標準的な形態素解析ソフトであり,また,京大コーパスとの親和性がよいためJUMANを用いる.\subsubsection{$n$-gramに基づく素性}$n$-gramに基づく素性として次の5つを用いる(図\ref{fig:素性2}参照).この中の「評価文節の確率」以外は,欠落箇所におけるつながりの滑らかさに関する特性を表現している.\begin{figure}[b]\includegraphics[width=\textwidth]{14-4ia3f5.eps}\caption{$n$-gramに基づく素性の説明図}\label{fig:素性2}\end{figure}\begin{description}\item[トライグラムの同時確率]直前文節の最後の2つの形態素表記と評価文節先頭形態素表記の同時確率の底を10とする対数(以下,同様)である.\item[トライグラムの条件付確率]直前文節の最後の2つの形態素表記が出現したという条件の下で,評価文節先頭形態素表記の出現する条件付き確率の対数である.\item[スキップバイグラム]評価文節先頭形態素とそこから2形態素前の形態素の出現する同時確率の対数である.通常,評価文節先頭形態素の直前形態素に助詞が来る確率が高い.そのため,評価文節先頭形態素と意味的な共起関係を表現する特徴量になりにくい.そこで,評価文節先頭形態素の直前の形態素の代わりに,2形態素前の形態素を扱う.\item[評価文節の確率]評価文節を構成する形態素列の出現確率(形態素の同時確率の対数)である.ただし,形態素数の上限を3形態素(トライグラム)までとする.\item[逆方向バイグラム]評価文節先頭形態素表記が出現したという条件の下で直前文節の最後の形態素表記の出現する条件付き確率の対数である.\end{description}\subsubsection{NoisyChannelModelに基づく素性}誤字の修正の問題にNoisyChannelModelに基づく手法が用いられている\cite{Kerninghan}.本素性はNoisyChannelModelの考え方にヒントを得たものである(図\ref{fig:noisy}参照).図\ref{fig:素性3}(a)に示すように,形態素の並び$\ldots,W_{-2},x,W_0,\ldots$を観測したとする.ここで,$x$はどんな形態素でも良い.$W_0$が与えられたという条件の下で,2つ前の形態素が$W_{-2}$である条件付き確率を$p(W_{-2}\vertW_0)$で表す.全ての語$\tildeW$に対して$\ldots,\tildeW,x,W_0,\ldots$となる確率を$p(\tildeW\vertW_0)$で表す.次に,$p(\tildeW\vertW_0)$が降順になるように$\tildeW$の並び順を定める.このときの並び順を${\tildeW}^{(1)},{\tildeW}^{(2)},\ldots,{\tildeW}^{(n)}$とする.すると,$W_{-2}$は$\tildeW^{(1)},\ldots,\tildeW^{(n)}$のいづれかに位置する.次に,$p(\tildeW\vertW_0)$から累積分布$P(\tildeW\vertW_0)$を次式で計算する.\begin{equation}P(\tildeW\vertW_0)=\sum_{W=\tildeW^{(1)}}^{\tildeW}p(W\vertW_0)\end{equation}累積分布の説明図を同図(a)中の右図に示す.この中で$W_{-2}$に対応する累積確率$P(W_{-2}\vertW_0)$が本素性(NoisyChannelModelに基づく素性)である.\begin{figure}[b]\begin{center}\includegraphics{14-4ia3f6.eps}\end{center}\caption{NoisyChannelModelに基づく素性}\label{fig:noisy}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{14-4ia3f7.eps}\end{center}\caption{NoisyChannelModelに基づく素性計算}\label{fig:素性3}\end{figure}以下,本指標の性質について図と例を用いて説明する.同図(b)のイラストに示す.例として,$W_0$が「今日」で$W_{-2}$が「日」と「直径」の2つについて説明する.各々の文脈は「…日○今日…」と「…直径○今日…」である.ここで,「○」はこの位置を何か1文節が占めていることを示している.$W_0$が定まると,それに従って累積分布$P(\tildeW\vertW_0)$のカーブも固定される.上記の例の場合,$W_0=「今日」$に対して,共起しやすい語である$W_{-2}=「日」$は$x$軸で左端(上位14位)に位置し,共起しにくい語である$W_{-2}=「直径」$は$x$軸の右端(上位362位)に位置する.累積分布のカーブであるため,$W_{-2}$が$x$軸上の上位(左側)に位置すると,指標は小さな値になる.ここの例で「…日○今日…」という自然な文脈に対応する.一方,$W_{-2}$が$x$軸上の下位(右側)に位置すると,指標は大きな値になる.ここの例で「…直径○今日…」という不自然な文脈に対応する.\subsubsection{エントロピーに基づく素性}ここで扱うエントロピーでも,他の素性同様,欠落評価位置を挟んだ前後の連結性を扱う.具体的には,連続した2形態素についての条件付き確率に基づくエントロピーとして,文頭から文末に向かう順方向エントロピーと文末から文頭に向かう逆方向エントロピーの2つを扱う(図\ref{fig:素性4}参照).\begin{figure}[t]\includegraphics[width=\textwidth]{14-4ia3f8.eps}\caption{エントロピーに基づく素性の説明図}\label{fig:素性4}\end{figure}\begin{description}\item[順方向エントロピー]直前文節の最後の形態素$W_{-1}$が与えられたという条件の下で,評価文節先頭形態素$W_0$の出現確率に基づくエントロピー(ただし,対数の底は10)である.\[H_f=-\sum_{W_0\in\Omega(W_{-1})}p(W_0\vertW_{-1})\log_{10}p(W_0\vertW_{-1})\]ただし,\\$\Omega(W)$:形態素$W$の直後に出現する形態素の集合\item[逆方向エントロピー]評価文節の先頭の形態素$W_0$が与えられたという条件の下で,直前文節の最後の形態素$W_{-1}$が出現する確率に基づくエントロピー(ただし,対数の底は10)である.\[H_b=-\sum_{W_{-1}\in\Omega'(W_{0})}p(W_{-1}\vertW_{0})\log_{10}p(W_{-1}\vertW_{0})\]ただし,\\$\Omega'(W)$:形態素$W$の直前に出現する形態素の集合\end{description}\begin{table}[b]\input{table5.txt}\end{table}いくつかの語でエントロピーを計算した例を表\ref{table:entropy}に示す.特定の文脈で使われる語はエントロピーが小さく,いろいろな文脈で使われる語はエントロピーが大きい.例えば,「記事」は「関連記事」,「この記事」という文脈で使われることが多いためエントロピーが小さいのに対し\footnote{本論文においてエントロピーの計算に使われるバイグラム,すなわち2形態素のつながりにおける条件付き確率の計算では,2000年1年分の毎日新聞記事データを使っているため,新聞記事特有の文脈の影響を受けている.},「ニュース」ではそのような文脈上のつながりがなく,エントロピーが少し大きくなる.「電池」は,「太陽電池」,「燃料電池」という文脈が非常に多いため,ここで示した6語の中で最小の値となっている.一方,「教育」,「文化」はいろいろな文脈で使われるため,エントロピーが大きい.「首相」は村上首相(人名+首相)のような特定の文脈で使われる場合と,そうでない場合が半々程度出現し,エントロピーは中程度の大きさになる.本節で導入するエントロピー指標は,文脈による次の語(順方向エントロピーの場合には次の語で,逆方向エントロピーの場合には前の語)の予測が容易か困難かの指標であり,連体修飾部の欠落の受容性と次の関係を持つ.\begin{description}\item[予測が容易]説明がなくても分かる(連体修飾部不要).エントロピー小.\item[予測が困難]十分に説明してほしい(連体修飾部が必要).エントロピー大.\end{description}
\section{機械判定の正解率測定結果}
機械判定を行うにあたり,データセットに含まれる「補う必要なし」(以下,正例と表記する)と「補う必要あり」(以下,負例と表記する)の数が等しくなるようにサンプルの抜き取りを行って調整する.具体的には,全被験者とも,負例が少なかったので,正例の中からランダムに,負例の数のサンプルを抽出して,正例と負例のサンプル数が等しくなるようにデータセットを調整する.そのようにして得られた被験者毎のサンプル数を図\ref{fig:サンプル数}および表\ref{table:サンプル数}に示す.この操作により,サンプル数800弱の被験者2名と,サンプル数1,100弱の被験者2名の2グループに分けた.以下の機械判定では,調整後のデータセットを基に,学習と判定を行う.\begin{table}[b]\input{table6.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{14-4ia3f9.eps}\end{center}\caption{機械判定用のデータセットのサンプル数}\label{fig:サンプル数}\end{figure}\begin{figure}[t]\begin{minipage}{199pt}\begin{center}\includegraphics{14-4ia3f10.eps}\end{center}\caption{機械判定の学習曲線}\label{fig:学習曲線}\end{minipage}\hfill\begin{minipage}{171pt}\vspace{13pt}\begin{center}\includegraphics{14-4ia3f11.eps}\end{center}\caption{機械判定の正解率}\label{fig:正解率}\end{minipage}\end{figure}\begin{table}[t]\input{table7.txt}\end{table}前章で述べた素性を用い,分類器として自然言語処理で広く使われるSVMを使って判定を行った.SVMのパラメータとして線形カーネルを用い,ソフトマージンでコスト$C=1$を用いた\footnote{ソフトウェアパッケージとしてkernlab\cite{kernlab}を用いた.}.機械学習アルゴリズムを用いた自動判定の評価にあたり10-foldcrossvalidationを行った.学習コーパスの量と正解値の関係,すなわち学習曲線を図\ref{fig:学習曲線}に示す.課題の正解値は,4名の主観評価中の1名に関するデータを用いる.前述のようにデータセット中の正例と負例の比率を等しくすることによって,ベースラインを0.5に設定してある.ベースラインの値は,正例と負例の2値判定をランダムに行った場合の正解率に相当する.各被験者に対し,他の3名との一致率の相乗平均値を上限値の目安として横線で示す\footnote{\ref{label:主観評価の一致率}で計算した一致率は全データに対するものであるが,ここの一致率はベースラインが50{\kern0pt}%になるようにデータ抽出したデータセットに対する一致率であり,僅かに異なる.}.学習量に対する正解率のグラフを調べたところ,素性を語彙素性のみにすると,学習サンプル数の増加に伴って正解率が増加しており,ここで調べたサンプル数の範囲では,まだ飽和していない.素性を統計量に関する素性のみにすると学習サンプル数に依存せず,同じ値となり,語彙素性と統計量の双方を用いた場合の正解率は,語彙素性のみの正解率および統計量のみの正解率を上回った(図\ref{fig:学習曲線}).次に,被験者毎の正解率を図\ref{fig:正解率},表\ref{table:正解率}に示す.図中に,ベースラインおよび各主観被験者に対し,他の3名との一致率の相乗平均値を上限値の目安として横線で示す.被験者間での正解率に大きな違いはない.4名の正解率の平均値はベースライン0.5,上限0.76に対し,0.67であった.
\section{機械判定のパラメータ検討}
本論文では,機械学習アルゴリズムとして正解率の高さから定評のあるSVMを用いた.しかし,SVMだけを対象としたのでは,達成される正解率の内訳が,選択された素性に基づく性能によるのか機械学習アルゴリズムの性能によるのか区別がつかない.そこで,機械学習アルゴリズムの中で基本的な手法であるKNN法(k-nearestneighbormethod)を使用した場合の正解率を求めてSVMの正解率と比較し,同じ素性でも,機械学習の違いによる性能向上分の程度を調べる\footnote{ソフトウェアパッケージとしてWeka\cite{Weka}の中のIBkを用いた.}.その結果,ベースライン0.5に対し,KNN法で0.65,SVMで0.67となった.したがって,性能のうちの大部分は素性によって実現されたものと考えられる.なお,KNN法はパラメータKを含むので,網羅的に調べるため,Kを1.5の冪乗(1,2,3,5,7,11,...,437)で変化させて正解率の最大を求めた.次に,SVMを使う場合の,素性選択による影響を調べるために,素性を1つずつ削除した場合の正解率を調べる.それによって,素性選択の改良による性能向上の余地がどの程度あるのかを調べる.その結果,逆方向バイグラム素性を削減したときに最高値を示し,正解率0.69であった.なお,正解率が最も低下したのは,順方向エントロピーを削除したときで,正解率0.65であった(表\ref{table:素性削減}).\begin{table}[t]\input{table8-9.txt}\end{table}最後に,本論文で導入した11素性を各々単一に用いた場合の正解率を調べる.単体性能の最高を示す素性が「語の表記」で0.66であり,全体を使った性能が0.67である.今回新規な素性としてNoisyChannelModelに基づく素性を導入しているが,単体での正解率は0.52であり,全体中,中間的な性能であった(表\ref{table:単一素性}).先の「素性を1つずつ削除」する実験でこの素性を削除した場合に,正解率の低下は中程度であり,補助的な役割は果たしている.主要な素性を補助するために導入した素性の場合,主要な素性無しで,補助的な素性のみを使っても,本来,高い性能は得られない.例えば,順方向エントロピーがこれに該当する.先の「素性を1つずつ削除した場合の正解率」では,削除による正解率低下が最も大きく,重要であるが,それに対して,単一で用いた場合,性能の低い順に2位である.以上の結果,素性選択の方法による正解率への影響を調べた結果,本実験で用いる素性に対して,素性選択を調整すると正解率は多少向上するが,その程度は大きくないことが判明した.
\section{考察}
機械判定の正解率として,ベースライン50{\kern0pt}%,人間の評価のバラツキから定義した上限\footnote{人間の評価のバラツキの観点から,各被験者に対し,他の3名との一致率の相乗平均値で定義}76{\kern0pt}%に対し,67{\kern0pt}%の正解率を得た.上限に近い70{\kern0pt}%前半が正解率の最終目標になるであろうから,今回の正解率67{\kern0pt}%は,それと比べ,ある程度近い値に達していると思われる.なお,素性の削減実験で全素性から「逆方向バイグラム」の素性を削減したときに,正解率の最高値69{\kern0pt}%を記録したが,今回のデータに限って偶然高い値になった可能性もあり,また,素性選択の組合せは膨大で正解率の最大値を網羅的に調べるのは困難なため,パラーメータ検討前の正解率を本手法の正解率として代表させた.以下では,実験に用いた素性について,語彙素性とそれ以外の素性の2種類に分けて考察する.まず,語彙素性における機械判定による正解率について図\ref{fig:学習曲線}の学習曲線を参照すると,学習サンプル数が少ないときにベースライン手法とほぼ同一であり,十分多いサンプル数を機械学習に与えた場合に全素性とほぼ同等の正解率で判定できることが確認できた.これは語彙素性として使用したものが主に形態素の表記であったため,素性の異なり数が非常に多く,少ない学習サンプル数では十分学習できなかったためと考える.次に,語彙素性以外の素性について考察する.語彙素性以外の素性は8種類ある.これらは主に,$n$-gramに基づく素性など,語のつながりの滑らかさを反映した統計量であり,新聞記事1年分の生コーパスから求めたものである.図\ref{fig:学習曲線}の学習サンプル数は,被験者判定による学習サンプル数であり,統計量を求める際の生コーパスの量とは異なる.そのため,学習により,判定に用いられる素性に対する重み係数が調整されるものの,学習サンプル数による効果は小さい.本研究のように,被験者の主観評価に基づいて正解判定データを整備し,機械学習ベースの判定処理を行うという研究スタイルの場合,主観評価に関わる実験デザインの善し悪しが研究の成否に大きく影響する.本研究では,被験者評価用の文を作成する際に,\ref{課題文の作成手順}で述べたように,1文毎の評価に限定したり,1文内の連体修飾部を1箇所に限定するなど,様々な条件設定を工夫して,被験者間の一致度が高くなるよう配慮した.結果的に,被験者間の一致率が約8割で$\kappa$係数がmoderateという十分高い一致率となり機械判定処理に成功した.近年研究の盛んなテキスト自動要約の研究では,主観評価結果のバラツキの問題が大きいため,評価法に関して様々な研究が行われ\cite{難波},評価型ワークショップNTCIRのTSCにおいて,評価法をいかにすべきかの議論がなされている\cite{NTCIR}.本研究での被験者間の一致率を,従来研究における別のタスクの場合と比較してみる.Maniらの要約の研究\cite{Mani99}では,4名の被験者で,要約文(もしくは原文)がトピックスに適合する検索結果かどうかを判定してもらう適合性判定(二者択一)を行い,被験者間の一致率を調べている.その結果,2名1組での一致率は69{\kern0pt}%で,$\kappa=0.38$であった.また,要約文もしくは原文が,5カテゴリまたはその他のどれに該当するかを答える被験者実験の結果,2名1組での一致率は56{\kern0pt}%で$\kappa=0.29$であった.平尾らの重要文抽出の研究\cite{平尾}では,要約率を30{\kern0pt}%に設定したときの被験者間の重要文の一致に関し,2名1組の$\kappa=0.3$程度となっている.なお,この研究では,231記事,4,013文からなる文書データに対し,6名の被験者で,重要文の人手判定を行い,大規模な機械学習用の正解値データセットを作成している.また,小林らの音声要約における重要文抽出の研究\cite{小林}では,学会講演の音声に対する,人間による重要文抽出(要約率33{\kern0pt}%)の一致率を調べている.2名の評価者間の$\kappa$係数について,10組の平均値は$\kappa=0.286$である.重要文抽出に関しては,$\kappa=0.3$程度(Fair)である.以上の要約に関連した様々なタスクでの被験者間の一致率と比較して,本研究のタスクにおける被験者間の一致率は,$\kappa$が0.46〜0.56(全てmoderate)であり,一致率が高いと言える.要約文の品質評価法に関して,外的評価という方法がある.例えば,適合性判定のタスクを設定して,様々な品質の要約文で,タスクの達成時間を計測し,達成時間を短縮できた要約文の品質が高いと判定する方法である.この評価方法は競技型ワークショップSUMMACで用いられたが,評価の実施が高価だったことに加えて,時間の制限から原文書を比較的短いものに限定しており,評価の妥当性の疑問が問題点として挙げられている\cite{自動要約}.本研究では,被験者間のばらつきの少ない実験条件を整備することに留意し,被験者間の一致率約8割で$\kappa$係数がmoderateになる高い一致率を得た.その結果,機械判定の処理が成功した.次に,今回の課題設定に関する特殊性を吟味する.本研究で扱った連体修飾部の追加の要否判定(換言すると欠落に対する受容性判定)の課題には,意味レベルと表層レベルとが混在している.これらのレベルの構成比率についてはデータセット中にある課題文を分析することで算出することが可能である.同様に,それらの分析を行った上で,各レベルに属する課題文の中で正解率が特に低いものに照準を合わせて,素性の選定を行うという対策も考えることが出来る.しかし,そのような個別対策に基づくアプローチは,コーパスベースの統計的言語処理と機械学習による枠組に合致せず,オープンテストによる正解率評価の公正性にも反する恐れもある.以上の観点から個別対策は行っていない.本研究の意義を一言で言えば,文章推敲支援の分野において,これまであまり研究が進んでいなかった「意味レベル2」(\ref{はじめに}節で定義)の課題を扱い,広く行われている統計的言語処理のアプローチで機械判定を行い,ある程度高い正解率を達成した点である.成功のポイントは,意味処理の課題を扱うに際して,主観評価の安定性を向上させるよう,実験デザインを工夫することによって,学習量の圧縮や,機械判定の正解値評価の部分を容易にした点である.
\section{関連研究}
\begin{figure}[b]\includegraphics[width=\textwidth]{14-4ia3f12.eps}\caption{酒井らの連体修飾節省略可能性評価の課題との比較}\label{fig:酒井}\end{figure}酒井らはテキスト自動要約における文内要約の要素技術として動詞連体修飾節の省略可能性に関する知識をコーパスから獲得する手法を提案している\cite{sakai}\cite{sakai2}.この研究は,本研究とも関連が深いので,両者の枠組の違いを図\ref{fig:酒井}に図示する.両者の似ている点は,文中のある部分の削除に対して,その受容性に関する評価指標を構築することが中心課題である点である.そのため,$n$-gram素性やエントロピー素性など,語の統計量に基づく素性を構築する上で,酒井らの手法を参考にした.一方,最も異なる点は,省略可能性評価の場合に,省略のない完全な文と省略のある文を生成できるのに対し,本研究の場合には,与えられた文は,全て連体修飾部を欠落させた文であり,原文は与えられず,復元出来ない点である.そのため,省略可能性評価の場合,完全な文と省略のある文を対比して指標を構築するというアプローチを取ることが出来るのに対し,本研究の場合,欠落のある文のみから評価指標を構築しなければならないという難しさがある.
\section{まとめ}
文章校正,推敲の支援に関する従来研究では,主に,タイプミス,構文構造の複雑さ,表記の揺れを指摘する手法など,表記レベルと統語レベルの手法に重点がおかれていた.一方,人間による文章の推敲の作業では,読みやすさを向上させるために,説明が不足していて論理展開が読み取りにくいと感じられる箇所を指摘する場面が多く見られ,コンピュータ支援に対するニーズは高い.しかし,これまで,このような課題は,意味処理レベルの困難な課題と考えられ,機械判定の対象として十分に研究されていなかった.本研究では,原文から連体修飾部を欠落させた文を生成し,被験者がその箇所に何か言葉を補った方が良いか,その必要はないかを評価してもらい,そのようにして作成した正解判定データを使って機械判定する.この課題設定に関して,人間の判定結果の一致率を調べた.その結果,4名の評定者による各1,792箇所の判定に関し,4名中2名ずつ,6通りの組合せについて,いずれもほぼ8割の高い一致率を示した.機械判定の主な素性として,語彙素性に関する素性3種,コーパスからの統計量に関する素性8種を用い,機械学習アルゴリズムに基づく自動判定の手法として,SVMを用いた.その際,ベースラインを50{\kern0pt}%にすべく,正例数と負例数が等しくなるようにサンプルの抽出を行い,928サンプル(4名の被験者の平均値)からなるデータセットを作成した.機械判定の正解率として,ベースライン50{\kern0pt}%,上限(人間の評価のバラツキから上限を定義)76{\kern0pt}%に対し,67{\kern0pt}%の正解率を得た.今回の実験上の制約の中で,1文毎で評価している点が最も大きな制約であろう.この制約を外し,文脈を含めて検討することが今後の課題である.その際,照応技術の進展に合わせて研究開発することが鍵となろう.また同様に,今回用いなかった技術として,格解析の技術がある.格要素の有無に関する情報は,情報不足の推定に有力な情報を与えることが期待できるため,格解析技術の進展に合わせて利用を検討すべきである.\acknowledgment本研究の一部は,文部科学省科学研究費特定領域研究(B)(2)16092213,および,21世紀COEプログラム「インテリジェントヒューマンセンシング」(豊橋技術科学大学)の援助により行われた.京大コーパス利用に関し,京都大学黒橋研究室と毎日新聞社に感謝いたします.日本語語彙大系使用に関して日本電信電話株式会社に感謝いたします.また,研究遂行に御協力いただきました豊橋技術科学大学増山研究室の助教酒井浩之氏,修士課程山本悠二氏他の方々,および実験被験者に感謝いたします.貴重な御指摘をいただきました査読者に感謝いたします.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{麻生\JBA津田\JBA村田}{麻生\Jetal}{2003}]{Aso}麻生英樹\JBA津田宏治\JBA村田昇\BBOP2003\BBCP.\newblock\Jem{パターン認識と学習の統計学},6.3\JCH,\mbox{\BPGS\77--80}.\newblock統計科学のフロンティア6.岩波書店.\bibitem[\protect\BCAY{Carletta,Isard,Isard,Kowtko,Doherty-Sneddon,\BBA\Anderson}{Carlettaet~al.}{1997}]{kappa2}Carletta,J.,Isard,A.,Isard,S.,Kowtko,J.~C.,Doherty-Sneddon,G.,\BBA\Anderson,A.~H.\BBOP1997\BBCP.\newblock\BBOQTheReliabilityofaDialogueStructureCodingScheme\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf23}(1),\mbox{\BPGS\13--31}.\bibitem[\protect\BCAY{Cristianini\BBA\Shawe-Taylor}{Cristianini\BBA\Shawe-Taylor}{2000}]{Cristianini}Cristianini,N.\BBACOMMA\\BBA\Shawe-Taylor,J.\BBOP2000\BBCP.\newblock{\BemAnIntroductiontoSupportVectorMachinesandotherkernel-basedlearningmethods}.\newblockCambridgeUniversityPress.\newblock(大北剛訳\BBOP2005\BBCP.\Jem{サポートベクターマシン入門}.共立出版.).\bibitem[\protect\BCAY{Green}{Green}{1989}]{Green}Green,G.~M.\BBOP1989\BBCP.\newblock{\BemPragmaticsandNaturalLanguageUnderstanding}.\newblockLawrenceErlbaumAssociates.\newblock(深田淳訳\BBOP1990\BBCP.\Jem{プラグマティックスとは何か}.産業図書.).\bibitem[\protect\BCAY{Grice}{Grice}{1989}]{Grice}Grice,P.\BBOP1989\BBCP.\newblock{\BemStudiesintheWayofWords}.\newblockHarvardUniversityPress.\newblock(清塚邦彦,飯田隆訳\BBOP1998\BBCP.\Jem{論理と会話}.勁草書房.).\bibitem[\protect\BCAY{平尾\JBA賀沢\JBA磯崎\JBA前田\JBA松本}{平尾\Jetal}{2003}]{平尾}平尾努\JBA賀沢秀人\JBA磯崎秀樹\JBA前田英作\JBA松本裕治\BBOP2003\BBCP.\newblock\JBOQ機械学習による複数文書からの重要文抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(1),\mbox{\BPGS\81--108}.\bibitem[\protect\BCAY{伊吹}{伊吹}{1998}]{ibuki}伊吹潤\BBOP1998\BBCP.\newblock\JBOQ同音異義語誤りの校正における各種の共起制約データの有効性の評価\JBCQ\\newblock\Jem{言語処理学会第4回年次大会発表論文集},\mbox{\BPGS\626--629}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{語彙大系}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{Karatzoglou,Smola,Hornik,\BBA\Zeileis}{Karatzoglouet~al.}{2004}]{kernlab}Karatzoglou,A.,Smola,A.,Hornik,K.,\BBA\Zeileis,A.\BBOP2004\BBCP.\newblock\BBOQkernlab---AnS4PackageforKernelMethodsinR\BBCQ\\newblock{\BemJournalofStatisticalSoftware},{\Bbf11}(9),\mbox{\BPGS\1--20}.\bibitem[\protect\BCAY{笠原\JBA小林\JBA荒井\JBA絹川}{笠原\Jetal}{2001}]{kasahara}笠原健成\JBA小林栄一\JBA荒井真人\JBA絹川博之\BBOP2001\BBCP.\newblock\JBOQマニュアルの校閲作業における文書推敲支援ツールの実適用評価\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(5),\mbox{\BPGS\1242--1253}.\bibitem[\protect\BCAY{Kernighan,Church,\BBA\Gale}{Kernighanet~al.}{1990}]{Kerninghan}Kernighan,M.~D.,Church,K.~W.,\BBA\Gale,W.~A.\BBOP1990\BBCP.\newblock\BBOQAspellingcorrectionprogrambasedonanoisychannelmodel\BBCQ\\newblockIn{\BemCOLING-90},\mbox{\BPGS\205--210}.\bibitem[\protect\BCAY{小林\JBA山口\JBA中川}{小林\Jetal}{2005}]{小林}小林聡\JBA山口優\JBA中川聖一\BBOP2005\BBCP.\newblock\JBOQ表層的言語表現と韻律情報を用いた講演音声の重要文抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(6),\mbox{\BPGS\3--24}.\bibitem[\protect\BCAY{Landis\BBA\Koch}{Landis\BBA\Koch}{1977}]{kappa}Landis,J.~R.\BBACOMMA\\BBA\Koch,G.~G.\BBOP1977\BBCP.\newblock\BBOQThemeasurementofobserveragreementforcategoricaldata\BBCQ\\newblock{\BemBiometrics},{\Bbf33},\mbox{\BPGS\159--174}.\bibitem[\protect\BCAY{毎日新聞社}{毎日新聞社}{2001}]{mainichi}毎日新聞社\BBOP2001\BBCP.\newblock\Jem{CD-毎日新聞2000}.\newblock日外アソシエーツ.\bibitem[\protect\BCAY{Mani}{Mani}{2001}]{自動要約}Mani,I.\BBOP2001\BBCP.\newblock{\BemAutomaticSummarization}.\newblockJohnBenjaminsPublishingCompany.\newblock(奥村学,難波英嗣,植田禎子\BBOP2003\BBCP.\Jem{自動要約}.共立出版.).\bibitem[\protect\BCAY{Mani,House,Klein,Hirschman,Firmin,\BBA\Sundheim}{Maniet~al.}{1999}]{Mani99}Mani,I.,House,D.,Klein,G.,Hirschman,L.,Firmin,T.,\BBA\Sundheim,B.\BBOP1999\BBCP.\newblock\BBOQTheTIPSTERSUMMACTextSummarizationEvaluation\BBCQ\\newblockIn{\BemProceedingsoftheninthconferenceonEuropeanchapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\77--85}.\bibitem[\protect\BCAY{難波\JBA奥村}{難波\JBA奥村}{2002}]{難波}難波英嗣\JBA奥村学\BBOP2002\BBCP.\newblock\JBOQ要約の内的(intrinsic)な評価法に関するいくつかの考察—第2回NTCIRワークショップ自動要約タスク(TSC)を基に—\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(3),\mbox{\BPGS\129--146}.\bibitem[\protect\BCAY{小野\JBA菅沼\JBA谷口}{小野\Jetal}{2006}]{suganuma2006}小野貴博\JBA菅沼明\JBA谷口倫一郎\BBOP2006\BBCP.\newblock\JBOQ日本語文章推敲支援における係り受けを誤解される文の抽出\JBCQ\\newblock\Jem{情報処理学会研究報告},``2006-NL-175''\JVOL,\mbox{\BPGS\99--104}.\bibitem[\protect\BCAY{酒井\JBA増山}{酒井\JBA増山}{2004}]{sakai}酒井浩之\JBA増山繁\BBOP2004\BBCP.\newblock\JBOQ動詞連体修飾節の省略可能性に関するコーパスからの知識獲得\JBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ87-D-II}(8),\mbox{\BPGS\1641--1652}.\bibitem[\protect\BCAY{Sakai\BBA\Masuyama}{Sakai\BBA\Masuyama}{2006}]{sakai2}Sakai,H.\BBACOMMA\\BBA\Masuyama,S.\BBOP2006\BBCP.\newblock\BBOQKnowledgeAcquisitionabouttheDeletionPossibilityofAdnominalVerbPhrases\BBCQ\\newblock{\BemSYSTEMSandCOMPUTERSinJAPAN},{\Bbf37}(2),\mbox{\BPGS\25--36}.\bibitem[\protect\BCAY{高橋}{高橋}{1997}]{高橋昭男}高橋昭男\BBOP1997\BBCP.\newblock\Jem{仕事文の書き方},4\JCH,\mbox{\BPGS\77--85}.\newblock岩波新書.岩波書店.\bibitem[\protect\BCAY{田中}{田中}{1999}]{tanaka}田中穂積\JED\\BBOP1999\BBCP.\newblock\Jem{自然言語処理—基礎と応用},7\JCH.\newblock電子情報通信学会.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1998}]{Vapnik}Vapnik,V.~N.\BBOP1998\BBCP.\newblock{\BemStatisticalLearningTheory}.\newblockJohnWiley\&Sons,Inc.\bibitem[\protect\BCAY{Wang}{Wang}{2005}]{SVMapplication}Wang,L.\BBOP2005\BBCP.\newblock{\BemSupportVectorMachines:TheoryAndApplications}.\newblockSpringer-Verlag.\bibitem[\protect\BCAY{Witten\BBA\Frank}{Witten\BBA\Frank}{1999}]{Weka}Witten,I.~H.\BBACOMMA\\BBA\Frank,E.\BBOP1999\BBCP.\newblock{\BemDataMining}.\newblockMorganKaufmannPublishers.\bibitem[\protect\BCAY{横林\JBA菅沼\JBA谷口}{横林\Jetal}{2004}]{yokobayashi}横林博\JBA菅沼明\JBA谷口倫一郎\BBOP2004\BBCP.\newblock\JBOQ係り受けの複雑さの指標に基づく文の書き換え候補の生成と推敲支援への応用\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf45}(5),\mbox{\BPGS\1451--1459}.\bibitem[\protect\BCAY{福島\JBA奥村\JBA難波}{福島\Jetal}{2002}]{NTCIR}福島孝博\JBA奥村学\JBA難波英嗣\BBOP2002\BBCP.\newblock\JBOQTextSummarizationChallenge—自動要約の評価型ワークショップ—\JBCQ\\newblock\Jem{情報処理},{\Bbf43}(12),\mbox{\BPGS\1295--1299}.\end{thebibliography}\begin{biography}\bioauthor{梅村祥之}{1981年名古屋大学大学院修士課程工学研究科修了.同年,東京芝浦電気株式会社入社.1988年株式会社豊田中央研究所入社.現在に至る.同社走行安全研究センターに所属.主に,自動車に関わる人間特性の研究に従事.2003年豊橋技術科学大学博士後期課程社会人コース入学.ヒューマンインタフェース学会,情報処理学会,日本音響学会,言語処理学会,自動車技術会会員.}\bioauthor{増山繁}{1977年京大・工・数理卒.1982年同大学院博士後期課程単位取得退学.1983年同了(工博).1982年日本学術振興会奨励研究員.1984年京大・工・数理助手.1989年豊橋技術科学大学知識情報工学系講師,1990年同助教授,1997年同教授,2005年同大学インテリジェントセンシングシステムリサーチセンター教授併任.アルゴリズム工学,特に,グラフ・ネットワークのアルゴリズム等,及び,自然言語処理,特に,テキスト自動要約等,情報アクセス支援への応用の研究に従事.}\end{biography}\biodate\end{document}
| |
V16N03-04 | \section{はじめに}
インターネットの普及にともない,多種多様な電子情報が至るところに蓄積され,溢れている.我々は,インターネットを介して,時と場所を選ばず,即座にそれらの情報にアクセスすることができるが,その量は非常に膨大である.「情報爆発」というキーワードのもと,わが国でも文部科学省,経済産業省が新しいプロジェクトを立ち上げ,新技術の開発に取り組み始めている.この膨大な量の情報を人手で処理することは,不可能に近い.情報には文書,画像,音声,動画など様々なものがあるが,自然言語で書かれた文書情報は,その中で最も重要な情報の1つである.文書情報を機械的に処理する技術の研究,言い換えると自然言語処理技術の研究が極めて重要になっているのはそのためである.自然言語処理技術は,2つに大別される.コーパス(統計)ベースの手法とルール(文法規則)ベースの手法である.自然言語処理技術の1つである音声認識の精度のブレイクスルーがあったことにより,最近では,コーパスベースの手法が自然言語処理技術の世界を席巻している.これは網羅性のある文法規則を開発することが困難であったことが主な要因としてあげられる.これに対し,コーパスベースの手法は,そこから得られた統計データに文法規則性が反映されており,コーパスの量を増やすことで,文法規則性をより精密に反映させることができるという考えに基いている.ところが統計データからは陽に文法規則が取り出されるわけではなく,文法規則を取り出し,それをどう改良すべきかは分からない.文法規則は機械(コンピュータ)で扱うことができる規則でなければならない.多種多様な分野の日本語の文書処理を行う文法規則の数は,およそ数千の規模になると言われている.ところがこのような日本語の文法規則を言語学者ですら作成したという話をまだ聞かない.これに対し,コーパスベースの手法による日本語文の文節係り受け解析の精度は90\%に達する\cite{kudo:2002,uchimoto:99}.これがルールベースの方法が自然言語処理技術の中心ではなくなってきた大きな理由である.ところが,最近,コーパスベースの自然言語処理法も解析精度に飽和現象が見られる.精度をさらに向上させようとすれば,現存するコーパスの量を1桁以上増やさなくてはならないといわれている.これは,音声認識精度の向上でも問題になりはじめているが,コーパスの量を1桁以上増やすことは容易なことではない.この限界を越える技術として,闇雲にコーパスの量を増やすのではなく,ルールベースの方法を再考すべき時期に来ていると考えている.本論文では,一般化LR(GeneralizedLR;GLR)構文解析\cite{deremer:82,aho:86,tomita:91}に注目する.一般化LR構文解析は,文法(CFG)規則をLR構文解析表(LR表)と呼ばれるオートマトンに変換し,効率的に解析を行う\footnote{一般化LR構文解析は,構文解析結果の順序付けに確率一般化LRモデル\cite{inui:00,briscoe:93,charniak:96,jelinek:98}を用いることができるので,ルールベース手法にコーパスベース手法を融合したハイブリッドな方法であるといえる.}.このLR表には,CFG規則のほかに品詞(終端記号)間の接続制約(adjacentsymbolconnectionconstraints;ASCCs)を反映させることもできる.品詞間の接続制約を反映させることにより,接続制約に違反する解析結果を受理しないLR表を作成できるだけでなく,LR表のサイズ(状態数や動作(アクション)数)を縮小することもでき,その結果,構文解析の使用メモリ量や解析所要時間の削減,統計データを取り入れた場合の解析精度向上の効果の増大が期待できる.品詞間接続制約をCFG規則に直接反映させることも可能であるが,非終端記号の細分化によって規則数が組み合わせ的に増大し,CFG作成者への負担やLR表のサイズの増大を招く.品詞間接続制約のLR表への組み込み手法は,これまでにも提案されているが\cite{tanaka:95,li:95},従来の手法では,LR表中の不要な動作を十分に削除できない問題があった.本論文では新しい組み込み手法を提案し,従来の手法では削除できなかった不要な動作も削除できることを実験により示す.本論文の構成は以下のとおりである.第\ref{sec:mslr}節では,まず,一般化LR構文解析アルゴリズムを採用しているMSLRパーザ\cite{shirai:00}について説明し,従来の品詞間接続制約のLR表への組み込み手法の問題点を述べる.その問題点を踏まえ,第\ref{sec:improvement}節で新しい組み込み手法を提案し,第\ref{sec:evaluation}節で評価実験を行う.第\ref{sec:completeness}節では,提案アルゴリズムの完全性について考察を行う.最後に,第\ref{sec:conclusion}節で結論と今後の課題について説明する.
\section{MSLRパーザと従来の組み込み手法}
\label{sec:mslr}本節では,従来のLR表への接続制約の組み込み手法とその問題点を述べるが,その前に,第\ref{sec:evaluation}節の評価実験で使用するMSLRパーザ\cite{shirai:00}の原理について概略を説明する.\subsection{MSLRパーザの原理}\label{sec:principle}MSLR(Morpho-SyntacticLR)パーザは,GLR構文解析アルゴリズムを拡張し,日本語などの分かち書きされていない文の形態素解析と構文解析を同時に行うことのできるパーザである.図\ref{fig:mslr}に示すように,MSLRパーザは,文法(CFG)からLR表を生成し,それを参照しながら入力文の解析を行う.LR表を生成する段階では,文法のほかに品詞間接続制約を組み込むことも可能である.品詞間接続制約を組み込むことにより,LR表のサイズを小さくし,解析効率を向上させることができる.また,MSLRパーザは,平文を入力とすることで形態素解析と構文解析を同時に行うことができるが,形態素区切りや品詞,係り受けなどの部分的な制約を入力に加えて解析を行うこともできる.さらに,確率一般化LR(ProbabilisticGeneralizedLR;PGLR)モデル\cite{inui:00}により,GLRアルゴリズムの枠組みにおいて構文木の生成確率を求めることもできる.\begin{figure}[t]\begin{center}\includegraphics{16-3ia4f1.eps}\end{center}\caption{MSLRパーザの動作の流れ}\label{fig:mslr}\end{figure}MSLRパーザでは,$\varepsilon$規則(右辺の記号列長が0の規則)を含む文法は扱えない.文法が大規模化するにつれ,文法作成者が予期しない$\varepsilon$規則の適用や,それによる解析結果の曖昧性の増大が起きるため,MSLRパーザの仕様として,文法に$\varepsilon$規則は含まれないことを前提としている.本論文でも,$\varepsilon$規則を含まない文法を前提とする.\subsection{接続制約と接続表}終端記号と文末記号$\$$の集合$\{t_1,t_2,\dots,t_n,t_{n+1}(=\$)\}$の接続制約は,$n$行$n+1$列の表(接続表)で表現できる.\[\mathrm{connect}[t_i,t_j]=\begin{cases}1&\text{$t_it_j$の順で接続可能な場合}\\0&\text{$t_it_j$の順で接続不可能な場合}\end{cases}\]ただし,$1\leqi\leqn$,$1\leqj\leqn+1$である.また,終端記号または非終端記号$X$の直後に接続可能な終端記号の集合を返す関数Connectを\pagebreak以下のように定義する.\[\mathrm{Connect}(X)=\begin{cases}\{t|\mathrm{connect}[X,t]=1\wedget\in\mathrm{Follow}(X)\}&\text{$X$が終端記号の場合}\\\bigcup\{\mathrm{Connect}(t)\cap\mathrm{Follow}(X)|t\in\mathrm{Last}(X)\}&\text{$X$が非終端記号の場合}\end{cases}\]ただし,$\mathrm{Follow(X)}$と$\mathrm{Last}(X)$は,それぞれCFGの開始記号から展開した場合に非終端記号$X$の直後に出現し得る終端記号の集合,$X$を展開した場合に末尾に出現し得る終端記号の集合を表す.さらに,終端記号または非終端記号列$\alpha(=\betaY)$の場合や,終端記号または非終端記号の集合$\Sigma$の場合は,関数Connectを以下のように定義する($Y$は終端記号または非終端記号).\begin{align*}\mathrm{Connect}(\alpha)&=\mathrm{Connect}(Y)\\\mathrm{Connect}(\Sigma)&=\bigcup_{X\in\Sigma}\mathrm{Connect}(X)\end{align*}\subsection{従来の接続制約組み込み手法}LR表への品詞間接続制約の組み込み手法には,まず接続制約を考慮しないLR表を作成してから不要な動作を削除する手法\cite{tanaka:95},LR表作成前と作成後の両方で不要動作を削除する手法\cite{li:95}などがある.ここでは,MSLRパーザのLR表生成器で採用されている2つ目のLR表作成前と作成後の両方で不要動作を削除する手法(Liの手法)について述べる.LR構文解析では,LRアイテムを利用してCFGから状態遷移図(gotoグラフ)を作成する.Liらは,gotoグラフを作成する段階で,接続制約を利用してアイテムの生成を抑制することにより,接続制約を組み込んだgotoグラフを作成する.さらに,接続制約を組み込んだgotoグラフからLR表を作成した後,接続制約を伝播させることにより,LR表作成前に削除できなかった動作を削除する.接続制約を利用したLR(0)アイテムの生成の抑制は,核アイテム$[X\to\alpha\cdot\beta]\in\mathrm{Goto}(I,Z)$をclosure展開する際,以下の2つの条件を満たすLR(0)アイテムのみを生成することにより行う\footnote{LR(1)アイテム$[X\to\alpha\cdot\beta;t]\in\mathrm{Goto}(I,Z)$の場合は,第2条件を$t\in\mathrm{Connect}(\beta)$に置き換える.}.\begin{align*}\mathrm{Connect}(Z)\cap\mathrm{First}(\beta)&\neq\emptyset\\\mathrm{Follow}(X)\cap\mathrm{Connect}(\beta)&\neq\emptyset\end{align*}ただし,$\mathrm{Goto}(I,Z)$は,gotoグラフにおいて状態$I$から終端記号または非終端記号$Z$で遷移した先の状態を表す.また,$\mathrm{First}(\beta)$は,$\beta$を展開した場合に先頭に出現し得る終端記号の集合を表す.接続制約を組み込んだgotoグラフを作成したら,それをもとにLR表を作成する.この時点で既にいくらかの不要な動作は削除されているが,削除できずに残っている動作もあるため,LR表作成後に接続制約を伝播させることにより,さらに不要な動作を削除する.具体的には,LR表中の各動作について,その直前に実行すべき動作が存在しない場合,または直後に実行すべき動作が存在しない場合,その動作を削除する.\subsection{従来手法の問題点}\label{sec:problem}図\ref{fig:ex_cfg3}に示すような文法$G$\footnote{LR構文解析では,与えられた文法$G$からLR表を作成する際,便宜的に,非終端記号$\mathit{SS}$を$G$の非終端記号集合に,文末を表す終端記号$\$$を終端記号集合に追加し,$\mathit{SS}\toS\$$を$G$に追加する($S$は元の$G$の開始記号).本論文では,新たに追加するCFG規則の番号を常に0番とする.}と接続制約$C$(と文法$G$から作成されるgotoグラフ)を例に,従来手法(Liの手法)の問題点を述べる.\begin{figure}[b]\begin{center}\includegraphics{16-3ia4f2.eps}\end{center}\caption{CFGと接続制約の例}\label{fig:ex_cfg3}\end{figure}Liの手法により作成されるLR表を表\ref{tab:lr_table_hashimoto}に示す.ただし,括弧で囲まれた動作は,接続制約により削除されたものである.ここで,状態2,先読み$c$における移動(shift)動作$\mathrm{sh}_7$に注目する.この動作は,Liの手法では削除されない.このshift動作に関連する動作実行列として,以下のような場合が想定される($(2,c,\mathrm{sh}_7)$は,状態2,先読み$c$におけるshift動作$\mathrm{sh}_7$を表す).\[(2,c,\mathrm{sh}_7)\to(7,d,\mathrm{sh}_{13})\to(13,d,\mathrm{re}_6)\to(2,Z,\mathrm{goto}_5)\to(5,d,\mathrm{sh}_{11})\]一方,以下のような動作実行列も存在する.\[(3,c,\mathrm{sh}_7)\to(7,d,\mathrm{sh}_{13})\to(13,e,\mathrm{re}_6)\to(3,Z,\mathrm{goto}_9)\to(9,e,\mathrm{sh}_{14})\]接続制約より,終端記号$d$は終端記号$e$と接続するが,終端記号$d$とは接続しないため,前者の実行列は制約に違反する.その結果,$(13,d,\mathrm{re}_6)$は削除される.しかし,$(7,d,\mathrm{sh}_{13})$は,もう一方の接続制約を満たす動作実行列に含まれるため,残される.$(2,c,\mathrm{sh}_7)$は,接続制約を満たすどのような動作実行列にも含まれず,削除すべき動作であるが,次の$(7,d,\mathrm{sh}_{13})$が残されるため,Liの手法では削除できない.\begin{table}[t]\caption{Liの手法により作成されるLR表}\label{tab:lr_table_hashimoto}\input{04table01.txt}\end{table}従来手法では,1つ先または1つ前の動作が存在しないことが判明した場合に,その動作を削除する.この例では,2つ先の動作が存在するか否かを調べなければ,削除可能かどうかを判断できない.これを一般化すると,1つ先や2つ先だけでなく,$n$個先の動作が存在するか否かを調べる必要があり,連続する動作の存在を局所的に調べるだけでは,接続制約に違反する動作を完全に削除することはできない.このような例でも動作を削除できるようにするためには,その動作実行列が最終的にacc動作に到達可能であるか否かを調べる必要がある\footnote{動作実行列が(acc動作に到達できない)無限ループを形成するような文法と接続制約の例も存在する.これは$n$をどれだけ大きくしても,無限ループ内の動作が削除可能であることを発見できない究極の例である.}.
\section{提案アルゴリズム}
\label{sec:improvement}初期状態から実行すべき動作を順番に決めていくと,動作の実行列(アクションチェイン)ができる.このアクションチェインがacc動作に到達すれば,解析が成功することになる.一方,実行すべき動作がLR表から決まらないときには,解析が失敗することになる.このアクションチェインは有向グラフ(アクションチェイングラフ)として表現できる.初期状態からacc動作に至るアクションチェインを成功パスと呼ぶ.成功パス上の動作は,必要な動作としてLR表に残す.提案アルゴリズムでは,アクションチェインを最終状態(acc動作)から逆向きに横型探索によりたどることにより,成功パスを探索する.すなわち開始記号を左辺に持つCFG規則について,その右辺の末尾の記号から順番に展開しながら(最右導出を行いながら)接続制約を満たすか否かをチェックする.\begin{figure}[b]\begin{center}\includegraphics{16-3ia4f3.eps}\end{center}\caption{gotoグラフ}\label{fig:proposed}\end{figure}開始記号$S$を左辺に持つ$S\toX_1X_2\dotsX_n$というCFG規則(規則番号を$m$とする)があったとする.gotoグラフには図\ref{fig:proposed}(a)に示すような状態とリンクが存在する(開始状態を0とする).このCFG規則の展開に対応するLR表中の動作は,状態$s_n$,先読み$\$$におけるreduce動作$\mbox{re}_m$とその後の状態0,非終端記号$S$における状態$s_0$への遷移であり,この動作をアクションチェインに追加する.そして,右辺の各終端記号または非終端記号について,$X_n$,$X_{n-1}$,…$X_1$の順に接続制約を満たすか否かをチェックする.$X_n$が終端記号の場合,$X_n$と$\$$の間の接続制約をチェックする.接続制約を満たすならば,状態$s_{n-1}$,先読み$X_n$におけるshift動作$\mbox{sh}_{s_n}$をアクションチェインに追加し,$X_{n-1}$のチェックに移る(先読みは$X_n$となる).$X_n$が非終端記号の場合は,$X_n$を左辺とするCFG規則で展開する.このCFG規則が$X_n\toY_1Y_2\dotsY_{n^{\prime}}$(規則番号$m^{\prime}$)であるとすると,gotoグラフ中では図\ref{fig:proposed}(b)に示すような状態とリンクが存在する.このCFG規則の展開に対応する,状態$s^{\prime}_{n^{\prime}}$,先読み$\$$におけるreduce動作$\mbox{re}_{m^{\prime}}$と状態$s_{n-1}$,記号$X_n$における状態$s_n$への遷移をアクションチェインに追加し,$Y_{n^{\prime}}$,$Y_{n^{\prime}-1}$,…$Y_1$の順に接続制約を満たすか否かを同様にチェックする.すべてのチェックが完了したら,$X_{n-1}$のチェックに移る(先読みは$Y_1$のチェックで最後にアクションチェインに追加したshift動作の先読みとなる).以下,同様に続け,最終的に状態0におけるshift動作がアクションチェインに追加されたら,それが成功パスとなる.提案アルゴリズムの概要を図\ref{fig:algorithm}に示す.図中の記法については,以下のとおりである.\begin{description}\item[\protect{$[s,\mathrm{re}_n,\mathit{la},\mathit{status}]$}:]状態$\mathrm{LastState}(s,n)$,先読み$\mathit{la}$で実行される$n$番目のCFG規則によるreduce動作を表すアクションチェインの要素.reduce後,状態$s$,非終端記号$\mathrm{LHS}(n)$で状態$\mathrm{Goto}(s,\mathrm{LHS}(n))$へ遷移する.ただし,$n=0$の場合は,reduce動作ではなくacc動作を表す要素となる.$\mathit{status}$は要素の処理状態を表す.要素の処理状態には,init(初期状態),wait(待機状態),check(調査中),pass(調査済),end(最終状態)があり,この順番で遷移する(initは飛ばされることもある).\begin{description}\item[init:]要素を作成しただけの状態\item[wait:]次にアクションチェインに追加可能であることを表す状態\item[check:]アクションチェインに追加され,その後,解析開始状態(gotoグラフにおける状態0)に到達可能かどうか(最終的に接続制約を満たすかどうか)を調査中であることを表す状態\item[pass:]解析開始状態に到達可能であることが判明したことを表す状態\item[end:]成功パスの要素であることを表す状態\end{description}\item[\protect{$[s,\mathrm{sh},\mathit{la},\mathit{status}]$}:]状態$s$,先読み$\mathit{la}$で実行されるshift動作を表すアクションチェインの要素.\item[$\mathrm{Length}(n)$:]$n$番目のCFG規則の右辺の長さ.\item[$\mathrm{LHS}(n)$:]$n$番目のCFG規則の左辺の非終端記号.\item[$\mathrm{RHS}(n,i)$:]$n$番目のCFG規則の右辺の$i$番目の終端記号または非終端記号.$1\leqi\leq\mathrm{Length}(n)$\item[$\mathrm{Rule}(\mathit{A})$:]非終端記号$A$を左辺に持つ規則番号の集合.$\mathrm{Rule}(\mathit{A})=\{n|\mathrm{LHS}(n)=A\}$\item[$\mathrm{PrevAction}(a)$:]reduce動作またはshift動作$a$に続く動作の集合.\item[$\mathrm{State}(s,n,i)$:]$n$番目のCFG規則について,状態$s$から$\mathrm{RHS}(n,1)$,…$\mathrm{RHS}(n,i-1)$を遷移した後の状態.\item[$\mathrm{LastState}(s,n)$:]状態$s$から$n$番目のCFG規則の右辺の終端記号または非終端記号列すべてを遷移した後の状態.\item[$\mathrm{LA}(s,n)$:]状態$\mathrm{LastState}(s,n)$における$n$番目のCFG規則によるreduce動作の先読みの集合.\item[$\mathrm{PrevSym}(s)$:]状態$s$への遷移記号の集合.$\mathrm{PrevSym}(s)=\{\mathit{sym}|\mathrm{Goto}(s^{\prime},\mathit{sym})=s\}$\item[$\mathrm{PrevState}(s,\mathit{sym})$:]記号$\mathit{sym}$によって状態$s$に遷移する状態の集合.$\mathrm{PrevState}(s,\mathit{sym})=\{s^{\prime}|\mathrm{Goto}(s^{\prime},\mathit{sym})=s\}$\end{description}\begin{figure}[t]\includegraphics{16-3ia4f4.eps}\caption{アルゴリズム概略}\label{fig:algorithm}\end{figure}\noindent図\ref{fig:algorithm}の(2)では,wait状態のreduce動作要素について,その状態をcheckとして,対象となる動作の実行後に解析開始状態まで接続制約に違反することなく到達可能かどうかのチェックを行う.wait状態のshift動作要素ならば,その状態をcheckとして,それに先行するinit状態の要素について,その状態をwaitとする.ただし,先行する要素がshift動作要素の場合は,両者の先読み記号の間の接続制約をチェックする.また,gotoグラフにおける状態0でのshift動作要素の場合は,解析開始状態まで到達可能であることが判明したので,要素の状態をpassとする.図\ref{fig:algorithm}の(4)では,pass状態の要素について,その状態をendとし,そこから(2)のときとは逆に要素をたどり,check状態の要素が解析開始状態まで到達可能であることを伝えていく(状態をcheckからpassにする).最終的に状態がendとなった要素の列が成功パスとなる.図\ref{fig:ex_cfg3}に示す文法$G$と接続制約$C$に対し,上述のアルゴリズムを適用すると,以下のような手順で処理が進行する.\begin{figure}[p]\includegraphics{16-3ia4f5.eps}\vspace{1\baselineskip}\caption{アクションチェイングラフ作成の経過}\label{fig:chain}\end{figure}\begin{enumerate}\item$[0,\mathrm{re}_0,\$,\mbox{wait}]$を作成.\item$[0,\mathrm{re}_0,\$,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[0,\mathrm{re}_1,\$,\mbox{wait}]$,$[0,\mathrm{re}_2,\$,\mbox{wait}]$を作成.\item$[0,\mathrm{re}_1,\$,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[0,\mathrm{sh},a,\mbox{init}]$,$[2,\mathrm{re}_3,e,\mbox{init}]$,$[4,\mathrm{sh},e,\mbox{wait}]$を作成.\item$[0,\mathrm{re}_2,\$,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[0,\mathrm{sh},b,\mbox{init}]$,$[3,\mathrm{re}_4,\$,\mbox{wait}]$を作成(図\ref{fig:chain}(1)).\item$[4,\mathrm{sh},e,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[2,\mathrm{re}_3,a,\mbox{init}]$の処理状態をwaitに変更.\item$[3,\mathrm{re}_4,e,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[3,\mathrm{re}_5,e,\mbox{init}]$,$[3,\mathrm{re}_6,e,\mbox{init}]$,$[9,\mathrm{sh},e,\mbox{wait}]$を作成.\item$[2,\mathrm{re}_3,e,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[2,\mathrm{re}_5,d,\mbox{init}]$,$[2,\mathrm{re}_6,d,\mbox{init}]$,$[5,\mathrm{sh},d,\mbox{wait}]$を作成(図\ref{fig:chain}(2)).\item$[5,\mathrm{sh},d,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[2,\mathrm{re}_5,d,\mbox{init}]$,$[2,\mathrm{re}_6,d,\mbox{init}]$の処理状態をwaitに変更.\item$[9,\mathrm{sh},e,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[3,\mathrm{re}_5,e,\mbox{init}]$,$[3,\mathrm{re}_6,e,\mbox{init}]$の処理状態をwaitに変更.\item$[2,\mathrm{re}_5,d,\mbox{wait}]$について,処理状態をcheckに変更し,$[2,\mathrm{sh},b,\mbox{init}]$,$[6,\mathrm{sh},c,\mbox{wait}]$を作成.\item$[2,\mathrm{re}_6,d,\mbox{wait}]$について,処理状態をcheckに変更し,$[2,\mathrm{sh},c,\mbox{init}]$を作成\\($[6,\mathrm{sh},d,\mbox{wait}]$は,$\mathrm{connect}(d,d)=0$より作成しない).\item$[3,\mathrm{re}_5,e,\mbox{wait}]$について,処理状態をcheckに変更し,$[3,\mathrm{sh},b,\mbox{init}]$を作成\\($[7,\mathrm{sh},c,\mbox{wait}]$は,$\mathrm{connect}(c,e)=0$より作成しない).\item$[3,\mathrm{re}_6,e,\mbox{wait}]$について,処理状態をcheckに変更し,$[3,\mathrm{sh},c,\mbox{init}]$,$[7,\mathrm{sh},d,\mbox{wait}]$を作成.\item$[6,\mathrm{sh},c,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[2,\mathrm{sh},b,\mbox{init}]$の処理状態をwaitに変更.\item$[7,\mathrm{sh},d,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[3,\mathrm{sh},c,\mbox{init}]$の処理状態をwaitに変更.\item$[2,\mathrm{sh},b,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[0,\mathrm{sh},a,\mbox{init}]$の処理状態をwaitに変更.\item$[3,\mathrm{sh},c,\mbox{wait}]$について,処理状態をcheckに変更し,\\$[0,\mathrm{sh},b,\mbox{init}]$の処理状態をwaitに変更.\item$[0,\mathrm{sh},a,\mbox{wait}]$について,処理状態をpassに変更.\item$[0,\mathrm{sh},b,\mbox{wait}]$について,処理状態をpassに変更(図\ref{fig:chain}(3)).\item$[0,\mathrm{sh},a,\mbox{pass}]$について,処理状態をendに変更し,\\$[2,\mathrm{sh},b,\mbox{check}]$の処理状態をpassに変更.\item$[0,\mathrm{sh},b,\mbox{pass}]$について,処理状態をendに変更し,\\$[3,\mathrm{sh},c,\mbox{check}]$の処理状態をpassに変更.\item$[2,\mathrm{sh},b,\mbox{pass}]$について,処理状態をendに変更し,\\$[6,\mathrm{sh},c,\mbox{check}]$の処理状態をpassに変更.\item$[3,\mathrm{sh},c,\mbox{pass}]$について,処理状態をendに変更し,\\$[7,\mathrm{sh},d,\mbox{check}]$の処理状態をpassに変更.\item以下,同様に処理を続け,処理状態がpassの要素がなくなったら終了(図\ref{fig:chain}(4)).\end{enumerate}\begin{table}[b]\caption{提案手法により作成されるLR表}\label{tab:lr_table}\input{04table02.txt}\end{table}アルゴリズムを適用後,処理状態がendである動作要素をたどることにより,成功パスを抽出できる(図\ref{fig:chain}(4)の実線のリンクが成功パスである).作成されるLR表を表\ref{tab:lr_table}に示す.また,表\ref{tab:lr_table}において,括弧で囲まれた動作は,Liの手法で削除できず,提案手法により削除されたものを表す.
\section{実験と評価}
\label{sec:evaluation}提案手法の効果を調べるため,従来手法との比較実験を行った.コーパスは東工大コーパス20,190文(1文あたり約23形態素)\cite{noro:05}を利用する.20,190文すべてから抽出した文法$G_{\mbox{all}}$を使用し,MSLRパーザで構文解析を行う.入力は平文とする.解析結果の順位付けはPGLRモデルにより行う.比較は,提案手法により生成されるLR表と,Liの手法により生成されるLR表,接続制約を組み込まないLR表の3つで行う.\begin{table}[b]\caption{各LR表中の状態数と動作数}\label{tab:action}\input{04table03.txt}\end{table}抽出したCFG規則数は2,722規則(非終端記号294個,終端記号412個)である.各手法により生成されたLR表中の状態数と動作数を表\ref{tab:action}に示す.状態数において,「shift後」,「reduce後」とは,それぞれshift/reduceを実行した直後に到達する状態を指す.PGLRモデルによる確率計算ではこの2種類の状態を区別する必要があるため,参考として内訳を示している.また,動作数において,丸括弧,角括弧で囲まれた数字は,それぞれ,コンフリクトが生じる動作の数,PGLRモデルによる確率が1ではない動作の数を表す.前者は解析途中での曖昧性の大小の目安に,後者はPGLRモデルによる確率計算の影響の大小(パラメータ数の大小)の目安になる.この表より,状態数にはそれほど大きな差は生じないが,総動作数については,接続制約を組み込まない場合と比較して約64\%削減できていることが分かる.コンフリクトが生じる動作数,PGLRモデルによる確率が1にならない動作数は,それぞれ約56\%,71\%削減できている.一方,Liの手法と比較すると,総動作数では約1.2\%,コンフリクトが生じる動作数とPGLRモデルによる確率が1ではない動作数はどちらも約1.4\%削減できている.次に,全20,190文を構文解析する際の所要時間(ユーザCPU時間)を計測した.結果を表\ref{tab:time}に示す.ただし,計測はDual-CoreIntelXeon3~GHz,メモリ4~GBの環境で行った.結果より,接続制約を組み込まない場合と比較して約52\%,Liの手法と比較して約2.4\%短縮された.接続制約を組み込まない場合,接続制約を満たさない構文木も解析結果として出力される.速度向上の要因は,接続制約を組み込んだことによる曖昧性の減少にあると考えられる.一方,Liの手法では,接続制約が組み込まれているため,最終的に出力される解析結果は提案手法の場合と同じである.しかし,不要な動作が残っているため,解析途中での無駄な曖昧性(最終的にaccに到達できない解析途中状態)が多く存在する.例えば,第\ref{sec:problem}節で示した動作実行列の場合,提案手法では,状態2,先読み記号$c$における動作がLR表中に存在しないことが分かった時点で解析を終了するが,Liの手法では,状態13,先読み記号$d$となるまで解析が継続する.提案手法とLiの手法の解析所要時間の差は,ここで生じる.\begin{table}[b]\caption{構文解析所要時間(ユーザCPU時間)}\label{tab:time}\input{04table04.txt}\end{table}\begin{table}[b]\caption{各順位における文正解率(\%)}\label{tab:accuracy}\input{04table05.txt}\end{table}最後に,PGLRモデルによる順位付けの評価を10分割交差検定により行った.すなわち,全体の10分の9にあたる18,171文を利用してモデルの学習を行い,残りの2,019文で評価を行った(文法は$G_{\mbox{all}}$を使用した)\footnote{20,190文中93文について,確率計算の段階でメモリ不足となり,順位付けができなかった.この93文は,今回の評価対象からは除外した(PGLRモデルの学習には利用した).}.解析精度は,文正解率により比較した.文正解率は以下のように定義する.\[\mbox{文正解率}=\frac{\mbox{上位$n$位までに正解が含まれる文の数}}{\mbox{解析した文の総数}}\]ここで「正解」とは,出力された解析木が正解とすべき構文木と完全に一致する場合を指す.結果を表\ref{tab:accuracy}に示す.提案手法では,PGLRモデルによる順位が1位の解析木のみを見た場合,接続制約を組み込まない場合と比較して0.74\%向上している.一方,Liの手法と比較すると,1位の解析木のみでは0.16\%向上しているが,上位10位までを見るとほとんど差がなく,LR表中の不要動作の削除が解析精度に与える影響は大きくないことが分かる.解析所要時間の差と同様,解析精度の差についても,提案手法と接続制約を組み込まない場合との間では,最終的に出力される解析木の数の違いが要因と考えられる.一方,Liの手法によるLR表での最終的な解析結果の曖昧性は提案手法の場合と同じである.また,提案手法でのみ削除可能な動作は,どのような動作実行列をたどっても,最終的にaccに到達することのないものであるため,学習データ中にも存在しない.PGLRモデルによるLR表中の各動作の確率は,学習データに付与された構文木を生成する際に実行する動作の使用回数をもとに計算されるが,最終的にaccに到達できない動作に対する確率は0となり,最終的に出力される各解析木の確率は提案手法の場合と同じになるはずである.しかし,MSLRパーザでは,確率計算の平滑化のため,全ての動作の実行回数に一定数(初期設定では0.5)を加えている.その結果,学習データ中で使用されない動作についても0ではない確率が与えられ,最終的に出力される各解析木の確率が提案手法の場合とLiの手法の場合との間で異なる場合があり,それが,解析精度に差が生じる要因になる.平滑化を行わなければ同じ結果になるが,その場合,accに到達可能であり,かつ,妥当な動作であるにもかかわらず学習データに偶然出現しなかった動作に対する確率も0となる.確率が0である動作が,接続制約を組み込んだことによってaccに到達不可能となった動作であるか,偶然学習データに出現しなかった動作であるかを,学習の段階で区別することは困難である.LR表を作成する段階でaccに到達不可能な動作を削除しておけば,この問題を回避することが可能であり,その点においても提案手法が有効であることが分かる.
\section{提案アルゴリズムの完全性の証明}
\label{sec:completeness}本節では,提案アルゴリズムの完全性について考察する.ここで,完全性とは,作成されるLR表に不要なアクションが存在しないことである.これを示すためには,LR表が以下の2つの性質を満たすことを示せばよい.\begin{itemize}\item妥当性任意の構文木$\mathit{tr}$に対し,以下が成り立つ.\[\mathrm{Generate}(\mathit{tr},G,C)=\mathrm{GenerateLR}(\mathit{tr},T)\]ただし,\begin{description}\item[$G,C,T$:]CFG,接続制約,LR表\item[$\mathrm{Generate}(\mathit{tr},G,C)$:]文法$G$,接続制約$C$から構文木$\mathit{tr}$を生成可能ならば1,不可能ならば0\item[$\mathrm{GenerateLR}(\mathit{tr},T)$:]LR表$T$から構文木$\mathit{tr}$を生成可能ならば1,不可能ならば0\end{description}\item最小性妥当性を満たすLR表中の任意の要素(動作)$a$に対し,以下が成り立つような構文木$\mathit{tr}$が存在する.\[\mathrm{GenerateLR}(\mathit{tr},T)=1\wedge\mathrm{GenerateLR}(\mathit{tr},T_a)=0\]ただし,\begin{description}\item[$T_a$:]LR表$T$から要素$a$を除いたLR表\end{description}\end{itemize}文法$G$は,第\ref{sec:principle}節で述べた,$\varepsilon$規則を含まないという条件のほかに,以下の条件を満たすことを前提とする.\begin{enumerate}\item文法規則は重複しない.すなわち,文法$G$中の任意の2つの文法規則$A\to\alpha$,$B\to\beta$について,$A\neqB\vee\alpha\neq\beta$\item循環する導出は存在しない.すなわち,文法$G$中の任意の非終端記号$A$について,$A\stackrel{\ast}{\to}A$となるような導出は存在しない\end{enumerate}\subsection{妥当性の証明}提案アルゴリズムによって作成されるLR表が妥当性を満たすことを示すためには,以下の2つを示せばよい.\begin{enumerate}\item$\mathrm{Generate}(\mathit{tr},G,C)=1$ならば$\mathrm{GenerateLR}(\mathit{tr},\mathrm{Table}(\mathit{ACG}))=1$\item$\mathrm{GenerateLR}(\mathit{tr},\mathrm{Table}(\mathit{ACG}))=1$ならば$\mathrm{Generate}(\mathit{tr},G,C)=1$\end{enumerate}ただし,\begin{description}\item[$\mathit{ACG}$:]提案アルゴリズムによって生成されるアクションチェイングラフ\item[$\mathrm{Table}(\mathit{ACG})$:]$\mathit{ACG}$から生成されるLR表\end{description}提案アルゴリズムでは,開始記号から最右導出を行いながらアクションチェイングラフを生成し,その中に含まれる成功パスからLR表を生成する.ここで,$\mathrm{Generate}(\mathit{tr},G,C)=1$を満たす構文木$\mathit{tr}$に相当する最右導出の際に,提案アルゴリズムによって生成されるアクションチェインは,成功パスである.この成功パス中の要素に対応する動作は,このアクションチェイングラフから生成されるLR表に含まれるので,$\mathit{tr}$は$\mathrm{Table}(\mathit{ACG})$から生成可能である.すなわち,(1)が成り立つ.一方,ある構文木$\mathit{tr}$が$\mathrm{GenerateLR}(\mathit{tr},\mathrm{Table}(\mathit{ACG}))=1$を満たすと仮定する.このとき,$\mathrm{Table}(\mathit{ACG})$から$\mathit{tr}$を生成する際の実行動作列について,先頭の実行動作から順に,以下の法則に従って$\mathit{ACG}$中のアクションチェイン要素をたどることにより,成功パスを得ることができる.\begin{itemize}\item注目する実行動作がacc動作の場合,$[0,\mathrm{re}_0,\$,\mathrm{end}]$をたどる.\item注目する実行動作が状態$s$,先読み$\mathit{la}$におけるshift動作の場合,$[s,\mathrm{sh},\mathit{la},\mathrm{end}]$をたどる.\item注目する実行動作が状態$s$,先読み$\mathit{la}$における規則番号$n$によるreduce動作,さらにその次の動作が状態$s^\prime$,非終端記号$\mathrm{LHS}(n)$における状態$s^{\prime\prime}$へのgoto動作の場合,$[s^\prime,\mathrm{re}_n,\mathit{la},\mathrm{end}]$をたどる.\end{itemize}$\mathit{ACG}$中の成功パスに対応する構文木は文法$G$,接続制約$C$を満たすので,(2)が成り立つ.以上より,提案アルゴリズムによって作成されるLR表は妥当性を満たす.\subsection{最小性の証明}$T=\mathrm{Table}(\mathit{ACG})$が最小性を満たさないと仮定すると,次を満たす要素$a$が$T$中に少なくとも1つ存在する.\begin{quotation}任意の$\mathit{tr}\in\{\mathit{tr}|\mathrm{GenerateLR}(\mathit{tr},T)=1\}$に対して,$\mathrm{GenerateLR}(\mathit{tr},T_a)=1$\end{quotation}このとき,$\{\mathit{tr}|\mathrm{GenerateLR}(\mathit{tr},T)=1\}\equiv\{\mathit{tr}|\mathrm{GenerateLR}(\mathit{tr},T_a)=1\}$となり,$a$に対応する$\mathit{ACG}$中の要素を$e$とすると,$\{\mathit{tr}|\mathrm{GenerateLR}(\mathit{tr},T_a)=1\}$中の任意の構文木を生成する際の実行動作列に対応する$\mathit{ACG}$中の成功パスは,$e$を含まない.一方,$T$中に$a$が存在することから,$\mathit{ACG}$中には$e$を含む成功パスが存在する.その成功パスに対応する実行動作列は$a$を含み,その実行動作列で生成される構文木を$\mathit{tr}^\prime$とすると,以下が成り立つ.\[\mathrm{GenerateLR}(\mathit{tr}^\prime,T)=1\wedge\mathrm{GenerateLR}(\mathit{tr}^\prime,T_a)=0\]これは$T$が最小性を満たさないという仮定に矛盾する.以上より,提案アルゴリズムによって作成されるLR表は最小性を満たす.
\section{結論と今後の課題}
\label{sec:conclusion}コーパスベースの自然言語処理技術は,音声認識などにおいて,精度向上のブレイクスルーを持たらした.これは,コーパスの量を増やすことによって精度が向上したからであるが,それには限界が見えはじめている.この限界を越える技術として,コーパスの量を増やすのではなく,ルールベースの手法を再考すべき時期に来ていると考えている.本論文では,ルールベースの構文解析の1つである一般化LR構文解析に注目し,品詞間接続制約をLR表に組み込み,不要な動作を削除する手法を提案した.提案手法により,接続制約による削除を行わない場合と比較して約64\%の不要動作を削除でき,従来手法と比較するとさらに約1.2\%の不要動作を削減できた.提案手法により作成したLR表で構文解析を行った場合,解析所要時間は,接続制約を組み込まないLR表で構文解析を行った場合と比較して約52\%,従来手法と比較して約2.4\%短縮された.解析精度(文正解率)は,接続制約を組み込まない場合と比較すると向上が見られたが,従来手法と比較すると大きな差は見られなかった.しかし,PGLRモデルによる確率計算の平滑化における問題を回避するためにも,不要な動作を削除することは有効であり,今後,コーパスベースの手法を取り入れた場合の精度向上の効果が大きくなると考えている.実験で示した解析精度(文正解率)はコーパスベースの解析と比較すると低いと思われるかもしれない.しかし,MSLRパーザは品詞間の接続制約とCFGのみを利用して構文解析を行う.この結果に共起データ等の情報を加えれば,コーパスベースの解析と同程度の正解率が得られるものと期待される\footnote{日本語文節係り受け解析では,文節係り受け精度は90\%を超えるが,1文中の全ての係り受けが正解となる割合は60〜65\%程度である\cite{noro:05}.文節区切りや形態素解析の誤りを考慮すると,文全体としての精度はさらに下がるものと考えられる.}.筆者らはルールベースの自然言語処理にはまだ検討の余地があると考えている.\vspace{1\baselineskip}\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aho,Sethi,\BBA\Ullman}{Ahoet~al.}{1986}]{aho:86}Aho,A.~V.,Sethi,R.,\BBA\Ullman,J.~D.\BBOP1986\BBCP.\newblock{\BemCompilers:Principles,Techniques,andTools}.\newblockAddisonWesley.\bibitem[\protect\BCAY{Briscoe\BBA\Carroll}{Briscoe\BBA\Carroll}{1993}]{briscoe:93}Briscoe,T.\BBACOMMA\\BBA\Carroll,J.\BBOP1993\BBCP.\newblock\BBOQGeneralizedProbabilisticLRParsingofNaturalLanguage(Corpora)withUnification-BasedGrammars\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(1),\mbox{\BPGS\25--59}.\bibitem[\protect\BCAY{Charniak}{Charniak}{1996}]{charniak:96}Charniak,E.\BBOP1996\BBCP.\newblock{\BemStatisticalLanguageLearning}.\newblockTheMITPress.\bibitem[\protect\BCAY{DeRemer\BBA\Pennello}{DeRemer\BBA\Pennello}{1982}]{deremer:82}DeRemer,F.\BBACOMMA\\BBA\Pennello,T.\BBOP1982\BBCP.\newblock\BBOQEfficientComputationofLALR(1)Look-AheadSets\BBCQ\\newblock{\BemACMTransactionsonProgrammingLanguagesandSystems},{\Bbf4}(4),\mbox{\BPGS\615--649}.\bibitem[\protect\BCAY{Inui,Sornlertlamvanich,Tanaka,\BBA\Tokunaga}{Inuiet~al.}{2000}]{inui:00}Inui,K.,Sornlertlamvanich,V.,Tanaka,H.,\BBA\Tokunaga,T.\BBOP2000\BBCP.\newblock\BBOQProbabilisticGLRParsing\BBCQ\\newblockInBunt,H.\BBACOMMA\\BBA\Nijholt,A.\BEDS,{\BemAdvancesinProbabilisticandOtherParsingTechnologies},\BCH~5,\mbox{\BPGS\85--104}.KluwerAcademicPublishers.\bibitem[\protect\BCAY{Jelinek}{Jelinek}{1998}]{jelinek:98}Jelinek,F.\BBOP1998\BBCP.\newblock{\BemStatisticalMethodsforSpeechRecognition}.\newblockTheMITPress.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2002}]{kudo:2002}工藤拓\JBA松本裕治\BBOP2002\BBCP.\newblock\JBOQチャンキングの段階適用による日本語係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(6),\mbox{\BPGS\1834--1842}.\bibitem[\protect\BCAY{Li\BBA\Tanaka}{Li\BBA\Tanaka}{1995}]{li:95}Li,H.\BBACOMMA\\BBA\Tanaka,H.\BBOP1995\BBCP.\newblock\BBOQAMethodforIntegratingtheConnectionConstraintsintoan{LR}Table\BBCQ\\newblockIn{\BemNaturalLanguageProcessingPacificRimSymposium},\mbox{\BPGS\703--708}.\bibitem[\protect\BCAY{Noro,Koike,Hashimoto,Tokunaga,\BBA\Tanaka}{Noroet~al.}{2005}]{noro:05}Noro,T.,Koike,C.,Hashimoto,T.,Tokunaga,T.,\BBA\Tanaka,H.\BBOP2005\BBCP.\newblock\BBOQEvaluationforaJapaneseCFGGrammarDerivedfromSyntacticallyAnnotatedCorpuswithRespecttoDependencyMeasures\BBCQ\\newblockIn{\Bemthe5thWorkshoponAsianLanguageResources},\mbox{\BPGS\9--16}.\bibitem[\protect\BCAY{白井\JBA植木\JBA橋本\JBA徳永\JBA田中}{白井\Jetal}{2000}]{shirai:00}白井清昭\JBA植木正裕\JBA橋本泰一\JBA徳永健伸\JBA田中穂積\BBOP2000\BBCP.\newblock\JBOQ自然言語解析のためのMSLRパーザ・ツールキット\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(5),\mbox{\BPGS\93--112}.\bibitem[\protect\BCAY{Tanaka,Tokunaga,\BBA\Aizawa}{Tanakaet~al.}{1995}]{tanaka:95}Tanaka,H.,Tokunaga,T.,\BBA\Aizawa,M.\BBOP1995\BBCP.\newblock\BBOQIntegrationofMorphologicalandSyntacticAnalysisBasedon{LR}ParsingAlgorithm\BBCQ\\newblock\Jem{自然言語処理},{\Bbf2}(2),\mbox{\BPGS\59--74}.\bibitem[\protect\BCAY{Tomita}{Tomita}{1991}]{tomita:91}Tomita,M.\BBOP1991\BBCP.\newblock{\BemGeneralizedLRParsing}.\newblockKluwerAcademicPublishers.\bibitem[\protect\BCAY{内元\JBA関根\JBA井佐原}{内元\Jetal}{1999}]{uchimoto:99}内元清貴\JBA関根聡\JBA井佐原均\BBOP1999\BBCP.\newblock\JBOQ最大エントロピー法に基づくモデルを用いた日本語係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(9),\mbox{\BPGS\3397--3407}.\end{thebibliography}\vspace{1\baselineskip}\begin{biography}\vspace{0.5\baselineskip}\bioauthor{野呂智哉}{2000年東京工業大学工学部情報工学科卒業.2005年同大学大学院情報理工学研究科博士課程修了.同年同大学同研究科計算工学専攻助手.現在,同大学同研究科計算工学専攻助教.博士(工学).自然言語処理,Web情報処理等の研究に従事.言語処理学会,情報処理学会,日本ソフトウェア科学会各会員.}\vspace{0.3\baselineskip}\bioauthor{田中穂積}{1964年東京工業大学工学部情報工学科卒業.1966年同大学院理工学研究科修士課程修了.同年電気試験所(現産業技術総合研究所)入所.1980年東京工業大学工学部情報工学科助教授.1983年同教授.1994年東京工業大学大学院情報理工学研究科教授.2005年中京大学情報科学部認知科学科教授.2006年東京工業大学先進研究機構機構長.2009年北陸先端科学技術大学院大学情報科学研究科特任教授,現在に至る.工学博士.人工知能,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\vspace{0.3\baselineskip}\bioauthor{橋本泰一}{1997年東京工業大学工学部情報工学科卒業.2002年同大学大学院情報理工学研究科博士課程修了.同年同大学同研究科計算工学専攻助手.2006年同大学統合研究院特任助教授.現在,同大学統合研究院特任准教授.博士(工学).自然言語処理,情報検索に関する研究に従事.言語処理学会,情報処理学会,人工知能学会,科学技術社会論学会,各会員.}\vspace{0.3\baselineskip}\bioauthor{白井清昭}{1993年東京工業大学工学部情報工学科卒業.1998年同大学院情報理工学研究科博士後期課程修了.同年同大学院情報理工学研究科計算工学専攻助手.2001年北陸先端科学技術大学院大学情報科学研究科助教授.現在同准教授.博士(工学).自然言語処理に関する研究に従事.言語処理学会,情報処理学会,人工知能学会,AssociationforComputationalLinguistics,各会員.}\end{biography}\biodate\end{document}
| |
V06N06-02 | \section{はじめに}
インターネット,イントラネットが急速に拡大し,情報洪水と呼ばれる程,多くの情報が氾濫している.氾濫する情報を効率良く入手する技術として,従来から,要約や抄録に関する研究が行なわれている\cite{tamura,hara,yamamoto}.これらの多くは,主に一つのドキュメントの内容を要約することに重点を置いているため,新聞やニュースのようなイベントに対して複数のドキュメントが存在する場合,時間的なイベントの変化のようなエピソード的な情報を構造化しにくいという問題がある\cite{yoshida}.情報を構造化して要約する手法としては,ドキュメントに対する重要項目をテンプレートとして準備し,テンプレートを用いて抽出した情報から要約を行なう手法がある\cite{mckeown,ando}.また,要約のためのテンプレートを,与えられた話題に関するドキュメント集合から自動的に抽出する手法も提案され,重要度を考慮したテンプレートの抽出が可能となっている\cite{yoshida}.実際のオフィス業務においては,イベントの経過情報や状況把握など分析的な情報選別のために,要約や抄録情報が求められる.この場合,ユーザの関心や意図が多岐に渡り,かつ,対象とする関連情報が大量に存在する.そのため,重要度を考慮するだけでなく,ユーザの様々な視点や観点から抄録情報をロバストに生成するフレームワークと,大量にある情報を大局的に把握するための要約が必要となる.一般に,要約(Abstract)とは,文書の中心的な話題を簡潔にまとめたものであり,抄録(Extract)とは文書から何らかの基準で文を抜き出しだしたものである.要約は,(1)indicative:読むか読まないか(2)informative:内容の要約(3)critical:要約+批評(4)comparative:サーベイというレベルに分けることができるが,内容の理解が必要となり,現在の技術では困難なものが多い\cite{paice}.抄録は,何らかの手かがりを元に重要な文を抜き出すことで,各文にスコアを付けてスコアの高いものを抜き出すことが多い.手法としては,キーワードの頻度によるもの,タイトルのキーワードを用いるもの,文の位置情報を用いるもの,構文関係を用いるもの,手がかりとなるキーワードを用いるもの,文の関係に着目するもの,などの方法が提案されている.エピソード抄録は,係り受け関係と固有名詞やパターン表現を手がかりとして,情報の要素をより詳細にインデクスして,時間的または位置的に情報をアレンジして抄録を作成する手法である.本稿では,時間表現,固有名詞,動作表現,動詞の格フレームに着目して,テキストに含まれるWho(だれが)・When(いつ)・Where(どこで)・What(なにを)・Why(なぜ)・How(どのように)・Predicate(どうした)といういわゆる5W1H情報を抽出して,時間や場所をソートキーとしたエピソード抄録,5W1H項目にシソーラスを適用して上位概念で要約する鳥瞰要約を提案する.5W1H情報は,日常の出来事を理解するためのキーとなっている概念であり,出来事の内容の核心部分を表現する.5W1H情報に着目することによって,オフィス業務における有効な抄録情報と大局情報を要約として生成することが可能となる.本報告では,まず,オフィス業務で求められる抄録と要約について説明し,次に,5W1H情報を用いたエピソード抄録と鳥瞰要約について説明する.そして,5W1H情報抽出の手法について述べ,エピソード抄録を新聞記事とセールスレポートに適用した事例と,鳥瞰要約を新聞記事情報に適用した事例を報告する.
\section{オフィス業務で求められる要約・抄録}
ユーザの情報要求(informationneed)には,ユーザの情報に対する認識や理解度によって異なるレベルの要求が存在する\cite{taylor}.ユーザが,ある情報の集合に対して,まったく情報がなければ,そもそも,その情報の集合は何を話題としたものかといった大局的な情報把握の要求が生じるであろうし,情報要求がある程度具現化されていていれば,その情報をトリガーとして,詳細情報や関連情報に対する要求が生じる.最近のWWWやインターネットの発達によって,オフィス業務においては,まさに,異なるレベルの情報要求が進化的に変遷する状況が生じている\cite{bates}.例えば,インターネットやフィルタリングサービスなどを通じて,大量の情報が提供されているが,提供された情報および情報の集合に対して,以下の3種類の情報要求が存在する.\noindent\underline{\bf鳥瞰情報:情報全体像の把握}提供された情報が数量的に膨大な場合,全体像を鳥瞰的に把握する必要がある.例えば,製品開発情報の集合が得られた場合,いつ頃,どのような種類の組織が,どの分野に関して,何を発表しているのかといった集合全体を把握したいという情報要求がある.\noindent\underline{\bf時間的経緯:縦方向への展開}提供された情報に含まれるイベントが,発生するに至る経緯情報が必要となる.例えば,「A社が〜ギガのメモリを開発した」という1次情報に対して,A社が今までメモリの開発に関してどのような時期にどのような技術を開発してきたのかという,いわば,1次情報からの垂直方向,縦方向への情報要求がある.\noindent\underline{\bf類似情報:横方向への展開}提供された情報を構成する要素を変数として,類似情報を比較的に獲得する.例えば,技術調査レポートを作成するユーザが,新聞記事検索を行なって,「A社が低価格のX製品を開発した」という情報を検索した場合,詳細情報は新聞記事本文で得ることができる.さらに,「他社はどうなっているか」,「A社のY製品はどうなっているか」などの情報を得るため2次的検索として行なう.いわば,1次情報からの水平方向,横方向への情報要求がある.現状の情報検索技術は,これらの情報要求に対して必ずしも有効な手段を提供していない.現在,一般的に行なわれている複数のキーワードの組み合わせによる情報検索では,キーワードが存在すれば,その論理的関連性の有無に係わらず文書が検索されノイズとなることが多い.例えば,{\bfNEC\&半導体\&生産}というキーワードで新聞記事を検索すると,「NECが〜と技術提携し,〜が半導体を生産する.」というように3つのキーワードの間に直接的なつながりが存在しない文も検索されることになる.このようなノイズは,いわゆる係り受け検索によって有効に絞り込まれることが報告されている\cite{mine}.我々は,これらの問題点を解決するために,係り受け情報だけでなく,テキストに含まれるWho(だれが)・When(いつ)・Where(どこで)・What(なにを)・Why(なぜ)・How(どのように)・Predicate(どうした)といういわゆる5W1H情報を用いた分類・ナビゲーション手法を提案してきた\cite{IAM97,ikeda98}.次章では,時間的経緯と鳥瞰情報に関する情報要求に応えるために開発した,5W1H情報を用いたエピソード抄録と鳥瞰要約について述べる.
\section{エピソード抄録・鳥瞰要約}
\subsection{エピソード抄録}\vspace{-0.0cm}情報の中から特定のイベントに着目し,そのイベントの時間的な経過をエピソードのように読める形の抄録として提示する.例えば,図\ref{episode1}のような電機業界に関する技術情報情報が与えられた時に,NECのPDPに関する取り組みという観点で,情報を時間的な経過とともに拾い読みすることができれば,一連のエピソードのように情報を獲得することができる.\begin{figure}[tbp]\vspace*{-6pt}\begin{center}\leavevmode\hboxto-20pt{\hss}\epsfile{file=episode1.prn,scale=0.40}\hboxto-20pt{\hss}\caption{エピソードの拾い読み}\label{episode1}\end{center}\end{figure}この場合,単純な論理式によるキーワード検索では,関連性の低いものも混在してエピソードのように読みとれなくなってしまう.そこで,図\ref{episode2}のように,情報の中から5W1H情報を抽出して,ある出来事に関して,predicateとargumentの関連のある情報だけを抽出し,時間順に並べて抄録情報を生成する.\begin{figure}[tbp]\vspace*{-6pt}\begin{center}\leavevmode\hboxto-20pt{\hss}\epsfile{file=episode2.prn,scale=0.40}\hboxto-20pt{\hss}\vspace*{-7pt}\caption{エピソード抽出}\vspace*{-6pt}\label{episode2}\end{center}\end{figure}この結果,その出来事に関するこれまでの経緯をエピソード的に読むことができるようになる.例えば,Who要素にNEC,What要素にPDPを含む文書を検索し,時間と対応づけて順に並べることで,NECのPDPの開発に関するエピソードとして,「95年10月にNECがパソコン対応PDPを開発.96年10月にNECがPDP量産工場を建設.97年2月にNECがカラーPDPテレビを量産.97年5月にNECが50インチPDPを発表.」という抄録を生成することが可能となる.エピソード抄録としては,時間軸とともに場所に着目することによって,位置的に展開したエピソードを提示することが可能である.図\ref{episomap}は,技術関連ニュースヘッドラインから,Where要素として場所の名前を抽出し,地図上にマップして表示した例である.対応する場所にマップして表示することで,エピソードと場所との関連を視覚的にとらえることが可能となる.エピソードの位置展開は,特に,政治家の遊説,犯人の逃亡記事,台風など自然災害情報のように,移動を伴うイベントのエピソード抄録として有効だと思われる.しかしながら,文中のWhere要素が,必ずしもイベントの発生地点を表しているのではないため,Where要素を含むすべての文を,同等に地図上にマップすべきかどうかは議論の余地がある.例えば,「北海道に製品工場を建設」と「北海道向け製品工場を建設」とでは,Where要素「北海道」が表している事柄が異なっている.このような場合の位置情報の効果的な提示方法については,今後も検討が必要である.\begin{figure}[tbp]\vspace*{-6pt}\begin{center}\leavevmode\hboxto-20pt{\hss}\epsfile{file=episomap.prn,scale=0.40}\hboxto-20pt{\hss}\vspace*{-7pt}\caption{エピソードの位置展開}\vspace*{-6pt}\label{episomap}\end{center}\end{figure}\subsection{鳥瞰要約}5W1H抽出した情報の集合に対して,シソーラスを用いることによって,各要素の情報をそれらの上位概念で代表させて,鳥瞰的に要約を生成することが可能となる.図\ref{chokan}は,「NECがPC98NXを発売」「××通信機が次世代パソコンを開発」「××電気が携帯パソコンを発売」「××通信が仮想商店街を開設」「××電話がインターネットサービスを強化」という5つのニュースからWho要素とWhat要素を抽出し,それぞれの要素に対してシソーラスの上位概念を照合したものである.\begin{figure}[tbp]\vspace*{-6pt}\begin{center}\leavevmode\hboxto-20pt{\hss}\epsfile{file=chokan.prn,scale=0.40}\hboxto-20pt{\hss}\vspace*{-7pt}\caption{鳥瞰要約}\vspace*{-6pt}\label{chokan}\end{center}\end{figure}この結果,これら5つのニュースに対して,例えば,「電機企業3社がパソコンを開発・販売した.」あるいは,「通信企業2社がネットワークサービスを開設・強化した.」という鳥瞰的な要約を生成することができる.鳥瞰要約に対しては,要約の対象となる母集団の情報に対して要約率と要約レベルを定義することができる.まず,ある1つの5W1H要素$wh$(Who,When,Where,What,Why,How,Predicateのどれか)に対して抽出された単語の集合${\bfW}_{wh}$をある概念$C_{wh}$で代表させるときの要約率$R_{wh}$を,以下のように定義する.\[R_{wh}=\frac{{\rmNum}({\bfW}_{wh}\cap{\rmWord}(C_{wh}))}{{\rmNum}({\bfW}_{wh})}\]ただし,\[\begin{array}{l}{\rmNum}(S):\mbox{集合$S$の要素数}\\{\rmWord}(C):\mbox{概念$C$に含まれるすべての単語の集合}\end{array}\]とする.このとき,全体の要約率$R_{all}$を,\[R_{all}=\prod_{wh\in\mbox{\{5W1H要素\}}}R_{wh}\]と定義する.これは,各5W1H要素を構成する単語のうち,それらを置き換える上位概念に含まれるものの割合を,すべての5W1H要素に関して乗じたものとなっている.例えば,図\ref{chokan}の5つの文について,Who要素を「電機企業」で代表させ,What要素を「パソコン」で代表させ,Predicate要素を「発売」で代表させる場合,各5W1H要素に対する要約率は,$R_{Who}=0.6,R_{What}=0.6,R_{Predicate}=0.4$となり,全体の要約率は,$R_{all}=0.144$となる.要約レベルは,5W1H要素のそれぞれについて,独立に定義される値で,置き換える上位概念が,シソーラス上で何レベル上位の概念であるかを示す.要約レベルをあげていくと要約率は高いものとなる.例えば,日本の各分野の100社が,様々な製品を開発したニュースが100件与えられた場合,「日本企業100社が製品を開発した.」という要約文は,要約率100\%ということになる.しかしながら,このような要約文が,ユーザにとって価値があるとは言いにくい.要約率・要約レベルという概念を導入することで,ユーザが指示する要約率・要約レベルに合わせるようにシソーラスの上位概念を探索して,鳥瞰要約を生成することが可能となっている.実際の要約では,適切な要約率になる上位概念を選択できないことがあるが,シソーラスで適切にカバーできない要素に関しては,頻度の多かった代表的なものを列挙して「など」という表現を加えて代表させることで,上位概念の代わりに用いることで解決できる.\subsection{5W1H要素の抽出}\label{sec:chushutsu}5W1H要素の抽出は,形態素解析結果と辞書情報を基にした浅い解析手法,表層格指向パーシングCBSP(Case-BasedShallowParsing)によって行なう.CBSPによって,頑健で効率的な5W1H抽出が実現できる.CBSPは,形態素解析を行い各単語に品詞情報を付与したテキストに対し,語彙情報,字句のパターン,助詞の情報を用いて5W1H解析を行うモデルで,浅い解析により,頑健で効率的な解析を実現している.基本的には,以下の3ステップから構成される.\begin{enumerate}\setlength{\itemindent}{8pt}\item固有名詞の抽出固有名詞のうち,人名・組織名をWho要素として,地名はWhere要素として抽出する.これにより,例えば,「NECが中国で半導体を生産する.」という文からは,Who要素としてNECが,Where要素として中国が抽出される.現在,約6万語の固有名詞辞書を利用している.\item特徴的表現のパターンマッチ特徴的なパターンに着目して,人名・組織名(Who要素),日時(When要素)を抽出する.例えば,「株式会社××」,「××大学」などのように「株式会社」が頭に付く語や大学が後に続く語は,会社名や大学名と考えられるため,これらをWho要素として抽出する.また,「平成××年×月」,「××/××/××」のようなパターンに当てはまる語は日時を示していると考えられるため,これらはWhen要素として抽出する.現在,人名・組織名のパターンを約100種類,日時のパターンを約20種類用意して,解析に利用している.\item表層格解析上記1,2のステップで抽出されなかった名詞は,その名詞に続く助詞等の情報を基に,どの5W1H要素に対応するのかを決定する.例えば,「が」および「は」が後に続く語はWho要素とし,「を」および「に」が後に続く語はWhat要素とする.動詞はPredicate要素として抽出する.1文中に複数のPredicate要素がある場合には,他の5W1H要素が,もっとも近いPredicate要素に係るものとして処理する.ただし,このとき,同種の5W1H要素は,同じPredicate要素には係らないものとしている.\end{enumerate}詳細なアルゴリズムを図\ref{fig:cbsp}に示す.\begin{figure}[ptb]\begin{center}\begin{tabbing}\hspace*{1em}\=\hspace{1em}\=\hspace{1em}\=\hspace{1em}\=\hspace{1em}\=\hspace{1em}\=\hspace{1em}\=\kill{\bfprocedure}CBSP;\\{\bfbegin}\+\\入力文を形態素解析;\\{\bfforeach}文中の単語{\bfdobegin}\+\\{\bfif}その単語が人名または組織名である{\bfthen}\+\\その単語をWho要素としてマークし,スタックに積む;\-\\{\bfelseif}その単語が地名である{\bfthen}\+\\その単語をWhere要素としてマークし,スタックに積む;\-\\{\bfelseif}その単語が人名・組織名のパターンに適合する{\bfthen}\+\\その単語をWho要素としてマークし,スタックに積む;\-\\{\bfelseif}その単語が日時のパターンに適合する{\bfthen}\+\\その単語をWhere要素としてマークし,スタックに積む;\-\\{\bfelseif}その単語が名詞である{\bfthen}\+\\{\bfif}その次の語が「が」または「は」である{\bfthen}\+\\その単語と,未定の要素をWho要素としてマークし,スタックに積む;\-\\{\bfif}その次の語が「を」または「に」である{\bfthen}\+\\その単語と,未定の要素をWhat要素としてマークし,スタックに積む;\-\\{\bfelse}\+\\その単語を,未定の要素として保持する;\-\-\\{\bfelseif}その単語が動詞である{\bfthenbegin}\+\\その単語を5W1HセットのPredicate要素として確定する;\\{\bfrepeat}\+\\スタックから1語取り出す;\\{\bfif}その単語に付けられたマークと同じ種類の5W1H要素がまだ未確定である{\bfthen}\+\\その単語を付けられたマークと同じ種類の5W1H要素として確定する;\-\\{\bfelse}\+\\repeatループを脱出する;\-\-\\{\bfuntil}スタックが空である;\-\\{\bfend}\-\\{\bfend}\-\\{\bfend}\end{tabbing}\caption{ThealgorithmforCBSP}\label{fig:cbsp}\end{center}\end{figure}CBSPによる解析で,約6400件の新聞記事ヘッドラインから,実際にWho,What,Predicate要素を抽出した結果について分析した結果を表\ref{tab:5w1heval}に示す.\begin{table*}[tbp]\begin{center}\caption{Who,What,Predicateの各要素および全体での抽出結果の評価}\vspace*{10pt}\small\begin{tabular}{lrrrrrrrrrr}\hline&\multicolumn{3}{l}{Who要素}&\multicolumn{3}{l}{What要素}&\multicolumn{3}{l}{Predicate要素}&\\\cline{2-10}&存在&非存在&計&存在&非存在&計&存在&非存在&計&全体\\\hline正解&5423&71&5494&5653&50&5703&6042&5&6047&5270\\誤り&414&490&904&681&14&695&55&296&351&1128\\\hline合計&5837&561&6398&6334&64&6398&6097&301&6398&6396\\\hline精度&92.9\%&12.7\%&85.9\%&89.2\%&78.1\%&89.1\%&99.1\%&1.7\%&94.5\%&82.4\%\\\hline\end{tabular}\label{tab:5w1heval}\end{center}\end{table*}この表では,新聞記事ヘッドラインにおいて,Who,What,Predicateの各要素が実際に存在している場合と存在していない場合のそれぞれについて,それらの要素が正しく抽出された文の数と正しく抽出されなかった文の数をまとめている.これによると,Who,What,Predicateの各要素が実際に存在している場合には,ほぼ90\%以上の文から各要素が正しく抽出できている.しかしながら,各要素が実際に存在していない場合には,高い精度が得られていない.これは,要素が実際に存在していない場合でも,別な語をその要素として抽出してしまう傾向があるためである.これにより,関係のない語が5W1H要素として抽出されることになるが,正しい5W1H要素が落ちるわけではないので,5W1Hを利用した検索において適合率を下げることはなく,実際には,大きな問題とはならない.要素がある場合とない場合との平均では,85\%から95\%の精度となっており,全体でも82.4\%の精度が得られている.その結果,エピソード抄録や鳥瞰要約として,ほぼ妥当な結果を得ることができる.
\section{新聞記事とセールスレポートへの適用}
新聞記事10000件を対象として,5W1Hに基づいて分類ナビゲーションを行なう情報活用プラットフォームを構築してきた\cite{okumura97}.図\ref{fig:plat}は,構築したプラットフォームの構成図である.指定された情報源から情報収集ロボットによって情報が収集され情報DBに毎日格納されていく.5W1H情報抽出モジュールは,収集した情報から,\ref{sec:chushutsu}節のアルゴリズムにより,1文ごとに5W1H情報を抽出し,5W1Hインデクスを生成する.ここでは,新聞記事ヘッドラインと本文記事からWho・What・Predicateの3種類について,5W1H要素としてキーワードを抽出し,5W1Hの種類とキーワードから文書を引くための5W1Hインデックスを作成している.抽出したキーワードをそのまま用いるため,同義語は別の語として扱うことになるが,要約文の生成時には,シソーラスによって同義語が統合される.また,すべての文を対象として抽出を行うため,Who,What,Predicateの3要素の一部が存在しない文でも,存在する要素からの検索が可能である.5W1Hインデクス情報を基に,情報分類モジュール,エピソード抽出モジュール,鳥瞰情報生成モジュールが,WWWサーバーを介してユーザに分類・ナビゲーション機能を提供する.フィルタリングサービス部は,ユーザプロファイルを参照して情報収集ロボットによって集められた情報からフィルタリングしてユーザに配信する.ユーザは配信された情報から,5W1H分類・ナビゲーションによって自分の読み進みたい方向へと情報を獲得していくことができる.今回,エピソード抽出モジュールにエピソード抄録生成機能を,鳥瞰情報生成モジュールに鳥瞰要約を生成する機能を実装した.\begin{figure}[tbp]\vspace{-0.45cm}\vspace*{-6pt}\begin{center}\leavevmode\hboxto-20pt{\hss}\epsfile{file=platform.prn,scale=0.40}\hboxto-20pt{\hss}\vspace*{-17pt}\caption{情報活用プラットフォーム}\vspace*{-6pt}\label{fig:plat}\end{center}\end{figure}\vspace{0.5cm}\subsection{新聞記事に対するエピソード抄録}エピソード抽出では,指定されたヘッドラインからWho・What・Predicate要素を抽出し,それと同じWho・What・Predicate要素の組を記事中に含む文書を関連エピソードとして検索して,ヘッドラインを時間順に並べて抄録として生成する.図\ref{fig:episode}は,「NEC半導体部門の生産予測を18\%増と発表」というヘッドラインから抽出した5W1H要素のうち,NEC・半導体・生産というWho・What・Predicate要素を本文中にもつ記事を検索し,ヘッドラインを時間順に整理してエピソード抄録として提示した例である.利用者は,エピソード抄録を読むことで,96年10月はNECの半導体生産が下方修正され,半導体各社が投資を減らし,世界規模で市場が減となり,12月には他の会社が工場建設を中止するなど,市場が冷え込んでいくが,97年になると,次世代DRAMで好転して,各社,計画を増額していくエピソードを読みとることができ,NECの半導体の生産が18\%増に至るまでの経緯を知ることができる.\begin{figure}[tbp]\vspace*{-6pt}\begin{center}\leavevmode\epsfile{file=episode.ps,scale=0.4}\vspace*{-2pt}\caption{5W1Hによるエピソード抽出}\vspace*{-6pt}\label{fig:episode}\end{center}\end{figure}\vspace{-0.cm}\subsection{新聞記事に対する鳥瞰要約}情報鳥瞰では,Who要素に出現する約2800の企業を業種別に分類したシソーラスと,What要素に出現する約2000のキーワードを技術分野別に分類したシソーラスを利用して,Who・What要素の各キーワードを統合し,鳥瞰的な分類を生成する.Predicate要素については,キーワードの種類が少ないことから,高頻度で出現するキーワード8語で分類している.図\ref{fig:bview2}に97年4月の約400件のヘッドラインに対する情報鳥瞰の結果を示す.Who・What要素のキーワードを階層的なシソーラス構造として扱うことで,最初は荒い分類を提示し,必要な部分だけ展開して細かい分類を見せることができる(図\ref{fig:bview3}).\begin{figure}[tb]\vspace*{-20pt}\begin{center}\leavevmode\hboxto-5pt{\hss}\epsfile{file=bview2.eps,scale=0.5}\hboxto-5pt{\hss}\vspace*{-2pt}\caption{シソーラスを利用した情報鳥瞰}\vspace*{-6pt}\label{fig:bview2}\end{center}\end{figure}\begin{figure}[tb]\vspace*{-25pt}\begin{center}\leavevmode\hboxto-5pt{\hss}\epsfile{file=bview3.eps,scale=0.5}\hboxto-5pt{\hss}\vspace*{-10pt}\caption{シソーラスを利用した情報鳥瞰:細分類}\label{fig:bview3}\end{center}\end{figure}これらの鳥瞰分類結果をもとに,各月の記事の鳥瞰要約を生成する.まず,もっとも要約率の高い要約を生成する部分,すなわち,分類された記事がもっとも多い部分について,Who,What,Predicateのシソーラス上の概念または代表的なキーワードをパターンに当てはめて要約文を生成し,ユーザに提示する.図\ref{fig:bview2}の例では,「97年4月は,電機企業30社がマルチメディア総合技術に関する開発・発売などを131件発表している.」という要約文が生成される.この場合,Who要素とWhat要素については,キーワードをシソーラス上の1つ上の上位概念で置き換えているため,要約レベルは1となり,Predicate要素については,キーワードそのままの表現を用いているため,要約レベルは0となる.ユーザには,この後,要約率の高い順に要約文が順々に提示される.\vspace{0.5cm}\subsection{セールスレポートに対するエピソード抄録}ある会社の約2500件のセールスレポートに対して5W1H情報抽出を行ない,エピソード抄録を生成した.ここでは,実際のセールスレポートを実験用に変換した例を用いて説明する.セールスレポートは,営業マンが担当する顧客の要望などを報告したものである.このレポートは,メッセージアベニューという配信サービスとして関係者に配信される.セールスレポートは,5W1H情報抽出によって,日時,顧客名,対応支店名,機種名,用件が抽出される.図\ref{fig:mavenue}は,97年4月の一ヶ月分のセールスレポートの一覧である.画面上部のフレームにセールスレポートのリストが,画面下部のフレームに選択されたセールスレポートの内容が表示される.図\ref{fig:mavenue}の例では,リストの3番目のレポートを表示している.このレポートにおいて,○×建築が顧客名,若葉台支店が対応支店名,XX282ソフトが機種名,2000年問題が用件に対応\breakする.この画面から,例えば,○×建築殿という部分をクリックすることで顧客,○×建築に関するレポートを顧客名,対応支店名,機種名の視点からブラウズすることができる.\begin{figure}[tb]\vspace*{-6pt}\begin{center}\leavevmode\hboxto-20pt{\hss}\epsfile{file=mavenue.eps,scale=0.5}\hboxto-20pt{\hss}\vspace*{-7pt}\caption{セールスレポートの一覧}\vspace*{-6pt}\label{fig:mavenue}\end{center}\end{figure}顧客名,対応支店名,機種名,用件の中の任意の2要素に関して,情報を共有するレポートからエピソード抄録を生成する.「97/4/16,A銀行殿が,新宿営業所に,空調システムBの保守対応」という記事をクリックするとレポート本文が表示される.本文には,「4/16昨日発生した空調システムBの故障の件でA銀行殿に報告に伺った.『障害対応に関し弊社の対応はまだ手ぬるい.全体的にレスポンスが悪い』とのご指摘が有り,担当拠点を集めてオリエンテーションを開催する事にした.」と記述されている.このレポートに対して,顧客と機種名をキーとしてエピソード抄録機能を適用すると,図\ref{episomap2}のように,今までの経過が時間順に提示される.この抄録情報によって,A銀行では空調システムBに障害・保守対応が続発しており,顧客が不満を持っているというエピソードを読みとることができる.\begin{figure}[tb]\vspace*{-20pt}\begin{center}\leavevmode\hboxto-5pt{\hss}\epsfile{file=episomap2.prn,scale=0.42}\hboxto-5pt{\hss}\vspace*{-35pt}\caption{顧客と機種に関するエピソード}\vspace*{-6pt}\label{episomap2}\end{center}\end{figure}\vspace{1.0cm}
\section{おわりに}
本稿では,5W1H情報によるエピソード抄録と鳥瞰要約を提案した.これらの機能は,ある出来事に至るまでの経緯という時間的経過に関する情報要求,多量の情報の中から主たる話題・内容を大局的に把握するという情報要求に応えることを目的としている.エピソード抄録と鳥瞰要約を新聞記事10000件とセールスレポート2500件を対象として適用したところ,エピソード抄録は,ユーザの様々な視点から抄録情報をロバストに生成できること,鳥瞰要約は,大量にある情報を大局的に把握するための要約となることを確認した.さらに,鳥瞰要約では,要約率と要約レベルを定義することができ,ユーザの指定にしたがって要約を生成することができる.今後,ユーザにとってより満足度の高い抄録・要約機能の実現するため,以下の改良を行なう.\begin{itemize}\itemエピソード抄録:5W1Hの各要素をどの程度共有するものをエピソードとするかに関しては,いくつかのレベルが考えられる\cite{ikeda97}.ユーザの目的にあわせて,そのレベルをコントロールして,抄録を生成するべきである.今回,新聞記事では,Who・What・Predicate要素をキーとしてエピソードを生成し,セールスレポートでは,顧客名,対応支店名,機種名,用件の中の任意の2要素をキーとしてエピソード抄録を生成した.今後は,エピソードに関するレベルコントロール機能を実装して評価を行なう\cite{ikeda97}.また,エピソード抄録の構成方法としては,新聞記事への適用のように,本文中に関連情報を含むヘッドラインを列挙する方法と,セールスレポートのように関連情報を含む文そのもの(ヘッドライン)を列挙する方法を実装したが,長い抄録となる場合もある.同種類の内容のものは繰り返さない,鳥瞰要約と組み合わせて情報を圧縮するなど,簡潔な抄録を得るための工夫を行なう.\item鳥瞰要約:鳥瞰要約では,シソーラスの選択および適用方法が重要である.Who要素に関しては,比較的ユニークなシソーラスを構築しやすいが,What要素はシソーラスは一通りではなく,複合的なオントロジとなる.オントロジを用いていくつかの観点から鳥瞰要約を生成可能として,ユーザにとって必要な視点の要約を提示する必要がある.また,鳥瞰要約では,どのようにシソーラスの上位概念を置き換えて要約するのが効果的なのかユーザの目的によって異なる.要約率,要約レベル,選択するシソーラスを組み合わせてより効果的な鳥瞰要約の生成方法を検討する.\end{itemize}\vspace{17mm}\bibliographystyle{jnlpbbl}\bibliography{v06n6_01}\begin{biography}\biotitle{略歴}\bioauthor{奥村明俊}{1984年京都大学工学部精密工学科卒業.1986年同大学院工学研究科修士課程修了.同年,NEC入社.1992年10月南カリフォルニア大学客員研究員(DARPAMTプロジェクト1年半参加).1999年東京工業大学情報理工学研究科博士課程修了.現在,C\&Cメディア研究所,主任研究員.自然言語処理の研究に従事.工学博士.情報処理学会,ヒューマンインタフェース学会などの各会員.}\bioauthor{池田崇博}{1994年東京大学理学部情報科学科卒業.1996年同大学院理学系研究科修士課程修了.同年,NEC入社.現在,C\&Cメディア研究所,研究員.自然言語処理,情報分類の研究に従事.情報処理学会会員.}\bioauthor{村木一至}{1974年京都大学工学部情報工学科卒業.1976年同大学院工学研究科修士課程修了.1979年NEC入社.現在,パーソナルソフトウェア事業部,グループマネジャ.自然言語理解,アイディアプロセッシングの研究に従事.情報処理学会,人工知能学会,ACL各会員.NaturalLanguageEngineering編集委員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V05N04-06 | \section{はじめに}
バリアフリーというキーワードの下に各種福祉機器の開発やパソコンソフトの開発が企業や大学で進められている.なかでも視覚障害者向けには点字ピンディスプレイや音声合成装置などを用いて,コンピュータによる積極的な情報処理教育,職業訓練が行われている.このためにはコンピュータのマニュアルや教科書等を点字に翻訳する必要があるが,点字翻訳ボランティアの数は少なく,年間,一人のボランティアが翻訳できる専門書は3,4冊程度である.日本語を点字に翻訳するシステムは過去にいくつか提案されており,市販されているものもある.日本アイ・ビー・エムの嘉手川らは約77000語の基本単語辞書を用いて分かち書きと漢字かな変換を行うシステムを開発した\cite{kadekawa}.筑波技術短期大学の河原は市販の点字翻訳プログラムの誤りを解析し,ICOTの形態素解析辞書を用いて点字翻訳結果の改良を行うシステムについて報告している\cite{kawahara}.このような状況のなかで,点字翻訳ボランティアにとって最も時間がかかり,難しいとされている分かち書きを自動的に行い,かつ,誤っている可能性のある箇所を指摘して初級点字翻訳ボランティアの分かち書きを支援する方法について考察し,試作システムを構築したのでそれについて報告する\cite{Suzukietal1997a},\cite{Suzukietal1997b},\cite{Suzukietal1997c}.一方,対話システムとしては,最近,情報機器との自然なコミュニケーションを目指して様々な対話システムやユーザインタフェースの研究が行われている\cite{hatada}.ここでは筆者らの提案する対話型システムに最も類似した機能をもつと考えられる,畑田らのOCRの誤り修正支援システムとの比較検討を行う.
\section{分かち書きの規則と問題点}
\subsection{点字翻訳のための分かち書き}点字翻訳(以下,本文中では点訳と称する)は一般に図~\ref{fig:a0}に示したような手順で行われる.すなわち,漢字かな混じり文を点字の規則に従って分かち書きを行ったのち,漢字に読みをつけ,読みを表音文字体系に変換し,最後に点字出力形態に合わせて点字を出力する.\begin{figure}[t]\begin{center}\epsfile{file=proc_tenji.ps,scale=0.65}\caption{点訳の手順}\label{fig:a0}\end{center}\end{figure}従来この作業は,点訳ボランティアによりすべて手作業で行われていた.一字一字点筆を用いて打点するため,修正するにはそのページ全体を打ち直す必要があり,非常に時間がかかる.最近,パソコンで動作する点訳プログラムが入手できるようになって点訳の効率は格段に上がった.しかし完全自動化には限界があり,点訳プログラムはあまり利用されていない.その主な原因は,次の2点と考えられる.\vspace{0.3cm}\begin{enumerate}\item通常の自然言語処理における形態素解析や構文解析では点字特有のパターンを全て表現するのは困難であり,文節レベルより細かい区切りが必要とされる.このため,点訳ボランティアは点訳プログラムで区切り処理されたカナあるいは点字の文章全体を再度見直す必要がある.\item日本語の漢字は複数の読みをもつものが多く,読みを一意に決定することは困難である.従って,点訳ボランティアは点訳プログラムが与えた読みについても見直して修正する必要がある.\end{enumerate}\vspace{0.3cm}原因(1)について補足説明する.第一番目の問題として形式名詞の問題がある.形式名詞を要素として含む助動詞「(〜する)ことだ」の場合,一般の形態素解析では直前の文節に続けて一つの文節とされるが,点字の場合は「こと」の前で区切らなければならない.第二番目に複合語の問題がある.「漢語+する」の形のサ変名詞は,「研究する」だと点字の分かち書きでは区切らない.しかし,これが複合語化して「共同研究する」となった場合は,「共同」「研究」「する」と3つに区切らなければならない.日本語のように漢字を組み合わせて容易に新しい単語を作る言語の場合,従来の形態素解析は複合語を構成する基本となる漢字2字熟語,漢字3字熟語を辞書に登録しておくことで処理を行う.しかし,点字の分かち書きの場合,その単語が何文字の熟語から構成されているかが認定されるだけでは正しく分かち書きを行うことができない.いくつの漢字2字熟語,漢字3字熟語が組み合わされているか,という情報が必要になる.日本語文の文節区切りは従来,点訳の分かち書き用としてではなく,機械翻訳,日本語によるデータベース検索,文書校正支援等のための形態素解析として,佐藤\cite{satoh},長尾\cite{nagao}らによって研究されてきた.これらの手法は大規模な文法情報付きの辞書をそれぞれ独自に用意して形態素解析を行うものであった.一方,最近では言語資源の共有やモジュラリティの観点から春野\cite{haruno},颯々野\cite{sassano},松本\cite{matsumoto97}らがより実用的な形態素解析システムについて提案している.これらのシステムは形態素解析結果の曖昧性については考慮しているが,第一候補のみを示す一括処理を基本としている点,文節より細かい分割レベルの解析は行わない点などの理由で,点訳へ直ちに適用するには困難がある.一般の形態素解析では与えられた入力文に対して単語辞書や文法辞書,それにユーザ辞書などを用いて処理が行われ,文節と認定された単位で区切られる.機械翻訳に用いられる場合と音声合成のために用いられる場合とでは,文節の単位が異なり,一意に決定できるものではない.このような形態素解析方式を点訳に適用するには以下のような問題点があると考えられる.\vspace{0.3cm}\begin{enumerate}\item点訳に必要な分かち書きの単位としては,一般の形態素解析によって決定される文節よりもさらに細かく分割する必要がある.\item後に続く処理のフィードバックによって前の処理の誤りが発見,修正される一般の自然言語処理と異なり,形態素解析の誤りをその後の点訳処理で回復することが難しい.\item点訳のための分かち書きでは,「連濁」や複合語化によって区切り方が変わるにもかかわらず,従来の形態素解析ではそのような「読み」や複合情報までの詳しい出力が得られない.複合情報とは,点訳のための分かち書きに必要となる連濁や複合語の語数などを示す情報のことである.\end{enumerate}\subsection{提案するシステムの基本方針}前述のような問題点をふまえ,筆者らは従来より行われてきた形態素解析に用いられるような大規模な辞書と文法規則を用いず,簡便な表層解析のみを行うことによって分かち書きを行い\cite{Suzukietal1997a},対話的に誤りを修正していくことを試みている\cite{Suzukietal1997b},\cite{Suzukietal1997c}.対話機能を導入することにより点訳ボランティアの見直しの手間が軽減され,点訳作業にかかる時間の大幅な短縮が期待される.本システムの基本方針は次の4点である.{\renewcommand{\labelitemi}{}\begin{enumerate}\item{分かち書きの処理を自動分割と対話処理の2段階で行う.}\item{文法情報を含まない単語のみからなる7種類のテーブルを用いて表層解析を行う.}\item{自動分割の際に用いる分かち書きの規則を表層情報に基づく知識に書き換え,知識ベース化する(以下,知識ベースAと称する).}\item{自動分割による分かち書きが疑わしい箇所および,表層情報では一意に決定できない分かち書き箇所を対話処理でユーザに提示するための規則を知識ベース化する(以下,知識ベースBと称する).}\end{enumerate}}
\section{システム構成と分かち書き手順}
\subsection{システム構成}今回構築した試作システムの構成を図~\ref{fig:c}に示す.本システムは自動分割部と対話処理部の2つから構成される.\begin{figure}[t]\begin{center}\epsfile{file=wakachigaki.ps,scale=0.55}\caption{対話型分かち書き支援システム構成図}\label{fig:c}\end{center}\end{figure}自動分割部では以下のような処理を行う.最初に入力文から,各種テーブルと字種情報を用いて表層情報を抽出する.ここで得られた表層情報を基に,知識ベースAの知識を用いて分かち書き箇所を決定する.分かち書きの知識が競合した場合には,優先点数の高い知識を優先する.自動分割部では熟練ボランティアによって作成された正しく分かち書きされたファイル(以後「正解ファイル」と称する)を用いて知識ベースAの知識をチューニングするための機能をもつ.対話処理部では,自動分割部の処理結果のうち,信頼性が低い箇所を知識ベースBを用いてユーザに示したり,自動分割に用いた知識を表示したりする.ユーザはシステムによって指摘された箇所のみを順にチェックすることにより,容易に分かち書きを行うことができる.それぞれの処理について順に説明する.\vspace*{-1ex}\subsection{自動分割部}\subsubsection{表層解析}本システムが行っている表層解析について説明する.ここで表層解析とは,漢字かな混じりテキストの字面から判別できる字種や,以下に示す表層情報を抽出することである.具体的には,表\ref{bt-tables}に示す7種類のテーブル名が示す情報を表層情報と定義し,文中のどこからどこまでがそれぞれのテーブルの要素と一致したかを調べる.形態素解析では辞書をひいて単語ごとに文法情報を得,文法情報に基づいて単語の連接を詳しく調べていくのに対して,表層解析では,文に出現する文字列の表層情報をテーブルを参照しながらチェックするだけで,前後の語と語の関係については考慮しない.\begin{table}[bt]\begin{center}\small\caption{表層解析で用いるテーブル}\label{bt-tables}\begin{tabular}{|c|c|r|r|l|}\hlineテーブル名&書式&\multicolumn{1}{|c|}{語数}&\multicolumn{1}{|c|}{容量(kbyte)}&\multicolumn{1}{|c|}{例}\\\hline\hlineひらがな書き自立語&単語:区切り方&250&0.3&しかし:前後,はっきり:前\\\hline助詞&単語&25&2.3&と,は\\\hline漢字2字熟語&単語&62,512&312.6&圧力,計算\\\hline漢字3字熟語&単語&24,262&169.3&亜熱帯,委員長\\\hline接頭語&単語&54&0.1&不,副\\\hline接尾語&単語&67&0.2&機,的\\\hline混ぜ書き語&単語&10,826&75.8&引き算,繰り返\\\hline\end{tabular}\end{center}\end{table}\normalsize本システムの表層解析で用いるテーブルはここに示した7つであり,従来の形態素解析辞書のような文法情報は持っていない.ひらがな書きの自立語テーブル以外はすべて単語のみからなる.ひらがな書き自立語テーブルでは,各ひらがな自立語ごとに,その前および後で区切るかどうかの情報を持たせている.ひらがな書き自立語とは「しかし」「はっきり」のようなすべてひらがなで表記される自立語を指す.これらは表層解析の際,分かち書きの重要な目安となる助詞との区別がつきにくいうえ,ひらがな書き自立語どうしが接続した際,分かち書きを誤る可能性が高い.例えば,「しかし」は独立して出現するので「しかし」の前後は分かち書きを行なう,すなわち「前後で区切る」となる(表\ref{bt-tables}の例参照).「はっきり」の場合,「はっきりと」「はっきりした」「はっきり/示す\footnote{`/'は区切りを現す}」というように後続する語によって後ろの分かち書き方が変化する.従って,「はっきり」については「前で区切る」となる(表\ref{bt-tables}の例参照).これらのテーブルはEDR日本電子化辞書研究所の「日本語基本単語辞書」から情報処理関連の単語を抽出し,ひらがな書き自立語については区切り方の情報を人手により入力した.また,接頭語,接尾語については文献\cite{nagao}を参照し,実際のテキストから抽出して作成した.ひらがな書き自立語以外のテーブルは単語のみからなるため,語の追加・削除が容易\newpage\begin{flushleft}である.また,ひらがな書き自立語についてもユーザは容易に修正できる.\end{flushleft}\begin{table}[bt]\caption{知識ベースAの知識一覧}\label{知識ベースAの知識一覧}\hspace*{-3ex}\footnotesize\begin{tabular}{|c|c|p{72ex}|c|}\hline分類&識別番号&\multicolumn{1}{|c|}{知識}&{\small優先点数}\\\hline\hline&知識~1-1&句読点の前で区切らない&9\\\cline{2-4}句読点&知識~1-2&句点の後ろで2回区切る&10\\\cline{2-4}&知識~1-3&読点の後ろで区切る&9\\\hline&知識~2-1&括弧の後ろは区切らない&8\\\cline{2-4}&知識~2-2&括弧閉じの前は区切らない&11\\\cline{2-4}\raisebox{1.5ex}[0pt]{括弧}&知識~2-3&鈎括弧`「'の前で区切る&8\\\cline{2-4}&知識~2-4&括弧閉じ→\{漢字orカタカナ\}間で区切る&1\\\hline&知識~3-1&ひらがな→漢字間で区切る&3\\\cline{2-4}&知識~3-2&ひらがな→カタカナ間で区切る&1\\\cline{2-4}&知識~3-3&カタカナ→漢字間で区切る&1\\\cline{2-4}&知識~3-4&漢字→カタカナ間で区切る&1\\\cline{2-4}字種の&知識~3-5&\{漢字orひらがなorカタカナ\}→アルファベット間で区切る&5\\\cline{2-4}変わり目&知識~3-6&アルファベット→\{漢字orひらがなorカタカナ\}間で区切る&5\\\cline{2-4}&知識~3-7&\{漢字orひらがなorカタカナ\}→数字間で区切る&7\\\cline{2-4}&知識~3-8&\{漢字orひらがなorカタカナ\}→(区切る種類の)記号間で区切る&7\\\cline{2-4}&知識~3-9&(区切る種類の)記号→\{漢字orひらがなorカタカナ\}間で区切る&5\\\cline{2-4}&知識3-10&\{漢字orひらがなorカタカナ\}→(区切らない種類の)記号間で区切る&7\\\cline{2-4}&知識3-11&(区切らない種類の)記号→\{漢字orひらがなorカタカナ\}間で区切る&5\\\hline&知識~4-1&助詞の前であれば区切らない&4\\\cline{2-4}\raisebox{1.5ex}[0pt]{助詞}&知識~4-2&助詞の後ろを区切る&3\\\hline&知識~5-1&\{前後or前\}を区切る種類のひらがな書き自立語の前を区切る&7\\\cline{2-4}自立語&知識~5-2&\{前後or後\}を区切る種類のひらがな書き自立語の後ろを区切る&5\\\cline{2-4}&知識~5-3&ひらがな書き自立語の内部は区切らない&4\\\hline&知識~6-1&混ぜ書き語の前を区切る&5\\\cline{2-4}\raisebox{1.5ex}[0pt]{混ぜ書き語}&知識~6-2&混ぜ書き語の内部は区切らない&6\\\hline&知識~7-1&漢字熟語の前を区切る&5\\\cline{2-4}\raisebox{1.5ex}[0pt]{漢字熟語}&知識~7-2&漢字熟語の後ろが漢字ならば漢字熟語の後ろで区切る&1\\\hline&知識~8-1&接頭語の前を区切る&3\\\cline{2-4}接頭・&知識~8-2&接尾語の前を区切らない&2\\\cline{2-4}接尾語&知識~8-3&接頭語の後ろは区切らない&6\\\cline{2-4}&知識~8-4&接尾語→漢字間で区切る&1\\\hline&知識~9-1&空白の前を区切らない&9\\\cline{2-4}\raisebox{1.5ex}[0pt]{空白}&知識~9-2&空白の後ろで区切らない&8\\\hline&知識10-1&「て,ば」の前に漢字があるなら「て,ば」の後ろで区切らない&4\\\cline{2-4}&知識10-2&\{第or約\}→数字間では区切らない&8\\\cline{2-4}&知識10-3&数式の後ろで2回区切る&8\\\cline{2-4}\raisebox{1.5ex}[0pt]{その他}&知識10-4&促音・拗音・撥音の前は区切らない&9\\\cline{2-4}&知識10-5&「お」→漢字間は区切らない&6\\\cline{2-4}&知識10-6&「各」の後ろで区切る&5\\\hline\end{tabular}\end{table}\normalsize\subsubsection{自動分割のための知識ベース}分かち書きに必要な知識を表\ref{知識ベースAの知識一覧}に示す.ここで表~\ref{知識ベースAの知識一覧}の第3列目に表現されている「知識」内の言葉について説明を加えておく.分かち書きには3種類の区切り方がある.1つ目が語と語の間に1文字分のスペースをあけることで,表中,「区切る」とはスペース(空白)をおくことを意味する.とくに「2回区切る」とは,2つのスペースを連続して置くことで,このようなことは句点の後や倒置文において生じる.3つ目がスペースをあけずに続けて書く場合で,これを「区切らない」と書く.知識の総数は現在のところ39個である.知識は以下の4種に大別できる.\begin{enumerate}\item[(1)]{\bf句点,かっこ,スペースに関する知識}\end{enumerate}\begin{quote}\vspace{0.3cm}\begin{flushleft}点訳のための分かち書きを行う上で,必ず守らなければならない知識を導入した.これらの知識には高い優先点数を与えた.\end{flushleft}\vspace{0.3cm}\end{quote}\begin{enumerate}\item[(2)]{\bf字種の変わり目に関する知識}\end{enumerate}\vspace{0.3cm}\begin{quote}\begin{flushleft}字種の変わり目に着目した知識を導入した.様々な字種の組合せについて11個の知識で対応する.\end{flushleft}\end{quote}\vspace{0.3cm}\begin{enumerate}\item[(3)]{\bf漢字熟語,ひらがな書きの自立語,混ぜ書き語,助詞,接頭語・接尾語に関する知識}\end{enumerate}\vspace{0.3cm}\begin{quote}\begin{flushleft}字種の情報だけでは区切り方の曖昧な箇所について各種テーブルから得られる表層情報を基に区切り方を決定するための知識を導入した.\end{flushleft}\end{quote}\vspace{0.3cm}\begin{enumerate}\item[(4)]{\bfその他に関する知識}\end{enumerate}\vspace{0.3cm}上記(1)〜(3)を用いても区切り方が曖昧な箇所に対して導入した.知識の獲得は,通常のエキスパートシステムにおける知識ベースの構築手順に従って行った.手順としては,「点訳の手引」等に示されている分かち書きの規則のうち,表層情報を用いて記述できるものを知識として知識ベースに加えた.表~\ref{知識ベースAの知識一覧}のうち,句読点の分類の1-1,1-2,1-3,助詞の4-1,4-2がこれにあたる.また,「点訳の手引」では学校文法風に記述されている規則,例えば,「自立語の前を区切る」という規則を表層情報を用いて記述し,知識ベースに加えた.表~\ref{知識ベースAの知識一覧}における字種の変わり目の分類にある,3-1〜3-11,5-1〜5-3,6-1,6-2がこの例である.また,予備実験の結果,表~\ref{知識ベースAの知識一覧}のその他,10-1〜10-6のような知識を知識ベースに加えた.これらは情報処理関連の文献に出現することが多く,表情情報を用いて表現可能な知識である.このようにして知識を記述していくが,表層情報だけでは記述不可能な規則については対話処理で取り扱う.知識同士が競合した場合にどの知識を選択するかを決定するために各知識には優先点数を設定した.例えば,「機械的」のような漢字列について考える.「機械」は漢字2字熟語のため,表~\ref{知識ベースAの知識一覧}の知識7-2により,「械」と「的」の間を区切るという規則が適用される.一方,知識8-2により,接尾語の前は区切らないという規則が適用され,知識が競合する.この際,それぞれの知識に付与されている優先点数をみると,7-2の知識が1点,8-2の知識が2点で,8-2の知識の方が優先度が高いことがわかる.よってこの場合,知識8-2が適用され,「械」と「的」の間は区切らない.これは分かち書きとしては正解となる.知識ベースAのチューニングのため,我々は熟練ボランティアによって正しく分かち書きされた正解ファイルを用意した.正解ファイルを用いることにより,知識ベースAの知識によって正しく区切られる箇所を知ることができ,知識のチューニングを容易に行えるようにした.例えば表\ref{知識ベースAの知識一覧}の知識1-3は以下のように簡潔に表現するようにした.\hspace*{0.1em}\begin{tabular}{cclp{2cm}}{知識1-3}&{\(R_3\)~=~}&{(~~1-3~,~~9~,}\\&&{if~~(~~前の文字~=~読点~~)~,}\\&&{then~~区切り方~=~注目している文字間で区切る~~)}\\\end{tabular}ここで,右辺の第1項が知識の識別番号,第2項が優先点数,第3項が知識適用の条件部,第4項がその知識を適用した場合の区切り方である.第4項については前述のとおり「区切らない」「区切る」「2回区切る」の3通りがある.我々の提案する分かち書き知識は,文字と文字の間に注目して,その文字間を「区切らない」か,「区切る」か「2回区切る」かを順次判断していく.\subsubsection{自動分割部におけるユーザインタフェース}自動分割では,ユーザはツールバーに表示されているボタンをクリックすることにより,あるいはメニューバーからプルダウン式に表示されるメニューを選択することにより,「一段落ごと」あるいは「全文一括」のモードで分かち書きを行うことができる.「全文一括」モードでは,文書の全段落の現在何段落目を処理中であるかがダイアログボックスに表示される.\subsection{対話処理部}\subsubsection{対話処理のための知識ベース}対話処理部における知識の構築の基本方針は次の2つである.\begin{enumerate}\item{分かち書きの規則のうち,表層情報だけでは曖昧で区切り方を一意に決定できない規則を知識とした.}\item{自動分割処理の結果,誤っている可能性が高い区切り箇所の特徴をまとめて知識とした.}\end{enumerate}(1)については例えば,点訳のための分かち書きの規則として,\begin{itemize}\item{助動詞の「ない」の前は区切らない}\item{形容詞の「ない」の前は区切る}\end{itemize}という規則がある.この場合,「ない」の品詞が決定できないと正しく分かち書きが行われない.我々が今回採用している表層解析では「ない」の字種と「ひらがな書き自立語」であるという情報しかもたないため,「ない」の直前の区切りは常に曖昧である.このような分かち書き規則に対し,対話処理で用いる知識ベースBでは「『ない』の直前の区切りは曖昧であるのでユーザに提示する」という結論部によりユーザの指示を待つ.(2)については,「情報通信」のような漢字熟語の場合,正しくは「情報」と「通信」に分かち書きされなければならない.しかし漢字2字熟語,漢字3字熟語の2つの漢字テーブルを検索すると「情報」,「通信」,「情報通」が登録されている.本来ならばここで,「情報」+「通信」で「情報通信」という組合せが尤もらしいと判断されるべきである.しかし,「流体力学」のような漢字熟語の場合,「流体」「体力」「力学」と分割可能で,熟語が長くなればその組合せはさらに増える.ところで,表層解析では語と語の組合せ(前後の語の接続関係や,オーバーラップしているかどうか,熟語のすべての文字列がテーブルによってカバーされているかどうか,等)についてはチェックしない(3.2.1節参照).このために「情報通信」の例では,「情報通」が優先されて「情報通」「信」というように誤って分かち書きされてしまう.今回我々は簡便な前方最長一致の手法を用いることとしたため,漢字熟語の区切りはこのような誤りが多いことから,知識ベースBに「漢字連続部は分かち書きを誤る可能性が高い」ということでユーザに提示する.この漢字熟語分割手法についてはさらに検討を要する.\subsubsection{対話処理部におけるユーザインタフェース}自動分割における分かち書きが終了すると文書には分かち書きの区切りを表す赤いスラッシュと知識ベースBによって指摘された緑の三角と赤い網かけが表示される.図~\ref{実行例}中,スラッシュ2本が連続している箇所は「2回区切る」ことを現している.ユーザはそれぞれの文字間の区切りを見て,分かち書きに疑問がある場合は区切り箇所にマウスカーソルを合わせ,右ボタンをクリックすることにより,自動分割で使用されている分かち書きの知識を知ることができる.区切りを削除したい箇所では,削除したい区切りの上にマウスカーソルを合わせてマウスの左ボタンをクリックするだけでよい.反対に区切りを挿入したい箇所についても,区切りたい文字間にマウスカーソルを合わせて左ボタンをクリックすることによって区切りを挿入できる.図~\ref{実行例}は自動分割処理の後,どのような知識によって区切られているか(いないか)をダイアログボックスを開いて表示している画面である.ユーザはこれを見て,必要に応じて分かち書きの知識の追加,修正,削除を行うこともできる.また実用段階において,もし熟練ボランティアによってあらかじめ正解ファイルが与えられていれば,ユーザが行った区切りと用意された正解の区切りとを比較することによりユーザ自身の見落としやすい箇所や区切り過ぎている箇所を知ることができる.さらに,正解と比較した分かち書きの精度を計算させることも可能である.このような機能は初級点訳ボランティアの教育システムとしての可能性を示しているといえる.\begin{figure}[bht]\begin{center}\epsfile{file=ExecScreen8.epsi,height=88mm}\vspace{3mm}\caption{システムによるダイアログボックス表示画面}\label{実行例}\end{center}\end{figure}
\section{実験}
\subsection{実験方法}本システムは一般のボランティアが使用することを考慮してVisualC++を用いて開発を行い,Windows95上で動作する対話型システムとした.コンピュータソフトの入門的なテキスト(全4章)を用いて本システムの性能評価実験を行った.このテキストは文章数3463文,文字数にして113884文字であった.このテキスト全4章のうち,前半2章(文章数1226文,66678文字)を用いてそこに出現する語をすべてテーブルに登録し,残りの後半2章については特にテーブルをチューニングせずに,前半・後半それぞれについて正解率を求めた.分かち書きの正解率は次式によって計算した.なお,'空振り'とは必要のない箇所を区切ってしまった間違い,'見逃し'は区切り忘れの間違いとする.\begin{displaymath}{正解率(空振りなし)=(1-\frac{空振りの回数}{正解の区切り数})×100}\\\end{displaymath}\begin{displaymath}{正解率(見逃しなし)=(1-\frac{見逃しの回数}{正解の区切り数})×100}\\\end{displaymath}\subsection{不正解部分に関する考察}本システムで分かち書きが正しく行なわれなかった箇所については,3つのケースに大別される.各ケースの占める割合はほぼ3:1:1である.\begin{enumerate}\item語がテーブルに登録されていないことによる誤り\begin{description}\item[正]偉大と/いえる.\item[誤]偉/大と/いえる.\item[理由]「偉大」が漢字2字熟語に未登録でかつ「大」が接頭語テーブルに登録されているため\end{description}\item分かち書き手法の不備による誤り\begin{description}\item[正]…しか/しない.\item[誤]…しかし/ない.\item[理由]前方最長一致法を用いているため\end{description}\item複合情報の不足による誤り\begin{description}\item[正]コンピュータ会社\item[誤]コンピュータ/会社\item[理由]「コンピュータ会社」という熟語は連濁を生じてしまい,「コンピュータガイシャ」と読まれるため\end{description}\end{enumerate}\subsection{市販の点字翻訳プログラムとの比較結果}市販の点訳プログラム(EXTRAVer.3.0)と本システムの分かち書きの精度の比較を示す.EXTRAが用いている分かち書き方式は公表されていないが,形態素解析を行っているものと思われる.表~\ref{table:d}より,空振りなし正解率,見逃しなし正解率ともにテーブルにすべて語が登録されている第1・2章においてもテーブルについて特にチューニングを行っていない第3・4章においても,本システムはEXTRAと同等程度の精度を得,本システムの有効性を確認できた.テーブルのチューニングでは,ひらがな書き自立語テーブルと接頭語・接尾語テーブルは前半2章に出現する語がすべて含まれるように構築したが,これらのテーブルは語数も少なく,書式も単純なので簡単に更新できる.従って,他の分野のテキストに対しても容易に適用できると考える.処理時間についてはEXTRAは点字表記(あるいはかな表記)までを一括して処理している.一方,本システムでは分かち書きまでしか行っていないため,単純には比較できない.しかし,EXTRAで翻訳した結果を点訳ボランティアが見直すためには膨大な時間が必要になるのに対し,本システムでは誤り箇所を選択的にユーザに指摘することができる.ユーザは指摘された箇所を選択的にチェックすればよいので,全テキストの分かち書き箇所のうち,T\%が指摘できると仮定し,さらにCPU時間は無視できる程度に短いとすると,全体のスループットは$\frac{1}{T}$となる.本システムの分かち書き処理における実験では約T=0.1であった.本システムの漢字かな変換処理部,かな点字変換処理部が,現在の分かち書き処理部と同程度の処理能力をもつと仮定すると,点字を出力するまでの全体のスループットは従来の点訳プログラムを利用した場合に比べて約数分の一から十数分の一程度に短縮されることがみこまれる.これはEXTRAの一括処理はユーザの介入も必要がなく,コンピュータ処理に要する時間は短いが,その後の見直しに非常に時間がかかり,複数のボランティアが何時間もかけて全文を複数回見直さなければならないのに対し,本システムでは対話処理的に作業が行えるために,見直しの作業に時間がかからないためである.また,実際の点訳ボランティアからは,「漢字かな混じり文のままのほうが分かち書きのチェックがしやすい」との意見もあり,本システムを試用した複数の点訳ボランティアから「誤りの箇所が色別に指摘されるので見やすく,作業がはかどりそう」との感想を得ている.{\begin{table}[htb]\caption{他のシステムとの精度の比較}\label{table:d}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hline&\multicolumn{2}{|c|}{EXTRA}&\multicolumn{2}{|c|}{本システム}\\\hline&空振りなし&見逃しなし&空振りなし&見逃しなし\\\hline\hline第1・2章&96.1\%&96.0\%&98.6\%&98.9\%\\\hline第3・4章&96.0\%&94.9\%&97.7\%&98.4\%\\\hline全体&96.0\%&95.4\%&98.2\%&98.7\%\\\hline\end{tabular}\end{center}\end{table}}\subsection{他の対話システムとの比較}畑田らの開発したOCR文書の認識誤りを一つずつダイアログボックスで確認して訂正する対話システムとの比較・検討を行う.このシステムでは誤りを含む単語を一斉に表示して正しい単語が第1候補にある場合,ワンタッチで修正を行うもので,第1候補はそれぞれの単語の行の上に表示されている.第1候補にない場合は,マウスカーソルを誤りを含む単語の所へ移動することにより単語の下にプルダウン式に第1候補から第5候補までが表示され,マウスポインタを移動してダブルクリックすることにより選んだ単語を誤った単語と置き換える.これに対し,本システムでは現在のところ,曖昧な分かち書き結果をユーザに提示するにとどまり,より正しい分かち書き箇所を提示するには至っていない.これは,スペルチェックのように正しい単語が明らかな場合と異なり,分かち書きの場合,前後にくる単語によって区切り方が異なるためである.一方,スペルチェックでは同じ単語に対して毎回同じようにスペルミスをするとは限らないが,分かち書きの場合,ある単語の組合せで一度修正が行われると次回も同じように修正される可能性が高いことから,ユーザの修正を事例として記録しておいて同じ単語の組合せについては一括,あるいは順次訂正のメッセージを表示し,それ以降の曖昧箇所の指摘から除外する,といった機能を追加することが考えられる.さらに,畑田らも用いている2文字,3文字が隣接して生じる文字の共起関係を利用することは分かち書きにおいても有効である.また,市販の点訳システムでも問題となる専門書に出現する数式やプログラム等,通常の文とは分けて特別扱いしなければならない部分についても本来対話的に処理できることが望ましい.本システムにおける分かち書きは段落単位で,あるいは全文書を一括に処理することができ,対話の応答時間はユーザの思考を妨げない程度のものである.現在のところ,知識ベースBによってみつけることのできる誤りは誤り全体の約4分の1程度であり,約5\%については正確に誤り箇所を指摘することができた.今後,この知識ベースBを充実させることにより,さらにボランティアの見直しの手間を軽減することができると考えられる.
\section{おわりに}
文法情報を含む大規模な辞書の代わりに小規模なテーブルを用いて日本語の分かち書きを行い,曖昧な区切り箇所についてはユーザに問い合わせる対話型の分かち書き支援システムを構築した.このシステムでは表層情報に基づく分かち書きの規則を知識ベース化し,知識に優先度をつけることにより知識の適用順位を変化させることができる.本システムでは,形態素解析を行わない簡便な表層解析という方式を利用したが,知識の表現方法を表層情報から形態素情報に変えることにより,従来の形態素解析でも同様に知識を独立させ,知識ベース化することが可能である.視覚障害者の職域拡大にはコンピュータの利用技術を身につけることが有効であり,そのためには情報処理関連の専門書の点訳が必須である.しかしながら,一般図書と比べて専門書は市販の点訳プログラムで翻訳すると誤りが多く,点訳ボランティアに利用されていない.このような理由から今回は点訳の対象を情報処理関連の専門書としたが,表層解析用のテーブルを変更することで,他の分野のテキストも容易に分かち書き可能である.現在,対話の有効性を確認するため,本システムの対話処理部で指摘できる誤りの率を上げること,冗長な誤り指摘を減らすことについて検討を進めている.さらに,ユーザの修正に応じてシステムが自動的に誤り箇所を変更・修正したり,以前修正した箇所を覚えておいてユーザに提示するようなシステムの自己学習機能について検討し,対話処理によって分かち書きがどの程度容易になるか,あるいは分かち書き処理の作業時間をどの程度短縮できるか等について調査し,ユーザインタフェースを向上させていきたい.今後は,漢字に読みをつけ,点字のフォーマットにあわせて出力できるようにする予定である.また,ユーザの修正箇所と修正結果を記憶しておいて,次に同等あるいは類似の表現が出現したときにユーザの修正を優先するような学習機構の導入が課題である.\newpage\acknowledgment研究の機会を与えて下さった筑波大学電子・情報工学系西原清一教授に感謝致します.また,本研究を進めるにあたって有意義なコメントを頂いた筑波大学理工学研究科の西森雄一氏,水野一徳氏に感謝致します.点訳の方法をご教示くださり,さらに精度のチェックに御協力頂いた筑波技術短期大学視覚部情報処理学科夏目武先生,長岡英司先生,遠藤純子氏,秘書の辰巳公子氏に深く感謝致します.\bibliographystyle{jnlpbbl}\bibliography{v05n4_06}\begin{biography}\biotitle{略歴}\bioauthor{鈴木恵美子}{1981年筑波大学第三学群情報学類卒業.1983年同大学大学院理工学研究科修士課程修了.同年,日本アイ・ビー・エム(株)入社.同社東京基礎研究所において日本語文書校正支援システム・日英機械翻訳システムに関する研究に従事.1990年より東京家政学院筑波短期大学情報処理科勤務.現在,東京家政学院筑波女子大学短期大学部情報処理科助教授.情報処理学会,電子情報通信学会,科学教育学会,計量国語学会各会員.}\bioauthor{小野智司}{1997年筑波大学第三学群情報学類卒業,現在筑波大学大学院理工学研究科在学中.知識処理,機械学習の研究に従事.情報処理学会会員.}\bioauthor{狩野均}{1978年筑波大学第一学群自然学類卒業.1980年同大学大学院理工学研究科修士課程修了.同年,日立電線(株)入社.同社オプトロシステム研究所において人工知能・神経回路の応用に関する研究に従事.1993年より筑波大学電子情報工学系.現在,同助教授.制約に基づく問題解決,遺伝的アルゴリズムの研究に従事.工学博士.1992年電気学会論文賞受賞.計測自動制御学会,情報処理学会,人工知能学会等各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V07N04-07 | \section{はじめに}
\label{sec:introduction}これまでに開発されている機械翻訳システムの多くはトランスファ方式に基づいており,原言語の性質だけに依存する解析辞書・規則と,原言語と目的言語の両方の性質に依存する対照辞書・規則が個別に記述されている.他方,翻訳対象言語対と翻訳方向を固定した上で,解析知識の記述を,原言語の性質だけでなく目的言語の性質も考慮に入れて行なうという設計方針もある.このような方針を採ると,ある原言語(例えば日本語)の解析知識を,異なる目的言語へのシステム(例えば日英システムと日中システム)で共用できるというトランスファ方式の利点が失われ,別の目的言語へのシステムを開発する場合には新たな解析知識の記述が必要になる.しかし,当面,ある特定の原言語から特定の目的言語への翻訳に焦点を絞れば,以下のような利点が得られる.\begin{enumerate}\item原言語の表現と目的言語の表現を比較的表層のレベルで対応付けることができる.例えば動詞と補足語との結合関係は,翻訳対象と翻訳方向を日本語テキストから英語テキストへの翻訳に固定した場合,日本語の助詞と英語の前置詞との対応として記述できる.従って,結合関係を深層格として抽象化する必要がなくなり,深層格の認定基準の設定などの困難が避けられる.\item翻訳対象言語対と翻訳方向を固定しない場合,ある目的言語の生成には必要ないが別の目的言語の生成には必要な情報も解析過程で抽出しておく必要がある.これに対して,翻訳対象と翻訳方向を固定すると,原言語を解析する知識を記述する際に目的言語の性質を考慮することが可能になるため,目的言語の生成に必要な情報のみを抽出すればよくなり,無駄な処理が避けられる.\end{enumerate}このようなことから,我々のシステムTWINTRANでは,目的を日英翻訳に限定した上で,英語の適切なテキストを生成するためには日本語テキストがどのように解析されていなければならないかという観点から辞書と全規則群を記述している.辞書では,英語に翻訳する際にこれ以上分解するとその意味が変化してしまう表現はそれ以上分解せずに一見出しとして登録する(\ref{sec:analysis:dict}\,節).構文解析規則では,動詞と補足語との結合関係を日本語の助詞とその英訳との対応に基づいて区別し,動詞型を日本語の結合価パターンと英語の結合価パターンとの対に基づいて設定する(\ref{sec:analysis:syn}\,節).また,日本語の連体従属節を英語の関係節に翻訳するための関係詞決定規則を設ける(\ref{sec:analysis:rel}\,節).日本語で明示することは希であるが英語では明示しなければならない言語形式上の必須情報(名詞句の定/不定性の区別や,動詞の主語や目的語になる代名詞など)を得るために,照応解析規則を陳述縮約パラダイム\cite{Jelinek95}に基づいて記述する(\ref{sec:analysis:integ:cor}\,節).TWINTRANと同じように日本語の解析知識を日英対照の観点から記述しているシステムとして,ALT-J/E\cite{Ikehara96,Nakaiwa97}や,US式翻訳システム\cite{Shibata96a,Shibata98}などがこれまでに報告されている.これらのシステムでも照応解析が行なわれているが,構造を持たない言語表現の間で成立する照応すなわち語と語の間の照応の解析に留まっている.これに対してTWINTRANでは,文や句など構造を持つ言語表現間の照応も扱う\footnote{より精度の高い解析を実現するためには,構造を持つ表現の意味をその部分から導き出す必要があるが,その実現は今後の課題である.}.機械翻訳システムにおける重要な課題の一つは,テキスト解釈の曖昧性を解消し妥当な解釈を一意に決定することである.曖昧性解消へのアプローチには,言語知識を絶対的な基準(制約)とみなす立場と,相対的な比較基準(選好)とみなす立場がある\cite{Nagao92}.前者では,ある解釈を受理するか棄却するかの判断は,その解釈と他の解釈を比較せずに行なわれる.これに対して後者では,ある解釈の選択は他の解釈との比較に基づいて行なわれる\cite{Wilks78,Tsujii88b,Shimazu89,Hobbs90,Den96}.TWINTRANでは後者の立場から,各規則に優先度を付与し,それに基づいて解釈の候補に優劣を付け,候補の中から最も優先度の高い解釈を選択することによって曖昧性の解消を行なう.テキスト解析では,形態素解析規則から照応解析規則に至るまでいくつかの種類の規則が利用され,それぞれ異なる観点から一つの解釈の良さが評価される.このとき,ある種類の規則による解釈の良さと他の種類の規則による解釈の良さが競合する可能性があるため,各観点からの評価をどのように調整するかが重要となる.TWINTRANでは,構文,共起的意味,照応に関する各規則による優先度の重み付き総和が最も高い解釈をテキストの最良解釈とする(\ref{sec:analysis:integ:balance}\,節).以下,\ref{sec:analysis:dict}\,節ないし\ref{sec:generation}\,節で各処理過程について説明し,\ref{sec:experiment}\,節で翻訳品質評価実験の結果を示す.
\section{辞書}
\label{sec:analysis:dict}TWINTRANには,解析に必要な情報だけでなく変換や生成に必要な情報の大半も記述した辞書と,屈折形や派生形の生成に必要な情報を記述した辞書が存在する.以降,前者を単に辞書と呼ぶ.辞書には現在約13万見出しが登録されており,各見出し表現に与えられている情報は形態素前接番号,形態素後接番号,同形異義に関する優先度(自然数),語種(品詞),人称,性,数,意味標識,共起制約,陳述縮約度,対訳情報である.各情報についての説明は,それらを利用した処理について述べる節で行なう.辞書は,英語でのひとまとまりの表現に対応する日本語でのひとまとまりの表現を認識することを目的としている.このため,日本語文法単独ではひとまとまりの表現ではないが日英翻訳の観点からはひとまとまりとみなすべき表現は一つの見出しとして登録している\footnote{従って,形態素解析でひとまとまりと認識される単位は,通常の単語あるいは文節とは必ずしも一致しない.}.例として,「雨」という語で始まる見出しの一部について語種と対訳情報を表\ref{tab:dict}\,に示す.語種``sgnpli''と``ntmo''と``nuc''は名詞類,``a2v''は副詞類,``ve1''は動詞類,``subj''は主語格標識をそれぞれ意味する.「雨が降(る)」と「雨模様(だ)」には,一つの語種ではなく``nucsubjve1''という語種列を与えているが,これによって一つの見出しを構文木上の複数の終端節点に対応付けている.この語種列からどのような構文木が構成されるかは\ref{sec:analysis:syn}\,節で述べる.実際の辞書の対訳情報には,英単語だけでなく,変換と生成のための特殊記号が含まれているが,表\ref{tab:dict}\,では簡単のために英単語のみを示した.実際の処理では,この特殊記号に基づいて動詞の屈折形などを決定する.\begin{table}[tbhp]\caption{辞書見出しの一部}\label{tab:dict}\begin{center}\begin{tabular}{|l||l|l|}\hline\multicolumn{1}{|c||}{見出し表現}&\multicolumn{1}{c|}{語種}&\multicolumn{1}{c|}{対訳情報}\\\hline\hline雨&sgnpli&rain\\雨の日&ntmo&rainyday\\雨が降ろうと槍が降ろうと&a2v&comehellorhighwater\\雨後の筍のように乱立&ve1&mushroom\\雨が降&nucsubjve1&itrain\\雨模様&nucsubjve1&itlooklikerain\\\hline\end{tabular}\end{center}\end{table}
\section{形態素解析}
\label{sec:analysis:morph}形態素解析では,辞書情報のうち見出し表現,形態素前接番号,形態素後接番号,同形異義に関する優先度を参照する.さらに,後接番号と前接番号の接続可能性を記述した接続表を利用する.接続表には,接続可能な後接番号と前接番号の組と,その接続に関する優先度($0.1,0.2,\cdots,1.0$の十段階)が記述されている.形態素解析は,チャート構文解析法\cite{Kay80}の原理に従って行なう\footnote{もちろん構文解析と異なり,階層的な木構造は生成しない.}.入力文を構成する各文字の間に番号付きの節点が存在すると考えると,チャート法による形態素解析は,前述の前接,後接番号と接続表に基づいて,節点の間を結ぶ弧を順次生成することによって進む.$\beta_1\cdots\beta_i$から成る弧$\alpha$と,$\alpha$の右側に隣接する弧$\beta_{i+1}$を結合して新たな弧$\alpha\prime$を生成するとき,弧$\alpha\prime$に与える優先度は1)弧$\alpha$が持つ接続優先度と,$\beta_i$と$\beta_{i+1}$の接続優先度との積と,2)弧$\alpha$が持つ同形異義優先度と,$\beta_{i+1}$の同形異義優先度との和の二種類とする.形態素解析での最良解釈の選択は,これら二種類の優先度に基づいて二段階で行なう.まず,ある同一節点区間を結ぶ弧の中から,最も高い接続優先度を持つ弧を選び出し,それ以外の弧は棄却する.この選択で解釈が唯一に決まれば,それを最良解釈とする.さもなければ,接続優先度が最も高い弧の中から同形異義優先度が最も高い弧を選び,それ以外は棄却する.同形異義優先度が最も高い弧が複数存在する場合,それらすべてを最良解釈とする.形態素解析の後処理として,構文的な構造を作る必要がない語種,すなわち構文木の一節点とみなす必要がない語種を一つにまとめる.例えば動詞の語幹を表す語種と屈折を表す語種をまとめる処理を行なう.
\section{構文解析}
\label{sec:analysis:syn}拡張文脈自由文法形式に基づいて,構文解析規則の記述形式を次のように定める.\begin{equation}A::=B_1\cdotsB_i/\head\cdotsB_m,\\\{Aug\},\\Prio,\\DL\label{eq:syn_rule}\end{equation}ここで,$B_i/\head$は$B_i$の主辞が$A$の主辞になることを意味し,$\{Aug\}$は補強項であり,$Prio$はこの規則の適用優先度(自然数),$DL$は構文範疇$A$の陳述縮約度\cite{Jelinek95}である.陳述縮約度については\ref{sec:analysis:integ:cor}\,節で説明する.TWINTRANに実装されている構文解析規則の総数は1734であり,規則記述に用いられている終端構文範疇の数(異なり数)と非終端構文範疇の数(異なり数)はそれぞれ307と208である.規則の一部を図\ref{fig:syn_rule_ex}\,に示す.\begin{figure}[tbhp]\begin{center}\fbox{\vspace*{0.5em}\begin{tabular}{lllllll}(a)&TEXT&::=&SENTENCE/head,&\{\},&0,&0\\(b)&TEXT&::=&SENTENCETEXT&\{\},&0,&0\\(c)&SENTENCE&::=&THMSENT/headend,&\{\},&1,&1\\(d)&SENTENCE&::=&SENT/headend,&\{\},&1,&1\\(e)&THM&::=&NP/headthm,&\{\},&4,&6\\(f)&SENT&::=&VPATve1/head,&\{check\_vpat(ve1)\},&0,&2\\(g)&SENT&::=&ve1/head,&\{\},&0,&2\\(h)&VPAT&::=&SUBJ/head,&\{\},&0,&$-$\\(i)&VPAT&::=&SUBJVPAT,&\{\},&0,&$-$\\(j)&VPAT&::=&OBJ/head,&\{\},&0,&$-$\\(k)&VPAT&::=&OBJVPAT,&\{\},&0,&$-$\\(l)&SUBJ&::=&NP/headsubj,&\{\},&0,&5\\(m)&NP&::=&nuc/head,&\{\},&0,&7\\\end{tabular}\vspace*{0.5em}}\end{center}\caption{構文解析規則}\label{fig:syn_rule_ex}\end{figure}図\ref{fig:syn_rule_ex}\,の規則(a)と(b)は,複数の文から成るテキスト全体を一つの構文木で表現するための規則である.規則(h)ないし(k)は,動詞の補足語をまとめる規則である.動詞と補足語の結合関係は,深層格として抽象化せず,日本語の助詞とその英訳との対応に基づいて表層で区別し,表\ref{tab:case}\,の16種類を設定している.表\ref{tab:dict}\,の「雨が降(る)」に与えられている語種列``nucsubjve1''からは,規則(m),(l),(h),(f)によって次のような構文木が構成される.\[\mbox{SENT(VPAT(SUBJ(NP(nuc)subj))ve1)}\]\begin{table}[tbhp]\caption{動詞と補足語の結合関係の一覧}\label{tab:case}\begin{center}\begin{tabular}{|l||p{0.8\textwidth}|}\hline\multicolumn{1}{|c||}{結合関係}&\multicolumn{1}{c|}{説明}\\\hline\hlineAG&日本語では助詞「に」や「によって」などで表され,英語では前置詞``by''で表される.可能態の動詞とこの関係で結合している補足語は英語では主語になることがある.例えば「\underline{私には}その理由が理解できる.」は``{\itI}canunderstandthereason.''と英訳される.\\\hlineAI&日本語では助詞「で」や「によって」などで表され,英語では前置詞`by''や``with''で表される.\\\hlineCP&日本語では助詞「と」などで表され,英語では前置詞``with''で表される.ここで``with''は道具や付加ではなく同伴を意味する.\\\hlineIO&間接目的語.日本語では助詞「に」などで表され,英語では前置詞``for''や``from''や``to''で表される.\\\hlineLT&日本語では助詞「まで」などで表され,英語では前置詞``asfaras''や``upto''で表される.\\\hlineML&日本語では助詞「までに」などで表され,英語では前置詞``by''で表される.\\\hlineOBJ&日本語では助詞「を」や「は」などで表され,英語では直接目的語となる.\\\hlinePAC&日本語では助詞「で」や「において」などを場所名詞に付加した形で表され,英語では前置詞``at''や``in''や``on''を場所名詞に付加した形で表される.\\\hlinePST&日本語では助詞「に」や「において」などを場所名詞に付加した形で表され,英語では前置詞``at''や``in''や``on''を場所名詞に付加した形で表される.\\\hlinePTR&日本語では助詞「を」などを場所名詞に付加した形で表され,英語では前置詞``across''や``over''や``through''を場所名詞に付加した形で表される.\\\hlineQA&変化を表す動詞によってもたらされる物事や特性を表す.例えば「彼は\underline{校長に}昇進した.」は``Hehasbeenpromoted{\ittoaschoolmaster}.''と英訳される.\\\hlineQO&引用.日本語では助詞「と」などで表される.\\\hlineSOBJ&日本語では助詞「が」などで表され,英語では直接目的語になる.例えば「彼は\underline{林檎が}好きだ.」は``Helikes{\itapples}.''と英訳される.\\\hlineSUBJ&日本語では助詞「が」や「は」などで表され,英語では主語となる.\\\hlineTG&目標.日本語では助詞「に」や「へ」などで表され,英語では前置詞``for''や``to''で表される.\\\hlineAUTO&時間表現や状況表現などと任意の動詞との間の関係を表す.任意の動詞と結合し得る.\\\hline\end{tabular}\end{center}\end{table}規則(f)の手続きcheck\_vpat(ve1)は,VPATとしてまとめられた補足語のすべてが動詞型ve1の動詞と結合できるかどうかを表\ref{tab:verb_type}\,に基づいて調べる.表\ref{tab:verb_type}\,は,動詞がどのような補足語と結合できるかという観点から能動態の動詞を19種類に分類したものの一部である.この他に,受動態,使役態,間接受動態,可能態と,これらの組合せ(受動使役態など)について結合可能な補足語の種類を記述している.\begin{table}[tbhp]\caption{結合可能な補足語に基づく動詞の分類}\label{tab:verb_type}\begin{center}\begin{tabular}{|c||l|l|}\hline\multicolumn{1}{|c||}{動詞型}&\multicolumn{1}{c|}{結合可能な補足語}&\multicolumn{1}{c|}{例}\\\hline\hlineva2&AI,CP,LT,MT,OBJ,PAC,QO,SUBJ,TG&入力する,理解する,打ち明ける\\vb1&AI,CP,IO,LT,MT,OBJ,PAC,SUBJ&望む,受け継ぐ,借りる\\vd1&AI,CP,LT,ML,PAC,QA,SUBJ&現れる,減退する,重なる\\ve1&AI,CP,LT,ML,PAC,TG,SUBJ&引く,揚がる,近づく\\vg1b&AI,CP,IO,LT,ML,PST,SUBJ&存在する,迷う,酔う\\vh&AI,CP,LT,MT,PAC,PTR,SUBJ,TG&急ぐ,飛び越える,泳ぐ\\\hline\end{tabular}\end{center}\end{table}構文解析規則の記述では,\ref{sec:analysis:morph}\,節で述べた形態素解析での優先度や,\ref{sec:analysis:integ}\,節で述べる共起的意味や照応に関する優先度と異なり,優先的に適用したい規則ほど小さい数値を与える.各規則に付与されている優先度の分布を表\ref{tab:syn_pref_distr}\,に示す.$A$を頂点とする構文木の優先度は,$B_i\(1\lei\lem)$を頂点とする構文木の優先度の和に,規則の優先度$Prio$を加えた値とする.終端構文範疇を頂点とする構文木の優先度は0とする.\begin{table}[tbhp]\caption{構文優先度の分布}\label{tab:syn_pref_distr}\begin{center}\begin{tabular}{|c||r|r|r|r|r|r|r|r|r|r|r|r|}\hline優先度&\multicolumn{1}{|c}{0}&\multicolumn{1}{|c}{1}&\multicolumn{1}{|c}{2}&\multicolumn{1}{|c}{3}&\multicolumn{1}{|c}{4}&\multicolumn{1}{|c}{5}&\multicolumn{1}{|c}{6}&\multicolumn{1}{|c}{7}&\multicolumn{1}{|c}{8}&\multicolumn{1}{|c}{12}&\multicolumn{1}{|c}{20}&\multicolumn{1}{|c|}{30}\\\hline規則数&1545&122&36&1&14&8&2&1&1&2&1&1\\\hline\end{tabular}\end{center}\end{table}構文解析では最良解釈の選択は行なわず,規則で許されるすべての解釈を出力する.これらは圧縮したチャート表現\cite{Tanaka89}で表される.
\section{英語必須補足語の補完と関係節の処理}
\label{sec:analysis:rel}よく知られているように,日本語動詞の主語や目的語などはそれらが何を指しているかが文脈から推測できる場合には明示する必要がないのに対して,英語動詞の主語や目的語は言語形式上の必須要素であるため代名詞などとして明示する必要がある.従って,適切な代名詞を補うことが,品質の高い英語テキストを生成するためには必要不可欠である.TWINTRANでは,適切な代名詞を決定する処理を1)まず,どの補足語を補う必要があるか(例えば主語を補うべきか目的語を補うべきか)を決定し,2)次に,補われた補足語を具体的にどのような代名詞(I,you,sheなど)として英訳するかを決定するという二段階で行なう.後者の処理は\ref{sec:analysis:integ}\,節で述べる共起的意味解析と照応解析で行なう.前者の処理は図\ref{fig:def_rule_ex}\,に示すような規則に従って実行する.図\ref{fig:def_rule_ex}\,の規則は,現在着目している節の主動詞がvg3型の能動態である場合の規則であり,1)SUBJもAGもその動詞と結合していないならばSUBJを補い,2)SUBJは結合していないがAGが結合しているならばAGをSUBJとみなすことを意味する.\begin{figure}[tbhp]\begin{RULE}{0.5\textwidth}\begin{verbatim}if(head_verb(vg3)){if(~exist(SUBJ)){if(~exist(AG)){create(SUBJ);}else{relabel(AG,SUBJ);}}}\end{verbatim}\end{RULE}\caption{必須補足語補完規則}\label{fig:def_rule_ex}\end{figure}関係節として英訳しなければならない従属節に補足語を補う場合,どの補足語を補うかの決定は,関係詞の先行詞になる名詞が従属節の主動詞とどのような関係で結合するかを判定した後,すなわち関係詞を決定した後に行なう.関係詞を決定する規則は1)関係詞の先行詞になる主名詞の意味標識,2)従属節の主動詞の型,3)従属節の主動詞と結合している補足語の種類に基づいて記述されている.関係詞決定規則には適用の優先度を五段階で付与しており,優先度の高い規則から順に適用を試み,ある段階の優先度の規則の適用が成功すれば,それより低い優先度の規則の適用は行なわない.この優先度は構文に関する優先度に加算される.この優先度も\ref{sec:analysis:syn}\,節で述べた構文に関する優先度と同じく,数値が小さいほど良い.図\ref{fig:rel_rule_ex}\,に示す第一の規則は,最も優先度が高い規則群に属する.この規則は,従属節の主動詞がOBJと結合できる場合の規則であり,関係詞の先行詞になる主名詞の意味標識がHUM(人間)の下位概念を表し,かつ従属節の主動詞にOBJが結合していなければ,関係詞``whom''を構文木に補うことを意味する.第二の規則は,他のどの規則も適用できなかった場合に無条件で適用される規則であり,関係詞``whereby''を生成する.\begin{figure}[tbhp]\begin{RULE}{0.9\textwidth}\begin{verbatim}if(head_verb(va1)|head_verb(va2)|head_verb(vb1)|head_verb(vb2)|head_verb(vc)|head_verb(vd2)|head_verb(vg1a)|head_verb(vg3)){if(isa(head_noun,sem_cat:HUM)){if(~exist(OBJ)){select(whom);priority(1);}}}if(true){select(whereby);priority(5);}\end{verbatim}\end{RULE}\caption{関係詞決定規則}\label{fig:rel_rule_ex}\end{figure}
\section{共起的意味・照応解析}
\label{sec:analysis:integ}共起的意味解析と照応解析は一つの枠組で統合的に実行する.共起的意味・照応解析では,AND/ORグラフ上での遅延評価による優先度計算機構\cite{Tamura91c,Yoshimi97a}によって,テキスト解釈候補の中から(準)最良解釈を効率的に選び出す.\subsection{共起的意味解析}\label{sec:analysis:integ:sem}動詞とその補足語の間の共起的意味解析は,上位下位関係を記述した意味体系を参照しながら,動詞の結合価パターンの各スロットに記述されている共起制約と補足語の人称,性,数,意味標識を照合し,その結果に応じて共起的意味に関する優先度を与える.もし必要ならば,共起制約に違反する解釈も生成する\footnote{遅延評価による処理を行なっているため,優先度が低い解釈は必要がない場合には生成されない.}.なぜならば,構文,共起的意味,照応の観点からの優先度がそれぞれ最も高い解釈から,システムが持つ知識全体での最良解釈が構成されるとは限らず,共起制約に違反する解釈からシステム全体での最良解釈が生成される可能性もあるからである.共起制約に違反する解釈を必要に応じて生成するもう一つの理由は,意味的に不適格な文に対して頑健な処理を実現するためである.このような処理が必要になる表現の典型的な例は比喩である.共起制約に違反する解釈を棄却する立場では比喩に対する解釈を生成することができない.これに対して,共起制約に違反する解釈であっても相対的に見て最良解釈であるならば,これを受理する本稿のような立場では,比喩に対しても解釈を生成することができる.ただし,共起制約に違反する解釈をすべて比喩として受理するのではなく,比喩とみなせる解釈とそうでない解釈を弁別する処理が必要である\cite{Wilks78,Ferrari96}が,TWINTRANでは実現されていない.共起的意味に関する優先度は,共起制約が満たされる場合10とし,満たされない場合には$-6$としている.\subsection{照応解析}\label{sec:analysis:integ:cor}適格なテキストでは文と文のつながりによって結束が維持されている.テキストの結束を維持する言語的手段には,照応,代用,省略,接続表現の使用,語彙的つながりがある\cite{Halliday76}.照応は,複数の言語表現が一つの事象に言及することによってテキストの結束を生む手段であり,文や句や語などの様々な言語表現の間で成立する.例えば次のテキスト\ref{text:gorb}\,では,文「ソ連の国家非常事態委員会は19日,ゴルバチョフ大統領を解任した」と,名詞句「大統領の解任」と,照応詞「この」と,空主語「$\phi_{\SUBJ}$」との間で照応が成立している.\begin{TEXT}\textソ連の国家非常事態委員会は19日,ゴルバチョフ大統領を解任したと発表した.大統領の解任が西側の対ソ政策に重大な影響を及ぼすことは必至である.政府は,臨時の閣議を開き,この事態への対応を協議している.また,$\phi_{\SUBJ}$為替相場へ及ぼす影響も懸念されている.\label{text:gorb}\end{TEXT}テキスト\ref{text:gorb}でこのような照応解釈が成立するのは,陳述縮約パラダイム\cite{Jelinek95}によれば,例えば文「ソ連の国家非常事態委員会は19日,ゴルバチョフ大統領を解任した」を$X$とし,名詞句「大統領の解任」を$Y$としたとき,これらが次の三つの制約を満たすからである.ここで,解釈$X$と$Y$は構文木上の節点$X$と$Y$にそれぞれ対応するものとする.\begin{DEPLED}\item[\bf構文制約]$Y$はある構文木上で$X$の後方に位置する.\item[\bf陳述縮約制約]$Y$は$X$を縮約した言語形式である.すなわち,$X$と$Y$の陳述縮約度の間で表\ref{tab:depredlevel}\,に示す関係が成立する.\item[\bf意味制約]$Y$の意味は$X$の意味と矛盾しない.すなわち,$X$の人称,性,数が$Y$の人称,性,数にそれぞれ一致し,かつ,$X$の意味標識と$Y$の意味標識が上位下位関係にある.\end{DEPLED}構文制約は比較的緩い制約であり,文間での前方照応と文内での前方照応を区別せずに扱える.このような統一的な扱いを可能にするために,入力が複数の文から成るテキストの場合でも入力全体を覆う構文木を生成する構文解析規則を図\ref{fig:syn_rule_ex}\,の(a)と(b)のように記述している.陳述縮約度は,ある言語表現が他の言語表現をどの程度指しやすいかと,他の言語表現からどの程度指されやすいかを表す.完全文の陳述縮約度を1,名詞句の陳述縮約度を7,日本語で表現する必要はないが英語では表現する必要のある照応詞の陳述縮約度を9のように定める.表\ref{tab:depredlevel}\,は,例えば節点$X$の陳述縮約度が9であるとき,節点$Y$の陳述縮約度は8か9でなければならないことを表す.構文木上の終端節点の陳述縮約度は辞書で与え,非終端節点の陳述縮約度は構文解析規則で与えている.\begin{table}[tbhp]\caption{陳述縮約度に関する制約}\label{tab:depredlevel}\begin{center}\begin{tabular}{|c||r|}\hline節点$X$の陳述縮約度&\multicolumn{1}{c|}{節点$Y$の陳述縮約度}\\\hline\hline0&1,2,3,4,5,6,7,8,9\\1&2,3,4,5,6,7,8,9\\2&3,4,5,6,7,8,9\\3&4,5,6,7,8,9\\4&5,6,7,8,9\\5&6,7,8,9\\6&7,8,9\\7&7,8,9\\8&8,9\\9&8,9\\\hline\end{tabular}\end{center}\end{table}意味制約が満たされるかどうかの判定では,節点$X$と$Y$の両方が終端節点である場合には,辞書に記述されているそれぞれの意味標識を照合すればよい.他方,節点$X$と$Y$の両方あるいは一方が非終端節点である場合には,その木構造とそれを構成する終端節点の意味標識などに基づいて全体の意味を求めなければならないが,この処理は実現できていない.現在のところ,非終端節点の意味標識は,その主辞である終端節点の意味標識を特化した意味標識であるとしている.例えば動詞「解任した」の意味標識がAC(action)であるとき,「解任した」を主辞とする文「ソ連の国家非常事態委員会が19日,ゴルバチョフ大統領を解任した」全体が持つ意味標識をAC+$\alpha$と表す.複合意味標識AC+$\alpha$は,原子意味標識ACに何らかの意味$\alpha$が加わったACの下位範疇を意味する.ここで,原子意味標識$A$が原子意味標識$B$の下位範疇であるとき,複合意味標識$A+\alpha$は$B$の下位範疇であると定める.また,$A$が複合意味標識$B+\beta$の下位範疇であるかどうかと,$A+\alpha$が$B+\beta$の下位標識であるかどうかは不明であると定める.二つの節点$X$と$Y$の意味標識間の上位下位関係が不明である場合も,$X$と$Y$は意味制約を満たすものとする.節点$X$と$Y$が構文,意味,陳述縮約に関する制約をすべて満たしているとき,二つの節点を$Y$から$X$へ向かうリンクで結ぶ.リンクには次の基準に従って照応に関する優先度を与える.\begin{enumerate}\item$X$と$Y$の意味標識の間に上位下位関係にあるかどうかが不明である場合,優先度を0とする.\item$X$と$Y$の意味標識の間に上位下位関係にあることがわかっており,かつ$Y$の陳述縮約度が7以下である場合,優先度は1とする.\item$X$と$Y$の意味標識の間に上位下位関係にあることがわかっており,かつ$Y$の陳述縮約度が8以上である場合,優先度を2とする.\end{enumerate}テキストの照応解釈の優先度は,その解釈を構成するリンクの優先度の和であり,その値が最も高い解釈が最良の照応解釈である.テキスト\ref{text:gorb}\,の場合,照応関係にある各言語表現は,図\ref{fig:gorb}\,に示すリンクで結ばれる.図\ref{fig:gorb}\,では,名詞句「大統領の解任」から文「ソ連の国家非常事態委員会は19日,ゴルバチョフ大統領を解任した」へのリンクの優先度が0であり,それ以外のリンクの優先度はすべて2であるので,この照応解釈の優先度は10となる.\begin{figure}[tbhp]\begin{center}\begin{epsf}\fbox{\vspace*{0.5em}\epsfile{file=gorb.eps,width=0.7\textwidth}\vspace*{0.5em}}\end{epsf}\begin{draft}\fbox{\vspace*{0.5em}\atari(284.81084,218.54068,1pt)\vspace*{0.5em}}\end{draft}\end{center}\caption{テキスト\protect\ref{text:gorb}\,における照応}\label{fig:gorb}\end{figure}照応関係にある各言語表現の間で人称,性,数,意味標識を伝播することによって,これらの曖昧性が解消される.図\ref{fig:gorb}\,の空主語「$\phi_{\SUBJ}$」は,人称,性,数,意味標識が三人称(3rd),中性(n),単数(sg),$AC+\alpha$となるので,代名詞``it''と訳される.\subsection{構文,共起的意味,照応に関する優先度に基づく総合評価}\label{sec:analysis:integ:balance}共起的意味・照応解析系では,さらに,次のような総合評価式に基づいて構文,共起的意味,照応に関する各優先度を組み合わせた評価を行ない,解析系全体での(準)最良解釈を選び出す\footnote{形態素解析の精度は十分高いため,形態素に関する優先度と他の優先度との相互作用は考慮しない.}.\begin{equation}S=W_{\SYN}\timesS_{\SYN}+W_{\SEM}\timesS_{\SEM}+W_{\COR}\timesS_{\COR}\label{eq:balance}\end{equation}$S_{\SYN}$,$S_{\SEM}$,$S_{\COR}$はそれぞれ構文,共起的意味,照応に関する優先度であり,$W_{\SYN}$,$W_{\SEM}$,$W_{\COR}$は各優先度についての相対的重要度である.理想的なテキストでは,構文,共起的意味,照応の各最良解釈から全体での最良解釈が構成される可能性が高いと考えられる.これに対して現実のテキストでは,各優先度に基づく最良解釈の間で競合が生じ,各最良解釈が相容れないことがある.このような場合,どの解釈を優先させるかは,主に相対的重要度$W_{\SYN}$,$W_{\SEM}$,$W_{\COR}$を調整することによって経験的に決定する.今回の実験では,$W_{\SYN}$,$W_{\SEM}$,$W_{\COR}$を,訓練用テキストの分析結果に基づいて,それぞれ21,3,1とした.
\section{動詞型に基づく変換}
\label{sec:transfer:sentpat}動詞型に基づく変換の目的は,補足語に前置詞を付加することと,英文での補足語の位置を決定することである.この処理は図\ref{fig:spt_rule_ex}\,に示すような規則に従って行なう.図\ref{fig:spt_rule_ex}\,の手続きprefix()は,第一引数の補足語に,第二引数で指定された前置詞を付加する.手続きmove()は,補足語を動詞の後方に移し,引数で指定された順序に並べ換える.引数に記述されていない補足語は元の位置に残しておく.例えば「少年が(SUBJ)犬と(CP)川を(PTR)泳いでいる(vh).」という文から生成される構文木は,図\ref{fig:spt_rule_ex}\,の規則により``boyswim\{over$|$across$|$through\}riverwithdog''に対応する木に変換される.\begin{figure}[tbhp]\begin{RULE}{0.5\textwidth}\begin{verbatim}if(head_verb(vh)){prefix(AI,{from|by|with});prefix(CP,with);prefix(LT,{asfaras|upto});prefix(ML,by);prefix(PTR,{over|across|through});prefix(TG,{for|to});move([PTR,CP,TG,PAC,AI,LT,ML]);}\end{verbatim}\end{RULE}\caption{動詞型に基づく変換規則}\label{fig:spt_rule_ex}\end{figure}
\section{個別の変換情報に基づく変換}
\label{sec:transfer:entry_specific}個別の変換情報による変換は,辞書の対訳情報に基づいて木構造を書き換える.対訳情報は英単語,中間記号,セパレータから成る.中間記号は,さらに,ここで扱う変換記号と生成系で扱う生成記号に分けられる.対訳情報の例を表\ref{tab:translation}\,に挙げる.表\ref{tab:translation}\,において,英大文字と数字は中間記号を,英小文字は英単語をそれぞれ意味し,それ以外はセパレータである.\begin{table}[tbhp]\caption{対訳情報}\label{tab:translation}\begin{center}\begin{tabular}{|l||l|}\hline\multicolumn{1}{|c||}{見出し表現}&\multicolumn{1}{c|}{対訳情報}\\\hline\hlineからの&B\_from\_A\\たことがな&have\_never\_DONE\\中に&AV2(while\_SENT)\\預け&entrust\_P(\#TG:0)\_P(\#OBJ:with)\\容疑がかか&be\_\symbol{94}\_under\_suspicion\\動作&\{function$|$operate$|$run\}\\\hline\end{tabular}\end{center}\end{table}変換記号は全部で53種類定義されているが,その一部を表\ref{tab:subst}\,に示す.簡単な変換の例として「この理論は発話行為の観点からの意図が扱える.」という文に対する処理を図\ref{fig:subst}\,に示す\footnote{図\ref{fig:subst}\,は実際の木構造を簡単化したものである.}.変換の前処理として,対訳情報を構造化し,変換記号なども木構造上の一節点とみなす.図\ref{fig:subst}\,に現れている変換記号は名詞句の移動に関するAとBと,動詞の移動に関するDOであり,それぞれの移動を矢印で示すように行なう.なお記号\symbol{94},AT,T,ZRは生成記号である.\begin{table}[tbhp]\caption{変換記号}\label{tab:subst}\begin{center}\begin{tabular}{|l||p{0.55\textwidth}|}\hline\multicolumn{1}{|c||}{変換記号}&\multicolumn{1}{c|}{説明}\\\hline\hlineA&構文木上でこの記号に最も近い前方の名詞句をこの記号の位置に移動する.\\\hlineB&最も近い後方名詞句をこの位置に移動する.\\\hlineDO,DID,DOING,DONE&最も近い前方の動詞をこの位置に移動する.さらにDID,DOING,DONEの場合はそれぞれ過去形,現在分詞形,過去分詞形を生成系で生成する.\\\hline\#AG,\#OBJ,\#TGなど.&それぞれの記号と同一節内に存在するAG,OBJ,TGなどをこの記号の位置に移動する.これによって,動詞型に基づく変換で決定された補足語の順序を変更する.\\\hlineSENT,UOSENT,USSENTなど.&最も近い前方の埋め込み節をこの位置に移動する.ただし,UOSENT,USSENTの場合はそれぞれ,SUBJが存在しない節,OBJが存在しない節でなければならない.\\\hlineP&補足語に付加すべき前置詞を指定する.これによって,動詞型に基づく変換で決定された前置詞を変更する.\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[tbhp]\begin{center}\begin{epsf}\fbox{\vspace*{0.5em}\epsfile{file=subst3.eps,width=0.96\textwidth}\vspace*{0.5em}}\end{epsf}\begin{draft}\fbox{\vspace*{0.5em}\atari(390.60216,126.89085,1pt)\vspace*{0.5em}}\end{draft}\end{center}\caption{個別の変換情報に基づく変換の例}\label{fig:subst}\end{figure}
\section{生成}
\label{sec:generation}生成規則には,名詞句へ付加する冠詞を決定する規則,屈折形や派生形を決定する規則,副詞の最終的な位置を決定する規則,時制の調整を行なう規則などがある.これらのうち冠詞の生成に関しては,辞書で冠詞が一意に指定されている場合と文脈に依存して決まる場合があるが,後者の場合には照応解析の結果に基づいて冠詞を決定する.すなわち,ある名詞句が他の事象を指していれば定冠詞を選択し,そうでなければ不定冠詞あるいはゼロ冠詞を選択する.また,名詞の屈折形の決定に関しても,照応解析結果に基づいて単数形,複数形の生成を行なう.
\section{翻訳実験}
\label{sec:experiment}\subsection{実験方法}実験には,池原らによって編集された機械翻訳機能試験文集\cite{Ikehara94}の2868文を用いた.まず,試験文集に合わせた準備を全く行なわない完全ブラインドテストを行ない,その評価結果に基づいて辞書と規則を修正した後,ウィンドウテストを行なった.試験文集だけに合わせた修正は極力避け,一般性のある修正を行なうように努めた.翻訳品質の評価,辞書と規則の修正,試験のサイクルは四回繰り返した.評価および修正はすべて一名で行なった.完全ブラインドテストの結果の評価から第四回目のウィンドウテストの結果の評価までに要した期間は,およそ六ヶ月であった.翻訳品質評価の基準は,訳文が1)文法的か,2)わかりやすいか,3)原文の意味と一致するか,4)利用者の役に立つかという観点から表\ref{tab:eval_criterion}\,のように設定した.この評価基準において,4点以上を合格とし,それ未満を不合格とする.\begin{table}[tbhp]\caption{翻訳品質評価の基準}\label{tab:eval_criterion}\begin{center}\begin{tabular}{|r||p{0.2\textwidth}|p{0.2\textwidth}|p{0.15\textwidth}|p{0.2\textwidth}|}\hline\multicolumn{1}{|c||}{評価点}&\multicolumn{1}{c|}{文法性}&\multicolumn{1}{c|}{理解容易性}&\multicolumn{1}{c|}{意味等価性}&\multicolumn{1}{c|}{有用性}\\\hline\hline6&文法的である.&容易に分かる.&一致する.&役立つ.\\\hline5&文法的である.&注意深く読めば分かる.&ある文脈では一致する.&対象分野や話題に関する知識を持つ利用者には役立つ.\\\hline4&文法的だが不自然である.&注意深く読めば分かる.&ある文脈では一致する.&同上.\\\hline3&非文法的だが原語がすべて訳された.&注意深く読めば分かる.&ある文脈では一致する.&同上.\\\hline2&非文法的で原語が残っている.&注意深く読めばほぼ分かる.&ある文脈ではほぼ一致する.&日本語辞書で単語を探す能力を持つ利用者には役立つ.\\\hline1&非文法的で原文を参照する必要がある.&注意深く読めば部分的に分かる.&ある文脈では原文と矛盾しない.&両言語の知識が無いと役に立たない\\\hline0&何も出力されない.&分からない.&どんな文脈でも原文と一致しない.&役に立たない.\\\hline$-1$&必須情報が欠落している.&分からない.&どんな文脈でも原文と一致しない.&役に立たない.理解してみる努力が無駄になるので原文を読んで理解してみるほうがよい.\\\hline$-2$&文法的である.&分かる.&どんな文脈でも原文と一致しない.&危険.訳文の質が高いほどより危険である.プロの翻訳者でさえ訳文を信じてしまい原文と照らし合わせない恐れがある.\\\hline\end{tabular}\end{center}\end{table}\subsection{実験結果}完全ブラインドテストと四回目のウィンドウテストでの評価点の分布を表\ref{tab:experiment_result1}\,に示す.合格した文の数は,完全ブラインドテストでは全体の46.4\%にあたる1332文,ウィンドウテストでは2096文(73.1\%)であった.評価点の平均は,完全ブラインドテストでは2.7点で合格点に達しなかったが,ウィンドウテストでは4.2点と合格点を上回った.各評価点を与えられた文の数が完全ブラインドテストとウィンドウテストでどのように変化したかを見ると,合格領域の6点ないし4点となる文数はいずれも増加し,不合格領域の3点ないし$-2$点となる文数はいずれも減少している.特に,何も出力されないために0点となる文数の減少が著しい.これは主に,完全ブラインドテストでは入力文全体を覆う構文木が生成できず何も出力されなかった文に対して,ウィンドウテストでは全体の構文木が生成できるようになったことによる.各文の評価値が完全ブラインドテストとウィンドウテストでどのように変化したかの分布を表\ref{tab:experiment_result2}\,に示す.表\ref{tab:experiment_result2}\,によれば,評価点が向上した文数(表の左下隅の領域)は1186文(41.4\%)であり,そのうち不合格から合格へ改善された文数は835文である.逆に,評価値が低下した文数(表の右上隅の領域)は204文(7.1\%)であり,そのうち合格から不合格へ悪化した文数は71文である.また,両テストで評価点に変化がなかった文数(表の対角線上)は1478文(51.5\%)である.この結果から,辞書と規則の修正による悪影響を比較的小さく抑えつつ,翻訳品質の改善が実現できているといえる.完全ブラインドテストとウィンドウテストでの翻訳例を付録の表\ref{tab:trans_example}\,に示す.\begin{table}[tbhp]\caption{ブラインドテストとウィンドウテストでの評価点の分布}\label{tab:experiment_result1}\begin{center}\begin{tabular}{|r||r@{}r|r@{}r|r|}\hline\multicolumn{1}{|c||}{評価点}&\multicolumn{2}{c|}{ブラインド}&\multicolumn{2}{c|}{ウィンドウ}&\multicolumn{1}{c|}{増減文数}\\\hline\hline6点&645文&(22.5\%)&1054文&(36.7\%)&409\\5点&399文&(13.9\%)&616文&(21.5\%)&217\\4点&288文&(10.0\%)&426文&(14.9\%)&138\\3点&389文&(13.6\%)&304文&(10.6\%)&$-85$\\2点&108文&(3.8\%)&106文&(3.7\%)&$-2$\\1点&41文&(1.4\%)&2文&(0.1\%)&$-39$\\0点&434文&(15.1\%)&95文&(3.3\%)&$-339$\\$-1$点&439文&(15.3\%)&221文&(7.7\%)&$-218$\\$-2$点&125文&(4.4\%)&44文&(1.5\%)&$-81$\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tbhp]\caption{ブラインドテストとウィンドウテストでの評価点の変化}\label{tab:experiment_result2}\begin{center}\begin{tabular}{|r||r|r|r|r|r|r|r|r|r|}\hline\multicolumn{1}{|c||}{ブ$\backslash$ウ}&\multicolumn{1}{c|}{6点}&\multicolumn{1}{c|}{5点}&\multicolumn{1}{c|}{4点}&\multicolumn{1}{c|}{3点}&\multicolumn{1}{c|}{2点}&\multicolumn{1}{c|}{1点}&\multicolumn{1}{c|}{0点}&\multicolumn{1}{c|}{$-1$点}&\multicolumn{1}{c|}{$-2$点}\\\hline\hline6点&595&26&9&4&3&0&4&3&1\\5点&59&304&15&8&2&0&8&3&0\\4点&46&36&171&20&4&0&2&9&0\\3点&85&65&65&146&12&0&5&11&0\\2点&19&13&23&17&27&0&2&6&1\\1点&12&12&10&3&0&1&1&2&0\\0点&98&94&81&50&17&0&59&33&2\\$-1$点&98&56&42&49&33&1&9&143&8\\$-2$点&42&10&10&7&8&0&5&11&32\\\hline\end{tabular}\end{center}\end{table}
\section{おわりに}
本稿では,日英機械翻訳システムTWINTRANの辞書と規則について述べ,NTT機械翻訳機能試験文集を対象として行なった翻訳品質評価実験の結果を示した.ウィンドウテストでは,我々の評価基準で,試験文集の73.1\%の文が合格となり,試験文集全体の平均点も合格点を上回る結果が得られた.今回は,複数の文から成るテキストを対象とした評価実験は行なわなかったため,文間照応の認識によって得られる効果が確認できなかった.今後,テキストを対象とした実験を行なう必要がある.\acknowledgment形態素解析系の設計と開発を行なって頂いたGrahamWilcock氏(現在UMIST.当時シャープ(株))に感謝します.ALT-J/Eに関する文献を提供いただいたFrancisBond氏(NTT)と,試験文集を作成された関係者の方々に感謝します.さらに,有益なコメントを頂いた査読者の方に感謝します.\bibliographystyle{jnlpbbl}\bibliography{twintran}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.1987年よりシャープ(株)にて機械翻訳システムの研究開発に従事.1999年神戸大学大学院自然科学研究科博士課程修了.}\bioauthor{JiriJelinek}{チェコのプラハのUniversitaKarlova卒業(言語学・英語学・日本語学).1959年以来,日英機械翻訳実験中.英国Sheffield大学日本研究所専任講師を1995年退職.1992年より1996年までシャープ専任研究員.}\bioauthor{西田収}{1984年大阪教育大学教育学部中学校課程数学科卒業,同年より神戸大学工学部応用数学科の教務補佐員として勤務.1987年シャープ(株)に入社.現在,同社情報家電開発本部NB第一プロジェクトチームに所属.情報処理学会会員.}\bioauthor{田村直之}{1985年神戸大学大学院自然科学研究科システム科学専攻博士課程修了.学術博士.同年,日本アイ・ビー・エム(株)に入社し東京基礎研究所に勤務.1988年神戸大学工学部システム工学科助手.講師を経て,現在同大学工学部情報知能工学科助教授.論理型プログラミング言語,線形論理などに興味を持つ.}\bioauthor{村上温夫}{1952年大阪大学理学部数学科卒業.神戸大学理学部助手,講師,教養部助教授を経て,1968年より工学部教授.この間,UniversityofKansas客員助教授,UniversityofNewSouthWales客員教授,NanyangUniversity客員教授を併任.1992年より1998年まで甲南大学理学部教授.神戸大学名誉教授.理学博士(東京大学).関数解析,偏微分方程式,人工知能,数学教育などに興味を持つ.著書に``MathematicalEducationforEngineeringStudents''(CambridgeUniversityPress)など.日本数学会,日本数学教育学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\newpage\appendix\begin{table}[hb]\caption{翻訳例}\label{tab:trans_example}\begin{center}\begin{tabular}{|l|p{0.48\columnwidth}|r|}\hline\multicolumn{1}{|c|}{原文}&\multicolumn{1}{c|}{訳文}&\multicolumn{1}{c|}{評価点}\\\hline\hline&(ブ)Itmultipliedthenumberofconnectabledevicesbyincorporatingthesoftwarewhichituniquelydeveloped.&6\\\cline{2-3}\raisebox{1.5ex}[0pt]{\begin{minipage}{0.35\columnwidth}独自に開発したソフトを組み込むことで、接続可能台数を増やした。\end{minipage}}&(ウ)Itmultipliedthenumberofconnectabledevicesbyincorporatingthesoftwarewhichweuniquelydeveloped.&6\\\hline&(ブ)Althoughitsurveysthatproblem,itdemandstime.&$-2$\\\cline{2-3}\raisebox{1.5ex}[0pt]{\begin{minipage}{0.35\columnwidth}その問題は調査するのに、時間を要する。\end{minipage}}&(ウ)Werequiretimetosurveythatproblem.&6\\\hline&(ブ)Iwanttoeatudonfromtheside.&$-2$\\\cline{2-3}\raisebox{1.5ex}[0pt]{\begin{minipage}{0.35\columnwidth}私はそばよりうどんが食べたい。\end{minipage}}&(ウ)Iwanttoeatudonfromtheside.&$-2$\\\hline&(ブ)Theroombelowhasnotanyone.&6\\\cline{2-3}\raisebox{1.5ex}[0pt]{\begin{minipage}{0.35\columnwidth}下の部屋は誰もいない。\end{minipage}}&(ウ)Thereisnoroombelow.&$-2$\\\hline&(ブ)Beforeitwentwastherain.&$-2$\\\cline{2-3}\raisebox{1.5ex}[0pt]{\begin{minipage}{0.35\columnwidth}行った先は雨だった。\end{minipage}}&(ウ)Beforewewentwastherain.&$-2$\\\hline&(ブ)Thenumberislimittedandonly,Iparticipatewhenafeeischeap.&3\\\cline{2-3}\raisebox{1.5ex}[0pt]{\begin{minipage}{0.35\columnwidth}人数が制限され、料金が安いときのみ、私は参加する。\end{minipage}}&(ウ)ThenumberislimitedandIparticipateonlywhenafeeischeap.&5\\\hline&(ブ)Heendedupincreasinglydifferingastherival.&3\\\cline{2-3}\raisebox{1.5ex}[0pt]{\begin{minipage}{0.35\columnwidth}彼はライバルと差が開いてしまった。\end{minipage}}&(ウ)Heendedupestablishingaleadoverarival.&6\\\hline&(ブ)\#\#\#構文解析失敗のため出力なし\#\#\#&0\\\cline{2-3}\raisebox{-2.5ex}[0pt]{\begin{minipage}{0.35\columnwidth}計算機の製造には半導体工場などが必要だが、中国ではこうしたハイテク設備の建設技術をもつ技術者の絶対数が不足している。\end{minipage}}&(ウ)Expert'sintechnologythesemiconductorplantetcisrequiredinproductionandwhohavebuildingthiskindofHi-TechequipmenttechnologyinChinaofcomputersabsolutenumberisfallingshort.&$-1$\\\hline&(ブ)\#\#\#構文解析失敗のため出力なし\#\#\#&0\\\cline{2-3}\raisebox{-4.5ex}[0pt]{\begin{minipage}{0.35\columnwidth}相手の会社が契約の期間までに必要なすべてのデータを揃える事ができなかった場合、当方に対して納得いく理由を示さない限り、当社はそのデータの受領を拒否し、損害の保証を求めることができる。\end{minipage}}&(ウ)Ifpartner'scompanycouldnotassemblealldatanecessaryevenfortermsofcontractsagainstthisside,asfarasitdoesnotindicatethesufficientreason,ourcompanydeniestheacceptanceofthosedataandyoucandemandguaranteeingdamage.&4\\\hline\end{tabular}\end{center}\end{table}\end{document}
| |
V07N04-05 | \section{はじめに}
\label{sec:introduction}様々な状況で利用される機械翻訳システムが直面する現実の文には,システムが持つ言語知識では適切に解析できない様々な言語現象が現れる.このような現象を含む文は,人間にとっても適格でない(が理解できる)絶対的不適格文と,人間にとっては適格であるがシステムの処理能力を越えている相対的不適格文に分けられるが,両者を適切に扱える頑健なシステムが求められている\cite{Matsumoto94}.絶対的不適格現象のうち語句の欠落や主語述語の不一致などの構文レベルの現象へ対処することを目的とした手法としては,部分解析法\cite{Imaichi95}や制約緩和法\cite{Mellish89,KatoTsuneaki95}などがこれまでに提案されている.他方,我々は,相対的不適格文への対処に焦点を当て,機械翻訳システムの翻訳品質の向上を目指している.以降本稿では紛れない限り,相対的不適格文を単に不適格文と呼ぶ.構文レベルの不適格文すなわちシステムの解析能力を越えた構文構造を持つ文を扱うための代表的な手法には,1)対象テキストの分野を限定した専用文法を用いる手法\cite{Aizawa96}や,2)原文を書き換える手法\cite{Kim94,Narita94,Sagawa94,Shirai95,KatoTerumasa97}などがある.また,後者の手法に関連して,原文とそれを人間が書き換えた結果とを比較した差分から原文書き換え規則を学習する手法\cite{Yamaguchi98}も示されている.(1)と(2)の手法の設計方針は,システムの既存部分の変更を避け,新たな処理系を追加するという点で共通しているが,以下の点で異なっている.前者の手法では,システムの既存部分による処理は,可能な場合には,新たに追加した処理系による処理によって代行される.すなわち,新たな処理系による解析(分野依存の専用文法による解析)が成功した場合には,既存の処理系による解析(汎用文法による解析)は実行されない.これに対して後者では,新たに追加した処理系は既存部分の前処理系と位置付けられる.原文書き換えによる手法は,書き換えを構文解析の前に行なうか後に行なうかによって二つに分けられる.構文解析後に行なう場合\cite{Sagawa94,Shirai95}\footnote{白井らは,文献\cite{Shirai98}で,一部の書き換えを構文解析前に行なうように拡張を施しているが,書き換え規則の多くは構文解析後に適用される.}は,構文情報が得られているため,構文解析前すなわち形態素解析後に行なう場合に比べてより翻訳品質の高いシステムが実現できる可能性がある.しかし,実用的な機械翻訳システムにおいて原文書き換えの実行を構文解析終了後まで遅らせることは,処理効率の点では望ましくない.なぜならば,入力文全体を覆う構文構造が生成できず構文解析に失敗すること\footnote{以降本稿では,入力文全体を覆う構文構造が生成できないことを構文解析の失敗と呼ぶ.}が判明するのは構文解析規則をすべて適用し終えた後であるが,実用的な機械翻訳システムでは構文解析規則の規模は非常に大きくなっており,構文解析に要する時間は解析全体に要する時間の大半を占めているため,構文解析後の書き換えは処理の効率化につながりにくいからである.これに対して,構文解析が失敗しないようにあらかじめ原文を書き換えれば,すべての構文解析規則の適用が試みられる可能性は低くなるため,システム全体として効率の良い処理が実現できる.また,構文情報が(ほとんど)得られていない時点で行なう書き換えがどの程度有効であるかを明らかにすることも重要である.このような観点から本稿では,形態素解析で得られる情報と通常よりも簡単な構文解析\footnote{具体的には,\ref{sec:preedit:ruleformat:condition}\,節で述べる手続きによる処理を指す.}で得られる情報に基づいて原文書き換えを構文解析前に行なうことによって翻訳品質と共に翻訳速度を改善する手法を示す.以下,本稿で扱う書き換え対象を\ref{sec:object}\,節で整理する.次に\ref{sec:preedit}\,節で原文書き換え系の処理枠組について説明する.\ref{sec:experiment}\,節では,原文書き換え系を既存の英日機械翻訳システムに組み込み,システムの性能向上にどの程度貢献できるかを実験によって検証する.\ref{sec:relatedworks}\,節では関連研究との比較を行なう.
\section{書き換え対象文}
\label{sec:object}我々の従来システムにとっての不適格現象には様々なものがあるがそれらをすべて一度に扱うことは容易ではない.このため本研究では,出現頻度が高い現象や翻訳品質の改善度が大きい現象を含む文を書き換え対象として優先的に選ぶことにする.書き換え対象を選定するために,英文法書の例文や新聞記事\cite{Lewis97}を我々のシステムで処理し,構文解析に失敗した文のうち558文についてその原因を分析した.構文解析に失敗する現象は595箇所で見られた.このうち238箇所は,綴り誤りなどの絶対的不適格現象や,辞書や形態素解析系の不備によるものであった.残り357箇所のうち108箇所が省略現象によるもの,61箇所が倒置によるもの,41箇所が挿入語句によるものであった.また,特殊構文を含まないが文が長いために構文解析に失敗する文が26文存在した.この分析結果に基づいて,表\ref{tab:illformedness}\,に示すパターンへ対処することを目的とした\footnote{表\ref{tab:illformedness}\,は対象とするパターンの概略であり,実際の書き換え規則の適用条件部にはより厳密な条件を記述している.また,強調構文は構文解析に失敗するわけではないが重要な構文であるので,書き換え対象に含めた.}.表\ref{tab:illformedness}\,のパターンで,構文解析に失敗した558文に現れたすべての倒置,省略,挿入を網羅しているわけではない.パターン7ないし10は,複雑で長い部分を動詞の後方に置くための前置詞句の前置であるが,ここでは倒置とみなす.表\ref{tab:illformedness}\,において,上付き記号?は任意項を,\{\\}は選択項をそれぞれ表し,斜字体の語句は省略されている語句を意味する.\begin{table}[htbp]\caption{書き換え対象パターン}\label{tab:illformedness}\begin{center}\begin{tabular}{|c||r|l|}\hline分類&\multicolumn{1}{c}{\#}&\multicolumn{1}{|c|}{パターン}\\\hline\hline&1.&[$副詞句^?$\\{分詞$|$形容詞\}\$前置詞句^?$\$助動詞^?$\be動詞]\\&2.&[$副詞句^?$\前置詞句\$助動詞^?$\be動詞]\\&3.&[\{nor$|$neither\}\助動詞\名詞句\原形動詞]\\&4.&[\{nor$|$neither\}\have\名詞句\過去分詞]\\&5.&[\{nor$|$neither\}\be動詞\名詞句]\\\multicolumn{1}{|c||}{\raisebox{1.5ex}[0pt]{倒置}}&6.&[should$\langle$文頭$\rangle$]\\&7.&[関係代名詞\前置詞句\動詞]\\&8.&[名詞句\前置詞句$\langle$意味標識:TIME$\rangle$\動詞]\\&9.&[助動詞\前置詞句\原形動詞]\\&10.&[have\前置詞句\to\原形動詞]\\\hline&11.&[so\形容詞\{\itthat}\代名詞]\\&12.&[say\{\itthat}\$\cdots$\and\that\$\cdots$]\\\multicolumn{1}{|c||}{\raisebox{1.5ex}[0pt]{省略}}&13.&[say\{\itthat}\there\動詞]\\&14.&[\{double$|$twice\}\that\{\itfigure}]\\\hline&15.&[,\\{all$|$most$|$much$|$$\cdots$\}\of\\{it$|$them\}\$\cdots$\\{,$|$.\}]\\&16.&[,\but\not\動詞\$\cdots$\,]\\\multicolumn{1}{|c||}{\raisebox{1.5ex}[0pt]{挿入}}&17.&[名詞句\and\名詞句\,\名詞句\,\動詞]\\&18.&[名詞句\,\\{which$|$who\}\$\cdots$\,\動詞]\\\hline強調&19.&[it\be動詞\$\mbox{not}^?$\名詞句\\{which$|$who\}]\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:illformedness}\,のパターンは我々の従来システムにとっての不適格現象であり,他のシステムの中には適切に処理できるものも存在すると考えられる.しかし,例えば日本電子工業振興協会の自然言語処理技術委員会で編集された翻訳品質評価用テストセット\cite{NihonDenshiKogyoShinkoKyokai95}で取り扱いが重要な特殊構文として取り上げられているように,これらを適切に処理することは一般の機械翻訳システムにとっても重要な課題である.また,これらの現象のうち,倒置,省略,挿入は,英日機械翻訳システムの一般利用者が日々接することが多いテキストの一つである英字新聞記事に比較的頻繁に現れる表現である\cite{Uenoda78,Horiuchi79,Tomita94}ため,これらを適切に処理する必要性は高い.本節では,これらの現象\cite{Egawa64,Yasui82,Greenbaum90}を含む文をどのように書き換えれば翻訳品質が改善されるかを検討する.以降,従来システムとは我々の従来システムを指す.\subsection{倒置}\label{sec:object:inversion}倒置のうち分詞を中心とする叙述部の倒置や否定表現が冒頭に置かれた文における倒置などを扱う.例えば文(E\ref{SENT:inversion_whatis})は過去分詞が文頭に現れているために,構文解析に失敗し(J\ref{SENT:inversion_whatis})のような出力しか得られない\footnote{記号◇で構文解析が失敗したことを表し,記号‖で区切られた区間が部分的な構造にまとめられたことを表す.}.しかし,文(E\ref{SENT:inversion_whatis})の先頭に``whatis''という語句を追加して文(E\ref{SENT:inversion_whatis}')のように書き換えると,従来システムにとって適格文となり文(J\ref{SENT:inversion_whatis}')のような翻訳が得られる.\begin{SENT}\sentEAffiliatedistheparentcompanyofGlobeNewspaperCo.\sentJ◇加入した‖GlobeNewspaperCoの親会社である。\sentNewEWhatisaffiliatedistheparentcompanyofGlobeNewspaperCo.\sentNewJ合併されるものは、GlobeNewspaperCoの親会社である。\label{SENT:inversion_whatis}\end{SENT}文(E\ref{SENT:inversion_neither})に見られるように,否定の副詞``neither''が冒頭に置かれた節では主語と助動詞の倒置が生じる.このような節に対しては,``neither''を``andalso''に書き換えて,助動詞``have''を否定形にし主語の後方に移動する.このような処理の実現には,助動詞の移動先を決定しなければならないため,主語になる名詞句この場合``thegovernmentregulators''を認識する必要がある.このため,書き換え規則の適用条件部には簡単な構文構造を認識するための手続きも記述する.この手続きに関しては\ref{sec:preedit:ruleformat:condition}\,節で述べる.\begin{SENT}\sentENeitherhavethegovernmentregulatorsindicatedthattherewillbeaproblem.\sentJ◇どちらも、政府取締官を示された状態にしない‖そこのそれは、問題であろう\sentNewEAndalsothegovernmentregulatorshavenotindicatedthattherewillbeaproblem.\sentNewJそしてまた、政府取締官は、問題があるであろうことを示さなかった。\label{SENT:inversion_neither}\end{SENT}\subsection{省略}\label{sec:object:ellipsis}接続詞の省略など構文的知識に依存する省略のいくつかを扱う.文(E\ref{SENT:ellipsis_saythat})は,二つの被伝達節が``and''で連結されているが,一つ目の被伝達節を導く``that''が明示されていない.これが原因で構文解析に失敗するが,``said''の直後に``that''を補えば構文解析の失敗は避けられるようになる.\begin{SENT}\sentESprinkelsaidthefallofthedollarhadsubstantiallyrestoredU.S.costcompetitivenessandthatthedeteriorationoftheU.S.tradebalanceappearedtohaveabated.\sentJ◇Sprinkelによれば、ドルの低下は、米国のコスト競争、及び、それを大幅に回復した‖米国の貿易収支の悪化は、減少したために、現れた。\sentNewESprinkelsaidthatthefallofthedollarhadsubstantiallyrestoredU.S.costcompetitivenessandthatthedeteriorationoftheU.S.tradebalanceappearedtohaveabated.\sentNewJSprinkelは、ドルの低下が米国のコスト競争を大幅に回復したということ、そして、米国の貿易収支の悪化が減少したように思われるということを言った。\label{SENT:ellipsis_saythat}\end{SENT}また,文(E\ref{SENT:ellipsis_sothat})で``so''と相関関係にある``that''が省略されていることは,``so''の直後の形容詞に代名詞が後続していることを手がかりにすれば検出できる.\begin{SENT}\sentEThe2.5pctdiscountrateissolowitispoliticallyimpossibletocutitfurther.\sentJ2.5パーセント割引率は、そのようにそれが政治上まで不可能である安値が更にそれを切ったことである。\sentNewEThe2.5pctdiscountrateissolowthatitispoliticallyimpossibletocutitfurther.\sentNewJ2.5パーセント割引率は、更にそれを切ることが政治上不可能であるほど低い。\label{SENT:ellipsis_sothat}\end{SENT}\subsection{挿入}\label{sec:object:parenthesis}挿入句は文中の他の語句と特に構文的な関係を持つことなく現れ,コンマやダッシュや括弧などで区切られる.括弧で囲まれた挿入句を発見することは比較的容易であるが,コンマで囲まれている場合にはコンマの他の用法との区別を行なう必要があり,挿入句の正確な認識は容易ではない\cite{TakedaNoriko95}.しかし,コンマだけでなくその前後の語句も手がかりとし,表\ref{tab:illformedness}\,のようなパターンとして捉えれば,挿入句の発見はより正確に行なえる.例えば文(E\ref{SENT:parenthesis_someofthem})において,一つ目のコンマの直後に存在する``someofthem''のような特徴的な語句や二つ目のコンマの直後に存在する(助)動詞に着目すればよい.このような手がかりに基づいて認識した挿入句を括弧で囲めば,既存の構文解析系による処理が成功するようになる.ただし,文(E\ref{SENT:parenthesis_someofthem})は挿入だけでなくbe動詞の省略も含んでいるため,``them''の直後に``are''を補う必要がある.\begin{SENT}\sentETheirseparateproposals,someofthemconflicting,willbewovenbyHouseDemocraticleadersintoafinaltradebillforavotebythefullHouseinlateApril.\sentJ◇それらの個別の提案、‖いくらかの‖それら‖対立する、‖下院の民主党のリーダーによって4月下旬の下院本会議による投票のための最終の貿易手形に織られるであろう。\sentNewETheirseparateproposals(someofthemareconflicting)willbewovenbyHouseDemocraticleadersintoafinaltradebillforavotebythefullHouseinlateApril.\sentNewJそれらの個別の提案(それらのうちのいくらかが対立している)は、下院の民主党のリーダーによって4月下旬の下院本会議による投票のための最終の貿易手形に組み立てられるであろう。\label{SENT:parenthesis_someofthem}\end{SENT}\subsection{強調}\label{sec:object:emphasis}強調のための言語的手段には,\ref{sec:object:inversion}\,節で述べた倒置文の他に感嘆文や修辞疑問文や分裂文などがある.このうち従来システムでは文(E\ref{SENT:emphasis})のような分裂文を適切に処理することができないが,これを文(E\ref{SENT:emphasis}')のように書き換えれば翻訳が改善される.文(E\ref{SENT:emphasis}')は,文(E\ref{SENT:emphasis})に対して,``it''を削除し,``which''を``what''に置換し,焦点の名詞句とその直前のbe動詞を``which''節の後方へ移動するという三操作を行なうことによって得られる.\begin{SENT}\sentEHowever,headdedthatintheend,itwasmarketforceswhichprevailed.\sentJしかしながら、彼は、結局それが普及していた市場諸力であるとつけ加えた。\sentNewEHowever,headdedthatintheend,whatprevailedwasmarketforces.\sentNewJしかしながら、彼は、結局普及していたものが市場諸力であるとつけ加えた。\label{SENT:emphasis}\end{SENT}
\section{原文書き換え系}
\label{sec:preedit}\subsection{原文書き換えの枠組}\label{sec:preedit:flow}本節で述べる原文書き換え系を組み込んだ機械翻訳システムにおける解析の流れを図\ref{fig:flow}\,に示す.このシステムでは,形態素解析終了後に書き換えを実行した後,書き換えた部分の形態素解析を行ない,入力文全体の形態素解析結果を構文解析系に送る.一度目の書き換え結果に対して全体を覆う構文構造が生成できず構文解析に失敗した場合,処理の制御は原文書き換え系に戻る.再度書き換えを行なう場合には,各書き換え規則に記述されている規則の信頼度(後述)に従って,一度目の書き換えでは用いなかった規則を新たに適用したり,逆に一度目の処理で行なった書き換えを取り消したりする\footnote{二度目の構文解析に失敗した場合には,断片的な構文構造を解析結果とする.}.\begin{figure}[htbp]\begin{center}\begin{epsf}\fbox{\epsfile{file=flow32.eps,width=0.65\columnwidth}}\end{epsf}\begin{draft}\atari(264.46587,49.13538,1pt)\end{draft}\end{center}\caption{解析の流れ}\label{fig:flow}\end{figure}原文書き換え系での処理は,形態素解析結果に対して先頭から順に書き換え規則の適用条件との照合を行なっていき,適用条件が満たされる部分を順次書き換えていく.\subsection{書き換え規則の形式}\label{sec:preedit:ruleformat}書き換え規則には,次に示すように,適用条件と書き換え操作の他,制御情報として適用抑制規則集合と信頼度を記述することができる.\[(\,識別番号,適用条件,書き換え操作,適用抑制規則集合,信頼度\,)\]\subsubsection{適用条件部}\label{sec:preedit:ruleformat:condition}適用条件は,ある指定された属性を持つ語句がある位置あるいは区間に存在するかどうかを調べる手続きの論理積,論理和の形で表現される.入力文中での書き換え対象候補の出現位置は次のように表す.まず着目語の出現位置を変数$p$で表し,$p+n$で着目語の$n$語後方(文末側)の語を,$p-n$で着目語の$n$語前方(文頭側)の語を指す.コンマや終止符なども語とみなす.特別な記号として文末の語を指すドル記号\$を用いる.この他,コンマが書き換え対象を発見するための重要な手がかりとなることが多い\cite{Jones94}ため,$\mbox{com\_fwd\_}m$で着目語の後方に存在する$m$番目のコンマを指し,$\mbox{com\_bwd\_}m$で前方の$m$番目のコンマを指すことにする.例えばword\_class(com\_fwd\_$1+2$,noun)という手続きは,着目語に最も近い後方のコンマの二語後方に,語種(品詞)候補として名詞を持つ語が存在するとき真を返し,存在しないとき偽を返す.適用条件部に記述する手続きは主に語の形態素語彙属性を調べるものであるが,特別な手続きとして,入力文のある部分を節や名詞句と解釈できるかという構文的な属性を調べる手続きを記述する.ただし,簡単な構文解析しか行なわない方針であることから,節の認識は次のような手順で行なう.\begin{quote}処理対象の先頭から順に述語になり得る定形動詞を探していく.もし見つかれば,その述語候補と人称・数が一致する名詞を主辞とする名詞句がその前方に存在するかどうかを調べる.もしそのような名詞句が存在すれば,それを主語とみなし,節が存在するものとする.\end{quote}ここで,名詞句を認識する手続きは次のような簡単な構造を検出するものである.上付き記号?と+はそれぞれ一回以下,一回以上の出現を意味する.\begin{eqnarray*}名詞句&=&名詞句0\(前置詞\名詞句0)^?\\名詞句0&=&(副詞^?\\{形容詞|過去分詞|現在分詞\})^?\\mbox{名詞}^+\end{eqnarray*}\subsubsection{操作部}\label{sec:preedit:ruleformat:action}書き換え操作には,語句の追加・削除・置換・移動,文の分割,前編集記号の付加がある.前編集記号の付加は,語の形態素語彙属性を指定したり,節や句の範囲や従属先を指定したりするためのものである.語句の語彙属性や従属先の指定によって解釈の曖昧性が減るため,解析の品質と速度の向上が期待できる.\subsubsection{適用抑制規則集合}ある規則$R$に与えられている適用抑制規則集合は$R$の適用を抑える他の規則に関するメタ条件を表し,規則$R$はその適用抑制規則集合に記述されている識別番号の規則が既に適用されている場合には適用されない.規則$R$の適用抑制規則集合には,$R$の書き換え対象と重複する部分を書き換えようとする規則だけでなく,書き換え対象が$R$のものと重複しない規則を含めてもよい.\subsubsection{信頼度}規則には,その信頼性が高く規則の適用によって翻訳品質が向上することがほぼ確実な規則もあれば,信頼性があまり高くない規則もある.信頼度は,このようなことを考慮して,信頼性があまり高くない規則による悪影響を抑えるために設定したものである.各規則には,その信頼性に応じてA,B,Cのいずれかの信頼度を与える.信頼度Aの規則は最初の構文解析の前に適用し,構文解析に失敗してもこの規則による書き換えは取り消さない.規則に信頼度Aを与えるのは,この規則を適用しないと構文解析に失敗することがほぼ確実であり,たとえこの規則によって書き換えた表現の構文解析に失敗して断片的な構文構造しか得られなかったとしても,この規則を適用しない場合の(断片的な)構文構造から生成される翻訳よりも高い品質の翻訳が生成されると期待される場合である.信頼度Bの規則は最初の構文解析の前に適用するが,最初の構文解析に失敗した場合,この規則による書き換えは取り消す.信頼度Cの規則は最初の構文解析の前には適用せず,最初の構文解析に失敗した場合に初めて適用する.各規則にどの信頼度を与えるかは実験を繰り返して経験的に決定する.\subsection{書き換え規則の例}\label{sec:preedit:example}書き換え規則の例として,挿入と省略を含む文(E\ref{SENT:parenthesis_someofthem})に対処するための規則と分裂文(E\ref{SENT:emphasis})に対処するための規則を図\ref{fig:rule_ex}\,に示す.図\ref{fig:rule_ex}\,の最初の規則が挿入と省略のための規則であり,二つ目が分裂文のための規則である.ただし,これらは,理解を容易にするため実際の規則を簡単化したものである.最初の規則の適用条件が満たされるのは,現在着目している位置に``someofthem''が存在し,着目語の直前がコンマであり,着目語に最も近い後方のコンマの直後に動詞が存在し,二つのコンマに挟まれた区間に``someofthem''を主語とする述語が存在しないときである.このとき,コンマを括弧に書き換え,``someofthem''の直後にbe動詞``are''を挿入する.二つ目の規則は,現在着目している位置に代名詞``it''が存在し,着目語の直後がbe動詞の肯定形あるいは否定形であり,その直後に名詞句が存在し,その名詞句の直後に``which''が存在するときに適用する.\begin{figure}[tbhp]\begin{RULE}{0.9\textwidth}\begin{verbatim}(/*識別番号*/36,/*適用条件*/(word(p,p+2,"someofthem")==TRUE&&word(p-1,",")==TRUE&&word_class(com_fwd_1+1,verb)==TRUE&&subject_predicate(com_bwd_1+1,com_fwd_1-1)==FALSE),/*書き換え操作*/(substitute(com_bwd_1,"("),substitute(com_fwd_1,")"),insert(p+2,"are")),/*適用抑制規則集合*/(),/*信頼度*/A)(/*識別番号*/42,/*適用条件*/(word(p,"it")==TRUE&&word_class(p+1,be)==TRUE&&(noun_phrase(p+2,q)==TRUE||word(p+2,"not")==TRUE&&noun_phrase(p+3,q)==TRUE)&&word(q+1,"which")==TRUE),/*書き換え操作*/(remove(p),substitute(q+1,"what"),move(p+1,q,$-1)),/*適用抑制規則集合*/(),/*信頼度*/B)\end{verbatim}\end{RULE}\caption{書き換え規則の例}\label{fig:rule_ex}\end{figure}
\section{実験と考察}
\label{sec:experiment}原文書き換えの有効性を検証するために,提案手法を我々の従来システムに組み込み,翻訳品質がどの程度向上するかを調べる実験と翻訳速度がどの程度向上するかを調べる実験を行なった.\subsection{実装}今回の実験のために実装した書き換え規則の総数は35規則であり,その内訳は倒置,省略,挿入,強調用がそれぞれ18,6,8,3規則である\footnote{規則作成に要した時間的,人的コストも提案手法の有効性を判断する上で重要なファクターであるとの指摘を査読者の方より受けたが,記録がなく記載できない.}.規則の適用条件部には,形態素語彙属性を調べる手続きと構文的な属性を調べる手続きの二種類が記述されている.構文的な属性を調べる手続きは,\ref{sec:preedit:ruleformat:condition}\,節で述べた,簡単な名詞句を認識する手続きnoun\_phrase()と,これを利用して節を認識する手続きsubject\_predicate()である.形態素属性を調べる手続きは,単語の語形,語種(品詞),意味標識などの照合を行なうものである.形態素属性を調べる手続きの一覧を付録の表\ref{tab:morph_proc}\,に示す.各規則の適用条件部に含まれる平均手続き数を表\ref{tab:rule_complex}\,に示す.形態素属性を調べる手続きは,表\ref{tab:rule_complex}\,によれば,実装した規則全体の平均で10.1個含まれている.最も多い規則では16個,最も少ない規則では3個である.構文属性を調べる手続きについては,平均で0.9個,最も多い規則で3個,最も少ない規則では0個である.構文属性を調べる手続きを全く含まない規則は10規則存在する.\begin{table}[htbp]\caption{適用条件部を構成する平均手続き数}\label{tab:rule_complex}\begin{center}\begin{tabular}{|c||r|r|r|r|r|}\hline&\multicolumn{1}{|c|}{倒置}&\multicolumn{1}{|c|}{省略}&\multicolumn{1}{|c|}{挿入}&\multicolumn{1}{|c|}{強調}&\multicolumn{1}{|c|}{全体}\\\hline\hline形態素属性&10.6&10.0&10.8&6.0&10.1\\\hline構文属性&1.2&0.3&0.5&1.0&0.9\\\hline\end{tabular}\end{center}\end{table}\subsection{翻訳品質評価実験}\subsubsection{実験方法}評価実験には新聞記事\cite{Lewis97}から抽出した6182文を用いた.これらのうち1282文は従来システムでの構文解析に失敗するものであり,残り4900文は失敗しないものである.評価文集に含まれる文の長さは,最も短いもので4語,最も長いもので63語,平均では27.7語であった.評価文集には書き換え規則作成時に参照した文も含まれているため,今回の実験は完全ブラインドテストではない\footnote{本稿では,提案手法の技術的限界を知ることを主な目的としているため,ユーザの立場からの評価であるブラインドテストは今後の課題とする.}.規則記述の方針として,書き換えるべき表現が書き換えられない(再現率が上がらない)ことにはあまり注意せず,書き換えるべきでない表現を書き換えてしまう誤りの発生を極力抑える(適合率を上げる)ことにした.このため,評価では適合率のみに着目し,書き換えるべきでない表現が誤って書き換えられていないかを調べた.次に,規則が正しく適用されている文について,原文書き換え系を組み込んだ場合と組み込まない場合とで次の二点について比較した.\begin{LIST}\item[\bf解析品質]原文書き換えを行なうことによって,構文解析失敗の頻度がどの程度減少するか.失敗とは,\ref{sec:introduction}\,節で述べたように,入力文全体を覆う構文構造が生成できないことを意味する.\item[\bf翻訳品質]翻訳品質がどの程度向上するか.評価値は,品質の向上・若干向上・低下・若干低下・同等のいずれかとした.評価の実施は第三者一名に依頼した.\end{LIST}\subsubsection{実験結果}実験に用いた6182文のうち書き換え規則が適用された文は5.3\%にあたる330文であった.書き換えるべきでない表現に規則が誤って適用された文は存在しなかった.二つ以上の規則が適用された文は存在しなかった.書き換えられた330文の構文解析品質の改善度を表\ref{tab:result_parse}\,に示す.表\ref{tab:result_parse}\,によれば,330文の55.8\%にあたる184文について,失敗していた構文解析が成功するようになっている.ここで,「成功」とは,入力文全体を覆う構文構造が生成できたことを意味しており,人間にとって正しい解釈が生成できたことを必ずしも意味しない.原文書き換えを行なっても依然として構文解析に失敗している33文の内訳は,今回書き換え対象としなかった等位構造などの相対的不適格現象を含むものが10文,記述した書き換え規則で捉えられなかった挿入や省略を含むものが8文,綴り誤りなどを含む絶対的不適格文が7文などであった.原文書き換えによって「成功」から「失敗」に悪化した文は存在しなかった.なお,表\ref{tab:result_parse}\,は不適格現象ごとの集計ではなく書き換え規則ごとの集計である.例えば\ref{sec:object}\,節で挙げた文(E\ref{SENT:parenthesis_someofthem})は挿入と省略の二つの不適格現象を含むが,図\ref{fig:rule_ex}\,に示した一つの書き換え規則で書き換えられるため,挿入に関する規則としてのみ数えた.\begin{table}[htbp]\caption{構文解析品質の改善}\label{tab:result_parse}\begin{center}\begin{tabular}{|c||r|r|r|r|r@{}r|}\hline&\multicolumn{1}{|c|}{倒置}&\multicolumn{1}{|c|}{省略}&\multicolumn{1}{|c|}{挿入}&\multicolumn{1}{|c|}{強調}&\multicolumn{2}{|c|}{計}\\\hline\hline失敗$\rightarrow$成功&93&58&33&0&184&(55.8\%)\\失敗$\rightarrow$失敗&3&17&13&0&33&(10.0\%)\\成功$\rightarrow$成功&23&86&1&3&113&(34.2\%)\\成功$\rightarrow$失敗&0&0&0&0&0&(0.0\%)\\\hline\multicolumn{1}{|c||}{計}&119&161&47&3&330&(100\%)\\\hline\end{tabular}\end{center}\end{table}330文についての翻訳品質改善度の評価結果を表\ref{tab:result_trans}\,に示す.表\ref{tab:result_trans}\,によれば,規則が適用された330文の78.8\%にあたる260文で品質改善が見られる.\begin{table}[htbp]\caption{翻訳品質の改善}\label{tab:result_trans}\begin{center}\begin{tabular}{|l||r|r|r|r|r@{}r|}\hline&\multicolumn{1}{|c|}{倒置}&\multicolumn{1}{|c|}{省略}&\multicolumn{1}{|c|}{挿入}&\multicolumn{1}{|c|}{強調}&\multicolumn{2}{|c|}{計}\\\hline\hline向上&62&64&25&3&154&(46.7\%)\\若干向上&49&44&13&0&106&(32.1\%)\\同等&5&41&8&0&54&(16.4\%)\\若干低下&0&5&1&0&6&(1.8\%)\\低下&3&7&0&0&10&(3.0\%)\\\hline\multicolumn{1}{|c||}{計}&119&161&47&3&330&(100\%)\\\hline\end{tabular}\end{center}\end{table}書き換え規則が正しく適用されているにも拘らず評価値が「低下」となった10文についてその原因を分析した\footnote{原因は,実験に用いたシステムの既存部分の不備にあり,書き換え自体は文法的に正しい.}.省略に関する7文はすべて接続詞``that''の省略を含むものであった.``that''の補完が文(E\ref{SENT:ellipsis_saythat})のように品質改善につながることも多いが、文(E\ref{SENT:B1_saythat})のようにつながらないこともある.文(E\ref{SENT:B1_saythat})を翻訳した文(J\ref{SENT:B1_saythat})では,``that''は接続詞と解釈されずに形容詞と誤解釈されている\footnote{``thatsecondarytrading''が名詞句と解釈され「その第2の取引」と翻訳されている.}が,``and''以降の節``that$\ldots$tomorrow.''も被伝達節として正しく認識されている.これに対して文(J\ref{SENT:B1_saythat}')では,被伝達節として認識されているのは二つの節のうち一つ目の節``telephone$\ldots$today''だけである.文(J\ref{SENT:B1_saythat}')は,``1500hrsEST''などの時間表現が原語のまま残っているが,被伝達節の範囲が誤りであることは原文と照らし合わせなければ判明しないため誤解を招く危険な翻訳である.\begin{SENT}\sentETheofficesaidtelephoneconfirmationofallotmentsmustbereceivedby1500hrsESTtodayandthatsecondarytradingwillbeginat0930hrsESTtomorrow.\sentJそのオフィスは言った。割当額の電話確認は、1500hrsESTによって今日受け取られなければならず、そして、その第2の取引は、0930hrsESTから明日始まるであろうと。\sentNewETheofficesaidthattelephoneconfirmationofallotmentsmustbereceivedby1500hrsESTtodayandthatsecondarytradingwillbeginat0930hrsESTtomorrow.\sentNewJそのオフィスは、割当額の電話確認が1500hrsESTによって今日受け取られなければならないと言い、そして、その第2の取引は、0930hrsESTから明日始まるであろう。\label{SENT:B1_saythat}\end{SENT}評価値が「低下」となった残りの3文は,文(E\ref{SENT:B1_should})のように,二つの節``should$\ldots$thisquarter''と``thisaction$\ldots$negotiations''の節境界を示すコンマが存在しないために,書き換え後の文(E\ref{SENT:B1_should}')において節境界の認識を誤ったものである.文(E\ref{SENT:B1_should}')を翻訳した文(J\ref{SENT:B1_should}')では,``If$\ldots$urgency''が名詞節と解釈されているが,``if''で導かれる節が名詞節ではなく副詞節であることは,文頭の``should''を``if''に置き換える規則を文(E\ref{SENT:B1_should})に適用する段階で判明しているので,``if''の語種(品詞)を副詞節接続詞と指定する前編集記号``ca\_''を付加する操作を書き換え規則に追加し,文(E\ref{SENT:B1_should}'')のように書き換えることは可能である.この修正によって文(J\ref{SENT:B1_should}'')のような翻訳が得られる.\begin{SENT3}\sentE3ShouldCiticorpactuallyplacetheBrazilianloansinanon-performingcategoryattheendofthisquarterthisactionwouldservetoalleviatetheurgencyassociatedwiththedebtnegotiations,heargues.\sentJ3◇シティコープ‖ブラジルのローンを終りの契約不履行のカテゴリに実際に置く‖の。今期にこの活動が負債交渉によって関連していた切迫を緩和するのに役立つであろう、と彼は主張する。\sentNewE3IfCiticorpactuallyplacetheBrazilianloansinanon-performingcategoryattheendofthisquarterthisactionwouldservetoalleviatetheurgencyassociatedwiththedebtnegotiations,heargues.\sentNewJ3シティコープがブラジルのローンを切迫を緩和するためにこの活動が役立つであろう今期の終りの契約不履行のカテゴリに実際に置くかどうかが負債交渉と結合した、と彼は主張する。\sentYAE3ca\_IfCiticorpactuallyplacetheBrazilianloansinanon-performingcategoryattheendofthisquarterthisactionwouldservetoalleviatetheurgencyassociatedwiththedebtnegotiations,heargues.\sentYAJ3シティコープがブラジルのローンを今期の終りの契約不履行のカテゴリに実際に置くならば、この活動が負債交渉と結合していた切迫を緩和するのに役立つであろう、と彼は主張する。\label{SENT:B1_should}\end{SENT3}\subsection{翻訳速度評価実験}\subsubsection{実験方法}構文解析前に原文を書き換えれば,その分の処理の負担が増加する一方で,すべての構文解析規則の適用が試みられる可能性が低くなり構文解析の負担が減少する.このため,システム全体としては処理効率が向上すると予想される.この点を確認するために,原文書き換え系を従来システムに組み込んだ場合と組み込まない場合の翻訳速度を比較した.翻訳時間の測定は次の四種類の評価文集について行なった.\begin{CORPUS}\corpus品質評価実験に用いた6182文.\label{CORPUS:all}\corpus評価文集\ref{CORPUS:all}\,のうち構文解析に失敗する1282文.\label{CORPUS:fail}\corpus評価文集\ref{CORPUS:all}\,のうち書き換え規則が適用された330文.\label{CORPUS:all-applied}\corpus評価文集\ref{CORPUS:fail}\,のうち書き換え規則が適用された217文.\label{CORPUS:fail-applied}\end{CORPUS}\subsubsection{実験結果}各評価文集について,原文書き換え系を組み込まない場合の一文当り平均の翻訳時間と,組み込んだ場合の一文当り平均の翻訳時間,さらに,前者の翻訳速度を1としたときの後者の翻訳速度を表\ref{tab:result_efficiency}\,に示す.実験に用いた計算機のCPUは$\mbox{Pentium}^{\mbox{\tiny{(R)}}}$II400MHz,メモリは128MB,OSは$\mbox{Windows}^{\mbox{\tiny{(R)}}}$98である.翻訳システムはC言語で記述されている.評価文集\ref{CORPUS:all}\,を対象とした実験の結果,原文書き換えを行なった場合の速度は行なわない場合の速度に対して1.12となっている.評価文集\ref{CORPUS:all}\,において実際に書き換えられた文の数は入力文数の5.3\%に過ぎないが,このことを考慮すると翻訳速度向上への原文書き換えの貢献度は高いと考えられる.評価文集\ref{CORPUS:all-applied}\,を対象とした実験の結果より,書き換えるべき文がすべて書き換えられた場合には翻訳速度は2.6倍程度にまで向上するという一つの目安が得られた.また,構文解析が失敗することがあらかじめ判明している文だけを対象とした場合には,評価文集\ref{CORPUS:all}\,や\ref{CORPUS:all-applied}\,を対象とした場合よりも大きな効果が現れることが確認された.\begin{table}[htbp]\caption{翻訳速度の比較}\label{tab:result_efficiency}\begin{center}\begin{tabular}{|c|c|c|c|}\hline評価文集&原文書き換えなし(秒)&あり(秒)&速度比\\\hline\hline\ref{CORPUS:all}&1.20&1.07&1.12\\\ref{CORPUS:fail}&2.63&2.01&1.31\\\ref{CORPUS:all-applied}&3.93&1.46&2.69\\\ref{CORPUS:fail-applied}&5.27&1.51&3.49\\\hline\end{tabular}\end{center}\end{table}原文書き換え系を組み込むことによってシステム全体の処理効率が向上したのは,具体的には次の二つの理由による.我々の構文解析系は二段階方式に基づいており,適格文用の構文解析規則を用いて解析を行なう機構と,この機構による通常の解析が失敗した時点で起動され,解析途中で生成された部分構造の中から発見的知識を用いて妥当なものを選び出すための別の機構を備えている.第一の理由は,システムにとっての不適格文が原文書き換え系によって適格文に書き換えられると,第二の機構による処理を実行する必要がなくなるからである.従って,構文解析前に原文書き換えを行なうことによる処理効率向上の効果は,我々のシステムに限らず,制約緩和法や部分解析法のように二段階方式で構文解析を行なっているシステムで一般に期待できる.システムが想定していない言語現象を含む文の構文解析が失敗することは,第一の機構に記述されている規則をすべて適用し終えないと判明しない.これに対して,システムが想定している言語現象の文の解釈は,すべての規則を適用しなくても生成できる.速度向上のもう一つの理由は,原文書き換えによって,第一の機構で適用される規則の数すなわち生成される部分構造の数が減っていることである\footnote{適用される規則の数が具体的にどの程度減ったかの検証は本稿の範囲を越える.}.今回実装した書き換え規則では実際には記述していないが,\ref{sec:preedit:ruleformat:action}\,節で述べたように,本稿の原文書き換え系では書き換え操作として前編集記号を付加する操作を記述することができる.前編集記号の付加によって解釈の曖昧性が減るため,この操作を記述することによって解析速度がさらに向上する.例えば,文(E\ref{SENT:B1_should}')では``if''に名詞節接続詞か副詞節接続詞かの曖昧性があるが,文(E\ref{SENT:B1_should}'')では副詞節接続詞に決定されるため,文(E\ref{SENT:B1_should}')を文(E\ref{SENT:B1_should}'')に書き換えれば,さらに翻訳時間が短縮される.
\section{関連研究との比較}
\label{sec:relatedworks}原文書き換えを,形態素解析で得られる情報と通常よりも簡単な構文解析で得られる情報に基づいて行なう手法としては,金らの方法\cite{Kim94}や加藤らの方法\cite{KatoTerumasa97}がある.金らの方法は,長い日本語文の構文解析が失敗しやすいという問題に,長文を複数の短文に分割し,必要な場合には各短文に主語を補うことによって対処するものである.これに対して本稿の原文書き換え系では,文の分割だけでなく,語句の追加・削除・置換・移動,前編集記号の付加が可能であり,単に文を分割する場合よりも品質の高い翻訳が得られる.加藤らは,英語の複文に着目してその編集方法を示しているが,書き換え方法の提案に留まっており評価結果は報告されていない.
\section{おわりに}
本稿では,一部の構文レベルの相対的不適格文を既存システムでも適切に扱えるように書き換えることによって頑健な処理を実現する手法を示した.この原文書き換え系を既存の英日機械翻訳システムの形態素解析系と構文解析系の間に組み込み,翻訳の品質と速度が改善されることを実験によって確認した.倒置,省略,挿入,強調の現象にはそれぞれ様々なパターンがあるが,今回着目したパターンは比較的単純なものであり,記述した規則で多様なパターンを網羅しているわけではない.また,書き換えるべき表現が書き換えられないことにはあまり注意を払わなかった.今後,これらの点を考慮に入れた規則の拡張が必要である.\acknowledgment英々変換系の初期の実装を行なって頂いたシャープ(株)設計技術開発センターの関谷正明さんと,議論に参加頂いた英日機械翻訳グループの諸氏に感謝します.また,本稿の改善に非常に有益なコメントを頂いた査読者の方に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{rew}\newpage\appendix\begin{table}[hb]\caption{形態素属性を調べる手続きの一覧}\label{tab:morph_proc}\begin{center}\begin{tabular}{|l||p{0.5\textwidth}|}\hline\multicolumn{1}{|c||}{手続き名}&\multicolumn{1}{c|}{説明}\\\hline\hlineword($pos$,$w$)&入力文中で位置$pos$に単語$w$が存在すれば真を,さもなければ偽を返す.$pos$には,$p$(着目語の位置),$p+n(-3\len\le5)$,$\mbox{com\_fwd\_}m+n(m\le3)$,$\mbox{com\_bwd\_}m+n(m\le3)$,0(文頭),\$(文末)のいずれかが記述される.\\\hlineword($pos_1$,$pos_2$,$w$)&入力文中の区間$[pos_1,pos_2]$に単語$w$が存在すれば真,さもなければ偽.\\\hlineword\_class($pos$,$wc$)&位置$pos$に語種が$wc$である語が存在すれば真,さもなければ偽.$wc$としては,adjective,noun,singular\_noun,plural\_noun,verb,past\_participleなど59種類が記述されうる.\\\hlineword\_class($pos_1$,$pos_2$,$wc$)&区間$[pos_1,pos_2]$に語種が$wc$である語が存在すれば真,さもなければ偽.\\\hlinesem\_feat($pos$,$sf$)&位置$pos$に意味標識が$sf$である語が存在すれば真,さもなければ偽.$sf$としては,HUMAN,TIME,PLACEなど40種類が記述されうる.\\\hlinesem\_feat($pos_1$,$pos_2$,$sf$)&区間$[pos_1,pos_2]$に意味標識が$sf$である語が存在すれば真,さもなければ偽.\\\hlineverb\_pat($pos$,$vp$)&位置$pos$に動詞型が$vp$である語が存在すれば真,さもなければ偽.$vp$としては,Hornbyの分類\cite{Hornby77}を拡張した60種類が記述されうる.\\\hlineverb\_pat($pos_1$,$pos_2$,$vp$)&区間$[pos_1,pos_2]$に動詞型が$vp$である語が存在すれば真,さもなければ偽.\\\hlineadj\_pat($pos$,$ap$)&位置$pos$に形容詞型が$ap$である語が存在すれば真,さもなければ偽.$ap$としては,Hornbyの分類を拡張した9種類が記述されうる.\\\hlineadj\_pat($pos_1$,$pos_2$,$ap$)&区間$[pos_1,pos_2]$に形容詞型が$ap$である語が存在すれば真,さもなければ偽.\\\hlineidiom($pos$)&位置$pos$の語が慣用句の構成要素ならば真,さもなければ偽.\\\hline\end{tabular}\end{center}\end{table}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.1987年よりシャープ(株)にて機械翻訳システムの研究開発に従事.1999年神戸大学大学院自然科学研究科博士課程修了.}\bioauthor{佐田いち子}{1984年北九州大学文学部英文学科卒業.同年シャープ(株)に入社.現在,同社情報システム事業本部ソリューション事業推進センターソフト開発部係長.1985年より機械翻訳システムの研究開発に従事.}\bioauthor{福持陽士}{1982年インディアナ大学言語学部応用言語学科修士課程修了.翌年,シャープ(株)に入社.現在,情報システム事業本部ソリューション事業推進センターソフト開発部副参事.機械翻訳システムの研究開発に従事.}\bioreceived{受付}\biorevised{再受付}\biorevised{再々受付}\bioaccepted{採録}\end{biography}\newpage\\end{document}
| |
V15N02-05 | \section{はじめに}
近年,Webの普及や様々なコンテンツの増加に代表される不特定多数の情報の取得や不特定多数への情報の発信が容易になったことで,個人が取得できる情報の量が急激に増大してきている.個人が取得できる情報量は今後さらに増え続けるだろう.このような状況は,必要な情報を簡単に得られるようにする一方で不必要な情報も集めてしまう原因になっている.この問題を解決する方法として大量の情報の中から必要な情報だけを選択する技術が必要で,これを実現する手段として検索,フィルタリング,テキストマイニングが挙げられる.このような技術はスパムメールの排除やWebのショッピングサイトの推薦システム等で実際に使われている.本論文では大量の情報の中から必要な情報を取得する手段として人間の興味に着目し,文書に含まれる語句及び文書自体に興味の強弱を値として付与することを提案する.本論文では,不特定多数の人がどの程度興味を持つかに注目した.すなわち不特定多数を全体とした大衆に対する興味の程度である.興味の強弱を語句及び文書自体に付与することにより人間の興味(文書の面白さ,文書の注目度)の観点で情報を選別することが可能となるだけではなく,興味の強弱を値として与えることで興味がある・ないの関係ではなく興味の強さの程度を知ることができる.また,文書に含まれる語句に与えた興味の強弱の値から文書のどの部分が最も興味が強いか明らかになるため,文書のどの部分が興味の要因となるのか分析を行うことが可能である.このように語句の興味の強弱自体を明らかにすることは,例えばタイトル作成や広告等において同一の意味を示す複数の語句の中から興味が強い語句を選択する際の基準として利用できるため,興味を持ってもらえるように文書を作成する支援となることが期待できる.さらに,Web上でのアクセスランキングなどはアクセス数の集計後に知ることのできる事後の情報である.本論文の文書自体に付与する興味の強弱の値を利用することでこの順位を事前に予測することが可能となり,提示する文書の選択や表示順の変更などをアクセス集計前に利用することが期待できる.大衆の興味が反映されているデータに注目することでこのような大衆の興味を捉えることが出来ると考える.また興味を持つことになった原因と持たれない原因を分析する手がかりになると期待できる.本論文では,多くの人が興味を持つ文書を判断するため,まず興味の判断に必要な素性を文書から抽出する.次に抽出した素性に興味の強弱を値で推定して付与する.さらに興味の強弱の値が付与された素性から文書自体の興味の強弱を推定する.\ref{sec_興味}章にて本論文で対象とする興味,\ref{sec_関連}章にて関連研究,\ref{sec_rank}章で順位情報の詳細,\ref{sec_method}章で提案手法について述べ,\ref{sec_expeval}章で評価実験及び考察を行う.さらに\ref{sec_method2}章で提案手法の拡張について述べ,その評価を\ref{sec_evalexp2}章にて行う.
\section{興味について}
label{sec_興味}\subsection{大衆の興味}興味はある対象に対して面白いと感じる又は魅かれている状態を示すものであり,個人によって興味を持つ対象は様々である.我々は個人の興味の集合を大衆の興味とした.大衆の興味を引きやすいということはより多くの人に興味を持たれるものであり,このようなものを大衆の興味を得られやすい情報として扱っている.前述のように各個人の興味は多種多様であり,1つの尺度では表せないものである.しかし不特定多数の人がいる中で興味を持つ人がどの程度いるかという大衆の興味として扱うことで興味の傾向などが得られると考えている.\subsection{対象とする興味}我々が定義した大衆の興味には次に示す2種類の興味が含まれていると考える.\begin{itemize}\item時間変動を含んでいる興味時間変動を含んでいる興味はトレンドや流行と呼ばれ,今現在や過去のある時点で興味を集めているもの\item対象自体が持っている興味対象(語句)自体が普遍的に持つ「興味を発生させる強さ」を指し,時間で変動せずに対象自体が持っている普遍的な興味の度合い\end{itemize}我々は語句自体が持つ時間変動を持たない後者の興味の強さに注目し本論文の対象とした.例えばトレンド分析の結果「収賄の疑いで逮捕」が抽出された場合,これは現在注目を集めている特定の話題として抽出されたものである.本論文ではこのような時間で変動するトレンドではなく,「逮捕」という語句そのものが普遍的に持つ興味があると考え,その強さを明らかにするためにその語句に対して興味の強さを値として与えた.
\section{関連研究}
label{sec_関連}興味の分析や抽出を行う先行研究には,多数の販売記録から対象者が興味を持つ商品の推薦を行うものや,時系列分析を行って単語の出現傾向から現在注目されているイベントや単語を検出する研究などがある.さらに最近では文書の書き手が個人であるBlogなどを用いることで主観情報の分析や個人の興味,トレンド分析を行う研究が存在する.奥村らはWeb上の文書を時間情報が含まれたdocumentstreamで扱い,burst検出手法に基づいて分析を行い注目されている話題を検出する手法を提案している{\cite{fuziki}}.このシステムではBlogなどに対する書き込み時間を基に単語の出現間隔が短くなっている箇所に注目すべき話題があるとして注目されている話題の検出を行っている.このように現在注目を集めている話題,及び過去に注目を集めていた話題を検出するのはトレンド分析の1種であり,興味を分析する研究の1つとして挙げられる.また西原らは興味を持ってもらえるタイトルやアブストラクトの作成を目標に,興味を引く研究発表のタイトルを作成する支援システムを提案している\cite{nishihara}.システムは論文タイトルを入力にとり,興味を値として推定しこの値によって入力されたタイトル群に順位を付与している.興味の値としてタイトルに含まれる名詞の分かりやすさと,単語の組み合わせの斬新さという2つの尺度からタイトルの面白さを評価している.興味自体の分析を行っている研究として福原らのKANSHINの開発が挙げられる\cite{fukuhara2}.このシステムはBlog記事を大量に収集し時系列分析することで社会の{「関心動向」(トレンド)}を把握することを可能としている.収集した記事から単語が出現する頻度の推移を分析し,興味の発生を{「関心パタン」}として周期型,漸次増加型,突発型,関心持続型,その他の5つに分類している.さらに単語と気温の関係のような出現単語と現実で起こる現象の関係についても議論を行っている\cite{fukuhara2005acp}.興味を持つ商品や楽曲の推薦を行う研究として協調フィルタリングを使用した研究が挙げられる.協調フィルタリングは複数のユーザが評価したデータが存在する中で,対象者と嗜好等の類似度によって求めたいくつかの類似性の高いユーザの情報を選択し,使用者へ推薦する情報の選別に利用する.個人の興味を対象としプロファイルやユーザー間の類似度を利用して情報の選択を行う.Resnickらはニュースの記事の集合から,対象者の好みに合う記事を推薦するシステムを開発した\cite{Resnick}.個人がニュース記事に付与した5段階の評価値を利用している.Upendraらは楽曲のプレイリスト生成システムを考案している\cite{Upendra}.これは多数の人が作成したプレイリストから対象者にプレイリストを提供するシステムである.これらの研究では単語の出現する頻度を時系列で解析することや,出現した単語の斬新さ等の尺度を定義することによって興味を捉えている.これに対し本論文では文書の内容自体と大衆の興味が反映されているデータを基に興味の強さを推定した.対象とする興味はトレンドのような時間で変動する興味ではなく,語句自体が持つ時系列で変化しない興味の強さである.このような興味を対象に,大衆の興味が反映されているデータから興味の強弱を値として推定する研究は従来行われていない.
\section{順位情報付き文書}
label{sec_rank}人の興味の情報が得られるものとしてWeb掲示板,Blog,Webページのアクセスランキング,アンケートなどが存在する.我々は大衆の興味を含んでいる情報源として順位情報に注目し,Webで公開されているニュースランキングを選択した.ランキングは不特定多数の利用者の興味が反映されており,大衆の興味を含むデータとして有効である.\subsection{順位情報と興味}\label{sec_RANK-INT}本論文で扱う順位情報について述べる.本論文における順位情報とは,ある対象を一定の基準で並び替えを行い,昇順または降順に付与した順番の事である.順位を付与する際に用いられる基準には様々な種類が存在する.以下に順位情報と順位を決定した基準についていくつか示す.\underline{順位情報と順位の決定基準}\begin{itemize}\itemアクセス数ランキング:アクセス数\item選択式のアンケート:投票数\itemダウンロードランキング:ダウンロード数\item検索キーワードランキング:クエリの使用回数\end{itemize}例として示した順位情報は人に選択されるほど上位の順位が付与される.そのため,順位情報は多数の人の興味が集合した結果であり,大衆の興味を強く反映していると考える.順位を決定する基準であるアクセス数や投票数は人々に選択された数がそのまま反映され直接的に人の興味に関係する.順位情報自体はこの基準の上下関係である.この意味で順位情報は大衆の興味と間接的に関係している情報と考えられる.そこで,本論文では大衆の興味という情報をスコアの形で推定するために,順位情報をアクセス数やダウンロード数に変換することを考えた.\subsection{順位情報の扱い}\ref{sec_RANK-INT}節で述べたように順位情報は興味に対して間接的な関係を示している値である.本論文で集めた順位情報はアクセス数によって順位が決定されている.そこでまず順位情報をアクセス数の値に変換することを考える.これは順位からアクセス数を推定することで行い,順位情報の示す上下関係から順位付けの決定基準に変換することに相当する.この変換によって順位が持っている興味に対する間接的な関係をアクセス数のように興味に対して直接関係する値に変換することが可能になる.アクセス数と順位の間にある関係は経験則でべき乗の法則に従うことが知られている\cite{lada2002}.本論文ではこの経験則を利用して順位を興味に直接関係する値として変換する.順位の変数$r$とアクセス数の変数$h$の関係をべき乗の法則に従うとし,両対数上で直線となる特性から式(\ref{eq_ZIP})が仮定できる.式(\ref{eq_ZIP})に順位とアクセス数の関係式を示す.\begin{equation}\label{eq_ZIP}\mathit{log}(h)=C_{1}-C_{2}\cdotlog(r)\end{equation}式(\ref{eq_ZIP})において$C_{1}$及び$C_{2}$は任意の定数を示している.本研究では式を簡単にするため$C_{1}=C_{2}=1$として扱う.この結果順位$r$からアクセス数$h$を推定する変換式$Hit(r)$を式(\ref{eq_rank2hit})に示す.\begin{equation}\label{eq_rank2hit}\mathit{Hit}(r)=h=10^{-log(r)}=\frac{1}{r}\end{equation}式(\ref{eq_rank2hit})によって文書に付与されている順位$r$はアクセス数に変換される.式(\ref{eq_rank2hit})で表される推定アクセス数は0から1までの値をとり,最大のアクセス数が1となるように正規化されている.
\section{提案手法}
label{sec_method}本節では文書に興味の強弱を値として付与する方法について提案する.提案手法の概略を図\ref{flow}に示す.\begin{figure}[b]\begin{center}\includegraphics{15-2ia5f1.eps}\end{center}\caption{提案手法の大まかな流れ}\label{flow}\end{figure}文書に含まれる語句の興味の強弱を推定するために,まず文書に含まれる形態素から内容語を興味判別の素性として抽出した.なぜなら文書が興味を持たれるかはその文書の内容に依存しており,人が文書の興味を判断する際に文法的機能を示す機能語では直接的に興味を引く対象にはならないと考えたためである.次に,今注目している素性が興味を引くかどうかを興味の強弱の値で表すことによって推定する.興味を値で推定する方法として学習データを利用した2つの尺度を用いた.1つ目の尺度として学習データにおいて順位付き文書に出現する回数と順位無し文書に出現する回数の割合を使用した.これは,興味を持たれやすい文書はランキングに出現しやすく,それに伴って文書に含まれる内容語がランキングの中で出現する回数が多くなると考えるためである.2つ目の尺度は出現順位である.興味が持たれやすいならば高い順位に出現することが多くアクセス数も高い値を持つと考える.ここでは順位から推定したアクセス数の平均を利用した.以上2つの尺度を本論文では興味を推定するために用いる.最後に文書自体に興味の強弱を値で付与する.文書の興味の強弱は文書に含まれる素性に付与された興味の強弱の値によって決定する.以上の3つのステップで本システムは興味の強弱に関する値を文書に付与する.\begin{enumerate}\item興味を推定するための素性の抽出\\入力された文書を形態素解析し内容語を抽出する.\item素性の興味強度の推定\\順位付き文書を利用して素性に興味の強弱を値で付与する.\item文書の興味強度の推定\\文書に対して興味の強弱を値で付与する.\end{enumerate}次節より各ステップの詳細について説明する.\subsection{興味を推定するための素性の抽出}\label{nai}入力されたそれぞれの文書から興味の判別を行う際に重要であると考えられる素性を抽出する.形態素解析器に茶筌\footnote{形態素解析器ChaSen,Ver.~2.3.3,奈良先端科学技術大学院大学松本研究室,http://chasen.naist.jp/hiki/ChaSen/.}を用いた.人が文書に対して興味があるかどうか判断する場合,助詞,助動詞,接続詞などの機能語に注目することは考えにくく,文書の内容が表れている内容語が重要であると考える.また出現した単語の順序よりも,どのような単語が出現しているかが重要であると考える.そこで,文書を内容語の集合(bag-of-words)で表現することにした.本論文で抽出する内容語の品詞を茶筌(IPADIC)の品詞体系に従って次に示す.\underline{使用する品詞}\begin{enumerate}\item名詞(一般,固有名詞,サ変接続,形容動詞語幹)\item動詞(自立)\item形容詞(自立)\end{enumerate}ただし,以下に示す8形態素は出現頻度が非常に多く,また他の語句の補助的な機能を持つ語句であることから興味の強弱の判断材料として不向きであるため,ストップワードとする.\underline{ストップワード}\vspace{0.5\baselineskip}\begin{center}\fbox{する,ある,よる,いる,なる,いう,みる,できる}\end{center}\vspace{0.5\baselineskip}抽出処理の例を\exref{chasenex}に示す.\begin{itembox}{\ex{}\label{chasenex}内容語の抽出処理}入力:共産社民両党に国会を混乱させたことをわびた.\\抽出単語:共産,社民,党,国会,混乱,わびる\end{itembox}本節で述べた品詞,条件を持つ内容語について次節以降の処理を行う.\subsection{素性の興味強度の推定}\label{calc_int}対象となる素性に学習データを利用して興味の強弱を値として与える方法について述べる.学習データはあらかじめ用意しておいた順位情報が付与されている文書,及び順位情報が付与されなかった文書の集合である.文書自体の興味の強弱が内容語に左右されるとしたときに,内容語自身が持つ興味への影響の強弱は,注目している内容語が学習データの順位付き文書において出現する回数及びその順位に関係していると考えられる.\underline{興味に関係する要素}\begin{itemize}\item順位情報付き文書に出現した文書数\item順位情報無し文書に出現した文書数\item順位別出現文書数\end{itemize}入力文書から抽出した素性には,興味の強弱に基づいた値として興味スコアを付与する.興味スコアを付与するために以下の処理を行う.\begin{enumerate}\item学習データにおける対象素性の各出現回数を数える.出現回数は順位情報付き文書に出現した文書数,順位情報無し文書に出現した文書数,各順位における出現文書数の3種類である.\item対象が学習データ内で一度も出現していない場合,興味スコアの付与は困難であるため興味スコアの付与は行わずに素性の集合から取り除く.\item各種出現回数から興味スコアを付与する.\end{enumerate}本論文では興味を2つの尺度で評価する.まず平均アクセス数の形で興味を評価する方法について述べる.入力文書$D$に含まれる素性を$w$として$w$が順位$r$に出現した文書数$Rank\_DF_{r}(w)$,素性$w$が順位情報付き文書に出現した文書数を$Ranked\_DF(w)$,素性$w$が順位情報無し文書に出現した文書数を$UnRanked\_DF(w)$と表す.このとき素性$w$について平均アクセス数$Average\_Hit(w)$を式(\ref{all_hit})によって求める.順位$r$をアクセス数に変換する関数$Hit(r)$は式(\ref{eq_rank2hit})を用いる.式(\ref{all_hit})における$M$は順位付き文書に付与される順位で最も低い順位を示す.\begin{equation}\label{all_hit}Average\_Hit(w)=\frac{\sum_{r=1}^{M}(Hit(r)\cdotRank\_DF_{r}(w))}{Ranked\_DF(w)}\end{equation}次に,興味を持たれる要素ならば順位付き文書に出現する回数が多いという観点から素性$w$が全文書に対して順位付き文書に出現する割合を$Ranked\_Ratio(w)$で示し式(\ref{prob})を用いる.\begin{equation}\label{prob}Ranked\_Ratio(w)=\frac{Ranked\_DF(w)}{Ranked\_DF(w)+UnRanked\_DF(w)}\end{equation}以上2つの尺度から素性$w$の興味スコア$Interest(w)$を式(\ref{bow})によって算出する.\begin{equation}\label{bow}Interest(w)=Average\_Hit(w)\cdotRanked\_Ratio(w)\end{equation}それぞれの素性について式(\ref{bow})を使って興味スコアを決定する.この時,興味スコアが算出できなかった素性は除外する.こうして入力文書$D$に対して値が決定できた興味スコア列を$F$で示し文書の興味推定に使用する.興味スコアの作成例を\exref{chasenex2}に示す.\vspace{0.5\baselineskip}\begin{itembox}{\ex{}\label{chasenex2}興味スコア列の作成\\}入力$D_0$:南極観測隊の越冬交代式が1日,昭和基地で開かれた.\\抽出単語:{南極,観測,越冬,交代,昭和,基地,開く}\\[-0.5zw]{\small\begin{center}\begin{tabular}{c||c|c|c|c|c|c}\hline&&&\multicolumn{3}{c|}{$Rank\_DF_{r}$}\\\cline{4-6}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{素性}&\raisebox{0.5\normalbaselineskip}[0pt][0pt]{$Ranked\_DF$}&\raisebox{0.5\normalbaselineskip}[0pt][0pt]{$UnRanked\_DF$}&$r=1$&${r=2}$&${r=3}$&\raisebox{0.5\normalbaselineskip}[0pt][0pt]{$Interest$}\\\hline南極&2&3&1&0&1&0.266\\観測&1&3&0&1&0&0.125\\越冬&0&3&0&0&0&0\\交代&0&0&0&0&0&---\\昭和&2&2&0&2&0&0.25\\基地&0&0&0&0&0&---\\開く&1&9&0&0&1&0.033\\\hline\end{tabular}\end{center}}\par\vspace{0.5zw}興味スコアの計算例(南極):\begin{align*}\mathit{Interest}(南極)&=Average\_Hit(南極)\cdotRanked\_Ratio(南極)\\&=\frac{\frac{1}{1}+\frac{1}{3}}{2}\cdot\left(\frac{2}{2+3}\right)=0.266\end{align*}興味スコア列:$F_0=\{0.266,0.125,0,0.25,0.033\}$\end{itembox}\subsection{文書の興味強度の推定}入力文書$D$から作成した興味スコア列$F$を利用して興味の強弱を値とした文書興味スコアを文書に付与する方法について述べる.入力文書に含まれる素性それぞれが,順位に対して影響を与えるとしたとき,興味スコアの高い素性は順位を上げる要素であり,興味スコアの低い素性は順位を下げる要素である.そこで,入力文書$D$に含まれる素性から作成した興味スコア列$F$を使用して文書興味スコアを式(\ref{txt_bow})によって算出する.\begin{equation}\label{txt_bow}Interest\_Doc(D)=\frac{1}{N}{\sum_{val\inF}val}\end{equation}式(\ref{txt_bow})において,$F$は入力文書$D$から作成した興味スコア列を示し,$N$は$F$の興味スコア列の要素数を示している.\exref{chasenex2}に示した入力文書$D_0$の興味スコアは\exref{text}に示すように計算される.\begin{itembox}{\ex{}\label{text}文書興味スコアの算出}\vspace{-1\baselineskip}\begin{align*}Interest\_Doc(D_0)&=({0.266+0.125+0+0.25+0.033})\div{5}\\&=0.132\end{align*}\vspace{-1.5\baselineskip}\end{itembox}本研究では入力文書に文書興味スコアを計算し順位を付与するシステムを構築した.入力文書の順位付けは各入力文書について式(\ref{txt_bow})を使用して文書興味スコアを付与し,スコアの高い順に順位を与える.システムは順位の高い順に出力を行う.
\section{評価実験}
label{sec_expeval}\subsection{評価方法}\label{eval_method}本論文の評価はシステムが付与したランキングの上位文書がより多くの人に興味を持たれているかを確認する事である.実際の順位が付与された文書を含む文書群を入力とし,システムが付与した順位と実際の順位を比較することで評価を行った.このとき実際に付与されている順位を正解として扱っている.本論文ではシステムの出力順位と実際の順位が近似しているほど高精度であると考え,評価式は相関係数を求めるSpearmanの順位相関係数\cite{Spearman}を基に式を拡張して用いた.Spearmanの順位相関係数$\gamma$を式(\ref{spearman})に示す.式(\ref{spearman})において$n$は入力順位の総数,$d_i$は$i$番目に入力された2つの順位$x_i$,$y_i$の差分を示している.\begin{gather}\gamma=1-6\cdot\frac{\sum_{i=1}^{n}(d_i)^2}{n\cdot(n^2-1)}\label{spearman}\\d_i=x_i-y_i\label{spearman2}\end{gather}本論文における精度はシステムの出力した順位と実際の順位が類似するほど精度が高いとする.本評価では式(\ref{spearman2})を式(\ref{eval2})の様に変更して評価式として扱う.式(\ref{eval2})において$m$番目にシステムが出力した順位と正解順位の対を$Rank\_Sys_{m},Rank\_Ans_{m}$と示す.\begin{gather}d_m=\begin{cases}Rank\_Sys_{m}-Rank\_Ans_{m},&if~exist\Rank\_Ans_{m}\\0,&otherwise\end{cases}\label{eval2}\\Rank\_Sys_{m}=m\label{eval3}\end{gather}式(\ref{eval2})を使った場合式(\ref{spearman})において,$n$は入力文書の総文書数を示し,$i$はシステム出力の順位,$d_i$はシステムの順位と実際の順位との差を示している.ただし順位の差を計算する上で実際の順位とシステムの順位の両方の値を持つ文書のみに対して順位差$d_i$を計算を行う.これは正解の順位が正確に得ることが出来ないためである.評価式は以下に示す情報が反映されている.\begin{itemize}\item実際の順位とシステムの順位の差\item興味を持たれなかった記事がシステムの上位に出現する数\end{itemize}評価式において上記の項目が大きい値を持つとき評価値を下げることになる.評価式は$-1$から1までの値をとり,評価式の結果が1に近づくほどシステム出力の順位と実際の順位が近いことを示す.評価値が1に近づくことはシステムが大衆の選択した文書に高い順位を与え,さらにシステムの出力した順位と正解の順位が近いことを示す.また評価の結果が1の時,システムの出力した順位と実際の順位に差が全くないことを示している.評価式を使った計算を\exref{evalex}に示す.\begin{itembox}{\ex{}\label{evalex}様々な正解に対する評価値の計算}入力文書数を10文書とし正解が1位,2位,3位の3つの場合の計算を示す.空欄は順位が無いことを示している.\vspace{0.5zw}\begin{center}{\small\begin{tabular}{c|cccccccccc}\hlineシステム順位&1&2&3&4&5&6&7&8&9&10\\\hline正解順位1&1&&2&3&&&&&&\\正解順位2&3&&1&&&&2&&&\\正解順位3&1&2&3&&&&&&&\\正解順位4&&&&&&&&3&2&1\\正解順位5&&&&&&&&1&2&3\\\hline\end{tabular}}\end{center}\vspace{0.5zw}各評価値の計算を以下に示す.\\{\setlength{\baselineskip}{12pt}正解1:$1-6\cdot({0+1^2+1^2})\div({10\cdot(10^2-1)})=0.99$\\正解2:$1-6\cdot({-2^2+2^2+5^2})\div({10\cdot(10^2-1)})=0.81$\\正解3:$1-6\cdot({0+0+0})\div({10\cdot(10^2-1)})=1$\\正解4:$1-6\cdot({5^2+7^2+9^2})\div({10\cdot(10^2-1)})=0.07$\\正解5:$1-6\cdot({7^2+7^2+7^2})\div({10\cdot(10^2-1)})=0.11$\par}\end{itembox}\subsection{学習データの収集}\label{sec_collect_learn}本論文ではランキングに付与されている順位情報を用いるために順位情報が付与されている文書を収集した.順位付き文書の収集源として我々はニュースランキングに着目した.順位情報が付与されている文書が新聞記事であるため,形態素解析などの処理が容易であり,また閲覧数を基にランキング付与を行っているという点において大衆の興味への関係性が高いと考えたからである.本論文では順位付き文書を朝日新聞社の「アクセスTop30」\footnote{アサヒ・コムアクセスTop30,http://www.asahi.com/whatsnew/ranking/.}を対象に収集した.このランキングはWeb上で公開されており,掲載される記事のジャンルは,社会,スポーツ,ビジネス,暮らし,政治,国際,文化,芸能,サイエンスと広範囲の記事が含まれている.収集時期において朝日新聞社が公開していたニュースランキングは,順位を決定する基準として0時から24時までの24時間分の総アクセス数を使用し,アクセス数の多い順番で順位を決定している.また,このニュースランキングでは全ての記事の順位が公開されているのではなく,アクセス数上位30位以内の記事が順位と共に公開されている.アクセス数は公開されていない.順位の決定に24時間分の総アクセス数を用いているので,ランキングの中にはその時間内に掲載された記事だけではなくアクセス数の収集期間よりも以前に掲載された記事も含まれている.よって,ランキングに複数の日で出現する記事が存在するため,記事には複数の順位情報が付与されることもある.記事の収集については順位付きの記事だけではなく,順位が付かなかった記事についても収集を行い,順位付き文書と順位無し文書の両方を学習データとして用いている.実際に記事を収集した期間は2004年1月1日から2004年12月31日までの1年分について収集を行った.表\ref{learn}に収集データの詳細を示す.\begin{table}[b]\caption{収集した学習データの統計データ}\label{learn}\input{05table01.txt}\end{table}\subsection{評価対象}\label{sec_collect_eval}評価対象として入力する文書は同一の掲載日付でまとめた記事の集合である.システムは各記事に文書興味スコアを付与し,このスコアによって順位を付与して出力する.この入力文書の掲載日付に対して次の日に掲載されるランキングを参照し,システムの順位と実際の順位の対応を作成しこの2つの順位の比較を行う.評価用データとして収集する文書は学習データと同様に朝日新聞社の「アクセスTop30」とした.抽出した記事から順位情報付き文書と順位情報無し文書を掲載日付で分割したテストセットを作成した.収集期間は学習データと異なる2005年3月の1ヶ月を収集の期間とし,テストセットを30セット作成した.この時のテストセットに含まれている順位付き文書を正解として扱う.また,朝日新聞社のニュースランキングは順位付き文書を30位まで取得することができるが,ランキングに含まれる文書は同一の掲載日付のみではないため1つのテストセットに含まれている順位付き文書数は30未満になる場合もあり,順位付き文書数はテストセットによって左右する.作成したテストセットについての詳細なデータを表\ref{testset}に示す.\begin{table}[t]\begin{center}\caption{収集したテストセットの統計データ}\label{testset}\input{05table02.txt}\end{table}1つのテストセットごとに評価式(\ref{spearman})及び式(\ref{eval2})を使用して評価を行い全テストセットの平均値をシステム全体の評価値とする.\subsection{システムの評価}\label{sec_eval_main}実験では入力文書に順位を付け正解順位との比較を行うことを評価している.システムの出力例を付録に示す.評価値の比較のため次の2つのモデルを考える.\begin{itemize}\itemランダム\\入力記事群にランダムに順位を付与する.\itemIDFを用いた手法\\対象素性$w$の興味の強さを$Interest(w)$の代わりに文書に含まれる語句の特徴性を表す$idf$と対象素性が順位付き文書に出現する割合$Ranked\_Ratio(w)$を使用して素性の興味スコアを計算する.計算式を式(\ref{idfP})に示す.\end{itemize}\begin{equation}\label{idfP}Interest_{idf}(w)=Ranked\_Ratio(w)\cdotidf(w)\end{equation}式(\ref{idfP})において$Ranked\_Ratio(w)$は学習データから求め,$idf(w)$については別にコーパスを用意し,各形態素の$idf$を算出している.$idf$辞書を作成するために使用したコーパスは日本経済新聞\footnote{日本経済新聞全記事データベース1990年〜2004年,日本経済新聞社.}の1990年から2004年までの14年分である.$idf$をカウントする際の文書の単位は1記事としている.$Interest_{idf}(w)$を$Interest(w)$の代わりに使用して興味スコアを算出し,文書興味スコアの推定に用いる.システムが出力した順位と実際の順位との評価値を図\ref{eval_eq}に示す.図\ref{eval_eq}には各評価対象の評価値の平均,最大及び最低の評価値をエラーバーで示している.\begin{figure}[b]\begin{center}\includegraphics{15-2ia5f2.eps}\end{center}\caption{内容語を素性とした文書の興味推定の評価}\label{eval_eq}\end{figure}図\ref{eval_eq}において提案手法はランダムと比べて平均の評価値で0.17向上している.IDFと比べて提案手法は平均の評価値で0.08向上している.提案手法は平均,最低値,最高値のそれぞれにおいて比較対象より良好な結果を得られることが分かった.次に実際のランキングの30位以内に出現した記事を正解記事として,システムの上位10記事分を取り出した場合の正解記事の抽出精度を調査した.表\ref{eval_2}にシステムの出力上位10記事に注目した抽出精度を示す.比較対象として先ほど述べた2つに加えSVM\footnote{SVM学習ツールTinySVM,Ver.~0.09,奈良先端科学技術大学院大学松本研究室,http://chasen.org/\~{}taku/\linebreak[2]software/TinySVM/.}による分類器を追加した.SVMの学習は内容語を素性に順位付き文書を正例,順位無し文書を負例として行っている.使用したカーネルは線形カーネルである.SVMの抽出精度については10記事分ではなく分類の結果正例として出力された中で正解記事が含まれている割合を示している.SVMは評価条件が違うため正確な比較ではないが,提案手法は他に定義した比較して,ランダムに比べて約26ポイント,IDFに比べて約24ポイント,SVMに比べて約13ポイント向上している.\subsubsection{品詞別に分けた評価}\label{pos_vary}内容語の中でどのような語が興味の強弱の判別に貢献しているか調査するため内容語を品詞別に分けて評価実験を行った.\tableref{var_pos}に品詞別の評価を示す.表において使用した品詞は○,未使用の品詞は空欄となっている.表\ref{var_pos}より以下の事が分かった.\begin{itemize}\item全ての品詞を使った場合の評価値が0.862であり名詞のみを使った場合の評価値が0.858であることから,名詞の貢献する割合が大きく名詞は興味判別のために重要である.\item動詞,形容詞は文書の興味の判別に対する貢献は小さいが全体の精度を下げるものではない.\end{itemize}影響が最も大きかった名詞をさらに品詞詳細に分けて評価を行った結果を表\ref{var_pos2}に示す.\begin{table}[b]\begin{minipage}{0.45\textwidth}\caption{興味を持たれる記事の抽出精度}\input{05table03.txt}\label{eval_2}\end{minipage}\begin{minipage}{0.45\textwidth}\caption{品詞別に分けた評価実験結果}\input{05table04.txt}\label{var_pos}\end{minipage}\end{table}\begin{table}[b]\caption{名詞を詳細別に分けた評価実験結果}\input{05table05.txt}\label{var_pos2}\end{table}以上より興味を判別する際に重要となる語句は名詞—一般,名詞—サ変,動詞,名詞—固有名詞,形容詞の順で重要であることが分かった.\subsubsection{学習データ内の出現回数と精度}\label{th}次に,興味を判定する素性である内容語が学習データ内の出現回数によって評価値とどのような関係があるか調査を行った.これは出現回数が少ない素性に付与した興味スコアが不安定であることが評価値にどの程度影響を与えるのか調べるためである.また出現回数の多い素性は文書を興味の強弱で判別することに不向きであるかどうかも確認することができる.実験は学習データ内に出現した回数で閾値を設定し閾値以上又は閾値以下の出現回数であった内容語は文書の興味の推定の時に扱わないようにして行った.出現回数が閾値以下の素性を削除して実験を行った結果を図\ref{down}に示す.\begin{figure}[b]\begin{center}\includegraphics{15-2ia5f3.eps}\end{center}\caption{出現回数が閾値以下の素性を削除した評価値の変動}\label{down}\end{figure}図\ref{down}より学習データにおいて頻度が少なかった素性を削除した結果,特に「出現回数1回以下を削除」から「出現回数5回以下を削除」において精度の低下は見られなかった.この原因は学習データにおいて出現回数が少ない語が評価対象として入力する文書にも出現することが少ない事,また出現回数が少ない素性に付与する興味スコアの信頼性が低い事が挙げられる.出現回数が少ない素性は1回の出現回数の増加で興味スコアが大きく変化することからスコアが不安定であり信頼性を低いとしている.次に出現回数が閾値以上の素性を削除して実験を行った結果を図\ref{up}に示す.図\ref{up}より学習データにおいて閾値より頻度が多い素性を削除した結果,閾値を下げていくと閾値が1,000までは精度の向上が見られた.出現頻度が高い語を削除しても精度に変化が表れなかったことから,これらは興味を判別する要素として重要ではないと考えられる.以上の結果から評価値の低下が見られなかった「出現回数5回以下を削除」及び「出現回数1,000回以上を削除」の両方を利用した.その結果,評価値で0.865であり,閾値が無い場合の評価値(\tableref{var_pos}の最大値0.862)と比較して精度が上昇したことが確認できた.これにより「出現回数5回以下」及び「出現回数1,000回以上」は全体として興味判別に貢献していないと考える.\subsubsection{素性に付与されたスコア}\label{scoring}興味スコアの値が付いた素性の観測結果について述べる.\pagebreak素性に付与した興味スコアについて並び変えを行い,スコアの上位と下位からいくつかの内容語を例として\exref{score1}及び\exref{score2}に示す.\begin{itembox}{\ex{}\label{score1}高い興味スコアが付いた内容語}\begin{center}乱造,落葉,撲殺,偏愛,鉢巻き,作画,倦怠,怪死,往還,討伐\end{center}\end{itembox}\begin{itembox}{\ex{}\label{score2}低い興味スコアが付いた内容語}\begin{center}調べ,調査,入る,予定,述べる,会社,関係,求める,発表,東京\end{center}\end{itembox}\begin{figure}[t]\begin{center}\includegraphics{15-2ia5f4.eps}\end{center}\caption{出現回数が閾値以上の素性を削除した評価値の変動}\label{up}\end{figure}興味スコアが高い値の語句の特徴としては低頻度の語が多く,低い値の語句の特徴としては高頻度の語,経済のジャンルに属する語句及びスポーツのジャンルに属する語句が多いという傾向が分かった.これはシステムが出力する順位の結果においてもスポーツ記事全般と経済に関する記事の興味スコアが低いという同様の傾向が得られている.よって今回の順位付けは大きく分けて経済記事,スポーツ記事,その他の記事の3種類の特徴を捕らえているようになっていることが考えられる.これは記事の特性上,スポーツ記事では記事間で同様の単語が使われることが多いため,それらの単語が順位付き文書で使用される割合が減少し,この結果興味スコアが低くなったと考える.また,経済の記事は全経済記事に対して順位付き記事に表れる割合が少ない.以上の傾向は大衆の興味をとらえるという点では妥当な結果と考えられる.また\exref{ex_var}に示すような動詞は\ref{pos_vary}節で述べたように興味推定の貢献度は少なかった.これは内容語単体では興味を推定するのに情報が不十分であることが考えられる.これは,一部のサ変名詞にも言えることである.例えば\exref{ex_var}にある「結婚」という語句については「結婚」自体が興味を持たれるのでは無く,それと共に出現する語句を同時に扱うことで情報に限定性が付与され興味の対象となると考える.例えば「結婚」と「タレント+結婚」では興味を判別すると言う観点から語句に含まれる情報が違うと考える.さらに,「タレント」の部分は固有名詞まで限定できた方が興味の判別要素としては適切なのかもしれないが,この処理を行うのは容易ではない.固有名詞は数多くあって統計的扱いが困難なためである.\begin{itembox}{\ex{}\label{ex_var}単体では興味の判別要素にならない語句}\begin{center}入る,述べる,求める,発表,結婚,調査\end{center}\end{itembox}複合名詞の問題も存在する.例えば「首相官邸」などの語が「首相」と「官邸」に分けられた状態でしか扱っていないため語句が示す意味が実際とは異なってしまうことが挙げられる.複合名詞になって初めて興味を判断できるとするならば改善が必要である.以上の考察から次節以降では素性がもつ情報量を増やす方向で拡張を試みる.
\section{処理単位の拡張}
label{sec_method2}前節で述べた内容語を素性とした興味判別は記事の内容を特定する情報が少なく,判別する要素として十分ではないことが問題として分かった.この問題に対応するため,処理の単位の拡張を行った.提案する処理単位を以下に示す.\begin{itemize}\item[1]複合名詞を素性として抽出\item[2]内容語及び複合名詞の組み合わせを素性として抽出\end{itemize}以降では,内容語及び複合名詞の組み合わせを「複合素性」と呼び,興味の推定に使用する.次節より,複合名詞を素性として抽出する方法,複合素性を抽出する方法,拡張した素性を使って文書に興味のスコアを付与する方法について順に述べる.\subsection{複合名詞の抽出}\label{fukugou}入力されたそれぞれの文書から興味の判別を行う際に重要であると思われる素性を複合名詞として抽出する.複合名詞の研究は盛んに行われており,本論文では専門用語の抽出\cite{Nakagawa2003}を参考に複合名詞を作成した.複合名詞の作成対象となるのは名詞,接尾辞,接頭詞の連続部分である.複合名詞作成にあたって以下に示す出現回数をコーパスよりカウントする.\begin{itemize}\item2単語の文中における共起回数をコーパスよりカウントする\item2単語の連接回数をコーパスよりカウントする\item2単語それぞれに連接する名詞の種類数をコーパスよりカウントする\end{itemize}本研究では複合名詞作成のコーパスとして日本経済新聞1990年から2004年までの14年分を使用した.連接した2つの形態素を「$ij$」とした場合,$i$と$j$が文中において共起する回数を$Count_{co}(i,j)$,$i$の後に$j$が連接する回数を$Count_{bigram}(i,j)$,前方の語$i$の後に連接する名詞の種類数を$Count_{var}(i)$,後方の語$j$の前に連接する名詞の種類数を$Count_{var}(j)$としたとき以下の条件のいずれかに一致するものを複合名詞とした.\underline{名詞の結合条件}\begin{itemize}\item条件1:\begin{equation}Count_{bigram}(i,j)\div{Count_{co}(i,j)}>0.01\end{equation}\item条件2:\begin{equation}\sqrt{(Count_{var}(i)+1)^2+(Count_{var}(j)+1)^2}>100\end{equation}\end{itemize}3語以上の複合名詞はそれぞれの形態素間について同様の方法を用いて判定を行う.複合名詞の作成例を\exref{fukuex}に示す.\begin{itembox}{\ex{}\label{fukuex}複合名詞の判定\\}入力を「競売入札価格の決定」としたとき名詞が連続している部分は{競売,入札}と{入札,価格}の部分である.この2つについて複合名詞の判定について行う.\vspace{0.5zw}\begin{center}\begin{tabular}{c|c|c|c}\hline対象&条件1&条件2&判定\\\hline競売,入札&0.913&368.5&結合\\\hline入札,価格&0.195&1191.8&結合\\\hline\end{tabular}\end{center}\vspace{0.5zw}{競売,入札}と{入札,価格}の両方が複合名詞として扱う条件を満たしているため「競売入札価格」を複合名詞として扱う.\end{itembox}以上の手順で複合名詞を作成し,興味の判別素性として用いる.また複合名詞にならないものは興味判別の素性として扱わない.\subsection{複合素性の抽出}\label{taple}入力されたそれぞれの文書から興味の判別を行う際に重要であると思われる素性を内容語及び複合名詞を組み合わせた複合素性として抽出する.そのため\ref{fukugou}節で述べた複合名詞の処理も行う.複合名詞とならなかったものは内容語として扱う.文書の形態素解析を茶筌で行い,文書が内容語のみによって構成されているとし,まずは連接している名詞に対して複合名詞処理を行い,複合名詞と内容語の集合を作成する.入力文書と複合名詞処理後の結果の例を\exref{ex複合}に示す.内容語を抽出する条件は\ref{nai}節と同様である.\begin{itembox}{\ex{}\label{ex複合}複合名詞と内容語の抽出}入力:インド北部で厳しい冷え込みが続いている.\\抽出単語:インド北部,厳しい,冷え込み,続く\end{itembox}\exref{ex複合}に示した内容語と複合名詞の集合から次に示す条件で組み合わせを作成する.\underline{組み合わせの作成条件}\begin{itemize}\item内容語及び複合名詞の出現順は考えない.\item組み合わせの作成は1つの文中から探す.\item2要素からなる組み合わせで行う.\item組み合わせを出現文書数でカウントする.\item学習データ内で出現文書数5以下1,000以上の組み合わせは扱わない.\end{itemize}出現文書数の閾値は\ref{th}節の内容語を素性とした評価で最も良好な結果を得られた下限閾値5及び上限閾値1,000をそのまま適用した.\exref{ex複合}の内容語及び複合名詞から複合素性を作成した例を\exref{extaple}に示す.\begin{itembox}{\ex{}\label{extaple}複合素性の作成}\begin{center}{インド北部,厳しい},{インド北部,冷え込み},...,{冷え込み,続く}\end{center}\end{itembox}複合素性は,2要素からなる素性集合の全部分集合である.本節で説明した複合素性を1つの素性として扱い,\ref{calc_int}節で述べた方法で興味スコアを付与し,これを利用して文書興味スコアの付与を行う.\subsection{拡張した素性を使った文書興味スコアの計算方法}入力文書$D_i$に対して内容語,複合名詞,複合素性の3種類の素性集合が抽出できる.それぞれに対して式(\ref{all_hit})及び式(\ref{bow})を使って興味スコア列を作成する.値が付与できなかった素性はこの時点で除去される.作成した興味スコア列をそれぞれ,内容語を$F_i$,複合名詞を$C_i$,複合素性を$T_i$として,全ての素性を利用するときの文書興味スコアを式(\ref{txt_EX})に示す.\begin{align}\label{txt_F}F_i&=\{Val_{1},Val_{2},...,Val_{N_F}\}\\C_i&=\{Val_{C1},Val_{C2},...,Val_{N_C}\}\\T_i&=\{Val_{T1},Val_{T2},...,Val_{N_T}\}\end{align}\begin{equation}Interest\_Doc'(D_i)=\frac{\sum_{Val\inF_i,C_i,T_i}Val}{N_F+N_C+N_T}\label{txt_EX}\end{equation}式(\ref{txt_EX})において$N_F$,$N_C$,$N_T$はそれぞれの興味スコア列の要素数を示している.この評価式を使って文書興味スコアを文書に与え,スコアが高い順に文書に順位を付ける.
\section{拡張した素性の評価}
label{sec_evalexp2}評価方法は\ref{eval_method}節と同様の方法を用いる.内容語を素性とした場合では\ref{th}節で最もよい評価値を得られた下限閾値5回及び上限閾値1,000回の結果を採用している.使用する素性を内容語,複合名詞,複合素性,内容語と複合名詞,内容語と複合素性,内容語と複合名詞と複合素性の6種類について評価を行った.評価結果を表\ref{sandan}に示す.表において文書興味スコアの算出に使用した素性は○,未使用の素性は空欄となっている.\begin{table}[b]\caption{拡張した素性を使った評価実験}\input{05table06.txt}\label{sandan}\end{table}表\ref{sandan}より拡張した素性である複合名詞,複合素性だけを使用した場合の精度は内容語のみを使用した場合より精度が低下している.しかし内容語の素性と同時に使用する場合において精度は向上する事が分かった.複合名詞のみ及び複合素性のみを使用した2つの評価では値を付与できない記事,つまり値を付与できる素性が1つもない記事が発生した.これは,素性の情報量を増やすことで使用できる素性が減少し評価値及び抽出精度が落ちたと考えられる.複数種類の素性を使用した場合の精度の向上については,内容語を素性とした方法が他の2つを素性とした場合のスパースな部分において補完が行われ,さらに内容語だけでは得られなかった情報が追加されたことになるため精度が向上したと考える.最も評価値が上昇したのは内容語と複合名詞と複合素性の全てを素性として使用する場合であり,評価値で0.867,抽出精度で0.57という結果が得られた.\subsection{システム出力の観察}使用する素性を変化させたときにシステムの出力にどのような変化が起こっているのか確認する.システムが出力した順位の上位10位,上位30位,下位10位,下位30位について実際に順位が付与されている記事(正解記事)が含まれている数について調査を行った.システムの上位及び下位における正解記事数を表\ref{ch}に示す.表\ref{ch}の「全て」は内容語と複合名詞と複合素性を素性として使用することを示す.表\ref{ch}より拡張した素性を加えるとシステム上位10記事の結果では順位が実際に付与されている記事数が160記事から171記事に増加した.またシステム下位30記事の結果では正解76記事から75記事に減少した.内容語,複合名詞,複合素性の全てを用いた場合システムの出力において上位の変動が11件確認でき下位の変動は1件であった.上位の変動が下位より大きく表われ,精度の向上は主にシステム上位部分で発生している事が分かった.\begin{table}[t]\caption{システム出力に含まれている正解記事数}\input{05table07.txt}\label{ch}\end{table}システムの出力において正解記事が出現する偏りの傾向について述べる.表\ref{ch}に示したシステムの上位30位と下位30位に含まれる正解数から,順位付きの記事が含まれる傾向は上位30記事に387記事,下位30記事に75記事であった.従って上位には下位より約5倍ほど正解記事が出現しやすく正解記事がシステムの上位に強く偏る傾向が見られる.次にシステム出力の下位の記事を興味を持たない記事として抽出することに利用することについて述べる.興味を持たない記事は評価用のテストセット内で順位無し記事であり,テストセットにおける興味を持たない記事の割合は0.754である.表\ref{ch}より,システム出力の下位10記事を抽出した場合,300記事の中で289($=300-11$)記事が順位無し記事(ほとんど興味を持たれない記事)である.従って興味を持たれない記事の抽出精度としては0.97($=289\div300$)という精度であった.また下位30記事を見た場合においても興味無し記事の抽出精度は0.92($=1-76\div900$)である.システムの下位30記事を抽出する場合,900記事が対象であるため全記事の2,958記事に対して約3割($=900\div2985$)の記事に対して抽出精度0.90を超える精度で興味を持たれない記事の抽出が期待できる.\subsection{順位を大きく誤った記事に対する考察}評価実験の結果,文書興味スコアから付けた順位が正解と離れている文書についてその原因を考察する.観察対象は,システム出力の下位から10文書を取り出したときに含まれている順位付き記事である.この記事は興味ありを興味無しと判断した誤りである.システムが付けた順位の下位から10文書に出現した順位付き記事を\exref{err}に記事タイトルで示す.\begin{itembox}{\ex{}\label{err}システムの下位に出現した正解記事}(22)量的緩和解除,静かな幕開け福井総裁は国会答弁5時間\\(26)佐々木が2位,日本人最高順位タイスキーW杯男子回転\\(26)チーム青森,常呂中破り決勝にカーリング日本選手権\\(22)将棋名人戦,谷川九段が挑戦権を獲得羽生三冠を破る\\(17)中村が活躍,セルティックVスコットランドサッカー\\(29)大久保が同点ゴールスペイン1部サッカー\\(14)日本のチーム長野は5連敗カーリングの女子世界選手権\\(16)朝青龍16度目の優勝決定戦で白鵬下す大相撲春場所\\(26)共済年金の上乗せ給付,10年新規加入者から廃止へ\\(15)安保理拡大,日本が21カ国案の提出断念米の支持なし\\*()内の数字は実際の順位である.\end{itembox}\exref{err}に示した順位付きの記事は低い順位の記事が占めている事が分かる.これらの記事が下位に出現した原因として未知語処理に関する問題が挙げられる.学習データに出現しない語句はシステムにおいて除外しているため興味スコアに反映されない.例えば\exref{err}に示した「チーム青森,常呂中破り決勝にカーリング日本選手権」では「カーリング」という語句は抽出できていない.スポーツ記事が占める割合が高いのは,\secref{scoring}で述べた類似した記事が大量に存在することで素性に付与される興味スコアが低下しやすい状況にあるからだと推測する.次に,システム出力の上位から10文書を取り出したときに含まれている順位無し記事を対象にする.その記事は興味無しを興味ありと判断した誤りである.システムの出力で上位から取り出した10文書に出現した順位無し記事について記事のタイトルを\exref{err2}に示す.\begin{itembox}{\ex{}\label{err2}システムの上位に出現した不正解記事}登校中の中学生切られる男が逃走愛知・美和町\\スーパーにライトバン突っ込み7人重軽傷山形・川西\\東京の自宅マンション放火事件,中2少年を家裁送致\\集団自殺か,男女3人が車内で死亡弘前・岩木山ろく\\架線にビニールひも付着,東北新幹線に遅れ\\男女4人が集団自殺,車内に練炭静岡市の山間部\\東武伊勢崎線普通列車が停車予定駅を通過\\東京・豊島のマンションに男性の遺体強盗殺人で捜査\\川崎の小3男児転落死マンション15階にランドセル\\女子中学生の顔にスプレー鹿児島・薩摩川内\end{itembox}\exref{err2}の特徴としては事件記事が多く含まれていることが分かる.提案したシステムでは事件ジャンルに属する記事のスコアを高く与える傾向があり,\exref{err2}にあるような「強盗」「自殺」「放火」等の語句が高いスコアを持って記事の中に含まれているため,高い順位が付与される.なお,不正解記事の中には他の正解記事の関連記事や,前日の正解記事の続報である場合もあり,完全な間違いと言い切れない記事も存在した.\subsection{拡張した素性の観察}内容語を使って求めた興味スコアと複合名詞を素性とした興味スコアを比較し,素性を拡張した影響の調査を行った.内容語及び複合名詞の素性から求めた興味スコアの差を「プロ」で始まる語句を例に表\ref{fukugoures}に示す.同様に複合素性を素性とした結果と内容語を使った場合との差を「株価」の語句を含むものを例に表\ref{tapleres}に示す.表では組み合わせた2つの内容語又は複合素性を「:」で分割して表記する.表\ref{fukugoures},表\ref{tapleres}において興味スコアは複合名詞や複合素性から求めた場合の興味スコアを示し,内容語による興味スコアは複合名詞や複合素性に含まれる内容語から求めた興味スコアである.\begin{table}[b]\caption{複合名詞の興味スコア}\input{05table08.txt}\label{fukugoures}\end{table}複合名詞から算出した興味スコアと複合名詞に含まれる内容語から算出した興味スコアについて相関値を算出した結果,相関値は0.698となった.同様に複合素性と内容語による興味スコアの相関値を算出すると0.551であった.両者共に相関係数は高いものであるが,複合名詞を素性とした場合の方が高い相関値を持っている.このことから複合素性の興味スコアよりも複合名詞の興味スコアが内容語の興味スコアにより類似していると考える.そのため評価値も同程度得られると考えられるが,素性の情報量を増やした事でそれぞれの出現回数が減少することによるスパースの問題だけ評価値が下がったと考察する.反対に複合名詞にすることで興味を判別する素性として良くなった例を挙げる.\tableref{fukugoures}にある「プロアイスホッケー」では内容語のみを使用した興味スコアの推定では「プロ」の語句だけで値が付与されている.これを複合名詞として扱うことで「アイスホッケー」を考慮した興味スコアとなり,「プロ」の興味スコア(0.045)と比較して大きく異なる値(0.000)となった.また複合名詞にすることで素性として良くなった別の例では,一般的な名詞同士の複合名詞「日本+経済」,「日本+代表」のような語句に興味スコアの差が表れるようになった.「日本+経済」,「日本+代表」については内容語を素性とした場合,両者の興味スコアは共に0.035であるが,複合名詞の場合では「日本+経済」のスコアが0.009,「日本+代表」のスコアが0.03という結果になっており,後者の興味がはるかに強いことが分かる.\begin{table}[t]\caption{複合素性の興味スコア}\input{05table09.txt}\label{tapleres}\end{table}次に複合素性にすることで興味を判別する素性として良くなった例を挙げる.\tableref{tapleres}にある「株価:売却」と「株価:経営」では内容語による興味スコアにほぼ差が存在しないが複合素性では「株価:売却」の興味スコアが0.009,「株価:経営」の興味スコアが0.068となっている.このように素性の情報量を増やすことで興味スコアに差を得られるようになった.このことが抽出精度が上昇した要因だと考える.次に残された問題点について述べる.複合素性の問題点として,複合素性を作成すると大量の組み合わせが作成されてしまう.本論文では出現頻度5以下を削除しているが,削除された中には実際には有効なデータも含まれていると考える.しかし判断要素として使えない対が有効なデータよりもはるかに大量に含まれているため,現在の方法では精度を下げる要因にしかならない.システムが付与した興味スコアの高い素性と低い素性の一部を\exref{high}及び\exref{low}に示す.\begin{itembox}{\ex{}\label{high}高い興味スコアとなった複合素性}{駐車場:突っ込む},{男性:聴く},{関東:低気圧},{ダイヤ:乱れ},{殴る:現行犯逮捕},{車内:確認},{NHK:現場},{メンバー:人気},{団体:中止},{県警:車内},{救急隊員:駆けつける},{女子生徒:分かる},{現行犯逮捕:調べる},{揺れ:最大},{原因:容疑},{レギュラー:番組},{通行人:110番通報},{女子:盗む},{男性:任意},{駆けつける:女性}\end{itembox}\begin{itembox}{\ex{}\label{low}低い興味スコアとなった複合素性}{ダウ工業株:平均},{ニューヨーク外国為替市場:円相場},{東京株式市場:日経平均株価},{承認:向ける},{状況:厚生労働省},{人:救済},{世界:棒高跳び},{制裁:再開},{奪う:優勝},{農業:求める},{判断:輸入},{粉飾:担当},{保護:批判},{補助金:決める},{目標:抑える}\end{itembox}これらの素性に付与された値の妥当性を個別に判断するのは困難であるが,我々は\exref{high}の素性の方が\exref{low}よりも興味を持たれるのではないかと感じた.\subsection{学習データによる影響}学習データの量と精度の関係を調査するため,学習量を変化させて評価を行った.評価実験は最も良い結果が出た内容語,複合名詞,複合素性の全てを使用した.\secref{sec_collect_learn}において収集した全ての学習データに対して,データ量を減少させて評価を行った.学習データを変化させて評価した結果を図\ref{amount}に示す.図\ref{amount}より学習データの増加に対して評価値の向上が見られる.学習データの増加に対する評価値の向上は今回用意したデータの0.3倍程度(順位付き文書約2,500文書,順位無し文書約7,500文書)のところで精度向上が緩やかになっている.このデータが描く曲線の様子から,データ量を現在の全データよりも2倍,3倍と増やした場合の評価値は0.875程度であると予測する.次に学習データの違いによってどの程度精度に影響するかを調査するためいくつかの学習データを作成した.\secref{sec_collect_learn}で収集した学習データを順位付き文書と順位無し文書の比率を変えないように2分割し,一方を学習データA,残りを学習データBとした.学習データA及びBから無作為にそれぞれ半分づつ取り出して合わせたものを学習データCとした.従ってAB間のデータの重複はなく,AC間及びBC間の重複は50%である.この3種類の学習データに対して評価実験を行った.評価結果を表\ref{oth}に示す.\begin{figure}[t]\begin{center}\includegraphics{15-2ia5f5.eps}\end{center}\caption{学習データの量を変化させた評価実験}\label{amount}\end{figure}\begin{table}[t]\caption{異なる学習データと評価値の関係}\input{05table10.txt}\label{oth}\end{table}表\ref{oth}から学習データを変更させても同程度の精度を得られることが分かった.以上の結果より収集期間に関係なく同じ量の文書を学習データとして用意した場合,同程度の精度を得ることができ,学習データは多いほど良い精度を得ることが期待できる.しかし今回調査した学習量の増加と評価値の増加の2つの関係から,データ量を極端に増やしたとしても精度の向上は評価値で0.875ほどが上限であると予測する.以上の学習データの量を変化させた評価実験と,異なる学習データによる評価実験より,約1万件以上の記事を用意した場合,収集した期間と関係なくほぼ同等の精度が得られることが期待できる.これは,ある程度のデータ量があれば収集した日付の違いによる影響は小さいことを示している.
\section{おわりに}
本論文では,順位情報を利用して,文書の興味推定を行うモデルを提案し,大衆の興味が反映されているデータをテストデータとして用いて評価実験を行った.文書の興味推定のための素性として,内容語,複合名詞,複合素性の3種類について実験を行った結果,相関係数を基にした評価値で0.867,システムが付けた順位で上位10記事を出力した場合に,実際のランキングで30位以内の記事が含まれる割合は0.57となった.さらにほぼ興味を持たれない記事を抽出する精度が0.90を超えることが期待できる結果を得た.システムの出力から経済記事が出力下位に非常に多く表われやすい傾向を持つことや実際の順位付き記事が上位に表われやすい傾向から今回付与した興味スコアは大衆の興味を捕らえるのに概ね妥当なものであると確認した.今回はニュースランキングの文書を中心に実験を行ったが,収集が可能であれば他のランキングについても同様の実験を行いランキングが異なることによる特性の違いなどが得られれば興味の判別に役立つと考えている.また本論文では文書に興味の強弱を表すスコアを付与することのみを行ったが今後の課題として文書の中において興味を持たれる要因の自動抽出を考えている.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{福原\JBA村山\JBA中川\JBA西田}{福原\Jetal}{2006}]{fukuhara2}福原知宏\JBA村山敏泰\JBA中川裕志\JBA西田豊明\BBOP2006\BBCP.\newblock\JBOQWeblogから社会の関心を探る\JBCQ\\newblock\Jem{人工知能学会全国大会論文集(CD-ROM)},{\Bbf20}(3D2-1).\bibitem[\protect\BCAY{Fukuhara,Murayama,\BBA\Nishida}{Fukuharaet~al.}{2005}]{fukuhara2005acp}Fukuhara,T.,Murayama,T.,\BBA\Nishida,T.\BBOP2005\BBCP.\newblock\BBOQAnalyzingconcernsofpeopleusingWeblogarticlesandrealworldtemporaldata\BBCQ\\newblock{\BemProc.ofWWW20052ndAnnualWorkshopontheWebloggingEcosystem:Aggregation,AnalysisandDynamics}.\bibitem[\protect\BCAY{藤木\JBA南野\JBA鈴木\JBA奥村}{藤木\Jetal}{2003}]{fuziki}藤木稔明\JBA南野朋之\JBA鈴木泰裕\JBA奥村学\BBOP2003\BBCP.\newblock\JBOQdocumentstreamにおけるburstの発見\JBCQ\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会},{\Bbf160}(23),\mbox{\BPGS\85--92}.\bibitem[\protect\BCAY{中川\JBA湯本\JBA森}{中川\Jetal}{2003}]{Nakagawa2003}中川裕志\JBA湯本紘彰\JBA森辰則\BBOP2003\BBCP.\newblock\JBOQ出現頻度と連接頻度に基づく専門用語抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(1),\mbox{\BPGS\27--45}.\bibitem[\protect\BCAY{Adamic\BBA\Huberman}{Adamic\BBA\Huberman}{2002}]{lada2002}Adamic,L.~A.\BBACOMMA\\BBA\Huberman,B.~A.\BBOP2002\BBCP.\newblock\BBOQZipf'slawandtheInternet\BBCQ\\newblock{\BemGlottometrics},{\Bbf3},\mbox{\BPGS\143--150}.\newblockRAM-Verlag,http://www.ram-verlag.de/.\bibitem[\protect\BCAY{Kendall\BBA\Gibbons}{Kendall\BBA\Gibbons}{1990}]{Spearman}Kendall,M.\BBACOMMA\\BBA\Gibbons,J.\BBOP1990\BBCP.\newblock{\BemRankCorrelationMethods}.\newblockOxfordUniversityPress.\bibitem[\protect\BCAY{西原\JBA砂山\JBA谷内田}{西原\Jetal}{2007}]{nishihara}西原陽子\JBA砂山渡\JBA谷内田正彦\BBOP2007\BBCP.\newblock\JBOQ多くの人の興味をひく研究発表タイトルの作成支援\JBCQ\\newblock\Jem{人工知能学会全国大会論文集(CD-ROM)},{\Bbf21}(2F4-5).\bibitem[\protect\BCAY{Resnick,Iacovou,Suchak,Bergstrom,\BBA\Riedl}{Resnicket~al.}{1994}]{Resnick}Resnick,P.,Iacovou,N.,Suchak,M.,Bergstrom,P.,\BBA\Riedl,J.\BBOP1994\BBCP.\newblock\BBOQGroupLens:AnOpenArchitectureforCollaborativeFilteringofNetnews\BBCQ\\newblock{\BemProceedingsofACM1994ConferenceonComputerSupportedCooperativeWork},\mbox{\BPGS\175--186}.\bibitem[\protect\BCAY{Shardanand\BBA\Maes}{Shardanand\BBA\Maes}{1995}]{Upendra}Shardanand,U.\BBACOMMA\\BBA\Maes,P.\BBOP1995\BBCP.\newblock\BBOQSocialinformationfiltering:algorithmsforautomating``wordofmouth''\BBCQ\\newblock{\BemCHI'95:ProceedingsoftheSIGCHIconferenceonHumanfactorsincomputingsystems},\mbox{\BPGS\210--217}.\end{thebibliography}\appendix\setcounter{table}{0}\renewcommand{\tablename}{}付表1〜付表3にシステム出力の上位から記事を並べた結果を示す.\input{05t-app1-3.txt}\begin{biography}\bioauthor{沢井康孝}{2008年長岡技術科学大学大学院工学研究科修士課程電気電子情報工学専攻修了.在学中はテキストマイニングの研究に従事.言語処理学会学生会員.sawai@nlp.nagaokaut.ac.jp}\bioauthor{山本和英}{1996年豊橋技術科学大学大学院工学研究科博士後期課程システム情報工学専攻修了.博士(工学).1996年〜2005年(株)国際電気通信基礎技術研究所(ATR)研究員(2002年〜2005年客員研究員).1998年中国科学院自動化研究所国外訪問学者.2002年より長岡技術科学大学電気系,現在准教授.言語表現加工技術(要約,換言,翻訳),主観表現処理(評判,意見,感情)などに興味がある.言語処理学会,人工知能学会,情報処理学会,各会員.yamamoto@fw.ipsj.or.jp}\end{biography}\biodate\end{document}
| |
V20N05-03 | \section{はじめに}
\label{sec:hajimeni}インターネットの普及により,個人がWeb上で様々な商品を購入したり,サービスの提供を受けることが可能になった.また,これに伴い,商品やサービスに対する意見や感想が,大量にWeb上に蓄積されるようになった.これらの意見や感想は,ユーザが商品やサービスを購入する際の参考にするだけでなく,企業にとっても商品やサービスの改善を検討したり,マーケティング活動に活用するなど,利用価値の高い情報源として広く認識されている.近年ではさらに,ユーザ参加型の商品開発が注目されるなど,ユーザと企業とがマイクロブログやレビューサイト等のソーシャルメディアを通して,手軽に相互にコミュニケーションを持つことも可能となっている.そして,このようなコミュニケーションの場においては,いわゆる「クレーム」と呼ばれる類のユーザの意見に対して企業側は特に敏感になる必要があり,ユーザが発言したクレームに対しては,適切に対応することが望まれている.しかしながら,このようなコミュニケーションの場では,次のような理由からユーザのクレームを見落としてしまう懸念がある.\begin{figure}[b]\input{03fig01.txt}\caption{クレームが含まれたレビューの例1}\label{fig:review}\end{figure}\begin{figure}[b]\input{03fig02.txt}\caption{クレームが含まれたレビューの例2}\label{fig:review2}\end{figure}\begin{itemize}\item見落とし例1:特に,マイクロブログ型サービスを通したコミュニケーションでは,多対一型のコミュニケーション,つまり,大勢のユーザに対して少数の企業内担当者が同時並行的にコミュニケーションを持つことが多く,そのため,一部のユーザが発言したクレームを見落としてしまう可能性がある.\item見落とし例2:特に,レビューサイトを通したコミュニケーションでは,ユーザは様々な意見をひとつのレビュー文書中に書き込むことが多く,その中に部分的にクレームが埋め込まれることがある(\fig{review}および\fig{review2}に例を示す.下線部がクレームを示す).この場合,レビューの中からクレームを見つける必要があるが,これらの一部を見落としてしまう可能性がある.\end{itemize}本論文では,上記のうち,2つ目の見落とし問題に対処すべく,レビューからクレームを自動検出する手法について述べる.より具体的には,まず,文単位の処理を考え,\tab{data_detail}のような内容を含む文を「クレーム文」と定義する.そして,レビューが入力された際に,そのレビュー中の各文のそれぞれに対して,それらがクレーム文かそうでないかを自動判定する手法について検討する.\begin{table}[b]\caption{クレーム文の定義}\label{tab:data_detail}\input{03table01.txt}\end{table}これまで,テキストからクレームを検出することを目的とした先行研究としては,永井らの研究\cite{nagai1,nagai2}がある.永井らは,単語の出現パタンを考慮した検出規則に基づいたクレーム検出手法を提案している.しかしながら,彼らの手法のように人手で網羅的に検出規則を作成するには,作成者がクレームの記述のされ方に関する幅広い言語的知識を有している必要がある.また,現実的に検出規則によって運用するには,膨大な量の規則を人手で作成・維持・管理する必要があり,人的負荷が高いという問題がある.この問題に対する解決策のひとつとして,教師あり学習によって規則を自動学習することが考えられるが,その場合でも,事前に教師データを準備する必要があり,単純には,教師データの作成に労力を要するという別な問題が発生してしまう.本論文では,上記のような背景を踏まえて,人的な負荷をなるべく抑えたクレーム検出手法を提案する.より具体的には,レビュー文書からクレーム文を自動検出する際の基本的な設定として,テキスト分類において標準的に利用されるナイーブベイズ・モデルを適用することを考え,この設定に対して,極力人手の負荷を軽減させるために,次の手続きおよび拡張手法を提案する.\begin{itemize}\item評価表現および文脈一貫性に基づく教師データ自動生成手法を提案する.従来,学習用の教師データを作成するには負荷の高い人手作業に頼らざるを得なかったが,本研究では既存の言語資源と既存の知見に基づくことで,人手作業に頼らずに教師データを自動生成する手法を提案する.\item次に,上記で生成された教師データに適したモデルとなるように拡張されたナイーブベイズ・モデルを提案する.上記の提案手法によって生成された教師データは自動化の代償として人手作成されたデータと比べて質が劣化せざるを得ず,標準的な分類モデルをそのまま適用するだけでは期待した精度は得られない.本研究では上記のデータ生成手法で生成されるデータが持つ特性を踏まえて,ナイーブベイズ・モデルを拡張する.\end{itemize}提案手法では,従来手法で問題となっていた検出規則の作成・維持・管理,あるいは,規則を自動学習するために必要となる教師データの作成にかかる人手負荷は全くかからない利点をもつ.本論文では,上記の手続きおよび拡張手法について,実データを用いた評価実験を通して,その有効性を検証する.本論文の構成は以下の通りである.まず\sec{gen}で教師データの自動生成手法について説明する.その後,\sec{model}でナイーブベイズ・モデルの拡張について説明し,\sec{exp}で評価実験について述べる.\sec{related}で関連研究を整理した後,\sec{owarini}で本論文をまとめる.
\section{教師データ自動生成}
\label{sec:gen}\subsection{教師データ}まず,生成したい教師データについて整理する.本研究では,クレーム文を検知するためにナイーブベイズ分類器\cite{nv}を構築し,文がクレームを表しているか,あるいはクレームを表していないかのどちらかに分類したい.このような分類器の構築に必要となる教師データは,言うまでもなく,クレームを表している文(以下,クレーム文と呼ぶ)の集合と,クレームを表していない文(以下,非クレーム文)の集合となる.以下では,説明の便宜上,このデータ集合を得る手続きをラベル付けと呼び,【クレーム】および【非クレーム】というラベルによって,どちらの集合の要素となるかを区別することとする.例えば,\fig{review}の各文に対してラベル付けが実施されたとすると,次のようなラベル付きの教師データが得られる.\begin{itemize}\item【非クレーム】従業員の方は親切でした.\item【非クレーム】最寄りの病院など教えて頂き,とても助かりました.\item【非クレーム】ありがとうございました.\item【クレーム】ただ残念だったのが,シャワーの使い方がよくわからなかったことです.\item【クレーム】使い方の説明をおいて頂きたいです.\end{itemize}本論文で提案する教師データ自動生成手法は,評価表現の情報に基づくラベル付けステップと,ある文の文脈に対する文脈一貫性の情報に基づくラベル付けステップの2ステップで構成される.各ステップをそれぞれ核文ラベル付けおよび近接文ラベル付けと呼ぶことにし,以下で順に説明する.\subsection{核文ラベル付け}\label{sec:data_core}核文ラベル付けは,評価表現の情報に基いて行う.評価表現とは,「おいしい」や「まずい」等,評価対象に対する評価を明示的にあらわす言語表現のことである.一般的には,これら表現に「おいしい/肯定」や「まずい/否定」のような肯定・否定の評価極性値を付随させたものを集めて評価表現辞書と呼ばれている\cite{inui}.核文ラベル付けステップでは,評価表現辞書に否定極性として登録されている評価表現に着目し,このような評価表現を含む文はクレームを表しやすいと仮定する.そして,否定極性の評価表現を含む文をクレーム文としてラベル付けする.以降,この手続きで得られる文を次ステップで得られる文と区別するため核文と呼び,特に,核文がクレーム文である場合はクレーム核文と呼ぶ.例えば,「まずい/否定」という単語が評価表現辞書に登録されている場合,次の例文はクレーム核文としてラベル付けされる.\begin{itemize}\item【クレーム(核)】朝食のカレーが\underline{まずい}.\end{itemize}もし,ある文が肯定極性をもつ評価表現を含み,かつ「ない」や「にくい」などの否定辞が評価表現の3単語以内に後続していた場合もクレーム核文としてラベル付けする.例えば,次の例文は「おいしい/肯定」の直後に否定辞「ない」が後続しているため,クレーム核文としてラベル付けされる.\begin{itemize}\item【クレーム(核)】朝食のカレーが\underline{おいしく}\unc{ない}.\end{itemize}また,評価表現の否定極性と肯定極性を読み替えて上記と同様の手続きを行った場合に得られる文を非クレーム核文と呼び,クレーム核文と同じようにラベル付けしておく.\begin{itemize}\item【非クレーム(核)】朝食のカレーが\underline{おいしい}.\item【非クレーム(核)】ハヤシライスは別に\underline{まずく}は\unc{ない}.\end{itemize}さらに,「ほしい」等の要求表現を集めた要求表現辞書が利用できる場合は,次の例のように要求表現を含む文をクレーム核文としてラベル付けする\footnote{\setulsep{0pt}この操作によって,例えば,「このサービスは是非今後も継続して\underline{ほしい}」というような肯定的な要求については誤ってクレーム文として扱ってしまう.しかし,後述する本研究で使用したデータセットでは,上記のような事例はごく稀であり,本研究ではこのような肯定的な要求に対する特別な処理は施していない.}.ただし,要求表現に注目したラベル付けの場合は,評価表現の時とは違って,否定辞の有無に関係なくクレーム核文としてラベル付けする.\begin{itemize}\item【クレーム(核)】朝食に和食メニューをもっと増やして\underline{ほしい}.\item【クレーム(核)】朝食を洋風なものばかりにして\underline{ほしく}\unc{ない}.\end{itemize}以降,クレーム核文と非クレーム核文をあわせた文の集合を$\mathcal{S}_\mathrm{core}$であらわす.\subsection{近接文ラベル付け}\label{sec:data_context}那須川ら\cite{nasukawa}は,彼らの論文の中で,評価表現の(文をまたいだ)周辺文脈には以下のような傾向があると述べており,これを評価表現の文脈一貫性と呼んだ.{\setlength{\leftskip}{3zw}\noindent文書中に評価表現が存在すると,その周囲に評価表現の連続する文脈(以降,評価文脈\footnote{元論文では「評価部脈」と書かれているが,これは「評価文脈」の書き誤りであると考えられる.})が形成されることが多く,その中では,明示されない限り,好不評の極性が一致する傾向がある.\par}本研究では,この評価表現の文脈一貫性の考え方に基いて近接文ラベル付けを行う.先の核文ラベル付けの際に考慮した評価表現(あるいは要求表現)を含む文の周辺文脈について,「評価表現(要求表現)の存在に基づいて(非)クレーム文として選ばれた文の前後文脈に位置する文は,やはり(非)クレーム文である」という仮定をおき,この仮定に従って,核文の周辺文脈に対してラベル付けを行う.この手続きで得られる文を近接文(より詳細にはクレーム近接文あるいは非クレーム近接文)と呼ぶ.\begin{algorithm}[b]\caption{近接文ラベル付け}\label{algo:alg1}\input{03algo01.txt}\end{algorithm}近接文ラベル付けの手続きを\algo{alg1}に示す.この手続きへの入力は,核文ラベル付けを終えたレビュー$d$と,核文に対する周辺文脈の長さを決定する窓枠長$N$($\ge0$)であり,レビュー$d$に含まれる核文に対して,レビューの先頭側に現れる核文から末尾側に現れる核文に向かって順に処理が進む.なお,\algo{alg1}において,$s_i$はレビュー$d$内の先頭から$i$番目の文をあらわし,$|d|$は$d$内の文数をあらわす.処理の大きな流れとしては,line.2--9でラベル付けされる文が選択され,line.10--16でラベル付けが実施される.line.17--34の各関数では,付与するラベルの種類(``クレーム''か``非クレーム'')を確定する際に必要な仮のラベル情報が決められ,その情報が格納される.\begin{figure}[b]\begin{center}\includegraphics{20-5ia3f3.eps}\end{center}\caption{近接文ラベル付けの例(窓枠長$N=2$の場合)}\label{fig:context}\end{figure}\fig{context}を使って近接文ラベル付けの具体的な実行例を示す.図の例では,対象となるレビューは8つの文から構成されており,核文ラベル付けによって文$s_1$が非クレーム核文,文$s_5$がクレーム核文とラベル付けされた状態であり,この状態から近接文ラベル付けが開始される.窓枠長は$N=2$とする.この場合,まず,核文$s_1$の周辺文脈に対する処理がなされる(\algo{alg1}のline.3).$s_1$は文書の先頭文であり前方文脈(Backwardcontext)は存在しない.そのため,後方文脈(Forwardcontext)の$s_2$と$s_3$に対してのみ処理がなされ(line.6--7),それぞれ``非クレーム''ラベルが配列に格納される(line.29).次に核文$s_5$の周辺文脈に対する処理がなされる.$s_5$はクレーム文であるため,前方文脈では$s_3$に対して2つ目のラベル``クレーム''が格納され(line.19),また新たに$s_4$に対して``クレーム''ラベルが格納される(line.19).後方文脈では,まず$s_6$に対して``クレーム''ラベルが配列に格納される(line.28).その一方で,$s_7$は逆接関係の接続詞「しかし」の影響があるため,``クレーム''ではなく``非クレーム''ラベルが格納される(line.31).最後に,各文に対して格納されたラベル情報をチェックし,格納されたラベルに不整合がない場合は,そのラベル情報に従ってラベル付けを行う(line.10--16).不整合が生じている場合はその文に対してどのラベルも付与しない.以上の操作によって,この例では2つの核文から新たに4つの近接文($s_2$,$s_4$,$s_6$および$s_7$)が得られる.以降,クレーム近接文と非クレーム近接文をあわせた文の集合を$\mathcal{S}_{sat}$\footnote{添字$sat$は\underline{sat}elliteの略である.}であらわす,また,必要に応じて,核文の前方文脈から得られた近接文$\mathcal{S}_{sat}^{B}$と,後方文脈から得られた近接文$\mathcal{S}_{sat}^{F}$を区別する($\mathcal{S}_{sat}=\mathcal{S}_{sat}^{B}\cup\mathcal{S}_{sat}^{F}$).
\section{ナイーブベイズ・モデルの拡張}
\label{sec:model}\subsection{ナイーブベイズ・モデル(Na\"{i}veBayesmodel;NB)}\label{sec:base_model}前節で述べた手法によって自動生成された教師データは,人手によって作成された教師データと比べて質が劣化せざるを得ず,標準的な分類モデルをそのまま適用するだけでは期待した精度は得られない.そこで,前節で述べた手法で得られる劣化を含むデータを使用するという前提をおき,この劣化データがもつ特性を踏まえてナイーブベイズ・モデルを拡張することを考える.以下では,まず,通常のナイーブベイズ・モデル(多項モデル)について述べ,その後,モデルの拡張について述べる.ナイーブベイズ分類器では,ある文$s$の分類クラスを判定する際に,条件付き確率$P(c|s)$を考え,この確率値が最大となるクラス$\hat{c}$を分類結果として出力する.つまり,\begin{equation}\hat{c}=\argmax_{c}P(c|s)\label{eq:eq0}\end{equation}である.通常のナイーブベイズ・モデルでは上式を次のように展開する.\begin{align}\argmax_{c}P(c|s)&=\argmax_{c}P(c)P(s|c)\nonumber\\&=\argmax_{c}\big\{\logp_{c}+\sum_{w\in{\mathcal{V}}}^{}n_{w}(s)\logq_{w,c}\big\}\label{eq:eq1}\end{align}ここで,$\mathcal{V}$は語彙集合,$n_{w}(s)$は文$s$における単語$w$の出現回数をあらわす.また,$q_{w,c}$,$p_{c}$は教師データを使ってそれぞれ以下の式で計算される.本研究ではパラメータを推定する際にラプラススムージング\cite{nv}を用いる.\begin{align}q_{w,c}&=\frac{\displaystylen_{w,c}(\mathcal{D})+1}{\displaystyle\sum_{w}^{}n_{w,c}(\mathcal{D})+|\mathcal{V}|}\label{eq:eq2}\\p_{c}&=\frac{\displaystylen_{c}(\mathcal{D})+1}{\displaystyle\sum_{c}^{}n_{c}(\mathcal{D})+|\mathcal{C}|}\label{eq:eq3}\end{align}ここで,$\mathcal{D}$は教師データとなる文の集合,$n_{w,c}(\mathcal{D})$はデータ$\mathcal{D}$においてクラス$c$に属する文に現れる$w$の出現回数,$n_{c}(\mathcal{D})$はデータ$\mathcal{D}$においてクラス$c$に属する文の数,$|\mathcal{V}|$は語彙の種類数,$|\mathcal{C}|$は分類クラスの種類数である.以上からもわかるように,通常のモデルでは,分類対象となる文内の情報のみを考慮し,分類対象文の周辺文脈の様子は全く考慮されない.たとえ同一文書内であっても個々の文は独立に評価・分類する.また,教師データの利用にあたっても,当然のことながら,核文であるか近接文であるかといった区別はなく,両タイプの文が同等にモデルの構築に利用される.\subsection{モデル拡張}\label{sec:pro_model}前節で述べた教師データ生成過程から得られるデータには,核文および近接文という2種類の文が存在する.この2種類の文のうち,核文は近接文とは独立にラベル付けされる一方で,近接文は核文の情報に基いて間接的にラベル付けされる.そのため,核文ラベル付けが結果として誤りであった事例に関しては近接文もその誤りの影響を直接受けることになる.また,当然ながら,文脈一貫性の仮定が成立しない事例もあり得る.このような理由から,近接文は核文に比べて相対的に信頼性の低いデータとなる可能性が高い.そこで,このことを考慮し,核文と近接文の情報をモデル内で区別して扱い,近接文の情報がモデル内で与える影響を下げるよう,\eq{eq1}の代わりに次のような\eq{eqex}を用いる.\begin{align}\argmax_{c}P(c|s)&=\argmax_{c}P(c)P(s|c)\nonumber\\&=\argmax_{c}\big\{\logp_{c}+\sum_{w}n_{w}(s)\logq^{tgt}_{w,c}\nonumber\\&\phantom{=\argmax_{c}\big\{\logp_{c}}~+\frac{1}{|ctx(s,N)|}\sum_{w}n_{w}(ctx(s,N))\logq^{ctx}_{w,c}\big\}\label{eq:eqex}\end{align}右辺第3項に現れる$ctx(s,N)$は$s$の周辺文脈に位置する前方および後方のそれぞれ$N$文から構成される文の集合を表しており,この項が分類対象の周辺文脈をモデル化している.この項の係数$1/|ctx(s,N)|$で,周辺文脈の文数に応じてその影響を調整している.なお,$n_{w}(ctx(s,N))$は,集合$ctx(s,N)$の要素となる全ての文における単語$w$の総出現回数をあらわす.また,右辺第2項は通常のモデルと同様に分類対象となる文をモデル化したものであるが,第3項の周辺文脈との区別を明瞭にするため,$q^{tgt}_{w,c}$という記号を新たに導入した\footnote{\setulminsep{1.2ex}{0.45ex}上付きの添字$tgt$と$ctx$は,それぞれ\underline{t}ar\underline{g}e\underline{t},\underline{c}on\underline{t}e\underline{x}tをあらわしている.}.\eq{eqex}の$q^{tgt}_{w,c}$と$q^{ctx}_{w,c}$,および$p_{c}$はそれぞれ次式で求める.式中の各記号の意味は\eq{eq2},\eq{eq3}と同様である.ここで,$\mathcal{D}_{tgt}$は分類対象文をモデル化するための教師データ集合,$\mathcal{D}_{ctx}$は分類対象の周辺文脈をモデル化するための教師データ集合である.基本的には,前節で得られる教師データのうち,核文データを$\mathcal{D}_{tgt}$に割り当て,近接文データを$\mathcal{D}_{ctx}$に割り当てるが,正確な記述は後述の\sec{wariate}で与える.\begin{align}q^{tgt}_{w,c}&=\frac{\displaystylen_{w,c}(\mathcal{D}_{tgt})+1}{\displaystyle\sum_{w}n_{w,c}(\mathcal{D}_{tgt})+|\mathcal{V}_{tgt}|}\label{eq:qtbt}\\q^{ctx}_{w,c}&=\frac{\displaystylen_{w,c}(\mathcal{D}_{ctx})+1}{\displaystyle\sum_{w}n_{w,c}(\mathcal{D}_{ctx})+|\mathcal{V}_{ctx}|}\label{eq:qctx}\\p_{c}&=\frac{\displaystylen_{c}(\mathcal{D}_{tgt})+1}{\displaystyle\sum_{c}n_{c}(\mathcal{D}_{tgt})+|\mathcal{C}|}\end{align}以降,便宜的にこの拡張されたモデルを\textbf{NB+ctx}と呼ぶ.さらに,\eq{eqex}の第3項について,周辺文脈を分類対象文からの相対位置で詳細化した\begin{equation}\frac{1}{|ctx(s,N)|}\big\{\sum_{w}n_{w}(Bctx(s,N))\logq^{Bctx}_{w,c}+\sum_{w}n_{w}(Fctx(s,N))\logq^{Fctx}_{w,c}\big\}\label{eq:eqex2}\end{equation}を代わりに利用するモデルも考えられる.ここで,$Bctx(s,N)$は,$s$の前方文脈に位置する$N$文から構成される文の集合であり,$Fctx(s,N)$は同様に後方文脈で構成される文集合である.また,式中の$q^{Bctx}_{w,c}$および$q^{Fctx}_{w,c}$は次式で求める.ただし,$\mathcal{D}_{ctx}=\mathcal{D}^{B}_{ctx}\cup\mathcal{D}^{F}_{ctx}$である.\begin{align}q^{Bctx}_{w,c}&=\frac{\displaystylen_{w,c}(\mathcal{D}^{B}_{ctx})+1}{\displaystyle\sum_{w}n_{w,c}(\mathcal{D}^{B}_{ctx})+|\mathcal{V}_{Bctx}|}\\q^{Fctx}_{w,c}&=\frac{\displaystylen_{w,c}(\mathcal{D}^{F}_{ctx})+1}{\displaystyle\sum_{w}n_{w,c}(\mathcal{D}^{F}_{ctx})+|\mathcal{V}_{Fctx}|}\end{align}以降,便宜的にこのモデルを\textbf{NB+ctxBF}と呼ぶ.\subsection{データ割当規則}\label{sec:wariate}ここでは,さきほどの説明で保留していた,パラメータ推定の際に必要となる教師データの与え方について述べる.ここで,前節で述べた手法によって得られるデータ集合を確認すると,\begin{itemize}\item$\mathcal{S}_{core}$:クレーム核文と非クレーム核文をあわせた文の集合\item$\mathcal{S}_{sat~}$:クレーム近接文と非クレーム近接文をあわせた文の集合\item$\mathcal{S}^{B}_{sat~}$:$\mathcal{S}_{sat}$の要素のうち,核文の前方文脈から得られた文で構成される集合\item$\mathcal{S}^{F}_{sat~}$:$\mathcal{S}_{sat}$の要素のうち,核文の後方文脈から得られた文で構成される集合\end{itemize}であり,$\mathcal{S}_{sat}=\mathcal{S}_{sat}^{B}\cup\mathcal{S}_{sat}^{F}$であった.これらデータ集合に対して,まず,核文と近接文を区別しない単純な割当として,得られた全データをまとめて利用することが考えられる.この場合,拡張モデルNB+ctxにおいての割当は,\begin{itemize}\item$\mathcal{D}_{tgt}=\mathcal{S}_{core}\cup\mathcal{S}_{sat}$\item$\mathcal{D}_{ctx}=\mathcal{S}_{core}\cup\mathcal{S}_{sat}$\end{itemize}となる.これを以降\textbf{NB+ctx(all)}と呼ぶ.また同様に,拡張モデルNB+ctxBFにおいての単純な割当は,\begin{itemize}\item$\mathcal{D}_{tgt}=\mathcal{S}_{core}\cup\mathcal{S}_{sat}$\item$\mathcal{D}^{B}_{ctx}=\mathcal{S}_{core}\cup\mathcal{S}_{sat}$\item$\mathcal{D}^{F}_{ctx}=\mathcal{S}_{core}\cup\mathcal{S}_{sat}$\end{itemize}となるが,これは先のNB+ctx(all)と事実上同等となるため以降の議論では割愛する.次に,核文と近接文の区別を考慮したデータ割当を考える.拡張モデルNB+ctxにおいての割当としては,\begin{itemize}\item$\mathcal{D}_{tgt}=\mathcal{S}_{core}$\item$\mathcal{D}_{ctx}=\mathcal{S}_{sat}$\end{itemize}が考えられる.これを以降\textbf{NB+ctx(divide)}と呼ぶ.また同様に,拡張モデルNB+ctxBFにおいてのデータ割当として,\begin{itemize}\item$\mathcal{D}_{tgt}=\mathcal{S}_{core}$\item$\mathcal{D}^{B}_{ctx}=\mathcal{S}^{B}_{sat}$\item$\mathcal{D}^{F}_{ctx}=\mathcal{S}^{F}_{sat}$\end{itemize}が考えられる.これを以降\textbf{NB+BFctx(divide)}と呼ぶ.最後に,通常のナイーブベイズについて考えると,この場合は,もともとのモデルにデータを区別する枠組みが存在しないため,\begin{itemize}\item$\mathcal{D}=\mathcal{S}_{core}\cup\mathcal{S}_{sat}$\end{itemize}という割当のみを考えることになる.なお,$\mathcal{D}=\mathcal{S}_{core}$という核文のみを考慮し,近接文を利用しない割当も考えられるが,これは$\mathcal{D}=\mathcal{S}_{core}\cup\mathcal{S}_{sat}$において近接文の窓枠長を$0$とする場合に等しいため,割当規則として明示的には議論しないが,第\sec{exp}の評価実験では,近接文の窓枠長が$0$の場合も含めて議論する.以降,これを\textbf{NB}と呼ぶ.ここまでの議論を整理すると,前節の手法で自動生成された教師データを利用するという前提のもとで,通常のナイーブベイズ・モデルも含めて,4つのクレーム文検出モデルが与えられたことになる.次節では,評価実験を通じて,これらの有効性を検証していく.
\section{評価実験}
\label{sec:exp}\subsection{検証項目}評価実験を通して,提案手法の有効性を検証する.具体的には以下の3項目を検証する.\begin{enumerate}\item提案手法の比較:前節までで述べた4つのクレーム文検出モデルの中で,どのモデルが最良であるかを検証する.\item他手法との比較:提案手法と他手法との比較実験を行い,その結果から提案手法の有効性を検証する.\item学習データ量とクレーム文検出精度の関係について:提案したデータ生成手法は学習データを自動生成できるため,人手による生成に比べて遥かに多くの教師データを準備できる.この利点を実験を通して検証する.\end{enumerate}\subsection{実験の設定}\label{sec:setting}実験には,楽天データ公開\footnote{http://rit.rakuten.co.jp/rdr/index.html}において公開された楽天トラベルの施設データを利用した.このデータは約35万件(平均4.5文/件)の宿泊施設に関するレビューから構成されており,ここから,無作為に選んだ1,000レビューに含まれる文を評価用データとして用い,残りを教師データ生成用に利用した.評価用データには4,308文が含まれており,その内の24\%にあたる1,030文がクレーム文であった.つまり,4,308文からクレームを述べている1,030文を過不足なく検出することがここでの実験課題である.評価用データの作成では,まず,レビュー文書中の各文が1行1文となるようにデータを整形し,それを作業者に提示した.そして作業者は,与えられたデータの1文(1行)ごとにクレーム文か否かを判定していった.なお,ある文の判定時には,同一レビュー内の他の全ての文が参照できる状態になっている.2名の作業者によって上記の作業を独立に並行に行ったが,このうち1名の作業結果を評価用データとして採用した.2名の作業者間の一致度を$\kappa$係数の値によって評価したところ,$\kappa=0.93$であった.この結果は,作業者間の判断が十分に一致していたことを示している.作業者間で判断が一致しなかった事例としては,文が長く,ひとつの文で複数の事柄が述べられている場合や,「長身で据え置きのものでは短くて…」のように,クレームの原因が宿泊施設側にあるとは必ずしも言えない場合が多かった.教師データ生成時に必要となる評価表現辞書には,高村ら\cite{takamura}の辞書作成手法に基いて作成された辞書を使用した.ただし,高村らのオリジナルの辞書は自動構築されたもので,そのままでは誤りが含まれているため,以下の手続きによって誤り修正を施し,本実験で使用する辞書として採用した.オリジナルの辞書には各登録語に対して肯定/否定の強さを示すと解釈できる$[-1,1]$の範囲のスコアが付与されている.このスコアは,値が大きいほど肯定,また,小さいほど否定をあらわし,0付近はどちらでもないことを示していると解釈できる.そこでまず,このスコアの絶対値の大きいものから0.9付近までの単語を自動的に選択した.そして,選択された各単語に対して人手による誤り修正を施し,結果として肯定表現760件,否定表現862件からなる辞書を作成し,本実験に用いた.また,要求表現辞書として,「欲しい」,「ほしい」,「べし」からなる辞書を作成して実験に使用した\footnote{評価表現辞書と比べて要求表現辞書への登録単語数が少ない印象を受けるかもしれない.しかし,要求表現は評価表現とは違い,「〜して\underline{ほしい}」のように自立語に付随する形態を取りやすく,そのため辞書に登録できる単語もそれほど多くない.}.周辺文脈の窓枠長$N$の指定は,データ作成時,モデル学習時,評価用データの分類時のすべての過程で同期させている.また,各データの単語分割はMeCab\footnote{http://mecab.sourceforge.net/}によって行った.また,計算の都合上,$N=0$の場合は$1/|ctx(s,N)|=0$とした.今回のように,分類すべきクラスがクレーム/非クレームという2クラスの分類問題の場合,\eq{eq0}による意思決定は,以下の\eq{deci}の符号が正の場合にクレームと判定することになる.\begin{equation}P(\text{``クレーム''}|s)-P(\text{``非クレーム''}|s)\label{eq:deci}\end{equation}しかし,本研究では,\eq{deci}に意思決定の閾値$\theta$を加えた次の条件式を新たに導入し,この条件式が成立する場合にクレームと判定し,成立しない場合は非クレームと判定することとした.\begin{equation}P(\text{``クレーム''}|s)-P(\text{``非クレーム''}|s)>\theta\label{eq:deci2}\end{equation}\eq{deci2}の左辺は,クレームと判定する際の確信度を示していると考えることができ,閾値$\theta$はこの確信度に応じて出力を制御する役割りを持つ.閾値を$\theta=0$と設定すると,これは\eq{deci}を用いた通常の意思決定と同じ動作となる.閾値を$0$から大きくすると,より確信度が高い場合のみクレームと判定することになる.実験では,閾値$\theta$を増減させ,以下の式で計算される適合率および再現率,あるいはその要約である11点平均適合率\cite{iir}を求め,検出精度を評価した.11点平均適合率とは再現率が$\{0.0,\0.1,\\ldots,\1.0\}$となる11点における適合率の平均値である.\begin{align}\mbox{適合率}&=\frac{\mbox{正しくクレーム文として検出できた数}}{\mbox{クレーム文として出力された数}}\\[1ex]\mbox{再現率}&=\frac{\mbox{正しくクレーム文として検出できた数}}{\mbox{クレーム文の数}}\end{align}データにおけるクレーム文と非クレーム文の割合等に応じて,検出性能に対して最適な$\theta$を自動推定することも考えられるが,これについては今後の課題である.\subsection{提案手法の比較}\label{sec:exp_model}実験結果を\fig{model_length}に示す.このグラフは,4つの各検出モデルについて,考慮する周辺文脈の窓枠長を変化させながら性能変化をプロットしたものである.文脈長$N=0$の場合は,どのモデルも同じになるため,グラフ上では1点に集まっている.\begin{figure}[b]\begin{center}\includegraphics{20-5ia3f4.eps}\end{center}\caption{実験結果(提案手法の性能比較)}\label{fig:model_length}\end{figure}NBモデルの結果(``◇'')を基準に考えると,核文と近接文を区別しないNB+ctx(all)では文脈長を$N=0$から$N\ge1$のどの文脈の長さに変更しても性能が向上しない一方で,核文と近接文の区別を考慮するNB+ctx(divide)とNB+BFctx(divide)は文脈長を$N\ge1$にすることで,一貫して性能が向上することがわかる.このことから,文脈情報を適切にモデルに反映させるためには,単にモデルを拡張するだけでは効果がなく,データとモデルを上手く組合せて,核文と近接文を区別することが重要であることが確認できる.性能の向上が見られたNB+ctx(divide)とNB+BFctx(divide)を比較すると,どちらも$N\ge1$の場合は文脈長の変化に対しては鈍感な傾向を示しているが,近接文の相対位置を考慮するNB+BFctx(divide)の方が総じて良い結果を示しており,本論文で述べた4つのクレーム文検出モデルの中では,NB+BFctx(divide)モデルが最良であることがわかる.次に,教師データとして自動生成されたクレーム近接文に含まれる単語を確認したところ,\tab{context_word}のような単語がクレーム核文には現れず,クレーム近接文にのみ現れていた.このような単語の情報は,周辺文脈の情報を取り込むことで初めて考慮できるようになった情報であり,定性的にもクレーム検出における周辺文脈情報の利用の有効性が確認できる.\begin{table}[t]\caption{クレーム近接文にのみ現れていた単語}\label{tab:context_word}\input{03table02.txt}\end{table}また文脈情報を取り込むことで正しく分類ができるようになった事例を以下に示す.下線の引かれた文が分類対象であり,左端の数字は分類対象文からの相対位置を示す.\begin{itemize}\item【正しくクレーム文であると判定できた例】\\\begin{tabular}{rl}$-2$:&疲れていたので苦情をいうのも面倒で,さっさとチェックアウトしました.\\$-1$:&普段だったらクレームを入れるレベルです.\\$0$:&\underline{もう宿泊はないと思います.}\\$+1$:&残念です.\\\end{tabular}\item【正しく非クレーム文であると判定できた例】\\\begin{tabular}{rp{352pt}}$-1$:&昨年寒い1月に宿泊した際,犬を入室させてもらえ助かりました.\\$0$:&\underline{今回は寒くはないが飼い犬のミニチュアダックスが\mbox{老齢18歳で}泊めて頂け大変助かりました.}\\$+1$:&また泊めて頂きます.\\$+2$:&感謝.\\\end{tabular}\end{itemize}次に,誤りの傾向を分析したところ,以下のような事例について,判定誤りが多く見られた.\begin{itemize}\item【誤ってクレーム文と判定する例】\begin{itemize}\item[A.]不満の表明ではあるが,その対象・原因が宿泊者にある場合\begin{itemize}\item【例】仕事で到着が遅くなり,ゆっくりできなかったのが残念でした.\end{itemize}\item[B.]クレームの対象となりやすい事物が文中に多く記述されている場合\begin{itemize}\item【例】部屋は\underline{デスク},\underline{姿見},\underline{椅子},\underline{コンセント}があり,…従業員の対応もまずまずでした.\end{itemize}\end{itemize}\item【誤って非クレーム文と判定する例】\begin{itemize}\item[C.]記述の省略を伴う場合\begin{itemize}\item【例】バイキングにステーキがあればなぁ.\end{itemize}\item[D.]外部的な知識を要する場合\begin{itemize}\item【例】全体的な評価としてはEランクでした.\end{itemize}\end{itemize}\end{itemize}誤ってクレーム文と判定する事例のうち,A.のような事例に対応するには,意見の対象や原因を特定する等の詳細な自動解析の実現が望まれる.手元のデータによると,B.に該当する上述の例のうち,下線部がクレーム対象となりやすい事物であった.このような事例については,文中では名詞が多く現れることから,単語の品詞情報を考慮する等,単語や単語クラス毎にモデル内での扱いを変更することが考えられる.また,誤って非クレーム文と判定する事例については,「Eランク」を否定極性の単語として扱うなど,ヒューリスティック規則によるチューニングは可能であるが,総体的には現在の技術では改善が困難な事例が多い印象である.\subsection{他手法との比較}\label{sec:exp_base}次に,提案手法と他手法との比較実験を行い,その結果から提案手法の有効性を検証する.他手法としては,以下に示す3手法を検討した.始めの2つは,従来から考えられるラベル付け方法に基づく手法であり,残りの1つは,教師あり学習を適用しない,辞書の情報に基づいたルールベースの手法である.\begin{itemize}\item人手によって教師データを作成する手法(以下,人手ラベル)教師データ用のレビュー集合から2,000件のレビューを無作為に抽出し,そこに含まれる全ての文に対して人手でクレーム/非クレームのラベル付けを行ったものを教師データとしてモデル学習に用いる.この手法で得られるデータでは核文と近接文の区別がないため,学習には通常のナイーブベイズ・モデルを用いる.提案手法と比べると,この手法では量は少量だが質の高い学習データが利用できる.このデータ作成作業は,評価実験の正解データ作成と同一の作業となる.ただし,このデータ作成には正解データの作成に従事した作業者のうちの1名によって執り行なった.作業時間は約30時間であった.\item文書ラベルを教師データ作成に用いる手法(以下,文書ラベル)本実験で使用しているレビューデータには,本研究でいうクレームとほぼ同等の概念を示している「苦情」というラベルがレビュー単位に付与されている.そこで,ここでは,文よりも粗い文書に対する教師情報を利用して,文単位の教師データを自動生成することを考える\cite{nigam2004a}.具体的には,「苦情」ラベルが付与されたレビューに含まれている全ての文をクレーム文とみなし,逆に,「苦情」ラベルが付与されていないレビューに含まれている全ての文を非クレーム文とみなすことで教師データを自動生成し,モデル学習に用いる.モデルは先と同様の理由で通常のナイーブベイズ・モデルを用いる.提案手法と比べると,この手法では相対的に質は低いが,大量の学習データが利用できる.\item辞書による手法この手法は教師あり学習は行わず,辞書のエントリをルールとみなしたルールベース手法である.評価用データに対して\sec{data_core}で述べた核文ラベル付け,および\sec{data_context}で述べた近接文ラベル付けの手続きを直接適用してクレーム文を検出する.ただし,ここでの焦点はデータ生成時とは違って,クレーム文を検出できるか否かであるため,ラベル付けの結果,クレームとラベル付けされた文以外は全て非クレームであるとみなして評価した.なお,辞書は\sec{setting}で述べた辞書を用いる.\end{itemize}実験結果を\fig{baseline}に示す.また,\tab{data}に提案手法のラベル付けと人手ラベル,文書ラベルの各手法によるラベル付けの特徴をまとめる.\begin{figure}[b]\begin{center}\includegraphics{20-5ia3f5.eps}\end{center}\caption{実験結果(他手法との比較)}\label{fig:baseline}\end{figure}\begin{table}[b]\caption{各ラベル付け手法で生成される教師データの特徴}\label{tab:data}\input{03table03.txt}\end{table}\fig{baseline}において,辞書による手法は,ナイーブベイズモデルを用いた分類時に導入した閾値のパラメータが存在しないため,11点平均適合率を計算できない.そのため,ここでは再現率と適合率によって分類性能を評価している.なお,図中の``提案ラベル''が提案手法の結果であり,さきほどの評価実験で最良であった拡張モデルNB+ctxBF(divide)で文脈長$N=2$の実験結果を掲載している.また,``辞書(核)''は,辞書による手法のうち,核文ラベル付けのみを考慮した場合の結果であり,``辞書(核+近接)''が,核文ラベル付けと近接文ラベル付けの両方を考慮した場合の結果である.\fig{baseline}から,比較したどの手法よりも提案手法が良い性能を示していることがわかる.辞書による方法は,辞書に登録されている単語が含まれていない文に対しては適用できないため,再現率が低い.近接文を考慮することである程度の再現率を確保することは可能であるが,当然ながらその代償として適合率が下がる結果となっている.ここで,固有表現抽出課題がそうであるように,一般に,辞書に基づいた手法では再現率が低くなるがその一方で適合率が高くなる傾向がある.近接文の情報を用いない``辞書(核)''の結果は特にその傾向を示している.ただし,今回の実験結果では,再現率を固定させて適合率を見ると,ナイーブベイズ・モデルを用いた手法の方が適合率がより高い結果となっていた.これは,本研究課題では,辞書に登録されている一部の単語の情報だけでは文全体のクラス(クレーム/非クレーム)が正しく決定できない場合があり,このような場合には,辞書による方法よりも文内の単語情報を総合的に考慮できるナイーブベイズ・モデルが適していたためと考えられる.次に,文書ラベルを利用する方法は,文書内のすべての文を教師データとして利用できる.そのため,提案手法と同程度かそれ以上の教師データが利用できるという特徴がある.しかし,文書内には一般的にクレームと非クレームが混在することから,文書ラベルと整合していない信頼性の低いデータを多く含む結果となり,そのことが性能の低下に繋がっていると考えられる.最後に,人手作成による方法は,もっとも質の高い教師データを準備することができるが,作成負荷の高さから,量を確保することが難しい.今回は人手で2,000件(8,639文)のレビューから教師データを作成したが,提案手法を上回ることはなかった.\subsection{学習データとクレーム文検出精度の関係について}\label{sec:exp_size}先でも述べたように,一般に,人手作成された教師データは質が高い反面,多くの量を準備することが困難である.一方,提案手法のように自動生成された教師データは人手作成されたデータよりも質が落ちるが,ラベルのない生データを準備するだけで手軽に増量できる.ここでは,人手によって教師データを作成する場合と第\sec{gen}の提案手法によって教師データを自動生成する場合のそれぞれについて,教師データの量と分類性能の関係を調査する.なお,両者で教師データ以外の実験条件を合わせるために,この実験では,モデルには通常のナイーブベイズ・モデルを用いた.実験結果を\fig{datasize}に示す.横軸が学習データ量(対数スケール)であり,縦軸が11点平均適合率である.どちらの実験結果についても,まず今回の実験において最大で利用可能なデータ量(人手ラベルの場合:レビュー2,000件,提案ラベルの場合:レビュー約347,000件)から性能測定を開始し,そこから一部の学習データを無作為に削除することで使用できる学習データ量がより少ない環境を設定して,これを繰り返しながらグラフをプロットした.\begin{figure}[t]\begin{center}\includegraphics{20-5ia3f6.eps}\end{center}\caption{教師データ量の影響}\label{fig:datasize}\end{figure}\fig{datasize}から,まず,どちらの手法においてもデータ量を増やすことで性能が向上することが確認できる.データ量が同じ場合は,当然のことながら,人手による方法の方が良い性能となる.しかし,提案手法によってデータ量を増加させることで,今回の場合は10,000件までデータ量を増やした時点で両者の性能が同等となり,さらにデータ量を増やすことで提案手法が人手による手法を上回ることができた.この実験結果は,あくまでひとつのケース・スタディであり,具体的な数値自体に意味を求めることは困難であると考えられる.しかし,この結果は,人手によって十分な教師データが作成できない状況においては,自動生成手法を適用することで得られる教師データの量的利点という恩恵を受けられることを示唆していると言える.
\section{関連研究}
\label{sec:related}従来から,評判分析に関する研究を中心にして,意見を好評/不評に分類する研究が多くなされている\cite{sa2}.しかし,本論文では,応用面を重視した際,主に製品やサービスを提供する企業にとっては意見の好不評という側面だけでは十分でないことから,クレームという好不評とは異なる観点を導入し,意見を含むテキストからクレームという特定の意見を検出する手法について述べた.我々と同様に好評/不評以外の意見に着目した研究には,第\sec{hajimeni}で述べた永井らの研究\cite{nagai1,nagai2}の他にも幾つか存在する.例えば,金山ら\cite{kanayama2005a}は,テキストから好評/不評の評判に加えて要望を抽出する手法を提案している.彼らの手法は,文に含まれる評判や要望を意図フレームと呼ばれる独自の形式に自動的に変換しつつ抽出するようになっており,この変換・抽出処理において,既存の機械翻訳機構を再利用している.彼らの抽出対象である評判,要望の中に本研究におけるクレームも含まれていると考えられるが,彼らの手法は,機械翻訳機構が内部的に備える各種の言語知識のもとに成立しており,運用には人手による多大な管理負荷を要すると考えられる.一方で,本研究では極力人手の負荷を軽減することを指向しており,金山らの手法とはアプローチの方向性が異なる.また,他の関連研究として,自由記述アンケートから要求や要望を判定することに特化した大塚ら\cite{otsuka2004a}や山本ら\cite{yamamoto2006a}の研究がある.彼らの論文中に定義がないため厳密にはよくわからないが,彼らの扱っている要求や要望といった意見の分類クラスは,我々のクレームの一部分に該当すると考えられる.Goldbergら\cite{goldberg2009a}は,新年の願い事が集められたテキストコーパスからWish(願望)を機械学習を用いて自動抽出する研究を行っている.本研究では,レビュー中の各文をクレーム/非クレームに分類する課題に対して,ナイーブベイズ・モデルを採用し,データ特性に合わせて,その拡張を行った.拡張モデルでは,文間の周辺文脈をモデルに適切に反映させることができる.ここで,文書中の各文を対象とした分類問題を,文書中の文系列に対するラベリング問題とみなすことで,条件付確率場(ConditionalRandomFileds;CRF)\cite{lafferty2001a}のような,より高度なモデルを適用することについて検討する.まず,\sec{gen}で述べたデータ生成過程では,文書内のすべての文に対してラベルを付与するわけではなく,ある特定の文のみにラベルを付与することで教師データを作成する.そのため,CRFのような系列の構成要素についての全てのラベルを必要とするようなモデルは本研究の設定では直接は適用できない.坪井ら\cite{tsuboi2009a}によって,部分的なアノテーション情報からCRFの学習を行う手法が提案されており,この手法を適用することは不可能ではないが,彼らの手法を適切に適用するにあたり,アノテーションされている部分は人手による信頼性の高い情報であるという暗黙的な仮定が必要であると考えられ,データの自動生成を前提とする本研究の設定とは相性が良くないと考えられる.
\section{おわりに}
\label{sec:owarini}本論文では,レビュー文書からクレームが記述された文を自動検出する手法として,極力人手の負荷を軽減することを指向した次の2つの手法を提案した.(1)評価表現と文脈一貫性に基づく教師データ自動生成手法.(2)自動生成された教師データの特性を踏まえたナイーブベイズ・モデルの拡張手法.そして,評価実験を通して,これらの提案を組合せ,検出対象となる文の周辺文脈の情報を適切に捉えることで,クレーム文の検出精度を向上させることができることを示した.また,人手によって十分な教師データが作成できない状況においては,提案したデータ自動生成手法を適用することで得られる教師データの量的恩恵を受けられることを示した.本論文で議論ができなかった今後の課題としては,以下のような項目があげられる.\begin{itemize}\item分類クラスの事前分布について:ナイーブベイズ・モデルでは,\eq{eq1}にあるように,分類クラスの事前分布$P(c)$の情報を考慮する.しかし,本研究のように教師データを自動生成する際は事前分布$P(c)$はデータ自動生成手法に依存しており,本研究の場合では,利用する評価表現辞書の特徴に依存することになる.今後,評価表現辞書および事前分布$P(c)$と検出性能との関係について考察することが必要である.\item各種のパラメータ調整について:本研究において,幾つかのパラメータは恣意的に指定している.例えば,考慮する周辺文脈の長さについて評価実験では可変させていたが,それらは,データ生成,モデル学習,分類の各過程で同期させている.しかし,原理的にはデータ生成時のみ文脈長を延長するといった設定も可能であり,これらの最適な調整は今後の課題である.\item学習アルゴリズムについて:本研究では基本モデルとしてナイーブベイズ・モデルを採用して議論を進めたが,同様の議論をSupportVectorMachine(SVM)\cite{vapnik1995a}のような別の学習アルゴリズムを用いて行うことも興味深い.ただし,SVMにはモデルの学習速度が遅いという欠点がある.そのため,提案手法の利点である大規模な教師データを自動生成できるという点を活かすためにはSVMの高速学習を含めた総合的な検討が必要である.\itemクレームの内容分類について:本研究はクレーム検出をクレームであるか否かという2値分類問題として扱った.しかし,実利用環境で検出されたクレームを企業内で活かしていくには,クレーム内容も合わせて自動分類できることが望ましい.例えば,対象が宿泊施設の場合では,「部屋」や「食事」といったクレームの対象に関する分類クラスを別途設定し,これらも同時に考慮した検出モデルを検討することも興味深い.\item見逃し状況について:クレームを見逃す状況として,本論文では,レビュー文書内に部分的に現れるクレームの見逃しについて扱った.しかし,第\sec{hajimeni}でも述べたように,多対一型のコミュニケーションに起因する見逃しへの対処も重要である.今後,多対一型のコミュニケーションに起因する見逃しに対する提案手法の適用可能性についても検討したい.\end{itemize}\acknowledgment本研究を遂行するにあたり,楽天株式会社楽天技術研究所の新里圭司氏,平手勇宇氏,山田薫氏から示唆に富む多くの助言を頂きました.諸氏に深く感謝いたします.また,実験にあたり,楽天トラベル株式会社から施設レビューデータを提供して頂きました.ここに記して感謝の意を表します.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Goldberg,Fillmore,Andrzejewski,Xu,Gibson,\BBA\Zhu}{Goldberget~al.}{2009}]{goldberg2009a}Goldberg,A.~B.,Fillmore,N.,Andrzejewski,D.,Xu,Z.,Gibson,B.,\BBA\Zhu,X.\BBOP2009\BBCP.\newblock\BBOQMayAllYourWishesComeTrue:AStudyofWishesandHowtoRecognizeThem.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceandtheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\263--271}.\bibitem[\protect\BCAY{乾\JBA奥村}{乾\JBA奥村}{2006}]{inui}乾孝司\JBA奥村学\BBOP2006\BBCP.\newblockテキストを対象とした評価情報の分析に関する研究動向.\\newblock\Jem{自然言語処理},{\Bbf13}(3),\mbox{\BPGS\201--241}.\bibitem[\protect\BCAY{金山\JBA那須川}{金山\JBA那須川}{2005}]{kanayama2005a}金山博\JBA那須川哲哉\BBOP2005\BBCP.\newblock要望表現の抽出と整理.\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\660--663}.\bibitem[\protect\BCAY{Lafferty,McCallum,\BBA\Pereira}{Laffertyet~al.}{2001}]{lafferty2001a}Lafferty,J.,McCallum,A.,\BBA\Pereira,F.\BBOP2001\BBCP.\newblock\BBOQConditionalrandomfields:Probabilisticmodelsforsegmentingandlabelingsequencedata.\BBCQ\\newblockIn{\BemProceedingsofthe29thInternatinalConferenceonMachineLearning},\mbox{\BPGS\282--289}.\bibitem[\protect\BCAY{Manning\BBA\Schutze}{Manning\BBA\Schutze}{1999}]{nv}Manning,C.~D.\BBACOMMA\\BBA\Schutze,H.\BBOP1999\BBCP.\newblock{\BemFoundationsofStatisticalNaturalLanguageProcessing}.\newblockTheMITPress.\bibitem[\protect\BCAY{Manning,Raghavan,\BBA\Schutze}{Manninget~al.}{2008}]{iir}Manning,C.~D.,Raghavan,P.,\BBA\Schutze,H.\BBOP2008\BBCP.\newblock{\BemIntroductiontoInformationRetrieval}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{永井\JBA高山\JBA鈴木}{永井\Jetal}{2002}]{nagai1}永井明人\JBA高山泰博\JBA鈴木克志\BBOP2002\BBCP.\newblock単語共起照合に基づくクレーム抽出方式の改良.\\newblock\Jem{情報科学技術フォーラム},\mbox{\BPGS\113--114}.\bibitem[\protect\BCAY{永井\JBA増塩\JBA高山\JBA鈴木}{永井\Jetal}{2003}]{nagai2}永井明人\JBA増塩智宏\JBA高山泰博\JBA鈴木克志\BBOP2003\BBCP.\newblockインターネット情報監視システムの試作.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf2003}(23),\mbox{\BPGS\125--130}.\bibitem[\protect\BCAY{那須川\JBA金山}{那須川\JBA金山}{2004}]{nasukawa}那須川哲哉\JBA金山博\BBOP2004\BBCP.\newblock文脈一貫性を利用した極性付評価表現の語彙獲得.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf2004}(73),\mbox{\BPGS\109--116}.\bibitem[\protect\BCAY{Nigam\BBA\Hurst}{Nigam\BBA\Hurst}{2004}]{nigam2004a}Nigam,K.\BBACOMMA\\BBA\Hurst,M.\BBOP2004\BBCP.\newblock\BBOQTowardsaRobustMetricofOpinion.\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications},\mbox{\BPGS\98--105}.\bibitem[\protect\BCAY{大塚\JBA内山\JBA井佐原}{大塚\Jetal}{2004}]{otsuka2004a}大塚裕子\JBA内山将夫\JBA井佐原均\BBOP2004\BBCP.\newblock自由回答アンケートにおける要求意図判定基準.\\newblock\Jem{自然言語処理},{\Bbf11}(2),\mbox{\BPGS\21--66}.\bibitem[\protect\BCAY{Pang\BBA\Lee}{Pang\BBA\Lee}{2008}]{sa2}Pang,B.\BBACOMMA\\BBA\Lee,L.\BBOP2008\BBCP.\newblock{\BemOpinionMiningandSentimentAnalysis-FoundationsandTrendsinInformationRetrievalVol.2,Issue1-2}.\newblockNowPublishersInc.\bibitem[\protect\BCAY{高村\JBA乾\JBA奥村}{高村\Jetal}{2006}]{takamura}高村大也\JBA乾孝司\JBA奥村学\BBOP2006\BBCP.\newblockスピンモデルによる単語の感情極性抽出.\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(2),\mbox{\BPGS\627--637}.\bibitem[\protect\BCAY{坪井\JBA森\JBA鹿島\JBA小田\JBA松本}{坪井\Jetal}{2009}]{tsuboi2009a}坪井祐太\JBA森信介\JBA鹿島久嗣\JBA小田裕樹\JBA松本裕治\BBOP2009\BBCP.\newblock日本語単語分割の分野適応のための部分的アノテーションを用いた条件付確率場の学習.\\newblock\Jem{情報処理学会論文誌},{\Bbf50}(6),\mbox{\BPGS\1622--1635}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1995}]{vapnik1995a}Vapnik,V.~N.\BBOP1995\BBCP.\newblock{\BemTheNatureofStatisticalLearningTheory}.\newblockSpringer.\bibitem[\protect\BCAY{山本\JBA乾\JBA高村\JBA丸元\JBA大塚\JBA奥村}{山本\Jetal}{2006}]{yamamoto2006a}山本瑞樹\JBA乾孝司\JBA高村大也\JBA丸元聡子\JBA大塚裕子\JBA奥村学\BBOP2006\BBCP.\newblock文章構造を考慮した自由回答意見からの要望抽出.\\newblock\Jem{言語処理学会第12回年次大会併設ワークショップ「感情・評価・態度と言語」}.\end{thebibliography}\begin{biography}\bioauthor{乾孝司}{2004年奈良先端科学技術大学院大学情報科学研究科博士課程修了.日本学術振興会特別研究員,東京工業大学統合研究院特任助教等を経て,2009年筑波大学大学院システム情報工学研究科助教.現在に至る.博士(工学).近年はCGMテキストに対する評判分析に興味をもつ.}\bioauthor{梅澤佑介}{2011年筑波大学情報学群情報メディア創成学類卒業.2013年筑波大学大学院システム情報工学研究科コンピュータサイエンス専攻修了.同年4月から株式会社ヤフー.在学中は自然言語処理の研究に従事.}\bioauthor{山本幹雄}{1986年豊橋技術科学大学大学院修士課程修了.同年株式会社沖テクノシステムズラボラトリ研究開発員.1988年豊橋技術科学大学情報工学系教務職員.1991年同助手.1995年筑波大学電子・情報工学系講師.1998年同助教授.2008年筑波大学大学院システム情報工学研究科教授.博士(工学).自然言語処理の研究に従事.言語処理学会,人工知能学会,ACL各会員.}\end{biography}\biodate\end{document}
| |
V03N04-05 | \section{まえがき}
自然言語処理のための言語リソースとして語彙辞書が最も基本となるが,構文構造の基本となる構成要素は,2文節間あるいは2単語間の係り受け構造である.係り受け関係は,CFG規則の最も単純な形式であるチョムスキ標準形と見なすことができる.通常この関係は共起関係と呼ばれている.本論文は,文法規則というよりは言語データの一種と見なせる共起関係を用いて日本語の係り受け解析を行い,かつ更新,学習機能を取り入れることにより,カナ漢字変換に見られるような操作性の良さを有する簡便な日本語係り受け解析エンジンを提示することを目的とする.これまで共起関係による自然言語解析には,\cite[など]{Yoshida1972,Shirai1986,TsutsumiAndTsutsumi1988,Matsumoto1992}の研究がある.\cite{Yoshida1972}は本論文に最も関係するもので係り受けによる日本語解析の基礎を与えるものである.\cite{Shirai1986}は日本語の共起関係の記述単位として品詞と個別単語との中間に位置すると見なせるクラスター分類で与えるとともに半自動的にインクリメンタルに共起辞書を拡大することを述べている.\cite{TsutsumiAndTsutsumi1988}は英語に関して動詞の格ペアーとして共起関係を捉えている.\cite{Matsumoto1992}は英語構文解析の規則に共起関係を抽出する補強項を付け加へ,2項以上の多項関係を解析時に自動的に抽出している.しかし,いずれのシステムも共起関係だけから実用規模の係り受け解析を構築したものはない.一般に共起関係は\cite{Yoshida1972}を除き係り側の自立語と付属語(機能語)列および受け側の自立語(終止形)で論じられることが多い.その際,係り側の付属語は両方の自立語の表層格(関係子)として考えられている.\cite{Yoshida1972}は二文節間の関係に着目して受け側も自立語と付属語列として考察した.さらに機械処理の観点から,付属語・補助用言・副詞などの語は個々の単語で記述し,他の語は品詞水準で扱った.これを準品詞水準と称している.本論文では,副詞も含めてすべて自立語は品詞で記述し,付属語列はリテラルで表現することにする.品詞に縮退させているためこれを縮退型共起関係あるいは省略して単に共起関係と呼ぶ.本論文では,実際の文章から機械的に抽出した係り受け関係を共起データとし,いわゆる文法規則の類を一切使用せずに係り受け解析システムを構築する.その際,共起関係の構文情報の中に連続性の概念を導入して,これまで文法的には曖昧であるとされていた構造も本質的に曖昧性が解消出来ているのではないが,実際の文章では出現頻度が少ないとか,分野を限定すれば同一文体が続く傾向があるために係り受けパターンを絞り込めるのではないかと予想して開発した.これは最近研究の盛んなコーパスに基づく統計的言語処理の一つの試みにもなる.また単純な形式の共起関係のみを用いて解析を行うため,日本語の係り受け解析で一文ごとに規則に相当する共起関係を学習する機能を持たせることができ,共起関係の更新機能と併用することで従来のものと比較して,柔軟性,拡張性に富んだシステムが得られる.以下,\ref{data-str}章では,構文構造と共起関係のデータ構造を定義する.\ref{new-ana}章では本共起関係を用いた学習機能付き日本語係り受け解析システムを説明する.\ref{eval}章では解析システムの実験結果を示し,評価を行う.
\section{データ構造}
\label{data-str}構文解析で使用する言語リソースのデータ構造についてその定義を与える.第1は,係り受け関係の表現ための構文木,第2は,係り受け関係の基本データ構造である縮退型共起関係である.\subsection{構文木}日本語の係り受けを解析することをここでは構文解析ともいう.解析結果を与える構文は,工学的観点にたって見やすく工夫している.図\ref{構文解析結果の表示例}にその例を示す.各文節は順序番号を付与して係り先の文節番号と係り受け関係を明示しグラフで表示している.文節は長い文節にも対応できるように縦に配置している.文節の先頭の品詞も明示している.詳細は省くが,このグラフ表示に対して形態素,構文レベルの修正が可能である.修正機能は100%正解が困難な現状の自然言語処理にとって有用な支援機能である.グラフの上段は形態素解析の結果を示している.\begin{figure}[htb]\begin{center}\epsfile{file=fig1.eps,width=119mm}\caption{構文解析結果の表示例}\label{構文解析結果の表示例}\end{center}\end{figure}\subsection{係り受けの連続性}文中で連続した文節が係り受けの関係になっている場合,その係り受けの2文節は「連続」あるいは「連続句」であるという.文中で離れた文節間で係り受け関係があれば「不連続」という.日本語においては特定の係り受け関係は連続して生ずるケースが見られ,これに注目するため連続,不連続を区別している.連続,不連続を付与した係り受け関係においては,連続して用いられる度合の強い係り受け関係は解析において単語に次ぐ重要な言語リソースで,辞書の見出しを単語から句に拡大するとき最初にエントリの候補となるものである.\subsection{縮退型共起関係}縮退型共起関係では,文節の自立語列はヘッドとなる最終の自立語の品詞で,付属語列はリテラルとしてそのままの文字列で表現される.句読点も付属語列に含める.係り受け関係は例えば\cite{YamagamiAndYasuhara1993}に示したような係り受け関係名で記述する.単に係り受けの関係だけを解析するのであれば関係名は係り側の付属語列で代用するか,あるいはまったく無視しても本処理系には影響を与えない.図\ref{データ構造}に縮退型共起関係のデータ構造とその例を示す.\vspace*{5mm}\begin{figure}[htb]\begin{center}\epsfile{file=fig2.eps,width=131mm}\caption{縮退型共起関係のデータ構造とその例}\label{データ構造}\end{center}\end{figure}大文字A,Bは自立語品詞,Fは付属語品詞列,小文字a,bは自立語リテラル,fは付属語列のリテラルを表わすとすると,一般に共起関係を構文規則として見て,抽象化の強いものから並べると次の4種類に分類される.1)AFBF型,2)AfBf型,3)Afbf型あるいはafBf型,4)afbf型である.2),3),4)のように具体的に記述するにしたがって共起関係の数は増大する.通常の構文規則は1)のレベルで記述するのが一般的である.縮退型共起関係は2)の型に属し,その特徴は文節の自立語を品詞で代用していることと受け側の付属語も添付していることである.付属語は付属語相当語を含めて現在650語を用いているがオーダ的には組み合わせや句読点を考慮して1000程度であり,リテラルとした.自立語は10万のオーダになりそれらをすべて記憶しておくことは2項関係としては動詞が1万とすると名詞と動詞の組み合わせだけでギガのオーダであり,付属語パターンも含めると現状の機械処理の立場からは困難である.これは\cite{Yoshida1972}でも示された考え方であった.本論文では,付属語列の末尾に句読点情報も付与している.なぜなら,現実の文章においては,句読点が係り受け関係の決定に意味を持っているからである.これの有効性は従属節の述語間の係り受けに対して\cite{Shirai1995}でも示されている.係り受け関係で受け側の付属語列を伴ったAfBf型が重要なことは,AfBでは次にどのような付属語列が来るかはBのみの品詞情報で決定され,文節Aの付属語列は関与しないことによる.しかし文法的には等価であるが慣用的な用法が多い自然言語では,特定の付属語を好む場合がある.例えば,文「\underline{欧米においては}電車で寝ているような光景は決して\underline{見られないが,}」で,「欧米においては」は動詞に係るというだけの情報では,この文の場合「寝ている」に係るとしてしまうことになる.AfBf型にするとBに付属語「〜ないが,」が付くパターンを優先して使用することができる.もっと単純な場合では,「N(名詞)はA(形容詞)」の規則で,「彼は若い.」と「彼は長い(トンネルを)」を同じと見てしまう.しかしBにfを付与すると「.」が効力を持つ.もちろん組み合わせの数はAfBf型がAfB型より3桁多くなるが,係り受けの絞り込みは良くなる.付属語列をリテラルにしておくメリットは,「男は車に\underline{近づいた.}」の縮退型共起関係である「NはV\underline{た.}」\hspace*{-1mm}により「男は近づいた車を見た.」\hspace*{-1mm}の文で「男は」\hspace*{-1mm}は\hspace*{-1mm}「近づい\underline{た}」\hspace*{-1mm}ではなく\hspace*{-1mm}「見\underline{た.}」\\に係る.また「女は赤い服を着た.」で,「女は」は「赤い」に係らないで「着た.」に係っている.「N\underline{助詞}A」といったAFB型の共起記述では「女は」は「赤い」に係ってしまう.もちろん自立語で品詞を使用することによって「髪が長い少女に会った.」の類に関しては「NがA」の規則が生まれて上記の文の解析を誤らしめて良くないがこれは頻度情報や後述する学習機能によって避けられると考えている.別の解決法は名詞の品詞を細分類したり,\cite{Shirai1986}のようにクラスター分割することが一つの解決策であるが,本論文では単純な方法を採用した.縮退型共起関係と連続句の概念によって解析の曖昧性は次のように解消できる.\cite{Yoshida1972}では,「彼は山に登って景色を見た.」に対して3つの解析例があるとしているが,連続句を優先すれば「山に」は「登って」に係り,縮退型共起関係「NはVて」が無いか,あるいは在っても「NはVた.」に比較して頻度が少なければ「彼は」は「見た.」に係かる.\subsection{共起データベース}共起データベースCOODBとは,係り受け解析の出力から得られる縮退型共起関係を蓄積したデータベースである.但し,頻度は1であるので記憶していない.各レコードは,縮退型共起関係からなっている.それらを文に対応させて記憶することにより,任意の縮退型共起関係から逆にそれが使用された原文を参照することが可能になる.これにより与えられた縮退型共起関係が正しいかどうかの判断を実例文で確認することができる.図\ref{COODBの例}に共起データベースの例を示す.共起データベース中の縮退型共起関係をソートして頻度を付与したものをソート済み共起データベースSTCDBと呼ぶ.\vspace*{3mm}\begin{figure}[htb]\begin{center}\epsfile{file=fig3.eps,width=101mm}\caption{縮退型共起関係データベースCOODBの例}\label{COODBの例}\end{center}\end{figure}
\section{新解析系}
\label{new-ana}\subsection{係り受け文法の定式化}AfBf型の係り受け関係を形式化するとCFGと等価なことが分かる.さらに図\ref{データ構造}でも示したように係り受け関係には頻度や確率が付与されるため確率付きCFGと見なすことも可能である.文節の文法カテゴリをγBf,δBf等で表わすと一般の係り受け関係は,\begin{eqnarray}δBg=γBfγBg\label{cc}\\δBg=δBfγBg\label{dc}\\δBg=γBfδBg\label{cd}\\δBg=δBfδBg\label{dd}\end{eqnarray}で表現することが出来る.ここで,γは規則が最初に適用される文節カテゴリに付与しており,δは1度以上規則を適用してできたカテゴリである.カテゴリの添え字γ,δは,意味的には連続,不連続と関係させたものである.連続のものは規則が適用されると文節間にギャップができるため左辺のカテゴリにはγは現われない.またBは品詞,fは付属語リテラルに相当する.~(\ref{cc})の右辺の”γBfγBg”は文節カテゴリγBfがγBgに連続して係ることを示す.(例.机を=>運ぶ.)~(\ref{dc})の意味はδBfがγBgに連続して係ることを表わしている.(例.(大きな=>)少年の=>頭には)~(\ref{cd})はγBfが不連続にδBgに係る.(例.少年が〜>(机を=>)運ぶ)~(\ref{dd})はδBfが不連続にδBgに係ることを示している.(例.(大きな=>)少年が〜>(机を=>)運ぶ.)ここで=>は連続した係り受け関係を表わし,〜>は不連続の係り受け関係を意味している.以上の~(\ref{cc}),~(\ref{dc})の規則は連続フラグが立っている縮退型共起関係から生成され,~(\ref{cd}),~(\ref{dd})は不連続な縮退型共起関係から生成したものである.もう少し緩い規則として連続,不連続のいずれも上記4つの規則に展開しておくことを考えてもよい.なぜなら,一般に日本語においては連続した共起関係は不連続でも発生し得るし,逆も可能であるからである.いずれにしてもSTCDBをチョムスキー標準形のCFG規則に変換することが出来る.しかしこれは従来のCFGの規則数と比較してオーダの違った規則群になる.解析するのは原理的にCYK法のようなボトムアップ解析によれば可能である.その場合,係り受けの交差も自動的に回避できる.ここでは全解パージングではなくコスト等を導入して最尤解を求めるために\ref{ana-sys}に述べるような独自な系を作成した.\subsection{解析系}\label{ana-sys}以下で縮退型共起関係を用いた解析系を記述する.\begin{itemize}\item[(1)]システム構成縮退型共起関係を用いた解析システムの構成を図\ref{システム構成}に示す.\begin{figure}[htb]\begin{center}\epsfile{file=fig4.eps,width=113mm}\caption{係り受け解析システム構成}\label{システム構成}\end{center}\end{figure}本システムで使用する特徴的な言語リソースを以下に示す.いわゆる解析規則はなく,共起関係データベースがその代りになっている.共起関係データベースはフィードバック系になっている.\clearpage\begin{itemize}\item[(a)]係り受けマトリックス\begin{figure}[htb]\begin{center}\epsfile{file=fig5.eps,width=106mm}\caption{係り受けマトリックス}\label{マトリックス}\end{center}\end{figure}\vspace*{-2mm}これは,\cite{Yoshida1972}でも与えられているが,本論文では図\ref{マトリックス}に示すように行列要素の値を係り受けの可否ではなくコストで与える点とさらにそれらの関係名を記述する点で相違する.\item[(b)]ソート済み縮退型共起関係データベースの作成COODB,STCDBともに初期状態は空である.先ず実際の文章からCOODBを収集し,ソートして重複頻度付きの形式でSTCDBを作成する.係り受け解析の結果は共起関係で表現できるから,先ず何らかの手段で解析データを収集する.人手でやるのも可能だが量的に限界がある.解析の結果に対して機械的に収集すればよい.すなわち解析そのものに共起関係を利用することが最終目標であるが,そのためのデータ収集は,人手で解析されたデータや別の解析ツールを使用することができる.これによって本解析エンジンで最低限度の解析ができる程度の容量になるまで蓄積する.今回は,本解析方式(図\ref{システム構成}中の日本語係り受け解析2)とは別の解析システム(日本語係り受け解析1)を用いてCOODBの自動抽出ツールを作成した.STCDBのデータ構造はB木や配列として記憶しておく.解析エンジンが始動してそこからデータを収集すればブートストラップになる.\end{itemize}\item[(2)]解析ステップ以下,解析のステップを順に述べる.先ず,システムは形態素解析を行い,文節に区切られた結果を構文解析に渡す.構文解析では係り受けマトリックスをSTCDBを用いて作成する.その後,文頭の文節から順にその係り先を係り受けマトリックスを用いて非交差条件を守りながらコストの低いものを優先して決定する.したがって係り先の文節はコストが同じなら距離が近いものほど優先することになる.連続する共起関係は,学習で選んだものを除いて最もコストを低くしている.最終的に最小コストの係り受け関係を一つだけ出力する.コストを例えば1から6に設定すると,1は最小コストで6が最大コストになる.後述する学習した共起関係のコストは1とし,連続する共起関係は2,不連続は頻度によって3から5とし,疑わしい共起関係は6とする.データ量が多くなり飽和してくれば頻度の代りに確率を使うことも考えられるが,現状は1文づつの更新で常時頻度が変化しているため確率や頻度計算をすることは避け,連続,不連続だけで選択している.\item[(3)]更新機能および学習機能本方式による係り受け解析は100%の正確さではない.従ってユーザには,失敗に対して,係り先や係り受け関係を修正する機能が提供されている.\ref{data-str}章で述べたように係り受け解析の結果はグラフ表示が出来るためユーザは任意の係り受け関係を画面上で係り元,係り先および関係名を番号で指示することにより修正することができる.係り受け関係を修正すると,縮退型共起関係の4種類の更新機能を聞いてくる.ユーザはいずれかを選択する.具体的には,1)何もしない.2)現在の共起関係自身が間違っている疑いがある.3)修正結果は新規の共起関係としてSTCDBに登録する.および4)学習機能である.2)の場合は直接削除することはやめて,疑問符を付けておき,コストも最大にする.後日,COODB等を用いて適否を検討するようにしている.4)の学習機能は係り先を変更したり,古い係り受け関係を新しい関係で置き換えることによって起動し,古い関係はコストを高めることにより優先度を下げ,当該共起関係の選択を抑止するようにする.同時に新しく指定した共起関係に対しては~図\ref{データ構造}(a)に示した学習フラグをセットして最小のコストを付与する.頻度を高めていく方法もあるが,学習効果を即時に得るためこの方法を採用した.1文の解析が終了するとこの文で指示されたSTCDBに対する上述の共起関係の追加,修正および学習が実行される.以上のステップから,更新機能によってインクリメンタルにSTCDBが拡大していくとともに学習機能によって優先順位が更新され最近の選択結果を優先することが可能になる.同じ構文をこの後に実行すると優先順位に逆転が起こり,正しい係り受け解析が得られる.\begin{figure}[htb]\begin{center}\epsfile{file=fig6.eps,width=137mm,height=90.5mm}\caption{学習の例}\label{学習}\end{center}\end{figure}図\ref{学習}に学習例を示す.構文解析が学習によって適応規則を変更していくため,インタラクティブな環境ではワープロのカナ漢字変換に似た学習効果が得られる.学習・更新効果の評価は別の機会にゆずるが,一般的に述べると本方式の特徴は付属語リテラルのパターンを用いることにある.「ですます調」とか「だ文」とかの文体あるいは「〜ですか」のような会話文独特の表現はいずれも付属語が文体を代表しており効果が現われやすい.\end{itemize}
\section{解析実験と評価}
\label{eval}\subsection{共起データの統計的情報}縮退型の共起関係が係り受け解析にどの程度有効かを調査するために,先ず一つの文章を順に110文だけ解析した.これは本解析エンジンとは別の解析を用いた.1つの文章から順々に文を解析しているから言い回しが似ていて共起関係が重複して出現することが期待できる.110文を10文ずつに分割して解析し,その中に重複して含まれる共起関係を抽出した.その結果を表\ref{10sent}に示す.\begin{table}[htb]\caption{10文毎の共起関係の重複度}\label{10sent}\begin{center}\begin{tabular}{|l|l|l|l|l|l|l|l|l|l|l|l|}\hline&000&010&020&030&040&050&060&070&080&090&100\\文番号&-&-&-&-&-&-&-&-&-&-&-\\&009&019&029&039&049&059&069&079&089&099&109\\\hline共起デ&&&&&&&&&&&\\ータ数&79&89&86&67&78&67&90&79&71&28&69\\\hlineソート&&&&&&&&&&&\\共起デ&76&76&75&60&68&59&81&66&70&16&65\\ータ数&&&&&&&&&&&\\\hline重複数&3&13&11&7&10&8&9&13&1&12&4\\重複率&4\%&15\%&13\%&10\%&13\%&12\%&10\%&16\%&1\%&43\%&6\%\\\hline累積重複&&24&24&28&24&23&24&25&10&20&13\\(重複率)&&27\%&28\%&42\%&31\%&34\%&27\%&32\%&14\%&71\%&19\%\\\hline累積数&79&168&254&321&399&466&556&635&706&734&803\\ソート&76&141&203&242&296&340&406&460&521&529&585\\収縮率&96\%&84\%&80\%&75\%&74\%&72\%&73\%&72\%&74\%&72\%&73\%\\\hline\end{tabular}\end{center}\end{table}共起データ数は文の文節数によって変化するが,これらを累積すると次第にそれ以前に解析した共起関係と重複することが多くなる.10文毎の重複率は10文内限定とそれ以前のものも利用するのとでは平均約2倍に高まっている.重複したものを一つにカウントしたソート共起データ数と重複を別々にカウントした出現個数の比を収縮率と呼ぶと,文数が増大すると収縮の度合が拡大する傾向が出ている.すなわち収縮率が小さいことは,新規の共起関係の出現率が少ないことを示す.文数をさらに3000文にまで増大した例が表\ref{3000sent}である.100文では70%前半であった収縮率は,1000文では50%,3000文では40%前半になった.\begin{table}[htb]\caption{3千文による共起関係の収縮率の変化}\label{3000sent}\begin{center}\begin{tabular}{|c|c|c|c|}\hline&1000文&1000文&1000文\\\hline共起データ数&3467&6900&6453\\ソート数&1878&3241&3335\\収縮率&54\%&47\%&52\%\\\hline累積共起データ数&3467&10367&16820\\累積ソート数&1878&4588&7190\\収縮率&54\%&44\%&43\%\\\hline\end{tabular}\end{center}\end{table}表\ref{freq}はSTCDB中の8413種類の共起関係の頻度別の分布を示したものである.1回しか出現しない共起関係が80%を占めており,これは,まだ共起関係が収束していないことを意味している.この程度ではまだ共起パターンが拡散するのであろう.ちなみに最高出現頻度509回のものから順に上位7つを示すと,「NのNを」(509回),「NをV(連体形)」(291回),「NのNが」(231回),「NのNの」(230回),「NはV.」(223回),「NをV.」(220回),「NのNは」(195回)である.\begin{table}[htb]\caption{頻度別の共起関係の要素数}\label{freq}\begin{center}\begin{tabular}{|r|r||r|r||r|r||r|r||r|r||r|r|}\hline頻度&要素数&頻度&要素数&頻度&要素数&頻度&要素数&頻度&要素数&頻度&要素数\\\hline\hline1&6671&2&805&3&298&4&153&5&93&6&61\\\hline7&52&8&38&9&29&10&22&11&19&12&11\\\hline13&8&14&11&15&7&16&11&17&9&18&11\\\hline19&11&20&6&21&3&22&5&23&4&24&2\\\hline25&1&26&4&27&6&28&2&29&1&30&2\\\hline31&3&32&1&34&1&36&5&38&1&39&4\\\hline40&2&42&3&44&2&46&2&47&1&49&3\\\hline50&2&55&1&56&1&58&1&60&1&62&1\\\hline78&1&82&2&85&1&87&1&89&1&90&1\\\hline91&1&96&1&101&1&102&1&119&1&121&1\\\hline124&1&152&1&195&1&220&1&223&1&230&1\\\hline231&1&291&1&509&1&&&&&合計&8413\\\hline\end{tabular}\end{center}\end{table}\subsection{解析実験}本方式をWS上にインプリメントした.実験で使用したSTCDBのレコード数は上記の共起関係の収集で使用した約4000文から得られた約8000種である.この程度の蓄積では必ずしも日本語の共起関係をカバーしていないことは,~表\ref{3000sent}で示したように収縮率が4割程度であることからも明らかである.つまり6つの文節からなる文では5つの係り受け関係が生じるのであるが,その内2つ程度を新規に追加していく必要が残っていることになる.収縮率を裏返せば成功率は60%以下ということになる.具体的な実験で説明すると,本システムを利用して新たに新聞社説から100文を入力し,係り受け解析を行った.その結果を~表\ref{100sent}及び~表\ref{50sent}に示す.~表\ref{50sent}の50文は,~表\ref{100sent}の100文中で形態素分割が正しく出力されているものに限定して選択した.構文規則が全く白紙の状態から,4000文の共起関係を記憶することにより未登録の係り受けを除けば新聞社説の50文に対して係り受けは成功率79%である.未登録を失敗とすれば59%の成功率になる.\begin{table}[htb]\caption{100文の係り受け解析実験結果}\label{100sent}\begin{center}\begin{tabular}{|c|c|c|}\hline係り受け総数&1文当り平均係受数&未登録共起関係数\\\hline853&8.53&276(32\%)\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htb]\caption{50文に対する係り受け成功率}\label{50sent}\begin{center}\begin{tabular}{|c|c|c||c|c|}\hline係り受け総数&平均文節数&未登録共起関係数&係り受け成功数&係り受け失敗数\\\hline389&8.73&100(26\%)&228(79\%)&61(21\%)\\\hline\end{tabular}\end{center}\end{table}共起関係を大規模に収集すれば,収縮率が漸近的に小さくなっていくことは上記のデータからも予想できるが,収縮率が10%を切る(すなわち成功率が90%を超える)にはどの程度の共起関係を収集すればよいかは現時点のデータでは不十分である.成功率は文の長さにも依存する.5文節程度の短い文に限れば成功率を90%以上にすることは不可能ではない.上記の実験データは,一般文章の係り受けを解析した場合であった.もし解析範囲をデータベースのフロントエンドや質問応答システム等の自然言語インタフェースあるいは天気予報といった特定分野に限定すると,文節数は少なくなり,使用するパターンも制限されたものが使われるものと思われ,本方式の特徴である規則作成の容易性及びインタラクティブな学習更新機能が即効的に作用することが期待できる.例えば天気予報文でよく出現する「Na(日中)はNb(南)のNc(風)で,」や「Na(明日)はNb(冬型)のNc(気圧配置)で,」といった表現では「Naは〜>Ncで,」の係り受け規則が適用できる.ところが一般の文章では「Na(最近)はNb(計算機)のNc(おかげ)で,」や「Na(大統領)はNb(ボストン)のNc(ホテル)で,」のように「Naは〜>Ncで,」の係り受け規則を適用できないものもある.係り受けの曖昧性の解消が分野を限定すればどの程度の効果を持つかは今後実験を重ねて行く必要がある.\subsection{課題}評価実験の解析失敗事例からいくつかの課題が出てきた.以下それらを列挙する.共通事項として,品詞を細分類することや意味情報を用いることが課題解決に必要である.\begin{itemize}\item[(1)]品詞の見直し「この」「あの」と「小さな」は品詞としてはどちらも連体詞であるが,次のように異なる構文役割を持っている.これは品詞体系の課題である.「身体(が|の)=>小さな人」は良いが,「N(が|の)=>(この|あの)」は成立しない.「一番=>大きな」は良いが,「ADV=>(この|あの)」は成立しない.\item[(2)]「NをNに」型「産業を中心に」,「技術等を対象に」,「今春を目標に」等がこのタイプになるが,受け側の語彙をサブの品詞カテゴリによって何らかの形でグループ化することが必要である.\item[(3)]並列句並列句は構文情報だけでは解釈困難であるから本方式の限界でもある.\hspace*{-1mm}「私は新聞\underline{と}本\underline{を}読む.」\hspace*{-2mm}と\hspace*{-1mm}「私は弟\underline{と}本\underline{を}読む.」\hspace*{-2mm}の区別には意味情報が必要となる.並列構造の解析を\cite{nagao1994}のように形態素解析と係り受け解析の間に挟むのが妥当であろう.\item[(4)]省略(文脈)「私は(t)赤いのがよい.」(t)には文脈によって「服は」,「車は」,「ワインは」などが入る.これは一文だけでは「本は面白いのがよい.」のと品詞レベルでは区別不可能で,係り受けが曖昧になる.これも意味情報あるいは品詞細分類が必要である.\end{itemize}
\section{むすび}
2文節間の係り受け解析において,共起関係を実際のテキストから抽出し,頻度情報を付与したり,学習機能を利用すれば,構文解析規則に代わる言語リソースに成り得ることを示した.これは規則駆動による解析から事例駆動,データ駆動による解析への一つの例になる.共起関係は見方を変えれば,文脈自由文法になるが,共起関係は文法規則と言うよりはどちらかといえば共起辞書に近い.その理由は,形式が単純であり個数が10万や百万のオーダになるからである.現在,8500程度の共起関係で解析システムが動作しているが,これほど単純な規則を用いて一定水準の動作確認が出来たことは自然言語インタフェース等への応用の可能性を示唆している.また,法律,経済,医学等の個別分野における共起関係の分布パターンを特徴抽出することも興味ある研究課題である.解析性能の向上には,本論文で述べた原理的な方法以外に,AfBfCf等の3文節以上の多文節間の係り受け関係の導入,並列句を含めた係り受けの曖昧性解消策として従来から研究が進んでいる意味情報の利用,afbf,Afbf等の自立語も含めた文節リテラルによる例外規則としての付与,規則利用による冗長な付属語列を持つ共起関係のコンパクト化など様々な付加手続きを利用して,データ収集と性能評価を行う必要がある.縮退型共起関係を用いた構文解析が実際の自然言語処理の場で使用されるようにするには,たとえばタスクを限定して共起関係の登録数を増大させ新規の縮退型共起関係の登録回数を減らすことが第一の目標になる.もちろん量の増大に伴う副作用も検討していかなければならない.係り受け解析が,2項関係あるいはチョムスキ標準形のような単純なデータ構造を基本として,そのデータ上でのいくつかの条件付与で可能であるとすると,係り受け解析が複雑で抽象的な句構造規則を指向したものではなく,語彙辞書と単純なパターンである縮退型共起関係といったデータ指向の延長線上でかつ推論規則よりも単純なパターンマッチングによって実現可能になることが期待できることから本方式は人間の言語習得に関する研究においても検討材料を提供する可能性があるものと考えられる.\bibliographystyle{jnlpbbl}\bibliography{coop}\begin{biography}\biotitle{略歴}\bioauthor{安原宏}{1969年京都大学理学部卒業.1972年同大学院修士課程修了.同年,沖電気工業株式会社入社.1982年〜1992年第五世代コンピュータプロジェクトに従事.1986年〜1995年(株)日本電子化辞書研究所.1987年〜1995年(財)国際情報化協力センター機械翻訳システム研究所.1996年〜(財)イメージ情報科学研究所勤務.自然言語処理、概念をベースとした情報処理に興味を持っている.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V26N02-08 | \section{本研究の位置付け}
\label{sec:introduction}述語項構造解析は,様々な自然言語処理アプリケーションの土台となる技術である.本研究が対象とする日本語のような談話指向言語では,文から項が省略されることが多い\cite{kayama2013}.これらの省略された項は,ゼロ代名詞とみなされる.項は述語との係り受け関係があるか否かにより,係り受け関係有りかゼロ照応かに分けられる.ゼロ照応は,項がテキスト中に現れるか否かにより,文脈照応か,外界照応かに分けられる.文脈照応は,項が述語と同一文内に出現するか否かにより,文内照応か,文間照応に更に分けられる.\vspace{0.5\Cvs}{\small例1.1)\メールを\書いて$_{v_1}$\送ったよ$_{v_2}$.\quad読んでね$_{v_3}$.}\vspace{0.5\Cvs}例えば,例~(1.1)は,3つの述語($v_1$,$v_2$,$v_3$)と1つの明示的な項候補(メール)を含んだテキストである.例~(1.1)を述語項構造解析した結果は表~\ref{tab:pasa-result}のようになる.ここで,角括弧で囲まれた要素は外界照応,丸括弧は文内照応,二重丸括弧は文間照応である.$v_1$のヲ格の項である「メール」は,格標識「を」によって明示的に示されており,$v_1$との係り受け関係を持っている.このような名詞は,括弧をつけないで示している.また,ラベル\noneは,述語がその格に対して,項を取らないことを示している.\begin{table}[b]\caption{例(1.1)の述語項構造解析結果}\label{tab:pasa-result}\input{08table01.tex}\end{table}日本語述語項構造解析は,意味役割付与\cite{Zhou-End-2015,He-Deep-2017}タスクと類似しているが,ゼロ代名詞の照応解析と,表~\ref{tab:pasa-result}において角括弧で示されている外界照応の同定まで行う点において異なる.日本語述語項構造解析は,単語が省略されうるという点において,中国語やトルコ語,またロマンス語であるスペイン語,ポルトガル語のようなnull-subject言語におけるゼロ照応解析と類似している\cite{Iida-A-2011,Rello-Elliphant-2012,Chen-Chinese-2016,Yin-Chinese-2017}.過去の日本語述語項構造解析の研究では,形態素及び,構文解析から得られた様々な特徴を利用している\cite{Matsubayashi-Revisiting-2017,Hayashibe-Japanese-2011,Imamura-Predicate-2014,Shibata-Neural-2016,Ouchi-Joint-2015,Yoshikawa-Jointly-2013,Taira-A-2008}.近年のアプローチでは,中間解析を必要としないend-to-endの手法による解析もある\cite{Ouchi-Neural-2017,Matsubayashi-Distance-2018}.本論文は,日本語の文内述語項構造解析を対象とし,以下の2つの貢献をした.第一に,文内述語項構造解析において,外界照応の一部を取り入れるように問題を整理した点である.そのために,本研究では,外界照応を3つのサブカテゴリ,つまり,書き手である外界一人称(\exow),読み手である外界二人称(\exor),その他の外界三人称\footnote{今回使用したコーパスでは「外界一般」とされているが,本論文では,外界一人称,外界二人称と対比させ,外界三人称と呼ぶこととする.}(\exox)に分類する.日本語のような談話指向言語では,2者間で行われる会話の際,外界一人称,外界二人称が省略されることが多い.そのため,文内述語項構造解析においても外界一人称,外界二人称まで解析することは必要であると我々は考えている.例~(1.2)は,サブカテゴリ化の必要性を示している.\vspace{0.5\Cvs}{\small例1.2)\サンドイッチ\食べる$_{v}$}{\small\phantom{例1.2)}\(私は)サンドイッチを食べる./(あなたは)サンドイッチを食べる?}\vspace{0.5\Cvs}外界照応の書き手(\exow)と読み手(\exor)の両方が,動詞「食べる」の項候補であり,どちらを取るかにより文の意味が変わってくる.これら,2つの意味を区別するために外界照応のサブカテゴリ化が必要である.第二に,日本語述語項構造解析に分野適応の技術を導入する.\citeA{Surdeanu-The-2008}と,\citeA{Hajic-The-2009}は訓練データとテストデータの分野(メディア)が異なると,意味役割付与の性能が低下することを報告している.\citeA{Yang-Domain-2015}は,深層学習手法に分野適応を導入することでこの問題に対して取り組んだ.\citeA{Imamura-Predicate-2014}を除いて,日本語述語項構造解析の過去の研究のほとんどが,新聞記事という単一の種類のテキストのみを対象としていたため,分野依存性は問題ではなかった.対話文を解析するために\citeA{Imamura-Predicate-2014}は新聞記事を使って述語項構造解析器を訓練している.また,\citeA{Taira-Business-2014}は,ビジネスメール文を解析するために,新聞記事を使って述語項構造解析器を訓練している.その結果,係り受け関係にある述語項や,同一文内にある述語項の場合は,学習済みモデルを比較的流用できる可能性があるが,外界照応については訓練データが足りず解析精度が低いためモデルを作り直す必要があることを述べている.しかし,その他の種類のメディアのテキストについて,述語項構造解析を行った研究はこれまで行われていない.我々は様々な種類のメディアのテキストを日本語述語項構造解析の対象とするために,現代日本語書き言葉均衡コーパス(BCCWJ)\footnote{http://pj.ninjal.ac.jp/corpus\_center/bccwj/en/}\cite{Maekawa-2014aa}を使用した.BCCWJには,紙媒体として,新聞記事,書籍,雑誌,白書といったメディアのテキスト,電子媒体として,インターネット上のQAテキスト,ブログテキストといった様々な種類のメディアから集められたテキストを含んでいる.我々は,約200万の単語から構成され,共参照と述語項関係が注釈付けされたBCCWJのコアデータセット(BCCWJ-PAS)を使用した.次章で詳述するが,外界照応の出現分布はメディアによって大きく異なるため,そのテキストのソースメディアを考慮する必要がある.本研究では,リカレントニューラルネットワーク(RecurrentNeuralNetwork:RNN)ベースのベースモデルから始め,以下の5種類の分野適応手法を導入し,各手法の有効性を評価\linebreakする.\begin{enumerate}\itemFine-tuning({\ttFT})手法では,まず,訓練データ全体を用いてモデルを学習させる.学習されたパラメータを初期値とし,ターゲット領域のメディアの訓練データを用いて第2段階の学習を行う.\itemFeatureaugmentation({\ttFA})手法では,全体で共有されるネットワークと分野固有のネットワークを同時に訓練する\cite{Kim-Frustratingly-2016}.分野共通の知識は共有のネットワークで,分野固有の知識は分野固有のネットワークで学習されることを期待している.\itemClassprobabilityshift({\ttCPS})手法では,項の種類毎に,項の出現確率の事前分布が分野によって異なることを考慮し,ネットワークが出力する確率にバイアスをかける.\itemVoting({\ttVOT})手法では,上記3つの手法による多数決をとり,出力を決定する.\itemMixture({\ttMIX})手法では,上記(1)から(3)の3つの手法を単一のネットワークに組み合わせる.\end{enumerate}各手法の詳細は,\ref{sec:domain-adaptation}節にて説明する.\subsection{本論文の構成}本論文は次のように構成されている.第~\ref{sec:problem-setting}章では,日本語述語項構造解析における既存研究と本研究の位置付け,コーパスを分析して得られた述語項構造解析の分野依存性について述べる.第~\ref{sec:deep-reccurent-model}章では,本研究において使用するリカレントニューラルネットワークベースのモデルについて詳述する.第~\ref{sec:domain-adaptation}章では,第~\ref{sec:deep-reccurent-model}章で提案したベースラインモデルに対して導入する5種の分野適応手法について詳述する.第~\ref{sec:experiment}章では第~\ref{sec:deep-reccurent-model}章,及び,第~\ref{sec:domain-adaptation}章で説明したベースラインと分野適応を行ったモデルに対しての評価実験結果とその考察を述べる.第~\ref{sec:conclusion}章では,評価実験・考察を踏まえ,今後の方向性を示し結論とする.
\section{述語項構造解析}
\label{sec:problem-setting}本稿では,文内述語項構造解析を対象とする.ただし,外界一人称,外界二人称を文内にある仮想的な項として扱い,一般的な文内照応に加えてこれらの一部の外界照応も解析対象とする.過去の述語項構造解析の関連研究,及び,その関連研究が対象としてきた項種別について,概説する.\begin{table}[b]\caption{先行研究が対象としている項種別}\label{tab:comparison}\input{08table02.tex}\end{table}\subsection{関連研究}日本語述語項構造解析に関する先行研究では様々な種類の項(項種別)を対象としてきた.表~\ref{tab:comparison}は,先行研究が解析の対象としている項を項種別にまとめたものである.表の列は,言語学的観点から項の種類を分類している.項は述語との係り受け関係があるか否かにより,係り受け関係有り({\dom{intra(dep)}})かゼロ照応かに分けられる.ゼロ照応は,項がテキスト中に現れるか否かにより,文脈照応か,外界照応かに分けられる.文脈照応は,項が述語と同一文内に出現するか否かにより,文内照応({\dom{intra(zero)}})か,文間照応({\dom{inter}})に更に分けられる.{\dom{intra(dep)}}と,{\dom{intra(zero)}}はどちらも項が述語と同一文内に出現する.外界照応には,様々な分け方が存在する.NAISTTextCorpus1.5~{\cite{Iida-Naist-2007}}と,それに基づいた{\citeA{Imamura-Predicate-2014}}では,外界照応を外界一人称(\exow),外界二人称(\exor),その他の外界照応(\exox)の3種類に分類している.また,{\fullciteA{Hangyo-Japanese-2013}}は,外界照応をauthor(外界一人称と同じ),reader(外界二人称と同じ),US:person(外界の人),US:matter(外界のコト),US:situation(外界の状況)の5つに分類している.ラベル\noneは,述語がその格に対して,項を取らないことを示す.例えば,自動詞はヲ格をとらない.したがって自動詞のヲ格は\noneとなる.\citeA{Taira-A-2008},\fullciteA{Imamura-Discriminative-2009},\citeA{Sasano-A-2011},\citeA{Hayashibe-Japanese-2011}は,外界照応と,\noneを区別していない.これらは,表~\ref{tab:comparison}では,$\triangle$として示している.\subsection{本研究の問題設定}本論文では解析対象のコーパスであるBCCWJ-PASに習い,外界照応を3つのサブカテゴリ,書き手を示す外界一人称(\exow),読み手を示す外界二人称(\exor),及びその他の外界三人称(\exox)に分けた.ただし,外界一人称(\exow),外界二人称(\exor)はともに単数のみを扱う.以下では,項種別を示すために表{~\ref{tab:comparison}}に示すラベルを使用する.表~\ref{tab:comparison}から,文間照応よりも,文内照応が盛んに研究されていることがわかる.文間照応の解析は,文内照応と比較して,より広い空間を探索することが必要になるため,より困難な問題といえる.外界照応\exowと\exorの項の解析は,文間照応と異なり,探索空間を大幅に増加させない.次節で詳述するとおり,様々なメディアのテキストに対して,文内述語項構造解析をする際,書き手である\exow,読み手である\exorまで含めて解析することは重要である.本研究では,文内述語項構造解析に加え,外界一人称,外界二人称を解析対象とする.\exoxと\dom{inter}は,解析対象の述語は,実際に項を取るが,文内には項が現れていないという点において同じであるため,文内述語項構造解析で解析器が\exoxと\dom{inter}を区別することはできない.そのため,今回は\unknownというラベルを付け,一纏めにして扱った.これが我々の研究で,\exoxが$\triangle$となっている理由である.まとめると,本研究では,\dom{intra(dep)},\dom{intra(zero)},\exow,\exor,\none,そして\exoxと\dom{inter}をまとめた\unknownを扱う.解析の対象とする述語は,BCCWJ-PASにおいて,述語と示されているもののうち,動詞と,事態性名詞とする.\subsection{項種別毎の分布による分野依存性}日本語述語項構造解析に関する先行研究では,単一「メディア」のテキストを扱っており,その多くは新聞記事からなるNAISTTextCorpus1.5を使用していた.本研究の提案手法の評価にはBCCWJ-PASを用い,BCCWJ-PASにより定義されているQAテキスト(Yahoo!知恵袋),ブログテキスト(Yahoo!ブログ),白書,書籍,雑誌,新聞の6種のメディアを用いた.メディアによりテキストの特性が異なる可能性があるため,述語項構造解析の性能はメディアの特性の影響を受ける可能性がある.本研究の目的の1つは,メディア固有の特性を考慮するために分野適応の技術を導入し,それが日本語述語項構造解析に有効であることを確認することである.表~\ref{tab:sentence-length}は,BCCWJ-PASで定義されている各メディアのテキストの平均文長を示したものである.インターネットコンテンツであるQAとブログのテキストは,他のテキストに比べ短い傾向がある.文の長さは,文内述語項構造解析において,項の候補数や,述語と項の距離に影響する.\begin{table}[t]\caption{BCCWJ-PASにおける各メディアのテキストの平均文長(形態素数)}\label{tab:sentence-length}\input{08table03.tex}\end{table}\begin{table}[t]\caption{BCCWJ-PASにおけるメディア毎の,格毎の項種別の出現分布(\%)}\label{tab:across-media}\input{08table04.tex}\end{table}表~\ref{tab:across-media}は,6つのメディアに対して格毎に項種別毎の分布の割合を示したものである.白書は,他のメディアとは異なり,いずれの格も文内ゼロ照応よりも文間ゼロ照応のほうが明らかに少ない.これは,文内に照応先の項が明示されているケースが多いためであると考えられる.これは,表~{\ref{tab:sentence-length}}の白書の平均文長が長くなっていることからも示唆される.ガ格の\exowと\exorの外界照応の分布(影付きの行)は,メディア全体を通して顕著に異なっている.QAの\exowと\exorは他のメディアと比較して,かなり高い数値を示している.これは,QAは,対話掲示板形式のQAテキストであるため,質問者や回答者としての書き手(\exow)と読み手(\exor)がテキスト中で明示的に言及されないためである.ブログも\exowと\exorが高い数値となっているが,これは,QAとは異なり,ブログテキストは,ブログ著者としての書き手(\exow)が話題の中心となることが多いためであると考えられる.白書は,他のメディアとは異なり,外界三人称(\exox)の出現頻度が高い.これは,白書という性質上,組織・集団・団体に対して言及した記述が多く,逆に書き手(\exow)や読み手(\exor)を意識した記述は少ないためであると考えられる.また,白書のヲ格も他のメディアとは異なる分布となっている.白書のテキストを見たところ,白書特有の事態性名詞(開発,活用,利用,報告など)が繰り返し多様されており,これらはヲ格を取るため,\noneは少なくなり,その分{\textsf{intra(dep)}}が多くなっている.出版物(書籍,雑誌,新聞)は,社会的に関心が高く,客観性のある話題が中心となり,テキスト中に情報が欠損してないことが求められるため,外界照応が出現することは少ない.出版物の中では,雑誌の書き手(\exow)と読み手(\exor)の出現頻度が比較的高い.これは,今回対象とした出版物の中では,雑誌が最も著者,読者を意識した記述が多いためであると考えられる.
\section{深層リカレントモデル}
\label{sec:deep-reccurent-model}我々は,以下の3つの層からなるリカレントニューラルネットワーク(RNN)モデルを用いて,日本語述語項構造解析を実現する.\begin{description}\item[入力層]単語を特徴ベクトルに変換する.\item[隠れ層]bi-directionalRNN層と全結合層.\item[出力層]ソフトマックス関数により,2値分類を行う.\end{description}我々のモデルは,1文を入力とし,文内の述語ごとに解析を行う.文内の解析対象の述語に対する項になりやすさを表す尤度を,入力文の各単語それぞれについて算出する.そして,全単語を比較して最尤単語を項として選択する.本研究では,過去の日本語述語項構造解析に習い,主要な3つの格であるガ格,ヲ格,ニ格を解析対象とするため,格ごとに3つのモデルを使用する.3つのモデルはそれぞれ独立なので,同一の単語が複数の格の項と解析される場合があるが,その場合の対処については何も行っていない.これは,今回使用したBCCWJ-PASコーパスでは,項が含まれている文節の主辞に項のアノテーションが付与されているため,同一の単語が,複数の格の項としてアノテーションされていることがあるためである.1文には複数の述語が含まれる場合があるが,その場合は,素性として入力する解析対象の述語の位置を変えた同一文を複数回入力することで,それぞれの述語について解析を行う.\subsection{モデルの概要}我々のモデルは,各単語にバイナリラベルを出力する.その単語がターゲットの述語に対する解析対象の格の項であるか否かを示すため,それぞれの格に対して別々にモデルを用意する必要がある.図\ref{image2}に,モデルの概要を示す.これは,次のように形式的に表せる.\begin{align}\bm{\overline{x}}&=\bm{w}_{a}\oplus\bm{w}_{f}\oplus\bm{b}_{f}\\\bm{h}^1&=\bilstm(\bm{\overline{x}})\\\bm{h}^2&=\linear(\bm{h}^{1})\\p&=\softmax(\bm{h}^{2})\end{align}\begin{figure}[t]\begin{center}\includegraphics{26-2ia8f1.eps}\end{center}\caption{日本語述語項構造解析のための深層リカレントモデル}\label{image2}\end{figure}我々のモデルは,1文ずつ入力文を受け取る.モデルは,入力文中の単語$\{w_t\}_{0}^T$を,対応する単語の特徴ベクトル$\{{\bm{\overline{x}}}_t\}_0^T$に変換する.単語の特徴ベクトル$\bm{\overline{x}}$は,単語埋め込みベクトル$\bm{w}_{a}$,品詞埋め込みベクトル$\bm{w}_{f}$,及び,構文的特徴ベクトル$\bm{b}_{f}$を連結したベクトルとして表現される.特徴ベクトル$\bm{\overline{x}}$は,1層以上の双方向型のLongshort-termmemoryrecurrentneuralnetwork(BiLSTM)に入力される\cite{Schuster-Bidirectional-1997,Graves-Bidirectional-2005}.そして,$\bilstm(\cdot)$は,各単語に対して,ベクトル$\bm{h}^{1}$を計算し出力する.$\linear(\cdot)$関数は,$\bm{h}^{1}$を受け取り,$\bm{h}^{2}=(h^2_{0},h^2_{1})$を出力する.{$h^2_0$}は単語が述語の項となる程度を表わす値であり,{$h^2_1$}は単語が述語の項にならない程度を表わす値である.最後に$\softmax(\cdot)$関数は,$\bm{h}^2$を受け取り確率$p$を出力する.\paragraph{仮想項}本研究のモデルでは,\none,\exow,\exor,そして\unknownという4つのラベルを出力するために,文の先頭の単語の前にそれらを示す仮想項を追加した.これらの仮想項を以下のように割り当てる.\begin{description}\item[\none]\noneに対してはゼロベクトルを割り当てる.\item[\exow]「僕」の単語ベクトルを割り当てる.これは,日本語で一般的な一人称代名詞の一つである.\item[\exor]「おまえ」の単語ベクトルを割り当てる.これは,日本語で一般的な二人称代名詞の一つである.\item[\unknown]「これ」の単語ベクトルを割り当てる.これは,日本語で一般的な三人称代名詞の一つである.\end{description}日本語には一般的な一人称代名詞,二人称代名詞が複数存在する.今回使用した単語埋め込みベクトルは,その性質上,一人称代名詞と二人称代名詞のコサイン類似度が高く,「私」と「あなた」のコサイン類似度は,それぞれ語彙集合の中で最も高い.そのため,「私」と「あなた」を\exow,\exorの仮想項として採用してしまうと,\exowと\exorをうまく区別できない可能性がある.「僕」は一般的な一人称代名詞の中心に近く,また,二人称代名詞からは比較的遠い.「おまえ」も同様に,一般的な二人称代名詞の中心に近く,また,一人称代名詞からは比較的遠い.そのため,今回は,仮想項の\exow,\exorにそれぞれ「僕」,「おまえ」を採用する.\subsection{入力層}単語埋め込み,品詞埋め込み,および構文的特徴の3つの特徴を定義する.\paragraph{単語埋め込み}我々は,\citeA{Suzuki-Neural-2016}\footnote{JapaneseWikipediaEntityVectorhttp://www.cl.ecei.tohoku.ac.jp/{\textasciitilde}m-suzuki/jawiki\_vector/}によって日本語Wikipediaから作成された単語埋め込みを使用する.今回使用した単語埋め込みの語彙サイズ(形態素数)が{$1,015,474$},今回使用した述語項構造のアノテーションがされた現代日本語書き言葉均衡コーパス(BCCWJ-PAS)に対しての未知語の割合は{$4.69\%$}であった.未知語はいずれも同一のUNKとして扱い,UNKにはランダムに初期化したベクトルをセットした.\paragraph{品詞埋め込み}各単語には,CaboCha\footnote{CaboCha/南瓜:YetAnotherJapaneseDependencyStructureAnalyzerhttp://taku910.github.io/cabocha/}と同じ品詞タグが人手で付与されている.本研究では,品詞埋め込みとして,単語の品詞タグ,及び,3種類の品詞細分類タグ,活用型,活用形の6種類のタグそれぞれに対して,5次元のランダムベクトルを割り当てる.したがって品詞埋め込みは,6層のベクトルを連結することによって作る30次元のベクトルによって表す.欠落している層は,ゼロベクトルで埋める.\paragraph{構文的特徴}構文的特徴ベクトルには,以下の4種類の特徴が含まれている.\begin{enumerate}\itemコーパスに注釈付けられている文節に基づく単語が各文節において主辞か否かを示す二値ベクトル.\itemコーパスに注釈付けられている文節に基づく文頭からの文節距離を示す整数値の特徴ベクトル(入力文の最初の文節の単語は,この値がゼロとなる).\item解析されるターゲットの述語からの距離を示す整数値の特徴ベクトル.\itemその単語が解析対象の述語であるか否かを示す二値ベクトル\end{enumerate}\subsection{隠れ層}隠れ層では,各時刻$t$に,特徴ベクトル${\bm{\overline{x}}}_t$と${\bmh}_{t-1}^{f}$を前向き$\lstm$($\lstm^{f}$)に入力し${\bmh}_{t}^{f}$を計算する.逆に,各時刻$t$に,特徴ベクトル${\bm{\overline{x}}}_t$と${\bmh}_{t+1}^{b}$を後ろ向き$\lstm$($\lstm^{b}$)に入力し${\bmh}_{t}^{b}$を計算する.$\bilstm$は,各時刻$t$で${\bmh}_{t}^{f}$と${\bmh}_{t}^{b}$を連結し,${\bmh}_{t}^{1}$を出力する.\begin{align}{\bmh}_{t}^{1}&=\bilstm({\bm{\overline{x}}}_t)\nonumber\\&=\mathop{\rmLSTM^{\itf}}({\bm{\overline{x}}}_t,{\bmh}_{t-1}^f)\oplus\mathop{\rmLSTM^{\itb}}({\bm{\overline{x}}}_t,{\bmh}_{t+1}^b)\end{align}{\citeA{Matsubayashi-Distance-2018}}は,任意の{$k$}層の双方向型の{$\gru$}({$\bigru$})を用いている.本モデルもこれに習い,{$\bilstm$}には,任意の{$k$}層の{$\bilstm$}を利用する.次に,2次元ベクトル${\bmh}_{t}^{2}$を得るために,$\linear(\cdot)$関数に${\bmh}_{t}^{1}$を入力する.\begin{equation}{\bmh}_t^2=\linear({\bmh}_t^1)\end{equation}\subsection{出力層}出力層では,単語が対象とする述語の項であるか否かを判断する.$\softmax(\cdot)$関数は,2次元ベクトル${\bmh}_t^2$を単語がどの程度対象とする述語の項としてふさわしいかを示す確率値に変換する.\begin{equation}p_t=\softmax({\bmh}_t^2)\end{equation}$p_t$は時刻$t$の単語が項である確率を示す.我々のモデルは,最も高い確率$p_y$を持つ単語を項として選択する.\begin{equation}y=\argmax_{0\leqt\leqT}(p_t)\end{equation}
\section{分野適応}
\label{sec:domain-adaptation}\subsection{ベースライン}分野適応に対するベースラインには,以下の5つのベースラインモデルを用意した.\begin{enumerate}\item{\ttEach-D}モデルは,単一のメディアのみのデータを使い訓練したモデルである.\item{\ttAll}モデルは,すべてのメディアのデータを使って訓練したモデルである.\item{\ttSmall}モデルは,各メディアの訓練データを75\%に減らし,訓練データのデータサイズを小さくしたモデルである.\item{\ttOut-D}モデルは,アウトドメインのデータのみを使い訓練したモデルである.\item{\ttOne-H}モデルは,すべてのメディアを使って訓練したモデルであるが,{\ttAll}モデルとの違いとして,各メディアを示すための6次元のone-hotベクトルが入力層に追加されている.このモデルは,分野適応のベースラインとして用いる.\end{enumerate}これらのベースラインモデルに対して,以下の5種類の分野適応手法を使ったモデルを用意した.\subsection{Fine-tuning({\ttFT})}1つ目の手法は再学習を行う手法である.すべてのメディアのデータを使ってモデルを訓練し,{\ttAll}モデルを構築する.次に,初期パラメータを{\tt\smallAll}モデルのパラメータにし,ターゲットのメディアのデータのみを使って,訓練することで,各メディアに特化したモデルを構築する.\subsection{Featureaugmentation({\ttFA})}2番目の手法は,すべてのメディアで共通するネットワーク$\bilstm^{c}$に加え,各メディア$m$に対して固有の$\bilstm^{m}$を用意する手法であ~る\cite{Kim-Frustratingly-2016}.このモデルの概要は以下のようになる.\begin{align}{\bm{\overline{x}}}&={\bmw}_a\oplus{\bmw}_f\oplus{\bmb}_f\\{\bmh}^1&=\mathop{\rmBiLSTM^{\itm}}({\bm{\overline{x}}})\oplus\mathop{\rmBiLSTM^{\itc}}({\bm{\overline{x}}})\\{\bmh}^2&=\mathop{\rmlinear^{\itm}}({\bmh}^1)\\p&=\softmax({\bmh}^2)\end{align}メディア毎に固有の$\bilstm^m$は,そのメディアが固有に持っている特性を学習し,共通の$\bilstm^c$は述語項構造解析の一般的な特性を学習することを狙っている.すべてのメディアから無作為に選択したバッチ毎にこのモデルを訓練する.\subsection{Classprobabilityshift({\ttCPS})}3つ目の手法は,各格について,メディア毎の項種別毎の出現分布の違いを反映させる.第~{\ref{sec:problem-setting}}章の表~{\ref{tab:across-media}}から,メディア毎の項種別毎に出現分布に違いがあることが分かった.そこで,モデルの出力に対して,項の種類毎に解析対象のメディアに応じた出現分布で重み付けを行うことで,出現分布の違いを反映させる.訓練データ中で,あるメディア$m$において,解析対象の格として,項種別$tp$が出現する確率を$p_{tp}^{m}$とする.項種別の分布は解析対象のメディアによって異なるため,この分布の差を以下のように利用し,重み付けする.重み付けには,まず,各メディア$m$に対して,2つの関数$f^m(h)$と$g^m(h)$を次のように定義する.\begin{align}f^m(h)&=\frac{p_{tp}^{m}}{p_{tp}^{\rm{All}}}\cdoth\\g^m(h)&=(1-\frac{p_{tp}^{m}}{p_{tp}^{\rm{All}}})\cdoth\end{align}$tp$は,\none,\exow,\exor,\unknown,\dom{intra}のいずれかとなる.ただし,\dom{intra}ラベルは,文内照応の係り受け有り(\dom{intra(dep)})と文内ゼロ照応(\dom{intra(zero)})の両方を含む.2次元ベクトル{${\bmh}^2=(h^2_{0},h^2_{1})$}の{$h^2_0$}は単語が述語の項となる程度を表わす値であり,{$h^2_1$}は単語が述語の項とならない程度を表わす値である.\begin{align}{\bm{\overline{x}}}&={\bmw}_a\oplus{\bmw}_f\oplus{\bmb}_f\\{\bmh}^1&=\bilstm({\bm{\overline{x}}})\\{\bmh}^2&=\linear({\bmh}^1)\\{\bmh}^3&=(f^m(h^2_0),g^m(h^2_1))\label{eq:shift}\\p&=\softmax(\mbox{\boldmath{$h^3$}})\end{align}式~(\ref{eq:shift})は,メディア間の項種別の分布を調整することで,出力を重みづけする.\subsection{Voting({\ttVOT})}~この手法は,上記3つの手法の出力の多数決を取る.もし,3つの手法の出力がすべて異なる場合は,最も確率の高い出力を採用する.\subsection{Mixture({\ttMIX})}最後の手法は,上記3つのFine-tuning,Featureaugmentation,Classprobabilityshiftを1つのモデルとして組み合わせたものである.モデルのネットワークは以下の式のようにFeatureaugmentation,Classprobabilityshiftを1つに組み合わせる.\begin{align}{\bm{\overline{x}}}&={\bmw}_a\oplus{\bmw}_f\oplus{\bmb}_f\\{\bmh}^1&=\mathop{\rmBiLSTM^{\itm}}({\bm{\overline{x}}})\oplus\mathop{\rmBiLSTM^{\itc}}({\bm{\overline{x}}})\\{\bmh}^2&=\mathop{\rmlinear^{\itm}}({\bmh}^1)\\{\bmh}^3&=(f^m(h^2_0),g^m(h^2_1))\\p&=\softmax(\mbox{\boldmath{$h^3$}})\end{align}このネットワークを使って,Fine-tuningと同じように,すべてのメディアのデータを使ってモデルを訓練し,次に,ターゲットのメディアのデータのみを使って,訓練する.
\section{実験}
\label{sec:experiment}\subsection{実験設定}現代日本語書き言葉均衡コーパスの述語項構造がアノテーションされたコアデータ・セット(BCCWJ-PAS)を使い評価を行う.評価値として,システムが出力した項の位置がBCCWJ-PASで正解の項を表現している位置と一致すれば正解とし,しなければ不正解とする.ただし,共参照関係がある項については,いずれの項を出力しても正解とする.各メディア毎にデータを訓練用に$70\%$,開発用に$10\%$,テスト用に$20\%$に分け使用した.各モデルを最大10エポック訓練し,開発用データにおいて最もF1値が高いモデルを使用した.\paragraph{ハイパーパラメータ}単語埋め込みと品詞埋め込みの次元数は,それぞれ$200$と$30$,各ハイパーパラメータは,ベースラインの1つである{\ttAll}モデルに対して,開発データでのF1値の全メディアの平均値が最大となるように値を定め,それをすべてのモデルで使用した.多層{$\bilstm$}の層の深さ{$k$}に{$\{1,2,3\}$}から{$3$}を,{$\bilstm$}のドロップアウト率に{$\{0.0,0.1,0.2,0.3\}$}から{$0.2$}を,学習時のバッチサイズに{$\{16,32,64\}$}から{$64$}とした.本研究のモデルは,weightdecayは{$0$}とし,Adam~{\cite{Kingma-Adam-2014}}を使い,{$\alpha$}には,{$\{0.01,0.001,0.0001,0.00001\}$}から{$0.001$},{$\beta=0.9$}として最適化する.Fine-tuningについては,weightdecayのみ$0.0001$とした.\begin{table}[b]\caption{ガ格のベースライン実験結果(F1値)}\label{tb:NOM-base-f1}\input{08table05.tex}\end{table}\subsection{ベースライン実験結果}表~\ref{tb:NOM-base-f1},表~\ref{tb:ACC-base-f1},表~\ref{tb:DAT-base-f1}は,それぞれガ格,ヲ格,ニ格の各ベースラインモデルの実験結果を示している.それぞれ,行見出しがターゲットのメディアを,列見出しが各モデルを示している.また行見出しの隣にテストデータの項数(テスト項数)を,列見出しの下に訓練データの項数(訓練項数)を示している.セルの各スコアはテストデータに対するF1値である.なお,{\tt\smallSmall},{\tt\smallOut-D},{\tt\smallOne-H}モデルは,{\tt\smallAll}モデルに対してMcNemar検定を行い得られたP値の有意水準が{$0.05$}以下の場合{$\dagger$}を,{$0.01$}以下の場合{$\ddagger$}を,それぞれ右肩に示している.\begin{table}[t]\caption{ヲ格のベースライン実験結果(F1値)}\label{tb:ACC-base-f1}\input{08table06.tex}\end{table}\begin{table}[t]\caption{ニ格のベースライン実験結果(F1値)}\label{tb:DAT-base-f1}\input{08table07.tex}\end{table}{\tt\smallEach-D}モデルは,訓練データのメディアが解析対象のメディアのF1値に与える影響を確認するために用意したモデルである.ガ格,ヲ格,ニ格ともに,訓練データのデータ量がメディアによっては大きく違うにもかかわらず,全体的に,訓練データとテストデータが同じ(インドメイン)メディアの場合,モデルのF1値が高い.ただし,解析対象がブログテキストの場合,訓練データが同じメディアであるブログテキストよりも,新聞の方がF1値が高い結果となっている.これは,ブログテキストの訓練データのデータ量が新聞のテキストに比べ圧倒的に少ないためであると考えられる.{\tt\smallEach-D}モデルの結果から,ほとんどのメディアにおいては,解析対象のメディアで訓練させたほうがF1値が高く分野依存性があることがわかる.ガ格,ヲ格,ニ格ともに,{\tt\smallAll}モデルは,{\tt\smallSmall}モデルよりもF1値が高い.これは,訓練データの量が多い方がF1値が向上することを示している.これらの実験結果から,訓練データの量と,データのメディアの両方を考慮することが必要であるといえる.ガ格,ヲ格,ニ格ともに,{\tt\smallAll}モデルは,すべてのメディアにおいて,{\tt\smallEach-D}モデルよりもF1値が高い.これは,インドメインのデータの他に,アウトドメインの訓練データも学習データとして有効に機能することを示している.ただし,訓練データからインドメインのデータを削除すると,データ量の効果が期待できず性能が低下する.{\tt\smallOut-D}モデルは,ターゲットメディアが新聞である場合\footnote{新聞の{\tt\smallOut-D}モデルの訓練データは,$123,559-33,326=90,233$である.}を除いて,{\tt\smallSmall}モデルよりも訓練データのデータ量が多い.にもかかわらず,ガ格では,解析対象が雑誌の場合を除いて,{\tt\smallSmall}モデルよりもF1値が低い.ヲ格においても,解析対象が白書の際は{$0.037$},新聞の際は{$0.024$},{\ttOut-D}モデルのほうが低い.ヲ格の解析対象がその他のメディア,及び,ニ格については,{\ttSmall}モデルと,{\ttOut-D}モデルとであまり大きな差は見られないが,{\ttOut-D}モデルのほうが優位に働くということはない.つまり,訓練データがターゲットメディアのデータを含んでいない場合,データサイズは必ずしも訓練データとテストデータ間でのメディアの不一致を補うとは限らない.性能を上げるためには,訓練データにターゲットのメディアのデータが含まれていることが重要であり,インドメイン,アウトドメイン両方のデータをうまく工夫して使う必要がある.{\tt\smallAll}モデルと{\tt\smallOne-H}モデルを比較すると,必ずしも{\tt\smallOne-H}モデルのF1値が高いというわけでない.ガ格では,解析対象がブログテキストの場合を除いて{\ttAll}モデルのほうが性能が高い.つまり,入力データのメディアを判別するための素性をone-hotベクトルのような形で与えても,うまくメディアの違いを考慮できないことがわかる.\begin{table}[b]\vspace*{-0.2\Cvs}\caption{ガ格の分野適応実験結果(F1値)}\label{tb:NOM-adapt-f1}\input{08table08.tex}\vspace*{-0.25\Cvs}\end{table}\subsection{分野適応}表~{\ref{tb:NOM-adapt-f1}},表~{\ref{tb:ACC-adapt-f1}},表~{\ref{tb:DAT-adapt-f1}}は,それぞれガ格,ヲ格,ニ格の各分野適応のモデルの結果を示している.左から順にそれぞれ,Fine-tuning({\ttFT}),Featureaugmentation({\ttFA}),Classprobabilityshift({\ttCPS}),Voting({\ttVOT}),Mixture({\ttMIX})の結果を示している.なお,分野適応の各モデルに対しても同様に,{\tt\smallAll}モデルに対してMcNemar検定より得られたP値の有意水準が{$0.05$}以下の場合{$\dagger$}を,{$0.01$}以下の場合{$\ddagger$}を,それぞれ右肩に示している.また,比較として,左側にベースラインの{\tt\smallAll}モデルの結果を示している.表~{\ref{tb:NOM-adapt-f1}}のガ格,及び,表~{\ref{tb:ACC-adapt-f1}}のヲ格に対する実験結果をみると,{\tt\smallVOT}モデルは,すべてのメディアにおいて,ベースラインと分野適応の中で最もF1値が高い.ベースラインの{\ttAll}モデルと比較し,ガ格においては,QAテキストで最大{$0.030$},ヲ格においては,ブログテキストで{$0.013$}向上している.他の分野適応モデルをみてみると,{\ttFT},{\ttFA},{\ttCPS}モデルのいずれも,全てのテキストメディアを通じてベースラインよりもF1値が高いモデルは無く,解析対象のメディアによって,効果がある分野適応手法にはばらつきがある.一方,表~{\ref{tb:DAT-adapt-f1}}のニ格に対する実験結果を見ると,分野適応により一部F1値の向上が見られるものの,解析対象のメディアによっては,{\ttAll}モデルや{\ttOne-H}モデルのF1値が最も高い場合もある.ベースラインモデルによる実験結果では,ガ格ほど顕著ではないものの,ヲ格,ニ格も,メディア依存性が見られた.だが,今回使用した分野適応手法はニ格では,うまく働かない場合もある.\begin{table}[t]\caption{ヲ格の分野適応実験結果(F1値)}\label{tb:ACC-adapt-f1}\input{08table09.tex}\end{table}\begin{table}[t]\caption{ニ格の分野適応実験結果(F1値)}\label{tb:DAT-adapt-f1}\input{08table10.tex}\end{table}表~\ref{tb:nom-details},表~\ref{tb:acc-details},表~\ref{tb:dat-details}は,ガ格,ヲ格,ニ格それぞれの各メディアにおける項種別毎のF1値を示している.表~\ref{tab:across-media}によると,ガ格が,QAテキストでは\exowと\exorが,ブログテキストでは\exowが比較的頻出する.そのため,これらの外界照応のF1値を個別に分析することは,正しくそのメディアに適応できたかを考える上で重要である.\begin{table}[p]\caption{ガ格の実験結果詳細(F1値)}\label{tb:nom-details}\input{08table11.tex}\end{table}\begin{table}[p]\caption{ヲ格の実験結果詳細(F1値)}\label{tb:acc-details}\input{08table12.tex}\end{table}\begin{table}[p]\caption{ニ格の実験結果詳細(F1値)}\label{tb:dat-details}\input{08table13.tex}\end{table}表~\ref{tb:nom-details}では.QAテキストの\exowと\exor,ブログテキストの\exowの箇所(影付きの行)を見ると,一部,例外はあるものの{\ttAll}モデルと比べ,分野適応モデルのF1値が向上している.そのため,分野適応を導入することで,これらの外界照応が出現する際の偏りを解決できたといえる.また,ベースラインの{\ttAll}モデルと,分野適応手法において,最も解析精度の高かった{\ttVOT}モデルを比較すると,ニ格のブログテキストの{\textsf{intra(dep)}}を除き,{\textsf{intra(dep)}},{\textsf{intra(zero)}}ともに,すべて解析精度が高くなっている.そのため,直接係り受け,及び文内ゼロ照応にも分野依存性があり,それらが分野適応の導入によって解消されたといえる.\begin{table}[b]\caption{分野適応により正解となった例(ガ格)}\label{tab:become_correct}\input{08table14.tex}\end{table}表~\ref{tab:become_correct}は,{\tt\smallAll}モデルでは正しく解析されなかったが,{\tt\smallVOT}モデルにより正しく解析されるようになったガ格の例を示している.ターゲットの述語は太字で示している.QAテキストには,対話文が含まれているので,最初の例にあるように,読み手(\exor)は「やめた」のような述語のガ格に当てはまる傾向が高い.ブログテキストには,書き手が自分の経験や意見を書く事が多い.そういった場合,表~{\ref{tab:become_correct}}の2番目の例にあるようにガ格には,書き手(\exow)が埋まる傾向がある.白書は,その性質上,照応先候補として組織・集団・団体が埋まりやすく,それらは外界三人称となることが多い.そのため,今回の実験設定では,\unknownが埋まる傾向がある.書籍では,小説のような物語文の場合,照応先候補として物語の登場人物が埋まりやすい.逆に照応先として書き手(\exow)や読み手(\exor)が出てくることは稀である.例では,文中に,述語のガ格となる,物語の登場人物が出てきていないため,今回の実験設定では,\unknownが正解となる.雑誌では,読み手が存在することが想定される.そのため,例のように読み手に訴えかける場合,その述語のガ格には読み手(\exor)が埋まる傾向がある.新聞の例は,新聞記事のタイトルの見出しテキストである.見出しテキストでは,最初の句がガ格を埋める場合などにおいては,その格助詞は省略されることがある.表~\ref{tab:become_correct}の例は,いずれも,文単体のみを見れば,{\tt\smallAll}モデルの出力も一見間違いではなさそうである.だが,上記のようにそれぞれのメディアの特性を考えると,間違いであることがわかる.我々の分野適応モデルは,多数の例を観察した結果,これらの例に示されているような項の曖昧性が高い文においてメディア別の傾向をうまくとらえていることが確認できた.
\section{結論}
\label{sec:conclusion}本稿では,日本語の文内述語項構造解析において,外界照応まで扱うために新たな問題設定を定義し,外界一人称(書き手),外界二人称(読み手),外界三人称(その他)として区別して扱うための仮想項の導入,及び,効果的な分野適応手法を提案した.そして,我々は,RNNベースのモデルと3種類の異なる分野適応技術とその組み合わせを導入し,計5つの分野適応方法を提案した.現代日本語書き言葉均衡コーパスの述語項構造がアノテーションされたコアデータ・セット(BCCWJ-PAS)を用いて,6種のメディアに対してコーパスを分析した結果,様々なメディアのテキストを述語項構造解析する際は,外界一人称,外界二人称まで含めて解析する必要があることを示し,分野により項の種類毎に出現数が違うことを示した.また,評価実験によって,述語項構造解析の分野依存性があることを示した.特にガ格,ヲ格の解析では,分野適応の導入によって,性能を改善できることを確認した.解析対象のメディアによって幅はあるものの,ベースラインと比較し,ガ格では,{$1.6$}ポイント〜最大{$3.0$}ポイント,ヲ格では{$0.6〜0.9$}ポイント上昇している.本研究の提案した,仮想項,及び,分野適応手法は,今回提案したRNNベースモデル以外にも様々なニューラルネットモデルに対して導入可能である.\acknowledgment問題設定に関する議論について,松林優一郎博士と笹野遼平博士にご意見をいただきました.厚く御礼申し上げます.また,本稿を執筆するにあたり,Enago(www.enago.jp)に英文校正をしていただきました.ありがとうございます.本論文の内容の一部は,The32ndPacificAsiaConferenceonLanguage,InformationandComputation,第5回自然言語処理シンポジウム(第238回自然言語処理研究発表会)で報告したものである\cite{Mizuki-Effectiveness-2018,Mizuki-Exophora-2018}.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chen\BBA\Ng}{Chen\BBA\Ng}{2016}]{Chen-Chinese-2016}Chen,C.\BBACOMMA\\BBA\Ng,V.\BBOP2016\BBCP.\newblock\BBOQChineseZeroPronounResolutionwithDeepNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\778--788}.\bibitem[\protect\BCAY{Graves,Fern{\'{a}}ndez,\BBA\Schmidhuber}{Graveset~al.}{2005}]{Graves-Bidirectional-2005}Graves,A.,Fern{\'{a}}ndez,S.,\BBA\Schmidhuber,J.\BBOP2005\BBCP.\newblock\BBOQBidirectionalLSTMNetworksforImprovedPhonemeClassificationandRecognition.\BBCQ\\newblockIn{\BemProceedingsofthe15thInternationalConferenceonArtificialNeuralNetworks:FormalModelsandTheirApplications-VolumePartII},ICANN'05,\mbox{\BPGS\799--804},Berlin,Heidelberg.Springer-Verlag.\bibitem[\protect\BCAY{Haji{\v{c}},Ciaramita,Johansson,Kawahara,Mart{\'{\i}},M{\`{a}}rquez,Meyers,Nivre,Pad{\'{o}},{\v{S}}t{\v{e}}p{\'{a}}nek,Stra{\v{n}}{\'{a}k},Surdeanu,Xue,\BBA\Zhang}{Haji{\v{c}}et~al.}{2009}]{Hajic-The-2009}Haji{\v{c}},J.,Ciaramita,M.,Johansson,R.,Kawahara,D.,Mart{\'{\i}},M.~A.,M{\`{a}}rquez,L.,Meyers,A.,Nivre,J.,Pad{\'{o}},S.,{\v{S}}t{\v{e}}p{\'{a}}nek,J.,Stra{\v{n}}{\'{a}k},P.,Surdeanu,M.,Xue,N.,\BBA\Zhang,Y.\BBOP2009\BBCP.\newblock\BBOQTheCoNLL-2009SharedTask:SyntacticandSemanticDependenciesinMultipleLanguages.\BBCQ\\newblockIn{\BemProceedingsofthe13thConferenceonComputationalNaturalLanguageLearning:SharedTask},CoNLL'09,\mbox{\BPGS\1--18},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Hangyo,Kawahara,\BBA\Kurohashi}{Hangyoet~al.}{2013}]{Hangyo-Japanese-2013}Hangyo,M.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2013\BBCP.\newblock\BBOQJapaneseZeroReferenceResolutionConsideringExophoraandAuthor/ReaderMentions.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\924--934}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Hayashibe,Komachi,\BBA\Matsumoto}{Hayashibeet~al.}{2011}]{Hayashibe-Japanese-2011}Hayashibe,Y.,Komachi,M.,\BBA\Matsumoto,Y.\BBOP2011\BBCP.\newblock\BBOQJapanesePredicateArgumentStructureAnalysisExploitingArgumentPositionandType.\BBCQ\\newblockIn{\BemProceedingsof5thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\201--209}.AsianFederationofNaturalLanguageProcessing.\bibitem[\protect\BCAY{He,Lee,Lewis,\BBA\Zettlemoyer}{Heet~al.}{2017}]{He-Deep-2017}He,L.,Lee,K.,Lewis,M.,\BBA\Zettlemoyer,L.\BBOP2017\BBCP.\newblock\BBOQDeepSemanticRoleLabeling:WhatWorksandWhat'sNext.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\473--483}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{飯田\JBA小町\JBA乾\JBA松本}{飯田\Jetal}{2007}]{Iida-Naist-2007}飯田龍\JBA小町守\JBA乾健太郎\JBA松本裕治\BBOP2007\BBCP.\newblockNAISTテキストコーパス:述語項構造と共参照関係のアノテーション.\\newblock\Jem{情報処理学会研究報告自然言語処理(NL)},{\Bbf2007}(7),\mbox{\BPGS\71--78}.\bibitem[\protect\BCAY{Iida\BBA\Poesio}{Iida\BBA\Poesio}{2011}]{Iida-A-2011}Iida,R.\BBACOMMA\\BBA\Poesio,M.\BBOP2011\BBCP.\newblock\BBOQACross-LingualILPSolutiontoZeroAnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\804--813}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Imamura,Higashinaka,\BBA\Izumi}{Imamuraet~al.}{2014}]{Imamura-Predicate-2014}Imamura,K.,Higashinaka,R.,\BBA\Izumi,T.\BBOP2014\BBCP.\newblock\BBOQPredicate-ArgumentStructureAnalysiswithZero-AnaphoraResolutionforDialogueSystems.\BBCQ\\newblockIn{\BemProceedingsofCOLING2014,the25thInternationalConferenceonComputationalLinguistics:TechnicalPapers},\mbox{\BPGS\806--815},Dublin,Ireland.DublinCityUniversityandAssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Imamura,Saito,\BBA\Izumi}{Imamuraet~al.}{2009}]{Imamura-Discriminative-2009}Imamura,K.,Saito,K.,\BBA\Izumi,T.\BBOP2009\BBCP.\newblock\BBOQDiscriminativeApproachtoPredicate-argumentStructureAnalysiswithZero-anaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsoftheACL-IJCNLP2009ConferenceShortPapers},ACLShort'09,\mbox{\BPGS\85--88},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kayama}{Kayama}{2003}]{kayama2013}Kayama,Y.\BBOP2003\BBCP.\newblock\BBOQL1AquisitionofJapaneseZeroPronouns:TheEffectofDiscourseFactors.\BBCQ\\newblockIn{\BemProceedingsofthe2003AnnualConferenceoftheCanadianLinguisticAssociation},\mbox{\BPGS\109--120}.\bibitem[\protect\BCAY{Kim,Stratos,\BBA\Sarikaya}{Kimet~al.}{2016}]{Kim-Frustratingly-2016}Kim,Y.-B.,Stratos,K.,\BBA\Sarikaya,R.\BBOP2016\BBCP.\newblock\BBOQFrustratinglyEasyNeuralDomainAdaptation.\BBCQ\\newblockIn{\BemProceedingsofCOLING2016,the26thInternationalConferenceonComputationalLinguistics:TechnicalPapers},\mbox{\BPGS\387--396}.TheCOLING2016OrganizingCommittee.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2014}]{Kingma-Adam-2014}Kingma,D.~P.\BBACOMMA\\BBA\Ba,J.\BBOP2014\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblock{\BemCoRR},{\Bbfabs/1412.6980}.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Ogiso,Maruyama,Ogura,Kashino,Koiso,Yamaguchi,Tanaka,\BBA\Den}{Maekawaet~al.}{2014}]{Maekawa-2014aa}Maekawa,K.,Yamazaki,M.,Ogiso,T.,Maruyama,T.,Ogura,H.,Kashino,W.,Koiso,H.,Yamaguchi,M.,Tanaka,M.,\BBA\Den,Y.\BBOP2014\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblock{\BemLanguageResourcesEvaluation},{\Bbf48}(2),\mbox{\BPGS\345--371}.\bibitem[\protect\BCAY{Matsubayashi\BBA\Inui}{Matsubayashi\BBA\Inui}{2017}]{Matsubayashi-Revisiting-2017}Matsubayashi,Y.\BBACOMMA\\BBA\Inui,K.\BBOP2017\BBCP.\newblock\BBOQRevisitingtheDesignIssuesofLocalModelsforJapanesePredicate-ArgumentStructureAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalJointConferenceonNaturalLanguageProcessing(Volume2:ShortPapers)},\mbox{\BPGS\128--133}.AsianFederationofNaturalLanguageProcessing.\bibitem[\protect\BCAY{Matsubayashi\BBA\Inui}{Matsubayashi\BBA\Inui}{2018}]{Matsubayashi-Distance-2018}Matsubayashi,Y.\BBACOMMA\\BBA\Inui,K.\BBOP2018\BBCP.\newblock\BBOQDistance-FreeModelingofMulti-PredicateInteractionsinEnd-to-EndJapanesePredicate-ArgumentStructureAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe27thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\94--106}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Ouchi,Shindo,Duh,\BBA\Matsumoto}{Ouchiet~al.}{2015}]{Ouchi-Joint-2015}Ouchi,H.,Shindo,H.,Duh,K.,\BBA\Matsumoto,Y.\BBOP2015\BBCP.\newblock\BBOQJointCaseArgumentIdentificationforJapanesePredicateArgumentStructureAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\961--970}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Ouchi,Shindo,\BBA\Matsumoto}{Ouchiet~al.}{2017}]{Ouchi-Neural-2017}Ouchi,H.,Shindo,H.,\BBA\Matsumoto,Y.\BBOP2017\BBCP.\newblock\BBOQNeuralModelingofMulti-PredicateInteractionsforJapanesePredicateArgumentStructureAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1591--1600}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Rello,Baeza-Yates,\BBA\Mitkov}{Relloet~al.}{2012}]{Rello-Elliphant-2012}Rello,L.,Baeza-Yates,R.,\BBA\Mitkov,R.\BBOP2012\BBCP.\newblock\BBOQElliphant:ImprovedAutomaticDetectionofZeroSubjectsandImpersonalConstructionsinSpanish.\BBCQ\\newblockIn{\BemProceedingsofthe13thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},EACL'12,\mbox{\BPGS\706--715},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{珊瑚\JBA西川\JBA徳永}{珊瑚\Jetal}{2018}]{Mizuki-Exophora-2018}珊瑚彩主紀\JBA西川仁\JBA徳永健伸\BBOP2018\BBCP.\newblock外界一人称と二人称を考慮する日本語述語項構造解析の分野適応.\\newblock\Jem{情報処理学会第238回自然言語処理研究会NL-238-13},\mbox{\BPGS\1--13}.\bibitem[\protect\BCAY{Sango,Nishikawa,\BBA\Tokunaga}{Sangoet~al.}{2018}]{Mizuki-Effectiveness-2018}Sango,M.,Nishikawa,H.,\BBA\Tokunaga,T.\BBOP2018\BBCP.\newblock\BBOQEffectivenessofDomainAdaptationinJapanesePredicate-ArgumentStructureAnalysis.\BBCQ\\newblockIn{\BemPacificAsiaConferenceonLanguage,InformationandComputation}.\bibitem[\protect\BCAY{Sasano\BBA\Kurohashi}{Sasano\BBA\Kurohashi}{2011}]{Sasano-A-2011}Sasano,R.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2011\BBCP.\newblock\BBOQADiscriminativeApproachtoJapaneseZeroAnaphoraResolutionwithLarge-scaleLexicalizedCaseFrames.\BBCQ\\newblockIn{\BemIJCNLP},\mbox{\BPGS\758--766}.\bibitem[\protect\BCAY{Schuster\BBA\Paliwal}{Schuster\BBA\Paliwal}{1997}]{Schuster-Bidirectional-1997}Schuster,M.\BBACOMMA\\BBA\Paliwal,K.~K.\BBOP1997\BBCP.\newblock\BBOQBidirectionalrecurrentneuralnetworks.\BBCQ\\newblock{\BemIEEETransactionsonSignalProcessing},{\Bbf45},\mbox{\BPGS\2673--2681}.\bibitem[\protect\BCAY{Shibata,Kawahara,\BBA\Kurohashi}{Shibataet~al.}{2016}]{Shibata-Neural-2016}Shibata,T.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2016\BBCP.\newblock\BBOQNeuralNetwork-BasedModelforJapanesePredicateArgumentStructureAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1235--1244}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Surdeanu,Johansson,Meyers,M{\`{a}}rquez,\BBA\Nivre}{Surdeanuet~al.}{2008}]{Surdeanu-The-2008}Surdeanu,M.,Johansson,R.,Meyers,A.,M{\`{a}}rquez,L.,\BBA\Nivre,J.\BBOP2008\BBCP.\newblock\BBOQTheCoNLL-2008SharedTaskonJointParsingofSyntacticandSemanticDependencies.\BBCQ\\newblockIn{\BemProceedingsoftheTwelfthConferenceonComputationalNaturalLanguageLearning},CoNLL'08,\mbox{\BPGS\159--177},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Suzuki,Matsuda,Sekine,Okazaki,\BBA\Inui}{Suzukiet~al.}{2016}]{Suzuki-Neural-2016}Suzuki,M.,Matsuda,K.,Sekine,S.,Okazaki,N.,\BBA\Inui,K.\BBOP2016\BBCP.\newblock\BBOQNeuralJointLearningforClassifyingWikipediaArticlesintoFine-grainedNamedEntityTypes.\BBCQ\\newblockIn{\BemProceedingsofthe30thPacificAsiaConferenceonLanguage,InformationandComputation:Posters},\mbox{\BPGS\535--544}.\bibitem[\protect\BCAY{平\JBA田中\JBA藤田\JBA永田}{平\Jetal}{2014}]{Taira-Business-2014}平博順\JBA田中貴秋\JBA藤田早苗\JBA永田昌明\BBOP2014\BBCP.\newblockビジネスメール文に対する日本語述語項構造解析の検討.\\newblock\Jem{言語処理学会第20回年次大会発表論文集},\mbox{\BPGS\1019--1022}.\bibitem[\protect\BCAY{Taira,Fujita,\BBA\Nagata}{Tairaet~al.}{2008}]{Taira-A-2008}Taira,H.,Fujita,S.,\BBA\Nagata,M.\BBOP2008\BBCP.\newblock\BBOQAJapanesePredicateArgumentStructureAnalysisUsingDecisionLists.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},EMNLP'08,\mbox{\BPGS\523--532},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Yang,Zhuang,\BBA\Zong}{Yanget~al.}{2015}]{Yang-Domain-2015}Yang,H.,Zhuang,T.,\BBA\Zong,C.\BBOP2015\BBCP.\newblock\BBOQDomainAdaptationforSyntacticandSemanticDependencyParsingUsingDeepBeliefNetworks.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf3},\mbox{\BPGS\271--282}.\bibitem[\protect\BCAY{Yin,Zhang,Zhang,\BBA\Liu}{Yinet~al.}{2017}]{Yin-Chinese-2017}Yin,Q.,Zhang,Y.,Zhang,W.,\BBA\Liu,T.\BBOP2017\BBCP.\newblock\BBOQChineseZeroPronounResolutionwithDeepMemoryNetwork.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1309--1318}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Yoshikawa,Asahara,\BBA\Matsumoto}{Yoshikawaet~al.}{2013}]{Yoshikawa-Jointly-2013}Yoshikawa,K.,Asahara,M.,\BBA\Matsumoto,Y.\BBOP2013\BBCP.\newblock\BBOQJointlyExtractingJapanesePredicate-ArgumentRelationwithMarkovLogic.\BBCQ\\newblock{\BemJournalofNaturalLanguageProcessing},{\Bbf20}(2),\mbox{\BPGS\251--271}.\bibitem[\protect\BCAY{Zhou\BBA\Xu}{Zhou\BBA\Xu}{2015}]{Zhou-End-2015}Zhou,J.\BBACOMMA\\BBA\Xu,W.\BBOP2015\BBCP.\newblock\BBOQEnd-to-endLearningofSemanticRoleLabelingusingRecurrentNeuralNetworks.\BBCQ\\newblockIn{\BemACL(1)},\mbox{\BPGS\1127--1137}.TheAssociationforComputerLinguistics.\end{thebibliography}\begin{biography}\bioauthor{珊瑚彩主紀}{2017年東北大学工学部情報知能システム総合学科卒業.2019年東京工業大学情報理工学院情報工学系終了.同年,株式会社メルカリ入社.修士(工学).自然言語処理,特に述語項構造解析の研究に従事.}\bioauthor{西川仁}{2006年慶應義塾大学総合政策学部卒業.2008年同大学大学院政策・メディア研究科修士課程修了.同年,日本電信電話株式会社入社.2013年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.NTTメディアインテリジェンス研究所研究員を経て,2015年より東京工業大学情報理工学院助教.2017年IE経営大学院修士課程修了.博士(工学).自然言語処理,特に自動要約,自然言語生成の研究に従事.TheAssociationforComputationalLinguistics,言語処理学会,人工知能学会,情報処理学会各会員.}\bioauthor{徳永健伸}{1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,東京工業大学情報理工学院教授.博士(工学).専門は自然言語処理,計算言語学.情報処理学会,人工知能学会,言語処理学会,計量国語学会,AssociationforComputationalLinguistics,ACMSIGIR,CognitiveScienceSociety,InternationalCognitiveLinguisticsAssociation各会員.}\end{biography}\biodate\end{document}
| |
V03N04-01 | \section{まえがき}
\label{sec:1shou}最近,国文学の分野においても,文学作品のテキストをコンピュータに入力し,研究に活用しようとする動きが盛んである~\cite{dbwest:95}.これは日本語処理可能なパソコンなどの普及により,国文学の研究者が,自分の手でデータを作成する環境が整ってきたことによる.すでに,多くの文学作品が電子化テキストとして作成され,蓄積され,流通され始めてきている.例えば,村上ら~\cite{murakami:89}による語彙索引作成を目的とした幸若舞の研究は,最も初期のものである.これは田島ら~\cite{tazima:82}により,万葉集を始めとする多くの文学作品の電子化テキスト作成の試みに引き継がれている.最近では,内田ら~\cite{utida:92}は情報処理語学文学研究会の活動を通じて,パソコン通信などにより電子化テキストの交換を行っている.また,伊井,伊藤ら~\cite{ii:93,ito:92}による国文学データベースの作成と電子出版活動も注目されている.とくに,源氏物語諸本の8本集成データベースや国文学総合索引の研究成果がある.一方,長瀬~\cite{nagase:90}は源氏物語の和英平行電子化テキストを作成し,オックスフォード大学に登録し公開した.また,出版社による電子化テキストの提供サービスも始まっている~\cite{benseisha:93,iwanami:95}.しかしながら,大きな問題がある.一般に,研究者は自分のためのデータを作っている.そのため,システム,文字コ−ド,外字処理,データの形式や構造などに関しての仕様が,研究者個人に依存している.さらに,蓄積した情報資源の流通をあまり意識していない.すなわち,苦労して蓄積したデータが活用されにくく,また同じ作品の重複入力の問題などが指摘されている.したがって,データ入力の共通基盤の確立と適切な標準化が必要である.とくに,文学作品の電子化テキストを作るためのデータ記述ルールが必要である.現在,人文科学のための定まったデータ記述のルールは無い.SGML:StandardGeneralizedMarkupLanguage~\cite{JIS:94}に基礎をおくTEI:TextEncodingInitiativeなどの活動~\cite{burnard:94}があるが,その成果は未だ実用化に至っていない.とりわけ,人文科学領域の日本語テキストへの適用は,国文学における数例~\cite{hara:95}を除けばほとんど無い.国文学研究資料館において,電子化テキストのデータ記述についての試みがなされてきている~\cite{yasunaga:92,yasunaga:94,yasunaga:95b,kokubun:92}.例えば,日本古典文学大系(岩波書店),噺本大系(東京堂出版)などの全作品の全文データベースの開発が進められている.また,最近では正保版本歌集「二十一代集」を直接翻刻~\footnote{国文学の用語はまとめて,付録\ref{sec:furoku1}で解説している.なお,国文学ではテキストを本文(ホンモン)と言う.以下では本文を用いる.}しながら,データベースに構築している.これらはテキストのデータベース化を指向したものであるが,テキストデータの記述のための基準文法が定められている.この基準文法をKOKIN(KOKubungakuINformation)ルールと呼んでいる.KOKINルールは国文学作品を対象とする電子化テキスト記述用のマークアップ文法である.本稿は,国文学作品テキストのデータ記述文法について述べている.第2章では,電子化テキストの目的と研究対象をまとめ,データ記述の考察上不可欠と考えられる本とテキストの情報構造を分析し,まとめている.第3章では,データ記述のルール化のための基本原則を考察している.作品とテキストの構造記述が必要なこと,及びテキスト表記の記述が必要なことなどをまとめている.第4章では,KOKINルールを3つの基本ルールに分けて定義し,それぞれについて考察している.第5章では,実際のデータ作成とそれに基づくデータベース作成の事例などから,KOKINルールを評価している.研究成果としては,すでに国文学研究資料館において,本文データベースとして試験運用が開始されている.研究者による利用結果からは,文学研究に有用であるとの評価を得,概して評判がよい.最後に,問題点などを整理している.
\section{電子化本文作成のための条件整理}
\label{sec:2shou}\subsection{電子化本文の目標}\label{sec:2.1setu}電子化本文の作成は研究の効率化をはかることが目的であるが,新しい研究テーマへの展開やデータベースとしての発見的利用も期待されている.例えば,大量の資料,情報を扱った考察が可能になり,自説の組立や確認の度合いが飛躍的に高まる.単語や語形の検索はもとより,単語が現れる環境の調査が可能になる.組版などの印刷物では表せないことが可能になる.さらに,作品に記載されていないことの発見的検索が可能になる~\cite{kondou:91}.国文学の研究対象は,上代の神話から現代の作品まで全ての時代に渡り,地域的にも歴史上のわが国全土を網羅する.また,古典文学は千数百年に渡る歴史を持ち,ジャンルも多様である.表1に,散文,韻文,戯曲のカテゴリに大別し,その代表的ジャンルの例を示す.しかし,絵詞\yougoのようにこの分類に馴染まないものも多い.\vspace*{-2mm}\begin{table}[htbp]\begin{center}\leavevmode\caption{国文学作品のジャンル区分}\label{tab:hyou1}\def\arraystretch{}\begin{tabular}{c|l}\hlineカテゴリ&\multicolumn{1}{c}{ジャンル}\\\hline散文&神話,伝承,風土記,縁起,史書,軍記,物語,\\[-1mm]&説話,論評,随筆,日記,紀行\\\hline韻文&歌謡,和歌,連歌,俳諧,漢詩,和讃,今様\\\hline演劇&能,狂言,歌舞伎,浄瑠璃,催馬楽\\\hlineその他&祝詞,声明,宣命,談義,絵詞,絵解き\\\hline\end{tabular}\end{center}\end{table}\vspace*{-2mm}このような様々な作品を統一的に電子化することは不可能である.そこで,次のような段階を経ながら,電子化の経験を積むこととした.\begin{description}\item[第1段階:]時代,ジャンルを網羅するような基準本文を作る.\item[第2段階:]個別のジャンルまたは作品の深化を行う.\end{description}これは,まず国文学作品の全般的な様相を知り,次いで個別の作品の伝本の全ての本文校訂に進むことを可能とするプロセスを考えるためである.したがって,第1段階での網羅性は文学作品の本文の全体的な様相を把握し,その上で電子化の方策を考えることが可能な程度の作品の種類と量を必要とする.また,これには実際にデータを作成し,その過程から知識を得て行くことが不可欠である.また,写本や刊本\yougoから直接電子化本文を作ることはかなり難しい.規範的な標本があれば,あるいは典拠と言って良いが,作業効率は格段に高まる.研究者が最も望むものは,第2段階の専門領域の電子化本文である.基準本文は第2段階の電子化本文作成にとって,重要な要件と考えられる.何を基準とするかの問題がある.国文学や歴史学では古記録,古文書,古典籍などの研究対象資料(文献資料と言う)を翻刻する場合に,校訂作業が不可欠である.作品の多くの伝本\yougoを比較参照し,書写文字などによる本文の意味や用法を考察し,作品の本文を定める(定本と言う).すなわち,校訂本が作られる.このことから,基準本文には定本としての校訂本を基礎とすべきである.現在までに研究対象とした作品の一覧を,表2に示す.これらは二十一代集を除き,校訂本からのデータ作成である.第1段階として,時代及びジャンルを網羅した規範的な校訂本のデータベースを準備することを目標にして,選定している.\begin{table}[htbp]\begin{center}\leavevmode\caption{本文データベースの研究対象作品}\label{tab:hyou2}\def\arraystretch{}\begin{tabular}{c|c|c|c|c}\hline&日本古典文学大系&噺本大系&假名草子集成&正保版本歌集*\\[-4mm]校訂本&&&&\\[-4mm]&岩波書店&東京堂出版&東京堂出版&二十一代集\\\hline&全100巻&全20巻&全12巻&\\[-2mm]作品数&約560作品&380作品&70作品&全21作品\\[-2mm]&&約2万噺&約1千話&\\\hline文字数&約3千万字&約700万字&約400万字&約150万字\\\hline&約3千字\hspace*{3.4mm}&無し&約100字&無し\\[-4mm]外字数&&&&\\[-4mm]&約600字**&{\footnotesize(絵文字などを除く)}&{\footnotesize(絵文字などを除く)}&\\\hline\begin{minipage}[t]{15mm}\vspace*{5mm}\begin{center}備考\end{center}\end{minipage}&\begin{tabular}[t]{@{}c@{}p{23mm}@{}}・&校訂本\\[-1.5mm]・&時代,ジャンルを網羅する規範的本文\\[-1.5mm]\end{tabular}&\begin{tabular}[t]{@{}c@{}p{23mm}@{}}・&校訂本\\[-1.5mm]・&江戸前期,中期の小話集\\[-1.5mm]・&小噺の類型化などに最適\\\end{tabular}&\begin{tabular}[t]{@{}c@{}p{23mm}@{}}・&校訂本\\[-1.5mm]・&室町期,江戸前期の説話集\\[-1.5mm]\end{tabular}&\begin{tabular}[t]{@{}c@{}p{23mm}@{}}・&版本である\\[-1.5mm]・&翻刻と同時に,データベース化\\[-1.5mm]\end{tabular}\\\hline\end{tabular}\bigskip{\small\begin{tabular}{cl@{~}l}〈注〉&*&校訂本ではなく,版本である.\\[-2mm]&**&国文学研究資料館作成JIS外字を除く,作成すべき外字の概数.\\[-2mm]&&なお,文字数は概数で示す.\\[-2mm]\end{tabular}}\end{center}\end{table}\subsection{電子化本文の情報構造}\label{sec:2.2setu}\subsubsection{本文と本の情報構造}\label{sec:2.2.1setu}電子化本文を作成するに当たって,まず取り扱う情報の種類と性質を整理する必要がある.本文は校訂本から選んだ.このとき,この本文は校訂という枠組の中で成立する.すなわち,電子化本文は純粋な本文データの他に,校訂に関する情報を持つ必要がある.本文データが単独で利用されることはない.本文とその本に関する情報は不可分である.図1に,このような情報を階層的に構造化して示す.これは本と作品,本文の情報構造を明確化し,その上で本の論理構造を定義するものである.国文学におけるこのような整理はなく,図1はやゝ常識的ではあるが,現在有用であるとされている.ここで,本と作品の物理構造を考えておく.本は作品を記載する.この関係は通常は1対1であるが,古典籍では多対1あるいは逆に1対多も多い.多対1は作品が分冊される形態であり,1対多は複数の作品がまとめられる場合である.これは伝本の形態によって異なる.このような情報構造は図1によって記述できる.さらに,よく和歌集などに見られる合綴本などの構造記述も可能である.なお,本文が文献資料から直接選ばれる場合も,実質的に翻刻,校訂作業を経るから,図1の情報構造が適応できる.\begin{figure}[htbp]\begin{center}\leavevmode\vspace*{-2mm}\epsfile{file=1-1.eps,width=118mm}\vspace*{5mm}\caption{電子化本文の情報構造の解析と定義}\label{fig:1}\end{center}\end{figure}\subsubsection{本の情報構造}\label{sec:2.2.2setu}図1(a)は,本の構造を示す.本の構造は本の物理的なモノとしての種類と形態を表す.本は伝来されたものである.これを本の系譜構造として把握する.また,本の情報とは本に関わる情報,言わば属性情報であり,階層化して定義する.本の情報構造は3レベルの階層で定義する.図において,本の情報は文献資料情報と校訂本情報とから成る.文献資料情報は底本\yougo,諸本(または異本\yougoとも言う),それらの系譜に関わる情報から成る.また,底本情報は書誌,所蔵,及び成立に関する情報から成り,諸本情報も同様である.書誌,所蔵に関わる情報は図書館などで一般に用いられている情報に加え,古典籍特有の情報項目を持つ.成立情報は底本及び諸本の本文の成立に関わる情報である.通常,校訂は底本を基軸とし他の伝本を参照しながら行われる.すなわち,底本は諸本の中で位置付けられる.位置付けに関わる情報は本の成立に関わる構造の把握と考えられる.一方,校訂本情報は本としての構造を持ち,書誌情報などによって同定される.校訂本には成立に関する情報は無いと考えられるが,ここでは一般化して考える.同一の作品には複数の校訂本があるが,校訂本としての性格から独立して扱うことは可能である.ただし,文献資料情報と同様に諸校訂本との関連を参照する必要がある場合には,諸校訂本情報として記述する~\footnote{以下,底本に関する用語には“元”を付し,校訂本に関する用語には“原”を付して,混乱を避ける.例えば,底本ではその本文を元・本文とし,校訂本はその本文を原・本文とする.また,校訂本を原本と呼び,その行を原行,語を原語などと呼ぶ.}.\subsubsection{本文の情報構造}\label{sec:2.2.3setu}図1(b)は,本文に関する情報の構造である.本文情報は元・本文情報,原・本文情報,及び校訂情報から成る.本文情報はその出典により,2種類に大別される.両者は全く異なるものである.元・本文情報とは底本に記載されている本文と,それへの種々の書き込みなどの情報である.書肆的な情報なども含む.校訂により,元・本文情報は校訂本文である原・本文情報に変換される.原・本文情報は本文と傍記の形式で表記される.ここで,本文とは主たるテキストを指す.傍記は本文を構成する文,語,字などへ直接付加されたテキストである.例えば,校異\yougo,振り仮名や振り漢字などがある.また,校訂本には作品の本文の他に校訂に関わる様々な情報を伴う.例えば,解題\yougo,解説,頭註\yougoまたは脚註,凡例などである.これらを校訂情報と呼ぶが,単なる註ではなく校訂本のテキストの形態の1つである.ところで,校訂情報は狭義の校訂情報と校註情報と呼ぶ2つの情報から成る.狭義の校訂情報は解題などのように作品全体に関わる情報であり,テキスト形態の1つである.校註情報は頭註など本文の語彙などに関わる情報である.上述の傍記とは異なるものである.さらに,校註情報は校訂註と解説註に分けて考える.校訂註は本文の異同に関する校訂者の見解や従来の考え方などの参照である.校異に関する註記であるので,校訂上とくに重要な情報と考えられる.解説註は主に本文中の様々な事項に関する解説である.例えば,人物,儀式,官位,あるいはテキストの解釈などである.いずれもテキスト形態の1つと考えられる.\subsubsection{電子化本文の論理構造}\label{sec:2.2.4setu}図1(c)に示すように,論理的な原本の構造を定義する.電子化の直接的な対象は原本すなわち校訂本である.原本はその版面情報を保存することを原則とする.理由は電子化本文の根拠を原本において,データの信頼度を保証する必要があるためである.すなわち,原本通りのデータがデータベースに写像されていなければならない.そこで,原本を論理化して考える.論理原本は論理ファイルから成る.すなわち,原本の各ページを論理ファイルとして定義する.論理ファイルは原本のそのページに限定された原文の集まりである.通常,ページや原行の始端または終端では文の中断が起こり得る.これを認識したり,また意味のある文の単位を確定したりすることは結構難しい.文の単位を形式的に定義する.原文は形式的に原行の集合から構成されるから,論理ファイルは原行から構成するものとする.すなわち,文を行によって形式的に定義する.これを論理レコードと呼ぶ.論理レコードはまた原語及び原字から構成される.論理ファイル中の論理レコードは順序性を保存し,かつ論理ファイル自体も順序性を持つ~\footnote{校訂本では文の区切りは存在する.文を記述の単位とすることは常識であろうが,ここでは原本での文(論理レコード)の位置付けを重視した.文,あるいは語などへの分かち書きは,第1,第2段階では意識しないで,利用者によるものとしている.}.以上のことから,電子化本文のデータ記述においては,本の構造,作品の構造,本への作品の位置付けなどを考慮しなければならないことが分かった.また,本文を構成する文,語,字などの要素に対応する傍記と呼ぶテキスト形態の1つを,本文記述としてルール化しなければならない.\subsection{本文のデータベース化指向}\label{sec:2.3setu}文学研究には本文とそれに関わる諸情報が,同時に参照,処理できなければならない.これは,全文をコンピュータに単に蓄積しただけでは進められない.本文情報のデータベース化を指向する必要がある.全文と様々な属性情報から成る総合的なデータベースを,校訂本文データベースと呼ぶ.電子化本文は本文と傍記から成るが,これは並列的なテキストである.また,校訂情報や校註情報などが加わり,マルチテキストである.とくに,本文は諸本の系譜の中で位置づけられ,諸本の本文比較などが可能でなければならない.本文の氏素性の関連と同定に関する多種多様な情報を組織化し,活用しなければならない.すなわち,このような多重構造を持ったデータの世界は,データベースとして構築することが適当と考えられる.さらに,研究者の研究目的,方法,対象によって自由な活用ができることが不可欠である.例えば,ハイパーテキストなどのユーザインタフェースにより,柔軟かつ高次の活用に応える必要がある.このことから,まず大型コンピュータのデータベース機能を活用し,本文データベース化の基本的開発研究を行うこととした.この成果に基づき,次いでパーソナルデータベース化を進める.パーソナルデータベースではデータの流通を考慮して,例えばCD-ROMなどのパッケージ型の自立型テキストを考慮する.なお,データ記述のルールにはデータベース化を指向した機能を考慮する必要がある.
\section{データ記述のための基本原則}
\label{sec:3shou}\subsection{本文の構造}\label{sec:3.1setu}\subsubsection{作品の構造}\label{sec:3.1.1setu}文学作品の構造を定義しなければならない.通常,SGMLでは文書型定義(DTD:DocumentTypeDefinition)と呼ばれるもので,ここではこれを作品型定義(TTD:Text-dataTypeDefinition)と呼ぶ.一般に,TTDは全てに共通するような標準型が定義できるわけではない.韻文,散文,戯曲の文体毎に,さらに細かいジャンル対応にTTDを定義する必要がある.すなわち,作品毎にTTDを置く.なお,現在一般に定まった本文DTDまたはTTDは無い.本文研究では,作品の掲載されている原本の体裁などの情報が必要とされる.例えば,原本の何ページの何行目の文という同定が必要である.これは,諸本の本文の様々な差異の対比において必要とされる.通常,SGMLでは文書の構造を論理的なものとして本の体裁,すなわちフォーマットを分離して考える.しかし,古典テキストの研究では,本の物理的な構造と論理的な構造を一体化した考え方をとることが要求される.すなわち,本文の位置情報が必要である.ある本におけるその文の現れる位置の同定である.原本に記載されている底本の位置情報も不可欠な情報である.例えば,表2の噺本大系では原・本文中に「(十五ウ)」などと表記されているが,これは「この位置までが底本の15枚目の裏であること」を意味する.ところで,底本の文,語,字などと校訂本の文,語,字などとの対応は,研究上不可欠な情報として同定されなければならない.換言すれば,写本のテキストと活字本のテキストの文の対応,同定である.しかしながら,このデータ作成は専門家によるかなり高度な作業を必要とする.しかも,作業の負荷がたいへんに重い.そのため,この課題は将来課題とせざるを得ない.以下の考察のために,図2に,表2の東京堂出版「噺本大系」の第五巻「軽口大わらひ」の版面コピーを示す.また,図3に噺本大系の作品構造を5レベルの階層構造で定義する例を示す.なお,記号などは後述する.\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=1-2.eps,width=124mm}\caption{「噺本大系」第五巻「軽口大わらひ」の版面例}\label{fig:2}\end{center}\end{figure}\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=1-3.eps,width=85mm}\vspace*{5mm}\caption{噺本大系の作品構造の階層性}\label{fig:3}\end{center}\end{figure}\subsubsection{本文の構造}\label{sec:3.1.2setu}次に,本文の構造を把握しなければならない.いわゆる文体である.当然,本文の構造はジャンルにより異なり,同じジャンルでも時代や本の体裁により異なる.原・本文は多くの文から構成されている.文には多くの種類がある.データ記述に当たって,文を1つの単位とすることが望まれるが,意味のある文の確定は困難である.そこで,前述のようにデータ記述の基本的単位を論理レコードとした.論理レコードの識別のための記述子をタグと呼ぶ.論理レコードは原本上の位置を保存し,かつ種別についてタグによりマークアップされる.タグには原本の構造を定義するタグと,原・本文の構造を定義するタグがある.論理レコードの順序性はタグにより保持する.意味のある論理レコードの集まりを定義する.論理レコード集と呼ぶ.例えば,和歌集の中の1つの歌の範囲を決める論理レコードの集まり,すなわち作者,題,詞書き,歌などのまとまりである.あるいは,図3に示すような小噺の1つの単位などである.論理ファイルは形式的な論理レコードの集まりとして取り扱う.一方,論理レコード集は上例のように意味のある構造を抽出する場合に用いる.\newpage\subsection{本文表記の構造}\label{sec:3.2setu}\subsubsection{表記の様相}\label{sec:3.2.1setu}現代文,古文を問わず日本語には欧米文と異った特有の表現がある.文は分かち書きの無い文であり,とくに古文では句読点も無い.文は縦書きであり,割書\yougo,虫喰い\yougo,囲み\yougoがあり,読み,振り,訓点\yougo,ヲコト点\yougo,各種註記などの多様な傍記を持っている.さらに,任意の位置に参照や書込みがあり,挿し絵,解題,頭註または脚註があり,系図があり,「何々を見よ」などの引用や遷移もある.すなわち,作品は本文と各種情報が混在したハイパーテキスト的である(図2の版面参照).\subsubsection{フラグ方式}\label{sec:3.2.2setu}原・本文は本文と傍記によって表現される.本文の記述には文字セットを除き特段のルールは必要ではない.傍記の記述にはルールが必要である.一般に,傍記はその文の要素への指示として表される.文の要素を本文素と呼ぶ.本文素とは意味のある語や字を単位とする概念ではなく,傍記の対象となる語や字などの論理的な単位である.傍記は必ずしも意味のある語に指示されるわけではなく,例えばその語にとって意味的に不可分の下位構成語や字に指示されることも多い.傍記の表記は本文素に対する並列的なまた補足的な文や記号から成る.これを傍記素と呼ぶ.したがって,本文素に対する傍記の位置付けが決まればその記述が可能である.この位置付けの記述子はフラグと呼ばれる.フラグは本文素並びに本文素の間に対する傍記の位置を示すために使用する.本文素の間とは字間や語間などであり,傍記はこれらの間にも指示される.これにより,傍記を論理レコード中に埋め込み記述することができる.一方,特殊な構造を持つ文の表記形式については,フラグを構造的に定義する制御記号を定め,その変換規則を定める.これらには虫喰いとその各種変形,図式的なテキスト表現(系図など),割書,2重傍記,版本における書誌的事項などが定義されている.\subsubsection{文字セット}\label{sec:3.2.3setu}文字種が多い.本文は書写による時代による複雑な変遷,伝搬過程がある.電子化本文の文字セットを閉じることは不可能である.文字セットには梵字\yougoなどの各国語文字,踊り字\yougo,謡印\yougo,音曲記号,注記記号などの他,絵文字に代表されるような特殊な文字や記号もある.原文に使われている文字セットは原則として保存する.ただし,踊り字,謡印などのような特殊な文字や記号は,適切な文字や記号に置換する.例として,日本古典文学大系を見てみる.これは旧漢字,旧仮名使いで表記されている.現在のJISコ−ド表(JIS78を用いている)では漢字字体についての規則性はなく,旧字体と新字体が混在している.そのため,JISコ−ド表に定義している旧漢字はそのまま使う.JIS外の旧漢字でその新字体がJIS内にある場合はこの新字体を用いる.その新字体がJIS外であればその文字を作成する.JIS外字の内,新字体を持たない旧字体の漢字は作成する.国文学研究資料館が定義するJIS外字(約2600字)は基本文字として使う.このような簡単な規則を定めて電子化した場合に,日本古典文学大系には約3千種のJIS外字がある.この内の約600種は作成すべき文字と認識されている.ただし,データ流通を考える場合にはあまりJIS外字を増やすべきではない.なお,噺本大系はJIS内字に拠っているので,JIS外字はないが,この場合には絵文字などの特殊文字が多い.使用する文字セットはその型をTTDの先頭で定義する.\subsection{付加価値づけ}\label{sec:3.3setu}国文学の電子化本文に要求される機能に,まず語彙索引の作成がある.日本語による文は語単位の分かち書きの無い文からなる.そこで,日本語の全文データベースを作成する場合は,その文を分かち書きしなければならない.さらに,その単位毎に表記,読み,品詞などの属性情報を付加する必要がある.しかし,分かち書きを行うことは一般に容易ではない.次のような問題がある.作品は時代,ジャンルの範囲が広範である.また,作品は個々に文体が異なるために,語彙索引の作成,管理,利用の取扱いが異なる.最も重要な点は,研究者によって語単位の確定やその属性に対する認識が異なることである.したがって,第1段階では分かち書きをしたデータ作成は行わない.利用する研究者が行うものとする.そのための分かち書きと属性付加に関するルールのみを定める.
\section{データ記述文法---KOKINルール}
\label{sec:4shou}\subsection{前提}\label{sec:4.1setu}上記の問題を全て解決できているわけではない.電子化本文の対象は前述の校訂本,版本であるから,符号化の規則はこの範囲を原則としている.KOKINルールと呼ぶデータ記述文法を定め,データ作成に当った.これは自立型のデータファイルとして流通できること,並びに本文データベースに登録できることを条件にしている.KOKINルールは3種の規則から成る.なお,この規則は研究者が日常的に使用できることを前提に作られており,単純ではあるが機能は充足していなければならない.以下に,ルールの基本構造をまとめる.文献\cite{yasunaga:95a}による噺本大系を具体例に用いる.\subsection{KOKINルール#1}\label{sec:4.2setu}KOKINルール#1は作品のTTDを定義する.TTDは論理ファイルの順序並びである.論理ファイルは論理レコードの順序並びである.論理レコードはその型と性質がタグにより定義される.したがって,TTDの定義はタグリストで表すことができる.なお,タグを持たない論理レコードはない.図4に,論理レコードの基本形を多少説明を省くがBNFで定義したものを示す.論理レコードの基本形はタグと情報部から構成される.情報部は原文の本文データの本体部分であり,算用数字または日本語文字列で表現される.\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=1-4.eps,width=108mm}\vspace*{5mm}\caption{論理レコードの基本形(BNFによる)--KOKINルール#1}\label{fig:4}\end{center}\end{figure}表3に,タグの種類と定義の抜粋例を示す.また,表4にタグの書式と文法の定義例を示す.タグは英字により定義し,属性は算用数字(いずれも全角文字),または日本語文字列による.\begin{table}[htbp]\begin{center}\leavevmode\caption{噺本大系のタグ(論理コード)の一覧}\label{tab:hyou3}\bigskip\begin{minipage}{95mm}(1)原本の構造を定義するタグ\\[2mm]\begin{tabular}{l|l}\hline\multicolumn{1}{c|}{\makebox[18mm]{タグ}}&\multicolumn{1}{c}{\makebox[65mm]{役割,備考}}\\\hlineU&原本名称\\Pn&論理ファイル名称\\Ln,Mn&論理ファイルを構成する原行論理レコード.\\&本来は,原本文の構造を定義するタグであるが,\\&原本の構造を決める基本的単位である.\\\hline\end{tabular}\bigskip(2)原本文の構造を定義するタグ(抜粋)\\[2mm]\begin{tabular}{l|l}\hline\multicolumn{1}{c|}{\makebox[18mm]{タグ}}&\multicolumn{1}{c}{\makebox[65mm]{役割,備考}}\\\hlineT&作品名称\\T1&子作品名称\\T2&噺名称\\X&小噺名称,小噺の題名\\Nn&小噺の順序番号\\J&小噺のキイワード\\Y&作品の書誌的事項\\Y1&小作品の書誌的事項\\Q&作品の奥書事項\\Q1&小作品の奥書事項\\G&挿し絵の名称,挿し絵の位置を同定する.\\g&原文中の挿し絵の名称,挿し絵の位置\\gn&挿し絵中の本文\\H&表形式の図表の名称,図表の位置\\h&原文中の表の名称,表の位置\\hn&表中の本文\\A&噺,小噺の作者名\\B&噺,小噺の出典などの補足事項\\Ln&原行論理レコード.原本の2段組版の上段\\Mn&原行論理レコード.同上の下段\\\hline\multicolumn{2}{c}{~}\\[-2mm]\multicolumn{2}{c}{〈注〉nは,タグの属性値.算用数字列で順序性を持つ.}\\\end{tabular}\end{minipage}\end{center}\end{table}\begin{table}[htbp]\begin{center}\leavevmode\caption{タグの書式と文法の定義(抜粋例)}\label{tab:hyou4}\bigskip\begin{minipage}{125mm}\begin{tabular}{l|l}\hline&\\[-2mm](1)文法名&\makebox[100mm][l]{【】内にタグの文法名を定義する.}\\(2)書式&タグが定義する論理レコードの書式を示す.\\&[]は省略が可能である.\\(3)名称&論理レコードの名称である.\\(4)定義&論理レコードの定義である.及び注意事項を含む.\\(5)タグ&タグの表記形式である.\\(6)情報部&情報部の定義,書式である.情報部にはタグの属性記述を含む.ここで,\\&``p''は日本語文字列である.\\&``n''は算用数字である.ただし,全角文字である.\\&``k''はキーワードである.日本語文字列である.繰返しがある.\\&``a''は人物名である.編著などの役割表示を持つ場合がある.\\&~~日本語文字列である.繰返しがある.\\&``b''は典拠などを表わす.日本語文字列である.繰返しがある.\\&``;''は繰返し記号である.\\(7)範囲&タグの有効範囲,及ぼす影響範囲を定義する.\\&一般に,タグの有効範囲は次の同レベル,あるいは上位レベルの\\&タグが現れるまでとする.\\&``|''は``または''を意味する.\\&``,''は``かつ''を意味する.\\&<>はそのタグ内で完結することを意味する.\\(8)備考&その論理レコードの使用上の注意事項などである.\\&記述例を示す.\\[2mm]\hline\end{tabular}\bigskip<抜粋例>\\[1mm]\begin{tabular}{l|l}\hline&\\[-2mm](1)文法名&\makebox[100mm][l]{【S.1】}\\(2)書式&Up\\(3)名称&原本名\\(4)定義&作品が含まれている原本の識別子である.作品の先頭に置き,\\&作品の開始を表す.論理ファイルと対等のレベルに置く.\\&``T''と共にデータベース名を与える.\\(5)タグ&U\\(6)情報部&``p''は原本名称である.噺本大系と巻号を表す.\\(7)範囲&U\\(8)備考&データベースの識別子である.\\\phantom{(8)}例&U噺本大系△第五巻\\[2mm]\hline&\\[-2mm](1)文法名&【T.4】\\(2)書式&X[p]\\(3)名称&小噺名\\(4)定義&小噺名の識別子である.T2の次のレベルに置く.\\(5)タグ&X\\(6)情報部&``p''は小噺名称(題)である.省略することがある.\\(7)範囲&X|T2|T1|T|Y1|Q1|Y|Q|U\\(8)備考&噺は複数の小噺から成る.\\\phantom{(8)}例&X親の心子しらす\\&X\qquad$\cdots\cdots$\qquad\quad小噺に題が無い場合\\[2mm]\hline\end{tabular}\end{minipage}\end{center}\end{table}原則として,論理レコードは開始記号“¥”で始まり,タグを定義し,必要な情報部による本文データが続き,終結記号“★”で終了する.自明の開始記号は省略可とする.これらの記号に特段の意味はなく,利用者の見た目の分かり易さを重視した.なお,作品毎に独自に定義するタグがある.これをローカルルールと呼ぶ.噺本大系に関する作品構造(TTD)の定義例を,付録\ref{sec:furoku2}に示す.また,そのデータ記述例(初期データ入力例)を,噺本大系第五巻「軽口大わらひ」について,付録\ref{sec:furoku3}に示す.\subsection{KOKINルール#2}\label{sec:4.3setu}KOKINルール#2は,日本語の特有な表記のためのデータ記述のルールである.主として傍記記述の文法である.傍記はテキストであるが,本文に対する付随的な情報と考え,意味を考えない.例えば,読み,振り漢字,校異註,参照などの区別をしない.すなわち,本文に対する傍記の位置付けである論理関係を定義する.この記述子がフラグである.図5に,BNFによりフラグ文法を定義した抜粋例を示す.また,下記で用いる例を図中にまとめる.\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=1-5.eps,width=126mm}\vspace*{5mm}\caption{フラグの基本形(BNFによる)--KOKINルール#2}\label{fig:5}\end{center}\end{figure}フラグは,本文素への傍記の位置の開始及び終結を指示しなければならない.これらを開始フラグ及び終結フラグと呼ぶ.終結フラグに続いて開始フラグが現れる場合は,終結フラグを省略することができる(フラグの縮約と言う).とくに,字間,語間などの間の位置を示すフラグは開始と終結を同時に兼ねる.これを間フラグと呼ぶ.なお,間フラグに続いて開始フラグが現れる場合(傍記が独立している)は,フラグの省略は無い.特殊な傍記などの記述のための制御記述子を定義する.以下に代表例(記述例は図5)を示す.縦書である本文素の左右の傍記を左右傍記と呼ぶ.左右傍記制御記述子“|”により,右傍記と左傍記を識別する.記述順序は右傍記優先である.2重傍記は2重傍記制御記述子“#”により識別する.記述順序は右側傍記優先である.文の特殊な表記の記述規則も定める.例えば,虫喰いは様々な表記形式がある.個別の虫喰いは原則として文字“□”に置き換える.四角で囲った虫喰い文字列は,推量された文字列を補ったものである.虫喰い領域記述子“◇”により記述する.同様に,領域を指定する記述子はそれぞれの性質毎に定める.例えば,割書は領域記述子“@”により識別する.傍記データの記述規則を定める.傍記データは原文のままとする.傍記には,元来底本に表記されている振り仮名や漢字などがあり,また原本の校異などに関する種々の校訂註がある.データ記述においては傍記の種類の区別はしない.すなわち,傍記の属性情報は定義しない.特殊文字の置換規則を定める.例えば,古文でよく使われる2字以上の踊り字“\odorizi”は,清音,半濁音,濁音別に定める繰返し記号により置換する.例えば,n字の清音の踊り字はnを繰返し音字数とし,“+n”と記述する.\subsection{KOKINルール#3}\label{sec:4.4setu}分かち書きを行い,品詞情報や各種属性情報を付加するための規則である.付加価値付けと呼んでいる.ルール化の基礎を語彙索引の作成に置く.すなわち,文を語あるいは接辞などの造語成分に区切り(語単位),これに対する読みを付して,読みによる50音順に配列する.同一語を一ヶ所に集めるために,活用語は終止形を基本とする読みを与える.さらに,同音異義語を区別するため漢字を与える.掛詞\yougoなどの両用語の掲出を考慮する.品詞情報を付加する.とくに,名詞では人物名,官職と人物の同定,地名の同定を考慮する.一方では,原文の誤字,脱字などや特殊語彙の注記の表現なども必要である.図6に,ルールの典型例を示す.KOKINルール#2と同様の書式であるが,フラグ記号に空白を用いて語単位(または形態,形態素など)を確定し,()内に属性情報を付す.属性情報は語単位に対して,種別を[]などで括り与える.属性情報の記述は傍記と同じ形式である.\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=1-6.eps,width=112mm}\vspace*{5mm}\caption{付加価値付けの基本形(BNFによる)--KOKINルール#3}\label{fig:6}\end{center}\end{figure}語単位の確定や属性情報の種類と目的などは,研究者の研究目的によって異なるから,これら全てについて前もって定義することはできない.このような背景から,ルール#3は現在未完成である.また,先に述べたように,第1段階では分かち書きは行わない.
\section{評価}
\label{sec:5shou}KOKINルールに基づいて,表2に示す作品のデータ記述を行い,データ作成を行った.これらのデータ構文の正当性の検証は,専用のパーサシステムを作り確認した.詳細は割愛するが,KOKINルール自体に特段の問題はない.このシステムはむしろデータ作成上のエラーチェックに有効であった.また,ルール化されたデータから元のデータを再現する検証を行い,確認した.これは印刷組版までの再現ではなく,原本の形式上の再現として行った.次に,KOKINルールで作成したデータは,研究者が研究現場で実際に使えるかということの評価が必要である.すなわち,ルール化されたデータの有用性,有効性の検証である.そこで,次のような課題について実証実験を行った.\subsection{校訂本文データベース}\label{sec:5.1setu}KOKINルールで記述したデータは,校訂本文データベースとして定義可能でかつ実装できなければならない.とくに,作品の本文をどのようにデータベースに定義するかの問題がある.本文の連続性を保存し,文体の構造を規定し,文や語や字の検索,研究を可能としなければならない.校訂本文データベースは本文,書誌,注釈,ユーティリティという4つの実体とそれらの関連により,概念モデルが定義されている\cite{yasunaga:94}.すなわち,図1に示した電子化本文の情報構造を定義するモデルとして実現されている.本文実体は,本文情報すなわち本文と傍記のデータベースである.作品単位でその本文情報を蓄積するが,KOKINルール#1で規定した論理レコードを定義域とする.KOKINルール#2は論理レコードを構成するデータとして取り扱う.書誌実体は本の構造を含む本情報である.校訂本情報と文献資料情報のデータベースである.また,TTDのデータベースでもあり,校訂本の目次構成や文書構造及び文体などの属性情報を持つ.注釈実体は校註情報の内,解説註のデータベースである.ユーティリティ実体は校註情報の内,校訂註を蓄積し,また校訂本作成時の凡例に関する情報やシステム及び作品の利用案内情報を持つ.実現の詳細は割愛するが,フルテキストを定義するデータモデルはないので,関係モデルをベースに開発した.実装はHITACM860/60上に,DBMSに関係モデルであるXDM(日立製作所製)を用いた.本文の入れ子または階層構造や連続性は全て正規形に変換している.したがって,各関係表は多くのポインタ属性を持たざるを得ない.また,標準のSQLでは構造を持つ文書に対して,例えば繰返し,入れ子などに関しての検索機能が不足である.そのため,文書の論理構造を定義するDQL:DocumentQueryLanguage\cite{hara:94}を考慮している.まず,案内的なディレクトリサービスを考えている.機能的にはダウンロードを可能とし,文字列に基づくKWIC索引作成などを行う.現在,国文学研究資料館において表2のデータベースの試行運用が行われている.\subsection{CD-ROMの作成}\label{sec:5.2setu}データ流通を一歩進めるものとして,KOKINルール記述のデータのCD-ROM化,並びに検索サーバとしてCD-ROM上の必要な文字列を検索する機能システムについて検討した.CD-ROM検索サーバはソニー株式会社との共同研究により,同社のCD-ROMハンドラであるMediaFinderをベースとした検索サーバと,その利用システムを開発した.検索サーバにワークステーション(NEWS)を用いて,CSSとして実装している.一方,MS-WINDOWSの下でのパソコン版システムとして,サーバとユーザ機能を一体化したMediaFinder(同一名称である)を開発している.CD-ROMの作成ではMediaFinderのデータ構造に,KOKINルールによる噺本大系の本文データを変換する必要がある.データ構造は単純化し,2階層とした.1枚のCD-ROMには複数のMediaFinder型データベースが定義できる.また,データベースは項目と呼ぶ単位に分類する.一般に,データベース中の項目数の制限はないが,多い場合は当然検索性能に関わる.MediaFinderの設計思想は,項目単位で情報を高速に検索することに置かれている.MediaFinderはハイパーリンクに基づいた検索システムを持っており,噺本大系では2種類の結合を生成している.1つは本文データの構造を定義するタグを指標として,ハイパーリンクを構成したものである.これにより,本文の構成要素(全文,噺,注釈など)を単位とした文字列検索が可能となる.他の1つは,論理ファイル単位(タグPによる領域)を検索対象とするものである.これにより,校訂本の本文の表記を忠実に再現する.ただし,本文表記の再現であり,ページ像は再現しない.検索機能としては,次の機能を実装している.\smallskip\begin{description}\item[\MARU{1}]目次検索:関連する文章を辿りながら,ブラウジングする機能\item[\MARU{2}]文字または単語検索:必要な語彙単位から情報を探す機能\item[\MARU{3}]項目検索:項目名から必要な情報を検索する機能\item[\MARU{4}]しおり:参照した項目に印を付け,後からそれを呼び出す機能\end{description}\smallskipその他にも,印刷や自前のファイルに取り込むこと,関連する語彙から探すこと,絵や表を取り扱うことも可能としている.このようなシステムを実装し,実験環境に供している.概して評判がよい.\subsection{SGML化}\label{sec:5.3setu}KOKINルールは研究者が憶えやすく,使い易い規則として開発されているが,SGMLと互換性を持っている.SGMLによる古典本文や目録の構造記述はデータの標準化を一層推進する.噺本大系,正保版本歌集二十一代集などのデータ記述をSGMLで行った.噺本大系はKOKINルールで記述した本文データから,SGMLへの変換を行った.正保版本歌集は独自仕様で記述された本文データから,SGML変換を行った.いずれも,SGML仕様に基づいたDTDを定義し,Mark-it(SemaSoftwareTechnology社製)と言うSGMLパーサにかけ,自動変換した.DTDを如何にうまく定義するかがポイントである.KOKINルール#1の変換は比較的簡単である.KOKINルール#2の変換は日本語の表記構造の認識にあるため,困難な場合が多い.例えば,傍記の泣き別れである(図5参照).また,論理レコードの順序性の保持は,SGMLでの記述は難しい.現在,技術検討を行っている.なお,SGML化の詳細は別途報告の予定である(例えば,\cite{hara:95}).変換されたSGMLデータは,例えばMark-itでTex形式のデータに変換し,印刷版面に近い版下出力などが可能である.SGMLからTexへの自動変換も行った.また,Open-Text(Open-Text社製)と言うフルテキストデータベース検索システムを用いれば,DTDで定義された要素を指定する語彙検索が可能である.これらは,現在試行実験を行っている.
\section{あとがき}
\label{sec:6shou}国文学作品のテキストデータ記述文法について述べた.全ての時代,ジャンルに渡る本文を,ここで述べたデータ記述文法で記述できるわけではない.作品毎に細部の機能拡張が必要である.ただし,この骨格は有効であると考えている.国文学では,作品の本文を同定すること,すなわち定本を確定することが極めて重要とされる.ある作品の本は書写などによる永い伝搬過程を持っているから,本文それ自体に多くの異動が発生している.諸本の系譜を知らなくては,本文の確立あるいは解釈は成立しない.このことを前提として,KOKINルールは作られている.また,KOKINルールでは校訂本を記述できる.KOKINルールは国文学者にとって取り扱いが容易な文法である.データ記述において,ユーザ定義が容易であるため自由度が高く,機能拡張性に富む.すでに,データ作成も始められている.本文データベースの目的は,既定の活字本をコンピュータに写し取るのではなく,また本を作ることでもない.本文がコンピュータに入力されたとき,研究の多様な展開に寄与できることを目的としている.したがって,利用者が個人的に自由に活用できるデータベースでなければならない.そのための試みとして,大型コンピュータによるデータベースサービスの他に,CD-ROM化についての検討も行っている.なお,データ流通について,とくにJIS外字の取り扱いは,現在有効適切な対策は立てられていない.大きな将来課題である.データ作成作業は多くの人手と時間と費用を要す.とくに,異なる多量な作品を対象としているから,深く広い専門的知識と有効適切なかつ総合的な作業管理を必要としている.とりわけ,データの信頼性確保のための校正には多大の労力を強いられている.最近,欧米を中心にフルテキストの標準化計画(TEI)が進められている.これは,現在のところ英字を中心とするSGMLに基礎を置く多様なドキュメント類のデータ流通,蓄積を目的としているが,これへの日本語としての対応が求められている.本稿でのデータ記述文法は独自なものであるが,基本的考え方は共通である.また,一部の作品については機能互換性を検証している.ただし,国文学作品の全般に渡る標準化は極めて困難なことと考えている.本研究がその一助となれば幸いである.\acknowledgment本研究では,日頃ご指導いただく国文学研究資料館の佐竹昭廣館長,藤原鎮男教授,立川美彦教授に御礼申し上げる.また,同館岡雅彦教授,中村康夫助教授には,有益な助言と批評などをいただいた.とくに,原正一郎助教授,情報処理係野村龍氏をはじめ,係員諸氏には,システム開発,実験などの協力をいただいた.また,ソニー株式会社三原節生氏,日本科学技術振興財団小島哲郎氏始め,多くの方々に,システム開発などに協力をいただいた.合わせて深謝する.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\newpage\appendix
\section{国文学の用語}
\label{sec:furoku1}主として,広辞苑(1983,岩波書店,第三版)により,読みのABC順で示す.\begin{center}\begin{tabular}{l@{~}c@{~}l}梵字{\small(ボンジ)}&:&梵語すなわちサンスクリットを記載するのに用いる文字.\\伝本{\small(デンポン)}&:&ある文献の写本または版本として世に伝存するもの.\\絵詞{\small(エコトバ)}&:&絵を説明した詞.絵巻物の詞書き.絵解きの詞.\\翻刻{\small(ホンコク)}&:&手書き文字,木版文字などを活字に置き換えること.\\&&翻刻本とは,写本,刊本を底本として,木版または活版で刊行した本.\\異本{\small(イホン)}&:&同一の書物であるが,文字,語句,順序に異同があるもの.別本.\\解題{\small(カイダイ)}&:&書物や作品の著作者,著作の由来,内容,出版の年月などの解説.\\掛詞{\small(カケコトバ)}&:&同音異義を用いて,1語に2つ以上の意味を持たせたもの.\\囲み{\small(カコミ)}&:&紙面の一部を枠で囲んだ部分.虫喰いの痕など.\\刊本{\small(カンポン)}&:&狭義には主として江戸時代の木活字本,銅活字本,整版本などの称.\\&&版本.\\校異{\small(コウイ)}&:&文章の文字,語句を比べ合わせ,調べること.またその結果.\\訓点{\small(クンテン)}&:&漢文を訓読するために原文に書き加えた文字,符号の称.\\虫喰い{\small(ムシクイ)}&:&紙魚などによる食害.\\踊り字{\small(オドリジ)}&:&熟語で同一の漢字または仮名を重ねることを表す符号.重ね字.\\底本{\small(テイホン)}&:&翻訳,校訂などに当たって主な拠り所とした本.そこほん.\\頭註{\small(トウチュウ)}&:&本文の上方に註を付すこと.また,その註.脚註もある.\\謡印{\small(ウタイジルシ)}&:&謡曲の謡の印.\\割書{\small(ワリガキ)}&:&本文の途中に2行以上に小さく注などを書き入れること.\\ヲコト点&:&漢文訓読で漢字の読みを示すため,文字の隅などに付けた点や線の符\\&&号.その位置と形で読みが決まる.広く,訓点の1種と考えられる.\\\end{tabular}\end{center}\newpage
\section{噺本大系の作品構造(TTDの例)}
\label{sec:furoku2}\begin{center}\epsfile{file=1-7.eps,width=125mm}\end{center}
\section{噺本大系第5巻「軽口大わらひ」のデータ記述例}
\label{sec:furoku3}\begin{center}\epsfile{file=1-8.eps,height=186mm}\end{center}\begin{biography}\biotitle{略歴}\bioauthor{安永尚志}{1966年電気通信大学電気通信学部卒業.同年電気通信大学助手,東京大学大型計算機センター助手,同地震研究所講師,文部省大学共同利用機関国文学研究資料館助教授を経て,1986年より同館教授.工学博士.情報通信ネットワークに興味を持っている.現在人文科学へのコンピュータ応用に従事.とくに,国文学の情報構造解析,モデル化,データベースなどに関する研究と応用システム開発を行っている.最近では,テキストデータベースの開発研究に従事.電子情報通信学会,情報知識学会,情報処理学会,言語処理学会,ALLC,ACHなど会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V04N01-04 | \section{はじめに}
英語前置詞句(PrepositionalPhrase,PP)の係り先の曖昧性は文の構造的曖昧性の典型例をなすものである.その解消は自然言語処理における難題の一つとしてよく知られている.この問題の解決法には,大略,構文構造に基づく手法,知識に基づく手法,コーパスに基づく手法,シソーラスに基づく手法がある.構文構造に基づく手法は,文の構成素の結び付き関係を構文情報によって決めようとするものである.この手法の代表例に,RightAssociation(Kimball1973)とMinimalAttachment(Frazier1978)がある.RightAssociationでは,文の構成素は右側に隣接する句と結び付く傾向があると考え,MinimalAttachmentでは,構成素はより大きな構造に係る傾向があると見る.こうして,前置詞句はRightAssociationでは名詞句(NP)に,MinimalAttachmentでは動詞句(VP)に係る傾向を示す.構文構造に基づく手法には係り先を決めるのが簡単で,意味分析や特定の知識に依存しないという利点がある.しかし,係り先決定の正解率は低く実用性も低い(Whittemore,FerraraandBrunner1990).知識に基づく手法は,世界知識や対話モデルを用いて曖昧性の解消を試みるものである(DahlgrenandMcDowell1986;JensenandBinot1987など).この手法では,ドメインを限定し,その範囲での知識の利用が有効にできれば高い正解率が得られる.しかし,現在の知識表現技術では知識の獲得が難しく,コスト面の問題もある.コーパスに基づく手法は,コーバスから諸種の情報を抽出した上で係り先の確率を計算し曖昧性を解消するものである.近年,大規模のタグつきコーバスの開発が進み,コーパスに基づく言語研究が活発になっている.Hindleら(1993)の提案した語彙選好(lexicalpreference)モデルは,コーパスから自動的に抽出した動詞,目的語となる名詞,それと前置詞の出現頻度によりLA(lexicalassociation)scoreを計算し,その値によって前置詞句が動詞か名詞のどちらに係るかを判断している.コーパスに基づく手法は曖昧性の解消の有望な方法であることが認められている.しかし,この手法は希薄なデータ(sparsedata)の問題を抱えている.また,現状ではコーパスの資源や計算量の膨大さの問題もある.シソーラスに基づく手法は,シソーラスや機械可読辞書の情報を利用し,あるいはシソーラスと例文を利用することによって,前置詞句の曖昧性の解消を行うものである(JensonandBinot1987;Nagao1992;隅田ら1994など).この手法では特定のドメインで高い正解率を達成している.しかし,ドメインを限定しない場合,単語の多義性によって係り先の決定率が著しく低下する傾向がある.また,シソーラスや辞書にはカバーする情報が分野によって不均一であることや意味の粒度の問題もある.本稿では概念情報に基づく曖昧性の解消手法(ConceptualInformationBasedDisambiguation,CIBD)を提案する.ここでは,まず言語知識と曖昧性解消に使っている世界知識から,いくつかの一般的な係り先決定ルール(選好ルールとよぶ)を抽出する.選好ルールは係り先決定に際し,概念情報をはじめ,語彙情報,構文情報と共起情報を利用している.もし,選好ルールによって一意的に係り先が決まらない場合は,コーパスから得られるデータにより係り先の確率計算をし,その結果により係り先を選択する.以下,最初に機械可読辞書から抽出する概念情報を使っての曖昧性解消について述べる.その後で,選好的曖昧性解消モデル(PreferentialDisambiguationModel)を提案し,選好ルールを述べる.最後に,この手法によって行った曖昧性解消の実験結果を示し,本手法の有効性を論ずる.
\section{概念情報に基づく曖昧性解消}
前置詞句の係り先は文脈に依存する.CIBDでは,曖昧性の解消に用いる文脈を文の中に現れる4つの語(すなわち,動詞v,動詞と前置詞の間の名詞n1,前置詞p,前置詞の目的語である名詞n2)に限定する.以下,この4語を(v,n1,p,n2)として参照する.\subsection{曖昧性解消における概念情報の役割}CIBDでは,語の概念分類と語間の概念関係が曖昧性の解消に大きな役割を果す.これらの概念情報を曖昧性の解消に用いるのは,前置詞句を観察してみると,次のような一般則が得られるからである.\vspace*{3mm}\begin{itemize}\item[1.]語の素性がしばしば係り先を決める重要な手がかりとなる.例えば,n2が場所で,pがatであれば,係り先は動詞句である(例:Iboughtabottleofwine{\itat}a{\itdrugstore}.).\item[2.]vとn2,あるいはn1とn2の間にある種の概念関係か共起関係があれば,多くの場合,それにより前置詞句の係り先が決まる.例えば,Someonehad{\itbroken}thewindow{\itwith}a{\itstone}.において,{\itstone}/n2は{\itbreak}/vの道具となるので,この前置詞句は動詞句に係る.\item[3.]n1とn2の間に特定の概念関係がある場合,前置詞句の係り先は名詞句に限定される.例えば,Hespenttwoyearstowritea{\itnovel}inthree{\itvolumes}.では,{\itvolume}(巻)は{\itnovel}(小説)の構成単位であるため,前置詞句inthreevolumesは名詞novelに係る.\end{itemize}\vspace*{3mm}われわれはv,n1,n2を特定の意味を持つ概念と考え,それぞれの概念のもつ素性と概念間の意味的関係(概念関係)を利用して曖昧性を解消する.しかし,この解消法では,諸種の情報をどこから,どう抽出するかの問題が生ずる.われわれは,EDR電子辞書を利用してこの問題に対処する.EDR電子辞書は(株)日本電子化辞書研究所により編集され,その中に概念辞書,日本語と英語の単語辞書と共起辞書,日英と英日対訳辞書,専門用語辞書,日本語と英語コーパスを含む(EDR1993).われわれはその中の概念辞書,英語の単語辞書とコーパスを使って前置詞の曖昧性を解消する.\subsection{概念類と概念体系}前置詞句の係り先の決定に使うために,動詞や名詞を素性によりいくつの概念類に分類する.例えば,動詞をmental,motion,change\_stateなどの概念類に分類し,名詞をplace,time,state,abstract,degree,human,animalなどの概念類に分類する.ここで,概念類はEDR概念辞書に依拠したものである.EDR概念辞書は40万の概念を持ち,概念見出し辞書,概念体系辞書,概念記述辞書に分けられている.概念見出し辞書は概念の意味を説明するものである.概念体系辞書は概念の上位ー下位関係を用いて概念全体をシソーラスにしたものである.概念記述辞書は概念間の上位ー下位関係以外の意味関係や共起関係による概念を意味ネットワークにしたものである.一つの概念類は概念辞書の概念体系の中にある一つの概念とその下位概念の集合を意味する.一つの概念がどの概念類に属するかはEDR概念辞書の概念体系によって判明する.図1は概念体系の一例を示したものである.ここで,animalという概念類はanimalという概念及びanimalを上位概念とする下位概念の集合である.dogという概念はanimalという概念の下位概念であるので,animalという概念類に所属する(この関係をanimal(dog)と書く).\begin{figure}[h]\begin{center}\epsfile{file=fig1.eps,scale=0.45}\end{center}\caption{概念体系の例}\end{figure}\vspace*{-5mm}\subsection{概念関係}vとn2またはn1とn2の間の意味関係は前置詞句の係り先の決定に重要な役割を果す.EDR概念記述辞書は,概念間の意味関係として27種類の概念関係を定義している.表1は,その中から前置詞句の曖昧性の解消に役立つ12の概念関係を抽出したものである.概念記述辞書は二つの概念間に現れる概念関係を記述するものである.例えば,Tom{\bfrepaired}hiscarwitha{\bfwrench}.において,repair(修理する)とwrench(レンチ)の2概念の関係はimplementとなっている.ここで,$<$repair$>-<$implement$>-><$wrench$>$はwrenchがrepairに使う道具であることを示す.したがって,前置詞句withawrenchの係り先はrepairedである.同様に,Petergreetedthe{\bfgirl}inyellow{\bfskirt}.において,girl(若い女)とskirt(スカート)両概念間a-objectという概念関係がある.これは,skirtはgirlがもつものを物語る.前置詞句inyellowskirtの係り先はこの関係により名詞girlに決める.\begin{table}\caption{曖昧性の解消に用いる概念関係}{\normalsize\begin{center}\begin{tabular}{|l|l|l|}\hline\makebox[15mm]{関係子}&\makebox[42mm]{記述}&\makebox[48mm]{例}\\\hline\hlinea-object&属性を持つ対象&$<$red$>$--$<$a-object$>$--$><$apple$>$\\\hlineobject&動作・変化の影響を受ける対象&$<$eat$>$--$<$object$>$--$><$meat$>$\\\hlinemanner&動作・変化のやり方&$<$run$>$--$<$manner$>$--$><$slowly$>$\\\hlineimplement&有意志動作における道具・手段&$<$gun$>$--$<$implement$>$--$><$kill$>$\\\hlinesource&事象の主体または対象の最初の位置&$<$come$>$--$<$source$>$--$><$Osaka$>$\\\hlinegoal&事象の主体または対象の最後の位置&$<$go$>$--$<$goal$>$--$><$HongKong$>$\\\hlinepossessor&所有関係&$<$father$>$--$<$possessor$>$--$><$book$>$\\\hlinepurpose&目的&$<$go$>$--$<$purpose$>$--$><$fishing$>$\\\hlinecondition&事象・事実の条件関係&$<$delay$>$--$<$condition$>$--$><$rain$>$\\\hlineplace&事象の成立する場所&$<$study$>$--$<$place$>$--$><$library$>$\\\hlinequantity&物・動作・変化の量&$<$three$>$--$<$quantity$>$--$><$egg$>$\\\hlinenumber&数&$<$six$>$--$<$number$>$--$><$feet$>$\\\hline\end{tabular}\end{center}}\end{table}\
\section{概念情報に基づく選好的曖昧性解消モデル}
CIBDでは,概念情報をはじめ,語彙情報や統語情報や共起情報を用いて曖昧性を解消する.以下,このモデルの詳細を述べる.\subsection{選好ルール}前置詞句の係り先の決定手順をルール化したものを選好ルール(preferencerule)と呼ぶ.選好ルールは数多くの文例を収集,分析した結果を一般則にしたものである.選好ルールはさらに適用範囲によって大域的規則(globalrule)と局所的規則(localrule)に分けられる.前者はすべての前置詞に適用され,後者は特定の前置詞にのみ適用されるものである.大局的規則は,構文構造の特徴から抽出した曖昧性解消の手がかりを利用している.局所的規則は,概念辞書から抽出した概念情報を利用している.表2に7つの大域的規則を,表3に本稿で分析の対象とした12の前置詞に対応する局所的規則を示す.規則の中の$->$の左側の一項述語は概念類のラベルを示す(例:passivized(v)).二項述語は概念関係を示す(例:a-object(n1,n2)).これらの規則の右側に,vp\_attachは係り先が動詞句,np\_attachは係り先が名詞句であることを示す.\newpage\begin{table}[htb]\caption{大域的規則}{\normalsize\begin{center}\begin{itemize}\item[1.]lexical(passivized(v)+PP)ANDprep$\neq$'by'$->$vp\_attach(PP)\\vが受身形で前置詞が{\itby}ではない場合,前置詞句はVPに係る.\item[2.]n1==n2$->$vp\_attach(n1+PP)\\n2とn1が重複する場合(例:{\itstepbystep},{\itlossonloss}),n1とPPは一つの構成語になる.\item[3.](prep$\neq$'of'ANDprep$\neq$'for')AND(time(n2)ORperiod(n2))$->$vp\_attach(PP)\\n2が時を示し,前置詞が{\itof}あるいは{\itfor}ではない場合,前置詞句はVPに係る.\item[4.]lexical(Adjective+PP)$->$adjp\_attach(PP)\\置詞句の前の語が形容詞(分詞を含む)の場合,前置詞句は補語として形容詞に係る.\item[5.]is\_a(n2,reflexive\_pronoun)$->$vp\_attach(PP)\\n2が再帰代名詞の場合,前置詞句はVPに係る.\item[6.](v,p)あるいは(v,n1,p)が慣用句としてEDR辞書に登録されている場合,前置詞句はVPに係る.\item[7.](n1,p,n2)が慣用句としてEDR辞書に登録されている場合,前置詞句はNPに係る.\end{itemize}\end{center}}\end{table}局所的規則を適用する前に,文の中の単語v,n1,n2をそれぞれの意味を表す概念に写像することが必要である.単語が一つの意味しか持たない場合は,1対1の写像になる.しかし,単語は複数の意味を持つ方が通例である.このような場合,単語を特定の概念に写像することは難しい.ここでは,1対1の写像をとるのではなく,いくつの意味的に可能な概念に写像する.以下にそのアルゴリズムを示す.\vspace*{5mm}\begin{itemize}\item[1.]v,n1,n2の候補概念リストを用意しておく,それぞれの定義をEDR単語辞書\footnote{EDR単語辞書では,単語や句の意味は特定の概念と対応している.}で調べ,とり得る意味(つまり概念)の集合を各リストに入れる.すべての候補リストに候補概念が一つしかない(単独の意味が特定された)場合は終了.\item[2.]EDR英語コーパス\footnote{EDR英語コーパスは16万文を含む.文の形態素情報,構文情報,意味情報を提供している.}に(v,n1,p,n2),(v,p,n2),(n1,p,n2),(v,n1)のどれかと同一の表現が存在するかどうかを調べる.もし存在するなら,文の中の単語はコーパスの中の単語と同じ意味を持つ可能性が高いため,候補リストはコーパスの中の概念により置換される.もしすべてのリストに候補概念が一つしかない場合は終了.\item[3.]一つのリストに二つ以上の候補概念があるとき,複数の候補が同じ親概念を持つ場合には,それらを親概念によって置換する(これをクラスタリングと呼ぶ).\end{itemize}\clearpage\begin{table}\caption{局所的規則}\begin{center}\epsfile{file=fig2.eps,scale=0.48}\end{center}\end{table}\clearpage\subsection{選好的曖昧性解消}CIBDは,大域的規則と局所的規則を使って前置詞句の係り先を選ぶ.係り先が一意に決められない場合,候補となっている係り先の確率計算をし,その値の高いものを係り先として選択する.CIBDのアルゴリズムは次の通りである.\vspace*{3mm}\begin{itemize}\item[1.]大域的規則を試す.もし,いずれかの規則が適用可能なら,その規則にある係り先を解として返して終了.\item[2.]前置詞に関連する局所的規則に現われる単語を前節で述べたアルゴリズムにより概念化する.未定義語がある場合には,ステップ4に行く.\item[3.]前置詞句に関連する局所的規則を試す.規則が一つだけ適用される場合は,この規則によって係り先を返して終了.さもなければ,もし前置詞がwithでなく,かつn2の前に不定冠詞か所有代名詞がある場合,前置詞句はVPに係る.\item[4.]次の式でlra-score(LikelihoodRatioonAttachment,前置詞句が動詞句か名詞句に係る可能性の比率)を算出し,その値により係り先を決める.この値が1.0より大きい場合はVPに係る.さもなければNPに係る.\vspace*{3mm}\hspace*{2mm}lra(v,p)=$\frac{count(p\midvp\_attach)}{count(p\midnp\_attach)}$+$log_2$$\frac{count(v\midp)\ast\Sigmacount(prep)}{\Sigmacount(v\midprep)\astcount(p)}$\hspace*{6mm}(prep$\subset$allprepositions)\end{itemize}\vspace*{3mm}アルゴリズムのステップ3で,係り先がVPかNPの両方になれる場合,n2の前の修飾語がしばしば係り先を示す.例えば,下の例文では,1aと2aの前置詞句の係り先は曖昧である.それに対し,1bと2bの前置詞句はVPに係ると考えられる.\vspace*{3mm}(1a)Tomcutthemeatonthetable.(1b)Tomcutthemeaton{\ita}table.\vspace{2mm}(2a)Theykeptthecarinthegarage.(2b)Theykeptthecarin{\ittheir}garage.\vspace*{3mm}アルゴリズムのステップ4の式に用いるデータはEDR英語コーパスから抽出されたものである.第一項は指定された前置詞pにおけるVPとNPに係る割合の比率である.第二項は動詞と前置詞の相対共起頻度の大きさによりVPに係る傾向性があるかどうかを推定するものである.lra-scoreに基づく曖昧性解消はデフォルト手段である.すなわち,未知語が出てくる場合,あるいは選好ルールにより一意に係り先を決められない場合に統計的手段が使われる.いくつの例を通して曖昧性解消の過程をみておこう.\clearpage(3)Ican'tfindabooksuitableformyson.\vspace*{1.8mm}この文が与えられたとき,まず,大域的規則を順番に調べる.すると,四番目の規則が適用されることがわかる.したがって,前置詞句{\itformyson}の係り先はsuitableとなる.\vspace*{2mm}(4)Suddenlytheguest{\bfstopped}her{\bfspeechwith}a{\bfchokingin}her{\bfthroat}.\vspace*{1.8mm}この文には2つの前置詞がある.最初に,第一の前置詞句withachokingに対し,大域的規則の適用を試みる.ここで,どの規則も適用されないことがわかる.次に,withに関する局所的規則を順番に試みる.最初の規則によりstop/vとchoking/n2の間にimplementという概念関係のあることが概念辞書から判明する.また他の規則の適用は不可のため,係り先はVPに決まる.第二の前置詞句inherthroatには,大域的規則は適用できないので,inに関し局所的規則の適用を試みる.ここで三番目の規則が適合する(choking/n1とthroat/n2の間にscopeとa-objectという概念関係がある).この規則により前置詞句の係り先はNPとなる.\vspace*{2mm}(5)We{\bfextracted}lexical{\bfpropertiesfrom}a{\bftreebank}toresolveambiguousPP\hspace*{6mm}attachments.\vspace*{1.8mm}この文には,大域的規則の適用は不可能である.また,treebank/n2は辞書に定義されていないので,局所的規則の適用も不可能である.そこで,lra-scoreの値を計算すると,4.733という値が得られる.この値は1.0より大きいので,前置詞句fromatreebankの係り先はVPとなる.\vspace*{-3mm}
\section{実験とその結果}
\vspace*{-1mm}CIBDの有効性を検証するため,12の前置詞を含む2877の文を使って曖昧性の解消実験を試みた.このテスト用のデータはある新聞と2つの本から4語組の文をランダムに抽出したものである.表4はその実験結果である.ここでは大域的規則,局所的規則,lra-scoreによる係り先決定の試行数,それぞれの場合の正解数,正解率を示す.大域的規則による係り先決定の正解率は97.1\%に達している.局所的規則による係り先決定の正解率は84.4\%,lra-scoreによる係り先決定の正解率は73.9\%である.正解率の平均は86.5\%である.\begin{table}[h]\caption{CIBDによる曖昧性解消の実験結果}{\normalsize\begin{center}\begin{tabular}{|l|r|r|r|}\hline\makebox[17mm]{段階}&\makebox[16mm]{試行数}&\makebox[16mm]{正解数}&\makebox[16mm]{正解率}\\\hline\hline大域的規則&784&761&97.1\%\\\hline局所的規則&1721&1452&84.4\%\\\hlinelra-score&372&275&73.9\%\\\hline\hline\hspace*{5mm}合計&2877&2488&86.5\%\\\hline\end{tabular}\end{center}}\end{table}4語組がEDR単語辞書で未定義の単語(未知語)を含む場合,局所的規則は係り先の決定に適用できない.そこで,lra-scoreより効率面で優れている局所的規則をできるだけ使えるように、次のようなローカルな処理を施してみることにする.\vspace*{3mm}\begin{itemize}\item4桁の数字を年代とみて概念{\itdate}に置き換える.他の数字は概念{\itnumber}に置き換える.\itemn1が大文字で始まる文字列(固有名詞)の場合,それを概念{\itname}に置き換える.\itemn2が大文字で始まる文字列の場合,前置詞が{\itin}であれば,n2を概念{\itplace}に,さもなければ,概念{\itname}に置き換える.\itemn2が人称代名詞の場合,概念{\itperson}に置き換える.\end{itemize}\vspace{3mm}これらの処置はCollinsらのコーパスの処理と似ている(CollinsandBrooks1995).表5はこの処理を加えた後で同じテストデータを用いて曖昧性解消の実験を試みた結果である.\begin{table}[h]\caption{未知語の処理を加えた場合のCIBD実験結果}{\normalsize\begin{center}\begin{tabular}{|l|r|r|r|}\hline\makebox[18mm]{段階}&\makebox[15mm]{試行数}&\makebox[15mm]{正解数}&\makebox[15mm]{正解率}\\\hline\hline大域的規則&784&761&97.1\%\\\hline局所的規則&1826&1543&84.5\%\\\hlinelra-score&267&197&73.8\%\\\hline\hline\hspace*{5mm}合計&2877&2501&86.9\%\\\hline\end{tabular}\end{center}}\end{table}表5では,未知語の処理を加えた正解率が86.9\%に達している.これは表4の結果より0.4\%よくなったものである.言い換えると、この改善は局所的規則で処理不能のケースが372文から267文に減ったことを意味する.
\section{性能の評価}
前置詞句の係り先の曖昧性解消実験では,それぞれが用いたテストデータがドメイン,規模,処理対象とした前置詞数などの点でを異なっている.したがって,正解率の精密な比較をすることは難しい.ここではCIBDが全前置詞を対象にしたときの性能の推定と,CIBDと他の手法との相対的な比較を行っておこう.\subsection{全前置詞を対象としたときのCIBDの性能}CIBDの実験は使用頻度の高い12の前置詞を選んで行ったものである.前置詞を5つの独立のテキストで調べてみると,CIBDで対象にした12の前置詞は全体の91.7\%(91.4\%$\sim$92.1\%)を占めている.その他の前置詞の出現頻度は8.3\%である.このうちの27.9\%には係り先の決定に大域的規則を使うことができるので,表5にある97.1\%の正解率を得られよう.残りの72.1\%の前置詞句の係り先をlra-scoreによって決めてみると,73.8\%の正解率が得られると考えられる.このことから,全前置詞に対しての予想正解率は86.4\%となる.\footnote{平均正解率=0.917$\ast$0.869+0.083$\ast$(0.279$\ast$0.971+0.721$\ast$0.738)=0.864}\subsection{他の手法との性能の評価}表6は4つの手法によって行った前置詞句の係り先決定の実験結果である.ここで,(1)は構文構造に基づく手法の一つであるRightAssociation\hspace*{1.5mm}をCIBDで用いたテストデータに適用した結果を示す.その正解率は67.1\%である.(2)と(3)はコーバスに基づく手法(BrillandResnik1994;CollinsandBrooks1995)の結果である.ここでは,訓練データとしてTheWallStreetJournalTreebank(Marcus,SantoriniandMarcinkiewicz1993)を使い,テストデータにはIBMDataを使っている.正解率はそれぞれ81.9\%と84.5\%である.\hspace*{2mm}(4)は隅田らが提案した用例に基づく手法の実験結果である.\begin{table}[h]\caption{他の手法とCIBDの比較}{\normalsize\begin{center}\begin{tabular}{|l|r|r|}\hline\makebox[48mm]{手法}&\makebox[23mm]{データのサイズ}&\makebox[15mm]{正解率}\\\hline\hline(1)\hspace*{3mm}RightAssociation&2877&67.1\%\\\hline(2)\hspace*{3mm}Rule-based[BR94]&3097&81.9\%\\\hline(3)\hspace*{3mm}Backed-off[CB95]&3097&84.5\%\\\hline(4)\hspace*{3mm}Example-based[SFI94]&131&85.7\%\\\hline(5-1)CIBD(付加処理なし)&2877&86.5\%\\\hline(5-2)CIBD(未知語処理を付加)&2877&86.9\%\\\hline(5-3)CIBD(全前置詞を対象)&&86.4\%\\\hline\end{tabular}\end{center}}\end{table}ここで,3299件の人工的に生成した用例(ドメインは国際会議申込の英日対話文)とLongmanLexicon準拠のシソーラスを用いた曖昧性の解消を討みている.131件の実験データを使って行った結果の正解率は85.7\%である.本稿での前置詞句の係り先決定結果をこれらの先行実験と比べてみると,CIBDの正解率が他の手法のものより優れていることがわかる.\footnote{(2)(3)(5)ともにドメインに依存しないものであり,それらのテストデータの規模には大きな差もない.}
\section{むすび}
CIBDによる曖昧性解消の実験結果は,その有効性を証明した.その理由として次のようなことが考えられる.\vspace*{3mm}\begin{itemize}\item[1.]機械可読辞書から多様な情報を利用したことCIBDでは,機械可読辞書と注釈つきコーバスから概念情報をはじめ,統語情報,形態素情報,語彙情報,共起情報等幅広い情報を入手して,総合的に曖昧性の解消をしている.一般に辞書には分野によってカバーする情報の不均一の問題がある.しかし,各情報の相互補完性を利用することにより,辞書からの情報が不十分な場合でも,曖昧性の解消を有効に行っている.\vspace*{2mm}\item[2.]段階的に曖昧性を解消したことCIBDでは,曖昧性の解消を漸進的に3段階に分け,成功率の高い方を優先させている.また,未知語を適切に処理することによって、局所的規則の適用を増やして正解率を上げることに成功している.\vspace*{2mm}\item[3.]多義語への対応をしたこと多義語の意味を特定の概念に写像することは難しい.CIBDは,単語のいくつ意味的可能な概念を選択し,その上位概念へのクラスタリングによって多義語の問題に対処することで正解率を上げている.\end{itemize}\vspace*{3mm}本論文は,概念情報を中心に語彙情報,統語情報,共起情報を用いて前置詞句係り先の曖昧性解消手法を示した.CIBDでは,機械可読辞書とタグつきのコーパスを利用して情報を抽出しているため,人工的な訓練データを用意する必要がない.また,CIBDはドメインに依存しないため,汎用性にも優れているといってよいだろう.\begin{thebibliography}{18}\bibitem{BA91}Boggess,L.,Agarwal,R.andDavis,R.(1991).``DisambiguationofPrepositionalPhrasesinAutomaticallyLabeledtechnicaltexts.''In{\itProceedingsofthe9thAAAI},155-159.\bibitem{BR94}Brill,E.andResnik,P.(1994).``ARule-basedApproachtoPrepositionalPhraseAttachmentDisambiguation.''In{\itProceedings,the15thCOLING},1198-1204.\bibitem{CB95}Collins,M.andBrooks,J.(1995).``PrepositionalPhraseAttachmentThroughaBacked-offModel.''http://xxx.lanl.gov/cmp-lg/9506021.\bibitem{CE93}Charniak,E.(1993).``StatisticalLanguageLearning.''TheMITPress.\bibitem{DM86}Dahlgren,K.andMcDowell,J.(1986).``UsingCommonsenseKnowledgetoDisambiguatePrepositionalPhraseModifiers.''In{\itProceedingsofthe5thAAAI}.589-593.\bibitem{EDR93}JapanElectronicDictionaryResearchInstitute,Ltd.(1993).``EDRElectronicDictionarySpecificationsGuide.''\bibitem{Fra78}Frazier,L.(1978).``OnComprehendingSentences:SyntacticParsingStrategies.''DoctoralDissertation,UniversityofConnecticut.\bibitem{Fuk95}福本文代(1995).``3語の同時出現頻度を利用した前置詞句の係り先の曖昧性解消.''自然言語処理,2(5),67-74.\bibitem{HR93}Hindle,D.andRooth,M.(1993).``StructuralAmbiguityandLexicalRelations.''{\itComputationalLinguistics},19(1),103-120.\bibitem{JB87}Jensen,K.andBinot,J.(1987).``DisambiguatingPrepositionalPhraseAttachmentsbyUsingOn-lineDictionaryDefinition.''{\itComputationalLinguistics}.13(3-4),251-260.\bibitem{Kim73}Kimball,J.(1973).``SevenPrinciplesofSurfaceStructureParsinginNaturalLanguage.''{\itCognition},2,15-47.\bibitem{Luk95}Luk,A.K.(1995).``StatisticalSenseDisambiguationwithRelativelySmallCorporaUsingDictionaryDefinitions.''{\itProceedingsofthe33rdAnnualMeetingofACL}.181-188.\bibitem{MSM93}Marcus,M.P.,Santorini,B.andMarcinkiewicz,M.A.(1993).``BuildingaLargeAnnotatedCorpusofEnglish:thePennTreebank.''{\itComputationalLinguistics},19(2),313-330.\bibitem{Nag92}NagaoM.(1992).``SomeRationalesandMethodologiesforExample-basedApproach.''In{\itProceedingsofFGNLP'92},82-94.\bibitem{RRR94}Ratnaparkhi,A.,Reynar,J.andRoukos,S.(1994).``AMaximumEntropyModelforPrepositionalPhraseAttachment.''In{\itProceedingsoftheHumanLanguageTechnologyWorkshop},250-255.\bibitem{SFI94}隅田英一郎,古瀬蔵,飯田仁(1994).``英語前置詞句係り先の用例主導あいまい性解消.''電子情報通信学会論文誌D-II,Vol.J77-D-II,No.3,557-565.\bibitem{WF95}Wu,H.,Ito,T.andFurugori,T.(1995).``APreferentialApproachforDisambiguatingPrepositionalPhraseModifiers.''In{\itProceedingsofthe3rdNaturalLanguageProcessingPacificRimSymposium},745-751.\bibitem{WFB90}Whittemore,G.,Ferrara,K.andBrunner,H.(1990).``EmpiricalStudyofPredictivePowersofSimpleAttachmentSchemesforPost-modifiersPrepositionalPhrases.''In{\itProceedingsofthe28thAnnualMeetingofACL},23-30.\bibitem{WHD85}Wilks,Y.,Huang,X.andFass,D.(1985).``Syntax,PreferenceandRightAttachment.''In{\itProceedingsofthe5thIJCAI},779-784.\end{thebibliography}\clearpage\begin{biography}\biotitle{略歴}\bioauthor{呉浩東}{1983年重慶大学情報工学部卒業.1986年同大学院修士課程修了.同年,重慶大学情報工学部助手,1988年講師.1994年電気通信大学院博士課程入学.自然言語処理,知的CAI,情報システムの研究に従事.}\bioauthor{古郡廷治}{ニューヨーク州立大学計算機科学科博士課程修了.Ph.D.電気通信大学情報工学科教授.自然言語処理,認知科学,人工知能などの研究に従事.ACM,情報処理学会,電子情報通信学会,計量国語学会各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V25N03-02 | \section{はじめに}
\label{introduction}ある二つの文について,それぞれの文がどのような意味を持ち,一方の文と他方の文とがどのような意味的関係にあるかという文間の関連性の評価は,情報検索や文書分類,質問応答などの自然言語処理の基盤を築く重要な技術である.これまでの自然言語処理における文の意味表現の方法は,ベクトル空間モデルが主流である.情報検索においては,単語や文字の出現頻度といった表層的な情報を用いて,統計的機械学習に基づいて文ベクトルを導出する手法が用いられてきた.また,さらに正確な文の意味表現を目指して,単語やフレーズといった構成要素を組み合わせて文の意味を計算するベクトル空間モデル~\cite{Find-similar,mitchell2010composition,DBLP:conf/icml/LeM14}が提案されてきた.近年では,深層学習を用いて高精度で文の意味表現を獲得する手法~\cite{MuellerAAAI2016,hill-cho-korhonen:2016:N16-1}が多く提案されている.これらの手法では,単語ベクトルや文字ベクトルを入力として学習を行い,文ベクトルを獲得しているが,獲得した文ベクトルが否定表現や数量表現などを含む文の意味を正確に表現しているかは自明ではない.たとえば,\textit{Tomdidnotmeetsomeoftheplayers}と\textit{Tomdidnotmeetanyoftheplayers}という文はほとんど単語が共通しており,\textit{some}や\textit{any}といった機能語は通常捨象されるか,ほぼ同じ単語ベクトルとして扱われる.しかし,前者は「\textit{Tom}は選手の何人かとは会わなかった(別の何人かの選手とは会った)」,後者は「\textit{Tom}はどの選手とも会わなかった」という意味を表しており,これらの文の意味の違いを単語や文字からの情報を用いてどのようにして捉えるかが課題となっている.そこで,統語構造を考慮したモデルなど,より高度な意味解析を取り入れたモデルの構築が期待されている.一方で,文の意味を論理式で表現し,論理推論によって高度な意味解析を行う手法~\cite{D16-1242,mineshima2016building,abzianidze:2015:EMNLP,abzianidze:2016:*SEM}は,論理式による意味表現と整合性の高い組合せ範疇文法(CombinatoryCategorialGrammar,CCG)~\cite{Steedman00}による頑健な統語解析の発展に伴い,近年研究が進められている.論理推論を用いた手法は,文ペアに対して一方の文を他方の文が内容的に含意しているかどうかを判定する含意関係認識のタスクで高精度を達成しており,様々な自然言語処理タスクへの応用が期待されている.一方で,論理推論を用いた手法は元来厳密な手法であり,部分的・段階的な含意関係や類似関係を扱うことが困難である.そこで本研究では,機械学習と論理推論とを組み合わせることで,柔軟かつ正確に文の関連性を学習する方法を検討する.具体的には,文の意味を論理式で表現し,2文間の双方向の含意関係について自然演繹による推論を試み,推論の過程と結果を抽出する.このとき,必要に応じて,文間の意味的関係を正しく判定するために必要な語彙知識を公理として追加して推論を試みる.語彙知識の利用によって文間の意味的関係が判定できれば,純粋な論理推論だけでは意味的関係を判定できない文ペアにおいても,部分的な推論過程から文の関連性を示す情報を抽出することが可能となる.抽出した推論の過程と結果に関する情報を用いて,文の関連性を学習する.
\section{関連研究}
\label{related}文の意味表現を獲得し,文の関連性を学習する手法はこれまでに幅広く研究されている.特に,文の意味は文を構成する部分の意味から合成されるという構成性の原理に基づいて,単語ベクトルの加法と乗法を用いて文の意味を表現する手法~\cite{mitchell-lapata:2008:ACLMain,mitchell2010composition}が提案された.しかし,この手法には,単語の出現順序が捨象されてしまうという問題があった.そこで,述語や機能語を高階テンソル,名詞をベクトルで表現し,縮約を用いて文の意味を計算するCategoricalCompositionalDistributionalSemanticModel~\cite{ClarkCoeckeSadrzadeh2011,grefenstette-sadrzadeh:2011:EMNLP,kartsaklis-kalchbrenner-sadrzadeh:2014:P14-2,kartsaklis-sadrzadeh:2016:COLING}が提案されている.しかし,これらの手法では比較的単純な構造の文のみを対象としており,否定や条件などの機能的な表現をどのように扱いうるかは明らかではない.近年では,深層学習の手法を用いた文の意味表現に関する研究が活発に進められている.文間類似度学習タスクでは,単語ベクトルと類義語ベクトルから双方向型LSTMを用いて文の意味表現を学習するモデル~\cite{MuellerAAAI2016}が提案されており,最高精度を記録している.また,構文木に沿って文の意味表現を再帰的に構築するTree-LSTMを用いたモデル~\cite{tai-socher-manning:2015:ACL-IJCNLP,zhou2016sentpair}や,LSTMを用いて文脈全体の意味を学習したのちに,CNNを用いて各文の局所的な特徴を学習するモデル~\cite{He2016PairwiseWI}など,より文の構造を考慮した深層学習のモデルが提案されている.しかし,深層学習によるアプローチは大量の文を入力としてend-to-endで文の意味表現を学習するため,内容語と機能語の意味をどのように区別して扱っているのかは明らかではない.一方で,論理推論によるアプローチは個々の文について意味解析を行い,直接的に文の意味表現(論理式)を獲得する.ここでの意味解析は理論言語学の知見に基づくものであり,内容語と機能語の意味を区別して扱う.文を論理式に変換し,論理推論を用いて文間の意味的関係を判定する手法には大きく分けて2つの手法が提案されている.1つは,論理推論のみを用いていわゆる教師なし学習で文間の意味的関係を判定する手法である.具体的には,タブローを用いた手法~\cite{abzianidze:2015:EMNLP,abzianidze:2016:*SEM}や,自然演繹を用いた手法~\cite{D16-1242,mineshima2016building}が提案されている.これらの手法は,文を一階述語論理式よりも表現力の高い高階述語論理式で表現し,効率的な自然言語推論を実現することによって,含意関係認識のタスクで高精度を達成している.一方で,文間類似度の計算といった,よりソフトな推論への適用が課題となっている.もう1つの手法は,統計的機械学習と,論理推論とを組み合わせて,教師あり学習で意味的関係を判定する手法である.この手法では,論理推論で得られた結果を機械学習や確率モデルを用いて近似することで,ソフトな推論を実現している.Bjervaらは,分散表現から導出した文中の単語間類似度と,一階述語論理による推論を用いて判定した含意関係とをそれぞれ特徴量に用いて,文間類似度や含意関係を学習する手法を提案している~\cite{bjerva:semeval14}.また,Beltagyらは,ProbabilisticSoftLogicによる類似度学習方法を提案している~\cite{beltagy:semeval14}.ProbabilisticSoftLogicでは,文を一階述語論理式に変換し,含意関係を満たす度合いとして単語の分散表現を用いて一方の文と他方の文との論理式間の重みを計算する.この重みを特徴量として,加法回帰モデルを用いて文間類似度を予測している.これらの先行研究から,推論による文間の含意関係の判定結果や論理式は文の言語的な情報を良質な形式で表現しているため,文間類似度学習に有用な情報であることが示唆されている.しかし,先行研究で学習に利用している推論に関する情報は,推論の判定結果(文間の意味的関係が含意・矛盾・不明のいずれであるか)や,2つの文において共通する論理式の割合にとどまっており,これらは推論から得られる情報のほんの一部でしかない.
\section{提案手法}
\label{method}\subsection{提案手法の全体像}\label{overall}本研究では文の意味を文間の含意関係に基づいて規定する証明論的意味論(Bekkiand\linebreakMineshima2017)\nocite{BekkiMineshima2016Luo}の観点から,文間の双方向の含意関係の証明を介して文間の関連性を計算する手法を提案する.一方の文と他方の文との関連が低いほど,2文間の含意関係を証明するにはより多くの公理生成や推論規則の適用が必要となり,証明の過程が複雑になる.したがって,証明の結果だけではなく,含意関係を判定するまでの証明の実行過程も,文間の関連性の評価に有用なはずである.一方の文を前提,他方の文を結論とみなして,前提から結論を導く推論の手法である{\bf自然演繹}~\cite{prawitz1965natural}に基づく証明では,証明の実行過程を分析することが可能である.そこで提案手法では,2文間の双方向の含意関係について自然演繹による証明を試み,証明の実行過程から文間の関連性を表現する特徴量を導出する.\begin{figure}[b]\begin{center}\includegraphics{25-3ia2f1.eps}\end{center}\caption{提案手法の全体像}\label{fig:1}\end{figure}提案手法の全体像を図~\ref{fig:1}に示す.提案手法ではまず,自然言語の英文のペア$A,B$を入力として,CCGパーザによる統語解析によって,$A,B$をCCGの導出木に変換する.次に,ラムダ計算に基づく意味合成によって,CCGの導出木から高階述語論理式$A',B'$に変換する.次に,定理証明器を用いて,2つの論理式$A',B'$の双方向の含意関係について,自然演繹による証明を試みる.文から論理式への変換と文間の含意関係の証明には,ccg2lambda~\cite{martinezgomez-EtAl:2016:P16-4}を用いる.ccg2lambdaは,CCGに基づく統語解析の結果を用いて文の意味を高階述語論理式で表現し,文間の含意関係について自動推論を行う統合的システムである.各入力文に対して,CCGの導出木と意味表示を出力し,また,文ペアに対しては含意関係の判定結果を出力する.本研究では文間の含意関係の証明の実行過程を取得できるようにccg2lambdaを改良した\footnote{改良したシステムはhttps://github.com/mynlp/ccg2lambdaにて公開している.}.このccg2lambdaが導出した文間の含意関係の証明の実行過程と判定結果を用いて,文間の関連性に関する特徴量を設計する.最後に,ランダムフォレストを用いて,文間類似度学習では回帰分析,含意関係認識では含意・矛盾・不明の3値分類を行う.次節以降で,各手順の詳細を述べる.\subsection{CCGに基づく意味表現}\label{ccg}まず,CCGパーザによる統語解析によって,英語の自然言語文をCCGの導出木に変換する.CCGは語彙化文法の一つであり,統語構造から合成的に意味表示を導出することに適した文法体系である.CCGでは,基本的な統語範疇として,$N$(普通名詞),$NP$(名詞句),$S$(文)等の基底範疇が定義されている.また,複合範疇は基本範疇と二項演算子$/,\backslash$の組み合わせによって定義される.CCGは語の統語範疇と意味表示を記述する辞書と,語から句や文を構成する際の統語構造と意味合成の計算方法を指定する少数の組合せ規則から成り立つ.図~\ref{fig:2}に提案手法に用いるCCGの代表的な組合せ規則を示す.たとえば,関数適用規則$(>)$を適用することによって,$X/Y$という形の統語範疇および意味$f$をもつ語は,その右側にある$Y$という形の統語範疇および意味$a$をもつ語と結びつき,$X$という統語範疇および意味$fa$をもつ句が形成される.\begin{figure}[b]\begin{center}\includegraphics{25-3ia2f2.eps}\end{center}\hangcaption{CCGの代表的な組合せ規則.関数適用規則($<,>$),関数合成規則($>\mathbf{B},<\mathbf{B}$),交差関数合成規則($>\mathbf{B}_\times,<\mathbf{B}_\times$)}\label{fig:2}\end{figure}CCGの導出木から文の意味表示である高階述語論理式への変換は,ラムダ計算に基づいて行われる.語の意味はラムダ項によって表現され,組合せ規則によってラムダ項の意味合成を行い,文の意味表示となる論理式を導出する.提案手法では,Neo-DavidsonianEventSemantics~\cite{Parsons90}に基づく意味表示を採用する.たとえば,他動詞文(\ref{transitive}a),量化文(\ref{some-ev}a),否定量化文(\ref{no-ev}a)はそれぞれ次のように分析される.\begin{exe}\ex\label{transitive}\begin{xlist}\exBobsurprisedSusan.\ex$\existse(\LF{surprise}(e)\wedge(\LF{subj}(e)=\LF{bob})\wedge(\LF{dobj}(e)=\LF{susan}))$\end{xlist}\ex\label{some-ev}\begin{xlist}\exSomewomenaresingingloudly.\ex$\existsx(\LF{woman}(x)\wedge\existse(\LF{sing}(e)\wedge(\LF{subj}(e)=x)\wedge\LF{loudly}(e)))$\end{xlist}\ex\label{no-ev}\begin{xlist}\exNowomenaresingingloudly.\ex$\neg\existsx(\LF{woman}(x)\wedge\existse(\LF{sing}(e)\wedge(\LF{subj}(e)=x)\wedge\LF{loudly}(e)))$\end{xlist}\end{exe}Neo-DavidsonianEventSemanticsでは,動詞をイベントを項に持つ1項述語として分析し,副詞や前置詞などの修飾表現をイベントを項に持つ述語として扱う.そのため,(\ref{some-ev}a)や(\ref{no-ev}a)の\textit{loudly}のような修飾表現を含む文も統一的に記述できるという利点がある.また,ここで採用する方法では,$x$が表す項がイベント$e$を表す動詞に対して主語の関係にあることを$\LF{subj}(e)=x$,$x$が表す項がイベント$e$を表す動詞に対して直接目的語の関係にあることを$\LF{dobj}(e)=x$のように表すことで,動詞の必須格にイベントを項にとる関数を対応させる.このため,個々の動詞の必須格と非必須格の境界を定める必要がないという点で,従来のDavidsonian形式~\cite{Davidson67}よりも柔軟な意味表現となっている.さらに,動詞をイベントに対する1項述語として統一的に扱うことで,動詞に関する公理もまた統一的に記述することが可能となり,自然言語の推論により適した表現形式となっている.なお,項とイベントとの関係(意味役割)については様々な分類手法が提案されている~\cite{culicover1984,Jackendo1990}が,本稿では英語CCGBank~\cite{ac4bfc92bbc447d9b2382f4513b2520d}に基づくCCGの解析結果から確認できる項とイベントの関係を意味表示に反映する\footnote{一例として,\textit{Atreeiscutbyaman}のような受動態を含む文の場合は,CCGの統語解析の結果から受動態であることを判別できるため,意味解析の結果得られた主語,すなわち,\textit{aman}はcutが表すイベントに対して主語の関係をもつ項とみなされる.}.本論文では,$\LF{subj}(e)=x$,$\LF{dobj}(e)=y$のようなイベントに関する機能的な関係を表す論理式を{\bf機能論理式}と呼び,内容語を担う情報を表す$\LF{sing}(e)$,$\LF{loudly}(e)$のような論理式を{\bf内容論理式}と呼ぶことで区別する.辞書では,統語範疇単位で意味を指定する意味割り当てのテンプレートと,量化や否定表現などの論理語・機能語に対して語単位で意味を指定する語彙項目の2種類を使用する.文の意味表現を合成的に与えるにあたって,イベントの量化をどのようにして正しく扱うかという問題がある.量化名詞句や否定を含む文では,一般的にイベントの存在量化よりも量化名詞句や否定が広いスコープをとることが知られている.そこで本論文では,先行研究~\cite{champ2015,mineshima2016building}に従い,動詞自体をイベントの量化を導入する表現として扱う.また,副詞等の修飾表現は,動詞によって導入された存在量化子のスコープ内に出現しなくてはならない.そこで,動詞の型を繰り上げ,動詞が修飾表現を項にとるように扱う.以上の分析に従ったCCG導出木の具体例として,文(\ref{no-ev}a)のCCG導出木を図~\ref{fig:nowomen}に示す.ここで,$\top$はトートロジーに対応する命題定項であり,$\top$の挿入は意味合成の過程で必要となる操作である~\cite{D16-1242}.最終的に導出された論理式は(\ref{no-ev}b)の論理式と同値である.\begin{figure}[t]\begin{center}\includegraphics{25-3ia2f3.eps}\end{center}\caption{\textit{Nowomenaresingingloudly.}のCCG導出木と意味表示}\label{fig:nowomen}\end{figure}ccg2lambdaの先行研究~\cite{EACL2017}では,複数のCCGパーザを組み合わせて統語解析に用いることによって,構文的曖昧性が解消され,含意関係の推論精度が向上したことが報告されている.提案手法ではC\&C~\cite{clark2007wide},EasyCCG~\cite{Lewis14a*ccg},depccg~\cite{yoshikawa-noji-matsumoto:2017:Long}という3種類のCCGパーザを用いて統語解析を行う.得られた3種類のパーズ結果を用いて意味合成と推論を行い,適切なパーズ結果を選択する.含意関係の正解ラベルが付与されたデータセットによる評価においては,トレーニングデータから特徴量を抽出する際に,含意関係の正解ラベルと同じ結果を導出するパーズ結果を優先して採用する.正解ラベルと同じ結果を導出できたパーズ結果が存在しなければ,統語解析に成功した結果を優先して採用する.含意関係の正解ラベルが存在しないデータセットによる評価では,統語解析に成功した結果を優先して採用する.また,複数のCCGパーザの結果において,含意関係の判定結果(yes,no,unknownのいずれか)が得られた場合は,より正確なパーズ結果を採用するため,パーザの精度が高い順に,depccg,EasyCCG,C\&Cの順に優先してパーズ結果を採用する.\subsection{自然演繹による証明戦略の概要}\label{strategy}本節では,提案手法で用いる自然演繹による証明戦略の概要について述べる.文間の含意関係とは一方の文の情報が他方の文の情報を含むという関係であり,方向性を持った関係であるが,類似関係は方向性を持たない対称的な関係である.よって,「$A$ならば$B$」が成り立つか否かという一方向の含意関係ではなく,「$A$ならば$B$」「$B$ならば$A$」がそれぞれ成り立つか否かという双方向の含意関係の証明を試みることによって,文間の関連性に関してより多くの情報が取得できると考えられる.そこで,本研究では文$A,B$間の双方向の含意関係の証明を介して,文$A,B$間の関連性を表す特徴を獲得する.文間の含意関係の証明には,高階論理・型理論に基づく定理証明器であるCoq~\cite{opac-b1101046}を用いる.Coqは自然演繹に基づいて推論規則を適用し,証明を行う.また,Ltacという記述言語を用いて証明探索の手続きを定義することによって,証明の自動化が可能である.ccg2lambdaはCoqの一階述語論理の部分系に対する自動推論を含む自動証明機能と,高階の公理とを組み合わせることで,自然言語の効率的な推論を可能にしている.提案手法で用いる文間の含意関係の証明の全体的な流れは次の通りである.まず,文$A,B$を論理式$A',B'$に変換し,一方の文を証明に用いる{\bf前提},他方の文を証明対象である{\bf結論}({\bfゴール})とみなして,$A'\RightarrowB'$,$B'\RightarrowA'$の証明を行う.証明に失敗した場合は,結論を否定した$A'\Rightarrow\negB'$,$B'\Rightarrow\negA'$の証明を行う.これは結論の否定が証明可能な場合は,結論も結論の否定も証明不可能な場合と比較して,論理式が共通の部分を多く含み,文間の関連度が高くなることを考慮している.実際に,評価に用いる文の意味的類似度データセットであるSemEval2014Task1のSentencesInvolvingCompositionalKnowledge(SICK)~\cite{MARELLI14.363}では,含意関係の正解ラベルが「矛盾」である文ペアの7割において,正解の類似度スコアが高く設定されている.結論の証明,結論の否定の証明の両方に失敗した場合は,前提のプールにある論理式からは導くことができない論理式({\bfサブゴール})が結論中に残っていることを意味する.そこで次に,前提のプールにある論理式と証明できないと判定されたサブゴールとの述語間の意味的関係について,語彙知識を用いてチェックし,公理の生成を試みる.生成した公理を用いて再度$A'\RightarrowB'$,$B'\RightarrowA'$の証明を試みる.$A'\RightarrowB'$,$B'\RightarrowA'$の証明に失敗した場合は,生成した公理を用いて結論を否定した$A'\Rightarrow\negB'$,$B'\Rightarrow\negA'$の証明を試みる.公理を生成しても,結論と結論の否定の両方の証明に失敗した場合は,$A'\RightarrowB'$,$B'\RightarrowA'$の証明の途中で証明不可能と判定されたサブゴールをスキップして,強制的に証明を終了させる.ここまでの推論における,生成した公理に関する情報や,強制的にスキップしたサブゴールの情報といった推論の情報をCoqの出力結果から抽出し,文間の関連性を表す特徴量として利用する.\subsection{含意関係の証明}\label{entail}含意関係の証明の例として,以下の2つの文$A,B$間の含意関係について,自然演繹による証明を試みる.$A$:\textit{Amanissinginginabar.}$B$:\textit{Amanissinging.}\noindent文$A,B$は統語解析,意味解析を経て,以下のような論理式$A',B'$に変換できる.\begin{align*}&A':\existse_1x_1x_2(\LF{man}(x_1)\wedge\LF{sing}(e_1)\wedge(\LF{subj}(e_1)=x_1)\wedge\\LF{bar}(x_2)\wedge\LF{in}(e_1,x_2))\\&B':\existse_1x_1(\LF{man}(x_1)\wedge\LF{sing}(e_1)\wedge(\LF{subj}(e_1)=x_1))\end{align*}まず,$A'\RightarrowB'$について,自然演繹による証明を試みる.ここで,論理式$A',B'$は推論規則を適用することによって分解することができる.図~\ref{InferenceRules}に本研究で用いる推論規則の例を示す.自然演繹の推論規則には導入規則と除去規則の2つがある.導入規則は結論をどのように証明するかを指定するための規則である.除去規則は前提をどのように証明に利用するかを指定するための規則であるが,主に前提のプールにある論理式をより小さい論理式に分解するために用いられる.\begin{figure}[t]\begin{center}\includegraphics{25-3ia2f4.eps}\end{center}\hangcaption{自然演繹の証明で用いる推論規則の例.$P,P_1,\ldotsP_n$は前提の論理式,$G,G_1,G_2$は結論(ゴール)の論理式を表す.いずれの推論規則においても,規則適用前の論理式は矢印の上部に,規則適用後の論理式は矢印の下部に示す.}\label{InferenceRules}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{25-3ia2f5.eps}\end{center}\caption{2文間の含意関係の証明プロセスの例}\label{ProcessEntail}\end{figure}$A'\RightarrowB'$の証明プロセスを図~\ref{ProcessEntail}に示す.図~\ref{ProcessEntail}において,論理式$A'$は前提$P_0$,論理式$B'$は結論$G_0$に配置される.$P_0$と$G_0$は除去規則({\small$\wedge$-\textsc{Elim},$\exists$-\textsc{Elim}})と導入規則({\small$\wedge$-\textsc{Intro},$\exists$-\textsc{Intro}})の適用によって,前提の集合$\mathcal{P}=\setof{P_2,P_3,P_4,P_5,P_6}$とサブゴールの集合$\mathcal{G}=\setof{G_2,G_3,G_4}$に分解される.証明はサブゴール$G_j$と述語と項が一致する前提$P_i$を探索する形で進められ,マッチする前提が見つかればそのサブゴールを解決できる.全てのサブゴールが解決できれば$A'\RightarrowB'$の証明が示せたことになる.この例では,サブゴール$G_2,G_3,G_4$と前提$P_2,P_3,P_4$の述語と項がそれぞれマッチし,全てのサブゴールが解決できるため,公理を生成せずに$A'\RightarrowB'$を示すことができる.次に,図~\ref{ProcessEntail}の前提$P_0$と結論$G_0$を逆転させて,$B'$を証明の前提,$A'$を証明の結論とみなし,$B'\RightarrowA'$の証明を試みる.先ほどと同様に,推論規則の適用によって,前提の集合$\mathcal{P}$とサブゴール$\mathcal{G}$の集合を得ることができる.\begin{align*}\mathcal{P}&=\{P_2:\mathbf{man}(x_1),\,P_3:\mathbf{sing}(e_1),\,P_4:\mathbf{subj}(e_1)=x_1\}\\\mathcal{G}&=\{G_2:\mathbf{man}(x_1),\,G_3:\mathbf{sing}(e_1),\,G_4:\mathbf{subj}(e_1)=x_1,\,G_5:\mathbf{bar}(x_2),\,G_6:\mathbf{in}(e_1,x_2))\}\end{align*}この場合,2つのサブゴール$G_5,G_6$は前提のプールにあるどの論理式ともマッチしないため,解決できずに残り,$B'\RightarrowA'$の証明に失敗する.そこで次に,語彙知識からの公理生成を試みる.しかし,この場合は残っているサブゴールの述語$\LF{bar}(x_2)$の項$x_2$をシェアする述語が前提$\mathcal{P}$中に存在しないため,公理を生成することができない.そのため,このような例からも部分的な証明プロセスの情報をCoqから取得するため,本研究では解決できなかったサブゴール$\LF{bar}(x_2),\LF{in}(e_1,x_2)$をスキップして,強制的に$B'\RightarrowA'$の証明を終了させる.\subsection{矛盾関係の証明}\label{contra}矛盾関係の証明について述べる上で,まず否定の推論規則について説明する.否定の基本的な含意関係は,論理式$A$の否定$\negA$を,命題定項\LF{False}を用いて,$A\to\LF{False}$($A$が偽を含意する)と定義することで捉えることができる.この定義に従って,否定の推論規則は図~\ref{NegationRule}に示す規則を用いる.否定の導入規則($\neg$-\textsc{Intro})は,もしゴールの論理式が$\neg\mathcal{A}$という形であれば,$\mathcal{A}$を新たに前提に加えて,矛盾(\LF{False})の証明を試みるという形をとる.一方,否定の除去規則($\neg$-\textsc{Elim})は,前提に$\neg\mathcal{A}$という形の論理式があり,ゴールが矛盾(\LF{False})であるとき,ゴールを$\mathcal{A}$に更新しこの新たなゴールの証明を試みる,というものである.\begin{figure}[b]\begin{center}\includegraphics{25-3ia2f6.eps}\end{center}\caption{否定の推論規則}\label{NegationRule}\end{figure}矛盾関係の証明の例として,以下の2つの文$A,B$間の矛盾関係について,自然演繹による証明を試みる.$A$:\textit{Nomanissinging.}$B$:\textit{Thereisamansingingloudly.}\noindent図~\ref{ProveContra}に矛盾関係の証明プロセスを示す.文$A,B$は論理式$A',B'$に変換後,前提$P_0,P_1$にそれぞれ配置され,結論$G_0$には\LF{False}が配置される.否定の除去規則$\neg$-\textsc{Elim}を$P_0$に適用することによって,ゴールは$G_1$に更新される.ここで,除去規則を適用することによって,前提$P_1$は前提の集合$P_2,P_3,P_4,P_5$に分解される.同様に,導入規則を適用することで,ゴール$G_1$はサブゴールの集合$G_2,G_3,G_4$に分解される.全てのサブゴールが前提とマッチするため,文$A,B$の矛盾関係,すなわち,$A'\Rightarrow\negB'$を示すことができる.\begin{figure}[t]\begin{center}\includegraphics{25-3ia2f7.eps}\end{center}\caption{\label{ProveContra}2文間の矛盾関係の証明プロセスの例}\end{figure}\subsection{語彙知識を用いた公理の生成}\label{axiom_injection}本節では,自然演繹の推論に用いる公理の具体的な生成手順について述べる.まず,証明の途中で証明不可能と判定されたサブゴールに関して,前提と結論で同じ項をシェアしている述語を生成する公理の候補として絞り込む.さらに,同じ項をシェアしている述語の中でも,項の格が同じである述語について優先して公理を生成する.公理生成を導入した証明の例として,以下の2つの文$A,B$間の含意関係の証明を考える.$A$:\textit{Akittenplaysinahousecoloredingreen.}$B$:\textit{Ayoungcatplaysinagreenhouse.}\noindent文$A,B$は統語解析,意味解析を経て,以下のような論理式$A',B'$に変換できる.\begin{align*}&A':\existse_1e_2x_1x_2x_3(\LF{kitten}(x_1)\wedge\\LF{play}(e_1)\wedge\(\LF{subj}(e_1)=x_1)\\&\qquad\wedge\\LF{house}(x_2)\wedge\\LF{color}(e_2)\wedge\(\LF{dobj}(e_2)=x_2)\wedge\\LF{in}(e_1,x_2)\wedge\\LF{green}(x_3)\wedge\\LF{in}(e_2,x_3))\\&B':\existse_1x_1x_2(\LF{young}(x_1)\wedge\\LF{cat}(x_1)\wedge\\LF{play}(e_1)\wedge\(\LF{subj}(e_1)=x_1)\\&\qquad\wedge\\LF{green}(x_2)\wedge\\LF{house}(x_2)\wedge\\LF{in}(e_1,x_2))\end{align*}これら2つの論理式$A',B'$について,$A'$を証明の前提,$B'$を証明の結論(ゴール)とみなし,公理生成を行わずに$A'\RightarrowB'$の証明を試みる.図~\ref{ProcessEntail}と同様に$A'\RightarrowB'$の含意関係の証明を進めると,下記のような前提の集合$\mathcal{P}$とサブゴール$\mathcal{G}$の集合が得られる.このステップでは,存在量化子が除去され,$A'$,$B'$に共通する述語については,変数の単一化が起こっている.\pagebreak\begin{align*}\mathcal{P}&=\{P_1:\LF{kitten}(x_1),\P_2:\LF{play}(e_1),\P_3:\LF{subj}(e_1)=x_1,\P_4:\LF{house}(x_1),\\&\qquadP_5:\LF{color}(e_2),\P_6:\LF{dobj}(e_2)=x_2,\P_7:\LF{in}(e_1,x_2),\P_8:\LF{green}(x_3),\P_9:\LF{in}(e_2,x_3)\}\\\mathcal{G}&=\{G_1:\LF{young}(x_1),G_2:\LF{cat}(x_1),G_3:\LF{green}(x_2)\}\end{align*}この例では,$\LF{young}(x_1),\LF{cat}(x_1),\LF{green}(x_2)$という3つのサブゴールが残り,証明に失敗する.ここで,前提中の論理式$\LF{kitten}(x_1)$と共通の項$x_1$をシェアしているサブゴール$\LF{young}(x_1),\LF{cat}(x_1)$が生成する公理の候補となる.語彙知識から\textit{youngcat}と\textit{kitten}間の意味的関係が確認できれば,\textit{youngcat}と\textit{kitten}間に関する公理を生成でき,生成した公理を利用することで,これら2つのサブゴールを解決できる.なお,証明に用いた公理の数や確信度はのちに文間の関連性を学習するための特徴量として使用するが,$\forallx.\LF{kitten}(x)\Rightarrow\LF{young}(x)$,$\forallx.\LF{kitten}(x)\Rightarrow\LF{cat}(x)$のように,複数のサブゴールに関して同じ前提から導出した公理については,まとめて1つのフレーズの公理とみなす.また,残りのサブゴール$\LF{green}(x_2)$については,述語の表層形が同一である論理式$\LF{green}(x_3)$が前提中に存在するが,項は一致していない.このように,サブゴールに残っている述語と表層形が完全に一致する述語が前提中に含まれる場合に限り,例外的に,述語の型や項が異なっていても公理を生成して証明に用いる.本研究では公理生成に用いる語彙知識として,WordNet~\cite{Miller:1995:WLD:219717.219748}と,Word2Vec~\cite{NIPS2013_5021}で学習した単語ベクトルを用いる.まず,WordNetを用いて形態変化,派生形,同義語,反意語,上位語,類似性,下位語の順に,前提と結論中の述語間の意味的関係をチェックし,いずれかの関係にマッチした場合は確信度つき公理を生成する.WordNetに述語間の関係が存在しない場合は,Word2Vecで学習した単語ベクトルを用いて前提と結論中の述語間の類似度を計算し,やはり確信度つきの公理を生成する.本研究では,GoogleNewsCorpus(約30億語)で学習済みの200次元の単語ベクトルを語彙知識に用いる.ここで,公理の確信度には,述語間の類似度を採用し,生成された公理の中で確信度が最も高い公理を証明に採用する.また,確信度が閾値よりも低い公理は意味的関係が低い公理であるとみなして採用しない.公理の確信度はいずれも0.0から1.0の範囲の値をとり,本研究では公理の確信度の閾値を0.25とする.WordNetを用いて公理を生成した場合は,述語間に共通する上位概念への最短経路の長さを公理の確信度とし,Word2Vecを用いて公理を生成した場合は,Word2Vecのコサイン類似度を公理の確信度とする.\subsection{証明に基づく特徴量の導出}\label{logic}ここまでの自然演繹の証明の実行過程と結果に関する情報から,計9種類の特徴量を導出する.いずれも0.0から1.0の範囲の値に正規化する.\begin{itemize}\item公理の数と公理の確信度証明に利用した公理の数と確信度をそれぞれ特徴量に用いる.複数の公理を生成した場合は,導入した各公理の確信度の平均を公理の確信度の特徴量として採用する.また,公理を1つも利用しなかった場合は,公理の確信度の特徴量を1.0とする.\item証明可能なサブゴールの数の割合証明可能なサブゴールの数の割合が高いほど文間の関連度が高くなると仮定して,$n/m$($m$:前提のプールに現れる論理式の数,$n$:証明でスキップしなかったサブゴールの数)を特徴量として導出する.ここで,サブゴールとして残る論理式には$\LF{bar}(x_2)$のような内容論理式と,$\LF{subj}(e_1)=x_1$のような機能論理式の2種類がある.そこで,内容論理式と機能論理式のそれぞれについてサブゴールの数の割合を計算し,それぞれ別の特徴量とした.また,公理生成による証明を試みた場合は,証明可能なサブゴールの割合は公理生成の前後によって変わるため,公理生成前と公理生成後のそれぞれについてサブゴールの数の割合を計算し,それぞれ別の特徴量とした.\item証明不可能なサブゴールの項の関係文の主語や目的語が異なると,修飾語が異なる場合よりも文間の関連度が低くなると仮定して,証明不可能と判定されたサブゴールの項とイベントの関係をチェックする.本研究では,内容論理式中の主語($\LF{subj}$),直接目的語($\LF{dobj}$),間接目的語($\LF{iobj}$)をチェック対象とする.証明不可能と判定された全てのサブゴールにおける当該サブゴールの割合を特徴量として導出する.\item証明のステップ数証明が簡潔であるほど文間の関連度が高くなると仮定して,自然演繹の証明図の推論ステップ数を特徴量に用いる.\item推論規則の適用回数証明において推論規則の適用回数が多いほど証明が複雑になり,文間の関連度が低くなると仮定して,全推論規則の適用回数における各推論規則の適用回数の割合を特徴量に用いる.提案手法では図~\ref{InferenceRules}に示した連言の除去規則と導入規則($\wedge$-\textsc{Elim},$\wedge$-\textsc{Intro}),含意の除去規則と導入規則($\to$-\textsc{Elim},$\to$-\textsc{Intro}),存在量化の除去規則と導入規則($\exists$-\textsc{Elim},$\exists$-\textsc{Intro}),等号の除去規則($=$-\textsc{Elim})という計7種類の推論規則を対象とする.\item証明の結果結論が証明可能か,結論の否定が証明可能か,結論も結論の否定も証明不可能かチェックし,それぞれ該当する場合は1.0,該当しない場合は0.0を特徴量とする.\item前提と結論における述語の一致率前提と結論との間で述語が一致しているほど,文間の意味的関係を証明できる可能性が高いことを考慮して,前提と結論で述語が一致している割合を特徴量に用いる.\item前提と結論における型の一致率前提と結論との間で論理式の型が一致しているほど,文間の意味的関係を証明できる可能性が高いことを考慮して,前提と結論で型が一致している割合を特徴量に用いる.\item否定演算子の有無前提と結論のどちらか一方だけに否定演算子($\neg$)が含まれる場合と,両方に含まれる,または,どちらにも含まれない場合とでは,前者の方が文間の関連度が低くなると仮定して,前者の場合は0.0,後者の場合は1.0として特徴量に用いる.\end{itemize}\subsection{表層情報と外部知識から導出した特徴量の設計}\label{nonlogic}提案手法では学習精度を向上させるため,表層情報と外部知識から導出した特徴量を自然演繹の証明に基づく特徴量と組み合わせて用いる.表層情報と外部知識から導出した特徴量は10種類の特徴量を用いる.特徴量はいずれも0.0から1.0の範囲の値に正規化する.\begin{itemize}\item品詞の一致率文中の各単語の品詞(本研究で使用する品詞はPennTreebank品詞体系に準ずる)をC\&CPOStagger~\cite{curran2003investigating}を用いてチェックし,2文間において単語の品詞が一致する割合を特徴量に用いる.\item名詞の一致率文中の名詞をレンマ化し,2文間の名詞が一致する割合を特徴量に用いる.\item動詞の一致率文中の動詞をレンマ化し,2文間の動詞が一致する割合を特徴量に用いる.\item文字列の類似度{\slDifflib}\footnote{\texttt{https://docs.python.org/3.5/library/difflib.html}}を用いて文字列の類似度を計算し,計算結果を特徴量に用いる.\item同義語集合の一致率2文中の全ての単語について,同義語集合をWordNetを用いてチェックし,2文間の同義語集合の一致率を特徴量に用いる.\item概念間の距離一方の文と他方の文の全ての単語間について,単語間類似度をWordNetの概念間の距離を用いて導出し,概念間の距離の平均を特徴量に用いる.\item文の長さ2文間の文字数の差と,2文間の文字数の平均を特徴量に用いる.\itemベクトル空間モデルにおけるコサイン類似度TF/IDFベクトル間のコサイン類似度,latentsemanticanalysis(LSA)~\cite{LSA}ベクトル間のコサイン類似度,latentDirichletallocation(LDA)~\cite{LDA}ベクトル間のコサイン類似度をそれぞれ特徴量に用いる.各ベクトルの次元は200次元とする.\itemCCG導出木のマッピングコスト文ペアの導出木の形が似ていないほど,一般的には文間の関連度が低くなることが見込まれる.そこで,文ペアのCCG導出木の各ノード間の対応度合い(CCG導出木のマッピングコスト)を計算する手法~\cite{martinezgomez-miyao:2016:EMNLP2016}を用いて,マッピングコストを計算する.このマッピングコストを文ペアの導出木のノード数合計で除算した値を特徴量に用いる.\item受動態表現の有無前提と結論のどちらか一方だけに受動態表現が含まれる場合と,両方に含まれる,または,どちらにも含まれない場合とでは,前者の方が類似度が低くなると仮定して,一方の文と他方の文の受動態表現の有無をチェックし,前者の場合は0.0,後者の場合は1.0として特徴量に用いる.\end{itemize}\subsection{文の関連度学習}\label{model}導出した特徴量を用いて,文の意味類似度と含意関係を予測する.本研究では,ロジスティック,SVM,ランダムフォレストという3種類の学習モデルで事前学習を行った結果,文の意味類似度学習はランダムフォレスト回帰,含意関係認識ではランダムフォレスト分類を学習モデルとして採用する.ハイパーパラメータはグリッドサーチを用いて最適化する.
\section{実験}
\label{experiment}\subsection{データセット}\label{dataset}文の意味的類似度と含意関係認識の評価用データセットであるSemEval2014Task1SICKデータセット~\cite{MARELLI14.363}と,文の意味的類似度の評価用データセットであるSemEval2012MSR-videoデータセット~\cite{semeval2012}の2種類のデータセットを用いて,提案手法の評価を行った.SICKは,2つの文の意味的類似度と含意関係を予測するタスクであり,表~\ref{SICKexample}に示すように,類似度と含意関係(yes,no,unknown)が人手によって付与されている.類似度は1.0から5.0の範囲の値で付与されている.このデータセットには計9,927件の文ペアが含まれており,そのうち訓練データ,開発データ,テストデータはそれぞれ4,500件,500件,4,927件含まれている.MSR-videoは表~\ref{MSRexample}に示すように,含意関係のラベルは付与されておらず,類似度の正解スコアのみが0.0から5.0の範囲の値で付与されており,開発データ,テストデータが750件ずつ含まれている.SICKデータセットに含まれる文ペアの方がMSR-videoデータセットに含まれる文よりも単語数が多くなっており,それぞれのデータセットにおける一文あたりの平均単語数は,SICKデータセットは10単語,MSR-videoデータセットは6単語である.\begin{table}[t]\caption{SICKデータセットに含まれる文ペアの例}\label{SICKexample}\input{02table01.tex}\end{table}\begin{table}[t]\caption{MSR-videoデータセットに含まれる文ペアの例}\label{MSRexample}\input{02table02.tex}\end{table}\subsection{既存手法との比較評価の概観}\label{eval}\subsubsection{文間類似度学習}\label{eval_sts}まず,文間類似度学習の評価を行った.なお,評価指標は,各タスクで標準的に使用されている評価指標に基づいて,SICKデータセットについては,提案手法によって計算された類似度スコアと,データセットに付与された正解スコアとのPearson相関係数$\gamma$,Spearman相関係数$\rho$,平均二乗誤差(MSE)という3種類の指標を,MSR-videoデータセットについてはPearson相関係数$\gamma$のみを用いる.比較対象は,SICKデータセット,MSR-videoデータセットにおける最高精度のモデル~\cite{MuellerAAAI2016,bar:semeval12}と,推論を用いた既存手法として,先行研究で紹介したTheMeaningFactory~\cite{bjerva:semeval14},UTexas~\cite{beltagy:semeval14}とする.表~\ref{SICK-sts}にSICKデータセットにおける提案手法と既存手法との類似度学習の評価結果を示す.提案手法の結果と推論を用いた既存手法の結果とを比較すると,Pearson相関係数とSpearman相関係数に関しては,提案手法は推論を用いた既存手法よりも高精度を達成した.一方で,MSEに関しては,既存手法よりも精度が低かった.この原因としては複数の要因が挙げられるが,大きく分けて統語解析によるエラー,意味表示の誤りによるエラー,語彙知識の不足などに起因する誤った推論によるエラーに分けられる.これらのエラーの詳細は\ref{error}節で述べる.また,文間類似度学習においては,提案手法は深層学習を用いたモデルによる最高精度に達しなかった.この原因を分析するため,テストデータ4,927件の文例に対して,提案手法と最高精度のモデルが予測した類似度スコアの比較を\ref{deep}節で行った.\begin{table}[t]\caption{提案手法と既存手法との類似度学習の評価結果(SICK)}\label{SICK-sts}\input{02table03.tex}\end{table}表~\ref{MSR-sts}にMSR-videoデータセットにおける提案手法と既存手法との類似度学習の評価結果を示す.MSR-videoデータセットにおいても,提案手法は推論を用いた既存手法よりも高精度を達成した.また,公理生成に使用する語彙知識については,SICKではWordNetのみを語彙知識に使用した場合,MSR-videoではWordNetとWord2Vecの両方を語彙知識に使用した場合において最も精度が高かった.この原因はSICKとMSR-videoのデータセットの違いによるものであると考えられる.\ref{dataset}節で述べたように,SICKデータセットに含まれる文ペアの方がMSR-videoデータセットに含まれる文よりも単語数が多く,\textit{burrowahole}と\textit{digtheearth}の言い換えといったフレーズレベルの言い換えが多く含まれていた.そのため,MSR-videoデータセットにおける評価ではWord2Vecを用いて単語間の語彙知識を拡充することによって精度が向上したが,SICKデータセットにおいてはフレーズ間の公理を生成できず,Word2Vecの利用によって誤った公理の過剰生成が起こり,精度が低下したと考えられる.公理の過剰生成に関する具体例については\ref{error}節で紹介する.今後,フレーズレベルの語彙知識の拡充や公理生成の改善を行うことで,更なる精度向上が見込まれる.\begin{table}[t]\caption{提案手法と既存手法との類似度学習の評価結果(MSR-video)}\label{MSR-sts}\input{02table04.tex}\end{table}\subsubsection{含意関係認識}\label{eval_rte}次に,SICKデータセットを用いて含意関係認識の評価を行った.評価指標は,適合率(yes,noと予測した文ペアに対して,正解ラベルと同じ結果だったケースの割合),再現率(正解ラベルがyes,noである文ペアに対して,正解ラベルと予測ラベルが同じ結果だったケースの割合),正答率(yes,no,unknownのすべての文ペアに対して正解ラベルと予測ラベルが同じ結果だったケースの割合)の3種類の指標を用いた.比較対象は,SICKデータセットにおける最高精度のモデル~\cite{yin-schutze:2017:EACLlong}と,推論を用いた既存手法として,先行研究で紹介したTheMeaningFactory~\cite{bjerva:semeval14},UTexas~\cite{beltagy:semeval14},また,改良前のccg2lambda~\cite{EACL2017}の結果とする.表~\ref{SICK-rte}に提案手法と既存手法との含意関係認識の評価結果を示す.語彙知識にWordNetのみ,WordNetとWord2Vecの両方を使用した場合において,提案手法は最高精度を達成した.\begin{table}[b]\caption{提案手法と既存手法との含意関係認識の評価結果(SICK)}\label{SICK-rte}\input{02table05.tex}\end{table}公理生成に使用する語彙知識については,含意関係認識のタスクにおいてもWordNetのみを語彙知識に使用した場合が最も精度が高かった.この原因について,\ref{eval_sts}節で挙げた問題に加えて,Word2Vecを用いた場合は\textit{season}(味付けする)と\textit{pour}(注ぐ)間の意味的関係(Word2Vecにおける単語間類似度は0.07),\textit{draw}と\textit{paint}間の意味的関係(どちらも描くという意味であるが,Word2Vecにおける単語間類似度は0.155)といった,多義語を含む単語間の意味的関係のチェックに失敗し,公理が生成されない傾向が見られた.この結果から,語義曖昧性を考慮して単語間の意味的関係をチェックすることで,公理生成の改善が見込まれることが示唆されたが,これは今後の課題とする.\subsection{特徴量別の評価}\label{feature}\subsubsection{文間類似度学習}\label{feature_sts}SICKデータセットにおける,各特徴量単独で文間類似度を学習した場合のモデルの評価結果を表~\ref{isolation_sts}に示す.この表が示すように,述語の一致率のみを特徴量に用いた場合が最も精度が高かった.この結果は,動詞・名詞の一致率と比較して,論理式による意味表現が文の言語的な情報を良質な形式で表現しているという先行研究の知見と合致している.導出木のマッピングコストのみを使用した場合と受動態の有無のみを使用した場合は,Pearson相関係数がほぼ0の値をとり,ほぼ全ての文ペアで3.5の類似度スコアを予測していた.この結果から,これらの特徴量は単独では予測性能はないと考えられる.しかし,SICKデータセット中の76\%の文ペアに3から5の範囲の正解スコアが付与されているという正解スコアの分布の偏りが原因で,導出木のマッピングコストのみを使用した場合と受動態の有無のみを使用した場合は予測性能がないのにも関わらず,MSEの値は1程度の結果となったと考えられる.\begin{table}[b]\setlength{\captionwidth}{205pt}\begin{minipage}[t]{205pt}\hangcaption{各特徴量単独で学習した場合の類似度学習の評価結果}\label{isolation_sts}\input{02table06.tex}\end{minipage}\hfill\begin{minipage}[t]{205pt}\caption{類似度学習のアブレーションの評価結果}\label{ablation_sts}\input{02table07.tex}\end{minipage}\end{table}全特徴量から各特徴量を取り除いて学習させた場合のモデルの評価結果を表~\ref{ablation_sts}に示す.各特徴量を単独で取り除いた結果は精度にほとんど変化が見られなかったが,推論由来の特徴量の中では証明の結果を取り除いた場合において,最も性能が低下した.この結果は\ref{strategy}で述べたように,SICKデータセットでは含意関係がyesまたはnoの文例において高い文間類似度が付与されているため,含意関係の証明の結果が文間類似度の予測性能に寄与していると考えられる.また,表層由来の特徴量の中ではベクトル空間モデルを取り除いた場合が最も性能が低下した.この結果は,文間類似度の予測においては表層的な一致率の影響が大きいことを示唆している.推論を用いた特徴量をまとめて取り除いた場合は,推論以外の特徴量をまとめて取り除いた場合と比較して,大きな性能低下が見られた.このことから,推論を用いた特徴量は推論以外の情報を用いた特徴量よりも精度への影響が大きいことが示唆された.また,推論由来の特徴量の中でも,論理式由来の特徴量(述語の一致率,型の一致率,否定表現の有無)をまとめて取り除いた場合よりも,推論の過程由来の特徴量(サブゴール,サブゴールの項の関係,ステップ数,推論規則,公理の確信度)をまとめて取り除いた場合の方が性能低下が見られた.この結果は証明の実行過程が文間の関連性を表す特徴として性能に寄与していることを示唆している.\begin{table}[b]\setlength{\captionwidth}{205pt}\begin{minipage}[t]{205pt}\hangcaption{各特徴量単独で学習した場合の含意関係認識の評価結果}\label{isolation_rte}\input{02table08.tex}\end{minipage}\hfill\begin{minipage}[t]{205pt}\caption{含意関係認識のアブレーションの評価結果}\label{ablation_rte}\input{02table09.tex}\end{minipage}\end{table}\subsubsection{含意関係認識}\label{feature_rte}SICKデータセットにおける,各特徴量単独で学習した場合の含意関係認識モデルの評価結果を表~\ref{isolation_rte}に示す.含意関係認識においては,証明の結果のみを特徴量に用いた場合が最も精度が高かった.型の一致率,受動態の有無,品詞タグの一致率,文の長さの一致率,導出木のマッピングコストは再現率が0.1以下と著しく低かった.これらの特徴量はほぼすべての文例でunknownを予測(型の一致率はすべてunknownと予測)し,単独では含意関係の予測性能がないことを示唆している.全特徴量から各特徴量を取り除いて学習させた場合の含意関係認識モデルの評価結果を表~\ref{ablation_rte}に示す.含意関係認識においても,各特徴量を単独で取り除いた結果は精度に大きな変動が見られなかったが,推論由来の特徴量は推論以外の情報を用いた特徴量よりも精度への影響が大きいこと,推論由来の特徴量の中でも,推論の過程由来の特徴量(サブゴール,サブゴールの項の関係,ステップ数,推論規則,公理の確信度)の方が論理式由来の特徴量(述語の一致率,型の一致率,否定表現の有無)よりも精度への影響が大きいことが示唆された.また,含意関係認識においては,推論由来の特徴量の中では,証明のステップ数が性能に最も大きく寄与する特徴量であることが示唆された.この結果は,文間類似度の予測では文間の表層的な一致率の影響が大きいのに対して,含意関係の予測では文間の意味的な一致率の影響が大きいという,含意関係認識と文間類似度学習のタスク内容の違いを表していると考えられる.さらに,公理の確信度の特徴量を取り除いた場合は性能が低下するのに対して,概念間の距離や同義語の一致率の特徴量を取り除いた場合,性能が向上した.公理の確信度と概念間の距離・同義語の一致率の特徴量の導出方法の比較からこの結果を考察すると,概念間の距離と同義語の一致率では2文中の全ての単語間について概念間の距離や同義語集合を計算し,その平均を特徴量としているのに対して,公理の確信度では2文間の意味的関係の判断に必要な単語間に限定して類似度を計算し,その平均を特徴量としている.そのため,公理の確信度は概念間の距離・同義語の一致率よりも効率的な特徴量として,含意関係の予測性能に寄与したと考えられる.\subsection{正解ラベル別の評価}\label{label}\subsubsection{文間類似度学習}SICKデータセットにおける,正解スコア別の類似度学習の評価結果を表~\ref{score-STS}に示す.この結果から,提案手法は$4\{\leq}\x<5$の範囲の類似度スコアが付与されている文ペアにおいて最も精度が高いことが確認された.実際に,$4\{\leq}\x<5$の範囲の類似度スコアが付与されている文ペアの8割が含意か矛盾の関係にある文ペアであり,提案手法は特に論理的関係がある文ペアにおいて高精度で類似度を予測することが示唆された.\begin{table}[b]\caption{正解スコア別の類似度学習の評価結果(SICK)}\label{score-STS}\input{02table10.tex}\end{table}\subsubsection{含意関係認識}次に,SICKデータセットにおける,正解ラベル別の含意関係認識の評価結果を表~\ref{score-RTE}に示す.なお,ここではyes,no,unknownの3値分類におけるすべてのラベルに関してスコアを算出し,その重み付け平均によって算出した適合率,再現率,F1値を評価指標に用いた.この結果から,提案手法は特に文間の矛盾関係の判定において高精度を発揮することが確かめられた.SICKデータセットにおいて,矛盾関係にある文ペアの多くは否定表現を含んでいることから,この結果は,提案手法が論理推論を用いて否定表現を含む文の意味を正確に捉えていることを示唆している.\begin{table}[b]\caption{各正解ラベルの含意関係認識の評価結果(SICK)}\label{score-RTE}\input{02table11.tex}\end{table}\subsection{本研究の手法と深層学習による手法との比較}\label{deep}SICKテストデータ4,927件の文例に対して,提案手法の推論由来の特徴量のみを用いて学習したモデルによる予測類似度と,本タスクで最高精度を達成した深層学習のモデル~\cite{MuellerAAAI2016}による予測類似度との比較を行った.その結果,4,927件中2,666件は提案手法の方が正解スコアに近い類似度を予測していた.さらに,この2666件について,特にどのような言語現象を含む文例において推論由来の特徴量が有用であるか,傾向を分析した.テストデータ全体に含まれる否定・量化・等位接続・関係代名詞を含む文例数をそれぞれカウントした結果を表~\ref{phenomena}に示す.\begin{table}[b]\caption{言語現象の例}\label{phenomena}\input{02table12.tex}\end{table}また,これらの文例のうち,提案手法が高精度で予測した文例数とテストデータ中の割合を計算した結果を表~\ref{phenomena_res}に示す.表から,推論由来の特徴量は否定表現や量化表現,等位接続を含む文例において,深層学習のモデルよりも高精度で類似度を予測する傾向が示唆された.\begin{table}[b]\caption{言語現象ごとの分析結果}\label{phenomena_res}\input{02table13.tex}\end{table}\subsection{エラー分析}\label{error}最後に,推論由来の特徴量のみで学習したモデルで予測したスコアが正解スコアと1.5以上離れていた文例119件について,エラー分析を行った.SICKデータセットの類似度・含意関係の評価結果のエラー分析の例を表~\ref{tab:examples_neg}に示す.\begin{table}[b]\caption{エラー分析}\label{tab:examples_neg}\input{02table14.tex}\end{table}1264では,各文中の\textit{onstage}と\textit{onastage}をどちらも副詞として捉えるのが正しい統語解析結果であるが,統語解析のエラーによって\textit{onstage}が\textit{perform}の目的語として捉えられてしまい,統語解析の結果に従って誤った論理式に変換されたため,含意関係を証明できず,予測スコアが正解スコアよりも低くなってしまった例である.このような例では2文間の統語解析の結果の整合性を考慮するなど,統語解析の改善が必要である.6637では,1文目の\textit{leapover}を1つの動詞のイディオムとして論理式に変換する必要があるが,変換に失敗し,予測スコアが正解スコアよりも低くなってしまった例である.このような例では,イディオムに関する外部知識を参照して論理式に変換するといった改善策が考えられる.2831は含意関係がある文ペアであるが,\textit{pencilingoneyeshadow}と\textit{usinganeyepencilonhereyelid}間の公理を生成できなかったため含意関係を証明できず,予測スコアが正解スコアよりも低くなってしまった例である.このような例では,フレーズ間の関係知識を用いて公理を生成する必要がある.1941は含意関係のない文ペアであるが,公理の過剰生成によって含意関係を証明できてしまい,予測スコアが正解スコアよりも高くなってしまった例である.本研究では公理の確信度に単語間類似度を採用し,確信度が閾値以上である場合のみに公理を採用しているが,このような公理の過剰生成を防ぐためには,文脈に合わせて正しく公理の確信度を算出するよう改善する必要がある.
\section{まとめ}
\label{conclusion}本研究では,文を高階述語論理式に変換し,文間の含意関係を高階論理の推論によって判定するシステムの実行過程に関する情報から,文間の関連性に寄与する特徴を抽出し,文間の関連性を学習する手法を提案した.文間類似度学習と含意関係認識という2つの自然言語処理タスクに関して複数のデータセットを用いて評価を行った結果,推論の過程を特徴量として組み合わせることによって,いずれのタスクにおいても精度が向上した.また,含意関係認識用データセットの一つであるSICKデータセットの評価では最高精度を達成した.今後の展望としては,統語解析,意味合成,論理推論のそれぞれのフェーズにおいて改善策を検討していく.統語解析においては,文ペア間で統語解析結果が異なるために証明に失敗した例が数件見られたため,文ペア中に同じ動詞が含まれていれば,各文の動詞に同じ統語範疇を優先して割り当てるといった改善策が挙げられる.意味合成においては,統語解析の結果に加えて外部知識を利用することで,イディオムなどを含む文についても適切な論理式に変換するといった改善策が挙げられる.論理推論においては,フレーズ間の公理の生成方法の検討,公理の確信度の計算方法の改善などが今後の課題として挙げられる.また,本稿では含意関係認識と文間類似度学習のタスクにおいて提案手法の評価を行ったが,今後,質問応答など他の自然言語処理タスクへの適用が期待される.\acknowledgment本研究は,JST戦略的創造研究推進事業CREST(JPMJCR1301)およびAIPチャレンジの支援を受けて行われた.また,本研究の一部は,the2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2017)で発表したものである(Yanaka,Mineshima,Mart\'{i}nez-G\'{o}mezandBekki,2017).\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Abzianidze}{Abzianidze}{2015}]{abzianidze:2015:EMNLP}Abzianidze,L.\BBOP2015\BBCP.\newblock\BBOQATableauProverforNaturalLogicandLanguage.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2015)},\mbox{\BPGS\2492--2502}.\bibitem[\protect\BCAY{Abzianidze}{Abzianidze}{2016}]{abzianidze:2016:*SEM}Abzianidze,L.\BBOP2016\BBCP.\newblock\BBOQNaturalSolutiontoFraCaSEntailmentProblems.\BBCQ\\newblockIn{\BemProceedingsofthe5thJointConferenceonLexicalandComputationalSemantics},\mbox{\BPGS\64--74}.\bibitem[\protect\BCAY{Agirre,Cer,Diab,\BBA\Gonzalez-Agirre}{Agirreet~al.}{2012}]{semeval2012}Agirre,E.,Cer,D.,Diab,M.,\BBA\Gonzalez-Agirre,A.\BBOP2012\BBCP.\newblock\BBOQSemEval-2012Task6:APilotonSemanticTextualSimilarity.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalWorkshoponSemanticEvaluation(SemEval-2012)},\mbox{\BPGS\385--393}.\bibitem[\protect\BCAY{B{\"{a}}r,Biemann,Gurevych,\BBA\Zesch}{B{\"{a}}ret~al.}{2012}]{bar:semeval12}B{\"{a}}r,D.,Biemann,C.,Gurevych,I.,\BBA\Zesch,T.\BBOP2012\BBCP.\newblock\BBOQUKP:ComputingSemanticTextualSimilaritybyCombiningMultipleContentSimilarityMeasures.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalWorkshoponSemanticEvaluation(SemEval-2012)},\mbox{\BPGS\435--440}.\bibitem[\protect\BCAY{Bekki\BBA\Mineshima}{Bekki\BBA\Mineshima}{2017}]{BekkiMineshima2016Luo}Bekki,D.\BBACOMMA\\BBA\Mineshima,K.\BBOP2017\BBCP.\newblock\BBOQContext-PassingandUnderspecificationinDependentTypeSemantics.\BBCQ\\newblockInChatzikyriakidis,S.\BBACOMMA\\BBA\Luo,Z.\BEDS,{\BemModernPerspectivesinTypeTheoreticalSemantics},StudiesofLinguisticsandPhilosophy,\mbox{\BPGS\11--41}.Springer.\bibitem[\protect\BCAY{Beltagy,Roller,Boleda,Erk,\BBA\Mooney}{Beltagyet~al.}{2014}]{beltagy:semeval14}Beltagy,I.,Roller,S.,Boleda,G.,Erk,K.,\BBA\Mooney,R.\BBOP2014\BBCP.\newblock\BBOQUTexas:NaturalLanguageSemanticsusingDistributionalSemanticsandProbabilisticLogic.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalWorkshoponSemanticEvaluation(SemEval-2014)},\mbox{\BPGS\796--801}.\bibitem[\protect\BCAY{Bertot\BBA\Castran}{Bertot\BBA\Castran}{2010}]{opac-b1101046}Bertot,Y.\BBACOMMA\\BBA\Castran,P.\BBOP2010\BBCP.\newblock{\BemInteractiveTheoremProvingandProgramDevelopment:Coq'ArtTheCalculusofInductiveConstructions}.\newblockSpringer,NewYork,USA.\bibitem[\protect\BCAY{Bjerva,Bos,van~derGoot,\BBA\Nissim}{Bjervaet~al.}{2014}]{bjerva:semeval14}Bjerva,J.,Bos,J.,van~derGoot,R.,\BBA\Nissim,M.\BBOP2014\BBCP.\newblock\BBOQTheMeaningFactory:FormalSemanticsforRecognizingTextualEntailmentandDeterminingSemanticSimilarity.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalWorkshoponSemanticEvaluation(SemEval-2014)},\mbox{\BPGS\642--646}.\bibitem[\protect\BCAY{Blei,Ng,\BBA\Jordan}{Bleiet~al.}{2003}]{LDA}Blei,D.~M.,Ng,A.~Y.,\BBA\Jordan,M.~I.\BBOP2003\BBCP.\newblock\BBOQLatentDirichletAllocation.\BBCQ\\newblock{\BemJournalofMachineLearning},{\Bbf3},\mbox{\BPGS\993--1022}.\bibitem[\protect\BCAY{Champollion}{Champollion}{2015}]{champ2015}Champollion,L.\BBOP2015\BBCP.\newblock\BBOQTheInteractionofCompositionalSemanticsandEventSemantics.\BBCQ\\newblock{\BemLinguisticsandPhilosophy},{\Bbf38}(1),\mbox{\BPGS\31--66}.\bibitem[\protect\BCAY{Clark,Coecke,\BBA\Sadrzadeh}{Clarket~al.}{2011}]{ClarkCoeckeSadrzadeh2011}Clark,S.,Coecke,B.,\BBA\Sadrzadeh,M.\BBOP2011\BBCP.\newblock\BBOQMathematicalFoundationsforaCompositionalDistributedModelofMeaning.\BBCQ\\newblock{\BemLinguisticAnalysis},{\Bbf36}(1-4),\mbox{\BPGS\345--384}.\bibitem[\protect\BCAY{Clark\BBA\Curran}{Clark\BBA\Curran}{2007}]{clark2007wide}Clark,S.\BBACOMMA\\BBA\Curran,J.~R.\BBOP2007\BBCP.\newblock\BBOQWide-coverageEfficientStatisticalParsingwithCCGandLog-linearModels.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf33}(4),\mbox{\BPGS\493--552}.\bibitem[\protect\BCAY{Curran\BBA\Clark}{Curran\BBA\Clark}{2003}]{curran2003investigating}Curran,J.~R.\BBACOMMA\\BBA\Clark,S.\BBOP2003\BBCP.\newblock\BBOQInvestigatingGISandSmoothingforMaximumEntropyTaggers.\BBCQ\\newblockIn{\BemProceedingsofthe10thConferenceonEuropeanChapteroftheAssociationforComputationalLinguistics(EACL-2003)},\mbox{\BPGS\91--98}.\bibitem[\protect\BCAY{Davidson}{Davidson}{1967}]{Davidson67}Davidson,D.\BBOP1967\BBCP.\newblock\BBOQTheLogicalFormofActionSentences.\BBCQ\\newblockInRescher,N.\BED,{\BemTheLogicofDecisionandAction},\mbox{\BPGS\81--95}.UniversityofPittsburghPress,Pittsburgh,PA.\newblockReprintedin\cite{Davidson80},pp.~105--148.\bibitem[\protect\BCAY{Davidson}{Davidson}{1980}]{Davidson80}Davidson,D.\BBOP1980\BBCP.\newblock{\BemEssaysonActionsandEvents}.\newblockClarendonPress,Oxford.\bibitem[\protect\BCAY{Deerwester,Dumais,Landauer,\BBA\Harshman}{Deerwesteret~al.}{1990}]{LSA}Deerwester,S.,Dumais,S.~T.,Landauer,T.~K.,\BBA\Harshman,R.\BBOP1990\BBCP.\newblock\BBOQIndexingbyLatentSemanticAnalysis.\BBCQ\\newblock{\BemJournaloftheAmericanSocietyforInformationScience},{\Bbf41}(6),\mbox{\BPGS\391--407}.\bibitem[\protect\BCAY{Grefenstette\BBA\Sadrzadeh}{Grefenstette\BBA\Sadrzadeh}{2011}]{grefenstette-sadrzadeh:2011:EMNLP}Grefenstette,E.\BBACOMMA\\BBA\Sadrzadeh,M.\BBOP2011\BBCP.\newblock\BBOQExperimentalSupportforaCategoricalCompositionalDistributionalModelofMeaning.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2011)},\mbox{\BPGS\1394--1404}.\bibitem[\protect\BCAY{He\BBA\Lin}{He\BBA\Lin}{2016}]{He2016PairwiseWI}He,H.\BBACOMMA\\BBA\Lin,J.\BBOP2016\BBCP.\newblock\BBOQPairwiseWordInteractionModelingwithDeepNeuralNetworksforSemanticSimilarityMeasurement.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies(NAACL/HLT-2016)},\mbox{\BPGS\937--948}.\bibitem[\protect\BCAY{Hill,Cho,\BBA\Korhonen}{Hillet~al.}{2016}]{hill-cho-korhonen:2016:N16-1}Hill,F.,Cho,K.,\BBA\Korhonen,A.\BBOP2016\BBCP.\newblock\BBOQLearningDistributedRepresentationsofSentencesfromUnlabelledData.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies(NAACL/HLT-2016)},\mbox{\BPGS\1367--1377}.\bibitem[\protect\BCAY{Hockenmaier\BBA\Steedman}{Hockenmaier\BBA\Steedman}{2007}]{ac4bfc92bbc447d9b2382f4513b2520d}Hockenmaier,J.\BBACOMMA\\BBA\Steedman,M.\BBOP2007\BBCP.\newblock\BBOQCCGbank:ACorpusofCCGDerivationsandDependencyStructuresExtractedfromthePennTreebank.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf33}(3),\mbox{\BPGS\355--396}.\bibitem[\protect\BCAY{Kartsaklis,Kalchbrenner,\BBA\Sadrzadeh}{Kartsakliset~al.}{2014}]{kartsaklis-kalchbrenner-sadrzadeh:2014:P14-2}Kartsaklis,D.,Kalchbrenner,N.,\BBA\Sadrzadeh,M.\BBOP2014\BBCP.\newblock\BBOQResolvingLexicalAmbiguityinTensorRegressionModelsofMeaning.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2014)},\mbox{\BPGS\212--217}.\bibitem[\protect\BCAY{Kartsaklis\BBA\Sadrzadeh}{Kartsaklis\BBA\Sadrzadeh}{2016}]{kartsaklis-sadrzadeh:2016:COLING}Kartsaklis,D.\BBACOMMA\\BBA\Sadrzadeh,M.\BBOP2016\BBCP.\newblock\BBOQDistributionalInclusionHypothesisforTensor-basedComposition.\BBCQ\\newblockIn{\BemProceedingsofthe26thInternationalConferenceonComputationalLinguistics:TechnicalPapers(COLING-2016)},\mbox{\BPGS\2849--2860}.\bibitem[\protect\BCAY{Le\BBA\Mikolov}{Le\BBA\Mikolov}{2014}]{DBLP:conf/icml/LeM14}Le,Q.~V.\BBACOMMA\\BBA\Mikolov,T.\BBOP2014\BBCP.\newblock\BBOQDistributedRepresentationsofSentencesandDocuments.\BBCQ\\newblockIn{\BemProceedingsofthe31thInternationalConferenceonMachineLearning,(ICML-2014)},\mbox{\BPGS\1188--1196}.\bibitem[\protect\BCAY{Lewis\BBA\Steedman}{Lewis\BBA\Steedman}{2014}]{Lewis14a*ccg}Lewis,M.\BBACOMMA\\BBA\Steedman,M.\BBOP2014\BBCP.\newblock\BBOQA*CCGParsingwithaSupertag-factoredModel.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2014)},\mbox{\BPGS\990--1000}.\bibitem[\protect\BCAY{Marelli,Menini,Baroni,Bentivogli,Bernardi,\BBA\Zamparelli}{Marelliet~al.}{2014}]{MARELLI14.363}Marelli,M.,Menini,S.,Baroni,M.,Bentivogli,L.,Bernardi,R.,\BBA\Zamparelli,R.\BBOP2014\BBCP.\newblock\BBOQASICKCureforTheEvaluationofCompositionalDistributionalSemanticModels.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonLanguageResourcesandEvaluation(LREC-2014)},\mbox{\BPGS\216--223}.\bibitem[\protect\BCAY{Mart{\'{i}}nez-G{\'{o}}mez,Mineshima,Miyao,\BBA\Bekki}{Mart{\'{i}}nez-G{\'{o}}mezet~al.}{2016}]{martinezgomez-EtAl:2016:P16-4}Mart{\'{i}}nez-G{\'{o}}mez,P.,Mineshima,K.,Miyao,Y.,\BBA\Bekki,D.\BBOP2016\BBCP.\newblock\BBOQccg2lambda:ACompositionalSemanticsSystem.\BBCQ\\newblockIn{\BemProceedingsofACL-2016SystemDemonstrations},\mbox{\BPGS\85--90}.\bibitem[\protect\BCAY{Mart{\'{i}}nez-G{\'{o}}mez,Mineshima,Miyao,\BBA\Bekki}{Mart{\'{i}}nez-G{\'{o}}mezet~al.}{2017}]{EACL2017}Mart{\'{i}}nez-G{\'{o}}mez,P.,Mineshima,K.,Miyao,Y.,\BBA\Bekki,D.\BBOP2017\BBCP.\newblock\BBOQOn-demandInjectionofLexicalKnowledgeforRecognisingTextualEntailment.\BBCQ\\newblockIn{\BemProceedingsofthe15thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL-2017)},\mbox{\BPGS\710--720}.\bibitem[\protect\BCAY{Mart{\'{i}}nez-G{\'{o}}mez\BBA\Miyao}{Mart{\'{i}}nez-G{\'{o}}mez\BBA\Miyao}{2016}]{martinezgomez-miyao:2016:EMNLP2016}Mart{\'{i}}nez-G{\'{o}}mez,P.\BBACOMMA\\BBA\Miyao,Y.\BBOP2016\BBCP.\newblock\BBOQRuleExtractionforTree-to-TreeTransducersbyCostMinimization.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2016)},\mbox{\BPGS\12--22}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{NIPS2013_5021}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.~S.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandtheirCompositionality.\BBCQ\\newblockInBurges,C.J.~C.,Bottou,L.,Welling,M.,Ghahramani,Z.,\BBA\Weinberger,K.~Q.\BEDS,{\BemAdvancesinNeuralInformationProcessingSystems26},\mbox{\BPGS\3111--3119}.CurranAssociates,Inc.\bibitem[\protect\BCAY{Miller}{Miller}{1995}]{Miller:1995:WLD:219717.219748}Miller,G.~A.\BBOP1995\BBCP.\newblock\BBOQWordNet:ALexicalDatabaseforEnglish.\BBCQ\\newblock{\BemCommunicationsoftheACM},{\Bbf38}(11),\mbox{\BPGS\39--41}.\bibitem[\protect\BCAY{Mineshima,Mart{\'{i}}nez-G{\'{o}}mez,Miyao,\BBA\Bekki}{Mineshimaet~al.}{2015}]{D16-1242}Mineshima,K.,Mart{\'{i}}nez-G{\'{o}}mez,P.,Miyao,Y.,\BBA\Bekki,D.\BBOP2015\BBCP.\newblock\BBOQHigher-orderLogicalInferencewithCompositionalSemantics.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2015)},\mbox{\BPGS\2055--2061}.\bibitem[\protect\BCAY{Mineshima,Tanaka,Mart{\'{\i}}nez-G{\'{o}}mez,Miyao,\BBA\Bekki}{Mineshimaet~al.}{2016}]{mineshima2016building}Mineshima,K.,Tanaka,R.,Mart{\'{\i}}nez-G{\'{o}}mez,P.,Miyao,Y.,\BBA\Bekki,D.\BBOP2016\BBCP.\newblock\BBOQBuildingCompositionalSemanticsandHigher-orderInferenceSystemforaWide-coverageJapaneseCCGparser.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2016)},\mbox{\BPGS\2236--2242}.\bibitem[\protect\BCAY{Mitchell\BBA\Lapata}{Mitchell\BBA\Lapata}{2008}]{mitchell-lapata:2008:ACLMain}Mitchell,J.\BBACOMMA\\BBA\Lapata,M.\BBOP2008\BBCP.\newblock\BBOQVector-basedModelsofSemanticComposition.\BBCQ\\newblockIn{\BemProceedingsofthe46thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2008)},\mbox{\BPGS\236--244}.\bibitem[\protect\BCAY{Mitchell\BBA\Lapata}{Mitchell\BBA\Lapata}{2010}]{mitchell2010composition}Mitchell,J.\BBACOMMA\\BBA\Lapata,M.\BBOP2010\BBCP.\newblock\BBOQCompositioninDistributionalModelsofSemantics.\BBCQ\\newblock{\BemCognitiveScience},{\Bbf34}(8),\mbox{\BPGS\1388--1429}.\bibitem[\protect\BCAY{Mueller\BBA\Thyagarajan}{Mueller\BBA\Thyagarajan}{2016}]{MuellerAAAI2016}Mueller,J.\BBACOMMA\\BBA\Thyagarajan,A.\BBOP2016\BBCP.\newblock\BBOQSiameseRecurrentArchitecturesforLearningSentenceSimilarity.\BBCQ\\newblockIn{\BemProceedingsofthe30thAAAIConferenceonArtificialIntelligence(AAAI-2016)},\mbox{\BPGS\2786--2792}.\bibitem[\protect\BCAY{Parsons}{Parsons}{1990}]{Parsons90}Parsons,T.\BBOP1990\BBCP.\newblock{\BemEventsintheSemanticsofEnglish:AStudyinSubatomicSemantics}.\newblockMITPress,Cambridge,USA.\bibitem[\protect\BCAY{Peter\BBA\Wilkins}{Peter\BBA\Wilkins}{1984}]{culicover1984}Peter,W.~C.\BBACOMMA\\BBA\Wilkins,W.~K.\BBOP1984\BBCP.\newblock{\BemLocalityinLinguisticTheory}.\newblockAcademicPress,Florida,USA.\bibitem[\protect\BCAY{Prawitz}{Prawitz}{1965}]{prawitz1965natural}Prawitz,D.\BBOP1965\BBCP.\newblock{\BemNaturalDeduction---AProof-TheoreticalStudy}.\newblockAlmqvist\&Wiksell,Stockholm,Sweden.\bibitem[\protect\BCAY{Ray}{Ray}{1990}]{Jackendo1990}Ray,J.\BBOP1990\BBCP.\newblock{\BemSemanticStructures}.\newblockMITPress,Cambridge,USA.\bibitem[\protect\BCAY{Steedman}{Steedman}{2000}]{Steedman00}Steedman,M.\BBOP2000\BBCP.\newblock{\BemTheSyntacticProcess}.\newblockMITPress,Cambridge,USA.\bibitem[\protect\BCAY{Tai,Socher,\BBA\Manning}{Taiet~al.}{2015}]{tai-socher-manning:2015:ACL-IJCNLP}Tai,K.~S.,Socher,R.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQImprovedSemanticRepresentationsFromTree-StructuredLongShort-TermMemoryNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(ACL/IJCNLP-2015)},\mbox{\BPGS\1556--1566}.\bibitem[\protect\BCAY{Wong\BBA\Raghavan}{Wong\BBA\Raghavan}{1984}]{Find-similar}Wong,S.K.~M.\BBACOMMA\\BBA\Raghavan,V.~V.\BBOP1984\BBCP.\newblock\BBOQVectorSpaceModelofInformationRetrieval:AReevaluation.\BBCQ\\newblockIn{\BemProceedingsofthe7thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\167--185}.\bibitem[\protect\BCAY{Yin\BBA\Sch{\"{u}}tze}{Yin\BBA\Sch{\"{u}}tze}{2017}]{yin-schutze:2017:EACLlong}Yin,W.\BBACOMMA\\BBA\Sch{\"{u}}tze,H.\BBOP2017\BBCP.\newblock\BBOQTask-SpecificAttentivePoolingofPhraseAlignmentsContributestoSentenceMatching.\BBCQ\\newblockIn{\BemProceedingsofthe15thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL-2017)},\mbox{\BPGS\699--709}.\bibitem[\protect\BCAY{Yoshikawa,Noji,\BBA\Matsumoto}{Yoshikawaet~al.}{2017}]{yoshikawa-noji-matsumoto:2017:Long}Yoshikawa,M.,Noji,H.,\BBA\Matsumoto,Y.\BBOP2017\BBCP.\newblock\BBOQA*CCGParsingwithaSupertagandDependencyFactoredModel.\BBCQ\\newblockIn{\BemProceedingsofthe55ndAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2017)},\mbox{\BPGS\277--287}.\bibitem[\protect\BCAY{Zhou,Liu,\BBA\Pan}{Zhouet~al.}{2016}]{zhou2016sentpair}Zhou,Y.,Liu,C.,\BBA\Pan,Y.\BBOP2016\BBCP.\newblock\BBOQModellingSentencePairswithTree-structuredAttentiveEncoder.\BBCQ\\newblockIn{\BemProceedingsofthe26thInternationalConferenceonComputationalLinguistics(COLING-2016)},\mbox{\BPGS\2912--2922}.\end{thebibliography}\begin{biography}\bioauthor{谷中瞳}{1989年生.2011年早稲田大学先進理工学部応用化学科卒業.2013年東京大学大学院工学系研究科科学システム工学専攻修士課程修了.同年,株式会社野村総合研究所入社後,2015年東京大学大学院工学系研究科システム創成学専攻博士課程進学.}\bioauthor{峯島宏次}{2013年慶應義塾大学文学研究科博士課程修了.博士(哲学).現在,お茶の水女子大学シミュレーション科学・生命情報学教育研究センター特任准教授.}\bioauthor[:]{PascualMart\'{i}nez-G\'{o}mez}{receivedhisPh.D.degreeinComputerScienceattheUniversityofTokyoin2014forhisresearchoneye-trackingandreadabilitydiagnosis.HeisaresearchscientistattheArtificialIntelligenceResearchCenterintheNationalInstituteofAdvancedIndustrialScienceandTechnology(AIST),Japan.}\bioauthor{戸次大介}{2000年東京大学大学院理学系研究科情報科学専攻博士課程修了.博士(理学).現在,お茶の水女子大学基幹研究院自然科学系准教授.}\end{biography}\biodate\end{document}
| |
V24N05-03 | \section{はじめに}
日本語は比較的語順が自由な言語であるとされるが,多くの研究において日本語にも基本語順が存在していることが示唆されている\cite{Mazuka2002,Tamaoka2005}.しかし,どの語順を基本語順とみなすかについては意見が分かれる場合があり,二重目的語構文についても,二つの目的語の基本語順に関し多くの説が提案されている.具体的な争点としては,二重目的語構文の基本語順は「がにを」である\cite{Hoji1985}か,「がにを」と「がをに」の両方である\cite{Miyagawa1997}かや,後者の立場の類型として基本語順は動詞の種類に関係するという説\cite{Matsuoka2003}や,ニ格の意味役割や有生性が関わっているとする説\cite{Miyagawa2004,Ito2007}などが存在している.また,これらの研究の分析方法に関しても,理論研究\cite{Hoji1985,Miyagawa2004}に加え,心理実験\cite{Koizumi2004,Nakamoto2006,Shigenaga2014}や脳科学\cite{Koso2004,Inubushi2009d}に基づく実証的研究など,多くの側面からの分析が行われている.しかし,これらの分析手法はいずれも分析の対象とした各用例について人手による分析や脳波等の計測が必要となるため,分析対象とした用例については信頼度の高い分析を行うことができるものの,新たな用例に対し分析を行う場合には改めてデータを収集する必要があり,多くの仮説の網羅的な検証には不向きである.一方,各語順が実際にどのような割合で出現するかの傾向は,コーパスから大規模に収集することが可能である.コーパス中の個別の事例から,それが基本語順なのか,かき混ぜ語順なのかを自動的に判定するのは容易でないものの,大規模に収集した用例において多数を占める語順であるならば,その語順が基本語順である可能性が高いと考えられる.たとえば,(\ref{EX::Kanjiru})に示すように\footnote{(\ref{EX::Kanjiru}),(\ref{EX::Sasou})に示した用例数は本研究で収集した各語順の用例数を表している.具体的な収集手順は\ref{SEC::CollectExamples}節で説明する.},動詞が「感じる」,ニ格要素が「言葉」,ヲ格要素が「愛情」の場合,「にを」語順が97.5\%を占めていることから,この動詞と格要素の組み合わせの場合,「にを」語順が基本語順であると考えられる.一方,(\ref{EX::Sasou})に示すように,動詞が「誘う」,ニ格要素が「デート」,ヲ格要素が「女性」である場合は,「をに」語順が99.6\%を占めており,この語順が基本語順であると考えられる.\ex{{\bfにを}:言葉に愛情を感じる。[用例数:118(97.5\%)]\label{EX::Kanjiru}\\&{\bfをに}:愛情を言葉に感じる。[用例数:3(2.5\%)]}\vspace{-2ex}\ex{{\bfにを}:デートに女性を誘う。[用例数:4(0.4\%)]\label{EX::Sasou}\\&{\bfをに}:女性をデートに誘う。[用例数:923(99.6\%)]}そこで本研究では,二重目的語構文の基本語順はコーパス中の語順の出現割合と強く関係するとの仮定に基づき,100億文を超える大規模コーパスから収集した用例を用いた日本語二重目的語構文の基本語順に関する各種の仮説の検証を行う.日本語二重目的語構文の基本語順を解明することができれば,日本語二重目的語構文の統語構造や言語理解プロセスの解明における重要な手掛りとなることが期待できる.本研究で行う大規模コーパスに基づく分析は,コーパス中で多数を占める語順が基本語順と同じであるとは限らないことから,基本語順の解明に直結するとは言えないものの,心理実験や脳科学等などのよりコストの掛かる検証を行う前段階の検証として有用であると考えられる.
\section{日本語二重目的語構文と語順}
二重目的語構文とは,(\ref{EX::Shashin})に示す各文における「次郎」と「写真」のように,典型的にはニ格とヲ格で表される2つの目的語を取る構文である.これらの格はそれぞれの与格(dative,\texttt{DAT}),対格(accusative,\texttt{ACC})を表す.また,ガ格(主格)項も含めて3つの項を取ることから三項動詞文とも呼ばれる.(\ref{EX::Shashin})に示すa〜fの6つの文は語順は異なるものの,本質的には同じ事象を表している.\ex{a:太郎が次郎に写真を見せた。\label{EX::Shashin}\\&b\hspace{0.05em}:太郎が写真を次郎に見せた。\\&c\hspace{0.15em}:次郎に太郎が写真を見せた。\\&d\hspace{0.10em}:次郎に写真を太郎が見せた。\\&e\hspace{0.20em}:写真を太郎が次郎に見せた。\\&f\hspace{0.40em}:写真を次郎に太郎が見せた。}二重目的語構文の基本語順に関しては多くの研究が行われている.これらの研究の主張は大きく3つに分けることができる\cite{Koizumi2004}.1つ目は,いかなる場合であっても基本語順は(\ref{EX::Shashin})-aのように「がにを」語順であるという説\cite{Hoji1985},2つ目は「がにを」と「がをに」のいずれもが基本語順であるという説\cite{Miyagawa1997},3つ目は動詞のタイプにより「がにを」語順が基本語順である場合と「がをに」語順が基本語順である場合があるという説\cite{Matsuoka2003}である.これらの3つの説において,基本語順において3つの項のうちガ格項の位置は先頭であるということは共通していることから,以下本論文では「がにを」語順を単に「にを」語順,「がをに」語順を単に「をに」語順と表記する.また,基本語順という用語の意味が研究により異なっていることに注意する必要がある.具体的には,基本語順は語彙によらず構文ごとにただ1つ存在しているという立場\cite{Hoji1985},動詞のタイプや動詞と各項に入る名詞の組み合わせによって基本語順は異なるという立場\cite{Matsuoka2003,Nakamoto2006},ある文における基本語順が複数存在しうるという立場\cite{Miyagawa1997}が存在しており,各立場により基本語順という用語の意味は異なっている.本論文では,基本語順は動詞と各項に入る名詞の組み合わせが与えられた場合に定まる,日本語使用者にとってもっとも自然で理解しやすい語順のことであるとし,動詞と各項に入る名詞の組み合わせによって基本語順は異なるものの,基本的に1つの組み合わせに対する基本語順は1つだけ存在しているという立場で考察を行う.日本語における動詞の項の並び順に影響を与える要因は多く知られている.代表的なものとしては,多数の語で構成される長い項は動詞から遠い位置に,少数の語で構成される短い項は動詞の近くに置かれることが多いといった性質\cite{Yamashita2001}や,既知の情報は前方に,新情報は後方に置かれやすいという性質\cite{Kuno2006}などが挙げられる.これらの性質は日本語特有のものではなく,たとえば英語の与格交替に関しても類似した性質が確認されており,これらの性質が与格交替が起こるかどうかの予測に有用であることが報告されている\cite{Bresnan2007}.他にも,日本語における動詞の項の並び順に関する研究は古くから多く行われており,たとえば佐伯は4編の小説,計67ページに含まれる文を手作業で分析し,上記の2つの傾向に加えて「与格のニは対格のヲのまえにくる」,「慣用表現では特定の補語は動詞の直前にくる」などの傾向を抽出している\cite{Saeki1975}.本研究では,基本語順の分析を目的とすることから,項の長さや,新情報であるかどうかなどの文脈に基づく要因を取り除いた分析を行う.具体的には,極めて大規模なコーパスから得られる統計情報を用いることで,個別の用例における項の長さ等の要因は無視できると仮定し,分析を行う.
\section{本研究で検証する仮説}
\label{SEC::Hypo}本研究では,日本語二重目的語構文の基本語順に関する代表的な仮説およびその類型として,以下の5つの日本語二重目的語構文の基本語順に関する仮説を検証する.\begin{description}\item[A.]動詞によらず基本語順は「にを」である\cite{Hoji1985}\item[B.]基本語順は動詞のタイプによって異なる\cite{Matsuoka2003}\item[C.]省略されにくい格は基本語順において動詞の近くに位置する\item[D.]基本語順はニ格名詞の意味役割や有生性によって異なる\cite{Matsuoka2003,Ito2007}\item[E.]対象の動詞と高頻度に共起するヲ格,ニ格名詞は基本語順において動詞の近くに位置する\end{description}まず,仮説\textbf{A},\textbf{B},\textbf{C}はいずれもニ格名詞やヲ格名詞の性質を考慮に入れない仮説であり,収集したテキストにおける語順の割合を動詞ごとに調べることで検証が可能である.このうち仮説\textbf{B}は,(\ref{EX::Inchoative})-aに示す「見せる」のように使役起動交替を適用したときにニ格名詞が主語となるものをShowタイプ,(\ref{EX::Inchoative})-bに示す「渡す」のようにヲ格名詞が主語となるものをPassタイプと分類した上で,Showタイプの動詞は「にを」が,Passタイプの動詞は「をに」が基本語順であるとする仮説である\cite{Matsuoka2003}.また,仮説\textbf{C}は「役立てる」のニ格や「もたらす」のヲ格などのように,省略されることが少ない格は,動詞の直前に出現することが多いとする仮説である.\ex{a.彼に本を見せる。(cf.彼が見る。)\label{EX::Inchoative}\\&b.本を彼に渡す。(cf.本が渡る。)}一方,仮説\textbf{D},\textbf{E}はニ格やヲ格の性質も考慮に入れた仮説である.仮説\textbf{D}は基本語順はニ格名詞の意味役割によって異なるという仮説で,特に(\ref{EX::Role})-aにおける「先生」のようにニ格名詞が有生性を持つ所有者(着点)を表す場合,(\ref{EX::Role})-bにおける「学校」のように有生性を持たない場所(着点)を表す場合よりも「にを」語順をとりやすいとする仮説である\cite{Matsuoka2003,Ito2007}.\ex{a.先生に本を返却した。\label{EX::Role}\\&b.本を学校に返却した。}仮説\textbf{E}は「思ったことを口に出す」や「人のことに口を出す」などのような慣用表現を含む文に関するMiyagawaらの分析\cite{Miyagawa2004}を拡張したものであり,「変化をもたらす」などのように,慣用表現として特別な意味を持っていない場合であっても,高い頻度で動詞と共起するヲ格名詞やニ格名詞は動詞の近くに出現しやすいとする仮説である.中本ら\cite{Nakamoto2006}は,日本語の語順選好は動詞に還元できない文レベルの意味と相関する,すなわち,基本語順は単純な動詞のタイプやニ格の意味役割から決めることはできず,文を構成する主要な要素間の相互作用の結果としての文レベルの意味が語順選好に関係していると主張しているが,基本語順は動詞の種類だけでなく,動詞とヲ格名詞,ニ格名詞との組み合わせによって決まるという意味で仮説\textbf{E}は中本らの説に近い説であると言える.
\section{分析に使用する用例の収集}
\label{SEC::CollectExamples}大規模コーパスに基づく日本語二重目的語構文の基本語順の分析は,理論研究や,心理実験や脳科学などに基づく実証的手法と比べ,圧倒的に多くの用例を使用できるという利点がある一方で,自動的に用例を収集する必要があるため,誤った用例が収集されてしまうことが問題となる.たとえば,単純に動詞の前に出現した格助詞を収集すると,(\ref{EX::Kagi})のような文から「鍵を彼に教わった」という用例が収集されてしまう.このような問題は,係り受け解析を行い,名詞句「鍵を」の係り先が「教わった」ではなく「置いた」であることを考慮することで防ぐことができるが,現状の構文解析システムの精度はたかだか92\%程度であり\cite{Yoshinaga2014},係り受け解析を利用するだけでは,依然として多くの適切でない用例を収集してしまう可能性が残る.\ex{鍵を彼に教わった場所に置いた。\label{EX::Kagi}}そこで本研究では,非常に規模の大きいコーパスから,ニ格やヲ格が明示的に出現しており,かつ,構文的な曖昧性の少ない用例だけを抽出,利用することによりこの問題に対処する.具体的には,河原らの手法\cite{Kawahara2002d}を基にした下記の手順を,Webから収集したテキスト集合に適用することにより,大規模かつ高精度な用例の収集を実現する\footnote{用例収集には京都大学黒橋・河原研から提供された述語項構造データを使用した.}.\begin{enumerate}\item収集したテキスト集合を句点等を手がかりに文に分割.この際,コピーページなどから1つの用例を重複して収集するのを防ぐため,完全に同一の文は1つに統合する.\item構文解析システムKNP\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP}を用いて構文解析を行い\footnote{解析オプションとしてルールベースの解析を行う``-dpnd'',係り先の候補を出力する``-check''を指定した.},構文的曖昧性がないと解析された係り受け関係から動詞とガ格名詞,ニ格名詞,ヲ格名詞を収集\footnote{河原らの報告\cite{Kawahara2005}によると述語項構造全体の20.7\%が収集され,その精度は98.3\%である.また,動詞が「する」である用例は一般の動詞と性質が異なると考えたため収集対象から除いた.}.この際,格要素が複合名詞となっている場合は,主辞が1文字の場合はその直前の形態素とセットで,それ以外の場合は主辞のみを収集する.また,動詞は「れる」や「たい」などの接尾辞を伴わず出現したもののみを収集対象とする.\item収集した用例を動詞ごとにまとめ,以下の条件すべてを満たす動詞を分析の対象とする.\begin{enumerate}\item形態素解析システムJUMAN\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN}の基本的語彙に含まれる動詞である.\itemヲ格名詞,ニ格名詞をともに持つ用例の割合が動詞の出現数の5\%以上である.\itemヲ格名詞,ニ格名詞をともに持ち,かつ,いずれもJUMANの基本的語彙に含まれる用例の異なり数が500以上である.\end{enumerate}\end{enumerate}上記2において,たとえば,(\ref{EX::Kagi})に示す文が与えられた場合,「鍵を」と「彼に」の2つの文節は後方に2つ動詞が存在するため係り先に曖昧性があることから「鍵を」と「彼に」を含む用例は収集されず,係り先に曖昧性のない「場所に」とその係り先である「置いた」で構成される「場所に置いた」という用例だけが収集される\footnote{この例のように,三項動詞であってもヲ格かニ格の一方しか収集されなかった用例は,各語順の出現率の算出には使用しないが,次節で説明するように格の省略されやすさ等の分析に使用する.}.また,3の(b)の条件は三項動詞のみを収集対象とするための条件である.目的語が2つ出現する用例が5\%以上というのは緩い条件のように思えるが,該当の項が省略されている,被連体修飾要素として出現している,係り受けに曖昧性がある等の理由で,三項動詞であっても目的語が2つ明示的に出現しないことが多いことから,実際にこの条件を満たした動詞の多くは三項動詞であった.100億文を超える文集合から用例を抽出した結果,上記の3の(a)〜(c)の条件をすべて満たす動詞は648種類収集された.1動詞あたりの出現数の平均は約35万,中央値は約8.3万,収集されたヲ格名詞,ニ格名詞をともに持つ用例数の平均は約3.8万,中央値は約0.9万であった.
\section{大規模コーパスに基づく基本語順の分析}
\subsection{動詞ごとの基本語順の分析}仮説\textbf{A},\textbf{C}の検証を行うため,前節で収集した648動詞それぞれに対し,ヲ格とニ格の一方のみが出現した用例に占めるニ格のみが出現した用例の割合$R_{\text{\texttt{DAT}-only}}$と,ヲ格とニ格の両方が出現した用例に占める「をに」語順の割合$R_{\text{\texttt{ACC}-\texttt{DAT}}}$を算出し,これらの相関を調査した.このうち,以下の式で算出される$R_{\text{\texttt{DAT}-only}}$は,ニ格がヲ格と比べてどのくらい省略されにくいかを表す値であり基本的に語順に関する情報を含まない値である.\[R_{\text{\texttt{DAT}-only}}=\frac{N_{\text{\texttt{DAT}-only}}}{N_{\text{\texttt{DAT}-only}}+N_{\text{\texttt{ACC}-only}}}\]ここで,$N_{\text{\texttt{DAT}-only}}$,$N_{\text{\texttt{ACC}-only}}$は,それぞれニ格のみが出現した用例数,ヲ格のみが出現した用例数を表す.たとえば,(\ref{EX::Gakui})に示す文は,ヲ格は出現するものの,ニ格は出現しないため,後者の用例として計数される.\ex{学長が学位を授与した。\label{EX::Gakui}}しかし,\ref{SEC::CollectExamples}節で収集した用例のうち,ヲ格とニ格の一方のみが収集された用例すべてを使用すると,$R_{\text{\texttt{ACC}-\texttt{DAT}}}$の値が大きい動詞ほど,$R_{\text{\texttt{DAT}-only}}$の値も大きくなりやすいというバイアスが生じてしまう.これは,動詞の近くに出現しやすい項の方が,実際の係り先との間に他の述語が出現する可能性が少ないため,係り先となる述語の曖昧性が相対的に少ないためである.このバイアスを軽減するため,本研究では$R_{\text{\texttt{DAT}-only}}$の値を算出する際に,(\ref{EX::Gakui})に示す文のようにガ格も収集された用例のみを使用した.これは,ガ格項,ヲ格項,ニ格項の中で,多くの場合,先頭に出現するガ格項が収集されているならば,収集されなかった項は出現していない可能性が高いと考えられるためである.表\ref{TAB::VERB}に動詞ごとの$R_{\text{\texttt{DAT}-only}}$と$R_{\text{\texttt{ACC}-\texttt{DAT}}}$の値の例を,図\ref{FIG::VERB}に分析対象とした648動詞それぞれの2つの値を2次元にプロットした結果を示す.図中の各点は648個の動詞をそれぞれ表しており,破線は線形回帰直線を表している.相関係数は0.391であった.また,右の棒グラフは$R_{\text{\texttt{ACC}-\texttt{DAT}}}$の値が該当する区間に含まれる動詞の数を表している.図\ref{FIG::VERB}に示す結果から,ヲ格とニ格の一方のみが出現した用例に占めるニ格の割合と,ヲ格とニ格の両方が出現した用例に占める「をに」語順の割合の間には弱いながらも正の相関があることが確認できる.この結果は仮説\textbf{C}が主張するように,省略されにくい格は動詞の近くに位置する傾向があることを示唆している.一方,38.2\%の動詞\footnote{図\ref{FIG::VERB}の棒グラフにおいて0.5から1.0の範囲に含まれる248動詞.}は「をに」語順の方が優勢であり,仮説\textbf{A}が主張するようにすべての動詞の基本語順が「にを」であるとは考えにくい.ただし,648動詞全体では「にを」語順の割合は67.2\%,「にを」語順が優勢な動詞は648個中400個であり,全体としては「にを」語順の方が優勢であった.\begin{table}[t]\caption{動詞ごとのニ格のみ出現した用例の割合$R_{\text{\texttt{DAT}-only}}$と「をに」語順の割合$R_{\text{\texttt{ACC}-\texttt{DAT}}}$の例}\label{TAB::VERB}\input{04table01.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{24-5ia4f1.eps}\end{center}\hangcaption{動詞ごとの,ニ格のみ出現した用例の割合$R_{\text{\texttt{DAT}-only}}$(横軸)と,「をに」語順の割合$R_{\text{\texttt{ACC}-\texttt{DAT}}}$(縦軸).$\bullet$は各動詞,破線は線型回帰直線を表し,右の棒グラフは各区間に含まれる動詞の数を表す.}\label{FIG::VERB}\end{figure}また,仮説\textbf{B}に関しては,動詞によって各語順が占める割合は異なっているものの,61.3\%の動詞\footnote{図\ref{FIG::VERB}の棒グラフにおいて0.2から0.8の範囲に含まれる397動詞.}については優勢な語順であってもその占める割合は80\%以下であり,動詞によって基本語順が決定されるとは考えにくい結果であった.表\ref{TAB::VERB}に示した例のうち「近付ける」,「適用する」,「詰める」,「挙げる」の4動詞は2つの語順がほぼ拮抗していた動詞の例となっている.\subsection{動詞のタイプと基本語順}仮説\textbf{B}をさらに詳細に検証するため,Showタイプに分類される動詞と,Passタイプに分類される動詞をそれぞれ抜き出し,コーパス中での語順の分布を調査した.各タイプの動詞として,基本的にKoizumiら\cite{Koizumi2004}が心理実験で使用した動詞を使用した.ただし,Showタイプの動詞に関してはKoizumiらが使用した10動詞のうち「はかせる」はJUMANにおいて2形態素に分割されることから除外し,代わりに「知らせる」と「言付ける」の2動詞を追加し,全体でShowタイプ11動詞,Passタイプ22動詞を調査対象とした.各動詞のヲ格,ニ格を両方とる用例数と「をに」語順の割合を表\ref{TAB::SHOW-PASS}に示す.Showタイプに属する動詞の「をに」語順の割合の分布と,Passタイプに属する動詞の「をに」語順の割合の分布の差をWilcoxonの順位和検定により検定した結果,p値は0.359となり,両者に有意な差は確認できなかった.この結果は,容認性判断課題においてこれらの動詞タイプの間で反応時間の差が見られなかったとするKoizumiらの報告\cite{Koizumi2004}と一致しており,仮説\textbf{B}は正しくないことを示唆している.\begin{table}[b]\caption{ShowタイプとPassタイプの動詞ごとのヲ格とニ格を両方とる用例数と「をに」語順の割合}\label{TAB::SHOW-PASS}\input{04table02.txt}\end{table}\subsection{ニ格名詞の性質と基本語順}ニ格名詞の性質と基本語順の関係に関する仮説\textbf{D}を検証するため,ニ格名詞のカテゴリと語順の関係を調査した.ここで,ニ格名詞のカテゴリには,JUMAN辞書に付与されているカテゴリ情報\footnote{JUMAN辞書ではすべての普通名詞やサ変名詞に『人』や『抽象物』などの22種類のカテゴリが付与されている.}をもとに決定し,そのカテゴリに属するニ格名詞の用例数が100万を超える8つのカテゴリを対象に「をに」語順の割合を調査した.結果を表\ref{TAB::CAT}に示す.ニ格名詞のカテゴリによって「をに」語順の割合に違いがあることが確認できるが,ニ格名詞が有生名詞の典型である『人』カテゴリを持つ場合に着目すると,全体では35.3\%である「をに」語順の割合が38.7\%と僅かに大きな値となっている.これはニ格が有生名詞の場合「にを」語順をとりやすいという仮説と合致しない結果である.\begin{table}[b]\caption{ニ格名詞のカテゴリごとの「をに」語順の割合}\label{TAB::CAT}\input{04table03.txt}\end{table}しかしながら,この結果は,二重目的語構文をとるものの,ヲ格,ニ格の意味役割がまったく異なる動詞間で比較を行ったため生じた可能性が考えられる.そこで本研究ではさらに,滝本ら\cite{Takimoto2015d}が使用した実験文を参考に,(\ref{EX::Henkyaku})に示すようなニ格が着点を表す典型的な文を対象に,ニ格の有生性の有無による語順選好の違いを調査した.\ex{a.本を学校に返却した.\label{EX::Henkyaku}\\&b.先生に本を返却した.}具体的には,ヲ格名詞のカテゴリが『人工物-その他』である用例に限定した上で,所有者(着点)を表す有生名詞の典型として『人』カテゴリに属する名詞,場所(着点)を表す無生名詞の典型として『場所-施設』カテゴリに属する名詞を考え,ニ格名詞のカテゴリが『人』である用例数と,『場所-施設』である場合の用例数がいずれも100以上である動詞を対象に,ニ格名詞のカテゴリごとの「をに」語順の割合を調査した.調査の結果,用例数がいずれも100以上であった126動詞のうち,有意水準0.05で比率の差の検定を行った結果,ニ格名詞のカテゴリが『人』である場合と『場所-施設』である場合で,語順の出現割合に有意な差があると判定された動詞は94個存在し,そのうち64動詞はニ格名詞のカテゴリが『人』である場合の方が「にを」語順となる割合が大きいという結果が得られた.すなわち,ニ格名詞が有生性を持つ場合の方が「にを」語順をとりやすい動詞が64個存在するのに対し,「をに」語順をとりやすい動詞は30個であり,この差を二項検定を用いて検定を行うとp値は0.00059と算出され,有意な差であるとの結果が得られた.この結果は,ニ格名詞が所有者(着点)である場合の方が場所(着点)である場合と比べて「にを」語順をとりやすいという仮説\textbf{D}を支持している.表\ref{TAB::ANIM}に,用例数がいずれも100以上であった126動詞のうちの6動詞について,ニ格が『人』であった場合と『場所-施設』であった場合,それぞれの場合の「をに」語順となる割合と出現頻度の高い用例の例を示す.表中で太字記載された「をに」率はもう一方と比べて有意に割合が大きいことを表している.ニ格が『人』である場合の方が「をに」語順となる割合が大きかった動詞の1つに動詞「据える」があったが,その用例にはニ格が『人』である場合であっても「主役に据える」などのようにニ格が所有者(着点)を表していないものが多く含まれていた.また,動詞「展示する」の場合,副詞的に使用されている「一同」にカテゴリ『人』が付与されているため,ニ格が『人』である場合の方が「をに」語順となる割合が大きくなったと考えられる.このように,分析においてノイズとなるような不適切な用例は,ニ格が『人』である場合の方が「をに」語順となる割合が大きい動詞に多く出現していた.\begin{table}[t]\caption{ニ格の性質と語順の関係の調査に使用した動詞の例とその語順の割合および用例}\label{TAB::ANIM}\input{04table04.txt}\end{table}\subsection{動詞と名詞の共起度合と語順の関係}続いて,仮説\textbf{E}の検証を行うため,ヲ格名詞,ニ格名詞,動詞の3つ組が与えられた場合の,ヲ格名詞と動詞,ニ格名詞と動詞,それぞれの共起のしやすさと,「をに」語順の関係を調査した.本研究では,ある格$c$を埋める名詞$n$と動詞$v$の共起度合いの尺度として,以下の式により定義される正規化自己相互情報量(NPMI)を使用した.\[\mbox{NPMI}_c(n,v)=\frac{\mbox{PMI}_c(n,v)}{-\mbox{log}(p_c(n,v))},\\ただし,\\\mbox{PMI}_c(n,v)=\mbox{log}\frac{p_c(n,v)}{p_c(n)p(v)}.\]ここで,$p_c(n)$は対象の格$c$を埋める名詞が$n$である確率,$p(v)$は動詞が$v$である確率,$p_c(n,v)$は対象の格$c$を埋める名詞と動詞の組み合わせが$(n,v)$となる確率をそれぞれ表す.NPMIは自己相互情報量(PMI)を$[-1,1]$の範囲に正規化した尺度となっており,$n$と$v$が常に共起する場合に1,独立に出現する場合に0,一度も共起しない場合に$-1$の値をとる.本研究では,仮説\textbf{E}を検証するため,ニ格名詞と動詞のNPMI$_{\mathtt{DAT}}$の値と,ヲ格名詞と動詞のNPMI$_{\mathtt{ACC}}$の値の差を算出し,「をに」語順の割合との関係を調査した.仮説\textbf{E}が正しい場合,ニ格名詞の方が動詞と高頻度に共起する場合,すなわち,ニ格名詞と動詞のNPMIの方が大きな値となる場合,ニ格名詞は動詞の近くに出現しやすいことになるので,「をに」語順の割合が大きくなる.まず,検証に使用する用例の収集を行った.具体的には,500回以上出現したヲ格名詞,ニ格名詞,動詞の組み合わせを収集した.収集の結果,2,417個の組み合わせが収集された.ただし,仮説\textbf{E}を検証するにあたり,慣用表現の影響を考慮する必要がある.たとえば,(\ref{EX::Idiom})に示す「足を運ぶ」,「棚に上げる」は慣用表現であるが,このような慣用表現は多くの場合,間に別の項を挟まないことが知られている.たとえば(\ref{EX::Idiom})-bと同じ意味で「棚に自分を上げる。」などと言うことはできない.\ex{a.美術館に足を運ぶ。(ヲ型慣用表現)\label{EX::Idiom}\\&b.自分を棚に上げる。(ニ型慣用表現)}そこで,慣用表現による影響を確認するため,収集された2,417個の組み合わせを人手で確認し,慣用表現として使用されることが大半であると考えられる組み合わせであるかどうかの判定を行った.(\ref{EX::Idiom})-aのようにヲ格名詞と動詞が慣用表現を構成しているものをヲ型慣用表現,(\ref{EX::Idiom})-bのようにニ格名詞と動詞が慣用表現を構成しているものをニ型慣用表現と呼ぶことにすると,2,417個の組み合わせのうち,404個がヲ型慣用表現,84個がニ型慣用表現と判定された.また,この過程で検証に使用するのに適していないと考えられる事例,具体的には,(\ref{EX::Except})-aのようにニ格が副詞的に使用されている「最大限」や「最小限」であるものが58個,(\ref{EX::Except})-bの「友達に知らせる」のようにSNS等で定型句として自動生成されていると考えられるものが57個見つかったため,検証に使用する用例からこれらを除いた.この結果,最終的に検証に使用する組み合わせは2,302個,そのうち,404個がヲ型慣用表現,84個がニ型慣用表現であった.1組み合わせあたりの用例数の平均は1,534であった.\ex{a.魅力を最大限に生かす。\label{EX::Except}\\&b.美容室を友達に知らせる。}続いて,2302個の組み合わせに対して,$\mbox{NPMI}_{\mathtt{DAT}}(n,v)-\mbox{NPMI}_{\mathtt{ACC}}(n,v)$と,「をに」語順の割合$R_{\text{\texttt{ACC}-\texttt{DAT}}}$を算出した.表\ref{TAB::VERB-NOUN}に算出された値の例を示す.表中で斜体となっている値は,仮説\textbf{E}と合致しない用例であることを示している.また,図\ref{FIG::NOUN-VERB}に2,302個の組み合わせそれぞれの値を2次元にプロットした結果を示す.図中の+はヲ型慣用表現,×はニ型慣用表現,$\bullet$はそれ以外の組み合わせを表しており,破線は線形回帰直線,右の棒グラフは$R_{\text{\texttt{ACC}-\texttt{DAT}}}$の値が該当する区間に含まれる組み合わせの数を表している.\begin{table}[b]\caption{名詞と動詞の共起度合と「をに」語順の割合$R_{\text{\texttt{ACC}-\texttt{DAT}}}$の例}\label{TAB::VERB-NOUN}\input{04table05.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{24-5ia4f2.eps}\hangcaption{ヲ格名詞,ニ格名詞,動詞の組み合わせごとの名詞と動詞の共起度合$\mathrm{NPMI}_{\mathtt{DAT}}(n,v)-\mathrm{NPMI}_{\mathtt{ACC}}(n,v)$と「をに」語順の割合$R_{\text{\texttt{ACC}-\texttt{DAT}}}$の関係.+がヲ型慣用表現,×がニ型慣用表現,$\bullet$がそれ以外の組み合わせ,破線は線型回帰直線を表し,右の棒グラフは各区間に含まれる組み合わせの数を表す.}\label{FIG::NOUN-VERB}\end{center}\end{figure}ニ格名詞と動詞,ヲ格名詞と動詞のNPMIの値の差と,「をに」語順の割合の相関係数は全体では0.567,慣用表現を除いた場合は0.513であった.ほぼすべてのヲ型慣用表現は「にを」語順を,ニ型慣用表現は「をに」語順をとっており,これらの影響で相関係数がより大きくなっていると言えるが,これらの影響を除いた場合であっても正の相関があった.この結果は全体的な傾向として仮説\textbf{E}が正しいことを示唆している.さらに,図\ref{FIG::NOUN-VERB}の棒グラフに示すように,ヲ格名詞,ニ格名詞と動詞の組み合わせごとの語順の割合の分布を見ると,80.1\%の組み合わせ\footnote{図\ref{FIG::NOUN-VERB}の棒グラフにおいて0.0から0.1,または,0.9から1.0の範囲に含まれる1,844の組み合わせ.}では,優勢となる語順が90\%以上を占めていることが分かる.この結果は,優勢な語順であってもその占める割合は限定的であった動詞ごとの分析と対照的な結果であり,ヲ格名詞,ニ格名詞と動詞の3つ組が与えられた場合は,「をに」または「にを」のいずれかに優勢な語順が定まる可能性が高いと考えられる.ヲ格名詞,ニ格名詞と動詞の3つ組が与えられた場合,文レベルの意味も定まると考えられることから,この結果は,日本語の語順選好は動詞に還元できない文レベルの意味と相関するという中本ら\cite{Nakamoto2006}の説を支持する結果であると考えられる.
\section{おわりに}
本研究では,100億文を超える大規模コーパスから収集された用例を用い,日本語二重目的語構文の基本語順,具体的には2つの目的語の基本語順が「をに」であるか「にを」であるかに関する各種の仮説の検証を行った.大規模コーパスに基づく分析結果が示唆する結論は以下のように要約される\footnote{括弧内の節番号はそれぞれの結論が得られた根拠となる節を示している.また,4節で挙げた仮説と対応する結論については対応する仮説とそれを支持する結果か否定する結果かも記している.}.\begin{itemize}\item省略されにくい格は動詞の近くに出現する傾向がある{\footnotesize[5.1節,仮説\textbf{C}を支持]}\item約6割の動詞は「にを」語順,4割の動詞は「をに」語順が優勢である{\footnotesize[5.1節,仮説\textbf{A}を否定]}\item優勢な語順であってもその割合が80\%以下である動詞が6割を占める{\footnotesize[5.1節]}\itemPassタイプとShowタイプなどの動詞タイプは基本語順と関係しない{\footnotesize[5.2節,仮説\textbf{B}を否定]}\itemニ格名詞が着点を表す場合,有生性を持つ場合の方が「にを」語順をとりやすい\\[-5pt]{\footnotesize[5.3節,仮説\textbf{D}を支持]}\item対象の動詞と高頻度に共起するヲ格名詞,ニ格名詞は動詞の近くに出現しやすい\\[-5pt]{\footnotesize[5.4節,仮説\textbf{E}を支持]}\itemヲ格名詞,ニ格名詞,動詞の3つ組が与えられた場合,「をに」語順と「にを」語順のいずれか一方の語順が90\%以上となる場合が8割を占める{\footnotesize[5.4節]}\end{itemize}本研究で行った日本語二重目的語構文の基本語順の分析の限界として,基本的にニ格とヲ格の両方が明示的に出現した構文的曖昧性のない用例のみを分析に使用しているため,ヲ格が副助詞「は」や「も」を用いて表現されやすい動詞や,連体節などを含む長い項を取りやすく項と動詞の間の係り受け関係に曖昧性が存在することが多い動詞等については正しく分析できていない可能性が考えられる.また,大規模コーパスに基づく基本語順の分析は,多くの仮説の網羅的な検証に向いていると言えるが,これらの分析は二重目的語構文の基本語順はコーパス中の語順の出現割合と強く関係するとの仮定に基づいており,実際に人がどのように二重目的語構文を処理し,どのような語順を基本語順として捉えているかの信頼度の高い結論を得るためには,脳科学などのより直接的な検証も行うことが望ましいと考えられる.\acknowledgment本研究で用例収集に使用した述語項構造データを提供していただいた京都大学の河原大輔准教授および黒橋禎夫教授に感謝いたします.本論文の一部はThe54thAnnualMeetingoftheAssociationforComputationalLinguisticsで発表したものです\cite{sasano2016}.また,本研究の一部はJSPS科研費25730131,16K16110の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bresnan,Cueni,Nikitina,\BBA\Baayen}{Bresnanet~al.}{2007}]{Bresnan2007}Bresnan,J.,Cueni,A.,Nikitina,T.,\BBA\Baayen,H.\BBOP2007\BBCP.\newblock\BBOQPredictingtheDativeAlternation.\BBCQ\\newblockInBouma,G.,Kr\"amer,I.,\BBA\Zwarts,J.\BEDS,{\BemCognitiveFoundationsofInterpretation},\mbox{\BPGS\69--94}.Amsterdam:RoyalNetherlandsAcademyofScience.\bibitem[\protect\BCAY{Hoji}{Hoji}{1985}]{Hoji1985}Hoji,H.\BBOP1985\BBCP.\newblock{\BemLogicalFormConstraintsandConfigurationalStructuresinJapanese}.\newblockPh.D.\thesis,UniversityofWashington.\bibitem[\protect\BCAY{犬伏\JBA飯島\JBA小泉\JBA酒井}{犬伏\Jetal}{2009}]{Inubushi2009d}犬伏知生\JBA飯島和樹\JBA小泉政利\JBA酒井邦嘉\BBOP2009\BBCP.\newblock日本語二重目的語文の脳内処理における基本語順の効果.\\newblock\Jem{日本言語学会第138回大会予稿集},\mbox{\BPGS\286--289}.\bibitem[\protect\BCAY{Ito}{Ito}{2007}]{Ito2007}Ito,A.\BBOP2007\BBCP.\newblock\BBOQArgumentStructureof{J}apaneseDitransitives.\BBCQ\\newblockInTakita,K.\BBACOMMA\\BBA\Fuji,C.\BEDS,{\BemNanzanLinguisticsSpecialIssue3},\mbox{\BPGS\127--150}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2002}]{Kawahara2002d}河原大輔\JBA黒橋禎夫\BBOP2002\BBCP.\newblock用言と直前の格要素の組を単位とする格フレームの自動構築.\\newblock\Jem{自然言語処理},{\Bbf9}(1),\mbox{\BPGS\3--19}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2005}]{Kawahara2005}河原大輔\JBA黒橋禎夫\BBOP2005\BBCP.\newblock格フレーム辞書の漸次的自動構築.\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\109--131}.\bibitem[\protect\BCAY{Koizumi\BBA\Tamaoka}{Koizumi\BBA\Tamaoka}{2004}]{Koizumi2004}Koizumi,M.\BBACOMMA\\BBA\Tamaoka,K.\BBOP2004\BBCP.\newblock\BBOQCognitiveProcessingof{J}apaneseSentenceswithDitransitiveVerbs.\BBCQ\\newblock{\BemGengoKenkyu},{\Bbf125},\mbox{\BPGS\173--190}.\bibitem[\protect\BCAY{高祖\JBA萩原\JBA曽雌}{高祖\Jetal}{2004}]{Koso2004}高祖歩美\JBA萩原裕子\JBA曽雌崇弘\BBOP2004\BBCP.\newblock三項動詞文処理の多チャンネル脳波研究.\\newblock\Jem{電子情報通信学会技術研究報告.TL,思考と言語,{\Bbf104}(170)},\mbox{\BPGS\31--36}.\bibitem[\protect\BCAY{Kuno}{Kuno}{2006}]{Kuno2006}Kuno,S.\BBOP2006\BBCP.\newblock\BBOQEmpathyandDirectDiscoursePerspectives.\BBCQ\\newblockInHorn,L.\BBACOMMA\\BBA\Ward,G.\BEDS,{\BemTheHandbookofPragmatics},BlackwellHandbooksinLinguistics,\mbox{\BPGS\315--343}.Wiley.\bibitem[\protect\BCAY{Matsuoka}{Matsuoka}{2003}]{Matsuoka2003}Matsuoka,M.\BBOP2003\BBCP.\newblock\BBOQTwoTypesofDitransitiveConsturctionsinJapanese.\BBCQ\\newblock{\BemJournalofEastAsianLinguistics},{\Bbf12},\mbox{\BPGS\171--203}.\bibitem[\protect\BCAY{Mazuka,Ito,\BBA\Kondo}{Mazukaet~al.}{2002}]{Mazuka2002}Mazuka,R.,Ito,K.,\BBA\Kondo,T.\BBOP2002\BBCP.\newblock\BBOQCostsofScramblinginJapaneseSentenceProcessing.\BBCQ\\newblockInNakayama,M.\BED,{\BemSentenceProcessinginEastAsianLanguages},\mbox{\BPGS\131--166}.Stanford,CA:CSLIPublications.\bibitem[\protect\BCAY{Miyagawa}{Miyagawa}{1997}]{Miyagawa1997}Miyagawa,S.\BBOP1997\BBCP.\newblock\BBOQAgainstOptionalScrambling.\BBCQ\\newblock{\BemLinguisticInquiry},{\Bbf28},\mbox{\BPGS\1--26}.\bibitem[\protect\BCAY{Miyagawa\BBA\Tsujioka}{Miyagawa\BBA\Tsujioka}{2004}]{Miyagawa2004}Miyagawa,S.\BBACOMMA\\BBA\Tsujioka,T.\BBOP2004\BBCP.\newblock\BBOQArgumentStructureandDitransitiveVerbsin{J}apanese.\BBCQ\\newblock{\BemJournalofEastAsianLinguistics},{\Bbf13},\mbox{\BPGS\1--38}.\bibitem[\protect\BCAY{中本\JBA李\JBA黒田}{中本\Jetal}{2006}]{Nakamoto2006}中本敬子\JBA李在鎬\JBA黒田航\BBOP2006\BBCP.\newblock日本語の語順選好は動詞に還元できない文レベルの意味と相関する.\\newblock\Jem{認知科学},{\Bbf13}(3),\mbox{\BPGS\334--352}.\bibitem[\protect\BCAY{佐伯}{佐伯}{1975}]{Saeki1975}佐伯哲夫\BBOP1975\BBCP.\newblock\Jem{現代日本語の語順}.\newblock笠間書院.\bibitem[\protect\BCAY{Sasano\BBA\Okumura}{Sasano\BBA\Okumura}{2016}]{sasano2016}Sasano,R.\BBACOMMA\\BBA\Okumura,M.\BBOP2016\BBCP.\newblock\BBOQACorpus-BasedAnalysisofCanonicalWordOrderofJapaneseDoubleObjectConstructions.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\2236--2244}.\bibitem[\protect\BCAY{Shigenaga}{Shigenaga}{2014}]{Shigenaga2014}Shigenaga,Y.\BBOP2014\BBCP.\newblock\BBOQCanonicalWordOrderof{J}apaneseDitransitiveSentences:APreliminaryInvestigationThroughaGrammaticalityJudgmentSurvey.\BBCQ\\newblock{\BemAdvancesinLanguageandLiteraryStudies},{\Bbf5}(2),\mbox{\BPGS\35--45}.\bibitem[\protect\BCAY{滝本\JBAカフラマン\JBA広瀬}{滝本\Jetal}{2015}]{Takimoto2015d}滝本宮美\JBAカフラマンバルジュ\JBA広瀬友紀\BBOP2015\BBCP.\newblock日本語の二重目的語構文における文理解の難易度について—ニ格名詞の有生性に着目して—.\\newblock\Jem{日本言語学会第150回大会},\mbox{\BPGS\110--115}.\bibitem[\protect\BCAY{Tamaoka,Sakai,Kawahara,Miyaoka,Lim,\BBA\Koizumi}{Tamaokaet~al.}{2005}]{Tamaoka2005}Tamaoka,K.,Sakai,H.,Kawahara,J.,Miyaoka,Y.,Lim,H.,\BBA\Koizumi,M.\BBOP2005\BBCP.\newblock\BBOQPriorityInformationUsedfortheProcessingof{J}apaneseSentences:ThematicRoles,CaseParticlesorGrammaticalFunctions?\BBCQ\\newblock{\BemJournalofPsycholinguisticResearch},{\Bbf34}(3),\mbox{\BPGS\281--332}.\bibitem[\protect\BCAY{Yamashita\BBA\Chang}{Yamashita\BBA\Chang}{2001}]{Yamashita2001}Yamashita,H.\BBACOMMA\\BBA\Chang,F.\BBOP2001\BBCP.\newblock\BBOQ``LongBeforeShort''PreferenceintheProductionofaHead-finalLanguage.\BBCQ\\newblock{\BemCognition},{\Bbf81}(2),\mbox{\BPGS\B45--B55}.\bibitem[\protect\BCAY{Yoshinaga\BBA\Kitsuregawa}{Yoshinaga\BBA\Kitsuregawa}{2014}]{Yoshinaga2014}Yoshinaga,N.\BBACOMMA\\BBA\Kitsuregawa,M.\BBOP2014\BBCP.\newblock\BBOQASelf-adaptiveClassifierforEfficientText-streamProcessing.\BBCQ\\newblockIn{\BemProceedingsofthe24thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1091--1102}.\end{thebibliography}\begin{biography}\bioauthor{笹野遼平}{2009年東京大学大学院情報理工学系研究科博士課程修了.京都大学特定研究員,東京工業大学助教を経て,2017年より名古屋大学准教授.博士(情報理工学).自然言語処理,特に照応解析,述語項構造解析に関する研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{奥村学}{1989年東京工業大学大学院理工学研究科博士課程修了.同年,東京工業大学助手.1992年北陸先端科学技術大学院大学助教授,2000年東京工業大学助教授,2009年同教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会,AAAI,言語処理学会,ACL,認知科学会,計量国語学会各会員.}\end{biography}\biodate\end{document}
| |
V15N03-05 | \section{はじめに}
我々は,人間と自然な会話を行うことができる知的ロボットの実現を目標に研究を行っている.ここで述べている「知的」とは,人間と同じように常識的に物事を理解・判断し,応答・行動できることである.人間は会話をする際に意識的または無意識のうちに,様々な常識的な概念(場所,感覚,知覚,感情など)を会話文章から判断し,適切な応答を実現しコミュニケーションをとっている.本論文では,それらの常識的な判断のうち,未知語の理解に着目し,研究を行っている.知的ロボットとの円滑なコミュニケーションを実現するにあたり,重要となる技術が自然言語処理である.近年,自然言語処理において,単語を意味的に分類したシソーラス\cite{NTT_Thesaurus:97},\cite{G.A.Miller:95}が数多く構築されている.これらのシソーラスは,情報検索や機械翻訳など多くの分野で利用されている.会話処理にシソーラスを用いた場合,会話文中にシソーラスに定義されていない単語(以下,未知語と呼ぶ)が含まれると,その会話文を理解することができない.そのため,未知語が大局的にどのような意味を持つのかを知る必要がある.未知語が所属するべきシソーラスのノードを提示することで,未知語の内容を簡明に表示することができると考える.これを実現するためには,ある単語から概念を想起し,さらに,その概念に関係のある様々な概念を連想できる能力が重要な役割を果たす.これまで,ある概念から様々な概念を連想できるメカニズムを,概念ベース\cite{okumura:07}と関連度計算\cite{watabe:06}により構成し,実現する方法が提案されている.そこで本論文では,連想メカニズムおよびシソーラスの体系的特徴を基に未知語を所属するべき最適なノードへ分類する手法を提案する.これまでにも同種の研究がなされている.\cite{uramoto:96}では,言語データとしてISAMAP\cite{tanaka:87}を利用し,未知語をシソーラスに分類する手法としてコーパス中の出現回数などの統計情報を用いている.また\cite{maeda:00}では,言語データとしてNTTシソーラス\cite{NTT_Thesaurus:97}を利用し,未知語をシソーラスに分類する手法として統計的決定理論の1つであるベイズ基準を用いている.一方で\cite{sakaki:07}では,検索エンジンのヒット件数に対して$\chi^2$値を用いた関連度の指標を用いることで,シソーラスの自動構築を行う手法が提案されている.また\cite{bessho:06}では,コーパスにおける単語同士の共起頻度を用いて単語をベクトル表現で表すことで,概念ベースを作成している.そして,概念ベースに登録していない単語のベクトル表現を,意味空間への射影による手法および分散最小性に基づく手法を用いて推定し,概念ベースを拡張する方法が提案されている.このようにこれまでの研究は,コーパスやシソーラスなどの言語データに存在する単語と未知語の共起頻度を利用することで,両者の関連性を比較し,未知語を既存のシソーラスに分類するものである.そのため,これまでの研究は,用いる言語データに存在しない未知語の場合,共起頻度を獲得することができないため,対応できないという問題を抱えている.本論文では,共起頻度に加えて,ある概念から様々な概念を連想できる連想メカニズムを用いている.その結果,固有名詞を含んだ未知語に対応した柔軟なメカニズムの構築を実現している.
\section{未知語分類システム}
label{system}未知語分類システムの構成を図\ref{fig:system}に示す.未知語分類システムは,単語を意味的に分類した分類体系の1つであるNTTシソーラス\cite{NTT_Thesaurus:97}と,未知語をNTTシソーラスのノードに分類するための未知語分類処理により構成されている.また,未知語分類処理においては,複数の国語辞書や新聞などから機械的に構築した大規模な知識ベースである概念ベース\cite{okumura:07}と,概念と概念の関連の強さを定量的に評価する関連度計算\cite{watabe:06}(以下,これらを合わせて連想メカニズムと呼ぶ)を用いることにより,未知語とNTTシソーラスのノードとの関連付けを行っている.なお本論文では,未知語とNTTシソーラスのノードに対して関連度計算を行うために,概念化という処理を行っている.概念化とは,ある単語に属性と重みの集合を与えることである.\begin{figure}[b]\begin{center}\includegraphics{15-3ia5f1.eps}\end{center}\caption{未知語分類システムの構成}\label{fig:system}\end{figure}本論文では,常識的な会話処理において用いられる一般名詞については,ノードとリーフをあわせて13万語の以上の単語が収録されているシソーラスと,約9万語の概念を収録する概念ベースを用いることで対応することができると考え,未知語に関する表現として,固有名詞を扱う.さらに,固有名詞の中でも,1つの単語のみから人間がその単語の意味を判断できる固有名詞を扱う.例えば,「Gショック」は「時計」,「クイニーアマン」は「パン」であると判断できる.逆に,「イオン」であれば,「企業」と判断する人間だけでなく,「電離現象」と判断する人間もいると考えられる.このように,人間が一意に判断できないことは,判断する手法が存在しないと考え,多義的な要素を持つ固有名詞については扱わないものとしている.また,\ref{acquiring_attribute_of_unknown_word}節で述べる未知語の概念化では,未知語の属性とその重みの獲得をWebから行う.そのため検索にヒットしない,つまり,Webに存在しない未知語は扱わないものとしている.
\section{構成技術}
label{constructing_technique}本章では,本研究を構成する技術であるシソーラス,連想メカニズム,および,属性の重み付け手法について述べる.\subsection{シソーラス}\label{thesaurus}シソーラスとは,単語を意味的に分類した分類体系である.シソーラスの多くは木構造を持ち,名詞の集合を分類した名詞シソーラスや用言の集合を分類した用言シソーラスなどがある.また,木構造の葉(以下,リーフと呼ぶ)のみに単語が所属する分類シソーラスと根及び中間ノードにも単語が所属する上位下位シソーラスがある.本論文では,木構造を持つ名詞シソーラスであり,上位下位シソーラスの1つであるNTTシソーラス\cite{NTT_Thesaurus:97}を用いる.NTTシソーラスは一般名詞の意味的用法を表す2710個のノードの上位—下位関係,全体—部分関係が木構造で示されたものである.ノードに所属する名詞として約13万語のリーフが分類されている.図\ref{fig:thesaurus}にNTTシソーラスの木構造の一部を示す.\begin{figure}[b]\begin{center}\includegraphics{15-3ia5f2.eps}\end{center}\caption{NTTシソーラスの木構造(一部)}\label{fig:thesaurus}\end{figure}本論文では,未知語を最も詳しく説明するノードに分類するという考えから,未知語を分類するノードを最下位ノード(1926個)に限定している.さらにその中で,固有名詞である未知語が分類されることはないと判断できるノードを人手で削除している.なお判断基準としては,3名の被験者に各最下位ノードに未知語が分類されるノードか否かを判断してもらい,そのうち3名全員が未知語は分類されないと判断したノードを削除している.結果,使用するノード数は385個となっている.表\ref{table:filtering_node}に選別したノードの一例を示す.\begin{table}[t]\caption{使用するノードの選別}\input{05table01.txt}\label{table:filtering_node}\end{table}\subsection{連想メカニズム}\label{association_mechanism}連想メカニズムは概念ベースと関連度計算により構成されており,概念ベース\cite{okumura:07}は,ある単語から語意の展開を行い,関連度計算\cite{watabe:06}は,語意の展開結果を利用し,単語の間にある関連性の強さを数値として表す手法である.\subsubsection{概念ベース}\label{concept_base}概念ベースとは複数の国語辞書や新聞などから機械的に構築した単語(概念)とその意味特徴を表す単語(属性)の集合からなる知識ベースである.概念には属性とその重要性を表す重みが付与されている.概念ベースには約9万語の概念が収録されており,1つの概念に平均約30個の属性が存在する.ある概念$A$は属性$a_i$とその重み$w_i$の対の集合として,式\ref{eq:concept_base}で表される.\begin{equation}A=\{(a_1,w_1),(a_2,w_2),\cdots,(a_i,w_i),\cdots,(a_n,w_n)\}\label{eq:concept_base}\end{equation}任意の一次属性$a_i$は,その概念ベース中の概念表記の集合に含まれている単語で構成されている.したがって,一次属性は必ずある概念表記に一致するため,さらにその一次属性を抽出することができる.これを二次属性と呼ぶ.概念ベースにおいて,「概念」は$n$次までの属性の連鎖集合により定義されている(図\ref{fig:concept_base}).\begin{figure}[t]\begin{center}\includegraphics{15-3ia5f3.eps}\end{center}\caption{概念ベース}\label{fig:concept_base}\end{figure}本論文では,\ref{acquiring_attribute_of_unknown_word}節で述べる未知語の概念化,および,\ref{acquiring_attribute_of_node}節で述べるシソーラスのノードの概念化に概念ベースを用いている.\subsubsection{関連度計算}\label{degree_of_association}関連度とは,概念と概念の関連の強さを定量的に評価するものである.概念と概念の間にある関連性を定量的に評価する手法として,ベクトル空間モデルが広く用いられている.しかし,本論文では,概念を定義する属性集合とその重みを含めた一致度に基づいた関連度計算方式を利用している.これは,関連度計算方式が有限ベクトル空間によるベクトル空間モデルよりも良好な結果が得られるという報告がなされているためである\cite{watabe:01}.本論文では重み比率付き関連度計算方式を使用し,実験を行う\cite{watabe:06}.任意の概念$A$,$B$について,それぞれ一次属性を$a_i$,$b_j$とし,対応する重みを$u_i$,$v_j$とする.また,概念$A$,$B$の属性数を$L$個,$M$個$(L<M)$とする.\begin{gather*}A=\{(a_i,u_i)\midi=1〜L\}\\B=\{(b_j,v_j)\midj=1〜M\}\end{gather*}このとき,概念$A$,$B$の重み比率付き一致度$\mathit{MatchWR}(A,B)$を以下の式\ref{eq:MatchWR1},\ref{eq:MatchWR2}で定義する.\begin{gather}MatchWR(A,B)=\sum_{a_i=b_j}\min(u_i,v_j)\label{eq:MatchWR1}\\\min(\alpha,\beta)=\begin{cases}\alpha&(\beta>\alpha)\\\beta&(\alpha\geq\beta)\end{cases}\label{eq:MatchWR2}\end{gather}概念$A$,$B$の属性$a_i$,$b_j$に対し,$a_i=b_j$となる属性(概念$A$,$B$に共通する属性)があった場合,共通する属性の重みの共通部分,つまり,小さい重み分のみ一致するとの考えに基づいている.定義から明らかなように,両概念の属性と重みが完全に一致する場合に,一致度は1.0となる.次に,属性の少ない方の概念を$A$とし$(L\leqqM)$,概念$A$の属性を基準とする.\[A=\{(a_1,u_1),(a_2,u_2),\cdots,(a_i,u_i),\cdots,(a_L,u_L)\}\]そして概念$B$の属性を,概念$A$の各属性との重み比率付一致度$\mathit{MatchWR}(a_i,b_{xi})$の和が最大になるように並び替える.\[B_x=\{(b_{x1},v_{x1}),(b_{x2},v_{x2}),\cdots,(b_{xi},v_{xi}),\cdots,(b_{xL},v_{xL})\}\]これによって,概念$A$の一次属性と概念$B$の一次属性の対応する組を決める.対応にあふれた概念$B$の属性は無視する(この時点では組み合わせは$L$個).ただし,一次属性同士が一致する(概念表記が同じ)ものがある場合($a_i=b_j$)は,別扱いにする.これは概念ベースには約9万の概念が存在し,属性が一致することは稀であるという考えに基づく.従って,属性の一致の扱いを別にすることにより,属性が一致した場合を大きく評価する.具体的には,対応する属性の重み$u_i$,$v_j$の大きさを重みの小さい方にそろえる.このとき,重みの大きい方はその値から小さい方の重みを引き,もう一度,他の属性と対応をとることにする.例えば,$a_i=b_j$で$u_i=v_j+\alpha$とすれば,対応が決定するのは$(a_i,v_j)$と$(b_j,v_j)$であり,$(a_i,\alpha)$はもう一度他の属性と対応させる.このように対応を決めて,対応の取れた属性の組み合わせ数を$T$個とする.重み比率付き関連度とは,重み比率付き一致度を比較する概念の各属性間で算出し,その和の最大値を求めることで計算する.これを以下の式\ref{eq:DoA}により定義する.\begin{equation}DoA(A,B)=\sum_{i=1}^T\{MatchWR(a_i,b_{xi})\times(u_i+v_{xi})\times(min(u_i,v_{xi})/max(u_i,v_{xi}))/2\}\label{eq:DoA}\end{equation}以下,重み比率付き関連度を関連度と略し,この関連度\cite{watabe:06}を用いる.関連度の値は概念間の関連の強さを0〜1の間の連続値で表す.1に近づくほど関連が強い.概念$A$と$B$に対して関連度計算を行った例を表\ref{table:degree_of_association}に挙げる.最後に,概念「机」と「椅子」を例に用いて,関連度の計算例を説明する.概念「机」と「椅子」の一次属性および二次属性を表\ref{table:example_primary_attribute},表\ref{table:example_secondary_attribute}に示す.\begin{table}[b]\begin{minipage}[t]{200pt}\caption{関連度計算の例}\input{05table02.txt}\label{table:degree_of_association}\end{minipage}\hfill\begin{minipage}[t]{200pt}\caption{概念「机」と「椅子」の一次属性}\input{05table03.txt}\label{table:example_primary_attribute}\end{minipage}\end{table}まず,概念「机」と「椅子」の一致度の計算を行う.例えば,概念「机」の一次属性「学校」と概念「椅子」の一次属性「木」は,「木造」という共通する属性を持っているため,一致度は以下のように計算される.\[MatchWR(学校,木)=\min(0.2,0.4)=0.2\]同様に全ての一次属性の組み合わせについて一致度を計算した結果を表\ref{table:example_dom_matrix}に示す.\begin{table}[t]\begin{minipage}[t]{282pt}\caption{概念「机」と「椅子」の二次属性}\input{05table04.txt}\label{table:example_secondary_attribute}\end{minipage}\hfill\begin{minipage}[t]{118pt}\setlength{\captionwidth}{118pt}\hangcaption{概念「机」と「椅子」の一致度行列}\input{05table05.txt}\label{table:example_dom_matrix}\end{minipage}\end{table}次に,関連度の計算を行う.関連度の計算は,まず属性が完全に一致している部分から行われる.続いて,一致度の大きい部分から順に対応を決める.この場合,表\ref{table:example_dom_matrix}から一次属性「勉強」と「勉強」,「学校」と「教室」,「本棚」と「勉強」の順に対応が決まることになる.結果,関連度は次式のように計算される.\begin{align*}DoA(机,椅子)&=1.0\times(0.3+0.3)\times(0.3/0.3)/0.2+0.4\times(0.6+0.3)\times(0.3/0.6)/2\\&\quad{}+0.1\times(0.1+0.2)\times(0.1/0.2)/2\\&=0.3975\end{align*}本論文では,\ref{narrowing_node}節で述べる未知語とシソーラスのノードとの関連の強さの判断に関連度計算を用いる.\subsection{属性の重み付け手法}\label{weighted_attribute}本節では,本論文が提案する手法で用いる,対象としている文書に出現する単語の重み付け手法であるTF・IDF\cite{tokunaga:99}とSWeb-idf\cite{tuji:04}について述べる.\subsubsection{TF・IDF}\label{tf_idf}TF・IDFによる重み付けとは,対象としている単語の頻度と網羅性に基づいた重み付け手法である.文書$d$における索引語$t$の重み$w(t,d)$は以下の式\ref{eq:tf}によって得られる.\begin{equation}w(t,d)=tf(t,d){\times}idf(t)\label{eq:tf}\end{equation}$\mathit{tf}(t,d)$は文書$d$における索引語$t$の出現頻度である.また,$\mathit{idf}(t)$は検索対象文書数$N$と索引語$t$が出現する文書の数$\mathit{df}(t)$によって決まり,式\ref{eq:idf}によって定義される.\begin{equation}idf(t)=\log\frac{N}{df(t)}+1\label{eq:idf}\end{equation}本論文では,\ref{acquiring_attribute_of_node}節で述べるシソーラスのノード属性の概念化,および,\ref{determining_node}節で述べるノード動詞の構築にTF・IDFを用いている.\subsubsection{SWeb-idf}\label{SWeb-idf}SWeb-idf(StaticsWeb-InverseDocumentFrequency)とは,Web上の単語のIDFを統計的に調べたIDF値である.まず,無作為に選んだ固有名詞1000語を作成する.表\ref{table:proper_noun}に無作為に選択した固有名詞の一部を示す.\begin{table}[t]\begin{minipage}[t]{200pt}\caption{SWeb-idfの作成に用いた固有名詞(一部)}\input{05table06.txt}\label{table:proper_noun}\end{minipage}\hfill\begin{minipage}[t]{200pt}\caption{SWeb-idfの例}\input{05table07.txt}\label{table:SWeb-idf}\end{minipage}\end{table}この作成した1000語に対して個々に検索エンジン\footnote{検索エンジンはgoogleを用いた.http://www.google.co.jp}で検索を行い,1語につき検索上位10件の検索結果ページの内容を取得する.よって,得られた検索結果ページ数は10000ページとなる.この10000ページから,複数の国語辞書や新聞などから概念(単語)を抽出した知識ベースである概念ベースの収録語数である約9万語とほぼ同等の単語数が得られたことから,獲得した10000ページをWebの全情報情報空間とみなしている.そして,その中での単語のIDF値を表すSWeb-idfは,式\ref{eq:SWeb-idf}で求められる.\begin{equation}SWeb\verb|-|idf(t)=\log\frac{N}{df(t)}\hspace{2em}(N=10000)\label{eq:SWeb-idf}\end{equation}これらにより得られた単語とそのIDF値をデータベースに登録した.なお$\mathit{df}(t)$項は,全文書空間(10000ページ)に出現する概念$t$の頻度である.獲得したSWeb-idfの値の例を表\ref{table:SWeb-idf}に挙げる.なお,固有名詞の選び方を変えてもSWeb-idfの値に大きな変化は見られないという報告がなされている\cite{tuji:04}.本論文では,\ref{acquiring_attribute_of_unknown_word}節で述べる未知語の概念化にSWeb-idfを用いている.
\section{未知語分類手法}
label{node_mapping}本論文が提案する手法では,未知語を入力した後に,未知語とシソーラスのノードに対して関連度計算を行うために,未知語の概念化およびシソーラスのノードの概念化を行う.そして,概念化された未知語およびノードを用いて未知語が所属するシソーラスのノード決定を行う.処理の流れとしては,まず,未知語を入力した後に,未知語とノードに対して関連度計算を行うために,未知語とノードの概念化を行う.次に,概念化された未知語およびノードに対して関連度計算を行い,所属候補ノードを絞り込む.さらに,ノード動詞および共起ヒットを用いて未知語が所属するべきノードを決定する.図\ref{fig:flow_node_mapping}に未知語をシソーラスのノードへ分類する流れを示す.\begin{figure}[b]\begin{center}\includegraphics{15-3ia5f4.eps}\end{center}\caption{ノード決定の流れ}\label{fig:flow_node_mapping}\end{figure}\subsection{未知語の概念化}\label{acquiring_attribute_of_unknown_word}以下の手順により,未知語の概念化を行うために,未知語の属性とその重みをWebから獲得する.\begin{enumerate}\item入力された未知語をキーワードとして検索エンジンを用いて検索を行い,検索上位100件の検索結果ページの内容を取得する.\itemHTMLタグなど不要な情報を取り除いた文書群に対して,形態素解析ソフト「茶筌」\footnote{奈良先端科学技術大学院大学.http://chasen-legacy.sourceforge.jp/}を用いて形態素解析を行い,自立語を抽出する.\item得られた自立語の中から概念ベースに存在する単語のみを未知語の属性として抜き出す.\item得られた属性の頻度にSWeb-idf(\ref{SWeb-idf}節参照)の値を掛け合わせたものを属性の重みとし,得られた重み順に並び替える.なお,SWeb-idfのDBに存在しない属性については,Web上にあまり存在しない単語と考え,SWeb-idf値の最大値を掛け合わせている.\end{enumerate}表\ref{table:attribute_unknown_word}に未知語を概念化した例を示す.\subsection{シソーラスのノードの概念化}\label{acquiring_attribute_of_node}入力された未知語の属性とその重みはWebの検索を用いて獲得したが(\ref{acquiring_attribute_of_unknown_word}節参照),比較対象であるシソーラスのノードは概念ではないため,関連度計算による比較を行うことができない.そのため,シソーラスのノードの概念化を以下の手順で行う\cite{ito:04}.\begin{table}[t]\caption{未知語「Gショック」,「クイニーアマン」の属性とその重み(一部)}\input{05table08.txt}\label{table:attribute_unknown_word}\end{table}\begin{enumerate}\itemノードに所属する全てのリーフに対して概念ベースを参照し,リーフを概念とみなすことでその一次属性を取得する(図\ref{fig:acquiring_attribute_of_node}).\begin{figure}[t]\begin{center}\includegraphics{15-3ia5f5.eps}\end{center}\caption{ノード「時計」の属性取得}\label{fig:acquiring_attribute_of_node}\end{figure}\item(1)の作業を全てのノードに対して行う.\itemリーフを概念とみなすことで取得した一次属性に対して,TF・IDFを利用(\ref{tf_idf}節参照)して各属性の重みを求める.具体的には,取得した一次属性の重みをTFとみなし,また,全てのノードの数を式\ref{eq:idf}の$N$,取得した一次属性が出現するノードの数を式\ref{eq:idf}の$\mathit{df}(t)$とみなしてIDFを求める.そして,得られた重み順に属性を並び替える.\end{enumerate}表\ref{table:attribute_node}にシソーラスのノードの1つである「時計」を概念化した例を示す.\begin{table}[t]\caption{ノード「時計」の属性とその重み(一部)}\input{05table09.txt}\label{table:attribute_node}\end{table}\subsection{シソーラスのノードの絞込み}\label{narrowing_node}以下の手順により,処理回数を少なくするためにシソーラスのノードの絞込みを行う.\begin{enumerate}\item\ref{acquiring_attribute_of_unknown_word}節で説明した手法を用いて,概念化を行った未知語$\mathit{query}$を式\ref{eq:query}で定義する.なお,$q_i$が属性,$w_i$がその重みである.\begin{equation}\mathit{query}=\{(q_1,w_1),(q_2,w_2),\cdots,(q_i,w_i),\cdots,(q_M,w_M)\}\label{eq:query}\end{equation}\itemシソーラスのノード集合$\mathit{NODE}$を式\ref{eq:node}で定義する.\begin{equation}\mathit{NODE}=\{(\mathit{node}_1),(\mathit{node}_2),\cdots,(\mathit{node}_{385})\}\label{eq:node}\end{equation}また,\ref{acquiring_attribute_of_node}節で説明した手法を用いて,概念化を行ったシソーラスのノード$\mathit{node}_i$を式\ref{eq:node_attribute}で定義する.なお,$n_{ij}$が属性,$w_{ij}$がその重みである.\begin{equation}\mathit{node}_i=\{(n_{i1},w_{i1}),(n_{i2},w_{i2}),\cdots,(n_{ij},w_{ij}),\cdots,(n_{iN},w_{iN})\}\label{eq:node_attribute}\end{equation}\item概念化を行った未知語$\mathit{query}$とシソーラスの各ノード$\mathit{node}_i$に対して関連度計算を行い,関連度$\mathit{DoA}(\mathit{query},\mathit{node}_i)$を求める.そして,0.02以上の関連度を持つノードを所属候補ノードとする.よって,所属候補ノード集合$\mathit{NODE}'$は以下の式\ref{eq:candidate_node}で定義される.なお,関連度の閾値0.02は,0.0から0.05まで0.001毎に変化させて実験を行った結果,最も高い精度を得られた値を閾値として採用したものである.この実験については,\ref{threshold_evaluation}節で述べる.また,閾値によりノード数を385個から10個程度に絞り込むことができ,\ref{determining_node}節で述べるノード動詞や共起ヒットを用いる処理において,処理回数を20分に1以下にすることに成功している.\begin{equation}\mathit{NODE}'=\{\mathit{node}_i\mid\mathit{DoA}(\mathit{query},\mathit{node}_i)\ge0.02,\mathit{node}_i\in\mathit{NODE}\}\label{eq:candidate_node}\end{equation}\end{enumerate}\subsection{所属ノードの決定}\label{determining_node}\ref{narrowing_node}節の処理により求めた所属候補ノード集合$\mathit{NODE}'$に対してノード動詞や共起ヒットを用いたノード決定を行う.\subsubsection{ノード動詞}\label{node_verb}NTTシソーラスは作成者がある分類基準に従って単語を体系的に分類したものである.そのため,NTTシソーラスには「あるノードに所属するリーフは,そのリーフの直後に現れる助詞を伴う動詞が同じである」という関係が存在する.例えば,ノード「茶」に属するリーフ「番茶」や「麦茶」などには,「番茶を飲む」や「麦茶を飲む」など直後に現れる助詞を伴う動詞が共に「を飲む」であることが分かる.ノード動詞とはこの関係を利用して,ノードに設定したキーワードのことであり,ノード決定に利用する.具体的には,入力された未知語にノードごとに対応する助詞を伴う動詞(ノード動詞)を連結したキーワードを検索エンジンに入力し,HIT数を獲得する.そして,獲得したHIT数を\ref{determining_node_method}節で述べるノード得点の算出に利用する.例えば,未知語が「マイルドセブン」,所属候補ノードが「たばこ」である場合,ノード「たばこ」のノード動詞である「を吸う」を連結した「マイルドセブンを吸う」というキーワードの検索を検索エンジンで行ったときのHIT数を求める.以下にノード動詞の構築方法を示す.\begin{enumerate}\itemノードに属しているリーフをすべて抜き出す.\itemそれぞれのリーフをキーワードとして検索エンジンで検索し,各リーフについて検索上位1000件の検索結果ページを取得する.そして,その文書内でキーワードの直後に出現する「格助詞+動詞(サ変名詞を含む)」部分を全て抜き出す.\item(2)の操作を全てのノードに対して行う.\item(3)で得られた「格助詞+動詞(サ変名詞を含む)」に対して,TF・IDF(\ref{tf_idf}節参照)を利用して,重みを求める.具体的には,取得した「格助詞+動詞(サ変名詞を含む)」の数をTFとみなし,また,全てのノードの数を式\ref{eq:idf}の$N$,「格助詞+動詞(サ変名詞を含む)」が出現するノードの数を式\ref{eq:idf}の$\mathit{df}(t)$とみなしてIDFを求める.そして,最も大きな重みを持つ「格助詞+動詞(サ変名詞を含む)」をノード動詞に決定する.\end{enumerate}表\ref{table:node_verb}に構築したノード動詞の例を示す.\begin{table}[b]\caption{ノード動詞(一部)}\input{05table10.txt}\label{table:node_verb}\end{table}\subsubsection{共起ヒット}\label{coincidence_hit}「単語の意味は,どのような単語と共起するかという観点から特徴付けられる」というHarrisの分布仮説から\cite{harris:68},関係のある2語は,ある文書に共に出現すると考えられる.そこで,未知語とノード名のAnd検索を検索エンジンを行い,HIT数を獲得する.そして,獲得したHIT数を\ref{determining_node_method}節で述べるノード得点の算出に利用する.例えば,未知語が「マイルドセブン」,所属候補ノードが「たばこ」である場合,「マイルドセブン」と「たばこ」のAnd検索を検索エンジンで行ったときのHIT数を求める.\subsection{所属ノード決定手法}\label{determining_node_method}未知語の所属ノードを決定する計算式を式\ref{eq:determining_node_method}に示す\footnote{なお,logの計算はヒット数が3件以上のときに行い,2件以下の場合は1としている.}.所属候補ノード$\mathit{node}_i$の中でノード得点$\mathit{NodeValue}(\mathit{node}_i)$が最も高いノードを所属ノードとする.$\mathit{DoA}(\mathit{query},\mathit{node}_i)$は未知語$\mathit{query}$と$\mathit{node}_i$の関連度,$\mathit{VerbHit}(\mathit{node}_i)$は未知語にノード動詞を連結したキーワードの検索を検索エンジンで行ったときのHIT数,$\mathit{CoincidenceHit}(\mathit{node}_i)$は未知語とノード名のAnd検索を検索エンジンで行ったときのHIT数を表す.\begin{equation}\begin{aligned}[b]&NodeValue(node_i)\\&\quad=DoA(\mathit{query},\mathit{node}_i)\times\log(\mathit{VerbHit}(\mathit{node}_i))\times\log(\mathit{CoincidenceHit}(\mathit{node}_i))\label{eq:determining_node_method}\end{aligned}\end{equation}以下に未知語「Gショック」および「クイニーアマン」を例に,所属ノード決定手法における式\ref{eq:determining_node_method}の結果をノード得点上位5個まで例示したものを表\ref{table:calculation_example_doa},\ref{table:calculation_example_node_verb},\ref{table:calculation_example_coincidence_hit},\ref{table:calculation_example_node_value}に示す.表\ref{table:calculation_example_doa}が未知語とノード得点上位5個のノードとの関連度,表\ref{table:calculation_example_node_verb}が未知語のノード得点上位5個のノードが持つノード動詞とノード動詞を用いたときのHIT数,表\ref{table:calculation_example_coincidence_hit}が共起ヒットを用いたときのHIT数,表\ref{table:calculation_example_node_value}が未知語のノード得点上位5個のノードに与えられたノード得点を表している.\begin{table}[b]\caption{所属ノード決定手法の計算例(関連度)}\input{05table11.txt}\label{table:calculation_example_doa}\end{table}\begin{table}[t]\caption{所属ノード決定手法の計算例(ノード動詞)}\input{05table12.txt}\label{table:calculation_example_node_verb}\end{table}\begin{table}[t]\caption{所属ノード決定手法の計算例(共起ヒット)}\input{05table13.txt}\label{table:calculation_example_coincidence_hit}\end{table}\begin{table}[t]\caption{所属ノード決定手法の計算例(ノード得点)}\input{05table14.txt}\label{table:calculation_example_node_value}\end{table}
\section{評価}
label{evaluation}本論文で提案している手法の評価を行うために,20人から各10個ずつシソーラスに存在しない固有名詞とその固有名詞に対する正解ノードを重複することのないように記入してもらうことで,合計200語の未知語を持つテストセットを作成した.なお,テストセットに用いる固有名詞は,\ref{system}章で述べたように一意にその固有名詞の意味を判断できる,つまり,多義的な要素を持たない固有名詞に限定している.評価に使用したテストセットの一部を表\ref{table:testset}に示す.\begin{table}[t]\caption{テストセット(一部)}\input{05table15.txt}\label{table:testset}\end{table}テストセットの各未知語の入力に対して,本論文が提案する手法で出力した結果として,正解ノードを得た未知語を正解,得られなかった未知語を不正解として精度を算出する.\subsection{閾値調査の評価}\label{threshold_evaluation}\ref{narrowing_node}節で述べたシソーラスのノードの絞込みにおいて関連度の閾値を決定するために,閾値を0.0から0.05まで0.001毎に変化させて未知語の所属ノードの決定を行ったときの実験結果を図\ref{fig:changing_threshold}に示す.図\ref{fig:changing_threshold}より,関連度の閾値が0.014から0.02の間で,最も高い66.0\%の精度が得られている.そこで,その間で最もノードを絞り込むことができる関連度の0.02が閾値として適当であると考えられる.これをシソーラスのノードの絞込みを行う際に用いる閾値とした.\begin{figure}[t]\begin{center}\includegraphics{15-3ia5f6.eps}\end{center}\caption{関連度の閾値の変化に伴う精度}\label{fig:changing_threshold}\end{figure}\subsection{提案手法の評価}\label{unknown_word_evaluation}提案手法を用いて,各未知語に対して分類するノードを出力する.なお,式\ref{eq:determining_node_method}では,ノード得点$\mathit{NodeValue}(\mathit{node}_i)$が最大となる第1位の候補のみ出力しているが,この実験では第1位の候補から第10位の候補まで出力している.評価結果を図\ref{fig:plural_precision}に示す.なお,横軸は考慮した累積のノードの数を表している.また,縦軸は考慮しているノードの中に1つでも正解ノードを得た未知語を正解,1つも正解ノードを得られなかった未知語を不正解として算出した精度を表している.図\ref{fig:plural_precision}より,第10位の候補まで出力することで9割を超える高い精度が得られていることから判断できるように,結果として全体的に未知語と関連があると考えられるノードを獲得することができた.特に,第1位に関連が強いと考えられるノードが得られた場合,第2位から第5位までに正解ノードが得られる傾向にあった.例えば,正解ノードが「教師」である未知語「新島襄」を入力した場合,第1位に正解ノードである「教師」と関連が強い「教育」が得られ,第2位に正解ノードである「教師」が得られた.\begin{figure}[t]\begin{center}\includegraphics{15-3ia5f7.eps}\end{center}\caption{複数のノードを提示したときの精度}\label{fig:plural_precision}\end{figure}
\section{既存手法との比較}
label{related_research}ここでは既存手法として,ベクトル空間法に基づく手法について説明する.この手法では,シソーラスにはNTTシソーラス\cite{NTT_Thesaurus:97},学習データ及び未知語データにはEDRコーパス\cite{EDR:94}の共起辞書を用いている.EDRコーパスは22万文からなる文章のデータベースであり,係り受け関係にある単語対を抽出した共起辞書を用いている.\subsection{ベクトル空間法に基づく手法}\label{vector_space_method}ベクトル空間法に基づく手法は,シソーラスの各ノードの特徴ベクトルと未知語の特徴ベクトルの類似度をベクトル間の余弦を用いて算出し,類似度の高いノードに未知語を分類する.最も単純なベクトル空間法では,特徴ベクトルは名詞と動詞の共起頻度によるベクトルである.ノードの特徴ベクトルの各要素は,そのノードに属する名詞と動詞との共起頻度を足し合わせたものであり,未知語の特徴ベクトルの各要素は,未知語と動詞の共起頻度そのものとなっている.以下に,ベクトル空間法を詳しく説明する.ベクトル空間法では,式\ref{eq:vector_space_method1},\ref{eq:vector_space_method2},\ref{eq:vector_space_method3}によって未知語$\mathit{unknown}$を分類するノードが決定される.式\ref{eq:vector_space_method1}よりベクトル空間法では,未知語の特徴ベクトル$\mathit{vec}(\mathit{unknown})$と余弦の値が最高になる特徴ベクトル$\mathit{vec}(\mathit{node}_i)$に対応するノード$\mathit{node}_i$に未知語$\mathit{unknown}$を分類する.式\ref{eq:vector_space_method1},\ref{eq:vector_space_method2},\ref{eq:vector_space_method3}についての説明を行う.まず,シソーラスに既に分類されている名詞(リーフ)$\mathit{noun}_i$の集合$\mathit{NOUN}$,シソーラスのノード$\mathit{node}_i$の集合$\mathit{NODE}$,共起を考慮する動詞$\mathit{verb}_i$の集合$\mathit{VERB}$を以下に定義する.また,$\mathit{unknown}$は未知語を表している.\begin{align*}\mathit{NOUN}&=\{\mathit{noun}_1,\mathit{noun}_2,\cdots,\mathit{noun}_i,\cdots,\mathit{noun}_{\mathit{noun}\_\mathit{num}}\}\\\mathit{NODE}&=\{\mathit{node}_1,\mathit{node}_2,\cdots,\mathit{node}_i,\cdots,\mathit{node}_{\mathit{node}\_\mathit{num}}\}\\\mathit{VERB}&=\{\mathit{verb}_1,\mathit{verb}_2,\cdots,\mathit{verb}_i,\cdots,\mathit{node}_{\mathit{verb}\_\mathit{num}}\}\end{align*}次に,ノード$w$と動詞$z$が共起したことを表す1つの学習データを以下に定義する.\[\{(w,z)\midw{\in}\mathit{NODE},z{\in}\mathit{VERB}\}\]$(w,z)^N$は$N$個の学習データからなる系列である.学習データを生成するために用いる元々の文章の中では,名詞$\mathit{noun}_i$と動詞$\mathit{verb}_i$が共起しているが,学習データを生成する時点で名詞と動詞の二項組$(\mathit{noun}_i,\mathit{verb}_j)$をノードと動詞の二項組$(\mathit{node}_k,\mathit{verb}_j)$に変換する.なお,ノード$\mathit{node}_k$は名詞$\mathit{noun}_i$が属するノードであり,複数のノードに属する場合は複数の二項組に変換する.したがって,未知語$\mathit{unknown}$が属するノード$\mathit{node}^*$と未知語$\mathit{unknown}$と共起した動詞$y$の系列$y^M$は,以下のように表すことができる.\[\{(\mathit{node}^*,y^M)\mid\mathit{node}^*{\in}\mathit{NODE},y{\in}\mathit{VERB}\}\]しかし,$\mathit{node}^*$は未知であり,実際に観測される未知語データは未知語$\mathit{unknown}$と共起した動詞$y$の系列$y^M$の二項組$(\mathit{unknown},y^M)$である.よって,未知語分類問題は学習データ$(w,z)^N$と未知語データ$(\mathit{unknown},y^M)$を観測したもとで未知語$\mathit{unknown}$が属するノード$\mathit{node}^*$を推定する問題となる.$d_{\cos}\{(w,z)^N,(\mathit{unknown},y^M)\}$は,学習データ$(w,z)^N$と未知語データ$(\mathit{unknown},y^M)$を引数に取り,未知語$\mathit{unknown}$を分類するべきノードを決定する関数を表す.$\mathit{vec}(\mathit{node}_i)$はノード$\mathit{node}_i$の特徴ベクトル,$\mathit{vec}(\mathit{unknown})$は未知語$\mathit{unknown}$の特徴ベクトルである.また,$\mathit{co}\bigl((\mathit{node}_i,\mathit{verb}_i)\mid(w,z)^Z\bigr)$は学習データ$(w,z)^N$中の$(\mathit{node}_i,\mathit{verb}_j)$の数でノード$\mathit{node}_i$と動詞$\mathit{verb}_j$が共起した回数,$\mathit{co}(\mathit{verb}_i\midy^M)$は未知語データ$(\mathit{unknown},y^M)$の$y^M$中の$\mathit{verb}_i$の数で未知語$\mathit{unknown}$と動詞$\mathit{verb}_i$が共起した回数を表す.$\cos$はベクトル間の余弦の値を求める関数,$\mathit{vec}_A\cdot\mathit{vec}_B$はベクトル$\mathit{vec}_A,\mathit{vec}_B$間の内積,$\parallel\mathit{vec}\parallel$はベクトル$\mathit{vec}$のノルムである.{\allowdisplaybreaks\begin{gather}\begin{aligned}[b]d_{\cos}\{(w,z)^N,(\mathit{unknown},y^M)\}&=\arg\max_{\mathit{node}_i}\{\cos(\mathit{vec}(\mathit{node}_i),\mathit{vec}(\mathit{unknown}))\}\\&=\arg\max_{\mathit{node}_i}\left\{\frac{\mathit{vec}(\mathit{node}_i)\cdot\mathit{vec}(\mathit{unknown})}{\parallel\mathit{vec}(\mathit{node}_i)\parallel\parallel\mathit{vec}(\mathit{unknown})\parallel}\right\}\label{eq:vector_space_method1}\end{aligned}\\\begin{aligned}[b]\mathit{vec}(\mathit{node}_i)=&\bigl\{\mathit{co}\bigl((\mathit{node}_i,\mathit{verb}_1)\mid(w,z)^Z\bigr),\mathit{co}\bigl((\mathit{node}_i,\mathit{verb}_2)\mid(w,z)^Z\bigr),\cdots,\\&\mathit{co}\bigl((\mathit{node}_i,\mathit{verb}_i)\mid(w,z)^Z\bigr),\cdots,\mathit{co}\bigl((\mathit{node}_i,\mathit{verb}_{\mathit{verb}\_\mathit{num}})\mid(w,z)^Z\bigr)\bigr\}\label{eq:vector_space_method2}\end{aligned}\\\begin{aligned}[b]\mathit{vec}(\mathit{node}_i)=&\bigl\{\mathit{co}(\mathit{verb}_1\midy^M),\mathit{co}(\mathit{verb}_2\midy^M)),\cdots,\\&\mathit{co}(\mathit{verb}_i\midy^M)\cdots,\mathit{co}(\mathit{verb}_{\mathit{verb}\_\mathit{num}}\midy^M)\bigr\}\label{eq:vector_space_method3}\end{aligned}\end{gather}}なお,上記のような単純に共起頻度を用いるベクトル空間法以外に,各共起頻度に重み付けを行うTF・IDF法を導入したベクトル空間法も提案されており,情報検索などの分野において実用化されている手法は,TF・IDF法を導入したベクトル空間法である\cite{witten:99}.TF・IDF法を導入したベクトル空間法では,式\ref{eq:vector_space_method2}および式\ref{eq:vector_space_method3}において,特徴ベクトルの第$i$要素に$\log\frac{\mathit{node}\_\mathit{num}}{a(\mathit{verb}_i)}$を掛け合わせたものを特徴ベクトルとして採用し,その上で式\ref{eq:vector_space_method1}を用いて未知語の分類を行う.ただし,$a(\mathit{verb}_i)$は動詞$\mathit{verb}_i$との共起頻度が1以上のノードの数である.\subsection{比較評価}\label{comparison_with_relatedresearch}比較実験の方法を以下に示す\cite{maeda:00}.\begin{enumerate}\itemNTTシソーラスに既に分類されている名詞(リーフ)の中で概念ベース(\ref{concept_base}節参照)に存在する単語から1000語を未知語と仮定して抽出する.\itemNTTシソーラスに属している残りのリーフとEDRコーパス頻出動詞上位500語との共起回数を算出し,学習データを作成する.\itemさらに,NTTシソーラスから取り出しておいた1000語の未知語について,学習データと同様にEDRコーパス頻出動詞上位500語との共起回数を共起辞書から算出し,1000個の未知語データを作成する.\item学習データと未知語データをもとにベクトル空間法(式\ref{eq:vector_space_method1})を用いて,各未知語に対する所属ノードを出力する.また,本論文で提案する手法(式\ref{eq:determining_node_method})を用いて,各未知語に対する所属ノードを出力する.\end{enumerate}抽出された未知語とその未知語が所属するノードの例を表\ref{table:testset_leaf}に示す.\begin{table}[b]\caption{未知語と仮定してNTTシソーラスから抽出したリーフ(一部)}\input{05table16.txt}\label{table:testset_leaf}\end{table}図\ref{fig:comparison_result}に実験結果を示す.図\ref{fig:comparison_result}のCosは共起頻度のみによるベクトル空間法,TF・IDFはTF・IDF法を導入したベクトル空間法,提案手法が本論文で提案している手法に対応する.本実験において,未知語が元のNTTシソーラスにおいて分類されていたノードに分類できた場合を正解とする.また,未知語が複数のノードに所属していた場合には,出力したノードがその中のどれか1つと一致すれば,正解とみなしている.なお,図\ref{fig:plural_precision}と同様に,横軸は考慮した累積のノードの数を表している.また,縦軸は考慮しているノードの中に1つでも正解ノードを得た未知語を正解,1つも正解ノードを得られなかった未知語を不正解として算出した精度を表している.\begin{figure}[t]\begin{center}\includegraphics{15-3ia5f8.eps}\end{center}\caption{手法ごとの精度}\label{fig:comparison_result}\end{figure}図\ref{fig:comparison_result}より,提案手法の精度は共起頻度によるベクトル空間法(Cos)より13〜30\%高く,TF・IDF法を導入したベクトル空間法(TF・IDF)に対しても10〜20\%高くなっており,提案手法がベクトル空間法に基づく手法よりも優れた結果を示している.本来,本論文で提案している手法は,固有名詞を中心とする既存のシソーラスに分類されていない未知語に対して有効な手法である.その一方で,本実験で用いた既存のシソーラス(NTTシソーラス)から抽出した仮想的な未知語の実体は一般的な単語である.一般的な単語は多くの文書で使用されるため,\ref{acquiring_attribute_of_unknown_word}節で説明した手法を用いると,広範囲にわたるページから属性を獲得することになる.その結果,獲得できる属性にばらつきが生じ,適切な属性を獲得することが困難である.そのため,本論文で提案している手法は,本実験に対しては不利な部分があるといえる.この点を踏まえると,本実験において不利な部分を持っているにも関わらず,提案手法は良好な結果が得られたといえる.したがって,本論文で提案する手法が未知語に限らず,一般的な単語に対しても柔軟に機能することを示しているといえる.
\section{おわりに}
本論文では,ある概念から様々な概念を連想できる連想メカニズムを基に,シソーラスに定義されてない単語(未知語)が大局的に見てどういうものであるかを,シソーラスのノードに分類して提示する手法を提案した.さらに,連想メカニズムに未知語とシソーラスの体系的特徴を利用した共起頻度を組み合わせることで精度向上を図る手法を考え,その有効性を実験によって検証した.結果として,第10位の候補まで出力することで未知語を9割を超える精度で正しいシソーラスのノードに分類することに成功し,未知語を分類するべきシソーラス上の最適なノードを提示できることを示した.さらに,第1位の候補のみを出力した場合,66.0\%の精度が得られたことから,未知語をシソーラスに自動的に分類でき,シソーラスの自動構築にもつながると考えられる.今後の研究課題としては,得られた10個の候補から正解ノードを絞り込む方法について検討する.さらに,未知語を分類するべきノードを絞り込んだ後,前後の文脈から正解ノードを決定する方法を検討していきたい.また,未知語により適切な属性を与えるために,検索キーワードに対して適切なキーワードを追加するなど,より適切な検索結果ページを獲得する方法についても検討する必要がある.これにより,文中に多義的な要素を持つ未知語が含まれる場合でも,未知語をノード名に正しく置き換えることで,円滑な自然言語処理を行うことができると期待される.\acknowledgment本研究は文部科学省からの補助を受けた同志社大学の学術フロンティア研究プロジェクトにおける研究の一環として行った.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{別所\JBA内山\JBA片岡}{別所\Jetal}{2004}]{bessho:06}別所克人\JBA内山俊郎\JBA片岡良治\BBOP2004\BBCP.\newblock\JBOQ単語・意味属性間共起に基づく概念ベースの拡張方式\JBCQ\\newblock\Jem{情報処理学会研究報告},{\Bbf2006}(84),\mbox{\BPGS\29--34}.\bibitem[\protect\BCAY{G.A.Miller}{G.A.Miller}{1995}]{G.A.Miller:95}G.A.Miller\BBOP1995\BBCP.\newblock\BBOQWordNet:AlexicaldatabaseforEnglish\BBCQ\\newblock{\BemCommun.ACM},{\Bbf38}(11),\mbox{\BPGS\39--41}.\bibitem[\protect\BCAY{I.H.Witten,A.Moffat,\BBA\T.C.Bell}{I.H.Wittenet~al.}{1999}]{witten:99}I.H.Witten,A.Moffat,\BBA\T.C.Bell\BBOP1999\BBCP.\newblock{\BemManagingGigabytes}.\newblockMorganKaufmannPub.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{NTT_Thesaurus:97}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{伊藤\JBA渡部\JBA河岡}{伊藤\Jetal}{2004}]{ito:04}伊藤俊介\JBA渡部広一\JBA河岡司\BBOP2004\BBCP.\newblock\JBOQ情報検索における未知語理解支援方式〜未知語のシソーラスノードへの分類〜\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会資料},{\Bbf2004-NL-159}(1),\mbox{\BPGS\61--66}.\bibitem[\protect\BCAY{前田}{前田}{2000}]{maeda:00}前田康成\BBOP2000\BBCP.\newblock\JBOQ統計的決定理論に基づく既存名詞シソーラスへの未知語登録方法に関する考察\JBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ83-A}(6),\mbox{\BPGS\702--710}.\bibitem[\protect\BCAY{日本電子辞書研究所}{日本電子辞書研究所}{1994}]{EDR:94}日本電子辞書研究所\BBOP1994\BBCP.\newblock\Jem{EDR電子化辞書利用マニュアル第2.1版}.\bibitem[\protect\BCAY{奥村\JBA土屋\JBA渡部\JBA河岡}{奥村\Jetal}{2007}]{okumura:07}奥村紀之\JBA土屋誠司\JBA渡部広一\JBA河岡司\BBOP2007\BBCP.\newblock\JBOQ概念間の関連度計算のための大規模概念ベースの構築\JBCQ\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\41--64}.\bibitem[\protect\BCAY{榊\JBA松尾\JBA内山\JBA石塚}{榊\Jetal}{2007}]{sakaki:07}榊剛史\JBA松尾豊\JBA内山幸樹\JBA石塚満\BBOP2007\BBCP.\newblock\JBOQWeb上の情報を用いた関連語のシソーラスの構築について\JBCQ\\newblock\Jem{自然言語処理},{\Bbf14}(2),\mbox{\BPGS\3--31}.\bibitem[\protect\BCAY{田中\JBA仁科}{田中\JBA仁科}{1987}]{tanaka:87}田中穂積\JBA仁科喜久子\BBOP1987\BBCP.\newblock\JBOQ上位/下位関係シソーラスISAMAPの作成[I][II]\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会},{\Bbf64}(4),\mbox{\BPGS\25--44}.\bibitem[\protect\BCAY{徳永}{徳永}{1999}]{tokunaga:99}徳永健伸\BBOP1999\BBCP.\newblock\Jem{情報検索と言語処理}.\newblock東京大学出版会.\bibitem[\protect\BCAY{辻\JBA渡部\JBA河岡}{辻\Jetal}{2004}]{tuji:04}辻泰希\JBA渡部広一\JBA河岡司\BBOP2004\BBCP.\newblock\JBOQwwwを用いた概念ベースにない新概念およびその属性獲得手法\JBCQ\\newblock\Jem{第18回人工知能学会全国大会論文集},\mbox{\BPGS\2D1--02}.\bibitem[\protect\BCAY{浦本}{浦本}{1996}]{uramoto:96}浦本直彦\BBOP1996\BBCP.\newblock\JBOQコーパスに基づくシソーラス—統計情報を用いた既存のシソーラスへの未知語の配置\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf37}(12),\mbox{\BPGS\2182--2189}.\bibitem[\protect\BCAY{渡部\JBA奥村\JBA河岡}{渡部\Jetal}{2006}]{watabe:06}渡部広一\JBA奥村紀之\JBA河岡司\BBOP2006\BBCP.\newblock\JBOQ概念の意味属性と共起情報を用いた関連度計算方式\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(1),\mbox{\BPGS\53--74}.\bibitem[\protect\BCAY{渡部\JBA河岡}{渡部\JBA河岡}{2001}]{watabe:01}渡部広一\JBA河岡司\BBOP2001\BBCP.\newblock\JBOQ常識的判断のための概念間の関連度評価モデル\JBCQ\\newblock\Jem{自然言語処理},{\Bbf8}(2),\mbox{\BPGS\39--54}.\bibitem[\protect\BCAY{Z.S.Harris}{Z.S.Harris}{1968}]{harris:68}Z.S.Harris\BBOP1968\BBCP.\newblock{\BemMathematicalStructuresofLanguage(InterscienceTractsinPureandAppliedMathematics21)}.\newblockInterscience.\end{thebibliography}\begin{biography}\bioauthor{後藤和人}{2006年同志社大学工学部知識工学科卒業.同大学院工学研究科知識工学専攻博士前期課程在学.知識情報処理の研究に従事.}\bioauthor{土屋誠司}{2000年同志社大学工学部知識工学科卒業.2002年同大学院工学研究科知識工学専攻博士前期課程修了.同年,三洋電気株式会社入社.2007年同志社大学大学院工学研究科知識工学専攻博士後期課程修了.同年,徳島大学大学院ソシオテクノサイエンス研究部助教.主に,知識処理,概念処理,意味解釈の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.工学博士.現在同教授.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会各会員.}\bioauthor{河岡司}{1966年大阪大学工学部通信工学科卒業.1968年同大学院修士課程修了.同年,日本電信電話公社入社,情報通信網研究所知識処理研究部長,NTTコミュニケーション科学研究所所長を経て,現在同志社大学工学部教授.工学博士.主にコンピュータネットワーク,知識情報処理の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,IEEE(CS)各会員.}\end{biography}\biodate\end{document}
| |
V23N03-02 | \section{はじめに}
\textbf{仮説推論}(Abduction)は,与えられた観測に対する最良の説明を見つける,論理推論の枠組みのひとつである.仮説推論は,自然言語処理や故障診断システムなどを含む,人工知能分野の様々なタスクにおいて古くから用いられてきた(NgandMooney1992;Blythe,Hobbs,Domingos,Kate,andMooney2011;Ovchinnikova,Hobbs,Montazeri,McCord,Alexandrov,andMulkar-Mehta2011;井之上,乾,Ovchinnikova,Hobbs2012;杉浦,井之上,乾2012).\nocite{Ng92,Blythe11,Ovch11,Inoue12,Sugiura12}自然言語処理への応用のうち,代表的な先行研究の一つにHobbsら\cite{Hobbs93}の\textit{InterpretationasAbduction}(IA)がある.Hobbsらは,語義曖昧性解消,比喩の意味理解,照応解析や談話関係認識などの,様々な自然言語処理のタスクを,一階述語論理に基づく仮説推論により統合的にモデル化できることを示した.詳しくは\ref{sec:abduction}節で述べるが,IAの基本的なアイデアは,\textbf{談話解析}(文章に対する自然言語処理)の問題を「観測された文章(入力文)に対し,世界知識(言語の知識や常識的知識など)を用いて,最良の説明を生成する問題」として定式化することである.最良の説明の中には,観測された情報の背後で起きていた非明示的な事象,共参照関係や単語の語義などの情報が含まれる.例文``{\itJohnwenttothebank.Hegotaloan.}''に対して,IAによる談話解析を行う様子を図\ref{fig:ia}に示す.まず,入力文の論理式表現が観測として,世界知識の論理式表現が背景知識として与えられ,背景知識に基づいて説明が生成される.例えば,$\mathit{go}(x_1,x_2)$(\textit{John}が\textit{bank}に行った)という観測に対して,$\mathit{issue}(x,l,y)\Rightarrowgo(y,x)$($x$が$y$に対して$l$を発行するには,$y$は$x$の所に行かなければならない)という因果関係(行為の前提条件)の知識を用いて,$\mathit{issue}(x_2,u_1,x_1)$(\textit{bank}が\textit{John}に対して何か($u_1$)を発行した)という説明を生成している.これは,非明示的な情報の推定に相当する.また,この非明示的な情報を根拠の一つとして生成された説明$x_1=y_1$(\textit{John}と\textit{He}は同一人物)は,共参照関係の推定に相当する.以上のようにIAでは,談話解析の様々なタスクが,説明生成という統一的な問題に帰着される.\begin{figure}[t]\begin{center}\includegraphics{23-3ia2f1.eps}\end{center}\hangcaption{仮説推論による談話解析の例.点線の四角は観測を,実線の四角は背景知識を表す.変数対を繋ぐ点線はそれらがその仮説において同一の変数であることを表す.青い吹き出しは推論中で用いられている背景知識の元となった世界知識を表し,赤い吹き出しは得られた仮説に対する解釈を表す.}\label{fig:ia}\end{figure}仮説推論は,以下の様な点で談話解析の枠組みとして適していると考えられる:\begin{enumerate}\item入力から出力が導かれるまでの過程が,解釈可能な形で得られる.すなわち,どのような仮説を立てて,どのような知識を用いて観測を説明しているかが,図\ref{fig:ia}のような証明木という形で陽に得られる.\item様々な種類の世界知識を統一的,かつ宣言的に記述し利用することができる.すなわち,どのような種類の知識であっても,その知識を解析にどう利用するかの手続きを定義する必要がなく,論理式として宣言的に記述するだけで談話解析に利用できる.\item語義曖昧性解消や照応解析,プラン認識など,談話理解の様々なサブタスクを一つのモデルに集約して解くことにより,サブタスク間の相互依存性を自然な形で考慮できる.図\ref{fig:ia}においても,照応解析と語義曖昧性の解消が同時に起こっていることが確認できる.\end{enumerate}IAを始めとした仮説推論に基づく談話解析の研究は,1990年代が全盛期であったが,近年になって再び注目を浴びつつある\cite{Blythe11,Ovch11,Inoue12,Sugiura12}.これには,大きく2つの背景があると考えられる.ひとつめに,仮説推論を実用規模の問題に適用できる程度の,大規模な世界知識を取り揃える技術が昔に比べて大幅に成熟してきたことが挙げられる\cite{fellbaum98,framenetII,Chambers09,Scho10}.例えば文献\cite{Ovch11}では,WordNet\cite{fellbaum98}とFrameNet\cite{framenetII}を用いて約数十万の推論規則からなる背景知識を構築し,含意関係認識のタスクにIAを適用している.ふたつめの背景には,計算機性能の向上や効率的な仮説推論エンジンが提案された\cite{Mulkar07,Blythe11,Inoue11,Inoue12,Yamamoto15,Schuller15}ことにより,大規模知識を用いた論理推論が計算量の面で実現可能になってきたことが挙げられる.例えば\cite{Inoue12}では,約数十万の推論規則からなる背景知識を用いて含意関係認識のデータセットに対して推論を行い,先行研究より大幅に高速な推論を行えたことが報告されている.しかしながら,仮説推論における計算コストの問題は未だ完全に解決されたとはいえないのが実情である.詳しくは\ref{sec:prob}~節で詳述するが,とりわけ,主格関係や目的格関係などの単語間の統語的依存関係を表すためのリテラル(便宜的に「機能リテラル」と呼ぶ.形式的な定義は\ref{sec:prob:mr}節で与える)が知識表現に含まれる場合(例えば,$\mathit{john}(j)\land\mathit{get}(e)\land\mathit{dobj}(e,l)\land\mathit{loan}(l)$における\textit{get}と\textit{loan}の目的格関係を表す$\mathit{dobj}(e,l)$),推論時間が増大するという問題がある.最新の仮説推論エンジンである\cite{Yamamoto15}では,A*アルゴリズムに基づいて説明の構成要素(\textbf{潜在仮説集合})を列挙し,仮説推論の問題を「説明の構成要素の組み合わせ最適化問題」へ変換したのち,整数線形計画ソルバにより最良の説明を求める.しかし,機能リテラルが知識表現に含まれる場合,(1)機能リテラルをもとにした推論により,潜在仮説集合の中に,最良の説明になりえない構成要素が多く入り込んでしまい(例えば,$\mathit{foolish}(e_1)\land\mathit{smart}(e_2)\land\mathit{nsubj}(e_1,x)\land\mathit{nsubj}(e_2,y)$から,$e_1=e_2$を導く),組み合わせ最適化問題のサイズが無用に肥大化し,推論時間が増大する,(2)潜在仮説集合の生成をガイドするヒューリスティック関数の精度低下が起きてしまい,潜在仮説集合の生成における計算効率が低下する,という問題が起こる.このように,実タスクへの適用は未だ困難な状況であり,前述のような利点が本当にあるかどうか,検証する環境が完全に整っていない状況である.以上のような背景を踏まえ,本論文では,知識表現に機能リテラルを含む仮説推論において,機能リテラルの性質を利用して潜在仮説集合の生成手続きを改良し,効率的に最適解を求め,かつヒューリスティック関数の精度低下を抑制する手法を提案する.より具体的には,一つ目の問題に対しては,潜在仮説集合の生成を行う際に,最良の説明になりえない説明を事前チェックするように潜在仮説集合の手続きを拡張する.例えば,矛盾する二つの事象を等価とみなす説明の構成要素を生成する推論(前述の$e_1=e_2$など)を禁止することで,潜在仮説集合の肥大化を防ぐ.また,二つ目の問題に対しては,ヒューリスティック関数の中で,より良い説明の構成要素を優先的に探索するために用いられる\textbf{述語グラフ}の生成手法を工夫することにより対処する.問題の原因は,背景知識に頻出する機能リテラルがハブとなり,あらゆる説明の構成要素の候補が最良の説明の生成に寄与すると誤って判断されてしまうことにある.これに対し,述語グラフにおいて機能リテラルに繋がる一部の枝を適切に排除することにより,解の最適性を保持しながらヒューリスティック関数の精度を上げる手法を提案する.本論文における具体的な貢献は次の3点である.一つ目に,仮説推論の最新の実装であるA*-basedAbduction\cite{Yamamoto15}の手法に前述の枝刈りを導入する方法を示し,機能リテラルを知識表現に含む場合でも推論の規模耐性を維持する方法を示す.二つ目に,機能リテラルの性質に基づく探索空間の枝刈りが,ある条件のもとでは本来の解を損なわないことを示す.三つ目に,大規模な知識ベースと実在の言語処理の問題を用いて,A*-basedAbduction\cite{Yamamoto15}のシステムとの推論時間の比較を行い,提案手法を評価する.本論文での実験においては,提案手法が\cite{Yamamoto15}のシステムと比べ数十〜数百倍ほど効率的に解仮説が得られていることが確かめられた.仮説推論に基づく談話解析の枠組みを実タスクへ適用する上で,効率的な推論アルゴリズムの確立は必須の要件である.本研究の成果により,仮説推論に基づく談話解析の研究を進めるための環境整備が大きく前進すると考えられる.以降の節では,まず仮説推論とその実装に関する先行研究について述べたあと(2節),本論文で取り組む問題について述べ(3節),提案手法について説明する(4節,5節).次に,提案手法と既存手法の比較実験の結果について報告し(6節),最後に今後の展望を述べる.
\section{背景}
本節では,本論文の提案手法の基になっている種々の既存研究,すなわち仮説推論およびその実装に関して説明する.\subsection{仮説推論}\label{sec:abduction}仮説推論とは,与えられた観測に対して最良の説明を求める推論である.本論文では,仮説推論の意味表現として一階述語論理\footnote{本論文では,読者が一階述語論理の基礎知識を有することを仮定する.一階述語論理の解説書については,例えば\cite{Nienhuys97}等を参照されたい.}を用い,仮説推論の形式的な定義を次のように与える.なお,本論文では関数記号のない(function-free)一階述語論理を用いるものとし,全てのリテラルは論理変数,定数,スコーレム定数を引数に取る.\begin{description}\item[Given:]背景知識$B$,観測$O$.ただし,$B$は含意型の一階述語論理式の集合であり,各論理式の前件および後件にはリテラルの連言のみを許容する.各論理式の前件に含まれる論理変数は全称限量されており,前件に含まれない論理変数は存在限量されているものとする.形式的には,各論理式は$\forallx_1,\ldots,x_n\[\existsy_1,\ldots,y_m\[p_1(x_1)\land\ldots\landp_n(x_n)\Rightarrowq_1(y_1)\land\ldots\landq_m(y_m)]]$と表現される.ここで,$x_i,y_i$はそれぞれ任意個数の引数列を表す\footnote{ただし,前件と後件の両方に含まれている変数については全称限量される.}.また,$O$は,一階述語論理リテラルおよび論理変数間の等価関係を表す等号あるいはその否定の連言であり,全ての論理変数は存在限量されているものとする.なお以降の記述では,$B$および$O$がそれぞれ矛盾を含まないことを前提とする.\item[Find:]仮説(または説明)$H$.$H$は,一階述語論理リテラル,および論理変数間の等価関係を表す等号・不等号の連言であり,$H\cupB\modelsO$および$H\cupB\nvDash\perp$を満たす\footnote{計算論理学の分野において現在主流となっているAnswerSetProgramming~\cite{Reiter87,Moore83,Gelfond88}の考え方に従えば,仮説の探索問題は,与えられた観測と背景知識から,観測を説明するようにあらゆるリテラルに対する真偽値割り当てを求める問題と見做すことができる.そのような文脈において本研究で扱う仮説推論は,仮説$H$にリテラル$l$または$\lnotl$が含まれていることが,リテラル$l$の真偽値にtrueまたはfalseが割り当てられている事に対応する.すなわち,仮説$H$に含まれないリテラルの真偽値は全て不定であると見做す.}.ここで$\models$は論理的含意を表し,$H$が$O$を\textbf{説明する},という.$\perp$は偽を表す.また,連言と集合は相互変換可能であるとし,連言$l_1\land\ldots\landl_n$とリテラル集合$\{l_1,\ldots,l_n\}$とも書けるものとする.\end{description}なお,本論文では背景知識,観測,仮説における限量子の記述は基本的に省略する.一般には,与えられた$B$と$O$に対して,複数の仮説$H_1$,$H_2,\ldots$が存在する.本論文では,それぞれの仮説$H_i$を{\bf候補仮説}と呼び,候補仮説$H_i$に含まれる各リテラル$h\inH_i$を$H_i$の{\bf要素仮説}と呼ぶ.また,可能な全ての候補仮説を$H\equiv\{H_1,H_2,\ldots\}$で表す.例えば図\ref{fig:ia}では,点線で囲まれたリテラルの集合($\mathit{john}(x_1)\land\mathit{go}(x_1,x_2)\land\ldots$)が観測$O$,実線で囲まれた論理式(例えば,$\mathit{issue}(x_2,u_1,x_1)\Rightarrowgo(x_1,x_2)$)が背景知識$B$の一部である.候補仮説として,例えば$H_1=\mathit{john}(x_1)\land\mathit{loan}(y_2),H_2=\mathit{john}(x_1)\land\mathit{issue}(u_2,y_2,y_1)\land\mathit{financial\_inst}(x_2)\land\mathit{loan}(y_2)$などが考えられる.仮説推論の目的は,何らかの評価指標のもとでの最良の候補仮説$\hat{H}$を見つけることである.この$\hat{H}$を{\bf解仮説}と呼び,形式的には次のように表す:\begin{equation}\hat{H}=\argmax_{H\in\mathbb{H}}\mathit{Eval}(H)\end{equation}ここで,$\mathit{Eval}$は候補仮説$H$の蓋然性を表す何らかの評価値を返す関数を表し,このような関数を{\bf仮説の評価関数}と呼ぶ.先行研究では,さまざまな評価関数が提案されている\cite{Hobbs93,Singla11,Inoue12b,Raghavan10}.例えば,代表的な評価関数の一つである重み付き仮説推論\cite{Hobbs93}は,「単純な(小さい)仮説ほど良い」という基本的な仮定に基いており,候補仮説の最小性を候補仮説の評価値として定義している.より具体的には,候補仮説の評価値$\mathit{Eval}(H)$は,$H$の要素仮説のコストの負の総和$-\sum_{h\inH}\mathit{cost}(h)$で定義される.要素仮説のコスト$\mathit{cost}(h)$の詳細な計算方法は\cite{Hobbs93}に委ねるが,基本的には,(1)要素仮説$h$が観測$O$を説明するのに要する背景知識の信頼度,(2)要素仮説$h$が他の要素仮説に説明されているか,の二つの要因を基にコストが決定される.本研究では,\ref{sec:prob}~節で示す仮説の整合性条件を保証する任意の評価関数を想定する.\subsection{潜在仮説集合に基づく候補仮説の表現}\label{sec:potential}$H\cupB\modelsO,H\cupB\nvDash\perp$を満たす全ての候補仮説を陽に列挙して最良の仮説を求めることは,時間・空間的計算量の観点で非現実的である.そのため,仮説推論エンジンの先行研究\cite{Inoue11,Inoue12,Yamamoto15}では,(1)観測からの後ろ向き推論によって各候補仮説を構成するリテラルの集合$P$を列挙するに留め,(2)$P$の要素の組み合わせ(部分集合)で暗に候補仮説を表現し,組み合わせ最適化問題を解くことで効率化を実現している.この$P$は,\textbf{潜在仮説集合}と呼ばれる.例えば,図\ref{fig:lhs}の例では,観測$O=\mathit{animal}(x)\land\mathit{bark}(e_1,x)$と背景知識より,潜在仮説集合$P=\{\mathit{cat}(x),\mathit{poodle}(x),\mathit{dog}(x),\mathit{dog}(y),x=y\}$を得る.この集合の要素の組み合わせ(例えば$\{\mathit{cat}(x),\mathit{dog}(x)\}$)が,一つの候補仮説に対応する.本研究では,この潜在仮説集合の生成方法を効率化する手法を提案するため,潜在仮説集合の生成手続きについて,より詳しく説明する.\begin{figure}[t]\begin{center}\includegraphics{23-3ia2f2.eps}\end{center}\caption{潜在仮説集合の例.背景知識は,図中の実線の四角で囲まれた4つの含意型論理式である.}\label{fig:lhs}\end{figure}まず,観測に含まれるリテラルの集合を初期状態として($P=O$),次のように定義される\textbf{後ろ向き推論}操作および\textbf{単一化仮説生成}操作を有限回だけ逐次適用することで,潜在仮説集合$P$を生成する.図\ref{fig:lhs}では,$P=\{\mathit{animal}(x),\mathit{bark}(e_1,y)\}$が初期状態となる.\begin{description}\item[後ろ向き推論]後ろ向き推論は,背景知識に含まれる含意型の論理式$p_1(x_1)\land\ldots\landp_n(x_n)\Rightarrowq_1(y_1)\land\ldotsq_m(y_m)$と,$\bigwedge_{i=1}^my_i\theta=y_i'$を満たす変数置換$\theta$が存在するようなリテラルの連言$q_1(y_1')\land\ldots\landq_m(y_m')$を含む潜在仮説集合$P$を入力として,前件部のリテラルの連言$\bigwedge_{i=1}^{n}\{p_i(x_i\theta)\}$を$P$に追加する操作である.本論文では,$q_1(y_1'),\ldots,q_m(y_m')$をそれぞれ$p_1(x_1\theta),\ldots,p_n(x_n\theta)$の{\bf根拠}と呼ぶこととする.図\ref{fig:lhs}では,背景知識$\mathit{cat}(x)\Rightarrow\mathit{animal}(x)$と$P=\{\mathit{animal}(x),\mathit{bark}(e_1,y)\}$を入力として,$\mathit{cat}(x)$を$P$に追加している.このとき,$\mathit{cat}(x)$の根拠は$\mathit{animal}(x)$である.\item[単一化仮説生成]単一化仮説生成は,同一の述語を持つリテラルの対$p(x_1,x_2,\ldots)$,$p(y_1,y_2,\ldots)$に対して,それらのリテラルの引数間の等価関係$x_1=y_1$,$x_2=y_2,\ldots$を潜在仮説集合$P$に追加する操作である.本論文では,$x=y$のような,単一化仮説生成操作によって仮説される論理変数間の等価関係を{\bf等価仮説}と呼ぶ.図\ref{fig:lhs}では,$P=\{\ldots,\mathit{dog}(x),\mathit{dog}(y),\ldots\}$に対して,本操作を適用し,$x=y$を$P$に追加している.\end{description}操作の適用回数の決め方には様々な基準が考えられるが,先行研究\cite{Inoue11,Inoue12,Yamamoto15}では,リテラルの\textbf{深さ}という概念を用いて,適用回数を制限している.\textbf{リテラル$l$の深さ}とは,$l$を潜在仮説集合に追加するまでに実行した後ろ向き推論の回数である.例えば,図\ref{fig:lhs}では,観測に含まれる全てのリテラルは深さ0であり,$\mathit{poodle}(x)$の深さは2である.先行研究では,後ろ向き推論を適用する対象をある深さ$d_\mathit{max}$までのリテラルに制限することにより,操作の適用回数の上限を決めている.このように操作の適用範囲を定めることは,再帰的な推論規則(例えば$p(x)\Rightarrowq(y)$と$q(y)\Rightarrowp(x)$)が背景知識に含まれる場合において,特に重要である.操作の適用回数が有限回であるならば,潜在仮説集合に含まれる各リテラルもまた有限回の後ろ向き推論によって仮説されたリテラルであるので,全ての候補仮説$H\in\mathbb{H}$について$H\cupB\modelsO$の決定可能性が保証される.また,アルゴリズムの停止性,および潜在仮説集合が有限集合であることについても同様に保証される.以上の議論に基づき,本研究においても以上の手続きによって生成された潜在仮説集合の部分集合を候補仮説として扱う.\subsection{仮説推論の実装に関する先行研究}まず,仮説推論の分野における代表的な実装としてはMulkarらのMini-TACITUS\cite{Mulkar07}が挙げられるが,これは計算量の面では非常に非効率であった.そのため,大規模知識を用いた仮説推論を行うにあたっては,より効率的な推論アルゴリズムが必要とされた.これを受けてBlytheらは,仮説推論の枠組みをMarkovLogicNetwork(MLN)\cite{Richardson06}の上で定式化する手法({\bfMLN-basedAbduction})を提案した\cite{Blythe11}.彼らは,仮説推論をMLN上で実装することによって,MLNの分野における成熟した最適化手法を仮説推論にも利用することを可能にした.これによりMini-TACITUSと比べ遥かに高速な推論が実現可能になった.そしてこれよりも更に高い効果をあげたのが,井之上らが提案した整数線形計画法(IntegerLinearProgramming,ILP)に基づく仮説推論({\bfILP-basedAbduction})であった\cite{Inoue11,Inoue12b}.井之上らは,仮説推論の問題を整数線形計画問題により定式化する手法を提案した.これにより,仮説推論において解仮説を導出する処理はそのままILP問題の最適解を導く処理と対応付けられ,外部の高速なILPソルバを利用することで解仮説を効率的に導出することが可能になった.文献\cite{Inoue12b}では,ILP-basedAbductionの枠組みがMLN-basedAbductionと比べても遥かに高速であることが実験によって定量的に示されている.Yamamotoらは,ILP-basedAbduction\cite{Inoue11,Inoue12b}における計算コストが潜在仮説集合の規模に強く依存することに着目し,背景知識における述語間の関連度を事前に推定しておくことで,ILP-basedAbductionの潜在仮説集合生成の手続きにおいて解仮説に含まれる見込みの無い要素仮説を潜在仮説集合から除外し,ILP問題の最適化にかかる時間を大幅に短縮する手法({\bfA*-basedAbduction})を提案した\cite{Yamamoto15}.しかしながら,\ref{sec:prob}節で示すように,A*-basedAbductionには,機能リテラルを含む知識表現において推論時間が増大するという問題がある.本研究は,我々が知る限り最も効率的な枠組みであるA*-basedAbductionを拡張する手法を提案するものである.A*-basedAbductionの詳細については\ref{sec:yamamoto15}節で述べる.
\section{関係を表すリテラルに起因する計算非効率性}
\label{sec:prob}本節では,\ref{sec:prob:mr}~節で示される意味表現と評価関数に基づくIAを先行研究の仮説推論エンジン\cite{Inoue11,Inoue12b,Yamamoto15}で実現する場合に生じる,潜在仮説集合の計算の非効率性について論じる.本節では,まず本研究が前提とする意味表現・評価関数について述べたあと(\ref{sec:prob:mr}節),既存研究の問題点について述べる(\ref{sec:prob:main}節).\subsection{本研究が前提とする意味表現と評価関数}\label{sec:prob:mr}仮説の評価関数は,\ref{sec:abduction}~節で述べたとおり仮説の良さを評価する関数であるが,「良さ」の因子には少なくとも,(1)仮説が表す情報の良さ,(2)仮説に含まれる意味表現の文法的正しさ(well-formedness),の二種類が考えられる.本研究は,これらに対してある前提が成立する状況での推論の非効率性を改善するものであるから,本節では,前提とする意味表現と,仮説の評価関数の概形について述べる.\paragraph{(1)意味表現}言語表現によって表される情報を,どのような論理式として表すかは重要な問題の一つである.特に,述語と項の関係の表現形式については,これまでに様々な議論が交わされてきた~\cite[etc.]{Davidson,Hobbs85,Mccord90,neodavidson,Copestake05}.述語項関係の表現形式の基本形としては,大きくDavidsonian形式~\cite{Davidson}とNeo-Davidsonian形式~\cite{neodavidson}があり,本論文ではNeo-Davidsonian形式の意味表現の利用を想定する.Davidsonian形式では,イベントの必須格をリテラルの項の順番に対応させる.例えば,例文``{\itBrutusstabbedCaesarwithaknife.}''を$\mathit{stab}(e,\mathit{Brutus},\mathit{Caesar})\land\mathit{with}(e,\mathit{knife})$のように表現する.ここでは$\mathit{stab}(e,\mathit{Brutus},\mathit{Caesar})$の1番目の引数が$\mathit{stab}$イベントそのものを参照する変数,2番目の引数がイベントの主格,3番目の引数がイベントの目的格に対応している.一方,Neo-Davidsonian形式では,全ての格関係を個別のリテラルとして記述する.例えば,前述の例文を$\mathit{stab}(e)\land\mathit{nsubj}(e,\mathit{Brutus})\land\mathit{dobj}(e,\mathit{Caesar})\land\mathit{with}(e,\mathit{knife})$のように表現する.ここで,$\mathit{stab}(e)$は$e$が$\mathit{stab}$イベントであることを,$\mathit{nsubj}(e,x)$はイベント$e$の主格が個体$x$であることを,$\mathit{dobj}(e,x)$はイベント$e$の目的格が個体$x$であることを表すリテラルである.本論文では,$\mathit{nsubj}(e,x)$や$\mathit{dobj}(e,x)$のような単語間の統語的な依存関係を表すリテラルを\textbf{機能リテラル}と呼び,その述語を\textbf{機能述語}と呼ぶ.一方,$\mathit{stab}(e)$などの,機能リテラル以外のリテラルを\textbf{内容語リテラル}と呼ぶ.また,ある機能リテラルの第一引数を他の内容語リテラルが引数に持つとき,その内容語リテラルを機能リテラルの\textbf{親}と呼び,逆にそのような内容語リテラルが存在しない場合には,その機能リテラルは\textbf{親を持たない}と表現する.例えば上の例において,$\mathit{stab}(e)$は$\mathit{nsubj}(e,x)$の親である.Neo-Davidsonian形式は,イベントに対する部分的な説明を表現できる(例えば$\mathit{police}(x)\Rightarrow\mathit{arrest}(e)\land\mathit{nsubj}(e,x)$のようにイベントの主格だけを取り上げた推論が記述できる)ことや,個々のイベントの必須格と任意格の境界を決める必要が無いなどの利点を持つ.自然言語の動詞は,動詞ごとに必須格・任意格が異なるため,実世界の様々な文を扱う上では,Neo-Davidson形式はDavidsonian形式よりIAに適した表現形式であると考えられる.以上の理由により,本論文ではNeo-Davidsonian形式の意味表現を想定する.ところで,上で述べたように,機能リテラルは言語表現における単語間の統語的依存関係を表すので,親を持たない機能リテラルは文法的に不正である.このことから本論文では,全ての観測が以下の条件を充足することを仮定する:\begin{itemize}\item[条件1.]全ての観測は親を持たない機能リテラルを含まない.\end{itemize}すなわち,この条件を充足しない観測は,元となった文が文法的に不正であると考えられるので,本研究ではそのような観測は入力として考えないものとする.\paragraph{(2)評価関数}次に,本論文で想定する評価関数の概形について述べる.まず第一に,仮説に含まれる等価仮説の正しさを評価することを前提とし,次のような条件として定義する:\begin{itemize}\item[条件2.]評価関数は,不正な等価仮説を含む候補仮説を解仮説として選択しない.\end{itemize}ここでの不正な等価仮説とは,同一事象を表し得ない変数間の等価仮説を指し,本論文ではこのような等価仮説を$e_1=^*e_2$と書く.\ref{sec:potential}節で述べたとおり,候補仮説の生成時には,同じ述語を持つリテラル対に単一化仮説生成を適用することにより等価仮説が生成される.このとき,例えば$\mathit{smart}(e_1)\land\mathit{foolish}(e_2)\lande_1=e_2$のように,同一でない二つの事象を表す論理変数が等価であるという候補仮説が生成されてしまう場合がある.条件2が満たされる限り,このような候補仮説は解仮説として選択されない.等価仮説が不正であるか否か,すなわちある2つの論理変数が同一事象を表し得るかどうかの判断については,変数の等価性について閉世界仮説\cite{raymond78}を仮定することで対応する.すなわち,ある論理変数対$a$,$b$が潜在仮説集合$P$において同じ型\footnote{ここでの型とは,型理論などにおける厳密な意味での型ではなく,説明上のアナロジーとしての型,すなわち対象の変数を引数として持つリテラルの述語を指す.}を持つ可能性が存在しないならば(すなわち同じ述語を持ち,単一化仮説生成によって等価仮説$a=b$を導くような内容語リテラル対が潜在仮説集合$P$に存在しないならば)等価仮説$a=b$は不正である($a=^*b$)とする.第二に,仮説に含まれる論理式の文法的正しさを評価することを前提とし,以下のような条件で表す:\begin{itemize}\item[条件3.]評価関数は親を持たない機能リテラルを含む候補仮説を解仮説として選択しない.\end{itemize}前述のとおり,親を持たない機能リテラルは文法的に不正であるので,本論文ではこの文法的正しさに関して,評価関数が条件3を満たしていることを前提とする.以降では,これらの条件1,2,3をまとめて\textbf{仮説の整合性条件}と呼ぶ.\subsection{機能リテラルに係る推論による計算の非効率化}\label{sec:prob:main}\ref{sec:prob:mr}~節で述べた意味表現と評価関数のもとで,先行研究の仮説推論エンジンを用いてIAを実現する場合,機能リテラルを根拠とした単一化仮説生成操作および後ろ向き推論操作により,解仮説に含まれることのない要素仮説が潜在仮説集合に追加され,推論時間を増大させてしまうという問題がある.例えば図\ref{fig:exprob1}では,観測に含まれる$\mathit{nsubj}(e_3,j)$と$\mathit{nsubj}(e_4,t)$に対して単一化仮説生成操作を適用することで,等価仮説$e_3=e_4$($\mathit{smart}$イベントと$\mathit{foolish}$イベントは同一事象),および$j=t$(JohnとTomは同一人物)が潜在仮説集合に追加されている.また図\ref{fig:exprob2}では,観測に含まれる$\mathit{smart}(e_1)$と$\mathit{foolish}$の主格を表すリテラル$\mathit{nsubj}(e_2,t)$を根拠として,$e_1=e_2$という仮定のもと知識適用を行い,$\{\mathit{study}(e_3),\mathit{nsubj}(e_3,t)\}$を潜在仮説集合に追加している.\begin{figure}[b]\begin{center}\includegraphics{23-3ia2f3.eps}\end{center}\caption{不適切な単一化仮説生成によって誤った解釈が導かれる例}\label{fig:exprob1}\end{figure}しかしながら,これらの推論は論理的には可能であるものの,\ref{sec:prob:mr}~節で述べた仮説の評価関数に関する前提より,これらの仮説が最良の説明として選択されることは無い.このような推論は同じ述語を持つリテラルに対して組み合わせ的に発生し(例えば,「$\textit{smart}\text{を述語に持つリテラルの数}\times\textit{nsubj}\text{を述語に持つリテラルの数}$」の分だけ発生する),かつ候補仮説の数は潜在仮説集合の規模に対して指数関数的に増大するため,計算負荷の観点において重大な問題であると考えられる.\begin{figure}[t]\begin{center}\includegraphics{23-3ia2f4.eps}\end{center}\caption{不適切な後ろ向き推論によって誤った解釈が導かれる例}\label{fig:exprob2}\end{figure}この問題の本質的な原因は,先行研究の潜在仮説集合生成手続き(\ref{sec:potential}~節)における各操作において,論理変数間の等価性の意味的な整合性を考慮できていないことにある.例えば図\ref{fig:exprob1}において,$\mathit{nsubj}(e_3,j)$と$\mathit{nsubj}(e_4,t)$に対する単一化仮説生成操作によって等価仮説$e_3=e_4$が潜在仮説集合に追加されるが,このとき,この等価仮説が不正かどうか(つまり,解釈「$\mathit{study}$であり,かつ$\mathit{mistake}$であるようなイベント$e_3(=e_4)$が存在する」が実現可能なものか)は考慮されていない.その結果,図\ref{fig:exprob1}のように,不正な等価仮説であっても,潜在仮説集合に追加されてしまう.本節で述べた問題は,意味表現としてNeo-Davidsonian形式を採用した場合に—すなわち述語と項の関係を$\mathit{nsubj}(x,y)$のように個別のリテラルとして表現した場合に起こる問題である.しかし,これに限らず,Hobbsらの研究\cite{Hobbs93}のように,名詞間の意味的関係(部分全体関係など)や統語的関係(複合名詞を構成する名詞間の関係など)を$\mathit{part\_of}(x,y)$や$\mathit{nn}(x,y)$のようなリテラルで表現する場合にも,上述のような問題が生じる.このようなリテラルは一階述語論理式で自然言語の情報を表す上で必要不可欠であり,本節で述べた問題はIAの研究において決して些末な問題ではない.このような問題に対し本論文では,\ref{sec:potential}~節で述べた潜在仮説集合生成に係る操作において等価仮説の生成を伴う場合,等価仮説が不正でない場合にのみ操作の適用を許すことで,解として選ばれない等価仮説を潜在仮説集合から除外する手法を提案する.例えば図\ref{fig:exprob1}における$\mathit{nsubj}(e_3,j)$と$\mathit{nsubj}(e_4,t)$に対する単一化仮説生成操作の適用時には,まず\ref{sec:prob:mr}~節で述べた基準により$e_3=e_4$の正しさをチェックする(つまり,$\mathit{study}$かつ$\mathit{mistake}$であるような事象が存在しうるか).ここで仮に「$\mathit{study}$と$\mathit{mistake}$が同一事象に成り得ない」ことがわかったとすると,$e_3=e_4$は不正な等価仮説であり,$e_3=e_4$が解仮説に含まれる可能性がないため,操作の適用を行わない.4節では,これらのアイデアに基づき,2.1節で説明した潜在仮説集合生成の手続きを拡張し,より効率的に潜在仮説集合を生成する方法を提案する.また5節では,これらのアイデアに基づき,A*-basedAbduction\cite{Yamamoto15}の計算効率を改善する手法を提案する.なお,以降の記述では便宜的に,機能リテラルは全て次のような形式をとるものとする:\begin{itemize}\itemアリティは2.\itemリテラルの第一引数が依存関係のgovernor,第二引数がdependentを表す.\end{itemize}自然言語における単語間の依存関係の多くは2項間関係として表されること,多項関係は一般に2項間関係の組み合わせとして一般化できることなどから,このように定義を限定した場合においても一般性は失われない.
\section{等価仮説への制約による効率化}
本節では,\ref{sec:potential}~節で定義した後ろ向き推論操作,および単一化仮説生成操作に対して適用条件を付加することにより,不正な等価仮説を探索空間から除外する方法を提案する.\subsection{機能的述語の単一化に対する制約}\label{sec:cons-unify}2節で述べた通り,先行研究\cite{Inoue11,Inoue12,Yamamoto15}における単一化仮説生成の適用は,述語の同一性にのみ依拠している.しかしながら,\ref{sec:prob:mr}~節で述べた設定の下では,機能リテラル対に対する単一化仮説生成操作によって,不正な等価仮説が潜在仮説集合に追加されてしまう可能性がある.仮説の整合性条件が充足されているとすると,不正な等価仮説を含む仮説は解仮説として選択されないため,そのような仮説が候補仮説に含まれてしまうことは,推論効率の面で無駄が生じる.我々はこの問題に対処するために,機能リテラル対に対する単一化仮説生成を行う際に「それぞれのgovernor(第一引数)の論理変数の間の等価性を導く,不正でない等価仮説が既に仮説されていること」という条件を追加する.例えば図\ref{fig:exprob1}の観測における機能リテラル対$\mathit{nsubj}(e_3,j)$,$\mathit{nsubj}(e_4,t)$に対する単一化仮説生成の適用は,等価仮説$e_3=e_4$が潜在仮説集合に既に含まれている場合に限定する.これにより,親が互いに同一事象に成り得ない機能リテラル対は単一化仮説生成の対象とならず,不正な等価仮説が潜在仮説集合に追加されなくなるので,推論効率の向上が期待できる.より一般的には,潜在仮説集合$P$において,機能述語$d$を持つ機能リテラル対$d(x_1,y_1)$,$d(x_2,y_2)$に対して単一化可能性を認め,そこから導かれる等価仮説$x_1=x_2$,$y_1=y_2$を潜在仮説集合に追加するのは,$x_1$,$x_2$が同一の変数である場合か,等価仮説$x_1=x_2$が$P$に含まれている場合に限る.このような制約により,機能リテラル間の単一化仮説生成が適用されるのは,それぞれの機能リテラルが表す依存関係のgovernorが互いに同一である可能性がある場合に限定され,常に不正な等価仮説を導くような単一化仮説生成操作の実行を防止できる.この制約をどのようなアルゴリズムとして実装するかについては\ref{sec:cons-implement}節で述べる.\subsection{後ろ向き推論への拡張}\label{sec:cons-chain}後ろ向き推論操作についても,単一化仮説生成操作と同様の議論を行うことができる.本節ではそれを踏まえ,前節と同等の制約を後ろ向き推論操作にも課すことを考える.例えば図\ref{fig:exprob2}において,論理式$\mathit{study}(e_3)\land\mathit{nsubj}(e_3,t)\Rightarrow\mathit{smart}(e_1)\land\mathit{nsubj}(e_1,t)$による後ろ向き推論を連言$\mathit{smart}(e_1)\land\mathit{nsubj}(e_2,t)$に対して適用する場合について,この後ろ向き推論操作の適用条件として「潜在仮説集合に不正でない等価仮説$e_1=e_2$が含まれていること」を課す.これにより,不正な等価仮説を導く後ろ向き推論を潜在仮説集合の生成手続きから除外することができる.このとき,全ての後ろ向き推論に制約を課してしまうと,本来除外するべきでない推論が除外されてしまう場合があることに注意する必要がある.例えば図\ref{fig:chain}における後ろ向き推論に上の制約を課した場合,等価仮説$x_1=x_3$が潜在仮説集合に含まれていることが後ろ向き推論適用の条件となるが,等価仮説$x_1=x_3$を導くためにはその後ろ向き推論を実行する必要がある.そのため,上の制約を課した場合にはこの推論は探索空間から除外されてしまう.しかしながら,図\ref{fig:chain}の仮説は最終的には不正な等価仮説を含まないため,本来は除外するべきでない.以上の議論より本論文では,このような場合を引き起こしうる論理式を用いた後ろ向き推論については制約を課さないことによって,除外すべきでない候補仮説—すなわち不正な等価仮説を含まない候補仮説が探索空間から除外される事態を防ぐ.上のような場合を引き起こしうる論理式とは,具体的には,論理式の後件中の機能リテラルの親になっているリテラルが前件に含まれるような論理式である.そのような論理式を用いた後ろ向き推論については,制約の対象から除外する.例えば図\ref{fig:chain}の例では,後件の機能リテラル$in(x_1,x_2)$の第一引数$x_1$が前件のリテラル$\mathit{student}(x_1)$の引数に含まれており,$\mathit{student}(x_1)$は$in(x_1,x_2)$の親であると言えるので,この論理式を用いた後ろ向き推論については制約の対象としない.\begin{figure}[b]\begin{center}\includegraphics{23-3ia2f5.eps}\end{center}\hangcaption{探索空間から除外すべきではないにも関わらず,等価仮説の制約によって実行不可能になってしまう後ろ向き推論の例.}\label{fig:chain}\end{figure}以上のアイデアをより一般的に表そう.潜在仮説集合$P$において,含意型論理式$\bigwedge_{i=1}^np_i(x_i)\Rightarrow\bigwedge_{j=1}^mq_j(y_j)$を用いた後ろ向き推論を,$P$に含まれる連言$\bigwedge_{j=1}^mq_j(z_j)$に適用する場合を考える.ここで,述語$q_f$が機能述語であるようなインデックス$f$の集合を$F$とすると,この逆向き推論を適用するのは,$F$の各要素$f$が以下の条件のうち少なくとも一つを満たしている場合に限る:\begin{enumerate}\item$q_f(y_f)$の第一引数$y_f^1$を引数に持つリテラルが論理式の前件に存在する.すなわち$y_f^1\in\bigcup_{i=1}^nx_i$が成り立つ.\item論理式の後件の$c$番目にある内容語リテラル($q_c(y_c)$とおく)の任意の($i$番目の)引数$y_c^i$が$y_f^1$と同一であるとき,変数対$z_c^i$,$z_f^1$が同一であるか,もしくは潜在仮説集合に等価仮説$z_c^i=z_f^1$が含まれる.\end{enumerate}この条件を満たさない逆向き推論は,常に不正な等価仮説を導くので,探索空間から除外できる.この制約をどのようなアルゴリズムとして実装するかについては\ref{sec:cons-implement}節で述べる.\subsection{潜在仮説集合の生成手続きの拡張}\label{sec:cons-implement}\ref{sec:cons-unify}節および\ref{sec:cons-chain}節では,単一化仮説生成操作および後ろ向き推論操作の適用条件として,不正な等価仮説を生成しないことを条件とすることにより,不正な等価仮説が潜在仮説集合に追加されることを回避する手法を示した.本節では,これらの手法を実際にアルゴリズムとして実装する方法を議論する.まず,各操作の適用条件の充足性と,潜在仮説集合の状態は互いに依存しているため(つまり,適用条件の充足性は潜在仮説集合の状態で決まり,かつ潜在仮説集合の状態は各操作の適用条件の充足性により変化する),各操作に対する条件の充足性判定は,各操作の適用時に一度ずつ行うだけでは不十分である.なぜなら,潜在仮説集合を生成する過程において,ある時点では適用条件を充足せず適用不可能な操作であっても,その後の別の時点では,別の操作の適用により条件が充足され,適用可能となる場合があるからである.そのため,最終的に適用されなかった全ての操作が制約を充足しないことを保証できるよう,各操作に対する適用条件の充足性を漏れが無いように判定する必要がある.以上のような考えに基づき,\ref{sec:potential}~節で述べた潜在仮説集合の生成手続きを次のように変更する:\begin{enumerate}\item観測$O$を潜在仮説集合$P$に追加する.これが初期状態となる.\item潜在仮説集合$P$に対して適用可能な後ろ向き推論および単一化仮説生成操作を,A*-basedAbductionの手法に基いて網羅的に適用する.ただし,\ref{sec:cons-unify}~節および\ref{sec:cons-chain}~節で提案した適用条件を満たさない単一化仮説生成・後ろ向き推論は実行しない.制約条件を満たさずに実行されなかった単一化仮説生成・後ろ向き推論については,別の記憶領域$S$に保持しておく.\itemこの時点で$S$が空の場合は,潜在仮説集合の生成を終了する.\item$S$に含まれる単一化仮説生成操作および後ろ向き推論操作のそれぞれについて,再び制約を満たすかどうかの判定を行う.満たすのなら操作を適用し,$S$から除外する.\item手続き(4)において一つの操作も実行されなかった場合は潜在仮説集合の生成を終了し,そうでなければ手続き(2)に戻る.\end{enumerate}このような実装を採ることにより,最終的に適用されなかった操作については全て適用条件を満たさないことが保証される.\ref{sec:cons-unify}節および\ref{sec:cons-chain}節での議論より,適用条件を満たさない操作は不正な等価仮説を導くので,仮説の整合性条件より,これらの操作によって導かれる要素仮説が本来の解仮説に含まれることは無い.すなわち,等価仮説への制約を課す前後で解仮説が変化しないことが保証される.
\section{A*-basedAbductionの効率化}
\label{sec:stopword}機能リテラルを含む背景知識を用いた仮説推論をA*-basedAbduction\cite{Yamamoto15}に適用する際,探索空間の枝刈りの精度が著しく低下するという問題がある.本節ではそのような問題の解決策として,探索のガイドとして用いるヒューリスティック関数の計算方法を改良することにより,枝刈りの精度の低下を抑える手法を提案する.本節では,まずA*-basedAbductionについて説明し(\ref{sec:yamamoto15}~節),機能リテラルが引き起こす枝刈り精度低下の問題(\ref{sec:sw-prob}~節)と解決策(\ref{sec:sw-sw}~節)について述べる.\subsection{A*アルゴリズムに基づく仮説推論}\label{sec:yamamoto15}まず,A*-basedAbductionのベースとなるILP-basedAbduction\cite{Inoue11b,Inoue12b}について説明する.ILP-basedAbductionでは,まず観測と背景知識を入力として受け取り,それらに対して\ref{sec:potential}~節の潜在仮説集合生成手続きを適用し,潜在仮説集合を生成する.次に,潜在仮説集合と評価関数から,ILP問題を生成する.ここでは,仮説中での各リテラルの有無がILP変数の0-1値に,仮説に対する評価関数の値がILP問題の目的関数値に対応し,各リテラル間の論理的な依存関係はILP制約として表現される.最後に,ILPソルバ\footnote{lp\_solve(http://lpsolve.sourceforge.net)やGurobiOptimizer(http://www.gurobi.com)などがある.}を用いてILP問題を解くことにより,解仮説が得られる.A*-basedAbductionは,ILP-basedAbductionの潜在仮説集合の生成手続きをA*アルゴリズムに基づいて改良するものであり,解仮説に含まれる見込みが高い仮説を生成する操作を優先的に適用していくアルゴリズムである.より具体的には,まず事前準備として,背景知識における述語間の意味的な距離を評価しておく.ここでの述語間の意味的な距離とは,一方の述語から他方の述語に至る推論によって生じる評価関数値の増減量のヒューリスティックな見積もりである.同じ論理式に含まれる述語を互いに隣接関係にあると見なすと,図\ref{fig:heuristic1}のように節点を述語,枝を隣接関係とする無向グラフ(以後,\textbf{述語グラフ}と呼ぶ)が得られる\footnote{論理プログラミング分野の慣習に従い,アリティ(引数の数)がnであるような述語pを$p/n$と表す.}.述語間の意味的な距離は,このグラフにおける距離—即ち述語間を繋ぐ枝の長さの総和として与えられる.各枝の長さは,枝に対応する知識ごとに自由に定義できる\footnote{一般には,後ろ向き推論に用いた時に評価値が大きく減少する知識ほど,対応する枝の距離が長くなるように定義する.例えば重み付き仮説推論では,知識に割り当てられた重みを述語グラフ上での距離として用いる.}が,本論文では議論の簡単のために全ての枝の長さを1と定める.このとき述語グラフにおける述語間の距離は,一方の述語から他方の述語に至る推論の段数と一致する.例えば図\ref{fig:heuristic1}によれば,図\ref{fig:ia}の背景知識において,述語$\mathit{bank}$,$\mathit{issue}$を持つリテラル同士を推論で繋ぐには最低でも3つの論理式を経由しなければならず,また述語$\mathit{he}$,$\mathit{money}$を持つリテラル間を結びつけるような推論は存在しない事が分かる.述語グラフの構造は背景知識にのみ依存するので,あらゆる述語対に対する距離を事前に計算しておき,行列として保持しておくことが可能である.\begin{figure}[t]\begin{center}\includegraphics{23-3ia2f6.eps}\end{center}\caption{図\ref{fig:ia}の背景知識に対応した無向グラフ}\label{fig:heuristic1}\end{figure}次に,述語グラフに基づいて後ろ向き推論操作の良さを見積もりながら,潜在仮説集合の生成を行う.A*-basedAbductionの潜在仮説集合の生成手続きでは,「単一化仮説生成に寄与しないリテラルは解仮説に含まれない」という前提に基づき,解仮説に含まれる見込みがあるリテラル,すなわち単一化仮説生成に寄与しうるリテラルを仮説する後ろ向き推論操作のみを,評価関数の増減量の見込みがより高いものから優先的に実行していく.より具体的には,述語グラフにおける述語間の距離をA*アルゴリズムにおけるヒューリスティック関数として用いて,観測中の個々のリテラルから他のリテラルに至る推論を探索\footnote{この探索においては,始点と終点は観測リテラルであり,始点からあるリテラルまでの移動距離は,述語グラフと同様に,その間で用いられている知識に対応した枝の長さの総和で与えられる.}することによって,単一化仮説生成に寄与しない後ろ向き推論(すなわち他のどのリテラルとも距離が無限大になるようなリテラルを根拠とした後ろ向き推論)は適用対象から除外しつつ,評価関数値の増減量の見込みが高い後ろ向き推論(すなわち他のリテラルとの述語間距離が近いリテラルを根拠にした後ろ向き推論)から優先的に適用していく.これにより,解仮説に含まれ得ないリテラルを仮説するような後ろ向き推論操作は探索空間から除外され,結果として推論全体の計算効率が改善される.例えば図\ref{fig:lhs}の潜在仮説集合における$\mathit{cat}(x)$や$\mathit{poodle}(x)$は,それ自身が単一化仮説生成操作の対象になることも,そこから仮説されたリテラルが単一化仮説生成操作の対象になることも無いので,これらのリテラルを仮説するような後ろ向き推論操作は実行されない.また,評価関数値の増減量の見込みが高い推論が優先して実行されることにより,潜在仮説集合の生成にかけられる時間が制限された状況においても,より良い解が探索空間に含まれるように,与えられた時間内で可能な限り最善の探索を行う.これは実用においては極めて大きな利点である.さて,以降の議論のために用語を一つ定義する.単一化仮説生成の対象となったリテラル対$l_1$,$l_2$と,それらの根拠である観測リテラル対$o_1$,$o_2$について,$o_1$,$o_2$から$l_1$,$l_2$をそれぞれ仮説するために必要な後ろ向き推論と,$l_1$,$l_2$間の単一化仮説生成操作から構成される操作の系列を,$o_1$,$o_2$の間の{\bf推論パス}と呼ぶことにする.例えば図\ref{fig:ia}において,リテラル対$\mathit{go}(x_1,x_2)$,$\mathit{get}(y_1,y_2)$の間の推論パスは,(1)$\mathit{go}(x_1,x_2)$から$\mathit{issue}(x_2,u_1,x_1)$への後ろ向き推論,(2)$\mathit{go}(y_1,y_2)$から$\mathit{issue}(u_2,y_2,y_1)$への後ろ向き推論,(3)$\mathit{issue}(x_2,u_1,x_1)$と$\mathit{issue}(u_2,y_2,y_1)$の間の単一化仮説生成によって構成される.定義より,全ての推論パスは,1回の単一化仮説生成操作と0回以上の後ろ向き推論操作によって構成されることに注意されたい\footnote{この定理は,付録Aに示す解の最適性の証明において必要となる.}.また,ある推論パスについて,そこに含まれる操作の系列に関与している観測リテラルの集合,すなわち推論パスで作られる推論が説明している観測リテラル集合を,推論パスの{\bf根拠}と呼ぶ.さて,現在の仮説推論の実装としてはA*-basedAbductionが最も高速であるが,彼らの枠組みを適用する際,その評価関数は次の要件を満たしていなければならない.一つ目に,彼らの枠組みはILP-basedAbduction\cite{Inoue11,Inoue12b}に基づいた枠組みであるため,評価関数は整数線形計画問題で表現可能であるものでなければならない.二つ目に,冗長な仮説に対しては評価が低下すること,すなわち単一化仮説生成に寄与しないリテラルが解仮説に含まれ得ないことが保証されていなければならない.なお,この条件については,Hobbsらの重み付き仮説推論をはじめとして,Thagard\cite{Thagard78}の提唱する「仮説の良さは簡潔さと顕現性によって決定される」とする主張に基づいて定義された評価関数であれば一般に充足される.ここで,二つ目の条件をNeo-Davidsonian形式に合わせて拡張することを考えよう.例えば,図\ref{fig:phi}(a)のNeo-Davidsonian形式で表現された推論は,表す意味そのものは図\ref{fig:phi}(b)のDavidsonian形式で表現された推論と同等であることから,図\ref{fig:phi}(b)と同様に解仮説には含まれ得ないと考えてよい.すなわち図\ref{fig:phi}(a)のように,単一の内容語リテラルとそれを親とする機能リテラルだけを根拠とする推論パスは,Thagardの主張に従うならば,解仮説には含まれないものと考えてよい.\begin{figure}[t]\begin{center}\includegraphics{23-3ia2f7.eps}\end{center}\hangcaption{異なる意味表現形式における冗長な推論の例.推論(a)はNeo-Davidsonian形式で,推論(b)はDavidsonian形式で,それぞれ同様の冗長な推論を表している.}\label{fig:phi}\end{figure}以上の議論から,以降で扱う評価関数は,整数線形計画問題で等価に表現可能であるとともに,以下に示す条件を充足すると仮定する:\begin{itemize}\item評価関数は,単一化仮説生成に寄与しないリテラルを含む候補仮説を解仮説として選択しない.\item評価関数は,単一の内容語リテラルとそれを親とする機能リテラルのみを根拠とした推論パスを含む候補仮説を解仮説として選択しない.\end{itemize}以降ではこれらの条件をまとめて仮説の{\bf簡潔性条件}と呼ぶ.\subsection{述語間距離の推定精度の低下}\label{sec:sw-prob}\ref{sec:yamamoto15}節で述べたようにA*-basedAbductionでは,図\ref{fig:heuristic1}のような述語グラフを用いて,背景知識における述語間の意味的な距離を事前に評価しておき,仮説の探索空間の枝刈りを行う.述語グラフの上では,論理式の前件に含まれる各述語と後件に含まれる各述語のあらゆる組み合わせが接続されるため,機能リテラルのような,他のリテラルと高頻度で共起するリテラルを背景知識に含む場合には,述語グラフの中にハブとなるノードが形成される.その結果,解仮説を含まれ得るような推論が実際には存在しないリテラル対に対しても,誤って距離を近く見積もってしまう,という問題がある.例えば図\ref{fig:exprob1}で用いられている背景知識$B$を考える:\begin{align*}mistake(e_1)\landnsubj(e_1,x)&\Rightarrowfoolish(e_2)\landnsubj(e_2,x)\\study(e_1)\landnsubj(e_1,x)&\Rightarrowsmart(e_2)\landnsubj(e_2,x)\end{align*}この背景知識に対して\ref{sec:yamamoto15}節で述べた手続きによって述語グラフを生成すると,図\ref{fig:sw1}(a)のような述語グラフが作られる.前述のように,背景知識に含まれる機能述語$\mathit{nsubj}/2$がハブノードとなり,あらゆる内容語述語のペアが互いに到達可能と判定されることがわかる.しかし,これらの推論パスにより生成される仮説の中には,解仮説として選択されないことが保証されるものも含まれる.例えば,図\ref{fig:sw1}(a)より,$\mathit{foolish}$と$\mathit{smart}$を述語に持つリテラル対を結ぶような推論パスは存在すると推定されるが,3節で見てきたように,この推論パスから生成される仮説は不正な等価仮説を導くため,解仮説には成り得ない.\begin{figure}[t]\begin{center}\includegraphics{23-3ia2f8.eps}\end{center}\hangcaption{提案手法による枝刈りの適用前後における述語グラフ.(a)が従来手法による述語グラフ,(b)が\ref{sec:sw-sw}節で提案する手法による述語グラフである.}\label{fig:sw1}\end{figure}このように,従来の述語グラフでは,述語間を繋ぐ推論が不正な等価仮説を導くかどうか考慮できていないために,機能リテラルを含む背景知識の上での述語間距離の推定精度が低下し,A*-basedAbductionの利点が失われてしまっている.\subsection{述語グラフの枝刈りによる高速化}\label{sec:sw-sw}本研究では,\ref{sec:sw-prob}節で述べた問題を解消するために,述語グラフから特定の枝を除外することを提案する.つまり,図\ref{fig:exprob1}における$\mathit{foolish}(e)$と$\mathit{smart}(e)$のように,あるリテラル対を繋ぐ推論パスが常に不正な等価仮説を導く時に,それらの間の距離が無限大となるように,述語グラフの枝を除外する.これにより不正な等価仮説を導く推論は探索空間から除外され,探索を効率化できる.具体的な手法を述べる.本手法では,A*-basedAbductionについて,以下の2点の拡張を加える:\begin{itemize}\item述語グラフの構築において,機能リテラルとその親の両方が前件あるいは後件に存在する含意型論理式に対しては,親に対する枝だけを述語グラフに追加するものとする.例えば$\mathit{study}(e_1)\land\mathit{nsubj}(e_1,x)\Rightarrow\mathit{smart}(e_2)\land\mathit{nsubj}(e_2,x)$という論理式に対しては,$\mathit{study}$と$\mathit{smart}$の間の枝だけを追加し,$\mathit{nsubj}$への枝は追加しない.\item潜在仮説集合の生成において,機能リテラルと他のリテラルの間の述語間距離には,機能リテラルの親の述語間距離を代わりに用いるものとする.例えば図\ref{fig:exprob1}の観測において,$\mathit{nsubj}(e_1,j)$の親は$\mathit{smart}(e_1)$であるので,$\mathit{nsubj}(e_1,j)$と$\mathit{foolish}(e_2)$の述語間距離には,$\mathit{smart}(e_1)$と$\mathit{foolish}(e_2)$の述語間距離を用いる.なお,親が複数存在する場合には,それらの中での最低値を採用するものとする.\end{itemize}このように拡張することで,不正な等価仮説を導く推論は探索空間から除外される.例えば,図\ref{fig:exprob1}の背景知識では,図\ref{fig:sw1}(a),(b)に示されるように,機能述語$\mathit{nsubj}/2$への枝が述語グラフから取り除かれる.その結果,述語$\mathit{smart}$と$\mathit{foolish}$の間の距離が無限大となり,不正な等価仮説を導く$\mathit{smart}$,$\mathit{foolish}$を繋ぐ推論は,探索空間から除外される.なお,本手法を適用したときに得られる解は,仮説の整合性条件および簡潔性条件が充足されている限り,手法を適用しない場合の解と同様の解が得られること,すなわち元々の解が提案手法によって探索空間から枝刈りされないことが保証される.詳細な説明は付録Aに委ねるものとする.
\section{実験}
\subsection{基本設定}本節では,本論文にて行った実験における基本的な設定について述べる.本実験における観測としては,Rahmanら~\cite{Rahman12}によって構築されたWinogradSchemaChallenge~\cite{Levesque11}の訓練データの問題1,305問をそれぞれ論理表現に変換したものを用いた.具体的には,各問題文に対してStanfordCoreNLP\footnote{http://nlp.stanford.edu/software/corenlp.shtml}\cite{CoreNLP}を用いて構文解析を行い,文中の単語および単語間の依存関係をそれぞれリテラルに変換した.各観測は平均して28個のリテラルから構成される.観測の例を表1の$O$に示す.なお,全ての観測について整合性条件を充足することを確認している.以降はこの観測集合を$O_\mathit{wsc}$と表す.WinogradSchemaChallengeは,例えば``{\itTonyhelpedJeffbecausehewantedtohelp.}''のような文を入力として,指定された照応表現(ここでは``{\ithe}'')の照応先として相応しいものを2つの選択肢(ここでは``{\itTony}''と``{\itJeff}'')から選ぶタスクである.仮説推論の上では,照応先の選択は等価仮説の有無に対応する.例えば,表1の$O$に対して得られた解仮説に$E_1=e_5$が含まれるなら,``{\ithe}''の照応先として``{\itTony}''を選ぶことと等しい.なお,本実験では,各問題の照応先に対応する論理変数には定数(この例では$E_1$,$E_3$)を割り当てることで,二つの照応先候補を同時に選択することを防いでいる.\begin{table}[t]\hangcaption{実験で用いた観測および背景知識の例.なお観測の例は``\textit{TonyhelpedJeffbecausehewantedtohelp.}''という文に対応する論理表現である.}\label{tab:example}\input{02table01.txt}\end{table}また背景知識には,我々がClueWeb12\footnote{http://lemurproject.org/clueweb12/}から自動獲得した因果関係知識を用いた.具体的には,まず,ClueWeb12に含まれる各文に対してStanfordCoreNLPを適用し,共参照関係にある項を持つ動詞・形容詞とその周辺文脈のペア5億個を獲得した.例えば,``\textit{Tomhelped\underline{Mary}yesterday,so\underline{Mary}thankedtoTom.}''より,\textit{Mary}を介してペアとなっている$\langle$\textit{TomhelpMaryyesterday},\textit{MarythanktoTom}$\rangle$を獲得した.獲得したペアは,そのまま因果関係知識として用いるには特殊すぎる可能性があるため,これらを統計的な基準によって一般化し,論理表現に変換した.より具体的には,獲得したペアをさまざまな抽象度に一般化した上で(例えば,$\langle$\textit{TomhelpMaryyesterday},\textit{MarythanktoTom}$\rangle$を$\langle$\textit{TomhelpX},\textit{XthanktoTom}$\rangle$,$\langle$\textit{helpX},\textit{Xthank}$\rangle$などに変換した)頻度カウントを行い,一定以上の頻度のペアだけを残す,というフィルタリング処理を施した(以降,これらのペアを\textbf{イベントペア}と呼ぶ).結果として,278,802個の含意型論理式の集合$B_\mathit{ep}$を得た.知識の例を表1の$B_\mathit{ep}$に示す.また,WordNetのSynsetによって定義される同義語・上位語の知識を論理表現に変換し,結果として235,706個の含意型論理式の集合$B_\mathit{wn}$を得た.WordNetから生成した論理式の例を表1の$B_\mathit{wn}$に示す.提案手法を適用するにあたっては,背景知識に出現する格関係および前置詞による修飾関係を表す全ての述語を機能述語として扱うこととした.評価関数には重み付き仮説推論\cite{Hobbs93}を基に,整合性条件および簡潔性条件を充足するような評価関数を用いた.具体的には,重み付き仮説推論の評価関数に対して「全ての候補仮説は仮説の整合性条件および簡潔性条件を満たさなければならない」という制約を加えている.比較対象としてはA*-basedAbduction\cite{Yamamoto15}を用いた.以降の記述における従来手法とはA*-basedAbductionを指す.実験は\cite{Yamamoto15}の実装であるPhillip\footnote{http://github.com/kazeto/phillip.git}の上で行い,本論文の提案手法もPhillipを拡張することによって実装した.\subsection{推論効率の比較}本節では,推論効率の比較実験について報告する.この実験では,提案手法が従来手法と比べてどの程度効率的に最適解を導くことができるかを確かめるために,従来手法でも最適解が導出できる程度に小規模な設定での比較を行った.また,従来手法のほかに,4節の制約のみを用いた設定,5節の述語グラフの枝刈りのみを用いた設定との比較も行うことで,個々の手法による効率化の度合いを検証した.具体的な設定を以下に述べる,観測には$O_\mathit{wsc}$に含まれる全ての問題(1,305問)を用いた.背景知識には,$B_\mathit{ep}$から187,732個の論理式を抽出\footnote{$B_\mathit{ep}$の論理式のうち,ClueWeb中での共起頻度がある閾値を超えるイベントペアから生成された論理式のみを抽出した.背景知識を適当な規模に縮小する以外の意図は無いので,詳細は省略する.}して用いた.また,リテラルの深さの最大値は$d_\mathit{max}=1$とした.これにより後ろ向き推論の入力は観測リテラルのみに限定される.また,推論時間が5分を超えるものについてはタイムアウトとした.この実験設定を,以降は{\bfSMALL}と呼ぶ.\begin{figure}[b]\begin{center}\includegraphics{23-3ia2f9.eps}\end{center}\caption{実験設定SMALLでの,提案手法と従来手法との速度比較.}\label{fig:result1}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{23-3ia2f10.eps}\end{center}\caption{実験設定SMALLでの,等価仮説の制約の有無における速度比較.}\label{fig:result2}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{23-3ia2f11.eps}\end{center}\caption{実験設定SMALLでの,述語グラフの枝刈りの有無における速度比較.}\label{fig:result3}\end{figure}実験設定SMALLにおける実験結果を図\ref{fig:result1},図\ref{fig:result2},図\ref{fig:result3}に示す.図中の各点は開発セット1,305問のうち,少なくとも一方の実験設定がタイムアウトせずに最適解を求められた問題1,095問\footnote{提案手法においてタイムアウトした問題はいずれも,他の実験設定においてもタイムアウトしていた.そのため1,095問というのは実質,提案手法がタイムアウトしなかった問題数に等しい.}について,それぞれの問題における推論時間を表す.各点の座標は,横軸が提案手法による推論時間に対応し,縦軸が比較対象での推論時間に対応する.図\ref{fig:result1}ではA*-basedAbductionによる推論時間,図\ref{fig:result2}では提案手法において5節で述べた述語グラフの枝刈りのみを適用した場合の推論時間,図\ref{fig:result3}では提案手法において4節で述べた等価仮説への制約のみを適用した場合の推論時間が,縦軸に対応する.なお,5分以内に解を導くことが出来ずタイムアウトした問題については300秒としてプロットしている.また直線は$y=x$を表す.よって,この直線よりも上にある点については提案手法によって推論時間が改善されていると見做すことができる.図\ref{fig:result1}からは,従来手法と比べたときの,提案手法による効率化の程度を確認できる.この結果より,どのような規模の問題においても提案手法は従来手法と比べて遥かに短い時間で,平均して数十倍から数百倍の速度で解を導けていることが確かめられた.図\ref{fig:result2}からは,4節で提案した等価仮説の制約による効率化の程度を確認することができる.この結果から,探索空間が極めて小さい一部の問題に対しては効率の低下が見受けられるものの,それ以外の問題についてはいずれもより効率的な推論が実現できていることが確かめられた.推論効率が低下している一部の問題については,この制約によって除外されるような単一化仮説生成操作が探索空間に存在しない,あるいはその数が極めて少ないために,制約の判定にかかる計算量が制約を課すことで削減される計算量を上回ってしまっていると考えられる.図\ref{fig:result3}からは,5節で提案した述語グラフの枝刈りによる効率化の程度を確認することができる.図\ref{fig:result1}での結果とほぼ同様の結果であるものの,述語グラフの枝刈りによって探索空間から除外される推論は,等価仮説の制約によって探索空間から除外される推論の大半を包含していることから,これは極めて自然な結果であるといえる.また,タイムアウトせずに最適解が得られた問題については,問題設定に関わらず最適解の評価関数値が同じ値であったことが確かめられた.このことから,提案手法が解の健全性を損なわないことが実験的にも示された.\subsection{現実的な設定での比較}前節の実験では,提案手法が従来手法と比べて遥かに効率的に解仮説を導出できていることが確かめられた.しかしながら前節の実験設定(SMALL)では,従来手法でも最適解が導けるようにするために,背景知識や解の探索範囲の縮小や,タイムアウトの時間を長めにとるなど,実際のタスク適用とはかなり乖離した設定になってしまっている.それを踏まえ本節では,参考実験として,より実際のタスク適用に即した設定において比較実験を行った.この実験では,(本論文の本来のスコープではないものの,)タスクの解析精度をみることで,我々のシステムが行っている推論が,意味的な解釈として一定の妥当性を持つ推論を実現できていることを確かめる.具体的な設定を述べる.前述したように,今回用いたデータセットには,因果関係知識のみでは解くことの出来ない種類の問題—例えば否定や逆接を含む問題,特定の固有名詞に関する知識が必要な問題,数量表現を扱う問題など—が多数含まれている.そこで本実験では,$O_\mathit{wsc}$に含まれる観測のうち無作為に選んだ100問について,個々の問題を解くのに必要な知識の種類を人手で分類した.そして,その100問のうち因果関係知識の適用のみで解けると思われる問題32問を観測として用いた.背景知識としては,$B_\mathit{ep}$と$B_\mathit{wn}$に含まれる全ての論理式(514,508個)を用いた.またリテラルの深さの最大値は$d_\mathit{max}=2$とした.これは,3個以上の因果関係を繋げて導かれる仮説は意味的に不自然な説明であることが多いという経験則に基いている.また,潜在仮説集合の生成は10秒で中断し,その時点での潜在仮説集合に対する解を解仮説として扱った.推論全体では,推論時間が1分を超えるものをタイムアウトとした.この実験設定を,以降は{\bfLARGE}と呼ぶ.実験設定LARGEにおける実験結果を表2に示す.この結果より,従来手法では殆どの問題で解が得られていない一方で,提案手法ではそれがある程度改善されていることが分かる.これは,述語グラフの枝刈りを導入したことによって,A*-basedAbductionにおける述語間の距離推定の精度が改善され,後ろ向き推論の候補をより短い時間で列挙できるようになったことが大きいと考えられる.\begin{table}[t]\hangcaption{実験設定LARGEにおける実験結果.各列は従来手法および提案手法での結果を表す.各行は上から順に,正解できた問題数(Correct),不正解だった問題数(Wrong),出力が得られなかった問題数(NoDecision),それらの結果から計算した適合率(Precision)および再現率(Recall)を表す.}\label{tab:result-2}\input{02table02.txt}\end{table}また,タスクの解析精度については,表2の適合率を見る限り,ある程度意味のある推論が実現できていることが伺える.その一方で再現率は低く,今後,解析精度を向上させていくためには,背景知識の拡充・高精度化や,評価関数のモデルパラメータの調整など,様々な改善が必要である.しかしながら,少なくとも今回の提案手法の導入により,実世界の問題に即した規模の背景知識および論理表現の上での仮説推論が,初めて実現可能になった.このことは,当該分野において非常に重要な貢献である.
\section{まとめ}
仮説推論は,文章に明示されていない情報の顕在化を行うための有望な枠組みと考えられてきた一方,背景知識や観測の規模に対して指数関数的に増大する計算時間が,実問題への応用を阻んできた.このような問題に対し本論文では,格関係や前置詞による修飾関係などの依存関係を表すリテラルに関して起こる計算量の問題に着目し,そのようなリテラルに対して起こる冗長な推論を探索空間から除外することによって,仮説推論を効率化する手法を提案した.また,既存手法との比較実験から,構築したシステムが従来のシステムよりも遥かに高速であることを示した.今後の展望としては,潜在仮説集合の生成において,言語そのものに対する知識を用いて探索空間の枝刈りをすることが考えられる.その一つの例としては,それぞれの依存関係が持つ性質を利用することが挙げられる.例えば,物体の位置的な上下関係のように推移律が成り立つ場合や,述語項関係のように一つのgovernorに対して一つしかdependentが存在できない場合,物体同士の隣接関係のように対称律が成り立つ場合など,それぞれの関係は固有の性質を持つ.これらの性質を潜在仮説集合の生成の時に考慮することができれば,その性質に反するような推論を探索空間から除外できることが期待される.例えば,主格関係が一つのgovernorに対して一つしか定義できないことが分かっているなら,$\mathit{go}(e_1)\land\mathit{go}(e_2)\land\mathit{nsubj}(e_1,x_1)\land\mathit{nsubj}(e_2,x_2)$のような観測が与えられたとき,$e_1=e_2$かつ$x_1\nex_2$であるような仮説は適切な説明ではないことが分かる.よって,このような仮説を候補仮説として列挙するような手続きを探索空間から除外することが出来れば,計算負荷の軽減に繋げられる可能性がある.また,潜在仮説集合の生成の手続きと,ILP問題を最適化する手続きを,相互にやりとりしながら進めることによって,推論速度を向上させることも考えられる.現状ではこれらの手続きは完全に逐次的に行われるが,潜在仮説集合を生成する段階ではどこまで探索すれば十分なのかが全くの不明であるために,必要最低限の範囲だけを探索することが難しいという問題がある.これに対して,潜在仮説集合の生成の途中の結果に対する解仮説を随時導出しながら,その結果に応じて潜在仮説集合の生成を適切に打ち切ることができれば,全体の計算量を削減できると考えられる.他には,仮説推論を実問題へ適用していくことも進めていく.本研究によって仮説推論の計算負荷は大幅に効率化され,大規模知識を用いた仮説推論は現実的な時間で実現可能となった.これにより,大規模知識を用いた仮説推論の枠組みにおいて,実タスク上での精度評価や,他の先行研究との定量的な比較が可能になったといえる.よって今後は,仮説推論に用いるための高精度かつ大規模な背景知識の構築や,より談話理解のタスクに適した評価関数モデルの構築を進めていきたいと考えている.\acknowledgment本研究は,JST戦略的創造研究推進事業CRESTおよび文部科学省科研費(15H01702)から部分的な支援を受けて行われた.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Blythe,Hobbs,Domingos,Kate,\BBA\Mooney}{Blytheet~al.}{2011}]{Blythe11}Blythe,J.,Hobbs,J.~R.,Domingos,P.,Kate,R.~J.,\BBA\Mooney,R.~J.\BBOP2011\BBCP.\newblock\BBOQImplementingWeightedAbductioninMarkovLogic.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonComputationalSemantics},IWCS'11,\mbox{\BPGS\55--64}.\bibitem[\protect\BCAY{Chambers\BBA\Jurafsky}{Chambers\BBA\Jurafsky}{2009}]{Chambers09}Chambers,N.\BBACOMMA\\BBA\Jurafsky,D.\BBOP2009\BBCP.\newblock\BBOQUnsupervisedLearningofNarrativeSchemasandtheirParticipants.\BBCQ\\newblockIn{\BemProceedingsofthe47thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP},ACL'09,\mbox{\BPGS\602--610}.\bibitem[\protect\BCAY{Copestake,Flickinger,Pollard,\BBA\Sag}{Copestakeet~al.}{2005}]{Copestake05}Copestake,A.,Flickinger,D.,Pollard,C.,\BBA\Sag,I.~A.\BBOP2005\BBCP.\newblock\BBOQMinimalRecursionSemantics:AnIntroduction.\BBCQ\\newblock{\BemResearchonLanguageandComputation},{\Bbf3}(2-3),\mbox{\BPGS\281--332}.\bibitem[\protect\BCAY{Davidson}{Davidson}{1980}]{Davidson}Davidson,D.\BBOP1980\BBCP.\newblock{\BemEssaysonActionsandEvents}.\newblockOxfordUniversityPress.\bibitem[\protect\BCAY{Fellbaum}{Fellbaum}{1998}]{fellbaum98}Fellbaum,C.\BED\\BBOP1998\BBCP.\newblock{\BemWordNet:AnElectronicLexicalDatabase}.\newblockMITPress.\bibitem[\protect\BCAY{Gelfond\BBA\Lifschitz}{Gelfond\BBA\Lifschitz}{1988}]{Gelfond88}Gelfond,M.\BBACOMMA\\BBA\Lifschitz,V.\BBOP1988\BBCP.\newblock{\BemTheStableModelSemanticsforLogicProgramming},\mbox{\BPGS\1070--1080}.\newblockMITPress.\bibitem[\protect\BCAY{Hobbs,Stickel,Martin,\BBA\Edwards}{Hobbset~al.}{1993}]{Hobbs93}Hobbs,J.~R.,Stickel,M.,Martin,P.,\BBA\Edwards,D.\BBOP1993\BBCP.\newblock\BBOQInterpretationasAbduction.\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf63},\mbox{\BPGS\69--142}.\bibitem[\protect\BCAY{Hobbs}{Hobbs}{1985}]{Hobbs85}Hobbs,J.~R.\BBOP1985\BBCP.\newblock\BBOQOntologicalPromiscuity.\BBCQ\\newblockIn{\BemProceedingsofthe23rdAnnualMeetingoftheAssociationforComputationalLinguistics},ACL'85,\mbox{\BPGS\61--69},Chicago,Illinois,USA.UniversityofChicago.\bibitem[\protect\BCAY{Inoue\BBA\Inui}{Inoue\BBA\Inui}{2011a}]{Inoue11}Inoue,N.\BBACOMMA\\BBA\Inui,K.\BBOP2011a\BBCP.\newblock\BBOQILP-BasedReasoningforWeightedAbduction.\BBCQ\\newblockIn{\BemPlan,Activity,andIntentRecognition,Papersfromthe2011AAAIWorkshop},AAAI'11,\mbox{\BPGS\25--32}.\bibitem[\protect\BCAY{Inoue\BBA\Inui}{Inoue\BBA\Inui}{2011b}]{Inoue11b}Inoue,N.\BBACOMMA\\BBA\Inui,K.\BBOP2011b\BBCP.\newblock\BBOQAnILPFormulationofAbductiveInferenceforDiscourseInterpretation.\BBCQ\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf2011}(3),\mbox{\BPGS\1--13}.\bibitem[\protect\BCAY{Inoue\BBA\Inui}{Inoue\BBA\Inui}{2012}]{Inoue12b}Inoue,N.\BBACOMMA\\BBA\Inui,K.\BBOP2012\BBCP.\newblock\BBOQLarge-scaleCost-basedAbductioninFull-fledgedFirst-orderPredicateLogicwithCuttingPlaneInference.\BBCQ\\newblockIn{\BemProceedingsofthe13thEuropeanConferenceonLogicsinArtificialIntelligence},\mbox{\BPGS\281--293}.\bibitem[\protect\BCAY{井之上\JBA乾\JBA{EkaterinaOvchinnikova}\JBA{JerryR.Hobbs}}{井之上\Jetal}{2012}]{Inoue12}井之上直也\JBA乾健太郎\JBA{EkaterinaOvchinnikova}\JBA{JerryR.Hobbs}\BBOP2012\BBCP.\newblock大規模世界知識を用いた仮説推論による談話解析の課題と対策.\\newblock\Jem{言語処理学会第18回年次大会論文集},\mbox{\BPGS\119--122}.\bibitem[\protect\BCAY{Levesque}{Levesque}{2011}]{Levesque11}Levesque,H.~J.\BBOP2011\BBCP.\newblock\BBOQTheWinogradSchemaChallenge.\BBCQ\\newblockIn{\BemAAAISpringSymposium:LogicalFormalizationsofCommonsenseReasoning}.AAAI.\bibitem[\protect\BCAY{Manning,Surdeanu,Bauer,Finkel,Bethard,\BBA\McClosky}{Manninget~al.}{2014}]{CoreNLP}Manning,C.~D.,Surdeanu,M.,Bauer,J.,Finkel,J.,Bethard,S.~J.,\BBA\McClosky,D.\BBOP2014\BBCP.\newblock\BBOQTheStanfordCoreNLPNaturalLanguageProcessingToolkit.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics:SystemDemonstrations},\mbox{\BPGS\55--60}.\bibitem[\protect\BCAY{McCord}{McCord}{1990}]{Mccord90}McCord,M.~C.\BBOP1990\BBCP.\newblock{\BemSlotGrammar}.\newblockSpringer.\bibitem[\protect\BCAY{Moore}{Moore}{1983}]{Moore83}Moore,R.~C.\BBOP1983\BBCP.\newblock\BBOQSemanticalConsiderationsonNonmonotonicLogic.\BBCQ\\newblockInBundy,A.\BED,{\BemProceedingsofthe8thInternationalJointConferencesonArtificialIntelligence},\mbox{\BPGS\272--279}.WilliamKaufmann.\bibitem[\protect\BCAY{Mulkar,Hobbs,\BBA\Hovy}{Mulkaret~al.}{2007}]{Mulkar07}Mulkar,R.,Hobbs,J.,\BBA\Hovy,E.\BBOP2007\BBCP.\newblock\BBOQLearningfromReadingSyntacticallyComplexBiologyTexts.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalSymposiumonLogicalFormalizationsofCommonsenseReasoning},PaloAlto.\bibitem[\protect\BCAY{Ng\BBA\Mooney}{Ng\BBA\Mooney}{1992}]{Ng92}Ng,H.~T.\BBACOMMA\\BBA\Mooney,R.~J.\BBOP1992\BBCP.\newblock\BBOQAbductivePlanRecognitionandDiagnosis:AComprehensiveEmpiricalEvaluation.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonPrinciplesofKnowledgeRepresentationandReasoning},\mbox{\BPGS\499--508}.\bibitem[\protect\BCAY{Nienhuys-Cheng\BBA\De~Wolf}{Nienhuys-Cheng\BBA\De~Wolf}{1997}]{Nienhuys97}Nienhuys-Cheng,S.-H.\BBACOMMA\\BBA\De~Wolf,R.\BBOP1997\BBCP.\newblock{\BemFoundationsofInductiveLogicProgramming},\lowercase{\BVOL}\1228.\newblockSpringerScience\&BusinessMedia.\bibitem[\protect\BCAY{Ovchinnikova,Hobbs,Montazeri,McCord,Alexandrov,\BBA\Mulkar-Mehta}{Ovchinnikovaet~al.}{2011}]{Ovch11}Ovchinnikova,E.,Hobbs,J.~R.,Montazeri,N.,McCord,M.~C.,Alexandrov,T.,\BBA\Mulkar-Mehta,R.\BBOP2011\BBCP.\newblock\BBOQAbductiveReasoningwithaLargeKnowledgeBaseforDiscourseProcessing.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonComputationalSemantics},IWCS'11,\mbox{\BPGS\225--234}.\bibitem[\protect\BCAY{Parsons}{Parsons}{1990}]{neodavidson}Parsons,T.\BBOP1990\BBCP.\newblock{\BemEventsintheSemanticsofEnglish:AStudyinSubatomicSemantics/TerenceParsons}.\newblockMITPressCambridge,Mass.\bibitem[\protect\BCAY{Raghavan\BBA\Mooney}{Raghavan\BBA\Mooney}{2010}]{Raghavan10}Raghavan,S.\BBACOMMA\\BBA\Mooney,R.~J.\BBOP2010\BBCP.\newblock\BBOQBayesianAbductiveLogicPrograms.\BBCQ\\newblockIn{\BemProceedingsoftheAAAI-10WorkshoponStatisticalRelationalArtificialIntelligence},\lowercase{\BVOL}\WS-10-06of{\BemAAAIWorkshops},\mbox{\BPGS\82--87}.\bibitem[\protect\BCAY{Rahman\BBA\Ng}{Rahman\BBA\Ng}{2012}]{Rahman12}Rahman,A.\BBACOMMA\\BBA\Ng,V.\BBOP2012\BBCP.\newblock\BBOQResolvingComplexCasesofDefinitePronouns:TheWinogradSchemaChallenge.\BBCQ\\newblockIn{\BemProceedingsofthe2012JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning},\mbox{\BPGS\777--789},JejuIsland,Korea.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Reiter}{Reiter}{1978}]{raymond78}Reiter,R.\BBOP1978\BBCP.\newblock\BBOQOnClosedWorldDataBases.\BBCQ\\newblockInGallaire,H.\BBACOMMA\\BBA\Minker,J.\BEDS,{\BemLogicandDataBases},\mbox{\BPGS\55--76}.SpringerUS.\bibitem[\protect\BCAY{Reiter}{Reiter}{1987}]{Reiter87}Reiter,R.\BBOP1987\BBCP.\newblock\BBOQALogicforDefaultReasoning.\BBCQ\\newblockInGinsberg,M.~L.\BED,{\BemReadingsinNonmonotonicReasoning},\mbox{\BPGS\68--93}.Kaufmann,LosAltos,CA.\bibitem[\protect\BCAY{Richardson\BBA\Domingos}{Richardson\BBA\Domingos}{2006}]{Richardson06}Richardson,M.\BBACOMMA\\BBA\Domingos,P.\BBOP2006\BBCP.\newblock\BBOQMarkovLogicNetworks.\BBCQ\\newblock{\BemMachinelearning},{\Bbf62}(1-2),\mbox{\BPGS\107--136}.\bibitem[\protect\BCAY{Ruppenhofer,Ellsworth,Petruck,Johnson,\BBA\Scheffczyk}{Ruppenhoferet~al.}{2010}]{framenetII}Ruppenhofer,J.,Ellsworth,M.,Petruck,M.~R.,Johnson,C.~R.,\BBA\Scheffczyk,J.\BBOP2010\BBCP.\newblock\BBOQFrameNetII:ExtendedTheoryandPractice.\BBCQ.\bibitem[\protect\BCAY{Schoenmackers,Etzioni,Weld,\BBA\Davis}{Schoenmackerset~al.}{2010}]{Scho10}Schoenmackers,S.,Etzioni,O.,Weld,D.~S.,\BBA\Davis,J.\BBOP2010\BBCP.\newblock\BBOQLearningFirst-orderHornClausesfromWebText.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},EMNLP'10,\mbox{\BPGS\1088--1098}.\bibitem[\protect\BCAY{Sch{\"{u}}ller}{Sch{\"{u}}ller}{2015}]{Schuller15}Sch{\"{u}}ller,P.\BBOP2015\BBCP.\newblock\BBOQModelingAbductionoverAcyclicFirst-OrderLogicHornTheoriesinAnswerSetProgramming:PreliminaryExperiments.\BBCQ\\newblockIn{\BemProceedingsofthe22ndRCRAInternationalWorkshoponExperimentalEvaluationofAlgorithmsforSolvingProblemswithCombinatorialExplosion2015(RCRA2015)AWorkshopoftheXIVInternationalConferenceoftheItalianAssociationforArtificialIntelligence},\mbox{\BPGS\76--90}.\bibitem[\protect\BCAY{Singla\BBA\Mooney}{Singla\BBA\Mooney}{2011}]{Singla11}Singla,P.\BBACOMMA\\BBA\Mooney,R.~J.\BBOP2011\BBCP.\newblock\BBOQAbductiveMarkovLogicforPlanRecognition.\BBCQ\\newblockIn{\BemProceedingsofthe25thAAAIConferenceonArtificialIntelligence},AAAI'11,\mbox{\BPGS\1069--1075}.\bibitem[\protect\BCAY{杉浦\JBA井之上\JBA乾}{杉浦\Jetal}{2012}]{Sugiura12}杉浦純\JBA井之上直也\JBA乾健太郎\BBOP2012\BBCP.\newblock説明生成に基づく談話構造解析の課題分析.\\newblock\Jem{言語処理学会第18回年次大会論文集},\mbox{\BPGS\115--118}.\bibitem[\protect\BCAY{Thagard}{Thagard}{1978}]{Thagard78}Thagard,P.~R.\BBOP1978\BBCP.\newblock\BBOQTheBestExplanation:CriteriaforTheoryChoice.\BBCQ\\newblock{\BemTheJournalofPhilosophy},{\Bbf1},\mbox{\BPGS\76--92}.\bibitem[\protect\BCAY{Yamamoto,Inoue,Inui,Arase,\BBA\Tsujii}{Yamamotoet~al.}{2015}]{Yamamoto15}Yamamoto,K.,Inoue,N.,Inui,K.,Arase,Y.,\BBA\Tsujii,J.\BBOP2015\BBCP.\newblock\BBOQBoostingtheEfficiencyofFirst-orderAbductiveReasoningUsingPre-estimatedRelatednessbetweenPredicates.\BBCQ\\newblock{\BemInternationalJournalofMachineLearningandComputing},{\Bbf5}(2),\mbox{\BPGS\114--120}.\end{thebibliography}\appendix\renewcommand\proofname{\bf証明}
\section{提案手法が解の最適性を保持することの証明}
本節では,仮説の整合性条件および簡潔性条件が充足されるならば,5節で提案した手法に基づく述語グラフの枝刈りを用いて得られる解が最適性を保つこと,即ち手法適用後に探索空間から除外されるような要素仮説について,それらが常に解仮説とならないことを示す.任意の述語$p$,$q$に対する,述語グラフの枝刈り適用前の述語間距離を$h_1(p,q)$,適用後の述語間距離を$h_2(p,q)$と表す.まず,述語グラフの枝刈りを適用することによって除外される推論パスの集合$\mathbb{R}$に着目する.形式的には,$\mathbb{R}$は,$h_1(o_1,o_2)<\infty$かつ$h_2(o_1,o_2)=\infty$を満たすような観測リテラル対$o_1$,$o_2$を端点とするような推論パスの集合,と定義される.本証明のゴールは,「$\mathbb{R}$に含まれるすべての推論パス$R\in\mathbb{R}$から生成される候補仮説$H_R$が,整合性条件および簡潔性条件が充足される状況下では,常に解仮説とならないことを示す」ことである.証明の戦略は次のとおりである.まず,$\mathbb{R}$の部分集合について,整合性条件と簡潔性条件より,そこに含まれる推論パスから生成される候補仮説が解仮説とならないことを示す.次に,それ以外の推論パスの集合$\mathbb{R}'$について,すべての$R'\in\mathbb{R}'$が常に機能リテラルの単一化仮説生成を含むことを証明し,かつその単一化仮説生成操作が常に不正な等価仮説を導くことを示す.まず,$\mathbb{R}$に含まれる推論パスのうち,以下に示すような推論パス$R\in\mathbb{R}$から生成される候補仮説については,整合性条件および簡潔性条件により解仮説とならないことが自明である:\begin{enumerate}\item$R$は機能リテラルの単一化仮説生成を含み,かつ単一化仮説生成の対象である機能リテラル対の少なくとも一方が親を持たない.\item$R$は不正な等価仮説を導くような後ろ向き推論を含む.\item$R$の端点$o_1$,$o_2$は同じ親を持つ機能リテラルであり,親以外の内容語リテラルが推論パスの根拠に含まれない.\item$R$の端点$o_1$,$o_2$のうち一方は機能リテラルであり,他方がその親であり,親以外の内容語リテラルが推論パスの根拠に含まれない.\end{enumerate}(1)および(2)が示す場合については整合性条件2,3より,(3)および(4)が示す場合については簡潔性条件より,明らかに解仮説とならない.したがって,以降ではこれらの場合に当てはまらない推論パスの集合$\mathbb{R}'\subseteq\mathbb{R}$についてのみ検討する.$\mathbb{R}'$の定義より,すべての$R'\in\mathbb{R}'$について,不正な等価仮説を導く後ろ向き推論が$R'$に含まれないことは自明であるから,以降は,すべての$R'\in\mathbb{R}'$について,不正な等価仮説を導く単一化仮説生成操作が$R'$に含まれることを示す.まず,すべての$R'\in\mathbb{R}'$が常に機能リテラルの単一化仮説生成を含むことを証明する.\begin{proof}背理法を用いて証明する.すなわち,「推論パス$R'$が常に機能リテラル間の単一化仮説生成操作を含まない」ことを仮定すると,矛盾が生じることを以下に示す.まず,背理法の仮定は,\ref{sec:prob:mr}~節の定義より,「推論パス$R'$が内容語リテラル間の単一化仮説生成操作を含む場合がある」と言い換えることができる.形式的には,$h_1(o_1,o_2)<\infty$かつ$h_2(o_1,o_2)=\infty$を満たすような観測リテラル対$o_1$,$o_2$がそれぞれ内容語リテラル$c_1$,$c_2$を仮説しており,$c_1$,$c_2$が互いに単一化している場合が存在する,ということである.このとき,$c_1$,$c_2$は同じ述語を持つことから,明らかに$h_1(c_1,c_2)=h_2(c_1,c_2)=0<\infty$である.$\mathbb{R}'$の定義より,$R'$には不正な等価仮説を導くような後ろ向き推論は含まれないので,$c_1$の直接的な根拠となっている任意のリテラルを$d_1$とおくと$h_2(c_1,d_1)<\infty$が成り立つ.同様に$c_2$の直接的な根拠となっている任意のリテラルを$d_2$とおくと$h_2(c_2,d_2)<\infty$が成り立つ.よって,$h_2(c_1,c_2)<\infty$であるので$h_2(d_1,d_2)<\infty$も成り立つ.このような議論は$d_1$および$d_2$の根拠についても成り立つことから,帰納的に$h_2(o_1,o_2)<\infty$も成り立つ.しかし,これは前提である$h_2(o_1,o_2)=\infty$と矛盾する.以上から,$R'$は,常に機能リテラル間の単一化を導く.\end{proof}次に,$R'$における機能リテラル$f_1$,$f_2$の単一化仮説生成操作が,常に不正な等価仮説を導くことを示す.\begin{proof}$f_1$,$f_2$の親をそれぞれ$p_1$,$p_2$とおき,$p_1$,$p_2$が同一事象を表し得ない,すなわち$h_2(p_1,p_2)=\infty$であることを,背理法により示す.背理法の仮定は,$h_2(p_1,p_2)<\infty$である.この仮定のもとでは,機能リテラルにおける述語間距離の計算手続きより,$h_2(f_1,f_2)<\infty$となるので,$f_1$,$f_2$を経由する$o_1$,$o_2$についても同様に$h_2(o_1,o_2)<\infty$となる.しかし,これは前提である$h_2(o_1,o_2)=\infty$と矛盾する.この事から,$h_2(p_1,p_2)=\infty$であり,$R'$によって単一化仮説生成の対象である機能リテラルの親は,それぞれ同一事象には成り得ないこと,すなわち不正な等価仮説を導くことが示された.\end{proof}以上から,提案手法を適用することによって除外される推論パスの集合$\mathbb{R}$は,最初に挙げた4つの場合のほかには,機能リテラルに対する単一化仮説生成操作を含み,かつそれらの親が同一事象に成り得ず,不正な等価仮説を導く場合に限定される.ゆえに,すべての$R\in\mathbb{R}$について,$R$から生成される候補仮説は解仮説とならないことが証明される.以上より,本手法によって得られる解は最適性を保つ.\begin{biography}\bioauthor{山本風人}{1987年生.2011年東北大学工学部知能情報システム総合学科卒.2013年東北大学大学院情報科学研究科博士前期課程修了.2016年東北大学大学院情報科学研究科博士後期課程修了,日本電気株式会社入社,現在に至る.自然言語処理の研究に従事.}\bioauthor{井之上直也}{1985年生.2008年武蔵大学経済学部経済学科卒業.2010年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2013年東北大学大学院情報科学研究科博士後期課程修了.2015年より東北大学大学院情報科学研究科助教,現在に至る.自然言語処理の研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{乾健太郎}{1995年東京工業大学大学院情報理工学研究科博士課程修了.同研究科助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より東北大学大学院情報科学研究科教授,現在に至る.博士(工学).自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL,AAAI各会員.}\end{biography}\biodate\clearpage\clearpage\end{document}
| |
V08N01-07 | \section{はじめに}
自然言語処理では,機械翻訳システムの研究開発を中心に,過去10年以上にわたって多大な投資が行われ,言語解析アルゴリズムなど,大きく発展してきた(田中穂積1989;長尾真1996;田中穂積1999)が,解析の過程で発生する表現構造と意味に関する解釈の曖昧性の問題は,依然として大きな問題となっている.日本語の構文解析では,特に,述語間の係り受け関係の曖昧さ(白井ほか1995)と並列構造の識別(黒橋,長尾1994)が問題とされているが,名詞句(冨浦ほか1995;菊池,白井2000)や複合語(小林ほか1996)の構造の曖昧さも大きな問題である.英語では,前置詞句の係り先の曖昧さ(隅田ほか1994)などがクローズアップされている.また,機械翻訳では,訳文品質低下の最大の原因は,動詞や名詞の訳語の不適切さにある(麻野間,中岩1999)とも言われており,訳語選択の問題(桐澤ほか1999)は,解決の急がれる問題の一つとなっている.ところで,このような解釈の曖昧性が発生する原因は,解析アルゴリズムにあるのではなく,解析に使用される情報や知識の不足にある(Ikehara1996).曖昧性は,解析の途中で生じた複数の解釈の候補の中から,正しい解釈が選択できないことであるから,選択に必要な情報がある場合は発生しない.これに対して,解析アルゴリズムは,与えられた情報を使用して解釈を決定する手順であるから,優れたアルゴリズムでも,不足している情報を補うことは不可能である.従って,曖昧性の問題を解決するには,不足する情報を見極め,それが,与えられた表現から得られないときは,辞書や知識ベースとして外部から補うことが必要である.ここで,与えられた表現の意味を決定する問題について考えると,要素合成法の原理に従えば,表現の意味は,それを構成する単語から合成されることになる.すなわち,辞書によって各単語の語義が与えられると,それらの組み合わせによって表現の意味が決定できることになる.このような観点からの研究としては,単語に対して詳細な語彙情報を用意し,それを組み合わせて表現の意味解釈を生成する生成意味論の方法(Pustejovsky1995),オントロジーをベースとした知識処理の方法(Nierenburgetal.1992;武田ほか1995),言語処理のための意味表現の研究(内海ほか1993)などがある.しかし,現実の言語表現では,個々の単語の役割と意味は,与えられた表現の中で,その単語が占める位置に依存して決定しなければならない場合も多く,そのため,表現構造に関する知識や情報が必要となる.事例から情報を得て処理を進める方法(長尾1984;佐藤1992;SumitaandIida1992),単語の共起関係の情報を使用する方法(小林ほか1996;麻野間,中岩1999;PivaAlves,et.al.1998),さらには,単語の共起関係をパターン化する方法(池原ほか1993;宇津呂ほか1993;Almuallimet.al.1994b;池原ほか1997)などは,いずれも表現の構造に関する情報を使用している.このように,表現構造に関する情報は,曖昧性解消のための重要な手がかりと言えるが,解析に先立ってこれらの情報を網羅的に収集することは容易でない.通常,自然言語において,語彙に関する情報は,高々,数十万語が対象と見られるのに対して,その組み合わせである表現の場合は,ほぼ無限と言える.また,表現構造には,広い範囲で一般化できるものや,個別的で汎用化の困難なものなどがあり,ばらつきが大きい.そこで,本論文では,コーパスなどの言語データから曖昧性解消に必要な表現構造の知識を収集するための方法の一つとして,言語表現とその解釈の関係を変数とクラスの組からなる構造規則として表現し,学習用標本から半自動的に収集する方法を提案する\footnote{本論文では,従来の還元論的な方法で解決できない曖昧性を解消することを目指しており,曖昧さが問題となる表現をいくつかの部分的な表現の組に分解することはせず,一体として扱う.}.本方式では,対象とする表現を字面による文字列部分と変数部分(他の単語に置き換え可能な部分で,制約条件を単語の属性で記述する)からなるパターンで表わし,そのとき使用された変数の組によって表現構造を定義する.ところで,このような構造規則によって多様な言語表現をカバーするには,大量の標本が必要であり,必要とされる規則数も大きいと予想される.また,多数の規則を相互矛盾なく定義するには,文法属性だけでなく,粒度のきめ細かな(属性数の多い)意味属性の体系が必要になると予想される.ここで,従来の学習技術との関係をみると,種々の帰納的学習の方法が提案されてきたが,学習事例数,意味属性数,生成される規則数が共に大きい問題では計算が難しい.大規模な木構造からなる意味属性を使用する点から見ると,本論文の問題は,従来の格フレーム学習(Almuallim,etal.1994b)と同種の問題であり,(Haussler1988)の方法の適用が期待される.しかし,この方法は,学習事例数の増大に弱く,数千件以上の学習事例では実用的でない.また,事例数に強い方法としては,(Quinlan1993)の決定木学習の方法が知られているが,この方法は,木構造で表現されるような属性間の背景知識を使用する場合には適用できない.この問題を解決する方法として,木構造をフラットな属性列にエンコーディングするなど,いくつかの方法(Quinlan1993;Almuallinetal.1994b;アルモアリムほか1997)が提案されているが,いずれも,事例数,属性数,規則数が共に大きい問題に対する適用は容易でない\footnote{Quinlanの方法では次元数$N$個分の意味属性の木を組み合わせて一つの新しい木を作るのに対して,(Almuallimetal.1994a)の方法は,意味属性の木を次元数×意味属性数のビット列に展開する.これに対して,(アルモアリム1997)の方法は,エンコーディングをせずに,予め,事例を属性木に「流し」,ノード上に事例情報を蓄えておくことにより,直接計算を可能とするものである.本論文のように,事例数,属性数,規則数が共に大きい問題の場合,計算量は,Quinlanの方法の方が小さい.しかし,この方法は,意味属性のレベルに対して粒度がバランスしていないときは,精度が保証されない.}.そこで,本論文では,実用性を重視する観点から新しい方法を提案する.本方式の構造規則は,構造定義に使用された変数の数に着目して,一次元規則,二次元規則などの次元規則に分類されるが,解析精度を落とさず,汎用的な構造規則から順に生成することを考え,一次元規則から順に生成する.また,得られた各次元の構造規則に対し,木構造で表現された文法属性と意味属性の意味的包含関係を利用した自動的な汎化の方法を示す\footnote{本論文の方法では,必ずしも,必要最小限の規則のセットが生成されるとは限らない.最近の計算機の記憶容量を考え,無理なく実装可能なルール数に収斂すればよいと考える.}.本論文では,提案した方法を日本語名詞句に適用してその効果を確認する.具体的には,「$AのBのC$」の形の名詞句の事例から名詞$A$の係り先を決定するための解析規則を生成し,生成した規則を解析に使用してその適用範囲(カバー率)と解析正解率を求める.
\section{構造規則の記述方法}
\subsection{構造規則の基本型}自然言語処理において発生する解釈の曖昧さの種類はさまざまである.それを解消するために必要な情報も,文脈情報や常識,世界知識や専門知識などさまざまで,すべての種類の曖昧さを解決できるような情報をあらかじめ網羅的に準備することは困難である.ここで,従来の自然言語処理を見ると,表現の構造に関する知識は,文法知識として意味から分離し,表現の意味は,文法規則に従って語彙情報から合成する方法が一般的であった.しかし,実際の自然言語では,表現の構造とその意味を一体化して扱うことの必要な場合も多い.従来の言語解析で発生する解釈の曖昧さの多くは,むしろ,このような構造と意味に関する知識をあらかじめ準備することによって解決できる可能性がある.そこで,本論文では,このような知識を「構造規則」として,その形式を定義し,収集する方法を考える.さて,このような「構造規則」は,一般に,表現構造を定義する部分とその解釈を定義する部分から構成できる.このうち,言語表現の構造を記述する方法としては,木構造,リスト構造,意味ネットワークなど様々な方法がある.言語表現の構造的,意味的多義について考えると,文字列や品詞の並びから見た限りでは,類似または同等と思われるような表現が,統語的もしくは意味的に複数の解釈を持つことが問題である.そこで,対象とする表現構造を,言語表現そのものに近く,理解しやすい表現として,文字もしくは記号の連鎖からなる一次元的なパターンとして表現する.すなわち,構造規則の対象とする表現は,キーとなる文字列部分(「固定部」と称す)と形式的に他の単語や表現に置き換えられる部分(「変数部」または,単に「変数」とも言う)から構成されるパターンで表現する\footnote{例えば,「<名詞>から<名詞>への<名詞>」の表現パターンでは,2つの文字列「からの」,「への」を「固定部」,3つの<名詞>を「変数部」という.}.但し,前者は,字面で記述され,後者は,通常,記号で記述される.ここでは,このような構造規則は,曖昧性が問題となる表現の種類毎に収集されるものとする.例えば,名詞句「東京の叔父の息子」では,名詞「東京」の係り先の解釈が問題となるが,これは,「$AのBのC$」($A,B,C$は,いずれも名詞)の形の名詞句における名詞$A$の係り先の問題として構造規則を用意する.「美しい私の娘」における形容詞「美しい」の係り先の問題では,「形容詞+$AのB$」の表現構造における形容詞の係り先多義の問題として別の構造規則を作成する.また,名詞句「$AのB$」の英語への翻訳規則の場合,「山の頂上」(topofthemountain),「すべての学生」(allofthestudents),「私の友人」(myfriend),「嵐の夜」(stormynight),「京都の寺」(templeinKyoto)などのように,名詞$A$と名詞$B$の組み合わせの違いなどによって,訳し方に多義が存在するが,これも表現構造と解釈の関係として定義される.すなわち,「東京の叔父の息子」と「美しい私の娘」に対する係り受け解析では,異なる規則集合を作成する.また,名詞句「$A$の$B$」の翻訳の問題でも別の規則集合を作成する.このように,構造規則の対象とする表現を,曖昧性の問題となる表現の種類毎にパターン化した場合,表現パターン内の定数部分は省略し,変数部分のみによって表現構造を定義しても問題はないから,パターン化された表現の中から変数部分だけを取り出し,表現の構造を変数の組(tuple)として表現する.以上から,本論文では,多義解消のための構造規則の基本形を下記の通りとする.\vspace*{2mm}\begin{eqnarray}&{(A_1,A_2,A_3,\dots,A_N:C)}&\\&但し,{A_i}:変数部,{N}:変数の数,{C}:クラス&\nonumber\end{eqnarray}以下では,構造規則のうち,${A_1,A_2,A_3,\dots,A_N}$の部分を「構造定義部」,$C$の部分を「クラス定義部」と呼ぶ.\subsection{表現構造とクラスの記述}ところで,ほぼ無数とも言える言語表現をなるべく少ない構造規則でカバーするには,汎用性の高い構造規則を生成することが望まれが,一方,多彩な言語表現をカバーするためには,個別的な表現に対する規則も記述できる必要がある.そこで,汎用性の程度に応じて柔軟に規則を記述するため,「構造定義部」の変数${A_i}$は,下記に示す4種類の言葉もしくは記号のいずれかで記述するものとする.\begin{eqnarray}{A_i}=\left\{\begin{array}{@{\,}ll}*:&オールマイティ(無指定)\\文法属性:&品詞,活用行,活用形など\\意味属性:&単語の意味的用法を表す言葉\\字面:&標準表記された原文文字列\end{array}\right.\end{eqnarray}上記の変数は,「オールマイティ」,「文法属性」,「意味属性」,「字面」の順に適用範囲が広いと考えられる.すなわち,「オールマイティ」は,制約条件のないことを意味しており,最も汎用性が高い.「文法属性」,「意味属性」では,使用する文法体系の違いなどによって,種々の分類法が考えられるが,通常,言語解析では「文法属性」は,数10程度に分類されるのに対して,「意味属性」は,数百から数千種類に分類される.これに対して,字面情報は,単語の数で見ても10万種類以上となり,それで定義された規則は汎用性に乏しい規則となるが,言語表現には,慣用句など字面指定によって解釈の決まるような表現も多数存在する.\begin{figure}[thb]\begin{center}\begin{epsf}\epsfile{file=zu1.eps,scale=0.9}\end{epsf}\begin{draft}\atari(338,306,1bp)\end{draft}\end{center}\vspace*{-4mm}\caption{文法属性体系の例\(日英機械翻訳システムALT-J/Eの場合)}\label{fig:ALT-J}\end{figure}\begin{figure}[thb]\begin{center}\begin{epsf}\epsfile{file=zu2.eps,width=\columnwidth}\end{epsf}\begin{draft}\atari(405,244,1bp)\end{draft}\end{center}\vspace*{-4mm}\caption{一般名詞意味属性体系の例(「日本語語彙体系」の場合)}\label{fig:一般名詞意味属性体系}\end{figure}本論文では,「文法属性」として,日英機械翻訳システムALT-J/Eで使用されている「文法属性体系」(池原ほか1987;宮崎ほか1995)を使用し,「意味属性」としては,「日本語語彙大系」(池原ほか1997)で定義された「単語意味属性体系」を使用する.文法属性体系と単語意味属性体系の一部を,それぞれ,図1,図2に示す.次に,式(1)のクラス定義部のクラス$C$は解釈を示す記号であり,構造規則の種類に応じて,統語的,意味的解釈を与える記号として使用される.例えば,前述の「$AのBのC$」の形の名詞句では,名詞$A$の係り先が名詞$B$の場合と名詞$C$の場合の2種類の解釈の可能性があるから,これを区別するには,構造規則では,$C=\{b係り,c係り\}$とすればよい.また,「形容詞$+AのB$」では,$C=\{a係り,b係り\}$となる.また,「$AのB$」の英訳規則の場合は,$C=\{\rm{of}型,\rm{in}型,所有代名詞型,\dots\}$のようになる.
\section{構造規則生成の基本的な考え方}
本章では,コーパスなどから得られた事例を対象に,構造規則を発見し汎化するための考え方について述べる.その方法は,表現構造が文法属性によって定義された構造規則(簡単のため,「文法属性規則」と言う)と意味属性によって定義された構造規則(同様,「意味属性規則」と言う)のいずれの場合も同様であるが,前者は,従来から検討されており,人手による標本分析で比較的容易に作成できるので,以下では,後者の場合を中心に述べる\footnote{表現が意味属性と文法属性の両者によって定義される構造規則の作成については,3.3(2)で触れる.}.\subsection{標本の収集と学習用事例の作成}以下では,コーパスなどの原文から抽出した表現の文字列とそれに対する解釈(クラス)からなるペアを「標本」,その集合を「標本集合」と呼び${S_0}$で表す.また,標本を式(1)の形式の書き換えたものを「事例」,その集合を「事例集合」と呼び,${S_1}$で表す.例として,「$AのBのC$」の形の名詞句に対する係り受け規則の場合の例を以下に示す.\begin{eqnarray}&&名詞句の標本集合{S_0}:私の母の友達(私\rightarrow母)\nonumber\\&&名詞句の事例集合{S_1}:(私,母,友達:{B})\\&&但し,{B}は,名詞A(「私」)が名詞B(「母」)に係ることを示す\nonumber\end{eqnarray}ここで,集合${S_1}$の中のすべての変数の値(字面)を対応する意味属性で置き換えて得られた事例集合を${S_2}$とする.上記の名詞句の事例では,${S_2}$の要素として,\begin{eqnarray}&&名詞句の事例集合{S_2}:(\#8「自称」,\#80「母」,\#125「友人」:B)\\&&但し,\#{n}は,意味属性番号,「」内は,意味属性名を表す.\nonumber\end{eqnarray}が得られる.以下では,簡単のため,これを,$(\#8,\#80,\#125:B)$または,$(8,80,125:B)$のように記す.\subsection{規則の次元分類とその発見}\subsubsection*{(1)特徴空間と構造規則の次元}前章で示した構造規則の記述方法に従えば,学習用事例${S_2}$も構造規則と同じ(1)式の形式で表現されるから,${S_2}$の各要素は,それ自体,構造規則と見なすことができる.事例からのこのような規則生成では,帰納的推論の方法(長尾1988)の適用が考えられる.そこで,式(1)の構造定義部で指定された$N$個の変数に対して,各変数を基底とする$N$次のベクトル空間(「特徴空間」とも言う)を考えると,各事例は,特徴空間上の点に対応するから,構造規則の生成は,この特徴空間内で,同一のクラスに属す部分空間を切り出す問題となる.この種の問題は,特徴空間が線形である場合,クラスタ分析もしくはクラスタリングの問題(安西1989;浅野,江島1996;Witten\&Frank1999)としても良く知られており,多変量解析,情報検索などの分野で研究されている.しかし,式(1)の構造定義部で与えられる各基底はいずれも非線形である\footnote{例えば,意味属性で表現された変数の場合,変数の値は,意味属性番号である.意味属性番号間では加法定理は成り立たず,特徴空間上で事例間の距離もしくはノルムを定義することができない.}ため,計算は簡単でない.基底がis-a関係で結ばれた木構造となる場合については,(Haussler1988)の方法があるが,学習事例が多い場合は,適用困難である.また,事例数の大きい問題への適用を狙った方法として,意味属性の木構造をエンコーディングした後,既存の計算プログラムC4.5を使用する方法など(アルモアリムほか1997)もあるが,学習事例,基底数,(生成される)規則数が共に大きい場合は,やはり計算困難である.そこで,本論文では,変数の数に着目して構造規則を次元に分類し,意味属性間の包含関係に着目して規則を生成する方法を考える.さて,特徴空間上,同一のクラスに属す点の集合に対して構造規則は定義される.すなわち,構造規則は,一般に,$N$次空間上の点,もしくは,特定の領域に対応する.これに対して,$N$個の変数のうち$K$個の変数がオールマイティ「$*$」で表現された規則は,$K$次元だけ縮退された規則となり,$N-K$次元の空間内のベクトルで表現されるが,$N$次元空間で見れば,$N-K$次元の立方体に対応する規則であり,この立方体内に属す事例に適用される.例えば,三次元の構造規則(${A_1}$,${A_2}$,${A_3}$:$C$)において,${A_1}$,${A_2}$,${A_3}$の何れかを「$*$」で置き換えた規則(例えば,($*$,${A_2}$,${A_3}$:$C$))は,三次元空間上の線に対応する規則となり,2変数を「$*$」で置き換えた規則(例えば,($*$,${A_2}$,$*$:$C$))は,三次元空間上の面に対応する規則となる.以上から,構造規則をそれが定義される特性空間の次元に従って,一次元規則から$N$次元規則までの$N$種類に分類する.\subsubsection*{(2)構造規則発見の方法}事例集合${S_2}$から構造規則を生成するための基本的な考え方について述べる.対象とする表現の意味は,その前後の文脈に依存せず,与えられた表現だけで決定できると仮定\footnote{文脈依存のある場合は,クラスが一意に決定できる範囲まで,構造定義の範囲を拡大すればよい.}すると,対象とする表現とそのクラスが1対1の関係を持つ.すなわち,標本集合${S_0}$と事例集合${S_1}$において,同一の表現構造が異なるクラスに属す要素はない.しかし,字面を意味属性に置き換えて得られた集合${S_2}$では,構造定義部とクラス定義部が1対1に対応する場合と,1対1には対応せず,同一の構造に対して異なる複数のクラスが対応する場合が存在すると考えられる\footnote{要するに,字面レベルでは,表現とクラスの関係は,1対1であるが,意味属性に置き換えた表現では,必ずしも1対1にならない.}.このうち,前者は,構造定義部で定義された表現の解釈は一意に決定できることを意味しているから,このような部分集合から「意味属性規則」が生成できる\footnote{得られる規則の精度は,部分集合に属す事例数に依存する.そのため,後に述べるように目標とする精度に応じた閾値を設け,その値以上の事例数の部分集合から規則を生成する.}.すなわち,\vspace{\baselineskip}\begin{enumerate}\item集合${S_2}$の要素を構造定義部の等しい要素毎に分類する.分類されたグループ内の要素が,いずれも同一のクラスを持つとき,そのグループから一つの構造規則が生成できる.生成された規則は,該当するグループの要素数が多いほど,信頼性が高い.\item分類されたグループ内の要素のクラスが一致しないときは,そのグループからは構造規則は生成できない.その場合,「意味属性規則」は存在しないと判断できるから,もとの${S_2}$の要素(字面表記)を構造規則(「字面規則」と呼ぶ)とする.\end{enumerate}\vspace{\baselineskip}このうち,(1)で得られる構造規則は,構造定義に使用された意味属性相互の包含関係を使用すれば,さらにグループ化することができて,より汎用的な規則の生成が期待できる.これに対して,(2)で得られた規則は,一般化の困難な表現,すなわち慣用表現に類する表現の規則であると推定されるから,汎化の対象外となる\footnote{表現構造を定義する$N$個の変数のすべてが単語字面で記述された規則が生成されるが,その中には,一部の単語字面を意味属性に置き換えてよい(汎化できる)規則が含まれている可能性がある.そのような規則は,意味属性から文法属性への書き換えの場合(3.3(2)参照)と同様,人手によって発見し,汎化するものとする.}.\subsection{規則生成の順序と汎化}\subsubsection*{(1)構造規則の生成順序と適用順序}すでに述べた一次元規則から$N$次元規則までの規則では,次元の小さい規則ほど制約条件が少なく,汎用性が高い.また,そのような規則は高速に適用できるから,規則生成においては,一次元規則から順に生成する\footnote{明確な証明はないが,従来,単純な規則と複雑な規則が混在しているときは,単純な規則の方を優先する方が良さそうだ(「オッカムのかみそり」の原則)と言われている.C4.5でも,決定木の生成順序の決定で同様の作戦が用いられている.}.このとき,規則生成で使用された学習事例を後の規則生成で再び使用するか否かが問題となる.\begin{figure}[thb]\begin{center}\begin{epsf}\epsfile{file=zu3.eps,scale=0.9}\end{epsf}\begin{draft}\atari(317,144,1bp)\end{draft}\end{center}\vspace*{-4mm}\caption{構造規則汎化の方法}\label{fig:構造規則汎化の方法}\end{figure}ここで,言語解析では,得られた規則をその生成順に適用することとすると,後に生成された規則が,それ以前に生成された規則の適用範囲に適用されることはないから,後に生成された規則が先に適用される規則の適用範囲を含んでいても何ら問題は発生しない.そこで,規則生成では,図3の例に示すように,生成に使用した事例は,事例集合から削除し,後の規則生成は,残された事例を対象に進める.このように,事例の特徴空間から,ある部分的な空間から規則を抽出した後,その空間に含まれる事例を消去すると,その後の規則生成では,より広い範囲での汎化が期待できる\footnote{すでに述べたように,特徴空間は非線形であるので,汎化を進めるに当たって,空間を単純に拡張併合することができない.汎化の具体的方法は4章で述べる.}.以下では,この方法を「逐次型生成\footnote{これに対して,すべての事例を対象に,各次元を規則を生成する方法を「同時型生成」と呼ぶ.「同時型生成」については,後述する.なお,これらの方法は,事例呈示法の分類から見るといずれも「同時提示(simutaneouspresentation)」に属すもので,段階的に学習事例を提示する「逐次提示(incrementalpresentation)」ではない.}」と呼ぶ.以上から,構造規則生成の手順をまとめると,以下の通りとなる.\vspace{\baselineskip}\noindent{\bf<構造規則生成の手順>}\begin{enumerate}\item事例集合${S_1}$から,事例集合${S_2}$を作成する.${S_2}$は,${S_1}$の各標本内の変数部分の単語をその単語の属す意味属性番号に置き換えたものである.\item事例集合${S_2}$から,一次元規則の集合${R_1}$を生成し汎化する\footnote{全体が$N$次元からなる構造規則の場合,一次元規則は,指定される意味属性の位置によって$N$タイプの規則に分類される.$i$次元規則の場合,タイプの数は$_N\rm{C}_i$となる.総合的な品質が,生成する規則のタイプの順序に依存するかどうかは,実際に生成した規則によって判断する.後に述べるように,本論文の例題では,同次元内で構造規則の生成順序を変えても,得られる規則全体の精度は変わらなかった.}.そのとき,規則生成に使用した事例は,${S_2}$集合から削除する.\item上記で残った事例${S_2}$から,二次元規則の集合${R_2}$を生成し,汎化する.そのとき,規則生成に使用した学習事例は,${S_2}$集合から削除する.\item以下同様にして,$N$次元までの規則集合${R_i(1\leqi\leqN)}$を生成する.\item以上の結果,残された学習用事例${S_2}$の要素に対して,その元となった事例標本の集合を${R_e}$とする.(${R_e}$は,事例そのものであるが,同時に構造規則でもある.)\end{enumerate}\vspace{\baselineskip}なお,各次元規則の生成と汎化の方法は,次章で述べる.以上で得られる構造規則の種類は,以下の通りである.\begin{eqnarray}&(1)&「意味属性規則」の集合\\\\\{\sum_{i=1}^NR_i}\\&(2)&「字面規則」の集合\\\\\\\\\\\\{R_e}\end{eqnarray}\subsubsection*{(2)文法属性を使用した規則への汎化}以上の方法で生成された構造規則を対象に,構造定義部の意味属性を文法属性に置き換えてよい規則の組を探して,それらを文法属性による規則に置き換える.置き換えられた規則では,次元やタイプの異なる複数の構造規則が縮退されるため,適用順序の情報が失われる.従って,書き換え後の規則は,適用順序に依存しない独立した規則である必要がある.そこで,ここでは,書き換えの可否は,人手により判断するものとする.さて,前項までで得られる構造規則は,変数部分がいずれも「オールマイティ」,「意味属性」,「字面」の何れかで記述された規則である.ここで,「意味属性」で記述された規則の組を「転生名詞」,「時詞」,「形式名詞」など,より汎用な「文法属性」で記述された規則に汎化することを考える.一つの「文法属性」に複数の「意味属性」が対応することに着目し,各文法属性毎に,それと対応した意味属性を持つ規則を集め,該当する意味属性の部分を文法属性で置き換えた規則を作成する.新しい規則の作成では,後に述べる意味属性規則の汎化と同様,着目する意味属性以外の要素の同一性に注意する必要がある.また,書き換え後の規則の独立性を保証するため,木構造上,置き換え対象となる規則の適用領域内に他の規則が存在していないことを確認する必要がある\footnote{以上の処理は機械化することも可能であるが,文法属性は数が少ないため,人手作業とした.}.このようにして得られた文法規則を,文法属性の上下関係に着目して,さらに汎化する場合も同様である\footnote{意味属性数に比べて文法属性数は数が少なく,書き換え可能な文法属性は予想がつきやすいので,いずれの場合も,狙いを定めて書き換えの可能性を調べるとよい.但し,文法属性の場合,属性数が少ないことから,汎化による規則数削減の効果は,あまり期待できない.「文法属性規則」は,人手による標本分析で比較的容易に作成できるため,既存のシステムでは,すでに,構造解析規則として使用されている場合が多いと予想されるのに対して,従来の構文解析で解決できなかったような曖昧性を意味解析によって解消するためには,当面,意味属性による規則の収集ができることが要請される.}.なお,一般に,構造規則において,表現構造定義部は,字面,意味属性,文法属性などの混在する形式で記述できるから,上記の置き換えは,可能な変数のみを対象とすればよい.
\section{構造規則の生成手順}
各次元の「意味属性規則」を生成し,汎化する方法について述べる.\subsection{一次元規則の生成}\subsubsection*{(1)一次元規則の発見}さて,一次元規則を発見する方法について述べる.まず,表現構造を規定する$N$個の変数に対応して,$N$個の意味属性体系の木を用意する.用意した各木のノードに「事例数リスト(${n_1,n_2,\dots,n_K}$)」を対応させる.但し,${n_i}$は,該当するノードの意味属性を持つクラス$i$の事例数で,$K$はクラスの数である.例えば,$m$番目の変数に対応する意味属性体系の木の$\#j$番目のノードの場合,${n_i}$は,事例集合${S_2}$の中で,$m$番目の変数の値が$\#j$である要素の数を表す.以下では,このようにして得られた意味属性体系の木を「意味属性数の木」と呼ぶ.\begin{figure}[thb]\begin{center}\begin{epsf}\epsfile{file=zu4.eps,scale=0.9}\end{epsf}\begin{draft}\atari(378,155,1bp)\end{draft}\end{center}\vspace*{-4mm}\caption{「意味属性の木」と一次元規則の発見}\label{fig:「意味属性の木」と一次元規則の発見}\end{figure}図4に,クラス数$K=2$の場合について,構造定義部の$m$番目の変数に対応した「意味属性数の木」の例を示す.ここで,必要十分の標本データから「意味属性数の木」が求められているとし,$m$番目の属性の木の$\#j$番目のノードに付与された「事例数リスト」$({n_1,n_2,\dots,n_K})$の各数値について考える.各クラスの事例数を示す$K$個の数値のうち,$i$番目のクラスの事例数${n_i}$を除くすべての事例数が0であるとすると,このノードの表す事例,すなわち,$m$番目の変数が$\#j$番目の意味属性であるような事例は,他の変数($m$番目の変数以外)の値とは無関係に,すべてクラス$i$に属すことになる.従って,このノードから,一次元の構造規則$(*,\dots,*,j,*,\dots,*:i)$を生成する.但し,$\#j$は,先頭から$m$番目の変数の値である.このとき,規則生成の対象となったノードの「事例数リスト」の値は,すべてゼロにリセットする.「意味属性数の木」のノードで,事例数リストが0でない要素を2つ以上を持つノードでは,一次元規則は存在しないから,そのまま残しておき,後に述べるような二次元以上の規則生成を試みる.なお,すべての要素が0であるようなノードでは,構造規則を生成しない.\subsubsection*{(2)一次元規則の汎化}構造規則は,精度を失わない限り,汎用性が高く,規則数の少ない方がよい.意味属性体系上の上位の意味属性の語の性質は,下位の意味属性の語に伝搬することに着目すると,構造規則において,ある意味属性が指定されているとき,その意味属性の配下の意味属性を持つ語はすべて指定条件を満たすものと解釈される\footnote{前項の方法で生成された構造規則は,規則の定義で使用された意味属性に直属する単語の範囲にのみ適用され,その意味属性の配下にある意味属性では,別の構造規則が使用される.従って,上位の意味属性からなる規則が下位の意味属性の規則を包含するとはいえない.しかし,言語解析に適用する規則を選択するときは,表現に使用された単語の意味属性から順に上位の意味属性を辿り,最も近くの意味属性で記述された構造規則を選択すれば,それが適用すべき規則である.}.そこで,「意味属性数の木」のなかで,一次元規則の生成で使用されたノードに着目する.このノードから生成された一次元規則のクラスが$C$であり,かつ,その下位ノードのいずれからも同じクラス$C$の構造規則が生成されるとする.ただし,下位ノードには,対応する事例が存在せず,すべての要素がゼロとなる事例数リストは存在しても良いが,ゼロでないような要素が複数存在する事例数リストはないものとする.このとき,下位ノードから得られる規則は,着目したノードの規則で代表することができる.汎化は,このように,「事例数リスト」が上位ノードに畳み込めるようなノードを発見し,そのノードから生成された規則を削除することによって行われる.具体的には,下位ノードから汎化を開始し,順次,上位ノードに向かって汎化を進める.一度,汎化の結果得られたノードも,上記の条件を満たす限り,さらに上位ノードに縮退される.\begin{figure}[thb]\begin{center}\begin{epsf}\epsfile{file=zu5.eps,scale=0.9}\end{epsf}\begin{draft}\atari(317,279,1bp)\end{draft}\end{center}\vspace*{-4mm}\caption{一次元規則の汎化の方法\(クラス数$K=2$の場合)}\label{fig:一次元規則の汎化の方法}\end{figure}図5に,クラス数$K=2$の場合の例を示す.図中,(a)では,$\#165$のノードの配下に,$\#166$,$\#185$の2つのノードがあるが,それらに属す事例(それぞれ,14件,21件)は,いずれも,$\#165$ノードの事例(18件)と同じく,クラス1の事例であるので,上位ノードに畳み込まれ,$\#165$ノードの事例数リストは,$(53,0)$となる.このとき,2つの下位ノートの事例数リストの値は,0にクリアされる.図中の(b)は,クラス2の場合の例で,以下同様である.\subsection{二次元以上の規則の生成}\subsubsection*{(1)二次元規則の発見}二次元規則では,表現を規定する$N$個の変数のうち,2個の変数の値が与えられるとクラスが決定されるから,得られる規則は,指定される変数の組み合わせによって,${N(N-1)/2}$組に分類される.以下では,そのうちの任意の一組の規則について考える.さて,対象とする表現が,${m_1}$番目の変数と${m_2}$番目の変数で定義されるような二次元の構造規則(${m_1\leqm_2}$とする)を抽出する.${m_1}$番目と${m_2}$番目の「意味属性数の木」の情報から,行番号,列番号をそれぞれの「属性数の木」のノード番号(意味属性番号)とし,要素を「事例数リスト」$({n_1,n_2,\dots,n_K})$とする二次元配列を作成する.但し,${n_i}$は,変数${m_1}$,${m_2}$の値が,それぞれ行番号,列番号で示される意味属性であるような事例のうち,クラスが$i$である事例の数を表す.図6に$K=2$の場合の例を示す.\begin{figure}[thb]\begin{center}\begin{epsf}\epsfile{file=zu6.eps,scale=0.9}\end{epsf}\begin{draft}\atari(358,124,1bp)\end{draft}\end{center}\vspace*{-4mm}\caption{二次元規則の抽出}\label{fig:二次元規則の抽出}\end{figure}一次元規則の場合とほぼ同様,二次元規則は,この二次元配列から求められる.その方法は以下の通りである.二次元配列の要素に示された$K$個の事例数のうち,どれか一つを除くすべての数値が0であるような要素を考える.このような要素は,該当する変数の位置に,配列上の行と列で表される意味属性の語が使用された事例では,例外なくそのクラスが一意に定まっていることを示している.このことにより二次元規則は容易に抽出できる.例えば,いま,$\#{j_1}$行$\#{j_2}$列の位置の要素$({n_1,n_2,\dots,n_K})$の値が,$(0,0,\dots,{n_i},0,\dots,0)$であるとすると,下式の二次元規則が得られる.\begin{eqnarray}&&{(*,\dots,\#j_1,*,\dots,\#j_2,*,\dots;i)}\\&&但し{n_i}\neq0,また,{\#j_1},{\#j_2}は意味属性番号で,変数リストの先頭より,\nonumber\\&&それぞれ,{m_1}番目,{m_2}番目に位置する.\nonumber\end{eqnarray}なお,一次元規則の場合と同様,規則生成後,当該ノードの事例数リストの値は,すべてゼロにリセットされる.\subsubsection*{(2)二次元規則の汎化}二次元規則は,前述の二次元配列を使用して汎化する.ただし,行と列で表される意味属性の上下関係(包含関係)の情報については,意味属性体系を参照する.この場合,表現を指定する変数が二種類あるため,二方向での汎化が必要な点を除けば,汎化の方法は,一次元規則の場合と同様である.図7に,クラス数$K=2$の場合の汎化の例を示す.図では,${m_1}$番目の変数の値が意味属性$\#125$配下にあり,${m_2}$番目の変数の値が意味属性$\#522$の配下にある二次元規則を汎化している.初めに,行方向の汎化で,9つの構造規則が3つの構造規則に縮退され,次に,列方向の汎化で,3つ構造規則が1つに縮退されるから,全体では,9つの構造規則が最終的に1つに縮退される.\begin{figure}[thb]\begin{center}\begin{epsf}\epsfile{file=zu7.eps,scale=0.7}\end{epsf}\begin{draft}\atari(337,446,1bp)\end{draft}\end{center}\vspace*{-4mm}\caption{二次元規則の汎化の例}\label{fig:二次元規則の汎化の例}\end{figure}この例では,行方向と列方向のいずれから汎化しても結果は変わらないが,場合によっては,汎化の順序によって縮退できる規則数に差が生じることが考えられる.従って,規則数の減少を図るため,双方向の汎化の結果を比べて,縮退できる規則数の大きい方を採用する.\subsubsection{(3)三次元以上の規則の抽出と汎化}二次元規則が事例数リストの二次元配列から得られたのと同様,$m$次元規則は,事例数リストの$m$次元配列から求められる.規則を求める方法とそれを汎化する方法は,次元数の違いを除けば,二次元規則の場合と同様である.\subsection{規則生成の閾値について}\subsubsection*{(1)規則生成対象となるノードの事例数}生成される規則の信頼性の観点から見たとき,事例数の少ないノードから生成された規則は信頼性に乏しい.従って,規則抽出は,ある程度以上の事例数を持つノードからに絞ることが望まれる.ここで,ある確率分布に従ってランダムに発生する事象を考えると,着目する現象の出現頻度はポアソン分布に従い,その信頼性は,その事象の出現回数の絶対値のみで決まる.そこで,規則生成のための事例数の閾値として,$\xi$件を設定する.すなわち,構造規則の生成においては,「事例数リスト」の数値の和(${n_1+n_2+}\dots$)が$\xi$以上となるノードを対象に,規則生成を試みる.\subsubsection*{(2)規則の精度を保証するための閾値}前節で示した各次元の規則生成では,事例の特徴空間上,例外なく同一のクラスの事例からなる空間からのみ構造規則を抽出し,それを汎化している.しかしこの方法では,ごくまれに発生する例外のため,規則が生成できないような場合が心配される.そこで,汎化の範囲をより拡大するため,この条件をゆるめ,規則生成の対象となる事例数に対して閾値$\gamma\%$を設ける.すなわち,規則生成において,クラス$C$に対する構造規則を生成するとき,クラス$C$以外のクラスの事例が$\gamma\%$以下であるノードの範囲まで特徴空間を広げて構造規則を生成する.汎化においても同様の基準を使用するものとする\footnote{決定木学習における枝刈りの方法としては,決定木を最後まで成長させてから,決定木上の一つ一つのノードの価値を調べ,悪影響の大きいノードから順に削除する方法と得られた決定木から規則集を生成して,精度の悪い規則を削除する方法がある(Mitechell1997)が,ここでは,計算量を削減するため,2つの単純な指標に基づき,規則生成の段階で生成の可否を判断する方法とした.}.閾値の値は,目標とする解析精度に依存して設定する必要がある.すなわち,閾値$\gamma\%$内の事例から得られた規則の場合,それを使用した解析では,最大$\gamma\%$の誤りが生じることが予想されるから,目標とする解析精度を$\eta\%$とするときは,閾値は,$\gamma\leq(100-\eta)\%$となるように設定する必要がある.
\section{名詞句への適用例}
前章で提案した構造規則の生成法を,係り受け関係に多義を持つ名詞句として典型的な「の型名詞句」に適用し,係り受け解析のための「意味属性規則」を生成する.また,生成された規則を解析に使用して,その精度を評価する.名詞句の意味については,すでに人手によって詳細な意味分類(島津ほか1986)が行われてきた.また,本章で対象とする「の型名詞句」についても,人手による標本分析の結果として種々のヒューリスティックスが提案されており,名詞間の接続強度と用例を併用した解析方法の研究(江尻,宮崎1998)では,9割前後の係り受け精度が達成されている.しかし,計算機による解析では,解析精度の問題など,まだ多くの課題を残している.係り受け解析としては,コーパスに基づく方法として,単語の共起情報を用いて係り先を決定する方法(佐々木1995),複合名詞に意味クラスの共起情報を用いて係り先が決定される確率を求める方法(小林1996)などがある.名詞句翻訳では,生成語彙論の立場から,語彙情報によって英語表現を生成する方法(菊池,白井2000)もあるが,精度は不明である.また,大量の対訳例の中から意味的に類似した表現を発見し,翻訳結果を得る方法では,収集される用例は,通常,スパースであり,適切な用例がないときは,結果は保証されないことが問題であった.本論文の方法は,名詞句の持つ意味的な構造に着目した受け規則が生成できるので,比較的少ない事例から相対的にカバー範囲の広い構造規則が生成できると期待される.\subsection{意味属性規則の生成}\subsubsection{5.1.1\対象とする名詞句と実験の条件}\subsubsection*{(1)対象とする名詞句とその曖昧性}さて,2つの助詞「の」と3つの名詞$A,B,C$から構成された「$AのBのC$」の形の名詞句を考える.ただし,記号$A,B,C$は名詞の出現順序をも表すものとする.以下,この型の名詞句を単に「の型名詞句」という.日本語では,一般に,表現要素間に後方修飾の原則があることに注意すると,「の型名詞句」では,名詞$B$の係り先は名詞$C$に特定されるため,先頭の名詞$A$について,以下の2通りの係り受け解釈が存在する.但し,$\alpha\rightarrow\beta$は,$\alpha$が$\beta$に係ることを示す.\vspace{\baselineskip}\renewcommand{\labelenumi}{}\begin{enumerate}\item$A\rightarrowB$\(\&$B\rightarrowC$)の場合\\例)「\underline{私の母}の名前」,「\underline{浴室の脱衣場}の壁」\item$A\rightarrowC$\(\&$B\rightarrowC$)の場合\\例)「\underline{私の}昔の\underline{友達}」,「\underline{東京の}数学の\underline{教師}」\end{enumerate}以下では,簡単のため,1)を「$b$係り」,2)を「$c$係り」と呼ぶ.\subsubsection*{(2)解析規則の記述形式}名詞句「$AのBのC$」の構造を$(X,Y,X)$で表す.ただし,$X,Y,Z$は,それぞれ,名詞$A,B,C$の属す意味属性の番号とする.次に,この構造の名詞句に対する係り受け規則を式(1)の記法に従って,$(X,Y,X:D)$で表す.ただし,$D$は係り受けのタイプで,$D=b$は前方係り受け,$D=c$は後方係り受けを表すものとする.この規則を次元によって分類すると図8のようになる.\begin{figure}[htb]{\small\begin{tabular}{|cllc|}\hline\hspace*{40pt}&\multicolumn{2}{l}{一次元規則の種類$:(X,\*,\*:D),(\*,Y,\*:D),(\*,\*,Z:D)$}&\hspace{70pt}\\&\multicolumn{2}{l}{二次元規則の種類$:(X,Y,\*:D),(\*,Y,Z:D),(X,\*,Z:D)$}&\\&\multicolumn{2}{l}{三次元規則の種類$:(X,Y,Z:D)$}&\\&&&\\&但し,&$X$\:\名詞$A$の意味属性番号,\\$Y$\:\名詞Bの意味属性番号,&\\&&$Z$\:\名詞$C$の意味属性番号,&\\&&$D$\:\係り受けの種類($b$\:\前方係り,$c$\:\後方係り)&\\\hline\end{tabular}}\caption{生成する係り受け規則の種類}\end{figure}ここで,オールマイティ記号「*」は,名詞の意味属性のノード番号0に対応する.すなわち,ノード番号0は,ルートノードで,すべての名詞を表すから,係り受け規則上は,意味的制約のないことを意味する.以下では,図8の三種類,7タイプの構造規則を生成する.\subsubsection*{(3)実験対象と実験の手順}まず,小説100冊(新潮文庫)を対象に,形態素解析プログラムALT-JAWS(NTT1996)を使用して「の型名詞句」を抽出する.そのうちの1万件について,人手によって係り先を決定し,名詞句の事例集合${S_1}$を作成する.次に,「日本語意味属性体系」(池原ほか1997)に定義された「単語意味属性体系」を参照して,各名詞句標本の変数部分に相当する名詞を意味属性番号に置き換え\footnote{多くの名詞は,意味的に複数の用法を持つため,複数の意味属性に属すが,それが使用された表現では,意味的用法は,通常1つである.従って,与えられた名詞句では,各名詞が,どの意味で使用されているかを判定し,一つの意味属性を決定する必要がある.},事例集合${S_2}$を作成する.ただし,名詞は複数の意味的な用法を有する場合が多いが,ここでは,各名詞の名詞句内での意味を考え,単一の意味属性に置き換える.以下,このようにして得られた事例集合${S_2}$から構造規則を生成し,得られた規則を実際の名詞句の係り受け解析に適用する.解析結果を,あらかじめ人手で決定しておいた正解と比較して解析規則の解析精度を求める.実験は,10回のcross-validation法で行う.すなわち,まず,事例標本を規則生成用の9,000件と解析実験用の1,000件に分け,前者から,すでに述べた方法で解析規則を生成する.得られた規則を後者の標本の解析に適用して解析精度を求める.この手順を10回繰り返して得られた結果を平均して,生成される規則数とその精度を求める.図9に実験の手順を示す.\vspace*{-2mm}\begin{figure}[thb]\begin{center}\begin{epsf}\epsfile{file=zu9.eps,scale=0.8}\end{epsf}\begin{draft}\atari(402,171,1bp)\end{draft}\end{center}\vspace*{-4mm}\caption{実験の手順}\label{fig:実験の手順}\end{figure}\subsubsection{5.1.2\実験結果}\subsubsection*{(1)名詞句に使用された名詞とその意味属性}「の型名詞句」の標本1万件で使用されている名詞$A,B,C$の意味属性を集計した結果を表1に示す.この表で,「深さ」の欄は,意味属性体系上,該当する意味属性が,トップノードから何番目の深さにあるかを示す.数値が大きくなるにつれて,該当する名詞の意味の粒度が小さくなる.\begin{center}\setlength{\tabcolsep}{3pt}\small\begin{tabular}{|r|r|r|r|r|r|r|r|}\multicolumn{8}{c}{{\small{\bf表1}\\名詞と意味属性の関係}}\\\hline&&\multicolumn{2}{|c|}{名詞$A$}&\multicolumn{2}{|c|}{名詞$B$}&\multicolumn{2}{|c|}{名詞$C$}\\\cline{3-8}深さ&意味属性&異なり&適用度数&異なり&適用度数&異なり&適用度数\\&の総数&属性数&&属性数&&属性数&\\\hline0&1&1&9&0&0&1&3\\\hline1&2&0&0&0&0&0&0\\\hline2&6&2&11&0&0&2&292\\\hline3&21&12&82&13&102&12&216\\\hline4&106&56&1,580&57&843&60&871\\\hline5&256&129&1,069&161&1,973&156&3,096\\\hline6&536&219&2,051&263&2,099&244&2,354\\\hline7&827&272&2,689&382&2,275&349&1,473\\\hline8&687&262&2,020&354&2,020&307&1,272\\\hline9&211&78&474&99&653&86&403\\\hline10&40&6&7&9&24&8&16\\\hline11&16&6&8&7&11&4&4\\\hline計&2,709&1,063&10,000&1,345&10,000&1,231&10,000\\\hline\end{tabular}\end{center}これより,以下のことが分かる.\vspace{\baselineskip}\renewcommand{\labelenumi}{}\begin{enumerate}\item使用された意味属性は,いずれの名詞の場合も意味属性全体の半分以下であり,意味的に見て,名詞の種類全体をカバーする範囲にはない.\item使用された意味属性当たりの標本数は,平均7〜10件である.\item名詞$C$は,名詞$A,B$に比べて,浅い意味属性の名詞,すなわち,粒度の大きい名詞が使用される傾向がある.\end{enumerate}\vspace{\baselineskip}ここで,木構造上のノード(意味属性)に対応した構造規則が生成されることを考えると,2)より,ほぼ7〜10件程度の事例から1構造規則が生成されると見込まれる\footnote{構造規則は,1〜3個の意味属性によって記述されるから,実際は,規則当たりの事例数は,もう少し小さくなると予想される.}.その場合,規則生成の対象となるノードが反事例を持たないとすると,得られる規則の精度は,約$80\%$以上となることが期待できる.また,3)は,名詞句「$AのBのC$」において,名詞$C$の意味は,名詞$A$または名詞$B$によって限定されることの多いことを物語っている.\subsubsection{(2)実験結果}構造規則生成実験によって生成された規則数とそれを使用した名詞句の解析実験の結果をまとめて表2に示す.表中,「デフォールト規則」の欄は,解析実験において,適用できる規則が存在しない事例はすべて,「b係り」と解釈したことを示す.規則生成に使用する事例数の閾値$\xi$は,一次元規則と二次元規則の生成では2,三次元規則の生成では,1とし,例外事例に関する閾値$\gamma$は0とした.なお,一次元規則,二次元規則の生成において,それぞれの3タイプの構造規則の生成順序を変えても得られた構造規則全体の解析精度は変わらなかった.\vspace{\baselineskip}\noindent{\bf<規則抽出結果>}表2から,構造規則生成の結果について以下のことが分かる.\vspace{\baselineskip}\begin{enumerate}\item得られた意味属性規則数は,全体で1,815件である.この規則は,9,000件の事例から得られているから,平均してみれば,5事例から1規則得られたことになる.\item各次元規則の中で,二次元規則の数が最も多く,$80\%$以上を占めている.\item三次元規則は,136件で,他の次元の規則に比べて最小である.\end{enumerate}\vspace{\baselineskip}このうち,2),3)から,この種の名詞句は,三つの名詞のうち二つの意味関係によって係り受け関係が決まることが多く,三つの名詞すべてに依存する場合は少ないことが分かる\footnote{例えば,二次元規則では,2つの名詞の意味属性によって係り受け関係が決定できるが,このことは,全体を2つの名詞の組に分けてもよいことを意味しない.何次元のどのタイプの規則が生成されるかは名詞句で使用される名詞の位置と意味によって決まるからである.}.\begin{center}\setlength{\tabcolsep}{3pt}\small\begin{tabular}{|c|c|c|c|c|c|c|c|}\multicolumn{8}{c}{{\small{\bf表2}\\生成された構造規則の数と精度}}\\\hline番号*&構造規則種別&規則のタイプ&\multicolumn{2}{c|}{得られた規則数}&規則適用回数&累積の事例数&精度\\\hline1&&$(X,*,*:D)$&89.6&&800\(8.0\%)&800\(8.0\%)&92.0\%\\\cline{1-1}\cline{3-3}\cline{4-4}\cline{6-8}2&一次元規則&$(*,Y,*:D)$&81.5&小計&591\(5.9\%)&1,391\(13.9\%)&88.7\%\\\cline{1-1}\cline{3-3}\cline{4-4}\cline{6-8}3&&$(*,*,Z:D)$&27.3&198&253\(2.5\%)&1,644\(16.4\%)&89.3\%\\\hline4&&$(X,Y,*:D)$&888.8&&4,187\(41.9\%)&5,831\(58.3\%)&90.6\%\\\cline{1-1}\cline{3-3}\cline{4-4}\cline{6-8}5&二次元規則&$(*,Y,Z:D)$&355.1&小計&1,917\(19.2\%)&7,748\(77.5\%)&89.0\%\\\cline{1-1}\cline{3-3}\cline{4-4}\cline{6-8}6&&$(X,*,Z:D)$&236.2&1480&782\(7.8\%)&8,530\(85.3\%)&77.5\%\\\hline7&三次元規則&$(X,Y,Z:D)$&\multicolumn{2}{c|}{136}&453\(4.5\%)&8,983\(89.8\%)&68.4\%\\\hline------&合計&---------&\multicolumn{2}{c|}{1,815}&8,983&8,983\(89.8\%)&88.0\%\\\hline----&デフォールト規則&$b$係り&\multicolumn{2}{c|}{----}&1,017\(10.2\%)&10,000\(100\%)&66.6\%\\\hline\multicolumn{2}{|c|}{合計}&-----&\multicolumn{2}{c|}{1,815}&10,000\(100\%)&10,000\(100\%)&85.8\%\\\hline\multicolumn{8}{c}{($*$.)規則生成の順序,及び解析での規則適用の順序}\end{tabular}\end{center}\hspace*{-5mm}{\bf<解析実験結果>}次に,上記の解析規則を使用した名詞句解析実験の結果から,以下のことが観察される.\begin{enumerate}\item1万件の事例から全体で,カバー率$89.8\%$の規則が得られる.また,規則のカバーする範囲の解析正解率は,平均$88.0\%$である.\item一次元規則と二次元規則の精度は,ほぼ,同程度であるのに対して,三次元規則の精度は低い.\item適用できる規則の存在しない事例は,すべて,「b係り」と解釈した結果,全体の正解率は,$85.8\%$である.\end{enumerate}\vspace{\baselineskip}このうち1)は,従来の人手で作成された規則(宍倉,宮崎1995;江尻,宮崎1998)の精度($90\%$前後)より若干低いが,本論文と同一の名詞句に対する従来の要素合成法的な解析規則(中井ほか1998)より,かなり優れている\footnote{名詞句「$AのBのC$」を「$AのB$」と「$AのC$」に分け,それぞれの名詞の結合強度を意味属性間の共起頻度で評価することによって,名詞$A$の係り先を決定する方法である.本論文と同一の意味属性(2,700)を使用した結果では,使用する意味属性を81種に絞ったとき,全体の係り受け精度は最大($72\%$)になる.この結果から,名詞句を分割する還元論的な方法に比べて,要素分割をしないwhole方式の効果はかなり大きいこと(この問題の場合,$86\%-72\%=14\%$)が推定される.}.2)は,一次元規則と二次元規則を生成する段階で,事例の多くが使用済みとなり,三次元規則の生成に使用された事例が少ないためと考えられる.また,3)の値は,人間でも判断に迷う事例が$10\%$程度存在する\footnote{実験では,各事例に対して三人の人手によって係り先を付与し,多数決によって正解を決定した.}ことを考えると,かなり良い値と解釈される.\subsection{文法属性規則の作成と意味属性規則との併用}前節で使用した名詞句の事例から,「文法属性規則」を作成する場合,また,それを,「意味属性規則」と併用する場合についての例を示す.\subsubsection*{(1)文法属性規則の生成}「$AのBのC$」の形の名詞句では,変数部分はすべて名詞であるため,図1の文法属性体系の中の体言(名詞)の部分で示される文法属性を使用した構造規則を考える.具体的には,使用する文法体系は図10の通りとする.\begin{figure}[thb]\begin{center}\begin{epsf}\epsfile{file=zu10.eps,scale=0.8}\end{epsf}\begin{draft}\atari(301,321,1bp)\end{draft}\end{center}\vspace*{-4mm}\caption{名詞の文法属性体系}\label{fig:名詞の文法属性体系}\end{figure}ここで,図10の構造を見ると,各文法属性間の段数は少ないから,最終段の文法属性のみを使用した構造規則を生成する.このようなフラットな分類では,決定木を作り,それより式(1)の形式の規則を作成する方法が便利である.ここでは,決定木生成では,プログラムC4.5(Quinlan1995)を使用する.その結果,得られた規則のカバー率は,$91.8\%$,また,その範囲での正解率は,$84.8\%$であった.従って,全体の正解率は,$77.8\%$である.得られた構造規則のうち,正解率$85\%$以上を示したものを表3に示す.\begin{center}\setlength{\tabcolsep}{3pt}\small\begin{tabular}{|c|l|l|}\multicolumn{3}{c}{{\small{\bf表3}\\解析精度の良い構造規則(正解率$85\%$以上)}}\\\hline\#&\multicolumn{1}{c|}{文法属性による構造規則}&\multicolumn{1}{c|}{適用される名詞句の例}\\\hline1&$(\*\,<形式名詞>,\*\:B)$&「昔のままの姿」,「大人のための物語」\\\hline2&$(\*\,\*\,<形式名詞>:B)$&「玄関の石段のところ」,「声楽の勉強のため」\\\hline3&$(\*\,<指示代名詞>,\*\:B)$&「湿原の向こうの林」,「海の彼方の国々」\\\hline4&$(\*\,\*\,<副詞型名詞>:B)$&「彼の小説の数々」,「新宿の二丁目の近く」\\\hline5&$(\*\,\*\,<指示代名詞>:B)$&「窓のガラスの向う」,「逢坂の関の彼方」\\\hline6&$(\*\,<形容詞転生型>,\*\:B)$&「事件の残酷さの意味」,「もとの静けさのなか」\\\hline7&$(\*\,<動詞転生型\(自)>,\*\:B)$&「砂のくぼみの中」,「岬のつづきの丘」\\\hline8&$(<人称代名詞>,<サ変動詞型\(他)>,\*:B)$&「彼の指揮の下」,「私たちの受験の頃」\\\hline9&$(<指示代名詞>,\*\,\*\:B)$&「ここの学校の子」,「こちらの膝の上」\\\hline10&$(\*\,\*\,<時詞>:B)$&「父の死の直前」,「山本の訓示のあと」\\\hline11&$(\*\,<サ変動詞型\(自他)>,\*\:B)$&「ピアノの稽古のため」,「司祭の不在の間」\\\hline12&$(\*\,\*\,<形容詞転生型>:B)$&「漁夫の生活の厳しさ」,「父の声の暗さ」\\\hline\end{tabular}\end{center}これらの結果から,以下のことが分かる.\vspace{\baselineskip}\begin{enumerate}\item得られた規則のカバー率は,意味属性を使用した場合に比べて若干高い.\item得られた規則の正解率は,意味属性を使用した場合に比べて低い.\end{enumerate}\vspace{\baselineskip}このうち,1)は,意味属性に比べて文法属性の方がカバー範囲が大きいためと考えられる.また,2)は,意味属性に比べて品詞コードの分類が少ないこと,中でも大半の事例を構成する名詞は,「一般名詞」に属すため,分解能が低いことが原因と考えられる.\subsubsection*{(2)文法属性規則の作成}文法属性による規則として,どのような規則があるかについては,従来から検討されており(穴倉,宮崎1995),人間による標本分析で比較的容易に推定することができる.ここでは,「の型名詞句」において同格の「の」が使用された事例の解析に適用するための「文法属性規則」を考える.ところで,名詞句「$AのB$」において,助詞「の」が同格を意味する場合は,以下の二つの場合が代表的である.\renewcommand{\labelenumi}{}\renewcommand{\labelitemi}{}\begin{enumerate}\item人名を含む同格表現\begin{itemize}\item名詞$A$:\意味属性が,「人」で,文法属性が,「固有名詞(姓)(名)」でない名詞\item名詞$B$:\意味属性は,「人」で,文法属性が,「固有名詞(姓)(名)」である名詞\end{itemize}\item地名を含む同格表現\begin{itemize}\item名詞$A$:\意味属性は,「地域」で,文法属性が,「固有名詞(地名)」でない名詞\item名詞$B$:\意味属性は,「地域」で,文法属性が,「固有名詞(地名)」である名詞\end{itemize}\end{enumerate}\vspace{\baselineskip}前節で使用した1万件の名詞句のうち,人名,地名を含む同格表現,それぞれ,102件,13件に対して,上記の規則を適用した結果によれば,カバー率は,それぞれ,$74.5\%$,$100\%$で,正解率はいずれも$100\%$であった.\subsubsection*{(3)「文法属性規則」と「意味属性規則」の併用}今までの実験結果から見ると,「文法属性規則」に比べて,「意味属性規則」の方が総合的な解析精度は高いと言えるが,表現によっては,「文法属性規則」の方が精度の良い場合もある.そこで,ここでは,両者を組み合わせて使用する場合の効果について評価する.具体的には,4.1で得られた「意味属性規則」のそれぞれの正解率と4.2.1で得られた「文法属性規則」の正解率に基づき,以下の手順で解析実験を行う.\vspace{\baselineskip}\renewcommand{\labelenumi}{}\begin{enumerate}\itemまず,「文法属性規則」のうち,精度がある一定値$\eta\%$以上の規則を使用して,係り受け解析を行う.\item次に,1)で係り受け関係が決定できなかった標本に対して,「意味属性規則」によって係り受け解析を行う.\item$\eta$の値を変えながら,1),2)の手順を繰り返し,その結果を総合して,最終的な解析精度を評価する.\end{enumerate}\vspace{\baselineskip}以上の実験の結果を図11に示す.図では,左端の点,右端の点が,それぞれ,「意味属性規則」のみの場合と「文法属性規則」の場合を示しており,中間の2点は,$\eta=85\%$の場合と$\eta=70\%$の場合を示している.この結果によれば,$\eta=85\%$の時,すなわち,2割の名詞句は,「文法属性規則」,残る8割は,「意味属性規則」によって解析されるとき,解析精度は,ほぼ最大で,$86.8\%$となる.\begin{figure}[thb]\begin{center}\begin{epsf}\epsfile{file=zu11.eps,scale=0.9}\end{epsf}\begin{draft}\atari(342,182,1bp)\end{draft}\end{center}\vspace*{-4mm}\caption{文法属性による規則と意味属性による規則の併用}\label{fig:文法属性による規則と意味属性による規則の併用}\end{figure}\subsection{検討}\subsubsection*{(1)「逐次型生成」と「同時型生成」の比較}本論文では,「意味属性規則」を生成するに際して,汎用性が高く,数少ない規則でカバー率をあげることを目標に,次元の低い規則から順に生成する方法を考えた.また,各次元の規則の生成では,一度,生成に使用した事例は,事例集合から削除し,残された事例から次の規則を生成する方法(「逐次型生成」)を採った.しかし,この方法は,事例数が少ないときは,解析精度の上で必ずしも良い方法と言えない可能性がある.すなわち,初めの段階での規則生成では,かなり多くの事例が存在するため,精度の良い規則が生成できるが,規則生成が進むにつれて,残された事例数が減少し,そこから生成される規則の精度が低下することが予想される.この傾向は,事例数1万件の場合(表2)において,構造規則の精度が,後に生成される規則ほど低下していることからも観察される.そこで,ここでは,規則の生成に使用した事例を捨てないで,各次元の規則を生成する方法(「同時型生成」と呼ぶ)について実験を行った.ただし,この方法では,一つの事例が異なる次元や異なるタイプの規則の生成で,クラスの異なった規則の生成に使用される可能性があるので,ここでは,得られた構造規則を使用して係り受け解析を行う場合,同次元内の構造規則で適用可能なものはすべて使用することとした.従って,解析では,異なった規則の適用によって異なった係り受け結果が得られる場合が生じる.そこで,係り受け解析においては,以下の方法で係り先を決定した.\vspace{\baselineskip}\noindent{\bf<係り受け解析の手順>}\begin{enumerate}\item係り受け解析規則は,一次元規則,二次元規則,三次元規則の順に適用する.\item同次元内の複数の規則が適用され異なる係り先が得られた場合は,その次元での判定は保留し,次の次元での結果に従う.\end{enumerate}\vspace{\baselineskip}実験の結果を表4と表5に示す.\begin{center}\setlength{\tabcolsep}{3pt}\small\begin{tabular}{|c|c|c|c|c|c|c|c|}\multicolumn{8}{c}{{\small{\bf表4}\\生成された構造規則の数と精度}}\\\hline番号&構造規則の種類&規則のタイプ&\multicolumn{2}{c|}{得られた規則数}&\multicolumn{2}{c|}{カバー率}&精度\\\hline1&&${(X,*,*,D)}$&78.5&&9.0\%&&91.5\%\\\cline{1-1}\cline{3-4}\cline{6-6}\cline{8-8}2&一次元規則&${(*,Y,*,D)}$&84.3&小計&8.8\%&小計&89.2\%\\\cline{1-1}\cline{3-4}\cline{6-6}\cline{8-8}3&&${(*,*,Z,D)}$&60.3&223&6.2\%&19.3\%&87.6\%\\\hline4&&${(X,Y,*,D)}$&974.6&&59.3\%&&90.2\%\\\cline{1-1}\cline{3-4}\cline{6-6}\cline{8-8}5&二次元規則&${(*,Y,Z,D)}$&937.0&小計&69.8\%&小計&91.7\%\\\cline{1-1}\cline{3-4}\cline{6-6}\cline{8-8}6&&${(X,*,Z,D)}$&947.2&2,859&67.0\%&85.8\%&91.3\%\\\hline7&三次元規則&${(X,Y,Z,D)}$&\multicolumn{2}{c|}{2,455}&91.0\%&91.0\%&86.7\%\\\hline\multicolumn{2}{|c|}{合計}&-----&\multicolumn{2}{c|}{5,528}&&&\\\hline\end{tabular}\end{center}\begin{center}\setlength{\tabcolsep}{3pt}\small\begin{tabular}{|c|c|c|c|}\multicolumn{4}{c}{{\small{\bf表5}\\係り受け解析への適用結果}}\\\hline規則の次元&適用事例数&累積頻度&正解率\\\hline一次元規則&1,925\(19.3\%)&1,925\(19.3\%)&91.7\%\\\hline二次元規則&6,594\(65.9\%)&8,519\(85.2\%)&90.7\%\\\hline三次元規則&1,083\(10.8\%)&9,602\(96.0\%)&68.4\%\\\hline字面規則&\\398\(4.0\%)&-----&----\\\hline合計&10,000&96.0\%&88.4\%\\\hline\end{tabular}\end{center}これらの結果を「逐次型生成」の場合の結果(表1)と比較すると,以下のことが分かる.\vspace{\baselineskip}\begin{enumerate}\item「同時型生成法」で生成された規則は,一次元規則,二次元規則に比べて,三次元規則の精度が若干悪いが,「逐次型生成」(表2)の場合と比べるとかなり向上している.\item規則のカバー率は,三次元規則が最大$(91\%)$で,次元が下がるにつれて,低下する.\itemこれらの結果,「逐次型生成」に比べて,「同時型生成」では,規則全体のカバー率が,$89.8\%$から$96\%$に向上し,解析正解率は,$85.8\%$から$88.4\%$に向上している.\itemしかし,「同時型生成法」で生成された規則数は,「逐次型生成法」の場合(1,815件)に比べてから,約3倍(5,528件)に増大している.\end{enumerate}\vspace{\baselineskip}これより,事例数1万件を使用したとき,「同時型生成法」は,「逐次型生成法」に比べて,カバー率が約$6\%$向上し,解析精度は,$2〜3\%$向上することが分かる.しかし,その代わりに生成される規則規則数は,ほぼ3倍に増加していることを考えると.事例数の少ないときに使用するのが適切と思われる.\subsubsection*{(2)事例数と構造規則の関係について}表1で示されるように,実験では,学習事例に含まれる名詞の種類は,異なり意味属性数から見て,半分弱に止まっており,決して,網羅的とは言えないが,得られた構造規則のカバー率は,表2に示されるように89.8\%に上っている.このことから,本方式では,比較的少ない事例から,カバー率の高い構造規則が得られることが分かる.次に,得られた構造規則の数と精度について見ると,表2の結果では,意味属性を使用した構造規則として,名詞句の事例1万件から1,815件の係り受け構造規則が得られている.本方式では,意味属性によって表現構造とクラスの関係が規定できる事例から構造規則は生成され,それ以外の事例は,字面のままの規則として残されるから,得られた構造規則において,元の事例の持つ情報量は失われない.従って,用例翻訳(長尾1984;佐藤1992)など,用例そのものを使用する方法に比べ,精度を落とすことなく,言語知識を$1/5$以下に圧縮する効果が期待できる\footnote{得られた規則数1,815件には,「字面規則」は含まれていない.これは以下の事情による.すなわち,生成された規則による係り受け解析実験では,「字面規則」が適用された例はないから,この規則を除いても,解析精度は低下しないことである.また,構造規則生成では,事例数が閾値以下の事例からは,構造規則は生成されず,無視されるが,これは,用例ベースによる処理の場合と同様で,違いは,あらかじめ事例から規則を生成しておくか,それとも,解析実行時に適用可能な用例をまねるかの差である.},また,本方式で得られた構造規則は,意味属性番号や文法属性番号を意味属性名や文法属性名に書き換えると,可読性が高いから,人手によってさらに圧縮できる可能性がある.ところで,最近の記憶装置の価格を考えると,実用上,規則数が多少多いことはあまり問題にならなくなってきた.これに対して,すでに述べたように,言語表現はきわめて多彩であり,構造的,意味的な曖昧性を解消するための知識を人手によって集積するのは,依然として,大変困難な課題である.本論文で提案した方法は,比較的少量の標本から,表現とその解釈に関する精度の良い構造知識を手軽に収集できる方法として,実用性が高いと期待できる.\subsubsection*{(3)規則生成に使用する事例数の閾値について}一般に,精度良い規則を得るには,事例数の多いところから構造規則を生成するのが望ましいが,実験では,一次元規則と二次元規則は,事例数が2以上のところから規則を生成し,三次元規則は,事例が1つしかない意味属性の組からも構造規則を生成した.これは,三次元規則の生成で,頻度2以上の事例から生成した規則より,頻度1以上の事例から生成した規則の方が全体として解析精度が良かったためである.しかし,表2では,一次元規則が使用される回数は,1規則あたり10回近くになるのに対して,二次元規則は4〜5回,三次元規則は3回程度と,順に使用回数が減少している.この点から見ると,低次元の規則は.より多くの事例のあるところから生成する方が適切と考えられる.従って,標本数がより多い場合は,事例数の多いところからのみ規則を生成するようにすれば,より精度の良い規則が得られるものと期待される.
\section{あとがき}
自然言語処理において,さまざまな解釈の曖昧さを解消するための知識を構造規則として記述する方法と,その規則を事例から半自動的に収集する方法を提案した.これは,従来の要素合成法的な方式では解決できない曖昧さの解消を狙ったもので,解釈の曖昧さが問題となる表現を一つの表現単位として扱うことを基本としている.本方式の技術的特徴については,以下の通りである.本方式では,解釈の曖昧性が問題となる表現を,まず,変数部分と字面の部分からなるパターンで表現した後,構造規則を変数部分に対する制約条件と解釈の組によって定義した.変数部分の記述では,「オールマイティ記号」,「文法属性」,「意味属性」,「字面」の4種類の記号の使い分けが可能で,汎用的な規則から個別的で慣用的な表現まで柔軟に表現できる.次に,生成される規則は,オールマイティ以外の記号が使用される変数部分の数によって次元規則のグループに分類され,各グループの中で汎化が行われる.例えば,$N$個の変数を持つ表現パターンの場合,一次元規則から$N$次元規則までの規則と字面からなる例外規則を合わせて$N+1$のグループの構造規則が,順に生成される.汎化は,各次元の特徴空間の中で,木構造で表現された文法属性もしくは意味属性の意味的な包含関係を辿ることにより,容易に実行されるが,このとき,「実際の表現解析では,構造規則は生成された順に適用される」ことを前提に,一度,規則生成に使用された事例を事例集合から削除することにより,汎化領域の拡大と規則数の削減を図っている.本方式を「$AのBのC$」の型の名詞句に対する名詞間の係り受け解析規則の生成に適用した結果では,変数部分を意味属性で表現した構造規則の場合,1万件の学習事例から,一次元規則198件,二次元規則1,480件,三次元規則136件が得られた.そのカバー率は,$89.8\%$であったが,この値は,学習用の標本に含まれる名詞の種類が全体(約2,700種類)の半分以下(1,000〜1,300種類)であった点から見てかなり高い.これを使用した係り受け解析では,約86%の解析精度が得られた.また,変数部分を文法属性で表した規則と意味属性で表した規則を併用する場合は,解析精度は,$1〜2\%$向上する.これらを,2名詞間の結合強度に還元して評価する従来の方法(解析精度$72\%$)と比較すると,3つの名詞を1組として扱うことの重要性が確認できる.また,人間の判断能力と比べると,この種の名詞句では,人間でも係り先の判定に迷うような事例が$10\%$近く存在することから,得られた規則の精度は,人間の判断能力にかなり近い値と言える.なお,提案した方法では,一度,規則生成に使用した事例は学習事例から削除し,残された事例から次の次元の規則を生成する(「逐次生成法」)こととしているが,各次元の規則をすべての事例から生成する方法(「同時生成法」)では,得られた規則による解析精度は$2〜3\%$向上する.しかし,この方法は,事例削除の方法に比べて規則数が3倍にも増大する点が問題である.今後は,提案した方法を複合語解析,数量表現解析など,さまざまな表現解析用の規則生成に適用し,その効果を確認すると共に,より強力な汎化の方法についても検討していきたい.\acknowledgment本研究は,NTTコミュニケーション科学基礎研究所,および,文部省の科学研究費補助金の支援を受けて行われたことを記し,関係各位に深謝する.\nocite{*}\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{池原悟}{1967年大阪大学基礎工学部電気工学科卒業.1969年同大学院修士課程終了.同年日本電信電話公社に入社.数式処理,トラフィック理論,自然言語処理の研究に従事.1996年スタンフォード大学客員教授.現在,鳥取大学工学部教授.工学博士.1982年情報処理学会論文賞,1993年同研究賞,1995年日本科学技術情報センタ賞(学術賞),同年人工知能学会論文賞受賞.電子情報通信学会,人工知能学会,言語処理学会,認知言語学会,各会員.}\bioauthor{中井慎司}{1999年鳥取大学大学院工学研究科知能情報工学専攻博士前期課程修了,現在,インテルコムズ(株)勤務.在学中は自然言語処理の研究に従事.}\bioauthor{村上仁一}{1986年,NTT情報通信処理研究所に入社。音声認識のための自然言語処理の研究に従事。特にtrigramの研究をおこなった。1991年から1995年,ATR自動翻訳電話研究所に出向。1995年からPB自動電話番号案内サービスの開発に従事。1997年に豊橋技術科学大学において論文博士を取得。タイトルは「確率的言語モデルによる自由発話認識に関する研究」。1998年に鳥取大学工学部知能情報学科に転職,現在に至る。電子情報通信学会および日本音響学会および言語処理学会各会員}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V08N03-07 | \section{はじめに}
日本語とウイグル語は共に膠着語である.膠着語には,概念などを表し単独で文節を構成することが可能な自立語と,単独で文節になることはなく,自立語に接続して,その自立語の文中での役割を示したり,自立語に新たな意味を付加する付属語の区分がある.膠着語では,付属語がよく発達しており,言語構造上重要な役割を果たす.これらの特徴は,日本語とウイグル語だけでなく,韓国語,トルコ語,モンゴル語などのアルタイ語系に属する言語に共通するものと考えられている\cite{JPORG}.このグループに属する言語間の機械翻訳については,グローバル化の流れの中で多言語間機械翻訳の重要性が高いにもかかわらず,これまでほとんど行われておらず,日本語と韓国語との翻訳について研究されているのが目立つに過ぎない.そのような状況の中で,ムフタル,小川らは,日本語--ウイグル語機械翻訳の研究を開始した.ムフタル,小川らは,これらの言語に共通する特徴を有効に利用した日本語--ウイグル語機械翻訳の研究を進めている\cite{SHURON}\cite{OGAWA2000}.その特徴の一つは語順の自由度である.日本語は語順が比較的自由であると言われ,例えば,(1)「私が本を買った」と(2)「本を私が買った」は,いずれも日本語として正しい表現である.これは,日本語では文節の役割が付属語によって示されるためである.この性質は同じ膠着語であるウイグル語にも見られ,(1)の直訳となる``m!enkitapnisetiwaldim''という表現も,``m!en''(私)と``kitap''(本)を入れ替えて(2)の直訳とする``kitapnim!ensetiwaldim''という表現も,いずれもウイグル語として可能である.そのため,日本語文をウイグル語へ翻訳する場合,日本語の語順そのままに翻訳が可能である.そこで,ムフタルらは,日本語文の形態素解析結果を逐語訳することを基本とした日本語--ウイグル語機械翻訳システムを開発している.特に\cite{OGAWA2000}では,動詞句の翻訳に焦点を当て,派生文法\cite{KIYOSE1991}を利用することで動詞付属語を含めた動詞句に対して自然なウイグル語訳を与えることを可能としている.ところで,日本語からウイグル語へ語順そのままでの翻訳が可能なのは,名詞付属語,特に格助詞によって文節の役割が明示されているからである.これも,日本語とウイグル語に共通する特徴の一つである.しかし,このことは,格助詞を正しく翻訳できなかった場合は翻訳文が意味不明なものになることを意味する.そこで,本論文では,日本語--ウイグル語機械翻訳の中での格助詞の取り扱いを検討する.格助詞は日本語だけでなくウイグル語にも存在し,例えば\cite{TAKEUTI}では,格語尾と呼ばれている.日本語の格助詞とウイグル語の格助詞には対応関係が見られるが,いわゆる多義性の問題が存在し,日本語の格助詞に複数のウイグル語格助詞が対応する場合がある.本論文では,単に格助詞を翻訳するだけでなく,こうした格助詞の多義性も考慮して適切な格助詞の翻訳を行う手法を提案する.日本語と他の膠着語との間の機械翻訳に関する研究では,日韓機械翻訳が盛んである\cite{KMT4,H_LEE1989,J_KIM1996_2,C_PARK1997}.これらの研究の多くは,日本語と韓国語の語順の類似性や,格形式の類似性を利用し,逐語訳を基本とする翻訳が進められており,比較的品質の良い翻訳を実現しているが,その一方で,語彙の多義性の解消が重要な課題であることが指摘されている\cite{KMT4}.多義性に関する研究については,\cite{H_LEE1989,J_KIM1996_2,C_PARK1997}などがあり,動詞の格パターンと意味解析を利用する手法\cite{H_LEE1989},入力文の前後に出現する単語との接続関係を利用する手法\cite{J_KIM1996_2},連語パターンを用いる手法\cite{C_PARK1997}などが提案されている.本論文では,品質の高い日本語--ウイグル語機械翻訳システムの構築を目指して,動詞の格パターンを利用した,格助詞の翻訳手法を提案する.まず,計算機用日本語基本動詞辞書IPAL\cite{IPAL}を用いて両言語の格助詞間の対応関係について詳細な調査を行うとともに,動詞の格パターンを獲得する.さらに,それを利用した格助詞の変換処理を実現し,評価実験を行った.評価実験に使用する日本語--ウイグル語機械翻訳システムは\cite{OGAWA2000}で提案されたシステムに,本論文で提案する格助詞変換処理のモジュールを加えたものである.この方法では,あらかじめ獲得した格パターンと格助詞の対訳の情報を,必要に応じて日本語--ウイグル語の対訳辞書のウイグル語動詞に付加する.実際の翻訳の過程は,まず,翻訳対象である日本語入力文を形態素解析し,それぞれの形態素をウイグル語に逐語訳する.この段階で,すべての単語にデフォルトのウイグル語訳が与えられる.次に,ウイグル語動詞に付加された格パターンと,入力文中に出現した格パターンとを比較し,デフォルト訳では不自然な訳語となる格助詞を適切な他の訳語に置き換える.最後に,訳出のウイグル語形態素を接続してウイグル語文を生成する.本論文では,ウイグル語における同じ格助詞の音便形を,すべて一つに統合して議論する.例えば,格助詞``g!e''は,音便変化により``!ga'',``k!e'',``!ka''などの形もとるが,本論文中では,すべて``g!e''と表記する.なお,実際の翻訳システムでは,最後のウイグル語文生成の段階で音便形に従って変化させる.また,ウイグル語には,日本語には存在しない人称接尾辞がある.例えば,同じ「買う」でも,「私が買う」``m!ensetiwali\underline{m!en}''と「彼が買う」``usetiwali\underline{du}''では,下線部に示すように,それぞれ別々の人称接尾辞が接続する.しかし,本論文中では,いくつかの例文を除いて三人称に統一して議論する.ウイグル語には,アラビア文字に似た32の文字があり,文は右から左へと書かれる.それとは別に,ローマ字表記を用いる場合もあり,本論文では,便宜上,ローマ字表記を用いることにする.不足する文字の代わりに,!c,!e,!g,!h,!k,!o,!s,!u,!zを用いる.ウイグル文字とローマ字表記の対応に関しては,付録Aを参照されたい.本論文の構成は以下の通りである.まず2章では,日本語--ウイグル語機械翻訳における格助詞の重要性とその問題点について指摘する.3章では,計算機用日本語基本動詞辞書IPAL\cite{IPAL}における格助詞の使用状況と,対応するウイグル語訳語の分布に関する調査結果を示す.4章では,本論文で提案する日本語--ウイグル語機械翻訳における格助詞の変換処理について述べ,5章で本手法に基づく実験結果を示す.6章は本論文のまとめである.
\section{日本語とウイグル語の格助詞}
label{prrel}日本語やウイグル語のような膠着語では,助詞の機能がよく発達している.特に,格助詞は,ある語の文中での役割を決めたり,他の語との関係を決めるなど,文の構造を決める上で重要な役割を果たしている.例えば,「先生」,「教室」,「生徒」,「本」,「大きい声」,「読ませた」の六つの概念語があるとすると,そのままでは,どれが主体か,どれが被動態かなど,それらの文中での役割や相互関係は明確にならない.しかし,以下のように格助詞の「が」「で」「に」「を」を用いることによって,それらが明確になる.\begin{center}先生\parbox[t]{3ex}{\underline{が}\vspace{-1ex}\\{\footnotesize(1)}}教室\parbox[t]{3ex}{\underline{で}\vspace{-1ex}\\{\footnotesize(2)}}生徒\parbox[t]{3ex}{\underline{に}\vspace{-1ex}\\{\footnotesize(3)}}本\parbox[t]{3ex}{\underline{を}\vspace{-1ex}\\{\footnotesize(4)}}大きい声\parbox[t]{3ex}{\underline{で}\vspace{-1ex}\\{\footnotesize(5)}}読ませた\end{center}日本語とウイグル語の格助詞は機能的には同じであり,日本語のある格助詞の一つの機能に相当する格助詞は,ほとんどウイグル語にも存在する.例えば,上の文に対するウイグル語訳は次のようになり,格助詞がそれぞれ対応していることが分かる.\begin{center}o!kut!ku!ci\parbox[t]{3ex}{\underline{\o}\vspace{-1ex}\\{\footnotesize($1'$)}}sinip\parbox[t]{3ex}{\underline{d!e}\vspace{-1ex}\\{\footnotesize($2'$)}}o!ku!gu!cilar\parbox[t]{3ex}{\underline{g!e}\vspace{-1ex}\\{\footnotesize($3'$)}}kitap\parbox[t]{3ex}{\underline{ni}\vspace{-1ex}\\{\footnotesize($4'$)}}yu!kuriawaz\parbox[t]{3ex}{\underline{d!e}\vspace{-1ex}\\{\footnotesize($5'$)}}o!ku!guzdi\end{center}これは,日本語--ウイグル語機械翻訳を行う上で,重要なポイントの一つである.なぜなら,例えば日本語を英語に翻訳しようとするとき,多くの場合,日本語の格助詞の機能を,英語の文中の語順,動詞の語彙的機能,あるいは英語の文全体の文脈などで表現しなければならない.そのため,構文解析などが必要になり日本語格助詞の取り扱いが複雑となる.それに対し,ウイグル語に翻訳する場合には,語順をそのままにし,さらに格助詞にも対応する訳語を与えるだけで翻訳が可能となる.よって,形態素解析が終了した段階で,格助詞を含む各単語を逐語訳することによって翻訳が可能となる.しかし,日本語とウイグル語の格助詞は,必ずしも一対一に対応する訳ではない.例えば,「仕事\underline{を}片付ける」``ixlar\underline{ni}ye!gixturidu'',「ゴミ\underline{を}捨てる」``!ehl!et\underline{ni}t!okidu''のような文では,格助詞「を」は``ni''に翻訳される.しかし,「大学前\underline{を}通る」``univirsititningaldi\underline{din}!otidu'',「橋\underline{を}渡る」``k!owr!uk\underline{din}!otidu\footnote{直接的に関係はないが,ここでは,「通る」と「渡る」の両方のウイグル語訳は``!otidu''になる.}''といった文では,「を」は``din''に翻訳される.一般に,前者の「を」の機能は対象を示すものであり,後者の機能は場所を示すものであると言われる.つまり,日本語の「を」に対応するウイグル語の格助詞は,「を」の機能によって異なるのである.また,場所を示す「を」は,「通る」「渡る」などの移動動詞と一緒に出現する場合が多いことから,「を」を含む名詞句が係る動詞に依存して「を」に対応するウイグル語の格助詞が決まるとも言える.先に述べたように,日本語とウイグル語では格助詞が文章を読解する上で重要な役割を果たすため,日本語--ウイグル語機械翻訳においても,正しく翻訳する必要がある.そのため,日本語の格助詞に対応する複数のウイグル語格助詞の中からどれを選択するかという決定は,日本語--ウイグル語機械翻訳において大きな課題である.そのためには,まず日本語の格助詞の機能を調べ,それに対応するウイグル語の格助詞を決めなければならない.一般的な助詞の機能や対応関係は\cite{NLC93}などで詳しく調べられており,ここでは格助詞だけに的を絞る.
\section{動詞辞書調査に基づく日本語--ウイグル語の格助詞の対応付け}
前章で述べたように,日本語とウイグル語には共に格助詞が存在するが,一般的に,それらは一対一に対応するとは限らない.日本語の一つの格助詞が複数の意味(機能)を有しており,それぞれの意味に対して,別々のウイグル語の格助詞が対応するからである.その逆も真である.そのため,日本語からウイグル語へ翻訳する際には,日本語格助詞のそれぞれの機能に対応して,適切なウイグル語の助詞を訳語として選定する必要がある.したがって,日本語格助詞の機能を分類し,それぞれに対応するウイグル語格助詞を決定する必要があるが,本論文では格助詞と動詞との関係に着目した.日本語とウイグル語では,格助詞が動詞と密接な結合関係をもち,各動詞がそれぞれ決まった格パターン\footnote{結合価や格構造,格フレームという場合もある}を持っている.そのため,日本語--ウイグル語機械翻訳における格助詞の機能の決定と訳語の選定は,動詞と切り離して考えることはできない.そこで,我々は計算機用日本語基本動詞辞書IPAL\cite{IPAL}中に出現した格助詞の機能を調査し,それぞれの出現において対応するウイグル語格助詞はどれになるかという観点から分析し,対応付けを行った.\cite{IPAL}を用いたのは,日本語の基本的な動詞とそれらの意味や用法が格パターンの観点から説明されており,両言語の格助詞の機能及びそれらの間の統計的な対応関係を調べるのに適していると考えたからである.\cite{IPAL}には,900に近い日本語動詞があり,各動詞のそれぞれの意味を説明するための例文3473文が含まれている.今回の調査では,それらの例文において動詞の格形式パターンとして示されたすべての格助詞に対してウイグル語の訳を与え,それらの統計を取った.ここでは,日本語からウイグル語への機械翻訳を想定しているため,日本語の格助詞が,ウイグル語のどの格助詞にどのように対応しているかを中心に調査を行った.\begin{table}[btp]\caption{格助詞間の統計的対応関係}\label{tab:ipal}\begin{center}\begin{tabular}{c|rrrrrrrr|r}\hline格助詞&\multicolumn{8}{c|}{対応するウイグル語とその数}&合計\\\hline&\cc{\o}&\cc{ning}&\cc{g!e}&&&&&&\\が&3637&77&5&&&&&&3719\\&97.7\%&2.0\%&0.3\%&&&&&&\\\hline&\cc{ni}&\cc{ni/\o}&\cc{din}&\cc{\o}&\cc{g!e}&\cc{d!e}&\cc{\itfault}&&\\を&1566&320&118&34&19&4&47&&2108\\&74.3\%&15.2\%&5.6\%&1.6\%&0.9\%&0.2\%&2.2\%&&\\\hline&\cc{g!e}&\cc{d!e}&\cc{din}&\cc{\o}&\cc{\itfault}&&&&\\に&1183&294&81&16&35&&&&1609\\&73.5\%&18.3\%&5.0\%&1.0\%&2.2\%&&&&\\\hline&\cc{d!e}&\cc{bil!en}&&&&&&&\\で&638&14&&&&&&&652\\&97.8\%&2.2\%&&&&&&&\\\hline&\cc{d!ep}&\cc{\o/d!ep}&\cc{bil!en}&&&&&&\\と&193&46&146&&&&&&385\\&50.1\%&12.0\%&37.9\%&&&&&&\\\hline&\cc{din}&\cc{\itfault}&&&&&&&\\から&289&5&&&&&&&294\\&98.3\%&1.7\%&&&&&&&\\\hline&\cc{g!e}&&&&&&&&\\へ&236&&&&&&&&236\\&100\%&&&&&&&&\\\hline&\cc{din}&&&&&&&&\\より&14&&&&&&&&14\\&100\%&&&&&&&&\\\hline\end{tabular}\end{center}\end{table}ただし,日本語の「の」および,それに対応するウイグル語の``ning''は,どちらの言語の文法においても格助詞と分類されているが,「の」は「AのB」のような形でその格助詞的機能を果たしており,「AのB」全体が「名詞的」であるため,\cite{IPAL}では動詞の格パターンの構成要素として出現していない.同様に,格助詞「や」も動詞の格パターンの構成要素にならないため,\cite{IPAL}では取り扱われていない.そこで,本論文では,これらを除いた「が」「を」「に」「で」「と」「から」「へ」「より」について,対応するウイグル語格助詞が何になるかを調査した.その結果を表\ref{tab:ipal}に示す.それぞれの格助詞とウイグル語格助詞との対応関係について以下に考察する.\subsection{格助詞「が」}\label{sec:ga}今回の調査では,「が」の出現数が一番多く,全部で3719個あった.その内の3637個(97.7\%)がウイグル語の主格を表わす格助詞``\o''に対応していた.ここで,``\o''は空白を表わすが,ウイグル語では主格が確かに存在し,それを空白で表現しているのであり\cite{MULU},何かの格接尾辞があって,それが省略されている訳ではない.なお,格助詞「が」については,動詞だけでなく,「物価\underline{が}高い」などのように形容詞の主体に接続する場合もある.今回は,動詞だけを調査対象としたが,形容詞の主体になる場合の「が」に対するウイグル語訳も,多くの場合は``\o''である.その他,77個(2.0\%)は``ning''に,5個(0.3\%)は``g!e''に対応していた.``ning''はウイグル語で所有格を表す格助詞であり,日本語の格助詞「の」にほぼ相当する.今回の調査で「が」の訳語として``ning''が出現したのは以下の二つの場合である.一つは,「我\underline{が}国日本」などの例における所有を表す「が」であり,これをウイグル語に翻訳すると``Biz\underline{ning}D!ewlitimizYapon''(私たち\underline{の}国日本)\footnote{括弧内はウイグル語文に対する日本語への直訳的表現である.以下の場合も同様である.}となる.もう一つは,計算機用日本語基本動詞辞書IPAL\cite{IPAL}における「は」の扱いに起因するものである.\cite{IPAL}では,「このスカート\underline{は}サイズが合わない」における「は」を「が」と見なしているが,この文をウイグル語に訳した場合,``Buyopka\underline{ning}razmiriudulk!elm!eydu''(このスカート\underline{の}サイズが合わない)となり,こうした「は」は,「が」よりも「の」と見なしてウイグル語に置き換えた方が自然だと考えられる.``g!e''は,表\ref{tab:ipal}の結果から分かるように,主に日本語の「に」および「へ」に対応するウイグル語の格助詞である.これについても,\cite{IPAL}では「この仕事\underline{は}忍耐が要る」といった文の「は」を「が」と見なしているのため,今回の調査結果において「が」の訳語として出現した.この文に対するウイグル語訳は``Buhizm!et\underline{g!e}!cida!sli!kketidu''(この仕事\underline{に}忍耐が要る)となり,「は」を「に」と見なせば良いと考えられる.これら``-ning'',``g!e''への誤りは,係助詞「は」の取り扱いに起因する.本論文では,格助詞の取り扱いについて議論しており,係助詞「は」に起因する間違いについては扱わないことにする.「は」については,ウイグル語に相当する助詞が存在しないため,「は」を「が」「の」「に」「を」などの格助詞に変換した後で翻訳する必要がある.係助詞「は」をいずれの格助詞に置き換えるかの決定手法については今後の課題である.また,今回の\cite{IPAL}を使用した調査では出現しなかったが,日本語大辞典\cite{GDIC}によれば,格助詞「が」にはもう一つ,「願望・好悪・能力などを表したり,可能であることを言ったりする語の対象を示す」という機能もある.これは,例えば「水\underline{が}飲みたい」,「日本語\underline{が}読める」のような場合の「が」である.これらの「が」は対象を示しているから,ウイグル語訳する場合には,それぞれ``su(\underline{ni})\footnote{ここで``ni''が括弧内に表記されている理由は,次の「を」に関する議論を参照されたい.}i!ck!umbar''(水\underline{を}飲みたい),``Yapontili\underline{ni}o!kuyalaydu''(日本語\underline{を}読める)となり,「が」が対象格を表す``ni''に対応している.その一方で,例えば「飲みたい」については「私\underline{が}飲みたい」といった表現も可能であり,その場合の「が」は主格を表す``\o''に対応する.こうした例から,「が」については,単純に動詞と格助詞の関係からでは訳語を決定できない場合があることが分かる.「が」の機能をまとめると,多くの場合は``\o''と翻訳すれば良いが,``ning'',``ni''と翻訳すべきものが若干あることが分かる.\vspace{2pt}\subsection{格助詞「を」}\label{sec:wo}「が」の次に多く出現したのは「を」であり,全部で2108個出現した.その1566個(74.3\%)がウイグル語で対象格を表す``ni''に,320個(15.2\%)が``ni/\o''に対応していた.ここで,``ni/\o''は,格助詞``ni''に相当するが,省略することも可能であることを示している.ウイグル語では,動詞と目的語の関係が明らかな場合,対象を表す``ni''を省略する場合がある.例えば,「水\underline{を}飲む」を``sui!cidu''のように表現し,「水」``su''の後に格助詞が接続しない場合がある.``ni/\o''は,こうした場合を表している.これはあくまでも``ni''が省略されているのであり,主格を表す格助詞``\o''が出現している訳ではない.実際,先程の例文も「この水\underline{を}飲む」となった場合には,``ni''が記述され,``busu\underline{ni}i!cidu''となる.機械翻訳においては,``ni/\o''についても``ni''を訳出すれば良いと考えられるから,両者を合わせると,「を」については約9割が``ni''に相当すると考えられる.日本語大辞典\cite{GDIC}によれば格助詞「を」には,動作・作用の対象を示す機能以外にも,「橋\underline{を}渡る」のように通過点・経過する場所を示す機能や,「空港\underline{を}出発する」のように起点を示す機能があるとされる.これらの機能を示す「を」は,ウイグル語の格助詞``din''に対応し,上記の日本語文はそれぞれ``k!owr!uk\underline{din}!otidu''(橋\underline{から}渡る),``ayrudurum\underline{din}yolga!ci!kidu''(空港\underline{から}出発する)と翻訳される.今回の調査では,そのような例が118個(5.6\%)出現した.しかし,日本語の「を」のうち,対象を表す機能が常にウイグル語の``ni''に対応するのではない.例えば,「彼の無実\underline{を}信じている」における「を」は信じる対象を示しているが,この文に対する翻訳は``uninga!kli!gi\underline{g!e}ixinidu''となり,「を」は``g!e''に翻訳されている.ウイグル語の動詞``ixinidu''は,信じる対象を常に``g!e''で表す.また,「約束\underline{を}守る」``w!edisi\underline{d!e}turidu''のように,「を」が``d!e''と翻訳される場合もあった.なお,「守る」には,他のウイグル語動詞に翻訳される場合もあり,その場合には「を」も別の格助詞に対応する.例えば,「彼女は子供\underline{を}熊から守った.」は``Ubalilar\underline{ni}eyi!kdinsa!klidi.''となり,「守った」は``sa!klidi''に,「を」は``ni''に翻訳されている.これは,「を」の訳語がその機能だけで決まるのではなく,ウイグル語動詞との組み合わせで決まる場合があることを示している.言い換えれば,ウイグル語の動詞``ixinidu''は``g!e''を含む名詞句を,``turidu''は``d!e''を含む名詞句を必要とするのである.なお,今回の調査では「を」が``g!e''に対応するものが19個(0.9\%),``d!e''に対応するものが4個(0.2\%)あった.また,空白``\o''に対応した34個(1.6\%)は,``ni''を書かないほうが違和感がない場合である.例えば,「猶予\underline{を}与えた」``m!o!hl!etb!eridu'',「指示\underline{を}仰ぐ」``yolyoru!ksoraydu''などでは,``ni''が現れない.これは先程の「信じる」``ixinidu''の場合と異なり,``b!eridu'',``soraydu''の前の「を」が常に``\o''となる訳ではなく,``m!o!hl!etb!eridu'',``yolyoru!ksoraydu''という組み合わせで起きる,一種の慣用表現であると考えられる.また,日本語のある動詞をウイグル語に翻訳した場合,その動詞に直接対応するウイグル語の動詞がなく,言い回しを適当に変更して翻訳する場合がある.例えば,「その政策は世間から非難\underline{を}浴びた」のような文をウイグル語に翻訳する場合,「浴びる」に直接対応する動詞がウイグル語にないため,「その政策は世間から非難された」といった表現にして翻訳する必要がある.このような場合,ウイグル語文には「を」に対応する格助詞は存在しない.今回の調査では,こうした直訳不能の場合を失敗として数え,{\itfault}の欄に記述した.「を」に関しては,このような例が47個(2.2\%)出現した.以上の結果から,格助詞「を」については,多くの場合は``ni''と翻訳すれば良いが,動詞との組み合わせによっては,``din'',``g!e'',``d!e''と翻訳すべきものや,動詞だけでは決定できないものがあることが分かる.\subsection{格助詞「に」}\label{sec:ni}「に」は,全部で1609個出現し,その1183個(73.5\%)がウイグル語の``g!e''に対応した.これは,一般に与格と呼ばれる「に」の機能であり,「政府はY氏\underline{に}国民栄誉賞を与えた.」``!H!ok!um!etY!ep!endi\underline{g!e}h!el!kx!eripimukapatib!erdi.''といった文の「に」に相当する.一方,「に」には時間や場所を示す機能もあり,その場合には「青空\underline{に}気球が浮んでいる.」``K!okasman\underline{d!e}y!elxaril!eyl!ewatidu.''のように,ウイグル語の``d!e''に対応する.今回の調査では,``d!e''に対応するものが294個(18.3\%)あった.また,``g!e''にも``d!e''にも対応しない例として,「太郎が次郎\underline{に}優る」,「人工物が自然物\underline{に}劣る」のような比較の場合が81個(5.0\%)あった.これらの「に」はウイグル語では``din''となり,それぞれの文も``TaroJiro\underline{din}!ust!unturidu'',``S!un'in!ers!eT!ebi'in!ersi\underline{din}t!ow!enturidu''と翻訳される.この``din''は日本語の「から」「より」に相当するものである.また,16個(1.0\%)で「に」を``\o''としたものがあった.それは,「彼は弁護士\underline{に}なった.」``Uadwokat\underline{\o}boldi.''や「錬金術師は鉄を金\underline{に}した.」``Kimiyag!erqit!om!urnialtun\underline{\o}!kildi.''といった場合である.「に」が``\o''となるのは動詞「なる」「する」の二つの場合だけである.これは種類としては限られているが,動詞「なる」「する」は日本語において使用頻度の高い動詞であるため,翻訳に際して考慮する必要がある.また,言い換えないと翻訳できないものとしては,「彼女は木綿糸を帽子\underline{に}編んだ」などの例があった.この場合,ウイグル語では``upahtayipni!kalpa!k\underline{!kilip}!or!udi'',と表現される.ここで,「に」に相当する``!kilip''は,動詞「する」``!kilidu''のいわゆる連用形であり,ウイグル語の表現を日本語に直訳すると,「帽子にして編む」となる.また,「彼\underline{に}は子供が2人いる」という表現も``u\underline{ning}balisidinikkisibar''(彼の子供は2人である)のような言い換えが必要である.このような例は,今回の調査では35個(2.2\%)出現した.また,今回の調査では現れなかったが,「に」には,上記以外にも,「本を買い\underline{に}行く」のように目的を示す機能もある.これは格助詞「に」が動詞の連用形に接続しているパターンである.この場合は「本を買い\underline{に}行く」``kitapsetiwil\underline{!gili}baridu'',のようになる.ここで,``!gili''はウイグル語の動詞接尾辞の一種であり,格助詞ではない.「に」のこれらの機能をまとめると,多くの場合は``g!e''と翻訳すれば良いが時間や場所を表す場合には``d!e''となる.また,動詞によっては``din'',``\o''となるものが若干あることが分かる.\subsection{格助詞「と」}\label{sec:to}日本語とウイグル語の格助詞間の対応関係で,ばらつきが最も大きかったのは「と」である.今回の調査では385個出現したが,そのうちの239個(62.1\%)がいわゆる引用を表す表現であった.例えば,「合格しよう\underline{と}決心した」の場合の「と」であり,ウイグル語では``d!ep''に対応する.なお,ウイグル語の``d!ep''は本来は格助詞ではなく,動詞「言う」``d!eydu''の連用形であり,「言って」に近いものがある.よって,「…と言う」をそのまま``…d!epd!eydu''とすると,冗長さがあるため``d!ep''を省略し``…d!eydu''となることが多い.また,日本語の「…となる」という表現は「…になる」とほぼ同じであり,\ref{sec:ni}節で述べたように,この場合も格助詞は``\o''となる.今回の調査では,こうした例が46個(12.0\%)あった.引用以外の「と」の用法としては,動作や状態を共にする相手を表す場合や(「先生\underline{と}行く」)や,並列を表す場合(「A\underline{と}B」),比較の対象を表す場合(「彼\underline{と}話が合わない)がある.これらの場合は,ウイグル語ではいずれも``bil!en''となり,今回の調査では146個(37.9\%)出現した.「と」については,引用を示す場合は``d!ep'',それ以外の場合は``bil!en''と翻訳すれば良いことが分かる.\subsection{その他の格助詞}その他の格助詞「で」「へ」「から」「より」については,今回の調査で,ほとんどの場合はウイグル語の助詞``d!e'',``g!e'',``din'',``din''にそれぞれ対応することが分かった.よって,機械翻訳の際にも,これらの格助詞は,そのまま対応するウイグル語の格助詞に翻訳すれば良いことが分かる.
\section{両言語間の機械翻訳における格助詞の変換処理}
\label{trans}前章で述べたように,日本語の一つの格助詞に,複数のウイグル語の格助詞が対応する場合がある.そのため,日本語--ウイグル語機械翻訳においては,概念語の訳語選択の他に,格助詞の訳語選択も適切に行う必要がある.本論文では,動詞と格助詞の関係を利用することによって,この問題を解決する手法を提案する.格助詞の機能は,格助詞とその直前の名詞だけで決まるのではなく,それらによって構成される名詞句が係る動詞に依存する部分も大きい.例えば,「橋を」という名詞句を翻訳する場合,「橋\underline{を}作る」という文であれば,「を」は対象を示していることからウイグル語の``ni''に訳され,全体としては``k!owr!uk\underline{ni}salidu''となる.しかし,「橋\underline{を}渡る」という文であれば,「を」は通過点を示しており,ウイグル語では``din''と訳され,全体としては``k!owr!uk\underline{din}!otidu''となる.そうした点を考慮すると,動詞ごとに,その格パターンとそれぞれの格パターンに対する格助詞の訳語を登録しておき,格助詞を翻訳する際には,その格助詞を含む名詞句が係る動詞の情報を利用して訳語を決定することが考えられる.ところで,前章の調査から分かるように,日本語の格助詞の主な意味はウイグル語の一つの格助詞に対応する.そこで,一番出現頻度の多いウイグル語の格助詞をデフォルトの訳語として登録し,デフォルト訳では誤った翻訳を出力する格助詞についてのみ,訳語を変更することでも,この格助詞の選択を実現することが可能となる.そこで,本論文で提案する手法では,表\ref{tab:ipal}において一番出現頻度の多かったものを各格助詞のデフォルトの訳語として登録し,そのデフォルト訳では間違いとなる場合に,その名詞句が係る動詞の格パターンを利用して,格助詞の訳語を置き換える.ただし,「に」については表\ref{tab:ipal}で出現頻度が一番多かった``g!e''ではなく,``d!e''の方をデフォルトとした.また「と」についても,表\ref{tab:ipal}で出現頻度が一番多かった``d!ep''ではなく,``bil!en''をデフォルトとした.その理由についてはそれぞれ\ref{sec:ex_ni}節,\ref{sec:ex_to}節で後述する.その結果,各格助詞に対するデフォルト訳は表\ref{tab:default}のようになる.これにより,すべての動詞について格パターンを登録しなくとも,デフォルトから外れる格助詞が必要となる動詞について格パターンを登録することで,格助詞に対する翻訳精度を向上させることが可能となる.\begin{table}\caption{格助詞のデフォルト訳}\label{tab:default}\begin{center}\begin{tabular}{l|cccccccc}\hline日本語格助詞&が&を&に&で&と&から&へ&より\\\hlineデフォルト訳&\o&ni&d!e&d!e&bil!en&din&g!e&din\\\hline\end{tabular}\end{center}\end{table}以下では,次のような条件のもとで議論を進める.\begin{enumerate}\item翻訳対象とする日本語文に出現するすべての単語について,ウイグル語訳が一つだけ辞書に登録されている.\item日本語文の形態素解析は正しく行われている.\end{enumerate}今回は,格助詞以外の単語に関する訳語の多義性は考慮しなかった.例えば,\ref{sec:wo}節で述べた「約束\underline{を}守る」「子供\underline{を}守る」の例では,「守る」に対するウイグル語訳が異なり,それに伴ない「を」に対応する格助詞も変化する.そのような場合も,動詞に対して適当な訳語を一つだけ与え,それに対応する格助詞を選択した.このような前提条件の下で,日本語の格助詞からウイグル語の格助詞への変換処理の手続きを次のようにまとめる.\begin{tabular}[t]{ll}Step1&入力された日本語文を形態素解析する.\\Step2&形態素解析された日本語の各単語を逐語訳する.格助詞にもデフォルトの訳が与えられる.\\Step3&単語に付加された格パターンの情報から訳語置換を行う.\\Step4&各形態素を接続してウイグル語文を生成する.\\\end{tabular}\vspace{10pt}ここで,日本語--ウイグル語機械翻訳システムには,\cite{OGAWA2000}で提案されたシステムを使用した.\cite{OGAWA2000}の翻訳システムでは,上記のStep1とStep2を派生文法\cite{KIYOSE1989}に基づく形態素解析システムMAJO\cite{OGAWA1999}で行っている.また,Step4に相当するモジュールも存在し,ウイグル語文の生成を行っている.そこで,本研究では,Step3に相当するモジュールを開発した.\cite{OGAWA2000}の翻訳システムで使用している辞書には,各単語の情報が(日本語単語,品詞名,ウイグル語訳語)の3項組の形式で登録されており,例えば「渡る」については(渡r,子音幹動詞,!ot-)の形式\footnote{派生文法に基づいているため,動詞は音韻論的な語幹が登録されている.}で登録されている.今回の手法では,格パターンの情報が必要な単語に関してはウイグル語訳にその情報を付加して,(渡r,子音幹動詞,!ot-\{wo/-din\})という形式で登録している.ここで,第3項のウイグル語訳語の後には,日本語の格助詞とウイグル語の格助詞をペアで登録する.なお,必要であれば,このペアはいくつでも登録可能である.また,こうした格パターンは動詞だけでなく,「逸脱」「獲得」といったサ変名詞や「やさしい」といった形容詞についても,必要に応じて登録することができる.\begin{figure}[tbp]\begin{center}\setlength{\tabcolsep}{4pt}\begin{tabular}[t]{lc|ll|c|ll|ccc}&\multicolumn{1}{c}{Step1\&2}&\multicolumn{2}{c}{}&\multicolumn{1}{c}{Step3}&&\multicolumn{1}{c}{}&Step4&\vspace{5pt}\\\cline{3-4}\cline{6-7}&&(橋,&k!owr!uk)&$\rightarrow$&(橋,&k!owr!uk)&&\\&&(wo,&-ni)&$\rightarrow$&(wo,&\underline{-din})&&\vspace{-7pt}\\\cline{1-1}\cline{9-9}\multicolumn{1}{|l|}{橋を渡る}&$\Rightarrow$&&&&&&$\Rightarrow$&\multicolumn{1}{|l|}{k!owr!uk\underline{din}!otidu}\\\cline{1-1}\cline{9-9}\vspace{-25pt}\\&&(渡r,&!ot-\{wo/-din\})&$\rightarrow$&(渡r,&!ot-)\\&&(u,&-idu)&$\rightarrow$&(u,&-idu)&\\\cline{3-4}\cline{6-7}\end{tabular}\caption{提案手法による日本語--ウイグル語翻訳例}\label{fig:translate}\end{center}\end{figure}本手法を用いて「橋を渡る」がどのように翻訳されるかを,図\ref{fig:translate}に示す.なお,途中の出力は,本来は(日本語単語,品詞名,ウイグル語訳語)という3項組であるが,スペースの都合で品詞名を省略した.本システムでは,形態素解析システムMAJOにより入力日本語文の形態素解析(Step1)と,各形態素の逐語訳(Step2)が同時に行われる.この段階では格助詞「を」はデフォルトである``ni''に翻訳される.次のStep3において動詞「渡r」のウイグル語訳に``!ot-\{wo/-din\}''の形式で格パターンの情報が付加されていることから,格助詞の訳語の変更処理を行う.ここで,係り受けの判定であるが,本機械翻訳システムは構文解析なしで翻訳することを目標の一つにしており,構文解析を利用した係り受け判定は行っていない.そこで,動詞より前に出現した格助詞の内,格パターンの情報に示された格助詞を置き換える.もしも,同じ格助詞が複数出現していた場合,その動詞に近い方の格助詞だけを置き換える.これは,係り受けにおける非交差性,後方修飾性の原則を考慮したものである.図\ref{fig:translate}の例では,「渡る」``!otidu''の前に出現する「を」は一つだけなので,その訳語をデフォルトの``ni''から``din''に変更する.
\section{実験と評価}
\label{prexpr}前章で示した手法に基づき,日本語の格助詞からウイグル語の格助詞への翻訳に関して実験を行った.実験対象として,環境問題を扱った新聞社説など3編の日本語文138文を本システムを用いて翻訳し,生成された文に出現した295個の格助詞について,出現頻度の一番多い訳語を与えた場合と図\ref{fig:translate}の本手法を用いた場合とを比較した.ただし,以下のような格助詞は評価の対象外とした.\begin{enumerate}\item「我が国」などの「が」\item「による」「に関して」のような慣用句の中に含まれる「に」\item「視野に置く」のような単語の組み合わせの中に含まれる「に」\item「買いに行く」のような動詞の連用形に接続する「に」\item引用を表す「と」\item直訳不能なもの\end{enumerate}(1)については「我が」で一つの連体詞と考え,その訳語を``buning''として与えた.これは,所有を表す「が」の用法が限られているためである.よって,今回の実験では,この「が」は格助詞としては現れないため評価対象外とした.(2)については「による」のウイグル語訳は``g!easas!en''である.ここで,「に」は格助詞``g!e''に対応している.しかし,残りの日本語動詞「よる」に対応するウイグル語``asas!en''は動詞ではなく接続助詞である.また,「に関して」については,これ全体に``to!grisida''というウイグル語が対応している.そこで,このような例については,「について」「に関して」を一語として辞書に登録し,その訳語を,それぞれ``g!easas!en'',``to!grisida''とした.(3)については「視野に置く」でウイグル語の``k!ozd!etutidu''に対応する.「視野」と「置く」に分解すると,この訳は得られないため,「視野に置く」で一つの単語として辞書に登録した.今回の実験では,このような慣用表現に含まれる「に」は評価しなかった.(4)について,日本語大辞典\cite{GDIC}では動詞の連用形に接続して目的を表す「に」を格助詞としている.しかし,今回の実験に使用した形態素解析システムMAJOでは,この「に」を格助詞ではなく,動詞接尾辞「-iに」と解析する.これは,MAJOが使用している派生文法の分類に従ったものである.また,日本語--ウイグル語翻訳において,この「-iに」にはウイグル語の動詞接尾辞``!gili''が対応する.(5)についても同様に,日本語大辞典\cite{GDIC}では,引用を示す「と」を格助詞としているが,派生文法では接続助詞\footnote{派生文法の用語では,「接続助辞」となる}としている.これは,引用の「と」が体言以外にも多くの表現に接続可能であり,その意味で並列の意味の「と」とは品詞として異なると考えられるからである.よって,MAJOの解析結果においては,引用の「と」と並列の「と」には異なった品詞が付けられる.また,\ref{sec:to}節で示した通り,引用の「と」はウイグル語``d!ep''に対応する.よって,本研究では,こうした「に」および「と」の区分は形態素解析のレベルで解決する問題として考え,MAJOの形態素解析の段階で格助詞にならない「に」および「と」については,今回の評価対象からは除外した.なお,格助詞の「に」と動詞接尾辞「-iに」の区別,および,格助詞「と」と引用の「と」の区別は,MAJOだけでなく,例えば\cite{FUCHI1995}で提案されている文法でも行われている.また,直訳不能な表現については,元の日本語を別の表現に置き換えて翻訳するなどの特別な処理が必要となるが,今回の実験システムでは逐語訳を基本とし,こうした処理を行っていないため直訳不能な表現は翻訳できない.本論文は格助詞の翻訳精度を調べるのが目的であるため,こうした文は評価の対象外とした.表\ref{tab:results}に本実験の結果を示す.\begin{table}[tbp]\caption{格助詞の翻訳結果}\label{tab:results}\begin{center}\begin{tabular}[t]{c||r|rr|rr}\hline\begin{tabular}[c]{c}日本語\\格助詞\end{tabular}&出現数&\multicolumn{2}{c|}{デフォルト(正訳率)}&\multicolumn{2}{c}{本手法(正訳率)}\\\hlineが&66&66&(100\%)&66&(100\%)\\を&91&77&(84.6\%)&91&(100\%)\\へ&1&1&(100\%)&1&(100\%)\\に&63&40&(63.5\%)&61&(96.8\%)\\から&13&13&(100\%)&13&(100\%)\\より&2&2&(100\%)&2&(100\%)\\で&30&30&(100\%)&30&(100\%)\\と&28&28&(100\%)&28&(100\%)\\\hline合計&295&257&(87.1\%)&293&(99.3\%)\\\hline\end{tabular}\end{center}\end{table}\subsection{「が」}「が」は今回の実験では,66個出現したが,それらはすべて,「汚染\underline{が}広がっている」``mo!hitbul!ginix\underline{\o}kengiyiwatidu'',「異常気象など\underline{が}懸念されている」``!g!elitilik!hawakilimat!katarli!klar\underline{\o}!endix!e!kiliniwatidu''のように主格の機能を持っており,すべて正しく翻訳できた.今回の実験では\ref{sec:ga}節で述べた「水\underline{が}飲みたい」「私\underline{が}飲みたい」のような表現は出現しなかったが,これは動詞「飲む」や,その派生語である「飲みたい」の格パターンからでは区別ができないため,格助詞と動詞との関係だけで処理する本手法では,訳し分けができない.こうした訳し分けを実現するためには,名詞「水」,「私」の意味素性と動詞との関係を利用する必要があると考えられる.\subsection{「を」}「を」は今回の実験では,91個出現したが,ウイグル語では対象を示さない用例が含まれており,デフォルトの``ni''に翻訳する手法では,14個については正しく翻訳できなかった.しかし,動詞の格パターンを利用する本手法によって,すべてを正しく翻訳可能となった.この中には,「再生能力\underline{を}超えて進む環境破壊」``!hasili!ktidari\underline{din}!hal!kipilgirl!eydi!ganmo!hitw!eyranqili!gi''のように,「を」を``din''と翻訳したものが5個,「産業革命\underline{を}促し」``sana!etin!kilawi\underline{g!e}!h!eyd!ekqili!k!kilip''のように,``g!e''と翻訳したものが6個であった.ただし,\cite{IPAL}を調査した段階では発見できなかった以下のような問題が見つかった.「四方\underline{を}海に囲まれた」「生存\underline{を}許されている」といった文では,動詞の受身形に「を」格が係っている.通常,受身形には「が」格が係り,上記の文でも「を」を「が」と言い換えることができる.ウイグル語の場合も,上記の「を」は「が」のデフォルトの訳である``\o''と翻訳するのが正しい.こうした動詞は,本手法において「囲む」や「許す」の格パターンを登録しても解決できない.なぜなら「四方\underline{を}囲む」や「生存\underline{を}許す」という文においては「を」をデフォルトである``ni''と翻訳するのが正しいからである.そこで,今回は「囲まれる」「許される」を一つの動詞として辞書に登録し,それに「を」を``\o''という格パターンを登録することで翻訳を可能とした.今回の実験では,こうした取り扱いが3ヶ所あった.\subsection{「に」}\label{sec:ex_ni}「に」については,デフォルトを``g!e''ではなく,``d!e''とした.これは,出現頻度では``g!e''の方が多くても,``d!e''と翻訳するべき場合に,動詞との関連が希薄であると考えられる例が多かったからである.例えば「今世紀中\underline{に}特定フロンの全廃を目指す」という文では,「に」は時間を表わし``d!e''と翻訳されるが,「目指す」の格パターンとして「に」を考えるよりは,「今世紀中\underline{に}」をひとまとまりと考えた方がよい.実際,「今世紀中\underline{に}」という表現においては,多くの場合に「に」は時間を表し,``d!e''と翻訳するのが正しい.一方,「化石燃料\underline{に}替わる新たなエネルギー」や「宇宙全体\underline{に}かかわっている」の「に」は与格であり,``g!e''と翻訳するのが正しい.この場合,この「に」は「替わる」や「かかわる」に依存していると考えるのが自然である.これは「に」が時間や場所を表す場合には動詞の必須格であることが少ないが,「に」が与格である場合には動詞の必須格であることが多いと考えることができる.よって,「に」に対するデフォルトの訳を``d!e''とし,与格を必須格とする動詞について,「に」を``g!e''にするというルールを与えた.なお,「になる」「にする」という表現に対しては,\ref{sec:ni}節で示したように,「に」がウイグル語において``\o''となる場合が多いので,「なる」「する」の2つの動詞については,「に」を``\o''とするルールを与えた.表\ref{tab:results}では,単純に``g!e''をデフォルトとした場合と,``d!e''をデフォルトとし,本手法を適用した場合とを比較している.本手法を用いて置換を行ったのは44ヶ所あり,その内の40個が「化石燃料\underline{に}替わる新たなエネルギー」``miniralye!kil!gu\underline{g!e}orunbasidi!ganyingienergiyi''のように,``g!e''に置換され,4個が「ゴミの捨て場\underline{に}なる海」``!ehl!etningt!ok!uxoruni\underline{\o}bolidi!gandengiz''のように,``\o''に置換されていた.翻訳失敗した2個のうち,一つは係り受けの解析を間違えたものである.本実験のシステムは,精密な係り受けの解析を行わず,動詞の前に出現した格助詞のうちの最初の語を置き換えているため,格助詞を含む名詞句が省略されている場合などには,その動詞に係っていない名詞句の格助詞を置き換えてしまう.もう一つは「人間はここ\underline{に}自然から切り離された存在となった」``insanbu\underline{\o}y!ert!ebi'!ettinayril!ganm!ewjudiy!etbil!enboldi''という文である.本システムは,「なる」に登録された格パターンの規則を使用して「に」を``\o''に置換する.「存在\underline{に}なった」という文においては「に」を``\o''と翻訳するのが正しいが,今回は「存在\underline{と}なった」であったため,それより前の「ここ\underline{に}」の方を置換してしまった.「ここ\underline{に}」の「に」は場所を示しており,``d!e''と翻訳されるのが正しい.こうした誤りを防ぐためには,名詞の意味素性などの導入が必要と考えられる.\subsection{「と」}\label{sec:ex_to}今回の実験では格助詞の「と」は28個出現したが,「自然\underline{と}明確に区別され」``t!ebi'!et\underline{bil!en}eni!kp!er!kl!end!ur!ul!up'',「地球環境の悪化\underline{と}人類の将来への危惧」``y!erxarimo!hitnaqarlixix\underline{bil!en}insanlarningk!elg!usig!ebol!gan!endix!e''のように,すべてウイグル語の``bil!en''に対応していた.これは,引用の「と」を形態素解析の段階で区別したためである.引用の「と」は52個出現したが,これらは「地球が水惑星\underline{と}呼ばれ」``y!erxarisus!eyyarisi\underline{d!ep}atilip''のように``d!ep''となったのが20個,「核戦争\underline{と}いう滅亡の危機」``yadrouruxi\underline{\o}d!eydi!gan!halak!etningkirizisi''のように,「と言う」「となる」の組み合わせで出現し,``d!ep''が省略され``\o''になったものが32個であった.なお,表\ref{tab:results}には,格助詞の「と」の出現数のみ記録してある.ただし,これは形態素解析が正しく行われているという前提に依拠するものであり,実際には「と」のタグ付けは形態素解析においても難しい問題であり,MAJOでも完璧ではない.\subsection{その他の接尾辞}その他の接尾辞については,デフォルトの訳を与えることによって正しい翻訳ができた.そのため,それらの接尾辞の翻訳のための格パターンは特に登録しなかった.上記のように,改良できる余地と困難な問題とがあるが,提案手法によって,日本語--ウイグル語機械翻訳における格助詞の翻訳の品質向上が達成できたことが分かる.
\section{おわりに}
本論文では,日本語とウイグル語の格助詞間の対応関係を詳細に調べ,動詞と格助詞の対訳との関連を明確にした.これまでの研究では,日本語--ウイグル語機械翻訳のみならず,日韓機械翻訳を含んだ研究においても,日本語とそれらの言語との類似点を指摘しているが,助詞に関する一致点と差異を具体的及び統計的に示した例はほとんどない.単語の文字列としての近さを基準にした言語の分類に関する研究の一つ\cite{Vlad}では,日本語とアルタイ言語系の一つであるトルコ語は,65個の言語の中で非常に近い関係にあることが示されているが,本論文での調査結果は,両言語の近さ\footnote{トルコ語とウイグル語は,チュルク諸語の言語である.}をもう一つの観点から示すことができたとも言える.さらに,動詞の格パターンを利用して格助詞の訳語を選択する手法を提案し,それを組み込んだ日本語--ウイグル語形態素解析システムを実現した.さらに,実験によりその有効性を示した.本実験は,比較的規模の小さいデータで行ったが,我々が示した変換処理の方法の有効性をよく示せたと考えている.今後は,比較的規模の大きいデータを対象にした実験を行い,品質の高い機械翻訳システムの実現を目指したい.ただ,本研究では,以下の二つの前提をもって翻訳を行っている.一つは,格助詞の翻訳を行う前に動詞が一意に決定できるというものである.今回提案したシステムでは,動詞の訳語が決定したあと,その動詞に付与された格パターンから助詞に対する訳語を決定している.しかし,実際には動詞にも多義性があり,\ref{sec:wo}節で述べた「約束\underline{を}守る」「子供\underline{を}守る」の例のようにその訳語を決定しなければ格助詞の訳が決まらない場合がある.しかし,動詞の多義性が解消できれば,本論文の手法が適用できることはもちろんである.また,それとは逆に,格パターンから動詞の訳語が決定できる場合がある.例えば,「教える」に相当するウイグル語には``o!kutidu'',``!ug!etidu''の二つがある.ここで,「先生が生徒を\underline{教える}」,「先生が生徒に水泳を\underline{教える}」を,ウイグル語に翻訳すると,それぞれ``o!kut!ku!cio!ku!gu!cilar{\itni}\underline{o!kutidu}'',``o!kut!ku!cio!ku!gu!cilar{\itg!e}su!uz!ux{\itni}\underline{!ug!etidu}''となる.つまり,``o!kutidu''と``!ug!etidu''は,意味はほとんど同じであるが,格パターンが異なるのである.我々は現在,こうした名詞との組み合わせや,出現した動詞の格パターンにより動詞の訳語選択を実現する手法について研究を進めている.もう一つは,目標言語であるウイグル語に出現する格助詞は,原言語である日本語の方にも必ず現れている,という前提である.しかし,日本語とウイグル語との間の概念の捉え方の違いにより,この前提が成り立たない場合がある.例えば,「このリンゴ\underline{を}3つ買う」``Bualmi\underline{din}3{\bfni}setiwalidu'',「あの封筒\underline{を}10枚下さい」``Awukonwert\underline{din}10{\bfni}bering''のような文では,日本語文には格助詞「を」だけがあるのに対し,ウイグル語文では,``ni''と``din''が出現している.これらのウイグル語表現を日本語に直訳すると,それぞれ「このリンゴ\underline{から}3つ{\bfを}買う」「あの封筒\underline{から}10枚{\bfを}下さい」となる.しかし,ここでの「3つ」,「10枚」を取り除くと,「このリンゴ\underline{を}買う」``Bualmi\underline{ni}setiwalidu'',「あの封筒\underline{を}下さい」``Awukonwert\underline{ni}bering''のようになり,格助詞``din''は出現せず,「リンゴ」や「封筒」が動作の対象となる.日本語では「リンゴ」や「封筒」がまず動作の対象に設定され,それからその対象の「数」や「量」でその動作が副詞的に修飾されるのに対し,ウイグル語では,「数」や「量」があれば,それが動作の主対象になり,そうでない場合には,日本語と同じ格構造になるのである.また,「原稿\underline{を}3通送った」``Orginal\underline{din}3{\bfni}!ew!ettim'',「原稿\underline{を}3回送った」``Orginal\underline{ni}3!kitim!ew!ettim''の例からも両言語の捉え方の違いが分かる.ウイグル語では,「3回」は動作対象にならないが,「3通」は動作対象になるのである.こうした点も,今後の課題として検討していく必要がある.\bibliographystyle{jnlpbbl}\bibliography{290}\appendix
\section{ウイグル語文字体系}
現在使われているウイグル文字は,ほとんどがアラビック文字から取り入れられ,一部が新たに追加された32の文字からなる文字セットであり,アラビア語と同じ右から左へ書かれる.それとは別に,ウイグル語をローマ字表記で表わす場合もあるが特に決った体系がない.我々が用いたローマ字体系とアラビックベースの文字体系の対応関係を表\ref{tab:uirm}に示す.\begin{table}[hbp]\caption{ウイグル文字とローマ字表記の対応}\label{tab:uirm}\begin{center}\atari(143.7,23.1)\end{center}\end{table}\begin{biography}\biotitle{略歴}\bioauthor{小川泰弘}{1995年名古屋大学工学部情報工学科卒業.2000年同大学院工学研究科情報工学専攻博士課程後期課程修了.同年より,名古屋大学助手.自然言語処理に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{ムフタルマフスット}{1983年新彊大学数系卒業.1996年名古屋大学大学院工学研究科情報工学専攻博士課程満了.同年,三重大学助手.現在,名古屋大学計算理工学専攻稲垣研究室特別研究員.自然言語処理に関する研究に従事.人工知能学会,情報処理学会各会員.}\bioauthor{稲垣康善}{1962年名古屋大学工学部電子工学科卒業.1967年同大学院博士課程修了.同大助教授,三重大学教授を経て,1981年より名古屋大学工学部・大学院工学研究科教授.工学博士.この間,スイッチング回路理論,オートマトン・言語理論,計算論,ソフトウエア基礎論,並列処理論,代数的仕様記述法,人工知能基礎論,自然言語処理などの研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,電気学会,日本ソフトウエア科学会,日本OR学会,IEEE,ACM,EATCS各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V25N02-01 | \section{はじめに}
\label{s:introduction}機械翻訳システムでより多くの文を対象に翻訳精度を維持したい場合,その量に応じた大きさの語彙をシステムが取り扱う必要がある.語彙サイズは様々な機械翻訳手法の性能や効率に影響を及ぼすが,特に近年活発に研究されているニューラル翻訳モデル\cite{encdec}では,語彙サイズの増加に伴う影響が顕著である.図\ref{fig:nmt}はエンコーダ(Encoder:符号化器),デコーダ(Decoder:復号器)および注意機構(Attention)と呼ばれる個々のネットワーク構造からなる翻訳モデル\cite{bahdanau14,luong15}であり,ニューラル翻訳モデルとして典型的に使用される構造である.エンコーダは入力シンボル列を連続空間上のベクトル集合に変換し,この情報をもとにデコーダが出力シンボルを1個ずつ順に決定する.エンコーダとデコーダの内部構造はモデルによって様々であり,典型的には複数のリカレントニューラルネットワーク(RecurrentNeuralNetwork:RNN)を用いて構成される.注意機構はエンコーダが生成したベクトルに関する重み付き和を与えるモデルで,デコーダが次回のシンボル推定に使用する文脈情報を生成する.\begin{figure}[b]\begin{center}\includegraphics{25-2ia1f1.eps}\end{center}\hangcaption{エンコーダ・デコーダモデルに注意機構を導入した典型的なニューラル翻訳モデルの概観.このうち,出力層における内部ベクトルから単語への変換が大きな計算負荷となる.}\label{fig:nmt}\end{figure}ここで,ニューラルネットワークで単語等の離散的なシンボルを扱う場合,モデルの入出力層でシンボルと内部ベクトルとの相互変換を行う必要がある.この特徴は特に出力層側で問題となる.入力層側は毎回特定の単語が与えられるため,無関係な単語に関する計算は行われないのに対し,出力層側はあらゆる候補の中から妥当な出力単語を選択する必要があるためである.単語選択のアルゴリズムとして語彙サイズに対する時間・空間計算量の大きな手法を選択した場合,実質的な計算コストが語彙サイズに依存することとなり,翻訳モデルを構築・運用する上での問題となる.実際,ニューラルネットワークによる単語推定で最も単純かつ標準的な手法であるソフトマックス演算は,語彙に含まれる全単語のスコアを隠れ層の一次結合として愚直に計算するため,計算量は語彙サイズに比例する.このため,出力層の計算をいかにして軽量化するかが重要な課題であると言える.この問題はよく認識されており,\ref{sec:prior}で紹介するように,従来様々な解決手法が提案されてきた.出力層を改良するにあたっての着眼点は様々であり,従来手法が何を重点的に解決しようとしているかはそれぞれ異なる.この中で,特に重要と考えられる4つの観点を以下に示す.\begin{description}\item[翻訳精度]手法を適用した際,平均的な翻訳精度が大幅に低下してはならない.特に,単純なソフトマックスと比較して同等程度の性能が維持可能,あるいは,可能であればより高い性能を達成可能である手法が望ましい.\item[空間効率(使用メモリ量)]膨大なメモリを必要とする手法を実行するためには大規模かつシステムが専有可能な計算資源が必要であり,携帯デバイス等の計算資源の制約の強い機器での直接実行には適さない.多くの環境に搭載可能なシステムを構築するためには,手法自体が可能な限り少ないメモリ消費の下で動作可能である必要がある.\item[時間効率(実行速度)]可能な限り高速に動作する手法が望ましい.高速にパラメータを学習可能であればシステムをチューニングする利便性が向上し,また運用時に高速なシステムは計算資源やユーザへの負担を減少させることとなる.空間効率と同様に,運用時に強力な計算資源が使用可能とは限らず,このため非力なCPUでも効率的に動作可能な手法がより望ましい.\item[並列計算との親和性]運用時とは対照的に,パラメータの学習時にはGPU等の強い並列性を持つ計算資源を使用することができる場合がある.並列化の容易な手法であれば,学習時にこれらの強力な計算資源の恩恵に与ることが可能である.\end{description}これらの観点のうち,いずれの項目を特に重視するかが手法自体の特徴となる.提案手法では特に空間効率と時間効率に関して,モデルの定式化段階での計算量を削減することに主眼を置き,翻訳精度は既存手法で最も表現力の高いソフトマックスモデルと同等程度の実現を目標とした.提案手法による出力層はソフトマックスとは異なり,語彙中の単語に対して直接スコアを計算することは行わない.その代わり,各単語に一意な二値符号を割り当て,そのビット列を単語の表現として出力層で学習することで,間接的に単語の推定を行う.この手法を用いることで,最も理想的な場合で$2^n$種類の単語を$n$ビットのみを使用して表現することが可能となるため,その推定に必要な時間・空間計算量を語彙サイズ$V$に対して$O(\logV)$まで減少させることが可能となる.提案手法の基本的なアイデアはこのように単純だが,実験で示すように,単に二値符号のみを用いる手法では翻訳精度が従来手法と比べて大幅に低下してしまうという問題がある.本論文では更に,この問題に対して2種類の観点から提案手法を改良する手法を導入する.まず,従来のソフトマックスモデルを部分的に導入することで,高頻度語と低頻度語を分離して学習可能とする手法を提案する.また,二値符号そのものの頑健性を向上させるために,誤り訂正符号,特に畳込み符号\cite{convcode}による冗長化を施す.実験では,二値符号予測とこれらの改善手法について,難易度の異なる2種類の英日・日英翻訳タスクを用いて翻訳精度の比較を行った.この結果より,提案手法が従来のソフトマックスと遜色ない翻訳精度を達成可能であるとともに,出力層の動作に必要なパラメータ数,および計算時間の両面においてソフトマックスよりも優れていることを示す.
\section{詳細な問題定義と従来研究}
\subsection{単純なソフトマックスモデルの定式化}近年のニューラル翻訳モデルでは,多くのモデルがワンホット表現と呼ばれる単語の表示手法を入出力層に導入している.つまり,語彙サイズ$V$と同じ数の次元の連続空間$\mathbb{R}^V$を考え,このうちある単語ID$\id(w)\in\{x\in\mathbb{N}\|\1\leqx\leqV\}$に対応する次元のみ1,他の次元を0とする単位ベクトル$\bm{e}_{\id(w)}\in\mathbb{R}^V$を単語の表現と見なす.本研究では特に出力層について着目するため,以降は単語や語彙に関する用語は全て目的言語側のみを指して用いることとする.さて,$\mathbb{R}^{V}$の部分空間\begin{equation}\mathbb{R}_{\mathrm{Cat}}^V:=\left\{\bm{x}\|\\bm{x}\in\mathbb{R}\land\foralli.0\leqx_i\leq1\land\sum_{i=1}^Vx_i=1\right\}\end{equation}は$V$次元のカテゴリカル分布の空間を表し,各$\bm{e}_{\id(w)}$はちょうどその頂点に位置する.ここから,ワンホット表現で得られるベクトルは特定の語彙を定義域とする確率質量関数の一種と見なすことができる.ここで添字付き細字変数$x_i$はベクトル$\bm{x}$の$i$番目の要素を表し,以降の式においても,他のベクトルに対して同様の記法を用いるものとする.典型的なニューラル翻訳モデルの出力層では,出力された$V$次元ソフトマックス確率分布$\bm{v}\in\mathbb{R}_{\mathrm{Cat}}^V$と,ある単語$w$のワンホット表現$\bm{e}_{\id(w)}$との交差エントロピーを最小化するようパラメータを学習する.図\ref{fig:nmt}に示すように,出力層は典型的には1層の全結合ネットワークと見なすことができ,\pagebreak損失関数の計算は以下の手順となる.\begin{align}L_{\mathcal{H}}(\bm{v},\id(w)):=&\mathcal{H}\left(\bm{e}_{\id(w)},\bm{v}\right)\label{eq:entropy-1},\\=&-u_{\id(w)}+\log\sum_{i=1}^V\expu_i,\label{eq:entropy}\\\bm{v}:=&\frac{\exp\bm{u}}{\sum_{i=1}^V\expu_i},\\\bm{u}:=&W_{hu}\bm{h}+\bm{\beta}_u.\label{eq:softmax-output}\end{align}ここで,$W_{hu}\in\mathbb{R}^{V\timesH}$と$\bm{\beta}_u\in\mathbb{R}^{V}$は勾配法で学習可能なパラメータであり,$\bm{h}$は出力層の計算に用いる隠れ層のベクトル,$H$は$\bm{h}$の次元数を表す.また$\exp\bm{u}$はベクトル$\bm{u}$に関する要素ごとの指数関数であり,他のベクトルに関しても同様の表記を用いるものとする.ワンホット表現はただ一つの要素が1であるベクトルのため,式(\ref{eq:entropy-1})を交差エントロピーの定義に従って分解することで式(\ref{eq:entropy})が得られる.複数の隠れ層から出力が計算されるネットワークの場合は,$\bm{h}$として出力層に直結する全てのベクトルを結合したものを考えればよい.式(\ref{eq:softmax-output})より明らかに,単純なソフトマックスモデルの計算には$O(HV)$だけの時間・空間計算量が必要となる.このうち,隠れ層の次元数$H$は典型的には数百から千程度で決め打ちされることが多いのに対し,語彙サイズ$V$は使用するコーパスによって数千から数万程度の値を選択することとなり\cite{encdec},出力層の計算量に直接影響を与える.\subsection{出力層の軽量化に関する従来手法}\label{sec:prior}出力層の軽量化は,ニューラル翻訳モデルと同様のネットワーク構造を持つモデル群の中心的な話題のひとつであり,様々な着眼点に基づく手法が提案されている.これらの着眼点は以下のようなグループに分類でき,グループの異なる手法はいくつかの例外を除き基本的に併用可能である.\begin{description}\item[後処理による隠れ層の大きさの削減]前述のように,ソフトマックスモデルの計算量は時間・空間ともに$O(HV)$となる.本グループに属する手法は,学習済みのモデルに対して後処理を行い,隠れ層のサイズ$H$の大きさを縮小することで,全体的な計算量の圧縮を行うことを目的としている.また,出力層の直前のみでなく,モデルの隠れ層全体を削減する手法についても本グループに属するものと考えられる.このような考えに基づく一般的な手法としては,学習済みパラメータのノルムを比較し,実際の計算への寄与が小さいものを削除してしまう\textbf{重み枝刈り(WeightPruning)}\cite{weight-pruning},学習済みモデルの最終的な出力を教師データとし,これを再現するより小さなモデルを再学習する\textbf{蒸留(Distillation)}\cite{distillation}などが挙げられる.いずれの手法においても,その着眼点は隠れ層側の圧縮であり,語彙サイズ$V$に関しては元の計算量が維持される点に特徴がある.\item[確率分布の変形]本グループに属する手法は,隠れ層のサイズ$H$,及び語彙サイズ$V$を変えず,最終的な確率の定式化に変更を加えることで計算量を削減することを目的としており,後述するように本論文の提案手法はこのグループに属する.\textbf{階層的ソフトマックス(HierarchicalSoftmax)}\cite{hierarchical-softmax}では,二分木を用いて単語を階層的にクラスタリングした後,木の根から左右どちらの枝を辿るかを二値分類問題として順に判定してゆくことで単語の推定を行う.このとき単語の生成確率は,木の根から単語に至るまでに経由した全ての分岐に関する二値分類確率の総乗として得られる.本手法を用いる場合,すべての単語に関する確率を求める操作は通常行わず,各分岐において選択されなかった側の枝に付属する単語は全て候補から除外される.このような貪欲探索を適用することで,選出される単語の大域最適性が保証されない代わりに,出力層の時間計算量を理想的には$O(H\logV)$まで削減することが可能となる\footnote{語彙に含まれる全単語のスコアを計算する必要がある場合,木に含まれる全ての分岐に対して評価が必要であり,このときの償却計算量は$O(HV)$となる.}.一方,木に含まれる分岐の数は$V-1$であり,それぞれが固有のパラメータを持つため,出力層全体の空間計算量はソフトマックスと同様$O(HV)$となり,パラメータの保持に必要なメモリの削減は期待できない.また木構造を使用することにより計算手順が複雑化するため,並列計算を行うには実装の工夫が必要となる.階層的ソフトマックスは単語に対応するある種の二値符号を学習するモデルであると考えられるが,異なる観点から単語を二値符号化し,そのビット列を学習する手法として\textbf{ブルームフィルタ(BloomFilter)}を適用する研究がある\cite{bloom-embedding}.この手法ではフィルタ中の各ビットが1になる確率を尤度関数としてモデルの学習を行っているが,フィルタ自体の特性により,ビット列から単語を復元する写像の定義が曖昧であるため,機械翻訳をはじめとした文生成タスクへ直接適用するのは難しいと考えられる.\textbf{区分ソフトマックス(DifferentiatedSoftmax)}\cite{differentiated-softmax}では,単語を複数のグループに分類し,それぞれのグループを隠れ層の異なる部分と対応させることで,比較的小さな行列の組み合わせで出力層を表現し,計算時間・使用メモリ量の両面での向上を実現している.これはパラメータ行列$W_{hu}$を部分的にゼロ行列に固定することと等しい.ところが時間・空間計算量の観点では$O(HV)$から変化がなく,語彙サイズ$V$が増加した際の拡張性の面では問題が残る.また,異なるグループに属する単語間の関連性を出力層で十分扱うことができず,全結合型のネットワークを用いるソフトマックスと比較すると改善の余地が残されている.\textbf{適応ソフトマックス(AdaptiveSoftmax)}\cite{adaptive-softmax}では,単語を出現頻度に基づいて複数のグループに分類し,まず高頻度語のグループにおいて通常のソフトマックスを実行する.このときグループ内の単語とは別に,各低頻度語のグループそのものに対応するラベルを追加しておき,ソフトマックスによってそのラベルが選出された場合には該当するグループで再びソフトマックス計算を行う.この手法では,パラメータ数が低頻度語グループの推定の分だけ通常のソフトマックスから若干増加しており,推定に使用するグループ数を$G$とすると,パラメータに関する空間計算量は$O(H(V+G))$となる.一方で,上位のソフトマックスで選択されなかったグループに属するパラメータは階層的ソフトマックスと同様に無視されるため,実質的な出力層の計算の大部分を高頻度語グループのソフトマックスのみで終了することができ,時間計算量の短縮が見込める.ただし,選出される単語の大域最適性がモデルの設定によっては保証されない可能性があり,この点も階層的ソフトマックスと同様である.\textbf{LightRNN}\cite{lightrnn}は各単語に2種類の異なるワンホット表現を割り当て,単語推定を2つのソフトマックスの積に分解することで出力層の時間・空間計算量を$O(H\sqrt{V})$に削減する手法である.この手法では2つのソフトマックスをRNNの異なる時刻に割り当てるため,RNNの系列長は通常のソフトマックスのちょうど2倍となるが,全体として階層的ソフトマックスより効率的に動作することを報告している.また,前回の学習結果を用いてワンホット表現の割り当てを修正することで,推定精度をより向上させる手法についても提案している.\item[サンプリング]出力層が生成する確率分布を全体の計算なしに近似する手法として,適当な数の不正解ラベルを選択し,これらと正解ラベルとの関係を損失として学習する\textbf{サンプリング法}が適用されることがある\cite{nce,nce-lm,word2vec}.これらの手法は学習時に語彙サイズ$V$の時間計算量への影響を取り除くことができ,学習速度を向上させることが可能である一方,テスト時には元のモデルと同じ時間計算量を必要とする.空間計算量,特にパラメータ数に関しては元のモデルと同一であり,元のモデル構造を維持したまま学習時の時間計算量を削減する手法であると言える.また,確率分布の定式化手法によっては,サンプリング法の適用に制約を受ける場合がある.サンプリング法の効果的な応用として,単語間で分散表現を共有することでパラメータ数を削減する手法が提案されている\cite{sparse-word-representation}.この手法では,各単語の分散表現を予め選出した共通単語の分散表現の線形和として定義することで,ネットワーク内のパラメータ数に関する空間計算量を語彙サイズ$V$から共通単語数$V'$(論文では$V'=8\mathrm{k}$に固定)に削減している.純粋なモデルの目的関数はソフトマックスと同一であるため,このままでは線形和の操作分だけ計算量が増加してしまうが,サンプリング法を適用することでこの欠点を回避している.\item[語彙の変更]以上の手法がすべて語彙が与えられた下での軽量化手法であるのに対し,語彙の定義自体を変更することで$V$そのものを小さくしてしまう手法が適用されることがある.最も単純には語彙として\textbf{文字}を使用する手法\cite{character-nmt}が挙げられるが,これはエンコーダやデコーダの生成する系列長が単語を用いた場合と比べて著しく増加してしまう欠点がある.より効率的な手法として,学習データに含まれる全ての文字列を被覆する部分文字列の集合を学習し,これを語彙として使用する\textbf{サブワード(Subword)法}\cite{gnmt,bpe-nmt,variable-length-encoding,rnnlm-subword}が挙げられる.語彙サイズを適切に設定し,コーパスに対し最適化されたサブワード列は,単語列と比較して遜色ない程度の系列長を実現できることが知られているが,効果的なサブワード集合の学習に関する知識が別途必要となる\footnote{https://github.com/google/sentencepieceに,Google社の提案するサブワードモデルであるSentencePieceに関するいくつかの実験結果が紹介されており,既存の形態素解析器と組み合わせた場合等,より発展的な応用についても議論されている(2017年9月30日閲覧・GitHubコミット番号73).}.\end{description}
\section{二値符号予測に基づく単語推定モデル}
\label{s:model}本研究で提案する手法は,いずれも前節の着眼点のうち,確率分布の変形に基づいて計算量を削減する手法のグループに属する.本節では提案手法の基本的な定式化,及び単純な手法からの性能の改善手法について導入する.\subsection{二値符号を用いた単語の表現手法}図\ref{fig:prediction-models}(a)は従来のソフトマックスモデルによる単語推定モデルを表す.また図\ref{fig:prediction-models}(b)は本研究で提案する二値符号を用いた単語推定モデルを表す.提案手法はソフトマックスモデルとは異なり,各単語の生成確率をモデルが直接求めることは行わず,二値符号の各ビットの生成確率から間接的に単語の生成確率の推定を行う.まず,\begin{equation}\bm{b}(w):=[b_1(w),b_2(w),\cdots,b_B(w)]:\mathcal{V}\rightarrow\{0,1\}^B\end{equation}を各単語$w$に直接対応するビット列とする.ここで各$b_i(w)\in\{0,1\}$はそれぞれ独立した$w$に関する二値決定関数であり,$B$はビット列に含まれるこれらの関数の個数とする.また$\mathcal{V}$は語彙を表す.なお,本節における$V$は単語ID$\id(w)$の異なり数を表し,実際の語彙サイズ$|\mathcal{V}|$とは異なることをここで注記しておく.\begin{figure}[t]\begin{center}\includegraphics{25-2ia1f2.eps}\end{center}\caption{ソフトマックスモデルと提案手法における出力層の設計の相違点}\label{fig:prediction-models}\end{figure}議論を明確にするために,$\bm{b}(w)$,およびビット列から単語への逆方向の写像$b^{-1}(\cdot):\{0,1\}^B\rightarrow\mathcal{V}$に対して以下のような制約が存在するものとする.\begin{itemize}\item$\bm{b}(w)$は単語ID$\id(w)$に関して単射である.つまり,\begin{equation}\id(w)\neq\id(w')\Rightarrow\bm{b}(w)\neq\bm{b}(w').\label{eq:bit-array-constraint}\end{equation}が成立する.この制約は,学習時に各単語を明確に区別して扱うために必要である\footnote{大文字・小文字等の表記の違いをどう扱うかは翻訳モデル自体の設計とは直接関係ないと考えられるため,これらの判断は$\id(w)$の設計に隠蔽されているものとする.}.\item$b^{-1}(\cdot)$は左逆写像であり,定義域は$\{0,1\}^B$全体である.つまり$b^{-1}(\bm{b}(w))=w$が成り立つとともに,$\bm{b}(\cdot)$の像に含まれるかどうかに関わらず,あらゆるビット列が何らかの単語に関連付けられているものとする.この制約は,翻訳モデルの不安定性により解釈不能なビット列が生成される可能性を排除するために必要であるとともに,\ref{s:ecc}節で導入する誤り訂正符号の根拠としても重要である.\end{itemize}これらの制約により,$V$種類の単語を十分に識別するために必要なビット数として\begin{equation}B\geq\lceil\log_2V\rceil\end{equation}が自明な制約として得られる.提案手法の出力層では,$\bm{b}(w)$の各ビットが1となる確率\begin{equation}\bm{q}(\bm{h}):=[q_1(\bm{h}),q_2(\bm{h}),\cdots,q_B(\bm{h})]\in[0,1]^B\end{equation}を,式(\ref{eq:logistic})に示すように,現在の隠れ層の値$\bm{h}$からそれぞれ独立したロジスティック回帰モデルで推定する.\begin{align}\bm{q}(\bm{h})=&\sigma(W_{hq}\bm{h}+\bm{\beta}_q),\label{eq:logistic}\\\sigma(\bm{x}):=&\frac{1}{1+\exp(-\bm{x})}.\end{align}ここで$W_{hq}\in\mathbb{R}^{B\timesH}$と$\bm{\beta}_q\in\mathbb{R}^B$は学習可能なパラメータである.これより,ある単語$w$が$\bm{q}(\bm{h})$から生成される確率は,$\bm{q}(\bm{h})$に含まれる各ビットごとの確率の積\begin{equation}\mathrm{Pr}(\id(w)|\bm{h}):=\prod_{i=1}^B\left(b_i(w)q_i(\bm{h})+(1-b_i(w))(1-q_i(\bm{h}))\right)\end{equation}として得られる.生成確率が最大となるビット列を$\bm{q}(\bm{h}$)から得るには,単に$q_i(\bm{h})\geq1/2$である場合は1,そうでなければ0を出力ビットとすればよい.ここまでで記述したビット列に関する制約は非常に一般的なものであり,単語とビット列を対応させる手法には様々なものが考えられる.また,翻訳モデルにとってどのようなビット列の割り当て手法が効果的であるかは自明ではない.このため本研究では,事前実験として複数種の割り当て手法で実際に翻訳モデルの学習を行い,その中で経験的に最も高い翻訳精度を記録したAlgorithm\ref{alg:mapping}に示す単語の出現頻度に基づく手法を採用した\footnote{Algorithm\ref{alg:mapping}以外に事前に実験した手法としては,完全なランダム,Huffman符号\cite{huffman-code},BrownClustering\cite{brown-clustering},word2vecの単語ベクトルの符号に基づいた割り当て等がある.可変長の符号については末尾を0で埋めることで固定長として扱った.}.ここで,\texttt{UNK}(\textit{unknown})は語彙に含まれない単語,\texttt{BOS}(\textit{begin-of-sentence})は文頭記号,\texttt{EOS}(\textit{end-of-sentence})は文末記号である.また$\mathrm{rank}(w)\in\mathbb{N}_{>0}$は学習データ中の出現頻度に基づく各単語の順位である.Algorithm\ref{alg:mapping}によるビット列の割り当ては最も効率的な手法($B=\lceil\log_2V\rceil$)であることが保証される.また,高位のビットの組み合わせが単語のおおよその出現頻度を示していると考えられる一方,下位のビットほどランダム性が強まり,単語に関する頻度以外のどのような情報も保持していないと考えられる.\subsection{損失関数}従来のモデルと同様に,提案手法による出力層は勾配法を用いて翻訳モデル全体と同時に最適化を行う.このため,ビット列のための損失関数はいたるところ(劣)偏微分可能であり,また\begin{equation}L_{\mathcal{B}}(\bm{q},\bm{b})\left\{\begin{array}{ll}=\epsilon_L,&\\mathrm{if}\\bm{q}=\bm{b},\\\geq\epsilon_L,&\\mathrm{otherwise}.\end{array}\right.\label{eq:loss-constraint}\end{equation}を満たすべきである.ここで$\epsilon_L\in\mathbb{R}$は損失関数の最小値であり,学習には影響しない.明示的に確率モデルを学習する観点では,このような損失関数として交差エントロピー\begin{equation}L_{\mathcal{B}}(\bm{q},\bm{b}):=-\sum_{i=1}^B\left(b_i\logq_i+(1-b_i)\log(1-q_i)\right),\label{eq:binary-cross-entropy}\end{equation}を用いるのが望ましいが,事前実験により二乗誤差\begin{equation}L_{\mathcal{B}}(\bm{q},\bm{b}):=\sum_{i=1}^B(q_i-b_i)^2,\label{eq:squared-distance}\end{equation}を用いる方が最終的な翻訳精度が僅かに向上することが確認された.このため,実験では損失関数として式(\ref{eq:squared-distance})を使用することとした.\subsection{二値符号予測モデルの計算量}二値符号予測を用いた場合の出力層の計算量は,空間計算量・時間計算量ともにビット数$B$に関して$O(HB)$となる.ここで単語とビット列間の割り当てにAlgorithm\ref{alg:mapping}で示したような最も効率的な手法を用いた場合,この計算量は$O(H\logV)$に等しくなる.これは従来のソフトマックスモデルで必要とされた$O(HV)$と比較して顕著に小さく,また$V$種類のラベルを識別するモデルとしては最小の計算量であると考えられる.例として$V=65536=2^{16}$とした場合,出力層に必要とされるのは$16$ビット分のパラメータであり,従来法と比較して$16/65536=1/4096$程度までパラメータ数が削減されることとなる.\begin{algorithm}[b]\caption{実験で使用した単語からビット列への割り当て手法}\label{alg:mapping}\input{01algo01.tex}\end{algorithm}ここで,二値符号予測モデルは従来手法である階層的ソフトマックス\cite{hierarchical-softmax}に強い制約を導入したものと捉えることが可能である.具体的には,単語のビット列への割り当てを二分法の一種に基づいて行う点は階層的ソフトマックスと提案手法の共通点であり,各ビットの推定にビット間の従属性を仮定しない点,および二分木上の同一階層で常に同じパラメータを使用する2点が異なる.これらの制約により,提案手法のビット列$\bm{b}$の各ビットは完全に並列に計算することが可能であり,式(\ref{eq:logistic})でも示したように,実質的に単一の行列による積算として表現可能である.この特徴は,提案手法がGPUなどの並列計算に特化した計算資源上で特別な処理なしに計算可能であることを示している.また,ビット間の従属性を仮定しないため,ビットごとの独立した推定結果から常に大域最適なビット列を得られる点も階層的ソフトマックスと異なる.
\section{二値符号予測モデルの改良}
前節までで示した単純な二値符号予測には,翻訳精度の点で問題が残っている.実験で示すように,二値符号予測を単体で用いた翻訳モデルは,従来のソフトマックスモデルと比較して大幅に翻訳精度の低下を招くこととなる.\ref{s:hybrid}節と\ref{s:ecc}節では,このような翻訳精度の問題を解決するために,2種類の改良を導入することで二値符号予測モデルの翻訳精度を向上させる手法を提案する.\begin{figure}[b]\begin{center}\includegraphics{25-2ia1f3.eps}\end{center}\caption{ソフトマックスと二値符号予測の混合モデル}\label{fig:hybrid-model}\end{figure}\subsection{ソフトマックスと二値符号予測の混合モデル}\label{s:hybrid}自然言語の単語のユニグラム出現頻度はZipfの法則\cite{zipf49}に従うことが知られており,学習データ全体のほとんどが一部の頻出語のみに偏っていると言える.その結果,ニューラル翻訳モデルの出力層から伝えられる勾配も頻出語由来のものが多数となり,語彙全体を効率よく学習できない可能性があるという問題がある.従来のソフトマックスモデルでは,各単語のスコアをそれぞれ独立したパラメータを用いて推定しており,単語の出現頻度の偏りに起因する問題はこれらのパラメータ全体に分散する形で回避されていた.一方,提案手法である二値符号予測モデルでは同一のパラメータで頻出語と希少語の両方に対応する必要があり,学習機会の少ない希少語のビット列の学習を頻出語によって阻害されてしまう可能性がある.この問題を回避する単純な方法として,頻出語と希少語の予測をモデル的に分離し,一方の勾配が他方に影響を与えないようにすることが考えられる.このようなモデルとして,本節では図\ref{fig:hybrid-model}に示すソフトマックスと二値符号予測の混合モデルを提案する.具体的には,図\ref{fig:hybrid-model}左側のソフトマックス層で,上位$N-1$位までの頻出語と「その他の単語」に相当する記号\texttt{OTHER}を識別するモデルを学習する.希少語を出力するには,まず\texttt{OTHER}記号をソフトマックス層で推定し,その後図\ref{fig:hybrid-model}右側の二値符号推定により具体的な単語のビット列を推定する,という二段構造の推定を行う.ここで,ソフトマックス層と二値符号推定はそれぞれ独立したパラメータにより計算されるため,実際には並列計算が可能である点に注意する.この手法による各単語の生成確率は,ソフトマックス層の確率と二値符号推定による確率の積となり,\begin{align}\mathrm{Pr}(w|\bm{h}):=&\left\{\begin{array}{ll}v'_{\id(w)},&\mathrm{if}\\id(w)<N,\\v'_N\cdot\pi(w,\bm{h}),&\mathrm{otherwise},\end{array}\right.\\\bm{v}':=&\frac{\exp\bm{u}'}{\sum_{i=1}^V\expu'_i},\\\bm{u}':=&W_{hu'}\bm{h}+\bm{\beta}_{u'},\\\pi(w,\bm{h}):=&\prod_{i=1}^B\left(b_iq_i+(1-b_i)(1-q_i)\right),\end{align}と書くことができる.ここで$W_{hu'}\in\mathbb{R}^{N\timesH}$と$\bm{\beta}_{u'}\in\mathbb{R}^N$は学習可能なパラメータであり,$\id(w)$は単語の出現頻度の順位$\mathrm{rank}(w)$に基づいて定義されているものとする.また,損失関数はソフトマックス層の交差エントロピーと二値符号推定の損失の和で表記でき,\begin{align}L:=&\left\{\begin{array}{ll}l_{\mathcal{H}}(\id(w)),&\mathrm{if}\\id(w)<N,\\l_{\mathcal{H}}(N)+l_{\mathcal{B}},&\mathrm{otherwise},\\\end{array}\right.\label{eq:hybrid}\\l_{\mathcal{H}}(i):=&\lambda_{\mathcal{H}}L_{\mathcal{H}}(\bm{v}',i),\\l_{\mathcal{B}}:=&\lambda_{\mathcal{B}}L_{\mathcal{B}}(\bm{q},\bm{b}),\end{align}となる.ここで$\lambda_{\mathcal{H}}$と$\lambda_{\mathcal{B}}$はソフトマックスと二値符号推定の学習重みを決めるハイパーパラメータである.これらは実際には調整が必要だが,本研究では簡単のために$\lambda_{\mathcal{H}}=\lambda_{\mathcal{B}}=1$のみを使用した.前述のように,希少語の推定にはソフトマックス層と二値符号予測の両者を使用するが,式(\ref{eq:hybrid})の出力層における偏微分を考えれば,隠れ層$\bm{h}$より後段では両者の勾配が独立していることが分かる.混合モデルの計算量は,ソフトマックス層の追加により単純な二値符号予測モデルから増加し,$O(H(N+\logV))$となる.ただしソフトマックス層は頻出語のみを対象とするため,$N$は$V$と比較して通常非常に小さく抑えられることとなり,実際の計算コストの増加はそれほど大きくならないことが期待される.ソフトマックス層の大きさを変化させたときの翻訳精度への影響については,実験で詳しく調査する.混合モデルにより頻出語と希少語を分離するという考えは,区分ソフトマックス\cite{differentiated-softmax}や適応ソフトマックス\cite{adaptive-softmax}で用いられた,単語クラスタごとに異なるスコア計算を用いる手法が元となっている.ただし,区分ソフトマックスでは隠れ層と出力層の結合に制約が設けられているのに対し,混合モデルでは全結合ネットワークを使用しており,隠れ層の値全てを各出力の推定に用いる点が異なる.これは,混合モデルを適用してもモデル全体の計算量を小さく抑えられるためである.また,混合モデルの希少語部をソフトマックスに置き換えた場合,適応ソフトマックスの分割数が2の場合とモデル的に一致する.このため,混合モデルは2分割適応ソフトマックスの計算量に改善を加えたものと捉えることも可能である.\subsection{誤り訂正符号の適用}\label{s:ecc}前節までで述べた単純な二値符号予測モデル,および混合モデルは,使用する二値符号自体の頑健性を考慮していない点で問題がある.具体的には,$\bm{q}(\bm{h})$は全てのビットを誤りなく推定しなければ正しい単語を予測することができず,1ビット誤っただけで全く異なる単語を出力してしまう可能性がある.この問題は,ビット列全体の空間$\{0,1\}^B$に全ての単語が密に配置されていることに起因するものであり,ビット列に対して何らかの冗長性を導入することで解決できるものと考えられる.\begin{figure}[b]\begin{center}\includegraphics{25-2ia1f4.eps}\end{center}\caption{冗長な符号表現による予測の簡単な例}\label{fig:ecc-overview}\end{figure}図\ref{fig:ecc-overview}はこの考えを簡単な例で示したものである.ここでは2種類の単語``a'',``b''を3ビットを使用して推定することを考え,各単語はそれぞれ「重心」ビット列[000],[111]に写されるものと考える.このようなビット列の配置を選択すると,重心同士の間には3ビットのハミング距離を持つこととなり,1ビットだけの間違いであれば,その近傍にある重心ビット列を選択することで元の単語を正しく復元可能であることが分かる.図\ref{fig:ecc-overview}では各々の重心の近傍を灰色の領域で示している.このように,実際に記号が関連付けられたビット列同士の間隔に余裕を持たせることで多少のビット誤りを許容する手法は,誤り訂正符号\cite{shannon48}の中心的な考えである.より具体的には,ビット列同士が少なくとも$d$ビットのハミング距離を持つとき,符号化手法全体では高々$\lfloor(d-1)/2\rfloor$ビットまでの誤りを訂正可能であることが知られている.この距離は選択した誤り訂正手法によって定まる定数であり,最小ハミング距離または自由距離と呼ばれる.誤り訂正をクラス分類問題に適用する考えは多く提案されており,タスクごとにうまく手法を設計することで,単純なクラス分類に対する優位性が示されている\cite{ecoc95,ecoc03,ecoc06,ecoc09,ecoc10,ecoc11,ecoc13}.本研究では,特定の誤り訂正手法をAlgorithm\ref{alg:mapping}で得られるビット列へ適用することで冗長化を行い,二値符号予測へ冗長性の導入を行う.ここで,過去に誤り訂正が検証されたクラス分類問題では高々100種類程度のクラスを扱っていたのに対し,本研究では語彙サイズに応じて数万種類程度のクラスを識別する必要があり,問題の複雑さが大きく異なる点に注意が必要である.本研究では,このような巨大なクラス分類問題においても誤り訂正手法の適用が有効であることを示す.図\ref{fig:error_correcting}(a)と\ref{fig:error_correcting}(b)は誤り訂正手法を導入した際の学習時・テスト時の挙動を示している.学習時には,まず元となるビット列$\bm{b}(w)$を誤り訂正符号の重心となる冗長なビット列\begin{equation}\bm{b}'(\bm{b}(w)):=[\bm{b}'_1(\bm{b}(w)),\bm{b}'_2(\bm{b}(w)),\cdots,\bm{b}'_{B'}(\bm{b}(w))]:\{0,1\}^B\rightarrow\{0,1\}^{B'}\end{equation}に写す.ここで$B'(B)\geqB$は冗長化後のビット列に含まれるビット数である.この写像は単射であり,各$\bm{b}(w)$をより大きな空間のお互いに離れた位置に配置し直すこととなる.ニューラル翻訳モデルはこの冗長なビット列$\bm{b}'(\bm{b}(w))$を出力層で学習する.なお,典型的な誤り訂正手法では$B'$は$B$の高々定数倍,つまり$O(B'/B)=O(1)$であり,誤り訂正手法の適用前後で出力層の計算量自体が変化しない点は重要である.\begin{figure}[b]\begin{center}\includegraphics{25-2ia1f5.eps}\end{center}\caption{誤り訂正を導入した場合の学習時・テスト時の動作}\label{fig:error_correcting}\end{figure}翻訳モデルから実際の単語を生成する際は,モデルにより推定された確率列$\bm{q}(\bm{h})$を元に,元の単語に相当する確率列\begin{equation}\tilde{\bm{q}}(\bm{q}(\bm{h})):=[\tilde{\bm{q}}_1(\bm{q}(\bm{h})),\tilde{\bm{q}}_2(\bm{q}(\bm{h})),\cdots,\tilde{\bm{q}}_B(\bm{q}(\bm{h}))]:[0,1]^{B'}\rightarrow[0,1]^B\end{equation}の復元を行う.このとき誤り訂正の効果により,$\bm{q}(\bm{h})$に含まれる多少の誤りは許容され得ることとなる.写像$\tilde{\bm{q}}(\cdot)$は少なくとも$\bm{b}'(\cdot)$の左逆写像であり,$[0,1]^{B'}$全体が定義域となる(復元結果が曖昧になるような入力が存在しない)ような手法を選択可能である.ここまでの議論で,\ref{s:model}~節で導入したビット列に関する制約は誤り訂正の導入後も満たすことが分かる.このため,図~\ref{fig:error_correcting}全体を単一の単語とビット列間の関連付け手法であると見なすことが可能である.ここで,誤り訂正手法により冗長化されたビット列の特徴は,翻訳モデルの精度に直接影響を与えると考えられる.どのようなビット列が最適であるかは自明ではないが,ここでは望ましい特徴についての定性的な議論を行う.まず,図\ref{fig:ecc-overview}は1ビット訂正可能な誤り訂正符号の一種であるが,ニューラルネットワークの出力としては明らかに適切でないことが直ちに分かる.なぜなら,重心ビット列の全てのビットが完全に一致しており,ニューラルネットワーク側から見ると各ビットの違いを区別できず,実質的に1ビットしか学習しない場合と同一のモデルになってしまうからである.このため,冗長化後のビット列は,ビット同士が可能な限りお互いに異なる傾向を持つことが望ましいと判断できる.また,出力層がどのようなビット誤りを生成するのかは自明ではないため,ランダムに発生する誤りを均等に訂正可能な手法を選択するのが妥当であると考えられる.更に,ニューラルネットワークが生成する出力$\bm{q}(\bm{h})$は0から1の間の連続値であり,単なるビット列よりも多くの情報を保持していると考えられる.このため,これらの連続値を直接使用してビット列を復元できる手法がより望ましい.\begin{algorithm}[b]\caption{実験で使用した畳み込み符号の冗長化アルゴリズム}\label{alg:conv-encode}\input{01algo02.tex}\end{algorithm}これらを満たす誤り訂正手法として,本研究では畳込み符号\cite{convcode}を用いることとした.畳込み符号は入力ビット列とハイパーパラメータである重みビット列の畳込み和で表現され,ビット列中の離れた位置にあるビット同士が独立となるため,ランダムなビット誤りに特に頑健に動作するという特徴がある.また確率過程に基づくビット列の復号手法を用いることで,ビットごとの確率を直接考慮することが可能である.\begin{algorithm}[t]\caption{実験で使用した畳み込み符号の復号アルゴリズム}\label{alg:conv-decode}\input{01algo03.tex}\end{algorithm}Algorithm\ref{alg:conv-encode}は実験で実際に用いた畳み込み符号のアルゴリズムである.ここで,重みベクトル[1001111]および[1101101]は事前実験の結果により複数の設定から計算効率と復号能力のバランスを考慮して定めた.なお,$\bm{x}[i\..\j]:=[x_i,\cdots,x_j]$,$\bm{x}\cdot\bm{y}:=\sum_ix_iy_i$である.畳込み符号は単一の冗長化手法に対して複数の復号手法が存在するが,実験ではAlgorithm\ref{alg:conv-decode}に示すアルゴリズムを使用した.ここで$\bm{x}\circ\bm{y}$はベクトル$\bm{x}$と$\bm{y}$の結合を表す.Algorithm\ref{alg:conv-decode}はビタビアルゴリズム\cite{convcode}に基づく手法であり,畳込み符号を隠れマルコフモデルの一種として解釈し,入力された確率列$\bm{q}(\bm{h})$から確率的に最も妥当な元のビット列を推定する.Algorithm~\ref{alg:conv-decode}は一見複雑だが,実際にはCPU上で効率的に処理可能であり,ニューラルネットワークの計算とは分離されているため,翻訳モデル自体の計算効率への影響は避けることが可能である.
\section{実験}
\subsection{実験設定}提案手法の翻訳精度を比較するために,英日・日英双方向の翻訳タスクでの実験を行った.使用したコーパスはASPEC\cite{aspec}とBTEC\cite{btec}であり,ASPECは上位200万文,BTECは検証・テスト用以外の全文を学習データとした.表\ref{tab:corpus}にコーパスの詳細を示す.これらのコーパスは平均文長や語彙サイズの面で難易度が大きく異なるため,難易度に起因するモデルの差異を比較するのに役立つと考えられる.英語のトークン化にはMoses\cite{moses}に含まれる\texttt{tokenizer.perl}を使用し,日本語のトークン化にはKyTea\cite{kytea}を使用した.また同じくMosesに含まれる\texttt{lowercase.perl}により小文字化を行った.語彙は単語の出現頻度に基づいて選択し,出現順位が$V-3$位より大きい単語は全て\texttt{UNK}記号に置換した.\begin{table}[t]\caption{実験に使用したコーパスの詳細}\label{tab:corpus}\input{01table01.tex}\end{table}ニューラル翻訳モデルを含む全てのアルゴリズムはC++言語で記述し,特にニューラルネットワークの構築にはDyNet\cite{dynet}を使用した.全てのモデルは1個のGPU(NVIDIAGeForceGTXTITANX)を用いて学習した.テストに関しては,実行時間を検証するためにGPU上とCPU上の両方で行った.提案手法が従来のソフトマックスモデルと異なるのは出力層のみであり,他の部分は完全に同一である.ニューラル翻訳モデル全体の構成には,エンコーダに双方向RNN\cite{bahdanau14},注意機構およびデコーダはLuongらによるConcatGlobalAttentionモデル\cite{luong15}を使用した.エンコーダおよびデコーダを構成するRNNには,入力・忘却・出力ゲートを含む1層のLSTM\cite{lstm}を使用した.また過学習を避けるために,各RNNの入出力部のみ30\%のドロップアウト(Dropout)\cite{dropout}を導入した.ニューラルネットワークの学習にはAdam最適化器\cite{adam}を使用した.Adamのハイパーパラメータは$\alpha=0.001,\beta_1=0.9\,\beta_2=0.999,\varepsilon=10^{-8}$で固定し,文長に基づいてグループ化された64文によるミニバッチ学習を行った.各モデルの評価には大文字・小文字を考慮しないBLEU\cite{bleu}を使用し,ミニバッチ1000個の学習が終了するごとにスコアの計算を行った.なお,文中に未知語が存在することを正しく推定したかどうかを評価するために,本実験でのBLEUの評価には\texttt{UNK}も計算対象に含めているが,\texttt{UNK}を取り除いて計算した場合でも最終的なスコアの傾向は同様であることを注記しておく.表\ref{tab:models}に本実験で比較した手法の凡例を示す.特に提案手法については,混合モデルと誤り訂正の適用の有無,および混合モデルにおけるソフトマックス層のサイズ$N$による影響を実験により検証する.また,混合モデルとの直接比較が可能な2分割の場合の適応ソフトマックス\cite{adaptive-softmax}についても実験を行い,同様に性能の測定を行った.\begin{table}[b]\caption{比較を行ったモデルの名称と詳細}\label{tab:models}\input{01table02.tex}\end{table}\begin{table}[b]\caption{各手法のBLEU,出力層のパラメータ数とその\textit{Softmax}に対する比率}\label{tab:results}\input{01table03.tex}\end{table}\begin{table}[t]\caption{各手法の平均計算時間}\label{tab:results-time}\input{01table04.tex}\end{table}\subsection{実験結果と考察}\label{s:discussion}表\ref{tab:results}に各手法のTestデータにおけるBLEU,二値符号のビット数$B$と出力層で実際に計算される値の個数$\#_{\mathrm{out}}$,出力層の推定に必要なパラメータ数$\#_{W,\bm{\beta}}$,および出力層とモデル全体におけるパラメータ数の\textit{Softmax}との比率を示す.表\ref{tab:results-time}には英語$\rightarrow$日本語下での各手法の学習時・テスト時における平均実行時間を示す.また図\ref{fig:bleu-aspec},\ref{fig:bleu-btec}には学習済みミニバッチ数180,000までの英日翻訳におけるソフトマックス及び提案手法のTestデータ上でのBLEUの変化を示す.図\ref{fig:bleu-aspec},\ref{fig:bleu-btec}から明らかなように,学習中のBLEUの変動は不安定であり,比較には何らかの平滑化が必要である.このため,Devデータ上でBLEUが最大となった世代を中心とした5世代についてTestデータ上でBLEUを求め,表\ref{tab:results}にはその平均値を示した.\begin{figure}[t]\begin{center}\includegraphics{25-2ia1f6.eps}\end{center}\caption{180,000世代までの学習の推移(ASPECEn$\rightarrow$Ja)}\label{fig:bleu-aspec}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{25-2ia1f7.eps}\end{center}\caption{180,000世代までの学習の推移(BTECEn$\rightarrow$Ja)}\label{fig:bleu-btec}\end{figure}\subsubsection{空間効率}まず,提案手法のいずれにおいても,\textit{Softmax}と比較して大幅に出力層のパラメータ数を削減していることが確認できる.モデル全体のパラメータ数では,いずれの提案手法も\textit{Softmax}と比較して70\%程度のパラメータ数に抑えられており,実質的には従来のソフトマックスモデルで必要とされた出力層のためのパラメータが無視可能なレベルまで削減されたと考えられる.なお,残りのパラメータの大部分はエンコーダおよびデコーダの入力部における単語ベクトルとして確保されているものであり,これらは依然として$O(EV)$だけのメモリ空間を専有している.ここで$E$は原言語・目的言語ごとの単語ベクトルに用いられる次元数だが,典型的には$H$と同程度(つまり$O(E/H)=O(1)$)と見なすことが可能である.\ref{s:introduction}節で述べたように,これらのパラメータ数の削減は本研究の対象ではないが,出力層と同様の符号化を導入することは可能であると考えられる.このような手法が翻訳モデルにどう影響するかは今後の研究課題である.また\ref{sec:prior}節で述べたように,適応ソフトマックスのパラメータ数は基本的に単純なソフトマックスと同等であり,使用するグループ数に比例した分だけ増加している.具体的には,本実験で使用した適応ソフトマックスは分割数が2であるため,出力層のサイズは各コーパスの語彙サイズに1を足した大きさとなる.\subsubsection{翻訳精度}\textit{Binary}のBLEU値に着目すると,他のいずれの手法と比較しても大幅に低い値となっていることが観察される.これは\ref{s:model}節で述べた事実から予測され得る結果であり,単純な二値符号予測では頑健性に問題があるという特徴を反映していると考えられる.これとは対照的に,\textit{Hybrid-N}と\textit{Binary-EC}では\textit{Binary}と比較して十分に高いBLEUを示しており,実験設定によってはほぼ\textit{Softmax}に近似する値を達成していることが分かる.この傾向は,混合モデルと誤り訂正符号の導入がどちらも二値符号予測に対して有効であることを示している.特に\textit{Binary-EC}と\textit{Hybrid-512}を比較すると,前者のパラメータ数が1/10程度なのにも関わらず基本的に高いBLEUを達成しており,この結果からビット列に冗長性を導入することがより推定精度の向上に効果的であると言うことができる.また,2種類の改良を両方導入した\textit{Hybrid-N-EC}では更なる精度の向上が見られ,設定次第では\textit{Softmax}と同等かそれ以上のBLEUを達成していることが観察できる.この挙動から,混合モデルと誤り訂正の両者が手法として概ね直交しており,組み合わせることでより高い効果を示すことが可能であると言える.特にBTECにおいて,\textit{Softmax}が低い翻訳精度となったのは,コーパスの難易度に対してソフトマックス層のパラメータ数が適切な大きさでなかった点が考えられる.\textit{Adaptive2-N}と\textit{Hybrid-N-EC}の比較では,ASPECでは\textit{Adaptive2-512}と\textit{Hybrid-2048-EC}が同等程度,BTECでは\textit{Adaptive2-2048}と\textit{Hybrid-2048-EC}が同等程度の性能と考えられる.これらの手法の本質的な違いは希少語グループの単語推定にソフトマックスと誤り訂正符号のどちらを使用したかのみであり,各モデルによる希少語の推定精度を間接的に反映しているものと考えられる.適応ソフトマックスと提案手法の混合モデルでは希少語に関するパラメータ数が数百から数千倍程度異なることを考えると,適応ソフトマックスの翻訳精度が混合モデルより高くなることが自然に考えられ,実際ASPECでは希少語グループのサイズが同等である\textit{Adaptive2-2048}と\textit{Hybrid-2048-EC}では前者の方が翻訳精度が高いことが観察される.BTECで両者の性能が接近しているのは,\textit{Softmax}との比較でも言及したように,コーパスの難易度に対する\textit{Adaptive2-N}の過剰なパラメータ数が関係していると考えられる.また,\textit{Adaptive2-2048}はいずれのコーパスでも\textit{Softmax}より高い性能を達成しており,これは混合モデルと同様に,単語の出現頻度に基づいて推定を分割したことによる効果と考えられる.\subsubsection{時間効率}表\ref{tab:results-time}の計算時間に着目すると,いずれの提案手法も\textit{Softmax}と比較して高速に動作していることが分かる.特にCPU上でのテスト時の実行速度はASPECで10倍,BTECで5倍程度に高速であり,強力な計算資源が期待できない環境でも提案手法が効率的に動作可能であることを示している.また,誤り訂正手法の復号アルゴリズムはいずれの実験でもCPU上で実行しているが,これに起因する計算速度の低下は翻訳モデル全体から見ると部分的であることが分かり,この点でも誤り訂正手法の適用が効果的であることを示している.\textit{Adaptive2-N}に関しては,GPU上でのテスト時の実行速度は提案手法と遜色ない性能を示しており,単語の出現頻度に基づいて適切にソフトマックスを分割するだけでも高い高速化効果が得られることを示している.一方,CPU上でのテスト時の速度は,\textit{Softmax}と比較した際には\textit{Adaptive2-N}でも十分高速化されていると言えるが,提案手法は更にその数割から数倍程度高速という結果となっている.この実行速度の差異は希少語の推定に要する計算量を反映していると考えられ,GPUのように十分な並列化の可能でない状況下では,依然として計算量そのものを削減する利点が大きいことが観察される.なお,\textit{Adaptive2-512}より\textit{Adaptive2-2048}の方が高速に動作している点は,提案論文に示されている2分割時の実行速度とのトレードオフに関する議論と一致する\cite{adaptive-softmax}.ここで,適応ソフトマックス\cite{adaptive-softmax}の本来の目的は学習時間の削減であるが,本実験では\textit{Adaptive2-N}の学習時間が\textit{Softmax}と比較して若干増加しており,提案論文の結果に従っていないことが確認される.これはミニバッチ学習時の実用上の問題に起因するものである.原理的には,適応ソフトマックスは頻出語の推定時に希少語のスコア計算を除外することが可能であり,このときうまく計算を回避する実装を用いることで計算量の削減が得られるものである.本実験の場合,入力データを個別に処理するテスト時の動作がこれに該当し,実際に期待通りの高速化効果が得られている.一方,学習時にはDyNetを用いた実装の制約上,ミニバッチに含まれる全データに対して同様の計算を行う必要があり,ある時刻で推定しなければならない単語に頻出語と希少語が混在しているような,ネットワークにデータごとの条件分岐が存在する場合への対処が難しい.本実験ではこの問題を回避するため,頻出語に対してもダミーの希少語ラベルを与えて計算を行っているが,このときの計算量は通常のソフトマックスとほぼ等しくなり,また計算過程が複雑になる分,実際の計算効率はソフトマックスよりも低下する.表\ref{tab:results-time}では実際にこの効果を確認した形となっている.汎用的なニューラルネットワークのツールがこの問題に対処できるかどうかは,データごとに異なるネットワーク構造が与えられたとき,ツール側で効率的に処理する能力を持っているかどうかに依存している.このような手法の候補としては,実際のネットワーク計算の直前にミニバッチ計算の最適化を行う手法が考えられる\cite{autobatch}.なお,提案手法である混合モデルに関しても,計算グラフ上では適応ソフトマックスとほぼ同様のネットワーク構造を持っており,\textit{Hybrid-N},\textit{Hybrid-N-EC}の学習時間も上記と同じ理由によるオーバーヘッドを含んでいる.\subsubsection{混合モデルの翻訳精度への影響}図\ref{fig:hybrid-n}は\textit{Hybrid-N}においてソフトマックス層の大きさ$N$を指数的に変化させた際の翻訳精度への影響である.ここで混合モデルの定義より,\textit{Softmax}と\textit{Binary}はそれぞれ$N$を$V$と1に設定した場合の極限であり,\textit{Hybrid-N}による翻訳精度の近似的な上限と下限を表わすと考えられる.実際,図\ref{fig:hybrid-n}の曲線はおおよそ\textit{Softmax}と\textit{Binary}の間を推移しており,ここから混合モデルのソフトマックス層の大きさと翻訳精度にはトレードオフの関係があることが分かる.またBTECとASPECの曲線をそれぞれ観察すると,BTECではより小さな$N$(例えば$N=1024$程度)で翻訳精度が\textit{Softmax}付近に飽和しているのに対し,ASPECではより大きな$N$においても精度の向上が見られる.ここから,$N$による翻訳精度の変動はコーパス自体の難易度をいくらか反映しているものと考えられる.つまり,より簡単なコーパスを学習する場合は$N$として小さな値を取ることができ,より難しいコーパスになるほど大きな$N$を選択する必要があると考えられる.また表\ref{tab:results}で示したように,誤り訂正を併用することで混合モデル単体よりも翻訳精度の向上が期待できるため,実際の$N$の値には図\ref{fig:hybrid-n}から読み取れるものより小さな値を設定することが可能であると言える.\begin{figure}[t]\begin{center}\includegraphics{25-2ia1f8.eps}\end{center}\caption{\textit{Hybrid-N}において$N$を変化させた場合のBLEUの変化(En$\rightarrow$Ja)}\label{fig:hybrid-n}\end{figure}\subsubsection{単語の出現頻度と推定精度の関係}前節までの議論により,提案手法によるコーパス全体としての翻訳精度の傾向については判明した.しかし,ニューラル翻訳は出力文を単語単位で逐次的に生成するモデルであり,具体的な単語単位の推定精度に関しても議論が必要である.図\ref{fig:aspec-unigram},\ref{fig:btec-unigram}に示すのは,表\ref{tab:results},\ref{tab:results-time}に示した7手法について,日本語Testデータ中の各単語を学習データ中での出現頻度の順位でグループ化し,各グループについてユニグラム再現率および適合率を示したものである.ここで,適合率の計算はBLEUの方法に準拠し,再現率についてはBLEUの方法の分母を正解データに置き換えることで計算した.なお,分母が0となる場合は便宜的に値を0と表示した.\begin{figure}[t]\begin{center}\includegraphics{25-2ia1f9.eps}\end{center}\caption{各手法の出現頻度ごとのユニグラム推定精度(ASPECEn$\rightarrow$Ja)}\label{fig:aspec-unigram}\end{figure}\begin{figure}[p]\begin{center}\includegraphics{25-2ia1f10.eps}\end{center}\caption{各手法の出現頻度ごとのユニグラム推定精度(BTECEn$\rightarrow$Ja)}\label{fig:btec-unigram}\end{figure}\begin{table}[p]\caption{128位までの頻出語(ASPECJa)}\label{tab:words-aspec-ja}\input{01table05.tex}\end{table}まず,再現率についてはいずれの手法・コーパスにおいてもほぼ同様の傾向を示しており,手法の違いによる全体的な値の増減が確認できる.特に\textit{Binary}のみは,他の手法と比べて全てのグループで全体的に低い値となっており,単純な二値符号予測ではどのような単語もうまく推定することができないことが分かる.またASPECとBTECの両コーパスで,出現頻度が数十位付近の単語で再現率が低下し,その後また上昇するという共通の傾向を示しており,両コーパスのドメインや難易度が大きく離れていることから,これは言語に共通の何らかの特徴を捉えているものと考えられる.一般的に単語を出現頻度でグループ化した場合,頻出語のグループには機能語が多く集まり,希少語には内容語が多く集まる傾向にある.内容語と比較して機能語は用例が複雑であり,内容語と同一のモデルで推定するには難易度が高くなると考えられる.表\ref{tab:words-aspec-ja}および\ref{tab:words-btec-ja}はASPECおよびBTECの日本語学習データにおける頻出語だが,両者とも出現頻度が64位の付近で機能語と内容語がおおよそ交代していることが観察できる.つまり,前述のRecallの低下と再上昇は,機能語と内容語の推定難易度の違いを反映しているものと考えられる.\begin{table}[t]\caption{128位までの頻出語(BTECJa)}\label{tab:words-btec-ja}\input{01table06.tex}\end{table}一方,適合率の傾向を観察すると,\textit{Binary}が他の手法より全体的に低い点,および誤り訂正の適用により全体的なスコアが引き上げられている点は再現率と同様であるが,\textit{Hybrid-N}において出現頻度の順位が$N$付近を超えた単語は,そうでない単語と比較して大幅に適合率が低下していることが確認できる.これは明らかに,学習の比較的容易なソフトマックス層のみによる推定から二値符号予測を用いる推定に切り替わるために起こる現象であり,二値符号予測が本質的にソフトマックスよりも難しい推定問題であることを表していると考えられる.混合モデルと誤り訂正符号の併用により,このような適合率の大幅な低下が緩和されており,両者をバランス良く組み合わせることで全体的な推定精度を補償することが可能であることが分かる.
\section{おわりに}
本研究では,ニューラル翻訳モデルの出力層の計算量を圧縮することを目的とし,単語に割り当てられた二値符号を予測することで間接的に単語の推定を行う手法を提案した.また,単純な二値符号予測の精度を向上させるために,従来のソフトマックスモデルを部分的に採用した混合モデル,および二値符号に対し誤り訂正符号を適用することによる頑健性の向上を提案した.実験により,これらの手法を組み合わせて用いることで,従来のソフトマックスモデルと比較して数十分の1程度のパラメータ数と短い実行時間(特にCPU上でのテスト時に5分の1から10分の1程度)で,同等程度の翻訳精度を実現可能であることを示した.本研究では二値符号予測の基本的なフレームワークを提案したが,実験で使用した手法には事前実験に基づく様々なヒューリスティクスが残っており,各部分問題には,より翻訳モデルに適した手法を開発する余地が残されている.具体的には次のような課題が挙げられ,これらについてより深い研究を今後行ってゆく予定である.\begin{itemize}\item翻訳モデルにより適した単語のビット列への割り当て手法.より本質的には,どのような特徴量を保持したビット列であれば効率的に予測することが可能か.また,ビット数を制御することで任意に冗長性が設定可能となるような割り当て手法の設計.\itemニューラル翻訳モデルの学習により適した形の誤り訂正手法の開発.また,誤り訂正符号を学習することを前提とした損失関数の設計.\item入力層側の単語ベクトルも二値符号に制約することで,モデルのパラメータ数をより削減することが可能と考えられるが,そのようなモデルで同様の翻訳精度を達成することは可能か.\item翻訳モデルの内部状態やパラメータが獲得した表現に関する調査.特に,ソフトマックスモデルと比較した際にどのような共通点・相違点が見出だせるか.\end{itemize}\acknowledgment本研究の一部はJSPS科研費JP16H05873,及びJP17H00747の助成を受けて行ったものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bahdanau,Cho,\BBA\Bengio}{Bahdanauet~al.}{2014}]{bahdanau14}Bahdanau,D.,Cho,K.,\BBA\Bengio,Y.\BBOP2014\BBCP.\newblock\BBOQNeuralMachineTranslationbyJointlyLearningtoAlignandTranslate.\BBCQ\\newblock{\BemarXivpreprintarXiv:1409.0473}.\bibitem[\protect\BCAY{Brown,Desouza,Mercer,Pietra,\BBA\Lai}{Brownet~al.}{1992}]{brown-clustering}Brown,P.~F.,Desouza,P.~V.,Mercer,R.~L.,Pietra,V.J.~D.,\BBA\Lai,J.~C.\BBOP1992\BBCP.\newblock\BBOQClass-basedN-gramModelsofNaturalLanguage.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf18}(4),\mbox{\BPGS\467--479}.\bibitem[\protect\BCAY{Chen,Grangier,\BBA\Auli}{Chenet~al.}{2016a}]{differentiated-softmax}Chen,W.,Grangier,D.,\BBA\Auli,M.\BBOP2016a\BBCP.\newblock\BBOQStrategiesforTrainingLargeVocabularyNeuralLanguageModels.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1975--1985},Berlin,Germany.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Chen,Mou,Xu,Li,\BBA\Jin}{Chenet~al.}{2016b}]{sparse-word-representation}Chen,Y.,Mou,L.,Xu,Y.,Li,G.,\BBA\Jin,Z.\BBOP2016b\BBCP.\newblock\BBOQCompressingNeuralLanguageModelsbySparseWordRepresentations.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\226--235},Berlin,Germany.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Chitnis\BBA\DeNero}{Chitnis\BBA\DeNero}{2015}]{variable-length-encoding}Chitnis,R.\BBACOMMA\\BBA\DeNero,J.\BBOP2015\BBCP.\newblock\BBOQVariable-LengthWordEncodingsforNeuralTranslationModels.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\2088--2093},Lisbon,Portugal.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Dietterich\BBA\Bakiri}{Dietterich\BBA\Bakiri}{1995}]{ecoc95}Dietterich,T.~G.\BBACOMMA\\BBA\Bakiri,G.\BBOP1995\BBCP.\newblock\BBOQSolvingMulticlassLearningProblemsviaError-correctingOutputCodes.\BBCQ\\newblock{\BemJournalofArtificialIntelligenceResearch},{\Bbf2},\mbox{\BPGS\263--286}.\bibitem[\protect\BCAY{Ferng\BBA\Lin}{Ferng\BBA\Lin}{2011}]{ecoc11}Ferng,C.-S.\BBACOMMA\\BBA\Lin,H.-T.\BBOP2011\BBCP.\newblock\BBOQMulti-labelClassificationwithError-correctingCodes.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf20},\mbox{\BPGS\281--295}.\bibitem[\protect\BCAY{Ferng\BBA\Lin}{Ferng\BBA\Lin}{2013}]{ecoc13}Ferng,C.-S.\BBACOMMA\\BBA\Lin,H.-T.\BBOP2013\BBCP.\newblock\BBOQMultilabelClassificationusingError-correctingCodesofHardorSoftBits.\BBCQ\\newblock{\BemIEEETransactionsonNeuralNetworksandLearningSystems},{\Bbf24}(11),\mbox{\BPGS\1888--1900}.\bibitem[\protect\BCAY{Gers,Schmidhuber,\BBA\Cummins}{Gerset~al.}{2000}]{lstm}Gers,F.~A.,Schmidhuber,J.,\BBA\Cummins,F.\BBOP2000\BBCP.\newblock\BBOQLearningtoForget:ContinualPredictionwith{LSTM}.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf12}(10),\mbox{\BPGS\2451--2471}.\bibitem[\protect\BCAY{Grave,Joulin,Ciss{\'e},Grangier,\BBA\J{\'e}gou}{Graveet~al.}{2017}]{adaptive-softmax}Grave,{\'E}.,Joulin,A.,Ciss{\'e},M.,Grangier,D.,\BBA\J{\'e}gou,H.\BBOP2017\BBCP.\newblock\BBOQEfficientSoftmaxApproximationfor{GPU}s.\BBCQ\\newblockIn{\BemProceedingsofthe34thInternationalConferenceonMachineLearning},\mbox{\BPGS\1302--1310},Sydney,Australia.\bibitem[\protect\BCAY{Gutmann\BBA\Hyv{\"a}rinen}{Gutmann\BBA\Hyv{\"a}rinen}{2010}]{nce}Gutmann,M.\BBACOMMA\\BBA\Hyv{\"a}rinen,A.\BBOP2010\BBCP.\newblock\BBOQNoise-contrastiveEstimation:ANewEstimationPrincipleforUnnormalizedStatisticalModels.\BBCQ\\newblockIn{\BemProceedingsofthe13thInternationalConferenceonArtificialIntelligenceandStatistics},\mbox{\BPGS\297--304},Sardinia,Italy.\bibitem[\protect\BCAY{Huffman}{Huffman}{1952}]{huffman-code}Huffman,D.~A.\BBOP1952\BBCP.\newblock\BBOQAMethodfortheConstructionofMinimum-RedundancyCodes.\BBCQ\\newblock{\BemProceedingsoftheInstituteofRadioEngineers},{\Bbf40}(9),\mbox{\BPGS\1098--1101}.\bibitem[\protect\BCAY{Kim\BBA\Rush}{Kim\BBA\Rush}{2016}]{distillation}Kim,Y.\BBACOMMA\\BBA\Rush,A.~M.\BBOP2016\BBCP.\newblock\BBOQSequence-LevelKnowledgeDistillation.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1317--1327},Austin,Texas.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2014}]{adam}Kingma,D.\BBACOMMA\\BBA\Ba,J.\BBOP2014\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblock{\BemarXivpreprintarXiv:1412.6980}.\bibitem[\protect\BCAY{Klautau,Jevti{\'c},\BBA\Orlitsky}{Klautauet~al.}{2003}]{ecoc03}Klautau,A.,Jevti{\'c},N.,\BBA\Orlitsky,A.\BBOP2003\BBCP.\newblock\BBOQOnNearest-neighborError-correctingOutputCodeswithApplicationtoAll-pairsMulticlassSupportVectorMachines.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf4}(April),\mbox{\BPGS\1--15}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{moses}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguisticsCompanionVolumeProceedingsoftheDemoandPosterSessions},\mbox{\BPGS\177--180},Prague,CzechRepublic.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kouzani}{Kouzani}{2010}]{ecoc10}Kouzani,A.~Z.\BBOP2010\BBCP.\newblock\BBOQMultilabelclassificationusingerrorcorrectioncodes.\BBCQ\\newblockIn{\BemInternationalSymposiumonIntelligenceComputationandApplications},\mbox{\BPGS\444--454}.Springer.\bibitem[\protect\BCAY{Kouzani\BBA\Nasireding}{Kouzani\BBA\Nasireding}{2009}]{ecoc09}Kouzani,A.~Z.\BBACOMMA\\BBA\Nasireding,G.\BBOP2009\BBCP.\newblock\BBOQMultilabelClassificationbyBCHCodeandRandomForests.\BBCQ\\newblock{\BemInternationalJournalofRecentTrendsinEngineering},{\Bbf2}(1),\mbox{\BPGS\113--116}.\bibitem[\protect\BCAY{Li,Qin,Yang,\BBA\Liu}{Liet~al.}{2016}]{lightrnn}Li,X.,Qin,T.,Yang,J.,\BBA\Liu,T.-Y.\BBOP2016\BBCP.\newblock\BBOQ{LightRNN}:MemoryandComputation-EfficientRecurrentNeuralNetworks.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems},\lowercase{\BVOL}~29.\bibitem[\protect\BCAY{Ling,Trancoso,Dyer,\BBA\Black}{Linget~al.}{2015}]{character-nmt}Ling,W.,Trancoso,I.,Dyer,C.,\BBA\Black,A.~W.\BBOP2015\BBCP.\newblock\BBOQCharacter-basedNeuralMachineTranslation.\BBCQ\\newblock{\BemarXivpreprintarXiv:1511.04586}.\bibitem[\protect\BCAY{Liu}{Liu}{2006}]{ecoc06}Liu,Y.\BBOP2006\BBCP.\newblock\BBOQUsingSVMandError-correctingCodesforMulticlassDialogActClassificationinMeetingCorpus.\BBCQ\\newblockIn{\BemINTERSPEECH},\mbox{\BPGS\1938--1941}.\bibitem[\protect\BCAY{Luong,Pham,\BBA\Manning}{Luonget~al.}{2015}]{luong15}Luong,T.,Pham,H.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQEffectiveApproachestoAttention-basedNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1412--1421},Lisbon,Portugal.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{word2vec}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.~S.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandTheirCompositionality.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems},\mbox{\BPGS\3111--3119}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Deoras,Le,Kombrink,\BBA\{\v{C}}ernock{\'y}}{Mikolovet~al.}{2012}]{rnnlm-subword}Mikolov,T.,Sutskever,I.,Deoras,A.,Le,H.-S.,Kombrink,S.,\BBA\{\v{C}}ernock{\'y},J.\BBOP2012\BBCP.\newblock\newblock\BBOQSubwordLanguageModelingwithNeuralNetworks.\BBCQ\bibitem[\protect\BCAY{Mnih\BBA\Teh}{Mnih\BBA\Teh}{2012}]{nce-lm}Mnih,A.\BBACOMMA\\BBA\Teh,Y.~W.\BBOP2012\BBCP.\newblock\BBOQAFastandSimpleAlgorithmforTrainingNeuralProbabilisticLanguageModels.\BBCQ\\newblockIn{\BemProceedingsofthe29thInternationalConferenceonMachineLearning}.\bibitem[\protect\BCAY{Morin\BBA\Bengio}{Morin\BBA\Bengio}{2005}]{hierarchical-softmax}Morin,F.\BBACOMMA\\BBA\Bengio,Y.\BBOP2005\BBCP.\newblock\BBOQHierarchicalProbabilisticNeuralNetworkLanguageModel.\BBCQ\\newblockIn{\BemProceedingsof10thInternationalWorkshoponArtificialIntelligenceandStatistics},\lowercase{\BVOL}~5,\mbox{\BPGS\246--252}.\bibitem[\protect\BCAY{Nakazawa,Yaguchi,Uchimoto,Utiyama,Sumita,Kurohashi,\BBA\Isahara}{Nakazawaet~al.}{2016}]{aspec}Nakazawa,T.,Yaguchi,M.,Uchimoto,K.,Utiyama,M.,Sumita,E.,Kurohashi,S.,\BBA\Isahara,H.\BBOP2016\BBCP.\newblock\BBOQASPEC:AsianScientificPaperExcerptCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonLanguageResourcesandEvaluation(LREC2016)},\mbox{\BPGS\2204--2208},Portoro,Slovenia.EuropeanLanguageResourcesAssociation(ELRA).\bibitem[\protect\BCAY{Neubig,Dyer,Goldberg,Matthews,Ammar,Anastasopoulos,Ballesteros,Chiang,Clothiaux,Cohn,Duh,Faruqui,Gan,Garrette,Ji,Kong,Kuncoro,Kumar,Malaviya,Michel,Oda,Richardson,Saphra,Swayamdipta,\BBA\Yin}{Neubiget~al.}{2017}]{dynet}Neubig,G.,Dyer,C.,Goldberg,Y.,Matthews,A.,Ammar,W.,Anastasopoulos,A.,Ballesteros,M.,Chiang,D.,Clothiaux,D.,Cohn,T.,Duh,K.,Faruqui,M.,Gan,C.,Garrette,D.,Ji,Y.,Kong,L.,Kuncoro,A.,Kumar,G.,Malaviya,C.,Michel,P.,Oda,Y.,Richardson,M.,Saphra,N.,Swayamdipta,S.,\BBA\Yin,P.\BBOP2017\BBCP.\newblock\BBOQDyNet:TheDynamicNeuralNetworkToolkit.\BBCQ\\newblock{\BemarXivpreprintarXiv:1701.03980}.\bibitem[\protect\BCAY{Neubig,Goldberg,\BBA\Dyer}{Neubiget~al.}{2017}]{autobatch}Neubig,G.,Goldberg,Y.,\BBA\Dyer,C.\BBOP2017\BBCP.\newblock\BBOQOn-the-flyOperationBatchinginDynamicComputationGraphs.\BBCQ\\newblockIn{\BemConferenceonNeuralInformationProcessingSystems(NIPS)},\mbox{\BPGS\3974--3984},LongBeach,California,USA.\bibitem[\protect\BCAY{Neubig,Nakata,\BBA\Mori}{Neubiget~al.}{2011}]{kytea}Neubig,G.,Nakata,Y.,\BBA\Mori,S.\BBOP2011\BBCP.\newblock\BBOQPointwisePredictionforRobust,AdaptableJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\529--533},Portland,Oregon,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{bleu}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBleu:aMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsof40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\311--318},Philadelphia,Pennsylvania,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{See,Luong,\BBA\Manning}{Seeet~al.}{2016}]{weight-pruning}See,A.,Luong,M.-T.,\BBA\Manning,C.~D.\BBOP2016\BBCP.\newblock\BBOQCompressionofNeuralMachineTranslationModelsviaPruning.\BBCQ\\newblockIn{\BemProceedingsofThe20thSIGNLLConferenceonComputationalNaturalLanguageLearning},\mbox{\BPGS\291--301},Berlin,Germany.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Sennrich,Haddow,\BBA\Birch}{Sennrichet~al.}{2016}]{bpe-nmt}Sennrich,R.,Haddow,B.,\BBA\Birch,A.\BBOP2016\BBCP.\newblock\BBOQNeuralMachineTranslationofRareWordswithSubwordUnits.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1715--1725},Berlin,Germany.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Serr{\'a}\BBA\Karatzoglou}{Serr{\'a}\BBA\Karatzoglou}{2017}]{bloom-embedding}Serr{\'a},J.\BBACOMMA\\BBA\Karatzoglou,A.\BBOP2017\BBCP.\newblock\BBOQCompactEmbeddingofBinary-codedInputsandOutputsusingBloomFilters.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonLearningRepresentations},Vancouver,BC,Canada.\bibitem[\protect\BCAY{Shannon}{Shannon}{1948}]{shannon48}Shannon,C.~E.\BBOP1948\BBCP.\newblock\BBOQAMathematicalTheoryofCommunication.\BBCQ\\newblock{\BemBellSystemTechnicalJournal},{\Bbf27}(3),\mbox{\BPGS\379--423}.\bibitem[\protect\BCAY{Srivastava,Hinton,Krizhevsky,Sutskever,\BBA\Salakhutdinov}{Srivastavaet~al.}{2014}]{dropout}Srivastava,N.,Hinton,G.~E.,Krizhevsky,A.,Sutskever,I.,\BBA\Salakhutdinov,R.\BBOP2014\BBCP.\newblock\BBOQDropout:ASimpleWaytoPreventNeuralNetworksfromOverfitting.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf15}(1),\mbox{\BPGS\1929--1958}.\bibitem[\protect\BCAY{Sutskever,Vinyals,\BBA\Le}{Sutskeveret~al.}{2014}]{encdec}Sutskever,I.,Vinyals,O.,\BBA\Le,Q.~V.\BBOP2014\BBCP.\newblock\BBOQSequencetoSequenceLearningwithNeuralNetworks.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems},\mbox{\BPGS\3104--3112}.\bibitem[\protect\BCAY{Takezawa}{Takezawa}{1999}]{btec}Takezawa,T.\BBOP1999\BBCP.\newblock\BBOQBuildingaBilingualTravelConversationDatabaseforSpeechTranslationResearch.\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponEast-AsianResourcesandEvaluationConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\17--20}.\bibitem[\protect\BCAY{Viterbi}{Viterbi}{1967}]{convcode}Viterbi,A.\BBOP1967\BBCP.\newblock\BBOQErrorBoundsforConvolutionalCodesandanAsymptoticallyOptimumDecodingAlgorithm.\BBCQ\\newblock{\BemIEEETransactionsonInformationTheory},{\Bbf13}(2),\mbox{\BPGS\260--269}.\bibitem[\protect\BCAY{Wu,Schuster,Chen,Le,Norouzi,Macherey,Krikun,Cao,Gao,Macherey,Klingner,Shah,Johnson,Liu,Kaiser,Gouws,Kato,KudomKazawa,Stevens,Kurian,Patil,Wang,Young,Smith,Riesa,Rudnick,Vinyals,Corrado,Hughes,\BBA\Dean}{Wuet~al.}{2016}]{gnmt}Wu,Y.,Schuster,M.,Chen,Z.,Le,Q.V.,Norouzi,M.,Macherey,W.,Krikun,M.,Cao,Y.,Gao,Q.,Macherey,K.,Klingner,J.,Shah,A.,Johnson,M.,Liu,X.,Kaiser,{\L}.,Gouws,S.,Kato,Y.,Kudo,T.,Kazawa,H.,Stevens,K.,Kurian,G.,Patil,N.,Wang,W.,Young,C.,Smith,J.,Riesa,J.,Rudnick,A.,Vinyals,O.,Corrado,G.,Hughes,M.,\BBA\DeanJ.\BBOP2016\BBCP.\newblock\BBOQGoogle'sNeuralMachineTranslationSystem:BridgingtheGapbetweenHumanandMachineTranslation.\BBCQ\\newblock{\BemarXivpreprintarXiv:1609.08144}.\bibitem[\protect\BCAY{Zipf}{Zipf}{1949}]{zipf49}Zipf,G.~K.\BBOP1949\BBCP.\newblock{\BemHumanBehaviorandthePrincipleofLeastEffort.}\newblockAddison-WesleyPress.\end{thebibliography}\begin{biography}\bioauthor{小田悠介}{2011年神戸市立工業高等専門学校電子工学科卒業.2013年同専攻科電気電子工学専攻卒業.2015年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.修士(工学).現在,同博士後期課程に在籍.2015年日本学術振興会特別研究員(DC1).2017年より情報通信研究機構先進的音声翻訳研究開発推進センター研究技術員.機械翻訳,自然言語処理,ソフトウェア工学に関する研究に従事.言語処理学会年次大会優秀賞(2015年・2016年).ACL,電子情報通信学会,情報処理学会,教育システム情報学会,言語処理学会各会員.}\bioauthor[:]{PhilipArthur}{2013年インドネシア大学計算機科学科卒業.2015年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.現在,同学博士後期課程に在籍.修士(工学).機械翻訳,自然言語処理に関する研究に従事.}\bioauthor[:]{GrahamNeubig}{2005年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業.2010年京都大学大学院情報学研究科修士課程修了.2012年同大学院博士後期課程修了.同年奈良先端科学技術大学院大学助教.2016年より米国カーネギーメロン大学助教.機械翻訳,自然言語処理に関する研究に従事.}\bioauthor{吉野幸一郎}{2009年慶應義塾大学環境情報学部卒業.2011年京都大学大学院情報学研究科修士課程修了.2014年同研究科博士後期課程修了.同年,日本学術振興会特別研究員(PD).2015年奈良先端科学技術大学院大学情報科学研究科特任助教.2016年より同助教.同年より科学技術振興機構さきがけ研究員(兼任).京都大学博士(情報学).音声言語処理および自然言語処理,特に音声対話システムに関する研究に従事.2013年度人工知能学会研究会優秀賞受賞.IEEE,ACL,SIGdial,情報処理学会,言語処理学会各会員.}\bioauthor{中村哲}{1981年京都工芸繊維大学工芸学部電子工学科卒業.京都大学博士(工学).シャープ株式会社.奈良先端科学技術大学院大学助教授,2000年ATR音声言語コミュニケーション研究所室長,所長,2006年(独)情報通信研究機構研究センター長,けいはんな研究所長などを経て,現在,奈良先端科学技術大学院大学教授.ATRフェロー.カールスルーエ大学客員教授.音声翻訳,音声対話,自然言語処理の研究に従事.情報処理学会喜安記念業績賞,総務大臣表彰,文部科学大臣表彰,AntonioZampoli賞受賞.IEEESLTC委員,ISCA理事,IEEEフェロー.}\end{biography}\biodate\end{document}
| |
V04N01-03 | \section{はじめに}
label{sec:Intro}近年の音声認識技術の進歩によって,話し言葉の解析は自然言語処理の中心的なテーマの1つになりつつある.音声翻訳,音声対話システム,マルチモーダル・インターフェースなどの領域で,自然な発話を扱うための手法が研究され出している.しかし,話し言葉の特徴である,言い淀み,言い直し,省略などのさまざまな{\bf不適格性}\,(ill-formedness)のために,従来の適格文の解析手法はそのままでは話し言葉の解析には適用できない.我々は,適格文と不適格文を統一的に扱う{\bf統一モデル}\,(uniformmodel)に基づく話し言葉の解析手法を提案した\cite{伝:言処-投稿中}.そこでは,テキスト(漢字仮名混じり文)に書き起こされた日本語の話し言葉の文からその文の格構造を取り出す構文・意味解析処理の中で,言い淀み,言い直しなどの不適格性を適切に扱う手法について述べた.統一モデルを採用することにより,適格文におけるさまざまな問題(構造の決定や文法・意味関係の付与といった問題)を解決するための手法を拡張することで,不適格性の問題も同じ枠組の中で扱える.より具体的には,言い淀み,言い直しなどを語と語の間のある種の依存関係と考えることにより,{\bf係り受け解析}の拡張として,適格性と不適格性を統一的に扱う手法が実現される.我々の手法においては,適格文の最適な解釈を求める処理と不適格性を検出・修正する処理がいずれも,最も{\bf優先度}\,(preference)の大きい依存関係解釈を求めるという形で実現される.そこで,不適格性による依存関係まで考慮した優先度の計算方法を開発することがキーとなる.本稿では,この統一モデルに基づく話し言葉の解析手法で用いるための優先度計算法について述べる.優先度の概念は,これまでにも,適格文の曖昧性を解消し最適な解釈を求める手法の中に取り入れられている.これらは以下の3つのアプローチに大別できる.\begin{description}\item[心理言語学的な知見に基づく手法]人間の構文・意味解析において観察される優先度決定の偏向を利用する.{\bf右結合原理}\cite{Kimball:Cog-2-1-15},{\bf最小結合原理}\cite{Frazier:Cog-6-291},{\bf語彙的選好}\cite{Ford:MRO-82-727}などが利用されている.\item[意味知識・世界知識に基づく手法]意味知識や世界知識を利用する.知識を人手で構築するもの\cite{Wilks:AI-6-53,Hirst:SIA-87,Hobbs:AI-63-69}と既存の辞書などを知識源とするもの\cite{Jensen:CL-13-3-251}がある.\item[コーパスに基づく(corpus-based)手法]優先度計算に必要な情報をコーパスから獲得する.{\bf統計}に基づく手法\cite{Jelinek:IBM-RC16374,Pereira:ACL92-128,Hindle:CL-19-1-103,Resnik:ARPA93}や{\bf用例}に基づく手法\cite{佐藤:人知-6-4-592,Sumita:IEICE-E75-D-4-585,Furuse:COLING92-645}がある.\end{description}本稿では,以下にあげる理由により,コーパスに基づく手法を用いる.\begin{enumerate}\renewcommand{\theenumi}{}\renewcommand{\labelenumi}{}\item心理言語学的な知見として得られているのは,構造的な選好など一部のものに限られ,特に,話し言葉の不適格性に関しては,ヒューリスティクスとして利用できる知見は得られていない.\item広範囲な意味知識や世界知識を人手で構築するのは困難である.また,世界知識の利用は構文・意味解析の範囲を越える.\itemこれに対し,コーパスからの優先度情報の獲得は,加工されたコーパスからであれば,容易に行なえ,かつ,情報の種類も限定されない.コーパスの加工を自ら行なう必要がある場合でも,知識自身を人手で構築するよりは負担が少ない.\end{enumerate}コーパスに基づく我々の優先度計算法では,依存関係解釈の優先度は,その解釈が学習データ中でどのくらいの頻度で生じているかに応じて与えられる.この際,学習データの希薄性(data-sparseness)の問題を回避するために,解釈の候補と完全に一致する事例だけでなく類似した事例も考慮される.類似性を適当に定義することにより,適格な文法・意味関係の優先度だけでなく,不適格性による依存関係の優先度も,同じ方法で計算できる.以下,まず\ref{sec:Uniform}\,節では,統一モデルに基づく話し言葉の解析手法の概略を説明する.次に\ref{sec:Corpus-based}\,節で,本稿で提案するコーパスに基づく優先度計算法を説明する.\ref{sec:Evaluation}\,節では,本手法を話し言葉の構文・意味解析システム上に実装し,その性能を評価することで本手法の有効性を検討する.最後に,\ref{sec:Conclude}\,節でまとめを述べる.
\section{統一モデルに基づく話し言葉の解析}
label{sec:Uniform}\subsection{話し言葉の解析}\label{sec:Uniform:Spoken}日本語の話し言葉では,言い淀み,言い直し,省略などのさまざまな不適格性が生じる.例えば,(\ref{eq:Sentence1})には,(i)\,言い直し(「ほん」が「翻訳」に言い直されている),(ii)\,助詞省略(「翻訳」の後の格助詞「を」が省略されている)の2つの不適格性がある.\enumsentence{\label{eq:Sentence1}ほん,翻訳入れます.}我々が提案した話し言葉の解析手法は,適格文と不適格文を統一的に扱う統一モデルに基づいている.不適格文を扱う手法としては,従来,{\bf二段階モデル}\,(two-stagemodel)に基づいたものが多かった\cite{Jensen:CL-9-3-147,Weischedel:CL-9-3-161,Mellish:ACL89-102}.これは,まず,通常の適格文の解析手法で入力文を解析し,それが失敗した場合に,不適格性を扱うための処理を起動する,というものである.しかし,統一モデルは,以下の点において二段階モデルに優る.\begin{enumerate}\renewcommand{\theenumi}{}\renewcommand{\labelenumi}{}\item不適格文の処理はしばしば,適格文の処理と同等な能力を必要とする.不適格文を扱うために,従来適格文の処理に使われてきた手法を拡張して使えることが望ましい.\item不適格文と適格文とが曖昧な場合がある\cite{佐川:IPSJ-NL-94-100-73}((\ref{eq:Sentence1})の「ほん」は「本」と同じ字面なので「本(に)翻訳(を)入れます」のような適格文としての解釈が可能).適格文と不適格文が統一的に扱えないと,このような曖昧性は解消できない.\item話し言葉(特に音声言語)の解析に必要な実時間処理は,不適格文を処理するのに二段階の過程を経る二段階モデルでは実現できないが,統一モデルでは漸時的な処理が可能なので,実時間処理を実現しやすい.\item統一モデルは人間の言語処理モデルとしても妥当である.人間がしばしば文の途中で不適格性に気づくことは,人間が適格文の処理と並行して,不適格性の検出のための処理を行なっていることを示唆する.\end{enumerate}以下では,この統一モデルに基づく話し言葉の解析手法の概略を説明する.\subsection{解析手法の概要}\label{sec:Uniform:Overview}本手法は,基本的には,係り受け解析の拡張である.入力文の依存構造を生成するために,各語(文節)の間の依存関係を調べる.例えば,(\ref{eq:Sentence2})に対する依存構造と各文節の間の文法・意味関係は(\ref{eq:Depend1})のようになる.\enumsentence{\label{eq:Sentence2}会議では翻訳も入れます.}\enumsentence{\label{eq:Depend1}[\DP{loct\&de}会議では\Q[\DP{obje\&accAct}翻訳も\Q入れます]]}ここで,\Rel{loct},\Rel{obje}は意味関係(それぞれ「場所」「対象」)を表し,\Rel{de},\Rel{accAct}は文法関係(それぞれ「デ格」「目的格・能動態」)を表す.依存構造の決定と文法・意味関係の付与は,係り文節と受け文節の間の意味的な結合の強さや文法関係の実現のしやすさ(例えば「も」は「主格」になりやすいか「目的格」になりやすいか)などを考慮して,さまざまな候補に優先度を与え,最終的に最も優先度の高い組合せを見つけることによって行なう.本手法では,通常の係り受け解析を拡張し,言い淀み,言い直しなども語と語(文節と文節)の間の依存関係ととらえる.例えば,言い直しを含む文(\ref{eq:Sentence3})の依存構造は(\ref{eq:Depend2})のようになる.\enumsentence{\label{eq:Sentence3}ほん,翻訳入れます.}\enumsentence{\label{eq:Depend2}[\DP{obje\&accAct}[\DP{phonRepair}ほん\Q翻訳]\Q入れます]}ここで,\Rel{phonRepair}は「ほん」と「翻訳」の間に音韻的な原因による言い直し(以下「音韻的言い直し」)によって依存関係が生じていることを表す.このように,不適格性を扱えるよう係り受け解析を拡張することによって,適格文の最適な解釈を求める処理と不適格性を検出・修正する処理が同じ道具だてで実現できるだけでなく,適格文と不適格文との間の曖昧性にも対処できる.\subsection{構文・意味解析の過程}\label{sec:Uniform:Process}本手法による構文・意味解析の過程を簡単な例題を用いて説明する.図\,\ref{fig:Process}\,は(\ref{eq:Sentence3})の解析過程である.この文は,言い直しと助詞省略の2つの不適格性を含む.さらに,言い直しは適格文との間で曖昧である(「ほん」は「本」と同じ字面).\begin{figure}\begin{center}\mbox{{\bfA:}\quadほん\Q翻訳\Q入れます}\\[\medskipamount]{\Large$\Downarrow$}\rlap{\fbox{文節解析}}\\[\medskipamount]\mbox{\makebox(0,0)[lb]{\raisebox{1.6\baselineskip}{\bfB:}}\begin{footnotesize}\Feature{\Slot{phon}&\Value{ほん}\\\Slot{syn}&\Pair{\footnotesize\Value{本},\Value{普通名詞},\Value{無},\Value{$-$}}\\\Slot{sem}&\Pair{\footnotesize\Value{本},\Value{書物}}}\Feature{\Slot{phon}&\Value{ほんやく}\\\Slot{syn}&\Pair{\footnotesize\Value{翻訳},\Value{サ変名詞},\Value{無},\Value{$-$}}\\\Slot{sem}&\Pair{\footnotesize\Value{翻訳},\Value{翻訳}}}\Feature{\Slot{phon}&\Value{いれます}\\\Slot{syn}&\Pair{\footnotesize\Value{入れる},\Value{がを動詞},\Value{基本},\Value{能動}}\\\Slot{sem}&\Pair{\footnotesize\Value{入れる},\Value{授受}}}\end{footnotesize}}\\[\medskipamount]{\Large$\Downarrow$}\rlap{\fbox{依存構造解析}}\\[\medskipamount]\mbox{{\bfC:}\quad[\DP{?}[\DP{?}ほん\Q翻訳]\Q入れます]\qquad{\bfOR}\qquad[\DP{?}ほん\Q[\DP{?}翻訳\Q入れます]]}\\[\medskipamount]{\Large$\Downarrow$}\rlap{\fbox{依存関係解析}}\\[\medskipamount]\mbox{\raisebox{1.2\baselineskip}{\bfD:}\DependTable{\Pair{ほん,\,翻訳}}{\Rel{of\&gen}&0.0002\\\underline{\Rel{phonRepair}}&\underline{0.0053}}\DependTable{\Pair{翻訳,\,入れます}}{\underline{\Rel{obje\&accAct}}&\underline{0.0134}\\\Rel{inst\&de}&0.0031}\DependTable{\Pair{ほん,\,入れます}}{\Rel{obje\&accAct}&0.0004\\\Rel{loct\&ni}&0.0029}}\\[\medskipamount]{\Large$\Downarrow$}\rlap{\fbox{最適解選択}}\\[\smallskipamount]\mbox{{\bfE:}\quad[\DP{obje\&accAct}[\DP{phonRepair}ほん\Q翻訳]\Q入れます]}\end{center}\caption{構文・意味解析の過程}\label{fig:Process}\end{figure}解析過程は以下の4つのステップからなる.\begin{description}\item[文節解析]入力文{\bfA}を素性構造で表現された文節の列{\bfB}に変換する.各素性構造は,音韻情報(よみ),統語情報(語彙,範疇,形,態),意味情報(概念,属性)を持つ\footnote{統語範疇には,「連体詞」「副詞」「普通名詞」「固有名詞」「が動詞」「がを動詞」「が形容詞」などがある.形は,名詞文節の格や動詞文節の活用形であり,名詞文節が助詞省略を含む場合は「無」で表す.また,動詞文節以外の態は`\Value{$-$}'で表す.意味属性には,角川類語新辞典\cite{大野:角類新-81}の小分類を使用している.}.\item[依存構造解析]文節の列{\bfB}から可能な依存構造の集合{\bfC}を生成する.\item[依存関係解析]依存構造の集合{\bfC}に含まれる各依存関係に対して,依存関係解釈の候補{\bfD}を生成する.解釈の候補のおのおのには,$[0,1]$間の実数値で表される優先度を与える.\item[最適解選択]最も優先度の大きい解釈({\bfD}の下線部分)を選択し,文全体の依存構造と依存関係解釈{\bfE}を出力する.\end{description}この例では,{\bfB}の文節列に対して,{\bfC}の2つの依存構造が可能であり,その中に3つの依存関係が含まれる.それぞれの依存関係に対する解釈の候補は{\bfD}のようになり,下線を引いたものが最も優先度の大きい組合せとして選択される.この過程において,助詞省略は「目的格」に解釈され,言い直しと適格文(「本(に)入れます」)との曖昧性も解消されている.
\section{コーパスに基づく優先度計算法}
label{sec:Corpus-based}\subsection{本手法の概要}\label{sec:Corpus-based:Overview}係り受け解析を基本とする我々の構文・意味解析手法においては,依存関係解釈の候補のおのおのに$[0,1]$間の実数値で表される優先度が与えられる.以下では,優先度の計算法を説明する.我々の優先度計算法は,コーパスに基づく手法である.優先度は,その依存関係解釈が学習データ中でどのくらいの頻度で生じているかに応じて与える.すなわち,係り文節$\alpha$と受け文節$\beta$の間の依存関係解釈$\pi$の優先度$P(\pi,\alpha,\beta)$は,次式で与えられる(係り文節$\alpha$と受け文節$\beta$の間に依存関係解釈$\pi$が成り立つことを\Formula{$\pi$}{\alpha,\beta}で表す).\begin{equation}\label{eq:Preference1}P(\pi,\alpha,\beta)=\frac{\mbox{\Formula{$\pi$}{\alpha,\beta}の頻度}}{\sum_{p,x,y}\mbox{\Formula{$p$}{x,y}の頻度}}\end{equation}分子は依存関係解釈\Formula{$\pi$}{\alpha,\beta}の事例の頻度であり,分母は学習データ中のすべての事例の頻度の総和である.しかし,このままでは学習データの希薄性の問題を避けられないので,分子の\Formula{$\pi$}{\alpha,\beta}の頻度を計算する際に,完全に一致する事例だけでなく類似した事例の頻度も考慮する.例えば,\Formula{\Rel{obje}}{翻訳,入れる}の頻度を計算する際に,これと類似した事例\Formula{\Rel{obje}}{通訳,行なう}が学習データ中にあれば,その頻度を考慮に入れるという具合である.これを{\bf類似性に基づくスムージング}\,(similarity-basedsmoothing)とよぶ.同じ方法が言い直しなどの不適格な依存関係の解釈の優先度計算においても利用できる.例えば,音韻的言い直しのパターン「ほん」$\to$「翻訳」は別のパターン「どうじ」$\to$「同時通訳」に似ているので,前者の頻度を計算する際に,後者の頻度も考慮する.このように,さまざまな類似性を考えることによって,適格な文法・意味関係の優先度だけでなく,不適格性による依存関係の優先度も,同じ方法で計算できる.\subsection{依存関係解釈の事例}\label{sec:Corpus-based:Instance}依存関係解釈の頻度情報を獲得するために,学習データに対し人手で依存構造を付与し,そこから依存関係解釈の事例を抽出する.これらの事例は表\,\ref{tab:Instance}\,のような表の形で書ける.例えば,表の1行めは,「通訳」と「行なう」の間の依存関係を「対象」に解釈する事例が学習データ中に3例あったことを表す.\begin{table}\caption{依存関係解釈の事例}\label{tab:Instance}\centering\begin{tabular}[b]{|c|c|c|r|}\hline解釈&係り文節&受け文節&頻度\hfil\\\hline\hline\Rel{obje}&\Pair{\Value{通訳},\Value{翻訳}}&\Pair{\Value{行なう},\Value{実行}}&3\\\Rel{obje}&\Pair{\Value{論文},\Value{文章}}&\Pair{\Value{受け取る},\Value{授受}}&5\\\Rel{agen}&\Pair{\Value{学生},\Value{教育者}}&\Pair{\Value{参加},\Value{加入}}&2\\\Rel{loct}&\Pair{\Value{京都},\Value{都道府県}}&\Pair{\Value{開催},\Value{実行}}&1\\\hline\Rel{accAct}&\Pair{\Value{通訳},\Value{サ変名詞},\Value{を},\Value{$-$}}&\Pair{\Value{行なう},\Value{がを動詞},\Value{基本},\Value{能動}}&2\\\Rel{accAct}&\Pair{\Value{通訳},\Value{サ変名詞},\Value{も},\Value{$-$}}&\Pair{\Value{行なう},\Value{がを動詞},\Value{基本},\Value{能動}}&1\\\Rel{accAct}&\Pair{\Value{論文},\Value{普通名詞},\Value{無},\Value{$-$}}&\Pair{\Value{受け取る},\Value{がを動詞},\Value{基本},\Value{能動}}&2\\\Rel{datCaus}&\Pair{\Value{学生},\Value{普通名詞},\Value{に},\Value{$-$}}&\Pair{\Value{参加},\Value{がに動詞},\Value{基本},\Value{使役}}&1\\\hline\Rel{phonRepair}&\Value{どおじ}&\Value{どおじつうやく}&1\\\Rel{synRepair}&\Pair{\Value{クレジットカード},\Value{普通名詞},\Value{を},\Value{$-$}}&\Pair{\Value{クレジットカード},\Value{普通名詞},\Value{の},\Value{$-$}}&1\\\Rel{semRepair}&\Pair{\Value{通訳},\Value{翻訳}}&\Pair{\Value{翻訳},\Value{翻訳}}&2\\\hline\end{tabular}\end{table}表中の係り文節,受け文節の欄には,解釈候補と事例との類似度を計算する際に参照される情報が書かれている.これらは,(a)\,意味関係(表の第1群)では意味情報(概念,属性),(b)\,文法関係(表の第2群)では統語情報(語彙,範疇,形,態)であり,(c)\,言い直しの関係(表の第3群)では言い直しの種類(音韻的,統語的,意味的)に応じて異なる.\subsection{優先度}\label{sec:Corpus-based:Preference}係り文節$\alpha$と受け文節$\beta$の間の依存関係解釈$\pi$の優先度$P(\pi,\alpha,\beta)$は,類似性に基づくスムージングを用いると,次式のようになる.\begin{equation}\label{eq:Preference2}P(\pi,\alpha,\beta)=\frac{\sum_{x,y}w_{\pi}(S_{\pi}(x,y,\alpha,\beta))\times\mbox{\Formula{$\pi$}{x,y}の頻度}}{\sum_{p,x,y}\mbox{\Formula{$p$}{x,y}の頻度}}\end{equation}ここで,$S_{\pi}(x,y,\alpha,\beta)$は解釈候補\Formula{$\pi$}{\alpha,\beta}と事例\Formula{$\pi$}{x,y}の{\bf類似度}\,(similarity)であり,$w_{\pi}(s)$は解釈候補に対して類似度$s$を持つ事例の貢献度を決める{\bf重みづけ関数}\,(weightingfunction)である.類似度と重みづけ関数の定義はいずれも,解釈$\pi$に依存して与える.(\ref{eq:Preference2})より,依存関係解釈の優先度はその解釈が学習データ中で生じる頻度確率によって与えられ,この際,解釈の頻度はそれと似た事例の頻度を(類似度に応じて重みづけして)足し合わせることによって得られる(図\,\ref{fig:Preference}).これは,クラスに基づくスムージング(class-basedsmoothing)\cite{Resnik:ARPA93}の一般化になっている\footnote{クラスに基づくスムージングでは,(\ref{eq:Preference2})の分子は$\alpha$,$\beta$と同じクラスに属する語$x$,$y$に関する事例\Formula{$\pi$}{x,y}の頻度の和によって与えられる.我々の類似性に基づくスムージングでは,クラスへの帰属性を類似度によって連続的に表現している.}.\begin{figure}\centering\setlength{\unitlength}{1mm}\newcommand{\ArrowHeadSize}{}\begin{picture}(105,45)\put(10,40){\begin{tabular}[t]{|c|c|c|}\multicolumn{3}{l}{\bf解釈候補}\\\hline\Rel{obje}&\Pair{\Value{翻訳},\Value{翻訳}}&\Pair{\Value{入れます},\Value{授受}}\\\hline\end{tabular}}\put(10,0){\begin{tabular}[b]{|c|c|c|c|c@{}c}\multicolumn{4}{l}{\bf事例}\\\cline{1-4}\Rel{obje}&\Pair{\Value{通訳},\Value{翻訳}}&\Pair{\Value{行なう},\Value{実行}}&3&$\to$&$w(S_1)\times3$\\\Rel{obje}&\Pair{\Value{論文},\Value{文章}}&\Pair{\Value{受け取る},\Value{授受}}&5&$\to$&$w(S_2)\times5$\\$\vdots$&$\vdots$&$\vdots$&$\vdots$&&$\vdots$\\\cline{1-4}\cline{6-6}\multicolumn{4}{l}{}&&(\ref{eq:Preference2})の分子\end{tabular}}\put(-4,30){\bf類似度}\put(8,27.5){$S_1$}\put(1,25){$S_2$}\bezier{75}(10,35)(5,27.5)(10,20)\ArrowHead(5,27.5)(10,20)\bezier{100}(10,35)(0,25)(10,15)\ArrowHead(0,25)(10,15)\end{picture}\caption{優先度の計算}\label{fig:Preference}\end{figure}\subsection{類似度}\label{sec:Corpus-based:Similarity}解釈候補\Formula{$\pi$}{\alpha,\beta}と事例\Formula{$\pi$}{x,y}の類似度$S_{\pi}(x,y,\alpha,\beta)$は,解釈$\pi$の種類に応じて以下のように定義される.\begin{description}\item[$\pi$が意味関係の場合]$x$と$\alpha$および$y$と$\beta$のそれぞれについて,意味情報に関する類似度を求めたものの相乗平均.すなわち,\begin{equation}\label{eq:Sem}S_{\pi}(x,y,\alpha,\beta)=\sqrt{\strutS_{sem}(x,\alpha)\timesS_{sem}(y,\beta)}\end{equation}ここで,$x$と$\alpha$(および$y$と$\beta$)の意味的類似度$S_{sem}$は,意味シソーラス上の距離に基づいて計算する\cite{Sumita:IEICE-E75-D-4-585}.意味シソーラスは角川類語新辞典\cite{大野:角類新-81}のものを用いている.\item[$\pi$が文法関係の場合]$x$と$\alpha$および$y$と$\beta$のそれぞれについて,統語情報に関する類似度を求めたものの相乗平均.すなわち,\begin{equation}\label{eq:Syn}S_{\pi}(x,y,\alpha,\beta)=\sqrt{\strutS_{syn}(x,\alpha)\timesS_{syn}(y,\beta)}\end{equation}ここで,$x$と$\alpha$(および$y$と$\beta$)の統語的類似度$S_{syn}$は,統語範疇の階層上の距離に基づ\\いて計算する.統語範疇の階層は意味シソーラスを模して作成した.\item[$\pi$が言い直しの関係の場合]$x$と$y$および$\alpha$と$\beta$のそれぞれの類似度を求め,その差を1から引いたもの.すなわち,\begin{equation}\label{eq:Repair}S_{\pi}(x,y,\alpha,\beta)=1-|\,S(x,y)-S(\alpha,\beta)\,|\end{equation}ここで,$x$と$y$(および$\alpha$と$\beta$)の類似度$S$は,言い直しの種類(音韻的,統語的,意味的)に応じて,$S_{phon}$,$S_{syn}$,$S_{sem}$を用いる\footnote{$S_{phon}(x,y)$は$x$と$y$の音韻情報に関する類似度であり,$x$,$y$のよみの長さをそれぞれ$L_{x}$,$L_{y}$,また,それらの共通部\\分の長さを$L_{xy}$とすると,$S_{phon}(x,y)=2\timesL_{xy}/(L_{x}+L_{y})$で与えられる.}.\end{description}解釈$\pi$が意味関係もしくは文法関係の場合には,候補と事例に関して,係り文節同士,受け文節同士のそれぞれについて類似度を求め,その相乗平均をとる\footnote{用例に基づく手法では,相乗平均の代わりに,相加平均や加重和を用いることが多い.本手法では,(用例に基づく手法のように)最も似ている事例の類似度そのものを優先度とするのではなく,すべての事例に関して類似度で重みづけた頻度の和をとっているので,類似度そのものがあまり大きくならないように,相乗平均を採用している.}.しかし,$\pi$が言い直しの関係の場合には同じ方法は使えない.例えば,音韻的言い直しのパターン「ほん」$\to$「翻訳」と別のパターン「どうじ」$\to$「同時通訳」は,直観的に似ていると感じるが,係り文節同士(「ほん」と「どうじ」)は似ていない.この場合,係り文節同士,受け文節同士の類似性を独立に調べるのは適当でない.むしろ,言い直しパターン全体としての類似性を調べる必要がある.そのために,まず,言い直しパターンを数値によってコード化する.言い直しでは通常,係り文節(修復対象)と受け文節(訂正部分)が何らかの点において類似している.ここで,「何らかの点」とは言い直しの種類に依存して決まる(例えば「音韻的言い直し」では音韻情報に関して類似している).したがって,修復対象と訂正部分の類似度によって,その言い直しのパターンをコード化することができる.修復対象と訂正部分の類似性が大きい(あるいは小さい)言い直し同士は互いに似ていると考えることにすると,2つの言い直しパターンのコードの差によってそれらの間の類似度を定義することができる\footnote{(\ref{eq:Repair})では,言い直しパターンのコードの差を類似度に反映させる際に,非常に単純な関数を用いたが,この点は検討の余地があろう.}.例えば,上記の2つの音韻的言い直しのパターンでは,$S_{phon}(ほん,ほんやく)=2/3\(=2\times2/(2+4))$および$S_{phon}(どおじ,どおじつうやく)=3/5\(=2\times3/(3+7))$より,両者の類似度は$0.933\(=1-|\,2/3-3/5\,|)$となる.\subsection{重みづけ関数}\label{sec:Corpus-based:Weight}解釈候補に対して類似度$s$を持つ事例の貢献度を決める重みづけ関数$w_{\pi}(s)$は以下の3条件を満たすべきである.(i)\,貢献度は0以上1以下であり($w_{\pi}$の値域は$[0,1]$),(ii)\,類似度が1の事例の貢献度は最大値1をとり($w_{\pi}(1)=1$),(iii)\,類似度が大きい事例ほど貢献度も大きい($w_{\pi}$は\\単調増加関数).おのおのの解釈$\pi$ごとに,この3条件を満たす重みづけ関数$w_{\pi}(s)$を,次のような単純な多項式形式で与える\footnote{重みづけ関数のよりよい定義の仕方には検討の余地があろう.}.\begin{equation}\label{eq:Weight}w_{\pi}(s)=\sum_{k=0}^{N}a_{\pi,k}\,s^{k}\end{equation}ここで,$N$はある正の定数であり\footnote{実験システムでは$N=3$を用いている.},係数$a_{\pi,k}$は次式を満たす.\begin{equation}\label{eq:Coefficient}a_{\pi,k}\ge0\quadかつ\quad\sum_{k=0}^{N}a_{\pi,k}=1\end{equation}係数$a_{\pi,k}$は以下のようにして決める.類似性に基づくスムージングは,別の見方をすると,学\hspace{0.1mm}習データによって部\hspace{0.1mm}分\hspace{0.1mm}的に与えられた事\hspace{0.1mm}例の分\hspace{0.1mm}布から真の分\hspace{0.1mm}布を推\hspace{0.1mm}定しているとみることが\\できる.\hspace{-0.3mm}いま,\hspace{-0.3mm}事例\Formula{$\pi$}{\alpha,\beta}の真の頻度を$\hat{f}(\pi,\alpha,\beta)$,\hspace{-0.3mm}推定された頻度を$\tilde{f}(\pi,\alpha,\beta)$とすると,\hspace{-0.3mm}類\\似性に基づくスムージングによる推定では,$\tilde{f}(\pi,\alpha,\beta)$は(\ref{eq:Preference2})の分子で与えられる.したがって,推定値の二乗誤差$|\,\tilde{f}(\pi,\alpha,\beta)-\hat{f}(\pi,\alpha,\beta)\,|^2$のすべての事例\Formula{$\pi$}{\alpha,\beta}にわたる和を最小にするよ\\うに,重みづけ関数の係数を決めればよい.これを行なうためには,すべての事例の真の頻度がわかっている必要がある.ここでは,これを近似的に行なうために,学習データ中の各事例の頻度そのものが真の頻度を与えていると考え,その代わりに,各事例の推定頻度は学習データ中でその事例を除いた残りの部分から類似性に基づくスムージングによって与えられると考える(ジャックナイフ式の推定).簡単な計算により,この二乗誤差最小化の問題は二次計画問題に帰着できることがわかり,したがって解析的に解ける.\subsection{文法関係解釈の優先度}\label{sec:Corpus-based:Syntactic}最後に,文法関係の解釈の優先度について注意を述べる.(\ref{eq:Depend1}),(\ref{eq:Depend2})に見られるように,適格な依存関係は意味関係と文法関係の両面から解釈される.一般に,両者の解釈は独立ではない.すなわち,どの意味関係解釈が選択されたかに依存して,可能な文法関係の解釈の範囲が異なる.したがって,文法関係の優先度は{\bf条件つき}\,(conditional)の形で与えなければならない.係り文節$\alpha$と受け文節$\beta$の間の依存関係を意味関係$\pi$と文法関係$\sigma$に解釈する際の優先度は,確率論にしたがうと,次式のようになる.\begin{equation}\label{eq:Well-formed}P(\pi\&\sigma,\alpha,\beta)=P(\pi,\alpha,\beta)\timesP(\sigma,\alpha,\beta\,|\pi,\alpha^*,\beta^*)\end{equation}ここで,文法関係解釈の優先度$P(\sigma,\alpha,\beta\,|\pi,\alpha^*,\beta^*)$は条件つきの形で与えられており,条件は意味関係解釈$\pi$と係り文節$\alpha^*$,受け文節$\beta^*$によって課される.ただし,意味関係解釈は統語情報のうち形と態は制限しない(意味関係が「対象」であっても係り文節の形は「を」「も」「無」のいずれでもあり得る)ので,$\alpha^*$,$\beta^*$ではこれらの情報が「関知せず(don'tcare)」になっている.類似性に基づくスムージングを用いた条件つき優先度は,次式で与えられる.\begin{equation}\label{eq:Conditional1}\begin{array}[t]{@{}l@{}}P(\sigma,\alpha,\beta\,|\pi,\alpha^*,\beta^*)=\displaystyle\frac{\sum_{x,y}w_{\sigma}(S_{\sigma}(x,y,\alpha,\beta))\times\mbox{\Formula{$\sigma$}{x,y}の頻度}}{\sum_{s}\mbox{\Formula{$s$}{\alpha^*,\beta^*}の頻度}}\end{array}\end{equation}ただし,分子の\Formula{$\sigma$}{x,y}と分母の\Formula{$s$}{\alpha^*,\beta^*}はいずれも意味関係解釈$\pi$と共起するものだけを対象とする.しかし,(\ref{eq:Conditional1})では,今度は,分母に関して学習データの希薄性が問題になる.そこで,分母に対しても類似性に基づくスムージングを用いる.その結果,優先度は次式のようになる.\begin{equation}\label{eq:Conditional2}\begin{array}[t]{@{}l@{}}P(\sigma,\alpha,\beta\,|\pi,\alpha^*,\beta^*)=\displaystyle\frac{\sum_{x,y}w_{\sigma}(S_{\sigma}(x,y,\alpha,\beta))\times\mbox{\Formula{$\sigma$}{x,y}の頻度}}{\sum_{s,x,y}w_{s}(S_{s}(x,y,\alpha^*,\beta^*))\times\mbox{\Formula{$s$}{x,y}の頻度}}\end{array}\end{equation}(\ref{eq:Conditional2})がどのように働くかを簡単な例で説明する.助詞省略を含む依存関係[\DP{obje\&accAct}翻訳入れます]において,文法関係解釈\Rel{accAct}の優先度を計算することを考える(図\,\ref{fig:Conditional}).分子は,解釈候補\Formula{\Rel{accAct}}{翻訳,入れます}と似た事例の頻度の加重和によって与えられる.ここで,統\\語情報の類似度は形が一致するときのみ非ゼロの値をとる(図\,\ref{fig:Conditional}\,で$S_1$はゼロ,\hspace{-0.5mm}$S_2$は非ゼロ)よう\\に定義されており,よって,係り文節の形が「無」のもの(つまり助詞省略を含むもの)だけが分子の計算に貢献する.一方,分母は,係り文節と受け文節がそれぞれ「サ変名詞」「がを動詞」に類似したすべての事例の頻度の加重和である.したがって,この文法関係解釈の優先度は,概言すると,「係り文節と受け文節がそれぞれ「サ変名詞」「がを動詞」に似ている事例において,目的格の助詞が省略される確率」によって与えられる.\begin{figure}\centering\small\setlength{\unitlength}{1mm}\newcommand{\ArrowHeadSize}{}\begin{picture}(140,70)\put(10,65){\begin{tabular}[t]{|c|c|c|}\multicolumn{3}{l}{\bf解釈候補}\\\hline\Rel{accAct}&\Pair{\small\Value{翻訳},\Value{サ変名詞},\Value{無},\Value{$-$}}&\Pair{\small\Value{入れます},\Value{がを動詞},\Value{基本},\Value{能動}}\\\hline\end{tabular}}\put(85,55){\makebox[0pt][r]{\begin{tabular}[t]{|c|c|}\multicolumn{1}{l}{\bf$係り文節^*$}&\multicolumn{1}{l}{\bf$受け文節^*$}\\\hline\Pair{\small\Value{翻訳},\Value{サ変名詞},\Value{*},\Value{*}}&\Pair{\small\Value{入れます},\Value{がを動詞},\Value{*},\Value{*}}\\\hline\end{tabular}}}\put(10,0){\begin{tabular}[b]{|c|c|c|@{\hspace{3em}}c|c@{}c@{}c}\multicolumn{4}{l}{\bf事例}\\\cline{1-4}\Rel{accAct}&\SS{\small$\langle$\Value{通訳},\Value{サ変名詞},\\\hfill\Value{を},\Value{$-$}$\rangle$}&\SS{\small$\langle$\Value{行なう},\Value{がを動詞},\\\hfill\Value{基本},\Value{能動}$\rangle$}&2&$\to$&$w(S_1)\times2$&$w(S^{\prime}_1)\times2$\\\Rel{accAct}&\SS{\small$\langle$\Value{論文},\Value{普通名詞},\\\hfill\Value{無},\Value{$-$}$\rangle$}&\SS{\small$\langle$\Value{受け取る},\Value{がを動詞},\\\hfill\Value{基本},\Value{能動}$\rangle$}&2&$\to$&$w(S_2)\times2$&$w(S^{\prime}_2)\times2$\\$\vdots$&$\vdots$&$\vdots$&$\vdots$&&$\vdots$&$\vdots$\\\Rel{datCaus}&\SS{\small$\langle$\Value{学生},\Value{普通名詞},\\\hfill\Value{に},\Value{$-$}$\rangle$}&\SS{\small$\langle$\Value{参加},\Value{がに動詞},\\\hfill\Value{基本},\Value{使役}$\rangle$}&1&$\to$&&$w(S^{\prime}_3)\times1$\\$\vdots$&$\vdots$&$\vdots$&$\vdots$&&&$\vdots$\\\cline{1-4}\cline{6-7}\multicolumn{4}{l}{}&&(\ref{eq:Conditional2})の分子&(\ref{eq:Conditional2})の分母\end{tabular}}\put(-3,52){\bf類似度}\put(8,44){$S_1$}\put(1,40){$S_2$}\put(91,44){\bf類似度}\put(83,40){$S^{\prime}_1$}\put(86,31){$S^{\prime}_2$}\put(86,20){$S^{\prime}_3$}\bezier{125}(10,62)(5,48)(10,34)\ArrowHead(5,48)(10,34)\bezier{150}(10,62)(0,44)(10,26)\ArrowHead(0,44)(10,26)\bezier{75}(85,52)(90,42)(85,32)\ArrowHead(90,42)(85,32)\bezier{100}(85,52)(95,38)(85,24)\ArrowHead(95,38)(85,24)\bezier{150}(85,52)(100,32)(85,12)\ArrowHead(100,32)(85,12)\end{picture}\caption{文法関係解釈の優先度の計算}\label{fig:Conditional}\end{figure}
\section{評価}
label{sec:Evaluation}\subsection{実験}\label{sec:Evaluation:Experiment}統一モデルに基づく話し言葉の構文・意味解析システムに本稿で提案した優先度計算法を実装し,その性能を評価した.学習・試験データにはATR対話データベース(ADD)\,\cite{江原:ATR-TR-I-0186}の10対話(662文,2913依存関係,平均文長5.4文節,平均文字数26.4文字)を用いた.実験は次の2つの場合を調べた.\begin{description}\item[クローズ試験]10対話すべてを学習データとし,そのうちの1対話を試験データとする.試験データを変えてこの試行を10回繰り返し,平均をとる.\item[オープン試験]1対話を試験データとし,残りの9対話を学習データとする.試験データを変えてこの試行を10回繰り返し,平均をとる(交差検定).\end{description}依存関係と文全体の解析の正解率を表\,\ref{tab:Accuracy1}\,に示す(あらかじめ人手で付与したものと完全に一致したときのみ正解).オープン試験での構造解析の正解率は依存関係ごとで78\%,文全体で67\%であり,関係解釈の正解率は依存関係ごとで66\%,文全体で49\%である.日本語において,依存関係解釈(深層格解釈)の性能を実例に対する実験で評価した研究はほとんど見られず,ましてや,話し言葉を対象としたものは皆無である.したがって,本実験結果を他の研究のものと比較するのは難しいが,\citeA{黒橋:言処-1-1-35}が技術文書を対象として行なった係り受け解析実験の比較的短い文(平均文字数30〜50文字)に対する文全体の構造正解率が78\%であることを考えると,決してよい成績とはいえない\footnote{ただし,\citeA{黒橋:言処-1-1-35}では,出力結果を人間が見て正否を判断しており,本研究の正否判断より甘い.}.しかし,本研究が対象としている文には,さまざまな不適格性が含まれており,また,構造解析が最終的な目的ではなく依存関係解釈が目的であるから,構造正解率の10\%あまりの劣りはそれほど大きいとは思わない.いずれにせよ,日本語の話し言葉を対象とした依存関係解釈の実験結果を初めて提供できたことは非常に意義深い.次に,依存関係ごとの関係解釈の再現率(recall)と適合率(precision)を表\,\ref{tab:Recall1}\,に示す.「適格な依存関係(等位)」は等位構造をなす文法・意味関係解釈の総計であり,「適格な依存関係(従属)」は等位以外の文法・意味関係解釈の総計である.言い直しに注目すると,統語的言い直し(\Rel{synRepair})では再現率90\%,適合率47\%であり,意味的言い直し(\Rel{semRepair})では再現率88\%,適合率32\%である(オープン試験)\footnote{音韻的言い直しでは,修復対象と適正な語との曖昧性が生じなかったために,再現率,適合率ともに100\%であった.}.再現率は十分に高いが,適合率はかなり低い.これは,適格な依存関係がしばしば言い直しとして誤って解釈されたことを意味する.実際,適格な依存関係(等位)の再現率の低さは,言い直しが等位構造と間違われやすいことを示している.これは,適格文と不適格文を統一的に扱う統一モデルの欠点のようにみえる.この点について議論する前に,まず,誤りの実例を見る.\begin{table}\caption{依存関係と文全体の解析の正解率}\label{tab:Accuracy1}\centering\begin{tabular}{|l||r|r|r|r|}\hline&\multicolumn{2}{|c|}{依存関係}&\multicolumn{2}{c|}{文全体}\\\cline{2-5}&構造\hfil\null&解釈\hfil\null&構造\hfil\null&解釈\hfil\null\\\hline\hlineクローズ試験&89.3\%&86.3\%&76.5\%&68.1\%\\\hlineオープン試験&78.4\%&66.1\%&66.8\%&49.0\%\\\hline\end{tabular}\end{table}\begin{table}\caption{依存関係解釈の再現率と適合率(一部)}\label{tab:Recall1}\centering\begin{tabular}{|l||c|r|r|}\hline&解釈&再現率\hfil\null&適合率\hfil\null\\\hline\hline&適格な依存関係(従属)&84.7\%&88.2\%\\\cline{2-4}クローズ試験&適格な依存関係(等位)&57.4\%&83.0\%\\\cline{2-4}&\Rel{synRepair}&80.0\%&38.1\%\\\cline{2-4}&\Rel{semRepair}&94.3\%&33.0\%\\\hline\hline&適格な依存関係(従属)&63.2\%&65.9\%\\\cline{2-4}オープン試験&適格な依存関係(等位)&59.3\%&85.4\%\\\cline{2-4}&\Rel{synRepair}&90.0\%&47.4\%\\\cline{2-4}&\Rel{semRepair}&88.2\%&31.6\%\\\hline\end{tabular}\end{table}\subsection{誤りの例}\label{sec:Evaluation:Error}解析誤りは,(i)\,構造解析の誤りと(ii)\,関係解釈の誤りの2つのタイプに分類できる.\subsubsection*{構造解析の誤り}言い直しの解析において,訂正部分に係るべき文節が誤って修復対象に係るように解析されると,修復対象の範囲の同定に失敗する.例えば,(\ref{eq:Error1})では,「今回の会議の」が「テーマ」ではなく「主旨」に係るように誤って解析され,その結果,修復対象の範囲に含まれてしまう.\enumsentence{\label{eq:Error1}今回の会議の主旨といいますか,テーマといったようなもの\\($\times$[今回の会議の\Q主旨]\quad$\bigcirc$[今回の会議の\Qテーマ])}この種の誤りは,心理言語学などで研究されてきた構造的な選好\cite{Kimball:Cog-2-1-15,Hobbs:COLING90-162}を利用すれば,なくすことができると思われる.\subsubsection*{関係解釈の誤り}表\,\ref{tab:Recall1}\,が示しているように,言い直しは等位構造と間違われやすい.例えば,(\ref{eq:Error2})では,「オーバーヘッドプロジェクタ」と「スライド」の間の依存関係が,順接関係(\Rel{conj\&to})ではなく意味的言い直し(\Rel{semRepair})として誤って解釈される.\enumsentence{\label{eq:Error2}オーバーヘッドプロジェクタと二インチ×二インチのスライドと\\($\times$\Rel{semRepair}\quad$\bigcirc$\Rel{conj\&to})}この種の誤りは一般に,適格な依存関係解釈同士の間でも生じる(例えば\Rel{obje}と\Rel{agen}を間違う)が,上記のような言い直しが関与する誤りはより深刻である.なぜなら,これは統一モデルの妥当性に直接関係するからである.すなわち,通常の適格文の解析が失敗した時だけ言い直しの解析を起動する二段階モデルであれば,この種の誤りは生じない.そこで,次に,我々の優先度計算法を二段階モデルに組み込んで,その性能を統一モデルの場合と比較する.\subsection{二段階モデルとの比較}\label{sec:Evaluation:Two-stage}言い直しの解析の適合率の低さが統一モデルに起因するものかどうか調べるために,我々の優先度計算法を二段階モデルに組み込んで比較した.すなわち,言い直しに対する解釈規則を除いた規則群で第一段階の解析を行ない,それが失敗した場合に,言い直しに対する解釈規則を加えて再解析を行なう.依存関係解釈の再現率と適合率を表\,\ref{tab:Recall2}\,に示す.適合率は,統語的言い直しでは47\%から75\%と大きく改善されたが,意味的言い直しでは32\%から33\%に改善されたに過ぎなかった.逆に,再現率はそれぞれ,90\%,88\%から30\%,12\%と大きく低下した(オープン試験).これは,統一モデルとは逆に,二段階モデルでは言い直しの多くが適格文として誤って解析されたことを意味する.実際,適格な依存関係(従属,等位とも)の解釈の適合率が二段階モデルでは低下している.これは,\citeA{佐川:IPSJ-NL-94-100-73}が観察した不適格文と適格文との曖昧性が二段階モデルでは大きな問題となることを示している.これに対し,統一モデルでは,音響的・韻律的情報を用いることによって,誤って言い直しと判断される例を除去できる可能性がある\cite{O'Shaughnessy:ICSLP92-931,Nakatani:ACL93-46}.最後に,二段階モデルにおける依存関係と文全体の解析の解釈正解率(表\,\ref{tab:Accuracy2})は,オープン試験でそれぞれ65.5\%,48\%であり,いずれも統一モデルのものを下回る.結論として,二段階モデルによって言い直しの解析の精度が改善されることはなく(適合率は一部よくなるが再現率が悪くなる),構文・意味解析の総合性能においても統一モデルが二段階モデルに優る.
\section{おわりに}
label{sec:Conclude}本稿では,我々が提案した統一モデルに基づく話し言葉の解析手法で用いるための優先度計算法について述べた.本手法は,コーパスに基づく手法であり,解釈の優先度はその解釈が学習データ中でどのくらいの頻度で生じているかに応じて与えられる.この際,学習データの希薄性の問題を回避するために,解釈の候補と完全に一致する事例だけでなく類似した事例も考慮される.本稿では,まず,統一モデルに基づく話し言葉の解析手法の概略を説明し,次に,本手法の詳細を説明した後,本手法を話し言葉の構文・意味解析システム上に実装し,その性能を評価することで本手法の有効性を示した.その結果,オープン試験で,約半数の文に完全に正しい依存構造が与えられることが示された.また,言い直しの解析の精度は若干悪いが,これは二段階モデルによっては改善できず,結論として,構文・意味解析の総合性能においては統一モデルが二段階モデルに優ることが示された.今後の課題としては,構造的な選好の利用ならびに音響的・韻律的情報を用いた不適格性の解析の高精度化があげられる.\begin{table}[tbp]\caption{依存関係解釈の再現率と適合率(一部)(二段階モデル)}\label{tab:Recall2}\centering\begin{tabular}{|l||c|r|r|}\hline&解釈&再現率\hfil\null&適合率\hfil\null\\\hline\hline&適格な依存関係(従属)&86.7\%&86.3\%\\\cline{2-4}クローズ試験&適格な依存関係(等位)&79.4\%&53.5\%\\\cline{2-4}&\Rel{synRepair}&40.0\%&80.0\%\\\cline{2-4}&\Rel{semRepair}&11.4\%&40.0\%\\\hline\hline&適格な依存関係(従属)&64.9\%&64.8\%\\\cline{2-4}オープン試験&適格な依存関係(等位)&81.4\%&50.5\%\\\cline{2-4}&\Rel{synRepair}&30.0\%&75.0\%\\\cline{2-4}&\Rel{semRepair}&11.8\%&33.3\%\\\hline\end{tabular}\end{table}\begin{table}[tbp]\caption{依存関係と文全体の解析の正解率(二段階モデル)}\label{tab:Accuracy2}\centering\begin{tabular}{|l||r|r|r|r|}\hline&\multicolumn{2}{|c|}{依存関係}&\multicolumn{2}{c|}{文全体}\\\cline{2-5}&構造\hfil\null&解釈\hfil\null&構造\hfil\null&解釈\hfil\null\\\hline\hlineクローズ試験&84.9\%&85.9\%&74.5\%&66.8\%\\\hlineオープン試験&74.7\%&65.5\%&66.4\%&48.0\%\\\hline\end{tabular}\end{table}\bigskip\acknowledgment依存関係解釈の事例の作成に協力していただいた神戸大学大学院文化学研究科の高木一広,金城由美子の両氏に感謝致します.\bibliographystyle{jnlpbbl}\bibliography{main}\begin{biography}\biotitle{略歴}\bioauthor{伝康晴}{1988年京都大学工学部電気工学第二学科卒業.1993年同大学大学院博士後期課程研究指導認定退学.京都大学博士(工学).1991年より2年間ATR自動翻訳電話研究所滞在研究員.1993年国際電気通信基礎技術研究所入社,ATR音声翻訳通信研究所研究員.1996年10月より奈良先端科学技術大学院大学情報科学研究科助教授,現在に至る.計算言語学,認知科学の研究に従事.日本認知科学会,日本ソフトウェア科学会,人工知能学会,情報処理学会,言語処理学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V17N01-02 | \section{はじめに}
\label{sec:introduction}現在では,ウェブ上の文書をはじめとして,多種多様な文書に簡単にアクセスすることができる.ニュースやブログの記事にはさまざまな出来事が記述され,その中には数多くの地名が含まれている.地名等の固有名詞は辞書未登録語であることが多く,文書の自動処理における未知語処理の問題の主因の一つとなっている.地名は,人名や組織名等の他の固有名詞と比べてその要素に変動が少なく,詳細な辞書の作成が可能という特徴がある.地名については,地図作成や郵便業務等のため,どの国でも詳細な辞書が存在するため,これを利用することでその地名に付随する国や場所等の属性を得ることが可能である.しかし,文書中に出現する地名はその文書の記述言語を母語とする国の地名であるとは限らず,ニュース文書等にあっては理論上全世界のどの地名でも現れ得る.そのため,地名の特定にはすべての国の詳細な地名辞書を確認する必要があることとなり,これは,効率の面からも,辞書の記述方式や記述粒度の不統一の面からも,現実的であるとはいえない.外国も含めたエリア推定を行うには,(1)地名文字列の認識,(2)地名文字列の国推定,(3)地名文字列と場所との対応付け,の三段階の処理が必要である.例を挙げれば,(1)で``Sparta''という語を地名と認識し,(2)で所属国がギリシャかアメリカである可能性が高いと推定し,(3)でその文書中での``Sparta''がアメリカのウィスコンシン州の地名を指していることを示すとの手順である.このうち(1)の地名文字列の認識については固有名詞認識処理の研究が盛んに行われており,また(3)の地名文字列と場所との対応付けについては,前述の例のように複数の国に出現する可能性のある曖昧な地名を対象として,地名の辞書引きを行い文脈情報と照らし合わせて地名を特定する手法が主に研究されている.それに対して,(2)の地名文字列の国推定処理についてはほとんど研究されておらず,国がわからないため辞書引き対象とする辞書が特定できない場合には対応できていない.そこで本稿では,(3)の処理の前処理として,地名に対してその所属する国を十分に絞り込む手法を提案する.ここでの十分な絞込みとは,可能性のある国を三個以下に抑えることを意味する.``Sparta''という地名がギリシャとアメリカの両方にあるように,複数の国に同一の地名が存在する可能性があるなど,すべての地名について国を一意に絞り込むことは必ずしも正しいとはいえない.所属国候補の数を三個以下まで絞り込むことができれば,最終的な地名の判別は辞書ベースで行う等,他の手法との組合せによる精度の向上の実現が期待できる.本稿では,辞書を利用できない状況を想定しているため,地名の持つ表層情報のみを処理に用いる.これは,言語識別タスクの一つと位置づけることが可能であるが,地名は一般に二単語程度の短い単語列であり,利用できる情報が極端に少ないことが,通常の文章を対象とした言語識別と大きく異なる点である.
\section{地名の持つ表層情報を活用した所属国推定}
\label{sec:area-identification-with-surface-features}これまでの地名に対するエリア推定における場所との対応付け処理は,(i)地名辞書,(ii)文脈情報,(iii)地理的社会的情報,の三つの要素を組み合わせることによって問題解決を試みるアプローチが主流であった.このアプローチの問題点は,場所の特定を行うために必要な言語リソースをあらかじめ大量に準備しなければならないことにある.事前に用意した辞書から得ることができる情報を参照しながら,文書中で地名が出現する前後の文脈を考慮して地名と場所の対応付けが行われるが,複数の場所が候補としてあがる場合が多く,そのときには曖昧性の解消を行うことになる.機械翻訳等と同様に,このような地名の曖昧性の解消のために必要な詳細な情報を事前に用意しておく必要がある.また,地理的情報や社会的情報は付加的なものであり,この曖昧性解消に有効な情報を十分に収集することが困難な場合もある.このようなアプローチにおいては,文脈情報や付加的な情報を使うことが難しい場合には,地名辞書の中にその地名が載っているかどうかが,地名と場所の対応付けの精度を大きく決定づけることになる.これら三つの要素をなるべく使わずに地名と場所の対応づけを行うことができれば,少ない事前準備で,比較的簡単にエリア推定を実現することが可能となる.前述のような地名辞書や文脈情報,地理的社会的情報等を使わずに,地名の表層情報のみを用いて所属国を推定するために,Sanoらは$n$-gram情報等の地名の表層に現れる特徴に着目した分類器を用いた推定手法を提案している~\cite{tomohisa07snlp}.Sanoらは,SVMを二値分類器として使用し,ある地名が対象国の地名であるかどうかを判定することで,所属国候補を選び出している.Sanoらの手法は文字単位の統計情報のみを素性とするシンプルな手法であるにもかかわらず,実験の結果として最高で0.93,最低で0.69のF値を得ていることから,表層的な情報は地名の所属国推定に有用な特徴を有しているものと考えられる.しかし,地名文字列が所属国を特定するのに十分な情報を有していない場合には,ほとんどの国が候補として残ってしまう場合があった.これは,正しい所属国が候補から削除されてしまうことを避けるために適合率よりも再現率をより重視していることに起因している.その結果として,国によっては適合率が55.09\%と低くなる場合があり,どんな国に対しても高い精度の推定が可能な手法の提案が課題となっていた.この問題を解決するためには,所属国推定の結果として候補の数が多くならないように,可能性の低い候補を見つけ出して除去する処理が必要となる.候補に正解を残したまま,候補の数を削減することが可能となれば,適合率を向上させることができる.そこで,本稿では,Sanoらの手法と同様に地名が持つ表層的な情報のみを利用して,所属する可能性の高い候補の推定処理に加え,所属する可能性の低い候補の除去による絞込み処理を行うことで,再現率と適合率の双方の向上を実現する手法を提案する.
\section{所属国推定のための表層情報}
\label{sec:surface-features}本節では本稿で対象とする国の地名が持つ表層情報の特徴について述べる.ここでは,対象となる国の地名が含まれるコーパスから得られる情報を明らかにし,そこから読みとることのできる特徴を示し,表層情報を用いた所属国の推定を実現するために必要な手がかりを挙げていく.地名は一般的に,数単語から成るたかだか十数文字程度の文字列であるため,そこから得られる情報は決して多いとはいえない.しかし,人間には地名の所属国の推測が可能であることから,地名文字列から得られる表層的な特徴は所属国の推定を可能にする情報を有していると考えることができる.地名は,人名や組織名と比較して,その所属国に対する帰属性が高い.これは,地名そのものがその土地や言語,文化に密接に関連するものであるためである.つまり,ある特定の国に属する地名はある特定の特徴を共有し,それが文字列としての表層にも現れていると考えることができる.また,地名は文字列であるだけでなく,単語列であると捉えることも可能である.単語レベルの情報は,文字レベルの情報と比較して,より確度の高い情報をもたらすが,個々の単語の出現頻度が低いという点を考慮する必要がある.Sanoらは,ブロックとよばれる単位の頻度情報を用いてこの点に対処し,単語レベルで起こりやすいデータのスパースネスの問題を解決することで,所属国の推定の精度を向上させることができたと報告している\cite{tomohisa09ieice}.ブロックとは,一種の語頭や語尾であり,言語的特徴が地名の先頭や末尾に現れやすいという特徴を利用したものである.本稿では,地名の集合が持つ表層的な特徴を国ごとに抽出し,これを用いて所属国の推定を行う.表層的な情報のみを用いて所属国を推定する場合に必要な言語リソースは地名コーパスのみである.地名コーパスとは,国ごとに作成した地名リストを指し,その国に属する地名の集合である.本稿では,外国語文書中に埋め込まれた地名の所属国推定も想定しているため,字種情報が所属国の推定に影響しないよう,国に依らずラテン文字による記述とする.文字レベルの特徴は,約30種類の文字\footnote{本稿では,表記の揺れを排除するために,ラテン文字の大文字小文字の区別は行わない.その他,空白も文字として扱う.ただし,ウムラウト等のアクセント記号やハイフン等の記号は除去する.したがって,処理の上では計27種類の文字を用いる.例えば,``LandBaden-W\"{u}rttemberg''という地名は``LANDBADENWURTTEMBERG''として扱い,3単語22文字から成るものとする(空白も一文字と数える).}の並び方によって決定され,統計的な言語モデルを適用することで,特徴を定量的に扱うことができる.さらに,地名に含まれる文字数も一つの特徴といえる.本稿の手法は,地名コーパスを単に辞書引きの対象とするのではなく,地名コーパスから国ごとの特徴を抽出して処理を行うことで,地名コーパスに含まれていない地名に対しても所属国の推定を行うことを可能にするものである.これは,未知語処理の頑健性,柔軟性の向上に貢献するものと考える.また本稿ではラテン文字を処理対象として実験を行うが,本稿のアプローチは表層的な情報のみを用いているため字種に依存せず適用可能であり,その点で高い汎用性を持っているといえる.さらに,本稿のアプローチは地名コーパス以外の情報を一切必要としないことから,リソース準備にかかる人的労力や作業期間を大幅に軽減するものである.\subsection{地名コーパス}\label{sec:area-name-corpora}\begin{table}[b]\caption{地名コーパスに含まれる地名数,単語数,文字数}\label{tab:area-name-corpora}\input{03table01.txt}\vspace{-1\baselineskip}\end{table}本稿では,ウェブ上で多く使用される言語とそれと類似性の高い言語の地名を中心に10ヶ国\footnote{本稿では,比較を行うために台湾もひとつの国として扱い,実験を行った.}(中国,台湾,日本,タイ,ギリシャ,フィンランド,ドイツ,フランス,スペイン,アメリカ)を選択し,所属国推定の対象としている(表~\ref{tab:area-name-corpora})\kern-0.5zw\footnote{本稿の実験では,アメリカ国家地球空間情報局(NationalGeospatial-IntelligenceAgency:http://www.nga.mil)が提供する地理空間情報のデータベースGNS(GEOnetNamesServer)のデータを使用している.ただし,GNSにはアメリカの地名が含まれていないため,アメリカの地名は,アメリカ地名委員会(UnitedStatesBoardonGeographicNames:http://geonames.usgs.gov/)が提供するGNIS(GeographicNamesInformationSystem)のデータを使用している.GNSは全体としては550万件程度の地名データ,GNISは200万件程度の地名データを有している.}.本稿の実験では10の国それぞれに対して,10,000件ずつの地名データを無作為に抽出したものを地名コーパスとして用いている.コーパス全体に含まれる計100,000個の地名は,それぞれの国のなかではすべて異なるが,国の間での地名には重複するものがあり(表~\ref{tab:duplicated-toponyms}),全体での異なり数は99,794である.地名の重複は,言語的に近いと考えられる,中国と台湾,フランスとスペインの間で他の組合せよりも大きな数値であるが,全体としては0.2\%程度である.アメリカ以外のコーパスにも英語の単語が若干含まれており,例えば``富士山''はコーパス中では``FujiMountain''と記載されている.このような英語語句の利用は徹底されたものではなく,例えば``浅間山''は``Asamayama''と記載される等,現地の語句のラテン文字表記と英語を用いた表記とが混在している.\begin{table}[b]\vspace{-0.5\baselineskip}\caption{国の間における地名の重なり数}\label{tab:duplicated-toponyms}\input{03table02.txt}\end{table}\subsection{地名の長さ情報}\label{sec:name-length-data}\begin{figure}[b]\begin{center}\includegraphics{17-1ia3f1.eps}\end{center}\caption{地名コーパスに含まれる地名の文字数と単語数}\label{fig:toponym-word-char-length}\end{figure}地名を構成する単語数や文字数は国によって違いがある.さらに,各単語に含まれる文字数の分布にも違いがある.図~\ref{fig:toponym-word-char-length}は各地名コーパスに含まれる地名の文字数と単語数の国ごとの差異を表すものである.一つの地名に含まれる平均単語数は,最も少ない国で1.1単語(フィンランド),最も多い国で2.9単語(タイ)であり,すべての国での平均単語数は1.9単語である.また,一つの地名に含まれる平均文字数は,最も少ない国で9.7文字(フィンランド),最も多い国で16.5単語(アメリカ)であり,すべての国での平均文字数は11.9文字である.このように,各国の地名は,地名を構成する単語数,文字数に差異が認められるが,その差異はこれだけで所属国の推定を行うには十分とはいえない.図~\ref{fig:toponym-word-length-distribution}に国ごとの地名を構成する文字数の分布を示す.図~\ref{fig:toponym-word-length-distribution}に示されるように,例えば,タイの地名のうち約68\%の単語は3文字もしくは4文字で構成されている.また,フランスやスペインの地名は,2文字で構成される単語の割合が他の国と比べて高い.それに対して,フィンランドやドイツの地名のように,9文字や10文字で構成される単語が最も高い割合を示し,これらの国の地名は文字数の多い単語で構成されていることがわかる.このように,地名を構成する文字数にも,国ごとに特徴がある.しかし,文字数は同じ国のなかであっても地名間のばらつきがあり,この情報のみで所属国の推定を行うことは困難である.\begin{figure}[t]\begin{center}\includegraphics{17-1ia3f2.eps}\end{center}\caption{地名単語中の文字数の分布}\label{fig:toponym-word-length-distribution}\end{figure}\subsection{文字出現頻度の情報}\label{sec:ngram-data}地名の所属国の推定は,言語識別の一種である.言語識別処理では,文字の出現頻度の情報が有効であることが知られている~\cite{dunning94,Lins04}.ここでは,文字の出現頻度情報の地名の所属国の推定での有効性を検証するため,国ごとの$n$-gram情報の比較を行う.表~\ref{tab:ngram-data}は地名コーパス中に含まれる地名の文字単位の$n$-gramを取得した結果である.表中の`\texttt{\_}'は空白文字を表し,ここでは一つの文字として扱っている.表~\ref{tab:ngram-data}では,unigram,bigram,trigramの上位5つを示すとともに,各国について,10\%以上の頻度を持つunigramの個数,3\%以上の頻度を持つbigramの個数,1\%以上の頻度を持つtrigramの個数を示している.\begin{table}[b]\caption{地名コーパスの$n$-gram情報}\label{tab:ngram-data}\input{03table03.txt}\end{table}表~\ref{tab:ngram-data}から,中国と台湾の地名から得られるunigramの類似性が非常に高いことがわかる.この二つの国はunigramと同様にbigramの出現傾向も類似している.特に,`\texttt{AN}'と`\texttt{NG}'は両国で5\%以上の出現頻度を示しており,両国の他のbigramの出現頻度と比べても高い値である.これは`\texttt{ANG\_}'という文字列が両国に多く出現するためで,trigramについても`\texttt{ANG}'や`\texttt{NG\_}'の値が両方の国で高くなっている.しかし,両国の$n$-gramの出現状況には差異も見られる.このことから,各国の特徴的な$n$-gram情報を活用することで,同じ言語グループに属する地名であっても,それらの所属国を区別することは可能と考えられる.スペインのbigram情報の上位は`\texttt{A}'`\texttt{D}'`\texttt{E}'`\texttt{L}'`\texttt{\_}'の5種類の文字の組合せのみである(表~\ref{tab:ngram-data}).これは,スペインのコーパスに`MontesdeLeon'や`JerezdelaFrontera'等`\texttt{DE}'や`\texttt{LA}',`\texttt{DEL}'といった冠詞や前置詞が多く含まれるためである.この傾向は,フランスの地名にも同様に現れている.このような冠詞や前置詞は一般に文字数が少なく,2文字や3文字の場合が多い.この特徴は,図~\ref{fig:toponym-word-length-distribution}のフランスとスペインの地名を構成する単語数の分布にも現れている.また,表~\ref{tab:ngram-data}から,unigramの比較では日本とギリシャの出現傾向が近いことがわかる.しかし,bigramで比較すると両国の類似性は高いとはいえない.これにより,unigramのみによる所属国の推定は難しいことが推測できる.中国と台湾のようにbigramを用いても区別が困難な場合もある.したがって,特定の統計情報を利用するだけでは所属国の推定には限界があり,これらを適切に組み合わせることが重要であると考えられる.地名コーパスは一般に言語資源としては小さく,trigramより大きな$n$での$n$-gramはデータスパースネスの問題が顕著化する.例えば,ギリシャの場合上位5種類のtrigramを合計しても全体の出現頻度の4.57\%しかカバーしておらず,最も高い出現頻度を持つ`\texttt{OS\_}'でもカバー率は1.23\%である.上位5種類のtrigramがカバーする割合が最も高い中国や台湾のコーパスの場合でも,上位5種類のtrigramの合計でそれぞれ10.27\%,10.49\%をカバーしているにすぎない.なお,中国や台湾は特定の$n$-gramが特に高い頻度で出現する傾向が見られ,1\%以上の割合を占めるtrigramは中国コーパスには12個,台湾コーパスには11個含まれている.$n$-gramモデルの性能を評価する一つの指標として,各国の$n$-gramモデルのそれぞれの地名コーパスに対してのパープレキシティを表~\ref{tab:perplexity}に示す.各国の$n$-gramモデルは,対応する国のコーパスに対して高い性能を示しており,この$n$-gramモデルが所属国を推定するための情報を有していることが分かる.このパープレキシティの値は,対応する国に対してだけでなく,中国と台湾やフランスとスペイン等の間でも比較的小さな値となった.これは,これらの国を区別することが困難であることを示し,$n$-gramのみで所属国を判断することは,所属国の推定の精度向上に限界があることが分かる.\begin{table}[t]\caption{各国の$n$-gramモデルによる各国の地名に対するパープレキシティ}\label{tab:perplexity}\input{03table04.txt}\end{table}
\section{候補絞込みと候補選択の二段階処理から成る地名の所属国の推定手法}
\label{sec:two-phase-area-identification-method}地名の所属国の推定では,(i)同一の地名が複数の国に存在する場合,(ii)地名文字列に類似した特徴を持つ国が複数ある場合に,地名の所属国候補を一意に絞ることができないことがある.前者は地名の曖昧性,後者は国の類似性と考えることができる.どちらの場合でも,該当する複数の国で高い所属確率を持つ地名が存在し,これらの地名に対しては該当する複数の国を候補として出力するのが妥当であり,複数の国を候補として出力することはシステムの精度を落とすものではない.それに対して,明らかに所属国である可能性が低い国は,出力に含まれるべきではない.単に複数の候補を出力するだけでは,再現率は得られても適合率は下がり,結果的にシステムの信頼性は落ちる.本稿では,再現率と適合率の双方の向上を実現するため,二段階の処理で所属国の推定を行う手法を提案する.本手法の処理の流れを図~\ref{fig:system-overview}に示す.本手法は,所属国の候補の絞込みの第一フェーズと,所属国の候補の選択の第二フェーズの,二段階で構成されている.本システムの入力は地名文字列である.まず,各地名文字列について,所属国の候補の絞込みフェーズで全10ヶ国から3ヶ国まで候補を絞り込む.この段階で,明らかに所属する可能性の低い国が候補から外される.このフェーズでは,文字単位の$n$-gram情報をベースとした生成確率を用いて処理を行う.次に,所属国の候補の選択フェーズでこの3ヶ国それぞれに対して所属の可能性を推定し,可能性があると推定されたものを所属国の推定結果として出力する.このフェーズでは,$n$-gramの他,長さ情報等も用いる.本システムの出力は,入力地名文字列が所属する可能性のある国であり,推定結果に応じて0〜3個の国名を出力する.\begin{figure}[t]\begin{center}\includegraphics{17-1ia3f3.eps}\end{center}\caption{提案手法の処理の流れ}\label{fig:system-overview}\end{figure}\subsection{地名の生成確率を用いた所属国の候補絞込みフェーズ}\label{sec:automatic-area-identification-with-ngrams}人間による直感的な地名の所属国の推定が地名を構成する文字の並びを基にしているとすれば,\ref{sec:surface-features}~節で示したような地名に関する統計的な特徴を用いて所属国の推定をすることが可能である.本節では,地名の表層情報として$n$-gramのみを用いて所属国の候補の絞込みを行うフェーズについて述べる.ここでは,地名を構成する文字の並びが与えられたときに,その文字列が生成される確率が最も高くなるような統計情報を持つ国を選択することで所属国の候補の絞込みを行う.$n$個の文字で構成される地名$T_{1}^{n}=c_{1}\cdotsc_{n}$の国$A$における生成確率$P_A(T_{1}^{n})$を$n$-gram情報を用いて定義する(式~\ref{eqn:trigram}).\begin{equation}P_{A}(T_{1}^{n})=P_{A}(c_{1})P_{A}(c_{2}|c_{1})P_{A}(c_{3}|c_{1}c_{2})\cdotsP_{A}(c_{n}|c_{n-2}c_{n-1})\label{eqn:trigram}\end{equation}ここで,$P_{A}(c_{n}|c_{n-2}c_{n-1})$は国$A$において$c_{n-2}c_{n-1}$の後に$c_{n}$が出現する確率を表している.文字単位の$n$-gram情報は,ModifiedKneser-Neyディスカウンティングを用いて,低次の$n$-gram情報を補間しながら平滑化を行っている.このとき,ある地名$T$に対して,その生成確率$P_{A}(T)$が最大となるような国をその地名が属する国と推測し,それを$\hat{A}=\argmax_{A}P_{A}(T)$とする.この定義により$n$-gram情報のみを用いて$\hat{A}$を推定した結果を表~\ref{tab:accuracy-trigram}に示す.所属国の絞込みフェーズの出力の上位1位の正解率\footnote{ここでの正解率は,生成確率が最大となった国$\hat{A}$と正解が一致した割合を表す.}は平均で85.96\%であった.表~\ref{tab:accuracy-trigram}に示されるように,単純な$n$-gramでの推定でも,約86\%と高い正解率を得ることは可能である.この手法で正解率が最も高い国はタイで95.37\%,正解率が最も低い国は中国で72.70\%であった.中国と台湾の正解率が低いのは,\ref{sec:ngram-data}~節で述べた両国の$n$-gramの類似性によるものと考えられる.\begin{table}[b]\caption{生成確率による所属国の推定の正解率}\label{tab:accuracy-trigram}\input{03table05.txt}\end{table}地名の所属国の推定は,もともと同一の地名が複数の国に存在する可能性がある等,所属国名を唯一出力する形式は馴染まない.唯一の正解を判定するのではなく,所属国の候補を絞り込むことを目的とした場合,上位$n$個を候補として残すことで正解を所属国の候補から不適切に除去されるのを防ぎ,再現率を高めることができる.図~\ref{fig:ngram-coverage}は,上位三個までを候補として残した場合の正解のカバー率(正解が出力された所属国の候補に含まれた割合)を表している.図~\ref{fig:ngram-coverage}のTop1は上位一個のみ出力した場合のカバー率,Top2は上位二個まで出力した場合のカバー率,Top3は上位三個まで出力した場合のカバー率を示す.全体の平均で,上位二個までを候補とした場合,95.22\%をカバーし,上位三個までを候補とした場合には,97.46\%をカバーしている.上位三個までを選択した場合では,個々の国についても,最低でも96.03\%,最高で98.38\%の再現率を達成している.これにより,このフェーズで所属国の候補を上位三位までに絞り込むことで,98\%程度の再現率を得ることができることがわかる.\begin{figure}[t]\begin{center}\includegraphics{17-1ia3f4.eps}\end{center}\caption{生成確率による所属国の推定を行った場合の正解のカバー率}\label{fig:ngram-coverage}\end{figure}出力される所属国の候補の数を増やすことは,適合率を下げるだけでなく,可能性の低い国も候補に残るリスクがあるため,各地名に対して適切な所属国の候補を必要十分な個数だけ出力する必要がある.上位一つの国名のみを出力した場合でも,平均86\%程度の正解率を得ることができるが,各地名に対する出力候補数の妥当性の判断が困難なため,98\%程度の再現率を得るために,本フェーズではすべての地名に対して三つの所属国の候補を出力する.本手法では,このフェーズを二段階処理の第一フェーズとし,ここで3候補に絞り込んだ上で,第二フェーズである候補選択フェーズで所属国の候補それぞれに対して妥当性の検証を行う(\ref{sec:automatic-area-identification-with-svm}~節).ここで,本フェーズによる候補の絞込みの結果が妥当かつ有効であることを示す.10ヶ国の組合せは${}_{10}C_3=120$通りであるが,図~\ref{fig:ngram-coverage}で示したとおり,正解が絞込み後の3候補(120通り)に含まれる可能性はおよそ98\%である.たとえば,中国と台湾が3候補に同時に残る場合に着目すると,この組合わせは8種類あるが,そのすべての組合せが120個中上位8位までに出力しており,この二つの国が同時に候補に残る可能性が高い.同じ東アジア地域である日本が3候補のなかに残る場合では,中国,台湾,日本の3ヶ国が候補として出力された割合は,正解が中国の場合で10.67\%(3位),台湾の場合で11.17\%(3位),日本の場合で13.71\%(1位)であった.それに対して,中国,台湾,タイの組合せでは,正解が中国の場合では25.87\%(1位),台湾の場合で30.68\%(1位),タイの場合で12.76\%(1位)の割合であり,中国,台湾,日本の組合せの場合よりも高い.これは,中国語圏の地名が中国,台湾,タイの3ヶ国に絞られる割合が高いことを示している.また,西ヨーロッパの国であるドイツ,フランス,スペインにアメリカを加えた4ヶ国が互いに候補として残る確率が高くなっている.この4ヶ国は同じ言語圏に属するものではないが,歴史的,文化的背景から,他の国と比べて類似した地名が多いものと推測できる.\begin{figure}[b]\vspace{-0.5\baselineskip}\begin{center}\includegraphics{17-1ia3f5.eps}\end{center}\caption{絞込み結果の分類}\label{fig:ngram-output-category}\end{figure}ここで,同時に候補に残りやすい中国,台湾,タイの3ヶ国をグループA,ドイツ,フランス,スペイン,アメリカの4ヶ国をグループB,どちらにも含まれていないギリシャ,フィンランド,日本の3ヶ国をグループCとして,3候補に残る国の組合わせに何らかの傾向がないかどうかを調べたものが図~\ref{fig:ngram-output-category}である.図~\ref{fig:ngram-output-category}では,絞込み候補の組合せを,グループAの国が二個以上出力された場合(カテゴリA),グループBの国が二個以上出力された場合(カテゴリB),グループCの国が二個以上出力された場合(カテゴリC),すべてのグループから1ヶ国ずつ出力された場合(カテゴリD)の4つに分けて示している.「AAB」は,グループAに属する国が二つとグループBに属する国が一つから成る所属国の候補が絞込み結果として出力された地名の割合を示し,グループAに属する国が二つ以上であることから,グループAに偏った出力としてカテゴリAに入れている.この実験では各国の地名コーパスに含まれる地名数は同じなので,絞込みが完全に成功した場合には,カテゴリAには30\%,カテゴリBには40\%,カテゴリCには30\%が配分されるはずである.実際には,カテゴリAに26.77\%,カテゴリBに46.98\%,カテゴリCに18.74\%が配分された.また,3グループからそれぞれ1ヶ国ずつ候補に残るような場合(カテゴリD)は全体の7.51\%だけであり,それ以外は90\%以上の割合でどれかのグループに偏った候補が出力されていることになる.このことから,比較的同時に候補に残りやすい組合せの存在がわかり,本フェーズが所属国の候補の絞込み処理として妥当かつ有効であることがいえる.\subsection{地名の所属国選択分類器を用いた所属国の候補選択フェーズ}\label{sec:automatic-area-identification-with-svm}\ref{sec:automatic-area-identification-with-ngrams}~節の所属国の候補絞込みフェーズでは,文字の出現頻度情報のみを用いて,所属国の候補を3個まで絞り込んだ.本フェーズでは,絞込み処理後の候補を対象に,文字の出現頻度情報と長さ情報を素性として定義し,各国に所属する地名を学習することで,分類器を用いた所属国の選択を行う.分類器として用いるSVMは二値分類器であり,テストする対象となる地名がその国に属するか属さないかを判定する.このフェーズは,分類された結果からその地名が属する国の候補を選び出していくアプローチである.学習に用いる素性は,地名コーパスから得られる表層データ情報(\ref{sec:surface-features}~節)である.表層データは,大別すると,地名を構成する文字の並びの長さの情報と,文字の並びが出現する確率をベースとした$n$-gram情報の二種類がある.地名を構成する文字の並びは,所属国によって特徴が存在する.素性として用いる長さ情報は,以下の4種類である.\begin{itemize}\item[(FL1)]地名を構成する単語数\item[(FL2)]地名を構成する文字数\item[(FL3)]$n$番目の単語に含まれる文字数($1\len\le16$)\item[(FL4)]地名に含まれる$m$文字の単語の数($1\lem\le32$)\end{itemize}\ref{sec:area-name-corpora}節で述べたように,地名に含まれる文字数や単語数は国によってばらつきがあり,このばらつきが所属国を推定する手がかりとなり得る(FL1,FL2).単に文字数や単語数の情報だけでなく,国ごとに単語そのものの特徴や単語の分布具合の情報も利用することができる.例えば,フランスの地名では``la''という単語が頻繁に出現するが,そのうち約半数が最初の単語として登場する.このように,単語によっては,その単語が出現する地名内での位置に特徴がある(FL3).また,図~\ref{fig:toponym-word-length-distribution}に示したように,タイの地名は他の国の地名と比較して3文字および4文字で構成される単語の割合が圧倒的に高い等,地名に含まれる単語の文字数も国の特徴となり得る(FL4).また,素性として用いる$n$-gramの情報は,以下の3種類である.\begin{itemize}\item[(FN1)]文字単位のunigram情報\item[(FN2)]文字単位のbigram情報\item[(FN3)]文字単位のtrigram情報\end{itemize}$n$-gram情報は文字単位であり,空白等の記号も一つの文字としている.各素性の値$V$は国$A$のコーパスの$n$-gramの出現確率をベースに計算し,次のように定義する(式~\ref{eqn:feature-value}).\begin{equation}V_{A}(t,c)=P_{A}(c)\timesN(t,c)\label{eqn:feature-value}\end{equation}$c$を長さ$n$($1\len\le3$)の文字の並びとした場合,$P_{A}(c)$は国$A$における文字列$c$が出現する確率,$N(t,c)$は地名$t$の中で文字列$c$が出現した回数を示す.素性の値は,$n$-gram情報と対象とする地名に依存しており,ある文字列のその国での出現しやすさと,その地名の中での出現しやすさを示している.ここでは,地名が所属する国を正例,それ以外の国を負例として,地名コーパスから各国の地名の特徴を学習したSVMを二値分類器として利用し,入力となる地名を対象国として分類するべきかどうかを判断する.対象となる$p$個の国の中から異なる$q$個の国を選び出し(${}_{p}C_{q}$通り),選ばれた$q$個の国に対して所属国であるかどうかをそれぞれの分類器によって判定する.本フェーズでは,選ばれた$q$個の組合せごとに学習対象が異なるため,一つの組合せごとに$q$種類の分類器を用意する.本稿では,全体として10ヶ国を対象とし,絞込み処理によって3候補の組合せが選び出されるため,全体では360種類(${}_{p}C_{q}\timesq={}_{10}C_{3}\times3$)の分類器を用いている.\begin{table}[b]\caption{候補選択分類器による所属国の選択結果(中国,台湾,タイ)}\label{tab:svm-output-chthtw}\input{03table06.txt}\end{table}表~\ref{tab:svm-output-chthtw}に,グループAの3ヶ国(中国,台湾,タイ)について,この3ヶ国を対象に本分類器を用いて所属国の推定を行った結果を示す.ここでは,この3ヶ国の地名コーパスを5分割し,クロスバリデーションによる評価を行うことで,地名コーパスに存在しない地名を対象としたオープンテストとして所属国の推定の正解率\footnote{ここでの正解率は,$(pp+nn)/(pp+pn+np+nn)$で計算する.$pp$は正解を正しく分類できた回数,$pn$は不正解を誤って分類した回数,$np$は正解を誤って分類した回数,$nn$は不正解を正しく分類した回数を表す.したがって,ここでの正解率は,ある地名に対して正解を正解と推定できたか,不正解を不正解と推定できたかの両方の結果を含んでいる.}を測った.グループAに属する3ヶ国のみを対象として学習した場合,表~\ref{tab:svm-output-chthtw}に示したとおり,F値は最低で0.73,最大で0.95となった.正解が台湾の場合の適合率が59.87\%と低いが,この場合でも再現率は93.71\%であり,正解が候補として出力される確率は十分に高い.表~\ref{tab:svm-output-frgmsp}はグループBに属する4ヶ国を対象として,その中から3ヶ国ごとに対して分類器による所属国の選択を行った結果である.このグループでも,F値は最低0.75,再現率は最低で95.55\%で,正解が候補として出力される可能性は十分高い.同様に,表~\ref{tab:svm-output-figrja}はグループCに属する3ヶ国を対象として分類器による所属国の選択を行った結果である.これらの結果から,同じグループに属する国の間での分類であっても,十分な正解率が得られることが示された.同じグループに属する国は他の国に比べて類似性が高いものであり,これらの間での分類が最も難しい部分となる.10ヶ国全体を対象とした学習では,類似性の低いもの同士の間の差異の特徴が強調され,類似性の高いもの同士の間の差異の学習は進み辛いが,本フェーズでは絞込み後の3ヶ国間の分類の学習を行うことで,類似性の高い国の間での所属国の選択の精度の向上を実現した.\begin{table}[b]\caption{候補選択分類器による所属国の選択結果(ドイツ,フランス,スペイン,アメリカ)}\label{tab:svm-output-frgmsp}\input{03table07.txt}\end{table}\begin{table}[b]\caption{候補選択分類器による所属国の選択結果(ギリシャ,フィンランド,日本)}\label{tab:svm-output-figrja}\input{03table08.txt}\end{table}ここで,対象国の数による影響を調べるために,10ヶ国全てを対象として選択分類器を用いた場合の所属国推定の結果を示し,本フェーズの所属国の選択分類器の特徴を述べる.表~\ref{tab:accuracy-svm}は,クロスバリデーションで10ヶ国すべてを対象として所属国の推定を行った結果である.全ての国の地名に対して90\%以上の正解率を示し,全体でも93.54\%の正解率を示した.表~\ref{tab:fmeasure-svm}は,この実験の結果について,地名に対する所属国の候補の中に正解が含まれているか否かとの観点で集計したものである.すべての国についてF値は最低でも0.7前後であり,F値が最大となるタイの地名に関しては0.93に達している.また,全体的に適合率よりも再現率の方が高い値を示している.低い適合率は不正解を誤って所属国の候補として分類するケースがあることを表している.所属国の推定タスクを考える場合,最も大きな問題は同じ言語を使用する複数の国の間での判別である.たとえば,中国や台湾では中国語を使用している.使用している言語が同一であったり類似性の高いものであったりする場合,異なる国であっても,地名を構成する文字の並びが持つ特徴は類似したものとなる.また,言語が異なる場合でも,地理的に近い国では,文化的,歴史的背景から,似た地名が複数現れる場合がある.地名コーパスから得られる特徴が類似している場合,所属国の推定は困難となるが,国によっては複数の公用語や先住民の言語が使われることによって所属国の推定するための特徴を見出せる可能性がある.\begin{table}[b]\hfill\begin{minipage}[t]{150pt}\caption{所属国の選択分類器の精度}\label{tab:accuracy-svm}\input{03table09.txt}\end{minipage}\hfill\begin{minipage}[t]{240pt}\caption{選択分類器による国ごとの所属国候補選択の結果}\label{tab:fmeasure-svm}\input{03table10.txt}\end{minipage}\hfill\end{table}\begin{figure}[b]\begin{minipage}[t]{.48\textwidth}\begin{center}\includegraphics{17-1ia3f6.eps}\end{center}\caption{中国が候補として出力された割合}\label{fig:classification-ch+tw-ch}\end{minipage}\hfill\begin{minipage}[t]{.48\textwidth}\begin{center}\includegraphics{17-1ia3f7.eps}\end{center}\caption{台湾が候補として出力された割合}\label{fig:classification-ch+tw-tw}\end{minipage}\end{figure}図~\ref{fig:classification-ch+tw-ch}と図~\ref{fig:classification-ch+tw-tw}は,各国について選択分類器を用いて所属国の推定を行った結果として,中国または台湾が候補となった割合を示す.図~\ref{fig:classification-ch+tw-ch}と図~\ref{fig:classification-ch+tw-tw}に示されるように,中国と台湾の地名の所属国の推定では,どちらの地名も,互いを同時に候補に残す場合が多く見られ,逆に,中国と台湾以外の国が候補に残る可能性は低い.\ref{sec:surface-features}節で述べたように,中国の地名と台湾の地名では$n$-gram情報で類似した特徴を持っている(表~\ref{tab:ngram-data})が,長さの情報に違いが見られる(図~\ref{fig:toponym-word-char-length})等,差異は存在する.10ヶ国での実験結果(表~\ref{tab:fmeasure-svm})と比較して,中国と台湾のみの地名を用いて学習を行った選択分類器を用いた場合には,再現率を高く保ったままで適合率をあげることができている(表~\ref{tab:ch-tw-9},表~\ref{tab:ch-tw-2}).表~\ref{tab:ch-tw-9}と表~\ref{tab:ch-tw-2}の比較から,生成確率を用いた所属国の候補の絞込みと,選択分類器による精度の向上の組合せによって,再現率と適合率の両方を向上させることがわかる.10ヶ国で学習する場合と2ヶ国に絞って学習する場合では学習内容が異なり,10ヶ国での学習の場合では本稿の第一フェーズのような絞込みの意味合いが強いのに対して,類似の2ヶ国に絞って学習する場合ではその2ヶ国間での差異が強調される.本稿は,第一フェーズで候補の絞込みを行った上で,第二フェーズとして絞込み後の3候補のみを対象として学習した選択分類器を用いて候補選択を行うことで,地名の所属国の推定の精度を向上させるものである.\subsection{生成確率情報と選択分類器を組み合わせた地名の所属国の推定}\label{sec:consideration-ngrams+svm}本稿の提案手法は,\ref{sec:automatic-area-identification-with-ngrams}~節の生成確率を用いた候補絞込み手法を第一フェーズ,\ref{sec:automatic-area-identification-with-svm}~節の選択分類器を用いた所属国の候補選択手法を第二フェーズとした二段階の処理で所属国の推定を行うものである(図~\ref{fig:system-overview}).\begin{table}[b]\begin{minipage}[t]{.45\textwidth}\caption{10ヶ国で学習した場合(表~\ref{tab:fmeasure-svm}抜粋)}\label{tab:ch-tw-9}\input{03table11.txt}\end{minipage}\hfill\begin{minipage}[t]{.45\textwidth}\caption{2ヶ国で学習した場合}\label{tab:ch-tw-2}\input{03table12.txt}\end{minipage}\end{table}\begin{table}[b]\caption{各手法を用いた所属国の推定の結果}\label{tab:result-trigram+svm}\input{03table13.txt}\end{table}表~\ref{tab:result-trigram+svm}に,\ref{sec:automatic-area-identification-with-ngrams}~節の生成確率のみを用いた手法,\ref{sec:automatic-area-identification-with-svm}~節の選択分類器のみを用いた手法,その両方を組み合わせた本提案手法のそれぞれについて,所属国の推定を行った結果を示す.生成確率のみを用いた手法ではF値は0.49と低いが,その主因は適合率の低さにある.生成確率のみを用いた手法は再現率が高く,このことから,本手法でこの手法を処理の第一段階の絞込みフェーズとして用いたことは妥当であるといえる.生成確率と選択分類器の両方を組み合わせた本手法のF値は0.83であり,選択分類器のみを用いた手法のF値0.74と比べて,向上を示した.両者の再現率にほとんど違いがないにもかかわらず,適合率は,生成確率と選択分類器を組み合わせることで,61.58\%から74.08\%へ向上しており,これがF値の改善に繋がった.\begin{figure}[b]\vspace{-0.5\baselineskip}\begin{center}\includegraphics{17-1ia3f8.eps}\end{center}\caption{3手法の適合率および再現率の比較}\label{fig:result-trigram+svm}\end{figure}選択分類器のみを用いた場合には,生成確率のみの場合と比べ,再現率は若干劣る.生成確率を用いた手法を絞込みフェーズとして用いた後に選択分類器を選択フェーズとして実行する本手法でも,再現率は選択分類器のみの場合とほぼ同じであり,絞込みフェーズの段階で再現率が98\%程度に落ちることを考え合わせると,本手法の所属国の選択フェーズでの正解の脱落は十分少ないことがわかる.図~\ref{fig:result-trigram+svm}は,各国の所属国の推定結果を表している.生成確率と選択分類器を組み合わせた本提案手法(図中の黒丸)では,再現率が95.03\%,適合率が74.08\%であり,F値が0.83であった.生成確率のみの情報を用いた手法(図中の黒三角)では適合率が32.49\%と低いが,再現率は97.46\%と高くなっている.選択分類器のみを用いた手法(図中の黒四角)では,$n$-gramと長さの情報を用いることで適合率を61.58\%に向上させている.図~\ref{fig:result-trigram+svm}では,国ごとに比較した場合でも同様の傾向が見られ,どの国に対しても効果を発揮する手法であることが期待できる.この結果は,正しい国を候補として残しつつも,正しくない国を候補から除去する能力を向上させたことを示している.これらのことから,複数の所属国の候補をまず可能性の高い所属国の候補のみに絞り込む第一フェーズと,絞込み後の候補のみに対象を絞って選択分類器に掛ける第二フェーズから成る本提案手法は,第一フェーズによる可能性の低い候補の除去と,第二フェーズによる類似している国の間の差異を用いた候補選択とがそれぞれ有効に働き,高い再現率を保ったまま適合率を向上させることができると結論付ける.
\section{関連研究}
\label{sec:related-work}言語の多様化にともなって,自動的に言語の識別を行うことの重要性が増してきている.その一つの背景には,ウェブの急速な成長にともなう英語以外の文書の増加がある.InternetWorldStatsによる近年のウェブユーザ数の言語別集計の結果\footnote{http://www.internetworldstats.com/stats7.htm}によると,2008年現在では,依然として英語を利用するユーザが最も多く,それに続いて,中国語,スペイン語,日本語,フランス語を利用するユーザが多い.2000年からの言語別ユーザ数の増加の割合は,アラビア語,ポルトガル語,中国語,フランス語,スペイン語が大きな伸びをみせている.この調査結果は,用いられる言語の多様性が増していることを示しているといえる.また,ウェブ上の文書の内の半数以上は英語以外の言語で書かれているものであると同時に,一つの文書の中で複数の言語が使われていることもある.多種多様な情報元からの情報検索や質問応答,機械翻訳等,ウェブ上の膨大なデータを対象とした自動処理の実現においては,文書の使用言語の自動推定だけでなく,文書中に出現する固有名詞等の外国語の語句の的確な解析も,自然言語処理の応用分野における精度向上に大きな影響を与える要因となりうる.\subsection{統計情報を用いた言語識別に関する研究}\label{sec:language-identification}言語識別の研究は,文書を対象としたものに限らず,音声認識\cite{matrouf98,berkling94}や,文書イメージを対象にしたものもある.Sibunらは,文書イメージから抽出された文字の形状の統計的な分布を利用して言語識別を行った\cite{Sibun94}.彼らは,アルファベットの文字の形状を,ベースライン,ボトム,トップ,Xハイトの情報を使って分類し,文書中の文字をLinearDiscriminateAnalysis(LDA)を用いて分類した.2,000から3,000文字を含む23の言語の文書イメージを用いて文書を構成する言語を識別する実験を行った結果,90\%以上の精度を達成している.Dunningは,ドイツ語の`\"u'やフランス語の`\^e'等のアクセント記号を用いずに,5,000バイトのトレーニングコーパスと500バイトのテスト用テキストを用いた言語識別の実験で97\%の精度を実現している\cite{dunning94}.Dunningらは20バイトのテスト用テキストでも92\%の精度での言語識別を実現し,短い文書や数単語で構成される句であっても,言語識別が可能であることを示した.Linsらは,文書中に含まれる複数の単語に対して各言語の辞書中での出現の有無を調べる手法で言語識別を行った~\cite{Lins04}.Linsらは言語内で比較的種類が少ないとされている副詞,冠詞,接続詞,感嘆詞,数詞,前置詞,代名詞のみを辞書引きの対象とすることで,高速かつ汎用性の高い手法を提案している.Linsらはこの手法を用いて,ポルトガル語,スペイン語,フランス語,英語の文書(約1,000単語で構成される600の文書)を対象とした評価実験を行い,ウェブの文書でも80\%以上,通常の文書では90\%以上の精度を達成している.Martinsらは,ウェブページに特化した言語識別手法を提案した\cite{Martins05}.Martinsらの手法は,$n$-gram(1から5)情報のプロファイル間の距離と,ウェブページ固有のヒューリスティクスを用いるものである.12の言語で各500ウェブページを用いた実験では,全ての言語で84\%以上の正解を出したが,スウェーデン語とデンマーク語等の北欧の言語の類似性が若干の精度の低下をもたらしたことを今後の課題として挙げている.また,地名以外の固有名詞として人名に着目し統計情報を用いた所属国の推定を行う研究もある.Nobesawaらは,言語識別の手法を人名に対して適用することで,人名用の言語識別のためのシンプルなシステムを提案し,人名を属する国で分類することが可能であることを示した\cite{nobesawa0512paclic}.この手法は,人名文字列の長さや,人名の文字単位の$n$-gramの情報を活用したものであり,9種類の言語圏の12の国に対して90\%以上の精度を実現することに成功している.また,Nobesawaらは,英語の人名に対してSVMの分類器を用いた手法も提案している\cite{nobesawa0605ieee}.\subsection{エリア推定に関する関連研究}\label{sec:toponym-resolution}地名のエリア推定の最終的な目標は,その地名が地球上のどの場所を示しているのかを判断することである.文章中の地名のエリア推定タスクは,一般に,(1)地名文字列の認識,(2)地名文字列の国推定,(3)地名文字列と場所との対応付け,の三段階の処理からなる.(1)の地名文字列の認識は固有名詞の自動抽出タスクに相当する.(2)および(3)は,地名文字列と地球上の場所との対応付けを行う処理である.本稿ではこのうち,研究のあまり進んでいなかった(2)の所属国推定を目的とし,その実現手法を提案するものである.(3)の地名文字列と場所との対応付けの研究では,あらかじめ対象ドメインや対象言語を制限することで,(2)の所属国の推定のステップを省略することが多い.したがって,本稿が対象とする所属国の推定の研究は,この地名文字列と場所との対応付けの研究を助け,その精度の向上に寄与するものと考えている.本節では,関連する研究として(3)の地名文字列と場所との対応付けを行っているものについて述べる.これらは,対象の地名が辞書に登録されていることを前提として辞書引きによって場所の候補を探しだし,複数の場所が候補として挙がる等の曖昧性がある場合には文脈情報等を用いてその判別を行うアプローチが一般的である.HauptmannとOlligschlaegerは,音声データを対象とした場所の判別を行う手法を提案している~\cite{Hauptmann99,Olligschlaeger99}.基本的には地名辞書に含まれる地名のみを対象としているが,同じ地名であっても複数の異なる場所を示す曖昧性がある場合には,同一の会話内に現れる他の地名の情報を活用することによって,その場所の相違を判断している.Hauptmannらの手法では,200のニュース記事に出現した357の地名のうち269の地名を正しく判別することができ,75\%の精度を達成している.Hauptmannらは,正しく判別することができなかったものは,地名辞書に載っていなかったもの,曖昧性によるエラー,音声認識誤り等が原因であると報告している.また,Smithらは地名の曖昧性の解消に焦点を当て,文書中の地名の出現頻度の重心を利用した手法を提案した\cite{Smith2001}.これは,地名の出現頻度によって重みが付けられた地図上での重心を計算し,ある閾値よりも離れているものを枝刈りした上で重心を再度計算しなおすことで候補の曖昧性を解消しようとするものである.大きな地名辞書を使うことによって,再現率を高く保てるようにした上で,F値が0.81から0.96という結果を出している.しかし,この手法はその重心の付近を示すだけであり,重心のみを使用しただけでは頑健性に欠ける場合があると結論づけている.地名の曖昧性を解消するための手法として,Liらは,地名表現のパターンマッチングと重み付き地名の類似度グラフの探索,サーチエンジンを用いた地名辞書の補間の三つのアプローチを組み合わせる方法を提案した\cite{Li2002}.地名表現のパターンマッチングでは,`cityof'+``地名''(``cityofVancouver''等)や``地名1''+`,'+``地名2''+`,'+``地名3''(``Boston,Massachusetts,USA''等)といった地名の周辺の表現のパターンを利用している.Liらは大きな地名辞書と地名表現のパターンマッチングを用いることで,93.8\%の精度を実現した.Pouliquenらは,ヨーロッパのエリアに限定したマルチリンガルテキストを対象として,場所の判別の精度の向上を目指す手法を提案した~\cite{Pouliquen06}.この手法では,``And'',``To'',``Be''等の瀕出する単語と同形異義語であるような地名をgeo-stoplistとして抽出し,このような地名を候補から排除することで,精度の向上を図っている.また,それ以外にも場所の重要度,人名との区別,地名同士の物理的な距離の情報等を用いて曖昧性の解消を行っている.geo-stoplistに登録されている地名を候補から排除することで再現率は低下するが,F値で0.77という結果を示している.Cloughは,複数の地名辞書を用いた場所の判別手法を提案している\cite{Clough05}.複数の地名辞書を優先順位を付けて検索し,stop-listを使って,各候補に対してスコアを与えている.このスコアは,地名表現の周辺の出現パターン,オントロジにおける階層の深さ,地名辞書の優先順位,ユーザのプリファレンスによって計算される.Cloughはイギリス,フランス,ドイツ,スイスを対象とした実験で89\%の精度を達成している.Zongらは,ウェブページに対してそのページが記述しているエリアを判別する実験を行った~\cite{Zong05}.アメリカに関する文書のみを対象とし,地名の周辺の出現パターンと地名同士の物理的な距離を利用することで,地名が32個以上199個以下だけ含まれるウェブページを対象に760の地名について実験を行い88.9\%の精度を達成している.これらの関連研究のほとんどは,文書中に出現する地名を対象としており,文脈の情報を用いて地名の場所の判別を行っている.これらは,その地名がどんな文脈で出現し,同時に出現するその他の地名とどんな関連があるのかといった情報を積極的に利用する方法である.これらの手法の大きな特徴として,地名の認識および場所の判別に地名辞書を利用していることが挙げられる.地名を表記するときによく用いられるパターンや会話における局所性等の自然言語処理でよく用いられるヒューリスティクスだけではなく,都市の人口数,実際の二地点間の距離等の地理的な情報を活用しているものもある.このような辞書ベースのアプローチは,特定のドメインを対象とした処理の場合には高い精度で場所の判別を行うことが可能である.このように一般的な自然言語処理のヒューリスティクスが適用可能な情報元を用い,かつ,そのドメインに出現しうる地名が変化するスピードが遅く,辞書や地理的なデータの整備を十分に行える場合には,これらの手法は十分に適用可能である.しかし,全世界のすべての地名を網羅した地名辞書を整備することは現実的でない上に,情報元の多様化のスピードがますます加速している現在では,より頑健性の高い柔軟な手法が必要と考えられる.Rauchらは,知らない地名であっても人間はその所属地域をある程度推測可能であるという事実を背景として,表層的な統計情報をベースとしたシステムが有効であると主張している~\cite{Rauch03aconfidence-based}.本稿は,Rauchらと同じ主張を共有し,具体的な実現手法を提案するものである.
\section{おわりに}
\label{sec:conclusion}文書中に現れる地名の所属エリア推定処理は,未知語処理の観点からも,今後さらに重要になるものと考えられる.地名を対象とした従来のエリア推定では,対象となる地名が辞書に登録されていることを前提とするものが多く,利用する辞書への依存度が高かった.有名無名に関わらずすべての地名を対象としたエリア推定処理の実現のため,本稿では,地名辞書や文脈情報を全く使用せず,地名の表層情報のみを活用して,地名が所属する国を自動的に推定する手法を提案した.本手法は,表層情報としては文字単位の$n$-gram情報や長さの情報を使い,これらの特徴を画一的に扱った表層情報の学習と文字の出現確率を組み合わせることで,所属国の推定を実現するものである.本稿では,10ヶ国を対象とした評価実験で平均95.03\%の再現率,74.08\%の適合率を得,本手法の有効性を確認した.地名はたかだか十数文字程度の文字列であるため,そこから得られる情報は決して多くはないが,本手法では,候補の絞込み処理と候補選択処理とを適切に組み合わせることで,再現率を高く保ったまま適合率をあげることに成功した.同名の地名が複数の国に存在し得る等,地名の所属国には曖昧性があるが,本手法ではこれを考慮し,所属する可能性の高い国を最大3個までに絞り込む.所属国の絞込みができれば,地名辞書等の情報源や文脈情報等を活用して曖昧性の除去を行う従来研究を活用することができるようになる.本稿の手法は地名辞書にも載っていないような小さな場所の地名にも対応できる能力を持ち,高い頑健性をもった手法である.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Berkling\BBA\Barnard}{Berkling\BBA\Barnard}{1994}]{berkling94}Berkling,K.~M.\BBACOMMA\\BBA\Barnard,E.\BBOP1994\BBCP.\newblock\BBOQLanguageIdentificationofSixLanguagesBasedonaCommonSetofBroadPhonemes.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonSpokenLanguageProcessing(ICSLP'94)},\mbox{\BPGS\1891--1894}.\bibitem[\protect\BCAY{Clough}{Clough}{2005}]{Clough05}Clough,P.\BBOP2005\BBCP.\newblock\BBOQExtractingMetadataforSpatially-awareInformationRetrievalontheInternet.\BBCQ\\newblockIn{\BemProceedingsofthe2005ACMWorkshoponGeographicInformationretrieval(GIR'05)},\mbox{\BPGS\25--30}.\bibitem[\protect\BCAY{Dunning}{Dunning}{1994}]{dunning94}Dunning,T.\BBOP1994\BBCP.\newblock\BBOQStatisticalIdentificationofLanguage.\BBCQ\\newblock\BTR\MCCS-94-273,ComputerResearchLaboratoryTechnicalReport.\bibitem[\protect\BCAY{Hauptmann\BBA\Olligschlaeger}{Hauptmann\BBA\Olligschlaeger}{1999}]{Hauptmann99}Hauptmann,A.~G.\BBACOMMA\\BBA\Olligschlaeger,A.~M.\BBOP1999\BBCP.\newblock\BBOQUsingLocationInformationfromSpeechRecognitionofTelevisionNewsBroadcasts.\BBCQ\\newblockIn{\BemProceedingsoftheESCAETRWWorkshoponAccessingInformationinSpokenAudio},\mbox{\BPGS\102--106}.\bibitem[\protect\BCAY{Li,Srihari,Niu,\BBA\Li}{Liet~al.}{2002}]{Li2002}Li,H.,Srihari,R.~K.,Niu,C.,\BBA\Li,W.\BBOP2002\BBCP.\newblock\BBOQLocationNormalizationforInformationExtraction.\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Lins\BBA\Goncalves}{Lins\BBA\Goncalves}{2004}]{Lins04}Lins,R.~D.\BBACOMMA\\BBA\Goncalves,P.\BBOP2004\BBCP.\newblock\BBOQAutomaticLanguageIdentificationofWrittenTexts.\BBCQ\\newblockIn{\BemProceedingsofthe2004ACMSymposiumonAppliedComputing(SAC'04)},\mbox{\BPGS\1128--1133}.\bibitem[\protect\BCAY{Martins\BBA\Silva}{Martins\BBA\Silva}{2005}]{Martins05}Martins,B.\BBACOMMA\\BBA\Silva,M.~J.\BBOP2005\BBCP.\newblock\BBOQLanguageIdentificationinWebPages.\BBCQ\\newblockIn{\BemProceedingsofthe2005ACMSymposiumonAppliedComputing(SAC'05)},\mbox{\BPGS\764--768}.\bibitem[\protect\BCAY{Matrouf,Adda-Decker,Lamel,\BBA\Gauvain}{Matroufet~al.}{1998}]{matrouf98}Matrouf,D.,Adda-Decker,M.,Lamel,L.~F.,\BBA\Gauvain,J.~L.\BBOP1998\BBCP.\newblock\BBOQLanguageIdentificationIncorporatingLexicalInformation.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonSpokenLanguageProcesssing(ICSLP'98)},\mbox{\BPGS\181--184}.\bibitem[\protect\BCAY{Nobesawa\BBA\Tahara}{Nobesawa\BBA\Tahara}{2005}]{nobesawa0512paclic}Nobesawa,S.\BBACOMMA\\BBA\Tahara,I.\BBOP2005\BBCP.\newblock\BBOQLanguageIdentificationforPersonNamesBasedonStatisticalInformation.\BBCQ\\newblockIn{\BemProceedingsofthe19thPacificAsiaConferenceonLanguage,InformationandComputation(PACLIC19)},\mbox{\BPGS\289--296}.\bibitem[\protect\BCAY{Nobesawa\BBA\Tahara}{Nobesawa\BBA\Tahara}{2006}]{nobesawa0605ieee}Nobesawa,S.\BBACOMMA\\BBA\Tahara,I.\BBOP2006\BBCP.\newblock\BBOQAreaIdentificationof{E}nglishPersonNamesBasedonStatisticalInformation.\BBCQ\\newblockIn{\BemProceedingsofthe19thIEEECanadianConferenceonElectricalandComputerEngineering(CCECE2006)},\mbox{\BPGS\1688--1691}.\bibitem[\protect\BCAY{Olligschlaeger\BBA\Hauptmann}{Olligschlaeger\BBA\Hauptmann}{1999}]{Olligschlaeger99}Olligschlaeger,A.~M.\BBACOMMA\\BBA\Hauptmann,A.~G.\BBOP1999\BBCP.\newblock\BBOQMultimodalInformationSystemsandGIS:theInformediaDigitalVideoLibrary.\BBCQ\\newblockIn{\BemProceedingsofthe1999ESRIUserConference},\mbox{\BPGS\102--106}.\bibitem[\protect\BCAY{Pouliquen,Kimler,Steinberger,Ignat,Oellinger,Blackler,Fuart,Zaghouani,Widiger,Forslund,\BBA\Best}{Pouliquenet~al.}{2006}]{Pouliquen06}Pouliquen,B.,Kimler,M.,Steinberger,R.,Ignat,C.,Oellinger,T.,Blackler,K.,Fuart,F.,Zaghouani,W.,Widiger,A.,Forslund,A.-C.,\BBA\Best,C.\BBOP2006\BBCP.\newblock\BBOQGeocodingMultilingualTexts:Recognition,DisambiguationandVisualisation.\BBCQ\\newblock{\Bem{CoRR}},{\Bbfabs/cs/0609065},\mbox{\BPGS\53--58}.\bibitem[\protect\BCAY{Rauch,Bukatin,\BBA\Baker}{Rauchet~al.}{2003}]{Rauch03aconfidence-based}Rauch,E.,Bukatin,M.,\BBA\Baker,K.\BBOP2003\BBCP.\newblock\BBOQAConfidence-basedFrameworkforDisambiguatingGeographicTerms.\BBCQ\\newblockIn{\BemProceedingsoftheHLT-NAACL2003WorkshoponAnalysisofGeographicReferences},\mbox{\BPGS\50--54}.\bibitem[\protect\BCAY{Sano,Nobesawa,Okamoto,Susuki,Matsubara,\BBA\Saito}{Sanoet~al.}{2009}]{tomohisa09ieice}Sano,T.,Nobesawa,S.~H.,Okamoto,H.,Susuki,H.,Matsubara,M.,\BBA\Saito,H.\BBOP2009\BBCP.\newblock\BBOQ{RobustToponymResolutionBasedonSurfaceStatistics}.\BBCQ\\newblock{\Bem{IEICETransactionsonInformationandSystems}},{\BbfE92-D}(12).\newblockToappear.\bibitem[\protect\BCAY{Sano,Nobesawa,\BBA\Saito}{Sanoet~al.}{2007}]{tomohisa07snlp}Sano,T.,Nobesawa,S.~H.,\BBA\Saito,H.\BBOP2007\BBCP.\newblock\BBOQAutomaticCountryIdentificationofAreaNamesBasedonSurfaceFeatures.\BBCQ\\newblockIn{\BemProceedingsofthe7thInternationalSymposiumonNaturalLanguageProcessing(SNLP2007)},\mbox{\BPGS\13--18}.\bibitem[\protect\BCAY{Sibun\BBA\Spitz}{Sibun\BBA\Spitz}{1994}]{Sibun94}Sibun,P.\BBACOMMA\\BBA\Spitz,A.~L.\BBOP1994\BBCP.\newblock\BBOQLanguageDetermination:NaturalLanguageProcessingfromScannedDocumentImages.\BBCQ\\newblockIn{\BemProceedingsofthe4thConferenceonAppliedNaturalLanguageProcessing},\mbox{\BPGS\15--21}.\bibitem[\protect\BCAY{Smith\BBA\Crane}{Smith\BBA\Crane}{2001}]{Smith2001}Smith,D.~A.\BBACOMMA\\BBA\Crane,G.\BBOP2001\BBCP.\newblock\BBOQDisambiguatingGeographicNamesinaHistoricalDigitalLibrary.\BBCQ\\newblockIn{\BemProceedingsofthe5thEuropeanConferenceonResearchandAdvancedTechnologyforDigitalLibraries(ECDL'01)},\mbox{\BPGS\127--136}.\bibitem[\protect\BCAY{Zong,Wu,Sun,Lim,\BBA\Goh}{Zonget~al.}{2005}]{Zong05}Zong,W.,Wu,D.,Sun,A.,Lim,E.-P.,\BBA\Goh,D.H.-L.\BBOP2005\BBCP.\newblock\BBOQOnAssigningPlaceNamestoGeographyRelatedWebPages.\BBCQ\\newblockIn{\BemProceedingsofthe5thACM/IEEE-CSJointConferenceonDigitalLibraries(JCDL'05)},\mbox{\BPGS\354--362}.\end{thebibliography}\clearpage\begin{biography}\bioauthor{佐野智久}{1997年慶應義塾大学大学院前期博士課程計算機科学専攻修了.現在,同大学院後期博士課程開放環境科学専攻在学中.自然言語処理に関する研究に従事.}\bioauthor{延澤志保}{2002年慶應義塾大学大学院後期博士課程計算機科学専攻修了.博士(工学).同年東京理科大学理工学部助手.現在,東京都市大学(旧武蔵工業大学)知識工学部講師.自然言語処理に関する研究に従事.言語処理学会,情報処理学会,電子情報通信学会,計量国語学会各会員.}\bioauthor{岡本紘幸}{2003年慶應義塾大学大学院開放環境科学専攻前期博士課程修了.現在,岡本工業株式会社に勤務.自然言語処理,画像処理,音楽情報処理などに興味を持つ.情報処理学会,言語処理学会各会員.}\bioauthor{鈴木宏哉}{2005年慶應義塾大学大学院前期博士課程開放環境科学専攻修了.現在,同大学院理工学研究科後期博士課程在学中.自然言語処理に関する研究に従事.情報処理学会,言語処理学会各会員.}\bioauthor{松原正樹}{2006年慶應義塾大学大学院前期博士課程開放環境科学専攻修了.現在,同大学院理工学研究科後期博士課程在学中.音楽情報処理,認知科学に関する研究に従事.日本音響学会,日本認知科学会各会員.}\bioauthor{斎藤博昭}{慶應義塾大学工学部数理工学科卒業.工学博士.現在,同大理工学部情報工学科准教授.自然言語処理,音楽情報処理などに興味を持つ.言語処理学会,日本音響学会,電子情報通信学会各会員.}\end{biography}\biodate\end{document}
| |
V07N02-05 | \section{はじめに}
\label{sec:intro}本稿では,比喩の一種である換喩を統計的に解釈する方法を述べる.比喩は大別すると,直喩・隠喩的なものと換喩的なものとに分けられる\cite{Ye90}.まず,直喩・隠喩的な比喩とは,喩えるもの(喩詞)と喩えられるもの(被喩詞)との類似性に基づいた比喩である.たとえば,「あの男は狼のようだ」という直喩,あるいは,「あの男は狼だ」という隠喩は,喩詞である「狼」と被喩詞である「あの男」との間の何らかの類似性(獰猛さなど)に基づいている.ここで,直喩と隠喩との違いは,直喩が比喩であることを言語的に明示するのに対して,隠喩はそのようなことを明示しない点にある.一方,換喩的な比喩とは,喩詞と被喩詞との連想関係に基づいた比喩である.たとえば,「漱石を読む」という換喩は,「漱石の小説を読む」というように解釈できる.この場合,喩詞である「漱石」と被喩詞である「(漱石の)小説」との間には,「作者-作品」という連想関係が成立する\cite{yamanashi88}.比喩の処理は,検出と解釈の2段階に分けて考えることができる.まず,比喩の検出とは,与えられた言語表現が比喩であるかどうかを判定する処理である.次に,比喩の解釈とは,与えられた言語表現が比喩であるとして,その比喩の非字義的な表現から字義的な表現を求める処理である.たとえば,比喩の検出の段階では,「漱石を読む」が比喩であり,「小説を読む」が比喩でないことを区別する.また,比喩の解釈の段階では,既に比喩であることが分かっている「漱石を読む」という非字義的な表現から,「漱石の小説を読む」という字義的な表現を導出する.本稿では,直喩・隠喩的なものと換喩的なものとに大別できる比喩のうちで,換喩を対象とする.また,換喩の検出と解釈のうちでは,換喩の解釈を対象とする.なお,本稿の対象をこのようにした理由は,まず,第1に,直喩や隠喩や換喩などは,上述のように,一応区別できるものであるので,それらを別々のものとして,そのうちの一つを研究対象とすることは可能であるからである.次に,換喩の解釈を対象とする理由は,換喩の解釈は換喩のみを考慮すれば実現可能なのに対して,換喩の検出は直喩や隠喩なども考慮しなければ実現不可能なためである.すなわち,換喩を検出するには,まず,比喩を検出し,その後でその比喩が換喩かどうかを検出しなければならないので,換喩検出を直喩や隠喩と別々に研究することは困難であるのに対して,換喩の解釈の場合には,既に換喩が与えられたものとすれば,他の比喩のことは考慮せずに独立に研究できるためである.本稿では,換喩のなかでも,「$名詞A$,$格助詞R$,$述語V$」というタイプの換喩を対象とする.そして,以下の方針に基づいて,換喩を解釈する.\begin{enumerate}\item「$A$,$R$,$V$」というタイプの換喩が与えられたとき,与えられた喩詞$A$から連想される名詞群を求めるためにコーパスを利用する(\ref{sec:corpus}章).\item連想された名詞群のなかから,与えられた視点($R$,$V$)に適合するような名詞を被喩詞として統計的に選択する(\ref{sec:measure}章).\end{enumerate}たとえば,「一升瓶を飲む」という換喩が与えられたとすると,喩詞である「一升瓶」から連想される名詞として「酒,栓,...」をコーパスから求め,その中から「を飲む」という視点に適合する「酒」を被喩詞として選択する.一方,「一升瓶を開ける」という換喩に対しては,「一升瓶」から連想される名詞群は同じであるが,被喩詞としては「栓」を選択する.上述の(1)と(2)は本稿の手法を特徴付けるものである.そして,これらは\cite{yamamoto98}の方法を発展させたものと考えることができる.まず,(1)については,これまでの換喩の研究としては,連想される(名詞とは限らない)単語群を求めるために,意味ネットワークや規則などを利用したものがある\cite{iverson92:_metal,bouaud96:_proces_meton,fass88:_meton_metap}が,そのような知識は人手で構築するのが困難であるという欠点がある.それに対して,コーパスを利用すれば,意味ネットワークのような知識を人手で構築する必要はない.そのため,コーパスを利用すれば,相当多くの換喩を解析できる可能性がある.すなわち,コーパスに基づく手法の方が,意味ネットワークなどに基づく手法よりも,広い範囲の換喩を解析できる可能性が高い.なお,\cite{yamamoto98}は,名詞$A$から連想される名詞の候補として,「名詞$A$の名詞$B$」における$B$と,「名詞$A$名詞$B$」における$B$を用いていたが,本稿では,(i)「名詞$A$の名詞$B$」における$B$と,(ii)名詞$A$と同一文中に出現した名詞$B$とを連想される名詞の候補に用いる\footnote{(i)における名詞の候補は(ii)における候補に包含されるが,\ref{sec:measure}章で述べる統計的尺度の計算において別扱いを受ける.}.(ii)を用いることにより,\cite{yamamoto98}の方法ではカバーできない名詞を連想の候補として利用できることが期待できる.次に,(2)については,換喩の解釈を絞り込むための情報源として換喩の視点($R$,$V$)を利用していると考えられる.このような絞り込みは,従来の研究では,意味ネットワークや規則により実現されてきたが,本稿では,コーパスにおける統計情報を利用して実現する.なお,\cite{yamamoto98}は,換喩の解釈を絞り込むために,与えられた述語の格フレーム($R$,$V$)に適合する名詞のうちで喩詞$A$との共起頻度が最大のものを被喩詞として選ぶという方法を用いている.しかし,全ての述語について格フレームが利用できるとは限らないので,本稿では格フレームを利用せず,統計的手法に基づいて被喩詞を選択する手法を提案する.なお,格フレームが利用できる場合には,その格フレームに適合する名詞のみを候補として,本稿で提案する手法を適応すれば良いので,本稿で提案する手法と共に格フレームを利用することは容易である\footnote{\cite{yamamoto98}では,本稿と同様に,換喩の解釈のみを対象にしているが,入力される換喩としては,「名詞$A_1$,格助詞$R_1$,名詞$A_2$,格助詞$R_2$,$\ldots$,名詞$A_n$,格助詞$R_n$,述語$V$」を想定している.そして,その入力に含まれる名詞のなかで述語$V$の格の選択制限に合致しないものを喩詞と特定し,その喩詞の被喩詞を求めている.たとえば,「私が漱石を読む」という換喩の場合には,「漱石」が「読む」の選択制限を満たさないことを特定し,「漱石」の被喩詞として「小説」を求めている.一方,本稿では,喩詞が特定済みの入力を想定している.つまり,入力としては,「漱石を読む」のようなものを想定している.この点では,\cite{yamamoto98}の方法の方が優れている.このような喩詞の特定は今後の課題である.ただし,本稿の方法に加えて,格フレームを利用できれば,\cite{yamamoto98}と同様の方法を使うことにより,喩詞を特定できる.}.以下,\ref{sec:sort}章では,換喩の種類と本稿の対象とする換喩について述べ,\ref{sec:corpus}章では,喩詞に関連する名詞群をコーパスから求めるときに使う共起関係について述べ,\ref{sec:measure}章では,被喩詞らしさの統計的尺度について述べる.そして,\ref{sec:experiments}章において,提案尺度の有効性を実験により調べ,\ref{sec:discussion}章で,その結果を考察する.\ref{sec:conclusion}章は結論である.なお,付録の表\ref{tab:1}から表\ref{tab:5}には,提案尺度に基づいて換喩を解釈した結果がある.
\section{換喩の種類と対象とする換喩}
\label{sec:sort}換喩の種類を区別するものとして,構文的区別,意味的区別,文脈的区別を考える.そして,それぞれの場合において,本稿で対象としている換喩の特徴を述べる.\subsection{構文的区別}\label{sec:syntax}構文的な区別とは,換喩の表現形式による区別のことである.まず,1項だけで,たとえば,名詞だけで,換喩となる場合が考えられる.この例\footnote{本稿における換喩の例は\cite{yamanashi88}または\cite{yamamoto98}からの引用もしくは著者らの作例である.}としては,「コニャック」という地名が「コニャック産のブランデー」という産物を表すというものがある.ただし,この例のように,名詞1語だけで換喩という場合は,語源を考えれば換喩ということであり,現在の用法としては,換喩というよりは,語義の多義性であると言えるであろう.次に,2項関係により換喩の解釈が決まるものがある.これは,たとえば,「名詞$A$,格助詞$R$,述語$V$」という形\footnote{格助詞は項数に含めない.}で,かつ,$A$が換喩かどうかが$R$と$V$のみに依存するものである.そのような例としては「漱石を読む」がある.この例は,「漱石の小説を読む」と解釈できるが,そのように解釈できる理由は,「漱石」は人であり,「人を読む」ことはできないので,その他の解釈として,蓋然性が高い,「漱石の小説を読む」が選択されると考えられる.3項関係としては,「名詞$A_1$,格助詞$R_1$,名詞$A_2$,格助詞$R_2$,述語$V$」のようなものが考えられる.この形の換喩の場合には,$A_1$が換喩かどうかは,$R_1$と$V$だけでなく,$A_2$と$R_2$にも依存する.このような例としては,「(観光ブームで)祇園に笑顔が戻った」のようなものがある.この例では「$A_1=祇園$,$R_1=に$,$A_2=笑顔$,$R_2=が$,$V=戻った$」であり,その解釈は,「祇園の人々に笑顔が戻った」というものである.この場合には,$A_1$の「祇園」が喩詞であり,その被喩詞は「(祇園の)人々」である.ここで,この喩詞と被喩詞との関係は,$A_2$の「笑顔」がなければ成立しないものである.これは,たとえば,「祇園に太郎が戻った」という文では,「祇園という場所に太郎が戻った」という字義通りの解釈となることから分かる.項数の他の構文的区別としては,換喩において,喩詞がどのような表現形式をしているかがある.上記では,喩詞の表現としては名詞しか考えていなかったが,その他に,「唇を噛むこと」が「くやしさ」を喩えていたり,「バンドの穴が一つ縮むこと」が「やせたこと」を喩えている場合がある.このように,換喩において,喩詞の表現形式は名詞とは限らない.上記のように,構文的な区別としては様々なものが考えられるが,本稿で対象とするものは,「$A$,$R$,$V$」という単純なものである.\subsection{意味的区別}意味的な区別とは,喩詞と被喩詞との意味的な関係による換喩の区別のことである.このような関係としては,表\ref{tab:metonymies}に示すように,「作者-作品」「主体-手段」「容器-中味」「主体-付属物」のようなものがある\cite{yamanashi88}.\begin{table}[htbp]\begin{center}\caption{換喩における意味的な関係の例}\begin{tabular}{|c|c|c|}\hline意味的関係&換喩の例&解釈\\\hline作者-作品&漱石を読む&漱石の小説を読む\\主体-手段&クラリネットを笑う&クラリネットの奏者を笑う\\容器-中味&鍋を食べる&鍋の料理を食べる\\主体-付属物&詰め襟が歩く&詰め襟の学生が歩く\\主体-近接物&ハムサンドが勘定を払う&ハムサンドの客が勘定を払う\\\hline\end{tabular}\label{tab:metonymies}\end{center}\end{table}本稿での換喩の解釈においては,このような意味的な区別はせずに,単に,被喩詞としての名詞を同定することを目標とする.たとえば,「一升瓶を飲む」については,「一升瓶の酒を飲む」のように,「一升瓶」の被喩詞として「酒」を取り出すことを目標とするが,「一升瓶」と「酒」の間にある「容器と中味」という意味的な関係について推定することは解釈には含めない.その理由は,本稿では,換喩の被喩詞となる名詞をコーパス中から求めるのだが,そのコーパスには,「一升瓶の酒」というような事例はあっても,その事例における「一升瓶」と「酒」との間の意味関係については何の情報もないからである.そのため,そのような意味関係を推定するのは今後の課題とする.なお,そのような意味関係の推定のためには,\cite{kurohashi99:_seman_analy_japan_noun_phras}の方法が利用できるであろう.\subsection{文脈的区別}\label{sec:context}ここで述べる文脈的区別とは,ある換喩が発話されたとき,その換喩の解釈を一意に決めるために必要な文脈の程度による区別のことである.まず,解釈を一意に決めるために,特に文脈を必要としない換喩がある.これは,その換喩の解釈に一般的な知識のみを必要とするようなものである.そのような例としては「漱石を読む」がある.この換喩を解釈するために必要な知識は,「漱石の小説」というものが存在するという知識のみであり,かつ,そのような知識は常識的な知識であるので,この換喩を一意に解釈するためには,特に文脈は必要ない.一方,一意に解釈するためには,それが発話された状況までも知らないとならない換喩がある.たとえば,「黒がいい」という換喩の場合,洋服売場においては,「黒のスラックスがいい」という意味かもしれないし,囲碁の対局においては,「黒石を持つ人の情勢がいい」という意味かもしれない.このように換喩の解釈に必要な文脈の程度は様々であるが,本稿が対象とする換喩は,一意に解釈するために文脈が不要な換喩である.
\section{喩詞と関連する名詞群を求めるときに使う共起関係}
\label{sec:corpus}コーパスにおける単語間の共起頻度を利用することにより,互いに意味的に関連がある単語対を抽出できる\cite[など]{church89:_word_assoc_norms_mutual_infor_lexic,brown92:_class_based_model_natur_languag}.このことに基づき,喩詞から連想される名詞群を求めるためにコーパスを利用する.本稿では,特に,「の」による共起関係と「同一文内」における共起関係とに基づいて喩詞と関連する名詞群を求める.ただし,「の」による共起関係とは,係り受け関係にある名詞$A$と$B$とが「$A$の$B$」の形で出現した場合を言う.さらに,$A$と「の」による共起関係にある名詞としては,$A$に「の」を介して後接する名詞のみを利用し,前接する名詞は利用しない.たとえば,「$A$の$B$」と「$X$の$A$」とがあった場合には,$A$と「の」による共起関係にある名詞は$B$のみである.一方,「同一文内」における共起関係では,「の」による共起関係のような非対称性はない.たとえば,上例と同様に,$A$と$B$とが同一文内にあり,$X$と$A$とが同一文内にある場合には,$A$の共起名詞としては,$A$との相対的な出現順序に関わらず$B$と$X$とが抽出される\footnote{「の」による共起関係が非対称であるのに対して,「同一文内」における共起関係が対称である理由は以下の通りである.まず,「の」による共起関係が非対称である理由は,喩詞と被喩詞との間にある連想の非対称性と,「の」による共起関係における出現頻度の非対称性とがよく一致すると考えたからである.たとえば,「漱石を読む」という換喩では,喩詞「漱石」と被喩詞「小説」との間には,「漱石」から「小説」を連想するのであって,「小説」から「漱石」を連想するのではないという非対称性がある.そして,「の」による共起関係についても,出現頻度に関して,このような非対称性がある.たとえば,\ref{sec:experiments}章の実験に用いたコーパスでは,「漱石の小説」の頻度は14であるが,「小説の漱石」の頻度は0である.このことから,喩詞「漱石」から連想される名詞群を求めるときには,「漱石の$B$」における$B$を利用すれば良いと考えられる.我々は,このようなことが一般にも成立すると予想し,喩詞から連想される名詞群を精度良く求めるために,「の」による共起関係を非対称なものとした.一方,「同一文内」における共起関係については,そのような連想の非対称性は顕著ではないと考えた.更に,以下で述べるように,「同一文内」における共起関係は,共起名詞のカバー率を上げることを目的として利用しているため,なるべく多くの共起名詞を拾うためには対称の方が都合が良いため,対称的な共起関係を利用した.}.ここで,被喩詞としての妥当性という観点から,それぞれの共起関係により求められる名詞群を比べると,一般的に言って,「の」による共起関係による名詞群の方が優れている.なぜなら,「の」による共起関係にある名詞は,「同一文内」における共起関係にある名詞と違い,二つの名詞間に係り受け関係という構文的な関係が成立している.つまり,構文的な関係という観点からは,「の」による共起関係にある名詞の方が,「同一文内」における共起関係にある名詞よりも明らかに強い.そのため,意味的な関係についても「の」による共起関係にある名詞の方が強いと考えることができるからである.たとえば,表\ref{tab:metonymies}では,様々な意味的な関係が「の」による共起関係として表現されている.これは,「の」による共起関係が,意味的な関係が強い名詞と起こることを例示している.なお,「の」による共起関係の有用性は,\cite{murata97}でも確認されている.一方,「同一文内」における共起関係にある名詞群は,「の」による共起関係にある名詞群よりも数が多い.実際,「の」による共起関係にある名詞群は,「同一文内」における共起関係にある名詞群の部分集合である.そのため,「の」による共起関係でカバーできないような連想についても「同一文内」における共起名詞によりカバーできる可能性がある.このように,「の」による共起関係と「同一文内」における共起関係とは,互いに,意味的な関連の強さとカバー率において性質が異なる関係であると言える.そのため,これらを区別して喩詞と共起関係にある名詞群を求める.たとえば,付録の表\ref{tab:1}から表\ref{tab:5}には,\ref{sec:experiments}章の実験で使われた換喩について,その喩詞と共起関係にある名詞群を載せてある.ここで,それらの表において,「AのB」とあるのは,喩詞と「の」による共起関係にある名詞群であり,「A近B」とあるのは,喩詞と「同一文内」における共起関係にある名詞群である.なお,それらの名詞群は,喩詞との共起頻度が多いものから最大10個が並べられている.ただし,共起名詞の数が10個以下のものについては,全ての共起名詞が共起頻度の降順に記載されている.なお,各名詞の右下の添字は,その名詞と喩詞との,その共起関係における共起頻度である.これらの表のうちで,表\ref{tab:2}にある,10番の換喩「顔を剃る」を見ると,喩詞「顔」と,「の」による共起関係にある名詞群としては,「表情,部分,前,輪郭,しわ,大きさ,筋肉,色,アップ,形」があるが,「同一文内」による共起関係にある名詞群としては,「日本,人,前,女性,首相,目,自分,男,手,東京」がある.これらを比べたとき,「の」による共起関係にある名詞群の方が,「顔」との意味的な関係が強い(明瞭である)と言える.このことは,その他の換喩の例についても言えると考える.一方,12番の換喩「アデランスが歩く」を見ると,「同一文内」における共起名詞として「かつら,アートネイチャー,東京,新宿,髪,男性,女性,アルシンド,メーカー,大手」があるが,「の」による共起関係にある名詞は存在しない\footnote{この理由の一つは,\ref{sec:material}節でも述べるが,「の」による共起関係が成立するかどうかの判定を厳しくしていることにもある.}.このことは,「同一文内」における共起関係が,連想される名詞のカバー率を上げるために有用であることを示している.これらのことからも分かるように,二つの共起関係は性質が異なるものである.そのため,共起名詞を得るときには,二つの関係を区別しなければならないと言える.
\section{被喩詞らしさの統計的尺度}
\label{sec:measure}本章では,与えられた名詞群から,換喩の被喩詞として適当な名詞を選択するための統計的尺度について述べる.与えられた換喩が「名詞$A$,格助詞$R$,述語$V$」のとき,$A$と関係$Q$にある被喩詞を$B$とすると,「$A$,$R$,$V$」は,「$A$,$Q$,$B$,$R$,$V$」の省略形であると考えることができる\cite{yamamoto98}.たとえば,「漱石を読む」という換喩は,「漱石の小説を読む」という字義的な表現の省略形であると考えることができる.ただし,「$A=漱石$」「$Q=の$」「$B=小説$」「$R=を$」「$V=読む$」である.これらの関係を図\ref{fig:dep}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=depAQBRV.eps}\caption{「$A$,$Q$,$B$,$R$,$V$」における依存構造}\label{fig:dep}\end{center}\end{figure}このことを統計的に表現するために,換喩「$A$,$R$,$V$」に対して,関係$Q$を用いたときの被喩詞$B$の尤もらしさを表す尺度を\begin{equation}\label{eq:L}L_Q(B|A,R,V)\doteq\Pr(B|A,Q,R,V)\end{equation}により定義する.そして,$B$の被喩詞としての尤もらしさを表す尺度を\begin{equation}\label{eq:M}M(B|A,R,V)\doteq\max_QL_Q(B|A,R,V)\end{equation}と定義する.尺度$M$が大きい名詞ほど,被喩詞として尤もらしい.ここで,$\Pr(\cdots)$は,そのような事象が生じる確率である.また,$Q$は,本稿の場合には,「の」による共起関係か,「同一文内」での共起関係であり,$B$は,$A$と関係$Q$にあるような名詞の一つである.(\ref{eq:L})式を計算するために,以下のような変形をする.\begin{eqnarray}\label{eq:L2}\lefteqn{L_Q(B|A,R,V)}\nonumber\\&=&\Pr(B|A,Q,R,V)\nonumber\\&=&\frac{\Pr(A,Q,B,R,V)}{\Pr(A,Q,R,V)}\nonumber\\&=&\frac{\Pr(A,Q,B)\Pr(R,V|A,Q,B)}{\Pr(A,Q)\Pr(R,V|A,Q)}\nonumber\\&\simeq&\frac{\Pr(A,Q,B)\Pr(R,V|B)}{\Pr(A,Q)\Pr(R,V)}\nonumber\\&=&\frac{\Pr(A,Q,B)}{\Pr(A,Q)}\frac{\Pr(B,R,V)}{\Pr(B)}\frac{1}{\Pr(R,V)}.\end{eqnarray}上式において,4行目から5行目への近似は,形態素間の依存構造を根拠としている.すなわち,「$A$,$Q$,$B$,$R$,$V$」には,図\ref{fig:dep}のような依存構造を考えることができることから,$A,Q$と$R,V$との関係は密接でないと考えられる.そのため,$A,Q$と$R,V$とは確率的に独立と近似し,4行目から5行目において,$\Pr(R,V|A,Q,B)\simeq\Pr(R,V|B)$および$\Pr(R,V|A,Q)\simeq\Pr(R,V)$とした.(\ref{eq:L2})式の要素式を以下のように定義する\footnote{本節で後述する頻度の計数法に従うと,(\ref{eq:aqb})式と(\ref{eq:aq2})式については,$\Pr(A,Q)=\sum_B\Pr(A,Q,B)$である.しかし,(\ref{eq:b})式と(\ref{eq:brv})式については,$\Pr(B)\neq\sum_{R,V}\Pr(B,R,V)$である.このように,(\ref{eq:b})式と(\ref{eq:brv})式には確率の観点からは不整合がある.この不整合性を失くすためには,$\Pr(B)$を$\sum_{R,V}\Pr(B,R,V)$と定義すれば良いのだが,それを計算するのはコストが高いため,(\ref{eq:b})式のように定義した.}.\begin{equation}\label{eq:aqb}\Pr(A,Q,B)\doteq\frac{f(A,Q,B)}{N_0}.\end{equation}\begin{equation}\label{eq:aq2}\Pr(A,Q)\doteq\frac{f(A,Q)}{N_1}.\end{equation}\begin{equation}\label{eq:b}\Pr(B)\doteq\frac{f(B)}{N_2}.\end{equation}\begin{equation}\label{eq:brv}\Pr(B,R,V)\doteq\left\{\begin{array}{ll}\frac{f(B,R,V)}{N_3}&\mbox{if}f(B,R,V)>0,\\\frac{\sum_{C\inClasses(B)}\Pr(B|C)f(C,R,V)}{N_3}&\mbox{otherwise}.\end{array}\right.\end{equation}\begin{equation}\label{eq:bc}\Pr(B|C)\doteq\frac{f(B)/|Classes(B)|}{f(C)}.\end{equation}ただし,$f(\cdots)$は当該事象の頻度であり,$N_i(0\lei\le3)$は確率の総和が1となるように定める正規化定数であり,$Classes(B)$は$B$が所属する(たとえばシソーラスにおける)意味的なクラスの集合である.なお,$N_i$は定数であり,さらに,(\ref{eq:L2})式の$\Pr(R,V)$についても,換喩「$A$,$R$,$V$」が与えられているという条件下では定数である.よって,これらの値は,$L_Q(B|A,R,V)$の大小の比較には影響を与えない.そのため,\ref{sec:experiments}章の実験では,簡単のため,$N_i=1$,$\Pr(R,V)=1$として(\ref{eq:L2})式を計算している.(\ref{eq:aqb})式と(\ref{eq:brv})式とを比べると,(\ref{eq:aqb})式では,$f(A,Q,B)$のみを利用しているため,$A$と関係$Q$にないような名詞$B$は,$f(A,Q,B)=0$であるので,無視される.一方,(\ref{eq:brv})式では,$f(B,R,V)=0$であるような名詞$B$についても,$B$の所属するクラスを利用することにより,0より大きい確率を付与する.このようにした理由は,まず,(\ref{eq:aqb})式については,$A$と$B$とは,喩詞と被喩詞という,ある程度強い連想関係にあるはずなので,共起頻度が0であるような名詞は無視しても良いと考えたからである.それに比べて,(\ref{eq:brv})式では,$B$と$V$とは必ずしも強い連想関係にあるとは限らないので,$f(B,R,V)=0$であっても,$B$が被喩詞として不適当とは限らない可能性がある.そのため,$f(B,R,V)=0$のようなものについても,$B$の意味的なクラスを利用することにより,確率を付与することにした.(\ref{eq:bc})式は,意味的クラス$C$が名詞$B$として出現する確率である.これは,もし,名詞$B$に多義性がなく,一つのクラス$C$にしか所属しないとすれば,名詞$B$の頻度$f(B)$を,クラス$C$の頻度$f(C)$で割れば求めることができるが,名詞$B$が多義で複数のクラスに所属する場合には,名詞$B$はそれらのクラスに等確率で所属するものとして,$f(B)$を$|Classes(B)|$で割った頻度を$f(C)$で割ったものを$\Pr(B|C)$とする.なお,各事象の頻度は以下のようにして求めた.まず,(\ref{eq:aqb})式における$f(A,Q,B)$の計数法は,詳しくは\ref{sec:material}節で述べるが,基本的には,コーパス中における,そのような事象を直接計数する.たとえば,Qが「の」による共起関係の場合は,たとえば,「漱石,の,小説」のような共起を計数するし,「同一文内」による共起関係の場合は,たとえば,「漱石」と「小説」が同一文内で共起した回数を数える.一方,(\ref{eq:aq2})式における$f(A,Q)$の場合は,$f(A,Q)\doteq\sum_Bf(A,Q,B)$と定義する.つまり,$f(A,Q)$は,$A$と関係$Q$により共起した名詞$B$について,$f(A,Q,B)$を足し合わせた値である.更に,(\ref{eq:b})式の$f(B)$の場合には,単に,コーパス中における$B$の出現頻度を数える.また,(\ref{eq:brv})式の$f(B,R,V)$については,詳しくは\ref{sec:material}節で述べるが,基本的には,コーパス中における「$B$,$R$,$V$」という形態素列の個数を数える.以上をまとめると,$f(A,Q,B)$,$f(B)$,$f(B,R,V)$は,コーパス中における事象を計数し,$f(A,Q)$については,$f(A,Q)=\sum_Bf(A,Q,B)$と定義する,ということである.また,各クラスの頻度$f(C)$は,そのクラスに属する名詞$B$の頻度により,次のようにして求めた.\begin{displaymath}f(C)=\sum_{B\inC}\frac{f(B)}{|Classes(B)|}.\end{displaymath}ここで,$f(B)$を$|Classes(B)|$で割っているのは,(\ref{eq:bc})式の説明で述べたように,$B$が複数の意味的クラスに属する場合に,$f(B)$を各クラスに等分割するためである.また,$f(C,R,V)$も同様にして求めた.すなわち,\begin{displaymath}f(C,R,V)=\sum_{B\inC}\frac{f(B,R,V)}{|Classes(B)|}.\end{displaymath}以上,(\ref{eq:aqb})式から(\ref{eq:bc})式までを利用することにより,(\ref{eq:L2})式を計算し,(\ref{eq:M})式により,名詞の被喩詞らしさを求める.これらの式の適用例として,たとえば,「森鴎外を読む」という換喩における被喩詞の候補として,「小説」と「戯曲」があるとする.ここで,「$A=森鴎外$」「$R=を$」「$V=読む$」である.また,$Q$は,「の」による共起関係か,「同一文内」での共起関係であり,$B$は「小説」か「戯曲」である.このとき,それぞれの頻度を,$f(A,Q,B)$などで分類して表示すると以下の通りである.\paragraph{$f(A,Q,B)$}\begin{eqnarray}f(森鴎外,の,小説)&=&4,\nonumber\\f(森鴎外,の,戯曲)&=&2,\nonumber\\f(森鴎外,同一文内,小説)&=&10,\nonumber\\f(森鴎外,同一文内,戯曲)&=&2,\nonumber\end{eqnarray}\paragraph{$f(A,Q)$}\begin{eqnarray}f(森鴎外,の)&=&18,\nonumber\\f(森鴎外,同一文内)&=&1311,\nonumber\end{eqnarray}\paragraph{$f(B,R,V)$}\begin{eqnarray}f(小説,を,読む)&=&88,\nonumber\\f(戯曲,を,読む)&=&4,\nonumber\end{eqnarray}\paragraph{$f(B)$}\begin{eqnarray}f(小説)&=&7545,\nonumber\\f(戯曲)&=&781.\nonumber\end{eqnarray}ただし,これらの頻度は,\ref{sec:experiments}章の実験で用いられたコーパスにおいて,\ref{sec:material}節の方法により頻度を集計した結果である.次に,$L$の大小比較に関係のない$N_0,N_1,N_2,N_3,\Pr(R,V)$を1として,$L$を計算すると,(\ref{eq:L2})式は,$f(B,R,V)>0$のときには,\begin{equation}L_Q(B|A,R,V)=\frac{f(A,Q,B)}{f(A,Q)}\frac{f(B,R,V)}{f(B)}.\end{equation}のように簡単化できるので,\begin{eqnarray}\label{eq:Ls}L_{の}(小説|森鴎外,を,読む)&=&\frac{f(森鴎外,の,小説)}{f(森鴎外,の)}\frac{f(小説,を,読む)}{f(小説)}\nonumber\\&=&\frac{4}{18}\frac{88}{7545}=2.59\times10^{-3},\nonumber\\L_{同一文内}(小説|森鴎外,を,読む)&=&\frac{f(森鴎外,同一文内,小説)}{f(森鴎外,同一文内)}\frac{f(小説,を,読む)}{f(小説)}\nonumber\\&=&\frac{10}{1311}\frac{88}{7545}=8.90\times10^{-5},\nonumber\\L_{の}(戯曲|森鴎外,を,読む)&=&\frac{f(森鴎外,の,戯曲)}{f(森鴎外,の)}\frac{f(戯曲,を,読む)}{f(戯曲)}\nonumber\\&=&\frac{2}{18}\frac{4}{781}=5.69\times10^{-4},\nonumber\\L_{同一文内}(戯曲|森鴎外,を,読む)&=&\frac{f(森鴎外,同一文内,戯曲)}{f(森鴎外,同一文内)}\frac{f(戯曲,を,読む)}{f(戯曲)}\nonumber\\&=&\frac{2}{1311}\frac{4}{781}=7.81\times10^{-6}.\nonumber\end{eqnarray}これより,\begin{eqnarray}\label{eq:Ms}\lefteqn{M(小説|森鴎外,を,読む)}\nonumber\\&=&\max\{L_{の}(小説|森鴎外,を,読む),L_{同一文内}(小説|森鴎外,を,読む)\}\nonumber\\&=&2.59\times10^{-3},\nonumber\\\lefteqn{M(戯曲|森鴎外,を,読む)}\nonumber\\&=&\max\{L_{の}(戯曲|森鴎外,を,読む),L_{同一文内}(戯曲|森鴎外,を,読む)\}\nonumber\\&=&5.69\times10^{-4}\nonumber\end{eqnarray}となり,「森鴎外を読む」の被喩詞としては,「小説」の方が「戯曲」よりも適当となる.この結果は妥当であると考える.なぜなら,森鴎外は,確かに戯曲も書いているが,それよりも,「舞姫」「青年」「高瀬舟」などの小説で有名であるからである.
\section{実験}
\label{sec:experiments}実験材料,実験方法,実験結果について順に述べる.\subsection{実験材料}\label{sec:material}\paragraph{換喩}実験に用いた換喩は,\cite{yamanashi88}において例文として採用されているものを,「名詞$A$,格助詞$R$,述語$V$」の形に適合するように変形した33例\footnote{実験に用いたのは,\ref{sec:syntax}節で述べたように,2項関係により換喩の解釈が決まる例文のうちで,喩詞が名詞であるようなものである.}に,著者らによる作例1例\footnote{著者らの作例は,換喩解釈における視点の役割を例示するために加えた.}を加えた34例である\footnote{\cite{yamamoto98}は35例で実験をしているが,それらにおける異なり述語数は18であるので,実質上は似たタイプの換喩における実験であると言える.それに対して本稿の実験では,述語の異なり数が31であるので,取扱う換喩のタイプ数としては,本稿の実験の方が多いと言える.また,\cite{yamamoto98}は\cite{yamanashi88}から換喩の例文を選んでいるのだが,\cite{yamanashi88}にある全ての換喩を選んでいるわけではない.それに対して,本稿では,\cite{yamanashi88}において,完全な文として成立するような例40例の中から,\ref{sec:syntax}節の規準に合致する32例(32/40=0.80.ここで32例のうち1例は二つの換喩を含んでいたので,それを2例に分け,最終的に33例の換喩を得た)を選んだものであるので,本稿の実験は,換喩のタイプを良く網羅するものであると考える.}.なお,これらの例では,格助詞としては,「が」と「を」しか出現していないが,その他の格助詞についても提案手法は適用できるし,もっと一般に,任意の2項関係についても提案手法は適用できる.\paragraph{コーパス}単語間の共起頻度を計数するためのコーパスとしては,「CD-毎日新聞」の91年度版から97年度版の7年間分を用いた.このコーパスを自動処理により一文単位に分けたあとで,茶筌version2.0b6\cite{matsumoto97}により形態素解析し,共起頻度を計数した.ここで,(\ref{eq:aqb})式における$\Pr(A,Q,B)$を計算するときに必要な,名詞間の共起頻度を求めるとき,「同一文内」における共起関係については,特別な処理をすることなく,単に頻度を計数した.しかし,「の」による共起関係については,名詞間に係り受け関係が高確率で成立するような共起関係を同定することを目的として,「非名詞,名詞$A$,の,名詞$B$,非名詞」という単語列からのみ,$A$と$B$の共起頻度を計数した.なお,ここでの名詞には,茶筌にとっての未知語を含む.また,(\ref{eq:brv})式における$\Pr(B,R,V)$を計算するときに必要な,「名詞,格助詞,述語」の共起頻度を求めるときには,格助詞が「を」の場合には,単に,「名詞,を,述語」という単語列の生起頻度をもって共起頻度としたが,格助詞が「が」の場合には,「が」だけでなく,「は」「も」「の」を間に狭んだ名詞と述語の連続,すなわち,「名詞,は,述語」や「名詞,も,述語」や「名詞,の,述語」についても,「が」による共起関係の頻度とした.たとえば,「僕が行く」「僕は行く」「僕も行く」という例が,それぞれ1例ずつあった場合には,「僕,が,行く」の頻度を3にした.このようにした理由は,「を」については,「を」だけで共起頻度が充分に利用できるが,「が」については,「が」だけでは充分な共起頻度が得られないためである.なお,構文解析の結果に基づいた係り受け情報を利用すれば,「が」についても充分な共起頻度が得られる可能性はあるが,今回は構文解析をしなかったため,上記のような措置により,共起頻度情報を得た.\paragraph{名詞の意味的クラス}(\ref{eq:brv})式を計算するためには,各名詞の意味的なクラスが必要である.そのクラスとしては,分類語彙表増補版\cite{bgh96}における上位3桁の分類番号を用いた.これによるクラスの種類は,全体では,90種であり,名詞に限れば,43種である.なお,本稿では,名詞のクラスのみを用いた.分類語彙表増補版には約85,000語が記載されているが,これに記載されていない名詞については,もし,その名詞の細分類が,茶筌における,「人名」「組織」「地域」「数」のいずれかである場合には,以下の分類番号を割当てた.\begin{quote}\vspace{1em}\begin{tabular}{|l|l|l|}\hline細分類&分類番号&分類語彙表にない名詞例\\\hline人名&1.20,1.21,1.22,1.23,1.24&佐藤,田中,鈴木\\組織&1.26,1.27,1.28&自民党,筑波大,日本相撲協会\\地域&1.25&大阪,神戸,兵庫\\数&1.19&一一〇,一万八千,七十一\\\hline\end{tabular}\vspace{1em}\end{quote}ただし,これらの細分類に該当する名詞については,それに関連する全ての分類番号を割当てた.たとえば,「佐藤」という人名の場合には,「1.20,1.21,1.22,1.23,1.24」の全てを分類番号として割当てた.つまり,「佐藤」は複数の意味的クラスに所属する多義的な名詞ということである.また,品詞細分類が上記四つ以外の名詞については,それが分類語彙表で未登録名詞の場合には,その名詞自体を一つのクラスとした.\vspace{-3mm}\subsection{実験方法と実験結果}\label{sec:results}各換喩について,喩詞と,「の」または「同一文内」での共起関係にある名詞群を得て,それぞれの名詞について,(\ref{eq:M})式の尺度$M$を計算した.その結果を付録の表\ref{tab:1}から表\ref{tab:5}に示す.これらの中で,表\ref{tab:1}と表\ref{tab:2}は正解例であり,表\ref{tab:3},表\ref{tab:4},表\ref{tab:5}は不正解例である.また,解析結果の一部を表\ref{tab:ex}に示す.\begin{table}[htbp]\footnotesize\begin{center}\caption{解析結果の一部}\begin{tabular}{|l|l|}\hline1.&一升瓶を飲む\\被喩詞&$○酒^{近}_{10,1}(2.6\times{}10^{-3})$$ビール^{近}_{6,6}(5.0\times{}10^{-4})$$日本酒^{近}_{7,4}(3.9\times{}10^{-4})$$ぶどう酒^{近}_{1,79}$\\&$ワイン^{近}_{2,26}$$牛乳^{近}_{2,26}$$ジュース^{近}_{2,26}$$ウイスキー^{近}_{2,26}$$地酒^{近}_{1,79}$$薬^{近}_{1,79}$\\AのB&$栓_{1}$$ラベル_{1}$\\A近B&$酒_{10}$$ビール瓶_{10}$$瓶_{10}$$日本酒_{7}$$空_{7}$$ビール_{6}$$手_{6}$$足_{4}$$量_{4}$$程度_{4}$\\\hline21.&押し入れをかきまわす$\rightarrow$押し入れの中味をかきまわす\\被喩詞&$△奥^{の,*}_{17,1}(2.5\times{}10^{-7})$$天袋^{の,*}_{5,2}(2.3\times{}10^{-7})$$天井^{の,*}_{2,4}(9.2\times{}10^{-8})$$戸^{の,*}_{2,4}$\\&$上段^{の,*}_{2,4}$$中段^{の,*}_{2,4}$$金庫^{の,*}_{1,11}$$相手^{近}_{1,393}$$和室^{近,*}_{17,5}$$前^{の,*}_{3,3}$\\AのB&$奥_{17}$$天袋_{5}$$前_{3}$$天井_{2}$$戸_{2}$$中段_{2}$$上段_{2}$$布団_{2}$$整理_{2}$$中身_{2}$\\A近B&$自宅_{25}$$奥_{23}$$調べ_{22}$$遺体_{19}$$和室_{17}$$容疑_{17}$$部屋_{16}$$疑い_{16}$$布団_{14}$$県_{13}$\\\hline27.&ベルイマンを見る\\被喩詞&$×息子^{の}_{1,1}(8.1\times{}10^{-4})$$心情^{の}_{1,1}(4.9\times{}10^{-4})$$○映画^{近}_{10,2}(4.7\times{}10^{-4})$$父^{の}_{1,1}$\\&$脚本^{の}_{1,1}$$作品^{近}_{6,4}$$夢^{近}_{1,26}$$秘蔵っ子^{の,*}_{1,1}$$シーン^{近}_{1,26}$$風景^{近}_{1,26}$\\AのB&$息子_{1}$$心情_{1}$$父_{1}$$脚本_{1}$$秘蔵っ子_{1}$\\A近B&$監督_{19}$$映画_{10}$$イングマール_{8}$$作品_{6}$$スウェーデン_{5}$$脚本_{4}$$息子_{3}$$野_{3}$$アメリカ_{3}$$時代_{3}$\\\hline\end{tabular}\label{tab:ex}\end{center}\end{table}表\ref{tab:ex}に示すように,各解析結果の第1行には,解析対象の換喩が番号と共に記述されている.また,解析対象の換喩の横には「$\rightarrow$」で示された換喩の解釈がある.ただし,この解釈は,第2行で示される「被喩詞」のなかに,\cite{yamanashi88}で想定されている正解がない場合にのみ記述されている.次に,「被喩詞」の行には,喩詞とのコーパス中での共起名詞が,(\ref{eq:M})式の尺度$M$について,その降順に上位から最大10個並んでいる.ここで,第1番目の名詞については,○/△/×が付与されているが,これらの意味は,○は当該の名詞が\cite{yamanashi88}で想定されている正解に合致する例であり,△は\cite{yamanashi88}では想定されていないが意味的には成立可能な例\footnote{△を付けられた例の許容度は様々である.特に,表\ref{tab:4}の26番,表\ref{tab:5}の33,34番の例は×に近いとも言える.}であり,×は完全な間違い例である.さらに,第1番目の名詞が△か×の場合には,それ以降に最初に現れた名詞で被喩詞として適当なものに○か△を付けている.なお,○/△/×の判断は著者らによる.また,各名詞は,\begin{displaymath}名詞^{共起関係,*}_{頻度,順位}(尺度Mの値)\end{displaymath}のように表現されている.ただし,$*$や尺度$M$の値は特別の場合(後述)にしか表示しない.ここで,まず,「共起関係」とは,(\ref{eq:M})式の尺度$M$を計算した際に選ばれた共起関係であり,それが「の」の場合には「の」による共起関係であることを示し,「近」の場合には「同一文内」における共起関係であることを示す.また,「頻度」とは,その共起関係における喩詞との共起頻度であり,「順位」とは,その共起関係における,その共起頻度の名詞の順位である.なお,同頻度の名詞は同順位である.たとえば,「$名詞_1$,$名詞_2$,$名詞_3$,$名詞_4$,$名詞_5$,$名詞_6$」の頻度が,それぞれ,「7,5,5,3,3,1」であるとすると,それぞれの順位は,「1,2,2,4,4,6」である.また,名詞の右肩に$*$が付いているものは,その名詞と換喩の述語との共起頻度が0であったため,(\ref{eq:brv})式において意味的クラスが利用されたことを示す.たとえば,21番の「押し入れをかきまわす」では「奥をかきまわす」などの頻度が0であったことを示す.さらに,上位3位までの名詞と○または△が付いた名詞については,(\ref{eq:M})式の尺度$M$の値を括弧内に示す.最後に,「AのB」の行にある名詞群は,喩詞と「の」による共起関係にある名詞群であり,「A近B」の行にある名詞群は,喩詞と「同一文内」における共起関係にある名詞群である.なお,これらの名詞群は,共起頻度の降順に上位から最大10個並んでいる.また,各名詞の右下の添字は,その名詞のその共起関係における共起頻度である.ただし,共起頻度が同じ名詞群については,それらを尺度$M$の値により降順にソートして表示している.\subsubsection{実験結果の解釈}\paragraph{全体的な精度}(\ref{eq:M})式の尺度$M$の全体的な精度を調べるために,表\ref{tab:1}から表\ref{tab:5}までの被喩詞の第1候補について,○△×を数えた.その結果を表\ref{tab:total}に示す.この表によると,○のみを正解とする厳しい評価では,正解率は$16/34\simeq0.47$であり,○と△を正解とする緩い評価では,正解率は$(16+6)/34\simeq0.65$である.これらの数値は,扱う対象が換喩という従来あまり解析の対象とされていない現象であることを考えると,高い値であると言えると考える.すなわち,提案手法は,換喩の解析に対して有効な手法であると考える.ただし,これらの値は少数例についてのものであるので,定量的に確定的なことを言うためには,更に大規模な実験が必要である.このことは本節で以下で述べることにも同様に言える.なお,実験結果の定性的な解釈については,\ref{sec:discussion}章で考察する.\begin{table}[htbp]\begin{center}\caption{提案尺度の全体的な精度}\begin{tabular}{|c|c|c|c|}\hline○&△&×&計\\\hline16&6&12&34\\\hline\end{tabular}\label{tab:total}\end{center}\end{table}\begin{table}[htbp]\begin{center}\caption{共起関係毎の精度}\begin{tabular}{|c|c|c|c|c|}\hline&○&△&×&計\\\hline「の」による共起関係&14&8&12&34\\「同一文内」における共起関係&12&8&14&34\\\hline\end{tabular}\label{tab:cmp}\end{center}\end{table}\paragraph{二つの共起関係を使った効果}二つの共起関係を使った効果を見るために,「の」による共起関係にある名詞のみを被喩詞の候補とした場合と「同一文内」での共起関係にある名詞のみを被喩詞の候補とした場合とについて,それぞれの共起名詞について尺度$M$を計算し,被喩詞の第1候補を得た.そのときの○△×の数を表\ref{tab:cmp}に示す.まず,表\ref{tab:total}と表\ref{tab:cmp}とを比べると,二つの共起関係を利用した表\ref{tab:total}の結果の方が,それぞれ一つだけの共起関係を利用した表\ref{tab:cmp}の結果のどちらよりも優れていることが分かる.これから,二つの共起関係を同時に用いることが有効であると言える\footnote{\cite{yamamoto98}と同様に「名詞$A$の名詞$B$」における$B$と「名詞$A$名詞$B$」における$B$とを名詞$A$の被喩詞の候補に使った場合には,全体の精度は,○=12,△=10,×=12,であり,「名詞$A$の名詞$B$」における$B$のみを被喩詞の候補とした場合の精度は,表\ref{tab:cmp}における「の」による共起関係の場合と同じであり,「名詞$A$名詞$B$」における$B$のみを被喩詞の候補とした場合の精度は,○=3,△=13,×=18,であった.このことから,「名詞$A$名詞$B$」における$B$を被喩詞の候補とすることは,有効ではないと言える.}.次に,表\ref{tab:cmp}における二つの結果を比べると,「の」による共起関係の精度が若干良いことが分かる.一方,「同一文内」における共起関係のカバー率が高いことは,たとえば,表\ref{tab:1}の1番の換喩「一升瓶を飲む」における「酒」や表\ref{tab:2}の12番の換喩「アデランスが歩く」における「男性」など,「の」による共起関係に出現していないような名詞でも,「同一文内」における共起関係を利用することにより被喩詞として選択できることからわかる.これらのことは,\ref{sec:corpus}章で述べたことを例証している.\vspace{-3mm}\paragraph{意味的クラスの有効性}(\ref{eq:brv})式では,被喩詞と述語との共起頻度のスパース性を考慮して,意味的クラスを導入した.そのことは,ある程度は有効であったと考える.その理由は以下の通りである.まず,表\ref{tab:1}から表\ref{tab:5}までを見ると,尺度$M$の計算において意味的クラスが使用された名詞については,$*$が右肩に付されている.これから,被喩詞の第1候補で,意味的クラスが使用されたものは,5例あり(13,18,19,21,30番の換喩),そのうち,○が1例,△が2例,×が2例である.一方,もし,意味的クラスを使用しない場合\footnote{$\Pr(B,R,V)$の計算に(\ref{eq:brv})式の$\frac{f(B,R,V)}{N_3}$のみを利用し,$f(B,R,V)=0$のときには,$\Pr(B,R,V)=0$とした場合.}には,この5例について,△が3例,×が2例となる.次に,各換喩ごとに,1位から10位までの候補について,○か△の数の大小を,意味的クラスを使用した場合と使用しない場合とで比べる.たとえば,7番の「平安神宮が満開」の場合には,1位から10位までを順に示すと,意味的クラスを使用した場合には「○桜,△ハナショウブ,△花,池,柳,枝,幕,○さくら,△植物,花びら」が候補であり,意味的クラスを使用しない場合には「○桜,△ハナショウブ,△花,幕,今年,春,今,人,日,一つ」が候補である.したがって,意味的クラスを使用した場合の方が○か△の数が多い.このように,各換喩ごとに○か△の数を比較すると,意味的クラスを使用した場合の方が○か△の数が多い換喩は12例であり,意味的クラスを使用しない場合の方が○か△の数が多い換喩は5例である.この結果から,片側検定により符合検定をすると,有意水準2.5\%で,意味的クラスを使用した場合の方が,○か△の数が多い換喩が多いと言える.これより,意味的クラスの使用は有効であると言える.
\section{考察}
\label{sec:discussion}\subsection{連想名詞の供給源としてのコーパスの有用性}コーパスが連想名詞の供給源として有効なことを第\ref{sec:intro}章で述べた.そのことは,付録の表\ref{tab:1}から表\ref{tab:5}までに例証されていると考える.なぜなら,本実験においては,様々な名詞を喩詞として利用したが,それらの大半において妥当な名詞が連想されていることが表\ref{tab:1}から表\ref{tab:5}を見れば分かるからである\footnote{このことを数値的に示すことは難しいが,\ref{sec:results}章の実験における,○と△の数を一応は妥当な連想の数であるとすると,少くとも,$(16+6)/34\simeq0.65$は妥当な連想であると言える}.\subsection{視点を考慮した連想}換喩を解析するためには,喩詞から連想された名詞の中から,換喩の(格助詞と述語という)視点に適合する名詞を(被喩詞として)選択する必要があると第\ref{sec:intro}章で述べた.その規準を,(\ref{eq:M})式の尺度$M$は満たすと言える.そのことを端的に示す例が,1番と2番の換喩の対,および,3番と4番の換喩の対である.まず,1番の「一升瓶を飲む」という換喩と2番の「一升瓶を開ける」という換喩を見ると,同じ喩詞であっても,異なる被喩詞として「酒」と「栓」が選ばれている.次に,3番の換喩「鍋が煮える」と4番の換喩「鍋を食べる」を見ると,それぞれ,「出汁」と「料理」が選択されている.また,その他の例についても,被喩詞の候補として選択されているのは,格助詞を介して述語に継がるような例がほとんどなので,尺度$M$は,換喩の視点に適合する名詞を被喩詞として選択していると言える.\subsection{不正解例の分析}\label{sec:analysis}不正解となった原因について分析し,それらの誤りを改善する可能性について述べる.\subsubsection{頻度が少ないことによる不正解例}表\ref{tab:3}には,頻度が少ないことによる不正解例を載せてある.まず,喩詞の頻度が少ない場合として,17番の「藁草履が来る」がある.これは,喩詞である「藁草履」がコーパス中で1回も出現しなかったため解析に失敗した例である.このように喩詞自体の頻度が少ないような例は本手法では解析できない.このような単語を含む換喩を解析するためには,より大規模なコーパスが必要であろう.ただし,「藁草履」の場合には,「藁草履」の頻度は0であるが,「わら草履」の頻度は0ではない.そのため,このような表記のゆれを吸収することができれば,比較的頻度が少ない被喩詞を含む換喩についても解析できる可能性がある.あるいは,「藁草履」でなく「草履」を喩詞とみなして換喩の解析をすることも考えられるが,これらを試みるのは今後の課題である.次に,喩詞と被喩詞との共起頻度が少ない例として,18,19,20番の換喩がある.たとえば,19番の「傘が行く」は「傘をさした人が行く」などと解釈できるが,「傘」と「人」などとの共起頻度は,「傘」と「先」とか「下」とか「柄」とかとの共起頻度と比べれば少ない\footnote{より正確に言えば,(\ref{eq:L2})式における$\frac{\Pr(A,Q,B)}{\Pr(A,Q)}$が小さい.}.そのため,被喩詞として優先されない.このような例を提案手法で解析することはできない.ただし,18,19,20番の換喩に限っていえば,被喩詞が全て「人」であると特徴付けることができる.このことは,「人」の場合には,たとえ,喩詞との関連性が低くても被喩詞となりうることを示していると解釈できる.もし,この解釈が正しければ,「人」に類するものが被喩詞の候補としてある場合には,それを優先するようにすれば,これらの換喩を解釈できる可能性がある.ただし,このことを検証するのは今後の課題である.最後に,被喩詞と述語との共起頻度が少ない例として,21,22,23,24番がある.たとえば,23番の「川が氾濫」は「川の水が氾濫」と解釈できるが,「水」と「氾濫」の共起頻度は,「水路」や「河川」や「ダム」と「氾濫」との共起頻度よりも小さい\footnote{より正確に言えば,(\ref{eq:L2})式における$\frac{\Pr(B,R,V)}{\Pr(B)}$が小さい.}.そのため被喩詞として優先されない.このような例も提案手法で解析することはできない.ただし,21,22,23,24番の換喩に限れば,述語が場所を対象格として取りうると特徴付けることができる.そして,これらについては,換喩として与えられた入力が,現在ではそのまま字義的な表現として通用すると言える.すなわち,これらの換喩は語源的には換喩であっても,現在の用法としては既に換喩ではなく,慣用的に場所を対象格に取り得るといえる.そのため,これらは換喩として解析する必要はないと考える.ただし,与えられた入力を換喩として解釈すべきかどうか決めるためには,その入力が換喩かどうかを検出する必要がある.\subsubsection{解析に文脈が必要な例}表\ref{tab:4}にある25,26,27番の換喩は,述語の対象格が漠然としているため,被喩詞を決めることができない例である.このような例を解析するためには,\ref{sec:context}節で述べたように,換喩が発話された文脈を考慮する必要がある.\subsubsection{その他の原因による不正解例}表\ref{tab:5}には,その他の原因による不正解例を載せる.まず,28,29,30番は,被喩詞の一般化が足りない例である.たとえば,29番の「大阪がげんなり」は「大阪の人々がげんなり」と解釈できるが,被喩詞の候補としては「委員,弁護士,業者,...」となっている.これらの候補はいずれも「人」または「人々」の下位語であるので,これらの候補を適切に一般化できれば,この換喩を解釈できる可能性がある.それと同様なことが28,30番にも言える.次に,31,32番は,「名詞,が,述語」という共起関係を求めるために,\ref{sec:material}節で述べたように,「名詞,は,述語」などの共起関係も利用したために生じた間違いである.つまり,31番の場合には「ドラマは興奮」という共起関係を利用し,32番の場合には「今日は行く」という共起関係を利用したための間違いである.このようなことを回避するためには,名詞と述語の,「が」や「は」を介した共起頻度をとるときには,その名詞が主格となっている場合についてのみ共起頻度を取らなければならない.そうするためには,構文解析を利用して共起頻度を求める必要があるであろう.なお,現在の方法により共起頻度を求めた場合には,「が」のみを利用した場合の解析結果が,その他のものも利用した場合と比べて良くないことは予備実験で確かめてある.最後に,33,34番は,換喩を解釈した結果が依然として換喩的な意味を持っている場合である.たとえば,33番の「理論が主張」の解析結果は「党が(理論を)主張」であるが,「党」の背後には,更に「人」が暗黙の内にいると考えられる.このような例を解釈するためには,解析結果が換喩的意味を持つかどうかを調べ,もしそれが換喩的意味を持つならば,それをもう一度解釈する必要がある
\section{おわりに}
\label{sec:conclusion}本稿では,比喩の一種である換喩を統計的に解釈する方法について述べた.そして,換喩のなかでも,「$名詞A$,$格助詞R$,$述語V$」というタイプの換喩を対象とし,以下の方針に基づいて,換喩を解析することを試みた.\begin{enumerate}\item「$A$,$R$,$V$」というタイプの換喩が与えられたとき,与えられた喩詞$A$から連想される名詞群を求めるためにコーパスを利用する.\item連想された名詞群のなかから,与えられた視点($R$,$V$)に適合するような名詞を被喩詞として統計的に選択する.\end{enumerate}その結果,コーパスが連想名詞の供給源として有効なことが例証され,かつ,提案手法を用いることにより,喩詞から連想された名詞群の中から,換喩の(格助詞と述語という)視点に適合する名詞を(被喩詞として)選択できることが分かった.また,提案手法による換喩解析の精度は,扱う対象が換喩という従来あまり解析の対象とされていない現象であることを考えると,高い値であると我々は判断した.また,実験結果の不正解例を分析した結果,\begin{itemize}\item喩詞と被喩詞や被喩詞と述語の共起頻度が少ない例\item解釈に文脈が必要な例\item被喩詞の適切な一般化が必要な例\end{itemize}などがあることが分かった.今後は,そのような問題も解決できるように提案手法を拡張していきたい.\newpage\acknowledgment本稿に対して有益なコメントを下さった筑波大学山本幹雄助教授に感謝する.\appendix\input{tables2}\clearpage\bibliographystyle{jnlpbbl}\bibliography{v07n2_05}\begin{biography}\biotitle{略歴}\bioauthor{内山将夫}{筑波大学第三学群情報学類卒業(1992).筑波大学大学院工学研究科博士課程修了(1997).博士(工学).信州大学工学部電気電子工学科助手(1997).郵政省通信総合研究所非常勤職員(1999).}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.研究官.自然言語処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{馬青}{1983年北京航空航天大学自動制御学部卒業.1987年筑波大学大学院理工学研究科修士課程修了.1990年同大学院工学研究科博士課程修了.工学博士.1990$\sim$93年株式会社小野測器勤務.1993年郵政省通信総合研究所入所,主任研究官.人工神経回路網モデル,知識表現,自然言語処理の研究に従事.日本神経回路学会,言語処理学会,電子情報通信学会,各会員.}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所,郵政技官.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V18N02-04 | \section{はじめに}
日本語や中国語のように,明示的な単語境界がない言語においては,自動単語分割は自然言語処理の最初のタスクである.ほとんどの自然言語処理システムは,単語単位に依存しており,自動単語分割器はこれらの言語に対して非常に重要である.このような背景の下,人手による単語分割がなされた文からなるコーパスを構築する努力\cite{京都大学テキストコーパス・プロジェクト,Balanced.Corpus.of.Contemporary.Written.Japanese}とともに,経験的手法による自動単語分割器や同時に品詞を付与する形態素解析器の構築\cite{統計的言語モデルとN-best探索を用いた日本語形態素解析法,形態素クラスタリングによる形態素解析精度の向上,文字クラスモデルによる日本語単語分割,A.Stochastic.Finite-State.Word-Segmentation.Algorithm.for.Chinese,最大エントロピーモデルに基づく形態素解析.--未知語の問題の解決策--,Conditional.Random.Fields.を用いた日本語形態素解析}が試みられてきた.近年,自然言語処理が様々な分野に適用されている.特許開示書の自動翻訳,裁判記録の自動作成のための音声認識用の言語モデル作成,医療文章からの情報抽出などである.これらの応用では品詞は不要なので,本論文では品詞を付与しない単語分割を扱う.単語分割では,コーパス作成の労力を単語境界付与に集中することができるので,品詞付与が必要となる形態素解析を前提とするよりもより実用的であることが多い.現在の自動単語分割器は,一般的な分野のコーパスから構築されており,上述のような様々な分野の文を高い精度で単語分割できない.とりわけ,対象分野特有の単語や表現の周辺での精度の低下が著しい.これらの対象分野に特有の単語や表現は,処理すべき文において重要な情報を保持しているので,この問題は深刻である.このような問題を解決するためには,対象分野での単語分割精度の向上を図る必要がある.理想的方法は,ある程度の量の対象分野の文を,一般分野のコーパス作成と同じ単語分割基準に沿って人手で単語分割し,自動単語分割器を再学習することである.しかしながら,多くの実際の状況では,人による利用を想定した辞書が対象分野の唯一の追加的言語資源である.これらの見出し語は,単語分割基準とは無関係に選定されており,単語分割基準に照らすと単語ではないことが多い.本論文では,これらの見出し語のように,内部の単語分割情報が与えられておらず,かつ両端が単語境界であるという保証がない文字列を複合語と呼ぶ.本論文では,単語分割済みコーパスに加えて,複合語辞書を参照する自動分割器を提案する.ほとんどの複合語は両端が単語境界であり,内部に単語分割基準に従って単語境界情報を付与することで単語列に変換することが可能である.このために必要な人的コストは,適用分野の単語分割済みコーパスの作成に比べて非常に少ない.本論文ではさらに,単語列辞書を参照し精度向上を図る自動単語分割器を提案する.提案手法を用いることにより,一般に販売されている辞書(複合語辞書)を参照することで,付加的な人的コストなしに,ある分野における自動単語分割の精度を向上させることができる.また,単語列辞書を参照する機能により,コーパスを準備するよりもはるかに低い人的コストでさらなる精度向上を実現することが可能になる.
\section{単語分割のための言語資源}
\label{section:LRS}この節では,まず,日本語を例に単語境界を明示しない言語の文を単語に分割する問題について説明する.次に,入力文を自動的に単語列に分割する自動単語分割器を構築するために利用可能な言語資源について述べる.\subsection{単語分割問題}日本語や中国語のように,単語境界を明示しない言語は多数ある.これらの言語における自然言語処理の第一歩は,文に単語境界情報を付与することである.以下では,次の文を入力の例として,単語分割問題を説明する.\begin{description}\item[入力:]畜産物価格安定法を施行\end{description}単語分割問題は,入力の文字列の全ての隣接する2文字間に単語境界を置くか置かないかを決定する2値分類問題である.注目している2文字が異なる単語に属する場合には空白を,同じ単語に属する場合には何も置かないとすると,上記の例文を適切に単語に分割した結果は以下のようになる.\begin{description}\item[出力:]畜産物価格安定法を施行\end{description}このように,入力文字列を単語に分割することで,単語を単位とした自然言語処理技術を適用することが可能となる.ただし,単語分割における誤りは,後続する自然言語処理の精度を低下させる点に注意しなければならない.\subsection{単語分割済みコーパス}\label{section:WSC}自動単語分割器に関する研究は多数あり,そのほとんどがデータに基づく方法を採用している\cite{統計的言語モデルとN-best探索を用いた日本語形態素解析法,形態素クラスタリングによる形態素解析精度の向上,A.Stochastic.Finite-State.Word-Segmentation.Algorithm.for.Chinese,最大エントロピーモデルに基づく形態素解析.--未知語の問題の解決策--,Conditional.Random.Fields.を用いた日本語形態素解析}\footnote{単語分割と同時に品詞を付与する形態素解析器は,品詞を無視することで自動単語分割器として用いることができるので,自動単語分割器の研究に含めている.}.これらの自動単語分割器は,単語分割基準に従って人手で単語に分割されたコーパスからパラメータを推定する.したがって,学習コーパスにおける誤りは自動分割の結果に波及し,後続する自然言語処理のアプリケーションの精度を損なう.それゆえ,単語分割済みコーパスの質は,非常に重要である.高い分割精度を確保するためにも,後続する自然言語処理を適用する対象分野の単語分割済み文を自動単語分割システムの学習コーパスとすることが望ましい.しかしながら,単語分割基準に従って正確に単語分割されたコーパスを用意するコストは非常に高い.というのも,作業者は,対象分野の用語と単語分割基準を熟知している必要があるからである.実際,コンピューター操作に熟練し単語分割基準を熟知した作業者が,ある分野の5,000文を非常に高い精度で単語分割するのに2週間(8時間$\times$10日)を要したという事実もある\footnote{これは著者の実際の経験に基づいている.その際の作業においては,高機能のエディターを高度に利用し,必要に応じてプログラムを記述・実行し,自動分割器を適宜再構築することで単語分割誤りを非常に効率良く修正した.}.したがって,低いコストで準備できる言語資源のみを用いて対象分野の文を高い精度で分割する自動単語分割器の実現方法は非常に有用である.\subsection{3種類の辞書}\begin{figure}[t]\begin{center}\includegraphics{18-2ia4f1.eps}\end{center}\caption{単語境界の3値表現}\label{figure:3-valued}\vspace{-0.5\baselineskip}\end{figure}単語分割基準が所与とすれば,単語分割問題に用いることができる辞書は,3つに分類できる.以下では,これら3種類の辞書について,\figref{figure:3-valued}に示した3値表現を用いて詳述する.\begin{itemize}\item\textbf{単語辞書:}この辞書は,単語分割基準に従う単語からなる.つまり,この辞書に含まれる文字列は,ある文脈で最左の文字の左と最右の文字の右に単語境界があり,さらにその内部には単語境界がない.例えば,3値表現された以下の文字列は単語である.\begin{quote}\verb*+|言-語|+\end{quote}\item\textbf{単語列辞書:}この辞書は,単語の列からなる.つまり,この辞書に含まれる文字列は,ある文脈で最左の文字の左と最右の文字の右に単語境界があり,さらに,各文字列のすべての文字間に単語分割基準に従って単語境界情報が付与されている.例えば,3値表現された以下の文字列は単語列である.\begin{quote}\verb*+|計-算|言-語|学|+\end{quote}\item\textbf{複合語辞書:}この辞書は,単語の連接である文字列からなる.つまり,この辞書に含まれる文字列は,ある文脈でその左右両端に単語境界があるが,文字列内部の単語境界情報は不明である.例えば,3値表現された以下の文字列は複合語である.\begin{quote}\verb*+|計算言語学|+\end{quote}\end{itemize}人が利用することを想定した商用・非商用の機械可読辞書は多数ある.実際,様々な対象分野における専門用語や固有名詞を多数含む辞書がある\cite{CD-科学技術45万語対訳辞典.英和/和英}.また,仮名漢字変換のための辞書が様々な分野において公開されている\cite{無料ライフサイエンス辞書の活用と効能}.これらの辞書の見出し語は,自動単語分割器が学習に用いるコーパスの単語分割基準とは無関係に選定されており,多くの自動単語分割器において,これを精度向上に直接利用することはできない.単語分割基準に照らすと,人が利用することを想定した辞書の見出し語の多くは,\pagebreak上記の分類では複合語である.左右両端は単語境界であることがかなりの確度で期待できるが,文字列の内部の単語境界情報がない.複合語は,人的コストをかけて単語列に変換することができる.この際に必要な作業は,左右の両端が単語境界であることのチェックと,文字列内のすべての文字境界に単語境界情報を付与することである.このコストは,対象分野の単語分割済みコーパスの作成に要するコストに比べて非常に少ない.以上の議論から,複合語や単語列を参照することで精度が向上する自動単語分割器を構築することは実用的意義が非常に大きい.
\section{単語分割法}
\label{section:AWS}本節では,前節の3種類の辞書を学習データとする日本語単語分割法について述べる.提案手法は,3種類の辞書と単語分割済みコーパス(部分的にアノテーションされていれば良い)を学習データとする.\subsection{最大エントロピーモデルによる点予測単語分割}\label{subsection:ME}日本語の単語分割の問題は,入力文の各文字間に単語境界が発生するか否かを予測する問題とみなせる\cite{文字クラスモデルによる日本語単語分割,日本語単語分割を題材としたサポートベクタマシンの能動学習の実験的研究,教師なし隠れマルコフモデルを利用した最大エントロピータグ付けモデル,Training.Conditional.Random.Fields.Using.Incomplete.Annotations}.つまり,文$\Bdma{x}=\Conc{x}{m}$に対して,文字$x_{i}$と$x_{i+1}$の間が単語境界であるか否かを表すタグ$t_{i}$を付与する問題とみなせる.付与するタグは,単語境界であることを表すタグ{\bfE}(``\verb*+|+''に相当)と,非単語境界であることを表すタグ{\bfN}(``\verb*+-+''に相当)の2つのタグからなる.各文字間のタグを単語境界が明示されたコーパスから学習された最大エントロピーモデル(MEmodel;maximumentropymodel)により推定する\footnote{文献\cite{日本語単語分割の分野適応のための部分的アノテーションを用いた条件付き確率場の学習}のようにCRF(conditionalrandomfields)により推定することもできるが,計算コストと記憶領域が大きくなる.これらの差は,スパースな部分的アノテーションコーパスからの学習において顕著となる.つまり,CRFのように系列としてモデル化する方法では,アノテーションのない部分も考慮する必要があるのに対して,点推定の最大エントロピーモデルでは,アノテーションのある部分のみを考慮すればよい.このような考察から,本論文では計算コストの少ない最大エントロピーモデルを用いる.}.その結果,より高い確率を与えられたタグをその文字間のタグとし,単語境界を決定する.すなわち,以下の式が示すように,最大エントロピーモデルにより,単語境界と推定される確率が非単語境界と推定される確率より高い文字間を単語境界とする.\begin{displaymath}P_{ME}({\bfE}|i,\Bdma{x})>P_{ME}({\bfN}|i,\Bdma{x})\end{displaymath}これにより,入力文を単語に分割することができる.最大エントロピーモデルによる単語分割法では,単語境界情報が付与された$\Bdma{x}=\Conc{x}{m}$の各文字間を,タグ$t_{i}$と素性の組み合わせ$S$とみなして,学習と確率推定を行う.\begin{displaymath}S=\{(t_{i},\,f_{i,1}(\Bdma{x}),\,f_{i,2}(\Bdma{x}),\,\cdots)\;|\;1\leq\foralli\leqm-1\},\end{displaymath}素性$f_{i,j}(\Bdma{x})$の詳細は次項で述べる.\subsection{参照する素性}文字$x_{i}$と$x_{i+1}$の間に注目する際の最大エントロピーモデルの素性としては,文字列$x_{i-1}^{i+2}$に含まれるの部分文字列である文字$n$-gramおよび字種$n$-gram($n=1,\,2,\,3$)をすべて用いる\footnote{字種は,漢字,ひらがな,カタカナ,アルファベット,数字,記号の6つとした.}.ただし,以下の点を考慮している.\begin{itemize}\item素性として利用する$n$-gramは,先頭文字の字種がその前の文字の字種と同じか否か,および,末尾文字の字種がその次の文字の字種と同じか否かの情報を付加して参照する\footnote{パラメータ数の急激な増加を抑えつつ素性の情報量を増加させることを意図している.これにより,参照範囲を前後1文字拡張して$x_{i-2}^{i+3}$の範囲の$n$-gram($n=3,\,4,\,5$)が参照されることになる.}.\item素性には注目する文字間の位置情報を付加する.\end{itemize}\subsection{辞書の利用}さらに,前述した3種類の辞書を参照し,以下の素性を用いることを提案する.\begin{itemize}\item文字列$x_{i-1}^{i+2}$に含まれる文字$n$-gram($n=1,\,2,\,3$)が,単語辞書中の単語と一致する文字列であるか否かを表す9素性(9つの位置の文字$n$-gramについて判定)\item注目する文字境界($x_{i}x_{i+1}$の間)の辞書中の位置を表す以下の4素性\begin{itemize}\item単語の開始位置の``\verb*+|+''に該当するか否かを表す素性(単語,単語列,複合語のいずれかが$x_{i+1}x_{i+2}\cdots$に前方一致するか否か)\item単語の終了位置の``\verb*+|+''に該当するか否かを表す素性(単語,単語列,複合語のいずれかが$\cdotsx_{i-1}x_{i}$に後方一致するか否か)\item単語列の単語境界の``\verb*+|+''に該当するか否かを表す素性($\cdotsx_{i}x_{i+1}\cdots$の位置にいずれかの単語列が出現し,かつ$x_{i}$と$x_{i+1}$の間が単語列中の``\verb*+|+''に該当するか否か)\item単語や単語列の``\verb*+-+''に該当するか否かを表す素性($\cdotsx_{i}x_{i+1}\cdots$の位置にいずれかの単語か単語列が出現し,かつ$x_{i}$と$x_{i+1}$の間が``\verb*+-+''に該当するか否か)\end{itemize}\end{itemize}
\section{評価}
\label{section:評価}提案手法の評価のために,様々な自動単語分割器を構築し,テストコーパスに対する分割精度を測定した.この節では,その結果を提示し提案手法の評価を行う.\subsection{実験条件}\begin{table}[t]\caption{単語分割済みコーパス}\label{table:corpus}\input{04table01.txt}\end{table}\begin{table}[t]\caption{辞書}\label{table:dictionary}\input{04table02.txt}\end{table}まず,対象分野のテストコーパスを日本経済新聞\cite{日経全文記事データベース[4紙版]}の記事とした.\pagebreak学習コーパスは一般分野の単語分割済みコーパスである.評価のために,学習コーパスと同じ分野のテストコーパスも用いた(\tabref{table:corpus}参照).一般分野コーパスは,現代日本語書き言葉均衡コーパス\cite{Balanced.Corpus.of.Contemporary.Written.Japanese}(13,181文)と,日常会話のための辞書の例文\cite{会話作文英語表現辞典}(14,754文)である.すべての文は,人手により適切に単語に分割されている.実験では,9-foldの交差検定を行った.つまり,テストコーパスを9つの部分に分割し,8つの部分を複合語や単語列の選定に用い,残りの1つを自動分割のテストとして用いることを,9通りに渡って行った.実験に際して,\secref{section:LRS}で述べた3種類の辞書を用意した.1つ目は単語辞書(UniDic-1.3.9)で,語彙サイズが非常に大きいことに加えて,その見出し語が学習コーパスと同じ単語分割基準に従っていることが注意深くチェックされている\cite{コーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用}.2つ目は複合語辞書で,その見出し語は機械可読の商用辞書\cite{CD-科学技術45万語対訳辞典.英和/和英}から得た.その多くは,専門用語と固有名詞である.実験では,テストとして用いられる1つの部分コーパス以外の8つの部分コーパスに文字列として出現する複合語を用いた.これらの複合語は,両端は単語分割基準と一致していることが期待されるが,その保証はない.3つ目は単語列辞書である.単語列辞書は,複合語辞書の見出し語を単語分割基準に従って人手により分割することで得られる.単語列は,結果的に1単語である場合もある.実験では,8つの部分コーパスに文字列として出現する単語列を用いた.複合語の左右どちらかの端が単語分割基準と一致していない場合は単語列辞書から除外した.したがって,単語列の数は複合語の数よりも少なくなっている.\tabref{table:dictionary}にこれらの辞書の諸元を示す.この表から複合語と単語列の平均文字数はそれぞれ3.04文字と3.12文字であることが分かる.これらは,学習コーパスの単語長(1.40文字)や新聞コーパスの平均単語長(1.50文字)より長い.単語列は平均1.61単語からなる.自動単語分割器のパラメータは,学習コーパスとこれらの辞書を同時に参照し推定される.\subsection{評価基準}自動単語分割の評価に用いた基準は,適合率,再現率,境界推定精度及び文正解率である.これらの計算方法を以下のような例を用いて説明する.ここで,自動単語分割の結果をAWS,正解の単語列をCORとしている.\begin{description}\item[AWS:]\underline{畜産}物価格安定法\underline{を}\underline{施行}\item[COR:]\underline{畜産}物価格安定法\underline{を}\underline{施行}\end{description}境界推定精度は,単語境界情報が正しく推定された文字間の割合である.上記の例では,文字数は11あるので,単語境界の推定対象となる文字間の数は10である.この内,単語境界情報が正しく推定された文字間は5であるので境界推定精度は5/10となる.文正解率は,すべての文字間において単語境界情報が正しく推定された文の割合である.適合率と再現率は,以下のように計算される.まず,正解の単語列に含まれる単語数を$N_{COR}$,自動単語分割の結果に含まれる単語数を$N_{AWS}$とし,さらに正解の単語列と自動単語分割の結果の最長部分一致単語列に含まれる単語数を$N_{LCS}$とする.この定義の下,適合率は$N_{LCS}/N_{AWS}$で与えられ,再現率は$N_{LCS}/N_{COR}$で与えられる.上述の例では,最長部分一致単語列は下線を引いた単語列であり,その単語数から$N_{LCS}=3$である.正解の単語列の単語数から$N_{COR}=7$であり,自動単語分割の結果の単語数から$N_{AWS}=6$である.したがって,再現率は$N_{LCS}/N_{COR}=3/7$であり,適合率は$N_{LCS}/N_{AWS}=3/6$である.\subsection{評価}参照する辞書による単語分割精度の差を調べるために,辞書を参照せずコーパスのみから学習する自動単語分割器\AWS{B}(ベースライン)を構築し,さらに以下の4つの自動単語分割器を構築した.\begin{tabular}{rl}\AWS{W1:}&コーパスに加えて単語辞書\AWS{w1}を参照\\\AWS{W2:}&コーパスに加えて単語辞書\AWS{w2}を参照\\\AWS{S:}&コーパスに加えて単語列辞書\AWS{s}を参照\\\AWS{C:}&コーパスに加えて複合語辞書\AWS{c}を参照\end{tabular}\\これらの自動単語分割器による一般分野における分割精度を\tabref{table:result1}に,対象分野における分割精度を\tabref{table:result2}に示す.\begin{table}[tb]\caption{一般分野における自動単語分割の精度}\label{table:result1}\input{04table03.txt}\end{table}\begin{table}[tb]\caption{適用分野における自動単語分割の精度}\label{table:result2}\input{04table04.txt}\end{table}\tabref{table:result1}から,ベースラインである自動単語分割器\AWS{B}の一般分野における分割精度は十分高いが,\tabref{table:result2}から,対象分野においては分割精度が著しく低下することがわかる.自動単語分割器\AWS{C}の結果から,複合語辞書を用いることで対象分野における分割精度が向上することが分かる.複合語辞書としては,多くの分野において利用可能な人のための辞書を直接用いることができるので,付加的な人的コストを必要としない.このことから,複合語辞書を参照することで自動単語分割器の精度向上が実現できることは非常に有用であるといえる.自動単語分割器\AWS{C}の分割精度は,両分野において,コーパスと同じ基準で単語に分割された単語辞書\AWS{w1}を参照する自動単語分割器\AWS{W1}の分割精度より低い.これは,単語辞書\AWS{w1}の見出し語の数が,約14.5万語と非常に大きいことと,本実験での適応対象である新聞記事が,単語辞書の想定分野となっていることによる.このように,大きな単語辞書を,様々な分野に対して準備することは現実的ではないであろう.実際,単語辞書に含まれる単語の合計の文字数は430,797文字(\tabref{table:dictionary}参照)と非常に大きく,これは,対象分野の約9,879文(\tabref{table:corpus}参照)に相当する.第\subref{section:WSC}で述べたように,非常に熟練した作業者の単語分割速度が1日500文程度であるから,この量のコーパスを作成するには,対象分野の表現と単語分割基準を熟知した作業者が約20日間作業にあたる必要があると考えられる.単語列辞書\AWS{s}と同じ単語数の単語辞書\AWS{w2}を用いる自動単語分割器\AWS{W2}の分割精度を自動単語分割器\AWS{C}と比べると,\AWS{C}の精度は\AWS{W2}よりも高い.複合語辞書は,処理すべき適用分野のテキストと共に提供されることが多い.これらのことから,ある分野に自動単語分割器を適用する場合,一般的な分野の辞書を整備するのではなく,その分野の複合語辞書を利用するのがよい戦略であるといえる.単語列辞書を参照する自動単語分割器\AWS{S}の対象分野における単語分割精度は,複合語辞書を参照する自動単語分割器\AWS{C}よりも高い.これは,単語列辞書が複合語辞書に単語境界情報を付与した結果であることを考えると当然である.このことから,対象分野のテキストに出現する複合語に単語境界情報を付与することで,さらなる精度向上を実現できることが分かる.文字列「共同宣言」を複合語としてまたは単語列として辞書に追加することにより分割精度が向上した例を次に示す.\begin{description}\item[\AWS{B}:]…\verb*+|日-米|安-保|共|同|宣-言-取|り|ま-と-め|+…\item[\AWS{C}:]…\verb*+|日-米|安-保|共|同|宣-言|取|り|ま-と-め|+…\item[\AWS{S}:]…\verb*+|日-米|安-保|共-同|宣-言|取|り|ま-と-め|+…\end{description}自動単語分割器\AWS{B}では「宣言取」を単語であると出力しているが,\AWS{C}では,複合語「\verb*+|共同宣言|+」を参照することで文字列「共同宣言」の後に単語境界があることが分かり,正しく「宣言」と「取」に分割されている.さらに\AWS{S}では,単語列「\verb*+|共-同|宣-言|+」を参照することですべての箇所で正しく単語に分割されている.なお,分野特有であると思われる表現でも,実験に利用した商用辞書に含まれていない単語列に関しては,辞書の追加による精度向上はみられなかった.自動単語分割器\AWS{S}による対象分野の分割精度は,大規模な単語辞書を参照する自動単語分割器\AWS{W1}による分割精度よりも高い.複合語辞書に含まれる合計の文字数は,59,868文字(\tabref{table:dictionary}参照)で,これは,対象分野の1,373文に相当する.アノテーションに必要な人的コストは,単語辞書の構築に必要な人的コストと比べて非常に少ない.さらに,複合語の多くが専門用語と固有名詞であるので,作業者に要求される技能は,分野知識と名詞に関する単語分割基準の熟知である.したがって,作業者の確保はコーパスの準備に比べてはるかに容易である.以上のような考察から,現実的な状況において,既存の辞書のカバー率が高くないある対象分野の自動単語分割器を構築する最良の戦略は,\begin{enumerate}\item対象分野のテキストに出現する複合語辞書の見出し語を収集し,提案する自動単語分割器を用いる\item作業者が確保できる場合には,さらにこれらの複合語に単語境界情報を付与し,提案する自動単語分割器を用いる\end{enumerate}であると結論できる.
\section{関連研究}
自動単語分割の問題をある文字の次に単語境界があるかの予測として定式化することはかなり以前から行われている\cite{日本語における単語の造語モデルとその評価,品詞・区切り情報を含む拡張文字の連鎖確率を用いた日本語形態素解析,文字クラスモデルによる日本語単語分割}.これらの研究では,文字に単語境界情報を付与して予測単位としている.文字間に単語境界があるかを識別学習により決定することも提案されている\cite{日本語単語分割を題材としたサポートベクタマシンの能動学習の実験的研究}.この研究の主眼は能動学習の調査・分析である.辞書の利用に関する記述はなく,また分野適応についても述べられていない.統計的手法による日本語の文の自動単語分割に関する初期の研究は,丸山ら\cite{確率的形態素解析}による単語$n$-gramモデルを用いる方法がある.また,永田\cite{統計的言語モデルとN-best探索を用いた日本語形態素解析法}による品詞$n$-gramモデルによる形態素解析\footnote{ここでは,自動単語分割に加えてそれぞれの単語の品詞を同時に推定する処理を形態素解析と呼んでいる.}もある.森ら\cite{形態素クラスタリングによる形態素解析精度の向上}は,すべての品詞を語彙化した形態素$n$-gramモデルを用いることによる精度向上を報告し,さらに単語辞書の参照を可能にする方法を提案し,それによる精度向上を報告している.内元ら\cite{最大エントロピーモデルに基づく形態素解析.--未知語の問題の解決策--}は,最大エントロピーモデルを用いる形態素解析において単語辞書を参照する方法を提案している.このように,単語分割基準に沿った単語辞書を参照する方法はすでにあるが,複合語や単語列を参照し精度向上を実現した自動単語分割器の報告は,我々の知る限りない.なお,提案手法は,形態素解析にも拡張可能である.提案する自動単語分割器は音声認識や仮名漢字変換の言語モデル作成に用いることを想定しているので,品詞を推定する必要はないと考えている.品詞も推定すべきか,どの程度の粒度の品詞体系にすべきか,などの問題は後続する自然言語処理と準備すべきデータの作成コストを含む全体の問題であり,本論文の議論を超える.複合語や単語列を参照し精度向上を図る取り組みは,完全に単語に分割された文に加えて,それ以外の断片的な情報を用いて精度向上を図る取り組みの一つである.坪井ら\cite{日本語単語分割の分野適応のための部分的アノテーションを用いた条件付き確率場の学習}は,学習コーパスの文の単語境界情報が部分的であるような不完全なアノテーションからも条件付き確率場による自動単語分割器や形態素解析器を学習できる枠組みを提案している.本論文で提案する自動単語分割器は点予測を用いているので,単語分割に関してはこの問題は解決されているといえる.したがって,提案する自動単語分割器は,単語境界情報が部分的に付与されたコーパスと複合語や単語列のすべてを同時に参照することができる.自動単語分割は,中国語においても提案されている\cite{A.Stochastic.Finite-State.Word-Segmentation.Algorithm.for.Chinese}.自動単語分割器は,空白で区切られる単位が大きい韓国語やフィンランド語などにおいても有用で,言語モデルの作成\cite{Korean.large.vocabulary.continuous.speech.recognition.with.morpheme-based.recognition.units,Unlimited.vocabulary.speech.recognition.with.morph.language.models.applied.to.Finnish}に用いられている.提案手法は,これらの言語に対する言語処理においても有用である.
\section{おわりに}
本論文では,日本語の文の自動単語分割器をある分野に適用する現実的な状況において,精度向上を図るための新しい方法を提案した.提案手法の最大の特徴は,複合語を参照することが可能な点である.本論文で言う複合語とは,内部の単語境界情報がない文字列であり,人の利用を想定した辞書の見出し語の多くが複合語である.この機能により,一般に販売されている辞書を参照し,付加的な人的コストなしに,ある分野における自動単語分割の精度を向上させることができる.提案する自動単語分割器は,内部に単語境界情報をもつ単語列を参照することも可能である.この機能により,コーパスを準備するよりも低い人的コストでさらなる精度向上を実現することが可能になる.実験では,これらの辞書を参照する自動単語分割器を最大エントロピー法を用いて構築し,これらのさまざまな辞書を参照する場合の自動単語分割の精度を比較した.実験の結果,本論文で提案する自動単語分割器は,複合語を参照することにより,より高い分割精度を人的コストなしに実現することが確認された.また,単語列を参照することにより,少ない人的コストでさらなる精度向上が実現されることが示された.したがって,本論文で提案する自動単語分割器は,自然言語処理をある分野に適用する場合に非常に有用である.\acknowledgment本研究の一部は,科学研究費補助金・若手A(課題番号:08090047)により行われた.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{伝\JBA小木曽\JBA小椋\JBA山田\JBA峯松\JBA内元\JBA小磯}{伝\Jetal}{2007}]{コーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用}伝康晴\JBA小木曽智信\JBA小椋秀樹\JBA山田篤\JBA峯松信明\JBA内元清貴\JBA小磯花絵\BBOP2007\BBCP.\newblock\JBOQコーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用.\JBCQ\\newblock\Jem{日本語科学},{\Bbf22},\mbox{\BPGS\101--122}.\bibitem[\protect\BCAY{ドナルド\JBA羽鳥\JBA山田\JBA伊良部}{ドナルド\Jetal}{1992}]{会話作文英語表現辞典}ドナルドキーン\JBA羽鳥博愛\JBA山田晴子\JBA伊良部祥子\BBOP1992\BBCP.\newblock\JBOQ会話作文英語表現辞典\JBCQ\\newblock朝日出版社.\bibitem[\protect\BCAY{颯々野}{颯々野}{2006}]{日本語単語分割を題材としたサポートベクタマシンの能動学習の実験的研究}颯々野学\BBOP2006\BBCP.\newblock\JBOQ日本語単語分割を題材としたサポートベクタマシンの能動学習の実験的研究.\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(2),\mbox{\BPGS\27--41}.\bibitem[\protect\BCAY{Hirsim{\"{a}}ki,Creutz,Siivola,Kurimo,Virpioja,\BBA\Pylkk{\"{o}}nen}{Hirsim{\"{a}}kiet~al.}{2006}]{Unlimited.vocabulary.speech.recognition.with.morph.language.models.applied.to.Finnish}Hirsim{\"{a}}ki,T.,Creutz,M.,Siivola,V.,Kurimo,M.,Virpioja,S.,\BBA\Pylkk{\"{o}}nen,J.\BBOP2006\BBCP.\newblock\BBOQUnlimitedvocabularyspeechrecognitionwithmorphlanguagemodelsappliedtoFinnish.\BBCQ\\newblock{\BemComputerSpeechandLanguage},{\Bbf20},\mbox{\BPGS\515--541}.\bibitem[\protect\BCAY{金子}{金子}{2003}]{無料ライフサイエンス辞書の活用と効能}金子周司\BBOP2003\BBCP.\newblock\JBOQ無料ライフサイエンス辞書の活用と効能\JBCQ\\newblock\Jem{ファルマシア},{\Bbf42}(5),\mbox{\BPGS\463--467}.\bibitem[\protect\BCAY{風間\JBA宮尾\JBA辻井}{風間\Jetal}{2004}]{教師なし隠れマルコフモデルを利用した最大エントロピータグ付けモデル}風間淳一\JBA宮尾祐介\JBA辻井潤一\BBOP2004\BBCP.\newblock\JBOQ教師なし隠れマルコフモデルを利用した最大エントロピータグ付けモデル.\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(4),\mbox{\BPGS\3--24}.\bibitem[\protect\BCAY{工藤\JBA山本\JBA松本}{工藤\Jetal}{2004}]{Conditional.Random.Fields.を用いた日本語形態素解析}工藤拓\JBA山本薫\JBA松本裕治\BBOP2004\BBCP.\newblock\JBOQConditionalRandomFieldsを用いた日本語形態素解析.\JBCQ\\newblock\Jem{情報処理学会研究報告},NL161\JVOL.\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1997}]{京都大学テキストコーパス・プロジェクト}黒橋禎夫\JBA長尾眞\BBOP1997\BBCP.\newblock\JBOQ京都大学テキストコーパス・プロジェクト\JBCQ\\newblock\Jem{言語処理学会第3回年次大会発表論文集},\mbox{\BPGS\115--118}.\bibitem[\protect\BCAY{Kwon\BBA\Park}{Kwon\BBA\Park}{2003}]{Korean.large.vocabulary.continuous.speech.recognition.with.morpheme-based.recognition.units}Kwon,O.-W.\BBACOMMA\\BBA\Park,J.\BBOP2003\BBCP.\newblock\BBOQKoreanlargevocabularycontinuousspeechrecognitionwithmorpheme-basedrecognitionunits.\BBCQ\\newblock{\BemSpeechCommunication},{\Bbf39},\mbox{\BPGS\287--300}.\bibitem[\protect\BCAY{Maekawa}{Maekawa}{2008}]{Balanced.Corpus.of.Contemporary.Written.Japanese}Maekawa,K.\BBOP2008\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe6thWorkshoponAsianLanguageResources},\mbox{\BPGS\101--102}.\bibitem[\protect\BCAY{丸山\JBA荻野\JBA渡辺}{丸山\Jetal}{1991}]{確率的形態素解析}丸山宏\JBA荻野紫穂\JBA渡辺日出雄\BBOP1991\BBCP.\newblock\JBOQ確率的形態素解析.\JBCQ\\newblock\Jem{日本ソフトウェア科学会第8回大会論文集},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{森\JBA長尾}{森\JBA長尾}{1998}]{形態素クラスタリングによる形態素解析精度の向上}森信介\JBA長尾眞\BBOP1998\BBCP.\newblock\JBOQ形態素クラスタリングによる形態素解析精度の向上.\JBCQ\\newblock\Jem{自然言語処理},{\Bbf5}(2),\mbox{\BPGS\75--103}.\bibitem[\protect\BCAY{永井\JBA日高}{永井\JBA日高}{1993}]{日本語における単語の造語モデルとその評価}永井秀利\JBA日高達\BBOP1993\BBCP.\newblock\JBOQ日本語における単語の造語モデルとその評価.\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf34}(9),\mbox{\BPGS\1944--1955}.\bibitem[\protect\BCAY{永田}{永田}{1999}]{統計的言語モデルとN-best探索を用いた日本語形態素解析法}永田昌明\BBOP1999\BBCP.\newblock\JBOQ統計的言語モデルとN-best探索を用いた日本語形態素解析法.\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(9),\mbox{\BPGS\3420--3431}.\bibitem[\protect\BCAY{日本経済新聞社}{日本経済新聞社}{2001}]{日経全文記事データベース[4紙版]}日本経済新聞社\BBOP2001\BBCP.\newblock日経全文記事データベース(4紙版)\inhibitglue.\bibitem[\protect\BCAY{日外アソシエーツ}{日外アソシエーツ}{2001}]{CD-科学技術45万語対訳辞典.英和/和英}日外アソシエーツ\BBOP2001\BBCP.\newblock\JBOQCD-科学技術45万語対訳辞典英和/和英\JBCQ.\bibitem[\protect\BCAY{小田\JBA森\JBA北}{小田\Jetal}{1999}]{文字クラスモデルによる日本語単語分割}小田裕樹\JBA森信介\JBA北研二\BBOP1999\BBCP.\newblock\JBOQ文字クラスモデルによる日本語単語分割.\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(7),\mbox{\BPGS\93--108}.\bibitem[\protect\BCAY{Sproat\BBA\Chang}{Sproat\BBA\Chang}{1996}]{A.Stochastic.Finite-State.Word-Segmentation.Algorithm.for.Chinese}Sproat,R.,Shih,C.,Gale,W.,andChang,N.(1996).\newblock\BBOQAstochasticfinite-stateword-segmentationalgorithmforChinese.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf22}(3),\mbox{\BPGS\377--404}.\bibitem[\protect\BCAY{Tsuboi,Kashima,Mori,Oda,\BBA\Matsumoto}{Tsuboiet~al.}{2008}]{Training.Conditional.Random.Fields.Using.Incomplete.Annotations}Tsuboi,Y.,Kashima,H.,Mori,S.,Oda,H.,\BBA\Matsumoto,Y.\BBOP2008\BBCP.\newblock\BBOQTrainingConditionalRandomFieldsUsingIncompleteAnnotations.\BBCQ\\newblockIn{\BemProceedingsofthe22thInternationalConferenceonComputationalLinguistics}.\bibitem[\protect\BCAY{坪井\JBA森\JBA鹿島\JBA小田\JBA松本}{坪井\Jetal}{2009}]{日本語単語分割の分野適応のための部分的アノテーションを用いた条件付き確率場の学習}坪井祐太\JBA森信介\JBA鹿島久嗣\JBA小田裕樹\JBA松本裕治\BBOP2009\BBCP.\newblock\JBOQ日本語単語分割の分野適応のための部分的アノテーションを用いた条件付き確率場の学習.\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf50}(6),\mbox{\BPGS\1622--1635}.\bibitem[\protect\BCAY{内元\JBA関根\JBA井佐原}{内元\Jetal}{2001}]{最大エントロピーモデルに基づく形態素解析.--未知語の問題の解決策--}内元清貴\JBA関根聡\JBA井佐原均\BBOP2001\BBCP.\newblock\JBOQ最大エントロピーモデルに基づく形態素解析—未知語の問題の解決策—.\JBCQ\\newblock\Jem{自然言語処理},{\Bbf8}(1),\mbox{\BPGS\127--141}.\bibitem[\protect\BCAY{山本\JBA増山}{山本\JBA増山}{1997}]{品詞・区切り情報を含む拡張文字の連鎖確率を用いた日本語形態素解析}山本幹雄\JBA増山正和\BBOP1997\BBCP.\newblock\JBOQ品詞・区切り情報を含む拡張文字の連鎖確率を用いた日本語形態素解析.\JBCQ\\newblock\Jem{言語処理学会第3回年次大会発表論文集},\mbox{\BPGS\421--424}.\end{thebibliography}\begin{biography}\bioauthor{森信介}{1998年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了.同年日本アイ・ビー・エム(株)入社.2007年より京都大学学術情報メディアセンター准教授.現在に至る.自然言語処理ならびに計算言語学の研究に従事.工学博士.1997年情報処理学会山下記念研究賞受賞.2010年情報処理学会論文賞受賞.2010年第58回電気科学技術奨励賞.情報処理学会会員.}\bioauthor{小田裕樹}{1999年徳島大学大学院工学研究科博士前期課程知能情報工学専攻修了.同年NTTソフトウェア(株)入社.言語処理・情報検索システム等の開発,コンサルティング業務に従事.確率・統計的自然言語処理およびその応用に興味を持つ.工学博士.2010年情報処理学会論文賞受賞.情報処理学会会員.}\end{biography}\biodate\end{document}
| |
V06N07-01 | \section{はじめに}
\label{sec:introduction}日本語の形態素解析は,日本語の自然言語処理にとって基本的なものであるので,多くの研究・開発が行われている.形態素解析システム\footnote{以下,システムとは,形態素解析システムのことであり,解析結果あるいは形態素解析結果とは,形態素解析システムの解析結果のことである}には,主に,人手で作成された規則に基づくシステム\cite[など]{kurohashi97,matsumoto97,washizaka97,fuchi98}と確率に基づくシステム\cite[など]{nagata94,mori98,yamamoto97}がある.本稿では,人手で作成された規則に基づく形態素解析システムを対象として,形態素解析の結果から半自動的に誤りを検出することを試みる.形態素解析結果から誤りが検出できた場合には,次のような利点がある.\begin{enumerate}\item{}形態素解析の誤りは,形態素解析システムの弱点を示していると考えられるので,誤りを分析することにより,システムの性能を向上できる可能性がある.\item{}形態素解析が誤るような表現を連語として登録することで,そのような誤りが再び起きないようにできる\cite{yamachi96,fuchi98}.\item{}形態素解析の誤りから誤り訂正規則を作成できるので,その規則を利用して形態素解析の精度を向上できる\cite{yokoh97,hisamitsu98}.\item{}形態素解析の誤りに基づいて,形態素解析の規則に割当てるコストを調整したり\cite{komatsu98},品詞分類を変更する\cite{kitauchi98}ことができる.\end{enumerate}これらのことから,形態素解析結果から誤りを検出することは,形態素解析システムの高精度化に役立つことがわかる.しかし,形態素解析の結果から誤りを見付けるのは,形態素解析の精度が97〜99%\cite{fuchi98}に達している現在では,困難になっている.ところが,従来の研究で,形態素解析結果の誤りを利用して形態素解析の精度を向上させようとしている研究では,それらの誤りを人手で発見すること,あるいは,人手で作成されたコーパスと形態素解析結果とを比較することにより発見することが前提になっている.そのため,形態素解析の誤りを発見することはコストが高い作業となっている.一方,本稿では,従来の研究で人手で発見されることが前提となっていた解析誤り(特に過分割)を,生のコーパスを形態素解析した結果から半自動的に抽出することを目指し,そのための統計的尺度を提案する.更に,本稿では,人手により誤りが修正済みのコーパスに対しても提案尺度を適用し,人手で除去しきれていない誤りを検出することも試みる.もし,人手修正されたコーパスから誤りを検出できたら,提案尺度はコーパス作成・整備の際の補助ツールとして役立つことになる.以下,\ref{sec:measure}章では,本稿が検出対象とする誤り(過分割)の定義を述べ,それを検出するための統計的尺度について述べる.\ref{sec:experiments}章では,提案尺度を,公開されている形態素解析システム\cite{kurohashi97,matsumoto97,washizaka97},および,人手で修正されたコーパス\cite{edr95,kurohashi98}に適用した結果について述べると共に,提案尺度を各種統計的尺度と定量的に比較する.\ref{sec:discussion}章では,提案尺度の有効性などを論じる.\ref{sec:conclusion}章は結論である.
\section{過分割を検出する統計的尺度}
\label{sec:measure}まず,形態素解析システムの解析結果における分割誤りを分類し,検出対象である過分割を定義づける.次に,過分割を検出する統計的尺度について述べる.\subsection{形態素解析結果における分割誤り}\label{sec:error}分割点という用語を導入し,それを用いて,形態素解析結果における分割誤りを分類する.まず,長さ$n$の文字列$S$を,$S=c_1,c_2,...,c_n$とする.このとき,$S$の$i$番目の分割候補点とは,文字$c_i$と文字$c_{i+1}$の間をいう.また,分割候補点が分割点であるとは,その分割候補点が形態素境界である場合をいい,その分割候補点は分割されているという.たとえば,「$S=休憩室$」とすると,1番目の分割候補点は「休」と「憩」の間であり,2番目の分割候補点は「憩」と「室」の間である.更に,$S$が「休憩/室」のように分割されているとすると,2番目の分割候補点は分割点である.次に,形態素解析結果の分割誤りとは,正解と形態素解析結果とで,分割点が異なる場合をいう.そして,分割誤りのなかで,過分割とは,正解で分割されていない分割候補点をシステムが分割している場合をいう.また,分割不足とは,正解で分割されている分割候補点をシステムが分割していない場合をいう\footnote{ここで定義した過分割と分割不足とは,形態素境界(分割点)に注目したものであるので,形態素自体に注目した過分割/分割不足の定義とは異なる.たとえば,\cite{hisamitsu98}では,分割の誤りを以下の3種類に分類している.なお,「正」で示される分割は,当該文字列の正しい分割を示し,「誤」で示される分割は,形態素解析システムによる誤った分割を示す.\begin{description}\item[(形態素自体に注目した)過分割]\begin{tabular}{ll}正:&今日/の/金/相場/は,...\\誤:&今日/の/金/相/場/は,...\\\end{tabular}\item[(形態素自体に注目した)分割不足]\begin{tabular}{ll}正:&ユニックス/ワークステーション\\誤:&ユニックスワークステーション\\\end{tabular}\item[その他の誤り(語境界交差型)]\begin{tabular}{ll}正:&病気/が/まん延\\誤:&病気/がまん/延\\\end{tabular}\end{description}この定義では,形態素境界を直接取り扱えないので,本稿での目的には不適切である.なお,語境界交差型の分割誤りは,本稿の定義では,過分割と分割不足が複合したものとなる.たとえば,上の例では,「が」と「ま」の間の分割候補点が分割不足であり,「ん」と「延」の間の分割候補点が過分割である.}.たとえば,「休憩室」の分割の正解が「休憩/室」であるとき,システムが「休/憩室」と分割したとすると,1番目の分割候補点(「休」と「憩」の間)は過分割であり,2番目の分割候補点(「憩」と「室」の間)は分割不足である.なお,形態素解析結果の誤りには,他には品詞付けの誤りがある.これは,形態素への分割自体は正しいが,品詞が間違った場合である.この誤りの検出については,分割不足と同様に,本稿では考察しない.\subsection{過分割の検出尺度の定義}\label{sec:detecting-method}ここで定義する尺度は,文字列に関する尺度であり,与えられた文字列が分割される場合と分割されない場合とで確率を比較し,分割されない確率が高いほど大きな値をとる尺度である.そのため,この尺度の値が大きいような分割をされている文字列は,誤った分割(過分割)をされている可能性が高い.より厳密には,与えられた文字列を$S=a_1,a_2,\ldots,a_k,b_1,b_2,\ldots,b_l$とし,$S$の二つの部分文字列(形態素\footnote{(\ref{eq:L})式では,形態素の文字列のみを考慮し,品詞は考慮しない.なぜなら,そうすることで,計算が単純になり,かつ,確率推定におけるスパースネスを避けることができるからである.})を$A=a_1,\ldots,a_k$と$B=b_1,\ldots,b_l$とするとき,\begin{equation}\label{eq:L}L(A,B)=\log\frac{\Pr(\B,a_1,\ldots,a_k,b_1,\ldots,b_l,\E)}{\Pr(\B,a_1,\ldots,a_k,\E)\Pr(\B,b_1,\ldots,b_l,\E)}\end{equation}は,以下で述べるように,文字列$S$の形態素$A$と$B$への切れにくさを表現している.ただし,$\B$と$\E$は,それぞれ,形態素の前後に付ける区切り記号であり,$\Pr(\cdots)$は,文字列の生起確率である.すなわち,$\Pr(\B,c_1,\ldots,c_k,\E)$については,$c_{0}=\B,c_{k+1}=\E$とすれば,\begin{eqnarray}\label{eq:n}\lefteqn{\Pr(\B,c_1,\ldots,c_k,\E)}\nonumber\\&=&\Pr(\B)\prod_{i=1}^{k+1}\Pr(c_i|c_0,\ldots,c_{i-1})\nonumber\\&\simeq&\Pr(\B)\prod_{i=1}^{k+1}\Pr(c_i|c_{i-n+1},\ldots,c_{i-1})\end{eqnarray}である.ただし,適当な$n$により,$\Pr(c_i|c_0,\ldots,c_{i-1})$を$\Pr(c_i|c_{i-n+1},\ldots,c_{i-1})$で近似する.(\ref{eq:L})式で定義した尺度$L(A,B)$は,文字列$S=AB$の形態素$A$と$B$への切れにくさを表している.すなわち,$L(A,B)$が大きいときには,$S$は$A$と$B$には分割されがたい.なぜなら,$L$の分子は,$S$が一つの形態素として(区切り記号が途中に入らずに)生起する確率であるのに対して,分母は,$S$が二つの形態素に分れて独立に生起する確率であるから,$L$が大きいほど,$S$が一つの形態素として生起する比が大きいからである.そのため,$L$が大きいほど分割が誤っている可能性が高い.すなわち,$a_k$と$b_1$の間の分割は過分割である可能性が高い.たとえば,\ref{sec:experiments}章の実験によると,「$S=休憩室$」のとき,「$A=休$」,「$B=憩室$」とすると,$\log\Pr(\B,休,憩,室,\E)=-24.3$,$\log\Pr(\B,休,\E)=-12.9$,$\log\Pr(\B,憩,室,\E)=-29.4$であるので,$L(休,憩室)=-24.3+12.9+29.4=18.0$となる.一方,「$A=休憩$」,「$B=室$」とすると,$\log\Pr(\B,休,憩,\E)=-13.7$,$\log\Pr(\B,室,\E)=-10.4$であるので,$L(休憩,室)=-24.3+13.7+10.4=-0.20$となる.二つを比較すると,$L(休,憩室)>L(休憩,室)$であるので,尺度$L$によると,「休憩室」については,「休/憩室」という分割の方が「休憩/室」という分割よりも起り難い.すなわち,過分割である可能性が高い.これは我々の言語感覚と一致する.\subsubsection*{尺度$L$の適用範囲}尺度$L$が効果的に検出できるような過分割は,脚注2に示した分割誤りのうちで,形態素自体に注目した過分割である.それに対して,語境界交差型における過分割の検出への尺度$L$の有効性は,形態素自体に注目した過分割に対するものよりも低いと予想される\footnote{このことは査読者に指摘していただいた.}.なぜなら,問題にしている分割点が語境界交差型の分割誤りの場合,たとえば,「が/まん延」を「がまん/延」と間違えている場合には,$L(がまん,延)$を計算するのだが,このとき,$\Pr(\B,が,ま,ん,延,\E)$が高い確率値を示し,$\Pr(\B,が,ま,ん,\E)\Pr(\B,延\E)$が低い確率値を示すことは必ずしも期待できないからである.なぜなら,コーパス中で「$\B{}がまん延\E$」が頻出し,「$\B{}がまん\E$」や「$\B{}延\E$」が出現しないということは保証できないからである.ただし,実際上は,(\ref{eq:n})式の確率を推定するときには,$n=2$や$n=3$により近似するので,(\ref{eq:L})式の計算に関係するのは,分割点の近傍の文字だけになり,その結果,語境界交差型の分割誤りと形態素自体に注目した過分割とで尺度$L$の有効性の違いは小さくなると考えられる.\subsection{尺度$L$と相互情報量との違い}\label{sec:rel-to-mi}本節では,尺度$L$と,よく知られた統計量である相互情報量\cite{Kita96}との違いを述べる.形態素$A$と形態素$B$の相互情報量$MI(A,B)$は,$\Pr(A)$と$\Pr(B)$を形態素$A$と$B$の生起確率とし,$\Pr(A,B)$を,形態素$A$と形態素$B$が,この順番で隣接して生起する確率とすると,\begin{equation}\label{eq:mi}MI(A,B)=\log\frac{\Pr(A,B)}{\Pr(A)\Pr(B)}\end{equation}である.次に,(\ref{eq:mi})式を,(\ref{eq:L})式と同様に,文字の連鎖として表すと,\begin{equation}\label{eq:mi-char}MI(A,B)=\log\frac{\Pr(\B,a_1,\ldots,a_k,\E,\B,b_1,\ldots,b_l,\E)}{\Pr(\B,a_1,\ldots,a_k,\E)\Pr(\B,b_1,\ldots,b_l,\E)}\end{equation}となる.$MI(A,B)$が大きいときには,形態素$A$と$B$が共起する確率は,それぞれが独立に生起する確率よりも大きいといえるので,$MI(A,B)$は,形態素$A$と形態素$B$との共起関係の強さ(共起強度)を表す尺度として利用できる.(\ref{eq:L})式で表される尺度$L$と,(\ref{eq:mi-char})式で表される相互情報量とが異なることは,$\Pr(\B,a_1,\ldots,a_k,b_1,\ldots,b_l,\E)\ne\Pr(\B,a_1,\ldots,a_k,\E,\B,b_1,\ldots,b_l,\E)$であることから分る.また,定性的にいっても,$\Pr(\B,a_1,\ldots,a_k,b_1,\ldots,b_l,\E)$は,\ref{sec:detecting-method}節で述べたように,$S=AB$が一つの形態素として生起する確率であるのに対して,$\Pr(\B,a_1,\ldots,a_k,\E,\B,b_1,\ldots,b_l,\E)$は,形態素$A$と形態素$B$とが二つの形態素として隣接して生起する確率であるので,これら二つの確率は異なる.定性的な違いを要約すると,尺度$L$は,形態素$S=AB$が形態素$A$と形態素$B$に分割されるときの分割の困難さを表すが,相互情報量は,形態素$A$と形態素$B$が隣接して生起するときの生起の容易さを表すと言える.これらは関連していることは確かであるが,基本的には異なる.なお,\ref{sec:experiments}章では,実験の一つとして,尺度$L$と相互情報量を含む五つの尺度について,過分割の検出精度を比較する.
\section{実験}
\label{sec:experiments}\subsection{実験概要}\label{sec:overview}\subsubsection*{実験事項}三つの実験を行った.実験1では,定性的な評価として,種々の形態素解析システムの解析結果,および,人手修正されたコーパスについて尺度$L$を適用し,目視により適用結果を評価した.実験2では,訓練コーパスのサイズを変えたときの,尺度$L$の過分割検出精度を定量的に評価した.実験3では,五つの尺度(尺度$L$/相互情報量/尤度比/改良Dice係数\cite{kitamura97}/Yates補正された$\chi^2$)について過分割の検出精度を定量的に比較した.\subsubsection*{確率推定の際の設定}\paragraph{教師なし学習/教師あり学習}尺度$L$を求めるためには,(\ref{eq:n})式の確率を求める必要があるので,形態素に分割された訓練コーパスが必要である.そのようなコーパスとしては,形態素解析システムにより分割されたコーパスをそのまま用いる場合(教師なし学習)と,形態素解析結果の誤りを人手で修正したコーパスを用いる場合(教師あり学習)の二通りが考えられる.そのため,実験1,2,3では,この二つの場合について,尺度$L$の過分割検出精度などを調べた.\paragraph{パラメータ推定法}(\ref{eq:n})式の確率を求めるには,$n$を設定し,かつ,確率推定法も適当に決める必要がある.そのために,本稿では,実験1と実験2においては,n-gram確率推定のためのツールとして広く使われているCMU-CambridgeToolkit\cite{clarkson97}を用いて,$n=3$の場合について,バックオフスムージングにより推定した.このときのディスカウント法はWitten-Belldiscounting\cite{placeway93}を用い,カットオフは,文字バイグラムと文字トライグラムの双方で1とした\footnote{CUM-CambridgeToolkitは,与えられたn-gramである$c_{i-n+1},\ldots,c_{i}$の頻度が0のとき,そのn-gram確率$\Pr(c_i|c_{i-n+1},\ldots,c_{i-1})$を(n-1)-gram確率$\Pr(c_i|c_{i-n+2},\ldots,c_{i-1})$から推定する.これをバックオフスムージングという\cite{Kita96}.バックオフスムージングには,種々の方法があるが,それらは,ディスカウントといって,頻度が0より大きいn-gramの頻度から幾らか割引いて,割引いた分を頻度が0のn-gramに分け与える方法により特徴付けられる(これにより頻度が0のn-gramの確率が0より大きくなる).そのディスカウントの一手法がWitten-Belldiscountingである.また,カットオフとは,ある値$x$以下の頻度で生起したn-gramの頻度を0として確率を計算する場合の$x$のことである.カットオフ以下の頻度のn-gramは,頻度が0として扱われるが,バックオフスムージングにより0より大きい確率が付与される.}.一方,実験3においては,最尤推定により求めた確率により尺度$L$を計算した.その理由は,尺度$L$以外の尺度においては,通常,最尤推定を用いて,確率を計算しているので,それに合せるためである.また,比較を簡単にするために,$n=2$の場合について各種の尺度を比較した.\subsubsection*{コーパス}実験1,2,3で共通に用いるコーパスは京都大学テキストコーパスversion2.0\cite{kurohashi98}である.京都大学テキストコーパスは,CD-毎日新聞95年度版から約2万文を抽出したものであり,形態素・構文解析されている.このコーパスを均等に2分割し,実験に用いた.以下では,その一方を京大コーパスAと呼び,他方を京大コーパスBと呼ぶ.京大コーパスAは主に確率推定のための訓練コーパスとして用い,京大コーパスBは主に過分割の検出精度を評価するためのテストコーパスとして用いた.\subsection{実験1:目視による尺度$L$の評価}\label{sec:look}実験1では,定性的な評価として,種々の形態素解析システムの解析結果,および,人手修正されたコーパスについて尺度$L$を適用し,目視により適用結果を評価した.\subsubsection*{実験材料:コーパスと形態素解析システム}\paragraph{教師なし学習の場合}教師なし学習では,確率推定用の訓練コーパスと過分割検出用のテストコーパスとが同一である.つまり,確率を推定したコーパス中における過分割を検出する.このときのコーパスとしては,京大コーパスBとEDR日本語コーパスversion1.5\cite{edr95}の全文を用いた.なお,EDR日本語コーパスは,新聞・雑誌・辞典などの流通文書から1文単位でとられた約21万文からなるコーパスであり,各文は,形態素・構文・意味解析されている.これらのコーパスにおける生の文を分割する形態素解析システムとしては,公開されている形態素解析システムのうちから,JUMANversion3.5\cite{kurohashi97},茶筅version1.51\cite{matsumoto97},すももversion1.3\cite{washizaka97}を用いた.これらの形態素解析システムは,全て,規則に基づいて形態素解析をするものである.なお,これらの形態素解析システムを用いるときには,ただ一つの(ベストの)解析結果を出力させた.これらのコーパスと形態素解析システムとの組み合わせは,EDRコーパスに対しては,三つの形態素解析システム全てを適用したが,京大コーパスBについては,JUMANのみを適用した\footnote{こうした理由は,京大コーパスは主に実験2,3における定量的な評価に使用することを意図したものであり,実験1では,EDRコーパスを主な対象としたからである.}.また,二つのコーパスの元々の分割(人手修正済みの分割)についても試した.すなわち,全部で6種の形態素分割に対して尺度$L$を適用した.\paragraph{教師あり学習の場合}教師あり学習では,確率推定用の訓練コーパスと過分割検出用のテストコーパスとが異なる.実験1では,京大コーパスAの元々の分割(JUMANの解析結果を人手修正したもの)を訓練データとして(\ref{eq:n})式の確率を推定した.そして,その推定値を利用して,JUMANにより形態素解析された京大コーパスBに対して尺度$L$を適用した.\subsubsection*{実験方法}7種(=教師なし6種+教師あり1種)の形態素分割のそれぞれに対して,その全ての分割点について,前後の形態素から尺度$L$を計算した.たとえば,「休/憩室/は/広い/。」のように分割されている文については,四つの分割点において,それぞれ,$L(休,憩室)$,$L(憩室,は)$,$L(は,広い)$,$L(広い,。)$を計算した.このとき,(\ref{eq:n})式の確率は,\ref{sec:overview}節で述べたように,$n=3$としてバックオフスムージングにより計算した.\subsubsection*{実験結果}7種の形態素分割のそれぞれに対して,全ての分割点を尺度$L$により降順に(同一尺度値の場合はランダムにtieを解消して)ソートし,その上位から異なり150個を選んだ\footnote{たとえば,「休/憩室/は/広い/。」と「休/憩室/は/狭い/。」という文があるとき,それぞれの文について,$L(休,憩室)$が求まるが,この二つの$L$は同じ文字列を同じように分割しているので,異なりとしては一つである.ただし,二つの分割点を比べたとき,分割点の前後の形態素の字面は同じであっても,品詞が異なる場合には異なる分割点として扱った.すなわち,たとえば,$L(A,B)$と$L(a,b)$という二つの分割点があり,字面上は,$A=a$,$B=b$であったとしても,$A$と$a$の品詞が異なるか,$B$と$b$の品詞が異なる場合には,それらの分割点は,異なるものとして扱った.そうした理由は,尺度$L$が検出できるのは過分割だけであっても,我々が実際に興味があるのは品詞付けの誤りを含めた形態素解析結果の誤りだからである.}.そして,それぞれの異なりについて,一個の分割点を無作為に抽出し,それが過分割であるかを判定した\footnote{過分割かどうかの判定,すなわち,形態素解析システムによる分割点が実際に切って良いかどうかの判定は,複合名詞について困難であるが,もしも,形態素への分割の結果として生じる括弧付けが,筆者の内省に基づいた括弧付けと交差する(crossbracketing)なら,その分割点による分割は誤り(過分割)とする.たとえば,「東南アジアツアー」は,筆者の内省によれば(((東南)アジア)ツアー)という構造をしているので,「東南/アジアツアー」という分割は過分割とする.なぜなら,この分割では,((東南)(アジアツアー))という構造になるので,括弧が交差するからである.一方,「東南アジア/ツアー」は((東南アジア)ツアー)という構造なので正解とする.なお,分割の正誤の判定が困難なものについては,品詞を参照し,もし品詞が誤っていたら分割も誤りとした.ただし,上位異なり150個については,付録の表\ref{tab:edr}から表\ref{tab:cv}にある例と同様に,形態素の途中で分割されているものがほとんどであるので,分割の正誤の判定に迷うような例は少ない.}.なお,判定は筆者による.\begin{table}[htbp]\begin{center}\caption{上位異なり150分割点における過分割の数}\begin{tabular}{|l|l|l|c|}\hline学習方法&コーパス&解析システム&過分割の数\\\hline\hline教師なし&EDR&人手(元々の分割)&43\\&&JUMAN&126\\&&茶筌&128\\&&すもも&125\\\cline{2-4}&京大コーパスB&人手(元々の分割)&49\\&&JUMAN&98\\\hline教師あり&京大コーパスB&JUMAN&125\\\hline\end{tabular}\label{tab:errs}\end{center}\end{table}判定した150個の分割点について,それが実際に過分割であった数を表\ref{tab:errs}に示す.表から分かるように,これら150個の中に過分割が占める割合は非常に高い.たとえば,表\ref{tab:errs}では,茶筅には128個の過分割がある.一方,平均的には,茶筌の分割が過分割であるのは,1.5%以下であると言ってよい\footnote{\cite{fuchi98}によると,茶筌のEDRコーパスにおける形態素解析結果の適合率(=100$\times$(茶筌の形態素解析結果の形態素で正解と一致したものの数/茶筌の形態素解析結果の形態素の総数))は,字面が一致していた場合を一致とすると,98.5%である.ここで,形態素の適合率は,実験2でも示すように,分割点の適合率よりも低くなる.なぜなら,形態素が一致するためには,その前後の分割点も一致しなくてはならないため,形態素が一致するというのは,分割点の一致よりも厳しい条件であるからである.そのため,分割点が過分割であるのは1.5%以下と言って良い.}.つまり,茶筅の150個の分割点のうちで,過分割は,平均的には,$150\times0.015=2.25$個以下である.よって,茶筅の解析結果から128個の過分割を検出するためには,平均的には,$(128/2.25)\times150\simeq8533$個以上の分割点を調べなければならないことになる.同様なことが,他の形態素解析システムによる分割結果,あるいは,人手で修正された分割結果についても言える.これより,尺度$L$を用いることにより,形態素解析結果から過分割を効率的に抽出できるといえる.なお,表\ref{tab:errs}において,JUMANで解析された京大コーパスBからの過分割検出結果について,教師なし学習の場合と教師あり学習の場合とを比べると,教師あり学習の方が検出個数が多い.これは,教師あり学習の方が,(\ref{eq:n})式の値を正確に推定できるからであると解釈できる.さらに,教師なし学習の場合の6種の形態素分割のそれぞれについて,上位異なり150個中の過分割から上位12個の過分割を付録の表\ref{tab:edr}と表\ref{tab:kyoto2.0}に示す.表で「数」とある欄には,そのような過分割を含む文の数がある.また,「形態素/品詞」とある二つの欄は,尺度$L$を計算した分割点の前後の形態素と品詞を示す.なお,品詞は,それぞれの形態素解析システムの品詞である.また,表の解析結果は,各解析システムが一つだけ解析結果を出力した場合のものである.もし,複数の解析結果も出力するようにすれば,表中の文について,当該の形態素解析システムが正解を含む解を出すことはある.これらの表に示されている過分割の中には,何らかの規則性があるとすぐに分るものもある.たとえば,EDRコーパスの元々の分割に含まれる過分割(表\ref{tab:edr})においては,「引き下げ/よう」が「引き下/げ/よう」と分割されていたり,「掲げ/、」が「掲/げ/、」のように分割されるなど,動詞の語幹が分割される例が大半である\footnote{EDRコーパスの元々の分割においては,「掲げ、」という文字列を含む文が14例あるが,そのうち表\ref{tab:edr}の1例のみが,「掲/げ/、」という分割であり,その他の13例は,「掲げ/、」という分割である.このことは「掲/げ/、」が過分割であることを傍証している.これと同様なことが,表\ref{tab:edr}のその他の例についても言える.なお,「掲げ/、」という分割を含む例には,「虹/を/描/い/た/旗/を/掲げ/、/高らか/に/歌/う/。」や「独特/の/理想/を/掲げ/、/実行/し/た/人/だっ/た/。」のような例がある.}.一方,EDRコーパスに対する茶筌の過分割では,「結果」が「結(普通名詞)/果(普通名詞)」と分割されていたり,「考えて」が「考(普通名詞)/えて(普通名詞)」と分割されているが,このような例に含まれる規則性は,もしあったとしても,容易には分らない.いずれにしろ,尺度$L$を使うことにより,ある程度の量の,形態素解析結果の過分割が,教師なし学習により容易に抽出できることが分かる.このような例を集めるのは人手では手間が掛る.また,尺度$L$は人手修正後のコーパスに残る過分割も検出できるため,コーパス作成・整備の際の補助ツールとしても役立つと考える.また,付録の表\ref{tab:cv}には,教師あり学習の場合について,尺度$L$の値が上位12個の過分割を示す.ここで,教師あり学習の結果である表\ref{tab:cv}におけるJUMANの過分割と,教師なし学習の結果である表\ref{tab:kyoto2.0}におけるJUMANの過分割とを比べると,表\ref{tab:cv}においては「護/煕」など固有名詞が占める割合が多いが,表\ref{tab:kyoto2.0}では固有名詞は一つ(「若/乃/花」)しか存在しないことがわかる.表\ref{tab:kyoto2.0}に固有名詞が少ないのは,固有名詞は未知語である場合が他の品詞と比べて多いため,常に過分割される場合も多くなり,その結果として尺度$L$の値が小さくなる場合が多いためである.このように,形態素解析システムが常に過分割してしまうような場合を検出するためには,人手修正済みコーパスが必要であると言える.\subsection{実験2:過分割検出精度の定量的評価}\label{sec:size}教師なし学習により何か統計的に興味のある言語現象を発見するような応用\cite[など]{shiNnou95,ikehara95,shimohata95,hisamitsu97}においては,新聞記事などの大規模なコーパスが比較的用意に入手できるので,訓練コーパスのサイズは深刻な問題ではない.これは本稿における過分割検出の場合でも同様である.しかし,教師あり学習の場合には,訓練コーパスを構築するのはコストが掛るため,なるべく小さな訓練コーパスであることが望ましい.そこで,実験2では,主に教師あり学習の場合を対象として,訓練コーパスのサイズと過分割検出精度との関係を調べた.ただし,教師なし学習の場合についても,教師あり学習と比較するために,訓練コーパスのサイズと過分割検出精度との関係を同様に調べた.\subsubsection*{実験材料:コーパス}確率推定用の訓練コーパスとしては京大コーパスAを用い,過分割検出の精度を調べるテストコーパスとしてはJUMANにより分割された京大コーパスBを用いた.このことは,教師あり学習と教師なし学習とで共通である.ただし,教師あり学習では京大コーパスAの元々の分割から(\ref{eq:n})式の確率を推定し,教師なし学習では,京大コーパスAをJUMANにより形態素解析した結果から(\ref{eq:n})式の確率を推定した\footnote{教師なし学習において,京大コーパスAを訓練コーパスにした場合と,京大コーパスBをJUMANにより形態素解析した結果を訓練コーパスとした(訓練コーパスとテストコーパスが同一の)場合とでは,(後述する(\ref{eq:examination})式で定義する分割点調査率の意味における)過分割検出精度は,ほぼ等しい.}.\paragraph{テストコーパスの各種統計}テストコーパスである京大コーパスBについて,その元々の分割を正解と看倣して\footnote{実験1で見付けた過分割についても修正はしていない.},分割の正誤を判定したときの統計を表\ref{tab:stat}に示す.\begin{table}[htbp]\begin{center}\caption{京大コーパスBにおける分割点についての統計}\begin{tabular}{|lr|}\hline正解における分割点の数&232572\\JUMANによる分割点の数&233048\\一致した分割点の数&231816\\分割点の再現率&99.7%\\分割点の適合率&99.5%\\\hline過分割の数&1232\\分割不足の数&756\\分割の間違いの数(過分割の数+分割不足の数)&1988\\100$\times$(過分割の数/分割の間違いの数)&62.0%\\100$\times$(過分割の数/JUMANによる分割点の数)&0.5%\\\hline\end{tabular}\label{tab:stat}\end{center}\end{table}表\ref{tab:stat}より,分割の間違いに占める過分割は62.0%である.加えて,過分割の周辺には分割不足も起りやすいと言えるので,過分割が検出できれば,その周囲も調べることにより,分割誤りの多くが検出できると言える.しかし,分割点の再現率(=100$\times$(一致した分割点の数/正解における分割点の数))と適合率(=100$\times$(一致した分割点の数/JUMANによる分割点の数))は,それぞれ,99.7%,99.5%と非常に高い\footnote{参考のため,\cite{nagata94}の基準による,形態素の再現率(=100$\times$(一致した形態素の数/正解における形態素の数))と適合率(=100$\times$(一致した形態素の数/JUMANによる形態素の数))を求めると,それぞれ,99.1%と98.9%になる(ただし,字面が一致していれば形態素が一致したと看倣す).これらからも分るように,形態素の再現率と適合率とは分割点のものに比べて低い.}.また,JUMANの分割点全体の中で過分割である分割点は0.5%(=100%$-$適合率)であるので,過分割を見付けるのは人手では困難であると考える.\subsubsection*{実験方法}約1万文からなる訓練コーパスから,約1000,2000,...,10000文を選び,それぞれの場合について,$n=3$としてバックオフスムージングにより(\ref{eq:n})式の確率を推定し,それを利用して約1万文からなるテストコーパスにおける全分割点の尺度$L$の値を計算した.そして,全ての分割点を尺度$L$により降順にソートし,上位の分割点から,過分割かどうかを,テストコーパスの元々の分割を正解として調べた.\subsubsection*{実験結果}まず,全訓練データを使用した場合についての実験結果を述べ,次に訓練データを1000文ずつ増加した場合についての実験結果を述べる.\paragraph{全訓練データを使用した場合}図\ref{fig:10000}には,約1万文の訓練データ全てを使って確率推定した場合について,教師あり学習と教師なし学習のそれぞれについて,過分割検出の再現率(percentrecall)に対する適合率(percentprecision)および分割点調査率(percentexamination)を示す.ここで,\begin{displaymath}\label{eq:recall}再現率=100\times\frac{検出された過分割の数}{テストコーパスにおける過分割の数},\end{displaymath}\begin{displaymath}\label{eq:precision}適合率=100\times\frac{検出された過分割の数}{尺度Lの上位から順番に調べた分割点の数},\end{displaymath}\begin{equation}\label{eq:examination}分割点調査率=100\times\frac{尺度Lの上位から順番に調べた分割点の数}{テストコーパスにおける全分割点の数}.\end{equation}\begin{figure}[htbp]\begin{center}\epsfile{file=10000.eps}\caption{再現率と適合率/分割点調査率}\label{fig:10000}\end{center}\end{figure}図\ref{fig:10000}の教師あり学習の場合の適合率(supervised-precision)および教師なし学習の場合の適合率(unsupervised-precision)のプロットから分かるように,上位における過分割検出の適合率は非常に高い.たとえば,再現率が10.0%のとき,適合率は,教師あり学習の場合に90.5%であり,教師なし学習の場合に46.8%であるが,これらは,JUMANの分割点全体の中で過分割が占めるパーセンテージである0.5%の,180倍以上,および,90倍以上である.この適合率の高さは,実験1での結果を裏付けるものである.また,図\ref{fig:10000}の教師あり学習の場合の分割点調査率(supervised-examination)および教師なし学習の場合の分割点調査率(unsupervised-examination)から分かるように,一部の分割点を調べるだけで多くの過分割を検出できると言える.たとえば,全体の過分割のなかから再現率50%で過分割を見付けるためには,教師あり学習の場合には,全分割点の0.5%を調べればよく,教師なし学習の場合には,全分割点の2.0%を調べればよい.さらに,90%の過分割を見付けるためには,教師あり学習の場合には,全分割点の7.8%を調べればよく,教師なし学習の場合には,全分割点の12.2%を調べればよい.一方,もし,無作為に分割点を調べるという方法により,過分割を検出しようとしたならば,50%の過分割を見付けるためには,平均的には,全分割点の50%を調べる必要があり,90%の過分割を見付けるためには,90%の分割点を調べる必要がある.以上より,尺度$L$を使うことにより,過分割の検出が効率良くできると言える.なお,再現率,適合率,分割点調査率の間には\begin{equation}\label{eq:rel}適合率=K\times\frac{再現率}{分割点調査率}.\end{equation}という関係が成立する.ただし,$K$はテストコーパスに固有の定数であり,\begin{displaymath}K=100\times\frac{テストコーパスにおける過分割の数}{テストコーパスにおける全分割点の数}.\end{displaymath}(\ref{eq:rel})式から,分割点調査率と再現率が決まれば適合率が決まることが分かる(e.g.,分割点調査率が小さければ適合率は高い).そのため,以下では,再現率に対する分割点調査率のみに基づいて過分割の検出精度を評価する.そして,同一の再現率に対して分割点調査率が小さいとき過分割の検出精度が高いと言い,その逆のときに過分割の検出精度が低いと言うことにする.\paragraph{1000文ずつ訓練データを増やした場合}図\ref{fig:incr-exam}には,過分割検出の再現率が25,50,75%の場合(recall25,recall50,recall75)について,教師あり学習の場合と教師なし学習の場合における,訓練文数(Num.oftrainingsentences)と分割点調査率の関係を示す.\begin{figure}[htbp]\begin{center}\vspace{1mm}\epsfile{file=exam25-50-75.eps}\vspace{2mm}\caption{訓練データを増やした場合の再現率と分割点調査率}\label{fig:incr-exam}\end{center}\end{figure}図\ref{fig:incr-exam}から,教師あり学習の場合(supervised-recall25,50,75)については,訓練文数が増加すると,再現率が50%と75%においては,分割点調査率が明確に減少していると言える.また,再現率が25%についても緩やかに分割点調査率は減少している.一方,教師なし学習の場合(unsupervised-recall25,50,75)については,訓練文数が増えていっても,2000文以上については,分割点調査率は(若干の変動はあるが)ほぼ横ばいである.このことは,教師あり学習については,訓練データが多くなれば多くなるだけ,(\ref{eq:n})式の確率を精密に推定できるが,教師なし学習については,訓練データが多くなったとしても,その確率推定に対する効果は,教師あり学習の場合に比べれば,小さいことを示している.\vspace{17mm}\subsection{実験3:各種尺度の比較}\label{sec:comp}実験3では,尺度$L$,相互情報量,尤度比,改良Dice係数\cite{kitamura97},Yates補正された$\chi^2$,の五つの尺度について,過分割の検出精度を比較した.ここで,尤度比,改良Dice係数,Yates補正された$\chi^2$は,\cite{hisamitsu97}において,有用な括弧表現を抽出するために有効であるとされた尺度である.また,尤度比は,\cite{kageura97}でも,2文字間の連関の尺度として,漢字列の分割に有効であることが示されている.以下では,まず,本実験のテストコーパスとした京大コーパスBについて,そこでの分割点の出現頻度の統計について述べる.この出現統計は,あとで,各尺度間の過分割検出精度の違いを説明するときの資料に用いる.次に,各尺度を定義し比較する.\subsubsection*{テストコーパスにおける分割点の出現統計}形態素$A$の最後の文字を$a$,形態素$B$の最初の文字を$b$とし,$a$と$b$に挟まれるような分割点を,前後1文字で区別される分割点と呼ぶ.実験3では,分割点といえば,前後1文字で区別される分割点のこととする.つまり,「ab/cd」と「xb/cy」のような分割点は,分割点の前後1文字が同じであるので,区別しないで同一タイプの分割点として扱う.表\ref{tab:freq}は,テストコーパスとした京大コーパスBにおける分割点について,過分割である分割点とそうでない分割点のそれぞれに対して,出現頻度ごとの,分割点の異なり数などを調べたものである.ここで,分割点の総数を$F$,頻度$r$における分割点の異なり数を$k_r$とすると,頻度$r$における延べ数は$f_r=r\timesk_r$であり,$F=\sum_rf_r$である.表\ref{tab:freq}では,頻度$r$における「延べ%」は$100\timesf_r/F$であり,「累積%」は$\sum_{s=1}^{r}100\timesf_s/F$である.\begin{table}[htbp]\begin{center}\caption{京大コーパスBにおける分割点の出現統計}\begin{tabular}{|c||ccc|ccc|}\hline&\multicolumn{3}{c|}{過分割である分割点}&\multicolumn{3}{c|}{過分割でない分割点}\\\cline{2-7}\raisebox{1.5ex}[0pt]{頻度}&異なり数&延べ%&累積%&異なり数&延べ%&累積%\\\hline1&645&52.4&52.4&24180&10.4&10.4\\2&104&16.9&69.2&7187&6.2&16.6\\3&29&7.1&76.3&3579&4.6&21.3\\4&11&3.6&79.9&2133&3.7&24.9\\5&9&3.7&83.5&1413&3.0&28.0\\6&5&2.4&86.0&1062&2.7&30.7\\7&2&1.1&87.1&764&2.3&33.0\\8&3&1.9&89.0&644&2.2&35.3\\9&1&0.7&89.8&496&1.9&37.2\\10&1&0.8&90.6&411&1.8&39.0\\\hline11以上&8&9.4&100.0&3586&61.0&100.0\\\hline\end{tabular}\label{tab:freq}\end{center}\end{table}表\ref{tab:freq}から,過分割である分割点の出現頻度は,そうでない場合に比べて,低頻度であると言える.これは,過分割である分割点の数自体が少ないことが主な原因である.また,過分割である場合とそうでない場合の分布の様子を比べると,過分割である分割点の場合には,頻度が1か2であるような場合が全体の50%以上を占めていることから分かるように,低頻度の方に分布が偏っている.\subsubsection*{各尺度の定義}まず,$n=2$として,(\ref{eq:n})式を用いて,(\ref{eq:L})式を変形すると,\begin{equation}\label{eq:Ln2}L(A,B)=\log\frac{\Pr(a_k,b_1)}{\Pr(a_k,\E)\Pr(\B,b_1)}\end{equation}となる.一方,(\ref{eq:mi})式を同様に変形すると\begin{displaymath}MI(A,B)=\log\frac{\Pr(\E,\B)}{\Pr(\E)\Pr(\B)}\end{displaymath}という無意味な値になるので,区切り文字とそれに隣接する文字は特に強く結合すると仮定し,\begin{displaymath}\Pr(\B,c_1,\ldots,c_k,\E)=\Pr(\B,c_1)\Pr(c_2|\B,c_1)\cdots\Pr(\E,c_k|c_{k-1})\end{displaymath}のような変形をすると,\begin{equation}\label{eq:MIn2}MI(A,B)=\log\frac{\Pr(a_k,\E,\B,b_1)}{\Pr(a_k,\E)\Pr(\B,b_1)}\end{equation}となる.なお,以下では,$a=a_k$,$b=b_1$とする.(\ref{eq:MIn2})式から,$n=2$においては,相互情報量$MI(A,B)$は,$a\E$と$\Bb$をそれぞれ一つの項と看做せば,この2項に関する通常の相互情報量の式と一致することがわかる.そこで,尤度比,改良Dice係数,Yates補正された$\chi^2$についても,これら2項に基づいて,その値を計算する.以下では,\cite{hisamitsu97}に基づいて,尤度比,改良Dice係数,Yates補正された$\chi^2$を定義する.また,尺度$L$と相互情報量についても,確率を最尤推定した形で定義する.各尺度を定義する準備として,まず,$f_{ij}(i,j=1,2)$は,分割表で示すと\begin{quote}\begin{tabular}{|l|c|c|}\hline&後続文字が$\Bb$&後続文字が$\Bb$以外\\\hline先行文字が$a\E$&$f_{11}$&$f_{12}$\\\hline先行文字が$a\E$以外&$f_{21}$&$f_{22}$\\\hline\end{tabular}\end{quote}である.より厳密には,$f(\cdots)$を文字列の頻度とし,$v,w,x,y$を,$\B$と$\E$を含む任意の文字としたとき,\begin{displaymath}\begin{array}{rcl}f_{11}&=&f(a,\E,\B,b)\\f_{12}&=&\sum_{xy\ne\Bb}f(a,\E,x,y)\\f_{21}&=&\sum_{vw\nea\E}f(v,w,\B,b)\\f_{22}&=&\sum_{vwxy}f(v,w,x,y)-f_{11}-f_{12}-f_{21}\end{array}\end{displaymath}である.また,\begin{displaymath}\begin{array}{rcl}f_{i.}&=&f_{i1}+f_{i2}\\f_{.j}&=&f_{1j}+f_{2j}\\F&=&\sum_{i,j}f_{ij}\end{array}\end{displaymath}である.\paragraph{尤度比}ここでの「尤度比」は,$a\E$と$\Bb$の2項が従属とした場合と独立とした場合との最尤推定量による尤度比であり,\begin{equation}\label{eq:lambda}\lambda=2\sum_{i,j}f_{ij}\left\{\log\frac{f_{ij}}{F}-\log\frac{f_{i.}f_{.j}}{F^2}\right\}\end{equation}である.なお,上式では,分割点のソートに無関係な項は除いてある.$\lambda$は,2項が従属して生起する度合が強いとき,正で大きな値をとる.しかし,これだけでは必ずしも共起強度が強いとは言えない.たとえば,\begin{tabular}{|l|l|}\hline10&1\\\hline1&10\\\hline\end{tabular}と\begin{tabular}{|l|l|}\hline1&10\\\hline10&1\\\hline\end{tabular}は同じ$\lambda$となる.これらのうち前者は共起強度が強いが,後者は弱い(反発している).このことを考慮して,$\lambda>0$のときには,\cite{kageura97}と同様に,Yuleの$Y(=\frac{\sqrt{f_{11}f_{22}}-\sqrt{f_{12}f_{21}}}{\sqrt{f_{11}f_{22}}+\sqrt{f_{12}f_{21}}})$の符合を付けることにより,分割点をソートした.\paragraph{Yates補正された$\chi^2$}$\lambda$と同様に独立性の判定に用いられる尺度である.\begin{equation}\label{eq:chi2}\chi^2=\frac{F(|f_{11}f_{22}-f_{12}f_{21}|-F/2)^2}{f_{1.}f_{2.}f_{.1}f_{.2}}\end{equation}なお,$\chi^2$に関しても,$\lambda$と同様な理由から,Yuleの$Y$の符合を付けて分割点をソートした.\paragraph{改良Dice係数}\cite{kitamura97}で,対訳単語間の類似度として,提案されている尺度である.\begin{equation}\label{eq:dice}\mbox{改良Dice係数}=(\logf_{11})\frac{2f_{11}}{f_{1.}+f_{.1}}.\end{equation}\paragraph{相互情報量}(\ref{eq:MIn2})式より,分割点のソートに無関係な項は除くと,\begin{equation}\label{eq:mi2}MI^\prime=\log\frac{f_{11}}{f_{1.}f_{.1}}.\end{equation}\paragraph{尺度$L$}(\ref{eq:Ln2})式より,分割点のソートに無関係な項は除くと,\begin{equation}\label{eq:L2}L^\prime=\log\frac{f(a,b)}{f_{1.}f_{.1}}\end{equation}ここで,上記の各尺度について,もし,$f_{ij}=0$,あるいは,$f(a,b)=0$となる場合には,それぞれを0.1として計算した.\subsubsection*{教師なし学習の場合での各尺度の比較}各尺度について,JUMANにより形態素解析された京大コーパスBを訓練およびテストコーパスとして,過分割の再現率に対する分割点調査率を評価した結果を図\ref{fig:unsup-cmp}に示す.図\ref{fig:unsup-cmp}から分るように,改良Dice係数(Dice),$\lambda$(lambda),$\chi^2$(chi^2)の分割点調査率は,$L^\prime$や$MI^\prime$と比べて大きい.すなわち,過分割検出精度は低い.この原因は,これらの尺度が,統計的に有意と言えないような低頻度の共起関係をノイズとして排除するような尺度であるからである.すなわち,頻度が1とか2とかの共起関係の尺度値は,これらの尺度では大きくならない\footnote{特に,改良Dice係数では,頻度が1の共起関係については,値が0となる}ため,(表\ref{tab:freq}に示されるように)低頻度である過分割が排除されるためである.このような性質は,\cite{hisamitsu97}や\cite{kageura97}や\cite{kitamura97}のような,一般的に共起強度が高い共起関係を必要とするような応用に対しては適していたが,低頻度事象である過分割を検出するには適さない.一方,$MI^\prime$の過分割検出精度は,再現率50%程度のところまでは,$L^\prime$とほぼ同じである(実際には若干低い).これは,$MI^\prime$が低頻度の共起関係を過大評価する\cite{hisamitsu97}からであろう.つまり,再現率が低いところでは,低頻度で,かつ,共起強度の強い表現を選択的に拾ってくるが,そのようなものは過分割であることが多いため,検出精度が高いと解釈できる.しかし,再現率が上ってくると,比較的頻度が高い過分割も増えてくるため,共起強度だけでは,過分割なのか,そうでない分割かが区別できなくなり,検出精度が下がると言える.これらの尺度に対して,$L^\prime$は,分割されるか分割されないかを直接モデル化した尺度であるため,再現率が高くなっても検出精度が高いものと考える.\begin{figure}[htbp]\begin{center}\vspace{4mm}\epsfile{file=measure-exam.eps}\vspace{1mm}\caption{過分割の再現率と分割点調査率(教師なし学習)}\label{fig:unsup-cmp}\end{center}\end{figure}\begin{figure}[htbp]\begin{center}\vspace{3mm}\epsfile{file=sup-measure-exam.eps}\vspace{1mm}\caption{過分割の再現率と分割点調査率(教師あり学習)}\label{fig:sup-cmp}\end{center}\end{figure}\vspace{-3mm}なお,筆者は,予備実験として,相互情報量とYate補正した$\chi^{2}$を,隣接する形態素間について,(文字ではなく)形態素を単位とする2項関係に基づいて計算してみたが,その性質は尺度$L$とは非常に異なっていた.相互情報量の性質とYate補正した$\chi^{2}$の性質とは,互いに若干は異なるが,おおまかには,二つの尺度とも,固有名詞(「福沢/諭吉」など)や四字熟語(「不眠/不休」など)を取ってくる傾向が強かった.これらの隣接形態素は,それ自体は有用な表現ではあるが,これらの隣接形態素間の分割が間違っているわけではないので,本稿での目的である過分割の検出には適さない.その他,共起や定型表現を抽出する研究として,特に文字列レベルに関係するものでは,\cite[など]{shiNnou95,ikehara95,shimohata95}がある.これらの研究では,大量の生テキストコーパスから,統計量を用いることにより,「に関して」や「に対しては」などの定型的な表現を抽出する.これらの表現は有用な表現ではあるが,「に対して」を「に/対/し/て」と分割しても,過分割ではないことからも分るように,これらの手法は,本稿での目的である過分割の検出には適さない.\subsubsection*{教師あり学習の場合での各尺度の比較}各尺度に対して,京大コーパスAの元々の分割を訓練コーパス,京大コーパスBをテストコーパスとして,過分割の再現率に対する分割点率調査を評価した結果を図\ref{fig:sup-cmp}に示す.図\ref{fig:sup-cmp}では,図\ref{fig:unsup-cmp}と同様に尺度$L$の分割点調査率が一番小さい.そして,図\ref{fig:sup-cmp}と図\ref{fig:unsup-cmp}を比べると,尺度$L$については,図\ref{fig:sup-cmp}の教師あり学習の方が図\ref{fig:unsup-cmp}の教師なし学習の場合よりも分割点調査率が小さい.一方,尺度$L$以外の尺度については,教師あり学習の方が分割点調査率は大きくなっている.これは,教師あり学習の場合の方が,教師なし学習の場合よりも,テストコーパスにおいて,過分割の前後の文字の共起強度が小さいことを示している.この理由は,教師あり学習においては,訓練コーパスで過分割であるような分割点が人手により除かれているため,テストコーパスで過分割であるような分割点は訓練コーパスで出現することが稀となり,その結果,共起強度が小さくなるからである.このことから,尺度$L$以外の尺度については,教師あり学習をしても過分割検出精度が高くならないことが分かる.
\section{考察と今後の課題}
\label{sec:discussion}\subsubsection*{確率推定法と尺度$L$}本稿の実験では,(\ref{eq:n})式の確率を推定するために,\ref{sec:overview}節に述べたような$n$の値と確率推定法を用いたが,確率推定の方法には,最尤推定やバックオフスムージングの他にも様々な方法があり,さらに,バックオフスムージングについても様々なdiscountingの方法があるので,これらを適用した場合の尺度$L$の過分割検出精度について網羅的に調べることを今後の課題としたい.本稿でこのことを網羅的に調べなかった理由は,本稿での主要な目的は,\ref{sec:introduction}章で述べたように,従来の研究で人手で発見されることが前提となっていた過分割を,尺度$L$を用いることにより半自動的に抽出できることを示すことにあったので,そのことを示すためには,なんらかの(代表的な)確率推定法を利用した場合について示すだけで十分であったからである.すなわち,確率推定法の優劣(尺度$L$と併用したときの過分割検出精度の良否)を調べることは副次的な事柄であったからである.なお,予備実験として,京大コーパスを利用し,\begin{itemize}\itemn=2,または,n=3\itemWitten-Belldiscountingによるバックオフスムージング,または,最尤推定\end{itemize}から作られる四つの組合せのそれぞれについて(\ref{eq:n})式の確率を推定し,尺度$L$による分割点調査率を調べた結果は,教師あり学習と教師なし学習の双方について,$n=2$に最尤推定を組み合わせたものと$n=3$にバックオフスムージングを組み合わせたものとがほぼ等しく良く(教師なし学習では前者が若干良く,教師あり学習では後者が若干良い),その他の組み合わせ($n=3$と最尤推定および$n=2$とバックオフスムージング)は,この二つよりも劣っていた.このような結果の原因としては,$n$や確率推定法の違いの他に,訓練データのサイズが約1万文と比較的少ないことが影響していると考えられる.\subsubsection*{確率に基づく形態素解析システムへの適用}確率に基づいた形態素解析システム(あるいは単語分割システム)には,文字の連鎖確率に基づいたシステム\cite{yamamoto97,oda98}と単語や品詞の連鎖確率に基づいたシステム\cite[など]{nagata94,itoh97,mori98}がある.\cite{yamamoto97,oda98}では,本稿とは実現手法は異なるが,形態素境界の情報を文字に取り込むことにより,文字列により形態素列を表現している.そして,入力文に対して,(形態素境界情報を含む)文字の連鎖確率が最大になるような解を求めることにより,最適な形態素列を得ている.一方,\cite[など]{nagata94,itoh97,mori98}では,単語や品詞n-gramに基づいて形態素解析をしており,文字情報を直接用いているのは未知語モデルに限定されている.これらの形態素解析システムの解析結果からも尺度$L$が過分割を検出できるかを調べることは今後の課題であるが,\cite{yamamoto97,oda98}と\cite[など]{nagata94,itoh97,mori98}を比べた場合,前者は,文字の連鎖確率を直接用いて形態素列への分割を行なっている点が,尺度$L$と極めて類似しているため,前者に尺度$L$を適用した場合の過分割検出精度は,(文字レベルでの分割の最適化を行なっていない)後者に適用した場合と比較して劣ることが予想される.しかし,\cite[など]{nagata94,itoh97,mori98}の品詞や単語のn-gramに基づくシステムに尺度$L$を適用した場合についても,規則に基づく形態素解析システムに比較すれば,最適な形態素列を求めるときに,可能な分割を相互に比較し最高確率のものを出すという形で,尺度$L$に用いた情報が既に用いられているとも言えるため,尺度$L$の有効性は低いと予想される.\subsubsection*{分割不足の検出}筆者は,予備実験として,実験1,2と同様の確率推定法で,JUMANにより解析された京大コーパスB全体を訓練およびテストコーパスとして,教師なし学習での確率推定値を用い,尺度$L$により分割不足の検出を試みた.つまり,尺度$L$の値が小さい位置が形態素として結合されている場合について,それが実際に分割不足かを確かめた.その結果は,分割不足の再現率が10%の時点で,既に適合率が4%であり,実験2における,再現率が10%のときの適合率が47%と比べて非常に劣っていた.その理由の一つは,形態素解析システム中の形態素に比較的長い単位が多く,かつ,分割不足として抽出されたものの多くが,その長い単位の形態素を短い単位に分割しようとしているためである.たとえば,分割不足として抽出されたものの上位には,'/'が候補位置とすると,「穴を/あけた」「目を/見張る」「あっという/間」などがある.このような場合と,明確に間違いである分割不足とを区別することは尺度$L$には不可能なので,尺度$L$により分割不足を検出するのは,過分割の場合ほどには上手くいかない.
\section{おわりに}
\label{sec:conclusion}本稿では,形態素解析結果から過分割を検出する統計的尺度を提案した.その尺度は,文字列に関する尺度であり,文字列が分割される確率と分割されない確率との比に基づいていて,分割されにくい文字列ほど大きな値となる.したがって,この値が大きい文字列は過分割されている可能性が高い.提案尺度を使うことにより,規則に基づいた形態素解析システムの解析結果から高精度で過分割を検出できたし,人手で修正されたコーパスに残る過分割も検出できた.また,提案尺度の過分割検出精度は,その他の統計的尺度と比べて高かった.これらのことは,提案尺度が,形態素解析システムの高精度化に役立つこと,及び,コーパス作成・整備の補助ツールとして役立つことを示している.今後は,提案尺度を実際に使い,形態素解析システムの精度向上やコーパスの整備に役立てたい.\acknowledgment本稿に対して有益なコメントを下さった筑波大学山本幹雄助教授,および,日頃議論して下さる信州大学音声信号処理研究室の各位に感謝する.本稿では,一般に公開されている,JUMAN,茶筌,すもも,京都大学テキストコーパス,CMU-CambridgeToolkitを利用させていただいた.このことに対して関係者の方々に感謝する.\appendix\input{tab2-short_2.tex}\bibliographystyle{jnlpbbl}\bibliography{v06n7_01}\begin{biography}\biotitle{略歴}\bioauthor{内山将夫}{筑波大学第三学群情報学類卒業(1992).筑波大学大学院工学研究科博士課程修了(1997).信州大学工学部電気電子工学科助手(1997).郵政省通信総合研究所非常勤職員(1999).博士(工学).}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V18N02-01 | \section{はじめに}
確率的言語モデルは,統計的手法による仮名漢字変換\cite{確率的モデルによる仮名漢字変換}\cite{Google.IME}\cite{漢字かなのTRIGRAMをもちいたかな漢字変換方法}や音声認識\cite{音声認識システム}\cite{Self-Organized.Language.Modeling.for.Speech.Recognition}などに広く用いられている.確率的言語モデルは,ある単語列がある言語でどの程度自然であるかを出現確率としてモデル化する\footnote{単語の定義に関しては様々な立場がある.本論文では,英語などの音声認識の言語モデル\cite{Self-Organized.Language.Modeling.for.Speech.Recognition}と同様に,ある言語においてなんらかの方法で認定される文字列と定義する.}.仮名漢字変換においては,確率的言語モデルに加えて,仮名漢字モデルが用いられる.仮名漢字モデルは,入力記号列と単語の対応を記述する.音声認識では,仮名漢字モデルの代わりに,発音と単語の対応を記述する発音辞書と音響モデルが用いられる.確率的言語モデルの推定のためには,システムを適応する分野の大量のテキストが必要で,その文は単語に分割されている必要がある.このため,日本語を対象とする場合には,自動単語分割や形態素解析が必要であるが,ある程度汎用性のあるツールが公開されており,辞書の追加などで一般的な分野の言語モデルが構築可能となっている.仮名漢字モデルや発音辞書における確率の推定には,実際の使用における単語の読みの頻度を計数する必要がある.しかしながら,読み推定をある程度の汎用性と精度で行うツールは存在しない\footnote{音声認識では発音が必要で,仮名漢字変換では入力記号列が必要である.これらは微妙に異なる.本論文では,この違いを明確にせず両方を意味する場合に「読み」という用語を用いる.}.したがって,仮名漢字モデルを比較的小さい読み付与済みコーパスから推定したり\cite{確率的モデルによる仮名漢字変換},後処理によって,一部の高頻度語にのみ文脈に応じた発音を付与し,他の単語に関しては,各発音の確率を推定せずに一定値としている\cite{音声認識システム}のが現状である.一方で,単語(表記)を言語モデルの単位とすることには弊害がある.例えば,「…するや,…した」という発声が,「…する夜,…した」と書き起こされることがある.この書き起こし結果の「夜」は,この文脈では必ず「よる」と発音されるので,「夜」と書き起こすのは不適切である.この問題は,単語を言語モデルの単位とする仮名漢字変換においても同様に起こる.これは,単語の読みの確率を文脈と独立であると仮定して推定(あるいは一定値に固定)していることに起因する.このような問題を解決するために,本論文では,まず,すべての単語を読みで細分化し,単語と読みの組を単位とする言語モデルを利用することを提案する.仮名漢字変換や音声認識において,単語と品詞の組を言語モデルの単位とすることや,一部の高頻度語を読みで細分化することが行われている\cite{確率的モデルによる仮名漢字変換}\cite{音声認識システム}.提案手法は,品詞ではなく読みですべての単語を細分化することとみなすこともできるので,提案手法は既存手法から容易に類推可能であろう.しかしながら,提案手法を実現するためには,文脈に応じた正確な読みを様々な分野のテキストに対してある程度の精度で推定できる必要がある.このため,提案手法を実現したという報告はない.単語を単位とする言語モデルのパラメータは,自動単語分割の結果から推定される.自動単語分割の精度は十分高いとはいえ,一定の割合の誤りは避けられない.この問題による悪影響を避けるために,確率的単語分割\cite{確率的単語分割コーパスからの単語N-gram確率の計算}という考えが提案されている.この方法では,各文字の間に単語境界が存在する確率を付与し,その確率を参照して計算される単語$n$-gramの期待頻度を用いて言語モデルを構築する.計算コストの削減のために,実際には,各文字間に対してその都度発生させた乱数と単語境界確率の比較結果から単語境界か否かを決定することで得られる擬似確率的単語分割コーパスから従来法と同様に言語モデルが構築される\cite{擬似確率的単語分割コーパスによる言語モデルの改良}.単語と読みの組を単位とする言語モデルのパラメータは,自動単語分割および自動読み推定の結果から推定される.自動単語分割と同様に,自動読み推定の精度は十分高いとしても,一定の割合の誤りは避けられず,言語モデルのパラメータ推定に悪影響がある.これを回避するために,確率的タグ付与とその近似である擬似確率的タグ付与を提案する.実験では,タグとして入力記号列を採用し,単語と入力記号列の組を単位とする言語モデルを用いる仮名漢字変換器を構築し,単語を単位とする言語モデルを用いる場合や,決定的な単語分割や入力記号付与などの既存手法に対する提案手法の優位性を示す.
\section{統計的仮名漢字変換}
\label{section:KKC}統計的手法による仮名漢字変換\cite{確率的モデルによる仮名漢字変換}は,キーボードから直接入力可能な入力記号$\calY$の正閉包$\Bdma{y}\in{\calY}^{+}$を入力として,日本語の文字$\calX$の正閉包である変換候補$(\Bdma{x}_{1},\;\Bdma{x}_{2},\;\cdots)$を確率値$P(\Bdma{x}|\Bdma{y})$の降順に提示する\footnote{一般的な仮名漢字変換フロントエンドと同様に,ローマ字から(主に)平仮名への変換が行われると仮定している.したがって,入力記号は${\calY}=\{A,B,\cdots,Z,0,1,\cdots,9,ぁ,あ,\cdots,ん,ヴ,ヵ,ヶ,ー,=,¥,`,「,」,;,’,、,。,!,@,#,$,%,^,&,*,(,),_,+,|,〜,{,},:,”,<,>,?,・\}$である.}.文献\Cite{確率的モデルによる仮名漢字変換}では文を単語列$\Bdma{w}=\Conc{w}{h}$とみなし,これを単語$w\in{\calX}^{+}$を単位とする言語モデルと仮名漢字モデルに分解して実現する方法を提案している.本節では,まずこれについて説明し,次に単語と読みを組とする言語モデルによる方法を提案し定式化する.\subsection{従来手法}文献\Cite{確率的モデルによる仮名漢字変換}では,変換候補を$P(\Bdma{w}|\Bdma{y})$で順序付けすることを提案しており,これを次の式が示すように,単語を単位とする言語モデルと仮名漢字モデルに分解する\footnote{正確には,単語と品詞の組を単位とする言語モデルを提案している.}.\begin{equation}\label{equation:M1}P(\Bdma{w}|\Bdma{y})=\frac{P(\Bdma{y}|\Bdma{w})P(\Bdma{w})}{P(\Bdma{y})}\end{equation}ここで,後述するパラメータ推定のために,単語と入力記号列との対応関係は各単語において独立であるとの仮定をおく.さらに,分母$P(\Bdma{y})$は出力に依らないので,分子だけを以下のようにモデル化する.\begin{gather}P(\Bdma{y}|\Bdma{w})P(\Bdma{w})=\prod_{i=1}^{h}P(\Bdma{y}_{i}|w_{i})P(w_{i}|\Bdma{w}_{i-n+1}^{i-1})\nonumber\\P(\Bdma{y}_{i}|w_{i})P(w_{i}|\Bdma{w}_{i-n+1}^{i-1})=\begin{cases}P(w_{i}|\Bdma{w}_{i-n+1}^{i-1})P(\Bdma{y}_{i}|w_{i})&\text{if}\w_{i}\in{\calW}\\P(\UW|\Bdma{w}_{i-n+1}^{i-1})M_{y,n}(\Bdma{y}_{i})&\text{if}\w_{i}\not\in{\calW}\end{cases}\label{eqnarray:KKConv1}\end{gather}ここで${\calW}$は確率的言語モデルの語彙を表す.簡単のために,この式の中の$w_{i}\;(i\leq0)$は,文頭に対応する特別な記号\BTであり,これは文末$w_{h+1}$も表す.この式の$P(w_{i}|\Bdma{w}_{i-n+1}^{i-1})$と$P(\UW|\Bdma{w}_{i-n+1}^{i-1})$は,語彙に\BTと未知語記号\UWを加えた${\calW}\cup\{\BT,\UW\}$上の$n$-gramモデルである.パラメータは,単語に分割されたコーパスから以下の式を用いて最尤推定する.\begin{equation}\label{equation:LM}P(w_{i}|\Bdma{w}_{i-n+1}^{i-1})=\frac{f(\Bdma{w}_{i-n+1}^{i})}{f(\Bdma{w}_{i-n+1}^{i-1})}\end{equation}この式中の$f(e)$は,事象$e$のコーパスにおける頻度を表す.\figref{figure:LMA}が示すように,この学習コーパスには自動単語分割の結果であることが多いが,自動単語分割器の学習に用いたタグ付きコーパスが利用可能な場合にはこれを加えることもある.\begin{figure}[tb]\begin{center}\includegraphics{18-2ia1f1.eps}\end{center}\caption{単語を単位とする言語モデルの作成の手順}\label{figure:LMA}\end{figure}\equref{eqnarray:KKConv1}の$P(\Bdma{y}_{i}|w_{i})$は,単語単位の仮名漢字モデルであり,パラメータは,単語に分割されかつ各単語に入力記号列が付与されたコーパスから以下の式を用いて最尤推定する.\begin{equation}\label{equation:PM}P(\Bdma{y}_{i}|w_{i})=\frac{f(\Bdma{y}_{i},\;w_{i})}{f(w_{i})}\end{equation}\equref{eqnarray:KKConv1}から分かるように,単語単位の仮名漢字モデルでは,単語と入力記号列との対応関係が各単語において独立であると仮定している.この仮定により,比較的少量の入力記号列付与済みコーパスからある程度信頼できるパラメータを推定することができる.\equref{eqnarray:KKConv1}の$M_{y,n}(\Bdma{y}_{i})$は,未知語モデルであり,入力記号の集合に単語の両端を表す記号を加えた${\calY}\cup\{\BT\}$上の$n$-gramモデルで実現される\footnote{文献\Cite{確率的モデルによる仮名漢字変換}によれば,あるテストコーパスにおいて未知語を構成する文字の33.0\%が片仮名であった.入力記号集合は主に平仮名からなるが,この先行研究と同様に,出力においてはこれらを片仮名とする.}.このパラメータは低頻度の単語に対応する入力記号列から推定する.\subsection{提案手法}本論文では,言語モデルの単位を単語と入力記号列の組$u=\unit$とすることを提案する.その上で,以下の式のように$P(\Bdma{w}|\Bdma{y})$をモデル化する.\[P(\Bdma{w}|\Bdma{y})=\frac{P(\Bdma{w},\Bdma{y})}{P(\Bdma{y})}=\frac{P(\Bdma{u})}{P(\Bdma{y})}\]分母$P(\Bdma{y})$は出力に依らないので,分子だけを以下のようにモデル化する.\begin{gather}P(\Bdma{u})=\prod_{i=1}^{h}P(u_{i}|\Bdma{u}_{i-n+1}^{i-1})\nonumber\\P(u_{i}|\Bdma{u}_{i-n+1}^{i-1})=\begin{cases}P(u_{i}|\Bdma{u}_{i-n+1}^{i-1})&\text{if}\u_{i}\in{\calU}\\P(\UU|\Bdma{u}_{i-n+1}^{i-1})M_{u,n}(u_{i})&\text{if}\u_{i}\not\in{\calU}\end{cases}\label{eqnarray:KKConv2}\end{gather}ここで${\calU}$は言語モデルの語彙(単語と入力記号列の組の集合)を表す.この式の中の$u_{i}\;(i\leq0)$と$u_{h+1}$は,単語を単位とする場合と同様に,文頭と文末に対応する記号\BTである.また\UUは未知の組を表す記号である.\equref{eqnarray:KKConv2}の$M_{u,n}(u)=M_{u,n}(\unit)$は未知語モデルである.従来手法と同様に,大きな学習コーパスを用いれば実際の使用における未知語率は極めて低く,また未知語に対する正確な仮名漢字変換は困難であると考えて,アルファベット${\calU}$上の未知語モデルの代わりにアルファベット${\calY}$上の未知語モデル$M_{y,n}(\Bdma{y})$を用いることとする.これは,\equref{eqnarray:KKConv1}と共通である.以上から,提案手法の仮名漢字変換は,以下の式のようになる.\begin{equation}\label{eqnarray:KKConv3}P(u_{i}|\Bdma{u}_{i-n+1}^{i-1})=\begin{cases}P(u_{i}|\Bdma{u}_{i-n+1}^{i-1})&\text{if}\u_{i}\in{\calU}\\P(\UU|\Bdma{u}_{i-n+1}^{i-1})M_{y,n}(\Bdma{y}_{i})&\text{if}\u_{i}\not\in{\calU}\end{cases}\end{equation}ここで$\Bdma{y}_{i}=y(u_{i})$は$u_{i}=\unitA1{i}$の入力記号列である.なお,$M_{u,n}(u)$の代わりに$M_{y,n}(\Bdma{y})$を用いることは以下の式で与えられる近似であり,${\calY}\subsetneq{\calX}$であるので,入力記号列のみからなる文字列を未知語として出力することになる.\[M_{u,n}(u)=M_{u,n}(\unit)\approx\begin{cases}M_{y,n}(\Bdma{y})&\text{if}\w\in{\calY}^{+}\\0&\text{if}\w\not\in{\calY}^{+}\end{cases}\]この式の$M_{y,n}(\Bdma{y})$のパラメータは,学習コーパスにおける語彙${\calU}$に含まれない表記と入力記号列の組の入力記号列から推定する.これは,学習コーパスにおける未知の組の単語を入力記号列に置き換えた結果から$M_{u,n}(u)$を推定しているのと同じである.\begin{figure}[t]\begin{center}\includegraphics{18-2ia1f2.eps}\end{center}\caption{単語と読みの組を単位とする言語モデルの作成の手順}\label{figure:LMB}\end{figure}\equref{eqnarray:KKConv3}の$P(u_{i}|\Bdma{u}_{i-n+1}^{i-1})$と$P(\UU|\Bdma{u}_{i-n+1}^{i-1})$は,語彙に\BTと\UUを加えた${\calU}\cup\{\BT,\UU\}$上の$n$-gramモデルである.パラメータは,単語に分割されかつ入力記号列が付与されたコーパスから以下の式を用いて最尤推定する.\begin{equation}\label{equation:UM}P(u_{i}|\Bdma{u}_{i-n+1}^{i-1})=\frac{f(\Bdma{u}_{i-n+1}^{i})}{f(\Bdma{u}_{i-n+1}^{i-1})}\end{equation}\figref{figure:LMB}が示すように,この学習コーパスには自動単語分割・読み付与の結果を用いることができる.さらに自動単語分割器や読み付与の学習に用いたタグ付きコーパスが利用可能な場合にはこれを加えることもできる(\figref{figure:LMB}の点線).単語を単位とする従来手法と同程度の信頼性となるパラメータを推定するために,従来手法においてパラメータ推定に用いられる単語に分割されたコーパスと同程度の量の単語に分割されかつ入力記号列が付与されたコーパスが必要である.換言すれば,自動単語分割と同程度の精度で入力記号列を推定するシステムが必要である.これまで,各単語に対する入力記号列(読み)をその文脈に応じて十分な精度で推定する研究やフリーウェアがなかったために,提案手法は現実的ではなかったと思われる\footnote{研究としては文献\Cite{N-gramモデルを用いた音声合成のための読み及びアクセントの同時推定}があるが,公開されていない.また,読み推定ツールとしてKAKASI(http://kakasi.namazu.org/,2010年5月)があるが,様々な分野において十分な精度とはいえない.}.次節では,この方法を説明し,さらに入力記号列を確率的に付与することで,入力記号列の推定誤りの影響を緩和する方法を提案する.
\section{仮名漢字変換のための言語資源とその処理}
\label{section:LRS}仮名漢字変換や音声認識のための言語モデルは,単語分割済みコーパスと生コーパスの自動単語分割結果から構築される.この節では,まずこの過程を概説する.次に,前節で提案したモデルのパラメータをより正確に推定するために,単語に入力記号列や発音などのタグを確率的に付与することを提案する.\subsection{コーパス}仮名漢字変換や音声認識のための単語を単位とする言語モデル作成においては,これらを適用する分野のコーパスが必須である.一般に,コーパスには単語境界情報がないので,自動単語分割器\cite{点推定と能動学習を用いた自動単語分割器の分野適応}や形態素解析器\cite{日本語形態素解析システムJUMAN使用説明書.version.1.0,確率的形態素解析,統計的言語モデルとN-best探索を用いた日本語形態素解析法,形態素クラスタリングによる形態素解析精度の向上,Conditional.Random.Fields.を用いた日本語形態素解析}を用いて文を言語モデルの単位に分割し,その結果に対して単語$n$-gram頻度を計数する(\figref{figure:LMA}参照)\inhibitglue\footnote{形態素解析を利用する場合は,品詞も付与されるので,単語と品詞の組を単位とすることもあるが,仮名漢字変換や音声認識の出力に品詞は不要なので,実質的には品詞の異なる同音異義語の識別程度の効果しかない.さらに,茶筌などを利用すると「読み」も付与されるが,これらは文脈に依存しないので実質的には付与していないのと同じである.}.なお,これら自動単語分割器や形態素解析器などの自然言語処理システムは,単語分割済みあるいは品詞付与済みのコーパスから学習することが多い.その場合には,これら自然言語処理システムの学習コーパスも言語モデルの学習コーパスに加えることができる(\figref{figure:LMA}の点線)が,実際には,これら自然言語処理システムはツールとして配布され,辞書追加程度の適応しかなされず,自然言語処理システムの学習コーパスが言語モデルの学習に利用されることは少ない.\subsection{形態素解析と自動単語分割}形態素解析は,日本語の自然言語処理の第一段階として研究され,ルールに基づく方法が一定の成果を上げた\cite{日本語形態素解析システムJUMAN使用説明書.version.1.0}.同じ頃,統計的手法\cite{確率的形態素解析,統計的言語モデルとN-best探索を用いた日本語形態素解析法}が提案され,アルゴリズムとデータの分離に成功した.統計的手法は,ルールに基づく方法と同等かそれ以上の精度を達成しており,現在では主流になっている.さらに,フリーソフトとして公開され,容易に利用可能となっている.このような背景から,仮名漢字変換や音声認識のための言語モデル作成のために,形態素解析が用いられている.結果的に,単語(表記)と品詞の組を言語モデルの単位とすることが多い\footnote{音声認識\cite{音声認識システム}ではすべての可能な読みも付加しているが,文脈に応じた読みは付与されず,同音異義語の峻別には用いられていない.}.しかしながら,仮名統計的漢字変換や音声認識等の実現には品詞情報は不要であり,形態素解析器の学習コーパス作成のコストを不必要に増大させるのみである.また,英語等の単語間に空白を置く言語の音声認識においては,言語モデルの単位として当然単語が用いられる.日本語においても単語を言語モデルの単位とする音声認識の取り組みがあり,十分な認識精度を報告している\cite{単語を認識単位とした日本語の大語彙連続音声認識}.以上の考察から,本論文では,単語と品詞の組を言語モデルの単位とする手法は,単語を単位とする手法に含まれるとして,以下の議論を展開する.言語モデルの構築においては,適応対象の分野の大量のテキストに対する統計をとることが非常に有用である.このため,形態素解析や自動単語分割等の自動処理が必須であるが,自動処理の結果は一定量の誤りを含む.この単語分割誤りによる悪影響を緩和するために,確率的に単語に分割することが提案されている\cite{確率的単語分割コーパスからの単語N-gram確率の計算}.この手法では,自動単語分割器によって各文字の間に単語境界がある確率を付与し,その確率を参照して計算される単語$n$-gramの期待頻度を用いて言語モデルが構築される.実用上は,モンテカルロシミュレーションのように,各文字間に対して都度発生させた乱数と単語境界確率の比較結果から単語境界か否かを決定することで得られる擬似確率的単語分割コーパスから従来法と同様に言語モデルが構築される\cite{擬似確率的単語分割コーパスによる言語モデルの改良}.\subsection{自動読み推定}前節で,仮名漢字変換のための言語モデルの単位として単語と入力記号列の組を用いることを提案した.この考え自体は特に新規ではなく,以前から存在している.実際,音声認識において,数詞のあとの「本」など一部の高頻度語に文脈に応じた発音を付与する後処理が行われている\cite{音声認識システム}.また,発音レベルでの書き起こしが得られる場合に,単語と発音の対応を推定し,単語と品詞と発音の組を単位をとする言語モデルを構築する研究もある\cite{講演音声認識のための音響・言語モデルの検討}.しかしながら,この考えを一般的な場合において実現するためには,高精度の自動読み推定システムが必要である.前述の形態素解析の研究とその成果であるフリーソフトにおいては,読みの推定は軽視されており,文脈に応じた読みを高い精度で出力する研究やフリーソフトはなかった.このため,単語と入力記号列の組や単語と発音の組を単位とする言語モデルは一般的な意味で実現されていなかった.前節で提案した単語と入力記号列の組を単位とする言語モデルの構築においては,コーパスを単語に分割し,文脈に応じた読みを付与することができるKyTea(京都テキスト解析ツールキット)\cite{仮名漢字変換ログの活用による言語処理精度の自動向上}を用いて適応対象の分野のテキストを自動的に単語と入力記号列の組の列に変換する(\figref{figure:LMB}参照).その結果から\equref{equation:UM}を用いて単語と入力記号列の組の$n$-gram確率を推定する.KyTeaの詳細は\appref{appe:kytea}に記述した.\subsection{確率的タグ付与}自動読み推定の結果は,形態素解析や自動単語分割等の自動処理の場合と同様に,一定量の誤りを含む.学習コーパスに含まれる読み推定誤りは,言語モデルや仮名漢字モデル,あるいは発音辞書に悪影響を及ぼす.特に,ある単語に対して至る所で同じ誤った読みを付与する場合には,非常に重大な問題となる.この問題を回避するために,確率的単語分割と同様に,単語に対する入力記号列付与や発音付与を確率的に行うことを提案する.すなわち,読み推定においては,ある単語に対する読みを決定的に推定するのではなく,可能な読みとその確率値を返すようにする.より一般的には,単語に対する読みや品詞などのタグ付与を,ある基準で最適となる唯一のタグを出力する処理ではなく,タグ$t$と確率値$p$の組の列$(\pair{t_{1}}{p_{1}},\pair{t_{2}}{p_{2}},\cdots)$を出力する処理へと一般化する.この際,タグの確率値は,周辺の他の単語のタグと独立であるとの仮定をおく.この結果得られるコーパスを確率的タグ付与コーパスと呼ぶ.確率的タグ付与コーパスの文$\Conc{w}{h}$は,以下のように,各単語に可能なタグと確率値の組の列が付与されている.\begin{gather*}\langlew_{1},(\pair{t_{1,1}}{p_{1,1}},\pair{t_{1,2}}{p_{1,2}},\cdots,\pair{t_{1,k_1}}{p_{1,k_1}})\rangle\\\langlew_{2},(\pair{t_{2,1}}{p_{2,1}},\pair{t_{2,2}}{p_{2,2}},\cdots,\pair{t_{2,k_2}}{p_{2,k_2}})\rangle\\\vdots\\\langlew_{h},(\pair{t_{h,1}}{p_{h,1}},\pair{t_{h,2}}{p_{h,2}},\cdots,\pair{t_{h,k_h}}{p_{h,k_h}})\rangle\end{gather*}ここで,$t_{i,j}$と$p_{i,j}$はそれぞれ,$i$番目の単語の$j$番目のタグとその確率を表す.このような確率的タグ付与コーパスにおける単語とタグの組の$n$-gramの1回の出現あたりの頻度$f_{1}(\Bdma{u})$は,以下の式で計算される期待頻度として定義される.\begin{equation}\label{equation:STCFreq}f_{1}(\Bdma{u})=f_{1}(\pair{w_{1}}{t_{1,j_1}}\pair{w_{2}}{t_{2,j_2}}\cdots\pair{w_{n}}{t_{n,j_n}})=\prod_{i=1}^{n}p_{i,j_i}\end{equation}この値をコーパスにおけるすべての出現箇所に渡って合計した結果が\pagebreak単語とタグの組の列$\Bdma{u}$の期待頻度である.単語とタグの組の$n$-gram確率は,この期待頻度の相対値として定義される.仮名漢字変換のための言語モデル構築では,タグとして単語に対応する入力記号列を用いる.確率的入力記号列付与のためのモデルは,単語ごとに入力記号列が付与されたコーパスからロジスティック回帰などの点予測器を推定しておくことで実現できる.\subsection{擬似確率的タグ付与}\label{subsec:pseudo}確率的単語分割の場合と同様に,確率的タグ付与コーパスに対する単語とタグの組の列の頻度の計算は,決定的タグ付与コーパスに対する頻度計算と比べてはるかに多い計算を要する.実際,対象となる組の列としての頻度が$F$回とすると,\equref{equation:STCFreq}による期待頻度の計算は,各出現箇所における$(n-1)$回の浮動小数点の積を実行し($F(n-1)$回の乗算),その結果の総和を$(F-1)$回の加算により算出することになる.通常の決定的タグ付与コーパスに対する頻度の計算は,$F$回のインクリメントで済むことを考えると,非常に大きな計算コストが必要である.また,非常に小さい期待頻度の単語とタグの組の列が多数生成され,これによる計算コストの増大も起こる.このような計算コストの問題は,次に述べる擬似確率的タグ付与コーパスによって近似的に解決される.擬似確率的タグ付与コーパスは,各単語に対して都度発生させた乱数とタグの確率の比較結果から当該単語のタグを唯一に決定することで得られる単語とタグの組の列である.この手続きを複数回繰り返して得られるコーパスに対して頻度を計数することで確率的タグ付与コーパスの期待頻度の近似値が得られる.このときの繰り返し回数を倍率と呼ぶ.擬似確率的タグ付与コーパスは,確率的単語分割コーパス\cite{擬似確率的単語分割コーパスによる言語モデルの改良}と同様に一種のモンテカルロ法となっており,近似誤差に関しては以下の議論が同様に可能である.モンテカルロ法による$d$次元の単位立方体$[0,1]^{d}$上の定積分$I=\int_{[0,1]^{d}}f(x)dx$の数値計算法では,単位立方体$[0,1]^{d}$上の一様乱数$\Stri{x}{N}$を発生させて$I_{N}=\sum_{i=1}^{N}f(x_{i})$とする.このとき,誤差$|I_{N}-I|$は次元$d$によらずに$1/\sqrt{N}$に比例する程度の速さで減少することが知られている.擬似確率的タグ付与コーパスにおける単語とタグの組の$n$-gram頻度の計算はこの特殊な場合である.すなわち,\equref{equation:STCFreq}の値は,$n$次元の単位立方体中の矩形の部分領域($i$番目の軸方向の長さが$p_{i,j_{i}}$)の体積である.したがって,誤差は$n$の値によらずに$1/\sqrt{FN}$に比例する程度の速さで減少する.
\section{評価}
\label{section:評価}提案手法の評価のために,学習コーパスの作成の方法と言語モデルの単位が異なる仮名漢字変換を構築し,テストコーパスに対する変換精度を測定した.この節では,その結果を提示し提案手法の評価を行う.\subsection{実験条件}実験に用いたコーパスの諸元を\tabref{table:corpus}に掲げる.学習コーパスは,$L$と$R$の2種類である.学習コーパス$L$は,現代日本語書き言葉均衡コーパス2009年モニター版\cite{Balanced.Corpus.of.Contemporary.Written.Japanese}と日常会話の辞書の例文と新聞記事からなり,人手による単語分割と入力記号付与がなされている.学習コーパス$R$は新聞記事からなり,単語境界や入力記号などの付加情報はない.単語境界や入力記号の推定は,京都テキスト解析ツールキットKyTea\cite{点推定と能動学習を用いた自動単語分割器の分野適応}\footnote{Version0.1.0,http://www.phontron.com/kytea/(2010年10月).}によって行った.テストコーパス$T$は,学習コーパス$R$と同じ新聞の別の記事であり,変換精度の計算のために入力記号が付与されてある.\begin{table}[tb]\caption{コーパス}\input{01table01.txt}\label{table:corpus}\vspace{1\baselineskip}\end{table}\subsection{評価基準}\begin{figure}[tb]\begin{center}\includegraphics{18-2ia1f3.eps}\end{center}\caption{評価基準}\label{figure:criteria}\end{figure}仮名漢字変換の評価基準は,各入力文の一括変換結果と正解との最長共通部分列(LCS;longestcommonsubsequence)\cite{文字列中のパターン照合のためのアルゴリズム}の文字数に基づく再現率と適合率である(\figref{figure:criteria}参照).正解コーパスに含まれる文字数を$N_{COR}$とし,一括変換の結果に含まれる文字数を$N_{SYS}$とし,これらの最長共通部分列の文字数を$N_{LCS}$とすると,再現率は$N_{LCS}/N_{COR}$と定義され,適合率は$N_{LCS}/N_{SYS}$と定義される.\figref{figure:criteria}の例では,これらは以下のようになる.\begin{description}\item[\再現率:]$N_{LCS}/N_{COR}=5/8$\item[\適合率:]$N_{LCS}/N_{SYS}=5/11$\end{description}これらに加えて,文正解率も計算した.これは,変換結果が文全体に渡って一致している文の割合を表す.\subsection{評価}学習コーパスの作成の方法と言語モデルの単位による仮名漢字変換精度の差を調べるために,以下の3通りの方法で作成された学習コーパスのそれぞれから,単語を言語モデルの単位とする仮名漢字変換(\equref{eqnarray:KKConv1}参照)と単語と入力記号列の組を言語モデルの単位とする仮名漢字変換(\equref{eqnarray:KKConv3}参照)を作成した.言語モデルはすべて2-gramモデルである\footnote{音声認識で一般的な3-gramモデルを用いなかったのは,仮名漢字変換の先行研究\cite{確率的モデルによる仮名漢字変換}とその実用化の例\cite{Google.IME}が2-gramモデルを用いていること,仮名漢字変換での入力記号列は比較的短い傾向があり(第1著者の場合約2.2単語分)長い履歴が実際にはほとんど有効ではないこと,3-gramモデルは必要となる記憶域が増大し処理速度が低下するなど実用化に向かないことである.}.\par\KKC{DD}:決定的に単語分割し,決定的に入力記号列を付与する.\par\KKC{DS}:決定的に単語分割し,確率的に入力記号列を付与する.\par\KKC{SS}:確率的に単語分割し,確率的に入力記号列を付与する.\par\noindentここで,「確率的」は擬似確率的単語分割および疑似確率的入力記号付与を意味し,全て倍率は1とした.文献\cite{擬似確率的単語分割コーパスによる言語モデルの改良}では,1,890,041文字の生コーパスに対して1〜256の倍率による擬似確率的単語分割コーパスを評価している.その結果,倍率が8〜32程度で確率的単語分割コーパスと同程度の性能となっている.前後数単語の単語分割の可能性は16〜32通り程度(その出現にも偏りがある)なので高頻度の単語(候補)の高頻度の文脈はある程度大きいコーパスであれば,倍率が1の擬似確率的単語分割コーパスでも十分に真の分布に近い推定値が得られると考えられる.本実験での生コーパスの文字数は,この文献での実験の約27.9倍であり,ある程度の頻度の組の列$\Bdma{u}$の出現頻度(\subref{subsec:pseudo}の$F$)は約27.9倍となっていることが期待される.したがって,倍率(第3.5項の$N$)が1であっても,上述の文献における実験での倍率27.9に相当し,確率的タグ付与コーパス($N\rightarrow\infty$)に近い性能が期待される.3つの学習コーパスの作成の方法と2つの言語モデルの単位のすべての組み合わせによる仮名漢字変換の精度を\tabref{table:result}に示す.表中のIDの最初の2文字は学習コーパスの作成の方法を表し,次の1文字は言語モデルの単位を表す.文献\Cite{確率的モデルによる仮名漢字変換}は,単語と品詞の組を言語モデルの単位とし,生コーパスの形態素解析結果を学習コーパスに利用していないが,生コーパスの利用による精度向上は広く一般に知られているので,単語を言語モデルの単位とし,生コーパスの決定的な単語分割と入力記号列付与結果を利用する\KKC{DDw}が既存手法に対応するとし,これをベースラインとする.\begin{table}[t]\caption{仮名漢字変換の精度2-gram}\input{01table02.txt}\label{table:result}\end{table}まず,\tabref{table:result}中の\KKC{DDw}と\KKC{DSw}と\KKC{SSw}の比較についてである.これらは,すべて単語を言語モデルの単位とする.自動分割と入力記号付与の両方を決定的に行った結果から言語モデルを推定するベースライン\KKC{DDw}に対して,入力記号付与を確率的に行う\KKC{DSw}はより高い変換精度となっている.これにより,入力記号付与を確率的に行うことが有効であることが分かる.\KKC{DDw}と\KKC{DSw}の言語モデルは共通で,違いは仮名漢字モデルのみである.このことから,入力記号付与を確率的に行うことで,仮名漢字モデルがより適切に推定できることが分かる.さらに,単語分割も確率的に行う\KKC{SSw}の精度は,入力記号付与のみを確率的に行う\KKC{DSw}よりも高くなっている.このことから,確率的入力記号付与は,確率的単語分割\cite{擬似確率的単語分割コーパスによる言語モデルの改良}と協調して精度向上に寄与することがわかる.次に,\tabref{table:result}中の\KKC{DDu}と\KKC{DSu}と\KKC{SSu}の比較についてである.これらは,すべて単語と入力記号列の組を言語モデルの単位とする.この場合も,確率的に入力記号を付与することで精度が向上し,単語分割も確率的に行うことでさらに精度が向上していることが分かる.さらに,言語モデルの単位の差異についてである.\tabref{table:result}から,\KKC{DDw}と\KKC{DDu},\KKC{DSw}と\KKC{DSu},\KKC{SSw}と\KKC{SSu}のいずれの組の比較においても,言語モデルの単位を単語から単語と入力記号列の組に変更することで変換精度が向上していることが分かる.\begin{figure}[tb]\begin{center}\includegraphics{18-2ia1f4.eps}\end{center}\caption{疑似確率的単語分割と疑似タグ付与の合計の倍率($m^{2}$)と仮名漢字変換精度の関係}\label{figure:graph}\end{figure}最後に,提案手法\KKC{SSu}における倍率と精度の関係についてである.これを調べるために,$m$倍の疑似確率的単語分割の各結果に対する$m$倍の疑似確率的タグ付与の結果(合計$m^2$,$m\in\{1,\,2,\,4\}$)を用いた場合の精度を計算した.\figref{figure:graph}は,倍率と精度の関係である($m=1$は,\tabref{table:result}の\KKC{SSu}と同じ).この結果から,倍率を上げることで,少しではあるが精度が向上することがわかる.一方で,それぞれの場合の語彙(表記と読みの組)のサイズは順に,123,078組,181,800組,295,801組であり,単語分割とタグ付与を決定的に行う\KKC{DDu}の99,210組との差は,倍率が大きくなるに従って非常に大きくなる.\figref{figure:graph}から精度の差は大きくないので,倍率は$1^2$か$2^2$程度が現実的であろう.以上のことから,仮名漢字変換の言語モデルを単語から単語と入力記号列の組とし,入力記号を確率的に付与したコーパスからこれを推定することが有効であると言える.さらに,確率的単語分割と組み合わせることでさらなる精度向上が実現できると結論できる.
\section{おわりに}
本論文では,単語分割済みコーパスの各単語に対して,確率的にタグを付与することを提案した.具体的なタグとして単語の読みを採用し,ある単語がある読みになる確率を読みが付与されていないコーパスから推定することを実現した.さらに,単語分割済みコーパスから自動読み推定を用いて表記と読みの組を単位とする確率的言語モデルを推定し,仮名漢字変換に用いることを提案した.実験では,単語分割や読み推定が決定的にあるいは確率的に行われているコーパスから,単語を単位とする言語モデルと,単語と読みの組を単位とする言語モデルを推定し,仮名漢字器を構築した.これら複数の仮名漢字器の変換精度を比較した結果,単語と読みの組を言語モデルの単位とし,そのパラメータを確率的に単語分割されかつ確率的に読み付与されたコーパスから推定することで最も高い変換精度となることが分かった.したがって,本論文で提案する単語と読みの組を単位とする言語モデルと,確率的タグ付与コーパスの概念は有用であると結論できる.\appendix\newtheorem{命題}{}\newtheorem{証明}{}
\section{自動読み推定}
\label{appe:kytea}本論文で用いた自動読み推定\cite{仮名漢字変換ログの活用による言語処理精度の自動向上}は,コーパスに基づく方法であり,単語に分割された文を入力とし,単語毎に独立に以下の分類に基づいて読み推定が行われる.\begin{description}\item[Q$_1$]学習コーパスに出現しているか\item[\]はい\begin{description}\item[Q$_2$]読みが唯一か複数か\item[\]複数$\Rightarrow$ロジスティック回帰\cite{LIBLINEAR:.A.Library.for.Large.Linear.Classication}を用いて読みを選択\item[\]唯一$\Rightarrow$その読みを選択\end{description}\item[\]いいえ\begin{description}\item[Q$_2^{'}$]辞書に入っているか\item[\]はい$\Rightarrow$最初の項目の読みを選択\item[\]いいえ$\Rightarrow$文字と読みの2-gramモデルによる最尤の読みを選択\end{description}\end{description}複数の読みが可能でその確率が必要な場合には,ロジスティック回帰の出力確率や文字と読みの2-gramモデルによる生成確率を正規化した値を利用する.分類器の学習に用いたコーパスは,現代日本語書き言葉均衡コーパス\cite{Balanced.Corpus.of.Contemporary.Written.Japanese}であり,辞書はUniDic\cite{コーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用}である.学習コーパスとして33,147文(899,025単語,1,292,249文字)を用い,テストコーパスとして同一分野の3,681文(98,634単語,141,655文字)を用いた場合の読み推定精度を測定した.評価基準は,入力記号単位の適合率と再現率である.その結果,一般的な手法である単語と読みを組とする3-gramモデル\Cite{N-gramモデルを用いた音声合成のための読み及びアクセントの同時推定}の適合率と再現率はそれぞれ99.07\%と99.12\%であり,本論文で用いた自動読み推定の適合率と再現率はそれぞれ99.19\%と99.26\%であった.この結果から,本論文で用いた自動読み手法は,既存手法と同程度の精度となっていることがわかる.\acknowledgment本研究の一部は,科学研究費補助金・若手A(課題番号:08090047)により行われた.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aho}{Aho}{1990}]{文字列中のパターン照合のためのアルゴリズム}Aho,A.~V.\BBOP1990\BBCP.\newblock\JBOQ文字列中のパターン照合のためのアルゴリズム\JBCQ\\newblock\Jem{コンピュータ基礎理論ハンドブック}.I:形式的モデルと意味論\JVOL,\mbox{\BPGS\263--304}.ElsevierSciencePublishers.\bibitem[\protect\BCAY{伝\JBA小木曽\JBA小椋\JBA山田\JBA峯松\JBA内元\JBA小磯}{伝\Jetal}{2007}]{コーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用}伝康晴\JBA小木曽智信\JBA小椋秀樹\JBA山田篤\JBA峯松信明\JBA内元清貴\JBA小磯花絵\BBOP2007\BBCP.\newblockコーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用.\newblock\Jem{日本語科学},{\Bbf22},\mbox{\BPGS\101--122}.\bibitem[\protect\BCAY{Fan,Chang,Hsieh,Wang,\BBA\Lin}{Fanet~al.}{2008}]{LIBLINEAR:.A.Library.for.Large.Linear.Classication}Fan,R.-E.,Chang,K.-W.,Hsieh,C.-J.,Wang,X.-R.,\BBA\Lin,C.-J.\BBOP2008\BBCP.\newblock\BBOQLIBLINEAR:ALibraryforLargeLinearClassication.''\newblock{\BemJournalofMachineLearningResearch},{\Bbf9},\mbox{\BPGS\1871--1874}.\bibitem[\protect\BCAY{Google}{Google}{2010}]{Google.IME}Google\BBOP2010\BBCP.\newblock\newblock\BBOQGoogleIME.\BBCQ\newblockhttp://www.google.com/intl/ja/ime/(2010年10月).\bibitem[\protect\BCAY{Jelinek}{Jelinek}{1985}]{Self-Organized.Language.Modeling.for.Speech.Recognition}Jelinek,F.\BBOP1985\BBCP.\newblock\BBOQSelf-OrganizedLanguageModelingforSpeechRecognition.\BBCQ\\newblockTech.rep.,IBMT.J.WatsonResearchCenter.\bibitem[\protect\BCAY{工藤\JBA山本\JBA松本}{工藤\Jetal}{2004}]{Conditional.Random.Fields.を用いた日本語形態素解析}工藤拓\JBA山本薫\JBA松本裕治\BBOP2004\BBCP.\newblockConditionalRandomFieldsを用いた日本語形態素解析.\newblock\Jem{情報処理学会研究報告},NL161\JVOL.\bibitem[\protect\BCAY{Maekawa}{Maekawa}{2008}]{Balanced.Corpus.of.Contemporary.Written.Japanese}Maekawa,K.\BBOP2008\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe6thWorkshoponAsianLanguageResources},\mbox{\BPGS\101--102}.\bibitem[\protect\BCAY{丸山\JBA荻野\JBA渡辺}{丸山\Jetal}{1991}]{確率的形態素解析}丸山宏\JBA荻野紫穂\JBA渡辺日出雄\BBOP1991\BBCP.\newblock確率的形態素解析.\newblock\Jem{日本ソフトウェア科学会第8回大会論文集},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{松本\JBA黒橋\JBA宇津呂\JBA妙木\JBA長尾}{松本\Jetal}{1993}]{日本語形態素解析システムJUMAN使用説明書.version.1.0}松本裕治\JBA黒橋禎夫\JBA宇津呂武仁\JBA妙木裕\JBA長尾眞\BBOP1993\BBCP.\newblock\Jem{日本語形態素解析システムJUMAN使用説明書version1.0}.\newblock京都大学工学部長尾研究室.\bibitem[\protect\BCAY{森\JBA長尾}{森\JBA長尾}{1998}]{形態素クラスタリングによる形態素解析精度の向上}森信介\JBA長尾眞\BBOP1998\BBCP.\newblock形態素クラスタリングによる形態素解析精度の向上.\newblock\Jem{自然言語処理},{\Bbf5}(2),\mbox{\BPGS\75--103}.\bibitem[\protect\BCAY{森\JBANeubig}{森\JBANeubig}{2010}]{仮名漢字変換ログの活用による言語処理精度の自動向上}森信介\JBANeubigGraham\BBOP2010\BBCP.\newblock仮名漢字変換ログの活用による言語処理精度の自動向上.\newblock\Jem{言語処理学会年次大会}.\bibitem[\protect\BCAY{森\JBA小田}{森\JBA小田}{2009}]{擬似確率的単語分割コーパスによる言語モデルの改良}森信介\JBA小田裕樹\BBOP2009\BBCP.\newblock擬似確率的単語分割コーパスによる言語モデルの改良.\newblock\Jem{自然言語処理},{\Bbf16}(5),\mbox{\BPGS\7--21}.\bibitem[\protect\BCAY{森\JBA宅間\JBA倉田}{森\Jetal}{2007}]{確率的単語分割コーパスからの単語N-gram確率の計算}森信介\JBA宅間大介\JBA倉田岳人\BBOP2007\BBCP.\newblock確率的単語分割コーパスからの単語N-gram確率の計算.\newblock\Jem{情報処理学会論文誌},{\Bbf48}(2),\mbox{\BPGS\892--899}.\bibitem[\protect\BCAY{森\JBA土屋\JBA山地\JBA長尾}{森\Jetal}{1999}]{確率的モデルによる仮名漢字変換}森信介\JBA土屋雅稔\JBA山地治\JBA長尾真\BBOP1999\BBCP.\newblock確率的モデルによる仮名漢字変換.\newblock\Jem{情報処理学会論文誌},{\Bbf40}(7),\mbox{\BPGS\2946--2953}.\bibitem[\protect\BCAY{村上}{村上}{1991}]{漢字かなのTRIGRAMをもちいたかな漢字変換方法}村上仁一\BBOP1991\BBCP.\newblock漢字かなのTRIGRAMをもちいたかな漢字変換方法.\newblock\Jem{情報処理学会第43回全国大会},3\JVOL,\mbox{\BPGS\287--288}.\bibitem[\protect\BCAY{長野\JBA森\JBA西村}{長野\Jetal}{2006}]{N-gramモデルを用いた音声合成のための読み及びアクセントの同時推定}長野徹\JBA森信介\JBA西村雅史\BBOP2006\BBCP.\newblockN-gramモデルを用いた音声合成のための読み及びアクセントの同時推定.\newblock\Jem{情報処理学会論文誌},{\Bbf47}(6),\mbox{\BPGS\1793--1801}.\bibitem[\protect\BCAY{永田}{永田}{1999}]{統計的言語モデルとN-best探索を用いた日本語形態素解析法}永田昌明\BBOP1999\BBCP.\newblock統計的言語モデルとN-best探索を用いた日本語形態素解析法.\newblock\Jem{情報処理学会論文誌},{\Bbf40}(9),\mbox{\BPGS\3420--3431}.\bibitem[\protect\BCAY{Neubig\JBA中田\JBA森}{Neubig\Jetal}{2010}]{点推定と能動学習を用いた自動単語分割器の分野適応}Neubig,Graham,中田陽介\JBA森信介\BBOP2010\BBCP.\newblock点推定と能動学習を用いた自動単語分割器の分野適応.\newblock\Jem{言語処理学会年次大会}.\bibitem[\protect\BCAY{西村\JBA伊東\JBA山崎}{西村\Jetal}{1999}]{単語を認識単位とした日本語の大語彙連続音声認識}西村雅史\JBA伊東伸泰\JBA山崎一孝\BBOP1999\BBCP.\newblock単語を認識単位とした日本語の大語彙連続音声認識.\newblock\Jem{情報処理学会論文誌},{\Bbf40}(4),\mbox{\BPGS\1395--1403}.\bibitem[\protect\BCAY{鹿野\JBA伊藤\JBA河原\JBA武田\JBA山本}{鹿野\Jetal}{2001}]{音声認識システム}鹿野清宏\JBA伊藤克亘\JBA河原達也\JBA武田一哉\JBA山本幹雄\BBOP2001\BBCP.\newblock\Jem{音声認識システム}.\newblockオーム社.\bibitem[\protect\BCAY{堤\JBA加藤\JBA小坂\JBA好田}{堤\Jetal}{2002}]{講演音声認識のための音響・言語モデルの検討}堤怜介\JBA加藤正治\JBA小坂哲夫\JBA好田正紀\BBOP2002\BBCP.\newblock講演音声認識のための音響・言語モデルの検討.\newblock\Jem{電子情報通信学会技術研究会報告},\mbox{\BPGS\117--122}.\end{thebibliography}\begin{biography}\bioauthor{森信介}{1998年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了.同年日本アイ・ビー・エム(株)入社.2007年より京都大学学術情報メディアセンター准教授.現在に至る.自然言語処理ならびに計算言語学の研究に従事.工学博士.1997年情報処理学会山下記念研究賞受賞.2010年情報処理学会論文賞受賞.2010年第58回電気科学技術奨励賞.情報処理学会会員.}\bioauthor{笹田鉄郎}{2007年京都大学工学部電気電子工学科卒業.2009年同大学院情報学研究科修士課程修了.同年同大学院博士後期課程に進学.現在に至る.}\bioauthor[:]{NeubigGraham}{2005年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業.2010年京都大学大学院情報学研究科修士課程修了.同年同大学院博士後期課程に入学.現在に至る.自然言語処理に関する研究に従事.}\end{biography}\biodate\end{document}
| |
V13N01-03 | \section{はじめに}
人間はあいまいな情報を受け取り適宜に解釈して適切に会話を進めたり適切な行動を取ることができる.これは,人間が長年にわたって蓄積してきた,言語やその基本となる語概念に関する「常識」を持っているからである.すなわち,ある単語から概念を想起し,さらに,その概念に関連のある様々な概念を連想できる能力が重要な役割を果たしていると考えられる.ここで,ある単語に関連のある様々な単語を連想できるためには,単語間の意味的類似性だけでなく,単語間に存在する常識的な関係も含めた単語間の距離を評価できる必要がある.単語間の意味的な類似度の計算や距離計算は,自然言語処理における基本要素技術である.本稿では,単語間の距離計算法を提案している.従来,単語間の距離は,単語同士が意味的にどの程度似ているかを表すものであるとして,「類似度」と呼ばれている.単語の意味的類似性には直接的類似性や間接的類似性があり,また,間接的類似性はさらに細かく分類される\cite{Utsumi}.直接的類似性は辞書的カテゴリの類似であるのに対し,間接的類似性は辞書的カテゴリ以外の類似である.たとえば,「大人」と「子供」は同じ「人」に分類されるため意味的に似ており,類似度は高いはずであるが,「子供」と「おもちゃ」は意味的には似ていないし,同じ分類には含まれないであろうから類似度は低くなるであろう.しかし,実際には「子供」から「おもちゃ」を連想できることから,両者の距離はある程度近いものと思われる.「子供とおもちゃ」のような何らかの関連があるもの同士にも距離を定義できるようにするため,本研究では,単語間の距離のことを「関連度」と呼んでいる.もちろん,関連度には類似度の性質も含まれている.すなわち,直接的類似性が高いものも関連度は大きいと考えられる.本研究では,直接的類似性や間接的類似性を問わず,人間が常識的にイメージする単語間の距離に近いほど,その関連度計算法は優れていると判断する.このような関連度を計算するには,従来用いられてきた単語間の意味的(あるいは分類的)上位下位関係を記述したシソーラス\cite{NTT}などでは困難である.また,ある文書空間内での共起情報を用いれば関連度を計算可能と思われるが,どのような文書空間を用いるべきかが問題となる.本研究では,文書空間として概念ベースを用いる.概念ベースは(後述するが),国語辞書や大量の新聞記事を用いて構築したものであり,仮想的な文書空間と捉えることができる.以下,2章では本研究で用いる概念ベースの構造について述べる.3章では,概念間の関連性の評価法に対する既存研究についてふれ,関連度計算法自体の評価の方法を述べる.4章では,本稿の主題である関連度計算法について従来法を述べ,評価考察を行った後,5,6章で新しい計算法についての提案と評価考察を行う.なお以下では,「単語」を「概念」あるいは「概念表記」と呼ぶ.これは,「単語」と言う言葉はその表記をさす場合とその単語の意味,すなわち,その単語が指し示す概念を表す場合があるため,それらを区別するために,表記を表す場合は「概念表記」,意味を表す場合は「概念」と呼ぶ.ただし,厳密な区別が困難な場合も多いので,その場合は「単語」と呼ぶこととする.
\section{概念ベース}
label{BasicCB}\subsection{概念ベースの構造}概念ベースにおいて,任意の概念$A$は,概念の意味特徴を表す属性$a_i$と,この属性$a_i$が概念$A$を表す上でどれだけ重要かをあらわす重み$w_i$の対で表現される.概念$A$の属性数を$N$個とすると,概念$A$は以下のように表せる.ここで,属性$a_i$を概念$A$の一次属性と呼ぶ.\begin{eqnarray}A&=&\{(a_1,w_1),(a_2,w_2),\cdots,(a_N,w_N)\}\end{eqnarray}また,概念$A$の一次属性$a_i$は概念ベースに定義されている概念としているため,$a_i$からも同様に属性を導くことができる.$a_i$の属性$a_{ij}$を概念$A$の二次属性と呼ぶ.さらに三次属性,四次属性,...と属性展開が可能であるため,任意の概念$A$は属性(概念)の無限連鎖により定義されていることになる.概念「電車」を二次属性まで展開した様子を図\ref{Fig1}に示す.\begin{figure}[tb]\begin{center}\epsfile{file=fig01.eps,width=8.0cm}\end{center}\caption{概念「電車」(二次属性まで展開)}\label{Fig1}\end{figure}\subsection{概念ベースの構築方法}当初の概念ベースは,複数の電子化国語辞書を用いて機械的に自動構築されたものである.この概念ベース(基本CB)\cite{kasahara1,kasahara4}では,約3万4千の概念表記$A$とその属性$a_i$および重み$w_i$を複数の国語辞書の語義文から自動的に獲得している.辞書の見出し部の単語を概念表記とし,語義文に含まれる自立語を属性として抽出し,それらの重みは属性の出現頻度を基に付与している.さらに,属性の自己参照による新たな属性の追加,及び不要な属性の統計的な除去からなる精錬を行うことによって概念ベースを機械構築している.しかし,基本CBは国語辞書の語義文から機械的に構築されているため,人間の感覚では必要な属性が抜け落ちていたり,明らかにおかしな属性が雑音として含まれているといったように,必ずしも適切なデータのみで構成されているわけではない.また,直接的類似性(辞書的カテゴリの類似)を評価するには適しているが,間接的類似性(辞書的カテゴリ以外の類似,関連)を評価するには必ずしも十分ではないと思われる.そこで,本研究では,不適切なデータを削除し,必要なデータを追加する自動精練処理を行った概念ベース(概念数約9万)\cite{Hirose}を構築し利用する.この概念ベースは,基本CBの概念に加えて,新聞記事における単語(概念表記)の共起情報を元に新たな概念表記と属性を追加し,属性信頼度\cite{KKojima,KKojima2}と使用した新聞記事全体におけるidf値を元に属性の重みを付与し,重みの小さい属性は削除するといった処理を施したものである.ただし,この概念ベースもあくまで機械構築であるため,人間の感覚と一致する属性の率は(サンプル評価によると)約6割である.
\section{概念間の関連性評価法}
\subsection{概念間の関連度}概念間の関連度とは,2つの概念Aと概念Bの関連の強さを定量的に評価するものである.例えば,概念「電車」に対して,「汽車」,「自動車」,「馬」の関連の強さがどれほどのものかを知りたいとき,表\ref{T1}のように関連の強さを定量化(数値化)できれば,コンピュータにも判断できるようになる.この場合,概念「電車」に対しては,「汽車」が最も関連が強いということがわかり,また「汽車」,「自動車」,「馬」の順に関連が強いこともわかる.\begin{table}[tb]\caption[]{関連度の例}\label{T1}\begin{center}\begin{tabular}{|c|c|c|}\hline基準概念&対象概念&関連度\\\hline\hline&汽車&0.36\\\cline{2-3}電車&自動車&0.25\\\cline{2-3}&馬&0.09\\\hline\end{tabular}\end{center}\end{table}概念と概念の関連性(類似度または関連度)を評価する方法としては,シソーラスを用いる方法\cite{Kurohashi,Nagao,Sumita,Fujii,Uramoto,Ooi}やベクトル空間モデルによる方法\cite{salton,Schutze,Fujii,Inako,kasahara4,Kojima}等がある.ベクトル空間モデルによる方法では,単語ベクトルの表現方法が問題となる.たとえば,概念数100個の概念ベースを用いて単語ベクトルを構成する場合,もっとも単純には,100次元の単語ベクトル空間を用いることとなる.しかし,ベクトル空間モデルでは各基底ベクトルは互いに独立している必要があるのに対し,このような単純な方法では,各基底ベクトルはまったく独立していない.そこで通常は,概念数より少ない次元に次元圧縮を行い各基底ベクトル間の独立性を高める方策が採られる.\cite{kasahara4}では辞書の語義文を元に作成された概念ベース(基本CB)を利用し,各単語(概念)をシソーラスを用いて次元圧縮を行っている.すなわち,約2700のシソーラスのノードを基底ベクトルとみなすことで,約3万4千個の基本概念ベースの概念を約2700次元のベクトル空間で扱っている.また,同じく概念ベースを利用する方法として,概念の属性の一致度と重みを利用する意味関連度計算方式\cite{Izutsu,Watabe}がある.この方法では,概念をベクトルとはみなさず,重み付き属性の集合として扱う点が特徴である.詳細は4章で述べる.シソーラスを用いる方法よりも概念ベースを用いたベクトル空間モデルによる方法が優れているという報告\cite{Kawashima}があり,また,ベクトル空間モデルによる方法よりも意味関連度計算方式の方が良い評価結果が得られている\cite{Watabe}ため,本稿では意味関連度計算方式の拡張方式について報告する.すなわち,概念ベースにおける概念表記と概念表記の共起情報を用いた共起関連度計算方式を提案し,また,共起関連度計算方式と意味関連度計算方式を複合利用する関連性評価方式について提案する.なお,本論文では,既存論文でほぼ同じ状況で比較実験が行われている中で最も優れていると考えられる手法との比較実験のみを行うが,より広い意味での概念間関連度計算手法同士の比較実験は必要であり,今後の課題とする.特に,\cite{Okamoto}では,大勢の人間を使った連想実験により概念間距離の定式化を試みており,人間の感覚により近い概念間距離を算出できる可能性が高いが,概念数が少なく網羅性が低いため,本論文では比較対象にはしていない.\subsection{関連度計算法の評価方法}本研究では,直接的類似性や間接的類似性を問わず,人間が常識的にイメージする概念間の距離に近いほど,その関連度計算法は優れていると判断する.そこで,関連度計算法の評価をするために,人手によって作成した評価用データを用いて行う.\subsubsection{評価用データ}人間が任意の概念X(基準概念)に対して,高い関連を示す概念A,関連のある概念B,ほとんど関連のない概念Cと判断した4つの概念(X-A,B,C)を1セットとして大量に用意した.そして,さらにそのデータに対して作成者以外の3人に判断してもらい,3人中3人が正しいと判断したデータのみを使用する.また,評価用データの概念はすべて概念ベースで定義されている概念のみで構成されている.本稿では,このように作成した合計2370組の評価用データ(表\ref{T2})を用いて関連度計算法の評価を行う.\begin{table}[tb]\caption[]{評価用データ(一部)}\label{T2}\begin{center}\begin{tabular}{|c|c|c|c|}\hlineX&A&B&C\\\hline\hline椅子&腰掛け&机&像\\\hline医師&医者&看護婦&山\\\hline海&海洋&塩&車\\\hline病&病気&医者&勇気\\\hline$\cdots$&$\cdots$&$\cdots$&$\cdots$\\\hline\end{tabular}\end{center}\end{table}\subsubsection{評価方法}評価は概念Xと概念Aとの関連度Rel(X,A),概念Xと概念Bとの関連度Rel(X,B),概念Xと概念Cとの関連度Rel(X,C)が,\begin{eqnarray}Rel(X,A)-Rel(X,B)>AveRel(X,C)\\Rel(X,B)-Rel(X,C)>AveRel(X,C)\\AveRel(X,C)=(1/2370)\sum_{i=1}^{2370}Rel(X_i,C_i)\end{eqnarray}を満たすときを正解とする.この評価法をC平均評価法と呼ぶことにする.概念Xと無関連である概念Cとの関連度Rel(X,C)は0.0になるのが理想である.しかし実際はある程度の数値が雑音として算出される.そこで,ただ単に概念Xと概念A,B,Cとの関連度がA,B,Cの順になるだけではなく,誤差であるAveRel(X,C)の値より優位な差がありなおかつ概念Xと概念A,B,Cとの関連度がA,B,Cの順になるものだけを正解とした.関連度計算法で評価用データ全体の正解率が高ければ人間の感覚に近い判断ができていることになる.なお,評価方法についても,各論文ごとに異なっているのが現状である.本論文では,既存研究の評価方法を参考にしながら,人間の感覚により近いものをよしとし,なるべく機械的に客観的に評価したいという観点から,上記の評価方法を取っている.
\section{意味関連度計算方式}
\label{S4}概念ベースでは,各概念はその概念に何らかの意味で関連する概念(属性)と重みの対の集合として定義されている.この属性と重みの対の集合は,その概念の意味を近似的に表しているものととらえられる.したがって,二つの概念間の意味的な距離は,それらの属性と重みの対の集合がどの程度似ているかを評価することで得られると考える.ところで,各概念の属性はまた概念でもあるため,属性同士が完全に同じでなくとも似ている度合いを評価可能である.すなわち,二つの概念間の意味的な距離は,再帰的に,属性と重みの対の似ている度合いを評価することにより得られる.この再帰は,厳密には,無限に深いものであるが,計算効率と精度を考慮して,二次属性までを使用する.すなわち,二つの概念A,B間の意味関連度は,各概念を二次属性まで展開し,一致する属性と重みによって求める一致度を使い計算する.一致度は0〜1の実数値をとる.具体的には,一致する二次属性を調べ,その重みを使って計算する一致度の和が最大になる一次属性の組み合わせを作る.一次属性の組み合わせを作る場合には,遺伝的アルゴリズムなどを使うことによって最適な組み合わせを作ることが考えられるが,最大値を取る組み合わせを順に取ることによっても比較的良い関連度が得られることがわかっている\cite{Ukita}.以下,二つの概念A,Bの意味関連度をMR(A,B)と定義し,意味関連度の計算方法を示す.\subsection{計算方法}\subsubsection{一致度の計算方法}概念$A$,$B$をその一次属性を$a_i$,$b_j$,重みを$u_i$,$v_j$とし,属性がそれぞれ$L$個,$M$個($L\leM$)とすると,\begin{eqnarray}A&=&\{(a_1,u_1),(a_2,u_2),\cdots,(a_L,u_L)\}\\B&=&\{(b_1,v_1),(b_2,v_2),\cdots,(b_M,v_M)\}\end{eqnarray}と表現できる.このとき,概念$A$と$B$の一致度$MatchWR(A,B)$は,\begin{eqnarray}MatchWR(A,B)&=&\sum_{a_i=b_j}\min(u_i,v_j)\end{eqnarray}(各概念の重みの総和は1に正規化する)と定義する.ただし,$a_i=b_j$は属性(概念表記)$a_i$と$b_j$とが同じであることを表す.このとき,一致度は一致する属性のうち小さい方の重みとなるが,これは両方の属性に共通して存在する重み分は有効だと考えるためである.\subsubsection{意味関連度の計算方法}意味関連度は,対象となる全ての一次属性の組み合わせについて一致度を計算し,一次属性どうしの対応を決定することにより計算する.具体的には,一致する一次属性どうし($a_i=b_j$)については優先的にその対応を決定する.一致しない一次属性については,その一致度の合計が最大になるように一次属性どうしの対応を決定する.一致度を利用することによって,一致しない(概念表記が異なる)一次属性についても関連の度合いを考慮に入れることができる.一次属性どうしが一致するものがない場合,概念$A$,$B$のうち属性数の少ない概念を$A$($L\leM$)とし,概念$A$の一次属性の並びを固定する.\begin{eqnarray}A&=&((a_1,u_1),(a_2,u_2),\cdots,(a_L,u_L))\end{eqnarray}概念$B$の各一次属性を対応する概念$A$の各一次属性との一致度(MatchWR)の合計が最大になるように並べ替える.\begin{eqnarray}B_x&=&((b_{x1},v_{x1}),(b_{x2},v_{x2}),\cdots,(b_{xL},v_{xL}))\end{eqnarray}($\{b_{xL+1},\cdots,b_{xM}\}$は無視する.)このように対応を決めると,概念$A$と$B$の意味関連度$MR(A,B)$は,\begin{eqnarray}MR(A,B)&=&\sum_{i=1}^{L}MatchWR(a_i,b_{xi})(u_i+v_{xi})(\min(u_i,v_{xi})/(\max(u_i,v_{xi}))/2\end{eqnarray}となる.すなわち,意味関連度は対応する一次属性の一致度と,それらの属性の重みの平均および重みの比に比例すると考える.一次属性どうしが一致する(概念表記が同じ)ものがある場合($a_i=b_j$)は,別扱いにする.これは概念ベースには約9万の概念が存在し,属性が一致することは稀である.従って,属性の一致の扱いを別にすることにより,属性が一致した場合を大きく評価するためである.具体的には,対応する属性の重み$u_i$,$v_j$の大きさを重みの小さい方にそろえる.このとき,重みの大きい方はその値から小さい方の重みを引き,もう一度,他の属性と対応をとることにする.例えば,$a_i=b_j$で$u_i=v_j+\alpha$とすれば,対応が決定するのは$(a_i,v_j)$と$(b_j,v_j)$であり,$(a_i,\alpha)$はもう一度他の属性と対応させる.このように対応を決め,対応の取れた属性の組み合わせが$T$個の場合,\begin{eqnarray}A'&=&((a'_1,u'_1),(a'_2,u'_2),\cdots,(a'_T,u'_T))\\B'&=&((b'_1,v'_1),(b'_2,v'_2),\cdots,(b'_T,v'_T))\end{eqnarray}となる.概念$A$と$B$の意味関連度$MR(A,B)$は,\begin{eqnarray}MR(A,B)&=&\sum_{i=1}^{T}MatchWR(a'_i,b'_{i})(u'_i+v'_{i})(\min(u'_i,v'_{i})/(\max(u'_i,v'_{i}))/2\label{EMR}\end{eqnarray}となる.一致度と意味関連度の計算例を概念「机」と「椅子」を例に示す.二つの概念の一次,二次属性を表\ref{T3}に示す.\begin{table}[htb]\caption[]{一次属性と二次属性}\label{T3}\begin{center}\begin{tabular}{|c|c|}\hline概念&一次属性\\\hline机&(学校,0.6),(勉強,0.3),(本棚,0.1)\\\hline椅子&(勉強,0.5),(教室,0.3),(木,0.2)\\\hline\end{tabular}\\(a)一次属性\\\end{center}\begin{center}\begin{tabular}{|c|c|}\hline一次属性&二次属性\\\hline学校&(大学,0.4),(校舎,0.4),(木造,0.2)\\\hline勉強&(予習,0.5),(試験,0.3),(本,0.2)\\\hline本棚&(図書,0.6),(書物,0.3),(本,0.1)\\\hline教室&(教師,0.4),(校舎,0.4),(生徒,0.2)\\\hline木&(森林,0.5),(木造,0.4),(葉,0.1)\\\hline\end{tabular}\\(b)二次属性\end{center}\end{table}一次属性「勉強」と「本棚」の一致度は,属性「本」のみが一致するため,その重みの小さい方をとり,次式のように計算できる.\begin{eqnarray}MatchWR(勉強,本棚)=\min(0.2,0.1)=0.1\end{eqnarray}同様に全ての一次属性の組み合わせについて一致度を計算した結果が表\ref{T5}である.\begin{table}[tb]\caption[]{一致度マトリックス}\label{T5}\begin{center}\begin{tabular}{|c|c|c|c|}\hline&学校&勉強&本棚\\\hline勉強&0&{\bf1}&{\bf0.1}\\\hline教室&{\bf0.4}&0&0\\\hline木&0.2&0&0\\\hline\end{tabular}\end{center}\end{table}意味関連度の計算は,まず一致部分(概念表記が一致するもの)から行う.次に残りの部分について一致度の大きいところから順に対応を決めると意味関連度は次式のように計算できる.\begin{eqnarray}MR(机,椅子)&=&1\times(0.3+0.3)(0.3/0.3)/2\nonumber\\&&+0.4\times(0.6+0.3)(0.3/0.6)/2\nonumber\\&&+0.1\times(0.1+0.2)(0.1/0.2)/2\label{EEX1}\end{eqnarray}表\ref{T3}(a)より,一次属性「勉強」が一致している.そこで,重みの大きいほうの「勉強」を二つに分解し,一致度が大きい順に対応を決めると(一致度は表\ref{T5}より,MatchWR(勉強,勉強)=1,MatchWR(学校,教室)=0.4,MatchWR(本棚,勉強)=0.1)以下のようになる.\begin{tabular}{rrrrrrr}机&=&(&(勉強,0.3),&(学校,0.6),&(本棚,0.1)&)\\椅子&=&(&(勉強,0.3),&(教室,0.3),&(勉強,0.2)&)\\一致度&=&&1,&0.4,&0.1&\\\end{tabular}そして,式\ref{EMR}に代入すると(この場合$T=3$)式\ref{EEX1}となる.\subsection{評価実験}評価用データを用いて,意味関連度計算方式の評価実験を行った.評価実験の結果はC平均評価法で正解率は71.1\%であった.詳細を表\ref{T6}に示す.ただし,$a>^*b$は,$Rel(X,a)-Rel(X,b)>AveRel(X,C)$を表す.\begin{table}[tb]\caption[]{意味関連度の評価実験結果}\label{T6}\begin{center}\begin{tabular}{|c|c|}\hline判定&正解率\\\hline$A>^*B>^*C$&71.1\%\\\hline$A>^*B$&88.4\%\\\hline$B>^*C$&80.8\%\\\hline$A>^*C$&96.4\%\\\hline\end{tabular}\end{center}\end{table}表\ref{T6}の結果から概念Xに対して中程度の関連のある概念Bと関連のない概念Cの判定が上手くいっていないものが多いことがわかる.表\ref{T7}にその誤りであったものの一部を示す.この表のうち,括弧付で表している概念(B,C)の判定が誤っていた.\begin{table}[tb]\caption[]{意味関連度の誤り(一部)}\label{T7}\begin{center}\begin{tabular}{|c|c|c|c|}\hlineX&A&B&C\\\hline\hline道&道路&({\bf車})&({\bf点})\\\hline買う&購入&({\bf金})&({\bf雨})\\\hline話す&会話&({\bf人})&({\bf煉瓦})\\\hline歩く&歩行&({\bf動物})&({\bf黒板})\\\hlineフェリー&船&({\bf海})&({\bf地蔵顔})\\\hlineでぶ&肥満&({\bf脂肪})&({\bf穴居})\\\hline\end{tabular}\end{center}\end{table}評価用データの概念Aは概念Xと同義・類義といったように意味的に近い単語であるのに対して,「道−車」,「買う−金」,「でぶ−脂肪」のように概念Bは概念Xと意味的に近い単語というよりは概念Xから連想により導き出せる単語が多い.意味関連度計算方式は概念の属性の一致度合いから関連性を判断しているため,連想により導き出せるような単語の間の関連性判断は上手くできないと考えられる.(ただし,概念ベースには新聞記事における共起情報によるデータも多く含まれているため,ある程度高い正解率にはなっている.)人が「買う−金」の方が「買う−雨」よりも関連が強いと思うのは,「買う−金」が共に使われる頻度が「買う−雨」が共に使われる頻度よりも高いためであると考えられる.このように概念表記の対がよく出現する概念の間には関連があることを考慮に入れた関連度計算方式を次章で提案する.
\section{共起関連度計算方式}
\label{S5}人が概念間の関連性を判断する場合,「自動車−車」,「電車−汽車」といったように意味的な近さ(直接的類似性)が重要な判断基準となると考えられる.そこでこれまで概念の意味属性の一致度と重みを利用する意味関連度計算方式により,意味的にどれだけ近いかを判断することで概念間の関連性を評価してきた.ところが意味関連度計算方式では「道−車」,「買う−金」のように連想により導き出せるような単語の間の関連性の判断が十分に行えないことが評価実験によりわかった.人がこれらの単語の間に関連があると判断するのは,共に使われる頻度が他の単語と使われる頻度よりも高いためであると考えられる.そのため意味的な近さを判断するだけの意味関連度計算方式ではこのような単語の間の関連性の判断は難しい.そこで概念表記の対でよく出現する概念間には関連があることを考慮に入れた関連性評価法について考える.\subsection{表記的共起関連度計算方式}ある概念表記の対が複数の文書で共出現する頻度が高ければ高いほどその概念の間には関連があると考えられる.本稿では,これらの共起情報を求めるために概念ベースを利用し,概念を構成する属性集合の中でどれだけ共出現するかを調べる.(概念ベースは,国語辞書や新聞記事から単語を切り出して作成しているため仮想的な文書空間ととらえることができる.)\subsubsection{計算方式}概念表記の対が共出現する頻度から関連性を判断する表記的共起関連度を以下の式で定義する(図\ref{Fig2}).\begin{eqnarray}Co(A,B)&=&\left(\frac{df(A\&B)}{df(A)}+\frac{df(A\&B)}{df(B)}\right)/2\end{eqnarray}ただし,$df(A\&B)$は概念表記$A$,$B$が共に一次属性に出現する概念数,$df(A)$は概念表記$A$が一次属性に出現する概念数,$df(B)$は概念表記$B$が一次属性に出現する概念数とする.\begin{figure}[tb]\begin{center}\epsfile{file=fig2.eps,width=6.0cm}\end{center}\caption{表記的共起}\label{Fig2}\end{figure}例えば,$df(自動車\&運転)$は,「自動車」と「運転」を共に属性に持つ概念数を数えるわけであるが,「車」と「運転」を共に持つ概念は対象にならない.このように,意味的に近い単語との共起は考慮せず,「自動車−運転」という『表記』の対がどれだけ出現するかを評価するものであるので,表記的共起関連度計算方式と呼ぶことにする.\subsubsection{評価実験}評価用データを用いて,表記的共起関連度計算方式の評価実験を行った.評価実験の結果はC平均評価法で正解率は49.7\%であった.表\ref{T8}に評価実験で誤ったものの一部を示す.\begin{table}[tb]\caption[]{表記的共起関連度の誤り(一部)}\label{T8}\begin{center}\epsfile{file=table8.eps,width=12.0cm}\end{center}\end{table}表\ref{T8}の$Co(コーナー,曲がり角)=0.000$,$Co(マスタード,辛子)=0.000$,のように$Co(X,A)=0.000$となるものが2370組中354組(14.9\%),$Co(警察,拳銃)=0.000$,$Co(マスタード,香辛料)=0.000$のように$Co(X,B)=0.000$となるものが838組(35.4\%)と表記的共起関連度0が頻出した.表記的共起関連度計算方式で5割程度の正解率を得ることしかできなかったのは,概念$X$に対して高関連である概念$A$や中関連である概念$B$と共起せず表記的共起関連度が0になる評価セットが多数存在したためである.\subsection{意味的共起関連度計算方式}表記的共起関連度計算方式では,概念ベースの一次属性を用いて,概念表記が共起する率を調べている.しかし,評価結果からもわかるように,関連が強いと思われる概念同士でもその概念表記がまったく共起しない場合が多々現れる.そこで,一次属性のみではなく,二次,三次と使用する属性の範囲を広げていけば,関連の強い概念同士では共起率が高くなっていくものと思われる.(このことは,「自動車」と「運転」の共起を調べるときに,「車」と「運転」の共起も同時に調べることに相当する.)ところが,二次,三次と使用する属性の範囲を広げると,扱うべき概念表記の数が指数関数的に増大していくため計算効率が急激に悪くなる.さらには,全概念空間を探索することになるが,ほとんどは無関係の部分であり非常に無駄が多い.そこで,全概念空間を探索するのではなく,可能性の高そうな部分のみに限定して意味的な共起を調べる手法を提案する.概念$A$と概念$B$の関連が強いほど,それぞれの概念の意味特徴を表す属性集合内に対象とする概念表記が数多く出現すると考えられる.すなわち,概念$A$の$n$次属性に概念表記$B$が多数現れ,概念$B$の$n$次属性に概念表記$A$が多数出現するものと考えられる.このような性質から関連性を判断する方法を意味的共起関連度計算方式と呼ぶことにする(図\ref{Fig3}).\begin{figure}[tb]\begin{center}\epsfile{file=fig03.eps,width=6.0cm}\end{center}\caption{意味的共起}\label{Fig3}\end{figure}\subsubsection{計算方式}対象とする属性集合をどこまで広げるか,すなわち何次属性までを対象とするか,という問題がある.そこで一次,二次,三次属性まで展開した場合の意味的共起関連度を以下のように定義する.\begin{eqnarray}CoM1(A,B)&=&\left(\frac{Nb_1}{NA_1}+\frac{Na_1}{NB_1}\right)/2\\CoM2(A,B)&=&\left(\frac{Nb_2}{NA_2}+\frac{Na_2}{NB_2}\right)/2\\CoM3(A,B)&=&\left(\frac{Nb_3}{NA_3}+\frac{Na_3}{NB_3}\right)/2\end{eqnarray}ただし,$NA_n$は概念$A$の$n$次属性数,$NB_n$は概念$B$の$n$次属性数,$Na_n$は概念表記$A$が概念$B$の$n$次属性内に出現する回数,$Nb_n$は概念表記$B$が概念$A$の$n$次属性内に出現する回数とする.しかし,上記の計算方法では多少問題があるように思われる.例えば概念$A$の属性集合内に概念表記$B$が10回出現する場合と概念表記$C$が10回出現する場合を考える.出現回数が同じだからといって概念$A$に対して概念$B$と概念$C$は同じくらい関連があるとはいえないであろう.なぜなら,概念ベースの全概念の属性内に10回しか出現しない概念表記$B$が,概念$A$の属性集合内に10回出現する場合と,概念ベースの全概念の属性内に10000回出現する概念表記$C$が,概念$A$の属性集合内に10回出現する場合とでは,明らかに概念$A$にとって概念$B$の方が概念$C$よりも関連があると考えられるからである.そこで,情報検索の分野でよく用いられる稀に出現する語を重要とする$idf$値を利用して評価する方法を,以下の式で定義する.\begin{eqnarray}CoM1\_idf(A,B)&=&\left(\frac{Nb_1\timesidf(B)}{NA_1}+\frac{Na_1\timesidf(A)}{NB_1}\right)/2\\CoM2\_idf(A,B)&=&\left(\frac{Nb_2\timesidf(B)}{NA_2}+\frac{Na_2\timesidf(A)}{NB_2}\right)/2\\CoM3\_idf(A,B)&=&\left(\frac{Nb_3\timesidf(B)}{NA_3}+\frac{Na_3\timesidf(A)}{NB_3}\right)/2\\idf(t)&=&\log\frac{N_{All}}{df(t)}+1\end{eqnarray}ただし,$N_{All}$は概念総数(87242),$df(t)$は概念表記$t$を三次属性内に持つ概念の数である.ここで,$idf$値を求める際の出現頻度$df$値は三次属性を用いているが,これは,実験的に検証した\cite{Sakata}ものである.\subsubsection{評価実験}出現回数のみで評価する方法と$idf$値を用いて評価する方法で精度比較を行う.ここで属性を何次まで展開すればいいか,また属性をいくつまで使うのがいいのかを評価する必要がある.そこで,評価用データに対し,打ち切り属性数を10から100まで10間隔で変化させたものと打ち切りなし,つまりすべての属性を使う場合で,評価用データの正解率にどのような変化があるのか調査した.その結果を図\ref{Fig4}に示す.図\ref{Fig5}にはそれぞれの計算方式で最も良かった正解率のグラフを示す.\begin{figure}[tb]\begin{center}\epsfile{file=fig04.eps,width=10.0cm}\end{center}\caption{パラメータ実験結果}\label{Fig4}\end{figure}\begin{figure}[tb]\begin{center}\epsfile{file=fig5.eps,width=10.0cm}\end{center}\caption{意味的共起関連度評価結果}\label{Fig5}\end{figure}一次属性,二次属性まで展開する場合は,属性はすべて使用した場合がもっとも精度がよかった.三次属性まで展開する場合は,打ち切り属性数30のとき最も精度がよかった.また,すべての場合において,ただ単に出現回数だけで評価する方法よりもidf値を利用した方法のほうが精度がよかった.今回提案した意味的共起関連度計算方式のうち最も精度がよかったのは,それぞれ使用する属性数を30にして三次属性まで展開して$idf$値を用いる計算方式であり,正解率は68.1\%であった.\subsection{共起関連度に関する考察}概念表記の共起情報から関連性を判断する計算方法として表記的共起関連度計算方式と意味的共起関連度計算方式を提案した.評価実験の結果,表記的共起関連度計算方式より意味的共起関連度計算方式のほうが精度が良かった.意味的共起関連度計算方式で最も精度の良かった方式$CoM3\_idf$の正解率は68.1\%であった.これは意味関連度計算方式の正解率71.1\%より低い値である.しかし,意味関連度計算方式で誤った($X-A,B$)の274組,($X-B,C$)の455組,($X-A,C$)の85組に対して$CoM3\_idf$で評価したところ,($X-A,B$)で48組(正解率17.5\%),($X-B,C$)で243組(正解率53.4\%),($X-A,C$)で31組(正解率36.5\%)が正解になった.注目すべきところは,意味関連度計算方式で判断が上手くできなかった($X-B,C$)の判断が共起関連度計算方式を用いれば適切な判断ができるようになることである.このことから意味関連度計算方式と共起関連度計算方式を複合利用することで,よりよい関連性の判断ができると考えられる.
\section{意味共起関連度計算方式}
\ref{S4}章で述べた意味関連度計算方式と\ref{S5}章で述べた共起関連度計算方式を複合利用することで,よりよい関連性の判断の実現を目指す.\subsection{意味関連度と共起関連度の合成}意味関連度計算方式と共起関連度計算方式を合成して評価する式を以下の式で定義し,この計算方式を意味共起関連度計算方式と呼ぶことにする.\begin{eqnarray}MCR(A,B)&=&\frac{MR(A,B)+C_w\timesCR(A,B)}{1+C_w}\end{eqnarray}ただし,$MR(A,B)$は意味関連度,$CR(A,B)$は共起関連度,$C_w$は重み定数とする.意味共起関連度計算方式では,共起関連度に重み$C_w$を付与し,意味関連度に足し合わせ意味共起関連度を求める.\subsection{意味共起関連度計算方式の評価実験}評価用データを用いて,意味共起関連度計算方式の評価実験を行う.評価方法は,共起関連度に付与する重み$C_w$を0.0から10.0まで0.005間隔で変化させ,評価用データの正解率が最大になる$C_w$を調べた.その結果を表\ref{T9}と図\ref{Fig6}に示す.\begin{table}[tb]\caption[]{パラメータ実験結果}\label{T9}\begin{center}\epsfile{file=table9.eps,width=5.0cm}\end{center}\end{table}\begin{figure}[tb]\begin{center}\epsfile{file=fig6.eps,width=10.0cm}\end{center}\caption{意味共起関連度評価結果}\label{Fig6}\end{figure}表\ref{T9},図\ref{Fig6}から,最も精度が良かったのは,意味関連度計算方式と共起関連度計算方式$CoM2\_idf$に重み$C_w$=8.970を付与して組み合わせた意味共起関連度計算方式(正解率76.5\%)で,意味関連度計算方式単独の正解率71.1\%と比較して5.4\%精度向上したことがわかる.評価用データ1組に対し3回(X-A,X-B,X-C)の関連度計算を行っているので2370組では7110個の関連度の値が算出される.そこで意味関連度計算方式と共起関連度計算方式$CoM2\_idf$の関連度分布(降順)の全体を図\ref{Fig7},関連度上位20個の部分を図\ref{Fig8}に示す.図より意味関連度の値が0から1の範囲に分布しているのに対して,共起関連度が0.1より大きいのは7110個中わずか9個であり,共起関連度の値は0から0.1の範囲に分布していることがわかる.意味関連度に対して,共起関連度に付与する重みが$C_w$=8.970と大きな値になっているのはこのためである.\begin{figure}[tb]\begin{center}\epsfile{file=fig7new.eps,width=12.0cm}\end{center}\caption{関連度の分布(全体)}\label{Fig7}\end{figure}\begin{figure}[tb]\begin{center}\epsfile{file=fig8.eps,width=12.0cm}\end{center}\caption{関連度の分布(上位20)}\label{Fig8}\end{figure}意味関連度計算方式に対して共起関連度計算方式がどれだけ効果があるかを知るためには,意味関連度と共起関連度の範囲をあわせる必要がある.そこで以下の式で共起関連度$CR$の値を0から1の範囲に拡張した.\begin{equation}CR=\left\{\begin{array}{ll}1.0&\mbox{if$CoM2\_idf\ge0.10$}\\10\timesCoM2\_idf&\mbox{otherwise}\end{array}\right.\end{equation}意味関連度と拡張した共起関連度を組み合わせた意味共起関連度計算方式について同様の実験を行ったところ図\ref{Fig9}のようになり,$C_w=0.90$の場合に意味共起関連度計算方式の精度が最大の76.5\%になることがわかった.\begin{figure}[tb]\begin{center}\epsfile{file=fig9.eps,width=12.0cm}\end{center}\caption{パラメータ評価実験結果(一部)}\label{Fig9}\end{figure}\subsection{意味共起関連度計算方式の考察}意味関連度計算方式のみで概念間の関連性を評価した場合の正解率は71.1\%であった.意味関連度と重みを付与した共起関連度を加える意味共起関連度計算方式では76.5\%と意味関連度計算方式よりも5.4\%高い精度で関連性の判断を行うことができた.また,意味関連度計算方式(正解率71.1\%)と共起関連度計算方式($CoM2\_idf$,正解率62.9\%)それぞれの正解率をみると,意味関連度計算方式の方が共起関連度計算方式より正解率が高いことから,意味関連度に対して,共起関連度に付与する重み,$C_w=0.90$という値は意味関連度計算方式の誤差を共起関連度計算方式が補正するための値として適切であるといえる.表\ref{T10}に意味関連度計算方式と意味共起関連度計算方式の評価結果の詳細を示す.注目すべきところは,意味関連度計算方式で(X-B,C)の正解率が80.8\%だったのが,意味共起関連度計算方式では86.2\%と5.4\%精度向上しているところである.\begin{table}[tb]\caption[]{意味関連度と意味共起関連度の評価結果}\label{T10}\begin{center}\begin{tabular}{|c|c|c|}\hline&意味&意味共起\\\hline判定&正解率&正解率\\\hline$A>^*B>^*C$&71.1\%&76.5\%\\\hline$A>^*B$&88.4\%&88.8\%\\\hline$B>^*C$&80.8\%&86.2\%\\\hline$A>^*C$&96.4\%&97.0\%\\\hline\end{tabular}\end{center}\end{table}表\ref{T11}に意味関連度計算方式で誤って,意味共起関連度計算方式で正解した評価結果の一部を示す.これは,表\ref{T7}で示した意味関連度の誤りの評価例であり,意味共起関連度計算方式により正しく判断ができるようになった.ただし,同じく表\ref{T11}からわかるように,関連度の値そのものは人間が感覚的に抱く概念間の距離に相当するところまでは行っていない.現状では,高関連・有関連・無関連をほぼ区別できる程度であり,更なる改良が必要である.\begin{table}[tb]\caption[]{意味共起関連度評価結果(一部)}\label{T11}\begin{center}\epsfile{file=table11.eps,width=10.0cm}\end{center}\end{table}
\section{おわりに}
本稿では,直接的類似性や間接的類似性を問わず,人間が常識的にイメージする概念間の距離を算出する関連度計算法を提案した.従来,主に用いられていた概念の意味属性の一致度合から関連性を判断する意味関連度計算方式では,「自動車−車」のように意味的に近い単語に対しては精度の良い関連性判断が行えた.特に,概念ベースが辞書をベースに作成されたものである場合は,辞書的意味が近いかどうかを評価する意味関連度計算方式が優れていると言える.しかし,「道−車」のように意味的に近い単語ではなく連想により導き出せるような単語の間の関連性の判断は十分な精度が得られていなかった.そこで,本稿では,概念ベースに新聞記事からの共起情報を元に抽出した概念表記と属性を加え,さらに,概念表記と概念表記の共起情報から関連性を判断する共起関連度計算方式を提案した.この共起関連度計算方式と意味関連度計算方式を複合利用する意味共起関連度計算方式により,従来,関連性評価として用いていた意味関連度計算方式よりも的確に関連性の判断ができるようになったと考えられる.もちろん,適用目的が類似度の場合には意味関連度計算方式のみを用いることになる.\acknowledgment本研究を進めるにあたって,評価実験などで適切な支援を頂いた青田正宏氏に感謝いたします.また,本研究は文部科学省からの補助を受けた同志社大学の学術フロンティア研究プロジェクトにおける研究の一環として行った.\begin{thebibliography}{}\bibitem[\protect\BCAY{Fujii,Inui,Tokunaga\BBA\Tanaka}{Fujii\Jetal}{1998}]{Fujii}Fujii,A.,Inui,K.,Tokunaga,T.\BBACOMMA\\BBA\Tanaka,H.\BBOP1998\BBCP.\newblock\JBOQSelectivesamplingforexample-basedwordsensedisambiguation\JBCQ\newblock{\BemComputationalLinguistics},{\Bbf24}(4),pp.573--597.\bibitem[\protect\BCAY{広瀬,渡部,河岡}{広瀬\Jetal}{2002}]{Hirose}広瀬幹規,渡部広一,河岡司\BBOP2002\BBCP.\newblock\JBOQ概念間ルールと属性としての出現頻度を考慮した概念ベースの自動精錬手法\JBCQ\\newblock信学技報,TL2001-49,pp.109--116.\bibitem[\protect\BCAY{井筒,渡部,河岡}{井筒\Jetal}{2002}]{Izutsu}井筒大志,渡部広一,河岡司\BBOP2002\BBCP.\newblock\JBOQ概念ベースを用いた連想機能実現のための関連度計算方式\JBCQ\\newblock情報科学技術フォーラムFIT2002,pp.159--160.\bibitem[\protect\BCAY{稲子,笠原,松澤}{稲子\Jetal}{2000}]{Inako}稲子希望,笠原要,松澤和光\BBOP2000\BBCP.\newblock\JBOQ複合語内単語共起による名詞の類似性判別\JBCQ\\newblock情報処理学会論文誌,{\Bbf41}(8),pp.2291--2298.\bibitem[\protect\BCAY{笠原,松澤,湯川,石川,河岡}{笠原\Jetal}{1993}]{kasahara1}笠原要,松澤和光,湯川高志,石川勉,河岡司\BBOP1993\BBCP.\newblock\JBOQアバウト推論のための多観点概念ベース--構築と評価\JBCQ\\newblock人工知能学会全国大会.\bibitem[\protect\BCAY{笠原,松澤,石川}{笠原\Jetal}{1997}]{kasahara4}笠原要,松澤和光,石川勉\BBOP1997\BBCP.\newblock\JBOQ国語辞書を利用した日常語の類似性判別\JBCQ\\newblock情報処理学会論文誌,{\Bbf38}(7),pp.1272--1283.\bibitem[\protect\BCAY{川島,石川}{川島\Jetal}{2003}]{Kawashima}川島貴広,石川勉\BBOP2003\BBCP.\newblock\JBOQ言葉の意味に関する類似性判別能力における概念ベースとシソーラスとの性能比較\JBCQ\\newblock情報処理学会第65回全国大会,2M-1.\bibitem[\protect\BCAY{小嶋,伊藤}{小嶋\Jetal}{1997}]{Kojima}小嶋秀樹,伊藤昭\BBOP1997\BBCP.\newblock\JBOQ文脈依存的に単語間の意味距離を計算する一手法\JBCQ\\newblock情報処理学会論文誌,{\Bbf38}(3),pp.482--489.\bibitem[\protect\BCAY{小島,渡部,河岡}{小島\Jetal}{2002}]{KKojima}小島一秀,渡部広一,河岡司\BBOP2002\BBCP.\newblock\JBOQ連想システムのための概念ベース構成法--属性信頼度の考え方に基づく属性重みの決定--\JBCQ\\newblock自然言語処理,{\Bbf9}(5),pp.93--110.\bibitem[\protect\BCAY{小島,渡部,河岡}{小島\Jetal}{2004}]{KKojima2}小島一秀,渡部広一,河岡司\BBOP2004\BBCP.\newblock\JBOQ連想システムのための概念ベース構成法--語間の論理的関係を用いた属性拡張--\JBCQ\\newblock自然言語処理,{\Bbf11}(3),pp.21--38.\bibitem[\protect\BCAY{黒橋,長尾}{黒橋\Jetal}{1992}]{Kurohashi}黒橋禎夫,長尾真\BBOP1992\BBCP.\newblock\JBOQ長い日本語文における並列構造の推定\JBCQ\\newblock情報処理学会論文誌,{\Bbf33}(8),pp.1022--1031.\bibitem[\protect\BCAY{長尾}{長尾\Jetal}{1996}]{Nagao}長尾真編\BBOP1996\BBCP.\newblock自然言語処理,\newblock岩波書店.\bibitem[\protect\BCAY{NTTコミュニケーション科学研究所}{NTTコミュニケーション科学研究所\Jetal}{1997}]{NTT}NTTコミュニケーション科学研究所\BBOP1997\BBCP.\newblock\JBOQ日本語語彙体系\JBCQ\\newblock岩波書店,1997.\bibitem[\protect\BCAY{岡本,石崎}{岡本\Jetal}{2001}]{Okamoto}岡本潤,石崎俊\BBOP2001\BBCP.\newblock\JBOQ概念間距離の定式化と電子化辞書との比較\JBCQ\\newblock自然言語処理,{\Bbf8}(4),pp.37--54.\bibitem[\protect\BCAY{大井,隅田,飯田}{大井\Jetal}{1997}]{Ooi}大井耕三,隅田英一郎,飯田仁\BBOP1997\BBCP.\newblock\JBOQ意味的類似性と多義解消を用いた文書検索手法\JBCQ\\newblock自然言語処理,{\Bbf4}(3),pp.51--70.\bibitem[\protect\BCAY{Salton\BBA\McGill}{Salton\BBA\McGill}{1993}]{salton}Salton,G.\BBACOMMA\\BBA\McGill,M.\BBOP1993\BBCP.\newblock{\BemIntroductiontomodernInformationRetrieval},\newblockMcGraw-Hill.\bibitem[\protect\BCAY{坂田,渡部,河岡}{坂田\Jetal}{2004}]{Sakata}坂田光広,渡部広一,河岡司\BBOP2004\BBCP.\newblock\JBOQ関連度と属性の情報価値を考慮した概念ベースの自動精錬手法\JBCQ\\newblock同志社大学理工学研究報告,(印刷中).\bibitem[\protect\BCAY{Schutze}{Schutze}{1998}]{Schutze}Schutze,H.\BBOP1998\BBCP.\newblock\JBOQAutomaticwordsensediscrimination\JBCQ\newblock{\BemComputationalLinguistics},{\Bbf24}(1),pp.97--123.\bibitem[\protect\BCAY{Sumita\BBA\Iida}{Sumita\Jetal}{1992}]{Sumita}Sumita,E.\BBACOMMA\\BBA\Iida,H.\BBOP1992\BBCP.\newblock\JBOQExample-basedtransferofJapaneseadnominalparticlesintoEnglish\JBCQ\newblock{\BemIEICETransactionsonInformationandSystems}\newblock,{\BbfE75-D}(4),pp.585--594.\bibitem[\protect\BCAY{浮田,渡部,河岡}{浮田\Jetal}{1998}]{Ukita}浮田知彦,渡部広一,河岡司\BBOP1998\BBCP.\newblock\JBOQ概念間の関連度計算への遺伝的アルゴリズムの適用\JBCQ\\newblock情報処理学会春期全国大会,1U-2.\bibitem[\protect\BCAY{Uramoto}{Uramoto}{1994}]{Uramoto}Uramoto,N.\BBOP1994\BBCP.\newblock\JBOQExample-basedwordsensedisambiguation\JBCQ\newblock{\BemIEICETransactionsonInformationandSystems}\newblock,{\BbfE77-D}(2),pp.240--246.\bibitem[\protect\BCAY{内海}{内海\Jetal}{2002}]{Utsumi}内海彰\BBOP2002\BBCP.\newblock\JBOQ言語と類似性\JBCQ\\newblock人工知能学会誌,{\Bbf17}(1),pp.8--13.\bibitem[\protect\BCAY{渡部,河岡}{渡部\Jetal}{2001}]{Watabe}渡部広一,河岡司\BBOP2001\BBCP.\newblock\JBOQ常識的判断のための概念間の関連度評価モデル\JBCQ\\newblock自然言語処理,{\Bbf8}(2),pp.39--54.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.工学博士.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会,日本知能情報ファジィ学会各会員.}\bioauthor{奥村紀之}{2003年同志社大学工学部知識工学科卒業.2005年同大学院工学研究科知識工学専攻博士前期課程修了.同年,同志社大学大学院工学研究科知識工学専攻博士後期課程入学.主に,概念処理の研究に従事.}\bioauthor{河岡司}{1966年大阪大学工学部通信工学科卒業.1968年同大学院修士課程修了.同年,日本電信電話公社入社,情報通信網研究所知識処理研究部長,NTTコミュニケーション科学研究所所長を経て,現在同志社大学工学部教授.工学博士.主にコンピュータネットワーク,知識情報処理の研究に従事.言語処理学会,人工知能学会,電子情報通信学会,情報処理学会,IEEE(CS)各会員.}\end{biography}\end{document}
| |
V16N03-02 | \section{はじめに}
一般家庭にもPC,ブロードバンドが普及し,ユーザは手軽に情報を収集できるようになってきている.しかし一方では,情報が過度に溢れ過ぎ,利用者の要求に合った情報を探し出す必要性が高まっている.その中で要求に適合した情報のみを選出するのではなく,情報をランキング付けして提示することも重要となっている.ランキング付けは,検索要求と検索対象との間の類似性や関連性をもとに行われ,これらを定量化することが求められる.その際,従来の情報検索でよく用いられているベクトル空間モデル\cite{Salton:75}などでは文書における単語の出現頻度や統計情報などを利用して検索要求と文書間の類似性を判断し,文書を選別している.このような手法は検索要求と文書内の各単語の表記が一致しない場合は関連性がないとの仮定にもとづいている.しかし,実際の文書において,語の表記が同じでも異なる意味を有したり(多義性),同じ意味でも語の表記が異なる場合(表記揺れ,同類義語)がある.さらに単語間には,互いに意味的な関連性を持って存在しており,表記だけを頼りに検索を行う手法ではユーザが入力する語によって検索結果が異なってしまう.そのためユーザが適切なキーワードを考えなければならない.その問題を解消するために,ユーザが入力したキーワードの意味を捉えた検索手法が必要である.このような背景から,本研究では文書における意味を捉えた検索を実現すべく,単語の意味特徴を定義した概念ベース\cite{okumura:07}を用いた検索手法を提案する.概念ベースを用いることによって,単語の表記のみでの検索方式とは異なり,意味を捉えた検索が可能になる.つまり,ユーザの入力語の表記的揺らぎに影響されず,意味的近さを定量化できる手法である.具体的には,概念ベースによって単語間の意味的な関連性を0から1までの数値として算出する.そして,その値をもとに検索要求と検索対象との類似度を画像検索等の分野で注目されている距離尺度であるEarthMover'sDistance(EMD)\cite{Rubner:00}により求める方法を提案する.また,概念ベースに存在しない固有名詞や新語に対して,Webをもとに新概念として定義し概念ベースを自動的に拡張する手法を提案する.
\section{先行研究と本研究の位置付け}
体系的に整理された辞書であるWordNet\cite{Miller:95}を用いて単語間の距離を定義し,EMDにより文書間の類似度を定義する手法\cite{Wan:06}が提案されている.これにより単語の意味的な関連性に着目した情報検索が実現されている.また,単語の共起情報をもとに単語間の関連性を定義し,EMDにより文書間の類似度を定義する手法が提案されている\cite{yanagimoto:07}.この手法では,単語の共起情報を用いることにより,全ての単語間の関連性を定義し,文書間の類似度を定義することを実現している.しかしながらこれらの手法の問題点として,WordNetなどの整理された辞書を用いる場合は,索引語の全てが辞書に含まれる保証がなく,全ての索引語間の関連性を求めることができない可能性がある.共起情報を手がかりにした場合は,用いる文書集合の特性や容量の影響を大きく受け,正確に関連性を定義しているとは言い難い.提案手法では,概念ベースを用いて索引語間の関連性を求め,さらに概念ベースに存在しない語においてはWebをもとに自動的に概念として定義する.これにより,単語間の関連性をより正確に定義し,さらにあらゆる新語に対応できる索引語の網羅性を実現する.
\section{基本事項}
\subsection{NTCIR3-WEB}\begin{figure}[b]\begin{center}\includegraphics{16-3ia2f1.eps}\caption{NTCIR3-WEBの検索課題の例}\label{fig:example_of_problem}\end{center}\end{figure}本研究では提案手法の効果を検証するため,日本での代表的な情報検索システム評価用のテストコレクションであるNTCIR\footnote{国立情報学研究所.http://research.nii.ac.jp/ntcir/ntcir-ws3/ws-ja.html}を用いた.NTCIRは文献データ集合,検索課題集合,各検索課題に対する文献の適合不適合判定からなるもので,同一のテストコレクションを利用することにより共通の基準で情報検索システムを評価することができるようにしたものである.その中でも,本研究では一般の利用者が実際に検索する環境に近いWeb検索用のテストコレクションであるNTCIR3-WEBを用いた.図\ref{fig:example_of_problem}にNTCIR3-WEBの検索課題の一例を示す.検索課題にはNUM,TITLE,DESC,NARR,CONC,RDOC,USERの7つのフィールドが含まれているが,このうち標準的なフィールドはTITLE(title),DESC(description),NARR(narrative),CONC(concept)の4つである.TITLEとは検索課題の内容を簡単に表したタイトル,DESCは検索する内容を文で記述したもの,NARRは検索する内容の詳細な説明,CONCは検索する内容を表すキーワードである.本研究では検索要求を文章で入力するシステムの開発を想定し,DESCのみを使用する.図\ref{fig:example_of_object}に検索対象(HTMLもしくはプレーンテキストファイル.言語は主に日本語と英語,ごく一部にその他の言語.100~GB)の一例を示す.実験には検索対象のタグを省いた全文を用いる.\begin{figure}[t]\begin{center}\includegraphics{16-3ia2f2.eps}\caption{NTCIR3-WEBの検索対象の例}\label{fig:example_of_object}\end{center}\end{figure}\subsection{索引語の取得と重み付け}本研究は日本語での検索を想定している.日本語は英語などとは異なり,単語間に明確な区切りがない.そこで,文章から単語を切り出す必要がある.本研究では形態素解析器を用いて行う.\subsubsection{形態素解析器}日本語構造の制約を利用し,単語の切り出しや品詞を同定することを形態素解析という.例えば,形容詞は名詞の前に付くことができるという法則である.実際は,日本語の複雑さのため完全に単語を切り出すことは難しいが,代表的な形態素解析器である茶筌\footnote{奈良先端科学技術大学院大学.http://chasen-legacy.sourceforge.jp/}は様々な工夫により高い精度で単語を正しく切り出すことができる.本研究では単語の切り出しに茶筌を用い,「名詞」,「形容詞」,「動詞」を索引語として用いる.\subsubsection{tf・idf}\label{tf_idf}索引語に対する重み付けは,情報検索の分野で広く用いられているtf・idf重み付け\cite{Salton:88}を使用する.tf・idfによる重み付けとは,対象としている単語の頻度と網羅性に基づいた重み付け手法である.文書$d$における索引語$t$の重み$wd(t,d)$は以下の式\ref{eq:tfidf}によって得られる.\begin{equation}wd(t,d)=tf(t,d){\times}idf(t)\label{eq:tfidf}\end{equation}$tf(t,d)$は文書$d$における索引語$t$の出現頻度である.ただし,$tf(t,d)$は文書長の影響を受けやすいため,本論文では以下の式\ref{eq:tf}に示す正規化手法を用いた.単語$t$の出現頻度を$tfreq(t,d)$,文書$d$に含まれる単語数を$tnum(d)$とする.\begin{equation}tf(t,d)=\frac{\log(tfreq(t,d)+1)}{\log(tnum(d))}\label{eq:tf}\end{equation}また,$idf(t)$は文書数$N$と索引語$t$が出現する文書の数$df(t)$によって決まり,式\ref{eq:idf}によって定義される.\begin{equation}idf(t)=\log\frac{N}{df(t)}+1\label{eq:idf}\end{equation}\subsubsection{不要語の削除}\begin{figure}[t]\begin{center}\includegraphics{16-3ia2f3.eps}\caption{検索課題idfによる不要語の削除}\label{fig:example_of_word}\end{center}\end{figure}本研究では不要語を削除するために評価データの実験に使用する検索対象の空間でのidf値をもとに検索対象内の不要語を削除した.不要語とは「する」や「こと」のような,どの文書にも出現し,文書を特定するために有効でない語を指す.検索対象の不要語削除の閾値は提案手法が適合判定レベルのLEVEL1においての評価(MAP)がidf値0から9の間で一番高くなるidf値5に設定した.適合判定LEVELと評価(MAP)などの評価方法については\ref{evaluationmethod}節で述べる.さらに検索課題空間でのidf値を利用し検索課題の索引語中の不要語を削除した.削除の例を図\ref{fig:example_of_word}に示す.これにより検索課題によく出現する「文書」や「様々」などの語を削除でき,検索課題として比較的意味があると考えられる「将来」,「歴史」,「地域」などを残すことができる.この閾値は目視により設定した.
\section{概念ベース}
\label{conceptbase}概念ベースとは複数の国語辞書や新聞などから機械的に構築した単語(概念)とその意味特徴を表す単語(属性)の集合からなる知識ベースである.概念には属性とその重要性を表す重みが付与されている.概念ベースには約12万語の概念表記が収録されており,1つの概念に平均約30個の属性が存在する.ある概念$A$は属性$a_i$とその重み$wc_i$の対の集合として,式\ref{eq:concept_base}で表される.\begin{equation}A=\{(a_1,wc_1),(a_2,wc_2),\cdots,(a_i,wc_i),\cdots,(a_n,wc_n)\}\label{eq:concept_base}\end{equation}任意の一次属性$a_i$は,その概念ベース中の概念表記の集合に含まれている単語で構成されている.したがって,一次属性は必ずある概念表記に一致するため,さらにその一次属性を抽出することができる.これを二次属性と呼ぶ.概念ベースにおいて,「概念」は$n$次までの属性の連鎖集合により定義されている(図\ref{fig:concept_base}).以下に,本研究で使用した大規模概念ベースの構築方法について述べる.\begin{figure}[b]\begin{center}\includegraphics{16-3ia2f4.eps}\caption{概念ベース}\label{fig:concept_base}\end{center}\end{figure}\subsection{概念ベースの構築方法}まず,基本となる概念ベースを複数の国語辞書から構築する.概念は国語辞書の見出し語から,属性は見出し語の語義説明文の自立語から,その重みは自立語の出現頻度に基づいて決定される\cite{kasahara:97}.そして,属性信頼度(語に関する種々の知識から属性としての確からしさを定量化した値)により不適切な属性の削除を行い,信頼性の高い属性を抽出する\cite{kojima:02}.これらにより概念数約3万4千語で平均属性数が16個の基本となる概念ベースが構築される.複数の国語辞書には約12万語の見出し語(辞書に収録されている約20万語語彙のうち見出し語として不適切な表記を除去した語)があり,辞書中の語義説明文だけでは属性が付与できない語が約9万語もあった.そこで,概念総数と属性数を拡張するために電子化新聞(毎日新聞,日本経済新聞)を用いて,各概念に対する共起語を属性候補として追加する.この際,もともと概念ベースに定義されている概念についても,同様に属性を取得する.その後,\ref{degree_of_association}節で説明する関連度計算により概念と属性の関連の強さを求め,その値と概念ベースの頻度情報をもとに属性の重み付けを行う.以上の処理により本研究で使用した概念数が約12万語,平均属性数約30個の大規模概念ベース\cite{okumura:07}が構築できる.
\section{概念ベースを用いた単語間の関連性の定量化}
概念ベースを用いた単語間の関連性の定量化は,基本的に語意の展開結果を利用し数値として表す.何次属性まで展開するか,どの属性を用いるかによって値が変わってくるため,状況に応じてどのように計算するかが問題になってくる.そこで本研究では二種類の方法を使い分ける.文書間の類似度を求めるための単語間の関連性の定量化には,概念ベースの一次属性までを使用する一致度を用い,概念ベースの自動拡張手法における単語間の関連性の定量化には,概念ベースの二次属性までを使用する関連度計算\cite{watabe:06}を使用する.二次属性までを使用する方法が,概念ベースを用いた単語間の関連性の定量化には一番有効であると報告されている\cite{watabe:06}.一次属性までしか展開しないと,関連が薄い概念同士の関連性を定量化できず,三次属性まで用いると概念とはかけ離れた語が属性となり,雑音として働くため精度が低下してしまう.本研究では,文書を概念と文書間の類似度を求めるための単語間の関連性の定量化には一次属性までしか展開しない一致度を用いる.これは文書を概念と見立てた場合,索引語が一次属性となり,索引語の属性が二次属性となる.つまり,索引語の二次属性まで展開すると文書を概念とした場合の三次属性まで展開したこととなり雑音が増加し,概念(文書)とはかけ離れた語が計算に使用されてしまうためである.\subsection{一致度計算}\label{degree_of_match}任意の概念$A$,$B$について,それぞれ一次属性を$a_i$,$b_j$とし,対応する重みを$u_i$,$v_j$とする.また,概念$A$,$B$の属性数を$L$個,\pagebreak$M$個$(L\leM)$とする.\begin{gather*}A=\{(a_i,u_i)\midi=1〜L\}\\B=\{(b_j,v_j)\midj=1〜M\}\end{gather*}このとき,概念$A$,$B$の一致度$MatchWR(A,B)$を以下の式\ref{eq:MatchWR1},\ref{eq:MatchWR2}で定義する.\begin{gather}MatchWR(A,B)=\sum_{a_i=b_j}\min(u_i,v_j)\label{eq:MatchWR1}\\\min(\alpha,\beta)=\begin{cases}\alpha&(\beta>\alpha)\\\beta&(\alpha\geq\beta)\end{cases}\label{eq:MatchWR2}.\end{gather}ただし,各概念の重みの総和をそれぞれ1に正規化する.概念$A$,$B$の属性$a_i$,$b_j$に対し,$a_i$=$b_j$(概念$A$,$B$に共通する属性がある)となる属性があった場合,共通する属性の重みの共通部分,つまり,重みの小さい分だけ有効に一致すると考え,その合計を一致度とする.定義から明らかなように両概念の属性と重みの両方が完全に一致する場合には一致度は1.0となる.\subsection{関連度計算}\label{degree_of_association}関連度計算は概念の二次属性間の一致度計算により求めた値をもとに概念間の関連性を数値として算出する.具体的には,計算する二つの概念の内,一次属性の数の少ない方の概念を$A$とし$(L\leM)$,概念$A$の一次属性を基準とする.\[A=\{(a_1,u_1),(a_2,u_2),\cdots,(a_i,u_i),\cdots,(a_L,u_L)\}\]そして概念$B$の一次属性を,概念$A$の各一次属性との一致度$MatchWR(a_i,b_{xi})$の和が最大になるように並び替える.\[B_x=\{(b_{x1},v_{x1}),(b_{x2},v_{x2}),\dots,(b_{xi},v_{xi}),\cdots,(b_{xL},v_{xL})\}\]これによって,概念$A$の一次属性と概念$B$の一次属性の対応する組を決める.対応にあふれた概念$B$の一次属性は無視する(この時点では組み合わせは$L$個).ただし,一次属性同士が一致する(概念表記が同じ)ものがある場合($a_i=b_j$)は,別扱いにする.これは概念ベースには約12万の概念表記が存在し,属性が一致することは稀であるという考えに基づく.従って,属性の一致の扱いを別にすることにより,属性が一致した場合を大きく評価する.具体的には,対応する属性の重み$u_i$,$v_j$の大きさを重みの小さい方にそろえる.このとき,重みの大きい方はその値から小さい方の重みを引き,もう一度,他の属性と対応をとることにする.例えば,$a_i=b_j$で$u_i=v_j+\alpha$とすれば,対応が決定するのは$(a_i,v_j)$と$(b_j,v_j)$であり,$(a_i,\alpha)$はもう一度他の属性と対応させる.このように対応を決めて,対応の取れた属性の組み合わせ数を$T$個とする.\pagebreakこのとき,概念$A$,$B$の一致度$DoA(A,B)$を以下の式\ref{eq:DoA}により定義する.\begin{equation}DoA(A,B)=\sum_{i=1}^T\{MatchWR(a_i,b_{xi})\times(u_i+v_{xi})\times(\min(u_i,v_{xi})/\max(u_i,v_{xi}))/2\}\label{eq:DoA}\end{equation}関連度の値は概念間の関連の強さを0〜1の間の連続値で表す.1に近づくほど関連が強い.概念$A$と$B$に対して関連度計算を行った例を表\ref{table:degree_of_association}に挙げる.最後に,概念「机」と「椅子」を例に用いて,関連度の計算例を説明する.概念「机」と「椅子」の一次属性および二次属性を表\ref{tab:example_primary_attribute},表\ref{table:example_secondary_attribute}に示す.\begin{table}[b]\begin{minipage}{0.45\textwidth}\caption{関連度計算の例}\label{table:degree_of_association}\input{02table01.txt}\end{minipage}\begin{minipage}{0.45\textwidth}\caption{概念「机」と「椅子」の一次属性}\label{tab:example_primary_attribute}\input{02table02.txt}\end{minipage}\end{table}\begin{table}[b]\caption{概念「机」と「椅子」の二次属性}\label{table:example_secondary_attribute}\input{02table03.txt}\end{table}まず,概念「机」と「椅子」の一致度の計算を行う.例えば,概念「机」の一次属性「学校」と概念「椅子」の一次属性「木」は,「木造」という共通する属性を持っているため,一致度は以下のように計算される.\[MatchWR(学校,木)=\min(0.2,0.4)=0.2\]同様に全ての一次属性の組み合わせについて一致度を計算した結果を表\ref{table:example_dom_matrix}に示す.\begin{table}[b]\caption{概念「机」と「椅子」の一致度行列}\label{table:example_dom_matrix}\input{02table04.txt}\end{table}次に,関連度の計算を行う.関連度の計算は,まず属性が完全に一致している部分から行われる.続いて,一致度の大きい部分から順に対応を決める.この場合,表\ref{table:example_dom_matrix}から一次属性「勉強」と「勉強」,「学校」と「教室」,「本棚」と「勉強」の順に対応が決まることになる.結果,関連度は次式のように計算される.\begin{align*}DoA(机,椅子)&=1.0\times(0.3+0.3)\times(0.3/0.3)/0.2+0.4\times(0.6+0.3)\times(0.3/0.6)/2\\&\quad+0.1\times(0.1+0.2)\times(0.1/0.2)/2\\&=0.3975\end{align*}本研究では\ref{addict}節で述べる概念ベースに属性として追加する概念と追加される側の概念との間の関連性の定量化に関連度計算を用いる.
\section{概念ベースの自動拡張手法}
\label{conceptbaseautoexpand}概念ベースに存在しない語(未定義語)にも属性を与えなければ,未定義語と他の単語との関連性を求めることができない.そこで,現在考えうる最大の言語データであるWeb情報をもとに未定義語の概念化を行い,概念ベースに追加する方法を提案する.本章ではこの手法について説明する.\subsection{未定義語の概念化}\label{acquiring_attribute_of_unknown_word}以下の手順により,未定義語の概念化を行うために,未定義語の属性とその重みをWebから獲得する.\begin{enumerate}\item入力された未定義語をキーワードとして検索エンジン\footnote{検索エンジンはgoogleを用いた.http://www.google.co.jp}を用いて検索を行い,検索上位100件の検索結果ページの内容を取得する.\itemHTMLタグなど不要な情報を取り除いた文書群に対して,形態素解析を行い,自立語を抽出する.\item得られた自立語の中から概念ベースに存在する単語のみを未定義語の属性として抜き出す.\item得られた属性の頻度にWeb上の単語のidfを統計的に調べたもの(SWeb-idf)\cite{tuji:04}の値を掛け合わせたものを属性の重みとし,得られた重み順に並び替える.SWeb-idfについては次節で説明する.なお,SWeb-idfのデータベースに存在しない属性については,Web上にあまり存在しない単語と考え,SWeb-idf値の最大値を掛け合わせている.\end{enumerate}表\ref{table:attribute_unknown_word}に未定義語を概念化した例を示す.\begin{table}[t]\caption{未定義語「Gショック」,「クイニーアマン」の属性とその重み(一部)}\label{table:attribute_unknown_word}\input{02table05.txt}\vspace{-1\baselineskip}\end{table}\subsection{SWeb-idf}\label{SWeb-idf}SWeb-idf(StaticsWeb-InverseDocumentFrequency)とは,Web上の単語のidfを統計的に調べたidf値である.まず,無作為に選んだ固有名詞1,000語を作成する.表\ref{table:proper_noun}に無作為に選択した固有名詞の一部を示す.この作成した1,000語に対して個々に検索エンジンで検索を行い,1語につき検索上位10件の検索結果ページの内容を取得する.よって,得られた検索結果ページ数は10,000ページとなる.この10,000ページから,複数の国語辞書や新聞などから概念(単語)を抽出した知識ベースである概念ベースの収録語数である約12万語とほぼ同等の単語数が得られたことから,獲得した10,000ページをWebの全情報情報空間とみなしている.そして,その中での単語のidf値を表すSWeb-idfは,式\ref{eq:SWeb-idf}で求められる.\begin{equation}SWeb\verb|-|idf(t)=\log\frac{N}{df(t)}\hspace{2em}(N=10000)\label{eq:SWeb-idf}\end{equation}\begin{table}[b]\begin{minipage}[t]{0.6\textwidth}\caption{SWeb-idfの作成に用いた固有名詞(一部)}\label{table:proper_noun}\input{02table06.txt}\end{minipage}\begin{minipage}[t]{0.3\textwidth}\caption{SWeb-idfの例}\label{table:SWeb-idf}\input{02table07.txt}\end{minipage}\end{table}これらにより得られた単語とそのidf値をデータベースに登録した.なお$df(t)$項は,全文書空間(10,000ページ)に出現する概念$t$のページ数である.獲得したSWeb-idfの値の例を表\ref{table:SWeb-idf}に挙げる.なお,固有名詞の選び方を変えてもSWeb-idfの値に大きな変化は見られないという報告がなされている\cite{tuji:04}.\subsection{属性内出現頻度を用いた重み付け手法}未定義語の属性の重みはSWeb-idfによっても求まるが,Web情報と概念ベースでは語の頻度情報が異なり重みの値も変わるため,Web情報の重みをそのまま用い概念ベースに追加すると概念ベースの頻度情報に歪みが生じる.よってSWeb-idfは未定義語の属性候補を獲得する時にのみ用い,未定義語の属性の重み付けには使用せず,概念ベースに未定義語を追加する場合には概念ベースの頻度情報を用いて重み付けを行う必要がある.そこで,未定義語の属性に対して重みを付与する方法として,概念ベースの属性空間を考慮した重み付け手法を提案する.概念に付与された属性は,特徴を表す語であるため,概念の説明文書であると捉えることが出来る.この文書空間内での属性の出現頻度を,概念に対する属性の確からしさだと考える.例として「個人情報」の属性を表\ref{table:1st_and_2nd_attribute_of_new_concept}に示す.網掛けのセルに一次属性,各網掛けの下方のセルにはその二次属性を示している.\begin{table}[b]\caption{新概念「個人情報」の一次,二次属性}\label{table:1st_and_2nd_attribute_of_new_concept}\input{02table08.txt}\end{table}個人情報という概念を特徴付ける一次属性には,「個人,情報,識別,…」という属性が存在する.これは,「個人を識別することができる情報を指す」という文書であると捉えることができる.このように,概念に対する$n$次属性空間はその概念についての説明文書の集合だとみなすことができる.この$n$次属性空間から算出した出現頻度を$n$次属性内出現頻度と呼ぶ.本稿では2次属性空間を用いる.3次属性空間までを用いると,概念「個人情報」に対して2次属性「力」の属性「動物,筋肉,物体,…」が含まれる.このため,概念に関係のない語が多くなってしまうためである.\ref{tf_idf}節で説明したtf・idf重みの考え方をもとに,未定義語の属性$A$の2次属性内出現頻度を$freq(A)$,未定義語の一次属性の総数を$R$とし,未定義語の属性$A$の概念ベース空間のidf値を$cidf(A)$とすると,重み$wc(A)$は以下の式で表される.\begin{equation}wc(A)=\frac{\log(freq(A))}{\log(R)}{\cdot}cidf(A)\end{equation}\subsection{相互追加}\label{addict}新規概念に属性を追加した場合,その概念自身は属性として他の概念を持つが,その概念を属性として持つ概念は存在しない.したがって,他の概念に新しく追加をした概念を属性として追加する手法が必要となる.新概念と属性の例を表\ref{table:attribute_and_weight_of_new_concept}に示す.新概念とその獲得した属性にはWeb上のホームページにともに出現しており,共起という関係があり,属性から見ても新概念とのなんらかの関連性があると考えられる.このため,新概念を属性の追加候補とする.例であると,概念「放送」,「テレビ」,「車両」に「ワンセグ」という語を属性追加候補とする.しかし,全ての属性追加候補を属性として追加すると雑音が非常に多くなってしまう.概念「車両」に対して「ワンセグ」という属性は不必要であるため,選別して追加を行う.このように,新概念から取得した語に対して新概念を属性として選別して追加することを相互追加と呼ぶこととする.選別方法としては,2次属性内出現頻度を属性数で割った値(以下2次属性内出現頻度割合と記述)が0.149以上かつ関連度0.068以上の場合に追加を行う.選別のための閾値の設定は実験により定めた.実験方法としては,概念とその概念と関係がある概念の組を1,780組集め,その全ての組における2次属性内出現頻度割合と関連度を求め,その平均値を閾値に設定した.実験に使用した2対の関係がある概念の組を表\ref{table:example_of_association_word}に示す.\begin{table}[t]\caption{新概念の属性と重み}\label{table:attribute_and_weight_of_new_concept}\input{02table09.txt}\end{table}\begin{table}[t]\caption{2対の関係がある概念の組の例}\label{table:example_of_association_word}\input{02table10.txt}\end{table}追加する概念$A$と追加される概念$B$との間の関連度$DoA(A,B)$と追加する属性の概念ベース空間のidf値を$cidf(A)$とすると追加した属性の重み$wc(A)$は以下の式で表される.\begin{equation}wc(A)=DoA(A,B){\cdot}cidf(A)\end{equation}
\section{EMDを用いた文書検索}
\label{retrieval_documents_using_EMD}検索要求と検索対象の間の類似度を求める際,いくら単語間の関連性を正確に定義できたとしても,その値をもとにうまく計算できないと文書間の正確な類似度を求めることはできない.計算の仕方としては,様々な方法が考えられ,例えば単語間の関連性が高い順に単語の対応をとり計算する方法などが挙げられる.1対1で対応を取る方法では,検索要求と検索対象の語の少ない方の語の数しか対応がとれない.例えば,検索要求の語が3語,検索対象の語が100語であった場合,検索対象の97語は計算の対象外となる.さらに,実際の検索において,ユーザは検索要求にあまり多くの語を入力しないと考えられ,検索要求と検索対象との語数の差は非常に大きいと想定され,文書内の単語の重要性と単語間の関連性を考慮しM対Nで柔軟に対応を取る必要がある.そこで本研究では類似画像検索の分野で注目されているEMD~\cite{Rubner:00}を用いて文書間の類似度を算出する方法を用いる.EMDは輸送問題における輸送コストの最適解を求めるアルゴリズムであり,需要地(供給地)の重みと需要地と供給地間の距離を定義できればどのような問題にも適用できる.このEMDを用いることで単語の重みと単語間の関連性を考慮して柔軟に対応を取り,文書間の類似度を求めることができる.\subsection{EMDとは}EMDは線形計画問題の一つであるヒッチコック型輸送問題において計算される距離尺度であり,2つの離散分布において,一方の分布を他方の分布に変換するための最小コストとして定義される.輸送問題とは,需要地の需要を満たすように供給地から需要地へ輸送を行う場合の最小輸送コストを解く問題である.EMDを求める際,二つの分布は要素の重み付き集合として表現される.一方の分布$P$を集合として表現すると,$P=\{(p_1,w_{p_1}),\ldots,(p_m,w_{p_m})\}$となる.今,分布$P$は$m$個の特徴量で表現されており,$p_i$は特徴量,$w_{pi}$はその特徴量に対する重みである.同様に,一方の分布$Q$も集合として表すと,$Q=\{(q_1,w_{q_1}),\ldots,(q_n,w_{q_n})\}$となる.EMDの計算は,2つの分布において特徴量の数が異なっている場合でも計算が可能であるという性質を持っている.今,$p_i$と$q_j$の距離を$d_{ij}$とし,全特徴間の距離を$D=[d_{ij}]$とする.ここで,$p_i$から$q_j$への輸送量を$f_{ij}$とすると,全輸送量は$F=[f_{ij}]$となる.ここで,式\ref{eq:work}に示すコスト関数を最小とする輸送量$F$を求め,EMDを計算する.\begin{equation}WORK(P,Q,F)=\sum_{i=1}^m\sum_{j=1}^nd_{ij}f_{ij}\label{eq:work}\end{equation}ただし,上記のコスト関数を最小化する際,以下の制約条件を満たす必要がある.{\allowdisplaybreaks\begin{gather}f_{ij}\geq0,\quad1\leqi\leqm,\quad1\leqj\leqn\label{eq:st1}\\\sum_{j=1}^nf_{ij}\leqw_{p_i},\quad1\leqi\leqm\label{eq:st2}\\\sum_{i=1}^mf_{ij}\leqw_{q_j},\quad1\leqj\leqn\label{eq:st3}\\\sum_{i=1}^m\sum_{j=1}^nf_{ij}=\min\left(\sum_{i=1}^mw_{p_i},\sum_{j=1}^nw_{q_j}\right)\label{eq:st4}\end{gather}}ここで,式\ref{eq:st1}は輸送量が正であることを表し,$p_i$から$q_j$に送られる一方通行であることを表している.式\ref{eq:st2}は輸送元である$p_i$の重み以上に輸送できないことを表す.式\ref{eq:st3}は輸送先である$q_j$の重み以上に受け入れることができないことを表す.最後に式\ref{eq:st4}は総輸送量の上限を表し,それは輸送先または輸送元の総和の小さい方に制限されることを表す.以上の制約条件の下で求められた最適な全輸送量$F$を用いて分布$P$,$Q$間のEMDを以下のように求める.\begin{equation}EMD(P,Q)=\frac{\sum_{i=1}^m\sum_{j=1}^nd_{ij}f_{ij}}{\sum_{i=1}^m\sum_{j=1}^nf_{ij}}\end{equation}ここで,最適なコスト関数$WORK(P,Q,F)$をEMDとしてそのまま用いないのは,コスト関数は輸送元もしくは輸送先の重みの総和に依存するので,正規化することによってその影響を取り除くためである.\subsection{EMDの文書検索への適用}\begin{figure}[b]\begin{center}\includegraphics{16-3ia2f5.eps}\caption{EMDを文書検索に適用した例}\label{fig:EMD_to_document}\end{center}\end{figure}図\ref{fig:EMD_to_document}にEMDを文書検索に適用した例を示す.EMDを文書検索に適用するには需要地と供給地,需要量と供給量,各需要地と供給地間の距離を定義する必要がある.需要地としては,検索課題の索引語を,供給地としては検索対象の索引語を割り当てる.需要量と供給量はそれぞれ索引語の\ref{tf_idf}節で説明したtf・idf重みを用いる.そして,需要地と供給地間の距離は索引語間の関連性と見立てることができ,提案手法においては概念ベースを用いた一致度計算により求めることができる.一致度は関連性が高いと値も大きくなるため,1から一致度の値を引いた値に変換する.EMDの計算は図\ref{fig:EMD_to_document}の下方で求まる.「梅」と「祭り」間の輸送量が1となっているのは,「梅」から「うめ」に重み2を輸送し,「梅」の余った重み1を「祭り」に輸送したためである.このように,関連性が高い語に優先して重みを輸送し,供給量がなくなるか需要量が満たされるまで輸送を行う.このように索引語間の関連性と重みを考慮したM対Nでの柔軟な対応が可能である.EMDの特徴として.索引語間の距離の値が0から1であるなら,EMDも0から1の値になる.そして,EMDは文書間が似ていると値が低くなり,似ていないと値が高くなる.よって値が低い文書から順にユーザに提示することで文書検索が実現できる.
\section{実験と評価}
単語の関連性に着目した提案手法の有効性を検証するため情報検索システムテストコレクションNTCIR3-WEBを用いて,表記を用いる他の手法との比較実験を行った.比較手法としては,ベクトル空間モデル,OkapiBM25と,同じ索引語間の距離を0,それ以外を1とした素朴なEMDを用いた.\subsection{評価方法}\label{evaluationmethod}今回の評価では,検索課題41件と正解文書とランダムに選択した文書を合わせた10,000件の文書を使用し,評価実験を行った.また,正解文書リストが存在し,各検索課題に対して,各文書がH(高適合),A(適合),B(部分的適合),C(不適合)の4段階の適合度が設定されており,以下の基準で評価する.LEVEL1:H判定とA判定を適合LEVEL2:H判定とA判定とB判定を適合各検索課題に対して,10,000件の検索対象全てのスコアを求め,スコア順に並べ変える.そして,正解文書リストを参照し正解文書の順位を調べ評価する.\subsection{評価指標}評価指標には,各検索課題毎の平均精度(AvelagePrecision,AP),平均精度の平均(MeanAveragePrecision,MAP)と再現率—精度グラフを使用した.検索課題に対する平均精度APは式\ref{eq:average_precision}のように定義される.まず順位$i$位の文書が適合しているならば1,そうでなければ0となる変数を$z_i$とする.$S$を適合文書の総数,$n$は出力文書数である.\begin{equation}\label{eq:average_precision}AP=\frac{1}{S}\sum_{i=1}^{n}\frac{z_i}{i}\left(1+\sum_{k=1}^{i-1}z_k\right)\end{equation}平均精度の平均(MAP)は,全ての検索課題に対して平均精度を平均したものであり,式\ref{eq:mean_average_precision}によって求められる.具体的には,検索課題が$K$件ありそれぞれの課題に対するあるシステムの平均精度を$AP_h$と表記すれば$(h=1,...,K)$,\pagebreakその平均がMAPに相当し,以下の式に示す.\begin{equation}\label{eq:mean_average_precision}MAP=\frac{1}{K}\sum_{h=1}^{K}AP_h\end{equation}再現率—精度グラフとは再現率の11個の点ごとに,41個の検索課題の精度を平均してグラフを描いたものである.\subsection{比較手法}本節では,提案手法との比較に用いているベクトル空間モデル\cite{Salton:75}とOkapiBM25\cite{Robertson:95}について述べる.\subsubsection{ベクトル空間モデル}ベクトル空間モデルは,情報検索の分野で幅広く利用されている検索モデルである.各語の重みから構成されるベクトルとして検索課題と文書をそれぞれ表現し,二つのベクトルの成す角度の余弦によって類似度を計算する点に特徴がある.重みの種類にはいくつかの種類があるが,本実験では\ref{tf_idf}節で説明したtf・idf重みを用いる.検索課題$q$と文書$d_i$の索引語の語の総数(異なり)を$M$とすれば,文書と検索課題はそれぞれ以下のような$M$次元ベクトルで表現できる.\begin{gather}d_i=(w_{i1},w_{i2},…,w_{iM})\\q=(w_{q1},w_{q2},…,w_{qM})\end{gather}検索課題$q$に対する文書$d_i$の得点$s_q(d_i)$は2つのベクトルの角度の余弦により求まる.式を以下に示す.\begin{equation}s_q(d_i)=\frac{\sum_{j=1}^Mw_{ij}w_{qj}}{\sqrt{\sum_{j=1}^Mw_{ij}^{2}}\sqrt{\sum_{j=1}^Mw_{qj}^{2}}}\end{equation}\subsubsection{OkapiBM25}S.Robertsonを中心に開発されたOkapiと呼ばれる次世代検索システムにおいて使用されている確率型の検索モデルBM25は,ベクトル空間モデルと同等,あるいはそれ以上の性能を示すことでよく知られている.原理的には,検索課題$q$と文書ベクトル$d_i$が与えられた時に,その文書が検索課題に適合している確率を推計するものである.検索課題$q$と文書$d_i$の索引語の語の総数(異なり)を$M$とすれば,検索課題$q$に対する文書$d_i$の得点$s_q(d_i)$は以下の式で表される.\begin{equation}s_q(d_i)=\sum_{j=1}^M(w_{ij}\timesx_{qj}\times\tau_j)\end{equation}ただし,$x_{qj}$は検索課題$q$での語$t_j$の出現回数である.ここで\begin{gather}w_{ij}=\frac{3.0x_{ij}}{(0.5+1.5l_i/\bar{l})+x_{ij}}\\\tau_j=\log\frac{N-n_j+0.5}{n_j+0.5}\end{gather}である.$x_{ij}$は文書$d_i$での$t_j$の出現回数であり,$N$は文書総数で,$n_j$は語$t_j$が出現する文書数である.なお,\begin{equation}l_i=\sum_{j=1}^M{x_{ij}}\end{equation}は文書$d_i$の長さであり,\begin{equation}\bar{l}=\frac{1}{N}\sum_{i=1}^N{l_i}\end{equation}はデータベース全体での文書長の平均を意味する.\subsection{評価結果}平均精度の平均(MAP)を表\ref{table:MAP_with_other_method}に示す.再現率—精度グラフを図\ref{fig:RPC_with_other_method(level1)},\ref{fig:RPC_with_other_method(level2)}に示す.\begin{table}[b]\caption{MAP(表記のみ活用する他の手法との比較)}\label{table:MAP_with_other_method}\input{02table11.txt}\end{table}表\ref{table:MAP_with_other_method}より,LEVEL1では提案手法の精度はベクトル空間モデルより20.30\%,OkapiBM25より17.91\%,EMDより9.22\%の精度向上を達成し,LEVEL2では提案手法の精度はベクトル空間モデルより10.71\%,OkapiBM25より9.45\%,EMDより4.03\%の精度向上を達成した.図\ref{fig:RPC_with_other_method(level1)},\ref{fig:RPC_with_other_method(level2)}より全ての再現率レベルで精度が改善している.この結果より単語間の関連性にもとづき文書間の類似性を求める本手法が有効であることがわかる.また,ベクトル空間モデルより素朴なEMDがよりよい結果となっている.これは,EMDが輸送問題として距離を計算していることに起因する.例えば,検索課題を$(\sqrt{3}/2,1/2)$としたとき,ベクトル空間モデルでは$(1,0)$と$(1/2,\sqrt{3}/2)$では同じ類似度の0.866となるが,EMDでは0.134と0.268と異なり,(1,0)の方が検索要求に近くなる.これは$(1,0)$では一番目の方が大きいが,$(1/2,\sqrt{3}/2)$では反転していることが理由である.本実験ではこの効果が良い方に働いていると考えられる.\begin{figure}[t]\begin{center}\includegraphics{16-3ia2f6.eps}\caption{LEVEL1での再現率—精度グラフ(他手法との比較)}\label{fig:RPC_with_other_method(level1)}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia2f7.eps}\caption{LEVEL2での再現率—精度グラフ(他手法との比較)}\label{fig:RPC_with_other_method(level2)}\end{center}\end{figure}次に,比較手法と提案手法が統計的に有意な差があるか検定を行った.検定方法は参考文献\cite{kishida:01}を参考にした.以下にその検定方法を述べる.比較する2つの手法を$a$と$b$,検索課題数を$K$,検索課題$h$の平均精度を$v_h$とし,MAPを$\bar{v}=K^{-1}\sum_{h=1}^Kv_h$とする.同一の検索課題に対する2つの平均精度を比較することになるので,対標本と捉えることができ,検索課題ごとの手法間の差自体を標本と考える.すると,帰無仮説「2つの手法の平均精度の母平均の差は0である」の下に正規母集団を仮定すれば,\begin{equation}t=\frac{\bar{v_a}-\bar{v_b}}{\sqrt{\frac{s_a^2+s_b^2-2Cov_{ab}}{K}}}\end{equation}が自由度$K-1$の$t$分布に従うことになる.この時,$s_a^2$と$s_b^2$は平均精度の標本分散であり,$Cov_{ab}$は$v_{ha}$と$v_{hb}$との共分散で,$Cov_{ab}=(K-1)^{-1}\sum_{h=1}^{K}(v_{ha}-\bar{v_a})(v_{hb}-\bar{v_b})$となる.この検定方法を利用し,今回の実験でのLEVEL1における提案手法と比較手法の中で一番評価が高かった素朴なEMDとの評価に有意な差があるかどうか片側検定を行う.$a$を提案手法,$b$を素朴なEMDとすると,$s_a^2=0.071701$,$s_b^2=0.067863$,$\bar{v_a}-\bar{v_b}=0.044005$,$Cov_{ab}=0.056419$となるので,$t=1.723548$となる.自由度40の$t$分布に従うので,$1.723548>1.684$より,帰無仮説は棄却され,5\%水準で提案手法と素朴なEMDとの差は有意であることがわかる.また,同様の検定をベクトル空間モデルと行うと$t=3.01916$,OkapiBM25では$t=3.563336$となり1\%水準で有意な差があることを確認できた.提案手法が表記に頼る比較手法に比べ統計的に有意な差があることがわかった.
\section{概念ベースの自動拡張手法の評価}
概念ベースの自動拡張手法の効果を検証するために,自動拡張手法を用いない手法(概念ベースに存在しない索引語で同じ索引語間の距離を0それ以外の距離を1)と提案手法との比較評価を行った.評価方法は\ref{evaluationmethod}節と同様の方法で行った.以下,自動拡張手法を用いないEMDと概念ベースを組み合わせた手法をEMD+CBと記す.平均精度の平均(MAP)を表\ref{table:MAP(level1)}に示す.再現率—精度グラフを図\ref{figure:RPC(level1)},\ref{figure:RPC(level2)}に示す.表\ref{table:MAP(level1)}から分かるように,LEVEL1において1.58\%の精度向上を達成し,LEVEL2において3.04\%向上している.LEVEL1においては全ての再現率レベルで提案手法がEMD+CBを上回っているが,LEVEL2においては再現率レベル0.3の点で0.0001だけEMD+CBを下回っている.より詳細に検証するために,検索課題ごとの平均精度の差をプロットしたものを図\ref{figure:difference_from_average_precision}に示す.横軸は本実験における検索課題の番号(1〜41)で,縦軸は検索課題毎のグラフが上に伸びているほど自動拡張手法によって精度が向上したことを示し,逆に下にのびているほど精度は低下していることを示している.この結果から検索課題14と検索課題29の時に精度の低下が著しいことがわかる.\begin{table}[b]\caption{MAP(自動拡張手法使用と未使用での比較)}\label{table:MAP(level1)}\input{02table12.txt}\end{table}課題14は「宮部みゆきの執筆した小説に対する書評・レビューが読みたい」という課題で,課題29は「シフォンケーキの作り方が書かれている文書を探したい.」といった課題である.これらに形態素解析を施し,検索課題idfによる不要語の削除を行うと,検索課題14は「宮部/みゆき/執筆/小説/書評/レビュー」となり,検索課題29は「シフォンケーキ/作り方」となる.このうち未定義語は「宮部/シフォンケーキ」であった.\begin{figure}[t]\begin{center}\includegraphics{16-3ia2f8.eps}\caption{LEVEL1での再現率—精度グラフ(自動拡張手法使用と未使用での比較)}\label{figure:RPC(level1)}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia2f9.eps}\caption{LEVEL2での再現率—精度グラフ(自動拡張手法使用と未使用での比較)}\label{figure:RPC(level2)}\end{center}\end{figure}検索課題14と検索課題29における上位25件の順位の変動を図\ref{figure:change_of_order}に示す.図\ref{figure:change_of_order}において色が付いてる文書がLEVEL1における正解文書である.一番精度低下が著しかった課題29で,EMD+CBにおいて47位であった不適合文書が提案手法では3位に,5位であった不適合文書が4位になり,適合文書が3位から5位に下がった.提案手法において5位であった高適合文書と3位であった不適合文書を図\ref{figure:high_conformity_document},\ref{figure:non_conformity_document}に示す.3位の文書はケーキ屋の紹介が書かれている文書で,4位の文書もケーキに関する文書であった.5位の高適合文書はシフォンケーキの作り方の手順が書いてあった.提案手法では,シフォンケーキがケーキに関する様々な語と高関連であると判定し,ケーキに関する文書が検索の上位にきてしまった.ユーザは「ケーキの作り方」と入力せず「シフォンケーキの作り方」と入力したのはケーキ全般の情報よりシフォンケーキに絞った情報が欲しいといったことを暗に示していると考えられ,シフォンケーキを定義してしまったことが悪影響を及ぼしてしまった.\begin{figure}[t]\begin{center}\includegraphics{16-3ia2f10.eps}\caption{課題別の平均精度の差}\label{figure:difference_from_average_precision}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia2f11.eps}\caption{課題14と課題29における上位25件のランク付け}\label{figure:change_of_order}\end{center}\end{figure}シフォンケーキのようなケーキといった一般的な語に比べ,具体的な語はユーザが検索結果を絞るために用いる語であり,具体的な語に対しては,表記に頼る方が有効に働くと考えられる.具体的な語を判別し,なんらかの対応を行うことでこの問題は解決できると考えられる.\begin{figure}[t]\begin{center}\includegraphics{16-3ia2f12.eps}\caption{高適合文書}\label{figure:high_conformity_document}\end{center}\vspace{-0.5\baselineskip}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{16-3ia2f13.eps}\caption{不適合文書}\label{figure:non_conformity_document}\end{center}\vspace{-1\baselineskip}\end{figure}
\section{おわりに}
本論文では,索引語の関連性を概念ベースにより定義し,それをもとにEMDによって文書間の類似性を求める手法を提案した.\pagebreakさらに概念ベースに存在しない語においてはWebをもとに語の意味を定義し概念ベースを自動的に拡張することで対応し,全ての索引語間の距離を概念ベースにより求めることを可能とする手法を提案した.そして,その有効性をWeb検索評価用テストコレクションNTCIR3-WEBを用いて検証した.結果として,表記に頼る他の手法に比べ良好な結果を得て,単語の関連性に着目した本手法の有効性を確認できた.さらに,統計的検定を用いることで,提案手法と比較手法の性能の差に有意性があることを確認した.またWebにより概念ベースを自動的に拡張する手法を使用と未使用で比較評価を行い,Webにより未定義語を定義することの有効性を示し,あらゆる新語に対応できる索引語の網羅性を実現した.今後の研究課題としては,検索要求内に具体的な語が含まれている場合の対応である.ユーザは検索結果を絞るために具体的な語を用いていると考えられ,これらの語をシソーラスなどをもとに判別し対応を行えば更なる精度向上が期待できる.また,今後は情報検索に限らず文書分類など様々な分野へ応用していきたい.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{笠原\JBA松澤\JBA石川}{笠原\Jetal}{1997}]{kasahara:97}笠原要\JBA松澤和光\JBA石川勉\BBOP1997\BBCP.\newblock\JBOQ国語辞書を利用した日常語の類似性判別\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf38}(7),\mbox{\BPGS\1272--1283}.\bibitem[\protect\BCAY{岸田}{岸田}{2001}]{kishida:01}岸田和明\BBOP2001\BBCP.\newblock\JBOQ検索実験における評価指標としてのMeanAveragePrecisionの性質\JBCQ\\newblock\Jem{情報処理学会研究報告},{\Bbf2001}(74),\mbox{\BPGS\97--104}.\bibitem[\protect\BCAY{小島\JBA渡部\JBA河岡}{小島\Jetal}{2002}]{kojima:02}小島一秀\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ連想システムのための概念ベース構成法—属性信頼度の考え方に基づく属性重みの決定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(5),\mbox{\BPGS\93--110}.\bibitem[\protect\BCAY{Miller}{Miller}{1995}]{Miller:95}Miller,G.\BBOP1995\BBCP.\newblock\BBOQWordNet:AlexicaldatabaseforEnglish\BBCQ\\newblock{\BemCommun.ACM},{\Bbf38}(11),\mbox{\BPGS\39--41}.\bibitem[\protect\BCAY{奥村\JBA土屋\JBA渡部\JBA河岡}{奥村\Jetal}{2007}]{okumura:07}奥村紀之\JBA土屋誠司\JBA渡部広一\JBA河岡司\BBOP2007\BBCP.\newblock\JBOQ概念間の関連度計算のための大規模概念ベースの構築\JBCQ\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\41--64}.\bibitem[\protect\BCAY{Robertson,Walker,Jones,Beaulieu,\BBA\Gatford}{Robertsonet~al.}{1995}]{Robertson:95}Robertson,S.,Walker,S.,Jones,S.,Beaulieu,M.,\BBA\Gatford,M.\BBOP1995\BBCP.\newblock\BBOQOkapiatTREC-3\BBCQ\\newblockIn{\BemInproceedingofthe3rdTextRetrievalConference},\mbox{\BPGS\109--126}.\bibitem[\protect\BCAY{Rubner,Tomasi,\BBA\Guibas}{Rubneret~al.}{2000}]{Rubner:00}Rubner,Y.,Tomasi,C.,\BBA\Guibas,L.\BBOP2000\BBCP.\newblock\BBOQTheearthmover'sdistanceasametricforimageretrieval\BBCQ\\newblock{\BemInt.J.Comput.Vision},{\Bbf40},\mbox{\BPGS\99--121}.\bibitem[\protect\BCAY{Salton\BBA\Buckley}{Salton\BBA\Buckley}{1988}]{Salton:88}Salton,G.\BBACOMMA\\BBA\Buckley,C.\BBOP1988\BBCP.\newblock\BBOQTerm-weightingapproachesinautomatictextretrieval\BBCQ\\newblock{\BemInformationProcessingandManagement},{\Bbf41}(4),\mbox{\BPGS\513--523}.\bibitem[\protect\BCAY{Salton,Wong,\BBA\Yang}{Saltonet~al.}{1975}]{Salton:75}Salton,G.,Wong,A.,\BBA\Yang,C.\BBOP1975\BBCP.\newblock\BBOQAVectorspacemodelforautomaticindexing\BBCQ\\newblock{\BemCommunicationsoftheACM},{\Bbf18}(3),\mbox{\BPGS\613--6201}.\bibitem[\protect\BCAY{辻\JBA渡部\JBA河岡}{辻\Jetal}{2004}]{tuji:04}辻泰希\JBA渡部広一\JBA河岡司\BBOP2004\BBCP.\newblock\JBOQwwwを用いた概念ベースにない新概念およびその属性獲得手法\JBCQ\\newblock\Jem{第18回人工知能学会全国大会論文集,2D1-02}.\bibitem[\protect\BCAY{Wan\BBA\Peng}{Wan\BBA\Peng}{2006}]{Wan:06}Wan,X.\BBACOMMA\\BBA\Peng,Y.\BBOP2006\BBCP.\newblock\BBOQTheEarthMover'sDistaceasaSemanticMeasureforDocumentSimilality\BBCQ\\newblockIn{\BemProceedingofthe14thACMinternationalconferenceonInformationandknowledgemanagement},\mbox{\BPGS\301--302}.\bibitem[\protect\BCAY{渡部\JBA奥村\JBA河岡}{渡部\Jetal}{2006}]{watabe:06}渡部広一\JBA奥村紀之\JBA河岡司\BBOP2006\BBCP.\newblock\JBOQ概念の意味属性と共起情報を用いた関連度計算方式\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(1),\mbox{\BPGS\53--74}.\bibitem[\protect\BCAY{柳本\JBA大松}{柳本\JBA大松}{2007}]{yanagimoto:07}柳本豪一\JBA大松繁\BBOP2007\BBCP.\newblock\JBOQEarthMover'sDistanceを類似度として用いた情報検索\JBCQ\\newblock\Jem{平成19年度電気学会全国大会,3-065}.\end{thebibliography}\begin{biography}\bioauthor{藤江悠五}{2007年同志社大学工学部知識工学科卒業.2009年同大学院工学研究科知識工学専攻博士前期課程修了.同年,パナソニック株式会社入社.知識情報処理の研究に従事.}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.工学博士.現在同教授.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会各会員.}\bioauthor{河岡司}{1966年大阪大学工学部通信工学科卒業.1968年同大学院修士課程修了.同年,日本電信電話公社入社,情報通信網研究所知識処理研究部長,NTTコミュニケーション科学研究所所長を経て,同志社大学工学部教授.2009年定年退職.工学博士.主にコンピュータネットワーク,知識情報処理の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,IEEE(CS)各会員.}\end{biography}\biodate\end{document}
| |
V03N03-02 | \section{はじめに}
\label{sec:introduction}比喩は自然言語に遍在する.たとえば,李\cite{Yi82}によると,小説と新聞の社説とにおいて比喩表現の出現率に大差はない.また,比喩を表現する者(話し手)は,比喩により言いたいことを端的に表現する.したがって,自然言語処理の対象を科学技術文から評論や小説に拡大するためには,比喩の処理が必要である.比喩表現は,喩える言葉(喩詞)と喩えられる言葉(被喩詞)とからなる.話し手は,それを伝達か強意かに用いる\cite{Nakamura77a}.伝達のために比喩を用いるときは,伝達したい事柄が相手(聞き手)にとって未知であると話し手が判断したときである.たとえば,「湖」は知っているが「海」は知らない聞き手にたいして,「海というのは大きい湖のようなものだ」と言う場合である.強意のために比喩を用いるときは,伝達したい事柄の一つの側面を強調したいときである.たとえば,「雪のような肌」により「肌」の白さを強調する場合である.山梨\cite{Yamanashi88}は,(1)認定(2)再構成(3)再解釈の3段階により比喩が理解されると述べている.認定とは,ある言語表現が文字通りの意味ではない(比喩的意味である)ことに聞き手が気づくことをいう.再構成とは,喩詞と被喩詞と文脈とから比喩表現の意味を構成することである.再解釈とは,比喩表現の意味を被喩詞に対する新たな視点として認識し,被喩詞に対する考え方を聞き手が改めることである.本稿では,強意の比喩に対しての,聞き手の再解釈を考察の対象とする.ただし,再解釈を\begin{quote}\begin{description}\item[(3a)]被喩詞の意味と比喩表現の意味との$\dot{\mbox{ず}}\dot{\mbox{れ}}$を聞き手が認識する,\item[(3b)]その$\dot{\mbox{ず}}\dot{\mbox{れ}}$が聞き手の考え方に反映する\end{description}\end{quote}という2段階に分け,(3a)を対象にする.なお,対象とする比喩が強意の比喩であるので,聞き手にとって,喩詞の意味と被喩詞の意味とは既知である.本稿では,「AのようなB」という形の比喩表現を考察の対象とする.また,比喩表現が使われる文脈については考慮しない.第\ref{sec:formulation}章において,名詞の意味を確率により表現する.そして,比喩表現を捉える指標として明瞭性と新奇性とを定義する.これらは情報量に基づく指標である.明瞭性は比喩表現における属性の不確定さを示す指標であり,新奇性は比喩表現の示す事象の希少さに関する指標である.第\ref{sec:sd}章では,これら評価関数の妥当性を実験により示す.3種類の値,\begin{quote}\begin{description}\item[(1)]喩詞・被喩詞・比喩表現の属性集合(SD法による\cite{Osgood57})\item[(2)]喩詞・被喩詞・比喩表現における,属性の顕著性\item[(3)]比喩表現の理解容易性\end{description}\end{quote}を測定する.(1)から明瞭性と新奇性とを計算し,それらが属性の顕著性と比喩表現の理解容易性とを捉える指標として適当であることを示す.第\ref{sec:summary}章は結びである.
\section{情報量を用いた比喩の定式化}
\label{sec:formulation}名\hspace{0.2mm}詞の意\hspace{0.2mm}味\hspace{0.1mm}を\hspace{0.1mm}確\hspace{0.2mm}率を利\hspace{0.2mm}用して表\hspace{0.2mm}現する.比\hspace{0.1mm}喩\hspace{0.1mm}表\hspace{0.1mm}現\hspace{0.1mm}の意\hspace{0.2mm}味は,喩\hspace{0.2mm}詞の意\hspace{0.2mm}味に影\hspace{0.2mm}響された被\hspace{0.2mm}喩\\詞の意味である.被喩詞の意味と比喩表現の意味との$\dot{\mbox{ず}}\dot{\mbox{れ}}$は,情報量を用いた評価関数である,明瞭性と新奇性とにより表現する\cite{Utiyama95a,Utiyama95b}.まず,名詞の意味を定義する.次に,喩詞と被喩詞とから比喩表現を構成する方法を述べ,最後に,明瞭性と新奇性とを定義する.\subsection{名詞の意味}\label{sec:meaning}名詞の意味を図\ref{fig:meaning}のようなベイジアンネットワーク\cite{Pearl88}で定義する.ベイジアンネットワークは有向非循環グラフであり,それぞれのノードは確率変数に対応する.ある確率変数が特定の値を取る確率は,アークで連結しているノードとの局所的な関係により決まる.親ノードのないノードをルートノードと言い,これらは互いに確率的に独立である.ルートノードには事前確率が与えられる.また,子ノードのないノードをリーフノードという.以下ではノードと確率変数とを区別しない.図\ref{fig:meaning}におけるリーフノードを属性と呼び,属性の親ノードを因子と呼ぶ.因子は,名詞においてはルートノードであるが,\ref{sec:re-composition}節で述べる比喩表現においてはルートノードではない.属性の値を属性値と呼び,因子の値を極と呼ぶ.属性は,「身体の大きさ」とか「力の強さ」とかである.属性値は,名詞の指示物が明らかなときには,その指示物を観測することで決定する(ある属性値の確率を1にして,他の属性値の確率を0にする)ことができると仮定する.属性は確率的に独立とは限らない.因子は,理論上の仮定である.異なる因子は互いに確率的に独立である.本稿では,名詞の指示物が与えられていない場合を考察するため,属性が特定の属性値を取る確率は,その親ノードである因子の極により決まる.ある名詞の意味を$N$\hspace{-0.1mm}とし,\hspace{-0.2mm}その属性$F_{i}$が属性値$A_{ij}$からなるとする.また,$F_i$の親ノードである因子の集合を${\bfC}^i$とし,${\bfC}^i$の任意の値割当を${{\bfc}^i}=(c_1^i,c_2^i,...,c_k^i,...,c_n^i)$とする.$c_k^i$は,因子${\calC}_k^i(\in{\bfC}^i)$の任意の極である.このとき,ベイジアンネットワークの条件付き独立性\footnote{ノード\hspace{-0.1mm}$X$\hspace{-0.1mm}の値を\hspace{-0.1mm}$x$\hspace{-0.1mm},\hspace{-0.1mm}$X$\hspace{-0.1mm}の親ノードの集合\hspace{-0.1mm}$\bfY$\hspace{-0.1mm}の値割当を\hspace{-0.1mm}$\bfy$,\hspace{-0.1mm}それ以外のノード$Z$の値を\hspace{-0.1mm}$z$\hspace{-0.1mm}とすると,$p(X\hspace{-0.1mm}=x|{\bfY\hspace{-0.1mm}=y},Z\hspace{-0.1mm}=z)=p(X=x|{\bfY=y})$となる.また,ノード$X$と親ノードの集合を同じくするノード$W$の値$w$について,$p(X=x,W=w|{\bfY=y})=p(X=x|{\bfY=y})p(W=w|{\bfY=y})$である.}から,\begin{equation}\label{eq:NFA}p(N.F_i.A_{ij})=\sum_{N.{\bfc}^i}p(N.F_i.A_{ij}|{N.{\bfc}^i})p(N.{\bfc}^i)=\sum_{N.{\bfc}^i}p(N.F_i.A_{ij}|N.{\bfc}^i)\prod_kp(N.c_k^i).\end{equation}第\ref{sec:sd}章では,SD法の結果から,属性値の確率$p(N.F_i.A_{ij})$を計算する.本稿では,極の確率$p\hspace{0.3mm}(\hspace{0.1mm}N.c_k^i\hspace{0.1mm})$\hspace{0.1mm}の設定法と極を条件とする属性値の条件付き確率\hspace{0.2mm}$p\hspace{0.3mm}(\hspace{0.1mm}N.F_i.A_{ij}\hspace{0.2mm}|\hspace{0.2mm}N.{\bfc}^i\hspace{0.2mm})$の設定法,\hspace{0.2mm}及び,\hspace{0.2mm}名詞の意味を表わすベイジアンネットワークの構築法については考察の範囲外である.なお,\begin{displaymath}p(N.F_i.A_{ij})\geq0,\mbox{\hspace{1em}}\sum_{j}p(N.F_i.A_{ij})=1.\end{displaymath}また,属性$F_i$のエントロピー$S(N.F_i)$は次式である.\begin{equation}\label{eq:entropy}S(N.F_i)=-\sum_{j}p(N.F_i.A_{ij})\lgp(N.F_i.A_{ij}).\end{equation}ただし,$\lg$は2を底とする対数.$S(N.F_i)$は,$F_i$の取りうる値に対する不確定性を示す.\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=meaning.ps,hscale=0.714,vscale=0.714}\end{center}\caption{名詞の意味}\label{fig:meaning}\end{figure}\subsection{比喩の再構成}\label{sec:re-composition}比喩表現の意味は,喩詞の意味に影響された被喩詞の意味であると我々は考える.前節では,名詞の意味をベイジアンネットワークで表現した.したがって,喩詞の意味と被喩詞の意味とから比喩表現の意味を再構成する問題は,被喩詞のベイジアンネットワークを喩詞のベイジアンネットワークの影響のもとで変化させることと同じである.簡単のため,喩詞と被喩詞とで互いのベイジアンネットワークの構造(ネットワークの形と親ノードと子ノードの間の条件付き確率)が同じであるとする.このとき,比喩表現のベイジアンネットワークは(1)喩詞の因子から対応する被喩詞の因子にアークを張る(図\ref{fig:metaphor}),(2)アークを張る前の喩詞と被喩詞の因子状態\footnote{ある時点でのノードの状態とは,そのノードに対応する確率変数が取り得る値全てに対して,その値と確率の組とを記述することにより表される.}から,アークを張った後の被喩詞の因子状態を決める(これが比喩表現の因子状態となる),(3)アークを張った結果として構成されたベイジアンネットワークの一部分である被喩詞のベイジアンネットワークを,比喩表現のベイジアンネットワークと看做す,という3段階の手順で作られる.ベイジアンネットワークの構造と因子の状態が決まれば,属性値の確率は(\ref{eq:NFA})式から求まる.以下では,被喩詞の意味とは,喩詞との因子間にアークが張られる前の意味を指し,比喩表現の意味とは,その後の被喩詞の意味であるとする.\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=metaphor.ps,scale=0.714}\end{center}\caption{比喩表現の構成}\label{fig:metaphor}\end{figure}喩詞・被喩詞・比喩表現の意味を$V$・$T$・$M$とし,それらの属性$F_i$が属性値$A_{ij}$からなるとする.また,$F_i$の親ノードである因子の集合を${\bfC}^i$とし,${\bfC}^i$の任意の値割当を${{\bfc}^i}=(c_1^i,c_2^i,...,c_k^i,...,c_n^i)$とする.$c_k^i$は,因子${\calC}_k^i(\in{\bfC}^i)$の任意の極である.このとき,比喩表現の属性値は,(\ref{eq:NFA})式と同様に,\begin{equation}\label{eq:MFA}p(M.F_i.A_{ij})=\sum_{M.{\bfc}^i}p(M.F_i.A_{ij}|{M.{\bfc}^i})p(M.{\bfc}^i)=\sum_{M.{\bfc}^i}p(M.F_i.A_{ij}|M.{\bfc}^i)\prod_kp(M.c_k^i)\end{equation}である.このとき,被喩詞と比喩表現とでベイジアンネットワークの構造は変らないので,$p(M.F_i.A_{ij}|M.{\bfc}^i)=p(T.F_i.A_{ij}|T.{\bfc}^i)$となる.一方,比喩表現の因子状態は,喩詞への従属関係ができたため,被喩詞の因子状態とは異なる.因子${\calC}_k^i$の極を${\calP}^i_{kl}$と表わすと,\begin{equation}\label{eq:M}p(M.{\calC}^i_k.{\calP}^i_{kl})=\sum_{m}p(M.{\calC}^i_k.{\calP}^i_{kl}|V.{\calC}^i_k.{\calP}^i_{km})p(V.{\calC}^i_k.{\calP}^i_{km}).\end{equation}喩詞の因子と比喩表現の因子との間には(\ref{eq:M})式のような従属関係があるが,一旦,比喩表現の因子状態が決まったあとでは,そのような従属関係を考えずに,(\ref{eq:MFA})式により比喩表現の属性値の確率を決めてよい.このことは,ベイジアンネットワークの条件付き独立性から言える.したがって,比喩表現の因子状態$p(M.{\calC}^i_k.{\calP}^i_{kl})$が決まれば,喩詞の因子を条件とする比喩表現の因子の条件付き確率$p(M.{\calC}^i_k.{\calP}^i_{kl}|V.{\calC}^i_k.{\calP}^i_{km})$を求める必要はない.喩詞と被喩詞と比喩表現とで構造が同じベイジアンネットワークが作れることと,喩詞と被喩詞の対応する因子状態から比喩表現の因子状態を決定できることとは第\ref{sec:sd}章で確かめる.\subsection{比喩の再解釈}\label{sec:re-interpretation}比喩の再解釈において,被喩詞の意味と比喩表現の意味との$\dot{\mbox{ず}}\dot{\mbox{れ}}$を聞き手が認識するために\\は,それらの意味を比較する必要がある.以下に述べる明瞭性と新奇性とは,そのための指標である.これらの指標は,比喩表現の属性と比喩表現自体とについて定義される.比喩表現の明瞭性と新奇性とは,それぞれ,属性の明瞭性の和と新奇性の和とで近似できる.\subsubsection{比喩表現の属性の明瞭性と新奇性}\paragraph{属性の明瞭性}被喩詞・比喩表現の意味$T$・$M$について,属性$F_i$の明瞭性$C(M.F_i)$は次式である.\begin{equation}\label{eq:clarity}C(M.F_i)=S(T.F_i)-S(M.F_i).\end{equation}被喩詞の属性\hspace{-0.1mm}$F_i$\hspace{-0.1mm}の確率分布は,\hspace{-0.2mm}被喩詞の因子が喩詞の因子に従属することにより変動し,比喩表現の確率分布となる.その結果として,比喩表現の不確定性が大きくなれば,$S(M.F_i)$の値は大きくなり,不確定性が小さくなれば,$S(M.F_i)$の値は小さくなる.$C(M.F_i)$は,被喩詞の意味と比喩表現の意味とを比べたときの,属性$F_i$に関する不確定性の減少量であり,その減少は喩詞の意味に起因する.ところで,喩詞と被喩詞の属性間の関係の指標として相互情報量を使うことが考えられる.相互情報量は属性間で対称的な量である.しかし,比喩表現は非対称的である.つまり,喩詞と被喩詞とを交換すると比喩表現の意味は変化する.したがって,相互情報量は比喩表現の意味の指標として適さない.明瞭性は喩詞と被喩詞とに関して非対称的な量であることから,比喩表現の意味の指標として,より適している\cite{Utiyama95a}.\paragraph{属性の新奇性}被喩詞の意味$T$\hspace{-0.1mm}について,\hspace{-0.2mm}属性$F_i$\hspace{-0.1mm}の属性値$A_{ij}$\hspace{-0.1mm}の確率が$p(T.F_i.A_{ij})$のとき,比喩表現の意味$M$の属性$F_i$の新奇性$N(M.F_i)$は次式である.\begin{equation}\label{eq:novelty}N(M.F_i)=-\sum_{j}p(M.F_i.A_{ij})\lgp(T.F_i.A_{ij})-S(T.F_i).\end{equation}$T$において,$F_i$の値として$A_{ij}$が選ばれたときの情報量は$-\lgp(T.F_i.A_{ij})$である.したがって,$S(T.F_i)$は,獲得が期待される情報量の平均値である((\ref{eq:entropy})式参照).一方,$p(M.F_i.A_{ij})$は,被\hspace{0.1mm}喩\hspace{0.1mm}詞\hspace{0.1mm}の因\hspace{0.1mm}子が喩\hspace{0.1mm}詞の因\hspace{0.1mm}子に従\hspace{0.1mm}属することにより変\hspace{0.1mm}動した,被\hspace{0.1mm}喩\hspace{0.1mm}詞の属\hspace{0.1mm}性\hspace{0.1mm}値の確\hspace{0.1mm}率である.また,それぞれの属性値の情報量は$-\lgp(T.F_i.A_{ij})$であるから,$-\sum_{j}p(M.F_i.A_{ij})\lgp(T.F_i.A_{ij})$は,喩えることにより獲得された被喩詞の属性値の情報量の平均値と考えられる.したがって,獲得された平均情報量と獲得を期待された平均情報量(エントロピー)との差が新奇性である.新奇性が大きい値となるときは,被喩詞の意味において割り当てられた確率が小さい属性値が,比喩表現の意味においては大きい確率となるときである.つまり,稀な事柄を表わす比喩表現の属性ほど新奇性が大きい.\subsubsection{比喩表現の明瞭性と新奇性}全ての属性が確率的に独立な(因子を仮定する必要がない)ときには,比喩表現の明瞭性と新奇性とは,それぞれ,属性の明瞭性の和と新奇性の和として表わされる.たとえば,被喩詞$T$\hspace{-0.1mm}が属性$F_1$\hspace{-0.1mm}と\hspace{-0.1mm}$F_2$\hspace{-0.1mm}とからなり,\hspace{-0.1mm}$F_1\hspace{-0.1mm}=\hspace{-0.1mm}\{A_{11},A_{12},...,A_{1i},...,A_{1n}\}$,$F_2=\{A_{21},A_{22},...,A_{2j},...,A_{2m}\}$であるとする.このとき,$T$が一つの属性$F$からなり,$F=\{A_{1},A_{2},...,A_{k},...,A_{nm}\}$であると考えることができる.\hspace{-0.1mm}ただし,$A_{k}$は$A_{1i}$と\hspace{-0.1mm}$A_{2j}$とが同時に成立しているような属性値である.また,比喩表現$M$についても対応する属性がある.このとき,新奇性を示す(\ref{eq:novelty})式の第1項は,属性同士の確率的独立性より,\begin{eqnarray}\lefteqn{-\sum_{k}^{nm}p(M.F.A_{k})\lgp(T.F.A_{k})}\nonumber\\&=&-\sum_{i}^{n}p(M.F_1.A_{1i})\lgp(T.F_1.A_{1i})-\sum_{j}^{m}p(M.F_2.A_{2j})\lgp(T.F_2.A_{2j})\nonumber\end{eqnarray}のようになる.属性数が三つ以上になっても加法性は成立する.また,エントロピーも加法的である.したがって,全ての属性が互いに確率的に独立なときには,比喩表現の明瞭性と新奇性とは,それぞれ,属性の明瞭性の和と新奇性の和とで表現できる.実際には,属性同士は互いに確率的に独立ではないので,属性の明瞭性の和と新奇性の和とは,それぞれ,比喩表現の明瞭性と新奇性の近似値となる.
\section{SD法による比喩表現の意味の測定}
\label{sec:sd}一般に,名詞の意味は,客観的な意味と主観的な意味とに分かれる.客観的な意味というのは,その名詞のカテゴリカルな意味であり,主観的な意味というのは,その名詞にたいする聞き手の印象である.たとえば,「狼」という語は,「動物,哺乳類」というカテゴリカルな意味と,「獰猛,陰険」などという「狼」にたいする聞き手の印象とに分かれる\cite{Yamanashi88}.本稿では,客観的な属性とは,任意の喩詞に対して,比喩表現と被喩詞とで対応する属性値の確率が同じ属性であると定義する.客観的な属性では,明瞭性と新奇性は0となるが,その逆は必ずしも成立しない.なお,主観的な属性とは,客観的でない属性であると定義する.本稿では,被喩詞の意味と比喩表現の意味との$\dot{\mbox{ず}}\dot{\mbox{れ}}$が考察の対象であるので,客観的な属\\性は考慮しない.本稿で測定する意味は,主観的な属性の集合(名詞の印象)である.SD法(SemanticDifferential)は,そのような属性集合を測定するのに適した手法である\cite{Osgood57}.本章では,3種類の値を測定する.\begin{quote}\begin{description}\item[(1)]喩詞・被喩詞・比喩表現の属性集合(SD法による)\item[(2)]喩詞・被喩詞・比喩表現における,属性の顕著性\item[(3)]比喩表現の理解容易性\end{description}\end{quote}(1)から計算される明瞭性・新奇性の値と(2)および(3)とが対応関係にあることを示す.\subsection{実験の方法}\label{sec:method}三つの実験を行った.実験1では八つの具体名詞に対してSD法による評定を行い,実験2・3において,実験1で評定された名詞からなる比喩表現(それぞれの実験で六つずつ)についての実験をした.全ての実験で,SD法により属性集合を測定すると同時に,各名詞・比喩表現において顕著な属性と属性値も求めた.実験2・3では,各比喩の``理解容易性''についても測定した.これらの実験に用いた比喩表現は,中村\cite{Nakamura77b}から選択したものを修正した比喩表現である.SD法に用いた属性は,芳賀\cite{Haga90}と同じ25の形容詞対である(付録:表\ref{tab:scale-mean}・\ref{tab:scale-mean-1}).各形容詞が属性値に相当する.それぞれの刺激語句について,その印象を7段階で記入させた.このとき,同時に,それぞれの刺激語句において顕著であると被験者が感じた属性の属性値に対して,丸をつけさせた.丸をつける属性の数は制限しなかった.たとえば,「向日葵」にたいして,「くらい-あかるい」のうち「あかるい」が顕著であると被験者が感じたら「あかるい」に丸を付けさせた.各語句につき1枚の評定表(具体名詞には図\ref{fig:sd-card}(a),比喩表現には図\ref{fig:sd-card}(b),ただし属性は同じ)を用いた.評定表は小冊子の形式で被験者に配った.名詞句・属性の順番は無作為である.実験は集団で実施し,被験者への指示は黒板を用いて口頭で行った.また,実験2・3の被験者は実験1の被験者の部分集合である.\begin{figure}[htbp]\begin{center}\leavevmode\epsfile{file=sd-card.ps,hscale=0.9,vscale=0.9}\end{center}\caption{実験に用いた評定表の例}\label{fig:sd-card}\end{figure}\subsubsection{実験1}図\ref{fig:sd-card}(a)と同様の評定表を用いて,SD法により,八つの具体名詞の印象を25の属性について評定させた.また,顕著な属性の属性値に丸を付けさせた.\begin{quote}\begin{description}\item[測定日\hspace{1em}]95/01/12\item[被験者\hspace{1em}]筆者と同じ研究室の日本人の大学(院)生16人(男13・女3)\item[刺激語句]岩,猛獣,熊,向日葵,豚,蝶々,男,娘.\end{description}\end{quote}\subsubsection{実験2}実験2では,各々の評定表の冒頭で,各比喩の``理解容易性''を5段階(容易/どちらかといえば容易/どちらともいえない/どちらかといえば困難/困難)で評定させた(図\ref{fig:sd-card}(b)).また,実験1と同じ属性を用いて,SD法により,六つの比喩表現の評定を求め,かつ,顕著な属性の属性値に丸を付けさせた.この実験に用いた比喩表現は,実験1で評定した具体名詞からなる.\begin{quote}\begin{description}\item[被験者\hspace{1em}]筆者と同じ研究室の日本人の大学(院)生12人(男9・女3)\item[測定日\hspace{1em}]95/01/19\item[刺激語句]\\\\begin{tabular}{lll}岩のような男&熊のような男&猛獣のような男\\豚のような男&蝶々のような男&向日葵のような男\end{tabular}\end{description}\end{quote}\subsubsection{実験3}実験2と同様に,図\ref{fig:sd-card}(b)のような評定表を用い,比喩表現の``理解容易性''と各属性の評定値と顕著な属性の属性値とを求めた.ただし,被喩詞が実験2と異なる.\begin{quote}\begin{description}\item[被験者\hspace{1em}]筆者と同じ研究室の日本人の大学(院)生13人(男10・女3)\item[測定日\hspace{1em}]95/01/26\item[刺激語句]\\\\begin{tabular}{lll}岩のような娘&熊のような娘&猛獣のような娘\\豚のような娘&蝶々のような娘&向日葵のような娘\end{tabular}\end{description}\end{quote}\subsection{実験の結果}\label{sec:sd-hiyu-results}SD法により測定したそれぞれの刺激語句の属性について平均評定値を付録:表\ref{tab:scale-mean}・\ref{tab:scale-mean-1}に示す.各語句の各属性の顕著性を付録:表\ref{tab:cnum}・\ref{tab:cnum-1}に示す.顕著性とは,その属性に付けられた丸の数を被験者数で割った値である(空欄は0).顕著性は0以上1以下であるが,これらの表では,左側の属性値(形容詞)が顕著であったときには``$-$'',右側の属性値のときには``$+$''の符号を付け,顕著な属性値を示した.同一の属性に対して,被験者間で,丸を付けた属性値が食い違うことはなかった.測定した比喩表現がステレオタイプなものであったためであろう.実験2・3で求めた比喩表現の理解容易性について表\ref{tab:easiness}に示す.表\ref{tab:easiness}は,それぞれの比喩表現に対して,各段階に評定した被験者の数(空欄は0)を示すクロス表である.このクロス表に荻野の数量化\cite{Ogino83}を適用し,比喩表現を1次元に配置した.それを「指標」欄に示す.この値が大きい比喩表現ほど理解容易性が高いと我々は判断した.\begin{table}[htbp]\begin{center}\leavevmode\begin{tabular}{|l|ccccc|l|}\hline&困難&困難$-$&中立&容易$-$&容易&指標\\\hline岩のような娘&2&5&1&4&1&0.00\\猛獣のような娘&2&4&1&5&1&0.05\\蝶々のような男&1&4&2&4&1&0.08\\熊のような娘&2&3&2&4&2&0.14\\向日葵のような男&&&3&7&2&0.41\\蝶々のような娘&&2&2&4&5&0.47\\岩のような男&&&1&7&4&0.54\\豚のような娘&&&1&6&6&0.63\\向日葵のような娘&&&2&3&8&0.72\\豚のような男&&&&3&9&0.83\\熊のような男&&&&2&10&0.89\\猛獣のような男&&&&&12&1.00\\\hline\end{tabular}\vspace{\baselineskip}\begin{minipage}{11cm}「困難$-$」・「中立」・「容易$-$」は,それぞれ,「どちらかといえば困難」・「どちらともいえない」・「どちらかといえば容易」に対応する.\end{minipage}\end{center}\caption{比喩の理解容易性}\label{tab:easiness}\end{table}\subsection{実験結果の解釈}\label{sec:interpretation}第\ref{sec:introduction}章で,比喩が,(1)認定,(2)再構成,(3)再解釈,の3段階から理解されると述べた.本節では,(1)の認定段階は考察外である.(2)の再構成については,表\ref{tab:scale-mean}・\ref{tab:scale-mean-1}に示された評定値から,(a)喩詞と被喩詞と比喩表現とで構造が同じベイジアンネットワークを構成でき,(b)喩詞と被喩詞の対応する因子の状態から比喩表現の対応する因子の状態を設定できることを示す.そして,比喩表現の意味を喩詞と被喩詞の意味から構成することが基本的に可能であると仮定する.(3)の再解釈において,``被喩詞の意味と比喩表現の意味との$\dot{\mbox{ず}}\dot{\mbox{れ}}$を認識した''と判定するた\\めの必要十分条件は,一般に,明らかではない.しかし,以下の2点は必要条件に含まれるであろう.\begin{itemize}\item比喩表現の属性について,その属性が,被喩詞のときに比べて,強調されたのか,それとも抑制されたのか,が判断できること,\item``喩詞において顕著な属性は比喩表現においても顕著である''などという属性の顕著性のパターンを表現できること.\end{itemize}さらに,意味の$\dot{\mbox{ず}}\dot{\mbox{れ}}$は,比喩表現の理解容易性にも影響すると考えられる.再解釈についての考察では,これら三つの観点と明瞭性・新奇性との関係について述べる.再構成が可能であると仮定したので,明瞭性・新奇性は被喩詞の属性と比喩表現の属性とから直接計算する.\subsubsection{比喩の再構成}比喩の再構成が基本的に可能なことを示すために,(1)喩詞と被喩詞と比喩表現とで構造が同じベイジアンネットワークを作ることができ,(2)喩詞と被喩詞の対応する因子の状態から比喩表現の対応する因子の状態を設定できることを示す.表\ref{tab:scale-mean}・\ref{tab:scale-mean-1}のデータから属性間相関行列を作り,それに対して因子分析を行なった.相関行列が特異行列となるのを避けるために,他の属性との相関係数の2乗和が小さい方の属性から6個を削除した.削除した属性は,「かっぱつな-かっぱつでない」,「しずかな-さわがしい」,「おいしい-まずい」,「まがった-まっすぐな」,「おそい-はやい」,「ばかな-かしこい」である.主因子法により因子解を求め,バリマックス回転を施した.設定した因子数は4である.これらの因子により,全体の分散の約87%が説明できる.表\ref{tab:Floading}はバリマックス回転後の各属性の因子負荷量である.\begin{table}[htbp]\begin{center}\leavevmode\begin{tabular}{|l|cccc|}\hline&第1因子&第2因子&第3因子&第4因子\\\hlineわるい-よい&\0.94&-0.22&\0.11&-0.10\\ただしい-まちがった&-0.92&\0.16&\0.02&\0.08\\ふつうの-ふつうでない&-0.88&0.00&-0.10&\0.09\\きらいな-すきな&\0.87&-0.38&\0.14&-0.03\\しんせつな-ざんこくな&-0.83&-0.09&-0.33&\0.24\\たいせつな-たいせつでない&-0.78&\0.21&-0.23&\0.10\\みにくい-うつくしい&\0.66&-0.63&\0.18&\0.08\\くらい-あかるい&\0.64&-0.61&\0.03&-0.28\\とおい-ちかい&\0.64&-0.02&\0.31&-0.20\\\hlineはでな-じみな&-0.26&\0.89&-0.10&\0.18\\おもい-かるい&\0.18&-0.83&\0.49&\0.04\\あたらしい-ふるい&-0.21&\0.75&-0.16&\0.38\\かわりにくい-かわりやすい&-0.32&-0.72&\0.33&-0.38\\\hlineつよい-よわい&\0.22&-0.11&\0.88&-0.26\\おおきい-ちいさい&\0.23&-0.52&\0.82&\0.00\\おとこらしい-おんならしい&\0.30&-0.30&\0.76&-0.24\\\hlineまるい-かどばった&-0.12&\0.11&-0.36&\0.89\\つめたい-あつい&\0.42&-0.23&-0.14&-0.83\\かたい-やわらかい&\0.07&-0.29&\0.49&-0.74\\\hline因子寄与&\6.47&\4.12&\3.14&\2.71\\\hline\end{tabular}\end{center}\caption{属性の因子負荷量}\label{tab:Floading}\end{table}\begin{figure}[htbp]\vspace{-1mm}\begin{center}\leavevmode\epsfile{file=Floading.ps,hscale=0.714,vscale=0.714}\vspace{-1.5mm}\end{center}\caption{属性の因子負荷量から生成されるネットワークの一部}\vspace{-1mm}\label{fig:Floading}\end{figure}\paragraph{ベイジアンネットワークの構成}表\ref{tab:Floading}から図\ref{fig:Floading}のようなネットワークが生成できる.そのアークには,因子負荷量が重みとして設定されている.このネットワークの各因子に因子得点を与えれば,各語句の属性の評定値(平均0,標準偏差1に正規化されている)を計算できる.ある属性の評定値は,その全ての親ノードである因子の因子得点にアークの重みを掛けた値の和として与えられる.このネットワークは,喩詞・被喩詞・比喩表現に共通である.また,各因子は互いに無相関なので,これを確率的にも独立であると仮定する.すると,アークの重みから,因子を条件とする属性の条件付き確率を設定できれば,喩詞・被喩詞・比喩表現で構造が同じベイジアンネットワークが構成できる.更に,各語句の因子の因子得点を,その因子の極に与える事前確率に変換できれば,因子の状態を各語句に固有に設定できる.本稿では,これらの変換は可能であると仮定する.\vspace{-0.4mm}\paragraph{喩詞と被喩詞の因子状態からの比喩表現の因子状態の推定}喩詞と被喩詞の因子得点を説明変数,比喩表現の因子得点を目的変数として,48因子($\mbox{4因子}\times\mbox{12の比喩表現}$)について重回帰分析をしたところ,重相関係数が0.89であった.また,楠見\cite{Kusumi93}による同様な実験においても,重相関係数は0.88以上である.これより,喩詞と被喩詞の対応する因子の因子得点から比喩表現の対応する因子の因子得点を推定できると言える.したがって,因子得点と因子状態との相互変換ができれば,喩詞と被喩詞の因子状態から比喩表現の因子状態を推定できる.以上から,我々は,喩詞の意味と被喩詞の意味とから比喩表現の意味を構成可能であると仮定する.\vspace{-0.4mm}\subsubsection{比喩の再解釈}\paragraph{明瞭性・新奇性と顕著性との関係}比喩の再構成が可能であると仮定したので,明瞭性・新奇性は被喩詞の属性と比喩表現の属性とから計算した.各属性の評定値は,刺激語句における,それぞれの属性値の出現頻度の比を反映する\cite{Charles57}ので,属性値の確率は,平均評定値を線形変換して求めた\footnote{$\mbox{左側の属性値の確率}=(7-\mbox{平均評定値})/6$.}.たとえば,「向日葵のような娘」に対しては,「くらい-あかるい」の平均評定値が$6.7$であるので,「くらい」の確率を$0.05$,「あかるい」の確率を$0.95$とした.図\ref{fig:charnum}に,明瞭性(Clarity)・新奇性(Novelty)と比喩表現の顕著性との関係を示す.図\ref{fig:charnum}において``Minimum''で示される点線は,任意の明瞭性に対して,取りうる新奇性の最小値のプロットである\footnote{最小値はシミュレーションにより求めた.3,0000属性について,被喩詞と比喩表現とで属性値の確率を独立に設定して,明瞭性と新奇性とを求め,明瞭性が共通の新奇性のうちで最小値となるものをプロットした.}.三種類の記号(菱形,十字,四角)で表示されているプロットは,それぞれ,顕著性が$[0..1/3)$,$[1/3..2/3)$,$[2/3..1]$の属性である.図の右側には,被喩詞において顕著でなかった属性で,比喩表現において顕著になった属性が位置している.左側には,被喩詞において顕著であった属性で,比喩表現において顕著でなくなった属性が位置している.図には,いくつかの属性について,``喩詞-被喩詞:その属性において確率の高い方の属性値''という形式で表示してある.図から判断すると,属性を顕著性で分類しているのは,主に,明瞭性である.\begin{figure}[htbp]\begin{center}\epsfile{file=fig-charnum.ps,scale=1.0}\end{center}\caption{明瞭性・新奇性と比喩表現の顕著性}\label{fig:charnum}\end{figure}次に,明瞭性と顕著性の変化との関係を述べる.$H=\mbox{比喩表現の顕著性}-\mbox{被喩詞の顕著性}$とすると,当該の属性が強調されたかどうかは,$H$により,以下のように示される.\begin{quote}\begin{tabular}{llllll}$H<0$&抑圧,&$H=0$&無変化,&$H>0$&強調.\end{tabular}\end{quote}$H$\hspace{-0.1mm}が正の方向に大きいほど,その属性は強く強調されたことになり,\hspace{-0.1mm}負の方向に大きいほど,\hspace{-0.1mm}強く抑圧されたことになると言える.なぜなら,顕著性とは,その属性を顕著であると認めた被験者の割合であるので,その変化量はその属性を顕著だと認めた被験者の割合の増減を示すからである.この$H$と明瞭性との相関を全ての比喩表現の属性(12の比喩表現$\times$25属性$=$300属性)について求めたところ,その相関係数は0.89であった.これらのことは,``属性が強調されたのか抑圧されたのか''を示す指標として明瞭性が適当なことを示している.\paragraph{喩詞・被喩詞・比喩表現における,属性の顕著性のパターン}本小節では,ある属性の顕著性が1/4を超えているとき,その属性を顕著な属性であるとする.顕著な属性については,その属性の顕著性に付けられたプラスとマイナスとに応じて,$\pm1$により表現する.左側の形容詞が顕著なとき$-1$であり,右側のときには$+1$である.顕著でない属性は$0$で表わす.すると,全ての属性について,喩詞・被喩詞・比喩表現における顕著性のパターンが$+1$と$-1$と$0$とで表せる.本実験においては,喩詞と被喩詞と比喩表現とで,顕著な属性において符号が食い違うことはなかった.そのため,単に,$1$により顕著な属性を表す.喰い違いが生じなかったのは,評定した比喩表現が典型的なものであったためであろう.表\ref{tab:salience-patterns}には,喩詞・被喩詞・比喩表現の顕著性のパターンと明瞭性との関係を示す.本実験では,パターン``110''とパターン``111''とを除いた6パターンが生じた.生じなかった2パターンのうち,パターン``110''は,喩詞と被喩詞とで顕著な属性が比喩表現において顕著でなくなるパターンである.このようなパターンは考えがたい.パターン``111''に該当するものは,被喩詞で顕著であった属性が喩詞の作用により更に顕著になる場合である.たとえば,「山のような大男」の大きさがそのような属性である.このパターンに該当する属性では,比喩表現の顕著性が被喩詞の顕著性よりも大きくなるので,明瞭性は正の値となる.ただし,典型的な比喩表現においては,被喩詞の顕著でない属性が,喩詞の作用により,顕著になる.したがって,属性の顕著性のパターンが``111''になることは少ないと考えられる.\begin{table}[htbp]\begin{center}\leavevmode\begin{tabular}{|c|ccc|rcc|}\hlineパターン&喩詞&被喩詞&比喩表現&頻度&明瞭性の平均値&明瞭性の標準偏差\\\hlineA&1&0&1&11&$+0.43$&$0.14$\\B&0&0&1&8&$+0.22$&$0.20$\\\hlineC&1&0&0&5&$+0.11$&$0.09$\\D&0&0&0&264&$+0.01$&$0.08$\\\hlineE&0&1&1&2&$-0.23$&$0.08$\\F&0&1&0&10&$-0.48$&$0.10$\\\hline\end{tabular}\vspace{\baselineskip}明瞭性の平均値と標準偏差は,各パターンに属する属性の明瞭性から計算した.\end{center}\caption{顕著性のパターンと明瞭性}\label{tab:salience-patterns}\end{table}表\ref{tab:salience-patterns}において,パターンが異なればそれに属する比喩表現から計算される明瞭性の分布も異なるかどうかを,順位和検定により,検定した.その結果,全ての隣接パターン間において,有意水準5%で分布のズレが確認された.このことは,``喩詞において顕著な属性は比喩表現においても顕著である''などという定性的な表現を明瞭性が定量的に表現できることを示している.\paragraph{比喩表現の理解容易性と明瞭性・新奇性}比喩表現の明瞭性・新奇性を,比喩表現を構成する属性の明瞭性の和と新奇性の和とで近似する(\ref{sec:re-interpretation}節).比喩表現の理解容易性(表\ref{tab:easiness})と比喩表現の明瞭性/新奇性との相関係数は,それぞれ,$0.65$/$-0.75$である.また,明瞭性と新奇性とを説明変数,理解容易性を目的変数として重回帰分析をした結果,明瞭性と新奇性とから計算される理解容易性の予測値と測定された理解容易性との相関係数は0.80であった.SD法により評定された語句間の関係の指標としては,一般に,Dスコアが用いられる.\begin{displaymath}\mbox{Dスコア}=\sqrt{\sum_id_i^2}.\end{displaymath}ただし,\hspace{-0.2mm}$d_i$は,\hspace{-0.2mm}属性$_i$における\hspace{-0.2mm}被喩詞と比喩表現の平均評定値の差である.\hspace{-0.2mm}従来の研究では,\hspace{-0.2mm}D\\スコアを比喩理解に関わる要因の一つとしている\cite[など]{Tourangeau82,Kusumi87}.Dスコアと理解容易性との相関係数は$-0.61$である.また,明瞭性・新奇性から計算される理解容易性の予測値とDスコアとの相関係数は$-0.79$である.したがって,予測値とDスコアが正規分布をしていると仮定すれば,有意水準1%で,明瞭性・新奇性からの予測値の方がDスコアよりも理解容易性との相関が高い.
\section{おわりに}
\label{sec:summary}比喩の再解釈のモデルとして,情報量にもとづく評価関数である明瞭性と新奇性とを提案した.第\ref{sec:sd}章の実験では,五つの標本(被験者・属性・喩詞・被喩詞・比喩表現)を用いた.これらの標本は,網羅的でもないし,無作為抽出されたものでもない.したがって,これらの標本における明瞭性・新奇性の性質から,母集団におけるそれらの性質を統計的に推測することはできない.しかし,本稿の実験に用いられた標本に関しては,\begin{itemize}\item属性の顕著性の変化を示す指標として明瞭性が適当であること,\item属性の顕著性のパターンに応じて明瞭性が分布していること,\item比喩の理解容易性の指標として,明瞭性と新奇性とが適当なこと\end{itemize}を示した.本稿では,比喩の再解釈を考察の対象にした.比喩の認定と再構成とは今後の課題である.比喩表現には,その表現が比喩であることが陽には示されていないもの(隠喩)も多い.そのような比喩を認定するためには,文脈からの意味の逸脱などを検出する必要がある.比喩の再構成のためには,喩詞と被喩詞と比喩表現とに共通なベイジアンネットワークを作成し,喩詞と被喩詞の因子状態から比喩表現の因子状態を推定する必要がある.いずれの場合にも,名詞の属性集合が重要である.本稿では名詞の属性集合をSD法により測定した.今後は,これをコーパスから抽出することを考えている.\acknowledgment本稿に対して適切な助言を下さった,本学山本幹雄講師に感謝する.\bibliographystyle{jnlpbbl}\bibliography{metaphor}\section*{付録}\label{sec:appendix}SD法により得られた平均評定値を表\ref{tab:scale-mean}と表\ref{tab:scale-mean-1}とに示す.また,各概念の各属性の顕著性を表\ref{tab:cnum}と表\ref{tab:cnum-1}とに示す.これらの表では,``のような''という文字列を省略した.例えば,``猛獣のような男''なら``猛獣男''として記載されている.\input{appendix.tex}\clearpage\begin{biography}\biotitle{略歴}\bioauthor{内山将夫}{1992年筑波大学第三学群情報学類卒業.現在,筑波大学大学院工学研究科博士課程に在学中.知識獲得に興味がある.言語処理学会,情報処理学会の学生会員.}\bioauthor{板橋秀一}{東北大学工学部通信工学科卒業(1964).東北大学大学院工学研究科電気及び通信工学専攻博士課程単位取得退学(1970).東北大学電気通信研究所助手(1970).通産省工業技術院電子技術総合研究所技官(1972).同主任研究官(1974).ストックホルム王立工科大学客員研究員(1977-78).筑波大学電子・情報工学系助教授(1982).筑波大学電子・情報工学系教授(1987).専門は音声・自然言語・画像の処理・理解.1982年より,(社)日本電子工業振興協会の音声入力方式分科会主査,音声入出力方式専門委員会委員長として音声データベースの検討・構築に従事している.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V14N03-09 | \section{はじめに}
インターネットが普及し,ユビキタス社会が浸透するなか,人間がコンピュータと対話する機会も増加する傾向にある.これまでの対話システムは言語情報のみを扱い,そのパラ言語情報を扱うことは少ないため,人間同士の対話と比較すると,コンピュータとの対話ではコンピュータが得る人間の情報は少ない.本研究では音声の言語表現の特徴と音響的特徴から推定可能な感情を検出するために,感情の程度による言語表現の特徴および音響的変化を分析し,コンピュータと人間とのインタラクションにおける人間の感情および態度表出を捉えることを目指す.それにより,両者の円滑なコミュニケーションを図ることを目的としている.将来の具体的応用対象として考えられる対話を想定し,コールセンターなどへの自動音声応答システムにおける認識性能に対する不満からくる「苛立ち」や,真意が伝わらないことに対する「腹立ち」の表現などに着目して,ユーザの内的状態をその発話の言語表現および音響的な特徴から推定する可能性について検討する.本報告では,感情表現を含む音声データの収録方法および感情情報を付与する主観評価法および言語表現・音響的特徴をパラメータとした決定木による「怒り」の感情の程度を推定する実験手法に関して述べ,今後の分析手法の指針について報告する.
\section{関連研究}
ここでは感情の心理学的なモデルに関する研究および音響的特徴による感情の推定および識別手法に関する研究,言語表現と心的状態および態度に関する研究について述べる.感情の心理学的なモデルに関しては様々な研究がとり行われているものの,現状では広く使用されるモデルが確立されておらず,感情にまつわる研究でも様々なカテゴライズが独自に行われ,その独自のモデルに基づいて研究が行われている.本論文では,心理学的な尺度をもとに怒りの感情の程度を推定する手法について述べるので,ここでは各モデルがどのような尺度で構成されているかに着目したい.心理進化論的なアプローチから基本感情を8感情(acceptance,anger,anticipation,disgust,joy,fear,sadness,surprise)に設定し,立体構造モデルを定めたPlutchikの研究がある\cite{plutchik1980}.Plutchikは強度(intensity)または覚醒(arousal)という尺度で基本感情ごとに類似する感情を立体モデルの縦軸に当てはめている.RussellはShlosbergのcircularstructuralmodelをもとに水平軸に快(pleasure)—不快(displeasure),垂直軸に覚醒(arousal)—眠気(sleep)の2次元で表される平面状に日常使用する一般用語で分類した感情を円環に並べたcircumplexmodelを提唱している\cite{russell1989}.ここで特筆すべきは,Plutchikが同様と捉えた強度と覚醒の次元を別のものとして捉えている点である.Russellは感情の強度は円環の中心からのベクトルの長さで表されるとしている.Russellが強度と覚醒の次元を別のものと捉える理由はDalyらの理論にある.Dalyらはpleasantnessとactivityの2軸の他に円錐状にneutralに向かって上昇するintensityの次元を設けた3次元モデルを提唱し,それまで同様に扱われていたactivityとintensityの違いを明確にしている\cite{daly1983}.本論文は,自然な対話のなかで発声された怒りの音声の感情の強さの程度をintensityの次元で計るものとする.音響的特徴による感情の推定および識別手法に関する研究は1つの感情を扱うのではなく,多感情を扱い,感情間の識別を行う研究が多く行われている.本論文では怒りの感情の認識に向けた検討を行うため,怒りの音声に限定した研究あるいは怒りの音声を2種類に分類して識別を行った研究について述べたい.武田らは平板,中高,頭高の3種類のアクセント型を持つ4モーラと6モーラの有意味単語および無意味単語をNHKアナウンサー4人および音声研究者1名の計5人により平常,軽い怒り,怒り,激怒の4段階で発声されている音声試料を用意し,音声パワー,時間構造(持続時間,発話速度)および基本周波数を韻律の特徴パラメータとして分析を行った\cite{Takeda2002}.その結果,怒りの度合いが大きくなるにしたがって,最高音圧および最高基本周波数の増大が認められている.また,時間構造に関する特徴では,怒りの度合いが強くなるに従って早口になる傾向が見られる一方,逆に激怒時には発話が遅くなる傾向が見られたことも確認している.Shribergらの研究はDARPACommunicatorProjectのもとで開発された電話による航空券予約システムを利用して,演技ではない実際の音声の収録を行い識別実験に利用している.怒りのなかでもfrustrationとannoyanceに限定し,話速,休止,基本周波数,音圧,スペクトログラムなどの音響的特徴だけでなく,対話中の発話の位置や繰り返しや言い直しなどの情報もパラメータとして加え,怒りの音声の特徴を分析している\cite{Ang2002}.その分析の結果をもとにCART-styleの決定木によって感情を識別し,すべてのパラメータを利用した識別ではfrustrationおよびannoyanceの発話とそれ以外の発話を80\%以上の正解率で識別している.ここにおいて特筆すべきは,対象の音声が従来の研究によくみられるアナウンサーや俳優により演じられた感情音声ではないことである.実際に人間が発する自然な発話を対象とすることで,コンピュータとの対話に生じる人間の自然な感情を識別の対象としているのである.Banseらは多感情の識別実験を行っているが,複数の感情のうち,怒りをHotAngerとColdAngerに分け,異なる感情として扱い,人間による判断と音響パラメータを用いたジャックナイフ法および判別分析による識別実験との比較を行っている\cite{Banse1996}.その結果,HotAngerはジャックナイフ法で69\%,判別分析で75\%の正解率を得ている.一方,ColdAngerは正解率が低く,いずれも50\%以下の成績であった.本論文では,言語の使用を話者の心的状態および態度表出として捉え,感情表出時にどのような話者の意図が存在しているのかを分析し,感情を捉える可能性について検討するので,言語表現と意図との関係について検討された研究を先行研究として挙げる.言語表現と話者の心的状態および態度に関する認知心理学的なアプローチとして横森の接続助詞ケドの文末用法に関する考察がある\cite{Yokomori2006}.横森によれば,文末のケドに符号化された意味は従属節から予期されることに対して,聞き手が認知していることが逸脱的であるという認知的評価であるとしている.心的態度表出はこの認知的評価により決定付けられる.さらに,終助詞「よ」または「ね」の語用論的機能とイントネーションとのかかわりについても研究されている\cite[など]{Katagiri1997,Sugito2001,Inukai2001,Moriyama2001}.
\section{音声資料}
怒りを表現した発話を含むできる限り自然な対話音声を収録し,各収録発話に対し5段階の主観評価に基づいて,感情の程度の実測値を付与した.ここでは,実際に行った音声収録方法・主観評価法について述べる.\subsection{音声収録手法}コンピュータ対人間および人間対人間の擬似対話を設定し,収録を行った.発話内容を限定せず,(a)ユーザ役の音声提供者がコンピュータ役の人間と対話をし,コンピュータの認識ミスによる聞き返しにより怒りを誘発させる方法と,(b)あらかじめ,クレームの内容を提示し,人間のオペレータとその内容について話し合ってもらう方法の2通りの対話を実施した.その際,音声提供者には対話に必要な最低限の情報のみを与え,オペレータの指示に従って自由に発話するようにした.実際の対話例を図\ref{fig:utter}に示す.収録は一般の大学生10名(男性5名,女性5名)がユーザ役の音声提供者となり,研究の趣旨を熟知しているオペレータ役1名が対応した.オペレータ役とユーザ役とは非対面で対話を行い,それぞれの発話をDATレコーダに左右チャネルに分けて録音した.\begin{figure}[t]\begin{center}\includegraphics[width=0.8\hsize]{sampleDialogue.eps}\caption{「怒り」の収録対話例}\par注:Oはオペレータの発話,Uはユーザの発話\label{fig:utter}\end{center}\end{figure}収録した音声を10kHz,16bitでディジタル化し,ユーザ役の音声データを発話単位に切り出した5名(男性3名,女性2名)による発話から,159発話を音声資料として使用した.各々の発話の長さは様々で,最短の発話は「はい」(112ms),最長の発話は「だから,その…そのデータベースに全部残っているっていう証明はどうやってするんですか」(6.26s)であった.\subsection{主観評価法}\begin{table}[b]\caption{各クラスタのデータ数}\label{tb:cluster}\begin{center}\begin{tabular}{cc}\hlineクラスタ&データ数\\\hlineA&41\\B&52\\C&55\\D&11\\\hline\end{tabular}\end{center}\end{table}音声資料に対して,含まれている怒りの程度を定量化するため,主観評価実験を行った.被験者は大学生12名(男性11名,女性1名)で,ヘッドホンを通して1発話につき2回ずつランダムに提示される各発話について,怒りの程度を1(ぜんぜん)から5(すごく)までの5段階で評価させた.発話ごとに評価された値の平均値を求め,それを怒りの程度を表す実測値として各発話に付与した.さらに,音響的な特徴を分析する際に,怒りの程度による大まかな傾向をみるため,全159発話の音声資料を主観評価値をもとに4つのクラスタにクラスタリングした.クラスタリングには距離尺度にWard法を用いた階層型分類法を利用した.以後,分類した4つのクラスタを平静から順に怒りの程度が大きくなるようA,B,C,Dと称する.各クラスタのデータ数を表\ref{tb:cluster}にまとめた.なお,評価値,すなわち怒りの程度は連続に分布しており,このクラスタリングは以後の分析のために便宜上行ったもので,相隣り合うクラスタの境界は必ずしも明確ではない.
\section{「怒り」を含む発話の分析}
\subsection{音響的分析}本研究では音声の音響情報を反映するようなパラメータを怒りの推定のために利用する.検討したパラメータは感情表現に関する先行研究\cite[など]{Takeda2002,Cowie2001,Nagae1997,Banse1996,Ang2002}を参考に定めた.多くのパラメータについては,発話内の代表的な値として平均値を,時間的な変動の指標として発話内での標準偏差の値を用いた.\subsubsection{高さに関連するパラメータ}音声の高さに関連するパラメータとして,表\ref{tb:F0}に挙げた基本周波数({\itF}{\tiny0})から求められる発話内での統計量F-1〜F-7を用いる.なお{\itF}{\tiny0}は可変窓長の変形自己相関関数法により10ms間隔で自動抽出した後,視察により修正を施したものを用いた.また,{\itF}{\tiny0}の絶対的な値を対象とするパラメータ(F-1,F-2,F-3)については,男女間の差の影響を除去するため,簡易的ではあるが,男女それぞれについて全データの平均値を求め,その値を差し引くことで男女差の正規化を行ったパラメータ(F-4,F-5,F-6)を用意した.\begin{table}[b]\caption{高さに関連するパラメータ}\label{tb:F0}\begin{center}\begin{tabular}{ll}\hline記号&説明\\\hlineF-1&{\itF}{\tiny0}の発話内平均(対数軸)\\F-2&{\itF}{\tiny0}の発話内最低値\\F-3&{\itF}{\tiny0}の発話内最高値\\F-4&男女差正規化{\itF}{\tiny0}の発話内平均(対数軸)\\F-5&男女差正規化{\itF}{\tiny0}の発話内最低値\\F-6&男女差正規化{\itF}{\tiny0}の発話内最高値\\F-7&{\itF}{\tiny0}の発話内標準偏差(対数軸)\\\hline\end{tabular}\end{center}\end{table}\subsubsection{強さに関連するパラメータ}音声の強さに関連するパラメータとして,表\ref{tb:pwr}に挙げたP-1〜P-3を用いる.P-1〜P-2のパラメータは振幅のRMS値10000を0dBVとしたdBVを単位とする.短時間平均パワーは窓長20msの矩形窓を施し,5ms間隔で求めた.P-3の変動量は,短時間平均パワーの変化の緩急を定量化するため,11フレームに渡る短時間平均パワーの回帰直線の傾きのRMSを求めたものである.\begin{table}[b]\begin{minipage}{0.45\textwidth}\caption{強さに関連するパラメータ}\label{tb:pwr}\begin{center}\begin{tabular}{ll}\hline記号&説明\\\hlineP-1&短時間平均パワーの発話内標準偏差\\P-2&短時間平均パワーの発話内最大値\\P-3&短時間パワーの変動量\\\hline\end{tabular}\end{center}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\caption{速さ・長さに関連するパラメータ}\label{tb:dur}\begin{tabular}{ll}\hline記号&説明\\\hlineD-1&呼気段落の平均モーラ数\\D-2&平均発話速度(mora/s)\\\hline\\\end{tabular}\end{center}\end{minipage}\end{table}\subsubsection{速さ・長さに関連するパラメータ}発話の速さ・長さに関連するパラメータとして表\ref{tb:dur}に示す2種の値を用いる.D-1は呼気段落のモーラ数を発話内で平均したものであり,D-2は休止区間を除外して求めた平均発話速度(単位:mora/s)である.\subsubsection{声質に関連するパラメータ}声質に関連するパラメータとして,ここではスペクトル包絡の大局的な傾きに着目して,表\ref{tb:cep}に示すC-1〜C-2を取り上げた.スペクトル包絡の大局的な傾きに関連するパラメータとして,改良ケプストラム法により求めたケプストラムの第1次係数の値を使用した.\begin{table}[b]\caption{声質に関連するパラメータ}\label{tb:cep}\begin{center}\begin{tabular}{ll}\hline記号&説明\\\hlineC-1&第1次ケプストラム係数の発話内平均\\C-2&第1次ケプストラム係数の発話内標準偏差\\\hline\end{tabular}\end{center}\end{table}\subsubsection{各パラメータに対する実測値の分布}上述の計14種のパラメータがそれぞれ単独でどの程度怒りの推定能力を有するかについて検討する.図\ref{fig:graph}はいくつかのパラメータについて,怒りの程度に関する4つのクラスタ内での平均値,標準誤差,標準偏差を示したものである.個別のパラメータに関する詳細については割愛するが,クラスタ間での傾向は以下の2つに大別できる.1つは怒りの程度が大きくなるに従って,ほぼ単調に値が増加あるいは減少するもの(図2中D-2およびF-2)で,もう1つは怒りの程度が最大のクラスタDについてAからCまでの傾向と反する変化を呈するもの(図2中P-2およびF-3)である.\begin{figure}[t]\begin{center}\includegraphics[width=0.4\hsize]{D-2.eps}\includegraphics[width=0.4\hsize]{F-2.eps}\includegraphics[width=0.42\hsize]{P-2.eps}\includegraphics[width=0.4\hsize]{F-3.eps}\caption{クラスタごとのパラメータの平均値,標準誤差,標準偏差}\label{fig:graph}\end{center}\end{figure}\subsubsection{パラメータ間の相関}複数のパラメータを組み合わせて怒りの推定に用いる際に相互に相関の高いパラメータ対を把握する必要がある.上述の14種のパラメータに関して相関係数を求めたところ,いずれのパラメータも同種のカテゴリを超えて,高い相関が見られたものはなかった.同一のカテゴリ内で特に正の相関が大きいもの(r≧0.75)は,高さに関連するパラメータでは,{\itF}{\tiny0}対数平均,{\itF}{\tiny0}最高値,{\itF}{\tiny0}最低値のそれぞれの組み合わせであった.\subsection{言語的分析}収録した音声データのうち怒りの強いクラスタ内に疑問表現,終助詞「よ・ね」や接続助詞中止型「ので・けど」が見られた\cite[など]{Arimoto2006a,Arimoto2006b}.ここでは,こうした言語特徴を利用し,怒りの推定に貢献するパラメータを用意するため,語用論的機能の観点から見た怒りとの関係や音響的特徴による機能の変化などに着目し,分析を行う.\subsubsection{文構成に関するパラメータ}怒りの強いクラスタであるCとDにおいては,「それはどうやって証明するんですか?」「でも全部残っているって証明はされてないじゃないですか?」などの疑問文が多く見られた.疑問表現は一般的に未知の部分の情報を相手に求める質問型と自分自身に問いかける自問型に分類される\cite{Masuoka1992}.質問型では上昇調のイントネーションが使われ,自問型では下降調のイントネーションが使われる.本研究では対話を取り扱っているので,主に質問型の疑問文を対象とする.疑問の形式としては,「昨日,花子に会いましたか?」などの事柄の真偽に関わる「真偽疑問文」,「昨日,誰に会ったのですか?」などの「疑問語疑問文」,「文法は,好きですか,嫌いですか?」などの「選択疑問文」がある.言語の表層的な構文としては「真偽疑問文」は疑問の終助詞「か/の」で終了することが認識されているが,「か/の」を付けず,文末の音響的な上昇イントネーションにするだけでも真偽疑問文になることも確認されている.「疑問語疑問文」では「何」や「誰」などの疑問語を文中に含み,普通体では文末には「か」が原則使用できない(丁寧体では「か」は使用できる)\cite{Masuoka1992}.文末の言語表層的な表現が制限される一方で,「疑問語疑問文」でも文末の音響的な上昇イントネーションは保たれている.こうしたことから,疑問表現と音響的特徴との関連は深いものと考えることができる.疑問表現は既定の部分を前提として,未定の部分を質問する用法で用いられるが,ここでは相手の主張の正当性に対する強い反意を疑問文として表現していると捉えられる.\subsubsection{文末表現を捉えたパラメータ}話し言葉の1つの典型発話タイプである「予約したんですけど/予約したんで/残ってるんスけど」などの接続助詞中止型は,一般的に主節部分を明示せずに,聞き手にその解釈を委ねる用法であると捉えられる.こうした表現は,その主節に含まれると考えられる,対話相手の対応の悪さに対する「怒り」の内容を,聴き手に想起・自覚させ,強く印象つける役目を果たすものと考察できる.その例として,想定される主節の「怒り」の内容例を表\ref{tb:sample}にまとめる.\begin{table}[b]\caption{接続助詞中止型に想定される「怒り」の内容例}\label{tb:sample}\begin{center}\begin{tabular}{ll}\hline従属節&想定される主節\\\hlineえ,でも(予約番号は発行)されてるんで.&(1)予約はしてるんだよ.\\&(2)会議室は使えるのが当たり前だろ.\\\hline(履歴が)残ってるんスけど&(1)ちゃんと確認しろ.\\&(2)もっと調べろよ.\\\hline\end{tabular}\end{center}\end{table}さらに,横森は感情の認知的モデルにおける感情状態に遷移する前の認知的評価のみを接続助詞の意味とみなし,主体の心的態度は従属節における入力に対する主体の価値的関係によって決定されるとしている\cite{Yokomori2006}.その上で,文末における「けど」の符号化された意味を従属節から「予期されることに対して,聞き手が認知していることが逸脱的である」と定めている.収録した対話においても,怒りを誘発するために,話し手(ユーザ)が予期していることに対して,聞き手(オペレータ)が認知していることが逸脱している対話が多い.そのため,接続助詞中止型で終わる発話が収録されたと考えられる.終助詞「ね・よ」で終止する発話は,いずれも表面上は同意要求あるいは確認としての使用と見なせるが,言語運用的には話者が納得できない条件,事態について同意させられていることに対する話者の「怒り」の内的感情を表していると捉えることができる.終助詞「ね・よ」に関しては多くの研究者\cite[など]{Katagiri1997,Sugito2001,Inukai2001,Moriyama2001}がその意味・機能やイントネーションとのかかわりについて研究を行っている.片桐\cite{Katagiri1997}によれば,「ね」で終止する発話は文末に上昇調のイントネーションが加わると確認要求,下降調のイントネーションが加わると情報提供の機能を果たす.また,「よ」についても上昇調のイントネーションが付随した場合は将来の聞き手の行動に対する純粋な依頼であるのに対し,下降調イントネーションが付随すると,この聞き手の行動に対する異議申し立てと捉えられるとしている.また,イントネーションの位置によって不満・強調・強引な押し付けなどさまざまな含みを持たせることが可能であるとしている.収録音声に見られる「ね」で終止する発話についても,イントネーションとの関わりにより,その言語機能に変化があった可能性を探るため,やや怒りの強いクラスタCで見られる発話に限定して,文末30フレームの{\itF}{\tiny0}の傾きと手前30フレームの{\itF}{\tiny0}の傾きの差分を求めた(図\ref{fig:diff}).一般に句末の{\itF}{\tiny0}は下降調になるといわれるが,終助詞「ね」で終わる発話はその他の発話に比べ,緩やかな変化ではあるものの上昇傾向を示していると考えられる.ここでの発話の機能としては確認要求とみなすことができる.\begin{figure}[b]\begin{center}\includegraphics[width=0.4\hsize]{graph3_1.eps}\includegraphics[width=0.4\hsize]{graph3_2.eps}\caption{文末30フレームの{\itF}{\tiny0}の傾きと手前30フレームの{\itF}{\tiny0}の傾きの差分とクラスタとの分布}\label{fig:diff}\end{center}\end{figure}\subsubsection{言語表現のパラメータ化}言語パラメータとして,各発話を平叙文,疑問文に分類し,表\ref{tb:ling_param}中のL-1文構成として挙げた.この際,平叙文でも語尾のイントネーションを上げることで疑問となる表現は疑問文として扱った.さらに,接続助詞中止型「ので・けど」と終助詞「ね・よ」を表\ref{tb:ling_param}中のL-2文末表現として,パラメータに加えた.各発話が接続助詞中止型「ので・けど」/終助詞「ね,よ」で終わっていることを分類の基準とした.ただし,文末に接続詞中止型の「ので・けど」が来る場合,「したいんですけど」という発話と「したんですけど」という2種類の発話が現れていたが,言語表層からもその使用の違いが明らかであるため,「したいんですけど」という発話は接続助詞中止型の分類とはしなかった.\begin{table}[t]\caption{言語表現を利用したパラメータ}\label{tb:ling_param}\begin{center}\begin{tabular}{ll}\hline記号&説明\\\hlineL-1&文構成(平叙文,疑問文)\\L-2&文末表現(終助詞,接続助詞,その他)\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[t]\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics[width=168pt]{bunkousei.eps}\caption{文構成のパラメータに対する実測値の分布}\label{fig:bunkousei}\end{center}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\vspace{7.2pt}\begin{center}\includegraphics[width=168pt]{bunmatu.eps}\caption{文末表現に対する実測値の分布}\label{fig:bunmatu}\end{center}\end{minipage}\end{figure}\subsubsection{言語パラメータに対する実測値の分布}言語パラメータに対する実測値の分布を図\ref{fig:bunkousei}・\ref{fig:bunmatu}に示す.図\ref{fig:bunkousei}の文構成の分布をみると,疑問文のほうが怒りの程度の高い発話に多く見られ,平叙文との差も明らかである.文末表現の分布では,すべての項目でバラツキが大きくなっているが,平均値をみるとその他・終助詞・接続助詞の順に値が上昇している.
\section{推定実験}
収録した音声データを用い,音響パラメータと言語パラメータを使用して,決定木による怒りの程度を推定する実験を行った.ここではその実験手法とその結果について述べる.\subsection{音声データとパラメータの組み合わせ}収録した音声データにはデータ数に男女の偏りがあることが分かっている\cite[など]{Arimoto2004,Arimoto2005a,Arimoto2005b}ため,全159発話を含むdatasetAの他に男性の発話のみ(141発話)を含むdatasetBを用意した.各datasetに対し,{\itF}{\tiny0}の絶対的な値を用いるパラメータ(F-1〜3)を除いた11種の音響パラメータを用いた実験と言語パラメータを加えた13種のパラメータによる実験を行った.さらに,datasetAには女性の発話が含まれていることから,男女差の影響の程度を比較するため,14種のすべてのパラメータを用いることにした.datasetAによる14種のパラメータを用いた実験を実験I,11種のパラメータを用いた実験を実験II,言語パラメータを加えた13種のパラメータを用いた実験を実験IIIとする.datasetBによる11種のパラメータを用いた実験を実験IV,言語パラメータを加えた13種のパラメータを用いた実験を実験Vとする.各datasetに使用するパラメータ数とその実験名称を表\ref{tb:experiment}にまとめた.\begin{table}[b]\caption{実験ごとに使用するdatasetとパラメータ}\label{tb:experiment}\begin{center}\begin{tabular}{lll}\hline実験&dataset&パラメータ数\\\hline実験I&A(男女混合)&14種(すべての音響パラメータ)\\実験II&&11種(男女差正規化音響パラメータ)\\実験III&&13種(男女差正規化音響パラメータ+言語パラメータ)\\実験IV&B(男性のみ)&11種(男女差正規化音響パラメータ)\\実験V&&13種(男女差正規化音響パラメータ+言語パラメータ)\\\hline\end{tabular}\end{center}\end{table}\subsection{実験手法}推定実験は決定木を用いて行った.交差検定を行うため,各datasetの発話を3つのグループに分割した.各datasetは発話数が限られているため,ランダムに三分割を行うと,グループ間に怒りの程度の偏りが生じてしまう.そのため,1発話ずつを主観評価値の高いデータから順に3つのグループに振り分け,グループ間の怒りの程度の偏りを排除し,実験の信頼性の確保に努めた.決定木のための学習用データとして2グループを,評価用データとして1グループを使用する.データに依存しない最適な木を求めるため,学習用・評価用データに使用するグループを入れ替えて{\itn}-fold交差検証法({\itn}=3)を行う.学習用・評価用データに含まれる怒りの種類に影響されない木を求めるため,評価用データの分岐回ごとの予測値と主観評価による実測値の標準誤差が最小になる分岐回で木の生成を停止した.実験の評価方法として主観評価により付与された怒りの実測値と決定木による予測値との標準誤差を求め,推定性能の指標とした.\subsection{結果と考察}実験の結果,音響パラメータのみを用いた実験I・II・IVでは8回目,7回目,6回目が最適な分岐回となり,その際の平均推定誤差は0.54,0.60,0.53となった.音響パラメータに言語パラメータを加えた実験III・Vでは5回目,4回目が最適な分岐回となり,その際の平均推定誤差はともに0.50となった.各実験での分岐停止回と平均推定誤差を表\ref{tb:result}に,各分岐回で選択されたパラメータを表\ref{tb:selected_param_acous}・\ref{tb:selected_param_ling}にまとめる.\begin{table}[b]\caption{実験ごとの分岐停止回と平均推定誤差}\label{tb:result}\begin{center}\begin{tabular}{ccc}\hline&分岐停止回&平均誤差\\\hline実験I&8回目&0.54\\実験II&7回目&0.60\\実験III&5回目&0.50\\実験IV&6回目&0.53\\実験V&4回目&0.50\\\hline\end{tabular}\end{center}\end{table}音響パラメータのみの実験と言語パラメータを加えた実験の結果を比べると,男女混合のdatasetAでは平均推定誤差に0.10差,男性のみのdatasetBで0.03差となり,音響的特徴のみの実験よりも言語的特徴を含めた実験のほうが推定精度が若干向上している.\begin{table}[b]\caption{各分岐回で選択されたパラメータ(音響パラメータのみの実験)}\label{tb:selected_param_acous}\footnotesize\begin{tabular}{cccccccccc}\hline\scalebox{0.75}[1]{分岐回}&&実験I&&&実験II&&&実験IV&\\&group1&group2&group3&group1&group2&group3&group1&group2&group3\\\hline1&F-2(低)&F-7(大)&P-2(強)&F-7(大)&F-7(大)&P-2(強)&F-7(大)&P-2(強)&F-7(大)\\2&F-7(大)&F-2(低)&D-2(速)&P-2(強)&C-1(大)&D-2(速)&P-2(強)&D-2(速)&P-2(強)\\3&P-2(強)&P-1(大)&F-7(大)&D-2(速)&D-2(速)&F-7(大)&F-5(低)&F-5(低)&D-2(速)\\4&D-2(速)&D-2(速)&F-2(低)&F-6(低)&F-7(大)&F-7(大)&D-2(速)&F-7(大)&F-7(大)\\5&F-3(低)&C-2(大)&F-3(低)&F-7(大)&D-1(短)&D-2(速)&F-6(高)&F-7(大)&F-6(低)\\6&F-7(大)&F-2(低)&D-2(速)&F-7(大)&P-2(強)&P-2(弱)&F-6(低)&F-6(低)&F-5(低)\\7&P-2(弱)&P-2(強)&P-2(弱)&P-2(強)&F-4(小)&F-6(低)&-&-&-\\8&F-2(低)&F-3(高)&P-1(大)&-&-&-&-&-&-\\\hline\end{tabular}\end{table}\begin{table}[b—]\caption{各分岐回で選択されたパラメータ(音響+言語パラメータの実験)}\label{tb:selected_param_ling}\begin{center}\footnotesize\begin{tabular}{ccccccc}\hline分岐回&&実験III&&&実験V&\\&group1&group2&group3&group1&group2&group3\\\hline1&F-7(大)&P-2(大)&L-1(疑問文)&L-1(疑問文)&P-2(大)&F-7(大)\\2&P-2(大)&L-1(疑問文)&P-2(大)&P-2(大)&L-1(疑問文)&L-1(疑問文)\\3&F-6(低)&D-2(速)&L-2(終助詞,接続助詞)&F-5(低)&D-2(速)&P-2(大)\\4&D-2(速)&F-7(大)&P-3(小)&D-2(速)&F-7(大)&D-2(速)\\5&F-7(大)&F-6(高)&P-2(大)&-&-&-\\\hline\end{tabular}\end{center}\end{table}音響パラメータのみを使用した実験I・II・IVにより選択されたパラメータをみると,共通に選択されたパラメータ(F-7,P-2,D-2)があることが分かる.男女の発話が混合するdatasetと男性の発話のみのdatasetの間で怒りの発話に共通する音響的特徴(発話内での声の高さに大きな変化がある,声が大きい,速い)があることが分かる.実験IVにより選択されたパラメータをみると,すべてのグループで同じパラメータが選択されていることが分かり,学習用・評価用データに依存することなく,男性の怒りの発話の特徴をより正確に捉えることができたといえる.実験IVgroup1による決定木(図\ref{fig:tree}参照)の最後の3回の分岐ではD-2で速くとゆっくりに分かれた発話がその後,同じF-6のパラメータで分岐し,声の低い発話と声の高い発話のそれぞれが怒りの程度が高いと推定されていることが分かる.これは音声データに2種の怒りの発話(はやく・声の高い発話,ゆっくり・声の低い発話)が存在していることを示唆する.ひとつは対人間の対話で納得できない相手の主張に対し感情的になっている発話であり,もう1つは対コンピュータの対話で誤認識に対し同一内容を丁寧に繰り返している発話と認識内容を確認する際に念を押すようにゆっくりと話す発話である.\begin{figure}[t]\begin{center}\includegraphics[width=0.8\hsize]{tree1.eps}\caption{実験IVgroup1による決定木}\label{fig:tree}\end{center}\end{figure}表\ref{tb:selected_param_ling}をみると,言語パラメータL-1がほぼすべてのgroupで1回目・2回目という早い分岐回で選択され,疑問文である発話が怒りが強いと判断されている.これは疑問文の文構成が怒りの程度の推定に大きく寄与したと言える.音響パラメータも音響パラメータのみの実験とほぼ同じパラメータが選択され,怒りの発話の音響的な特徴も捉えられているといえる.一方で,L-2文末表現はdatasetAのgroup3で3回目の分岐で選択されている.文末表現も怒りを推定するパラメータとなりえる可能性を確認することが出来た.今回の分類では3で述べた用途以外の接続助詞中止型および終助詞「ね・よ」が含まれていた可能性があるため,そうした2種の用途を区別することが出来れば,さらにパラメータとしての精度を向上させることが出来ると考えられる.
\section{おわりに}
コンピュータと人間とのインタラクションにおいて人間が表出するパラ言語情報・非言語情報を捉えることを目指し,音声の音響的特徴と言語表現の特徴から推定可能な感情を検出するために,感情の程度による音響的特徴・言語使用の特徴を分析した.感情を「怒り」に限定し,非対面の擬似対話により,認識性能に対する不満からくる「苛立ち」や,クレーム対応時におけるユーザの「腹立ち」の内的感情を表現した怒りの音声を収録,主観評価により感情の程度を付与した音声データを作成した.また,決定木により「怒り」の程度の推定実験を行い,データに依存しない「怒り」の音響的な特徴を捉えた.感情を含む音声に「それはどうやって証明するんですか?」「でも全部残っているって証明は,されてないじゃないですか?」などの疑問文の文構成,「したんですけど/したんで/してるんスけど」などの接続助詞中止型で終止する発話,終助詞「よ,ね」で終止する発話が頻出していることから,発話者の感情表現とその言語表現との定量的な関係を分析し,怒りを推定するパラメータとして適用した.その結果,文構成・文末表現などの言語表現も「怒り」の感情の推定に貢献することを明らかにした.今後は,自然な対話の中でのユーザの感情をその発話の音響的・言語的特徴から推定するために,データの量的・質的拡充を図りながら,より推定性能の優れた音響パラメータ・言語パラメータを追究し,詳細な分析と特徴抽出を行う.\acknowledgment本研究を進めるにあたって有意義なコメントを戴いた飯田研究室および大野研究室の学生諸君に感謝いたします.\bibliographystyle{jnlpbbl_1.2}\newcommand{\SPhy}{}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ang,Dhillon,Krupski,Shriberg,\BBA\Stolcke.}{Anget~al.}{2002}]{Ang2002}Ang,J.,Dhillon,R.,Krupski,A.,Shriberg,E.,\BBA\Stolcke.,A.\BBOP2002\BBCP.\newblock\BBOQProsody-BasedAutomaticDetectionofAnnoyanceandFrustrationinHuman-ComputerDialog\BBCQ\\newblockIn{\BemProc.Intl.Conf.onSpokenLanguageProcessing},\lowercase{\BVOL}~3,\mbox{\BPGS\2037--2040}.\bibitem[\protect\BCAY{Arimoto,Ohno,\BBA\Iida}{Arimotoet~al.}{2005}]{Arimoto2005b}Arimoto,Y.,Ohno,S.,\BBA\Iida,H.\BBOP2005\BBCP.\newblock\BBOQAMethodforDiscriminatingAngerUtterancesfromOtherUtterancesusingSuitableAcousticFeatures\BBCQ\\newblockIn{\BemProceedingsofSPECOM2005},\mbox{\BPGS\613--616}.\bibitem[\protect\BCAY{Banse\BBA\Scherer}{Banse\BBA\Scherer}{1996}]{Banse1996}Banse,R.\BBACOMMA\\BBA\Scherer,K.~R.\BBOP1996\BBCP.\newblock\BBOQAcousticProfilesinVocalEmotionExpression\BBCQ\\newblock{\BemJournalofPersonalityandSocialPsychology},{\Bbf70}(3),\mbox{\BPGS\614--636}.\bibitem[\protect\BCAY{Cowie,Douglas-Cowie,Tsapatsoulis,Votsis,Kollias,Fellenz,\BBA\Taylor}{Cowieet~al.}{2001}]{Cowie2001}Cowie,R.,Douglas-Cowie,E.,Tsapatsoulis,N.,Votsis,G.,Kollias,S.,Fellenz,W.,\BBA\Taylor,J.~G.\BBOP2001\BBCP.\newblock\BBOQEmotionRecognitioninHuman-ComputerInteraction\BBCQ\\newblock{\BemIEEESignalProcessingMagazine},{\Bbf18}(1),\mbox{\BPGS\32--80}.\bibitem[\protect\BCAY{Daly,Lancee,\BBA\Polivy}{Dalyet~al.}{1983}]{daly1983}Daly,E.~M.,Lancee,W.~J.,\BBA\Polivy,J.\BBOP1983\BBCP.\newblock\BBOQAConicalModelfortheTaxonomyofEmotionalExperience\BBCQ\\newblock{\BemJournalofPersonalityandSocialPsychology},{\Bbf45}(2),\mbox{\BPGS\443--457}.\bibitem[\protect\BCAY{Plutchik}{Plutchik}{1980}]{plutchik1980}Plutchik,R.\BBOP1980\BBCP.\newblock{\BemChapter11:AstructuralmodeloftheemotionsinEmotions:Apsychoevolutionarysynthesis}.\newblockHarperandRow,N.Y.\bibitem[\protect\BCAY{Russell}{Russell}{1989}]{russell1989}Russell,J.~A.\BBOP1989\BBCP.\newblock{\BemChapter4:Measuresofemotion.inEmotionTheory,Research,andExperience}.\newblockAcademicPress,Inc.\bibitem[\protect\BCAY{片桐}{片桐}{1997}]{Katagiri1997}片桐恭弘\BBOP1997\BBCP.\newblock\Jem{文法と音声12.終助詞とイントネーション}.\newblockくろしお出版.\bibitem[\protect\BCAY{長江}{長江}{1997}]{Nagae1997}長江功広\BBOP1997\BBCP.\newblock\Jem{音声に含まれる話者の感情の分析と認識に関する研究}.\newblock宇都宮大学学士論文.\bibitem[\protect\BCAY{武田\JBA大山\JBA杤谷\JBA西澤}{武田\Jetal}{2002}]{Takeda2002}武田昌一\JBA大山玄\JBA杤谷綾香\JBA西澤良博\BBOP2002\BBCP.\newblock\JBOQ日本語音声における「怒り」を表現する韻律的特徴の解析\JBCQ\\newblock\Jem{日本音響学会誌},{\Bbf58}(9),\mbox{\BPGS\561--568}.\bibitem[\protect\BCAY{有本\JBA大野\JBA飯田}{有本\Jetal}{2004}]{Arimoto2004}有本泰子\JBA大野澄雄\JBA飯田仁\BBOP2004\BBCP.\newblock\JBOQ{\kern-0.5zw}「怒り」識別のための音声の特徴量の検討\JBCQ\\newblock\Jem{人工知能学会研究会資料},SIG-SLUD-A303\JVOL,\mbox{\BPGS\13--19}.\bibitem[\protect\BCAY{有本\JBA大野\JBA飯田}{有本\Jetal}{2005}]{Arimoto2005a}有本泰子\JBA大野澄雄\JBA飯田仁\BBOP2005\BBCP.\newblock\JBOQ決定木による「怒り」識別のための音響的特徴の検討と評価\JBCQ\\newblock\Jem{日本音響学会2005年秋季研究発表会講演論文集},1-6-2\JVOL,\mbox{\BPGS\225--226}.\bibitem[\protect\BCAY{有本\JBA大野\JBA飯田}{有本\Jetal}{2006a}]{Arimoto2006a}有本泰子\JBA大野澄雄\JBA飯田仁\BBOP2006a\BBCP.\newblock\JBOQ{\kern-0.5zw}「怒り」の感情表現とその言語表現—音響的特徴の関係\JBCQ\\newblock\Jem{言語処理学会第12回年次大会ワークショップ「感情・評価・態度と言語」論文集},1\JVOL,\mbox{\BPGS\53--56}.\bibitem[\protect\BCAY{有本\JBA大野\JBA飯田}{有本\Jetal}{2006b}]{Arimoto2006b}有本泰子\JBA大野澄雄\JBA飯田仁\BBOP2006b\BBCP.\newblock\JBOQ感情音声の収録と言語表現に現れる感情表現の分析\JBCQ\\newblock\Jem{電子情報通信学会2006年総合大会講演論文集},\mbox{\BPGS\{\SPhy}42--43}.\bibitem[\protect\BCAY{横森}{横森}{2006}]{Yokomori2006}横森大輔\BBOP2006\BBCP.\newblock\JBOQ接続助詞ケドの文末用法と話し手の態度\JBCQ\\newblock\Jem{言語処理学会第12回年次大会ワークショップ「感情・評価・態度と言語」論文集},\mbox{\BPGS\37--40}.\bibitem[\protect\BCAY{森山}{森山}{2001}]{Moriyama2001}森山卓郎\BBOP2001\BBCP.\newblock\Jem{文法と音声III3.終助詞「ね」のイントネーション—修正イントネーション制約の試み—}.\newblockくろしお出版.\bibitem[\protect\BCAY{杉藤}{杉藤}{2001}]{Sugito2001}杉藤美代子\BBOP2001\BBCP.\newblock\Jem{文法と音声III1.終助詞「ね」の意味・機能とイントネーション}.\newblockくろしお出版.\bibitem[\protect\BCAY{犬飼}{犬飼}{2001}]{Inukai2001}犬飼隆\BBOP2001\BBCP.\newblock\Jem{文法と音声III2.低く短く付く終助詞「ね」{\unskip}}.\newblockくろしお出版.\bibitem[\protect\BCAY{益岡\JBA田窪}{益岡\JBA田窪}{1992}]{Masuoka1992}益岡隆志\JBA田窪行則\BBOP1992\BBCP.\newblock\Jem{基礎日本語文法—改訂版—}.\newblockくろしお出版.\end{thebibliography}\begin{biography}\bioauthor{有本泰子}{1996年青山学院大学文学部英米文学科卒業.2004年東京工科大学メディア学部メディア学科卒業.2005年,東京工科大学バイオ・情報メディア研究科に入学,現在に至る.日本音響学会学生会員.}\bioauthor{大野澄雄}{1988年東京大学工学部電気工学科卒.1993年同大大学院工学系研究科電子工学専攻博士課程了.同年,東京理科大学基礎工学部助手.1999年東京工科大学工学部講師.現在,同大コンピュータサイエンス学部助教授.音声言語処理,特に音声の韻律の分析・合成・認識処理の研究に従事.博士(工学).電子情報通信学会,日本音響学会各会員.}\bioauthor{飯田仁}{1974年早稲田大学大学院理工学研究科数学専攻修了.NTT基礎研究所,ATR自動翻訳電話研究所,ATR音声翻訳通信研究所等を経て,2003年4月より東京工科大学メディア学部教授.2006年4月より同大学片柳研究所長.言語処理学会元会長.博士(工学).音声対話理解,マルチモーダル・インタラクション等の教育・研究に従事.科学技術庁長官賞等受賞.}\end{biography}\biodate\end{document}
| |
V05N02-04 | \section{まえがき}
日本語には単語間に明示的な区切りがないので,入力文を単語に分割し,品詞を付加する形態素解析は日本語処理における基本的な処理である.このような視点から,今日までに多くの形態素解析器が人間の言語直観に基づき作成されている.一方,英語の品詞タグ付けではいくつかのコーパスに基づく方法が提案され,非常に高い精度を報告している\cite{Grammatical.Category.Disambiguation.by.Statistical.Optimization,A.Stochastic.Parts.Program.and.Noun.Phrase.Parser.for.Unrestricted.Text,A.Simple.Rule-Based.Part.of.Speech.Tagger,A.Practical.Part-of-Speech.Tagger,Automatic.Stochastic.Tagging.of.Natural.Language.Texts,Equations.for.Part-of-Speech.Tagging,Parsing.the.LOB.corpus,Coping.with.Ambiguity.and.Unknown.Words.through.Probabilistic.Models,Tagging.English.Text.with.a.Probabilistic.Model,Some.Advances.in.Transformation-Based.Part.of.Speech.Tagging,Automatic.Stochastic.Tagging.of.Natural.Language.Texts,Transformation-Based.Error-Driven.Learning.and.Natural.Language.Processing:.A.Case.Study.in.Part-of-Speech.Tagging,Automatic.Ambiguity.Resolution.in.Natural.Language.Processing}.今日,多くの研究者が,英語の品詞タグ付けに関してはコーパスに基づく手法が従来のヒューリスティックルールに基づく手法より優れていると考えるに至っている.日本語の形態素解析に対しては,コーパスに基づく手法が従来のルールに基づく手法より優れていると考えるには至っていないようである.これは,コーパスに基づく形態素解析の研究には,ある程度の規模の形態素解析済みのコーパスが必要であり,日本語においてはこのようなコーパスが最近になってようやく簡単に入手可能になったことを考えると極めて自然である.実際,コーパスに基づく形態素解析に関しては現在までのところ少数の報告がなされているのみである\cite{確率的形態素解析,A.Stochastic.Japanese.Morphological.Analyzer.Using.a.Forward-DP.Backward-A*.N-Best.Search.Algorithm,EDRコーパスを用いた確率的日本語形態素解析,HMMによる日本語形態素解析システムのパラメータ学習}.これらの研究で用いられているモデルはすべてマルコフモデル($n$-gramモデル)であり,状態に対応する単位という観点から以下のように分けられる.\begin{itemize}\item単語(列)が状態に対応する\cite{確率的形態素解析}.\item品詞(列)が状態に対応する\cite{A.Stochastic.Japanese.Morphological.Analyzer.Using.a.Forward-DP.Backward-A*.N-Best.Search.Algorithm,EDRコーパスを用いた確率的日本語形態素解析,HMMによる日本語形態素解析システムのパラメータ学習}\end{itemize}確率的言語モデルという観点からは,単語を単位とすることは過度の特殊化であり,品詞を単位とすることは過度の一般化である.これらは,未知コーパスの予測力を低下させ,形態素解析の精度を下げる原因になっていると考えられる.我々は,この問題に対処するために,予測力を最大にするという観点よって算出したクラスと呼ばれる単語のグループを一つの状態に対応させ,基礎となる確率言語モデルを改良し,結果として形態素解析の精度を向上する方法を提案する.確率言語モデルとしてのクラス$n$-gramモデルは,最適なクラス分類を求める方法(以下,クラスタリングと呼ぶ)とともにすでに提案されている\cite{Class-Based.n-gram.Models.of.Natural.Language,On.Structuring.Probabilistic.Dependences.in.Stochastic.Language.Modeling,Improved.Clustering.Techniques.for.Class-Based.Statistical.Language.Modelling}.しかし,これらの文献で報告されている実験では,クラスタリング結果を用いたクラス$n$-gramモデルの予測力は必ずしも向上していない.これらに対して,文献(提出中)では削除補間\cite{Interpolated.estimation.of.Markov.source.parameters.from.sparse.data}を応用したクラスタリング規準とそれを用いたクラスタリングアルゴリズムを提案し,クラス$n$-gramモデルの予測力が有意に向上したことを報告している.本論文では,この方法を応用することで得られるクラス$n$-gramモデルを基礎にした確率的形態素解析器による解析精度の向上について報告する.また,未知語モデルに確率モデルの条件を逸脱することなく外部辞書を追加する方法を提案し,この結果として得られる未知語モデルを備えた確率的形態素解析器による解析精度の向上ついても報告する.さらに,上述の改良の両方を施した確率的形態素解析器と品詞体系と品詞間の接続表を文法の専門家が作成した形態素解析器との解析精度の比較を行なった結果について述べる.
\section{確率的形態素解析}
日本語に対する形態素解析とは,日本語の文(文字列)を入力とし,これを表記と品詞の直積として定義される形態素に分割する処理である.この節では,これを実現する手法の一つとしての確率的形態素解析とその基礎となる確率言語モデルと解の探索方法について述べる.\subsection{形態素解析の問題の定義}日本語の形態素解析は,日本語のアルファベット${\calX}$のクリーネ閉包に属する文$\Bdma{x}\in{\calX}^{*}$を入力として,これを表記${\calW}={\calX}^{*}$と品詞${\calT}$の直積として定義される形態素${\calM}=\{(w,t)|w\in{\calW}\wedget\in{\calT}\}$の列$\Bdma{m}$に分解して出力することと定義できる.このとき,出力される形態素列の表記の連接は,入力のアルファベット列に等しくなければならない.つまり,入力のアルファベット列(長さ$l$)を$\Bdma{x}=\Conc{x}{l}$とし,出力の形態素列(要素数$h$)を$\Bdma{m}=\Conc{m}{h}$とすると以下の式が成り立つ必要がある.ただし,$w(m)$は形態素$m$の表記を表し,$\Bdma{w}(\Bdma{m})$は形態素の連接$\Bdma{m}$の表記の連接を表わすものとする.\begin{equation}\label{equation:condition}\Bdma{w}(\Bdma{m})=w(m_{1})w(m_{2})\cdotsw(m_{h})=\Conc{x}{l}=\Bdma{x}\end{equation}一般に,これを満たす解は一意ではない.形態素解析の問題は,可能な解の中から人間の判断(正解)に最も近いと推測される形態素列(単語分割と品詞割り当て)を選択し出力することである.この選択の基準としては,文法の専門家が自身の言語直観を頼りにした規則に基づく方法と大量の正解例(形態素解析済みコーパス)からの推定を規準にする方法がある.以下では,後者の一つである確率的形態素解析について説明する.\subsection{確率的形態素解析}確率的形態素解析器は,品詞という概念を内包する確率的言語モデルを基にして,与えられた文字列$\Bdma{x}$に対する確率最大の形態素列$\hat{\Bdma{m}}$を計算し出力する.これは,以下の式で表される.\begin{displaymath}\hat{\Bdma{m}}=\argmax_{\Bdma{w}(\Bdma{m})=\Bdma{x}}P(\Bdma{m})\end{displaymath}この式の最後の$P(\Bdma{m})$が品詞という概念を内包する確率的言語モデルである.このような確率的言語モデルには様々なものが考えられる.これらの良否の尺度としては,クロスエントロピーが一般的である.これは,確率的言語モデルを$M$とし,テストコーパスを${\calS}=\{\Stri{s}{k}\}$とすると以下の式で与えられる\footnote{式の分母の$+1$は文末記号に対応する.これは,$s_{x},s_{y}$と$s_{x}s_{y}$を区別するために必要である.}.ただし,$|s|$は文$s$の長さ(文字数)を表わす.\begin{displaymath}H(M,{\calS})=-\frac{\sum_{i=1}^{k}\logM(s_{i})}{\sum_{i=1}^{k}(|s_{i}|+1)}\end{displaymath}この値は,コーパス${\calS}$をモデル$M$で符合化した時の文字あたりの平均符合長の下限であり,${\calS}$として無作為に抽出された十分多数の文を選択すれば,複数のモデルの良否を比較するための尺度となる.定義から明らかなように,この値がより小さいほうがより良い言語モデルである.クロスエントロピーの意味で良い言語モデルを用いる方が形態素解析の精度が良いと考えられる.\subsubsection{形態素$n$-gramモデル}確率的言語モデル$P(\Bdma{m})$は,形態素を一つずつ予測することを仮定すると,以下のように書き換えられる.\begin{eqnarray}\label{eqnarray:P(m)}P(\Bdma{m})&=&P(\Conc{m}{h+1})\nonumber\\&=&\prod_{i=1}^{h+1}P(m_{i}|\Conc{m}{i-1})\end{eqnarray}ここで$m_{h+1}$は,文末に対応する特別な記号である.これを導入することによって,すべての可能な形態素列に対する確率の和が1となることが保証される\cite{Syntactic.Methods.in.Pattern.Recognition}.式(\ref{eqnarray:P(m)})は,ある時点$i$での形態素$m_{i}$の出現確率は最初の時点から時点$i-1$までの全ての形態素に依存することを表しているが,実装の簡便さなどを考慮して,時点$i-k$から時点$i-1$までの連続する$k$個の形態素の履歴にのみ依存する$k$重マルコフ過程であると仮定する.この仮定は,以下の式で表される近似である.\begin{eqnarray*}P(m_{i}|\Conc{m}{i-1})&\approx&P(m_{i}|m_{i-k}m_{i-k+1}\cdotsm_{i-1})\end{eqnarray*}ここで$m_{j}\;(j\leq0)$は,文頭に対応する特別な記号である.これを導入することによって式が簡便になる.一般に,確率$P(m_{i}|m_{i-k}m_{i-k+1}\cdotsm_{i-1})$の値はコーパスから最尤推定することで得られる.これは,$N(\Bdma{m})$を形態素列$\Bdma{m}$のコーパスにおける頻度として,以下の式で与えられる.\begin{eqnarray*}P(m_{i}|m_{i-k}m_{i-k+1}\cdotsm_{i-1})&=&\frac{N(m_{i-k}m_{i-k+1}\cdotsm_{i})}{N(m_{i-k}m_{i-k+1}\cdotsm_{i-1})}\\&=&\frac{N(m_{i-k}m_{i-k+1}\cdotsm_{i})}{\sum_{m}N(m_{i-k}m_{i-k+1}\cdotsm_{i-1}m)}\end{eqnarray*}このように,このモデルは連続する$n=k+1$個の形態素列の頻度に基づいているので,形態素$n$-gramモデルと呼ばれる.形態素$n$-gramモデルにおいて場合に問題となるのは,状態に対応する形態素(既知形態素)の選択である.一般的には,頻度の高い形態素を既知形態素とすることで高い予測力が実現できる.しかし,どのような形態素の集合を選択したとしても,テストコーパスに出現する可能性のあるすべての形態素が既知形態素であることは望めない.このため,未知形態素の扱いが避けられない問題となる.この問題に対処するため,未知形態素に対応する特別な記号を用意し,既知の形態素以外はこの記号から次節で述べる未知語モデルにより与えられる確率で生成されることとする.未知形態素に対応する特別な記号は,かならずしも唯一である必要はなく,品詞などの情報を用いて区別される複数の記号であっても良い.我々の目的は形態素解析であるから未知形態素であっても品詞の推定が可能でなければならない.よって,各品詞に対して未知形態素に対応する記号を設ける.以上に述べた形態素$n$-gramモデル$M_{m}$による,形態素列の出現確率は以下の式で表される.ただし${\calM}_{in}$は既知形態素の集合を表わし,$t$は$m_{i}$の品詞を表わす.また,${\ttUM}_{t}$は品詞$t$に属する未知形態素に対応する特別な記号である.\begin{equation}\label{equation:morph_n-gram1}M_{m}(\Conc{m}{h})=\prod_{i=1}^{h+1}P_{m}(m_{i}|m_{i-k}\cdotsm_{i-2}m_{i-1})\end{equation}\begin{eqnarray}\label{equation:morph_n-gram2}\lefteqn{P_{m}(m_{i}|m_{i-k}\cdotsm_{i-2}m_{i-1})}\nonumber\\&=&\left\{\begin{array}{lccl}P(m_{i}|m_{i-k}\cdotsm_{i-2}m_{i-1})&&\mbox{if}&m_{i}\in{\calM}_{in}\\P({\ttUM}_{t}|m_{i-k}\cdotsm_{i-2}m_{i-1})M_{x,t}(m_{i})&&\mbox{if}&m_{i}\not\in{\calM}_{in}\\\end{array}\right.\end{eqnarray}この式の中の$M_{x,t}$は,次項で述べる未知語モデルであり,品詞が$t$であることを条件として,引数で与えられる文字列の生成確率を値とする.確率値の最尤推定においては,まず既知形態素集合を定義し,学習コーパスの未知形態素を未知形態素に対応する特別な記号に置き換えて頻度を計数する.\subsubsection{未知語モデル}未知語モデルは,表記から確率値への写像として定義され,既知形態素以外のあらゆる形態素の表記を0より大きい確率で生成し,この確率をすべての表記に渡って合計すると1以下になる必要がある.このような条件を満たすモデルの一つとして,文字$n$-gramモデルがある.日本語の表記に用いられる文字は有限と考えられるので,形態素$n$-gramモデルのときの未知形態素のような問題は起こらない.しかし,形態素$n$-gramモデルの場合と同様に,文字を既知文字と未知文字に分類し,未知文字はこれを表わす特別な記号から生成されるものとすることもできる.文字の使用頻度には大きな偏りがあることが予測されるので,これらを一つのグループとみなすことで,モデルが改善されると考えられる.文字集合は有限であるから,未知形態素モデルの場合と異なり,各未知文字の生成確率を等確率とすることができる.このようにして構成される未知語モデルは以下の式で表わされる.ただし${\calX}_{in,t}$は品詞が$t$である未知語モデルの既知文字の集合を表わし,${\ttUX}_{t}$は品詞$t$の未知語モデルの未知文字に対応する特別な記号である.また,$w(m)=\Conc{x}{h}$としている.\begin{eqnarray}\label{equation:ukwmodel0}M_{x,t}(w(m))&=&M_{x,t}(\Conc{x}{h})\\\label{equation:ukwmodel1}&=&\prod_{i=1}^{h+1}P_{x,t}(x_{i}|x_{i-k}\cdotsx_{i-2}x_{i-1})\end{eqnarray}\begin{eqnarray}\label{equation:ukwmodel2}\lefteqn{P_{x,t}(x_{i}|x_{i-k}\cdotsx_{i-2}x_{i-1})}\nonumber\\&=&\left\{\begin{array}{lccl}P(x_{i}|x_{i-k}\cdotsx_{i-2}x_{i-1})&&\mbox{if}&x_{i}\in{\calX}_{in,t}\\P({\ttUX}_{t}|x_{i-k}\cdotsx_{i-2}x_{i-1})\frac{1}{|{\calX}-{\calX}_{in,t}|}&&\mbox{if}&x_{i}\not\in{\calX}_{in,t}\\\end{array}\right.\end{eqnarray}この式の中の$x_{j}\;(j\leq0)$は,語頭に対応する便宜的な記号である.また,$x_{h+1}$は,語末に対応する特別な記号であり,形態素に対するモデルの場合と同様に,すべての可能な文字列に対する確率の和が1となるために導入されている.以上で説明した未知語モデルは,未知文字を等確率で生成するモジュールを「未知文字モデル」と考えると,形態素$n$-gramモデルと相似の構造である.文字$n$-gramモデルの確率値は,形態素$n$-gramモデルの場合と同様に,既知文字を定義した後,未知形態素の実例における文字列の頻度から推定される.\subsubsection{低頻度事象への対処}上述したように,形態素$n$-gramモデルのパラメータ推定には,出現頻度を基にした最尤推定が用いられる.しかし,対象とする事象の頻度が低い場合には,推定値の信頼性は低くなるという問題がある.この問題に対処する方法として,補間と呼ばれる方法が用いられる\cite{Principles.of.Lexical.Language.Modeling.for.Speech.Recognition}.これは,次の式で表されるように,より信頼性が高いことが期待される,より低次のマルコフモデルの遷移確率を一定の割合で足し合わせるという操作を施すことを言う.\begin{equation}\label{equation:m-inter}P'(m_{i}|m_{i-k}m_{i-k+1}\cdotsm_{i-1})=\sum_{j=0}^{k}\lambda_{j}P(m_{i}|m_{i-j}m_{i-j+1}\cdotsm_{i-1})\end{equation}\begin{displaymath}ただし\;0\leq\lambda_{j}\leq1,\;\sum_{j=0}^{k}\lambda_{j}=1\end{displaymath}係数$\lambda$の値は,確率値$P$の推定に用いられるコーパスとは別に用意された比較的小さいコーパスを用いて最尤推定される.この方法では,確率値の推定に用いることができるコーパスの大きさが小さくなり,推定値の信頼性が少しではあるが低下するという問題がある.これに対処する方法として削除補間\cite{Interpolated.estimation.of.Markov.source.parameters.from.sparse.data}と呼ばれる方法がある.これは,パラメータ推定のためのコーパスを$k$個に分割し,$k-1$個の部分で確率値を推定し,残りの部分で補間の係数を推定するということを全ての組合せ($k$通り)に渡って行ない,その平均値をとるという方法である.\subsubsection{解の探索アルゴリズム}形態素$n$-gramモデルによる形態素解析器は,入力として文字列$\Bdma{x}$を受けとり,式(\ref{equation:morph_n-gram1})(\ref{equation:morph_n-gram2})(\ref{equation:ukwmodel1})(\ref{equation:ukwmodel2})(\ref{equation:m-inter})を用いて計算される確率が最大の形態素列$\hat{\Bdma{m}}$を式(\ref{equation:condition})で表わされる条件の下で計算し出力する.解の探索には動的計画法を用いることができ,入力の文字数$n$に対して計算時間のオーダーが$O(n)$となるアルゴリズムが提案されている\cite{The.Use.of.One-Stage.Dynamic.Programming.Algorithm.for.Connected.Word.Recognition}\cite{A.Stochastic.Japanese.Morphological.Analyzer.Using.a.Forward-DP.Backward-A*.N-Best.Search.Algorithm}.
\section{未知語モデルの改良}
この章では,確率的形態素解析の精度を向上させる方法として,未知語モデルに外部辞書を付加する方法を提案する.これは,確率的言語モデルの予測力を改善する方法であり,確率的形態素解析の精度向上を直接の目的としているわけではないが,確率的言語モデルの予測力の改善は,結果としてそれに基づく確率的形態素解析器の解析精度を向上させる.また,予測力の高い未知語モデルを推定するための未知形態素の実例の収集方法についても述べる.\subsection{外部辞書の付加}前章で述べた未知語モデル$M_{x,t}$は,未知形態素だけでなく既知形態素の表記も0より大きい確率で生成する可能性がある.この場合には,以下の式が示すように,未知形態素の生成確率の合計は1未満となる.以下の説明では品詞$t$を省略してある.また,形態素の集合を表わす記号${\calM}_{in}$をその表記の集合を表わすとしている.\begin{eqnarray*}&&\sum_{m\in{\calX}^{*}-{\calM}_{in}}M_{x}(m)+\sum_{m\in{\calM}_{in}}M_{x}(m)=\sum_{m\in{\calX}^{*}}M_{x}(m)=1\\&\Leftrightarrow&\sum_{m\in{\calX}^{*}-{\calM}_{in}}M_{x}(m)=1-\sum_{m\in{\calM}_{in}}M_{x}(m)<1\;\;\;(\becauseM_{x}(m)>0,\;\existsm\in{\calM}_{in})\end{eqnarray*}これは,言語モデルとしての条件を満たしてはいるが,クロスエントロピーという点で改善の余地がある.つまり,既知形態素の生成確率を何らかの方法で未知形態素に分配することで,未知形態素の生成確率が大きくなり,テストコーパスにそのような未知形態素が出現した場合に,テストコーパスの出現確率が大きくなる.既知形態素の生成確率の分配には,様々な方法が考えられるが,以下の式が表すように,すべての未知形態素にその生成確率に比例して分配する方法が一般的であろう.\begin{eqnarray}\label{equation:ukwmodel3}\lefteqn{M_{x}^{\prime}(\Conc{x}{h})}\nonumber\\&=&\left\{\begin{array}{lccl}0&&\mbox{if}&m\in{\calM}_{in}\\\frac{1}{1-\sum_{m\in{\calM}_{in}}M_{x}(m)}M_{x}(\Conc{x}{h})&&\mbox{if}&m\not\in{\calM}_{in}\\\end{array}\right.\end{eqnarray}これに対して我々は,辞書の見出し語などとして与えられる形態素の部分集合に等しく配分することを提案する.つまり,ある形態素の集合が与えられたとして,ここから既知形態素を除いた集合を${\calM}_{ex}$(${\calM}_{ex}\cap{\calM}_{in}=\phi$)として,この要素の生成確率を文字$n$-gramモデルによる確率と既知形態素の生成確率の合計を${\calM}_{ex}$の要素数で割った値の和とする.\begin{equation}\label{equation:ukwmodel4}M_{x}^{\prime}(m)=M_{x}(m)+\frac{1}{|{\calM}_{ex}|}\sum_{m\in{\calM}_{k}}M_{x}(m)\;\;\;(m\in{\calM}_{ex})\end{equation}これは,既知形態素の生成確率を,学習コーパスには現れないが辞書などから形態素であると考えられる文字列に優先的に分配し,それらの生成確率を相対的に高くすることを意味する.このような文字列の集合を外部辞書と呼ぶ.形態素解析が目的なので,外部辞書には文字列のほかにその品詞が記述されている必要がある.この方法により,確率言語モデルの枠内で,コーパスから推定された確率言語モデルに辞書などの異なる情報源の情報を付加できる.以上に述べた外部辞書を備えた未知語モデル$M_{x}^{\prime}$による文字列$m=\Conc{x}{h}$の出現確率は以下の式で表される.\begin{eqnarray*}\lefteqn{M_{x}^{\prime}(\Conc{x}{h})}\\&=&\left\{\begin{array}{lccl}0&&\mbox{if}&m\in{\calM}_{in}\\M_{x}(\Conc{x}{h})+\frac{1}{|{\calM}_{ex}|}\sum_{m\in{\calM}_{in}}M_{x}(m)&&\mbox{if}&m\in{\calM}_{ex}\\M_{x}(\Conc{x}{h})&&\mbox{if}&m\not\in{\calM}_{in}\wedgem\not\in{\calM}_{ex}\\\end{array}\right.\end{eqnarray*}これを式(\ref{equation:ukwmodel0})の代わりに用いる未知語モデルを外部辞書を備えた未知語モデルと呼ぶ.\subsection{未知形態素の実例の収集方法}文字$n$-gramモデルの確率値は,形態素$n$-gramモデルの場合と同様に,アルファベットを定義してから,未知形態素の実例における文字列の頻度から推定される.未知形態素の実例の収集の方法としては,学習コーパスに含まれるすべての形態素とすることや,学習コーパスにおける頻度が1である形態素とする\cite{単語頻度の期待値に基づく未知語の自動収集}などが考えられる.我々は,削除補間法を応用した以下の方法を提案する.\begin{quote}学習コーパスを$k$個の部分コーパスに分割し,$i$番目の部分コーパスの未知形態素の実例を,$i$番目の部分コーパス以外を学習コーパスとし$i$番目の部分コーパスをテストコーパスと見た場合の未知形態素とする.\end{quote}我々が提案する方法は,削除補間法を応用して,実際のテストコーパスにおける未知形態素と類似した実例を得ているので,他の方法よりも優れていると予測される.実際に,予備実験としてこれらの方法を実装し,予測力という規準で比較した.その結果,我々が提案する方法が最良であった.したがって,実験にはこの方法を用いた.
\section{形態素クラスタリング}
この章では,形態素$n$-gramモデルの一般化の一つであるクラス$n$-gramモデルを説明し,文献(提出中)を応用して形態素解析のためのクラスを自動的に学習する方法を提案する.前章と同様に,確率的言語モデルの予測力の改善を目的としているが,学習されたクラス$n$-gramモデルに基づく確率的形態素解析器の解析精度は,形態素$n$-gramモデルや人間の言語直観による品詞をクラスとした場合の品詞$n$-gramモデルに基づく確率的形態素解析器の解析精度より高くなると考えられる.\subsection{クラス$n$-gramモデル}クラス$n$-gramモデル\cite{Class-Based.n-gram.Models.of.Natural.Language}では,あらかじめ形態素をクラスと呼ばれるグループに分類しておき,先行するクラスの列を直前の事象とみなして分類する.このモデルでは,次の形態素を直接予測するのではなく,次のクラスを予測した上で次の形態素を予測する.以下の式で,${\calC}_{in}$は既知形態素に対応するクラスであり,これを品詞とすれば,品詞$n$-gramモデルとなる.\begin{equation}\label{equation:class_n-gram1}P(\Bdma{m})=\prod_{i=1}^{h+1}P_{c}(m_{i}|c_{i-k}c_{i-k+1}\cdotsc_{i-1})\end{equation}\begin{eqnarray}\label{equation:class_n-gram2}\lefteqn{P_{c}(m_{i}|c_{i-k}\cdotsc_{i-2}c_{i-1})}\nonumber\\&=&\left\{\begin{array}{lccl}P(c_{i}|c_{i-k}\cdotsc_{i-2}c_{i-1})P(m_{i}|c_{i})&&\mbox{if}&\existsc_{i}\in{\calC}_{in},\;m_{i}\inc_{i}\\P({\ttUM}_{t}|c_{i-k}\cdotsc_{i-2}c_{i-1})M_{x,t}(m_{i})&&\mbox{if}&\forallc_{i}\in{\calC}_{in},\;m_{i}\not\inc_{i}\\\end{array}\right.\end{eqnarray}この式の中の$c_{j}\;(j\leq0)$は,文頭に対応する特別な記号である.これを導入することによって式が簡便になる.また,$c_{h+1}$は,語末に対応する特別な記号であり,これを導入することによって,すべての可能な文字列に対する確率の和が1となる\cite{Syntactic.Methods.in.Pattern.Recognition}.形態素に基づくモデルの場合と同様に,確率$P(c_{i}|c_{i-k}c_{i-k+1}\cdotsc_{i-1})$の値および,確率$P(m_{i}|c_{i})$の値は,コーパスから最尤推定することで得られる.\begin{eqnarray*}P(c_{i}|c_{i-k}c_{i-k+1}\cdotsc_{i-1})&=&\frac{N(c_{i-k}c_{i-k+1}\cdotsc_{i})}{N(c_{i-k}c_{i-k+1}\cdotsc_{i-1})}\\P(m_{i}|c_{i})&=&\frac{N(m_{i},c_{i})}{N(c_{i})}\end{eqnarray*}この式において,クラスを品詞とすれば品詞$n$-gramモデルが得られ,形態素からクラスへの写像が全単射であれば,形態素$n$-gramモデルと等価になることが分かる.また,これをマルコフモデルと考えると,状態はクラスに対応する.形態素$n$-gramモデルと同様に,データスパースネスの問題に対処する方法として,補間を用いることができる\cite{Class-Based.n-gram.Models.of.Natural.Language}.これは,以下のように式(\ref{equation:m-inter})において形態素$m$をクラス$c$と読み変えれることで容易に得られる.\begin{equation}\label{equation:c-inter}P'(c_{i}|c_{i-k}c_{i-k+1}\cdotsc_{i-1})=\sum_{j=0}^{k}\lambda_{j}P(c_{i}|c_{i-j}c_{i-j+1}\cdotsc_{i-1})\end{equation}\begin{displaymath}ただし\;0\leq\lambda_{j}\leq1,\;\sum_{j=0}^{k}\lambda_{j}=1\end{displaymath}\subsection{形態素クラスタリング}確率言語モデルの形態素クラスタリングの課題は,クロスエントロピーが最も低くなる形態素とクラス(図\ref{figure:concept}の中の$c_{1},c_{2},\cdots,c_{x}$)の対応関係を算出することである.このようなクラスを用いて構築されたクラス$n$-gramモデルに基づく確率的形態素解析器の解析精度は,品詞$n$-gramモデルや形態素$n$-gramモデルに基づく確率的形態素解析器の解析精度よりも高くなることが期待される.従って,形態素クラスタリングの目的関数は,削除補間を応用することでクロスエントロピーを模擬すると考えられる以下のような値とした.\begin{equation}\label{equation:criterion}\overline{H}=\frac{1}{k}\sum_{i=1}^{k}H(M_{i},{\calS}_{i})\end{equation}ここで,$M_{i}$は$i$番目以外の$k-1$の部分コーパスから推定された確率言語モデルであり,${\calS}_{i}$は$i$番目の部分コーパス(文の列)を表す.ここで問題としているのは,確率的言語モデルとしてクラス$n$-gramモデルを用いた場合の形態素のクラスタリングである.この場合,コーパスは一定であり,確率的言語モデル$M$は形態素とクラスの関係$F$にのみ依存する.従って,上式の平均クロスエントロピーは,形態素とクラスの関係の関数とみなすことができる.この値がより小さいほうが,未知のコーパスに対してより良い言語モデルであることが予測される.よって,クラスタリングの目的は,式(\ref{equation:criterion})で定義される平均クロスエントロピーを最小化する形態素とクラスの関係を求めることである.\input{figure:concept.tex}形態素とクラスの対応関係としては,ある形態素が一定の確率で複数のクラスに属するという確率的な関係も考えられるが,解空間が広大になるので,本研究では形態素は唯一のクラスに属することを仮定した.よって,クラスの集合は形態素の集合の直和分割となる.形態素とクラスの対応関係$F$は,${\calM},{\calC}$をそれぞれ形態素の集合とクラスの集合とすると,関数$f:{\calM}\mapsto{\calC}\;(=2^{\calM})$を用いて表すことができ,この関数は以下の条件を満たす\footnote{$f$の値は形態素の集合である(例:$f(m_{1})=\{m_{1},m_{2},m_{3}\}$).}.\begin{displaymath}M=\bigcup_{m\inM}f(m)\end{displaymath}\begin{displaymath}\forallm\inM\;に対し\;m\inf(m)\end{displaymath}\begin{displaymath}f(m_{1})\not=f(m_{2})\Rightarrowf(m_{1})\capf(m_{2})=\phi\end{displaymath}解探索のアルゴリズム中で用いるために,形態素とクラスの対応関係に対して,以下の関数を定義する.\begin{itemize}\item$move:F\timesM\timesC\mapstoF$\\$move(f,m,c)$は,形態素とクラスの関係$f$に対して形態素$m$をクラス$c$に移動した結果得られる形態素とクラスの関係を返す.\end{itemize}クラスタリングの解空間はあらゆる可能な形態素とクラスの対応関係である.しかし,この数はある程度の大きさの語彙数に対しては非常に大きいため,これら全てに対して平均クロスエントロピーを計算し,これを最小化するクラス関係を選択するということは,計算量という観点から不可能である.平均クロスエントロピーの値はクラス関係の一部分の変更が全体に影響するという性質をもっているので,分割統治法や動的計画法を用いることもできない.以上のことから,我々は最適解を求めることを諦め,貪欲アルゴリズムを用いることにした.このアルゴリズムは以下の通りである(図\ref{figure:clustering}参照).なお,$\overline{H}$は式(\ref{equation:criterion})で与えられる平均クロスエントロピーでり,$t(m)$や$t(c)$は形態素$m$やクラス$c$の品詞を表わす.同一の品詞である形態素に対してのみ併合を試みるので,結果としてどのクラスも同一の品詞の形態素のみを要素に持つことに注意しなければならない.\begin{center}\begin{tabular}{|l|}\hline$M$を頻度の降順に並べ$\Stri{m}{n}$とする\\{\bfforeach}$i$($1,2,\cdots,n$)\\\hs$c_{i}:=\{m_{i}\}$\\\hs$f(m_{i}):=c_{i}$\\{\bfforeach}$i$($2,3,\cdots,n$)\\\hs$c:=\argmin_{c\in\{t(c)=t(m_{i})|\;\Stri{c}{i-1}\}}\overline{H}(move(f,m_{i},c))$\\\hs{\bfif}($\overline{H}(move(f,m_{i},c))<\overline{H}(f)$){\bfthen}\\\hs\hs$f:=move(f,m_{i},c)$\\\hline\end{tabular}\end{center}\input{figure:clustering}計算量は,二番目の{\bfforeach}での繰り返しの回数は単語数$|W|$に比例し,{\bfargmin}での繰り返しの回数はクラス数$|C|$に比例するので,全体で$O(|W|\cdot|C|)$である.クラス数$|C|$は,全ての単語が独立したクラスに分けられる場合に最大($|C|=|W|$)となり,全ての単語が同一のクラスとなる場合に最小($|C|=1$)となる.従って,初期化における全体の計算量は,最良の場合が$O(|W|)$であり,最悪の場合が$O(|W|^{2})$である.ただし,単語の並べ替えや一番目の{\bfforeach}の計算量は係数が非常に小さいと考えられるので,考慮に入れていない.次節で述べる実験の結果では,頻度の高い形態素を対象とする段階では多くの形態素がクラスに併合されずクラス数は形態素数に比例し最悪の場合に近い挙動を示したが,頻度の低い形態素を対象とする段階ではほとんどの形態素がクラスに併合されてクラス数はほとんど一定となり最良の場合に近い挙動を示した.頻度の低い形態素が多数を占めるので,計算量は実際にはかなり線形に近いと考えられる.頻度の高い形態素から移動を試みることとしているのは,頻度の高い形態素の移動のほうがパープレキシティに与える影響が大きいと考えられるので,早い段階での移動が後の移動によって影響されにくく,収束がより速くなると考えたためである.上述のアルゴリズムによって得られたクラス分類からさらに探索を進めてより良いクラス分類が得られるかを試みることができる.このアルゴリズムとして,さらに形態素の移動を試みること\cite{On.Structuring.Probabilistic.Dependences.in.Stochastic.Language.Modeling}やクラスの併合を試みること\cite{Class-Based.n-gram.Models.of.Natural.Language}が考えられる.我々は,これらのアルゴリズムを小さなコーパスに対する予備実験で適用してみたが,必要となる計算時間が膨大である割にはクロスエントロピーの改善が小さかった.よって,次章では,上述のアルゴリズムによる実験結果について述べる.
\section{実験結果とその評価}
前節で述べた方法の有効性を確かめるため,以下の点を明らかにするための実験を行った.\begin{enumerate}\item外部辞書による解析精度の向上\item形態素クラスタリングによる解析精度の向上\end{enumerate}以下では,まず形態素解析精度の評価基準について述べ,実験の条件を明確にし,上述の実験の結果を提示し評価する.また,文法の専門家による形態素解析器との解析精度の比較を行なった結果について述べる.なお以下では,「クラス$n$-gramモデル」などの言語モデルを表す表現を,文脈から明らかな場合には,その言語モデルに基づく形態素解析器を表すためにも用いる.\subsection{評価基準}我々が用いた評価基準は,\cite{EDRコーパスを用いた確率的日本語形態素解析}で用いられた再現率と適合率であり,次のように定義される.EDRコーパスに含まれる形態素数を$N_{EDR}$,解析結果に含まれる形態素数を$N_{SYS}$,分割と品詞の両方が一致した形態素数を$N_{COR}$とすると,再現率は$N_{COR}/N_{EDR}$と定義され,適合率は$N_{COR}/N_{SYS}$と定義される.例として,コーパスの内容と解析結果が以下のような場合を考える.\begin{description}\item[コーパス]\\\\begin{tabular}{l}外交(名詞)\政策(名詞)\で(助動詞)\は(助詞)\な(形容詞)\い(形容詞語尾)\end{tabular}\item[解析結果]\\\\begin{tabular}{l}外交政策(名詞)\で(助詞)\は(助詞)\な(形容詞)\い(形容詞語尾)\end{tabular}\end{description}この場合,分割と品詞の両方が一致した形態素は「は(助詞)」と「な(形容詞)」と「い(形容詞語尾)」であるので,$N_{COR}=3$となる.また,コーパスには6つの形態素が含まれ,解析結果には5つの形態素が含まれているので,$N_{EDR}=6,\,N_{SYS}=5$である.よって,再現率は$N_{COR}/N_{EDR}=3/6$となり,適合率は$N_{COR}/N_{SYS}=3/5$となる.\subsection{実験の条件}実験にはEDRコーパス\cite{EDR.電子化辞書仕様説明書}を用いた.まず,これを10個に分割し,この内の9個を学習コーパスとし,残りの1個をテストコーパスとした.前章で述べたように,クラス関数の推定では,この9個の学習コーパスのうちの8つから$n$-gramモデルを推定し,残りの1つのコーパスに対してクロスエントロピーを求めるということを9通り行なって得られる平均クロスエントロピーを評価規準とする.それぞれのコーパスに含まれる文と形態素と文字の数(のべ)は表\ref{table:corpus}の通りである.既知形態素は,2個以上の学習コーパスに現れる59,956個の形態素とした.形態素bi-gramモデルは,これらに対応する状態の他に,各品詞の未知語に対応する状態(15個)と文区切り(文末と文頭)に対応する状態を持つ.同様に,クラスbi-gramモデルは,既知形態素をクラスタリングすることで得られるクラスに対応する状態と,各品詞の未知語に対応する状態と文区切りに対応する状態を持つ.\input{table:corpus.tex}形態素bi-gramモデルとクラスbi-gramモデルを比較するために,これらを同じ学習コーパスから構成し,同じテストコーパスに対してパープレキシティや形態素解析の精度を計算した.それぞれの言語モデルの構成の手順は以下の通りである.\begin{itemize}\item形態素bi-gramモデル\begin{enumerate}\item削除補間により式(\ref{equation:m-inter})の補間の係数を推定\itemすべての学習コーパスを対象に形態素bi-gramと形態素uni-gramを計数\end{enumerate}\itemクラスbi-gramモデル\begin{enumerate}\item削除補間により式(\ref{equation:m-inter})の補間の係数を推定\item前章で述べた方法($k=9$)でクラス関数を推定\item削除補間により式(\ref{equation:c-inter})の補間の係数を推定\itemすべての学習コーパスを対象にクラスbi-gramとクラスuni-gramを計数\end{enumerate}\end{itemize}未知語モデルは共通であり,各品詞(15個)に対して形態素bi-gramモデルと同様の手順で構成される.本実験では行なっていないが,文字に対するクラスタリングを行ない,これをクラスbi-gramモデルとすることも可能である.外部辞書の形態素集合は,EDR日本語単語辞書\cite{EDR.電子化辞書仕様説明書}の見出し語から既知形態素を除いた形態素集合と学習コーパスには出現するが既知形態素とならなかった形態素集合(分割された学習コーパスの1個にのみ現れた形態素)の和集合とした.\input{table:cluster.tex}品詞毎の形態素数とクラスタリングの結果得られたクラスの数を表\ref{table:cluster}に掲げた.平均要素数は,形態素数をクラス数で割った値である.この値は,内容語において高く,機能語において低いことが観測される.このことから,品詞$n$-gramモデルにおいては機能語を一般化し過ぎており,形態素$n$-gramモデルにおいては内容語を特殊化し過ぎているということが分かる.なお,対象となる59,956の形態素をクラスタリングするのに要した時間は,SPARCStation20(150MHz)で約4日であった.\subsection{外部辞書と形態素クラスタリングによる精度向上の評価}図\ref{figure:result}は,形態素クラスタリングの結果を用いたクラスbi-gramモデルの,外部辞書を持つ場合と持たない場合の,クロスエントロピーと形態素解析の精度である.このグラフから次のようなことが分かる.まず,学習コーパスの大きさと解析精度の関係であるが,解析精度は,コーパスの大きさに対して単調に増加している.しかし,コーパスがある程度大きくなるとこの増加量は小さくなっている.このことは,さらなる精度向上を達成するためには,学習コーパスを増やすという単純な方法は,コーパスの作成コストを考えると,得策ではないということを意味する.次に,外部辞書を付加することによる解析精度の向上であるが,クロスエントロピーの減少から予測される通り,外部辞書を付加することにより解析精度が向上した.グラフから分かるように,学習コーパスの大きさが小さい方が,外部辞書を付加することによる効果が大きい.この理由は,学習コーパスが大きくなると,外部辞書の元となる辞書などに記述されている形態素の大部分が学習コーパスに含まれることになり,テストコーパスに含まれる未知形態素の割合が減少することであると考えられる.この議論から,確率的形態素解析器を用いて学習コーパスと異なる分野の文を解析する場合には,未知形態素となるであろうその分野特有の用語(表記と品詞)を収集しておき,これを外部辞書として付加することでかなりの精度の向上が望めると考えられる.分野特有の用語の収集方法としては,その分野の専門用語辞書などを直接用いることや,その分野の大量の文例から$n$-gram統計を用いて抽出し品詞を推定すること\cite{nグラム統計によるコーパスからの未知語抽出}などが考えられる.表\ref{table:result}は,外部辞書を備えない場合と備えた場合の,形態素bi-gramモデルとクラスbi-gramモデルによるクロスエントロピーと形態素解析の精度である.また,先行研究との比較のため,外部辞書を備えていない場合の品詞tri-gramモデルによるクロスエントロピーも表中に記載している.この結果から,外部辞書の有無に関わらず,我々が提案する方法によって得られる単語のクラス分類を用いることで,形態素解析の精度が再現率と適合率の双方で向上していることが分かる.これは,クロスエントロピーの減少から予測される通りの結果である.このように,確率モデルを用いた言語の解析では,クロスエントロピーが減少するようにモデルを改善することで,自然に形態素解析などの解析精度が向上することが見込まれる.ただし,このクロスエントロピーと解析精度の関係は,単調であることが解析的に導出できるような確固たる関係ではないことに注意しなければならない.クロスエントロピーと解析精度の関係が逆になっている例(上述の関係の反例)として,表\ref{table:result}の中の「形態素bi-gram+外部辞書」と「クラスbi-gram」のエントロピーと適合率が挙げられる.\input{table:result.tex}文献\cite{EDRコーパスを用いた確率的日本語形態素解析}では,品詞tri-gramモデルを用いた形態素解析をについて述べている.この文献では,我々が今回用いた評価規準と全く同じ評価規準ではなく,単語分割のみや読みも含めた再現率と適合率を報告している.このような評価の一つとして72,000文で学習した品詞tri-gramモデルの単語分割の精度として90.6\%の再現率と91.7\%の適合率を報告している.このモデルとの比較を可能にするために,約47,000の学習コーパスで学習した「クラスbi-gram+外部辞書」の単語分割の精度を計算した.この結果,再現率は94.8\%であり,適合率は94.9\%であり,学習コーパスが少し小さいにもかかわらず品詞tri-gramモデルの結果を双方で上回っている.解析精度に関しては全ての条件が同じというわけではないので単純な比較は適切ではないが,この結果は,本手法の優位性を実験的に示すと考えられる.また,クロスエントロピー(表\ref{table:result}参照)の差は十分有意であると考えられるので,この点からも本手法の形態素解析の精度という点での優位性が十分予測される.しかし,より長い文脈から次の品詞を予測しているという品詞tri-gramモデルの良い点も無視できない.この点を採り入れて,形態素tri-gramモデルに対して形態素クラスタリングを実行し,その結果を用いてクラスtri-gramモデルを構築すれば,クロスエントロピーがさらに下がり,形態素解析の精度も上がると考えられる.ただし,実用とするためには,遷移表や解探索のための表が大きくなることによる記憶域の増大と可能な組合せの増加による解探索に必要な時間が増加するという問題にも注意を払う必要がある.\input{figure:result.tex}\subsection{文法の専門家による形態素解析器との比較}我々は,上述の実験に加えて,文法の専門家による形態素解析器と確率的形態素解析器を解析精度という点で比較するという実験を行なった.この際に最大の問題となるのは評価基準である.確率的形態素解析器の解析精度の比較は容易に行なえる.つまり,我々が上述した実験で行なったように,同一の学習コーパスと同一のテストコーパスを用いた解析結果の再現率と適合率を比較すればよい.これは英文における単語の品詞推定の精度の比較にも用いられる標準的な方法である(英語では単語区切りに曖昧性がないので再現率と適合率は同じ値になる).しかし,文法の専門家による形態素解析器の解析精度の比較は一般に容易ではない.これは,それぞれの文法の専門家によって形態素の定義(品詞体系や単語区切り)に違いがあり,正解となるべき形態素解析結果を共有できないことに起因する.その結果,形態素解析器の評価としては,あるいくつかの文の解析結果を文法の専門家も含めた形態素解析器の製作者が観察することで計算される値が用いられる.また,テストは最後に一回だけ行なわれるのではなく,テストの結果を見て形態素解析器を修正するということもあり,完全なオープンテストになっていないこともある.このようなテストの結果得られる精度は,客観性に欠けるので,おおよその目安としてのみ意味があり,複数の形態素解析器の比較に用いることはできない.この問題は,文法の専門家による形態素解析器と確率的形態素解析器の解析精度の比較を行なう際にも現れる.上述の問題を解決する方法として,同じ文法基準(品詞体系や単語区切)を持つ形態素解析済みコーパスと文法の専門家による形態素解析器を用いることが考えられる.これが,本研究で我々が選択した解決方法である.具体的には,京都大学で開発された文法の専門家による形態素解析器JUMAN\cite{日本語形態素解析システムjuman使用説明書.version.3.2}とその解析結果を人手で修正したコーパス\cite{京都大学テキストコーパス・プロジェクト}を用いた.つまり,コーパスを学習コーパスとテストコーパスに分割し(表\ref{table:corpus-juman}),学習コーパスから構成した確率的形態素解析器(外部辞書を備えたクラスbi-gramモデル)とJUMANを用いてテストコーパスを解析した結果を,テストコーパスにあらかじめ付与されている正解と比較して,それぞれの再現率と適合率を計算した.なお,外部辞書の形態素集合は,学習コーパスには出現するが既知形態素とならなかった形態素集合である.表\ref{table:result-juman}はこの結果である.この表から,テストコーパスにおいては,確率的形態素解析器の誤りが文法の専門家による形態素解析器の誤りに対して25\%程度少ないことが分かる.この実験で使用した解析済みコーパスがJUMANの出力の訂正であることや,コーパスの訂正の過程で訂正結果を参考にしてJUMANを改良していることを考えると学習コーパスでの比較が適切かも知れない.この場合は,確率的形態素解析器の解析精度は表\ref{table:result-juman}に示されるように圧倒的に良い.未知語モデルを文字クラスタリングしたクラス$n$-gramモデルとすることや,外部辞書の源としてJUMANの辞書や別のコーパスをJUMANで解析した結果から得られる学習コーパスに現れない高頻度の形態素を用いることで,確率的形態素解析器の精度はさらに向上すると考えられる.\input{table:corpus-juman}\input{table:result-juman}本実験で比較の対象とした文法の専門家による形態素解析器は,初版の完成から10年弱の期間を経ており,この間に莫大な人的資源を投入し様々な改良が施されている.一方,我々の確率的形態素解析器がパラメータ推定に用いた学習コーパスは8,584文であり,これを作成する費用はそれほど高くはない.これは,確率的形態素解析器が,文法の専門家による形態素解析器に対して優位である点の一つである.現状での学習コーパスの大きさは$10^{5.56}$文字と比較的小規模であり,図\ref{figure:result}のEDRコーパスにおける学習コーパスの大きさと解析精度の関係から,コーパスを増量し確率言語モデルを再学習するということを繰り返すことで,この品詞体系でのより高精度の形態素解析器が容易に実現できると予測される.これと並行して確率言語モデルの改善を行なうことも重要である.以下に,より良い確率的形態素解析器を実現するための指針をまとめる.\begin{itemize}\item解析済みコーパスの保守と増量\begin{description}\item[コーパスの修正]\\\人手による修正を受けた解析済みコーパスにも誤りはあり,さらなる修正が必要である.確率的形態素解析器の出力との比較は,これらの誤りを指摘する上で有効であろう.\item[コーパスの増量]\\\すでに指摘したように,学習コーパスは多ければ多いほど良い.新たな文に正解を付加するときには,人手による修正を受けたコーパスを全て用いて,最も良い言語モデルを学習し,その結果得られる確率的形態素解析器による解析結果を修正することで,人手による修正のコストを最小限に抑える必要がある.\item[品詞体系の変更]\\\形態素解析器の出力を用いた研究や開発の過程で,品詞体系の変更が要求されることがある.例えば,京都大学テキストコーパス\cite{京都大学テキストコーパス・プロジェクト}では,「みんな/名詞」と「みんな/副詞」を区別していない.このような区別が必要になれば,まず解析済みコーパスの一部をこの区別を加えて修正し,これと残りのコーパスで問題となる形態素が出現しないコーパスから形態素解析器を学習し,問題となる形態素が出現する文を曖昧な部分以外を固定して解析し直すことで,人手による修正のコストを最小限に抑えることができる.\end{description}\item確率的言語モデルの改良\\確率言語モデルの改善方法は,本論文で提案した形態素クラスタリング以外にも提案されてる.これらは,未知語モデルにも適用できる.\begin{description}\item[可変記憶長マルコフモデル]\\\$n$-gramモデルでの単語予測は固定長の文脈を条件部にもつが,これを先行する単語に応じて変化させる\cite{Part.of.Speech.Tagging.Using.a.Variable.Memory.Markov.Model}\cite{文脈木を利用した形態素解析}.\item[キャッシュモデル]\\\直前のいくつかの単語の分布(キャッシュ)を用いて$n$-gramモデルのパラメータを動的に変化させる\cite{A.Cache-Based.Natural.Language.Model.for.Speech.Recognition}.\item[複数のモデルの補間]\\\複数のクラス$n$-gramモデルを補間したモデルを用いる\cite{Improving.Statistical.Language.Model.Performance.with.Automatically.Generated.Word.Hierarchies}.\end{description}これらの改良をうまく組み合わせることで言語モデルの予測力が向上し,結果としてより高い精度の形態素解析器が実現できる.\item解探索のアルゴリズムやデータ構造の改良\\これによる解析速度や記憶容量の改良は,解析精度の向上にはつながらないが,実用とする上で重要である.解探索のアルゴリズムやデータ構造は,モデルのクラスに依存する点に注意しなければならない.\end{itemize}これらの改善は独立に行なえるので,組織的な取り組みが可能になる.このように,高い精度を実現するための方法論が確立していることが確率的手法の最大の利点であろう.
\section{むすび}
本論文では,形態素クラスタリングと外部辞書の付加による確率的形態素解析器の精度向上について述べた.形態素クラスタリングとしては,形態素$n$-gramモデルをクロスエントロピーを基準としてクラス$n$-gramモデルに改良する方法を提案した.bi-gramモデルを実装しEDRコーパスを用いて実験を行なった結果,形態素解析の精度の向上が観測された.また,未知語モデルに外部辞書を付加する方法を提案した.同様の実験を行なった結果,形態素解析の精度の向上が観測された.これは,学習コーパスとは異なる性質を持つ分野の形態素解析器や解析済みコーパスを作成するのに特に有効であろう.両方の改良を行なったモデルによる形態素解析実験の結果の精度は,先行研究として報告されている品詞tri-gramモデルの精度を上回った.これは,我々のモデルが形態素解析の精度という点で優れていることを示す結果である.これらの実験に加えて,人間の言語直感に基づく形態素解析器との精度比較の実験を行なった.この結果,確率的形態素解析器の誤りは文法家による形態素解析器の誤りに対して25\%程度少なかった.形態素解析における確率的な手法は,人間の言語直感に基づく形態素解析器と比較して,現時点で精度がより高いという長所に加えて,今後のさらなる改良にも組織的取り組みが可能であるという点で有利である.\section*{謝辞}本研究を進めるに過程で,示唆に富んだコメントを頂いた日本アイ・ビー・エムの西村雅史氏と伊東伸泰氏に心から感謝する.また,本論文で報告している研究は文部省科学研究費補助金(課題番号00093069)の助成を受けている.ここに感謝の意を表する.\bibliographystyle{jnlpbbl}\bibliography{myplain,main}\include{biogr}\end{document}
| |
V03N02-05 | \section{はじめに}
近年,電子化された大規模なテキストデータベース(コーパス)が身近に存在するようになり,その中から必要とする情報のみを高速に検索することができるテキスト検索システムの重要性が改めて認識されるようになってきた.また,検索の目的としても,単にある文字列を検索してくるというだけでなく,用例ベースの翻訳支援システムなどで要求されるように,ある言い回し,ある種の意味内容について検索してくるといった高度な検索が求められるようになってきた\cite{Kishimoto1994}.このような高度な検索のためには,検索対象であるテキストデータを解析して種々の情報をあらかじめ付加しておく必要がある(タグ付きコーパス).タグ付きコーパスとしては,形態素解析を行って単語に分割し,品詞情報を付加したものが作成されているが,前述のような検索要求に対しては,これではまだ不十分であり,構文情報を付加したデータが望まれる.しかし,長文を含む一般の大量のテキストに対して,安定的に高精度の構文解析を行うことは現状ではまだ困難である.我々は以前,人手により構文解析したコーパス(約3500文)を実験的に作成し,これを対象とした用例検索システムTWIXの構築を行ったが\cite{HyodoAndIkeda1994},実用的なレベルの大規模な構文付きコーパスを作成するには人手による方法では現実的ではない.そこで我々は,必ずしも常に完全な構文木ではないが,場合によっては部分的に曖昧さを残したままの解析木を,表層的な情報のみを用いて安定的に求める骨格構造解析手法を開発し,これを用いて構文付きコーパスを構築することを試みた.さらに,この構文付きコーパスを対象として,分類語彙表の意味分類を利用した意味コード化をも加え,類似用例検索システムの構築を行った.本システムでは,構文的制約(係り受け構造)を指定して検索できるので,単語レベルの検索では検索されてしまうような多くの不適切な用例を絞り込むことが可能となる.本研究では,講談社和英辞典およびオーム社科学技術和英大辞典の用例(約8万文)について,骨格構造解析により構文付きコーパスの作成を行なった.このうち200文を取り出して解析結果を評価したところ,骨格構造解析結果中に正しい解析木を含んでいるものは約93\%,その中で,係り先が曖昧な文節は約8\%であり,高い精度が得られることを確認した.また,このコーパスを対象として類似用例検索システムによる検索実験を行い,骨格構文構造を用いることの有効性,さらに意味コード化の有用性を確認した.以下では,2章で骨格構造解析と構文付きコーパスの作成方法について述べ,3章で類似用例検索システムの実現方法,4章で検索実験とそれについての考察を行う.
\section{構文付きコーパス}
ある単語が現れるか否かだけでなく,単語間の関係すなわち係り受け関係をも指定して用例を検索することができれば,ある言い回しを含んだ文を検索することや,ある意味内容を含んだ文を検索することなど,検索対象をさらに絞り込んだ高度の検索をすることができる.そのためには,単語,品詞などの形態素情報をタグとして付加するだけでは不十分で,構文情報が付与されたコーパスを作成しなければならない.しかし,完全な構文解析には意味情報も必要であり,長文を含む大量のテキストに対して安定的に高い精度で構文解析を行なうことは現在のところ未だ困難である.そこで,我々は,完全な構文解析木を得るものではないが,文の骨格的な構造を表層情報のみを用いて解析する方法を開発した\cite{HyodoAndIkeda1995}.この方法は,意味を考慮しないと正確に解析できない部分については,曖昧なまま残しておき,それ以外の文全体の構造を正確に把握しようとするものである.本研究では,対訳付の辞書用例8万文について,骨格構造解析により構文付きコーパスの作成を行なった.このうち200文を取り出して解析結果を評価したところ,骨格構造解析結果中に正しい解析木を含んでいるものは約93\%,その中で,係り先が曖昧な文節は約8\%であった.以下2.1節で骨格構造解析の概要を述べ,2.2節で構文付コーパスの作成実験について述べる.\subsection{骨格構造解析}骨格構造解析は次の2段階により行なう.(1)形態素解析を行なって文節列を求め,係り受けに関する文節の属性(文節カテゴリ)を求める.(2)文節カテゴリと以下に述べるブロック化規則に基づいて文節列に次々と{\itN}近傍ブロック化処理を施す.{\itN}近傍ブロック化とは隣接する{\itN}文節(あるいは{\itN}ブロック)間の係り受け関係を定めることであり,場合によっては曖昧な係り受け関係をそのまま含む.このように本手法では,係り受け関係は隣接する{\itN}近傍において構成されるという仮説に基づいている.実際には{\itN}=3として解析している.\subsubsection{形態素解析と文節カテゴリの付与}まず始めに,文を単語単位に分割し,それらを文節単位に区切る.そして,各文節の形態素情報を元に文節カテゴリを付与する.文節カテゴリとは,文節自身のタイプ(自立語の品詞)と係り先文節のタイプによりカテゴライズしたもので,文節自身のタイプを,体(名詞),用(動詞,形容詞,形容動詞),副(副詞,連体詞),接(接続詞)の4つのに大分類し,これらの組合せにより「体用」「体体」などの10種のカテゴリを設けた.その他に,文節が並列構造を構成する可能性があることを示す「体並,用並」,主題を表す機能語「は・では」が含まれる文節「は用」,時を表す名詞が含まれる文節「時用」の4つのカテゴリを設けている.\subsubsection{係り受けブロック化規則による文節列のブロック化}ブロック化処理では,{\itN}ブロック先までを係り受けの範囲として調べる.{\itN}=3とした時,ブロック内の係り受け可能性の組合せは文節カテゴリに基づけば,図\ref{block-rule}に示す$\2^{6}=64$通りが考えられる.このうち,図\ref{block-rule}(a)--(l)の30通りがブロック化可能なパターンである.例えば,図\ref{block-rule}(a)の場合は,文節Aは文節Bに係ると解析され,文節A,Bを1つのブロックとしてブロック化を行う.また,ブロック化が可能なパターンの中で,図\ref{block-rule}(h)(i)(j)(l)については,曖昧さを含んだブロックとして解析される.例えば,図\ref{block-rule}(h)の場合は,文節Aは文節Bか文節Cに係ると解析される.その他のパターン(34通り)は,ブロック化が不可能なパターンである.図\ref{block-rule}(m)の8通りは文節AがB,C,Dのいずれにも係りえないためブロック化が不可能なパターン,図\ref{block-rule}(n)--(q)の10通りは,非交差条件によりブロック化できないパターン,図\ref{block-rule}(r)--(w)の16通りは,文節カテゴリの組合せにより出現しえないパターンである.ブロック化の途中で,読点が出現した時は,その文節までをブロック化の範囲として解析し,ブロック化を一時中断しておく(読点ブロック).ここで,{\itN}ブロック前か,直前の読点文節のいづれか遠いブロックに戻り,ブロック化が可能な状態に変化しているかどうか順次調べ,その後,読点ブロックの次の文節を起点とするブロック化処理を行う.また,係り可能性のパターンが図\ref{block-rule}(m)--(q)に該当する時には,ブロック化が行われず,必然的にブロック化が停止する.この場合も,読点で停止した時と同様の処理を行うこのようにして,{\itN}文節よりも遠い文節と係り受け関係をもつことが可能となるが,この場合でも,ブロックで見るとその関係はNブロック以内になっている.\begin{figure}[ht]\vspace{-2mm}\begin{center}\epsfile{file=fig1.eps,width=106mm}\caption{係り受けブロック化規則}\label{block-rule}\end{center}\end{figure}\vspace{-15mm}\subsubsection{ブロック化処理手順例}ブロック化処理の手順例を図\ref{skelton-ana}に示す.文頭より解析を始め「一度」から「汚れた」,「汚れた」から「環境を」,「環境を」から「戻す」までにブロック化規則,図\ref{block-rule}-(a),(a),(f)をそれぞれ適用してブロック化を施す(図\ref{skelton-ana}-(1)).次に,先にブロック化された「一度…戻す」から「難しさを」までをブロック化する.これにより「戻す」の係り先は「ことの」と「難しさを」の2通りがあると解析される.その後「難しさを」から「体験している」,「体験している」から「日本は,」までをブロック化する(図\ref{skelton-ana}-(3)).文節カテゴリ「は用」は主題を表す文節であって,一般に後続するいくつかの文節に係る可能性がある.そのため,このような文節の係り先は保留して,次の文節「技術援助の」からブロック化を行う.以下,同様に解析を進める.\begin{figure}[htb]\begin{center}\unitlength1cm\noindent\begin{picture}(14.47,3)\thicklines\small\put(0,3.2){\underline{\gt原文}}\put(0,2.7){一度汚れた環境を元に戻すことの難しさを身をもって体験している日本は,技術援助の先進国となり,…}\put(0,2.0){\underline{\gt文節カテゴリの付与}}\put(0,1.5){(一度副用)(汚れるた用体)(環境を体用)(元に体用)(戻す用体)(ことの体体)(難しさを体用)}\put(0,1.1){(身をもって副用)(体験するている用体)(日本は,は用)(技術#援助の体体)(先進国と体用)}\put(0,0.7){(なり,用並)…}\put(0,0){\underline{\gtブロック化処理}}\end{picture}\vspace{2mm}\epsfile{file=fig2.eps,width=115mm}\caption{骨格構造解析例}\vspace{-10mm}\label{skelton-ana}\end{center}\end{figure}\subsection{構文付きコーパス}本実験では,講談社和英辞典\cite{koudannsya}とオーム社科学技術和英大辞典\cite{ohm}の中の英語対訳付き用例文約8万文(図\ref{text})に対して骨格構造解析を行ない図\ref{skeltal-data}のような構文付きコーパスを作成した.\begin{figure}[htb]\begin{center}\vspace{-4mm}\noindent\fbox{\parbox[t]{138mm}{\begin{flushleft}\a.講談社和英辞典(約53000文,1文あたり平均13文字)\end{flushleft}\vspace{-2mm}\begin{itemize}\small\itemその服は彼女の体にぴったり合った(16文字)\item彼の考えに合うように計画を立てなさい(18文字)\end{itemize}\begin{flushleft}\b.オーム社科学技術和英大辞典(約27000文,1文あたり平均35文字)\end{flushleft}\vspace{-2mm}\begin{itemize}\small\item一方的な段階的撤去は,アメリカ国益と相いれない重大な含みをもつことになるというのが,産業界の見解である(51文字)\item離陸して低速で上昇するという一方の要求と,巡航効率という他方の相いれない要求との妥協点を見いだすのは比較的容易である(58文字)\end{itemize}}}\caption{解析対象データベース}\vspace{-10mm}\label{text}\end{center}\end{figure}\begin{figure}[htb]\begin{center}\noindent\fbox{\parbox[t]{110mm}{\hspace*{2mm}\begin{minipage}[t]{107mm}\small{\gt0:原テキスト}\\\hspace*{1em}彼の言っていることは事実と合わぬ\\{\gt1:骨格構造データ}\\(@1((彼@2)の体用)@2((言う@3)ている用体)@3((こと@5)は体用)\\\hspace*{1mm}@4((事実@5)と体用)@5((合う)ぬ用終))\\{\gt2:意味分類コード化データ}\\(@1(((11000011200003)@2)の体用)\\\hspace*{1mm}@2(((23100022312001)@3)ている用体)\\\hspace*{1mm}@3(((1101001111200212540031310101…)@5)は体用)\\\hspace*{1mm}@4(((1103001)@5)と体用)\\\hspace*{1mm}@5(((211200321550012375001))ぬ用終))\\{\gt3:対訳英文}\\Histestimonydoesnotagreewiththefacts.\\\end{minipage}}}\caption{構文付きコーパス(講談社和英辞典)}\label{skeltal-data}\end{center}\end{figure}\subsubsection{骨格構造データ}骨格構造データは,原テキストに骨格構造解析を施したものである.実験では,形態素解析用の自立語辞書としてはEDR日本語単語辞書\cite{edr}より単語の見出し・品詞情報のみを取り出したものを,機能語辞書については我々が実際のテキストベースから収集し拡張,整理した複合機能語辞書(約200のグループ,見出し語数約1500語)\cite{HyodoAndIkeda1992}を用いた.データは次のような形式で登録されている.\\\hspace*{5mm}\underline{(\hspace{-.2em}・\hspace{-.7em}・\hspace{-.7em}・\hspace{-.2em}(文節番号((自立語\係り先文節列)\機能語列\文節カテゴリ)\\hspace{-.2em}・\hspace{-.7em}・\hspace{-.7em}・\hspace{-.2em})}\\活用語は終止形に戻し,複合語は,その構成語を#で連接して登録してある.機能語は,複合機能語辞書中のグループ名で登録した.例えば「ている」「てはいる」「てもいる」のように意味的には同じであるが,派生的な語は同じ機能語として登録されている.\subsubsection{意味分類コード化データ}類似用例の検索を実現するために,分類語彙表\cite{bunrui}を用いて,文節内の自立語(複合語は,その構成語各々)に対して,意味分類を用いた番号付けによってコード化を施した(意味分類コード).このコード化により,意味分類コードの前方一致位置よって完全一致検索を含めた3つのレベルの曖昧検索が可能となる.\vspace*{5mm}表\ref{ana-answer}に,この8万文の中から抜き出したそれぞれ100文について,形態素解析,文節カテゴリ付け,骨格構造解析での正解文数を示す.講談社和英辞典については,骨格構造解析結果が正しい解析木を含んでいるものは100文中で97文,科学技術和英大辞典では90文であった.誤りのほとんどは,形態素解析あるいは文節カテゴリ付けの失敗によるものであり,これらが正しく行われば骨格構造解析そのものは,98\%以上の精度で正しい解析木を含むものが得られる.また,100文中で,係り先が特定できない文節(曖昧文節)は,科学技術和英大辞典では約9\%出現した.係り先が1つに特定できないと,構造を指定して検索する際に,検索パターンと構文的には異なるものを検索してしまう可能性がある.この点については4章で述べる.\begin{table}[htb]\begin{center}\caption{解析精度}\label{ana-answer}\begin{tabular}{|c||c|c|c||c|}\hline&\multicolumn{3}{c||}{100文中の正解文数}&\\\cline{2-4}&\\{\small形態素解析}\\&{\smallカテゴリ付け}&{\small骨格構造解析}&{\raisebox{1.5ex}[0pt]{曖昧文節}}\\\hline\hline講談社和英辞典&98/100&98/98&97/98&19/314(6\%)\\\hline科学技術和英大辞典&95/100&92/95&90/92&74/809(9\%)\\\hline\end{tabular}\\\vspace{2mm}{\small曖昧文節:係り先が特定できない文節数/文末以外の合計文節数}\vspace{-5mm}\end{center}\end{table}\begin{figure}[b]\begin{center}\epsfile{file=fig5.eps,width=107mm}\caption{システム構成図}\label{system}\end{center}\end{figure}
\section{類似用例検索システム}
2章で述べた骨格構造解析によって構文付きコーパスを作成し,それを対象として用例検索システムを構築した。この用例検索システムでは,単語や品詞情報などの形態素的制約だけではなく,構文的制約(係り受け関係)を指定して検索することができる.この構文的制約によってユーザの検索意図に反する多くの不用な用例を省き,必要な用例に絞り込んだ検索をする.また,検索対象とするコーパスは分類語彙表により意味分類コード化処理が施してあるため,類似用例を検索することも容易である.以下,3.1節でシステムの概要を,3.2節で構造コードを含む索引表について述べ,3.3節で検索アルゴリズム,3.4節で本システムのインタフェースについて述べる.\subsection{システムの概要}システム構成図を図\ref{system}に示す.本システムは,構文付きコーパス,索引表,入力文解析部,検索部,インタフェース部から構成されている.入力された検索対象文は,入力文解析部で解析され,その構造がインタフェースのウインドウ上に表示される.この構造表示の上で,さらに検索したい部分構造を特定することができる.検索は2段階に分けて行われる.まず始めに,検索パターン中の自立語または機能語が出現する文を索引表から検索する(一次検索).次に,検索された文を対象として,検索パターンと構造的に一致するか否かの照合を行う(二次検索).\subsection{構造検索のための索引表の作成}本システムでは,用例中に出現する自立語,意味分類コード,機能語を対象として索引表を作成した.ただし,機能語「の,は,を,が,に,た」については,索引表に登録していない.本システムでは,索引表は,検索対象を制限するための一次検索において用いるが,これらの機能語は,非常に多くの用例に出現するため,このような効果が小さいからである(表\ref{func}).検索パターンにこれらの機能語が含まれる場合には,二次検索の際に,これらの機能語が含まれるか否かを調べている.\begin{table}[htb]\begin{center}\vspace{-5mm}\caption{機能語の出現頻度(のべ出現回数)}\label{func}\begin{tabular}{|c||c|c|}\hline&{\small\\講談社和英辞典\\}&{\small科学技術和英大辞典}\\&{\small(約27000文)}&{\small(約53000文)}\\\hline\hlineは&26814&19745\\\hlineを&20373&17486\\\hlineの&19300&29968\\\hlineた&18371&\7564\\\hlineに&14324&13367\\\hlineが&10532&12976\\\hline\end{tabular}\\\vspace{-9mm}\end{center}\end{table}\begin{figure}[htb]\begin{minipage}[t]{6cm}\unitlength1cm\begin{picture}(5,4.5)\thicklines\small\put(0.8,3.5){\framebox(3.5,1.3){\shortstack[l]{001計画を立てる\\002計画を実行する\\003計画に反対する}}}\put(0.4,2.7){計画}\put(1.9,2.8){\vector(1,0){1.5}}\put(3.6,2.7){001,002,003}\put(0.4,2.3){立てる}\put(1.9,2.4){\vector(1,0){1.5}}\put(3.6,2.3){001}\put(0.4,1.9){実行する}\put(1.9,2){\vector(1,0){1.5}}\put(3.6,1.9){002}\put(0.4,1.5){反対する}\put(1.9,1.6){\vector(1,0){1.5}}\put(3.6,1.5){003}\put(0.4,1.1){を}\put(1.9,1.2){\vector(1,0){1.5}}\put(3.6,1.1){001,002}\put(0.4,0.7){に}\put(1.9,0.8){\vector(1,0){1.5}}\put(3.6,0.7){003}\end{picture}\caption{単純な索引表}\label{index}\end{minipage}\hfill\begin{minipage}[t]{8cm}\unitlength1cm\begin{picture}(9,5)\thicklines\small\put(1.5,3.5){\framebox(4.5,1.4){\shortstack[l]{\hspace*{-3mm}001計画を立てる\\((@1(計画@2)を体用)\\\hspace*{1.5mm}(@2(立てる)用終))}}}\put(0.2,2.7){\framebox(0.9,0.5){計画}}\put(1.3,2.5){\shortstack[l]{文番号\underline{001},\\文節番号\underline{1},\\係り先文節\underline{2},\\文節カテゴリコード\underline{2}(体用)}}\put(5.2,2.6){\vector(1,0){1}}\put(6.4,2.5){\underline{\normalsize001122}}\put(0.4,2){計画}\put(1.9,2.1){\vector(1,0){1.5}}\put(3.6,2){001122,002122,003122}\put(0.4,1.6){立てる}\put(1.9,1.7){\vector(1,0){1.5}}\put(3.6,1.6){00127}\put(0.4,1.2){実行する}\put(1.9,1.3){\vector(1,0){1.5}}\put(3.6,1.2){00227}\put(0.4,0.8){反対する}\put(1.9,0.9){\vector(1,0){1.5}}\put(3.6,0.8){00327}\put(0.4,0.4){を}\put(1.9,0.5){\vector(1,0){1.5}}\put(3.6,0.4){001122,002122}\put(0.4,0){に}\put(1.9,0.1){\vector(1,0){1.5}}\put(3.6,0){003122}\end{picture}\caption{構造コードを含む索引表}\label{indexing}\end{minipage}\end{figure}通常の索引表では,図\ref{index}に示すように,ある単語に対して,どの文に出現したかを示す文番号列のみを登録するが,本システムでは,二次検索で構造の照合を行う必要があるので,その単語が出現する文番号だけでなく,単語のテキスト中での出現位置(文節番号),文節カテゴリコード,係り先文節番号列を同時に登録した(以下,構造コードと呼ぶ)(図\ref{indexing}).このような構造コードを登録することにより,二次検索で構造の照合を行う時に,2次記憶上にある構文付きコーパスを再度アクセスすることなく、構造コードに対して検索パターンとの照合を行えばよいので,高速な構造検索が可能となる.\subsection{検索アルゴリズム}検索は,以下のように一次検索,二次検索の2段階に分けて行う.一次検索では検索パターン中の単語が現れる文を検索し,二次検索で,検索された文を対象として,検索パターンと構造的に一致するか否かの照合を行う.\begin{enumerate}\item{自立語,機能語による絞り込み(一次検索)}\\本システムは自立語に対して,次のような種類の検索を可能としている.\begin{enumerate}\item1.単語による完全一致検索\item2.意味分類コードによる類似用例検索\\\hspace*{2em}・曖昧レベル1検索・曖昧レベル2検索\end{enumerate}単語による完全一致検索の場合の一次検索は,入力された単語と完全に一致する文を自立語索引表を用いて検索する.類似用例検索の場合の一次検索は,各単語の意味分類コードを用いて検索を行う.その際,図\ref{bunrui}のように,曖昧レベル1検索では,意味分類コードA,Bが一致する単語を含む用例を,曖昧レベル2検索では,意味分類コードAのみが一致する単語を含む用例を検索する.これにより,意味分類コードに対して単純な前方一致検索を行うだけで,その一致位置により2つのレベルの曖昧検索が可能となる.\begin{figure}[htb]\begin{center}\unitlength1cm\begin{picture}(5,2.5)\thicklines\small\put(0.5,2.2){\normalsize列車}\put(1.3,2,4){\vector(1,0){1}}\put(2.8,2.7){A}\put(3.6,2.7){B}\put(2.5,2.1){\framebox(0.9,0.5){\normalsize1465}}\put(3.5,2.1){\framebox(0.5,0.5){\normalsize08}}\put(0,1.6){曖昧レベル1検索}\put(0.2,1.2){\underline{1465}\underline{08}電車}\put(0.2,0.8){\underline{1465}\underline{08}機関車}\put(0.2,0.4){\underline{1465}\underline{08}トロッコ}\put(0.5,0){$\cdots\cdots\cdot$}\put(3.5,1.6){曖昧レベル2検索}\put(3.7,1.2){\underline{1465}03車}\put(3.7,0.8){\underline{1465}03バイク}\put(3.7,0.4){\underline{1465}09新幹線}\put(4,0){$\cdots\cdots\cdot$}\end{picture}\caption{分類語彙表による類似検索}\vspace{-5mm}\label{bunrui}\end{center}\end{figure}機能語については,例えば「ている,てはいる,てもいる」のような派生的な語は1つのものとして登録してある.そのため「ている」「てはいる」「てもいる」は同じ語として検索される.\item{構造検索(二次検索)}\\二次検索では,索引表にコード化されている構造コード中の文節番号,係り文節番号,文節カテゴリコードを参照して,検索パターンと一次検索で抽出された文との間に構造的一致があるか否かを検査する.例えば,検索パターンが図\ref{struct}のように#に続く番号で表現されているとすると,一次検索において,#1と@3,#2と@4,#3と@5が一致していることがわかる.従って,ここでは#1と#3の構造が@3と@5の構造と,#2と#3の構造が@4と@5の構造と同じであれば構造が一致したといえる.\begin{figure}[htb]\begin{center}\vspace{-2mm}\epsfile{file=fig9.eps,width=61mm}\caption{係り受け構造の照合}\vspace{-3mm}\label{struct}\end{center}\end{figure}骨格構造解析により解析されたコーパスには,係り先が一意に決定されていない場合があるが,そのような場合には,対象とする用例中に検索パターンとの構造が一致するものが含まれていれば,構造的に一致したことにする(図\ref{aimai}).\begin{figure}[htb]\begin{center}\vspace{-2mm}\epsfile{file=fig10.eps,width=69mm}\caption{係り先が複数ある構造の照合}\vspace{-3mm}\label{aimai}\end{center}\end{figure}また,並列構造を構成する可能性がある文節については,係り先文節は決定されず,「体並・用並」という文節カテゴリが付与されている.そこで,並列構造を指定して用例を検索する際には,対象とする用例の文節カテゴリが一致しているか否かの検査を行うことにより構造の照合を行う(図\ref{para}).\begin{figure}[htb]\begin{center}\vspace{-2mm}\epsfile{file=fig11.eps,width=57mm}\caption{並列構造の検索}\vspace{-3mm}\label{para}\end{center}\end{figure}\end{enumerate}\subsection{検索インターフェース}検索システムの実行画面を図\ref{interface}に示す.インタフェースはX-Window上に構築されており,ユーザが検索文入力ウィンドウに文を入力すると,骨格構造解析が実行され,解析結果が三角表現を用いてウィンドウ上に表示される.検索パターンの指定は,三角表上で,係り先を示すウインドウ(図中の矢印)をマウスでクリックするという簡単な操作で行われる.検索結果もウインドウ上に表示され,ユーザは検索された用例の構造を三角表上で確認することも可能である.また,構造の三角表現は,縮退表示することも可能である(図\ref{reduce}).これにより,長い文の全体構造も,ウインドウ上で一度に把握することができる.\begin{figure}[htb]\begin{center}\vspace{-5mm}\epsfile{file=fig12.eps,width=88mm}\caption{検索インターフェース}\label{interface}\end{center}\end{figure}\begin{figure}[htb]\begin{center}\vspace{-10mm}\epsfile{file=fig13.eps,width=90mm}\caption{三角表の縮退表示}\vspace{-5mm}\label{reduce}\end{center}\end{figure}
\section{検索実験}
本システムの有効性を検証するために,次の3点について評価を行った.\begin{itemize}\item構造検索により,検索パターンと構造が一致しない用例をどの程度,棄却可能か.\item骨格構造解析手法により解析されたコーパスには,係り先が曖昧な文節が登録されているが,このコーパスを対象として,どの程度,正確な構造検索が可能であるか.\item分類語彙表を用いた類似用例検索で,どの程度,広範囲に用例を検索できるか.\end{itemize}\subsection{検索例および評価}実験では,2章で述べた各辞書用例(講談社和英辞書,オーム社科学技術和英大辞典,合計8万用例)を検索対象として,以下に示す各検索パターンについて検索を行った.\begin{enumerate}\item「品質」が「向上する」に係る用例\item「装置を」が「作る」に係る用例\item「(A)と」と「(B)との」が並列で「バランス」に係る用例\item「(Aし)ている」が「間」に係る用例\item「(A)について」と「(B)を」が「行う」に係る用例\item「〜ように」が「〜なさい」に係る用例\end{enumerate}結果を表\ref{answer}に示す.検索パターン(1),(2),(3)については,分類語彙表を用いた類似用例検索を,(4),(5),(6)では完全一致検索を行なった.また,それぞれの実験で,係り受け構造を指定した場合(構造検索)の検索用例数と,指定しない場合(単語検索)の検索用例数を調べた.講談社和英辞典の用例は単文がほとんどで,構造検索での効果はあまり見られなかった.しかし,長文が数多く含まれている科学技術和英大辞典では,指定した単語が1文中で無関係に現れる場合が多く,係り受け関係を指定することにより,このような数多くの用例を棄却することができた.\begin{table}[htb]\begin{center}\caption{検索実験}\label{answer}\begin{tabular}{|c||c|c|c|c|c|c|}\hline\small&\multicolumn{3}{c|}{科学技術和英大辞典}&\multicolumn{3}{c|}{\\\講談社和英辞典\\\}\\\cline{2-7}&単語検索&構造検索&誤り&単語検索&構造検索&誤り\\\hline\hline(1)&4/12/31&3/10/24&0&0/0/0&0/0/0&0\\\cline{1-7}(2)&5/9/25&3/6/17&0&0/2/3&0/2/3&0\\\cline{1-7}(3)&2/4/6&2/4/6&1&0/1/1&0/1/1&0\\\cline{1-7}\hline(4)&129&38&1&44&8&0\\\cline{1-7}(5)&23&12&0&0&0&0\\\cline{1-7}(6)&11&6&0&47&47&0\\\cline{1-7}\end{tabular}\\\vspace{2mm}\small(1)(2)(3):完全一致検索/曖昧レベル1検索/曖昧レベル2検索による検索用例数を示す\end{center}\end{table}今回の実験では,骨格構造解析が曖昧な解析結果を含むことに起因して,構造的に検索パターンと一致しない誤った用例を検索してしまったのは合計2文のみであった.また分類語彙表を用いた類似用例検索では,それぞれの実験で,数多くの類似用例が検索されている.以下で各検索結果について詳細に述べる.\\\vspace*{-10mm}\paragraph{(1)「品質」が「向上する」に係る用例}(図\ref{example1})\\\hspace*{1em}「品質」の同義語として「質,性能」を含む用例が検索されている.単語のみを指定して検索を行うと31文が検索されたが,この中で検索パターンと構造的に一致しない用例が7文含まれていた(図\ref{example1}-a).これらの用例は構造を指定することにより,棄却できる.\begin{figure}[htb]\begin{center}\vspace{-5mm}\noindent\fbox{\parbox[t]{140mm}{\small\begin{flushleft}a.単語検索による検索用例:31文(構造が一致しない用例:7文)\end{flushleft}\vspace{-3mm}\begin{itemize}\item\underline{向上した}\hspace{-.07em}精度および高\hspace{-.07em}\underline{品質}\hspace{-.07em}の仕上げは,はねられる部品がほとんどなくなることを意味している\item\hspace{-.2em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.2em}システムのスループットを\underline{向上し},利用\underline{性}を高め,さらに充分にシステム管理を行う\end{itemize}\begin{flushleft}b.構造検索による検索用例:24文\end{flushleft}\vspace{-3mm}\begin{itemize}\item相接するドット領域の一部分が縦と横の両方向に重なり合うので,印字\underline{品質}は\underline{向上する}\item生産されるガソリンの量と\underline{質}を\underline{向上させる}ために行われる熱分解および接触分解精製処理\item金属は曲げ\underline{性能}を\underline{向上させる}ために,一般的に波形がつけられている\end{itemize}}}\caption{「品質」が「向上する」に係る用例の検索結果(一部)[科学技術和英大辞典]}\label{example1}\end{center}\vspace{-10mm}\end{figure}\paragraph{(2)「装置を」が「作る」に係る用例}(図\ref{example2})\\\hspace*{1em}この例では,機能語「を」を加えて,検索を行った.従来の単語中心での検索では,このような機能語を加えることにより,係り先の制約を与えようとしていた.しかし,図\ref{example2}-aに示すように,1文中に「装置を」と「作る」が無関係に出現する場合も,単語のみを指定した場合には検索されてしまう.\begin{figure}[htb]\begin{center}\vspace{-5mm}\noindent\fbox{\parbox[t]{140mm}{\small\begin{flushleft}a.単語検索による検索用例:25文(構造が一致しない用例:8文)\end{flushleft}\vspace{-3mm}\begin{itemize}\itemこの\underline{装置を}用いれば,手で\underline{つくる}よりももっと整ったコンパクトなものができる\item\hspace{-.2em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.2em}二つ又は数箇の\underline{装置を}つなぎ,一つのシステムを\underline{つくる}\end{itemize}\begin{flushleft}b.構造検索による検索用例:17文\end{flushleft}\vspace{-3mm}\begin{itemize}\item半導体\underline{装置を}\underline{作る}上で最も重要なステップの一つは,できる限り完全な格子構造をもつ結晶を作ることである\itemすなわち,IC不況の影響をまともに受けているのが,チップを生産するための写真製版\underline{装置を}\underline{製造し}ている会社である\end{itemize}}}\caption{「装置を」が「作る」に係る用例の検索結果(一部)[科学技術和英大辞典]}\label{example2}\vspace{-10mm}\end{center}\end{figure}\paragraph{(3)「(A)と」と「(B)との」が並列で「バランス」に係る用例}(図\ref{example3})\\\hspace*{1em}「バランス」の類似語として「釣合」「かねあい」が検索されている.この例では,構造を指定した場合の効果は見られなかったが,構造的に検索パターンと一致しない用例も,1文誤って検索されている.図\ref{bad-search}に示すように,骨格構造解析では「放射損失との」の係り先が一意に決定できていないため,この用例も検索パターンと一致するとして検索されてしまう.\begin{figure}[htb]\begin{center}\vspace{-5mm}\noindent\fbox{\parbox[t]{140mm}{\small\begin{flushleft}単語検索結果6文(全用例,構造一致)\end{flushleft}\vspace{-3mm}\begin{itemize}\item5分間装置に圧力をかければ,油の使用量\underline{と}好ましい潤滑状態\underline{との}\underline{バランス}が最適になる\itemサービスの実行可能な等級を選ぶには,使用者が受けたいと望むサービス\hspace{-.07em}\underline{と},使用者が進んで払いたい報酬額\underline{との}\underline{釣合}が必要である\item始動トルクは,静電容量が最良運転値\underline{と}最良始動値\hspace{-.07em}\underline{との}\underline{かねあい}であるので,ぎせいにしなければならない\end{itemize}}}\caption{「(A)と」と「(B)との」が並列で「バランス」に係る用例(一部)[科学技術和英大辞典]}\label{example3}\end{center}\end{figure}\begin{figure}[htb]\begin{center}\vspace{-10mm}\epsfile{file=fig17.eps,width=74mm}\caption{構造的に誤った検索例}\vspace{-10mm}\label{bad-search}\end{center}\end{figure}\paragraph{(4)「(Aし)ている」が「間」に係る用例}(図\ref{example4})\\\hspace*{1em}機能語「ている」は,コーパス中に出現する頻度が高いため,単語のみを指定した場合には多くの用例が検索される.そこで,この例の場合は検索パターン中の単語の語順や単語間の距離を指定することにより,多くの用例を棄却することも可能である.しかし,この方法では図\ref{example4}-bの「し\hspace{-.05em}\underline{ている}ベアリングの接触面の\hspace{-.05em}\underline{間}」のような構造的には検索パターンと一致する用例も棄却されてしまう.\begin{figure}[htb]\begin{center}\vspace{-5mm}\noindent\fbox{\parbox[t]{140mm}{\small\begin{flushleft}a.単語検索による検索用例:129文(構造が一致しない用例:91文)\end{flushleft}\vspace{-3mm}\begin{itemize}\item光学器械に使われ\hspace{-.05em}\underline{ている}普通のガラスのほとんどの屈折率は,1.46と1.96の\hspace{-.05em}\underline{間}\hspace{-.05em}である.\item宇宙船が自転するにつれて,船底のへりからストーブの曲り煙突のように出\hspace{-.05em}\underline{ている}ソリッド・ステート光学カメラが,4秒\hspace{-.05em}\underline{間}に1回写真を撮影する\end{itemize}\begin{flushleft}b.構造検索による検索用例:38文\end{flushleft}\vspace{-3mm}\begin{itemize}\item\hspace{-.2em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.2em}粒子が砕けたり平らになったりし\hspace{-.05em}\underline{ている}ベアリングの接触面の\hspace{-.05em}\underline{間}\hspace{-.05em}では,\hspace{-.2em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.2em}\item軌道を飛行し\hspace{-.05em}\underline{ている}\underline{間}は,彼の身体は重さがない\end{itemize}}}\caption{「(Aし)ている」が「間」に係る用例の検索結果(一部)[科学技術和英大辞典]}\vspace{-5mm}\label{example4}\end{center}\end{figure}(5),(6)の検索例を,図\ref{example5},図\ref{example6}に示す.\\\begin{figure}[htb]\begin{center}\vspace{-12mm}\noindent\fbox{\parbox[t]{140mm}{\small\begin{flushleft}a.単語検索による検索用例:23文(構造が一致しない用例:11文)\end{flushleft}\vspace{-3mm}\begin{itemize}\itemこの図表にある燃費節減の数字は,すべて,自動変速機と最小のエンジン\hspace{-.05em}\underline{を}\hspace{-.05em}積んだ自動車\underline{について},1981年にEPAが\underline{行っ}た燃費節減概算額に基づく\itemこの状態での溶接強度\underline{を}確かめるために,一部分\underline{について}簡単な引張り試験も\underline{行っ}た\end{itemize}\begin{flushleft}b.構造検索による検索用例:12文\end{flushleft}\vspace{-3mm}\begin{itemize}\itemこの件\underline{について}十分協議\underline{を}\underline{行った}\item\hspace{-.2em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.2em}原子力安全問題\hspace{-.05em}\underline{について}\hspace{-.05em}自主的な再検討\hspace{-.05em}\underline{を}\underline{行い},NRCの議長に対する意見書を作成する\end{itemize}}}\caption{「(A)について」と「(B)を」が「行う」に係る用例の検索結果(一部)[科学技術和英大辞典]}\label{example5}\end{center}\end{figure}\begin{figure}[htb]\begin{center}\vspace{-15mm}\noindent\fbox{\parbox[t]{140mm}{\small\begin{flushleft}a.単語検索による検索用例:11文(構造が一致しない用例:5文)\end{flushleft}\vspace{-3mm}\begin{itemize}\item身をのり出さない\hspace{-.05em}\underline{ように}し,右または左に適当な距離をとり,両足をふんばり\hspace{-.05em}\underline{なさい}\itemテストカップを,電気ショートを起こさない\underline{ように}隔室の壁から離して,中央におき\hspace{-.05em}\underline{なさい}\end{itemize}\begin{flushleft}b.構造検索による検索用例:6文\end{flushleft}\vspace{-3mm}\begin{itemize}\item小さな点を見失わない\hspace{-.05em}\underline{ように},それぞれの点に丸を付け\hspace{-.05em}\underline{なさい}\item毛管作用の始めが試料の表面3mm下になる\hspace{-.05em}\underline{ように}温度計を調整し\hspace{-.05em}\underline{なさい}\end{itemize}}}\caption{「〜ように」が「〜なさい」に係る用例の検索結果(一部)[科学技術和英大辞典]}\vspace{-15mm}\label{example6}\end{center}\end{figure}
\section{おわりに}
本論文では,骨格構造手法による構文情報付きコーパスの構築と,これを対象とした構文指定による類似用例検索システムについて述べた.対訳付き辞書用例8万文について,骨格構造解析により構文付きコーパスの作成を行ったところ,骨格構造解析結果中に正しい解析木を含んでいるものは,200文中で約93\%であり,骨格構造解析の有効性を実証できた.誤りの多くは,形態素解析あるいは文節カテゴリ付けの誤りによるもので,この部分については今後改善していく予定である.また,類似用例検索システムでは,骨格構造解析の方法を用いて作成した構文付きコーパスを検索対象とし,係り受け関係を指定して検索することで,単語や品詞などの形態素情報のみでは検索されてしまう多くの不用な用例を,絞り込むことができ,骨格構造解析の有用性を実証することができた.なお,英語対訳付き用例を用いたのは類似用例検索による翻訳支援への応用\cite{Sumita1991}を念頭においてからであり,今後は,そのような応用システムの具体化についても検討していく予定である.\acknowledgment科学技術和英大辞典(電子化版)の使用を認めていただいた(株)オーム社,ならびに,講談社和英辞典(電子化版)の使用を認めていただいた電総研自然言語研究室に感謝します.\bibliographystyle{jnlpbbl}\bibliography{present}\begin{biography}\biotitle{略歴}\bioauthor{兵藤安昭}{1991年岐阜大学工学部電子情報工学科卒業.1993年同大学大学院修士課程修了.現在,同大学院博士後期課程在学中.自然言語処理の研究に従事.情報処理学会会員.}\bioauthor{河田実成}{1993年岐阜大学工学部電子情報工学科卒業.1995年同大学大学院博士前期課程修了.同年,日立ソフトウェアエンジニアリング(株)に入社,現在に至る.}\bioauthor{応江黔}{1984年中国武漢水利電力学院卒業.1989年名古屋大学大学院工学研究科電気工学専攻博士前期課程修了.1992年同大学院博士後期課程修了.同年,岐阜大学工学部電子情報工学科助手.工学博士.電子情報通信学会会員.}\bioauthor{池田尚志}{1968年東京大学教養学部基礎科学科卒業.同年工業技術院電子技術総合研究所入所.制御部情報制御研究室,知能情報部自然言語研究室に所属,主任研究官.1991年岐阜大学工学部電子情報工学科教授.工学博士.主として人工知能,自然言語処理の研究に従事.人工知能学会,電子情報通信学会,情報処理学会,ACL各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V25N04-05 | \section{はじめに}
\label{sec:intro}並列構造は等位接続詞などの句を連接させる働きのある語にともなって,句や文が並列して出現する構造である.並列構造は自然言語において高い頻度で現れるが,並列構造が包含する句の範囲には曖昧性があり,また並列構造によって1文が長くなるため,自然言語解析を困難にしている主な要因となっている.近年,句構造や依存構造などの構文解析の手法は顕著に発展してきているが,並列構造を高い精度で解析する決定的な手法は確立されていない.並列構造の曖昧性が解消されることで構文解析の誤りを減らすだけではなく,科学技術論文の解析や文の要約,翻訳など広い範囲のアプリケーションでの利用が期待される.並列構造の構成要素である個々の並列句には二つの特徴がある.一つは並列構造内の個々の並列句はそれぞれ類似した意味・構造となる特徴であり,もう一つはそれぞれの並列句の入れ替え・省略を行っても文法上の誤りが生じることや元の文意を損なうことがなく,文として成立するという特徴である.並列句の範囲を同定するタスクにおいて,従来の研究では並列構造を同定するための重要な手がかりのうち,並列句の候補となる句のペアの類似度に基づくモデルが提案されてきた\cite{kurohashi-nagao:1994:CL,shimbo-hara:2007:EMNLP-CoNLL,hara-EtAl:2009:ACL-IJCNLP,hanamoto-EtAl:2012:EACL}.しかしながら,並列句は必ずしも類似するとは限らず,異なる種類の句が並列した場合や動詞句や文の並列では並列句はしばしば非類似となり,類似性のみを利用した手法では非類似の並列句をとらえることができなかった.また従来手法では類似度の計算に構文情報やシソーラスを用いて人手で設計された素性を利用しており,素性設計のコストや外部リソースの調達コストの点で問題がある.これらの問題を克服するために,Ficlerら\cite{ficler-goldberg:2016:EMNLP}は,並列句の類似性のみならず可換性に着目し,ニューラルネットワークによって類似性・可換性の特徴ベクトルを計算し,並列句範囲の同定を行うモデルを提案した.Ficlerらの手法では外部の構文解析器を用いて並列句範囲の候補を抽出したのち,候補に対してスコア付けをして範囲を同定するというパイプライン処理を行っている.Ficlerらの手法はPennTreebankでの並列句範囲の同定のタスクにおいて,既存の句構造の構文解析器を上回る精度を達成し,GENIAコーパスにおいても新保ら\cite{shimbo-hara:2007:EMNLP-CoNLL},原ら\cite{hara-EtAl:2009:ACL-IJCNLP}の並列句の類似性に基づく手法より高い性能を発揮した.Ficlerらの手法は従来の手法の欠点であった非類似となる並列句の範囲をとらえられない点や人手による素性設計のコストの点をいくらか解決しているものの,外部の構文解析器の出力に強く依存しており,解析器の誤りに起因する誤り伝搬やパイプライン処理による解析速度の低下の点で課題が残っている.本研究では,単語の表層形と品詞情報のみから並列句の類似性・可換性の特徴を抽出し,並列構造の範囲を同定する手法を提案する.また句を結びつける働きを持つかどうかが曖昧である語に対して,連接する並列句が存在しない場合の取り扱いや,並列句が存在しない場合を検出する方法についても示す.提案手法では,近年自然言語の解析で広く用いられている双方向型リカレントニューラルネットワークを使用して候補となる並列句の文脈情報を考慮した類似性・可換性の特徴ベクトルを計算する.実験の結果,PennTreebankにおける並列句の範囲同定のタスクにおいて,構文情報を用いない提案手法が構文情報を利用した既存手法と同等以上のF値を得た.さらにGENIAコーパスにおいては,類似となる傾向の高い名詞句の並列,非類似となる傾向の高い文の並列の両方について,提案手法が既存手法を上回る再現率を達成したことを示す.提案手法の貢献は,Ficlerらの手法のような構文解析の結果に依存したパイプライン処理やニューラルネットワークのアーキテクチャを使用することなく,原らの手法で課題となっていた非類似となる並列句の範囲同定の再現率を向上させ,全体として既存手法と同等以上の解析精度を達成したことである.
\section{並列構造解析}
\label{sec:coord}本稿では,句を連接する働きを持つ可能性のある語を並列キーと呼び,``$word_{\rmposition}$''の形式で表す.並列キーに属する語として主に等位接続詞が挙げられるが,英語のbutが等位接続詞のほかに前置詞となる場合があるように,等位接続詞以外の品詞となり得る語は語の表層形から並列キーが句を連接する働きがあるかどうかを判別することは必ずしもできない.並列キーが句を連接している場合,結びつけられる句を{\bf並列句}と呼び,並列キーと並列句から成る一連の語句を{\bf並列構造}と呼ぶ.反対に並列キーが句を連接する働きがない場合は並列キーによって結びつけられる句や対応する並列構造は存在しない.また,文頭の並列キーは品詞が等位接続詞の場合であっても後続の句と並列関係にある句が文内に存在しないため,並列キーは文内において句を連接する働きがないと見なし,対応する並列構造を持たないものとする.\subsection{並列構造の解析の困難さ}\label{ssec:difficulties}並列句が包含する語の範囲は構文上一意に決まる場合があるが,文の意味や前後の文脈から決定づけられることが多い.並列構造の範囲が曖昧であることに起因して,並列構造を有する文は構文・意味の面においても複数の解釈がされ得る.並列構造は範囲・構文・意味の非一意性を持つばかりではなく,次の二つのような解析の困難性を有している(\figref{property}).\begin{enumerate}\renewcommand{\labelenumi}{}\item並列キーが句を連接する場合と連接しない場合があり,連接する場合であっても一つの並列キーによって連接される句は必ずしも並列キーの前後の二つの句に限定されず,三つ以上の句を伴う場合がある.\item文中に複数の並列構造が現れる場合があり,さらには一方の並列構造が他方の並列構造の句に含まれるような入れ子構造となるケースがある.\end{enumerate}(i)の性質によって,並列構造の解析には並列キーに隣接する句だけではなく,隣接する句に連なる句が同一の並列構造に属するかを考慮する必要性が生じる.また,並列キーが等位接続の役割を果たさない場合に並列キーに対する並列句の数は0となり,並列キーに対する並列句の出現数が必ず二つ以上となるような限定ができない.(ii)については,文中に出現する並列キーの数は文によって異なっており,複数の並列構造が出現する場合に全ての並列構造の範囲が互いに整合しているかを確認しなければならない.すなわち,個々の並列構造の範囲を独立に確定するのではなく,ある並列構造が他の並列構造に覆われて入れ子となるか,あるいは範囲が交差せず重なり合っていない状態のどちらかになるという条件を満たすよう範囲を決定しなければならない.\begin{figure}[b]\begin{center}\includegraphics{25-4ia5f1.eps}\end{center}\caption{並列構造の範囲の例}\label{fig:property}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{25-4ia5f2.eps}\end{center}\caption{タスクの入出力の例}\label{fig:task}\end{figure}\subsection{タスクの定義}本研究で取り組む英語における並列句範囲の曖昧性解消のタスク定義について述べる.文に現れる並列キーに対して,並列キーが等位接続の働きをし,並列キーによって結び付けられる句がある場合にはそれぞれの句の始点と終点を返す.並列キーが並列の役割を果たさず,並列キーに連接する並列句が存在しない場合には{\scNone}を返す.\figref{task}はタスクの入出力の例である.例から分かるように,本タスクで期待される出力を得るためには,\ref{ssec:difficulties}節で示したような文中の複数の並列構造,三つ以上の並列句について取り扱える必要がある.本研究の提案手法は文中の複数の並列構造を検出し,各々の並列構造に属する並列句の範囲同定を行うことができるが,複数の並列構造の範囲が競合しないような制約を満たすには至っていない.また,三つ以上の並列句についても範囲同定ができるものの,並列キーに前出する並列句が二つ以上出現する場合はそれらを結合して一つの並列句として見なして学習をし,範囲同定を行う際に個々の並列句に分割している.\subsection{並列構造の特徴}並列構造には,並列句の範囲を同定するために有用な二つの特徴がある.\begin{enumerate}\renewcommand{\labelenumi}{}\item{\bf類似性}:同一の並列構造に属する並列句は,句の構文構造・意味の点で類似性を持つ.\item{\bf可換性}:同一の並列構造に属する並列句は,互いに入れ替えても文の流暢性が保たれる.\end{enumerate}上記の性質についてそれぞれ例を挙げる.類似性について\figref{property}(a)の例では,$and_{25}$に対する並列句は全て名詞句(NP)となっており,いずれも冠詞(DT),形容詞(JJ),名詞(NN,NNS),前置詞(IN)という類似の品詞系列が見られる(\figref{characteristic}(a)).また可換性については,\figref{property}(b)の例の並列句を,``Asidefrom[talksoncutting(chemical)$and_{12}$(strategic)arms]$and_7$[theSovieteconomicplight],oneotherissue\ldots''と入れ替えても構文上誤りのない文として成立している(\figref{characteristic}(b)).また,可換性の性質によって各々の並列句を並列構造の前後の文脈と流暢性を損なうことなく接続でき,並列句のうち一つを残して並列構造を取り除いても文として成立する.\begin{figure}[b]\begin{center}\includegraphics{25-4ia5f3.eps}\end{center}\caption{並列句の特徴}\label{fig:characteristic}\end{figure}二つの特徴は並列句の範囲を同定する強力な手がかりとなり得るが,全ての並列構造で普遍的に利用できるわけではない.例えば同一の並列構造に属する複数の並列句が,それぞれ異なる種類の句であったり,文の並列であったりする場合は並列句の類似性は必ずしも高くない(異なる種類の句による非類似の例:``Billis[introuble]$and_5$[tryingtocomeupwithanexcuse].'',文の並列による非類似の例:``[Thevalueofthetwotransactionswasn'tdisclosed],$but_{11}$[anIFIspokesmansaidnocashwouldchangehands].'').また,先行する並列句に出現した語が後続する並列句では省略されている場合は,適切に語を補わずに句を交換すると文の構文的な正しさが損なわれるため,可換性が成り立つとは言えない(語の省略による非可換の例:``[Honeywell's\underline{contracttotaled}\$69.7million],$and_9$[IBM's\$68.8million].'').本研究では,類似性・可換性のどちらか一方の特徴だけを用いるのではなく,両方を特徴量として用いることで,並列句の範囲の同定を行う.
\section{関連研究}
\label{sec:rworks}これまで並列構造解析の多くの研究では並列句の類似性に基づいた手法が発展してきた.日本語における並列句の範囲同定のタスクにおいて,黒橋ら\cite{kurohashi-nagao:1994:CL}は並列句の類似度計算にチャートを用い,動的計画法によって並列構造の検出と範囲の同定を行った.新保ら\cite{shimbo-hara:2007:EMNLP-CoNLL}は英語の並列構造解析において,系列アラインメントと単語・品詞・形態情報に基づく素性により,並列句の内部の複数単語間の類似度を動的計画法を用いて計算した.黒橋らの手法においてチャートの経路に付与されるスコアはあらかじめ定義された少数のルールに基づくスコア関数によって付与されていたのに対し,新保らの手法では編集グラフの枝と頂点に与えられるスコアは人手で設計された素性の重み付き線形和で表され,重みのパラメータの調整は機械学習の手法であるパーセプトロンが用いられた.新保らのモデルは入れ子となる並列構造を扱うことができなかったが,原ら\cite{hara-EtAl:2009:ACL-IJCNLP}は新保らの手法を拡張し,並列構造を木として導出するためのルールを設けることで,複数の並列構造・三つ以上の並列句について取り扱った.原らの手法では個々の並列構造に対して並列句の類似度を計算し,複数の並列構造のスコアの総和が最も高くなるような並列構造の範囲の組み合わせを文全体の並列構造の木として解析した.花元ら\cite{hanamoto-EtAl:2012:EACL}はHPSGの構文解析器を拡張し,原ら\cite{hara-EtAl:2009:ACL-IJCNLP}のモデルと組み合わせて使用し,並列句の範囲を双対分解を用いて同定する手法を提案した.類似度に基づく並列構造解析の手法に対して,Ficlerら\cite{ficler-goldberg:2016:EMNLP}は並列句の類似度に加えて並列句の可換性についても並列句候補のスコア計算の素性として取り入れた.Ficlerらの手法は三つのコンポーネントから成り立っており,並列構造の検出のための二値分類器,並列句の範囲の候補を抽出するための外部の構文解析器(BerkeleyParser\cite{petrov-EtAl:2006:COL-ACL}),並列句候補のスコア計算によって範囲を一意に決定する識別器という構成となっている.並列句候補のスコア計算においては,人手で設計した素性ではなくニューラルネットワークを用いることで素性設計のコストの問題を克服している.類似度計算にはBerkeleyParserによって出力された構文情報を用いて並列句候補をベクトル表現として算出し,ベクトル同士のユークリッド距離を求めており,グラフを用いた類似度計算手法に比べて計算量が削減されている.可換性については,まず並列句のうち一つを残して並列構造を取り除いて元の文を簡易化した新たな文として取り出すという手順を,並列構造に属する二つの並列句に対してそれぞれ適用することで二つの文を得る.次にそれら二つの文を双方向型LSTMによって処理をし,出力された隠れ状態ベクトルを並列句の接続部分の文脈情報を考慮した素性ベクトルとして使用している.類似性と可換性の特徴に加えてBerkeleyParserの出力から並列句の候補を生成した際の確率値や候補の順位なども追加の素性としてスコア計算に用いている.Ficlerらの手法はGENIAコーパスにおいて原らの類似度に基づく手法を上回る精度を達成しているが,素性ベクトルの計算において構文情報に依存しているため,三つのコンポーネントの誤り伝搬や外部の構文解析器への依存の点で課題が残る.Ficlerらは,(1)類似性,(2)可換性,(3)候補の生成確率に基づく順位に関連する素性の三つの素性をそれぞれ一つずつ用いてスコア計算をした場合について比較実験をしており,(3)のみを用いる場合の精度が(1)または(2)のみを用いる場合の精度よりも高いことを報告している.ただし構文解析の結果に基づく候補の抽出は共通して行われており,構文解析を利用しない場合は候補の抽出や(1),(3)の素性は利用できないため,Ficlerらが報告している数値よりも精度が下がることが考えられる.しかしながら,構文解析器や解析対象のドメインの変更などによって構文解析の精度が変化した際に,Ficlerらの手法がどの程度影響を受けるかについては定量的な分析がされておらず,また我々のほうでも定性的な分析をするに留まった\footnote{BerkeleyParserの改変部分や実験設定についての詳細を得ることができず,再現実験をすることができなかった.}.河原ら\cite{kawahara-kurohashi:2008:Coling}は類似度の素性を用いずに依存構造と格フレームに基づいて並列句の生成確率を学習し,範囲の同定を行っている.吉本ら\cite{yoshimoto-EtAl:2015:IWPT}はグラフベースの依存構造解析の手法を拡張し,依存構造解析とともに並列構造の範囲を同定するアルゴリズムを提案している.
\section{提案手法}
\label{sec:method}本研究では並列キーに対して個々の並列句の範囲ではなく並列構造全体の範囲を直接的に同定する.すなわち,並列キーに先行する並列句の終点を並列キーの直前,並列キーに後続する並列句の始点を並列キーの直後に仮定を置き,並列構造全体の始点と終点のみを提案モデルで学習・推定する.また,英語においては並列キーに先行する並列句は,カンマを伴って二つ以上出現する場合があるが,その場合においては最初に出現する並列句の始点と並列キーの直前に出現する並列句の終点をスパンとする一つの並列句と見なすことでモデルを適用する(\figref{task}の$and_{37}$の例:先行する並列句(33,36)cash,Memotecstock;後続する並列句(38,38)debentures;並列構造全体の始点・終点(33,38)).ただし,これらの仮定は並列句の範囲の可能な組み合わせを制限し,計算量を削減するために行っているため,並列句の始点・終点の制限をなくして並列キーに先行する二つ以上の並列句の各々の範囲を同定する手法として,本研究のモデルを適用することは可能である\footnote{提案手法の計算量が$\mathcal{O}(N^2)$に対し,配列句の範囲の制限をなくしてカンマを区切り文字として先頭の並列句の範囲と終端の並列句の範囲を求める場合の計算量は$\mathcal{O}(N^4)$となる.}.語数$N$の文$x=\{x_1,x_2,x_3,\ldots,x_N\}$における並列キー$x_k$に対して,並列キーに先行する並列句を$s_1=\{x_i,\ldots,x_{k-1}\}$$(1\leqi\leqk-1)$,後続する並列句を$s_2=\{x_{k+1},\ldots,x_j\}$$(k+1\leqj\leqN)$と書き表す.また,並列キー$x_k$に連接する並列句が存在しない場合は並列句の範囲のペアを{\scNone}として表す.提案手法では,並列構造全体の始点$i$と終点$j$の全ての可能な組み合わせ(並列句が存在しない場合の{\scNone}を含む)についてスコア計算を行い,最もスコアの高い組み合わせを二つの並列句の範囲$(i,k-1)$,$(k+1,j)$とし,{\scNone}のスコアが最も高い場合は並列句が存在しないものとする.並列キーに隣接するカンマは並列句の始点・終点ではなく並列キーの一部として見なされるため,解析・評価時には並列キーの直前・直後のカンマを並列キーに含むものとして範囲の修正をする.また,モデルが学習・予測した二つの並列句の範囲に対して,並列キーに先行する並列句の範囲からカンマを区切り文字として個々の並列句の範囲の復元をし,評価を行う.\begin{figure}[b]\begin{center}\includegraphics{25-4ia5f4.eps}\end{center}\caption{提案手法で用いるニューラルネットワークのアーキテクチャの概要}\label{fig:arch}\end{figure}\figref{arch}は本研究で用いるニューラルネットワークのアーキテクチャの概要である.提案モデルは以下の四つの部分で構成される.\begin{description}\item[入力層:]単語・品詞のone-hotベクトルからなる系列に分散表現のベクトルを割り当てる.\item[RNN層:]双方向型リカレントニューラルネットワーク(双方向型RNN)により,単語・品詞のベクトルの系列から文脈情報を考慮した隠れ状態のベクトルの系列を取り出す.\item[特徴抽出関数:]並列構造の範囲の可能な組み合わせについて,双方向型RNNの出力を用いて特徴ベクトルを抽出する.\item[出力層:]個々の並列構造の範囲の候補に対して,特徴ベクトルからスコア計算を行う.\end{description}以降の小節ではこれらのネットワーク構造の詳細について説明をする.\subsection{入力層}提案モデルはまず,語彙数次元のone-hotベクトルで表された単語・品詞の系列を入力として受け取り,埋め込み表現\cite{bengio-EtAl:2003:JMLR}として知られる分散表現のベクトルの系列に変換する.これらの単語・品詞の実数値のベクトルは連結されて次の層の入力として渡される.\begin{equation}\begin{aligned}{\bfh}^{word}_{t}&=W^{word}{\bfx}^{word}_t\\{\bfh}^{tag}_{t}&=W^{tag}{\bfx}^{tag}_t\\{\bfh}^{(0)}_{t}&=[{\bfh}^{word}_{t};{\bfh}^{tag}_{t}]\\{\bfh}^{(0)}&=\bigl\{{\bfh}^{(0)}_{1},\ldots,{\bfh}^{(0)}_{N}\bigr\}\end{aligned}\end{equation}ここで${\bfx}^{word}_t$は単語系列の$t$番目の語,${\bfx}^{tag}_t$は品詞系列の$t$番目の品詞を指すone-hotベクトルである.また,$W^{word}$,$W^{tag}$はそれぞれ単語,品詞の分散表現を表すベクトルから成るパラメータの行列である.\subsection{RNN層}分散表現のベクトル系列は多層の双方向型RNNによってRNNの隠れ状態のベクトル系列に変換される.双方向型RNNは時系列の入力を過去から未来の方向と未来から過去の方向へ順次計算を行う.提案手法ではこのネットワークを用いて左から右(順方向)の文脈と右から左(逆方向)の文脈の情報を取り出し,後のネットワークでの計算に利用する.多層双方向型RNNの第$\ell$層の時刻$t$における順方向の隠れ状態ベクトル${\bfh}^f_{\ell,t}$は,同じ層の直前の時刻$t-1$における順方向の隠れ状態ベクトル${\bfh}^f_{\ell,t-1}$と直前の層の同一時刻$t$における隠れ状態ベクトル${\bfh}_{\ell-1,t}$から計算される.\begin{equation}{\bfh}^f_{\ell,t}=f({\bfh}^f_{\ell,t-1},{\bfh}_{\ell-1,t})\end{equation}第$\ell$層の時刻$t$における逆方向の隠れ状態ベクトル${\bfh}^b_{\ell,t}$も同様に計算される.本研究で用いる多層双方向型RNNは層ごとの出力で順方向の隠れ状態ベクトルの系列$\{{\bfh}^f_{\ell,t}\}^N_{t=1}$と逆方向の隠れ状態ベクトルの系列$\{{\bfh}^b_{\ell,t}\}^N_{t=1}$が各時刻$t$で連結され,次の層の入力値として用いられる.一般にRNNは以下に表現されるような関数$f$を持つ.\[f({\bfx}_t,{\bfh}_{t-1})=g(W{\bfx}_t+U{\bfh}_{t-1})\]ここで関数$g$は双曲線正接関数tanhや正規化線形関数ReLUなどの任意の非線形関数であり,$W$,$U$はパラメータ行列である.RNNは勾配消失の問題から学習が困難であるため\cite{pascanu-EtAL:2013:PMLR},本研究ではRNNの関数$f$に代わってLSTM(LongShort-TermMemory)\cite{hochreiter-schmidhuber:1997:NC}を用いる.\subsection{特徴抽出関数}特徴抽出関数のレイヤーでは,双方向型RNNの出力系列$\{{\bfh}_{t}\}^N_{t=1}$を用いて並列構造の並列キーに先行する並列句候補と後続する並列句候補のベクトル表現を計算し,類似性に基づく特徴ベクトルと可換性に基づく特徴ベクトルの二つの特徴ベクトルを出力する.並列構造の並列キーに先行する並列句候補のベクトル表現${\bfv}^{pre}_i$と後続する並列句候補のベクトル表現${\bfv}^{post}_j$は関数$f_{pooling}$から計算される.本研究では,関数$f_{pooling}$としてベクトルの要素ごとの平均をとる関数を用いる.\begin{equation}\label{eq:average}f_{pooling}({{\bfh}_{l:m}})={\rmaverage}\bigl({\bfh}_l,{\bfh}_{l+1},\ldots,{\bfh}_{m-1},{\bfh}_m\bigr)\end{equation}したがって,${\bfv}^{pre}_i$と${\bfv}^{post}_j$はそれぞれ以下のように表される.\begin{equation}\begin{aligned}{\bfv}^{pre}_i&=f_{pooling}({{\bfh}_{i:k-1}})\;\;(1\leqi\leqk-1)\\{\bfv}^{post}_j&=f_{pooling}({{\bfh}_{k+1:j}})\;\;(k+1\leqj\leqN)\end{aligned}\end{equation}ベクトル${\bfv}^{pre}_i$,${\bfv}^{post}_j$は次小々節に定義される特徴抽出関数に入力される.\subsubsection{類似性に基づく特徴ベクトル}並列構造の並列キーに先行する並列句候補と後続する並列句候補の類似性に基づく特徴ベクトルは以下のように計算される.\begin{equation}f_{sim}({\bfv}^{pre}_i,{\bfv}^{post}_j)=\bigl[|{\bfv}^{pre}_i-{\bfv}^{post}_j|;{\bfv}^{pre}_i\odot{\bfv}^{post}_j\bigr]\end{equation}ここで$|{\bfv}^{pre}_i-{\bfv}^{post}_j|$はベクトルの要素ごとの差の絶対値であり,${\bfv}^{pre}_i\odot{\bfv}^{post}_j$はベクトルの要素ごとの積である.これらの差と積の演算は二つのベクトルの距離と関連性をモデル化するために用いている\cite{ji-eisenstein:2013:EMNLP,tai-EtAl:2015:ACL-IJCNLP,hashimoto-EtAl:2017:EMNLP}.\subsubsection{可換性に基づく特徴ベクトル}可換性に基づく特徴ベクトルは以下のように定義をする.\begin{equation}\begin{aligned}f_{repl}({\bfh}_{1:N},i,j,k)&=\\\bigl[|{\bfh}_{i-1}\odot{\bfh}_{i}&-{\bfh}_{i-1}\odot{\bfh}_{k+1}|;\\|{\bfh}_{j}\odot{\bfh}_{j+1}&-{\bfh}_{k-1}\odot{\bfh}_{j+1}|\bigr]\end{aligned}\end{equation}ここで${\bfh}_{i-1}$は並列構造の直前の語における文脈を表すベクトルであり,二つの並列句候補$(i,k-1)$と$(k+1,j)$が可換であれば,それぞれの並列句候補の先頭の語$i$,$k+1$と流暢性を損なわず結びつくと考えられる.また${\bfh}_{j+1}$は並列構造の直後の語における文脈を表すベクトルであり,同様に各並列句候補の末尾の語に接続される.1番目の差$|{\bfh}_{i-1}\odot{\bfh}_{i}-{\bfh}_{i-1}\odot{\bfh}_{k+1}|$は並列構造の直前の文脈と二つの並列句候補の始点との接続の差を表している.2番目の差$|{\bfh}_{j}\odot{\bfh}_{j+1}-{\bfh}_{k-1}\odot{\bfh}_{j+1}|$は並列構造の直後の文脈と二つの並列句候補の終点との接続の差を表している.これらの差は二つの並列句候補の交換のしにくさ(コスト)を表していると解釈できる.また,並列構造が文の先頭で始まる場合($i=0$),関数$f_{repl}({\bfh}_{1:N},i,j,k)$が返すベクトルのうち,$|{\bfh}_{i-1}\odot{\bfh}_{i}-{\bfh}_{i-1}\odot{\bfh}_{k+1}|$をゼロベクトルとし,文の末尾で終わる場合($j=N$)は$|{\bfh}_{j}\odot{\bfh}_{j+1}-{\bfh}_{k-1}\odot{\bfh}_{j+1}|$をゼロベクトルとする.\subsection{出力層}出力層では並列構造の範囲の候補に対して類似性・可換性に基づく特徴ベクトルに基づいてスコア計算を行う.出力層のニューラルネットワークは計算ユニットを持つ層が順方向に多層に接続された多層パーセプトロン(MLP)から成る.並列キーに先行する並列句候補$(i,k-1)$と後続する並列句候補$(k+1,j)$のペアに対するスコアは以下のように計算される.\begin{equation}\label{eq:mlp}\begin{aligned}{\rmScore}(i,j)&=\\{\rmMLP}\bigl(\bigl[&f_{sim}({\bfv}^{pre}_i,{\bfv}^{post}_j);\\&f_{repl}({\bfh}_{1:N},i,j,k)\bigr]\bigr)\end{aligned}\end{equation}また,並列キーに対して並列構造が存在しない場合を考慮するために,範囲の候補{\scNone}についてもスコアの計算を行う.{\scNone}のスコアは並列キーに対するRNN層の隠れ状態ベクトル${\bfh}_{k}$に重みベクトルを乗ずることで求める.\begin{equation}{\rmScore(\textsc{None})}={\bfw}\cdot{\bfh}_{k}+{\bfb}\end{equation}これらのスコア関数を用いて並列句の全ての可能な範囲の組み合わせ$(i,j)$に対してスコアを計算する.したがって,文の長さを$N$,並列キーの出現位置を$k$番目の語とおいた場合,並列句の範囲の組み合わせの候補は全部で$(k-1)\times(N-k)+1$個得られ,それらのうち最もスコアの高い候補をsoftmax関数によって求めてモデルが最終的に出力する並列句の範囲とする.\begin{equation}\begin{aligned}{\bfs}&=[{\rmScore(\textsc{None})};{\rmScore(1,k+1)};\ldots;\\&\quad\quad{\rmScore(1,N)};\ldots;{\rmScore}(k-1,N)]\\\hat{p_{\theta}}(y|x)&={\rmsoftmax}({\bfs})\\\hat{y}&={\argmax}_{y}\bigl(\hat{p_{\theta}}(y|x)\bigr)\end{aligned}\end{equation}ただし,$\theta$をパラメータの集合,$x$を単語系列・品詞系列から成る文,$y$を並列句範囲の組み合わせとする.\subsection{学習}モデルの学習には各並列キーに対する並列構造の予測範囲と正解範囲との交差エントロピー誤差を損失関数として用いる.\begin{equation}J(\theta)=-\sum^D_{d=1}\log\hat{p_{\theta}}(y^{(d)}|x^{(d)})+\frac{\lambda}{2}\norm{\theta}^2\end{equation}ここで$D$はトレーニングのデータセットにおける並列キーの出現数であり,$x^{(d)}$を単語系列・品詞系列から成る文の集合中の1事例,$y^{(d)}$を並列句範囲の正解となる組み合わせの集合中の1事例とする.また,$\theta$はモデルのパラメータの集合,$\lambda$はL2正則化の強度を調整するハイパーパラメータである.モデルのパラメータ$\theta$は損失関数を確率的勾配降下法(SGD)によって最小化することによって最適化する.
\section{実験}
\label{sec:exp}本研究では提案手法の評価実験を並列構造のアノテーションが付与されたPennTreebankコーパス\cite{ficler-goldberg:2016:ACL}とGENIAコーパス(beta)\cite{Kim-EtAL:2003:BioInfo}で行う.各コーパスにおける評価対象となる並列キーの出現数と文数を\tabref{corpus}にまとめる.なお,先行研究との比較のため,PennTreebankの並列キーは``and'',``or'',``but'',``nor'',``and/or''\footnote{``and/or''とは,``\ldotsimposescostsand/orconfersbenefits\ldots''など,andとorのどちらでも文意がとれるものとして1単語で表された語を指す.}とし,GENIAコーパスの並列キーは``and'',``or'',``but''とする\cite{ficler-goldberg:2016:EMNLP,hara-EtAl:2009:ACL-IJCNLP}.\begin{table}[t]\caption{コーパスにおける並列キーの出現数}\label{tab:corpus}\input{05table01.tex}\end{table}\subsection{PennTreebankでの実験}\label{ssec:ptb-exp}\subsubsection{実験設定}\label{sssec:ptb-exp-settings}PennTreebankでの実験には,コーパスのWallStreetJournalのパートのうち,セクション2から21を訓練データ,セクション22を開発データ,セクション23を評価データとして用いた.単語の分散表現にはEnglishGigawordコーパス第5版\cite{en-gigaword5}のNewYorkTimesパートをWord2Vec\footnote{https://code.google.com/archive/p/word2vec/}のデフォルトのパラメータで事前に学習した200次元のベクトル表現を用いた.品詞はStanfordParser\cite{toutanova-EtAl:2003:NAACL}を用いて訓練データに対する10分割ジャックナイフ法にて付与し,品詞の分散表現として区間$[-1,1]$の一様分布でランダムに初期化をした50次元のベクトルを用いた.RNN層には3層の双方向型LSTMを用い,各単方向のLSTMの隠れ状態のベクトルの次元数は\{400,600\}次元から選択した.出力層は隠れ層を1層とし,活性化関数にはReLUを使用した.また,隠れ層のユニット数は\{1,200,2,400\}から選択した.モデルのパラメータはバッチサイズ20のミニバッチを利用した確率的勾配降下法で最適化を行った.学習率はAdam\cite{kingma-ba:2014:ArXiv}によって自動調整した.モデルの訓練時には入力層の出力,1層目を除くRNN層の入力,出力層の隠れ層にDropout\cite{srivastava-EtAL:2014:JMLR}を適用した.Dropoutの適用ユニットの比率は\{0.33,0.50\}から選択した.L2正則化の強度$\lambda$は\{0.0001,0.0005,0.001\}から選択した.学習のイテレーション数は50とし,開発データにおけるF1のスコア\footnote{モデルの選択に用いたF1スコアは複数の並列句のうち最初の並列句の開始位置と最後の並列句の終了位置の適合率・再現率の調和平均(wholeの評価)によるものとする(後述).}が最も高いモデルとハイパーパラメータの設定を評価データでの評価に用いるモデルとして採用した.最終的なハイパーパラメータの設定は\tabref{hyperparams}のとおりである.\begin{table}[t]\caption{PennTreebankの実験に使用した最終的なハイパーパラメータの設定}\label{tab:hyperparams}\input{05table02.tex}\end{table}\begin{figure}[t]\begin{center}\includegraphics{25-4ia5f5.eps}\end{center}\caption{評価方法による正解範囲の違い}\label{fig:exp}\end{figure}\subsubsection{評価指標}\label{sssec:eval-methods}本研究では,並列構造に属する並列句の始点・終点の一致について,四種類の一致基準で評価を行う(\figref{exp}).\begin{itemize}\item{\bfwhole}:最初の並列句の始点と最後の並列句の終点の一致\item{\bfinner}:並列キーに隣接する並列句の始点・終点の一致\item{\bfouter}:最初と最後の並列句の始点・終点の一致\item{\bfexact}:全ての並列句の始点・終点の一致\end{itemize}wholeの一致基準は並列構造全体の始点と終点の一致と同義であり,innerの一致基準はFiclerら\cite{ficler-goldberg:2016:EMNLP}の手法による実験の評価で用いられているものである.また,本研究の提案モデルが学習・予測する並列構造の範囲はwholeに相当するため,個々の並列句についての評価であるinner,outer,exactにおいては,並列キー$k$に先行する並列句$(i,k-1)$を文字``,''によって分割して個々の並列句として評価を行っている.それぞれの一致基準について,適合率(P)・再現率(R)およびそれらの調和平均であるF値によってモデルの評価を行う.また,全ての並列構造ではなく名詞句の並列構造のみを対象として評価を行った結果についても示す\footnote{Ficlerら\cite{ficler-goldberg:2016:EMNLP}と同様に,NPに加えてNXの並列構造も名詞句の並列構造と見なす.}.提案手法で用いた特徴抽出関数の有効性を検証するために,式\ref{eq:average}によって求めた二つの平均ベクトルだけを出力層でのスコア計算(式\ref{eq:mlp})に用いたモデルをベースラインとして,特徴抽出関数の有無による実験・評価も行う.\subsubsection{実験結果}\tabref{ptb-method}に実験結果を示す.wholeの指標において適合率と比較して再現率が低いことから,提案手法では並列キーに対して誤って並列構造が存在しない(範囲{\scNone})という予測をしていると考えられる.またinnerの評価に比べてouterの評価による結果では適合率,再現率,F値のいずれも低い値となった.これはinnerの評価では評価対象の並列句は並列キーに隣接しているのに対し,outerの評価では三つ以上の並列句が出現した場合に1番目の並列句が並列キーから離れてしまうことから,innerの評価はouterの評価と比較して範囲の予測が容易であることが理由として考えられる.\begin{table}[b]\caption{評価方法ごとの実験結果の比較(開発データ)}\label{tab:ptb-method}\input{05table03.tex}\end{table}\tabref{ptb-by-feats}は特徴ベクトルの使用の有無による結果の違いを示している.類似性に基づく特徴ベクトルと可換性に基づく特徴ベクトルを各々使用したモデルはどちらもベースラインのモデルの性能を上回った.また両方の特徴ベクトルを使用したモデルは最も高いF値を達成し,類似性・可換性に基づく特徴ベクトルを併用することは有効であった.\begin{table}[b]\caption{特徴ベクトルの組み合わせによる実験結果の比較(開発データ,whole評価)}\label{tab:ptb-by-feats}\input{05table04.tex}\vspace{4pt}{\small``$f_{sim}$''は類似性に基づく特徴ベクトル,``$f_{repl}$''は可換性に基づく特徴ベクトル,``Both''は両方の特徴ベクトルを使用したモデルを表す.\par}\end{table}先行研究との実験結果(inner評価)の比較について\tabref{ptb}に示す.全ての並列構造を対象とした実験では,先行研究のうち最も高いFiclerら\cite{ficler-goldberg:2016:EMNLP}の手法をF値で0.11ポイント上回り,最高の値となる72.81\%を達成した.Ficlerらの手法は句構造の構文解析器の出力結果を利用し,並列句の始点・終点が句の境界となる並列句の範囲の候補のうち生成確率が上位のものを候補としてあらかじめ限定し,候補とその生成確率の順位に基づく素性をニューラルネットワークの入力としてスコア計算をしている.対して提案手法では外部の構文解析器を使用せず並列句の範囲を制限することで,構文解析の結果を用いずにニューラルネットワークによって範囲を同定している.また,名詞句を対象とした評価においても先行研究と同程度の結果を得た.Ficlerらの手法では三つ以上の並列句については並列キーに隣接する二つの並列句の範囲を学習・予測しているのに対し,提案手法では並列構造全体の範囲を学習したのちに個々の並列句は\ref{sssec:eval-methods}節に示したルールによって取り出しているため,個々の並列句の取り出し方を改善することによって先行研究の結果をさらに上回る性能を達成することが期待できる.\begin{table}[t]\caption{PennTreebankでの評価(inner)}\label{tab:ptb}\input{05table05.tex}\vspace{4pt}{\small提案手法を除いた結果はFiclerら\cite{ficler-goldberg:2016:EMNLP}の報告している結果より抜粋.\par}\end{table}\subsection{GENIAコーパスでの実験}\subsubsection{実験設定}原ら\cite{hara-EtAl:2009:ACL-IJCNLP},Ficlerら\cite{ficler-goldberg:2016:EMNLP}の手法と提案手法の性能の比較を行うため,GENIAコーパス(beta)での実験を行った.実験設定は以下のものを除いて\ref{sssec:ptb-exp-settings}節と同様である.\begin{itemize}\item単語の分散表現にはBioASQ\cite{tsatsaronis-EtAl:2012:AAAI}が提供している200次元のベクトル表現を使用した.これらのベクトル表現はPubMed\footnote{https://www.ncbi.nlm.nih.gov/pubmed/}で入手できる生物医学系の論文のアブストラクトからWord2Vecを使って訓練したものである.\item品詞は原ら\cite{hara-EtAl:2009:ACL-IJCNLP}と同様にコーパスに付与されている品詞を使用し,品詞の分散表現として区間$[-1,1]$の一様分布でランダムに初期化をした50次元のベクトルを用いた.\itemL2正則化の強度を決定するハイパーパラメータである$\lambda$の値は0.0005とした.\item学習のイテレーション数は20とした.\end{itemize}\subsubsection{評価指標}GENIAコーパスでの実験は原ら\cite{hara-EtAl:2009:ACL-IJCNLP}と同様に,個々の並列句の範囲の一致については評価をせず,並列構造全体の範囲での一致(whole)について再現率によって評価を行う.これは,GENIAコーパスにおいては全ての並列キーに対応する並列構造が存在し,正解の範囲が{\scNone}となるような事例が存在しないためである(\tabref{corpus}).ただし,並列構造の範囲の候補から{\scNone}を除くような変更は加えていないため,提案モデルが並列構造の範囲の予測として誤って{\scNone}を出力することは起こり得る.提案手法の学習・予測結果と先行研究の手法による結果を直接比較することが可能であるため,本実験では\ref{sssec:eval-methods}節に示したような個々の並列句の取り出しは行わない.GENIAコーパスでは並列構造となっている句に対して明示的にCOODという特別なラベルが付与されており,COODのラベルが付与されている句の種類別に提案手法の性能の評価を行った.モデルの訓練・評価には原らと同様に5分割交差検定によって行った.\begin{table}[b]\caption{GENIAコーパスでの評価(再現率)}\label{tab:genia}\input{05table06.tex}\vspace{4pt}{\small``Ficler16'',``Hara09''の実験結果はそれぞれ\cite{ficler-goldberg:2016:EMNLP,hara-EtAl:2009:ACL-IJCNLP}より抜粋.\par}\end{table}\subsubsection{実験結果}実験結果を\tabref{genia}に示す.全ての並列構造を対象とした並列構造の始点と終点の一致の評価について,提案手法はFiclerら\cite{ficler-goldberg:2016:EMNLP}と原ら\cite{hara-EtAl:2009:ACL-IJCNLP}の手法による再現率を上回った.また,並列構造となる句の種類別の評価においては従来手法と比べて文(S)の並列において再現率が顕著に上回った.動詞句(VP)や従属節(SBAR)においても原らの手法よりも高いスコアとなっているが,Ficlerらの手法より10以上低いスコアとなった.並列句が類似する傾向が高い名詞句(NP)の並列については最も高い再現率を達成した.提案手法の動詞句の誤りについて分析をしたところ,正解の範囲が``$\ldots$hasbeen[developed]and[comparedwith]acommon$\ldots$''であったのに対し,モデルの予測範囲が``$\ldots$[hasbeendeveloped]and[comparedwith]acommon$\ldots$''となるような,助動詞を並列句に含むか否かを誤りやすい傾向にあった.また,並列キーに後続する動詞句の直後に出現する前置詞句を並列句の範囲に含むかどうかについても誤る場合が見られた.動詞句の誤りのどちらのケースにおいても文法的には並列句が可換であるため,語法や前後の文脈をより考慮することが有効であると考えられる.文の並列と従属節については並列句の語長が長くなる傾向があるため,提案手法では並列句に含まれるカンマによって誤って並列句を分割するという傾向があった.三つ以上の並列句の範囲同定をする場合,名詞句の並列ではカンマを区切り文字として最初と最後以外の並列句の範囲を予測しても誤りが少ないが,文や従属節の並列の場合は同格表現で使用されるカンマが含まれる場合があるため,カンマを区切り文字として並列句を分割した場合に誤ることが考えられる.先行研究の手法と比較をすると並列句の類似性のみに着目した原らの手法では,非類似となる傾向の高い並列句については範囲を捉えることができなかったが,提案手法では類似性に基づく特徴ベクトルのみならず可換性に基づく特徴ベクトルを取り入れることで並列句の範囲同定の再現率が向上している.また,Ficlerらの手法では並列句の可換性についての特徴ベクトルの計算には,並列キーに先行する並列句と並列構造の直後に出現する語句との接続,並列キーに後続する並列句と並列構造の直前に出現する語句との接続についての演算は行われておらず,非類似だが可換である傾向の高い文において精度が低いことの一因となっている可能性がある.代わりに文の先頭から並列キーの直前までと文の末尾から並列キーの直後までをLSTMで演算を行っていることから,動詞句の並列のような文脈・語法の情報がより有効に働くと考えられる並列句の場合は,提案手法より優れた性能を発揮すると考えられる.
\section{おわりに}
\label{sec:conc}本研究では,並列句の類似性・可換性の二つの性質を特徴として用い,並列句の範囲の同定を行う手法を提案した.ニューラルネットワークによって単語の表層的な情報だけではなく文脈情報などの深層的な情報を用いることで,類似となる並列句のみならず非類似となる並列句の範囲同定でも高い性能を発揮し,英語の並列句の範囲同定のタスクにおいて先行研究を上回る再現率を達成した.提案手法は外部のシソーラスや構文解析器を必要とせず解析が行える点で貢献が大きい.提案手法の課題として,提案手法は個々の並列句の範囲を直接的に学習・予測する手法ではないため,モデルを拡張して個々の並列句を取り扱えるようにすることが挙げられる.その際には,並列句の範囲の組み合わせが爆発的に増加するが,それらの計算量を抑えつつ,三つ以上の並列句についても同時に取り扱うことも課題として挙げられる.また,提案手法は文中の複数の並列構造の範囲について独立して学習・予測をしているため,今後は複数の並列構造の範囲が競合しないような制約を与え,同時に解析できるよう改善する予定である.\acknowledgment本研究の一部は,JSTCREST(課題番号:JPMJCR1513)の助成を受けて実施された.また,本研究の一部は,情報処理学会第232回自然言語処理研究会\cite{teranishi-EtAl:2017:SIG-NL}およびThe8thInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP2017)\cite{teranishi-EtAl:2017:IJCNLP}で発表したものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bengio,Ducharme,Vincent,\BBA\Jauvin}{Bengioet~al.}{2003}]{bengio-EtAl:2003:JMLR}Bengio,Y.,Ducharme,R.,Vincent,P.,\BBA\Jauvin,C.\BBOP2003\BBCP.\newblock\BBOQANeuralProbabilisticLanguageModel.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf3},\mbox{\BPGS\1137--1155}.\bibitem[\protect\BCAY{Ficler\BBA\Goldberg}{Ficler\BBA\Goldberg}{2016a}]{ficler-goldberg:2016:ACL}Ficler,J.\BBACOMMA\\BBA\Goldberg,Y.\BBOP2016a\BBCP.\newblock\BBOQCoordinationAnnotationExtensioninthePennTreeBank.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\834--842},Berlin,Germany.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Ficler\BBA\Goldberg}{Ficler\BBA\Goldberg}{2016b}]{ficler-goldberg:2016:EMNLP}Ficler,J.\BBACOMMA\\BBA\Goldberg,Y.\BBOP2016b\BBCP.\newblock\BBOQANeuralNetworkforCoordinationBoundaryPrediction.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\23--32},Austin,Texas.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Hanamoto,Matsuzaki,\BBA\Tsujii}{Hanamotoet~al.}{2012}]{hanamoto-EtAl:2012:EACL}Hanamoto,A.,Matsuzaki,T.,\BBA\Tsujii,J.\BBOP2012\BBCP.\newblock\BBOQCoordinationStructureAnalysisusingDualDecomposition.\BBCQ\\newblockIn{\BemProceedingsofthe13thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\430--438},Avignon,France.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Hara,Shimbo,Okuma,\BBA\Matsumoto}{Haraet~al.}{2009}]{hara-EtAl:2009:ACL-IJCNLP}Hara,K.,Shimbo,M.,Okuma,H.,\BBA\Matsumoto,Y.\BBOP2009\BBCP.\newblock\BBOQCoordinateStructureAnalysiswithGlobalStructuralConstraintsandAlignment-BasedLocalFeatures.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheACLandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP},\mbox{\BPGS\967--975},Suntec,Singapore.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Hashimoto,Xiong,Tsuruoka,\BBA\Socher}{Hashimotoet~al.}{2017}]{hashimoto-EtAl:2017:EMNLP}Hashimoto,K.,Xiong,C.,Tsuruoka,Y.,\BBA\Socher,R.\BBOP2017\BBCP.\newblock\BBOQAJointMany-TaskModel:GrowingaNeuralNetworkforMultipleNLPTasks.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1923--1933},Copenhagen,Denmark.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Hochreiter\BBA\Schmidhuber}{Hochreiter\BBA\Schmidhuber}{1997}]{hochreiter-schmidhuber:1997:NC}Hochreiter,S.\BBACOMMA\\BBA\Schmidhuber,J.\BBOP1997\BBCP.\newblock\BBOQLongShort-TermMemory.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf9}(8),\mbox{\BPGS\1735--1780}.\bibitem[\protect\BCAY{Ji\BBA\Eisenstein}{Ji\BBA\Eisenstein}{2013}]{ji-eisenstein:2013:EMNLP}Ji,Y.\BBACOMMA\\BBA\Eisenstein,J.\BBOP2013\BBCP.\newblock\BBOQDiscriminativeImprovementstoDistributionalSentenceSimilarity.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\891--896},Seattle,Washington,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2008}]{kawahara-kurohashi:2008:Coling}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQCoordinationDisambiguationwithoutAnySimilarities.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics(Coling2008)},\mbox{\BPGS\425--432},Manchester,UK.Coling2008OrganizingCommittee.\bibitem[\protect\BCAY{Kim,Ohta,Tateisi,\BBA\Tsujii}{Kimet~al.}{2003}]{Kim-EtAL:2003:BioInfo}Kim,J.~D.,Ohta,T.,Tateisi,Y.,\BBA\Tsujii,J.\BBOP2003\BBCP.\newblock\BBOQGENIAcorpus---asemanticallyannotatedcorpusforbio-textmining.\BBCQ\\newblock{\BemBioinformatics},{\Bbf19}(suppl1),\mbox{\BPGS\i180--i182}.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2014}]{kingma-ba:2014:ArXiv}Kingma,D.~P.\BBACOMMA\\BBA\Ba,J.\BBOP2014\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblockarXivpreprintarXiv:1412.6980.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1994}]{kurohashi-nagao:1994:CL}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQASyntacticAnalysisMethodofLongJapaneseSentencesBasedontheDetectionofConjunctiveStructures.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf20}(4),\mbox{\BPGS\507--534}.\bibitem[\protect\BCAY{Parker,Graff,Kong,Chen,\BBA\Maeda}{Parkeret~al.}{2011}]{en-gigaword5}Parker,R.,Graff,D.,Kong,J.,Chen,K.,\BBA\Maeda,K.\BBOP2011\BBCP.\newblock\BBOQEnglishGigawordFifthEdition.\BBCQ\LDC2011T07.\bibitem[\protect\BCAY{Pascanu,Mikolov,\BBA\Bengio}{Pascanuet~al.}{2013}]{pascanu-EtAL:2013:PMLR}Pascanu,R.,Mikolov,T.,\BBA\Bengio,Y.\BBOP2013\BBCP.\newblock\BBOQOntheDifficultyofTrainingRecurrentNeuralNetworks.\BBCQ\\newblockInDasgupta,S.\BBACOMMA\\BBA\McAllester,D.\BEDS,{\BemProceedingsofthe30thInternationalConferenceonMachineLearning},\lowercase{\BVOL}~28of{\BemProceedingsofMachineLearningResearch},\mbox{\BPGS\1310--1318},Atlanta,Georgia,USA.PMLR.\bibitem[\protect\BCAY{Petrov,Barrett,Thibaux,\BBA\Klein}{Petrovet~al.}{2006}]{petrov-EtAl:2006:COL-ACL}Petrov,S.,Barrett,L.,Thibaux,R.,\BBA\Klein,D.\BBOP2006\BBCP.\newblock\BBOQLearningAccurate,Compact,andInterpretableTreeAnnotation.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\433--440},Sydney,Australia.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Shimbo\BBA\Hara}{Shimbo\BBA\Hara}{2007}]{shimbo-hara:2007:EMNLP-CoNLL}Shimbo,M.\BBACOMMA\\BBA\Hara,K.\BBOP2007\BBCP.\newblock\BBOQADiscriminativeLearningModelforCoordinateConjunctions.\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL)},\mbox{\BPGS\610--619},Prague,CzechRepublic.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Srivastava,Hinton,Krizhevsky,Sutskever,\BBA\Salakhutdinov}{Srivastavaet~al.}{2014}]{srivastava-EtAL:2014:JMLR}Srivastava,N.,Hinton,G.~E.,Krizhevsky,A.,Sutskever,I.,\BBA\Salakhutdinov,R.\BBOP2014\BBCP.\newblock\BBOQDropout:ASimpleWaytoPreventNeuralNetworksfromOverfitting.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf15},\mbox{\BPGS\1929--1958}.\bibitem[\protect\BCAY{Tai,Socher,\BBA\Manning}{Taiet~al.}{2015}]{tai-EtAl:2015:ACL-IJCNLP}Tai,K.~S.,Socher,R.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQImprovedSemanticRepresentationsFromTree-StructuredLongShort-TermMemoryNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\1556--1566},Beijing,China.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Teranishi,Shindo,\BBA\Matsumoto}{Teranishiet~al.}{2017}]{teranishi-EtAl:2017:IJCNLP}Teranishi,H.,Shindo,H.,\BBA\Matsumoto,Y.\BBOP2017\BBCP.\newblock\BBOQCoordinationBoundaryIdentificationwithSimilarityandReplaceability.\BBCQ\\newblockIn{\BemProceedingsoftheEighthInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\264--272},Taipei,Taiwan.AsianFederationofNaturalLanguageProcessing.\bibitem[\protect\BCAY{寺西\JBA進藤\JBA松本}{寺西\Jetal}{2017}]{teranishi-EtAl:2017:SIG-NL}寺西裕紀\JBA進藤裕之\JBA松本裕治\BBOP2017\BBCP.\newblockニューラルネットワークに基づく並列句表現の学習と構造解析.\\newblock\Jem{情報処理学会第232回自然言語処理研究会(SIG-NL)},5\JNUM.\bibitem[\protect\BCAY{Toutanova,Klein,Manning,\BBA\Singer}{Toutanovaet~al.}{2003}]{toutanova-EtAl:2003:NAACL}Toutanova,K.,Klein,D.,Manning,C.~D.,\BBA\Singer,Y.\BBOP2003\BBCP.\newblock\BBOQFeature-richPart-of-speechTaggingwithaCyclicDependencyNetwork.\BBCQ\\newblockIn{\BemProceedingsofthe2003ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsonHumanLanguageTechnology-Volume1},NAACL'03,\mbox{\BPGS\173--180},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Tsatsaronis,Schroeder,Paliouras,Almirantis,Androutsopoulos,Gaussier,Gallinari,Artieres,Alvers,Zschunke,\BBA\Ngomo}{Tsatsaroniset~al.}{2012}]{tsatsaronis-EtAl:2012:AAAI}Tsatsaronis,G.,Schroeder,M.,Paliouras,G.,Almirantis,Y.,Androutsopoulos,I.,Gaussier,E.,Gallinari,P.,Artieres,T.,Alvers,M.~R.,Zschunke,M.,\BBA\Ngomo,A.-C.~N.\BBOP2012\BBCP.\newblock\BBOQBioASQ:AChallengeonLarge-ScaleBiomedicalSemanticIndexingandQuestionAnswering.\BBCQ\\newblockIn{\BemAAAIFallSymposiumSeries:InformationRetrievalandKnowledgeDiscoveryinBiomedicalText}.\bibitem[\protect\BCAY{Yoshimoto,Hara,Shimbo,\BBA\Matsumoto}{Yoshimotoet~al.}{2015}]{yoshimoto-EtAl:2015:IWPT}Yoshimoto,A.,Hara,K.,Shimbo,M.,\BBA\Matsumoto,Y.\BBOP2015\BBCP.\newblock\BBOQCoordination-AwareDependencyParsing(PreliminaryReport).\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalConferenceonParsingTechnologies},\mbox{\BPGS\66--70},Bilbao,Spain.AssociationforComputationalLinguistics.\end{thebibliography}\begin{biography}\bioauthor{寺西裕紀}{2014年慶應義塾大学商学部卒.同年,株式会社アイスリーデザイン入社.Web・モバイルアプリケーションの開発・運用に従事.2018年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年,同学先端科学技術研究科情報科学領域博士後期課程入学.自然言語処理の研究に従事.}\bioauthor{進藤裕之}{2009年,早稲田大学先進理工学研究科博士前期課程修了.同年NTTコミュニケーション科学基礎研究所入所.2013年,奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2014年より現在まで,奈良先端科学技術大学院大学情報科学研究科助教.これまで,主に自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.2016年9月より理研AIP知識獲得チームPI兼務.工学博士.自然言語理解と機械学習に興味を持つ.情報処理学会,人工知能学会,AAAI,ACL,ACM各会員.情報処理学会フェロー.ACLFellow.}\end{biography}\biodate\end{document}
| |
V06N04-03 | \section{まえがき}
現代日本語で「うれしい」「悲しい」「淋しい」「羨ましい」などの感情形容詞を述語とする感情形容詞文には,現在形述語で文が終止した場合,平叙文の際,一人称感情主はよいが二人称,三人称感情主は不適切であるというような,人称の制約現象がある\footnote{本稿で言う「人称」とは,「人称を表す専用のことば」のことではない.ムードと関連する人称の制約にかかわるのは「話し手」か「聞き手」か「それ以外」かという情報である.よって,普通名詞であろうと,固有名詞であろうと,ダイクシス専用の名詞であろうと,言語化されていないものであろうと,それがその文の発話された状況において話し手を指していれば一人称,聞き手を指していれば二人称,それ以外であれば三人称という扱いをする.\\a.太郎は仕事をしなさい.\\b.アイちゃん,ご飯が食べたい.(幼児のアイちゃんの発言)\\a.の「太郎」は二人称,b.の「アイちゃん」は一人称ということである.}.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(1)]\{わたし/??あなた/??太郎\}はうれしい.\item[(2)]\{わたし/??あなた/??太郎\}は悲しい.\end{itemize}\end{quote}\vspace{0.3cm}このとき,話し手が発話時に文をどのようなものと捉えて述べているかを表す「文のムード」\footnote{文のムードとは,話し手が,文を述べる際,どのような「つもり」であるのかを示す概念である.文を聞き手に対してどのように伝えるか(例えば,命令,質問など)ということと共に,話し手が,発話内容に対してどのように判断しているか(例えば確信,推量,疑念など)も文のムードである.これを「モダリティ」と呼ぶこともあるが,本稿では,こういった文の述べ方に対する概念的区分を,「ムード」と呼び,ムードが具体的に言語化された要素を「モダリティ」と呼ぶ.例えば「明日は晴れるだろう.」という文では,発話内容に対して推量していることを聞き手に伝え述べるというムードを持つのが普通であり,「だろう」は推量を表すモダリティである.}によって,感情形容詞の感情の主体(感情主)が,話し手である一人称でしかありえない場合と,やや不自然さはあるものの文脈によっては,二人称,三人称の感情主をとることが可能な場合がある\cite{東1997,益岡1997}.(3)(4)のように,話し手の発話時の感情を直接的に表現している「感情表出のムード」を持つ「感情表出文」(\cite{益岡1991,益岡1997}で「情意表出型」とされる文の一部)では,感情主は一人称に限定される.「感情表出のムード」とは話し手が発話時の感情を「思わず口にした」ようなものであり,聞き手に対してその発話内容を伝えようというつもりはあってもなくてもよいものである\footnote{感情表出文は,「まあ」「きゃっ」「ふう」など,発話者が自分の内面の感情を聞き手に伝達する意図なく発露する際に用いられる感嘆語と共起することが多いことから,聞き手への伝達を要しないものであることが分かる.\\きゃっ,うれしい.\\ふう,つらい.\\一方,「さあ」「おい」「よお」など,聞き手に何らかの伝達を意図する感嘆語と共起した場合,感情形容詞述語文であっても,感情表出文にはならない.\\さあ,悲しい.\\おい,寂しい.\\ただし,「まあ」などの感嘆語は感情表出文にとって必須ではない.}.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(3)]まあ,うれしい.\item[(4)]ええ憎い,憎らしい・・・・・人の与ひょうを〔木下順二『夕鶴』〕\end{itemize}\end{quote}\vspace{0.3cm}一方,客観的に捉えた発話内容を述べ,聞き手に伝え述べるという「述べ立てのムード」(\cite{仁田1991}第1,2章参照)を持つ「述べ立て文」(\cite{益岡1997}で「演述型」とされる文)における人称の制約は弱い.一般的には,(益岡~1997(:4))で述べられている「人物の内的世界はその人物の私的領域であり,私的領域における事態の真偽を断定的に述べる権利はその人物に専属する.」という語用論的原則により,(5)(6)のような感情を表す形容詞(益岡によれば「私的領域に属する事態を表現する代表的なもの」)を述語にする文において「あなた」「彼女」に関する事態の真偽を断定的に述べることは不適格である\footnote{ここでは,語用論的に不適切であると考えられる文を,\#でマークし,文法的に不適切であることをあらわす*とは区別して用いる.}.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(5)]夫が病気になったら\{わたし/\#あなた/\#彼女\}はつらい.\item[(6)]海外出張は\{わたし/\#あなた/\#彼女\}には楽しい.\end{itemize}\end{quote}\vspace{0.3cm}しかし,このような語用論的原則は,文脈や文体的条件\footnote{文体的な条件によって人称制約が変わるというのは,小説などにおいて一般的な日常会話と語用論的原則が異なってくることから生じるものである.\cite{金水1989}参照}などにより,その原則に反した発話でも許される場合があるのである.(7)は感情主を数量子化したもの,(8)は小説という文体的条件による.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(7)]海外出張は誰にでも楽しい.\item[(8)]それをこさえるところを見ているのがいつも安吉にはたのしい.(中野重治『むらぎも』)\end{itemize}\end{quote}\vspace{0.3cm}こういった人称制約のタイプを語用論的な人称の制約とする.\cite{東1997}では,前者のように人称が限定されるタイプの人称制約を「必然的人称指定」,後者のように語用論的に限定される人称制約を「語用論的人称制限」と呼び区別した.(益~岡~1997(:2))でも情意表出型と演述型の人称制限の違いを,後者のみが日本語特有の現象と捉え,区別する必要を述べている.しかし,従来の研究においては,その「感情表出(情意表出)のムード」がどのようなものであるかということは明確に規定されておらず,また,どのように感情主が一人称に決定されるのかという人称決定のシステムも描かれてきていない\footnote{(益岡1997(:2))でも「悲しいなあ.」のような「内面の状態を直接に表出する文の場合,感情主が一人称に限られるのは当然のこと」とされている.}.そこで,本稿では,以下の手順で「感情表出文」について明らかにしていく.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(I)]人称の制約が文のムードと関係して生じていることを確認する(2.1)\item[(II)]感情表出文は,そのムードが述語主体を常に一人称に決定するものであることを定義づける.(2.2)\item[(III)]感情表出文として機能し解釈されるためには一語文でなければならないことを主張する.(3)\item[(IV)]感情表出文のムードの性質から(III)を導き出す.(4)\end{itemize}\end{quote}\vspace{0.3cm}また,ここでは,人称制約を受ける部分を「ガ格(主格)」ではなく,「感情主」という意味役割を伴うもので扱う.感情形容詞述語は「感情主」と「感情の対象」(時にはそれは「感情を引き起こす原因」)を意味役割として必要とするが,人称の制約を受ける感情主は,ガ格とニ格とニトッテ格で表される可能性があるからである.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(9)]\underline{\{私/\#彼\}は}仕事が楽しい.\end{itemize}\end{quote}\vspace{0.3cm}(9)の「は」によって隠されている格を表わそうとすれば,三つの可能性があるが,どれも意味役割は感情主であり等価である.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(10)]a\underline{私が}仕事が楽しいコト\\b\underline{私に}仕事が楽しいコト\\c\underline{私にとって}仕事が楽しいコト\end{itemize}\end{quote}\vspace{0.3cm}また,(10)aにおけるガ格「私が」「仕事が」で,人称の制約がかかるのは,感情主「私が」だけであり,意味役割が感情の対象である「仕事が」には人称の制約がかかることはない.さらに,(9)の主題は,感情主であるため人称の制約があるが,(11)の主題「仕事は」には人称の制約はない.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(11)]仕事は\{私/\#あなた\}は楽しい.\end{itemize}\end{quote}\vspace{0.3cm}このようなことから,本稿では人称制約に関わる名詞句と述語との関係を意味役割で捉える.
\section{感情主の人称制約と文のムード}
先に,文のムードによって感情主の人称制約のあり方が違うことを指摘したが,ここでは,人称の制約現象が,文のムードと関係して生じているものであることを,形容詞句の統語的な位置付けから確認する.まず,ムードを持たない統語的位置に形容詞句があるときには感情主の人称の制約がないことから,人称の制約は,ムードを伴うことによって生じることを示す.さらに,述べ立て文と感情表出文における感情形容詞文の人称の制約現象を比較し,両者の人称制約は,全く性質の異なるものであることを主張する.\subsection{ムードを持たない統語的位置における感情主}感情形容詞を述語とする文に,常に感情主の人称制約があるかというとそうではない.(12)〜(16)のような文には,感情主の人称の制約はない.これらには,文脈がどうであろうと,語用論的な制約もかからず,どの人称もあらわれ得る.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(12)][[\underline{よし子にとっては}うらやましい]話]だ.\item[(13)]こどもの成長は[[\underline{親にとって}うれしい]もの]だ.\item[(14)][[\underline{あなたが}悲しい]とき],彼女なら慰めてくれるだろう.\item[(15)][[\underline{私が}苦しい]の]は,あなたのせいじゃない.\end{itemize}\end{quote}\vspace{0.3cm}統語構造上,形容詞句は名詞句の内部に現れ,\cite{南1993}の階層で言えばB類に相当するところにあると言える.文のムードは南の階層のB類では担わない\footnote{\cite{南1993}では,様々な節の内部にどのような文の要素が含まれ得るかによって,文の階層構造を示した.代表的な例をあげておこう.}.\begin{figure}[b]\vspace{-0.6cm}\begin{tabular}{c}\begin{minipage}[c]{13.0cm}\footnotesize\begin{flushleft}・ナガラ節(平行継続):程度副詞,ガ格以外の格,動詞,ボイス,尊敬などを含み得る→A類\\美佐子は[ちらちらテレビを見ながらA]勉強した.\\*[美佐子がテレビを見ながらA],良夫が勉強した.\\・ノニ節:A類の要素,場所の修飾語,対比のハ,ガ格,ナイ,タなどを含み得る→B類\\[彼が[病院に行かA]ないのにB],私だけ行くのはいやだ.\\*[彼は[病院に行かA]ないだろうのにB],私だけ行くのはいやだ.\\・カラ節:A類,B類の要素,主題,マイ,ダロウなどを含み得る→C類\\[彼は[病院に行くA]だろうからC],私も準備しておこう.\\題述関係はC類の階層に属し,ここにおいて主題とムードが呼応している.\end{flushleft}\end{minipage}\\\end{tabular}\end{figure}\normalsize\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(16)]*[[\underline{よし子は}うらやましい\underline{だろう}]話]だ.\item[(17)]*[[\underline{太郎は}花子の死が悲しくある\underline{まい}]の]は当然だ.\end{itemize}\end{quote}\vspace{0.3cm}このように,文のムードと関わりのない統語的位置に,感情主と形容詞があるときには,感情形容詞文に人称制約は全くないのである.一方,ムードを担う文末に形容詞があったり,モダリティがムードを指定している文では人称の制約が働く.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(18)]\#\underline{よし子は}その話が\underline{うらやましい}.\item[(19)]\#\underline{私は}その話がうらやましい\underline{だろう}.\end{itemize}\end{quote}\vspace{0.3cm}よって,人称の制約現象は,明らかに,ムードとの関連のなかで生じている現象であることがわかる.\subsection{人称制約のある文と文のムード}感情形容詞文の感情主に人称の制約があると言っても,そのあり方は一元的ではなく,「語用論的人称制限」と「必然的人称指定」があることは,1.まえがきにも述べた.それぞれについてムードと人称の制約との関係を確認し,その上で,感情表出のムードを定義しよう.\subsubsection{2.2.1語用論的人称制限−述べ立てのムードの文}先述の\cite{益岡1997}において明らかにされたように,述べ立て文において,話者以外の感情(私的領域に属する事象)を,話者が断定的に述べることは,語用論的に避けられるべきことである.しかし,その原則が,文体,文脈的条件によって,適用されていない例を見てみよう.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(20)]シルレルの名を聞くことがもう\underline{僕に}は辛い.(小林秀雄『ドストエフスキーの生活』)\item[(21)]それをこさえるところを見ているのがいつも\underline{安吉に}はたのしい.((8)再掲)\item[(22)]\underline{榊山}は嬉しかった.(檀一雄『花筐』)\item[(23)]「私,自殺まで考えたのよ.どう責任とってくれるの.」\\「わかった.\underline{あなた}はつらかった.それはわかったから,今日のところは引き取ってくれ.」\end{itemize}\end{quote}\vspace{0.3cm}(20)〜(22)は小説からの引用であり,小説という文体では自然な表現であるが,一人称感情主の(20)以外,日常的な対話の場でこのような文は不自然である.また,(23)は話し手が聞き手に抗議された内容をまとめて,過去のコトガラとして強引に提示するような場面で用いられている.どれも,述べ立てのムードの文である.また,\cite{益岡1997}の原則とは別に,三人称の感情主がもっとも適切だが,文体,文脈的条件によって,一人称,二人称でも容認可能になる例もある\footnote{本稿の立場とは異なり,感情形容詞述語が一人称の感情主をとることを基本と考えてきたような研究においては,三人称をとる文は「人称制限解除」として,先の2.1の条件と同等に扱われた.しかし,どの人称も問題なくとれる2.1のものと,三人称をとりやすいこれらとは,当然別に扱うべきである.}.これらは,推し量り形式のモダリティが後接したものである.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(24)]\{\#\underline{わたし}/\#\underline{あなた}/\underline{太郎}\}はうれしい\underline{だろう}.\item[(25)]\{\#\underline{わたし}/\#\underline{あなた}/\underline{太郎}\}は連敗が悔しい\underline{にちがいない}.\end{itemize}\end{quote}\vspace{0.3cm}(24)(25)は,一,二人称の感情主では,普通不自然である.しかし,条件節などによって仮定の出来事であるという文脈的意味があれば,適切になるような性質のものである.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(26)]僕が彼女と別れたら,\underline{あなた}はうれしいだろう.\item[(27)]今はまだ自分の実力に自信がない.連敗しても仕方ないと思う.しかし,将来羽生善治氏のような栄光を手に入れたとして,その後名もない人に連敗などしたら……そんなことになったら,\underline{わたし}は連敗が悔しいにちがいない.\end{itemize}\end{quote}\vspace{0.3cm}これら人称制約が生じることのある感情主は,どれも文の主題であり,\cite{南1993}の階層ではムードと呼応する階層(C類)のものである(註7参照).そして,(20)〜(27)の例はみな,述べ立て文である.述べ立てのムードを持つ文の語用論的な人称の制約のあり方は,\cite{仁田1991}(第二章)に詳しいが,そこでは次のような例があげられている\footnote{仁田はこれらの人称を「ガ格」としているが,「主題の人称制約」とすべきであろう(\cite{東1997},本稿「まえがき」参照)}.(例とその判定は(仁田1991(:83—93))より.ただし,仁田論文において語用論的な人称制約で不適切な文についても用いられている*を,ここでは\#に書き換えた.)\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(28)]\{私/\#あなた\}は母が恋しい.\item[(29)]?ほら,君,転んだよ.\item[(30)]\#僕は彼を殴っただろう.\item[(31)]\#君は頭が痛い\{だろう/らしい/かもしれない\}.\end{itemize}\end{quote}\vspace{0.3cm}感情形容詞文の,文体,文脈的条件で変化する人称の制約も,こういった述べ立て文における人称制限そのものである.このように,文体,文脈的条件によって人称の制約の変化する感情形容詞文の人称の制約は,感情形容詞文に特有の現象ではなく,述べ立て文全体に存在する,語用論的な現象なのである.\subsubsection{2.2.2必然的人称指定−感情表出のムードの文}次に,常に感情主が一人称に決定されるような文をあげよう.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(32)]嬉しい.ねえ,しばらくでいいから,いっしょに連れて歩いて.(丸谷才一『笹まくら』)\item[(33)]ええ憎い,憎らしい・・・・人の与ひょうを((4)再掲)\item[(34)]「悲しいわ.」駒子はひとりごとのように呟いて(後略)(川端康成『雪国』)\end{itemize}\end{quote}\vspace{0.3cm}これらの感情形容詞文の感情主は,言語化されていないが,話し手に決定している.これらの文が担っているのが感情表出のムードであり,「感情表出文」は,次のように定義されるであろう.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(35)]発話者の発話時に生じる感情的状態を,客観的判断過程を通さず,直接的に表現した文\end{itemize}\end{quote}\vspace{0.3cm}しかしここで問題になるのは,「直接的に表現」することの意味である.先行の研究において感情表出は以下のように定義されているが,その議論をたどり,扱われている例文を見ても,「表出」することと「述べ立てる」こととの違いは鮮明でない.「表現時の感情」を単に述べることと「表出」することの本質的な違いについては説明されてきていないのである.\vspace{0.3cm}\begin{itemize}\item[](寺村1984(:349)):話し手のそのときの気持の直接的な表出\item[](益岡1991(:80-81))\begin{itemize}\item[-]対話文の「情意表出型」:表現時において,話し手の内面に存する感情・感覚や意志の内容を情報として聞き手に伝える働きを持つ.\item[-]非対話文の「情意表出型」:表現主体の内面にある感情・感覚や意思を表すもの\end{itemize}\item[]\cite{山岡1997}:発話時の話者の感情を直接表出する文.\end{itemize}\vspace{0.3cm}述べ立てと表出とは,以下のような点で,明らかに異なる.「述べ立て」文は,発話者が,何について述べるのか(文の主題)を多くの候補の中から選び出し,それについて述べるものである.述べられるものが「発話者自身」であり,また,述べる内容が「発話者の感情」であれば,一人称感情主についてその感情を述べる文になる.それは,三人称主題についての述べ立て文とムード的には何ら変わりない.「述べ立て」のムードの文においては,基本的にどんな人称も主題にできる\footnote{(37)は,主題が小説の登場人物であるなど何らかの条件で発話者が心理的共感を持たなければ述べにくい内容ではあるが.}\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(36)]私は試験がつらい.\item[(37)]太郎は試験がつらい.\item[(38)]この自動車は古い.\end{itemize}\end{quote}\vspace{0.3cm}一方「表出」は,ムードそのものが,発話者の感情を述べることを含み込んでおり,常に,感情主は発話者,すなわち一人称に決定している.述べ立て文のように,何について述べるのかの選択の余地はない.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(39)]つらい!(感情主=発話者(一人称))\end{itemize}\end{quote}\vspace{0.3cm}こうしたことから,ここで「表出」というものを次のように定義する.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(40)]表出文:その文のムードが述語主体を常に一人称に決定するもの\footnote{同じ表出のムードである「意志表出」でも同様に,ムードにより動作主が決定している.\\よし,手術をしよう.(動作主=発話者(一人称))\\感情表出文と意志表出文の関係は次のようになる.\\感情表出文:述語主体が感情主(例:うれしい!)\\意志表出文:述語主体が動作主(例:明日こそ宿題をやろう!)}\end{itemize}\end{quote}\vspace{0.3cm}感情を表す述語としては,形容詞だけでなく感情動詞もある.しかし感情や感覚,心理を表す述語であっても,動詞文では多くのものが(41)(42)のように感嘆語と共起しても発話者の感情を表出する文にはならない.(44)(45)のような一部の動詞のみ\footnote{註14にも引用したように,多くの動詞は,話し手自身の感情を直接表出するのには用いられない.},感情表出のムードをもつことができる\footnote{感情動詞の表出文については山岡1997参照.ただし山岡の言う「感情表出」には「述べ立て文」も含まれている.山岡の示すものの中で本稿の定義に一致する感情動詞は(45)(46)のほか,「頭に来る」「困る」「むかつく」「ドキドキする」「わくわくする」など,聞き手不在で使用できる感嘆語「ああ」などと共起できる動詞である.山岡の挙げる「疑う」「照れる」「気が晴れる」「憎む」などは表出文にはならない.}.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(41)]ああ,\{喜ぶ/喜んでいる\}.(×感情表出)\item[(42)]まあ,\{悲しむ/悲しんでいる\}.(×感情表出)\item[(43)]\#私は合格を\{喜ぶ/喜んでいる\}.(×感情表出)\footnote{(寺村1982(:143))には「動詞による感情表現のほうが」形容詞より「より客観的,物語り文的」とあり,「動詞表現は,話し手自身の発話時の気持ちを直接的に表出する表現ではない」としている.そのため,述べ立て文としての語用論的な人称の制約となるが,この場合,二人称だけでなく一人称も述べにくい.一人称の感情であれば,動詞で述べるよりも形容詞で述べるほうが語用論的に適切だからである.\\\{\#わたし/\#あなた/太郎\}は合格をよろこんでいる.\\\{\#わたし/\#あなた/太郎\}は別れを悲しむ.}\item[(44)]ああ,腹が立つ.(感情表出)\item[(45)]まったく,イライラする.(感情表出)\end{itemize}\end{quote}\vspace{0.3cm}感情表出文における人称制約は,感情形容詞文と,一部の感情動詞に特有の現象なのである.以上,本章で論じた点をまとめると以下のようになる.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(46)]人称の制約のあり方は,形容詞句(一部動詞句)の統語構造上の位置と深く関係している.\end{itemize}\end{quote}\vspace{0.3cm}\[\left\{\begin{array}{ll}ムードに関係ない形容詞句(南のB類)&:人称制約なし\\ムードに関係ある形容詞句(南のC類)&\left\{\begin{array}{l}述べ立てのムードの文\\:一般的な語用論的原則から生じ\\る人称制約((24)(25))\\感情表出のムードの文\\:ムードによって人称が決定\\感情形容詞と一部の感情動詞に\\特有の現象((32)〜(34)(39))\\\end{array}\right.\\\end{array}\right.\]\vspace{0.3cm}次章ではその感情表出文について,統語的特徴を明らかにする.
\section{感情表出文の統語的特徴}
\subsection{表出文であるための条件(1)--述語の形態と条件節}感情表出が,発話時の感情を表出するということをふまえれば,まず,述語が過去形であったり\footnote{ただし,「ああ,\{怖かった/おいしかった/つらかった\}.」のように,過去形であっても感情表出文となるものもある.これらは感情を引き起こす原因が消失すればその感情も消失するようなタイプのもので,原因が消失した直後の発話としてこのような過去形の表出文が成立するようである.詳細は別稿に譲る.},述べ立てのムードをあらわすモダリティが文末にあれば,表出文でないことは明らかである.\begin{quote}\begin{itemize}\item[(47)]私は淋しかっ\underline{た}.(夏目漱石『こころ』)\item[(48)]無性に悲しかっ\underline{た}.(新田次郎『孤高の人』)\item[(49)]*ああ,\{うれしかっ\underline{た}/哀しかっ\underline{た}\}.\item[(50)]あなたも辛いだろうが,私も辛い\underline{のだ}よ」(田辺聖子『新源氏物語』)\end{itemize}\end{quote}\vspace{0.3cm}また,現在形であっても,(51)(52)のように否定形では感情表出のムードは持たない.否定というのはそもそも,肯定される事態を想定したその上で,否定するという形式である.感情表出のムードは前述したように「発話時の一瞬に生じた感情的状態を客観的判断過程を通さず直接的に表現」するものであるから,一旦想定した事態を否定するというような判断過程が入りこむ余地はなく,よって,否定形は感情表出のムードに馴染まないのである\footnote{当然の事ながら,「つまらない」「やりきれない」など,固定化した表現は,否定形ではない.}.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(51)]*まあ,嬉しくない!\item[(52)]*ああ,淋しくない!\end{itemize}\end{quote}\vspace{0.3cm}よって,否定形は述べ立てのムードになり,人称の制約も必然的なものではなくなる.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(53)]妹の店で飲んでも\{\underline{わたし/\#あなた/\#太郎}\}は楽しく\underline{ない}.\item[(54)]「お万阿,そなたのお喋りを聞いていると〔中略〕これはおもしろいわい」\\「・・・・・」と,\underline{お万阿には}ちっとも面白く\underline{ない}.(司馬遼太郎『国盗り物語』)\end{itemize}\end{quote}\vspace{0.3cm}また,条件節が前接した場合も,発話時の感情表出のムードにはならない.条件節で提示した内容が発生した時においての感情を述べることになるからである.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(55)]\underline{もし君が来てくれたら}嬉しい.(福永武彦『花の草』)\item[(56)]\underline{スキーで雨に降られると}つらい.\end{itemize}\end{quote}\vspace{0.3cm}本節で確認した感情表出文になるための条件は以下の通りである.\newpage<事実1>\begin{quote}\begin{itemize}\item[(I)]述語が現在形で,並べ立てを表すモダリティが付加しない\item[(II)]述語が肯定形\item[(III)]条件節が前後しない\end{itemize}\end{quote}\vspace{-0.5cm}\subsection{表出文であるための条件(2)--無題文}3.1で確認した事実は,感情表出文となるための必要条件であり,それだけでは表出文の特徴を記述したことにはならない.本節ではさらに感情表出文の統語的特徴を示す.(益岡1997(:2))には,情意表出型の文の説明として次のような記述がある.\vspace{0.3cm}\small\begin{quote}\begin{itemize}\item[(4)]悲しいなあ.\end{itemize}このような場合,感情主は一人称に限られるので,一般に省略される.\begin{itemize}\item[(5)]?僕は悲しいなあ.\end{itemize}\end{quote}\vspace{0.3cm}\normalsize益岡は,例(5)に「?」を付しているが,これが表出文なのか述べ立て文なのか,明確には示されていない.この文が述べ立て文であれば,「僕」について述べる述べ立て文であり,不自然さはない.しかし,例文(4)の「悲しいなあ.」が益岡の言うように「感情主が一人称に限られる」ものであるのなら,こちらは感情表出文である.(4)と同じ表出文として扱うのならば,「僕は悲しいなあ.」という文は表出文ではありえないので,「?」ではなく「*」でなければならない.なぜなら,主題文は「主題について何かを述べる」文であり,主題は述べ立て文で用いられるものだからである.感情表出文「悲しいなあ.」と述べ立て文「僕は悲しいなあ.」は,ムードの異なる文であることから,益岡のように「一般に省略される」と記述するのは誤りである.先行研究において「感情表出文」として提示された文で,客観的な判断過程を含まず「直接表出」した感情主の人称が一人称に決定しているのは次のようなものであり,どれも無題文である.\begin{quote}\begin{itemize}\item[(57)]さびしいな.(\cite{寺村1984}より)\item[(58)]哀しいね.(\cite{益岡1991}より)\item[(59)]ああ,腹が立つ.(\cite{山岡1997}より)\end{itemize}\end{quote}\vspace{0.3cm}しかし,筆者の研究も含め,従来のいくつかの研究において「感情表出文」とされた例の中には,主題を持ち,発話時の発話者の感情を表出したものとは思われないものがある.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(60)]\underline{ぼくは}蛇が怖い.(\cite{寺村1973}より)\item[(61)]\underline{私は}すしが食べたい.(同上)\item[(62)]いや,野暮なことを言って,\underline{わし}は恥ずかしい.(木山捷平『長春五馬路』)(\cite{東1997}より)\end{itemize}\end{quote}\vspace{0.3cm}それぞれの主題に話者以外の感情主をあてると,確かに,不自然な文にはなる.しかし,これらは,先の3.2で確認した語用論的な制約によるものである.それらを述べてもよいようなコンテクストさえあれば,決して非文ではない.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(63)]\underline{拓也は}蛇が怖い.\underline{慎吾は}雷が怖い.\underline{正広は}暗闇が怖い.\\まったく,ここには怖がりばかりいるなあ.\end{itemize}\end{quote}\vspace{0.3cm}また,感情主以外の主題があっても同様に述べ立て文である\footnote{(寺村~1982(:151-152))にも,以下のような記述がある.\\感情的な形容詞を述語とする感情表出の文,\\XハYガ(形容詞)\\の,X(感情主)が文の背後にかくれ,Y,つまり形容詞で表される感情の対象が文の主題となって,Yハ(形容詞)となると,それは,「一般にYがこれこれの感情を引き起こすような性格を持ったものだ」という,品定め文の一種となる.}.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(64)]\underline{人間のことを想うのは}哀しい.(大仏次郎『帰京』)\item[(65)]\underline{ゆらりゆらり輪を描いて浮いてゆくむらさき色のけむりは}愉しい.(林芙美子『放浪記』)\item[(66)]\underline{この店のコース料理には}デザートが二品ついてくるのがうれしい.\item[(67)]\underline{バスは}時間が不定期で困るよ.(赤川次郎『女社長に乾杯』)(\cite{山岡1997}より)\end{itemize}\end{quote}\vspace{0.3cm}これらの文における感情主は,必ずしも発話者とは特定できない,genericな解釈がなされる文である.「誰にとってもその感情が引き起こされるような状態」であることを述べている文なのである\footnote{\cite{寺村1982}にも,「それ(=感情主の名詞句:引用者補)が文中になければ,その品定めが「一般に,誰にとっても」そうだという意味に解釈される」とある.}.また,(64)〜(67)には「〜にとって」という形式で,感情主を挿入することができるが,感情表出文には挿入できない.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(68)]人間のことを想うのは\{私/彼女\}にとって哀しい.\item[(69)]*わあ,私にとって哀しい!\end{itemize}\end{quote}\vspace{0.3cm}よって,(68)のように感情主が挿入できる(64)〜(67)の文は述べ立て文であるといえる.もちろん,(70)(71)のように文脈上,表現されていない感情主が一人称であると考えたほうが妥当なものもあるが,これらも状態を叙述する述べ立て文であることには変りない.同様のことは属性形容詞文((72))にもある.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(70)]今日は母の手蹟を見るのがはなはだ嬉しい.(夏目漱石『三四郎』)\item[(71)](八月×日)\\よそへ行って外のカフエーでも探してみようかと思う日もある.まるでアヘンでも吸っているように,ずるずるとこの仕事に溺れて行く事が悲しい.(林芙美子『放浪記』)\item[(72)]私は暗記が苦手だ.特に英単語を覚えるのは難しい.\end{itemize}\end{quote}\vspace{0.3cm}また,本来は主題があるが,文脈上省略されて隠れている文の場合も,やはり感情表出文にはならない.次の例で,下線の文はそれぞれ「私は」「加恵は」という主題が省略されており,述べ立て文である.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(73)]本当にいやないたずらね.\underline{嘘と分かっていても腹が立つわ}.(赤川次郎『女社長に乾杯』)(\cite{山岡1997}より)\item[(74)]加恵はそれを娘を喪った悲しみが躰にも響くのだと思っていた.目を押え,拭いながら,加恵は前々通りに家の中の雑事を片付けていた.しかし,夜になるとしみじみと娘が恋しかった.於継はそれを身を切り裂きたいようであったといったが,同じ悲しみでも加恵の性格ではそういう烈しさよりも全身の力が脱け落ちている.\underline{苛立たしいほど虚しくて,どうすることもできないほど淋しい}.加恵は自分の瞼にじっとりと滲み出るのは,涙ではなくて血なのではないかと思っていた.(有吉佐和子『華岡青州の妻』)\end{itemize}\end{quote}\vspace{0.3cm}以上の観察から,次のことが言える.<事実2>\begin{itemize}\item[]感情表出文は,主題を持てない.\footnote{同じ表出文である意志表出文も同様の特徴を持つ.意志表出文において「は」は常に「対比」の意味を持つ.(\cite{東1997}参照)}\end{itemize}\subsection{述語のみの文(統語的に未分化の文)}では,3.1の条件を満たし,無題文であれば,感情表出文なのであろうか.元来感情形容詞文は,感情の対象または感情主をとり,形容詞句を作るものである.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(75)]\underline{この授業が}つまらない(のは先生のせいだ.)\\(感情の対象)\item[(76)]\underline{私が}悲しい(ことをみんなは知らない.)\\(感情主)\item[(77)]\underline{彼にとって}\underline{社長との再会が}うれしい(はずはない.)\\(感情主)(感情の対象)\end{itemize}\end{quote}\vspace{0.3cm}ところが,先の感情表出文の例((57)〜(58))は,無題文であるだけでなく,そのどちらをも言語化していない\footnote{「腹が立つ」は,「立つ」という動詞が感情述語で対象に「腹」を取っているわけではない.}.(例文再掲)\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(57)]さびしいな.\item[(58)]哀しいね.\item[(59)]ああ,腹が立つ.\end{itemize}\end{quote}\vspace{0.3cm}このように感情主も感情の対象も言語化しない文が感情表出文となる.意味役割からすれば,感情形容詞文は,「感情主」「感情の対象」をとる可能性がある.しかし,それらの意味役割を助詞を伴って言語化した文は,感情表出文にならないのである.感情主や感情の対象を言語化した例において,(40)の定義のように,感情主が一人称に決定しているかどうか確認してみよう.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(78)a]わたしが淋しい.\item[b]わたし,淋しい.\end{itemize}\end{quote}\vspace{0.3cm}(78)は,感情主を言語化した例である.abそれぞれについて,感情主が発話者に決定しているか否か確認しよう.次のような文脈で,感情主を訊ねる質問文の答えとしては,aを用いるのが適切であり,bは不適切である.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(79)問:]「一体誰が淋しいの?」\item[答:]a「わたしが淋しいの.」\item[]b\#「わたし,淋しいの.」\end{itemize}\end{quote}\vspace{0.3cm}このことは,(79)aは,感情主が決定していない際に用いる形式で,bは感情主が決定している形式であることを示している.aは感情主として「わたし」以外の他の候補もあり得る形式だからこそ,この文脈で自然なのである.bは,このような文脈には現れない.それ以前の文脈とは無関係に,唐突に発話されるものである.すなわち,aのように感情主がガ格で表された文は感情表出文ではなく,bのように無助詞の場合,感情主が一人称に決定している感情表出文であると言えるであろう.また,(80)〜(83)は感情の対象を言語化したものである.それぞれ,aは助詞を用いて感情の対象をあらわし,bは無助詞である.これらにおいて,感情主の人称が,発話者に決定しているかどうかを確認しよう.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(80)a]芝漬けが食べたい.\item[b]芝漬け,食べたい.\item[(81)a]この授業がおもしろい.\item[b]この授業,おもしろい.\item[(82)a]先生と会えたから嬉しい.\item[b]先生と会えた,嬉しい.\item[(83)a]卒業できなくてつらい.\item[b]卒業できない,つらい.\end{itemize}\end{quote}\vspace{0.3cm}次のような文脈での問の答えとしては,aを用いるのが適切であり,bは不適切である.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(84)問:]「\{あなた/あなたの妹\}は一体何が食べたいの?」\item[答:a]「芝漬けが食べたい.」\item[答:b]\#「芝漬け,食べたい.」\item[(85)問:]「\{あなた/あなたの妹\}はなぜ嬉しいの?」\item[答:a]「先生と会えたから嬉しい.」\item[答:b]\#「先生と会えた,嬉しい.」\end{itemize}\end{quote}\vspace{0.3cm}aの形式は,それぞれの問で示された主題を受けて,答えているものである.省略されている主題を示せば,それぞれ次のようになる.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(86)]\{私/私の妹\}は芝漬けが食べたい.\item[(86)]\{私/私の妹\}は先生と会えたから嬉しい.\end{itemize}\end{quote}\vspace{0.3cm}ところがbの形式は問に対する答として不自然である.もしこのような会話の流れの中でbのように発話したとすれば,問を無視した独白という印象を与える.bの形式では問で提示された主題を受けることができず,感情主は発話者に決定しているのである.すなわち,(80)〜(83)のbは,表出文ということになる.しかし,無助詞であれば常に表出のムードを担うわけでもない.第三者が引用した例を見てみよう.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(88)]「芝漬け食べたいって.」\item[]「誰が?」\item[]「太郎が.」\item[(89)]「わたし,淋しいって」\item[]「何が?」\item[]「彼がいなくなったことが.」\end{itemize}\end{quote}\vspace{0.3cm}こうした会話が成立することから,引用された「芝漬け,食べたい」「わたし,淋しい」の感情主は一人称と限らず,表出文でないことが分かる.(88)のように感情の対象に助詞を添えないものは「って」という形式で間接引用されれば,表出文ではなく\footnote{表出文であることを明らかにするために,感動詞を添えると,間接引用にはならず直接引用になる.感情主は当然引用元の発話現場における発話者である.\\「ああ芝漬け食べたい」って.},(89)のように感情主に助詞を添えないものは直接引用になり,「わたし」は発話者ではない.このことから,感情主や感情の対象を無助詞で表すことは,感情表出文であるための必要条件であるが,十分条件ではないことが分かる.すなわち,表出文で感情の対象を言語化しようとするのであれば,助詞を伴うことはできないということである\footnote{動詞文でも同様である.「僕が子供にイライラする.」「ああ,イライラする!(表出文)」}.こうしたことから,次のことが言える.<事実3>\begin{itemize}\item[]感情表出文では,意味役割として存在する感情主や感情の対象を格を伴った形で表現することはできない.\end{itemize}\subsection{本章のまとめ}以上,本章で見てきた感情表出文に関する事実を確認すると次のようになる.\begin{quote}\begin{itemize}\item[(I)]現在形,肯定形述語であり,並べ立てのモダリティや条件節が付加されない.\item[(II)]無題文である.\item[(III)]意味役割を格を伴う形でとらない.\end{itemize}\end{quote}上記より考察すると,感情表出文では,感情主や感情の対象を,統語的に分析的な方法では言語化しないと言える.「まあ,わたし,うれしい.」というのは,表記上読点をふればこれだけ全体で一文であるが,「まあ.わたし.うれしい.」と句点をふった三つの文と何ら変わりはない.すなわち,感情表出文は,感情主や感情の対象をとらない一語文であると言える\footnote{一文でこのような特徴を満たしていても,文脈上,感情主や感情が「省略」された場合,感情表出文でない.「先生,今回の受賞のお気持ちを聞かせて下さい.」「(わたしは)(受賞が)とても嬉しいわ.」}.このことから,次のような仮説を立てる.\begin{flushleft}<仮説>\end{flushleft}\vspace{-0.5cm}\begin{quote}\begin{itemize}\item[(I)]感情表出文では,感情主や,感情の対象を言語化しない.すなわち,述語のみの一語文でなければならない.\item[(II)]仮に言語化するとしても,格関係や,題述関係など,統語的に分析的な方法をとってはいけない.\end{itemize}\end{quote}\vspace{0.5cm}発話時の感情を直接表出する感情表出文がなぜ,述語一語文でなければならないのか,この仮説を次章において検証する.
\section{感情表出文はなぜ一語文か}
前章では,述語のみの文が,感情表出のムードを持つことができるという事実を確認した.本章では,表出文はなぜ一語文でなければならないのかを述べる.\subsection{一語文の意味決定}まず,本来とるべき意味役割を持つのにそれを言語化せず,一語文として表現される文が,どのように意味決定されるのか,その仕組みを考察してみよう.一語文の用法に関しては\cite{尾上1998}の研究があり,特に名詞一語文について詳しい分析がなされている.その中で,発話が名詞一語であることを本質的に必要としているのは「存在一語文」と名付けられたものだけであるとしている\footnote{他にも名詞一語文はあるが,それらは主述的に展開されうる文形式の一部が省略されて一語文になったものであるとされている.}.「存在一語文」とは,現場における,遭遇,発見の叫びとしての一語文であり,次のように分類されている\footnote{\cite{尾上1998}では,存在承認,存在希求それぞれがさらに,喚体的なものと伝達的なものとに下位分類されている.}.\begin{quote}\begin{itemize}\item存在承認:遭遇対象の名前を叫ぶことによって遭遇の際の急激な心的経験そのことを語るもの\\「とら!」(虎と遭遇した驚嘆を驚きとして発話する)\item存在希求:希求対象の名前を叫ぶことで希求感情そのものを結果的に表現するもの\\「水!」(砂漠で必死に水を求める)\end{itemize}\end{quote}これら存在一語文は,「述べないことによってこそ文であるという特殊な文表現\\(尾上~1998(:907))」であるが,なぜそれらが驚嘆や希求を表す文になるのかということについて,尾上では次のように説明している.\small\begin{quote}(前略)A〈存在承認〉一語文とB〈存在希求〉一語文は,「それがある」こと,「それを求める」ことを,「それ」の名を叫ぶことによって表現してしまう発話である.(中略)イマ・ココにあるものが急激に話し手の心を覆ってしまったとき,その心的経験を何らかにことばに発散しようとするなら話し手はそのものの名を叫ぶしかない.これがA1《発見・驚嘆》一語文である.また,イマ・ココにないものが話し手の心をイマ・ココで切実に充満するとき,その心的経験をことばにするなら,そのものの名を叫ぶ以外にない.これがB《希求》一語文にほかならない.(中略)対象の名を呼ぶことによってのみ果たされる表現とは,言ってしまえばイマ・ココの圧倒的な存在の承認である.(後略)\end{quote}\normalsizeすなわちこれらの一語文は,発話現場(イマ・ココ)との関係が義務的であるということである.そして,発話現場の状況と,「叫ばれた名詞」との関係によって,その発話の解釈は決定する.では,本稿で扱っている感情表出文としての一語文はどのような原理で表出文になるのであろうか.感情表出文は,名詞一語文ではなく述語一語文である\footnote{繰り返しになるが,尾上の扱った「存在一語文」と同様,感情表出文は文中の他の要素があってはならないものである.省略されているのではない.}.しかし,前章で述べたように,一語文が感情主や感情の対象を言語化しないからと言って,感情主や感情の対象そのものが存在しないわけではない.次の例では,感情主は発話者,感情の対象は()内に記したものであろう.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(90)]わあ,おもしろい.(発話者の眼前の出来事)\item[(91)]ふう,淋しい.(発話者の心中に想起されている出来事)\item[(92)]はあ,つらい.(発話者にふりかかっている事実)\item[(93)]うぅん,食べたい.(発話者の眼前のもの)\end{itemize}\end{quote}\vspace{0.3cm}これら感情主,感情の対象という意味役割に相当するものは,発話現場に依存して(もしくは拘束されて)解釈が決定している.その仕組みは以下のようである.一語文は,感情主,感情の対象といったものが統語的に存在しない.故に,それた意味役割に対し,言語文脈上の要素を参照して値を振り当てることができない.そこで,発話現場に存在する感情主(発話者),感情の対象(目前の出来事など)に,一義的に決定するのである.図示すると,(90)のような一語文が発話されたとき,発話と発話現場の関係は,図1のようである.\begin{figure}[h]\begin{center}\epsfile{file=62.eps,height=30mm}\caption{発話と発話現場の関係}\end{center}\end{figure}述語一語文の意味決定の仕組みは以下のようにまとめられる.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(94)]述語一語文では,述語の要求する意味役割は発話現場から探し出される.\end{itemize}\end{quote}\vspace{0.3cm}一語文であることで,発話現場の感情主(発話者),発話現場の感情の対象(ものや出来事)に自動的に決定するのである.このように述語一語文も発話現場と切り離せないものである.分析的に表現しないことで,発話現場とのつながりを絶対的なものとしているのである.\subsection{一語文と文のムード}述語一語文では,述語の要求する意味役割に相当するものを言語文脈上認定できないため,発話現場から探し出し決定することを前節で確認した.それは,感情表出文が「発話時の発話者の感情」を表出するものでなければならないことに適合する.\footnote{述語一語文であれば,常に「感情表出」になるわけではない.場の状況や述語の意味に応じて,様々なムードが出現する可能性がある.が,基本的に,テンスの分化のない述語一語文は,発話現場に存在する世界に直接意味役割を求めた発話になるのである.例えば「壊す.」という発話は,発話現場の2つの動作主(話し手と聞き手)のどちらをとるかによって,2種類の文のムードを持つ可能性がある.\\「壊す.」動作主→話し手→意志表出のムードになる\\→聞き手→命令のムードになる}一方,前章で立てた仮説を検証するために,意味役割を分析的に言語化した表現が,表出文になれないことを示そう.助詞を用いて分析的に表現するとき,言語化される感情主や感情の対象は,統語的に存在するので,発話現場のものである必要はない.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(98)]彼には出張中のK先生の授業がおもしろい.\item[(99)]亡き祖父は息子に先立たれてつらかった.\end{itemize}\end{quote}\vspace{0.3cm}このように発話現場に縛られない表現が可能である.仮に発話現場のものを同様に言語化していたとしても,発話現場との直接的な関係は絶たれ,言語表現として客観的に対象化される.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(100)]私には今受けているこの授業がおもしろい.\item[(101)]僕は息子に先立たれてつらい.\end{itemize}\end{quote}\vspace{0.3cm}「私」や「授業」が,発話現場のものであったとしても,助詞で関係づけている以上,言語化された世界での関係を示すだけであり,現実世界とのマッチングは表現された名詞が行うので,発話現場への直接的な値の参照は必要ないのである.意味役割は,言語化した世界で割り当てられる.言語表現という閉じた世界の中で,何が何に対してどうである,どうするなど,述語が要求する意味を満たす形で,関係づけているのである.これが一般的な文の述べ方で,「述べ立て文」であることは言うまでもない.こうした分析的な表現では,場面の状況や発話者との直接的な結びつきがないため,感情主の制約も,一,二,三人称のいずれからも選ぶ可能性がある中で,語用論的原則により一人称が選択されるということになるのである.このような事実は,\cite{山田1908,山田1936}の「喚体の文」が「非分解的である」\cite{山田1908}\footnote{(山田1908(:1209))には以下のようにある(引用者により漢字を新字体に改めた).「元来喚体句は直感的のものにして,他に之を伝ふるに又直感を以てするものにして決して解せしむる目的にあらず.感ぜしめむが目的なり.感動は直感的にして非分解的のものなり.然るに之を解釈すといふ直に了解作用の乗ずる所となりて,こゝに分離思考によらざるべからず,この故に一旦解釈すればすでに喚体文にあらず.」}ということと一致する.山田の理論を現代日本語研究に継承するために再解釈したものとして,\cite{尾上1986,堀川1996}などがあるが,両者とも,喚体と述体を区別する要因の一つとして「現場性」をあげている.喚体の文は現場性をもち,述体の文は現場からの独立性が特徴的であるという.分析的でない感情表出の表現は,現場とのつながりにおいてしか成立しえない,まさしく喚体の文と言えるのかも知れない\footnote{ただし\cite{尾上1986}では喚体の文の特徴として「ことばになるのは遭遇対象,希求対象のみで,心的経験・心的行為の面はことばにならない(:576)」とあるので「ああ,うれしい」は,述体と考えられているようである.また,\cite{尾上1998}(注2)において「あつい!」なども述体の側に位置づけると述べている.\cite{山田1908}でも,現代語で「ああうれしい」にあたる「あな,うれし.」は「感覚の言語的発表」であり,喚体には近いがあくまでも述体の文であると分類されている.}.以上のことから,次のような結論を出す.\begin{verbatim}<結論>\end{verbatim}一語文は,意味役割を発話現場から直接的に決定しなければならず,そのことと発話時,発話者,発話現場に拘束された感情表出のムードは適合する.一方,統語的に分析的な文は,統語的に表現された要素の存在から発話現場には拘束されないため,発話時,発話者の感情のみを表す感情表出文には不適切である.よって,感情表出文は述語一語文でなければならない.
\section{むすび}
本稿での主張を順次まとめると,以下のようになる.\begin{itemize}\item[(I)]統語構造上の位置から感情形容詞文の人称の制約をみると,文のムードに関係のある階層に人称の制約があらわれる.\item[(II)]感情表出のムードの文においては,感情主が一人称に限定され,他の感情主が選択される余地はない.\item[(III)]感情表出文は,発話現場から直接意味役割を捜し出す,述語一語文でなければならない.\end{itemize}このように本稿では,感情表出文を述べ立て文から分ける明確な定義づけをしたことにより,表出文が述語一語文であるという統語的特徴を示すことができた.また,なぜ,感情表出文が一語文という統語的特徴を持つのかについて,一語文の意味役割決定のシステムを描くことにより,表出のムードとの意味の適合性があることを明らかにした.\vspace{1.0cm}\begin{flushleft}<参考資料出典>\end{flushleft}\begin{itemize}\item[]中村明1979『感情表現辞典』六興出版\item[]CD−ROM版新潮文庫の100冊新潮社版\end{itemize}\newpage\bibliographystyle{jnlpbbl}\bibliography{v06n4_03}\begin{biography}\biotitle{略歴}\bioauthor{東弘子}{1997年名古屋大学大学院博士課程後期満期退学.博士(文学).以後,大学非常勤講師として国語学,言語学,日本語などを担当.日本語学(主に文法)専門.言語処理学会,国語学会,関西言語学会会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V21N03-01 | \section{はじめに}
機械翻訳システムの開発過程では,システムの評価と改良を幾度も繰り返さねばならない.信頼性の高い評価を行うためには,人間による評価を採用することが理想ではあるが,時間的な制約を考えるとこれは困難である.よって,人間と同程度の質を持つ自動評価法,つまり,人間の評価と高い相関を持つ自動評価法を利用して人間の評価を代替することが実用上求められる\footnote{本稿では,100文規模程度のコーパスを用いて翻訳システムの性能を評価すること,つまり,システム間の優劣を比較することを目的とした自動評価法について議論する.}.こうした背景のもと,様々な自動評価法が提案されてきた.BLEU\cite{bleu},NIST\cite{nist},METEOR\cite{meteor},WordErrorRate(WER)\cite{WER}などが広く利用されているが,そのなかでもBLEU\cite{bleu}は,数多くの論文でシステム評価の指標として採用されているだけでなく,評価型ワークショップにおける公式指標としても用いられており,自動評価のデファクトスタンダードとなっている.その理由は,人間による評価との相関が高いと言われていること,計算法がシステム翻訳と参照翻訳(正解翻訳)との間で一致するNグラム(一般的に$\mathrm{N}=4$が用いられる)を数えあげるだけで実装も簡単なことにある.しかし,BLEUのようにNグラムという短い単語列にのみに着目してスコアを決定すると,システム翻訳が参照翻訳のNグラムを局所的に保持しているだけで,その意味が参照翻訳の意味と大きく乖離していようとも高いスコアを与えてしまう.局所的なNグラムは一致しつつも参照翻訳とは異なるような意味を持つ翻訳をシステムが生成するという現象は,翻訳時に大きな語順の入れ替えを必要としない言語間,つまり,構文が似ている言語間の翻訳ではほとんど起こらない.例えば,構文が似ている言語対である英語,仏語の間の翻訳では大きな語順の入れ替えは必要なく,BLEUと人間の評価結果との間の相関も高い\cite{bleu}.一方,日本語と英語のように翻訳時に大きな語順の入れ替えが必要となる言語対を対象とすると,先に示した問題が深刻となる.例えば,Echizen-yaらは日英翻訳において,BLEU\cite{bleu},その変種であるNIST\cite{nist}と人間の評価との間の相関が低いことを報告している\cite{echizenya-wpt09}.文全体の大局的な語順を考慮する自動評価法としては,ROUGE-L\cite{ROUGEL},IMPACT\cite{impact}がある.これらの手法は参照翻訳とシステム翻訳との間で一致する最長共通部分単語列(LongestCommonSubsequence:LCS)に基づき評価スコアを決定する.LCSという文全体での大局的な語順を考慮していることから,英日,日英翻訳システムの評価において,Nグラム一致率に基づく自動評価法よりもより良い評価ができるだろう.しかし,Nグラム一致率に基づく自動評価法と同様,訳語の違いに敏感すぎるという問題がある.後に述べるが,NTCIR-9での特許翻訳タスクにおいては,人間が高い評価を与えるルールベースの翻訳システムに高スコアを与えることができないという問題がある.本稿では日英,英日という翻訳時に大きな語順の入れ替えを必要とする言語対を対象とした翻訳システムの自動評価法を提案する.提案手法の特徴は,Nグラムという文中の局所的な単語の並びに着目するのではなく,文全体における大局的な語順に着目する点と,参照翻訳とシステム翻訳との間で一致しない単語を採点から外し,別途,ペナルティとしてそれをどの程度重要視するかを調整できるようにすることで訳語の違いに対して寛大な評価を行う点にある.より具体的には,システム翻訳と参照翻訳との間の語順の近さを測るため,両者に一致して出現する単語を同定した後,それらの出現順序の近さを順位相関係数を用いて計算し,これに重み付き単語正解率と短い翻訳に対するペナルティを乗じたものを最終的なスコアとする.近年,提案手法と同じく語順の相関に基づいた自動評価法であるLRscoreがBirchらによって独立に提案されている\cite{birch-acl}.LRscoreは,参照翻訳とシステム翻訳との間で一致する単語の語順の近さをKendall距離で表し,それをさらに低レンジでのスコアを下げるために非線形変換した後,短い翻訳に対するペナルティを乗じ,さらにBLEUスコアとの線形補間で評価スコアを決定する.提案手法とLRscoreは特殊な状況下では同一の定式化となるが,研究対象としてきた言語対が異なることから,相関係数と語彙の一致に対する考え方が大きく異なる.提案手法がどの程度人間の評価に近いかを調べるため,NTCIR-7,NTCIR-9の日英,英日,特許翻訳タスク\cite{ntcir7,ntcir9}のデータを用いて検証したところ,翻訳システムの評価という観点から,従来の自動評価法よりも人間の評価に近いことを確認した.以下,2章ではBLEUを例として,Nグラムという局所的な語順に着目してシステムを評価することの問題点,3章ではLCSを用いてシステムを評価することの問題点を指摘する.そして,4章でそれら問題点の解決法として,訳語の違いに寛大,かつ,大局的な語順の相関に基づく自動評価法を提案する.5章で実験の設定を詳述し,6章では実験結果を考察する.最後に7章でまとめ,今後の課題について述べる.
\section{Nグラム一致率に基づく自動評価法の問題点}
Nグラム一致率を用いてシステム翻訳を評価する際の問題点を以下に定義するBLEUを例として説明する.システム翻訳文集合を${\mathcalH}$,それに対応する参照翻訳文集合\footnote{BLEUでは,原文に対して複数の参照翻文があることを想定している.}を${\mathcalR}$とする.システム翻訳文$h_i\in\mathcalH$には,対応する参照翻訳文の集合$R_i\in\mathcalR$が割り当てられており,$R_i$の$j$番目の参照翻訳文を$r_j$とする.なお,$S=|\mathcalH|=|\mathcalR|$とする.ここで,BLEUは,以下の式で定義される.\begin{equation}\text{BLEU}(\mathcal{H},\mathcal{R})=\text{BP}\cdot\exp\left(\frac{1}{N}\sum_{n=1}^N\logP_n\right)\end{equation}$N$はNグラムの長さパラメタであり,一般的には$N=4$である.$P_n$は,Nグラム適合率であり,以下の式で定義される.\begin{equation}P_n=\frac{\displaystyle\sum_{i=1}^S\displaystyle\sum_{t_n\inh_i}\min(\text{count}(h_i,t_n),\max\_\text{count}(R_i,t_n))}{\displaystyle\sum_{i=1}^S\displaystyle\sum_{t_n\inh_i}\text{count}(h_i,t_n)}\end{equation}count($h_i$,$t_n$)は,任意のNグラム($t_n$)のシステム翻訳文$h_i$における出現頻度,max\_count($R_i$,$t_n$)は,$t_n$の参照翻訳文集合$R_i$における出現頻度の最大値,$\max_{r_j\inR_i}\text{count}(r_j,t_n)$である.BP(BrevityPenalty)は,短いシステム翻訳に対するペナルティであり,以下の式で定義される.\begin{equation}\text{BP}=\min\left(1,\exp\left(1-\frac{\text{closest}\_\text{len}(\mathcal{R})}{\text{len}(\mathcal{H})}\right)\right)\end{equation}closest\_len($\mathcalR$)は,各$h_i\in{\calH}$に対し,最も近い単語数の参照翻訳文$r_j\inR_i$を決定した後,それらの単語数を全ての$i$で合計したもの,len($\mathcal{H}$)は,$h_i$単語数を全ての$i$で合計したものを表す.いま,原文($s$),参照翻訳($r$),システム翻訳($h_1$,$h_2$)が以下の通り与えられたとしよう.\begin{description}\item[{\mdseries$s$:}]雨に濡れたので,彼は風邪をひいた.\item[{\mdseries$r$:}]Hecaughtacoldbecausehegotsoakedintherain.\item[{\mdseries$h_1$:}]Hecaughtacoldbecausehehadgottenwetintherain.\item[{\mdseries$h_2$:}]Hegotsoakedintherainbecausehecaughtacold.\end{description}$r$は原文の直訳であり,$h_1$はほぼそれと等しい訳であるが,$h_2$は「風邪をひいたので,彼は雨に濡れた」という意味であり,原文が表す因果関係が逆転している.$h_1$と$h_2$を比較すると,翻訳としての流暢さ(fluency),いわゆる言語モデル的な確からしさは同程度であるが,内容の適切性(adequacy)は,$h_1$が$h_2$よりも高くならねばならない.ここで,この2つのシステム翻訳を先に示したBLEUで評価してみよう\footnote{式(1)の定義から明らかなようにBLEUは文集合を引数として評価スコアを計算する.通常,1文を対象としてそのスコアを計算することはないが,ここでは説明のため1文でのBLEUスコアを計算する.}.$h_1$,$h_2$とも$r$よりも長いため,ともにBPは1となる.$h_1$の$P_1$〜$P_4$はそれぞれ,9/12,7/11,5/10,3/9なので,BLEUスコアは0.53となる.一方,$h_2$の$P_1$〜$P_4$はそれぞれ,11/11,9/10,6/9,4/8なので,BLEUスコアは0.74となる.この結果は,我々の直感に反しており,BLEUを最大化するようにシステムを最適化することが,良い翻訳システムの開発に結びつくかどうかは疑問である.こうした問題が起こる原因はNグラムという局所的な語の並びにのみに着目してスコアを計算することにある.短い単語列のみを評価対象とすると,先の例のように,参照翻訳の節中のNグラムを保持していれば,節の順番が入れ替わったとしても十分高いスコアを獲得する.もちろん,$h_2$のような翻訳をシステムが出力するようなことはほとんどあり得ないのではないかという疑問もあろう.確かに語順が似た言語対を対象とする場合や翻訳システムがルールベースで構築されている場合には起こりにくい問題であるが,語順が大きく異なる言語対を対象とした統計翻訳(StatisticalMachineTranslation:SMT)システムでは十分起こり得る問題である.以下にWeb上のSMTによる翻訳サービスの出力例を示す.\begin{description}\item[原文:]ボブはメアリに指輪を買うためにジョンの店に行った.\item[参照翻訳:]BobwenttoJohn'sstoretobuyaringforMary.\item[SMT出力:]Bobtobuyrings,MarywenttoJohnshop.\end{description}SMT出力をみると,訳語という観点では参照翻訳と良く合致しており,バイグラム,トライグラムでもある程度の数が一致している.しかし,原文の「店に行く」の主体が「ボブ」であるという構造を捉えることができず,その主体が「メアリ」となってしまっている.SMTシステムでは,大きな語順の入れ替えを許すと探索空間は膨大になる.よって,現実的な時間で翻訳文を生成するため,語順の入れ替えにある程度の制限を設けざるを得ない.その結果,Nグラムでは参照翻訳と良く合致するものの原文の意味とはかけ離れた翻訳を出力することがある.このような状況のもと,BLEUスコアで翻訳システムを比較すると,正しい評価ができない可能性が高い.なお,この問題はBLEUに限ったことではなく,その変種であるNISTスコア,METEORなどNグラム一致率を利用した自動評価法すべてに当てはまる問題である.
\section{LCSに基づく自動評価法の問題点}
ROUGE-L\cite{ROUGEL},IMPACT\cite{impact}は,参照翻訳とシステム翻訳との間の最長共通部分単語列(LCS)に基づき評価スコアを決定する.先に挙げた例で説明する.\begin{description}\item[{\mdseries$s$:}]雨に濡れたので,彼は風邪をひいた.\item[{\mdseries$r$:}]Hecaughtacoldbecausehegotsoakedintherain.\item[{\mdseries$h_1$:}]Hecaughtacoldbecausehehadgottenwetintherain.\item[{\mdseries$h_2$:}]Hegotsoakedintherainbecausehecaughtacold.\end{description}$r$と$h_1$との間のLCSは,``Hecaughtacoldbecauseheintherain''であり,その長さ(単語数)は9である.$r$の長さは11,$h_1$の長さは12であることから,LCSの適合率は9/12,再現率は9/11となる.一方,$r$と$h_2$との間のLCSは,``hegotsoakedintherain''であり,その長さは6である.$h_2$の長さは11なので,LCSの適合率は6/11,再現率は6/11となる.ROUGE-LスコアはLCS適合率と再現率の調和平均,F値なのでBLEUとは違い,$h_1$を$h_2$より高く評価することができる.IMPACTはROUGE-Lを改良したものであり,上述のLCSを一度見つけただけでやめるのではなく,見つかったLCSを削除した単語列に対し,再度LCSを探すということを繰り返す.つまり,$h_1$の例では,$r$と$h_1$から,``Hecaughtacoldbecauseheintherain''を削除し,\begin{description}\item[{\mdseries$r$:}]gotsoaked\item[{\mdseries$h_1$:}]hadgotttenwet\end{description}から,$h_2$の例では,``hegotsoakedintherain''を削除し,\begin{description}\item[{\mdseries$r$:}]caughtacoldbecausehe\item[{\mdseries$h_2$:}]becausehecaughtacold\end{description}から,再度LCSを探し出すという手順を繰り返す.これらの手法の問題点は,参照翻訳とシステム翻訳との間のLCS適合率,再現率を計算するため,それらの間で一致しなかった単語を評価の対象に含めている点にある.例えば,以下のシステム翻訳$h_3$を考えると,$r$と$h_3$との間のLCSは,``hecaughtacoldtherain''となるので,LCS適合率,再現率はそれぞれ,6/13,6/11となり,適合率が$h_2$の場合より低い値をとってしまい,ROUGE-Lスコアは$h_2$の場合よりも低くなる.\begin{description}\item[{\mdseries$h_3$:}]Hecaughtacoldasaresultofgettinghitbytherain\end{description}このように適合率,再現率といった参照翻訳とシステム翻訳との間で一致しない単語を評価に含めてしまう尺度を用いると訳語の違いに敏感になり過ぎ,システムを過小評価することがある.
\section{語順の相関に基づく自動評価法}
本稿では,Nグラム一致率に基づく自動評価法の問題点を解決するため,文内の局所的な語の並びに着目するのではなく,大局的な語の並びに着目する.つまり,参照翻訳とシステム翻訳との間で一致して出現する単語の出現順の近さに基づき評価する.さらに,訳語の違いに寛大な評価をするため,システム翻訳の単語適合率の重みを調整できるようにして別途ペナルティとして用いる.\subsection{単語アラインメント}参照翻訳とシステム翻訳の語順との間の相関を計算するため,双方の翻訳に一致して出現する単語を同定しなければならない.これは,参照翻訳とシステム翻訳との間の単語アラインメントを決定する問題となる.本稿では,単語の表層での一致に基づくアラインメント法を採用した.Algorithm\ref{wordalign}にその疑似コードを示す.\begin{algorithm}[b]\caption{WordAlignmentAlgorithm}\label{wordalign}\footnotesize\begin{algorithmic}[1]\STATEReadhypothesissentence$h=w_1^h,w_2^h,\ldots,w_m^h$\STATEReadreferencesentence$r=w_1^r,w_2^r,\ldots,w_n^r$\STATEInitialize{\ttworder}withanemptylist.\FOR{eachword$w_i^h$in$h$}\IF{$w_i^h$appearsonlyonceeachin$h$and$r$}\STATEappend$j$s.t.$w_i^h=w_j^r$to{\ttworder}\ELSIF\FOR{$\ell$=2to$m-i$}\IF{$w_i^h,\ldots,w_{i+(\ell-1)}^h$appearsonlyonceeachin$h$and$r$}\STATEappend$j$s.t.$w_i^h,\ldots,w_{i+(\ell-1)}^h=w_j^r,\ldots,w_{j+(\ell-1)}^r$to{\ttworder}\STATEbreaktheloop\ENDIF\ENDFOR\ELSE\FOR{$\ell$=2to$i$}\IF{$w_{i-(\ell-1)}^h,\ldots,w_i^h$appearsonlyonceeachin$h$and$r$}\STATEappend$j$s.t.$w_{i-(\ell-1)}^h,\ldots,w_i^h=w_{j-(\ell-1)}^r,\ldots,w_{j}^r$to{\ttworder}\STATEbreaktheloop\ENDIF\ENDFOR\ENDIF\ENDFOR\STATEReturn{\ttworder}\end{algorithmic}\end{algorithm}システム翻訳を長さ$m$,参照翻訳を長さ$n$の単語リストして読み込み,アラインメントを格納する配列{\ttworder}を初期化する(1〜3行目).システム翻訳の単語リストの先頭から順に単語$w_i^h$を取り出し,その単語がシステム翻訳,参照翻訳の双方にただ1度のみ出現している場合,$i$と単語$w_i^h$の参照翻訳における出現位置$j$を対応づける(5,6行目).それ以外の場合,$w_i^h$を基準として右側にNグラムを伸長させ,システム翻訳と参照翻訳の双方における出現頻度が1となった時点で$i$と$j$を対応づける(8〜13行目).それでも対応がつかない場合,$w_i^h$を基準として左側にNグラムを伸長させ,システム翻訳と参照翻訳の双方における出現頻度が1となった時点で$i$と$j$を対応づける(15〜20行目).これでも曖昧性が残る(システム翻訳と参照翻訳での頻度が1にならない)場合,あるいは対応先が見つからない場合は単語対応付けを行わない.図\ref{figalign}に2章の例文に対する単語アラインメントを示す.上段の例から,\texttt{worder}の1番目の要素,つまり,$h_1$の1単語目が$r$の1番目の要素(単語)に対応することがわかる.下段の例から,$h_2$の1単語目が$r$の6番目の単語と対応していることがわかる.\begin{figure}[t]\begin{center}\includegraphics{21-3ia985f1.eps}\end{center}\caption{単語アラインメントの例}\label{figalign}\end{figure}\subsection{単語出現順の相関}1対1の単語アラインメントを決定することができれば,参照翻訳とシステム翻訳から単語出現位置IDを要素とするリストを得ることができる.図\ref{figalign}の例では,$r$:[1,2,3,4,5,6,9,10,11],$h_1$:[1,2,3,4,5,6,9,10,11]および$r$:[1,2,3,4,5,6,7,8,9,10,11],$h_2$:[6,7,8,9,10,11,5,1,2,3,4]という2つのリストペアを得る.こうした順序列間の順位相関係数を計算することで参照翻訳とシステム翻訳との間で一致して出現する単語の出現順の近さを測ることができる.本稿では以下に示すKendallの順位相関係数($\tau$)\cite{kendall}を採用した.順位相関係数としては,Spearmanの順位相関係数($\rho$)もよく知られている.しかし,$\tau$と比べて$\rho$は,順位の小さな入れ替わりには寛容すぎ,大きな入れ替わりには厳しすぎる.予備実験の結果では,人間の評価との間の相関が$\tau$よりも低い傾向を示したため,\pagebreak本稿では$\tau$を採用した.\begin{equation}\tau=\frac{\displaystyle\sum_{i=1}^{n-1}T_i-\displaystyle\sum_{i=1}^{n-1}U_i}{\frac{n(n-1)}{2}}\end{equation}$T_i$は,アラインメント手続きを用いてシステム翻訳から得た単語出現位置のIDリスト(\texttt{worder})について,$i$番目の要素の値よりも大きな要素が$i+1$番目から$n$番目の要素までの間に出現する数,$U_i$はその逆に,$i$番目の要素の値よりも小さな要素が$i+1$番目から$n$番目の要素までの間に出現する数を表す.表\ref{tau}に図\ref{figalign}の$h_2$から得た{\ttworder}と$T_i$,$U_i$をそれぞれ示す.この表より,$r$と$h_2$との間の語順の相関をKendallの$\tau$で計算すると,$\tau(r,{h_2})=(21-34)/((11\cdot10)/2)=-0.236$となる.同様に図\ref{figalign}の$h_1$から得た\texttt{worder}を用いて$\tau(r,{h_1})$を計算すると$\tau(r,{h_1})=(36-0)/((9\cdot8)/2)=1$となる.$\tau$は参照翻訳とシステム翻訳との語順が完全一致する場合に1,逆順の場合に$-1$をとる.\begin{table}[t]\caption{Kendallの順位相関係数の計算例}\label{tau}\input{0985table01.txt}\end{table}BLEUでは,$h_2$が$h_1$よりも高いスコアを獲得したが,文全体での語順に着目し,システム翻訳と参照翻訳との間の語順の順位相関を計算すると,$h_1$が$h_2$よりも高いスコアを獲得でき,我々の直感に合致した結果を得ることができた.ただし,$\tau$は負の値をとり得るため,従来の自動評価法が出力するスコアレンジと同様[0,1]の値をとるよう以下の式で正規化する.\begin{equation}\text{NormalizedKendall's$\tau$:NKT}=\frac{\tau+1}{2}\end{equation}\subsection{ペナルティ}参照翻訳とシステム翻訳との間の語順の相関を計算するためには,単語アラインメントを決定し,双方に一致して出現する単語のみを評価の対象としなければならない.しかし,参照翻訳とシステム翻訳との間で一致する単語のみを評価対象とすることには以下の2つ問題がある.\begin{enumerate}\itemシステム翻訳の単語数に対し,参照翻訳との間で一致する単語の割合が少ない場合,過剰に高いスコアを与える可能性がある.\itemシステム翻訳の単語数が少ない場合,過剰に高いスコアを与える可能性がある,\end{enumerate}(1)に関して,以下の例を考えよう.\begin{description}\item[{\mdseries$r$:}]Johnwenttoarestaurantyesterday\item[{\mdseries$h$:}]Johnreadabookyesterday\end{description}$h$は5単語からなる訳であり,そのうち``John'',``a'',``yesterday''のみしか参照翻訳と一致していない.しかし,その出現順が参照翻訳と一致していることからNKTは1となる.つまり,システムが出力した単語数に関係なく順位相関だけをみていると不当に高いスコアを獲得する可能性がある.次に(2)に関して,以下の例を考えよう.\begin{description}\item[{\mdseries$r$:}]Johnwenttoarestaurantyesterday\item[{\mdseries$h$:}]toa\end{description}システム翻訳は2単語しかない意味の無い訳であるにもかかわらず,単語正解率は1であり,2単語の出現順序も参照翻訳と一致していることから,NKTも1となる.つまり,単語数が少ない場合,順位相関と単語正解率だけでは不当に高いスコアを獲得する可能性がある.このように,順位相関係数を用いると,システム翻訳の2単語のみが参照翻訳と出現順まで一致すると,不当に高いスコアを獲得する可能性がある.よって,本稿では,前者に対して単語正解率($P$),後者に対してはBLEUのBPをペナルティとして導入する.それぞれの定義を以下に示す.\begin{gather}P(h_i,r_i)=\frac{\text{len(\texttt{worder})}}{\text{len}(h_i)}\\\text{BP}_s(h_i,r_i)=\min\left(1,\exp\left(1-\frac{\text{len}(r_i)}{\text{len}(h_i)}\right)\right)\end{gather}単語正解率は,システム翻訳の単語のうちアラインメントをとることができた単語数(len({\ttworder}))の割合であり,len($r$)は,参照翻訳の単語数,len($h$)はシステム翻訳の単語数である.BLEUのBPは文集合全体で計算していたが,ここでは,文単位で計算することに注意されたい.これらを用いて最終的な自動評価スコアを以下の式(\ref{ribes})で定義する.なお,{\bfこの手法をRIBES(Rank-basedIntuitiveBilingualEvaluationScore)と名付け,\url{http://www.kecl.ntt.co.jp/icl/lirg/ribes/}にてオープンソースソフトウェアとして公開している.}\begin{equation}\mbox{RIBES}(\mathcal{H},\mathcal{R})=\frac{\displaystyle\mathop\sum_{h_i\in\mathcal{H}}\max_{r_j\inR_i}\{\mbox{NKT}(h_i,r_j)\cdotP(h_i,r_j)^{\alpha}\cdot\mbox{BP}_s(h_i,r_j)^{\beta}\}}{|\mathcal{H}|}\label{ribes}\end{equation}$\alpha(\ge0)$は単語適合率の重みであり,$\alpha$が大きいほど訳語の違いに敏感になる.\begin{itemize}\item参照翻訳が1つしかない場合,参照翻訳にはない訳語をシステムが出力する可能性が高いため,$\alpha$は小さめに設定した方がよいだろう.\item参照翻訳が複数の場合,参照翻訳のいずれかに出現する単語をシステムが出力する可能性が高くなる.そこで,不適切な訳語を厳しく採点するため$\alpha$は高めに設定した方がよいだろう.\end{itemize}$\beta(\ge0)$はBPの重みであり,$\beta$が大きいほど訳文の長さに敏感になる.\begin{itemize}\item参照翻訳が1つしかない場合,それよりも短い翻訳があり得る可能性が高いので,$\beta$は小さめに設定してよいだろう.\item参照翻訳が複数ある場合,一番短い翻訳を基準にして考えれば,$\beta$を高めに設定してよいだろう.\end{itemize}
\section{実験の設定}
\subsection{実験データ}RIBESの有効性を示すため,NTCIR-7,NTCIR-9の特許翻訳タスク(PATMT)のデータを用いて評価実験(評価指標の評価なので,以降メタ評価と呼ぶ)を行った.言語対は英日(EJ),日英(JE)とした.それぞれのデータセットの文数,1文あたりの参照翻訳の数,評価者の数,参加システム数を表\ref{data}に示す.なお,カッコ内の数字はルールベースシステムの数を示す.\begin{table}[b]\caption{実験データの詳細}\label{data}\input{0985table02.txt}\end{table}NTCIRワークショップの事務局から公開されているデータには,EJ,JEタスクとも1つの参照翻訳しか含まれていない.そこで,NTCIR-7のデータに対してのみ,特許翻訳の専門家に依頼し,参照翻訳を独自に追加した.また,NTCIR-7のEJタスクに関しては,5システムだけにしか人間の主観評価の結果が与えられていなかったため,特許に精通した被験者5名で再度JEタスクと同様,5段階評価で主観評価を行った.さらに,評価対象とする翻訳システムに著者のグループの英日翻訳システム\cite{headfinal}を追加し,計14システムで実験を行った.全てのデータに対し,メタ評価の対象は翻訳の内容としての適切性(adequacy)のみとした.これは,翻訳の流暢さよりも内容の適切性を自動評価できた方がより良い翻訳システムの開発に貢献できると考えたからである.なお,各システム翻訳文に対し複数の人間の評価スコアが与えられている場合には,その平均値を文に対する評価スコアとした.このように各システム翻訳文に対して評価値を決定し,これを文集合全体での平均したものを人間がシステムに与えた評価スコアとした.\subsection{比較した自動評価手法}比較評価には,Nグラム一致率に基づく評価手法として先に説明したBLEU,大局的な単語列を考慮した評価法として同じく先に説明したROUGE-L\cite{ROUGEL},その改良版であるIMPACT\cite{impact}を用いた.IMPACTには,LCSの長さに応じた重みパラメタ,語順の入れ替えに応じた重みパラメタがある.詳細については文献\cite{impact}を参照されたい.なお,ROUGE-L,IMPACTとも参照翻訳が複数ある場合には個々の参照翻訳を用いて求めたスコアの最大値を評価スコアとして採用した.BLEUの計算には{\ttmteval-v13a},ROUGE-Lには,\texttt{ROUGE-1.5.5},IMPACTには\texttt{IMPACTversion4}を利用した.また,LRscore\cite{birch,birch-wmt2010,birch-acl}も比較評価の対象とした.LRscoreは,参照翻訳とシステム翻訳との間の語順の近さを表すスコアとBLEUスコアとの間の線形補間で評価スコアを決定する.語順の近さを表す尺度としては,ハミング距離$d_h(h,r)$を利用するものとKendallの$\tau$に基づく$d_k(h,r)$を利用するものがあるが,以降では,本稿との関連が深い後者について述べる.LRscoreの定義を以下に示す.\begin{equation}\mbox{LRscore}(\mathcal{H},\mathcal{R})=\gammaR(\mathcal{H},\mathcal{R})+(1-\gamma)\mbox{BLEU}(\mathcal{H},\mathcal{R})\end{equation}$R({\mathcalH},{\mathcalR})$は以下の式で定義される.\begin{equation}R(\mathcal{H},\mathcal{R})=\frac{\displaystyle\mathop\sum_{h_i\in\mathcal{H}}d(h_i,r_i)\mbox{BP}_s(h_i,r_i)}{|\mathcal{H}|}\end{equation}$d_k(h,r)$は,文献\cite{birch-acl}に従うと$d_k(h,r)=1-\sqrt{1-\mbox{NKT}(h,r)}$で定義されるが,それ以前の文献\cite{birch,birch-wmt2010}では,$d_k(h,r)=\mbox{NKT}(h,r)$も用いられている.以降,前者を${d_k}_1$,後者を${d_k}_2$とよぶ.RIBESで$\alpha=0$,$\beta=1$と設定したときと,LRscoreに${d_k}_2$を採用,$\gamma=1$と設定したとき,これら2つの手法は一致する.しかし,LRscoreは日本語,英語のような大きな語順の入れ替えがある言語対を対象として考案された手法ではなく,ヨーロッパ言語間,中英\footnote{もちろん,英語,フランス語ほど語順が近くはないが,英語も中国語もSVO型の言語であり,日本語,英語ほどの語順の違いはない.}翻訳という比較的語順が似た言語を対象として考案されたため,最終的には${d_k}_1$を採用することで順位相関の低レンジスコアの感度を下げ,さらに語順の近い言語対を対象としたときに実績のあるBLEU\footnote{実際,NTCIR-9の中英翻訳タスクにおいて,BLEUは人間の評価結果との相関が0.9以上の非常に高い値を記録している\cite{ntcir9}.}の恩恵を受けるため,それとの間の線形補間という定式化に至ったのであろう.後述するが,英日,日英翻訳の評価ではBLEUを利用するメリットは期待できない.さらに,NKTを${d_k}_1$によって非線形変換することで低レンジスコアの感度をさらに下げるメリットも元々高いNKTを得ることが難しい英日,日英翻訳タスクでは期待できない.以上より,LRscoreは確かにRIBESと良く似た手法といえるが,BLEUを補うために派生した評価指標と捉えた方が自然であり,RIBESとはその根底にある研究の動機に大きな違いがある.なお,LRscoreには,参照翻訳とシステム翻訳との間の単語アラインメントを決定する手段が提供されないため,以降の実験では本稿での単語アラインメントを利用した.\subsection{メタ評価の指標}本稿では,メタ評価の指標として広く用いられているPearsonの積率相関係数,Spearmanの順位相関係数,Kendallの順位相関係数を用いた.Pearsonの積率相関係数は人間の評価と自動評価の結果がどの程度線形の関係にあるかを評価し,Spearman,Kendallの相関係数は人間の評価と自動評価の結果の順位がどの程度近いかを評価する.SpearmanとKendallの違いは,先にも説明したように順位の差に対して重みをどのように与えるかという点にある.\subsection{実験の手順}RIBESに対してはシステム翻訳の長さに対する重みパラメタと単語正解率に対する重みパラメタ,IMPACTに対してはLCSに対する重みパラメタと語順の違いに対する重みパラメタ,LRscoreには順位相関係数とBLEUスコアの重みを調整するパラメタがある.これらの手法に対しては,以下の手順でパラメタの最適化を行い,メタ評価を行った.\begin{enumerate}\item文のIDをランダムに10個選択する.\item選択したIDによる10文の集合を用いて,文集合全体での人間の評価スコアと自動評価スコアとの間のSpearmanの順位相関係数が最大となるようパラメタを決定する.\item(2)で決定したパラメタを用いて(1)の残りの文集合全体を用いてメタ評価を行い,相関係数を記録する.\item(1)から(3)を100回繰り返し,相関係数の平均値を求める.\end{enumerate}なお,パラメタが存在しないBLEUとROUGE-Lに対しては,(2)をスキップし,同様の手順でメタ評価を行った.
\section{実験結果と考察}
\subsection{NTCIR-7データ}表\ref{NTCIR7-single}にオーガナイザから配布された参照翻訳のみを用いた時の相関係数の平均値,表\ref{NTCIR7-multi}に複数参照翻訳を用いた時の相関係数の平均値を示す.平均値の差の検定には,ペアワイズの比較にWilcoxonの符号順位検定\cite{wilcox}を採用し,Holm法\cite{holm}による多重比較を用いた.\begin{table}[t]\caption{メタ評価の結果(NTCIR-7データ,単一参照翻訳)}\label{NTCIR7-single}\input{0985table03.txt}\vspace{4pt}\small表中,1はRIBES,2はLRscore(${d_k}_1$),3はLRscore(${d_k}_2$),4はROUGE-L,5はIMPACT,6はBLEUに対し,有意水準5\%で有意差があることを示す.\par\end{table}\begin{table}[t]\caption{メタ評価の結果(NTCIR-7データ,複数参照翻訳)}\label{NTCIR7-multi}\input{0985table04.txt}\vspace{4pt}\small表中,1はRIBES,2はLRscore(${d_k}_1$),3はLRscore(${d_k}_2$),4はROUGE-L,5はIMPACT,6はBLEUに対し,有意水準5\%で有意差があることを示す.\par\end{table}表\ref{NTCIR7-single},\ref{NTCIR7-multi}より,どの手法に対してもSpearmanの順位相関係数の方がKendallの順位相関係数よりも高い.Kendallの順位相関係数は,2つの順序列の間で一致する半順序関係の数に基づき決定されるため,細かな順位の間違いに敏感である.一方,Spearmanの順位相関係数は順序列の間の順位の差に基づき決定されるため,細かな順位の間違いには鈍感である.本稿で用いたデータでは,自動評価法にとって,明らかに良いシステムと悪いシステムの区別が容易であったため,大きな差での順位の不一致が減少し,Spearmanの順位相関係数がKendallの順位相関係数よりも相対的に高い値を記録したのであろう.ただし,全体の傾向としては両者の間に大きな違いはない.Pearsonの積率相関係数は順位相関係数より高い値を示しており,BLEUではその差が特に大きい.たとえば,表\ref{NTCIR7-multi}の英日タスクでは,Pearsonが0.9以上であることに対し,Spearmanは0.7程度でしかない.これは,人間の評価との順位付けはやや強い程度相関でしか示していないにも関わらず,線形の相関は非常に強いことを意味する.Pearsonの積率相関係数は外れ値がある場合,その値が過剰に高く見積もられるということが知られているが,その影響が強く出ているのではないかと考える.よって,以降では主に順位相関に焦点をあてて議論する.表\ref{NTCIR7-single}より,日英翻訳に関しては,RIBESが他のすべての手法に対して統計的有意に優れている.英日翻訳に関しては,RIBESとLRscore(${d_k}_1$)が同程度で優れており,十分強い相関である.ROUGE-L,IMPACTが,RIBESほどではないものの比較的よい相関を得ていることに対し,BLEUは双方の言語対において,相関係数の平均値が他のほぼ全ての手法に対し統計的に有意な差で劣っている.さらに,順位相関係数は弱い相関程度でしかない.この結果は,英日,日英翻訳という大きな語順の入れ替えを必要とする言語対を対象とした場合,Nグラム一致率で自動評価を行うことが不適切であることを示唆している.表\ref{NTCIR7-multi}より,参照翻訳の数が増えると相関係数の平均値は上昇する傾向にある.BLEUの相関係数が他の手法よりも有意に劣っていることは単一参照翻訳の場合と同様であるが,順位相関係数はやや強い相関程度にまで上昇している.ROUGE-L,IMPACTの相関係数も上昇しており,ROUGE-Lは日英翻訳に関しては,他のすべての手法に対して,英日翻訳に関しては,RIBES以外の手法に対して統計的有意に優れている.RIBESは,日英翻訳ではROUGE-Lに次いでIMPACTと同程度,英日翻訳ではROUGE-Lと同程度であるが,十分強い相関を示している.BLEU,ROUGE-L,IMPACTの相関係数が複数参照翻訳が与えられた場合に顕著に改善される理由は,語彙のバリエーションが増えたことであろう.これらの手法は,Nグラム一致率,LCS適合率,再現率を利用しているため,参照翻訳とシステム翻訳との間で一致しない単語も評価対象となる.よって,語彙の一致判定を単に文字列としての一致だけで判定すると,意味的には一致するはずのものが一致せずに不当に低いスコアを得るという問題が起こる.しかし,複数参照翻訳の場合には,語彙のバリエーションが増えるためこうした問題は軽減されるのであろう.一方,RIBESでもシステム翻訳と参照翻訳との間の単語一致率は利用するため,一致しない単語を評価対象として用いているが,パラメタによりその影響を小さく抑えることができる.よって,単一参照翻訳でも複数参照翻訳でも安定して高い相関を示すことができた.\subsection{NTCIR-9データ}表\ref{NTCIR9}に相関係数の平均値を示す.NTCIR-7のデータとは異なり,どの手法も相関係数の平均値は大幅に低下している.特にROUGE-L,IMPACT,BLEUは,非常に弱い相関,あるいは無相関と言えるほどである.この原因は先の実験結果と同様,参照翻訳の数が1つであることに加え,評価対象となる翻訳システムの中でのルールベースの翻訳システム(SMTとのハイブリッドも含む)の占める割合が増したことにある.NTCIR-7と比較すると,日英翻訳に関してはルールベースシステムは2システムから6システムへ,英日翻訳に関しては1システムから5システムへと増えた.\begin{table}[t]\caption{メタ評価の結果(NTCIR-9データ,単一参照翻訳)}\label{NTCIR9}\input{0985table05.txt}\vspace{4pt}\small表中,1はRIBES,2はLRscore(${d_k}_1$),3はLRscore(${d_k}_2$),4はROUGE-L,5はIMPACT,6はBLEUに対し,有意水準5\%で有意差があることを示す.\par\end{table}\begin{figure}[t]\begin{center}\includegraphics{21-3ia985f2.eps}\end{center}\caption{ユニグラム適合率と人間のスコアの関係}\label{uniprec}\end{figure}図\ref{uniprec}にユニグラム適合率と人間のスコアの関係を示す.図中四角のマーカ(RBMT-1〜6,JAPIO,TORI,EIWA)がルールベースの翻訳システムである.図から明らかなように,ルールベースの翻訳システムはユニグラム適合率が低いにも関わらず人間の評価では高いスコアを獲得している.つまり,これらのシステムの翻訳は,参照翻訳と一致する単語の割合が少ないにも関わらず人間の評価では高いスコアを獲得している.ルールベースの翻訳システムは,訓練データから訳語を推定するSMTシステムほど語彙の統制がとれていない.よって,翻訳対象のドメインに合致した語彙,すなわち,特許特有の語彙を用いて翻訳できるとは限らない.しかし,SMTシステムにとって大きな問題となる語順の入れ替えに関しては,記述されたルールに当てはまる限りは問題となり得ない.よって,特許の訳語として多少おかしくとも文全体で意味が通る翻訳となり,その結果,人間が高いスコアを与えたのであろう.先にも説明した通り,BLEUは,Nグラムの適合率,ROUGE-LとIMPACTはLCSの適合率・再現率に基づきスコアを決定する.つまり,参照翻訳と一致する単語の割合が大きいシステム翻訳にしか高いスコアを与えることができない.よって,ルールベースシステムに高いスコアを与えることはできず,それらの性能を低く見積もってしまったことにより,相関が著しく低下したと考える.一方,RIBESとLRscoreはこれらの手法とは異なり,単語正解率,BLEUスコアをパラメタで軽減することで単語一致率の低いシステムであっても高いスコアを与えることができるという特徴がある.実際,日英,英日の双方においてROUGE-L,IMPACT,BLEUといった従来の自動評価法に対し,統計的有意に高い相関係数を獲得していることがそれの有効性を示唆している.ユニグラム適合率が低いところでの自動評価法の性能をより詳細に調べるため,ルールベースの翻訳システムのみを取り出し,同様の実験を行い相関係数の平均値を求めたところ,表\ref{rbmt}を得た.翻訳システム数は日英翻訳タスクで6,英日翻訳タスクで5である.サンプル数が少ないため,相関係数の値に対する信頼性がこれまでの実験よりも劣ることに注意されたい.表\ref{rbmt}より,RIBESは日英翻訳タスクでROUGE-L,IMPACTに劣るものの全体を通してみれば他の手法より良い相関を得ている.参照翻訳が1つしかないという影響もあるが,英日翻訳タスクではROUGE-L,IMPACT,BLEUは負の相関でしかない.さらに,先に示したとおり,表\ref{NTCIR9}においてRIBESがルールベースシステム,SMTシステム双方を含む場合でも良い相関を得たこともふまえると,参照翻訳とシステム翻訳との間で一致する単語が少ない場合でもRIBESは有効であると考える.\begin{table}[b]\caption{RBMTだけを用いたメタ評価の結果(NTCIR-9データ,単一参照翻訳)}\label{rbmt}\input{0985table06.txt}\vspace{4pt}\small表中,1はRIBES,2はLRscore(${d_k}_1$),3はLRscore(${d_k}_2$),4はROUGE-L,5はIMPACT,6はBLEUに対し,有意水準5\%で有意差があることを示す.\par\end{table}以上より,BLEU,ROUGE-L,IMPACTといった単語の一致に強く依存する従来の自動評価法は,単一参照翻訳時,評価対象としてルールベースシステムが多く混在する場合には著しく信頼性が低下することを示した.特に,参照翻訳は常に複数与えられるとは限らないため,自動評価法としては単一参照翻訳でも人間の評価結果との間の相関が高いことが望ましい.RIBESは,参照翻訳数,ルールベースシステムの数が変化した場合でも安定して高い相関であることから,従来の自動評価法よりも優れていると考える.ただし,RIBESには単語正解率と短い翻訳に対するペナルティを調整するための重みパラメタがある.これらパラメタを最適化するためには,いわゆる教師データが必要となることから,それを必要としないBLEU,ROUGE-Lよりもコストのかかる手法とも言える.しかし,実験結果より,各システムに対し10文を人間が評価した結果を教師データとしてパラメタを最適化できることを示した.よって,十分低いコストでパラメタの最適が可能である.\subsection{獲得されたパラメタに関する考察}\begin{figure}[b]\begin{center}\includegraphics{21-3ia985f3.eps}\end{center}\caption{獲得されたパラメタの分布(RIBES)}\label{parm}\end{figure}最後にRIBESとLRscoreについて獲得されたパラメタ,$\alpha$,$\beta$,$\gamma$の違いから考察する.図\ref{parm}に$\alpha$,$\beta$の分布,図\ref{lr-parm}に$\gamma$の分布を示す.\begin{figure}[t]\begin{center}\includegraphics{21-3ia985f4.eps}\end{center}\caption{獲得されたパラメタの分布(LRscore)}\label{lr-parm}\end{figure}図\ref{parm}より,パラメタ最適化のための訓練事例が10文と少ないことも影響してか,獲得されたパラメタにばらつきがあるが,単一参照翻訳の場合には小さな$\alpha$が選択されている割合が多く,4.3節の仮説と一致する.また,NTCIR-9のように単一参照翻訳かつルールベースシステムの数が多い場合には,$\alpha=0$の場合が非常に多い.一方,複数参照翻訳がある場合,比較的大きな$\alpha$が選択されている.$\beta$に関しては,複数参照翻訳時には高い値が選ばれている割合が高く,4.3節の仮説と一致するが,単一参照翻訳時には必ずしも低い値が選ばれておらず先の仮説と一致しない.しかし,人間の評価との間の相関をみる限り,RIBESは従来法よりも比較的高い相関を得ていることから,これは大きな問題ではないと考える.図\ref{lr-parm}より,LRscoreのNTCIR-9では,$\gamma=1$付近が多く選択されており,語順の相関に対する重みを上げ,語彙の一致(BLEUスコア)に対する重みを下げるようにパラメタを選択しており,RIBESと同様の傾向を示している.しかし,NTCIR-7では,単一参照翻訳,複数参照翻訳に関わらず0.3から0.6までの値が多く選ばれており,NTCIR-9の場合ほどBLEUスコアに対する重みを下げるようなパラメタが選択されていない.NTCIR-7ではRIBESの相関が概ねLRscoreの相関を上回っていたが,その原因はこうした語彙の一致に対する重みの違いによると考える.さらにRIBESは2つのパラメタ$\alpha$,$\beta$があることに対し,LRscoreは1つのパラメタ$\gamma$しかない.よって,RIBESはLRscoreよりもより柔軟にデータにフィットできる点が双方の手法のパラメタ選択,相関係数の差に影響を与えたとも考える.5.2節でも述べたが,$\alpha=0$,$\beta=1$,$\gamma=1$とした場合,RIBESもLRscoreも語彙の一致スコアを考慮せず順位相関と短い翻訳に対するペナルティだけを考慮することになり,両者はほぼ一致する.図\ref{lr-parm}より,LRscoreでは$\gamma=1$が試行の半数近くで選択されているが,図\ref{parm}のNTCIR-9でそうした例がみられるものの全体に占める割合は決して多くはない.また,LRscoreの語順相関の計算法として${d_k}_1$と${d_k}_2$の双方を試したが,一貫して,${d_k}_1$の方がよい相関を示した.こうしたことから,基本的にはRIBESとLRscoreは違うものと捉えて差し支えないだろう.
\section{まとめと今後の課題}
本稿では,翻訳時に大きな語順の入れ替えが必要となる英日,日英翻訳システムを対象として,文全体での大局的な語順の相関をKendallの順位相関係数に基づき決定し,これと単語適合率,短い翻訳に対するペナルティを重み付きで乗じた自動評価法であるRIBES(Rank-basedIntuitiveBilingualEvaluationScore)を提案した.NTCIR-7,NTCIR-9の特許翻訳タスクのデータを用いてメタ評価を行ったところ,BLEU,ROUGE-L,IMPACTといった従来の自動評価法は,参照翻訳の数が少ない場合,評価対象システムにおけるルールベースシステムの割合が大きい場合に相関が低下することに対し,RIBESは,こうした状況でも安定して高い相関を示すことを確認した.また,RIBESと同じくKendallの順位相関係数に基づく自動評価手法であるLRscoreと比較してもRIBESが少なくとも同等以上の性能であることを確認した.評価実験では,英日,日英翻訳システムを対象としたが,これ以外にも翻訳時に大きな語順の入れ替えを必要とする言語対を対象とした翻訳システムの評価時には有効であると考える.本稿では,100文規模程度のコーパスを用いて翻訳システム間の優劣を人間と同様に自動評価すること,つまり,システム単位での人間の評価結果に対して相関が高い自動評価法を実現することを目的としたが,こうした粗い評価だけではなく,翻訳システムの特徴をより詳細に分析するため,個々の文に対して人間が与えたスコアと自動評価法が与えたスコアとの間の相関を向上させることを目的とした研究もある\cite{Kulesza04,Gamon05,echizenya:ACL2010}.機械翻訳システムが発展していくにつれ,文単位で細かな評価をしたいという要求はより増していくと考えられるので,こうした着眼点は極めて重要である.ROUGE-L,IMPACTと同様,RIBESは文単位でも自動評価スコアを計算できるので,これらの手法の文単位での自動評価スコアと人間の評価スコアとの間のSpearmanの順位相関係数を計算した.その結果を表\ref{persent}に示す.NTCIR-7データでの相関がNTCIR-9データでの相関よりも高いという傾向はシステム単位での実験結果と同様であるが,相関係数の値は大きく下がっている.この原因は,個々の文に対する人間の評価にはゆれがあることだろう.3手法とも,NTCIR-7の日英翻訳タスクではやや弱い相関,英日翻訳タスクではやや強い相関である.RIBESはROUGE-Lとほぼ同程度で,日英翻訳タスクでIMPACTに4ポイント程度劣るものの英日翻訳タスクではIMPACTに9ポイント程度勝っている.一方,NTCIR-9データの場合,もともとシステム単位での相関もNTCIR-7データほど高くはなかったが,文単位での相関は,どの手法でもほぼ無相関という結果であった.この原因には,評価のゆれに加え,各翻訳文に対する評価者が1名であることから,人間の評価の信頼性が低いこと,スコアが5段階のカテゴリカルデータになってしまったこと,参照翻訳数が1つしかないことが考えられる.今後,より良い自動評価法を開発するため,こうした文単位での相関をシステム単位での相関程度まで向上させることは自動評価法の大きな課題だと考える.\begin{table}[t]\caption{文単位でのメタ評価の結果}\label{persent}\input{0985table07.txt}\small表中の数値はSpearmanの順位相関係数を表す.\par\end{table}\acknowledgment本論文の内容の一部は,\textit{EMNLP2010:ConferenceonEmpiricalMethodsinNaturalLanguageProcessing}で発表したものである\cite{isozaki:emnlp2010}.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Banerjee\BBA\Lavie}{Banerjee\BBA\Lavie}{2005}]{meteor}Banerjee,S.\BBACOMMA\\BBA\Lavie,A.\BBOP2005\BBCP.\newblock\BBOQ{Meteor}:AnAutomaticMetricfor{MT}EvaluationwithImprovedCorrelationwithHumanJudgements.\BBCQ\\newblockIn{\BemProceedingsofACLWorkshoponIntrinsicandExtrinsicEvaluationMeasuresfor{MT}andSummarization},\mbox{\BPGS\65--72}.\bibitem[\protect\BCAY{Birch\BBA\Osborne}{Birch\BBA\Osborne}{2010}]{birch-wmt2010}Birch,A.\BBACOMMA\\BBA\Osborne,M.\BBOP2010\BBCP.\newblock\BBOQLRscoreforEvaluatingLexicalandReorderingQualityin{MT}.\BBCQ\\newblockIn{\BemProceedingsoftheJoint5thWorkshoponStatisticalMachineTranslationand{MetricsMATR}},\mbox{\BPGS\327--332}.\bibitem[\protect\BCAY{Birch\BBA\Osborne}{Birch\BBA\Osborne}{2011}]{birch-acl}Birch,A.\BBACOMMA\\BBA\Osborne,M.\BBOP2011\BBCP.\newblock\BBOQReorderingMetricsforMT.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\1027--1035}.\bibitem[\protect\BCAY{Birch,Osborne,\BBA\Blunsom}{Birchet~al.}{2010}]{birch}Birch,A.,Osborne,M.,\BBA\Blunsom,P.\BBOP2010\BBCP.\newblock\BBOQMetricsfor{MT}Evaluation:EvaluatingReordering.\BBCQ\\newblock{\BemMachineTranslation},{\Bbf24}(1),\mbox{\BPGS\15--26}.\bibitem[\protect\BCAY{Doddington}{Doddington}{2002}]{nist}Doddington,G.\BBOP2002\BBCP.\newblock\BBOQAutomaticEvaluationofMachineTranslationQualityUsingN-gramCo-OccurrenceStatistics.\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalConferenceonHumanLanguageTechnologyResearch},\mbox{\BPGS\138--145}.\bibitem[\protect\BCAY{Echizen-ya\BBA\Araki}{Echizen-ya\BBA\Araki}{2007}]{impact}Echizen-ya,H.\BBACOMMA\\BBA\Araki,K.\BBOP2007\BBCP.\newblock\BBOQAutomaticEvaluationofMachineTranslationbasedonRecursiveAcquisitionofanIntuitiveCommonPartsContinuum.\BBCQ\\newblockIn{\BemProceedingsofthe{MTSummitXII}WorkshoponPatentTranslation},\mbox{\BPGS\151--158}.\bibitem[\protect\BCAY{Echizen-ya\BBA\Araki}{Echizen-ya\BBA\Araki}{2010}]{echizenya:ACL2010}Echizen-ya,H.\BBACOMMA\\BBA\Araki,K.\BBOP2010\BBCP.\newblock\BBOQAutomaticEvaluationMethodforMachineTranslationUsingNoun-PhraseChunking.\BBCQ\\newblockIn{\BemProcessingsofthe48thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\108--117}.\bibitem[\protect\BCAY{Echizen-ya,Ehara,Shimohata,Fujii,Utiyama,Yamamoto,Utsuro,\BBA\Kando}{Echizen-yaet~al.}{2009}]{echizenya-wpt09}Echizen-ya,H.,Ehara,T.,Shimohata,S.,Fujii,A.,Utiyama,M.,Yamamoto,M.,Utsuro,T.,\BBA\Kando,N.\BBOP2009\BBCP.\newblock\BBOQMeta-EvaluationofAutomaticEvaluationMethodsforMachineTranslationusingPatentTranslationDatainNTCIR-7.\BBCQ\\newblockIn{\BemProceedingsofthe3rdWorkshoponPatentTranslation},\mbox{\BPGS\9--16}.\bibitem[\protect\BCAY{Fujii,Utiyama,Yamamoto,\BBA\Utsuro}{Fujiiet~al.}{2008}]{ntcir7}Fujii,A.,Utiyama,M.,Yamamoto,M.,\BBA\Utsuro,T.\BBOP2008\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaksattheNTCIR-7Workshop.\BBCQ\\newblockIn{\BemProceedingsofNTCIR-7WorkshopMeeting},\mbox{\BPGS\389--400}.\bibitem[\protect\BCAY{Gamon,Aue,\BBA\Smets}{Gamonet~al.}{2005}]{Gamon05}Gamon,M.,Aue,A.,\BBA\Smets,M.\BBOP2005\BBCP.\newblock\BBOQSentence-levelMTEvaluationWithoutReferenceTranslations:BeyondLanguageModeling.\BBCQ\\newblockIn{\BemProceedingsoftheEuropeanAssociationforMachineTranslation(EAMT)},\mbox{\BPGS\103--111}.\bibitem[\protect\BCAY{Goto,Lu,Chow,Sumita,\BBA\Tsou}{Gotoet~al.}{2011}]{ntcir9}Goto,I.,Lu,B.,Chow,K.~P.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2011\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskattheNTCIR-9Workshop.\BBCQ\\newblockIn{\BemProceedingsofNTCIR-9WorkshopMeeting},\mbox{\BPGS\559--573}.\bibitem[\protect\BCAY{Holm}{Holm}{1979}]{holm}Holm,S.\BBOP1979\BBCP.\newblock\BBOQASimpleSequentiallyRejectiveMultipleTestProcedure.\BBCQ\\newblock{\BemScandinavianJournalofStatistics},{\Bbf6},\mbox{\BPGS\65--70}.\bibitem[\protect\BCAY{Isozaki,Hirao,Duh,Sudoh,\BBA\Tsukada}{Isozakiet~al.}{2010a}]{isozaki:emnlp2010}Isozaki,H.,Hirao,T.,Duh,K.,Sudoh,K.,\BBA\Tsukada,H.\BBOP2010a\BBCP.\newblock\BBOQAutomaticEvaluationofTranslationQualityforDistantLanguagePairs.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)-2010},\mbox{\BPGS\944--952}.\bibitem[\protect\BCAY{Isozaki,Sudoh,Tsukada,\BBA\Duh}{Isozakiet~al.}{2010b}]{headfinal}Isozaki,H.,Sudoh,K.,Tsukada,H.,\BBA\Duh,K.\BBOP2010b\BBCP.\newblock\BBOQ{HeadFinalization}:ASimpleReorderingRulefor{SOV}Languages.\BBCQ\\newblockIn{\BemProceedingsoftheJoint5thWorkshoponStatisticalMachineTranslationand{MetricsMATR}},\mbox{\BPGS\250--257}.\bibitem[\protect\BCAY{Kendall}{Kendall}{1975}]{kendall}Kendall,M.~G.\BBOP1975\BBCP.\newblock{\BemRankCorrelationMethods}.\newblockCharlesGriffin.\bibitem[\protect\BCAY{Kulesza\BBA\Shieber}{Kulesza\BBA\Shieber}{2004}]{Kulesza04}Kulesza,A.\BBACOMMA\\BBA\Shieber,S.~M.\BBOP2004\BBCP.\newblock\BBOQALearningApproachtoImprovingSentence-LevelMTEvaluation.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonTheoreticalandMethodologicalIssuesinMachineTranslation(TMI)},\mbox{\BPGS\75--84}.\bibitem[\protect\BCAY{Leusch,Ueffing,\BBA\Ney}{Leuschet~al.}{2003}]{WER}Leusch,G.,Ueffing,N.,\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQANovelString-to-StringDistanceMeasurewithApplicationtoMachineTranslationEvaluation.\BBCQ\\newblockIn{\BemProceedingsoftheMTSummitIX},\mbox{\BPGS\240--247}.\bibitem[\protect\BCAY{Lin\BBA\Och}{Lin\BBA\Och}{2004}]{ROUGEL}Lin,C.-Y.\BBACOMMA\\BBA\Och,F.~J.\BBOP2004\BBCP.\newblock\BBOQAutomaticEvaluationofMachineTranslationQualityUsingLongestCommonSubsequenceandSkip-BigramStatistics.\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{bleu}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:aMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistic(ACL)},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Wilcoxon}{Wilcoxon}{1945}]{wilcox}Wilcoxon,F.\BBOP1945\BBCP.\newblock\BBOQIndividualComparisonsbyRankingMethods.\BBCQ\\newblock{\BemBiometricsBulletin},{\Bbf1}(6),\mbox{\BPGS\80--83}.\end{thebibliography}\begin{biography}\bioauthor{平尾努}{1995年関西大学工学部電気工学科卒業.1997年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年株式会社NTTデータ入社.2000年よりNTTコミュニケーション科学基礎研究所に所属.博士(工学).自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL各会員.}\bioauthor{磯崎秀樹}{1983年東京大学工学部計数工学科卒業.1986年同大学院修士課程修了.同年日本電信電話株式会社入社.2011年より岡山県立大学情報工学部教授.博士(工学).言語処理学会,ACM,情報処理学会,人工知能学会,電子情報通信学会各会員.}\bioauthor{須藤克仁}{2000年京都大学工学部卒.2002年同大大学院情報学研究科修士課程修了.同年日本電信電話株式会社入社.現在に至る.音声言語処理,統計的機械翻訳に関する研究に従事.}\bioauthor[:]{DuhKevin}{2003年米国ライス大学工学部電気工学専攻卒業.2006年米国ワシントン大学大学院電気工学研究科修士課程修了.2009年同大学院博士後期課程修了.同年NTTコミュニケーション科学基礎研究所リサーチアソシエイト.2012年奈良先端科学技術大学院大学助教.自然言語処理に関する研究に従事.}\bioauthor{塚田元}{1987年東京工業大学理学部情報科学科卒業.1989年同大学院理工学研究科修士課程修了.同年日本電信電話株式会社入社.現在,NTTコミュニケーション科学基礎研究所に所属.統計的機械翻訳の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,日本音響学会,ACL各会員.}\bioauthor{永田昌明}{1987年京都大学大学院工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,コミュニケーション科学研究所主幹研究員(上席特別研究員).工学博士.統計的自然言語処理の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
| |
V07N02-01 | \section{はじめに}
コンピュータで利用する電子化文書データの増大に伴って,文書の自動分類に関する研究開発が非常に活発であり,文書全体の情報を利用して,類似度を計算するベクトルモデル\cite{長尾他1996,野村1999,徳永他1994}や確率モデル\cite{Fuhr1989}の技術が確立されてきた.しかしながら,実際の文書は,複数の話題や分野を混合して含み,検索したい内容は文書の一部分(断片)に存在する場合がほとんどであるので,文書全体を検索対象とするのではなく,検索要求に合致した文書断片のみを抽出するパッセージ検索技術が着目されている\cite{Callan1994,Kaszkiel1997,Melucci1998,望月他1999,Salton1993}.特に,人間は文書全体を読むことなしに,代表的な単語を見るだけで,<政治>や<スポーツ>などの分野を認知できることから,文書断片内の数少ない単語情報から分野を的確に決定するための分野連想語セットの構築は重要な研究課題である.文書全体の情報を利用するモデルでは,誤った重要語の多少の過剰抽出は補正されるが,本論文では,文書断片を対象とするので,誤った連想語を過剰抽出する割合を限りなく零にできる抽出法の実現を目標とする.連想語の水準に関連する研究として,統計情報を利用して単語の重要度(重み)を決定する方法\cite{Salton1988,Salton1983,Salton1973,徳永他1994},単語の重み付けを学習する方法\cite{福本他1999}があり,また単語の概念や意味情報を利用する方法\cite{亀田他1987,Walker1987},意味的に関係のある名詞をリンク付けする手法\cite{福本他1996}などが提案されている.しかしながら,これら手法では,本論文の目標である高い適合率(過剰抽出が少ないことを意味する)には十分な関心が払われていない.また,シソーラスなどの分類体系を利用する手法は,単語の統計情報のみに依存する手法に比べて精度向上が期待できるが,分類体系と単語間の対応関係を事前に構築しておいて,文書の特徴を学習する方法\cite{河合1992,山本他1995}では,データスパースネス\cite{福本他1996}の問題があり,十分な精度向上は得られていない.また,分類体系の特徴を規則として学習する手法\cite{Blosseville1992}では,高い精度を実現しているが,実験のデータ規模が小さく,解析も複雑であるので,現段階では実用性に難がある.更に,分類体系から分野決定するためのルールを機械学習する方法\cite{Apte1994}では,文書分類精度がBreakevenpoint(再現率と適合率が一致する値)で最高約0.80まで向上しているが,本研究が目標とする精度には達していない.また,複合語の連想語の決定に関連する研究として,複合語のキーワード抽出手法\cite{伊藤他1993,小川他1993,林他1997,原他1997}があるが,人手で修正した短単位語キーワードを利用して複合語キーワードを決定する手法は議論されていない.本論文では,固定された分野体系と学習データを利用し,誤った連想語の割合が数パーセント以下となる抽出法を提案する.本手法では,単語数が有限である短単位語の連想語を人手で修正し,この短単位語の連想情報を利用して,無限に造語される複合語の連想語を自動決定する.以下,2~章では分野連想語の水準と安定性ランクを説明し,3~章では学習データから連想語候補を自動決定する方法と短単位語の人手による修正法を述べる.4~章では複合語の連想語の決定法を提案し,5~章では180分野に分類された約15,000ファイルの実験結果により,提案手法の有効性を実証する.6~章では本論文をまとめ,今後の課題を述べる.\vspace{-2mm}
\section{分野連想語の水準}
\vspace{-2mm}\subsection{準備}形態素解析の辞書に登録されている語を短単位語\footnote{未登録語は連想語の対象としない.}と呼び,2語以上から構成される語を複合語と呼ぶ.これら短単位語や複合語を単語と呼び,``''内に記述する.また,短単位語の分野連想語を{\bf短単位連想語},複合語の分野連想語を{\bf複合連想語}と略記する.但し,それぞれ一つの接辞と名詞で構成される一般的な複合語(``消費税'',``核燃料'',``温暖化''など)は,細分化することで分野情報が失われるので,短単位語として取り扱う.また,高校名``鹿児島商工''や会社名``NTT東京''などの固有名詞(人名以外)も短単位語とする.更に,固有名詞(人名)については,``長島茂雄''のように姓名で文書中に存在する場合はそのまま短単位語とし,``長島監督''のように普通名詞との複合語であれば,``長島''と``監督''を独立の短単位語とする.なお,用語集imidas\cite{戸澤1998}において三つ以上の短単位語で構成される複合語(1,000個)の分析調査では,新しい連想語が検出できなかったので,以後,二つの短単位語で構成される複合連想語を議論の対象とする.以後,分野体系を分野木,分野木の葉に相当する分野を{\bf終端分野},終端分野以外は{\bf中間分野}と呼ぶ.本論文では,付録の分野木を利用する.この分野木の全分野数は180個であり,中間分野数は22個,終端分野158個(深さ2と3の終端分野はそれぞれ122個,36個)である.また,直接の上位分野,下位分野をそれぞれ親分野,子分野と呼ぶ.分野の指定は分野名のパス$<S>$で記述するが,根に相当する<全体分野>は省略する.例えば,\mbox{分野パス$<S>=$<ス}ポーツ¥相撲>は<スポーツ>の下位の終端分野<相撲>を表す.また,特に矛盾が生じない場合はパス指定を省略して終端分野のみで説明する.また,<>内の分野名と区別するために,意味や概念名などは[]内に記述する.\subsection{分野連想語における水準と安定性ランク}単語は唯一の終端分野や中間分野を特定する場合,あるいは複数の終端分野や中間分野を特定する場合があるので,連想語の水準を次に定義する.\\{\bf【定義1】連想語wの分類と水準}\begin{description}\item[(水準1)]完全連想語$w$:$w$は唯一の終端分野のみを連想する.\item[(水準2)]準完全連想語$w$:同じ親分野をもつ終端分野の中で限られた複数の終端分野のみを連想する.\item[(水準3)]中間連想語$w$:$w$は完全連想語,準完全連想語でなく,唯一の中間分野を連想する.\item[(水準4)]多分野連想語$w$:$w$は完全連想語,準完全連想語,中間分野連想語でなく,\mbox{複数の}中間分野や終端分野を連想する.\item[(水準5)]非連想語$w$:$w$は水準1〜4以外であり,特定分野を連想しない.\end{description}水準1の完全連想語は,``横綱''のように終端分野<相撲>を一意に特定する.水準2の準完全連想語は``シングルス'',``ダブルス''のように同じ親分野<スポーツ>内の複数の終端分野<テニス>,<卓球>,<バトミントン>を特定する.水準3の中間連想語は,``試合''のように,終端分野は特定できないが,一つの中間分野<スポーツ>を特定する.また,水準4の多分野連想語``勝敗''は,複数の終端分野<趣味・娯楽¥将棋>,<政治¥選挙>や中間分野<スポーツ>を特定する.水準5の非連想語は,``場合'',``使用''のように分野を特定しない単語である.次に,重要なことは,分野連想語が時間経過により変化することである.例えば,<野球>であれば``投手'',``捕手''などは変化しない安定した連想語であるが,高校野球の優勝校や選手名は短期間で変化する不安定な連想語である.また,プロ野球のチーム名や有名選手も高校野球ほど変化期間は短くないが,不変なものではない.このように,安定性の低い連想語は固有名詞に多いと考えられ,特に人名の安定性は非常に低いと思われる.従って,短単位連想語には,{\bf安定性(stability)ランク}を高い順に普通名詞をa,固有名詞(人名以外)をb,固有名詞(人名)をcに割り当てる.
\section{分野連想語候補の決定手法}
\subsection{分野連想語と水準の決定アルゴリズム}学習データを各終端分野に均一に収集するのは難しいので,終端分野$<S>$に出現する全ての単語の合計頻度を$T(<S>)$とし,単語$w$の分野$<S>$の頻度を$F(w,<S>)$で表すとき,以後,終端分野$<S>$における単語$w$の頻度は次のように正規化\mbox{した頻度$R(w,<S>)$を使用}する.\[R(w,<S>)=(F(w,<S>)/T(<S>))\cdot\gamma\]ここで,$F(w,<\hspace{-0.05mm}S\hspace{-0.05mm}>)/T(<\hspace{-0.05mm}S\hspace{-0.05mm}>)$は非常に小さな値となるので,\mbox{適切な定数$\gamma$により,$R(w,<\hspace{-0.05mm}S\hspace{-0.05mm}>$}\break$)$を整数に調整する.以下に示す付録の分野木の例では,$\gamma=105$とした.中間分野$<S'>$\breakにおける単語$w$の頻度$R(w,<S'>)$は,$<S'>$の下位に存在するすべての終端分野$<S>$の\break$R(w,<S>)$を合計した頻度とする.分野$<\hspace{-0.05mm}S'>$を分野$<\hspace{-0.05mm}S\hspace{-0.05mm}>$の親分野とするとき,分野$<\hspace{-0.05mm}S\hspace{-0.05mm}>$における単語$w$の集中率$P(w,<\hspace{-0.05mm}S\hspace{-0.05mm}>$\break$)$を次で定義する.\[P(w,<S>)=R(w,<S>)/R(w,<S'>)\]次に,分野連想語の決定アルゴリズムAを示す.\\{\bf【アルゴリズムA:分野連想語候補の決定】}\\{\bf入力:}各分野$<S>$を連想する単語$w$の頻度$R(w,<S>)$,分野木.\\{\bf出力:}$w$が連想語になるならば,連想する分野と水準.\\{\bf(手順A1){完全連想語(水準1)の決定}}分野木の根\hspace{-0.1mm}$<S>$\hspace{-0.1mm}の子分野\hspace{-0.1mm}$<S¥C>$\hspace{-0.1mm}において,単語\hspace{-0.1mm}$w$\hspace{-0.1mm}が集中するか否かを条件式$P(w,<S¥$\mbox{$C>)\ge\alpha$}で判定し\footnote{$\alpha$は0.5より大きい値を想定しているので,この条件を満足する単語$w$は高々1個である.},条件式を満足すれば,$<S¥C>$を$<S>$に改めて,\mbox{更に下位の子分野へ}と同様な判定を繰り返す.この繰り返し処理で\hspace{-0.1mm}$<S¥C>$\hspace{-0.1mm}が終端分野になれば,$w$を分野$<S¥$$C>$の完全連想語に決定する.この処理で,条件式を満足する\hspace{-0.1mm}$<\hspace{-0.02mm}S>\hspace{-0.02mm}$\hspace{-0.1mm}の子分野\hspace{-0.1mm}$<\hspace{-0.02mm}S¥C\hspace{-0.02mm}>$\hspace{-0.1mm}が存在しない場合は,次へ進む.\\{\bf(手順A2){準完全(水準2)と中間連想語(水準3)の決定}}分野$<S>$の$m(\ge2)$個の全ての子分野$<S¥C>$から,\begin{equation}P(w,<S¥C>)\geR(w,<S>)/m\end{equation}なる$<S¥C>$を抽出し,$P(w,<S¥C>)$を大きい順に累積加算し,$k(1<k<m)$個の加\break算で初めて合計値が$\alpha$を越える場合,$k$個の子分野$<S¥C>$が全て終端分野ならば,$w$を分野\break$<S¥C>$の準完全連想語に決定する.全てが終端分野でなければ,次へ進む.但し,累積加算の値が$\alpha$を越えなければ,$w$を分野$<S>$の中間連想語に決定する.\\{\bf(手順A3){多分野連想語の決定}}$k$個の子分野$<\hspace{-0.03mm}S¥C\hspace{-0.03mm}>$から,終端分野$<\hspace{-0.03mm}S¥C\hspace{-0.03mm}>$を抽出し,$w$を分野$<\hspace{-0.03mm}S¥C\hspace{-0.03mm}>$の多分野連想\break語とする.終端分野以外の小分野$<S¥C>$を部分分野木の根$<S>$に改めて,手順A1とA2\breakで決定された完全,準,中間連想語の分野に対して,$w$を多分野連想語とする.\begin{flushright}{\bf(アルゴリズム終)}\end{flushright}なお,手順A2の式(1)は,子分野の候補を平均頻度以上に制限しているが,これは低い頻\break度の子分野を候補に入れると$<S>$の多くの子分野$<S¥C>$が準完全連想語となり,$<S>$の\break中間連想語との区別が弱くなるからである.この点は実験評価でも議論される.連想語の水準決定の例として,付録の分野木の一部を図~1~に示し,``横綱'',``シングルス'',\mbox{``勝敗''の各分野での頻度を}()内に示す.なお,<分野全体>の子分野数は12,<スポーツ>,<趣味・娯楽>,<政治>の子分野数はそれぞれ19,13,14であり,基準値$\alpha=0.92$として,連想語と水準の決定を説明する.\begin{figure}[t]\begin{center}\epsfile{file=fig1.eps,scale=.8}\end{center}\caption{分野連想語の水準決定の例}\end{figure}$w=\mbox{``横綱''}$,$<S>=<分野全体>$,$<C>=<スポーツ>$に対して,\[P(w,<S¥C>)=R(w,<S¥C>)/R(w,<S>)=236/243=0.97\ge\alpha=0.92\]より,$w$は$<S¥C>$に集中するので,$<S>=<分野全体¥スポーツ>$と改めて,下位の終端分野$<C>=<相撲>$に対して判定すると,$P(w,<S¥C>)=231/236=0.98\ge\alpha=0.92$となり,``横綱''は<相撲>への完全連想語と決定される.次に,$w=\mbox{``シングルス''}$では,$<S>=<分野全体¥スポーツ>$の下位分野で$w$が$\alpha$以上で集中す\mbox{る分野は存在しない.ここ}で,<スポーツ>の子分野$<C>=<テニス>$,<卓球>,<バトミントン>は式(1)\[P(w,<S¥C>)>R(w,<S¥C>)/m=351/19=18.74\]を満足し,大きい順に$P(w,<S¥C>)$をそれぞれ累積加算すると,\[142/351+105/351+93/351=0.97\ge\alpha=0.92\]となり,しかも$<S¥C>$は全て終端分野であるので,``シングルス''は<テニス>,\mbox{<卓球>,}<バトミントン>の準完全連想語に決定される.ここで,中間連想語を説明するために,<スポーツ>の子分野を$<C>=<テニス>$,<卓球>,<バトミントン>の$3(=m)$\mbox{種類と仮定}すると,\[P(w,<S¥C>)>R(w,<S>)/m=(142+105+93)/3=113.3\]なる$<C>$は<テニス>のみとなるので,``シングルス''は<スポーツ>への中間連想\mbox{語に決定}される.また,$w=\mbox{``勝敗''}$は,$<S>=<分野全体>$の唯一の下位分野には集中しないが,$<C>=<スポーツ>$,<趣味・娯楽>,<政治>が次を満足する.\[P(w,<S¥C>)>R(w,<S>)/m=478/13=36.77\]そして,これらの累積加算値0.98は$\alpha=0.92$を越えるが,$<S¥C>$は全て終端分野で\mbox{ないの}で,$<C>=<スポーツ>$,<趣味・娯楽>,<政治>を部分分野木として,手順A1,A2を実行すると,``勝敗''は分野<スポーツ>,<趣味・娯楽¥将棋>,<政治¥選挙>への多分野連想語となる.\vspace{-3mm}\subsection{短単位連想語の決定}\vspace{-1mm}アルゴリズムAによる短単位連想語候補には,水準,安定性ランク,候補語,分野,集中率,頻度情報を提示し,分野とランクを人手で修正する.<野球>の短単位連想語(水準1)の候補\mbox{を示す表~1~において},→は変更を表し,●印は削除を表す.例えば,候補``中前'',\mbox{``青学大''の}分野は削除され,``新監督''の分野は<スポーツ>へ変更されている.また,\mbox{``巨人(球団名)''の}安定性ランクbは,aに変更されている\footnote{この他,``長島茂雄'',``王貞治'',``イチロー''なども,固有名詞(人名)であるが,安定性の高い連想語として一般性があるので,人手の判断でランクaに変更される.この安定性ランクaは,次に述べる冗長連想語除去の重要な情報となる.}.修正された分野情報から,水準の定義1に従い水準欄の変更は自動的に行われる.表~2~には短単位連想語(水準2〜4)の候補を示すが,表~1~とは異なり複数の分野が提示される\footnote{水準3は<スポーツ>への連想語であるが,人手の確認のため下位分野が示される.また,集中率と頻度情報も分野毎に提示されるが,例では省略し,同時に分野数も~3~種類に限定する.また,分野情報のない場合は,空白のままで示してある.}.この修正により,水準2の``初出場''は3に変更され,水準2の``球団側''や水準4の``野茂''は水準1に変更される.なお,このように<野球>の分野以外に``野茂''が出現するのは,``会長+陣野茂(人名)''のような複合語を``会長+陣+野茂''とする形態素解析の誤り(文法的には正しいので,未登録語に判定できない)に起因する場合,<野球>以外の<教育¥外国語教育>の文書に局所的に存在する次のような文に起因する場合がある.\begin{center}``英語ができないのにがんばる野茂投手は、本当にえらい。''\end{center}但し,この水準変更では,解析誤りによる不当な連想語を高く評価することになるので,形態素解析の誤りに起因する連想語は安全のため水準を低いままにすることも考えられる.しかしながら,上記の二つの原因を全て確認することは大変な労力を必要とするし,このような形態素解析の誤りはいずれは修正できると仮定して,上記の水準変更を実施した.なお,この水準変更については,5~章で有効性を評価している.短単位連想語の人手の修正は,このような連想語候補の不適切な分野を除去するために有効である.\begin{table}[t]\caption{<野球>に対する短単位連想語候補(水準1)の例}\begin{center}\begin{tabular}{cccccc}\hline\hline水準&安定性ランク&連想語候補&分野&集中率&頻度\\\hline1&b→a&巨人&<スポーツ¥野球>&0.99&944\\1&a&投手&<スポーツ¥野球>&0.99&703\\1&b&西武&<スポーツ¥野球>&1.00&697\\1&a&野球&<スポーツ¥野球>&0.96&692\\1&a&本塁打&<スポーツ¥野球>&1.00&442\\1&c&長嶋&<スポーツ¥野球>&0.99&231\\1→5&a&中前&●<スポーツ¥野球>&1.00&74\\1→5&b&青学大&●<スポーツ¥野球>&0.93&64\\1→3&a&新監督&<スポーツ¥野球>&0.92&22\\&&&→<スポーツ>\\1&a&選球眼&<スポーツ¥野球>&1.00&3\\1&a&baseball&<スポーツ¥野球>&1.00&2\\\hline\end{tabular}\end{center}\end{table}\begin{sidewaystable}[p]\caption{<スポーツ>に対する短単位連想語候補(水準2,3,4)の例}\begin{center}\small\begin{tabular}{cccccc}\hline\hline水準2&安定性ランク&連想語候補&分野1&分野2&分野3\\\hline2&a&先発&<スポーツ¥野球>&<スポーツ¥サッカー>\\2&a&先制&<スポーツ¥野球>&<スポーツ¥サッカー>&<スポーツ¥ラグビー>\\2&a&勝ち点&<スポーツ¥野球>&<スポーツ¥サッカー>&<スポーツ¥ヨット>\\2→3&a&初出場&<スポーツ¥野球>&●<スポーツ¥サッカー>&●<スポーツ¥ゴルフ>\\&&&→<スポーツ>\\2→5&a&歯車&●<スポーツ¥野球>&●<スポーツ¥サッカー>&●<スポーツ¥バレーボール>\\2→1&a&球団側&<スポーツ¥野球>&●<スポーツ¥サッカー>\\2&c&金本&<スポーツ¥野球>&<スポーツ¥サッカー>\\\hline\hline水準3&安定性ランク&連想語候補&分野1&分野2&分野3\\\hline3&a&試合&<スポーツ¥野球>&<スポーツ¥サッカー>&<スポーツ¥バレーボール>\\3&a&首位&<スポーツ¥ゴルフ>&<スポーツ¥サッカー>&<スポーツ¥ヨット>\\3&b&バルセロナ&<スポーツ¥野球>&<スポーツ¥柔道>&<スポーツ¥陸上>\\3→5&a&立ち上がり&●<スポーツ¥野球>&●<スポーツ¥バスケットボール>&●<スポーツ¥ラグビー>\\3→5&a&中盤&●<スポーツ¥野球>&●<スポーツ¥ボクシング>&●<スポーツ¥陸上>\\3&a&選手&<スポーツ¥サッカー>&<スポーツ¥野球>&<スポーツ¥バレーボール>\\3→5&a&右足&●<スポーツ¥サッカー>&●<スポーツ¥相撲>&●<スポーツ¥野球>\\\hline\hline水準4&安定性ランク&連想語候補&分野1&分野2&分野3\\\hline4&a&監督&<スポーツ¥サッカー>&<スポーツ¥野球>&<娯楽・趣味¥映画>\\4&a&勝負&<スポーツ>&<趣味・娯楽¥将棋>&<趣味・娯楽¥競馬>\\4→5&c&村田&●<スポーツ¥野球>&●<スポーツ¥ラグビー>&●<政治¥日本政治>\\4→1&c&野茂&<スポーツ¥野球>&●<娯楽・趣味¥将棋>&●<娯楽・趣味¥TV>\\4→2&b&東洋大&●<スポーツ¥野球>&<教育¥学校行事>&<教育¥外国語教育>\\4&a&トレード&<スポーツ¥野球>&<経済¥株式・債権>&<経済¥世界経済>\\4&a&バッテリー&<スポーツ¥野球>&<環境問題¥環境・エネルギー>&<科学・技術¥宇宙開発>\\\hline\end{tabular}\end{center}\end{sidewaystable}
\section{複合語の分野連想語の決定}
\subsection{短単位語の分野継承に基づく複合連想語の分析}複合名詞の統語的構成については,通常,右側の語基の品詞が複合語の文法的主要語となり,全体の品詞を決定する.同様に,右側にある統語的主要部が,語彙的主要部と一致しているとき,それは類別名辞(taxonomicclassterm)と言うことができる\cite{油井1997,Williams1981}.この場合,左側の語基は右側の修飾辞であるので,右側の語基の意味は複合語(下位語)へ継承され,分野情報の継承にも関係する.例えば,``鍋''には二つの意味[料理の道具],[食べ物]があり,分野は<趣味・娯楽¥料理・食べ物>である.そして,複合語``圧力+鍋''と``ジンギスカン+鍋''の左の語基``圧力''と``ジンギスカン''は,右の語基``鍋''の意味を限定する修飾辞であり,``鍋''の意味を継承する.分野情報も同様に継承して,``鍋''と同じ分野<料理・食べ物>を連想する.しかし,右側の語基のメタファー的転意により,左側の語基が類別名辞となり,分野連想が変化する場合がある.``戦争''の本来の意味は分野<社会¥戦争・紛争>を連想するので,``湾岸+戦争''にはその意味を継承できるが,``受験+戦争''の``戦争''は比喩的に用いられており,本来の戦争を意味するものではない.右側の``戦争''は統語的主要語であるが,語彙的主要語ではない.この場合,左側の``受験''が語彙的主要部,また類別名辞となり,連想する分野は<教育¥受験・入試>となる.特に,このようなメタファー的転意は限りなく生じるので,連想語を単語の意味情報\cite{河合1992}だけで捉えることは困難である.更に,右側の語基にメタファー的な転意がなくても,左側の語基が語彙的主要部,類別名辞となる場合もある.例えば,``チャンコ+鍋''は,``鍋''の意味継承により<料理・食べ物>も連想するけれども,<相撲>も連想する.この場合は,語彙的主要部となる左側の``チャンコ''の分野<料理・食べ物>と<相撲>を継承していることになる.但し,同じ分野を同じ水準で継承する``チャンコ+鍋''は,複合連想語としては冗長であるので,本手法では除去される.以上より,複合連想語はその構成語(左右の語基に区別なく)の分野を継承し,類似した分野を連想しやすい性質をもつ.また,継承情報のない水準5の構成語``九州'',``場所''から,<相撲>への水準1の新しい複合連想語``九州+場所''が生まれる場合もある.更に,<野球>への連想語候補``ぬるま湯+体質''や``法政大+進学''のように,明らかに異なる分野情報を継承する構成語を含む場合もあるが,この場合は,当然ながら複合連想語にはなりにくい性質がある.以上の考察に基づいて,{\bf継承(Inheritance)ランク}を次に定義する.<全体分野>でない二つの分野$<S>$と$<S'>$に対して,$<S>$と$<S'>$が一致する場合,\break$<\hspace{-0.02mm}S'\hspace{-0.02mm}>$が$<\hspace{-0.02mm}S\hspace{-0.02mm}>$の上位である場合,$<\hspace{-0.02mm}S\hspace{-0.02mm}>$と$<\hspace{-0.02mm}S'\hspace{-0.02mm}>$が終端分野で同じ親分野をもつ場合,$<\hspace{-0.02mm}S\hspace{-0.02mm}>$\breakと$<S'>$は類似分野であるという.逆に,類似分野でない$<S>$と$<S'>$は異分野であるとい\breakう.このとき,複合連想語候補$w$とその構成語$x$の特定する分野が類似分野をもつ場合,継承ランクは高いランクAに定義し,類似分野をもたないで異分野情報のみをもつ場合,継承ランクは低いランクCとする.但し,$x$が水準5の非連想語の場合,継承ランクは中間ランクのBとする.例えば,<野球>への連想語候補``東洋大+監督''では,``監督''は表~2~に示すように<野球>と類似分野をもつので,継承ランク値はAとなるが,``東洋大''は表~2~に示すように,<教育>の下位分野への連想語となるので,継承ランク値はCとなる.\subsection{短単位語情報を利用した優先順位の決定}継承と安定性ランクを利用して,複合連想語候補を絞り込むための優先順位を決定する.\renewcommand{\labelenumi}{}\begin{enumerate}\item複合連想語候補の構成語の継承ランク列と安定性ランク列を連接したランク列を決定する.\\例えば,<野球>への連想語候補``長島+監督''の構成語``長島''の継承と安定性ランクはAとc,``監督''の継承と安定性ランクはAとaより,ランク列はAAcaとなる.\itemランク列から連想語候補の{\bf判定基準表}を決定する.表~3~に示すように判定基準表では,まず継承ランクの組み合わせにより,AAからCCまでの~5~段階の優先順位を定義する.但し,ACはAの優性とCの劣性が打ち消し合うので,優劣なしのBBと同じ段階とする.この各~5~段階を安定性ランクのaaからccまでの~5~段階で更に細分化して,合計~25~段階の判定基準を決定する.\item水準$J$に対して,分野$<S>$を連想する候補$w$の集合$W\_SET(J,<S>)$\mbox{を決定し,}その集合の中で,候補語の最大,平均,最小の頻度を決定する.そして,最低頻度から平均頻度までと平均頻度から最大頻度までをそれぞれ~12~等分し,平均頻度を加えた~25~段階の基準頻度を対応させた判定基準表$DECISION(J,<S>)$を定義する.\end{enumerate}\begin{table}[t]\caption{判定基準表}\begin{center}\begin{tabular}{rccr}\hline\hline段階&継承ランク列&安定性ランク列&基準頻度\\\hline1&AA&aa&3\\2&AA&ab&6\\3&AA&ac-bb&8\\4&AA&bc&11\\5&AA&cc&13\\6&AB&aa&15\\7&AB&ab&18\\8&AB&ac-bb&20\\9&AB&bc&23\\10&AB&cc&25\\11&AC-BB&aa&27\\12&AC-BB&ab&30\\13&AC-BB&ac-bb&32\\14&AC-BB&bc&40\\15&AC-BB&cc&48\\16&BC&aa&56\\17&BC&ab&64\\18&BC&ac-bb&72\\19&BC&bc&80\\20&BC&cc&88\\21&CC&aa&95\\22&CC&ab&103\\23&CC&ac-bb&111\\24&CC&bc&119\\25&CC&cc&127\\\hline\end{tabular}\end{center}\end{table}この判定基準表は,優先順位の高い候補ほど除去する頻度を低くして,抽出漏れを防ぎ,逆に優先順位の低い候補は除去する頻度を高くして,過剰抽出を防ぐために利用される.\subsection{複合連想語の決定アルゴリズム}複合語はアルゴリズムAにより複合連想語候補に絞り込まれ,以下に示すアルゴリズムBで最終的な連想語に絞り込まれる.継承性ランクが高い候補を優先的に選択することは,逆に冗長性の高い連想語を選択する矛盾を生じる.アルゴリズムBではこの矛盾を次のように解決している.(a)複合連想語候補$w$の連想分野$<S>$と構成語$x$の連想分野$<S'>$とが異分野\mbox{である場}合,(b)$w$の全ての連想分野$<S>$と構成語$x$の全ての連想分野$<S'>$\mbox{とが類似分野であり,}しかも$w$の水準が$x$の水準より高い場合,$w$は新しい連想語候補にすべきであるが,それ以外は構成語による連想分野で$w$の連想分野を補えるので,冗長である.この観点より,手順B1では継承ランクで生じる冗長な複合連想語候補を事前に排除する.次の手順B2で継承ランクを利用した判定基準表により優先的な選択を行う.手順B3では変更された連想分野情報に対して,最終的な連想語の水準を自動的に決定する.以下,組$(J,<S>)$の情報をもつ連想語$w$の集合$W\_SET(J,<S>)$の逆表現として,\mbox{連想}語$w$の組$(J,<S>)$を要素とする集合を$F\_SET(w)$で表す.\\{\bf【アルゴリズムB:複合連想語候補の決定アルゴリズム】}\\{\bf入力:}複合連想語候補$w$と$W\_SET(J,<S>)$.\\{\bf出力:}複合連想語$w$の分野と水準.\\{\bf(手順B1){冗長連想語の除去}}全ての連想語候補$w=xy$に対して,次を実行する.\\(1)$w$の水準$J$が1の場合$F\_SET(w)$と$F\_SET(x)$が同じ要素$(1,<S>)$をもち,$x$の安定性ランクがaの場\break合\footnote{水準1の連想語は,唯一の終端分野を特定する重要な連想語であるので,安定ランクがaである条件をつけてあるが,次の(2)で対象となる水準2〜4では安定性ランクの条件をつけない.},$F\_SET(y)$が$<S>$の異分野$<S'>$となる要素$(1,<S'>)$をもたなければ,$w$を$W\_SET(J,<S>)$から除去する\footnote{$F\_SET(w)$からも要素$(J,<S>)$が除去されることを意味する.}($x$が$y$の場合も同様).\\(2)$w$の水準Jが2〜4の場合$F\_SET(w)$の全ての分野$<S>$が$F\_SET(x)$と$F\_SET(y)$の全ての分野$<S'>$と\mbox{類似分野}であり,且つ$w$の水準が$x$と$y$の水準を越えないならば,$w$を$W\_SET(J,<S>)$から\mbox{除去する}.\\{\bf(手順B2){判定基準表による絞り込み}}以上で絞り込まれた$W\_SET(J,<S>)$に対して,判定基準表$DECISION(J,<S>)$\mbox{を決}定し,$w$の継承と安定性ランク列に対応する基準頻度より$w$の頻度$R(w,<S>)$が\mbox{少なければ},$w$を$W\_SET(J,<S>)$から除去する.\\{\bf(手順B3){水準の最終決定}}以上により,連想分野のなくなった候補語$w$は水準5へ変更し,連想する分野数が減少した候補語$w$は,水準の定義1に従って水準を変更する.\begin{flushright}{\bf(アルゴリズム終)}\end{flushright}表~4~に水準1の複合連想語候補の例,表~5~に水準2〜4の候補例を示す.但し,表~5~の分\break野数は表~2~と同様に三つ以内とし,また水準3では下位の終端分野を列挙する.手順B1で\break削除される冗長な候補語は,表~4~と~5~の判定欄に×印で示す.手順B1の(1)の例として,表~4~の候補$w=\mbox{``伊藤+投手''}$を考える.$F\_SET$(``投手'')は要素(1,<野球>)を含み,安定性ランクはaであり,``伊藤''は水準1の異分野の連想語でないので,候補語$w$\mbox{は除去され}る.ここで,候補$w=\mbox{``野球+入学''}$は,$F\_SET(w)=F\_SET$(``野球''$)=\{$(1,<野球>\}であって,$F\_SET$(``入学'')が異分野<教育¥受験と入試>への水準1の連想語であるならば\footnote{短単位語と複合語とも同じ学習データを使用しているので,短単位語候補の段階で``入学''は<野球>と<教育¥受験と入試>を連想する水準4となるが,人手の修正で<野球>が削除され,このような場合が生じる.但し,このような異分野を含む候補が,手順B2において採用されることは極めて少ない.},除去しないで最終決定は後の手順にゆだねる.手順B1の(2)の例として,表~5~の水準2の$w=\mbox{``先発+金本''}$を考えると,表~2~より$F\_SET(w)=F\_SET$(``先発''$)=F\_SET$(``金本'')であるので,$w$は除去される.同様に,水準3の``選手権+初出場''も除去される.また,$w=\mbox{``日本+選手''}$は,$F\_SET(w)=F\_SET$(``選手'')であり,``日本''が水準5なので,$w$は除去される.表~5~には存在しないが,$F\_SET(w)=\{$(2,<野球>),(2,<サッカー>)\}なる連想語候補$w=\mbox{``金本+投手''}$を仮定するとき,``金本''と``投手''の全ての連想分野と$w$の全ての分野は類似分野である.しかし,$w$の水準2は構成語の水準1と2を超えないので,除去される.\begin{table}[t]\caption{<野球>に対する複合連想語候補(水準1)の例}\begin{center}\begin{tabular}{lrcrlc}\hline\hline複合語候補&頻度&ランク列&判定基準&判定&決定水準\\\hline高校+野球&149&&&×&\\長嶋+監督&127&AAca&8&○&1\\日本+シリーズ&117&BAba&18&○&1\\野村+監督&85&AAca&8&○&1\\社会人+野球&66&&&×&\\森+監督&65&BAca&20&○&1\\野球+連盟&55&&&×&\\法政大+進学&53&CCba&103&●&5\\上田+監督&43&BAca&20&○&1\\西武+ファン&39&AAba&6&○&1\\ヤクルト+古田&23&AAbc&11&○&1\\戦力+診断&21&ACaa&27&●&5\\交流+試合&20&BAaa&15&○過剰&1\\巨人+打線&19&&&×&\\教育+リーグ&16&CAaa&27&●&5\\中村順司+監督&15&BAca&20&●&5\\観音寺中央+高校&14&BCba&64&●&5\\改革+本部&14&BBaa&27&●&5\\鈴木+オーナー&13&BAca&20&●&5\\NTT+選手&11&BAba&18&●&5\\近鉄+選手&10&AAba&6&○&1\\同点+本塁打&10&&&×&\\二軍+コーチ&9&AAaa&3&○&1\\球団+キャンプ&9&&&×&\\本塁打+記録&8&&&×&\\完全+試合&4&BAaa&15&●漏れ&5\\公式戦+開幕&4&AAaa&3&○&1\\現役+引退&4&AAaa&3&○過剰&1\\投手+リレー&4&&&×&\\星野+監督&3&AAca&8&●漏れ&5\\三輪+捕手&3&&&×&\\巨人+ベンチ&3&&&×&\\伊藤+投手&3&&&×&\\\hline\end{tabular}\end{center}\end{table}\setlength{\tabcolsep}{1pt}\begin{sidewaystable}[p]\caption{<スポーツ>に対する複合連想語候補(水準2〜4)の例}\begin{center}\footnotesize\begin{tabular}{clcclcclccc}\hline\hline水準2の候補&分野1&ランク列1&判定1&分野2&ランク列2&判定2&分野3&ランク列3&判定3&決定水準\\\hlineリーグ+記録&<スポーツ¥野球>&AAaa&○&<スポーツ¥バスケットボール>&AAaa&○&<スポーツ¥サッカー>&AAaa&○&2\\先発+金本&<スポーツ¥野球>&AAac&×&<スポーツ¥サッカー>&AAac&×&&&&\\テレビ+放映権&<スポーツ¥野球>&CCaa&●&<スポーツ¥ラグビー>&CCaa&●&&&&5\\大阪+桐蔭&<スポーツ¥野球>&BBbb&●&<スポーツ¥ラグビー>&BBbb&●&&&&5\\連係+プレー&<スポーツ¥野球>&BAaa&○&<スポーツ¥バスケットボール>&BAaa&○&<スポーツ¥サッカー>&BAaa&●&2\\\hline\hline水準3の候補&分野1&ランク列1&判定1&分野2&ランク列2&判定2&分野3&ランク列3&判定3&決定水準\\\hline日本+代表&<スポーツ¥サッカー>&BAba&○&<スポーツ¥バスケットボール>&BAba&○&<スポーツ¥ラグビー>&BAba&●&2\\優勝+戦線&<スポーツ¥野球>&ACab&○&<スポーツ¥サッカー>&ACab&○&<スポーツ¥相撲>&ACab&○&3\\日本+選手&<スポーツ¥陸上>&BAba&×&<スポーツ¥テニス>&BAba&×&<スポーツ¥ゴルフ>&BAba&×&\\逆転+優勝&<スポーツ¥野球>&AAaa&○&<スポーツ¥相撲>&AAaa&○&<スポーツ¥ゴルフ>&AAaa&○&3\\選手権+初出場&<スポーツ¥ラグビー>&AAaa&×&<スポーツ¥バスケットボール>&AAaa&×&<スポーツ¥サッカー>&AAaa&×&\\\hline\hline水準4の候補&分野1&ランク列1&判定1&分野2&ランク列2&判定2&分野3&ランク列3&判定3&決定水準\\\hline有効+投票数&<スポーツ¥野球>&BBaa&●&<政治¥選挙>&BAaa&○&<政治¥政党>&BAaa&○&2\\先制+攻撃&<スポーツ¥野球>&AAaa&○&<スポーツ¥テニス>&AAaa&○&<国際地域¥中東>&BAaa&○&4\\敗戦+処理&<スポーツ¥野球>&ABaa&○&<国際地域¥中東>&ABaa&○&<政治¥防衛>&CBaa&●&4\\タイトル+防衛&<スポーツ¥野球>&ACaa&●&<スポーツ¥ボクシング>&AAaa&○&<娯楽・趣味¥将棋>&AAaa&○&4\\藤田+監督&<スポーツ¥野球>&AAca&●&<スポーツ¥バレーボール>&BAca&●&<娯楽・趣味¥劇>&CBca&●&5\\\hline\end{tabular}\end{center}\end{sidewaystable}表~4~で×印が付いていない候補語22個(最低頻度3,平均頻度32,最大頻度127)が手順B2の$W\_SET(1,<野球>)$の要素となり,表~3~の判定基準表$DECISION(1,<野球>)$の基準頻度が得られる.例えば,``法政大+進学''の頻度は53で比較的高いが,構成語は<教育>への連想語であり,得られたランク列CCbaの基準頻度は103となるので,除去される.同様に,表~5~でも$W\_SET(J,<S>)$に対応する判定基準表を構成して,除去分野を決定する.手順B2で除去された表~4~の候補語と表~5~の分野の判定欄に●印を示す.手順B3では,上記の削除で連想分野がなくなった候補語の水準を水準5に変更する.また,水準2〜4の候補語で一部の分野が除去される場合は,水準変更を行う.人手で修正した短単位連想語の情報を利用する手順B2の分野更新は,人間により近い分野情報を複合連想語にもたせることを意味するので,手順B3の水準上昇は,人間の判断に基づいた分野連想語や分野決定と比較する~5~章の評価で効果がある.表~4~と~5~の決定水準欄に手順B3で最終決定された水準を示す.表~4~では最終的に12個の連想語に絞り込まれたが,``完全+試合'',``星野+監督''は抽出漏れである.また,``交流+試合''と``現役+引退''は<スポーツ>への連想語であり,過剰抽出であるが,この連想語は<野球>と類似分野であるので,異分野を連想する間違った連想語ではない.また,表~5~では,``日本+代表''(<スポーツ>の下位である複数の終端分野を連想すると仮定する)の水準が3から2へ変更され,同様に,水準4の``有効+投票数''も<政治>の複数の下位分野を連想する水準2に変更される.
\section{分野連想語の構築実験結果と評価}
\subsection{実験データ}付録の分野体系は,用語辞書\cite{戸澤1998,現代用語1997,知恵蔵1996}を参考にして構築され,文書データは主としてCD−毎日新聞’95データ集と学術情報センターの「NACSIS(NationalCenterforScienceInformationSystems)テストコレクション1」より収集した.新聞データでは掲載面種別コードを,また学術情報センターのデータは学会名を利用して,本論文の分野体系への大まかな分類を行い,残りは人手で分類を行った.なお,相対的な頻度を用いることで,収集データが極端に少ない分野では誤った分野連想語が過剰抽出されるので,終端分野の最低データ量を50キロバイト以上とした.アルゴリズムAの手順A2における式(1)は簡単のために$R(w,<S>)/m$\mbox{なる平均値を用い}たが,実験では$R(w,<S>)/(\betam)$なる基準値$\beta$を導入した.$\beta>1$ならば\mbox{累積加算される子分}野数は多くなり,水準2の候補が増加し,水準3の候補が減少する.アルゴリズムAで使用す\breakる有効な基準値$\alpha$と$\beta$を決定するために,$\alpha$を~14~種類(0.86から0.99までの0.01\mbox{きざみ),$\beta$}を~6~種類(0.80から1.30までの0.1きざみ)に変化させて得られる~84~種類の連想語候補セットに対して,人手で選択した代表的な短単位連想語500語の抽出精度結果を考慮し,基準値$\alpha=0.92$と$\beta=0.91$を決定した.また,正規化されていない頻度$F(w,<S>)$が1の単語$w$は,連想語抽出の実験対象に含めない.分野全体で抽出された短単位語83,894個に対するアルゴリズムAの連想語候補数は49,798個(水準1,2,3,4の順にそれぞれ28,367個,4,400個,320個,16,711個)であり,人手による修正後の短単位連想語は15,328個(水準1,2,3,4の順にそれぞれ7,354個,1,846個,191個,5,937個)となった.この作業は,表~1~と~2~の提示方法により効率的に行われ,一人が3週間で完了した.\subsection{複合語の分野連想語の評価}まず,アルゴリズムAにより複合連想語候補を決定し,次にアルゴリズムBで複合連想語候補を絞り込む.学習データより得られた約18万個の複合語はアルゴリズムAにより連想語候補は88,782個(水準1,2,3,4の順にそれぞれ74,257個,5,815個,181個,8,529個)に,更にアルゴリズムBにより複合連想語は8,405個(水準1,2,3,4の順にそれぞれ6,188個,915個,98個,1,204個)に絞り込まれた.提案手法の評価のために,六つの中間分野<スポーツ>,<趣味・娯楽>,<健康・医療>,<政治>,<国際地域>,<科学技術・学問>に,水準1,2,3,4の正解連想語を314個,216個,34個,186個人手で決定した.但し,水準4の正解連想語は複数の分野にまたがるので,<スポーツ>内の連想語候補から決定された.正解連想語の数を$E$,抽出結果に含まれる正解連想語の数を$F$,抽出された連想語の数を$G$とするとき,再現率(recall)を$R=F/E$,適合率(precision)を$P=F/G$で表す.これら正解連想語の再現率と適合率を図~2~に示す.但し,水準1と3の~6~種類の結果はそれぞれ□,●印で示し,水準2と4は複数分野の平均値としてそれぞれ○,■印で示す.また,比較実験のために次の手法を組み合わせた結果を示す.\begin{description}\item[A:]アルゴリズムA(集中率の高い順)のみで連想語を決定した場合.\item[B1:]アルゴリズムBの手順B1による冗長連想語を除去した場合.\item[Stability-5:]安定性ランクのみによる5段階の判定基準を使用した場合.5段階の決定は,最大頻度と平均頻度間を2段階に,最低頻度を平均頻度間を2段階に均等に分割設定した.\item[Inheritance-5:]継承ランクのみによる5段階の判定基準を使用した場合.5段階の分割設定は上記と同様.\item[Reverse-25:]25~段階の判定基準において,継承ランクと安定性ランクの優先を逆にした場合.分割設定は上記と同様.\item[Uniform-25:]25~段階の判定基準において,最大頻度と最低頻度間を~25~段階の均等分割で設定した場合.\item[25:]提案手法による~25~段階を設定した場合.\end{description}\begin{figure}[t]\begin{center}\epsfile{file=fig2.eps,scale=1}\end{center}\caption{再現率と適合率による実験結果の比較}\end{figure}図~2~に示すように,(A)と(A,B1)は抽出単語数を変更した結果を示すが,他の方法は判定基準を使用するので,固定された値の分布を示す.図~2~より,(A)のみでは適合率は向上しないが,(A,B1)では適合率が向上し,アルゴリズムBの冗長語除去法(手順B1)の有効性が分かる.安定性と継承ランクを単独で用いた(A,Stability-5)と(A,Inheritance-5)では,適合率の改善は小さいが,(A,B1,Stability-5)と(A,B1,Inheritance-5)では改善が顕著になる.この理由は,B1による冗長語の除去数がStability-5とInheritance-5による除去数に比べて多いからである.二つのランクを組み合わせた提案手法(A,B1,25)は,更に適合率が大きく向上しており,有効性が分かる.また,継承と安定性ランクの優先順位を変更した(A,B1,Reverse-25)は,提案手法より適合率が低下した.この原因は,安定性ランクを優先することで継承ランクの高い連想語が抽出漏れになるからである.更に,判定基準表の分割設定を均等に行った(A,B1,Uniform-25)も提案手法より,適合率が低下した.この理由は,均等分割では優先度が高い連想語の基準頻度が提案した~25~段階より大きくなり,低い頻度に存在する正しい連想語が過剰に除去されるからである.以上より,提案手法は再現率0.77以上(平均0.85)を維持して,適合率0.90以上(平均0.94)を実現しており,複合連想語の有効な抽出法であると評価できる.しかも,過剰抽出された連想語で,対象分野の類似分野情報をもつ連想語を含めると適合率は0.98以上となり,非常にノイズの少ない連想語が抽出できたといえる.なお,アルゴリズムBの手順B3では,分野数の減少による連想語の水準上昇を考慮したが,この水準変更を行わない場合は提案手法(A,B1,25)の再現率と適合率がそれぞれ約3\%,約5\%低下したので,手順B3の水準変更は有効であるといえる.\subsection{文書断片の分野決定タスクによる評価}学習データ以外の300文書\footnote{文書の抽出元は学習データと同じであり,見出し文や先頭単語が水準1の連想語である文は除去した.}に,文書の断片を20文字単位で段階的に伸長できるウィンドウを準備して,人間が唯一の終端分野を認識した段階で,断片文書,確定分野,及び分野決定の要因となった連想語集合$X$を記録したデータセットを構築した.但し,200文字を越えても分野が決定できない36の断片文書\footnote{この~36~文書は話題が変化して,人間でも一意に終端分野が決定できなかった.}を除き,264の文書を採用した.この断片文書内の単語に対して,短単位語と複合語の連想語(23,733個)に一致する連想語集合$Y$を決定し,次の手法で分野を決定した.各連想語についてそれが水準1の連想語となる分野には10点,以下同様に水準2,3,4の連想語となる分野にはそれぞれ5点,3点,2点の得点を与えた.但し,中間分野への連想語には,その下位の全ての終端分野に得点を与えた.そして,人間が終端分野を認識した段階の断片文書内の集計で最高得点の終端分野を決定分野とした.図~3~には,断片文書の文字数に対する次の結果を示す.\begin{description}\item[正解率$T$:]人手による正解分野と比較した場合の決定分野の正解率.比較実験として,短単位連想語のみを利用した正解率$S$を示す.\item[共有連想語数の割合$T$:]人手による連想語集合$X$と集合$Y$に共通する連想語の割合.上記と\break同様に短単位語のみの割合$S$も示す.\item[文書数の割合:]文字数(文書長)ごとの断片文書数の比率.\end{description}\begin{figure}[t]\begin{center}\epsfile{file=fig3.eps,scale=1}\end{center}\caption{断片文書に対する分野決定実験の結果}\end{figure}図~3~より,本手法は人間の分野判定に対して,90\%以上の高い正解率になることが分かった.特に,決定分野が正解分野の類似分野となる場合を含めると,正解率は約97\%となる.また,文書数の割合からも分かるように,断片文書は約80文字以内が約90\%を占めており,非常に\break早い段階で分野が決定されており,断片文書の分野決定の有効性が分かる.連想語の総数に対応する短単位連想語数の比率は約65\%であるので,割合$T$に対する割合$S$の低下率も65\%に近\breakい値となっている.しかし,正解率$T$に対する正解率$S$の低下率は,文字数の少ない文書では65\%より更に低い50\%以下となっている.これは,分野決定力の強い水準1の連想語の総数に対応する水準1の短単位連想語数が約54\%しかなく,逆に決定力の弱い水準4の連想語の総数に対する水準4の短単位連想語数が約83\%であることが理由である.このことより,連想語の中で分野決定力の強い水準1が占める割合が短単位連想語の水準1の割合より多い複合連想語は非常に有用であるといえる.また,共有連想語の割合は文書が長くなると低くなる.この理由は,提案手法が出現する全ての連想語を利用しているのに対して,人間は文書長に関係なく分野判定に利用する連想語がほとんど変化せず,非常に少ない数(今回の実験では平均2.3個)となるからである.このように,分野決定中に有用な連想語を動的に絞り込むメカニズムについては,今後検討すべき課題である.文書全体の単語情報を使用する方法では,特定分野の文書断片を検索することは,難しい問題である.例えば,冒頭に``阪神大震災の復興''の話題があって,その後,``高校野球''の話題が長く続く文書では,冒頭の話題は隠蔽されてしまう.従って,連想語を利用した分野決定手法は,パッセージ検索やより精度の高いピンポイント検索\cite{藤田1999}を実現する一つの方法として有用であると考えられる.特に,語彙的連鎖によるパッセージ検索法\cite{望月他1999}に対しては,有用な連想語連鎖を利用することで,検索効率の改善が期待できる.本論文の目\break的は分野連想語セットの構築であるので,本節では得点加算による簡単な分野決定法を用いたが,パッセージ検索のための分野決定法は,今後研究を進める必要がある.また,表~4~で抽出漏れとなった``完全+試合''は,<野球>で頻繁に生じることでないので,必然的に頻度は少なくなり,提案手法でも抽出は難しい.この点についても,今後検討を加える必要がある.\vspace{-3mm}
\section{むすび}
\vspace{-1mm}以上,本論文では分野連想語を定義し,短単位語の連想語情報を利用して,非常に多く造語される複合連想語を効率的に決定する手法を提案し,180分野の学習データの実験結果に基づき提案手法の有効性を評価した.また,構築された連想語が文書断片の分野決定に有効であることも示した.本論文では,一般的な分野体系を対象として議論を進めたが,短単位語の連想語が人手で判断できるならば,独自の分野体系\cite{伊藤他1993,福田他1998}に対しても利用可能と考えられるので,この実験評価は今後の課題である.また,本論文では名詞連続の複合語を対象としたが,用言,助詞を含む名詞句,名詞と用言の組み合わせなどの共起情報\cite{湯浅他1995,山田他1998}と分野連想の関係も検討する必要がある.\appendix
\section{分野体系と学習データの情報}
分野体系の子分野は<>付きで記述し,括弧内には文書数と容量(キロバイト)を示す.その下位の分野については,<>を省略し,分野が細分化される場合は,入れ子形式で列挙する.\\<分野全体(15,435;42,092)>\\<スポーツ(1,856;5,527)>:ゴルフ,サッカー,テニス,卓球,バトミントン,バスケットボール,バレーボール,レスリング,ボクシング,ヨット,ラグビー,マラソン,柔道,水泳,相撲,野球,冬季スポーツ(スキー,スケート,ジャンプ,ボブスレー),陸上(砲丸投げ,ハンマー投げ,円盤投げ,100m,マラソン,棒高跳び,3段飛び),モータスポーツ(F1,モトクロス,ボート).\\<娯楽・趣味(1,680;4,891)>:アニメ,コンピュータゲーム,劇,将棋,料理・食べ物,旅行,映画,競馬,芸術,読書,釣り,音楽,TV.\\<科学技術・学問(735;7,074)>:宇宙開発,海洋開発,軍事技術,生物学・バイオ,原子力,電気電子,建築,素材,化学,数学,物理学,考古学,言語学,コンピューター(ソフトウェア,ハードウェア).\\<自然(102;517)>:地球科学,地震・火山,天文宇宙,気象.\\<健康・医療(514;3,708)>:診断,病名(O−157,アトピー性皮膚炎,エイズ,癌,糖尿病,脳卒中),健康(ダイエット,ストレス,コレステロール,血圧).\\<環境問題(1,618;2,782)>:環境・エネルギー,オゾン破壊,ゴミ問題,人口増加,公害,国連政策,温暖化環境,自然破壊,道路・交通.\\<教育(1,622;4,102)>:教育機器,学力と偏差値,先生・教師,受験と入試,外国語教育,教育場所,学校行事,資格,教育教材,教育問題(いじめ,不登校).\\<社会(1,104;1,824)>:ジャーナリズム,広告,風俗流行,文化活動,戦争・紛争,事件(オウム,毒物混入,誘拐,汚職),災害(地震,台風,火災,水害).\\<生活(988;1,742)>住生活,食生活,女性生活,保険,年金,家族・家庭,福祉,介護,税金対策.\\<国際地域(2,179;3,991)>:アジア,オセアニア,アフリカ,南米,中国,中東,旧ソ連,朝鮮,欧州,米国,カナダ,北極・南極.\\<政治(2,026;4,910)>:司法,国会,圧力団体,地方自治体,外交,憲法,政党,政治理論,日本政治,国際政治,税制,行政・内閣,選挙,防衛.\\<経済(1,011;4,024)>:マーケティング,世界経済,労働,国際通貨,国際金融,日本経済,景気・物価,株式・債権,経営,経済理論,財務会計,財政,貿易,農林,漁業,金融一般,雇用問題.\bibliographystyle{jnlpbbl}\bibliography{v07n2_01}\begin{biography}\vspace{-2mm}\biotitle{略歴}\bioauthor{辻孝子}{平成2年上智大学文学部心理学科卒業.野村證券株式会社入社.退社後,徳島大学工学部受託研究員.現在徳島大学大学院博士後期課程在学中.自然言語処理の研究に従事.情報処理学会会員.}\bioauthor{泓田正雄}{平成5年徳島大学工学部知能情報工学科卒業.平成7年同大学院博士前期課程修了.平成10年同大学院博士後期課程修了.現在同大学工学部知能情報工学科助手.工学博士.情報検索,自然言語処理の研究に従事.情報処理学会会員.}\bioauthor{森田和宏}{平成7年徳島大学工学部知能情報工学科卒業.平成9年同大学院博士前期課程修了.現在同大学院博士後期課程在学中.情報検索,自然言語処理の研究に従事.情報処理学会会員.}\bioauthor{青江順一}{昭和49年徳島大学工学部電子工学科卒業.昭和51年同大学院修士課程修了.同年同大学工学部情報工学科助手.現在同大学工学部知能情報工学科教授.この間コンパイラ生成系,パターンマッチングアルゴリズムの効率化の研究に従事.最近,自然言語処理,特に情報検索システムの開発に興味を持つ.著書「ComputerAlgorithms---KeySearchStrategies---」,「ComputerAlgorithms---StringMatchingStrategies---」IEEECSpress.平成4年度情報処理学会「BestAuthor賞」受賞.工学博士.電子情報通信学会,人工知能学会,日本認知科学会,日本機械翻訳協会,IEEE,ACM,AAAI,ACL各会員.}\vspace{-3mm}\bioreceived{受付}\hspace*{11.8mm}{\small(1999年9月20日,1999年11月1日,1999年11月24日再受付)}\bioaccepted{採録}\end{biography}\end{document}
| |
V08N01-06 | \section{はじめに}
\label{sec:introduction}形態素解析は日本語解析の重要な基本技術の一つとして認識されている.形態素解析の形態素とは,単語や接辞など,文法上,最小の単位となる要素のことであり,形態素解析とは,与えられた文を形態素の並びに分解し,それぞれの形態素に対し文法的属性(品詞や活用など)を決定する処理のことである.近年,形態素解析において重要な課題となっているのは,辞書に登録されていない,あるいは学習コーパスに現れないが形態素となり得る単語(未知語)をどのように扱うかということである.この未知語の問題に対処するため,これまで大きく二つの方法がとられてきた.一つは未知語を自動獲得し辞書に登録する方法(例えば\cite{Mori:96}など)であり,もう一つは未知語でも解析できるようなモデルを作成する方法(例えば\cite{Kashioka:97,Nagata:99}など)である.ここで,前者の方法で獲得した単語を辞書に登録し,後者のモデルにその辞書を利用できるような仕組みを取り入れることができれば,両者の利点を生かすことができると考えられる.森らはn-gramモデルに外部辞書を追加する方法を提案している\cite{Mori:98}.ある文字列が辞書に登録されている場合にその文字列が形態素となる確率を割り増しするような方法である.しかし,わずかな精度向上に留まっていることから,n-gramモデルでは辞書の情報を利用する仕組みを容易に組み込むのは難しいのではないかと考えられる.本論文では,最大エントロピー(ME)モデルに基づく形態素解析の手法を提案する.この手法では,辞書の情報を学習する機構を容易に組み込めるだけでなく,字種や字種変化などの情報を用いてコーパスから未知語の性質を学習することもできる.ここで辞書の情報とは,辞書に登録されている語が複数の品詞をとり得る場合にどの品詞を選択するべきかといった情報を意味する.京大コーパスを用いた実験では,再現率95.80\%,適合率95.09\%の精度が得られた.本論文では,辞書の情報を用いない場合,未知語の性質を学習しない場合についても実験し,それぞれの精度に及ぼす影響についても考察する.
\section{形態素モデル}
\label{sec:model}この章では形態素としての尤もらしさを計算するモデルについて述べる.我々はこのモデルをMEモデルとして実装した.テストコーパスが与えられたとき,そのコーパスの各文を形態素解析するという問題は文を構成する各文字列に二つのタグのうち一つ,つまり,形態素であるかないかを示す「1」か「0」を割り当てる問題に置き換えることができる.さらに,形態素である場合には文法的属性を付与するために「1」を文法的属性の数だけ分割する.すると,文法的属性の数が$n$個のとき,各文字列に「0」から「$n$」までのうちいずれかのタグを割り当てる問題に置き換えることになる.形態素解析の問題において,この$n+1$個のタグはMEモデルを定式化するときに「未来(futures)」空間を形成する.ここで,未来空間とは学習モデルにおける分類先に対応する.MEモデルでは他の類似したモデルと同様に,可能性のある未来空間$F$における任意の$f$と可能性のある履歴空間$H$におけるすべての$h$に対して確率分布$P(f|h)$を計算することができる.ここで,MEモデルにおける「履歴(history)」とは未来空間においてどこに分類するかという判断を下す根拠となるデータのことである.形態素解析の問題における確率分布は次の式で表すことができる.\begin{eqnarray*}\label{eq:ex:p}P(f|h_t)\=\P(f|テストコーパスから関係tに関して導出可能な情報)\end{eqnarray*}これは,テストコーパスからある関係$t$に関して導出可能な情報が得られたときに$f$の確率が求まることを示している.MEモデルにおける確率分布$P(f|h)$の計算は「素性(features)」の集合,つまり,未来を予測する助けとなる情報に依存する.この情報は素性関数として定義され,近年の計算言語学の研究で用いられてきた他の多くのMEモデルと同様に我々のモデルでも,履歴と未来を引き数とし0か1を返す2値関数として定義する.以下にその一例をあげる.\begin{eqnarray}\label{eq:g}g(h,f)&=&\left\{\begin{array}[c]{l}1\:\{\rmif\has}(h,x)={\rmtrue},\\\q\qx={\rm``品詞(-1)(Major):動詞''}\p\\\q\p\&\f=1\\0\:\{\rmotherwise.}\end{array}\right.\end{eqnarray}ここで,「has($h$,$x$)」は履歴$h$に素性$x$が観測されるときに真を返す2値関数である.我々の場合,素性としては辞書の情報\footnote{\baselineskip=0.7\baselineskip今回の実験では既存の辞書の情報のみを用いたが,自動獲得した辞書の情報も利用可能であると考えている.}とともに,未知語の性質を学習できるように,着目している文字列の長さや文字種,その文字列が辞書にあるかどうか,連接する形態素の文法的属性,文字種の変化などを用いる.詳しくは\ref{sec:exp_discussion}~章で述べる.素性集合と学習データが与えられたとき,エントロピーを最大にするという操作によりモデルが生成される.このモデルではすべての素性$g_i$に対しパラメータ$\alpha_i$が関係付けられ,モデルは次のような条件付き確率として表される\cite{berger:cl96}.\begin{eqnarray}\label{eq:p}P(f|h)&=&\frac{\prod_{i}\alpha_{i}^{g_{i}(h,f)}}{Z_{\lambda}(h)}\\Z_{\lambda}(h)&=&\sum_f\prod_{i}\alpha_{i}^{g_{i}(h,f)}\end{eqnarray}パラメータを推定する際には,学習コーパスにおけるすべての素性$g_i$に対し,MEモデルから計算される$g_i$の期待値が$g_i$の経験的期待値と等しくなるようにする.つまり,以下の式を成り立たせるようなパラメータを推定する.\begin{eqnarray}\label{eq:constraint}\sum_{h,f}\tilde{P}(h,f)\cdotg_{i}(h,f)\=\\sum_{h}\tilde{P}(h)\cdot\sum_{f}P_{ME}(f|h)\cdotg_{i}(h,f)\end{eqnarray}ここで,$\tilde{P}$は経験的確率分布であり,$P_{ME}$はMEモデルとして推定される確率分布である.形態素に付与するべき文法的属性が$n$個あると仮定する.文法的属性としては品詞と文節区切りを考える.品詞が$m$個の場合,その各々についてその品詞を付与した形態素の左側が文節区切りであるかないかを考慮し,文法的属性の数は$n=2\timesm$とする.文字列が与えられたとき,その文字列が形態素であり,かつ$i$$(1\leqi\leqn)$番目の文法的属性を持つとしたときの尤もらしさを確率値として求めるモデルを形態素モデルと呼ぶ.このモデルは式(\ref{eq:p})を用いて表される.ここで,$f$は0から$n$までの値をとる.一文が与えられたとき,一文全体で確率の積が最大になるよう形態素に分割し文法的属性を付与する.最適解の探索にはビタビアルゴリズムを用いる.N-best解の探索には文献\cite{Nagata:94}の方法を用いる.
\section{実験と考察}
\label{sec:exp_discussion}\subsection{実験の条件}\label{sec:exp_condition}品詞体系はJUMAN\cite{juman3.61}のものを仮定した.品詞は細分類まで考慮すると全部で53種類ある.これに文節区切りを考慮すると推定するべき文法的属性の数は倍の106種類となる.活用型,活用形は品詞が決まれば表記からほぼ一意に決めることができるので,モデルから確率的に推定することはしない.したがって,式(\ref{eq:p})の$f$は$0$から$106$までの107個の値をとるものとする.実験には,京大コーパス(Version2)\cite{kurohashi:nlp97}を用いた.学習には1月1日と1月3日から8日までの7日分(7,958文),試験には1月9日の1日分(1,246文)を用いた.一文が与えられると,5文字以下のすべての文字列および5文字を越えるが辞書に登録されている文字列に対して,その文字列が形態素であるかないか,形態素である場合にはその文法的属性が何かを推定する.5文字以下のすべての文字列としたのは,5文字を越えるような形態素は大抵,複合語あるいはカタカナ語であり,辞書に登録されていなければ,ほとんどの場合形態素ではないためである.複合語は辞書に登録されているもの以外は5文字以下の文字列に分割できると仮定する.また,カタカナ連続は辞書に登録されていない場合,ひとまとまりにして「未定義語(大分類),カタカナ(細分類)」という品詞を持つものとして辞書に登録されていたものとして扱う.ビタビアルゴリズムを用いて最適解を探索する際には,JUMANで定義されている連接規則を満たさなければならないという制約を加えた.\ref{sec:model}章に述べたモデルでは,各文字列に対し品詞を付与する際,すべての品詞候補(53種類)のうち一文全体の確率を最大にするものが選ばれる.このとき,必ずしも辞書に記述されている品詞が選ばれるとは限らない.そこで,辞書に登録されている文字列については,その文字列に付与可能な品詞がすべて辞書に記述されていると仮定し,各文字列に対し品詞を付与する際には,辞書に記述されている品詞の中から選択するという制約を加える.\begin{table*}[htbp]\scriptsize\begin{center}\caption{学習に利用した素性}\label{table:feature}\leavevmode\begin{tabular}[c]{|c|l|p{4cm}|c|c|c|}\hline素性&&&\multicolumn{3}{c|}{削除した時の精度}\\\cline{4-6}番号&\multicolumn{1}{c|}{素性名}&\multicolumn{1}{c|}{素性値}&再現率&適合率&F\\\hline\hline1&文字列(0)&(4,331個)&93.66\%&93.81\%&93.73\\2&文字列(-1)&(4,331個)&($-$2.14\%)&($-$1.28\%)&($-$1.71)\\\hline3&辞書(0)(Major)&動詞\,動詞\&連語\,形容詞\,形容詞\&連語$\ldots$(28個)&94.64\%&92.87\%&93.75\\4&辞書(0)(Minor)&普通名詞\,普通名詞\&連語\,副助詞$\ldots$(90個)&($-$1.16\%)&($-$2.22\%)&($-$1.69)\\5&辞書(0)(Major\&Minor)&名詞\&普通名詞\,名詞\&普通名詞\&連語$\ldots$(103個)&&&\\\hline6&長さ(0)&123456以上(6個)&95.52\%&94.11\%&94.81\%\\7&長さ(-1)&123456以上(6個)&($-$0.28\%)&($-$0.98\%)&($-$0.63)\\\hline8&文字種(0)(頭)&漢字平仮名記号数字カタカナアルファベット(6個)&95.17\%&93.89\%&94.52\%\\9&文字種(0)(末尾)&漢字平仮名記号数字カタカナアルファベット(6個)&($-$0.63\%)&($-$1.20\%)&($-$0.92)\\10&文字種(0)(変化)&漢字$\rightarrow$平仮名\,数字$\rightarrow$漢字\,カタカナ$\rightarrow$漢字$\ldots$(30個)&&&\\11&文字種(-1)(末尾)&漢字平仮名記号数字カタカナアルファベット&&&\\12&文字種(-1)(変化)&漢字$\rightarrow$平仮名\,数字$\rightarrow$漢字\,カタカナ$\rightarrow$漢字$\ldots$(30個)&&&\\\hline13&品詞(-1)(Major)&動詞形容詞名詞助動詞接続詞未定義語$\ldots$(15個)&95.60\%&95.31\%&95.45\%\\14&品詞(-1)(Minor)&普通名詞サ変名詞数詞程度副詞$\ldots$(45個)&($-$0.20\%)&($+$0.22\%)&($+$0.01)\\15&品詞(-1)(Major\&Minor)&無\,名詞\&普通名詞\,名詞\&普通名詞\&連語$\ldots$(54個)&&&\\\hline16&活用(-1)(Major)&母音動詞子音動詞カ行$\ldots$(33個)&95.66\%&95.00\%&95.33\%\\17&活用(-1)(Minor)&語幹基本形未然形意志形命令形$\ldots$(60個)&($-$0.14\%)&($-$0.09\%)&($-$0.11)\\\hline18&文節区切り(-1)&無有(2個)&95.82\%&95.25\%&95.53\%\\19&文節区切り(-1)\&&名詞\&普通名詞\&区切り\,&($+$0.02\%)&($+$0.16\%)&($+$0.09)\\&品詞(-1)(Major\&Minor)&名詞\&普通名詞\&区切りではない$\ldots$(106個)&&&\\\hline\end{tabular}\end{center}\end{table*}\vspace{1pt}次に,実験に用いた素性を表~\ref{table:feature}にあげる.ここで素性とは,各素性名に対し素性値を展開したもののことである.各々の素性は式(\ref{eq:p})の素性関数$g_{i}(h,f)$の$i$に対応する.素性番号は便宜上設けたものであり,各素性名に対応している.例えば,素性番号,素性名,素性値がそれぞれ「13」,「品詞(-1)(Major)」,「動詞」である素性および,「3」,「辞書(0)(Major)」,「形容詞」である素性に対応する素性関数はそれぞれ,式(\ref{eq:g})および以下の式のように表わされる.なお,式中では添字の$i$は省略している.\begin{eqnarray*}g(h,f)&=&\left\{\begin{array}[c]{l}1\:\{\rmif\has}(h,x)={\rmtrue},\\\q\qx={\rm``辞書(0)(Major):形容詞''}\p\\\q\p\&\f=1\\0\:\{\rmotherwise.}\end{array}\right.\end{eqnarray*}これらの式および表~\ref{table:feature}で素性名に使われている「(0)」「(-1)」という表記はそれぞれ,着目している文字列,その文字列の左に連接する一形態素を意味する.素性関数としては,素性とfutureの組が学習コーパスで3回以上観測されたもののみを用いた.結果として実験に用いた素性は8,525個であった.以下で,表~\ref{table:feature}の各素性名,素性値について説明する.\noindent{\bf(文字列)}学習コーパスに形態素として現れた文字列のうち,頻度5以上のもの\\{\bf(長さ)}文字列の長さ\\{\bf(文字種)}文字の種類.「(頭)」「(末尾)」はそれぞれ文字列の先頭と末尾の文字を表す.文字列ではなく一文字の場合はともに同じ文字を指すものとする.「文字種(0)(変化)」は先頭と末尾の文字の変化を表す.「文字種(-1)(変化)」は左に連接する一形態素の末尾文字の文字種から着目している文字列の先頭文字の文字種への変化を表す.例えば,左に連接する一形態素が「先生」,着目している文字が「に」の場合,素性値は「漢字$\rightarrow$平仮名」と表す.\\{\bf(辞書)}JUMANの辞書を用いる.この辞書に登録されている異なり形態素数は約20万個である.Major,MinorはそれぞれJUMANの品詞大分類と細分類に対応する.Major\&MinorはMajorとMinorの可能な組み合わせである.着目している文字列が辞書に登録されている場合,辞書に記述されている品詞の情報を素性として利用する.複数の品詞を持つものとして登録されている場合にはそれぞれを素性として用いたときに形態素モデルから推定される確率が一文全体で最大となるものを採用する.その文字列が,連語辞書に登録されている形態素列の一番左の形態素の文字列である場合には,その文字列が連語の先頭の形態素であるという情報を付加したものを素性として利用する.この場合,素性値としては「連語」という表記が付加されているものを用いる.連語については文献\cite{Yamaji:96}に詳しい説明がある.未知語の性質を学習するために,学習コーパスにおいて各文字列に対し辞書引きをしたときに一回しか引かれなかったものは辞書になかったものとして学習する.今回の実験ではそのような語の数は20,317個であった.ちなみに,辞書引きされた語の延べ数は1,964,829個,異なり語の総数は60,908個であった.このような学習方法をとることによって,辞書が充実すればその情報を反映できるとともに,辞書に依存し過ぎることなく未知語にも対処できると考えている.\\{\bf(品詞)}Major,MinorはそれぞれJUMANの品詞大分類と細分類に対応\\{\bf(活用)}Major,MinorはそれぞれJUMANの活用型,活用形に対応\\{\bf(文節区切り)}形態素の左側に文節区切りがあるかないか\subsection{実験結果と考察}\label{sec:exp_result}パラメータの推定にはImprovedIterativeScaling(IIS)アルゴリズム\cite{pietra95}を用いた.計算マシンとしてSunEnterprise450(400MHz,SunOSRelease5.6Version)を用いたところ,推定に要した時間は二日程度であった.形態素解析の結果を表~\ref{Result}に示す.ここで,再現率はコーパス中の全形態素に対して区切りと品詞(大分類のみ)を正しく推定できたものの割合を,適合率はシステムが推定した全形態素に対して区切りと品詞(大分類のみ)を正しく推定できたものの割合を求めたものである.表中のFというのはF-measureのことで,以下の定義式により計算した.\begin{eqnarray*}{\rmF-measure}&=&\frac{2\times再現率\times適合率}{再現率+適合率}\end{eqnarray*}\noindent表の各行にはそれぞれ,\ref{sec:exp_condition}~節で述べた手法およびJUMANによる精度をあげた.JUMANは単独では辞書に登録されていないカタカナ語に対し「未定義語」という品詞を付与するため,それによる誤りが多くなる.ルールベースの構文解析システムKNP\cite{KNP2.0b6}は,JUMANに複数解の出力を許しその出力を入力とすると,構文解析の過程で品詞の曖昧性を解消し,未定義語も何らかの品詞に置き換えることができる.そこで,JUMANとKNPで解析した結果も評価した.表には+KNPと表記した.\begin{table}[tbh]\small\begin{center}\caption{解析結果(形態素区切りと品詞大分類)}\label{Result}\begin{tabular}{|c||c|c|c|}\hline&再現率&適合率&F\\\hline本手法&95.80\%(29,986/31,302)&95.09\%(29,986/31,467)&95.44\\JUMAN&95.25\%(29,814/31,302)&94.90\%(29,814/31,417)&95.07\\+KNP&98.49\%(30,830/31,302)&98.13\%(30,830/31,417)&98.31\\\hline\end{tabular}\end{center}\end{table}表~\ref{Result}にあげた形態素区切りと品詞大分類に対する推定精度は,我々の手法ではJUMAN+KNPよりも3\%程度低かった.その原因として学習コーパスの量,素性,コーパスにおける形態素の揺れなどが考えられる.今回用いた学習コーパスは約8,000文と少なく,素性については文献\cite{Uchimoto:eacl99}などで用いられているような組み合せの素性に相当するものはあまり用いていない.利用可能なマシンのメモリ容量の都合上,今回は学習コーパスの量,素性の数ともにこれ以上増やすのは困難であったが,いずれ可能になるだろう.次に形態素の揺れについてであるが,これは実験に用いた京大コーパスがJUMAN+KNPの解析結果を人手で修正したものであるということに起因していると思われる.このことはJUMAN+KNPの出力の評価に有利に働いている.例えば,最後が「者」で終わる形態素はテストコーパス中に153個あり,すべてJUMAN+KNPの出力と同じであった.このうち我々のシステムの誤りは3個(約2\%)であった.コーパスには「生産(名詞)者(接尾辞)」と「消費者(名詞)」の違いなどの揺れがあり,このように区切りに一貫性のない場合,過学習にならないように学習するのは難しい.揺れに関してはコーパス全体を通して他にも同様な例がいくつかある.例えば,「芸術家(名詞)」と「工芸(名詞)家(接尾辞)」,「警視庁(名詞)」と「検察(名詞)庁(名詞)」,「現実的(形容詞)」と「理想(名詞)的(接尾辞)」などがそうである.この揺れの問題を解決するためには,コーパス修正の研究がより活発に行なわれる必要がある.一つの方法として,我々のモデルを用いる方法が考えられる.学習したモデルを用いて学習コーパス中の各形態素の確率を再推定し,確率の低い部分に一貫性を欠いたものがある可能性が高いと推測する方法である.今後,この方法を試してみたい.\vspace{2pt}\subsection{素性と精度}\label{sec:features_and_accuracy}辞書の情報,未知語の性質は,我々が実験で用いた素性に反映されている.表~\ref{table:feature}にあげた素性のうち,「文字列」「辞書」の素性が辞書の情報を\footnote{「文字列」は学習コーパスに5回以上出現した形態素の文字列であり,これを素性として用いることは,学習コーパスから辞書的な情報を得て利用していることに相当する.},「長さ」「文字種」の素性が未知語の性質を反映する.表~\ref{table:feature}の右欄には,それぞれの素性を削除したときの解析精度と削除したことによる精度の増減を示した.ほとんどの素性が精度向上に貢献しており,特に辞書情報の貢献度が高いことが分かる.逆に辞書が解析結果に悪い影響を及ぼす例もある.例えば,「/海/に/かけた/ロマンは/,/」「/荒波/に/負け/ない心/と/」(「/」は形態素区切り)といった形態素区切りが出力として得られることがある.これは,漢字を使った表記「ロマン派」「内心」に加えて平仮名を使った表記「ロマンは」と「ない心」も名詞として辞書に登録されていたために生じた誤りである.このような間違いをなくすためには,不自然な表記を辞書に登録しないようにする,あるいは,辞書の表記に使われる文字種の性質を学習する必要がある.学習の際,一回しか辞書引きされなかった語は辞書に登録されていなかったものとして扱った.このようにしたのは,テストコーパスを解析するときには未知語が多くなると予想されるため,学習の際にもそれと同じ状況に少しでも近付けようとしたためである.ところが,実験後,学習コーパス,テストコーパスにおける未知語の割合を調べたところ,辞書に登録されていなかった語の数(見出し語の異なり数)の異なり形態素数に対する割合は,学習コーパスで26.6\%(3,859/14,493),テストコーパスで17.7\%(901/5,093)であり,テストコーパスにおける未知語の割合の方が学習コーパスにおける割合より少ないことが分かった.ちなみに,未知語の大部分は数詞およびカタカナで表記された名詞が占めていた.そこで,辞書に登録されていた場合には辞書引きの頻度に関わりなくその情報をすべて学習に用いることにすると,精度は再現率95.78\%,適合率95.38\%,F-measure95.58ポイントとなった.これは表~\ref{table:feature}にあげた精度よりわずかに良い結果である.今回の実験では学習コーパスより未知語の割合が少ないコーパスに対して実験したためこのような結果となったが,本手法を学習コーパスよりも未知語の割合が多い分野に適用するときには我々がとった学習手法は有効ではないかと考えている.その有効性を調べることは今後の課題である.\subsection{学習コーパスと精度}\label{sec:training_corpus_and_accuracy}この節では,学習コーパスと解析精度の関係について考察する.図~\ref{fig:learning_curve}に学習コーパスとテストコーパスのそれぞれを解析した場合の学習コーパスの量と解析精度の関係をあげる.図の横軸は学習コーパスの文数,縦軸はF-measureを表す.学習コーパスの解析には基本的に京大コーパスの1月1日の一日分を用いた.学習曲線(図~\ref{fig:learning_curve})を見ると,わずかではあるが増加する傾向にある.したがって,学習コーパスの量が増えればもう少し精度の向上が期待できそうである.\begin{figure*}[htbp]\begin{center}\leavevmode\atari(94.5,90)\caption{学習コーパスの量と精度の関係}\label{fig:learning_curve}\end{center}\end{figure*}\subsection{未知語と精度}\label{sec:unknown_words_and_accuracy}我々の手法は,未知語に対しても前後の形態素のつながりから形態素と認定でき,適切な品詞を付与することができる.例えば,「漱石」や「露伴」はJUMANの辞書には登録されていないため,JUMAN+KNPでは「漱(名詞)石(名詞)」「露(副詞)伴(名詞)」のように解析されるのに対し,我々のシステムではどちらも正しく名詞であると解析される.この場合は,細分類も正しく人名であると解析できた.このような固有名詞などは未知語になることが多い.そこで,未知語(辞書にも素性にもなかった語)に対する再現率を調査した.結果を表~\ref{Result2}にあげる.表には品詞細分類まで正しい場合に正解とするという基準で求めた再現率もあげた.この基準で求めた我々の手法の精度はJUMAN+KNPに比べて10\%程度良かった.この結果は我々のモデルでは未知語,特に固有名詞や人名,組織名,地名に関する語に対する学習が比較的にできていることを示していると考えて良いだろう.\begin{table}[htbp]\small\begin{center}\caption{未知語に対する精度(再現率)}\label{Result2}\begin{tabular}{|c|c|c|}\hline&形態素区切り&形態素区切り\\&と品詞大分類&と品詞細分類\\\hline本手法&77.96\%(849/1,089)&39.67\%(432/1,089)\\本手法+NE&79.52\%(866/1,089)&42.15\%(459/1,089)\\JUMAN+KNP&86.87\%(946/1,089)&29.94\%(326/1,089)\\\hline\end{tabular}\end{center}\end{table}さらに,固有表現に関する情報を素性として利用した場合の実験を行なった.ここで固有表現とは,人名,組織名,地名など特定の事物を示す表現のことである.これらの表現は特に未知語になりやすい.固有表現に関する情報は,固有表現にSGML形式のタグを付与したコーパスから抽出した.このようなコーパスとしては,CRL(郵政省通信総合研究所)固有表現データ,IREX-NE予備試験トレーニングデータ,IREX-NE予備試験データ,IREX-NE本試験逮捕トレーニングデータなど(合計約12,000文)\cite{Uchimoto:jnlp2000a}がある.これをJUMANを用いて形態素解析した結果から,固有表現を構成する形態素あるいは固有表現の前後の形態素の文字列として5回以上出現したもの2,279個を抽出し,素性として追加した.実験結果を表~\ref{Result2}の二行目(本手法+NE)にあげる.未知語に対する再現率は表~\ref{Result2}に本手法としてあげた精度より約2\%良くなっている.テストコーパスに対する精度は再現率95.93\%,適合率95.12\%,F-measure95.52ポイントであった.これは表~\ref{Result}にあげた本手法の精度よりもわずかに良い.これらの結果から,未知語になりやすい文字列を選択して素性として利用すると全体の精度が良くなるだけでなく,未知語に対する再現率も良くなることが分かる.
\section{関連研究}
\label{sec:related_works}実験で比較として用いたJUMANはルールベースのシステムであり,形態素に品詞を付与するときにかかるコスト(品詞コスト)と形態素を連接するときにかかるコスト(連接コスト)の和が一文全体で最小となるように形態素区切りと品詞を決める.それぞれのコストは予め人手により設定する必要がある.一方,我々の手法は学習に基づくシステムであり,JUMANの品詞コストと連接コストに相当するものを一つの確率値として表し,その確率値を計算するためのモデルをコーパスから統計的に学習する.大きな違いは,ルールベースと統計ベースという点だけでなく,JUMANが未知語を一文字からなる名詞と既知語に分割して出力するのに対し,我々の手法は,未知語に対しても前後の形態素のつながりから形態素と認定でき,適切な品詞を付与することができる点にもある.日本語では,我々の手法の他にも統計モデルに基づく方法がこれまでにいくつか提案されている.HMM\cite{Takeuchi:97}や可変記憶長マルコフモデル(VariableMemoryMarkovModel,VMM)\cite{Haruno:acl97,Kitauchi:99}に基づく方法ではF-measureで約96ポイントの精度が得られている.これは我々の手法よりも良い精度であるが,これらの手法では未知語に対する扱いがあまり考慮されていない.未知語は一文字からなる名詞と既知語に分割して出力される.春野らは着目している形態素と一つ前の形態素の情報,つまり2gramの情報を用いたときに,94\%程度の再現率が得られ,3gramあるいはそれ以上の情報を用いたときに96\%程度の再現率が得られたと報告している\cite{Haruno:acl97}.我々は2gramの情報のみで96\%程度の再現率を得ていることを考慮すると,3gram以上の情報を用いることにより,より良い精度が得られることが期待できる.3gram以上の情報を用いることは今後の課題である.\ref{sec:introduction}節で述べたように,未知語の問題に対処するため,これまで大きく二つの方法がとられてきた.一つは未知語を自動獲得し辞書に登録する方法(例えば\cite{Mori:96}など)であり,もう一つは未知語でも解析できるようなモデルを作成する方法(例えば\cite{Kashioka:97,Nagata:99}など)である.永田は未知語のモデルを提案し,未知語に対し約40\%の再現率が得られたと報告している\cite{Nagata:99}.我々の方法では表~\ref{Result2}に示したように,最大で,形態素区切りと品詞大分類を推定したときに79.52\%,形態素区切りと品詞細分類を推定したときに42.15\%の精度を得ることができた.我々の手法の精度は永田の手法に比べて品詞細分類を推定したときでもわずかに良い.永田は我々とは異なるコーパス(EDRコーパス)を用いており,直接精度を比較することは難しいが,京大コーパスとEDRコーパスでは品詞体系と形態素の定義が似ていることから,この結果は我々の手法を評価するのに十分な材料の一つになると考えている.森らは辞書情報を用いるモデルを提案した\cite{Mori:98}.彼らはEDRコーパスを用いたときにF-measureで約92ポイント,京大コーパスを用いたときにF-measureで約95ポイントの精度を得ている.彼らが辞書情報を用いて得た精度向上はF-measureで約0.2ポイントであるのに対し,我々の手法では辞書情報を用いることにより,F-measureで約1.7ポイント精度が向上した.森らが京大コーパスを用いて得た約95ポイントの精度は,我々の精度とほぼ同程度である.しかし,彼らは学習コーパスに現れた形態素の文字列の情報をすべて用いているため,我々の実験に比べて未知語が少ない状況で実験していたものと思われる.英語では,品詞タグ付けの手法として,HMM\cite{Cutting:92},可変記憶長マルコフモデル\cite{Schutze:94},決定木モデル\cite{Daelemans:96},MEモデル\cite{ratnaparkhi:emnlp96},神経回路網モデル\cite{Schmid:94},誤り主導の変換に基づく学習\cite{Brill:95}などに基づく方法やこれらのうちいくつかのモデルを組み合せた方法\cite{Marquez:97,Halteren:98}などがこれまでに提案されてきた.それぞれ高い精度が得られているが,これらの方法では大規模な語彙情報を利用することは難しい.一方,我々の提案したモデルは,辞書引きをする仕組みが素性の一つとして組み込まれているため,大規模な語彙情報も辞書情報として利用することができる.さらに,未知語の性質も学習することができる.そのため,我々のモデルを英語の品詞タグ付けに用いればより良い精度が得られる可能性が高いと考えている.
\section{まとめ}
\label{sec:conclusion}本論文では次の二つの特徴をもつモデルをMEモデルとして実装した形態素解析の手法を提案した.(1)学習コーパスからだけでなく辞書から得られる情報も用いる.(2)形態素となる文字列だけでなく形態素とはならない文字列の性質も学習することによって,未知語も形態素として推定でき,同時にその文法的属性も推定できる.実験により,辞書の精度に及ぼす影響の大きさ,および,我々の手法が,固有名詞,人名,組織名,地名など未知語になりやすいものに対して比較的に推定精度がよいことが分かった.さらに,固有表現を構成するような文字列を抽出し素性として利用すると,精度,特に未知語に対する再現率が良くなる(約2\%)ことが分かった.今後の課題としては以下の三点をあげておきたい.\begin{enumerate}\item学習に用いる情報について.一つ前の形態素の情報だけでなく,二つから四つくらい前の形態素の情報を利用するとともに,組み合わせの素性を増やす.\itemコーパスについて.コーパスの量を増やすとともに,コーパス修正の研究を活発に進める.また,異なるコーパスについても実験する.\item辞書について.今回実験に用いた辞書は既存の辞書であったが,今後,自動獲得した辞書を利用したときにどの程度精度の違いがあるかについて調査したい.また,文法体系が変わったときにその体系に合うように辞書情報を変換する技術を開発したい.\end{enumerate}\begin{flushleft}{\bf謝辞}\end{flushleft}本研究の評価にあたり,評価ツールを提供して下さった京都大学の黒橋禎夫講師に心から感謝の意を表する.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\newpage\begin{biography}\biotitle{略歴}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所.研究官.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{関根聡}{1987年東京工業大学応用物理学科卒.同年松下電器東京研究所入社.1990-1992年UMIST,CCL,VisitingResearcher.1992年MSc.1994年からNewYorkUniversity,ComputerScienceDepartment,AssistantResearchScientist.1998年PhD.同年からAssistantResearchProfessor.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.現在,同研究所けいはんな情報通信融合研究センター感性情報処理研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V21N02-08 | \section{はじめに}
述語項構造は,文章内に存在する述語と,その述語が表現する概念の構成要素となる複数の項との間の構造である.例えば次の文,\enumsentence{[太郎]は[手紙]を\underline{書い}た.}では,述語「書く」に対して,「太郎」と「手紙」がこの述語の項であるとされる.また,述語が表現する「書く」という概念の上でそれぞれの項の役割は区別される.役割を表すためのラベルは用途に応じて様々であるが,例えば,ここでの「太郎」には「ガ格」「動作主」「書き手」などのラベル,「手紙」には「ヲ格」「主題」「書かれる物」などのラベルが与えられる.このように,述語に関わる構成要素を構造的に整理する事によって,複雑な文構造・文章構造を持った文章において「誰が,何を,どうした」のような文章理解にとって重要な情報を抽出することができる.このため,述語項構造の解析は,機械翻訳,情報抽出,言い換え,含意関係理解などの複雑な文構造を取り扱う必要のある言語処理において有効に利用されている\cite{shen2007using,liu2010semantic}.述語項構造解析においても,近年,形態素解析や構文解析などで行われている方法と同様に,人手で作成した正解解析例をもとに統計的学習手法によって解析モデルを作成する方法が主流となっている\cite{marquez2008srl}.述語項構造を付与したコーパスとしては,日本語を対象にしたものでは,京都大学テキストコーパス(KTC)\cite{KUROHASHISadao:1997-06-24}の一部に付けられた格情報\cite{kawahara2002construction,河原大輔2002関係}やNAISTテキストコーパス(NTC)\cite{iida2007annotating,飯田龍2010述語項構造},GDAコーパス\cite{hashida05},解析済みブログコーパス(KyotoUniversityandNTTBlogCorpus:KNBC)\cite{橋本力2009},NTCの基準に従ってBCCWJコーパス(国立国語研究所)\nocite{bccwj}に述語項構造情報を付与したデータ(BCCWJ-PAS)\cite{komachi2011}などがあり,英語を対象にしたものでは,PropBank~\cite{palmer2005pba},FrameNet~\cite{Johnson2003},NomBank~\cite{meyers2004nombank},OntoNotes~\cite{hovy2006ontonotes}などが主要なコーパスとして挙げられる.過去十年間の述語項構造解析技術の開発は,まさにこれらのデータによって支えられてきたといって過言ではない.しかしながら,日本語の述語項構造コーパスは,その設計において未だ改善の余地を残す状況にあると言える.第一に,比較的高品質な述語項構造がアノテートされた英語のコーパスに比べて,日本語を対象とした述語項構造のアノテーションは,省略や格交替,二重主語構文などの現象の取り扱いのほか,対象述語に対してアノテートすべき項を列挙した格フレームと呼ばれる情報の不足などにより,作業者間のアノテーション作業の一致率に関して満足のいく結果が得られていない.例えば,現在ほとんどの研究で開発・評価に利用されているNTCに関して,飯田らは,作業者間一致率や作業結果の定性的な分析を踏まえれば,アノテーションガイドラインに少なからず改善の余地があるとしている\cite{飯田龍2010述語項構造}.また,我々は,述語項構造アノテーションの経験のない日本語母語話者一名を新たに作業者とし,KTC,NTCのアノテーションガイドラインを熟読の上で新たな日本語記事に対して述語項構造アノテーションを行ったが,KTC,NTCのどちらのガイドラインにおいても付与する位置やラベルを一意に決めることの出来ないケースが散見された.述語項構造のようにその他応用解析の基盤となる構造情報については,これに求められる一貫性の要求も高い.したがって,今後,述語項構造の分析や解析器の開発が高水準になるにつれて,既存のコーパスを対象とした学習・分析では十分な結果が得られなくなる可能性がある.そのような問題を防ぐためには,現状のアノテーションガイドラインにおいて判断の揺れとなる原因を洗い出し,ガイドラインを改善しつつ,アノテーションの一貫性を高めることで,学習・分析データとしての妥当性を高い水準で確保していく必要がある.第二に,より質の高いアノテーションを目指してガイドラインを改善することを考えた場合,それぞれの基準をどういった観点で採用したかが明確に見てとれるような,論理的で一貫したガイドラインが必要となるが,KTC,NTCなどの既存のアノテーションガイドライン\cite{ntcguideline,ktcguideline}や関連論文\cite{kawahara2002construction,河原大輔2002関係,iida2007annotating,飯田龍2010述語項構造}を参照しても,個々の判断基準の根拠が必ずしも明確には書かれていない.典型的に,アノテーションガイドラインの策定時に議論される内容はコーパス作成者の中で閉じた情報となることが多く,その方法論や根拠が明示的に示された論文は少ない.このため,付与すべき内容の詳細をどのように考えるかという,アノテーションそのものの研究が発展する機会が失われているという現状がある.また,KNBCやBCCWJ-PASのように既存のガイドラインに追従して作られるコーパスの場合,新規ドメインに合わせるなど一部仕様が再考されるものの,アノテーションの研究は一度おおまかにその方向性が決まってしまうと,再考するための情報の不足もあり,本質的に考えなければならない点が据え置かれ,さらに詳細が議論されることは稀である\footnote{公開されているガイドラインを確認する限りでは,KNBC作成時には格関係に関するガイドラインは再考されていない.BCCWJ-PASの仕様は,機能語相当表現の判別に辞書を用いる点と,ラベル付与の際に既存の格フレームを参照する点をのぞいて,NTCの仕様とおよそ同等である.}.そこで,本研究では,この二つの問題を解消するために,既存のコーパスのガイドラインにおける相違点や曖昧性の残る部分を洗い出し,どのような部分に,どのような理由で基準を設けなければならないかを議論し,その着眼点を明示的に示すことを試みた.具体的には,(i)既存のガイドラインに従って新たな文章群へあらためてアノテーションを行った結果に基づいて議論を行い,論点を整理したほか,(ii)新規アノテーションの作業者,既存の述語項構造コーパスの開発者,また既存の仕様に問題意識を持つ研究者を集め,それぞれの研究者・作業者が経験的に理解している知見を集約した.(iii)これらをふまえ,述語項構造に関するアノテーションをどう改善するべきか,どの点を吟味すべきかという各論とともに,アノテーション仕様を決める際の着眼点としてどのようなことを考えるべきかという議論も行った.本論文ではこれらの内容について,それぞれ報告する.次節以降では,まず,\ref{sec:related_work}~節で述語項構造アノテーションに関する先行研究を概観し,\ref{sec:ntc}節で今回特に比較対象としたNAISTテキストコーパスの述語項構造に関するアノテーションガイドラインを紹介する.\ref{sec:how-to-discuss}節で研究者・作業者が集まった際の人手分析の方法を説明し,\ref{sec:individual}~節で分析した事例を種類ごとに紹介する.さらに,\ref{sec:framework}~節で,述語項構造アノテーションを通じて考察した,アノテーションガイドライン策定時に考慮される設計の基本方針について報告し,\ref{sec:individual}~節で議論する内容との対応関係を示す.最後に\ref{sec:conclusion}~節でまとめと今後の課題を述べる.以降,本論文で用いる用語の意味を以下のように定義する.\begin{itemize}\itemアノテーション仕様:どのような対象に,どのような場合に,どのような情報を付与するかについての詳細な取り決め.\itemアノテーションスキーマ:アノテーションに利用するラベルセット,ラベルの属性値,及びラベル間の構造を規定した体系.アノテーション仕様の一部.\itemアノテーションフレームワーク:アノテーションにおいて管理される文章やデータベースの全体像,及びアノテーション全体をどのように管理するか,どのような手順で作業を行うかなどの運用上の取り決め.\itemアノテーションガイドライン:作業の手順や具体的なアノテーション例などを含み,実際のアノテーションの際に仕様の意図に従ったアノテーションをどのようにして実現するかを細かく指示する指南書.\itemアノテーション方式:特定のコーパスで採用される仕様,スキーマ,フレームワークのいずれか,もしくはその全体.\itemアノテーション基準:あるラベルやその属性値を付与,あるいは選択する際の判断基準.\itemアノテーション規則:アノテーション基準を守るべき規則として仕様やガイドラインの中に定めたもの.\end{itemize}
\section{関連研究}
\label{sec:related_work}述語項構造を解析したコーパスとしては,日本語文章に対するものに,京都大学テキストコーパス(KTC),NAISTテキストコーパス(NTC),GDAタグ付与コーパス(GDA),KTC準拠のアノテーションをブログ記事に対して行った解析済みブログコーパス(KyotoUniversityandNTTBlogCorpus:KNBC),日本語書き言葉均衡コーパス(BCCWJ)に対してNTC準拠のアノテーションを行ったコーパス(BCCWJ-PAS)などがある.英語を対象としたコーパスとしては,FrameNet,PropBank,NomBank,OntoNotesなどが主要なものとして挙げられる.特に,NTC,FrameNet,PropBank,NomBankなどは,比較的多くの文章事例を含むことから,これまでに,様々な解析器の学習データとして用いられてきた\cite{marquez2008srl,Yoshikawa2011,Iida2011,taira2008japanese}.\begin{table}[b]\caption{述語項構造コーパスの比較}\label{tbl:corpora}\input{ca12table01.txt}\end{table}表~\ref{tbl:corpora}に,各コーパスの特徴を示した.コーパス間の主な仕様の差としては,文書ドメイン,述語-項関係を表すラベル,格フレーム辞書の有無,文外の項に関する取り扱いの有無などが挙げられる.コーパスの文書ドメインは,従来,新聞記事を中心に整備されてきたが,係り受け解析等のその他の技術同様,教師あり学習によって開発された述語項構造解析器の精度が学習データの文書ドメインに依存するという結果\cite{Carreras:2005:ICS:1706543.1706571}から,近年は複数文書ドメインへのアノテーションが進みつつある(BCCWJ-PAS,KNBC,OntoNotesなど).述語-項関係ラベルとしては,文中の統語的なマーカーを関係ラベルに利用した表層格,項のより意味的な側面を取り扱った意味役割ラベル等のバリエーションがある\footnote{表~\ref{tbl:corpora}の表記では,述語-項の意味的な関係を規定するラベル全般を「意味役割」ラベルと表記したが,中でも格文法理論から派生し,少数のラベルを用いて述語横断的な項の統語/意味的な性質を表現する主題役割(thematicroles)については,特に区別して「主題役割」と表記した.}.既存のコーパスでは,英語のコーパスが意味役割を中心としたアノテーションを行ったのに対して,日本語では表層格を中心としたアノテーションが一般的である.この違いが現れた理由としては,言語による性質の違いと,それまでに作成された他のコーパスとの情報の差分の違い,という2点が挙げられる.日本語においては,項の省略が頻繁に起こるという性質のほか,副助詞「は」「も」等が使用されている場合や,連体修飾の関係にある場合など,KTCの文節単位の係り受け情報だけからでは表層的な格関係自体が自明でない場合があるため,述語とその項となる句の位置関係や表層的な格関係を明らかにすることが第一の目標とされた.一方で,英語の場合,項の省略のほとんどはto不定詞や関係節,疑問詞などの統語的な性質に基づいた移動によって説明でき,また,この移動には,句構造にもとづいて統語的アノテーションを行ったPennTreebankコーパス~\cite{marcus1993building,marcus1994penn}においてtraceというラベルを用いて述語項構造相当のアノテーションがなされており,実際の項の位置や,移動前における統語関係が既に明らかにされていたことから,述語が表現する概念におけるそれぞれの項の意味的な役割を表現するラベルをアノテートすることが次の段階の目標となったと考えられる.日本語の述語項構造アノテーションの主要なコーパスであるKTCとNTCでは,日本語の統語上の格関係マーカーである格助詞を関係ラベルとして利用している.KTCでは,述語が現れた時,その述語が伴っている助動詞・補助動詞等を含めた形(述部出現形)に対して用いる格助詞を利用して,項にラベルを付与する.\eenumsentence{\item$[太郎_{ガ}$]が[本$_{ヲ}$]を\underline{買う}。\item$[この本_{ヲ}$]は[太郎$_{ニ}$]に\underline{買ってほしい}。}上の例では,下線部が述語表現,[]括弧で囲まれた部分が項,その内部の下付き文字が格関係ラベルを表す.以降,特に断りのない限りは,例文での項構造はこのように表す.一方で,NTCでは,述語の原形に対して用いる格助詞を使ってラベルを付与する.\eenumsentence{\item$[太郎_{ガ}$]が[本$_{ヲ}$]を\underline{買う}。\item$[この本_{ヲ}$]は[太郎$_{ガ}$]に\underline{買っ}てほしい。}この方法は,使役・受身・願望など,格の交替が起こる表現の間で格のラベルを正規化することで,表層格に主題役割のようなより意味機能的な側面を持たせることを試みたものと捉えることができる.ただし,\ref{sec:ntc-case-ktc-case}節でも述べる通り,この二つについては他方には含まれない情報をそれぞれ持っており,どちらの方式がより適切かはアプリケーションによっても異なるため,一概に優劣を決めることは出来ない.述部出現形アノテーションにおける格交替の情報を補う研究として,自動的に収集された出現形の格フレームの間で格ラベルの交替がどのように起こるかを自動的に対応付ける研究\cite{sasano2013}も試みられている.英語に対する主要なコーパスでは,述語と項の間のより詳細な意味関係をとらえる「意味役割ラベル」が用いられる.これは,例えば,同じ意味機能を持った項が異なる統語関係として表れる統語的交替と呼ばれる現象に対して,それぞれの項に一貫した意味的役割を割り当てたり,Agent,Theme,Goalなどの主題役割(thematicroles)のように,項の述語横断的な意味機能を扱いたい場合に有用である.また,日本語でのアノテーションではあまり取り扱いのない,必須格と周辺格の区別についても扱っている.ただし,意味役割によるアノテーションスキーマでは項の役割を表すラベルの数が数十から数千という規模になり,意味の類似するラベルも多種存在するのが一般的であることから,ガイドラインにおいて類似ラベルの取り扱いを明確に区別したり,あるいは述語の語義ごとに格フレーム情報をあらかじめ作成し,各語義で項として取り得るラベルの選択肢を厳密に定めることによって曖昧な選択肢が生じないように工夫を行う必要がある.既に構築が完了している日本語のコーパスでは,唯一GDAが主題役割を取り扱っているが,アノテーション対象が文外のゼロ照応関係にある項に絞られており,述語項構造に見られる現象を網羅しているとは言い難い.NTCの表層格アノテーションでは,述語-項関係を述語が原形の場合の格関係に正規化するため,格助詞と述語とその語義の三つ組を考えれば,この三つ組は各述語の各語義に固有の意味役割を考えるPropBankやFrameNetとおよそ同等の意味表現となる.ただし,主題役割のような述語横断的な意味機能については考慮できない.一方で,近年では,日本語に対する新たな意味役割アノテーションの試みも進みつつある.現状では一致率や規模の問題から言語処理研究への実用レベルには至っていないものの,小規模な日本語文章への主題役割の試験的な付与例として,林部ら~\cite{hayashibe2012}やMatsubayashietal.~\cite{MATSUBAYASHI12.941}の研究が挙げられる.林部らの研究では,作業者間一致率がF値で67\%前後と低く,実用に至っていない.Matsubayashietal.の研究では,あらかじめ述語ごと,語義ごとの格フレームを用意するため必須格に対する一致率は$91\%$と高いが\footnote{Matsubayashietal.の研究では,文外の項に対するアノテーションを行っていない点に注意されたい.},アノテーションに必要となるフレーム辞書のサイズが未だ小さく,規模を拡充する必要がある.開発過程にある意味役割付与コーパスとして,BCCWJに対し,動詞項構造シソーラスを用いた意味役割アノテーションを行う研究~\cite{takeuchi2013}や,同じくBCCWJに対し,FrameNetと同様の理論的枠組を利用して意味フレームのアノテーションを行う研究\cite{ohara2013}などが進んでいる.英語のコーパスでは,それぞれの述語が取り得る格を列挙した格フレーム辞書と呼ばれる資源を構築するのが一般的な手法である.格フレーム辞書は,大規模な生コーパスの観察によりアノテーション作業に先立って構築される.アノテータは格フレーム辞書を参照しながら項構造の付与を行うことによりアノテーションの揺れを抑えることができるため,高い作業者間一致率を得ることができる.日本語の場合,英語に比べて項の省略が多く,また,英語のコーパスでは行っていない文をまたいだ項のアノテーションを行っているなど,アノテータが確認しなければならない領域が相対的に広いため,英語の場合との一致率の単純な比較は出来ないが,PropBankの項アノテーションに関する一致率は周辺格を含める場合でkappa値で0.91,含めない場合で0.93と極めて高い\cite{palmer2005pba}.また,含意関係認識タスクのためにFrameNet準拠のコーパスアノテーションを行った研究では,意味役割の付与に関する一致率が$91\%$であったとしている\cite{burchardt2008fate}.これに対して,明示的な格フレーム辞書を持たないNTCでは,一致率が$83\%$前後と相対的に低い.KTCでは,ガイドラインを安定化させた段階での格関係アノテーションの作業者間一致率を$85\%$と報告している\cite{河原大輔2002関係}.NTCの仕様に準拠する形でBCCWJに対するアノテーションを行った研究では,アノテータが既存の格フレーム辞書を参照しながら作業を行うことによって作業者間一致率に一定の改善を得ることが出来たとしている\cite{komachi2011}.日本語コーパスの初期のアノテーションにおいて,英語コーパスであらかじめ整備された格フレームが用いられなかった理由としては次の2点が挙げられる.第一に,英語のコーパスで行われた意味役割を用いたアノテーションでは,項のラベルとして統語機能的なラベルを用いず,純粋に項の持つ意味そのものを表現するラベルを用いたため,それぞれの述語が取る項の数やその意味役割を明示的に記述する必要があったのに対し,日本語の場合は格助詞を関係ラベルとして採用することで,ラベルセットが少数のラベルで規定されるので,明示的に述語ごとのラベルセットを列挙する必然性がなかったことが挙げられる.このため,初期のアノテーション作業として,格フレームを記述するためのコストとのバランスを考慮して,格フレームを用意せずに作業が進められたことはきわめて自然なことであった.第二に,日本語では項の省略が頻繁に起こるため,統語的な文構造の制約が強い英語の場合に比べて格フレームの分析が難解となっていることが挙げられる.日本語の述語に対して表層格の格フレーム情報を与える既存の言語資源としてはNTT語彙大系・構文体系の辞書\cite{nttlexicon}や計算機用日本語基本動詞辞書IPAL\cite{ipal},竹内らの動詞語彙概念辞書\cite{takeuchi2005},京都大学格フレーム\cite{kawahara2006case}などがあるが,いずれも異なった格フレームを与えており,またNTC開発における実際のアノテーション作業時には既存の格フレーム辞書では被覆されない格が出現するなどの問題があった.このため,日本語においては精緻な格フレーム辞書を構築する手段についても研究課題の一つとなっている.英語を対象としたコーパスにおいては,一般に,文をまたいだ項についての取り扱いがない.これは,日本語が項の省略を頻繁に伴うのに対して,英語における項の省略が比較的少ないことに由来する.しかし,英語の文章においても,イベント間の照応関係や推論的解釈により,同一文中には現れないが暗黙的に定まっている項があると解釈される場合もあるため,近年は,この問題を解消するための試みも研究されている\cite{laparra2013impar,frankpredicate,Silberer:2012:CIR:2387636.2387638}.また,多くのコーパスでは,名詞についてもその項構造が考慮されている.NTCでは,名詞のうち一般の述語で表されているような状態やイベントを表現するもの~\cite{noun2008}(本論文中では,これをイベント性名詞と呼ぶ)について,他の述語と同様に項構造を割り当てている.KTCやNomBankでは,イベント性名詞に加えて,ある名詞の意味解釈をするにあたってその名詞の意味の中に取り込まれていない別の何らかの概念との関係が必須であるもの,いわゆる非飽和名詞~\cite{nishiyama2003}についての項(\ref{enum:ktc-no-a})や,所有の関係,修飾の関係など,二つの名詞間に何らかの関係が成り立つ場合もラベル付与を行っている(\ref{enum:ktc-no-b})(\ref{enum:ktc-no-c}).\eenumsentence{\item$[米国_{ノ}$]の\underline{大統領}(KTC.「大統領」は非飽和名詞.「ノ格」のラベル付与)\label{enum:ktc-no-a}\item$[花子_{ノ?}$]の\underline{眼鏡}(KTC.非飽和名詞以外の関係.「ノ?格」のラベル付与)\label{enum:ktc-no-b}\itemthe[vice$_{ARG3}$][\underline{president}$_{ARG0}$]of[NorthAmericaoperations$_{ARG2}$](NomBank)\label{enum:ktc-no-c}}
\section{NAISTテキストコーパス}
\label{sec:ntc}我々は,可能な限り多くの現象を網羅した分析を行うという観点から,これまでに最も多くの文数にアノテーションが行われてきたNTCの仕様をベースとし,適時KTCとの対比を行いながら議論を進める方針とした.本節では,NTCのアノテーションガイドラインについて,本論文の理解に必要な範囲の内容を簡単に説明する.また,\ref{sec:ntc-iaa}~節では,NTCの作業者間一致率について,我々があらためて詳細に分析した結果を述べる.一般に日本語述語項構造アノテーションを行うにあたって同時に含まれる照応・共参照情報については,それ自体が難解な問題を多く含んでおり,加えて,種々の問題を包括的に考慮して議論を進めなければ解決は難しいと判断した.このため,照応・共参照アノテーションに対する考察・理論化は一つの大きな研究テーマに相当するものであると考え今後の課題とし,議論の対象外とした.\subsection{アノテーションガイドライン}\label{sec:ntc-guideline}ここでは,NTCのガイドラインについて,公開されているWebサイト\cite{ntcguideline}の情報を抜粋・再編集する形で概要を説明する.照応・共参照や名詞間関係に関わる部分については本論文での議論の対象外とするため説明を省略するが\footnote{NTCにおいて名詞間関係を表す「ノ」や「外の関係」はNTC1.5版に含まれておらず,付与事例が検証できなかったため,議論の対象外としている.},ガイドラインの全容についてはWebサイトを参照されたい.また,より詳細な内容については,必要に応じて\ref{sec:individual}~節での個別の議論の際に付け加える.ただし,同Webサイトの内容は,ガイドライン開発過程の情報が入り混じっており,必ずしも公開版データ\footnote{NTC1.5版をさす.}の作業時の規定を反映していなかったため,文書化されたガイドラインと公開版のデータに相違が見られる点については,NTCの開発者に確認し,実際の作業がどのようなものであったかを説明に追加した.また,表~\ref{tbl:difference}にNTC1.5版とWeb上のガイドラインにおける差異を対応表としてまとめた.\begin{table}[b]\caption{NTC1.5版とWeb上のガイドラインにおける仕様の差異(共参照・照応・名詞間関係を除く)}\label{tbl:difference}\input{ca12table02.txt}\end{table}\ref{sec:problem-collection}~節の論点収集のプロセスでは,Web上のガイドライン及びここで示す実際のNTC1.5版との差異において,明文化された規定のない項目については曖昧な取り決めであるという立場をとり,このうち簡潔な規則を定めることで問題を解決できなかった部分についてを\ref{sec:individual}~節で議論する.NTCでは,(i)動詞,形容詞,名詞句+助動詞「だ」,ならびに(ii)サ変動詞や『名詞句+助動詞「だ」』の体言止め,(iii)ナ形容詞の語幹で文や節が終わる場合を述語とみなし,対象表現に述語ラベルを付与する.さらに各述語について,その項構造を述語原形に対する表層格ラベルを用いて付与する.また,イベント性の名詞についても述語同様の項構造を考えアノテーションを行う.\eenumsentence{\item$[太郎_{ガ}$]が[花子$_{ニ}$]に[リンゴ$_{ヲ}$]を\underline{あげ}た。\item本日未明に$[竜巻_{ガ}$]が\underline{発生}、(サ変動詞の体言止め)\item$[県_{ガ}$]の現在の一般事務[職$_{ヲ}$]の\underline{採用}は日本国籍が要件。(イベント性名詞)}項は,必須格\footnote{ただし,NTCガイドラインWeb版では必須格と周辺格の区別の方法を示してはいない.}であるもののうちガ・ヲ・ニ格に相当するもののみを扱う.項や述語の領域は,IPADIC~\cite{ipadic}で定められる形態素分割における一形態素とする.項のスコープが句や節の場合は,最も後ろの形態素を項の範囲とする\footnote{NTCでは,項のスコープとして句や節を考慮に入れるが,句や節の範囲は文構造から特定出来るものとして,最も後ろの形態素のみをラベルの範囲とした.}.述語が「名詞+する」のサ変動詞の場合や名詞句+「だ」の場合は複数形態素から構成される述語と解釈するが,ラベルを付与する箇所は一形態素とし,サ変動詞の場合は「名詞+する」の「する」に,名詞句+「だ」の場合は名詞句の最も後ろの形態素に述語ラベルを割り当てる.\eenumsentence{\item彼が来たかどう[か$_{ヲ}$]\underline{知り}たい。\item$[A社_{ガ}$]は[新型交換器$_{ヲ}$]を導入\underline{する}。\item彼とお茶\underline{する}。\item$[太郎_{ガ}$]は九州\underline{男児}だ。}機能語相当表現については述語とはみなさない.同様に,形容詞の副詞的用法,固有表現内の述語も述語とみなさない\footnote{NTCガイドラインWeb版には転成名詞(ガイドライン上では「動名詞」との記述)についても述語とみなさないとあるが,実際にはNTC1.5版ではイベント性名詞としてアノテーションがなされている.また,機能動詞についてもアノテーション対象とみなさないとあるが,実際には機能動詞の認定が難しいとの判断から,通常の述語と同様のラベル付与が行われた.}(下線部は述語ラベルを付与しない箇所).\eenumsentence{\item彼の話に\underline{よる}と、(機能語相当表現)\item本を買って\underline{しまう}。(機能語相当表現)\item彼にリンゴを食べて\underline{ほしい}。(機能語相当表現\footnote{ただし,格が新たに追加される補助動詞に該当.})\item点の取り方を\underline{よく}知っている。(形容詞の副詞用法)\item野鳥を\underline{守る}会。(固有表現)}受身,使役などの場合は述語原形の格を付与する.ただし,これらの格交替によって原形の場合は取らなかった格が新たにガ・ニ格として増えている場合は,述語に付随する助動詞や補助動詞を仮想的な述語とみなし,そこに追加ガ/ニ格などの格を割り当てる\footnote{ただし,追加ガ/ニ格はNTC1.5版には含まれていない.}.\eenumsentence{\item$[私_{追加ガ@B}$]は[父$_{ガ@A}$]に\underline{死な$_{A}$}\underline{れ$_{B}$}た。\item$[私_{追加ガ@B}$]は[彼$_{ガ@A}$]に[リンゴ$_{ヲ@A}$]を\underline{食べ$_{A}$}\underline{させる$_{B}$}。}項が省略されている場合は,文章中から対象の項を探しラベルを付与する.文章中に候補となる句や節が存在しないが何らかの項が埋まっていると認識できる場合は,外界(一人称),外界(二人称),外界(一般)という三つの特別な記号を用意し,そこに項のラベルを割り当てる.照応先が一人称単数の場合は「外界(一人称)」,二人称単数の場合は「外界(二人称)」,それ以外の場合は全て「外界(一般)」の記号にラベルを割り当てる.\eenumsentence{\item$[牡蠣_{ヲ}$]を\underline{食べる}ため、[太郎$_{ガ}$]は広島へ行った。(項の省略)\item$[\phi_{外界(一人称)ガ}$]そろそろ\underline{帰ろ}うと思う。(外界照応)}二重に主語を取る構文においては,「N1はN2がV」を「N1のN2がV」として置き換えることが可能な場合は「ノ格」で付与,それ以外の場合は「ハ」と「ガ格」を用いて付与する\footnote{ただし,ハ,ノ格はNTC1.5版には含まれていない.}.\eenumsentence{\item$[広島_{ノ}$]は[牡蠣$_{ガ}$]が\underline{うまい}。\item$[太郎_{ハ}$]が[花子$_{ガ}$]が\underline{好き}だ。\item$[彼_{ハ}$]が[英語$_{ガ}$]が\underline{読める}。(可能動詞)}項が並列構造を取る場合には,以下の例文のとおり1形態素に限ってラベルを付与する\footnote{Web版のガイドラインでは,並列構造内に現れるそれぞれのエンティティを個別に扱い,複数の項としてアノテートするとしているが,NTC1.5版ではアノテーション対象を述語に最寄りの項のみに限っている.}.(\ref{enum:coordination-a})の場合は,「太郎と次郎」という名詞句が項であるとみなし,前述の「項のスコープが句や節の場合は,最も後ろの形態素をラベルの範囲とする」という規則に従い,「次郎」をラベルの範囲とする.(\ref{enum:coordination-b})の場合は,「中学校」と「高校」がそれぞれガ格とみなせるが,述語に最も近い項のみラベルを付与する((\ref{enum:coordination-c})も同様).(\ref{enum:coordination-d})のように「と」が「が」よりも後に出現する場合,及び他の項をはさみ離れて出現する場合は並列構造とは区別し,ガ格とはみなさない.\eenumsentence{\item太郎と[次郎$_{ガ}$]が\underline{遊ん}でいた。\label{enum:coordination-a}\item中学校は四割、[高校$_{ガ}$]も三割\underline{あっ}た。\label{enum:coordination-b}\item太郎はリンゴを、[次郎$_{ガ}$]は[オレンジ$_{ヲ}$]を\underline{食べ}たい。\label{enum:coordination-c}\item$[太郎_{ガ}$]が花子と結婚\underline{し}た。\label{enum:coordination-d}}述語が連体修飾をする場合において,被連体修飾句と述語との関係を格助詞を用いて表現できない場合は「外の関係」のラベルを付与する\footnote{ただし,「外の関係」はNTC1.5版には含まれない.}.\enumsentence{$[サンマ_{ヲ}$]を\underline{焼く}[けむり$_{外の関係}$]}\subsection{作業者間一致率}\label{sec:ntc-iaa}ガイドラインの分析に先立ち,我々は,飯田ら\cite{飯田龍2010述語項構造}が用いたものと同一のデータを用いて,NTCの作業者間一致率を更に詳しく分析した.その結果を表\ref{tbl:ntc_iaa}に示す.一致率は,二名の作業者が30記事にアノテートした結果について,一名の結果を正解,もう一名の結果をシステムの推定と仮定した場合の適合率,再現率,F値として算出した.このとき,推定されたトークンが正解データにおいて項となる共参照クラスタの中のいずれかのトークンと一致すれば正解とした\footnote{各作業者がアノテートした共参照クラスタが異なるため,表\ref{tbl:ntc_iaa}は作業者二名のうちどちらを正解と見なすかによって僅かに結果が異なるが,どちら側からもおよそ同じような結果となったため,片側だけを記載した.}.ただし,我々の評価方法では,飯田らの方法と異なり,述語やイベント性名詞の位置が不一致の場合は,それらに付与された全ての項を不正解とした.分析は,格ごとに,係り受け関係の有無,述語・イベント性名詞の別に分けて行った.係り受け関係がない場合とは,すなわち,本来統語的な関係として規定されるはずの項が省略されるゼロ照応と呼ばれる現象が現れていることを指す.結果として,格ごと,または係り受け関係の有無によって一致率にかなりのばらつきがあることが分かった.特に,ゼロ照応を伴う事例では,格の種類横断的に一致率が低い.顕著に低い値を示すのはゼロ照応のヲ格・ニ格,及びイベント性名詞に関するニ格であるが,これらは事例数自体が少ないため,この結果がガイドラインの不備によるものかどうかを確かめるにはあらためて事例を収集し検証する必要がある.\begin{table}[t]\caption{NAISTテキストコーパスの作業者間一致率}\label{tbl:ntc_iaa}\input{ca12table03.txt}\end{table}
\section{論点の収集方法}
\label{sec:how-to-discuss}\label{sec:problem-collection}本節では,既存コーパスのガイドラインにおける問題点を洗い出すために我々が取った方法を説明する.ガイドラインの問題点を収集するための具体的な方法論は確立されていないため,今回は(i)既存のガイドラインを利用して新規アノテーションを行い,曖昧な箇所を探るという方法と,(ii)NTC・KTCの仕様策定,NTC,KTCを用いた応用処理に関わった研究者,述語項構造アノテーションの仕様に対して問題意識を持つ研究者が経験的に持つ知見を集約するという方法の二つの方法を取った.前述のとおり,本論文で取りまとめる考察はNTCのアノテーションガイドラインを基準に行う.ただし,議論上関連のある項目についてはKTCのガイドラインとの対比を取り,より広範囲に考察を加えられるよう努めた.また,NTCやKTCのガイドラインにおいては,アノテートする文書ドメインが限定されていることにより認知されなかった問題がある可能性も否定出来ないため,今回の論点収集の過程では新聞ドメイン外の文に新たにアノテーションを行うことを試みた.議論の対象となる題材は,述語項構造アノテーションの経験がない一般人の日本語母語話者1名,及びNTC・KTCの仕様策定関係者3名と述語項構造アノテーションの仕様に対して問題意識を持つ言語処理研究者5名(著者ら8名)の計9名によって具体的に以下の手順で収集した.\begin{enumerate}\item述語項構造アノテーションの経験がない日本語母語話者1名を新規アノテーションの作業者とする.作業者にはNTCのアノテーションガイドラインを熟読してもらい,その後,基本的なアノテーション方法について指導を行う.\itemWikipedia,BCCWJよりサンプリングした文書に対して,NTCのガイドラインに従い,作業者が述語項構造を付与する.判断に迷いが出た事例は取りまとめて著者らに報告する.\item報告された事例について,著者らがNTC・KTCのガイドライン及びNTCデータ内の実際のアノテーション例と照らし,簡潔に解決可能かどうか確かめる.解決可能な場合,ガイドラインを更新し,解決案の説明と具体例を加える.解決不可能なものは議論対象の分類表に加える.このとき,NTCとKTCの間での取り決めの対比も行う.\item作業者は新しいガイドラインと未解決問題の分類表を持ち,作業済みのデータを修正する.$1,000$文程度になるまで新しい文章セットを受け取り(2)に戻る.\itemNTC・KTCの仕様策定に関わった研究者,既存の仕様に問題意識を持つ研究者ら計8名(著者ら)の意見を集約し,研究者が経験的に理解している仕様上の改善点を,(1)〜(4)の工程で出来た議論対象の分類表に追加する.また,新たに用意したBCCWJ上の記事20記事程度\footnote{コアデータ内の,書籍,雑誌,白書,Yahoo!知恵袋,Yahoo!ブログをドメインとする記事の冒頭10文程度を利用した.OC01\_00006,OC01\_00472,OC01\_00485,OC01\_01765,OC01\_02071,OW6X\_00007,OW6X\_00009,OW6X\_00016,OY03\_04233,OY03\_04343,OY04\_01354,OY14\_02901,PB13\_00021,PB14\_00016,PB14\_00057,PB19\_00011,PM11\_00031,PM11\_00207,PM11\_00223,PM11\_00226}に対して,上記(1)〜(4)の工程で改善したガイドラインを見ながら実際にアノテーションを行い,問題となった点を議論対象の分類表に加える.\end{enumerate}以上の方法で収集・整理した4種15項目の論点(\ref{sec:individual}~節,表~\ref{tbl:topics}を参照)について,著者らが議論を交わし,結果として得られた知見をまとめ上げた.
\section{個別の論点}
\label{sec:individual}本節には,\ref{sec:problem-collection}~節の方法によって収集されたガイドライン策定上の論点に関して,研究者間で議論した結果をまとめる.まず,我々は収集された問題をおおまかな種類ごとに分別し,結果,4種15項目の論点を得た.表~\ref{tbl:topics}にその一覧を示す.内容としては,述語の認定基準,格の取り扱い,格や格フレームの曖昧性の問題といった既存のコーパスに本質的に潜んでいた問題のほか,新聞ドメイン以外で新たに見られた現象もある.以下では,それぞれの論点について議論の詳細を記す.\begin{table}[b]\caption{述語項構造アノテーションのガイドライン設計に関わる論点}\label{tbl:topics}\input{ca12table04.txt}\end{table}各論点に対する議論は,著者らが種々のアノテーションタスクの設計を通して知る経験的な知見にもとづいて行われる.我々の目的の一つは,これら設計時の基本的な理念とガイドライン上の取り決めの対応関係を集約することであるので,議論の過程で現れたガイドライン策定上の基本原則については\ref{sec:framework}~節にあらためて取りまとめる.\subsection{アノテートすべき述語の認定基準}\label{sec:pred-dicision}\subsubsection{述語項構造を重要視すべき述語とそうでない述語}\label{sec:important-pred}文章中の述語は,その全ての述語項構造が等しく重要性を持つわけではなく,一部の述語に関しては,その述語項構造を解析する重要性が低いものもある.例えば,以下の文,\enumsentence{\underline{驚い}ては\underline{い}られない.}において,「驚く」は文の内容上その項構造の解析が重要になるが,一方の「いる」のほうは,より機能的な述語であり,項構造を捉えるというよりはむしろ「てはいられない」という1フレーズを機能的な表現とみなす方が自然と考えられる.述語項構造そのものを解析する重要度の低い述語に関しては,アノテーションコストの観点からも,解析器の評価をより重要度の高い項構造だけで適切に行えるようにするという点からも,区別して取り扱いたい.述語項構造の重要度に関する問題として,本論文では,\begin{enumerate}\item[(a)]複合語\item[(b)]機能語相当表現\item[(c)]機能動詞構文・格交替を伴う機能表現\end{enumerate}を取り上げる.これらは文章中にありふれた事象のため,アノテーションコストに対する影響も大きい.以下では,それぞれの項目について,どのように取り扱うべきかについての議論結果をまとめる.\noindent{\bf(a)複合語}以下のように,述語となりうる語の後ろに項が追従する形からなる複合語を考える.この場合,項自体がその複合語の主辞であるため,これら語の内部に現れる述語と項の意味関係はそのまま項の意味を修飾する構造となっている.この形では一般に項の部分が単体で持つ語の意味はそれほど重要ではなく,複合語全体のかたまりの意味となって初めて実用的な意味を持つ場合が多いため,内部構造を分解して解析することの重要度はその他の項構造と比べて低いと考えられる.\eenumsentence{\item\underline{作業}[者$_ガ$]\item\underline{書き}[手$_ガ$]\item\underline{輸入}[品$_ヲ$]\item\underline{提案}[手法$_ヲ$]}NTCやKTCでは,これらの複合語に関しては,全て内部の項構造をアノテートしているが,このような表現は出現頻度も高く,アノテーションコストに対して占める割合も高い.従って,もし応用処理の観点から見て重要度の低い関係とするならば,実際にこのような情報が必要なアプリケーションからのニーズを待って,後発的にアノテーションを始めるのでも良い.一方で,次の例文のように,述語部分が主辞となる場合や二つ以上の項を伴う複合語,複合語の外側にも項を取る場合などは,一般に項が内容語となるため,分解して項構造を考えることに通常と同様の価値があると取れる.\eenumsentence{\item$[計算機_{ヲ}]$\underline{使用}\label{enum:multiwd-outarg-a}\item$[計算機_{ヲ}]$\underline{使用}[者$_ガ$]\label{enum:multiwd-outarg-b}\item$[計算機_{ヲ}]$の\underline{使用}[者$_ガ$]\label{enum:multiwd-outarg-c}}ただし,接尾辞などのひときわ判断が容易なものを除いては,どの複合語の内部の項構造については価値が薄いかを判断することは容易ではないため,個別に判断することは現状では難しい.例えば,その代わりに,作業コストを下げ一貫性を保つための工夫として,複合語内部の項構造がほとんどの場合に一意に定まる事に着目し,複合語内部の格関係を辞書的に管理しておくことなどが考えられる.こうすることで,文章中の事例ごとにアノテーションを行う必要がなく作業コストが低下する上に,アノテーション結果の一貫性も保たれる.この方法をとった場合,アノテータは複合語の外側に項が出現する場合のみに対処すればよいことになる.\noindent{\bf(b)機能語相当表現(モダリティ等)}次の例文の下線部の述語は,助詞相当表現やモダリティ表現の一部と考えるのが自然である.\eenumsentence{\item彼の話に\underline{よる}と、その店はとても有名らしい。(格助詞相当表現)\label{enum:fe-yoru}\item夏休みの課題で蝉に\underline{つい}て調べた。(格助詞相当表現)\item気温が上がるに\underline{したがっ}て、だんだんと汗がでてきた。(接続助詞相当表現)\item見つけたと\underline{いっ}ても、これはかなり小さいものです。(接続助詞相当表現)\item驚いては\underline{い}られない。(モダリティ表現)\itemすぐに食べなければ\underline{なら}ない。(モダリティ表現)\itemジムに通うように\underline{なっ}た。(モダリティ表現)}これについて,NTCでは,例えば「通うようになる」の「なる」に対して「機能語相当」のラベルを付けることで区別し,述語項構造をアノテートしないとしている.ただし,網羅性を保証できないとの観点から配布版(1.5版時点)には「機能語相当」ラベルの情報は含まれていない.KTCでも,複合辞,モダリティ表現は述語認定の対象外としている.助詞相当表現やモダリティ表現は,内容語の慣用表現(\ref{sec:idioms}節)と同様に,句として強く結びつくことで非構成的な意味を形成している.たとえば,(\ref{enum:fe-yoru})に見られる「によると」は,このひとかたまりで情報の出所や判断の拠り所を表現する機能を持つ\cite{Morita1989}.「によると」は文において一つの格助詞のように振る舞うので,この中の「よる」のガ格が何であるのかを考えるのは不自然である.上の例文からは,それぞれ,下線部の述語を含む次のような機能表現を抽出することができる.\begin{quote}に\underline{よる}と、に\underline{つい}て、に\underline{したがっ}て、と\underline{いっ}ても、ては\underline{い}られない、なければ\underline{なら}ない、ように\underline{なる}\end{quote}機能表現を例外扱いするにあたり問題となるのは,どのような基準で機能表現とそうでないものを弁別するかということであるが,これらの機能表現は言語学や言語教育の分野で研究されており,\cite{Morita1989}や\cite{Jamasi1998}などの辞書が出版されている.自然言語処理の分野で電子的に利用可能な辞書として,松吉らが編纂した機能表現辞書\cite{Matsuyoshi2007}などが存在する.アノテーション作業前に,これらの辞書を用いてあらかじめ機能表現に印を付け,ほぼ自動的\footnote{一部の機能表現に対しては,機能表現かどうかの曖昧性を解消する必要がある.例えば,「コンビニに\underline{よる}と、ついお菓子をたくさん買ってしまう。」の「よる」は,述語項構造解析の対象とすべき述語である.}に「アノテートすべきでない述語」と認定することにより作業コストを下げることができる.辞書には載っていないが機能表現と考えるべき表現を見つけた場合,作業時にその表現を辞書に追加するなど,既存の機能表現リストから漏れている表現を拡充することも必要であると考える.\noindent{\bf(c)機能動詞構文・格交替を伴う機能表現}次の例文に見られるような機能動詞構文(\ref{enum:functional-a})や授受表現(\ref{enum:functional-b})における下線部bの述語は,直前の述語aに対して,アスペクトや態,ムード等の意味を付加する機能的な働きをするものと考えられている\cite{matsumoto1996syntactic,村木新次郎1991日本語動詞の諸相}.\eenumsentence{\label{enum:functional}\item事件が社会に\underline{混乱$_{A}$}を\underline{与える$_{B}$}\label{enum:functional-a}\item私が彼にサインを\underline{書い$_{A}$}て\underline{もらう$_{B}$}\label{enum:functional-b}}このような述語に対して,下線部AとBの双方の述語項構造を付与することは,構造の重複となり,作業の価値が低い.また,述語Bに関しては,機能的な振る舞いをするものであるから,述語項構造として取り扱う必要性も低い.したがって,より内容的意味を持つ述語Aの方を基準の構造とし,Bで追加される意味情報を態・アスペクト・ムードのマーカーと解釈する方法も考えられる.これに関し,既存コーパスのガイドラインでは,NTCでは,機能動詞については通常の述語と同様にラベルを付与し,一方,「てもらう」などの表現には述語ラベルをアノテートしない,としている.KTCでは,機能動詞についてはNTCと同様に扱われ,「てもらう」「てほしい」などの表現は述語の一部としてアノテートされる(「サインを\underline{書いてもらう}」など).機能動詞や授受表現を特別に扱う際の問題点は,機能語相当表現の場合と同様,その表現と取り扱いの方法が網羅的に列挙できるかという点にある.機能動詞に関するリストとしては,\cite{izumi2009}などがあるが,現象を網羅するわけではない.従って,具体的な作業方法の一案としては,上記のようなリストを出発点として,予め,あるいは作業時に段階的に機能動詞・授受動詞等に関する述語のリストを作っていき,コーパス中の事例を自動チェックするような仕組みを用いることで,作業を簡素化・半自動化する方法が考えられる.(\ref{enum:functional})の例でも見られる通り,これらの表現が使役・受身相当の機能表現の場合は述語Aが本来持つ格に加えて使役格などの新たな格が追加される場合もある.この場合の取り扱いについては,\ref{sec:additional-cases}~節と同様の議論となる.\subsubsection{名詞のイベント性認定}\label{sec:event-noun-dicision}サ変名詞,転成名詞に対して,対応する動詞と同等の項構造をアノテートすることを考える場合には,その名詞が実際に何かしらの状態やイベントを表しているかどうかが問題となる.例えば,次のフレーズにおける,「施設」という語について考えてみる.\enumsentence{研究\underline{施設}}この,「施設」という語はサ変名詞であり,「施設する」という動詞が作れるが,ここで「研究施設」は施設した結果物であり,イベントではない.このような語にも便宜的に述語項構造を割り当てることはできるが,文脈上イベントとして解釈できない語に関して,イベントとしての項構造を付与することは本質的ではない.むしろ,イベントとして解釈される「施設」と,そうでない「施設」を区別することのほうが重要といえる.NTCでは,イベント性名詞ともなりうるタイプの名詞に関して,イベント性を持たないことを表示するためのラベル(結果物/内容,もの,役割,ズレ)を用意しているが,明瞭な判断基準が存在せず,イベント性の判定は内省に頼っているのが実情である.ここでの論点は,どのような基準を設ければ名詞のイベント性をより明確な方法で判別できるかということである.あるいは,明確な基準を設けることが不可能であっても,閉じたデータ内においては一貫性を保つような方法を模索する必要がある.この問題については,既存研究で詳細な分析がなされており,アノテーションスキーマの改善も実施されているものの\cite{飯田龍2010述語項構造},ガイドラインとしての整備が行われていないため,再度事例を収集し,問題を整理する必要がある.我々の議論の中では,複合語と同じように,このような語が出現する度にそれぞれの語が結果物/内容,もの,役割,ズレのいずれのラベルと共に出現したかを記すチェックリストに追加しておき,アノテーション時に自動的に注意をうながす仕組みを用意することで一貫性を高めるという方法が挙がった.また,このチェックリストを利用し,コーパス中の事例を収集してガイドライン策定の検討材料とすることも考えられる.\subsubsection{述語が複合語である場合の分解}\label{sec:complex-word-decomposition}\begin{table}[b]\caption{IPA辞書,JUMAN辞書,UniDicによる形態素分割の違い}\label{tbl:morpheme}\input{ca12table05.txt}\end{table}NTCでは,述語は基本的に一形態素の範囲に対してラベルを付与するとしているが,形態素の分割基準は既存の形態素辞書を拠り所にするため,どのような辞書を使うかによって述語単位の取り扱いが大きく異なってくる.表\ref{tbl:morpheme}には,いくつかの複合語についてIPA,JUMAN,UniDic辞書に基づく形態素分割の差を示したが,辞書によって,あるいは単語によって分割の位置は異なる.このような語の扱いに関しては,次の二点が問題となる.(1)どのような形態素分割基準を基準とするのが述語項構造を考える上で最も適切か,(2)ある形態素分割基準に基づいて複合語が二形態素以上に分割されたとき,複合語内部の述語はその全てがアノテーション対象として適切かである.しかし,どちらの問題も現状で合理的結論を出すことは簡単ではない上,\ref{sec:criteria}~節に述べるように,言語処理アプリケーションによっては,どの単位を述語として扱うのがよいか,また,どの程度複合語内部の項構造が必要となるかに異なりがある.例えば,含意関係認識タスクにおいては,表\ref{tbl:morpheme}の「立ち読み」や「消し忘れ」がどのような理論に基づいて分割されているかにかかわらず,「私が、立って、本を、読む」ことや「私が、ライトを、消そうとして、消すのを、忘れる」ことを理解する必要がある.したがって,現状で完全な解決策を提示することは難しいが,部分的な対処案として,複合語の辞書的なアノテーション管理を考えることができる.例えば,まずはある特定の形態素分割辞書に依存して述語範囲の認定を行い,その上で\ref{sec:important-pred}~節の複合語の項目で述べたような複合語内部の項構造を辞書的に管理するのと同様の方法を必要に応じて一形態素と認識されている語に対しても適用することで,どのような形態素分割基準を用いた場合でも想定するアプリケーションの要求に対応できる柔軟な構造を取るという方法が考えられる.なお,複合動詞に関する述語項構造の具体的な分析例として,複合動詞用例データベース\cite{yamaguchi2013}が分析の出発点として参考にできる.\subsection{格の取り扱い}\label{sec:case}\subsubsection{ニ格の「必須格」性}\label{sec:ni-imperativeness}述語のそれぞれの項を,主題役割のような意味役割のレベルで考えると,「が」「を」に比べて,助詞「に」を伴って出現する述語-項の関係には様々なものがある\cite{contemporaryJapanese2,muraki:84}.このうち,初期段階の述語項構造アノテーションとして特別重要度が高いのは,アノテーション対象の述語そのものの概念を説明するために必須となる項目(必須格)である.一般に,助詞「に」を伴って出現する述語の項のうち必須のニ格とみなされるのは,動作による移動の着点や結果状態を表すものなどである.一方,状態やイベントが起こる時間,動作や変化の様態などを表す「に」は述語横断的に利用可能な付加的修飾要素であるため,周辺格などと呼ばれる.しかし,「が」「を」に比べて,ニ格では必須格性の判断が容易ではないケースも多い.本論文では,特に,\begin{enumerate}\item[(a)]必須格と周辺格の境界\item[(b)]ニ格の任意性\end{enumerate}の二つについて取り上げる.\noindent{\bf(a)必須格と周辺格の境界}例えば,次の例,\eenumsentence{\item二つに割る\label{enum:ni-a}\itemこなごなに割る\label{enum:ni-b}\itemめちゃくちゃに割る\label{enum:ni-c}}を見ると,(\ref{enum:ni-a})では,ニ格は動作の結果状態を表しているように見えるが,(\ref{enum:ni-b})や(\ref{enum:ni-c})のような表現になると,それが結果状態を指すのか,動作(あるいは変化)の様態を指すのかは極めて曖昧になり,判断が難しくなる.必須格と周辺格の区別については,明確な基準を持って分けられる事例もあれば,上記のようにどちらに属するとも言えない曖昧な事例も存在する.アノテーションを行う際に本質的に問題にしなければならないことは(i)理論上どのようにアノテートするのが合理的かということと,(ii)揺れなく,明確にアノテーションや評価が行える基準を設けなければならないということである.(i)の観点から言えば,もし上記のように必須格と周辺格の間の境界が本質的に曖昧なのであれば,曖昧な状態を取り扱うことのできる表現にしておけば良い.一方で,アノテーションや評価を行う場合は不確かなものは問題となる.少なくとも,どの事例に関しては明確に区別可能であり,どの事例が本質的な曖昧さを含むのかを明らかにしておかなければ,作業者間一致率や解析システムの評価時に,アノテーションやシステムの誤りであるのか,本質的な曖昧性のために揺れているのかを区別できない.この問題を解消するための方法として,ラベルの定義の問題でアノテータがいずれか一つのラベルを明確に選べない事例に対しては,ラベルの解釈に迷ったことを示すマーカーを用意し,対立候補と共にチェックをしてもらうことで明確な事例と曖昧な事例を区別しておく方法が考えられる.そうすることで,評価用データとして用いる際も,該当する事例を除外するなどしてより厳密な評価を行うことができるようになる.また,学習に用いる際には付与されたラベルの一貫性を担保したい場合があると考えられるが,曖昧な事例があらかじめチェックされていれば,その部分はアノテータの判断にかかわらず機械的に一方のラベルに修正したうえで学習するなどの処理を行うことができる.\noindent{\bf(b)ニ格の任意性}第二に,文章中に存在しないニ格を補う場合の問題がある.ある格が必須格だと判断した場合,それはすなわち,仮にその格を埋める項が文章中に存在しない場合でも,概念上は項が存在しているとみなすということである.しかし,必須格と周辺格を一般によく知られている意味機能的な役割で分類しようとすると,動作の結果状態のように,一般的には周辺格ではないと認識されている役割であっても,述語によっては項が埋められている必要がある(暗に省略されている)と感じにくいケースもある.\eenumsentence{\item信号が($\phi$ニ)変わったので、停車した。\label{enum:optional-ni-a}\item花瓶を($\phi$ニ?)割った。\label{enum:optional-ni-b}\itemボールが($\phi$ニ?)落下する。\label{enum:optional-ni-c}}例えば,(\ref{enum:optional-ni-a})では,信号が変わった結果の状態について,文脈から何かしら明確な項を仮定する(赤に変わった,と仮定する)のが普通であるが,(\ref{enum:optional-ni-b})については,特定の具体的な結果が指定されていなくとも,「割る」の一般的な結果状態は「割る」という語の語義の中に初めから含まれているため意味は解釈できる.(\ref{enum:optional-ni-c})の「落下する」という動詞では,ニ格で移動の着点を指定することはできるが,必ずしも落下の結果どこかに到達している必要はないので,ニ格が必須の項であるとは言い難い.このようなニ格の任意性は,述語,あるいは文脈ごとにそれぞれ判断が必要である.どのような基準でニ格の任意性を認めるかについては現状では明確な基準は用意されていない.また,仮に,ある述語についてニ格の任意性が判定できたとしても,実際の文中の事例で,任意であるニ格が明示的に格助詞「に」を伴って出現していなかった場合,それが未定義なのか,概念上存在しているのか,あるいは同一記事中の別の箇所に出現しているかどうかの判断も困難を極める.例えば,次の文\enumsentence{衛星は\underline{落下し}始めた。2時間後、太平洋で発見された。}の「落下する」のニ格は,未定義なのか,文章中に存在しない「地球」なのか,それとも「太平洋」なのかは,文脈をどのように解釈するかに依存する.したがって,このような文脈や事前知識に深く依存する問題については述語項構造アノテーションの範疇外としておき,それ以降の,例えば推論モデル等で取り扱う問題と規定する考え方もありうる.仮にそうした場合は,明示的に格助詞と共に表れる場合や,文脈上自明な場合を除いては未定義とするのが妥当である.\subsubsection{可能形・願望・二重ガ格構文・持主受身}\label{sec:potential}可能動詞や可能形,願望,及び,いわゆる二重ガ格構文においては,異なる意味機能を持った二つの格助詞「が」を伴うことがある.\eenumsentence{\item太郎は(が)英語が/を読める。(可能動詞)\label{enum:possible-a}\item太郎は(が)ブロッコリーが/を食べられない。(可能形)\item太郎は(が)ビールが/を飲みたい。(願望)\item太郎は(が)足が長い。(二重ガ格構文)}この問題について,NTCでは,可能形の場合は原形に戻してラベルを付与し,「AはBがV」を「AのBがV」として置き換えることが可能な場合は「ノ格」で付与,それ以外の場合は「ハ」と「ガ格」を用いてラベルを付与するとしている.\eenumsentence{\label{enum:double-ga}\item$[太郎_{ハ}]$は[英語$_{ガ}$]が/を\underline{読める}。\label{enum:double-ga-a}\item$[太郎_{ガ}]$は[ブロッコリー$_{ヲ}$]が/を\underline{食べ}られない。\label{enum:double-ga-b}\item$[太郎_{ハ}]$は[ビール$_{ガ}$]が/を\underline{飲み}たい。\label{enum:double-ga-c}\item$[太郎_{ノ}]$は[足$_{ガ}$]が\underline{長い}。\label{enum:double-ga-d}}しかし,この方法を取る場合,次のようなガ格あるいはヲ格の選択肢の範囲を限定する「は」の用法が現れたときに,ラベルを付与すべき対象が複数現れてしまい,場合によっては二重の「ハ」となってしまう.\eenumsentence{\item$[ワイン_{ハ?}]$は[ロゼ$_{ガ}$]が\underline{美味しい}。\label{enum:double-ga-e}\item$[私_{ハ}]$は[ワイン$_{ハ?}$]は[ロゼ$_{ガ}$]が\underline{好き}だ。\item$[本_{ハ?}]$は英語の[もの$_{ヲ}$]を\underline{読む}。\label{enum:double-ga-f}\item$[私_{ガ}]$は$[本_{ハ?}]$は英語の[もの$_{ヲ}$]を\underline{読む}。}上記のような例を考えると,項の選択範囲を限定する「は」は述語横断的に利用できる周辺的な格と類推できる.したがって,必須格と周辺格を付け分ける現行の仕様上では(\ref{enum:double-ga})における「ハ」と,(\ref{enum:double-ga-e})における「ハ」の用法は明確に区別したい.経験的に,格のラベルと文中の実際の助詞が見た目上一致すると,アノテータはこうした混同を起こしやすい.したがって,これを避けるために「ハ」の名称を二つに分けるという方法が有効な可能性がある.ここでは,例えば便宜的に(\ref{enum:double-ga})のハの場合を「属性所有のガ」,(\ref{enum:double-ga-e})(\ref{enum:double-ga-f})の場合を「限定ハ」と決めるような方法である.ラベルの名称を機能によって細分化するという方法は,格助詞を直接格関係のラベルに用いる日本語の述語項構造アノテーションにおいては,同じ助詞によって表される必須格と周辺格を区別する際に有効な手段であると考えられる.一方,KTCの場合,動作主体や経験者といった意味役割的な観念を用いて,『二重のガとなるもののうち,「は」「が」が動作主体や経験者である場合は,用言からみて遠い方のガ格をガ2格とする』とすることで,必須格と周辺格の混同を避けている.また,NTCでノ格に対応する「太郎は足が長い」などの表現は,「は」を「が」に言い換えると不自然だとして,ガ・ヲ・ニなどの格助詞では言い表せない「外の関係」として定義している.\eenumsentence{\item$[太郎_{ガ2}]$は[英語$_{ガ}$]が\underline{読める}。\item$[太郎_{ガ2}]$は[ブロッコリー$_{ガ}$]が\underline{食べられない}。\item$[太郎_{ガ2}]$は[ビール$_{ガ}$]が\underline{飲みたい}。\item$[太郎_{外の関係}]$は[足$_{ガ}$]が\underline{長い}。}これとは別に,(\ref{enum:possible-a})に見られる可能動詞では,NTC方式のアノテーションを行う際に格ラベルの組み合わせに曖昧性が出るという問題がある.具体例として,(\ref{enum:possible-a})の例文では,ラベル付与の方法に(\ref{enum:kanou-ambiguity-a})(\ref{enum:kanou-ambiguity-b})(\ref{enum:kanou-ambiguity-c})の三通りの曖昧性が発生する.\eenumsentence{\label{enum:kanou-ambiguity}\item$[太郎_{ハ}]$は(が)[英語$_{ガ}$]が/を\underline{読める}。(NTC方式)\label{enum:kanou-ambiguity-a}\item$[太郎_{ハ}]$は(が)[英語$_{ヲ}$]が/を\underline{読める}。(NTC方式)\label{enum:kanou-ambiguity-b}\item$[太郎_{ガ}]$は(が)[英語$_{ヲ}$]が/を\underline{読める}。(NTC方式)\label{enum:kanou-ambiguity-c}}この問題は,格フレームの曖昧性の問題として\ref{sec:frame-ambiguity}~節で詳しく議論する.KTCのガイドラインでは,同様の場面で「基準として,可能形の動詞の対象(目的語)の格はヲ格,動作主体の格はガ格とするが,もっとも自然な格を選択する.目的語の表層格がガ格になっている場合などには,その格を別の格に変えることはしない.ガ格がすでに使われている場合の動作主体の格はガ2格とする」と,厳密な優先規則を規定することで曖昧性を回避している.\subsubsection{使役・受身・ムード・授受表現・機能動詞で追加される格}\label{sec:additional-cases}NTCは,述語と項の間の格関係を,述語原形に対する表層格によって記述する.このような方法を取る場合,述語が使役・受身などの形を取った場合に,原形では対応のない格が出現する問題があるため,これに対処する必要がある.\eenumsentence{\item$[私_{追加ガ@B}$]が[太郎$_{ガ@A}$]に勉強\underline{さ$_{A}$}\underline{せる$_{B}$}。(使役)\item$[彼_{追加ガ@B}$]が[父$_{ガ@A}$]に\underline{死な$_{A}$}\underline{れ$_{B}$}た。(迷惑受身)\item$[私_{追加ガ@B}$]が[彼$_{ガ@A}$]に[ゲーム$_{ヲ@A}$]を\underline{壊さ$_{A}$}\underline{れ$_{B}$}た。(持主受身)\item$[両親_{追加ガ@B}$]が[太郎$_{ガ@A}$]に勉強\underline{し$_{A}$}て\underline{ほし$_{B}$}がっている。(願望)\item$[私_{追加ガ@B}$]が[彼$_{ガ@A}$]に[本$_{ヲ@A}$]を\underline{書い$_{A}$}て\underline{もらう$_{B}$}。(授受表現)}この問題に関して,NTCでは,上記のように助動詞や補助動詞を新たにマークし,追加ガ/ニ格を割り当てるとしている\footnote{NTC1.5版時点で,公開版にはこのラベル情報は含まれていない.}.NTCのガイドラインでは,少数の助動詞・補助動詞に関して,具体的な事例を用いてアノテーション方法を指示しているが,これに加えて,機能動詞構文について\ref{sec:pred-dicision}~節で取り上げたような取り扱いをする場合は,機能動詞構文によって追加される格についても取り扱う必要がある.また,述語によっては,機能表現によって格が追加されたと見なすべきか,受益格のような周辺格と見なすべきか明確でないケースも存在する.\eenumsentence{\item$[事件_{追加ガ@B}$]が[社会$_{ガ@A}$]に\underline{混乱$_{A}$}を\underline{与える$_{B:使役}$}(機能動詞構文)\item$[彼_{追加ニ@B?/受益格(周辺格)@A?}$]に[ジャム$_{ヲ@A}$]を\underline{取っ$_{A}$}て\underline{やる/あげる$_{B}$}}特に,機能動詞や補助動詞については,表現の種類が多岐にわたるため,追加されている項が省略されている場合の見落としなどを抑制して作業の一貫性を高めるためには,これらの現象に関わる表現について,網羅的にかつ統一的な扱いをする必要がある.これには,追加の格が存在する表現を一覧化し,自動的に確認を促す仕組みを設けるなどの方法が考えられる.\subsubsection{慣用表現}\label{sec:idioms}次の例のように,見た目上は述語とその項が個別に現れているようにも取れるが,実際にはこれらが句として強く結びつくことで,一つの新たな意味を形成している慣用表現がある.\eenumsentence{\item私が/の気が滅入る\label{enum:idiom-a}\item私のチームに手に入れたい\label{enum:idiom-b}\item確認作業に骨を折る\label{enum:idiom-c}\item彼の耳に入る\label{enum:idiom-d}}NTCでは,どのような表現までが慣用表現と言えるのかの境界が厳密には規定できないだろうという前提から,慣用表現かどうかを区別せずに見た目上の述語に対してアノテーションを行っている.KTCも同様に,慣用表現かどうかは区別せずにアノテーションを行っている.これらの表現に対して,述語項構造アノテーションのガイドラインが取り得る戦略としては,(i)NTCやKTCと同様に,慣用表現内部の述語項構造も全て分解してアノテートする,もしくは(ii)慣用表現は複数形態素にまたがる述語表現として特別扱いする,ということが考えられる.ただ,どちらの場合に関しても議論の余地がある.(i)の場合は,まず,\ref{sec:complex-word-decomposition}~節の複合語の議論の時と同様,慣用表現内部の項構造は,出現事例ごとに異なるということはほとんどないため,同じ構造を何度もアノテートする無駄が生じる可能性がある.また,慣用表現の表す意味は,比喩的な派生の結果,元の語句から構成的に組み上げられる意味と一致しないため,分解して項構造をアノテートする意味自体が薄い\footnote{ただし,一部の慣用表現では,「手に入れる」と「手に入る」,「骨を折る」「骨が折れる」などのように,慣用表現内部の述語項構造に依存した自他交替などがありうる.}.さらには,(\ref{enum:idiom-a})(\ref{enum:idiom-b})にも見られる通り,慣用表現によっては格の重複が起こり,どちらが内容的に見て重要な格で,どちらが慣用表現内の「意味的重要度の低い」格かの区別が難しくなる.(\ref{enum:idiom-c})に見られるように,元々の述語(この場合,「折る」)に存在しなかった格(ニ格)が増える場合もあり,アノテーションに際して格フレーム辞書を用意した場合などには,分解された語のみの格フレームでラベルを付与しようとすると扱いが難解になる.(ii)の場合は,ある句をどのような基準で慣用表現とみなすかが問題となる.慣用表現を整理した既存の研究としては,佐藤の基本慣用句五種対照表\cite{佐藤理史:2007-03-28}や橋本らのOpenMWE:日本語慣用句コーパス\cite{hashimoto2008construction}などが挙げられるが,佐藤の研究では「慣用句の定義はいまだに決定的なものがない」としている.また,慣用表現全体を述語と見なすこととした場合には,(\ref{enum:idiom-d})のように慣用表現内の項の一部を修飾する情報をどのように扱うかも問題となる.この例の「彼の」は,もし慣用表現を分解して考えた場合にはニ格相当の句の一部となっているため,この関係にも何らかのラベルを用意するのが望ましいと考えられる.この問題に対しては,まずはコーパス内の慣用表現と思われる事例を集め,慣用表現を述語項構造という観点で見た場合にどのような現象が起こりうるのかを網羅的に収集する必要がある.そのため,初期のアノテーションでは慣用表現内を分解した状態でアノテーションを行い,その上で慣用表現の取り扱いを決めるといった段階的なアノテーションを行うこともコーパス構築上の戦略として考えられる.また,実際に慣用表現をひとまとめにしたアノテーションを行う際は,機能表現や機能動詞での議論と同様,対象表現を辞書的に管理するのが望ましいと考えられる.\subsubsection{格交替と表層格ラベルの種類(KTC方式とNTC方式)}\label{sec:ntc-case-ktc-case}\ref{sec:related_work}~節で紹介したとおり,KTCは述部の出現形に対する格関係を付与し,NTCは述語原形に対する格関係を付与する.このため,格交替をともなって述語が出現する場合には,これら二つの基準では異なったアノテーションが行われる.出現形アノテーションと原形アノテーションは,互いに他方には含まれない情報を持っており,どちらの方式がより適切かはアプリケーションによって異なる.例えば,含意関係認識のような命題間の同一性を扱いたいタスクでは,(\ref{enum:entail})の文aと文bが同じ内容を表していることを捉えたい.そのため,このような場合は,格交替を吸収するNTC方式が有用である.\eenumsentence{\label{enum:entail}\item$[次郎_{追加ガ@B}$]は[太郎$_{ガ@A}$]に[ご飯$_{ヲ@A}$]を\underline{食べ$_{A}$}\underline{られ$_{B}$}た。(NTC方式)\item$[太郎_{ガ}$]が[ご飯$_{ヲ}$]を\underline{食べ}た。(NTC方式)}一方で,機械翻訳や文書要約などの表層的な形式をそのまま扱うことが可能なアプリケーションでは,受身や使役などはそのまま翻訳・要約すれば良いため,必ずしも述語原形の格に戻す必要性はない.項の省略がある場合も述部出現形の格助詞を用いて補完すればよい.このような場合にも述語を原形に戻そうとした結果,原形に対する格パタンを選択する際に処理を誤る可能性もあるため,無理に原形に戻す処理を行うことはリスクをともなう.したがって,このような場合には出現形でアノテーションを行うKTC方式を採用するほうが望ましい.\eenumsentence{\item$[太郎_{ニ}$]が来た。[りんご$_{ヲ}$]を\underline{食べられた}。(KTC方式)\item$[太郎_{ガ}$]が来た。[りんご$_{ヲ}$]を\underline{食べ}られた。(NTC方式:受身のまま「太郎」を補う場合に,ニ格で補われるべきという情報を得られない)}これらに関連して,格交替前と格交替後の格の対応関係を獲得したい場合には,KTC方式でアノテートしたコーパスからはこの対応関係を直接学習出来ないため,対応関係を獲得するための新たな資源が必要となる.NTC方式の場合,コーパス上にこの対応関係をアノテートしていることになるので見た目上はそのような対応関係表は必要ないが,実際にはコーパス中に格交替をともなって出現する事例は全事例の1割程度であるため,異なる格交替の振る舞いをするそれぞれの述語に対して対応関係の学習に十分な量の交替事例が得られるとは限らない.出現形表層格における格交替関係については,$10$億文規模の大規模なコーパスから自動獲得する方法も研究されているため\cite{sasano2013},格交替の扱いについては,今後どちらの方針でアノテートすることが効果的かを検証する必要がある.この検証を行うためのデータ作成の方法として,KTC方式,NTC方式の双方で同一文章にアノテーションを行う方法が考えられる.この場合のコストは,格交替が起こらない場合などの重複する作業は省略できるため,単純に倍というわけではない.ただし,効果的に対応関係を取るためのアノテーションの方法については今後検討する必要がある.もう一つの方法は,仮にいくつかのデータがアプリケーションによる要請などによって異なるラベルセットを用いてアノテートされたとしても,それぞれのスキーマによるアノテーションの結果を自然に統合し,互いにラベルセットを交換可能とする仕組みを考えることである.KTCとNTCの場合は,各述語に対する語義別の格フレーム辞書と,各語義に関する格交替の性質を網羅的に記述した辞書を用いてこの仕組みが設計可能である.この方法を取れば,将来,主題役割などのラベルを導入する場合にも,既存のアノテーションの結果をマッピングすることで,最小限のアノテーション作業によって新たな結果を得ることができると期待できる.ただし,このようなスキーマ間のラベルの対応を得るのは容易ではない.アノテーション作業の重複を避けるためには,異なるスキーマ間のラベルが事例ベースで一対一対応する必要があるが,各事例で適切な対応関係を得るためには,それぞれのスキーマが,お互いのラベルがエンコードしている情報の差を明確に意識し,その差が追加情報によって将来的に埋められるよう綿密に設計されたスキーマでなければならない.また,格フレームや語義等も,共通の基盤データに基づいておく必要がある.さもなければ,それぞれのスキーマの理論上のずれや格フレームのカバレッジ,語義の粒度のずれによる影響で,ラベル間の対応が一対多,多対多の曖昧な関係となり,結局,コーパス全体にわたってほとんど網羅的な確認作業を行わざるを得ないことになる.実際に,英語圏では,異なる述語項構造コーパス間にアノテートされた異なる情報を有効に活用しようと,資源間でのラベルのマッピングを試みた研究があるが,それぞれ異なる理念で設計されたコーパスであったため,格フレームやラベルの対応関係は多対多となり再アノテーションを必要とした\cite{loper2007combining,semlink}.したがって,仮に,アプリケーションからの要請や,段階的に情報を付加していく設計などによって,異なるアノテーションスキーマを使い分ける場合にも,将来の統合性をはっきりと意識した設計をしておくことが重要となる.例えば,\ref{sec:ni-imperativeness}~節で述べたような必須格と周辺格の区別などは現状のガイドラインでは明確に取り扱われていないが,意味役割との親和性を考えれば重要な事項である.\subsubsection{項としての形容詞(ニ格相当)}\label{sec:adjective-ni}次の二つの例文は,非常に似通った意味を表している.\eenumsentence{\item$[服_{ガ}$]が[赤$_{ニ}$]に\underline{染まる}。\item$[服_{ガ}$]が赤く\underline{染まる}。}どちらの文からも,我々は「服が赤くなった」という同一の結果状態を想像することができる.しかし,現状の表層格を用いたアノテーションでは,「赤く」という形容詞を用いた表現は項として認識されず,これら二文の間の項構造は異なるものになる.この違和感は,特に項の省略を伴う次のような例文に対して,どのような表現まで項として補うかという判断を行うときに大きくなる.\eenumsentence{\item$[真っ赤_{ニ?}$]なペンキで、[服$_{ガ}$]が\underline{染まっ}てしまった。\item$[赤い_?$]ペンキで、[服$_{ガ}$]が\underline{染まっ}てしまった。}この問題は,我々が,表層格というラベルを用いて,述語とそれを取り巻く要素の間のどのような関係を取り扱おうとしているかを考える際の良い題材である.現状のスキーマでは,格助詞の表層的な違いとして認識できる粒度の意味関係しか取り扱っておらず,果たしてどのような意味機能をもったものならばガ格・ヲ格・ニ格との意味的対応関係が取れるものなのかについて,網羅的な結論を即座に出すことは難しい.しかし,もし,述語項構造を,述語と項の間の意味的関係の同一性を示すための表現として用いようとするならば,「名詞+格助詞」や「形容詞」といった統語上の区分にかかわらず,同一の意味機能を持つものには同一の関係ラベルを与えるのがよいかもしれない.これは将来発展的に,主題役割のような,より意味機能的なラベルを用いてアノテーションスキーマを設計しようとする際には十分検討されるべき課題である.\subsection{格及び格フレームの曖昧性解消・必須項の見落とし}\label{sec:frame-ambiguity-argument-loss}\subsubsection{AのB,連体節,ゼロ照応等における格フレームの曖昧性}\label{sec:frame-ambiguity}ある述語が複数の格フレーム候補を持つとき,その述語が,AのB・連体節・項のゼロ照応などの形を取った場合,アノテーション時にどの格フレームを選択すべきかについて曖昧性が生じる.\eenumsentence{\item自他交替:パソコンの起動$\rightarrow$パソコンが起動する/パソコンを起動する\item道具格交替:ドアを開けた鍵$\rightarrow$(誰かが)鍵で開ける/鍵が開ける\item他動詞/自動詞+使役:政府による経済再生$\rightarrow$[政府$_{ガ}$]が[経済$_{ヲ}$]を再生する/[政府$_{追加ガ}$]が[経済$_{ガ}$]を再生させる\itemその他:私が教える生徒$\rightarrow$生徒を教える/(何かを)生徒に教える}また,述語によっては,同一の意味機能を持つ項に対して複数の格助詞が代替可能である場合がある.\eenumsentence{\item私が/から話す\item太郎に/からもらう\item風に/で揺れる花びら\item土台に/とくっつける}この例では,ガ・ヲ・ニの間で代替可能なものはないが,仮に今後付与対象の格助詞を拡充することを考える際には,このような曖昧性を生み出す要素に対してどのように一貫したアノテーションを行うかを考慮する必要がある.ラベルの選択に本質的な曖昧性が出る場合には,ある基準にもとづいて(例えば,出現頻度順や,アノテーションコストが低くなるように,などで)決めた規則に従って,付与するラベルが一意に定まるようにするのが一般的である.しかし,前者の格フレームの曖昧性については,文脈によってはどちらか一方の格フレームの方が他方での解釈よりも自然な場合があり,そのような場合は適切な解釈となる格フレームを選ぶのが好ましいと考えられる.一方で,文脈の曖昧さによってはアノテータ間の意見が一致しない場合もありうるし,当然,本質的にどちらに解釈しても自然な場合もある.そのような事例に対しては,自動解析器の学習や評価時に適切な取り扱いができるように配慮しなければならない(どちらの解釈でも正解として学習・評価するなど).このような場合に総合的に配慮した対策を検討してみる.例えば前者の格フレーム間の曖昧性については,(i)事前に述語ごとの格フレーム辞書を用意しておくか,代表的な格フレーム交替についての名称を列挙しておき,(ii)アノテーション時に,複数の格フレームで判断に迷うものや本質的に曖昧なものについては,その交替の候補を列挙し,(iii)自己の判断,もしくは規則に従った判断で選んだ格フレームで格関係をアノテートする,という方法で,本質的に曖昧な事例と,規則や主観にもとづいた上での不一致を弁別することができる.次に,後者の代替可能な格に関するアノテーションを検討するため,今,仮に,ラベルの数を拡張し,ガ・ヲ・ニ・カラ・デ・トの6つの表層格を使ってアノテーションを行っている場合を考える.この6つのラベルに対して,$ガ・ヲ・ニ>カラ>ト>デ$などの半順序を与えることで規則的にこれを解消することもできるが,文中で,\enumsentence{彼には私から話しておく。}と格助詞「から」を伴って出てきている事例に対して,これを「ガ格」として正規化するためには,アノテータは事例毎に対象の述語に関する格フレーム辞書を想起し,格の交替関係を確認せねばならず,アノテーションのコストが大きい.したがって,作業コストの観点からすれば,少なくとも,述語が原形で使用されているもので,項が格助詞を伴って現れる場合には出現形の格でアノテートし,受身・使役などで格交替しているものや,ゼロ照応などで元の格助詞が不明なものに関しては,上記の半順序規則を適用するなどといった方法が好ましいと考えられる.一方で,解析器の学習や評価を行うときの観点からすれば,ラベル付与時に格を正規化しない場合に,格に意味的な一貫性を持たせて取り扱う,もしくは曖昧な格のうちいずれの格でも本質的に正しいという取り扱いをするためには,別途格フレーム辞書等に述語毎の格の交替情報を記述しておくなどする必要がある.\subsubsection{格フレーム辞書とアノテーションの一貫性}\label{sec:frame-dictionary}NTCやKTCのアノテーションでは,被連体修飾詞やゼロ代名詞として出現する項など,明示的に格助詞を伴わなかったり,対象の述語と何らかの統語的関係を伴わない項に関しても格関係の付与を行う.\pagebreakただし,開発作業時点では,ある述語の取り得る格(格フレーム)について参照できる辞書等が存在しなかったため\footnote{NTCでは,NTT語彙大系・構文体系の辞書\cite{nttlexicon}や竹内らの動詞語彙概念辞書\cite{takeuchi2005}などを参照して作業したものの,辞書に記述されている格パタンと新聞に出現する格パタンが必ずしも一致せず,逆に作業者が混乱したために,使用が中止された.},アノテータは内省に頼りながら,文章中からその述語に足りない項を補う作業を必要とした.しかし,一つ一つの述語の格フレームの定義をアノテータの内省に頼る方法には限界があり,その影響は\ref{sec:ntc-iaa}~節表~\ref{tbl:ntc_iaa}のNTCの作業者間一致率においても,ゼロ照応項の不一致という形で顕著に見られる.述語項構造アノテーションの一貫性を今以上に向上させるためには,予め各述語に対して正確な格フレーム辞書を定義しておくなどして,全てのアノテータが共有する共通の語彙知識ベースを整備する必要がある.実際に,NTCガイドライン準拠のアノテーションをBCCWJに対して行った研究\cite{komachi2011}では,既存の格フレーム辞書を一部参照することによって,作業者間一致率に一定の向上が得られたとしている.作業の上で参照する格フレーム情報はできるだけ精緻なものが求められるが,一方で,大規模な文章に対する述語項構造アノテーションを行うにあたって,ある述語の様々な言語現象を網羅した実用に耐えうる頑健な格フレーム辞書を人手で用意するには膨大なコストを必要とする.整備コストを抑えた方法として,大規模な文書データから自動的に格フレームを獲得する研究が存在するが\cite{kawahara2006case},獲得したフレームにはノイズも存在するため,アノテーション作業での運用には工夫が必要である.アノテーションを行う全てのデータができるだけ正確となるよう運用するのが最も望ましいが,現実的な面で言えば,例えば,初期の段階では,全体からサンプルした一部のデータに出現する述語のみ,あるいは主要語のみに絞るなどして,一部の述語に対してのみ精緻な格フレーム辞書を作ってアノテーションを行う方法が考えられる.この場合,精密なアノテーションデータは評価用のデータとして整備し,残りの部分は自動獲得した格フレーム等を参考にしながら大規模にアノテートするなど,質と量の双方を兼ね備えるコーパスを設計する方法が好ましいと考えられる.このような方法論はBCCWJのコアデータとデータ全体の間の関係などにも見られる.\subsubsection{非文へのアノテーション}\label{sec:ungramatical-sentence}アノテーション対象のデータには,場合によっては一部非文(らしき文)も含まれる.このような文に対してどのようなアノテーションの方針を取るのかについても考慮の余地がある.\eenumsentence{\item服を乾燥する(受容の余地あり)\label{nonsentence-a}\itemガラスを壊れる(マークされている意味機能的に受容出来ない)\label{nonsentence-b}}例えば,一般には「乾燥する」は自動詞だとされているが,(\ref{nonsentence-a})のような用例はWeb上には多数見られる.一方で,(\ref{nonsentence-b})の「壊れる」のように,形態論上は自動詞の形を取っているにもかかわらず格助詞「を」を取るような構造の文は相対的に受容しがたい.このような文に対して,(i)アノテートするかということと,(ii)どのような文を非文とみなすかということが問題となる.(i)に関しては,現実にデータ上に存在する事例であり,応用事例によっては特によく使われている過ちは頑健に解析したいという場合もあるため,書かれたままの表層格を基にアノテートする方法が望ましいと思われる.(ii)に関しては,我々の知る限り,現在までに非文というものの明確な定義は存在せず,個人の内省にもとづいて判断されるもののため,例えば,非文かどうかの判断はアノテータに任せ,代わりに非文と判断された事例を記録しておくことで,必要に応じてデータを区分できるようにしておくような方法が有用と考えられる.\subsection{新聞ドメイン以外で見られた現象}\label{sec:other-domains}本節では,新聞記事以外のドメインに対する試験的なアノテーション作業において現れた,既存のガイドラインで対象としていない項目についてまとめる.このことについて我々が分析の対象としたデータはWikipedia及びBCCWJコアデータ\footnote{書籍,雑誌,白書,Yahoo!知恵袋,Yahoo!ブログの5つのドメインを含む.}より収集した1,000〜1,200文程度であるため,各項目の事例を網羅的に収集するに至ったとは言い難い.従って,ここではそれぞれの項目についての現象の説明をするにとどめ,具体的な考察については今後の課題とすることにした.また,今回の分析に用いた新ドメインの文章量は,新聞ドメイン以外で新たに必要となる基準を多岐にわたって示すには十分ではないが,一般にはドメインごとに少なからず特定の言語現象の分布に偏りがあるなど,各ドメインは特有の性質を持つ場合が多い.このため,アノテーションガイドラインを新ドメインに対応させるためには,それぞれのドメインにおける十分な量の個別事例を収集し分析するとともに,同ドメインにおけるアプリケーションからの要請等も検討しながら適切な仕様を策定していく必要がある.\subsubsection{述語の省略}\label{sec:pred-omission}口語的な文においては,文末の述語が省略され,項のみが残されるというケースがよく見られる.\enumsentence{タモリさんから、「これは誰から?」と聞かれた。(「貰ったの」の省略?)}このような例で省略されている述語が文脈上容易に想像できる場合,何かしらの述語を補うか,あるいは「述語-非出現」などのラベルを用意して対応する格をアノテートするか,そもそも項構造を解析しないか,ということが議論の対象となる.述語省略の究極的なケースとしては\eenumsentence{\itemこれは…。\itemそれはちょっと…。}などがあり,このような場合は,述語が何であるかのみならず,残された格が何格であるかすら推定が難しい場合があるため,どこまでがアノテーションを行って有用な情報となるかの判断は難しい.\subsubsection{疑問文の照応}\label{sec:question}対話文においては,疑問文とその回答の間での照応も存在する.\eenumsentence{\item「あれは誰?」「彼は山田太郎だよ」\item「誰からもらったの?」「太郎からだよ」}NTC・KTCにおいては,現在のところ疑問文に対する照応関係の取り扱いはない.共参照・照応については本論文での議論の範疇外としたが,対話文の多いドメインに対して照応・述語項構造を付与する場合は,疑問文とその回答に対するアノテーション仕様も考慮する必要が出てくる.\subsubsection{音象徴語}\label{sec:sound-symbol}次の例のように,音象徴語がサ変名詞のように振る舞い,述語として現れる場合がある.そのような場合,音象徴語にも述語項構造をアノテートすることが考えられるが,事例によっては,副詞的振る舞いとサ変名詞的振る舞いのどちらと取るか判断に迷う場合があった.\eenumsentence{\item$[胸_{ガ}$]がドキドキ\underline{する}\item$[胸_{ガ}$]が\underline{ドキドキ}\item$[胸_{ガ}$]の\underline{ドキドキ}(イベント性名詞)\item$[胸_{ガ}$]がドキドキと\underline{高鳴る}音(副詞用法)}サ変名詞的振る舞いをする場合,副詞的振る舞いをする場合の他,その他の音象徴語の統語的振る舞いについて,述語として認定するための明確なガイドラインを整備する必要がある.
\section{見通しの良いフレームワークの設計}
\label{sec:framework}より質の高いアノテーションを目指してガイドラインを改善していくことを考えた場合,対象のガイドラインは,その中で示されるそれぞれの基準がどのような視点で採用されたのかが明確に分かるものでなければならない.また,仕様策定時の理念をコーパス作成者の中で閉じた情報とせず,広く研究者間で共有できる形に整理することにより,継続的な議論が可能になると考える.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA12f1.eps}\end{center}\caption{設計の基本方針と各論点との対応関係}\label{fig:principles}\end{figure}このような背景から,本節では,述語項構造アノテーションを題材とすることで集約した,アノテーション仕様及びガイドラインの策定時に配慮されるべき基本方針を述べる.これらは,議論に関わった研究者らが種々のアノテーションタスクの設計を通して経験的に理解している事柄を集約したものであり,複雑でアノテーションコストが高く,また,現象の網羅のために大規模なアノテーションを行う必要がある同様のタスクに対しても有用なものである.\ref{sec:criteria}~節では,\ref{sec:individual}~節の議論から集約したガイドライン策定上の着眼点を,各論点との対応関係を示しながら述べる.図~\ref{fig:principles}には,\ref{sec:criteria}~節で説明する設計の基本方針と\ref{sec:individual}~節で示した各議論との対応関係をあらかじめまとめた.\ref{sec:example-framework}~節では,議論全体を俯瞰する目的で,\ref{sec:individual}~節で議論した内容にもとづいた述語項構造アノテーションのフレームワークの具体的な一例を示す.\subsection{大規模アノテーションタスクに関するガイドラインの設計時に考慮すべきこと}\label{sec:criteria}\noindent\textbf{A.データ内の現象に関する取り扱いの網羅性}(\ref{sec:important-pred}節,\ref{sec:event-noun-dicision}節,\ref{sec:complex-word-decomposition}節,\ref{sec:additional-cases}節,\ref{sec:idioms}節):大規模なデータに対してアノテーションを施す場合,そのデータ内で起こりうる,判断に特別のガイダンスを必要とする現象に対して,現状のガイドラインがその現象のそれぞれの事例を十分に被覆できるかどうかについて十分な配慮が必要である.特に,アノテーションの判断の決め手が,単語の意味や,慣用表現など,言語の生産的な部分に関与している場合には,予め判断基準が列挙しつくせない場合もある.その場合,アノテーション作業中に逐次的にガイドラインの一部を更新・反映する仕組みについても考慮する必要がある.綿密に判断基準を決めるべき特定の現象があるとき,そのバリエーションが,事前に少量の努力もしくは既知の知識で列挙可能かどうか,非生産的で有限個なのか,あるいは生産的なのかについて考察し,もし,事前列挙不可能な場合は,作業中に新たなバリエーションを発見した際に他の基準に極力影響しない形でガイドラインを更新する方法についてもフレームワークの設計時点で考慮する必要がある.\noindent\textbf{B.利用目的とアノテーション仕様の関係}(\ref{sec:important-pred}節,\ref{sec:complex-word-decomposition}節,\ref{sec:ntc-case-ktc-case}節):テキストに対するアノテーションを考えたとき,一般には,利用目的が異なれば,それに応じて必要になるラベル情報も異なる.必要な情報のみを表現するラベルセットを作成し,不必要な情報の付与は避けるのが自然なスキーマ設計の方法である.述語項構造のような基本的構造のアノテーションにおいても,同様の考え方は必要である.例えば,次に挙げる応用処理においては,述語項構造のどの部分の情報を用いたいか,どのような目的で用いるかによって,ラベル付与の基本単位や前提となる意味論の精密度が異なる.\begin{itemize}\item機械翻訳:フレーズベースで翻訳する場合には,複合語内部の項構造情報は比較的必要性が低い.また,項のラベルについては,基本的には表層格のレベルで十分な場合が多い.日英の場合,省略(ゼロ照応)解析は重要課題とされる.\item含意関係・言い換え認識:複合語内部も分解して解析する必要がある.場合によっては,項構造が意味役割のレベルで表現されるのが望ましい.\end{itemize}述語項構造のような基本的な構造をアノテートする際は,様々な応用の可能性を想定しなければならない.また,このようなそれぞれの応用処理からの異なる要求に対し,柔軟にアノテーションの方法を提供でき,かつ,仮にアノテーションがタスク志向で行われた場合にも,最終的にタスク個別のアノテーションデータを統合できるようなフレームワークであることが好ましい.\noindent\textbf{C.段階的に質と情報密度を向上できるフレームワーク}(\ref{sec:idioms}~節,\ref{sec:ntc-case-ktc-case}~節,\ref{sec:adjective-ni}~節):述語項構造や語義のアノテーションのように,アノテーションコストの非常に高いタスクでは,人的資源の制約から,一部の現象のみに対象を絞って初期のアノテーションが行われる場合もある\cite{pradhan2007semeval}.また,解析のための理論自体が未解決なタスクの場合,全ての問題点が解決するのを待たずに,判断の境界が明確な部分についてのみアノテーションを進めるという方法が取られる場合もある.こうしたアノテーションタスクにおいては,アノテーションスキーマを順次拡充・変更し,段階的に新しいタイプの情報を付加していける設計のほうが好ましい.しかし,そのような設計の実現のためには,実際には仕様設計の初期段階においても,将来追加される情報をある程度想定し,表現の親和性や,データの自然な統合方法について配慮しておく必要がある.仮に問題を全て解決せずとも,タスク内で起こりうる現象について把握し,可能な限りスキーマ拡張のためのインターフェースを用意しておくのがよい.\noindent\textbf{D.本質的に曖昧な選択肢に対する作業の一貫性・評価}(\ref{sec:ni-imperativeness}節,\ref{sec:frame-ambiguity}節,\ref{sec:ungramatical-sentence}~節):ある現象に対してアノテーションを行うとき,複数の選択肢に関して,理論的な要請も特になく,応用処理の観点からもどちらの選択肢を取っても問題ない場合がある.このような場合にどちらの選択肢を選ぶかの基準を設けなければ,曖昧性のために見かけ上の作業者間一致率が低下する.また,明確に判断可能な事例と本質的に曖昧性のある事例が混在することで,解析システムの評価時にも,各事例において,解析誤りのために精度が低いのか,タスク自体が持つ曖昧性のために精度が低いのかの判断が難しくなる.したがって,このような事例に対して,作業の一貫性を与える,もしくは適切な評価手法を与える配慮が必要である.一般に,ラベルの選択に曖昧性がある場合には,選択に優先順位を定義するなど,ラベルが一意に定まるような規則を決める方法が取られる.結果,一致率が向上し,応用処理に用いる際も一貫した利用方法を考えることができる.もう一つの解決策は,本質的に曖昧な事例が出現した際に,その事例が曖昧であることを示しておくことである.そうすることで,曖昧な事例に関しては評価に含めない,あるいはどちらでも正解とみなすなどして,一致率,精度の評価がより適切に行えるようになる.\noindent\textbf{E.作業上のコストや作業者が直面する選択肢数をできるだけ減らすフレームワーク}(\ref{sec:important-pred}節,\ref{sec:complex-word-decomposition}~節,\ref{sec:frame-ambiguity}~節):複雑で作業コストが高く,また,表現のバリエーションや頻度分布を観測するために大規模な事例数が必要なタスクにおいては,限られた資源を用いてより多くのデータを作成できるよう,いかにその作業上のコストを下げるかを検討することも重要な課題の一つである.加えて,作業者に複数の選択肢から一つを選ぶような判断を迫る場面においては,できるだけ選択肢を事前に絞り込み,不要な迷いを避ける工夫が,作業効率の面だけでなく作業結果の一貫性を向上させる意味でも必要不可欠である\cite{Bayerl:2011:DIA:2077692.2077696}.\noindent\textbf{F.データ量と質のコントロール}(\ref{sec:frame-dictionary}~節):前述のとおり,大規模なアノテーションを行うためには,一つ一つの事例に対して大きな作業コストのかかる方法を気軽に採用することは難しい.一方で,述語項構造のような基礎的な構造の分析に関しては,解析システムの正確な評価のために,できるだけ高品質なデータが必要とされることも確かである.このような,データ量と品質のトレードオフをどのような方針で管理するかについても考慮が必要である.\subsection{述語項構造アノテーションフレームワークの一案}\label{sec:example-framework}本節では,考察結果全体を俯瞰する目的で,\ref{sec:individual}~節での個別の論点への考察を通して導かれた述語項構造アノテーションフレームワーク全体の具体的な設計の一案について述べる.ただし,このフレームワークは議論の中で出された複数の選択肢のうちの一つを組み合わせたものであり,議論の唯一解を示すものではないことに注意されたい.図~\ref{fig:framework}には,その全体像を示した.これは,これまでの議論をふまえて精査し・修正したガイドラインと共に,複数の述語-項関係ラベルセット,異なるラベルセット間のラベルの対応関係,複数の質の異なる格フレーム辞書,機能表現・慣用表現等に関する辞書などを保持し,アプリケーションで必要な情報に応じて柔軟に運用できるよう配慮された設計となっている.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA12f2.eps}\end{center}\caption{述語項構造アノテーションフレームワークの一案}\label{fig:framework}\end{figure}図~\ref{fig:framework}(a)の部分では,機能表現,複合語内項構造,慣用表現など,個々の事例に判断を要し,かつ事例のバリエーションが豊富なものに対して,既存の言語資源をベースとするなどして予め取り扱いの指示を定めた辞書を用意しておく.そうすることで,テキスト内で該当する可能性がある箇所を自動チェックし,作業漏れの抑制,アノテーションの半自動化を行うことができる.この辞書は,アノテータ間に共通の判断を強制する効果があり,その結果,各事例について一貫した作業結果を得ることができる.複合語内部の述語項構造など,ほとんど全ての事例に同一の関係しか認められないものについては,その項構造を辞書的に保持することで,アノテータが事例毎に自明なアノテーション作業を行うことを避けることもできる.アノテータは辞書の規則に反する一部の例外のみを作業するだけでよい.また,辞書に未収録の事例が出現した時点で辞書エントリを追加し,コーパスを再チェックする仕組みを作成しておく.図~\ref{fig:framework}(b)の部分では,格の情報に関して二つのことを管理する.一つ目は,格フレーム辞書の管理である.必須格の見落としなどの作業の揺れを防ぎ,作業者間一致率を向上させるため,各述語の語義ごとに取り得る格をあらかじめ列挙した辞書を作っておく.この辞書は,図~\ref{fig:framework}(d)の部分で述べる格の曖昧性の管理にも有効である.二つ目は,アプリケーションの用途に応じて異なるラベルセットで行ったアノテーションについて,データをマージしたり,新たに追加で別のラベルセットを用いてアノテートする際,最小限の追加作業でアノテーションを行えるよう,異なるラベルを持った格フレーム辞書間での格の対応関係を管理する.格の対応関係表には,各述語のフレームに対する異なるラベルセット間での格ラベルの対応関係が記述される.例えば,述部出現形の表層格(KTC形式)と述語原形の表層格(NTC形式)の対応関係であれば,表~\ref{tbl:kuwaeru}のような情報である.\begin{table}[b]\caption{述語「加える」に関する述部出現形表層格と述語原形表層格の対応関係}\label{tbl:kuwaeru}\input{ca12table06.txt}\end{table}この情報は,人手,または自動的な方法のいずれかで構築する.格ラベルの対応表と,変換に必要な付加情報(語義・態・アスペクト・ムードなど)が用意できれば,いずれのラベルセットを使ってアノテートしておいても用途に応じた適切な粒度のラベルに変換して取り出すことができるようになる.ただし,それぞれの辞書が精緻に作成されていない場合,\ref{sec:ntc-case-ktc-case}節で述べるような変換上の問題も存在する.このような対応関係表の作成が現実的に難しい場合でも,代替的な方法として,例えば,述部出現形の表層格と述語原形の表層格の場合には,格の交替が起こりえない状況を列挙しておくなどすることで,同一の文章に異なるラベルセットでアノテーションを追加する際に一意にラベルの対応が取れる箇所のアノテーションを省略することができる.図~\ref{fig:framework}(c)の部分では,コーパスの量と質のバランスを管理する.全データ中の$n\%$,あるいは主要な$m$語への述語項構造といった方法でコーパスを区分し,一定量のデータに対しては大規模コーパスの調査などから人手で構築した精緻な格フレーム辞書を用意する.これを参照して作業することで作業者間一致率を上げ,また,アノテーション結果の多重チェックを行うなどして精密な分析・評価用データとして確保する.その他のデータは,従来通り格フレームと関連付けない,もしくは人手や自動獲得によって作られた既存の格フレーム辞書を参考情報としてアノテートするなどして,質と量の双方をバランスよく確保する.図~\ref{fig:framework}(d)の部分では,ラベル付与の本質的な曖昧性を管理する.曖昧な事例といっても,事例によっては本質的に完全に曖昧な場合もあれば,文脈上いずれかの選択肢が優勢と判断できる場合や,その中間のようなあやふやな場合もある.したがって,これらを区別するために次の三つの付与方法を用意する.\begin{enumerate}\itemアノテータが文脈に応じて疑いなく一つの選択肢を選ぶ場合,曖昧性を示唆するマーカーを付けない.\itemアノテータがいずれかの選択肢が優勢と感じたものの,はっきりと判断出来ない場合は,優位なラベルを1stとし,その他の候補をothers欄に列挙する.\itemアノテータが文脈上完全に曖昧だと判断した場合は,予め決めておいた順列に従って付与するラベルを選ぶ.その際は,曖昧であることを示すマーカーを付け,他の候補も列挙しておく.\end{enumerate}こうしておくことで,どの事例が曖昧で,どれがそうでないのか明確に区別できる上,本質的に曖昧な事例については統一的にラベルを振ることで,解析器の学習を行う際や解析器の出力を応用処理に用いる際も一貫した利用方法を考えることができる.ラベルの順列を決める場合は,極力簡潔な方を選ぶ(例えば,項の数がより少ない格フレームを選ぶ,使役・受身より原形,他動詞より自動詞,自動詞+使役より他動詞を選ぶ)ように規則を決めておくことにより,アノテータの判断時の負荷を下げる工夫をする.格フレーム辞書として精緻なフレームを用意している場合は,格の曖昧性を格フレーム側で管理する.例えば,図~\ref{fig:framework}(d)の2文目では「起動」に自動詞と他動詞の解釈があるが,アノテータが文脈上曖昧と判断した場合はこれに「自動詞・曖昧」とマークし,「パソコン」には,自動詞時の解釈であるガ格を割り当てる.格フレームには,自他交替など曖昧な格についての交替関係を記述しておくことで,仮に他動詞と判断した場合には「パソコン」がヲ格となることを知ることができるため,解析システムの評価時にも公平な評価が行える.以上の設計の他に,\ref{sec:individual}~節の議論の結果から,段階的な質・情報密度の向上を行う際の問題の切り分け方と作業の優先順位を設定する.\begin{enumerate}\item動詞・形容詞・コピュラ・サ変の体言止めの項構造アノテーション(慣用句と思う事例はチェックしておく)(複合語は分解せず,語の外側に出現する項のみアノテーション)\item複合語の分解(辞書的処理)\itemイベント性名詞の項構造アノテーション(転成名詞・サ変名詞)\item慣用句の収集・整理・述語化\item照応・共参照情報に関わる整備(本論文の範疇外)\itemニ格相当の形容詞\item必須格と周辺格の区別\item意味役割によるアノテーション\end{enumerate}このように,ラベル付与の判断がより明確な部分から段階を踏んでアノテーションを行うことによって,より複雑な現象についてコーパス内の事例を収集し,問題を分析しつつ設計を進めることができる.\ref{sec:criteria}~節で示したとおり,これらの個々の取り決めの一例は,ガイドライン設計時の指針や個別に行った議論と明確に結びついている.このような形で設計の理念・問題の議論・対応する規定の間の関係を明文化して示すことで,継続的・建設的に仕様やガイドラインを改善するための議論を重ねることが可能となる.
\section{まとめ}
\label{sec:conclusion}本論文では,より洗練された述語項構造アノテーションのガイドラインを作成する目的で,NTC・KTCの仕様策定,仕様準拠のアノテーション,応用処理に関わった研究者,アノテータらの考察を基に,議論の対象となる点を整理した.具体的には,既存のガイドラインを用いた新規アノテーションによる考察と,研究者・アノテータが経験的に持つ知見を集約するという方法の二つの方法で,既存のガイドラインからは簡潔に解決出来ない問題として$4$種$15$項目の論点を洗い出し,それぞれの論点について現状の問題点やそれに対する改善策を議論し報告した.議論結果を整理するにあたっては,ガイドライン策定の基準となる着眼点を示し,議論内容や,結論との対応関係を示すことで,将来のガイドライン改善に向けて建設的な知見となることを目指した.本論文で示すアノテーションガイドライン改善のための論点の洗い出し方法は,現行のアノテーションガイドラインにもとづいてラベル付与を行った際の一致率を問題視して行った手法であったため,既存のガイドライン,もしくはその簡単な修正版によって明確にアノテーション規則が定まるものに関しては議論の対象としてあまり取り上げていないが,\ref{sec:criteria}~節で示した「利用目的とアノテーション仕様の関係」を仕様改善の指針として想定すれば,仕様の改善点は必ずしも作業の一致率という観点のみで推し量られるべきものではなく,コーパスの利用目的調査などに基づく仕様の改善や新たな付加情報の列挙も試みられるべきである.したがって,ここに記した問題が残る問題の全てとは言えないが,こうした建設的な考察の積み重ねによって,実用に耐えうる一貫性を持ったアノテーション方針が作られるとともに,統一的かつ頑健な言語解析理論の基礎が積み上がるものと信じるものである.我々の考察の手順や結果を例に取ると,問題点の洗い出しの方法論や,ガイドライン作成時の理念など,アノテーションに関わる科学は,未だ経験的知見によるところが大きい.しかし,近年では,アノテーションタスクの複雑度や,一致率に影響する因子などに客観的指標を与えようと試みる研究も見られる\cite{Bayerl:2011:DIA:2077692.2077696,fort2012modeling}.\ref{sec:criteria}~節において,我々が経験的知見によりガイドライン設計の指針としている事柄についても,広く一般的に成り立つ指針として,客観的指標で評価できるような仕組みを生み出していくことも今後の課題である.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原\JBA松本}{浅原\JBA松本}{2003}]{ipadic}浅原正幸\JBA松本裕治.\newblockipadicversion2.6.3ユーザーズマニュアル.\\newblock\Turl{http://\linebreak[2]chasen.\linebreak[2]naist.\linebreak[2]jp/\linebreak[2]stable/\linebreak[2]doc/\linebreak[2]ipadic-2.6.3-j.pdf}.\newblockAccessed:2014-02-19.\bibitem[\protect\BCAY{Bayerl\BBA\Paul}{Bayerl\BBA\Paul}{2011}]{Bayerl:2011:DIA:2077692.2077696}Bayerl,P.~S.\BBACOMMA\\BBA\Paul,K.~I.\BBOP2011\BBCP.\newblock\BBOQWhatDeterminesInter-CoderAgreementinManualAnnotations?AMeta-AnalyticInvestigation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf37}(4),\mbox{\BPGS\699--725}.\bibitem[\protect\BCAY{Burchardt\BBA\Pennacchiotti}{Burchardt\BBA\Pennacchiotti}{2008}]{burchardt2008fate}Burchardt,A.\BBACOMMA\\BBA\Pennacchiotti,M.\BBOP2008\BBCP.\newblock\BBOQFATE:aFrameNet-AnnotatedCorpusforTextualEntailment.\BBCQ\\newblockIn{\BemProceedingsofthe6thEditionoftheLanguageResourcesandEvaluationConference(LREC2008)},\mbox{\BPGS\539--546}.\bibitem[\protect\BCAY{Carreras\BBA\M\`{a}rquez}{Carreras\BBA\M\`{a}rquez}{2005}]{Carreras:2005:ICS:1706543.1706571}Carreras,X.\BBACOMMA\\BBA\M\`{a}rquez,L.\BBOP2005\BBCP.\newblock\BBOQIntroductiontotheCoNLL-2005SharedTask:SemanticRoleLabeling.\BBCQ\\newblockIn{\BemProceedingsofthe9thConferenceonComputationalNaturalLanguageLearning(CoNLL2005)},\mbox{\BPGS\152--164}.\bibitem[\protect\BCAY{Fort,Nazarenko,\BBA\Rosset}{Fortet~al.}{2012}]{fort2012modeling}Fort,K.,Nazarenko,A.,\BBA\Rosset,S.\BBOP2012\BBCP.\newblock\BBOQModelingtheComplexityofManualAnnotationTasks:AGridofAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe24thInternationalConferenceonComputationalLinguistics(COLING2012):TechnicalPapers},\mbox{\BPGS\895--910}.\bibitem[\protect\BCAY{グループ・ジャマシイ}{グループ・ジャマシイ}{1998}]{Jamasi1998}グループ・ジャマシイ\JED\\BBOP1998\BBCP.\newblock\Jem{教師と学習者のための日本語文型辞典}.\newblockくろしお出版.\bibitem[\protect\BCAY{橋田}{橋田}{2005}]{hashida05}橋田浩一.\newblockGDA日本語アノテーションマニュアル草稿第0.74版.\\newblock\Turl{http://\linebreak[2]i-content.\linebreak[2]org/\linebreak[2]gda/\linebreak[2]tagman.html}.\newblockAccessed:2014-02-19.\bibitem[\protect\BCAY{橋本\JBA黒橋\JBA河原\JBA新里\JBA永田}{橋本\Jetal}{2009}]{橋本力2009}橋本力\JBA黒橋禎夫\JBA河原大輔\JBA新里圭司\JBA永田昌明\BBOP2009\BBCP.\newblock構文・照応・評判情報つきブログコーパスの構築.\\newblock\Jem{言語処理学会第15回年次大会論文集},\mbox{\BPGS\614--617}.\bibitem[\protect\BCAY{Hashimoto\BBA\Kawahara}{Hashimoto\BBA\Kawahara}{2008}]{hashimoto2008construction}Hashimoto,C.\BBACOMMA\\BBA\Kawahara,D.\BBOP2008\BBCP.\newblock\BBOQConstructionofanIdiomCorpusanditsApplicationtoIdiomIdentificationbasedonWSDIncorporatingIdiom-SpecificFeatures.\BBCQ\\newblockIn{\BemProceedingsofthe2008ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2008)},\mbox{\BPGS\992--1001}.\bibitem[\protect\BCAY{林部\JBA小町\JBA松本\JBA隅田}{林部\Jetal}{2012}]{hayashibe2012}林部祐太\JBA小町守\JBA松本裕治\JBA隅田飛鳥\BBOP2012\BBCP.\newblock日本語テキストに対する述語語義と意味役割のアノテーション.\\newblock\Jem{言語処理学会第18回年次大会論文集},\mbox{\BPGS\397--400}.\bibitem[\protect\BCAY{Hovy,Marcus,Palmer,Ramshaw,\BBA\Weischedel}{Hovyet~al.}{2006}]{hovy2006ontonotes}Hovy,E.,Marcus,M.,Palmer,M.,Ramshaw,L.,\BBA\Weischedel,R.\BBOP2006\BBCP.\newblock\BBOQOntoNotes:the90\%Solution.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheACL(HLT-NAACL2006)},\mbox{\BPGS\57--60}.\bibitem[\protect\BCAY{飯田\JBA小町\JBA井之上\JBA乾\JBA松本}{飯田\Jetal}{2005}]{ntcguideline}飯田龍\JBA小町守\JBA井之上直也\JBA乾健太郎\JBA松本裕治.\newblock照応関係タグ付けマニュアル第0.02.1版.\\newblock\Turl{https://\linebreak[2]www.\linebreak[2]cl.\linebreak[2]cs.\linebreak[2]titech.\linebreak[2]ac.jp/\linebreak[2]\~{}ryu-i/\linebreak[2]coreference\_tag.html}.\newblockAccessed:2014-02-19.\bibitem[\protect\BCAY{飯田\JBA小町\JBA乾\JBA松本}{飯田\Jetal}{2008}]{noun2008}飯田龍\JBA小町守\JBA乾健太郎\JBA松本裕治\BBOP2008\BBCP.\newblock名詞化された事態表現への意味的注釈付け.\\newblock\Jem{言語処理学会第14回年次大会論文集},\mbox{\BPGS\277--280}.\bibitem[\protect\BCAY{飯田\JBA小町\JBA井之上\JBA乾\JBA松本}{飯田\Jetal}{2010}]{飯田龍2010述語項構造}飯田龍\JBA小町守\JBA井之上直也\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblock述語項構造と照応関係のアノテーション:NAISTテキストコーパス構築の経験から.\\newblock\Jem{自然言語処理},{\Bbf17}(2),\mbox{\BPGS\25--50}.\bibitem[\protect\BCAY{Iida,Komachi,Inui,\BBA\Matsumoto}{Iidaet~al.}{2007}]{iida2007annotating}Iida,R.,Komachi,M.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQAnnotatingaJapaneseTextCorpuswithPredicate-ArgumentandCoreferenceRelations.\BBCQ\\newblockIn{\BemProceedingsoftheLinguisticAnnotationWorkshop(LAW'07)},\mbox{\BPGS\132--139}.\bibitem[\protect\BCAY{Iida\BBA\Poesio}{Iida\BBA\Poesio}{2011}]{Iida2011}Iida,R.\BBACOMMA\\BBA\Poesio,M.\BBOP2011\BBCP.\newblock\BBOQ{ACross-LingualILPSolutiontoZeroAnaphoraResolution}.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2011)},\mbox{\BPGS\804--813}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{nttlexicon}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\JEDS\\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{泉\JBA今村\JBA菊井\JBA藤田\JBA佐藤}{泉\Jetal}{2009}]{izumi2009}泉朋子\JBA今村賢治\JBA菊井玄一郎\JBA藤田篤\JBA佐藤理史\BBOP2009\BBCP.\newblock正規化を指向した機能動詞表現の述部言い換え.\\newblock\Jem{言語処理学会第15回年次大会論文集},\mbox{\BPGS\264--267}.\bibitem[\protect\BCAY{情報処理振興事業協会技術センター}{情報処理振興事業協会技術センター}{1987}]{ipal}情報処理振興事業協会技術センター\BBOP1987\BBCP.\newblock\Jem{計算機用日本語基本動詞辞書IPAL(basicverbs):辞書編}.\newblock情報処理振興事業協会技術センター.\bibitem[\protect\BCAY{河原\JBA黒橋\JBA橋田}{河原\Jetal}{2002}]{河原大輔2002関係}河原大輔\JBA黒橋禎夫\JBA橋田浩一\BBOP2002\BBCP.\newblock「関係」タグ付きコーパスの作成.\\newblock\Jem{言語処理学会第8回年次大会論文集},\mbox{\BPGS\495--498}.\bibitem[\protect\BCAY{河原\JBA笹野\JBA黒橋\JBA橋田}{河原\Jetal}{2005}]{ktcguideline}河原大輔\JBA笹野遼平\JBA黒橋禎夫\JBA橋田浩一.\newblock格・省略・共参照タグ付けの基準.\\newblock\Turl{http://nlp.\linebreak[2]ist.\linebreak[2]i.\linebreak[2]kyoto-u.\linebreak[2]ac.\linebreak[2]jp/\linebreak[2]nl-resource/\linebreak[2]corpus/KyotoCorpus4.0/\linebreak[2]doc/\linebreak[2]rel\_guideline.pdf}.\newblockAccessed:2014-02-19.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{kawahara2006case}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQCaseFrameCompilationfromtheWebusingHigh-PerformanceComputing.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonLanguageResourcesandEvaluation(LREC2006)},\mbox{\BPGS\1344--1347}.\bibitem[\protect\BCAY{Kawahara,Kurohashi,\BBA\Hasida}{Kawaharaet~al.}{2002}]{kawahara2002construction}Kawahara,D.,Kurohashi,S.,\BBA\Hasida,K.\BBOP2002\BBCP.\newblock\BBOQConstructionofaJapaneseRelevance-taggedCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonLanguageResourcesandEvaluation(LREC2002)},\mbox{\BPGS\2008--2013}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{}]{bccwj}国立国語研究所.\newblock現代日本語書き言葉均衡コーパス(BCCWJ).\\newblock\Turl{http://\linebreak[2]www.\linebreak[2]ninjal.\linebreak[2]ac.\linebreak[2]jp/\linebreak[2]corpus\_\linebreak[2]center/\linebreak[2]bccwj/}.\newblockAccessed:2014-02-19.\bibitem[\protect\BCAY{小町\JBA飯田}{小町\JBA飯田}{2011}]{komachi2011}小町守\JBA飯田龍\BBOP2011\BBCP.\newblockBCCWJに対する述語項構造と照応関係のアノテーション.\\newblock\Jem{日本語コーパス平成22年度公開ワークショップ},\mbox{\BPGS\325--330}.\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1997}]{KUROHASHISadao:1997-06-24}黒橋禎夫\JBA長尾眞\BBOP1997\BBCP.\newblock京都大学テキストコーパス・プロジェクト.\\newblock\Jem{言語処理学会第3回年次大会論文集},\mbox{\BPGS\115--118}.\bibitem[\protect\BCAY{Laparra\BBA\Rigau}{Laparra\BBA\Rigau}{2013}]{laparra2013impar}Laparra,E.\BBACOMMA\\BBA\Rigau,G.\BBOP2013\BBCP.\newblock\BBOQImpAr:ADeterministicAlgorithmforImplicitSemanticRoleLabelling.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2013)},\mbox{\BPGS\1180--1189}.\bibitem[\protect\BCAY{Liu\BBA\Gildea}{Liu\BBA\Gildea}{2010}]{liu2010semantic}Liu,D.\BBACOMMA\\BBA\Gildea,D.\BBOP2010\BBCP.\newblock\BBOQSemanticRoleFeaturesforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalConferenceonComputationalLinguistics(Coling2010)},\mbox{\BPGS\716--724}.\bibitem[\protect\BCAY{Loper,Yi,\BBA\Palmer}{Loperet~al.}{2007a}]{loper2007combining}Loper,E.,Yi,S.-T.,\BBA\Palmer,M.\BBOP2007a\BBCP.\newblock\BBOQCombiningLexicalResources:MappingbetweenPropBankandVerbNet.\BBCQ\\newblockIn{\BemProceedingsofthe7thInternationalWorkshoponComputationalSemantics(IWCS-7)},\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{Loper,Yi,\BBA\Palmer}{Loperet~al.}{2007b}]{semlink}Loper,E.,Yi,S.-T.,\BBA\Palmer,M.\newblock\BBOQSemLink1.1.\BBCQ\\newblock\Turl{http://\linebreak[2]verbs.\linebreak[2]colorado.\linebreak[2]edu/\linebreak[2]semlink/}.\newblockAccessed:2014-02-19.\bibitem[\protect\BCAY{Marcus,Kim,Marcinkiewicz,MacIntyre,Bies,Ferguson,Katz,\BBA\Schasberger}{Marcuset~al.}{1994}]{marcus1994penn}Marcus,M.,Kim,G.,Marcinkiewicz,M.~A.,MacIntyre,R.,Bies,A.,Ferguson,M.,Katz,K.,\BBA\Schasberger,B.\BBOP1994\BBCP.\newblock\BBOQThePennTreebank:AnnotatingPredicateArgumentStructure.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponHumanLanguageTechnology},\mbox{\BPGS\114--119}.\bibitem[\protect\BCAY{Marcus,Marcinkiewicz,\BBA\Santorini}{Marcuset~al.}{1993}]{marcus1993building}Marcus,M.~P.,Marcinkiewicz,M.~A.,\BBA\Santorini,B.\BBOP1993\BBCP.\newblock\BBOQBuildingaLargeAnnotatedCorpusofEnglish:ThePennTreebank.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\313--330}.\bibitem[\protect\BCAY{M\`{a}rquez,Carreras,Litkowski,\BBA\Stevenson}{M\`{a}rquezet~al.}{2008}]{marquez2008srl}M\`{a}rquez,L.,Carreras,X.,Litkowski,K.~C.,\BBA\Stevenson,S.\BBOP2008\BBCP.\newblock\BBOQ{SemanticRoleLabeling:anIntroductiontotheSpecialIssue}.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf34}(2),\mbox{\BPGS\145--159}.\bibitem[\protect\BCAY{Matsubayashi,Miyao,\BBA\Aizawa}{Matsubayashiet~al.}{2012}]{MATSUBAYASHI12.941}Matsubayashi,Y.,Miyao,Y.,\BBA\Aizawa,A.\BBOP2012\BBCP.\newblock\BBOQBuildingJapanesePredicate-argumentStructureCorpususingLexicalConceptualStructure.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalConferenceonLanguageResourcesandEvaluation(LREC2012)},\mbox{\BPGS\1554--1558}.\bibitem[\protect\BCAY{Matsumoto}{Matsumoto}{1996}]{matsumoto1996syntactic}Matsumoto,Y.\BBOP1996\BBCP.\newblock\BBOQASyntacticAccountofLightVerbPhenomenainJapanese.\BBCQ\\newblock{\BemJournalofEastAsianLinguistics},{\Bbf5}(2),\mbox{\BPGS\107--149}.\bibitem[\protect\BCAY{松吉\JBA佐藤\JBA宇津呂}{松吉\Jetal}{2007}]{Matsuyoshi2007}松吉俊\JBA佐藤理史\JBA宇津呂武仁\BBOP2007\BBCP.\newblock日本語機能表現辞書の編纂.\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\123--146}.\bibitem[\protect\BCAY{Meyers,Reeves,Macleod,Szekely,Zielinska,Young,\BBA\Grishman}{Meyerset~al.}{2004}]{meyers2004nombank}Meyers,A.,Reeves,R.,Macleod,C.,Szekely,R.,Zielinska,V.,Young,B.,\BBA\Grishman,R.\BBOP2004\BBCP.\newblock\BBOQTheNomBankProject:AnInterimReport.\BBCQ\\newblockIn{\BemHLT-NAACL2004Workshop:FrontiersinCorpusAnnotation},\mbox{\BPGS\24--31}.\bibitem[\protect\BCAY{Moor,Roth,\BBA\Frank}{Mooret~al.}{2013}]{frankpredicate}Moor,T.,Roth,M.,\BBA\Frank,A.\BBOP2013\BBCP.\newblock\BBOQPredicate-specificAnnotationsforImplicitRoleBinding:CorpusAnnotation,DataAnalysisandEvaluationExperiments.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonComputationalSemantics(IWCS2013):ShortPapers},\mbox{\BPGS\60--65}.\bibitem[\protect\BCAY{森田\JBA松木}{森田\JBA松木}{1989}]{Morita1989}森田良行\JBA松木正恵\BBOP1989\BBCP.\newblock\Jem{日本語表現文型—用例中心・複合辞の意味と用法}.\newblockアルク.\bibitem[\protect\BCAY{村木}{村木}{1991}]{村木新次郎1991日本語動詞の諸相}村木新次郎\BBOP1991\BBCP.\newblock\Jem{日本語動詞の諸相}.\newblockひつじ書房.\bibitem[\protect\BCAY{村木\JBA青山\JBA六条\JBA村田}{村木\Jetal}{1984}]{muraki:84}村木新次郎\JBA青山文啓\JBA六条範俊\JBA村田賢一\BBOP1984\BBCP.\newblock辞書における格情報の記述.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf1984}(46),\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{日本語記述文法研究会}{日本語記述文法研究会}{2009}]{contemporaryJapanese2}日本語記述文法研究会\JED\\BBOP2009\BBCP.\newblock\Jem{現代日本語文法},2\JVOL.\newblockくろしお出版.\bibitem[\protect\BCAY{西山}{西山}{2003}]{nishiyama2003}西山佑司\BBOP2003\BBCP.\newblock\Jem{日本語名詞句の意味論と語用論:指示的名詞句の非指示的名詞句}.\newblockひつじ書房.\bibitem[\protect\BCAY{小原}{小原}{2013}]{ohara2013}小原京子\BBOP2013\BBCP.\newblock日本語フレームネット:文意理解のためのコーパスアノテーション.\\newblock\Jem{言語処理学会第19回年次大会論文集},\mbox{\BPGS\166--169}.\bibitem[\protect\BCAY{Palmer,Kingsbury,\BBA\Gildea}{Palmeret~al.}{2005}]{palmer2005pba}Palmer,M.,Kingsbury,P.,\BBA\Gildea,D.\BBOP2005\BBCP.\newblock\BBOQ{ThePropositionBank:AnAnnotatedCorpusofSemanticRoles}.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf31}(1),\mbox{\BPGS\71--106}.\bibitem[\protect\BCAY{Pradhan,Loper,Dligach,\BBA\Palmer}{Pradhanet~al.}{2007}]{pradhan2007semeval}Pradhan,S.~S.,Loper,E.,Dligach,D.,\BBA\Palmer,M.\BBOP2007\BBCP.\newblock\BBOQSemEval-2007Task17:EnglishLexicalSample,SRLandAllWords.\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalWorkshoponSemanticEvaluations(SemEval2007)},\mbox{\BPGS\87--92}.\bibitem[\protect\BCAY{Ruppenhofer,Ellsworth,Petruck,Johnson,\BBA\Scheffczyk}{Ruppenhoferet~al.}{2010}]{Johnson2003}Ruppenhofer,J.,Ellsworth,M.,Petruck,M.~R.~L.,Johnson,C.~R.,\BBA\Scheffczyk,J.\BBOP2010\BBCP.\newblock{\Bem{FrameNetII:ExtendedTheoryandPractice}}.\newblockBerkeleyFrameNetRelease.\bibitem[\protect\BCAY{Sasano,Kawahara,Kurohashi,\BBA\Okumura}{Sasanoet~al.}{2013}]{sasano2013}Sasano,R.,Kawahara,D.,Kurohashi,S.,\BBA\Okumura,M.\BBOP2013\BBCP.\newblock\BBOQAutomaticKnowledgeAcquisitionforCaseAlternationbetweenthePassiveandActiveVoicesinJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2013)},\mbox{\BPGS\1213--1223}.\bibitem[\protect\BCAY{佐藤}{佐藤}{2007}]{佐藤理史:2007-03-28}佐藤理史\BBOP2007\BBCP.\newblock基本慣用句五種対照表の作成.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf2007}(35),\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Shen\BBA\Lapata}{Shen\BBA\Lapata}{2007}]{shen2007using}Shen,D.\BBACOMMA\\BBA\Lapata,M.\BBOP2007\BBCP.\newblock\BBOQUsingSemanticRolestoImproveQuestionAnswering.\BBCQ\\newblockIn{\Bemthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL2007)},\mbox{\BPGS\12--21}.\bibitem[\protect\BCAY{Silberer\BBA\Frank}{Silberer\BBA\Frank}{2012}]{Silberer:2012:CIR:2387636.2387638}Silberer,C.\BBACOMMA\\BBA\Frank,A.\BBOP2012\BBCP.\newblock\BBOQCastingImplicitRoleLinkingasanAnaphoraResolutionTask.\BBCQ\\newblockIn{\BemProceedingsofthe1stJointConferenceonLexicalandComputationalSemantics(*SEM)},\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{Taira,Fujita,\BBA\Nagata}{Tairaet~al.}{2008}]{taira2008japanese}Taira,H.,Fujita,S.,\BBA\Nagata,M.\BBOP2008\BBCP.\newblock\BBOQAJapanesePredicateArgumentStructureAnalysisusingDecisionLists.\BBCQ\\newblockIn{\BemProceedingsofthe2008ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2008)},\mbox{\BPGS\523--532}.\bibitem[\protect\BCAY{竹内\JBA乾\JBA藤田\JBA竹内\JBA阿部}{竹内\Jetal}{2005}]{takeuchi2005}竹内孔一\JBA乾健太郎\JBA藤田篤\JBA竹内奈央\JBA阿部修也\BBOP2005\BBCP.\newblock分類の根拠を明示した動詞語彙概念構造辞書の構築.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf2005}(94),\mbox{\BPGS\123--130}.\bibitem[\protect\BCAY{竹内\JBA上野}{竹内\JBA上野}{2013}]{takeuchi2013}竹内孔一\JBA上野真幸\BBOP2013\BBCP.\newblock日本語コーパスに対する動詞項構造シソーラスの概念と意味役割のアノテーション.\\newblock\Jem{言語処理学会第19回年次大会論文集},\mbox{\BPGS\162--165}.\bibitem[\protect\BCAY{山口}{山口}{2013}]{yamaguchi2013}山口昌也\BBOP2013\BBCP.\newblock複合動詞用例データベースの構築と活用.\\newblock\Jem{国語研プロジェクトレビュー},{\Bbf4}(1),\mbox{\BPGS\61--69}.\bibitem[\protect\BCAY{Yoshikawa,Asahara,\BBA\Matsumoto}{Yoshikawaet~al.}{2011}]{Yoshikawa2011}Yoshikawa,K.,Asahara,M.,\BBA\Matsumoto,Y.\BBOP2011\BBCP.\newblock\BBOQ{JointlyExtractingJapanesePredicate-ArgumentRelationwithMarkovLogic}.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP2011)},\mbox{\BPGS\1125--1133}.\end{thebibliography}\clearpage\begin{biography}\bioauthor{松林優一郎}{1981年生.2010年東京大学大学院情報理工学系研究科・コンピュータ科学専攻博士課程修了.情報理工学博士.同年より国立情報学研究所・特任研究員.2012年より東北大学大学院情報科学研究科・研究特任助教.意味解析の研究に従事.人工知能学会,ACL各会員.}\bioauthor{飯田龍}{1980年生.2007年奈良先端科学技術大学院大学情報科学研究科博士期課程修了.同年より奈良先端科学技術大学院大学情報科学研究科特任助教.2008年12月より東京工業大学大学院情報理工学研究科助教.現在にいたる.博士(工学).自然言語処理の研究に従事.情報処理学会,日本教育工学会各会員.}\bioauthor{笹野遼平}{2009年東京大学大学院情報理工学系研究科博士課程修了.博士(情報理工学).2010年より東京工業大学精密工学研究所助教.照応解析,述語項構造解析の研究に従事.情報処理学会,人工知能学会,ACL会員.}\bioauthor{横野光}{2003年岡山大学工学部情報工学科卒業.2008年同大大学院自然科学研究科産業創成工学専攻単位取得退学.同年東京工業大学精密工学研究所研究員,2011年国立情報学研究所特任研究員,現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会各会員.}\bioauthor{松吉俊}{1980年生.2008年京都大学大学院情報学研究科博士後期課程修了.同年より奈良先端科学技術大学院大学情報科学研究科特任助教.2011年より山梨大学大学院医学工学総合研究部助教.現在にいたる.博士(情報学).自然言語処理の研究に従事.情報処理学会会員.}\bioauthor{藤田篤}{1977年生.2005年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(工学).京都大学大学院情報学研究科産学官連携研究員,名古屋大学大学院工学研究科助手,同助教を経て,2009年より公立はこだて未来大学システム情報科学部准教授.現在にいたる.自然言語処理,主に言い換え表現の生成と認識,機械翻訳の研究に従事.人工知能学会,情報処理学会,ACL各会員.}\bioauthor{宮尾祐介}{1998年東京大学理学部情報科学科卒業.2006年同大学大学院にて博士号(情報理工学)取得.2001年より同大学にて助手,のち助教.2010年より国立情報学研究所准教授.構文解析とその応用の研究に従事.人工知能学会,情報処理学会,ACL各会員.}\bioauthor{乾健太郎}{1995年東京工業大学大学院情報理工学研究科博士課程修了.同研究科助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より東北大学大学情報科学研究科教授,現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL,AAAI各会員.}\end{biography}\biodate\end{document}
| |
V19N04-03 | \section{はじめに}
本論文では対象単語の用例集合から,その単語の語義が新語義(辞書に未記載の語義)となっている用例を検出する手法を提案する.新語義の検出は語義曖昧性解消の問題に対する訓練データを作成したり,辞書を構築する際に有用である.また新語義の検出は意味解析の精度を向上させる\cite{erk}.また新語義の用例はしばしば書き誤りとなっているので,誤り検出としても利用できる.新語義検出は一般にWordSenseDisambiguation(WSD)の一種として行う方法,新語義の用例をクラスターとして集めるWordSenseInduction(WSI)のアプローチで行う方法\cite{denkowski},及び新語義の用例を用例集合中の外れ値とみなし,外れ値検出の手法を用いる方法\cite{erk}がある.ここでは外れ値検出の手法のアプローチを取る.ただしデータマイニングで用いられる外れ値検出の手法は教師なしであるが,本タスクの場合,少量の用例に語義のラベルが付いているという教師付きの枠組みで行う方が自然であり,ここでは教師付き外れ値検出の手法を提案する.提案手法は2つの検出手法を組み合わせたものである.第1の手法は代表的な外れ値検出手法であるLocalOutlierFactor(LOF)\cite{lof}を教師付きの枠組みに拡張したものである.第2の手法は,対象単語の用例(データ)の生成モデルを用いたものである.一般に外れ値検出はデータの生成モデルを構築することで解決できる.提案手法では第1の手法と第2の手法の出力の積集合を取ることで,最終の出力を行う.提案手法の有効性を確認するために,SemEval-2の日本語WSDタスク\cite{semeval-2010}のデータを利用した.従来の外れ値検出の手法と比較することで提案手法の有効性を示す.実験を通して,外れ値検出に教師データを利用する効果も確認する.またSVMによるWSDの信頼度を利用した外れ値検出も行い,WSDシステム単独では新語義の検出は困難であることも示す.
\section{従来の新語義検出手法}
\subsection{WSDの信頼度の利用}WSDは語義を識別するタスクなので,WSDシステムを利用すれば新語義を検出できると考えるのは自然である.WSDの対象単語\(w\)の語義のクラスを\(C\)とする.関数\(f(x,c)\)はあるWSDシステムが出力する用例\(x\)中の\(w\)の語義が\(c\inC\)となる信頼度とする.このWSDシステムは\(argmax_{c\inC}f(x,c)\)により語義を識別する.新語義の検出はある閾値\(\alpha\)を定め,\begin{equation}\forallc\inC\\\\f(x,c)<\alpha\label{eq:1}\end{equation}のときに\(x\)を新語義の用例と判定することで,新語義を検出できる.ただし適切な\(\alpha\)の値は単語毎に異なるはずであり,その設定は困難である.またWSDは識別のタスクであり,一般にWSDシステムはSVMのような識別モデルをもとに構築される.そのためシステムは語義の識別精度が上がるように最適化されており,\(f(x,c_i)\)の値は\(f(x,c_j)\)との相対的なものである.つまり\mbox{式(\ref{eq:1})}により新語義が検出できる保証はない.例えば図\ref{fig1}のような状況を考えてみる.図\ref{fig1}のクラス1とクラス2を分離する直線が,分類器に対応する識別境界とする.データがクラスに属する信頼度は,一般に,識別境界までの距離で測るので,図\ref{fig1}のデータaとデータbはクラス1と識別され,その信頼度は等しくなる.識別の場合はデータが識別境界のどちら側に属するかだけが重要なので,それで十分であるが,データaとデータbを比べると,明らかにデータbの方がクラス1に属する信頼度が低い\footnote{分類器がSVMの場合,データを高次元に写すので図\ref{fig1}の例は特殊であるが,SVMでも同じ問題は内在する.また査読者から図\ref{fig1}の例には問題があり削除するよう指示があったが,何が問題かが理解できなかったので,あえて本例は削除していない.}.\begin{figure}[t]\begin{center}\includegraphics{19-4ia3f1.eps}\end{center}\caption{識別の信頼度と外れ値の度合い}\label{fig1}\end{figure}\subsection{WSIによる検出}従来,新語義の検出はWordSenseInduction(WSI)というタスクの一部として行われてきた\cite{shutze,stefan,kuoka}.WSIは本質的には対象単語の用例を語義に基づいてクラスタリングするタスクである\cite{denkowski}.用例集合中に新語義の用例があれば,それらも語義のクラスターとして出現するために新語義の検出として利用できる.ただし陽に新語義を検出するには,得られたクラスターに語義のラベルを付与する必要がある\cite{tanaka-h}.Shiraiは辞書に記述された語義の定義文を利用して,得られたクラスターに語義のラベルを付けることで新語義を検出しようとしている\cite{shirai-semeval2}.またSugiyamaは既存語義の用例を種用例として,用例集合を半教師なしクラスタリングによりクラスタリングした\cite{sugiyama}.種用例のないクラスターが新語義のクラスターとなる.ただしどちらもクラスタリング自体の精度が悪く,新語義の検出までには至っていない.本来,クラスターに語義のラベルを付けるためには,語義のラベル集合が必要である.語義のラベル集合を定めた場合に,WSIとWSDとの違いはほとんどなくなる.WSDを行う前に教師なし学習であるクラスタリングを行うアプローチが,新語義の検出に有効かどうかは不明である.また用例を語義に基づいてクラスタリングする場合,クラスターの数の決め方が大きな問題になる\cite{agirre}.また新語義がクラスターを形成するという仮定は,多くの新語義に対して当てはまらない.クラスターを形成するくらいに,その語義の用例が存在するのであれば,その語義は新語義ではなく既に一般的な語義と考えられる.\subsection{外れ値検出による検出}新語義の用例を用例集合内の外れ値と見なし,外れ値検出の手法を利用して新語義を検出するアプローチがある.\begin{figure}[b]\begin{center}\includegraphics{19-4ia3f2.eps}\end{center}\caption{外れ値検出手法の最近傍法}\label{fig-erk}\end{figure}Erkは外れ値検出手法の最近傍法を利用して新語義の検出を試みた\cite{erk}.対象単語\(w\)の語義が付与された用例集を\(D\)とし,用例\(x\)の外れ値の度合い\(out(x)\)を\mbox{式(\ref{eq:siki1})}で測り,この値が1以上の\(x\)を新語義の用例とした.ここで\(d(x,y)\)は用例\(x\)と用例\(y\)間の距離である.\begin{equation}out(x)=\frac{d(x,y)}{\min_{z\inD}d(y,z)}\qquad\text{where}\quady=argmin_{y'\inD}d(x,y')\label{eq:siki1}\end{equation}この式は\(D\)の中で\(x\)と最も距離が近いデータ\(y\)を選び,更にその\(y\)と最も距離が近い\(D\)内のデータ\(z\)を選んで,\(d(x,y)\)と\(d(y,z)\)の比を取ったものである(図\ref{fig-erk}参照).ただし最近傍法が妥当な精度を出すには,大量の訓練データを必要とするという問題がある.
\section{外れ値検出手法}
データマイニング分野の外れ値検出手法は非常に多岐にわたるが,その多くは変化点検出の手法に位置づけられる\cite{yamanishi}.つまり時系列的にデータが生起するオンラインでのタスクに対する手法が中心である.新語義検出のようなバッチ的なタスクに対する手法としては,密度ベースの手法,OneClassSVM,生成モデルによる手法が代表的な手法である.ここではこの3つの手法を本論文の提案手法との比較手法とする.\subsection{密度ベースの手法}外れ値検出は古典的にはマハラノビス距離を用いた距離ベースの手法が中心だが,それを改良したのが密度ベースの手法であり,密度ベースの代表的な手法がLOFである.LOFは,データの近傍の密度を利用することで,そのデータの外れ値の度合いを測り,その値によって外れ値を検出する.LOFにおけるデータ\(x\inD\)における外れ値の度合いを\(LOF(x)\)と表記する.ここで\(D\)はデータ全体の集合である.\(LOF(x)\)を定義するために,いくつかの式を定義しておく.まず\(kdist(x)\)は\(x\)に対する\(k\)距離と呼ばれる値で,以下の条件を満たすデータ\(o\inD\)との距離\(d(x,o)\)として定義される.\begin{enumerate}\item少なくとも\(k\)個のデータ\(o'\inD\setminus\{x\}\)に対して\(d(x,o')\leqd(x,o)\)が成立する.\item高々\(k-1\)個のデータ\(o'\inD\setminus\{x\}\)に対してのみ\(d(x,o')<d(x,o)\)が成立する.\end{enumerate}直感的には,上記のデータ\(o\)はデータ\(x\)からの\(k\)番目に近いデータとなる.データ\(x\)から同じ距離を持つデータが複数存在する場合を考慮して,上記のようなテクニカルな定義になっている.次に\(kdist(x)\)を利用して,\(N_{k}(x)\),\(rd_{k}(x,y)\)及び\(lrd_{k}(x)\)を定義してゆく.\[N_{k}(x)=\{y\inD\setminus\{x\}|d(x,y)\leqkdist(x)\}\]これは\(x\)の\(k\)近傍と呼ばれる集合であり,\(x\)との距離が\(kdist(x)\)以下になるようなデータの集合である.\[rd_{k}(x,y)=\max\{d(x,y),kdist(y)\}\]これは\(x\)から\(y\)への距離を表すが,\(x\)が\(y\)の\(k\)近傍内に入る場合に,その距離を\(kdist(y)\)で置き換えている.直感的にはデータ間の距離が近い場合に,\(k\)距離で補正している.\[lrd_{k}(x)=\frac{|N_{k}(x)|}{\sum_{y\inN_{k}(x)}rd_{k}(x,y)}.\]これは\(x\)の\(k\)近傍内のデータ\(y\)の\(rd_{k}(x,y)\)の平均の逆数であり,これが\(x\)の密度を表している.これらの式を用いて,\(LOF(x)\)は以下で定義される.\[LOF(x)=\frac{1}{|N_{k}(x)|}\sum_{y\inN_{k}(x)}\frac{lrd_{k}(y)}{lrd_{k}(x)}\]つまり\(x\)の\(k\)近傍内のデータの密度と\(x\)の密度の比の平均を外れ値の度合いとしている.直感的には近くのデータの密度は高く,自身の密度が低い場合に外れ値の度合いが高くなる.また「近くのデータの密度は高く,自身の密度が低い」というのは,ある密度の高いクラスターがあり,そこから離れている独立のデータであるような場合である.例えば図\ref{lof-ex}では,データaとデータbが外れ値である.距離ベースの手法では,データbは外れ値として検出できるが,データaはクラスターAとの距離が近いために検出できない.一方LOFでは,クラスターAの密度が高く,データaの近辺にはデータがなく孤立しているので,外れ値として検出できる.\begin{figure}[t]\begin{center}\includegraphics{19-4ia3f3.eps}\end{center}\caption{LOFによる外れ値検出}\label{lof-ex}\end{figure}またLOFではパラメータとして\(k\)が存在する.本論文では\(k=5\)としている.\subsection{OneClassSVM}OneClassSVMは\(\nu-\)SVM\cite{oc-svm}を利用した外れ値検出の手法である\cite{akaho}.すべてのデータは\(+1\)のクラスに属し,原点のみが\(-1\)のクラスに属するとして,\(\nu-\)SVMを使って2つのクラスを分離する超平面を求める.原点はすべての点に対して類似度が0となるために,外れ値とみなせる.また\(\nu-\)SVMはソフトマージンを利用するので,\(-1\)のクラス側に属するデータを外れ値と判定する.\begin{figure}[t]\begin{center}\includegraphics{19-4ia3f4.eps}\end{center}\caption{OneClassSVMによる外れ値の検出}\label{ocs-ex}\end{figure}図\ref{ocs-ex}で概略を説明する.図の星形の点が外れ値である.原点は全ての点と内積が0となる,つまり類似度が0であるために外れ値と考える.図の星形の点(外れ値)も含め,原点以外のすべての点を正常値と考え,外れ値と正常値を分離する超平面を\(\nu-\)SVMで求める.\(\nu-\)SVMはソフトSVMであり,教師データのすべての点を正確に分離するわけではなく,少数の誤りを認める.図では原点付近に超平面(この場合,直線)を近づければ,識別の精度は向上するが,その場合,最大マージンが小さくなる.最大マージンを大きくしようとすると,識別の精度は下がる.このバランスをうまくとるような超平面を求めるのが\(\nu-\)SVMである.最終的に原点側に属するデータが外れ値と判断される.OneClassSVMを利用する際には,用いるカーネル関数やどの程度のマージンの誤りを認めるかのパラメータの設定が結果に大きく影響する.本論文の実験ではOneClassSVMのプログラムとしてLIBSVM\footnote{http://www.csie.ntu.edu.tw/\~{}cjlin/libsvm/}を用いた.カーネルは線形カーネルを利用し,マージンの誤りはパラメータ\(n\)に対応するが,\(n=0.02\)で固定した.\subsection{生成モデルによる手法}データ\(x\)の生成過程を確率モデル\(P(x)\)でモデル化したものを生成モデルと呼ぶ.一般に潜在変数\(z_i\)を導入し,ある確率モデル\(P_i(x)\)の混合分布により\(P(x)\)をモデル化する.\[P(x)=\sum_{i}z_iP_i(x)\\\\s.t.\\\0\lez_i\le1,\\\sum_iz_i=1\]モデル化の後に,与えられたデータからEM法などを利用して,\(z_i\)と\(P_i(x)\)のパラメータを推定することで\(P(x)\)を構成する.データ\(x\)の外れ値の度合いとしては\(-\logP(x)\)が用いられる.この値が大きいほど外れ値と見なせる.
\section{提案手法}
\subsection{教師付き外れ値検出}一般に外れ値検出のタスクでは外れ値の定義が不可能である\footnote{もし定義できるのであれば,その定義にあったデータを取り出せばよいだけなので,タスクとしての意味はなくなる.}.これは外れ値にラベルをつける意味がないことを示している.なぜなら仮にあるデータが外れ値であり,その外れ値にラベルをつけることができたとしても,他の外れ値がそのラベル付きの外れ値と類似している保証がないからである.また検出元となるデータ集合は,ほぼすべて正常値である.仮にデータにラベルをつけるとすれば,正常値のラベルだけになり,教師データに意味はない.これらのことから外れ値検出の手法は教師なしの枠組みにならざるをえない.しかし新語義の用例を外れ値と見なした新語義検出のタスクの場合,一般の外れ値検出とは異なった2つの特徴がある.1つは外れ値の定義が明確という点である.ここでの外れ値は新語義の用例であるが,新語義とは「辞書に記載されていない語義」というように明確に定義できる.もう1つは正常値のデータは語義のクラスターに分割されるという点である.しかもクラスターの数も明確である.一方,通常の外れ値検出では正常値の集合がクラスターに分割されるのか,されるとしてもいくつのクラスターに分割されるのかは不明である.ここではこれらの特徴を利用して外れ値検出を行う.つまり,検出元となる対象単語の用例集の一部に,対象単語の語義のラベルを付与し,その設定のもとで外れ値検出を行う.\subsection{教師付きLOF}教師データをLOFで利用するには単純に教師データをテストデータに加えればよい.しかしその場合,教師データからも外れ値が検出される可能性がある.ここでは教師データを\(k+1\)倍してからテストデータに加えてデータセットを作り,そのデータセットに対してLOFを適用する.ただし\(k\)はLOFにおける\(kdist\)で使われる\(k\)である.LOFの場合,教師データ\(x\)を\(k+1\)倍すると\(kdist(x)=0\)となり,教師データ\(x\)が外れ値として検出されることはなくなる.教師データを\(k+1\)倍することで,テストデータに対して,外れ値検出の精度が高まるという保証はないが,いくつかの予備実験により経験的に精度が向上することは確認している.一般に教師データを増やせば検出の精度は高まる.また,教師データを増やせば既存の教師データに対する密度が高まるはずなので,教師データを\(k+1\)倍することは精度を高める方向に作用する.またLOFは確率的な手法ではないので,明確には教師データの独立同一性分布を仮定していない.この点で同じデータを増やしても精度を落とす方向へ作用しないと考える.また注記として,教師なしのLOFも教師付きLOFも\(k\)の値が特に精度に影響を与えている.この点は考察の章で述べる.本論文では教師なしのLOFにおいて\(k=5\)としたが,教師付きのLOFでも\(k=5\)とする.\subsection{教師データを利用した生成モデルの構築}対象単語\(w\)の用例\(x\)に対する生成モデル\(P(x)\)を教師データを利用して構成する.\(w\)の語義を\(z_i\)(\(i=1\simK\))としたとき,全確率の公式から以下が成立する.\[P(x)=\sum_{i=1}^KP(z_i)P(x|z_i)\]\(w\)の教師データが\(N\)個あり,その中で語義\(z_i\)のデータが\(n_i\)個あれば,\(\sum_{i=1}^Kn_i=N\)であり,\begin{equation}P(z_i)=\frac{n_i}{N}\label{eq:seisei1}\end{equation}と推定できる.問題は\(P(x|z_i)\)の推定である.\(x\)は以下のような素性リストで表現されている.\[x=\{f_1,f_2,\cdots,f_m\}\]ここではNaiveBayesで使われる素性間の独立性を仮定して,\[P(x|z_i)\approx\prod_{j=1}^mP(f_j|z_i)\]と近似する.教師データの中の語義が\(z_i\)となっているデータの中で\(f_j\)が出現した個数を\(n(z_i,f_j)\)と書くことにする.このとき,\begin{equation}P(f_j|z_i)=\frac{n(z_i,f_j)}{n_i}\label{eq:seisei2}\end{equation}と推定できる.ただし式(\ref{eq:seisei1})や式(\ref{eq:seisei2})は頻度が0の部分があると不具合が生じる.そこでMAP推定でスムージングを行い,以下の補正式を用いる\cite{takamura}.\begin{gather}P(z_i)=\frac{n_i+1}{N+K}\\[0.5em]P(f_j|z_i)=\frac{n(z_i,f_j)+1}{n_i+2}\end{gather}以上より\(P(x)\)の値が求まる.外れ値の度合いは\(-\logP(x)\)で測り,この値の大きなものを外れ値の候補とする.ここである閾値を定めて外れ値を検出することも考えられるが,単語毎に\(-\logP(x)\)の値は大きく異なるために,固定した閾値を定めることはできない.そこでここでは単語毎に,検出対象のデータ(テストデータ)に対して\(-\logP(x)\)を計算し,それらの値に対する平均\(\mu\)と分散\(\sigma^2\)を求める.\(-\logP(x)\)の分布を正規分布と考え,以下の式の値(正規化した値)に対して閾値\(\theta\)を設けることにした.\begin{equation}\frac{-\logP(x)-\mu}{\sigma}\label{gtheta}\end{equation}上記の正規化した値が\(\theta\)以上の\(x\)を外れ値とする.ここでは予備実験を行い\(\theta=1.1\)とした.\subsection{教師付きLOFと生成モデルの積集合}本論文の提案手法は,前述した教師付きLOFによる出力と,教師データを利用して構築した生成モデルの出力の共通部分(積集合)を出力するものである.一般に外れ値検出のタスクは難しく,単一の手法ではなかなか高い検出能力が得られない.その1つの原因は誤検出が多いことである.提案手法の狙いは,異なったタイプの手法の出力の積集合を取ることで,誤検出を減らし,全体の検出能力を向上させることである.LOFと生成モデルは外れ値の捉え方が異なるために,出力の積集合を取る効果が期待できる.
\section{実験}
\subsection{実験データ}SemEval-2は語義曖昧性解消に関する評価型の国際会議であり,いくつかのタスクが設定されている.日本語WSDはその中の1つである.通常の日本語の語義曖昧性解消のタスクであるが,最も特徴的な点は識別結果に新語義というカテゴリを含めている点である.つまりテストデータの中には設定された語義のどれでもないという答えがありえる.そのため,このタスクで用意された教師データとテストデータを用いることで,教師付きの枠組みでの新語義の検出手法の評価が可能である.日本語WSDの対象単語は50単語である.この中で「可能」「入る」は教師データ内に新語義の用例があるので,それらを外して残り48単語を実験対象とした.各単語を以下に示す.\vspace{1\Cvs}\small\begin{boxedminipage}{140mm}\begin{verbatim}名詞21単語相手,意味,関係,技術,経済,現場,子供,時間,市場,社会,情報,手,電話,場合,はじめ,場所,一,文化,ほか,前,もの動詞22単語会う,あげる,与える,生きる,入れる,教える,考える,勧める,する,出す,立つ,出る,とる,乗る,始める,開く,見える,認める,見る,持つ,求める,やる形容詞5単語大きい,高い,強い,早い,良い\end{verbatim}\end{boxedminipage}\normalsize\vspace{1\Cvs}新語義は「意味」で1用例,「手」で3用例,「前」で7用例,「求める」で1用例,「あげる」で2用例,「はじめる」で2用例の計16用例存在する.これらが検出の正解となる.正解の用例を以下に示す.下線の単語が対象単語である.\small\noindent\hspace{10mm}1.…の開きが,ある\underline{意味}で,科学技術と社会に…\\\hspace{10mm}2.…医業収益等は\underline{手}入力…\\\hspace{10mm}3.…本部での集約も\underline{手}入力,…\\\hspace{10mm}4.…経理コンピュータへの予算入力も\underline{手}入力で…\\\hspace{10mm}5.…ランチ=\underline{前}十一時半〜後3時.\\\hspace{10mm}6.…二十四日火,\underline{前}十時〜後7時…\\\hspace{10mm}7.…来年3月二十日木までの\underline{前}十時〜後十時,…\\\hspace{10mm}8.…ゆうゆうワイド(TBS=\underline{前}8・三十)…\\\hspace{10mm}9.…三十日水までの\underline{前}十一時半〜後2時半,…\\\hspace{10mm}10.…,\underline{前}十一時半〜後2時半,…\\\hspace{10mm}11.…\underline{前}十時半と後6時,本館1階正面口で…\\\hspace{10mm}12.…インフラ不安に要因を\underline{求め},その強化対策を…\\\hspace{10mm}13.…国を\underline{挙げて}緑化を進めた.\\\hspace{10mm}14.…国を\underline{あげて}緑化に取り組んだシンガポールは,…\\\hspace{10mm}15.16.…「\underline{はじめる}・はじまる」は「初」でなく,「\underline{始める}・始まる」と書きます.\\\normalsize\subsection{素性の設定}本手法を利用するためには,用例を素性ベクトルで表現しなくてはならない.そのために以下の8種類の素性を利用した.基本的WSDで利用する素性である.なお対象単語の直前の単語を\(w_{-1}\),直後の単語を\(w_1\)としている.{\setlength{\leftskip}{4zw}\noindente0\(w\)の表記\\e1\(w\)の品詞\\e2\(w_{-1}\)の表記\\e3\(w_{-1}\)の品詞\\e4\(w_1\)の表記\\e5\(w_1\)の品詞\\e6\(w\)の前後3つまでの自立語の表記\\e7e6の分類語彙表の番号の4桁と5桁\par}例えば以下はWSDの対象単語が16単語目の\mbox{``経済''}である文の形態素解析結果である\footnote{SemEval-2の日本語WSDタスクのデータはこの例のように,形態素解析済みのデータである.}.\small\begin{verbatim}<sentence><morpos="名詞-固有名詞-組織名"rd="デンツー">電通</mor><morpos="補助記号-読点"rd=",">,</mor><morpos="名詞-固有名詞-組織名"rd="ハクホー">博報</mor><morpos="接尾辞-名詞的-一般"rd="ドー">堂</mor><morpos="助詞-格助詞"rd="オ">を</mor><morpos="名詞-普通名詞-副詞可能"rd="ハジメ">はじめ</mor><morpos="名詞-普通名詞-一般"rd="ジョーイ">上位</mor><morpos="名詞-数詞"rd="ゴ">五</mor><morpos="接尾辞-名詞的-助数詞"rd="シャ">社</mor><morpos="助詞-副助詞"rd="クライ">くらい</mor><morpos="助動詞"rd="ナラ"bfm="ダ">なら</mor><morpos="名詞-普通名詞-一般"rd="エイチピー">HP</mor><morpos="助詞-格助詞"rd="オ">を</mor><morpos="動詞-一般"rd="ツクル"bfm="ツクル">作る</mor><morpos="形状詞-一般"rd="ジンテキ">人的</mor><morpos="名詞-普通名詞-一般"rd="ケーザイ"sense="X">経済</mor><morpos="接尾辞-形状詞的"rd="テキ">的</mor><morpos="名詞-普通名詞-一般"rd="ヨユー">余裕</mor><morpos="助詞-係助詞"rd="モ">も</mor><morpos="動詞-非自立可能"rd="アル"bfm="アル">ある</mor><morpos="助動詞"rd="デショー"bfm="デス">でしょう</mor><morpos="助詞-接続助詞"rd="ガ">が</mor><morpos="補助記号-読点"rd=",">,</mor><morpos="名詞-普通名詞-一般"rd="チューショー">中小</mor><morpos="助詞-格助詞"rd="ノ">の</mor><morpos="名詞-普通名詞-サ変可能"rd="ダイリ">代理</mor><morpos="接尾辞-名詞的-一般"rd="テン">店</mor><morpos="助詞-格助詞"rd="デ">で</mor><morpos="助詞-係助詞"rd="ワ">は</mor><morpos="連体詞"rd="ソンナ">そんな</mor><morpos="名詞-普通名詞-一般"rd="ヨユー">余裕</mor><morpos="助詞-係助詞"rd="ワ">は</mor><morpos="動詞-非自立可能"rd="アリ"bfm="アル">あり</mor><morpos="助動詞"rd="マセ"bfm="マス">ませ</mor><morpos="助動詞"rd="ン"bfm="ヌ">ん</mor><morpos="補助記号-句点"rd=".">.</mor></sentence>\end{verbatim}\normalsize上記の用例から以下の素性リストが作成される.全体の素性リストが得られれば,全リストの各要素(素性)=(素性値)を各次元に設定することで,素性リストを素性ベクトル(実数値ベクトル)に変換できる.またここでは作成した素性ベクトルの大きさを1に正規化した.\begin{verbatim}e0=経済,e1=名詞-普通名詞-一般,e2=人的,e3=形状詞,e4=的,e5=接尾辞,e6=人的,e6=作る,e6=HP,e6=余裕,e6=ある,e6=中小,e7=2386,e7=1197,e7=11972\end{verbatim}素性e7について注記しておく.上記例の場合,素性e6の値としては,「人的」「作る」「HP」「余裕」「ある」「中小」の6つ存在する.各々の分類語彙表の番号を調べると,以下のようになっている\footnote{下位分類の番号は省略している.}.\begin{verbatim}作る==>2.386余裕==>1.1972ある==>2.1203.100\end{verbatim}「人的」「HP」「中小」については分類語彙表に記載はない.「作る」の\verb|2.386|から上位4桁を取り\verb|e7=2386|が作成される.また「余裕」の\verb|1.1972|から上位4桁と5桁を取り\verb|e7=1197|と\verb|e7=11972|が作成される.最後に「ある」に関してだが,この単語からは素性e7は作成しない.本論文では全てひらがな文字からなる単語は多義語になっている場合が多い.そのため分類語彙表の番号を素性リストに含めてもノイズの方が多いと考え,そのような処理をしている.\subsection{実験結果}\subsubsection{F値による評価}まずF値による評価実験の結果を表\ref{tab:jikken2}に示す.LOFではLOF値の大きなもの上位3つを取り出すことにする.3つというのは,上位1つ,上位2つ,…,上位5つと各実験を行い,最も検出能力が高かった(F値が高かった)ものである.OCSはOneClassSVMの意味である.$\text{OCS}\cap\text{LOF}$はLOFの出力とOCSの出力の積集合をとったものである\cite{shinnou-lrec2010}.この3つが教師なしの外れ値検出に相当する.LOF-eは教師データを除いてLOF値の高い上位3つをとったたもの,OCS-eはOCSの出力から教師データを除いたもの,$\text{OCS}\cap\text{LOF-e}$はLOF-eとOCS-eの出力の積集合を取ったものである.またNNは\cite{erk}で用いられた最近傍法であり式(\ref{eq:siki1})が1.12以上のものを取り出している.1.12という閾値は出力結果からF値が最も高くなるように設定した値である\footnote{論文\cite{erk}で用いられている閾値は1である.}.S-LOFは本論文で提案した教師付きLOFを指す.S-LOFでは,LOFと同様,LOF値の高い上位3つを取り出すことにする.またG-modelは本論文で説明した生成モデルによるものである.この6つとS-LOFとG-modelの出力の積集合を出力とする本手法の7つが教師付きの外れ値検出に相当する.\begin{table}[t]\caption{実験結果(F値)}\label{tab:jikken2}\input{03table01.txt}\end{table}教師ラベルを全く使わない場合,教師データからも外れ値が検出されるので,F値は低くなる.また単純に通常の検出を行った後に教師データを除く方法(表\ref{tab:jikken2}の*-eの手法)よりも,積極的に教師データを利用したS-LOFの方がF値が高い.またS-LOFとG-modelは検出の手法が異なるために,検出結果の重なりが少なく,結果的に両者の積集合を取る本手法のF値が最も高かった.\subsubsection{平均適合率による評価}前節では手法の評価をF値で行った.本節では全データに対して外れ値の度合いの順位を出力し,平均適合率を求めることで手法の評価を行う.NNとG-modelでは出力の値(外れ値の度合い)をソートすることで,全データに対する外れ値の度合いの順位が得られる.LOFやS-LOFの場合は,単語毎に出力の値のスケールが異なるために,まずG-modelで行ったような正規化を行い,単語毎の出力値のスケールを揃える.次に単語毎の出力値の上位3位までの出力値に100を加えた後に,全体をソートすることで,全データに対する外れ値の度合いの順位を得る.「上位3位までの出力値に100を加える」意味は,単語毎の出力値の上位3位までを優先して出力することに対応する\footnote{理論的には順位1位の出力値+1で十分だが,本論文で扱う手法は全て順位1位の出力値が100よりもかなり小さいので,100を加えるという単純な処理にしている.}.これは本来LOFやS-LOFは単語毎に上位数件を外れ値として出力する手法であり,取り出さないデータの順位に意味があるかどうかは不明であるために導入した処理である.実際,この処理を行った方が,行わなかった場合よりも平均適合率は高かった.OCSの場合は,外れ値と判定したデータ群の重心を求め,その重心との距離によって,全データに対する外れ値の度合いの順位を得た.本手法$(\text{G-model}\cap\text{S-LOF})$の場合,基本的にG-modelの出力の値を外れ値の度合いとするが,本来のS-LOFにおける出力のデータ(単語毎のLOF値の上位3件)に対しては,G-modelでの出力の値に100を加えた後に,全体をソートした.$\text{OCS}\cap\text{LOF}$などのLOF類と積集合を取る手法も本手法と同様に,LOFと組み合わせる方の手法のみで,まず外れ値の度合いを得て,次に本来のLOFにおける出力のデータ(単語毎のLOF値の上位3件)に対して100を加えた後に全体をソートした.\begin{table}[b]\caption{実験結果(平均適合率)}\label{tab:ap}\input{03table02.txt}\end{table}実験の結果を表\ref{tab:ap}に示す.表の1行目は手法名である.紙面の都合上$\text{OCS}\cap\text{LOF}$,$\text{OCS}\cap\text{LOF-e}$,G-modelは,それぞれ$\text{O}\cap\text{L}$,$\text{O}\cap\text{L-e}$,G-mdlと略記している.表の1列目は新語義の現れた個数,表内の数値はその個数の時点での適合率である.例えば,本手法の場合,1番目に新語義の現れた順位は7であり,その時点での適合率は$1/7=0.14286$であり,2番目に新語義の現れた順位は13であり,その時点での適合率は$2/13=0.15385$である.これを全ての新語義の個数16個まで調べ,各適合率の平均が平均適合率(AveragePresision=AP)である.そして各手法に対する平均適合率をグラフ化したものが図\ref{fig-ap}である.\begin{figure}[t]\begin{center}\includegraphics{19-4ia3f5.eps}\end{center}\caption{平均適合率}\label{fig-ap}\end{figure}表\ref{tab:ap}及び図\ref{fig-ap}より,本手法が最も平均適合率が高いことが確認できる.また教師なしの手法にあたるLOF,OCS,$\text{OCS}\cap\text{LOF}$の3つは0.005前後の値となり,教師ラベルを使わずに単純に出力結果から教師データを除く手法LOF-e,OCS-e,$\text{OCS}\cap\text{LOF-e}$の3つは0.010弱の値になり,教師付き外れ値検出手法にあたるNN,S-LOF,G-modelの3つは0.010強の値になる.これらのことから教師データを外れ値検出に積極的に利用する効果も確認できる.
\section{考察}
\subsection{教師データを$k+1$倍する効果}S-LOFは教師データを\(k+1\)倍したLOFであるが,この倍率を1から\(k+1\)まで変化させた結果を表\ref{tab:jikken2-tuika}に示す.なお倍率1倍は通常のLOFである.正解の検出数及び教師データからの検出(誤検出)は\(k\)倍まではほぼ変化ないが,\(k+1\)倍することで急激に改善される.これにより教師データを\(k+1\)倍する効果が確認できる.\begin{table}[b]\caption{S-LOFにおける教師データの倍率の変化}\label{tab:jikken2-tuika}\input{03table03.txt}\end{table}\subsection{WSDによる新語義検出}WSDの教師データが利用できるのであれば,WSDの分類器を学習し,その識別の信頼度を利用して新語義が検出できると考えるのは自然である.ただし単純にそのアプローチだけでは新語義の検出は困難である.前述した素性を使いSVMを学習し,SemEval-2日本語WSDタスクのテストデータ50単語全てを対象に語義の曖昧性解消を行ったところ,平均正解率は0.7664であった.上記タスクの参加システム中最高の正解率はRALI-2の0.7636であり\cite{semeval-2010},ここで学習できたSVMは十分能力が高いことがわかる.上記SVMの学習にはLIBSVMを用いたが,そこでは\verb|-b|のオプションで識別の信頼度(その語義に属する確率値)を求めることができる.このオプションを用いて,閾値\(\theta\)以下の信頼度のときに,その用例を新語義の用例とすることで新語義の検出を試みた.\begin{figure}[b]\begin{center}\includegraphics{19-4ia3f6.eps}\end{center}\caption{閾値とF値}\label{k-zettai}\end{figure}閾値\(\theta\)の設定であるが,まず単純に0.51から0.99までの値を0.01刻みで設定し,その値を用いた場合の検出結果に対するF値を求めた.そのグラフを図\ref{k-zettai}に示す.\(\theta=0.73\)のときに検出数388正解数4となりF値が最大の0.0198を取る.また語義数が\(K\)の場合,SVMが出力する識別の信頼度は明らかに\(1/K\)以上の値になるので,語義数の影響を受けている可能性がある.そこで閾値を\(\theta=(1+\alpha)/K\)と設定し,\(\alpha\)を0.01刻みで0.99まで試したときのグラフを図\ref{k-soutai}に示す.\(\alpha=0.17\)のときに検出数39正解数2となりF値が最大の0.0727を取る.\begin{figure}[b]\begin{center}\includegraphics{19-4ia3f7.eps}\end{center}\caption{語義数を考慮した閾値とF値}\label{k-soutai}\end{figure}F値0.0727は表\ref{tab:jikken2}で示された外れ値検出手法と比較すると,それほど悪いとも言えないが,WSDシステム単独では新語義の検出が困難であることがわかる.また平均適合率の評価も行っておく.システムが識別した語義の信頼度によって,全体のデータを(昇順に)ソートすることで,平均適合率を調べたところ0.00638となった.この値は表\ref{tab:ap}に示した外れ値検出手法による平均適合率と比べると高い値とは言えない.平均適合率の観点からも,WSDシステム単独では新語義の検出が困難であることがわかる.上記では語義の識別の信頼度により新語義を検出するアプローチであったが,ここではSVMを利用しているので,one-vs-rest法を利用して,語義毎にSVMを学習し,すべての語義について否と判定されたものを新語義とするアプローチも考えられる.このアプローチによる評価も行っておく.語義毎にSVMを学習する際にもLIBSVMの\verb|-b|のオプションを用いる.語義毎の各SVMが否と識別した信頼度を集め,その最小値\(\gamma\)をそのデータの新語義の度合いとする.\(\gamma\)が閾値\(\theta\)よりも大きい場合に,新語義と判定する.\(\theta=0.5\)は語義毎のSVM全てが否と判定したものを新語義と判定することを意味する.出力結果の分析から\(\theta=0.6996\)のときに検出数33正解数1となりF値が最大の0.0408を取る.またone-vs-rest法を利用した場合の平均適合率も調べた.\(\gamma\)の値を新語義の度合いとし,全データに対して新語義の度合いの順位を出力することで平均適合率が求まる.結果,平均適合率は0.0132であった.F値にしても平均適合率にしても,表\ref{tab:jikken2}や図\ref{fig-ap}と比較すると,通常の教師付きの外れ値検出手法と同程度である.one-vs-rest法を利用した場合でも,WSDシステム単独では新語義の検出が困難であることがわかる.\subsection{未出現語義を含めた評価}SemEval-2日本語WSDタスクでは,教師データ中には現れないが,テストデータには出現する語義が存在する.このような教師データ中の未出現語義は,新語義と見なすこともできる.このような用例は「あう」で1用例,「すすめる」で1用例,「出す」で3用例,「立つ」で1用例,「とる」で3用例,「ひとつ」で1用例,「見る」で6用例,「持つ」で1用例,「大きい」で2用例,「与える」で1用例の合計20用例存在する.これらも新語義の用例と見なした場合の検出結果を表\ref{tab:jikken3}に示す.F値の括弧内の数値は正解を新語義のみにした場合の正解数とF値(表\ref{tab:jikken2}の値)である.\begin{table}[b]\caption{未出現語義を含めた評価(F値)}\label{tab:jikken3}\input{03table04.txt}\end{table}\begin{table}[b]\caption{未出現語義を含めた評価(平均適合率)}\label{tab:ap2}\input{03table05.txt}\end{table}また平均適合率の評価も行っておく.各手法の平均適合率の求め方は前述した方法で行う.結果を表\ref{tab:ap2}に示す.表\ref{tab:ap2}の「新語義のみ」の列は正解を新語義のみにした場合であり,「未出現語義を含む」の列は正解を新語義と未出現語義を合わせたものにした場合である.F値の評価でも平均適合率の評価でも本手法が最も高い値を出しており,本手法の効果は確認できる.ただし全体的な傾向として,未出現語義を正解に含めた場合の方が,F値も平均適合率も若干高くなるが,本手法に関しては値が下がっている.S-LOFやG-modelは未出現語義を正解に含めると,検出できる正解数は増えるが,共通して検出できる部分がなかったために,このような結果になった.この対策としては,後述するアンサンブル手法の導入により改良していきたい.また,前節のWSDシステムを用いた場合の評価を表\ref{tab:wsd+}に示す.F値と平均適合率の括弧内の数値は正解を「新語義のみ」にしたものである.\begin{table}[t]\caption{未出現語義を含めたWSDの評価}\label{tab:wsd+}\input{03table06.txt}\end{table}未出現語義を正解に含めた場合でも,前節同様,WSDシステム単独では新語義の検出が困難であるといえる.\subsection{誤検出・未検出の原因}本手法の誤検出の原因について述べる.1つは固有表現や熟語内の単語である.例えば以下のような表現が検出されている.\begin{itemize}\item[(a)]未来科学\underline{技術}共同研究センターの中の研究施設\item[(b)]昔話の「千代ごこ\underline{出}やっせ」のように\item[(c)]中小零細企業の取材は数多く\underline{手}がかかる割りに\end{itemize}固有表現や熟語内の単語に通常の意味があるとは考えづらく,新語義の検出という観点では,このような表現を抽出しても完全に誤りとは言えない.本来,新語義の検出するためには,固有表現や熟語を予め抽出しておくことが必要だと考える.また誤検出のその他の原因は多様であるが,全体として,対象単語の直前や直後に自立語が現れる複合語の用法や動詞の連体形の用法などが目立った.\begin{itemize}\item[(d)]わが国が最も重要な貿易\underline{相手}国の一つ\item[(e)]人間性を疑ってしまう人とは男女\underline{関係}なく,\item[(f)]夏休み等に行って来た時の経験=古き\underline{良き}時代を,\end{itemize}複合語が専門性の高い用語である場合は意味のある検出とも見なせるが,ここでは複合語を単なる名詞連続で認識しているために,専門用語との区別は付けられない.新語義の検出に関しては,熟語や固有表現と同様,専門用語も通常の表現とは,区別した方がよいと考える.本手法の未検出の原因としては,突き詰めれば,用例間の距離の測定方法に帰着される.ある新語義の用例と他の正常値の用例との距離がある程度,離れていたとしても,正常値の用例間の距離も同程度は離れているという状況である.これは動詞や形容詞における検出では顕著である.この問題に注目して距離学習を新語義発見に応用した研究も存在する\cite{msasaki}.ただしこの問題は本質的に語義曖昧性解消の場合と同じであり,語義曖昧性解消の精度向上の試みが本研究に応用できる.\subsection{教師付きLOFとパラメータ\(k\)}オリジナルのLOFではパラメータ\(k\)が存在し,この値が精度に大きく影響することが指摘されている.ここで提案した教師付きLOFでは更に\(k\)の設定はシビアである.教師付きLOFでは,テストデータ\(y\)と最も近い点が教師データ\(x\)であった場合,\(x\)の密度が非常に高いために\(LOF(y)\)の値も高くなり,一見,不都合に感じる.ただしテストデータ\(z\)の場合も,最も近い点が教師データ\(x\)であり,\(d(x,y)<d(x,z)\)となっている場合は,\(LOF(y)<LOF(z)\)となるために,\(y\)の外れ値の程度は\(z\)よりも下がる(図\ref{kou1}参照).\begin{figure}[b]\begin{center}\includegraphics{19-4ia3f8.eps}\end{center}\caption{教師データとの位置関係による外れ値の度合い1}\label{kou1}\end{figure}つまり極端に言えば,教師付きLOFは,最も近い点が教師データであり,しかもその点までの距離が大きい場合に外れ値の程度が大きくなる.これは外れ値の性質としては妥当である.現実的にはテストデータ\(y\)の\(k\)近傍\(N_{k}(y)\)の中に教師データ\(x\)が入るかどうか,\(y\)から\(x\)までの距離\(d(x,y)\),\(N_{k}(y)\)の中にテストデータがいくつ入るか及びそれらの位置関係が\(LOF(y)\)の値に影響している.もしも\(N_{k}(y)\)の中に教師データが入らない場合は,入る場合と比較して極端に\(LOF(y)\)の値は小さいので,\(y\)が外れ値として検出されることはない(図\ref{kou2}参照).\begin{figure}[t]\begin{center}\includegraphics{19-4ia3f9.eps}\end{center}\caption{教師データとの位置関係による外れ値の度合い2}\label{kou2}\vspace{-1\Cvs}\end{figure}「\(k\)近傍内に教師データが入らない場合は外れ値ではない」という設定が妥当かどうかは不明である.当然,そうではない場合も想定することは可能だが,実験結果をみると本タスクにおいては上記設定が有効に機能していた.おそらく\(k\)近傍内に教師データが入らない場合は,そのデータ近辺の密度が低いためだと考えられる.ここで提案した教師付きLOFでは,\(k\)近傍内に教師データが入るかどうかで,外れ値かどうかの最初の判定がされていると見なすこともできるので,パラメータ\(k\)の値は,通常のLOFよりも更に精度に影響を与えていると言える.\subsection{外れ値検出手法のアンサンブル}外れ値検出手法は数多く提案されており,本論文で利用したLOFについてもいくつかの改良手法が提案されている\cite{jin,papadimitriou}.これらの手法をどのようにして教師付きの枠組みへ拡張するかは不明であるが,これらを利用することで本手法の改善も可能である.また,新たに外れ値検出手法を考案するのではなく,既存の手法を組み合わせる戦略も有効である.Lazavicは複数の外れ値検出の手法を適用して,それら出力結果を総合的に判断して最終的に外れ値候補を出力するという外れ値検出手法のアンサンブル(ensemble)を提案した\cite{lazavic}.ここで提案したLOFと生成モデルの組み合わせも,外れ値検出手法のアンサンブルの一種と考えられる.ここでは単純に出力の積により最終の出力を決めたが,重みを付けて判断するなどの工夫も考えられる.あるいは他の外れ値検出の手法の組み合わせることも有効であろう.表\ref{tab:jikken3}からもわかるとおり,LOFの出力と生成モデルの出力はかなり異なる.単純に出力の和を取ると,検出数が多くなりすぎてF値の評価は下がってしまうが,第1段目の候補としては取り出せているので,そこからの選別に工夫することで改善が可能である.ここらが今後の課題である.また,本論文ではS-LOFとG-modelのアンサンブルを提案したが,実験の結果をみるとNNとG-modelのアンサンブルやS-LOFとNNのアンサンブルも有望に見える.それらの実験結果を表7に示す\footnote{$\text{G-model}\cap\text{NN}$の平均適合率の測り方は$\text{G-model}\cap\text{S-LOF}$(本手法)と同様である.つまり,G-modelの出力の値を外れ値の度合いとし,本来のNNにおける出力のデータに対しては,G-modelでの出力の値に100を加えた後に,全体をソートした.}.\begin{table}[t]\caption{手法の組み合わせの評価}\label{tab:nncombi}\input{03table07.txt}\end{table}表7が示すとおり,提案手法のS-LOFとG-modelのアンサンブルが最も優れている.また組み合わせる手法によっては,個々の手法よりも精度が劣化することもありえるので,アンサンブルに用いる手法の選択も重要であることがわかる.
\section{おわりに}
本論文では対象単語の用例集合から,その単語の語義が新語義となっている用例を検出する手法を提案した.基本的に新語義の用例を用例集合中の外れ値と考え,外れ値検出の手法を利用する.ただし従来の外れ値検出では教師なしの枠組みであるが,ここではタスクの性質を考慮し,教師付きの枠組みで行った.まずLOFを教師データを利用する形に改良した教師付きLOFを提案し,次に教師データを利用することで生成モデルを構築した.提案手法は上記2つの手法それぞれの出力の共通部分(積集合)を取るものである.これは2つの異なったタイプの外れ値検出の手法の積集合を取ることで誤検出を減らし,結果的に検出能力を高めることを狙いとしている.タスクの一部として新語義識別を含むSemEval-2の日本語WSDタスクのデータを利用して,LOF,OneClassSVM,最近傍法,教師付きLOF,生成モデルおよび提案手法による新語義の検出実験を行った.それぞれの手法のF値と平均適合率を求めることで,提案手法の有効性を示した.また教師なしの手法(LOF,OCS,$\text{OCS}\cap\text{LOF}$),単純に教師データを検出結果から除く手法(LOF-e,OCS-e,$\text{OCS}\cap\text{LOF-e}$)及び教師付きの手法(NN,S-LOF,G-model)のF値と平均適合率を比較することで,新語義検出を目的とした外れ値検出では,教師データを積極的に利用することが精度向上に効果があることが確認できた.またWSDシステムの識別の信頼度を利用した新語義を検出実験も行った.十分なパフォーマンスを示すWSDシステムを用いても,WSDシステム単独では新語義の検出が困難であることも示した.提案手法は外れ値検出手法のアンサンブルの手法と位置づけられる.提案手法における出力結果のアンサンブルは,積集合をとるという単純なものであるため,この部分に工夫を入れることで更に検出能力が高まると予想している.出力結果の統合方法を工夫することが今後の課題である.\begin{thebibliography}{}\bibitem[\protect\BCAY{Agirre\BBA\Soroa}{Agirre\BBA\Soroa}{2007}]{agirre}Agirre,E.\BBACOMMA\\BBA\Soroa,A.\BBOP2007\BBCP.\newblock\BBOQ{Semeval-2007task02:Evaluatingwordsenseinductionanddiscriminationsystems}.\BBCQ\\newblockIn{\BemSemEval-2007}.\bibitem[\protect\BCAY{赤穂}{赤穂}{2008}]{akaho}赤穂昭太郎\BBOP2008\BBCP.\newblock\Jem{カーネル多変量解析}.\newblock岩波書店.\bibitem[\protect\BCAY{Bordag}{Bordag}{2006}]{stefan}Bordag,S.\BBOP2006\BBCP.\newblock\BBOQ{Wordsenseinduction:Triplet-basedclusteringandautomaticevaluation}.\BBCQ\\newblockIn{\Bem{EACL-2006}},\mbox{\BPGS\137--144}.\bibitem[\protect\BCAY{Breuning,Kriegel,Ng,\BBA\Sander}{Breuninget~al.}{2000}]{lof}Breuning,M.~M.,Kriegel,H.-P.,Ng,R.~T.,\BBA\Sander,J.\BBOP2000\BBCP.\newblock\BBOQ{LOF:IdentifyingDensity-BasedLocalOutliers}.\BBCQ\\newblockIn{\Bem{ACMSIGMOD2000}},\mbox{\BPGS\93--104}.\bibitem[\protect\BCAY{Denkowski}{Denkowski}{2009}]{denkowski}Denkowski,M.\BBOP2009\BBCP.\newblock\BBOQ{SurveyofTechniquesforUnsupervisedWordSenseInduction}.\BBCQ\bibitem[\protect\BCAY{Erk}{Erk}{2006}]{erk}Erk,K.\BBOP2006\BBCP.\newblock\BBOQ{Unknownwordsensedetectionasoutlierdetection}.\BBCQ\\newblockIn{\Bem{NAACL-2006}},\mbox{\BPGS\128--135}.\bibitem[\protect\BCAY{Jin,Tung,Han,\BBA\Wang}{Jinet~al.}{2006}]{jin}Jin,W.,Tung,A.K.~H.,Han,J.,\BBA\Wang,W.\BBOP2006\BBCP.\newblock\BBOQ{Rankingoutliersusingsymmetricneighborhoodrelationship}.\BBCQ\\newblockIn{\BemThe10thPacific-AsiaconferenceonAdvancesinKnowledgeDiscoveryandDataMining(PAKDD'06)},\mbox{\BPGS\577--593}.\bibitem[\protect\BCAY{九岡\JBA白井\JBA中村}{九岡\Jetal}{2008}]{kuoka}九岡佑介\JBA白井清昭\JBA中村誠\BBOP2008\BBCP.\newblock複数の特徴ベクトルのクラスタリングに基づく単語の意味の弁別.\\newblock\Jem{第14回言語処理学会年次大会},\mbox{\BPGS\572--575}.\bibitem[\protect\BCAY{Lazarevic\BBA\Kumar}{Lazarevic\BBA\Kumar}{2005}]{lazavic}Lazarevic,A.\BBACOMMA\\BBA\Kumar,V.\BBOP2005\BBCP.\newblock\BBOQFeaturebaggingforoutlierdetection.\BBCQ\\newblockIn{\BemTheeleventhACMSIGKDDinternationalconferenceonKnowledgediscoveryindatamining(KDD'05)},\mbox{\BPGS\157--166}.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2010}]{semeval-2010}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2010\BBCP.\newblock\BBOQ{SemEval-2010Task:JapaneseWSD}.\BBCQ\\newblockIn{\Bem{The5thInternationalWorkshoponSemanticEvaluation}},\mbox{\BPGS\69--74}.\bibitem[\protect\BCAY{Papadimitriou,Kitagawa,Gibbons,\BBA\Faloutsos}{Papadimitriouet~al.}{2003}]{papadimitriou}Papadimitriou,S.,Kitagawa,H.,Gibbons,P.~B.,\BBA\Faloutsos,C.\BBOP2003\BBCP.\newblock\BBOQ{LOCI:FastOutlierDetectionUsingtheLocalCorrelationIntegral}.\BBCQ\\newblockIn{\BemICDE-2003},\mbox{\BPGS\315--326}.\bibitem[\protect\BCAY{Sasaki\BBA\Shinnou}{Sasaki\BBA\Shinnou}{2012}]{msasaki}Sasaki,M.\BBACOMMA\\BBA\Shinnou,H.\BBOP2012\BBCP.\newblock\BBOQ{DetectionofPeculiarWordSensebyDistanceMetricLearningwithLabeledExamples}.\BBCQ\\newblockIn{\BemLREC-2012},\mbox{\BPGS\Session--P6}.\bibitem[\protect\BCAY{Sch\"{o}lkopf,Platt,Shawe-Taylor,Smola,\BBA\Williamson}{Sch\"{o}lkopfet~al.}{2001}]{oc-svm}Sch\"{o}lkopf,B.,Platt,J.~C.,Shawe-Taylor,J.,Smola,A.~J.,\BBA\Williamson,R.~C.\BBOP2001\BBCP.\newblock\BBOQEstimatingthesupportofahigh-dimensionaldistribution.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf13}(7),\mbox{\BPGS\1443--1471}.\bibitem[\protect\BCAY{Sch\"{u}tze}{Sch\"{u}tze}{1998}]{shutze}Sch\"{u}tze,H.\BBOP1998\BBCP.\newblock\BBOQAutomaticwordsensediscrimination.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf24}(1),\mbox{\BPGS\97--123}.\bibitem[\protect\BCAY{Shinnou\BBA\Sasaki}{Shinnou\BBA\Sasaki}{2010}]{shinnou-lrec2010}Shinnou,H.\BBACOMMA\\BBA\Sasaki,M.\BBOP2010\BBCP.\newblock\BBOQ{DetectionofPeculiarExamplesusingLOFandOneClassSVM}.\BBCQ\\newblockIn{\Bem{LREC-2010}}.\bibitem[\protect\BCAY{Shirai\BBA\Nakamura}{Shirai\BBA\Nakamura}{2010}]{shirai-semeval2}Shirai,K.\BBACOMMA\\BBA\Nakamura,M.\BBOP2010\BBCP.\newblock\BBOQ{JAIST:ClusteringandClassificationBasedApproachesforJapaneseWSD}.\BBCQ\\newblockIn{\Bem{The5thInternationalWorkshoponSemanticEvaluation}},\mbox{\BPGS\379--382}.\bibitem[\protect\BCAY{Sugiyama\BBA\Okumura}{Sugiyama\BBA\Okumura}{2009}]{sugiyama}Sugiyama,K.\BBACOMMA\\BBA\Okumura,M.\BBOP2009\BBCP.\newblock\BBOQ{Semi-supervisedClusteringforWordInstancesandItsEffectonWordSenseDisambiguation}.\BBCQ\\newblockIn{\Bem{The10thInternationalConferenceonIntelligentTextProcessingandComputationalLinguistics(CICLing2009)}},\mbox{\BPGS\266--279}.\bibitem[\protect\BCAY{高村}{高村}{2010}]{takamura}高村大也\BBOP2010\BBCP.\newblock\Jem{言語処理のための機械学習入門}.\newblockコロナ社.\bibitem[\protect\BCAY{田中\JBA中村\JBA白井}{田中\Jetal}{2009}]{tanaka-h}田中博貴\JBA中村誠\JBA白井清昭\BBOP2009\BBCP.\newblock新語義発見のための用例クラスタと辞書定義文の対応付け.\\newblock\Jem{第15回言語処理学会年次大会},\mbox{\BPGS\590--593}.\bibitem[\protect\BCAY{山西}{山西}{2009}]{yamanishi}山西健司\BBOP2009\BBCP.\newblock\Jem{データマイニングによる異常検知}.\newblock共立出版.\end{thebibliography}\begin{biography}\bioauthor{新納浩幸}{1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年4月茨城大学工学部システム工学科助手.1997年10月同学科講師,2001年4月同学科助教授,現在,茨城大学工学部情報工学科准教授.博士(工学).機械学習や統計的手法による自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{佐々木稔}{1996年徳島大学工学部知能情報工学科卒業.2001年同大学大学院博士後期課程修了.博士(工学).2001年12月茨城大学工学部情報工学科助手.現在,茨城大学工学部情報工学科講師.機械学習や統計的手法による情報検索,自然言語処理等に関する研究に従事.言語処理学会,情報処理学会各会員.}\end{biography}\biodate\end{document}
| |
V10N05-08 | \section{はじめに}
大量の文書情報の中から必要な部分を抽出するために,自動要約技術などによって文書の量を制御し,短い時間で適確に内容を把握する必要性が高くなってきている.自動要約には,文書中の文を単位とし,なんらかの情報をもとに重要語を定義して各文の重要度を計算する方法がある.たとえば,文書中の出現頻度が高い単語は重要語になる可能性が高いという仮定のもとに,単語の重要度を計算する方法({\ittfidf}法)\cite{salton1989},自立語の個数を考慮して単語の重要度を計算する方法\cite{robertson1997},語彙的連鎖を用い重要度を計算する方法\cite{mochizuki2000}がある.新聞など文書の構造上の特徴から重要文を抽出する方法や,主張,結論,評価などの特別な語を含む文を重要文とする方法など,文書の重要な記述部分を示す語を含む文や,その文に含まれる単語の重要度を他の単語より上げる方法がある\cite{watanabe1996}.その他にも,接続詞,照応関係などから文間・単語間のつながりを解析し要約する方法,文書を意味ネットワーク化して,その上でコネクショニスト・モデルを用いて,接点の活性値の収束値を重要度として計算する要約方法\cite{Hasida1987,Nagao1998}などがある.要約文の表示には文書中の文単位で重要度を計算し,文書中での出現順にあわせて重要な文を提示していくという方法をとるものや,重要な語句・文・パラグラフなどの単位で抽出・表示するものが多い.複数の文を接続詞などでつなげてまったく新しい要約文書を生成するものは少ないが,文脈,文の重要部分,または構造を考慮して,重要文をさらに小さい単位で表示するシステムも出てきている\cite{nomura1999}.システムが抽出した要約文を評価する方法には,人間の被験者の要約と{\ittfidf}法などでシステムが抽出した要約とを再現率/適合率によって比較する方法\cite{Zechner1996},様々な手法で抽出された要約文を利用して,ある種のタスクを行ないその達成率で間接的に評価を行なう方法\cite{mochizukiLREC2000},要約は読み手の観点によって変化することに着目して複数の正解に基づいて評価する方法\cite{ishikawa2002}などがある.本論では,連想概念辞書をもとに,単語と単語の連想関係とその距離情報を使って文書中の単語の重要度を計算し,各文ごとの重要度を求め重要文の抽出を行なう.連想概念辞書は,小学校の学習基本語彙の名詞を刺激語とし,「上位概念」「下位概念」「部分・材料概念」「属性概念」「類義概念」「動作概念」「環境概念」の7つの課題に関して,大量の連想語を収集して構造化すると同時に,刺激語と連想語との距離が定量化されている\cite{Okamoto2001}.連想概念辞書の規模は見出し語が約660語,連想語が延べで約16万語である.単語の重要度の計算は,その単語の連想語もしくはその単語を連想する刺激語が文書中にあれば,二つの単語の距離から得られる値を使用して重要度を計算する.たとえば,「ガラパゴスには巨大な\underline{ゾウガメ}がいる.この\underline{カメ}は,島の中を悠然と歩いている.」のように「ゾウガメ」の上位概念である「カメ」を用いて言い換えている場合,「カメ」「ゾウガメ」の重要度を二つの単語間の距離に基づいて計算する.これによって,表層的に文書中の単語の出現頻度をもとにした重要度の計算では別の単語として処理されるが,本手法では上位/下位概念や部分・材料概念,属性概念,動作概念,環境概念などの連想関係も用いているので関連する単語の重要度を精密に計量することができる.次に人間を被験者として重要文を抽出する実験を行なう.被験者の観点によって抽出される重要文が違ってくる場合があるが,40人の被験者で実験を実施し,多くの被験者が上位に抽出している順番を重視して重要度を決定した.本論文では,既存の重要語抽出法と本手法での抽出結果とを,被験者による実験結果との一致度を比較することによって評価した.
\section{連想概念辞書の使用}
本論文では,人間を被験者として大規模な連想実験を行ない,実験より得られたデータをもとに構築した連想概念辞書\cite{Okamoto1998,Okamoto1999,Okamoto2001}を使用した.\subsection{連想実験}連想実験は自由連想ではなく,被験者に名詞を刺激語として呈示して,「上位概念」「下位概念」「部分・材料概念」「属性概念」「類義概念」「動作概念」「環境概念」の7つ課題に関して連想させ,任意の個数の連想語をキーボード入力させる.刺激語として小学校の国語の教科書から学習基本語彙の名詞を選択し,さらに学習基本語彙以外の実験に用いる名詞の計約660語を刺激語セットとした.被験者数は1刺激語に対し50人である.刺激語と連想語との概念間の距離$D$は連想実験から得られる連想頻度$F$,連想順位$S$のパラメータによる線形結合で表現し,線形計画法を用いて(1)式のように最適解が求められている\cite{Okamoto2001}.ここではパラメータをもとに境界条件を距離$D$の値が最大で10.0程度,最小で1.0程度になるように定め,シンプレックス法で計算している.\begin{equation}\label{D2}D=0.81\timesF+0.27\timesS,\end{equation}\begin{center}\begin{tabular}{l}$F=\frac{N}{n+\delta}$,\\$\delta=\frac{N}{10}-1~~~~(N\geq10)$,\\$S=\frac{1}{n}\sum^{n}_{i=1}s_{i}$,\\\end{tabular}\end{center}ここで刺激語をA,連想語をBとした時,$F$は連想語Bを連想した被験者の割合,$S$は連想語Bが連想された順位の平均した値,$n$は連想人数(n$\geq$1),$N$は被験者数,$s_{i}$は被験者$i$が連想した語の順位である.(\ref{D2})式では連想頻度$F$の係数が連想順位$S$の係数より大きく,連想人数が概念間の距離に与える影響は大きい.多くの被験者が同一の語を連想している場合は,その連想語は刺激語にとって連想しやすい語であると考えられ,概念間の距離も短くなる.\subsection{連想概念辞書の記述形式}\begin{figure}[htb]\begin{center}\epsfile{file=okamoto_graph2.eps,width=138mm,height=69mm}\caption{刺激語「いす」に関する連想概念辞書の記述例(連想語は一部のみ表示)}\label{isu}\end{center}\end{figure}図\ref{isu}は刺激語「いす」についての連想概念辞書の記述例である.「いす」の上位概念として,まず「家具」が連想されており,続く右側の4つの数字は順に頻度(連想者数を被験者数で割った値),連想順位,正規化された連想時間,「いす」と「家具」の概念間の距離である.「上位概念」の他に「下位概念」「部分・材料概念」「属性概念」「類義概念」「動作概念」「環境概念」「関連語」の課題も同じ形式で記述してある.「関連語」は7つの課題に分類できない連想語がある場合にもうけた課題である.たとえば刺激語「犬」に対しての連想語「猫」などは「関連語」とする.used-inとは刺激語が他の刺激語の連想語となっていた場合,逆引き情報として元の刺激語と課題を記述するものである.概念間の距離は,連想順位$S$の値にもよるが,おおよそ$1$〜$10$の間にある\cite{Okamoto2001}.
\section{単語の重要度による重要文抽出}
\subsection{単語の出現頻度に基づく主な重要文抽出手法}文書中で出現頻度が高い単語はその文書を特徴づける重要な単語であるという仮定により,単語の出現頻度や出現文書の数をもとに各単語の重要度を計算\cite{salton1989}し,重要文を抽出する方法などがある.また,タイトルも文書の内容に大きく関連しているとし,{\ittfidf}法にタイトルに含まれる単語に重み$\alpha_{i}$を加えて重要度を計算する方法も考えられる.ここでは本論文の抽出手法と比較するために{\ittfidf}法と,タイトルも考慮に入れた${\ittfidf}+\alpha_{i}$を用いて単語の重要度に基づく重要文抽出を行なう.\begin{itemize}\item[{\bf(1)}]{\bf{\ittfidf}法を用いた単語の重要度の計算}\end{itemize}タイトルを考慮しない場合で単語の重要度$P_{ijk}$を以下の式で計算する.\begin{equation}\label{tfidf}P_{ijk}=\sum_{k=1}^{L_{ij}}\sum_{j=1}^{M_{i}}F_{ijk}*log\frac{N}{n_{ijk}}\end{equation}\begin{center}\begin{tabular}{l}$i=1,2,\cdotsN$,\hspace*{1em}$N$は文書の数.\\$j=1,2,\cdotsM_{i}$,\hspace*{1em}$M_{i}$は文書$i$中の文の数.\\$k=1,2,\cdotsL_{ij}$,\hspace*{1em}$L_{ij}$は文書$i$中の文$j$の単語数.\\\end{tabular}\end{center}単語$w_{ijk}$を,文書$i$中の$j$番目の文中の$k$番目の単語として,$P_{ijk}$は単語$w_{ijk}$の重要度,$F_{ijk}$は,ある単語$w_{ijk}$がその文書$i$中に現れる頻度,$n_{ijk}$は単語$w_{ijk}$が一つでも現れる文書の数である.\begin{itemize}\item[{\bf(2)}]{\bfタイトルを考慮に入れ,{\ittfidf}法を用いた単語の重要度の計算}\end{itemize}文書のタイトルを考慮に入れて,{\ittfidf}に重み$\alpha_{i}$を加えて単語の重要度$P_{ijk}$を計算する.重み$\alpha_{i}$は,タイトルに含まれる単語のうち一番高い重要度の数値とした.\begin{equation}\label{tfidf2}P_{ijk}=\left\{\begin{array}{ll}\sum_{k=1}^{L_{ij}}\sum_{j=1}^{M}F_{ijk}*log\frac{N}{n_{ijk}}&タイトルに含まれない単語の場合\\\sum_{k=1}^{L_{ij}}\sum_{j=1}^{M}[F_{ijk}*log\frac{N}{n_{ijk}}+\alpha_{i}]&タイトルに含まれる単語の場合\\\end{array}\right.\end{equation}\begin{center}\begin{tabular}{l}$i=1,2,\cdotsN$,\hspace*{1em}$N$は文書の数.\\$j=1,2,\cdotsM_{i}$,\hspace*{1em}$M_{i}$は文書$i$中の文の数.\\$k=1,2,\cdotsL_{ij}$,\hspace*{1em}$L_{ij}$は文書$i$中の文$j$の単語数.\\\end{tabular}\end{center}$\alpha_{i}$は文書$i$におけるタイトルを考慮する場合の重要度の付加部分である.次に,(\ref{tfidf})または(\ref{tfidf2})式により得られた重要度の総和を次式で計算し,重要度の高い文の抽出を行なう.\begin{equation}T_{ij}=\sum_{k=1}^{L_{ij}}P_{ijk}\end{equation}\begin{center}\begin{tabular}{l}$i=1,2,\cdotsN$,\hspace*{1em}$N$は文書の数.\\$j=1,2,\cdotsM_{i}$,\hspace*{1em}$M_{i}$は文書$i$中の文の数.\\$k=1,2,\cdotsL_{ij}$,\hspace*{1em}$L_{ij}$は文書$i$中の文$j$の単語数.\\\end{tabular}\end{center}$T_{ij}$は,文書$i$における文$j$の重要度,$P_{ijk}$は,単語$w_{ijk}$の重要度,$L_{ij}$は文書$i$中の文$j$の単語数である.\subsection{単語の連想関係とその距離情報を用いた重要文抽出法}本論文では,単語の頻度などによって単語の重要度を計算する手法に加えて連想概念辞書の刺激語と連想語の関係を使用してそれらの間の距離情報を用いて単語の重要度を計算する\cite{Okamoto2002}.具体的には,以下のような方針で単語の重要度を計算し,重要文を抽出する.\begin{enumerate}\item{茶筅\cite{chasen1999}を用いて文書の形態素解析を行ない修正を加え,単語ごとに基本形,品詞などの情報を得る.}\item{文書中の単語が名詞,形容詞,副詞,動詞ならば,その頻度を単語の重要度$w_{ijk}$として計算する.ただし名詞のうち茶筅の出力結果で名詞-代名詞,名詞-接尾,名詞-非自立,名詞-特殊(茶筅の品詞名による)とあるものは除く.}\item{文書中の単語が名詞で,連想概念辞書の刺激語の場合.ただし名詞のうち茶筅の出力結果で上記のものは同様に除く.次に,単語を刺激語として,その連想語が文書中にあれば,刺激語−連想語間の距離の逆数を単語の重要度として加算する.}\item{文書中の単語が名詞,形容詞,副詞,動詞で,連想概念辞書の連想語の場合.ただし名詞のうち茶筅の出力結果で上記のものは同様に除く.次に,単語を連想する刺激語が文書中にあれば,刺激語−連想語間の距離の逆数を単語の重要度として加算する.}\item{タイトルに含まれる単語の場合は重み$\alpha_{i}$を加算する.重み$\alpha_{i}$は,タイトルに含まれる単語のうち一番高い重要度の数値とした.}\begin{equation}P_{ijk}=\left\{\begin{array}{l}\sum_{k=1}^{L_{ij}}\sum_{j=1}^{M_{i}}[F_{ijk}+1/dist(w_{ijk},a_{ijk})+1/dist(s_{ijk},w_{ijk})]\\\hspace*{5cm}\cdotsタイトルに含まれない単語の場合\\\sum_{k=1}^{L_{ij}}\sum_{j=1}^{M_{i}}[F_{ijk}+1/dist(w_{ijk},a_{ijk})+1/dist(s_{ijk},w_{ijk})+\alpha_{i}]\\\hspace*{5cm}\cdotsタイトルに含まれる単語の場合\\\end{array}\right.\end{equation}\begin{center}\begin{tabular}{l}$i=1,2,\cdotsN$,\hspace*{1em}$N$は文書の数.\\$j=1,2,\cdotsM_{i}$,\hspace*{1em}$M_{i}$は文書$i$中の文の数.\\$k=1,2,\cdotsL_{ij}$,\hspace*{1em}$L_{ij}$は文書$i$中の文$j$の単語数.\\\end{tabular}\end{center}ここで,$F_{ijk}$は文書中の単語$w_{ijk}$の頻度,$dist(w_{ijk},a_{ijk})$は単語$w_{ijk}$を刺激語として,その連想語$a_{ijk}$が文書中にある場合の刺激語−連想語間の距離,$dist(s_{ijk},w_{ijk})$は単語$w_{ijk}$を連想する刺激語$s_{ijk}$が文書中にある場合の刺激語−連想語間の距離である.\newpage\item{各文での単語$w_{ijk}$の重要度$P_{ijk}$の合計をその単語を含む文の単語数$L_{ij}$で割ることで,文の重要度$T_{ij}$を計算する.}\end{enumerate}\begin{equation}T_{ij}=\frac{\sum_{i}P_{ijk}}{L_{ij}}\end{equation}\begin{center}\begin{tabular}{l}$i=1,2,\cdotsN$,\hspace*{1em}$N$は文書の数.\\$j=1,2,\cdotsM_{i}$,\hspace*{1em}$M_{i}$は文書$i$中の文の数.\\$k=1,2,\cdotsL_{ij}$,\hspace*{1em}$L_{ij}$は文書$i$中の文$j$の単語数.\\\end{tabular}\end{center}たとえば「ガラパゴスには,巨大な\underline{ゾウガメ}がいる.この\underline{カメ}は,島の中を悠然と歩いている.」のように「ゾウガメ」の上位概念である「カメ」で言い換えている場合,「カメ」「ゾウガメ」に二つの単語間の距離に基づいた値を使用して単語の重要度を計算する.これによって,表層的に文書中の単語の出現頻度をもとにした重要度の計算では別の単語として処理されるが,本手法では連想関係も用いているので関連する単語の重要度を上げることができる.同様に「ゾウガメ」の環境概念である「ガラパゴス」や「ゾウガメ」「カメ」の動作概念である「歩く」などの連想関係も使用して重要度を計算する.連想概念辞書は連想実験を用いて抽出した人間の知識をもとに構築しているので,規模は小さいが人間の直感に近い単語間の連想関係が抽出できていると考えている.
\section{本手法の評価}
連想概念辞書は小学校の基本語彙をもとに構築している.そこで重要文抽出の対象として小学校の国語の教科書から自然科学に関する説明文として扱われている8文書を選択した.使用した8文書はタイトルを含み本文は平均17文からなり,最短9文,最長22文の文書である.また,8文書中の約7割の名詞は連想概念辞書に刺激語として含まれている語である.残りの約3割は名詞-代名詞,名詞-接尾,名詞-非自立,名詞-特殊,名詞-固有名詞(茶筅の品詞名による)などである.本章では,単語の連想関係と距離情報を使い重要度を計算する本手法での抽出結果と既存の重要語抽出法とを,被験者による要約の実験結果と比較することによって評価した.\subsection{人間の被験者による重要文抽出実験}\label{human_subject_extraction}重要文抽出の対象とする8文書について,40人の被験者を用いて重要文抽出実験を行なった.被験者には各文書と回答欄を一目で見渡せるようにした回答用紙を配布し,「タイトル」以外の本文のうち,最も重要な文だとする順に5つの文を選択させ,文番号を記述させた.被験者によって抽出される重要文は異なると予想されるが,文書ごとに各被験者が最も重要だとした文に5点,順に2番目には4点とし,5番目に重要だとした文に1点を与え,各文ごとの合計点数が高い順に重要文の順位を決定する.また,ケンドールの一致係数を用いて,各文書において被験間の順位付けの一致度を計算した.ケンドールの一致係数はある対象に対して順位づけがされているときに順位の一致度を表す指標である.値が高いほど順位が一致していることを示す.\begin{table}[htb]\begin{center}\caption{各文書における被験者間の順位づけに対するケンドールの一致係数}\label{kendole}\vspace*{1ex}\begin{tabular}{|r||r|r|r|r|r|r|r|r|}\hline文書番号&D1&D2&D3&D4&D5&D6&D7&D8\\\hline文の数&15&18&22&21&9&9&19&18\\\hline一致係数&0.44&0.45&0.35&0.38&0.57&0.54&0.37&0.48\\\hline有意水準$1$\,$\%$&***&***&***&***&***&***&***&***\\\hline\end{tabular}\end{center}\end{table}表\ref{kendole}は40人の被験者による順位づけに関するのケンドールの一致係数と本文の文の文書ごとに総数を示したものである.被験者が一人も選ばなかった文は省き,1〜5番以外の順位に関しては加重平均し同順位として,一致係数を計算した.D3,D4,D7の3文書は他の5文書より被験者間のケンドールの一致係数が比較的低い.これはD1,D2,D5,D6,D8の5文書の重要文の順位付けより,D3,D4,D7の3文書の順位付けの方が,被験者によって比較的ばらついた傾向にあることを示す.しかし,文書ごとの一致係数に関して$\chi^2$検定を行なうと$1$\,$\%$有意水準ですべての文書で有意な結果が得られ,被験者間の順位付けの一致度は比較的高いことがわかった.\subsection{人間による重要文抽出結果を用いた既存の抽出法と本手法との比較}連想概念辞書の距離情報を用いる本手法と,{\ittfidf},${\ittfidf}+\alpha_{i}$の2つの手法を用いて各文書で上位5番目までに抽出された文について被験者による結果との一致度を(\ref{c})式を用いることによって比較した.\begin{equation}\label{c}C=\sum^{5}_{i=1}[R_{i}(hs,m)-\Deltar_{i}(hs,m)]\end{equation}$R_{i}(hs,m)$は,各々の手法で上位5文に選択された文と被験者が選択した上位5文が一致する程度を表す関数で点数で表現される.被験者による実験で1番目に重要された文を10点,2番目以下順に1点減らしていき,5番目に重要された文を6点とする.$\Deltar_{i}(hs,m)$は被験者が選んだ文の順位と,各手法で選ばれた文の順位との差である.$C$は被験者による実験結果と各々の手法との一致度を点数で表したもので被験者と全く同じ結果の場合40点に,被験者が選択した上位5文と同一の文を抽出しなかった場合は0点となる.たとえば,被験者による文番号の抽出結果が(15,10,2,6,8)に,ある手法による文番号の抽出結果が(15,8,10,14,5)となった時は,(\ref{c})式の計算から表\ref{c-example}のような結果が得られる.\begin{table}[htb]\begin{center}\caption{重要文の抽出結果と被験者による抽出結果に対する一致点数の計算例}\label{c-example}\vspace*{1ex}\begin{tabular}{|r||r|r|r|r|r||r|}\hline順位&1&2&3&4&5&一致点数($C$)\\\hline被験者による結果&\underline{15}&\underline{10}&2&6&\underline{8}&-\\\hline抽出手法による結果&\underline{15}&\underline{8}&\underline{10}&14&5&21\\\hline\end{tabular}\begin{tabular}{l}$C=10+(9-1)+(6-3)=21$となる.\\一致する文数は3となる.\\\end{tabular}\end{center}\end{table}\begin{table}[htb]\begin{center}\caption{文書ごとの被験者による抽出結果に対する一致点数と文の数}\label{result}\vspace*{1ex}\label{c-all}\begin{tabular}{|r|r||r|r|r|r|r|r|r|r||r|}\hline&文書番号&D1&D2&D3&D4&D5&D6&D7&D8&平均\\\hline{\small本手法による結果}&C&{\bf30}&22&{\bf15}&{\bf18}&{\bf32}&27&{\bf21}&{\bf24}&{\bf23.6}\\\cline{2-11}&一致する文数&{\bf4}&3&{\bf2}&{\bf3}&{\bf5}&{\bf4}&{\bf3}&{\bf3}&{\bf3.6}\\\hline{\small${\ittfidf}+\alpha_{i}$による結果}&C&29&{\bf30}&{\bf15}&13&28&{\bf29}&13&17&21.8\\\cline{2-11}&一致する文数&{\bf4}&{\bf4}&{\bf2}&2&4&{\bf4}&2&2&3.0\\\hline{\small{\ittfidf}による結果}&C&29&24&7&13&28&{\bf29}&10&17&20.5\\\cline{2-11}&一致する文数&{\bf4}&3&1&2&4&{\bf4}&2&2&2.8\\\hline\end{tabular}\end{center}\end{table}表\ref{c-all}は各手法ごとに(\ref{c})式で計算した一致点数と,被験者が抽出した上位5文に一致する文の数である.8文書で一致点数($C$)と抽出率を平均すると,タイトルを考慮した${\ittfidf}+\alpha_{i}$法やタイトルを考慮しない{\ittfidf}法よりもよい結果を得た.個々に見るとD2を除いた文書については本手法は他の手法と同等か,もしくはより良い結果が得られた.D2では「自然」「生物」といった抽象度の高い語や固有名詞の出現頻度が高かった.連想概念辞書では固有名詞を刺激語として扱っていないため,固有名詞が本文やタイトルに含まれていても,高い重要度を得られない.D6には「地球」といった自然物の環境概念と被験者による重要文抽出実験においてケンドールの一致係数が比較的低かったD3,D4,D7(第\ref{human_subject_extraction}節)はタイトルを考慮した${\ittfidf}+\alpha_{i}$法やタイトルを考慮しない{\ittfidf}法での被験者の抽出結果に対する一致点数や一致する文の数が他の文書と比べて低かったが,本手法では同等か,もしくはより良い結果が得られている.単語の出現頻度だけで重要度を計算するより,単語の連想関係を考慮に入れて計算する本手法の方が一致点数でも,被験者が抽出した上位5文に一致する文の数でも良い結果を得た.図\ref{document}は,重要文抽出の対象とした文書の例である.文番号1の「動物の赤ちゃん」は文書のタイトルである.この文書に出現する単語は比較的平易で連想しやすい語が多く,また刺激語とその連想語が文書中に含まれる可能性が高い.そこで単語の連想関係と距離情報を用いる本手法の特徴を反映していると考えられる.図\ref{document}の文書での被験者の抽出結果に対する各手法の一致点数と一致する文の数は,表\ref{result}のD7の文書にあたる.図\ref{human}は図\ref{document}の文書において,40人の被験者による重要文抽出実験から得られた上位5文である.また,図\ref{new-method}は本手法での重要文抽出結果,図\ref{tfidf+a}はタイトルを考慮に入れた{\ittfidf}法での重要文抽出結果である.図\ref{human}と図\ref{new-method}から式\ref{c}によって被験者の抽出結果に対する本手法の一致点数と一致する文の数を計算する(表\ref{result}中のD7の「本手法による結果」).同様に,図\ref{human}と図\ref{tfidf+a}からタイトルを考慮に入れた{\ittfidf}法の一致点数と一致する文の数を計算する(表\ref{result}中のD7の「${\ittfidf}+\alpha_{i}$による結果」).タイトルを考慮に入れた{\ittfidf}法では,「お母さん」「赤ちゃん」など文書中に数多く出現する語を含み比較的長い文を重要文とする傾向にある.本手法では,「赤ちゃん」から連想される動作概念である「生まれる」という語の重要度が高くなっていた.\begin{figure}[htb]\begin{small}\begin{tabular}{|r|p{350pt}|}\hline文番号&本文\\\hline1&動物の赤ちゃん。\\2&動物の赤ちゃんは生まれたばかりのときは、どんな様子をしているのでしょう。\\3&そして、どのようにして大きくなっていくのでしょう。\\4&ライオンの赤ちゃんは、生まれたときには、子猫ぐらいの大きさです。\\5&目や、耳は、閉じたままです。\\6&ライオンは動物の王様、といわれます。\\7&けれども、赤ちゃんは、弱々しくて、お母さんにあまり似ていません。\\8&ライオンの赤ちゃんは自分で歩くことができません。\\9&よそへ行くときは、お母さんに、口にくわえて運んでもらうのです。\\10&ライオンの赤ちゃんは、生まれて二ヶ月くらいは、お乳だけ飲んでいますが、やがてお母さんのとった獲物を食べ始めます。\\11&一年くらい経つと、お母さんがするのを見て、獲物のとり方を覚えます。\\12&そして、自分で捕まえて食べるようになります。\\13&シマウマの赤ちゃんは、生まれたときに、もうヤギくらいの大きさがあります。\\14&目は開いていて、耳のピンと立っています。\\15&縞の模様もついていて、お母さんにそっくりです。\\16&シマウマの赤ちゃんは、生まれて、三十分も経たないうちに、自分で立ち上がります。\\17&そして、次の日には走るようになります。\\18&だから、強い動物に襲われても、お母さんと一緒に逃げることができるのです。\\19&シマウマの赤ちゃんが、お母さんのお乳だけ飲んでいるのはたったの七日ぐらいの間です。\\20&その後は、お乳も飲みますが、自分で草も食べるようになります。\\\hline\end{tabular}\end{small}\caption{重要文抽出の対象とした文書の例}\label{document}\end{figure}※文番号1の「動物の赤ちゃん」は本文書のタイトル※参考:38光村124国語小学校国語科用,光村図書出版株式会社,平成8年.\begin{figure}[htb]\begin{small}\begin{tabular}{|r|p{350pt}|}\hline文番号&重要な文の順に表示\\\hline2&動物の赤ちゃんは生まれたばかりのときは、どんな様子をしているのでしょう。\\4&ライオンの赤ちゃんは、生まれたときには、子猫ぐらいの大きさです。\\3&そして、どのようにして大きくなっていくのでしょう。\\13&シマウマの赤ちゃんは、生まれたときに、もうヤギくらいの大きさがあります。\\16&シマウマの赤ちゃんは、生まれて、三十分も経たないうちに、自分で立ち上がります。\\\hline\end{tabular}\end{small}\caption{人間による重要文抽出結果}\label{human}\end{figure}\begin{figure}[htb]\begin{small}\begin{tabular}{|r|p{350pt}|}\hline文番号&重要な文の順に表示\\\hline6&ライオンは動物の王様、といわれます。\\8&ライオンの赤ちゃんは自分で歩くことができません。\\2&動物の赤ちゃんは生まれたばかりのときは、どんな様子をしているのでしょう。\\13&シマウマの赤ちゃんは、生まれたときに、もうヤギくらいの大きさがあります。\\4&ライオンの赤ちゃんは、生まれたときには、子猫ぐらいの大きさです。\\\hline\end{tabular}\end{small}\caption{本手法での重要文抽出結果}\label{new-method}\end{figure}\begin{figure}[htb]\begin{small}\begin{tabular}{|r|p{350pt}|}\hline文番号&重要な文の順に表示\\\hline10&ライオンの赤ちゃんは、生まれて二ヶ月くらいは、お乳だけ飲んでいますが、やがてお母さんのとった獲物を食べ始めます。\\19&シマウマの赤ちゃんが、お母さんのお乳だけ飲んでいるのはたったの七日ぐらいの間です。\\2&動物の赤ちゃんは生まれたばかりのときは、どんな様子をしているのでしょう。\\16&シマウマの赤ちゃんは、生まれて、三十分も経たないうちに、自分で立ち上がります。\\7&けれども、赤ちゃんは、弱々しくて、お母さんにあまり似ていません。\\\hline\end{tabular}\end{small}\caption{タイトルを考慮に入れた{\ittfidf}法での重要文抽出結果}\label{tfidf+a}\end{figure}
\section{今後の課題}
文書中で得られた二つの単語の連想関係は「上位概念」「下位概念」「部分・材料概念」「環境概念」が多く,「類義語」「属性概念」「動作概念」「関連語」は少なかった.「属性概念」「動作概念」は文,パラグラフをまたがって様々な刺激語(名詞)と関連づけてよいとは限らない.文や文書の構造も考慮した上で重要度の計算をする必要があると考えられる.たとえば「ガラパゴスは火山で出来た島である.大きなゾウガメがその島には住んでいる.」という文では,「大きい」という属性概念が「ゾウガメ」だけでなく「火山」でも連想されている.また,連想関係使った単語の重要度の計算方法では,8つ連想関係で同じ計算式を使うのではなく,各々でその特徴にあった計算式を考える必要がある.連想概念辞書は刺激語−連想語の一対の対応関係ではなく連想語(名詞のみ)も刺激語として実験している場合もあるので,刺激語・連想語をノードとした大きな意味ネットワークの構造になっている\cite{Okamoto2001}.本手法のように刺激語−連想語の関係だけでなく,ネットワークの経路を辿って連想関係と概念間の距離を導き出す方法も考慮に入れる必要性があると考えている.一般に単語や重要文だけを並べるのでは理解しにくい.たとえば,重要文に照応詞が含まれていた場合,それが何を指しているのかわからない場合がある.その時は照応詞が指している内容に置き換える作業が必要になってくる.また,文単位の要約ではなく,単語や句レベルで要約する場合は,文生成の技術に関するさまざまな課題が残っている.\vspace*{1.8cm}
\section{おわりに}
本研究では,連想概念辞書の連想関係や距離情報を用い,文書中の単語の重要度を計算することによって,重要文の抽出を行なった.小学校の教科書のテキストに対して既存の重要語抽出法と本手法での抽出結果とを,人間が行なった抽出結果と比較することによって評価した.単語の出現頻度のみよりも連想関係を計算に含めることによって改良されることがわかった.\acknowledgment本研究を進めるにあたって,連想実験の被験者の皆様に感謝いたします.適切な支援と実験を手伝ってくださった慶應義塾大学石崎研究室の皆様に,また実験データの修正を手伝ってくださった研究室の概念辞書班のメンバーに感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{岡本潤}{1997年慶應義塾大学環境情報学部卒.1999年慶應義塾大学大学院政策メディア研究科修士課程修了.同研究科博士課程在学中.}\bioauthor{石崎俊}{1970年東京大学工学部計数工学科卒,同助手を経て1972年通産省工業技術院電子技術総合研究所勤務,1985年推論システム研究室室長,自然言語研究室長を経て1992年から慶應義塾大学環境情報学部教授,1994年から政策メディア研究科教授兼任.自然言語処理,音声情報処理,認知科学などに興味を持つ.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V26N02-06 | \section{はじめに}
登場人物(キャラクタ)は小説,コミック,アニメ,ドラマ,映画などの物語世界における重要な構成要素の一つであり,ライトノベルのように「キャラクタ中心の物語」(メイナード2012)\nocite{maynard:2012}すら存在する.近年は,ユーザの命令に従ってタスクを実行したり,会話をしたりする対話エージェントにおいても,エージェントのキャラクタが重視されるようになり,マイクロソフトの「りんな」\footnote{https://www.rinna.jp/}をはじめとして,特定のキャラクタを冠した対話エージェントが数多く作られている\footnote{https://www.nttdocomo.co.jp/service/shabette\_concier/shabette\_chara/}$^{,}$\footnote{http://line.froma.com/}$^{,}$\footnote{http://mezamane.com/}$^{,}$\footnote{https://narikiri-qa.jp/oreimo-ayase/login.html}.物語でも対話エージェントでも,それぞれのキャラクタの発話には,それぞれのキャラクタらしさが表れる.特定の人物像(キャラクタ)と結びついた話し方の類型は役割語\cite{kinsui:2011:nihongo}と呼ばれ,「老人語」「幼児語」「お嬢様言葉」など,どのようなキャラクタがどのような表現を使うのか,文法的な特徴はあるか\cite{kinsui:2011}などについて,様々な研究が行われてきた.我々が目指しているのは,キャラクタらしさを表す言語的特徴をうまく捉えて,その特徴を備えた発話テキストを自動生成する仕組みを実現すること,そして,その仕組みを対話エージェントの発話の自動生成や,小説の自動生成\cite{sato:2015}に適用することである.我々はこれまで,文末表現をはじめとする機能語の語彙選択に着目し,例えば,「これはひどい\underline{な}」という発話を「これはひどい\underline{わね}」のように変換する手法\cite{miyazaki:paclic29,miyazaki:jsai2016}を提案してきた.しかしながら,機能語の語彙選択による表現力には限界がある.具体的な課題としては,性別や年代といった大まかなキャラクタらしさを表現することはできても,それ以上に細かなキャラクタらしさを表現することが難しい点が挙げられる.例えば,「これはひどいな」の文末表現「な」を「や」に置き換えて「これはひどいや」とすると,「どちらかというと男性らしい」「それほど高齢ではなさそう」という程度のキャラクタらしさは表現できても,これに加えて「もう少し粗野な感じにしたい」といった細かな調整は難しい.そこで,キャラクタらしさの表現力を高める方策として新たに着目したのが,「こりゃひでえや」(元の形:「これはひどいや」)のような,発話テキストに文字として現れる{\em音変化}である.音変化を任意の発話テキストに対して人為的に施す仕組みを作れば,これを利用してキャラクタらしさの表現力を高めることができると考えられる.この仕組み作りに向け,本研究では,テキストに文字として現れる音変化を{\em音変化表現}と名付け,日本語のキャラクタの発話に現れる音変化表現にどのような種類が存在するのかを調査する.具体的には,音変化表現と呼ぶべき事例を収集し,どのような環境下でどのような音変化が起きるかを示すパターンとして整理する.音変化表現のパターンを分類する目的は2つある.1つ目は,音変化表現の生成のためである.具体的には,どのような環境下でどのような音変化が起きるかを示すパターンを作成すれば,「ひどい」から「ひでえ」や「ひどーい」を生成するなど,音変化のない表現から音変化のある表現を人為的に生成することができると考えている.人為的に生成された音変化表現は,形態素解析用の辞書に登録して利用するなどの用途も考えられる.2つ目は,発話テキストに表れるキャラクタらしさの分析,および,発話テキストへのキャラクタらしさの付与のためである.一口に音変化表現と言っても,「ひでえ」と「ひどーい」とでは,その言葉を発する人物として想像されるキャラクタが大きく違ってくる.音変化表現をパターンとして分類することは,この違いを捉えるうえで非常に意味がある.小説やコミックの発話テキストの分析においては,発話に現れる音変化表現のパターンを調べることで個々のキャラクタの特徴を捉えることができ,対話エージェントの発話や小説のセリフの自動生成においては,特定のパターンの音変化表現を使用することで,生成する発話やセリフにキャラクタらしさを付与できるようになると考えている.音変化は従来より音声学や音韻論の観点から分析されており,『現代言語学入門2日本語の音声』\cite{kubozono:1999}で取り上げられているように,「早う」のようなウ音便が子音+母音の連続から子音が消えて母音が残る現象(e.g.,haya+ku→hayau→hayoo)であること(p.~40),幼児が「何ですか」を「何でちゅか」と言うのは発音器官が未発達なためにサ行の子音を破擦音の[t{\kern0em}\UTF{0283}{\kern-0.5em}]で代用する現象であること(p.~44),「すごい」と「すげえ」のような丁寧な発音とぞんざいな発音の間に見られる音変化は母音融合とそれに伴う代償延長で構成される現象であること(pp.~182--183),「書いておこう」が「書いとこう」に変化するのは母音で始まる音節を避けようとする現象であること(p.~218),「めえ(目)」のように近畿方言の1モーラ語が2モーラの長さに発音されるのは1モーラの長さの語を避けようとする制約による現象であること(p.~224)など,様々な現象について既に知られている.これに対し,本研究で行いたいのはテキスト処理の観点からの分析であり,テキストに文字として現れる音変化をテキスト処理で利用しやすい知識として整理するのが本研究の目的である.本研究では,音変化表現のパターンを提案するとともに,小説やコミックのキャラクタの発話を対象とした検証実験を通して,本研究で提案するパターンの網羅性を確認する.さらに,発話文の話者(キャラクタ)を推定する実験を通して,音変化表現のパターンが,発話のキャラクタらしさを特徴付けるための有効な手段となることを示す.
\section{関連研究}
話者に応じた発話生成の研究としては,例えば,話者の性格\cite{mairesse:2007}や印象\cite{shen:2012},年齢・性別などの人物属性\cite{miyazaki:paclic29},特定の話者および聴者との関係性\cite{Li:2016}に応じた発話の生成が行われてきた.これらの研究では,話者らしさを表現するための特徴として,様々な語彙的・統語的・意味的・語用論的な特徴,および,抽象化された意味的な特徴(単語埋め込み表現)が利用されている.本研究で扱う音変化表現も,話者らしさを表現するための特徴の一つとなると考えられる.日本語の音変化について調査・整理した文献に,「日本語話し言葉コーパスの構築法」の第2章\cite{koiso:2006}や,「研究社日本語口語表現辞典」の付録\cite{yamane:2013}がある.前者では,話し言葉コーパスの音声を書き起こすうえで問題となる,様々な音変化の具体例が列挙・整理されている.後者では,日本語の学習者が利用することを想定して,日常の会話によく現れる音変化が列挙されている.いずれの文献も,キャラクタの発話で用いられる可能性のある音変化表現を把握するための重要な資料である.しかしながら,キャラクタの発話を対象として調査・整理されたものではないので,そこで挙げられている音変化が,キャラクタの発話に現れる音変化をどの程度カバーしているのかは明らかでない.日本語の音変化を工学的に処理する研究としては,既知の語に対して長音記号や小書き文字が挿入されるなどしてできた非標準的な表記に対する形態素解析\cite{sasano:2014,saito:2017}があり,例えば,「冷たーーーい」や「冷たぁぁぁい」\cite{sasano:2014},「うっつらうっつら」や「だいちゅき」\cite{saito:2017}といった表記を形態素として正しく解析するための方法が提案されている.斉藤ら\cite{saito:2017}は,非標準的な表記(崩れ表記)と標準的な表記(正規表記)をペアにしたアノテーションデータを用いて,表記の崩れ方に関する多様なパターンを自動抽出する方法を提案している.これに対し,本研究のように人手でパターンを作成する枠組みで多様性を追求するのは難しい.しかしながら,キャラクタの発話において頻繁に観察される音変化表現にはそれほど多くのバリエーションはなく,人手でも主要なパターンは列挙できると考えられる.本研究では,日本語のキャラクタの発話で観察される音変化表現のパターンを,ある程度の網羅性を持った知識として予め整理しておくことで,アノテーションデータを用意しなくても,キャラクタの発話を対象とした音変化表現の分析や生成が可能となる状態を目指す.
\section{音変化表現の種類に関する分析}
\label{analysis}日本語のキャラクタの発話テキストに現れる音変化表現にどのような種類が存在するのかを把握するために,小説やコミックに登場するキャラクタなどの発話,および,日本語の口語表現に関する文献\cite{koiso:2006,yamane:2013}を参照し,音変化が起きている表現(音変化表現)と考えられるものを手作業で収集した.本研究では,音変化表現をおおよそ次のようなものと捉える.\vspace{0.5\Cvs}\begin{description}\item[音変化表現]\mbox{}\\元の形から一部の音が変化して派生したと思われる表現.\end{description}\vspace{0.5\Cvs}\noindentここで,{\em元の形}とは,小型の国語辞書の見出し語として採用されているような,現代の日本語話者の間で広く定着した表現を想定する.音の違いを捉える観点には,音素・モーラ・アクセント・イントネーションなどがあり,どの範囲での変化を音変化とみなすかを厳密に定義することは難しい.そのため,本研究では,原則としてかな表記に基づいて音の変化を捉える.すなわち,「元の形とかな表記が異なる場合,音が変化した」と捉える.ただし,以下の例外がある.\vspace{0.5\Cvs}\begin{description}\item[例外a]ひらがなとカタカナは同一視する.\item[例外b]母音を表す小書き文字(ぁ・ぃ・ぅ・ぇ・ぉ)は,通常の文字(あ・い・う・え・お)と同一視する.\item[例外c]長音記号は,直前のかな文字(漢字の場合はその読み)の母音部分を表すかな(あ・い・う・え・お,のいずれか)と同一視する.\item[例外d]エ段の長音を表す「い」と「え」は同一視する.\item[例外e]オ段の長音を表す「う」と「お」は同一視する.\end{description}\vspace{0.5\Cvs}以下に,上記の方針に沿った音変化表現の判定の具体例を示す.\begin{itemize}\item「ひでえ」は元の形「ひどい」の音変化表現とみなす.\item「ひどーい」は元の形「ひどい」の音変化表現とみなす.\item「ヒドイ」は,国語辞典の見出し語で一般的に用いられる「ひどい」とかな表記が異なるが,例外aにより,音変化表現とはみなさない.\item「ひどぃ」は,国語辞典の見出し語で一般的に用いられる「ひどい」とかな表記が異なるが,例外bにより,音変化表現とはみなさない.\item「おーきい」は,国語辞典の見出し語で一般的に用いられる「おおきい」とかな表記が異なるが,例外cにより,音変化表現とはみなさない.「おーきー」もこれに同じ.\item「せんせえ」は,国語辞典の見出し語で一般的に用いられる「せんせい」とかな表記が異なるが,例外dにより,音変化表現とはみなさない.「せんせー」もこれに同じ.\item「がっこお」は,国語辞典の見出し語で一般的に用いられる「がっこう」とかな表記が異なるが,例外eにより,音変化表現とはみなさない.「がっこー」もこれに同じ.\item「ぼうっと」の元の形として「ぼうと」あるいは「ぼっと」が考えられるが,これらの語は現代の日本語話者にとってやや稀だと感じられる表現なので,「ぼうっと」は音変化表現とはみなさない.「ぼーっと」,「ぼおっと」もこれに同じ.\item「だって」と「でも」は互いに派生関係にないと思われるので,一方を他方の音変化表現であるとはみなさない.\item「なんか」と「など」も互いに派生関係にないと思われるので,一方を他方の音変化表現であるとはみなさない.\end{itemize}\vspace{0.5\Cvs}\noindentなお本研究では,「だって」と「でも」や「なんか」と「など」のような,派生関係にないと思われる語同士の交替は,似たような意味を持つ語の集合から一つを選択する問題(以降,語彙選択)であると捉える.次に,収集した音変化表現のそれぞれを{\em現象}と{\em生起環境}の観点から分析し,共通性のある表現同士を一つのパターンとしてまとめ上げた.本研究では,現象という用語によって「長音挿入」や「撥音化」のように「音がどのように変化したか」を指す.生起環境という用語は音変化が起きている環境のことを指す.それがどのような環境であるかは,音変化が起きている語およびその前後に位置する語の品詞・活用形・活用型・語形,文における位置などに基づいて分析した.また,パターンとは現象と生起環境の組み合わせのことを指す.なお本稿では,語の境界や品詞・活用形・活用型にかかわる用語は,基本的には「益岡・田窪文法」\cite{masuoka-takubo:1992}に従う.ただし,文字単位での扱いやすさを考え,子音動詞の語幹・語尾の境界を変更した(例えば,本来なら「書く」の基本形語幹は「kak」,語尾は「u」であるが,語幹を「書」,語尾を「く」とする).加えて,動詞の未然形を設けた.\subsection{パターンの作成}\label{patsakusei}音変化表現のパターンの作成においては,まず,収集した音変化表現を現象の観点から分析し,下記の11種類に分類した.\vspace{0.5\Cvs}\begin{description}\item[(1)長音挿入]{任意の短母音が長母音に交替すること.表記上は,長音記号や小書き文字の挿入として現れる(e.g.,「嫌だ」→「嫌だ\underline{ー}」).}\item[(2)促音挿入]{任意の位置に促音「っ」が挿入されること(e.g.,「すごい」→「す\underline{っ}ごい」).}\item[(3)撥音挿入]{任意の位置に撥音「ん」が挿入されること(e.g.,「すごい」→「す\underline{ん}ごい」).}\item[(4)脱落]{(連続する)任意の音が消失すること(e.g.,「食べている」→「食べて\underline{$\phi$}る」).}\item[(5)母音交替]{(連続する)任意の母音が(連続する)別の母音に交替すること(e.g.,「おそい」→「お\underline{せえ}」).}\item[(6)子音交替]{(連続する)任意の子音が(連続する)別の子音に交替すること(e.g.,「ばっちり」→「ばっち\underline{し}」).}\item[(7)促音化]{任意の音が促音「っ」に交替すること(e.g.,「走るから」→「走\underline{っ}から」).}\item[(8)撥音化]{任意の音が撥音「ん」に交替すること(e.g.,「嫌になる」→「嫌\underline{ん}なる」).}\item[(9)ウ音便化]{動詞やイ形容詞の活用語尾の先頭が「う」に交替すること.また,それに伴う語幹末尾の変化(e.g.,「言って」→「言\underline{う}て」).}\item[(10)縮約]{任意の音の系列が,部分的な音素の脱落や交替を伴って,より短い系列へと形を変えること(e.g.,「食べなければ」→「食べな\underline{きゃ}」).}\item[(11)その他]{上記(1)〜(10)以外の,任意の音同士が交替すること(1対複数,複数対複数の交替も可).}\end{description}\vspace{0.5\Cvs}なお本稿では,かな表記における1文字を指して音と呼ぶ(音の変化の捉え方は\ref{analysis}節冒頭を参照のこと).母音,子音と言う場合には,かな表記における1文字ではなく音素を指す.また,音が脱落した箇所は記号$\phi$によって明示する.次に,11種類の現象を生起環境の観点から細分化することにより,全部で137種類のパターンを作成した.全137種類のパターンを,付録の表{\AppTableNum}に示す.各パターンは,現象の観点から見た11種類の分類(大分類)の配下に作成されている.例えば,長音挿入(L1)の配下には,「嫌だー」のように文末に長音が挿入されるパターン(P1)や,「ばんざーい」「あたたかーい」のように,文末にあるイ形容詞型の活用語の基本形・子音動詞ラ行イ形の活用語の命令形・感動詞において,末尾の「い」「し」「ん」の前に長音が挿入されるパターン(P2),文末に位置する「です」の語中に長音が挿入されて「でーす」となるパターン(P3)などを設けた.これらの例から分かるように,パターンの中には,P1やP2のように,多くの語が該当するパターン(生産性のあるパターン)もあれば,P3のように,特定の語しか該当しないパターンもある.この違いを示すために,表{\AppTableNum}において,生産性のあるパターンには``*''を付与した.また,生起環境に何らかの共通点があるパターン同士をまとめ上げるための中分類も用意した.例えば,P2とP3とは,ともに文末に位置する語の語中で起こる点において共通しているため,文末の語中における長音挿入(M2)という中分類でまとめ上げてある.中分類を用意したのは,音変化を生成する際の使いやすさを念頭に置いて細かく分類されたパターンを,説明のしやすい粒度でまとめて扱うためである.\subsection{パターンの概要}\label{patgaiyou}本節では,\ref{patsakusei}節で作成した音変化表現のパターンの概要について述べる.具体的には,音変化の現象(大分類)ごとに,どのようなパターンを設けたかについて,事例を交えて説明する.説明の中で,キャラクタの発話における各パターンの出現頻度に言及することがあるが,具体的な頻度を確認したい場合は,後に\ref{result-and-analysis}節で提示する図\ref{pattern-freq}を参照されたい.\subsubsection{長音挿入(L1)}長音挿入は,文末への長音挿入(M1),文末の語中における長音挿入(M2),および,その他の長音挿入(M3)という中分類に区分した.長音挿入の中で特に多く観察されるのは,「嫌だー」(元の形:「嫌だ」)のような文末への長音挿入(M1;P1と同義)である.「あたたかーい」(元の形:「あたたかい」)や「でーす」(元の形:「です」)のような,文末にある語の語中(語末以外の位置)における長音挿入(M2;P2--P4)が利用される頻度はそれほど高くないが,発話において「あたたかいなー」や「ですよー」のようなM1を使うか「あたたかーい」や「でーす」のようなM2を使うかで,話者がどのような人物であるかに対する印象が違ってくると思われる.その他の長音挿入(M3)として,文末以外の環境にも現れうるパターン(P5--P8)を用意した.例えば,「ずーっと」(元の形:「ずっと」)や「ちゃーんと」(元の形:「ちゃんと」)のように,副詞の語末の「っと」「んと」の前に長音が挿入されるパターン(P5)がある.なお,ここで言う長音は,「ー」だけでなく「〜」や,ひらがな・カタカナの小書き文字などを含む.また,文末にある語とは,発話文の末尾にある語だけでなく,引用や伝聞を表す助詞「と」「って」や「。」「、」「!」などの句読記号の前にある語も含む.\subsubsection{促音挿入(L2)}促音挿入は,文末への促音挿入(M4),イ形容詞・ナ形容詞型の活用語と副詞における促音挿入(M5),および,その他の促音挿入(M6)という中分類に区分した.促音挿入の中で最も多く観察されるパターンは,「走るっ」のように,文末に「っ」が挿入されるパターン(P9)である.P9以外のパターンがキャラクタの発話において利用される頻度はそれほど高くないが,「すっごい」(元の形:「すごい」)のように,イ形容詞・ナ形容詞型の活用語や副詞の語頭から二拍目のカ・サ・タ・パ・ガ・ザ・ダ・バ・ハ行音の前に「っ」が挿入されるパターン(P10)や,「あたたかくって」(元の形:「あたたかくて」)のように,イ形容詞のテ形の「て(ちゃ)」の前に「っ」が挿入されるパターン(P12),「っという」(元の形:「という」)のように,助詞「と」の語頭に「っ」が挿入されるパターン(P13)はしばしば観察される.なお,P10およびP11(語頭から二拍目・三拍目への促音挿入)の生起環境は,日本語の促音は母音の後のカ・サ・夕・パ行音の前で起こり,外来語や方言の場合は例外的にガ・ザ・ダ・バ行音およびハ行音の前などでも起こる\cite{hamada:1955}とされていることを参考にして設定した.\subsubsection{撥音挿入(L3)}撥音挿入には,「すごい」が「すんごい」に交替するパターン(P15),「おなじだ」が「おんなじだ」に交替するパターン(P16),「まま」が「まんま」に交替するパターン(P17)の3種が観察された.ただし,いずれも生産性のあるパターンではない(特定の語しか該当しないパターンである)ため,これらがキャラクタの発話において観察される頻度は高くない.\subsubsection{脱落(L4)}脱落は,イ形容詞型の活用語における脱落(M8),テ形複合動詞における脱落(M9),語末の「う」の脱落(M10),および,その他の脱落(M11)という中分類に区分した.脱落の中で最も多く観察されるパターンは,テ形複合動詞における脱落(M9)の一種で,「して$\phi$る」(元の形:「している」)のように,テ形複合動詞「いる」の語幹の「い」が脱落するパターン(P21)である.その他には,「けれど」から「れ」が脱落し,「けど」に交替するパターン(P39)や,「だろう(でしょう)」が「だろ(でしょ)」に交替するパターン(P25)が多く観察される.\subsubsection{母音交替(L5)}母音交替は,イ形容詞型の活用語における母音交替(M12)と,「せる」「させる」における母音交替(M13)という中分類に区分した.母音交替の中で最も多く観察されるパターンは,「うるせえ」(元の形:「うるさい」)のように,イ形容詞型の活用語の基本形の語幹末尾のア段音がエ段音に交替し,活用語尾の「い」が「え」に交替するパターン(P43)であり,物語作品において特定のキャラクタの発話で集中的に用いられる傾向がある.\subsubsection{子音交替(L6)}子音交替は,サ行音と「つ」における子音交替(M14)と,その他の子音交替(M15)という中分類に区分した.サ行音と「つ」における子音交替(M14)とは,「ちまちた」(元の形:「しました」)や「あちゅい」(元の形:「あつい」)のようなもので,幼児風の表現である.このような表現は,クマやイヌなど,人間でない生物のキャラクタの発話では頻繁に観察される\cite{miyazaki:sigdial2016}が,小説やコミックに登場する人間のキャラクタの発話においては,それほど頻繁には観察されない.\subsubsection{促音化(L7)}促音化は,動詞型の活用語における促音化(M16),指示詞における促音化(M17),および,その他の促音化(M18)という中分類に区分した.促音化は,その他の現象と比べて出現頻度が低いが,「走っから」(元の形:「走るから」)のように,母音動詞型またはラ行子音動詞型の活用語の基本形活用語尾の「る」が「っ」に交替するパターン(P53)や,「走ろっか」(元の形:「走ろうか」)のように,動詞型の活用語の意志形活用語尾の「う」が「っ」に交替するパターン(P54)はしばしば観察される.\subsubsection{撥音化(L8)}撥音化は,ナ行音の撥音化(M19)とラ行音の撥音化(M20)という中分類に区分した.撥音化の中で最も多く観察されるのは,助動詞「のだ(のです)」が「んだ(んです)」に交替するパターン(P78)であり,たいていのキャラクタの発話に出現する.次に多く観察されるのは,「走らん」(元の形:「走らぬ」)のように,助動詞「ぬ」が「ん」に交替するパターンである(P81).ただし,このパターンが多く観察されるのは,関西などの方言を話すキャラクタの発話や,物語世界において支配的な立場にあるキャラクタ(部隊の指揮官など)が話すやや文語調の発話においてである.撥音化は11種類の現象の中で最も多く観察される現象であり,P78やP81の他にも,様々なパターンが多く用いられる.例えば,「走るんは」(元の形:「走るのは」)のように,形式名詞「の」が「ん」に交替するパターン(P77)や,「走んの」(元の形:「走るの」)のように,母音動詞型またはラ行子音動詞型の活用語において基本形活用語尾の「る」が「ん」に交替するパターン(P86),「なんも」(元の形:「なにも」)のように,「なに」が「なん」に交替するパターン(P74)は,キャラクタの発話において頻繁に観察される.\subsubsection{ウ音便化(L9)}ウ音便化は,「しもうて」(元の形:「しまって」)や「言うて」(元の形:「言って」)のような,動詞型の活用語におけるウ音便化(M21)と,「たこうて」(元の形:「たかくて」)や「なつかしゅうて」(元の形:「なつかしくて」)のような,イ形容詞型の活用語におけるウ音便化(M22)の中分類に区分した.これらは,関西などの方言を話すキャラクタや老人のキャラクタの発話に現れることを想定して作成したものであり,どんなキャラクタの発話にも広く出現するというものではない.\subsubsection{縮約(L10)}縮約は,活用語のテ形と助詞「は」の縮約(M23),指示詞と助詞「は」の縮約(M24),活用語の基本条件形における縮約(M25),テ形複合動詞における縮約(M26),「という」の縮約(M27),「のうち」の縮約(M28),および,その他の縮約(M29)という中分類に区分した.縮約の中で最も多く観察されるパターンは,「嫌じゃない」(元の形:「嫌ではない」)のように,ナ形容詞型の活用語のテ形の「で」と助詞「は」が合わさって「じゃ」に交替するパターン(P93)であり,多くのキャラクタの発話に現れる.その他には,「食べちゃう」(元の形:「食べてしまう」)のように,動詞型の活用語のテ形の「て(で)」と「しまう」が合わさって「ちゃう(じゃう)」に交替するパターン(P104)や,「食べちゃ」(元の形:「食べては」)のように,動詞型の活用語のテ形の「て(で)」と助詞「は」が合わさって「ちゃ(じゃ)」に交替するパターン(P94),「食べりゃ」(元の形:「食べれば」)や「書きゃ」(元の形:「書けば」)のように,動詞型の活用語の基本条件形において,活用語尾のエ段音とそれに続く「ば」がイ段音と「ゃ」に交替するパターン(P99)などがある.\subsubsection{その他(L11)}L1からL10までのいずれにも当てはまらない音変化表現のパターンが18種類(P120--P137)ある.その多くが生産性のないパターンであるため,キャラクタの発話において観察される頻度は高くなく,「気ー使う」(元の形:気を使う)のように,助詞「を」が長音に交替するパターン(P132)や,「そうじゃなければ」(元の形:「そうでなければ」)のように,判定詞「だ」のテ形である「で」が「じゃ」に交替するパターン(P134),「やはり」が「やっぱ」に交替するパターン(P136)がしばしば見られる程度である.
\section{パターンの網羅性の検証}
本研究で収集・整理した音変化表現のパターンの網羅性を検証するために,\pagebreak小説・ライトノベル・コミックの具体的な作品を対象として,表{\AppTableNum}に示すパターンの他に音変化表現と呼ぶべきものがあるか,どのような表現がどの程度存在するのかを調査した.\subsection{検証用データの作成方法}小説・ライトノベル・コミックの計9作品に含まれるキャラクタの発話1800文(200文$\times$9作品)に対し,作業者2名で音変化表現へのラベル付けを行った.なお,作業者2名のうち1名は筆頭著者で,もう1名は著者に含まれない人物である.対象とした作品および発話文の選定は,作者の異なる9作品において,2名以上のキャラクタの発話が登場する章または話の先頭から順に,発話部分に含まれる200文を抽出することによって行った.対象とした9作品のうち3作品(『響け!ユーフォニアム』,『ちはやふる』,『名探偵コナン』)には方言を使用するキャラクタが含まれるが,これら3作品を利用した理由は,方言の語彙には標準語が音変化した形だとみなせる表現が多く存在するという仮定に基づき,本研究で提案する音変化表現のパターンの網羅性検証を,より多様な表現を対象として行いたいと考えたためである.音変化表現に対するラベル付けは,以下の方針に従って実施した.\vspace{0.5\Cvs}\begin{description}\item[音変化表現か否かの判断基準]\mbox{}\\「元の形から音が変わっていると思われる表現を音変化表現とする.言い換えると,音変化表現は音が変化する前の元の形を想定できる表現とする」とした.なお,表{\AppTableNum}に記載のパターンはラベル付けの作業者(著者に含まれない人物)には提示しない.\item[ラベル付けの手順]\mbox{}\\音変化表現に該当する文字列を``[]''で囲んでマークし,マークした音変化表現の元の形として考えられる表現を,音変化表現の右隣に``$<>$''で囲んだ状態で記入する.\item[マークする文字列の範囲]\mbox{}\\どこからどこまでの文字を音変化表現としてマークすべきかについては,厳密な定義をしない.作業者が「音変化が起きている」と思った文字が含まれていれば,問題ない.\item[ラベル付けされた結果の例]\mbox{}\\俺は[知んねえんだ]$<$知らないのだ$>$よ\end{description}\vspace{0.5\Cvs}音変化表現としてマークすべき文字列の範囲について厳密な定義をしなかったのは,音変化が起きている一連の文字列の中から個々の音変化表現を切り出すための基準作りが困難だったためである.例えば,「知んねえんだ」をまとめて1つの音変化表現とみなすべきか,「知んねえ」と「んだ」の2つに分けるべきか,「知ん」「ねえ」「んだ」の3つに分けるべきか,末尾の「だ」は取り除くべきかなど,あらゆる状況を事前に想定し,基準を作るのは困難であった.明確な基準を設けない代わりに,マークした文字列の音変化前の形(元の形)を併記することとした.これにより,音変化表現としてマークされた文字列と元の形として記入された文字列とを比較し,変化した文字を機械的に抽出できるようにした.例えば,「知んねえんだ」の場合は,元の形として記入された「知らないのだ」と比較し,2番目から5番目までの文字(ん,ね,え,ん)が音変化を起こしていることが分かる.以上の理由により,本検証では,音変化を文字単位で扱うこととする.検証用データにおいては,2名の作業者のうち少なくとも1名のラベル付けの結果から元の形との差分として抽出された文字を検出対象として利用した.表\ref{data-stats}に,対象とした作品およびキャラクタの名称,キャラクタごとの発話文の数,各発話を構成する文字数の平均値,および,元の形との差分として抽出された文字の数を示す.なお,発話文の数が20に満たないキャラクタは「その他」としてまとめた.\begin{table}[p]\caption{検証用データに関する統計量}\label{data-stats}\input{06table01.tex}\par\vspace{4pt}\small発話数はデータに含まれる発話数,平均文字数は各発話を構成する文字数の平均値,音変化文字数は元の形との差分として抽出された文字の数を表す.\end{table}\subsection{網羅性の検証方法}\label{evalmethod}元の形との差分として抽出された文字のうち,本研究で提案する137種類の音変化パターンに該当するものとしないものがどの程度存在するのかを確認する.137種類のパターンに該当するか否かについて,全ての文字を目視で確認するのは大変な作業であるため,137種類の音変化パターンに該当する文字を自動検出する手段(以降,音変化検出器)を用意し,自動的に検出できなかった文字に対してのみ目視による確認を行うこととした.音変化検出器としては,(1)音変化表現辞書との文字列マッチングによる方法と,(2)形態素解析結果に基づく規則とのマッチングによる方法の2種類を用意した.これは,2種類の方法を併用することにより,検出性能を高めるためである.(1)を利用するのは,正しく形態素解析されない(誤った形態素分割や品詞付与が行われた)音変化表現を漏らさず検出するためであり,(2)を利用するのは,文字列マッチでは扱えない,品詞連接を考慮したマッチングや品詞に付随して出力される意味的・形態的情報を利用したマッチングを行うためである.\subsubsection{音変化表現辞書との文字列マッチングによる方法}\label{dictmatch}音変化表現辞書との文字列マッチングの処理の流れを図\ref{detect-flow}に示す.まず,検出の事前準備として,音変化表現辞書を作成する.具体的には,音変化表現作成規則(図\ref{detect-flow}のA;規則の例は表\ref{dictrule}を参照)を読み込み,各パターンの音変化表現を作成するための規則を実行するのに必要な語を日本語形態素解析システムJUMANversion7.01\cite{kurohashi:2012}の形態素辞書(図\ref{detect-flow}のB)から抽出し,抽出した語に対して規則を適用することで,各パターンに該当する音変化表現を作成する.このとき,パターンによっては,ウェブページ(2万ページ分)のコーパスを用いて作成された単語N-gramとその出現頻度\footnote{http://www.ar.media.kyoto-u.ac.jp/member/gologo/lm.html}(図\ref{detect-flow}のC)を利用して,出現頻度(つまり,キャラクタの発話において利用される可能性)が著しく低い語やフレーズを除外したうえで音変化規則を適用する.\begin{figure}[p]\begin{center}\includegraphics{26-2ia6f1.eps}\end{center}\caption{音変化表現辞書との文字列マッチングの処理の流れ}\label{detect-flow}\end{figure}\begin{table}[p]\caption{音変化表現作成規則および作成される表現の例}\label{dictrule}\input{06table02.tex}\par\vspace{4pt}\small【】で囲まれているのは,音変化の起きている文字.\end{table}表\ref{dictrule}に音変化表現作成規則および作成される音変化表現の例を示す.音変化表現作成規則は,表~{\AppTableNum}に記載の「パターンの説明」を音変化表現を作成するための規則として記載し直したものである.作成される表現の例において【】で囲まれているのは,音変化が起きている文字列である.なお,音変化検出器で利用する音変化表現辞書において音変化表現と呼んでいるものには,音変化が起きている文字列や,その文字列が属する語だけでなく,その語の左右に隣接する語も含まれていることがある.これは,マッチング対象の文字列をなるべく長くすることで,音変化表現の誤検出を防ぐためのものである.例えばP22のパターンに該当する音変化表現を作成する際は,まず,規則に従ってJUMANの形態素辞書から品詞が動詞または動詞性接尾辞である語(形態素)を抽出する.次に,抽出した語のテ形に「いく」の活用形を接続させ,さらにそこから「いく」の語幹である「い」を削除した形を作成する.このとき,「遭えていく」のように,元の形としても滅多に使われない(単語N-gramの出現頻度が閾値以下である)フレーズは除外したうえで音変化表現を作成する.なお,生産性のないパターンの場合は,JUMANの形態素辞書から語を抽出せずに音変化表現を作成する.表\ref{dictrule}の例では,P15がこれに該当する.また,元の形の出現頻度が閾値以下の語やフレーズを除外するか否か,および,閾値の設定はパターンによって異なる.\begin{table}[t]\caption{音変化表現との文字列マッチングの結果の例}\label{detect-result-sample}\input{06table03.tex}\end{table}音変化表現を検出する際は,キャラクタ発話(図\ref{detect-flow}のE)を読み込み,事前に作成しておいた音変化表現辞書(図\ref{detect-flow}のD)を参照して,キャラクタ発話の中から,音変化表現と完全に一致する部分文字列を検出する.表\ref{detect-result-sample}に,音変化表現との文字列マッチングの結果(図\ref{detect-flow}のF)の例を示す.文字列マッチングの結果は,発話ID,発話,音変化が起きているとして検出された文字の位置,どのパターンの音変化表現とマッチしたかを示すパターンIDで構成される.\mbox{表\ref{detect-result-sample}}では,分かりやすさのために音変化が起きているとして検出された文字を【】で囲んである.なお,「だけ【】ど」や「って【】こと」のように文字が脱落している場合は,脱落箇所の次の文字である「ど」や「こ」の文字位置を音変化文字位置としている.\subsubsection{形態素解析結果に基づく規則とのマッチングによる方法}\label{rulematch}形態素解析結果に基づく規則とのマッチングの処理の流れを図\ref{morph-rule-flow}に示す.まず,検出対象の発話を形態素解析にかけ,発話に含まれる形態素の表記および品詞の情報を取得する.形態素解析器としては,JUMANversion7.01\cite{kurohashi:2012}と,UniDic(unidic-mecabver.~2.1.2)\cite{den:2009}を辞書として指定したMeCab0.996\cite{kudo:2004}を利用した.次に,それぞれの形態素解析器で使用する形態素辞書の品詞体系に合わせて作成した音変化検出規則(図\ref{morph-rule-flow}のB,C)と形態素解析結果とを照らし合わせ,音変化の起きている文字列を検出する.\begin{figure}[b]\begin{center}\includegraphics{26-2ia6f2.eps}\end{center}\caption{形態素解析結果に基づく規則とのマッチングの処理の流れ}\label{morph-rule-flow}\end{figure}表\ref{jumanrule}にJUMANの品詞体系に合わせて作成した音変化検出規則の例を,表\ref{unidicrule}にUniDicの品詞体系に合わせて作成した音変化検出規則の例をそれぞれ示す.音変化検出規則はいずれも,音変化が起きている対象形態素の他に,その左右の形態素に関する条件を持ち,条件にマッチした形態素を音変化を含むものとして検出する.対象形態素,および,その左右の形態素に関する条件としては,形態素の表記と品詞(活用型・活用形を含む)を利用した.JUMANの解析結果において,「長音挿入」や「代表表記:る/る」(語幹の脱落がない場合は「代表表記:いる/いる」)など,音変化が起きていることを直接的に示す情報(意味情報の欄)が出力される場合は,これも規則に取り入れた.なお,UniDicの場合は,「連体形-撥音便」(e.g.,走\underline{ん}の)や「仮定形-融合」(e.g.,食べ\underline{りゃ})のように,音変化が起きていることを示す情報が活用形の中に組み込まれている.これらの規則を形態素解析結果と照らし合わせることで,表\ref{detect-result-sample}と同様の形式の検出結果を出力する.\begin{table}[p]\caption{音変化検出規則の例(JUMANの品詞体系用)}\label{jumanrule}\input{06table04.tex}\vspace{4pt}\small【】で囲まれているのは,音変化の起きている文字.\end{table}\begin{table}[p]\caption{音変化検出規則の例(UniDicの品詞体系用)}\label{unidicrule}\input{06table05.tex}\vspace{4pt}\small【】で囲まれているのは,音変化の起きている文字.\end{table}\subsection{検証の結果と考察}\label{result-and-analysis}\ref{dictmatch}節および\ref{rulematch}節で述べた方法で,元の形との差分として抽出された1,848文字のうち1,241文字(67\%)が検出された.一方で,残り607文字(33\%)は自動的には検出されなかったので,これらの文字が本研究で提案する137種類の音変化パターンに該当するものか否かを目視によって確認し,検出に成功した文字と合わせて,以下に示す5種類に分類した.\vspace{0.5\Cvs}\begin{description}\item[(1)音変化表現に該当しない]\item[(2)音変化表現に該当する]\mbox{}\begin{description}\item[a.検出成功]音変化検出器で検出された文字\item[b.検出器実装不足]137種類のパターンに該当はするが,音変化検出器で使用した音変化表現辞書や音変化検出規則の実装が不足していたため検出できなかった文字\item[c.パターン不足]137種類のパターンに該当しない文字\item[d.方言]方言と思われる表現に含まれる文字\end{description}\end{description}\vspace{0.5\Cvs}5種類の内訳は表\ref{mokushi-result}に示すとおりである.音変化に該当しないと判断した225文字にどのようなものがあったかは,表\ref{others-uchiwake}に示す.「っていう」の元の形として「という」が記入された場合など,語彙選択の問題として捉えたほうが良いと考えられるものは,音変化に該当しない文字とみなした.また,「だったら」の元の形として「そうだったら」が記入された事例のように,文頭の語が丸ごと消失する場合や,「ない」の元の形として「ないか」が記入された事例のように,文末の語が丸ごと消失する場合,および,「あ、あたし」のような言い淀みについても,音変化に該当しない文字とみなした.\begin{table}[b]\caption{元の形との差分として抽出された文字の内訳}\label{mokushi-result}\input{06table06.tex}\end{table}\begin{table}[t]\caption{音変化に該当しないと判断した文字の内訳}\label{others-uchiwake}\input{06table07.tex}\end{table}方言の一部だと判断した135文字にどのようなものがあったかは,表\ref{dialect-uchiwake}に示す.それぞれの表現について音変化に該当するのかそうでないのかを判断するのは難しいので,ここでは全てまとめて音変化表現に該当するとみなした.表\ref{dialect-uchiwake}を見ると,検証用データ作成時に仮定したとおり,方言を使用するキャラクタがいる作品を扱うことによって,本研究で提案する137種類のパターンでカバーされていなかった多様な表現を検証の対象とすることができたと分かる.\begin{table}[t]\caption{方言の一部だと判断した文字の内訳}\label{dialect-uchiwake}\input{06table08.tex}\end{table}パターン不足であった,つまり,本研究で提案する137種類のパターンに該当しない音変化である141文字にどのようなものがあったかを表\ref{husoku-uchiwake}に示す.表\ref{husoku-uchiwake}に記載の表現のほとんどが,現象・生起環境の面で他の音変化表現との共通性が乏しく生産性のあるパターンが作れないものであり,新たに生産性のあるパターンが作れそうな表現は,「置きっぱなし」(元の形:「置きはなし」)と「あんまり」(元の形:「あまり」)の2つだけであった.前者については,末尾に「はなし(放し)」が付く様々な語に適用できるパターンを作ることが可能だと考えられ,後者については,生産性のないパターンとして用意したP16「おんなじだ」やP17「まんま」と合わせて,ナ行・マ行音の前に「ん」が挿入されるパターンとしてまとめられそうである.その他,「うーむ」(元の形:「うむ」)は既存のパターンP2において,語末が「い」「し」「ん」だけでなく「む」である感動詞も扱うように拡張すれば「うーむ」や「ふーむ」がカバーできるようになる.「置きっぱなし」「あんまり」「うーむ」以外の表現は全て,生産性のあるパターンが作り難いものであった.つまり,本研究で提案する137種類のパターンで,生産性のある音変化表現のパターンの多くがカバーできていると言える.\begin{table}[p]\caption{パターン不足だと判断した文字の内訳}\label{husoku-uchiwake}\input{06table09.tex}\end{table}以上の目視確認の結果を受け,音変化に該当しない文字を除外して計算すると,表\ref{mokushi-result}に示すとおり,137種類の音変化パターンに該当する文字(検出成功と検出器実装不足の合計)は全体の83\%を占めることが分かる.さらに,方言と思われる表現に含まれる文字を除外して計算すると,137種類の音変化パターンに該当する文字は全体の90\%を占めることが分かる.これにより,本研究で提案する137種類が,検証の対象としたキャラクタの発話に現れる音変化表現の主要なパターンをカバーすることが確認できた.なお,音変化に該当しない文字を除外した(方言は含む)状態での音変化検出器の性能は,再現率0.76,適合率0.85,F値0.80である.再現率($Rec$),適合率($Prec$),F値($F$)は,音変化が起きていることを正しく検出できた文字の数を$TP$,音変化が起きていることを検出できなかった文字の数を$FN$,音変化が起きているとして誤って検出してしまった文字の数を$FP$としたとき,下記の式で算出する.\begin{equation}\label{rec-prec-f}Rec=\frac{TP}{TP+FN},\Prec=\frac{TP}{TP+FP},\F=\frac{2\cdotRec\cdotPrec}{Rec+Prec}\end{equation}また,各パターンの音変化表現辞書または音変化検出規則がマッチした回数を図\ref{pattern-freq}に示す.図\ref{pattern-freq}では,マッチした回数が2以上のパターンについて,マッチした回数を棒グラフで,マッチした回数の合計に対する比率の累積値を線グラフで表示している.この図から,マッチした回数が2以上のパターンは全137種類のうち56種しかなく,マッチした回数の多い上位5パターン(P43)までで全体の約50\%を,上位25パターン(P36)までで90\%を占めていることが分かる.音変化表現のバリエーションは多岐に渡るが,出現頻度はロングテールの傾向が強く,頻繁に観察されるパターンはそれほど多くないと言える.\begin{figure}[t]\begin{center}\includegraphics{26-2ia6f3.eps}\end{center}\caption{各パターンの音変化表現辞書,または,音変化検出規則がマッチした回数}\label{pattern-freq}\end{figure}
\section{発話のキャラクタ付けにおける音変化表現の有用性検証}
\subsection{検証方法}音変化表現が発話テキストへのキャラクタ付けにおいて有用かどうかを検証する.具体的には,表\ref{data-stats}に記載の9作品における「その他」を除く29キャラクタを対象として,各作品200発話の中から特定のキャラクタの発話を検出する実験を行い,発話にどのような音変化表現が含まれるかという情報を用いることで,検出性能が向上するか否かを検証する.音変化表現の情報を用いることで検出性能が向上すれば,小説やコミックにおける発話のキャラクタらしさと,発話における音変化表現の利用実態との間に何らかの関係性があることが確認できる.目的のキャラクタの発話の検出には,LIBLINEARversion2.1\cite{fan:2008}のロジスティック回帰(L2正則化)を用いた.学習と推定は10分割交差検定で行い,目的のキャラクタの発話である確率が0.5以上であると推定された発話を,目的のキャラクタの発話として検出した.使用する特徴量としては,以下の3種類を用意した.\vspace{0.5\Cvs}\begin{description}\item[Word]各発話に含まれる形態素の表記とその出現頻度.\item[Word+POS]各発話に含まれる形態素の表記および品詞とその出現頻度.\item[Word+POS+Pattern]各発話に含まれる形態素の表記および品詞と,\ref{evalmethod}節で述べた方法で検出された音変化表現の大分類(L1--L11),中分類(M1--M34)およびパターン(P1--P137)の出現頻度.\end{description}\vspace{0.5\Cvs}なお,形態素の表記と品詞を取得する際は,UniDic(unidic-mecabver.~2.1.2)\cite{den:2009}を辞書として指定したMeCab0.996\cite{kudo:2004}を利用した.UniDicの品詞には,「連体形-撥音便」(e.g.,走\underline{ん}の)や「仮定形-融合」(e.g.,食べ\underline{りゃ})のように,音変化が起きていることを示す情報が組み込まれているため,Word+POSの特徴量においても,発話中にどのような音変化表現があるかに関する情報の一部が含まれることになる.評価指標としては,再現率($Rec$),適合率($Prec$),F値($F$)を用いる.目的のキャラクタの発話として正しく検出できた数を$TP$,目的のキャラクタの発話として検出できなかった数を$FN$,目的のキャラクタの発話として誤って検出した数を$FP$として,(\ref{rec-prec-f})の式で算出する.\begin{figure}[b]\begin{center}\includegraphics{26-2ia6f4.eps}\end{center}\caption{各キャラクタの発話を検出した結果(F値)}\label{f-measure}\end{figure}\subsection{結果と考察}全29キャラクタのそれぞれについて,\pagebreak3種類の特徴量を利用して検出した結果(F値)を図\ref{f-measure}に示す.検出結果はキャラクタによってまちまちだが,いくつかのキャラクタにおいて,音変化表現の情報を使うことでF値が向上した.最も向上したのは『図書館戦争』の柴崎麻子で,形態素の表記と品詞を用いる方法(Word+POS)に音変化表現の情報を追加する(Word+POS+Patternを用いる)ことで,F値が0.15向上した.また,『ソードアートオンライン』については,対象としたキャラクタの全てにおいて,音変化表現の情報を用いる方法(Word+POS+Pattern)のF値が最も高かった.\begin{figure}[p]\begin{center}\includegraphics{26-2ia6f5.eps}\end{center}\caption{適合率・再現率曲線(『図書館戦争』および『ソードアートオンライン』のキャラクタ)}\label{rec-prec-both}\end{figure}『図書館戦争』および『ソードアートオンライン』のキャラクタに対する検出結果の適合率・再現率曲線を図\ref{rec-prec-both}に示す.この曲線は,目的のキャラクタの発話である確率がいくつ以上であれば目的のキャラクタの発話として検出するか(閾値)を少しずつ変化させ,様々な閾値を使用した場合の適合率と再現率をプロットしたものである.これを見ると,『図書館戦争』および『ソードアートオンライン』のキャラクタについては,再現率0.3以上の範囲において,概ね常に,音変化表現の情報を用いる方法(Word+POS+Pattern)の適合率が最も高くなっていることが分かる.形態素の表記・品詞と音変化表現の情報(Word+POS+Pattern)を特徴量として学習したロジスティック回帰のモデルにおいて,回帰係数(重み)の絶対値が大きい上位15件の特徴量を表\ref{weight-toshokan},表\ref{weight-sword}に示す.なお,ここで使うモデルは10分割交差検定の中で作成したものではなく,特徴量の分析のために,各作品につき全200発話を用いて学習し直したものである.『図書館戦争』,『ソードアートオンライン』のいずれのモデルにおいても,表記や品詞と並んで,音変化表現の情報が重みの絶対値の上位に挙がっている.表\ref{weight-toshokan}の『図書館戦争』のモデルで目を引くのは,堂上淳のモデル(重みの絶対値の上位15件)において音変化表現の情報に対する重みが全て負の値となっていることである.これは,堂上淳というキャラクタが,L4(脱落)やL1(長音挿入)といった,ごく一般的な音変化表現をあまり用いない人物として特徴づけられていることを示唆している.『ソードアートオンライン』の茅場晶彦にも同様の傾向が見られ,L4(脱落)やL2(促音挿入)といった音変化表現に対して負の重みが付与されている.\begin{table}[p]\hangcaption{『図書館戦争』の各キャラクタの発話を検出するためのロジスティック回帰のモデルにおいて,回帰係数(重み)の絶対値が大きい上位15件の特徴量(Word+POS+Pattern)}\label{weight-toshokan}\input{06table10.tex}\par\vspace{4pt}\small重みは小数点第5位を四捨五入して表示.\end{table}\begin{table}[p]\hangcaption{『ソードアートオンライン』の各キャラクタの発話を検出するためのロジスティック回帰のモデルにおいて,回帰係数(重み)の絶対値が大きい上位15件の特徴量(Word+POS+Pattern)}\label{weight-sword}\input{06table11.tex}\par\vspace{4pt}\small\hspace{54pt}重みは小数点第5位を四捨五入して表示.\end{table}堂上や茅場と対照的なのが,『ソードアートオンライン』のクラインである.表\ref{weight-sword}で示されているとおり,クラインのモデル(重みの絶対値の上位15件)に登場する音変化パターンに対する重みは全て正の値となっている.このモデルから,クラインというキャラクタが,L5(母音交替),L10(縮約),M10(語末の「う」の脱落)といった音変化表現を積極的に用いる人物として特徴づけられていることが示唆される.以上で述べた実験,および,特徴量分析の結果から,本研究で提案する音変化表現のパターンが発話のキャラクタらしさを特徴づけるうえで有用であることが示されたと言える.
\section{まとめと今後の課題}
本研究では,発話テキストの自動生成における音変化表現の利用に向け,日本語の発話テキストに現れる音変化表現のパターンをテキスト処理において扱いやすい知識として整理した.具体的には,音変化表現を現象と生起環境の観点で分類し,137種類のパターンとして整理した.また,検証実験を通して,137種類のパターンが,小説やコミックのキャラクタの発話に出現する音変化表現の80\%以上をカバーすることを明らかにした.さらに,小説やコミックにおける発話文の話者(キャラクタ)を推定する実験を通して,音変化表現のパターンが,発話のキャラクタらしさを特徴付けるための有効な手段となることを示した.今後は,対話エージェントの発話や小説のセリフの自動生成において,音変化表現の生成を取り入れたいと考えている.そのためには,日本語として自然な音変化表現を生成できる必要があるが,本研究で提案したパターンに基づいて生成するだけでは,日本語として定着していない不自然な表現が出力される場合がある.例えば,P10で生成される「うっかつだ」(元の形:うかつだ)や,P11で生成される「あいっついで」(元の形:あいついで),P50で生成される「うんざし」(元の形:うんざり)は日本語の表現としてあまり自然なものとは感じられない.日本語として自然な音変化表現を生成するために,個々の表現の定着度合いや発話の状況など(例えば,話者が感情的になって話しているか),考慮すべき要因を明らかにし,それを反映できるテキスト生成の仕組みを作りたいと考えている.\bibliographystyle{jnlpbbl_1.5}\nocite{*}\begin{thebibliography}{}\bibitem[\protect\BCAY{伝}{伝}{2009}]{den:2009}伝康晴\BBOP2009\BBCP.\newblock多様な目的に適した形態素解析システム用電子化辞書(〈特集〉日本語コーパス).\\newblock\Jem{人工知能学会誌},{\Bbf24}(5),\mbox{\BPGS\640--646}.\bibitem[\protect\BCAY{Fan,Chang,Hsieh,Wang,\BBA\Lin}{Fanet~al.}{2008}]{fan:2008}Fan,R.-E.,Chang,K.-W.,Hsieh,C.-J.,Wang,X.-R.,\BBA\Lin,C.-J.\BBOP2008\BBCP.\newblock\BBOQLIBLINEAR:ALibraryforLargeLinearClassification.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf9}(Aug),\mbox{\BPGS\1871--1874}.\bibitem[\protect\BCAY{浜田}{浜田}{1955}]{hamada:1955}浜田敦\BBOP1955\BBCP.\newblockつまる音.\\newblock\Jem{国語学辞典},\mbox{\BPGS\655--656}.東京堂出版.\bibitem[\protect\BCAY{金水}{金水}{2011a}]{kinsui:2011:nihongo}金水敏\BBOP2011a\BBCP.\newblock役割語と日本語教育.\\newblock\Jem{日本語教育},{\Bbf150},\mbox{\BPGS\34--41}.\bibitem[\protect\BCAY{金水}{金水}{2011b}]{kinsui:2011}金水敏\JED\\BBOP2011b\BBCP.\newblock\Jem{役割語研究の展開}.\newblockくろしお出版.\bibitem[\protect\BCAY{小磯\JBA西川\JBA間淵}{小磯\Jetal}{2006}]{koiso:2006}小磯花絵\JBA西川賢哉\JBA間淵洋子\BBOP2006\BBCP.\newblock転記テキスト.\\newblock\Jem{日本語話し言葉コーパスの構築法}.国立国語研究所報告書,124\JNUM,2\JCH,\mbox{\BPGS\23--130}.国立国語研究所.\bibitem[\protect\BCAY{窪薗}{窪薗}{1999}]{kubozono:1999}窪薗晴夫\BBOP1999\BBCP.\newblock\Jem{現代言語学入門2日本語の音声}.\newblock岩波書店.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{kudo:2004}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldstoJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{黒橋・河原研究室}{黒橋・河原研究室}{2012}]{kurohashi:2012}黒橋・河原研究室\BBOP2012\BBCP.\newblock\Jem{日本語形態素解析システムJUMANversion7.0使用説明書}.\bibitem[\protect\BCAY{Li,Galley,Brockett,Spithourakis,Gao,\BBA\Dolan}{Liet~al.}{2016}]{Li:2016}Li,J.,Galley,M.,Brockett,C.,Spithourakis,G.,Gao,J.,\BBA\Dolan,B.\BBOP2016\BBCP.\newblock\BBOQAPersona-BasedNeuralConversationModel.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\994--1003}.\bibitem[\protect\BCAY{Mairesse\BBA\Walker}{Mairesse\BBA\Walker}{2007}]{mairesse:2007}Mairesse,F.\BBACOMMA\\BBA\Walker,M.\BBOP2007\BBCP.\newblock\BBOQPERSONAGE:PersonalityGenerationforDialogue.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics},\mbox{\BPGS\496--503}.\bibitem[\protect\BCAY{益岡\JBA田窪}{益岡\JBA田窪}{1992}]{masuoka-takubo:1992}益岡隆志\JBA田窪行則\BBOP1992\BBCP.\newblock\Jem{基礎日本語文法—改訂版—}.\newblockくろしお出版.\bibitem[\protect\BCAY{泉子・K・メイナード}{泉子・K・メイナード}{2012}]{maynard:2012}泉子・K・メイナード\BBOP2012\BBCP.\newblock\Jem{ライトノベル表現論—会話・創造・遊びのディスコースの考察}.\newblock明治書院.\bibitem[\protect\BCAY{宮崎\JBA平野\JBA東中\JBA牧野\JBA松尾\JBA佐藤}{宮崎\Jetal}{2016}]{miyazaki:jsai2016}宮崎千明\JBA平野徹\JBA東中竜一郎\JBA牧野俊朗\JBA松尾義博\JBA佐藤理史\BBOP2016\BBCP.\newblock文節機能部の確率的書き換えによる言語表現のキャラクタ性変換.\\newblock\Jem{人工知能学会論文誌},{\Bbf31}(1).\newblockDSF-515.\bibitem[\protect\BCAY{Miyazaki,Hirano,Higashinaka,Makino,\BBA\Matsuo}{Miyazakiet~al.}{2015}]{miyazaki:paclic29}Miyazaki,C.,Hirano,T.,Higashinaka,R.,Makino,T.,\BBA\Matsuo,Y.\BBOP2015\BBCP.\newblock\BBOQAutomaticConversionofSentence-endExpressionsforUtteranceCharacterizationofDialogueSystems.\BBCQ\\newblockIn{\Bem29thPacificAsiaConferenceonLanguage,InformationandComputation},\mbox{\BPGS\307--314}.\bibitem[\protect\BCAY{Miyazaki,Hirano,Higashinaka,\BBA\Matsuo}{Miyazakiet~al.}{2016}]{miyazaki:sigdial2016}Miyazaki,C.,Hirano,T.,Higashinaka,R.,\BBA\Matsuo,Y.\BBOP2016\BBCP.\newblock\BBOQTowardsanEntertainingNaturalLanguageGenerationSystem:LinguisticPeculiaritiesofJapaneseFictionalCharacters.\BBCQ\\newblockIn{\BemProceedingsoftheSIGDIAL2016Conference},\mbox{\BPGS\319--328}.\bibitem[\protect\BCAY{斉藤\JBA貞光\JBA浅野\JBA松尾}{斉藤\Jetal}{2017}]{saito:2017}斉藤いつみ\JBA貞光九月\JBA浅野久子\JBA松尾義博\BBOP2017\BBCP.\newblock文字列正規化パタンの獲得と崩れ表記正規化に基づく日本語形態素解析.\\newblock\Jem{自然言語処理},{\Bbf24}(2),\mbox{\BPGS\297--314}.\bibitem[\protect\BCAY{笹野\JBA黒橋\JBA奥村}{笹野\Jetal}{2014}]{sasano:2014}笹野遼平\JBA黒橋禎夫\JBA奥村学\BBOP2014\BBCP.\newblock日本語形態素解析における未知語処理の一手法—既知語から派生した表記と未知オノマトペの処理—.\\newblock\Jem{自然言語処理},{\Bbf21}(6),\mbox{\BPGS\1183--1205}.\bibitem[\protect\BCAY{佐藤}{佐藤}{2015}]{sato:2015}佐藤理史\BBOP2015\BBCP.\newblock小説生成器とはどんなシステムか.\\newblock\Jem{人工知能学会全国大会論文集},29\JVOL,\mbox{\BPGS\1--4}.\bibitem[\protect\BCAY{沈\JBA菊池\JBA太田\JBA三田村}{沈\Jetal}{2012}]{shen:2012}沈睿\JBA菊池英明\JBA太田克己\JBA三田村健\BBOP2012\BBCP.\newblock音声生成を前提としたテキストレベルでのキャラクタ付与.\\newblock\Jem{情報処理学会論文誌},{\Bbf53}(4),\mbox{\BPGS\1269--1276}.\bibitem[\protect\BCAY{山根\JBA佐藤\JBA松岡\JBA奥村}{山根\Jetal}{2013}]{yamane:2013}山根智恵\JBA佐藤友子\JBA松岡洋子\JBA奥村圭子\JEDS\\BBOP2013\BBCP.\newblock\Jem{研究社日本語口語表現辞典}.\newblock研究社.\end{thebibliography}\clearpage\appendix
\section{検証用データの書誌情報}
\vspace{-2\Cvs}\nociteaprefs{*}\bibliographyaprefs{aprefs}
\section{音変化表現のパターン}
\centerline{\small\textbf{表12}音変化表現のパターンの一覧}\par\input{06table12.tex}\vspace{-8pt}\small``*''が付与されているパターンは,例として挙げたもの以外に多くの表現が該当するもの(生産性のあるもの)である.パターンの説明における``+''は,その左右の語が連接することを指す.音変化表現の例にて``()''で囲まれた文字列は,音変化が起きる語の周辺語の例であり,``/''によって語の境界を示してある.\vspace{1\Cvs}\normalsize\begin{biography}\bioauthor{宮崎千明}{2008年南山大学外国語学部英米学科卒業,2010年名古屋大学大学院国際開発研究科博士前期課程修了.2010年日本電信電話株式会社入社.2016年NTTコミュニケーションズ株式会社へ転籍.2017年よりソニー株式会社勤務.現在,名古屋大学大学院工学研究科博士後期課程に在学.言語処理学会,人工知能学会各会員.}\bioauthor{佐藤理史}{1988年京都大学大学院工学研究科博士後期課程電気工学第二専攻研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学助教授,京都大学大学院情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科教授.工学博士.言語処理学会,人工知能学会,情報処理学会,日本認知科学会,ACM各会員.}\end{biography}\biodate\end{document}
| |
V18N01-01 | \section{はじめに}
日本語非母語話者が日本語の作文をする場合,共起表現知識が不足するため,不自然な文を産出することがある.日本語に言語直観のない非母語話者にとって,共起表現の適切さの判断は難しい.\cite{杉浦}は,母語話者と非母語話者の知識の決定的な違いは,記憶しているコロケーション知識の量と質の違いではないかと考え,非母語話者の作文の不自然さを説明している.このような非母語話者の問題に対して,第二言語習得の研究では,文の産出には,例文の提示\cite{Summers}や,語の用法・共起関係の学習\cite{Granger}が重要であると考えられている.しかし,日本語学習者に対する日本語知識の情報源として,国語辞典はあまり役に立たない.国語辞典は,難しい言葉の意味を調べたり,表記を確かめたりするのに使用され,母語話者にとって自明である語の用法や例文については十分に説明されていない.このため,日本語非母語話者でも日本語—母語辞書を併用することで見出し語の主要な意味を確認することはできるが,産出しようとしている共起表現が自然であるかどうかを判断することは困難である.そこで,動詞の見出し語に対して,共起する名詞と例文が示された日本語学習者のためのコロケーション辞典が作成されている\cite{姫野}.しかし,辞書に記述できる情報は限られているため,やはり,学習者が産出しようとしている表現が自然であるかどうかを確認できるとは限らない.しかも,日本語非母語話者が作文をする場合,自分が表現したい事柄に適した日本語の表現を思いつかないことがしばしばある.名詞は母語—日本語辞書である程度選択できるが,特に,動詞は難しい.母語で思いついた動詞を母語—日本語辞書で調べる,あるいは,類語辞書を利用して単語を拡張するということも考えられるが,そうして得られた動詞$v$を用いた表現が自然な表現であるかどうかは不明である(動詞$v$を,国語辞典,あるいは(姫野2004)の辞書で調べても,$v$を用いた表現が用例として記載されている可能性は前述のように低い).また,非母語話者の不自然なコロケーションは,辞書引きによる母語からの類推が原因で生じることがある\cite{滝沢}.さらに,そもそも母語からの類推による辞書引きで得られる単語は限られており,母語—日本語辞書および類語辞書を用いても適切な単語が見つからないことさえある.一方,\cite{Nishina}や\cite{Kilgariff}で提案されているシステムは,名詞から,その名詞との共起頻度の高い動詞や結びつきが強い(Dice係数などで判定)動詞を検索することができる.しかし,名詞と出現頻度の高い動詞や結びつきが強い動詞の中に自分が意図する動詞があるとは限らないため,そのような動詞の中から自分が意図する動詞を見つけるのは難しい.本研究では,コロケーションのうち日本語文を構成する最も基本的なものの一つである名詞$n$が格助詞\footnote{本稿では,動詞に係る名詞の格を表す可能性のある助詞として,「が」「を」「に」「で」「と」「へ」「から」「まで」を扱い,これを格助詞と呼ぶことにする.}$c$を伴って動詞\footnote{機能語「(さ)せる」(使役),「(ら)れる」(受身),「できる」(可能)については,動詞とこれらの機能語を合わせて一単語として扱う.}$v$に係っている共起表現$\tupple{n,c,v}$を対象とし,学習者が入力した共起表現$\tupple{n,c,v}$に対して,それから連想される適切な共起表現(代替共起表現\footnote{代替共起表現が入力された共起表現自身である場合もある.}と呼ぶ)の候補を提示する手法を提案する.本稿ではその手始めとして,共起表現$\tupple{n,c,v}$において$n,c$が正しいという前提の下,動詞のみを置き替えた代替共起表現の候補を提示する手法を扱う.これは,予備調査において,不自然な$\langle名詞—格助詞—動詞\rangle$共起表現を収集した結果,動詞の誤用が多かったため,学習者が作文する際,名詞の選択よりも動詞の選択の方が難しいと考えたからである.なお,代替共起表現中の置き替えられた動詞を代替動詞と呼ぶ.$n$,$c$が正しいという前提の下,学習者(日本語非母語話者)が適切な共起表現$\tupple{n,c,v'}$を産出する際の困難は,前述したように,\begin{itemize}\item辞書や自身の語彙知識に基づいて,自身が意図している意味を持つ動詞(表現したい内容を表す動詞)$v'$の候補を見つけること,\item候補動詞に対して,$\tupple{n,c,v'}$が共起として自然であるかどうかを判断すること\end{itemize}である.\ref{共起の自然さ}節で述べるように,共起表現が不自然であるという判断を下すことは難しいが,母語話者コーパスを利用すれば共起表現が自然であることはかなりの精度で判定することができる.一方,\ref{誤用と正用の関係}節で述べるように,「誤用共起表現$\tupple{n,c,v}$の$v$との出現環境が類似している順に全動詞を並べた場合,$v$の代替動詞はその上位にある傾向にある」と考えられる.これは,予備調査において,$v$と$v'$の共通点として,別の名詞—格助詞とであればどちらも共起できるケースがあることに気付いたからである.そこで本稿では,この仮説に基づき,母語話者コーパスを用いて$\tupple{n,c}$との共起が自然と判定される代替動詞候補を,学習者が入力した共起表現の動詞との出現環境の類似度の降順に提示する手法を提案する.これは,学習者が適切な共起表現を産出する際の二つの困難を克服するための情報を提供するものであり,作文支援システムとして有用と考えられる.なお,提示される候補動詞は,共起の自然さはある程度保証されるものの,学習者が意図した意味を持つ動詞とは限らないため,国語辞典や日本語—母語辞書を調べて,意図した意味を持つ動詞を学習者自身が候補動詞の中から選択する必要がある.日本語学習者の場合でも,国語辞典や日本語—母語辞書を用いることにより,候補動詞の主要な意味は把握でき,自身が意図した意味を持つ動詞かどうかの判断はできると考えているが,実際にそのような判断が可能かどうかは学習者の日本語能力にも依存する.このため,本研究では中級学習者をシステムの利用者として想定している.また,共起表現の誤用のうち,初級学習者に多い格助詞の誤りや中級学習者に多い動詞の自他の誤りなどの文法的誤りは,係り受け解析器の文法辞書を使って指摘・訂正が可能であるため対象としない.本稿では,学習者の作文から得られる誤用共起表現と,それを自然な表現に修正したもの(正用共起表現)の対からなるデータ(誤用・正用共起表現データ)を用いて,前述の仮説を検証する.同時に,シソーラスを用いた場合との比較から,誤用動詞に対する代替動詞候補を順序付けて提示するための尺度として,出現環境の類似度の方が意味的な類似度よりも有用であることを示す.また,同誤用・正用共起表現データを用いて,提案手法に基づいた共起表現に関する作文支援システムの実用性を検討する.
\section{提案手法}
本稿で提案する手法は,学習者が入力した名詞$n$が格助詞$c$を伴って動詞$v$に係っている共起表現$\tupple{n,c,v}$に対し,$n,c$は正しく,$v$が誤っていると仮定して,誤用動詞$v$の代替動詞の候補を提示するものであり,「誤用共起表現$\tupple{n,c,v}$の$v$との出現環境が類似している順に全動詞を並べた場合,$v$の代替動詞はその上位にある傾向にある」という仮説に従い候補を提示する.つまり,$\tupple{n,c,v}$に対して,図\ref{図:提案アルゴリズム}に示すようにして,代替動詞候補を提示する.本節では,\ref{誤用と正用の関係}節でこのような仮説を立てた理由について述べ,\ref{出現環境の類似尺度}節で具体的な出現環境の類似尺度について,\ref{共起の自然さ}節で$\tupple{n,c,v'}$が共起として自然であるための判定方法について述べる.\begin{figure}[b]\begin{center}\includegraphics{18-1ia2f1.eps}\end{center}\caption{入力の共起表現$\tupple{n,c,v}$に対する代替動詞候補の提示手法}\label{図:提案アルゴリズム}\end{figure}\subsection{誤用動詞と正用動詞の関係}\label{誤用と正用の関係}日本語を母語としない日本語学習者が産出した共起表現$\tupple{n,c,v}$は,文法的には正しく,意味も推測できるが不自然である場合がある.不自然な表現であっても必ずしも誤りとは言えないものもあり,詳細な考察が必要であるが,本稿では,自然な表現を「正用」とし,不自然な表現を「誤用」とする.日本語学習者の作文における不自然な共起表現$\tupple{n,c,v}$を収集し,$v$の使用が適切でない場合,$\tupple{n,c,v}$およびその周辺の文脈から想像される正しい$v^*$を求め,誤用動詞$v$と正用動詞$v^*$の関係を調べた.学習者の動詞選択の誤りに起因する不自然な共起表現では,事前調査において,誤用動詞$v$と正用動詞$v^*$が典型的な類義関係にある場合から,$v$と$v^*$の意味的類似性が低い場合まで様々であった.そのため,誤用と正用の関係は,類義であると考えるよりも,出現環境が類似していると考える方が適切であった.図\ref{図:誤用正用の例}は,国立国語研究所の『日本語学習者による日本語作文と,その母語訳との対訳データベースver.~2.CD-ROM版』(2001)から求めた誤用共起表現と,その正用動詞の例である.()の中に示した番号は国立国語研究所の『分類語彙表増補改訂版データベース』(2004)におけるそれぞれの動詞の分類情報\footnote{「飲む」の分類情報2.3331-12-01の場合は,2は大分類,3331は項目番号,ハイフンの後の12は段落番号,01は小段落番号と呼ばれている.詳細は\ref{使用するデータ}節(3)を参照.}である.\begin{figure}[b]\begin{center}\includegraphics{18-1ia2f2.eps}\caption{非母語話者の作文に見られる不自然な共起表現}\label{図:誤用正用の例}\end{center}\end{figure}例1では,正用動詞は誤用動詞の類義動詞である.この場合は,たとえば,分類語彙表を用いて誤用動詞「飲む」の類義動詞を求めることで,正用動詞「吸う」を見つけることができる.例2も,正用動詞は誤用動詞の類義動詞と言える範囲の動詞であるが,典型的な類義動詞ではなく,分類語彙表では正用動詞と誤用動詞のカテゴリは近いが異なっている.このため分類語彙表などを用いて正用動詞を見つけるには,誤用動詞に対する広範囲の類義動詞を調べる必要がある.例3では,正用動詞は少なくとも動詞単独では誤用動詞の類義動詞とは言えず,正用動詞と誤用動詞の分類語彙表におけるカテゴリも大きく異なっている.しかし,たとえば,「元手を作る」と「元手を得る」はどちらも自然な共起表現であり,これらにおける「作る」と「得る」の意味は細かなニュアンスの違いを無視すればほぼ同じ内容を表している(「元手を作る」が行為に着目しているのに対し,「元手を得る」は「元手を作る」という行為の結果の状態変化に着目している点でニュアンスが異なる).また,「元手を作る」と「元手を得る」はほぼ同じ内容を表しているため,デ格やガ格についても,「内職で」,「印税で」,「魔法で」や「$\langle$人・組織を表す名詞$\rangle$が」などが,「内職で元手を作る」「内職で元手を得る」のように,「作る」と「得る」に共通に共起する.さらに,\begin{itemize}\item出張で端緒を〔作る/得る〕\item縁組で足掛かりを〔作る/得る〕\end{itemize}のように,上記と同じく「作る」と「得る」がほぼ同じ意味で用いられる他の環境も多数考えられる.2つ目の例の誤用動詞「止まる」とその正用動詞「なくなる」に関しても,\begin{itemize}\item治療で徘徊が〔止まる/なくなる〕\item薬で徘徊が〔止まる/なくなる〕\item治療で抜け毛が〔止まる/なくなる〕\item薬で抜け毛が〔止まる/なくなる〕\item不況で勢いが〔止まる/なくなる〕\item負けで勢いが〔止まる/なくなる〕\end{itemize}と,ほぼ同じ意味で用いられる共通の環境が多数考えられる.このように,細かなニュアンスを無視すれば,動詞$v_1$と$v_2$が(それらの意味の一つとして)ほぼ同じ意味を持つならば,$v_1$と$v_2$の出現環境は比較的類似する(つまり,$v_1$との出現環境が類似している順に全動詞を並べた場合,$v_2$がその上位にある)と言える.実際,次節で述べる出現環境の類似度で,「得る」は32,822動詞中36番目に「作る」と出現環境が類似しており,「なくなる」は「止まる」に32番目に出現環境が類似している.動詞$v_1$と$v_2$が類義動詞の場合も,$v_1$と$v_2$の出現環境は比較的類似する.すべての誤用動詞と正用動詞の関係が出現環境の類似性で捉えられるとは限らないが,正用動詞が,誤用動詞の類義語である場合だけでなく,動詞だけを単独で見た場合,類義語とは思えない場合でも,正用動詞を候補としてなるべく優先的に提示ができるように,「誤用共起表現$\tupple{n,c,v}$の$v$との出現環境が類似している順に全動詞を並べた場合,$v$の代替動詞はその上位にある傾向にある」という仮説を設定し,候補動詞を誤用動詞との出現環境の類似度で順位付けて提示することを考えた.\subsection{動詞間の出現環境の類似尺度}\label{出現環境の類似尺度}本稿では,\cite{Hindle}で提案されている類似度に従った出現環境の類似度を\pagebreak用いた場合の結果について報告する\footnote{他にも2通りの出現環境の類似度を試したが,\ref{実験および考察}節で示す実験結果とほぼ同様であった.一つは,動詞の出現環境(共起する〔名詞—格助詞〕)の確率分布に対し,分布間の非類似度をJansen-ShannonDivergenceで求め,これに基づいて定義した類似度である.他の一つは,動詞の出現環境の頻度ベクトルを動詞の出現環境の特徴ベクトルとし,動詞間の類似度を特徴ベクトル間の余弦で定義した類似度である.本稿では,紙面の都合上,わずかに性能の高かった\cite{Hindle}に従った出現環境の類似度についてのみ報告する.}.\cite{Hindle}では,subject-predicateの関係にある名詞と動詞の共起データおよびpredicate-objectの関係にある動詞と名詞の共起データに基づき,名詞間の出現環境の類似度を定義している.日本語の場合は格助詞がsubject,objectに相当するので,\cite{Hindle}に従った日本語の動詞$v_{1}$と$v_{2}$の出現環境の類似度$SIM_{H}(v_{1},v_{2})$を以下のように定義する.\begin{gather}SIM_{H}(v_{1},v_{2})=\sum_{c\inC\!s}\sum_{n\inN\!s}sim_{c}^{H}(n,v_{1},v_{2})\label{式:Hindle}\\sim_{c}^{H}(n,v_{1},v_{2})=\left\{\begin{array}{l}min(|MI(n,v_{1};c)|,|MI(n,v_{2};c)|)\\\hspace*{6.5mm};\quadMI(n,v_{1};c)\cdotMI(n,v_{2};c)>0,f(n,c,v_{1})\cdotf(n,c,v_{2})>0\\0\hspace*{5mm};\quad\mbox{otherwise}\end{array}\right.\nonumber\\MI(n,v;c)=\log\frac{f(n,c,v)\cdotf(*,c,*)}{f(n,c,*)\cdotf(*,c,v)}\nonumber\end{gather}ただし,$f(n,c,v)$は母語話者コーパスから抽出した共起データにおける共起表現$\tupple{n,c,v}$の出現頻度,$f(n,c,*)=\sum_{v\inV\!s}f(n,c,v)$,$f(*,c,v)=\sum_{n\inN\!s}f(n,c,v)$,$f(*,c,*)=\sum_{n\inN\!s}\sum_{v\inV\!s}f(n,c,v)$,$Ns$は全名詞の集合,$Vs$は全動詞の集合,$Cs$は全格助詞の集合である.$MI(n,v;c)$は,以下のpointwisemutualinformation:\\[-1zw]\begin{equation}\log\frac{P(n,v|c)}{P(n|c)\cdotP(v|c)}=\log\frac{P(n|c,v)}{P(n|c)}\left(=\log\frac{P(v|c,n)}{P(v|c)}\right)\label{式:Hindle_MI}\end{equation}\\[-1zw]の推定値である.式(\ref{式:Hindle_MI})は,格助詞$c$を伴った名詞と動詞の共起において,動詞が$v$であるときそれに係る名詞が$n$である条件付き確率$P(n|c,v)$が,格助詞$c$を伴った名詞と動詞の共起において名詞が$n$である確率$P(n|c)$より大きいならば正の値,小さいならば負の値になる(同様のことは,$P(v|c,n)$と$P(v|c)$についても成り立つ).つまり,格助詞$c$を伴った名詞と動詞の共起における名詞$n$と動詞$v$の結びつきの強さを表す.したがって,式(\ref{式:Hindle})で定義される$SIM_{H}(v_{1},v_{2})$は,名詞との結びつきの強さを考慮した出現環境の類似性を表す.なお,本研究では,機能語「(さ)せる」(使役),「(ら)れる」(受身),「できる」(可能)については,入力の共起表現と同様,動詞とこれらの機能語を合わせて一単語として扱う.\subsection{共起の自然さの判定}\label{共起の自然さ}母語話者コーパスに出現する共起表現は自然であると考えることができる.\pagebreakそこで,本研究では,共起表現$\tupple{n,c,v'}$が自然であることの判定法として,まず$f(n,c,v')>0$を考える.しかし,この判定では係り受け解析の誤りにより抽出された誤った共起ペアの影響を直接受けるという欠点がある\footnote{使用した係り受け解析器の解析精度は約90\%と報告されている.}.そこで,この判定法を一般化し,\begin{equation}f(n,c,v')>f_{0}\label{判定式Exist}\end{equation}を考える($f_{0}$は適当な閾値である).適切な閾値$f_{0}$は不明であるため,後述の評価実験では,共起が自然であることの判定として,adhocに決めた$f_{0}=0$,$f_{0}=9$,$f_{0}=19$を閾値として用いた場合について比較検討する.なお,式(\ref{判定式Exist})を満たさないからといって,$\tupple{n,c,v'}$が不自然であるとは限らない.そもそも自然である共起表現が網羅された母語話者コーパスは存在しないため,共起表現が不自然であることを判定するのは困難である.しかし,本研究が目指す支援システムでは,$\tupple{n,c}$との共起が自然である動詞を網羅的に求める必要はなく,$\tupple{n,c}$との共起が自然と判定される動詞の中に,システム利用者が意図した意味を持つ動詞が含まれれば良い.したがって,十分大規模な母語話者コーパスを用いれば,式(\ref{判定式Exist})による共起の自然さの判定でも,支援システムとして有用であると考えている.
\section{関連研究}
学習者のコロケーション習得において,誤用の傾向や特徴を分析した研究はあるが\cite{曹,滝沢,小森},誤用と正用の関係を扱った研究は少ない.\cite{James}は,コロケーションの違反を3種に区別しているが,誤用と正用の関係の解明には至っていない.また,誤用と正用の間に類義関係が成り立つことを指摘している研究はあるが\cite{鈴木},類義関係とは言えない誤用と正用の関係を形式的に扱った研究はない.作文支援としてコロケーションを扱った研究では,誤りの検出という立場と作文に必要な語彙知識を提供するという2つの立場から研究が行われている.前者は,計算機による誤用検出・訂正システムの構築の観点から行われた誤用分析において,規則性がある誤用の検出は容易であるが,コロケーションの誤りを含め,語彙選択の誤りの検出は難しいと考えられている\cite{白井}.語彙選択の誤りは,数が非常に多い内容語に関わるため,機能語の誤り以上に捉えがたい.後者は,Data-Driven-Learningという考え方に基づき,学習者が自分の判断で適切な語を選択できるように,大規模なコーパスからキーワードに対して共起する語や例文を提示する作文支援システム\cite{Nishina}や,結び付きの強い単語,あるいは,類語の共通点や差異を示すツール\cite{Kilgariff}が開発されている.共起する語の例文を調べる,あるいは,共起する語の特徴や類似する語の使い方の違いを知るためには,これらのシステムは有用である.しかし,共起の結び付きが強い語の中に自分が表現したい単語があるとは限らない.自分が表現したい事柄に適した日本語の表現を思いつかない場合,それを自分で探すのは難しい.これらの問題の解決策として,本研究では誤用と正用の関係から代替共起表現を提示する手法を提案する.本研究は,単語の出現環境の類似関係として誤用と正用の関係を捉え,これを定量化した点でこれまでの言語教育における誤用分析と異なる.また,代替候補を提示する点で,誤用検出システムや検索ツールとは異なるものである.
\section{評価実験および考察}
\label{実験および考察}学習者の作文から誤用共起表現を収集し,これに対する正用共起表現を求め,このデータを用いて仮説の妥当性を評価する.同時に,シソーラスを用いた場合との比較から,誤用動詞に対する代替動詞候補を順位付けて提示するための尺度として,出現環境の類似度が有用であることを示す.最後に図\ref{図:提案アルゴリズム}に示した代替動詞の提示法に基づいた共起表現に関する作文支援システムの実用性について検討する.\subsection{使用するデータ}\label{使用するデータ}\begin{itemize}\item[(1)]学習者コーパス誤用収集には,国立国語研究所『日本語学習者による日本語作文と,その母語訳との対訳データベースver.~2.CD-ROM版』(2001)から,中国,インド,カンボジア,韓国,マレーシア,モンゴル,シンガポール,タイ,ベトナムの学習者による日本語作文を使用する.平均500字程度の作文で,1,000人分が収録されている.学習者の日本語レベルは明示されていないが,日本語学習時間に関する情報および実際の作文の質から,我々は本データベース中の作文は中級前後の学習者による作文と考えている.\item[(2)]母語話者コーパス出現環境の類似度計算と共起の自然さの判定には,日本語の大規模なコーパスとして一般的な,CD-毎日新聞データ集1991年〜2007年版を使用する.総文数16,165,255から成る.本研究では,この新聞コーパスから格助詞を伴った名詞と動詞の共起表現を抽出する(これを「母語話者共起データ」とする).ただし,機能語「(さ)せる」(使役),「(ら)れる」(受身),「できる」(可能)については,入力の共起表現と同様,動詞とこれらの機能語を合わせて一単語として扱い,形態素解析器の辞書に載っている複合動詞も一語として扱う.また,名詞が複合語の場合は最後の名詞を抽出する(複数の形態素から成る名詞でも使用した形態素解析器の単語辞書に登録されているものは一単語として扱う).例えば,「社会問題」の場合は「問題」として抽出する.共起表現の抽出には,形態素解析器$ChaSen$\footnote{http://chasen.naist.jp/hiki/ChaSen/}および係り受け解析器$CaboCha$\footnote{http://chasen.org/~taku/software/cabocha/}を使用した.このようにして得られた共起表現の延べ頻度は37,659,107,異なり数は7,420,195である.このうち,動詞の異なり数は32,822,名詞の異なり数は78,708,$\langlen,c\rangle$の異なり数は290,016,である.\item[(3)]シソーラス意味的な類似度を用いて代替動詞候補を求める場合との比較を行うために,シソーラスとして分類語彙表(『分類語彙表増補改訂版データベース』国立国語研究所(2004)),EDR電子化辞書(概念辞書CPD-V020.1および日本語単語辞書JWD-V020)を使用する.分類語彙表は,大分類として,「1.名詞の仲間(体の類)」,「2.動詞の仲間(用の類)」,「3.形容詞の仲間(相の類)」,「4.その他の仲間」に分類され(動詞の仲間である用の類は16,704語収録されている),これらがさらに5つの部門に分類されている.各部門がさらに項目に区別され,番号を与えた項目の数は4類を通計して895項である.項目番号は,左の桁が粗い分類の番号を示し,順に細かい分類になっている.さらに,このグループが「段落番号」と「小段落番号」で細分化されている.分類情報(大分類,項目番号,段落番号,小段落番号)は,シソーラス上の位置を表すと見ることもできる.例えば,「飲む」に付与された分類情報は2.3331-12-01(大分類2,項目番号3331,段落番号12,小段落番号01)であるが,これは「飲む」が図\ref{図:Tree}に示すような木構造を持つシソーラス上の葉ノードであることを示すと見ることもできる.EDR電子化辞書の概念辞書は概念間の上位下位関係を記述したものであり,日本語単語辞書には形態情報の他に,見出し語の持つ概念が示されており,総動詞数は45,084個である.両者を用いて動詞のシソーラスを構成することができる.作成した動詞シソーラスは,総概念数32,959(ただし,各動詞から上位を辿っていった場合の最上位概念が3つあったため,それらの上位にルート概念を追加した),概念間の上位下位関係の総数34,567,最大の深さ17である.本研究では,動詞間の意味的な類似度を基本的には\cite{長尾}で紹介されているシソーラス上の類似度に従って求める.ただし,動詞が多義語である場合や,一つの概念の上位概念が複数ある場合も考慮し,動詞$v_{1}$と$v_{2}$の意味的な類似度$SIM_{Dic}(v_{1},v_{2})$を以下のように定義する.\[SIM_{Dic}(v_{1},v_{2})=\max_{c\inC\!M(v_{1},v_{2})}\frac{2\cdotDepth(c)}{Dis(v_{1},c)+Depth(c)+Dis(v_{2},c)+Depth(c)}\]ここで,$C\!M(v_{1},v_{2})$は動詞$v_{1}$と$v_{2}$の共通の上位概念ノードの集合,\textbf{$Depth(c)$}は$c$の深さ,すなわち,シソーラスのルートノードからノード$c$への最長パス長,\textbf{$Dis(v,c)$}は,ノード$c$からノード$v$へ至る最短パス長である.分類語彙表に基づく意味的な類似度の計算では,分類語彙表に記載されている動詞とその分類情報を図\ref{図:Tree}のようなシソーラスと見なして類似度の計算を行う.なお本稿では,分類語彙表を用いた$SIM_{Dic}$を$SIM_{Dic1}$,EDR電子化辞書を用いた$SIM_{Dic}$を$SIM_{Dic2}$で表す.\end{itemize}\begin{figure}[t]\begin{center}\includegraphics{18-1ia2f3.eps}\end{center}\caption{分類語彙表の木構造}\label{図:Tree}\end{figure}\subsection{誤用・正用共起表現データ}\label{誤用・正用共起表現データ}誤用の共起表現と正用の共起表現を対にしたものを誤用・正用共起表現対と呼び,これを集めたものを誤用・正用共起表現データと呼ぶ.本稿では,動詞のみが誤りである場合を扱うため,以降の実験で使用する誤用・正用共起表現対は,$(\tupple{n,c,v},\tupple{n,c,v^*})$の形式をしている(つまり,$v$が誤用動詞,$v^*$がその正用動詞である).本稿では,評価結果の信頼性を高めるため,3名の母語話者がそれぞれ誤用・正用共起表現データの作成を行った.前節(1)で述べた学習者コーパスから誤用・正用共起表現データを作成する具体的な手順を以下に示す.\begin{itemize}\item[(1)]著者以外の日本語母語話者(作業者A,作業者B,作業者C)\hspace{-0.5zw}\footnote{3名とも日本語教育経験を持つ.また,作業者には不自然な共起に対する修正支援システムにつながる手法の評価に用いるデータとすることは伝えたが,手法自体(類似度や共起の自然さの判定法)は伝えていない.}が,学習者の作文を読み,不自然な$\tupple{n,c,v}$を誤用共起表現として収集する.\item[(2)]次に,誤用共起表現が自然な表現になるように,3名の作業者が個別に修正を行い,これを正用共起表現とする.修正に際しては,構成要素のうちの一箇所を修正することで自然な日本語に書き換え,誤用・正用共起表現対を求める.自然な表現にするのに2箇所以上の修正が必要な場合は対象から除く.また,学習者の日本語のレベルが意図する内容を日本語で表現するのに十分でなく,作業者が誤用共起表現から正用共起表現を推定するのが困難な場合は修正の対象から除く.動詞を修正する場合は,基本的には誤用共起表現から想像できる動詞のうち文脈を考慮して適切なものを正用動詞として推定する.修正する際に文脈を考慮するが,誤用動詞から推測することを前提とし,作文の内容から正用動詞を推測し,校正するものではない.以下に例を示す(SG041は学習者データのファイル名を指す).\begin{quote}新年を祝わなければ、中国人の\underline{伝統を落とし}ます。(SG041)\\誤用・正用共起表現対:($\tupple{伝統,を,落とす},\tupple{伝統,を,失う}$)\\\end{quote}\item[(3)]上記で求めた誤用・正用共起表現対のうち,誤用共起表現$\tupple{n,c,v}$に対して,その正用共起表現が$\tupple{n,c,v^*}$となっていないもの,および,以下の場合に該当するものを削除し,誤用・正用共起表現データを作成する.\begin{itemize}\item[(a)]自動詞と他動詞の使用の誤り,\item[(b)]$n$が形式名詞の場合,\item[(c)]$n$または$v$が平仮名表記になっていてかつ同音異義語を持つ場合,\item[(d)]$v$が「なる」「する」の場合,\item[(e)]$n$または$v$が日本語にない場合,\end{itemize}(a)は,出現環境の類似度に基づくのではなく,自動詞形/他動詞形の変換により代替動詞候補を求めるべき誤りである.(b)は,形式名詞の使用を学習者が誤っている(学習者が意図した先行詞を作業者が推定できない)可能性があり,その場合,作業者が誤用とその修正(正用)の判断を誤る可能性があるためである.(c)は,同音異義語を持つ$n$または$v$を含む不自然な共起表現$\tupple{n,c,v}$の場合,学習者が意図した語を作業者が特定する際の信頼性が低くなるためである.同音異義語を持つか否かの判定は,国語辞典を使用した.(d)は,広範囲の意味を取り得る「する」と「なる」が誤って使用されている場合は,学習者が意図した語を作業者が推定するのが困難なためである.(e)は,学習者が意図した単語と異なる単語を作業者が推定することを避けるためである.母語話者コーパス(新聞コーパス)から抽出した共起データにも,国語辞典の見出しにも出現しないとき,「日本語にない」と判定した.\end{itemize}評価実験では,上記の手順で作成した誤用・正用共起表現データのうち,3名の作業者が3名とも動詞のみを修正した誤用・正用共起表現対191を最終的な評価データとして使用する.作業者Aが作成したものを誤用・正用共起表現データA,作業者Bが作成したものを誤用・正用共起表現データB,作業者Cが作成したものを誤用・正用共起表現データCとする.作成された誤用・正用共起表現データA,誤用・正用共起表現データB,誤用・正用共起表現データCの内訳を表\ref{データの内訳}に示す.誤用・正用共起表現データにおいて,正用動詞まで一致したものは65個(34.0\%)であった.複数の漢字表記を持つ動詞に対して,表記が異なる修正を行った場合(「作る」と「つくる」など)を含めると,約40\%である.動詞を修正する場合に正用動詞は一意とは限らないことを考慮すると,上記の割合は当然の結果とも言える.\begin{table}[t]\caption{誤用・正用共起表現データの内訳}\label{データの内訳}\input{02table01.txt}\end{table}誤用・正用共起表現データを用いて仮説の妥当性等を評価するためには,以下の条件が満たされている必要がある.\begin{itemize}\item[(1)]誤用動詞に対して,一般には正用動詞は複数あるが,作業者がそれらのあり得る正用のうちの一つを選んでいる,\item[(2)]作業者は,誤用動詞に対して,一般には複数ある正用動詞のうち,誤用動詞と出現環境の類似性が比較的高い動詞を選ぶというような偏った傾向にはない.\end{itemize}日本語学習者に対する日本語教育経験を有する日本語母語話者による誤用動詞の修正であるから,(1)は満たされているものと考えている.一方,修正の方法(正用動詞)は一般に複数あり得るため,作業者によっては,たまたま,複数ある正用動詞のうち誤用動詞との出現環境の類似度が高い方の動詞を用いた修正を行う傾向にあるということもあり得る.作業者A,B,Cには作業結果のデータをどのように利用するかなどを知らせることなく行ったため,3名全員が(2)を満たさない作業を行う可能性は極めて低い.そこで,\ref{仮説の検証}節および\ref{シソーラスとの比較}節の実験では,誤用・正用共起表現データA,B,C,それぞれで同じ傾向の結果が得られることを示すことで,(2)が成り立つことを示すとともに,仮説の妥当性および誤用動詞に対する代替動詞候補を順序付けて提示するための尺度として出現環境の類似度が優れていることを示し,\ref{システムの実用性}節でも,誤用・正用共起表現データA,B,Cそれぞれを用いて仮説に基づく共起表現に関する作文支援システムの実用性を検討する.\subsection{仮説の検証}\label{仮説の検証}\ref{誤用・正用共起表現データ}節で述べた誤用・正用共起表現データを用いて仮説の妥当性を評価する.誤用動詞と正用動詞の出現環境の類似度の傾向だけを評価するため,図\ref{図:提案アルゴリズム}の提示法の(2)はスキップし,(3)では自然さの判定を行わず$Candidates=V$とする.候補動詞の全体集合$V$は\ref{使用するデータ}節(2)で述べた新聞コーパスから抽出した母語話者共起データ中の全動詞の集合$V_{News}$とし,$SIM$は\ref{出現環境の類似尺度}節で延べた出現環境の類似度$SIM_{H}$とする.つまり,出現環境の類似度だけで,誤用・正用共起表現対($\tupple{n,c,v},\tupple{n,c,v^*}$)の誤用動詞$v$から,代替動詞候補を優先順位付きで求める.この出力から,正用動詞$v^*$の順位\footnote{$SIM(v,v^*)=SIM(v,v')$なる候補動詞$v'(\neqv^*)$がある場合は,それらの平均の順位とする.たとえば,類似度の降順に並べたとき,$SIM(v,v_{1})>SIM(v,v_{2})>SIM(v,v_{3})=SIM(v,v_{4})=SIM(v,v_{5})>SIM(v,v_{6})$で,$v_{3}$が正用動詞$v^*$である場合,出力される順位は,4である.}を求める.ただし,`unknown1'が出力されている場合は,便宜上順位を特別な記号`unknown1'とする\footnote{順位としては,任意の自然数$k$に対し$k<$unknown1と解釈する.後述のunknown*,\ref{システムの実用性}節で述べるunknown2,NGについても同様である.}.また,正用動詞$v^*$が提示される候補の中にない場合,つまり$v^*\notinV$の場合も,順位が求められないため,便宜上順位を特別な記号`unknown*'とする.全誤用・正用共起表現対191のうち,求められた順位が$k$位以内である誤用・正用共起表現対の割合(top$k$accuracy)で仮説の妥当性を検討する.\begin{figure}[b]\begin{center}\includegraphics{18-1ia2f4.eps}\end{center}\caption{出現環境の類似度だけで代替動詞候補を優先付けした場合のtop$k$accuracy}\label{類似度のみtopK}\end{figure}誤用・正用共起表現データA,B,C,それぞれにおけるtop$k$accuracyを図\ref{類似度のみtopK}に示す.図\ref{類似度のみtopK}のグラフでは$k=2000$のところまでしかtop$k$accuracyが描かれていないが,$k=|V|=|V_{News}|=32,822$のときのtop$k$accuracyは,誤用・正用共起表現データAの場合は,99.5\%,誤用・正用共起表現データBの場合は,100.0\%,誤用・正用共起表現データCの場合は,100.0\%である.誤用・正用共起表現データAの場合に100\%になっていないのは,`unknown*'を出力した誤用・正用共起表現対が1個あったためである.前述したように,top$k$accuracyが$\alpha$\%であるとは,全誤用・正用共起表現対の$\alpha$\%の誤用・正用共起表現対で,誤用動詞との出現環境の類似度が高い上位$k$個の候補の中に正用動詞が含まれていることを意味する.したがって,$|V|$に比べ十分小さな$k$におけるtop$k$accuracyが100\%に近いならば,「誤用動詞との出現環境が類似している順に全動詞を並べた場合,正用動詞(代替動詞)はその上位にある傾向にある」という仮説が成り立つと言える.図\ref{類似度のみtopK}より,誤用・正用共起表現データAでは,top845accuracyは80\%,誤用・正用共起表現データBでは,top575accuracyは80\%,誤用・正用共起表現データCでは,top790accuracyは80\%である.845,575,790は,それぞれ,$|V|=|V_{News}|=32,822$の,2.6\%,1.8\%,2.4\%であるから,いずれのデータに対しても仮説が成り立っていると言える.したがって,本実験より,仮説が妥当であることが示せたと考えている.ただし,本仮説は,誤用動詞との出現環境の類似度順位において,正用動詞がどの程度高い順位にあるかまでは言及しておらず,単に傾向を述べているにすぎない.そこで,次節では,候補動詞の順位付けを,誤用動詞との出現環境の類似度で行った場合の方が,誤用動詞との意味的な類似度で行った場合より,正用動詞の順位が高い傾向にある,つまり,誤用動詞に対する代替動詞候補を順位付けて提示するための尺度として,出現環境の類似度の方が意味的な類似度よりも有用であることを示す.\subsection{意味的な類似度を用いた場合との比較}\label{シソーラスとの比較}\begin{figure}[b]\begin{center}\includegraphics{18-1ia2f5.eps}\end{center}\hangcaption{シソーラスに基づく類似度だけで代替動詞候補を優先付けした場合のtop$k$accuracy(誤用・正用共起表現データAを用いた場合)}\label{共通topK-A}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{18-1ia2f6.eps}\end{center}\hangcaption{シソーラスに基づく類似度だけで代替動詞候補を優先付けした場合のtop$k$accuracy(誤用・正用共起表現データBを用いた場合)}\label{共通topK-B}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{18-1ia2f7.eps}\end{center}\hangcaption{シソーラスに基づく類似度だけで代替動詞候補を優先付けした場合のtop$k$accuracy(誤用・正用共起表現データCを用いた場合)}\label{共通topK-C}\end{figure}意味的な類似度として\ref{使用するデータ}節(3)で述べた$SIM_{Dic1}$,$SIM_{Dic2}$を用いて,前節で行った実験と同様にしてtop$k$accuracyを求めた結果を図\ref{共通topK-A},図\ref{共通topK-B},図\ref{共通topK-C}に示す.図\ref{共通topK-A}は誤用・正用共起表現データAに対する結果,図\ref{共通topK-B}は誤用・正用共起表現データBに対する結果,図\ref{共通topK-C}は誤用・正用共起表現データCに対する結果である.ただし,類似度として$SIM_{Dic1}$を用いる場合は,図\ref{図:提案アルゴリズム}の(3)の$V$は,分類語彙表の見出し動詞の集合$V_{Dic1}$,(4)の出現環境の類似度$SIM$の代わりに分類語彙表に基づく類似度$SIM_{Dic1}$とし,類似度として$SIM_{Dic2}$を用いる場合は,図\ref{図:提案アルゴリズム}の(3)の$V$は,EDR電子化辞書の見出し動詞の集合$V_{Dic2}$,(4)の出現環境の類似度$SIM$の代わりにEDR電子化辞書に基づく類似度$SIM_{Dic2}$とした.図\ref{類似度のみtopK}と図\ref{共通topK-A},図\ref{類似度のみtopK}と図\ref{共通topK-B},図\ref{類似度のみtopK}と図\ref{共通topK-C}の比較から,出現環境の類似度$SIM_{H}$を用いた場合の方が,分類語彙表に基づく類似度$SIM_{Dic1}$およびEDR電子化辞書に基づく類似度$SIM_{Dic2}$を用いた場合よりも,top$k$accuracyが高いことがわかる.$V_{Dic1}$の要素数は,分類語彙表の見出し本体の異なりから,接辞を示す「-」や句を形成する「…」を除いて17,249である\footnote{用の類の語数は16,704と記載されているが,$|V_{Dic_1}|=17,249$は異表記も一つの見出しとして数えたためである.}.しかも,分類語彙表には,「ブレーキを掛ける」のように動詞一単語の形式になっていない表現が含まれているため,扱える候補動詞の数は17,249よりも少ない.これに対して$V_{News}$の要素数は32,822である.これが大規模な母語話者コーパスから抽出した共起データに基づいて求めた出現環境の類似度を用いた場合と,分類語彙表に基づく類似度を用いた場合のtop$k$accuracyの違いの原因の一つである可能性もある.扱える候補動詞の全体数が大きいことも大規模な母語話者コーパスを用いた場合の出現環境の類似度が代替動詞候補を順位付けて提示するための尺度として有用である理由の一つとなり得る.しかし,$V_{Dic2}$の要素数は45,084であり,$V_{News}$の要素数よりも多いが,top$k$accuracyが高くはない.そのため,候補の全体集合の大きさがtop$k$accuracyの違いの原因であるとは言えない.ここで,採用語彙の範囲を見ると,分類語彙表は現代の日常社会で普通に用いられる語を中心に採用している.一方,EDR電子化辞書は,機械翻訳を目的とし,新聞,百科事典,教科書,参考書などを中心としてデータが作成されている.シソーラス構築の際に参考にする文書のジャンルの違いに起因する候補動詞の集合の違いもtop$k$accuracyの違いの原因の一つであると考えられる.以上より,図\ref{共通topK-A},図\ref{共通topK-B},図\ref{共通topK-C}に示した結果だけから直ちに,代替動詞候補を順位付けて提示するための尺度として出現環境の類似度がシソーラスに基づく意味的な類似度よりも有用であるとは言えない.そこで,$SIM_{H}$と$SIM_{Dic1}$,$SIM_{H}$と$SIM_{Dic2}$とで共通に類似度が定義されている動詞のみに候補を制限した場合を考える.つまり,$V=V_{News}\capV_{Dic1}$として,$SIM$として$SIM_{H}$を用いた場合と$SIM_{Dic1}$を用いた場合とのtop$k$accuracyの比較,および,$V=V_{News}\capV_{Dic2}$として,$SIM$として$SIM_{H}$を用いた場合と$SIM_{Dic2}$を用いた場合とのtop$k$accuracyの比較を行う.これにより,誤用動詞の代替動詞候補を順位付けて提示するための尺度としての性能の比較を$(V_{News}\capV_{Dic1})\times(V_{News}\capV_{Dic1})$上,$(V_{News}\capV_{Dic2})\times(V_{News}\capV_{Dic2})$上に限って行うことになり,ある意味公平な評価と言える.\begin{figure}[t]\begin{center}\includegraphics{18-1ia2f8.eps}\end{center}\caption{$V=V_{News}\capV_{Dic}$とした場合のtop$k$accuracy(誤用・正用共起表現データAを用いた場合)}\label{類似度のみ共通topK-A}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{18-1ia2f9.eps}\end{center}\caption{$V=V_{News}\capV_{Dic}$とした場合のtop$k$accuracy(誤用・正用共起表現データBを用いた場合)}\label{類似度のみ共通topK-B}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{18-1ia2f10.eps}\end{center}\caption{$V=V_{News}\capV_{Dic}$とした場合のtop$k$accuracy(誤用・正用共起表現データCを用いた場合)}\label{類似度のみ共通topK-C}\end{figure}誤用・正用共起表現データA,B,Cにおける結果をそれぞれ図\ref{類似度のみ共通topK-A},図\ref{類似度のみ共通topK-B},図\ref{類似度のみ共通topK-C}に示す.図\ref{類似度のみ共通topK-A},図\ref{類似度のみ共通topK-B},図\ref{類似度のみ共通topK-C}の凡例の$SIM\_H[News*Dic1]$は,$V=V_{News}\capV_{Dic1}$とし,$SIM$として$SIM_{H}$を用いた場合を,$SIM\_Dic1[News*Dic1]$は,$V=V_{News}\capV_{Dic1}$とし,$SIM$として$SIM_{Dic1}$を用いた場合を,$SIM\_H[News*Dic2]$は,$V=V_{News}\capV_{Dic2}$とし,$SIM$として$SIM_{H}$を用いた場合を,$SIM\_Dic2[News*Dic2]$は,$V=V_{News}\capV_{Dic2}$とし,$SIM$として$SIM_{Dic2}$を用いた場合を示す.なお,図\ref{類似度のみ共通topK-A},図\ref{類似度のみ共通topK-B},図\ref{類似度のみ共通topK-C}のグラフでは,$k$=2,000のところまでしかtop$k$accuracyが描かれていないが,$V=V_{News}\capV_{Dic1}$の場合,$k$=$|V|$=9,693のときのtop$k$accuracyは,$SIM_{H}$,$SIM_{Dic1}$ともに,誤用・正用共起表現データAの場合は67.5\%,誤用・正用共起表現データBの場合は68.6\%,誤用・正用共起表現データCの場合は65.4\%である.また,$V=V_{News}\capV_{Dic2}$の場合,$k$=$|V|$=13,169のときのtop$k$accuracyは,$SIM_{H}$,$SIM_{Dic2}$ともに,誤用・正用共起表現データAの場合は79.1\%,誤用・正用共起表現データBの場合は82.7\%,誤用・正用共起表現データCの場合は76.4\%である.100\%になっていないのは,表\ref{unknownの個数}に示す個数の`unkonwn1'および`unknown*'を出力した誤用・正用共起表現対があったためである.\begin{table}[t]\caption{unknown1,unknown*を出力した誤用・正用共起表現対の個数}\label{unknownの個数}\input{02table02.txt}\end{table}図\ref{類似度のみ共通topK-A},図\ref{類似度のみ共通topK-B},図\ref{類似度のみ共通topK-C}より,いずれの誤用・正用共起表現データの場合でも,$SIM_{H}$を用いた場合が,$SIM_{Dic1}$,$SIM_{Dic2}$を用いた場合よりもtop$k$accuracyが高いことが分かる.次に,$V=V_{News}\capV_{Dic1}$において正用動詞が候補中にある129個(誤用・正用共起表現データA),131個(誤用・正用共起表現データB),125個(誤用・正用共起表現データC),$V=V_{News}\capV_{Dic2}$において正用動詞が候補中にある151個(誤用・正用共起表現データA),158個(誤用・正用共起表現データB),146個(誤用・正用共起表現データC)について順位の平均と分散を求めたものを表\ref{順位の平均と分散}に示す.表\ref{順位の平均と分散}より,出現環境の類似性($SIM_{H}$)を用いた方がシソーラスに基づく意味的な類似度($SIM_{Dic1}$,$SIM_{Dic2}$)を用いた場合より,正用動詞の順位の平均は高く,分散も小さいことがわかる.\begin{table}[t]\caption{$SIM_{H}$と$SIM_{Dic1}$,$SIM_{Dic2}$の順位の平均と分散}\label{順位の平均と分散}\input{02table03.txt}\end{table}いくつかの例について,$SIM_{Dic1}$,$SIM_{Dic2}$と$SIM_{H}$を用いた場合に出力される正用動詞の順位を表\ref{正用動詞の順位比較}に示す.例1,例2,例3は,\ref{誤用と正用の関係}節で示した例の分類と対応している.例1,例2のような「正用動詞が誤用動詞の類義動詞である場合」は,$SIM_{H}$を用いた場合の順位は,$SIM_{Dic1}$,$SIM_{Dic2}$を用いた場合と比較し,ほぼ同じか高い傾向にある.一方,例3のような「正用動詞が誤用動詞の類義動詞ではない場合」では,$SIM_{Dic1}$,$SIM_{Dic2}$と$SIM_{H}$の順位は大きく異なり,$SIM_{H}$を用いた方が$SIM_{Dic1}$,$SIM_{Dic2}$を用いた場合より順位が高い傾向にある.\begin{table}[t]\caption{$SIM_{H}$と$SIM_{Dic1}$,$SIM_{Dic2}$の正用動詞の順位の比較}\label{正用動詞の順位比較}\input{02table04.txt}\end{table}以上をまとめると,シソーラスに基づく意味的な類似度に比べ,出現環境の類似度は,誤用動詞に対する代替動詞候補を順位付けて提示するための尺度として有用であることが分かる.\subsection{提案手法に基づく共起表現に関する作文支援システムの実用性}\label{システムの実用性}本節では,誤用・正用共起表現データA,B,Cを用いて,図\ref{図:提案アルゴリズム}の代替動詞候補の提示手法に基づいた作文支援システムの実用性について検討する.誤用・正用共起表現対($\tupple{n,c,v},\tupple{n,c,v^*}$)に対し,図\ref{図:提案アルゴリズム}の手法により,$v$の代替動詞候補を優先順位付きで出力し,その中での正用動詞$v^*$の順位\footnote{$SIM(v,v^*)=SIM(v,v')$なる候補動詞$v'(\neqv^*)$がある場合は,\ref{仮説の検証}節と同様に平均の順位とする.}を求め,誤用・正用共起表現データA,B,Cそれぞれに対してtop$k$accuracyを求める.図\ref{図:提案アルゴリズム}の(3)における$\tupple{n,c,v'}$の自然さの判定は,\ref{共起の自然さ}節式(\ref{判定式Exist})で行う.ただし,閾値$f_{0}$の値として,0,9,19の3通りを試した.$SIM$は$SIM_{H}$で,候補動詞の全体集合$V$は$V_{News}$である.図\ref{図:提案アルゴリズム}の手法で`unknown1',`unknown2'が出力される誤用・正用共起表現対に対しては正用動詞の順位が求まらないが,そのような誤用・正用共起表現対は誤用・正用共起表現データA,B,Cにはなかった.候補動詞の集合(図\ref{図:提案アルゴリズム}の$Candidates$)の中に正用動詞が含まれない場合,つまり,正用共起表現が自然と判定できない場合も順位が求まらない.表\ref{NGの個数}にそのような誤用・正用共起表現対の個数を示す.()の中の値は,全誤用・正用共起表現対191個に対する割合である.便宜上このような誤用・正用共起表現対に対しては,順位を特別な記号`NG'とする.\begin{table}[b]\caption{提示される候補動詞集合中に正用動詞が含まれない誤用・正用共起表現対の個数}\label{NGの個数}\input{02table05.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{18-1ia2f11.eps}\end{center}\caption{提案手法(図\ref{図:提案アルゴリズム})によるtop$k$accuracy(誤用・正用共起表現データAを用いた場合)}\label{自然さの判定topK-A}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{18-1ia2f12.eps}\end{center}\caption{提案手法(図\ref{図:提案アルゴリズム})によるtop$k$accuracy(誤用・正用共起表現データBを用いた場合)}\label{自然さの判定topK-B}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{18-1ia2f13.eps}\end{center}\caption{提案手法(図\ref{図:提案アルゴリズム})によるtop$k$accuracy(誤用・正用共起表現データCを用いた場合)}\label{自然さの判定topK-C}\end{figure}図\ref{自然さの判定topK-A},図\ref{自然さの判定topK-B},図\ref{自然さの判定topK-C}に,誤用・正用共起表現データA,B,Cを用いた場合の,提案手法によるtop$k$accuracyを示す.図には,共起の自然さで候補を絞らない場合の結果,つまり,\ref{仮説の検証}節の結果(図のSimple)も比較のために示している.誤用・正用共起表現データA,B,C,いずれも共起の自然さの判定を,$f_{0}=9$を閾値として用いた式(\ref{判定式Exist})で行った場合のtop$k$accuracyは$f_{0}=0$の場合に比べ,$k$が比較的小さなところで顕著に高い.これは,出現頻度を考慮することにより,係り受け解析の失敗のために母語話者共起データに含まれてしまった誤った共起ペアの影響を軽減できたことが一因と考えられる.しかし,$f_{0}=19$を閾値とした場合,$f_{0}=9$の場合に比べ,top$k$accuracyは低くなり,適切な候補までが除かれてしまうことの影響の方が逆に大きくなっている.付録に入力の誤用共起表現に対する代替動詞候補の出力例と,それに対する適切さの判断の例を示す.付録の例のように,実際に日本語学習者が提案手法に基づく作文支援システムを利用する場合,辞書と学習者の日本語の知識だけで,上位に提示される候補のうち,これは違うと単純に判断できるものもあると考えられる(例えば,付録の「ある」「なる」「できる」).また,自分では思い付かない,あるいは,母語—日本語辞書では求まらない候補なのであるが,見ればこれだと分かる場合もあると考えられる.このように考え,学習者は上位30位までの候補が適切か否かを検討するのは負担と感じないと想定し,現状を評価してみる.式(\ref{判定式Exist})の閾値を$f_{0}=9$とした場合のtop30accuracyは誤用・正用共起表現データAを用いた場合に52.4\%,誤用・正用共起表現データBを用いた場合に57.6\%,誤用・正用共起表現データCを用いた場合に57.6\%であり,十分に高いとは言えない.その原因は,共起の自然さの判定法と誤用動詞との出現環境の類似度による順位付けそれぞれにある.\begin{figure}[b]\begin{center}\includegraphics{18-1ia2f14.eps}\end{center}\caption{母語話者新聞共起データに含まれない正用共起表現の数}\label{コーパス比較_未知語}\end{figure}まず,共起の自然さの判定法について考察する.2.3節で述べたように,十分大規模な母語話者コーパスを用いれば,式(\ref{判定式Exist})による共起の自然さの判定でも有用であると考えている.しかし,表\ref{NGの個数}から分かるように,全誤用・正用共起表現対における,正用共起表現が自然と判定できない誤用・正用共起表現対の割合は,$f_0=0$,$f_0=9$,$f_0=19$それぞれの場合で,約1割,約3割,約4割である.今回使用した新聞17年分の母語話者コーパスではまだ十分な規模とは言えず,これがtop$k$accuracyが十分に高くない原因の一つである.しかし,以下に示すように,新聞コーパスを単に大規模にしただけでは不十分であると考えられる.図\ref{コーパス比較_未知語}に誤用・正用共起表現データA,B,Cに関して,共起データの規模と,その共起データに含まれない正用共起表現の個数の関係を示す.横軸の数値$year$は,1991年〜~$year$年の新聞コーパスを用いて母語話者共起データを作成したことを示し,縦軸の値は,誤用・正用共起表現データ中の正用共起表現のうち,その母語話者共起データに含まれないものの個数である.図\ref{コーパス比較_未知語}から,母語話者共起データに含まれない正用共起表現の数の減少率が,8年分を超えたところから下がっている.この結果から,新聞コーパスを大きくすることでこの数を小さくするのは不可能であると考えられるため,新聞と異なるジャンルからコーパスを構築する必要がある.次に,誤用動詞との出現環境の類似度による提示する候補動詞の順位付けについて考察する.今回提案した手法では,「誤用共起表現$\tupple{n,c,v}$の$v$との出現環境が類似している順に全動詞を並べた場合,$v$の代替動詞はその上位にある傾向にある」という仮説に基づき,誤用共起表現$\tupple{n,c,v}$に対して,$n,c$との共起が自然な動詞$v'$を$v$との出現環境の類似度の降順で提示する.\ref{仮説の検証}節で述べたようにこの仮説は妥当であり,\ref{シソーラスとの比較}節で述べたように,類似度としてシソーラスに基づいた意味的な類似度を用いるよりは精度が高い.しかし,上述の結果が示すように,一つの誤用動詞との出現環境の類似度だけでは優先付けの情報として不足している.そこで,実用に耐える作文支援システムを構築するには,入力情報を増やすことが考えられる.つまり,ほぼ同じことを意味している(とシステム利用者は思っている)複数の共起表現$\tupple{n,c,v_1},\tupple{n,c,v_2},\cdots,\tupple{n,c,v_m}$を入力する($n,c$は共通).こうすることで,$n,c$との共起が自然な動詞$v'$を\[SIM(v_1,v')+SIM(v_2,v')+\cdots+SIM(v_m,v')\]の降順で提示することができ,より精度の高い優先付けが期待できる.これは一見,システム利用者に過度の負担をかけるように見える.しかし,もし,最初からほぼ同じ事を意味していると思われる複数の共起表現$\tupple{n,c,v_1},\tupple{n,c,v_2},\cdots,\tupple{n,c,v_m}$を思い付かない場合は,まず,一つの共起表現を入力し,提示される比較的上位の候補動詞の中からそのような共起表現を指定することで,利用者に大きな負担をかけることなく実現できる.誤用・正用共起表現データを用いて行った今回の評価から,提案手法に基づいて共起表現に関する作文支援システムを構築する際には,上記で考察したように,使用する母語話者共起データの規模,および,システム利用者(日本語学習者)が入力する情報に関して課題があることがわかった.今回の評価では,誤用・正用共起表現データを作成する際,一つの誤用共起表現に対して一つの正用共起表現を適用した.しかし,実際の正用共起表現は一つとは限らず,候補中に正用として指定した動詞以外で適切なものが含まれていることが十分考えられる.実際,付録に示した判断が「○」のものは適切な代替動詞である.したがって,実際に学習者がシステムを使用する場合には,30位以内の候補に適切な代替動詞が含まれている割合は,今回求めたtop30accuracyよりも高いと期待される.
\section{おわりに}
学習者の作文中の誤用共起表現と正用共起表現を利用し,本研究の前提となる仮説の検証を行った.「誤用共起表現$\tupple{n,c,v}$の$v$との出現環境が類似している順に全動詞を並べた場合,$v$の代替動詞はその上位にある傾向にある」という仮説を検証することによって,本システムの信頼性が検証できた.さらに,実用化の見通しを立てるため,現在の規模のコーパスでシステムを構築した場合を想定した評価を行った.その結果,現状のコーパスでシステムを実用化した場合の問題点が明らかになった.しかし,今回の評価は,実際の正用動詞は誤用動詞に対して一つではないということを考えるとかなり厳しい評価であった.また,システム利用者が複数の動詞を入力するようにシステムの仕様を変更するならば,候補のより適切な順位付けができると期待される.提案手法に基づいた共起表現に関する作文支援システムは,候補を提示するだけで,その選択はシステム利用者に委ねられる.利用者がその選択を適切に行えるように,提示される代替共起表現候補が使われている例文を母語話者コーパスから抽出して提示する等の機能も必要であるが,それらの機能を利用して,利用者が適切な選択を行えるためには,そもそも利用者自身がある程度の日本語能力を持っている必要がある.\ref{システムの実用性}節で述べた課題を解決し,提案手法に基づいた作文支援システムを試作し,それを用いた日本語学習者を対象とする被験者実験により,どの程度の日本語能力のある学習者であれば,本作文支援システムが提供する機能を利用して,適切な共起表現の選択が行えるのかを調査する予定である.\acknowledgment本研究は,一部,財団法人博報児童教育振興会の助成を受けたものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{曹\JBA仁科}{曹\JBA仁科}{2006}]{曹}曹紅セン\JBA仁科喜久子\BBOP2006\BBCP.\newblock中国人学習者の作文誤用例から見る共起表現の学習及び教育への提言—名詞と形容詞及び形容動詞の共起表現について—.\\newblock\Jem{日本語教育},{\Bbf130},\mbox{\BPGS\70--79}.\bibitem[\protect\BCAY{Granger}{Granger}{1998}]{Granger}Granger,S.\BBOP1998\BBCP.\newblock{\BemPrefabricatedpatternsinadvancedEFLwriting:collocationsandformulae,inCowie,A.P.(ed.),Phraseology:Theory,Analysis,andApplications}.\newblockClarendonPress.\bibitem[\protect\BCAY{姫野}{姫野}{2004}]{姫野}姫野昌子\BBOP2004\BBCP.\newblock\Jem{日本語表現活用辞典}.\newblock研究社.\bibitem[\protect\BCAY{Hindle}{Hindle}{1990}]{Hindle}Hindle,D.\BBOP1990\BBCP.\newblock\BBOQNounClassificationfromPredicate-argumentStructures.\BBCQ\\newblockIn{\BemProceedingsofthe28thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\268--275}.\bibitem[\protect\BCAY{James}{James}{1998}]{James}James,C.\BBOP1998\BBCP.\newblock{\BemErrorsinLanguageLearningandUse:ExploringErrorAnaylsis}.\newblockLongman.\bibitem[\protect\BCAY{Kilgariff,Rychly,Smrz,\BBA\Tugwell}{Kilgariffet~al.}{2004}]{Kilgariff}Kilgariff,A.,Rychly,P.,Smrz,P.,\BBA\Tugwell,D.\BBOP2004\BBCP.\newblock\BBOQTheSketchEngine.\BBCQ\\newblockIn{\BemProceedingsofEURALEX},\mbox{\BPGS\105--116}.\bibitem[\protect\BCAY{小森}{小森}{2003}]{小森}小森早江子\BBOP2003\BBCP.\newblock英語を母語とする日本語学習者の語彙的コロケーションに関する研究.\\newblock\Jem{『第二言語としての日本語習得研究』},{\Bbf6},\mbox{\BPGS\33--51}.\bibitem[\protect\BCAY{長尾}{長尾}{1996}]{長尾}長尾真\BBOP1996\BBCP.\newblock\Jem{自然言語処理}.\newblock岩波書店.\bibitem[\protect\BCAY{Nishina\BBA\Yoshihashi}{Nishina\BBA\Yoshihashi}{2007}]{Nishina}Nishina,K.\BBACOMMA\\BBA\Yoshihashi,K.\BBOP2007\BBCP.\newblock\BBOQJapanesecompositionsupportsystemdisplayingexamplesentencesandco-occurence.\BBCQ\\newblockIn{\BemLKR2007},\mbox{\BPGS\76--83}.\bibitem[\protect\BCAY{白井\JBA孫}{白井\JBA孫}{1999}]{白井}白井英俊\JBA孫晨\BBOP1999\BBCP.\newblock誤用データベースに基づく誤用検出・訂正システム.\\newblock\Jem{『日本語学習者の作文コーパス:電子化による共有資源化』平成8年度$\sim$平成10年度科学研究費補助金基盤研究(A)研究成果報告書研究代表者:大曽美恵子(名古屋大学大学院国際言語文化研究科教授)}.\bibitem[\protect\BCAY{杉浦}{杉浦}{2001}]{杉浦}杉浦正利\BBOP2001\BBCP.\newblockコーパスを利用した日本語学習者と母語話者のコロケーション知識に関する調査.\\newblock\Jem{『日本語電子化試料収集・作成—コーパスに基づく日本語研究と日本語教育への応用を目指して—』平成12年度名古屋大学教育研究改革・改善プロジェクト報告書},\mbox{\BPGS\64--81}.\bibitem[\protect\BCAY{Summers}{Summers}{1988}]{Summers}Summers,D.\BBOP1988\BBCP.\newblock{\BemTheRoleofDictionariesinLanguageLearning,inCarter,R.\&MacCarthy,M.(eds.),VocabularyandLanguageTeaching},\mbox{\BPGS\111--125}.\newblockLongman.\bibitem[\protect\BCAY{鈴木}{鈴木}{2002}]{鈴木}鈴木智美\BBOP2002\BBCP.\newblock2000年度中級作文に見られる語彙・意味に関わる誤用:初中級レベルにおける語彙・意味教育の充実を目指して.\\newblock\Jem{東京外国語大学留学生センター論集},{\Bbf28},\mbox{\BPGS\27--42}.\bibitem[\protect\BCAY{滝沢}{滝沢}{1999}]{滝沢}滝沢直宏\BBOP1999\BBCP.\newblockコロケーションに関わる誤用:日本語学習者の作文コーパスに見られる英語母語話者の誤用例から.\\newblock\Jem{日本語学習者の作文コーパス:電子化による共有資源化』平成8年度$\sim$平成10年度科学研究費補助金基盤研究(A)研究成果報告書研究代表者:大曽美恵子(名古屋大学大学院国際言語文化研究科教授)},\mbox{\BPGS\77--89}.\end{thebibliography}\appendix
\section{誤用・正用共起表現対と出力例}
以下の誤用・正用共起表現対に対する出力例を表\ref{出力例}に示す.\begin{quote}この現象は世界の各国の人々に一つの合図をして,それは全世界がいっしょに禁煙の\underline{行動を開こ}う。(CN010)\begin{quote}誤用・正用共起表現対:($\tupple{行動,を,開く},\tupple{行動,を,起こす}$)\\\end{quote}\end{quote}出力例の類似度は0以上1以下となるように,以下に示す正規化を行っている.\begin{equation}SIM_{H}(開く,v')/SIM_{H}(開く,開く)\label{式:Norm}\end{equation}\begin{table}[t]\caption{入力「行動を開く」に対する出力例}\label{出力例}\input{02tableA1.txt}\end{table}\begin{biography}\bioauthor{中野てい子}{1986年立教大学理学部化学科卒業.2005年TempleUniversity.M.~S.Ed.(MasterofScienceinEducation)inTESOL.2007年東京工業大学大学院社会理工学研究科人間行動システム専攻修士課程修了.現在,九州大学大学院システム情報科学府知能システム学専攻博士後期課程.}\bioauthor{冨浦洋一}{1984年九州大学工学部電子工学科卒業,1989年同大学院工学研究科電子工学専攻博士課程単位取得退学.同年九州大学工学部助手,1995年同助教授,現在,九州大学大学院システム情報科学研究院准教授.博士(工学).自然言語処理,計算言語学に関する研究に従事.}\end{biography}\biodate\end{document}
| |
V14N03-01 | \section{まえがき}
「話し手は,迅速で正確な情報伝達や,円滑な人間関係の構築といった目的を果たすために,言語を使って自分の感情・評価・態度を表す」という考えは,言語の研究においてしばしば自明視され,議論の前提とされる.たとえば「あのー,あなたは失格,なんです」という発言は,単に聞き手の失格(命題情報)を告げるだけのものではない.「失格は,聞き手にとってよくないことだ」という話し手の評価や,「聞き手にとってよくないことを聞き手に告げるのはイヤだ,ためらわれる」といった話し手の感情・態度をこの発言から読みとることは,多くの場合,難しくない.また,このような話し手の評価や感情・態度を早い段階(たとえば冒頭部「あのー」の段階)で読みとることによって,聞き手は,その後に続く,つらい知らせを受け入れる(つまり迅速で正確な情報伝達を実現させる)ための心の準備ができる.さらに「話し手が発話をためらっているのは,自分に気を遣ってのことだ」と意識することは,話し手との人間関係にとってもプラスに働くだろう.これらの観察からすれば,「話し手は,迅速で正確な情報伝達や,円滑な人間関係の構築といった目的を果たすために,言語を使って自分の感情・評価・態度を表す」という考えは,疑問の生じる余地のない,この上なく正しい考えにも見える.だが,本当にそうだろうか?本稿は,話し手の言語行動に関するこの一見常識的な考え(便宜上「『表す』構図」と呼ぶ)が,日常の音声コミュニケーションにおける話し手の実態をうまくとらえられない場合があることを示し,それに代わる新しい構図(『する』構図)を提案するものである.データとして用いるのは,現代日本語の日常会話の音声の記録(謝辞欄に記した3つのプロジェクトによるもの)と,現代日本語の母語話者の内観である.コントロールされていない日常会話の記録をデータとしてとりあげるのは伝統的な言語学者や多くの情報処理研究者にはなじみにくいことかもしれないし,内観の利用も情報処理研究者や会話分析者には奇異に映るかもしれないが,最善のデータをめぐる議論はかんたんには決着がつかない.\pagebreakここでは,両者をデータとして併用している研究は他にも見られる(たとえばChafe1992:234を参照)とだけ述べておく.
\section{「表す」構図の問題点}
もっともらしい印象とは異なり,「表す」構図は,日常の音声コミュニケーションにおける話し手の言語行動の実態に合わないことがある.この節ではかんたんな事例と内観を適宜用いながら,この構図がはらむ3つの問題点を洗い出し,それに代わる新しい構図として「する」構図を提案したい.\subsection{目的論とソバ屋の出前持ち}「表す」構図の第1の問題点は,「表す」構図の目的論的性格である.「迅速で正確な情報伝達や,円滑な人間関係構築その他の目的を果たすために」という部分に見られるとおり,「表す」構図は「話し手の発言は何らかの目的の達成に向けられているはず」という目的論を前提としている.だが,この前提は常に妥当するわけではない.たとえば次のような,ソバ屋の出前持ちの事例を考えてみよう.これから出前に行くソバ屋の出前持ちが,うず高く積まれたソバざるをかつぐ際に「よっ」と言ったとする.続いて,そのソバざるをかついだまま自転車に乗って進み,よろけてバランスをとる際に「おっ」と言ったとする.さらにバランスをとりきれず,倒れていくソバざるを見ながら「あーっ」と言ったとする.このような出前持ちの「よっ」「おっ」「あーっ」発言は,別段,不自然なものではないだろう.これらの「よっ」「おっ」「あーっ」発言が,目的を達成するためになされたものとして絶対に説明できないというわけではない.たとえば,出前持ちがソバざるをかつぐ際に「よっ」と言ったのは「自分自身を鼓舞するため」であり,ソバざると自転車のバランスをとる際に「おっ」と言ったのは「きもちを引き締めるため」である.倒れていくソバざるを見ながら「あーっ」と言ったのは「自分のきもちを表現するため」である,という具合である.だが,そのような説明は,我々の日常感覚とはまったくかけ離れたものと言わざるを得ない.たとえば,ソバざると自転車のバランスをとるだけで無我夢中のはずの出前持ちが,その瞬間にも心内では「きもちの引き締め」といった目的の達成を意図している,という説明がリアルなものとは考えにくい.そもそも,出前という任務に集中しているはずの出前持ちが,ソバざるが倒れていく最後の一瞬まで「自分のきもちの表現」という内職に余念がないとは,おかしな考えではないだろうか.むしろ,出前持ちの発言「よっ」「おっ」「あーっ」は,目的意識を必ずしも伴わない,行動そのものの一部として考える方が実態に合っているのではないか.出前という一大任務を前にして若干の高揚状態に至った出前持ちは,出前の行動を言語も含めた全チャンネルでおこなった.「よっ」と言うのはソバざるをかつぐ行動の一部であり,「おっ」はバランスをとる行動の一部である.そして「あーっ」は倒れていくソバざるを見守る行動の一部である,と考えることが,上の「内職」問題などを生じさせないためには,必要なのではないか.話し手の言語行動を「表す」構図ではなく「する」構図でとらえるとは,このような考えを指す.\subsection{外部観察と狩人の知恵}「表す」構図がはらむ第2の問題点は,「表す」構図が当該のコミュニケーションの内部ではなく,外部からの観察に基づいているという点である.このことを具体的に示すために,クマを追う狩人の事例を取りあげてみよう.「このクマの足跡は,このクマがいま最高にうまいことを表している」という発言は,地面に残ったクマの足跡と,クマの肉の味の間に結びつきを見いだした狩人の発言としてなら,十分あり得る.だが,それはクマの外部に身を置く観察者の発言でしかない.狩人が語る,クマの足跡と肉の味との結びつきがたとえ正しいとしても,当のクマはそんなことは知らずに生きている可能性が高い.その場合,クマの足跡と肉の味との結びつきは,狩人の知恵ではあるが,クマ社会の日常を生きるクマのきもちを知ろうとする者にとっては真に重要な情報ではない.「このクマはこの足跡で,自分がいま最高にうまいことを表している」という発言についても,基本的に同じことが言える.先の発言と比べると,この発言は「このクマ」を主語に据えており,クマの意図を強く含意するのでそれだけ不自然だが,「このクマは(自分では気づかないうちに)この足跡で,自分がいま最高にうまいことを表している」のように意図性排除の語句(「自分では気づかないうちに」)を補ってやれば自然さは向上する.だが,そうした語句を補っても,この発言は狩人の発言として自然であるにすぎず,クマのきもちを述べた発言としては成り立たない.「表す」構図には「話し手は言語で,自分のきもち(感情・評価・態度)を表す」という考えが含まれている.発言の根底に話し手の意図を常に想定する目的論についてはすでに2.1節で問題点を指摘したが,より意図性を含意しない「話し手の言語は,話し手のきもち(感情・評価・態度)を表す」という形に置き換えてもやはり問題は残る.「このクマの足跡は,このクマがいま最高にうまいことを表している」という発言が狩人の知恵でしかないように,「話し手の言語は,話し手のきもちを表す」という考えは,本来,内部から論じなければならないきもちの問題に,外部の視点を持ち込んでいるのではないか(定延2005b).話し手の内部に視点を置いて,話し手のきもちを考えようとする時,言語はきもちを本当に「表して」いると言えるのか.むしろ,言語は「相手の目の前でやってみせる」行動ではないだろうか.\subsection{モノ的な言語観}「する」構図が,言語を行動とみなしていることは言うまでもない.それに対して「表す」構図は,「話し手の感情・評価・態度を表すために,話し手に使われる」モノ,つまり記号としての言語観を内包している.{\renewcommand{\baselinestretch}{}\selectfont記号としての言語観が,これまでに莫大な有益な研究成果を生みだしてきたことは否定し難い.だが,日常の音声コミュニケーションにおける言語の姿が本格的に追求され始めるにつれ,この言語観がさまざまな立場から問題視されていることも事実である.「言語行動を理解する上で言語能力と言語運用の区別はさほど重要ではない」,「言語とは動的なプロセスである」=C「言語を記号としてとらえ,意味と形式の対応を前提とする考えでは,談話における主語や目的語の分析に困難が生じてしまう」(DuBois2003:特に51,80)等々,モノ的な言語観から離れ,行動としての言語観に向かおうとする研究は枚挙にいとまがない.(記号的な言語観が,日常の音声コミュニケーションを離れたところでも根本的な問題をはらんでいることについてはたとえば定延2000を参照されたい.)そもそもコミュニケーションの中で「表される」モノであるはずのきもちが,実は「表情を帯びた身振り」(菅原2002)それじたいであるとしたら,我々がモノ的な言語観にこの上さらにとどまらなければならない根拠はどこにあるだろうか.記号的な言語観を疑問視するという点に関しては,本稿が提案する「する」構図は,いま挙げたフィルモア,チェイフ,デュ・ボワらの考え,あるいは多くの機能言語学者の考えと変わるものではないし,少なくとも現状において大きな意味を持つのは,これらの考えとの違いよりも共通性の方だと思われるが,違いがまったくないわけではない.「ハサミの機能は?」という質問には,「紙や布を切ること」などと,たやすく答えることができる.だが,「秋の日」や「山肌」「14才」の機能は答えにくい,あるいは答えられない.機能という概念は,いつでも無条件に設定できるわけではなく,基本的には,人間が何らかの目的を果たすために用いる道具にしか設定できない.「花びらの機能」が「ハサミの機能」よりも難しく,しかし少し考えれば「虫を惹きつけること」「おしべやめしべを守ること」などと答えられるのは,「植物は子孫繁栄という目的を持つ」「植物はこの目的を果たすために,自らの身体の一部である花びらを道具として用いる」ということが,事実ではないが,1つの見立てとして成り立つからだろう.}このような意味で,「言語の機能」というきわめてありふれたフレーズは,言語を目的論でとらえようとするものである.(定延2005a)Dそして,話し手自身の目ではなく,外部観察者の目からすれば,話し手の発話には,たいてい何らかのそれらしい目的を想定してしまえる以上,このような目的論の妥当性は,外部観察からすれば揺るぎないものに見える.本稿の「する」構図は,「言語の機能」概念の導入には慎重である.つまり,目的論の導入に対する慎重な姿勢,内部からの観察にこだわろうとする姿勢を鮮明にする点は,「する」構図の特徴と言ってよいだろう.
\section{あからさまに儀礼的なフィラー}
以上で洗い出した「表す」構図の問題点を,日常的な音声コミュニケーションに見られる現象の観察を通して,具体的に示してみよう.最初に取りあげるのは,筆者が「あからさまに儀礼的なフィラー」と呼ぶ一群のフィラーである(定延2002).「あ,すいません,このあたりに交番ありませんか?」とxに道を聞かれて,Yが「さー」と言ったとする.この直後に続くYの発話として「交番はあそこです」「ちょっとわかりません」「このへん交番はないですねー」のどれが自然か,という質問を,100名を超える大学生や大学教員におこなったところ,1名を除いて残り全員が「交番はあそこです」は不自然で,「ちょっとわかりません」「このへん交番はないですねー」だけが自然と回答した.(「さー,あっ,交番はあそこです」のように,驚きの「あっ」の挿入で「意外な展開」が演出された発話はこの質問の対象外であることに注意されたい.)また,実際の会話記録を調べても,「さー,交番はあそこです」に相当すると思えるデータはなかなか出てこない一方で,「さー,ちょっとわかりません」「さー,このへん交番はないですねー」に相当すると思えるデータは容易に見つかる.以上の観察は,「さー」というフィラーがどんな検討の場合にも現れるわけではなく,検討しても答が出ない場合(「さー,ちょっとわかりません」型の場合)や,検討の結果,望ましくない答が出てくる場合(「さー,このへん交番はないですねー」型の場合)にかぎって現れることを示している.つまり,「さー」は,検討してもダメな場合専用のフィラーである.「あからさまに儀礼的なフィラー」とは,このようなフィラーを指す.したがって,これから「さー」と言おうと口を開き舌を動かし始める段階で話し手はすでに,自分がこれからおこなう検討が,見込みのない検討だと知っている,ということになる.検討しても見込みがないと知っていることを「さー」で示しつつ,わざわざ検討することは,単純に考えれば時間の浪費か,相手に対する愚弄行為でしかないはずだが(実際,他言語を母語とする日本語学習者の中にはそのように感じる者もいる),日本語コミュニケーションの中でフィラー「さー」は丁寧な印象と結びついており,むしろ「さー」のない「ちょっとわかりません」「このへん交番はないですねー」の方がつっけんどんな印象を与えがちである.このことを理解するには,「さー」と言いつつ交番のありかを検討することは,「私がいまやっている検討は,やってもうまい結果が出る見込みのない検討です」と言いつつ交番のありかを検討することは違う,と考える必要がある.日本語社会において丁寧と位置づけられているのは,他人から「このあたりの交番を教えてほしい」などと頼み事をされたら,たとえ見込みがないと思っても,相手の目の前でダメもとでがんばってみせるという行動であり,「さー」はその行動の一部である.「さー」の検討が見込みのない検討であることを,話し手は「表し」てなどいない.それは外部から見た,狩人の知恵である.
\section{つっかえ}
単語をしゃべっている最中につっかえてしまうということはどんな言語の話者にもある.だが,そのつっかえ方が日本語には豊富にあり,つっかえ方によって態度が違う(定延,中川2005;定延2005c).たとえば,「最近テレビではやっているマンガあるでしょ,ほら」に続けて「どくろ仮面」と言おうとしたもののうまく思い出せずつっかえる場合なら,「ど,どくろ仮面?」(とぎれ型・語頭戻り方式),「ど,くろ仮面?」(とぎれ型・続行方式),「どーどくろ仮面?」(延伸型・語頭戻り方式),「どーくろ仮面?」(延伸型・続行方式)など,どれも自然で特に制限はない.だが,「これで街は壊滅じゃ.うわっはっはっ……」と悪の首領が笑っているところへ「そうはさせん!」とどくろ仮面の声が聞こえてきた場合,あわてふためく悪の首領が「その声は」に続けて言うセリフとしては,「ど,どくろ仮面!」(とぎれ型・語頭戻り方式)だけが自然で,「ど,くろ仮面!」「どーどくろ仮面!」「どーくろ仮面!」は自然ではない.より現実的な例を挙げれば,相手の子供が海外(たとえばカリフォルニア)に留学すると聞いて,それはまた大変な,すばらしいところへと儀礼的に驚いてみせる場合,「カ,カリフォルニアですか!」(とぎれ型・語頭戻り方式)は自然だが,「カ,リフォルニアですか!」(とぎれ型・続行方式),「カーカリフォルニアですか!」(延伸型・語頭戻り方式),「カーリフォルニアですか!」(延伸型・続行方式)は自然ではない.これらの例が示すように,驚いてモノの名を叫ぶ際のつっかえ方は,厳しく制限されている.また,店員が商品の在庫状況を考え考え客に語る際,「ざい,こ,は…」のようなとぎれ型は余裕のない新米店員風,「ざいーこーは…」のような延伸型は余裕があるベテラン店員風という具合に,つっかえ方は話し手の発話キャラクタの違いにも結びついている.「構造改革,うーを,進めるに,いーおいてですね」のような,とぎれ延伸型のつっかえ方も,「知識人」のキャラクタと結びついている.このように,一見したところでは単なる非流ちょうなまちがいに過ぎないつっかえには実はさまざまな型や方式があり,それらは話し手の態度や発話キャラクタと結びついている.このことじたいはもちろん興味深いことで,今後さらに調べていく必要があるが,ここで強調しておきたいのは,この結びつきがあくまで狩人の知恵だということである.話し手がこの狩人の知恵を利用して自己を演出する場合は多いかもしれないが,いつも必ずそうだというわけではない.「話し手はつっかえ方を選ぶことによって,自分の態度や発話キャラクタを見事に表している」という考え方は常には妥当しない.たとえば,どくろ仮面の出現に驚いたからといって,悪の首領が「ど,どくろかめん!」で驚きを表すという想定は自然なものとは思えない.首領にとっては,どくろ仮面の登場に自分が動揺し,驚いていることは,何よりも隠しておきたいことのはずである.「新米店員がつっかえ方を選ぶことで,自分は新米で余裕がないと表す」という想定にも同様の不自然さがつきまとう.高度な知識を客に問われて返答に窮するという失態は何としてもさらしたくないから,自分が頼りない店員だと積極的ににおわせて,ベテラン店員に乗り換えてもらう,といった場合はもちろんあるかもしれないが,いつも必ずそうだというわけではないだろう.単語を発音している最中につっかえてしまう多くの場合,話し手は,その単語をうまく最後まで発音したいと,それなりに一所懸命になっている.よりによってその局面で,話し手が「自分の態度や発話キャラクタの表現」という別の仕事に余念がないという想定が自然なものとは思われない.つっかえる話し手は多くの場合,つっかえたくてつっかえているのではない.話し手にとって,つっかえは「ヘタ」な「失敗」だということをはっきりさせておく必要がある.発話キャラクタや態度は,われわれがつっかえ方で「表す」ものではない.これらは我々が否応なしに日々「実践する」ものである.「言語にはスキル(うまい〜ヘタ)という概念が不可欠で,この概念を含まない言語モデルは破綻する」というデュリーの言葉の意味を(Durie1995:304,注3),我々は考えてみる必要があるのではないか.
\section{りきみ}
これまでの「感情音声」研究では,音声の高低・長短・強弱ばかりが取りあげられ,他の側面はほとんど注目されてこなかった.しかし,言語によっては声質(せいしつ,voicequality)の違いが音素なみに単語の識別に貢献する(したがって声質を特異なものと見るのは偏見に過ぎない)という認識が広まり(たとえばGordonandLadefoged2001:383),声質を処理する技術の開発と相俟って(CampbellandMokhtari2003),近年では声質と感情・態度の結びつきも積極的に考察され始めている.ここでは「りきみ」と呼ばれる(郡1989),日本語の声質の一つに目を向けてみよう.りきみは一般には強調表現と理解されているようだが,実例を見るとそれは必ずしも当たっていない.たとえば次の例では,下線を付けた,上司の提案に対する否定的な評価の部分がりきんで発せられている.\vspace{\baselineskip}なかなかでもほんとにたしかにーあの,意見を言うのは(笑),むずかしいですよねそのー上司とかがー,いてて・\underline{「いやーこれは,ちょっとやっぱりー良くないと思います」}ってのは,すごくー勇気がー要ります(笑).\vspace{\baselineskip}もしもりきみが強調を表すなら,下線部は上司の提案に対する強い否定になり,それだけ失礼な物言いになるはずだが,この録音を聞かせた10人の日本語話者は全員,このりきみに丁寧な印象を受けるとアンケート調査で回答している.このことからすれば,りきみは強調ではなく,恐縮(という一種の苦しみ)と結びついているということになる—だが,もっと重要なことは,上のりきみ発言が,「恐縮ですが」と前置きして上司の提案を朗々と批判することよりもはるかに丁寧だということである.もしもりきみが恐縮を「表す」なら,この違いは説明できない.りきみは恐縮を「表す」のではなく,恐縮という行動それじたいの一部である.りきみが単なる強調表現と考えられないことを示す例の中には,りきみが「体験者」の特権的行動であることをよく見せてくれるものがある.たとえば次のようなものである.\vspace{\baselineskip}でもそのあの脳ミソの構造ってどいなってんのやろなーあの忘れていくのんでも,\underline{私あれ恐}\linebreak\underline{怖やわー}\vspace{\baselineskip}このデータはなごやかな談笑会話の断片ではあるが,下線を付けた最後の部分「私あれ恐怖やわー」で話し手(Aとする)は,脳の老化に対する恐怖を吐露しており,この部分がりきんで発せられている.たとえば久しぶりに再会した恩師のボケぶりに愕然としたこと,入院している母親に「どちらさまですか?」と言われてしまったこと,自分の血筋が代々ボケる血筋で,あと十年もしたら自分もどうなっているかと折に触れ感じていること等々,これまでの人生で感じてきた,脳の老化に対する数々の恐怖が,一つ一つ具体的に語られてこそいないが,Aの心内ではここで改めて呼び起こされていると言ってよいだろう.ここで重要なことは,この発話を聞いた相手(B)が後日,別のところで第三者(C)を相手に話しても,同じところでりきめないということである.「ほら,年とってだんだん物忘れが激しくなって,ボケるってのあるじゃない.Aさんあれすごい恐怖だって」などと,BはCに対して「すごい」という語句を使って強調してしゃべることはできるが,Bは「Aさんあれ恐怖だって」をりきんで発することはできない.BはAと異なり,いま語られている恐怖の体験の当事者ではないからである(Sadanobu2004).では,過去の体験を語る時,体験者だけがなぜりきめるのか?この問題の解答は,「人は体験を語ることで,それをもう一度体験する」というラボフの言葉(Labov1972:354)で尽きているというのが筆者の考えである.過去の体験を語る話し手は,体験を「表す」わけではない.「表す」ことなら誰にでもできるはずである.体験者は過去の体験を「表す」のではなく,体験を(もちろん脚色・演出も含めて)「もう一度相手の前でやってみせる」.過去の苦しい体験(恐怖の体験もその一種である)を語るとは,たとえ全体としてはなごやかな談笑であっても,相手の前でもう一度苦しんでみせるということである.体験者だけがりきめるのは,りきみが苦しみ行動それじたいの一部だからである.なお,りきみは苦しみだけでなく,感心と結びつくこともある.「カール・パーキンズのレコードって集めるの大変なんだけど,これがまたいいんだよねー」という1つの文をしゃべる話し手の声が,「集めるの大変なんだけど」の部分で苦しくりきまれ,「これがまたいいんだよんねー」の部分で明るくりきまれる,といったことは日常めずらしくない.話し手はこの声で何を表しているのか?いままで述べてきたことが正しければ,話し手はこの声で何も「表し」てはおらず,もう一度体験をしてみせている.「集めるの大変なんだけど」の部分ではレコード収集の苦しい体験をしてみせており,「これがまたいいんだよんねー」の部分では鑑賞の嬉しい感心体験をしてみせている.これらのりきみは,それぞれの体験の一部である.
\section{むすび〜個人と共同体の間}
「ちょっとわかりません」の前の「さー」のように,フィラーがある方が発話が丁寧で,フィラーがない方がつっけんどんで印象が悪いという場合がある(第3節).つっかえ方にもいろいろな型や方式あり,たとえば驚いてモノの名前を叫ぶ場合はとぎれ型・語頭戻り方式という具合に,それぞれの態度によってつっかえ方が決まっている(第4節).声質も同様で,「普通」の声質よりもりきんだ声質の方が恐縮という態度と結びつき,発話が丁寧になる場合がある\linebreak(第5節).これらの観察はともすれば,「話し手は自分のきもちに応じて,フィラー・つっかえ方・声質を使い分けている」という考えを正しく見せる.だが,本稿がこの考えに満足するものではないということも,これまで述べてきたことから明らかだろう.フィラーやつっかえ,声質は,行動それじたいであって,「使い分け」の対象になるようなモノではない.そもそも,「使い分け」という目的論的な行動は外部者の見立てであって,話し手が常にそのようなふるまいに出るわけではない.たとえば,どくろ仮面の思わぬ登場に動揺した悪の首領が,自らの動揺を表すために,専用のつっかえ方を選ぶといった想定は不自然である.それはちょうど,「カメレオンの祖先は,体表を周囲の色と同化させる,保護色という進化の道を選んだ」という生物学的なレトリックを,「カメレオンの祖先の一匹一匹が進化という概念を理解しており,自分たちにどういう進化の選択肢があるかを把握した上で,その中から保護色という進化の道を『選んだ』」と受け取ることが不自然であるのと同じことである.言語共同体レベルで,きもちと,フィラー・つっかえ方・声質の間に結びつきが観察されたとしても,それを個々の状況における個々の話し手の「使い分け」と考えてよいわけではない.しかしながら,言語共同体レベルで観察されるそれらの結びつきが,話し手一人一人の個別的行動と無関係に存在するはずもない.そして,これまでの多くの言語研究が,言語共同体レベルの結びつきばかりを重視し,個人の個別的行動を軽視〜無視する傾向にあったということは否めない(定延,中川2005).では,言語共同体レベルのそれらの結びつきと,個人の個別的行動とは,どのようにつながっているのだろうか?この問題を考える上で,ギヴォンやホッパーらの談話語用論(DiscoursePragmatics)と呼ばれる学派の考えは,きもちと,フィラー・つっかえ方・声質との結びつきに特化したものではないが,有益なものである.筆者の理解によれば,談話語用論は,個人の個別的行動こそ言語共同体における言語慣習(文法)の源だと考えている.数限りない個別の日常的談話の中で,繰り返し生じる単語列のパターンが,やがて文型になり,文法として立ち上がる(つまり「文法化する」).個別的な談話で話し手が何事かを1回しゃべるたびに,発せられた語列が文法へと近づく,という形で,談話語用論は文法を談話からとらえ直そうとしている.「文法というものはない.あるのは文法化だけだ」というホッパーの発言は(Hopper1987),このことをよく表している.但し,個々の談話から,どのように言語慣習が立ち上がるかについて,これまで提出されているアイデアは「頻度」1つしかない.つまり,個別的な談話において何度も繰り返し生じる言い方が共同体の言語慣習となり,あまり生じない言い方は言語慣習とならないという考えである.この考えは不自然なものではないと思うが,考えるべきことは頻度以外にもあるのではないか.たとえば,終助詞「わ」の女性専用の用法は,実際の会話ではほとんど観察されなくなってきている(尾崎1999を参照).だが,女性専用の「わ」がドラマや映画,小説の言語に現れることは今でも珍しくない.女性専用の「わ」でかもしだされるキャラクタが(たとえば,あまりに女性らしさを強調しているなどの理由で)魅力あるものに映らなければ,「わ」に頻繁にさらされても使わないという女性話者の「選り好み」がここには見て取れる.個人の個別的行動と言語共同体レベルの言語慣習をつなぐには,出現頻度だけでなく,たとえば「かっこよく/強そうに/かわいく/セクシーに/知的に/まじめにふるまいたい」,逆に「かっこわるく/弱々しく/醜く/野暮ったく/馬鹿者として/不誠実にふるまいたくない」といった,日々のコミュニケーションを生きる個々人の欲(思い,思惑,打算など)と発話キャラクタ(定延2006)に着目する必要があるのではないだろうか.\acknowledgment本稿は,言語処理学会第12回年次大会併設ワークショップ(W1)「感情・評価・態度と言語」(2006年3月17日,於慶應義塾大学)での招待講演をもとにしている.講演のために金田純平氏・中川明子氏(ともに神戸大学大学院総合人間科学研究科)の技術的協力を得たこと,講演後,会場内外で多くの方から有益なコメントを頂いたことを記して謝意を表したい.なお本稿は,日本学術振興会の科学研究費補助金による基盤研究(A)「日本語・英語・中国語の対照にもとづく,日本語の音声言語の教育に役立つ基礎資料の作成」(課題番号:16202006,研究代表者:定延利之),総務省の戦略的情報通信研究開発推進制度(SCOPE,課題番号:041307003,研究代表者:ニック・キャンベル),科学技術振興機構(JST)による戦略的創造研究推進事業(CREST),「表現豊かな発話音声のコンピュータ処理システム」(研究代表者:ニック・キャンベル)の成果の一部である.\nocite{*}\bibliographystyle{jnlpbbl_1.2}\begin{thebibliography}{}\bibitem[\protect\BCAY{Campbell\BBA\Mokhtari}{Campbell\BBA\Mokhtari}{2003}]{Nick2003}Campbell,N.\BBACOMMA\\BBA\Mokhtari,P.\BBOP2003\BBCP.\newblock\BBOQVoicequality:the4thprosodicdimension\BBCQ\\newblock{\BemProceedingsofthe15thInternationalCongressofPhoneticSciences'03},\mbox{\BPGS\2417--2420}.\bibitem[\protect\BCAY{Chafe}{Chafe}{1992}]{Wallace1992}Chafe,W.\BBOP1992\BBCP.\newblock\BBOQImmediacyanddisplacementinconsciousnessandlanguage\BBCQ\\newblock{\BemInStein,Dieter(ed.),CooperatingwithWrittenTexts:ThePragmaticsandComprehensionofWrittenTexts,Berlin;NewYork:MoutondeGruyter},\mbox{\BPGS\231--255}.\bibitem[\protect\BCAY{Chafe}{Chafe}{2001}]{Wallace2001}Chafe,W.\BBOP2001\BBCP.\newblock\BBOQTheanalysisofdiscourseflow\BBCQ\\newblock{\BemInSchiffrin,Deborah,Tannen,Deborah,andHamilton,HeidiEhernberger(eds.),TheHandbookofDiscourseAnalysis,Blackwell},\mbox{\BPGS\673--687}.\bibitem[\protect\BCAY{{DuBois}}{{DuBois}}{2003}]{DuBois2003}{DuBois},J.~W.\BBOP2003\BBCP.\newblock\BBOQDiscourseandgrammar\BBCQ\\newblock{\BemInTomasello,Michael(ed.),TheNewPsychologyofLanguage:CognitiveandFunctionalApproachestoLanguageStructure,Mahwah,NewJersey:LawrenceErlbaum},{\Bbf2},\mbox{\BPGS\47--87}.\bibitem[\protect\BCAY{Durie}{Durie}{1995}]{Mark1995}Durie,M.\BBOP1995\BBCP.\newblock\BBOQTowardsanunderstandingoflinguisticevolutionandthenotion``XhasafunctionY''\BBCQ\\newblock{\BemAmraham,Werner,Giv\'on,Talmy,andThompson,SandraA.(eds.),DiscourseGrammarandTypology:PapersinHonorofJohnW.M.Verhaar,Amsterdam/Philadelphia:JohnBenjamins},\mbox{\BPGS\275--308}.\bibitem[\protect\BCAY{Fillmore}{Fillmore}{1978}]{Charles1978}Fillmore,C.~J.\BBOP1978\BBCP.\newblock\BBOQOnfluency\BBCQ\\newblock{\BemFillmore,CharlesJ,Daniel,KemplerandWilliamS-Y.Wang(eds.),IndividualDifferencesinLanguageAbilityandLanguageBehavior,NewYork:AcademicPress},\mbox{\BPGS\85--101}.\bibitem[\protect\BCAY{Gordon\BBA\Ladefoged}{Gordon\BBA\Ladefoged}{2001}]{Matthew2001}Gordon,M.\BBACOMMA\\BBA\Ladefoged,P.\BBOP2001\BBCP.\newblock\BBOQPhonationtypes:across-linguisticoverview\BBCQ\\newblock{\BemJournalofPhonetics},{\Bbf29},\mbox{\BPGS\383--406}.\bibitem[\protect\BCAY{Hopper}{Hopper}{1987}]{PaulJHopper1987}Hopper,P.~J.\BBOP1987\BBCP.\newblock\BBOQEmergentgrammar\BBCQ\\newblock{\BemBLS13},\mbox{\BPGS\139--157}.\bibitem[\protect\BCAY{Labov}{Labov}{1972}]{William1972}Labov,W.\BBOP1972\BBCP.\newblock{\BemLanguageintheInnerCity:StudiesintheBlackEnglishVernacular}.\newblockPhiladelphia:UniversityofPennsylvaniaPress.\bibitem[\protect\BCAY{Sadanobu}{Sadanobu}{2004}]{Sadanobu2004}Sadanobu,T.\BBOP2004\BBCP.\newblock\BBOQAnaturalhistoryofJapanesepressedvoice\BBCQ\\newblock{\BemJournalofthePhoneticSocietyofJapan(OnseiKenkyu)},{\Bbf8}(1),\mbox{\BPGS\29--44}.\bibitem[\protect\BCAY{郡史郎}{郡史郎}{1989}]{郡1989}郡史郎\BBOP1989\BBCP.\newblock\JBOQ強調とイントネーション\JBCQ\\newblock\Jem{杉藤美代子(編),『日本語の音韻・音声(上)』,明治書院},\mbox{\BPGS\316--342}.\bibitem[\protect\BCAY{定延利之}{定延利之}{2000}]{定延2000}定延利之\BBOP2000\BBCP.\newblock\Jem{認知言語論}.\newblock大修館書店.\bibitem[\protect\BCAY{定延利之}{定延利之}{2005a}]{定延2005b}定延利之\BBOP2005a\BBCP.\newblock\JBOQ「表す」感動詞から「する」感動詞へ\JBCQ\\newblock\Jem{『言語』{\unskip}},{\Bbf34}(11),\mbox{\BPGS\33--39}.\bibitem[\protect\BCAY{定延利之}{定延利之}{2005b}]{定延2005c}定延利之\BBOP2005b\BBCP.\newblock\Jem{ささやく恋人,りきむレポーター—口の中の文化—}.\newblock岩波書店.\bibitem[\protect\BCAY{定延利之}{定延利之}{2006}]{定延2006}定延利之\BBOP2006\BBCP.\newblock\JBOQことばと発話キャラクタ\JBCQ\\newblock\Jem{『文学』,岩波書店},{\Bbf7}(6),\mbox{\BPGS\117--129}.\bibitem[\protect\BCAY{定延利之\JBA中川明子}{定延利之\JBA中川明子}{2006}]{定延・中川2006}定延利之\JBA中川明子\BBOP2006\BBCP.\newblock\JBOQ非流ちょう性への言語学的アプローチ:発音の延伸・とぎれを中心に\JBCQ\\newblock\Jem{串田秀也・定延利之・伝康晴(編),『文と発話1:活動としての文と発話』,ひつじ書房},\mbox{\BPGS\209--228}.\bibitem[\protect\BCAY{定延利之}{定延利之}{2002}]{定延2002}定延利之\BBOP2002\BBCP.\newblock\JBOQ「うん」と「そう」に意味はあるか\JBCQ\\newblock\Jem{定延利之(編),『「うん」と「そう」の言語学』,ひつじ書房},\mbox{\BPGS\75--112}.\bibitem[\protect\BCAY{定延利之}{定延利之}{2005}]{定延2005a}定延利之\BBOP2005\BBCP.\newblock\JBOQ「雑音」の意義\JBCQ\\newblock\Jem{『言語』{\unskip}},{\Bbf34}(1),\mbox{\BPGS\30--37}.\bibitem[\protect\BCAY{菅原和孝}{菅原和孝}{2002}]{菅原2002}菅原和孝\BBOP2002\BBCP.\newblock\Jem{感情の猿=人}.\newblock弘文社.\bibitem[\protect\BCAY{尾崎喜光}{尾崎喜光}{1999}]{尾崎1999}尾崎喜光\BBOP1999\BBCP.\newblock\JBOQ女性専用の文末形式のいま\JBCQ\\newblock\Jem{現代日本語研究会(編),『女性のことば・職場編』,ひつじ書房},\mbox{\BPGS\33--58}.\end{thebibliography}\begin{biography}\bioauthor{定延利之(非会員){\unskip}}{1962年生.85年京都大学法学部,87年文学部文学科卒.98年同大学大学院文学研究科博士課程修了.博士(文学).神戸大学大学院国際文化学研究科教授.言語とコミュニケーションの研究に従事.}\end{biography}\biodate\end{document}
| |
V15N02-04 | \section{はじめに}
\label{sec:intro}言い換えとは,ある言語表現を意味が等価な別の言語表現に変換する処理のことである.自然言語処理においては,言い換えはさまざまな応用をもっており,例えば,情報検索,機械翻訳,文章作成支援,文章読解支援などに応用されることが期待されている.\begin{table}[b]\caption{日本語表現の分類}\label{tab:classWord}\input{04table01.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{15-2ia4f1.eps}\caption{内容表現の言い換えと機能表現の言い換えを組み合わせた幅広い言い換え}\label{fig:phrasal}\end{center}\end{figure}日本語表現の言い換えは,これまで多くの研究者によって研究されてきた\shortcite{Inui2004}.これらの研究のほとんどは,内容語や複合語に関するものであり,例えば,複合名詞の言い換えに関する研究\shortcite{Sato1999,Kimura2002}や動詞句の言い換えに関する研究\shortcite{Kaji2004,Furihata2004}などがある.日本語の表現は,内容的・機能的という観点から,おおきく2つに分類できる.さらに,「表現を構成する語の数」という観点を加えると,表~\ref{tab:classWord}のように分類できる.ここで,{\bf複合辞}とは,「にたいして」や「なければならない」のように,複数の語から構成されているが,全体として1つの機能語のように働く表現のことである.われわれは,機能的というカテゴリーに属する機能語と複合辞を合わせて{\bf機能表現}と呼ぶ.内容表現の言い換えに関する研究に比べて,機能表現の言い換えに関する研究は著しく少ない.ほとんどすべての文および文節には,1つ以上の機能表現が含まれているのであるから,日本語表現を幅広く言い換えるためには,図~\ref{fig:phrasal}に示されるように,内容表現だけでなく,機能表現も言い換えることが重要である.このような理由により,本論文では,機能表現の言い換えに焦点をあてる.日本語の機能表現が持つ主な特徴は,各々の機能表現が多くの形態的異形を持っているということである.それぞれの異形は,常体,敬体,口語体,堅い文体という4つの文体のいずれかをとる.例えば,「なければならない」の異形には,「なくてはならない」,「なければなりません」,「なけりゃならない」,「ねばならん」などがあり,これら4つの表現の文体はすべて異なっている.これらの表現の文体は,順に,常体,敬体,口語体,堅い文体である.機能表現を言い換えるシステムは,言い換え先の機能表現の文体を制御できることが求められる.なぜならば,1つの文章においては,原則として,一貫して1つの文体を使い続けなければならないからである.例えば,文体が常体である文章においては,「なければなりません」や「にたいしまして」などの敬体の表現や,「なけりゃならない」や「とは言ったって」などの口語体の表現を使うことはできない.しかしながら,先行研究において提案されているいずれの機能表現言い換えシステムも,言い換え先の機能表現の文体を制御できる機構を持っていない.機能表現言い換えシステムが機能表現$f$を異なる機能表現$f^\prime$に言い換える場合,潜在的には$f^\prime$のすべての異形を生成できることが望まれる.なぜならば,この要請を満たすシステムは,文章作成支援などの応用において,多数のさまざまな言い換え候補を利用者に提示することができるからである.このようなシステムは,例えば,「見てくれるか」という入力に対して,「てもらえる」を含む言い換え候補として「見てもらえるか」だけでなく,「見てもらえないか」,「見てもらえませんか」,「見てはもらえないでしょうか」など,多くの興味深い言い換え候補を出力することができる.しかしながら,先行研究における機能表現言い換えシステムは,体系的に異形を扱っていないため,上記の要請を満たしていない.文章読解支援や文章作成支援などの応用においては,機能表現を言い換えるときに,言い換え先の機能表現の難易度(理解しやすさ)を制御できることが求められる.なぜならば,機能表現は,文の構造や意味を決定する重要な要素であるからである.文中に知らない機能表現が用いられていた場合,おそらく,読者は,その文の意味を正確に理解することができないだろう.難しい機能表現をやさしい機能表現へ言い換えることができれば,読者がその機能表現を知っており,文の意味を正しく理解することができることが期待される.先行研究において,機能表現の難易度を考慮したものは,土屋らの研究\shortcite{Tsuchiya2004}と本田らの研究\shortcite{Honda2007}のみである.土屋らは,機能表現をやさしく言い換えるための規則を半自動的に生成する手法と,その規則に基づいて機能表現を言い換えるシステムを提案している.本田らは,意味的に等価な機能表現の各々のクラスに対して,それぞれ1つの代表表現を定義することにより,機能表現を分かりやすい表現に言い換える手法を提案している.機能表現をやさしく言い換える場合,読者にふさわしい難易度の表現に言い換えることが望ましい.なぜならば,よりやさしい機能表現(典型的には,助詞)は,複数の意味を持っている傾向があるからである.必要以上にやさしく言い換えた場合,生成されたテキストが意味的に曖昧になってしまうおそれがある.これらの先行研究において提案されている言い換えシステムは,例えば,日本語初級者用や日本語中級者用などといった,難易度指定に応じて言い換えを行なうことはできない.機能表現を,文体指定や難易度指定を満たす,意味的に等価な機能表現に言い換える処理は,次の2つの変換の組み合わせによって実現することができる.\begin{enumerate}\item機能表現を意味的に等価な機能表現に変換する\item機能表現をその異形に変換する\end{enumerate}前者において,難易度指定を満たす機能表現のみを言い換え候補に採用し,後者において,文体指定を満たす異形のみを言い換え候補に採用すれば,目的の言い換えを達成することができる.本論文では,形態階層構造と意味階層構造を持つ機能表現辞書を用いることにより,文体と難易度を制御しつつ,日本語機能表現を言い換える手法を提案する.前者の階層構造は,各々の機能表現に対して,すべての異形のリストを提供する.それぞれの異形には,文体の情報が記述されている.このリストは,上記の(2)の変換に必要である.後者の階層構造は,機能表現の意味的等価クラスを提供する.クラス内のそれぞれの機能表現には,難易度が付与されている.この意味的等価クラスは,上記の(1)の変換に必要である.本論文は,以下のように構成される.まず,第2章で,形態階層構造と意味階層構造を持つ機能表現辞書について説明する.次に,第3章で,本論文で提案する機能表現の言い換え手法を述べる.第4章で,実装した機能表現言い換えシステムについて説明し,続く第5章において,その評価を行なう.第6章で,関連研究について述べ,最後に,第7章でまとめを述べる.
\section{2つの階層構造を持つ機能表現辞書}
\label{sec:dic}\subsection{形態階層構造}\label{subsec:morph}日本語の機能表現が持つ主な特徴の1つは,個々の機能表現に対して,多くの{\bf異形}が存在することである.例えば,「なければならない」に対して,「なくてはならない」,「なくてはならず」,「なければなりません」,「なけりゃならない」,「なければならぬ」,「ねばならん」など,多くの異形が存在する.このような異形をつくり出す過程は,次の7カテゴリーに分類することができる\shortcite{Matsuyoshi2007}.\begin{quote}派生,機能語の交替,音韻的変化,とりたて詞\shortcite{Numata1986}の挿入,活用,「です/ます」の有無,表記のゆれ\end{quote}松吉らは,これらの言語現象による機能表現の異形を階層構造を用いて分類し,機能表現辞書を編纂した\shortcite{Matsuyoshi2007}.本論文では,機能表現の\textbf{形態階層構造}として,彼らの階層構造を採用する.形態階層構造の概要を表~\ref{tab:morph}に示す.この階層構造は9つの階層を持つ.$L^3$から$L^9$の階層が,上で列挙した異形のカテゴリーのそれぞれに対応する.これらの階層の上に,見出しレベルとして$L^1$,語義を区別した見出しレベルとして$L^2$が定義されている.形態階層構造の各階層における機能表現の数を,表~\ref{tab:morph}の「表現数」の欄に示す.見出し語に相当する$L^1$の機能表現の数は341であり,出現形に相当する$L^9$の機能表現の数は16,801である.\begin{table}[t]\caption{形態階層構造の9つの階層}\label{tab:morph}\input{04table02.txt}\end{table}機能表現の出現形($L^9$の機能表現)には,階層構造における位置を表す機能表現IDが付与されている.この機能表現IDは9つの部分からなる.IDの各部分は,階層構造のそれぞれの階層における階層IDである.それぞれの出現形に付与された機能表現IDから,階層構造におけるその出現形の位置や,その上位の階層の機能表現(例えば,$L^2$の機能表現)を容易に知ることができる.機能表現ID以外に,機能表現の出現形には,文体や左接続・右接続(隣に接続可能な形態素)などの情報も記述されている.本論文では,機能表現を言い換えるにあたり,これらの情報を利用する.\subsection{意味階層構造}\label{subsec:semantic}現在,誰もが言い換えに利用することができる,日本語機能表現の意味的等価クラスの集合は存在しない.機能表現に関する文献や辞書\shortcite{Morita1989,Tomomatsu1996,dosj,Matsuyoshi2007}に記述されている意味的等価クラスは,分類の粒度が粗いので,言い換えに直接利用することはできない.一方,自然言語処理において,言い換えのために定義された機能表現の意味的等価クラスの集合\shortcite{Tanabe2001,Shudo2004}が存在するが,これらは一般公開されていない.言い換えのための機能表現の意味的等価クラスとして,われわれは,形態階層構造における$L^2$の機能表現435表現に対して,3つの階層を持つ\textbf{意味階層構造}を作成した.この階層構造の作成にあたっては,「日本語表現文型」\shortcite{Morita1989}における機能表現に関する説明文と用例を参考にし,言い換え可能性の観点から,$L^2$の機能表現集合にあらかじめ定義されていた89の意味的等価クラス\shortcite{Matsuyoshi2007}を見直し,その再編成を行なった.主に,次の2つのことを行なった.\begin{enumerate}\item\textbf{下位区分}同じ意味的等価クラスに属する複数の機能表現を,言い換え可能性の観点からいくつかのグループにまとめ,元のクラスに下位クラスを定義した.例えば,松吉らの機能表現辞書\shortcite{Matsuyoshi2007}において,〈推量〉という意味的等価クラスには,次の15の機能表現が属している.\begin{quote}かもしれない,かもわからない,にちがいない,にきまっている,にそういない,にほかならない,ところ,ことだろう,のだろう,みたい,よう,らしい,だろう,う,うる\end{quote}これらの表現はすべて,推量や推定を意味する機能表現である.しかしながら,それらの間の言い換え可能性は一様ではない.例えば,「かもしれない」と「かもわからない」は,ほとんどすべての文脈において言い換え可能であると思われるが,その一方で,「かもしれない」と「にちがいない」は,これらが言い換え可能な文脈は先の2つの表現よりも限られると思われる.他の表現対に対しても同様の考察を行ない,〈推量〉という意味的等価クラスを,図~\ref{fig:class}のように下位区分した.\begin{figure}[b]\begin{center}\includegraphics{15-2ia4f2.eps}\caption{〈推量〉という意味的等価クラスの下位区分}\label{fig:class}\end{center}\end{figure}\item\textbf{下位クラス化}属している機能表現の数が少数である意味的等価クラスを,その上位の意味を表す意味的等価クラスの下位クラスとして再定義した.これは,前者に属する機能表現に対して,それが言い換え可能な機能表現の数を増やすためである.例えば,松吉らの機能表現辞書において,〈最中〉という意味的等価クラスには,1つの機能表現「つつある」しか属していないので,この機能表現に対して,それと言い換え可能な($L^2$の)機能表現を得ることはできない.一方,「つつある」は,〈継続〉という意味的等価クラスに属する「ている」や「ていく」などの機能表現と,多くの文脈において言い換え可能である.そこで,〈最中〉という意味的等価クラスを,〈継続〉という意味的等価クラスの下位クラスとして再定義した.これにより,上位のクラスを用いた場合,「つつある」に対して,言い換え可能な機能表現として,「ている」や「ていく」などの表現を提示することができる.\end{enumerate}このような再編成を経て,最終的に3階層の意味階層構造を構築した.意味階層構造の大半において,各階層の1つの意味的等価クラスに属する機能表現は,表~\ref{tab:semantic}の「1つのクラスに属する機能表現」の欄に示す性質を持っている.各階層における意味的等価クラスの数とそれらに付与したクラスIDの形式を,それぞれ,表~\ref{tab:semantic}の「クラス数」と「クラスID」の欄に示す.最も上位の階層(Top)における意味的等価クラスの数は45であり,最も下位の階層(Bottom)における意味的等価クラスの数は199である.\begin{table}[t]\caption{意味階層構造の3つの階層}\label{tab:semantic}\input{04table03.txt}\end{table}一般に,1つの意味的等価クラスには,異なる難易度を持つ複数の機能表現が属している.例えば,ある意味的等価クラスには,「とどうじに」や「たとたんに」のようなやさしい機能表現から,「やいなや」や「がはやいか」のような難しい機能表現まで,さまざまな難易度の機能表現が属している.形態階層構造の$L^2$の機能表現には,「日本語能力試験出題基準」\shortcite{nouryoku}の級に基づいた難易度が付与されている\shortcite{Matsuyoshi2007}.この難易度は,A1,A2,B,C,Fの5段階であり,A1が一番やさしい.本論文では,難易度指定に応じた機能表現の言い換えを実現するために,この情報を利用する.\subsection{指定を満たすすべての出現形の列挙}\label{subsec:enumerate}形態階層構造と意味階層構造を持つ機能表現辞書を用いると,与えられた機能表現の出現形に対して,文体指定と難易度指定を満たす,意味的に等価な機能表現のすべての出現形を列挙することができる.この手続きは,次のとおりである.\begin{enumerate}\item形態階層構造において,与えられた出現形の上位の$L^2$の機能表現を見つける\item意味階層構造において,その機能表現を含む意味的等価クラスを見つけ,そこに属する機能表現の集合を得る\itemその集合から,難易度指定を満たさない機能表現を排除する\item形態階層構造に基づき,集合内の各機能表現に対して,そのすべての異形(出現形)を列挙する\item得られた出現形のリストの中から,文体指定を満たさない出現形を排除する\end{enumerate}上の(2)の集合には,与えられた出現形の異形を出力するために,その上位の$L^2$の機能表現も含まれる.計算機上では,上記の手続きは,出現形を表す機能表現IDと意味的等価クラスを表すクラスIDを用いて実行される.例として,「や否や」と意味的に等価な機能表現の出現形のうち,A1,A2,Bのいずれかの難易度を持つものを列挙する.まず,形態階層構造において,出現形「や否や」の上位の$L^2$の機能表現『やいなや』を見つける.次に,意味階層構造において,『やいなや』を含む意味的等価クラスを見つける.このクラスに属する機能表現の集合は,次のとおりである.\begin{quote}『とどうじに』,『とすぐに』,『たとたんに』,『そばから』,『なり』,『やいなや』,『がはやいか』,『や』\end{quote}この集合から,設定された難易度指定を満たさない『そばから』,『なり』,『やいなや』,『がはやいか』,『や』を排除する(難易度は,それぞれ,C,C,C,F,F).最後に,形態階層構造に基づき,残った『とどうじに』,『とすぐに』,『たとたんに』のすべての出現形計20表現を,次のように列挙する.\begin{quote}「とどうじに」,「と同時に」,「とすぐに」,「とすぐ」,「たとたん」,「だとたん」,「たとたんに」,「た途端に」,$\cdots$\end{quote}
\section{本論文で提案する機能表現の言い換え手法}
\label{sec:formulation}\subsection{入力表現の単位}\label{subsec:unit}本論文では,言い換え元の入力表現の単位として,文節を採用する.その理由は,文節は,機能表現を含む最も基本的な文構成単位であるからである.本論文で扱う文節は,いわゆる形式文節ではなく,機能表現を考慮して拡張された文節であり,以下のように定義する.$c_i$を内容語,$f_j$を機能表現とおく.このとき,文節を次のように定式化する.\begin{eqnarray}\mbox{文節}=c_1c_2\cdotsc_mf_1f_2\cdotsf_n\label{eq:phrase}\end{eqnarray}文節内の$c_1c_2\cdotsc_m$を文節の内容語部,$f_1f_2\cdotsf_n$を文節の機能語部と呼ぶ.例えば,「決定せざるをえないので」は,1つの文節である.このとき,$c_1=$「決定」,$c_2=$「せ」,$f_1=$「ざるをえない」,$f_2=$「ので」であり,内容語部は「決定せ」,機能語部は「ざるをえないので」である.本論文では,入力文節の機能語部に存在する機能表現を言い換えることにより,入力文節に対する代替表現を生成する.\subsection{予備調査:人間による機能表現の言い換え}\label{subsec:closedlist}機能語部の機能表現の言い換えは,原理的に,次の5種類の言い換えの組み合わせによって達成される(以下,文節例において,内容語部と機能語部の境界,および,機能表現と機能表現の境界に``/''を挿入する).\begin{description}\item[1$\rightarrow$1]機能表現を別の機能表現に置換する($f\rightarrowf^\prime$)例)「聞く/\underline{や否や}」$\rightarrow$「聞く/\underline{とすぐに}」\item[1$\rightarrow$N]機能表現を機能表現列に置換する($f\rightarrowf_1^\primef_2^\prime\cdotsf_N^\prime$)例)「雨/\underline{にもかかわらず}」$\rightarrow$「雨/\underline{な/のに}」\item[N$\rightarrow$1]機能表現列を1つの機能表現に置換する($f_1f_2\cdotsf_N\rightarrowf^\prime$)例)「行か/\underline{なければならない/ことはない}」$\rightarrow$「行か/\underline{なくてよい}」\item[M$\rightarrow$N]機能表現列を別の機能表現列に置換する($f_1f_2\cdotsf_M\rightarrowf_1^\primef_2^\prime\cdotsf_N^\prime$)例)「会っ/\underline{た/わけではない}」$\rightarrow$「会わ/\underline{なかっ/た}」\item[f$\Rightarrow$c]機能表現(列)を内容語を含む表現に置換する例)「行く/\underline{までもない}」$\rightarrow$「行く/{\kern-0.5zw}/\underline{必要/は/{\kern-0.5zw}/ない}」(``/{\kern-0.5zw}/''は,文節境界を表す)\end{description}機能表現の言い換えを定式化するにあたり,予備調査として,人間が機能表現を言い換える場合,これらの5種類の言い換えがどのように用いられるのか調査した.調査方法としては,作業者\footnote{この作業者は,日本語教育に関する知識を有する者である.}に文節のリストを与え,文節の機能語部を自由に言い換えてもらった.作業者には次の3つのことを指示した.\begin{enumerate}\item機能語部を言い換えてください.内容語は言い換えないでください\item思い付くまま,自由に言い換えてください.やさしく言い換えなければならない,短くしなければならないといった制約はありません\item1つの文節に対して複数の代替表現を思い付いた場合,そのすべてを記述してください.どうしても代替表現が思い浮かばない文節に対しては,代替表現を記述しなくても構いません\end{enumerate}文節リストとしては,「日本語能力試験出題基準」\shortcite{nouryoku}における``〈機能語〉の類''のリストに付記されている用例を用いた.``〈機能語〉の類''のリストの一部を表~\ref{tab:jpt}に示す.この文献には,269項目の``〈機能語〉の類''が収録されている.この調査では,これらのうち,日本語機能表現辞書\shortcite{Matsuyoshi2007}にも収録されている140項目を対象とした.``〈機能語〉の類''のリストにおいては,各``〈機能語〉の類''に対して,1つ以上の用例が記述されている.本論文における言い換え元の入力表現の単位は,文節であるので,節単位や文単位の用例に対しては,そこから文節単位の用例を人手で抽出した.``〈機能語〉の類''140項目に対する用例のうち,日本語機能表現辞書に収録されている機能表現の用例であるとわれわれが判断した238の用例を,言い換え元の文節リストとして用いた\footnote{この文節リストは,本研究で作成した言い換えシステムのクローズドテストにも用いた.}.\begin{table}[t]\caption{``〈機能語〉の類''のリストの一部}\label{tab:jpt}\input{04table04.txt}\end{table}\begin{table}[t]\begin{minipage}{0.5\textwidth}\begin{center}\caption{作業者が作成した表現の適切さの判定結果}\label{judge}\input{04table05.txt}\end{center}\end{minipage}\begin{minipage}{0.5\textwidth}\begin{center}\caption{代替表現の作成に用いられた言い換えの種類}\label{tab:native}\input{04table06.txt}\end{center}\end{minipage}\end{table}作業者は,238の文節のうち226の文節に対して,410の代替表現を作成した.これらの代替表現が適切であるかどうかを,作業者とは異なる2人の判定者が独立に判定した.適切さの判定基準は,「言い換え元の文節と作業者が作成した表現が,ある文脈において置換可能であるならば,後者は,代替表現として適切であると判定する」と定めた.判定結果の分割表を表~\ref{judge}に示す.表の「$\bigcirc$」の欄に,判定者が適切であると判定した代替表現の数を,「$\times$」の欄に,判定者が適切でないと判定した代替表現の数を示す.この表から,作業者が作成した表現の86\%(353/410)が,2人の判定者に,代替表現として適切であると判定されたことが分かる\footnote{2人の判定者の一致率は,$\kappa$値で0.32であった.この一致率が低い原因は,判定者Aの判定が厳しすぎたことによる.}.作業者が作成し,2人の判定者が適切であると判定した353の代替表現が,上記の5種類の言い換えのどのような組み合わせによって実現されているか分析した.分析結果を表~\ref{tab:native}に示す.この表から,353の代替表現のうち,その61\%(215/353)が,``1$\rightarrow$1''のみで実現されたことが分かる.したがって,機能表現を類義表現に置換するという``1$\rightarrow$1''は,人間が行なう機能表現の言い換えの過半数をカバーすると言うことができる.\subsection{機能表現の言い換えの定式化}\label{subsec:alternative}前節の調査結果に基づき,本研究が対象とする言い換えの入出力を,次のように定めた.入力は1つの文節であり,出力は,入力文節に対する代替表現である.\begin{align}\mbox{\textbf{入力}:文節}&=c_1c_2\cdotsc_{m-1}c_mf_1f_2\cdotsf_n\nonumber\\\mbox{\textbf{出力}:代替表現}&=c_1c_2\cdotsc_{m-1}c_m^{\prime}wf_1^{\prime}f_2^{\prime}\cdotsf_n^{\prime}\label{eq:alt}\end{align}ここで,$c_m^{\prime}$は,内容語$c_m$かもしくはそれを活用させた語であり,$f_j^{\prime}$は,機能表現$f_j$と意味的に等価な機能表現である.$w$は,空文字列か,もしくは,$c_m^{\prime}$と$f_1^{\prime}$を適切に接続するために挿入される語である.本研究では,入力文節の機能語部に存在する各々の機能表現を,それと意味的に等価な機能表現に置換することにより,入力文節に対する代替表現を生成する.一般に,機能表現$f_1$の左接続と機能表現$f_1^\prime$の左接続は,たとえそれらが意味的に等価であったとしても異なる.例えば,「や否や」と「たとたん」は意味的に等価であるが,前者の左接続は動詞の基本形であるのに対し,後者の左接続は動詞の連用タ接続である.同様に,「にあたって」と「際に」は,同じ〈状況〉という意味を持っているが,前者の左接続は動詞の基本形と名詞であるのに対し,後者の左接続は動詞の基本形とタ形および助詞「の」である.このような場合,$f_1$を$f_1^\prime$に置換した後,$c_m$と$f_1^{\prime}$を適切に接続する必要がある.内容語と機能表現の接続には次の4種類があり,それぞれに応じて異なる手続きを行なう.\begin{description}\item[単純接続可能]内容語$c_m$が機能表現$f_1^{\prime}$の左接続に含まれる場合,それらを単純に接続する.例えば,「聞く」と「とすぐに」は,単純接続可能である.\item[活用形の変更が必要]活用形を除いて,内容語$c_m$が機能表現$f_1^{\prime}$の左接続に含まれる場合,$c_m$の活用形を変更することにより,それらを接続する.例えば,「聞く」と「たとたん」を接続するには,活用形の変更が必要であり,まず,活用形変化表を参照して「聞く」を「聞い」に活用させた後,それらを接続する.\item[語の挿入が必要]内容語$c_m$と機能表現$f_1^{\prime}$が,間に語$w$を介せば接続可能である場合,必要に応じて$c_m$の活用形を変更した後,$w$を挿入\footnote{このとき,必要ならば$w$の活用形を調整する.}して全体を接続する.例えば,「子供」と「からといって」を接続するには,語の挿入が必要である.「子供」の品詞情報と「からといって」の左接続から,挿入語選択表を参照して「だ」を得,それを介して全体を接続する.挿入語の一覧を表~\ref{tab:inserted}に,$f_1^{\prime}$の左接続を少し簡略化してまとめた挿入語選択表を表~\ref{tab:inserted_select}に示す.\item[接続不可能]上のいずれにも当てはまらない場合,内容語$c_m$と機能表現$f_1^{\prime}$は接続不可能であると判定し,これらを含む代替表現候補を棄却する.例えば,「聞く」と「だとたん」(「たとたん」の「た」が有声化した表現)は,接続不可能である.\end{description}\begin{table}[t]\caption{挿入語一覧}\label{tab:inserted}\input{04table07.txt}\end{table}\begin{table}[t]\caption{挿入語選択表}\label{tab:inserted_select}\input{04table08.txt}\end{table}機能表現$f_j^\prime$と機能表現$f_{j+1}^\prime$の接続の可否は,それらが単純接続可能であるかどうかにより判定し,前者の活用形の変更は行なわない.その理由は,\ref{subsec:enumerate}節で説明した方法によって,すべての活用形が展開された形で,意味的に等価な機能表現の出現形のリストが与えられるからである.$f_j^\prime$と$f_{j+1}^\prime$が単純接続可能でない場合,これらを含む代替表現候補を棄却する.例えば,「なければならない」と「にちがいない」は単純接続可能である.一方,「なければならなく」と「にちがいない」は,単純接続可能ではないので,これらを含む代替表現候補を棄却する.単純な置換と語の挿入を組み合わせた,本論文で提案する言い換え手法は,表~\ref{tab:native}における「1$\rightarrow$1のみ」のすべてと,「1$\rightarrow$N(と1$\rightarrow$1)」の22\%(15/68)をカバーする.したがって,この言い換え手法は,理論上,表~\ref{tab:native}の65\%(230/353)をカバーする\footnote{\ref{sec:system}章で説明する機能表現言い換えシステムを用いた実際のカバー率は,43\%(152/353)であった.実際のカバー率が理論値の2/3である主な原因は,言い換えシステムが利用する日本語機能表現辞書が代表的な機能表現しか記載していないことである.}.
\section{機能表現言い換えシステム}
\label{sec:system}前章で述べた手法により,文体と難易度を制御しつつ,機能表現を言い換えるシステムを実装した.このシステムの入力は文節(と文体指定・難易度指定)であり,出力は,代替表現の順位付きリストである.代替表現を生成するにあたり,このシステムは,\ref{sec:dic}章で説明した機能表現辞書を用いる.実装した言い換えシステムの全体像を図~\ref{fig:system}に示す.このシステムは,次の3つのモジュールからなる.\begin{enumerate}\item文節解析\item言い換え生成\item順位付け\end{enumerate}\begin{figure}[b]\begin{center}\includegraphics{15-2ia4f3.eps}\caption{機能表現言い換えシステムの全体像}\label{fig:system}\end{center}\end{figure}\subsection{文節解析}文節解析モジュールは,与えられた文節を,式(\ref{eq:phrase})に示されるように内容語と機能表現の列に分割する.日本語機能表現を検出する手法は,これまでにいくつか提案されており,例えば,半自動的に作成した規則に基づく手法\shortcite{Tsuchiya2003b}や機械学習に基づくチャンキング手法\shortcite{Uchimoto2003,Tsuchiya2007}などがある.しかしながら,これらの手法が検出対象としている機能表現とその異形の数は,限られているため,本研究では,これらの手法を文節解析に利用することはできない.別の手法として,既存の形態素解析器の辞書に約17,000の機能表現の出現形を追加し,機械学習により種々のコストを決定することが考えられる.しかしながら,現在のところ,これらすべての出現形に対してタグ付けを行なった大規模なコーパスは存在しないので,この手法は実行可能ではない.本システムでは,これらの手法とは異なる方法を用いて,与えられた文節を内容語と機能表現の列に分割する.このシステムの文節解析モジュールは,2種類の解析器を用いる.1つめの解析器は,文節の機能語部の解析に特化した解析器(以下,機能語部解析器)である.この解析器は,辞書エントリーとして約17,000の機能表現の出現形のみを持つ形態素解析器MeCab\footnote{http://mecab.sourceforge.net/}で実装されている.実装においては,機能表現間の接続は,\ref{subsec:morph}節で述べた,機能表現辞書に記述されている接続条件を用いず,すべての組み合わせが可能であるとし,連接コストはすべて1と定めた\footnote{ただし,〈理由〉の意味を持つ「し」に対してのみ,後ろにいかなる機能表現も接続しないという条件を設定した.これは,文節解析モジュールが,動詞「する」の連用形「し」を,誤って機能表現と解析することが多かったためである.}.その理由は,機能表現辞書の接続条件は,解析に用いるには少し厳しすぎるのではないかと考えたからである.なお,単語コストはすべて0と定めた.この機能語部解析器は,機能語部をなす文字列を機能表現の列に分割することができる.その一方で,文字列に,内容語と解析されるべき要素が含まれている場合,文字列の分割に失敗する\footnote{分割結果に未知語が含まれている場合,文字列の分割に失敗したと見なす.}.与えられた文字列から機能語部を抽出するために,文節解析モジュールは,2つめの解析器として,IPA辞書を組み込んだ通常のMeCabを用いる.以下に,文節解析の手順を述べる.まず,通常のMeCabを用いて,入力文節を形態素列$m_1m_2\cdotsm_k$に分割する.次に,$m_1$を内容語部,$m_2m_3\cdotsm_k$を機能語部であると仮定する.機能語部解析器が,$m_2m_3\cdotsm_k$の表層形をまとめた文字列を機能表現の列$f_1f_2\cdotsf_n$に分割することができたならば,文節解析モジュールは,解析結果として,$c_1f_1f_2\cdotsf_n$を出力する.ここで,$c_1=m_1$である.機能語部解析器が分割に失敗した場合,$m_1m_2$を内容語部,$m_3m_4\cdotsm_k$を機能語部であると仮定する.機能語部解析器が,$m_3m_4\cdotsm_k$の表層形をまとめた文字列を機能表現の列$f_1f_2\cdotsf_n$に分割することができたならば,文節解析モジュールは,解析結果として,$c_1c_2f_1f_2\cdotsf_n$を出力する.ここで,$c_1=m_1$,$c_2=m_2$である.以下同様に,機能語部解析器が分割に成功するまで,この手続きを続ける.例として,文節「決定せざるをえないので」を解析する.まず,この文節は,通常のMeCabにより,「決定/せ/ざる/を/え/ない/ので」と,7つの形態素に分割される.次に,「決定」を内容語部,「せ/ざる/を/え/ない/ので」を機能語部と仮定する.機能語部解析器は,文字列「せざるをえないので」の分割に失敗するので,今度は,「決定/せ」を内容語部,「ざる/を/え/ない/ので」を機能語部と仮定する.この場合,機能語部解析器は,文字列「ざるをえないので」の分割に成功し,この文字列を「ざるをえない」と「ので」に分割する.これにより,解析結果として,$c_1=$「決定」,$c_2=$「せ」,$f_1=$「ざるをえない」,$f_2=$「ので」が出力される.内容語の場合と同様に,2つ以上の意味を持つ機能表現も存在する.例えば,「によって」は,次の3つの意味を持つ.\begin{description}\item[〈仲介〉]その病気は,ウイルス\underline{によって}伝染していく.\item[〈根拠〉]民法\underline{によって},そのように定められている.\item[〈場合〉]季節\underline{によって}見える星座が異なる.\end{description}機能語部解析器が分割した機能語部に,複数の意味を持つ機能表現が存在した場合,文節解析モジュールは,それらに対応する複数の解析結果を出力する.例えば,機能語部解析器が分割した機能語部に,2つの意味($\alpha$と$\beta$)を持つ機能表現$f_j$が存在した場合,文節解析モジュールは,次の2つの解析結果を出力する\footnote{実際には,$f_j^{(\alpha)}$と$f_j^{(\beta)}$は,機能表現IDを用いて,次のように区別する:$f_j^{(\alpha)}=$「ために(0731Q.1xx.74n01)」,$f_j^{(\beta)}=$「ために(0732Q.1xx.74n01)」(前者は〈理由〉,後者は〈目的〉の意味を持つ).}.\begin{quote}$c_1c_2\cdotsc_mf_1\cdotsf_j^{(\alpha)}\cdotsf_n$,$c_1c_2\cdotsc_mf_1\cdotsf_j^{(\beta)}\cdotsf_n$\end{quote}\subsection{言い換え生成}言い換え生成モジュールは,入力文節の解析結果$c_1c_2\cdotsc_mf_1f_2\cdotsf_n$を受け取り,文体指定と難易度指定を満たす代替表現のリストを生成する.まず,言い換え生成モジュールは,\ref{subsec:enumerate}節で述べた方法を用いて,$f_1$と意味的に等価であり,かつ,文体指定と難易度指定を満たす機能表現の出現形$f_1^\prime$を得る.次に,\ref{subsec:alternative}節で述べた方法により,$f_1^\prime$を$c_1c_2\cdotsc_m$に接続させ,$c_1c_2\cdotsc_{m-1}c_m^\primewf_1^\prime$を構築する.今度は,$f_2$に対して同様のことを行ない,$f_2^\prime$を得て$c_1c_2\cdotsc_{m-1}c_m^\primewf_1^\primef_2^\prime$を構築する.以下,同様にこの過程を続け,最終的に,入力文節の代替表現として,$c_1c_2\cdotsc_{m-1}c_m^\primewf_1^\primef_2^\prime\cdotsf_n^\prime$を構築する.各々の$f_j$に対して,\ref{subsec:enumerate}節で述べた方法によって実際に得られるのは,類義表現のリストである.言い換え生成モジュールは,$1\leqj\leqn$に対して,これらのすべての組み合わせ\footnote{実際には,簡単な枝刈りを行なっている.}を試行し,接続し得ない2つの隣り合う要素を含む代替表現候補を棄却することによって,代替表現のリストを生成する.難易度指定が厳しすぎるなどの理由により,代替表現が1つも生成されない場合,言い換え生成モジュールは,上位の階層の意味的等価クラスを用いて代替表現のリストを生成する.機能語部の機能表現に意味的曖昧性があり,2つ以上の解析結果が存在する場合,言い換え生成モジュールは,各解析結果に対して独立に代替表現を生成し,最後に,それらを1つのリストにまとめて出力する.\subsection{順位付け}\label{subsec:ranking}機能表現の言い換えにおいて,実際の応用を考慮した場合,出力される代替表現のリストに,なんらかの尺度に基づく順位が付いていることが望ましい.なぜならば,機能表現には数多くの異形が存在するため,代替表現が数百も出力されることがあるからである.順位付けモジュールは,生成された代替表現のリストを,コーパス中の頻度に基づくスコアにより順位付けする.コーパス中の頻度を利用する理由は,コーパスによく現れる機能表現は,より標準的で一般に使われているものだと考えることができるからである.しかしながら,現在のところ,約17,000の機能表現の出現形に対してタグ付けを行なった大規模なコーパスは存在しないので,コーパス中の機能表現の頻度を直接利用することはできない.そこで,本研究では,コーパス中の機能表現の頻度の近似値として,コーパスから単純な文字列照合によって得られる,「機能表現を構成する文字列」の出現回数を用いる.スコア関数としては,代替表現に含まれる各機能表現の構成文字列の出現回数の積を用いる\footnote{予備実験として,「内容語—機能表現」,「機能表現—機能表現」の構成文字列の出現回数も利用するスコア関数も試したが,表~\ref{tab:evaluation}における評価結果は,現在のものとほとんど変わらなかった.}.入力された代替表現のリストに,構成文字列が全く同じ代替表現が複数存在する場合,それらの表現には同じスコアが付くので,順位付けモジュールは,それらを1つにまとめて出力する.\begin{table}[b]\begin{minipage}{0.5\textwidth}\caption{入力文節「見てくれるか」に対する出力}\vspace{-0.5\baselineskip}(i:指定なしの場合の順位,j:「敬体のみ」と\\いう文体指定時の順位)\\[-0.5zw]\label{tab:mite}\input{04table09.txt}\end{minipage}\begin{minipage}{0.5\textwidth}\caption{入力文節「聞くや否や」に対する出力}\vspace{-0.5\baselineskip}(i:指定なしの場合の順位,j:「A1,A2,Bの\\いずれかの難易度」という難易度指定時の順位)\\[-0.5zw]\label{tab:ya}\input{04table10.txt}\end{minipage}\end{table}\subsection{出力例}入力文節「見てくれるか」に対する,言い換えシステムの出力を表~\ref{tab:mite}に示す\footnote{スコアは,logスケールで示した.表~\ref{tab:ya}も同様である.}.i欄に指定なしの場合の順位を,j欄に「敬体のみ」という文体指定を行なった場合の順位を示す.入力文節「聞くや否や」に対する,言い換えシステムの出力を表~\ref{tab:ya}に示す.i欄に指定なしの場合の順位を,j欄に「A1,A2,Bのいずれかの難易度」という難易度指定を行なった場合の順位を示す.これらの出力結果より,提案システムが,入力文節に対して適切な代替表現を生成できること,および,文体指定や難易度指定に従って,その出力を制御できることが分かる.
\section{評価}
\label{sec:evaluate}実装した機能表現言い換えシステムを評価する観点として,次の4点が考えられる\footnote{システムへの入力として文を想定する場合は,「システムの解析モジュールは,正しく文節認定,および,内容語であるか機能表現であるかの曖昧性解消を行なうことができるか」という評価観点も必要である.しかしながら,本システムでは,入力として\ref{subsec:unit}節の式(\ref{eq:phrase})で定義される文節を採用しているので,この評価を行なう必要はない.}.\begin{enumerate}\item出力された表現は入力文節と意味的に等価であるか\item出力された表現は文体指定を満たすか\item出力された表現は難易度指定を満たすか\item機能表現$f$を異なる機能表現$f^\prime$に言い換える場合,$f^\prime$のすべての異形を生成することができるか\end{enumerate}本システムの言い換え能力は,\ref{subsec:enumerate}節に示した,出現形の列挙能力によって規定されている.この列挙手続きは,辞書に記述されている情報に基づいているため,最終的に,上記の4点の可否は,辞書に記述されている情報の正しさに依存する.すなわち,上記の(1)から(4)は,それぞれ,\begin{enumerate}\item\ref{subsec:semantic}節で述べた意味的等価クラスは妥当か,\item機能表現の出現形に付与されている文体情報は正しいか,\item$L^2$の機能表現に付与されている難易度情報は正しいか,\item形態階層構造はすべての異形を網羅しているか,\end{enumerate}という問題に帰着される.機能表現の出現形が4つの文体のうちいずれをとるかは,日本語の文体についての知識があれば,容易に判断できる.また,$L^2$の機能表現に付与されている難易度は,「日本語能力試験出題基準」\shortcite{nouryoku}の級(難易度)に基づいている.異形の網羅性については,すでに,松吉らの研究\shortcite{Matsuyoshi2007}によって定量的に評価されている.これらの理由により,辞書に記述されている(2)から(4)の情報の信頼性は高いと考えられるため,実験的に評価する必要はないと判断した.一方,\ref{subsec:semantic}節で述べた意味的等価クラスは,これまでの文献と著者らの直観に基づくものであり,その言い換えにおける妥当性は検証されていない.そこで,本章では,言い換えシステムが生成する代替表現の評価を行ない,意味的等価クラスの妥当性を検証する.\subsection{評価方法}言い換えシステムの出力の評価にあたっては,実際の応用として文章作成支援を想定した.文章作成支援においては,システムは,入力表現に対して,少数の良い代替表現を出力することが期待される.なぜならば,代替表現が順位付けされずに数百も出力された場合,システムの利用者は困惑してしまうからである.本論文では,言い換えシステムの出力の上位5位までに,適切な代替表現が含まれているかどうかという観点から,評価を行なった.言い換えシステムが生成した表現の評価は,次の3段階で行なった.\begin{quote}\begin{description}\item[〇]入力文節に対する適切な代替表現である(入力文節と言い換えシステムが生成した表現は,ある文脈において置換可能である)\item[△]適切な代替表現であるかどうかの判断が難しい(入力文節と言い換えシステムが生成した表現が置換可能である文脈を想像することはできるが,その文脈はかなり不自然である)\item[×]代替表現として相応しくない(入力文節と言い換えシステムが生成した表現が置換可能である文脈を想像することができない)\end{description}\end{quote}一般に,ある表現が別の表現と置換可能であるかどうかを客観的に判定することは難しい.なぜならば,それらが置換可能である文脈を想像することができるかどうかは,判定者の言語経験によるところが大きいからである.特に,機能表現の言い換えにおいては,機能表現の用法についての知識が不十分であるために,入力文節と言い換えシステムが生成した表現が置換可能である文脈を想像することができず,後者を適切な代替表現ではないと判定してしまうことが少なくない.それゆえに,機能表現の置換可能性の評価にあたっては,機能表現を解説した文献に基づくことが望ましい.このような理由により,本評価においては,1人の判定者が,複数の機能表現に関する文献\shortcite{Morita1989,Jamasi1998,dosj}を参照しながら,本システムが生成した表現の評価を行なった.\ref{subsec:enumerate}節で述べた方法をそのまま用いた場合,機能語部の機能表現が,すべて,入力文節における機能表現と同じ,もしくはその異形であるという代替表現も出力される.例えば,入力文節「決定せ/ざるをえない/ので」に対して,「ざるをえない」をその表記に関する異形である「ざるを得ない」に置換しただけの表現「決定せ/ざるを得ない/ので」も,1つの代替表現として出力される.しかしながら,文章作成支援の観点からは,これは望ましくない.なぜならば,システムの利用者が求めるものは,このような,表記を少し変えただけの表現ではなく,入力文節に使われている機能表現とは異なる機能表現を用いた代替表現であると思われるからである.このような理由により,本評価では,言い換えシステムが出力する代替表現は,その機能語部の少なくとも1つの機能表現が,入力文節における対応する機能表現と全く異なる機能表現でなくてはならないという条件を設定した.すなわち,式(\ref{eq:alt})によって定式化される代替表現において,$f_j^\prime$が$f_j$と異なる$L^1$-$L^2$IDを持つような$j$が,必ず1つは存在する.本評価では,クローズドテストの入力文節リストとして,\ref{subsec:closedlist}節で予備調査に使用した文節リストを用いた.この文節リストは,\ref{subsec:semantic}節で述べた意味的等価クラスの調整にも用いた.オープンテストにおいては,入力文節リストとして,「どんな時どう使う日本語表現文型500」\shortcite{Tomomatsu1996}の用例を用いた.この文献においては,各機能表現に対して平均4つの用例が記載されている.例として,「について」に対する用例を表~\ref{tab:donna}に示す.この文献には,機能表現と,呼応などの表現文型が,491項目収録されている.本評価では,これらのうち,日本語機能表現辞書\shortcite{Matsuyoshi2007}にも収録されている機能表現184項目を対象とした.本論文における言い換え元の入力表現の単位は文節であるので,文単位の用例からは,文節単位の用例を人手で抽出した.機能表現184項目に対する用例のうち,日本語機能表現辞書に収録されている機能表現の用例であるとわれわれが判断した628の用例を,入力の文節リストとして用いた.\begin{table}[b]\caption{文献(友松他1996)における「について」に対する用例}\label{tab:donna}\input{04table11.txt}\end{table}本論文の言い換えシステムは,代替表現を順位付けする際にコーパスを利用する.このコーパスとしては,毎日新聞コーパス1991--2005年版(15年分,約2,100万文,約1.5ギガバイト)を用いた.\begin{table}[b]\caption{言い換えシステムの出力の評価}\label{tab:evaluation}\input{04table12.txt}\end{table}\subsection{結果}評価結果として,言い換えシステムの出力の上位$n$位までに,少なくとも1つの適切な代替表現(「○」と判定された表現)が含まれていた入力文節の数を表~\ref{tab:evaluation}に示す\footnote{本システムが生成した表現は,すべて文法的には正しいものであった.}.表の「人手解析」の欄に,入力文節を人手で解析したとき,すなわち,入力文節が正しく分割され,すべての機能表現の意味的曖昧性が解消されたときの評価結果を示す.表のすべての行において,値は,「1位--3位」でほぼ飽和している.よって,以下では,「1位--3位」における結果について議論する.表~\ref{tab:evaluation}から,本論文の言い換えシステムは,クローズドテストにおいて入力文節の88\%(210/238),オープンテストにおいて入力文節の79\%(496/628)に対して,適切な代替表現を生成することができたことが分かる.言い換えシステムが生成した適切な代替表現の例を,その順位とともに表~\ref{tab:good}に示す.この表の「入力文節」と「代替表現」の欄において,機能表現の言い換えが行なわれた箇所に下線を引いた.これらの結果から,われわれは,本システムの性能は,文章作成支援という観点からみて十分に高いと考える.\begin{table}[b]\caption{言い換えシステムが生成した適切な代替表現の例}\label{tab:good}\input{04table13.txt}\end{table}以下,言い換えシステムの誤り分析を行なう.言い換えシステムの出力を詳細に分析した結果を表~\ref{tab:top1to3}に示す.クローズドテストにおける入力文節の7\%(16/238)とオープンテストにおける入力文節の7\%(41/628)に対しては,``1$\rightarrow$1''と少数の語の挿入のみでは代替表現を生成できないことが分かった.これらの入力文節を適切に言い換えるためには,``1$\rightarrow$N'',``N$\rightarrow$1'',``M$\rightarrow$N''が必要である.これらの入力文節とそれらに対して期待される代替表現の例を表~\ref{tab:not1to1}に示す.上記の7\%という値は,``1$\rightarrow$1''と少数の語の挿入に基づいて言い換えを行なう本システムの性能の上限を規定する.\begin{table}[t]\caption{言い換えシステムの出力の詳細分析(表~\ref{tab:evaluation}の「1位--3位」に対応)}\label{tab:top1to3}\input{04table14.txt}\end{table}\begin{table}[t]\caption{``1$\rightarrow$1''と少数の語の挿入のみでは代替表現を生成できない文節の例}\label{tab:not1to1}\input{04table15.txt}\end{table}入力文節の解析誤りは,クローズドテストにおいて3\%(8/238),オープンテストにおいて3\%(21/628)であった.解析誤りの例を以下に示す.\begin{itemize}\item進ん/だ/こと\underline{に/より}(「により」が正しく認識されなかった)\item邪魔さ/\underline{れ}/た/おかげで(受身を表す接尾辞「れ」が,〈可能〉の意味を持つ機能表現「れ」と解析された)\itemひら/がな/さえ(通常のMeCabによって,「ひらがな」が誤って分割された)\end{itemize}一方,入力文節の1\%(2/238,クローズドテスト)と4\%(23/628,オープンテスト)に対して,その機能語部に意味的に曖昧な機能表現が含まれていたため,適切な代替表現が上位に出力されなかった.例えば,「こと」は,〈当為〉,〈感嘆〉,〈名詞化〉という3つの意味を持つ.「提出する/\underline{こと}」の「こと」は,〈当為〉の意味を持つ機能表現であるが,この文節に対して,〈名詞化〉の意味を持つ「の」を含む「提出する/の」や,〈感嘆〉の意味を持つ「わ」を含む「提出する/わ」などの表現が上位に出力された.「人/\underline{によって}/は」や「賛成する/\underline{にしても}」に対しても,同様の現象が観察された.表~\ref{tab:top1to3}の「適切な代替表現」の欄における,システムが解析を行なった時の値と人手解析時の値の差から,人手で入力文節を解析した場合,上記のような入力文節に対しても,適切な代替表現を上位に出力することができたことが分かる.したがって,解析誤りおよび意味的曖昧性に起因する性能の低下は,本システムの文節解析モジュールの改善とともに減少することが期待される.オープンテストにおいて,意味的等価クラスの不備により,適切な代替表現が生成されなかった入力文節は,全体の3\%(19/628)であった.例えば,「悲しみ/の/あまり」に対して,適切な代替表現が生成されなかった.「悲しみ/の/あまり」に対する適切な代替表現として,「悲しみ/の/せいで」が考えられるが,意味階層構造のどの階層においても,「あまり」と「せいで」が同じ意味的等価クラスに属することがなかったため,この言い換えは実現されなかった.意味的等価クラスの不備に起因する問題は少数であったので,\ref{subsec:semantic}節で述べた意味的等価クラスは妥当なものであったと言える.接続条件が厳しすぎたため,オープンテストにおける入力文節の2\%(16/628)に対して,適切な代替表現が生成されなかった.例えば,「は」と「とくれば」の接続は可能であると辞書に記述されていなかったため,「地域/は/というと」に対して,「地域/は/とくれば」が生成されなかった.今後,接続条件を見直す必要がある.残りの誤りは,コーパスにおいて,適切な代替表現に存在する機能表現の構成文字列の出現回数が相対的に少ないことに起因するものである.この問題を解決するためには,現在使用しているスコア関数の見直しや,機能表現のすべての出現形に対してタグ付けを行なったコーパスの整備が必要であると思われる.
\section{関連研究}
乾らは,語彙・構文的言い換えを,次の6つに分類した\shortcite{Inui2004}.\begin{enumerate}\item節間の言い換え\item節内の言い換え\item内容語の複合表現の言い換え\item機能語/モダリティの言い換え\item内容語句の言い換え\item慣用表現の言い換え\end{enumerate}本研究は,機能表現の言い換えに焦点をあてているので,上記の(4)機能語/モダリティの言い換えと,(1)節間の言い換えの一部である「接続表現の言い換え」に分類される.自然言語処理において,日本語機能表現の言い換えに関する研究は少ない.飯田ら\shortcite{Iida2001}は,機能表現の解説文や例文から,279個の言い換え規則を人手で作成している.土屋ら\shortcite{Tsuchiya2004}は,機能表現を含む文とその機能表現を言い換えた文の対のデータを作成し,そこから642個の言い換え規則を半自動的に生成している.これらの研究で作成された言い換え規則は,ある機能表現と別の機能表現が言い換え可能であることを示す個別的なものである.このような個別的な規則の集合を用いる手法では,数多く存在する機能表現の異形を言い換えるために,膨大な量の言い換え規則を作成しなければならない.Tanabeら\shortcite{Tanabe2001},Shudoら\shortcite{Shudo2004},本田ら\shortcite{Honda2007}は,「なければならない」や「てもよい」など,助動詞型機能表現に対して約150の意味的等価クラスを定義し,意味的等価クラス間における論理的類似性規則と語用論的類似性規則に基いて機能表現を言い換える手法を提案している.彼らの研究が対象としている機能表現は,助動詞型機能表現のみであり,「にあたって」や「からすると」のような格助詞型機能表現や,「にもかかわらず」や「や否や」のような接続助詞型機能表現などは扱っていない.これらの研究において提案されている機能表現言い換えシステムは,言い換え先の機能表現の文体や難易度を制御できる機構を持っていない.くわえて,これらのシステムは,体系的に機能表現の異形を扱っていないため,機能表現$f$を異なる機能表現$f^\prime$に言い換える場合,潜在的には$f^\prime$のすべての異形を生成することができることは保証されていない.一方,われわれが提案する機能表現言い換えシステムは,形態階層構造と意味階層構造を持つ機能表現辞書を用いることにより,文体と難易度を制御しつつ,機能表現を言い換えることができる.そして,このシステムは,与えられた機能表現の出現形に対して,意味的に等価な機能表現のすべての出現形を列挙することができる.このシステムの言い換え対象は,表~\ref{tab:good}に示されるように,助動詞型機能表現だけでなく,すべての型の機能表現である.伊佐治ら\shortcite{Isaji2005}は,解析後に機能表現を標準的な表現(代表表記)に言い換えることができる日本語の文節構造解析システムibukiCを提案している.例えば,このシステムは,「でしょう」を「だろう」に,「からすると」を「からすれば」に,「に違いない」を「にちがいない」に言い換える.しかしながら,この機構は十分であるとは言えず,「にたいしまして」を「にたいして」に,「なければならない」の異形である「なけりゃならない」,「ねばならない」を「なければならない」に言い換えない.一方,われわれの言い換えシステムは,形態階層構造と文体などの情報を利用することにより,体系的に機能表現を代表表記に言い換えることができる.
\section{おわりに}
本論文では,形態階層構造と意味階層構造を持つ機能表現辞書を用いることにより,文体と難易度を制御しつつ,日本語機能表現を言い換える手法を提案した.実装した言い換えシステムは,与えられた機能表現の出現形に対して,文体指定と難易度指定を満たす,意味的に等価な機能表現のすべての出現形を列挙することができる.このシステムは,オープンテストにおいて,入力文節の79\%(496/628)に対して,適切な代替表現を生成した.Tanabeらが作成した,意味的等価クラス間における類似性規則は,そのほとんどが,``1$\rightarrow$N'',``N$\rightarrow$1'',``M$\rightarrow$N''である\shortcite{Tanabe2001}.これらの類似性規則を取り入れることにより,本論文で提案した言い換えシステムは,より多様な機能表現の言い換えを実現することができると考えられる.その一方で,内容表現の言い換え手法と本論文で述べた言い換え手法を組み合わせることにより,日本語表現の幅広い言い換えを実現することも重要であり,われわれの今後の課題である.\bibliographystyle{jnlpbbl_1.3}\newcommand{\optsort}[1]{}\begin{thebibliography}{}\bibitem[\protect\BCAY{遠藤\JBA小林\JBA三井\JBA村木\JBA吉沢}{遠藤\Jetal}{2003}]{dosj}遠藤織枝\JBA小林賢次\JBA三井昭子\JBA村木新次郎\JBA吉沢靖\JEDS\\BBOP2003\BBCP.\newblock\Jem{使い方の分かる類語例解辞典新装版}.\newblock小学館.\bibitem[\protect\BCAY{降幡\JBA藤田\JBA乾\JBA松本\JBA竹内}{降幡\Jetal}{2004}]{Furihata2004}降幡建太郎\JBA藤田篤\JBA乾健太郎\JBA松本裕治\JBA竹内孔一\BBOP2004\BBCP.\newblock\JBOQ語彙概念構造を用いた機能動詞結合の言い換え\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\mbox{\BPGS\504--507}.\bibitem[\protect\BCAY{グループ・ジャマシイ}{グループ・ジャマシイ}{1998}]{Jamasi1998}グループ・ジャマシイ\JED\\BBOP1998\BBCP.\newblock\Jem{教師と学習者のための日本語文型辞典}.\newblockくろしお出版.\bibitem[\protect\BCAY{本田\JBA田辺\JBA高橋\JBA吉村\JBA首藤}{本田\Jetal}{2007}]{Honda2007}本田聖晃\JBA田辺利文\JBA高橋雅仁\JBA吉村賢治\JBA首藤公昭\BBOP2007\BBCP.\newblock\JBOQ日本語文末表現における言い換え\JBCQ\\newblock\Jem{言語処理学会第13回年次大会発表論文集},\mbox{\BPGS\1078--1081}.\bibitem[\protect\BCAY{飯田\JBA徳永\JBA乾\JBA衛藤}{飯田\Jetal}{2001}]{Iida2001}飯田龍\JBA徳永泰浩\JBA乾健太郎\JBA衛藤純司\BBOP2001\BBCP.\newblock\JBOQ言い換えエンジン{\scKura}を用いた節内構造および機能語相当表現レベルの言い換え\JBCQ\\newblock\Jem{第63回情報処理学会全国大会予稿集第二分冊},\mbox{\BPGS\5--6}.\bibitem[\protect\BCAY{乾\JBA藤田}{乾\JBA藤田}{2004}]{Inui2004}乾健太郎\JBA藤田篤\BBOP2004\BBCP.\newblock\JBOQ言い換え技術に関する研究動向\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(5),\mbox{\BPGS\151--198}.\bibitem[\protect\BCAY{伊佐治\JBA山田\JBA石原\JBA高松\JBA松本\JBA池田}{伊佐治\Jetal}{2005}]{Isaji2005}伊佐治和哉\JBA山田佳裕\JBA石原吉晃\JBA高松大地\JBA松本忠博\JBA池田尚志\BBOP2005\BBCP.\newblock\JBOQ文節構造解析システムibukiC\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\719--722}.\bibitem[\protect\BCAY{鍜治\JBA黒橋}{鍜治\JBA黒橋}{2004}]{Kaji2004}鍜治伸裕\JBA黒橋禎夫\BBOP2004\BBCP.\newblock\JBOQ迂言表現と重複表現の認識と言い換え\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(1),\mbox{\BPGS\81--106}.\bibitem[\protect\BCAY{木村\JBA徳永\JBA田中}{木村\Jetal}{2002}]{Kimura2002}木村健司\JBA徳永健伸\JBA田中穂積\BBOP2002\BBCP.\newblock\JBOQ日本語名詞句に対するパラフレーズ事例の自動抽出に関する研究\JBCQ\\newblock\Jem{言語処理学会第8回年次大会発表論文集},\mbox{\BPGS\327--330}.\bibitem[\protect\BCAY{国際交流基金\JBA財団法人日本国際教育協会}{国際交流基金\JBA財団法人日本国際教育協会}{2002}]{nouryoku}国際交流基金\JBA財団法人日本国際教育協会\JEDS\\BBOP2002\BBCP.\newblock\Jem{日本語能力試験出題基準【改訂版】}.\newblock凡人社.\bibitem[\protect\BCAY{松吉\JBA佐藤\JBA宇津呂}{松吉\Jetal}{2007}]{Matsuyoshi2007}松吉俊\JBA佐藤理史\JBA宇津呂武仁\BBOP2007\BBCP.\newblock\JBOQ日本語機能表現辞書の編纂\JBCQ\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\123--146}.\bibitem[\protect\BCAY{森田\JBA松木}{森田\JBA松木}{1989}]{Morita1989}森田良行\JBA松木正恵\BBOP1989\BBCP.\newblock\Jem{日本語表現文型用例中心・複合辞の意味と用法}.\newblockアルク.\bibitem[\protect\BCAY{沼田}{沼田}{1986}]{Numata1986}沼田善子\BBOP1986\BBCP.\newblock\JBOQとりたて詞\JBCQ\\newblock奥津敬一郎\JBA沼田善子\JBA杉本武\JEDS,\Jem{いわゆる日本語助詞の研究},2\JCH.凡人社.\bibitem[\protect\BCAY{佐藤}{佐藤}{1999}]{Sato1999}佐藤理史\BBOP1999\BBCP.\newblock\JBOQ論文表題を言い換える\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(7),\mbox{\BPGS\2937--2945}.\bibitem[\protect\BCAY{Shudo,Tanabe,Takahashi,\BBA\Yoshimura}{Shudoet~al.}{2004}]{Shudo2004}Shudo,K.,Tanabe,T.,Takahashi,M.,\BBA\Yoshimura,K.\BBOP2004\BBCP.\newblock\BBOQ{MWE}sasNon-propositionalContentIndicators\BBCQ\\newblockIn{\BemProceedingsofthe2ndACLWorkshoponMultiwordExpressions:IntegratingProcessing(MWE-2004)},\mbox{\BPGS\32--39}.\bibitem[\protect\BCAY{Tanabe,Yoshimura,\BBA\Shudo}{Tanabeet~al.}{2001}]{Tanabe2001}Tanabe,T.,Yoshimura,K.,\BBA\Shudo,K.\BBOP2001\BBCP.\newblock\BBOQModalityExpressionsinJapaneseandTheirAutomaticParaphrasing\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium(NLPRS)},\mbox{\BPGS\507--512}.\bibitem[\protect\BCAY{友松\JBA宮本\JBA和栗}{友松\Jetal}{1996}]{Tomomatsu1996}友松悦子\JBA宮本淳\JBA和栗雅子\BBOP1996\BBCP.\newblock\Jem{どんな時どう使う日本語表現文型500}.\newblockアルク.\bibitem[\protect\BCAY{Tsuchiya\BBA\Sato}{Tsuchiya\BBA\Sato}{2003}]{Tsuchiya2003b}Tsuchiya,M.\BBACOMMA\\BBA\Sato,S.\BBOP2003\BBCP.\newblock\BBOQAutomaticDetectionofGrammarElementsthatDecreaseReadability\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2003)},\mbox{\BPGS\189--192}.\bibitem[\protect\BCAY{土屋\JBA佐藤\JBA宇津呂}{土屋\Jetal}{2004}]{Tsuchiya2004}土屋雅稔\JBA佐藤理史\JBA宇津呂武仁\BBOP2004\BBCP.\newblock\JBOQ機能表現言い換えデータからの言い換え規則の自動生成\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\mbox{\BPGS\492--495}.\bibitem[\protect\BCAY{土屋\JBA注連\JBA高木\JBA内元\JBA松吉\JBA宇津呂\JBA佐藤\JBA中川}{土屋\Jetal}{2007}]{Tsuchiya2007}土屋雅稔\JBA注連隆夫\JBA高木俊宏\JBA内元清貴\JBA松吉俊\JBA宇津呂武仁\JBA佐藤理史\JBA中川聖一\BBOP2007\BBCP.\newblock\JBOQ機械学習を用いた日本語機能表現のチャンキング\JBCQ\\newblock\Jem{自然言語処理},{\Bbf14}(1),\mbox{\BPGS\111--138}.\bibitem[\protect\BCAY{Uchimoto,Nobata,Yamada,Sekine,\BBA\Isahara}{Uchimotoet~al.}{2003}]{Uchimoto2003}Uchimoto,K.,Nobata,C.,Yamada,A.,Sekine,S.,\BBA\Isahara,H.\BBOP2003\BBCP.\newblock\BBOQMorphologicalAnalysisofaLargeSpontaneousSpeechCorpusin{Japanese}\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2003)},\mbox{\BPGS\479--488}.\end{thebibliography}\begin{biography}\bioauthor{松吉俊}{2003年京都大学理学部卒業.2008年同大学院情報学研究科博士後期課程修了.現在,奈良先端科学技術大学院大学情報科学研究科特任助教.京都大学博士(情報学).自然言語処理の研究に従事.}\bioauthor{佐藤理史}{1983年京都大学工学部電気工学第二学科卒業.1988年同大学院工学研究科博士後期課程電気工学第二専攻研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学情報科学研究科助教授,京都大学大学院情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科電子情報システム専攻教授.工学博士.自然言語処理,情報の自動編集等の研究に従事.}\end{biography}\biodate\end{document}
| |
V13N03-05 | \section{はじめに}
述語項構造とは述語とその項の間の意味的な関係を表現する構造の一つである.例えば,「彼が扉をひらく」という文中の述語「ひらく」の項構造は[agent,theme]のように表すことができる.agent,themeは項が述語に対してどのような意味的関係となっているかを表す意味役割である.また,所与の文章中の各述語に対して,(1)述語が取り得る項構造のうち最も文の解釈に適った項構造を選択し,(2)その構造の各項に対応する要素を同定することで述語項構造を出力する処理を項構造解析と呼ぶ.例えば,文「彼が扉をひらく」を述語項構造解析する場合には,述語「ひらく」に対して図\ref{fig:arg_dic}\,に示すような項構造辞書から対応する項構造を選択し,入力文の格要素を各項に割り当てて構造[agent:彼,theme:扉]を得る.項構造解析を高精度で実現すれば,「彼が扉をひらく」$\Leftrightarrow$「扉がひらく」のような交替に代表される表現の多様性を吸収でき,言い換えや情報抽出,質問応答などの自然言語処理技術を高度化できる.述語の項構造に関する研究は,\citeA{Fil:68}の格文法など古くから関心を集めている.これらの研究は,項構造辞書の作成,項構造タグ付きコーパスの作成,項構造解析の三つの研究に大別でき,項構造辞書作成の研究では,近年,\citeA{Dorr:97}によって項構造辞書作成の方法論が開発されている.この研究成果から大規模な項構造辞書を作成する基盤ができてきた.また項構造情報を含む詳細な動詞辞書FrameNet\cite{Frame:98}や項構造タグ付きコーパスPropBank\cite{Prop:02}も報告されている.項構造解析の研究は国際会議CoNLLにおけるSharedTask\footnote{http://www.lsi.upc.edu/\~{}srlconll/}として取り上げられるなど関心が集まっており,近年提案されている主な手法は教師なし手法と教師あり手法に大別できる.現状では,PropBankのような項構造タグ付きコーパスが作成されたこともあり,教師あり手法の研究が盛んである.教師なし手法では,\citeA{Lapata:Brew:99}のように項構造辞書の下位範疇化の構造を利用して擬似的に訓練事例を作成する手法などが提案されているが,一般に解析精度が低い.これに対して,\citeA{gildea:02:c},Haciogluら\citeyear{Kadri:03}やThompsonら\citeyear{Cyn:03}の提案する教師あり手法では,項構造タグが付与された学習コーパスから述語と文章中の要素との構文構造における位置関係などを素性として利用しており,教師なし手法よりも精度が高いという利点を持つ.しかし学習に用いるコーパス中の各述語に対し(i)取り得る項構造と項構造辞書中の項構造の対応付け,および(ii)選択した項構造の各項と文章中の要素の対応付け,という人手による項構造タグ付与作業が必要であるため作業コストが高いという問題がある.そこで本研究では,項構造タグ付き事例を効率的に作成する方法について議論する.項構造タグ付き事例の効率的な作成方法にはさまざまな方法が考えられるが,本論文では,学習に用いるコーパス中の各述語に項構造タグを付与する過程で生じる類似用例への冗長なタグ付与作業の問題に着目する.具体的には,大規模平文コーパスから抽出した表層格パターンの用例集合をクラスタリングし,得られたクラスタに項構造タグを付与することでタグ付与コストを削減する手法を提案する.提案手法では,(A)表層格パターン同士の類似性と(B)動詞間の類似性という2種類の類似性を利用してクラスタリングを行う.評価実験では,実際に提案手法を用いて8つの動詞の項構造タグ付き事例を作成し,それを用いた項構造解析の実験を行うことによって,提案手法のクラスタリングの性能や,人手でタグ付き事例を作成するコストと項構造解析精度の関係を調査した.\begin{figure}[t]\begin{center}\includegraphics[width=0.85\hsize]{clip013.eps}\end{center}\caption{動詞項構造辞書の一例(「ひらく」について)}\label{fig:arg_dic}\end{figure}
\section{用例の類似性に基づく項構造タグ付与の効率化}
\label{sec:third}入力文の各動詞の項構造を解析するタスクには,次の5種類の曖昧性の解消が必要である.\begin{description}\item[曖昧性(1)「は」,「も」,「無格\footnotemark」が兼務する表層格の曖昧性]\\\footnotetext{無格とは,「明日東京に行く」の「明日」のように助詞のない格.}「は」,「も」,「無格」が表層「ガ格」,「ヲ格」,もしくはそれ以外となる曖昧性.\item[曖昧性(2)連体修飾節に関する曖昧性]\\連体修飾節の述語と被修飾名詞との間に格関係がない外の関係(例えば,「魚を焼くにおい」の「焼く」と「におい」)と格関係がある内の関係(「魚を焼く男」の「焼く」と「男」)の曖昧性.さらに,内の関係における被修飾名詞の表層格の曖昧性.\item[曖昧性(3)述語の取る項構造の曖昧性]\\動詞「話す」のように,項構造[agent,theme,beneficiary]や[agent,beneficiary,content]などの複数の項構造を持つ述語が存在するために生じる曖昧性.例えば,「女性が悲鳴をあげる」と「彼が彼女にプレゼントをあげる」の動詞「あげる」のように,複数の語義を持つことによる曖昧性も含む.\item[曖昧性(4)格の意味役割の曖昧性]\\同じ述語の同じ表層格でも項構造中の意味役割が一意に決まらないという曖昧性.例えば,「彼が扉をひらく」の表層ガ格「彼」は項構造中のagentに対応するのに対し,「扉がひらく」の表層ガ格「扉」はthemeに対応する.また表層「ニ格」のように時間,目的地,場所などさまざまな意味役割を担う表層格がある.\item[曖昧性(5)接尾辞を伴うことによる格交替の曖昧性]\\受身「れる,られる」や使役「せる,させる」によって項構造の意味役割と表層格の対応関係が変化することによって生じる曖昧性.\end{description}この5種類の曖昧性のうち曖昧性(1),(2)は,表層格レベルの問題であるため,河原ら\citeyear{kawahara:02:a}の手法のように全自動で収集した用例を使って解消できる可能性がある.すなわち,必ずしも項構造情報を教示したデータが必要とならない.一方,曖昧性(3),(4),(5)を解消するには述語の取り得る項構造と入力文とを照らし合わせるために,項構造情報のタグを付与したデータが必要となる.本論文では曖昧性(3),(4)の解消に焦点をあて,項構造タグ付与作業の効率化を図る.具体的には,同じ項構造に対応する用例を自動的にひとまとめにすることでタグ付与作業のコスト削減を目指す.曖昧性(5)は,本論文では取り扱わないが,各接尾辞で項構造の意味役割と表層格の対応関係に規則性があり本論文で扱う項構造解析手法を拡張し解消できると考えられる.問題設定として,大量のタグなし用例と項構造辞書が与えられていると仮定する.ここで,用例とは係り受け解析結果から述語とその係り受けを取り出したものを指す.タグなし用例は,大規模な生コーパスの文書を係り受け解析することによって収集可能である.また,図\ref{fig:arg_dic}\,に示すような項構造辞書を仮定する.このような辞書は,Dorrの交替現象に基づいた大規模項構造辞書作成の研究により基盤ができているため,作成可能であると期待できる.この項構造辞書では,各述語に一つ以上の項構造が定義されており,各項構造に取りうる表層格パタンと小規模の用例が記述されているものとする.以上の仮定のもとで,大規模用例集合を次の二つの類似性に基づいてクラスタリングする.\begin{description}\item[類似性A:]ある動詞について同じ項構造を持つ用例は,格の出現パタンとそれぞれの格要素が類似している.例えば,2つの用例「女性が悲鳴をあげる」と「こどもが大声をあげる」で格の出現パタン「が,を」や対応する格の格要素(「女性」と「こども」,「悲鳴」と「大声」)が類似している性質をいう.\item[類似性B:]意味的な類似性がある二つの動詞は,格の出現パタンとそれぞれの格要素が類似している.これは,\citeA{levin:93}が提案する交替現象に基づく動詞分類の基本的な考え方であり,意味的に類似する動詞「公表する」と「発表する」の用例「大統領が98年に計画を公表する」と「首相が10月にプランを発表する」において,格の出現パタン「が,に,を」とそれぞれの対応する格の格要素「大統領」と「首相」,「98年」と「10月」,「計画」と「プラン」が類似するという性質をいう.\end{description}本論文では,類似性Aと類似性Bに基づいて用例をクラスタリングする.そしてクラスタに項構造を付与する作業はクラスタを代表する用例に対して項構造タグを付与し,それをクラスタの項構造タグと考える.つまり用例クラスタリングで得られたクラスタに対して人手でタグを付与するため,いかにして異なる項構造を持つ用例を1つのクラスタに含めることなく,できるだけ少数のクラスタに用例をまとめあげるかが課題となる.\ref{ssec:cla}\,で類似性A,\ref{ssec:clb}\,で類似性Bに基づく用例クラスタリングについて述べる.\subsection{格要素ベースクラスタリング}\label{ssec:cla}格要素ベースクラスタリングでは,{\bf類似性A}を利用することで,格の出現パタンや格要素が類似する用例(例えば,「女性が悲鳴をあげる」と「こどもが大声をあげる」)を自動的にまとめる.\citeA{kawahara:02:a}の大規模平文コーパスから表層格フレーム辞書を自動構築する研究は「動詞の用法を決定する重要な格要素は動詞の直前にくることが多く,動詞と直前の格要素をペアにして考えると動詞の用法はほとんど一意に決定される」という考えに基づいている.本論文でも,彼らと同様にこの考えに基づき,次の3つのステップでクラスタリングを行う.\begin{enumerate}\item{\bf直前格とその要素が同じ}用例のクラスタリング\item{\bf直前格が同じ}用例のクラスタリング\item{\bf直前格が異なる}用例のクラスタリング\end{enumerate}各ステップで対象のクラスタ(用例)間の類似度を計算し,設定する閾値を超えるクラスタ(用例)の組みの中で最も類似度の高い2つのクラスタをマージするボトムアップクラスタリングを行う.また,クラスタ(用例)間の類似度として用例収集に用いた大規模平文コーパス中での用例の出現回数を考慮した類似度計算式(詳細は付録\ref{sec:furoku}\,を参照)を用いる.この式は河原らによって提案されたものである.上の順序で段階的にクラスタリングを行うことで,常に動詞の直前格の出現回数が直前格以外の格の出現回数よりも多くなるように処理を進めることができる.その結果,類似度計算における動詞の直前格の重みが大きくなり,動詞の直前格を重視した用例クラスタリングが可能となる.クラスタリングの各ステップを例を用いて説明する.最初に,ステップ1では例1に示すように直前格要素が同じ用例だけを対象にクラスタリングする.例1では,一つ目の用例と二つ目の用例の類似度が高くこれらをマージした結果を示している.\\\\例1)\\$\left.\begin{array}{rrr}月:に&\underline{{\bf案:を}}&発表する\\中旬:に&\underline{{\bf案:を}}&発表する\\久しぶり:に&\underline{{\bf案:を}}&発表する\end{array}\right\}\Longrightarrow\left\{\begin{array}{rrr}\{月,中旬\}:に&\underline{{\bf案:を}}&発表する\\久しぶり:に&\underline{{\bf案:を}}&発表する\end{array}\right.$\\\次に,ステップ2ではステップ1の結果を入力とし,例2に示すように直前格が同じ用例だけを対象にクラスタリングする.クラスタリングの例を例2に示す.\\\\例2)\\$\left.\begin{array}{rrrr}&\{月,中旬\}:に&案:\underline{{\bfを}}&発表する\\大統領:が&\{年,初め\}:に&計画:\underline{{\bfを}}&発表する\end{array}\right\}$\begin{flushright}$\Longrightarrow\begin{array}{rrrr}大統領:が&\{月,中旬,年,初め\}:に&\{案,計画\}:\underline{{\bfを}}&発表する\end{array}$\\\end{flushright}最後に,ステップ3ではステップ2の結果を入力とし,例3に示すように直前格が異なる用例だけを対象にクラスタリングする.このステップ3のクラスタリングによって,例3に示すような表層格の出現順が「に,を」「を,に」と順序が異なっている用例をマージ例えばできる.\\\\例3)\\$\left.\begin{array}{rrrr}大領領:が&\{月,中旬,年,初め\}:に&\{案,計画\}:\underline{{\bfを}}&発表する\\&\{プラン,計画\}:を&\{年,月\}:\underline{{\bfに}}&発表する\\\end{array}\right\}$\begin{flushright}$\Longrightarrow\begin{array}{rrrr}大統領:が&\{月,中旬,年,初め\}:\underline{{\bfに}}&\{案,計画,プラン\}:\underline{{\bfを}}&発表する\\\end{array}$\\\end{flushright}正確に言えば,このクラスタリングは河原らが提案したクラスタリングとは異なる.本クラスタリング手法と河原らが提案した手法の主な異なりはステップ(1)の存在であり,河原らの手法にはステップ(2)と(3)しか存在しない.河原らの手法では動詞,動詞の直前格とその要素を最小単位と考えクラスタリングを開始する.つまり動詞,動詞の直前格とその要素が同じならば同じクラスタであると判断している.河原らは大規模平文コーパスからの表層格フレーム辞書自動構築を目的にクラスタリング手法を提案しており,このように判断することは大きな問題にならない.しかし,我々の目的は項構造を考慮したクラスタリングであり,動詞,動詞の直前格とその要素が同じならば同じクラスタであると判断することが大きな問題となる.そのためにステップ(1)を導入した.これ以外にも異なる項構造を持つ用例やクラスタが誤ってマージされないようにいくつか工夫する必要がある.詳細は\ref{sssec:cl1}\,節で述べる.\subsection{動詞ベースクラスタリング}\label{ssec:clb}動詞ベースクラスタリングでは,{\bf類似性B}に基づき,同じ項構造に対応する意味的に類似する動詞の用例(例えば,「大統領が98年に計画を公表する」と「首相が10月にプランを発表する」)を自動的にまとめる.具体的には,動詞$T$の用例をクラスタリングするのに動詞$T$と類似する動詞$S=\{S_{1},S_{2},...,S_{n}\}$の用例を利用する.動詞集合$S$をどのように選択するか,また各動詞$S_{i}$の用例をどのように利用するかにはさまざまな方法が考えられるが,今回は動詞を1つだけ用いることにしてクラスタリング手法を検討する.また,本クラスタリングは類似する動詞の一方の用例に項構造タグを付与した結果を利用する.つまり,すでに人手で項構造タグが用例に付与された動詞$S_{a}$を用いて,動詞$S_{a}$と類似する動詞$T$の用例集合を次の3つのステップでクラスタリングする.なお,本クラスタリングの入力は格要素ベースクラスタリングの結果である.\\\begin{enumerate}\item表層格が最も多い用例を動詞$T$のクラスタを代表する用例として選択する.\item(1)で選択された用例と動詞$S_{a}$の用例の中で表層格パタンが同じでかつ最も類似する用例を対応付ける.\item動詞$T$の異なるクラスタに属する用例が動詞$S_{a}$の同じ項構造の用例に対応付けられた場合に,動詞$T$側の2つのクラスタをマージする.\\\end{enumerate}\begin{figure}[t]\begin{center}\includegraphics[width=0.85\columnwidth,keepaspectratio]{clip021.eps}\end{center}\caption{動詞の類似性に基づくクラスタリング}\label{fig:step3}\end{figure}まずステップ1では,格要素ベースクラスタリングによってできたクラスタにおいて,各クラスタを構成する用例で最も多くの表層格を持つ用例をそのクラスタを代表する用例とする.例えば,「首相が10月にプランを発表する」と「5月に計画を発表する」の用例で構成されるクラスタの例を考える.これらの用例の表層格はそれぞれ「が,に,を」と「に,を」であり,表層格数は前者が3,後者が2であるため,前者の用例をこのクラスタを代表する用例として選択する.図\ref{fig:step3}\,では,ステップ1で動詞$T$の1番目のクラスタの代表用例を$T_{1}$,2番目のクラスタの代表用例を$T_{2}$として選択したとする.ステップ2で$T_{1}$,$T_{2}$のそれぞれと最も類似度の高い用例を動詞$S_{a}$側の用例集合から選択し対応付ける.ここではそれぞれ用例$S_{a1}$と用例$S_{a2}$が対応付けられたとする.最後に,動詞$S_{a}$側で用例$S_{a1}$,$S_{a2}$が同じ項構造であるというタグ付与情報を利用して,1番目と2番目のクラスタをマージする.動詞ベースクラスタリングにおいても,用例間(動詞$T$の用例と動詞$S_{a}$の用例)の類似度計算式として,格要素ベースクラスタリングと同じ計算式を用いる.但し本クラスタリングにおいては,表層格パタンが同一の用例のみを類似度計算の対象とした.動詞ベースクラスタリングでポイントとなるのはステップ3であり,本クラスタリングの狙いは次のとおりである.格要素クラスタリングでは対応する格の格要素の類似度だけを考慮しているが,実際には同じ項構造となる用例のなかには類似しない格要素を持つ用例も多い.つまり,述語とある意味的な関係を持つ要素の集合は,その要素自身が持つ意味だけでは表現することができないのである.例えば,図\ref{fig:step3}\,の用例$T_{1}$「首相が10月にプランを発表する」と$T_{2}$「自衛隊が結果を発表する」は格要素の類似度に基づいたクラスタリングでは,マージされなかった用例である.しかしながら,我々人間には同じ項構造であることがわかる.このような格要素の類似性だけではマージできない用例を,類似した他の動詞の用例に人間が項構造を付与することで与えた情報を利用してクラスタリングを行なうのが動詞ベースクラスタリングの狙いである.
\section{評価実験}
\label{sec:fourth}前節で述べたクラスタリングの効果および大規模な訓練事例を利用することがどの程度項構造解析の精度向上に寄与するかを調査した.まず,両実験で使用する実験データと訓練事例作成のための用例クラスタリングの設定,項構造解析モデルについて説明し,最後に実験結果を示す.\subsection{評価実験データ}\label{ssec:data}4つの動詞(「話す」,「発表する」,「発売する」,「増える」)を用いて評価した.これらの動詞は後述のテストデータのコーパス中に頻出する動詞であり,それぞれの動詞が持つ項構造数は「話す:5」,「発売する:1」,「発表する:3」,「増える:2」である.例として,表\ref{tab:arg_dic_2}\,に「話す」の項構造辞書の項目を示す\footnote{その他の動詞の項構造辞書の項目は付録\ref{sec:sonota}\,を参照}.この項構造辞書はIPAL動詞辞書\cite{IPAL}を基に今回収集した用例を参考に,それらの格交替を考慮しながら作成したものである.この4つの動詞に対して,毎日新聞社の新聞記事でテストデータ作成に用いた1ヶ月分を除いた,13年分の新聞記事から用例異なりを除いた8385用例を抽出した(抽出条件は\ref{ssec:class}\,の用例の収集を参照).この用例をクラスタリングし,各クラスタに項構造を対応付けて,項構造解析の訓練事例とした.項構造解析実験のテストデータとして,上の13年分の新聞記事から抜き出したある月の新聞記事から対象動詞の用例を抽出し,用例異なりを除いた220用例にひとつずつ人手で項構造タグを付与したものを用いる.ただし,\ref{sec:third}\,節で述べたように(1)「は」,「も」,「無格」が兼務する表層格の曖昧性,および(2)連体修飾節に関する曖昧性は表層格パターンを用いてある程度解析可能であると考えられるため,今回のテストデータについては「は」,「も」,「無格」の曖昧性は人手で解消し,連体修飾節の被修飾名詞は取り除き(3),(4)の曖昧性の解消に焦点を当てて評価する.また,(5)の接尾辞を伴うことによる格交替の曖昧性については,文書中の約1割の述語が格交替を生じる接尾辞を伴って出現したが,訓練事例の抽出と同様に今回はそれらを除いて評価実験を行った.なお訓練事例,テストデータともに用例に項構造タグを付与する際,可能な項構造が複数あれば複数のタグを付与した.また項構造解析時には,\ref{ssec:asa}\,の項構造解析モデルで複数のタグを持つ用例が選択された場合,複数の項構造解析結果を出力する.表\ref{tab:train}\,に訓練事例,表\ref{tab:test}\,にテストデータ中の動詞とその項構造の出現回数を示す.各動詞の項構造番号は,表\ref{tab:arg_dic_2}\,や付録\ref{sec:sonota}\,に示した動詞項構造辞書の項目番号と対応している.評価実験では,動詞「増える」の場合,システムが出力すべき項構造の数は142個(5+7+65×2)である(表\ref{tab:test}\,参照).\begin{table}[tbp]\begin{center}\caption{動詞「話す」の項構造辞書の項目}\small\begin{tabular}{||llll|ll||}\hline\hline\multicolumn{5}{||l}{述語:話す}&\\\multicolumn{1}{||l}{}&\multicolumn{4}{l}{語義:口に出して,ある事を人に知らせる.}&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{3}{l}{項構造1[agent,theme,beneficiary]}&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&&表層格パタン&用例&\\\cline{4-5}\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{1}{l}{}&が,を,に&彼が用件を先方に話す.&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{1}{l}{}&が,について,に&彼が事件について警察に話す.&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{1}{l}{}&が,まで,に&先生がそんなことまで生徒に話す.&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{1}{l}{}&から,について,に&私から結婚について親に話す.&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{1}{l}{}&から,を,に&彼女から将来のことを彼氏に話す.&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{3}{l}{項構造2[agent,beneficiary,content]}&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&&表層格パタン&用例&\\\cline{4-5}\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&&が,に,と&彼が母に明日出発すると話す.&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{3}{l}{項構造3[agent,beneficiary,theme,content]}&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&&表層格パタン&用例&\\\cline{4-5}\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{1}{l}{}&が,に,を,と&妻が私に映画をすばらしかったと話す.&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{1}{l}{}&が,に,について,と&警察が市民に事件について解決したと話す.&\\\multicolumn{1}{||l}{}&\multicolumn{4}{l}{語義:複数の者で会話,討議する.}&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{3}{l}{項構造4[agent,theme]}&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&&表層格パタン&用例&\\\cline{4-5}\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{1}{l}{}&が,を&政治家が貿易摩擦問題を話す.&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{1}{l}{}&が,について&先生らがいじめについて話す.&\\\multicolumn{1}{||l}{}&\multicolumn{4}{l}{語義:ある言語を用いる.}&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&\multicolumn{3}{l}{項構造5[agent,theme]}&\\\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&&表層格パタン&用例&\\\cline{4-5}\multicolumn{1}{||l}{}&\multicolumn{1}{l}{}&&が,を&彼が英語を話す.&\\\hline\hline\end{tabular}\label{tab:arg_dic_2}\end{center}\end{table}\begin{table}[htbp]\begin{center}\caption{訓練事例中の動詞とその項構造の出現回数}\small\begin{tabular}{|l||l|l|l|}\hline動詞&出現回数&項構造の種類&各項構造の出現回数(項構造番号:出現回数)\\\hline\hline話す&1867&5&1:105,2:22,3:133,4:232,5:62,1+2+3:155,\\&&&1+3:194,1+3+4:364,2+3:214,1+2+3+4+5:386\\\hline発表する&2822&3&3:60,1+3:1286,2+3:918,1+2+3:558\\\hline発売する&635&1&1:635\\\hline増える&3061&2&1:138,2:232,1+2:2691\\\hline\end{tabular}\label{tab:train}\end{center}\begin{center}\caption{テストデータ中の動詞とその項構造の出現回数}\small\begin{tabular}{|l|l|l|l|}\hline\multicolumn{1}{|l||}{動詞}&\multicolumn{1}{l|}{出現回数}&項構造の種類&各項構造の出現回数(項構造番号:出現回数)\\\hline\hline話す&57&5&1:4,3:5,4:8,5:2,1+2+3:4,1+3:5,\\\\\\\\\\\\\\&&&1+3+4:10,2+3:7,1+2+3+4+5:12\\\hline発表する&76&3&3:4,1+3:33,2+3:24,1+2+3:15\\\hline発売する&10&1&1:10\\\hline増える&77&2&1:5,2:7,1+2:65\\\hline\end{tabular}\label{tab:test}\end{center}\end{table}\subsection{用例クラスタリングの設定}\label{ssec:class}\subsubsection{用例の収集}項構造と対応付けるために収集できる用例には「は」,「も」,「無格」を伴った用例があるが,これらは兼務する表層格の曖昧性があるため訓練事例としては収集しない.また,格交替が生じる可能性のある接尾辞「れる」,「られる」,「せる」,「させる」,「たい」,「ほしい」,「もらう」,「いただく」,「くれる」,「くださる」,「やる」,「あげる」,「できる」を伴う述語の用例や連体修飾節の被修飾名詞も訓練事例としては収集しない.\subsubsection{格要素ベースクラスタリング}\label{sssec:cl1}用例間の類似度の計算式は河原ら\citeyear{kawahara:02:a}の提案した計算式\footnote{用例間の対応する格の割合と,対応する格要素の類似度による計算式.詳しくは付録\ref{sec:furoku}\,を参照.}を用いた.ただし,異なる項構造の用例を誤ってマージしないように次の制約を加えた.\\\begin{description}\item[・]一方の用例の格パタンが他方の用例の表層格パタンを包含する場合のみマージする.この制約により,用例「彼\underline{が}結婚について両親に話す」と「私\underline{から}結婚について両親に話す」を「彼\underline{が}私\underline{から}結婚について両親に話す」のように「話す」のagentが2つ存在するといった誤ったマージを避ける.\item[・]ボトムアップクラスタリングの際に類似度を再計算する用例ペアとして各ステップの初めの類似度計算で設定した閾値を超えた用例ペアだけを対象にする.この制約により,直前格を重要視しすぎないないように制御する.\end{description}格要素ベースクラスタリングでは,3ステップのそれぞれで閾値を設定する必要がある.今回は0.9,0.85,0.8とした.\subsubsection{動詞ベースクラスタリング}4つの動詞「話す」,「発表する」,「発売する」,「増える」(図\ref{fig:step3}\,における未知の動詞$T$)の用例クラスタリングに「語る」,「公表する」,「売り出す」,「減る」(図\ref{fig:step3}\,における既知の動詞$S$)のタグ付き用例4551個を利用する.このタグ付き用例は格要素ベースクラスタリングの結果に人手で項構造タグを付与し作成したものである.動詞ベースクラスタリングのステップ2の用例間の類似度計算には,格要素ベースクラスタリングと同じ類似度計算式を用いた.ただし,用例の表層格パタンが同一のもののみ対象とし,閾値は0.85に設定した.\subsection{項構造解析モデル}\label{ssec:asa}項構造解析モデルとしては,用例に対応する項構造候補の選択に最近傍法を用い,また用例間の近さを計算するのにKurohashiら\citeyear{Kurohashi:94}が提案する計算方法を用いた.この計算方法は分類語彙表\cite{BGH:93}を利用して名詞間の類似度を定め,また用例間の類似度に名詞間の類似度の和を用いている.項構造解析の処理を説明する.\\\begin{enumerate}\item入力文の格要素とタグ付き用例の対応付けを行う\item対応付けられたそれぞれの格要素について,入力文の名詞とタグ付き用例との間の類似度を計算する.類似度の値は分類語彙表\cite{BGH:93}における2つの名詞の分類コードの一致するレベルによって決定する.一致するレベルと類似度との関係を表\ref{level2}\,に示す.\item式1に従ってタグ付き用例と入力文の対応の評価値を計算し評価値の高い用例の持つ項構造から順に選択する.\end{enumerate}\begin{eqnarray}評価値=\left\{\begin{array}{ll}0&ifl>n\\sum\times\sqrt[]{\mathstrut\frac{1}{m}}&otherwise\end{array}\right.\end{eqnarray}$n$:対応付けられた格要素数\\$l$:$n$+(入力文側の対応付けられいない格要素数)\\$m$:$n$+(タグ付き用例側の対応付けられいない格要素数)\\$sum$:対応付けられた格要素の類似度の和\\\begin{table}[t]\begin{center}\caption{黒橋らが提案した名詞間の類似度}\begin{tabular}{|c|cccccccc|}\hlineレベル&0&1&2&3&4&5&6&一致\\\hline類似度&0&0&5&7&8&9&10&11\\\hline\end{tabular}\label{level2}\end{center}\end{table}\subsection{提案手法の有用性の評価実験}\label{ssec:eva1}提案手法の有用性を示すために次の3点を経験的に明らかにする.\paragraph{(a)項構造タグ付与作業のコスト}訓練事例作成のために,クラスタリングの結果得られるクラスタに項構造タグを人手で付与する必要がある.今回の実験では,クラスタに項構造を付与する作業はクラスタを代表する用例に対して項構造タグを付与し,それをクラスタの項構造タグと考える.そのため\textbf{クラスタリング結果のクラスタ数}でタグ付与作業のコストを評価する.\paragraph{(b)タグ付与の品質}項構造タグ付与誤りを調査するために,人手で各用例に項構造タグを付与した.また提案手法によって得られたクラスタに項構造を付与する作業はクラスタを代表する用例に対して項構造タグを付与し,それをクラスタの項構造と考える.これらの結果を比較し,\textbf{タグ付与誤りの割合}でタグ付与の品質を評価する.\paragraph{(c)項構造解析精度}項構造解析は一文ごとに処理を行うため,省略などによって文脈を見なくては項構造を一意に決定することができない.省略のある入力に対しては可能な項構造解析結果を漏れなく出力することが望まれる.そこで項構造解析の評価尺度として,類似度の順で解析結果を出力していき,正解を漏れなく答えたときの精度で評価する.つまり,{\bf再現率が100%のときの精度}\footnote{再現率=出力された正解項構造数/正解項構造数,精度=出力された正解項構造数/出力された項構造数}で項構造解析を評価する.なお評価は事例単位でなく,項構造単位で再現率と精度を計算した.例えば,入力「父が事件について話す」の項構造は,表\ref{tab:arg_dic_2}\,に示すように,項構造1[agent,theme,beneficiary]と項構造3[agent,beneficiary,theme,content]の可能性がある.このような入力に関して,項構造1と項構造3の両方の答えを出力するまでの解析結果の精度で評価する.ただし,タグ付き用例集合が入力文の正解を網羅していない場合は,その入力に対して可能なすべての項構造をシステムの出力とする.\\上の(a)項構造タグ付与作業のコスト,(b)タグ付与の品質,(c)項構造解析精度について以下の3つの手法を用いて訓練事例を作成し比較実験を行なった結果を表\ref{tab:res1}\,に示す.\begin{enumerate}\itemベースライン\\各用例に項構造タグを付与し訓練事例を作成.\item格要素ベースクラスタリング\\類似性A(ある動詞について同じ項構造を持つ用例は,格の出現パタンとそれぞれの格要素が類似している)に基づいた用例クラスタリングの結果に項構造タグを付与し訓練事例を作成.\item動詞ベースクラスタリング\\格要素ベースクラスタリングに加え,類似性B(意味的な類似性がある二つの動詞は,格の出現パタンとそれぞれの格要素が類似している)に基づいた用例クラスタリングの結果に項構造タグを付与し訓練事例を作成.\end{enumerate}\begin{table}[t]\begin{center}\caption{提案手法の作業コスト,品質と項構造解析精度}\begin{tabular}{|l||c|c|c|}\hline&(a)\[個]&(b)\[%]&(c)\[%]\\\hline\hline{\footnotesize(1)ベースライン}&8385&0.00&99.3\\\hline{\footnotesize(2)格要素ベースクラスタリング}&2745&0.31&97.7\\\hline{\footnotesize(3)動詞ベースクラスタリング}&{\bf1505}&0.70&97.3\\\hline\end{tabular}\label{tab:res1}\end{center}\end{table}表\ref{tab:res1}\,の(a)項構造タグ付与作業のコストが示すように,格要素ベースクラスタリングによってベースラインの作業コストを約3分の1(2745/8385)に削減し,動詞ベースクラスタリングを用いてさらに半減(1505/2745)できた.この結果より,用例のクラスタリングに一般的な名詞の類似度を用いた手法に加え,類似する動詞のタグ付き用例を利用して,未知の動詞の用例をさらにマージすることができたと言える.また,動詞ベースクラスタリングは格要素ベースクラスタリングと比べ,タグ付与品質では多少の低下が見られるものの,項構造解析の精度にはほとんど影響しなかった.この結果から,項構造タグ付与作業済みの動詞が増えると,ある動詞と意味的に類似する動詞が増加するので,より多くの動詞ベースクラスタリングが可能になり,項構造解析精度を保ったままタグ付与作業のコストをさらに削減できると考えられる.また,ベースラインと格要素ベースクラスタリングにおける項構造解析精度の差は,\ref{ssec:clb}\,節で動詞ベースクラスタリングのねらいとして述べたように,述語とその項の間の意味的な関係を示す項構造の項となる要素の集合は,その要素自身が持つ意味だけでは表現することができないことを示す結果になっている.\begin{figure}[t]\begin{center}\includegraphics[width=\columnwidth,keepaspectratio]{20060219_0.eps}\caption{用例規模に対する用例異なり数とクラスタ数,項構造解析精度(テストデータ)}\label{fig:res2}\end{center}\end{figure}\subsection{用例規模の異なりによる評価実験}\label{ssec:eva2}大規模な訓練事例を利用することがどの程度項構造解析精度の向上に寄与するかを評価するため,用例集合の規模を変化させたときの(a)クラスタ数と(c)項構造解析精度の変化を調べた.図\ref{fig:res2},\ref{fig:res4}\,は動詞ベースクラスタリングまで施したときの結果である.横軸は用例の規模(年単位)であり,棒グラフはそれぞれ用例異なり数とそれをクラスタリングすることによって得られるクラスタ数を示している.また折れ線グラフは項構造解析精度(図\ref{fig:res2}:テストデータの220用例に対する結果,図\ref{fig:res4}:訓練事例の8385用例の10分割交差検定の結果)である.なお図\ref{fig:res4}\,のクラスタ数,項構造解析精度は交差検定の結果の平均を示している.図\ref{fig:res2},\ref{fig:res4}\,を見ると,用例規模が増加すると収集できる用例異なり数は増加し続けているのに対し,得られるクラスタ数は収束しつつある.すなわち,用例規模を増やしたときに得られる新規の用例は収集済みの用例と類似している可能性が高いため,項構造解析の精度向上に寄与する保証は必ずしもない.しかし,異なるデータセットを用いた実験の結果,図3,4に示すように,用例規模を増やせば項構造解析精度が向上するということが経験的に明らかになった.これは,項構造解析においてはクラスタの重心ではなく,最近傍の用例を参照しているためである.すなわち,用例規模を変化させたときのクラスタリングの結果に大きな違いがないとしても,クラスタの外延的定義はより緻密になっており,複数のクラスタ間の用例に対する類似度がより正確に見積もられていると解釈できる.ちなみに,「は」,「も」,「無格」の曖昧性を人手で解消せずに,Kurohashiら\citeyear{Kurohashi:94}の手法で項構造解析と表層格の曖昧性解消を行った結果,項構造解析精度は90.8%であり,人手で曖昧性を解消した結果と比べ約7%低下している.この結果より,項構造解析精度を改善するにはこの種の多義性解消の問題に取り組む必要があることが明らかになった.「は」,「も」,「無格」の曖昧性を解消するためには,単純に用例を増やすだけでなく,ゼロ照応解析や連体修飾の解析との統合について検討すべきであると考えられる.\begin{figure}[t]\begin{center}\includegraphics[width=\columnwidth,keepaspectratio]{20060219_1.eps}\caption{用例規模に対する用例異なり数とクラスタ数,項構造解析精度(交差検定)}\label{fig:res4}\end{center}\end{figure}
\section{おわりに}
\label{sec:fifth}本論文では,項構造解析の精度向上を目指して,用例と項構造を対応付けるタグ付与作業コストの削減について議論した.また,動詞に関する2種類の類似性に基づき用例をクラスタリングすることで作業コストを削減する一手法を提案した.提案手法を用いて実際にタグ付与作業を行ったところ,タグ付与の品質や項構造解析の精度を保ったまま,作業コストを約2割に削減できた.また,最近傍法を用いた項構造解析では,タグ付与された事例を増やすことで精度を向上できた.この結果より,解析精度の向上にはいかにコストをかけずに大規模な項構造タグ付き用例を収集するかが主要な問題であることがわかり,我々の提案手法はその問題の一つの解決策となっていることが確認できた.ただし,動詞それぞれについて網羅的に大規模な用例を作成するためには,項構造解析精度を低下させることなく選択的に用例をサンプリングするための評価尺度について検討したり,能動学習を採り入れるなど,さらなるコスト削減の方法を考える必要がある.そこで,提案した手法によって得られたクラスタすべてにタグを付与せず,クラスタを選択的にサンプリングし,一部の代表的なクラスタにタグを付与することで作業コストをさらに削減することを試みた.選択的サンプリングでは「いかに項構造解析に貢献するクラスタを選択するか」が課題となる.サンプルの選択基準は多々あるが,今回は動詞ベースクラスタリングの結果を利用し,サイズの大きいクラスタ(多くの用例から構成さているクラスタ)を優先した.\ref{sec:fourth}\,節の評価実験と同じ評価データ,クラスタリングの設定,項構造解析モデルで評価実験を行なった.結果を図\ref{fig:res3}\,に示す.タグ付与を行ったクラスタ数(横軸)に対する,項構造解析精度とタグ付けされる用例数の変化を表している.結果から単にクラスタサイズに基づいてサンプリングするだけではさらなるコスト削減の方法として必ずしも良い結果が得られないことがわかった.今後,どのような基準でサンプリングするか,およびタグ付与作業の終了条件について検討を重ねる必要がある.\begin{figure}[t]\begin{center}\includegraphics[width=\columnwidth,keepaspectratio]{selective005.eps}\caption{選択的サンプリングによる項構造解析精度}\label{fig:res3}\end{center}\end{figure}また項構造解析精度を向上させるには「は」,「も」などの表層格の曖昧性解消や接尾辞を伴うことによる格交替の曖昧性の解消に今後取り組む必要がある.接尾辞を伴うことによる交替現象はある程度の文法規則によってとらえられると考えられるが,「は」,「も」の曖昧性は単純に用例を増やすだけでは解消できないことが今回の実験結果からわかる.この曖昧性を高精度で解析するためにはゼロ照応解析や連体修飾の解析も視野に入れた解析手法が必要であり,今後その問題にも取り組みたい.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Baker,Filmore,\BBA\Lowe}{Bakeret~al.}{1998}]{Frame:98}Baker,C.~F.,Filmore,C.~J.,\BBA\Lowe,J.~B.\BBOP1998\BBCP.\newblock\BBOQTheBerkeleyFrameNetProject\BBCQ\\newblockIn{\BemProceedingsofthe36thAnnualMeetingoftheAssociationforComputationalLinguisticsand17thInternationalConferenceonComputationalLinguistics(COLING-ACL)},\mbox{\BPGS\86--90}.\bibitem[\protect\BCAY{Dorr}{Dorr}{1997}]{Dorr:97}Dorr,B.~J.\BBOP1997\BBCP.\newblock\BBOQLarge-ScaleAcquisitionofLCS-BasedLexiconsforForeignLanguageTutoring\BBCQ\\newblockIn{\BemProceedingsofthe5thConferenceonAppliedNaturalLanguageProcessing},\mbox{\BPGS\139--146}.\bibitem[\protect\BCAY{Filmore}{Filmore}{1968}]{Fil:68}Filmore,C.~J.\BBOP1968\BBCP.\newblock\BBOQThecaseforcase\BBCQ\\newblockIn{\BemUniversalsinLinguisticTheory},\mbox{\BPGS\1--88}.\bibitem[\protect\BCAY{Gildea\BBA\Jurafsky}{Gildea\BBA\Jurafsky}{2002}]{gildea:02:c}Gildea,D.\BBACOMMA\\BBA\Jurafsky,D.\BBOP2002\BBCP.\newblock\BBOQAutomaticlabelingofsemanticroles\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf28}(3),\mbox{\BPGS\245--288}.\bibitem[\protect\BCAY{Hacioglu\BBA\Ward}{Hacioglu\BBA\Ward}{2003}]{Kadri:03}Hacioglu,K.\BBACOMMA\\BBA\Ward,W.\BBOP2003\BBCP.\newblock\BBOQTargetWordDetectionandSemanticRoleChunkingusingSupportVectorMachines\BBCQ\\newblockIn{\BemHLT-NAACL2003:HumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics,CompanionVolume:Shortpapers},\mbox{\BPGS\25--27}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{NTT:97}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\JEDS\\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系:CD-ROM版}.\newblock岩波書店.\bibitem[\protect\BCAY{情報処理振興事業協会技術センター}{情報処理振興事業協会技術センター}{1987}]{IPAL}情報処理振興事業協会技術センター\BBOP1987\BBCP.\newblock\Jem{計算機用日本語基本動詞辞書IPAL(BasicVerbs)辞書編}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2002}]{kawahara:02:a}河原大輔\JBA黒橋禎夫\BBOP2002\BBCP.\newblock\JBOQ用言と直前の格要素の組を単位とする格フレームの自動構築\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(1),\mbox{\BPGS\3--19}.\bibitem[\protect\BCAY{Kingsbury\BBA\Palmer}{Kingsbury\BBA\Palmer}{2002}]{Prop:02}Kingsbury,P.\BBACOMMA\\BBA\Palmer,M.\BBOP2002\BBCP.\newblock\BBOQFromTreeBanktoPropBank\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\1989--1993}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{1993}]{BGH:93}国立国語研究所\BBOP1993\BBCP.\newblock\Jem{分類語彙表},\Jem{国立国語研究所資料集},6\JVOL.\newblock秀英出版.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1994}]{Kurohashi:94}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQAMethodofCaseStructureAnalysisforJapaneseSentencesbasedonExamplesinCaseFrameDictionary\BBCQ\\newblock{\BemIEICETransactionsonInformationandSystems},{\BbfE77-D}(2),\mbox{\BPGS\227--239}.\bibitem[\protect\BCAY{Lapata\BBA\Brew}{Lapata\BBA\Brew}{1999}]{Lapata:Brew:99}Lapata,M.\BBACOMMA\\BBA\Brew,C.\BBOP1999\BBCP.\newblock\BBOQUsingSubcategorizationtoResolveVerbClassAmbiguity\BBCQ\\newblockIn{\BemProceedingsoftheJointSIGDATConferenceonEmpiricalMethodsinNaturalLanguageProcessingandVeryLargeCorpora},\mbox{\BPGS\266--274}.\bibitem[\protect\BCAY{Levin}{Levin}{1993}]{levin:93}Levin,B.\BBOP1993\BBCP.\newblock{\BemEnglishVerbClassesandAlternations:APreliminaryInvestigation}.\newblockChicagoPress.\bibitem[\protect\BCAY{Thompson,Levy,\BBA\Manning}{Thompsonet~al.}{2003}]{Cyn:03}Thompson,C.~A.,Levy,R.,\BBA\Manning,C.~D.\BBOP2003\BBCP.\newblock\BBOQAGenerativeModelforSemanticRoleLabeling\BBCQ\\newblockIn{\BemMachineLearning:ECML2003},\mbox{\BPGS\397--408}.\end{thebibliography}\appendix
\section{用例間の類似度計算}
\label{sec:furoku}\citeA{kawahara:02:a}は以下の類似度計算式を提案した.\\単語$e_{1},e_{2}$の類似度$sim(e_{1},e_{2})$を,日本語語彙大系\cite{NTT:97}のシソーラスを利用して以下のように定義する.\begin{eqnarray}sim_{e}(e_{1},e_{2})&=&max_{x\ins_{1},y\ins_{2}}sim(x,y)\nonumber\\sim(x,y)&=&\frac{2L}{l_{x}+l_{y}}\nonumber\end{eqnarray}ここで,$x,y$は意味属性を表し,$s_{i}$($i\in${1,2})は単語$e_{i}$の意味属性の集合を表す\footnote{日本語語彙大系では,曖昧性を持つ単語を複数の意味属性に登録している.}.$sim(x,y)$は意味属性の$x,y$間の類似度であり,$l_{x},l_{y}$はそれぞれ名詞意味属性の階層の根から$x,y$までの深さを表し,$L$は根から$x,y$までの共通している階層の深さを表す.類似度$sim(x,y)$は0から1の値をとる.用例$P_{1},P_{2}$の格の一致度$cs$は,$P_{1},P_{2}$に含まれるすべての格パタンに対する,$P_{1},P_{2}$の共通格に含まれている格パタンの割合とし,\begin{eqnarray}cs&=&\frac{\sum^{n}_{i=1}\midE_{1cc_{i}}\mid+\sum^{n}_{i=1}\midE_{2cc_{i}}\mid}{\sum^{l}_{i=1}\midE_{1c1_{i}}\mid+\sum^{m}_{i=1}\midE_{2c2_{i}}\mid}\nonumber\end{eqnarray}と定義する.ただし用例$P_{1}$中の格を$c1_{1}$,$c1_{2}$,$\cdots$,$c1_{l}$,用例$P_{2}$中の格を$c2_{1}$,$c2_{2}$,$\cdots$,\\$c2_{m}$,$P_{1}$と$P_{2}$の共通格を$cc_{1}$,$cc_{2}$,$\cdots$,$cc_{n}$とする.また,$E_{1cc_{i}}$は$P_{1}$内の格$cc_{i}$に含まれる格用例群であり,$E_{2cc_{i}}$,$E_{1c1_{i}}$,$E_{2c2_{i}}$も同様である.$\midE_{1cc_{i}}\mid$は$E_{1cc_{i}}$の頻度を表す.用例$P_{1},P_{2}$の共通格に含まれる格用例群の類似度$sim_{E}(P_{1},P_{2})$は,格用例の類似度の和を正規化したもので,\begin{eqnarray}sim_{E}(P_{1},P_{2})=\frac{\sum^{n}_{i=1}\sum^{}_{e_{1}\inE_{1cc_{i}}}\sum^{}_{e_{2}\inE_{2cc_{i}}}\mide_{1}\mid\mide_{2}\midsim_{e}(e_{1},e_{2})}{\sum^{n}_{i=1}\sum^{}_{e_{1}\inE_{1cc_{i}}}\sum^{}_{e_{2}\inE_{2cc_{i}}}\mide_{1}\mid\mide_{2}\mid}\nonumber\end{eqnarray}とする.用例$P_{1},P_{2}$間の類似度は,格の一致度$cs$と$P_{1},P_{2}$の共通格の格用例群間の類似度の積とし,次のようにして計算する.\begin{eqnarray}類似度&=&cs\cdotsim_{E}(P_{1},P_{2})\nonumber\end{eqnarray}\newpage
\section{その他の動詞の項構造辞書の項目}
\label{sec:sonota}\begin{table}[htbp]\begin{center}\caption{動詞「発表する」項構造辞書の項目}\small\begin{tabular}{||llll|p{7cm}l||}\hline\hline\multicolumn{5}{||l}{述語:発表する}&\\&\multicolumn{4}{l}{語義:新しい事実や考えなどを,広く世間に知らせる.}&\\&&\multicolumn{3}{l}{項構造1[agent,theme]}&\\&&&表層格パタン&用例&\\\cline{4-5}&&&が,を&研究者が論文を発表する.&\\&&\multicolumn{3}{l}{項構造2[agent,content]}&\\&&&表層格パタン&用例&\\\cline{4-5}&&&が,と&政府が自衛隊を派遣すると発表する.&\\&&\multicolumn{3}{l}{項構造3[agent,theme,content]}&\\&&&表層格パタン&用例&\\\cline{4-5}&&&が,を,と&政治家が結果を残念だと発表する.&\\\hline\hline\end{tabular}\label{tab:pred2}\end{center}\begin{center}\caption{動詞「発売する」項構造辞書の項目}\small\begin{tabular}{||llll|p{7cm}l||}\hline\hline\multicolumn{5}{||l}{述語:発売する}&\\&\multicolumn{4}{l}{語義:売り出すこと.}&\\&&\multicolumn{3}{l}{項構造1[agent,theme]}&\\&&&表層格パタン&用例&\\\cline{4-5}&&&が,を&SONYが商品を発売する.&\\\hline\hline\end{tabular}\label{tab:pred3}\end{center}\begin{center}\caption{動詞「増える」項構造辞書の項目}\small\begin{tabular}{||llll|p{7cm}l||}\hline\hline\multicolumn{5}{||l}{述語:増える}&\\&\multicolumn{4}{l}{語義:数量が多くなる.}&\\&&\multicolumn{3}{l}{項構造1[theme]}&\\&&&表層格パタン&用例&\\\cline{4-5}&&&が&映画館が増える.&\\&&\multicolumn{3}{l}{項構造2[theme,goal]}&\\&&&表層格パタン&用例&\\\cline{4-5}&&&が,に&体重が100\,kgに増える.&\\&&&が,まで&川の水が腰の位置まで増える.&\\&&&が,へ&予算が一千万円へ増える.&\\\hline\hline\end{tabular}\label{tab:pred4}\end{center}\end{table}\begin{biography}\biotitle{略歴}\bioauthor{平野徹}{2003年和歌山大学システム工学部情報通信システム学科卒業.2005年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年日本電信電話株式会社入社.現在に至る.自然言語処理の研究に従事.}\bioauthor{飯田龍}{2002年九州工業大学情報工学部知能情報工学科卒業.現在,奈良先端科学技術大学院大学情報科学研究科博士後期課程在学中.情報処理学会学生会員.自然言語処理,特に照応解析の研究に従事.}\bioauthor{藤田篤(正会員)}{2005年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.京都大学情報学研究科産学官連携研究員を経て,2006年より名古屋大学大学院工学研究科助手.現在に至る.博士(工学).自然言語処理,特にテキストの自動言い換えの研究に従事.情報処理学会,ACL各会員.}\bioauthor{乾健太郎(正会員)}{1995年東京工業大学大学院情報理工学研究科博士課程修了.同年より同研究科助手.1998年より九州工業大学情報工学部助教授.1998年〜2001年科学技術振興事業団さきがけ研究21研究員を兼任.2001年より奈良先端科学技術大学院大学情報科学研究科助教授.2004年文部科学省長期在外研究員として英国サセックス大学に滞在.現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL各会員.}\bioauthor{松本裕治(正会員)}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.専門は自然言語処理.情報処理学会,人工知能学会,日本ソフトウェア科学会,認知科学会,AAAI,ACL,ACM各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V07N02-07 | \section{はじめに}
近年のWWW(WorldWideWeb)などのインターネットの発展や電子化文書の増加により情報検索\cite{ir_tokunaga,ir_doukou,Fujita99}の研究は盛んになっている.これを背景に日本で情報検索コンテストIREXが行なわれた.われわれはこのコンテストに二つのシステムを提出していたが,記事の主題が検索課題に関連している記事のみを正解とするA判定の精度はそれぞれ0.4926と0.4827で,参加した15団体,22システムの中では最もよい精度であった.本論文は,この二つのシステムの詳細な説明と,これを用いた詳細な実験結果を記述するものである.われわれの情報検索の方法では基本的に,確率型手法の一つのRobertsonの2-ポアソンモデル\cite{2poisson}を用いている.しかし,この方法では検索のための手がかりとして当然用いるべき位置情報や分野情報などを用いていない.それに対しわれわれは2-ポアソンモデルにおいて位置情報や分野情報,さらに種々の詳細な情報などをも統一的に用いる枠組を考案し,これらの情報の追加により精度向上を実現できることを実験により確かめている.また,2-ポアソンモデルを用いる際にはまず,どのようなものをキーワードとするかを定める必要がある.本研究では,キーワードの抽出方法について4つのものを示し,それらの比較実験を行なっている.
\section{情報検索の方法}
\subsection{問題設定}本研究での情報検索の問題設定は,日本で開催された情報検索コンテストIREX\cite{irex1_Sekine_eng}のものと全く同じである.本研究で検索の対象とするデータは,IREXで用いられた毎日新聞94年95年の二年分の新聞記事データである.このデータに対して日本語文で記述された検索要求を満足する文書を検索する.日本語文で記述された検索要求の例を以下に示す(IREXの予備試験の課題より).\vspace{0.1cm}\begin{quote}\begin{verbatim}<TOPIC><TOPIC-ID>1001</TOPIC-ID><DESCRIPTION>企業合併</DESCRIPTION><NARRATIVE>記事には企業合併成立の発表が述べられており、その合併に参加する企業の名前が認定できる事。また、合併企業の分野、目的など具体的内容のいずれかが認定できる事。企業合併は企業併合、企業統合、企業買収も含む。</NARRATIVE></TOPIC>\end{verbatim}\end{quote}\vspace{0.1cm}ここでTOPIC-IDで囲まれた数字は設問番号を意味し,DESCRIPTIONが検索課題を端的に示すフレーズ,NARRATIVEが検索要求を厳密に規定する説明文となっている.これをシステムがうけとり,例えば以下のような記事を検索対象としてかえせばよい.\vspace{0.1cm}\begin{quote}\begin{verbatim}<DOCNO>950217091</DOCNO><SECTION>経済</SECTION><AE>無</AE><WORDS>288</WORDS><HEADLINE>キグナス石油精製を東燃が100%子会社化</HEADLINE><TEXT>東燃は十六日、系列のキグナス石油精製(資本金十億円、本社・川崎市、森利英社長)を一〇〇%子会社化すると発表した。同社は東燃が七割、ニチモウが三割出資しており、東燃はニチモウが所有する全株式六十万株を百二十五億円で買収する。東燃は石油精製専業大手で、設備シェアは一九九三年度末で八%。キグナス石油精製を加えると九・四%にシェアがアップする。ニチモウは山口県の工場閉鎖などに伴う経費ねん出のため株式譲渡を決断した。石油業界は来年春の特定石油製品輸入暫定措置法(特石法)廃止をにらみ、コスト削減と効率化を進めており、グループ企業統合を含む再編の動きがいよいよ本格化してきた。</TEXT></DOC>\end{verbatim}\end{quote}\vspace{0.1cm}この記事のようにSECTIONには経済面などの新聞の誌面情報が,HEADLINEには記事のタイトルが,TEXTには記事の本文がある.IREXでは,各設問に対し300個の記事を順位つきで提出することになっており,各設問おおよそ50個程度ある正解を上位にたくさん含むような結果を提出すれば,よりよい精度が得られるようになっている.情報検索の精度の評価には,TRECのtrec\_evalというツール\cite{trec_eval}を利用し,コンテストの評価ではtrec\_evalで得られる評価値のうちR-Precisionという評価値(正解記事数分だけ検索した時に正解の記事が含まれている割合)が用いられている.\subsection{検索方法の概略}\label{sec:robertson}先に述べたとおり,われわれの情報検索の方法では基本的に,確率型手法の一つのRobertsonの2-ポアソンモデル\cite{2poisson}を用いる\footnote{IREXのコンテストでは上位三団体のシステムはすべてRobertsonらの方法に基づくものであったので,この手法を検索の基本部分に使用することは現状では最善と思われる.また,この手法の有効性について文献\cite{irex1_IR}においてより詳しく論じている.}.Robertsonらの方法とは,各記事毎に以下の式で与えられるScoreを算出し,Scoreの上位のものを検索結果として出力する方法である.(以下のScore(d)は記事dのScore.)\vspace{-4mm}\begin{eqnarray}\footnotesize\label{eqn:robertson}&Score(d)=\displaystyle\sum_{\begin{minipage}[h]{2cm}\footnotesizeキーワードt\\[-0.1cm]で和をとる\end{minipage}}&\left(\displaystyle\frac{TF(d,t)}{\displaystyle\frac{length(d)}{Δ}+TF(d,t)}\×\log\frac{N}{DF(t)}\right)\end{eqnarray}\vspace{-4mm}ただし,ここでのキーワードとは検索要求に出現していたキーワードである.$TF(d,t)$はキーワードtの記事dでの出現回数である.$DF(t)$は全データベースでのキーワードtが出現している記事の数である.$N$は全データベースに存在する記事の数.$length(d)$は記事dの長さ(文字列単位)である.$Δ$は全データベースでの記事の長さの平均である.また,この式の{\small$\frac{TF(d,t)}{\displaystyle\frac{length(d)}{Δ}+TF(d,t)}$}をTFに関する項としてTF項,$log\frac{N}{DF(t)}$をIDF(DFの逆数)に関する項としてIDF項と呼ぶことにする.この式のTFの項が一般のベクトル空間法で重みの一部として用いられるTFと異なり,$\frac{TF}{\frac{length}{Δ}+TF}$のようになっている.Scoreをキーワードによる加点として扱うとき,TFの影響が大きい場合だと一つでもTFの値が大きいキーワードがあれば,他のキーワードがほとんど存在していないという関連性が低いときでも十分大きな得点を取ってしまう.この式はこのことを防ぐのに役に立っている.この式ではTFが無限になってもたかだか1の値を持つにすぎない.このため全キーワードがまんべんなく評価されることになる.さらに,$\frac{length}{Δ}$という複雑な部分があるが,これは長い記事ほどTFの値が大きくなるのでそれを補正するための項である.われわれの方法は,この式(\ref{eqn:robertson})にいくつかの補強項をつけたものであり,以下の式で表現される.\begin{eqnarray}\footnotesize&Score(d)=\displaystyleK_{\rm分野}(d)&\hspace{-0.3cm}\left\{\displaystyle\sum_{\begin{minipage}[h]{2cm}\footnotesizeキーワードt\end{minipage}}\hspace{-0.3cm}(TF項(d,t)\×\IDF項(t)\×\K_{\rm詳細}(d,t)\right.\nonumber\\[0.2cm]&&\left.\×\K_{\rm位置}(d,t))+\displaystyle\frac{length(d)}{length(d)+Δ}\right\}\label{eqn:score}\end{eqnarray}この式のTF項IDF項は,式(\ref{eqn:robertson})と同じである.この式の$\frac{length(d)}{length(d)+Δ}$$(=K_{\rm記事長}(t))$は記事長が長いほど値が大きくなる項で,他の情報がまったく同じならば記事長が長ければ長いほど検索要求を含みやすいと考えて作ったものである.$K_{\rm分野}$,$K_{\rm詳細}$,$K_{\rm位置}$は精度向上のために追加した補強項である.$K_{\rm分野}$は新聞の紙面情報(分野情報)を利用する項で,$K_{\rm位置}$は記事中でのキーワードの位置で重みを変更するものである.タイトルにあれば大きい値とし,記事中での位置が最初のものを加点し,後ろのものを減点するということをしている.$K_{\rm詳細}$は,さらに詳細な項でキーワードが固有名詞ならば加点したり,キーワードが「事」「認定」「記事」「言及」などの不要な単語の場合減点したりする項である.次節ではこれらの補強項の詳細な説明を行なう.\subsection{補強項の説明}式(\ref{eqn:score})のようにわれわれは補強項として$K_{\rm位置}$,$K_{\rm分野}$,$K_{\rm詳細}$の三つを用いている.ここではこれらを詳細に説明する.\begin{enumerate}\item\underline{位置情報の利用($K_{\rm位置}$)}特に新聞記事でいわれることだが,タイトルや記事の最初の文はその記事のおおまかな内容を示すことが多い.このため,そのような位置に現れるキーワードを重視することで情報検索の精度を向上させることができる\cite{araya}.この$K_{\rm位置}$はそのためのもので,記事中でそのキーワードが初めて出現している位置で重みを変更するものである.タイトルにあれば大きい値とし,記事中での位置も最初のものを加点し,後ろのものを減点するということをする.この項は以下の式で表される.\begin{eqnarray}\footnotesize\label{eqn:ichi}&K_{\rm位置}(d,t)=\left\{\begin{array}[h]{l}k_{\rm位置,1}\,(キーワードtが記事dでタイトルに出現)\\1+k_{\rm位置,2}\displaystyle\frac{(length(d)-2*P(d,t))}{length(d)}\,\,(それ以外)\end{array}\right.&\end{eqnarray}この式でlength(d)は記事dの長さでP(d,t)はキーワードtの記事dでの位置を意味する.$k_{\rm位置,1}$,$k_{\rm位置,2}$は実験で定める定数である.一記事中に同じキーワードが複数出現する場合は最も初めに出現したもののみを用いる.\item\underline{分野情報(紙面情報)の利用($K_{\rm分野}$)}$K_{\rm分野}$は新聞の紙面情報(分野情報)を利用する項である.これは,関連性フィードバッ\breakク\cite{r-feedback}のようなことをするもので,一度この項を1として検索を行ない,その検索結果における上位100個において紙面情報の統計をとり,その統計結果に基づき上位に出現しやすい面を特定し,それと同じ面に書いてある記事の得点を増加させることでScoreを再計算するものである.例えば,一回目の検索で上位100個には経済面が集中していたとすると,経済面の記事には加点し,そうでない記事は減点するといったことを行なう.この項($K_{\rm分野}$)は以下の式で表される.\vspace{-4mm}\begin{eqnarray}\footnotesize\label{eqn:men}&K_{\rm分野}(d)=1+k_{\rm分野}(割合A(d)-割合B(d))/(割合A(d)+割合B(d))&\end{eqnarray}\vspace{-4mm}だだし,$割合A(d)$は一回目の検索結果の上位100個における記事dが該当する面の割合\footnote{このときの割合の算出は,上位のものに重みを傾斜的に付加している.順位$x$の記事に対して$(150-x+0.5)/100$の重みを頻度にかけてから割合の算出を行なっている.}で,$割合B(d)$は全記事での記事dが該当する面の割合を意味する.この式の値は,$割合A$が大きく(該当記事の面が一回目の検索結果でよく出現していて),$割合B$が小さい(該当記事の面が全記事ではそれほど出現していない)場合に大きくなるようになっている.$k_{\rm分野}$は実験で定める値である.\item\underline{その他の情報の利用($K_{\rm詳細}$)}$K_{\rm詳細}$は,さらに詳細な項でキーワードが固有名詞ならば加点したり,キーワードが「事」「認定」「記事」「言及」などの不要な単語の場合減点したりするもので,以下の式によって表される.(本節では表記の簡単化のため,記事,キーワード用の変数d,tを省略して記述している.)\begin{eqnarray}\footnotesize\label{eqn:detail}{\slK}_{\rm詳細}&=&K_{\rmタイトル}×K_{\rm固有}×K_{\rmなど}×K_{\rm数字}\nonumber\\&&×K_{\rmひらがな}×K_{\rmneg}×K_{\rm不要語}\end{eqnarray}この式の各項の説明を以下に記述する.\begin{itemize}\item$K_{\rmタイトル}$該当するキーワードが検索要求のタイトルDESCRIPTIONから得られたものの場合は$k_{\rmタイトル}$の値とし,そうでない場合1とする.この項は検索要求のタイトルDESCRIPTIONから得られたキーワードを重要と考えて加点するためのものである.\item$K_{\rm固有}$該当するキーワードが固有名詞の場合,$k_{\rm固有}$の値とし,そうでない場合1とする.検索要求から得られたキーワードが固有名詞ならば,そのキーワードを重要と考えて加点する.\item$K_{\rmなど}$該当するキーワードが検索要求において「など」の直前にあった場合,$k_{\rmなど}$の値とし,そうでない場合1とする.検索要求から得られたキーワードが検索要求において「など」の直前にあった場合,特殊化されたキーワードであると考えて固有名詞と同様に加点する.\item$K_{\rm数字}$該当するキーワードが数字だけで構成されている場合,$k_{\rm数字}$の値とし,そうでない場合1とする.検索要求から得られたキーワードが数字だけで構成されている場合は情報量が少なくあてにならないキーワードであると考えて減点する.\item$K_{\rmひらがな}$該当するキーワードがひらがなだけで構成されている場合,$k_{\rmひらがな}$の値とし,そうでない場合1とする.検索要求から得られたキーワードがひらがなだけで構成されている場合は情報量が少なくあてにならないキーワードであると考えて減点する.\item$K_{\rmneg}$該当するキーワードがNEGのタグで囲まれた部分からのみ抽出されている場合,$k_{\rmneg}$の値とし,そうでない場合1とする.検索要求の中には下記のように「〜は除く」という表現にはNEGのタグがふられている.\vspace{0.1cm}\begin{quote}\begin{verbatim}<TOPIC><TOPIC-ID>1003</TOPIC-ID><DESCRIPTION>国連軍の派遣</DESCRIPTION><NARRATIVE>平和維持活動など国連の活動における国連軍の派遣について述べられている記事。派遣の目的または対象地域が記事から明示的に分る事。<NEG>日本の自衛隊を国連に派遣するかどうかという問題のみに関する記事は除く。</NEG></NARRATIVE></TOPIC>\end{verbatim}\end{quote}\vspace{0.1cm}$K_{\rmneg}$は,NEGのタグで囲われている部分のみから抽出されたキーワードは逆に不要な記事を取ってくる可能性が高いと考えて減点する.本論文での実験では$k_{\rmneg}$の値として0を用いている.これは,NEGのタグで囲われた部分のキーワードの得点は加算も減点もしないという,その部分の情報は全く利用しないという状態を意味する\footnote{$k_{\rmneg}=-1$つまり,NEGのタグで囲われた部分のキーワードがあるとScoreをその分下げるという条件や,$k_{\rmneg}=0.5$つまり,NEGのタグで囲われた部分のキーワードは重みを半分にするというものでも,予備試験,本試験のデータで実験を行なったが,R-Precisionの精度は微妙に下がった(0.01未満).}.\item$K_{\rm不要語}$該当するキーワードが検索要求において「事,認定,記事,言及,対象,場合,具体的内容」の場合を$k_{\rm不要語,1}$とし,そうでなく「分野,目的,具体的,具体,的,内容,いずれ,結果,問題,場合,影響,可能性,可能,性,指摘,対策」の場合を$k_{\rm不要語,2}$とし,それらでない場合1とする.「事,認定,記事,言及」といった今回の検索要求固有の表現で検索内容に関わらない表現は不要なキーワードとし,減点するためのものである.この不要語のリストはIREXの予備試験のときに作成した.\end{itemize}ここで,$k_{\rmタイトル}$などの各定数は,実験で定めるものとする.\end{enumerate}\subsection{キーワードの抽出方法}\label{sec:extract_keyword}本節では検索要求文からのキーワードの抽出方法について述べる.キーワードの抽出方法については,いくつかの異なる方法を考えている.これらについて以下で説明する.\begin{enumerate}\item\underline{最も短いキーワードのみを利用する方法}これは最も単純な方法である.検索要求文を単語列に分割し,その単語列のそれぞれの単語をキーワードとする方法である.われわれのシステムではJUMAN\cite{JUMAN3.6}でまず形態素列に分割し,さらに得られた形態素を辞書を用いて細分割するということを行なっている.これは,JUMANでは形態素解析の精度向上のために,複合語のような長い形態素が登録されておりそれが単一の形態素として出力されるためである.例えば,「国連軍」という語をJUMANに入力しても「国連軍(名詞)」と出力されるだけで細分割を行なわない.これでは「国連」や「軍」がキーワードとならず情報検索では検索洩れの大きな原因となる.そこでわれわれのシステムではJUMANの結果をさらに辞書を参照して細分割するようにしている.いまのところ,簡単のため,二分割を繰り返すアルゴリズムを利用しており,「国連軍」だと「国連」「軍」が辞書にあれば分割するということを行なっている.辞書としてはEDRの単語辞書\cite{edr}を利用している.例として以下の検索要求からキーワードを取り出すこととする.\vspace{0.1cm}\begin{quote}\begin{verbatim}<TOPIC><TOPIC-ID>1001</TOPIC-ID><DESCRIPTION>企業合併</DESCRIPTION><NARRATIVE>記事には企業合併成立の発表が述べられており、その合併に参加する企業の名前が認定できる事。また、合併企業の分野、目的など具体的内容のいずれかが認定できる事。企業合併は企業併合、企業統合、企業買収も含む。</NARRATIVE></TOPIC>\end{verbatim}\end{quote}\vspace{0.1cm}まず,DESCRIPTIONから「企業」「合併」というキーワードが得られる.また,NARRATIVEからは「記事,企業,合併,成立,発表,合併,参加,企業,名前,認定,事,合併,企業,分野,目的,具体的,内容,いずれ,認定,事,企業,合併,企業,併合,企業,統合,企業,買収」というキーワードが得られる.このとき,助詞の「に」「は」など名詞・未定義語以外の単語はキーワードとしては不適切としてすべて省き,接尾辞の形態素は直前の形態素に接合させるなどの処理をしている\footnote{この他に「文献,研究,論文,提案,処理,こと,とき,もの,の」などの不要語を省いている.これはNTCIRのコンテスト\cite{nacsis1}の予備試験のデータにおいてシステムを構築する際に不要と思われた単語である.$K_{\rm不要語}$と混同しないようにしてほしい.$K_{\rm不要語}$とはまったく別処理である.}.「最も短いキーワードのみを利用する方法」とは以上の単語をキーワードとして利用するものである.\item\underline{あらゆるパターンのキーワードを利用する方法}「最も短いキーワードのみを利用する方法」では,細分割されすぎていて例えば,「企業合併」というキーワードは用いず,「企業」「合併」と分離したキーワードしか用いないようになっている.それよりは,「企業合併」というものもキーワードとして用いた方がよいと考え,短いものも長いものもすべてキーワードとすることを考える.これを「あらゆるパターンのキーワードを利用する方法」と呼ぶことにする.例えば,「企業合併成立」が入力されると,「企業」「合併」「成立」という短いものから「企業合併」「合併成立」という中くらいのものと「企業合併成立」という一番長いものまですべてキーワードとして扱う方法である.この方法ならば,あらゆる長さのキーワードを利用しておりよいのではないかと考えた.しかし,「企業の合併が成立」からは「企業」「合併」「成立」の三つしか得られないのに対し,「企業合併成立」という表現からは六つのキーワードが得られ,若干不公平ではないかと考えた.これを正規化するために種々の方法を考えたが,予備試験でのデータでの実験では$\sqrt{\frac{n(n+1)}{2}}$で各キーワードの重みを割ると精度が良かったのでそのように正規化することにした.ただし,nは連続している単語の数を示す.例えば「企業合併成立」の例だとn=3となる.\item\underline{ラティスを利用する方法}「あらゆるパターンのキーワードを利用する方法」は,あらゆるパターンのキーワードを利用するという発想はよいが理由をつけづらい$\sqrt{\frac{n(n+1)}{2}}$というアドホックな式で正規化する必要がある.そこで,なるべくあらゆるパターンのキーワードを利用しつつなおかつ整合性が保てるように,キーワードへの分割の曖昧性をラティス構造に保存し,先に示した検索で用いる式(\ref{eqn:score})のScoreの値が最も大きくなるようなパスでキーワードを分割してキーワードを抽出する方法を考えた.(この方法は,小澤らの論文\cite{ozawa_nlp99}の3.1節の「類似度を最大とする単語分割」とほぼ同じ考え方である.違いは検索方法の基本式が異なることや,分割に形態素解析システムを用いていないことで,評価関数の値が最も大きくなるように分割するという意味では全く同じである.)\begin{figure}[t]\begin{center}\begin{minipage}{7cm}\begin{center}\epsfile{file=kigyo.eps,height=4cm,width=6.3cm}\end{center}\caption{ラティス構造の例}\label{fig:lattice}\end{minipage}\end{center}\end{figure}例えば,「企業合併成立」の場合だと図\ref{fig:lattice}のラティス構造を得る.図のように4種類の経路があるので分割の曖昧性として4種類ある.この4種類の分割を行ないそれぞれ式(\ref{eqn:score})のScoreを求め,最も値の大きい経路に分割する.ある記事では「企業」「合併」「成立」と分割されたものしかなく,分割して計算した方がScoreが大きかったり,またある記事では「企業合併」というものが出現しておりTF項×IDF項の値が「企業合併」の方が極端に大きく「企業合併」「成立」と分割した方がScoreが大きくなりそのように分割するといったことになる.また,「企業合併」というものが出現していても「企業合併」のTF項×IDF項の値がそれほど大きくなく「企業」と「合併」のTF項×IDF項の和の方が大きい場合は,「企業」と「合併」と分割したものをキーワードとするといったことにもなり,そのときそのときの状況に応じたキーワード分割が可能となる.この方法ならば,「あらゆるパターンのキーワードを利用する方法」のようなアドホックな正規化を行なう必要がない.\item\underline{down-weighting\cite{Fujita99_IREX_jap}を利用する方法}この方法はIREXのコンテストで他のチームが提案していた方法で,コンテストの終了後,利用を検討したものである.この方法は,「あらゆるパターンのキーワードを利用する方法」において,最も短いキーワードはそのままの重みで用い,それよりも長いキーワードは重みが小さくなるように重みづけして用いる方法である.本研究では,あるキーワードが短いキーワードx個から構成されるとき,そのキーワードに$k_{down}$$^{x-1}$の重みをかけることにした.ただし,$k_{down}$は実験で定める定数である.この方法は基本的には最も短いキーワードを用いるが,それよりも長いキーワードについての影響も少々考慮するといったものとなっている.\end{enumerate}キーワードの抽出方法として以上の四つを示したが,さらにこれらを式(\ref{eqn:score})で使う際にいくつかの選択肢が残されている.例えば,先ほどの「企業合併」の例のNARRATIVEからは「記事,企業,合併,成立,発表,合併,参加,企業,名前,認定,事,合併,企業,分野,目的,具体的,内容,いずれ,認定,事,企業,合併,企業,併合,企業,統合,企業,買収」というキーワードが得られるが,ここでは「企業」という表現が数多く出現する.式(\ref{eqn:robertson})の説明でTFの影響が強い場合の弊害を説明したが,この場合検索要求文側でのTFの影響が強いという弊害が出る恐れがある.このために,このキーワード列をそれぞれ同じ種類のものはまとめ,それぞれの種類ごとに一回ずつしか出現していなかったというようにすることも可能である.Robertsonらはこの場合のことも考え,以下のような評価式も利用している.(ここでは検索要求文qにおけるScore(d)をScore(d,q)と表記している.)\begin{eqnarray}\footnotesize\label{eqn:robertson2}&Score(d,q)=\displaystyle\sum_{\begin{minipage}[h]{2cm}\footnotesizeキーワードt\\[-0.1cm]で和をとる\end{minipage}}&\left(\displaystyle\frac{TF(d,t)}{\displaystyle\frac{length(d)}{Δ}+TF(d,t)}\×\log\frac{N}{DF(t)}\right.\nonumber\\&&\left.×\displaystyle\frac{TFq(q,t)}{TFq(q,t)+kq}\right)\end{eqnarray}ただし,TFq(q,t)は検索要求文qでのキーワードtの出現頻度である.kqは実験で定める定数である.kqが0のとき,キーワードをすべてそれぞれの種類ごとに一回ずつしか出現していないかのように扱うことと等価で,kqが∞のとき,キーワードをそのまま出現した個数で扱うことと等価となる\footnote{kqを∞にする際,kqは定数のため式(\ref{eqn:robertson2})に掛けてもScoreの順序関係は変わらないので,式(\ref{eqn:robertson2})にkqをかけてからkqを∞にする.そうすると,式(\ref{eqn:robertson2})の最終項は以下のように計算される.\begin{eqnarray}\footnotesize&&\displaystyle\lim_{kq\rightarrow∞}\frac{TFq(q,t)×kq}{TFq(q,t)+kq}\\&=&\displaystyle\lim_{kq\rightarrow∞}\frac{TFq(q,t)}{TFq(q,t)/kq+1}\\&=&\displaystyleTFq(q,t)\end{eqnarray}つまり,TFq(q,t)となり,キーワードをそのまま出現した個数で扱うことと等価となる.}.さらに,検索要求文においてもIDF項を考慮することが可能で,以下のような式も考えられる.\begin{eqnarray}\footnotesize\label{eqn:idfq}&Score(d,q)=\displaystyle\sum_{\begin{minipage}[h]{2cm}\footnotesizeキーワードt\\[-0.1cm]で和をとる\end{minipage}}&\left(\displaystyle\frac{TF(d,t)}{\displaystyle\frac{length(d)}{Δ}+TF(d,t)}\×\log\frac{N}{DF(t)}\right.\nonumber\\&&\left.×\\displaystyle\frac{TFq(q,t)}{TFq(q,t)+kq}\×\\displaystylelog\frac{Nq}{DFq(t)}\right)\end{eqnarray}ただし,Nqは検索要求の個数でDFq(t)はキーワードtがいくつの検索要求に出現しているかの個数を意味する.多くの検索要求に出現するキーワードほど,「記事」「認識」などの不要語である可能性があり,この項を利用することによりこれらの不要語を減点する効果がある.
\section{IREXコンテストの本試験に提出した二つのシステムの説明とその実験結果}
われわれはIREXのコンテストとして,二つのシステムを提出する\footnote{IREXでは二つまでのシステムを提出してよいことになっていた.}際にキーワードの抽出方法として「あらゆるパターンのキーワードを利用する方法」と「ラティスを利用する方法」の二つの方法を提出することにして\footnote{「あらゆるパターンのキーワードを利用する方法」と「ラティスを利用する方法」の二つの方法を利用して,「最も短いキーワードのみを利用する方法」を用いなかったのは,「最も短いキーワードのみを利用する方法」は単純な方法であまりよくないだろうと考えていたためである.また,「down-weightingを利用する方法」はIREXのコンテストで他のチームが提案していた方法で,コンテストの終了後に利用を検討したもので,このときは利用できなかった.},それぞれの方法において予備試験のデータでの精度が最も高くなるように種々の補強項を設定した.その結果,結局以下の二つのシステムを提出することにした.\begin{enumerate}\itemシステムAキーワードの抽出方法としては「ラティスを利用する方法」を採用.位置情報は,$k_{\rm位置,1}=1.35$,$k_{\rm位置,2}=0.125$として利用.分野情報は予備試験データでは大きな精度向上につながらなかったため利用せず.詳細情報は,$k_{\rmタイトル}=1.5$,$k_{\rm固有}=2$,$k_{\rmなど}=1$,$k_{\rm数字}=0.5$,$k_{\rmひらがな}=0.5$,$k_{\rmneq}=0$,$k_{\rm不要語,1}=0$,$k_{\rm不要語,2}=0.5$として用いた.また,検索要求側のTF項,つまり,式(\ref{eqn:robertson2})のTFq項としては,DESCRIPTIONとNARRATIVEでのキーワードを全く異なるキーワードとして扱って$k_{q}=0.1$として利用した.IDFq項は利用していない.\itemシステムBキーワードの抽出方法としては「あらゆるパターンのキーワードを利用する方法」を採用.位置情報は,$k_{\rm位置,1}=1.3$,$k_{\rm位置,2}=0.15$として利用.分野情報は,$k_{\rm分野}=0.1$として利用.詳細情報は,$k_{\rmタイトル}=1.75$,$k_{\rm固有}=2$,$k_{\rmなど}=1.7$,$k_{\rm数字}=0.5$,$k_{\rmひらがな}=0.5$,$k_{\rmneq}=0$,$k_{\rm不要語,1}=0$,$k_{\rm不要語,2}=0.5$として用いた.また,検索要求側のTF項,つまり,式(\ref{eqn:robertson2})のTFq項としては,DESCRIPTIONとNARRATIVEでのキーワードを全く異なるキーワードとして扱って$k_{q}=0$として利用した.IDFq項は利用していない.\end{enumerate}われわれはこの条件のものを提出した.\begin{table}[t]\footnotesize\caption{各システムの精度(R-Precisionsofallthesystems)}\label{tab:all_sys_result}\begin{center}\begin{tabular}[c]{|l|c|c|}\hlineシステム名&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}\\\hline1103a&0.4505&0.4888\\1103b&0.4657&0.5201\\1106&0.2360&0.2120\\1110&0.3329&0.4276\\1112&0.2790&0.3343\\1120&0.2713&0.3339\\1122a&0.3808&0.4689\\1122b&0.4034&0.4747\\1126&0.0966&0.0891\\1128a&0.3384&0.3897\\1128b&0.3924&0.4175\\1132&0.0602&0.0791\\1133a&0.2383&0.2277\\1133b&0.2457&0.2248\\{\bf1135a}&0.4926&0.5119\\{\bf1135b}&0.4827&0.4878\\1142&0.4455&0.4929\\1144a&0.4658&0.5510\\1144b&0.4592&0.5442\\1145a&0.3352&0.3424\\1145b&0.2553&0.2935\\1146&0.2220&0.2742\\\hline\end{tabular}\end{center}\end{table}コンテストでは15団体から22システムの結果が提出された.そのすべてのシステムの精度(R-Precision)を表\ref{tab:all_sys_result}にあげる.表の一番左の列は各システムの名前で,この表においてわれわれのシステムAおよびシステムBは,1135aと1135bに相当する.また,表のA判定,B判定とは,IREX実行委員会が定めた判定基準で,A判定とは「記事の主題が検索課題に関連している」記事のみを正解とするものであり,B判定とは「主題ではないが記事の一部が関連する,または,なんらかの関連がある」記事をも正解とするものである.われわれのシステムはB判定では他のシステムに及ばないところがあったが,A判定ではシステムA,Bともに他のものよりもよい精度であった.この結果により,われわれの手法は相対評価としてそれなりによい方法なのではないかと思われる.
\section{各種の情報・手法の評価実験}
本節ではわれわれのシステムで用いていた様々な手法の有効性を調べるために行なった,いくつかの実験について記述する\footnote{本論文の主張と直接関係のない,ここにあげなかったいくつかの実験(細分割の有効性の確認など)が存在する.これらの実験については,文献\cite{irex1_IR}において詳細に記述している.}.本節の実験結果ではR-Precisionの他に,trec\_evalツールのAveragePrecision(正解記事を上位から取ったたびに求めた適合率の平均)も示す.また,本比較実験の実験結果ではt検定\footnote{比較する二つの手法の各課題での精度差の分布がt分布に従うことを仮定して,その分布で0よりも小さい部分が何パーセントであるかを調べることにより検定を行なった.このような検定の場合,精度差の平均が大きくても(二つの手法に大きい精度差がある場合でも)精度差の分散が大きければ検定結果として有意差が出ない場合がある.}を行なっている.実験結果の各表(表\ref{tab:result_keyward}〜表\ref{tab:result_detail})の``$\#$''の記号のついている手法は比較の基準となる手法で,``$*$''のついている手法は基準の手法に対してt検定による片側検定で有意水準5\%で有意に優れていることを意味し,``$**$''のついている手法は有意水準1\%で有意に優れていることを意味する.また,このt検定は標本数の少ない予備試験のデータでは行なっていない.(課題数は予備試験で6題,本試験で30題)\subsection{キーワード抽出方法の比較}キーワード抽出方法として,\ref{sec:extract_keyword}節において以下の四つを示した.\begin{enumerate}\item{最も短いキーワードのみを利用する方法}\item{あらゆるパターンのキーワードを利用する方法}\item{ラティスを利用する方法}\item{down-weightingを利用する方法}\end{enumerate}\begin{table*}[t]\footnotesize\caption{キーワード抽出方法の比較(Comparisonofhowtoextractkeywords)}\label{tab:result_keyward}\begin{center}\mbox{(a)補強項をすべて用いた場合}\begin{tabular}[c]{|@{}l@{}||l|l@{}|l@{}|l@{}||l|l|l|l|}\hline&\multicolumn{4}{c||}{本試験のデータでの精度}&\multicolumn{4}{c|}{予備試験のデータでの精度}\\\cline{2-9}\multicolumn{1}{|c||}{キーワード}&\multicolumn{2}{c|}{R-Precision}&\multicolumn{2}{c||}{Averageprecision}&\multicolumn{2}{c|}{R-Precision}&\multicolumn{2}{c|}{Averageprecision}\\\cline{2-9}\multicolumn{1}{|c||}{抽出方法}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c||}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}\\\hline最も短いものだけ&0.5012&0.5205$^{**}$&0.4935$^{**}$&0.4764$^{*}$&0.4412&0.5442&0.4546&0.5151\\あらゆるパターン$^{\#}$&0.4827&0.4878&0.4553&0.4453&0.4373&0.5573&0.4576&0.5317\\ラティスの利用&0.4926&0.5119&0.4808&0.4698&0.4599&0.5499&0.4638&0.5170\\downweight($k_{down}=0.01$)&0.5006&0.5217&0.4935&0.4778&0.4412&0.5445&0.4546&0.5157\\downweight($k_{down}=0.1$)&0.4997&0.5233&0.4939&0.4809&0.4478&0.5504&0.4563&0.5185\\\hline\end{tabular}\mbox{(b)補強項をすべて削除した場合}\begin{tabular}[c]{|@{}l@{}||l|l|l|l||l|l|l|l|}\hline&\multicolumn{4}{c||}{本試験のデータでの精度}&\multicolumn{4}{c|}{予備試験のデータでの精度}\\\cline{2-9}\multicolumn{1}{|c||}{キーワード}&\multicolumn{2}{c|}{R-Precision}&\multicolumn{2}{c||}{Averageprecision}&\multicolumn{2}{c|}{R-Precision}&\multicolumn{2}{c|}{Averageprecision}\\\cline{2-9}\multicolumn{1}{|c||}{抽出方法}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c||}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}\\\hline最も短いものだけ&0.4744&0.4897&0.4488$^{*}$&0.4487$^{*}$&0.3900&0.5082&0.3850&0.4468\\あらゆるパターン$^{\#}$&0.4445&0.4665&0.4172&0.4180&0.3965&0.4981&0.3960&0.4444\\ラティスの利用&0.4711&0.4884&0.4436&0.4448&0.4009&0.5069&0.3884&0.4469\\downweight($k_{down}=0.01$)&0.4760&0.4896&0.4492&0.4494&0.3940&0.5082&0.3850&0.4470\\downweight($k_{down}=0.1$)&0.4816&0.4986&0.4545&0.4568&0.4003&0.5076&0.3860&0.4498\\\hline\end{tabular}\begin{minipage}[h]{14cm}$\#$のついている手法を基準として,``$*$''はt検定の片側検定で有意水準5\%で有意に優れていることを意味し,``$**$''は有意水準1\%で有意に優れていることを意味する.\end{minipage}\end{center}\end{table*}このうち本試験に提出したものは,「あらゆるパターンのキーワードを利用する方法」と「ラティスを利用する方法」であった.本試験での精度では,若干ではあるが「ラティスを利用する方法」の方が「あらゆるパターンのキーワードを利用する方法」よりも良かった.次に「最も短いキーワードのみを利用する方法」がどのくらいの精度となるかを調べるために,この方法でも本試験のデータで試してみた.そのときの各補強項の設定は「あらゆるパターンのキーワードを利用する方法」と全く同じものを用いた.これで本試験のデータで実験してみるとA判定のR-Precisionは0.5012で他の方法に比べてよい値であった.「最も短いキーワードのみを利用する方法」はあまりよくないだろうと考えあまり試していなかったが,この方法でも高い精度が出せることがわかる.また,本研究では「down-weightingを用いる方法」でも実験を試みた.ここでは$k_{down}$としては0.1,0.01の二つのもので実験してみた.各補強項の設定は「あらゆるパターンのキーワードを利用する方法」と全く同じものを用いた.これで本試験のデータで実験してみるとA判定のR-Precisionは0.5006,0.4997でなかなかよい値であった.上記五つの場合(四手法で,「down-weightingを用いる方法」だけ$k_{down}=0.1$と$k_{down}=0.01$の二つの場合)の精度を表にまとめておくと表\ref{tab:result_keyward}(a)のようになる.さらに,同様の実験を補強項をすべて削除した設定でも行なった.これを表\ref{tab:result_keyward}(b)に示す.「あらゆるパターンのキーワードを利用する方法」はアドホックな式による正規化を行なう必要性があるうえに本試験での結果では他手法に劣っているため,この方法は他の方法よりもよくない方法だと考えられる.なお,「あらゆるパターンのキーワードを利用する方法」は「最も短いキーワードのみを利用する方法」と比べ,t検定でもいくつか有意に劣っていることが示されている.他の手法間ではt検定で有意な差は見受けられなかった.「down-weightingを用いる方法」は補強項をすべて削除した場合,他の手法よりも高い精度を得るが,補強項を用いる場合はそれほどの効果はない.t検定でも他の手法と有意差が見られなかったので,確実に精度向上に寄与する情報ということではない.しかし,補強項を用いない場合のように解析に用いる情報が少ない場合は精度向上が大きい.「最も短いキーワードのみを利用する方法」だけが「あらゆるパターンのキーワードを利用する方法」と有意差が見られ,他の手法では有意差が見られなかったので,「最も短いキーワードのみを利用する方法」は安定して良好な結果を与える堅実な方法であると思われる.「ラティスを用いる方法」と「down-weightingを用いる方法」は,検定で「あらゆるパターンのキーワードを利用する方法」と有意差が出なかったためになんらかの欠点を持っていると思われる.「ラティスを用いる方法」では用いられるキーワードが状況に応じて容易に変わってしまう問題,また,「down-weightingを用いる方法」は重みを下げているとはいえ余分にキーワードを用いる問題がある.とはいえ最も短いキーワードのみを利用するよりは,もう少し長いキーワードも利用した方が望ましいのは間違いないとも思われ,このあたりはさらに研究を進める必要がある\footnote{本研究では,「最も短いキーワードのみを利用する方法」だけでなく,「最も長いキーワードのみを利用する方法」でも実験を行なった(つまり,連続するキーワードをすべてつなげたもののみをキーワードとする方法).この方法では,キーワードが長くなることによりキーワードのヒット率が下がり,再現率の大幅な低下により元より精度がかなり悪くなると予想される方法である.全補強項を用いた状況で実験を行ない,本試験データでA判定のRecall-Precisionは0.4128の精度を得た.「最も短いキーワードのみを利用する方法」の場合が0.5012であったことから,大きい精度低下があることがわかる.}.\begin{table*}[t]\footnotesize\caption{補強項の比較(Comparisonofextendednumericalterms)}\label{tab:result_hokyoukou}\begin{center}\begin{tabular}[c]{|c@{}c@{}c||l|l|l|l||l|l|l|l|}\multicolumn{11}{c}{(a)「ラティスを利用する方法」での精度比較}\\\hline&&&\multicolumn{4}{c||}{本試験のデータでの精度}&\multicolumn{4}{c|}{予備試験のデータでの精度}\\\cline{4-11}\multicolumn{3}{|c||}{補強項の有無}&\multicolumn{2}{c|}{R-Precision}&\multicolumn{2}{c||}{Averageprecision}&\multicolumn{2}{c|}{R-Precision}&\multicolumn{2}{c|}{Averageprecision}\\\hline$K_{\rm位置}$&$K_{\rm分野}$&$K_{\rm詳細}$&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c||}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}\\\hline有&有&有&0.5031&0.5161&0.4888$^{*}$&0.4745&0.4495&0.5471&0.4625&0.5202\\有&有&無&0.4764&0.4935&0.4619&0.4375&0.4092&0.5086&0.4207&0.4624\\有&無&有&0.4926&0.5119&0.4808$^{*}$&0.4698&0.4599&0.5499&0.4638&0.5170\\無&有&有&0.4998$^{*}$&0.5301$^{**}$&0.4731$^{*}$&0.4856$^{**}$&0.4421&0.5618&0.4383&0.5171\\有&無&無&0.4932&0.4984&0.4735$^{*}$&0.4519&0.4208&0.5083&0.4326&0.4638\\無&有&無&0.4931&0.5084$^{*}$&0.4654$^{*}$&0.4634$^{*}$&0.4085&0.5134&0.3945&0.4554\\無&無&有&0.4979$^{*}$&0.5277$^{**}$&0.4673$^{*}$&0.4829$^{**}$&0.4407&0.5603&0.4391&0.5127\\無&無&無$^{\#}$&0.4711&0.4884&0.4436&0.4448&0.4009&0.5069&0.3884&0.4469\\\hline\multicolumn{11}{c}{}\\\multicolumn{11}{c}{(b)「最も短いキーワードのみを利用する方法」での精度比較}\\\hline&&&\multicolumn{4}{c||}{本試験のデータでの精度}&\multicolumn{4}{c|}{予備試験のデータでの精度}\\\cline{4-11}\multicolumn{3}{|c||}{補強項の有無}&\multicolumn{2}{c|}{R-Precision}&\multicolumn{2}{c||}{Averageprecision}&\multicolumn{2}{c|}{R-Precision}&\multicolumn{2}{c|}{Averageprecision}\\\hline$K_{\rm位置}$&$K_{\rm分野}$&$K_{\rm詳細}$&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c||}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}\\\hline有&有&有&0.5012&0.5205$^{*}$&0.4935$^{**}$&0.4764&0.4412&0.5442&0.4546&0.5151\\有&有&無&0.4867&0.4976&0.4704$^{*}$&0.4464&0.4126&0.5136&0.4220&0.4649\\有&無&有&0.5017&0.5094&0.4850$^{*}$&0.4740&0.4410&0.5517&0.4556&0.5094\\無&有&有&0.4991&0.5264$^{**}$&0.4759$^{*}$&0.4841$^{**}$&0.4213&0.5616&0.4340&0.5095\\有&無&無&0.4883&0.4952&0.4647$^{*}$&0.4444&0.4247&0.5076&0.4200&0.4614\\無&有&無&0.4824$^{*}$&0.4990$^{*}$&0.4537&0.4509&0.3927&0.5119&0.3901&0.4517\\無&無&有&0.4970&0.5242$^{**}$&0.4693$^{*}$&0.4804$^{*}$&0.4198&0.5595&0.4332&0.5070\\無&無&無$^{\#}$&0.4744&0.4897&0.4488&0.4487&0.3900&0.5082&0.3850&0.4468\\\hline\end{tabular}\end{center}\end{table*}\subsection{補強項の有効性}本研究で用いた補強項は主に以下の三つに分類できる.\begin{enumerate}\item$K_{\rm位置}$(位置情報の利用)\item$K_{\rm分野}$(分野情報の利用)\item$K_{\rm詳細}$(種々の詳細な情報の利用)(ここでの$K_{\rm詳細}$には,式(\ref{eqn:score})の記事長の項$K_{\rm記事長}=\frac{length}{length+Δ}$を含めて扱っている.)\end{enumerate}上記の三つ補強項の有効性を確かめるために,これら三つをそれぞれ用いる場合用いない場合の合計8種類の実験を行なった.この実験は,「ラティスを利用する方法」と「最も短いキーワードのみを利用する方法」の二つの方法で行なった.その結果を表\ref{tab:result_hokyoukou}に示す.表の一番下の行が補強項を全く用いないもので,表の一番上の行が補強項を全て用いるものだが,それらを見比べると0.027〜0.045という精度向上が実現できていることがわかる.(例えば,「最も短いキーワードのみを利用する方法」でのA判定のAverageprecisionは,0.4488から0.4935に0.0447の精度向上がある.)このことから,本研究で用いた補強項の情報が総合的に有効であり,確率型情報検索手法に位置情報や分野情報などを追加することで精度向上を実現できている.また,補強項単独でも,補強項それぞれを一つ用いたものは補強項を一つも用いないものよりも精度がよく,それぞれの補強項が有効なことがわかる.検定結果も各補強項ともそれぞれいずれかの評価値では有意差が見受けられる.これらのことにより,位置情報や分野情報などが単独でも有効な情報であることがわかる.本研究の最も大きい主張点は,確率型情報検索手法に,情報検索において当然用いるべき位置情報や分野情報などを追加して用いることで精度向上を実現することであったが,以上の結果によりこのことが実現できることが確かめられた.本試験に提出したときの「ラティスを利用する方法」のシステムでは,分野情報を利用した場合の予備試験での精度向上がそれほどでもなかったため分野情報を用いていなかったが,本試験のデータでは分野情報を用いて0.01の精度向上がある.予備的な試験ではそれほど有効そうでない情報であっても,少しでも精度向上が期待できそうな情報ならば結果的には用いた方がよいと考えられる情報もある.また,位置情報を用いるとB判定の精度が下がる傾向がある.これはB判定が「主題ではないが記事の一部が関連する,または,なんらかの関連がある」記事をも正解とするものであるためで,位置情報を用いると記事のタイトルや前の方の位置にあるキーワードの重みを大きくするために,記事の主題部分以外に検索要求を満足することが書かれている記事を拾いにくくなっているためと思われる.検定結果でも位置情報を用いる方法ではB判定で有意差がでなくなっている.\begin{table*}[t]\footnotesize\caption{詳細項の比較(Comparisonofdetailednumericalterms)}\label{tab:result_detail}\begin{center}\begin{tabular}[c]{|l||l|l|l|l||l|l|l|l|}\hline&\multicolumn{4}{c||}{本試験のデータでの精度}&\multicolumn{4}{c|}{予備試験のデータでの精度}\\\cline{2-9}&\multicolumn{2}{c|}{R-Precision}&\multicolumn{2}{c||}{Averageprecision}&\multicolumn{2}{c|}{R-Precision}&\multicolumn{2}{c|}{Averageprecision}\\\cline{2-9}\multicolumn{1}{|c||}{詳細項の有無}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c||}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}&\multicolumn{1}{c|}{A判定}&\multicolumn{1}{c|}{B判定}\\\hlineすべて無$^{\#}$&0.4744&0.4897&0.4488&0.4487&0.3900&0.5082&0.3850&0.4468\\$K_{\rmタイトル}$有&0.4878&0.5125$^{**}$&0.4614$^{*}$&0.4674$^{**}$&0.4136&0.5336&0.3930&0.4635\\$K_{\rm固有}$有&0.4746&0.4940&0.4481&0.4523&0.4031&0.5330&0.4172&0.4765\\$K_{\rmなど}$有&0.4630&0.4765&0.4384&0.4303&0.3973&0.5097&0.3859&0.4487\\$K_{\rm数字}$有&0.4744&0.4897&0.4488&0.4487&0.3900&0.5082&0.3847&0.4465\\$K_{\rmひらがな}$有&0.4744&0.4897&0.4488&0.4487&0.3942&0.5074&0.3854&0.4470\\$K_{\rmneg}$有&0.4874&0.5037$^{*}$&0.4603&0.4628$^{*}$&0.4019&0.5134&0.3967&0.4554\\$K_{\rm不要語}$有&0.4713&0.4941&0.4507&0.4548$^{**}$&0.3968&0.5295&0.3985&0.4629\\$K_{\rm記事長}$有&0.4775&0.4880&0.4472&0.4492&0.3945&0.5038&0.3809&0.4448\\\hline\end{tabular}\end{center}\end{table*}\subsection{詳細項の有効性}ここでは詳細項$K_{\rm詳細}$の各項と記事長の項$K_{\rm記事長}$の有効性を調べる.この実験では簡単のため「最も短いキーワードのみを利用する方法」のみで行なった.各詳細項のパラメータ設定は先のとおりである.実験としては,三つの補強項($K_{\rm位置}$,$K_{\rm分野}$,$K_{\rm詳細}$)すべてを削除したものと,その状況で八つの各詳細項($K_{\rmタイトル}$,$K_{\rm固有}$,$K_{\rmなど}$,$K_{\rm数字}$,$K_{\rmひらがな}$,$K_{\rmneg}$,$K_{\rm不要語}$,$K_{\rm記事長}$)をそれぞれ一つだけ追加する実験の合計9個の実験を行なった.これを表\ref{tab:result_detail}に示す.$K_{\rmなど}$,$K_{\rm数字}$,$K_{\rmひらがな}$,$K_{\rm不要語}$については精度が低下か変わらないかであまりよい効果がなかった.効果の大きい項としては,$K_{\rmタイトル}$と$K_{\rmneg}$があげられる.このことは元より予想されることだが,検索要求のタイトル部分(DESCRIPTION)が重要ということとNEGのタグで囲まれた部分を削除するべきということは,実験においても確認されたことになる.\subsection{まとめ}以上の実験をまとめると以下のようになる.\begin{itemize}\item四つのキーワード抽出法の比較キーワード抽出法として四手法を実験で試した.現状では,「位置情報・分野情報」を併用する場合「最も短いキーワードを利用する方法」が最も精度が良かった.しかし,はっきりした精度差ではなく,各手法とも調査を続ける必要がある.\item位置情報・分野情報の利用の有効性の確認キーワードの位置情報と,記事の分野情報を利用して精度向上を実現できることがわかった.\item詳細情報の利用実験で特に効果のあった詳細情報は,DESCRIPTION(情報要求を端的に示すフレーズ)中のキーワードの重みを他のキーワードよりも大きくすることと,NEGのタグ(検索要求の中の「〜は除く」という表現を囲んだもの)中のキーワードを利用しないことにすることの二つであった.\end{itemize}
\section{おわりに}
われわれの情報検索の方法では基本的に,確率型手法の一つのRobertsonの2-ポアソンモデルを用いている.しかし,このRobertsonの方法では検索のための手がかりとして当然用いるべき位置情報や分野情報などを用いていない.それに対しわれわれは位置情報や分野情報,さらに種々の詳細な情報をも統一的に用いることができる枠組を考案した.IREXのコンテストでは,この枠組に基づくシステムを二つ提出していたが,A判定の精度は0.4926と0.4827で,参加した15団体,22システムの中では最もよい精度であった\footnote{本論文では記述しなかったが,IREXのコンテストで用いられたデータで,コンテスト後各種パラメータを調節することでさらに精度向上を実現している.詳細は文献\cite{irex1_IR}を参照のこと.}.この結果により,われわれの手法は相対評価としてそれなりによい方法と思われる.また,本システムで用いた各手法の有効性を確かめる比較実験を行ない,種々の手法の有効性や傾向を調べた.その結果,Robertsonの方法では用いられていなかった位置情報や分野情報などを用いることで精度向上が実現できること,「最も短いキーワードのみを利用する方法」でもよい精度が得られること,NEGのタグで囲まれた部分に存在するキーワードは利用しないことがよいことなどがわかった.本研究でも様々な情報を用いたが,情報検索の手法として,関連性フィードバック\cite{Sakai99}や共起情報の利用\cite{Takaki99}などとまだまだ有用そうな手法がいろいろと存在する.関連性フィードバック一つをとっても,パッセージレベルの情報を利用した方が精度がよい\cite{Matsushita_IREX}ということが言われていたりして様々な要因が絡んでいる難しそうな研究のようであるが,今後はこのあたりの情報について深く研究していく予定である.\paragraph*{謝辞}通商産業省電子技術総合研究所の高橋直人氏には新聞の紙面情報の利用についてコメントをいただいた.ここに深く感謝いたします.また,本研究ではIREXのデータを利用しており,検索結果の集計をされた方々を含め,IREXの運営に携わった方々に対してもここに深く感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{v07n2_07}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.研究官.自然言語処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL,各会員.}\bioauthor{馬青}{1983年北京航空航天大学自動制御学部卒業.1987年筑波大学大学院理工学研究科修士課程修了.1990年同大学院工学研究科博士課程修了.工学博士.1990$\sim$93年株式会社小野測器勤務.1993年郵政省通信総合研究所入所,主任研究官.人工神経回路網モデル,知識表現,自然言語処理の研究に従事.日本神経回路学会,言語処理学会,電子情報通信学会,各会員.}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所,郵政技官.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{小作浩美}{1985年郵政省電波研究所(現通信総合研究所)入所.研究官.自然言語処理の研究に従事.言語処理学会,情報処理学会,電子情報通信学会,各会員.}\bioauthor{内山将夫}{1992年筑波大学第三学群情報学類卒業.1997年筑波大学大学院工学研究科博士課程修了.博士(工学).1997年信州大学工学部電気電子工学科助手.1999年郵政省通信総合研究所非常勤職員.自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本音響学会,ACL,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V09N01-01 | \section{はじめに}
\label{はじめに}日本語には語順の入れ替わり,格要素の省略,表層格の非表示などの問題があり,単純な係り受け解析を行っただけでは文の解析として十分とはいえない.例えば,「ドイツ語も話す先生」という文の場合,係り受け構造を解析しただけでは,「ドイツ語」と「話す」,「先生」と「話す」の関係はわからない.このような問題を解決するためには,用言と格要素の関係,例えば,「話す」のガ格やヲ格にどのような単語がくるかを記述した格フレームが必要である.このような格フレームは文脈処理(照応処理,省略処理)においても必須の知識源となる.これまで,重要な用言の典型的な格フレームについては,人手で辞書をつくるということも試みられてきた.しかし,格と同じ振る舞いをする「によって」,「として」などの複合辞があること,「〜が〜に人気だ」のように名詞+判定詞にも格フレームが必要なこと,専門分野ごとに用言に特別な用法があることなどから,カバレージの大きな実用的な辞書をつくるということは大変なことであり,人手による方法には限界がある.そこで,格フレーム辞書をコーパスから自動学習する方法を考える必要がある.しかし,格フレームの学習には膨大なデータが必要となり,現存するタグ付きコーパスはこのような目的からは量的に不十分である.そこで,本論文では,格フレーム辞書をタグ情報が付与されていない大規模コーパス(生コーパス)から自動的に構築する手法を提案する.格フレーム辞書を生コーパスから学習するためには,まず,生コーパスを構文解析しなければならないが,ここで解析誤りが問題となる.しかし,この問題はある程度確信度が高い係り受けだけを学習に用いることでほぼ対処することができる.むしろ問題となるのは用言の用法の多様性である(これはタグ付きコーパスから学習する場合にも問題となる).つまり,同じ表記の用言でも複数の意味,格要素のパターン(用法)をとり,とりうる格や体言が違うことがあるので,用言の用法ごとに格フレームを作成することが必要である.本論文では,これに対処するために,用言とその直前の格要素の組を単位として用例を収集し,それらのクラスタリングを行うという方法を考案した.用言とその直前の格要素の組を単位とするというのは,「なる」や「積む」ではなく,「友達になる」「病気になる」,「荷物を積む」「経験を積む」を単位として収集するということである.用言とその直前の格要素の組を単位として考えると,用言の用法はほとんど一意に決定される.この組み合わせは膨大になるので充分な量のコーパスが必要であるが,本研究では生コーパスから収集するので問題にならない.クラスタリングは,用法に違いはないが,用言の直前の単語が異なるために別の格フレームになってしまう用例をマージする処理である.
\section{格フレーム構築の種々の方法}
\label{本手法}\begin{figure*}[t]\begin{center}\atari(143,136)\caption{格フレームに関連するさまざまなデータ処理}\label{格フレームに関連するデータ}\end{center}\end{figure*}我々の提案する格フレーム辞書の自動構築の過程は以下のとおりである(図\ref{格フレームに関連するデータ}の点線で囲まれた部分).\begin{enumerate}\itemコーパスのテキストに対して,KNP\cite{Kurohashi1994J}を用いて構文解析を行い,その結果から,ある程度信頼できる用言・格要素間の関係を取り出す.ここで取り出すデータを{\bf用例}と呼ぶ.\label{概略::用例の収集}\item抽出した関係を用言と直前の格要素の組ごとにまとめる.このようにして作成したデータを{\bf用例パターン}と呼ぶ.\label{概略::組にまとめる}\itemシソーラスを用いて,用例パターンのクラスタリングを行う.この結果できたものを{\bf用例格フレーム}と呼び,本研究ではこれが最終的に得られるものである.以下では「荷物」,「物資」,「経験」などの格要素になる単語を{\bf格用例},用例格フレームにおけるある格の格用例の集合,例えば「積む」の1つめの用例格フレームのヲ格の格用例集合\{「荷物」,「物資」\}を{\bf格用例群}と呼ぶ.{\bf格要素}は格用例と格の組である.\end{enumerate}次に,格フレームに関連するさまざまなデータ処理を図\ref{格フレームに関連するデータ}に沿って議論する.まず,図\ref{格フレームに関連するデータ}のIの用例をそのまま個別に使うことが考えられるが,この場合データスパースネスが問題になる.\vspace*{1ex}\begin{tabular}{l@{}l@{\\}l@{}l@{}l}\ex&\subex&車に&荷物を&積む\\&\subex&トラックに&物資を&積む\end{tabular}\vspace*{1ex}\noindent例えば,この2つの用例がコーパスにあったとしても,「車に物資を積む」という表現が妥当であるかどうかはわからない.一方,用例を二項関係に分割すると,図\ref{格フレームに関連するデータ}のIIのような共起データを作ることができる.これは統計パーサによって用いられているデータ形式であり,データスパースネスの問題を回避することができる\cite{Collins1996}.しかし,その副作用として用言の用法の多様性の問題が生じる.\vspace*{1ex}\begin{tabular}{l@{}l@{\\}l@{}l@{}l}\ex&\subex&車に&荷物を&積む\\&\subex&&経験を&積む\end{tabular}\vspace*{1ex}\noindent例えば,この2つの用例から「車に積む」,「荷物を積む」,「経験を積む」という共起データが得られるが,これらのデータだけでは「車に経験を積む」のような間違った表現を許すことになる.また,図\ref{格フレームに関連するデータ}のIIIのように用例を単純にまとめたものも,もっている情報は共起データと同じであり,やはり用言の用法の多様性が問題となる.これに対して,本手法で得られる用例格フレームでは,用言とその直前の格要素を組にして扱うという方法で,用法の多様性の問題を解決しつつ,データスパースネスにも対処している.一方,用例を直接クラスタリングすることによって用例格フレームを作成する方法も考えられる(図\ref{格フレームに関連するデータ}のIV).この方法でも,用言の用法ごとに分かれた用例格フレームが得られるので,我々の作成する用例格フレームに近いといえる.しかし,この方法ですべての格要素を等しく扱うと,用言の用法にあまり関係しない格要素(用言の直前ではない格要素)が類似していることによって,用言の用法の異なる用例がひとつの用例格フレームにマージされてしまうことがある.\vspace*{1ex}\begin{tabular}{l@{}l@{\\}l@{}l@{}l}\ex&\subex&従業員が&荷物を&積む\\&\subex&従業員が&経験を&積む\end{tabular}\vspace*{1ex}\noindent例えば,この2つの用例は,用法が異なっているが,ガ格の「従業員」が同じであるためにマージされる可能性がある.このような問題があるため,用例を直接クラスタリングする方法では,必ずしもよい精度の格フレームにはならないと思われる.格フレームは辞書として利用されるものであり,精度は非常に高いものが要求されるため,この方法は格フレームの作成には適当ではないと考えられる.
\section{関連研究}
英語を対象として,生コーパスから格フレームを学習する方法はいくつか研究されてきた\cite{Brent1991,Manning1993,TedBriscoe1997}.英語は格要素が省略されることがなく,問題となるのは格要素が用言にとって必須であるか任意であるかの判定である.この判定は,統計情報を利用して用言と格フレームの関連度を計算することによって行われている.学習する格フレームは用例格フレームのようなものではなく,動詞が名詞句と前置詞句をとるといったパターンである.つまり,用言の用法そのものを収集していると考えられるので,用言の用法の多様性は問題にならない.日本語では,格フレームを構文情報付きコーパスから学習する方法が提案されている\cite{東優1996,宇津呂武仁1997}.これらの手法は,学習に構文情報付きコーパスを用いているためカバレージの点で問題がある.春野は,意味素を要素とする格フレームをコーパスから学習する方法を提案している\cite{春野雅彦1995}.11個の動詞を対象とし,新聞1年分から人手で抽出した用例を用いているのでカバレージの点では問題ないが,動詞数を増やして実用的な格フレームを作成するのは難しいと思われる.これらの手法で得られる格フレームは,格要素を汎化した意味素を格フレームの個々の要素としたものであり,この点では本研究と異なる.用言の用法の多様性は,それぞれ次のようにして扱っている.東らはEDRコーパスを用いており,動詞についている動詞概念ごとに格フレームを作成している.宇津呂らと春野の手法は,それぞれ機械学習,情報圧縮の手法を用いて意味素の汎化レベルを決定することによって,用例を直接クラスタリングするものである.しかし,前節で述べたように,これらの方法は精度の面で格フレームの作成には適当ではないと考えられる.
\section{用例の収集}
\label{用例の収集}コーパスを構文解析した結果から,図\ref{格フレームに関連するデータ}に示したような用例の収集を行う.質の高い用例を収集するために,コーパスの解析結果から確信度の高い係り受けを抽出する.\subsection{格要素の条件}\label{格要素の条件}用例を収集するときに,格,格用例,格要素に以下の条件を設定する.\subsubsection*{\underline{格の設定}}収集する格要素の格として,日本語の基本的な格すべてを対象とする.対象とした格を以下に示す.\vspace*{1ex}\begin{quote}ガ格,ヲ格,ニ格,ト格,デ格,カラ格,ヨリ格,ヘ格,マデ格,無格\end{quote}\vspace*{1ex}\noindentこれらに加えて,次のものも格として扱う.\begin{description}\item[時間格]ニ格,無格,カラ格,マデ格で,意味素「時間」(後述)をもっている格要素はまとめてひとつの格にする.これは,格フレームを作成する際には,その用言が時間に強く関係しているかどうかが重要であり,表層格の区別は重要でないからである.\begin{exn}例:\&3時に,来年から\end{exn}\item[複合辞]格と同じように振る舞う複合辞を,それぞれひとつの格として扱う.\begin{exn}例:\&〜をめぐって,〜によって,\\&〜について,〜として\end{exn}\end{description}\subsubsection{\underline{格用例の汎化}}個別の単語を扱うことにあまり意味がなく,明確な意味を考えることできる格用例はクラスとしてまとめて扱う.この汎化したクラスを以下のように3種類設定した.この場合,格用例として単語のかわりにクラスを記述する.\vspace*{1ex}\noindent{\bf時間}\begin{itemize}\item品詞細分類が時相名詞の形態素を含む文節\\\begin{exn}例:\&朝,春,来年\end{exn}\item時間助数辞を含む文節\\\begin{exn}例:\&1999年,12月,6日,9時,35分,23秒\end{exn}\item「前」,「中」,「後」という接尾辞をもち,自立語がシソーラス上の意味属性「場所」をもたない文節\\\begin{exn}例:\&会議中,戦争後,書く前\end{exn}\end{itemize}\noindent{\bf数量}\begin{itemize}\item数詞を含む(助数辞を含まない)文節\\\begin{exn}例:\&1,2,一,二,十,百\end{exn}\item数詞と,「つ」,「個」,「人」のような助数辞を含む文節については,「<数量>つ」,「<数量>個」,「<数量>人」のように数量クラスと助数辞のペアにして扱う.\begin{exn}例:\&1つ$\rightarrow$<数量>つ\\&2個$\rightarrow$<数量>個\end{exn}\end{itemize}\noindent{\bf補文}\begin{itemize}\item引用節「〜と」,連体修飾+形式名詞またはそれに準ずる表現(〜の〜,〜くらい〜,)\begin{exn}例:\&書くと,書いたことを,書くのを,\\&書くくらいが\end{exn}\end{itemize}\subsubsection*{\underline{曖昧な格要素の排除}}次のような格要素は収集に用いない.\begin{itemize}\item提題助詞をもつ格要素と用言の連体修飾先は,表層格が明示されていないので収集に用いない.\begin{exn}例:\&その\underline{議員}は〜を提案した.\\&〜を提案している\underline{議員}が〜\end{exn}\itemニ格,デ格で副詞的に使われる格要素は,係る用言との関係が任意的であるので収集から除外する.これらの格要素については人手で辞書を作成した.\begin{exn}例:\&ために,無条件に,うえで,せいで\end{exn}\itemKNPでは,「〜では」,「〜でも」はデ格,「〜には」,「〜にも」はニ格の格要素として扱われるが,副助詞,あるいは従属節の場合もあるので収集の対象から除外する.\begin{exn}例:\&足の1本\underline{でも}折ってやろうかと思った.\\&育成しないこと\underline{には}世界で通用しない.\end{exn}\end{itemize}\vspace*{2ex}格要素が複合名詞の場合には,もっとも意味的に重要であると考えられる最後の自立語を収集に用いる.\vspace*{1ex}例えば,\begin{tabular}{l@{}l}\ex&30日に総理大臣がその2人に賞を贈った.\end{tabular}\noindentという文からは,\begin{quote}<時間>:時間格\大臣:が<数量>人:に\賞:を\\\贈る\end{quote}\noindentという用例を得る.\subsection{用言の条件}収集する用言は動詞,形容詞,名詞+判定詞とする.名詞+判定詞として収集する用言には体言止めの名詞も含む.ただし,以下のような用言は収集に用いない.\begin{itemize}\item用言が受身,使役,「〜もらう」,「〜たい」,「〜ほしい」,「〜できる」の形であれば,格の交替が起こり,格と格要素の関係が通常の場合と異なるので収集に用いない.\item「〜で」は,判定詞かデ格かの自動判定が難しいので,KNPが判定詞と認識しても,用言として収集に用いない.\begin{exn}例:\&彼は\underline{京都で},試験を受け…\(助詞)\\&彼が好きな町は\underline{京都で},…\(判定詞)\end{exn}\item形態素解析において,活用形から原形が一意に決まらない用言は収集に用いない.\begin{exn}例:\&あった:ある,あう\\&いった:いる,いう\end{exn}\item用言として用いられているサ変名詞の直後に読点か句点がある場合,そのサ変名詞が受身か能動であるのかを区別することは難しいので,これは収集に用いない.\begin{exn}例:\&世界選手権は約1200人が出場して福井県鯖江市で\underline{開催}.\end{exn}\end{itemize}\subsection{確信度の高い係り受けの抽出}\label{確信度の高い係り受けの抽出}コーパスを構文解析した結果から用例を収集するときに問題となるのは,解析結果に誤りが含まれていることである.そこで,誤りの影響を軽減するために,解析の精度が低い係り受けは捨てて,ある程度確信度が高い係り受けを格フレームの収集に用いる.KNPでは,次のような優先規則によって文節の係り先を決定している.\vspace*{2ex}\begin{description}\item[Rule1]文中の強い区切りを見つけることによって,係り先の候補の絞り込みを行う(ここで候補がひとつになるなら,係り先をそれに決定する).\item[Rule2]係り先の候補の用言のうち,格要素の係り先にならないことが多い用言を候補から除外する.\item[Rule3]``読点のない文節はもっとも近い候補に係り,読点のある文節は2番目に近い候補に係る''という優先規則に従って,候補の中から係り先を決定する.\end{description}\vspace*{2ex}用例の収集では,Rule1は信頼し,Rule2とRule3は信頼しない(多くの場合正しいが,誤っていることもある)こととする.つまり,Rule1で候補がひとつになり決定される係り受けは用例の収集に用い,Rule2やRule3の処理が適用された係り受けは収集に用いない.\vspace*{1ex}\begin{tabular}{l@{}l}\ex&\begin{minipage}[t]{12.8cm}彼は先生のアドバイスに従って英語を勉強したので,テストのスコアが大きく上がった.\end{minipage}\end{tabular}\vspace*{1ex}\noindentこの例では,「〜ので」はKNPによって強い区切りであると認識され,「英語を」の係り先の候補は「勉強した」の1つしかないので,この用例が取り出される.「スコアが」の係り先の候補は,「大きく」がRule2によって除外されており,「上がった」の1つだけであるが,この用例は取り出されない.「アドバイスに」の係り先の候補は「従って」,「勉強した」の2つであり,Rule3の優先規則により係り先は「従って」に決定されるが,この用例は取り出されない.上の例ではルールがすべて正しく働いていたが,Rule2によって係り先の候補から除外した用言は,場合によっては係り先になる可能性があるので,このときの用例は収集しないことにしている.例えば,次の例のように,形容詞「早い」の直後に「救う」のような強い用言がある場合,このような形容詞は格要素の係り先になりにくいために,係り先の候補から除外される.\vspace*{1ex}\begin{tabular}{l@{}l}\ex&\begin{minipage}[t]{12.8cm}長女が気づき,家族とともに二人を助けようとしたが火の\underline{回りが}早く救い出せなかった.\end{minipage}\end{tabular}\vspace*{1ex}\noindentこの例では,「回りが」は形容詞「早く」に係るのが正解であるが,「早く」は係り先の候補から除外されており解析が誤っている.また,Rule3の処理の例を次に示す.\vspace*{1ex}\begin{tabular}{l@{}l}\ex&\begin{minipage}[t]{12.8cm}商工会議所の会頭が,\underline{質問に}先頭を切って答えた.\end{minipage}\end{tabular}\vspace*{1ex}\noindentKNPは,「質問に」の係り先の候補として,「切って」,「答えた」の2つの可能性を考慮する.この場合,``より近くに係る''という優先規則に従って係り先は「切って」に決定されるが,この解析は誤りである.この例のように,係り先の候補が複数存在すると,係り先に曖昧性があり確信度が低いので,このような用例は収集しない.京都大学テキストコーパスから確信度の高い係り受けを抽出して,その精度の評価を行った.対象としている格をもつ格要素の係り受けの精度は90.9\%であるのに対し,抽出した確信度の高い係り受けの精度は97.2\%であった.抽出した係り受けは,対象としている格をもつ係り受け全体の44.0\%であった.これより,この処理はかなり効果的であることがわかる.
\section{用例格フレームの作成}
\ref{本手法}章の例文で示したように,用言の用法の異なる用例をひとつの格フレームとしてまとめてしまうと,誤った表現を許す格フレームを作ってしまう.従って,格パターンの異なる格フレームは別々に作成する必要がある.用言の用法を決定する重要な格要素は用言の直前にくることが多い.また,用言とその直前の格要素をペアにして考えると,用言の用法はほとんど一意に決定される.そこで,用例を,{\bf用言とその直前の格要素の組を単位としてまとめる}という処理を行い,用例パターン(図\ref{格フレームに関連するデータ})を作る.用例パターンの用言の直前の格要素を{\bf直前格要素},直前格要素の格を{\bf直前格}と呼ぶ.用例パターンは,ひとつの用言について,直前格要素の数だけ存在している.そのため,次の例のように,用法がほとんど同じパターンまで個別に扱われている.\vspace*{1ex}\begin{tabular}{l@{}l@{\\}l@{}l@{}l@{}l}\ex&\subex&従業員:が&車:に&荷物:を&積む\\&\subex&&\{トラック,飛行機\}:に&物資:を&積む\end{tabular}\vspace*{1ex}\noindentそこで,ほとんど用法が同じ用例パターンをマージするために,用例パターンのクラスタリングを行う.以下では,このクラスタリングの詳細について述べる.\subsection{用例パターン間の類似度}用例パターンのクラスタリングは,用例パターン間の類似度を用いて行う.用例パターン間の類似度は,格の一致度と格用例群間の類似度の積とする(図\ref{用例パターン間の類似度の計算の例}に類似度の計算の例を示す).\begin{figure}[t]\begin{center}\atari(100,61)\caption{用例パターン間の類似度の計算の例(用例の右下の数字は頻度を示す.)}\label{用例パターン間の類似度の計算の例}\end{center}\end{figure}まず,単語$e_1,e_2$間の類似度$sim_e(e_1,e_2)$を,日本語語彙大系のシソーラスを利用して以下のように定義する.\[sim_e(e_1,e_2)=max_{x\ins_1,y\ins_2}\,sim(x,y)\]\[sim(x,y)=\frac{2L}{l_{x}+l_{y}}\]ここで,$x,y$は意味属性であり,$s_1,s_2$はそれぞれ$e_1,e_2$の日本語語彙大系における意味属性の集合である(日本語語彙大系では,単語に複数の意味属性が与えられている場合が多い).$sim(x,y)$は意味属性$x,y$間の類似度であり,$l_{x},l_{y}$は$x,y$のシソーラスの根からの階層の深さ,$L$は$x$と$y$の意味属性で一致している階層の深さを表す.類似度$sim(x,y)$は0から1の値をとる.用例パターン$P_1,P_2$の格の一致度$cs$は,$P_1,P_2$に含まれるすべての格用例に対する,$P_1,P_2$の共通格に含まれている格用例の割合とし,\begin{eqnarray*}cs=\frac{\sum_{i=1}^{n}|E_{1cc_i}|+\sum_{i=1}^{n}|E_{2cc_i}|}{\sum_{i=1}^{l}|E_{1c1_i}|+\sum_{i=1}^{m}|E_{2c2_i}|}\end{eqnarray*}と定義する.ただし,用例パターン$P_1$中の格を$c1_1,c1_2,\cdots,c1_l$,用例パターン$P_2$中の格を$c2_1,c2_2,\cdots,c2_m$,$P_1$と$P_2$間の共通格を$cc_1,cc_2,\cdots,cc_n$とする.また,$E_{1cc_i}$は$P_1$内の格$cc_i$に含まれる格用例群であり,$E_{2cc_i}$,$E_{1c1_i}$,$E_{2c2_i}$も同様である.$\left|E_{1cc_i}\right|$などの絶対値記号は頻度を表す.用例パターン$P_1,P_2$の共通格に含まれる格用例群間の類似度$sim_E(P_1,P_2)$は,格用例の類似度の和を正規化したもので,\begin{eqnarray*}\lefteqn{sim_E(P_1,P_2)}\\[5pt]&=\frac{\sum_{i=1}^{n}\sum_{e_1\inE_{1cc_i}}\sum_{e_2\inE_{2cc_i}}\left|e_1\right|\left|e_2\right|\,sim_e(e_1,e_2)}{\sum_{i=1}^{n}\sum_{e_1\inE_{1cc_i}}\sum_{e_2\inE_{2cc_i}}\left|e_1\right|\left|e_2\right|}\end{eqnarray*}とする.用例パターン$P_1,P_2$間の類似度は,格の一致度$cs$と$P_1,P_2$の共通格の格用例群間の類似度の積とし,次のようにして計算する.\[\mbox{類似度}=cs\cdotsim_E(P_1,P_2)\]\subsection{クラスタリングの手順}用例パターンのクラスタリングの手順を以下に示す.\begin{enumerate}\itemまず,直前の格要素の出現頻度がある閾値以上あるという条件で足切りを行う.これは,直前の格以外にも格用例がある程度の回数以上出現しているような安定した用例パターンだけを対象にするためである.この閾値は5に設定した.\label{クラスタリング::頻度の足切り}\item{\bf直前格が同じ用例パターンのクラスタリング}\label{クラスタリング::基本クラスタリング}\begin{enumerate}\item[i.]あらゆる2つ組の用例パターンの類似度を計算し,用例パターンの意味属性を固定する.これらの処理は,\ref{用例パターンの意味属性の固定}節で述べるように繰り返す.\item[ii.]用例パターン間の類似度が閾値を越える組について,用例パターンのマージを行う.\end{enumerate}\item{\bf直前格を限定しない用例パターンのクラスタリング}\\直前格が同じ用例パターンのクラスタリングでは,次の例のように,格パターンが同じで用言の用法もほとんど同じ用例パターンであっても,直前格が異なっていれば別の用例パターンとなってしまう.\vspace*{1ex}\begin{tabular}{l@{}l@{\\}l@{}l@{}l}\ex&\subex&\{物資,貨物\}:を&トラック:に&積む\\&\subex&\{トラック,飛行機\}:に&\{荷物,物資\}:を&積む\end{tabular}\vspace*{1ex}\noindentこのように,直前格が異なっていても格パターンがほとんど同じ格フレームをマージする必要がある.行う処理は,\ref{クラスタリング::基本クラスタリング}の処理で得られた用例パターンのクラスタリングである.類似度,閾値とも\ref{クラスタリング::基本クラスタリング}と同じものを用いる.\ref{クラスタリング::基本クラスタリング}と異なる点は用例パターンの意味属性の固定を行わないことである.\item{\bf残りの用例パターンのふりわけ}\\頻度の閾値を越えない用例パターン(残りの用例パターン)をこれまでの処理で作成された用例パターンにふりわける.これまでと同様に用例パターン間の類似度を計算し,類似度が閾値を越え,もっとも類似している用例パターンにマージする.クラスタリング結果に対象としている用言の格フレームがないときは,残りの用例をひとつの格パターンとしてまとめる.\end{enumerate}\vspace{1em}\subsection{用例パターンの意味属性の固定}\label{用例パターンの意味属性の固定}用例パターン間の類似度は,用例パターンの直前格要素の意味属性が大きく影響する.そのため,用例パターンの直前格要素に多義性があるときに問題がある.例えば,「合わせる」の用例パターンのクラスタリングにおいて,用例パターンの組(手,顔)\footnote{ここでは,用例パターンを直前格要素で表している.たとえば,「手」は「手:を合わせる」という用例パターンを意味している.}と(手,焦点)がそれぞれマージされる.(手,顔)は意味属性<動物(部分)>,(手,焦点)は意味属性<論理・意味等>を共通にもつためである.この2つの用例パターンの組から結果的に(手,顔,焦点)という意味的におかしい組が作られてしまう.この問題は,「手」が複数の意味属性<動物(部分)>,<論理・意味等>をもち,多義であるにもかかわらず,その多義性をまったく考慮せずに単純にクラスタリングしていることに起因している.この問題に対処するために,もっとも類似度が高い用例パターンの組から意味属性を固定する処理,すなわち用例パターンの意味の曖昧性解消を行う.この処理は,用例パターンの直前格要素の意味属性を固定することによって,次のような手順で行う.\begin{enumerate}\item類似度が高い用例パターンの組(p,q)から順に,両方の用例パターンの直前格要素n${}_p$,n${}_q$の意味属性を固定する.固定する意味属性は,n${}_p$,n${}_q$間の類似度を最大にする意味属性s${}_p$,s${}_q$とする.ここで扱う用例パターンは,直前格が同じものに限定する.\itemp,qに関係する用例パターンの類似度を再計算する.\item閾値を越える用例パターンの組がなくなるまで,この2つの処理を繰り返す.\end{enumerate}次に,この処理の例を示す.用言「飛ぶ」について,直前格の単語が「声」,「怒声」,「機」,「質問」であり,用例パターン間の類似度がクラスタリングの閾値(ここでは0.65とする)を越える組み合わせが以下の4通りであったとする.\vspace*{1ex}\begin{tabular}{lllr}(a)&声:<声>&怒声:<声>&0.90\\(b)&声:<単位>&機:<単位>&0.78\\(c)&声:<声>&質問:<質問>&0.69\\(d)&怒声:<声>&質問:<質問>&0.68\end{tabular}\vspace*{1ex}この表より,もっとも類似度が高い用例パターンの組は(a)であり,「声」を直前格とする用例パターンと「怒声」を直前格とする用例パターンの類似度が0.90となっている.このとき,「声」の意味属性が<声>で,「怒声」の意味属性も<声>のときに,「声」,「怒声」という単語間の類似度,そしてこの用例パターン間の類似度が最大になっている.ここで,「声」の意味素を<声>,「怒声」の意味属性も<声>に固定する.「声」と「怒声」の意味属性が限定されたので,それらの用例パターンに関係する類似度(b),(c),(d)の再計算を行う.再計算の結果,(c),(d)の類似度は変わらないが,(b)は,\vspace*{1ex}\begin{tabular}{lllr}(b)&声:<声>&機:<単位>&0.29\end{tabular}\vspace*{1ex}\noindentとなり,類似度0.29は閾値を下回り,結局この用例パターン間のクラスタリングは行われない.
\section{必須格の選択}
クラスタリングを行った結果得られる用例格フレームについて,格用例の頻度が少ない格は除く.これは,ひとつには構文解析結果の誤りへの対策であり,また頻度の少ない格はその用言と関係が希薄であると考えられるからである.ただし,ガ格についてはすべての用言がとると考え,頻度が少なくても削除せず,逆にガ格の格用例がない場合には,意味属性<主体>を補うことにした.頻度の閾値は,現在のところ経験的に$2\sqrt{mf}$と定めている.ただし,$mf$はその用言においてもっとも多く出現した格の延べ格用例数である.例えば,ある用言について,もっとも多く出現した格がヲ格で,$mf=100$であり,ニ格の格用例数が16であったすると,このニ格は頻度が20未満なので捨てられることになる.
\section{作成した格フレーム辞書}
毎日新聞約9年分の460万文から実際に格フレーム辞書を構築した.クラスタリングの閾値は$0.80$に設定した.これは,格パターンが違ったり,意味が違う格フレームが同じ格フレームにならないという基準で設定したものである.従って,格フレームは基本的にはばらばらで,意味がほとんど同じ格フレームを最小限まとめたものになっている.格フレームの例を表\ref{構築した格フレームの例}に示す.この表では,<主体>,<場所>の意味属性をもつ格用例を【主体】,【場所】という意味属性でまとめて表示している.71,000個の用言について格フレームが構築され,用言あたりの平均格フレーム数は1.9個,格フレームあたりの格の平均数は1.7個,格あたりの平均異なり格用例数は4.3個であった.また,クラスタリングによって用例格フレーム数は用例パターン数の53\%になった.構築した格フレーム辞書をみると,「賛成」のような名詞+判定詞の格フレームや,「ただす」の「について」のような複合辞の格についても得られている.また,「告知する」は,語順の問題への対処が有効に働いて,次の2つの分割する必要のない用例格フレームが1つにマージされている.\begin{tabular}{l@{}l@{\\}l}\ex&\subex&<主体>:が患者:に告知する\\&\subex&同僚:が\{患者,本人,家族\}:に感染:を告知する\end{tabular}\begin{table*}[tbp]\begin{center}\caption{構築した格フレームの例(*はその格が用言の直前の格であることを示す.)}\label{構築した格フレームの例}\begin{tabular}{l|c|l}\hline\multicolumn{1}{c|}{用言}&格&\multicolumn{1}{c}{用例}\\\hline\hline買う1&ガ格&【主体:<数量>人,乗客,幹部,筋,男性,資産家,政府,銀行,…】\\&ヲ格*&株,円,土地,もの,ドル,切符,車,物,家,株式,国債,…\\&デ格&【場所:店,駅】,<数量>円,金,価格,会社,仲介,額,インターネット,…\\\hline買う2&ガ格&対応,厚生,絵はがき,蓄財,シーン,工作,禁止,風刺画,…\\&ヲ格*&怒り,ひんしゅく,失笑,反感,恨み,不興,憤激,嘲笑,…\\\hline\multicolumn{1}{c|}{:}&\multicolumn{1}{c|}{:}&:\\\hline\hline読む1&ガ格&【主体:大学生,首相,先生,若者,女性サラリーマン】,<数量>割,…\\&ヲ格*&本,記事,新聞,小説,投書,作品,書,文,文章,手紙,…\\\hline読む2&ガ格&【主体:<主体>】\\&ヲ格&話,<補文>,意見,惨状,ニュース,事件,記,経緯,記事,…\\&デ格*&新聞,本,本紙,教科書\\\hline読む3&ガ格&【主体:<主体>】\\&ヲ格*&先\\\hline\multicolumn{1}{c|}{:}&\multicolumn{1}{c|}{:}&:\\\hline\hlineただす1&ガ格&【主体:氏,委員,議員,委員長,党首,会長,主席】,両氏,副総裁,喚問,…\\&ヲ格*&見解,真意,考え,方針,問題,真偽,意図,策,行方,意向,…\\&について&問題,<補文>,展開,責任,影響,停止,法案,見通し,事例,…\\\hlineただす2&ガ格&【主体:委員長,自ら,業界】\\&ヲ格*&【主体:身】,姿勢,姿,威儀\\\hline\multicolumn{1}{c|}{:}&\multicolumn{1}{c|}{:}&:\\\hline\hline告知する1&ガ格&【主体:医師】\\&ニ格*&本人\\\hline告知する2&ガ格&【主体:同僚】\\&ヲ格*&感染,がん\\&ニ格*&患者,本人,家族\\\hline\multicolumn{1}{c|}{:}&\multicolumn{1}{c|}{:}&:\\\hline\hline賛成1&ガ格&【主体:<主体>】\\&ニ格*&意見,考え,主張,認識,論,立場\\\hline賛成2&ガ格&【主体:<主体>】\\&ニ格*&<補文>\\\hline\end{tabular}\end{center}\end{table*}
\section{解析実験}
\begin{table}[tbp]\caption{提題,被連体修飾詞の格解析の評価}\label{格解析の評価}\begin{center}\small\begin{tabular}{l|c|c|c|c|c|c}\hline\multicolumn{1}{l}{}&&&\multicolumn{4}{c}{誤り}\\\cline{4-7}\multicolumn{1}{l}{}&&\raisebox{0.5zh}{正解}&\begin{minipage}{5zw}対応付けの誤り\end{minipage}&\begin{minipage}{5zw}外の関係による誤り\end{minipage}&\begin{minipage}{5zw}ガガ構文による誤り\end{minipage}&\begin{minipage}{5zw}係り受けの誤り\end{minipage}\\\hline\raisebox{-0.8zh}[0pt][0pt]{本手法}&提題&85&3&--&2&13\\&連体修飾&50&5&9&--&2\\\hline\raisebox{-0.8zh}[0pt][0pt]{ベースライン}&提題&81&7&--&2&13\\&連体修飾&43&6&15&--&2\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tbp]\caption{格解析の結果の例}\label{格解析の結果の例}\hhline\begin{center}\exa{\underline{大蔵省は}$_{1:ガ格}$九日,信託銀行の不良債権の処理を促進するため,一九九五年三月期決算で信託銀行各行が\fbox{積み立てている}$\,_2$\underline{特別留保金の}$_{2:ヲ格}$取り崩しを\fbox{認める}$\,_3$\underline{方針を}$_{3:ニ格\Rightarrow外の関係}$\fbox{決めた.}$\,_1$}\exa{特に\underline{日本信託銀行は}$_{1:ガガ}$不動産融資の焦げ付きで信託勘定の不良債権が\fbox{膨らんでおり,}$\,_1$\,\underline{大蔵省は}$_{2:ガ格}$「特別留保金を取り崩して不良債権処理を促進する\underline{ことは}$_{3:ガ格}$顧客保護にも\fbox{通じる}$\,_3$」と\fbox{判断した.}$\,_2$}\exa{\underline{新民連は}$_{1:ガ格}$これに\fbox{先立ち}$\,_1$,衆参院議員二十九人が参加して総会を開き,山花氏が,今後の新党問題の\underline{協議は}$_{2:ヲ格}$準備会で\fbox{進める}$\,_2$\underline{考えを}$_{2:外の関係}$表明し,\underline{新民連は}$_{3:ガ格}$事実上,活動停止状態に\fbox{なった.}$\,_3$}\exa{金権選挙追放策の一つとして,戦後\fbox{廃止されてしまった}$\,_1$民衆訴訟による\underline{当選無効制度の}$_{1:ガ格}$\underline{復活も}$_{2:ヲ格}$\fbox{試みる…….}$\,_2$}\exa{これらの\underline{業界は}$_{1:ヲ格\Rightarrowガガ}$,比較的外圧を受けにくく,また政治的発言力が強い,という特徴が\fbox{ある.}$\,_1$}\exa{宇宙誕生のなぞや物質の重さの起源に迫ろうという世界最大の素粒子加速器建設計画が,十九カ国が\fbox{加盟する}$\,_1$\underline{欧州合同原子核研究所の}$_{1:ニ格}$理事会で本決まりとなった.}\exa{そして物質に重さを\fbox{与える}$\,_1$\underline{役割を}$_{1:外の関係}$\fbox{担う}$\,_2$\underline{ヒッグス粒子の}$_{2:ガ格}$発見などを目指している.}\exa{しかし,日韓正常化の韓国での\underline{歴史評価は}$_{1:ヲ格}$,韓国の人々に\fbox{まかせるべきであろう.}$\,_1$}\exa{代表質問を“影の内閣”として\fbox{設置した}$\,_1$\underline{政権準備委員会の}$_{1:ニ格\Rightarrowガ格}$「施政方針演説」と位置付け,政権担当能力をアピールするのが狙い.}\end{center}\hhline\small下線部は提題または被連体修飾詞を表し,四角形で囲まれた部分は用言を表している.四角形には用言の番号を付与してある.下線部の後に,係り先の用言を示す番号と,格解析によって認識された格を記述し,格解析が誤っているときは$\Rightarrow$の後に正解の格を記述した.\end{table}得られた格フレーム辞書の静的な評価は難しいので,それを用いた格解析を通して評価する.毎日新聞の記事200文をテストセットとし\footnote{このテストセットは,格フレーム辞書の構築には用いていない.},これに対して格解析を行った.格解析は\cite{Kuro-IEICE1994}の方法を用いた.格解析結果の評価は,提題と被連体修飾詞の格を正しく認識できるかどうかで行う.格解析の評価を表\ref{格解析の評価}に示す.ベースラインは,格フレーム辞書を用いずに,対象の用言がもっていない格をガ格,ヲ格,ニ格の順番に探して最初にみつかった格に決定するという処理を行ったものである.表\ref{格解析の評価}において,格解析の精度をみるために係り受けの誤りを除いて考えると,本手法では提題が94\%,被連体修飾詞が78\%,ベースラインでは提題が90\%,被連体修飾詞が67\%という精度であり,本手法はベースラインの精度を大きく上回っている.解析結果の例を表\ref{格解析の結果の例}に示す.誤りの大きな原因は,「〜を与える役割」のような外の関係,「業界は〜という特徴がある」といったガガ構文である.この問題の対処は今後の課題である.
\section{おわりに}
本論文では,用言とその直前の格要素の組を単位として,生コーパスから用例を収集し,それらのクラスタリングを行うことによって,格フレーム辞書を自動的に構築する手法を提案した.得られた辞書を用いて実際に格解析を行った結果,提題,連体修飾の格の解釈をかなり高い精度で行うことができた.従って,実用レベルの格フレーム辞書を構築できたと考えられる.今後,この格フレーム辞書を用いて文脈解析を行う予定である.\bibliographystyle{jnlpbbl}\bibliography{NLP-CaseFrame}\begin{biography}\biotitle{略歴}\bioauthor{河原大輔}{1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.現在,同博士課程在学中.構文解析,文脈解析の研究に従事.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程修了.京都大学工学部助手,京都大学情報学研究科講師を経て,2001年東京大学大学院情報理工学系研究科助教授,現在に至る.自然言語処理,知識情報処理の研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V02N03-04 | \section{はじめに}
自然言語には定型表現と呼ばれる単語間の共起性が強い表現が数多く存在する.定型表現を収集,整理しておくことは言語学的な観点からも機械処理の観点からも有益である.例えば「目を盗む」や「かたずを飲む」などの慣用表現は,その表現の意味が個々の構成語の意味からは作り出すことができない\cite{miyaji}.このために,機械処理ではそれら表現に例外的な処理を施す必要がある.また言語学的にも語の持つ意味の標準的用法と非標準的用法の境界を考察する上で,このような表現を網羅的に収集することが望まれる.また慣用表現ではなくとも,「に関して」「も少なくない」「て欲しい」などの定型表現では個々の構成語に分割して処理するよりも予め一語として捉えていた方が機械処理の面では実用的な場合が多い.また外国語習得の面でも,共起性の強い表現を単語のように,1つの概念に対応する固定した文字列として捉え,それらを記憶しておくことが効果的である.その他,音声認識,OCRにも,共起性の強い表現を記憶しておくことが,そこでの曖昧性の解消に役立つことが知られている\cite{church,kita}.定型表現は付属語的なものと,そうでないもののに大きく分けられ,後者の中に述語型定型表現が存在する.述語型定型表現とは「目を盗む」のように\begin{center}名詞+格助詞+動詞\end{center}のパターンになっている定型表現である.これら表現は定型表現の大きな部分を占め,また,通常の名詞動詞間の共起による解析との整合性が必要となる\cite{oku,suzuki}.さらに「将棋を指す」「碁を打つ」のように,同じの意味の動詞(play)でも名詞によって異なる表現を用いるコロケーションの問題を考察する上でも,述語型定型表現の収集が望まれる.このような理由から定型表現の中でも特に述語型定型表現を収集することは重要である.述語型定型表現を収集することは有益であるが,その収集は困難である.なぜなら,それら表現の客観的な定義は困難なため,個々の表現に対して人間の判断が必要となり,その収集には膨大な時間と手間がかかるからである\cite{syudo}.また人手による収集では,その網羅性,一貫性などの問題点もある.これらの点から定型表現や慣用表現の自動抽出の試みがなされているが\cite{smadja,shinnou},それら研究の多くは相互情報量を用いて共起の強さを測ることを基本としている\cite{church}.相互情報量は2つの単語がそれぞれ独立に現れる確率と同時に現れる確率との比を基に共起の強さを測る.基本的に相互情報量では2単語間が引き合う強さを総合して判断し,共起の強さを定めている.しかし言語的に考えれば,一方の単語がもう一方を引っぱるような片方向だけの強さを持っている場合でも,その表現に定型性があると考えることは自然である.本論文では上記の点を考察し,述語型の表現における名詞動詞間の共起性を測る新たな基準を提案する.概略述べると,まず,名詞あるいは動詞を固定して,共起している単語の集合を作り,その集合内で特異な高頻度の単語を取り出す.これによって,片方向から引っ張る強さの条件だけで抽出を行なうことができる.特異な高頻度の単語の判定法は,基本的に集合内の頻度の割合と,集合内の単語の種類数から判定する.判定の際に共起の強さを表す数値を与える.最終的にこの数値の上位部分を抽出とする.実験として,本論文で提案する基準を用いて,朝日新聞1か月分のコーパス(テキスト部分約9Mbyte)から「AをBする」の形の述語型定型表現の抽出実験を行ない,本手法の有効性を確認した.その結果,名詞を固定した場合に抽出できる表現と動詞を固定した場合に抽出できる表現には,ほとんど共通のものがなかった.また抽出の正解率はどちらの場合も相互情報量による抽出と同程度であった.一方,相互情報量による抽出の正解率は抽出数を増やしてゆけば当然下がる.このことから,同数の抽出を行なうことを考えると,本手法の場合,その半数の抽出の場合の正解率を保つことができ,相互情報量を用いた手法よりも広い範囲の定型表現を抽出できることがわかる.
\section{相互情報量からの共起性測定法の問題点}
相互情報量の定義は以下の式である.\[I(x,y)=\log_{2}\frac{p(x,y)}{p(x)p(y)}\]ただし\(p(x)\)はコーパス中に\(x\)が現れる確率,\(p(x,y)\)はコーパス中に\(x\)と\(y\)がこの順に並んで現れる確率である.相互情報量は基本的に単語\(x\)と単語\(y\)の共起の強さを測るものであり,多単語間の共起の強さを測るために,どのような拡張を行なうかは未解決である.ただし,述語型の表現\begin{center}名詞(\(n\))+格助詞(\(r\))+動詞(\(v\))\end{center}の場合,以下の式によって相互情報量を測ることが自然である.\[I(r,n,v)=\log_{2}\frac{\frac{f(r,n,v)}{N}}{\frac{f(n)}{N}\frac{f(v)}{N}}\cdots(1)\]ここで\(N\)はコーパス中の文の総数,\(f(x)\)は単語\(x\)がコーパス中で格助詞\(r\)をともなって出現した頻度,\(f(r,n,v)\)はコーパス中で名詞\(n\)と動詞\(v\)が格助詞\(r\)によって共起した頻度である.(1)式からわかるように,相互情報量は本質的に\[\frac{f(r,n,v)}{f(n)f(v)}\cdots(2)\]の値によって強さの比較が行なわれている.\(f(r,n,v)\leqf(n)\),\(f(r,n,v)\leqf(v)\)は明らかなので,(2)式は\[f(r,n,v)=f(n)=f(v)\cdots(3)\]の時に最大値をとる.ここで注目すべきは,(3)式の条件は,以下の条件よりも強いということである.\begin{description}\item[【条件a】]\underline{名詞\(n\),格助詞\(r\)が現れると必ずその後には動詞\(v\)が現れる.}\end{description}通常,[条件a]は定型性が認められる十分な条件だと考えられる.しかし[条件a]を満たし,しかも(2)式の値が低くなるケースは非常に多い.例えば図1,図2の例を見てみる.\begin{figure}[h]\begin{center}\epsfile{file=fig1and2.eps,width=133mm}\end{center}\end{figure}\begin{minipage}{66mm}\begin{center}{\small{\gt図1}\\定型表現の共起の例}\end{center}\end{minipage}\begin{minipage}{67mm}\begin{center}{\small{\gt図2}\\一般表現の共起の例}\normalsize\end{center}\end{minipage}\addtocounter{figure}{2}\bigskip\bigskip通常,「かたずを」という表現が現れれば「飲む」という動詞が現れる.「かたずを」の頻度が100,「かたずを飲む」の頻度も100となっているが,「を飲む」自身は他の多くの名詞とも共起するために,その頻度は1000となっている(図1参照).このため(2)式の値は\(10^{-3}\)となる.一方,「日本語を勉強する」という表現では,「日本語を」の頻度が200,「日本語を勉強する」の頻度が10,「を勉強する」の頻度が50,となっている(図2参照).この場合も(2)式の値は\(10^{-3}\)となる.「かたずを飲む」と「日本語を勉強する」が上記のような頻度分布を持つ場合,それらに同じ共起の強さを与えるのは,不自然さがある.言語的に考えると,[条件a]は順方向に読んでいくと後ろの部分が定まる,つまりこう言えば必ずその後はこう言う,といった表現のもつ条件である.相互情報量はさらに逆方向の共起の強さも加味している.つまりこの表現の前には必ずこういう表現が現れているはずという条件も加味している.言葉を換えてまとめれば,相互情報量は,その言葉通り,相手の単語を\underline{相互に}引っ張る力を総合してその値を定めている(図3参照).\begin{figure}[h]\begin{center}\epsfile{file=fig3.eps,width=95mm}\end{center}\caption{双方向からの共起}\end{figure}
\section{片方向の強さのみによる共起性の測定}
相互情報量は双方向から引っ張る力を総合して考えて,その単語間の共起の強さを数値化している.これは共起の強さの一側面を表しており,この判定法によってもある種の定型表現の類は抽出できる.しかし,上記したように,言語的に考えれば片方向からの共起の強さだけ持っていた場合でも共起性があると判断するのは自然である.本論文ではこの点に注目して,相互情報量の双方向という条件を片方向という条件の形に直した新たな共起性の測定方法を提案する.まず,ある動詞\(v_{0}\)と格助詞\(r_{0}\)を伴って現れた名詞\(n\)の集合を作成する.つまり,\begin{center}名詞(\(n\))+格助詞(\(r_{0}\))+動詞(\(v_{0}\))\end{center}の形を持つ名詞\(n\)をコーパスから取り出す.この名詞\(n\)の集合から特異な頻度を持つ名詞\(n_{i}\)(複数の場合もあり得る)を取り出し,\begin{center}名詞(\(n_{i}\))+格助詞(\(r_{0}\))+動詞(\(v_{0}\))\end{center}を定型表現として抽出する.「特異な頻度」の判定方法だが,ここでは基本的に以下の式の値を動詞\(v\)に対する名詞\(n\)の特異な頻度の程度を表す値とした.\[\frac{f(r,n,v)}{\sumf(n:r,v)}*\frac{1}{k(n:r,v)-1}...(5)\]ここで,\(k(n:r,v)\)は動詞\(v\)が格助詞\(r\)をともなって共起する名詞の種類数を表す.\(k(n:r,v)\)が\(1\)の場合,(5)式の値は\(1\)と定義する.また\(\sumf(n:r,v)\)は,動詞\(v\)が格助詞\(r\)をともなって共起する名詞の総頻度数を表す.すべての動詞を固定した場合に得られた表現を(5)式の値によってソートし,その上位の部分を抽出する.(5)式は固定した動詞と共起する名詞\(n\)の種類数が少なく(\(k(n:r,v)\)が小さい),固定した動詞と共起する名詞の総頻度(\(\sumf(n:r,v)\))に対して注目している名詞の頻度(\(f(r,n,v)\))の割合が高いほど大きな値となるように設定している.上記までの説明は動詞を固定した場合だが,同様にして名詞を固定した場合の抽出も行なう.最後に図1の「かたずを飲む」を例にして試して見る.動詞「飲む」を固定して考えると,「かたずを飲む」の(5)式の値は大きくないが,名詞「かたず」を固定して考えると,(5)式の値は1になる.一方,図2の「日本語を勉強する」の場合,動詞を固定した場合,\[\frac{f(を,日本語,勉強する)}{\sumf(n:勉強する,を)}*\frac{1}{k(n:勉強する,を)-1}<\frac{10}{50}*\frac{1}{3}<0.0067\]名詞を固定した場合,\[\frac{f(を,日本語,勉強する)}{\sumf(v:日本語,を)}*\frac{1}{k(v:日本語,を)-1}<\frac{10}{200}*\frac{1}{4}=0.0125\]となり,どちらも小さな値であり,強い共起性は認められない.
\section{実験}
本手法の有効性を確認するために,朝日新聞1か月分のコーパス(テキスト部分約9Mbyte)用いて,「を」格だけを対象に,述語型定型表現の抽出実験を行なう.なお,このコーパスは生のテキストであり,単語区切りが行なわれていたり,品詞のタグつけがされているものではないことを注記しておく.\subsection{共起データの収集}本手法を適用するために,コーパスから共起データを収集する必要がある.コーパス中で名詞Aが格助詞Bを介して動詞Cと共起した場合に,[A,B,C]の3組のペアを取り出す.この3組ペアを共起データと呼ぶ.例えば「雨が降っている」からは共起データとして[雨,が,降る]が取り出せる.コーパスから共起データを収集することは一般に困難である.これは解析の曖昧性の問題(省略も含む)があるからである.このため手作業により収集することや\cite{tanaka},曖昧性のない共起データだけを収集することが行なわれる\cite{nakajima}.本論文でも形態素解析を行ない曖昧性のないデータだけを対象にする.基本的に名詞,格助詞,動詞が以下のように連続して現れた場合のみを対象とする.\begin{center}名詞(A)+格助詞(B)+動詞(C)\end{center}このデータからは[A,B,C]を取り出す.ただし以下の点に注意する.\begin{description}\item[(1)]副詞の挿入\end{description}格助詞と動詞の間に副詞が入った場合,副詞を無視して[A,B,C]を取り出す.\begin{description}\item[(2)]代名詞\end{description}名詞の部分が代名詞になっているものは共起データを作成しない.\begin{description}\item[(3)]複合名詞\end{description}名詞の部分が複合名詞になっている場合は複合名詞のままで共起データを作成し,名詞部分が「AのB」になっているものは「B」の形で共起データを作成する.\begin{description}\item[(4)]連用句の挿入\end{description}連用句が挿入されている以下の形の場合,\begin{center}名詞(A)+格助詞(B)+名詞(C)+格助詞(D)+動詞(E)+句読点\end{center}曖昧性なく[A,B,E],[C,D,E]を認識できるが,ここでは[C,D,E]のみを取り出す.これは実際には[A,B,E],[C,D,E]が組合わさって意味をなすような5項関係のものも多く存在するからである.例えば「損を覚悟で売る」,「彼女をキャリア・ウーマンと呼ぶ」,「株式市場を研究テーマに選ぶ」などから[損,を,売る],[彼女,を,呼ぶ],[株式市場,を,選ぶ]を取り出すのは妥当ではない.\begin{description}\item[(5)]「を」格に対する使役の助動詞\end{description}動詞に助動詞が付随した場合には,基本的に助動詞を取り除いた形で共起データを作成する.ただし格助詞が「を」であり,しかも使役の助動詞が使用されている場合には,その助動詞は取り除かない.これは「を」格の場合,使役の助動詞を取り除くと意味をなさないものが生じるからである.例えば「波長を合わせる」の場合,助動詞を外して「波長を合う」とは言えないので,[波長,を,合う]ではなく,[波長,を,合わせる]を取り出す.\begin{description}\item[(6)]数量詞移動の現象\end{description}数量詞移動の現象に対しては,数量詞も別個に取り出す.数量詞移動とは,「3匹の子豚が住んでいた」という表現が「子豚3匹が住んでいた」「子豚が3匹住んでいた」という表現にそれぞれ互いに置き換えることができるという言語現象である\cite{inoue1}.いずれの表現が現れても,置き換え可能であることが解析で判断できた場合に,[子豚,が,住む],[N匹,が,住む]を取り出す.以上の点を注意して,コーパスから格助詞が「を」である共起データを収集した.その結果45,070組,31,899種類を取り出した.\subsection{定型表現の抽出}本手法は動詞(あるいは名詞)を固定したときに集められる名詞(あるいは動詞)の集合の要素数が小さいと信頼性のある結果が得られない.このためここでは要素数が8以下のものは対象にしない.8という数字は相互情報量との比較実験を考慮して設定した値である.相互情報量の場合,表現の頻度が少ないと信頼性のある値がでないために,通常,頻度が高いものだけを対象にして計算する.本実験は頻度が5以上のものを対象にした.8という数字は,この5に多少のノイズがはいることを考えての値である.まず動詞を固定した場合の実験を行う.この場合,頻度8以上の動詞は860種類であった.それぞれの動詞に対して,その動詞と共起する各々の名詞に本手法で提案している共起性の数値を与えた.最終的にこの数値の高いもの25種類から得られた表現を表1に示す.(表中の○,△,×は評価の項参照).同様にして,名詞を固定した場合,頻度8以上の名詞は977種類であった.それぞれの名詞に対して,その名詞と共起する各々の動詞に本手法で提案している共起性の数値を与えた.最終的にこの数値の高いもの25種類から得られた表現を表2に示す.次に比較実験として相互情報量を用いた抽出実験を行なった.ここでは頻度5以上の共起データ831種類を対象にした.基準値の高い順に,取り出した表現25種類を表3に示す.ただしここでの判定値は順位つけだけが目的であるので,(2)式の値を用いている.\noindent\begin{minipage}{70mm}\vspace{5mm}\small\begin{center}\begin{tabular}{|c|l|c|}\hline判定値&表現&評価\\\hline\hline1.000000&首をかしげる&○\\\hline1.000000&神経をとがらせる&○\\\hline1.000000&目を光らせる&○\\\hline1.000000&首を絞める&×\\\hline0.875000&やむをえない&○\\\hline0.777778&姿を現す&△\\\hline0.700000&名を連ねる&△\\\hline0.416667&連絡を取り合う&△\\\hline0.400000&国境を接する&△\\\hline0.388889&手を染める&○\\\hline0.375000&工夫をこらす&△\\\hline0.350000&たばこを吸う&△\\\hline0.272727&思いをはせる&○\\\hline0.263889&一線を画す&○\\\hline0.242424&頭を痛める&○\\\hline0.208333&道を閉ざす&△\\\hline0.208333&豊かさを実感する&×\\\hline0.200000&疑問を呈する&△\\\hline0.193182&道を歩む&△\\\hline0.166667&一歩を踏み出す&△\\\hline0.166667&上告を棄却する&×\\\hline0.153846&N円を脱税する&×\\\hline0.150000&仕事を休む&×\\\hline0.140741&国交を樹立する&△\\\hline0.138889&融資を中断する&×\\\hline\end{tabular}\bigskip{\gt表1}\\実験結果(動詞固定)\end{center}\end{minipage}\begin{minipage}{70mm}\vspace{5mm}\small\begin{center}\begin{tabular}{|c|l|c|}\hline判定値&表現&評価\\\hline\hline1.000000&メスを入れる&○\\\hline1.000000&群を抜く&○\\\hline1.000000&端を発する&○\\\hline1.000000&拍車をかける&○\\\hline1.000000&本腰を入れる&○\\\hline1.000000&面倒を見る&○\\\hline1.000000&予断を許さない&○\\\hline1.000000&一体をなす&△\\\hline1.000000&重傷を負う&△\\\hline1.000000&大勢を占める&△\\\hline1.000000&ボタンを押す&×\\\hline1.000000&恩恵を受ける&×\\\hline0.969697&難色を示す&○\\\hline0.937500&足並みをそろえる&○\\\hline0.928571&死者を出す&×\\\hline0.925926&損害賠償を求める&×\\\hline0.923077&歩調を合わせる&○\\\hline0.909091&尾を引く&○\\\hline0.900000&感銘を受ける&×\\\hline0.900000&脚光を浴びる&○\\\hline0.900000&集会を開く&×\\\hline0.888889&禍根を残す&×\\\hline0.888889&力点を置く&△\\\hline0.875000&みそを作る&×\\\hline0.875000&症状を訴える&△\\\hline\end{tabular}\bigskip{\gt表2}\\実験結果(名詞固定)\end{center}\end{minipage}\normalsize\addtocounter{table}{2}\bigskip\bigskip\begin{table}[htbp]\begin{center}\begin{tabular}{|c|l|c||c|l|c|}\hline判定値&表現&評価&判定値&表現&評価\\\hline\hline0.454545&警鐘を鳴らす&×&0.285714&一歩を踏み出す&△\\\hline0.454545&腎臓を摘出する&×&0.280788&武力行使を伴う&×\\\hline0.395833&一線を画す&○&0.277778&事情を聴く&△\\\hline0.379310&端を発する&○&0.277778&足並みをそろえる&○\\\hline0.375000&臨時国会を召集する&×&0.272727&和解を勧告する&×\\\hline0.357143&神経をとがらせる&○&0.266667&支障を生じる&×\\\hline0.350000&阿波丸を撃沈させる&×&0.265306&汗をかく&○\\\hline0.333333&たばこを吸う&△&0.264151&耳を傾ける&○\\\hline0.333333&上告を棄却する&×&0.261398&役割を果たす&△\\\hline0.300000&身柄を拘束する&△&0.260870&工夫をこらす&△\\\hline0.294118&立候補を届け出る&×&0.260870&第一歩を踏み出す&△\\\hline0.292308&国交を樹立する&△&0.258065&平和条約を締結する&×\\\hline0.288462&幕を閉じる&○&&&\\\hline\end{tabular}\end{center}\caption{実験結果(相互情報量)}\end{table}\subsection{評価}(A)動詞を固定した場合,(B)名詞を固定した場合,(C)相互情報量によって抽出した場合の各々の実験結果を評価する.評価は各々の手法で取り出した上位50種類の表現を以下の3つに分類することによっておこなう.\begin{description}\item[分類1]慣用表現になっているもの(○)\end{description}これは市販の慣用表現辞典\cite{inoue2}を参照して,その表現が見出しとして記載されていれば,この分類とした.例えば,「難色を示す」「圧力をかける」「一線を画す」「姿を消す」「足並みをそろえる」などである.\begin{description}\item[分類2]定型表現になっているもの(△)\end{description}これは主観的に強い共起性があると判定したものである.例えば「役割を果たす」「影響を及ぼす」「目を向ける」「注目を集める」「話題を呼ぶ」などである.この分類ではコロケーションの関係になっているものが多い.また,「カギを握る」「迷惑をかける」「決着をつける」「誤解を招く」「輪を広げる」などのように慣用表現との区別が微妙なものも多い.\begin{description}\item[分類3]上記以外(×)\end{description}これは通常の表現だと思われるものである.例えば,「武力行使を伴う」「首を絞める」「仕事を休む」「けがをする」「被害を受ける」などである.分類2とは微妙なものも多少ある.ここらの判定は主観である.手法(A)(B)(C)各々の50種類の抽出結果を分類1,2,3により分類すると表4のような結果になる.また参考として,先の実験結果(表1,2,3)に分類の記号(分類1○,分類2△,分類3×)を与えている.\begin{table}[htbp]\begin{center}\begin{tabular}{|l||c|c|c|c|}\hline&慣用表現(○)&定型表現(△)&その他(×)&正解率\\\hline\hline(A)動詞固定&13&20&17&66.0\%\\\hline(B)名詞固定&18&11&21&58.0\%\\\hline(C)相互情報量&15&15&20&60.0\%\\\hline\end{tabular}\end{center}\caption{抽出の評価}\end{table}分類1,分類2を正解と考えると,どの手法も正解率に大きな差はない.しかし手法(A)(B)つまり動詞を固定した場合と名詞を固定した場合の抽出結果の共通部分を調べてみると,共通しているものは「端を発する」の1種類だけであった.そこで,動詞を固定した場合と名詞を固定した場合の各々の50種類の抽出結果をマージした結果99種類を本手法の抽出結果と考え,相互情報量の基準から上位99種類の表現を取り出し,それらを比較した結果が表5である.\begin{table}[htbp]\begin{center}\begin{tabular}{|l||c|c|c|c|}\hline&慣用表現(○)&定型表現(△)&その他(×)&正解率\\\hline\hline本手法&30&31&38&61.6\%\\\hline相互情報量&23&31&45&44.4\%\\\hline\end{tabular}\end{center}\caption{抽出の評価(抽出数2倍)}\end{table}相互情報量と比較すると本手法の正解率が高いことがわかる.相互情報量の場合,抽出数が増えてゆくと正解率は下がる.しかし本手法の場合は,抽出数半数の場合の正解率が保たれるため,より広範囲の定型表現を取り出すことができる.
\section{考察}
本論文の実験により,述語型定型表現には少なくとも2つの種類があることが分かる.それは動詞が名詞を引っ張っているものと名詞が動詞を引っ張っているものである.慣用表現を機械処理する場合には,その慣用表現の情報を構成語のどの単語の辞書情報に記述するかという中心語の問題がある.本手法はその1つの対処方法を示している.つまり引っ張っている方の単語を中心語とすれば良い.この場合,慣用表現のチェックが少なくてすむために,解析の効率化も図れるはずである.99種類を取り出した実験では,本手法のみに現れる慣用表現は16種類,相互情報量のみに現れる慣用表現は9種類,共通して現れる慣用表現は14種類であった.つまり相互情報量で抽出でき,本手法では抽出できない表現も少なからず存在する.これは述語型定型表現には本手法で設定した「動詞が名詞を引っ張るもの」,「名詞が動詞を引っ張るもの」,以外に「お互いが適度に引き合っているもの」が存在していると考えられる.これらをうまく切り分けて抽出することを今後考えたい.定型表現を取り出す場合,接続の割合が大きな鍵になっているが,その上に頻度をどのように反映させるかも重要な問題である.機械処理の効率化の観点だけから見れば,接続の割合よりも頻度の方が重要な要素である\cite{kita2}.しかし本手法では基本的に頻度の大きさは考慮していない.頻度の大きさを基準値に反映させるような基準値の設定方法をいくつか試みたが,どの結果も頻度の大きさを考えないものよりも良い結果が得られなかった.この点も今後の課題である.一つの方法として,データの信頼度のようなものを設定し\cite{tamoto},総頻度が少ないものは信頼度が小さくなるようにし,その信頼度を判断基準に取り込みことが考えられる.当然,この場合も信頼度の取り込み方が本質的に問題だが,その信頼度は抽出システムをツールとして捉えた場合に,最終的に行なう人間の判断の際に,有効に利用できると予想している.定型表現を機械翻訳に利用することを考えてみる.この場合,強い共起性があっても,一般の表現と同じ規則によって翻訳が可能であれば,その表現を抽出する意味はない.このため機械翻訳をアプリケーションに設定しいているのなら,対訳コーパスを用いて,一般の規則で翻訳困難な表現を取り出すことが正当なアプローチだと思われる\cite{matsumoto}.ただし対訳コーパスは入手の困難性,抽出手法の複雑性などからやや現実性が低い.単言語からの抽出であっても,語義の違いまで推測できるようになれば,機械翻訳で役立つ知識の抽出は可能であると予想しているので,この点からの考察を今後深めたい.最後に共起データついて述べる.本論文では格助詞と動詞の間に副詞が入ったものと入らない場合とを区別なく抽出している.通常,構成語の間に別の単語が挿入されていれば,その表現を構成する単語間の共起の強さは弱いと考えられる.このため共起データを収集する際に,副詞などの挿入がおきるものに関してはマイナスのポイントを与えておき,そのポイントを定型表現の判定に利用すべきであった.またこのマイナスポイントは,共起データを収集する際に取り除いた以下のパターンの[A,B,E]にも与えることができる.\begin{center}名詞(A)+格助詞(B)+名詞(C)+格助詞(D)+動詞(E)+句読点\end{center}具体的にこのマイナスポイントをどのように利用したらよいかは未解決だが,この点から今後の改良を行ないたい.
\section{おわりに}
本論文では述語型定型表現をコーパスから自動抽出することを目的に,従来の相互情報量の条件を緩める方向で,新たな名詞動詞間の共起性を測る基準を提案した.概略,名詞,動詞のどちらかを固定して,その単語と共起する集合内の単語にどの程度,特異な頻度になっているかの数値を与える.この数値の上位のものを取り出すことで抽出を行う.本手法の特徴は,名詞を固定した場合に抽出できる表現と動詞を固定した場合に抽出できる表現にはほとんど共通のものがないが,どちらも相互情報量による抽出程度の正解率はあるという点である.このため本手法では,目的の抽出数の半数づつを各々の場合から取り出せば良いために,同じ数を相互情報量を用いて抽出する場合よりも高い正解率が得られる.今後は動詞あるいは名詞が引っ張るタイプの定型表現の他に両者が適度に引っ張り合うようなタイプの定型表現も抽出する方法を考察したい.また頻度,接続割合以外の特徴を考慮した抽出法も試みたい.\acknowledgment本実験の形態素解析の多くの部分で,京都大学長尾研究室から配布された日本語形態素解析システムJUMANを利用させて頂きました.JUMANを作成された関係諸氏に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{新納浩幸}{1961年生.1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程終了.同年富士ゼロックス,翌年松下電器を経て,1993年4月より茨城大学工学部システム工学科助手,現在に至る.自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL各会員.}\bioauthor{井佐原均}{1954年生.1978年京都大学工学部電気工学第2学科卒業.1980年同大学大学院工学研究科電気工学専攻修士課程終了.同年通商産業省電子技術総合研究所入所.1995年より郵政省通信総合研究所関西先端研究センター知的機能研究室長.京都大学博士(工学).主たる研究テーマは,自然言語処理,知識表現,機械翻訳など.情報処理学会,日本認知科学会,人工知能学会,ACLなど会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V14N05-03 | \section{はじめに}
存在文はいかなる言語にも存在し,人間のもっとも原始的な思考の言語表現の一つであって,それぞれの言語で特徴があり言語により異なりが現れてくる.日本語と中国語でも,前者が存在の主体が有情物か非情物かで使われる動詞が異なる(「ある/いる」)のに対し,後者では所在の意味か所有の意味かで使われる動詞が異なる(「在/有」)など,大きな違いがある.日本と中国の言語学の分野では,存在文について論述があるが(飯田隆2001,西山佑司2003,金水敏2006,儲澤祥1997),日中機械翻訳の角度からの研究は殆ど見あたらない.また日中機械翻訳において現在の日中市販翻訳ソフトでは,存在文に関する誤りが多く見られる.本論文は言語学の側の文献を参考にしながら存在文に関する日中機械翻訳の方法について考察し,翻訳規則の提案,翻訳実験を行ったものである.\begin{itemize}\item[(1)]日中両言語における存在表現を対照的に分析し,異同を起こす原因に関しても検討を試みた.\item[(2)]中国語の存在動詞の選択とその位置の問題を中心に,機械翻訳における存在文の翻訳規則を提案した.\item[(3)]提案した翻訳規則を,手作業で及び我々が開発している翻訳システムで翻訳実験を行い,評価した.\item[(4)]関連する問題点と今後の課題について議論した.\end{itemize}
\section{日本語と中国語における存在表現}
\subsection{日本語の存在文}存在文は日本語の基本文型の一つであり,広くは動詞文に含まれる.言語学の文献で通常あげられる存在文はもっぱら場所存在文が中心である.場所存在文は,(1)(2)に例示されるようなもっとも標準的なタイプの存在文であり,LSV(L:何処何処に,S:何々が,V:ある/いる)という基本語順で,空間的場所における対象の有無を表す.\inHRei{(1)}机の上にペンがある.\footnote{本論文における日本語例文は日中.中日辞典,日英対訳コーパスから採集した,また内省によって創作した文もある.}\inHRei{(2)}公園に男の子がいる.本論文では,もっと広く「ある」,「いる」,「ない」,「存在する」と「だ」によって対象の存在を表現する文を存在文としてとりあげ,日中機械翻訳における翻訳処理について検討する.このうち「ある」と「いる」による動詞文を存在詞文という.これによる存在文は,日本語において他の言語(例えば,中国語,韓国語など)と異なった特徴を有している.存在詞文は存在主の意味的性質により,二種に大別される(小池清治2002).存在主が非情物(無生物や現象など)の場合は,存在の意を「ある」で,非存在の意を「ない」で表す.一方,存在主が有情物(生物や人間など)の場合は,存在の意を「いる」で,非存在の意を「いない」で表す.「存在する」による存在文は,(3)に例示されるような実在文である.\inHRei{(3)}ペガサスは存在しない.「だ」による存在文は,(4),(5)に例示されるような所在コピュラ文である.\inHRei{(4)}お母さんは,居間だ.\inHRei{(5)}慧子ちゃんのカバンは,車のなかだ.\subsection{中国語の存現文}中国語では,存在を表現する文は存現文として分類される.存現文は中国語の基本文型の一つであり,意味的には,ある場所に何物かが存在していることを表す文,或いはある場所ひいてはある時間に何物かが出現または消失したことを表す文である(劉月華1996).前者は人,事物の存在を表す文であり,中国語では「存在句」と呼ばれる.厳格に言えば,中国語の存在句は物事の「存在関係」,つまり物事の空間の位置の関係(「ある所にある物が存在する」)を表現する言語の形式であり,一般に次のような文型となる.{場所語句}+{動詞}+{名詞(存在する事物)}\inHRei{(6)}\begin{簡体中文}\UTFC{684C}子上\ul{有}一本\UTFC{4E66}.\end{簡体中文}(机の上に本が一冊ある.)——「有」構文\inHRei{(7)}\begin{簡体中文}\UTFC{684C}子上\ul{是}一本\UTFC{4E66}.\end{簡体中文}(机の上は一冊の本だ.)——「是」構文\inHRei{(8)}\begin{簡体中文}\UTFC{684C}子上\ul{放着}一本\UTFC{4E66}.\end{簡体中文}(机の上に本が一冊置いてある)つまり中国語の習慣では,この種の意味を表す際,場所語句を(``在''``从''等の介詞を用いずに)主語として文頭に置き,存在する事物を表す名詞は述語動詞の後に置く.場所語句は一般に不可欠である.後者は人,事物の出現或いは消失を表す文であり,これは中国語では「隠現句」と呼ばれ,一般に次のような文型となる.時間語句と場所語句は省略できる.{時間語句}+{場所語句}+{動詞}+{名詞(出現或いは消失事物)}\inHRei{(9)}\begin{簡体中文}昨天\ul{\mbox{\UTFC{53D1}生}}了一件大事.\end{簡体中文}\\昨日大きな事件があった.\subsection{日本語の存在文と中国語の存在文の対応の多様性}中国語には,日本語の存在動詞「ある/いる/だ/存在する」に直接的に対応する品詞は無く,動詞,副詞,連詞など様々の品詞を用いた表現に翻訳することになる.\noindent[i]日本語側では同じ1つの存在動詞を用いて表現するが,中国語では,意味が違えば異なる品詞に対応する場合もある.\inHRei{(13)}箱に,危険\ul{とある}.\hfill(書記結果存在の意味)\\訳文:\begin{簡体中文}箱子上,\ul{写着}``危\UTFC{9669}''.\end{簡体中文}\hfill(動詞)\inHRei{(14)}彼は外国で生活した\ul{ことがある}.\hfill(経験の存在の意味)\\訳文:\begin{簡体中文}他\ul{曾\mbox{\UTFC{7ECF}}}在国外生活\UTFC{8FC7}.\end{簡体中文}\hfill(副詞)\inHRei{(15)}群衆の中にいても寂しく感じる\ul{こともある}.\hfill(生起の意味)\\訳文:\begin{簡体中文}\ul{有\mbox{\UTFC{65F6}}}在人群中也会感到寂寞\end{簡体中文}\hfill(副詞)\inHRei{(16)}最近は,教科書以外の本は一冊も読まない学生が\ul{いる}.\hfill(限量的存在の意味)\\訳文:\begin{簡体中文}最近,\ul{有的}学生除了教科\UTFC{4E66}一本\UTFC{4E66}也不\UTFC{8BFB}.\end{簡体中文}\hfill(指示代詞)また一見,同じような意味にみえる文でも異なる訳語で表す場合もある.\inHRei{(17)}机の上に本が\ul{ある}.\hfill(存在の意味)\\訳文:\begin{簡体中文}\UTFC{684C}子上\ul{有}\UTFC{4E66}.\end{簡体中文}\hfill(動詞)\\英語:Thereisabookonthedesk.これらを次のように言い換えると,ナニカよりドコカが焦点となって,存在というよりも,もののありか,所在を示す文になる.中国の訳語も変わる.\inHRei{(18)}本は机の上にある.\hfill(存在の意味)\\訳文:\begin{簡体中文}\UTFC{4E66}\ul{在}\UTFC{684C}子上.\end{簡体中文}\hfill(動詞)\\英語:Thebookisonthedesk.\noindent[ii]逆に日本語側で同じ存在動詞で異なる意味をしていても,中国語でもそれらを同じ訳語で対応できる場合がある.\inHRei{(19)}ここから目黒へ行く間にとても静かな自然教育園が\ul{あります}.\hfill(存在の意味)\\訳文:\begin{簡体中文}从\UTFC{8FD9}里到\UTFC{9ED1}目之\UTFC{95F4}\ul{有}个很静的自然教育\UTFC{56ED}.\end{簡体中文}\hfill(動詞:有)\inHRei{(20)}恵美は音楽の才能が\ul{ある}.\hfill(所有の意味)\\訳文:\begin{簡体中文}惠美\ul{有}音\UTFC{4E50}才能.\end{簡体中文}\hfill(動詞:有)このように,日本語の存在文の意味用法は非常に多様であり,さらに中国語との意味的,位置的な対応も複雑多岐である.現在の市販ソフトの存在文に関する誤訳は,これらのことの十分な分析がなされていないのが原因だと考えられる.
\section{存在表現の中国語への機械翻訳}
2節の分析(日本語と中国語の対応多様性)によって,日中機械翻訳において,日本語存在文と中国語の対応関係の分析と存在動詞の意味分類が必要であることが分かった.我々は日中機械翻訳システムを開発中であるが,この翻訳システムに組み込むことを想定して,存在文の翻訳規則について分析した.分析と評価の資料として,日英対訳コーパス(村上仁一2002)中の日本語例文を用いた.その4万文から「ある」を含む1853文,「いる」を含む659例文と「ない」を含む1434文を抽出した(4万文中には存在文が約4千文,10\%含まれていた.)\begin{itemize}\item[\UTF{2460}]分析資料として,「ある」を含む500文,「いる」を含む300文と「ない」を含む300文を調べた.\item[\UTF{2461}]分析した資料の中の「ある」を含む72文と「いる」を含む18文を機械翻訳システムでのクローズドテストの対象として抽出し,翻訳実験した.\item[\UTF{2462}]分析対象としなかった文の中から,オープンテストの対象として「ある」を含む300文,「いる」を含む200文,「ない」を含む200文を抽出し,手作業で評価した.またそれらとは別の「ある」を含む40文,「いる」を含む20文,「ない」を含む40文を機械翻訳システムでのオープンテストの対象として抽出し評価した.\end{itemize}以下本節では存在動詞の意味分類に基づいて,機械用の存在文の翻訳規則を提案する.その評価(翻訳実験)については4節で述べる.\subsection{「ある」の翻訳規則}「ある」を中国語に翻訳する場合,「所在」の意味か「所有」の意味かに焦点に置くことによって,基本的に「\begin{簡体中文}有\end{簡体中文}」か「\begin{簡体中文}在\end{簡体中文}」が対応するが,ほかに場合によっては「\begin{簡体中文}在于,\UTFC{53D1}生,\UTFC{8FDB}行\end{簡体中文}」などの別の動詞が対応することもある.「ある」の意味分類を中国語の訳語との対応関係を考慮に入れて,また文献(西山佑司2003,金水敏2006,劉月華1996,金田一春彦1988,池原悟他1997)などを参考にして表1にまとめた.\begin{table}[t]\caption{「ある」の意味分類}\input{03t01.txt}\end{table}以上の分析に基づき,日本語文の構文特徴(文型,助詞,テンスなど)と存在主と存在場所の意味属性を用いて,また中国語の存在動詞の組み合わせの制限を総合して分析し,判定条件(翻訳規則)を機械で処理可能な形に整理した(表2).以降の表中のN1,N2,N3は名詞を,Xは句などを,Pは結び部分(述部)を表す.意味属性にはNTT日本語語彙体大系(池原悟他1997)の意味属性を用いて翻訳パターンを記述している.以下の規則は,複数のパターンにマッチした場合には最適解の選択が行われる.最適解としては以下の3種の条件を総合し,コストが最も低いパターンを選択する.選択の原則は「一般的な規則より個別的,具体的な規則を優先するべきである」という考えである.具体的に以下の3種の条件で判定する(詳しい説明は付録1として記述した):\UTF{2460}木構造の構成に使用されているパターンの種類と数\UTF{2461}制約条件の種類\UTF{2462}意味属性間の距離(表2など本論文の規則で,機能語条件に「が」と書いてある場合は,「が」と「は」のいずれも,「は」と書いている場合は,「は」しか適合しない.)以上の35個の日本語パターンのうち,(11)と(12)の中には,状態名詞存在主文(「熱,金,暇」など,状態を表す名詞が存在主になるもの),意思素質名詞存在主文(「やる気,勇気,才能」など,意思や素質に関する名詞が存在主になるもの)と出現物名詞存在主文(「効果,疑問,責任,」など,作用や行為の結果出現したことが存在主になるもの)が多い(グループ・ジャマ\par\input{03t02.txt}\noindentシイ2001).この中には語彙の組み合わせの制約条件として,個々の語彙そのものを制約条件とする(字面照合)のが適切なパターンがある(現在のところ38個,付録2参照).例えば\inHRei{(1)}(N1:主体/精神/状態)には落ち着きがある\\→N1\begin{簡体中文}\UTFC{6C89}着/\UTFC{9547}定\end{簡体中文}\inHRei{(2)}(N1:人/抽象物/性質)には表裏がある\\→N1\begin{簡体中文}表里不一\end{簡体中文}これらを含めると現在設定している「ある」の翻訳パターンは全体で73個である.\subsection{「いる」の翻訳規則}「いる」は中国語に翻訳すると,意味と文法上の規定により,「在,有,\UTFC{5904}于…」などの可能性がある.「いる」の意味分類を中国語の訳語との対応関係を考慮に入れて,また文献(西山佑司2003,金水敏2006,劉月華1996)などを参考にして表3にまとめた.「ある」の場合と同様に,「いる」の翻訳規則を表4のようにまとめた.\begin{table}[t]\caption{「いる」の意味分類}\input{03t03.txt}\end{table}\subsection{「存在する」と「だ」の翻訳規則}「ある」と「いる」の場合と同様に,所在コピュラ文「だ」と実在文「存在する」の翻訳規則を表5にまとめた.\begin{table}[t]\caption{「いる」の翻訳規則}\input{03t04.txt}\end{table}\subsection{存在否定文の翻訳処理}「今日は風がある.」「今日は風がない.」「あそこに猫がいる.」「あそこに猫がいない.」のように,述語が「ある」の否定「ない」や「いる」の否定「いない」等で構成される文を存在否定文という.丁寧体では,「ありません/いません」の形が用いられる.「いる」の否定「いない」の存在否定文の翻訳処理は通常の否定の処理(「いる」の翻訳処理プラス否定の翻訳処理)でできる(ト朝暉2004).しかし,「ない」は単純に「ある」の否定としては翻訳できない場合が多い.「ない」そのものは意義をもつ単語であり,「ある」の意味分類の外の意味も持っている場合がある.例えば,「類がない」,「またとない」は「とてもすばらしい」の意味であって,「今さら泣くことはない」の「ことはない」は「不必要なこと,あってはならないこと」の意味である.これらは「ある」の否定として翻訳することはできない表現である.そこで,我々は「ない」を存在詞の一種として,翻訳規則を整理した.まず,「ある」の場合と同様に,状態名詞存在主文,意思素質名詞存在主文と出現物名詞存在主文に対して,語彙の組み合わせの制約条件にして,個々の語彙そのものを制約条件とする(字面照合)のが適切なパターンがある.「ある」と「ない」非対称型の字面照合パターンの整理を行って,翻訳パターンにまとめた.例えば:\inHRei{(1)}N1は表裏がない→(N1\UTFC{5355}\UTFC{7EAF})\inHRei{(2)}N1は身長がない→(N1\begin{簡体中文}不高\end{簡体中文})\inHRei{(3)}N1は無理がない→(N1\begin{簡体中文}是自然/理所当然的\end{簡体中文})次に,非存在を表す形式しかない成句と熟語を整理し,翻訳パターンにまとめた.例えば\inHRei{(1)}しかたない→(\begin{簡体中文}没\UTFC{529E}法\end{簡体中文})\inHRei{(2)}申し訳ない→(\begin{簡体中文}\UTFC{5BF9}不起\end{簡体中文})付録3に「ない」に関するこれらの字面パターン(合計38)を示した.それら以外の「ない」の用法と慣用文型の翻訳規則を表6のようにまとめた.\begin{table}[t]\caption{「存在する」と「だ」の翻訳規則}\input{03t05.txt}\end{table}\begin{table}[t]\caption{「ない」の翻訳規則}\input{03t06.txt}\end{table}以上述べた場合の外の「ない」は,「ある」と対応できると考えて,存在文「ある」の翻訳プラス否定の翻訳という方法で翻訳する.\subsection{存在文の連体修飾の翻訳について}日中翻訳の場合には,連体修飾表現の一般的な日中翻訳規則は日本語:\ul{\mbox{V(用言連体形)}}+N中国語:\ul{V}+\begin{簡体中文}的\end{簡体中文}+N\noindentである.(Nが形式名詞(「の」など)ではない場合)例文:\ul{\mbox{80歳の老人が山登りをする}}様子を想像できますか.訳語:\begin{簡体中文}不能想象\ul{\mbox{80\UTFC{5C81}}老人登山}的\UTFC{6837}子.\end{簡体中文}しかし,存在文の例文の翻訳を分析する中で,この規則では対応できない事例を見出した.存在文が連体修飾節を伴う場合であって,限量的存在文の場合と修飾部が「能力,可能,方法,理由,時間」などの場合である.これらは中国語の兼語文或いは連動文に翻訳させるのが正しい.\subsubsection{限量的存在文の翻訳について}限量的存在文は特定の集合における要素の有無多少について述べる表現である.話し手の立場から下す,世界についての判断の一種であるということもできる.限量的存在文の存在動詞は述語というよりは,記号論理における存在限量詞の働きをすると考えられる.限量的存在文には,場所名詞句は必ずしも要しない.場所名詞句は,基本的には主語より前に置かれる(金水敏2006).例文:最近は,教科書以外の本は一冊も読まない学生がいる.誤訳1:\begin{簡体中文}最近,有\ul{\mbox{除了教科\UTFC{4E66}一本\UTFC{4E66}也不\UTFC{8BFB}(V)}}的\ul{\mbox{学生(N)}}.\end{簡体中文}(一般的な連体修飾規則での翻訳)正訳2:\begin{簡体中文}最近,有的\ul{\mbox{学生(N)}}\ul{除了教科\mbox{\UTFC{4E66}}一本\mbox{\UTFC{4E66}}也不\mbox{\UTFC{8BFB}}}(V).\end{簡体中文}限量的存在文について調べた結果,「いる」,「ある」と「ない」の中では,「ある」と「ない」については限量的存在文の割合が少ないが,「いる」の例文の中に限量的存在文の割合が高いころが分かった.分析資料のからに「ある」,「いる」,「ない」100文ずつを無作為抽出して,調査した結果を表7に示す.「いる」の中では,連体修飾の限量的存在文は約45\%であった.\begin{table}[b]\caption{限量的存在文の統計結果}\input{03t07.txt}\end{table}限量的存在文の場合には,一般的な連体修飾規則では,次の例1,2のように,不自然な中国語となる.\noindent(1)パターン:V(用言連体形)+N(人/動物)がいる.現訳:\begin{簡体中文}有+V的+N\end{簡体中文}\hfill(一般的な連体修飾規則での翻訳)正訳:\begin{簡体中文}有N+V\end{簡体中文}例文:授業中わたしの後ろで私語している人が2,3人いた.現訳:\begin{簡体中文}有2,3个\ul{\mbox{上\UTFC{8BFE}中在我后面\UTFC{8BF4}悄悄\UTFC{8BDD}(V)}}的\ul{\mbox{人(N)}}.\end{簡体中文}正訳:\begin{簡体中文}有2,3个\ul{\mbox{人(N)}}\ul{\mbox{上\UTFC{8BFE}在我后面\UTFC{8BF4}\UTFC{8BDD}(V)}}.\end{簡体中文}\begin{table}[b]\caption{連体修飾の限量的存在文の翻訳規則}\input{03t08.txt}\end{table}\noindent(2)パターン:N(人/動物)の中には+V(用言連体形)+ものがいる.現訳:\begin{簡体中文}N中有+V的\end{簡体中文}\hfill(一般的な連体修飾規則での翻訳)正訳:\begin{簡体中文}有的N+V\end{簡体中文}例文:蛇の中には毒を持つものがある.現訳:\begin{簡体中文}蛇中有有毒的.\end{簡体中文}\hfill(一般的な連体修飾規則での翻訳)正訳:\begin{簡体中文}有的蛇有毒.\end{簡体中文}以上のように,限量的存在文の場合には,日本語の連体修飾文は中国語の兼語文に翻訳するのが自然である.「\begin{簡体中文}有\end{簡体中文}+N+V」の形は中国語の兼語文であり,「\begin{簡体中文}有\end{簡体中文}」の目的語N(これを兼語という)の多くは存在する人,事物を表し,述語Vは兼語Nを説明或いは描写する.限量的存在文の翻訳規則を表8のように整理した.\subsubsection{修飾部が「能力,可能,方法,理由,時間など」の場合について}「V(用言連体形)+Nがある」というパターンにおいて,Nが能力,可能,方法,理由,時間,責任,条件,自信等の場合には,このような抽象名詞は「\begin{簡体中文}有\end{簡体中文}」とあわさって「\begin{簡体中文}能\end{簡体中文}」「\UTFC{5E94}\UTFC{8BE5}」「\begin{簡体中文}想\end{簡体中文}」の類の意味を表すものであり,「\begin{簡体中文}有\end{簡体中文}+N+V」のように連動文に翻訳するのが正しい.パターン:V(用言連体形)+Nが+ある.現訳:\begin{簡体中文}有+V+的+N\end{簡体中文}\hfill(一般的な連体修飾規則での訳語)正訳:\begin{簡体中文}有+N+V\end{簡体中文}例えば,例文:あなたに相談したいことがある.現訳:\begin{簡体中文}有想和\UTFC{4F60}\UTFC{8C08}的事情.\end{簡体中文}正訳:\begin{簡体中文}有事情想和\UTFC{4F60}\UTFC{8C08}.\end{簡体中文}\hfill(連動文)二つまたはそれ以上の動詞或いは動詞フレーズが連用されたものが述語になっている文を連動文という.連動文では,連用されている複数の動詞或いは動詞フレーズは主語を共にする(劉月華1996).修飾部が「能力,可能,方法,理由,時間など」の場合の翻訳規則を表9のように整理した.\begin{table}[b]\caption{能力などの存在文の翻訳規則}\input{03t09.txt}\end{table}\subsection{英語への翻訳規則との比較}日本語語彙大系(池原悟他1997)は日英翻訳のための翻訳パターン辞書である.存在動詞「ある/いる/ない」に関して日本語語彙大系の日英翻訳パターンと我々の日中翻訳パターンとをパターン数の点から比較分析した.日英翻訳パターン数と日中翻訳パターン数の対比を表10に示す.\begin{table}[b]\caption{翻訳パターンと日中翻訳パターンの対比}\input{03t10.txt}\end{table}表10を見ると,日英の「ある」と「ない」のパターンは日中翻訳のよりかなり多いことがわかる.この差異については以下のように分析できる.\inHZ1.一つの日中翻訳パターンに多数の日英翻訳のパターンが対応する.主な原因は次の2点にある:\inHZ\UTF{2460}英語では形容詞で物の性質,素質と状況を説明するが,日本語では存在文(状態名詞存在主文,意味素質名詞存在主文,出現物名詞存在主文)で表現することが多い.そのために日英の翻訳では個々の形容詞を対応させるためにパターン数が増える.中国語では,日本語とほぼ同様に存在文で表現することが多いので,パターン数は少なくてすむ.\begin{tabular}{rl>{\begin{簡体中文}}l<{\end{簡体中文}}}例(1)&N1は暇がある.&\\&N1havetime&N1\ul{有}\UTFC{65F6}\UTFC{95F4}\\(2)&N1は勇気がある&\\&N1becourageous&N1\ul{有}勇气\\(3)&N1は意義がある&\\&N1besignificant&N1\ul{有}意\UTFC{4E49}\\(4)&N1は教養がある&\\&N1beeducated&N1\ul{有}教\UTFC{517B}\\(5)&N1は価値がある&\\&N1bevaluable&N1\ul{有}价\UTFC{503C}\\(6)&N1は\ul{背長がある}&\\&N1betall&N1\ul{个高}\\(7)&N1は\ul{含蓄がある}&\\&N1bepregnant&N1\ul{意味深\mbox{\UTFC{957F}}}\end{tabular}\inHZ\UTF{2461}英語では中国語と比べると存在主に対して前置詞(介詞)を細かく区別して使い分ける.\inHRei{(1)}N1はN2に効果がある\\N1beeffective\ul{in}N2\\\begin{簡体中文}N1\ul{\mbox{\UTFC{5BF9}}}N2有效果\end{簡体中文}\inHRei{(2)}N1はN2に同情心がある\\N1besympathetic\ul{to}N2\\\begin{簡体中文}N1\ul{\mbox{\UTFC{5BF9}}}N2有同情心\end{簡体中文}\inHRei{(3)}N1はN2に責任がある\\N1beresponsible\ul{for}N2\\\begin{簡体中文}N1\ul{\mbox{\UTFC{5BF9}}}N2有\UTFC{8D23}任\end{簡体中文}\inHRei{(4)}N1はN2に偏見がある\\N1haveprejudice\ul{\mbox{against}}N2\\\begin{簡体中文}N1\ul{\mbox{\UTFC{5BF9}}}N2有偏\UTFC{89C1}\end{簡体中文}上の例では,日本語パターン「N1はN2にN3がある」という1つのパターンに対して,英語では,すべて前置詞を使い分けたパターンとなるが,中国語では,「N1\UTFC{5BF9}N2有N3」のように日本語同じような1つのパターンで表現できる.\inHZ2.日英翻訳のパターン(41個)に対応する日中翻訳のパターンは不必要である.例えば,日本語パターン「N1はN2のN3がある」の形の日英パターンが39個あるが,日中の翻訳パターンは「N1はN3がある」と「N2のN3」の二つのパターンで翻訳できるので,「N1はN2のN3がある」の日中パターンは不必要である.\begin{tabular}{llll}(1)&日本語:N1はN2の気品がある&&\\&英語:N1bedignifiedasN2&&\\&中国語:\begin{簡体中文}N1\ul{有}N2的品格\end{簡体中文}&&\\&(N1はN2のN3がある&&N1はN2の気品がある\\&N1はN3がある+N2のN3&→&\begin{簡体中文}N1有品格+N2的品格\end{簡体中文}\\&\begin{簡体中文}N1有N3+N2的N3\end{簡体中文}&&\begin{簡体中文}N1\ul{有}N2的品格\end{簡体中文})\\(2)&日本語:N1はN2の傾向がある&&\\&英語:N1haveatendencytoN2&&\\&中国語:\begin{簡体中文}N1\ul{有}N2的\UTFC{503E}向\end{簡体中文}&&\\&(N1はN2のN3がある&&N1はN2の傾向がある\\&N1はN3がある+N2のN3&→&\begin{簡体中文}N1有\UTFC{503E}向+N2的\UTFC{503E}向\end{簡体中文}\\&\begin{簡体中文}N1有N3+N2的N3\end{簡体中文}&&\begin{簡体中文}N1\ul{有}N2的\UTFC{503E}向\end{簡体中文})\end{tabular}\inHZ3.あるパターンは日中翻訳パターンにはあるが,日英翻訳のパターンにない.この場合には日英翻訳パターンにおける文型の整理が完全ではないのが原因である.例えば,日本語:N1はN2に恩義がある英語:N1beindebtedto/forN2中国語:\begin{簡体中文}N1欠N2的恩情\end{簡体中文}なお,日本語語彙体系(池原悟他1997)では,「だ」に関しては,日英の存在表現の「だ」のパターンを記述していないので,比較はできなかった.
\section{翻訳実験と評価}
3節で述べた翻訳規則を検証し,評価するために,手作業による翻訳実験を行った.また実際に機械翻訳システムに実装できる翻訳規則であることの検証の意味も含めて,我々が開発中の日中機械翻訳システムによる翻訳実験も行った.最後に,誤った翻訳例について誤訳の原因を分析した.\subsection{手作業による翻訳実験と評価}手作業による翻訳規則評価実験では3節で述べたように日英対訳コーパス(村上仁一2002)の中で規則作成のための分析に用いた例文を除いた中から「ある」を含む300文,「いる」を含む200文,「ない」を含む200文を抽出して翻訳実験の対象データとした.評価は,存在表現の翻訳に注目して,その訳語と語順と助詞の翻訳が合っているかどうかという観点から個人判断で評価を行った.評価の例を表11に示している(存在表現の部分に関する評価箇所に下線を引いている).同時にある市販機械翻訳ソフトを用いて翻訳し,その結果も評価した(表12).評価は次の3種類で行った.○=中国語として文法上で基本的に正確であり,自然な翻訳△=文法上では少し不自然な感じるが文全体の意味としては通じる場合×=文法上では明確に中国語の文法に反し,意味も通じないか不完全な場合評価する時には,○は正訳として,△と×は誤訳として,及び○と△は正訳として,×は誤訳として二つの評価基準で統計した.\begin{table}[p]\caption{手作業での翻訳例文と評価の一部}\input{03t11.txt}\par\vspace{2\baselineskip}\caption{翻訳結果(手作業:オープンテスト)}\input{03t12.txt}\end{table}評価の際,我々の規則の評価については存在表現の部分以外の翻訳は全部正しく翻訳されたものとして,存在表現の翻訳に関する我々の規則を適用した結果のみを評価しており,一方市販ソフトに対する評価では,存在表現の部分以外の翻訳の正否は無視して,存在部分の正誤のみに注目して評価している.手作業の場合には,機械翻訳の流れをまねて,評価対象文に対して,存在動詞に係る文節を抽出し,翻訳規則と照合し,翻訳結果が正しいかどうか判断した.以下に手作業による翻訳の手順の例を示す.文:この\ul{金貨}は古銭を集めている\ul{人}に\ul{とても価値}が\ul{ある}.step1構文解析して\footnote{手作業の例文は我々の研究室で開発している構文解析システムIBUKIで自動解析して使用した.存在表現の部分について解析誤りはほとんどない.},下記の存在動詞に係る各情報を得る.存在動詞=「ある」.「金貨」の意味属性は「貨幣」で,「は」が付いている.「人」の意味属性は「人間」で,「に」が付いている.「価値」の意味属性は「是非」で,「が」が付いている.「とても」は程度副詞であり,「ある」を修飾している.日本語文の構造は「N1はN2にN3がある」である.Step2Step1の結果と「ある」の翻訳規則を照合する.表1の(12)と照合できる.(12)の翻訳規則によれば,中国語文の構造は「主語=\UTFC{8D27}\UTFC{5E01},謂語=\begin{簡体中文}有\end{簡体中文},目的語=\begin{簡体中文}价\UTFC{503C}\end{簡体中文},対象者=\begin{簡体中文}人\end{簡体中文},対象者の修飾語=\UTFC{5BF9}」である.Step3「とても」の翻訳結果と基本部分の訳とをあわせて生成し,通常の文の線状化の語順によって,下記の訳文を得る.→中国語:\begin{簡体中文}\UTFC{94F6}\UTFC{5E01}\UTFC{5BF9}人很有价\UTFC{503C}.\end{簡体中文}表12に示したように我々の規則ではと,全体として90\%以上の正訳率が得られており,市販の翻訳ソフトの現状と比較すると,我々の正訳率は各々34\%,62\%,48\%まさっており,我々の方法は十分な有効性が期待できると考えている.誤り分析については4.3で述べる.\subsection{jaw/Chineseによる機械翻訳実験}4.1では手作業による翻訳規則の評価(翻訳実験)について述べたが,これらの翻訳規則が実際に機械翻訳システムのための規則として実装でき有効であることを検証する意味を含めて,開発中の日中機械翻訳システムJaw/Chineseによる翻訳実験を行った.\subsubsection{翻訳規則の登録}Jaw/Chineseシステムは機械翻訳エンジンJawを用いた日中機械翻訳システムである(宇野修一2005,謝軍2004).日本語文の解析,表現パターン変換辞書との照合による中国語の表現構造への変換,表現構造からの中国語の生成という手順によるパターン変換ルールベース・トランスファー方式のシステムである.存在文に関する訳し分けの実験を行うために,表2,4,5,6の翻訳規則をJaw/Chineseに登録した.Jaw/Chineseでは,翻訳規則は,各表現パターンごとにパターン変換辞書に記述されており,それを基にして翻訳規則関数を作成している.翻訳規則の記述方法は表現パターンの種類によってBaseType,AdditionCWType,AdditionFWTypeと用言後接機能語に分かれている.存在表現の規則は次の三つのタイプの翻訳規則で記述することができる.表現パターンとは,日本語の表現の中から文の部分構造を取り出し,そのいくつかの部分を変数化して抽象化したものである.各表現パターンは,キーワードと呼ぶ単語を必ずひとつだけ持っている.入力文とパターンのデータベースを照合する際には,入力文中の単語をキーワードとして含むパターンの集合をまず抽出し,その後,その中の各パターンが要求する条件と入力文との詳細な照合検査が行われる.図1はキーワードの検索と詳細照合を示している.\begin{figure}[t]\begin{center}\includegraphics{14-5ia3f0.eps}\end{center}\caption{キーワードの検索と詳細照合}\end{figure}\setcounter{figure}{0}日本語表現中のどの部分をキーワードとするかで,三つのタイプが区別される.\noindent\UTF{2460}BaseタイプBaseタイプはキーワードが内容語であり,キーワードを含む文節が受ける文節に条件を持つパターンである.ここでは,内容語である存在動詞「ある」,「いる」,「ない」,「存在する」,「だ」をキーワードとして,それを修飾するN1,N2,N3,X等に条件をつける翻訳規則である.例えば,\begin{tabular}{lllll}日本語パターン:&N1が&N2に/に対して&N3が&ある\\&N1(主体)&N2(体言)&N3(抽象)&\\文節番号:&1&2&3\end{tabular}\begin{tabular}{lccll}例文:&\ul{喫煙は}&\ul{健康に}&&\parbox{11zw}{\ul{悪影響が}あるといわれている.}\\文節番号:&1&2&&3\\訳文:\begin{簡体中文}一般\UTFC{8BA4}\UTFC{4E3A}\end{簡体中文}&\begin{簡体中文}吸烟\end{簡体中文}&\begin{簡体中文}\UTFC{5BF9}健康\end{簡体中文}&\begin{簡体中文}有\end{簡体中文}&\begin{簡体中文}不良影\UTFC{54CD}.\end{簡体中文}\\&(m\_subject)&(m\_nounModifier)&(m\_centerW)&(m\_directobject)\end{tabular}表13-(2)は,表13-(1)の日本語パターンに対応する翻訳規則である.Jawの翻訳規則は日本語の表現パターンに対応する目的言語の表現構造を作り出すプログラム(翻訳規則関数)に変換される.表現構造はC++オブジェクトであり,そのメンバ変数には目的言語の言語表現を生成するために必要なさまざまの言語構成上の情報が翻訳規則によって書き込まれる.目的言語の一次元の言語表現(文)は,各クラスに定義してあるメンバ関数(線状化関数)を実行することによって生成される.\begin{table}[t]\caption{BaseType翻訳規則記述の例}\input{03t13.txt}\end{table}表13-(2)は,表13-(1)に対する中国語の表現構造がクラスCPropositionに属するオブジェクトであり,そのオブジェクトのいくつかのメンバ変数を設定していることを表わしている.線状化関数によって,各文節の順番は決める.具体的に言うと,通常の文の線状化の語順は以下のとおりです:{\setlength{\leftskip}{2zw}\noindent文頭に来る接続詞→範囲を示す修飾語→主題→\ul{主語}→文中に来る接続語\\→評注性副詞→関連副詞→時間→時間副詞→頻度副詞→場所(述語より前に置かれる場合)→範囲副詞→否定副詞→助動詞→時間と空間の始点を表す修飾語→道具を表す修飾語→共同副詞→\ul{対象者を示す修飾語}→方向を示す修飾語→程度副詞→重複副詞→重複副詞→描写性副詞\\→副動詞→\ul{述語}→結果補語→可能補語→アスペクト→間接修飾語\\→\ul{直接目的語}→方向補語→程度補語→時間と空間の終点を表す修飾語→場所(述語より後ろに置かれる場合)→語気詞→句読点\par}表13-(2)の場合では,「有」は述語であり,1は主語であり,3は直接目的語であり,2は対象者を示す修飾語である.だから,最終の順番は「12有3」として生成される.\noindent\UTF{2461}Addition-FWタイプAddition-FWタイプはキーワードが機能語であり,存在動詞はキーワードと同じ文節の自立語として,キーワードを含む文節が係る文節に条件を持つパターンである.例えば,{\setlength{\tabcolsep}{0pt}\begin{tabular}{lcl}日本語パターン:&\ul{X}と&あって(ある/て),P(文)\\&X(用言)&\\文節番号:&1\\例文:&\ul{大型の台風が接近している}&とあって,どの家も対策におおわらわだ\\文節番号:&1\\訳文:&\multicolumn{2}{c}{\begin{簡体中文}因\UTFC{4E3A}\UTFC{8BF4}是\ul{\mbox{大型台\UTFC{98CE}}靠近},所以不管\UTFC{54EA}家都\UTFC{4E3A}了\UTFC{5BF9}策忙得不可\UTFC{5F00}交.\end{簡体中文}}\end{tabular}}表14-(2)は,表14-(1)の日本語パターンに対応する翻訳規則である.この翻訳規則は接続詞の訳語と接続詞の位置を表している.\begin{table}[b]\caption{Addition-FWType翻訳規則記述の例}\input{03t14.txt}\end{table}ここでは,「Xとあって」は「(Xと)+(ある+て)」と解析し,「て」をキーワードとするパターンとして登録しているが,「とあって」を一つ機能語と解析して,「とあって」をキーワードとするパターンとして翻訳規則を書くこともできる.\noindent\UTF{2462}用言後接機能語の翻訳規則用言後接機能語には,\UTF{2461}で述べたような命題的内容の表現に関わる機能語のほかに,受身や使役,テンスやモダリティ,否定などのさまざまの機能的内容の表現に関わる機能語がある.Jawではこれらに関する翻訳規則は,それらを翻訳するために必要な訳し分けの条件や,目標言語の表現構造上に書き込む表現要素が翻訳規則表に記述してある.この規則表は表現構造に情報を書き込むプログラムに変換される.慣用句的に使われる存在動詞の翻訳規則には日本語用言後接機能語の翻訳規則として,それに対応する中国語の表現要素を用言後接機能語部の翻訳テーブルに記述しているものもある.表15は「〜ことがある」「〜たことがある」に対する翻訳規則の例である.\begin{table}[b]\vspace{-0.5\baselineskip}\caption{用言後接機能語の翻訳規則の記述例}\input{03t15.txt}\end{table}\begin{table}[b]\caption{同形語の翻訳規則}\input{03t16.txt}\end{table}例:xことがある;x:動詞連体形現在式例文1:群衆の中にいても寂しく感じる\ul{ことがある}例:xことがあるx:動詞連体形過去式例文2:彼は外国で生活した\ul{ことがある}.また存在動詞「ある」と「ある」の同形語「或る」,「いる」と「いる」の同形語「要る」,「入る」を区別するために,同形語「ある(或る),」「いる(要る)」と「いる(入る)」の翻訳規則もまとめた(表16).これは現在の日中市販翻訳ソフトで,存在文に関する誤りの中に存在動詞と同じ形式の単語とを混同することが観察されだので,それとの比較評価も行う必要があったからである.\subsubsection{機械翻訳実験}3節で述べた存在表現の翻訳規則を前節で述べたJaw/Chineseに組み込み,また前節で述べた同形語の翻訳規則についても登録して,機械翻訳実験を行った.実験対象としたデータは3節でも述べたように日英対訳コーパス(村上仁一2002)の中で存在表現の分析対象とした「ある」を含む72文と「いる」を含む18文(クローズドテスト),及び分析対象とはしなかった存在文100文(オープンテスト)である.これらについては,存在表現に関する部分だけでなく,文全体を翻訳するための翻訳規則を記述し,翻訳実験を行った.評価は存在表現の部分の翻訳評価と文全体の翻訳の評価を,いづれも筆者の個人判断で行った.クローズドテストでは,存在表現の部分の翻訳に関しては全て正訳と判断できたが,文全体としての翻訳に関しては,接続表現の翻訳規則やとりたて詞,否定詞の翻訳規則が未だ完全には実装されていないことなどjaw/Chineseの不充分さのために誤訳が生じた.市販の翻訳システムでの結果と合わせて,翻訳結果の一部と評価結果を表17に示す(存在表現の部分に関する評価箇所に下線を引いている).\begin{table}[t]\caption{Jaw/Chineseでの翻訳例文と評価の一部(クローズテスト)}\input{03t17.txt}\end{table}この実験により,存在表現に関する我々の翻訳規則は実際の翻訳システムに実装できて有効に働くという点については検証できたと考える.同じようにオープンテストによる翻訳結果の一部と評価結果を表18に示す(存在表現の部分に関する評価箇所に下線を引いている).また100文全体の翻訳実験について,存在表現の部分の翻訳についての評価結果を表19に示す.\begin{table}[p]\caption{Jaw/Chineseでの翻訳例文と評価の一部(オープンテスト)}\input{03t18.txt}\end{table}翻訳規則そのものの問題点については,手作業による翻訳実験の問題と合わせて,4.3で分析する.Jaw/Chineseでの翻訳実験の正訳率は市販の翻訳ソフトより高い結果となった.しかし,手作業の正訳率より低い.その原因は現在のJaw/Chineseの機能は以下のような点でまだ十分ではないためである.\noindent(1)機能語が省略されているため,照合できない場合があった.例えは:彼はくつを脱いで身長6フィートある.「身長」の後の「が」が省略されると,規則と照合できないので,翻訳できなかった.手作業で判断する場合には,機能語の省略を補完しているので,正しい翻訳結果を得ることになる.\noindent(2)日本語側解析の問題.手作業の場合には日本語の解析を誤ることはないという前提となるが,機械の場合には日本語解析を誤る場合がある.\begin{table}[t]\caption{例文翻訳結果(Jaw/Chinese:オープンテスト)}\input{03t19.txt}\end{table}\subsection{誤り分析}4.1節および4.2節で手作業による翻訳実験と機械翻訳実験について述べた.手作業による翻訳実験の誤訳は700文中52文であり,機械翻訳実験の誤訳は190文中12文である(△を含む,合計64文).本節では,手作業と機械の実験の誤りの問題点を整理して,誤訳原因を分析する.\subsubsection{規則の不足の問題}(1):突然\ul{言いようのない}恐怖感に襲われた.現訳:\begin{簡体中文}突然,\ul{没有\mbox{\UTFC{8BF4}}法}的恐怖\UTFC{88AD}来.\end{簡体中文}(×)正訳:\begin{簡体中文}突然,\ul{无法形容}的恐怖\UTFC{88AD}来.\end{簡体中文}(○)分析:「言いようのない」では,「无法形容」が正解だが「没有\UTFC{8BF4}法」に訳している.「言いようのない」は慣用句であり,中国語でも「无法形容」は慣用句である,「ない」の規則に加えて「言いよう+の/が+ない」のような慣用句パターンの追加が必要である.(2):寒くて足の指の感じがない.現訳:\begin{簡体中文}由于冷,没有脚趾的感\UTFC{89C9}.\end{簡体中文}(×)正訳:\begin{簡体中文}由于冷,脚趾没有感\UTFC{89C9}.\end{簡体中文}(○)分析:この文では,「ない」の訳語の選択(没有)は正しいが,中訳文の意味は間違っている.現訳の意味は「寒くて足の指がないと感じる.」という意味になる.「N(動物部分)の感じがある→N\begin{簡体中文}有感\UTFC{89C9}\end{簡体中文}」というパターンを追加すれば,否定処理によって,「N(動物部分)の感じがない」は「N\begin{簡体中文}没有感\UTFC{89C9}\end{簡体中文}」になり,「足の指の感じがない」は「足の指には感じがない」という正しい意味になる.このパターンの追加が必要である.「…つもりでいる」というパターンに対する誤訳.(3):親は彼を医者にする\ul{つもりでいた}.正訳:\begin{簡体中文}父母本来\ul{打算}\UTFC{8BA9}他当医生的.\end{簡体中文}(4):彼女はまるで小説のヒロインにでもなった\ul{つもりでいる}.正訳:\begin{簡体中文}\UTFC{5979}\UTFC{7B80}直\ul{\mbox{\UTFC{8BA4}\UTFC{4E3A}}}(自己)成了小\UTFC{8BF4}的女主角.\end{簡体中文}(5):きみには来年主将になってもらうからその\ul{つもりでいてくれ}.正訳:\begin{簡体中文}(我\UTFC{4EEC})希望\UTFC{4F60}明年成\UTFC{4E3A}主将,\UTFC{4E3A}此(\UTFC{4F60})\ul{要做好准\mbox{\UTFC{5907}}}\UTFC{554A}!\end{簡体中文}(6):彼は自分がチームのエースの\ul{つもりでいる}.正訳:\begin{簡体中文}他\ul{\mbox{\UTFC{8BA4}\UTFC{4E3A}}}自己是球\UTFC{961F}的主攻投手.\end{簡体中文}分析:元の規則には「…つもりでいる」という構造に対するパターンが無かったために翻訳できなかった.「…つもりでいる」には対応する中国語の意味がいくつかあるので分析が必要である.今のところ\begin{tabular}{ll}\UTF{2460}「N1(人)は+X+つもりでいる」,&X:動詞連体形現在式\\\UTF{2461}「N1(人)は+X+つもりでいる」&X:動詞連体形過去式\\\UTF{2462}「「Nのつもりでいる」&\end{tabular}\noindentという三つの規則を増やすことで文3,文4と文6に対応できると考えている.文5では「…そのつもりでいる」という字面照合パターンで翻訳するのが適切である.このように「ある」,「いる」と「ない」に関しては慣用的/固定的な表現が多い(誤訳64文のうち48文(75\%)はそのような表現であった).さらに多くの文例を翻訳しながら,そのようなデータを集積,整理していくことが必要である.\subsubsection{「いる」の翻訳と副詞の問}(7):私は彼に1日いてくださいと頼んだ.現訳:\begin{簡体中文}我\UTFC{8BF7}求他\ul{在}一天.\end{簡体中文}(×)正訳:\begin{簡体中文}我\UTFC{8BF7}求他\ul{呆}一天.\end{簡体中文}(○)(8):私は彼にもう1日いてくださいと頼んだ.現訳:\begin{簡体中文}我\UTFC{8BF7}求他再\ul{在}一天.\end{簡体中文}(×)正訳:\begin{簡体中文}我\UTFC{8BF7}求他再\ul{呆}一天.\end{簡体中文}(○)(9):彼は10年前はボストンにいた.現訳:\begin{簡体中文}他10年前在波士\UTFC{987F}.\end{簡体中文}(○)誤訳:\begin{簡体中文}他10年前呆波士\UTFC{987F}.\end{簡体中文}(×)分析:文7の「1日」は「数量詞+時間名詞」の形をとり,時間量をあらわし,中国語では,補語になって,動詞の後に置く.「いる」の訳語「在」は補語をとるのは文法的に間違いであり,「呆」に翻訳される場合は自然である.「在」と「有」は,後に各種の補語を置くことはできない.また,文8の「もう」の「再」と「いる」の「在」は中国語の同音語であって,音の異なる「呆」を選択する方が自然な翻訳である.文7と逆に,文9の「10年前」は,中国語では,状語として動詞の前に置き動詞「在」を用いて表現するのが正しく,「呆」に翻訳するのは正しくない.このように「いる」の中訳は時間副詞と関連して訳し分けが必要である.時間表現の分類,時間副詞と動詞の位置関係などさらなる考察が必要である(誤訳64文のうち4文(6.3\%)).\subsubsection{存在主省略の翻訳問題}(10):ここにいすが6つあり隣の部屋にはもっとある.現訳:\begin{簡体中文}\UTFC{8FD9}里有6把椅子,在隔壁的屋子更多.\end{簡体中文}(△)正訳:\begin{簡体中文}\UTFC{8FD9}里有6把椅子,隔壁的屋子有更多.\end{簡体中文}(○)分析:文10では前半の文で,存在主を主語として言及しているが,後半の主文では省略している.現在の規則では前半の文「ここにいすが6つある」の「ある」は「有」に翻訳されるが,後半の文「隣の部屋にはもっとある」の「ある」は「在」に翻訳される.後半の文だけが独立してあるのならこの訳でもよいが,この場合,主文の動詞としては前半の動詞と同じ「有」を用いるのが適切である.このように,文脈上のことを考慮に入れた翻訳処理が必要になってくる場合がある(誤訳64文のうち3文(4.8\%)).\subsubsection{機能語によって存在動詞の訳語が変わる問題}(11):一人でいる.現訳:\begin{簡体中文}一个人在.\end{簡体中文}(○)(12):一人でいたい気分だった.現訳:\begin{簡体中文}想一个人在.\end{簡体中文}(×)正訳:\begin{簡体中文}想一个人呆着.\end{簡体中文}(○)分析:文11の場合には,「いる」は「\begin{簡体中文}在\end{簡体中文}」に翻訳される.文12の場合には,用言後接機能語「たい」が付くと,「いる」の訳語は「\begin{簡体中文}在\end{簡体中文}」から「\begin{簡体中文}呆\end{簡体中文}」に変える必要がある.このように,機能語の影響も翻訳処理にとり入れる必要が出てくる(誤訳64文のうち2文(3.2\%)).
\section{存在文の日中機械翻訳に関連する今後の課題}
\subsection{テンス・アスペクトに関する問題}中国語のアスペクト助詞は事柄のテンス・アスペクトを表し,助詞「\begin{簡体中文}了/着/\UTFC{8FC7}\end{簡体中文}」などがある.「\begin{簡体中文}了\end{簡体中文}」には(1)過去を表す,(2)完了または実現を表す,(3)変化が生じた事を表す,(4)語気の役を担うなどの意味用法がある.「\begin{簡体中文}着\end{簡体中文}」には(1)動作の進行中を表す,(2)動作・状態の持続を表す,(3)語気を表すなどの意味用法がある.また「\begin{簡体中文}\UTFC{8FC7}(過)\end{簡体中文}」には動作が済んだことあるいは経験を述べる意味用法がある.「ある」/「いる」の中訳語「\begin{簡体中文}有\end{簡体中文}」と「\begin{簡体中文}在\end{簡体中文}」は静態動詞であるので,状態や性質を表し,時間性と関係ないため,現在のJawのアルゴリズムによれば,過去形「あった,いった」の場合の翻訳には「\begin{簡体中文}了\end{簡体中文}」を使わない.しかし,ある場合は「\begin{簡体中文}了\end{簡体中文}」が必要で,ある場合は過去を表す時間副詞の補足が必要である.例:お父さんはもういません.(生死文と実在文)現訳:\begin{簡体中文}父\UTFC{4EB2}已\UTFC{7ECF}不在.\end{簡体中文}正訳:\begin{簡体中文}父\UTFC{4EB2}已\UTFC{7ECF}去世\ul{了}.\end{簡体中文}例:ここに山があっ\ul{た}.現訳:\begin{簡体中文}\UTFC{8FD9}里有山.\end{簡体中文}正訳:\begin{簡体中文}\UTFC{8FD9}里曾\UTFC{7ECF}有山.\end{簡体中文}また,中国語におけるテンス・アスペクトを表現するのには,「\begin{簡体中文}了\end{簡体中文}」,「\begin{簡体中文}着\end{簡体中文}」,「\UTFC{8FC7}」などの助詞で表現だけではなく,時間副詞(「\begin{簡体中文}已\UTFC{7ECF}\end{簡体中文}」,「\begin{簡体中文}曾\UTFC{7ECF}\end{簡体中文}」,「\begin{簡体中文}就\end{簡体中文}」,「\begin{簡体中文}在\end{簡体中文}」など),趨向補助語(「\begin{簡体中文}去\end{簡体中文}」,「\begin{簡体中文}来\end{簡体中文}」,「\begin{簡体中文}起来\end{簡体中文}」など)および結果補助語(「\begin{簡体中文}完\end{簡体中文}」,「\begin{簡体中文}到\end{簡体中文}」,「\UTFC{89C1}」,「\begin{簡体中文}在…上\end{簡体中文}」など)を用いる場合がある.テンスとアスペクトの翻訳アルゴリズムの分析を深めることは今後の課題である.\subsection{「ている」と「てある」}日本語の存続体はある種の動作が終了しその結果が存続する状態にあることを表し,他動詞の連用形+「てある」(助詞「を」は「が」に変更する),あるいは自動詞の連用形+「ている」により構成される.例えば\inHRei{(13)}壁に絵を掛ける.\\→\begin{簡体中文}把画挂在\UTFC{5899}上.\end{簡体中文}\inHRei{(14)}壁に絵が掛かって\ul{いる}.\\→\begin{簡体中文}\UTFC{5899}上\ul{挂着}画.\end{簡体中文}\inHRei{(15)}壁に絵が\ul{掛けてある}.\\→\begin{簡体中文}\UTFC{5899}上\ul{挂着}画.\end{簡体中文}中国語の文法では文13は「把字句」という文型であるが,文14と文15は「存在句」という文型であり,異なる構造の文として表現される.\inHRei{(16)}犬は\ul{放してある}.\\→\begin{簡体中文}狗\ul{被放\mbox{\UTFC{5F00}}}.\end{簡体中文}\inHRei{(17)}自動車は歩道に沿って\ul{駐車してある}.\\→\begin{簡体中文}汽\UTFC{8F66}沿路\ul{停着}.\end{簡体中文}\inHRei{(18)}この家は左利きの人が住みやすいように\ul{工夫してある}.\\→\begin{簡体中文}\UTFC{8FD9}家\UTFC{4E3A}了\UTFC{8BA9}左\UTFC{6487}子人住得方便,\ul{花了功夫}!\end{簡体中文}文16は,中国語の受身文である「被字句」という文型に翻訳される.文17は助詞「\begin{簡体中文}着\end{簡体中文}」の補足が必要で,文18は助詞「\begin{簡体中文}了\end{簡体中文}」の補足が必要である.このように,「てある」の文は「存在句」,「被字句」,「\begin{簡体中文}着\end{簡体中文}」の補足と「\begin{簡体中文}了\end{簡体中文}」の補足などいろいろ訳し分けが必要である.\inHRei{(19)}実は,銀行には国際化と自由化の荒波が\ul{押し寄せている}.\\→\begin{簡体中文}原来,国\UTFC{9645}化和自由化的\UTFC{6EDA}\UTFC{6EDA}浪潮\ul{正在}向\UTFC{94F6}行\ul{冲来}.\end{簡体中文}\inHRei{(20)}彼女は口をあんぐり開けたまま\ul{突っ立っている}.\\→\begin{簡体中文}\UTFC{5979}\UTFC{5F20}着大嘴巴\ul{站着}.\end{簡体中文}\inHRei{(21)}彼は最近やせて\ul{いる}.\\→\begin{簡体中文}他最近\UTFC{7626}\ul{了}!\end{簡体中文}上例のように,「ている」も,「てある」と同様に,いろいろな文型に翻訳され,訳語の区別が必要である.現在の日中市販翻訳ソフトを調べると,「ている」と「てある」に関する誤り(語順の問題や動詞の誤訳など)が多く見られる.「ている」と「てある」における翻訳規則の整理が必要である.
\section{おわりに}
本論文では日本語の基本表現の一つである存在文の中国語への翻訳処理について述べた.存在文の日中翻訳に関しては,主として次のような問題が観察された.\begin{itemize}\item[(i)]存在動詞の訳し分けの問題.存在動詞の対応が一対多であるが,日本語の基本的な存在動詞は「ある」あるいは「いる」であるが,「ある」は中国語に翻訳すると,意味と文法上の規定により,「\begin{簡体中文}在,有,在于,\UTFC{53D1}生,\UTFC{8FDB}行…\end{簡体中文}」の可能性がある.「いる」の場合も「\begin{簡体中文}在,有,\UTFC{5904}于…\end{簡体中文}」などの可能性がある.\item[(ii)]訳語の語順の問題.特に連体修飾存在文の語順の問題と存在動詞の翻訳位置の問題.\item[(iii)]介詞の訳し分けの問題.\item[(iv)]習慣用法の誤訳の問題.\end{itemize}これらの問題を解決するために,日中両言語の存在文における異同について考察し,日中機械翻訳のために,日本語文の構文特徴,対応名詞の属性,構文構造などを利用して存在文の翻訳規則をまとめた.中国語の構文上の組み合わせの制限を総合して考察し,判定条件を機械で処理の可能な形で示した.更に例文を用いて手作業でこの規則を検証し,手作業による評価では市販ソフトと比較して良好な結果を示した.これらの翻訳規則は我々の研究室で開発している日中機械翻訳システムJaw/Chineseに組み込んで,翻訳実験を行っている.今後例文を更に増やして翻訳実験を進め,翻訳システムの改良を行い,さらに翻訳精度が上がるように分析を深めていく予定である.また,関連するテンス.アスペクトの問題や「ている」,「てある」の問題なども含めてさらに広く翻訳処理について検討を進めていく予定である.\acknowledgment本研究を進めるにあたって岐阜大学池田研究室jaw/Chineseのグループの皆様及びその研究室の他の皆様に感謝します.また,本論文に対して有益な御意見,御指摘を頂きました査読者の方に感謝致します.\begin{thebibliography}{3}\itemト朝暉,池田尚志:日中機械翻訳における否定文の翻訳(2004).自然言語処Vol.11,No.3.July.2004.p.97--112.\itemグループ・ジャマシイ(2001).日本語文型辞典.くろしお書店.\item飯田隆(2001).在と言語—存在文の意味論,http://phil.flet.keio.ac.jp/person/iida/papers/Sonzai.pdf.\item池原悟他(1997).日本語語彙大系—5構文体系.岩波書店.\item金田一春彦,林大,柴田武(1988).日本語百科大事典.大修館書店.\item金水敏(2006).存在表現の歴史.ひつじ書房.\item小池清治,小林賢次,細川英雄,山口佳也(2002).日本語表現・文型記事,朝倉書店.\item劉月華,潘文娯,故\UTFC{97E1}(1996).現代中国語文法総覧,くろしお出版.\item村上仁一(2002).日英対訳データーベースの状況.「言語,認識,表現」第7回年次研究会プログラム.\item西山佑司(2003).日本語名詞句の意味論と語用論,ひつじ書房.\item北京・対外経済貿易大学,北京・商務印書館/小学館.日中辞書.\item王軼謳,ト朝暉,宇野修一,浅井良信,池田尚志(2006).日中機械翻訳における存在文および関連する問題について,情報処理学会研究報告2006-NL-171,pp.95--102.\item王軼謳,ト朝暉,宇野修一,浅井良信,池田尚志(2006).日中機械翻訳における存在文の翻訳処理について.言語処理学会第12回年次大会発表論文集.pp.660--663.\item謝軍,今井啓允,池田尚志(2004).日中機械翻訳システムjaw/Chineseにおける変換・生成の方法,自然言語処理Vol.11,No.1.p.43--80.\item儲澤祥,劉精盛,龍国富,田輝(1997).「\UTFC{6C49}\UTFC{8BED}存在句的\UTFC{5386}\UTFC{65F6}性考察」.古\UTFC{6C49}\UTFC{8BED}研究.\item宇野修一,福本真哉,田中伸明,松本忠博,池田尚志(2005).日本語から多言語への翻訳エンジンjaw.言語処理学会第11回年次大会発表論文集.pp.538--541.\item山口巌:存在文と存在否定文について(1979).言語研究75,pp.1--30.\end{thebibliography}\clearpage\section*{付録1最適解の選択}最適解の選択には,3節に述べたように,以下のような条件を設定している.\noindent・日本語表現木を構成するパターンの数や種類による条件\noindent・適用された制約条件の厳しさによる条件\noindent・適用された意味属性間の距離による条件\subsection*{1.日本語表現木を構成するパターンの数や種類による条件}パターンの種類としてはAdditionタイプ(節4.2.1)よりもBaseタイプ(節4.2.1)を優先し,パターンの数がより少ない方を優先する.これらのことは,図1に示すコスト表とコストの計算式に反映されている.以下に例文「彼は夜に仕事する」を例として,コストの計算例を示す\begin{figure}[b]\begin{center}\includegraphics{14-5ia3f1.eps}\end{center}\caption{パターンの数や種類による最適解の選択時のコスト計算}\end{figure}以下の(1)〜(4)のように,入力例文を覆う日本語パターンが照合できたとすると,それぞれのコストは右側に示したように,計算される.2)と4)の場合は,足りない文節をAdditionタイプで補ったり,必要ない文節を省略していることから,パターン数は4つであり,合計コストが高くなっている.また,1)と3)を比較した場合,パターンの数は3つと同じであるが,3)は字づらによる固定表現がされており,1)よりも適合していることになる.よって,合計コストに従って3)がこの4つのTTのうち最も適した解といえる.このほか,パターン変形などの特殊処理を行って照合に成功したパターンよりも登録されているパターンをそのまま使用して照合に成功したパターンを優先する.例えば受身や使役表現などの場合,パターン辞書に登録してある基本能動態の表現パターンを受身や使役のパターンに変形した上で,入力文との照合を行っている.図3は受身・使役表現におけるパターン変形の処理例を示している.\begin{figure}[t]\begin{center}\includegraphics{14-5ia3f2.eps}\end{center}\caption{パターンの数や種類による最適解の選択の例}\end{figure}しかし「息を弾ませる」のように慣用的な表現は,使役形のままでパターンに登録されており,変形して生成されたパターンをの照合より,そのままの形でのパターンの方式コストは低くなるように設定してある.\begin{figure}[t]\begin{center}\includegraphics{14-5ia3f3.eps}\end{center}\caption{受身・使役表現におけるパターン変形の処理例}\end{figure}\subsection*{2適用された制約条件の厳しさによる条件}各パターンの条件には,自立語条件,字づら条件,機能語条件の3つの制約条件がある.この3つの条件を用いて各パターンの条件の厳しさを判定する.字づら条件が最も優先される.自立語条件は,意味属性がシソーラスで表現されているので,照合に適用された自立語条件の意味属性のシソーラスでの深さを自立語条件の得点として厳しさを判定する(得点の高い方は厳しいである).機能語条件は,例えば「が」の得点は1,「に対して」の得点は3.7というように,個々の機能語条件について得点が設定されている.自立語条件のシソーラス上での深さと機能語条件の得点の積を条件文節ごとに算出し,条件文節ごとの得点の和がパターンが持つ条件の厳しさとなる.図4に,条件の厳しさの計算式を示す.\begin{figure}[t]\begin{center}\includegraphics{14-5ia3f4.eps}\end{center}\caption{制約条件の厳しさによる最適解の選択時のコスト計算}\end{figure}例として,「彼が道を歩く」を照合して生成された三つのTTに対する計算例を示す(図5).1)と2)を比較すると,主語の意味属性は〈人〉で両パターンとも同じであるが,目的言語の意味属性は〈場所〉と〈道路〉になっている.このとき,自立語のシソーラスを見ると意味属性の〈場所〉は,〈道路〉を包含することとなり,〈場所〉よりも〈道路〉の方が深い意味属性となる.よって,2)は1)よりも深い意味を持つ自立語条件を持っていることとなる.3)の場合「N〈人〉がN〈乗り物〉でN〈道路〉を歩く」というパターンの条件文節「N〈乗り物〉で」が省略されて適用されたものである.このとき,3)は,3つの中で一番条件が厳しいパターンとして考えられるが,「N〈乗り物〉で」の文節が省略された場合は,2)より得点が低くなる.\begin{figure}[p]\begin{center}\includegraphics{14-5ia3f5.eps}\end{center}\caption{制約条件の厳しさによる最適解の選択の例}\vspace{2\baselineskip}\begin{center}\includegraphics{14-5ia3f6.eps}\end{center}\caption{意味属性同士の関連}\end{figure}\subsection*{3適用された意味属性間の距離による条件}意味属性条件に関してはパターン中で与えられている意味属性と入力文の語の意味属性とのシソーラス上の距離が短い方を優先する.例文「彼が道を歩く」に対してBaseタイプのパターン「N〈人〉がN〈道路〉を歩く」が適用されたとき,文節「N〈人〉が」の自立語に「彼〈3人称〉」,「彼〈男〉」の2つのBaseタイプのパターン「彼」が適用されたものとする.このとき,2つのパターンのどちらが最適なパターンかを判別する必要がある.それぞれのパターンが持つ意味属性は「〈3人称〉」,「〈男〉」である.これが適用されたということは,この2つのパターンは「歩く」の条件文節「〈人〉」の包含関係にあるといえる.意味属性同士の関連を図6に示す.このとき,2)の意味属性〈男〉は〈3人称〉より自立語の条件である〈人〉に近い属性なので「歩く」が持つ文節「〈N〉が」に3)より適切な属性といえます,よって2)と3)を比較した場合2)のBaseタイプのパターン「彼〈男〉」が選択される.\subsection*{4各選択条件の優先順位}最適解の選択は,「TTを構成するパターンの数や種類による条件(1)」,「適用された制約条件の厳しさによる条件(2)」,「適用された意味属性間の距離による条件(3)」の3つの点数の合計で選択を行っている.この3つの条件を用いた最適解選択の計算式は以下のようになる.\begin{figure}[h]\begin{center}\includegraphics{14-5ia3f7.eps}\end{center}\caption{最適解選択の計算式}\end{figure}\clearpage\section*{付録2「ある」の字面照合翻訳規則}\input{03app02.txt}\clearpage\section*{付録3「ない」の字面照合翻訳規則}\input{03app03.txt}\begin{biography}\bioauthor{王軼謳}{2001年中国大連理工大学化学工学科及び英語科卒.2004年中国大連理工大学応用情報研究科修士課程修了.工学修士.現在岐阜大学工学研究科博士後期課程在学中.日中機械翻訳,特に機械翻訳のための日中言語の分析,翻訳規則の作成,システムの改良に関する研究に従事.言語処理学会学生会員.}\bioauthor{池田尚志(正会員)}{1968年東京大学教養学部基礎科学科卒.同年工業技術院電子技術総合研究所入所.制御部情報制御研究室,知能情報部自然言語研究室に所属.1991年岐阜大学工学部電子情報工学科教授.現在,同応用情報学科教授.工博.自然言語処理,人工知能の研究に従事.情報処理学会,電子情報通信学会,人工知能学会,言語処理学会,各会員.}\end{biography}\biodate\end{document}
| |
V15N03-03 | \section{はじめに}
質問応答技術は自然言語によって表現された質問に文書でなく情報そのもので回答する事を可能とするもので,情報アクセスの新しい形として期待されている\cite{Voorhees00}.事実に関する独立した質問に一問一答形式で回答するものを中心に研究が始められたが,近年は様々な面で研究の展開が見られ,そのひとつに対話性の重視があげられる.質問応答技術を牽引してきたといってよいTREC\cite{Voorhees05,TREC}では,TREC2001において対話的な利用を前提とした文脈処理の能力を評価する試みがなされている\cite{Voorhees01}.その後,TREC2004から,相互に独立した質問ではなく,あるトピックに関する一連の質問の集まりという形で課題を与えるようになっている\cite{Voorhees04}.文脈処理の能力を評価するものでないとはいえ,あるトピックに関して一連の質問を行うという利用場面が自然であると考えられている点が注目される.また,あるトピックに関する複数の質問にどの程度回答できるかを,複数文書要約の評価指標とすることが試みられており\cite{Mani98},ここでも,あるトピックに関する一連の質問に回答できることが重視されている.一連の質問に回答するという利用形態は質問応答システムの進むべき方向のひとつとしても議論されており,例えば,新人レポータがある事件の記事を執筆するために,彼の記事で答えられるべき大きな質問をより簡単な質問の集まりに言い換えてシステムに訊ねるという形で,アナリストやレポータが利用しうる質問応答システムへの発展が提案されている\cite{Burger01}.また,ARDAのAQUAINTprogram\cite{AQUAINT}ではアナリストが分析的に用いる質問応答システムの構築がその目的とされており,より積極的に対話的な質問応答の研究が進められている.質問の分解を含めて,分析的説明的な質問にどう答えるか,明確化等の利用者とのやりとりはどうするか等が研究の関心となっている\cite{Hickl04,Small03}.本稿では,あるトピックに関して対話的に行われる一連の情報アクセスを質問応答システムが支援する能力,情報アクセス対話の対話相手として情報を提供するために質問応答システムが持つべき能力を定量的に評価するためのタスク,IADタスク\footnote{IADは情報アクセス対話(InformationAccessDialogue)の頭文字からとった.}を提案する.質問応答システムが情報アクセス対話に参加するために必要となる様々な能力\cite{Burger01}の中で,IADタスクでは,そもそも情報アクセス対話を扱うためにはどのような質問に答えられる必要があるのか,そして,対話の実現の基本となる対話文脈を考慮した質問の解釈,つまり照応解消や省略処理等のいわゆる文脈処理はどの程度必要なのかに着目し,その能力を評価する.IADタスクは,情報アクセス技術に関する一連の評価ワークショップNTCIRWorkshop\cite{NTCIR}において,NTCIR-4のQAC2Subtask3\cite{Kato04,Kato05a},NTCIR-5のQAC3\cite{Kato05b,KatoJ06}として実施されたものに基づいている.対話的な質問応答というそもそものアイディアはNTCIR-3のQAC1Subtask3\cite{Fukumoto03}に遡るが,NTCIR-4のQAC2Subtask3での実施においてタスクの抜本的な改変を行い本稿で述べる形態を固め,同時にタスクの裏付けについての実験を行った.その後,そこでの経験を基に幾つかの洗練を行って,NTCIR-5のQAC3として実施している.ここで,評価タスクの提案という本稿の特殊性について一言述べておく.研究や技術の進展や加速のために共通の評価が必要であり.それを得るための評価タスクが重要であることは,議論の余地がまったくないとはいえないまでも\cite{Sekine05},大概の合意を得ていると思われる\cite{Ogawa02}.一方で個々の評価タスクについて考えると,ある評価タスクが価値あるものであるためには,それが評価する研究や技術が評価されるに値するものであり,かつ,その評価のために適切に設計されている必要がある.前者は研究や技術の価値の議論であり,後者も何をもって適切とするかが絡んで必ずしも明快な議論とはならない.本稿では,ここで提案するIADタスクにおいて高い評価を得たシステムあるいは技術が可能とする利用場面を示し,前者の根拠とする.加えて,後者については,少なくとも2回の実施を通じて明らかとなった問題について一定を解決を与えていることを根拠とする.設計ということで一部に恣意的な決定を含んでいるし,この評価タスクであらゆるデータが収集できるわけではない.実施できなければならないという現実性との妥協もある.そのような一連の留保を前提にしているとはいえ,本提案が,課題設定の独自性,評価に関する様々な配慮,情報収集のための仕組み等の点で,新規かつ有益なものであることを主張する.本稿の構成は以下の通り.\ref{Sec2}節でIADタスクの枠組みを説明する.タスク設計の中心となる質問シリーズを説明し,それがトピック推移の観点から収集型とブラウジング型に分類されることを述べる.加えて,IADタスクの枠組みの根拠となった実験結果を示し,このタスクによって評価される技術が可能とする質問応答技術の利用場面を示唆する.\ref{Sec3}節では,評価の枠組みとして,回答の列挙に複数の体系を許し回答の2種類の質を考慮した多段階評価手法を提案する.そして,なぜそのような枠組みが必要であるかを実例に基づいて説明する.\ref{Sec4}節ではより多くの情報を得るための補助的な仕組みとしての参照用テストセットについて説明し,それがシステムの文脈処理能力をある程度まで切り離した評価を可能とすることを示す.\ref{Sec5}節では関連する取り組みを述べ,それとの比較を通じて本提案の有効性を示し,特に収集型とブラウジング型への分類を含む質問シリーズの構成方法が重要であることを述べる.\ref{Sec6}節で全体をまとめる.また,IADタスクに対して,最先端のシステムがどのような結果を示すのかを付録にまとめた.
\section{タスクの枠組み}
\label{Sec2}IADタスクは,対話的な情報アクセスでの質問応答システムの利用を考え,そこで必要な照応解消や省略処理等のいわゆる文脈処理の能力を評価することを目的とする.様々なバラエティを持つ情報アクセス対話の中で,特に,与えられたトピックについてのレポートを書くための素材となる情報を得るような対話を想定している.これはある事件の記事を執筆するために,必要な情報を比較的簡単な質問の集まりとしてシステムに訊ねるという形態とも近い.\subsection{質問シリーズ}IADタスクでは,システムに一連の質問(シリーズと呼ぶ)を与え,それに次々と回答させてゆく.シリーズの先頭以外の質問は,それ以前の質問の一部もしくはその回答を参照する照応表現を含んでいる\footnote{省略やゼロ代名詞,英語の定名詞句に相当する一般名詞の反復を含む.表層から明らかでないので不適切かもしれないが,「表現」と呼ぶことにする.}.この一連の質問とそれへの回答が情報アクセス対話を構成する.実際の利用場面ではシステムは対話的に質問に回答することが期待されるが,本タスクではその対話性は模擬されるだけで,複数のシリーズ(テストセットと呼ぶ)をバッチ的に与え,それに回答することをシステムに求める.ここで,システムはある質問がシリーズの先頭であるという情報は利用してよいが,ある質問に回答する際にそれに続く質問を参照することは許されない.これは本タスクが対話的な状況でのシステムの利用を模擬していることからの制約である.対話の展開があらかじめ定められていることは対話本来のダイナミクスを失わせているが,その一方で,本タスクの実施に参加したシステムがすべて同じ質問に回答するので,相互比較可能な結果が得られることに加え,正解をプーリングすることでテストセットが再利用可能となるという利点を有している.IADタスクでは大きく分けて収集型とブラウジング型という2種類のシリーズを設定している.これは,情報アクセス対話が,利用者があるトピックについてのレポートや要約を作成するための情報を収集する等の目的でそれに関する一連の質問を行なうような対話(収集型)と,利用者の興味の赴くところに従って対話の進行と共にトピックが変わっていくような対話(ブラウジング型)との2つの極を持つという直観に基づいている.タスクにおいて,あるシリーズがどちらの型に属するかは与えられず,システムはそれを自分で判定しなければならない.IADタスクが想定している情報アクセス対話は与えられたトピックについての様々な情報を収集するもので,当然収集型の対話が支配的であるが,後述するように実際の場面ではその部分部分にブラウジング的な要素が含まれる.これが本タスクにブラウジング型を含め,かつシリーズの型の同定をシステムに求めている理由である.なお,シリーズ単位で型を区別したことには分析が容易になることへの期待がある.IADタスクのシリーズの例を図\ref{samples}に示す.収集型は,広い意味で共通のトピックに関する質問からなり,そのトピックはシリーズ先頭の質問で導入される.すべての照応表現がそのトピックを参照するというのがもっとも厳しい意味での収集型(狭義の収集型と呼ぶ)である.図\ref{samples}のSeries2-14はそのような収集型で,先頭質問で述べられている「小沢征爾」を補うことで,すべての質問の文脈処理が行える.一般には,複数の照応表現を持ち,その一方がトピックを参照するような質問や,トピックが関連した出来事やその一般化を参照するような表現をもつ質問等も収集型のシリーズに含まれる.Series2-20はその例で.第3問は複数の照応表現を含み,第6問は先頭質問文で述べられているトピックであるジョージ・マロリーが関連したイベントを参照している.ブラウジング型はそのような大域的なトピックを持たず,質問中の照応表現は,直前の質問の回答や以前の質問中で言及された事物を参照している.Series2-22はブラウジング型の例である.\begin{figure}[b]\input{03fig1.txt}\caption{シリーズの例}\label{samples}\end{figure}\subsection{個々の質問の範囲}IADタスクのシリーズを構成する質問は,疑問代名詞を含む文の形式を持ち,名称を正解とする質問である.ここで,名称というのは,人名や組織名等いわゆる固有表現に留まらず,日付け,数量を含み,種の名称,機械や身体的部分等の一般名称を含む.統語的には複合名詞が正解の範囲とほぼ重なるが,小説や映画のタイトル等そこから外れるものも含まれる.システムはこれらの名称をそれを含んだ部分でなく,過不足なく抜き出してひとつの回答とし,複数の正解があると判断される場合はそれらをリストとして列挙することを求められる.質問の正解が知識源中に存在することは保証されていないので,回答が存在しないこと,空リストが正解ということもありうる.各回答(回答リストの要素)は,それを抜き出した文書であり,それが正解であることの根拠となる文書の識別子を伴っていなければならい.回答リストの要素として日付や数量を含む名称の表現を過不足なく抜き出すことを要求すること,回答リストとしてすべての回答の過不足ない列挙を求めることは,文書でなく情報そのもので回答するという質問応答の流れから当然と考えるが,実際にタスクとして実施する場合,細部の検討が必要となる.日付や数量の表現については,質問への自然な回答を可能とするため,以下の表現も正解範囲であることを明示する必要がある.なお,名称という正解範囲の根拠づけは\ref{Sec2_3}節において,過不足のない列挙の問題は評価に関する\ref{Sec3}節において論じる.\begin{description}\item[数値表現に属性の詳細化具体化を行うための表現が付属したもの]「年間300台」「タテ50~cmヨコ30~cm」「一人当たり3リットル」「重さ3トン」等.\item[範囲表現(定型的,慣用的なもの)]「10〜12\%」「8世紀後期から9世紀初期」「四国から九州まで」「30人以上」「30人以上50人以下」等.「東京大阪間」「羽田—千歳」「千葉県内」等,空間的な範囲表現(区間表現)も含む.\item[概数表現(蓋然表現)]「約100人」「3億円程度」等.「シカゴ近郊」「東京都近辺」「舞浜駅前」「大使館裏」等,空間的な蓋然表現も含む.\end{description}これらを正解の範囲としない場合,まず,「どのくらい利用されていますか」に年間なのか月間なのかが不明確であるような「300台」と回答する,「どのくらいの大きさですか」に「50~cm」と長さで回答する等の不自然さを強いることになる.不自然さの問題に加え,これらを許さないことは正解の網羅的な列挙や重複の判断でも問題となる.「タテ50~cmヨコ30~cm」と回答できずに「50~cm」「30~cm」の両方を挙げる必要があるとか,「10〜12\%」において,「12\%」は抜き出しという形で得られるが,「10」だけでは単位が含まれないので正解として抜き出せないとか,「約100人」は「102人」と同一の情報としていいかもしれないが「100人」はどうか等の問題が生じてくる.\subsection{タスクの根拠}\label{Sec2_3}IADタスクの根拠として,レポート作成の情報を得るための対話的情報アクセスで名称を正解の範囲とする質問応答システムが使われうるのか,そして,その状況での質問にはどのような照応表現がどの程度含まれるかを調査した\footnote{ここで用いたデータ収集の手法はテストセット構築にも利用できる.なお,これらの調査は本提案の基となったNTCIR-4,5での実施におけるテストセット構築と並行して行ったものである.}.\subsubsection{データ収集}調査は,IADタスクが前提とする状況で利用者から発せられるであろう質問を収集し,分析することで行った.新聞記事から選択した人物,組織,出来事等のトピックを被験者に提示し,それに関するレポートを執筆するという状況を設定した.レポートは与えられたトピックの事実関係をまとめたもので予測や意見はそこに含めないものとし,質問の文型は疑問代名詞を含むWh型に限定するように指示した.以下の2種類の収集を実施した.\begin{description}\item[アンケート方式による調査]レポートに含めたいと考える情報を質問文の形式で表現するように指示することで,レポート執筆のための一連の質問を作成させた.作成する質問数は1トピックあたり10問を目安とした.作成した質問に次々と回答が得られるという想定で,ひとつのトピックについて複数の質問を作成させ,質問中に代名詞等の表現を含めることを許した.これにより自然な質問の系列が作成されることを期待した.60のトピックについて,30人の被験者に一人あたり30トピックを割り当てた.トピックの提示は20文字程度の短い記述,それについての短い記事,それについての記事5編,と3種類の方法を均等に混ぜた.集めたデータのうち,40トピックについての各9系列を構成するWh質問,3,401文を分析した\footnote{トピックの提示方法の詳細,分析データ選択の過程等については\cite{KatoJ04a}に詳しい.}.\item[WOZ方式による調査]レポート執筆という状況設定で,質問を事前に考えたのち,WOZ方式で模擬された質問応答システムと情報アクセス対話を行うことで情報収集を行わせた.質問数は1トピックあたり10問を目安とした.20のトピックについて,6人の被験者に各10トピックを割り当て,被験者にはトピックと100文字程度の概要を提示した.WOZ役の協力者は4名で,事前に担当するトピックについて800文字から1,600文字程度の要旨を作成するという事前準備をしており,作成した要旨,新聞記事全文検索システム,自分の記憶を用いて,利用者からの質問に対話的に回答した.対話はキーボードを用いて行った.被験者には事実に関する簡単な質問に回答できる質問応答システムを利用していると説明し,WOZ役にも理由や意見を訊ねる質問については回答できないと応答する,必要な場合は問い返しを行ってかまわない,回答は簡潔を旨とするが自然な協調的振る舞いを禁じるものではない等,その役割を教示した.集めたデータすべて,20トピックについての各3系列を構成する質問等,620文を分析した\footnote{13\%程度のYesNo質問や命令文が含まれている.それらの扱いを含めて,ここで論じていない明確化発話や協調的応答の分析については\cite{Kato06}に詳しい.}.\end{description}\subsubsection{質問と回答のタイプに関する分析}質問の種類,質問が何をたずねているかを分類した結果を表\ref{qtype}に示す.ここで,4W質問は「小沢征爾氏は誰に師事しましたか」のように具体的な人名等を訊ねる質問で,「〜って誰ですか」「〜とは何ですか」という質問は定義・説明・記述を訊ねる質問に分類している.WOZ方式の収集において,YesNo質問の場合はそれに対する協調的応答の内容から判断して訊ねている内容を決定した.\begin{table}[b]\caption{質問で訊ねている内容の分類}\label{qtype}\input{03table1.txt}\end{table}\begin{table}[b]\caption{(推測される)回答による分類}\label{atype}\input{03table2.txt}\end{table}表\ref{atype}は回答のタイプによる分類である.ここで,「一般名称」は名称から数量や日付の表現,固有表現(固有名称)を除いたものである.「固有名称」には小説や映画のタイトルが含まれる.この分類は表\ref{qtype}に示した分類と強く関連する.例えばWhy質問に回答するためには一般に節や文が必要となる.しかし一方で,4W質問に分類された質問がすべて名称によって回答できるわけではない.例えば,場所を訊ねる質問でも「ロブスタが好んで住むのはどこですか」には名称での回答は困難で,一定の量の記述や説明を必要とする.アンケート方式では,この分析を質問だけを見ることで行ったため,幾つかの質問については確定的な分類が行えなかった.「たぶん名称」と分類されたものは「AIBOの由来は何ですか」のような質問で,AIBOが何かのアクロニムであれば名称の範囲に収まるが,その由来が長い物語となるかもしれないものである.このように質問だけからは予想される回答が複数のカテゴリにまたがるものは他の分類の間でも存在するが,簡単のためにそれらは複雑な方に分類した.WOZ方式の場合,分類はWOZ役の発話に基づいて行ったが,発話全体の形式ではなく.質問への回答そのものに注目した.例えば,「いつ生まれましたか」への回答の「3月13日に生まれました」の場合,その分類は節や文ではなく日付表現である.\subsubsection{照応表現の特徴に関する分析}質問中に含まれる照応表現として,前方照応のための手段を,指示代名詞(連体詞を含む),ゼロ代名詞,英語等の定名詞句に相当する前出名詞の繰り返し,省略の4つに分けて,その出現頻度を調べた.2つの状況を比較するために(出現頻度/(質問文数−系列先頭の質問文数))で計算される相対頻度をまとめたものを表\ref{coref}に示す.合計は100\%を越えるが,例えば,「{\emそれまで}誰が{\emその}国の指導者だったのですか」のように複数の照応表現がひとつの質問文中に含まれる場合があるためである.\begin{table}[b]\caption{質問中に表れる照応表現}\label{coref}\input{03table3.txt}\end{table}省略を除く照応表現のうち,与えられたトピック,つまり大域的トピック以外を参照するものの割合は,アンケート方式で29\%,WOZ方式で22\%であり,そのうち同じ質問文中に大域的トピックを参照する表現を持たないものがそれぞれ92\%,81\%であった.このような質問の存在は質問系列中で焦点が推移しており,大域的トピックでないものが焦点となっていることを示している.系列の先頭以外で,照応表現を含まない質問のうち,アンケート方式で55\%,WOZ方式で68\%が,焦点となっているものを代名詞化しないでそのまま表現するケースであった.これは例えば,人物を姓のみで参照する場合や,ニホンカワウソやハイブリッド車等.名詞で表現されるクラスが焦点となっている場合で,前出名詞の繰り返しとも考えられるものである.それ以外は焦点の変化と関連する.例えば,あるニュース番組のダイオキシン汚染に関する誤報道をトピックとした場合に,その番組に対する一連の質問に続いて「ダイオキシンの毒性はどのくらいですか」と訊ねるような場合,逆にチャールズ皇太子が与えられたトピックで,その息子達に関する質問が幾つか続いた後に,「チャールズ皇太子の長年の恋人とは誰ですか」と焦点が戻る場合等がある.WOZ方式では質問の回答に含まれた内容へと焦点が移る場合もあった.\subsubsection{考察}表\ref{atype}からわかるように,レポート作成のための質問のうち,アンケート方式で58\%--75\%,WOZ方式で62\%が数量等を含む名称を回答とする質問となる.レポートを執筆するための情報を訊ねる質問を収集した状況では,節や文で回答することが多いと思われる「なぜ」を訊ねる質問は少なく,説明や定義を求める質問も予想されたほど多くはない.これは,「小沢征爾って誰ですか」という質問が,例えば彼の誕生日や出身地を訊ねるような具体的な質問に展開されているためであると考えられる.60\%強という数字は決定的ではないが,名称を正解の範囲とするような質問応答システムはこのような状況で充分に有用であると判断できる.ちなみに,アンケート方式で収集した質問のうち,名称を回答とする737問について,その正解が新聞記事集合から得られるかを調査したところ,84\%について正解が得られ,新聞記事等の大規模文書を知識源とすることが現実的であることもわかる.更に重要なことは,このような状況で得られた質問文に様々な照応表現が含まれることである.照応表現が頻出することに加えて,その参照先は単に情報収集の中心となる大域的なトピックに限られるような簡単なものではない.情報アクセス対話は,その焦点が対話の進行によって推移し,サブダイアログも含む複雑なものともなりうるため,それに応じた文脈処理が必要であることがわかる.ここで示された状況が,IADタスクの設定で模擬されている.IADタスクが評価するのは,ここで示された状況に対応し,対話的な情報アクセスを実現するための質問応答技術であり,このタスクで高い評価を得た技術は,本節の実験で模擬されたような対話的な情報アクセスの実現に有効である.
\section{評価手法}
\label{Sec3}\subsection{対話性に伴う問題}IADタスクでは,各質問に対して,存在しないことを含めていくつ存在するかわからない正解を過不足なく収集し,それらすべてを列挙したリストをひとつ返すことを求める.正解数は問題毎に異なり事前に与えられないので,個々の質問に関する評価は精度と再現率の両方を考慮した$F$値を採用する.システムの総合評価はその評価のテストセット全体の平均である.情報検索一般とは異なる質問応答の特殊性から普通の$F$値ではなく,様々な配慮が必要となるが,これについては\ref{Sec3_2}節で述べる.ある回答が正解であるかは,回答とそれと合わせて提示される根拠記事の適切性によって判断される.質問と無関係な記事を根拠としていれば文字列として正解と同一であっても不正解として扱われる.対話的な情報アクセスという特徴から質問の解釈が文脈に依存し,それが正解に影響するという問題がある.IADタスクでは,質問の正解は判定者である人間が適切と判断した文脈の下でおこなった解釈によって決定され,システムの解釈やシステムのそれ以前の回答とは無関係であるとする.例えば,図\ref{samples}のSeries2-22の2番目の質問の正解は,常にニューヨーク・ヤンキースの本拠地であるヤンキースタジアムが建てられた1923年であり,システムが最初の質問にシェイスタジアムと誤って答え,2番目の質問にそれが建てられた年である1964年を``正しく''回答しても不正解とする.一方,最初の質問にシェイスタジアムと答えていても,適切な根拠記事と共に1923年を回答していれば,2番目の質問については正解と判断される.特に後者については若干の違和感があるが,システムが文脈を内包的に管理し,2番目の質問を「ニューヨーク・ヤンキースの本拠地となっている球場は何年に造られたものですか」と解釈したと考えれば,不正解にする理由はない.また,収集型のシリーズでは,質問文は直前の質問や回答よりもシリーズの先頭で導入されたトピックを参照していることが多く,直前の質問に正解することが現在の質問に正解する必要条件になっている場合は必ずしも多くない.これらの理由に加えて,システムが起こしうる誤った解釈すべてについてその後の正解がどうあるべきかを事前に判断するのは不可能ということから,このような方式としている.\subsection{評価尺度}\label{Sec3_2}対話性の問題以外に,可能な正解すべてを列挙したリストをひとつ返すことを求めるリスト型課題の評価には以下のような難しさがある\cite{KatoJ04b}.\begin{description}\item[重複の扱い]同じ事物を指す複数の表現,人名における役職の有無,外人名の異表記,貨幣単位の違い,時間帯の違い(現地時間と日本時間)等があるため,同じ事物を指すこれらの表現を複数個回答リストに含めたような重複があると考えられる場合の扱いを決めなければいけない.\item[回答の質に関する問題]同じ事物を指す上記の表現の中には,フルネームと略称のように情報の質が異なるものがある.日付や場所の場合は「00年」「00年1月3日」,「日本」「千葉県浦安市」のように粒度(詳細度)の異なるバリエーションがある.これら表現の質の問題を扱い,評価に反映させる必要がある.加えて,表現の問題ではなく,回答自体(指示されている事物)の質が異なると思える場合がある.例えば,記事中で事実もしくは伝聞として述べられているが,誤報もしくは発表者側の誤りにより事実と異なる数値や日付,記事中では確定的な予定として述べられているがその後に変更となった日付等を正当な正解と同じように扱ってよいのかには疑問が残り,その質の差に見合った評価が求められる.\item[列挙の体系の問題]可能な正解すべてを列挙するといっても,その列挙の体系が複数ある場合がある.「東海三県」と「三重県」「愛知県」「岐阜県」のように(一定の知識を前提とすれば)同じ情報が違う形で伝えられる場合がある.例示を含んだ「川魚,エビ,カニ等の魚介類」において.「川魚」「エビ」「カニ」「魚介類」は明らかに並べられるものではないが,「川魚」「エビ」「カニ」という列挙と「魚介類」という回答とのどちらが優れているかは自明ではない.この問題は粒度と関連して生じることが多い.あるイベントの開催地をそれが行われた国名で列挙するか都市名で列挙するかの選択もある.また,あるイベントが「12月10日」と「12月20日」の2回行われたとき,その開催日を「12月」と答えてしまうと2回行われたという情報は伝わらない.この場合「12月」と「12月10日」のふたつを答えても,伝わる情報は「12月10日」だけを答えた場合と同じである.表現の粒度の問題は表現の質の問題であるが,この例のようにその粒度が荒くなって他の回答と区別できなくなった時,そこにとどまらなくなる.加えて範囲表現等を正解範囲に含めているため,例えば,「8世紀後期から9世紀初期」をひとつの要素とするリストと「8世紀後期」「9世紀初期」のふたつを要素とするリストとを等しく扱わなければならない.\end{description}これらの難しさを考慮し,可能な限り直観に合う評価を行うため,以下のような評価の枠組みを提案する.中心となるのは,正解セットという考え方の導入と回答の2種類の質を区別した多段階評価である.各質問について,複数の正解セット$\mathit{CAS}$を用意する.ひとつの正解セットとは,ひとつの列挙の体系に対応するもので,上の例では,{「東海三県」}がひとつ,{「三重県」「愛知県」「岐阜県」}がひとつのセットをなす.また,{「12月」}がひとつ,{「12月10日」「12月20日」}がひとつである.正解セット毎にそのセットの正解を網羅した際の係数$h$($0.0<h\leq1.0$)が与えられる.多くの場合,その係数は1.0であるが,上例の{「12月」}のセットの場合,このセットを網羅しても他方のセットの正解を網羅した場合の半分の情報しか与えられないとして,例えば係数$h=0.5$が与えられる.ある正解セットは,同じ事物を指す様々な正解表現$e$の集まり(これを表現集合$\mathit{ES}$と呼ぶ)の集まりである.人名における役職の有無や貨幣単位の違いのように同じ事物を指し,重複した回答として扱うべき表現に加えて,フルネームと略称のように情報を表現の質が異なるものや日付や場所において粒度が異なるものも,同じ事物を指す複数の表現として,ひとつの表現集合に含まれる正解表現となる.実際には正解判定は表現と根拠記事との対に対して行われるので,異なる根拠記事を持つ同じ表現も同じ表現集合に属するとして扱う.それぞれの表現集合についてそれが指すものの質に関する係数$g$($0.0<g\leq1.0$)が付与される.表現集合中の正解表現それぞれには表現の質に関する係数$f$($0.0<f\leq1.0$)が付与される.システムが返した回答リスト$O$が与えられた時,ある正解セット$\mathit{CAS}_i$に関する精度$P_{\mathit{CAS}_i}$と再現率$Q_{\mathit{CAS}_i}$は図\ref{mmfdef}の式で与えられる.これに基づいて$F_{\mathit{CAS}_i}$値が求められ,最も大きい$F_{\mathit{CAS}_i}$値を与える正解セット$\mathit{CAS}_i$を用いた評価がその回答リストに対する評価となる.なお,正解が存在しない質問については,回答数が0の場合(空リストを回答とした場合)に$F$値1.0,それ以外は0とする.この定義による$F$値を$\mathit{MF}$値\footnote{若干の修正を含んでいるということでModifiedの$M$を付けた.},テストセットについてのその平均を$\mathit{MMF}$値と呼ぶ.\begin{figure}[t]\input{03fig2.txt}\caption{評価尺度の$\mathit{MF}$値の定義}\label{mmfdef}\end{figure}この評価が意図しているのは,\begin{itemize}\item表現の質は係数$f$で表現し,質の低い表現を選んだ場合は精度再現率の分子となる正解数の当該部分にそれを乗じることでよりよい表現を回答した場合と差を付ける.\item正解そのものの質は係数$g$で表現し,再現率の分子分母の正解数両方にそれを乗じることで,再現率に正解の質を反映させる\item同一物を指示する異表現はその同定をシステムの能力の一部と考え,同じ表現集合に属する正解を複数回答した場合は,その中で表現の質が最もよいものひとつを正解とし,それ以外は誤答として扱うことで精度を下げる.\item正解の列挙については,ひとつの列挙の体系に基づいて回答することを期待し,それぞれの正解セットに従って採点を行い,最も高い評価となるセットの値を採用する.ただし,各セットでの採点において,そのセットでは誤答であるが,他のセットでの正解であるような回答は回答数に含めないことで,誤答と区別する.これにより様々な正解セットに含まれる正解を混在させた時の精度の減少を防ぎ,ペナルティをなくす.\end{itemize}一例として,「東京ディズニーランドはどこにありますか」という質問に「千葉県浦安市」「舞浜駅前」のふたつの正解があるとする.このふたつが同じ場所を指す異表現と考えるなら,同じ正解セットの同じ表現集合にこのふたつを含めることになる.その場合,一方を回答リストに含めればよく,両方を含めた場合,精度が下がる.これらふたつは違う情報であり,両方を列挙すべきであると判断した場合は,同じ正解セットの異なる表現集合に含める.この場合,両方を回答リストに含めないと再現率が下がる.このふたつは異なる回答の仕方でありどちらもひとつで充分な情報を持っているとの判断であれば,これらふたつを異なる正解セットとする.この場合,一方を回答すればよく,両方を含めても精度は下がらない.両方回答すべき(同じ場所の別表現ではない)であるが,「千葉県浦安市」の方がより適切とする場合は,「舞浜駅前」の正解そのものの質に関する係数$g$を落とす.この場合,例えば「千葉県浦安市」だけで再現率0.67,「舞浜駅前」のみで0.33というような重み付けが可能となる.更に「千葉県」も正解とするが,これは「千葉県浦安市」と同じ場所を指し,表現として劣ると判断するのであれば,「千葉県浦安市」と同じ表現集合に含め,その表現に関する係数$f$を落とせばよい.
\section{参照用テストセット}
\label{Sec4}一問一答形式の質問応答システム,特にリスト型課題にまだ研究の余地がある現状においては,システムの能力は様々な要因に左右され,情報アクセス対話における質問応答の能力だけでは決まらない.例えば,ある質問の正答率が低い時にその難しさがその文脈処理の側面にあるのかどうかは明らかでない.情報アクセス対話における質問応答でのシステム全体の能力を測定することがIADタスクの目的であるが,その改善に向けた分析が可能となるような材料が収集できることも望まれる.そのような情報を得るための道具立てとして,あるテストセット(本節では主テストセットと呼ぶ)を用いたIADタスクの実施と並行して,その主テストセットから作成される2種類の参照用テストセットを用いて同じタスクを実施することを提案する.第一の参照用テストセットは,主テストセットに含まれる照応表現をすべて人手で解消し,それを補った独立の質問からなるセットである.第二の参照用テストセットは,主テストセットに含まれる照応表現のうち,代名詞+助詞や連体詞等,表層に現れているものをすべて機械的に除去した独立の質問からなるセットである.こちらは意味的には,大半の質問が誰のものかを指定しないで誕生日を訊ねるような特定化が不充分なものとなるが,日本語であることが幸いして統語的には文法的である.図\ref{samples}に示した質問シリーズseries2-20に対応するこれら参照用テストセットの部分を図\ref{refsamples}に示す.第一の参照用テストセットの結果は文脈処理の上限,第二の結果は文脈処理なしで回答できる下限を示している.もちろん,文脈処理の結果得られる表現はひとつではないし,文脈処理が悪い影響を与えることも多いので,これらの結果は参考にとどまるが,このような参照用テストセットは技術の特徴を検討するのに有益である.参照用テストセットによる実施が貴重な情報を提供する例として,NTCIR-4での実施での例を挙げる.表\ref{rsmmf}は主テストセットのシリーズ最初の問題と2番目以降の問題について,上位10システムの$\mathit{MMF}$値を平均したものと,第一の参照用テストセットについて,それに対応する値とを比較したものである.主テストセットでは当然,2番目以降の問題の平均$\mathit{MMF}$値が大きく落ちているが,参照用テストセットでもそれに対応する問題で平均$\mathit{MMF}$値が低くなっている.予想される理由は,あるトピックに関する一連の質問を行うと比較的簡単なものが先頭に来ることである.このような分析により,単にシリーズ最初の問題と2番目以降の問題についての$\mathit{MMF}$値を比較して,文脈処理の困難さを過度に主張するという間違った結論を避けることができる.ちなみに,2番目以降の問題について,参照用テストセットと主テストセットの平均$\mathit{MMF}$値の差は有意であることから,文脈処理の不十分さが2番目以降の問題の成績を悪くしていることも確認されている.\begin{figure}[t]\input{03fig3.txt}\caption{参照用テストセットを構成する質問の例}\label{refsamples}\end{figure}\begin{table}[t]\caption{質問の位置による評価(平均$\mathit{MMF}$値)の差}\label{rsmmf}\input{03table4.txt}\end{table}\begin{table}[t]\caption{シリーズの型の違いによる評価(平均$\mathit{MMF}$値)の差}\label{rsseries}\input{03table5.txt}\end{table}同様にシリーズの種類毎にみた上位10システムの平均$\mathit{MMF}$値を表\ref{rsseries}に示す.シリーズをすべての照応表現が最初の質問で導入されたトピックを参照するという厳しい意味での収集型である狭義の収集型,その他の収集型,ブラウジング型に分類したものである.主テストセットではブラウジング型の平均$\mathit{MMF}$値が低いが,参照用テストセットにおいてはそれに対応する質問群について最も高い値が得られている.参照用テストセットにおけるこの違いは,シリーズ先頭の質問が比較的容易なのと同じ理由で,ブラウジング型のシリーズに含まれる様々なトピックに関する個々の質問は比較的容易なものになっていることによるのであろう.比較的簡単な個々の質問もブラウジング型のシリーズとして組織化されると難度の高いものになるということで,ブラウジング型シリーズにおける文脈処理が困難であることを再確認することができる.第2の参照用テストセットの用途のひとつは,それぞれの質問について,その正解を得るために本当に文脈処理が必要かの情報が得られることである.例えば,図\ref{samples}のSeries2-20の第7問に対応するものの平均$\mathit{MF}$値は,ふたつの参照用テストセットの間で殆ど差がなく,その値は主テストセットでの値よりも高い.これは,エベレストで最後に目撃された人間はマロリーの他には多くない(いない)ために,キーワードとしてマロリーがなくても正解を求められるためと思われる.同様の例で,「豊田章一郎氏が会長を務めていた自動車会社はどこですか。」「そこが97年に発売したハイブリッド車は何という名前ですか。」と続くシリーズにおいて,第2の質問に対応するものの$\mathit{MF}$値もふたつの参照用テストセットの間で殆ど差がないが,日本でこの年に発売されたハイブリット車は1車種のみであり,会社名による限定が必要ないためであった.これらの情報は背景となる知識源の内容と関連し,事前に問題を検査して得るのは難しいが,参照用テストセットによって容易に明らかにすることができる.
\section{関連研究}
\label{Sec5}本稿での提案と最も近い取り組みは,TREC2001で行われたContextTaskで,これは質問応答システムの文脈追跡(文脈処理)能力を測定するために一連の質問に回答させるというもので,基本的な目的は本稿の提案と同じである\cite{Voorhees01}.このタスクの実施では,システムがある質問に正解できるかがそれ以前の質問に正解したかに依存しないという「予想に反する」結果が得られている.これは最初の質問によってそのシリーズの質問すべての回答を含んだ少数の記事が同定されてしまい,その後の質問に正解できるかは文脈処理の能力よりも特定のタイプの質問に回答できるかに依存してしまうためであるとされている.このため,このようなタスクは現状では文脈処理能力を測定するのに不適切と判断され,その後のTRECでは実施されていない.このような結果となったひとつの理由は,シリーズを構成する質問の数が3から4と少ないことにあると思われる.IADタスクではひとつのシリーズは7つ程度の質問で構成することを考えている.また,IADタスクでいうところのブラウジング型を含んでいないことも大きな原因であろう.TRECのContextTaskについては,隣り合う質問の回答のうち85\%が同じパラグラフに存在したという報告\cite{Harabagiu01}があるが,NTCIR-4で用いたテストセットでは,隣り合う質問の少なくともひとつの回答が同じ記事(一概に比較できないが段落より大きい単位と言ってよいと考える)内に存在する割合は,収集型でも83\%であったが,ブラウジング型では66\%であった.シリーズ全体を考えれば,ブラウジング型の場合,ニューヨーク・ヤンキーズからキャンベルスープまでを含んだ記事はありえないので,最初の質問に関する処理だけでその後の質問に正解できる記事が得られることはありえない.収集型についても,すべてが狭義の収集型ではないので,そのトピックに関する記事すべてを検索してもそこから正しく回答を選択することは,何らかの文脈処理なしでは困難である.狭義の収集型についても,例えば,「小沢征爾」をキーワードとする記事は知識源中に155件あり,そのうちの22件が彼のウィーンフィルへの移籍を扱っているが,その中で彼の誕生日に言及しているものは2件のみである.また,収集型については,確かにある質問に回答できることと以前の質問への正解率との関係は不明確であるが,狭義の収集型であれば,そこに関係のある必然性はないし,そのことが文脈処理の不必要性の議論につながるとは思えない.加えて重要なことは,このようなタスク設計がレポート作成を目的とした情報アクセス対話という場面設定の状況に近いということであり,そこに現れる状況に対処する技術として必要とされている点である.評価尺度についての$\mathit{MF}$値の提案は,IADタスクに限定されるものではなく,リスト型課題に共通するものである.TRECのQATrackでも,2003年より正解数を指定しないリスト型課題が開始されている\cite{Voorhees03}.評価には単純な$F$値が用いられている.2003年のこの課題の質問は37問とあまり多くなく,``Listthenamesofchewinggums.'',``Whoarefemaleboxers?''等,すべてが事物の列挙を求めるもので,その殆どは,``WhatChineseprovinceshaveaMcDonald'srestaurant?''のように回答のクラスが巧みに指定されており,粒度の問題が生じるような表現,例えば``WhereinChinadoesMcDnaldhavearestaurant?''は避けられている.質問文のみからの判断であるが,問題が出る可能性のあるのはわずかに``Whatfoodscancauseallergicreactioninpeople?''の1問だけである.TRECにしてこのような状況であり,本稿で議論したようなリスト型課題の問題に注目した提案は著者の知る限り全く行われていない.参照用のテストセットという考えについては,これもTREC-9において,同じ正解を意図した表現の異なる質問を多数テストセットに含めるという試みがなされている\cite{Voorhees04}.参照用のテストセットという明確な考えはなく,そこから何が得られたかも明らかにされていないが,より深い分析のための情報を得る試みであったと思われる.この試みはその後続けられていない.一問一答型の質問応答システムも質問解析,文書選択,回答抽出等の複数のモジュールから構成されることを考えると,本稿で提案した参照用テストセットだけで充分な情報が得られるわけではないが,少なくとも情報アクセス対話のための質問応答技術をある程度まで区別する役割を果たしていると考える.対話的な質問応答システムの評価ということでは,テストセットの枠組みに基づかない,より実際に近い状況での実験の報告がある\cite{Liddy04,Kelly06}.これらの実験と本稿で提案したテストセットによる評価は,情報検索技術の評価における検索実験での,現実状況での検証と研究室での検証\cite{Kishida98}とにそれぞれ対応すると考えられる.前者は実際の利用場面により近い環境での評価となり,多種多様な情報が得られるが,それらの情報は複雑かつ非定型で分析も難しく,実験の実施も一般に高価である.一方で後者は,本来の利用場面の複雑さを切り捨て,理想化単純化された状況での能力を測定することになるが,得られるデータの相互比較が比較的容易で,テストセットの再利用が可能なこと等,その実施も安価である.このように,これらにはそれぞれの長所短所があり,相補的な役割を持っていると考えている.
\section{おわりに}
\label{Sec6}あるトピックに関して一連の情報アクセスを対話的に行うという状況で用いられる質問応答システムの能力を定量的に評価するためのタスク,IADタスクを提案した.対話的な情報アクセスを模擬した実験を通じて,数量等を含む名称を正解の範囲とするような質問応答システムがそのような状況で有効であること,そのようなシステムは様々な照応表現を処理できる必要があることを示し,タスクが評価する技術の重要性を示唆した.IADタスクは,対話的情報アクセスを対象として,そこで必要な質問応答技術が効果的に評価できるというその枠組みの独自性に加えて,質問中の参照表現を人手で解消もしくは機械的に削除した参照用テストセットを併用することで,情報アクセス対話におけるシステムの文脈処理能力をある程度まで切り離して評価できる枠組みを持っている.評価尺度についても自然な質問への応答を考えた場合に問題になる事例に配慮して,回答の列挙に複数の体系を許し回答の2種類の質を考慮に入れた多段階評価手法という,リスト型課題一般の評価手法に関する新しい提案を含んでいる.\section*{付録}\begin{figure}[b]\centerline{\includegraphics{15-3ia3f4.eps}}\caption{$\mathit{MMF}$値による評価}\label{mmf1}\end{figure}\begin{figure}[b]\centerline{\includegraphics{15-3ia3f5.eps}}\caption{シリーズの型による$\mathit{MMF}$値の差異}\label{mmf2}\end{figure}提案するIADタスクが最先端の質問応答技術にとって,決して不可能な課題ではなく,同時に既に解決された課題でもないことを示すために,NTCIR-5におけるQAC3での実施において,高い評価を得た3チーム,7システムについてその評価を示す.この実施では「施工ミス」「送電線切断」「墜落炎上」のような事象の複合名詞表現を正解範囲に含んでいたが,その位置づけが不明確なことから,今回の提案ではそれを除いている.その点を除けば,この実施は,本稿で提案しているIADタスクであり,事象の複合名詞表現を正解とする質問は少数であるため,全体の傾向への影響は少ない.図\ref{mmf1}は,テストセット全体,各シリーズの先頭質問,2番目以降の質問について,$\mathit{MMF}$値を示したものである.図\ref{mmf2}は,シリーズを収集型とブラウジング型に分類して,テストセット全体とそれらの$\mathit{MMF}$値を比較している.これらのシステムに用いられている技術については,NTCIR-5でのQAC3実施に関する報告\cite{Kato05b,KatoJ06}に加え,\cite{Murata07,Akiba06,Mori07}に詳しい.\acknowledgmentNTCIR-4のQAC2Subtask3,NTCIR-5のQAC3に参加していただき,貴重なコメントいただきました皆様に感謝します.加えて,qac-jのメイリングリストでの議論に積極的に加わってくださった皆様にも感謝します.また,本稿の中に直接活かすことはできませんでしたが,村田真樹,秋葉友良,森辰則の3氏は,NTCIR-4でのテストセットを用いた再度の実施を快く引き受けてくださいました.御尽力にお礼申し上げます.本研究の一部は,国立情報学研究所との共同研究として支援されています.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Akiba}{Akiba}{2006}]{Akiba06}Akiba,T.\BBOP2006\BBCP.\newblock\BBOQExploitingDynamicPassageRetrievalforSpokenQuestionRecognitionandContextProcessingtowardsSpeech-drivenInformationAccess\BBCQ\\newblockIn{\BemProceedingsofTheInternationalConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\1530--1535}.\bibitem[\protect\BCAY{ARDA}{ARDA}{2007}]{AQUAINT}ARDA.\newblock\BBOQAQUAINTHomePage:AdvancedQuestion\&AnsweringforIntelligence\BBCQ,\Turl{http://\linebreak[2]www.ic-arda.org/\linebreak[2]InfoExploit/\linebreak[2]aquaint/}.\bibitem[\protect\BCAY{Burger,Cardie,et~al.}{Burgeret~al.}{2001}]{Burger01}Burger,J.,Cardie,C.,et.~al.\newblock\BBOQIssues,TasksandProgramStructurestoRoadmapResearchinQuestion\&Answering(Q\&A)\BBCQ,\Turl{http://www-nlpir.nist.gov/\linebreak[2]projrcts/\linebreak[2]duc/\linebreak[2]roadmapping.html}.\bibitem[\protect\BCAY{Fukumoto,Kato,\BBA\Masui}{Fukumotoet~al.}{2003}]{Fukumoto03}Fukumoto,J.,Kato,T.,\BBA\Masui,F.\BBOP2003\BBCP.\newblock\BBOQQuestionAnsweringChallenge(QAC-1)AnEvaluationofQuestionAnsweringTasksattheNTCIRWorkshop3\BBCQ\\newblockIn{\BemAAAI2003SpringSymposiumNewDirectionsinQuestionAnswering},\mbox{\BPGS\122--133}.\bibitem[\protect\BCAY{Harabagiu,Moldovan,et~al.}{Harabagiuet~al.}{2001}]{Harabagiu01}Harabagiu,S.,Moldovan,D.,et.~al\BBOP2001\BBCP.\newblock\BBOQAnsweringcomplex,listandcontextquestionswithLCC'sQuestion-AnsweringServer\BBCQ\\newblockIn{\BemProceedingsofTREC2001}.\bibitem[\protect\BCAY{Hickl,Lehmann,Williams,\BBA\Harabagiu}{Hicklet~al.}{2004}]{Hickl04}Hickl,A.,Lehmann,J.,Williams,J.,\BBA\Harabagiu,S.\BBOP2004\BBCP.\newblock\BBOQExperimentswithInteractiveQuestionAnsweringinComplexScenarios\BBCQ\\newblockIn{\BemProceedingsofHLT-NAACL2004WorkshoponPragmaticsofQuestionAnswering},\mbox{\BPGS\60--69}.\bibitem[\protect\BCAY{加藤\JBA福本\JBA桝井\JBA神門}{加藤\Jetal}{2004a}]{KatoJ04b}加藤恒昭\JBA福本淳一\JBA桝井文人\JBA神門典子\BBOP2004a\BBCP.\newblock\JBOQリスト型質問応答の特徴付けと評価指標\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2004-NL-163},\mbox{\BPGS\115--112}.\bibitem[\protect\BCAY{加藤\JBA福本\JBA桝井\JBA神門}{加藤\Jetal}{2004b}]{KatoJ04a}加藤恒昭\JBA福本淳一\JBA桝井文人\JBA神門典子\BBOP2004b\BBCP.\newblock\JBOQ質問応答技術は情報アクセス対話を実現できるか\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2004-NL-162},\mbox{\BPGS\145--150}.\bibitem[\protect\BCAY{加藤\JBA福本\JBA桝井\JBA神門}{加藤\Jetal}{2006}]{KatoJ06}加藤恒昭\JBA福本淳一\JBA桝井文人\JBA神門典子\BBOP2006\BBCP.\newblock\JBOQ情報アクセス対話に向けた質問応答技術の評価ふたたび—NTCIR-5QAC3での試み—\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2004-NL-172},\mbox{\BPGS\55--62}.\bibitem[\protect\BCAY{Kato,Fukumoto,\BBA\Masui}{Katoet~al.}{2004a}]{Kato05b}Kato,T.,Fukumoto,J.,\BBA\Masui,F.\BBOP2004a\BBCP.\newblock\BBOQAnOverviewofNTCIR-5QAC3\BBCQ\\newblockIn{\BemProceedingsofFifthNTCIRWorkshopMeeting},\mbox{\BPGS\361--372}.\bibitem[\protect\BCAY{Kato,Fukumoto,\BBA\Masui}{Katoet~al.}{2004b}]{Kato04}Kato,T.,Fukumoto,J.,\BBA\Masui,F.\BBOP2004b\BBCP.\newblock\BBOQQuestionAnsweringChallengeforInformationAccessDialogue---OverviewofNTCIR4QAC2Subtask3---\BBCQ\\newblockIn{\BemWorkingnotesontheFourthNTCIRWorkshopMeeting},\mbox{\BPGS\291--296}.\bibitem[\protect\BCAY{Kato,Fukumoto,Masui,\BBA\Kando}{Katoet~al.}{2005}]{Kato05a}Kato,T.,Fukumoto,J.,Masui,F.,\BBA\Kando,N.\BBOP2005\BBCP.\newblock\BBOQAreOpen-domainQuestionAnsweringTechnologiesUsefulforInformationAccessDialogues?---Anempiricalstudyandaproposalofanovelchallenge---\BBCQ\\newblock{\BemACMTALIP(Trans.ofAsianLanguageInformationProcessing)},{\Bbf4}(3),\mbox{\BPGS\243--262}.\bibitem[\protect\BCAY{Kato,Fukumoto,Masui,\BBA\Kando}{Katoet~al.}{2006}]{Kato06}Kato,T.,Fukumoto,J.,Masui,F.,\BBA\Kando,N.\BBOP2006\BBCP.\newblock\BBOQWoZSimulationofInteractiveQuestionAnswering\BBCQ\\newblockIn{\BemProceedingsofHLT-NAACL2006WorkshoponInteractiveQuestionAnswering},\mbox{\BPGS\9--16}.\bibitem[\protect\BCAY{Kelly,Kantor,Morse,et~al.}{Kellyet~al.}{2006}]{Kelly06}Kelly,D.,Kantor,P.,Morse,E.,et.~al\BBOP2006\BBCP.\newblock\BBOQUser-CenteredEvaluationofInteractiveQuestionAnsweringSystems\BBCQ\\newblockIn{\BemProceedingsofHLT-NAACL2006WorkshoponInteractiveQuestionAnswering},\mbox{\BPGS\49--56}.\bibitem[\protect\BCAY{岸田}{岸田}{1998}]{Kishida98}岸田和明\BBOP1998\BBCP.\newblock\Jem{情報検索の理論と技術}.\newblock勁草書房.\bibitem[\protect\BCAY{Liddy,Diekema,\BBA\Yilmazel}{Liddyet~al.}{2004}]{Liddy04}Liddy,E.~D.,Diekema,A.~R.,\BBA\Yilmazel,O.\BBOP2004\BBCP.\newblock\BBOQContext-BasedQuestion-AnsweringEvaluation\BBCQ\\newblockIn{\BemProceedingsofthe27thAnnualInternationalACMSIGIRConference},\mbox{\BPGS\508--509}.\bibitem[\protect\BCAY{Mani,House,et~al.}{Maniet~al.}{1998}]{Mani98}Mani,I.,House,D.,et.~al\BBOP1998\BBCP.\newblock\BBOQTheTIPSERSUMMACtextsummarizationevaluationfinalreport\BBCQ\\newblock\BTR\MTR98W0000138,TheMITRECorporation.\bibitem[\protect\BCAY{Mori,Kawaguchi,\BBA\Ishioroshi}{Moriet~al.}{2007}]{Mori07}Mori,T.,Kawaguchi,S.,\BBA\Ishioroshi,M.\BBOP2007\BBCP.\newblock\BBOQAnsweringContextualQuestionsBasedontheCohesionwithKnowledge\BBCQ\\newblock{\BemInternationalJournalofComputerProcessingofOrientalLanguages(IJCPOL)},{\Bbf20}(2\&3),\mbox{\BPGS\115--135}.\bibitem[\protect\BCAY{NII}{NII}{2007}]{NTCIR}NII.\newblock\BBOQNTCIR(NII-NACSISTestCollectionforIRSystems)ProjectHomePage\BBCQ,\Turl{http://\linebreak[2]research.nii.ac.jp/\linebreak[2]ntcir/\linebreak[2]index-ja.html}.\bibitem[\protect\BCAY{NIST}{NIST}{2007}]{TREC}NIST.\newblock\BBOQTRECHomePage\BBCQ,\Turl{http://\linebreak[2]trec.nist.gov/}.\bibitem[\protect\BCAY{小川\JBA佐々木\JBA増山\JBA村田\JBA吉岡}{小川\Jetal}{2002}]{Ogawa02}小川泰嗣\JBA佐々木裕\JBA増山繁\JBA村田真樹\JBA吉岡真治\BBOP2002\BBCP.\newblock\JBOQ参加者から見たNTCIR\JBCQ\\newblock\Jem{人工知能学会誌},{\Bbf17}(3),\mbox{\BPGS\306--311}.\bibitem[\protect\BCAY{関根\JBA影浦\JBA奥村\JBA乾}{関根\Jetal}{2005}]{Sekine05}関根聡\JBA影浦峡\JBA奥村学\JBA乾健太郎\BBOP2005\BBCP.\newblock\JBOQ研究の場としての評価型ワークショップになるために\JBCQ\\newblock\Jem{言語処理学会第11回年次大会併設ワークショップ「評価型ワークショップを考える」}.\bibitem[\protect\BCAY{Small,Shimizu,et~al.}{Smallet~al.}{2003}]{Small03}Small,S.,Shimizu,N.,et.~al\BBOP2003\BBCP.\newblock\BBOQHITIQA:ADataDrivenApproachtoInteractiveQuestionAnswering:APreliminaryReport\BBCQ\\newblockIn{\BemAAAI2003SpringSymposiumNewDirectionsinQuestionAnswering},\mbox{\BPGS\94--104}.\bibitem[\protect\BCAY{Voorhees}{Voorhees}{2001}]{Voorhees01}Voorhees,E.~M.\BBOP2001\BBCP.\newblock\BBOQOverviewoftheTREC2001QuestionAnsweringTrack\BBCQ\\newblockIn{\BemProceedingsofTREC2001}.\bibitem[\protect\BCAY{Voorhees}{Voorhees}{2003}]{Voorhees03}Voorhees,E.~M.\BBOP2003\BBCP.\newblock\BBOQOverviewoftheTREC2003QuestionAnsweringTrack\BBCQ\\newblockIn{\BemProceedingsofTREC2003},\mbox{\BPGS\14--27}.\bibitem[\protect\BCAY{Voorhees}{Voorhees}{2004}]{Voorhees04}Voorhees,E.~M.\BBOP2004\BBCP.\newblock\BBOQOverviewoftheTREC2004QuestionAnsweringTrack\BBCQ\\newblockIn{\BemProceedingsofTREC2004}.\bibitem[\protect\BCAY{Voorhees}{Voorhees}{2005}]{Voorhees05}Voorhees,E.~M.\BBOP2005\BBCP.\newblock\BBOQQuestionAnsweringinTREC\BBCQ\\newblockInVoorhees,E.~M.\BBACOMMA\\BBA\Harman,D.~K.\BEDS,{\BemTRECExperimentandEvaluationinInformationRetrieval}.TheMITPress.\bibitem[\protect\BCAY{Voorhees\BBA\Tice}{Voorhees\BBA\Tice}{2000}]{Voorhees00}Voorhees,E.~M.\BBACOMMA\\BBA\Tice,D.~M.\BBOP2000\BBCP.\newblock\BBOQBuildingaQuestionAnsweringTestCollection\BBCQ\\newblockIn{\BemProceedingsofthe23rdAnnualInternationalACMSIGIRConference},\mbox{\BPGS\200--207}.\bibitem[\protect\BCAY{村田\JBA内山\JBA白土\JBA井佐原}{村田\Jetal}{2007}]{Murata07}村田真樹\JBA内山将夫\JBA白土保\JBA井佐原均\BBOP2007\BBCP.\newblock\JBOQシリーズ型質問文に対して単純結合法を利用した逓減的加点質問応答システ厶\JBCQ\\newblock\Jem{システム制御情報学会論文誌},{\Bbf20}(8),\mbox{\BPGS\338--346}.\end{thebibliography}\begin{biography}\bioauthor{加藤恒昭}{1983年東京工業大学大学院総合理工学研究科修士課程修了.同年,日本電信電話公社(現NTT)に入社.2000年東京大学大学院総合文化研究科言語情報科学専攻准教授,現在に至る.1993年米国ロチェスター大学客員研究員.2005年米国USC/ISI客員研究員.博士(工学).質問応答,情報編纂,語彙意味論に関する研究に従事.}\bioauthor{福本淳一}{1986年広島大学大学院工学研究科博士前期課程修了.同年,沖電気工業(株)に入社.1992--94年英国マンチェスター科学技術大学Ph.~D.コース.2000年立命館大理工学部助教授.2004年米国USC/ISI客員研究員.2006年立命館大情報理工学部教授,現在に至る.Ph.~D.質問応答システム,情報抽出,談話構造解析の研究に従事.}\bioauthor{桝井文人}{1990年岡山大学理学部・地学科卒業.同年,沖電気工業(株)に入社.2000年三重大学工学部情報工学助手.2004--05年北海道大学情報科学研究科研究員.現在,三重大学大学院工学研究科助教.博士(工学).自然言語処理,教育工学,設備保全などの研究に興味を持つ.}\bioauthor{神門典子}{1994年慶応義塾大学文学研究科博士課程修了.博士(図書館・情報学).同年学術情報センター助手.米国シラキウス大学情報学部,デンマーク王立図書館情報大学客員研究員を経て,1998年学術情報センター助教授.2000年国立情報学研究所助教授.2004年同教授.現在に至る.テキスト構造を用いた検索と情報活用支援,言語横断検索,情報検索システムの評価等の研究に従事.}\end{biography}\biodate\end{document}
| |
V09N03-06 | \section{はじめに}
インターネットの急速な普及により,ユーザが閲覧可能なコンテンツは,爆発的に増大している.そのようなコンテンツを検索するために,yahoo!やinfoseekなど,いくつもの検索エンジンが登場してきている.そうした検索エンジンでは,ユーザがキーワードや文字列を論理式で与えることによって,検索を実行するのが一般的である.しかしながら,特に初心者ユーザにとっては,そうした検索エンジンへの条件の与え方がまだ十分に使いやすいものではなく,自然言語による対話を用いて検索を行ないたいという需要がある.情報検索対話に自然言語を用いる利点は,以下が挙げられる.\begin{itemize}\item自然言語は,ユーザにとって最も親しみやすく,自然なコミュニケーション手段である.なお,大語彙連続音声認識技術の向上により,キーボード入力を行なう負荷も軽減してきている.\item自然言語の修飾関係を利用することで,論理式よりも精度の高い検索を行なえる可能性がある.\itemいわゆる「パラフレーズ(表現の言い換え)」を行なうことにより,ユーザが思いついた表現が所望するコンテンツに含まれていない場合にも,その表現を検索結果に利用できる可能性がある.\item対話戦略などに当たるキーワード(例えば,旅行における出張など)に対し,キーワードとは異なる検索条件(出張では,例えば,宿泊料金をXXXX円以下とする)や応答内容(コンテンツのtitle(宿泊施設名)だけでなく,料金や立地条件)に展開することで,効率的に対話を進められる可能性がある.\end{itemize}しかしながら,情報検索というタスクに対して,現状の自然言語処理技術では,自然言語を用いた万能の検索対話を実現することは現状では困難である.また,上記のように有効な対話戦略はいくつか存在するが,そうした対話戦略を導入することにより,ユーザが対話システムに過度の対話能力を期待し,ユーザが期待する対話能力を対話システムが実現できていないことで,ユーザが混乱し,結果的に対話システムを過小評価する場合も少なくない.\bigskip一方,近年の(自然言語)対話システムでは,音声認識・合成技術や画像処理技術の向上により,より人間に近い振舞い(音声,顔の表情,感情など)を導入した「擬人化エージェント」を計算機とユーザとのインタフェースとして用いる研究が盛んになってきている(例えば,\cite{tosburg,nagao,densouken,toyohasi}など).上記の対話システムで擬人化エージェントを導入した主目的は,擬人化エージェントを導入することで,より自然なインタラクションを実現することであると考えられるが,対話の相手である擬人化エージェントは,通常ひとつ(ひとり)である.しかしながら,現実の世界での人間を対象とした情報検索においては,例えば,「○○の技術については,××の部署が担当しているが,その中でも△△氏が詳しいので,△△氏に聞こう」とか,「車を購入するのにどれにしようか迷っている.それぞれのディーラーの担当者に同じ条件を与えて,一番良い回答を出した車種にしよう」などということを知らず知らずのうちに行なっているものである.\bigskipそこで本稿では,ユーザが情報検索システムとの対話を行なう「窓口」を,情報提供者サイドが予め設定した異なる属性により異なる振る舞いを行なう「対話エージェント」として多数用意し,ユーザが対話エージェントを選択・切り替えることで,効率的な情報検索を実現する対話モデルを採用した.すなわち,現状の自然言語処理技術で解決できる(特定の用途に対しては効率的な方策を実現しているが,汎用的には実現できていない)能力を複数の「対話エージェント」(賢い対話エージェントもいるし,馬鹿な対話エージェントもいる)というアナロジーによって,ユーザに違和感なく受け入れさせ,ユーザに対話エージェントを使い分けさせることで,自然言語を用いた効率的な情報検索対話を実現することを目的とする.なお,本稿で述べる「対話エージェント」は,他の対話システムで実現されている擬人化エージェントのように,書き下された文字列以外のモダリティを保持していないが,情報検索に対して,個々の局面で異なる知識を保持した「個々の対話の相手」を示すアイコンとして複数用意し,ユーザが対話エージェントを使い分けることで,より効率的な情報検索の対話を実現することを試みた.ただし,本稿の対話エージェントでは,エージェント間での協調や交渉といった相互作用については,技術的に導入が可能であったが,本稿の主張と現状のマルチエージェントモデルの差異がわかりにくくなると判断し,導入していない.本稿では,まず,\ref{sec:curnld}章において,自然言語を用いた現状の情報検索対話の例を挙げ,現状の問題点について指摘する.次に\ref{sec:multia}章では,本稿で提案する複数の「対話エージェント」を導入した対話モデルについて説明し,\ref{sec:daev}章では,複数の対話エージェントを導入した対話モデルの評価について述べる.
\section{自然言語を用いた情報検索の対話例と問題点}
label{sec:curnld}\subsection{単一ドメイン(旅行)に関する情報検索対話の例}我々は,旅行に関する約8万件のモデル化文書を格納した2枚の市販の電子ブック\cite{tabigura,jtb}を対象とした音声対話情報検索システムTARSANを作成した\cite{tarsan}.TARSANでは,モデル化文書を項目に分割して全文検索を行ない,特に「地名」項目に注目して,効率的に適合文書を絞り込み,その適合文書の特定の項目を提示する音声検索対話を実現した.TARSANで実現した対話例を表~\ref{tab:travel}に示す.\begin{table}[htp]\caption{旅行をドメインとする対話例}\label{tab:travel}\bigskip\centering\tt\begin{tabular}{lp{120mm}}\hline\hlineusr1:&温泉について調べたい。\rule{0pt}{10pt}\\sys1:&何か条件を指定してください。\\usr2:&効能が神経痛です。\\sys2:&場所を指定してください。\\usr3:&東北地方。\\sys3:&福島県に80件,青森県に51件,山形県に41件,秋田県に39件など,合計で257件あります。\\usr4:&宮城県では。\\sys4:&仙台市に8件,鳴子町に4件,宮城県川崎町に3件,花山村に3件など,合計で23件あります。\\usr5:&仙台市では。\\sys5:&秋保温泉,神ヶ根温泉,作並温泉,広瀬川温泉など,8件あります。\\usr6:&作並温泉の行き方は。\\sys6:&作並温泉の行き方は作並駅バス5分です。\\\hline\hline\end{tabular}\end{table}このように,実用規模のテキストデータからユーザの検索条件に合致するものを絞り込む対話では,ユーザは検索条件の追加や変更を繰り返すことで目的とする文書にたどりつく({\ttusr2$\sim$5}).このような対話を効率的に行なうには,システムが主導に立って対話の流れを制御し,1)検索条件が不十分な場合にはユーザに入力を要求したり({\ttsys1,2}),2)ユーザが次に検索条件を追加/変更するための付加的な情報を提示したり({\ttsys3,4})することが効率的である.TARSANで実現した「旅行」をドメインとする対話では,「地名」という特殊な検索条件に注目し,これを利用することで,効率的な対話を実現した.すなわち,地名を必須条件とし,地名の階層構造を用いて検索結果をグループ化する処理を行なうことにより,表\ref{tab:travel}に示したような対話を実現した.\subsection{複数ドメインに関する情報検索対話の例}TARSANにおける対話は,旅行という単一のドメインに限定したものであった.そこで,TARSANで手続き的に実現した「対話の流れを制御するために用いる項目(以下,{\bf対話項目}と呼ぶ)」を宣言的に記述できるようにすることで,複数のドメインを対象とするよう拡張した.以下では,旅行ドメインにおける「地名」の役割を分析し,他のドメインに適用する手法について説明する.\subsubsection{ドメインの決定}単一ドメイン(旅行)に関する情報検索の対話を複数のドメインに適用するにあたり,問題となるのは,異なるドメインにおいては異なる意味で用いられる多義語である.しかし,当面の目標として,旅行というドメインで確立した手法を他のドメインに適用することとしたので,旅行以外のドメインとして,互いの関連性が少ない,「プロ野球\cite{baseball}」と「映画\cite{cinema}」を選んだ.そして,表\ref{tab:genre}に示す{\bfジャンル名}がユーザの質問文に現れた場合に,その{\bfジャンル名}が属するドメインに決定する.\begin{table}[th]\caption{ドメインごとのジャンル名の例}\label{tab:genre}\bigskip\centering\begin{tabular}{c|l}\hline\hline{\bfドメイン}&\multicolumn{1}{c}{\bfジャンル名}\\\hline旅行&温泉,神社・仏閣,博物館,美術館,動・植物園,城,庭園,ゴルフ場...\\プロ野球&選手・監督,球団,球場,歴代優勝球団...\\映画&洋画,邦画\\\hline\hline\end{tabular}\end{table}\subsubsection{各対話項目の説明}\label{sec:ditem}これまでに述べたような検索対話を一般化するために,TARSANの対話で果たした地名項目の役割を以下に示すデフォルト対象項目,必須条件項目,シソーラス項目,優先条件項目という四つの「対話項目」に分類し,ジャンルごとにそれぞれの宣言的に指定できるようにした.また,これらの対話項目を参照して,対話の流れを制御する機能を実現した.表\ref{tab:ditem}に,各ドメインにおける典型的なジャンルごとの対話項目の例を示し,以下で,各対話項目について説明する.\begin{table}[th]\caption{ジャンルごとの対話項目の例}\label{tab:ditem}\bigskip\centering\begin{tabular}{c|l|l|l|l}\hline\hline&\multicolumn{1}{c|}{\bf温泉}&\multicolumn{1}{c|}{\bf選手・監督}&\multicolumn{1}{c|}{\bf洋画}&\multicolumn{1}{c}{\bf…}\rule{0pt}{10pt}\\\hline{\bfデフォルト対象項目}&名称,読み方,地名&名称,読み方,所属球団&名称&\rule{0pt}{10pt}\\{\bf必須条件項目}&地名&---&---&\\{\bfシソーラス項目}&地名&所属球団&---&\\{\bf優先条件項目}&効能&所属球団&キャスト&\\\hline\hline\end{tabular}\end{table}\begin{description}\item[デフォルト対象項目:]ユーザが検索対象項目を明示しない場合に,システムがユーザに提示する項目.モデル化文書のラベルである「名称」項目は必ずデフォルト対象項目とする.また,後述する「シソーラス項目」をデフォルト対象項目として指定すると,検索結果が多い場合,検索条件として与えたシソーラス項目のひとつ下の階層の項目値で検索結果のグルーピングを行なう(表~\ref{tab:travel}{\ttsys3,4}).\item[必須条件項目:]ユーザによる指定を必須とする条件項目.ここで指定された必須条件がユーザによって指定されていない場合には,システムがいわゆる「問い返し」によってユーザに指定を要求する(表~\ref{tab:travel}{\ttsys2}).\item[シソーラス項目:]項目値をグループ化するための階層情報(シソーラス)をシステムが保持している項目であり,ユーザがこの項目を検索条件として指定した場合に,この情報を利用すると,その後の絞込みに有益な項目である.例えば,旅行の所在地項目には,「都道府県」,「市町村」という階層が存在するが,検索条件として,都道府県名が与えられ,検索結果が多い場合には,市町村でグルーピングを行ない,応答文を生成する.また,実際のデータのテキスト中に存在しない階層(例えば,旅行の所在地項目では,都道府県をいくつかにグルーピングした「東海地方」などの地方名,プロ野球の所属球団をグルーピングした「リーグ名」など)も,システムがシソーラス項目として仮想的な階層情報を保持しており,ユーザからそうした実際のデータのテキスト中に存在しない階層を検索条件として指定された場合にも,実際のテキスト中に存在する項目値に展開して検索を行ない(例えば,プロ野球で,「セリーグ」と指定された場合には.現在の6球団と「大洋」,「国鉄」の8球団に展開する),応答文に関して,上記と同様のグルーピングを行なう.\item[優先条件項目:]ユーザが明示的に変更しない限り,検索条件として付与する項目.対話外からも指定できるだけでなく,ジャンル名を含む文で指定された検索条件も優先条件項目とする.優先条件項目以外の条件項目は,それ以外の条件を変更した場合に残すかどうかをシステムが確認するが,優先条件項目は,それ以外の検索条件を変更した場合に確認しない.\end{description}以上の対話項目を2種類のドメイン(プロ野球\cite{baseball},映画\cite{cinema})について作成した.プロ野球,映画をドメインとする対話例を表\ref{tab:baseball},\ref{tab:cinema}に示す.\begin{table}[thp]\caption{プロ野球をドメインとする対話例}\label{tab:baseball}\bigskip\centering\tt\begin{tabular}{lp{120mm}}\hline\hlineusr1:&阪神の選手を知りたい。\rule{0pt}{12pt}\\sys1:&相羽欣厚(1943〜1988),亀山努(1969〜),田淵幸一(1946〜),藤本勝巳(1937〜)など,310人います。\\usr2:&ポジションがサードでは。\\sys2:&朝井茂治(1941〜),掛布雅之(1955〜),西園寺昭夫(1937〜),三宅秀史(1934〜)など,23人います。\\usr3:&掛布のタイトルを示せ。\\sys3:&掛布のタイトルは本塁打王3回('79,'82,'84)打点王1回('82)です。\\usr4:&PL学園を卒業した選手を知りたい。\\sys4:&広島に8人,ダイエーに5人,巨人に4人,阪神に4人など,合計で39人います。\\usr5:&所属球団が巨人では。\\sys5:&加藤英司(1948〜),桑田真澄(1968〜),橋本清(1969〜),吉村禎章(1963〜)です。\\usr6:&沢村賞を受賞した選手を教えて。\\sys6:&巨人に13人,中日に7人,阪神に6人,広島に4人など,合計で29人\footnotemarkいます。\\usr7:&所属球団がヤクルトでは。\\sys7:&松岡弘(1947〜)です。\\\hline\hline\\\addtocounter{footnote}{-1}&\footnotemark{\footnotesize移籍した選手は所属したすべての球団でカウントしているため,球団別の``のべ人数''より少ない.}\end{tabular}\end{table}\begin{table}[thp]\caption{映画をドメインとする対話例}\label{tab:cinema}\bigskip\centering\tt\begin{tabular}{lp{120mm}}\hline\hlineusr1:&洋画について検索したい。\rule{0pt}{12pt}\\sys1:&何か条件を指定して下さい。\\usr3:&どんな条件がありますか。\\sys3:&製作年,原題,解説,評価,名称,上映時間,受賞,スタッフ,キャスト,発売会社があります。\\usr3:&キャストがハリソン・フォードです。\\sys3:&インディ・ジョーンズ魔宮の伝説,幸福の旅路,ナバロンの嵐,ブレードランナーなど,16件あります。\\usr4:&ブレードランナーのスタッフは。\\sys4:&ブレードランナーのスタッフは監督:リドリー・スコット原作:フィリップ・K・ディック脚本:ハンプトン・ファンチャー/デビッド・ピープルズ音楽:バンゲリスSFX:ダグラス・トランブルです。\\usr5:&評価が★★★★である邦画を調べてほしい。\\sys5:&赤西蛎太,祇園の姉妹,すっ飛び駕,麦秋など,46件あります。\\usr6:&監督が黒澤明では。\\sys6:&赤ひげ,七人の侍,用心棒,羅生門など,8件あります。\\usr7:&羅生門の上映時間は。\\sys7:&羅生門の上映時間は87mins.です。\\\hline\hline\end{tabular}\end{table}\subsection{複数ドメインを扱う自然言語処理対話の問題点}\label{ssec:issue}前節で述べたように,複数のドメインを検索できるようにした予備実験システムを作成し,それを用いて対話収集および使用感についてのアンケートを行なったところ,以下の問題点が判明した.\begin{enumerate}\item複数のドメインにまたがる情報を一回の入力文で得られるとユーザが誤解する.複数のドメインにまたがる入力文の例を以下に示す.\begin{description}\item[例1:]「山口百恵が主演した映画にちなんだ温泉を知りたい。」\item[例2:]「プロ野球選手だった俳優が出演した邦画を教えて。」\end{description}最初の例は映画ドメインと旅行ドメインにまたがり,二番目の例は野球ドメインと映画ドメインにまたがっている.\item特定の用途に対して効率的な対話戦略(対話の進め方)をシステムが行なうと,ユーザはシステムが万能の対話戦略を保持していると誤解する.仮に一つの対話エージェントが複数の対話戦略を保持している場合---特にある対話戦略は効率的であるが用途が限られており,別の対話戦略はいろんな用途に適用できるが,あまり効率的でないような場合---には,ユーザは対話戦略間の格差に戸惑い,不快に感じる.\item現状のシステムが指示照応などの対話処理に関して十分な能力を持っていないために,システムの能力に合わせた入力をユーザが行わないと,ユーザは適切な応答が得られない.\\表\ref{tab:compare}は,複数の候補に対する検索条件を単一の文脈でユーザが比較した対話例である.この対話例では,ユーザが箱根と日光の情報を比較しようとして,うまく対話を進めているが,非常に煩雑であり,対話システムの能力を知らずに,このように円滑な検索対話を行なえるユーザは少ない.\end{enumerate}\begin{table}[htp]\caption{複数の候補に対する検索条件を単一の文脈でユーザが比較する対話の例}\label{tab:compare}\bigskip\centering\tt\begin{tabular}{ll}\hline\hlineusr1:&箱根にある温泉を教えて。\\sys1:&16件あります。\\usr2:&日光では。\\sys2:&中禅寺温泉,日光湯本温泉があります。\\usr3:&箱根には寺院がありますか。\\sys3:&阿弥陀寺,九頭竜明神,早雲寺など,7件あります。\\usr4:&日光では。\\sys4:&日光東照宮があります。\\usr5:&その説明を聞きたい。\\sys5:&徳川家康を崇る...\\\hline\hline\end{tabular}\end{table}
\section{複数の対話エージェントの導入した対話モデル}
label{sec:multia}前章で述べた三つの問題点は,ユーザとの対応をシステムが一つの「対話エージェント(対話の窓口)」しか保持していないことに起因すると仮定した.すなわち,対話エージェントが唯一であると,その対話エージェントがユーザとの対話のすべてを扱うことになり,このことでシステムに何ができて何ができないかをユーザにわかりにくくしていると考えられる.そこで,システムの能力をユーザにわかりやすくするために,複数の対話エージェントを擁する対話モデルを提案する.このように複数の対話エージェントを用いることで,ユーザはシステムにできることとできないことがわかりやすくなる.\subsection{個々の対話エージェントが保持する情報}本対話モデルにおける各対話エージェントは,図\ref{fig:eachagent}に示す以下の五つの情報を保持する.\begin{description}\item[一般検索知識:]情報検索の自然言語対話を行なうための汎用的な知識であり,全対話エージェントに共通のもの\item[ドメイン知識:]個々の対話エージェントが扱うドメインにおけるジャンル名や個々のジャンルに属する項目などの知識\item[対話戦略:]\ref{sec:ditem}節で述べた個々のジャンルの対話項目\item[文脈情報:]個々の対話エージェントがユーザと対話を行なった検索履歴\item[待遇判定情報:]各対話エージェントが,その個性(他の対話エージェントと異なることをアピールする属性)を決定する情報\cite{taiguu}\end{description}以下では,個々の対話エージェントが,上記のドメイン知識,対話戦略,文脈をそれぞれに保持することで変化する対話について説明する.\begin{figure}[hp]\begin{center}\epsfile{file=eagent.eps,height=130pt}\end{center}\caption{各対話エージェントが保持する情報}\label{fig:eachagent}\end{figure}\subsection{ドメインごとに割り当てる対話エージェント}\ref{ssec:issue}節で述べた最初の問題点を解決するために,検索を行なう対話エージェントを異なるドメインごとに用意した.このような対話エージェントをドメインエージェントと呼ぶ.ドメインエージェントのイメージを図\ref{fig:agentD}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=agentD.eps,height=180pt}\end{center}\caption{ドメインエージェント}\label{fig:agentD}\end{figure}ドメインエージェントは,各ドメインにおいて初歩的な対話戦略を保持し,ユーザとシステム間のやりとりが可能な対話エージェントである.ユーザがそれまで対話しているドメインと異なるドメインに関する入力を行った場合には,その異なるドメインに割り当てられたドメインエージェントが応答を行なう.したがって,こうしたドメインエージェントを用意することで,ユーザは自分と対話している対話エージェントがドメインにまたがる質問を受理できないと気づき,ドメインにまたがる質問を行わないようになることが期待される.\ref{ssec:issue}節の例1に対するドメインエージェントを導入した例を表\ref{tab:d-agent}に示す.この例では,ユーザが入力した質問文に対して,映画に関するドメインエージェント({\ttC.agt})と旅行に関するドメインエージェント({\ttT.agt})がそれぞれ,自分が可能な応答を行なっている.このように,ドメインエージェントを用いることで,システムが異なるドメインにまたがる質問を受理できないことがユーザに理解されると期待する.\begin{table}[ht]\caption{ドメインエージェントを導入した対話例}\label{tab:d-agent}\bigskip\centering\tt\begin{tabular}{ll}\hline\hlineusr:&山口百恵が主演した邦画にちなんだ温泉を知りたい。\\C.agt:&山口百恵が主演した邦画は,伊豆の踊り子,春琴抄など,13件あります。\\T.agt:&説明が邦画である温泉はありません。\\usr:&伊豆の踊子にちなんだ温泉を知りたい。\\C.agt:&別の言い方をしてください。\\T.agt:&場所を指定してください。\\usr:&日本全国。\\C.agt:&別の言い方をしてください。\\T.agt:&湯ケ野温泉です。\\\hline\hline\end{tabular}\end{table}\subsection{対話戦略ごとに割り当てる対話エージェント}\label{sec:strategy}\ref{ssec:issue}節で述べた二番目の問題点を解決するために,情報検索に関する特定の対話戦略ごとに割り当てた対話エージェント,--対話戦略エージェント--を用意した.対話戦略エージェントのイメージを図\ref{fig:agentS}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=agentS.eps,height=180pt}\end{center}\caption{対話戦略エージェント}\label{fig:agentS}\end{figure}対話戦略エージェントは,単一のドメインにおいて,情報提供者側が用意した対話戦略ごとに定義される.本稿の実験システムでは,旅行のドメインに対して,以下の二種類の対話戦略エージェントを用意した.\begin{quote}\begin{description}\item[出張エージェント:]必須条件を目的地とし,付加条件を宿泊料と立地条件とする.付加条件がユーザに指定されない場合,出張エージェントはあらかじめ定義された付加条件の値をユーザに提案する.また,デフォルトの結果項目として出張エージェントが応答する項目はホテルの名前とその電話番号である.\item[リクレーションエージェント:]必須条件はレジャー施設と参加人数であり,それ以外の項目はオプショナルである.ユーザがオプショナルの項目を指定しない場合,リクレーションエージェントがあらかじめ定義された値をユーザに提案する.デフォルトの結果項目としてレクレーションエージェントが応答する項目は出張エージェントと同様,ホテルの名前とその電話番号である.\end{description}\end{quote}対話戦略エージェントは,ユーザがシステムを容易に使えるようにするだけでなく,単一ドメインにおいても,タスクに応じていろんな対話戦略が存在することをユーザに気づかせることができる.旅行ドメインのドメインエージェントと,出張エージェントを用いた対話の比較を表\ref{tab:s-agent}に示す.表\ref{tab:s-agent}からわかるように,ユーザは対話戦略エージェントを用いることによって,容易に自分の目標を達成できている.\begin{table}[ht]\caption{ドメインエージェントを用いた対話と対話戦略エージェントを用いた対話の比較}\label{tab:s-agent}\bigskip\centering\tt\begin{tabular}[t]{lp{50mm}}\multicolumn{2}{c}{旅行ドメインのドメインエージェント}\\\hline\hlineagt0:&はい,旅行エージェントです。\\usr1:&鳥取市にあるホテルを知りたい。\\agt1:&34件あります。\\usr2:&駅前にあるホテルは。\\agt2:&8件あります。\\usr3:&宿泊料が8000円以下では。\\agt3:&他の条件,「立地条件が駅前」,を残しますか。\\usr4:&はい。\\agt4:&AAAホテル,ホテルBBBです。\\usr5:&その電話番号を教えて。\\agt5:&AAAホテルの電話番号はXXX-XXXX,ホテルBBBの電話番号はYYY-YYYYです。\\\hline\hline\end{tabular}\begin{tabular}[t]{lp{50mm}}\multicolumn{2}{c}{出張エージェント}\\\hline\hlineagt0:&はい,出張エージェントです。どちらに出張なさいますか。\\usr1:&鳥取市です。\\agt1:&立地条件は駅前,宿泊料は8000円以下でよろしいですか。\\usr2:&はい。\\agt2:&2件あります。AAAホテルの電話番号はXXX-XXXX,ホテルBBBの電話番号はYYY-YYYYです。\\\hline\hline\end{tabular}\end{table}\subsection{文脈ごとに割り当てる対話エージェント}\ref{ssec:issue}節で述べた最後の問題点を解決するために,一連の検索条件ごとに同一の対話戦略を持つ複数の対話エージェント--文脈エージェント--を利用できるようにした.文脈エージェントを用いると,ユーザは同一の対話戦略を用いて異なる検索条件で一度に検索することができるようになる.文脈エージェントのイメージを図\ref{fig:agentS}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=agentC.eps,height=180pt}\end{center}\caption{文脈エージェント}\label{fig:agentC}\end{figure}典型的な検索条件,例えば,旅行ドメインにおける有名な観光地やプロ野球ドメインにおける人気球団などは,それらの検索条件を予め与えた文脈エージェントを用意している.また,ユーザが対話の課程で別々の検索条件を割り当てた対話エージェントを文脈エージェントとして扱うこともできる.所在地の検索条件に「箱根」と「日光」を予めそれぞれ割り当てた二つの文脈エージェントを用いた対話例を表\ref{tab:c-agent}に示す.表\ref{tab:compare}と表\ref{tab:c-agent}を比較するとわかるように,ユーザは複数の文脈エージェントを用いることによって,自分が比べたいと思っている候補を容易に比較できている.\begin{table}[htp]\bigskip\centering\tt\caption{二つの文脈エージェントを用いた対話例}\label{tab:c-agent}\begin{tabular}[t]{lp{120mm}}\hline\hline\multicolumn{2}{l}{(箱根エージェントと日光エージェントに対して)}\\usr1:&温泉を知りたい。\\H.agt1:&16件あります。\\N.agt1:&中禅寺温泉,日光湯元温泉です。\\usr2:&寺院はありますか。\\H.agt2:&阿弥陀寺,九頭竜明神,鎖雲寺,正眼寺など,7件あります。\\N.agt2:&大猷院霊廟,日光山輪王寺,日光東照宮,湯元温泉寺など,8件あります。\\\multicolumn{2}{l}{(日光エージェントに対して)}\\usr3:&日光東照宮の説明を聞きたい。\\N.agt3:&日光東照宮の説明は徳川家康の霊を崇る。陽明門に代表される華やかな建築物は,神仏混合の様式で他に類をみない。です。\\\hline\hline\end{tabular}\end{table}
\section{複数の対話エージェントの導入した対話モデルの評価}
label{sec:daev}本章では対話エージェント導入の効果の評価実験について述べる.\subsection{複数の対話エージェントを導入した検索システム--MultiTARSAN--}今回提案した複数の対話エージェントを導入した対話モデルとを検証するための実験システム-MultiTARSAN-を作成した.\subsubsection{実行画面}MultiTARSANの実行画面を図\ref{fig:main-w}に示す.技術的には3つ以上の対話エージェントを同時に表示し,選択させることも可能であるが,今回の実験システムでは,レイアウトの都合上,2つまでの対話エージェントとの対話を同時に可能とした.各対話エージェントには,3つのドメイン(旅行,プロ野球情報,映画情報)ごとに,エージェント切替えメニューとエージェントアイコンおよび対話ログを持つ.エージェント切替えメニューにより,各ドメインにおける戦略および文脈エージェントの切替えを行なう.エージェントを切り替えると,エージェントアイコンがそのエージェントのものに切り替わり,そのドメインがアクティブになる.なお,アクティブになっているエージェントアイコンを押すと,そのエージェントはアクティブでなくなる.また,アクティブになってないエージェントアイコンを押すと,そのエージェントがアクティブになるとともに,他のドメインでアクティブになっているエージェントがあれば,アクティブになっているエージェントはアクティブでなくなる.なお,図\ref{fig:main-w}は,システム立ち上げ後,ユーザがエージェント1として一般旅行エージェントアイコンを押すことで,一般旅行エージェントがアクティブになったところを示している.ユーザが入力文を入力すると,アクティブになっているエージェントに入力文が送られる.すなわち,エージェント1で一般映画エージェント,エージェント2で一般旅行エージェントをアクティブにすると表7のような対話を行なうことができ,エージェント1で一般旅行エージェント,エージェント2で出張エージェントをアクティブにすると表8のような対話を行なうことができる.また,エージェント1と2で同じエージェントを選択すると,対話履歴は別々に保持され,独立した対話を行なうことができる.したがって,エージェント1と2の両方で一般旅行エージェントを選び,それぞれに,所在地として箱根と日光を与えると,表9のような対話を行なうことができる.なお,実際の導入前の対話システムは,旅行,プロ野球,映画という3つのドメインに対して,唯一の対話エージェントがユーザと対話を行なうものであったが,便宜上,MultiTARSANで,エージェント1のみを用い,対話エージェントを一般旅行エージェントに固定したものを導入前のシステムと等価であるとして,以下の実験を行なった.\begin{figure}[htbp]\begin{center}\epsfile{file=main-w.eps,height=300pt}\end{center}\caption{MultiTARSANの実行画面}\label{fig:main-w}\end{figure}\subsection{対話エージェントの導入効果の評価実験}複数の対話エージェントを導入したシステム(「導入後」と呼ぶ)を対話エージェントが一つのシステム(「導入前」と呼ぶ)と比較することにより,複数の対話エージェントを導入したことの効果を評価した.ここで,「導入前」の一つの対話エージェントは旅行ドメインのドメインエージェントである.8名の被験者を用いて実験を行ない,以下の二つの面から比較した.\begin{quote}\begin{description}\item[ターン数:]被験者がそれぞれのシステムとやりとりを行なった回数.エージェント切り替えメニューからのエージェントの選択,エージェントアイコンの押下によるエージェントのon/offも1回のターンとしてカウントする.\item[セッション時間:]被験者がそれぞれのシステムを用いて,与えられた課題を達成するのに要した時間(秒)\end{description}\end{quote}被験者は全員女性のタイピストであり,かつ,情報検索システムについても自然言語処理対話システムについても初心者である.被験者は実験システムの簡単な説明を受け,おのおの実験システムを約15分間試用した後に,実験を行なった.実験は二つのグループに分けて行なった.グループ1(被験者a〜d)は,導入後を先,導入前を後に用い,グループ2(被験者e〜h)は,導入前を先,導入後を後に用いた.\subsubsection{実験1}各被験者に以下の課題を与えた.\begin{description}\item[課題1:]あなたは倉敷市に出張します。自分が泊まりたいホテルを見つけて下さい\footnote{\cite{jtb}には倉敷市のホテルとして41軒が記載されている.}。ただし,システムごとで異なるホテルを選んでも構いません。\end{description}実験1の結果を図\ref{fig:exam1}に,ターン数,セッション時間の平均を表\ref{tab:mtexam1}に示す.また,実験で行なわれた対話の例を表\ref{tab:ex1ex}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=exam1.eps,height=150pt}\end{center}\caption{実験1の結果(全員)}\label{fig:exam1}\end{figure}\begin{table}[htp]\caption{実験1の結果(平均)}\label{tab:mtexam1}\centering\bigskip\begin{tabular}{c|ccc|ccc}\hline\hline&\multicolumn{3}{c|}{グループ1(a〜d)}&\multicolumn{3}{c}{グループ2(e〜h)}\\&導入前&$\rightarrow$&導入後&導入後&$\rightarrow$&導入前\\\hlineターン数&7.3&&4.0&4.5&&5.5\\セッション時間&640&&175&190&&360\\\hline\hline\end{tabular}\end{table}\begin{table}[htp]\caption{実験2の対話例(グループ2の同一被験者)}\label{tab:ex1ex}\bigskip\centering\footnotesize\tt\begin{tabular}[t]{lp{50mm}}\multicolumn{2}{c}{導入前}\\\hline\hline一般旅行&はい。一般旅行エージェントです。\\USER&倉敷にあるホテルを知りたい\\一般旅行&吉井旅館,倉敷ターミナルホテル,やま幸,山水苑など,41件あります。\\USER&ホテルの条件を教えて\\一般旅行&行き方,料金,名称,場所,電話番号,立地条件,説明,駐車場,レジャー施設,室数があります。\\USER&その立地条件は\\一般旅行&市街が15件,海岸が7件,高台が5件,駅前が4件,田園が3件,河畔が2件,宅地が2件,駅内が1件,境内が1件,山上が1件あります。\\USER&立地条件が駅前では\\一般旅行&国民旅館大熊,倉敷ターミナルホテル,倉敷ステーションホテル,みさを旅館です。\\USER&その料金は\\一般旅行&国民旅館大熊の料金は60〜100室40〜48,倉敷ターミナルホテルの料金はS60〜75T120〜180,倉敷ステーションホテルの料金はS50〜56T100〜110,みさを旅館の料金は100〜200です。\\USER&倉敷ステーションホテルの電話番号は\\一般旅行&倉敷ステーションホテルの電話番号は0864-25-2525です。\\\hline\hline\end{tabular}\begin{tabular}[t]{lp{50mm}}\multicolumn{2}{c}{導入後}\\\hline\hlineUSER&(出張エージェントを選択)\\出張&ようこそ。出張エージェントでございます。場所を指定して下さい。\\USER&倉敷市です\\出張&立地条件は駅前,料金はS80以下でよろしいですか。\\USER&はい\\出張&倉敷ターミナルホテルの電話番号は0864-26-1111,倉敷ステーションホテルの電話番号は0864-25-2525でございます。\\USER&その説明は\\出張&倉敷ターミナルホテルの説明は駅近く商用・観光に適。レディースルームが14室あり好評。倉敷美観地区へ徒歩15分と近く観光に便利。倉敷ステーションホテルの説明は駅前でビジネスに最適。内海の鮮魚の活魚料理と岡山ずしが好評。美観地区にも徒歩5分と近い。でございます。\\\hline\hline\end{tabular}\end{table}導入前のシステムの対話エージェントは一般旅行エージェントに固定であるが,導入後のシステムでは,被験者はすべて出張エージェントを選んだ.両方のグループとも,ターン数,セッション時間の両方で,導入前を用いた対話より導入後を用いた対話の方が少なかった.また,導入前を用いた対話は,先に導入前を用いたグループ2に比べ,導入後を先に用いたグループ1の方が,特にセッション時間について少なかった(グループ2の640秒に対し360秒).このことは,典型的な対話戦略を持つ導入後のシステムを用いたことにより,被験者が対話戦略を持たない導入前のシステムに対して容易に検索が可能になったことを示していると考えられる.また,両者のシステムで異なるホテルを選んだ6名の被験者は全員導入後のシステムを用いて選んだホテルの方が条件が良いと答えた.\subsubsection{実験2}各被験者に以下の課題を与えた.\begin{description}\item[課題2:]あなたは観光旅行で行くのに金沢か仙台のどちらかを選ばなければなりません.検索した情報を用いて両者を比較し,どちらかを選んで下さい.(検索結果の多少にかかわらず,どちらかに決めた時点で終了して構いません.)\end{description}実験2の結果を図\ref{fig:exam2}に,ターン数,セッション時間の平均を表\ref{tab:mtexam2}に示す.また,実験で行なわれた対話の例を表\ref{tab:ex2ex}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=exam2.eps,height=150pt}\end{center}\caption{実験2の結果(全員)}\label{fig:exam2}\end{figure}\begin{table}[htp]\caption{実験2の結果(平均)}\label{tab:mtexam2}\centering\bigskip\begin{tabular}{c|ccc|ccc}\hline\hline&\multicolumn{3}{c|}{グループ1(a〜d)}&\multicolumn{3}{c}{グループ2(e〜h)}\\&導入前&$\rightarrow$&導入後&導入後&$\rightarrow$&導入前\\\hlineターン数&7.0&&13.0&12.8&&8.5\\セッション時間&442&&420&458&&526\\\hline\hline\end{tabular}\end{table}\begin{table}[htp]\caption{実験2の対話例(グループ1の同一被験者)}\label{tab:ex2ex}\bigskip\centering\footnotesize\tt\begin{tabular}[t]{lp{50mm}}\multicolumn{2}{c}{導入前}\\\hline\hline一般旅行&はい。一般旅行エージェントです。\\USER&金沢にある郷土料理を教えて。\\一般旅行&甘えび,カニ料理,ごり料理,たらの子つけなど,12件あります。\\USER&郷土料理の条件を教えて。\\一般旅行&名称,場所,説明,読み方があります。\\USER&ごり料理の説明は。\\一般旅行&場所を指定して下さい。\\USER&金沢です。\\一般旅行&ごり料理の説明は金沢市内を流れる川にすんでいるまごりを使った料理。ごりは体長7〜10cm程の魚で、見かけ良くないが、香ばしい独特の味を持つ。昔は冬の保存食として佃煮などに使われたが、今は貴重な魚となってしまっている。料理は主に唐揚げと味噌汁など。市内常盤町のごりや(0762)52−2288などで。です。\\USER&仙台にある郷土料理を知りたい。\\一般旅行&おくずかけ,カキ料理,山菜料理,ずんだ餅など,5件あります。\\USER&ずんだ餅の説明は。\\一般旅行&ずんだ餅の説明は枝豆をすりつぶし、砂糖と少量の塩,しょう油,酒,みりんで味を整えたアンをからめたお餅。鮮やかな緑色が美しく、自然の豆の香りが郷愁をさそう。7〜8月が最もおいしい。高新餅店(022)222−2250,河童亭(022)265−1876。です。\\\hline\hline\end{tabular}\begin{tabular}[t]{lp{50mm}}\multicolumn{2}{c}{導入後}\\\hline\hlineUSER&(金沢エージェントを選択)\\金沢&ようこそ。金沢エージェントでございます。\\USER&(仙台エージェントを選択)\\仙台&はい。仙台エージェントです。\\USER&郷土料理を教えて。\\金沢&甘えび,カニ料理,ごり料理,たらの子つけなど,12件ございます。\\仙台&おくずかけ,カキ料理,山菜料理,ずんだ餅とか,5件あります。\\USER&美術館はありますか。\\金沢&石川県立美術館,中村記念美術館でございます。\\仙台&赤門美術館,仙台市民ギャラリー,福島美術館,宮城県美術館です。\\&(中略)\\USER&行事祭事を知りたい。\\金沢&加賀とび出初式,加賀百万石まつり,金石湊まつり,観光花火大会など,6件ございます。\\仙台&秋保大滝春の大祭,定義如来夏の祭典,仙台七夕まつり,七日堂ごまたきとか,13件あります。\\&(中略)\\USER&公開日が5月では。\\金沢&条件に該当するデータはございません。\\仙台&仙台青葉まつりです。\\USER&(金沢エージェントをoff)\\USER&その説明は。\\仙台&仙台青葉まつりの説明は伊達模様武者行列,おみこし,山鉾巡行,すずめ踊りが街をねり歩く,です。\\\hline\hline\end{tabular}\end{table}導入前のシステムの対話エージェントは一般旅行エージェントに1つに固定であるが,導入後のシステムでは,被験者はすべて,一般旅行エージェントに検索条件として予め所在地に金沢と仙台を与えた文脈エージェントである金沢エージェントと仙台エージェントの両方を2画面で選んだ\footnote{実験システムの旅行ドメインには,3.3節で述べた日光,箱根や仙台,金沢の他に,函館,高山,伊勢等,16箇所の観光地を予め検索条件とした文脈エージェントを用意した.}本実験では,興味深い現象が観察された.このような複雑な処理を伴なう複数の目標を比較する課題において,被験者は,検索した情報を比較した結果よりもむしろ,あるセッション時間が来ると比較をやめる傾向があった.被験者のセッション時間は,用いたシステム,得られた検索結果の多少にかかわらず,すべて5分から10分の間であった.そして,導入後のシステムの方が導入前のシステムより多くの検索結果が得られていた.\bigskip上記の実験結果をまとめると,複数の対話エージェントを導入することにより,\begin{itemize}\item用意された対話戦略を保持する(賢い)対話エージェントと対話することにより,それ以外の(馬鹿な)対話エージェントに対しても効率的な情報検索を行なえた.\item候補を択一する状況において,ユーザは,比較検討する条件の検索結果より,決定するまでの時間に左右される傾向がある.しかし,決定するまでの時間内に,より多くの検索条件による結果を得られたほうが,ユーザはより得心できたであろう.\end{itemize}と考えられる.
\section{おわりに}
本稿では,自然言語の対話を用いた情報検索において,複数の対話エージェントを導入し,ドメイン,対話戦略,文脈という3つの局面で,ユーザが対話エージェントを切り替えることで,効率的な情報検索対話を行なう対話モデルを採用した.そして,その対話モデルをモデル化文書をコンテンツとした複数の電子ブックの情報検索に適用し,その対話モデルの有効性を確認した.今後の課題としては,以下のものが挙げられる.\begin{itemize}\item複数のドメインを統合する対話知識の検討\itemより自由な対話局面で,対話エージェントを設定・切り替えるためのユーザインタフェースの改良\itemインターネットなど,よりオープンな環境での情報検索を実験することでの本提案の有効性の検証\end{itemize}\acknowledgment本研究は,(当時)情報メディア研究所ヒューマンインタフェース第三研究室にて行ないました.議論をしていただいた藤田稔部長,八木沢津義室長にお礼を申し上げます.また,本発表を行なうに当たり,お力添えをいただいた柴山茂樹所長,小森康弘室長に感謝をいたします.\bibliographystyle{jnlpbbl}\bibliography{honbun}\begin{biography}\biotitle{略歴}\bioauthor{酒井桂一}{1987年京都大学工学部電気工学第二学科卒業.1989年同大学院修士課程修了.同年,キヤノン株式会社入社,現在に至る.自然言語処理,音声対話処理,マルチモーダルインタフェースの研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V26N01-05 | \section{はじめに}
\label{sec:introduction}対話システムがユーザ発話から抽出するべき情報は,背後にあるアプリケーションに依存する.対話システムをデータベース検索のための自然言語インタフェースとして用いる場合,対話システムはデータベースへのクエリを作成するために,ユーザ発話中で検索条件として指定されるデータベースフィールドとその値を抽出する必要がある.データベース検索対話において,ユーザ発話中からこのような情報を抽出する研究はこれまで多くなされてきた.例えば,\citeA{raymond2007generative,Mesnil2015,Liu2016a}は,ATIS(TheAirTravelInformationSystem)コーパス~\cite{Hemphill:1990:ASL:116580.116613,Dahl:1994:ESA:1075812.1075823}を用いて,ユーザ発話からデータベースフィールドの値を抽出する研究を行っている.ATISコーパスはWizard-of-Ozによって収集されたユーザと航空交通情報システムとの対話コーパスであり,各ユーザ発話中の表現には,出発地や到着日などのデータベースフィールドに対応するタグが付与されている.ATISコーパスを用いた研究の課題はタグの付与された情報を発話から精度よく抽出することである.これらの研究の抽出対象である出発地や到着日などの情報はユーザ発話中に明示的に出現し,直接データベースフィールドに対応するため,データベース検索のための明示的な条件となる.一方,実際の対話には,データベースフィールドには直接対応しないものの,クエリを作成するために有用な情報を含む発話が出現し,対話システムがそのような情報を利用することで,より自然で効率的なデータベース検索を行うことが可能になる.例として,不動産業者と不動産を探す客の対話を考える.不動産業者は対話を通じて客が求める不動産の要件を確認し,手元の不動産データベースから客の要件を満たす不動産を絞り込む.このとき,客の家族構成は,物件の広さを絞り込む上で有用な情報であろう.しかし,家族構成は物件の属性ではなく客の属性であるため,通常,不動産データベースには含まれない.客の家族構成のように,データベースフィールドには直接対応しないが,データベース検索を行う上で有用な情報を{\bf非明示的条件}と呼ぶ\cite{Fukunaga2018}.我々は,非明示的条件を「データベースフィールドに明示的に言及しておらず,『xならば一般的にyである』という常識や経験的な知識によってデータベースフィールドと値の組(検索条件)へ変換することができる言語表現」と定義する.例えば,「一人暮らしをします」という言語表現は,物件の属性について明示的に言及していない.しかし,『一人暮らしならば一般的に物件の間取りは1LDK以下である』という常識により,〈間取り$\leq$1LDK〉という検索条件に変換できるため,これは非明示的条件となる.一方,「賃料は9万円を希望します」や「築年数は20年未満が良いです」のような言語表現は,データベースフィールドに明示的に言及しているため,非明示的条件ではない.また,「渋谷で探しています」のようにデータベースフィールドが省略されている場合でも,省略の補完によって【エリア】というデータベースフィールドに明示的に言及する表現に言い換えることが可能である場合は非明示的条件とはみなさない.\citeA{Taylor1968}による情報要求の分類に照らすと,明示的な検索条件は,ユーザ要求をデータベースフィールドとその値という形式に具体化しているため,調整済みの要求(compromisedneed)に対応する.一方,非明示的条件は,ユーザ自身の問題を言語化しているが検索条件の形式に具体化できていないため,形式化された要求(formalisedneed)に対応する.非明示的条件を利用する対話システムを実現するためには,以下の2つの課題が考えられる.\begin{itemize}\item[(1)]非明示的条件を含むユーザ発話を,データベースフィールドとその値の組(検索条件)へ変換する.\item[(2)]ユーザ発話中から,(1)で行った検索条件への変換の根拠となる部分を抽出する.\end{itemize}課題(1)は,非明示的条件を含む発話からデータベースへのクエリを作成するために必要な処理である.図\ref{fig:dial_ex}に示す対話では,客の発話に含まれる「一人暮らし」という文言から,〈間取り$\leq$1LDK〉という検索条件へ変換できる.本論文では,課題(1)を,発話が関連するデータベースフィールドを特定し,そのフィールドの値を抽出するという2段階に分けて考え,第一段階のデータベースフィールドの特定に取り組む.1つのユーザ発話が複数のデータベースフィールドに関連することもあるので,我々はこれを発話のマルチラベル分類問題として定式化する.発話からフィールドの値を抽出する第二段階の処理は,具体的なデータベースの構造や内容が前提となるため,この論文では扱わず,今後の課題とする.\begin{figure}[b]\begin{center}\includegraphics{26-1ia5f1.eps}\end{center}\caption{対話と非明示的条件から検索条件への変換の例}\label{fig:dial_ex}\end{figure}課題(2)によって抽出された根拠はデータベースへのクエリに必須ではないが,システムがユーザへの確認発話を生成する際に役立つ.非明示的条件を検索条件へ変換する際に用いるのは常識や経験的な知識であり例外も存在するため,変換結果が常に正しいとは限らない.例えば,不動産検索対話において一人暮らしを考えている客が2LDKの物件を希望することもありうる.したがって,システムの解釈が正しいかどうかをユーザに確認する場合がある.この際,システムが行った解釈の根拠を提示することで,より自然な確認発話を生成することができる.図~\ref{fig:dial_ex}のやり取りにおいて,「一人暮らしをしたいのですが.」というユーザ発話をシステムが〈間取り$\leq$1LDK〉という検索条件へ変換したとする.このとき,単に「間取りは1LDK以下でよろしいですか?」と確認するよりも,「一人暮らしということですので,間取りは1LDK以下でよろしいですか?」とシステムが判断した理由を追加することでより自然な対話となる.また,対話として自然なだけではなく,ユーザがシステムの判断に納得するためにも根拠を提示することは重要である\cite{XAI-Gunning,XAI-Monroe}.このような確認発話を生成する際に,ユーザ発話中の「一人暮らし」という表現を〈間取り$\leq$1LDK〉の根拠として抽出することは有用である.また,非明示的条件を含むユーザ発話が与えられたとき,その非明示的条件に関連するデータベースフィールドについての質問を生成するためにも抽出した根拠を利用できる.例えば,図~\ref{fig:dial_ex}中のユーザ発話を【間取り】というデータベースフィールドへ分類し,その根拠として「一人暮らし」を抽出した場合,「一人暮らしということですが,間取りはいかがなさいますか?」という質問を生成できる.非明示的条件に対応できない対話システムでは,このようなユーザ発話に対して,ユーザ発話を理解できなかったという返答を行うか,まだ埋まっていない検索条件について質問を行うことしかできない.また,根拠を抽出し,蓄積することにより,対話中でどのような非明示的条件が出現しやすいかということを,システムの開発者が知ることができる.仮に,「一人暮らし」や「家族4人」のような客の家族構成の情報が頻繁に出現することがわかれば,システムの開発者は,家族構成に関係する情報をデータベースに新規に追加するという改良を施すことができる.本論文では,データベースフィールドへのマルチラベル分類と同時に,根拠抽出を行う.非明示的条件から検索条件への変換の根拠を各発話に対してアノテーションすることはコストが高いため,教師なし学習によって根拠抽出を行う.本論文の貢献は,データベース検索を行うタスク指向対話において,非明示的条件を含むユーザ発話をデータベースフィールドと値の組(検索条件)へ変換し,同時にその根拠をユーザ発話中から抽出する課題を提案することである.本稿では,この課題の一部であるデータベースフィールドへの分類と根拠抽出を行うために,(1)サポートベクタマシン(SVM),(2)回帰型畳込みニューラルネットワーク(RCNN),(3)注意機構を用いた系列変換による3種類の手法を実装し,その結果を報告する.本論文の構成は以下の通りである.2節では関連研究について述べ,本論文の位置付けを明らかにする.3節では本論文で利用するデータと問題設定について詳述する.4節ではデータベースフィールドへの分類とその根拠抽出手法について述べる.5節では評価実験の結果について述べ,6節で本論文をまとめる.
\section{関連研究}
伝統的なタスク指向対話システムは自然言語理解,対話状態推定,方策学習,自然言語生成の4つのモジュールのパイプラインによって構成される\cite{Chen:2017:SDS:3166054.3166058}.自然言語理解はさらに,ユーザ意図推定とスロットフィリングの2つの処理に分けることができる.ユーザ意図推定はユーザ発話を意図のカテゴリに分類する処理である.一方,スロットフィリングはユーザ発話の意味的な内容をスロットと値の組として出力する処理であり,例えば「ニューヨークからシカゴまで行きます」というユーザ発話に対し,〈出発地=ニューヨーク〉,〈目的地=シカゴ〉を出力する.この一般的な枠組みから言えば,我々の取り組む課題はスロットフィリングに相当する.自然言語理解におけるスロットフィリングは,発話中の各単語に対して,意味的なスロットのIOBタグ\cite{ramshaw1995text}を付与する系列ラベリング問題として定式化されることが多い.近年では,多くの文献で,この問題を解くための手法として回帰型ニューラルネットワーク(RNN)\cite{Mesnil2013,Yao2013,Mesnil2015,Vu2016,Jaech2016,Liu2016a,Liu2016b,Bapna2017}やLongShort-TermMemory(LSTM)\cite{Yao2014,Hakkani-t2016}が用いられている.しかし,これらの文献で捉えようとしているのは発話中で明示的に言及された意味的なスロットのみであり,我々が対象としている非明示的条件はスロットフィリングの対象としていない.また,対話状態推定のシェアドタスクとしてDialogStateTrackingChallenge5(DSTC5)\cite{Kim2016_5th}がある.DSTC5は,対話中の各時点での対話状態を推定する課題であり,1つの発話のみではなく,文脈を用いてスロットフィリングを行う必要がある.そのため,各時点の発話中に明示的に現れていない値をスロットに埋めることが必要となる.例えば,\citeA{Hori2016}は,指示形容詞や指示代名詞によって参照される,発話中には明示的に現れない値を抽出することを目指している.しかし,本研究で対象とする非明示的条件は,\ref{sec:introduction}~節で述べたように推論を必要とする表現であり,DSTC5ではそのような表現からのスロットフィリングを対象としていない.タスク指向対話システムにおいて,非明示的条件からのスロットフィリングを対象とした研究はほとんど存在しない.\citeA{Celikyilmaz2012}は,映画検索を行うタスク指向対話システムにおいて,ユーザ発話から,ユーザの求めている映画のジャンルを推定する課題に取り組んでいる.彼らの目的は,ジャンルについて明示的に言及していないユーザ発話からもジャンルの推定を行うことである.例えば,彼らは``Iwannawatchamoviethatwillmakemelaugh.''というユーザ発話から,ユーザが求める映画のジャンルが{\itcomedy}であるということを推定する.彼らの研究の動機は我々とほとんど同じであるが,彼らはジャンルの推定結果だけを出力し,そのユーザ発話からそのジャンルが推定できる理由を提示していない点で,我々の目的とは異なる.また,彼らは映画のジャンルという1つの属性についてのみ推定を行っているが,我々は複数のデータベースフィールドに対する推定を行う.近年では,パイプライン処理による伝統的なタスク指向対話システムとは異なり,ひとつひとつのモジュールを明示的に作成せず,ユーザ発話から直接システム発話を生成するEnd-to-Endのタスク指向対話システムも提案されている.\citeA{Eric2017}は,知識ベースを検索するユーザ発話に対して,その検索結果を提示することが可能なEnd-to-Endの対話システムを提案している.しかし,このシステムは,与えられたユーザ発話に対して,その検索結果が得られた理由については説明しない.我々の課題では,非明示的条件が与えられた際,データベースへのクエリを作成するために変換が必要となるが,システムが必ず正しい変換を行う保証は無い.近年,「説明のできるAI」の重要性が指摘されているように\cite{XAI-Gunning,XAI-Monroe},自然で効率的な対話を実現するためには,システムによる変換理由の説明やユーザへの確認を行う発話を用意することが必要である.しかし,現在のEnd-to-Endの枠組みでは,これを実現することは難しい.
\section{データと問題設定}
\label{sec:data-tasksetting}本論文では,対話コーパスとして不動産検索対話コーパス~\cite{Yokono2017}を用いる.このコーパスは物件を探す客と不動産業者を演じる2名の作業者間で行われる日本語テキストチャット対話を収集したものである.対話の目的は客の物件に対する希望を不動産業者が聞き出すことである.不動産業者は実際にデータベースの検索を行うことはしないが,検索に必要な情報が十分得られたと判断した場合に対話を終了する.それぞれの対話において,客は10種類のプロファイルのうち1つが割り当てられ,そのプロファイルに合致する条件の物件を希望するよう指示されている.客のプロファイルは不動産業者には開示されない.実際のプロファイルの例として以下のようなものがある.「30代共働き夫婦、保育園児の子ども1人。新婚時代から通勤利便性重視で都心寄りの1LDKマンションに住んでいたが、2人目を考えるにあたって、少し郊外でも治安の良い地域で広めの家に引っ越したい。」コーパス中の対話数は986対話,総発話数は29,058発話であり,そのうち不動産業者の発話が14,571発話,客の発話が14,487発話である.また,1対話あたりの平均発話数は29.5発話である.我々は,このコーパス中の各発話に対し,表\ref{tab:field-tags}に示すデータベースフィールドタグをアノテーションした~\cite{Fukunaga2018}\footnote{以下,データベースフィールドタグは【】で囲んで表記する.}.これらのデータベースフィールドタグは,日本の不動産情報サイトSUUMO\footnote{http://suumo.jp}で不動産検索を行う際に指定可能な検索条件をもとに設計した.また,どのデータベースフィールドにも該当しない発話に付与する【その他】タグを定義した.これらのタグを,2名のアノテータによって986対話全てにアノテーションし,そのうち50対話については,アノテーションの一致率を調べるために両者によるアノテーションを行った.アノテータには,対象の発話とそれ以前の文脈を見て,その発話で言及されているデータベースフィールドをタグ付けするよう指示した.また,どのデータベースフィールドにも該当しない発話に非明示的条件が含まれることを期待し,【その他】タグを付与する際には,その意味内容を自由記述するよう指示した.両者がアノテーションした50対話におけるアノテータ間のCohen's$\kappa$\cite{cohen1960coefficient}は0.79であり,アノテーションは十分に一致している.ここで,【その他】タグの意味内容は自由記述でありアノテータによって表記が異なるため,意味内容の記述の一致は考慮していない.\begin{table}[t]\caption{データベースフィールドタグ}\label{tab:field-tags}\input{05table01.tex}\end{table}表~\ref{tab:annotation_example}に実際の対話とアノテーション例を示す.表中の「店」が不動産業者の発話,「客」が客の発話を表す.タグが``---''となっている発話は,対話を開始したり,客に発話を促すような,対話管理レベルの発話であるため,アノテーションの対象外とした.【その他】タグが付与された発話については,自由記述された意味内容を括弧内に示している.\begin{table}[t]\caption{対話とアノテーション例}\label{tab:annotation_example}\input{05table02.tex}\end{table}本論文では,【その他】が付与された客の発話に非明示的条件が含まれると仮定し,それらを38種類のデータベースフィールドタグに分類することと,その分類の根拠となる発話の断片を抽出することを課題とする.客の発話は,その直前の不動産業者側の発話と合わせて,ひとつのテキストとして扱う\footnote{客の発話の直前の発話が客の発話であった場合にも,それらをひとつの塊とする.}.本論文では,これを発話チャンクと呼ぶ.客の発話とその直前の不動産業者側の発話をひとつのテキストとして扱うのは,客が直前の不動産業者の問いに対する単なる肯定/否定の発話をすることがあるためである.例えば,表~\ref{tab:annotation_example}中の6発話目は「はい、そうです。」という客による単なる肯定の発話であり,この発話単体では実質的な情報は得られない.しかし,直前の不動産業者の「現在はご夫婦とお子様お一人ということですね?」という問いと組み合わせることによって家族構成の情報が得られ,【間取りタイプ】のようなデータベースフィールドへの分類が可能になる.対話コーパス中から,非明示的条件を含む(【その他】タグが付与された客の発話を含む)発話チャンクは全部で2,642個収集できた.1つの非明示的条件から複数のデータベースフィールドへ変換される場合もあるため,データベースフィールドへの分類問題は,通常のマルチラベル分類問題として定式化できる.すなわち,入力の発話チャンク$\bm{x}$に対し,データベースフィールドタグの部分集合$Y\subseteq\{【沿線】,【駅徒歩】,\cdots\}$を出力することが本研究の課題である.また,分類根拠の抽出は,入力の発話チャンク$\bm{x}$に対する分類結果中のそれぞれのデータベースフィールドタグ$y\inY$について,その根拠となる断片の集合$E_y\subseteq\mathrm{Substr}(\bm{x})$を出力する問題として定式化する.ここで,$\mathrm{Substr}(\bm{x})$は発話チャンク$\bm{x}$中に含まれるすべての部分文字列の集合を表す.
\section{データベースフィールドへの分類および根拠抽出手法}
\label{sec:methods}本論文では,サポートベクタマシン(SVM),回帰型畳み込みニューラルネットワーク(RCNN),注意機構を用いた系列変換による3つの手法を実装する.\subsection{SVMによる手法}それぞれのデータベースフィールドタグについて,入力の発話チャンクをそのデータベースフィールドへ変換できるか否かを分類する二値分類器を線形SVMによって作成する.すなわち,全部で38個の二値分類器を作成する.入力の発話チャンクが与えられたとき,システムの最終的な出力は分類器が正と判断したデータベースフィールドの集合となる.SVMの素性として,発話チャンクのbag-of-wordsを用いる.素性に使用する単語はコーパス中で2回以上出現する名詞,動詞,形容詞,副詞の原形である.発話チャンクの形態素解析には,MeCab\footnote{http://taku910.github.io/mecab/}を使用する.また,数と固有名詞については,抽象化のためにそれぞれ\textsc{NUM}と\textsc{PROP}という記号に置き換える.分類の根拠抽出には,各データベースフィールドタグの分類器で学習された素性の重みを用いる.入力の発話チャンク中で,あらかじめ決めた閾値以上の重みを持つ単語を全て抽出し,それらを分類の根拠とする.素性の重みは,{式~(\ref{eq:weight-normalisatoin})}によって0から1に正規化する.ここで,$w$は正規化前の重み,$w_{\min}$と$w_{\max}$はそれぞれ,学習データに含まれる単語の重みの最小値と最大値である.\begin{equation}\hat{w}=\frac{w-w_{\min}}{w_{\max}-w_{\min}}\label{eq:weight-normalisatoin}\end{equation}\subsection{RCNNによる手法}我々は,\citeA{Lei2016}が提案した手法を拡張し,我々の課題に利用する.Leiらの手法は,商品レビューのテキストが入力として与えられたとき,それぞれの評価項目についてのユーザ評価を回帰によって推定し,その結果の根拠となる部分を入力テキストから抽出するものである.彼らのシステムは,回帰問題を解くニューラルネットワーク(エンコーダ)と根拠の抽出を行うニューラルネットワーク(ジェネレータ)の2つの要素からなる.エンコーダの学習はレビューテキストに対する真のユーザ評価を用いた教師あり学習によって行われる.一方,ジェネレータの学習は教師なし学習で行われる.彼らは,より短く,より連続した単語列が根拠として好ましいと仮定し,ジェネレータがそのような根拠抽出を行うよう損失関数を設計している.また,エンコーダは,ジェネレータが正しく根拠を抽出していると仮定し,ジェネレータによって抽出された単語のみをユーザ評価の推定に用いる.彼らは,教師あり学習でエンコーダの性能を向上させることで,間接的にジェネレータの性能を向上させることを狙っている.我々の課題は,入力の発話チャンクからデータベースフィールドへのマルチラベル分類である.RCNNによる手法も,SVMによる手法と同様に,マルチラベル分類を各データベースフィールドへの二値分類として扱う.それぞれの二値分類とその根拠抽出を行うためにLeiらの手法を利用する.本論文で用いる,1つのデータベースフィールドに対するエンコーダとジェネレータのネットワークをそれぞれ図\ref{fig:encoder},図\ref{fig:generator}に示す.\begin{figure}[b]\begin{center}\includegraphics{26-1ia5f2.eps}\end{center}\caption{エンコーダ}\label{fig:encoder}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{26-1ia5f3.eps}\end{center}\caption{ジェネレータ}\label{fig:generator}\end{figure}$\bm{x}_t$を入力発話チャンクの$t$番目の単語の埋め込みベクトルとすると,エンコーダは,入力発話チャンクに対するそのデータベースフィールドへの二値分類の推定結果$\tilde{y}\in[0,1]$を,\begin{align}\bm{h}_t&=\begin{dcases}f_e(\bm{x}_t,\bm{h}_{t-1})&(\tilde{z}_t=1)\label{eq:encoder_hidden}\\\bm{h}_{t-1}&(\tilde{z}_t=0)\end{dcases}\\\tilde{y}&=\sigma_e(W^e\bm{h}_m+\bm{b}^e)\end{align}によって計算する.ここで,$\bm{h}_t$は$t$番目の単語までの隠れ状態ベクトルを表し,$\tilde{z}_t\in\{0,1\}$は後述するジェネレータによって$t$番目の単語が根拠として抽出されるかどうかを表す.$f_e$は各時点の入力と直前の隠れ状態ベクトルを受け取り,次の隠れ状態ベクトルを計算する関数であり,詳細は後述する.式(\ref{eq:encoder_hidden})では,$\tilde{z}_t=1$である場合にのみ隠れ状態ベクトルを更新する.これは根拠として選択された単語のみを二値分類に使用することを意味する.最終的な出力は,最後の隠れ状態ベクトル$\bm{h}_m$をさらに,重み行列が$W^e$,バイアスが$\bm{b}^e$,活性化関数がシグモイド関数$\sigma_e$である順伝播型ニューラルネットワーク(FFNN)に入力した結果である.Leiらの手法では回帰問題を解くために損失関数として二乗損失を用いているが,我々は二値分類を解くため,代わりに以下の交差エントロピーをエンコーダの損失関数$\mathcal{L}(\tilde{y},y)$として使用する.\begin{equation}\mathcal{L}(\tilde{y},y)=-(y\log(\tilde{y})+(1-y)\log(1-\tilde{y}))\end{equation}ここで$y\in\{0,1\}$は二値分類の正解である.ジェネレータは以下の式によって,$t$番目の単語を根拠として抽出するかどうかを表す$\tilde{z}_t\in\{0,1\}$を計算する.{\allowdisplaybreaks\begin{align}\overrightarrow{\bm{h}}_t&=\overrightarrow{f}(\bm{x}_t,\overrightarrow{\bm{h}}_{t-1})\\\overleftarrow{\bm{h}}_t&=\overleftarrow{f}(\bm{x}_t,\overleftarrow{\bm{h}}_{t+1})\\p(\tilde{z}_t|\bm{x}_{1,{t-1}},\tilde{z}_{1,t-1})&=\sigma_z(W^z[\overrightarrow{\bm{h}}_t;\overleftarrow{\bm{h}}_t;\bm{s}_{t-1}]+\bm{b}^z)\\\tilde{z}_t&\simp(\tilde{z}_t|\bm{x}_{1,{t-1}},\tilde{z}_{1,t-1})\label{eq:sampling}\\\bm{s}_t&=f_z([\overrightarrow{\bm{h}}_t;\overleftarrow{\bm{h}}_t;\tilde{z}_t],\bm{s}_{t-1})\end{align}}ここで,$\overrightarrow{\bm{h}}_t,\overleftarrow{\bm{h}}_t$はそれぞれ単語列を右向き,左向きに入力したときの隠れ状態ベクトルを表し,$\overrightarrow{f},\overleftarrow{f}$はそれぞれの隠れ状態ベクトルを更新する関数である.また,隠れ状態ベクトル$\bm{s}_t$は,$t$単語目までに,どのような単語を根拠として抽出したかを保存するためのベクトルである.これらの3つの隠れ状態ベクトルを連結して,重み行列が$W^z$,バイアスが$\bm{b}^z$,活性化関数がシグモイド関数$\sigma_z$であるFFNNに入力し,$\tilde{z}_t$の確率分布$p(\tilde{z}_t|\bm{x}_{1,{t-1}},\tilde{z}_{1,t-1})$を推定する.$\bm{x}_{1,{t-1}}$は1単語目から$t$単語目までの埋め込みベクトルの列を表し,$\tilde{z}_{1,t-1}$は1単語目から$t-1$単語目までの根拠抽出の推定結果を表す.式(\ref{eq:sampling})は,推定した確率分布$p(\tilde{z}_t|\bm{x}_{1,{t-1}},\tilde{z}_{1,t-1})$からサンプリングを行い,$\tilde{z}_t$の値を決定する操作を表す.$\tilde{z}_t$は前述の通りエンコーダに入力する.また,$\tilde{z}_t$を$\overrightarrow{\bm{h}}_t,\overleftarrow{\bm{h}}_t$と連結し,関数$f_z$によって隠れ状態ベクトル$\bm{s}_t$を更新する.ジェネレータには,根拠抽出の正解を与えないが,代わりに根拠として望ましい性質を満たすよう損失関数を設計する.Leiらの手法と同様に,短く,連続した単語列が根拠として望ましいという仮定に基づき,式(\ref{eq:gen-loss})のように損失関数を定義する.\begin{equation}\Omega(\tilde{z}_{1,m})=\lambda_1\sum_{t=1}^{m}\tilde{z}_t+\lambda_2\sum_{t=1}^m|\tilde{z}_t-\tilde{z}_{t-1}|.\label{eq:gen-loss}\end{equation}ここで,$\tilde{z}_0=0$とする.式(\ref{eq:gen-loss})の第1項は根拠が短くなることを,第2項は根拠が連続することを,それぞれ促す罰則項である.これら2つの罰則項のバランスを調整するために2つのハイパーパラメータ$\lambda_1$と$\lambda_2$がある.エンコーダとジェネレータを合わせた全体の損失関数を,\begin{equation}\mathrm{cost}(\tilde{z}_{1,m},\bm{x}_{1,{m}},y)=\mathcal{L}(\tilde{y},y)+\Omega(\tilde{z}_{1,m})\label{eq:cost}\end{equation}とする.エンコーダとジェネレータにおいて,隠れ状態ベクトルの更新に用いる関数$f_e,\overrightarrow{f},\overleftarrow{f},f_z$はすべて,以下のように,入力ベクトル列のbi-gramまでの畳み込みを用いて次の時刻の状態を計算する.\begin{align}\lambda_t&=\sigma(W^\lambda\bm{x}_t+U^\lambda\bm{h}_{t-1}+\bm{b}^\lambda)\\\bm{c}_t^{(1)}&=\lambda_t\bm{c}_{t-1}^{(1)}+(1-\lambda_t)(W_1\bm{x}_t)\\\bm{c}_t^{(2)}&=\lambda_t\bm{c}_{t-1}^{(2)}+(1-\lambda_t)(\lambda_t\bm{c}_{t-1}^{(1)}+W_2\bm{x}_t)\\\bm{h}_t&=\tanh(\bm{c}_t^{(2)}+\bm{b})\end{align}$\bm{x}_t$は時刻$t$の入力ベクトル,$\bm{h}_{t-1}$は時刻$t-1$の隠れ状態ベクトルである.$\lambda_t$は忘却係数であり,$\bm{x}_t$と$\bm{h}_{t-1}$によって計算する.$\bm{c}_t^{(n)}$は$n$-gramまでの畳み込みベクトルであり,ここではbi-gramまでを使用し,次の時刻の状態$\bm{h}_{t}$を計算する.\subsection{注意機構を用いた系列変換による手法}対話データからスロットフィリングを行う手法として\citeA{Hori2016}が提案する注意機構を用いた系列変換による手法を我々の課題に適用する.この手法は,DialogStateTrackingChallenge5\cite{Kim2016_5th}のために提案された手法であり,入力として対話中の単語列を受け取ってスロットと値の組の系列を出力する.我々の課題では,出力をデータベースフィールドタグの系列とする.この手法では,SVMやRCNNによる手法とは異なり,1つのネットワークによりマルチラベル分類を行う.系列変換のネットワークは,エンコーダとデコーダの2つの部分からなる.$\bm{x}_t(1\leqt\leqm)$を入力発話チャンクの$t$番目の単語の埋め込みベクトルとすると,エンコーダでは以下の双方向LSTMを用いて,各単語に対応する隠れ状態ベクトル$\bm{h}_t$を計算する.\begin{align}\bm{h}_t&=[\bm{h}^{(f)}_t;\bm{h}^{(b)}_t],\\\bm{h}^{(f)}_t&=LSTM(\bm{x}_t,\bm{h}^{(f)}_{t-1}),\\\bm{h}^{(b)}_t&=LSTM(\bm{x}_t,\bm{h}^{(f)}_{t+1}).\end{align}また,デコーダでは,注意機構によって重み付けした各単語の隠れ状態ベクトルを用いて,データベースフィールドタグの系列を出力する.$i$番目の出力における$t$番目の単語の隠れ状態ベクトルに対する重み$\alpha_{i,t}$を,\begin{align}\alpha_{i,t}&=\frac{\exp(e_{i,t})}{\sum_{t=1}^m\exp(e_{i,t})},\\e_{i,t}&=\bm{w}^T\tanh(W\bm{s}_{i-1}+V\bm{h}_{t}+\bm{b}).\end{align}によって計算する.ここで,$\bm{w},\bm{b}$はベクトルであり,$W,V$は行列である.デコーダでは$\alpha_{i,t}$によって重み付けしたエンコーダの隠れ状態ベクトルの和$\bm{g}_i=\sum_{t=1}^m\alpha_{i,t}\bm{h}_t$をLSTMに入力し,各データベースフィールドの確率を表すベクトル$\bm{p}_i$を出力する.\begin{align}\bm{s}_{i}&=LSTM(\bm{s}_{i-1},\bm{y}_i,\bm{g}_i),\\\bm{p}_i&=\mathrm{softmax}(W_{SO}\bm{s}_{i-1}+W_{GO}\bm{g}_i+\bm{b}_{SO}).\end{align}ここで,$\bm{y}_i$は,$i$番目の出力を表すベクトルであり,学習時には正解のベクトルを与え,テスト時には以下のように$\bm{p}_i$から最も確率の高いデータベースフィールドを推定したベクトル$\tilde{\bm{y}}_i$を与える.\begin{equation}(\tilde{\bm{y}}_i)_j=\begin{dcases}1&(j=\argmax_{k}(\bm{p}_i)_k)\\0&(otherwise)\end{dcases}\end{equation}$\bm{y}_i$は出力するデータベースフィールドに対応する要素のみが1で,残りが0であるようなベクトルである.本来,各発話チャンクに付与されるデータベースフィールドタグは系列では無いが,本手法で学習データとして与える際には,対応する添字の小さい順に正解のベクトルを作成し系列として与える.学習時の損失関数には交差エントロピー損失を用いる.\citeA{Hori2016}の手法では根拠抽出を行っていないが,我々は注意機構により計算される重み$\alpha_{i,t}$が閾値よりも大きい単語を,$i$番目に出力されるデータベースフィールドの根拠として抽出する.閾値には,定数か,各発話チャンクに含まれる単語数の逆数を用いる.単語数の逆数を閾値に用いる理由は,発話チャンク中の単語数の違いを考慮するためである.注意機構による重みは各発話チャンクの単語全体で1となるため,仮に全単語に均等な重みを割り当てた場合,単語数が多いほど各単語に割り当てられる重みは小さくなる.したがって,定数の閾値を用いた場合,発話チャンク中の単語数によって閾値の価値が変わってしまう.このため,単語数の逆数を閾値とする場合の実験も行う.
\section{評価実験}
\subsection{データ}\label{sec:experiments-data}我々は,コーパス中の986対話を,客のプロファイルの分布を保ちながら10分割し,そのうち9つを学習データ,残り1つをテストデータとして用いた.そして,\ref{sec:data-tasksetting}節で説明したように非明示的条件を含む発話チャンクを抽出した.その際,発話チャンク内のユーザ発話が,挨拶や対話の開始,終了のような対話管理レベルの発話であるような発話チャンクは除いた.学習データは2,379個,テストデータは263個の発話チャンクからなる.それぞれの発話チャンク内のユーザ発話には,\ref{sec:data-tasksetting}節で説明したように,【その他】タグとその意味内容の記述が付与されている.我々は,意味内容の記述をデータベースフィールドタグに写像することで,分類の正解を発話チャンクに付与した.例えば,「一人暮らしをしたいのですが」という発話に付与された「住む人数」という意味内容の記述は,【間取りタイプ】と【専有面積】の2つのタグに写像される.また,分類の正解として付与されたそれぞれのデータベースフィールドに対して,発話チャンク中の各単語がそのフィールドへの分類の根拠に含まれるか否かを付与し,これを根拠抽出の正解とした.これらのアノテーションは著者のうち1人が行った.\subsection{実験設定}\label{sec:settings}データ数の制約から,本論文では【周辺環境】,【間取りタイプ】,【専有面積】,【一部屋の広さ】,【エリア】の5つのデータベースフィールドタグについてのみ評価を行う.これらは,最も多くの発話チャンクに付与された5つのタグである.学習データ中でそれぞれのタグが付与された発話チャンク数は,【周辺環境】について1,033,【間取りタイプ】について974,【専有面積】について964,【一部屋の広さ】について927,【エリア】について778である.学習データにおける38種類のデータベースフィールドタグの分布を図~\ref{fig:tag_distribution}に示す.\begin{figure}[b]\begin{center}\includegraphics{26-1ia5f4.eps}\end{center}\caption{学習データにおける各データベースフィールドタグの分布}\label{fig:tag_distribution}\end{figure}SVMによる手法には,単語を根拠として抽出するかを決定するための,素性の重みの閾値がハイパーパラメータとして存在する.このハイパーパラメータを決定するために,学習データ中から【周辺環境】が付与された発話チャンクをランダムに200個抽出し,開発データとした.そして,残りの学習データでSVMによる手法の学習を行い,開発データによって評価を行った.その結果,閾値を0.58とした場合に開発データにおいて最も良い性能を示したため,このハイパーパラメータを5つのタグについての評価実験で使用した.1つの発話チャンクに対する素性ベクトルの次元数は1,730である.また,不均衡データに対応するためにSVMの正例(負例)に対する正則化パラメータ$C$を$全事例数/(2\times正例(負例)の数)$とすることにより重み付けを行った.RCNNによる手法には,抽出する根拠の単語長と根拠の連続性のバランスを調整する2つのハイパーラパメータ$\lambda_1$,$\lambda_2$がある.SVMによる手法で使用したものと同じ開発データを用い,同様の方法で最適なパラメータを求めた結果,$\lambda_1=0.021$,$\lambda_2=0.003$であった.また,学習時の初期パラメータを,ランダムな値とする場合と,開発データで学習したネットワークのパラメータとする場合の2種類の設定で実験を行う.開発データで学習したパラメータを初期値として用いる理由は,【周辺環境】についての学習を通して,他のデータベースフィールドタグに共通の表現を学習していることを期待するためである.単語埋め込みベクトルとして,学習済みの日本語Wikipediaエンティティベクトル\footnote{http://www.cl.ecei.tohoku.ac.jp/{\textasciitilde}m-suzuki/jawiki\_vector/}を用いた.各単語ベクトルの次元数は200である.エンコーダおよびジェネレータの隠れ状態ベクトルは$\bm{s}_t$を除き200次元とし,$\bm{s}_t$は30次元とした.これらの設定は,\citeA{Lei2016}と同一である.その他の学習の設定は表~\ref{tab:settings}の通りである.ドロップアウトは,\citeA{Lei2016}による実装と同様に$\bm{s}_t$以外の全ての結合に適用した.ネットワークの総パラメータ数は694,319である.注意機構を用いた系列変換による手法においても,各単語を根拠として抽出するかどうかを決定するための,注意機構の重みの閾値がハイパーパラメータとして存在する.RCNNによる手法,SVMによる手法と同様の開発データを用い,同様の方法で最適な閾値を求めた結果,その値は0.0525であった.\citeA{Hori2016}の手法では入力の単語埋め込みの学習も行っているが,ここでは,分類・根拠抽出部分の比較を行うために,RCNNによる手法と同様の学習済みの単語埋め込みベクトルを用いる.エンコーダおよびデコーダの隠れ状態ベクトルは\citeA{Hori2016}に倣い50次元とした.その他の学習の設定は表~\ref{tab:settings}の通りである.ドロップアウトは全ての結合に適用した.ネットワークの総パラメータ数は151,889である.\begin{table}[t]\caption{ニューラルネットワーク手法の学習設定}\label{tab:settings}\input{05table03.tex}\end{table}\subsection{評価尺度}各データベースフィールドの二値分類の評価尺度として精度,再現率,F値を使用する.根拠抽出の評価は,分類に正解した事例のみに対して行い,評価尺度としてBLEU~\cite{BLEU}とROUGE~\cite{ROUGE}を用いる.また,これらの尺度の類推として,$N$-gramまでのF値の幾何平均も評価に用いる.$N$-gramまでのBLEU,ROUGE,F値の幾何平均を,それぞれBLEU-$N$,ROUGE-$N$,F-$N$とすると,これらは次のように計算できる.まず,$\tilde{\bm{z}}=(\tilde{z}_1,\tilde{z}_2,\cdots,\tilde{z}_m)$と$\bm{z}=(z_1,z_2,\cdots,z_m)$を,それぞれ推定された根拠と正解の根拠を表す二値ベクトルとする.ここで,$\tilde{z}_j,z_j\in\{0,1\}\(1\leqj\leqm)$であり,これらのベクトルの要素が1となることは,対応する位置の単語が根拠として選択されることを意味する.推定された根拠と正解の根拠に含まれる$n$-gramの集合をそれぞれ$\tilde{G}_n$,$G_n$とし,式~(\ref{eq:Gn'}),(\ref{eq:Gn})によって定義する.\begin{align}\tilde{G}_n&=\left\{\{j\}_{j=t}^{t+n-1}\middle|1\leqt\leqm-n+1\land\left(\prod_{j=t}^{t+n-1}\tilde{z}_j\right)=1\right\},\label{eq:Gn'}\\G_n&=\left\{\{j\}_{j=t}^{t+n-1}\middle|1\leqt\leqm-n+1\land\left(\prod_{j=t}^{t+n-1}z_j\right)=1\right\}\label{eq:Gn}.\end{align}ここで$\{j\}_{j=t}^{t+n-1}$は$t$から$t+n-1$までのインデックスの系列を表す.これらの集合を用いて,BLEU-$N$,ROUGE-$N$,F-$N$をそれぞれ式(\ref{eq:BLEU}),(\ref{eq:ROUGE}),(\ref{eq:F})によって計算する.\begin{align}\mathrm{BLEU\mathchar`-}N&=\left(\prod_{n=1}^NP_n\right)^{1/N},\P_n=\begin{dcases}1&(|\tilde{G}_n|=0)\\\frac{|\tilde{G}_n\capG_n|}{|\tilde{G}_n|}&(\mathrm{otherwise})\end{dcases}\label{eq:BLEU},\\\mathrm{ROUGE\mathchar`-}N&=\left(\prod_{n=1}^NR_n\right)^{1/N},\R_n=\begin{dcases}1&(|G_n|=0)\\\frac{|\tilde{G}_n\capG_n|}{|G_n|}&(\mathrm{otherwise})\end{dcases}\label{eq:ROUGE},\\\mathrm{F\mathchar`-}N&=\left(\prod_{n=1}^NF_n\right)^{1/N},\F_n=\begin{dcases}0&(P_n+R_n=0)\\\frac{2P_nR_n}{P_n+R_n}&(\mathrm{otherwise})\end{dcases}\label{eq:F}.\end{align}ROUGE-$N$は一般的に$N$-gramのみの再現率を表すが,本稿では全ての$n$-gram$(n\leqN)$の再現率の幾何平均を表す.また,BLEUには短すぎる出力に対する罰則を導入することが一般的であるが,本稿の評価では,短すぎる出力に対してはROUGEの値が小さくなるため,BLEUに対する罰則は導入していない.根拠抽出の評価における$N$の範囲を定めるために,テストデータに対して各手法によって抽出された根拠,およびテストデータに付与された根拠抽出の正解に含まれる$n$-gramの数を調査した.その結果を表~\ref{tab:distribution}に示す.表中の「ランダム」と「事前学習」の行はそれぞれ,RCNNの初期パラメータをランダムな値とした場合と,\ref{sec:settings}~項で述べた開発データによって学習したパラメータとした場合の結果である.また,「Seq2Seq」は注意機構を用いた系列変換による手法の結果を表し,「定数」と「逆数」の行はそれぞれ,根拠抽出の閾値を定数とした場合と,発話チャンク中の単語数の逆数とした場合の結果である.閾値を定数とした系列変換による手法を除いて,5-gram以上は根拠抽出結果にほとんど含まれないことから,根拠抽出の評価は4-gramまで行えば十分である.したがって,根拠抽出の評価にはBLEU-1からBLEU-4,ROUGE-1からROUGE-4,F-1からF-4を用いる.\begin{table}[t]\caption{根拠抽出結果と正解の根拠に含まれる$n$-gramの数}\label{tab:distribution}\input{05table04.tex}\end{table}また,各事例ごとに式(\ref{eq:BLEU}),(\ref{eq:ROUGE}),(\ref{eq:F})にしたがってBLEU-$N$,ROUGE-$N$,F-$N$を計算すると,各事例中のn-gramの少なさから分母が0となることが多いため,全事例での評価にはマイクロ平均を用いる.\begin{table}[b]\caption{データベースフィールドへの分類結果}\label{tab:classification}\input{05table05.tex}\end{table}\begin{table}[b]\caption{【周辺環境】に対する根拠抽出結果}\label{tab:rationale-surrounding}\input{05table06.tex}\end{table}\subsection{実験結果}データベースフィールドへの分類結果を表~\ref{tab:classification}に示す.また,【周辺環境】,【間取りタイプ】,【専有面積】,【一部屋の広さ】,【エリア】に対する根拠抽出結果をそれぞれ表~\ref{tab:rationale-surrounding}から表~\ref{tab:rationale-zone}に示す.データベースフィールドへの分類については全体的に系列変換による手法が良好な結果を示した.なお,系列変換による手法では,根拠抽出の閾値の設定によらず分類結果は同じであるため,表~\ref{tab:classification}ではまとめて記載している.根拠抽出については全体的に,BLEU-$N$においてはSVMによる手法が,ROUGE-$N$においては,定数を閾値に用いた系列変換による手法がより高い評価値を示した.また,F-$N$は,$N=1$の場合はSVMによる手法の評価が高く,それ以上では系列変換による手法の評価が高かった.また,RCNNによる手法の2通りのパラメータの初期値による結果を比較すると,分類については【周辺環境】以外ではランダムな初期値としたほうが良好な結果であり,根拠抽出についてはあまり差がないことがわかる.\begin{table}[t]\caption{【間取りタイプ】に対する根拠抽出結果}\label{tab:rationale-plan}\input{05table07.tex}\end{table}\begin{table}[t]\caption{【専有面積】に対する根拠抽出結果}\label{tab:rationale-area}\input{05table08.tex}\end{table}\begin{table}[t]\caption{【一部屋の広さ】に対する根拠抽出結果}\label{tab:rationale-size}\input{05table09.tex}\end{table}【周辺環境】タグの根拠抽出について,各手法が正しく抽出できた例と抽出を誤った例を図~\ref{fig:evidence-examples}に示す.図中の網掛けされた単語または単語列は正解の根拠を,枠で囲まれた単語または単語列は各手法で抽出した根拠を表す.図中の発話チャンクa,d,gがそれぞれの手法で正しく根拠を抽出できた例である.ここで抽出できた根拠は,ユーザ発話に関係するデータベースフィールドについて質問するシステム発話を生成することに利用できる.例えば,発話チャンクdでは「治安」という根拠を抽出できているため,「治安のいいところがいいです。」というユーザ発話に対して,「『治安』を気にされているようですが,周辺環境のご希望はございますか?」という発話が可能である.\begin{table}[t]\caption{【エリア】に対する根拠抽出結果}\label{tab:rationale-zone}\input{05table10.tex}\end{table}\begin{figure}[t]\begin{center}\includegraphics{26-1ia5f5.eps}\end{center}\caption{【周辺環境】タグに対する根拠の抽出例(網掛け部:正解,枠囲み部:システムの出力)}\label{fig:evidence-examples}\end{figure}\subsection{考察}\subsubsection{SVMによる手法}【周辺環境】への分類において,正解は負例であるにも関わらず正例だと判断した例(偽陽性の誤り)は24例存在した.これらの事例を個々に分析した結果,正例によく出現する単語,すなわち大きな重みを持つ単語が発話チャンクに含まれるために正例だと判断された誤りが,24例中12例で最も多いことがわかった.これには,分類の手がかりとなる単語と頻繁に共起するものの単独では手がかりにならない単語が含まれる場合と,発話チャンクの分割方法に問題がある場合の2種類がある.前者の場合では,例えば「面」という単語は「治安」という【周辺環境】への強力な手がかりとなる単語と共起しやすいため,大きな重みを持つ.これは,「治安面」という名詞句としてや,「立地面」への希望を尋ねる不動産業者の質問に対してユーザが「治安の良い地域」と答える形で出現するためである.しかし,「面」という単語が含まれているだけでは【周辺環境】への手がかりとはならない.例えば,以下の発話チャンクには「面」という単語が含まれているものの,【周辺環境】を推論することができないため負例である.\begin{screen}\begin{itemize}\item[店:]お部屋の階数にご希望はございますか?\item[客:]セキュリティーの\ul{面}から2階以上がいいなと思ってます\end{itemize}\end{screen}発話チャンクの分割方法に問題がある例として,以下の発話チャンクにおける「治安面ですね。」のような,不動産業者が直前のユーザ発話への確認を行う部分に分類の手がかりとなる単語が含まれる場合がある.\begin{screen}\begin{itemize}\item[店:]\ul{治安面ですね。}子供が多いエリアがいいなどのご希望はございますか?\item[客:]そうですね。子どもが多いエリアを強く希望します。\end{itemize}\end{screen}これは本来直前の発話チャンクに含まれるべき部分であるが,今回は対話コーパス中の話者交替で機械的に発話チャンクを分割したため,このような例が発生した.一方,正解は正例であるにも関わらず負例だと判断した例(偽陰性の誤り)は23例存在した.そのうち7例については,式(\ref{eq:weight-normalisatoin})による正規化前の重みが負であり,その絶対値が大きい単語を含む例であった.これらの中には,1つの発話チャンク内で,【周辺環境】に加えてそれ以外のデータベースフィールドに関する言及のある場合があった.例えば,以下の発話チャンクには,「落ち着いた地域」という【周辺環境】を推論可能な表現に加え,「練馬区周辺」という具体的なエリアに対する言及も含まれている.\begin{screen}\begin{itemize}\item[店:]最寄り駅など、場所はどのあたりでお探しでしょうか?\item[客:]\ul{練馬区周辺}で\ul{落ち着いた地域}を希望します。\end{itemize}\end{screen}このうちの「区」という単語が,絶対値の大きな負の重みを持つために,この発話チャンクは負例だと判断された.これはこの手法がデータベースフィールドへのマルチラベル分類を,各データベースフィールドへの二値分類として扱い,他のデータベースフィールドについて考慮していないために発生した誤りである.また,偽陽性の誤りの場合と同様に,直前のユーザ発話に対する確認の部分が発話チャンクに含まれてしまい,そこに絶対値の大きな負の重みを持つ単語が存在することにより分類を誤った例もあった.根拠抽出を発話チャンク中の各単語が根拠に含まれるか否かの二値分類として考え,その混同行列を作成することで,どのような単語を根拠として誤って抽出したか,あるいはどのような単語を根拠として抽出できなかったかを分析する.表~\ref{tab:confusion}は【周辺環境】タグにおけるそれぞれの手法の混同行列であり,表中の数は単語数を表す.SVMによる手法の混同行列を見ると,正解の根拠に含まれるにも関わらず根拠として抽出できなかった単語が193語と多い.これらの単語の多くは,助詞であった.例えば,図~\ref{fig:evidence-examples}の発話チャンクbでは「が」や「に」などの助詞を抽出できていない.これは,SVMによる手法が素性として用いる単語に助詞が含まれていないためである.また,SVMによる手法で用いられる発話チャンクの素性はbag-of-wordsであり,単語の隣接を無視した素性となっていることも原因である.しかし,対話システムが,後続の処理において確認発話を生成する際には,これらの助詞も分類の根拠に含まれることが望ましく,SVMによる手法が助詞を含めて根拠を抽出できるよう素性を改良することが必要である.\begin{table}[p]\caption{【周辺環境】における根拠抽出の混同行列}\label{tab:confusion}\input{05table11.tex}\end{table}\begin{table}[p]\caption{根拠として抽出される平均単語数と平均区間数,および1区間あたりの平均単語数の比較}\label{tab:span-size}\input{05table12.tex}\end{table}表~\ref{tab:span-size}にそれぞれの手法で抽出された根拠と正解の根拠における1発話チャンクあたりの平均単語数と平均区間数および区間内単語数(1区間あたりの平均単語数)の比較を示す.ここで,区間とは,連続して根拠となる単語列のことを指す.表を見ると,SVMによる手法が抽出した根拠の単語数は,正解の根拠の単語数よりも特に少ない.また,1区間あたりの平均単語数(区間内単語数)はほぼ1であり,連続した単語列を根拠として抽出できていないことを示す.これは先述のとおり,助詞を根拠として抽出できなかったためである.\begin{figure}[p]\begin{center}\includegraphics{26-1ia5f6.eps}\end{center}\caption{SVMの素性の重みの大きさと正解の根拠に含まれる割合との関係}\label{fig:correlation}\end{figure}素性の重みの大きさと分類根拠としての正しさとの関係を調べるために,各単語の素性の重みの大きさとその単語がテストデータにおいて正解の根拠に含まれる割合を分析した.5つのデータベースフィールドタグについての分析結果を図~\ref{fig:correlation}に示す.図中の横軸は式(\ref{eq:weight-normalisatoin})によって0から1に正規化した素性の重みであり,縦軸は正解の根拠に含まれる割合である.5つのタグにおける,素性の重みの大きさと正解の根拠に含まれる割合との間のピアソンの積率相関係数はそれぞれ0.39,0.36,0.36,0.39,0.32であった.いずれも弱い正の相関であり,必ずしも重みの大きい単語が正解の根拠に含まれるわけではないことを示す.これは上述のように,単独では分類の手がかりとは考えられないにも関わらず,分類の手がかりとなる単語と共起しやすいために大きな重みを持ってしまう単語が存在するためである.例えば,図~\ref{fig:evidence-examples}の発話チャンクcでは,分類の誤り分析でも述べたように「面」という単語が大きな重みを持つために根拠として抽出されているが,正解の根拠には含まれていない.\subsubsection{RCNNによる手法}初期パラメータをランダムな値にした場合と開発データによって事前学習を行った場合では,【周辺環境】タグを除いて,ランダムな値とした場合が分類においてより良好な結果であった.これは,【周辺環境】の正例のみから作成した開発データで学習されたパラメータは,他のタグへの分類には有効ではないことを示す.一方,【周辺環境】においては性能が向上していることから,他のタグについても,タグごとの開発データを用いて事前学習を行うことで性能が向上する可能性がある.RCNNによる手法は,データベースフィールドへの分類を学習する際,発話チャンク中のすべての単語ではなく,分類の根拠として抽出された単語のみを使用する.したがって,データベースフィールドへの分類の性能が根拠抽出の性能に大きく依存することが予想できる.パラメータを事前学習したRCNNによる手法において分類の性能と根拠抽出の結果との関係を分析するために,テストデータ中の事例を分類が正解したか否かと,根拠抽出結果と正解の根拠との単語の重なりの有無に基づき4種類に分類する.ここで,根拠抽出結果$\tilde{\bm{z}}=(\tilde{z}_1,\tilde{z}_2,\cdots,\tilde{z}_m)$と正解の根拠$\bm{z}=(z_1,z_2,\cdots,z_m)$との単語の重なりがあるというのは,$\tilde{z}_t=z_t=1$なる$t$が少なくとも1つ存在することである.正解の根拠がアノテーションされているのは分類の正例のみであるため,この分析は分類の正例のみについて行う.【周辺環境】,【間取りタイプ】,【専有面積】,【一部屋の広さ】,【エリア】の5つのデータベースフィールドについて,テストデータ中の分類の正例を4種類に分類し,それぞれの事例数を数えた結果を表~\ref{tab:FN_TP_rationale}に示す.【周辺環境】において,重なりがある90例のうち73例(81\%)は分類結果が正解であるのに対し,重なりが無い23例中の正解は14例(60\%)にとどまっている.この傾向は他の4つのデータベースフィールドタグについても同様である.このことから,根拠抽出の性能とデータベースフィールドへの分類性能との間には相関があることがわかる.したがって,根拠抽出の性能を向上させることで分類の性能も向上する可能性がある.\begin{table}[b]\hangcaption{各データベースフィールドタグの正例を,分類が正解したか否かと,根拠抽出結果と正解の根拠との単語の重なりの有無に基づいて分類した結果}\label{tab:FN_TP_rationale}\input{05table13.tex}\end{table}\begin{table}[b]\hangcaption{RCNNによる手法のエンコーダに,ジェネレータの出力を入力した場合と正解の根拠を入力した場合の再現率}\label{tab:upperbound}\input{05table14.tex}\end{table}しかし,表~\ref{tab:FN_TP_rationale}は,RCNNによる手法の根拠抽出が完全に誤っているにも関わらず,分類に正解している例が存在することも示している.我々は【周辺環境】タグについて,推定の根拠と正解の根拠の重なりがないものの,分類に正解している14例(表~\ref{tab:FN_TP_rationale}中の,重なりが「無し」で分類が正解である例)について分析を行った.その結果,分類の手がかりとなっているものの,根拠の正解には含まれない単語があることがわかった.例えば,図~\ref{fig:evidence-examples}中の発話チャンクeでは,「近く」という単語が抽出されているが,この単語は,【周辺環境】タグへ変換する根拠とは言えず,正解としてアノテーションされていない.しかし,RCNNによる手法はこの例を正しく【周辺環境】タグへ分類することができていた.これは,「近く」という単語が学習データ中の正例において負例よりも2倍多く出現し,【周辺環境】タグへの分類の手がかりとなったためだと考えられる.これは,発話中で人間が分類の根拠だと考える部分と,RCNNによる分類器が手がかりとして使用する部分が異なるということを意味する.この解釈を裏付ける結果として,同じパラメータのエンコーダに対し,ジェネレータで抽出した単語を入力した場合と,根拠としてアノテーションされた単語,すなわち正解の根拠を入力した場合との分類結果の比較を表~\ref{tab:upperbound}に示す.ここで,根拠がアノテーションされているのは分類の正例のみであるため,再現率のみを示している.【専有面積】,【部屋の広さ】,【エリア】については,正解の根拠を分類に使用しているにも関わらず,再現率はジェネレータの出力を入力した場合よりも低いことがわかる.このことから,エンコーダが正しい分類を行うためには,人間が根拠であると考える部分だけでは不十分であると言える.データベースフィールドへの分類性能を向上させるためには,このような,根拠としてアノテーションされていないものの,分類に役立つ情報を利用できるよう手法を拡張する必要がある.表~\ref{tab:span-size}において,RCNNによる手法で抽出された根拠と正解の根拠とを比較すると,RCNNによる手法は正解よりも少ない単語を根拠として抽出している一方,抽出された区間数は正解よりも多い.その結果1区間あたりの平均単語数は正解の半分未満となったものの,SVMによる手法のそれよりは若干多く,より長い根拠を抽出していることがわかる.これが,RCNNによる手法がSVMによる手法よりも高いROUGEを達成した要因である.また,このことは,より連続した根拠を選ぶように設計したジェネレータの損失関数が期待通りのはたらきをしていることを示している.表~\ref{tab:confusion}を見ると,正解の根拠に含まれるにも関わらずRCNNによる手法が根拠として抽出できなかった単語は165単語と多い.これらの単語には「が」や「に」のような助詞が多く含まれていた.例えば,図~\ref{fig:evidence-examples}中の発話チャンクfでは,正解の根拠が「お買い物が便利」という単語列であるのに対し,推定した根拠では助詞である「が」を抽出できなかった.助詞はどのようなデータベースフィールドにおいても出現するため分類に重要な素性ではない.そのため,根拠として抽出することが出来なかったと考えられる.また,RCNNによる手法によって出力された【周辺環境】タグに対する根拠について個々に分析を行ったところ,テストデータ中のすべての事例において疑問符「?」の直後の単語を根拠として抽出することがわかった.疑問符はほとんどの場合において不動産業者による質問の最後の単語であり,その直後の単語というのはユーザ発話の一番最初の単語である.実際に,図~\ref{fig:evidence-examples}中の発話チャンクd,e,fのいずれにおいても,ユーザ発話の一番最初の単語が根拠として抽出されている.【周辺環境】タグへの分類の強力な手がかりとなる語として「治安」という単語があるが,学習データにおける「治安」の出現のうち41.3\%が疑問符の直後であるため,RCNNによる手法のジェネレータはこの共起を学習したと考えられる.しかし,実際のテストデータにおいて,疑問符の直後の単語が根拠の正解に含まれる例は全体の40.4\%であり,これによって根拠抽出の精度が低下した.RCNNによる手法がデータベースフィールドタグへの分類とその根拠抽出の両方において性能が低かった原因として,データの不足が考えられる.本論文では,学習データに2,379個の発話チャンクのみを使用したが,RCNNによる手法の元となる論文~\cite{Lei2016}では,約8万から9万のレビューテキストを用いている.我々の課題でもデータを増やすことによってRCNNによる手法の性能を改善できる可能性がある.\subsubsection{注意機構を用いた系列変換による手法}表~\ref{tab:span-size}を見ると,定数を根拠抽出の閾値として用いた場合は,正解と比較してより多くの単語を根拠として抽出している.閾値として単語数の逆数を用いた場合も,SVMやRCNNによる手法と比較するとより多くの単語を抽出しており,正解の単語数や区間内単語数により近い.これが,注意機構を用いた系列変換による手法が根拠抽出においてSVMによる手法やRCNNによる手法よりも良好な結果となった理由だと考えられる.図~\ref{fig:evidence-examples}の発話チャンクgは閾値として単語数の逆数を用いた場合の例であるが,SVMやRCNNによる手法で正しく抽出できた例(a,d)と比較すると,より長い根拠を抽出することができている.実際,SVMやRCNNによる手法で完全に正しい根拠を抽出できた例はいずれも1単語のみの根拠であるため,この手法は他の手法と比べてより長い根拠を正しく抽出できたと言える.一方,表~\ref{tab:confusion}を見ると,注意機構を用いた系列変換による手法の根拠抽出では,偽陽性の誤りが多く,余分な単語を抽出しすぎていることがわかる.特に,定数を閾値とした場合は,この誤りが非常に多い.図~\ref{fig:evidence-examples}の発話チャンクhは,定数を閾値とした場合の例であるが,正解が「治安」のみであるのに対し,推定結果では発話チャンクのほとんどの単語を根拠として抽出してしまっていることがわかる.これは,今回閾値として用いた値が0.0525と非常に小さかったためである.また,発話チャンクiも同様に定数を閾値とした場合の例であるが,「共働きで息子が保育園」という根拠を正しく抽出することができているが,「、」や「。」という,根拠にも分類の手がかりにもならない単語が抽出されてしまっている.これは,注意機構で計算されるこれらの単語の重みが比較的大きいことを示す.したがって,このような単語を抽出しないように,閾値の設定などの抽出方法を工夫する必要がある.\subsubsection{非明示的条件を含むか否かの分類}本論文では,あらかじめ非明示的条件を含むとわかっている発話チャンクのみに焦点を当て,データベースフィールドへの分類および根拠抽出の対象とした.しかし,実際の対話では,非明示的条件を含まない発話も対話システムに入力されるため,事前に各発話チャンクが非明示的条件を含むか否かの二値分類を行う必要がある.そこで,双方向RNN(Bi-RNN)と双方向LSTM(Bi-LSTM)による2つの二値分類手法を実装し,その性能を評価する.これらの手法では入力発話チャンク中の単語列を,順方向と逆方向のRNNまたはLSTMに入力し,それぞれの最終状態を連結したベクトルをFFNNへ入力することで,正負の二値を出力する.二値分類手法の学習およびテストには,非明示的条件を含まない発話チャンクも合わせた全ての発話チャンクを用いる.学習に用いる発話チャンクは13,034個であり,そのうち2,379個(18.3\%)が非明示的条件を含む.テストに用いる発話チャンクは1,430個であり,そのうち263個(18.4\%)が非明示的条件を含む.用いる単語埋め込みベクトルは\ref{sec:settings}項で述べたものと同様である.また,双方向RNNと双方向LSTMの隠れ状態ベクトルの次元数は200とし,その他の学習の設定は表~\ref{tab:settings}と同様である.二値分類の結果を表~\ref{tab:binary}に示す.これらのナイーブな手法で77.4\%のF値を達成できているため,さらに洗練された手法を用いることでより高い性能を達成できる可能性がある.\begin{table}[t]\caption{非明示的条件を含むか否かの二値分類結果}\label{tab:binary}\input{05table15.tex}\end{table}
\section{結論}
本論文は,データベース検索を行うタスク指向対話を対象として,ユーザ発話中で明示的に述べられていないユーザ要求の解釈を行う課題を提案した.我々はこのように明示的に述べられないユーザ要求を非明示的条件と呼び,その解釈を,ユーザ発話を関連するデータベースフィールドに分類し,また同時にその根拠となるユーザ発話中の文字列を抽出する課題として定式化した.この課題に対する3つの手法として,サポートベクタマシン,回帰型畳込みニューラルネットワーク,注意機構を用いた系列変換による手法を実装した.不動産に関する対話のコーパスを利用した評価実験の結果,注意機構を用いた系列変換による手法がより良好な結果を示すことがわかった.本論文では,ユーザ発話をデータベースフィールドに分類することと,発話からその根拠を抽出することにのみ焦点を当てたが,実際にユーザ発話からデータベースクエリを生成するためには,データベースフィールドの値も抽出することが必要である.また,データベースフィールドの値を抽出することができれば,「一人暮らしということですので,間取りは1LDK以下でよろしいですか?」のようなユーザへの確認発話を生成することができる.そのためには実際の値を含むデータベースが必要となるため,この問題に取り組むことは今後の課題である.また,本論文で取り組んだのは,非明示的条件を含むユーザ発話を,発話ごとに解釈する自然言語理解の課題である.発話ごとに解釈した結果は文脈を考慮していないため,それまでの対話で既に言及されたデータベースフィールドを再び抽出してしまう可能性があり,そのまま対話システムに使用することは不適切である.DialogueStateTrackingChallenge5~\cite{Kim2016_5th}で行っているように,それまでにユーザが検索条件として指定したデータベースフィールドを内部状態として記憶しておき,ユーザ発話を解釈するたびにそれを更新する対話状態推定の課題に取り組む必要がある.本論文で提案した手法による分類結果を用いて,対話状態推定を行う手法を考案し,評価することは今後の課題である.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bapna,Tur,Hakkani-T{\"{u}}r,\BBA\Heck}{Bapnaet~al.}{2017}]{Bapna2017}Bapna,A.,Tur,G.,Hakkani-T{\"{u}}r,D.,\BBA\Heck,L.\BBOP2017\BBCP.\newblock\BBOQSequentialDialogueContextModelingforSpokenLanguageUnderstanding.\BBCQ\\newblockIn{\BemProceedingsofthe18thAnnualSIGdialMeetingonDiscourseandDialogue(SIGDIAL2017)},\mbox{\BPGS\103--114}.\bibitem[\protect\BCAY{Celikyilmaz,Hakkani-t{\"{u}}r,\BBA\Tur}{Celikyilmazet~al.}{2012}]{Celikyilmaz2012}Celikyilmaz,A.,Hakkani-t{\"{u}}r,D.,\BBA\Tur,G.\BBOP2012\BBCP.\newblock\BBOQStatisticalSemanticInterpretationModelingforSpokenLanguageUnderstandingwithEnrichedSemanticFeatures.\BBCQ\\newblockIn{\BemSpokenLanguageTechnologyWorkshop(SLT),2012IEEE},\mbox{\BPGS\216--221}.\bibitem[\protect\BCAY{Chen,Liu,Yin,\BBA\Tang}{Chenet~al.}{2017}]{Chen:2017:SDS:3166054.3166058}Chen,H.,Liu,X.,Yin,D.,\BBA\Tang,J.\BBOP2017\BBCP.\newblock\BBOQASurveyonDialogueSystems:RecentAdvancesandNewFrontiers.\BBCQ\\newblock{\BemSIGKDDExplorationsNewsletter},{\Bbf19}(2),\mbox{\BPGS\25--35}.\bibitem[\protect\BCAY{Cohen}{Cohen}{1960}]{cohen1960coefficient}Cohen,J.\BBOP1960\BBCP.\newblock\BBOQACoefficientofAgreementforNominalScales.\BBCQ\\newblock{\BemEducationalandPsychologicalMeasurement},{\Bbf20}(1),\mbox{\BPGS\37--46}.\bibitem[\protect\BCAY{Dahl,Bates,Brown,Fisher,Hunicke-Smith,Pallett,Pao,Rudnicky,\BBA\Shriberg}{Dahlet~al.}{1994}]{Dahl:1994:ESA:1075812.1075823}Dahl,D.~A.,Bates,M.,Brown,M.,Fisher,W.,Hunicke-Smith,K.,Pallett,D.,Pao,C.,Rudnicky,A.,\BBA\Shriberg,E.\BBOP1994\BBCP.\newblock\BBOQExpandingtheScopeoftheATISTask:TheATIS-3Corpus.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponHumanLanguageTechnology},HLT'94,\mbox{\BPGS\43--48}.\bibitem[\protect\BCAY{Eric,Krishnan,Charette,\BBA\Manning}{Ericet~al.}{2017}]{Eric2017}Eric,M.,Krishnan,L.,Charette,F.,\BBA\Manning,C.~D.\BBOP2017\BBCP.\newblock\BBOQKey-ValueRetrievalNetworksforTask-OrientedDialogue.\BBCQ\\newblockIn{\BemProceedingsofthe18thAnnualSIGdialMeetingonDiscourseandDialogue(SIGDIAL2017)},\mbox{\BPGS\37--49}.\bibitem[\protect\BCAY{Fukunaga,Nishikawa,Tokunaga,Yokono,\BBA\Takahashi}{Fukunagaet~al.}{2018}]{Fukunaga2018}Fukunaga,S.,Nishikawa,H.,Tokunaga,T.,Yokono,H.,\BBA\Takahashi,T.\BBOP2018\BBCP.\newblock\BBOQAnalysisofImplicitConditionsinDatabaseSearchDialogues.\BBCQ\\newblockIn{\BemProceedingsofthe11thInternationalConferenceonLanguageResourcesandEvaluation(LREC2018)},\mbox{\BPGS\2741--2745}.\bibitem[\protect\BCAY{Gunning}{Gunning}{2018}]{XAI-Gunning}Gunning,D.\BBOP2018\BBCP.\newblock\BBOQExplainableArtificialIntelligence(XAI).\BBCQ\\newblock{\hfill\hfill\linebreak\ttfamilyhttps://www.darpa.mil/program/explainable-artificial-intelligence}\2018年11月7日閲覧.\bibitem[\protect\BCAY{Hakkani-T{\"{u}}r,Tur,Celikyilmaz,Chen,Gao,Deng,\BBA\Wang}{Hakkani-T{\"{u}}ret~al.}{2016}]{Hakkani-t2016}Hakkani-T{\"{u}}r,D.,Tur,G.,Celikyilmaz,A.,Chen,Y.-n.,Gao,J.,Deng,L.,\BBA\Wang,Y.-y.\BBOP2016\BBCP.\newblock\BBOQMulti-DomainJointSemanticFrameParsingUsingBi-DirectionalRNN-LSTM.\BBCQ\\newblockIn{\BemINTERSPEECH-2016},\mbox{\BPGS\715--719}.\bibitem[\protect\BCAY{Hemphill,Godfrey,\BBA\Doddington}{Hemphillet~al.}{1990}]{Hemphill:1990:ASL:116580.116613}Hemphill,C.~T.,Godfrey,J.~J.,\BBA\Doddington,G.~R.\BBOP1990\BBCP.\newblock\BBOQTheATISSpokenLanguageSystemsPilotCorpus.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponSpeechandNaturalLanguage},HLT'90,\mbox{\BPGS\96--101}.\bibitem[\protect\BCAY{Hori,Wang,Hori,Watanabe,Harsham,Roux,Hershey,Koji,Jing,Zhu,\BBA\Aikawa}{Horiet~al.}{2016}]{Hori2016}Hori,T.,Wang,H.,Hori,C.,Watanabe,S.,Harsham,B.,Roux,J.~L.,Hershey,J.~R.,Koji,Y.,Jing,Y.,Zhu,Z.,\BBA\Aikawa,T.\BBOP2016\BBCP.\newblock\BBOQDialogStateTrackingwithAttention-basedSequence-to-sequenceLearning.\BBCQ\\newblockIn{\Bem2016IEEESpokenLanguageTechnologyWorkshop(SLT)},\mbox{\BPGS\552--558}.\bibitem[\protect\BCAY{Jaech,Heck,\BBA\Ostendorf}{Jaechet~al.}{2016}]{Jaech2016}Jaech,A.,Heck,L.,\BBA\Ostendorf,M.\BBOP2016\BBCP.\newblock\BBOQDomainAdaptationofRecurrentNeuralNetworksforNaturalLanguageUnderstanding.\BBCQ\\newblockIn{\BemINTERSPEECH-2016},\mbox{\BPGS\690--694}.\bibitem[\protect\BCAY{Kim,D'Haro,Banchs,Williams,Henderson,\BBA\Yoshino}{Kimet~al.}{2016}]{Kim2016_5th}Kim,S.,D'Haro,L.~F.,Banchs,R.~E.,Williams,J.~D.,Henderson,M.,\BBA\Yoshino,K.\BBOP2016\BBCP.\newblock\BBOQTheFifthDialogStateTrackingChallenge.\BBCQ\\newblockIn{\BemProceedingsofthe2016IEEEWorkshoponSpokenLanguageTechnology(SLT)},\mbox{\BPGS\511--517}.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2014}]{adam}Kingma,D.~P.\BBACOMMA\\BBA\Ba,J.\BBOP2014\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblock{\BemarXivpreprintarXiv:1412.6980}.\bibitem[\protect\BCAY{Lei,Barzilay,\BBA\Jaakkola}{Leiet~al.}{2016}]{Lei2016}Lei,T.,Barzilay,R.,\BBA\Jaakkola,T.\BBOP2016\BBCP.\newblock\BBOQRationalizingNeuralPredictions.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2016)},\mbox{\BPGS\107--117}.\bibitem[\protect\BCAY{Lin\BBA\Hovy}{Lin\BBA\Hovy}{2003}]{ROUGE}Lin,C.-Y.\BBACOMMA\\BBA\Hovy,E.\BBOP2003\BBCP.\newblock\BBOQAutomaticEvaluationofSummariesusingN-gramCo-occurrenceStatistics.\BBCQ\\newblockIn{\BemProceedingsofthe2003ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsonHumanLanguageTechnology-Volume1},\mbox{\BPGS\71--78}.\bibitem[\protect\BCAY{Liu\BBA\Lane}{Liu\BBA\Lane}{2016a}]{Liu2016b}Liu,B.\BBACOMMA\\BBA\Lane,I.\BBOP2016a\BBCP.\newblock\BBOQAttention-BasedRecurrentNeuralNetworkModelsforJointIntentDetectionandSlotFilling.\BBCQ\\newblockIn{\BemINTERSPEECH-2016},\mbox{\BPGS\685--689}.\bibitem[\protect\BCAY{Liu\BBA\Lane}{Liu\BBA\Lane}{2016b}]{Liu2016a}Liu,B.\BBACOMMA\\BBA\Lane,I.\BBOP2016b\BBCP.\newblock\BBOQJointOnlineSpokenLanguageUnderstandingandLanguageModelingwithRecurrentNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe17thAnnualMeetingoftheSpecialInterestGrouponDiscourseandDialogue(SIGDIAL2016)},\mbox{\BPGS\22--30}.\bibitem[\protect\BCAY{Mesnil,Dauphin,Yao,Bengio,Deng,Hakkani-T{\"{u}}r,He,Heck,Tur,Yu,\BBA\Zweig}{Mesnilet~al.}{2015}]{Mesnil2015}Mesnil,G.,Dauphin,Y.,Yao,K.,Bengio,Y.,Deng,L.,Hakkani-T{\"{u}}r,D.,He,X.,Heck,L.,Tur,G.,Yu,D.,\BBA\Zweig,G.\BBOP2015\BBCP.\newblock\BBOQUsingRecurrentNeuralNetworksforSlotFillinginSpokenLanguageUnderstanding.\BBCQ\\newblock{\BemIEEE/ACMTransactionsonAudio,Speech,andLanguageProcessing},{\Bbf23}(3),\mbox{\BPGS\530--539}.\bibitem[\protect\BCAY{Mesnil,He,Deng,\BBA\Bengio}{Mesnilet~al.}{2013}]{Mesnil2013}Mesnil,G.,He,X.,Deng,L.,\BBA\Bengio,Y.\BBOP2013\BBCP.\newblock\BBOQInvestigationofRecurrent-Neural-NetworkArchitecturesandLearningMethodsforSpokenLanguageUnderstanding.\BBCQ\\newblockIn{\BemINTERSPEECH-2013},\mbox{\BPGS\3771--3775}.\bibitem[\protect\BCAY{Monroe}{Monroe}{2018}]{XAI-Monroe}Monroe,D.\BBOP2018\BBCP.\newblock\BBOQAI,ExplainYourself.\BBCQ\\newblock{\BemCommunicationsoftheACM},{\Bbf61}(11),\mbox{\BPGS\11--13}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{BLEU}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Ramshaw\BBA\Marcus}{Ramshaw\BBA\Marcus}{1995}]{ramshaw1995text}Ramshaw,L.\BBACOMMA\\BBA\Marcus,M.\BBOP1995\BBCP.\newblock\BBOQTextChunkingusingTransformation-BasedLearning.\BBCQ\\newblockIn{\Bem3rdWorkshoponVeryLargeCorpora},\mbox{\BPGS\82--94}.\bibitem[\protect\BCAY{Raymond\BBA\Riccardi}{Raymond\BBA\Riccardi}{2007}]{raymond2007generative}Raymond,C.\BBACOMMA\\BBA\Riccardi,G.\BBOP2007\BBCP.\newblock\BBOQGenerativeandDiscriminativeAlgorithmsforSpokenLanguageUnderstanding.\BBCQ\\newblockIn{\Bem8thAnnualConferenceoftheInternationalSpeechCommunicationAssociation},\mbox{\BPGS\1605--1608}.\bibitem[\protect\BCAY{Takahashi\BBA\Yokono}{Takahashi\BBA\Yokono}{2017}]{Yokono2017}Takahashi,T.\BBACOMMA\\BBA\Yokono,H.\BBOP2017\BBCP.\newblock\BBOQTwoPersonsDialogueCorpusMadebyMultipleCrowd-workers.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalWorkshoponSpokenDialogueSystems(IWSDS2017)}.\newblock6pages.\bibitem[\protect\BCAY{Taylor}{Taylor}{1968}]{Taylor1968}Taylor,R.~S.\BBOP1968\BBCP.\newblock\BBOQQuestion-NegotiationandInformationSeekinginLibraries.\BBCQ\\newblock{\BemCollege\&ResearchLibraries},{\Bbf29}(3),\mbox{\BPGS\178--194}.\bibitem[\protect\BCAY{Vu,Gupta,Adel,\BBA\Schutze}{Vuet~al.}{2016}]{Vu2016}Vu,N.~T.,Gupta,P.,Adel,H.,\BBA\Schutze,H.\BBOP2016\BBCP.\newblock\BBOQBi-DirectionalRecurrentNeuralNetworkwithRankingLossforSpokenLanguageUnderstanding.\BBCQ\\newblockIn{\Bem2016IEEEInternationalConferenceonAcoustics,SpeechandSignalProcessing(ICASSP)},\mbox{\BPGS\6060--6064}.\bibitem[\protect\BCAY{Yao,Peng,Zhang,Yu,Zweig,\BBA\Shi}{Yaoet~al.}{2014}]{Yao2014}Yao,K.,Peng,B.,Zhang,Y.,Yu,D.,Zweig,G.,\BBA\Shi,Y.\BBOP2014\BBCP.\newblock\BBOQSpokenLanguageUnderstandingUsingLongShort-TermMemoryNeuralNetworks.\BBCQ\\newblockIn{\BemSpokenLanguageTechnologyWorkshop(SLT)},\mbox{\BPGS\189--194}.\bibitem[\protect\BCAY{Yao,Zweig,Hwang,Shi,\BBA\Yu}{Yaoet~al.}{2013}]{Yao2013}Yao,K.,Zweig,G.,Hwang,M.-y.,Shi,Y.,\BBA\Yu,D.\BBOP2013\BBCP.\newblock\BBOQRecurrentNeuralNetworksforLanguageUnderstanding.\BBCQ\\newblockIn{\BemINTERSPEECH-2013},\mbox{\BPGS\2524--2528}.\end{thebibliography}\begin{biography}\bioauthor{福永隼也}{2017年東京工業大学工学部情報工学科卒業.同年より東京工業大学情報理工学院修士課程在学中.学士(工学).言語処理学会会員.}\bioauthor{西川仁}{2006年慶應義塾大学総合政策学部卒業.2008年同大学大学院政策・メディア研究科修士課程修了.同年,日本電信電話株式会社入社.2013年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.NTTメディアインテリジェンス研究所研究員を経て,2015年より東京工業大学情報理工学院助教.2017年IE経営大学院修士課程修了.博士(工学).自然言語処理,特に自動要約,自然言語生成の研究に従事.TheAssociationforComputationalLinguistics,言語処理学会,人工知能学会,情報処理学会各会員.}\bioauthor{徳永健伸}{1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,東京工業大学情報理工学院教授.博士(工学).専門は自然言語処理,計算言語学.情報処理学会,人工知能学会,言語処理学会,計量国語学会,AssociationforComputationalLinguistics,ACMSIGIR,CognitiveScienceSociety,InternationalCognitiveLinguisticsAssociation各会員.}\bioauthor{横野光}{2003年岡山大学工学部情報工学科卒業.2008年同大大学院自然科学研究科産業創成工学専攻単位取得退学.東京工業大学精密工学研究所研究員,国立情報学研究所特任研究員,同研究所特任助教を経て,2016年より株式会社富士通研究所研究員.博士(工学).意味解析の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{高橋哲朗}{2005年奈良先端科学技術大学院大学博士後期課程修了.博士(工学).同年株式会社富士通研究所入社.2008年〜2010年ニフティ株式会社にてWebサービス開発,2011年〜2012年マサチューセッツ工科大学にて客員研究員を経て,現在富士通研究所にて自然言語処理およびデータ分析の研究に従事.}\end{biography}\biodate\end{document}
| |
V03N03-05 | \section{はじめに}
\footnotetext{井佐原均,HitoshiIsahara,郵政省通信総合研究所関西先端研究センター,KansaiAdvancedResearchCenter,CommunicationsResearchLaboratory,MPT}\footnotetext{内野一,HajimeUchino,日本電信電話株式会社NTTコミュニケーション科学研究所,NTTCommunicationScienceLaboratories,NipponTelegraphandTelephone}\footnotetext{荻野紫穂,ShihoOgino,日本アイ・ビー・エム株式会社東京基礎研究所,IBMResearch,TokyoResearchLaboratory,NihonIBM}\footnotetext{奥西稔幸,ToshiyukiOkunishi,シャープ株式会社情報システム事業本部情報商品開発研究所,InformationSystemsProductDevelopmentLaboratories,InformationSystemsGroup,SharpCorp.}\footnotetext{木下聡,SatoshiKinoshita,株式会社東芝研究開発センター情報・通信システム研究所,ResearchandDevelopmentCenter,CommunicationandInformationSystemsResearchLaboratories,Toshiba}\footnotetext{柴田昇吾,ShogoShibata,キヤノン株式会社情報メディア研究所,MediaTechnologyLaboratory,CANONINC.}\footnotetext{杉尾俊之,ToshiyukiSugio,沖電気工業株式会社研究開発本部関西総合研究所,ResearchandDevelopmentGroup,KansaiLaboratory,OkiElectricIndustryCo.,Ltd.,}\footnotetext{高山泰博,YasuhiroTakayama,三菱電機株式会社情報技術総合研究所,InformationTechnologyR\&DCenter,MitsubishiElectricCorp.}\footnotetext{土井伸一,Shin'ichiDoi,日本電気株式会社情報メディア研究所,InformationTechnologyResearchLaboratories,NECCorp.}\footnotetext{永野正,TadashiNagano,松下電器産業株式会社AV&CC開発センター東京情報システム研究所,ICSC,MatsushitaElectricIndustrialCo.,Ltd.}\footnotetext{成田真澄,MasumiNarita,株式会社リコー情報通信研究所,InformationandCommunicationR\&DCenter,RicohCo.,Ltd.}\footnotetext{野村浩郷,HirosatoNomura,九州工業大学情報工学部知能情報工学科,DepartmentofArtificialIntelligence,KyushuInstituteofTechnology}機械翻訳システムの長い歴史の中で、システム評価は常に大きな課題の一つであった。システムの研究開発が健全に進むためには、客観的かつ正確な評価法が必要となる。このため、ユーザの立場から評価を行うもの、開発者の立場から評価を行うもの、また、技術的側面から評価を行うもの、経済的側面から評価を行うものと、多くの研究者によって様々な視点からの評価法が検討されてきた。これらの検討に基づいて、(社)日本電子工業振興協会によって一連の機械翻訳システム評価基準が開発されてきた(野村・井佐原1992,NomuraandIsahara1992a,NomuraandIsahara1992b,日本電子工業振興協会1993)。本稿で提案する機械翻訳システムの評価法は、システムの改良を続ける開発者の立場から、機械翻訳システムの技術面を翻訳品質に注目して評価するものである。機械翻訳システムの訳文の品質面での評価に関しては、従来からのいわゆるALPACレポート型の評価法に加えて、近年、いくつかの提案がなされている。ある程度まとまった文章を翻訳し、そこから得られる理解の度合を評価しようとするものとして、ARPAによる機械翻訳システム評価(Whiteetal1994)や、TOEFLのテストを用いる方法(Tomita1992)が提案されているが、これらはシステム間の現時点での性能の比較評価には用いることが出来ても、評価結果を直接システム改良に結び付けることは困難である。これに対し、個別の例文を収集することにより評価用の例文集を作成し、その各例文の翻訳結果を評価し、対応する言語現象の処理能力を判定しようとする提案がいくつかなされている。これらのうちには、単に文を集めるのみで、その後の例文の利用法(評価過程)は個別の評価者に任せようというものから、本稿で提案するように、客観的評価のためにさまざまな情報を付加しようというものまで、いくつかの段階がある。わが国においては、(社)日本電子工業振興協会が既に昭和60年に機械翻訳例文資料として、翻訳における曖昧性に関する問題点に着目して、英文および和文を収集分類し公開している(日本電子工業振興協会1985)。また同協会は昭和62年度に、機械翻訳システムの技術レベルを評価するために、文の複雑さの定量化、文の複雑さや文体の定性的特徴の抽出、標準的例文の収集を行なった(日本電子工業振興協会1988,石崎・井佐原1988)。この他、英語を話す人間と日本語を話す人間との間にある言語理解法の違い(言い替えると、日本語と英語の発想法の違い)に注目して日本語の言語表現を分類し、それらの表現の翻訳能力を評価する試験文集を作成するもの(池原・小倉1990,池原他1994)や、言語学的観点から日本語および英語の言語表現の構造に注目し、その表現上の構造的特性を的確に表すような試験文集を作成すること(成田1988)が提案されてきた。後者は、個々の言語現象に対する翻訳の可否を示すことの必要性から、一定の内容の文の言い換えなどによって日本語および英語の言語表現と翻訳能力の関係を言語学者の立場から評価することを提案している。本稿で論じる機械翻訳システム評価用テストセットは、以上のような、ALPACレポート以来の品質評価に関する研究を踏まえて、誰でも客観的かつ実用的な評価を行なえる評価法の確立を目指し作成したものである。次節以下では、テストセットを用いた評価法の全体を流れる基本的な考え方、英日機械翻訳用テストセット、日英機械翻訳用テストセットについて、順次説明していく。
\section{テストセットを用いた機械翻訳システムの品質評価法}
\subsection{本評価法の利点}これまで、機械翻訳システムの品質評価法として種々の方法が提案されているが、それらの方法に関しては一貫して客観的評価が困難であるという指摘が行なわれてきた。本稿ではまず、従来までの評価法と比べての本評価法の利点を、以下の二つの客観性に基づいて検討する。\\\noindent\hspace*{1cm}(1)評価過程が客観的であること\\\noindent\hspace*{1cm}(2)評価結果の判断が客観的に行なえること\\たとえば、ALPACレポート等に代表される評価法は、評価の軸として「忠実度」「理解容易度」といった、その解釈が評価者の主観的判断に依存する基準を採用している。その結果、評価結果が評価者によって大きく異なってしまうという問題があり、(1)の客観性を満たしていない。この評価のばらつきは不完全な翻訳結果を評価する際に特に顕著に現れるが、現実の機械翻訳システムを評価し、開発過程にフィードバックする際には、翻訳に成功した場合よりも失敗した場合についての検討が重要である。この種の評価法においては評価結果は数値で表現されているため、ある意味では、(2)の客観性を満たしているともいえよう。しかしながら開発者にとっては、自己のシステムが、どの言語現象をどの原因によって処理できなかったのかを判断することが特に重要であり、言語現象が複雑に絡みあった文の翻訳結果を単純に得点化するだけでは有効とはいえない。システム改良に用いるためにその評価結果を解釈しようとする場合には主観的な判断に頼らざるを得ないので、実用的にはこの評価法は(2)の客観性を満たしているとはいえない。一方、我々の開発した評価法においては、これら二つの客観性は共に保たれている。ここでは、単にそれに答えるだけで、システム開発者が自己のシステムの性能評価を行なえるように作られたyes/no設問を各例文に付加することにより、翻訳結果を評価する手続きを明確化した。評価過程で必要とされる手順は単純なyes/no疑問文に答えることだけであり、誰でも機械翻訳システムを同様に評価することが出来る。不完全な翻訳文に対しても、評価者によって評価が大幅に変わるということはない。さらに、各例文には翻訳処理と言語現象との関係を表す解説が付加されており、これにより、システム開発者はなぜ自己のシステムが問題の言語現象を正しく解析できないのかを知ることが出来る。すなわち、我々のテストセットに基づく評価結果を用いて、機械翻訳システムの改良法を決定することが出来る。機械翻訳システムの評価に関しては、既に述べたように、評価すべき言語現象を含む文を集めた評価用例文集の作成という試みもなされている(成田1988,池原・小倉1990,池原他1994)。このような例文集を用いれば、もしシステムが、ある例文を正しく翻訳できないと評価された場合には、システム開発者はただちにその例文が問題としている言語現象をそのシステムが処理できないということが分かる。この点において、この手法もまた(2)の客観性を保持している。しかしながら、この手法には以下の二つの問題がある。\\\begin{itemize}\item例文の翻訳結果を評価する手順が明示されていない。\item評価結果から機械翻訳システムの不備な点を見つけ出す過程が評価者の言語直観に頼っている。\\\end{itemize}例文を集めただけのもの(テストスゥィート(TestSuite))では、個々のシステムのadhocな評価は可能であっても、評価法としては確立しない。明確に記述された手続きにしたがって、誰でも同じように機械翻訳システムを評価できることが必要である。この目的のために各例文に設問や訳出例を付与しているということを明確にする意味で、我々の評価法においては「テストセット(TestSet)」という名称を用いている。また、評価結果を機械翻訳システムの改良に用いるためには、さまざまな言語現象を単に羅列しておくだけでは不十分である。文法体系の中での各言語現象の位置づけを明確にしておくことも必要である。このような考察のもと、我々は上で述べた評価過程の客観性と結果の判断の客観性という二つの客観性を追求した品質評価を可能とする品質評価用テストセットを提案してきた。ここで用いるテストセットは、考慮すべき文法項目を系統立てて収集し、その各項目に例文を付加して作られた。各例文に解説や設問を付加することによって評価の手順を明確に記述することが可能となった。各テストセットには、評価用例文、その人間による模範訳、システムの出力(翻訳結果)を評価するための設問などが記述されており、評価者はテストセット中の例文を翻訳し、その翻訳結果を参照しながら各例文に付与された設問に回答していく。ここで各設問は判断のポイント(すなわち、例文のどの部分が、どのような役割で、どのような訳文となっていれば良いか)が明示されたyes/no質問文であり、評価者によって判断が異なることがないように作られている。この判断をさらに容易にするために、既存の機械翻訳システムでの翻訳結果を用いた回答例が付与されている。以上により評価過程の客観性を実現している。また、各例文には、その文がどのような言語現象を評価するためのものであるかを説明する解説が付与されており、開発者はその例文に対する翻訳結果から自己のシステムが十分には対応していない言語現象を容易に理解することが出来る。これにより、評価結果の判断の客観性を実現できる。\subsection{本評価法の基本的立場(どのような情報を開発者に与えるか)}この評価用テストセットは、個々の機械翻訳システムに依存しない汎用の品質評価法として作成している。したがって、対象とするシステムがルールベース・知識ベース・用例ベース・直接型といった機械翻訳のどの手法を採用しているかには依存しない。このテストセットの目的は機械翻訳システムの開発者が自己のシステムの性能を向上するために、システムの処理できない言語現象を正確に把握することである。その言語現象を処理可能にするための手法は、個々のシステムあるいは個々の手法によって異なっており、その判断は開発者に任すこととし、評価基準としては、そこには立ち入らない。用例ベースの手法とルールベースの手法に共通する解決策を評価法が示すということは現実的ではない。また、個々のシステムによって、対象とする文書が異なっており、各言語現象の出現頻度も異なっている。したがって、システムの欠点のうちで、どの欠点が最も重大であるかを決定することは、当事者にのみ可能なことである。本テストセットの目標は、その当事者の判断を可能な限り援助することにある。ここではテストセット中の各例文には、頻度に関する情報を記述するのではなく、その例文が判断する言語現象を記述してある。翻訳対象となる文書が特定の言語現象に偏っている場合には、評価者はこのテストセットのうちで、必要な言語現象に対応する部分についてのみ翻訳し、その結果を評価すれば良い。自分にとって重要な言語現象を取り扱えるかどうかが、個々の開発者あるいはユーザがシステムを評価する場合には重要であり、評価法としての独自の頻度による一般的な得点化を行なうのは、むしろ誤った評価の原因になると考える。また、評価に例文を用いることについては、その例文に対して高い評価が出るようにシステムを修正することが可能であること、また、全ての言語現象を網羅できるわけではないことなどの問題点が指摘される。しかしながら、ここで提案する評価法はシステム間の相対的な性能評価のために用いるものではない。開発者が自己のシステムの改良のために、その欠点を把握することが目的であり、この本来の目的のためには本テストセットに対してチューニングをすることに意味はない。また、本テストセットは単なる例文集ではなく、各例文にはその対象とする言語現象が解説されており、さらには必要に応じて関連文と、その模範訳が付加されている。これらの文を翻訳し検討することにより、単に一つの例文を処理できるかどうかを判断するだけではなく、その例文に関連する言語現象についての処理能力も知ることが出来る。さらに、個々の開発者が処置するべき問題として、テストセット中の例文に存在する未定義語の問題がある。例文中に(そのシステムにとっての)未定義語があった場合には、評価者は例文中に現れた未定義語を辞書登録するか、あるいは例文中の未定義語を既にシステムに登録されている類似の単語に変更することが要求される。繰り返すが、この評価法はシステム間の優劣を決めることが目的ではなく開発者が自分のためにシステムの欠陥を見つけて、それを修正することを主たる目的としている。したがって、評価者(すなわち開発者)は単純に評価結果を受け入れるのではなく、「翻訳に成功しているが偶然良い訳語が記述されていただけだ。」「翻訳に失敗したが、それはその単語が未定義であったためで、類似の現象自体は取り扱う能力がある。」等については、各自の(自己のシステムについての)知識に基づいて判断する必要がある。また、評価の結果、さまざまな欠陥が見つかった場合に、限られた人的資源の中で、どのような順序でそれを解決していくかという問題もある。しかしながら、各開発者毎に資源の制約や、そのシステムが主として対象とする文書(あるいは、対象とする言語現象)が異なるため、一般的な優先順位を予め定めておくことは現実的ではない。本テストセットは、比較的近い将来に正しい処理の実現が可能な言語現象に重点をおいて作っているが、取り扱えなかった言語現象の内で、まずどの現象を処理可能にするかという優先順位付けは、個々のシステムの開発者に任せられている。なお、このように近い将来に対応できるものに重点を置いて言語現象を収集しテストセットとした場合、機械翻訳システムの技術水準の向上に伴って、対象とする言語現象を継続的に追加あるいは削除していくことが望まれる。常にその時点で機械翻訳において問題となっている言語現象を1000文程度のテストセットで示すのが理想であろう。ただし、最低限の解析能力を試すための基本的な構造の文は現在も(そのような基本的な構造の解析は既にほとんどのシステムにおいて解決されている問題であるとしても)テストセット中に含まれている。このような基本文はシステムの最低水準を保証するものとして、将来に亙ってもテストセットに含まれると想定している。\subsection{評価用例文の収集}テストセットの例文は機械翻訳システムや自然言語処理システムを実際に開発してきた経験に基づいて、著者らによって収集された。例文の収集に当たっては、我々は以下の2点を重視した。\\\noindent(1)基本的な言語現象を網羅すること。\\\noindent(2)機械翻訳システムにとって処理することが困難な言語現象を含む例文を選択すること。\\ここでは特に曖昧性の問題を重視した。\\言い替えると、(1)は評価すべき文法現象を系統立てて収集分類(トップダウンの手法)し、それらの現象に対応する例を集めることである。一方(2)は機械翻訳システムによって翻訳することが困難であるような例文を収集する(ボトムアップの手法)ことである。特に我々は処理の困難さが近い将来に解決できるであろうような言語現象に注目した。そして機械翻訳システムの評価のための例文を系統立てて分類した。さらに、我々はこれらの例について、いくつかの商用システムを用いて翻訳評価実験を繰り返し、テストセットを以下の点に焦点を当てながら改良した。これらは全て、評価過程において客観性を維持するために重要な要素である。\\\begin{itemize}\item設問に曖昧性がないこと\item例文に不必要な複雑さがないこと\item翻訳結果に曖昧性がないこと\\\end{itemize}なお、テストセット中の英文は、その英語としての品質を保証するため、英語を母国語とし、日本語を理解する自然言語処理研究者によって、チェックされ修正された。なお、このテストセットを用いた品質評価法の提案の主旨と、作成の詳しい経緯については、参考文献(井佐原他1992,日本電子工業振興協会1993,日本電子工業振興協会1994,Isaharaetal1994,日本電子工業振興協会1995a,Isahara1995)を参照されたい。また、テストセットの全容は、参考文献(日本電子工業振興協会1995b)に示されている。
\section{英日機械翻訳システム品質評価用テストセット}
本節では、英日機械翻訳システムの品質評価用テストセットについて説明する。このテストセットは、機械翻訳システムが処理すべき様々な言語現象を含んだ英語例文770文とその模範訳、及びシステムの出力(翻訳結果)を評価するための設問などからなる。\subsection{概要}我々は、英日機械翻訳システムの評価基準として、システム開発者が自己のシステムの不備をチェックすることを主要目的とした品質評価用テストセットを作成した。本テストセットにおける例文の収集に際しては、「基本的な言語現象を網羅すること」「機械翻訳システムが取り扱うことが困難な言語現象を、主に曖昧性の解消に注目して収集・分類すること」を試みた。また、システムの出力(翻訳結果)を見ながら回答していくことで品質に関する客観的な判断が可能となるように、各文に判断のポイントを明示したyes/no疑問文の形式の設問を付与している。このように本テストセットは客観的な品質評価の実現を目指して作成したものなので、ユーザが各機械翻訳システムの出力品質を比較する際に利用することも可能である。本テストセットの作成作業は、平成4年度からの3年間で行った。平成5年度末までに第1段階として、英語の単文を中心に評価すべき項目を抽出して評価基準を設定し、309の基本例文を収集・評価して「電子協平成5年度版テストセット」としてまとめた。これに加えて、今回さらに以下の作業を行って項目の充実を図った。\\\begin{itemize}\item平成5年度版テストセットが単文中心だったのに対して、接続詞、関係詞、比較、話法、挿入、並列など、より複雑な構造を持つ複文・重文に関連する項目を重点的に英文法の解説書などから抽出して収集\item複数の文法書などを参考にすることにより、単文内の項目に関しても、平成5年度版テストセットでカバー出来ていない項目を収集。特に、代名詞、前置詞、記号、数量表現などに関して新規の設問を多数作成\item文法項目の洩れを防ぐため、英字新聞から英文テキスト300文を選出して市販の英日機械翻訳システムで試訳し、翻訳が困難となる問題点を抽出\\\end{itemize}上記の作業により、これまでの309項目と併せて延べで約1000の項目を抽出した。最終的にこれを整理して、770項目からなるテストセットとしてまとめた。例文と関連文を合わせると、合計で1450文ほどの規模のテストセットとすることが出来た。また、本テストセットの実用性の検証と設問の修正のために、ハードウェアタイプの異なる8種の市販の英日機械翻訳システムを対象とした評価を行った。このテストセット中の各項目は、文番号、例文、その模範訳、○×で答えることが出来る質問文、主として機械翻訳システムによる訳出例、例文と関連する言語現象を含む文、関連する項目の番号、解説から成り立っている。テストセットの例を図1に示す。以下では、このテストセットを用いた品質評価の手順、対象とする言語現象、テストセットの書式について述べる。\vspace*{1em}\begin{small}\begin{verbatim}2.1.1多品詞(品詞認定)2.1.1.2名詞/助動詞【番号】2.1.1.2-1【例文】Thetrashcanwasthrownaway.【訳文】ごみカンは捨てられた。【質問】"can"が「カン/缶」のように名詞として訳されていますか?【訳出例】○(くず缶/ごみ容器/くず入れ)は(廃棄された/[投げ]捨てられた)。×ごみは捨てられ得る。【関連文】Thelastwillwasopened.「最後の遺言書は開けられた。」【参照項目】2.1.1.2-2,2.1.1.2-3【解説】"canwas"の並びから、"can"が助動詞でないことがわかる。【番号】2.1.1.2-2【例文】Thetrashcanbethrownaway.【訳文】ごみは捨てられ得る。【質問】"can"が「〜できる/得る」のように助動詞として訳されていますか?【訳出例】○(くず/ごみ/くだらない人間)は(廃棄できる/[投げ]捨てられることができる)。×ごみカンは捨てられた。【関連文】【参照項目】2.1.1.2-1,2.1.1.2-3【解説】2.1.1.2-1とは逆に、ここでは"can"は名詞ではなく助動詞。\end{verbatim}\end{small}{\bf図1英日機械翻訳システム用テストセットの例}\vspace*{1em}\subsection{テストセットの利用法}本テストセットは、以下の利用法を想定している。\\\noindent(1)評価対象となる英日機械翻訳システムを用意する。\\\noindent(2)そのシステムでテストセット中の【例文】を翻訳する。\\\noindent(3)【質問】【訳出例】を見て、その翻訳結果が○か×かを判断する。\\\noindent(4)システム開発者は、○×の分布からシステムの能力、開発段階を評価する。\\特に、×と判断した項目に関連する文法・辞書を追加することで、システムの改良を図る。\\\noindent((5)ユーザは、各システムの○×の分布から、出力品質面での優劣を比較する。)\\\noindent(6)各項目についてさらに詳細に評価を行う場合は、【関連文】を利用する。\\原則として翻訳結果と質問文を見るだけで○×を回答出来るようになっているが、【訳出例】(各訳出例には、質問に対する○×が予め付与されている)を参照することによって、さらに容易に判断が出来るようになっている。本テストセットを用いて○×の分布を見ることで、システムの対応が不十分な(可能性がある)項目を容易に抽出できる。ただし本テストセットでは、各項目(例文)間の重要度、頻度などの差異は考慮していないので、単純に○の数をカウントして正解率をシステム間で比較することは、本評価法の意図するところではない。\subsection{テストセットの構成}本テストセットは、機械翻訳システムが処理すべき様々な言語現象を含んだ英語例文770文からなる。内訳と項目ごとの設問数を図2に示す。品質評価の対象項目の収集に当たっては、網羅性を保証するトップダウンのアプローチと、機械翻訳における問題点を実際の翻訳結果から抽出して、その問題性によって例文の粗密を決定するボトムアップなアプローチを組み合わせている。把握部においては、英文法の解説書(江川1964,Hornby1977,小川他1991,荒木他1992,村田1992)などを参考に英語の文法現象を収集し、そのレベルによって、品詞、文の部分構造、文構造の3段階に分類した。特に動詞、形容詞、名詞に関してその基本的な用法を網羅するために、ホーンビーの分類した文型(Hornby1977)を設問項目として採用した。ただしホーンビーのパターンの中でも、機械翻訳システムの品質評価において特に必要でないとみなした区分については分類を省略している。同様に助動詞等の基本的な用法の中でも、機械翻訳において対象となることが極めて稀であると思われるものについては省略した。選択部においては、翻訳で実際に問題となる言語現象を、構文構造の曖昧性に関するものと、コロケーション(他の語との共起による訳し分け)に関するものに分類した。\begin{figure}\begin{small}\begin{verbatim}1把握部小計6841.1品詞小計3551.1.1冠詞151.1.2名詞(固有名詞を含む)271.1.3代名詞251.1.4形容詞421.1.5副詞541.1.6前置詞401.1.7動詞類1.1.7.1動詞・準動詞481.1.7.2助動詞371.1.8関係詞251.1.9接続詞261.1.10記号161.2文の部分構造小計1671.2.1不定詞261.2.2分詞、分詞構文191.2.3動名詞231.2.4時制631.2.5数量表現281.2.6慣用表現81.3文構造小計1621.3.1文種(疑問文、命令文、感嘆文)191.3.2否定161.3.3特殊構文191.3.4比較211.3.5仮定法(条件法)161.3.6態101.3.7話法41.3.8挿入161.3.9省略91.3.10倒置71.3.11並列句252選択部小計862.1構文2.1.1多品詞(品詞認定)342.1.2係り先認定272.2コロケーション25総計770\end{verbatim}\end{small}{\bf図2テストセットの全体構成、項目別設問数}\end{figure}\subsection{テストセットの書式}本テストセットの各項目の書式を図3に示す。なお、テストセット中で、[]で囲まれた部分は挿入可能な表現を、(/)で囲まれた部分はいずれかを選択する表現を示す。たとえば、"A[B]C(D/E)F"という記号列は、``ABCDF'',``ABCEF'',``ACDF'',``ACEF''の4種の記号列を表す。\begin{figure}\begin{verbatim}【番号】:例文の番号【例文】:例文(1文のみ)【訳文】:模範訳(例文の日本語訳)【質問】:"A"が「B」のようにCとして訳されていますか?という形式の質問文・A:英語表現。""で囲む。例文中のどの部分を翻訳することにポイントがあるのかを表す。文全体の場合、また明らかな場合などは省略する。・B:日本語表現。「」で囲む。・C:内容や文法事項の補足説明(「習慣を表す表現」、「選択疑問文」等)を記す。記述が長くなるものや、原因に言及する場合は、【解説】に記述する。※必ず○か×か(yes/no)で答えられる形式にする。本テストセットは作業者が翻訳結果(訳文)を見るだけで○×を与えることを前提としており、解析の詳細に直接言及することは避ける。【訳出例】:許容される訳出例や誤訳例を列挙。・正解例(yes)の文頭には○、誤例(no)の文頭には×を付与する。・1行1文とし、原則として文全体を記述。・必要ならば正/誤の理由(説明)も示す。※各例は実際の機械翻訳システムの訳を参考にして作成した。【関連文】:当該の例文と関連する言語現象を含んだ例文を挙げる。・文の一部だけの記述は認めない。必ず文全体を記述する。・例文の後に、「」で囲んだ訳文を記述する。・補足事項(may/mightでの丁寧度の違いなど)がある場合は、訳文の後に()で囲んで記述する。【参照項目】:本テストセット内の関連項目への参照ポインタ。原則として、相互参照とする。※文番号を明示するのみで、文そのものは記述しない。【解説】:その他の補足事項。フリーフォーマット。\end{verbatim}{\bf図3テストセットの書式}\end{figure}
\section{日英機械翻訳システム品質評価用テストセット}
日英翻訳システム品質評価用テストセットも英日翻訳システム用と同様に、開発者が自己のシステムの不備な点を発見するための評価法であり、テストセット中の各例文に付与された設問に答えることによって、客観的に評価を下せるように作られている。しかしながら、英日翻訳と日英翻訳の技術レベルの違いに基づいて、英日用のテストセットとは少し異なった視点でテストセットの開発を行なった。実際のテストセットの例を図4に示す。\begin{figure}\begin{small}\begin{verbatim}JET140000(1−4)複合述部JEX140000複合述部では、並列用言の認識を行ない、また用言部と格要素・副詞句とをJEX140000区別して翻訳しなければならない。JEQ141000複合述部の並列用言としての認定JEX141000複合述部の並列用言を認識するには、JEX141000・助詞の種類により判断するJEX141000・助詞の種類と名詞の意味属性により判断するJEX141000・用言性の単語が並んでいれば、並列用言と認定するJEX141000等といった方法がある。JEG141001私達は研究開発する。JEE141001Wedoresearchanddevelopment.JEE141001Wearecarryingoutresearchanddevelopment.JEC141001(失敗例)Westudyit‖developit.JEC141001(失敗例)Wedeveloparesearch.JEC141001「私達は研究開発する」の「研究開発」が「研究し開発する」という意味にJEC141001訳出されるかを確認する。JEX141001読点で切られている場合でも、前半はサ変名詞を動詞化する「する」が記述JEX141001されないことがある。JEG141002検査者は部品を修理、計器を点検する。JEE141002Thetesterrepairsthepartsandchecksthemeter.JEQ142000複合述部の要素の格要素としての認定JEX142000複合述部の要素を格要素として認識するには、JEX142000・複合語要素間の関係を用言と格要素への意味的制約により解析するJEX142000・用言性の部分とそれ以外の部分を判断してデフォルト的に格関係を推定するJEX142000等の方法がある。JEG142001牛乳は栄養豊富である。JEE142001Milkisverynutritious.JEE142001Milkisveryrichinnutrition.JEC142001「牛乳は栄養豊富である」の「栄養」と「豊富」からJEC142001「牛乳の栄養が豊富である」という関係を捉える。JEQ143000複合述部の要素の副詞句としての認定JEX143000複合述部の要素を副詞句として解釈する場合がある。これを行うには、JEX143000・語の種類により副詞句となりえる要素を複合語より抽出するJEX143000・用言性の部分と副詞句となりえる部分との共起可能性を判断し、決定するJEX143000等の処理が必要となる。JEG143001資料は当日配布すること。JEE143001Distributematerialsontheday.JEC143001「当日に配布する」というように「当日」が述部修飾になっているか確認する。JEG143002渋滞が自然解消する。JEE143002Thetrafficjamdissolvedbyitself.JEC143002「自然に解消する」のように、「自然」が副詞として解釈されているか確認する。JEC143002複合述部が同一の要素を含んでいても、述部によりその要素のJEC143002役割が異なってくる場合がある。JEG143003住民が自然保護する。JEE143003Theinhabitantsconservenature.JEC143003「自然を保護する」と「自然」が目的格に捉えられているか確認する。\end{verbatim}\end{small}{\bf図4日英機械翻訳システム用テストセットの例}\end{figure}我々は、客観的評価を実現するテストセットの採用に加えて、日本語処理システムの開発者の利便を考え、言語現象と処理モジュールとの対応を取ることができる形式の評価方法の開発を行なった。すなわち、評価用例文と、その翻訳結果を評価する手段(設問)を提供するだけでなく、各言語現象に対応してシステムがどのような処理を行なっているかを把握するための解説も付与している。解説によって示される言語現象の処理方法を利用して開発者は、そのシステム全体としての言語現象の処理能力を評価するとともに、処理の各段階が充分な能力を持っているかどうかを把握できる。具体的には言語現象を約40種類に大別し、その各項目について問題となっている言語現象をどのように処理しているかを調べるための解説が付加されている。言語現象の項目リストを図5に示す。ここでは必要に応じて、用いている知識や処理結果の取り扱い等も併せて説明される。各項目内の個別の言語現象については、その言語現象を含む日本語文、その英訳、ここで確認するべき要素の解説が記述されている。設問数は約330、機能確認のための対訳例は、約400文の構成となっている。\begin{figure}\begin{footnotesize}\begin{verbatim}(1)述部(1−1)述部の訳し分け(1−2)断定文(1−3)体言述語(1−4)複合述部(1−5)訳が一用言となる並列用言(1−6)用言の副詞(句)化(1−7)補助動詞(1−8)基本動詞の訳し分け(2)名詞(2−1)名詞の訳し分け(2−2)複合名詞(2−3)「名詞1の名詞2」という構造を持つ名詞句の処理(2−4)「名詞1の名詞2の〈名詞3〉」という構造を持つ名詞句の処理(2−5)並列構造を持つ名詞句の処理(2−6)疑問表現の名詞節の処理(2−7)用言性名詞(サ変名詞)(2−8)英語における数の扱い(2−9)固有名詞表現(2−10)形式名詞(2−11)関係を示す名詞(3)副詞(3−1)副詞のタイプ(3−2)副詞句(3−3)擬音語・擬態語(4)連体修飾語句(4−1)非活用連体修飾(4−2)用言性連体詞(4−3)格助詞相当句(4−4)埋め込み文修飾(5)助詞(5−1)助詞の訳し分け(5−2)深層格の認定(6)接辞(7)テンス、アスペクト、モーダル(7−1)テンスの処理(7−2)アスペクトの処理(7−3)モーダルの処理(7−4)ボイスの処理(8)特殊構造表現(8−1)慣用表現の処理に関して(8−2)四字熟語(8−3)呼応表現(8−4)天候・気象表現(8−5)無生物主語構文(8−6)「はが」構文(8−7)比較表現(8−8)比喩表現(8−9)部分否定、二重否定、倒置文(8−10)敬語(8−11)引用・伝聞表現(8−12)例示・列挙表現\end{verbatim}\end{footnotesize}{\bf図5テストセットの項目リスト}\end{figure}また、開発者がこのテストセットを使用する際の利便性を考え、テストセットの書式を揃え、各文にインデックスをつけることにより、機械上での検索を容易に行なえるようにした。上記の各項目に付けられたインデックスは基本的に図6のような構造である。図6の??????の部分には、数字またはアルファベットが使用される。最初の2文字がタイトルまたはサブタイトルの章番号を表す。次の3文字が、各項目中の設問に付与された番号であり、設問は最大3階層になっている。最後の1文字が例文及び翻訳例の文番号を示す。解説、コメントはその対象とする項目と同じ文番号となる。\begin{figure}\begin{small}\begin{verbatim}JET??????項目タイトルJEX??????全体的な解説・説明JEQ??????設問(着目すべき主題)JEX??????主題に対する解説(省略されることもある)JEG??????日本文JEE??????英文対訳例JEC??????訳例に対するコメント(チェックすべきポイント,失敗例)\end{verbatim}\end{small}{\bf図6インデックスの構造}\\\end{figure}これらのインデックスを検索のキーとして、各種のOSの検索コマンドを使用することにより、機械翻訳にかけるための原文のみの抽出や、項目リストの抽出など、簡単に必要な部分だけを抜きだして使用することが出来る。使用例を図7に示す。\begin{figure}\begin{small}\begin{verbatim}【使用例】(日英評価基準のファイル名がMT_EVAL_JE.docであるとする)・まず文法項目の目次を調べる。$grepJETMT_EVAL_JE.doc‾‾‾‾‾‾‾‾‾‾‾‾‾‾JET100000(1)述部JET100000(1−1)述部の訳し分けJET120000(1−2)断定文JET130000(1−3)体言述語JET140000(1−4)複合述部:・(1−4)の「複合述部」にどのような設問があるかを調べる。$grepJEQ14MT_EVAL_JE.doc‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾JEQ141000複合述部の並列用言としての認定JEQ142000複合述部の要素の格要素としての認定JEQ143000複合述部の要素の副詞句としての認定・次に「副詞句」のところにどのような例文があるか調べる。$grepJEG143MT_EVAL_JE.doc‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾JEG143001資料は当日配布すること。JEG143002渋滞が自然解消する。JEG143003住民が自然保護する。・例文の参考訳を調べる。$grepJEE143MT_EVAL_JE.doc‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾JEE143001Distributematerialsontheday.JEE143002Thetrafficjamdissolvedbyitself.JEE143003Theinhabitantsconservenature.・例文JEG143001が何を調べたいの例文なのかを調べる。$grepJEC143001MT_EVAL_JE.doc‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾JEC143001「当日に配布する」というように「当日」が述部修飾になっているか確認する。・例文JEG143001をMTで訳させた結果が、コメントJEC143001の確認事項を満たしていれば評価結果を○、さもなければ評価結果を×とする。(JEE143001は参考訳であり、必ずしもその通りの訳になっていなくとも良い)\end{verbatim}\end{small}{\bf図7テストセットの機械上での使用例}\end{figure}
\section{おわりに}
本稿では、機械翻訳システムの翻訳品質を開発者の視点から評価する手法を提案した。この手法は、評価用の各例文に質問と解説を付加したテストセットを用いることにより評価過程を明確化した客観的品質評価法である。本稿で提案したテストセットは、評価用の例文に、その人間による訳、システムの出力を評価するための設問、(もしあった場合には)関連する文、文法事項の解説等を付与したものである。例文は基本的な言語現象と、機械翻訳において現在課題となっている言語現象を網羅することを念頭において収集された。テストセット中の設問は評価するべき点を明確にするように作成されている。各例文の翻訳結果が与えられると、システム開発者はその例文に付与されている設問に答えていくだけで、自己のシステムの評価を行なうことが出来る。設問は○×式であり、評価者によって判断が分かれないように作られている。これにより、客観的な評価が可能となる。さらに、解説を参照することにより、システム開発者は自己のシステムがどの言語現象を処理できないかを正確に認識することが出来る。ここで提案した英日及び日英翻訳システム用のテストセットは無料で一般に公開されている。我々は、この評価法が機械翻訳システムの一層の発展の一助となることを期待してやまない.\\\clearpage\begin{thebibliography}{99}\bibitem{}荒木一雄他(1992).現代英文法辞典.三省堂.\bibitem{}江川泰一郎(1964).英文法解説(改訂新版).金子書房.\bibitem{}Hornby,A.S.(1977).英語の型と語法(第2版).オックスフォード大学出版局(東京).\bibitem{}池原悟・小倉健太郎(1990).``日英機械翻訳における機能試験項目の検討.''電子情報通信学会1990年秋期全国大会論文集D-68.\bibitem{}池原悟他(1994).``言語表現体系の違いに着目した日英機械翻訳機能試験項目の構成.''人工知能学会誌,{\bf9}(4).\bibitem{}井佐原均他(1992).``JEIDA機械翻訳システム評価基準(品質評価編)−英日翻訳の品質評価項目の検討と評価用コーパスの作成−.''自然言語処理研究会96-11,情報処理学会.\bibitem{}Isahara,H.etal(1994).``TechnicalEvaluationofMTSystemsfromtheDeveloper'sPointofView:ExploitingTest-SetsforQualityEvaluation,''In{\emProceedingsoftheAMTA-94(FirstconferenceoftheAssociationforMachineTranslationintheAmericas)}.\bibitem{}Isahara,H.(1995).``JEIDA'sTest-SetsforQualityEvaluationofMTSystems--TechnicalEvaluationfromtheDeveloper'sPointofView.''In{\emProceedingsoftheMTSummitV}.\bibitem{}石崎俊・井佐原均(1988).``日本語文の複雑さの定性的・定量的特徴抽出.''自然言語処理研究会67-6,情報処理学会.\bibitem{}村田勇三郎(1992).機能英文法.大修館書店.\bibitem{}成田一(1988).``機械翻訳における構造処理能力の評価.''自然言語処理研究会69-1,情報処理学会.\bibitem{}日本電子工業振興協会(1985).``機械翻訳例文資料.''機械翻訳システムの調査研究60-C-513.\bibitem{}日本電子工業振興協会(1988).機械翻訳システムの調査研究.\bibitem{}日本電子工業振興協会(1993).機械翻訳システムの実用化に関する調査研究93-計-6.\bibitem{}日本電子工業振興協会(1994).自然言語処理技術の動向に関する調査報告書94-計-4.\bibitem{}日本電子工業振興協会(1995a).自然言語処理技術の動向に関する調査報告書95-計-3.\bibitem{}日本電子工業振興協会(1995b).機械翻訳システム評価基準−−品質評価用テストセット−−95-計-17.\bibitem{}野村浩郷・井佐原均(1992).``機械翻訳の評価基準について.''自然言語処理研究会89-9,情報処理学会.\bibitem{}NomuraH.andH.Isahara(1992a).``JEIDA'sCriteriaonMachineTranslationEvaluation.''In{\emProceedingsoftheInternationalSymposiumonNaturalLanguageUnderstandingandAI}.\bibitem{}NomuraH.andH.Isahara(1992b).``JEIDAMethodologyandCriteriaonMachineTranslationEvaluation.''In{\emProceedingsoftheMTEvaluationWorkshop}.\bibitem{}小川芳男他(1991).よくわかる英文法[再訂新版].旺文社.\bibitem{}TomitaM.(1992).``ApplicationoftheTOEFLTesttotheEvaluation.''In{\emProceedingsoftheMTEvaluationWorkshop}.\bibitem{}White,J.S.etal.(1994).``TheARPAMTEvaluationMethodologies:Evolution,Lessons,andFutureApproaches.''In{\emProceedingsoftheAMTA-94(FirstconferenceoftheAs-sociationforMachineTranslationintheAmericas)}.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.工学博士.現在,郵政省通信総合研究所関西支所知的機能研究室長.自然言語処理,機械翻訳の研究に従事.}\bioauthor{内野一}{1987年茨城大学工学部情報工学科卒業.1989年同大学院修士課程修了.現在,NTTコミュニケーション科学研究所研究主任.自然言語処理,機械翻訳の研究に従事.}\bioauthor{荻野紫穂}{1988年東京女子大学大学院文学研究科修士課程修了.現在,日本IBM東京基礎研究所に勤務.自然言語処理,機械翻訳の研究に従事.}\bioauthor{奥西稔幸}{1984年大阪大学基礎工学部情報工学科卒業.現在,シャープ株式会社情報システム事業本部情報商品開発研究所に勤務.機械翻訳システムの研究開発に従事.}\bioauthor{木下聡}{1983年東京工業大学工学部情報工学科卒業.1985年同大学院修士課程修了.現在,(株)東芝研究開発センター情報・通信システム研究所に勤務.自然言語処理,機械翻訳の研究に従事.}\bioauthor{柴田昇吾}{1985年早稲田大学理工学部電子通信学科卒業.1987年同大学院修士課程修了.現在,キヤノン株式会社情報メディア研究所に勤務.自然言語処理の研究に従事.}\bioauthor{杉尾俊之}{1982年熊本大学工学部電子工学科卒業.現在,沖電気工業(株)研究開発本部関西総合研究所に勤務.機械翻訳システム,自然言語処理の研究開発に従事.}\bioauthor{高山泰博}{1985年九州工業大学工学部情報工学科卒業.1987年九州大学大学院修士課程修了.現在,三菱電機(株)情報技術総合研究所に勤務.自然言語処理の研究に従事.}\bioauthor{土井伸一}{1985年東京大学教養学部基礎科学科第二卒業.1990年同大学院総合文化研究科博士課程満期退学.現在,日本電気(株)情報メディア研究所音声言語研究部主任.自然言語処理,機械翻訳の研究開発に従事.}\bioauthor{永野正}{1987年慶応義塾大学電気工学科卒業.1989年同大学院修士課程修了.現在松下通信工業(株)カーシステム事業部に勤務.}\bioauthor{成田真澄}{1987年津田塾大学大学院修士課程修了.(株)リコー情報通信研究所に勤務.機械翻訳の研究に従事.}\bioauthor{野村浩郷}{1967年大阪大学工学部通信工学科卒業.1969年同大学院修士課程修了.工学博士.日本電信電話公社基礎研究所を経て,現在,九州工業大学情報工学部教授.言語知能,知能ネット,計算言語学,機械翻訳の研究に従事.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V11N05-06 | \section{はじめに}
言い換えに関する研究\cite{sato_ronbun_iikae,yamamoto_nlp2001ws_true,murata_paraphrase_true,inui_iikae_tutorial}は平易文生成,要約,質問応答\cite{murata2000_1_nl,murata_qa_ieice_kaisetu}と多岐の分野において重要なものであるが,本稿では言い換えの研究の統一的モデルとして,尺度に基づく変形による手法を示し\footnote{本稿は,文献\cite{murata_nlp2001ws_true}に基づいて作成したものである.本研究の主眼になっている尺度に基づく変形については,文献\cite{murata2000_1_nl}の脚注6においても述べている.},このモデルによって種々の言い換えを統一的に扱えることを示す.このモデルでは,多様な言い換えの問題の違いを,尺度で表現することで,言い換えを統一的に扱えるようになっている.このモデルには以下の利点が存在する.\begin{itemize}\itemシステム作成の効率化本稿の言い換えの統一的モデルでは,変形の尺度や変形規則を他のものに取り替えるだけで多様な言い換えを実現することができる.システム作成では,変形の尺度や変形規則以外のモジュールは一度作成してしまえば,多様な言い換えシステムで利用することができる.すなわち,システム作成のコストを軽減できるのである.また,変形規則も複数の言い換えシステムで共用できる場合があり,その場合もシステム作成のコストを軽減できる.\item言い換えの原理の理解容易性本稿の言い換えの統一的モデルでは,後で述べるように変形部と評価部という二つの構成要素からなる単純なモデルだけで,多種多様な言い換えを扱うことができるようになっている.本稿のモデルは単純で理解しやすく,大雑把に言い換えをどのようにすればできるかを考えるには,このモデルを基本におくと考えやすい.\item多様な言い換えの創出本稿の言い換えの統一的モデルでは,変形の尺度を変更することで,多様な言い換えを実現することができる.すなわち,尺度のみを考察し,新たな尺度を考えたときには,その尺度で変形を行なう新たな言い換えシステムを考えたことと等価になる.尺度のみを考察し,新たな尺度を考案することは比較的容易であるので,本稿の統一的モデルは,多様な新たな言い換えを思いつくことにも役に立つのである.\end{itemize}本稿ではまず,上述のような優れた利点を持つ言い換えの統一的モデルについて説明する.その後で,この統一的モデルに基づいて試作した言い換えシステムを紹介する.紹介する言い換えシステムは,文内圧縮システム,推敲システム,文章語口語変換システム,RL発音回避システム,質問応答システムである.これら多様なシステムを本稿の統一的モデルで具体的に作成できることを示すことで,本稿の統一的モデルで実際に多様な言い換えの問題を扱えることを示す.
\section{言い換えの統一的モデル}
\label{sec:model}本稿で記述する言い換えの統一的モデルは,図\ref{fig:model}の構成をしている.このモデルは,変形部(transformationmodule)と評価部(evaluationmodule)の二つのモジュールからなる.変形したいものが現れたときは,それを図のようにシステムに入力して,変形部で変形の候補をあげ,評価部において変形の妥当性をチェックし最も妥当であると判断されたものに変形され,それが図のように出力される.{\begin{itemize}\item変形部変形の候補を与えるモジュールである.変形部は,人手による規則で構成してもよいし,計算機で自動獲得した規則で構成してもよいし,動的に書き換え候補を生成するものでもよいし,これらの組合わせでもよい.\item評価部変形の候補の良さを,あらかじめ定めておいた尺度により評価し,最もふさわしい変形の候補を選択するモジュールである.ここで定める尺度は,扱う問題ごとに適正なものに作りかえる必要がある.\end{itemize}}\begin{figure}[t]\begin{center}\epsfile{file=model.eps,height=4cm,width=12cm}\end{center}\caption{言い換えの統一的モデルの模式図}\label{fig:model}\end{figure}評価部で用いられる尺度の具体例として以下のものが考えられる.{\begin{itemize}\item類似度例えば,AとBの類似度を調べたいとする.このとき,変形部の規則がすべて同義性を満足するものだとする.この場合,AとBの類似度が大きくなるように,変形部の規則でA,Bを変形し,A,Bが良く似た状態にしてから類似度を求めると,意味が同じなのに異なる表現で記述されているような場合でも正しく類似度を計算することができる.\item長さ例えば,要約の一つの分野の文内圧縮のように,なるべく意味を変えずに文を圧縮したいとする.このとき,変形部の規則はすべて意味をほとんど変えずに変形するものであるとする.この場合,長さを尺度とし,この長さが短くなるように変形を繰り返すと文内圧縮が実現される.\item頻度(または,生起確率)例えば,推敲システムを考える.このとき,変形部の規則がすべて同義性を満足するものだとする.この場合,推敲したいデータを,そのデータの生起確率が高くなるように変形すると非常に洗練された文章となる.もう少し簡単な例でこれを説明すると,例えば,入力したデータに「データー」とあったとしよう.また,変形規則に「データー」を「データ」とする規則があったとしよう.このとき,毎日新聞\cite{mainichi_jap_all}などで「データー」と「データ」の数を数え,「データ」の方が数が多い場合,「データー」を「データ」と直すといったことである.また,頻度(または,生起確率)を調べるコーパスを種々のものに変更することで,様々な効果を生む.例えば,入力データが書き言葉のときに,コーパスとして話し言葉を用いると書き言葉の話し言葉への変形が実現される\cite{murata_kaiho_2001}.また,入力データが法律関係の文のときに,コーパスとして平易な文章の集合を与えておくと,法律関係の難解な文章が平易な文章に変形されることだろう.また,ここで入力データとして適当に誰かが書いた小説をいれて,コーパスとしてシェークスピアの小説をいれると,シェークスピアの文体の小説が新たに完成することになる.また,入力データを芥川の小説として,コーパスとして漱石の小説を用いると,芥川の小説を漱石の文体に変形するなどということもできるだろう.\item文としての正当性のチェック上記の生起確率に基づく尺度は,推敲システムでも用いることができるように文の正当性のチェックに使うことができる\footnote{生のコーパスが文の正当性のチェック,すなわち,生成の研究に使えることは,生のコーパスが照応解析に使えることを含めて文献\cite{murata_anaphora_all_NLC}に記述してある.}.しかし,生起確率だと尺度として強すぎる場合は以下のような尺度を用いるとよい.\begin{itemize}\item対象としている表現が,コーパスで1回以上出現しているか否か.(これは表記誤りの検出など\cite{takeuchi99,Murata_ieice_negative_example}によく使われる尺度である.)\itemコーパスでの生起確率がある程度以上か否か.\itemコーパスでの生起確率が,環境なしでの生起確率よりも大きいか否か.\end{itemize}ここで示したものは,尺度というよりは条件のようなもので,他の尺度と組み合わせて用いるとよい.他の尺度のところで,もしその変形において,文としての正当性が保証されない場合は,ここで示した尺度を同時に用いるとよい.\item変形の前後での意味の等価性変形規則が完全に同義性を満足するということがわからない場合は,この尺度が必要となる.ただし,この尺度の構築は現時点では難しいと思われる.これができるようになるまでは,変形部で利用する変形規則を完全に同義性を満足するものだけにするか,同義性を満足しない言い換えをしてしまう可能性があることを覚悟するかのいずれかである.(とはいえ,変形部で利用する変形規則に同義性を満足しないものが少々ある状況で変形の前後での意味の等価性を調べる尺度を用いなかったとしても,上述の「文としての正当性のチェック」を用いれば多くの不適切な言い換えを取り除くことができるので,工学的見地ではある程度利用可能な言い換えシステムを構築できると思われる.)また,この項目の尺度も一つ上の「文としての正当性のチェック」と同様に,尺度というよりは条件のようなもので,他の尺度とともに用いられる.\end{itemize}}ここにあげたもの以外にも様々な尺度が考えられる.英語文でRやLなどを含む日本人にとって発音しにくい\cite{eigo_goto,SLA}単語をあまり使わないという尺度も考えられる.また,丁寧な表現もしくはわかりやすさの計量的研究が十分なされれば,それも尺度とすることで丁寧な表現もしくはわかりやすい表現への自動言い換えが可能となるだろう.ただし,これは丁寧な表現もしくはわかりやすい表現のみを使ったコーパスを生起確率の算出に用いることで,先の生起確率の尺度でも扱えることである.また,条件のような尺度には,「21世紀」など特定の語を使うことを条件として言い換えることや,起承転結を満足する文章構成を条件として言い換えることや係り先未決定文節数を7程度以下とすること\cite{murata_7pm2_nlp}を条件として言い換えることなど,様々なものが想定できる.以降では,われわれが行なっている研究を具体的な事例として,この統一的モデルのもとでの変形操作がどのような尺度によってなされているかを,見てみよう.
\section{文内圧縮システムの場合}
最近は要約の研究\cite{Kato1999}が盛んになっているが,ここでは要約の一分野である文内圧縮を試みてみよう.変形規則としては,文献\cite{murata_nl2001_henkei}の3節の研究で自動獲得した規則のうち,その文献の評価式(5)でソートした結果を上位から見て頻度が1の規則が現れる一つ手前までの規則を利用する.このとき規則の総数は775個となった.本節ではこれらを変形部の規則とする.表\ref{tab:hitode_kisoku_djr}に規則の例を示す.「φ」は空文字を意味する.この文献\cite{murata_nl2001_henkei,murata_henkeirule_nlp2004}での研究では,同義な意味を持つ,複数の辞書の同じ項目の定義文を照合することで,ほぼ同義な表現の対を抽出している.この表現の対を変形規則に利用するのである.このシステムではこの得られた変形規則は双方向書き換え可能として利用する.ここでは新聞記事の要約を考えることとして,評価部の尺度としては以下のものを用いることにする.\begin{itemize}\item入力されたデータがより短くなるような変形を良いものとする.\item新聞記事での出現が1個以上あることを条件とする.(文としての適切性の判定)\end{itemize}ここでの新聞記事は94年と95年の毎日新聞2年分とした.\begin{table}[t]\begin{center}\leavevmode\caption{変形規則の例}\label{tab:hitode_kisoku_djr}\begin{tabular}[h]{|lll|}\hline・&⇔&φ\\、&⇔&φ\\の&⇔&が\\や&⇔&・\\など&⇔&φ\\いう&⇔&言う\\と&⇔&・\\φ&⇔&ための\\用いる&⇔&使う\\入る&⇔&はいる\\くる&⇔&来る\\・&⇔&または\\または&⇔&や\\\hline\end{tabular}\end{center}\end{table}\begin{table*}[t]\small\begin{center}\leavevmode\caption{文内圧縮の例}\label{tab:compress_result}\begin{tabular}{|l|}\hline\multicolumn{1}{|c|}{良いと思われるもの}\\\hline九日\underline{から}の韓国訪問では昨年五月、盧泰愚(ノ\underline{・}テウ)大統領来日時に合意した\\歴史の\underline{流れの}中で解決されるよう勇気ある決断を望む\\米、イラクの直接対話実現に\underline{強い}期待を示した。\\アジア\underline{・}太平洋地域にも及ぶよう外交努力をしてきた。\\多国籍軍には十億ドルの追加\underline{的}措置をとった段階だ。\\\hline\multicolumn{1}{|c|}{良くないと思われるもの}\\\hlineソ連の経済危機は天災で\underline{は}なく、指導部の場当たり的な対応に主要な要因がある。\\自由\underline{と}民主主義と市場経済を求め、私たちと同じ政治経済の仕組みに向かって努力している。\\前村長、菊地豊氏(58)を党推薦の無所属候補として擁立\underline{すること}を決めた。\\\hline\end{tabular}\end{center}\end{table*}厳密には以下のアルゴリズムによって実行した.\begin{enumerate}\item入力として与えられるデータをJUMAN\cite{JUMAN3.6}で形態素解析して,形態素列に分解する.\item\label{enum:proc1}文頭の形態素から順に,形態素ごとに以下の処理を行なう.\begin{enumerate}\item現在の形態素で始まる形態素列$S$(形態素を一つも持たない場合,つまり空文字も含む)と,変形規則$R_i$の前件部の文字列$A_i$が一致した場合,その後件部の文字列$B_i$が,書き換え後表現の候補となる.また,$S$の前接$k$-gramの形態素列を$S1_i$,$S$の後節$k$-gramの形態素列を$S2_i$とする.\item各書き換え後表現の候補$B_i$に対して,文字列$A_i$から文字列$B_i$になるときに短縮される文字数を数え,この値が最も大きかったときの$i$を$m$とする.\item評価に用いるコーパスにおいて$S1_m$$B_i$$S2_m$の文字列の頻度を求め,この値が1より大きいとき,$A_m$を$B_m$に書き換え,処理を次の形態素に移す.\end{enumerate}\end{enumerate}ただし,$k$は定数である.ここでは,少々再現率を下げてもよいから適合率を高める意味で$k$としては2を用いておこう.この条件で毎日新聞の91年のデータの文内圧縮の実験を試みた.その結果の一例を表\ref{tab:compress_result}にあげておく.表で下線部は変形操作により消される部分を意味する.本節の研究は圧縮ということで文を短くする操作があるため,変形規則としては消去するパターンのものが用いられていると思われる.「強い」や「的」などのものが消去されて正しく圧縮できたものから,「は」や「と」を消去して意味が変わってしまう誤りもあった.また,表の最後のデータは,「すること」を消去したが「候補として擁立を決めた」と短い範囲で見ると正しそうに見えるが,もう少し前からみると誰それをという部分があり「すること」を消去してはいけないとわかる.この誤りを正すには構文的な情報を反映した評価式\footnote{この評価式としては,例えば,係り先がなくなる文節が生じてはいけないという条件のような尺度を利用するとよい.}を用いる必要がある.
\section{推敲システムの場合}
ここでは推敲システムについて考えてみる.変形規則は前節と同じ775個のものを用いる.このように変形規則は複数の言い換えシステムで利用できる場合があるのである.ここでは新聞記事の推敲を考えることとして,評価部の尺度としては以下のものを用いることにする.\begin{itemize}\item入力されたデータの各部分形態素列の新聞記事コーパスでの生起確率が,より大きくなるような変形を良いものとする.\end{itemize}ここでの新聞記事は94年と95年の毎日新聞2年分とした.ここでは,新聞記事の推敲を考えるために生起確率をもとめるコーパスとして新聞記事コーパスを利用する.もし,論文を推敲したいときは論文集合のコーパスを使えばよい.すなわち,推敲したい文書と同一の種類のコーパスを利用するのである.厳密には以下のアルゴリズムによって実行した.\begin{enumerate}\item入力として与えられるデータをJUMANで形態素解析して,形態素列に分解する.\item\label{enum:proc1_2}文頭の形態素から順に,形態素ごとに以下の処理を行なう.\begin{enumerate}\item現在の形態素で始まる形態素列$S$(形態素を一つも持たない場合,つまり空文字も含む)と,変形規則$R_i$の前件部の文字列$A_i$が一致した場合,その後件部の文字列$B_i$が,書き換え後表現の候補となる.また,$S$の前接$k$-gramの形態素列を$S1_i$,$S$の後節$k$-gramの形態素列を$S2_i$とする.\item各書き換え後表現の候補$B_i$に対して,新聞記事コーパスでの$S1_i$$B_i$$S2_i$の文字列の頻度を求め,この頻度が最も大きかったときの$i$を$m$とする.\item新聞記事コーパスでの$S1_m$$A_m$$S2_m$の文字列の頻度を求め,この値よりも,$S1_m$$B_m$$S2_m$の文字列の頻度の方が大きいとき,$A_m$を$B_m$に書き換え,処理を次の形態素に移す.\end{enumerate}\end{enumerate}ただし,$k$は定数である.ここでも前節と同じく,アルゴリズムでの頻度算出の環境を固定長の前後2-gram$(k=2)$としておこう\footnote{\label{fn:kairyou}より良い解析をするには,各文字列の頻度の部分は,その文字列を$x$とするとき,与えられた入力データを環境に持つときの$x$が新聞記事コーパスに出る事象の確率とするとよい.また,上記アルゴリズムは環境としては前後$k$形態素のものを固定で用いるものとなっているが,可変にしたり構文的な素性,時制的な素性など広範な情報を用いて,最大エントロピー法などの強力な確率推定手法により確率を求めるようにした方がよいだろう.}.\begin{table*}[t]\small\begin{center}\leavevmode\caption{推敲結果の例}\label{tab:suikou_result}\begin{tabular}{|p{13.5cm}|}\hline\multicolumn{1}{|c|}{良いと思われるもの}\\\hline社会党の土井委員長は三十一日、神戸市の実家に帰り、三日まで実家と兵庫県西宮市の自宅で家族\begin{tabular}[t]{l}、\\[-0.1cm]や\\\end{tabular}友人らと過ごす。\\ソ連国民のうち「返還しなくて\begin{tabular}[t]{l}\\[-0.1cm]も\\\end{tabular}よい」は26%にとどまり、国民意識の面で両国間に接点ができつつあるといえそうだ。\\世界の平和\begin{tabular}[t]{l}・\\[-0.1cm]と\\\end{tabular}安定に貢献する上で、\\支持率\begin{tabular}[t]{l}\\[-0.1cm]の\\\end{tabular}回復につながったのではないか\\\hline\multicolumn{1}{|c|}{良くないと思われるもの}\\\hline日本の生活満足度は前回を8ポイント\begin{tabular}[t]{l}\\[-0.1cm]も\\\end{tabular}上回り、8割を超えたが、男女\underline{で}差がある。\\米国からイラクへの\underline{直接}対話の申し入れなど、双方から平和的に解決したいという考えがにじみ出ている。\\国会移転に関する決議も、問題\underline{の}解決につながる。ウマ年の昨年を象徴\begin{tabular}[t]{l}した\\[-0.1cm]する\\\end{tabular}のがオグリキャップ。\\\hline\end{tabular}\end{center}\end{table*}この条件で毎日新聞の91年のデータの推敲実験を試みた.その結果の一例を表\ref{tab:suikou_result}にあげておく.表の下線部は前節と同じく変形操作により消される部分を意味し,少し下に書いてある文字列はその文字列に変形されることを意味する.「や」「も」「と」「の」を補って読みやすくなったように思われるものや,逆に「も」を補ったり「で」を省略して意味が変わってしまい良くないと思われる結果があった.また,最後の行の例では,過去形の「した」を現在形の「する」に変形するというのがあったが,これは「昨年」の話で過去形であるべきで「した」を「する」にしてはいけない.これの対処としては変形規則の獲得精度をあげるか,文の妥当性の判定チェックに時制の情報も組み込むかする必要がある.次に判定チェックに時制の情報も組み込んだ実験を行なってみた.つまり,評価部の尺度として,以下の条件も追加で利用した.\begin{itemize}\item入力されたデータの各部分の形態素列を言い換える時に,その形態素列の末尾の形態素が動詞の場合は,時制が一致することを条件とする.\end{itemize}ここでは時制はJUMANの出力で「タ形」であるものとそれ以外の場合の二種類の時制を利用した.アルゴリズムとしては(c)を以下のように変更した.\begin{itemize}\item[(c)]新聞記事コーパスでの$S1_m$$A_m$$S2_m$の文字列の頻度を求め,この値よりも,$S1_m$$B_m$$S2_m$の文字列の頻度の方が大きく,なおかつ,以下の条件を満足する時に$A_m$を$B_m$に書き換え,処理を次の形態素に移す.\begin{table*}[t]\small\begin{center}\leavevmode\caption{時制の情報も組み込んだ推敲結果の例}\label{tab:suikou_result_jisei}\begin{tabular}{|p{13.5cm}|}\hline\multicolumn{1}{|p{13.5cm}|}{時制の情報に基づいて言い換えを行なわなかったことにより,改善されたもの}\\\hlineウマ年の昨年を象徴\begin{tabular}[t]{l}$^{\scriptsize○}$した\\[-0.1cm]$^{\scriptsize×}$する\\\end{tabular}のがオグリキャップ。\\「日本の根本的な政治改革」を要求\begin{tabular}[t]{l}$^{\scriptsize○}$する\\[-0.1cm]$^{\scriptsize×}$した\\\end{tabular}が、小選挙区制にすりかえさせてはならない。\\ブッシュ政権の支持率は8月のイラクのクウェート侵攻後、いったん低下したといわれて\begin{tabular}[t]{l}$^{\scriptsize○}$いた\\[-0.1cm]$^{\scriptsize×}$いる\\\end{tabular}が、今回の調査では高率の支持を集めた。\\\hline\hline\multicolumn{1}{|p{13.5cm}|}{時制の情報に基づいて言い換えを行なわなくなったが,時制の情報に反して言い換えを行なってもいいとも判断できるもの}\\\hline「鈴木が脅迫状を作って\begin{tabular}[t]{l}$^{\scriptsize○}$いた\\[-0.1cm]$^{\scriptsize○}$いる\\\end{tabular}のを見た」などと供述していることから警視庁に照会、裏付け捜査を進めている。\\\hline\end{tabular}\end{center}\end{table*}\begin{itemize}\item[(条件)]$A_m$の最後の形態素と$B_m$の最後の形態素がともに動詞である場合は両方ともが「タ形」か両方ともが「タ形」でない場合にこの条件を満足するとする.$A_m$の最後の形態素と$B_m$の最後の形態素のどちらか一方でも動詞でない場合はこの条件を満足するとする.\end{itemize}\end{itemize}この方法で先の実験と同じデータで新聞記事の推敲を行なってみた.先の時制が原因で誤った例(表\ref{tab:suikou_result}の最後の例)は「した」と「する」の言い換えを行なわなくなり,その部分の誤りは改善された.また同様の誤りの文も多く改善された.改善された文の例を表\ref{tab:suikou_result_jisei}に示す.表の言い換え箇所の上段は入力文での表現で,下段は時制の制約を加えなければ出力される言い換えた表現である.また,それぞれ表現の左上の部分に,正しい表現には$○$を意味が変わって言い換えとしては正しくない表現には$×$をつけている.この時制によるシステムの変更で出力が変わった10例をチェックしたところ,1例だけそのように言い換えても文の意味が変わらないものであった.それ以外は時制の情報を使って言い換えを抑制する必要のある箇所であった.このことにより時制情報を利用することで言い換えシステムの性能を向上させる場合があることがわかった.ここでは時制に関する誤りを対処するために,時制情報に関係する制約を評価部に追加したが,これは変換規則から時制が変化する規則を取り除くことでも対処できる.
\section{文章語口語変換システムの場合}
ここでは書き言葉から話し言葉への言い換えを考えてみる\cite{murata_kaiho_2001,Murata_spoken_written_lrec}.\begin{table}[t]\begin{center}\leavevmode\caption{書き言葉から話し言葉への変形のための変形規則の例}\label{tab:hitode_kisoku_w2s}\begin{tabular}[h]{|lll|}\hline、&→&φ\\φ&→&の\\・&→&φ\\φ&→&え\\φ&→&えー\\の&→&φ\\φ&→&を\\を&→&φ\\φ&→&で\\φ&→&という\\する。&→&いたします\\対応する&→&対する\\\hline\end{tabular}\end{center}\end{table}変形規則としては,文献\cite{murata_kaiho_2001}の研究で自動獲得した規則のうち,その文献の評価式(4)でソートした結果を上位から見て頻度が1の規則が現れる一つ手前までの規則を利用する.このとき規則の総数は240個となった.本節ではこれらを変形部の規則とする.表\ref{tab:hitode_kisoku_w2s}に規則の例を示す.「φ」は空文字を意味する.この規則は双方向書き換え可能ではなく,一方への書き換えのみ可能である.これは,この規則は書き言葉のテキストと話し言葉のテキストを照合して得られたもので,獲得された変形規則の段階で方向性があり,規則の左辺が書き言葉からまた右辺が話し言葉から得られた表現であるため,書き言葉から話し言葉への言い換えの際には左辺から右辺への一方方向のみで書き換え可能となる.次に評価に用いるコーパスであるが,ここでは話し言葉に変形したいので,文献\cite{murata_kaiho_2001}で話し言葉データと呼んでいるものを使う.このデータは,開放的融合研究推進制度,話し言葉の言語的・パラ言語的構造の解明に基づく「話し言葉工学」の構築の一環として通信総合研究所と国立国語研究所で作成しているもので,全国大会,研究会などの学会講演データからなっている.本稿ではそのうちの82編のものを用いている.評価部の尺度としては以下のものを用いることにする.{\begin{itemize}\item入力されたデータの各部分形態素列の話し言葉データでの生起確率が,より大きくなるような変形を良いものとする.\end{itemize}}実際に実行する厳密なアルゴリズムは前節のもの(時制情報を利用する改良をする前のもの)と等価である.つまり,本節の研究は,前節の研究において新聞コーパスを用いていたところを話し言葉データに変えただけである.前節の研究では,入力も評価コーパスも新聞という同じものだったため,新聞のデータをより新聞のデータらしくする,つまり,推敲の研究となっていたが,本節では入力を書き言葉,評価コーパスを話し言葉とするために,書き言葉から話し言葉への変形ということになる.\begin{table*}[t]\small\begin{center}\leavevmode\caption{書き言葉から話し言葉への変形例(1gramの場合)}\label{tab:s2p_henkei}\begin{tabular}{|p{13.5cm}|}\hline\begin{tabular}[t]{l}\\[-0.1cm]え\\\end{tabular}近年、パラフレーズに関する知識\begin{tabular}[t]{l}\\[-0.1cm]を\\\end{tabular}獲得の研究が重要視されつつある。本\begin{tabular}[t]{l}稿\\[-0.1cm]研究\\\end{tabular}では\underline{、}同義のテキストを照合し\underline{、}その照合\underline{結果}を用いてパラフレーズに関する知識を自動獲得することを試みた。この\begin{tabular}[t]{l}\\[-0.1cm]ような\\\end{tabular}自動獲得の\underline{実験}を辞書定義文、新聞記事タイトル・本文対、講演テキストにおいて行なったところ、同義のテキストの照合による方法がパラフレーズ獲得にある程度役に立つ\begin{tabular}[t]{l}\\[-0.1cm]という\\\end{tabular}ことがわかった。(中略)。そのシステム\underline{で}は\underline{、}基本的には\underline{、}与えられた質問\underline{文}の答え\begin{tabular}[t]{l}\\[-0.1cm]です\\\end{tabular}が書いてありそうな文を探し出し、その答え\begin{tabular}[t]{l}\\[-0.1cm]です\\\end{tabular}が書いてありそうな文と質問\underline{文}の類似度\begin{tabular}[t]{l}が\\[-0.1cm]を\\\end{tabular}大きくなるように双方を書き換えて照合し、答え\begin{tabular}[t]{l}\\[-0.1cm]です\\\end{tabular}が書いてありそうな文\underline{で}の\underline{、}質問\underline{文}の疑問詞に対応している箇所を答えとして出力するシステムである。\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}[t]\small\begin{center}\leavevmode\caption{書き言葉から話し言葉への変形例(2gramの場合)}\label{tab:s2p_henkei2}\begin{tabular}{|p{13.5cm}|}\hlineこれらは、同義な言い換えを示す、パラフレーズに関する知識がきちんとした形で整備されていない\begin{tabular}[t]{l}\\[-0.1cm]という\\\end{tabular}ことによる。\\複数の国語辞典を用意してその定義を利用するということが\begin{tabular}[t]{l}\\[-0.1cm]ま\\\end{tabular}考えられる。\\ある程度よさそうな同義・類義表現を抽出する\begin{tabular}[t]{l}\\[-0.1cm]という\\\end{tabular}ことを試みる。\\対応づけの誤りである場合もあり、同義表現としては\begin{tabular}[t]{l}\\[-0.1cm]あー\\\end{tabular}ふさわしくない対が多い。\\このパターンを頻度でソートした結果\begin{tabular}[t]{l}\\[-0.1cm]というの\\\end{tabular}を表に示す。\\\hline\end{tabular}\end{center}\end{table*}この条件で筆者の論文\cite{murata_nl2001_henkei}を入力として与え,話し言葉から書き言葉への変形の実験を行なった.前節のアルゴリズムの$k$が$1$のときの結果を表\ref{tab:s2p_henkei}に,$k$が$2$のときの結果を表\ref{tab:s2p_henkei2}に示す.表の下線部は変形操作により消される部分を意味し,少し下に書いてある文字列はその文字列に変形されることを意味する.もともとアルゴリズムが簡単なため,$k$が$1$の場合では精度が悪いがそれでも,「え」をいれたり「本稿」を「本研究」と言い換えたりする結果が得られている.$k$が$2$の場合では精度は良くほとんど誤りがなかった.「という」や「ま」や「あー」を入れていて,いかにも話し言葉にふさわしい表現になっている.しかし,変形箇所が少なく再現率が低いといった感じであった.
\section{RL発音回避システムの場合}
ここでは,日本人にとって発音しにくい\cite{eigo_goto,SLA}RやLを含む単語をあまり使わない英文に言い換えるシステムについて考えてみる.本稿ではこのシステムのことをRL発音回避システムと呼ぶ.日本人が国際会議で英語で演説する際,このシステムによりRやLを含む単語をあまり使わない英文に言い換えておくと,RやLを含む単語の発音が苦手な日本人にとって話しやすい英語となる.変形規則としては,WordNet2.0の名詞と動詞の同義語表現を利用した.評価部の尺度としては以下のものを用いることにした.\begin{itemize}\item英語文で発音しにくいR+母音やL+母音の表現を含む個数が小さいほどよいとする.(RとLは母音とくっつく場合が特に発音が難しい.)\itemR+母音やL+母音の表現を含む個数が同じ場合は入力された元の表現の方がよいとし,また,変形後の表現同士の比較では,入力されたデータの各部分単語列の英語テキストでの生起確率がより大きくなるような変形を良いものとする.\item英語テキストでの出現が1個以上があることを条件とする.(文としての適切性の判定)\end{itemize}英語テキストとしてはBNCコーパス\cite{BNC}を用いた.本稿では,母音の判定には文字を利用し,a,i,u,e,o,yを後ろにくっつけて持つr,lの表現を,R+母音,L+母音の表現とした.また,変形規則に用いる同義語表現には動詞の変化形,名詞の複数形なども追加して用いた.厳密には以下のアルゴリズムによって実行した.\begin{enumerate}\item入力として与えられるデータをスペースで区切って単語列に分解する.\item文頭の単語から順に,単語ごとに以下の処理を行なう.\begin{enumerate}\item現在の単語$S$と,変形規則$R_i$の前件部の単語$A_i$が一致した場合,その後件部の単語$B_i$が,書き換え後表現の候補となる.また,$S$の前接$k$-gramの単語列を$S1_i$,$S$の後節$k$-gramの単語列を$S2_i$とする.\item各書き換え後表現の候補$B_i$に対して,$B_i$中にR+母音とL+母音が含まれる頻度$fb1$と,英語コーパスでの$S1_i$$B_i$$S2_i$の単語列の頻度$fb2$を求め,$fb2$が1以上のもので,$fb1$の値が最も大きくその中で$fb2$の値が最も大きかったときの$i$を$m$とする.\item$A_i$中にR+母音とL+母音が含まれる頻度を求め,この値よりも,$B_m$中にR+母音とL+母音が含まれる頻度の方が大きいとき,$A_m$を$B_m$に書き換え,処理を次の形態素に移す.\end{enumerate}\end{enumerate}ただし,$k$は定数である.本稿の言い換えの統一的モデルでは,変形部と評価部を分割した構成になっており,変形部の規則にWordNet2.0\cite{wn2.0}の同義語表現を利用し,評価部でR+母音やL+母音が含まれる頻度や英語テキストでの出現頻度を利用することで,比較的容易にRL発音回避システムを作成することができるのである.\begin{table*}[t]\small\begin{center}\leavevmode\caption{RL発音回避システムの例}\label{tab:l_r_result}\begin{tabular}{|p{13.5cm}|}\hline\multicolumn{1}{|c|}{良いと思われるもの}\\\hlineWethinkagood\begin{tabular}[t]{|l|}approach\\[-0.1cm]way\\\end{tabular}istoconstructitusing``X{\itno}Y''.\\Thecriteriausedto\begin{tabular}[t]{|l|}select\\[-0.1cm]determine\\\end{tabular}themostappropriatetransformationtypemustbepredefined.\\Thisfigureshowsthe\begin{tabular}[t]{|l|}structure\\[-0.1cm]composition\\\end{tabular}ofthethesaurus.\\$length$disthe\begin{tabular}[t]{|l|}length\\[-0.1cm]size\\\end{tabular}ofadocumentd.\\\hline\multicolumn{1}{|c|}{良くないと思われるもの}\\\hlineThisisthe\begin{tabular}[t]{|l|}title\\[-0.1cm]name\\\end{tabular}ofthequery.\\Pofdandtisthe\begin{tabular}[t]{|l|}location\\[-0.1cm]determination\\\end{tabular}ofthefirstoccurrenceofaterm$t$inthedocument$d$.\\Thistermisforweightingtermswhichare\begin{tabular}[t]{|l|}followed\\[-0.1cm]used\\\end{tabular}bytheJapanese-languageparticle``nado''.\\\hline\end{tabular}\end{center}\end{table*}この条件で筆者が今まで国際会議で口頭発表してきた発表の原稿を入力として与え,RやLをあまり含まない英文への変形の実験を行なった.ここでは,少々再現率を下げてもよいから適合率を高める意味で$k$としては2を用いた.この実験の結果の一例を表\ref{tab:l_r_result}にあげておく.表の縦線で囲った部分が言い換えられた表現で,上の表現が下の表現に言い換えられている.それぞれR+母音,L+母音が少なくなる表現に書き換えられている.``approach''を``way''に書き換えたり,``length''を``size''に書き換えたりして,発音しやすい語への言い換えが正しくできているものがあった.しかし,今のところこのシステムでは,言い換えると微妙に意味が異なってしまう誤りもあった.このシステムの今後の応用としては,今のところまだ性能が悪いので,言い換えた結果のみを出力するのではなく,言い換えの候補をいくつか尺度の値(R+母音やL+母音の表現を含む個数など)とともにその値の順に提示し,そこでユーザに言い換えに適切な表現を選ばせるという支援システムのような形の利用が良いと思われる.
\section{質問応答システムの場合}
われわれの質問応答システム\cite{murata2000_1_nl}では,与えられた質問文の答えが書いてありそうな文を探し出し,その答えが書いてありそうな文と質問文の類似度が大きくなるように双方を書き換えて照合し,答えが書いてありそうな文での,質問文の疑問詞に対応している箇所を答えとして出力するといったことを行なう.例えば,表\ref{tab:mensetsu}のようなデータ\cite{eiken2k}が与えられているときに「ニューヨーク州の中央部または北部に住む人たちの、最も一般的な職業は何ですか。」という質問があったとしよう.このときこの質問文は疑問詞をXにして平叙文化され,またこの質問文と類似している文がデータから抽出され,表\ref{tab:qa_result}の1行目の状態となる.表\ref{tab:hitode_kisoku}にあげたような規則があったとすると,この規則を用いて質問文,データ双方を類似度が高くなるように書き換えていき,最終的に表のように類似度219.5に達して類似度がそれ以上高くならなくなる.この状態で質問文とデータを照合すると,答えは「農業」と簡単にわかる.質問応答システムでは,類似度を尺度として言い換えを行なっていることになる.類似度が高くなるように言い換えを行なうことで答えとデータが照合しやすくなる.\begin{table*}[t]\begin{center}\leavevmode\caption{データ}\label{tab:mensetsu}\small\begin{tabular}[h]{|p{13.5cm}|}\hlineふつう、日本人はアメリカ人がニューヨークに住んでいると聞くと、そのアメリカ人はニューヨーク市に住んでいるのだと思う。しかし、それはよくやる間違いで、ニューヨーク市というのは、ニューヨーク州の南の部分の大変せまい地域を占めているだけなのである。ニューヨーク市からナイアガラの滝まで車を運転して行くと約8時間かかり、そのナイアガラの施もニューヨーク州に存在している。ニューヨーク州の大部分は山や森林や原っぱ、川、湖、沼地などからできているのである。州のこの中央部や北部に住む人たちはふつう小さな町に住んでいる。そして、農業が、これらのニューヨーク州民の間では最も普通の職業で、この人たちの作る農作物で最も共通なものはトウモロコシである。\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}[t]\begin{center}\leavevmode\caption{質問応答システムの例}\label{tab:qa_result}\small\begin{tabular}{|r|l|p{10cm}|}\hline\multicolumn{1}{|c|}{類似度}&\multicolumn{1}{|c|}{種類}&\multicolumn{1}{|c|}{文}\\\hline32.1&質問文&ニューヨーク州の中央部または北部に住む人たちの、最も一般的な職業はXです。\\32.1&データ&そして、農業が、これらのニューヨーク州民の間では最も普通の職業で、この人たちの作る農作物で最も共通なものはトウモロコシである。\\\hline103.1&データ&そして、農業が、これらのニューヨーク州民の間では最も一般的な職業で、この人たちの作る農作物で最も共通なものはトウモロコシである。\\82.5&データ&そして、農業が、これらのニューヨーク州の人たちの間では最も普通の職業で、この人たちの作る農作物で最も共通なものはトウモロコシである。\\...&...&...\\\hline186.5&データ&そして、農業が、これらのニューヨーク州の人たちの間では最も一般的な職業で、この人たちの作る農作物で最も共通なものはトウモロコシである。\\\...&...&...\\\hline...&...&...\\\hline219.5&質問文&ニューヨーク州の中央部または北部に住む人たちの、最も一般的な職業はXである。\\219.5&データ&、これらのニューヨーク州の人たちの間は最も一般的な職業は農業である。\\\hline&◆答え&=農業\\&◆補足&=、これらのニューヨーク州の人たちの間は最も一般的な職業は農業である。\\\hline\end{tabular}\end{center}\end{table*}\begin{table}[t]\begin{center}\leavevmode\caption{質問応答システムで用いた変形規則の例}\label{tab:hitode_kisoku}\begin{tabular}[h]{|lll|}\hlineXがYである&→&YはXである\\XのYはZで&→&XはYはZで\\の間で&→&で\\では&→&は\\普通の&→&一般的な\\州民&→&州の人たち\\で、[\^、]+\$&→&である。\\である&→&です\\\hline\end{tabular}\end{center}\end{table}ここに示したものは文献\cite{murata2000_1_nl}の予備実験として用いていたシステムのものをあげている.ここで用いた変形規則は人手で作成したものである.また,表\ref{tab:qa_result}の最終状態のデータの日本語表現は文としておかしい.これの対処としては「文としての正当性のチェック」などの条件を尺度に組み込むとよいだろう.本節の質問応答システムは,システムの処理内容の複雑さの都合上,本稿でいう言い換えのモデルだけでは実現できない.質問文において,疑問詞をXにして平叙文化するモジュールと,質問文とデータの類似度が向上するように言い換えを繰り返させるモジュールが新たに必要である.しかし,質問文またはデータをデータまたは質問文に類似するように書き換える一回一回の言い換え処理は,変形規則に表\ref{tab:hitode_kisoku}の規則を利用し,変形の尺度に質問文とデータの文の類似度を利用することで,本稿の言い換えの統一的モデルで扱えるものである.ここでは,質問応答システムを例にあげたが,それに限らず類似度を計算したいときには類似度を尺度として言い換えを行なってやるとよい.例えば,情報検索などでも高度になると,上記の質問応答のようにクエリと検索される記事を類似度が高くなるように言い換えてからクエリと記事の類似度を求めるといったことも考えられる.また,照応の問題\cite{murata_noun_nlp}でも,「近くの大きな杉の木の根元にある穴」と「杉の木の根元の穴」の同一性もしくは包含関係が判定できないと照応を解決できないというのがあるが,類似度を尺度として両者を言い換え,例えば,「近くの大きな杉の木の根元の穴」と「杉の木の根元の穴」になった場合,後者が前者に含まれることになり後者が前者を指示可能とシステムに認識させてやることもできる.
\section{関連研究との対比}
本節では,本稿の言い換えモデルと他の関連研究,関連した考え方との比較を行ない,本稿の言い換えモデルと本稿のシステムの利点と欠点を考察する.\subsection{モデルの比較}本稿の統一的モデル以外に考えられる一般的な言い換えのモデルとして以下のものが考えられる.\begin{itemize}\item言い換えの目的に応じて作成した変形規則を利用して,言い換えを実現する.(すなわち,評価部を用いず変形部のみの構成で言い換えを実現する.)\end{itemize}この構成の場合は変形規則にすでに言い換えの目的に応じた処理が組み込まれているため,本稿の統一的モデルにあるような言い換えの目的にあった表現を選択するための評価部が必要ないという特徴がある.この変形部のみで構成される言い換えのモデルを利用していると考えられる研究の例としては,山崎らの言い換えによる要約の研究\cite{yamasaki_NLP98},佐藤の論文表題の言い換えの研究\cite{sato_ronbun_iikae},黒橋らの平易文への言い換えの研究\cite{kurohashi_nlp2001ws_true}がある.山崎らの研究では,言い換え前と言い換え後の表現の対の表を作成し,この表を使って言い換えを実現している.佐藤の研究では,複数の複雑な処理と規則を組み合わせて論文表題の言い換えを実現している.黒橋らの研究では,国語辞典の定義文がその項目の見出し語を平易に表した表現であることを利用し,国語辞典の見出し語と定義文の対を変形規則のように扱って平易文への言い換えを実現している.この変形部のみで構成される言い換えのモデルと,変形部と評価部を持つ本稿の言い換えモデルを比較してみる.この変形部のみで構成される言い換えのモデルには,評価部を必要としないという利点があるが,言い換えの問題ごとに変形部を構築する必要がある.これに対して,本稿の言い換えモデルでは,評価部を用意する必要がある代りに,言い換えの問題ごとに応じた変更を評価部のみとし,変形部を複数の言い換えシステムに利用するということができる.このことによりシステム作成のコストを軽減することができる.また,このことは非常に優れた特徴であり,急遽ある特定の種類の言い換えシステムを作成する必要ができた場合,同義語・同義表現の辞書を持ってきてそれを変形規則として利用し,評価部の尺度にはその特定の種類の言い換えシステムの目的に応じたものを考えて使うだけで,その新しい特定の種類の言い換えシステムを作成できる.例えば,本稿ではRL発音回避システムを紹介しているが,このシステムの実装は本稿のモデルに従えば極めて容易であり,英語単語の同義語辞書を変形部に利用し,発音のしにくいRやLの表現の出現頻度を評価部の尺度に利用することでこのシステムを作成できたのである.このように,本稿の統一的モデルは,変形部を複数の言い換えシステムに利用することができる特徴の他に,概ね変形部の変形規則には同義語・同義表現の辞書を利用し,評価部の尺度にはその問題に応じた尺度を考えればよいという指針まで存在するため,システム実装が容易というだけでなく,システム設計も容易という特徴がある.このことはさらに,評価部の尺度について問題に応じて新しいものを考えれば,その尺度に基づく新しい言い換えシステムを設計したことになるということにつながる.新たな評価部の尺度だけを考案することは比較的容易なので,多くの種類の新しい評価部の尺度を考えることで多様な新たな言い換えシステムを考えることができる.本稿の統一的モデルには,変形部のみで構成される言い換えのモデルに比べて上記のような強力な利点がある.話を少し戻して先にあげた三つの研究を本稿の統一的モデルで実現するにはどのようにすればよいかを考えてみる.山崎らのニュース文要約の研究\cite{yamasaki_NLP98}では,研究の基本方針として,「冗長な表現を短縮し,略語があれば略語に言い換える,無くても理解できる部分は削除する,強調表現や文の接続を表す語句も削除する」というものが記述されてある.本稿の統一的モデルだと,変形部の変形規則に略語とその略語の略さない表現の対を追加して,強調表現や接続表現に関する変形規則などを追加し,尺度に本稿でも用いた文の長さが短いほどよいというものを使うとよい.佐藤らの論文表題をわかりやすく言い換える研究\cite{sato_ronbun_iikae}の場合は,語尾の動詞性名詞を格関係も考慮して動詞化する規則を評価部の変形規則に利用して,尺度に文末は動詞がよいというものや,平易な文章を集めてその平易な文章での出現頻度が多い表現ほどよいというものを使うとよい.また,わかりやすくした結果の論文表題も多数収集されれば,そこでの頻度が多い表現ほどよいという尺度も利用できる.黒橋らの平易文への言い換えの研究\cite{kurohashi_nlp2001ws_true}の場合では,国語辞書から取り出した見出し語と定義文の対から変形規則を作成しそれを変形部の変形規則に追加して,尺度には平易な文章を集めてその平易な文章での出現頻度が多い表現ほどよいというものを使うとよい.このように,これらの三つの研究は本稿の統一的モデルでも扱うことができる.なお,変形部と評価部を分離した構成を持つ構成・方法については,いくつかの文献\cite{yamamoto_nlp2001ws_true,inui_iikae_tutorial,fujita_ipsj2003}でも述べられている.例えば,藤田らの論文\cite{fujita_ipsj2003}では言い換えレイヤと目的適合性レイヤを分離して扱う方法が述べ,このことによりテキストの評価基準(本稿でいうところの尺度)を取り替えることで様々な用途の違いを吸収でき,汎用的な枠組みを提供するということが述べられている.山本や乾の文献\cite{yamamoto_nlp2001ws_true,inui_iikae_tutorial}には評価部の尺度を考える際に役に立つ,言い換えの基準や考え方(文献では換言因子とも呼ばれている)が数多く記載されている.役に立つ貴重なものと思われる.しかし,これらの文献では本稿で紹介しているような,実際にテキストの評価基準を取り替えて様々な言い換えシステムを構築してその動作例を示すというようなことはしていない.その意味では本稿は評価部の尺度を種々のものに取り替えることで,様々な言い換えシステムを構築できることを実際に示しており,その面で価値がある.\subsection{モデルの個々の要素の検討}本節で本稿のモデルの個々の要素である,変形部と評価部について議論する.まず,変形部についてであるが,本稿で実際に示したシステムでは,変形部には主にPerlのsコマンドでも扱えるような,文字列の変換のみしか扱わなかった.文内圧縮システムでも指摘したが,構文的な情報を反映した変形をしないと正しく言い換えが実現できない場合がある.今後はこのような構文的な情報を反映した変形を実現する必要がある.乾らのグループが開発している言い換えエンジンKURA\cite{takashi_tl2001}は,構文構造を持つ表現の言い換えを実現できるもので,その有用性は大きいと考える.今後は,KURAを利用した研究やシステム開発も行なってみたいと考えている.KURAは修正・棄却規則を具備し,不適切な言い換えが生じることを防ぐ機能も有している.次に評価部について議論する.言い換えは「場面」「話し手(または書き手)」「聞き手(または読み手)」などの状況によって変わるもので,それぞれに応じた言い換えを実現する必要がある.ここではそれらの状況を本稿の評価部で扱うことができるかを考えてみたい.「場面」「話し手」「聞き手」の情報は,それぞれ本稿のモデルの評価部で扱うことができる.例えば,「場面」がニュース報道であり,ニュース報道的な文章に言い換えたい場合は,ニュース報道のテキストを評価部のコーパスとして用い,ニュース報道のテキストによく現れる表現に変更することで,ニュース報道的な文章に言い換えることができる.また,「場面」が悲しい状態であり,悲しい状態に適した文章に言い換えたい場合は,悲しい状態のテキストを収集しそれを評価部のコーパスとして用い,悲しい状態のテキストによく現れる表現に変更することで,悲しい状態に適した文章に言い換えることができる.また,「話し手」または「書き手」を次に考えると,\ref{sec:model}節にも書いていたようにシェークスピアや漱石のテキストを評価部に利用することで,シェークスピアや漱石の文体に変更することができると思われる.また,ニュースのアナウサーのような「話し手」の文章に変更したい場合は,ニュースのアナウサーのテキストを集めてそれをコーパスとして利用することでニュースのアナウサーのような文章に言い換えることができる.また,「聞き手」または「読み手」が小学生の場合,小学生向けのテキストを集めそれを評価部に利用することで,小学生向けの文章に言い換えることができる.また,「聞き手」または「読み手」がある特定の分野の専門家で,その特定の分野の文章に言い換えた方がその専門家にとって読みやすくそのように言い換えたい場合は,その特定の分野の文章を集めてそれを評価部に利用することで,その特定の分野の文章に言い換えることができる.また,「話し手」(または「書き手」)と「聞き手」(または「書き手」)の間の関係が上下関係で敬語表現などを使う必要がある場合も,その「話し手」と「書き手」の間の関係と同じテキストを集めてそれを評価部に用いることで,その関係にふさわしい文章に言い換えることができる.上述のように本稿のモデルでは,それぞれに適したテキスト集合を収集してそれを評価部に用いることで,「場面」「話し手」「聞き手」の情報を比較的簡便に扱うことができるのである.ここでは,主にテキストコーパスでの頻度を尺度とする方法を示してきたが,この方法の他に,評価部の尺度としては,心理実験や計量的な研究をして,単純な頻度ではない尺度も構築することができると,それを評価部の尺度として用いることもできる.
\section{おわりに}
本稿では言い換えの統一的モデルとして,尺度に基づく変形による手法を記述した.また,様々な尺度を設定することで,文内圧縮システム,推敲システム,文章語口語変換システム,RL発音回避システム,質問応答システムといった多様なシステムを構築できることを具体的に示した.本稿の言い換えの統一的モデルでは,変形の尺度や変形規則を他のものに取り替えるだけで多様な言い換えを実現することができるので,尺度や変形規則以外の部分を複数の言い換えシステムで利用することができ,システム作成のコストを軽減する効果がある.また,本稿の言い換えの統一的モデルは,変形部と評価部という二つの構成要素からなる単純なモデルだけで,多種多様な言い換えを扱えるようになっているため,本稿のモデルは単純で理解しやすく,大雑把に言い換えの原理を考察するには役に立つモデルである.また,新たな尺度を考えたときには,その尺度で変形を行なう新たな言い換えシステムを考えたことと等価になるため,多くの新たな尺度を考案することで多様な新たな言い換えシステムを思いつくことにも役に立つのである.われわれは本稿で示した言い換えの統一的モデルを多くの人に知ってもらって,効率よく多くの言い換えの研究がなされることを切に希望する.\section*{謝辞}独立行政法人情報通信研究機構の和泉絵美氏には6章の研究に対して有益なコメントと手助けをしていただきました.ここに感謝いたします.また,言い換えに関する研究の創設と発展および本特集号に尽力されている,京都大学佐藤理史助教授と奈良先端科学技術大学院大学乾健太郎助教授をはじめとする方々に感謝いたします.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{藤田\JBA乾}{藤田\JBA乾}{2003}]{fujita_ipsj2003}藤田篤\JBA乾健太郎\BBOP2003\BBCP.\newblock\JBOQ語彙・構文的言い換えにおける変換誤りの分析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf44}(11).\bibitem[\protect\BCAY{乾}{乾}{2002}]{inui_iikae_tutorial}乾健太郎\BBOP2002\BBCP.\newblock\JBOQ言語表現を言い換える技術\JBCQ\\newblock\Jem{言語処理学会第8回年次大会チュートリアル資料},1--21.\bibitem[\protect\BCAY{垣田\JBA小篠}{垣田\JBA小篠}{1983}]{eigo_goto}垣田直巳\JBA小篠敏明\BBOP1983\BBCP.\newblock\Jem{英語の誤答分析}.\newblock大修館書店.\bibitem[\protect\BCAY{加藤\JBA浦谷}{加藤\JBA浦谷}{1999}]{Kato1999}加藤直人\JBA浦谷則好\BBOP1999\BBCP.\newblock\JBOQ局所的要約知識の自動獲得手法\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf6}(7).\bibitem[\protect\BCAY{小池}{小池}{1994}]{SLA}小池生夫\BBOP1994\BBCP.\newblock\Jem{第二言語習得研究に基づく最新の英語教育}.\newblock大修館書店.\bibitem[\protect\BCAY{黒橋\JBA酒井\JBA鍛冶}{黒橋\Jetal}{2001}]{kurohashi_nlp2001ws_true}黒橋禎夫\JBA酒井康行\JBA鍛冶伸裕\BBOP2001\BBCP.\newblock\JBOQ国語辞典に基づく文章理解とパラフレーズ\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集}.\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1998}]{JUMAN3.6}黒橋禎夫\JBA長尾真\BBOP1998\BBCP.\newblock\Jem{日本語形態素解析システム{JUMAN}使用説明書version3.6}.\newblock京都大学大学院工学研究科.\bibitem[\protect\BCAY{毎日新聞社}{毎日新聞社}{1998}]{mainichi_jap_all}毎日新聞社\BBOP1998\BBCP.\newblock\JBOQ毎日新聞1991-1998\JBCQ.\bibitem[\protect\BCAY{村田\JBA長尾}{村田\JBA長尾}{1996}]{murata_noun_nlp}村田真樹\JBA長尾真\BBOP1996\BBCP.\newblock\JBOQ名詞の指示性を利用した日本語文章における名詞の指示対象の推定\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf3}(1).\bibitem[\protect\BCAY{村田\JBA長尾}{村田\JBA長尾}{1998}]{murata_anaphora_all_NLC}村田真樹\JBA長尾真\BBOP1998\BBCP.\newblock\JBOQ表層表現と用例を用いた照応省略解析手法\JBCQ\\newblock\Jem{言語理解とコミュニケーション研究会NLC97-56}.\bibitem[\protect\BCAY{村田\JBA内元\JBA馬\JBA井佐原}{村田\Jetal}{1999}]{murata_7pm2_nlp}村田真樹\JBA内元清貴\JBA馬青\JBA井佐原均\BBOP1999\BBCP.\newblock\JBOQ日本語文と英語文における統語構造認識とマジカルナンバー7±2\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf6}(7),61--71.\bibitem[\protect\BCAY{村田\JBA内山\JBA井佐原}{村田\Jetal}{2000}]{murata2000_1_nl}村田真樹\JBA内山将夫\JBA井佐原均\BBOP2000\BBCP.\newblock\JBOQ類似度に基づく推論を用いた質問応答システム\JBCQ\\newblock\Jem{自然言語処理研究会2000-NL-135},181--188.\bibitem[\protect\BCAY{村田\JBA井佐原}{村田\JBA井佐原}{2001a}]{murata_nlp2001ws_true}村田真樹\JBA井佐原均\BBOP2001a\BBCP.\newblock\JBOQ言い換えの統一的モデル---尺度に基づく変形の利用---\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集}.\bibitem[\protect\BCAY{村田\JBA井佐原}{村田\JBA井佐原}{2001b}]{murata_nl2001_henkei}村田真樹\JBA井佐原均\BBOP2001b\BBCP.\newblock\JBOQ同義テキストの照合に基づくパラフレーズに関する知識の自動獲得\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2001-NL-142}.\bibitem[\protect\BCAY{村田\JBA井佐原}{村田\JBA井佐原}{2001c}]{murata_kaiho_2001}村田真樹\JBA井佐原均\BBOP2001c\BBCP.\newblock\JBOQ話し言葉と書き言葉のdiff\JBCQ\\newblock\Jem{ワークショップ「話し言葉の科学と工学」}.\bibitem[\protect\BCAY{村田}{村田}{2003}]{murata_qa_ieice_kaisetu}村田真樹\BBOP2003\BBCP.\newblock\JBOQ質問応答システムの現状と展望\JBCQ\\newblock\Jem{電子情報通信学会学会誌},{\Bbf86}(12),959--963.\bibitem[\protect\BCAY{村田\JBA金丸\JBA井佐原}{村田\Jetal}{2004}]{murata_henkeirule_nlp2004}村田真樹\JBA金丸敏幸\JBA井佐原均\BBOP2004\BBCP.\newblock\JBOQ複数の辞書の定義文の照合に基づく同義表現の自動獲得\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf11}(5).\bibitem[\protect\BCAY{Murata\BBA\Isahara}{Murata\BBA\Isahara}{2001}]{murata_paraphrase_true}Murata,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2001\BBCP.\newblock\BBOQUniversalModelforParaphrasing---UsingTransformationBasedonaDefinedCriteria---\BBCQ\\newblockIn{\BemNLPRS'2001WorkshoponAutomaticParaphrasing:TheoriesandApplications}.\bibitem[\protect\BCAY{Murata\BBA\Isahara}{Murata\BBA\Isahara}{2002a}]{Murata_ieice_negative_example}Murata,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2002a\BBCP.\newblock\BBOQAutomaticdetectionofmis-spelledJapaneseexpressionsusinganewmethodforautomaticextractionofnegativeexamplesbasedonpositiveexamples\BBCQ\\newblock{\BemIEICETransactionsonInformationandSystems},{\BbfE85--D}(9),1416--1424.\bibitem[\protect\BCAY{Murata\BBA\Isahara}{Murata\BBA\Isahara}{2002b}]{Murata_spoken_written_lrec}Murata,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2002b\BBCP.\newblock\BBOQAutomaticExtractionofDifferencesbetweenSpokenandWrittenLanguages,andAutomaticTranslationfromtheWrittentotheSpokenLanguage\BBCQ\\newblockIn{\BemLERC2002}.\bibitem[\protect\BCAY{日本英語教育協会}{日本英語教育協会}{1985}]{eiken2k}日本英語教育協会\BBOP1985\BBCP.\newblock\Jem{20日完成英検2級二次試験対策(面接テスト)}.\bibitem[\protect\BCAY{{OxfordUniversityComputingServices}}{{OxfordUniversityComputingServices}}{1995}]{BNC}{OxfordUniversityComputingServices}\BBOP1995\BBCP.\newblock\BBOQBritishNationalCorpus\BBCQ.\bibitem[\protect\BCAY{{PrincetonUniversity}}{{PrincetonUniversity}}{2003}]{wn2.0}{PrincetonUniversity}\BBOP2003\BBCP.\newblock\BBOQWordNet2.0\BBCQ.\bibitem[\protect\BCAY{佐藤}{佐藤}{1999}]{sato_ronbun_iikae}佐藤理史\BBOP1999\BBCP.\newblock\JBOQ論文表題を言い換える\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(7).\bibitem[\protect\BCAY{高橋\JBA岩倉\JBA飯田\JBA乾}{高橋\Jetal}{2001}]{takashi_tl2001}高橋哲朗\JBA岩倉友哉\JBA飯田龍\JBA乾健太郎\BBOP2001\BBCP.\newblock\JBOQ{KURA}:統一的かつ宣言的記述法に基づく言い換え知識の開発環境\JBCQ\\newblock\Jem{電子情報通信学会思考と言語研究会TL01-12}.\bibitem[\protect\BCAY{竹内\JBA松本}{竹内\JBA松本}{1999}]{takeuchi99}竹内孔一\JBA松本裕治\BBOP1999\BBCP.\newblock\JBOQ統計的言語モデルを用いた{OCR}誤り修正システムの構築\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(6).\bibitem[\protect\BCAY{山本}{山本}{2001}]{yamamoto_nlp2001ws_true}山本和英\BBOP2001\BBCP.\newblock\JBOQ換言処理の現状と課題\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集}.\bibitem[\protect\BCAY{山崎\JBA三上\JBA増山\JBA中川}{山崎\Jetal}{1998}]{yamasaki_NLP98}山崎邦子\JBA三上真\JBA増山繁\JBA中川聖一\BBOP1998\BBCP.\newblock\JBOQ聴覚障害者用字幕生成のための言い替えによるニュース文要約\JBCQ\\newblock\Jem{言語処理学会第4回年次大会}.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.現在,独立行政法人情報通信研究機構主任研究員.自然言語処理,機械翻訳,情報検索,質問応答システムの研究に従事.言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,計量国語学会,ACL,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所.現在,独立行政法人情報通信研究機構けいはんな情報通信融合研究センター自然言語グループリーダー.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V26N01-07 | \section{はじめに}
Web上では日々多くのテキスト情報が発信されており,これまでに膨大な量のテキストが蓄積されている.この大量のテキストから,あるトピックについての知識を抽出するためには,関連するテキストの統合・要約・比較を行う情報分析技術が必要である.異なる時期に書かれたテキストや異なる時期について言及しているテキストを対象として分析を行うためには,テキストに含意されている時間情報を正しく解釈する必要があり,これまでに事象情報と時間情報の関係性という観点から多くの研究やタスクが行われてきた.例えばTempEval1,2,3では,事象−事象表現間,事象−時間表現間の時間的順序関係の推定が行われた\cite{TempEval-1,TempEval-2,TempEval-3}.また,SemEval15では複数のテキストから事象表現を抽出し,時系列に配置するタイムライン生成タスクが扱われた\cite{SemEval15-4}.このようなタスクにおいてモデルの学習やシステムの評価を行うため,テキスト中の事象情報と時間情報を関連付けたコーパスが作られてきた\cite{pustejovsky:TimeBankCorpus:03,cassidy:TimeBankDenseCorpus:2014,reimers:EventTimeCorpus:2016}.これらのコーパスでは開始・終了時が比較的明確な事象表現を対象にアノテーションが行われたが,テキストの時間情報理解のための手がかりはこれにとどまらない.本研究では,時間性が曖昧な表現を含めた,テキスト中の様々な表現がもつ時間情報を表現力豊かにアノテーションするための基準を提案する.先行研究における時間情報アノテーションのアプローチは2つに大別される.1つは事象間の時間的順序関係を付与する{\bf相対的なアノテーション方法}である.もう1つは各事象を時間軸に対応させる{\bf絶対的なアノテーション方法}である.前者は小説など時間情報の少ないテキストであっても情報量の多いアノテーションが可能である.後者は新聞などの時間情報の多いテキストにおいて少ないアノテーション量で正確に時間情報を表現できる.本研究は後者のアプローチを発展させるものであり,構築するコーパスはタイムライン生成など時間軸を用いてテキストの比較・統合を行うタスクにおいて学習/評価データとして使用することが可能である.本アノテーション基準の特徴は次の2つである.1つは,時間性をもち得る幅広い表現をアノテーション対象とすることである.多くの先行研究は,TimeML\cite{Sauri06timemlannotation}のガイドラインに従い,何か起きたことやその状態を表す一時性の強い表現である{\sl``event''}に対してアノテーションを行っている.そのため次の例の「出現しており」のような一時性の弱い表現にはアノテーションが行われない.\vspace{0.5\Cvs}\enumsentence{インターネット上では様々な事業が急速に{\itshape\bfseries出現しており},政府でさえ把握できていない.}\vspace{0.5\Cvs}しかし,一時性の弱い表現がもつ時間情報もテキスト解釈の手がかりとなり得る.この例の場合,「出現しており」が数年前から現在にかけての事象であるという時間情報をアノテーションすることも重要である.そこで本研究では先行研究より対象を広げ,テキスト中で時間性をもち得る全ての事象表現,すなわちテキスト中の述語または事態性名詞(サ変名詞,動詞連用形の名詞化,形容動詞語幹)を含む基本句全て(以降,対象表現と呼ぶ)をアノテーション対象とする.ここで基本句とは,京都大学テキストコーパスで定義されている単位で,自立語とそれに続く付属語のことである.本アノテーション基準のもう1つの特徴は,頻度や期間などの多様な時間情報を扱えることである.\cite{reimers:EventTimeCorpus:2016}は事象の起きる期間を開始点と終了点を用いて時間軸に対応付けたが,次の例で太字で示す「飛び飛びな時間」や「大きな区間の中のある一部の期間」に起きる事象を正確に時間軸に対応付けることはできなかった.\vspace{0.5\Cvs}\enumsentence{\label{ex:baseball}毎週日曜は球場で野球を{\itshape\bfseries見る}。}\enumsentence{\label{ex:trip}来週は3日間京都に{\itshape\bfseries出張する}。}\enumsentence{昔はよく一緒に{\itshape\bfseries遊んでいた}。}\vspace{0.5\Cvs}本研究では,テキスト中に含まれる多様な時間情報をより正確に時間軸に対応付けられる時間タグを導入する.多様な表現に対して表現力豊かにタグ付けすることで,個人のテキスト解釈や常識がタグの揺れとして現れる.本研究ではこのような揺れも時間がどのように解釈されているかを知る上で重要だと考えているため,最終的に複数のアノテータの付与した時間タグを1つに統合することはしない.代わりに,解釈の違いを尊重しつつ明らかなアノテーションミスのみを修正するアノテーション方法を導入する.本アノテーション基準を用いて,京都大学テキストコーパス中の113文書4,534対象表現に対してアノテーションを行った.その結果,対象表現の76\%に時間性が認められ,そのうち35\%(全体の26\%)で本稿で新たに提案する記法が用いられた.同コーパスには,既に述語項関係や共参照関係のアノテーションがなされているため,本アノテーションと合わせてテキスト中の事象・エンティティ・時間を対象とした統合的な時間情報解析に活用することが可能となる.
\section{関連研究}
事象情報と時間情報を関連付けたコーパスは,これまでにも多く作られており,これらのアノテーション方法は大きく2つのアプローチに分けられる.1つは,事象間の時間的順序関係を付与する方法である.事象情報や時間情報を扱う多くのタスクで利用されているTimeBankCorpus\cite{pustejovsky:TimeBankCorpus:03}には,TimeMLの基準に基づいて事象・時間表現情報がアノテーションされており,さらに時間的順序関係を表すTLINK,事象間の関係を表すSLINK,相動詞と事象の関係を表すALINKの3つの関係が付与されている.当初はアノテータが重要と判断した表現間にのみアノテーションがなされていたためスパースであったが,後のTempEvalタスクはこれを発展させ,同一文中と隣接文間の関係に対してアノテーションを行った.BCCWJ-TimeBank\cite{BCCWJ-TimeBank:14}は,現代日本語書き言葉均衡コーパス(BCCWJ)の新聞記事に対してTimeBankCorpusに準拠した基準でアノテーションを行ったものである.このような時間的順序関係をより密にアノテーションしたコーパスも存在する.\cite{kolomiyets12}は子ども向けの物語コーパス中の各事象表現に対してその最も近い事象表現との時間的順序関係をアノテーションした.またTimeBankDenseCorpus\cite{cassidy:TimeBankDenseCorpus:2014}は,同一文内・隣接文間の全ての事象−時間表現間,事象−事象表現間に対してアノテーションを行っている.もう1つのアプローチは,事象を時間軸に対応させる方法である.EventStatusCorpus\cite{huang:EventStatusCorpus:16}は,社会不安に関する新聞記事中の事象表現に対して{\slPast,On-going,FuturePlanned,FutureAlert,FuturePossible}の5つのラベルをアノテーションした.\cite{asakura-hangyo-komachi:2016:WNUT}は,ソーシャルメディアに投稿された洪水に関するテキストに含まれる事象表現に対して{\slPAST,PRESENT,FUTURE}のラベルと事実性に関する3つの値({\slhighprobability,lowprobability,unmentioned})をアノテーションした.より細かい粒度で時間軸に対応付けたコーパスも存在する.\cite{reimers:EventTimeCorpus:2016}は,TimeBankCorpus中の事象表現に対して時間値を付与した.時間値は日にちの粒度で付与されており,事象が1日内で終わるものか,複数日に跨るものかでタグが異なる.前者にはその事象が起きた日付を,後者にはその事象の開始日と終了日を付与する.次の例文の「出発した」は1日内の事象であり,この方法でアノテーションする場合は{1980-05-26}を付与する.「過ごした」は複数日に跨る事象であるため,{\slbeginPoint=1980-05-26endPoint=1980-06-01}のように開始日と終了日を付与する.\vspace{0.5\Cvs}\enumsentence{\label{ex:ETC1}1980年5月26日、彼は宇宙に向けて{\itshape\bfseries出発した}。サリュート6号で6日間を{\itshape\bfseries過ごした}。}\vspace{0.5\Cvs}事象の正確な日付が分からない場合は,{\slafter}と{\slbefore}を用いて記述する.次の例文の「滞在した」には{\slbeginPoint=after1984-10-01before1984-10-31endPoint=after1984-10-01before1984-10-31},「選ばれた」には{\slafter2014-01-01before2014-12-31}が付与される.\vspace{0.5\Cvs}\enumsentence{\label{ex:ETC2}サリバンは1984年10月、チャレンジャー号のメンバーとして宇宙に{\itshape\bfseries滞在した}。2014年にはタイム100に{\itshape\bfseries選ばれた}。}\vspace{0.5\Cvs}また,時間性をもたない事象に対しては,{\sln/a}を付与した.彼らのアノテーションでは,全事象の約6割が1日内の事象,約4割が複数日に跨る事象である.前者のうち日付が明確なものは56\%,後者のうち開始日が明確なものは20\%,終了日が明確なものは16\%であり,全事象の64\%が{\slafter}または{\slbefore}を用いて表されている.時間性をもたない事象は全体の0.7\%であった.本稿ではこの事象を時間軸に対応させるアプローチを発展させ,テキスト中の多様な時間情報に対応できるタグ付け基準を提案する.
\section{アノテーション基準}
1章で述べたように,本研究ではテキスト中の述語または事態性名詞(サ変名詞,動詞連用形の名詞化,形容動詞語幹)を含む基本句全てを対象表現として,それらに時間タグを付与する.ここで基本句とは,自立語とそれに続く付属語のことである.基本句を基本単位とすることにより,「行くつもりだ」や「勝てたかもしれない」のような助詞や接尾辞を含む動詞句をひとかたまりとして時間性を考えることができる.英語を対象とした先行研究の多くが,開始と終了が比較的明瞭で一時性の強い事象である,TimeMLにおける{\sl``event''}をアノテーション対象とするのに対し,本研究では時間性をもち得るより幅広いこれらの表現をアノテーション対象とする.対象表現の例を次に示す.例(\ref{ex:go_kyoto})の「行くつもりだ」は動詞を含む基本句であるため,また例(\ref{ex:rengo})の「所属」は事態性名詞であるため対象表現である.例(\ref{ex:marry})には,事態性名詞の基本句である「結婚を」と,動詞を含む基本句である「考えたい」の2つの対象表現が存在する.\vspace{0.5\Cvs}\enumsentence{\label{ex:go_kyoto}明日京都に{\itshape\bfseries行くつもりだ}。}\enumsentence{\label{ex:rengo}連合{\itshape\bfseries所属}議員}\enumsentence{\label{ex:marry}そろそろ{\itshape\bfseries結婚を}{\itshape\bfseries考えたい}。}\vspace{0.5\Cvs}アノテータには,本章で述べるアノテーション基準に従って,対象表現に対するアノテーションを依頼した.アノテータは,まず対象表現が時間性をもつかどうかを判定する.時間性をもつ場合はテキストの作成日(DocumentCreationTime,DCT)と文脈を考慮して対応する時間タグを付与する.時間性を持たない場合は{\slt:n/a(notapplicable)}という時間タグを記す.時間性をもつ場合,時間タグは時間基本単位(TimeBaseUnit,TBU)またはその組み合わせとして表す(表\ref{table:tag_list}).時間基本単位とは,特定の時点や期間を表すもので,5種類のタグを定義する.さらに,時間基本単位中の一部の期間や繰り返しを表す3通りの方法を導入し,多様な時間情報を表現する.\cite{reimers:EventTimeCorpus:2016}が扱った時間情報は,表\ref{table:tag_list}中の1,3,b,{\slt:n/a}である.時間タグは,先行研究と同様,日にちを最小粒度とする.これは,情報分析において着目したい粒度が数日から数年であることが多いことによる.例えば次の文のように,2017年4月29日に書かれたテキストでは,「帰った」はその日の18時のことであるが,日にち以下の粒度の情報は捨てて2017年4月29日という情報をタグ付けする.\vspace{0.5\Cvs}\enumsentence{\label{ex:time}{[DCT:2017-04-29]}今日は夜6時に{\itshape\bfseries帰った}。}\begin{table}[t]\caption{時間タグの一覧}\label{table:tag_list}\input{07table01.tex}\end{table}\subsection{対象表現の時間性判定}対象表現が時間性をもつかどうかは,過去から未来の間において表現の表す動作や状態に変化があるか否かで判断する.文脈によって変化の有無や度合いの解釈は変わり得るため,次のような事例を共通認識としつつ,具体的な判断基準は各アノテータに委ねた.時間性をもつ例をいくつか挙げる.\vspace{0.5\Cvs}\enumsentence{\label{ex:kyoto}明日京都に{\itshape\bfseries行く}。}\enumsentence{\label{ex:nlp}言語処理研究が{\itshape\bfseries盛んだ}。}\enumsentence{\label{ex:tall}あの子は背が{\itshape\bfseries低かった}。}\vspace{0.5\Cvs}例(\ref{ex:kyoto})の「行く」は,明日という特定の日に起きるものであるため,時間性をもつ.例(\ref{ex:nlp})の「盛んだ」は,いつからいつまでかは分からないがある限られた時期のことであるため時間性をもつと考える.例(\ref{ex:tall})の「低かった」も,現在はそうではないことを示唆しているため,時間性をもつと考える.これらの例において,先行研究がアノテーション対象としているのは,例(\ref{ex:kyoto})のみである.次に時間性をもたない例を示す.\vspace{0.5\Cvs}\enumsentence{\label{ex:rabbit}ウサギは草を{\itshape\bfseries食べる}{\itshape\bfseries動物だ}。}\enumsentence{\label{ex:eye}彼の目は{\itshape\bfseries黒い}。}\vspace{0.5\Cvs}例(\ref{ex:rabbit})の「食べる」と「動物だ」は,昔から変わらない一般的な事柄であるため時間性をもたないと考える.例(\ref{ex:eye})の「黒い」も同様である.ただし,次の文のように現在は異なることを示唆する表現の場合は時間性をもつと解釈する.\vspace{0.5\Cvs}\enumsentence{以前は目の色が{\itshape\bfseries黒かった}。}\vspace{0.5\Cvs}\subsection{時間基本単位}\subsubsection{日付・期間を表すタグ}日付の時間情報は,{\slt}タグにその時間の表す値を記すことで表現する.{\slt:YYYY}や{\slt:YYYY-MM-DD}など,BCCWJ-TimeBankで定義されている時間表現の時間値の記法で記す.次の例の「到着した」は2017年4月28日の出来事であるため,時間値{\slt:2017-04-28}を付与する.\vspace{0.5\Cvs}\enumsentence{{[DCT:2017-04-29]}昨日大統領がニューヨークに{\itshape\bfseries到着した}。\\~~~→{\slt:2017-04-28}}\vspace{0.5\Cvs}本研究では先行研究とは異なり,日にちより大きな粒度の時間タグを許す.例えば次の例の「暑かった」には,{\slt:2016-08}を付与する.このタグは,必ずしも厳密に2016年8月1日から31日までの期間を表すわけではない.「8月」という表現は「8月1日から31日まで」という表現と比べ,その表す期間は漠然と捉えられる.本研究におけるタグの粒度はこのような漠然性を含意する.\vspace{0.5\Cvs}\enumsentence{{[DCT:2017-04-29]}昨年の8月は{\itshape\bfseries暑かった}。\\~~~→{\slt:2016-08}}\vspace{0.5\Cvs}アノテータの負担軽減のため,次のような省略表記を導入する.\begin{itemize}\item文書作成日時の日付は{\slt:DCT}と記すことができる.\itemある日から一定期間前/後の日を引き算/足し算で記すことができる.この際,期間はBCCWJ-TimeBankで定義された期間表現の時間値の記法を用いる.例えば,1年間は{\slP1Y},1ヶ月は{\slP1M},1週間は{\slP1W},1日間は{\slP1D}と表す.次の例の「行く」の時間値は{\slt:DCT+P1W},「行った」の時間値は{\slt:DCT--P1W}と表せる.\vspace{0.5\Cvs}\enumsentence{私も来週そこに{\itshape\bfseries行く}。\\~~~→{\slt:DCT+P1W}}\enumsentence{私も先週そこに{\itshape\bfseries行った}。\\~~~→{\slt:DCT--P1W}}\end{itemize}\vspace{0.5\Cvs}\subsubsection{漠然とした時間を表すタグ}テキスト中には漠然とした時間情報を表す表現も多く存在する.例えば次の文では,「住んでいた」が過去のいつ,どのくらいの期間のことであるのか具体的には分からない.\vspace{0.5\Cvs}\enumsentence{昔広島に{\itshape\bfseries住んでいた}。}\vspace{0.5\Cvs}\cite{reimers:EventTimeCorpus:2016}はこれを「今日までのある日から,今日までのある日まで」と捉え,{\slbeginPoint=beforeDCTendPoint=beforeDCT}とタグ付けした.本研究では,このような漠然とした時間情報をより正確に表現するため,新たなタグを導入する.文書作成日を基準として,漠然とした過去,現在,未来は,それぞれ{\slt:PAST,t:PRESENT,t:FUTURE}と記す.ここで,「現在」は文書作成日の少し前から少し後までを表す.例えば次の文の「持ち込める」は,文書作成日だけでなく,文書作成日から少し前や後でも成り立つことだと考えられるので,{\slt:PRESENT}を付与する.\vspace{0.5\Cvs}\enumsentence{国内線では飲み物を{\itshape\bfseries持ち込める}。\\~~~→{\slt:PRESENT}}\vspace{0.5\Cvs}過去と未来については,それぞれ時間的距離に応じて{\slt:PAST-M}と{\slt:PAST-Y},{\slt:FUTURE-M}と{\slt:FUTURE-Y}という表記を導入する.{\slt:PAST-M}は数ヶ月前を,{\slt:PAST-Y}は数年前を表す\footnote{数週間前までの過去は,\ref{chap:nyoro}節の$\sim$を用いて{\slt:$\sim$DCT}と表す.}.数年以上前,あるいはどのくらい昔なのかが不明な場合は{\slt:PAST}を用いる.未来についても同様である.漠然とした時間表現はこれ以外にもある.「1980年頃」や「約3年間」など数値の曖昧性が明示されている表現の場合,その曖昧な数値の直後に{\slap(approximately)}と記す.次の例の「建てられた」には{\slt:1980ap}を付与する.\vspace{0.5\Cvs}\enumsentence{1980年頃に{\itshape\bfseries建てられた}建物\\~~~→{\slt:1980ap}}\subsubsection{開始・終了時を用いて期間を表す方法\label{chap:nyoro}}期間の時間値は,開始時と終了時を$\sim$で結ぶことで表す.これは\cite{reimers:EventTimeCorpus:2016}の{\slbeginPoint,endPoint}に対応する.例(\ref{ex:ETC1})の「過ごした」には{\slt:1980-05-26$\sim$1980-06-01}を付与する.\vspace{0.5\Cvs}\enumsentence[(\ref{ex:ETC1})]{1980年5月26日,彼は宇宙に向けて出発した。サリュート6号で6日間を{\itshape\bfseries過ごした}。\\~~~→{\slt:1980-05-26$\sim$1980-06-01}}\vspace{0.5\Cvs}事象の開始時,終了時のいずれかが不明かつ近い過去/未来である場合はこれを書かない.次の例文の「忙しかった」の時間タグは{\slt:$\sim$2017-04-28}となる.\vspace{0.5\Cvs}\enumsentence{{[DCT:2017-04-29]}昨日まで{\itshape\bfseries忙しかった}。\\~~~→{\slt:$\sim$2017-04-28}}\vspace{0.5\Cvs}事象の開始時,終了時が遠い過去や未来である場合は,{\slPAST}や{\slFUTURE}を用いる.\subsubsection{相対的な時間を表すタグ}事象を時間軸に対応付けるアプローチの弱点の1つは,小説など時間表現が少ないテキストでは多くの事象が時間軸と対応付けられない可能性があることである.このような場合,事象表現間の相対的な時間関係をタグ付けするアプローチの方が情報量の多いアノテーションが可能である.そこで本研究では,絶対的な時間値が分からない場合は相対的な時間値を付与する.対象表現の具体的な日付が分からないが,同一文中の他の基本句との時間関係が分かる場合,これを時間値として記す(時間共参照と呼ぶ).例えば次の文の「起きた」は,具体的な日付は分からないが基本句「選挙の」の表す日の翌日であることは分かる.この場合,{\slt:選挙の+P1D}と記す.\vspace{0.5\Cvs}\enumsentence{選挙の翌日、大規模なデモが{\itshape\bfseries起きた}。\\~~~→{\slt:選挙の+P1D}}\vspace{0.5\Cvs}参照できる基本句が複数ある場合は,1.絶対的な時間値が付与されている基本句,2.距離が近い基本句の順で優先順位を付け,最も優先順位の高いもの1つを選択する.\subsubsection{発話日時を表すタグ}会話文やインタビューなどでは,その発話日時が不明なことが多い.文脈から具体的な日付が分かる場合はそれを利用してタグ付けを行うが,分からない場合は発話日を{\slt:UD(UtteranceDay)}として記述する.例えば次の文の「頑張るしかない」には{\slt:UD+P1D}を付与する.\vspace{0.5\Cvs}\enumsentence{「明日{\itshape\bfseries頑張るしかない}」と監督は言った。\\~~~→{\slt:UD+P1D}}\vspace{0.5\Cvs}ただし,上の文の「言った」のように,発話の外の表現には{\slUD}は用いず,絶対的な時間値を記す.\subsection{時間基本単位(TBU)の一部分の表現}\subsubsection{TBU内の一部の期間を表す方法}\label{chap:span}ある大きなTBUの中の一部の期間は,大きい期間を表す{\slt}タグと小さい期間を表す{\slspan}タグを組み合わせることで表現する.{\slspan}タグは,期間の長さが分かる場合はBCCWJ-TimeBankで定義された期間表現の時間値の記法を用いて記す.例えば3日間は{\slspan:P3D},3週間は{\slspan:P3W},3年間は{\slspan:P3Y}と表す.期間の長さが分からない場合は{\slspan:part}と記す.例(\ref{ex:ETC2})の場合,「滞在した」は1984年10月のある期間なので{\slt:1984-10,span:part}を,「選ばれた」は2014年のある日のことなので{\slt:2014,span:P1D}を付与する.\vspace{0.5\Cvs}\enumsentence[(\ref{ex:ETC2})]{サリバンは1984年10月、チャレンジャー号のメンバーとして宇宙に{\itshape\bfseries滞在した}。2014年にはタイム100に{\itshape\bfseries選ばれた}。\\~~~→「滞在した」{\slt:1984-10,span:part}\\~~~~~「選ばれた」{\slt:2014,span:P1D}}\vspace{0.5\Cvs}\cite{reimers:EventTimeCorpus:2016}と比較すると,{\slspan:part}は彼らの{\slbefore,after}を用いた記法に対応する.\subsubsection{TBU中の繰り返しを表す方法}対象表現は常に連続した期間として表せるわけではない.「毎週日曜日」に行う事象や「3日に1回」行う事象もある.このように飛び飛びで複数日に渡って起きる事象は,{\slt}タグや{\slspan}タグに加えて繰り返し規則を表す{\slfreq}タグを用いて表す.繰り返しに関するアノテーション方法は次の3つがある.\begin{itemize}\item「週に2回」や「3日に1度」のように,繰り返し規則が一定の期間中に起きた回数として表される場合,回数/期間を{\slfreq}タグに記す.次の例文の「通っている」には{\slt:2016-07$\sim$DCT,freq:2/P1W}とタグ付けする.\vspace{0.5\Cvs}\enumsentence{{[DCT:2017-04-29]}昨年7月から週に2回プールに{\itshape\bfseries通っている}。\\~~~→{\slt:2016-07$\sim$DCT,freq:2/P1W}}\vspace{0.5\Cvs}\item「毎月25日」や「毎週日曜日」のように,繰り返し規則が特定の日付や曜日として表される場合,その日付や曜日を{\slfreq}タグに記す.このとき,BCCWJ-TimeBankのタグ付け基準を拡張し,いかなる数字も入るという意味で{\slYYYY-MM-DD}の各部分に@を入れることを許す.例えば{\slfreq:@@@@-@@-25}は毎月25日を表す.次に例を挙げる.\vspace{0.5\Cvs}\enumsentence{\label{ex:every_25}骨董市は毎月25日に{\itshape\bfseries開催される}。\\~~~→{\slt:PRESENT,freq:@@@@-@@-25}}\enumsentence{\label{ex:every_sunday}毎週日曜はプールに{\itshape\bfseries行く}。\\~~~→{\slt:PRESENT,freq:@@@@-@@-Sun}}\vspace{0.5\Cvs}\item具体的な回数や頻度が文脈から分からない場合,頻度を抽象的に表した4つの値,{\slusually,often,sometimes,rarely}のいずれかを用いる.次の例文の「行く」には{\slt:PRESENT,freq:sometimes}を付与する.\vspace{0.5\Cvs}\enumsentence{\label{ex:often}{[DCT:2017-04-29]}スターバックスに時々{\itshape\bfseries行く}。\\~~~→{\slt:PRESENT,freq:sometimes}}\end{itemize}
\section{アノテーション結果}
\subsection{アノテーション対象}上述のアノテーション基準を用いて,京都大学テキストコーパス\cite{kawahara:KUCorpus:02}中の一部の記事に対してアノテーションを行った.同コーパスは,1995年1月1日から17日までの毎日新聞の記事に各種言語情報を人手で付与したものである.この中から当時話題になっていたトピックを11個選定し,トピックに関連する113記事856文,4,534表現にアノテーションを行った(表\ref{table:annot_topic}).4,534表現のうち,述語は3,072表現,事態性名詞は1,462表現であった.\begin{table}[b]\caption{アノテーションを行った記事数の分布}\label{table:annot_topic}\input{07table02.tex}\end{table}\subsection{アノテーション方法}3名のアノテータにアノテーションを依頼した.本研究では個人の感覚や常識によって解釈が変わるような表現も対象としているため,アノテータの付与したタグを最終的に1つに統合することはしない.代わりに,他のアノテータの解釈を尊重しつつ,明らかなアノテーションミスは修正する2段階のアノテーションを行う.まず対象となる文書群全体を3つに分割し,各アノテータは第1段階でそのうちの2つ,第2段階で残りの1つを担当する(図\ref{fig:rotation}).これにより,最終的に全員が各文書に1度ずつアノテーションを行う.第1段階では各アノテータが独立にアノテーションを行うのに対し,第2段階では他の2人が第1段階で付与したタグを見た上で同じタグもしくは独自のタグを付与する.第2段階では,もし既に付けられたタグに明らかな誤りがある場合は印をつける.印を付けられたタグは全体の2\%であり,本稿における分析では欠損値として扱う.\subsection{時間タグの分布}アノテーションされた全時間タグの分布を表\ref{table:tag_dist}に示す.約25\%の対象表現が時間性をもたないと判定された.日付タグが全体の約25\%,期間を表すタグが約15\%を占める一方で,漠然とした時間タグは約10\%,時間共参照を含むタグは数\%と少ない.新聞を対象にタグ付けを行ったため,表現の多くが時間軸に対応付けられたと考えられる.また,繰り返しを表す{\slfreq}タグは全体の1\%とほとんど表れなかった.本稿で新たに提案したタグは,全体の約25\%を占めた.\begin{figure}[t]\begin{center}\includegraphics{26-1ia7f1.eps}\end{center}\hangcaption{3名のアノテータによるアノテーション方法.データを3分割し,各アノテータは第1段階でそのうちの2つ,第2段階で残りの1つを担当する.第2段階では他の2人が第1段階で付与したタグを見ることができる.}\label{fig:rotation}\end{figure}表\ref{table:tag_dist2}は,アノテーションの第2段階における,述語と事態性名詞それぞれに付与された時間タグの分布を示したものである.述語に付与されたタグの27\%を日付タグが占めるのに対し,事態性名詞では約半分の12\%である.一方,事態性名詞では時間性なしと判定された表現が多く,述語の約2倍の割合に当たる35\%を占める.これは,「全欧安保{\itshape\bfseries協力}機構」「地方{\itshape\bfseries旅行の}自由化」など,事態性名詞が組織や一般的な事象などを表すことも多いためである.\begin{table}[p]\caption{第1,第2段階でアノテーションされた全ての時間タグの分布}\label{table:tag_dist}\input{07table03.tex}\par\vspace{4pt}\smallインデントされた項目は内訳を表す.また,*は本研究で新たに導入したタグを表す.\vspace{1\Cvs}\end{table}\begin{table}[p]\caption{第2段階でアノテーションされた,述語と事態性名詞に対する時間タグの分布}\label{table:tag_dist2}\input{07table04.tex}\end{table}\subsection{アノテータ間一致率}Krippendorff's$\alpha$\cite{krippendorff04,hayes:Krippendorffalpha:07}を用いてアノテータ間一致率を算出した.\cite{reimers:EventTimeCorpus:2016}と同様の2つの基準を用いた.1つはタグの一致度を厳格に測る基準(Strict基準)で,時間タグが完全に一致するか否かを判定する.例えば{\slt:1994-12-31}は{\slt:1994-12-31}と一致するが,{\slt:$\sim$1994-12-31}とは一致しない.もう1つは時間タグの部分一致を認める緩やかな基準(Relax基準)である.アノテータ間の時間タグが1日でも重なっていたら一致とし,全く重なっていなかったら不一致とする.例えば{\slt:1994-12-31}と{\slt:$\sim$1994-12-31}は,両者の範囲が重なっているため一致と判定する.一方,{\slt:$\sim$1994-12-31}と{\slt:1995-01-01}のように,1日も重なっていない場合は不一致と判定する.このとき,{\slt:n/a}と時間共参照については部分一致を認めず,完全に同じでない場合は不一致として扱う.各段階終了時の一致率を表\ref{table:krippendorff}に記す.表の括弧内の2つの数値はそれぞれ述語,事態性名詞のみを対象とした場合の一致率である.最終時とは,第2段階までのアノテーションを終えた,最終的なタグを表す.「{\slt:n/a}を除く」は,各段階で1人でも{\slt:n/a}を付けた表現(第1段階終了時,最終時ともに約1,300個)を除いたものである.第1段階終了時では2名の,最終時では3名のアノテータ間一致率を算出した.\begin{table}[b]\caption{Krippendorff's$\alpha$を用いて算出したアノテータ間一致率}\label{table:krippendorff}\input{07table05.tex}\end{table}第1段階終了時と最終時の一致率を比較すると,後者が大幅に上がっている.これは,前者は独立に付与されたタグであるのに対し,後者は他のアノテータのタグを見て付与された第2段階のタグが含まれていることが影響していると考えられる.また,{\slt:n/a}が付与された表現を除いて評価すると,Strict基準において大幅な一致率向上が見られた.このことから,Relax基準での一致率が低い原因の1つが,時間性判定の難しさにあることが分かる.述語と事態性名詞の一致率を比較すると,両基準ともに事態性名詞の一致率が低い.事態性名詞は述語に比べて時間性のない表現の占める割合が多いため,時間性判定の難しさの影響をより大きく受けていると考えられる.{\slt:n/a}が付与された表現を除いてもStrict基準では事態性名詞の一致率が低く,時間が明確な表現は少ないことが分かる.ただし,これらの値はRelax基準では大幅に上がり,また述語との差もほぼなくなるため,タグは完全には一致しないもののアノテータ間の認識に大きな隔たりはないと考えられる.\cite{reimers:EventTimeCorpus:2016}の一致率と比較すると,特にStrict基準において低いものとなっている.これは時間タグのバリエーションを増やしたことにより個人の解釈の揺れが多く反映されたことを表している.両基準におけるアノテータ間のタグの一致/不一致について,次章でより詳細に述べる.
\section{アノテータ間でのタグの揺れ分析}
本研究で提案した時間タグは,先行研究と比べ時間情報をより正確に表現できるようになった一方でアノテータの解釈に敏感である.本章では,アノテータ間でどのように時間タグが揺れたかを分析する.具体的な時間値にとらわれずに時間タグの特徴を扱うため,時間タグを粒度の面から抽象化する.例えば,{\slt:1994-12-31}や{\slt:DCT}などの日付を表す時間タグは{\slDAY},{\slt:$\sim$1994-12-31}は{\sl$\sim$DAY},{\slt:1994}は{\slYEAR}とする.また,{\slspan}タグや{\slfreq}タグはその値を省略して表記する.例えば{\slt:$\sim$1994-12-31,span:P1D}や{\slt:$\sim$1994-12-31,span:part}は{\sl$\sim$DAY,span}とする.本章では,アノテータが独立にアノテーションを行った,第1段階のアノテーション結果を対象として分析する.表\ref{table:strict-tag-cooccur},表\ref{table:relax-tag-cooccur}は,それぞれStrict基準とRelax基準において,アノテータ間でどのように時間タグが揺れたかをまとめたものである.ここで,アノテーションの一致の判定は元の時間値を用いて行い,集計のみ抽象化を行った値を使用した.表\ref{table:strict-tag-cooccur}を見ると,Strict基準ではアノテータ間で一致したタグの約7割が{\slDAY}と{\sln/a}であり,不一致の多くは{\sln/a}か否かの判定,あるいは{\slDAY}と{\sl$\sim$DAY}などの日付と期間の解釈の違いに起因するものであることが分かる.表\ref{table:relax-tag-cooccur}を見ると,Relax基準における不一致のほとんどは{\sln/a}か否かの判定である.Strict基準で見られた日付と期間の解釈の違いのほとんどはこの基準では一致しており,領域が重なっていたことが分かる.\begin{table}[b]\hangcaption{第1段階のアノテーション結果に対する,『Strict基準』におけるアノテータ間の時間タグの一致/不一致頻度}\label{table:strict-tag-cooccur}\input{07table06.tex}\end{table}このような,アノテータ間の時間性判定と日付・期間の解釈の揺れについて次節以降,具体例を通して分析する.\begin{table}[t]\hangcaption{第1段階のアノテーション結果に対する,『Relax基準』におけるアノテータ間の時間タグの一\mbox{致/}不一致頻度}\label{table:relax-tag-cooccur}\input{07table07.tex}\end{table}\subsection{時間性の判定}Relax基準において,アノテータ間でタグが一致しない最大の原因は,アノテータによって時間性の判断が揺れることにある.{\sln/a}タグと共起しやすいタグは,頻度順に{\sln/a}(76.6\%),{\slDAY}(5.3\%),{\slPRESENT}(5.0\%),{\sl$\sim$DAY,span}(1.7\%)となっており,8割近くの割合でアノテータ間で{\sln/a}が一致し,そうでない場合の約4割は片方のアノテータが{\slDAY}か{\slPRESENT}を付与している.このような表現には状態や役職,組織を表すものが多く,ある程度普遍的なものと見るか,期間としては長くても一時的なものと見るかで判断が分かれている.次の例では,アノテータのタグが{\slt:PRESENT}と{\slt:n/a}で揺れた.\vspace{0.5\Cvs}\enumsentence{{大統領官邸の{\itshape\bfseriesある}中心部}\\~~~→{\slt:PRESENT}vs{\slt:n/a}}\vspace{0.5\Cvs}時間性を認めたアノテータは,記事の執筆時前後では大統領官邸が中心部にあるものの,過去,あるいは未来にはそれが変わる可能性があると解釈したのに対し,時間性を認めなかったアノテータは,変わる可能性はほとんどない,半永続的なことと解釈したと考えられる.\subsection{日付と期間の解釈}\cite{reimers:EventTimeCorpus:2016}も指摘しているとおり,ある事象がある日一日内のことなのか,複数日に跨ることなのかをテキストから判断するのは難しい.また,ある事象の開始時や終了時を明確化することも容易ではない.このような曖昧性は,本アノテーションにおいては{\slDAY},{\sl$\sim$DAY},{\sl$\sim$DAY,span},{\slDAY$\sim$},{\slDAY$\sim$,span},{\slPRESENT}の揺れとして現れる.中でも多いのは{\slDAY}と{\sl$\sim$DAY,span}の間の揺れである.特にDAYがDCTの場合が多く,文書作成日に起きたのか,それまでに起きたのかの解釈が難しいことを表している.これはアノテーション対象が新聞記事であることが要因の1つであると考えられる.次の例では,アノテータのタグが{\slt:DCT}と{\slt:$\sim$DCT,span:part}で揺れた.前者はこの表現を文書作成日のことと解釈したのに対し,後者はより長い期間であると解釈したと考えられる.\vspace{0.5\Cvs}\enumsentence{しかしデュダエフ政権部隊は頑強に{\itshape\bfseries抵抗},双方の死者は数百人に達する見込みだ。\\~~~→{\slt:DCT}vs{\slt:$\sim$DCT,span:part}}\vspace{0.5\Cvs}次の例では,アノテータのタグが{\slt:DCT}と{\slt:$\sim$DCT,span:P1D}で揺れた.前者は新聞の速報性から,その日のことを記事にしたと解釈したのに対し,後者はそうとは限らないと解釈したと考えられる.\vspace{0.5\Cvs}\enumsentence{外相は,「非民営化・再国営化」の基本方針を{\itshape\bfseries打ち出した}。\\~~~→{\slt:DCT}vs{\slt:$\sim$DCT,span:P1D}}\vspace{0.5\Cvs}こうした新聞ならではの書き方やテーマ,性質が,解釈をより難しくしていると考えられる.このように,テキストに明示的に書かれていないことに対する解釈は読者によって少しずつ異なり,しかもいずれも誤りとは言えない.人がどのようにテキスト理解をしているのかをデータとして表現する方法の1つが,本研究のように,複数のアノテータの解釈を反映させたタグを全て記載することだと考える.
\section{時間情報推定}
本研究で付与したタグを推定する簡単なモデルを作成し,そのエラー分析を通して,推定に必要な知識や技術について議論する.\subsection{問題設定}本稿で提案した時間タグは多様な時間情報を扱える一方で,作成したコーパスの分量が大きくないため,機械学習を用いて直接推定するにはタグがスパースだという問題がある.そこでタグを下記の3つの要素へと簡略化し,各々を多クラス分類問題として推定する(図\ref{fig:predict_concept}).\vspace{0.5\Cvs}\begin{description}\item[~~a.]時間性:事象が時間性をもつか否か(2クラス)\item[~~b.]事象の時間的長さ:事象の発生期間(4クラス)\item[~~c.]事象の発生時期:文書作成日を基準とした事象の発生時期(5クラス)\end{description}\vspace{0.5\Cvs}以下に各タスクの詳細を述べる.\begin{figure}[t]\begin{center}\includegraphics{26-1ia7f2.eps}\end{center}\caption{推定を行う3つのタスク}\label{fig:predict_concept}\end{figure}\subsubsection{(a)時間性判定タスク}対象表現が時間性をもつか否か,すなわち対応する時間タグが{\slt:n/a}か否かを判定する.全対象表現4,534個のうち,76\%の3,438個が時間性をもつ.\subsubsection{(b)事象の時間的長さ分類タスク}時間性をもつ事象において,事象の時間的な長さを時間粒度に応じて4つのクラスに大別し,4クラス分類問題として考える.具体的には,期間を1日以内,1ヶ月未満,1年未満,1年以上,の4つに分類する.時間共参照やspan:partが付与された表現など時間の長さが分からないものはデータから取り除き、全4,534対象表現のうち2,752個を用いた.以下に例を示す.\begin{itemize}\item1日以内:~~~{\slt:1994-12-31,t:1994,span:P1D}\item1ヶ月未満:~~~{\slt:1994-12-25$\sim$1994-12-31,t:1994-12,span:P3D}\item1年未満:~~~{\slt:1994-12}\item1年以上:~~~{\slt:1994,t:PAST}\end{itemize}全体に占めるクラスの割合は,1日以内(1,545個,56\%),1ヶ月以内(640個,23\%),1年以内(135個,5\%),1年以上(432個,16\%)である.\subsubsection{(c)事象の発生時期分類タスク}時間性をもつ事象における,文書作成日から事象を代表する日にち(以降,事象代表日と呼ぶ)までの日数を時間の粒度に応じて5つのクラスに大別し,5クラス分類問題として考える.ここで,事象代表日とは事象の開始日と終了日の中間に位置する日を指す.spanタグを用いて表されるような開始日や終了日が不明な事象の場合,より広い範囲を表すtタグの中間に位置する日を用いる.例えば{\slt:1994-12,span:P3D}では,1994年12月の中間の日である1994年12月16日を事象代表日とする.具体的には,3年以上前,3年前から3日前,3日前から3日後,3日後から3年後,3年以上後の5つである(図\ref{fig:predictor3-concept}).時間共参照など事象の発生時期が明確に分からないものはデータから取り除き,全4,534対象表現のうち3,276個を用いた.\begin{figure}[t]\begin{center}\includegraphics{26-1ia7f3.eps}\end{center}\caption{事象の発生時期の5クラス分類(タスクc)}\label{fig:predictor3-concept}\end{figure}以下に文書作成日を1995年1月1日とした場合の例を示す.\begin{itemize}\item3年以上前:~~~{\slt:1990,t:PAST}\item3年前から3日前:~~~{\slt:1994-06-01,t:1994,span:P1D}\item3日前から3日後:~~~{\slt:DCT,t:1994-12-29$\sim$1994-12-31}\item3日後から3年後:~~~{\slt:1995-03,span:part,t:FUTURE-M}\item3年以上後:~~~{\slt:2000,t:FUTURE}\end{itemize}全体に占めるクラスの割合は,3年以上前(284個,9\%),3年前から3日前(879個,27\%),3日前から3日後(1,331個,41\%),3日後から3年後(571個,17\%),3年以上後(211個,6\%)である.\subsection{モデル}事象が時間性をもつかどうかは,対象表現中の語彙情報が大きな手がかりとなると考えられる.例えば「出勤する」は多くの場合時間性をもつのに対し,「装甲」などのサ変名詞は時間性をもたないことが多い.一方で,事象の時間的長さや発生時期は文脈に大きく依存すると考えられる.例えば,対象表現「滞在した」の前に「3日間」という表現があるのか「1年間」という表現があるのかで事象の時間的長さは全く異なる.同様に,対象表現「昇段した」の前の表現が「昨日」なのか「昨年」なのかで発生時期は異なる.そこで本研究では2つのモデルを用意し,時間性判定タスクでは対象表現に着目したモデルを,事象の時間的長さ分類タスクと発生時期分類タスクでは文脈にも着目したモデルを用いる.コーパス中の対象表現が多様でスパースであること,また対象表現自体が重要な手がかりでありword2vecで事前学習した単語分散表現が有効であると考え,これを活かしたニューラルネットワークモデルを構築する.モデルの全体図を図\ref{fig:predictor}に示す.\begin{figure}[t]\begin{center}\includegraphics{26-1ia7f4.eps}\end{center}\hangcaption{対象表現「空爆を」の時間情報を推定する2つのニューラルネットワークモデル.対象表現中の語彙情報のみを用いる(a)時間性判定モデル(左)と,文脈を使用する(b,c)事象の時間的長さ・発生時期推定モデル(右).}\label{fig:predictor}\end{figure}両モデルの違いは対象表現を表すベクトルである.時間性判定のモデルでは,対象表現中の各単語ベクトルを足し合わせたものを用いる.例えば,図\ref{fig:predictor}の例(左)では,対象表現「空爆を」を構成する「空爆」と「を」の2つの単語ベクトルを足し合わせる.文脈を用いるモデルでは,まず文全体に対して双方向GRU(GatedRecurrentUnit)\cite{GRU2014}を適用した後,対象表現中の自立語の単語ベクトルを用いる.図\ref{fig:predictor}の例(右)では,対象表現「空爆を」の中の自立語である「空爆」の単語ベクトルを用いる.両モデルとも,この対象表現ベクトルに,同一文/直近の時間表現情報を表すベクトルと,時間表現との共起スコアベクトルを結合し,パーセプトロンを用いてクラス分類を行う.以下に両ベクトルの詳細を述べる.\begin{itemize}\item同一文・直近の時間表現情報ベクトル:\\文に含まれる時間表現の時間的粒度を表す4次元のバイナリベクトルである.文中の時間表現をルールベースで検出し,検出された時間表現が(日,週,月,年)の各粒度に当てはまるか否かの2クラスでベクトルを構成する.例えば図\ref{fig:predictor}の例の場合,文中には「昨日」という時間表現が存在するため,「日」の粒度に該当する次元のみ1でその他は0の4次元ベクトル(1,0,0,0)となる.「同一文中の時間表現情報ベクトル」は,対象表現の文の時間情報ベクトルであり,「直近の時間表現情報ベクトル」は,対象文以前で時間表現を含む文の時間表現情報ベクトルである.全4,534対象表現のうち,35\%にあたる1,601表現で同一文中に時間表現が検出され,また87\%にあたる3,940表現ではその文以前に時間表現が検出された.\item共起スコアベクトル:\\対象表現と時間表現粒度の共起度を表す4次元の実数値ベクトルである.まず前処理として,前項と同様にテキスト中の時間表現をルールベースで検出し,これを(日,週,月,年)のいずれかの粒度に変換する.その後,対象表現と各粒度との同一文中での共起スコアを算出する.共起スコアには自己相互情報量(PointwiseMutualInformation,PMI)を,データには1984年から2005年までの朝日新聞1,300万文を用いた.\end{itemize}\subsection{実験}各タスクにおけるクラス分類には,コーパス構築時において第2段階でアノテーションされたタグを利用し,5分割交差検定を用いて学習・評価を行った.2クラス分類である時間性判定タスクの評価にはF1値,多クラス分類である事象の時間的長さ分類・事象発生時期分類タスクの評価にはMicro-F1値を用いた.パーセプトロンには,50次元の1つの隠れ層を持つ2層フィードフォワードニューラルネットワークを使用した.損失関数には交差エントロピー誤差関数を,パラメータの最適化にはAdadeltaを使用した.GRUの隠れ層は100次元である.単語の分散表現には98億文のWebテキストにより事前学習された200次元のベクトルを,品詞の分散表現にはランダムに初期化された10次元のベクトルを用いた.これらは誤差逆伝播時に値が更新される.\begin{table}[b]\hangcaption{(a)時間性判定タスク,(b)事象の時間的長さ分類タスク,(c)事象の発生時期分類タスクにおける実験結果}\label{table:result}\input{07table08.tex}\vspace{4pt}\small2クラス分類である時間性判定タスクではF1値を用い,他の2つのタスクではMicro-F1値を用いて評価した.\end{table}各タスクの実験結果を表\ref{table:result}に示す.いずれのタスクも各クラスのデータ量に大きな偏りがあることから,マジョリティのクラスのみを出力した場合のスコアをベースラインとして記載した.時間性判定タスクでは約9割のスコアが得られた一方,事象の時間的長さ分類タスクは約6割,事象発生時期分類タスクは約5割にとどまった.また,各タスクで最もスコアが良かった条件におけるConfusionMatrixを表\ref{table:confusion_matrix}に示す.時間性判定タスクでは,誤りの約7割が時間性のないものをあると判定したものであった.事象の時間的長さ分類タスクでは,「1ヶ月未満」クラスを「1日以内」クラスと誤答することが多かった.事象の発生時期分類タスクでは,「3年前から3日前」クラスと「3日前から3日後」クラスの区別で多くの誤りが存在する.\begin{table}[t]\hangcaption{(a)時間性判定タスク,(b)事象の時間的長さ分類タスク,(c)事象の発生時期分類タスクにおけるConfusionMatrix}\label{table:confusion_matrix}\input{07table09.tex}\end{table}\subsection{議論}\subsubsection{時間性判定タスク}本タスクでは,単語分散表現の情報のみでベースラインを3ポイント以上上回った.これは,対象表現自体が時間性の有無に大きく関係していること示唆している.また,品詞分散表現を利用することでスコアの向上が見られた.「対して」や「総当たり」などのサ変動詞/名詞からなる時間性をもたない対象表現検出に役立ったと考えられる.本モデルでは対象表現のみに着目したが,このアプローチでは次の例の「開発」を正しく解くことができない.\vspace{0.5\Cvs}\enumsentence{国連の支援で,総合{\itshape\bfseries開発の}立案などの成果をあげた(時間性あり)\label{ex:dev1}}\enumsentence{{\itshape\bfseries開発の}ゆがみを知る人たち((時間性なし)\label{ex:dev2}}\enumsentence{経済{\itshape\bfseries開発}区(時間性なし)\label{ex:dev3}}\vspace{0.5\Cvs}例(\ref{ex:dev1})は特定の開発事業であるため時間性をもつが,例(\ref{ex:dev2})や例(\ref{ex:dev3})は不特定あるいは一般的な事象であるため時間性をもたない.このような例に対処するためには,対象表現の前後の表現や,対応する述語や項の性質などの情報を考慮する必要がある.\subsubsection{事象の時間的長さ分類タスク}本タスクでは共起スコアベクトルの導入によりスコアが向上した.例えば次の例の「宿泊」は,単語と品詞情報のみのモデルでは誤答したが,「宿泊」と日にち粒度の時間表現の共起スコアが高いという情報を与えることで正答した.\vspace{0.5\Cvs}\enumsentence{ホテルの{\itshape\bfseries宿泊}者が目撃した}\vspace{0.5\Cvs}一方,表\ref{table:confusion_matrix}からも分かるように,多くの例で誤って「1日以内」クラスを出力した.次の例は全て「1日以内」クラスを出力し誤答したものである.\vspace{0.5\Cvs}\enumsentence{兵士が首都から南に{\itshape\bfseries脱出している}\label{ex:wid1}}\enumsentence{見逃せないのは労組の{\itshape\bfseries圧力だ}\label{ex:wid2}}\enumsentence{出稼ぎ世帯の大半は、テレビやバイクを{\itshape\bfseries買う}\label{ex:wid3}}\enumsentence{啓蒙に力を{\itshape\bfseries入れている}\label{ex:wid4}}\vspace{0.5\Cvs}例(\ref{ex:wid1}),例(\ref{ex:wid2}),例(\ref{ex:wid3})はいずれも,対象表現自体は1日以内の事象とも捉えることができるものであるが,この文脈ではそうではない.本モデルは文脈を考慮するものであるが,より大規模なデータで学習する必要があると考えられる.例(\ref{ex:wid4})では,対象表現は軽動詞であり,「啓蒙」が時間を考える上での手がかりである.このような単語の含意する時間情報知識を大規模に獲得し,モデルに取り入れる必要がある.\subsubsection{事象の発生時期分類タスク}本タスクでは,時間表現情報ベクトルがスコア向上に貢献している.これは例えば「四日発生した雪崩」のように,時間表現が重要な手がかりを与える場合が多く存在するためだと考えられる.本モデルでは「昨日」や「1995年」などの明示的な時間表現のみを対象としたが,テキスト中には「ベトナム戦争」や「前回のワールドカップ」など暗黙的に時間情報を表す表現も多く存在し,誤答の原因となっている.Wikipediaなどの外部知識を用いて,より広範な時間情報を考慮する必要がある.本モデルでは時間表現情報を4つの粒度で表したが,テキスト中には「昼過ぎ」などより細かい粒度の情報も多く存在する.これらの情報を利用することでスコア向上が期待される.また,本モデルでは時間の粒度のみに着目したが,時間表現が日付を表すのか期間を表すのかで大きく意味が変わる.例えば「3日」という時間表現を「1月3日」のことと解釈するのか「3日間」のことと解釈するのかは,事象の時間的長さ・発生時期の推定タスクにおいて非常に重要であり,さらなるスコア向上のためには高度な時間表現解析器の導入が必要である.
\section{本アノテーションの応用}
本アノテーションには様々な応用先が考えられる.例えば,ニュース記事からのタイムラインやサマリーの生成である.ニュースには事件や出来事に関する新しい情報は記載されるが,それを取り巻く出来事やこれまでの経緯は記載されないことも多いため,出来事の全体像を知るためには複数の記事を読み情報を統合する必要がある.またニュースには,その時の情報に基づいた予想や解釈も記載されるため,異なる時期に書かれた別の記事と比較することは情報の信頼性を担保する上で有益である.本稿で述べたアノテーション基準やデータ,時間情報推定モデルは,このような記載時期の異なる情報の統合や比較に利用することができる.図\ref{fig:timeline}は,1995年1月に行われたサッカー大会に関する事象を時間軸上に配置したものである.文章作成日を区別して事象を配置するため2つの時間軸を導入しており,横軸は文章作成日,縦軸は事象の起きた日を表す.例えば右上の「デンマークが優勝した」は,1月15日に記述された事象で,これに対応する時間値は1月13日({\slt:1995-01-13})である.本研究で作成したデータは,このようにアプリケーションを構築するためのモデルの学習や評価に用いることができる.本研究でアノテーションを行った京都大学テキストコーパスには,既に述語項構造や共参照関係のアノテーションがなされているため,「ラモス」など特定のエンティティに着目した学習や評価にも用いることが可能である.\begin{figure}[b]\begin{center}\includegraphics{26-1ia7f5.eps}\end{center}\hangcaption{1995年1月に行われた、サッカーのインタコンチネンタル選手権に関する事象の時間軸への配置.横軸は文章作成日,縦軸は事象の起きた日を表す.例えば右上の「デンマークが優勝した」は文章作成日が1月15日で,これに対応する時間値は1月13日である.}\label{fig:timeline}\end{figure}また,本アノテーション基準や時間情報推定モデルを利用することにより,事象に関する時間情報知識を大量のテキストから収集することが可能となる.出来事や状態の発生日や継続日数,頻度などの情報は,情報検索,要約,対話,文生成など多くのアプリケーションで利用することができる.本稿で述べたアノテーション基準は,これらの時間情報を詳細に記述する手段として用いることができ,また時間情報推定モデルは事象に関する時間情報をテキストから自動獲得する技術に応用することが可能である.
\section{おわりに}
本稿では,テキスト中の時間情報を網羅的にアノテーションするための新しいタグ付け基準について述べた.従来研究よりも広範な表現をアノテーション対象とし,また表現力豊かな時間タグを導入した.京都大学テキストコーパス中の113文書に対してアノテーションを行った結果,76\%の表現が時間性をもつと判断され,そのうちの35\%(全体の26\%)に本稿で新たに提案された時間タグが付与された.本研究で付与した時間情報を,時間性・事象の時間的長さ・事象の発生時期の3つの観点から推定するモデルを構築した.各精度はF値において90\%,61\%,49\%であった.本研究では,新聞記事を対象にアノテーションを行ったが,新聞特有の書き方や性質がアノテーションの揺れの原因の1つになっていると考えられる.今後は,Webなど新聞以外のコーパスでのアノテーションを試みたい.また,本研究では時間表現に対するアノテーションは行っていない.これは,日本語時間表現に対するアノテーションにおけるアノテータ間一致度は高いことが\cite{konishi:13}により報告されており,時間表現に対する解釈が揺れて事象に対するアノテーションに影響を及ぼすことは少ないと考えたからである.しかし,時間情報解析器を構築する上では有益な情報になると考えられるため,今後は時間表現にもアノテーションを行い,より充実した時間情報コーパスにしていきたい.\acknowledgment本研究の一部はJSTCRESTJPMJCR1301,AIPチャレンジの助成によるものです.また本論文の内容の一部は,11theditionoftheLanguageResourcesandEvaluationConferenceで発表したものです\cite{Sakaguchi2018}.アノテーションにご協力いただいた石川真奈見氏,堀内マリ香氏,二階堂奈月氏に感謝いたします.また,時間情報推定モデルに関して有益なコメントをくださった柴田知秀氏に感謝いたします.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Asahara,Kato,Konishi,Imada,\BBA\Maekawa}{Asaharaet~al.}{2014}]{BCCWJ-TimeBank:14}Asahara,M.,Kato,S.,Konishi,H.,Imada,M.,\BBA\Maekawa,K.\BBOP2014\BBCP.\newblock\BBOQBCCWJ-TimeBank:TemporalandEventInformationAnnotationonJapaneseText.\BBCQ\\newblock{\BemInternationalJournalofComputationalLinguistics\&ChineseLanguageProcessing},{\Bbf19}(3),\mbox{\BPGS\1--24}.\bibitem[\protect\BCAY{Asakura,Hangyo,\BBA\Komachi}{Asakuraet~al.}{2016}]{asakura-hangyo-komachi:2016:WNUT}Asakura,Y.,Hangyo,M.,\BBA\Komachi,M.\BBOP2016\BBCP.\newblock\BBOQDisasterAnalysisusingUser-GeneratedWeatherReport.\BBCQ\\newblockIn{\BemProceedingsofthe2ndWorkshoponNoisyUser-generatedText(WNUT)},\mbox{\BPGS\24--32},Osaka,Japan.TheCOLING2016OrganizingCommittee.\bibitem[\protect\BCAY{Cassidy,McDowell,Chambers,\BBA\Bethard}{Cassidyet~al.}{2014}]{cassidy:TimeBankDenseCorpus:2014}Cassidy,T.,McDowell,B.,Chambers,N.,\BBA\Bethard,S.\BBOP2014\BBCP.\newblock\BBOQAnAnnotationFrameworkforDenseEventOrdering.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\501--506},Baltimore,Maryland.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Chung,Gulcehre,Cho,\BBA\Bengio}{Chunget~al.}{2014}]{GRU2014}Chung,J.,Gulcehre,C.,Cho,K.,\BBA\Bengio,Y.\BBOP2014\BBCP.\newblock{\BemEmpiricalEvaluationofGatedRecurrentNeuralNetworksonSequenceModeling}.\bibitem[\protect\BCAY{Hayes\BBA\Krippendorff}{Hayes\BBA\Krippendorff}{2007}]{hayes:Krippendorffalpha:07}Hayes,A.~F.\BBACOMMA\\BBA\Krippendorff,K.\BBOP2007\BBCP.\newblock\BBOQAnsweringtheCallforaStandardReliabilityMeasureforCodingData.\BBCQ\\newblock{\BemCommunicationMethodsandMeasures},{\Bbf1}(1),\mbox{\BPGS\77--89}.\bibitem[\protect\BCAY{Huang,Cases,Jurafsky,Condoravdi,\BBA\Riloff}{Huanget~al.}{2016}]{huang:EventStatusCorpus:16}Huang,R.,Cases,I.,Jurafsky,D.,Condoravdi,C.,\BBA\Riloff,E.\BBOP2016\BBCP.\newblock\BBOQDistinguishingPast,On-going,andFutureEvents:TheEventStatusCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\44--54}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kawahara,Kurohashi,\BBA\Hasida}{Kawaharaet~al.}{2002}]{kawahara:KUCorpus:02}Kawahara,D.,Kurohashi,S.,\BBA\Hasida,K.\BBOP2002\BBCP.\newblock\BBOQConstructionofaJapaneseRelevance-taggedCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonLanguageResourcesandEvaluation(LREC-2002)},LasPalmas,CanaryIslands---Spain.EuropeanLanguageResourcesAssociation(ELRA).\bibitem[\protect\BCAY{Kolomiyets,Bethard,\BBA\Moens}{Kolomiyetset~al.}{2012}]{kolomiyets12}Kolomiyets,O.,Bethard,S.,\BBA\Moens,M.-F.\BBOP2012\BBCP.\newblock\BBOQExtractingNarrativeTimelinesasTemporalDependencyStructures.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics,Jeju,RepublicofKorea,8-14July2012},\mbox{\BPGS\88--97}.ACL.\bibitem[\protect\BCAY{小西\JBA浅原\JBA前川}{小西\Jetal}{2013}]{konishi:13}小西光\JBA浅原正幸\JBA前川喜久雄\BBOP2013\BBCP.\newblock『現代日本語書き言葉均衡コーパス』に対する時間情報アノテーション.\\newblock\Jem{自然言語処理},{\Bbf20}(2),\mbox{\BPGS\201--221}.\bibitem[\protect\BCAY{Krippendorff}{Krippendorff}{2004}]{krippendorff04}Krippendorff,K.\BBOP2004\BBCP.\newblock{\BemContentAnalysis:AnIntroductiontoItsMethodology(secondedition)}.\newblockSagePublications.\bibitem[\protect\BCAY{Minard,Speranza,Agirre,Aldabe,vanErp,Magnini,Rigau,\BBA\Urizar}{Minardet~al.}{2015}]{SemEval15-4}Minard,A.-L.,Speranza,M.,Agirre,E.,Aldabe,I.,vanErp,M.,Magnini,B.,Rigau,G.,\BBA\Urizar,R.\BBOP2015\BBCP.\newblock\BBOQSemEval-2015Task4:TimeLine:Cross-DocumentEventOrdering.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalWorkshoponSemanticEvaluation(SemEval2015)},\mbox{\BPGS\778--786},Denver,Colorado.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Pustejovsky,Hanks,Saur{\'i},See,Gaizauskas,Setzer,Radev,Beth~Sundheim,Ferro,\BBA\Lazo}{Pustejovskyet~al.}{2003}]{pustejovsky:TimeBankCorpus:03}Pustejovsky,J.,Hanks,P.,Saur{\'i},R.,See,A.,Gaizauskas,R.,Setzer,A.,Radev,D.,Beth~Sundheim,D.~D.,Ferro,L.,\BBA\Lazo,M.\BBOP2003\BBCP.\newblock\BBOQTheTIMEBANKCorpus.\BBCQ\\newblockIn{\BemProceedingCorpusLinguistics2003},\mbox{\BPGS\647--656}.\bibitem[\protect\BCAY{Reimers,Dehghani,\BBA\Gurevych}{Reimerset~al.}{2016}]{reimers:EventTimeCorpus:2016}Reimers,N.,Dehghani,N.,\BBA\Gurevych,I.\BBOP2016\BBCP.\newblock\BBOQTemporalAnchoringofEventsfortheTimeBankCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\2195--2204},Berlin,Germany.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Sakaguchi,Kawahara,\BBA\Kurohashi}{Sakaguchiet~al.}{2018}]{Sakaguchi2018}Sakaguchi,T.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2018\BBCP.\newblock\BBOQComprehensiveAnnotationofVariousTypesofTemporalInformationontheTimeAxis.\BBCQ\\newblockIn{\BemProceedingsofthe11thEditionofitsLanguageResourcesandEvaluationConference},\mbox{\BPGS\332--338},Miyazaki,Japan.\bibitem[\protect\BCAY{Sauri,Littman,Gaizauskas,Setzer,\BBA\Pustejovsky}{Sauriet~al.}{2006}]{Sauri06timemlannotation}Sauri,R.,Littman,J.,Gaizauskas,R.,Setzer,A.,\BBA\Pustejovsky,J.\BBOP2006\BBCP.\newblock\BBOQTimeMLAnnotationGuidelines,Version1.2.1.\BBCQ.\bibitem[\protect\BCAY{UzZaman,Llorens,Derczynski,Allen,Verhagen,\BBA\Pustejovsky}{UzZamanet~al.}{2013}]{TempEval-3}UzZaman,N.,Llorens,H.,Derczynski,L.,Allen,J.,Verhagen,M.,\BBA\Pustejovsky,J.\BBOP2013\BBCP.\newblock\BBOQSemEval-2013Task1:TempEval-3:EvaluatingTimeExpressions,Events,andTemporalRelations.\BBCQ\\newblockIn{\Bem2ndJointConferenceonLexicalandComputationalSemantics(*SEM),Volume2:ProceedingsoftheSeventhInternationalWorkshoponSemanticEvaluation\mbox{(SemEval2013)}},\mbox{\BPGS\1--9}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Verhagen,Gaizauskas,Schilder,Hepple,Katz,\BBA\Pustejovsky}{Verhagenet~al.}{2007}]{TempEval-1}Verhagen,M.,Gaizauskas,R.,Schilder,F.,Hepple,M.,Katz,G.,\BBA\Pustejovsky,J.\BBOP2007\BBCP.\newblock\BBOQSemEval-2007Task15:TempEvalTemporalRelationIdentification.\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalWorkshoponSemanticEvaluations(SemEval-2007)},\mbox{\BPGS\75--80}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Verhagen,Sauri,Caselli,\BBA\Pustejovsky}{Verhagenet~al.}{2010}]{TempEval-2}Verhagen,M.,Sauri,R.,Caselli,T.,\BBA\Pustejovsky,J.\BBOP2010\BBCP.\newblock\BBOQSemEval-2010Task13:TempEval-2.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\57--62}.AssociationforComputationalLinguistics.\end{thebibliography}\begin{biography}\bioauthor{坂口智洋}{2013年東京大学理学部生物情報科学科卒業.2015年京都大学大学院情報学研究科修士課程修了.同大学院博士課程在学中.修士(情報学).自然言語処理の研究に従事.}\bioauthor{河原大輔}{1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.2002年同大学院博士課程単位取得認定退学.東京大学大学院情報理工学系研究科学術研究支援員,独立行政法人情報通信研究機構研究員,同主任研究員を経て,2010年より京都大学大学院情報学研究科准教授.自然言語処理,知識処理の研究に従事.博士(情報学).情報処理学会,言語処理学会,人工知能学会,電子情報通信学会,ACL,各会員.}\bioauthor{黒橋禎夫}{1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.言語処理学会10周年記念論文賞,同20周年記念論文賞,第8回船井情報科学振興賞,2009IBMFacultyAward等を受賞.2014年より日本学術会議連携会員.}\end{biography}\biodate\end{document}
| |
V05N03-05 | \section{はじめに}
\label{sec:intro}コーパス,辞書,シソーラスなどの機械可読な言語データの整備が進んだことから,自然言語処理における様々な問題の解決に何らかの統計情報を利用した研究が盛んに行われている.特に構文解析の分野においては,構文的な統計情報だけでなく,単語の出現頻度や単語の共起関係といった語彙的な統計情報を利用して解析精度を向上させた研究例が数多く報告されている\cite{schabes:92:a,magerman:95:a,hogenout:96:a,li:96:a,charniak:97:a,collins:97:a}.ここで問題となるのは,このような語彙的な統計情報を構文的な統計情報とどのように組み合わせるかということである.このとき,我々は以下の2つの点が重要であると考える.\begin{itemize}\item解析結果の候補に与えるスコアが,構文的な統計情報のみを反映したスコアと語彙的な統計情報のみを反映したスコアから構成的に計算できることこのことによる利点を以下に挙げる.\begin{itemize}\item個々の統計情報を個別に学習できる構文的な統計情報を学習する際には,学習用言語資源として比較的作成コストの高い構文構造が付加されたコーパスが必要となる\footnote{Inside-Outsideアルゴリズム\cite{lari:90:a}に代表されるようなEMアルゴリズムを用いて,構文構造が付加されていないコーパスから構文的な統計情報を学習する研究も行われている.しかしながら,このような教師なしの学習は一般に精度が悪く,現時点では構文構造が付加されたコーパスを利用した方が品質の良い統計情報を学習できると考えられる.}.しかしながら,推定パラメタの数はそれほど多くはないので,比較的少ないデータ量で学習することができる.これに対して,語彙的な統計情報は,単語の共起に関する統計情報を学習しなければならないために大量の学習用データを必要とするが,構文構造付きコーパスに比べて作成コストの低い品詞付きコーパスを用いても学習することが十分可能である.このように,統計情報の種類によって学習に要する言語資源の質・量は大きく異なる.そこで,構文的な統計情報と語彙的な統計情報を異なる言語資源を用いて個別に学習できるように,それぞれの統計情報の独立性を保持しておくことが望ましい.\item曖昧性解消時における個々の統計情報の働きを容易に理解することができる例えば,曖昧性解消に失敗した場合には,構文的な統計情報と語彙的な統計情報を独立に取り扱うことにより,どちらの統計情報が不適切であるかを容易に判断することができる.\end{itemize}\item個々の統計情報を反映したスコアが確率的意味を持っていること構文的な統計情報を反映したスコアと語彙的な統計情報を反映したスコアを組み合わせて全体のスコアとする場合,両者のスコアの和を計算すればいいのか,積を計算すればいいのか,またどちらか片方に重みを置かなければならないのかなど,その最適な組み合わせ方は自明ではない.このとき,個々のスコアが確率的意味を持つように学習することにより,確率の積としてそれらを自然に組み合わせることができる.\end{itemize}ところが,語彙的な統計情報を利用して構文解析の精度を向上させる過去の研究の多くは以上の条件を満たしていない.例えば田辺らは,確率文脈自由文法(ProbabilisticContextFreeGrammar,以下PCFG)における書き換え規則の非終端記号に,その非終端記号が支配する句の主辞となる単語を付加すること(以下,これをPCFGの語彙化と呼ぶ)によって語彙的従属関係をPCFGの確率モデルに反映させる方法を提案している~\cite{tanabe:95:a}.一方,英語を対象にPCFGを語彙化した研究としてはHogenoutら~\cite{hogenout:96:a},Charniak~\cite{charniak:97:a},Collins~\cite{collins:97:a}によるものがある.しかしながら,PCFGの語彙化によって構文的な統計情報と語彙的な統計情報を組み合わせる方法は,非終端記号に単語を付加することによって規則数が組み合わせ的に増大し,推定するパラメタ数も非常に多くなるといった問題点がある.また,構文的な統計情報と語彙的な統計情報を同時に学習するモデルとなっているが,先ほど述べたように両者は独立に学習できることが望ましい.PCFGをベースとしないSPATTERパーザ~\cite{magerman:95:a}やSLTAG~\cite{schabes:92:a,resnik:92:b}にも同様の問題が存在する.これらの研究は語彙的な統計情報を利用して解析精度の向上を図ってはいるが,構文的な統計情報と独立に学習する枠組にはなっていない.構文的な統計情報と語彙的な統計情報を独立に学習する枠組としてはLiによるものが挙げられる~\cite{li:96:a,li:96:b}.Liは,解析結果の候補$I$に対して,構文的な統計情報を反映させた確率モデル$P_{syn}(I)$と単語の共起関係を反映させた確率モデル$P_{lex}(I)$を別々に学習する方法を提案している.そして,語彙的な制約は構文的な制約に優先するといった心理言語学原理に基づき,まず$P_{lex}(I)$を$I$のスコアとして用い,一位とそれ以外の候補のスコアの差が十分に大きくなかった場合に限り$P_{syn}(I)$をスコアとして用いている.すなわち,構文的な統計情報と語彙的な統計情報をそれぞれ独立に学習してはいるが,これらを同時に利用して曖昧性解消を行っているわけではない.また,この2つのスコアの持つ確率的意味が不明確であり\footnote{$P_{syn}(I)$,$P_{lex}(I)$は確率と呼ばれてはいるが,どのような事象に対する確率なのかは不明である.},その最適な組み合わせ方は自明ではない.本研究では,構文的な統計情報と語彙的な統計情報を組み合わせる一方法として,統合的確率言語モデルを提案する~\cite{inui:97:b,inui:97:e,sirai:96:a}.この統合的確率言語モデルの特徴は,単語の出現頻度,および単語の共起関係といった2つの語彙的な統計情報を局所化し,構文的な統計情報と独立に取り扱う点にある.また,構文的な統計情報を構文構造の生成確率として,語彙的な統計情報を単語列の生成確率としてそれぞれ学習し,これらの積を解析結果の候補に対するスコアとすることにより,曖昧性解消に両者を同時に利用することができる.この統合的確率言語モデルの詳細については\ref{sec:model}節で述べる.\ref{sec:exp-stat}節ではこの統合的確率言語モデルの学習,およびそれを用いた日本語文の文節の係り受け解析実験について述べる.最後に\ref{sec:conclusion}節で結論と今後の課題について述べる.
\section{統合的確率言語モデル}
\label{sec:model}まず,本論文で一貫して用いる記号について説明する.\begin{itemize}\item入力文字列$A=a_1,\cdots,a_m$\item$A$を生成する単語列$W=w_1,\cdots,w_n$\item$W$を生成する品詞列$L=l_1,\cdots,l_n$\item$L$を生成する構文構造$R$\end{itemize}本研究では,形態素解析と構文解析を同時に取り扱うことを仮定する.すなわち,入力文字列$A$が与えられたときに,その正しい単語列$W$,正しい品詞列$L$,正しい構文構造$R$を求めることを目的とする.例えば,「彼女がパイを食べた」という入力文に対する解析結果の候補の例を図\ref{fig:examsent}に示す.\begin{figure}[htbp]\begin{center}\leavevmode\atari(91,37)\caption{例文``彼女がパイを食べた''とその解析結果}\label{fig:examsent}\end{center}\end{figure}各解析結果の候補に対してその生成確率$P(R,L,W,A)$を計算し,これが最大の解析結果を選択することによって曖昧性解消を行う.さらに,確率モデル$P(R,L,W,A)$を以下のように分解する.\begin{equation}\label{eq:model-org}P(R,L,W,A)=P(R)\cdotP(L|R)\cdotP(W|L,R)\cdotP(A|W,L,R)\end{equation}ここで,構文構造$R$は最終的に品詞列$L$を生成するものと仮定すると,$P(L|R)=1$となる(図\ref{fig:examsent}参照).また,単語列$W$が決まれば入力文字列$A$は一意に決まるので,$P(A|W)=1$となる.したがって,式(\ref{eq:model-org})は以下のように簡略化できる.\begin{equation}\label{eq:model}P(R,L,W,A)=P(R)\cdotP(W|R)\end{equation}本研究では,式(\ref{eq:model})に示した通り,解析結果の生成確率を以下の2つの確率モデルの積として計算する.\begin{enumerate}\item構文モデル$P(R)$構文構造$R$の生成確率である.この確率モデルには構文的な統計情報を反映させる.\item語彙モデル$P(W|R)$構文構造$R$が与えられたときに,それから単語列$W$を生成する確率である.この語彙モデルには語彙的な統計情報を反映させる.\end{enumerate}\subsection{構文モデル$P(R)$}\label{sec:syn-model}構文モデルとしては,構文的な統計情報を反映し,かつ構文構造$R$の生成確率を高い精度で推定するものであれば,どのような確率モデルを利用してもよい.構文モデルに利用できる確率モデルとしては,PCFGや確率一般化LR法(ProbabilisticGeneralizedLRMethod,以下PGLR)などが挙げられる.我々は,PGLRを構文モデルの有力な候補として考えている.PGLRとは,構文解析手法のひとつである一般化LR法を拡張したものである.PGLRは,LR表に記述された各状態遷移の遷移確率を推定し,その遷移確率の積によって1つの状態遷移列,すなわちそれに対応する構文構造の生成確率を与えるモデルである\footnote{一般化LR法に確率を組み込む試みには様々なものがあるが~\cite{wright:90:a,ng:91:a,briscoe:93:a},本研究におけるPGLRとはInuiらによるモデル~\cite{inui:97:d,virach:97:c}を指す.}.このPGLRはPCFGに比べて,次のような特長を持つ~\cite{inui:97:d}.\begin{itemize}\item文脈依存性を取り扱うことができる.\item隣接する品詞間の共起関係を取り扱うことができる.\item距離に関する優先度を取り扱うことができる.\end{itemize}ここで,隣接する品詞間の共起関係とは,品詞bi-gramのような品詞列の出現に関する統計情報であり,形態素解析の曖昧性解消に有効であると考えられる.また,距離に関する優先度とは,単語はなるべく近い単語に係りやすいといった,係り受け関係にある単語間の距離に関する統計情報である.\subsection{語彙モデル$P(W|R)$}\label{sec:lex-model}語彙モデルは,品詞列$L$を末端とする構文構造$R$が与えられたときに,それから単語列$W$を生成する確率である.この語彙モデルは,式(\ref{eq:lex-model-org})のような各単語$w_i$の生成確率の積として計算することができる.\begin{equation}\label{eq:lex-model-org}P(W|R)=\prod_{w_i}P(w_i|R,w_1,\cdots,w_{i-1})\end{equation}例えば,図\ref{fig:examsent}の例において,単語を文の後ろから順番に生成していくと仮定すると,語彙モデル$P(W|R)$は以下のような単語の生成確率の積として計算できる.\begin{eqnarray}P(W|R)&=&P(彼女,が,パイ,を,食べ,た|R)\\\label{eq:der1-ta}&=&P(た|R)\cdot\\\label{eq:der1-tabe}&&P(食べ|R,た)\cdot\\\label{eq:der1-o}&&P(を|R,食べ,た)\cdot\\\label{eq:der1-pai}&&P(パイ|R,を,食べ,た)\cdot\\\label{eq:der1-ga}&&P(が|R,パイ,を,食べ,た)\cdot\\\label{eq:der1-kanojo}&&P(彼女|R,が,パイ,を,食べ,た)\end{eqnarray}\subsubsection{単語生成文脈}\label{eq:lexical-context}式(\ref{eq:lex-model-org})の各項(図\ref{fig:examsent}の例では式(\ref{eq:der1-ta})〜(\ref{eq:der1-kanojo}))のパラメタ空間は非常に大きく,これを直接学習することは一般に不可能である.ところが,各単語$w_i$の生成に強く影響するのは各項の確率の前件$R,w_1,\cdots,w_{i-1}$全てではなく,その一部のみであると考えられる.例えば,図\ref{fig:examsent}の例文において,``パイ''は動詞``食べ''のヲ格の格要素となっている.このとき,``パイ''という単語を生成する際には,式(\ref{eq:der1-pai})の前件``$R,を,食べ,た$''(図\ref{fig:lc-pai}の斜線部)のうち,品詞$N$と単語``を'',``食べ''(図\ref{fig:lc-pai}の丸で囲まれた部分)によって十分近似できると期待できる(式(\ref{eq:lc-pai1})).\begin{equation}\label{eq:lc-pai1}P(パイ|R,を,食べ,た)\simeqP(パイ|N[\slot{食べ}{を}])\end{equation}\begin{figure}[htbp]\begin{center}\leavevmode\atari(78,29)\caption{``パイ''を生成するときの単語生成文脈}\label{fig:lc-pai}\end{center}\end{figure}\noindent式(\ref{eq:lc-pai1})において,$N[\slot{食べ}{を}]$は,``食べ''という動詞のヲ格の格要素となっている名詞を表わしている.すなわち,$P(パイ|N[\slot{食べ}{を}])$は,``食べ''という動詞のヲ格の格要素となっている名詞から``パイ''という単語が生成される確率を表わしている.したがって,式(\ref{eq:lc-pai1})には,``パイ''という単語そのものがどれくらい出現しやすいかといった単語の出現頻度と,``パイ''と``食べ''がどの程度共起しやすいかといった単語の共起関係が反映されている.ここで,単語生成文脈$c_i$を以下のように定義する.\begin{quote}単語$w_i$の単語生成文脈$c_i$とは,$w_i$の生成確率の前件$R,w_1,\cdots,w_{i-1}$から$w_i$の生成に強く影響する部分のみを取り出したものである.\end{quote}先ほどの例においては,単語``パイ''の単語生成文脈は``$\slot{食べ}{を}$''である.そして,各単語$w_i$の生成確率の前件``$R,w_1,\cdots,w_{i-1}$''を,その単語の品詞$l_i$と単語生成文脈$c_i$に縮退することにより,語彙モデル$P(W|R)$を以下のように近似する.\begin{eqnarray}\nonumberP(W|R)&=&\prod_{w_i}P(w_i|R,w_1,\cdots,w_{i-1})\\\label{eq:lex-model}&\simeq&\prod_{w_i}P(w_i|l_i[c_i])\end{eqnarray}\subsubsection{単語生成文脈決定規則}\label{sec:lc-rule}単語生成文脈を導入する際に問題となるのは,どのような単語に対してどのような単語生成文脈を選べばよいのかということである.我々は,これを人手で作成した規則によって記述する.以下,単語$w_i$の単語生成文脈$c_i$を決定する規則を単語生成文脈決定規則と呼ぶ.単語生成文脈決定規則の例を以下に挙げる.\begin{itemize}\item単語の共起関係を全く考慮しない場合単語$w_i$について,周囲の単語との従属関係を考慮しない場合には,その単語の生成確率はその単語の品詞$l_i$のみに依存するとみなす.例えば,図\ref{fig:examsent}の例において,助動詞``た''と動詞``食べ''を生成する際に他の単語との語彙的従属関係を考えない場合には,それぞれの生成確率(\ref{eq:der1-ta}),(\ref{eq:der1-tabe})は以下のように近似すればよい.\begin{eqnarray}\label{eq:der2-ta}P(た|R)&\simeq&P(た|AUX)\\\label{eq:der2-tabe}P(食べ|R,た)&\simeq&P(食べ|V)\end{eqnarray}これに対応した単語生成文脈決定規則を以下に示す.この規則は単語生成文脈を決定する際のデフォルト規則でもある.\bigskip\begin{lcdef}{lc:default}単語$w_i$を生成する際に他の単語との従属関係を考慮しない場合には,単語$w_i$の単語生成文脈$c_i$を空とする.\end{lcdef}\bigskip\item格要素となる名詞が助詞を介して動詞に係る際の従属関係を考慮する場合前述のように,格要素となる名詞が助詞を介して動詞に係る際には,動詞・助詞の組と名詞との間には語彙的従属関係が存在する.このような語彙的従属関係を確率モデルに反映させるために\lcrule{lc:filler}を定義する.\bigskip\begin{lcdef}{lc:filler}単語$w_i$の品詞$l_i$が$N$(名詞)であり,かつ助詞$p$を介して動詞$v$に係っているとき,単語$w_i$の単語生成文脈$c_i$を$\slot{v}{p}$とする.このとき,$w_i$の生成確率$P(w_i|N[\slot{v}{p}])$は動詞$v$の格$p$の格要素となる名詞$N$から単語$w_i$が生成される確率を表わす.\end{lcdef}\bigskip例えば,図\ref{fig:examsent}の例において,名詞``パイ''は動詞``食べ''のヲ格の格要素であり,名詞``彼女''は動詞``食べ''のガ格の格要素となっている.したがって,これらの単語を生成する際にはこの規則が適用され,それぞれの生成確率(\ref{eq:der1-pai}),(\ref{eq:der1-kanojo})は以下のように近似される.\begin{eqnarray}\label{eq:der2-pai}P(パイ|R,を,食べ,た)&\simeq&P(パイ|N[\slot{食べ}{を}])\\\label{eq:der2-kanojo}P(彼女|R,が,パイ,を,食べ,た)&\simeq&P(彼女|N[\slot{食べ}{が}])\end{eqnarray}\item助詞とその係り先用言の従属関係,格間の従属関係を考慮する場合図\ref{fig:examsent}の例文においては,2つの助詞``が''と``を''が動詞``食べ''に係っている.このとき,これらの生成確率(\ref{eq:der1-o}),(\ref{eq:der1-ga})を以下のように近似しても,助詞とその係り先用言との間の語彙的従属関係,および同じ用言に係る助詞同士の従属関係(以下,これを格間の従属関係と呼ぶ)を語彙モデルに反映させることができる.\begin{eqnarray}\label{eq:der2-o}P(を|R,食べ,た)&\simeq&P(を|P[\head{食べ}{2}{\phi_1,\phi_2}])\\\label{eq:der2-ga}P(が|R,パイ,を,食べ,た)&\simeq&P(が|P[\head{食べ}{2}{\phi_1,を}])\end{eqnarray}式(\ref{eq:der2-o})は,助詞$P$が2つの助詞の係り先となっている動詞``食べ''に係っているときに,品詞$P$から単語``を''が生成される確率を表わしている.一方式(\ref{eq:der2-ga})は,助詞$P$が2つの助詞の係り先となりかつそのうちの1つは``を''である動詞``食べ''に係っているときに,品詞$P$から単語``が''が生成される確率を表わしている.助詞とその係り先用言の従属関係,および格間の従属関係を語彙モデルに導入するために,\lcrule{lc:marker}を以下のように定義する.\bigskip\begin{lcdef}{lc:marker}単語$w_i$の品詞$l_i$が$P$(助詞)でありかつ用言$h$に係っているとき,単語$w_i$の単語生成文脈$c_i$を$\head{h}{n}{\phi_1,\cdots,\phi_j,p_{j+1},\cdots,p_n}$とする.このとき,$w_i$の生成確率$P(w_i|P[\head{h}{n}{\phi_1,\cdots,\phi_j,p_{j+1},\cdots,p_n}])$は,用言$h$が$n$個の助詞の係り先となりかつ用言に近い$p_{j+1},\cdots,p_n$の助詞が既に生成されているときに,$\phi_j$として$w_i$が生成される確率を表わす.\end{lcdef}\bigskip\lcrule{lc:marker}において,同じ用言に係る助詞は用言に近いものから順番に生成されると仮定している.すなわち,助詞が出現する順序も考慮されている.\item助詞の係り先が用言か体言かを考慮する場合助詞の係り先が用言である場合と体言である場合とでは,助詞の生成確率$P(w_i|P)$の分布は著しく異なると考えられる.例えば,係り先が用言の場合には``が'',``を''などの助詞は出現しやすいが,助詞``の''は出現しにくい.これに対して,係り先が体言の場合,すなわちその助詞を含む文節が連体修飾節となっている場合には,助詞``の''が出現する場合が圧倒的に多いと予想される.したがって,助詞の生成確率$P(w_i|P)$を学習する際に,その助詞の係り先が用言もしくは体言であるかを区別しないで学習するのは望ましいことではない.これに対応するには,以下のような\lcrule{lc:josi}を定義すればよい.\bigskip\begin{lcdef}{lc:josi}単語$w_i$の品詞$l_i$が$P$(助詞)であり,かつその助詞の係り先が体言であるとき,単語$w_i$の単語生成文脈$c_i$を{\itnd\/}とする.{\itnd\/}はその助詞の係り先が体言であることを表わすシンボルである.このとき,$w_i$の生成確率$P(w_i|P[nd])$は,体言を係り先とする助詞から単語$w_i$が生成される確率を表わす.\end{lcdef}\bigskip助詞の単語生成文脈を決定する際には,助詞の係り先が用言である場合には\lcrule{lc:marker}が,助詞の係り先が体言である場合には\lcrule{lc:josi}が適用される.\end{itemize}ここに挙げた\lcrule{lc:default}〜\#\ref{lc:josi}が単語生成文脈を決定するための全ての規則というわけではない.本節では,特に用言の格関係に注目して語彙モデルに反映させるべき語彙的従属関係(単語の共起関係)の例を挙げたが,他の種類の語彙的従属関係を語彙モデルに反映させるように単語生成文脈決定規則を拡張・洗練することもできる.すなわち,語彙モデルにおいてどのような語彙的従属関係を考慮するかは,単語生成文脈決定規則の追加・変更によって柔軟に調整することが可能である.単語生成文脈として何を選択するかを自動的に学習することも考えられる\footnote{例えば,Magermanは確率の前件としてどのような素性を選択すればよいのかを決定木を用いて自動学習している~\cite{magerman:95:a}.}が,我々は言語学的知見に基づくヒューリスティクス規則によって単語生成文脈を選択する方向で研究をすすめている.なぜなら,語彙モデルにどのような種類の語彙的従属関係を反映させるかを単語生成文脈決定規則によって明確に記述することにより,モデルに反映された統計情報が曖昧性解消に有効であるかどうかなど,モデルの特性の分析を容易に行うことができるからである.\subsubsection{従属係数}\label{sec:dp}これまでは単語を生成する際に考える単語生成文脈は常に一つであると仮定していた.しかしながら,一般には,一つの単語を生成する際に複数の単語生成文脈を考慮しなければならない場合もある.\begin{figure}[tbp]\begin{center}\leavevmode\atari(106,30)\caption{並列構造を持つ例文}\label{fig:exam-coord}\end{center}\end{figure}例えば,図\ref{fig:exam-coord}の例文において,2つの文節``食べ-て''\footnote{``-''は単語の区切りを表わす.}と``出かけ-た''は並列の関係にある.したがって,この例文中の名詞``彼女''は動詞``食べ''のハ格の格要素であり\footnote{本研究では,名詞が助詞を介して用言に係る場合は常に,その名詞を用言の表層格の格要素として取り扱う.},同時に動詞``出かけ''のハ格の格要素でもある.したがって,\lcrule{lc:filler}に従えば,``彼女''という単語を生成する際の単語生成文脈としては$\slot{食べ}{は}$と$\slot{出かけ}{は}$の2つがある.このとき,``彼女''の生成確率は次のように推定することが望ましい.\begin{equation}\label{eq:der-cor1-kanojo}P(彼女|N[\slot{食べ}{は},\slot{出かけ}{は}])\end{equation}同様に,この例文中の助詞``は''は動詞``食べ''と``出かけ''の両方に係っているとみなすことができる.したがって,\lcrule{lc:marker}に従えば,``は''という単語を生成する際の単語生成文脈として$\head{食べ}{2}{\phi_1,を}$と$\head{出かけ}{2}{\phi_1,へ}$の2つがあると考えられ,``は''の生成確率も次のように推定することが望ましい.\begin{equation}\label{eq:der-cor1-wa}P(は|P[\head{食べ}{2}{\phi_1,を},\head{出かけ}{2}{\phi_1,へ}])\end{equation}ところが,式(\ref{eq:der-cor1-kanojo})や(\ref{eq:der-cor1-wa})のように複数の単語生成文脈を前件に持つ確率モデルは,推定するパラメタの数が爆発的に増大する可能性がある.そこで本研究では,複数の単語生成文脈を以下のように取り扱う.まず,説明を簡略化するために,単語$w_i$が2つの単語生成文脈$c_1$と$c_2$を持つとする.このとき,単語$w_i$の生成確率$P(w_i|l_i[c_1,c_2])$を以下のように近似する.\begin{eqnarray}P(w_i|l_i[c_1,c_2])&=&\frac{P(l_i[c_1,c_2]|w_i)\cdotP(w_i)}{P(l_i[c_1,c_2])}\\\label{eq:prove-dp-1}&=&\frac{P(l_i[c_1]|w_i)\cdotP(l_i[c_2]|l_i[c_1],w_i)\cdotP(w_i)}{P(l_i[c_1])\cdotP(l_i[c_2]|l_i[c_1])}\\\label{eq:prove-dp-2}&\simeq&\frac{P(l_i[c_1]|w_i)\cdotP(l_i[c_2]|l_i,w_i)\cdotP(w_i)}{P(l_i[c_1])\cdotP(l_i[c_2]|l_i)}\\&=&\frac{P(l_i[c_1]|w_i)}{P(l_i[c_1])}\cdot\frac{P(l_i[c_2]|l_i,w_i)}{P(l_i[c_2]|l_i)}\cdotP(w_i)\\&=&\frac{P(w_i|l_i[c_1])}{P(w_i)}\cdot\frac{P(w_i,|l_i,l_i[c_2])}{P(w_i|l_i)}\cdotP(w_i)\\\label{eq:prove-dp}&=&P(w_i|l_i)\cdot\frac{P(w_i|l_i[c_1])}{P(w_i|l_i)}\cdot\frac{P(w_i|l_i[c_2])}{P(w_i|l_i)}\end{eqnarray}式(\ref{eq:prove-dp-1})から式(\ref{eq:prove-dp-2})の変形において,2つの単語生成文脈$c_1$と$c_2$は互いに独立であると仮定している.\begin{eqnarray}P(l_i[c_2]|l_i[c_1])&\simeq&P(l_i[c_2]|l_i)\\P(l_i[c_2]|l_i[c_1],w_i)&\simeq&P(l_i[c_2]|l_i,w_i)\end{eqnarray}ここで,従属係数$D(w_i|l_i[c_i])$を式(\ref{eq:def-dp})のように定義する.\begin{equation}\label{eq:def-dp}D(w_i|l_i[c_i])=\frac{P(w_i|l_i[c_i])}{P(w_i|l_i)}\end{equation}この従属係数を用いれば,式(\ref{eq:prove-dp})から式(\ref{eq:double-dp})が導かれる.\begin{eqnarray}\label{eq:double-dp}P(w_i|l_i[c_1,c_2])&\simeq&P(w_i|l_i)\cdotD(w_i|l_i[c_1])\cdotD(w_i|l_i[c_2])\end{eqnarray}以上では単語$w_i$が2つの単語生成文脈を持つ場合を考えていたが,単語$w_i$が$n$個の単語生成文脈$c_1,\cdots,c_n$を持つ場合にも同様の近似が可能であり,最終的に以下の式が得られる.\begin{equation}\label{eq:multi-dp}P(w_i|l_i[c_1,\cdots,c_n])\simeqP(w_i|l_i)\cdot\prod_{c_i}D(w_i|l_i[c_i])\end{equation}式(\ref{eq:def-dp})で定義した従属係数$D(w_i|l_i[c_i])$は単語$w_i$と単語生成文脈$c_i$の相関関係を評価する統計量である.例えば,$w_i$と$c_i$に相関関係がない場合,すなわち$w_i$と$c_i$が互いに独立である場合には,式(\ref{eq:def-dp})の分子$P(w_i|l_i[c_i])$は分母$P(w_i|l_i)$にほぼ等しくなり,従属係数$D(w_i|l_i[c_i])$は1に近い値を取る.これに対し,$w_i$と$c_i$に正の相関関係がある場合には,単語生成文脈$c_i$を前件に加えた確率$P(w_i|l_i[c_i])$は単語生成文脈$c_i$を無視した確率$P(w_i|l_i)$よりも大きくなるので,その従属係数は1より大きい値を取る.同様に,$w_i$と$c_i$に負の相関関係がある場合には従属係数は1より小さい値を取る.複数の単語生成文脈$c_1,\cdots,c_n$の下での単語$w_i$の生成確率は,単語生成文脈を無視した単語の生成確率$P(w_i|l_i)$と,$w_i$と$c_i$の相関関係を他の単語生成文脈とは独立に評価した従属係数$D(w_i|l_i[c_i])$の積によって計算できることを式(\ref{eq:multi-dp})は示している.従属係数$D(w_i|l_i[c_i])$を他の単語生成文脈と独立に推定・学習することにより,確率モデルのパラメタ空間を推定可能な大きさに抑制することができる.例えば,図\ref{fig:exam-coord}の例において,``彼女''の生成確率(\ref{eq:der-cor1-kanojo})と``は''の生成確率(\ref{eq:der-cor1-wa})はそれぞれ以下のように推定される.\begin{eqnarray}\nonumber&&P(彼女|N[\slot{食べ}{は},\slot{出かけ}{は}])\\\label{eq:der-cor2-kanojo}&\simeq&P(彼女|N)\cdotD(彼女|N[\slot{食べ}{は})\cdotD(彼女|N[\slot{出かけ}{は}])\\[3mm]\nonumber&&P(は|P[\head{食べ}{2}{\phi_1,を},\head{出かけ}{2}{\phi_1,へ}])\\\label{eq:der-cor2-wa}&\simeq&P(は|P)\cdotD(は|P[\head{食べ}{2}{\phi_1,を}])\cdotD(は|P[\head{出かけ}{2}{\phi_1,へ}])\end{eqnarray}従属係数を導入する利点として,単語生成文脈を複数取り扱うことができるという点の他に,式(\ref{eq:lex-model-der-dp})に示すように,語彙モデル$P(W|R)$を単語の出現頻度のみを反映した$P_{cf}(W|L)$と単語の共起関係のみを反映した$D(W|R)$との積に分解できるという点が挙げられる.\begin{eqnarray}P(W|R)&\simeq&\prod_{i}P(w_i|l_i[C_{w_i}])\\&\simeq&\prod_{w_i}P(w_i|l_i)\cdot\prod_{c_{ij}\inC_{w_i}}D(w_i|l_i[c_{ij}])\\\label{eq:lex-model-der-dp}&=&P_{cf}(W|L)\cdotD(W|R)\\[3mm]\label{eq:lex-model-der}P_{cf}(W|L)&=&\prod_{w_i}P(w_i|l_i)\\[3mm]\label{eq:lex-model-dp}D(W|R)&=&\prod_{w_i}\prod_{c_{ij}\inC_{w_i}}D(w_i|l_i[c_{ij}])\end{eqnarray}上式において,$C_{w_i}$は単語$w_i$の単語生成文脈の集合を表わしている.式(\ref{eq:lex-model-der})の統計量$P_{cf}(W|L)$は,単語生成文脈を無視したときに品詞$l_i$から単語$w_i$が生成される確率の積であり,単語の出現頻度に関する優先度が反映される.これに対し,式(\ref{eq:lex-model-dp})の統計量$D(W|R)$は各単語$w_i$とその単語生成文脈$c_{ij}$の従属係数の積を表わしており,$w_i$と$c_{ij}$の相関関係に関する優先度(すなわち単語の共起関係)が反映される.このように,語彙モデルを単語の出現頻度,および単語の共起関係のみを反映させた2つの統計量の積として分解することにより,\ref{sec:intro}節で述べたように,曖昧性解消時におけるそれぞれの統計情報の働きを容易に理解することができる.
\section{評価実験}
\label{sec:exp-stat}本節では,前節で提案した統合的確率言語モデルの評価実験について述べる.統合的確率言語モデルは本来形態素解析,構文解析を同時に行うことを前提としているが,そのような大規模な実験を行う前の予備実験として,まずは文節列を入力とする文節間の係り受け解析のみを行った.\subsection{構文モデルの学習}\label{sec:learn-syn-model}本節の実験では,入力として単語列,品詞列,文節区切りが与えられたときに,それぞれの文節の係り先となる文節を決定する.このような文節の係り受け解析をCFG(文脈自由文法)を用いて行った.まず,CFG規則の終端記号として,文節の統語的特性を反映した文節ラベルを用いる.この文節ラベルの定義を(\ref{eq:BP-label})に示す.\begin{equation}\label{eq:BP-label}文節ラベル~~\stackrel{def}{=}~~(受け属性,係り属性,読点の有無,用言種別)\end{equation}ここで,``受け属性'',``係り属性''はそれぞれ文節の受け属性と係り属性であり,``連用'',``連体'',``格関係''の組によって表わされる.例えば,``パイ-を''や``彼女-の''など,「名詞助詞」といった品詞並びによって構成される文節は,他の文節から連体修飾を受ける可能性があるので受け属性は``(連体)''となり,他の文節を連体修飾したり用言を修飾してその格要素および表層格を表わす可能性があるので係り属性は``(連用,格関係)''となる\footnote{ここでの``格関係''とは,用言を受け側とした格関係のみを指す.}.また``読点の有無''は,その文節の末尾が読点であれば``1'',そうでなければ``0''といった値を取る.これは,読点を末尾に持つ文節は直後の文節には係りにくく,読点を末尾に持たない文節よりも遠くに係る傾向があるので,この違いを構文モデルに反映させるためである.一方``用言種別''は,``格関係''を受け属性に含む文節タイプを細分化するための属性であり,文節の主辞が自動詞,他動詞,形容詞,名詞述語のときにはそれぞれ``自動詞'',``他動詞'',``形容詞'',``名詞述語''といった値を取る.また,``格関係''を受け属性に持たない文節のときにはその値は常に``φ''である.\ref{sec:lex-model}節で例示した単語生成文脈決定規則は,単語の共起関係の中でも特に用言の格関係に注目している.用言を主辞とする文節の文節ラベルを細分化したのはこのためである.この文節ラベルは,文節を構成する単語列の品詞情報をもとに一意に決定されるものとする.また,これらの文節ラベルの整合性\footnote{例えば,``連体''を係り属性に含む文節は``連体''を受け属性に含まない文節には係らない.}をチェックする規則を作成し,その集合を文節の係り受け解析に用いるCFGとした.このCFGの概要を表\ref{tab:grammar}に示す.\begin{table}[htbp]\begin{center}\caption{CFGの概要}\label{tab:grammar}\begin{tabular}{|l|r|}\hline規則数&961\\\hline非終端記号数&51\\\hline終端記号数(文節ラベル数)&42\\\hline\end{tabular}\end{center}\end{table}本実験では,構文モデル$P(R)$としてPGLRを利用した.また,この構文モデルの学習には京大コーパス\cite{kurohasi:97:a}を使用した.京大コーパスの各例文には,単語区切り,単語の品詞,文節区切りと文節の係り受け解析の結果(構文構造)が付加されている.京大コーパスの9,944例文に対して,コーパスの各例文とそれに付加された構文構造を作り出すようなLR表における状態遷移列を求め,また状態遷移が行われた回数を数え上げる.このようにして得られた状態遷移回数を状態遷移確率に変換することにより,PGLRのパラメタ推定を行った.\subsection{語彙モデルの学習}\label{sec:learn-lex-model}本実験では,式(\ref{eq:lex-model-der-dp})に示した語彙モデル$P(W|R)=P_{cf}(W|L)\cdotD(W|R)$のうち,$P_{cf}(W|L)$の計算を省略できる.なぜなら,単語列及び品詞列はすでに入力として与えられているため,全ての解析結果の候補について品詞から単語への生成確率の積$P_{cf}(W|L)$は等しいからである.したがって,語彙モデルとして学習するのは従属係数の積$D(W|R)$のみでよい.今回の実験では,\lcrule{lc:filler}〜\#\ref{lc:josi}によって定められる従属係数(\ref{eq:ldp-filler}),(\ref{eq:ldp-marker-multi2}),(\ref{eq:ldp-josi})を$D(W|R)$の要素とし,これらの学習を行った.まず,格要素の従属係数(\ref{eq:ldp-filler})の学習について説明する.\begin{equation}\label{eq:ldp-filler}D(n|N[\slot{v}{p}])=\frac{P(n|N[\slot{v}{p}])}{P(n|N)}\end{equation}RWCコーパス~\cite{rwc:95:a}とEDR共起辞書\cite{edr:95:a}から,名詞$n$が助詞$p$を介して動詞$v$に係る事例$(n,p,v)$をそれぞれのべ6,888,849組,975,510組収集した.式(\ref{eq:ldp-filler})の分子および分母の確率モデルはこれらの訓練事例から最尤推定した.さらに,分子の確率モデル$P(n|N[\slot{v}{p}])$を推定する際に以下のような近似を行った.\begin{itemize}\item名詞$n$の意味クラスによる抽象化名詞$n$の意味クラスの集合を$C_n=\{c_{n_1},\cdots,c_{n_m}\}$として,$P(n|N[\slot{v}{p}])$を以下のように推定した.\begin{equation}\label{eq:ldp-filler-class}P(n|N[\slot{v}{p}])\simeq\sum_jP(n|c_{n_j})P(c_{n_j}|N[\slot{v}{p}])\end{equation}今回の実験では,名詞意味クラス$c_n$として,日本語語彙体系\cite{ikehara:93:a,ikehara:97:a}の名詞シソーラスのルートから深さ3に位置する151個の意味クラスの集合を用いた.これらの意味クラスは互いに排他的である.$D(n|N[\slot{v}{p}])$を推定する場合,名詞$n$が日本語語彙体系に登録されておらず,その名詞意味クラスが不明な場合には,その従属係数は学習不可能であるとして$D(n|N[\slot{v}{p}])\simeq1$とした.これは,$n$と$\slot{v}{p}$との間の従属関係を無視することに相当する.\itemバックオフ方式によるスムージング確率モデル$P(c_n|N[\slot{v}{p}])$を推定する際,この確率の分母となる事例$(*,p,v)$($*$は任意の名詞意味クラスを表わす)の出現回数がある閾値$\lambda$よりも小さい場合には,$v$を動詞意味クラス$c_v$を用いて抽象化した確率モデル$P(c_n|N[\slot{c_v}{p}])$によって近似した.\begin{equation}P(c_n|N[\slot{v}{p}])\simeqP(c_n|N[\slot{c_v}{p}])\end{equation}また,事例$(*,p,c_v)$の出現回数が$\lambda$を越えない場合には,動詞意味クラス$c_v$の抽象度を段階的に上げていき,必ず$\lambda$個以上の訓練事例から確率モデルを推定するようにした.本実験においては,動詞意味クラス$c_v$として分類語彙表~\cite{bgh:96}の5桁および2桁の分類コードを動詞意味クラスとして利用した.動詞を分類語彙表の2桁の分類コードに抽象化しても学習事例数が$\lambda$を越えなかったとき,もしくは$(*,p,v)$の事例数が$\lambda$以下でありかつ動詞$v$が分類語彙表に登録されていなかった場合には,十分信頼度の高い確率モデルが学習できなかったとして,従属係数$D(n|N[\slot{v}{p}])\simeq1$とした.なお,今回は$\lambda=100$として実験を行った.\end{itemize}\bigskip次に,用言に係る助詞に関する従属係数(\ref{eq:ldp-marker})の学習について説明する.\begin{equation}\label{eq:ldp-marker}D(p_i|P[\head{h}{n}{\phi_1,\cdots,\phi_i,p_{i+1},\cdots,p_n}])=\frac{P(p_i|P[\head{h}{n}{\phi_1,\cdots,\phi_i,p_{i+1},\cdots,p_n}])}{P(p_i|P)}\end{equation}$n$個の助詞$p_1,\cdots,p_n$が同じ用言$h$に係っている場合には,それぞれの$p_i$に対応する従属係数(\ref{eq:ldp-marker})の積を計算すれば良い.この従属係数の積は式(\ref{eq:ldp-marker-multi})のように変形できる.\begin{eqnarray}&&\prod_iD(p_i|P[\head{h}{n}{\phi_1,\cdots,\phi_{i-1},p_i,\cdots,p_n}])\\&=&\prod_i\frac{P(p_i|P[\head{h}{n}{\phi_1,\cdots,\phi_i,p_{i+1},\cdots,p_n}])}{P(p_i|P)}\\&=&\label{eq:ldp-marker-multi}\frac{P(p_1,\cdots,p_n|P_1,\cdots,P_n[\head{h}{n}{\phi_1,\cdots,\phi_n}])}{\prod_iP(p_i|P)}\\\label{eq:ldp-marker-multi2}&\stackrel{def}{=}&D(p_1,\cdots,p_n|P_1,\cdots,P_n[\head{h}{n}{\phi_1,\cdots,\phi_n}])\end{eqnarray}したがって,学習しなければならないのは,ある用言$h$が$P_1,\cdots,P_n$の$n$個の助詞の係り先となっているときに単語$p_1,\cdots,p_n$を同時に生成する確率モデル$P(p_1,\cdots,p_n|P_1,\cdots,P_n[\head{h}{n}{\phi_1,\cdots,\phi_n}])$と,品詞$P$(助詞)から単語$p_i$が生成される確率$P(p_i|P)$である.以降,簡単のため,前者の確率モデルを以下のように記述する.\begin{eqnarray}\label{eq:kaku-model-def}P(\vec{p}~|~h,n)&\stackrel{def}{=}&P(p_1,\cdots,p_n|P_1,\cdots,P_n[\head{h}{n}{\phi_1,\cdots,\phi_n}])\\\nonumber&&但し,~\vec{p}=(p_1,\cdots,p_n)\end{eqnarray}確率モデル$P(\vec{p}|h,n)$を学習するために,$n$個の助詞$\vec{p}$が同じ用言$h$に係るという事例$(\vec{p},h)$をEDRコーパスから収集した.今回の実験では,用言$h$として動詞,形容詞,名詞述語の3つを考えた.用言$h$が動詞,形容詞,名詞述語であるときの,また$h$に係る助詞の数$n$が1,2,3,4以上であるときの事例$(\vec{p},h)$ののべ数を表\ref{tab:coocr-ph}にまとめる.\begin{table}[htbp]\begin{center}\caption{EDRコーパスから収集した事例$(\vec{p},h)$ののべ数}\label{tab:coocr-ph}\begin{tabular}{|c||r|r|r|r|}\hline$h$&\makebox[15mm]{$n=1$}&\makebox[15mm]{$n=2$}&\makebox[15mm]{$n=3$}&\makebox[15mm]{$n\ge4$}\\\hline\hline動詞&231,730&123,915&30,375&3,961\\\hline形容詞&19,266&7,686&1,292&154\\\hline名詞述語&28,636&9,327&1,238&98\\\hline\end{tabular}\end{center}\end{table}$n$が4以上のときには学習に十分な事例を収集することができなかった.そこで,$n$が4以上のときには,従属係数を1,すなわち助詞とその係り先用言との語彙的従属関係や格間の従属関係を無視することにした.\begin{equation}n\ge4のとき\qquadD(p_1,\cdots,p_n|P_1,\cdots,P_n[\head{h}{n}{\phi_1,\cdots,\phi_n}])~\simeq~1\end{equation}$n=1$のときの式(\ref{eq:kaku-model-def})の分子の確率モデル$P(\vec{p}|h,n)$は表\ref{tab:coocr-ph}に示した事例から最尤推定した.また,$n=2,3$のときの確率モデル$P(\vec{p}|h,n)$は最大エントロピー法を用いて推定した\footnote{この詳細については\cite{sirai:97:b}を参照.}.最後に,体言に係る助詞に関する従属係数(\ref{eq:ldp-josi})の学習について説明する.\begin{equation}\label{eq:ldp-josi}D(p|P[nd])=\frac{P(p|P[nd])}{P(p|P)}\end{equation}この従属係数を学習するために,EDRコーパスから体言に係る助詞$p$をのべ273,062個収集した.式(\ref{eq:ldp-josi})の分子はこの訓練データから最尤推定した.また,式(\ref{eq:ldp-josi})の分母$P(p|P)$は,ここで収集した体言に係る助詞の事例と,表\ref{tab:coocr-ph}に示した用言に係る助詞の事例から,同様に最尤推定した.尚,式(\ref{eq:ldp-marker-multi})の分母の各項$P(p_i|P)$も式(\ref{eq:ldp-josi})の分母の確率モデルと同じものを使用した.\subsection{実験結果}\label{sec:result-stat}\ref{sec:learn-syn-model}節にて学習した構文モデル$P(R)$,および\ref{sec:learn-lex-model}節にて学習した語彙モデル$P(W|R)$を用いて,文節の係り受け解析を行った.まず,テスト文として,京大コーパスの中から文節数7〜9の文をランダムに500文選び,これをテスト文とした.構文モデル$P(R)$を学習する際に用いた訓練用例文にはこれらのテスト文は含まれていない.文節数7〜9という比較的文長の短い例文をテスト文として選んだのは,本実験で用いたPGLRパーザがまだ開発の途中であり,長い文長の例文の解析に非常に多くの時間を要するためである.テスト文の係り受け解析結果の評価尺度として,文節の正解率を以下のように定義する.\begin{equation}\label{eq:def-bp-acc}文節の正解率~=~\frac{係り先の正しい文節の数}{テスト文に含まれる文節の数}\end{equation}この文節の正解率は生成確率が一位である解析結果の候補について計算する.また,文の最後に位置する2つの文節は評価の対象から除外する.これは,文の一番最後にある文節は係り先がなく,また文の最後から2番目にある文節は常に文の一番最後の文節に係るからである.\ref{sec:lex-model}節に述べたように,語彙モデルにおいてはいくつかの種類の統計情報を取り扱う.ここでは,構文的な統計情報,および語彙モデルにおいて考慮された語彙的な統計情報のそれぞれの曖昧性解消における効果を調べるために,以下に述べる6種類のモデルを用意し,それらを比較した.結果を表\ref{tab:res-lex}に示す.\begin{description}\item[BL:]ベースライン全ての文節の係り先を,(1)全ての文節は係り得る文節の中でできるだけ近いものに係る,(2)一文中における文節の係り受け関係は互いに交差しない,として決定するモデルである.\item[Syn:]従属係数を無視したモデル$D(W|R)=1$としたモデルである.すなわち,構文モデル$P(R)$で学習した統計情報のみを用いて曖昧性解消を行う.\item[F:]格要素となる名詞に関する従属係数のみを用いたモデル$D(W|R)$として,式(\ref{eq:ldp-filler})によって与えられる従属係数のみを考慮したモデルである.\item[M:]用言に係る助詞に関する従属係数のみを用いたモデル$D(W|R)$として,式(\ref{eq:ldp-marker-multi2})によって与えられる従属係数のみを考慮したモデルである.\item[P:]体言に係る助詞に関する従属係数のみを用いたモデル$D(W|R)$として,式(\ref{eq:ldp-josi})によって与えられる従属係数のみを考慮したモデルである.\item[all:]全ての従属係数を用いたモデル上記全ての従属係数を考慮したモデルである.\end{description}\begin{table}[tbp]\begin{center}\caption{文節の正解率}\label{tab:res-lex}\begin{tabular}{|l||r|r|}\hline&\makebox[15mm]{後置詞節}&\makebox[15mm]{全ての文節}\\\hline\hlineBL&62.92\%&61.68\%\\\hlineSyn&69.63\%&73.38\%\\\hlineF&71.36\%&74.69\%\\\hlineM&78.19\%&78.55\%\\\hlineP&84.06\%&82.22\%\\\hlineall&86.30\%&84.34\%\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:res-lex}から,語彙モデルにおいて考慮した語彙的な統計情報のうち,体言に係る助詞に関する従属係数(モデルP)が正解率の向上に一番大きく貢献することがわかる.すなわち,助詞が用言に係っているか否かの違いがその生成確率に大きく影響し,その違いを考慮することによって曖昧性解消の精度を大きく向上させることができた.また,表\ref{tab:res-lex}における``後置詞節''とは,``彼女-が'',``パイ-を''など,用言の格要素および表層格を表わす可能性のある文節を指す\footnote{この後置詞節には,``太郎-の''など,実際には体言を修飾する文節も含まれる.}.テスト文全体における2,975個の文節のうち,1,788個がこの後置詞節に相当する.この後置詞節のみで評価した場合,全ての文節で評価した場合に比べて,語彙的な統計情報を考慮したモデル(F,M,P,all)と構文的な統計情報のみを考慮したモデル(Syn)との文節の正解率の差が大きくなっている.これは,今回の実験で用いた語彙モデルにおいては,語彙的な統計情報の中でも用言の格関係に注目しているため,語彙モデルが``後置詞節''の係り先の曖昧性解消に特に有効に働いているためと考えられる.構文モデルと全ての語彙的従属関係を考慮した語彙モデルを組み合わせて曖昧性解消に用いた場合(all),構文モデルのみを用いた場合(Syn)と比べて文節の正解率が10.96\%向上し,また構文モデルのみを曖昧性解消に用いたときのベースラインとの文節の正解率の差が11.70\%であることから,文節の係り受け解析の精度向上において,語彙モデルは構文モデルと同程度の貢献をしていると考えられる.本研究で提案した統合的確率言語モデルにおいては,語彙的な統計情報を局所化し構文的な統計情報とは独立に学習しているが,このようなアプローチにおいても,語彙的な統計情報は曖昧性解消の精度向上に十分大きく貢献すると期待できる.最後に,本研究で提案する統合的確率言語モデルを用いた解析結果とKNPパーザ\cite{kurohasi:94:a}による解析結果との比較を行った.KNPパーザは形態素解析システムJUMAN\cite{matumoto:94:a}の形態素解析結果を入力とし,文節の区切りを認定してから文節の係り受け解析を行う.そこで,\ref{sec:result-stat}節の実験で用いた500個のテスト文のうち,JUMANの形態素解析結果による形態素区切りおよびKNPパーザによる文節区切りの結果がコーパスと一致した388文を対象に,両者の係り受け解析結果の比較を行った.結果を表\ref{tab:comp-knp}に示す.\begin{table}[htbp]\begin{center}\caption{KNPパーザとの比較}\label{tab:comp-knp}\begin{tabular}{|l||r|r|}\hline&\makebox[15mm]{後置詞節}&\makebox[15mm]{全ての文節}\\\hline\hline本手法&86.57\%&84.53\%\\\hlineKNPパーザ&86.79\%&85.71\%\\\hline\end{tabular}\end{center}\end{table}本手法はKNPパーザよりも文節の正解率で1\%程度劣っている.今回の実験では,統合的確率言語モデルに組み込む語彙的従属関係として,格要素と動詞との従属関係,助詞と係り先用言との従属関係,格間の従属関係などを考慮した.しかしながら,これ以外にも,曖昧性解消に有効であると考えられる語彙的従属関係が数多く存在する.特に,今回の実験では連体修飾に関しては語彙的従属関係を何も考慮していないので,そのことによる解析誤りが多かった.例えば,「彼女の紫色の帽子が風に飛ばされた」という文においては,文節``彼女-の''が(a)``紫色-の''に係る,(b)``帽子-が''に係るという2つの解釈がある.ところが,連体修飾する``彼女''については語彙的従属関係を考慮していないので,より近い文節に係る解釈(a)に高い確率が与えられてしまう.これを回避するためには,以下のような従属係数を学習し語彙モデルに加えればよい.\begin{equation}\label{eq:dp-rentai-noun}D(n_1|N[n_2])=\frac{P(n_1|N[n_2])}{P(n_1|N)}\end{equation}式(\ref{eq:dp-rentai-noun})の分子$P(n_1|N[n_2])$は,ある名詞$N$が$n_2$を連体修飾しているとき,その名詞として単語$n_1$が生成される確率を表わしている.このような従属係数を考慮することにより,``彼女''は``紫色''よりも``帽子''を連体修飾することが多い,すなわち$D(彼女|N[紫色])<<D(彼女|N[帽子])$であると考えられるので,正しい解釈(b)に高い確率を与えると期待できる.このように,統合的確率言語モデルに新たな種類の語彙的従属関係を反映させるときには,それに対応した従属係数を新たに語彙モデルに加えるという形で容易に対処できる.これは,語彙的従属関係を局所化して構文的優先度などの他の統計情報と独立に学習するように,また異なる種類の語彙的従属関係は異なる従属係数として独立に学習するようにモデルを設計したことに依る.一方,後置詞節のみで評価した場合には,本手法とKNPパーザの文節の正解率はほぼ等しい.とはいえ,後置詞節の係り先の特定に失敗する場合も少なくない.我々は現在その原因を調査中であり,その一部については既に報告している\cite{sirai:97:d}.今後,曖昧性解消に有効な統計情報を新たに組み込んだり,また解析誤りの原因を調査しそれらに対処することにより,係り受け解析の精度向上を図っていきたい.
\section{おわりに}
\label{sec:conclusion}本研究では,形態素解析・構文解析を同時に行う際に,構文的な統計情報と語彙的な統計情報を組み合わせて曖昧性を解消するひとつの手法を提案した.我々の手法の特徴は,構文的優先度,隣接する品詞間の共起関係,距離に関する優先度といった構文的な統計情報を構文モデル$P(R)$として,単語の出現頻度および単語の共起関係を語彙モデル$P(W|R)$として,それぞれ独立に学習する点にある.このことは,個々の統計情報を異なる言語資源から学習できるだけでなく,曖昧性解消時における個々の統計情報の働きを容易に分析することができる.実際に,京大コーパスを用いて構文モデルを,RWCコーパスやEDRコーパスを用いて語彙モデルを学習した.また,これらの確率モデルを用いた日本語文の文節の係り受け解析実験の結果,構文的な統計情報と語彙的な統計情報のそれぞれが曖昧性解消に大きく貢献することを確認した.最後に今後の課題について述べる.まず,統合的確率言語モデルが本来想定している形態素解析と構文解析を同時に行い,その有効性を実験的に確認することが挙げられる.また,今回の実験では文長の比較的短い文を対象にしたが,文長の長い文の係り受け解析を行うことにより,統合的確率言語モデルの特性をさらに調査する必要がある.文長の長い文においては,二重格を取りにくいなどの格間の従属関係がさらに有効に働くのではないかと予想される.最後に,統合的確率言語モデルと他の統計的構文解析に関する研究とを実験的に比較することが挙げられる.特に今回の実験は日本語を対象にしたが,構文的な統計情報と語彙的な統計情報を独立に学習するアプローチが英語などの他の言語においても本当に有効であるのかどうかは今後調査していく必要があると思われる.\bigskip\acknowledgment本研究にあたり,日本語語彙体系を提供して下さいましたNTTコミュニケーション科学研究所知識処理研究部翻訳処理研究グループに感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{nlp-str,jpaper}\begin{biography}\biotitle{略歴}\bioauthor{白井清昭}{1993年東京工業大学工学部情報工学科卒業.1995年同大学院理工学研究科修士課程修了.1998年同大学院情報理工学研究科博士課程修了.同年同大学院情報理工学研究科計算工学専攻助手,現在に至る.博士(工学).統計的自然言語解析に関する研究に従事.情報処理学会会員.}\bioauthor{乾健太郎}{1990年東京工業大学工学部情報工学科卒業.1992年同大学大学院理工学研究科修士課程修了.1995年同大学大学院理工学研究科博士課程修了.同年同大学院情報理工学研究科計算工学専攻助手.1998年九州工業大学情報工学部知識情報工学科助教授,現在に至る.博士(工学).自然言語処理に関する研究に従事.人工知能学会,体系機能言語学会,各会員.}\bioauthor{徳永健伸}{1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,同大学大学院情報理工学研究科計算工学専攻助教授.博士(工学).自然言語処理,計算言語学に関する研究に従事.情報処理学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioauthor{田中穂積}{1964年東京工業大学工学部情報工学科卒業.1966年同大学院理工学研究科修士課程修了.同年電気試験所(現電子技術総合研究所)入所.1980年東京工業大学助教授.1983年東京工業大学教授.現在,同大学大学院情報理工学研究科計算工学専攻教授.博士(工学).人工知能,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V13N03-04 | \section{はじめに}
\label{sec:intro}スライドを用いたプレゼンテーションは,意見を人々に伝えるのに大変効果的であり,学会やビジネスといった様々な場面において利用されている.近年,PowerPointやKeynoteといったプレゼンテーションスライドの作成支援をするソフトが開発・整備されてきているが,一からスライドを作成することは依然として大変な作業である.そこで,科学技術論文や新聞記事からプレゼンテーションスライドを自動(または半自動)で生成する手法が研究されている.Utiyamaらは,GDAタグで意味情報・文章構造がタグ付けされた新聞記事を入力としてプレゼンテーションスライドを自動生成している\cite{Utiyama99}.また,安村らは,科学技術論文の\TeXソースを入力として,プレゼンテーション作成を支援するソフトウェアを開発している\cite{Yasumura03j}.しかし,いずれの研究においても,入力テキストに文章構造がタグ付けされている必要があり,入力テキストを用意することにコストがかかってしまう.\begin{figure}[t]\fbox{\begin{minipage}[t]{\hsize}大阪と神戸を結ぶJR神戸線,阪急電鉄神戸線,阪神電鉄本線の3線の不通により,一日45万人,ラッシュ時最大1時間12万人の足が奪われた.JR西日本東海道・福知山・山陽線,阪急宝塚・今津・伊丹線,神戸電鉄有馬線の不通区間については,震災直後から代替バスによる輸送が行われた.国道2号線が開通した1月23日から,同国道と山手幹線を使って,大阪〜神戸間の代替バス輸送が実施された.1月28日からは,国道2号,43号線に代替バス優先レーンが設置され,効率的・円滑な運行が確保された.\end{minipage}}\caption{入力テキストの例}\label{fig:text_example}\end{figure}\begin{figure}[t]\begin{center}\begin{minipage}[t]{\hsize}\begin{shadebox}\vspace{2mm}\begin{center}鉄道の復旧\end{center}\begin{itemize}\item大阪と神戸を結ぶJR神戸線,阪急電鉄神戸線,阪神電鉄本線の3線の不通\begin{itemize}\item一日45万人,ラッシュ時最大1時間12万人の足が奪われた\end{itemize}\itemJR西日本東海道・福知山・山陽線,阪急宝塚・今津・伊丹線,神戸電鉄有馬線の不通区間\begin{itemize}\item震災直後から\begin{itemize}\item代替バスによる輸送\end{itemize}\item国道2号線が開通した1月23日から\begin{itemize}\item同国道と山手幹線を使って,大阪〜神戸間の代替バス輸送が実施\end{itemize}\item1月28日から\begin{itemize}\item国道2号,43号線に代替バス優先レーンが設置され,効率的・円滑な運行が確保\end{itemize}\end{itemize}\end{itemize}\vspace{2mm}\end{shadebox}\end{minipage}\end{center}\caption{自動生成されたスライドの例}\label{fig:slide_example}\end{figure}本稿では,生テキストからスライドを自動生成する手法を提案する.入力テキストの例を図\ref{fig:text_example},それから自動生成されたスライドの例を図\ref{fig:slide_example}\,に示す.本稿で生成するスライドは,入力テキストから抽出したテキストの箇条書きから構成される.箇条書きを使うことによって,テキストの構造を視覚的に訴えることができる.例えば,インデントが同じ要素を並べることで並列/対比関係を表わすことや,インデントを下げることによって詳細な内容を表わすことなどといったことが可能となる.従って,生成するスライドにおいて,箇条書きに適切なインデントを与えるには,入力テキストにおける,対比/並列関係や詳細化関係などといった文または節間の関係を解析する必要がある.本稿では,入力テキストの談話構造を解析し,入力テキストから抽出・整形されたテキストを箇条書きにし,そのインデントを入力テキストの談話構造に基づいて決定することによりスライドを生成する.生成されたスライドは入力テキストに比べて見やすいものにすることができる.特に,テキストに大きな並列や対比の構造があると,見やすいスライドを生成することができる.図\ref{fig:slide_example}\,の例では,「震災直後から」,「国道2号線が開通した1月23日から」,「1月28日から」の対比の関係が解析され,それらが同じインデントで表示されることにより見やすいスライドが生成されている.また,図\ref{fig:slide_example}\,の例の「震災直後から」と「代替バスによる輸送」のように,各文から主題を取り出し,主題部と非主題部を分けて出力することにより,スライドを見やすくしている.特に対比関係の場合,何が対比されているのかが明確になる.本稿で提案するスライド生成の手法の概要を以下に示す.\begin{enumerate}\item入力文をJUMAN/KNPで形態素解析,構文解析,格解析する.\item入力文を談話構造解析の基本単位である節に分割し,表層表現に基づいて談話構造解析を行なう.\item入力文から主題部・非主題部を抽出し,不要部分の削除,文末の整形を行なう.\item談話構造解析結果に基づき,抽出した主題部・非主題部を配置することによりスライドを生成する.\end{enumerate}また,我々の手法は,プレゼンテーションスライドの作成支援を行なうだけでなく,自動プレゼンテーションを生成することができる.すなわち,テキストを入力とし,自動生成したスライドを提示しながら,テキストを音声合成で読み上げることにより,自動でプレゼンテーションを行なう.我々はこのシステムのことを,「text-to-presentationシステム」と呼んでいる(図\ref{fig:presentation_system}).難解な語や長い複合語は音声合成の入力に適しているとはいえないので,Kajiらの言い換え手法\cite{Kaji02,Kaji04}で書き言葉を話し言葉に自動変換してから音声合成に入力することにより,音声合成の不自然さを低減する.\begin{figure*}[t]\begin{center}\includegraphics[scale=0.55]{ttps-j.eps}\caption{text-to-presentationシステム}\label{fig:presentation_system}\end{center}\end{figure*}本稿の構成は以下のようになっている.\ref{sec:ds_analysis}\,章で談話構造解析について述べ,\ref{sec:topic_extract}\,章で入力テキストからスライドに表示するテキストを抽出する方法について述べ,\ref{sec:output_slide}\,章でスライドの生成方法を述べる.そして,\ref{sec:evaluation}\,章で実装したtext-to-presentationシステムと,自動スライド生成の実験の結果を報告する.\ref{sec:related_work}\,章で関連研究について述べ,\ref{sec:conclusion}\,章でまとめとする.
\section{談話構造解析}
\label{sec:ds_analysis}この章では,テキストの談話構造を解析する手法を述べる.まず,談話構造のモデルを説明し,次に談話構造を解析する手順について説明する.\subsection{談話構造のモデル}\label{subsec:ds_model}談話構造を図\ref{fig:discourse_structure}\,に示すようなものにモデル化した.図において,矢印,ラベルはそれぞれ,文(S)または節(C)の接続,結束関係を意味する.このモデルでは,初期状態として初期節点を設けており,文が初期節点に接続する時の結束関係を``初期化''とし,この文から新しい話題が始まることを意味する.\begin{figure*}[t]\begin{center}\includegraphics[scale=.48]{ds_model-j.eps}\caption{談話構造のモデル}\label{fig:discourse_structure}\end{center}\end{figure*}節と文を談話構造の基本単位とし,以下にあげる二種の結束関係を考える.どのような結束関係を考えるかは研究者によって異なるが,スライドを自動生成するためにはこれらで十分であると考えた.\begin{enumerate}\item一文内における節間の関係(4種類)\begin{quote}並列,対比,順接,逆接\end{quote}\item二文間の関係(11種類)\begin{quote}並列,対比,理由,条件,主題連鎖,焦点主題連鎖,詳細化,理由,原因結果,例提示,質問応答\end{quote}\end{enumerate}\vspace{5mm}次節から,談話構造解析について述べる.解析の手順は\cite{Kurohashi94j}に基づいている.解析は入力文一文ずつ行ない,談話構造を逐次的に構築する.まず,入力文を節に分割し,節間の関係を解析する.次に,すでに入力した文の中で,入力文と最も関連する文とその間の結束関係を様々な手がかりをもとに決定する.図\ref{fig:discourse_structure}\,の例は,1文目から順番に談話構造を解析していき,4文目までの構造が決定され,5文目の解析を行なっている様子を示しており,様々な文・結束関係の確信度を計算した結果,最も高い確信度を得た4文目と詳細化の関係で接続すると解析されている.\subsection{主題属性の付与}\label{subsec:topic_feature}まず,入力文をJUMANで形態素解析,KNPで構文・格解析を行なう.その後,\ref{subsec:dpnd_in_s}\,節で述べる対比関係の抽出,\ref{subsec:relation_two_sentences}\,節で述べる主題・焦点の抽出,\ref{sec:topic_extract}\,章で述べる主題部・非主題部の抽出のために,あらかじめ,主題となりうる文節に主題属性を付与しておく.以下にあげるようなパターンを満たす文節に主題属性を付与する.パターンは形態素を単位に記述し,入力文の形態素解析結果と照合する.\begin{itemize}\item延焼速度\Underline{は},...\itemインナーシティ\Underline{では},...\item出火原因の判明した火災\Underline{において},...\item3線の不通\Underline{により},...\end{itemize}また,以下のパターンの場合は〜の部分に主題属性を付与する.\begin{quote}…\{する/した\}\{の/とき\}は〜\{だ/になる\}\end{quote}以下の例では,「安否情報など」に主題属性を付与する.\ex.震災直後に被災者が必要と\Underline{したのは},家族や友人・知人の消息に関する安否情報など\underline{\underline{だった}}.なお,ここで付与した主題属性を利用して,\ref{subsec:dpnd_in_s}\,節や\ref{subsec:relation_two_sentences}\,節で対比・並列関係の解析を行なうが,関係を解析した結果,新たに主題属性が付与される場合がある.\subsection{入力文の節への分割}\label{subsec:divideintonodes}談話構造において,何をその基本単位とするかは研究者によって様々な定義がなされてきた.\cite{Polanyi88,Kurohashi94j}では文,\cite{Longacre83}では節,\cite{Grosz86,Marcu99a,Marcu99b}では独自に定義された単位(clause-likeunit)が談話構造の基本単位として採用されている.本研究では,スライドに配置する箇条書きが適切な長さとなるように,節に分割する基準を,南\cite{Minami93}の従属節の分類に応じて以下のように設定した\footnote{本論文では,一つの述語からなるまとまりではなく,ここで定義したものを節と呼ぶことにする.}.なお,節は談話構造解析の基本単位であると同時に,\ref{sec:topic_extract}\,章で説明する主題部・非主題部の抽出の基本単位でもある.\begin{figure*}[t]\begin{center}\includegraphics[scale=.49]{clause-j.eps}\caption{文の節への分割}\label{fig:discourse_unit}\end{center}\end{figure*}\begin{description}\item[レベルC](例:〜が,〜けれども):必ず分割する\item[レベルB](例:〜て,〜し):前後の文節列が類似している場合,または,節の文字数が閾\linebreak[4]値\footnote{この閾値はスライドの横幅とフォントのサイズによって決定される.}以上の場合に分割する\item[レベルA](例:〜ながら,〜つつ):分割しない\end{description}レベルBにおける節の分割において利用している文節列の類似度は,KNPで並列構造を検出するために計算している任意の2つの文節列の類似度を用いる.任意の2つの文節列の類似度計算は,まず,あらゆる2文節の類似度を語の一致,品詞の一致,シソーラス\cite{NTT}による類似度などにより計算し,その上で,DPマッチングでそれらの文節間の類似度を組み合わせることにより行なわれる\cite{KNP94}.\ref{ex:koube-level}\,の例では,「達したが」のレベルがCなので節に分割し,\ref{ex:hyakunin-level}\,の例では「減り」のレベルがBで,前後の文節列が類似しているので節に分割する.\ref{ex:shinsai-level}\,の例では,前後の文節列が類似していないので,「なく」で分割せず,「迫られて」もレベルがAなので分割を行なわない.\ex.[神戸市には,他都市,業界等からの仮設トイレ支援が約3,000基に\Underline{達したが,}$_{レベルC}$][受入れのための仮置き場の確保が大きな課題となった.]\label{ex:koube-level}\ex.[100人に1基行き渡った段階で設置についての苦情はかなり\Underline{減り,}$_{レベルB}$][75人に1基達成できた段階では苦情が殆どなくなった.]\label{ex:hyakunin-level}\ex.[震災時の環境保全については事前の具体的な対応策等が\Underline{なく,}$_{レベルB}$必要に\Underline{迫られて}$_{レベルA}$進めざるを得なかった.]\label{ex:shinsai-level}\subsection{一文内の節間の関係の解析}\label{subsec:dpnd_in_s}入力文を節に分割した後,一文内の節間の結束関係を求める.まず,各節の親の節を構文解析結果に基づいて決定する.すなわち,各節の親を,節の最終文節の係り先の文節を含む節とする.次に,節間の結束関係を以下の基準で決定する.\begin{itemize}\item二節が類似している場合\begin{itemize}\item並列\item対比\end{itemize}\item類似していない場合\begin{itemize}\item順接(〜て,(連用形))\item逆接(〜が,〜けれども)\end{itemize}\end{itemize}まず,二節が類似していない場合,結束関係を順接または逆接とし,順接であるか逆接であるかは節末の形態素列のパターンで認識する.二節が類似している場合,結束関係を対比または並列とする.一般に並列の関係の場合,人または物がある二つの属性を持ち,対比の関係の場合,二つの異なる人または物が類似した属性を持つ.従って,二つの節において,主題属性が付与された二文節が,二節の類似度を計算する際のDPマッチングのパス上で対応関係にあり,かつ,それらの類似度が閾値以上である場合,結束関係を対比とし,そうでない場合を並列とする.以下の例では,二節が類似しており,主題属性が付与された「当初は」と「3月末までは」が類似しているので,対比の関係とする.\ex.[代替バス利用者は,\Underline{当初は}1日あたり3〜5万人であったが,][\Underline{3月末までは}1日約20万人が利用した.]\label{ex:bus}また,どちらか一方の節の文節に主題属性が付与されており,もう一方の節の文節には主題属性が付与されていない場合でも,類似度が高い場合は対比関係とする.以下の例では,二節が類似しており,主題属性が付与された,「(75人に1基達成できた)段階では」と主題属性のついていない「(100人に1基行き渡った)段階で」が類似しているので,結束関係を対比とし,「(100人に1基行き渡った)段階で」に主題属性を付与する.\ex.[100人に1基行き渡った\Underline{段階で}設置についての苦情はかなり減り,][75人に1基達成できた\underline{\underline{段階では}}苦情が殆どなくなった.]以下の例では,主題属性の付与された「パソコン通信ニフティサーブでは」とDPマッチングで対応付けられた「ボランティア情報」との間の類似度が閾値以下なので,結束関係を並列とする.\ex.[\Underline{パソコン通信ニフティサーブでは}「地震情報コーナー」が開設され,][ボランティア情報,安否情報,行政情報など各種の情報提供に用いられた.]\subsection{二文間の関係の検出}\label{subsec:relation_two_sentences}二文間の関係は,種々の表層的手がかりをもとに,各入力文に対して,関係をもつ以前の文(接続文)とその間の結束関係を逐次的に求める.新しい話題が導入された後に古くなった話題に接続することはないという仮定をおき,入力文は談話構造の一番最後の子供の文にのみ接続可能と考える.図\ref{fig:discourse_structure}\,では,文5は初期節点,文3,文4に接続可能となり,文1,文2との接続を許さない.そして,さまざまな接続可能文との間のさまざまな結束関係を考慮し,(1)手がかり表現,(2)語連鎖,(3)二文の類似度の3つの観点から確信度を計算し,最終的に最も高い確信度を得た関係を採用する.以下,これらの3つの観点について順に詳しく述べる.\begin{enumerate}\item手がかり表現種々の結束関係を示す,接続詞などの表層的な手がかり表現を認識し,その結束関係への確信度を得るために,表\ref{tab:rule}\,に示すようなルールを用意した.表\ref{tab:rule}\,において,接続可能文パターン,入力文パターンは,それぞれに対する表層表現,文間の結束関係\linebreak[4]([]で括られたもの)などのパターン,適用範囲とはどれだけ離れた文との関係まで考えるかである.適用範囲において,「1」は接続可能文と入力文が隣接している場合のみルールが適用されることを,「*」はルールの適用に制限がないことをそれぞれ意味する.ルールが一致した場合には,指定された結束関係欄の関係に対して,確信度欄の点数が与えられる.この確信度は経験的に決定した.\begin{table}[t]\caption{談話構造解析のルール}\label{tab:rule}\begin{center}\begin{small}\begin{tabular}{@{\}l@{\}|@{\}l@{\}|@{\}c@{\}||@{\}c@{\}|@{\}c@{\}}\hline\begin{tabular}{c}接続可能文\\パターン\end{tabular}&\begin{tabular}{c}入力文\\パターン\end{tabular}&適用範囲&結束関係&確信度\\\hline〜&さて〜&*&初期化&10\\〜&そして〜&1&並列&5\\第一に〜&第二に〜&*&並列&30\\\verb|[|並列\verb|]|&さらに〜&1&並列&40\\〜&むしろ〜&1&対比&30\\〜&すなわち〜&1&詳細化&30\\〜&〜からだ&1&理由&30\\\hline\end{tabular}\end{small}\end{center}\end{table}\item語連鎖の検出一般に文は主題を示す部分(主題部)とそれ以外の部分(非主題部)に分けることができ,主題を\ref{subsec:topic_feature}\,節で付与した主題属性のついている文節から名詞をとり出したもの,焦点を非主題部の名詞とする.そして,二文間で,主題と主題,焦点と主題に語の連鎖(同一の語/句の出現)がある時は,それぞれ,主題連鎖,焦点主題連鎖の結束関係に確信度を与える.語連鎖は,完全一致と部分一致を考え,完全一致の場合は確信度15点を,部分一致の場合は確信度10点を与える.\item二文間の類似度二文が並列または対比の関係にある場合,それらはある種の類似性を持つと仮定することができる.二文間の類似度は,一文内の節の係り受け関係の所で述べた,任意の文節列間の類似度計算の方法で計算することができる.そして,一文内の対比/並列の関係の検出と同じように,二文における主題が類似している場合は対比の関係に,類似していない場合は並列の関係に確信度を与える.以下の例では,二文が類似しており,主題属性が付与されていない文\ref{ex:23}\,の「1月23日から」と,主題属性が付与されている文\ref{ex:28}\,の「1月28日から」に高い類似が認められるので,対比の関係に確信度を与え,「1月23日から」に主題属性を付与する.\ex.\a.国道2号線が開通した\Underline{1月23日から,}大阪〜神戸間の代替バス輸送が実施された.\label{ex:23}\b.\Underline{1月28日からは,}国道2号,43号線に代替バス優先レーンが設置され,効率的・円滑な運行が確保された.\label{ex:28}\\\par\end{enumerate}
\section{スライドに表示するテキストの抽出}
\label{sec:topic_extract}この章では,入力テキストから,スライドに表示するテキストを抽出する手法を説明する.\ref{subsec:relation_two_sentences}\,節で述べたように,文は主題部と非主題部から成る.入力テキストから文を抽出してそのままスライドに配置するのではなく,主題部と非主題部を分けてスライドに配置することにより,スライドを見やすいものとする.また,非主題部は一般に長いことが多いので,非主題部の簡約を行なうことにより,スライドを見やすくする.主題部と非主題部の抽出は,\ref{subsec:divideintonodes}\,節で分割した節を基本単位として行なう.一連の解析の様子を図\ref{fig:topic_extract}\,に示す.\begin{figure*}[t]\begin{center}\includegraphics[scale=.4]{extract_topic-j.eps}\caption{主題部・非主題部の抽出と非主題部の簡約}\label{fig:topic_extract}\end{center}\end{figure*}\subsection{主題部・非主題部の抽出}\label{subsec:extract_topic}\ref{subsec:topic_feature}\,節で付与した主題属性をもとに,主題部の抽出を行なう.主題属性が付与された文節から構文木を子の方向にたどって句を抽出し,それを主題部とし,残りの部分を非主題部とする.以下の例では,「延焼速度」が主題部として抽出され,「おおむね20〜40\,m/h程度で,」が非主題部となる.\ex.\Underline{延焼速度は}おおむね20〜40\,m/h程度で,節に主題属性が付与された文節が複数存在する場合は,そのうち一番前にあるもののみを抽出する.以下の例では,「震災初日の被災地内では」と「視聴は」に主題属性が付与されているが,一番前の「震災初日の被災地内では」を主題部として抽出し,残りを非主題部とする.\ex.震災初日の被災地内\underline{\underline{では}}停電などによりテレビの視聴\Underline{は}ほとんどできず,\label{ex:double_topic}ただし,主題属性のついているもので,対比関係にあると解析されたものは必ず抽出する.以下の例では,前の節と後の節が対比の関係にあり,「神戸市では」に主題属性に主題属性が付与されており,主題属性の付与された「当初は」と「1月22日には」が対比の関係にあると解析されている.このような場合,前の節からは,「神戸市では」と「当初は」の両方を主題として抽出する.\ex.[\Underline{神戸市では},\Underline{当初は}仮設トイレ300基程度で足りると考えていたが,][\Underline{1月22日には}「仮設トイレ対策本部」を設置し対応することとなった.]\subsection{非主題部の簡約}スライドを見やすいものとするためには,できるだけ入力テキストの情報を保持した上で,テキストを簡約する必要がある.本研究では,(1)構文解析結果に基づく不要な語あるいは語句の削除,(2)節末の用言の整形により,非主題部の簡約を行なう.\begin{enumerate}\item構文解析結果から不要部分の削除構文解析結果から以下の不要な語句の削除を行なう.\begin{itemize}\item接続詞\item副詞\itemレベル:Aの節\item副詞句例)\Underline{バッテリー切れによる利用不能のほか},救援・復旧関係者による被災地外から大量持ち込みによる輻輳の発生で利用できなくなった.\item同格:節末の用言の子の文節に「〜など」があれば削除する.例)\Underline{農林水産省,国土庁など}国の各機関\end{itemize}\item節末の用言の整形次のようなルールにより節末の用言の整形を行なう.\begin{itemize}\itemサ変名詞+する/された$\rightarrow$サ変名詞例)実施された$\rightarrow$実施\itemサ変名詞+が行われた$\rightarrow$サ変名詞例)輸送が行われた$\rightarrow$輸送\item名詞+判定詞$\rightarrow$名詞例)無被害であった$\rightarrow$無被害\itemナ形容詞/ナノ形容詞$\rightarrow$活用語尾を削除例)軽微であった$\rightarrow$軽微\end{itemize}ただし,節末の用言に否定表現を含む場合は,否定表現を削除してしまわないように,否定表現より後の部分の整形を行なう.\end{enumerate}\begin{center}\begin{table}[t]\caption{重要説明表現}\label{significant_words}\begin{center}\begin{tabular}[tb]{l|l}\hline格&用言\\\hlineガ格&重要だ,本質をつく,エッセンスだ,\\&ポイント,望ましい,鍵だ,大切だ,\\&有益だ,必要だ,指摘された\\\hlineヲ格&重視する,重要視する,明らかにする,\\&明確にする,取り上げる\\\hlineニ格&着目する,重点を置く,注目する\\\hline\end{tabular}\end{center}\end{table}\end{center}\subsection{強調表示}\label{subsec:emphasize}節末の用言が表\ref{significant_words}\,にあげるもので,かつ,指定された格を持つ場合,重要表現とみなし,次節で説明するスライドの出力の際に,この節の非主題部の強調表示を行なう.以下の例では,格解析の結果,「ことも」がガ格と解釈され,「指摘された」がガ格を持つことになるので,スライドの生成の際に強調表示を行なう.\ex.大規模な供給施設が液状化地域に設置されていなかった\Underline{ことも}指摘された.
\section{スライドの生成}
\label{sec:output_slide}図\ref{fig:slide_output}\,に示すように,\ref{sec:ds_analysis}\,章で解析した談話構造に基づいて,\ref{sec:topic_extract}\,章で抽出した主題部,非主題部を次にあげるルールでスライドに配置する(図において,T,Nはそれぞれ主題部,非主題部を表す).\begin{figure*}[t]\begin{center}\includegraphics[scale=.45]{slide_output2-j.eps}\caption{談話構造に基づくスライドの生成}\label{fig:slide_output}\end{center}\end{figure*}\begin{itemize}\itemメタデータなどで,入力テキストにタイトルがある場合,そのままスライドのタイトルとする.タイトルがない場合は,入力文の最初の主題部をスライドのタイトルとする.\item文の先頭から順番に,各節において,主題部があれば出力し,インデントを一つ下げて次の行に,非主題部を出力する.主題部がなければ,非主題部だけを出力する.以下の例のように,節に主題が二つある場合は,一つ目の主題部を出力し,インデントを一つ下げて次の行に二つ目の主題部を出力し,さらにインデントを一つ下げて次の行に非主題部を出力する.\ex.\Underline{神戸市では},\Underline{当初は}仮設トイレ300基程度で足りると考えていたが,\vspace{-3mm}\begin{center}$\Downarrow$\end{center}\vspace{-3mm}\begin{minipage}[t]{0.75\hsize}\begin{itemize}\item神戸市\begin{itemize}\item当初\begin{itemize}\item仮設トイレ300基程度で足りると考えていた\end{itemize}\end{itemize}\end{itemize}\end{minipage}\vspace{4mm}また,\ref{subsec:emphasize}\,節の処理により,非主題部が重要表現とみなされている場合は,強調表示を行なう.\item節のインデントのレベルを親との結束関係に応じて以下のように設定する.\begin{itemize}\item\textbf{初期化:}インデントレベルを0にする.\item\textbf{並列/対比:}同じにする.\item\textbf{主題連鎖:}主題部が親と同じ場合は,インデントを下げずに非主題部だけを出力する.主題部が異なっている場合は,インデントを下げて,主題部と非主題部を出力する.\item\textbf{その他:}親に対してインデントを一つ下げて出力する.\end{itemize}\end{itemize}出力される箇条書きの行数が閾値以上となる場合,各スライドの行数が閾値以下になるように分割し,複数のスライドを生成する.また,多くの研究者が指摘しているように,一般に談話構造の根に近い方が文の重要度が高いと考えられるので,談話構造は要約生成のための手がかりとなりうる\cite{Ono94,Marcu99a}.従って,根に近い文から抽出したテキストをスライドに出力し,談話構造木のある深さ以上の文から抽出したテキストはスライドに出力しないといった処理を行なうことにより,スライドに表示するテキストの量を制御することができる.しかし,自動生成したスライドを音声合成とともにユーザに提示する場合,音声に対応するテキストが全くないとユーザが違和感を感じてしまうので,上記の処理を行なわなかった.
\section{実装と評価}
\label{sec:evaluation}\subsection{text-to-presentationシステムの実装}\begin{figure*}[t]\begin{center}\includegraphics[scale=.29]{screenshot.eps}\caption{システムのスクリーンショット}\label{fig:screenshot}\end{center}\end{figure*}この節では,実装したtext-to-presentationシステムについて説明する.このシステムでは,ユーザは自然言語でクエリを入力すると,クエリに関するプレゼンテーションを閲覧することができる.本稿では,テキスト集合として,阪神淡路大震災教訓資料集\footnote{http://www.hanshin-awaji.or.jp/kyoukun/}を用いた.この資料集はHTMLで書かれており,HTMLタグを手がかりとして400テキストに自動分割することによりテキスト集合とした.各テキストにはタイトルが付与されており,スライドのタイトルとして利用した.テキストの平均文数は3.7,一文あたりの平均文字数は50であった.システムはまず,Kiyotaらの手法を用いて,ユーザからのクエリと最も類似したテキストを検索する\cite{Kiyota02}.その後,書き言葉を話し言葉に変換して音声合成に入力し,同時に,本稿で述べた手法で生成したスライドをユーザに提示する.図\ref{fig:screenshot}\,に示すように,本システムはWebブラウザ上で動作する.テキストから複数のスライドが生成された場合は音声合成と同期してスライドの表示を切り換える.\subsection{評価と考察}「ボランティアの役割」「火災の原因にはどのようなものがありますか」などといったユーザからの30クエリから検索されたテキストからスライドを生成し,談話構造解析と生成されたスライドの評価を行なった.書き言葉からの話し言葉への変換とテキスト検索の評価に関しては,それぞれ\cite{Kaji02,Kaji04},\cite{Kiyota02}に譲る.入力テキストと自動生成されたスライドのサイズを比較した平均圧縮率は0.797であった.\begin{center}\begin{table}[t]\small\caption{談話構造解析の精度}\label{tab:evaluation}\begin{center}\begin{tabular}[tb]{c|c}\hline&精度\\\hline節間の関係&30/39(76.9\%)\\\hline文間の関係&60/89(67.4\%)\\\hline\end{tabular}\end{center}\end{table}\end{center}\subsubsection{談話構造解析の評価}談話構造解析の精度を表\ref{tab:evaluation}\,に示す.評価は,節または文の接続先と結束関係が正しいかで行なった.談話構造解析の主な誤り原因を以下に示す.\paragraph{語連鎖の検出もれ}以下の例では1文目の「震災」と2文目の「地震」の関係が捉えられず,2文目で初期化されてしまっている.\ex.\a.\Underline{震災}直後には,神戸市によって神戸市外語大のホームページに被害写真が掲載され,海外に被害の大きさを知らせた.\b.パソコン通信ニフティサーブでは「\Underline{地震}情報コーナー」が開設され,ボランティア情報,安否情報,行政情報など各種の情報提供に用いられた.この問題には,国語辞典やシソーラスを用いて表現のずれを認識することにより対処することができると考えられる.また,本稿で扱ったテキストは書き言葉のため,語が省略されているために語連鎖が捉えられない例はそれほどなかったが,以下のような例では,「延焼速度」には「火災の」が省略されており,この関係が捉えられていないため,二文間の関係を主題連鎖と解析することができず,初期化されてしまった.\ex.\a.このうち焼損面積10,000平方メートル以上の火災は,特に神戸市長田区などで集中的に発生した.\b.\Underline{延焼速度は}おおむね20〜40\,m/h程度で,過去の都市大火事例等と比較して極めて遅かった.この問題には省略・照応解析を行なうことで対処する予定である.\paragraph{対比関係の検出もれ}名詞と句/節などが対比の関係にある時に,対比関係を検出できないことがあった.以下の例では,「震災直後に」と「震災から1週間程度を経ると」の対比関係を検出できなかった.\ex.\a.\Underline{震災直後に}被災者が必要としたのは,地震の規模や発生場所,被害状況などの被害情報,家族や友人・知人の消息に関する安否情報などだった.\\\b.\Underline{震災から1週間程度を経ると},長期的な生活に関わる情報として,住宅やり災証明を始めとする各種申請などの情報も求められた.また,以下の例では,「当初の」,「時間とともに」の対比関係が検出できなかった.\ex.ボランティアの\Underline{当初の}役割は,医療,食糧・物資配給,高齢者等の安否確認,避難所運営等だったが,\Underline{時間とともに},物資配分,引っ越し・修理,高齢者・障害者のケアなどへと変化していった.\\この問題には,「時間とともに」や「震災から1週間程度を経ると」が時間に関する表現であることを認識するためのルールを用意した上で,節/文の類似度を計算することで対処することができると考えられる.また,本稿で対象とした地震ドメインのテキストにはシソーラスにない語が含まれており,語の類似度を正しく計算できないことがあった.それが原因となり,文/節の類似度を正しく計算できないことがあった.この問題には地震ドメインにおけるシソーラスを人手で用意するか,コーパスから自動構築することにより対処できると考えられる.\subsubsection{自動スライドの出力例と評価}次に,自動生成したスライドの評価を行なった.評価の基準は,生成されたスライドがユーザの理解を妨げるものとなっていないかどうかとし,スライドのインデント,主題の抽出,文簡約などが適切であるかどうかをもとに評価を行なった.生成した30スライドについて筆者らが評価したところ,15枚については自然であり,12枚は少し不自然なところが含まれており,3つは全体的に不自然であるという結果であった.出力例を図\ref{fig:slide_example1}\,と図\ref{fig:slide_example2}\,に示す.図\ref{fig:slide_example1}\,の例では,「断水」,「停電」,「都市ガスの供給停止」の対比関係が正しく解析され,また,「明かりに不自由しながらの診察・治療が行われ」と「手動の人工呼吸器を押し続ける姿も見られた」の並列関係で項目を分割することにより,見やすいスライドとなっている.また,2文目の「医療用水のほか」の簡約や,「(治療)が行なわれ」の整形などが行なわれている.\begin{figure}[t]\begin{center}\fbox{\begin{minipage}[t]{\hsize}断水により,水の調達に苦慮した医療機関が多かった.断水の影響には,医療用水のほか,ボイラー用水や,コンプレッサー・自家用発電機等の冷却水が得られないという面もあった.停電により,明かりに不自由しながらの診察・治療が行われ,手動の人工呼吸器を押し続ける姿も見られた.都市ガスの供給停止により,入院患者の食事提供に影響があった病院もある.\end{minipage}}\vspace{2mm}$\Downarrow$\vspace{2mm}\begin{minipage}[t]{\hsize}\begin{shadebox}\vspace{2mm}\begin{center}被災地医療機関\end{center}\begin{itemize}\item断水\begin{itemize}\item水の調達に苦慮した医療機関が多かった\item断水の影響\begin{itemize}\itemボイラー用水や,コンプレッサー・自家用発電機等の冷却水が得られないという面もあった\end{itemize}\end{itemize}\item停電\begin{itemize}\item明かりに不自由しながらの診察・治療\item手動の人工呼吸器を押し続ける姿も見られた\end{itemize}\item都市ガスの供給停止\begin{itemize}\item入院患者の食事提供に影響があった病院もある\end{itemize}\end{itemize}\vspace{2mm}\end{shadebox}\end{minipage}\caption{出力例1}\label{fig:slide_example1}\end{center}\end{figure}また,図\ref{fig:slide_example2}\,の例では,1文目の主題「代替バス利用者」が抽出され,「当初」,「バスレーン設置後」,「3月末」の対比関係が正しく解析されている.しかし,2文目では,「代替バス」と「バスレーンの設置後」が対比していると間違って解析されており,正しくは,「当初」と「バスレーンの設置後」が対比関係にある.この対比関係を正しく解析できるようにした上でさらにこのスライドをよくするには,2文目からは「利用時間」という主題を取り出し,1文目の「代替バス利用者」と対比させるのが望ましいが,これはかなり難しい処理であるといえる.\begin{figure}[t]\begin{center}\fbox{\begin{minipage}[t]{\hsize}代替バス利用者は,当初は1日あたり3〜5万人であったが,バスレーン設置後は上昇し,3月末までは1日約20万人が利用した.当初,代替バスは交通渋滞に巻き込まれ,通行に多くの時間を要したが,バスレーンの設置後は約半分の所要時間に短縮されるなど,徐々に時間は短縮された.\end{minipage}}\vspace{2mm}$\Downarrow$\vspace{2mm}\begin{minipage}[t]{\hsize}\begin{shadebox}\vspace{2mm}\begin{center}鉄道の復旧\end{center}\begin{itemize}\item代替バス利用者\begin{itemize}\item当初\begin{itemize}\item1日あたり3〜5万人\end{itemize}\itemバスレーン設置後\begin{itemize}\item上昇\end{itemize}\item3月末\begin{itemize}\item1日約20万人が利用\end{itemize}\end{itemize}\item代替バス\begin{itemize}\item交通渋滞に巻き込まれ,通行に多くの時間を要した\end{itemize}\itemバスレーンの設置後\begin{itemize}\item約半分の所要時間に短縮されるなど,時間は短縮\end{itemize}\end{itemize}\vspace{2mm}\end{shadebox}\end{minipage}\caption{出力例2}\label{fig:slide_example2}\end{center}\end{figure}自動生成されたスライドで不自然な部分のほとんどは,談話構造解析誤りによるインデントのずれによるものであった.\ref{sec:output_slide}\,章で説明したスライド生成のヒューリスティックルールによる大きな誤りはなく,また,主題部・非主題部の抽出や非主題部の簡約にも大きな誤りは見受けられなかった.現在の文簡約は構文解析結果を基に行なう比較的シンプルなモデルであるが,十分機能しているといえる.しかし,以下のように固有表現にかかる連体節などは削除した方がよりよいスライドになると考えられるので,今後は固有表現抽出を行ない,このような簡約を行なう予定である.\ex.\Underline{大阪と神戸を結ぶ}\underline{\underline{JR神戸線,阪急電鉄神戸線,阪神電鉄本線}}の3線の不通により,一日45万人,ラッシュ時最大1時間12万人の足が奪われた.\ex.\Underline{兵庫県下随一の3次救急医療機関である}\underline{\underline{神戸市立中央市民病院}}は,市街地と島を結ぶ神戸大橋の不通により震災直後の救急患者の受け入れがあまりできなかった.たとえ自動スライドにインデントのずれや抽出したテキストが不自然であるといった誤りが少しあったとしても,入力テキストを音声合成と自動スライドのマルチモーダルに変換することは,ユーザに入力テキストをそのまま提示するよりもはるかによいことが実験により示された.特に,テキストに大きな並列や対比関係がある場合は,入力テキストよりも見やすいスライドを生成できることが確認された.
\section{関連研究}
\label{sec:related_work}Utiyamaらは,GDAで意味情報・文章構造がタグ付けされた文書からスライドショーを生成する手法を提案している\cite{Utiyama99}.GDAタグとは,文書に意味論的構造や語用論的構造を与えるもので,人手で付与される.まず,共参照を示すタグから文章構造をボトムアップに決定する.そして,重要なトピックを抽出し,各トピックに対して関連する文を集め,それらを箇条書きにして一枚のスライドを生成する.GDAタグを用いることにより,ある程度長い文章についても文章構造を解析し,スライドを生成することができるが,GDAタグを付与するコストは大きなものとなる.安村らは,論文からプレゼンテーション資料の作成支援を行なっている\cite{Yasumura03j}.まず,論文中の各セクションに対して,使用するスライドの枚数を割り当て,そして,個々のスライドに対してレイアウトを決定し,論文中から抽出した文や図表といったオブジェクトを配置している.しかし,この研究ではTF*IDF法で重要文を抽出しており,文章構造の解析や文簡約は行なわれていない.また,入力は\TeX形式の論文に限られており,本研究のように生テキストからスライドを生成することができない.次に,個別の処理に関連する研究をあげる.まず,談話構造解析の分野でよく知られているものとして,Marcuらの研究がある\cite{Marcu99b,Marcu00,Carlson01}.彼らは談話構造タグ付きのコーパスを作成し,機械学習の手法を用いることにより談話構造解析を行なっている.彼らの手法には精度の向上が見られるが,談話構造タグ付きコーパスを作成するにはコストがかかってしまう.これに対して,我々の談話構造解析は一般的なヒューリスティックルールに基づいている.我々のシステムの確信度などはもともと比較的少数の科学技術文章を対象に経験的に定めたものであるが,そのままの設定で地震ドメインのテキストに対しても,スライドを生成するのに十分な精度を達成しているといえる.従って,地震ドメインで談話構造タグ付きコーパスを作成し,機械学習を行なう必要はないと考えている.また,文末表現の整形で関連するものとして,\cite{Yamamoto05}の研究がある.この研究では,体言止めや助詞止めといった文末表現に着目し,新聞記事の表現を,新幹線車内や街頭での電光掲示板で流れるニュースで使われる表現に変換する手法を提案している.手法は我々と同じルールベースで,本研究で扱っているものよりも多くのパターンを利用しているが,誤り例も報告されており,我々の扱ったパターンでも十分であると考えている.Jingらは,自動要約の質を向上させるために,新聞記事とそこから作られた人間による要約のペアから文簡約の手法を学習している\cite{Jing00}.本研究においても,論文とプレゼンテーションスライドのペアから文の対応関係をとる研究\cite{Hayama05}を利用して,このアイデアを適用し得ると考えられる.
\section{おわりに}
\label{sec:conclusion}本稿では,テキストからスライドを自動生成する手法について述べた.スライド生成は,談話構造解析,主題部と非主題部の抽出と簡約によるスライドに出力するテキストの抽出,抽出したテキストの適切配置からなる.地震教訓集を入力テキストとして実験を行なったところ,生成されたスライドは入力テキストよりもかなり見やすいものであることが確認された.また,テキストを入力として自動プレゼンテーションを行なう,text-to-presentationシステムの実装を行なった.今後は,談話構造解析,主題の抽出,文簡約などの精度を高めるとともに,実装したtext-to-presentationシステムに会話エージェントを統合しシステムの質を向上させる予定である.また,システム全体が自然なプレゼンテーションであるかや,ユーザの理解の向上に貢献するかについては今後,評価実験を行なう予定である.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Carlson,Marcu,\BBA\Okurowski}{Carlsonet~al.}{2001}]{Carlson01}Carlson,L.,Marcu,D.,\BBA\Okurowski,M.~E.\BBOP2001\BBCP.\newblock\BBOQBuildingaDiscourse-TaggedCorpusintheFrameworkofRhetoricalStructureTheory\BBCQ\\newblockIn{\BemProceedingsofthe2ndSIGDIALWorkshoponDiscourseandDialogue}.\bibitem[\protect\BCAY{Grosz\BBA\Sidner}{Grosz\BBA\Sidner}{1986}]{Grosz86}Grosz,B.~J.\BBACOMMA\\BBA\Sidner,C.~L.\BBOP1986\BBCP.\newblock\BBOQAttention,intentions,andthestructureofdiscourse\BBCQ\\newblock{\BemComputationalLinguistic},{\Bbf12},\mbox{\BPGS\175--204}.\bibitem[\protect\BCAY{Hayama,Nanba,\BBA\Kunifuji}{Hayamaet~al.}{2005}]{Hayama05}Hayama,T.,Nanba,H.,\BBA\Kunifuji,S.\BBOP2005\BBCP.\newblock\BBOQAlignmentbetweenaTechnicalPaperandPresentationSheetsUsingHiddenMarkovModel\BBCQ\\newblockIn{\BemProceedingsofthe2005InternatinalConferenceonActiveMediaTechnology}.\bibitem[\protect\BCAY{Jing}{Jing}{2000}]{Jing00}Jing,H.\BBOP2000\BBCP.\newblock\BBOQSentenceReductionforAutomaticTextSummarization\BBCQ\\newblockIn{\BemProceedingsofthesixthconferenceonAppliednaturallanguageprocessing},\mbox{\BPGS\310--315}.\bibitem[\protect\BCAY{Kaji,Kawahara,Kurohashi,\BBA\Sato}{Kajiet~al.}{2002}]{Kaji02}Kaji,N.,Kawahara,D.,Kurohashi,S.,\BBA\Sato,S.\BBOP2002\BBCP.\newblock\BBOQVerbParaphrasebasedonCaseFrameAlignment\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\215--222}.\bibitem[\protect\BCAY{Kaji,Okamoto,\BBA\Kurohashi}{Kajiet~al.}{2004}]{Kaji04}Kaji,N.,Okamoto,M.,\BBA\Kurohashi,S.\BBOP2004\BBCP.\newblock\BBOQParaphrasingPredicatesfromWrittenLanguagetoSpokenLanguageusingtheWeb\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConference},\mbox{\BPGS\241--248}.\bibitem[\protect\BCAY{Kiyota,Kurohashi,\BBA\Kido}{Kiyotaet~al.}{2002}]{Kiyota02}Kiyota,Y.,Kurohashi,S.,\BBA\Kido,F.\BBOP2002\BBCP.\newblock\BBOQDialogNavigator:AQuestionAnsweringSystembasedonLargeTextKnowledgeBase\BBCQ\\newblockIn{\BemProceedingsof19thCOLING},\mbox{\BPGS\460--466}.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1994}]{KNP94}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQAsyntacticanalysismethodoflongJapanesesentencesbasedonthedetectionofconjunctivestructures\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf20}(4).\bibitem[\protect\BCAY{Longacre}{Longacre}{1983}]{Longacre83}Longacre,R.\BBOP1983\BBCP.\newblock{\BemTheGrammarofDiscourse}.\newblockNewYork:PlenumPress.\bibitem[\protect\BCAY{Marcu}{Marcu}{1999a}]{Marcu99b}Marcu,D.\BBOP1999a\BBCP.\newblock\BBOQAdecision-basedapproachtorhetoricalparsing\BBCQ\\newblockIn{\BemProceedingsofthe39thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\365--372}.\bibitem[\protect\BCAY{Marcu}{Marcu}{1999b}]{Marcu99a}Marcu,D.\BBOP1999b\BBCP.\newblock\BBOQDiscoursetreesaregoodindicatorsofimportanceintext\BBCQ\\newblockInI.Mani\BBACOMMA\\BBA\M.Maybury\BEDS,{\BemAdvancesinAutomaticTextSummarization},\mbox{\BPGS\123--136}.TheMITPress.\bibitem[\protect\BCAY{Marcu}{Marcu}{2000}]{Marcu00}Marcu,D.\BBOP2000\BBCP.\newblock\BBOQTheRhetoricalParsingofUnrestrictedTexts:ASurface-BasedApproach\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf26}(3),\mbox{\BPGS\395--448}.\bibitem[\protect\BCAY{NTTコミュニケーション科学研究所}{NTTコミュニケーション科学研究所}{1997}]{NTT}NTTコミュニケーション科学研究所\BBOP1997\BBCP.\newblock\JBOQ日本語語彙大系\JBCQ\\newblock岩波書店.\bibitem[\protect\BCAY{Ono,Sumita,\BBA\Miike}{Onoet~al.}{1994}]{Ono94}Ono,K.,Sumita,K.,\BBA\Miike,S.\BBOP1994\BBCP.\newblock\BBOQAbstractgenerationbasedonrhetoricalstructureextraction\BBCQ\\newblockIn{\BemProceedingsofthe15thCOLING},\mbox{\BPGS\344--348}.\bibitem[\protect\BCAY{Polanyi}{Polanyi}{1988}]{Polanyi88}Polanyi,L.\BBOP1988\BBCP.\newblock\BBOQAformalmodelofthestructureofdiscourse\BBCQ\\newblock{\BemJounnalofPragmatics},{\Bbf12},\mbox{\BPGS\601--638}.\bibitem[\protect\BCAY{Utiyama\BBA\Hasida}{Utiyama\BBA\Hasida}{1999}]{Utiyama99}Utiyama,M.\BBACOMMA\\BBA\Hasida,K.\BBOP1999\BBCP.\newblock\BBOQAutomaticSlidePresentationfromSemanticallyAnnotatedDocuments\BBCQ\\newblockIn{\Bem1999ACLWorkshoponCoreferenceandItsApplications}.\bibitem[\protect\BCAY{安村禎明\JBA武市雅司\JBA新田克己}{安村禎明\Jetal}{2003}]{Yasumura03j}安村禎明\JBA武市雅司\JBA新田克己\BBOP2003\BBCP.\newblock\JBOQ論文からのプレゼンテーション資料の作成支援\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf18}(4),\mbox{\BPGS\212--220}.\bibitem[\protect\BCAY{山本和英\JBA池田諭史\JBA大橋一輝}{山本和英\Jetal}{2005}]{Yamamoto05}山本和英\JBA池田諭史\JBA大橋一輝\BBOP2005\BBCP.\newblock\JBOQ「新幹線要約」のための文末の整形\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(6),\mbox{\BPGS\85--111}.\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1994}]{Kurohashi94j}黒橋禎夫\JBA長尾眞\BBOP1994\BBCP.\newblock\JBOQ表層表現中の情報に基づく文章構造の自動抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf1}(1),\mbox{\BPGS\3--20}.\bibitem[\protect\BCAY{南不二男}{南不二男}{1993}]{Minami93}南不二男\BBOP1993\BBCP.\newblock\Jem{現代日本語文法の輪郭}.\newblock大修館書店.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{柴田知秀}{2002年東京大学工学部電子情報工学科卒業.2004年東京大学大学院情報理工学系研究科修士課程修了.現在,東京大学大学院情報理工学系研究科博士課程在学中.自然言語処理の研究に従事.}\bioauthor{黒橋禎夫}{1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V17N04-05 | \section{はじめに}
\resp{コミュニケーションの手段として,メールやWebの掲示板を日常的に利用するシーンは非常に多い.}メール\resp{やWebの掲示板}によるコミュニケーションの特徴として,非言語情報が欠落しているため,会話時に相手から感じる対人圧力が低くなり,気軽に考えていることを書き出すことができるメリットがあげられる\cite{sugitani20070320}.しかし一方で,\resp{メッセージ}の受け取り手は\resp{テキスト}の内容のみから相手の考えを読み取らなければならないため,ちょっとした言葉の誤解が,感情的な問題へと発展していくことがある\cite{小林正幸}.また,書き方によっては書き手の感情が伝わりにくいことがあったり\cite{katou20051020},書き手はそれほど怒っていないにもかかわらず,非常に怒っているようにとらえられたりと,過剰に感情が伝わってしまうこともある\cite{小林正幸}.このように,\resp{書き手が思っている程,伝えたいことが相手に伝わらない傾向があるため{\cite{citeulike:528278}},メールやWebの掲示板では相手に誤解を与えやすいというデメリットを持っているといえる.}そこで我々は上記の問題点を解決するため,\respeqn{テキスト}から読み手が想起する書き手の感情を推定し,推定結果を書き手に示すことで\resp{テキスト}を書き手に修正させ,相手に誤解を与えないようにするシステムの開発を目指した研究を行っている.このようなシステムを実現するためには,\resp{読み手が想起する書き手の感情をテキスト中の発話文}から推定する手法が必要となる.\respeqn{発話文}からの感情推定手法として,目良らは複数の事象の格フレームタイプのうち,どれに入力文が当てはまるかを判定し,該当した格フレームタイプに対応する情緒計算式を用いて発話者の感情が快か不快かを判定する手法を提案している\cite{mera}.この手法では,あらかじめ用意した情緒計算式のほかに,ユーザの嗜好情報を基にした単語に対する好感度データを用いる.単語に限らず,文の冒頭に現れる副詞や文末表現によって話し手の意図や心的態度を表すモダリティ\cite{modality2}も,感情推定に有用であることが考えられる.文末表現から情緒を推定する可能性についての検討を徳久らが行っており\cite{徳久雅人:20080131},文末表現と情緒の間に若干の相関がみられたと報告している.単語や文末表現に感情の属性を振ったとしても,単語や文末表現の組み合わせによって感情が変化すると考えられる.そのため,単語や文末表現を用いて感情推定を行うためには,これらの組み合わせに対応して感情を出力するルールの作成が必要になると考えられる.ルールの例として,例えば``嬉しい''という語に``喜び''の属性が割り振られていたとする.ここで``嬉しいことなんてひとつもない''という文の感情を推定する場合,推定結果としては``喜び''ではなく``悲しみ''や``怒り''といった感情が出力されるべきである.``喜び''の単語が含まれているからといって,単純に``喜び''を出力してよいわけではない.ここで``悲しみ''や``怒り''を出力するためのルールを作成しておくことで,感情推定が可能になる.しかし,このようなルールの作成は単語に感情の属性を割り振る作業以上にコストがかかると考えられる.この問題を解決する方法として,三品らは用例に基づく感情推定手法を提案している\cite{aiac}.この手法では,発話者が表現している感情ごとに\respeqn{発話文}を分類した感情コーパスを用い,入力文と最も類似度が高い発話文が含まれる感情コーパスの感情を推定結果として得る.類似度計算には機械翻訳システムの性能のスコアを求めるBLEU\cite{bleu}を用いている.この手法を実装するためには発話文を収集して感情ごとに分類した感情コーパスを構築すればよく,先に述べた例のようなルールを作成する必要がない.しかし,この手法は感情推定成功率が決して高くないため,類似度の計算式を改良する必要がある.この方法では入力文とコーパス中の各文の類似度を計算し,その最大値の文が持つ感情を出力している.そのため,次のような特異な文によって感情推定に失敗することがある.\begin{enumerate}\item感情が異なっていても,たまたま表現や文型が類似している文\label{enum:prob1}\itemコーパスを構築する際に誤って分類された文\label{enum:prob2}\end{enumerate}感情が異なるが類似している文の例として,``嫌悪''の文``嫌いなんです''と``喜び''の文``好みなんです''があげられる.ともに\resp{名詞の後に``なんです''}が続く形となっており,文型が類似している.ここで入力文として``好きなんです''が与えられたとき,入力文の``なんです''は二つの文に存在しており,形態素数も同じであるため,``嫌悪''と``喜び''の文とのBLEUスコアは同じになってしまう.その結果,``嫌悪''と``喜び''が出力されてしまう.この推定結果としては``喜び''のみが出力されることが適切であると考えられる.また,コーパスを構築する際には誤って分類される\respeqn{発話文}を完全に取り除くことは非常に困難であると考えられる.このことから,誤って分類された\respeqn{発話文}の影響を最小限に抑える手段が必要となる.本稿では三品らの手法を改善し,(\ref{enum:prob1})や(\ref{enum:prob2})の文による影響を抑え,感情推定成功率を向上させる手法を提案する.本稿では,まず\ref{sec:conventional}章で従来手法である``BLEUを類似度計算に用いた用例に基づく感情推定手法''について述べる.次に\ref{sec:proposed_method}章で,従来手法で用いられていた類似度計算式とは異なる新たな類似度計算式を提案する.また,この新たに提案する類似度計算式で,どのようにして従来手法の問題点を解決するかについて述べる.そして\ref{sec:ev}章では従来手法と提案手法の感情推定成功率の比較を行う.また三品らの方法とは異なる感情推定の従来法として,SVMを用いた感情推定を行い,結果を比較する.最後に\ref{sec:conclusion}章でまとめと今後の課題を述べる.
\section{BLEUを類似度計算に用いた用例に基づく感情推定手法}
\label{sec:conventional}\subsection{概要}\begin{figure}[b]\begin{center}\includegraphics{17-4ia6f1.eps}\end{center}\caption{用例に基づく感情推定}\label{fig:estimation}\end{figure}\resp{三品らによって提案された類似度計算を用いた用例に基づく感情推定アルゴリズムは次の式で定式化される.}\pagebreak\begin{equation}\respeqn{E(x)=\argmax_{e}sim(x,s)\hspace{1em}(s\inC_{e})}\end{equation}\resp{ここで{$x$}を入力文,{$E(x)$}を推定結果となる感情,{$C_{e}$}を感情{$e$}のコーパス,{$s$}を{$C_{e}$}に含まれる文,{$sim(x,s)$}を{$x$}と{$s$}の類似度を返す関数とする.三品らは{$sim(\cdot)$}にBLEU{\cite{bleu}}を用いている.}この手法は,発話文を発話者の感情別に分類して構築した感情コーパスを用いることで感情推定を行う用例ベースの手法である.発話文の分類先は,発話文の収集者が発話者の感情を判定することで決定する.図\ref{fig:estimation}に発話文からの感情推定の流れを示す.まず発話者の感情によって分類された感情コーパスを用意しておく.次に発話者の感情を推定する対象となる発話文を入力とする.そして,各感情コーパスに含まれる発話文と入力文との類似度を求める.最後に各感情コーパス別に,得られた類似度の最大値を求める.この類似度が入力文が表現している感情のスコアとなる.スコアは0から1までの値をとり,値が大きいほどその感情を表しているという意味になる.得られた類似度の中で最も値が大きい類似度の感情を,感情推定結果として出力する.この方法では図\ref{fig:estimation}における類似度の計算にBLEUを用いている.用例ベースではない手法では,単語や文末表現への感情属性の付与や,単語や文末表現の組み合わせから感情を導出するルールを作成する必要が出てくるため,作業コストが非常に高いと考えられる.しかし従来手法のような用例ベースのシステムを構築する際には,発話文を集め,発話者の感情ごとに発話文を分類してコーパスを構築すればよく,用例ベースではない手法と比べて作業コストが低いと考えられる.\subsection{BLEU}BLEUは機械翻訳システムが出力した複数の翻訳候補文から,システムの翻訳精度を評価するための尺度である.BLEUは次のとおりに定義されている\cite{bleu}.\begin{equation}\respeqn{{\rmBLEU}(x,y)={\rmBP}\cdot\exp\left(\sum^{\rmN}_{n=1}\frac{1}{\rmN}\logp_{n}(x,y)\right)}\label{eq:bleu}\end{equation}なお,\cite{bleu}では${\rmN}=4$を用いている.\resp{{$p_{n}(x,y)$}}は機械翻訳文\resp{{$x$}}と人による翻訳文\resp{{$y$}}における共通\NGRAM数の適合率(\NGRAM適合率)\resp{を返す関数}であり,$\rmBP$は機械翻訳文が人による翻訳文に比べて簡潔すぎることによる適合率のペナルティである.三品らの方法では,BLEUにおける機械翻訳文をコーパス中の1文,人による翻訳文を入力文と変更して,類似度計算に用いている\resp{(以下,式({\ref{eq:bleu}})を{$sim_{\bleu}$}と表記する)}.\subsubsection{\NGRAM適合率}\NGRAM適合率\resp{{$p_{n}(x,s)$}}は,入力文\respeqn{$x$}と感情コーパス中の1文\respeqn{$s$}の間で共通な\NGRAMが多く存在するかを表す値である.共通な\NGRAMが多いほど\resp{{$p_{n}(\cdot)$}}は大きくなる.\respeqn{$x$}と\respeqn{$s$}を用いて,\resp{{$p_{n}(x,s)$}}は次のとおりに定義されている.\begin{gather}p_{n}(x,s)=\frac{\displaystyle\sum_{\ngram\inG_{n}(s)}Count^{*}_{n}(x,s,\ngram)}{\displaystyle\sum_{\ngram\inG_{n}(s)}Count_{n}(s,\ngram)}\\Count^{*}_{n}(x,s,\ngram)=\min\left\{Count_{n}(x,\ngram),Count_{n}(s,\ngram)\right\}\label{eq:pn}\end{gather}\resp{ここで{$G_{n}(s)$}を{$s$}に含まれる``連続する{$n$}個の形態素から作られる形態素N-gram''の集合を返す関数とする.{$Count_{n}(x,\ngram)$}は,{$x$}中の{$\ngram$}の出現数を返す}\footnote{\resp{形態素同士の比較は,形態素の文字列と形態素の品詞を用いて行う.これらが一致していれば,二つの形態素は等しいとする.}}.\respeqn{$s$}が\respeqn{$x$}と共通な\NGRAMを持っていなければ\resp{{$Count^{*}_{n}(\cdot)$}}は\resp{すべての{$w_{n}$}で}0になるため,\resp{{$p_{n}(\cdot)$}}は入力文と感情コーパス中の1文がどれほど共通な\NGRAMを持っているかの指標となる.\resp{{$p_{n}(\cdot)$}}を求める例として,形態素unigramの適合率\resp{{$p_{1}(x,s)$}}と形態素bigramの適合率\resp{{$p_{2}(x,s)$}}を計算する.\respeqn{$x$}を``明日からの旅行が楽しみです'',\respeqn{$s$}を``明日がすごく楽しみです''とする.このときの形態素unigramの\resp{{$Count_{1}(\cdot)$}}と\resp{{$Count^{*}_{1}(\cdot)$}}の値を表\ref{table:count1}に示す\footnote{\resp{本稿では形態素を``形態素の文字列/品詞''の形式で表記する.}}.表\ref{table:count1}と式(\ref{eq:pn})より,\resp{{$p_{1}(x,s)$}}は$1/2$であることがわかる.また形態素bigramの\resp{{$Count_{2}(\cdot)$}}と\resp{{$Count^{*}_{2}(\cdot)$}}の値を表\ref{table:count2}に示す.表\ref{table:count2}と式(\ref{eq:pn})より,\resp{{$p_{2}(x,s)$}}は$2/5$であることがわかる.なお,形態素bigramには文頭や文末を表す記号は\cite{bleu}と同様に用いていない.\begin{table}[t]\caption{$Count_{1}とCount^{*}_{1}$の例}\label{table:count1}\input{06table01.txt}\end{table}\begin{table}[t]\caption{$Count_{2}とCount^{*}_{2}$の例}\label{table:count2}\input{06table02.txt}\end{table}\subsubsection{適合率のペナルティ}ここでは感情コーパス中の1文\respeqn{$s$}が入力文\respeqn{$x$}に比べて簡潔すぎることによる適合率のペナルティBPについて説明する.\respeqn{$s$}が\respeqn{$x$}に比べて簡潔すぎる場合,\respeqn{$s$}に含まれるほとんどの形態素を\respeqn{$x$}が含んでいる可能性がある.この場合は$p_{n}$が大きくなり,BLEUスコアが高くなってしまう.つまり,簡潔な文を数多く含んでいる感情コーパスのほうが,入力文との類似度が高くなりやすくなってしまうので,これを防ぐためにBPが用いられる.\resp{{$g(x)$}}を\resp{{$x$}}の形態素数を返す関数として,${\rmBP}$は次のとおりに定義される.\begin{equation}{\rmBP}=\left\{\begin{array}{lll}1&{\rmif}&\respeqn{g(x)<g(s)}\\e^{(1-\respeqn{g(x)}/\respeqn{g(s)})}&&\respeqn{{\rmotherwise}}\\\end{array}\right.\label{eq:bp}\end{equation}\respeqn{$x$}を``明日からの旅行が楽しみです'',\respeqn{$s$}を``明日がすごく楽しみです''としたとき,$\respeqn{g(x)}=7$,$\respeqn{g(s)}=6$となるため,${\rmBP}=e^{1-7/6}\approx0.846$となる.これは\respeqn{$s$}が短かすぎるため,適合率へペナルティが課せられることを意味する.
\section{提案手法}
\label{sec:proposed_method}\subsection{\respeqn{コーパスごとの出現回数を考慮したペナルティ}}三品らの方法には次のような文の影響を受け,感情推定に失敗する問題点がある.\begin{enumerate}\item感情が異なっていても,たまたま表現や文型が類似している文\itemコーパスを構築する際に誤って分類された文\end{enumerate}これらの文が影響を及ぼしてしまう原因として,1文対1文の類似度のみを用いて感情推定を行っている点があげられる.これが原因で,例えば``喜び''の文を入力したとしても,この入力文と表現や文型が類似している文が``希望''のコーパスに存在していれば,感情推定結果として``希望''が出力される可能性が非常に高くなる.また,``喜び''の文を``希望''のコーパスに分類されてしまっていた場合,``喜び''の文を入力した時に``希望''が出力される可能性もある.\resp{この問題を解決するために,形態素N-gram適合率に対して新たなペナルティFPを導入する.FPは入力文の形態素列が各感情コーパスにどの程度偏って存在するかを表す指標であり,各感情コーパス中の出現頻度から計算される.この指標を用いる理由は,入力文に含まれる形態素列が,他の感情コーパスに比べて相対的に数多く出現している感情コーパスの感情を,入力文は表現している可能性が高いのではないか,と考えたためである.入力文{$x$}において,感情{$e$}に対するFPを次のとおりに定義する.}\begin{equation}\respeqn{{\rmFP}_{n}=\frac{1}{\left|G_{n}(x)\right|}\sum_{\ngram\inG_{n}(x)}{\frac{\freq{C_{e}}{\ngram}}{\displaystyle\sum_{c\inC}{\freq{c}{\ngram}}}}\label{eq:wn}}\end{equation}\resp{ここで{$C$}をすべての感情コーパス,{${freq_{\itC_{e}}}$}を感情コーパス{$C_{e}$}における{$\ngram$}の出現回数を返す関数とする.FPは,たまたま1文対1文の類似度が高かったとしても,類似度計算に用いている文を含むコーパスにおいて入力文の形態素列の出現回数が少なければ,求められる類似度を低く押さえる効果を持つ.これにより,(1)と(2)の文による影響を改善する.}\resp{一般に,一部の文書に偏って存在している単語を表す指標として,TF-IDFがよく用いられている.その意味では,FPのかわりにTF-IDFを用いる方法が考えられる.しかしTF-IDFは,ある感情コーパス中の絶対的な出現頻度({\ittf}値)を,他の感情コーパスにも出現しているかどうか,という形態素N-gramの一般性を示す値({\itidf}値)を用いて修正したものであり,ある感情コーパス中での出現頻度が低い形態素N-gramであれば,たとえその感情コーパスに偏って存在していたとしても,その値は低いものとなる.そのため,TF-IDFを類似度計算に導入したとしても,FPよりその効果は薄いものとなることが予想される.}\subsection{\respeqn{RECARE}}従来手法で用いられていた\resp{{$sim_{\rmBLEU}$}に{${\rmFP}_{n}$}を導入し,\pagebreak更に式を適切に変更することで,``類似しているが感情が異なる文''や,``コーパス構築時に誤って分類されてしまった文''を含むコーパスに対して頑健な感情推定を行うための新たな類似度計算式RECARE}\footnote{{\underlineR}obust{\underlineE}motion{\underlineC}{\underlineA}tegorizationwith{\underlineR}ough{\underlineE}motionCorpora}\resp{を定義する.RECAREは二つの文に類似した表現が含まれており,かつ二つの文が同じ感情を表しているかどうかを表すスコアとなる.}\resp{まず,式({\ref{eq:bleu}})で定義される{$sim_{\rmBLEU}$}に対し,前節で定義したFPを導入する(これを{$sim_{\rmBLEUFP^{+}}$}と表記する).}\begin{align}\respeqn{sim_{\rmBLEUFP^{+}}(x,s)}&\respeqn{=}\respeqn{{\rmBP}\cdot\exp\left\{\sum^{\rmN}_{n=1}\frac{1}{\rmN}\log\left({\rmFP}_{n}\cdotp_{n}(x,s)\right)\right\}}\nonumber\\&\respeqn{=}\respeqn{{\rmBP}\cdot\exp\left\{\frac{1}{\rmN}\log\prod^{\rmN}_{n=1}\left({\rmFP}_{n}\cdotp_{n}(x,s)\right)\right\}}\nonumber\\&\respeqn{=}\respeqn{{\rmBP}\cdot\exp\left\{\log\left\{\prod^{\rmN}_{n=1}\left({\rmFP}_{n}\cdotp_{n}(x,s)\right)\right\}^{\frac{1}{\rmN}}\right\}}\nonumber\\&\respeqn{=}\respeqn{{\rmBP}\cdot\left(\prod^{\rmN}_{n=1}\left({\rmFP}_{n}\cdotp_{n}(x,s)\right)\right)^{\frac{1}{\rmN}}}\label{eq:bleu_with_fp_pi}\end{align}式(\ref{eq:bleu_with_fp_pi})では\resp{{${\rmFP}_{n}\cdotp_{n}(\cdot)$}}の相乗平均を求めていることになるが,\resp{{$p_{n}(x,s)=0$}}となる$n$が存在したとき,$\respeqn{sim_{\rmBLEUFP^{+}}}=0$となる.これは$n$が高次になるほど起こりやすくなると考えられる($n$が高次になるほど入力文とコーパス中の1文との共通な形態素N-gramが現れにくくなると考えられるためである).このままでは,低次の\resp{{$p_{n}(\cdot)$}}の情報も失われてしまう.しかし,単語や文末表現の組み合わせによって発話文の感情が決まるとするならば,``隣接する形態素同士の組み合わせからなる低次の形態素N-gram''の適合率は積極的に利用すべきである.高次の形態素N-gramの適合率が0になったとしても,低次の形態素N-gramの適合率を破棄する理由はない.以上のことから,形態素N-gramの適合率の相乗平均を求めることは,用例ベースの感情推定には不向きであると考え,提案する新たな類似度計算式では形態素N-gramの適合率の相加平均を求めることとした.以上のことから,\respeqn{RECARE}を次のとおりに定義する.\begin{equation}\respeqn{sim_{\rmRECARE}(x,s)}={\rmBP}\cdot\frac{1}{\rmN}\sum^{\rmN}_{n=1}{\rmFP}_{n}\cdotp_{n}(x,s)\label{eq:recare}\end{equation}
\section{評価実験}
\label{sec:ev}\subsection{提案手法と従来手法の比較}\label{sec:comp_es_bleu}提案手法では従来手法と比べ,下記の2点が異なる.\begin{enumerate}\item各感情コーパスにおける``入力文の形態素N-gram''の出現回数によって決まるペナルティFPの導入\label{item:new1}\item形態素N-gramの適合率の相加平均による類似度計算\label{item:new2}\end{enumerate}評価実験では上記の2点によって感情推定の成功率がどの程度変化するのかを調べる.\subsubsection{実験設定}実験には,\resp{基本的な感情であり,収集したコーパス中に比較的頻出した}``喜び'',``怒り'',``嫌悪'',``希望''の4種類の感情カテゴリを用いた.各感情コーパスには838文の発話文が含まれる.発話文はWeb上の掲示板から8名の作業者によって収集した.発話文の分類先となる感情コーパスは,作業者の主観によって決定した.また発話文の分類先は複数選ぶことを許容した.入力となる文とその感情は次の手順で決定した.まず,感情コーパスに含まれない,別途掲示板から収集した文を無作為な順番で被験者4名に提示し,被験者に文の感情を判定させる.このとき,判定結果としての感情を``喜び'',``怒り'',``嫌悪'',``希望''の中から0個以上を選ばせる.被験者4名のうち3名以上の判定結果が一致した文を各感情ごとに51文ずつ用意し,入力文として用いる.なお,この予備実験で入力文に割り振られた感情の数はすべて1つとなった.感情推定の成功条件として,出力として得られる4つの感情類似度のうち,最も値が大きい類似度の感情と,入力文の感情が一致すれば成功とした.上記の(\ref{item:new1}),(\ref{item:new2})の効果を確かめるために,実験に用いた類似度計算式は\resp{三品らの方法(式({\ref{eq:bleu}}))}と\resp{RECARE(式({\ref{eq:recare}}))}に加え,BLEUにFPのみを導入した\resp{{$sim_{\rmBLEUFP^{+}}$}(式({\ref{eq:bleu_with_fp_pi}}))}と,\respeqn{RECARE}からFPを除いた$\respeqn{sim_{\rmRECAREFP^{-}}}$を用いた.$\respeqn{sim_{\rmRECAREFP^{-}}}$を次のとおりに定義する.\begin{equation}\respeqn{sim_{\rmRECAREFP^{-}}(x,s)}={\rmBP}\cdot\frac{1}{\rmN}\sum^{\rmN}_{n=1}p_{n}(x,s)\label{eq:es_without_fp}\end{equation}\subsubsection{実験結果と考察}類似度の計算に用いる$\respeqn{\ngram}$の$n$の値を変化させながら,推定成功率を計算した.図\ref{fig:success_ratios}に感情推定の成功率を示す.三品らの方法で最も推定成功率が良好だったのは$\rmN=2$を用いたときの60.3\%であり,提案手法では$\rmN=3$を用いたときの\resp{81.8\%}であった.ここでは,まず(\ref{item:new1})のFPを導入したことによる成功率の影響について考察する.図\ref{fig:success_ratios}より,FP無しの$\respeqn{sim_{\rmRECAREFP^{-}}}$で最も良好だった成功率57.8\%(N=3)と比べて,FP有りの提案手法$\respeqn{sim_{\rmRECARE}}$の成功率\resp{81.8\%}が大きく上回っていることがわかる.同様に,FP無しの従来手法$\respeqn{sim_{\rmBLEU}}$の成功率60.3\%と比べて,FP有りの$\respeqn{sim_{\rmBLEUFP^{+}}}$で最も良好だった成功率\resp{77.9\%(N=1)}が大きく上回っている.これらのことから,形態素N-gramの適合率の平均の求め方に関わらず,FPの導入が成功率の向上に寄与していることがわかる.次に(\ref{item:new2})の,類似度計算に形態素N-gramの適合率の相加平均を用いたことによる成功率の影響を考察する.$\rmN=2$以降で$\rmN$が増加するにつれて,三品らの方法の成功率は減少して\resp{いるが,}提案手法においては\resp{成功率の減少は認められなかった.}このことから,形態素N-gramの適合率の相加平均を類似度計算に用いることは,高次の$\rmN$を用いたときの成功率の改善に効果があることがわかる.\begin{figure}[t]\begin{center}\includegraphics{17-4ia6f2.eps}\end{center}\caption{感情推定成功率}\label{fig:success_ratios}\end{figure}\resp{なお,類似度計算に相乗平均を用い,FPを導入した方法({$sim_{\mathrm{BLEUFP}^{+}}$})は,Nを増加させると急激にその性能を落としていた.この原因は,Nが大きくなると共通の形態素N-gramがコーパス中に存在しなくなる割合が増加するため,式({\ref{eq:wn}})において,1文中のすべての{$w_{n}$}で{$\freq{C_{e}}w_{n}$}が0になる,という場合が増加したためであった.提案方法においては,類似度計算に相加平均を用いることでこの問題を解決し,Nが大きい場合においても高い性能を維持していることがわかった.}\resp{このような場合は,共通形態素N-gramが存在しないため,FPと同様に形態素N-gram適合率({$p_{n}(x,s)$})も0になる.そこで,{$sim_{\mathrm{BLEUFP}^{+}}$}だけではなく,同じように相乗平均を利用している従来方法({$sim_{\mathrm{BLEU}}$})も影響を受けると考えられる.本実験においては,従来方法における類似度計算に式({\ref{eq:bleu}})を用いている.この式では{$p_{n}(x,s)$}の対数をとっているために,実装上,もし{$p_{n}(x,s)=0$}であった場合は,非常に小さな正の値にフロアリングした上で対数を求めていた.そのため,{$sim_{\mathrm{BLEUFP}^{+}}$}のように急激に性能を落とすことはなかったと考えられる.このことを確認するため,式({\ref{eq:bleu}})を式({\ref{eq:bleu_with_fp_pi}})と同様,対数を用いない形に変形した上で,フロアリングをせずに実験を行ったところ,{$sim_{\mathrm{BLEU}}$}も{$sim_{\mathrm{BLEUFP}^{+}}$}と同様,Nが大きくなるとその性能を急激に落とす結果となった.}\subsubsection{\resp{感情推定に有効な形態素N-gram}}\resp{提案方法(や三品らの方法)においては,各感情コーパス中に含まれる形態素N-gramのうち,感情ごとに出現頻度に偏りがあるものが,感情推定において重要な意味を持つ.そこで,どのような形態素N-gramが提案方法にとって有効に働いたのか,といったことについて調査を行った.}\begin{table}[b]\caption{喜びの文の感情推定に寄与していた形態素N-gramのコーパス別出現回数の一部}\label{tbl:freq1}\input{06table03.txt}\end{table}\begin{table}[b]\caption{怒りの文の感情推定に寄与していた形態素N-gramのコーパス別出現回数の一部}\input{06table04.txt}\end{table}\resp{感情推定実験において,三品らの方法では感情判定に失敗し,提案方法で成功した入力サンプルを抽出し,その中に含まれるすべての形態素N-gramについて,各感情コーパス内での出現頻度を調べた.特に正解感情のコーパスに偏って頻出している形態素N-gramを表{\ref{tbl:freq1}}〜{\ref{tbl:freq4}}に示す.これを見ると,「喜び」の``ありがとう/感動詞''や``♪/名詞'',「怒り」の``むかつく/動詞'',「希望」の``たい/助動詞,です/助動詞''等,感情を表現するであろうと思われる形態素N-gramが感情推定に寄与していたことがわかる.}\begin{table}[t]\caption{嫌悪の文の感情推定に寄与していた形態素N-gramのコーパス別出現回数の一部}\input{06table05.txt}\end{table}\begin{table}[t]\caption{希望の文の感情推定に寄与していた形態素N-gramのコーパス別出現回数の一部}\label{tbl:freq4}\input{06table06.txt}\end{table}\resp{一方,「喜び」の``でし/助動詞,た/助動詞''や「嫌悪」の``顔/名詞''等,一見すると感情とは無関係と思われる形態素N-gramも存在した.これらについては,今後別の角度からの検証(例えば,Web掲示板において喜びを表現する時は,「〜でした」のような丁寧な表現が用いられることが多い,といった仮説を立て,統計的に検証する)を行う必要があるが,今まで発見されていなかった事実を暗示するものである可能性がある.また,「怒り」に``職場/名詞'',``仕事/名詞'',「嫌悪」に``上司/名詞'',``会社/名詞''がはいっていることも,「Webの掲示板においては,仕事に対する不満や愚痴等が多い」といった事実を暗示しているのかもしれない.}\subsection{\resp{FPの導入効果の検証}}\resp{FPはコーパス中に含まれる以下のふたつの文の影響を低減する目的で提案された.}\begin{enumerate}\item\resp{感情が異なっていても,たまたま表現や文型が類似している文}\item\resp{コーパスを構築する際に誤って分類された文}\end{enumerate}\resp{FPがこうした文に対して,どの程度頑健性を持っているかを検証するため,感情コーパス内に存在するこうした文を増減させ,その時の性能を評価した.また,FPのかわりにTF-IDFを用いた時の性能についても評価を行った.}\subsubsection{\resp{表現や文型が類似している文の影響}}\resp{``入力文と感情が異なっているが,たまたま表現や文型が類似している文''の影響について,こうした文を各感情コーパスから削除した時の性能を評価することで検証を行った.}\resp{``たまたま表現や文型が類似している文''として``入力文とは感情が異なるコーパス中において,BLEUスコアが高い文''と定義し,各感情コーパスにおいて,このような文をBLEUスコア順に上位から{$n$}文削除した.また条件を揃えるため,正解となる感情コーパスからは乱数で{$n$}文削除した.}\begin{figure}[b]\begin{center}\includegraphics{17-4ia6f3.eps}\end{center}\caption{表現等が類似している文の影響}\label{fig:similar}\end{figure}\resp{感情の推定成功率を図{\ref{fig:similar}}に示す.ここで横軸は,コーパス1つあたりの除去した文数を表す.この結果を見ると,三品らの方法,提案方法どちらも``たまたま表現や文型が類似している文''を削除することで性能が向上していることから,これらの文の影響を受けていたことがわかる.しかし,提案方法では文を一切削除しなかった場合においても比較的性能の低下が抑えられていることから,その目的である``たまたま表現や文型が類似している文''による影響を抑えることができていることがわかった.}\subsubsection{\resp{感情分類を誤った文の影響}}\resp{次に,各感情コーパス中で感情分類を誤った文を意図的に増加させ,その時の性能を評価した.具体的には,各感情コーパスから{$n$}文を乱数で抽出し,それらを他の感情コーパスへと均等に混入させることで,感情分類を誤った文を増加させた.}\begin{figure}[b]\begin{center}\includegraphics{17-4ia6f4.eps}\end{center}\caption{感情分類を誤った文の影響}\label{fig:shuffle}\end{figure}\begin{table}[b]\caption{感情分類を誤った文に対する性能差}\label{tbl:shuffle-diff}\input{06table07.txt}\end{table}\resp{感情推定成功率を図{\ref{fig:shuffle}}に示す.ここで横軸は,コーパス1つあたりの混入させた文数を表す.この結果を見ると,混入する文が増加するに従って両方法ともに性能が低下し,感情分類を誤った文の影響を大きく受けていることがわかる.しかし,両者の性能差(表{\ref{tbl:shuffle-diff}})はわずかではあるが拡がっており,提案方法の方が若干ではあるが,こうした文の影響を低減できていることがわかった.}\subsubsection{\resp{TF-IDFの導入との比較}}\resp{FPの有効性を確認するため,FPのかわりにTF-IDFを用いた実験を行った.ここでは,TF-IDFをFPと同様,0から1の範囲の値とするため,{\ittf}値として拡大正規化索引語頻度{\cite{kita2}}を用い,また{\itidf}値も通常の{\itidf}値{\cite{jones}}を式({\ref{eq:idf-norm}})を用いて正規化し,下記のような計算式によるTF-IDF値を用いた.}\begin{align}\respeqn{sim_{\rmTFIDF}(x,s)}&\respeqn{=}\respeqn{{\rmBP}\cdot\frac{1}{\rmN}\sum^{\rmN}_{n=1}{tfidf}_{n}\cdotp_{n}(x,s)}\\\respeqn{tfidf_{n}}&\respeqn{=}\respeqn{\frac{1}{\left|G_{n}(x)\right|}\sum_{\ngram\inG_{n}(x)}{tf_{n}\cdotidf_{n}}}\\\respeqn{tf_{n}}&\respeqn{=}\respeqn{\left\{\begin{array}{lll}0.5+0.5\cdot\frac{\displaystylefreq_{C_{e}(w_{n})}}{\displaystyle\max_{c\inC}freq_{c}(w_{n})}&{\rmif}&freq_{C_{e}}(w_{n})>0\\0&{\rmif}&freq_{C_{e}}(w_{n})=0\end{array}\right.}\\\respeqn{idf_{n}}&\respeqn{=}\respeqn{\left\{\begin{array}{lll}\frac{\log\frac{|C|}{D(w_{n})}+1}{\log|C|+1}&{\rmif}&D(w_{n})>0\\0&{\rmif}&D(w_{n})=0\end{array}\right.\label{eq:idf-norm}}\end{align}\resp{ここで{$D(w_{n})$}は{$w_{n}$}を含むコーパスの数を返す関数である.}\begin{figure}[b]\begin{center}\includegraphics{17-4ia6f5.eps}\end{center}\caption{TF-IDFを用いた感情推定結果}\label{fig:tf-idf}\end{figure}\resp{TF-IDFを用いた感情推定実験の結果を図{\ref{fig:tf-idf}}に示す.この結果を見ると,すべてのNにおいてFPのほうが2.5ポイント〜8ポイント程度上まわっており,FPの有効性が認められた.}\subsection{提案手法とSVMの比較}三品らの方法とは異なる従来手法の一つとして,良好なクラス分類が可能なSVM(SupportVectorMachine)による感情推定を行い,提案手法との比較を行った.本稿では学習,分類を行うプログラムとして,${\rmSVM}^{light}$\footnote{http://svmlight.joachims.org/}を用いた.\subsubsection{特徴ベクトルの生成\label{sec:sent2vec}}SVMを用いて感情推定を行うために,まず感情コーパスの各発話文から特徴ベクトルを生成する必要がある.今回は特徴ベクトルとして,1文中に出現する$\ngram$の出現回数をベクトルして表現したものを用いた.特徴ベクトルを生成するために,まず考慮する$\ngram$の最高次数Nを決め,それ以下の各$n$について,感情コーパスから得られる\NGRAMすべてに通し番号を振った(このとき,\NGRAMが低次であるほど若い番号を振ることとした).次に,感情コーパスから取り出した一つの発話文$s$の\NGRAMを$m$,$s$における$m$の出現回数を$f$,それ以外の次元の値を0とする特徴ベクトルを生成した.例えば最高次数を${\rmN}_{max}=2$とした場合,形態素unigramと形態素bigramを用いて発話文から特徴ベクトルを生成する.この時,特徴ベクトルの次元数は,コーパス中に出現するすべてのunigramとbigramの種類数となる.${\rmN}_{max}=1$とした特徴ベクトルの例として,``ありがとうございました!!''という発話文の場合,各形態素unigramに割り振られる番号を表\ref{table:mresult}のとおりとすると,``ありがとうございました!!''の特徴ベクトル$v$は以下のように表現される.\begin{equation}v=(0,1,0,1,1,0,0,1,2,0,...,0)\label{eq:sent_vec}\end{equation}\begin{table}[b]\caption{形態素unigramに対応する番号}\label{table:mresult}\input{06table08.txt}\end{table}\subsubsection{クラス分類モデルの構築}クラス分類モデルは感情コーパスの数と同じ数だけ構築する.例えば,``怒り''の分類モデルを構築する場合,ポジティブデータを``怒り''のコーパスに含まれる発話文から生成した特徴ベクトル,ネガティブデータを``怒り''以外の感情コーパスに含まれる発話文から生成した特徴ベクトルと定義し,学習を行う.本稿で学習に用いるポジティブデータの量はネガティブデータの量に比べて少なく,デフォルト値では良好な分類性能が得られない.そこでcostfactor($C_{+}/C_{-}$)の計算には,Morikらが定義した次の式を用いた\cite{morik}.\begin{equation}\frac{C_{+}}{C_{-}}=\frac{\rmnumber\of\negative\training\examples}{\rmnumber\of\positive\training\examples}\end{equation}costfactor以外の学習パラメータはデフォルト値を用いた.また学習パラメータで与えるカーネルのタイプもデフォルトである線形カーネルを用いた.\subsubsection{実験設定}実験に用いた感情コーパスは,\ref{sec:comp_es_bleu}節と同様に``喜び'',``怒り'',``嫌悪'',``希望''の各838文であり,入力文も\ref{sec:comp_es_bleu}節と同様の文を用いた.成功条件は,入力文の感情と出力感情が一致すれば推定成功とした.\subsubsection{実験結果と考察}表\ref{table:svm_success_ratios}に推定成功率を示す.SVMで最も高かった推定成功率が$\rmN=2$を用いたときの80.4\%であり,提案手法の中で最も高かった\resp{成功率81.8\%と比べると1.4ポイント程度の差になっている.このことから,発話文の感情推定において,適切なNを選択すれば,SVMと提案手法は同程度の感情推定成功率が得られることが示された.}\begin{table}[b]\caption{SVMと提案手法の感情推定成功率}\label{table:svm_success_ratios}\input{06table09.txt}\end{table}\resp{しかし,表{\ref{table:svm_success_ratios}}を見ると,{${\rmN}_{max}>2$}を用いた場合のSVMによる推定精度が急激に減少していることがわかる.}これは``感情コーパス中で出現回数が少ない高次の\NGRAM''を素性として利用している事例に対する過学習が原因であると考えられる.\resp{一方提案方法においては,Nを増加させていってもその性能にはほとんど差がなく,``出現回数が少ない高次{\NGRAM}''の影響をほとんど受けていないことがわかる.これは,RECAREの計算を相加平均で行ったことの効果であると考えられる.}\resp{一般に感情コーパス中の文数などによって最適なNは異なることが考えられ,SVMの場合は,実際の応用に際し評価実験を通して最適値を探索することが必要である.一方RECAREであれば,十分大きなNを設定しておくことで,(計算量や記憶容量等の問題を除けば)常に最適な推定精度を得ることが可能となる.}\resp{更に,例えば6形態素からなるある特定の文末表現がある特定の感情に数多く出現する,といったことがあった場合,SVMであれば,全体として考慮すべき形態素の長さを決定する必要があるが,RECAREならば,その特定の文末表現を利用するためだけに$\mathrm{N}=6$と設定してしまっても,悪影響をほとんど及ぼさない.こうしたことから,SVMに比べてRECAREが有効であることが示された.}
\section{まとめ}
label{sec:conclusion}本稿では,\resp{``感情が異なっていても,たまたま表現や文型が類似している文''や,``コーパスを構築する際に誤って分類された文''の影響を改善し,高い精度で感情推定を実現するための類似度計算手法であるRECAREを提案した.}\resp{入力文で使われている形態素N-gramが,各感情コーパス間でどの程度偏っているか,といったことを表す値であるFPを定義し,BLEUをベースとした類似度計算に導入した.更に,高次のN-gramに対する学習サンプル数の不足からくる,いわゆる「ゼロ頻度問題」に対処するため,相乗平均で計算されるBLEUをベースとした類似度を変形し,相加平均を用いて類似度計算を行う方法を提案した.}評価実験の結果,従来手法に比べ,推定精度が60.3\%から\resp{81.8{\%}}へと大きく\resp{向上し,また問題としていた2種類の文のうち,特に``たまたま表現や文型が類似している文''の影響を効果的に低減させている}ことを確認した.また形態素N-gramを素性に用いたSVMによる感情推定に比べ,提案手法では\resp{Nが大きい場合に推定精度の低下がほとんど見られず,}発話文の感情推定には提案手法が有効であることを示した.\resp{今後,「希望」や「自信」,「脅迫」といった更に複雑な感情を加えた時の性能の評価,また,必要があれば推定結果として複数の感情を出力することが可能となるようなアルゴリズムの改善について検討を行う予定である.}\acknowledgment本研究の一部は,科学研究費補助金(挑戦的萌芽研究,課題番号21650030)の補助を受けて行われた.記して謝意を表す.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Jones}{Jones}{1972}]{jones}Jones,K.~S.\BBOP1972\BBCP.\newblock\BBOQAstatisticalinterpretationoftermspecificityanditsapplicationinretrieval.\BBCQ\\newblock{\BemJournalofDocumentation},{\Bbf28},\mbox{\BPGS\11--21}.\bibitem[\protect\BCAY{Kruger,Epley,Parker,\BBA\Ng}{Krugeret~al.}{2005}]{citeulike:528278}Kruger,J.,Epley,N.,Parker,J.,\BBA\Ng,Z.-W.\BBOP2005\BBCP.\newblock\BBOQEgocentrismovere-mail:Canwecommunicateaswellaswethink?\BBCQ\\newblock{\BemJournalofPersonalityandSocialPsychology},{\Bbf89}(6),\mbox{\BPGS\925--936}.\bibitem[\protect\BCAY{Mishina,Ren,\BBA\Kuroiwa}{Mishinaet~al.}{2006}]{aiac}Mishina,K.,Ren,F.,\BBA\Kuroiwa,S.\BBOP2006\BBCP.\newblock\BBOQAnemotionsimilaritycalculationusingdialogsentencecorpora.\BBCQ\\newblockIn{\BemProceedingsInternationalSymposiumonArtificialIntelligenceandAffectiveComputing2006},\mbox{\BPGS\168--176}.\bibitem[\protect\BCAY{Morik,Brockhausen,\BBA\Joachims}{Moriket~al.}{1999}]{morik}Morik,K.,Brockhausen,P.,\BBA\Joachims,T.\BBOP1999\BBCP.\newblock\BBOQCombiningstatisticallearningwithaknowledge-basedapproach---acasestudyinintensivecaremonitoring.\BBCQ\\newblockIn{\BemProceedings16thInternationalConf.onMachineLearning},\mbox{\BPGS\268--277}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2001}]{bleu}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2001\BBCP.\newblock\BBOQBLEU:amethodforautomaticevaluationofmachinetranslation.\BBCQ\\newblockIn{\BemProceedings40thAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{徳久\JBA前田\JBA村上\JBA池原}{徳久\Jetal}{2008}]{徳久雅人:20080131}徳久雅人\JBA前田浩佑\JBA村上仁一\JBA池原悟\BBOP2008\BBCP.\newblock対話行為と情緒を解析するための文末表現パターンの作成.\\newblock\Jem{電子情報通信学会技術研究報告.NLC,言語理解とコミュニケーション},{\Bbf107}(480),\mbox{\BPGS\45--50}.\bibitem[\protect\BCAY{北\JBA津田\JBA獅々掘}{北\Jetal}{2002}]{kita2}北研二\JBA津田和彦\JBA獅々掘正幹\BBOP2002\BBCP.\newblock\Jem{情報検索アルゴリズム}.\newblock共立出版,東京.\bibitem[\protect\BCAY{小林}{小林}{2001}]{小林正幸}小林正幸\BBOP2001\BBCP.\newblock\Jem{なぜ、メールは人を感情的にするのか}.\newblockダイヤモンド社.\bibitem[\protect\BCAY{日本語記述文法研究会}{日本語記述文法研究会}{2009}]{modality2}日本語記述文法研究会\JED\\BBOP2009\BBCP.\newblock\Jem{現代日本語文法}.\newblockくろしお出版.\bibitem[\protect\BCAY{加藤\JBA杉村\JBA赤堀}{加藤\Jetal}{2005}]{katou20051020}加藤由樹\JBA杉村和枝\JBA赤堀侃司\BBOP2005\BBCP.\newblock電子メールを使ったコミュニケーションにおいて生じる感情への電子メールの内容の影響.\\newblock\Jem{日本教育工学会論文誌},{\Bbf29}(2),\mbox{\BPGS\93--105}.\bibitem[\protect\BCAY{杉谷}{杉谷}{2007}]{sugitani20070320}杉谷陽子\BBOP2007\BBCP.\newblockメールはなぜ「話しやすい」のか?:CMC(Computer-MediatedCommunication)における自己呈示効力感の上昇.\\newblock\Jem{社会心理学研究},{\Bbf22}(3),\mbox{\BPGS\234--244}.\bibitem[\protect\BCAY{目良\JBA市村\JBA相沢\JBA山下}{目良\Jetal}{2002}]{mera}目良和也\JBA市村匠\JBA相沢輝昭\JBA山下利之\BBOP2002\BBCP.\newblock語の好感度に基づく自然言語発話からの情緒生起手法.\\newblock\Jem{人工知能学会論文誌},{\Bbf17}(3),\mbox{\BPGS\186--195}.\end{thebibliography}\begin{biography}\bioauthor{三品賢一}{2006年徳島大学工学部知能情報工学科卒業.2008年同大大学院先端技術科学教育部システム創生工学専攻博士前期課程了.2010年同博士後期課程中退.在学中は感性情報処理の研究に従事.電子情報通信学会会員.}\bioauthor{土屋誠司}{2002年三洋電機株式会社入社.2007年同志社大学大学院博士後期課程修了.博士(工学).同年徳島大学大学院助教.2009年同志社大学理工学部インテリジェント情報工学科助教.主に,知識処理,意味解釈の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{鈴木基之}{1993年東北大学工学部情報工学科卒業.1996年同大大学院博士後期課程を退学し,同大大型計算機センター助手.博士(工学).2006年〜2007年英国エジンバラ大学客員研究員.2008年徳島大学大学院ソシオテクノサイエンス研究部准教授,現在に至る.音声認識・理解,音楽情報処理,自然言語処理,感性情報処理等の研究に従事.電子情報通信学会,情報処理学会,日本音響学会,ISCA各会員.}\bioauthor{任福継}{1959年生.1982年北京郵電大学電信工程学部卒業.1985年同大学大学院計算機応用専攻修士課程修了.1991年北海道大学大学院工学研究科博士後期課程修了.博士(工学).広島市立大学助教授を経て,2001年より徳島大学工学部教授.現在に至る.自然言語処理,感性情報処理,人工知能の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,電気学会,AAMT,IEEE各会員.}\end{biography}\biodate\end{document}
| |
V06N06-07 | \section{はじめに}
近年テキストを自動的に要約する技術に関する研究が国内外で盛んになって来ている(HovyandMarcu1998;奥村,難波1998).自動要約に関する研究の歴史は,古く1950年代後半から研究されているが,対象のテキストから重要な部分を抜き出して要約とする重要部分特定の手法が中心であった.テキストの内容を理解しての自動要約は,難しくまだ現実的なシステムを作成するに至っていないのが現状である.また,最近,テキストの重要部分に注目するのではなく,不要部分を特定し,言い換え及び削除により,要約を行う研究も出てきている.本研究の目的は,長い文を短い文に分割する処理(今後「短文分割」と呼ぶ)を行ない,その短文分割の自動要約手法への影響を調査することである.短文分割に関する研究は,機械翻訳の研究で見られる.機械翻訳においては,長文は,文の係り受け構造の複雑さが増え,翻訳精度低下の原因の一つとされている.このため,短文分割を翻訳の前処理として行い,翻訳の精度を高めることを目的とした研究が行われている.金ら(金,江原1993)は,長文に現れる連用中止表現,引用,連体節,接続節などを分割点と認定している.また,木村ら(木村,野村,平川1993)は,単語数の多い文で,特定の言語表現を持つ場合に分割を行っている.特定の言語表現としては,動詞と助動詞の連用中止表現,接続助詞の「ので」などがある.本論文で用いる短文分割手法は,これらの手法と同様のものである.一方,関連研究としてはMarcuの研究がある(Marcu1997).Marcuは,手がかりとなる語句を使って要約の基本となる単位を決定し,談話構造を解析してその結果を自動要約に用いている.手がかり語としては,becauseなどの接続詞などを使っているため,節が基本単位となる場合があり,文より小さな単位を用いての要約を実現している.手がかり語がない場合は,文全体が1つの単位となる.Marcuの手法は,文より小さな単位を扱っているが,短文分割は行っていない.もう1つの関連研究として,簡易な文構造解析を行い,自動要約に役立てるものがある.構文解析の結果を利用して重要・不要部分を特定し,要約を作成するものである.日本語では三上らが,TVニュース原稿を題材として,構文解析を行い,文中の要素に重要度を与えて,重要要素や,削除すると文を壊してしまう恐れのある要素を重要として抽出している(三上,山崎,増山,中川1998).英語では,Grefestetteの研究があり,自身の開発したparserを使い,構文解析を行い,主節は従属節より重要であり,否定の表現も重要であるなどとして,重要部分を特定して文書の単純化を行っている(Grefenstette1998).これらの研究は簡易構文解析処理を行っているのに対し,本研究では,構文解析を行わずに,文字列や品詞の情報のみを利用して短文分割を行っている.上記の短文分割に関係した研究と比べて,本研究は,短文分割の手法は既存の手法と同様のものを用いており,その短文分割が自動要約の基本的手法にどれだけ効果があるのかに焦点を置いている.本研究は,聴覚障害者向けにサービスしようとしている字幕付きテレビニュースでの自動要約技術に関する研究の一環であり,自動的にテレビニュース原稿を要約する手法について,重要文抽出,文字数圧縮などをテーマに研究を進めて来ている(Wakao,Ehara,Sawamura,Abe,Shirai1997;Wakao,Ehara,Shirai1998).本稿で題材としているのは,TVニュース番組の電子化原稿である.ニュース番組原稿は,新聞記事と似ているが,両者を比較した場合,ニュース原稿のほうが1記事中の文数が少なく,且つ一文当たりの文字数が多いことが分かっている(江原,沢村,若尾,阿部,白井1997).ここで重要文を自動的に抽出することにより要約を作成すると,文数が少なく,一文が長いため,どうしても粗い要約となってしまう.この欠点を補正するために,短文分割を行い,その自動要約における基本的技術への効果を評価した.評価には,文の重要度における順位付けと文字数圧縮を取り上げた.文の順位付けでの評価では,まず,各文を人手及びシステムによりその文の重要度に応じて順位付けを行い,人手により重要と判定された文が,短文分割により分割された場合,分割された文の順位がどうなるかを調査した.次に,記事中の重要な文だけではなく,全部の文を対象として,文の順位付けにおける短文分割の自動要約への影響を調べるために,人手とシステムにより順位付けされた結果の類似度を算出し,短文分割の前後での変化を調べた.この類似度には,スペアマンの順位相関関係係数を用いた.また,文の不要部分を特定して,それを短い表現への言い換えや,削除により,文字数を削減する「文字数圧縮」においても短文分割の前後での圧縮率の違いを算出することにより,短文分割の効果を評価した.以下に,まず,本研究の対象とした原稿を紹介し,短文分割の条件,短文分割の自動要約の基本的技術への影響について記述する.
\section{原稿}
題材とした原稿は,NHK放送データーベースの1992年の記事より選ばれた200件のテレビニュース番組の電子化原稿である.これは,NHKにおいて実際に放送されたTVニュースの原稿であり,放送日などの情報がヘッダーとして付けられたデータベースである.記事の大きさは,1記事当たり約500文字であり,1つの記事当たりの文数は,約5文である.200記事平均の1記事の文字数,文数,1文当たりの文字数は表1の通りである.\renewcommand{\arraystretch}{}\begin{table}[h]\begin{center}\begin{tabular}{|c|r|}\hline\multicolumn{2}{|c|}{1記事当たり}\\\hline平均文字数&484.68文字\\\hline平均文数&5.18文\\\hline\multicolumn{2}{|c|}{1文当たり}\\\hline平均文字数&93.57文字\\\hline\end{tabular}\end{center}\caption{対象記事(200記事)の詳細}\end{table}前節でも述べたが,テレビニュース番組原稿は,新聞記事と比べると,一記事当たりの文数が少なく,一文当たりの文字数が多いと言う特徴がある.
\section{短文分割}
短文分割の処理は,条件を満たす長い文を記事中から選び,その文を複数の短い文に分割するものである.分割の条件は,NHK放送データベース(15万件)のテレビニュース原稿のうち,1991年4月1日から1991年6月11日にかけての記事(3,492記事)から,長さが200バイト(100文字)以上の文を無作為に抽出したコーパス(全部で9,205文)を使用し,それらを分析して分割条件を人手で作成したものである.\\一方,後出の評価用のテキストは同じ15万件の記事から無作為に選ばれているが,1992年の記事から無作為に選ばれている.分割条件を導き出した記事とは重っていない.以下に,分割を行う条件を記述し,その後に,分割した結果の詳細を示す.\subsection{分割条件}文の分割を行わない場合をまず記述し,その後に分割を行う条件の例を以下に記述する.分割をする条件は,下記記載のもの以外にも10規則あり,合計で,19規則ある.また,これらの規則は,適用されて生成される文末の時制は,原文の時制を反映した形となる.記載の例は,全て現在形で示してある.\begin{list}{}{}\item[1)]分割をしない場合\begin{itemize}\item基本的に,動詞と形容動詞と述語名詞の連用文節と終止文節以外は分割しない.\\また,この条件を満たす場合でも,以下の場合には,分割を行わない.\begin{list}{}{}\item[$\Box$]連用文節であっても,連体文節直後の連用文節は分割しない.\item[$\Box$]直後または2文節以内に連体文節がある連用文節は分割しない.\item[$\Box$]直後または2文節以内に連用文節がある連用文節は分割しない.\end{list}\item用言自立語+(助動詞)+接続詞「ば」は,分割しない.例「働きかければ,」\item「…も(と)あって,」は,分割しない.\item自立語+と+なり+読点または,自立語+に+なり+読点は,分割しない.\end{itemize}\item[2)]分割をする場合\begin{itemize}\item自立語+(助動詞)+「ており」+読点\\自立語+(助動詞)+「でおり」+読点\\例「働きかけており,bb\footnote{「bb」は,文の一部であり,分割条件を満たす語句の直後に来る部分を示す.}」→「働きかけております.そして,bb」\item自立語+(助動詞)+「が」+読点\\例「働きかけますが,bb」→「働きかけます.しかし,bb」\item自立語+(助動詞)+「もので」+読点\\例「働きかけるもので,bb」→「働きかけるものです.そして,bb」\item自立語+(助動詞)+「ものの」+読点\\例「働きかけるものの,bb」→「働きかけます.しかし,bb」\item自立語+(助動詞)+「のに対し」+読点\\例「働きかけるのに対し,bb」→「働きかけます.それに対し,bb」\item自立語+(助動詞)+「のに対して」+読点\\例「働きかけるのに対して,bb」→「働きかけます.それに対して,bb」\item自立語+(助動詞)+「にもかかわらず」+読点\\例「働きかけるにもかかわらず,bb」→\\\hspace*{1cm}「働きかけます.それにもかかわらず,bb」\item自立語+(助動詞)+「とともに」+読点\\自立語+(助動詞)+「と共に」+読点\\例「働きかけるとともに,bb」→「働きかけます.それとともに,bb」\item「あり」または「強まり」+読点\\例「強まり,bb」→「強まります.そして,bb」\end{itemize}\end{list}これらの条件を実際のTV番組原稿文に適用してみると,\\「千葉市に本店がある京葉銀行の成田西支店の女子行員が,他人名義のカードローンを悪用しておよそ三億円を着服していた疑いが強まり,京葉銀行ではきょう,この女子行員を懲戒解雇するとともに,千葉県警察本部に被害を届け出ました.」は,3文に分割され,\begin{list}{}{}\item[1.]「京葉銀行の成田西支店の女子行員が,他人名義のカードローンを悪用しておよそ三億円を着服していた疑いが強まりました.」\item[2.]「そして,京葉銀行ではきょう,この女子行員を懲戒解雇しました.」\item[3.]「それとともに,千葉県警察本部に被害を届け出ました.」\end{list}となる.上記の条件の下で,分割は,対象となる文の長さ(文の長さは文節数により算出)により以下の2つの場合に行うこととした.\vspace{-3mm}\begin{table}[h]\begin{center}\begin{tabular}{|l|p{10cm}|}\hline分割1&分割前に文が12文節以上あり,分割後5文節以上の文に分割される場合.\\\hline分割2&分割する文の文節数に制約をかけない場合.つまり,これは,分割出来る文は,全て分割しようという場合に相当する.\\\hline\end{tabular}\end{center}\end{table}\vspace{-3mm}\subsection{分割結果}分割前と分割後の2つのケースを1記事当たりの文字数,文数,そして1文当たりの文字数で比較してみると表2のようになる.\begin{table}[h]\begin{center}\begin{tabular}{|c|r|r|r|}\hline200記事&文字数/記事&文数/記事&文字数/文\\\hline分割前&484.68&5.18&93.57\\\hline分割後(分割1)&491.87&6.45&76.20\\\hline分割後(分割2)&493.39&6.75&73.09\\\hline\end{tabular}\end{center}\caption{文数,文字数でみた短文分割の結果}\end{table}\vspace{-3mm}短文分割処理を行った結果,一記事当たりの文数が約5文から約7文に増え,1文当たりの文字数は,約20文字減ることが確認された.
\section{自動要約への影響}
短文分割の自動要約への影響を調べるために,まず,重要度に応じて文を並べる,文の順序付けにおける効果を調べた.まず,記事中の重要と判定される文が分割された場合に分割された複数の文の重要度がどう判定されるかを調べた.これは,分割前に重要であると判断された文が,短文分割により分割され,且つ,その分割された文が,重要度の判定において,一方が重要でありもう一方が重要でないといった差が認められる場合,短文分割の要約への効果があると考えられるからである.また,記事中の重要文だけではなく記事全体として,短文分割が文の順位付けにおいて自動要約の結果にどのような影響があるかを調べた.これには,人手による順位付けの結果と自動要約システムによる順位付けの結果の類似度を,スペアマンの相関関係係数を用いて算出することにより行った.文順位付けでの評価の対象としたのは,100記事で,短文分割処理で対象とした200記事のTVニュース番組原稿から少なくとも4文以上を含んでいる記事を100選んだ.記事の分野の特定などは一切していない.次に,文中の不要部分を削除または言い換えて文字数を削減する(文字数圧縮)を取り上げ,短文分割の影響を調べた.この調査の対象とした記事は,短文分割処理で対象とした同じ200記事である.\subsection{分割前後での文順位の変化}対象となる100記事に対して各記事毎に,その記事中の各文の重要度に応じて順位をつけた.順位付けは,まず人手で順位付けを行った.それとは別に,自前の重要文抽出のシステム(若尾,江原,白井1998)を用いて同じ記事の各文に順位を付けた.100記事中,分割1で分割されたものは,75記事あり,分割2で分割が行われたものは28記事である.分割2では,分割された記事の総数が,100記事中85記事で,分割1で分割されたものを再分割したものが18記事,新たに分割されたものが10で,合計85記事が分割されている.人手及びシステムにより文の順位が付与されたのは,分割前の100記事,分割1の結果(75記事)を含む100記事,分割2の結果(85記事)を含む100記事である.システムで用いられた重要文抽出の手法は,重要語密度法であり,各記事において頻度2以上の自立語を重要語とし,各文の重要語の割合を計算し,それをその文の重要度とした(Luhn1957;Edmundson1969).TVニュース番組原稿は,新聞記事と似ているが,1段落しかなく,見出しも存在しないという前提\footnote{データの出典元であるNHK放送データベースには,見出しが存在するが,ここでは用いなかった.}であるので,記事中の位置情報(例,第一段落の第一文など)は用いず,単純に頻度の高い自立語を重要語とした重要語密度法を採用した.文の順位付けは,この重要語密度法で計算された重要度を用いて行われた.重要とされた文の分割前後での順位の変化の調査には,分割1の結果を使った.分割前の記事中で人手による判定で重要度による順位が1位または2位と判断された文のうち,その文が短文分割を行うことにより分割され,且つ,2文に分割された文,総数30文(分割後60文)について調査をした.まず,重要度において1位と判定された文での分割後の2文が,人手によってどのような順位に判定されたを調べた.結果を図1に示す.\begin{figure}[h]\vspace{-4mm}\begin{center}\mbox{\epsfile{file=666_138-1.eps}}\end{center}\vspace{-1mm}\caption{1位文の分割後2文の順位分布}\end{figure}\vspace{-3mm}同じく,重要度で2位と判断された文での分割後の文の順位の分布は,図2のようになる.\begin{figure}[!hb]\vspace{-3mm}\begin{center}\mbox{\epsfile{file=666_138-2.eps}}\end{center}\vspace{-1mm}\caption{2位文の分割後2文の順位分布}\end{figure}\clearpageこれらの結果から,分割前の重要度1位文においては,分割後の順位が,1位と2位とが度数が最も多くなるのではなく,1位,3位,2位,4位以降という順になっている.また,2位の文では,度数順に見ると,2位,3及び6位,5及び7位となり,重要度による順位がばらつくことが分かる.1位と2位の文をまとめて,分割後の文の順位における差の分布を,次に調べた.例えば,分割前に1位の文で,分割後に1位と3位に判定されたのであれば,差は3マイナス1の2となる.この差の分布を30文について調査した.結果は,図3の通りである.\begin{figure}[h]\begin{center}\mbox{\epsfile{file=666_139.eps}}\end{center}\caption{分割後2文の順位差の分布}\end{figure}分割後の差が「1」の場合は順位が1位と2位などとなっている場合であり,短文分割の効果が見られないと考えられる.他方,順位における差が「2」以上の場合は,分割された文の間に他の文が入って来る場合であり,短文分割の効果があると考えられる.順位の差が「2」の場合は,人手による判定で全体の33%(10/30)を占める.また,順位差が「3」以上の場合は,全体の37%(11/30)を占め,順位差が「1」の場合(9/30)より多くなっている.この事から,分割を行うことにより,分割された文の順位に差が生じる場合が,生じない場合(順位差「1」の場合)よりも多くあり,短文分割は,重要度による文順位付けに効果があると言える.\subsection{記事全体での文の順序付けの評価}次に,前節での順位付けの結果を用いて,記事中の重要文だけではなく記事全体として,短文分割が文の順位付けにおいて自動要約の結果にどのような影響があるかを調べた.これは,人手による順位付けと自動要約システムによる順位付けの結果の類似度を,スペアマンの相関関係係数(Spearman'srankcorrelationcoefficient)を用いて算出することにより行った.スペアマンの順位相関係数は,2つの順位付けのなされたもの間の相関を計るのに一般的に用いられる統計尺度である(大村1980).スペアマン順位相関関係係数(r)の計算は以下のようである.X$=(x_1,x_2,x_3\ldotsx_n)$Y$=(y_1,y_2,y_3,\ldotsy_n)$,$x_1,\ldotsx_n$,$y_1,\ldotsy_n$は各文の順位を示し,記事の第1文から第n文までの順位を並べたものであるX,Yが与えられた時,rは以下の式で計算される.{\large$$r=1-\frac{{\displaystyle6\times\sum_{i=1}^nd_i^2}}{n(n^2-1)}$$$$d_i:x_i-y_i\hspace{3mm}for\hspace{1mm}1\leqi\leqn$$}\noindent$d_i$:$x_i$と$y_i$での順位における差\\\hspace*{2mm}$n$:記事中の文数スペアマンの順位相関係数rは,1から−1の間の数値となり,1であれば2つの順位が完全に一致している場合であり,−1だと全く逆の順位の並びとなっている場合である.0の付近だと順位間の相関はなくなることになる.比較を行ったのは,分割前の記事を用いての人とシステムの文順序付けの結果,分割後の記事を用いた人とシステムの文順序付けの結果である.分割後の記事としては,分割がなされた記事ばかりを集めたもの,つまり,分割1の場合だと75記事,分割2の場合だと28記事を対象としたケースと,それらの分割結果を含む100記事全体を対象とした場合について順位相関係数値を算出した.表3にその結果を示す.\begin{table}[h]\begin{center}\begin{tabular}{|l|r|}\hline\multicolumn{1}{|c|}{比較対象記事}&\multicolumn{1}{|c|}{順位相関係数値}\\\hline分割前(100記事)&0.4933\\\hline分割1(75記事)&0.5311\\\hline分割1(100記事)&0.5304\\\hline分割2(28記事)&0.5583\\\hline分割2(100記事)&0.5251\\\hline\end{tabular}\end{center}\caption{短文分割の文順位付けへの影響(スペアマン相関関係係数)}\end{table}尚,参考までに,人間の評価者間での順位相関を調べた.この調査に用いた原稿は,上記の記事とは違うTVニュース原稿記事100記事を用いた.2名の人間の評価者間の順位相関係数値は0.7427であった.短文分割後は,分割前と比べて順位相関係数値が若干ではあるが良くなることが判明した.数値が良くなる原因として以下のことが考えられる.\begin{itemize}\item短文分割の結果,長文の一部であまり内容情報を持たない部分が別の文として分割され,文の順位付けにおいて,人間にも,システムにも順位が低いものと判断されて,記事全体の順位付けでより近いものとなった.\end{itemize}例えば,原文が\\「この女子行員は昭和六十年四月に京葉銀行に入社し,平成元年の四月から成田西支店の貸し付け係,平成三年十月から成田西支店の出納係を担当しており,ふだんの勤務態度は真面目で上司の信頼もあつかったということです.」\\に対して,分割後は,2文になり,\begin{list}{}{}\item[1.]「この女子行員は昭和六十年四月に京葉銀行に入社し,平成元年の四月から成田西支店の貸し付け係,平成三年十月から成田西支店の出納係を担当していました.」\item[2.]「そして,ふだんの勤務態度は真面目で上司の信頼もあつかったということです.」\end{list}\noindentとなる.分割前のこの文の順位は,人の判定で,7文中4位であるが,分割後の第二文目は,人の判定及びシステムの判定において順位が11文中10位と低くなっている.また,人手で判断された順位を上から70%程度までを見て,それらがシステムの判断した上位70%と一致しているかも見てみた.分割後の対象としたのは,分割1,分割2の双方とも,100記事全体である.順位の近さを計るのに今回もスペアマンの順位相関係数を用いた.その結果は以下の通りである.\footnote{尚,前述の2名の評価者間での上位7割における順位相関係数値は,0.8246である.}\begin{table}[h]\begin{center}\begin{tabular}{|l|r|}\hline比較対象記事(上位70%)&順位相関係数値\\\hline分割前(100記事)&0.5051\\\hline分割1(100記事)&0.5056\\\hline分割2(100記事)&0.5063\\\hline\end{tabular}\end{center}\caption{短文分割の文順序付けへの影響(上位7割での順位相関係数値)}\end{table}\vspace{-3mm}上位7割を比較したのは,現在数少ない字幕付きTVニュース番組であるNHK教育チャンネルの「手話ニュース845」において,原稿に対して付与される字幕は,原稿の要約となっているが,文字数において約7割程度になっていることを考慮したものである(若尾,江原,白井1997).上位7割の文での比較では,分割前,分割後ともほぼ同じ順位相関係数値を残した.これは,上にみたように,分割後の場合,人とシステムで順位の低い文が一致しているケースが多く,その結果,上位7割だけでの比較を行うと,分割前の相関係数値が多少上がり,それに対して分割後の2つの係数値は,多少下がることになり,全体として余り差のない結果となっている.短文分割の順位付けへの影響を総合すると図4のようになる.\vspace{-3mm}\begin{figure}[h]\begin{center}\mbox{\epsfile{file=fig/142_ue.eps,height=69mm}}\end{center}\caption{文順位付けでの短文分割の影響(スペアマン相関関係係数)}\end{figure}\vspace{-8mm}\subsection{文字数圧縮}記事中の文中の不要な部分の削除や,短い表現へ言い換えることによって文字数を減らす(文字数圧縮)について,短文分割のもたらす影響を調べた.文字数圧縮規則を,付録に添付した.基本的には,文中,特に,文頭,文末の表現に注目して,文字の削除,または言い換えを行うものである.例えば,「強調しました.」と言う文末であれば,「強調.」とする,「総理大臣」は「首相」とするなどである.文字数圧縮規則は,聴覚障害者向けであり,字幕付きニュース番組である「手話ニュース845」(NHK教育)の字幕で使われている要約の規則を分析し得られた規則を基礎とし,NHK放送データベース中のニュース番組の原稿を約300記事\footnote{文字数圧縮規則の改良に用いた記事(約300記事)は,本論文で評価に用いた記事と重複していない.}用いて,更に修正,改良したものである(若尾,江原,白井1998).これらの規則を用いて,短文分割を行う前と後での,圧縮率の変化を調べた.この場合,圧縮率は以下の式で算出した.\vspace{3mm}{\bf圧縮率=圧縮後の記事の文字数/元記事の文字数}\vspace{3mm}短文分割を行うと,前述のように記事の文字数は増加するが,それらは中間結果であり,この圧縮率は,あくまで,元の記事の文字数と最終的な記事の文字数から算出されるものである.まず,元記事200に文字数圧縮規則を適用して,圧縮率を計算し,そして,分割1,分割2の処理を行った結果に文字数圧縮規則を適用して,圧縮率を算出した.つまり,3つの場合での圧縮率を計算している.\begin{list}{}{}\item[1.]短文分割は行わず,文字数圧縮のみを行った場合\item[2.]短文分割1を行い,その後文字数圧縮を行った行った場合\item[3.]短文分割2を行い,その後文字数圧縮を行った行った場合\end{list}その結果は,表5の通りである.\vspace{-3mm}\begin{table}[h]\begin{center}\begin{tabular}{|l|l|r|r|r|}\hline&\multicolumn{1}{|c|}{200記事}&\multicolumn{1}{|c|}{短文分割による}&\multicolumn{1}{|c|}{\hspace{4mm}文字数\hspace*{4mm}}&\multicolumn{1}{|c|}{圧縮率(%)}\\&&\multicolumn{1}{|c|}{増加文字数}&&\\\hline&元記事&&96,936&\\\hline1&文字数圧縮のみ&&91,808&94.71%\\\hline2&分割1+文字数圧縮&1,438&89,182&92.00%\\\hline3&分割2+文字数圧縮&1,742&89,114&91.93%\\\hline\end{tabular}\end{center}\caption{文字数圧縮での短文分割の影響}\end{table}\vspace{-5mm}短文分割を行うと,分割1,分割2を問わず記事がより圧縮されることが判明した.この理由として次の2点が考えられる.\begin{itemize}\item短文分割により接続詞(「そして」,「しかし」)などが挿入されるが,文字数圧縮の段階で削除される.これにより,短文分割処理による文字数の増加分は,文字数圧縮により相殺される.\item短文分割の条件に合った長文が,記事中にある場合は,分割が行われ,文数が増える.これにより,文末の数も増加することになり,文字数圧縮規則により文末の文字数を圧縮できる機会が増え,より多くの文字を減らすことが出来ることになる.\end{itemize}つまり,短文分割を行うことにより,元記事を単に文字数圧縮をした場合よりも文字数をより減らすことが出来る場合が生じることになる.例えば,3.1節の京葉銀行の文だと,原文(1文のみ)では,文字数圧縮規則により削減されるのは,文末の「届け出ました」が「届け出た」となる2文字だけである.ところが,3文に分割されると,以下のようになる.\begin{list}{}{}\item[1.]「京葉銀行の成田西支店の女子行員が,他人名義のカードローンを悪用しておよそ三億円を着服していた疑いが強まった.」\item[2.]「京葉銀行ではきょう,この女子行員を懲戒解雇.」\item[3.]「千葉県警察本部に被害を届け出た.」\end{list}第一文で「強まりました」が「強まった」となり,第二文で,「そして,」が削除,「解雇しました」が「解雇」になり,第三文では,「それとともに,」削除,「届け出ました」が「届け出た」となり,3文全体では,原文と比べて,結局,8文字削減されたことになる.つまり,短文分割を行うことにより,より多くの文字が削減されることになった.
\section{おわりに}
label{sec:owarini}テキスト中の長い文を短い文に分割する短文分割処理の自動要約技術への影響を調べた.自動要約技術としては,重要度による文の順位付け,そして,不要部分を特定し,削除,言い換えする文字数圧縮を取り上げた.重要と判定される文で,短文分割により分割される場合の分割文の順位を調べると,順位にばらつきが見られ,短文分割の要約への効果があることが分かった.また,記事中の全文を対象とした順位の評価では,短文分割をすると,人とシステムの順位付けがより近くなることが判明した.次に,文字数圧縮においては,短文分割をすることにより,文字数を削減する機会が増え,より多くの文字が削除出来ることが判明した.短文分割は,文単位での要約を,より小さな単位に分割して要約しようとするものであり,今後は,短文よりさらに小さな単位である文節を基礎とした自動要約技術についての研究を進めて行く予定である.本論文では,対象をテレビニュース原稿としたが,新聞記事(毎日新聞1995年版)を用いて実験を行ない,他の分野でのテキストでも,短文分割の効果があるかを調べた.新聞記事は,記事の文字数が250文字以上ある100記事を無作為に選んだものを用いた.評価には,文字数圧縮において,短文分割の効果があるかを調査した.その結果,元記事を単純に文字数圧縮した場合,圧縮率が97.90%であり,圧縮そのものにあまり効果が見られなかった.これは,新聞記事では,文末が,「です,ます」調ではなく言い切りであること,また,テレビニュース原稿に見られる「…ということです」などの独特の表現が少ないことに原因があると思われる.短文分割後に文字数圧縮をした場合は,圧縮率が97.61%となり,短文分割をしない場合より0.29%下がるに留まり,ニュース原稿の場合ほどには,分割の効果が見られなかった.この実験は,小規模のものであり,TVニュース原稿以外での分野のテキストにおいて短文分割の自動要約への効果を調べるには,より詳細で,大規模な実験が必要であり今後の課題である.\clearpage\appendix\renewcommand{\arraystretch}{}\begin{tabular}{|p{6.3cm}|p{6.5cm}|}\hline{\bf条件}&{\bfアクションと例文}\\\hline{\bf文末の動詞がサ変動詞}&{\bfそのサ変動詞以降を全て削除する}\\(但し,否定の表現は含まない)&「強調しました.」→「強調.」\\&「言及しませんでした.」(適応せず)\\\hline{\bf文末の動詞がサ変名詞+「を」+「する」}&{\bfそのサ変名詞以降を削除する}\\(但し,否定の表現は含まない)&「宣誓をしました.」→「宣誓」\\\hline{\bf丁寧助詞の「ます」}&{\bf「ます」「まし」を削除して適当な文末に}\\&「…なりました.」→「…なった.」\\&「…訪れます.」→「…訪れる.」\\\hline{\bf特定の文末表現}&{\bfその表現を削除}\\&「ということです」,「としています」,\\&「ことにしています」など\\\hline{\bf特定の文頭表現}&{\bfその表現を削除}\\&「一方」「その一方で」「このあと」など\\\hline{\bf名詞性語句+断定の助動詞「です」で}&{\bf「です」を削除する}\\{\bf終る}&「状況です.」→「状況.」\\&「15アンダーです.」→「15アンダー.」\\\hline{\bf特定の表現}&{\bf意味を変えずに,より短い表現(語句)に}\\&「総理大臣」→「首相」\\&「最高裁判所」→「最高裁」\\\hline{\bf文中に現れ,括弧でくくられたカタカナ}&{\bfカタカナ文字列を括弧とともに削除}\\{\bf文字列}&「大洗漁港(オオアライギョコウ)」\\&→「大洗漁港」\\\hline{\bf省略形がある場合}&{\bf省略形だけにする}\\&「連合=日本労働者組合総連合会」\\&→「連合」\\\hline{\bf括弧でくくられた数字列}&{\bf括弧とともに削除する}\\&「…容疑者(49)」→「…容疑者」\\\hline{\bf特別な表現}&{\bf削除する}\\\vspace{-3mm}\begin{itemize}\item「問い合わせ先」ではじまる文\item「電話」ではじまり,その後が数字と括弧だけで構成される文\end{itemize}\vspace{-5mm}&\\\hline\end{tabular}\clearpage\bibliographystyle{jnlpbbl}\begin{thebibliography}{99}\bibitem[\protect\BCAY{}{}{}]{}EdmundsonH.P.\BBOP1969\BBCP.\newblock\BBOQNewMethodsinAutomaticExtracting\BBCQ\\newblock{\BemJournaloftheACM},{\Bbf16}(2),\BPGS\264--285.\bibitem[\protect\BCAY{}{}{}]{}江原暉将,沢村英治,若尾孝博,阿部芳春,白井克彦\BBOP1997\BBCP.\newblock\BBOQ聴覚障害者のための字幕つきテレビ放送制作への自然言語処理の応用\BBCQ\\newblock言語処理学会第3回年次大会予稿集.\bibitem[\protect\BCAY{}{}{}]{}GrefenstetteG.\BBOP1998\BBCP.\newblock\BBOQProducingintelligenttelegraphictextreductiontoprovideanaudioscanningservicefortheblind\BBCQ\\newblockIn{\BemWorkingNotesoftheAAAISpringSymposiumonIntelligentTextSummarization},\BPGS\111--117.\bibitem[\protect\BCAY{}{}{}]{}HovyE.,MarcuD.\BBOP1998\BBCP.\newblock\BBOQAutomatedTextSummarization"TutorialNotesforTextsummarization\BBCQ\\newblock{\Bemthe36thAnnualMeetingoftheAssociationforComputationalLinguisticsand17thInternationalConferenceonComputationalLinguistics}.\bibitem[\protect\BCAY{}{}{}]{}金淵培,江原暉将\BBOP1993\BBCP.\newblock\BBOQ日英機械翻訳のための日本語ニュース文自動短文分割と主語補完\BBCQ\\newblock情報処理学会自然言語処理研究会報告書NL-93-3.\bibitem[\protect\BCAY{}{}{}]{}木村真理子,野村浩一,平川秀樹\BBOP1993\BBCP.\newblock\BBOQ日英機械翻訳前編集における日本語文分割処理について\BBCQ\\newblock情報処理学会自然言語処理研究会報告書NL-96-8.\bibitem[\protect\BCAY{}{}{}]{}Luhn,H.P.\BBOP1957\BBCP.\newblock\BBOQAstatisticalapproachtothemechanizedencodingandsearchingofliteraryinformation\BBCQ\\newblock{\BemIBMJournalofResearchandDevelopment},{\Bbf1}(4),\BPGS\309--317.\bibitem[\protect\BCAY{}{}{}]{}毎日新聞\BBOP1995\BBCP.\newblockCD-毎日新聞95版,\newblock(株)毎日新聞社.\bibitem[\protect\BCAY{}{}{}]{}MarcuD.\BBOP1997\BBCP.\newblock\BBOQFromdiscoursestructurestotextsummarization\BBCQ\\newblockIn{\BemProceedingsoftheACLWorkshoponIntelligentScalableTextSummarization},\BPGS\82--88.\bibitem[\protect\BCAY{}{}{}]{}三上真,山崎邦子,増山繁,中川聖一\BBOP1998\BBCP.\newblock\BBOQ文中の重要部抽出と言い替えを併用した聴覚障害者用字幕生成のためのニュース文要約\BBCQ\\newblock言語処理学会第四回年次大会併設ワークショップ「テキスト要約の現状と将来」論文集,\BPGS\14--21.\bibitem[\protect\BCAY{}{}{}]{}奥村学,難波英嗣\BBOP1998\BBCP.\newblock\BBOQテキスト自動要約技術の現状と課題\BBCQ\\newblock北陸先端科学技術大学院大学情報科学研究科リサーチレポートIS-RR-98-0010I.\bibitem[\protect\BCAY{}{}{}]{}大村平\BBOP1980\BBCP.\newblock\BBOQ統計解析のはなし\BBCQ\\newblock日科技連出版社.\bibitem[\protect\BCAY{}{}{}]{}Wakao,T.,Ehara,E.,Sawamura,E.,Abe,Y.,Shirai,K.\BBOP1997\BBCP.\newblock\BBOQApplicationofNLPtechnologytoproductionofclosed-captionTVprogramsinJapaneseforthehearingimpaired\BBCQ\\newblockIn{\BemProceedingsofACL97workshop,NaturalLanguageProcessingforCommunicationAids},\BPGS\55--58.\bibitem[\protect\BCAY{}{}{}]{}若尾孝博,江原暉将,白井克彦\BBOP1997\BBCP.\newblock\BBOQテレビニュース番組の字幕に見られる要約の手法\BBCQ\\newblock情報処理学会自然言語処理研究会,NL-122-13.\bibitem[\protect\BCAY{}{}{}]{}若尾孝博,江原暉将,白井克彦\BBOP1998\BBCP.\newblock\BBOQテレビニュース字幕のための自動要約\BBCQ\\newblock言語処理学会併設ワークショップ「テキスト要約の現状と将来」論文集,\BPGS\7--13.\bibitem[\protect\BCAY{}{}{}]{}Wakao,T.,Ehara,E.,Shirai,K.\BBOP1998\BBCP.\newblock\BBOQProjectforproductionofclosed-captionTVprogramsforthehearingimpaired\BBCQ\\newblockIn{\BemProceedingsof36thAnnualMeetingoftheAssociationforComputationalLinguisticsand17thInternationalConferenceonComputationalLinguistics(Coling-ACL98)}.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{福島孝博}{1990年米国StateUniversityofNewYorkatBuffalo,大学院ComputerScience研究科修士終了.1990年から1993年米国NewMexicoStateUniversity,CRLにて研究員.1994,95年,英国シェフィールド大学大学院ComputerScience研究科ResearchAssociate(研究員).96年日本電気(株)入社.同年より通信・放送機構渋谷上原リサーチセンターに出向,研究員,現在に至る.自然言語処理,情報抽出,自動要約の研究に従事.}\bioauthor{江原暉将}{1967年早稲田大学第一理工学部電気通信学科卒業.同年,NHK入局.1970年より放送技術研究所勤務.かな漢字変換,放送衛星の管制制御,機械翻訳,音声認識などの研究に従事.1996年より現職.本会評議委員.工学博士.}\bioauthor{白井克彦}{1963年早稲田大学理工学部電気工学科卒業.1968年大学院理工学研究科博士課程修了.同年同大学理工学部電気工学科専任講師,1975年同教授,1991年理工学部情報学科教授.1998年,常任理事.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V04N04-03 | \section{はじめに}
アスペクトとは,動きの時間的な局面を問題にして,どの局面をどのように(動きとして,あるいは状態として)とらえるか,ということを表すカテゴリーである.『国語学大辞典』\cite{Kokugo93}で「アスペクト」の項をひくと,\begin{quotation}動詞のあらわす動作が一定時点においてどの過程の部分にあるかをあらわす,動詞の形態論的なカテゴリー.たとえば,「よみはじめる」はよむ動作がはじまることを,「よんでいる」は進行の途中にあることを,「よんでしまう」は動作がおわりまでおこなわれることを,「よんである」は,動作終了後に一定の結果がのこっていることをあらわす.アスペクトは,時間にかかわるカテゴリーであるが,テンスとちがって,はなしの時点との関係は問題にしない.(後略)\end{quotation}とされている.当然のことながら,動詞句の実現するアスペクト的な意味は,動詞の性格と密接に関係する.金田一は,動詞を継続動詞と瞬間動詞にわけ,継続動詞が「している」になると進行態(進行中の意味)となり,瞬間動詞は既然態(結果の状態の意味)になるとした\cite{Kindaiti76}.このほか,結果動詞と非結果動詞,さらに,変化動詞,出現動詞,消滅動詞,設置動詞などと,さまざまな分類がなされてきた.英語においても,Vendlerによるactivities,achievements,accomplishments,statesというような分類\cite{Vendler57},あるいはComrieによるactions,states,processes,eventsのような分類がある\cite{Comrie76}.しかし,近年の研究は,動詞句の分類とそれぞれの意味を記述していく段階から,副詞的成分などの関わりを含め,アスペクト的な意味の決まり方のプロセスを整理する方向へと発展してきている.たとえば,森山は,「結婚している」という句が,通常,結果の状態をあらわすのに対し,「多くの友達が次々と結婚している」といった場合には,繰り返しとしての進行中と解釈されるなどの例を挙げ,最終的なアスペクトの意味が,格成分,副詞などを含めた包括的なレベル(森山氏はこれをアスペクトプロポジションAPと呼んでいる)において決められることを指摘している\cite{森山83,森山88}.本稿では,アスペクト形式\footnote{派生的にとらえられる文法的な形態素を形式と呼ぶ.本稿では,「シ始メル」などの複合動詞も含め,動詞に後続する要素をアスペクト形式とよぶ.}や副詞句の意味を時間軸におけるズーミングや焦点化といった認知的プロセスを表示するものとしてとらえ,動詞句の意味に対する動的な操作であると考える.次節では,これらの概念について,一般的な説明を与える.第3節では,動詞句の意味を素性によって表現し,それに対してアスペクト形式や副詞句が具体的にどのような操作をするかを明らかにする.第4節では,動詞句の意味をコーパスに現れた表層表現から推定し,6種類のクラスに分類する実験の方法と結果および評価を述べる.実験結果の評価は,最も基本的なアスペクトの形態である「シテイル」形の意味を自動的に決定する処理によって行なった.動詞句の分類自体は,客観的に評価することが難しいからである.
\section{ズーミングと焦点化}
ここでは,次節で述べるアスペクト形式や副詞の行なう操作的な作用の基礎となる概念である{\bfズーミング}と{\bf焦点化}について説明する\footnote{本稿は,これらの操作に対して,形式的な表現を与えるものではない.形式化によって,一般的な適用可能性と柔軟性が失われるおそれがあるからである.時間表現の形式的表現については,\cite{原88},\cite{郡司94},\cite{金子95}など参照.}.ズーミングとは,テレビカメラが行なうように,対象をアップで撮るか,ロングで撮るかを自由に変えることをいう.前者をズームイン,後者をズームアウトと呼ぶ.人間は,同一の客観的事象に対して,異なる表現をすることができる.たとえば,人が死んだのを見て,他殺であっても加害者を明示せず,自動詞を用いて「死んだ」といえるし,自殺や病死であっても,「社会(病気)が人を殺した」と他動的表現をすることができる.ある事態を叙述するためには,その事態に関与する人および物の中から,表現する範囲を限定し,枠組を設定しなければならない.この枠組のことを「認知のスコープ」と呼び,それを変更すること,すなわち,新たな枠組を設定することをズーミングと呼ぶ.他方,焦点化とは,レンズの焦点を絞るように,ある対象に注目して事態を叙述することをいう.「地震が家を倒す」のと,「家が地震で倒れる」のとで,実際の地震に区別はない.ただ,人間が地震を主にして考えるか,家を主にするかの違いである.どの概念に焦点をあてるかによって,動詞句の構造は大きく変わることになる.ズーミングや焦点化という用語は,カメラのメタファーを用いているために,視覚的操作であるかのような印象を与えるかもしれない.実際,人間は視覚器の水晶体や虹彩を使って,これらの処理を行なっている.しかし,ここでいうズーミングや焦点化は,感覚器の行なう処理ではない.われわれの眼が言語表現を決定するわけではない.知覚系を通過して脳に入ってくる情報を処理する形式そのものとして,これらの概念を想定しているのである.したがって,これらの処理を視覚系に限定する必要はない.本稿では,これを時間軸上に適用する.人間は,存在を三次元空間と時間とを用いて認識している.そして,時間軸は空間の軸とは独立なものとして取り扱い,それを当然のことだと思っている.それで,ズーミングや焦点化といった空間のメタファーをアスペクトのような時間に関わる概念に対して適用すると,奇異な感じをもたれるかもしれない.しかし,時間と空間とは,いつも相関関係をもっている\cite{本川92}.空間と時間,構造と機能などの二分法をもたらすものは何か.それは,視覚と聴覚という二つの認識系であると考える.視覚の特質は,時間という要素が抜け落ちていることである.写真は瞬間の像である.一方,音は,画像とは違って,時間軸の上を単線で進む.ところで,言語には視覚によるものと聴覚によるものがある.われわれは両方を言語と呼ぶ.視覚と聴覚の一次中枢からの情報に,順次,高次の処理を重ねてゆく.すると,いつのまにか視覚と聴覚の情報が体系的に一致し,ある程度交換可能になる.ここに言語が成立する.刺激の種類も時間に関わる性質も全く異なる二つの感覚を「言語」として統一する\footnote{この考え方は,\cite{養老89,養老96}による.}.その統一の具体的な過程のなかに,ここでズーミングと焦点化と呼ぶ機能が含まれていると考えるのである.ごく単純化していえば,焦点化とは,入力に対する「重みづけ」である.人間が知覚に基づいて世界像を形成する際に,われわれはその入力に対して適当に重みづけをすることができる.最も重みづけされた入力の部分,それが焦点化された部分である.入力に対する重みづけに関して,ある閾値を設定する.この閾値を越えた部分だけが意識にのぼり,認知のスコープを形成する.さらに,重みづけの順位により,ある種の構造が創出される.すなわち,ズーミングとは,入力に対する重みづけの変更に他ならない.さて,上述のように,視覚には時間の要素が抜けている.一方,聴覚・運動系では時間は流れる.両者の連合を可能にするためには,単位的な時間が必要である.これをわれわれは瞬間という.ユークリッド幾何学では直線を点の集合とみなす.視覚の生理学は,視覚系におけるニューロンの直線状の受容野は,同心円状の受容野をもつ複数の下位のニューロンからの入力であることを示した\cite{養老89}.早い話が,そこでは,直線は点の集合なのである.同様の処理が時間という仮想的な次元で行なわれていると考える.瞬間の集合が時間軸を構成する.具体的には,映画のフィルムのコマ送りを思い浮かべればよい.それぞれのコマの集合に重みをつけることによって,ズーミングや焦点化という概念を時間軸上に適用することができる.時間を基礎的に特徴づけるものは変化である.変化がなければ時間はない.それが絵や写真である.しかし,変化のみであれば,ふたたび時間はないであろう.そこでは,時間は変化と同義になってしまう.そこに持続が必要となる.変化と持続の繰り返しのパターンが,動詞のアスペクトの類型を与える.本稿では,その類型を素性によって表現する.また,変化は時間軸をいくつかの部分に分割する.この時間的な断層によって,焦点化の単位が発生する.ある種の格成分は,その内在的な特性によって,この断層をもたらすことができる.「パンを食べ」てしまえば,それ以上「食べる」ことはできない.「学校に」着いてしまえば,同じ「学校に行く」ことはできない.ある種の副詞は,この分割された時間軸の一部分を修飾する.修飾するとは,より詳しく述べることである.詳しく述べるためには,ピントが合っていなければならない.これを焦点化というのである.さらに,アスペクト形式は,動詞語幹によって叙述されるコト的意味(プロポジション)に新たな枠組を押しつける.多くの形式が与える枠組は,時間軸上で分割された部分あるいは分割点の内の一つである.もとの動詞のアスペクトから見れば,枠が縮小されることになる.これをズームインというのである.副詞による焦点化も形式によるズームインも,もとの動詞のアスペクトと整合していなければならない.この制約を用いて動詞のアスペクトの類型を推定することが,本稿の目的の一つである.
\section{アスペクト決定の過程}
\subsection{素性による動詞句分類}本節では,動詞句の最終的なアスペクトの意味の決まり方を前節に述べた操作に基づいて記述するのであるが,その前に,操作が適用されるべき動詞のアスペクト的な意味を考えておく必要がある.ここでは,森山1983で抽出された素性に基づいて,動詞を六つのカテゴリーに分類する.森山は,動詞のアスペクチュアルな素性として,持続性,過程性,終結性,進展性の四つを挙げている.ただし,対象とされているのはアスペクトの対立のある動詞(「スル」形と「シテイル」形が意味的に異なる動詞)であるので,これらを状態性の動詞(「ある」,「いる」など)から区別するための素性として,動作性を追加する.なお,このうち,動作性(dynamic),一点性(atomic)\footnote{atomicとは,動きが点的であることを表し,持続性と対立する概念である.したがって,持続性のあるものは,$-$atomicである.},終結性(telic)については,\cite{Bennett90}や\cite{Dorr93}などでも用いられている.{\bf動作性(dynamicity)}とは,述語が動きを表す(+d)か,状態を表すか($-$d)を区別するための素性である.一般に,日本語の動詞は無標では動きを表し,「テイル」をつけて状態化するのが普通であるが\cite{Talmy85},状態的な動詞は「スル」形で状態を表す.動きを表す動詞の「スル」形は一般に未来を表すのに対し,状態的な動詞の「スル」形は現在を表す.この違いは,意味的なものであり,単に「テイル」がつくつかないという違いではない.{\bf持続性(durationality---non-atomicity)}とは,動詞の表す動きや,それによって生ずる事態に,何らかの持続的な期間が存在することを表す素性である.持続性があれば($-$a),「シ続ケル」「シナガラ」などの形式が承接し,単純な期間成分(「〜間」,「暫く」など)が共起しうる.持続性には,動きそのものが展開する持続(「勉強し続ける」)と,動きの結果を維持する持続(「下を向き続ける」)の二種類がある.前者を{\bf過程持続},後者を{\bf結果持続}とよぶ.{\bf過程性(process)}とは,上述した過程持続に関する素性であり,動きが展開する持続があるかどうかを区別するものである.過程性があれば(+p),「シテイル」形が進行中の意味で承接しうるし,「シ始メル」,「シ出ス」,「シカカル」,「シカケル」などの始動を表す形式が承接する.ただし,「シカカル」,「シカケル」は,動きの前段階をあらわすこともあるので,純粋に始動を表すとはいえない.{\bf終結性(telicity)}とは,動きに終わりの点があるということを表す素性である.もちろん,過程性を前提とする.終結性があれば(+t),「シ終ワル」,「シ終エル」など,終結点を取り出す形式が承接するほか,「〜間カカッテ」という稼働期間を表す成分と共起しうる.{\bf進展性(graduality)}とは,動きの中に何らかの変化が内在していて,時とともにその程度が深化進展するという素性である.進展性があれば(+g),「シテイク」,「シテクル」,「シツツアル」などの形式が承接する(これらは,進展性以外の用法もある)ほか,「次第に」,「徐々に」などの副詞が共起しうる.以上の五つの素性の組合せにより,動詞を分類することができる.各素性には依存性がある(過程性がなければ終結性はないなど)ので,6種類のカテゴリーが考えられる(表\,\ref{tab:category}).ここでは,わかりやすさのために各素性を``+'',``$-$''によって二分したが,各素性には段階性があり,明確な境界が存在するわけではない.形式の承接についての容認性にも,言いやすいものと言いにくいものなどの段階性があろう.したがって,それによって定義されるカテゴリーもプロトタイプ性を含んだものとなる.すなわち,そのメンバーには典型的なものと周辺的なものが存在し,カテゴリーの間に明確な境界は存在しない.\begin{table}[h]\caption{素性による動詞分類}\label{tab:category}\centering\begin{tabular}{|l|l|l|}\hlineカテゴリー&素性表現&動詞の例\\\hline\hline1.状態的&[$-$d]&ある,いる,そびえる\\\hline2.一点的&[+d,+a]&ひらめく,見かける,飽きる\\\hline3.変化+結果持続&[+d,$-$a,$-$p]&座る,立つ,ぶらさがる\\\hline4.過程+結果持続&[+d,$-$a,+p,+t]&殺す,着る,開ける\\\hline5.非進展的過程&[+d,$-$a,+p,$-$t,$-$g]&歩く,言う,歌う\\\hline6.進展的過程&[+d,$-$a,+p,$-$t,+g]&腐る,高まる,近付く\\\hline\end{tabular}\end{table}\vspace*{-2mm}表\,\ref{tab:category}において,{\bf1.状態的動詞}とは,動作性のない動詞($-$d)である.動作性がないとは,動きのあり方に質的な断層を前提しないということであり,その動詞の表す状態が時間的に連続的なものとして取り上げられる(後述).状態的な動詞には,存在を表すものと,性質を表すものがある.{\bf2.一点的動詞}とは,一時点的な動きを表す動詞である.これには,「ひらめく」,「命中する」など無変化で一時点的な動きの他に,「死ぬ」のように,永続的な変化を表すものが含まれる.永続的な変化は,結果が非可逆的であるので,結果の持続を取り上げることができない.そこで,「*死に続けた」,「*しばらく死んだ」などが言えないとともに,「シテイル」形が,変化の結果のありさまを述べる意味と,かつてその動きがあったということを表す経歴の意味と中和的になる(後述).{\bf3.変化+結果持続動詞}とは,変化によってある状態が成立し,その結果が持続されるという意味の動詞である.ただし,過程性がないので,動きの展開や変化の過程が取り上げられることはなく,「シテイル」形は進行中の意味にならない.主に姿勢や態勢を表す動詞が多い.{\bf4.過程+結果持続動詞}とは,過程によって主体あるいは客体に変化が生じ,その結果が持続されるという動詞である.「窓を開け続ける」,「窓を開けている」のように,「シテイル」,「シ続ケル」の意味は,進行中の意味と結果の持続の意味の二つがありうる.{\bf5.非進展的過程動詞}とは,動きの展開する過程のみを有するものであり,変化を表さない.動詞だけを取り上げれば終結性はないが,対象にくるものの性質や明示的に終点を表す格成分によって終結点が設定されうる.また,動きの全体量を規定することによっても終結性を持ちうる(後述).{\bf6.進展的過程動詞}とは,進展性を持つ動詞であって,変化をもたらす過程の部分が漸次変化を表すものである.進展的な場合は終結点が設定されないのが普通であるが,副詞等によって,終結点が設定される場合がある(後述).Vendlerの分類では,1がstates,2,3がachievements,4,6がaccomplishments,5がactivitiesとなる.それぞれのカテゴリーは,変化があればその変化が主体の変化か客体の変化か,結果の持続があればその持続が主体的(意志的)になされるか否かによって,さらに細分することができるが,副次的なものであると考える.\subsection{アスペクトに関わる領域}動詞句全体のアスペクトは,{\bf動詞$\rightarrow$格成分$\rightarrow$副詞$\rightarrow$形式}の順序で未分化な状態から分化したものへと変わってゆく.その際,動詞に固有に備わっている素性によって制約を受ける.ここでは,上に述べた動詞のアスペクトに対して,これらの要素がどのように働きかけるかという点について述べる.\subsubsection{格成分}動詞句の意味を考えるうえで,最も重要なものは格成分である.Tennyは,``mesuringout''および``terminus''という概念を導入して,動詞のとる項(argument)とアスペクトの関係を詳細に記述している\cite{Tenny94}.``mesuringout''とは,動きの全体量を規定することであり,これによって終結性のない動詞に終結性を付加することがある.この役割は,internaldirectargument(概略,他動詞目的語および非対格動詞(unaccusative)の主語に相当する)のみが担うことができる.例として,Tennyは,incrementalthemeverbs(`eatanapple',`buildahouse'など),change-of-stateverbs(`ripenthefruit'など),pathobjectsofrouteverbs(`climedtheladder',`playasonata'など)の三種類を挙げている.``terminus''とは,動きの終点を設定するものであり,これも動詞に終結性を付加する.この役割を担うのは,internalindirectargument(英語では前置詞``to'',日本語では「に」格または「まで」格)である.このように,格成分とアスペクトは密接に関連している.ただし,すべての格成分がアスペクトに関わるわけではなく,あくまで,特定の動詞クラスにおいて,特定の格が特定の役割を担うことがありうるということである.Tennyは,同じ動詞が異なる構文に入ることによって,そのアスペクチュアルな意味が転移するということも述べているが,日本語では,以下で述べる副詞やアスペクト形式によって表現されるものが多い.日本語において格成分が関与する例としては,移動の動詞が,終点を表す「に」格または「まで」格をとって,終結性を獲得すること(「学校まで走る」),非能格動詞(unergative)が同族目的語をとって,全体量が設定されること(「短い一生を生きる」)などがある.これらは,焦点をあてるべき動きの全体枠を設定する.\subsubsection{副詞}\label{fukushi}一般に,副詞は動きのある部分に焦点をあて,その部分をより詳細に述べる働きをする.その焦点をあてる部分によって,以下のように分類される\cite{森山88}.{\bf過程修飾副詞(Processmodifiers)}は,過程性のある動詞を修飾する.「がさがさ」,「ばたばた」,「すいすい」,「せっせと」,「ぶつぶつ」,「がらがら」のような畳語オノマトペや,「ゆっくり」,「手早く」,「足早に」などの速度を表す副詞がある.これらは,動きの展開過程に焦点をあてる働きをする.{\bf進展的副詞(Gradualchangeindicators)}とは,「段々」,「すこしずつ」,「徐々に」,「ぐんぐん」,「しだいに」などのように,変化の進展を表す副詞である.過程のある主体変化の動詞句は,「熱が下がっている」のように,それだけなら「シテイル」形では結果の状態の読みが優先されるのに対し,「熱が次第に下がっている」のように,この種の副詞の修飾を受けると,過程の部分に焦点があてられ,進行中の意味に読まれる.{\bf持続副詞(Continuousadverbs)}とは,「ずっと」「いつまでも」のように,過程,結果持続のどちらも修飾しうるものである.どちらに焦点があてられるかは,動詞の意味による(後述).いずれにしろ,持続性がなければならず,「一時間」などの期間を表す成分と同じ共起属性を持つ.また,場所を示す「で」などの成分も,過程と結果の両方を修飾することができるが,持続性は関与しない.{\bf一時点化副詞(Atomicadverbs)}とは,動きを一点的なものとしてとらえる副詞である.持続的な動きでも,特にある一点だけを取り出して修飾するものである.「さっと」,「ぽんと」,「がたっと」,「ぽたりと」,「瞬間」,「一瞬」,「あっというまに」などがある.これらが共起すれば,動きが一時点的なものとして把握されることになる.ただし,動詞が一時点的であるとは限らない.あくまで,とらえ方の問題である.{\bf量規定副詞(Quantityregulators)}とは,「五キロ歩く」のように,動きの全体量を規定する副詞である.量を規定する副詞なら何でもよく,時間,距離,内容の量などがある.{\bf結果修飾副詞(Endstatemodifiers)}は,特に変化の結末を表す副詞であり,「まっぷたつに」,「こなごなに」,「ぺちゃんこに」,「ばらばらに」などがある.この副詞は,変化の最終的な様子を修飾するものである.以上述べたのは,一回的な動きのレベルであるが,繰り返しは,さらにこれらの動きの全体的なあり方を規定する.繰り返しによって,動きが固有に持っている素性とは無関係に繰り返しとしての過程が問題にされる.{\bf繰り返しの規定(Repetitionadverbs)}には,「三回」,「何度も」,「いくたびか」のように,繰り返しの全体量を規定するものと,「いつも」,「しょっちゅう」,「つねづね」のように,習慣的な繰り返しを規定するものがある.いずれも,主体と動きの関与(事態)が複数である.最後に,{\bf過去の副詞(Timeinthepastadverbs)}についても述べておく.「私はかつて留学している」のように,「シテイル」という現在・未来形と,「かつて」,「昔」,「以前」のような過去の副詞が共起することがある.これは,動きを表すというよりも,経歴を述べる場合であるが,このような過去の副詞は,それ事態でテンス相関的な時制構造を決めてしまう.「シテイル」の意味については,次節で述べる.\subsubsection{アスペクト形式}アスペクト形式には,「始メル」,「続ケル」,「終ワル」,「カケル」のような統語的複合動詞,「テイル」,「テクル」,「テアル」のように「テ」形に接続する補助動詞,「ママダ」,「バカリダ」,「トコロダ」などの形式名詞などがある.ここでは,次節の実験で用いたものについてのみ,簡単に述べる.「シヨウトスル」,「シカケル」は,出来事の発生だけを問題にする形式である.それで,アスペクトの対立がありさえすれば(+d),これらの形式が共起することができる.「シテシマウ」も,モダリティー的な意味があるので,原則的には,出来事が発生しさえすれば共起する.ただ,「料理を全部食べてしまう」のように,終結性がある場合には,その終結点を取り出す意味になる.「シ続ケル」は,持続性がある($-$a)動詞に承接する.先に述べたように,動きの展開する過程と結果の持続の両方を取り上げることができる.「シ始メル」は,過程性のある(+p)動詞に承接し,その過程の始まりを取り上げる.これに対し,「シ終ワル」,「シ終エル」は,過程の終結を取り上げる.したがって,終結性を持つ(+t)動詞に承接する.ただし,これらが動詞が固有に持っている素性と関わるのは,一回的な動きのレベルであり,繰り返しによって複数の事態が過程化される場合には,動詞の素性とは無関係に,状態的動詞以外のあらゆる動詞に承接することが可能である(「多くの人々が,戦争で死に続けている」等).「シツツアル」,「シテイク」,「シテクル」は,変化の進展的過程を取り上げる.進展しつつある変化を状態として取り上げるのが「シツツアル」であり,変化の元の様子に視点を置いたのが「シテイク」,変化の行く先に視点を置いたのが「シテクル」である.ただし,「シテイク」,「シテクル」には単に方向的な移動を表す用法(「持っていく」等)の他,以前から,または,以後への継続を表す用法がある(「昔から,村の人々はここで祭りを行なってきた」等).
\section{動詞の分類実験}
ここでは,コーパスに現れた表層表現から,動詞のアスペクチュアルな素性を獲得する,すなわち,表\,\ref{tab:category}の六つのカテゴリーに動詞を分類する実験について述べる.動詞の分類が得られれば,それに前節で述べた他の要素による操作を順に適用することによって,動詞句全体のアスペクト属性を推定することが可能となる.\begin{figure}\begin{center}\leavevmode\includegraphics[width=70mm,clip]{category.eps}\end{center}\caption{動詞の分類と素性間の関係}\label{fig:category}\end{figure}図\,\ref{fig:category}に示すように,それぞれのカテゴリーは,アスペクト形式と動詞の共起制限に基づいて決定されるものである.しかも,これらの形式は動詞に直接後続するものであるから,構文解析をするまでもなく,形態素解析だけで容易にデータを収集することができる.しかし,図\,\ref{fig:category}において,形式の表示していない枝は,相対する枝に表示してある形式に対する負例を表すものである.我々は,負例を用いることができない.コーパス中に見つからなかったといって,絶対に言えないとは限らないからである.したがって,負例を用いずに,正例のみで知識を獲得する何らかの手法を確立する必要がある.また,先に述べたように,持続性を表す($-$a)とされる「シ続ケル」などの形式は,事態全体の繰り返しによって,あらゆる動詞に承接する可能性がある.さらに,「テイク」,「テクル」,「ナガラ」などは,アスペクト以外の意味でも用いられる場合もある.\subsection{アルゴリズム}これまでの考察に基づいて,動詞を分類するためのアルゴリズムを以下に示す.なお,実験には「EDR日本語コーパス」(約21万文)および「EDR日本語共起辞書」\cite{EDR95aj}を利用した.\begin{description}\item[STEP:1データの抽出]EDR日本語共起辞書から,係り側単語の品詞が副詞で,受け側単語の品詞が動詞であるデータを抽出し,共起頻度とともに,配列PAIR(表\,\ref{tab:pair})に登録する.\item[STEP:2副詞の分類]配列PAIRに含まれる副詞を,\ref{fukushi}節で述べた基準によって分類し,分類ラベル(英語の頭文字)を与え,配列ADVERBに登録する(表\,\ref{tab:adverb0},\ref{tab:adverb1}参照).\item[STEP:3対象動詞の決定]配列PAIRから,配列ADVERBに登録されている副詞を含むものを抽出し,動詞をキーとして,副詞との共起頻度を集計する.共起頻度が5以上の動詞を実験対象とし,リストVERBに登録する.\item[STEP:4形式・副詞の獲得]EDR日本語コーパス(解析済)の全文に対して,動詞を発見し,それがリストVERBに存在すれば,\begin{description}\item[STEP:4-1形式の獲得]動詞に直接後続している形式が,あらかじめ用意してあるリスト(表\,\ref{tab:form1})に存在すれば,配列FORMを更新する(当該形式のカラムを1とする.表\,\ref{tab:form2}参照).ただし,クラスRの副詞(繰り返しの規定)に修飾されている場合は登録しない.「テクル」,「テイク」は,クラスGの副詞(進展的副詞)に修飾されている場合のみ登録する.\item[STEP:4-2副詞の獲得]動詞を修飾している副詞が,配列ADVERBに存在すれば,その分類ラベルを参照し,配列MODIFIEDを更新する(当該副詞クラスの頻度に1加算する.表\,\ref{tab:modified}参照).ただし,副詞クラスがCの場合(持続副詞),後続形式が「テイル」を含んでいる場合(C1)と,それ以外の場合(C2)を分けて登録する.また,「ナイ」,「ズ」などの否定を表す形式\footnote{「*しばらく爆発する」$\rightarrow$「しばらく爆発しない」のように,否定することによって,一時点的なものも,その動きがないという持続を持ちうる.}や,「レル」,「サレル」,「セル」,「サセル」など,ボイスに変更をもたらす形式\footnote{「太郎がロープを切っている」$\rightarrow$「ロープが切られている」のように,能動,受動の対立が,動作継続か結果継続というアスペクト的な対立と結び付いている.}が承接している場合は登録しない.\end{description}\item[STEP:5動詞カテゴリーの決定]リストVERBに存在するすべての動詞に対して,\begin{description}\item[STEP:5-1形式による絞り込み]配列FORMに基づき,表\,\ref{tab:form1}にしたがって,可能な動詞カテゴリーを絞り込む.\item[STEP:5-2副詞による決定]STEP:5-1で動詞のカテゴリーが一意に決定できない場合(カテゴリー6以外のとき),配列MODIFIEDを用いて,以下のように動詞カテゴリーを決定する.\[\cases{{\rm進展的副詞(G)に修飾されている場合}\cr\hfill\Rightarrowカテゴリー6\cr{\rm過程修飾(P)があり,結果修飾(E)がない場合}\cr\hfill\Rightarrowカテゴリー5\cr{\rm過程修飾(P)があり,結果修飾(E)がある場合}\cr\hfill\Rightarrowカテゴリー4\cr{\rm過程修飾(P)がなく,結果修飾(E)がある場合}\cr\hfill\Rightarrowカテゴリー3\cr{\rm一時点化副詞(A)のみに修飾されている場合}\cr\hfill\Rightarrowカテゴリー2\cr{\rm持続副詞の原形(スル形)修飾(C2)があり,}\cr{\rm過程修飾(P),進展的(G),結果修飾(E)の副}\cr{\rm詞に修飾されていない場合}\cr\hfill\Rightarrowカテゴリー1\cr{\rm上記以外のとき,}\hfill\Rightarrowあいまいなまま出力\cr}\]\end{description}\end{description}\begin{table}[htb]\begin{minipage}[t]{80mm}\caption{配列PAIR(一部)}\label{tab:pair}\begin{tabular}{|l|l|r|}\hline副詞&動詞&共起頻度\\\hline\hlineああ&いう&1\\\hlineああ&する&1\\\hlineああ&なる&1\\\hline相&会う&1\\\hlineあいかわらず&いる&1\\\hlineあいかわらず&落ち着く&1\\\hlineあいかわらず&加える&1\\\hline\end{tabular}\end{minipage}\hspace{1mm}\begin{minipage}[t]{80mm}\caption{配列ADVERB(一部)}\label{tab:adverb0}\begin{tabular}{|l|l|}\hline副詞&ラベル\\\hline\hlineあいかわらず&C\\\hlineあえぎあえぎ&P\\\hlineあかあかと&P\\\hlineあくせく&P\\\hlineあたふた&P\\\hlineあたふたと&P\\\hlineあっという間&A\\\hline\end{tabular}\end{minipage}\end{table}\begin{table}[htb]\caption{副詞の分類結果}\label{tab:adverb1}\centering\begin{tabular}{|l|r|l|}\hlineラベル&種類数&例\\\hline\hline過程修飾副詞{\sfP}&470&ゆっくりがさがさばたばた...\\\hline進展的副詞{\sfG}&52&次第にますます徐々に...\\\hline持続副詞{\sfC}&78&そのままずっといつまでも...\\\hline一時点化副詞{\sfA}&294&さっとぽんとがたっと...\\\hline量規定副詞{\sfQ}&12&180度一杯一歩一時間...\\\hline結果修飾副詞{\sfE}&86&まっぷたつにこなごなに...\\\hline繰り返しの規定{\sfR}&122&何度もいつもしょっちゅう...\\\hline過去の副詞{\sfT}&11&かつてむかし以前...\\\hline\end{tabular}\end{table}\vspace*{20mm}\begin{table}[htb]\caption{実験に用いたアスペクト形式}\label{tab:form1}\centering\begin{tabular}{|l|l|}\hline形式&共起可能な動詞カテゴリー\\\hline\hlineヨウトスル,カケル&2,3,4,5,6\\\hline続ケル&3,4,5,6\\\hline始メル&4,5,6\\\hline終ワル,終エル&4,5,6\\\hlineツツアル,テクル,テイク&6\\\hline\end{tabular}\end{table}\vspace*{50mm}\begin{table}[hbt]\caption{配列FORM(一部)}\label{tab:form2}\centering\begin{tabular}{|l|r|r|r|r|r|}\hline動詞&\multicolumn{5}{|c|}{形式}\\\hline&カケル&続ケル&始メル&終ワル&テクル\\\hline\hline悪化する&0&0&1&0&1\\\hline握る&1&1&0&0&0\\\hline安定する&0&0&1&0&1\\\hline意識する&0&0&1&0&1\\\hline異なる&0&0&0&0&0\\\hline移動する&0&0&1&0&0\\\hline維持する&0&1&0&0&0\\\hline違う&0&0&0&0&0\\\hline育つ&0&0&0&0&1\\\hline育てる&0&0&0&0&1\\\hline一致する&0&0&1&0&0\\\hline\end{tabular}\end{table}\clearpage\begin{table}[htb]\caption{配列MODIFIED(一部)}\label{tab:modified}\centering\begin{tabular}{|l|r|r|r|r|r|r|r|}\hline動詞&\multicolumn{7}{|c|}{副詞クラス}\\\hline&{\sfP}&{\sfG}&{\sfC1}&{\sfC2}&{\sfA}&{\sfQ}&{\sfE}\\\hline\hline悪化する&0&5&0&0&1&0&0\\\hline握る&0&1&0&1&0&0&1\\\hline安定する&0&1&1&1&0&0&1\\\hline意識する&0&1&0&1&0&0&0\\\hline異なる&0&1&0&0&0&0&1\\\hline移動する&1&1&0&1&1&0&0\\\hline維持する&0&0&0&4&0&0&0\\\hline違う&0&1&0&0&1&0&0\\\hline育つ&5&3&0&0&0&1&1\\\hline育てる&3&1&0&1&0&0&0\\\hline一致する&0&0&0&0&3&0&2\\\hline\end{tabular}\end{table}\begin{table}[htb]\caption{副詞クラスと共起可能な動詞カテゴリー}\label{tab:adverb2}\centering\begin{tabular}{|l|l|}\hline副詞クラス&動詞カテゴリー\\\hline\hline過程修飾副詞{\sfP}&4,5,6\\\hline進展的副詞{\sfG}&6\\\hline持続副詞{\sfC}&1,3,4,5,6\\\hline一時点化副詞{\sfA}&2,3,4,5,6\\\hline量規定副詞{\sfQ}&1,3,4,5,6\\\hline結果修飾副詞{\sfE}&3,4,6\\\hline\end{tabular}\end{table}STEP:1〜3は,実験対象とする動詞を決定するための処理である.STEP:2は,前節で述べた副詞の分類を与える処理である.この処理は手作業で行なったが,副詞は,動詞よりも少数であり(EDR共起辞書に存在する副詞は2,563件,動詞は12,766件である),イコン性(形式と意味の同型性)が高いので\footnote{「がらがら」,「ころころ」,「ゆらゆら」など,反復型の語は,反復継続する状態を描写するのに用いられ,「どっと」「ガラッと」「デンと」など,一音節で促音や撥音を含む語の後に「と」が付いたものは,一回限りの,動きの激しい状態を描写するすることが多い.また,母音の組み合わせ方には,変化の状態が反映される\cite{大坪82}.},分類は比較的容易である.また,この結果は,動詞のカテゴリー決定のみではなく,以下で述べる「シテイル」形の意味の推定においても重要な役割を果たす.これらの副詞と5回以上共起している動詞は,431個あり,これを実験対象とした.STEP:4は,動詞のカテゴリー決定に使用するアスペクト形式および副詞を,動詞ごとに登録する処理であり,この処理で得られたデータを用いて,STEP:5で動詞のカテゴリーを決定した.先に述べたように,形式のみでは動詞のカテゴリーを一意に決定することはできない.そこで,共起する副詞の情報を用いて,カテゴリーを推定した.表\,\ref{tab:adverb2}に示したように,副詞は,クラスごとに,共起できる動詞のカテゴリーが制限されるからである.\subsection{評価}実験対象とした431個の動詞のうち,375個は一意にカテゴリーが得られた.残りの56個のうち,37個はSTEP:5-1で絞り込まれたカテゴリーと,STEP:5-2で決定されたカテゴリーが矛盾するものである.これは,STEP:5-1で形式を獲得する際に,繰り返しの規定を発見できなかったものと思われるので,STEP:5-2で決定したカテゴリーを優先した.結果を表\,\ref{tab:result}に示す.\begin{table}[h]\caption{実験で得られた動詞分類}\label{tab:result}\centering\begin{tabular}{|l|r|l|}\hlineカテゴリー&件数&動詞の例\\\hline\hline1.状態的&30&見つめる維持する住む存在する\\&&眺める黙る繰り返す使える...\\\hline2.一点的&19&投げるはね上がる気づく見かける\\&&合意する切れる踏み切る...\\\hline3.変化+結果持続&29&ぬれるつまるつながる合う座る\\&&暮れるたたむ当てはまる...\\\hline4.過程+結果持続&30&たてる立てる並ぶのばすまとめる\\&&包む交わる散る取り囲む...\\\hline5.非進展的過程&94&飲む運ぶ楽しむ観察する震える\\&&響く飛び回る過ごす食べる...\\\hline6.進展的過程&210&悪化する強まる強める高まる高める\\&&深刻化する活発化する成長する...\\\hline一意に決まらな&19&加わるつとめる伴う訪ねる来日する\\かったもの&&つきまとう果たす誇る上回る...\\\hline\end{tabular}\end{table}約80\%以上の動詞については,正しいカテゴリーに分類されていると思われるが,この判断は主観的なものである.そこで,これを客観的に評価するために,「シテイル」形の意味を,先の実験によって得られた動詞のカテゴリーおよび副詞の分類を用いて,自動的に推定するための実験を行なった.\begin{figure}\begin{center}\leavevmode\includegraphics[width=100mm,clip]{timeline.eps}\end{center}\caption{動詞カテゴリーの時間軸による表現}\label{fig:timeline}\end{figure}「シテイル」形は,動きを状態的に取り上げるものである.状態的に取り上げるとは,あり方に質的な断層を前提しないということであり,この断層の欠如によって,時間的に連続するものとしてとらえることが可能となる.すなわち,「スル」対「シテイル」のアスペクト的な対立とは,閉的区間と開的区間の違いである\cite{森山84}.図\,\ref{fig:timeline}に,それぞれのカテゴリーの時間軸による表現を示す.図\,\ref{fig:timeline}において,太線で示したところが動詞の表示する動きや状態であり,破線は,時間的に続くこと,つまり,開的区間を示している.また,丸印は,動きの始まりや終結点を表しており,この点によって,時間的な断層,つまり,閉的区間を表したものである.「テイル」は,動きを状態的に取り上げるものであるから,この点を含むことはできない.したがって,「シテイル」形の意味は,時間軸の下に示した区間のどれかでなければならない.(1)は,状態述語の状態を取り上げるものであり,この場合,特に現前の状態を述べる意味になる.金田一以来,「シテイル」形の意味は,「動作,作用が進行中であること」,「動作,作用が終わって,その結果が残存していること」,「単なる状態」の三つの類型が考えられているが,三番目の,「単なる状態」が,これにあたる.また,(4),(7)が,「結果の状態」に,(6),(9),(11)が「進行中」の意味にそれぞれ相当する.図\,\ref{fig:timeline}には記載していないが,5.非進展的過程,6.進展的過程の動詞でも,明示的に終結点が設定されれば,「結果の状態」が取り上げられる.工藤は,さらに,「進行中」,「結果の状態」に,基本的な意味と,派生的な意味があることを指摘して,次のような位置づけをしている\cite{工藤82}.\begin{itemize}\item[(i)]「進行中」の基本的な意味「動きの継続」\item[(ii)]「進行中」の派生的な意味「反復」\item[(iii)]「結果の状態」の基本的な意味「変化の結果の継続」\item[(iv)]「結果の状態」の派生的な意味「現在有効な過去の運動の実現」\end{itemize}(ii)は,先に述べた繰り返しとしての過程を問題にするものであり,いわば,「点の集合としての線」として,複数の事態をとらえるものである.(iv)は,いわゆる「経歴」を表すものであり,図\,\ref{fig:timeline}の(2),(3),(5),(8),(10),(12)に相当する.これらの派生的なものは,派生的であるがゆえに,構文的,あるいは,文脈的に条件づけられている.すなわち,副詞等で明示的に派生的な意味であることが表現されることが多い.その一方,動詞の語彙的な意味からは解放されている.すなわち,ほぼあらゆる動詞がこれらの意味をあらわすことができ,動詞のカテゴリーと直接関係しない.以上の考察に基づいて,(i)から(iv)に(v)「単なる状態」を加えた五つの意味を表層表現によって区別する実験を行なった.以下に手順を示す.\begin{itemize}\item[1.]繰り返しを規定する副詞(R)が含まれているとき\\$\Rightarrow$(ii)「反復」\item[2.]過去の副詞(T)が共起しているか,動詞のカテゴリーが2(一点的)のとき\\$\Rightarrow$(iv)「経歴」\item[3.]動詞のカテゴリーが1(状態的)のとき\\$\Rightarrow$(v)「単なる状態」\item[4.]動詞のカテゴリーが3(変化+結果持続)のとき\\$\Rightarrow$(iii)「結果の継続」\item[5.]上記以外のとき\begin{itemize}\item[5-1.]過程修飾副詞(P)または進展的副詞(G)が共起しているとき\\$\Rightarrow$(i)「進行中」\item[5-2.]終結点が設定されているとき(結果修飾副詞(E),量規定副詞(Q),「に」格,「まで」格の共起)\\$\Rightarrow$(iii)「結果の継続」\item[5-3.]過程が取り上げられない条件があるとき(一時点化副詞(A),「すでに」,「もう」などの共起)\\$\Rightarrow$(iii)「結果の継続」\item[5-4.]上記のいずれにもあてはまらないとき\begin{itemize}\item[5-4-1.]動詞カテゴリーが5(非進展的過程)または6(進展的過程)のとき\\$\Rightarrow$(i)「進行中」\item[5-4-2.]動詞カテゴリーが4(過程+結果持続)のとき\\$\Rightarrow$(i)「進行中」or(iii)「結果の継続」であいまい\end{itemize}\end{itemize}\end{itemize}実験は,EDR日本語コーパスから,文末に「テイル」を含んでいる200文をランダムに抽出して行なった.結果を表\,\ref{tab:evaluation}に示す.\begin{table}[htb]\caption{評価実験の分析結果}\label{tab:evaluation}\centering\begin{tabular}{|l|r|r|r|r|r|}\hline「シテイル」形&人間による&プログラム&判断が一致&再現率(\%)&正解率(\%)\\の意味&判断(a)&の出力(b)&したもの(c)&c/a×100&c/b×100\\\hline\hline(i)動きの継続&95&137&88&93&64\\\hline(ii)反復&4&2&2&50&100\\\hline(iii)結果の継続&29&15&14&48&93\\\hline(iv)経歴&39&15&14&36&93\\\hline(v)単なる状態&19&19&15&79&79\\\hlineあいまいなもの&14&12&9&64&75\\\hline合計&200&200&142&71&71\\\hline\end{tabular}\end{table}\vspace*{-2mm}表\,\ref{tab:evaluation}によると,全体の正解率は71\%であるが,(i)「動きの継続」は再現率が高く,正解率が低い.一方,(iii)「結果の継続」と(iv)「経歴」は,逆に正解率は高いが再現率が低いことがわかる.これは,本来,(iii)「結果の継続」または(iv)「経歴」とすべきものを,(i)「進行中」としているものが多いことを示している.この原因は,テストセンテンスの中に,「主張する」,「説明する」,「表明する」のように,引用の「と」格をとる動詞を含んでいるものが多かったことによる.これらは,カテゴリーが5(非進展的過程)として分類されているので,上記の手順5-4-1により,(i)「進行中」の意味と決定されたが,この場合,発話内容を表す「と」格が動きの全体量を規定しており,これが終結点を設定していると考えられるので,(iii)「結果の継続」または(iv)「経歴」の読みが優先されるものである.また,これ以外の原因としては,「かかる」,「あたる」のような多義的な動詞が挙げられる.これらの動詞は,格成分によって,そのアスペクト的な意味が変わってくる.たとえば,\begin{itemize}\item[]今,彼は,コップの水をビーカーに移している.(進行中)\item[]今,彼は,住民表を生駒市に移している.(結果の状態)\end{itemize}のように,格成分が変わることによって,同じ動詞でもその解釈は異なってくるのである.どのような名詞句が,どのような動詞と組合わさって,アスペクトの解釈にどのような影響を与えるかは,複雑かつ微妙な問題であり,現在のところ,我々は,根本的な解決には至っていない.今後の課題である.
\section{おわりに}
本稿では,コーパスに現れた表層表現に基づいて,動詞を六つのカテゴリーに分類し,この結果をもとに,「シテイル」形の意味を推定する手法について述べた.動詞句のアスペクトは,出来事の時間的様態を表すだけではなく,出来事間の時間関係を考えるための基礎となるものである.さらに,時間関係抜きの因果関係はありえず,また,時間関係をとらえるとすれば,そこに暗示的に因果関係が含み込まれてくる\cite{工藤95}.また,動詞の語彙的アスペクトは,表層格とは直接的で有意味な関係を持たないが,動詞の意味のタイプと直接的関係を持つ.この意味のタイプは,動詞とその補語構造と関係するので,この点において,いわゆる深層格と有意味な関係を持つ\cite{金子95}.したがって,表層格と語彙的アスペクトを組み合わせることによって,動詞の意味のタイプを細かく分類することができる\cite{Oishi96ae}.このように,ここで得られた動詞のアスペクト情報は,文章理解や機械翻訳などの分野で用いるべき意味的な情報の一部として利用可能であると考える.\bibliographystyle{jnlpbbl}\newcommand{\kokuken}{}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bennett,Herlick,Hoyt,Liro,\BBA\Santisteban}{Bennettet~al.}{1990}]{Bennett90}Bennett,S.~W.,Herlick,T.,Hoyt,K.,Liro,J.,\BBA\Santisteban,A.\BBOP1990\BBCP.\newblock\BBOQAComputationalModelofAspectandVerbSemantics\BBCQ\\newblock{\BemMashineTranslation},{\Bbf4}(4),247--280.\bibitem[\protect\BCAY{Comrie}{Comrie}{1976}]{Comrie76}Comrie,B.\BBOP1976\BBCP.\newblock{\BemAspect}.\newblockCambridgeTextbooksinLinguistics.CambridgeUniversityPress.\bibitem[\protect\BCAY{Dorr}{Dorr}{1993}]{Dorr93}Dorr,B.~J.\BBOP1993\BBCP.\newblock{\BemMachineTranslation---AViewfromtheLexicon}.\newblockTheMITPress.\bibitem[\protect\BCAY{Gunji}{Gunji}{1994}]{郡司94}Gunji,T.\BBOP1994\BBCP.\newblock\BBOQAProto-lexicalAnalysisofTemporalPropertiesofJapaneseVerbs\BBCQ\\newblock\Jem{日本語句構造文法に基づく効率的な構文解析の研究平成5年度科学研究費補助金研究成果報告書(03452169)},pp.65--75.\bibitem[\protect\BCAY{Oishi\BBA\Matsumoto}{Oishi\BBA\Matsumoto}{1996}]{Oishi96ae}Oishi,A.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP1996\BBCP.\newblock\BBOQDetectingtheOrganizationofSemanticSubclassesofJapaneseVerbs\BBCQ\\newblock\BTR\NAIST-IS-TR96019,NaraInstituteofScienceandTechnology.\bibitem[\protect\BCAY{Talmy}{Talmy}{1985}]{Talmy85}Talmy,L.\BBOP1985\BBCP.\newblock{\BemLexicalizationpatterns:semanticstructureinlexicalforms},\lowercase{\BVOL}~3of{\BemLanguageTypologyandSyntacticDescription},\BCH~2,\BPGS\57--308.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Tenny}{Tenny}{1994}]{Tenny94}Tenny,C.~L.\BBOP1994\BBCP.\newblock{\BemAspectualRolesandtheSyntax-SemanticsInterface},\lowercase{\BVOL}~52of{\BemStudiesinLinguisticsandPhilosophy(SLAP)}.\newblockKluwerAcademic.\bibitem[\protect\BCAY{Vendler}{Vendler}{1957}]{Vendler57}Vendler,Z.\BBOP1957\BBCP.\newblock\BBOQVerbsandtimes\BBCQ\\newblock{\BemPhilosophicalReview},{\Bbf66},pp.143--160.\bibitem[\protect\BCAY{(株)日本電子化辞書研究所}{(株)日本電子化辞書研究所}{1995}]{EDR95aj}(株)日本電子化辞書研究所\BBOP1995\BBCP.\newblock\Jem{EDR電子化辞書仕様説明書(第2版)}.\bibitem[\protect\BCAY{金子}{金子}{1995}]{金子95}金子亨\BBOP1995\BBCP.\newblock\Jem{言語の時間表現}.\newblockひつじ研究叢書(言語編)第7巻.ひつじ書房.\bibitem[\protect\BCAY{国語学会編}{国語学会編}{1993}]{Kokugo93}国語学会編\BBOP1993\BBCP.\newblock\Jem{国語学大辞典(第8版)}.\newblock東京堂出版.\bibitem[\protect\BCAY{金田一}{金田一}{1976}]{Kindaiti76}金田一春彦\BBOP1976\BBCP.\newblock\Jem{日本語動詞のアスペクト}.\newblockむぎ書房.\bibitem[\protect\BCAY{工藤}{工藤}{1982}]{工藤82}工藤真由美\BBOP1982\BBCP.\newblock\JBOQシテイル形式の意味記述\JBCQ\\newblock\Jem{武蔵大学人文学会雑誌},{\Bbf13}(4).\bibitem[\protect\BCAY{工藤}{工藤}{1995}]{工藤95}工藤真由美\BBOP1995\BBCP.\newblock\Jem{アスペクト・テンス体系とテクスト現代日本語の時間の表現}.\newblock日本語研究叢書.ひつじ書房.\bibitem[\protect\BCAY{森山}{森山}{1983}]{森山83}森山卓郎\BBOP1983\BBCP.\newblock\JBOQ動詞のアスペクチュアルな素性について\JBCQ\\newblock\Jem{待兼山論叢},17\JVOL,\BPGS\1--22.大阪大学国文学研究室.\bibitem[\protect\BCAY{森山}{森山}{1984}]{森山84}森山卓郎\BBOP1984\BBCP.\newblock\JBOQテンス、アスペクトの意味組織についての試論\JBCQ\\newblock\Jem{語文},44\JVOL,\BPGS\1--14.大阪大学国文学研究室.\bibitem[\protect\BCAY{森山}{森山}{1988}]{森山88}森山卓郎\BBOP1988\BBCP.\newblock\Jem{日本語動詞述語文の研究}.\newblock明治書院.\bibitem[\protect\BCAY{本川}{本川}{1992}]{本川92}本川達雄\BBOP1992\BBCP.\newblock\Jem{ゾウの時間ネズミの時間}.\newblock中公新書.中央公論社.\bibitem[\protect\BCAY{大坪}{大坪}{1982}]{大坪82}大坪併治\BBOP1982\BBCP.\newblock\JBOQ象徴語彙の歴史\JBCQ\\newblock森岡健二,宮地裕,寺村秀夫,川端善明\JEDS,\Jem{語彙史},\Jem{講座日本語学},4\JVOL,\BPGS\228--250.明治書院.\bibitem[\protect\BCAY{養老}{養老}{1989}]{養老89}養老孟司\BBOP1989\BBCP.\newblock\Jem{唯脳論}.\newblock青土社.\bibitem[\protect\BCAY{養老}{養老}{1996}]{養老96}養老孟司\BBOP1996\BBCP.\newblock\Jem{考えるヒト}.\newblockちくまプリマーブックス.筑摩書房.\bibitem[\protect\BCAY{原,北上,中島}{原\Jetal}{1988}]{原88}原裕貴,北上始,中島淳\BBOP1988\BBCP.\newblock\JBOQ時間概念の表現とデフォルト推論\JBCQ\\newblock\Jem{人工知能学会誌},{\Bbf3}(2),pp.216--223.\end{thebibliography}\newpage\begin{biography}\biotitle{略歴}\bioauthor{大石亨}{昭和37年生.昭和59年大阪大学文学部文学科卒業.同年奈良県庁入庁.平成7年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.現在,同大学院博士後期課程在学中.自然言語処理の研究に従事.情報処理学会,ACL各会員.}\bioauthor{松本裕治}{昭和30年生.昭和52年京都大学工学部情報工学科卒.昭和54年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.昭和59〜60年英国インペリアルカレッジ客員研究員.昭和60〜62年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,平成5年より奈良先端科学技術大学院大学教授,現在に至る.専門は自然言語処理.人工知能学会,日本ソフトウェア科学会,情報処理学会,AAAI,ACL,ACM各会員.}\end{biography}\end{document}
| |
V05N04-08 | \section{まえがき}
韓国において日本語は技術の分野のみではなく,経済などの他の分野においても英語に次ぐ重要な言語の一つになっている.しかし,日本語が自由に操れる人は少ない.このような背景により,機械翻訳に関する研究が韓国に紹介され始めた80年代の初めから日韓機械翻訳に対する期待はかなり高い状況であった.このような期待が実り,90年代に入り,韓国,あるいは日本で開発された使用可能な日韓機械翻訳システム5種が市販されるようになった.しかし,現在市販されている商用日韓機械翻訳システムは,日本語と韓国語の言語構造の類似点などによる一般ユーザたちの高い期待とは裏腹にその翻訳品質は低いレベルにとどまっている.このような現実を踏まえ,日韓機械翻訳システムの活性化を達成するために,現在の日韓機械翻訳システムが持っている問題点を客観的に分析,評価し,その問題点の在処を解明し,解決法を探す必要がある.そのためには,現在の機械翻訳システムに対する客観的分析と評価が前提となる.本技術資料は,四つの商用日韓機械翻訳システムを分析・評価し,技術的現象を把握,その問題点を分析することにより今後の開発作業に有効ないくつかの提言を行うのに目的がある.このような努力の一環として,筆者は\cite{choiandkim}を発表した.しかし,その後,韓国国内では\cite{choiandkim}で評価対象にした各システムのアップグレードや新しいシステムの出現という状況の変化があったのため,現時点での分析・評価と\cite{choiandkim}で明らかになった問題点とを比較することにより,解決された問題と未解決の問題がどのようなものであるかを把握,短期的解決課題と長期的解決課題の性格をより明確にする必要が出てきた.翻訳システムの評価には様々な側面からの評価が必要であり,多様な評価法方が提案されている\cite{dijk,White,Whiteandconnel,井佐原}.本技術資料では\cite{arnold}で提示されたユーザサイドからの翻訳品質の評価といえるDeclarativeEvaluation,開発側からの評価であるといえるTypologicalEvaluation,経済的立場からのシステムの効用性の評価であるといえるOperationalEvaluationの三つの立場からの評価とシステムの性能向上度評価といえるProgressEvaluationを行う.評価のための評価にならないよう,実際の生活で機械翻訳が用いられるという状況を作るため,評価対象文を市販されている98種の日本語で書かれた文庫本から直接抽出し評価を行った.今回の評価結果と\cite{choiandkim}を比較すると,開発者側からの言語学的処理範囲の評価といえるTypologicalEvaluationではシステムによっては多少改善されたものが見られるが,機械翻訳処理技術の最も重要な部分であるといえる翻訳技術そのものには大きな進展は見られない.と同時に,ユーザ側からの翻訳品質の向上も\cite{choiandkim}とあまり変わらないことが明らかになった.これは今までの日韓機械翻訳システムの開発で用いられた方法である一般の文法書と一般辞書に基づく演繹的翻訳規則および知識水準ではこれ以上の発展は期待できないことを物語るものであると考えられる.この限界を乗り越えるためには実際の人間の言語生活で用いられる日本語—韓国語間の大量の対訳用例集の構築とそれを用いた日本語と韓国語の客観的で一貫性のある翻訳モデルの確立,大量の用例に基づく帰納的翻訳規則および知識の開発と蓄積が前提となる必要がある.効用性の評価といえるOperationalEvaluationではすべてのシステムが韓国語Windows95で運用されるようになり,日本語原文入力ツールの支援,インターネット翻訳支援などというように大きく進展したといえる.
\section{韓国国内の日韓機械翻訳システム}
現在,韓国国内で市販,あるいは発表されたシステムを表~\ref{jkmtinkorea}に示す.この中で「ATLAS/JK」は,1990年に実用化された初の日韓機械翻訳システムである.「ATLAS/JK」は,富士通のATLAS翻訳システムを基に韓国語への変換,生成のための文法および辞書の開発を韓国のシステム工学研究所が行った.ハードウェアプラットフォームは,富士通の大型コンピュータ(Mseries)であった.「ATLAS/JK」の応用分野はJICSTの論文抄録の翻訳であったが,現在でも韓国の研究開発情報センター(KORDIC)によりパソコン通信を通じて一般ユーザに日本のJOISDBオンライン翻訳サービスが提供されている.\begin{table}\begin{center}\caption{\label{jkmtinkorea}韓国国内の日韓機械翻訳システム}\epsfile{file=129.eps}\end{center}\end{table}「J-Seoul」は,日本の高電社により開発された製品であり,最初はNECPC9800シリーズでしか運用できなかったが,最近ではIBM互換機,韓国語WINDOWS95でも使えるようになり,IBM互換機が主流である韓国市場への進出の地盤を広めたといえる.「ハングルカナ」は韓国のチャンシンコンピュータにより開発されたもので,やはりIBM互換機,韓国語WINDOWS95上で動くようになっている.「名品」は,日本の日立情報ネットワークにより開発されたものでIBM互換機,韓国語WINDOWS95上で動くようになっている.「オギョンバクサ」は,韓国のユニソフトにより開発されたもので,IBM互換機,韓国語WINDOWS95で動くようになっている.本技術資料ではこれら五つの製品の中で入手可能な四つのシステムを対象に1997年3月現在最も最新バージョンである「J-SeoulBusinessPackage」(1996.10),「ハングルカナ3.0」(1997.2),「名品GOLD」(1997.2),「オギョンバクサ1.52」(1997.2)を対象に分析を行った.
\section{評価方法の考察}
\subsection{評価方法の概要}機械翻訳システムの評価については様様翻訳品質に関する評価方法は大変難しい問題である\cite{king}.その理由として,\vspace{0.5cm}\begin{itemize}\item評価とは本質的に難しい問題である\item機械翻訳の様々な使用目的によって評価基準の設定を変えなければならない\item評価基準の客観的な設定が難しい\end{itemize}\vspace{0.5cm}という三つをあげることができる.しかし,このような限界を持つにも関わらず,機械翻訳システムに関する評価の必要性はシステム開発という立場からこれまで多くの研究がなされてきた.これら研究を総合してみると,評価には大きく三つの観点が必要である\cite{arnold}.\vspace{0.5cm}\begin{itemize}\item[(1)]DeclarativeEvaluation\item[(2)]TypologicalEvaluation\item[(3)]OperationalEvaluation\end{itemize}\vspace{0.3cm}以上の三つの以外に開発者の立場で重要なものとして\vspace{0.3cm}\begin{itemize}\item[(4)]ProgressEvaluation\end{itemize}\vspace{0.3cm}がある.\begin{table}\begin{center}\caption{\label{declevalmethod}理解度測定(declarativeevaluation)のための代表的な三つの方法}\epsfile{file=131.eps}\end{center}\end{table}\subsection{DeclarativeEvaluation}DeclarativeEvaluationとは,翻訳結果に対する理解度,正確性,信頼性など,ユーザ側から見た「翻訳品質」に関する評価であり,表~\ref{declevalmethod}に示したように三つの方法が用いられている.\cite{dijk}では,最も安定性が高く,多く用いられている方法として4〜5個のスケールを持つ「ratingonintelligibilityscale」法を勧めている.スケールが細かすぎると判断に苦しむことになり,偏差が広がる可能性が高く,小さすぎると弁別力が低下する恐れがあるからである.\subsection{TypologicalEvaluation}TypologicalEvaluationとは,翻訳システムの言語学的側面からの解決範囲,すなわち,システム開発者側からの評価であるといえる.一般的にあらゆる言語現象を網羅するTestSuiteを利用し,機械翻訳された結果からシステムの言語学的解決可能範囲を評価する.しかし,この方法は,あらゆる言語現象を網羅する有効なTestSuiteそのものを作ること自体が難しい作業であること,TestSuiteで実験しようとする任意の言語現象についてのシステムの動作が実際のテキストでは他の言語現象と複合的に現れるため同一言語現象について均一的に動作するという保障がないのが問題点として指摘されている\cite{king,arnold}.\subsection{OperationalEvaluation}OperationalEvaluationとは,特定のユーザが特定のシステムを使うことにより得られる経済的利益という観点からの評価であり,ユーザの機械翻訳システムの利用目的,経済性によって評価結果は大きく異なる.例えば,Browsabilityを重視するユーザは満足している機械翻訳システムでもLinguisticAccuracyを重視するユーザにとってはとても使えないといった評価が下される場合もあり得る.また,組織の使用目的,要求環境,維持補修費用,拡張可能性,速度など様々な観点からの評価が必要である.\subsection{ProgressEvaluation}DeclaraiveEvaluation,TypologicalEvaluation,OperationalEvaluationが現在のシステムの状況を評価するものであるとすればProgressEvaluationは一つのシステムに対する通時的発展段階を把握するためのものである.これは,システム開発のそれぞれの段階で評価を行い,問題点および解決法を見出そうとするものである.\begin{figure}\begin{center}\epsfile{file=132.eps,height=53mm}\caption{\label{japantext}日本語標本テキストの選定および韓国語翻訳テキストの作成}\end{center}\end{figure}
\section{評価の準備および方法}
\subsection{日本語標本テキストの選定および韓国語翻訳テキストの作成}評価のための評価ではなく,翻訳システムが実際の生活で使われている状況に近い状態で分析・評価をするために評価対象文を実際市販されている98種の日本語で書かれた文庫本から直接抽出し,評価を行った(図~\ref{japantext}参照).日本で刊行された98種の文庫本の本文中100番目の文から119番目の文までの各20個ずつの文をOCRを用いてテキストデータに落とし込み,脱字や誤字を人間が修正した1960個の文(98TEXT×20文/TEXT=1960文)を対象に四つの機械翻訳システムを用い,システムごとに機械翻訳文を抽出した.各機械翻訳システムは翻訳結果としてそれぞれ98個の韓国語テキストを出力する(日本語原文の抽出に使用した98種の文庫本の目録は\cite{choiandkim}を参照).\subsection{DeclarativeEvaluation}本技術資料では\cite{dijk}で推奨する"ratingonintelligibilityscale"法を用いる.互いに関連性を持つと考えられる次の三つの項目から六つのスケールを持つ基準表を作成した.その具体的内容を表~\ref{declcrit}に示す.\vspace{0.3cm}\begin{itemize}\itemテキスト全体に対する理解度\itemテキストを構成する文それぞれに対する評価\item後編集の量\end{itemize}\vspace{0.5cm}機械翻訳システムから出力された計392個(4つのシステム×98個の日本語テキスト=392個の韓国語テキスト)の韓国語テキスト各システムごとの翻訳文の評価には少なくとも1週間の間をおいて評価を行った.間をおかず評価作業を続けた場合,前回の評価の点数が記憶され評価に影響を与えやすく,点数が甘かったり辛かったりするからである.\begin{table}\begin{center}\caption{\label{declcrit}DeclarativeEvaluationの"ratingonintelligibilityscale"のための評価基準表}\epsfile{file=133.eps}\end{center}\end{table}\begin{figure}\begin{center}\epsfile{file=134-1.eps}\caption{\label{typoflow}TypologicalEvaluation方法}\end{center}\end{figure}\subsection{TypologicalEvaluation方法}TypologicalEvaluationのためには,日本語の文法的,語法的言語現象が韓国語の翻訳にどのような影響を与えるかを検討する必要がある.TypologicalEvaluationの典型的方法は,TestSuiteを用いる方法であるが,3.3で述べたように様々な問題点を持つ.本技術資料ではより現実的な分析・評価のためにTestSuiteを用いず,実生活で用いられる日本語標本テキストと韓国語翻訳結果テキストを用い図~\ref{typoflow}のような方法で評価を行った結果,表~\ref{typoresult}の誤謬の内訳に見られるような結果が得られた.\begin{figure}\begin{center}\epsfile{file=134-2.eps}\caption{\label{jkmtconf}日韓機械翻訳システムの一般的誤謬}\end{center}\end{figure}TypologicalEvaluationには日本語原文テキストを基準に20個のテキスト(20テキスト×20の文/テキスト=400文),対応する韓国語翻訳文テキストを基準に80個のテキスト(日本語原文20のテキスト×四つのシステム=韓国語80のテキスト;80テキスト×20の文=1600文)のみを用いた.その理由を次に示す.\newpage\begin{itemize}\item[一.]DeclarativeEvaluationが低い順にTypologicalEvaluationを実施した結果,日本語原文テキストを基準に12番目のテキストを分析した後から20番目のテキストまで新しい誤謬のパターンが発見されず,誤謬のパターンの度数のみが増加した.誤謬のパターンの度数も誤謬パターン別の度数とほぼ同じ比率で増加した.このような観察結果に対する信頼度を検証するために任意に20個の韓国語テキストを選び日本語原本テキストと比較分析した.その結果同じ結論を得ることができた.\item[二.]分析の客観性を保つために,一人の人間が評価を担当する必要があるが,分析の量が多く,個人の能力の限界を超えている.\end{itemize}\subsection{OperationalEvaluation}3.4で見たように,OperationalEvaluationは,ユーザの使用目的によって違うので客観的な評価が困難である.したがって,本技術資料では,OperationalEvaluationに関しては,対象とした四つの日韓機械翻訳システムのユーザインターフェスという側面からの評価のみを行うことにした.\subsection{ProgressEvaluation}ProgressEvaluationとは,本来一つのシステムが発展していく各段階において各段階毎に問題点の分析および性能向上のための評価を指す.対象とするシステムについて十分な知識を持つ開発者でないと客観的な評価が不可能である.さらに,本技術資料は今回対象とした四つのシステムのそれぞれに対して開発戦略を立てるためのものではないため一年前に行った日韓機械翻訳システム分析\cite{choiandkim}での結果を基に,誤謬パターンの変化,誤謬パターンの頻度の変化などを比べることにより日韓機械翻訳システム全般という観点からその向上の度合いを分析した.
\section{評価の実施および結果分析}
\subsection{DeclarativeEvaluation}評価結果は表~\ref{declmark}の通りである.最も高い点数をマークしたのは2.88点であり,これは翻訳結果を何回か繰り返し読んだ後,若干の推測を交えれば全体の意味が把握できるといったレベルである.\begin{table}\begin{center}\caption{\label{declmark}DeclarativeEvaluation結果}\epsfile{file=135.eps}\end{center}\end{table}最も点数の低かった10つのテキストと最も点数の高かった10つのテキストを分析すると大変興味深い事実が発見された.表~\ref{tbtextlist}で見られるように該当テキストのジャンル,文体,文の長さ,漢字使用率,平仮名使用率,片仮名使用率を比較すると\begin{itemize}\item[一.]翻訳品質は文の長さにあまり影響されない.\item[二.]漢字使用率が高く平仮名使用率が低いほど翻訳品質が良い.\item[三.]翻訳する文のジャンルよりは文体に翻訳品質はもっと影響される.\end{itemize}\vspace{0.5cm}\begin{flushleft}ことが分かった.特に,著者が形式に束縛されず自由に書いた散文のテキストが比較的低い点数をマークし,著者が丁重な表現を用い,形式に拘った固い表現の多いテキストは比較的高い得点をもらった.\end{flushleft}\begin{table}\begin{center}\caption{\label{tbtextlist}最高および最低10位の翻訳品質テキストリスト}\epsfile{file=136.eps}\end{center}\end{table}\subsection{TypologicalEvaluation}分析結果を表~\ref{typoresult}に示す.分析を行うにあたって韓国語翻訳文の誤謬がどのシステムモジュールで発生したかについてはそれぞれのシステムの開発者でない限り明確に特定することはできないため,ここでは対照言語学的立場から日本語の言語的特徴を中心にできる限り客観的に分析を行おうと努力した.ただし,本来評価の持つ難しさから若干の判断誤謬もあり得る.しかし,全体的に見るとほとんど正確であるといってよい.評価には多くの時間が費やされた.特に,ある誤謬が発生した時,その原因を突き止めるのに大変とまどった.例えば,韓国語翻訳文で誤謬が発見されたとき,それが未登録語による分析誤謬なのか,翻訳単位認識誤謬による間違いなのか判断に迷った.このような場合,常識的判断により,当然登録されるべき単語について誤謬が発生した場合は分析誤謬として,そうでない場合は,未翻訳として処理した.以下,誤謬の具体例を示す.\begin{table}\begin{center}\caption{\label{typoresult}TypologicalEvaluation結果}\epsfile{file=138.eps}\end{center}\end{table}\vspace{1cm}\subsubsection{未翻訳}翻訳されずそのままの日本語が翻訳結果文に出力されている場合を未翻訳誤謬と分類した.\vspace{0.5cm}\begin{tabular}{ll}(原文)&自身がない人\\(翻訳結果)&mauleuiわんぱくaesongidul\\(正しい翻訳)&mauleuijangnankurokiaesongidul\\\end{tabular}\raggedbottom\subsubsection{分析誤謬}日本語を韓国語に翻訳する時,一般的に同じ単位の韓国語に対応する翻訳単位を想定することができる.このような単位を正確に抽出できなかった場合は翻訳単位認識誤謬とした.また,翻訳単位は正しくても品詞決定の段階で誤謬が発生し,誤った翻訳結果が得られた場合には品詞判定誤謬とした.\vspace{0.3cm}\begin{quote}\begin{flushleft}{\it翻訳単位認識誤謬の例}\end{flushleft}\vspace{0.3cm}\begin{tabular}{ll}(原文)&自信がない人\\(翻訳結果)&jasiniradoduleosaram(自信がない人)\\(正しい翻訳)&jasinieobnunsaram\\\end{tabular}\vspace{0.3cm}\begin{tabular}{ll}(原文)&いつもこもっているのだった\\(翻訳結果)&eonjenaodulgoitnungeotida\\&(いつもこもっているのだった)\\(正しい翻訳)&eonjenajaukhangeotieotda\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it品詞判定誤謬の例}\end{flushleft}\vspace{0.5cm}\begin{tabular}{ll}(原文)&当然の\underline{扱い}ではあるが\\(翻訳結果)&dangyeoneui\underline{chooigubhae}iginunhajiman(verb)\\(正しい翻訳)&dangyeoneui\underline{chooigub}ikinunhajiman(noun)\\\end{tabular}\vspace{0.5cm}\begin{tabular}{ll}(原文)&\underline{一定}ではない\\(翻訳結果)&\underline{iljeong}ianida(noun)\\(正しい翻訳)&\underline{iljeongha}jianta(adjective)\\\end{tabular}\end{quote}\vspace{0.5cm}\begin{flushleft}{\bf分析誤謬の考察}\end{flushleft}分析誤謬として判定されたもののほとんどは日本語の仮名文字列で発生している.このような傾向は四つのシステムで共通して見られ,システムによって多少違いはあるものの四つのシステムともに仮名文字列の分析において不安定な傾向を見せている.分析誤謬として判定された結果を詳しく分析すると,あるシステムでは品詞のレベルで左右接続の可能/不可能すらも検査していないものがあった.また,「品詞判断誤謬」にはほとんどが「述語の連用形」と「連用形の名詞的用法」,「名詞」と「形容動詞の語幹」で発生している.日本語の場合,形容動詞であるか名詞であるか,また,動詞連用形であるか動詞の連用形の名詞的用法であるかによって韓国語への翻訳は大きく異なる.\subsubsection{多義性による誤謬}翻訳単位の設定,品詞の決定が正しく行われたのにも関わらず,意味的に全く違った対訳語を当ててしまった場合を多義性による誤謬と判断した.特に,名詞の場合は,韓国語には存在しない語になっているものをも多義性誤謬として分類した.また,助詞の場合,あるシステムは可能性がある対訳語を"()"の中に複数個入れて出力している.この場合,読む時大きな無理がなければ誤謬として扱わなかった.このような場合を全部誤謬にするとほとんどの多義性を持つ助詞が誤謬となり,全部を誤謬がないとすると分析の意味がなくなるためである.\begin{flushleft}誤謬の例\end{flushleft}\begin{quote}{\it動詞の誤謬}\vspace{0.5cm}\begin{tabular}{ll}(原文)&食事を\underline{とる}\\(翻訳結果)&siksalul\underline{jabda(grasp)}\\(正しい翻訳)&siksalul\underline{hada(do)}\\\end{tabular}\vspace{0.5cm}\begin{tabular}{ll}(原文)&見直しを\underline{迫る}\\(翻訳結果)&jaepyungkalul\underline{dagaoda(come)}\\(正しい翻訳)&jaepyungkalul\underline{kangyohada(forcetodo)}\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it名詞の誤謬}\end{flushleft}\begin{tabular}{ll}(原文)&用事でやらされるのは大いに\underline{苦手}だった\\(翻訳結果)&\underline{geobukhansangdae(amandifficulttomanage)}\\(正しい翻訳)&\underline{golchitgeori(difficultthing)}\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it形容詞誤謬}\end{flushleft}\begin{tabular}{ll}(原文)&\underline{古い}しきたり\\(翻訳結果)&\underline{nalgun(worn-out)}goanrye\\(正しい翻訳)&\underline{oraen(long-continued)}goanrye\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it副詞の誤謬}\end{flushleft}\begin{tabular}{ll}(原文)&\underline{くまなく}案内してもらった\\(翻訳結果)&\underline{dduryothage(sharpdistinct)}\\(正しい翻訳)&\underline{jasehi(indetail)}\\\end{tabular}\vspace{0.5cm}\newpage\begin{flushleft}{\it数詞の誤謬}\end{flushleft}\begin{tabular}{ll}(原文)&二十六\\(翻訳結果)&2+6\\(正しい翻訳)&26\\\end{tabular}\vspace{0.5cm}\begin{tabular}{ll}(原文)&第\underline{2次}世界大戦\\(翻訳結果)&je\underline{second-order}segyedaejeon\\(正しい翻訳)&je\underline{2cha}segyedaejeon\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it連体詞誤謬}\end{flushleft}\begin{tabular}{ll}(原文)&\underline{ある}時\\(翻訳結果)&\underline{itnun(tobe)}dda\\(正しい翻訳)&\underline{eonu(uncertain)}ddae\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it助詞の誤謬}\end{flushleft}\begin{tabular}{ll}(原文)&女性の増加\underline{で}家庭での\\(翻訳結果)&jungga\underline{eso(場所)}\\(正しい翻訳)&jungga\underline{ro(原因)}\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it受け身/可能/自発の誤謬}\end{flushleft}\begin{tabular}{ll}(原文)&密接不離の関係にあることが知\underline{られる}\\(翻訳結果)&al\underline{ryeojida(passive)}\\(正しい翻訳)&al\underline{sooitda(cando)}\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it「よう」の誤謬}\end{flushleft}\begin{tabular}{ll}(原文)&考え込む\underline{よう}にしながら\\(翻訳結果)&saengkakdul\underline{dorok(inorderto)}hamyunseo\\(正しい翻訳)&saengkakejamkin\underline{duti(as)}hamyeonseo\\\end{tabular}\end{quote}\vspace{0.5cm}\begin{flushleft}{\bf多義性誤謬の考察}\end{flushleft}分析誤謬と同じく漢字表記を用いない仮名文字列で誤謬が多く見られた.さらに,漢字で表記されている動詞の場合も多義語に関する配慮が見られず,一つの対訳しか当てられていない.これは動詞の多義性を解決する技法を用いていないことを示している.名詞に関しては,一般の辞書の見出し語で最も頻繁に用いるものとして第一項目にあがっている語を機械的に対訳語として用いているようである.したがって,文脈とあわない対訳が多く発見される.日韓翻訳の開発の中で最も早い時期から先決課題として叫ばれていた助詞の多義性に関しては「に」と「と」で最も誤謬が多く発見された.特に「と」の場合は,「引用,仮定,時間的前後」などの意味をあらわし,そのいずれかを決定するのが難しい.「J-Seoul」と「名品」は各システムごとに助詞の多義性を解決するための技法を導入し,できる限り一つの対訳語だけを出していると見なされるものの,いずれのシステムも満足のいくレベルには達していない.\subsubsection{対訳語選定の誤謬}翻訳単位の認識,品詞決定が正しく行われ,その単語だけを取り出してみると意味的にも間違っておらず,多義性の誤謬とも言えないが文全体からみて意味が通じない場合を対訳語選定の誤謬として分類した.\begin{quote}\begin{flushleft}{\it不自然な否定表現}\end{flushleft}\begin{tabular}{ll}(原文)&それが\underline{言えない}\\(翻訳結果)&gugeotulmalhal\underline{sooitjianta}\\(正しい翻訳)&gugeotulmalhal\underline{sooeobda}\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it不自然な受け身表現}\end{flushleft}\begin{tabular}{ll}(原文)&八十ページも\underline{費やされ}ているのに\\(翻訳結果)&\underline{sobihaejigo}\\(正しい翻訳)&\underline{halaedoigo}\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it不自然な使役表現}\end{flushleft}\begin{tabular}{ll}(原文)&\underline{静かめ}ながら\\(翻訳結果)&\underline{joyonghiha}myunseo(自発)\\(正しい翻訳)&\underline{joyonghageha}myunseo(使役)\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it不自然なやりもらい表現}\end{flushleft}\begin{tabular}{ll}(原文)&出してみて\underline{いただきたい}\\(翻訳結果)&naeeoboa\underline{joosigosipda}\\(正しい翻訳)&naeeoboa\underline{joosibsio}\\\end{tabular}\end{quote}\vspace{0.5cm}\begin{flushleft}{\it不自然な対訳語}\end{flushleft}主に名詞に多い.韓国語でもあるのはあるが極めてその使用例が希であり,特に文の中で不自然であると感じられるものと「不自然な〜」に分類できないものを「不自然な対訳語誤謬」に分類した.\vspace{0.5cm}\begin{tabular}{ll}(原文)&大司教の\underline{もと}で\\(翻訳結果)&daejoogyoeui\underline{batang(foundation)}eseo\\(正しい翻訳)&daejoogyoeui\underline{mit(beneath)}eseo\\\end{tabular}\vspace{0.5cm}\begin{tabular}{ll}(原文)&内分泌を\underline{介して}微妙に調節されている\\(翻訳結果)&naeboonbigyelul\underline{kiooeu(insert)}...\\(正しい翻訳)&naeboonbigyelul\underline{maegaerohayeo(interpose)}...\\\end{tabular}\begin{flushleft}{\bf対訳語選定の誤謬の考察}\end{flushleft}対訳語誤謬は,分析誤謬などに比べ比較的軽い誤謬である.しかし,これもユーザの立場から見ると数回繰り返し読んだり原文と照らし合わせながらでないと意味を正確に把握できないという点で解決すべき課題であることには間違いない.\subsubsection{韓国語生成誤謬}表~\ref{typoresult}でも示したように上記以外の韓国語生成時の誤謬をここにまとめた.\begin{flushleft}誤謬の例\end{flushleft}\begin{quote}\begin{flushleft}{\it状態/動作}\end{flushleft}\begin{tabular}{ll}(原文)&見ていない\\(翻訳結果)&bo\underline{ait(状態)}jianta\\(正しい翻訳)&bo\underline{goit(動作)}jianta\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\itテンス}\end{flushleft}\begin{tabular}{ll}(原文)&来るの\underline{だった}\\(翻訳結果)&onungeot\underline{ida(現在)}\\(正しい翻訳)&onungeot\underline{ieotda(過去)}\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it慣用表現}\end{flushleft}\begin{tabular}{ll}(原文)&\underline{口をはさむ}\\(翻訳結果)&\underline{ibulkida(insertmouth)}\\(正しい翻訳)&\underline{chamgyeonulhada(interfere)}\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it定型表現}\end{flushleft}\begin{tabular}{ll}(原文)&\underline{のために}\\(翻訳結果)&\underline{kiddaemoone(reason)/kieooihaeseo(purpose)}\\(正しい翻訳)&\underline{kieooihaeseo(purpose)/kiddaemoone(reason)}\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it韓国語冠形形語尾の生成}\end{flushleft}\begin{tabular}{ll}(原文)&す\underline{る}時\\(翻訳結果)&ha\underline{nun}ddae(timesomethingisbeingdone)\\(正しい翻訳)&ha\underline{l}ddae(timetodo)\\\end{tabular}\vspace{0.5cm}\begin{flushleft}{\it韓国語綴り}\end{flushleft}\begin{quote}韓国語の活用,音韻縮約,媒介母音挿入など,韓国語の文法・用法から外れる場合.\end{quote}\end{quote}\subsection{OperationalEvaluation}今回対象にした四つのシステムはユーザの使用上の便宜を図るためにある程度のユーザインターフェースとユーティリテイを提供している.表~\ref{function}に四つの商用日韓機械翻訳システムが提供する機能を示した.四つのシステム全てが翻訳原文と翻訳結果文の編集のためのツールを持っている.日本語入力環境が具備されていない韓国では日本語文章作成機能と日本語文書構成コードの内部翻訳処理コードへの変換機能が提供されなければならない.日本語文書の新規作成のためには「ハングルカナ」を除く他の三つのシステムは日本語入力ツールを提供している.「ハングルカナ」は内部処理コードがKSC5601コードであり,韓国語Windows95で提供されるKSC5601日本語コード入力コードをそのまま使っている.コード変換機能は表~\ref{function}で見られる通り,各システムの内部コードへの変換機能を持っている.翻訳処理と関連し,未登録漢字や片仮名を簡単にハングル音読変換を用い出力するか,あるいは該当漢字や片仮名を原文通りに出力させるか,翻訳処理の途中,未登録語登録や多義性解消のための翻訳機とユーザとの相互作用を支援すべきかなどに関するオプションを備えている.辞書と関連し,基本的に辞書の新規語登録,更新,削除などを支援している.翻訳処理速度は,平均文の長さ62.03文字/文,64個の文を翻訳する時に最も速いものが7秒,最も遅いものが2分10秒程度かかった.翻訳速度の面では,ユーザが不便さを感じないほどにまでなっているといえそうである.\begin{table}\begin{center}\caption{\label{function}各システムの機能一覧表}\epsfile{file=144.eps}\end{center}\end{table}\subsection{ProgressEvaluation}一年前に行った評価と現在の評価とを比較すると,最も目立つ発展を見せたのは「ハングルカナ」である.一年前の翻訳品質分析では「ハングルカナ」が機械翻訳というより単純な漢語のハングル音読への変換と“について”,“において”のような表現の単純置換のレベルに過ぎず,未翻訳誤謬が相当発見された.しかし,現在の翻訳品質は未翻訳誤謬が相当減り,翻訳結果も相当なレベルに達している.これは,辞書の見出し語の拡充にその発展の原因がある.一年前に未翻訳,形態素分析誤謬と判定されたほとんどの語が辞書に登録されていなかったからであったが,辞書にこれら未登録語を登録することにより問題が大幅に改善されたといえる.一年前の「ハングルカナ」がDeclarativeEvaluationで何回読み返しても意味が分からないといったレベルの低い点数(1.95点)をマークしたのに対し,現在は何回か読むと全体の意味が分かるといったレベルにまで向上した.このような事実は,機械翻訳における辞書の占める役割の重要さを物語るものであるといえる.「名品」もやはり\cite{choiandkim}で問題として指摘された平仮名列の分析誤謬においてある程度改善された.しかし,DeclarativeEvaluationの点数には変化があまり見られない(一年前-2.37,現在-2.39).その理由は\cite{choiandkim}でも述べたように情報量は概念語に従属されるのに比べ概念語部分に対する誤謬には大きな改善のあとが見られなかったことによる.「J-Seoul」はあまり変化が見られない.ただ,"記号前の終止表現",助詞"と"の多義性誤謬などで改善点が見られるがDeclarativeEvaluationでより良い点数をもらうには改善が不十分であった.「オギョンバクサ」は未翻訳,分析,多義性,韓国語生成の誤謬など全体に渡って多くの誤謬が見られる.これは\cite{choiandkim}で「ハングルカナ」の誤謬が未翻訳誤謬に集中していたため辞書を拡充することにより大きく翻訳誤謬が減ったのに対し,「オギョンバクサ」は誤謬が多岐にわたっているため改善にはなお多くの努力が必要であるといえる.この他,四つのシステムに共通していえることとして,記号の前の終止表現,助詞"と"の多義性の誤謬などはある程度改善されたが,根本的な解決策を用いたというより翻訳のcoverageの広い対訳語を生成するといった程度の改善であるといえる.以上を総合すると,\cite{choiandkim}以降,技術的には大きな変化は無く,辞書や文法の拡張やチュウニングだけで問題を解決しようとしたと判断される.
\section{結論}
\subsection{開発への提言}各システムの翻訳結果を分析した結果,次のような点が明らかになった.\begin{itemize}\item韓国語と日本語との類似性,すなわち,文の構造,語彙などの類似性に依存しすぎている\item正確な分析に基づく翻訳になっていない\item名詞はもちろん動詞においても日本語の漢字表記語をそのまま韓国語の漢字音に変換するといった極めて単純な翻訳に依存している\item固有名詞,日本語の和語,カタカナ表記外来語などが辞書に登録されていない場合が多い\item述部の翻訳において複雑な形態素の結合に十分対応できていない\item日本語独特の造語法に十分対応できていない\item状態/動作に関する区別など,言語学的にはほぼ解決の糸口がつかめつつある問題に関しても注意が払われていない音韻の縮約,媒介母音の挿入,述語の活用など,韓国語の綴りに十分対応していない\item動詞と名詞の多義性への配慮の欠如\end{itemize}\newpage\begin{flushleft}このような問題を解決するため次のような課題を提案する.\end{flushleft}\begin{flushleft}{\bf短期課題}\end{flushleft}\begin{enumerate}\item辞書の拡張\\主に外来語の表記を担当するカタカナ,漢字で表記される固有名詞,日本語の和語をそのまま韓国語の発音に機械的に変換するといった極めて単純な処理に依存せず,これらについては辞書に登録して正確な韓国語の対訳を生成すべきである.実際の実験結果,未翻訳誤謬のほとんどは人名,地名,団体名などといった固有名詞の未登録により発生している.特に,最近では日韓機械翻訳機の使い道がWWW情報の翻訳にまで拡大していく傾向にあることを考えると,WWWで頻繁に用いられる語彙に対する用語調査と登録が必要である.\item韓国語表記法に合った翻訳文の生成\\韓国語は活用が多く,分かち書きをする言語である.したがって,活用や分かち書き誤謬はユーザの翻訳結果の理解に大きな障害となり,時には意味上の誤謬まで生み出す結果にもなり得る.このような韓国語生成技術はある程度確立されている.このような技術の積極的な導入が必要である.\item日本語分析誤謬の解決\\分析性能の向上は必ず解決しなけらばならない最も重要な課題である.これが不安な状況でその後の多義性誤謬のための技法などは効果が得られないからである.効用性が立証された技法を利用して日本語分析の性能を向上させなければならない.特に,主にひらかな文字列で表現される機能語部分の分析に力を注ぐ必要がある.\end{enumerate}\begin{flushleft}{\bf中長期的課題}\end{flushleft}\begin{enumerate}\item大量の日韓対訳コーパスの構築\\現在の日韓機械翻訳システムは一般の文法書と一般辞書から文法と辞書を構築する演繹的(deductive)な方法を採用して来た.したがって,一般の文法書に記述されている定型化された言語現象についてはある程度性能を発揮するが,実際の言語生活で用いられる日本語に対しては対応しきれない面を数多くもつ.これは現在の日韓機械翻訳技術の限界でもある.この限界を乗り越え,日韓機械翻訳技術を向上させていくためには実際の人間の言語を反映する大量の日韓対訳コーパスの構築が必要である.大量の日韓対訳コーパスから日本語と韓国語の類似性,相違性についての分析と翻訳知識の帰納的構築によりより実生活で用いられる日本語や韓国語の言語現象に機械翻訳が対応できるようになるであろう.\item日韓翻訳知識自動獲得ツールの開発\\人間による翻訳知識の構築は多くの費用と時間が必要であり,構築された翻訳知識の一貫性を見出すことも困難である.したがって,大量の日韓対訳コーパスを用い翻訳に必要な各種の言語情報を自動的に抽出できるツールの開発によりより客観的でパワーフルな翻訳知識の構築が必要である.\item日韓機械翻訳のための意味情報構築および活用\\現在の日韓機械翻訳システムは形態素あるいは常用句のレベルで直接機械翻訳方式を採用している.意味の処理においては意味素性分類に基づく格構造あるいは連語情報を用いた多義性の解消技法(Park1995)を採用しているが,意味素性の分類,日本語-韓国語の単語間の意味範囲の違いなどについての研究が立ち後れており期待通りの結果が得られていない.多義性の処理について各システムが実際どれほどの処理能力を持っているのかを把握するために「乗る」「のる」という動詞を例に実験した.その結果を図~\ref{seman}に示す.図~\ref{seman}でも見られるように定型的で単純な文構造ではある程度多義性が解消されているように見える.しかし,実際のテキストでは全くといって良いほどその機能を発揮していない.これは多義性の解消のための意味情報とその処理技法が断片的で十分でないことを物語るものである.大量の日韓対訳コーパスを用い客観的で一貫性のある意味情報の獲得と日本語-韓国語の単語間の意味範囲の違いを究明することにより正確な意味分析と対訳語選定が可能な環境を作る必要がある.\end{enumerate}\begin{figure}\begin{center}\caption{\label{seman}単純定型文に対する多義性処理結果(名品)}\epsfile{file=147.eps}\end{center}\end{figure}\subsection{おわりに}本技術資料では,四つの商用システムを対象に直接翻訳実験を行った結果に基づきその翻訳品質について評価した.その結果,現在のシステムは,片仮名,日本語の漢語,和語の韓国語への単純音訳,一対一の対訳語の選択などといったレベルでの翻訳であることが分かった.これは結果的に現在のシステムが日韓の言語的類似性に頼りすぎていることを物語るものである.さらに,すでに応用可能な技術の導入にも消極的であることが分かった.今後は両言語の類似性より両言語の相違点に焦点を当てるべきである.現在のシステムも入力テキストに関する何らかの制限も設けず汎用として販売するよりは4.2の“DeclarativeEvaluation”で明らかになったように,使用目的,翻訳対象文の制限(漢字表記が多く用いられる政治,経済,法律,科学関連乾燥体文書)などといった使用分野を特定すれば機械翻訳システムの利用環境を十分向上させることができ,一般ユーザからも肯定的な評価を得ることができると思われる.このような翻訳品質および使用範囲に関する努力とユーザの便宜性を考慮した様々な機能とツールを支援するための研究もおろそかには出来な課題の一つである.商品化されたシステムの出現は市場からの技術改善要求をフィドバックしながら技術の向上がはかれるという技術進化の一つの過程に位置する.今回の調査結果を発展の過程から評価するなら,その間の進展について高く評価すべきである.\bibliographystyle{jnlpbbl}\bibliography{v05n4_08}\begin{biography}\biotitle{略歴}\bioauthor{金泰完}{1985年韓国漢陽大学校大学院電子工学科修士課程卒業.1998年現在韓国科学技術院電算学科博士課程.1985年2月よりETRIコンピュタ,ソフトウェアー研究所,自然語処理研究部勤務.機械翻訳,自然言語処理,知識情報処理の研究に従事.言語処理学会等の会員.}\bioauthor{崔杞鮮}{1986年韓国科学技術院電算学科卒業.工学博士.韓国科学技術院電算学科助教授,副教授を経て,1998年より韓国科学技術院電算学科教授.1987--1988年NEC,C\&CInformationResearchLaboratories招請研究員.1997年Stanford大学,CSLI訪問教授.韓国語情報処理,機械翻訳,専門用語,認知科学,多国語情報検索,知識情報処理等の研究に従事.韓国文化体育部,国立図書館,文化芸術財団諮問委員.CPCOL,言語処理学会編集委員.現在FIPA,TC6議長.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V04N02-06 | \section{まえがき}
自然言語処理技術の一つに,文書の自動抄録がある.従来から行なわれている自動抄録は大きく分けて2つの手法,すなわち,1.文書の構造解析を行なう手法,2.文書の統計情報を用いた手法とに分類できる.1はスクリプトなどを使用して重要箇所を抽出する方法や,テキストの構文・意味解析を行なって談話構造を作成し,この構造から重要箇所を抽出する方法である\cite{Reimer1988},\cite{Tamura1989},\cite{Jacobs1990},\cite{Inagaki1991}.しかし,これらの方法では,ある特定の分野について書かれたテキストのみを対象としている場合が多いため,結果的に汎用性に欠けることが指摘されている\cite{Paice1990},\cite{Zechner1996}.2は電子化されたコーパスに対し統計手法を適用することで重要箇所を抽出する方法である.この場合,文に出現する各語に重み付けを行ない,そのスコアの高い文を重要箇所とする手法が多く用いられている.重み付けには,(a)ヒューリスティックスを用いたもの,(b)単語頻度などの情報を用いたもの(c)シソーラスなどの意味情報を用いたものなどがある.(a)は文書から得られるヒューリスティックスを用いて文の重み付けを行ない重要箇所を抽出する手法である.\cite{Paice1990},\cite{Paice1993},\cite{Kupiec1995}.ヒューリスティックスとしては,修辞関係\cite{Miike1994},タイトルに出現する語の情報\cite{Edmundson1969},文の出現位置\cite{Baxendale1958}などがある.これらは,分野を限定し特別に用意された知識を用いて重要箇所を抽出する研究と比べると汎用性があると言えるが,対象分野の変更に対しどの程度適用できるかは調査の余地がある.(b)はLuhnらにより提唱されたキーワード密度方式に代表される手法である\cite{Luhn1958}.Luhnらは,「一つの文献において,その主題と関係の深い語は概して文献中に繰り返し出現する」という前提に基づき,文献の内容に関係の深い数語のキーワードを抽出し,これらの語を高頻度で含む文を文献中から選定して抄録とした\cite{Luhn1958}.しかし,文献中どこにでも現れる一般語との区別がつきにくく,文献中におけるキーワード分布の偏りが小さくなってしまうことが指摘されている\cite{Suzuki1988}.鈴木らはこの問題に対処するため,文章中で隣接または近接している語の組のうち,出現頻度の高い組を高頻度隣接語と呼び,キーワード密度法により得られたキーワードと高頻度隣接語を共に多く含む文を抄録文の候補とする手法を提案した\cite{Suzuki1988}.しかし,キーワード及び隣接語の決定は人手により行なわれているため恣意的であり,また抄録を行なおうとするテキストごとにキーワードと隣接語を決定しなければならない.SaltonやZechnerらは,単語の頻度を基に計算されたTF$\ast$IDFを用いて語に重み付けを行なうことで重要箇所を抽出する手法を提案した\cite{Salton1993},\cite{Salton1994},\cite{Zechner1996}.これらの手法は,表記の統計情報だけを用いているため,鈴木らの手法と比べると重要箇所を抽出する際,人間の介在を必要としない.しかし,人間が対象とする記事のみから重要箇所を抽出できるのは,記事に関する様々な知識を用いているからであり,対象となる記事の頻度を基にした単語の機械的な処理による重み付けだけで重要箇所を適切に抽出できるかどうかは不明である.また,(c)は意味に関する統計情報を用いた手法である.佐々木らは,段落内,又は,段落間に跨る意味分類の出現パターンをシソーラスを用いて分析し,その結果をチャート形式で表現する結束チャートを提案した\cite{Sasaki1993}.鈴木らは,佐々木らの提案した結束チャートを利用することでキーワードを自動的に抽出する手法を提案している\cite{Suzuki1993}.鈴木らの手法では,文中に現れる語が多義語である場合には,それまでに現れた文中の語の累積頻度が最も高い意味コードをその語に割り当てている.しかし,佐々木,及び鈴木らのシソーラスを用いる手法の問題として,データスパースネスの問題がある.すなわち,シソーラスのカテゴリー自身が抽象的な語で定義されているため,文書の種類によっては,その語が文書に出現しない場合がある\cite{Niwa1995}.さらに,各段落のキーワード候補は,各段落に2回以上出現した語をその段落におけるキーワード候補としているが,{\itWallStreetJournal}のように経済が主となる報道の新聞記事では,評論や科学文献などと比べると,一つのパラグラフの語数が少ないため,一つのパラグラフ内で同一表層語が2回以上出現する現象は少なく,結果的に文書の種類によっては手法が適用できない場合がある.実際,今回の実験で使用した50記事に出現するパラグラフ数395のうち,一つのパラグラフ内で同一表層語が2回以上出現したパラグラフ数は168(42.5\%)であり,半数以上のパラグラフに対して佐々木らの手法が適用できなかった.本稿では,文脈依存の度合に注目した重要パラグラフの抽出手法を提案する.本稿の基本的なアイデアは,文書の重要箇所を適切に抽出するため,その文書がどの分野に属しているかという情報を利用するということである.例えば,ある記事に`株'が高頻度で出現したとする.その記事が`事件'の分野に属する一つの記事である場合には,`株'に関する事件の可能性が高いことから重要度の度合は強い.一方,`株式市場'の分野に属する一つの記事である場合には,この分野に属する他の記事にも`株'が高頻度で現れることから重要度は下がる.つまり`株'がある記事にとって重要であるかどうかは,その記事が設定された分野にどのくらい深く関わっているかに依存し,これは予め設定された分野に属する他の記事における`株'の頻度と比較することで判定が可能となる.我々は,分野固有の重要語の選定を行なうため,記事中の任意の語が,設定された文脈にどのくらい深く関わっているかという度合いの強さを用いることで,語に対する重み付けを行なった.先ず,佐々木らがシソーラスを用いて語の意味を決定しているのに対し,我々は辞書の語義文を用いることで文書中の多義語の意味を自動的に決定する.次に主題に関連する単語の低頻度数の問題に対処するため,名詞同士のリンク付けを行なう.この結果に対し,文脈依存の度合を利用する.すなわち,我々はZechnerらがTF$\ast$IDFを用いて重み付けを行なっているのに対し,記事中の任意の語が,設定された文脈にどのくらい深く関わっているかという度合いの強さを用いることで,語に対して重み付けを行なう.その際,鈴木らのように重要語を抽出する過程で人間の介在を必要としない.以下,2章では,文脈依存の度合いについて述べ,3章では語の重み付け手法を示す.4章では重み付けされた語を用いてパラグラフごとに文書のクラスタリングを行ない,重要パラグラフを抽出する手法について述べる.5章では実験について報告し,6章で実験結果に関する考察を行なう.
\section{文脈依存の度合い}
一般に,主題はテキストの中で論点を示す語である.本稿では,主題,あるいは主題と意味的に関係が深い語(名詞を対象とし,これを{\bf重要語}と呼ぶ)に対し,重み付けを行なう.テキストはいくつかのパラグラフで構成される.重要パラグラフの抽出は,重み付けされた語を含む各パラグラフに対し,クラスタリングアルゴリズムを適用することで抽出される.本手法はLuhnらと同様,「一つの文献において,主題と関係の深い語は概して文献中に繰り返し出現する」という前提に基づく.本稿では新聞記事を対象とし,分野固有の重要語を抽出するために文脈依存の度合いという考え方を導入する.図\ref{depend}は,新聞記事({\itWallStreetJournal})の構造を示す.{\begin{figure}[htbp]\centerline{\epsfile{file=structure2.eps,height=6.5cm,width=10cm}}\caption{新聞記事の構造}\label{depend}\begin{center}\vspace*{-5mm}Figure1Thestructureofnewspaperarticles\end{center}\vspace*{-2mm}\end{figure}}\noindent図\ref{depend}において一日の新聞は,`経済',`文化'などいくつかの異なる種類から成る.ここではこれを{\bf分野}と呼び,各要素(`経済',`文化'など)を分野における{\bf文脈}と呼ぶ.一つの分野において,例えば`経済'という分野は,一般に,複数の記事から構成されており,各々にタイトル名(図\ref{depend}の`Generalsignalcorp.',`Safecardservicesinc.',`Jostensinc.')が付与されている.ここではこれを{\bf記事}と呼び,各要素(`Generalsignalcorp.'など)を記事における{\bf文脈}と呼ぶ.さらに,ある特定の記事,例えば,`Generalsignalcorp.'は,いくつかの{\bfパラグラフ}から成り,重要語は,各パラグラフを跨り,一貫して出現しているととらえることができる.ここでは各パラグラフをパラグラフにおける{\bf文脈}と呼ぶ.我々は重要語に対して重み付けを行なうために,図\ref{depend}で示される新聞記事の構造に対し,文脈依存の度合いという考え方を導入する.文脈依存の度合いとは,記事中の任意の語が,設定された文脈,すなわち図\ref{depend}で示した{\bfパラグラフ},{\bf記事},{\bf分野}中の特定の要素とどのくらい深く関わっているかという度合いの強さを示す.例えば図\ref{depend}において,`Generalsignalcorp.'に関する記事での重要語を`○'で示すと,`○'は,`Generalsignalcorp.'の各パラグラフを跨り出現する.よって,`○'は各パラグラフでの分布の偏りが一般語(分野に依存せず記事中どこにでも現れる語を一般語と呼ぶ)と同様,小さく,特定のパラグラフに依存する度合いは低い.次に`Generalsignalcorp.'を含む記事について考える.一般語は記事中どこにでも現れるため,記事における分布の偏りはパラグラフでのそれと差はない.一方,`○'の`Generalsignalcorp.'での依存の度合いは`○'が特定箇所(この場合,`Generalsignalcorp.')に集中して出現するため,結果的に,特定のパラグラフに依存する度合よりも強くなると考えられる.さらに`経済'を含む分野について考えると,一般語の分布の偏りはパラグラフ,及び記事と差がないのに対し,`○'の`経済'への依存の度合いは,`○'が特定箇所(この場合,`経済'の中の`GeneralSignalcorp.')に集中して出現するため,結果的に,特定の記事に依存する度合よりも強くなると考えられる.我々はこの依存の度合いの強弱を利用し,重要語を抽出した.
\section{語の重み付け}
我々は,先ず新聞記事に出現する多義語名詞の解消を行なった.次にこの結果に対し,名詞同士のリンク付け(`book',`report'のように意味的に関係がある名詞や`{\itNew}'`{\itYork}'などの複合名詞をまとめ一語で置き換える処理)を行ない\cite{Fukumoto1996},これを用いて重要語を判定し,その語に対して重み付けを行なった.名詞の多義の曖昧性を解消した理由は,多義を持つ単語に対してその意味を絞り込むことで語に対する重み付けがより精緻に行なえると考えられるためである.また,名詞同士のリンク付けを行なった理由は,以下の2つの問題に対処するためである.\begin{enumerate}\item主題に関連する単語頻度数の問題{\itWallStreetJournal}のように経済が主となる報道の新聞記事では,評論や科学文献などと比べると,一パラグラフの文数が少ない\footnote{{\itWallStreeJournal}の50記事において,一パラグラフ当り,平均1.93文であった.}.よって,パラグラフ間を跨り同じ表記の語が出現することは少なく,別の単語で言い換えて使用されることが多い.そのため表層語の情報のみ使用すると重要語が抽出できない場合がある.\item複合名詞の問題一単語を単位とし統計処理を行なう場合,複合名詞の問題が生じる.例えば,`AirFrance'を複合名詞である`航空会社名'として扱わず,`Air'を`空気',`France'を`地名'の意味で扱った場合を考える.`航空会社'が重要語である場合には,`空気'と`地名'で扱ったことにより,他パラグラフから`航空会社'と関係がある異表記の語が抽出されず,結果的に重要語として複合名詞である`AirFrance'が抽出されない.\end{enumerate}\noindent語の重み付けにはTF\hspace{0.2mm}(\hspace{0.5mm}Term\hspace{0.2mm}Frequency\hspace{0.5mm}),\hspace{0.5mm}IDF\hspace{0.2mm}(\hspace{0.5mm}Inverse\hspace{0.2mm}Document\hspace{0.2mm}Frequency\hspace{0.5mm}),\hspace{0.1mm}TF\hspace{0.5mm}$\ast$\hspace{0.5mm}IDF,\hspace{0.2mm}WIDF(WeightedInverseDocumentFrequency)など様々な手法が提案されている\cite{Luhn1957},\cite{Sparck1972},\cite{Salton1983},\cite{Tokunaga1994}.ここでは重み付けの一つの手法である$\chi^2$法を用いた.重要語の判定と重み付けの方法を以下に示す.\begin{enumerate}\item$\chi^2$法長尾らは,任意の語がそれぞれの分野においてその分野を特徴づける語であるか否かを判定する尺度として\hspace{-0.1mm}$\chi^{2}$\hspace{-0.2mm}検定の\hspace{-0.1mm}$\chi^{2}$\hspace{-0.2mm}値を用い,この手法がキーワードの抽出に有効であることを検証している\cite{Nagao1976}.しかし,一般に\hspace{-0.1mm}$\chi^{2}$\hspace{-0.2mm}値からは分野全体に対して出現頻度に偏りのある語が抽出できる反面,それぞれの分野においてその分野を特徴づける語が何であるかはわからない.\hspace{-0.1mm}また記事の量が多い分野の\hspace{-0.1mm}$\chi^{2}$\hspace{-0.2mm}の値は大きくなり,少ない分野のそれは小さくなる.従って,分野ごとに記事の量に偏りがある場合,\hspace{-0.1mm}$\chi^{2}$\hspace{-0.2mm}値の大きさだけで語を選べば,比較的記事の量が少ない分野の\hspace{-0.1mm}$\chi^{2}$\hspace{-0.2mm}の値は小さくなるため,結果的に重要語を抽出することができない可能性がある.渡辺らは重要漢字の自動抽出においてこの問題に対処するため,それぞれの分野における出現頻度の理論度数からのずれに注目した\cite{Watanabe1994}.本稿で述べる文脈依存の度合いを示す尺度も,渡辺らと同様,それぞれの文脈における出現頻度の理論度数からのずれを用いる.単語(名詞とする)$i$が$j$(分野,記事,またはパラグラフ)の$k$番目の要素に依存する度合を式(\ref{kai})に示す.\vspace*{-8mm}\begin{eqnarray}\chij^2_{ik}=\left\{\begin{array}{ll}\frac{(x_{ik}-m_{ik})^2}{m_{ik}}&\mbox{if$x_{ik}$$>$$m_{ik}$}\\0&\mbox{otherwise}\end{array}\right.\label{kai}\end{eqnarray}\hspace*{1cm}ここで,\vspace*{-5mm}\begin{eqnarray}m_{ik}&=&\frac{\sum^{n}_{k=1}x_{ik}}{\sum^{m}_{i=1}\sum^{n}_{k=1}x_{ik}}\times\sum^{m}_{i=1}x_{ik}\nonumber\end{eqnarray}ただし,\begin{tabular}{lll}$j$:&{\sfD}({\bf分野}),{\sfA}({\bf記事}),または{\sfP}({\bfパラグラフ})\\$m$:&名詞の数\\$n$:&$j$の要素の数\\$x_{ik}$:&$k$番目の要素における単語$i$の出現頻度\\$m_{ik}$:&$k$番目の要素における単語$i$の理想頻度\\\end{tabular}\noindentとする.ここで理想頻度とは,全分野,全記事,あるいは全パラグラフに等確率でその名詞が出現した場合の出現頻度である.式(\ref{kai})において$x_{ik}$がその理想頻度よりも小さい場合にはゼロとした.\item文脈依存の度合単語$i$が分野$j$(記事,またはパラグラフ)に依存する度合は$\chij^{2}_{ik}$の分散値$\chij^{2}_{i}$とした.これは,単語$i$の分野,記事,パラグラフそれぞれにおける依存の度合を比較するためである.\hspace{-0.15mm}$\chij^{2}_{i}$\hspace{-0.25mm}はその値が大きいほど単語$i$\hspace{-0.15mm}が$j$\hspace{-0.15mm}の特定の要素に強く依存することを示す.語$i$の{\bf分野({\sfD})},{\bf記事({\sfA})},{\bfパラグラフ({\sfP})}における文脈依存の度合の関係は式(\ref{degree1}),(\ref{degree2})で示される.\begin{eqnarray}\frac{\chi{\sfP}^{2}_{i}}{\chi{\sfA}^{2}_{i}}&<&1\label{degree1}\\\frac{\chi{\sfA}^{2}_{i}}{\chi{\sfD}^{2}_{i}}&<&1\label{degree2}\end{eqnarray}\noindent式(\ref{degree1})においてパラグラフにおける単語$i$の分散値$\chi{\sfP}^{2}_{i}$よりも記事における単語$i$の分散値\hspace{-0.25mm}$\chi{\sfA}^{2}_{i}$\hspace{-0.01mm}が大きいことから単語$i$はパラグラフ中の特定のパラグラフよりも記事中の特定の記事に強く依存することを示す.同様に式(\ref{degree2})は記事中の特定の記事よりも分野中の特定の分野に強く依存することを示す.従って式\hspace{-0.05mm}(\ref{degree1}),(\ref{degree2})を共に満たす語$i$は,特定のパラグラフに依存する度合が最も弱く,記事,分野へと対象が広がるにつれて強くなる.よって我々は式(\ref{degree1}),(\ref{degree2})を共に満たす語$i$を重要語とみなした.\item語の重み付け語の重み付けはパラグラフ中での語の出現頻度数に対して行なった.すなわち,記事の各パラグラフを構成する語が重要語である場合,その語の重み付けは出現頻度数とし,そうでない場合,ゼロとした.\end{enumerate}
\section{重要パラグラフの抽出}
重要パラグラフの抽出は重み付けされた語を含む各パラグラフに対し,パラグラフ間の類似度を利用したクラスタリングアルゴリズムを適用することで抽出される.クラスタリングアルゴリズムを用いた理由は,重要語はパラグラフを跨り出現すると仮定したことから,重要パラグラフは重要語を多く含み,かつ,同じ重要語が出現するパラグラフ同士ほど,より重要なパラグラフであると考えられるためである.従ってパラグラフを全パラグラフに出現する名詞を軸とするベクトルで表現し,ベクトル同士の類似度を基にクラスタリングを行なう手法を用いた.抽出方法を以下に示す.\begin{tabular}{ll}\sfStageOne:&パラグラフをベクトルで表す.\\\end{tabular}記事$P$を構成する各パラグラフ$P_{1}$,$\cdots$,$P_{m}$をベクトルで表す.$m$はパラグラフの個数とする.パラグラフ$P_{i}$は,\begin{eqnarray}P_{i}&=&(N_{i1},N_{i2},\cdots,N_{in})\label{1aa}\end{eqnarray}\noindentで示される.ここで$n$\hspace{-0.1mm}は,全パラグラフに出現する名詞の異なり数とする.また,$N_{ij}$\hspace{-0.1mm}は以下の通りとする.\[N_{ij}=\left\{\begin{array}{ll}0&\mbox{$N_{j}$がパラグラフ$P_{i}$に現れない場合}\\f(N_{j})&\mbox{$N_{j}$がパラグラフ$P_{i}$に現れ,かつ重要語である場合}\\0&\mbox{$N_{j}$がパラグラフ$P_{i}$に現れ,かつ重要語でない場合}\end{array}\right.\]\noindent上式において,$f(N_{j})$はパラグラフ$P_{i}$に出現する名詞$N_{j}$の頻度とする.\begin{tabular}{ll}\sfStageTwo:クラスタリングアルゴリズムを適用する.\end{tabular}パラグラフ$P_{1}$,$\cdots$,$P_{m}$の任意の組合せに対し,式(\ref{niwa1})を用いて類似度を計算する.\begin{eqnarray}sim(P_{i},P_{j})&=&\frac{V(P_{i})\astV(P_{j})}{\midV(P_{i})\mid\midV(P_{j})\mid}\label{niwa1}\end{eqnarray}\noindent式(\ref{niwa1})において$V(P_{i})$は$P_{i}$のベクトルを示す.式(\ref{niwa1})は正規化されたベクトル$V(P_{i})$と$V(P_{j})$の内積を示す.$sim(P_{i},P_{j})$の値が大きいほど,$P_{i}$と$P_{j}$は類似していることを示す.式(\ref{niwa1})を用いて類似度を計算した結果,任意のパラグラフの組とその類似度の値をその値が降順になるように出力する.この結果に対し,群平均化のクラスタリングアルゴリズムを適用する.\begin{tabular}{ll}\sfStageThree:重要パラグラフの抽出\end{tabular}得られたクラスタリング結果に対し,類似度の高いクラスタの順に重要パラグラフを抽出する.ただし,同一クラスタ内の重要パラグラフの抽出順序は,重要語を多く含むパラグラフの順とする.例えば4パラグラフから成る記事に対して,表\ref{para}で示されるクラスタが得られたとする.{\footnotesize\begin{table}[htbp]\begin{center}\caption{クラスタリング結果例}\label{para}\vspace*{-3mm}Table1Thesampleresultsoftheclustering\\\begin{tabular}{ll}\hline\hline番号&クラスタ\\\hline1&(3,4)\\2&(1,(3,4))\\3&((1,(3,4)),2)\\\hline\end{tabular}\end{center}\end{table}}\noindent表\ref{para}の番号は,得られたクラスタの順位を示し,クラスタ中の番号はパラグラフの番号を示す.表\ref{para}において,第3パラグラフに含まれる重要語の個数が第4パラグラフより多い場合,重要パラグラフの抽出順序は,3$\rightarrow$4$\rightarrow$1$\rightarrow$2の順とし,そうでない場合,4$\rightarrow$3$\rightarrow$1$\rightarrow$2とした.
\section{実験}
本節では,文脈依存の度合いを用いた手法の有効性を検証するために行なった実験について述べる.\subsection{データ}実験で用いたデータは1988,1989年の品詞のタグ付けされた{\itWallStreetJournal}である\cite{Brill1992}.{\itWallStreetJournal}は各々異なる文数から成る記事で構成され,各記事の始めには,タイトル名が付与されている.さらに各タイトルは76種類の分野名に分類されている.そこでこの分野名からランダムに10個の分野を選択し,{\bf分野}として用いた.さらにこれら10個の分野に含まれる総計50個の記事を抽出した.表\ref{domain}に選択した50記事の分野名と記事数を示す.{\footnotesize\begin{table}[htbp]\begin{center}\caption{分野名と記事数}\label{domain}\vspace*{-3mm}Table2Thedomainnameandthenumberofarticles\\\begin{tabular}{l|c|l|c}\hline\hline\multicolumn{1}{c|}{分野名}&記事数&\multicolumn{1}{c|}{分野名}&記事数\\\hlineBBK:buybacks&6&BVG:beverages&8\\DIV:dividends&5&FOD:foodproducts&5\\STK:stockmarket&5&RET:retailing&1\\ARO:aerospace&5&ENV:environment&3\\PCS:preciousmetals&9&CMD:commoditynews,&3\\\hspace*{11mm}stones,gold&&\hspace*{11mm}farmproducts&\\\hline\end{tabular}\end{center}\end{table}}\noindent50記事中,名詞の総異なり数は3,802であり,これらに対し多義解消と名詞間のリンク付けを行なった結果,名詞の総異なり数は3,707となった.実験で用いた50記事は,各々パラグラフ数が異なる.そこで,総パラグラフ数に対する一定の割合を重要パラグラフとして抽出した.重要語,及び重要パラグラフの正解データは3人の被験者により作成した.重要語の正解データは,各被験者にタイトル文を削除した50記事を見せ,重要だと思われる語を各記事ごとに選択してもらい,この結果から2人以上が重要語であると判定した語を正解データとして抽出した\footnote{50記事中,3人が選んだ重要語の総異なり数は1,580であり,そのうち2人以上が重要語であると判定した語数は1,264個であった.}.重要パラグラフの正解データは以下のようにして作成した.先ず,重要語の場合と同様,各被験者にタイトル文を削除した50記事を見せ,重要と思われるパラグラフを総パラグラフ数に対する一定の割合分,選択してもらった.次に各記事に対し,重要であると判定した人数が多い順にパラグラフをソートし,この結果から総パラグラフ数に対する一定の抽出率に相当するパラグラフ数を抽出し,正解データとした.ただし,正解データに信頼性を持たせるため,データの中に重要であると判定した人数が1人しかいないパラグラフは正解データに含まれないようにした.例えば,抽出された総パラグラフ数に対する3割のパラグラフ数を3とし,そのうち2人以上が同じパラグラフを選んだパラグラフ数が2であった場合,残りの1パラグラフは排除し,2パラグラフを正解データとした.人手により作成した正解データにおいて一位で選ばれたパラグラフにタイトル文と等しい,あるいは類似した文が含まれている記事は,50記事中48記事であり,残りの2記事についても二位で選ばれたパラグラフにタイトル文を示す文が含まれていたことから,人手により選択されたパラグラフは正解データとして妥当であると考えられる.\subsection{実験結果}多義解消と名詞間のリンク付けを行なった50記事に対し,文脈依存の度合を示す式(\ref{degree1})と(\ref{degree2})を適用した結果,総計1,047個の重要語が抽出された.結果を表\ref{key_result}に示す.表\ref{key_result}において,{\itRecall}と{\itPrecision}を以下に示す.{\footnotesize\begin{table}[htbp]\begin{center}\caption{重要語抽出の実験結果}\label{key_result}Table3Theresultsofkeywordexperiment\\\begin{tabular}{r|r|c}\hline\hlineパラグラフ数&記事数&{\itRecall}/{\itPrecision}\\\hline\hline3&1&88.9/81.2\\\hline4&13&62.7/86.2\\\hline5&6&76.7/86.2\\\hline6&6&67.3/77.5\\\hline7&4&83.2/86.4\\\hline8&3&89.0/80.0\\\hline9&4&80.3/75.4\\\hline10&2&90.2/72.2\\\hline11&1&80.1/87.6\\\hline12&1&100.0/83.7\\\hline14&3&46.5/50.2\\\hline15&2&100.0/73.4\\\hline16&2&89.2/82.0\\\hline17&1&62.4/89.4\\\hline22&1&64.3/70.0\\\hline\hline\multicolumn{1}{c|}{計}&50&78.7/78.1\\\hline\end{tabular}\end{center}\end{table}}\vspace*{-1cm}\begin{eqnarray}Recall&=&\frac{被験者と本手法の抽出結果で共通している重要語の個数}{被験者が抽出した重要語の個数}\nonumber\\\nonumber\\Precision&=&\frac{被験者と本手法の抽出結果で共通している重要語の個数}{本手法で抽出した重要語の個数}\nonumber\end{eqnarray}\noindent表\ref{key_result}の{\itRecall}と{\itPrecision}は各パラグラフ数ごとの平均を示す.また,重要パラグラフの抽出結果を表\ref{result}に示す.実験結果の評価は,正解データ(表\ref{result}の`抽出')の中に本手法により抽出された重要パラグラフ(表\ref{result}の`正解')がどの程度含まれているか,という尺度で行なった.{\footnotesize\begin{table}[htbp]\begin{center}\caption{実験結果}\label{result}\vspace*{-3mm}Table4Theresultsofkeyparagraphexperiment\\\begin{tabular}{|c|r|r|r|r|r|r|r|r|r|r|r|}\hline\hline\multicolumn{1}{|c|}{パラグラフ}&\multicolumn{10}{c|}{重要パラグラフの抽出率(\%)}&\\\cline{2-11}\multicolumn{1}{|c|}{\raisebox{-1.5ex}{(記事)}}&\multicolumn{2}{c|}{10}&\multicolumn{2}{c|}{20}&\multicolumn{2}{c|}{30}&\multicolumn{2}{c|}{40}&\multicolumn{2}{c|}{50}&正解率\\\cline{2-11}\multicolumn{1}{|c|}{}&抽出&正解&抽出&正解&抽出&正解&抽出&正解&抽出&正解&\%\\\cline{1-12}3(1)&1&1&1&1&1&1&1&1&2&2&100.0\\\cline{2-12}4(13)&13&12&13&12&13&12&13&12&26&21&88.4\\\cline{2-12}5(6)&6&5&6&5&$\ast$11&8&$\ast$10&9&18&14&96.0\\\cline{2-12}6(6)&6&6&6&6&$\ast$9&9&12&10&18&14&88.2\\\cline{2-12}7(4)&4&4&4&4&8&8&12&8&16&11&79.5\\\cline{2-12}8(3)&3&3&6&6&6&6&$\ast$8&6&12&7&80.0\\\cline{2-12}9(4)&4&4&8&8&$\ast$8&8&16&11&$\ast$18&9&74.0\\\cline{2-12}10(2)&2&2&4&2&$\ast$4&2&8&6&10&7&67.8\\\cline{2-12}11(1)&1&1&2&2&3&3&4&3&6&4&81.2\\\cline{2-12}12(1)&1&1&2&2&$\ast$2&2&$\ast$3&3&6&3&78.5\\\cline{2-12}14(3)&3&2&4&3&$\ast$6&4&$\ast$14&7&$\ast$19&10&56.5\\\cline{2-12}15(2)&$\ast$3&$\ast$2&$\ast$3&2&$\ast$3&2&$\ast$8&6&$\ast$14&10&70.9\\\cline{2-12}16(2)&$\ast$3&$\ast$3&$\ast$5&5&5&5&12&8&$\ast$16&10&75.6\\\cline{2-12}17(1)&2&2&3&3&$\ast$3&3&$\ast$7&4&$\ast$8&4&69.5\\\cline{2-12}22(1)&2&2&$\ast$2&2&$\ast$2&2&$\ast$4&2&$\ast$8&4&66.6\\\hline\multicolumn{1}{|c|}{総数(50)}&54&50&69&63&84&75&132&96&215&130\\\cline{1-11}\multicolumn{1}{|c|}{正解率\%}&\multicolumn{2}{c|}{92.5}&\multicolumn{2}{c|}{91.3}&\multicolumn{2}{c|}{89.2}&\multicolumn{2}{c|}{72.7}&\multicolumn{2}{c|}{60.4}\\\cline{1-11}\multicolumn{12}{c}{}\\\multicolumn{12}{c}{}\\\multicolumn{12}{l}{$\ast$:\\\2人以上が同じパラグラフを抽出した数が,総パラグラフに対する3割のパラグラフ数に}\\\multicolumn{12}{l}{\\\\\\満たないことを示す.}\\\end{tabular}\end{center}\end{table}}\noindent表\ref{result}は,重要パラグラフの抽出率が総パラグラフ数の10$\sim$50\%における各記事の抽出数,正解数を示す.各記事は記事の大きさ,すなわちパラグラフ数により分類されている.表\ref{result}の括弧は各パラグラフ数から成る記事の個数を示す.例えば3(1)は3パラグラフから成る記事が1つ存在することを示す.
\section{考察}
\subsection{重要語の抽出について}表\ref{key_result}によると,重要語抽出の{\itRecall/Precision}の総計はそれぞれ78.7\%,78.1\%であった.表\ref{key_result}において{\itRecall/Precision}が最も低いパラグラフ数は14パラグラフ(46.5/50.2)であり,その結果重要パラグラフの抽出結果である表\ref{result}においても抽出率は最も悪く,平均56.5\%であった.本手法では重要語が正しく抽出できない場合には重要パラグラフを正確に抽出できない可能性が高い.重要語が正しく抽出できなかった原因として以下のことが考えられる.\begin{enumerate}\item重要語の判定式記事(タイトル名`AberminsuesGrangesinEfforttorescindJointGoldVenture')において判定された重要語とパラグラフ,記事,分野における$\chi^2$値のサンプル例を表\ref{bbk5_2}に示す.{\footnotesize\begin{table}[htbp]\begin{center}\caption{記事における重要語と$\chi^2$法の値}\label{bbk5_2}Table5Keywordsandtheir$\chi^2$valuesinthearticle\\\begin{tabular}{lrrr}\hline\hline重要語&パラグラフ&記事&分野\\\hlineabermin&0.582&10.835&663.605\\belzberg&1.468&1.548&94.801\\flin&1.468&1.548&94.801\\gold5&1.770&2.496&52.865\\granges&0.680&15.478&948.007\\manitoba&1.468&1.548&94.801\\mill1&1.706&4.925&94.801\\ounces&1.765&5.064&284.402\\reserves&2.912&3.060&94.801\\suit2&1.099&3.096&189.601\\supreme1&1.468&1.548&94.801\\tartan1&0.251&6.191&379.203\\{\sfword237}&4.633&5.132&362.887\\{\sfword238}&1.468&1.548&94.801\\その他15&$\cdots$&$\cdots$&$\cdots$\\\hline全体平均&1.772&2.383&78.161\\\hline\end{tabular}\end{center}\end{table}}\noindent表\ref{bbk5_2}において,\hspace{-0.2mm}`パラグラフ',\hspace{-0.1mm}`記事',\hspace{-0.1mm}`分野'\hspace{-0.1mm}の各値は,\hspace{-0.1mm}各々の単語の\hspace{0.1mm}$\chi^2$法の値を示す.\hspace{-0.1mm}`全体平均'\hspace{-0.1mm}は,記事に出現する全ての語の平均を示す.`{\sfword237}'及び`{\sfword238}'は,名詞同士のリンク付けを行なった後のラベル付けを示す.表\ref{bbk5_2}によると,抽出された重要語のうち,パラグラフでの$\chi^2$法の全体平均値(1.772)よりもかなり高い値を持つ語が存在している.例えば,`{\sfword237}'は,4.633であり,平均値よりもかなり高い値を示していることから,特定のパラグラフに集中して出現しており,主題と関係がないにもかかわらず誤って重要語と判定されていた.例えば,抽出率が10\%で正解率が100\%に達しない記事は4記事存在し,このうち3記事がこのことが原因であった.この問題に対処するための手法として,パラグラフでの$\chi^2$法の全体平均値を加味した重要語の判定が考えられる.例えば,表\ref{bbk5_2}において,パラグラフでの全体平均値(1.772)よりも高い値を持つ`{\sfword237}'(`stock',`exchange',`market'など)と`reserves'は,記事のタイトルが`AberminsuesGrangesinEfforttorescindJointGoldVenture'(AberminがGrangesに対し,合弁貴金属産業を廃止するために訴えを起こす)であり,その背景説明として`Abermin'と`Granges'の両会社の株価の変動を説明する際用いられた語であることから,主題とは直接関係がないと考えられる.この場合,全体平均値を上回る語に対しては,重要語とみなさないなどの制約を加えることでこれらの語を排除することができる.今回の実験では,文脈依存の度合の関係を示す式として式(\ref{degree1})と(\ref{degree2})を用いて重要語の判定を行なった.今後さらに精度を上げるため,これらの式に加えパラグラフでの$\chi^{2}$の全体平均値を考慮するなど,重要語の判定についてさらに検討する必要がある.\item多義の曖昧性解消本手法では名詞の多義解消と名詞間のリンク付けを行なった結果に対し,文脈依存の度合を導入することで重要語を抽出している.実験で用いた50記事に対し,名詞の多義解消と名詞間のリンク付けを行なわずに文脈依存の度合を適用した実験を行なった結果,総抽出数84パラグラフ(抽出率30\%)に対し66パラグラフが正解であり,平均正解率は78.5\%であった.結果的に多義の解消と名詞間のリンク付けを行なうことで,正解率が89.2\%に達し10.7\%向上していることから,多義の解消と名詞同士のリンク付けが有効であることがわかる.一方,多義の曖昧性が正しく解消できなかったために正解が得られなかった記事は,抽出率10\%において正解が得られなかった4記事中,1記事存在した.記事及びそのクラスタリング結果を図\ref{bbk5}と図\ref{bbk6}に示す.{\footnotesize\begin{figure}[htbp]\begin{center}\begin{tabular}{|ll|}\hline\multicolumn{2}{|c|}{{\bfCrystalOilCo.ExtendsOffer}}\\\multicolumn{2}{|c|}{}\\1&\parbox[t]{12cm}{\underline{Crystal4}\underline{oil4}co.saiditextendedto\underline{Nov.}17the\underline{exchange1}\underline{offer4}forallofitsnon-interest-bearingconvertiblesecured\underline{notes},due1997,for\underline{shares}ofitscommon\underline{stock5}.}\\2&\parbox[t]{12cm}{The\underline{offer4}hadbeensettoexpire\underline{yesterday1}.}\\3&\parbox[t]{12cm}{Thecompany1saidabout65.89\%ofthe\underline{notes}outstandinghavebeentendered.undertheplan5,the\underline{notes}willbeexchangedata\underline{rate5}of65\underline{shares}of\underline{crystal2}\underline{oil3}commonforeach\$1,000principal\underline{amount4}ofthe\underline{notes},the\underline{energy4}\underline{concern2}said.}\\4&\parbox[t]{12cm}{Incomposite\underline{trading1}onthe\underline{american2}\underline{stock1}\underline{exchange1}\underline{yesterday2},\underline{crystal2}\underline{oil3}\underline{shares}closedat\$2.875,up12.5\underline{cents}.}\\\multicolumn{2}{|c|}{}\\\hline\end{tabular}\caption{記事}\label{bbk5}{\smallFigure2Thesampleofthearticle}\end{center}\end{figure}}{\small\begin{figure}[htbp]\centerline{\epsfile{file=paragraph2.eps,height=2.5cm,width=4.5cm}}\caption{記事のクラスタリング結果}\label{bbk6}\begin{center}Figure3Theclusteringresults\end{center}\end{figure}}\noindent図\ref{bbk5}において先頭はタイトル名を示す.図\ref{bbk5}及び\ref{bbk6}の番号はパラグラフの番号を示し,図\ref{bbk5}の下線は本手法により抽出された重要語を示す.図\ref{bbk6}によると,クラスタ(3,4)とクラスタ(1,(3,4))との差は0.02であり,僅かの差でクラスタ(3,4)が抽出された結果,パラグラフ1が重要パラグラフであるにもかかわらず抽出されなかったことを示す.パラグラフ1,3,4に出現する重要語と重み付けを行なった後の頻度数を表\ref{bbk5_1}に示す.{\footnotesize\begin{table}[htbp]\begin{center}\caption{記事の各パラグラフに出現する単語と頻度}\label{bbk5_1}\vspace*{-3mm}Table6Thewordsandtheirfrequenciesinthearticle\\\begin{tabular}{rl|rl|rl}\hline\hline\multicolumn{2}{c|}{パラグラフ1}&\multicolumn{2}{c|}{パラグラフ3}&\multicolumn{2}{c}{パラグラフ4}\\\hline頻度&単語&頻度&単語&頻度&単語\\\hline1&crystal4&1&concern2&1&american2\\1&oil4&1&crystal2&1&crystal2\\5&{\sfword237}&1&energy4&1&oil3\\1&{\sfword78}&1&oil3&5&{\sfword237}\\&&1&rate5&1&{\sfword78}\\&&5&{\sfword237}&&\\\hline\multicolumn{6}{c}{}\\&\multicolumn{1}{l}{\sfword78:}&\multicolumn{4}{l}{Nov.,yesterday2}\\&\multicolumn{1}{l}{\sfword237:}&\multicolumn{4}{l}{exchange1,offer4,notes,shares,}\\&\multicolumn{1}{l}{}&\multicolumn{4}{l}{stock5,amount4,trading1,stock1,cents}\\\end{tabular}\end{center}\end{table}}\noindent表\ref{bbk5_1}において,語の末尾の数字は,多義が解消され,各語に対し予め設定した5つの意味のいずれかに決定できたことを示す.また`{\sfword237}'及び`{\sfword78}'は,名詞同士のリンク付けを行なった後のラベル付けを示す.表\ref{bbk5_1}によると,`crystal',`oil'がパラグラフ1,3,4に出現するにもかかわらず,パラグラフ1に出現する`crystal'及び`oil'は誤って多義が解消され,それぞれ`crystal4',`oil4'で置き換えられている.その結果,パラグラフ3と4の共通単語は3語,パラグラフ1と3,パラグラフ1と4の共通単語はそれぞれ共に1語,2語であり,パラグラフ3と4がより類似性が高いと判定され,結果的にパラグラフ1が重要パラグラフとして選ばれなかった.本手法では多義が正しく解消されない場合には重要語が判定できず正解が得られない可能性が高い.本手法で用いた多義の解消率は,78.4\%であった\footnote{{\itWallStreetJournal}からランダムに抽出した490文に含まれる名詞3,608語のうち多義が正しく解消できたものは,2,828語(78.4\%)であった.}が,今後さらに多義解消自体の精度を向上させる必要がある.\end{enumerate}\subsection{重要パラグラフの抽出について}表\ref{result}によると,抽出率が10$\sim$30\%の場合,それぞれ,50,63,75パラグラフが正解であり,平均正解率は92.5\%,91.3\%,89.2\%に達した.分野名`BBK(Buybacks)'に属し,6パラグラフから成る記事を図\ref{sample1}に示し,それに出現する語のパラグラフ,記事,分野における$\chi^2$値の例を表\ref{sample}に示す.{\footnotesize\begin{figure}[htbp]\begin{center}\begin{tabular}{|ll|}\hline\multicolumn{2}{|c|}{{\bfSafecardServicesInc.SetsStockBuy-Back,CitingDropinPrice}}\\\multicolumn{2}{|c|}{}\\1.&\parbox[t]{12cm}{\underline{Safecard}\underline{services}Inc.saiditintendstobeginpurchasingitscommonontheopenmarketbecauseofasharp\underline{drop}inthe\underline{stock's}pricelatelastweek.}\\\multicolumn{2}{|c|}{}\\2.&\parbox[t]{12cm}{Thecompanydidn'tsayhowmanysharesitexpectstobuy,butitsaidthepurchaseswouldbemadeunderapreviouslyannounced\underline{stock}buy-backprogram.Officersdidn'treturncallsseeking\underline{details}.Asofapril30,thecompanyhad32millionsharesoutstanding.}\\\multicolumn{2}{|c|}{}\\3.&\parbox[t]{12cm}{\underline{Safecard}saidits\underline{stock}hadbecomeandanattractiveinvestmentasaresultofthepricedeclinethatbeganthursday,whenSafecardfell$1,or18,to$6.Ashare,makingittheday'stoppercentageloseronnasdaq,thenationalassociationof\underline{securities}dealersautomatedquotation\underline{service}.OnFriday,itfellafurther87centsto\$5.Ashareonvolumeofabout2millionshares.}\\\multicolumn{2}{|c|}{}\\4.&\parbox[t]{12cm}{Theprice\underline{drop}followedreportsonthe\underline{Dow}\underline{Jones}\underline{News}\underline{service}andinthisnewspaperthatfederal\underline{agents}executedasearch\underline{warrant}on\underline{Safecard's}\underline{premises}inmid-Octoberinconnectionwithacriminalinvestigationbytheinternalrevenue\underline{service}.The\underline{news}\underline{accounts}saidthe\underline{target}oftheinvestigationcouldn'timmediatelybedetermined.Theyreportedasubsequent\underline{Safecard}\underline{announcement}thatthecompanyhadbeentoldbytheIrsthatitisn'ta\underline{target}or\underline{subject}ofanyIrsinvestigation.\underline{Safecard}officersdidn'treturnnumerousphone\underline{calls}seekingcommentorfurther\underline{details}.}\\\multicolumn{2}{|c|}{}\\5.&\parbox[t]{12cm}{Inannouncingitsstock-buy-backplans,\underline{Safecard}saidits\underline{stock}priceplungecameinresponsetoerroneousheadlinespublishedintheWallStreetJournalandelsewhereassertingthat\underline{Safecard}istheobjectofanIrscriminalinquiry.acorrectionoftheheadlineappearsintoday'seditions.}\\\multicolumn{2}{|c|}{}\\6.&\parbox[t]{12cm}{\underline{Safecard},whichnotifiescredit-cardissuersoflostorstolencards,isoneofthecountry'sbiggestcredit-cardprotectionconcerns.}\\\multicolumn{2}{|c|}{}\\\hline\end{tabular}\caption{記事と重要語}\label{sample1}{\smallFigure4Thesampleofthearticleandkeywordsinthearticle}\end{center}\end{figure}}{\footnotesize\begin{table}[htbp]\begin{center}\caption{出現語と$\chi^2$法の値}\label{sample}Table7Keywordsandtheir$\chi^2$valuesinthearticle\\\begin{tabular}{lrrr}\hline\hline語&パラグラフ&記事&分野\\\hline$\ast$$\ast$Safecard&0.329&10.390&25.755\\$\ast$$\ast$Services&0.426&1.484&3.679\\$\ast$$\ast${\sfword237}&2.770&3.873&165.408\\card1&4.296&1.484&3.679\\country2&4.296&1.484&5.229\\journal1&1.927&1.484&3.679\\plan1&1.927&1.271&11.997\\today2&1.927&1.484&3.679\\$\cdots$&$\cdots$&$\cdots$&$\cdots$\\\hline\multicolumn{4}{c}{}\\\multicolumn{4}{l}{$\ast$$\ast$:\\\重要語を示す.}\\\end{tabular}\end{center}\end{table}}\noindent図\ref{sample1}において先頭はタイトル名を示す.また番号はパラグラフ番号を示し,下線は本手法により抽出された重要語を示す.表\ref{sample}によると記事のタイトル中で示される名詞(`Safecard',`Services',`Inc.',`Stock',`City',`Price')のうち,`Inc.',`City',及び`Price'を除くいずれもが重要語と判定されている.また,`card',`country',`plan',`today'など他分野にも現れると考えられる一般語は,式(\ref{degree1}),(\ref{degree2})を満たさないため重要語とならず,結果的に一般語として正しく認識できている.図\ref{sample1}で示された記事をクラスタリングした結果を図\ref{sample2}に示す.{\begin{figure}[htbp]\centerline{\epsfile{file=paragraph.eps,height=3.5cm,width=5.5cm}}\caption{記事のクラスタリング結果}\label{sample2}\begin{center}\vspace*{-5mm}Figure5Theclusteringresults\end{center}\end{figure}}\noindent図\ref{sample2}において,数値は類似度を示す.クラスタリングの結果,例えば抽出率が30\%の場合,パラグラフ1と3が重要パラグラフとして選択され,被験者の評価結果と一致した.表\ref{result}において抽出率が10$\sim$30\%の場合には,記事の大きさに関係なくほぼ安定して高い正解率が得られていることから,重要パラグラフ抽出の際に用いたクラスタリング手法の結果,高い類似度で抽出されたクラスタには,重要パラグラフが含まれていることがわかる.一方,抽出率が40\%以上になると正解率は低く,40\%,50\%でそれぞれ72.0\%,60.4\%であった.さらに抽出率が40\%以上の場合,精度はパラグラフ数が多くなると低下している.原因として,文間の類似度を利用したクラスタリング手法が考えられる.例えば,図\ref{sample2}において,抽出率が30\%の場合,上位2語であるパラグラフ1と3は高い類似度(0.84)でクラスタリングされている.一方抽出率が50\%以上になると類似度は0.45に低下している.そこで,重要パラグラフの抽出方法としてクラスタリング手法を用いる代わりにベクトルの大きさ,すなわち,各記事を示すベクトルの大きさが大きいものほど重要であるとし,ベクトルの大きい順に抽出する手法と本手法とを比較した.結果を表\ref{cluster}に示す.{\footnotesize\begin{table}[htbp]\begin{center}\caption{類似度とベクトルの大きさとの比較}\label{cluster}Table8Theresultsoftheexperimentbasedonparagraph'ssimilarity\\andthelengthofavector\\\begin{tabular}{r|r|r|r}\hline\hline抽出率&抽出数&本手法(\%)&ベクトル(\%)\\\hline10&54&50(92.6)&48(88.9)\\\hline20&69&63(91.3)&58(84.1)\\\hline30&84&75(89.3)&68(78.6)\\\hline40&132&96(72.7)&91(69.0)\\\hline50&215&130(60.4)&128(60.6)\\\hline\end{tabular}\end{center}\end{table}}\noindent表\ref{cluster}において,抽出数は各抽出率において抽出したパラグラフ数を示し,`本手法',`ベクトル'は,それぞれの正解数を示す.表\ref{cluster}の各抽出率においてベクトルの大きさを用いて重要パラグラフを判定する手法\hspace{0.1mm}よりも本手法\hspace{0.1mm}の\hspace{0.1mm}方が高い正解率\hspace{0.1mm}が\hspace{0.1mm}得られていることがわかる.\hspace{0.1mm}本手法では抽出率が40\%以上かつパラグラフ数が15以上になると精度が低下したが,このことはベクトルの大きさを用いた手法においても同様であった.これは,抽出率,及びパラグラフ数が多くなると各パラグラフを通して重要語の出現個数に差が生じなくなり,\hspace{0.1mm}結\hspace{0.1mm}果\hspace{0.1mm}的に各パラグラフの特\hspace{0.1mm}徴\hspace{0.1mm}化が示せなかったことによると考えられる.パラグラフの数が15以上の場合には,表\ref{result}において$\ast$の個数が多くなる.これは,抽出数が総パラグラフに対する抽出率に満たない記事が増加していることを示し,被験者の評価にも揺れが生じていることから重要箇所の抽出は難しいことがわかる.従って本手法のように文脈依存の度合だけを用いて多くのパラグラフ数から成る記事に対して高い抽出率で重要箇所を正確に抽出するのには限界があることがわかる.今後重要パラグラフの抽出精度を上げるためには,パラグラフの位置情報などのヒューリィステックスなども加味することが考えられる.抽出率が30\%の場合を例にとり,本手法で抽出された重要パラグラフ,及び,被験者が選んだ重要パラグラフが記事中でどのような位置に分布していたかを表\ref{position1}に示す.{\footnotesize\begin{table}[htbp]\begin{center}\caption{記事中における重要パラグラフの位置}\label{position1}\vspace*{-3mm}Table9Thepositionofkeyparagraphinthearticle\begin{tabular}{l||r|r}\hline\hline&\multicolumn{2}{|c}{記事数}\\\cline{2-3}&被験者&本手法\\\hline(a)先頭パラグラフ&39&37\\\hline(b)先頭パラグラフ,最終パラグラフ&4&4\\\hline(c)先頭パラグラフ,中央パラグラフ,最終パラグラフ&1&1\\\hline(d)先頭パラグラフ,中央パラグラフ&4&4\\\hline(e)中央パラグラフ&0&1\\\hline(f)それ以外&2&3\\\hline\multicolumn{1}{c||}{総計}&50&50\\\hline\end{tabular}\end{center}\end{table}}\noindent表\ref{position1}において各パラグラフはその付近のパラグラフも含む.表\ref{position1}によると,被験者において50記事中,39の記事がその先頭パラグラフ付近のみに重要パラグラフが位置していると判定しており,全体の78.0\%を占めている.このことから,先頭パラグラフ付近に重要パラグラフが位置するというヒューリスティックスだけを単独で利用する方法は,本手法の正解率(89.2\%)よりも低いことがわかる.しかしながら,本手法において先頭パラグラフ付近に重要パラグラフが位置すると判定した記事数は37であり,2記事が先頭パラグラフ付近に重要パラグラフが存在するにもかかわらず,結果的に誤って判定している.このことから,{\itWallStreetJournal}のような新聞記事に対しては,先頭パラグラフ付近に重要パラグラフが位置するというヒューリスティックスを重要パラグラフ抽出の際の重み付けの一つとして利用することは有効であると考えられる.今後,重要パラグラフの抽出に文脈依存の度合と位置情報のようなヒューリスティックスをどのように組み合わせるかを検討する必要がある.
\section{むすび}
本稿では,新聞記事を対象とし,文脈依存の度合を用いて語に重み付けを行なうことで重要パラグラフを抽出する手法を提案した.実験では人手により抽出したパラグラフと比較した結果,抽出率を30\%とした場合,50記事の抽出総パラグラフ数84に対し75パラグラフが正解であり,正解率は89.2\%に達した.今後,6節で述べた問題に対処する他,課題として以下の2点が挙げられる.\begin{enumerate}\item文書の自動分類手法との統合本手法では,文脈依存の度合を用いることにより高い精度で重要パラグラフを抽出することができる反面,{\itWallStreetJournal}のように予め分野が設定された十分な量のコーパスを必要とする.しかし,分野設定済みの利用可能なコーパスは数少ない.近年電子化されたコーパスを対象とし,文書の自動分類に関する研究が盛んに行なわれているが\cite{Blosseville1992},\cite{Lewis1992},\cite{Tokunaga1994},\cite{Fukumoto1996},今後これらの研究と本手法とを組み合わせることで汎用性を持たせる必要がある.\itemパラグラフから文への適用本手法の応用として,要約,すなわち「元文章の大意を伝えることができる簡略化した幾つかの文を生成する」へ利用することを考えた場合には,重要パラグラフから重要文へ適用する方が望ましい.本手法のパラグラフから文抽出への適用を試みた結果,抽出率が10\%のときパラグラフを対象とした場合には,抽出数54パラグラフに対し正解数は50であり正解率は92.5\%に達した.一方,文を対象とした場合には,抽出数120文に対し正解数は89文であり正解率は74.1\%であった\footnote{重要文に関する正解データは,3人の被験者により作成された重要パラグラフの正解データの中から各記事に対し抽出率を10\%とし,それに相当する文数だけ一人の被験者により文を抽出し,正解データとした.}.重要文抽出の正解率が重要パラグラフの正解率よりも低かった原因として以下のことが考えられる.\begin{itemize}\item単語頻度数の問題文を対象とした場合には単語頻度がパラグラフの場合よりも減少するため,文間で共通に出現する単語が相対的に少なくなり,結果的に類似度がゼロとなりクラスタリングできない場合が生じた.\item言い換えの問題対象とした記事には,重要文の内容を言い換えた文が存在した.重要文とその言い換えの文では,同じ語あるいは意味的に近い語が多く使われているため,文間の類似度が高くなり,結果的に他の重要文が抽出されない場合が生じた.\end{itemize}\noindent上記の問題に対処するため,重要語を抽出した後,文を単位とした場合の抽出方法について検討する必要がある.\end{enumerate}\bibliographystyle{jnlpbbl}\bibliography{main}\begin{biography}\biotitle{略歴}\bioauthor{福本文代}{1986年学習院大学理学部数学科卒業.同年沖電気工業(株)入社.総合システム研究所勤務.1988年より1992年まで(財)新世代コンピュータ技術開発機構へ出向.1993年マンチェスター工科大学計算言語学部修士課程終了.同大学客員研究員を経て1994年より山梨大学工学部助手,現在に至る.自然言語処理の研究に従事.情報処理学会,ACL各会員.}\bioauthor{福本淳一}{1984年広島大学工学部第2類卒業.1986年同大学工学研究科博士前期課程終了.同年沖電気工業(株)入社.総合システム研究所勤務.1992年より1994年までマンチェスタ工科大学言語学部Ph.Dコース在学.1996年より同社関西総合研究所勤務,現在に至る.自然言語処理の研究に従事.ACL,言語処理学会,人工知能学会各会員.}\bioauthor{鈴木良弥}{1986年山梨大学工学部計算機科学科卒業.1988年山梨大学大学院工学研究科計算機科学専攻修了.同年木更津工業高等専門学校助手.1993年東京工業大学大学院総合理工学研究科博士後期課程修了.1994年より山梨大学工学部助手,現在に至る.音声言語処理の研究に従事.工学博士.電子情報通信学会,日本音響学会,言語処理学会各会員.}\bioreceived{受付}\biorevised{再受付}\biorevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.