id stringlengths 9 9 | text stringlengths 10.2k 92.7k | title stringclasses 1 value |
|---|---|---|
V18N02-03 | \section{はじめに}
本稿は,文書,あるいはある観点で集められた文書群が与えられたとき,それについて文書量に依存しない定数—これを本稿では文書定数と定義する—を計算する方式に関する報告である.文書定数は,古くは文書の著者判定を主たる目的として探究された.最も古い代表的なものとして,1940年代に提案されたYuleの$K$がある.現在では,著者判定に対しては,言語モデルや機械学習に基づく方法など,代替となる手法が数多く提案されている.このため,何も文書や文書群をあえて定数という一つの数値に還元して判定を行う必要はない.しかし,文書あるいは文書群がある一貫した特質を持つのであれば,その特質を定数に還元しようとすること自体は,工学上の個別の応用を超えて,より広く計算言語学上の興味深いテーマであると筆者らは考える.文書あるいは文書群に通底する一貫性の種類には,内容や,難易度などさまざまなものが考えられ,言語処理分野では文書分類や,難易度判定としてそれを捉える工学的方法が考案されてきた.文書定数の場合には,もともとの研究の発端が著者判定にあったために著者の語彙量,語彙の偏り度合,あるいは個別文書の複雑さなど,語彙の複雑さを計測し数値化する問題として考えられてきた.一般に,文書の大きさが増すほど,文書の複雑さは増大するが,一方で,漱石の「坊っちゃん」の一部分にはその全体にも通底する固有の特質があると捉えることもできよう.これを定数として表そうとすることは,記号列としての文書に一貫する複雑さのある側面を考えることにつながると考えられる.そして,対象としうる文書は個別作品だけではない.特定の内容の文書群や,特定の言語の文書群でこれらの定数を考えることは,自然言語の記号列の有する特質に光を当てることにはならないか.文書定数を考えることは,本稿でも報告するように,易しい問題ではない.その一つの理由は,自然言語の文書においてhapaxlegomena—頻度が1回きりの単語—が語彙に対して占める割合が比較的大きいことにあろう.たとえば,サイコロであれば,各目の出る確率を推定するのに必要な施行回数は推定することができる.一方で,文書の場合には,さまざまな統計的推定には文書量が常に不十分な状態のままである~\cite{kyo,Baayen}.すなわち,文書定数を考えることは,確かな言語モデルが不在のまま,量が常に足りていない状態のままで定数を考える,という問題として位置付けられよう.次節でまとめるが,文書定数に関する研究は,すでにさまざまなものがあり,単語に注目するものと文字列に注目するものに大別される.近年の研究では,それらのほとんどが文書長に応じて単調変化してしまうことが報告され,その中で,文書定数となる指標は,筆者らの知る範囲では,現在のところ2つしかない.この現状の中で,本稿の意義は以下の4点にまとめることができる.第一に,過去の研究で定数とされているものうちの一つが定数ではないと実験的に示したことである.第二に,過去の提案に加え,近年研究されている言語の大域的特性を捉える複雑系ネットワークや言語エントロピーといった数理的枠組みから,文書の特性を大域的に捉える指標を新たに吟味し,これらがやはり文書定数とならないことを示すことである.以上の意味で,本稿では,新しい文書定数を提案するものではなく,文書定数としては依然として,既に提案されていたもののうち2つのみである,という結論となる.第三に,文書定数に関する研究は,英語を中心として展開し,やや広くても印欧語族についてのみの報告しかない.本稿では,日本語や中国語に関しても実験を行い,過去に提案されてきた文書定数が非印欧語族に対しても定数として成り立つかどうかを論じる.第四に,過去の研究の大半では,短い個別文書に関して定数となるかどうかが調べられてきた.本稿では,数百MBにわたる文書群での実験結果も報告する.
\section{関連研究}
\label{TandB}過去の研究には単語に基づくものと,文字列に基づくものの二種類のものが提案されている.単語ユニグラムに基づく文書定数を得ようとしたもっとも古い学者の一人は前述のようにYuleである~\cite{Yule}.Yuleの目的は,著者判定にあり,単語ユニグラムに基づく指標$K$を提案した.これを受け,Herdanが60年代に独自の式を提案している~\cite{herdan}.その後は,個別の提案が続き,近年,TweedieとBaayenが,単語ユニグラムのみに基づく指標に関し,網羅的な研究を行っている~\cite{BaayenTweedie}.彼らは単語ユニグラムに基づく既存の12の指標に関し,実際に定数となるかどうかを調べた.対象とした文書は,「不思議の国のアリス」など英語の複数の短い個別文書である.彼らの実験では,12の指標が文書中の単語はランダムに発生するという仮定のもとで提案されていることを受け,文書中の単語を出現順にそのまま扱うものではなく,文書全体の単語をランダムに入れ替えてシャッフルすることを行った上で,指標を計測した.その上で,12の指標の中で$K$と$Z$については小規模な英語文書では文長によらず値がほぼ一定となるが,そのほかの指標は一定とはならないことが報告されている.さらに,TweedieとBaayenは,指標が文書の著者判別に用いることができるかを探究した.各文書を$K$-$Z$空間で表し,クラスター分析などの別手法と比較した結果,$K$と$Z$の二つの特徴量だけで著者を表すことができると結論づけた.本稿では,単語ユニグラムに関して,TweedieとBaayenの報告とは異なる見解を実験を根拠に示す.それは指標$K$と$Z$のうち,$Z$は文書定数を構成しないというものである.$Z$は,次節で詳しく説明するが,Zipfの法則を背景とする点で複雑系ネットワークとの関係が深い.この点で,言語の大域的特性を表す言語のべき乗則から単純に考えられる定数$r$を考えることができるが,それも定数とはならないことを合わせて示す.また,TweedieとBaayenは,英語の短い文書のみを対象としたが,本稿では,日本語や中国語も対象とする.文書定数としては,言語エントロピーにまつわる一連の研究を考える必要がある.Shannon\cite{Shannon}によって提案されて以来,言語エントロピーを計算する方法が,文字列に基づく方法,nグラムに基づく方法の両方で考えられてきた~\cite{cover}.言語エントロピーは,文字列の冗長性を特徴付ける以上,文書においてもある下限値に収束する定数として計測されうることが期待される.言語処理の分野でも~\cite{brown}が単語nグラムに基づく言語エントロピーのupperboundを計測する方法を示しているが,データ量に対して,推定量がどのように推移するかについての考察は述べられていない.また,\cite{genzel}がエントロピーレート(一文字あたりのエントロピー)が定数である,という仮説を示している.しかし,論文の内容は,エントロピーレートに関わる計算式のある項が増大することを理由とする間接的なものに基づき,エントロピーレートが本当に定数を為すといえるかは何ともいえない.また,nグラムに基づく方法は,スムージングと関連してパラメータ推定を要する点が文書定数を求める上では,難しい.このような中,筆者らは,文字列に基づくエントロピーの計算方法として,パラメータ推定を要せず,収束性が数学的に示されているFarachらの計算方法~\cite{Farach}を用い$H$を計算し,その文長依存性を本稿では考える.\begin{figure}[b]\begin{center}\includegraphics{18-2ia3f1.eps}\end{center}\caption{各文字がランダムに出現する場合のVM}\label{zu:Golcher}\end{figure}最後に,近年Golcherが文字列の繰り返しに基づく画期的な指標$\mathit{VM}$を提案した~\cite{Golcher}.詳細は後述するが,Golcherは接尾辞木の内部ノード数を文長で割った値が,文書定数であることを示したばかりでなく,20の印欧語族は0.5付近で同じ値となることを示した.またプログラミング言語やランダムテキストについては文長に対して値が変化し,自然言語の場合と変化の様子がかなり異なるという結果が報告されている.たとえば,図\ref{zu:Golcher}は,Golcherの見解に沿って,筆者らが生成した図であるが,$n$文字がランダムに出現する場合の$\mathit{VM}$は,横軸を文字数の対数,縦軸を$\mathit{VM}$として,振動することがわかる.Golcherの実験でもわれわれの結果でも,言語の文書は$\mathit{VM}$は文長に依らず定数となる.Golcherはなぜ$\mathit{VM}$が一定になるのかについての理論的な考察は展開しておらず,それは将来の課題としている.Golcherは印欧語族に対してのみ結果を示しているが,本稿では,日本語や中国語についてもGolcherの値が定数となることを示す.
\section{指標}
\label{sihyou}前節で説明したように,本稿では単語に基づく指標として,$K$,$Z$,$r$,また,文字列に基づく指標として$\mathit{VM}$と$H$を用いた.以下,各指標を順に説明する.\subsection{単語に基づいた指標}\subsubsection*{Yuleの指標$K$}指標$K$は文書の語彙の豊富さを示す指標として1944年に統計学者のYuleによって提案された~\cite{Yule}.今,文書の総単語数(単語数で計測した際の文書長)を$N$,単語の種類を$V$とし,文書中に$m$回出現する単語の種類を$V(m,N)$とすると,$K$は\begin{equation}K=C\Big[-\frac{1}{N}+{\sum_{m=1}^{m=N}V(m,N)\left(\frac{m}{N}\right)^2}\Big]\label{k}\end{equation}で定義される.ここで$C$は$K$の値が小さくなりすぎないようにするための係数であり,Yuleは$C=10^{4}$とした.この$C$の値に本質的な意味はない.また,Yuleは文書の生成モデルにつぼモデルと呼ばれる文書中の単語はランダムに出現するものとしたモデルを仮定している.このモデルにおいて$N$が十分大きい時には,この$K$の期待値が一定となることを数学的に証明することができる~\cite{Baayen}.$K$が語彙の豊富さを表すことを以下簡単に説明する.今,文書中からランダムに単語を一つ選ぶことを考える.すると式(\ref{k})において$(\frac{m}{N})$は文書中$m$回出現する単語が選択される確率を表す.よって$(\frac{m}{N})^2$はそのような単語が連続で選択される確率である.ここで同じ単語が連続で選択される確率が大きい場合は文書の語彙が乏しい場合,逆に確率が小さい場合は語彙が豊富な場合と見なすことができる.式(\ref{k})より前者の場合は$K$の値は大きくなり,後者の場合は$K$の値は小さくなることがわかる.このように$K$は同じ単語が連続で出現する確率に基づいた語彙の豊富さを表す指標である.\subsubsection*{Zipfの法則に基づいた指標$Z$}\label{zipf}文書中に現れる各単語の出現頻度はZipfの法則に従うということが経験的に知られている~\cite{Zipf}.$Z$はこのZipfの法則に基づいた指標である.今,文書の総単語数(単語数で計測した際の文書長)を$N$,単語の種類を$V_N$とし,$z$を文書中に出現する単語の回数に関して降順に並べた時の順位を表す変数とする.ここで順位が$z$である単語が文書中に出現する回数を$f(z,N)$とすると,$f(z,N)$と$z$の間に\begin{equation}f(z,N)=\frac{C}{z^a}(Cは規格化定数で\sum_{z}f(z,N)=Nを満たすように定める)\label{eqzip}\end{equation}というべき乗則の関係がおおよそ成り立つ.また式(\ref{eqzip})において$a=1,C=V_N$とおくと文書中に$m$回出現する単語の種類$V(m,N)$が\begin{equation}V(m,N)=\frac{V_N}{m(m+1)}\label{eqvmn}\end{equation}と表現されることが導かれる.Orlovらは1983年にZipfの法則を拡張して,総単語数が$N$である文書の単語の種類$V_N$の期待値$E[V_N]$が一つのパラメータ$Z$を用いて\begin{equation}E[V_N]=\frac{Z}{{\rmlog}(pZ)}\frac{N}{N-Z}{\rmlog}\left(\frac{N}{Z}\right)\label{Z}\end{equation}と表すことができることを示した~\cite{Orlov}.ここで$p$は文書中に最も多く出現する単語の相対頻度であり,文書ごとにほぼ一定の定数と見なされる.$Z$は,文書が与えられた際に式(\ref{eqvmn})の関係が最もよく当てはまる単語数である.また式(\ref{Z})において$N$を固定して考えてみると,$Z$の値が大きくなるにつれて文書の単語の種類の期待値である$E[V_N]$の値が大きくなるので,指標$Z$は文書の語彙の豊富さを表す指標だと解釈することができる.最後に$Z$の計算方法について述べる.式(\ref{Z})において単語数が$N$である時の単語の種類の期待値$E[V_N]$を実際の文書の$V_N$で置き換えると\[V_N=\frac{Z}{{\rmlog}(pZ)}\frac{N}{N-Z}{\rmlog}\left(\frac{N}{Z}\right)\]を得る.この式は$Z$について陽に解くことができないので解析的な解を得ることはできない.したがって$Z$を求める際には\[f(Z)=\frac{Z}{{\rmlog}(pZ)}\frac{N}{N-Z}{\rmlog}\left(\frac{N}{Z}\right)-V_N\]とおいて$f(Z)=0$をニュートン法の反復解法を用いて数値的に解く.\subsubsection*{複雑系ネットワークに基づいた指標$r$}指標$r$は,$Z$が複雑系の観点からの指標であることを受け,本研究で新たに試みた関連指標であり,文書の単語のネットワーク構造に着目したものである.まず文書から構成される無向グラフ$\Omega=(W,E)$について説明する.文書中の単語の種類を$V$とすると,$W$は$W=\{w_i\}$$(i=1,\ldots,V)$で定義される各単語を頂点とする頂点集合である.また,$E$は$E=\{(w_i,w_j)\}$で定義される単語間のつながりを表す枝集合であり,2つの単語$w_i$と$w_j$が連続して現れる場合に枝が存在する.つまりここで考えているネットワークは文書中の各単語を頂点として連続して現れる単語間に枝を張ったネットワークである.本稿では文書の単語から構成されるネットワークとして上記のようなものを考える.これ以外にも単語ネットワークの構築方法には構文解析結果を用いるものや,文書の単語間の共起関係に基づいたネットワークなど複数考えることができる.しかし,単語から構成されるどのようなネットワークを考えたとしても,本稿の目的である文書の複雑さといった文書の大域的な特性を考えた場合には,いずれのネットワークにおいても類似した性質が現れると考えられる.実際にいくつかを実験的に試してみたが,文書量に対して一定となるかどうかの観点では,大勢に影響はなかった.ゆえに本稿では,文書の単語から構成されるネットワークとして上記を扱う.さて,ここで得られたネットワークの各頂点の次数分布に着目する.グラフにおいて頂点の次数が$k$である確率を$P(k)$とおく.図\ref{fig:deg}は英語とJavaの場合の次数分布の両対数をとった図である.図の横軸は次数$k$の対数であり,縦軸は$P(k)$の対数である.いずれもある次数まではほぼ直線になっている.このことから単語のネットワークの次数分布はある次数まではベキ分布に従っていると考えられる.このような性質はスケールフリー性~\cite{Barabasi}と呼ばれ,現実のさまざまな複雑系ネットワークで現れる性質である.\begin{figure}[b]\begin{center}\includegraphics{18-2ia3f2.eps}\end{center}\caption{英語とJavaの場合の次数分布}\label{fig:deg}\end{figure}ベキ分布は\begin{equation}P(k)=ck^{-\gamma}\label{beki}\end{equation}という形で表される.ここで$c$は正規化定数であり,$\sum_{k=1}^{\infty}P(k)=1$の条件から定まる.ここで式(\ref{beki})の両辺において対数をとれば\begin{equation}{\rmlog}P(k)=-\gamma{\rmlog}k+{\rmlog}c\label{log}\end{equation}となりベキ分布は両対数グラフにおいて直線になることがわかる.今,式(\ref{log})の両対数グラフ上での傾き$-\gamma$に着目し,指標$r$を\begin{equation}r=-\gamma\label{eqr}\end{equation}で定義する.この指標が一定になるかということに関して特に理論的な背景はないが,$r$は前節までで紹介した$Z$と同様に言語のべき乗則に関する指標で,言語の大域的特性を示すものである以上,文書ごとに文長に依らず一定となることが期待される.最後に$r$の計算方法について述べる.本稿で$r$を求める際には,まず実際に文書の単語から構成されるネットワークをつくり,ネットワークの各頂点の次数を調べ,図\ref{fig:deg}のような次数分布を得る.次に,この次数分布の傾きである$r$を得る際には,次数が2から$\sum_{k=1}^{n}P(k)\geqA$を満たす最小の次数$n$までの範囲で,最小二乗法を用いて傾きを推定した\footnote{実験ではAは0.95とした.}.これは次数が1の場合と次数がある大きさを超えた範囲では,いずれの文書から構成されるネットワークにおいても,図\ref{fig:deg}のように次数分布がべき分布から大きく外れているためである.\subsection{文字列に基づいた指標}\subsubsection*{Golcherの指標$\mathit{VM}$}$\mathit{VM}$は文字列の繰り返しの量を表す指標として近年Golcherによって提案された指標であり,接尾辞木の構造を利用したものである~\cite{Golcher}.接尾辞木とは,文字列が与えられた時の接尾部を木構造で表したデータ構造であり,接尾部に対するパトリシア木である~\cite{Gusfield}.以下与えられた文字列を$S$,その文字列の長さを$T$,$S$の$i$番目の文字を$S[i]$,$S$の$i$番目から$j$番目までの部分文字列を$S[i,j]$$(i,j\in\{1,\ldots,T\},i\leqj)$をとする.文字列$S$の接尾辞木${\calT}$は以下のように定義される~\cite{Ukkonen,Gusfield}.\begin{quote}根から葉へと向かう有向木${\calT}$が次の条件を満たす時,${\calT}$は$S$の接尾辞木であるという.\begin{itemize}\item1から$T$までの整数がラベル付けされたちょうど$T$個の葉が存在する.\item内部節点は少なくとも2つの子をもち,各枝には$S$に含まれる空ではない文字列が対応する.\item同じ節点からの枝のラベルは必ず異なる文字から始まる.\itemすべての葉$i$に対して根から葉$i$までの経路のラベルは$S[i,T]$となる.\end{itemize}\end{quote}Golcherの用いる接尾木辞は,$S$に含まれない文字を終端記号として文字列の最後につけて接尾辞木を構築する.たとえば,図\ref{fig:cocoa}は文字列`cocoa'の接尾辞木である.これを用いて,$\mathit{VM}$の定義,説明を行う.今,与えられた文字列$S$の文字数を$T$,$S$の接尾辞木における内部節点の数を$k$とすると指標$\mathit{VM}$は\begin{equation}VM=\frac{k}{T}\label{eq:v}\end{equation}で定義される.長さ$m$の接尾辞木は$m$個の葉を持つことから,内部節点の数は最大でも$m-2$個である.よって$0\leqk<T-2$であるから$\mathit{VM}$の値の範囲は$0\leqVM<1$となる.ここでUkkonenのアルゴリズムによると,接尾辞木の内部接点はこれまでに現れていない共通部分が新たに現れる場合に増える.したがって$\mathit{VM}$はある種の文字列の繰り返しの量を表していると考えることができる.\begin{figure}[t]\begin{center}\includegraphics{18-2ia3f3.eps}\end{center}\caption{`cocoa'の接尾辞木}\label{fig:cocoa}\end{figure}最後に$\mathit{VM}$の計算方法について述べる.式(\ref{eq:v})で定義される$\mathit{VM}$の値を求めるためには接尾辞木の内部節点の数を求めればよい.最も素朴な方法としては,直接接尾辞木を構成することによって求める方法が考えられる.しかし,一般に接尾辞木の構成に必要な空間領域は,入力の文書の数十倍となり,大規模な文書を扱う場合には直接接尾辞木を構成する方法は現実的ではない.本稿では,より効率的なデータ構造である接尾辞配列と高さ配列を用いて,接尾辞木の擬似巡回を行うことによって内部節点の数を求めた.アルゴリズムは~\cite{Kasai01}に詳しい.\subsubsection*{文書のエントロピー$H$}ここで紹介するエントロピー$H$は情報理論の分野においてShannonによって1948年に導入された~\cite{Shannon}.文書を構成する有限個のアルファベットの集合を$\chi$とし,$X$を$\chi$上の確率変数とする.この時,各アルファベット$x\in\chi$の文書における出現確率を$P_X(x)={\rmPr}(X=x)$とおくとエントロピー$H$は,\begin{equation}H=-\sum_{x\in\chi}P_X(x){\rmlog}P_X(x)\label{entropy}\end{equation}で定義される.文書のエントロピーを求めるためには式(\ref{entropy})より各アルファベット$x$に対し,その出現確率$P_X(x)$を知る必要があるが,文書から得られる出現確率はあくまで真の出現確率の近似であり,文書から直接求めることはできない.言語処理では文章のエントロピーを求める方法についてはさまざまな試みがある~\cite{cover,brown}.本稿では,エントロピーの値の推定方法として,収束性が証明されている一つの方法であることから,Farachらによる手法を用いた~\cite{Farach}.今与えられた文書を一つの文字列と見なしてこれを$S$とし,その長さを$T$,$S$の$i$番目から$j$番目までの部分文字列を$S[i,j]$$(i,j\in\{1,\ldots,T\},i\leqj)$とする.次に$S$の各位置$i$$(1\leqi\leqT)$に対してそれより以前の最大マッチング$L_i$を以下のように定義する.\begin{equation}L_i={\rmmax}\{k:S[j,j+k]=S[i,i+k]\}\quad(j\in\{1,...,i-1\},1\leqj\leqj+k\leqi-1)\label{eqL}\end{equation}つまり$L_i$は$S$の$i$番目から始まる文字列と,1番目から$i-1$番目までの文字列との最大共通部分文字列長である.そしてこれら$L_i$の平均値$\bar{L}$を,\[\bar{L}=\frac{1}{T}\sum_{i=1}^{i=T}L_i\]とする.この時Farachらのエントロピーの推定値$H$は,\begin{equation}H=\frac{{\rmlog}_2T}{\bar{L}}\end{equation}で定義される.今,真のエントロピーの値を$H_t$とすると,この手法によって得られる推定値$H$は,$T\to\infty$の時に$|H_t-H|=O(1)$となることが数学的に示されている.
\section{実験}
本研究では個別文書と,数十MB〜200~MBの自然言語やプログラミング言語の文書を用いて\ref{sihyou}章で説明した$K,Z,r,VM,H$の各指標の文長に対する値の変化を調べる実験を行った.以下\ref{env}節で実験データや実行環境を説明した後に,\ref{result_small}節で小規模文書での実験結果,\ref{result_normal}節で大規模文書に対する結果を図とともに述べる.\subsection{実験データおよび実験環境}\label{env}\subsubsection{実験データ}今回の実験で用いた文書は表\ref{tb:manylarge}の通りである.個別文書に関しては,\cite{BaayenTweedie}とは異なり,英語だけではなく,日本語,フランス語,スペイン語の文章も対象とした.用いたデータは表\ref{tb:manylarge}の第一ブロックに示した.\cite{BaayenTweedie}らの研究を概観すると,定数になるかどうかを吟味するには,小規模な個別文書では長さが不十分であることもよくある.そこで,日本語,英語,中国語の新聞コーパスについても定数となるかどうかを調べる.また,得られる定数が言語の特徴量を表すかどうかを吟味するため,比較対象としてプログラミング言語のデータも用いる.このためには,Java,RubyとLispのソースを用いた.ここで日本語と中国語については$\mathit{VM}$と$H$の値を計算する際には日本語(ローマ字),中国語(pinyin)の文書を用いた場合,ならびに,元のテキストを用いた場合の両方を報告する.その他の言語に関してはいずれの指標の場合も表\ref{tb:manylarge}にある各言語の文書を用いて実験を行った.また,プログラミングにおける単語は以下のように定義した.まず,JavaとRubyについてはソースを記号で分割し,分割された各要素を単語とした.例えば`if(i$<$5)break;'であれば`if',`(',`i',`$<$',`5',`)',`break`,`;'の8つの要素が単語である.Lispの場合はこれらの要素から`('と`)'の2つを除いたものを単語とした.\begin{table}[t]\caption{実験で用いた言語データ}\label{tb:manylarge}\input{03table01.txt}\end{table}\subsubsection{実験で用いたプログラム}今回の実験においてはいくつかの外部プログラムを利用した.ここでそれらのプログラムについて記載する.まず単語に基づいた指標$K,Z,r$の値を計算するために文書を単語に分割する必要がある.日本語の場合は形態素解析ソフトMecab\footnote{http://mecab.sourceforge.net/}を,中国語については,ICTCLAS\footnote{http://ictclas.org/}を用いて単語に分割した.文字列に基づいた指標$H,VM$については,日本語,中国語に関しては,ローマ字,pinyin変換したものについても計算した.中国語に関してはあらかじめpinyin表記で書かれた別の文書を用いたが,日本語の場合はKAKASI\footnote{http://kakasi.namazu.org/index.html.ja}を用いてローマ字に変換した.各指標の計算方法は,\ref{sihyou}節で示したとおりである.\subsection{個別文書に対する結果}\label{result_small}\begin{figure}[b]\vspace{-1\baselineskip}\noindent\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f4.eps}\end{center}\caption{個別文書に対する$K$}\label{fig:small_k}\end{minipage}\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f5.eps}\end{center}\caption{個別文書に対する$\mathit{VM}$}\label{fig:small_v}\end{minipage}\end{figure}\begin{figure}[b]\noindent\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f6.eps}\end{center}\caption{個別文書に対する$Z$}\label{fig:small_z}\end{minipage}\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f7.eps}\end{center}\caption{個別文書に対する$r$}\label{fig:small_r}\end{minipage}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{18-2ia3f8.eps}\end{center}\caption{個別文書に対する$H$}\label{fig:small_h}\end{figure}個別文書に関する結果を図\ref{fig:small_k}--\ref{fig:small_h}について示す.英語の文書のみならず,他の印欧語族や日本語といった文書については,$K$,$\mathit{VM}$については一定となる一方で,\pagebreak$Z$,$r$,$H$については大域的には単調変化する結果となった.\cite{BaayenTweedie}の結果では,$Z$が一定となることが示されていた.しかし,実験では一貫して$Z$が一定とはならないことが示されている.同様に,類似の複雑系の指標としての$r$もやはり一定とはならなかった.\subsection{大規模文書に対する結果}\label{result_normal}文長に対する各指標の値と,参考のためにシャッフル後の結果について述べる.ここで文書をシャッフルするとは,各文書ごとに文書中の単語の順番をランダムに入れ替えることを言い,シャッフル後の結果とは,この操作を20回繰り返した際の指標の平均値である.このように単語順序をランダムに入れ替えるのは,もともとTweedieとBaayen~\cite{BaayenTweedie}が行っていた方法で,数式上の仮定を満たすためであり,文書定数を考える上で前処理としての妥当性は疑問である.とはいえ,文書には確かに局所的な揺れやぶれがあるので,大域的特性を概観し,元文書に対する指標の推移を比較検討するために示すものである.このシャッフルは先行研究との対比のため$K$と$Z$の2つの指標に対してのみ結果を示す.以下の図では,横軸は文書の単語数の対数をとったものであり,縦軸は指標の値である.\begin{figure}[b]\noindent\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f9.eps}\end{center}\caption{各言語の{\itK}}\label{fig:many_k}\end{minipage}\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f10.eps}\end{center}\caption{各言語の{\itK}(シャッフル後の平均値)}\label{fig:many_sh_k}\end{minipage}\end{figure}図\ref{fig:many_k}は各文書に対する$K$であり,図\ref{fig:many_sh_k}はシャッフル後の結果である.まず$K$については自然言語の場合,いずれの言語においても文書の単語数の対数に対して値はほぼ一定となった.プログラミング言語の場合は自然言語と比べて若干の変化が見られたが,単語数が10万を超えると同様に値はほぼ一定となった.文書中の単語の順番をランダムに入れ替えた場合ではいずれの言語の場合でも文書の単語数の対数に対してほぼ完全に一定となった.シャッフル前と後で$K$の値はほとんど変化していないことから,$K$は文書中の単語がランダムに出現するという仮定が背後にある指標にも拘わらず,ランダム性が崩れた実際の文書においても値がほとんど変わらずほぼ一定となったということが興味深い.また,プログラミング言語の$K$の値は自然言語の値と比べてかなり大きくなり,両言語間の$K$の値に大きな差が出る結果となった.$\mathit{VM}$については日中をアルファベットに変換した場合の結果をまず吟味する.図\ref{fig:many_v}は各文書に対する$\mathit{VM}$であり,図\ref{fig:many_v2}は図\ref{fig:many_v}を拡大したものである.日本語の場合に値が英語,中国語と比較してわずかに大きくなっているが,いずれも文書量の対数に対して値はほぼ一定でおよそ0.5の値をとった.プログラミング言語の場合は自然言語の場合よりも変化が見られるが,単調に変化する傾向はみられない.プログラミング言語に関する$\mathit{VM}$の値は自然言語よりも大きく,およそ0.65の値をとり,両言語間で値に大きな差が表れた.これは,自然言語の冗長性が,プログラミング言語のそれよりも一律に小さいことを示しているだろう.\begin{figure}[b]\noindent\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f11.eps}\end{center}\caption{各言語の{\itVM}}\label{fig:many_v}\end{minipage}\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f12.eps}\end{center}\caption{各言語の{\itVM}(図\ref{fig:many_v}の拡大図)}\label{fig:many_v2}\end{minipage}\end{figure}\begin{figure}[b]\noindent\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f13.eps}\end{center}\caption{日本語と中国語の原文の{\itVM}}\label{fig:raw_v}\end{minipage}\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f14.eps}\end{center}\caption{日本語と中国語の原文の$\mathit{VM}$(図\ref{fig:raw_v}の拡大図)}\label{fig:raw_v2}\end{minipage}\end{figure}次にアルファベットに変換しない場合の日本語,中国語の文字列をそのまま用いた場合の$\mathit{VM}$の結果を図\ref{fig:raw_v}と図\ref{fig:raw_v2}に示す.これらの図には比較のため,アルファベットに変換した場合の日本語,中国語の結果も含まれている.まず$\mathit{VM}$の値は,アルファベットに変換しない場合の日本語,中国語の文字列をそのまま用いた場合でも,アルファベットに変換した場合と同様に文書量の対数に対して値はほぼ一定となることがわかる.しかし$\mathit{VM}$の値の大きさに注目すると,その値は日本語,中国語のいずれの場合もおよそ0.35であり,アルファベットに変換した場合の0.5という値より小さくなっている.これは日本語,中国語の原文におけるアルファベットサイズが変換後のそれよりも遥かに大きいため,文書中で繰り返し出現する文字列の種類が減少し,接尾辞木の内部節点の数が少なくなったからだと考えられる.\begin{figure}[b]\noindent\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f15.eps}\end{center}\caption{各言語の{\itZ}}\label{fig:many_z}\end{minipage}\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f16.eps}\end{center}\caption{各言語の{\itZ}(シャッフル後の平均値)}\label{fig:many_sh_z}\end{minipage}\end{figure}\begin{figure}[b]\noindent\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f17.eps}\end{center}\caption{各言語の{\itr}}\label{fig:many_r}\end{minipage}\begin{minipage}{0.5\textwidth}\begin{center}\includegraphics{18-2ia3f18.eps}\end{center}\caption{各言語の{\itH}}\label{fig:many_h}\end{minipage}\end{figure}その他の3つの指標$Z,r,H$について述べる.図\ref{fig:many_z}--\ref{fig:many_h}はそれぞれ各文書に対する$Z,r,H$の結果である.まず複雑系に関連した指標である$Zとr$は$Z$におけるLispを除いて文長に対して値が単調に増加する結果となった.Lispは$Z$において値が微増するにとどまり,ほぼ一定となった.$Z$や$r$は,言語に内在する大域的な構造を一挙に捉えるものであるが,それは一般的には一定値にはならないということである.また,文字列のエントロピー$H$は文長に対して値が単調に減少する結果となった.なお,ここで示す$H$は日中についてはアルファベット表記に変換した結果である.さらに,$Z$についてはシャッフル後も同様にLispを除いて値が一定とはならなかった.他の言語においては全く一定にならなかった$Z$がLispに限り,値が微増するにとどまったという結果は大変興味深い.以上の実験に加えて$\mathit{VM}$と$H$の2つの指標については,文書の文字列を逆順にしたものに対しても実験を行ったので,その結果を簡単に述べる.これは$\mathit{VM}$と$H$が本研究で検討している指標の中で文字列の順序に依存する指標であるからであり,文書の文字列を逆順にすることによって,文字列の前から後ろへの依存性だけではなく,後ろから前への依存性を調査した.結果としては,文字列を逆順にしても,$\mathit{VM}$と$H$の値は文長が増加するにつれて文字列の順序を変えない場合の値とほぼ同じになった.
\section{考察}
まず,文長に依存せず指標が一定となるかどうかの観点から考察する.前章での実験の結果から自然言語,プログラミング言語において文長に依らず値がほぼ一定となる指標は本研究の範囲では,$K$と$\mathit{VM}$の2つの指標であることが示された.$\mathit{VM}$については非印欧語族である日本語,中国語においてもアルファベット表記ならば値がおよそ0.5となった.これはアルファベット—あるいは荒い近似としての音—という限られた言語要素を用いて行う言語表現中に内在する冗長性の度合を表しているものと考えられる.また日本語,中国語の本来の表記を用いて同様に$\mathit{VM}$の値を計算すれば,用いる文字の種類がアルファベットの場合より大きいことから文字列の繰り返しは少なくなり,値は0.5より小さくなることが示された.すなわち,用いることができる言語上の要素数が大きくなると,冗長性は小さくて済むことを表している.いずれにせよ,\ref{TandB}節で示したように,要素がランダムに生起する場合には振動する指標が,言語では一定となることは実に興味深い.次に値が一定とならなかった指標について論じる.$Z$はTweedieらの先行研究において小規模な英語文書において値が文長によらず一定となるという結果であったが,個別文書においても,大規模文書においてはLispを除いたいずれの言語においても一定とはならずに文長に対して単調に変化した.ここでLispについては微増との結果となった.このように,過去に提案されてきた指標は,言語によっては一定となる場合もある.本稿では,「さまざまな文書において普遍に一定量となる指標」に焦点を当てているので,$Z$はそれには該当しない.しかし,どの指標がどのような特性を持つ言語に対して一定となるのかについては,今後の課題といえよう.$Z$と同様に複雑系に関連した$r$については$Z$と同じように値が文長に対して変化する結果となった.エントロピー$H$については,厳密な推定が難しい言語の確率モデルに依存しない計算方法を用いても,やはり一定とはならなかった.ここで$H$はnグラムから計算することができ,また$\mathit{VM}$の定義に用いられる接尾辞木は,潜在的なnグラム確率から作られると考えることができる.このことから,$H$と$\mathit{VM}$は値の収束性において同じ性質を持つと予想されたが,本研究の範囲では異なる性質を示した.最後に指標の判別力という観点から考察する.判別は,個別文書(作品別),著者(著者判別),より広くある一定の内容で集められた文書群(新聞の文書分類など),言語(英語が日本語かなど),語族(印欧語族とシナ・チベット語族など),自然言語vs.プログラミング言語など異なる解像度で行うことが考えられる.本研究の結果では,$K$と$\mathit{VM}$は,自然言語とプログラミング言語間において値に有意な差が見られた.この傾向は$K$と$\mathit{VM}$ほどではないが他の指標にも見られた.このことは2つの言語間に本質的な複雑さの差があることを示していると考えられ,特に$K$と$\mathit{VM}$はその差をはっきりと捉えていると考えられる.より高い解像度での判別問題は,語族や言語の判別については,少なくとも$\mathit{VM}$については,表記システムで用いるアルファベットの大きさに依存する.$K$と$Z$で,個別文書の判別が可能であると~\cite{BaayenTweedie}では述べられてはいるが,その問題については,今日ではより高性能な機械学習手法の方が手法として妥当であると考えられる.すなわち,文書定数が自然言語の冗長性を反映していると見られることが,文書定数の計算言語学上の一つの意義であると考えられる.
\section{まとめ}
本研究では既存の指標$K$,$Z$,$\mathit{VM}$と新たに試みた指標$r$,$H$の5つの指標に対して自然言語とプログラミング言語の文書を複数用いて文長に依らずにその値が一定になるかを吟味した.Yuleの$K$は文書中の語彙の豊かさを表す古典的な指標であるのに対し,Olrovの$Z$と$r$は複雑系に基づく指標である.$\mathit{VM}$は接尾辞木に基づく文書の繰り返しを表す指標であり,$H$は文書のエントロピーである.文書定数の文脈では$r$と$H$は今回新たに試みた指標である.実験では個別文書,ならびに大規模な自然言語とプログラミング言語の文書を用いて,各指標の文長に対する値の変化の様子を網羅的に調べた.その結果$K$と$\mathit{VM}$の2つの指標のみ文長によらず値がほぼ一定となった.さらにこの2つの指標は自然言語とプログラミング言語間において値に有意な差が見られた.またその他の$Z$,$r$,$H$については文長に対して値が単調に変化する結果となった.以上の結果から,Tweedieらの小規模な英語文書において$K$と$Z$は一定となるという先行研究結果については,$K$に関してはいえるものの,$Z$に関しては大規模文書において一定とならないことがわかった.またGolcherの先行研究結果との対比においては,本研究の結果では,アルファベット表記を用いると,日本語,中国語といった非印欧語族の言語においても$\mathit{VM}$は印欧語族同様,ほぼ一定の0.5の値となることがわかった.\acknowledgment検定に関して有益なコメントを頂いた東京大学大学院情報理工学系研究科の駒木文保教授に感謝の意を表する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Baayen}{Baayen}{2001}]{Baayen}Baayen,R.~H.\BBOP2001\BBCP.\newblock{\BemWordFrequencyDistributions}.\newblockKluwerAcademicPublishers.\bibitem[\protect\BCAY{Barab{\'a}si\BBA\Albert}{Barab{\'a}si\BBA\Albert}{1999}]{Barabasi}Barab{\'a}si,A.-L.\BBACOMMA\\BBA\Albert,R.\BBOP1999\BBCP.\newblock\BBOQEmergenceofscalinginrandomnetworks.\BBCQ\\newblock{\BemScience},{\Bbf286},\mbox{\BPGS\509--512}.\bibitem[\protect\BCAY{Brown,Pietra,Pietra,Lai,\BBA\Mercer}{Brownet~al.}{1983}]{brown}Brown,P.~F.,Pietra,S.,Pietra,V.J.~D.,Lai,J.~C.,\BBA\Mercer,R.~L.\BBOP1983\BBCP.\newblock\BBOQAnestimateofanupperboundfortheentropyofEnglish.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf18}(1),\mbox{\BPGS\31--40}.\bibitem[\protect\BCAY{Cover\BBA\Thomas}{Cover\BBA\Thomas}{2006}]{cover}Cover,T.~M.\BBACOMMA\\BBA\Thomas,J.~A.\BBOP2006\BBCP.\newblock{\BemElementsofInformationTheory}.\newblockWiley-Interscience.\bibitem[\protect\BCAY{Farach,Noordewier,Savari,Shepp,Wyner,\BBA\Ziv}{Farachet~al.}{1995}]{Farach}Farach,M.,Noordewier,M.,Savari,S.,Shepp,L.,Wyner,A.,\BBA\Ziv,J.\BBOP1995\BBCP.\newblock\BBOQOntheEntropyofDNA:AlgorithmsandMeasurementsBasedonMemoryandRapidConvergence.\BBCQ\\newblockIn{\BemProceedingsofthesixthannualACM-SIAMsymposiumonDiscretealgorithms},\mbox{\BPGS\48--57}.\bibitem[\protect\BCAY{Genzel\BBA\Charniak}{Genzel\BBA\Charniak}{2002}]{genzel}Genzel,D.\BBACOMMA\\BBA\Charniak,E.\BBOP2002\BBCP.\newblock\BBOQEntropyRateConstancyinText.\BBCQ\\newblockIn{\BemAnnualMeetingoftheAssociationfortheACL},\mbox{\BPGS\199--206}.\bibitem[\protect\BCAY{Golcher}{Golcher}{2007}]{Golcher}Golcher,F.\BBOP2007\BBCP.\newblock\BBOQAStableStatisticalConstantSpecificforHumanLanguageTexts.\BBCQ\\newblockIn{\BemRecentAdvancesinNaturalLanguageProcessing}.\bibitem[\protect\BCAY{Gusfield}{Gusfield}{1997}]{Gusfield}Gusfield,D.\BBOP1997\BBCP.\newblock{\BemAlgorithmsonStrings,andSequences:ComputerScienceandComputationalBiology}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Herdan}{Herdan}{1964}]{herdan}Herdan,G.\BBOP1964\BBCP.\newblock{\BemQuantitativeLinguistics}.\newblockButterworths.\bibitem[\protect\BCAY{影浦}{影浦}{2000}]{kyo}影浦峡\BBOP2000\BBCP.\newblock\Jem{計量情報学—図書館/言語研究への応用}.\newblock丸善.\bibitem[\protect\BCAY{Kasai,Lee,Arimura,Arikawa,\BBA\Park}{Kasaiet~al.}{2001}]{Kasai01}Kasai,T.,Lee,G.,Arimura,H.,Arikawa,S.,\BBA\Park,K.\BBOP2001\BBCP.\newblock\BBOQLinear-TimeLongest-Common-prefixComputationinSuffixArraysandItsApplications.\BBCQ\\newblockIn{\BemProceedingsofthe12thAnnualSymposiumonCombinatorialPatternMatching},\mbox{\BPGS\181--192}.Springer-Verlag.\bibitem[\protect\BCAY{Orlov\BBA\Chitashvili}{Orlov\BBA\Chitashvili}{1983}]{Orlov}Orlov,J.~K.\BBACOMMA\\BBA\Chitashvili,R.~Y.\BBOP1983\BBCP.\newblock\BBOQGeneralizedZ-distributiongeneratingthewell-known`rank-distributions'.\BBCQ\\newblock{\BemBulletinoftheAcademyofSciencesofGeorgia},{\Bbf110},\mbox{\BPGS\269--272}.\bibitem[\protect\BCAY{Shannon}{Shannon}{1948}]{Shannon}Shannon,C.\BBOP1948\BBCP.\newblock\BBOQAmathematicaltheoryofcommunication.\BBCQ\\newblock{\BemBellSystemTechnicalJournal},{\Bbf27},\mbox{\BPGS\379--423,623--656}.\bibitem[\protect\BCAY{Tweedie\BBA\Baayen}{Tweedie\BBA\Baayen}{1998}]{BaayenTweedie}Tweedie,F.~J.\BBACOMMA\\BBA\Baayen,R.~H.\BBOP1998\BBCP.\newblock\BBOQHowvariablemayaconstantbe?Measuresoflexicalrichnessinperspective.\BBCQ\\newblock{\BemComputersandtheHumanities},{\Bbf32},\mbox{\BPGS\323--352}.\bibitem[\protect\BCAY{Ukkonen}{Ukkonen}{1995}]{Ukkonen}Ukkonen,E.\BBOP1995\BBCP.\newblock\BBOQOn-lineconstructionofsuffix-trees.\BBCQ\\newblock{\BemAlgorithmica},{\Bbf14},\mbox{\BPGS\249--260}.\bibitem[\protect\BCAY{Yule}{Yule}{1944}]{Yule}Yule,G.~U.\BBOP1944\BBCP.\newblock{\BemTheStatisticalStudyofLiteraryVocabulary}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Zipf}{Zipf}{1949}]{Zipf}Zipf,G.~K.\BBOP1949\BBCP.\newblock{\BemHumanBehaviorsandthePrincipleofLeastEffort:AnIntroductiontoHumanEcology}.\newblockAddison-WesleyPress.\end{thebibliography}\begin{biography}\bioauthor{木村大翼}{2010年東京大学工学部計数工学科卒業.現在,同大学大学院情報理工学系研究科に在学中.構造データを対象とした機械学習に興味をもつ.}\bioauthor{田中久美子}{東京大学大学院情報理工学系研究科准教授.1997年東京大学大学院工学系研究科情報工学専攻博士課程修了,博士(工学).工業技術院電子技術総合研究所,東京大学大学院情報学環講師などを経て2005年より現職.自然言語や記号系に普遍に内在する数理構造に興味を持つ.}\end{biography}\biodate\end{document}
| |
V14N03-08 | \section{まえがき}
音声言語処理の研究・開発は,コンピュータの高性能化を背景にし,ここ数年の間に飛躍的な発展を遂げ,特に大量のデータに基づく,確率・統計的なモデル化のアプローチは,音響処理面および言語処理面の双方において大きな成功を収めた.これらの技術的進展により,音声合成・音声認識技術は一気に実用レベルに達し,人間とコンピュータとのインタフェースとして広範囲に応用されるに至った.一方,応用範囲が広範になるにつれ,その精度・品質に対して,より高いレベルのものが要求されるようになっている.例えば,音声合成においては,テキストを単に読み上げるだけのものから,パラ言語情報や感情などを表現する柔軟な合成音声が望まれる.このような合成音声には,音声機能障害者を対象とした対話支援システム\cite{Ii2}や,癒し系ロボットへの応用など様々なものが提案されている.言語情報だけでは伝わらないこのような表現豊かな音声での感情や意図の表現には,韻律的特徴が大きく寄与することは明らかである\cite{Rai},\cite{Fuji},\cite{Nikku}.そのため,従来から,感情音声の韻律的特徴に関する研究が行われており,基本周波数パターン(以下,$F_0$パターンと呼ぶ)の統計的な傾向を音声心理学的な観点からとらえた研究\cite{Naga},\cite{As},\cite{Sige}や,音声言語コーパスに基づく工学的な観点からの研究\cite{Koba},\cite{Sagi}がある.日本語音声における感情表現に関する研究は,感情の種類に着目して,特徴付けや識別を試みている例が多い\cite{ITI},\cite{Ii},\cite{Kita}.一方,表現豊かな音声合成のために,特定の感情について,その程度を数段階に分けた研究も行われるようになってきている.\cite{Hasi},\cite{kw2},\cite{Nsima}.また,韻律的特徴が,文の統語構造と関連を持つことも明らかとなっており\cite{Hir},\cite{Ume},韻律的特徴であるイントネーションやアクセントの生起タイミングにおいては,言語的情報を的確に利用することで,よりよい決定が行われると考えられる.筆者らは,表現豊かな音声合成の実現を目的として,特に感情に着目し,複数の程度の感情情報を含む典型的な発話に対する韻律制御指令の生成について検討を行っている.本論文は,感情の種類として「喜び」「悲しみ」の2つの感情を取り上げ,それぞれの感情を3段階の程度で表現した音声に対し,発話の言語的情報と$F_0$パターン制御指令のパラメータとの関係について検討することによって,感情を表現する音声合成への応用を目指すものである.すなわち,本論文の主な目的は,感情の種類の判別・差異に着目することではなく,同一感情の程度に対する影響について明らかにするものである.そのための足がかりとして,R.Plutchikが提案した心理学上の感情の立体モデル\cite{PLU}の基本8感情のうち「喜び」「悲しみ」のみを対象として取り上げるにとどめた.「喜び」「悲しみ」の2感情をその程度まで考慮し分析した先行研究\cite{MD}では,4〜6モーラの単語を発声した際の感情音声を対象として,韻律的特徴が分析されている.この先行研究では,韻律的特徴のうち,時間構造に関するパラメータと$F_0$パターンに関するパラメータを取り扱っている.しかし,孤立に発声された特定の単語発話に対する詳細な検討であり,任意の文章を対象とした音声合成に直接応用することは困難であると考えられる.一方,模擬対話を行って数段階の程度で感情音声を収集した先行研究\cite{Kawana}では,非常に限られた種類の文を対象として文発話を収録している.収録音声の$F_0$パターンとモーラ持続時間短縮率について分析を行い,感情の程度と韻律的特徴との間に一定の傾向を見い出しているが,それは話者や感情の種類によって大きく異なるものと結論づけるにとどまり,一般化には及んでいない.本論文では,任意の文章への感情音声合成への応用を目指して,感情ごとに異なる10文を用意して分析対象とした.ここで,言語的要因の1つである係り受け関係を網羅するため,対象を4文節からなる文に限定した.また,韻律的特徴には,$F_0$パターン・発話速度・発話強度・声質など様々あるが,日本語音声の場合,高さに関する特徴である$F_0$パターンが韻律情報を支配する直接的要因であると考えられているため,本論文では特に$F_0$パターンに着目することとする.$F_0$パターンについては,その生成過程モデル\cite{Fuji3}に基づいた分析を行い,韻律的特徴の定量化を行う.これは$F_0$パターン生成過程モデルが,音声を生成する人間の生理的・物理的な特性を捉えたものであり,また,言語的内容とも整合した制御指令が得られることが確認されているためである.このモデルの$F_0$パターン制御指令の変化傾向をとらえることで,テキスト音声合成時の$F_0$パターン生成に直接に結びつけることが可能であると期待できる.以下,\ref{mt}.では,発話内容の言語的情報と音声資料の収録方法について述べる.\ref{ln}.において,$F_0$パターンの分析手法について述べ,\ref{ex}.で言語的情報に基づき$F_0$パターン制御指令のパラメータとの関係について検討した結果について述べる.\ref{sa}.で本論文をまとめる.
\section{音声資料}
label{mt}\subsection{発話内容の言語的情報}\label{yoso}発話テキストとして,「喜び」「悲しみ」のそれぞれの感情に対して,4文節からなるテキスト10文を用意した.特定の感情を前提としない中立な文を発話テキストとして用いて複数感情を同一文で表現させる手法もあるが,ここでは感情ごとに適切な文をそれぞれ用意した.これは,話者に無理のない状況設定を理解させ,より自然な音声資料を収集するためである.表~\ref{hatuwa}に,用意した発話テキストの一部を示す.韻律制御指令の生起タイミングは,感情の種類,その程度のほか,発話内容の言語的情報である係り受け関係,モーラ数,アクセント型等の影響を受けると考えられる.表~\ref{factors}に,発話テキストから得られる言語的情報に基づく要因をまとめた.これらの要因はテキスト音声合成の際に,一般的に考慮されているものである.ここで,文の係り受け構造に関しては,文節境界の枝分かれ種別に着目した.図~\ref{bdc}に文の係り受け構造と境界の枝分かれ種別を示す.以上,ここでは文節数と係り受け構造に配慮したほかは,特にテキストの制約を与えないこととした.\ref{ex}.以降の結果の検討において,これらの要因との影響について調べていく.\begin{table}[b]\begin{center}\caption{発話テキストの例}\label{hatuwa}\begin{tabular}{p{0.06\textwidth}p{0.42\textwidth}p{0.42\textwidth}}\hline&「喜び」&「悲しみ」\\\hline1.&海が透き通って珊瑚まで見えるよ.&いつまで待っても帰ってこない.\\2.&こんなステーキを食べられて幸せだ.&彼に伝える勇気がありません.\\3.&5年掛かってついに司法試験に合格したよ.&これで二度と息子に会えない.\\4.&あの大きいぬいぐるみが欲しい.&センターの数学のテストができなかった.\\5.&今日は僕のウチで遊ぼうよ.&二度ときれいな花が見られない.\\\hline\end{tabular}\end{center}\end{table}\begin{table}[b]\begin{center}\caption{言語的情報に基づく要因}\label{factors}\begin{tabular}{ll}\hline要因&とり得る値\\\hline韻律語の文中での位置&1,2,3,4.\\境界の枝分かれ種別&右枝分かれ,左枝分かれ.\\韻律語のモーラ数&2,3,…,8.\\アクセント型&平板型,頭高型,起伏型.\\修飾関係&連体修飾,連用修飾.\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[t]\begin{center}\includegraphics[width=1.0\textwidth]{bdc.eps}\end{center}\caption{係り受け構造と境界の枝分かれ種別(L:左枝分かれ境界/R:右枝分かれ境界)}\label{bdc}\end{figure}\begin{table}[t]\caption{発話の状況設定の例}\label{jyoukyou}\begin{tabular}{p{0.09\textwidth}p{0.42\textwidth}p{0.42\textwidth}}\hline&「喜び」&「悲しみ」\\\hlineテキスト&「海が透き通って珊瑚まで見えるよ.」&「いつまで待っても帰ってこない.」\\状況設定&待ちに待った夏休み.海がとても綺麗と評判の島に行きました.本当に透き通るように綺麗な海で珊瑚が砂浜からでも見られたことに感激して一言.&一緒に生活するのが当たり前だと思っていた夫(or妻)を不慮の事故で亡くしました.いつもの元気のよい“ただいま”の声が聞こえてきません.悲しんで一言.\\\hline\end{tabular}\end{table}\subsection{録音条件}中立な(感情を込めない)発話と,弱・中・強の3段階の程度で「喜び」と「悲しみ」の2種類の感情を表現した発話を収録した.発話の際,指定した感情を表現しやすくするために発話の状況を設定した.表~\ref{jyoukyou}に,状況設定の例を示す.収録ではディスプレイに表示される発話テキストおよび状況設定に従い,演劇経験のある成人話者8名(男6名,女2名)が簡易防音室内において「中立」→「中」→「弱」→「強」の順に発話した音声をそれぞれ3回録音した.\subsection{感情の程度の主観評価}\label{subeva}話者の意図によって数段階の程度で収録した音声に対し,聴取実験を行い,聞き手側の観点から感情の程度の主観評価を行った.この聴取実験は,話者の意図した感情表現の程度と,聞き手が受容した感情の程度との一致度を把握することが目的である.被験者は大学4年生の男女6名である.まず,各感情の発話テキスト10文の中からランダムに5文を選択し,480発話(5文×4段階×3セット×8人)を実験用の音声資料とした.実験では,話者ごとにデータセットを用意し,``これから聞こえてくる音声の感情の程度を判定して下さい''という指示に続いて,中立を含むそれぞれの感情に関するすべての発話をランダムな順序で呈示し,聴取した音声に指定した感情がどの程度表れていると感じたかを「まったく感情が表れていない,他の感情に聞こえる」という場合の``0"と,「僅かに感情が表れている」という場合の``1"から「とても強く感情が表れている」という場合の``5"までの6段階で評価し,その数字を回答させた.\begin{figure}[b]\begin{center}\includegraphics[width=0.8\textwidth]{14-3ia8f2.eps}\end{center}\caption{感情の程度の主観評価値と有意差検定の結果(上段:話者MTI,下段:話者MTS)}\label{mos}\end{figure}\subsubsection{有意差検定}図~\ref{mos}に,話者の意図した感情の程度別の主観評価値の分布結果と,それぞれの程度間で行った片側検定による有意差検定の結果の一部を示す.ここでは,話者の意図した感情の程度が最も的確に聞き手側に伝わったと考えられる話者MTIに対する結果と,逆に,話者の意図した感情の程度が聞き手側にうまく伝わらなかったと考えられる話者MTSに対する結果を示す.図中の点線は聴取実験において得られた評価値の平均値を表している.話者MTIについては,「喜び」に関して感情の程度強の平均値が小さく,また分散も大きくなっているが,それぞれの程度の違いについては有意に区別された.また,「悲しみ」に関しては,それぞれ有意な差があり,話者の意図した程度が聞き手に伝達された.一方,話者MTSについては,「喜び」に関して,すべての程度において評価値の分布が重なった.「悲しみ」に関しても,一部有意な差がないと判断され,明確な有意差を見い出せない組み合わせもあり,必ずしもうまく話者の意図した感情の程度が聞き手に伝わらなかった.
\section{韻律的特徴の分析手法}
label{ln}\begin{figure}[b]\begin{center}\includegraphics[width=0.8\textwidth]{f0model.eps}\end{center}\caption{$F_0$パターン生成過程モデル}\label{model}\end{figure}韻律的特徴の分析には,藤崎らによって提案された$F_0$パターン生成過程モデル(図~\ref{model})\cite{Fuji3}を用いた.このモデルは,対数$F_0$パターンが句頭から句末に向かって上昇とその後の緩やかな下降を示すフレーズ成分と,語のアクセントに対応して局所的な起伏を示すアクセント成分,および発話単位中で,ほぼ一定値をとるベースライン成分(基底周波数)の総和として表現できるとするものであり,各成分がそれぞれの指令に対する一定の応答から生成されるとしている.このモデルの入力パラメータは,音声を生成する人間の生理的・物理的な特性を捉えたもので,言語的内容とも整合した制御パラメータが得られることが確認されている.河井らは,韻律上の単位を$F_0$パターン生成過程モデルにおけるフレーズ指令・アクセント指令に基づいて定義しており\cite{kawa},本論文でも「韻律語」「韻律句」を同じ定義で取り扱う.すなわち,一つのアクセント指令に対応し,かつ,一定のアクセント型を示す音素連鎖を「韻律語」,また,一つのフレーズ指令に対応する韻律語の連鎖を「韻律句」と定義する.\begin{figure}[b]\begin{center}\includegraphics[width=0.85\textwidth]{sample.eps}\end{center}\caption{$F_0$パターン生成過程モデルに基づく分析例}\label{sample}\end{figure}モデルパラメータである基底周波数$F_b$,フレーズ指令の大きさ$A_{pi}$とその生起位置$T_{0i}$,および,アクセント指令の大きさ$A_{aj}$とその生起位置$T_{1j}$,$T_{2j}$について,録音した音声の$F_0$パターンの分析を行った.具体的にはまず,収録した音声資料を10kHz・16bitでデジタル化し,LPC予測残差に対する変形自己相関関数法を用いて10ms間隔で$F_0$の値を抽出した.その$F_0$パターンに対し,視察によりモデルのパラメータを定め,次にそれを初期値として,AbS法に基づき最良近似を与えるパラメータを求めた.図~\ref{sample}に,「喜び」に関する発話「海が透き通って珊瑚まで見えるよ.」と,「悲しみ」に関する発話「いつまで待っても帰ってこない.」について,$F_0$パターン生成過程モデルに基づいて分析した結果を示す.上から,音声波形,$F_0$の実測値(+印)・モデルによる最良近似(実線)・フレーズ成分(破線)・基底周波数$F_b$(点線),フレーズ指令$A_p$,およびアクセント指令$A_a$を示している.
\section{$F_0$パターン制御指令と言語的要因との関係についての検討}
label{ex}感情の程度の違いが,$F_0$パターン制御指令の生起タイミングおよび大きさに,どのように影響するかについて,文の言語的要因との関連で求めた.収録音声の感情の程度を聞き手側の観点から主観評価した結果,話し手の意図での感情の程度が最も的確に聞き手に伝達されていた男性話者1名(MTI)の音声資料に対して,検討を行った結果を以下に示す.\subsection{基底周波数$F_b$}図\ref{Fbkekka}は収集した発話について,各発話の感情の程度に対する基底周波数の分布を示したものである.発話セットによる固有の傾向は認められず,また,発話内容に依存する傾向の差は特にみられなかった.以降の検討では,発話セットに関する傾向の違いはないものとする.「喜び」「悲しみ」とも感情の程度が強くなるに従って,基底周波数は高くなる傾向にある.「喜び」では,感情の程度が弱いときはほぼ一定あるいは微増の変化傾向がみられ,感情の程度が強いとき,増加傾向がみられた.一方,「悲しみ」では,感情の程度が強くなるにつれて,ほぼ一様な増加傾向があった.\begin{figure}[t]\begin{center}\includegraphics[width=0.9\textwidth]{fbokisa.eps}\end{center}\caption{感情の程度に対する基底周波数の分布}\label{Fbkekka}\end{figure}\subsection{フレーズ指令$A_p$}\label{Ap}\subsubsection{文節境界におけるフレーズ指令の生起率}文中でのフレーズ指令の生起に関しては,文節境界の枝分かれ種別と,直前のフレーズ指令以降のモーラ数に大きく影響を受けることを予備的に確認した.図~\ref{kekka-1}に文節境界の枝分かれ種別ごとに,感情の程度に対するフレーズ指令の生起率と直前のフレーズ指令以降のモーラ数との関係を示した.「喜び」では,いずれの枝分かれ境界に対しても感情の程度が強くなるにつれて,より短い韻律句の後でも生起率が増加する傾向があった.一方「悲しみ」では,右枝分かれ境界の場合,感情の程度が強くなるに従って生起率が大きく増加し,左枝分かれ境界の場合,感情の程度の影響を受けず生起率はほぼ一定であった.限られたデータ数から得た結果ではあるが,枝分かれ境界種別,直前のフレーズ指令からのモーラ数をパラメータとして,感情の程度の影響が明確に表われることが確認できた.\begin{figure}[t]\begin{center}\includegraphics[width=1.0\textwidth]{Aptiming.eps}\end{center}\caption{直前のフレーズ指令からのモーラ数に対するフレーズ指令生起率}\label{kekka-1}\end{figure}\begin{figure}[t]\begin{center}\includegraphics[width=1.0\textwidth]{Apokisa.eps}\end{center}\caption{感情の程度に対するフレーズ指令の大きさ}\label{kekka-3}\end{figure}\subsubsection{フレーズ指令の大きさ}フレーズ指令の大きさ関しては,その生起位置が文頭の場合と文中の場合とで,感情の程度に対する大きさの変化に違いがみられた.また,文中で生起したフレーズ指令は,その境界の枝分かれ種別により,異なる変化の傾向がみられた.図~\ref{kekka-3}に,文頭・右枝分かれ境界・左枝分かれ境界ごとに,感情の程度に対するフレーズ指令の大きさを示した.感情を込めない中立の発話の場合,フレーズ指令の大きさは,文頭>右枝分かれ境界>左枝分かれ境界,の関係がみられた.中立発話の場合,文の統語構造である切れ目の深さが深いほど,大きなフレーズ指令が生起するものと考えられる.また「喜び」「悲しみ」ともに,感情の程度が強くなると,文頭のフレーズ指令の大きさは小さくなり,左枝分かれ境界のフレーズ指令は大きくなった.右枝分かれ境界のフレーズ指令の大きさは,感情の種類により異なる傾向がみられ,「喜び」では,感情の程度が強くなるに従って,大きくなり,感情の程度強において文頭でのフレーズ指令の大きさとほぼ一致した.一方「悲しみ」では,感情の程度が強くなるに従って,小さくなり,発話内のすべてのフレーズ指令の大きさが近づいた.\subsection{アクセント指令$A_a$}\label{Aa}\subsubsection{アクセント指令の生起タイミング}\begin{table}[b]\begin{center}\caption{立ち上がり・立ち下がりの基準点}\label{basetime}\begin{tabular}{cll}\hline型&立ち上がりの基準点&立ち下がりの基準点\\\hline平板型&第2モーラの母音開始時点&最終モーラの終了時点\\頭高型&第1モーラの母音開始時点&第2モーラの母音開始時点\\起伏型&第2モーラの母音開始時点&アクセント核を持つ次の母音開始時点\\\hline\end{tabular}\end{center}\end{table}表~\ref{basetime}に示すように,各韻律語ごとのアクセント型の情報に基づきアクセント指令の立ち上がり・立ち下がりの基準点を求めた\cite{kawa}.この基準点に対し,$F_0$パターン生成過程モデルを用いた分析によって得られたアクセント指令の立ち上がり・立ち下がりのタイミングの相対時間が感情の程度によってどのように変化するかについて検討を行った.表\ref{onoffset}に基準点に対するアクセント指令の立ち上がり・立ち下がりのタイミングの相対時間の平均値を示した.その結果,感情の有無やその程度の影響はほとんど見られず,アクセント指令の立ち上がり・立ち下がりのタイミングはアクセント型にのみ依存した.したがって,音声合成時に感情の程度を制御するにあたって,アクセント指令のタイミングについて考慮する必要はないことを確認した.\begin{table}[t]\begin{center}\caption{基準点に対するアクセント指令の生起タイミング}\label{onoffset}\begin{tabular}{lcc}\hline&立ち上がり[s]&立ち下がり[s]\\\hline平板型&$-0.077$&$-0.062$\\頭高型&$-0.075$&$\phantom{-}0.027$\\起伏型&$-0.104$&$-0.034$\\\hline\end{tabular}\end{center}\end{table}\subsubsection{アクセント指令の大きさ}\begin{figure}[b]\begin{center}\includegraphics[width=0.9\textwidth]{Aaokisa.eps}\end{center}\caption{文頭からの韻律語数ごとの感情の程度に対するアクセント指令の大きさの増加率}\label{Aakekka}\end{figure}アクセント指令の大きさに関しては,予備的な検討の結果,文頭からの位置(韻律語数)が大きく影響することが分かっている\cite{kw2}.図~\ref{Aakekka}に,感情の程度に対するアクセント指令の大きさの増加率を,文頭からの生起位置に着目して示した.ここでは,中立を0,感情の程度が弱の場合を1,中の場合を2,強の場合を3として,これらの感情の程度の値に対するアクセント指令の大きさの回帰直線を求め,この回帰直線の傾きを増加率と定義し,感情の程度に対する増加率と捉える.つまり,この増加率が大きいということは,感情の程度が強くなるに従って,アクセント指令の大きさがより大きくなるということを表す.「喜び」では,文頭からの位置が離れている韻律語のアクセントに増大傾向がみられ,一方「悲しみ」では,文頭のアクセントに最も顕著に減少の変化傾向がみられた.また,図~\ref{Aakekka1}には,平板型,頭高型,起伏型のアクセント型ごとに,感情の程度に対するアクセント指令の大きさの増加率を示した.「喜び」「悲しみ」いずれの感情においても,平板型・起伏型の韻律語に対するアクセント指令の大きさは,感情の程度の影響を受けずほぼ一定,あるいは,若干の減少傾向がみられた.一方,頭高型の韻律語に対するアクセント指令の大きさは,感情の程度が強くなるにつれて減少する変化傾向がみられた.\begin{figure}[t]\begin{center}\includegraphics[width=0.9\textwidth]{Aaokisa1.eps}\end{center}\caption{アクセント型ごとの感情の程度に対するアクセント指令の大きさの増加率}\label{Aakekka1}\end{figure}
\section{あとがき}
label{sa}本論文では,表現豊かな感情音声の合成を目的として,「喜び」「悲しみ」の2つの感情を取り上げ,それらの感情の程度と韻律的特徴との関係について,特に$F_0$パターンの特徴に着目して分析を行った.$F_0$パターンの特徴としては,$F_0$パターン生成過程モデルの各パラメータを採用し,得られる結果がテキスト音声合成時に容易に適用できることを目指した.分析の際,テキスト音声合成で考慮される言語的要因との関係について検討を行った.その結果,$F_0$パターン生成過程モデルのパラメータのうち基底周波数,フレーズ指令の大きさ,およびアクセント指令の大きさに関して,感情の程度に対する各パラメータの変化傾向が得られた.また,フレーズ指令の生起に対する感情の程度の影響については,文節境界の枝分かれ種別と直前のフレーズ指令からモーラ数といった言語的要因ごとに異なることを確認した.アクセント指令の生起タイミングに関して,感情の有無や程度の違いが,アクセント型の変形を伴うような影響を与えないことを確認した.本論文で得られた結果は,4文節からなる文発話を対象として変化傾向を求めたものであるが,基底周波数,フレーズ指令の生起位置および大きさについては,他の文節数からなる一般の文への適応が可能であると考えられる.アクセント指令の大きさの変化傾向に関しては,文頭からの文節数が大きく寄与することが明らかとなっており,前述の一般文へ適応可能なパラメータに対する妥当性の検証も含めて,さらなる検討が必要である.また,本論文では,音声合成の工学的な応用を第一の目的として捉え,聞き手に対して感情の種類・程度が的確に表現されている典型的な1名の発話を分析対象とした.しかし,川波らの先行研究\cite{Kawana}によれば,感情表現に関する韻律的特徴には個人差が大きいことが指摘されており,今後,本論文と同様のアプローチにより複数話者の分析を進め,話者に独立な傾向と話者に依存する傾向とに分離して把握することを試みる予定である.さらに,本論文では韻律的特徴として$F_0$パターンのみを分析の対象としたが,筆者らの予備的検討によると,感情の種類によっては,発話速度がその伝達に大きく寄与するという結果を得ており,今後,$F_0$パターンのほか,発話速度,パワーを含めた総合的な韻律制御規則を導出するべく検討を進める計画である.{\renewcommand{\baselinestretch}{}\selectfont\bibliographystyle{jnlpbbl_1.2}\begin{thebibliography}{}\bibitem[\protect\BCAY{Banse\BBA\Scherer}{Banse\BBA\Scherer}{1996}]{Rai}Banse,R.\BBACOMMA\\BBA\Scherer,K.~R.\BBOP1996\BBCP.\newblock\BBOQAcousticProfilesinVocalEmotionExpression\BBCQ\\newblock{\BemJournalofPersonalityandSocialPsychology},{\Bbf70}(3),\mbox{\BPGS\614--636}.\bibitem[\protect\BCAY{藤崎}{藤崎}{1994}]{Fuji}藤崎博也\BBOP1994\BBCP.\newblock\JBOQ音声の韻律的特徴における言語的・パラ言語的・非言語的情報の表出\JBCQ\\newblock\Jem{信学技報},\mbox{\BPGS\HC94--09}.\bibitem[\protect\BCAY{Fujisaki\BBA\Nagashima}{Fujisaki\BBA\Nagashima}{1969}]{Fuji3}Fujisaki,H.\BBACOMMA\\BBA\Nagashima,S.\BBOP1969\BBCP.\newblock\BBOQAmodelforthesynthesisofpitchcontoursofconnectedspeech\BBCQ\\newblock{\BemAnnualReportoftheEngineeringResearchInstitute},{\Bbf28},\mbox{\BPGS\53--60}.\bibitem[\protect\BCAY{Hashizawa,Takeda,Hamzah,\BBA\Ohyama}{Hashizawaet~al.}{2004}]{Hasi}Hashizawa,Y.,Takeda,S.,Hamzah,M.~D.,\BBA\Ohyama,G.\BBOP2004\BBCP.\newblock\BBOQOntheDifferencesinProsodicFeaturesofEmotionalExpressionsinJapaneseSpeechaccordingtotheDegreeoftheEmotion\BBCQ\\newblock{\BemSpeechProsody2004},\mbox{\BPGS\655--658}.\bibitem[\protect\BCAY{廣瀬\JBA尾関\JBA高木}{廣瀬\Jetal}{2001}]{Hir}廣瀬幸由\JBA尾関和彦\JBA高木一幸\BBOP2001\BBCP.\newblock\JBOQ日本語読み上げ文の係り受け解析における韻律的特徴量の有効性\JBCQ\\newblock\Jem{自然言語処理},{\Bbf8}(4),\mbox{\BPGS\71--89}.\bibitem[\protect\BCAY{市川\JBA中山\JBA中田}{市川\Jetal}{1967}]{ITI}市川熹\JBA中山剛\JBA中田和男\BBOP1967\BBCP.\newblock\JBOQ合成音声の自然性に関する実験的考察\JBCQ\\newblock\Jem{音響講論(秋)},{\Bbf1},\mbox{\BPGS\95--96}.\bibitem[\protect\BCAY{飯田\JBA伊賀\JBA樋口\JBAニック\JBA安村}{飯田\Jetal}{2000}]{Ii2}飯田朱美\JBA伊賀聡一郎\JBA樋口文人\JBAニックキャンベル\JBA安村通晃\BBOP2000\BBCP.\newblock\JBOQ対話支援のための感情音声合成システムの試作と評価\JBCQ\\newblock\Jem{ヒューマンインタフェース学会論文誌},{\Bbf2}(2),\mbox{\BPGS\169--176}.\bibitem[\protect\BCAY{Iida,Campbell,Iga,Higuchi,\BBA\Yasumura}{Iidaet~al.}{1998}]{Ii}Iida,A.,Campbell,N.,Iga,S.,Higuchi,F.,\BBA\Yasumura,M.\BBOP1998\BBCP.\newblock\BBOQAcousticnatureandperceptualtestingofcorporaofemotionalspeech\BBCQ\\newblock{\Bem5thICSLP'98},\mbox{\BPGS\1559--1562}.\bibitem[\protect\BCAY{河井\JBA広瀬\JBA藤崎}{河井\Jetal}{1994}]{kawa}河井恒\JBA広瀬啓吉\JBA藤崎博也\BBOP1994\BBCP.\newblock\JBOQ日本文章音声の合成のための韻律規則\JBCQ\\newblock\Jem{音響誌},{\Bbf50}(6),\mbox{\BPGS\433--442}.\bibitem[\protect\BCAY{川波\JBA広瀬}{川波\JBA広瀬}{1997}]{Kawana}川波弘道\JBA広瀬啓吉\BBOP1997\BBCP.\newblock\JBOQ態度・感情音声における韻律的特徴の考察\JBCQ\\newblock\Jem{信学技報},\mbox{\BPGS\SP97--67}.\bibitem[\protect\BCAY{河津\JBA長島\JBA大野}{河津\Jetal}{2005}]{kw2}河津宏美\JBA長島大介\JBA大野澄雄\BBOP2005\BBCP.\newblock\JBOQ生成過程モデルパラメータに基づく感情制御規則を適用した合成音声の評価\JBCQ\\newblock\Jem{音響講論(秋)},{\Bbf1},\mbox{\BPGS\229--230}.\bibitem[\protect\BCAY{北原\JBA東倉}{北原\JBA東倉}{1989}]{Kita}北原義典\JBA東倉洋一\BBOP1989\BBCP.\newblock\JBOQ音声の韻律情報と感情表現\JBCQ\\newblock\Jem{信学技報},\mbox{\BPGS\SP88--158}.\bibitem[\protect\BCAY{小林\JBA徳田}{小林\JBA徳田}{2004}]{Koba}小林隆夫\JBA徳田恵一\BBOP2004\BBCP.\newblock\JBOQコーパスベース音声合成技術の動向[4]—HMM音声合成方式—\JBCQ\\newblock\Jem{信学誌},{\BbfJ87}(4),\mbox{\BPGS\322--327}.\bibitem[\protect\BCAY{M.~Dzulkhiflee\JBA武田\JBA大山}{M.~Dzulkhiflee\Jetal}{2003}]{MD}DzulkhifleeHamzah,M.,武田昌一\JBA大山玄\BBOP2003\BBCP.\newblock\JBOQ声優が発声した日本語「喜び」,「悲しみ」表現音声の感情の程度に応じた韻律的特徴の比較\JBCQ\\newblock\Jem{音響講論(秋)},{\Bbf1},\mbox{\BPGS\367--368}.\bibitem[\protect\BCAY{Nagasaki\BBA\Komatsu}{Nagasaki\BBA\Komatsu}{2004}]{Naga}Nagasaki,Y.\BBACOMMA\\BBA\Komatsu,T.\BBOP2004\BBCP.\newblock\BBOQCanPeoplePerceiveDifferentEmotionsfromaNon-emotionalVoicebyModifyingitsF0andDuration?''\\newblock{\BemSpeechProsody2004},\mbox{\BPGS\667--670}.\bibitem[\protect\BCAY{長島\JBA大野}{長島\JBA大野}{2004}]{Nsima}長島大介\JBA大野澄雄\BBOP2004\BBCP.\newblock\JBOQ感情表現の韻律的特徴の分析—喜びと悲しみについて\JBCQ\\newblock\Jem{音響講論(秋)},{\Bbf1},\mbox{\BPGS\273--274}.\bibitem[\protect\BCAY{ニック}{ニック}{1997}]{Nikku}ニックキャンベル\BBOP1997\BBCP.\newblock\Jem{プラグマティック・イントネーション:韻律情報の機能的役割}.\newblockくろしお出版.\bibitem[\protect\BCAY{Paeschke}{Paeschke}{2004}]{As}Paeschke,A.\BBOP2004\BBCP.\newblock\BBOQGlobalTrendofFundamentalFrequencyinEmotionalSpeech\BBCQ\\newblock{\BemSpeechProsody2004},\mbox{\BPGS\671--674}.\bibitem[\protect\BCAY{Plutchik}{Plutchik}{1980}]{PLU}Plutchik,R.\BBOP1980\BBCP.\newblock\BBOQEmotion---APsychoevolutionarySynthesis\BBCQ\\newblock{\BemHarperandRow}.\bibitem[\protect\BCAY{匂坂\JBAニック}{匂坂\JBAニック}{2000}]{Sagi}匂坂芳典\JBAニックキャンベル\BBOP2000\BBCP.\newblock\JBOQ音声合成のための規則とデータの表現,獲得,評価\JBCQ\\newblock\Jem{信学論(D-2)},{\BbfJ83-D-2}(11),\mbox{\BPGS\2068--2076}.\bibitem[\protect\BCAY{重永}{重永}{2000}]{Sige}重永實\BBOP2000\BBCP.\newblock\JBOQ感情判別分析からみた感情音声の特性\JBCQ\\newblock\Jem{信学論(A)},{\BbfJ83-A}(6),\mbox{\BPGS\726--735}.\bibitem[\protect\BCAY{梅村\JBA原田\JBA清水\JBA杉本}{梅村\Jetal}{2000}]{Ume}梅村祥之\JBA原田義久\JBA清水司\JBA杉本軍司\BBOP2000\BBCP.\newblock\JBOQ音声合成におけるポーズ制御のための決定リストを用いた局所係り受け解析\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(5),\mbox{\BPGS\51--70}.\end{thebibliography}}\begin{biography}\bioauthor{河津宏美}{2002年東京工科大学工学部情報通信工学科卒業.同年,同大工学部助手.2005年東京工科大学大学院バイオ・情報メディア研究科コンピュータサイエンス専攻.現在に至る.韻律的特徴の分析・合成に関する研究に従事.電子情報通信学会,日本音響学会,日本シミュレーション学会各会員.}\bioauthor{大野澄雄}{1988年東京大学工学部電気工学科卒.1993年同大大学院工学系研究科電子工学専攻博士課程了.同年,東京理科大学基礎工学部助手.1999年東京工科大学工学部講師.現在,同大コンピュータサイエンス学部助教授.音声言語処理,特に音声の韻律の分析・合成・認識処理の研究に従事.博士(工学).電子情報通信学会,日本音響学会各会員.}\end{biography}\biodate\end{document}
| |
V20N02-09 | \section{はじめに}
\label{introduction}自然言語の理解に向けて,常識的知識の獲得が重要である.特に意味カテゴリに属する固有表現のリストは,質問応答~\cite{Wang:2009:ASI:1687878.1687941},情報抽出~\cite{Mintz:2009:DSR:1690219.1690287},語義曖昧性解消~\cite{Pantel:2002:DWS:775047.775138},文書分類~\cite{Pantel:2009:WDS:1699571.1699635},クエリ補完~\cite{Cao:2008:CQS:1401890.1401995}など様々なタスクで有用である.固有表現リストを人手で構築すると多大なコストがかかるうえ,新しい実体や概念に対応できないため,固有表現リストを(半)自動的に獲得する方法が研究されてきた.集合拡張はある意味カテゴリに属する既知の固有表現の集合を入力とし,その意味カテゴリの未知の固有表現を獲得するタスクである.例えば「プリウス」,「レクサス」,「インサイト」という自動車カテゴリの固有表現から,「カローラ」,「シビック」,「フィット」のように自動車カテゴリに属する固有表現を新たに獲得する.なお本論文では,意味カテゴリに属する固有表現をその意味カテゴリの\textbf{インスタンス}と呼び,特に入力として与えるインスタンスを\textbf{シードインスタンス}と呼ぶ.集合拡張には通常,ブートストラッピング手法を用いる~\cite{Hearst:1992:AAH:992133.992154,Yarowsky95unsupervisedword,Abney:2004:UYA:1105596.1105600,pantel04,pantel-pennacchiotti:2006:COLACL}.ブートストラッピング手法とはシードインスタンスを用いて新たなインスタンスを反復的に獲得する手法である.ブートストラッピング手法では,まず,コーパス中でシードインスタンスと頻繁に共起するパターンを獲得する.例えば自動車カテゴリについて「プリウス」や「レクサス」のようなシードインスタンスから「トヨタのX」や「ハイブリッド車のX」(Xは名詞句を代入する変数)のようなパターンが得られる.次にこれらのパターンと頻繁に共起するインスタンス,すなわち,パターンの変数X部分に多く現れる名詞句を獲得する.例えば「トヨタのX」というパターンからトヨタの自動車製品を表す語が得られる.次に新たに得られたインスタンスをシードインスタンスに加え,再びパターンの獲得を行う.ブートストラッピング手法はこのようにパターンの獲得とインスタンスの獲得を繰り返し行うことにより,少数のシードインスタンスから大規模なインスタンス集合を獲得する.しかしブートストラッピング手法はシードインスタンス集合とは無関係なインスタンスを獲得してしまう場合もある.これは対象とする意味カテゴリのインスタンス以外とも共起するパターンによって引き起こされる.例えば「プリウス」や「レクサス」といったシードインスタンスから「新型のX」というパターンを獲得したとすると,このパターンを用いることにより,「iPad」や「ThinkPad」のようなシードとは無関係なインスタンスを抽出してしまう.ブートストラッピング手法において,対象とする意味カテゴリとは無関係なインスタンスを獲得してしまう現象を意味ドリフトと呼ぶ~\cite{Curran_minimisingsemantic}.意味ドリフトはブートストラッピング手法において非常に重大な問題である.ブートストラッピング手法は意味カテゴリに関する事前知識をシードインスタンスという形で受け取っている.しかしながら,シードインスタンスのみで意味カテゴリを正確に表現することは難しく,意味ドリフトが引き起こされる.一方,事前知識として,Wikipediaにおける意味カテゴリ間の上位下位・兄弟関係に見られるように,シードインスタンス以外の知識を得られる場合がある.例えば人カテゴリに属するインスタンスは男優と女優カテゴリに同時に属することはできないという知識や,自動車と自動二輪カテゴリという2つの異なったカテゴリが共通の特徴(例:乗り物,ガソリン式,陸上)と異なる特徴(例:タイヤの数,窓の有無)を持つというような知識が入手できる.近年,テキストに非明示的な情報を推論するため,\textbf{MachineReadingproject}~\cite{Etzioni:06}に見られるように大規模なテキストコーパスを利用し,ありとあらゆる種類の語彙知識を獲得しようとする研究が盛んである.意味カテゴリのインスタンスの収集においても,Carlsonら~\cite{Carlson10towardan}のように,複数のカテゴリを対象として同時に収集を行う需要が高まっている.このような場合には,シードインスタンス以外に,意味カテゴリ間の関係も事前知識として利用できると考えられる.本研究では,複数の意味カテゴリを対象とした集合拡張において,事前知識として意味カテゴリ間の兄弟関係を活用する手法を提案する.評価実験では,Wikipediaから抽出したインスタンスと兄弟関係を事前知識として集合拡張を行い,兄弟関係の知識が有用であることを示す.本論文の構成は以下の通りである.2節では本研究のベースライン手法であるEspressoアルゴリズムを概説する.また,この節では意味ドリフト問題とその対処法に関する先行研究を紹介する.3節では意味カテゴリの兄弟関係を追加の事前知識として活用する手法を提案する.4節では提案手法の効果を実験で検証し,考察を行う.最後に5節で本論文の結論を述べる.
\section{関連研究}
\subsection{Espressoアルゴリズム}\label{Espresso}Espresso~\cite{pantel-pennacchiotti:2006:COLACL}は,パターンの取得とインスタンスの取得の2つのステップを反復する集合拡張アルゴリズムである.パターンの取得とインスタンスの取得は共に,コーパスからの候補の抽出と,候補のランキングという同じ手順にもとづいている.候補の抽出では既に獲得したインスタンスと共起するパターン,既に獲得したパターンと共起するインスタンスを抽出する.候補のランキングでは候補インスタンス/パターンのスコアを計算し,上位$N$個の候補を採用する.Espressoアルゴリズムでは候補パターン$p$のスコア$r_\pi(p)$と候補インスタンス$i$のスコア$r_\iota(i)$を,それぞれ式~(\ref{eq:score1})と式~(\ref{eq:score2})で計算する.\begin{gather}r_\pi(p)=\frac{1}{|I|}\sum_{i\inI}\frac{\pmi(i,p)}{\max\pmi}r_\iota(i)\label{eq:score1}\\r_\iota(i)=\frac{1}{|P|}\sum_{p\inP}\frac{\pmi(i,p)}\max\pmir_\pi(p)\label{eq:score2}\\\pmi(i,p)=\log_2\left(\frac{|i,p|}{|i,*||*,p|}\times\text{discountingfactor}\right)\label{eq:pmi}\\\text{discountingfactor}=\frac{|i,p|}{|i,p|+1}\times\left(\frac{\min\left(|i,*|,|*,p|\right)}{\min\left(|i,*|,|*,p|\right)+1}\right)\label{eq:discounting}\end{gather}$P$と$I$は各カテゴリにおけるパターンとインスタンスの集合である.$|P|$と$|I|$はそれぞれ集合$P$と$I$に含まれるパターンとインスタンスの数である.$|i,*|$と$|*,p|$はインスタンス$i$とパターン$p$のコーパス中での出現頻度であり,$|i,p|$はインスタンス$i$とパターン$p$の共起頻度である.すなわち,式~(\ref{eq:pmi})における右辺第1項はインスタンス$i$とパターン$p$の自己相互情報量である.自己相互情報量は単語間の相関の指標として一般的であるが,めったに出現しない単語に対して値が大きくなってしまうという問題がある.これに対処するため,PantelとRavichandranは式~(\ref{eq:discounting})に示されるdiscountingfactorを導入した~\cite{pantel04}.また,maxpmiはカテゴリ内のすべてのインスタンスとパターンのpmiの最大値である.なお,初期値としてシードインスタンスのスコアは1.0とする.Espressoアルゴリズムの動作を説明する.始めに,シードインスタンスと共起するパターンを候補として抽出する.次に,式~(\ref{eq:score1})で候補パターンのスコアを計算し,上位$N$個のパターンを獲得することで,対象とする意味カテゴリに対応するパターンを獲得する.インスタンスの獲得については,獲得したパターンと式~(\ref{eq:score2})を用い,上記の手順をパターンとインスタンスを逆にして行うことで達成する.すなわち,獲得したパターンと共起するインスタンスを候補として抽出し,式~(\ref{eq:score2})で高スコアのパターンとよく共起するインスタンスを獲得する.\subsection{意味ドリフト}ブートストラッピング手法においてシードとは無関係なインスタンスを獲得してしまい,対象とするカテゴリから逸脱してしまう現象を意味ドリフトと呼ぶ~\cite{Curran_minimisingsemantic}.例として,「プリウス」や「レクサス」をシードインスタンスとして持つ自動車カテゴリについて考える.Espressoアルゴリズムは何回か反復を行うと「Xの性能」や「新型のX」など多くのカテゴリのインスタンスと共起するパターン(\textbf{ジェネリック・パターン})を得る.これらのパターンを用いてインスタンスの収集を行うと,「iPad」や「ThinkPad」のようなインスタンスが抽出され得る.これらは対象とする意味カテゴリの特徴を備えておらず,シードが表そうとしている意味カテゴリとは無関係なインスタンスである.しかしながら,これらの間違ったインスタンスを獲得してしまうことで,アルゴリズムの取得するパターンは元々の想定からかけ離れたものになってしまう.また意味ドリフトは多義性のある語によっても引き起こされる.例えば自動車メーカーのシードとして「サターン」や「スバル」を与えた場合,ブートストラッピング手法は「木星」や「天王星」のような星カテゴリに属するインスタンスを獲得してしまう.これは「サターン」や「スバル」に多義性があり,自動車メーカーだけでなく天体(惑星や恒星)も表す語だからである.小町ら~\cite{mamoru_komachi:2010}はEspressoアルゴリズムをグラフ解析の観点から分析することで,ブートストラッピング手法において,意味ドリフトが本質的には回避できない問題であることを示した.\subsection{g-Espressoアルゴリズム}小町ら~\cite{mamoru_komachi:2010}はEspressoアルゴリズムをグラフ解析として定式化し,さらに意味ドリフトへの対処として,グラフカーネルの適用を提案した.彼らはまず,Espressoアルゴリズムを行列計算によって定式化した.なお,ここではEspressoアルゴリズムにおける,毎回の反復において上位$N$個の候補を獲得する,というステップが省略されており,全パターンと全インスタンスにスコアを付与する形になっている.インスタンスとパターンの共起行列を$M$とし,その$(p,i)$要素$[M]_{pi}$は式~(\ref{eq:pmi})のpmiを用いて,\begin{equation}[M]_{pi}=\frac{\pmi(i,p)}{\max\pmi}\end{equation}とする.また,シードインスタンスに対応する位置の要素は1,それ以外の要素は0である,$|I|$次元のベクトルをシードベクトル$\boldsymbol{i_{0}}$とする.このとき,$n$回目の反復におけるパターンへのスコアの付与は,$\boldsymbol{p_{n}}=M\boldsymbol{i_{n}}$を計算した後に$\boldsymbol{p_{n}}\gets\boldsymbol{p_{n}}/|I|$として正規化する操作に対応する.同様に,インスタンスへのスコアの付与は,$\boldsymbol{i_{n+1}}=M^{T}\boldsymbol{p_{n}}$を計算した後に$\boldsymbol{i_{n+1}}\gets\boldsymbol{i_{n+1}}/|P|$として正規化する操作に対応する.したがって,$n$回目の反復後に得られるインスタンスのスコアベクトル$\boldsymbol{i_{n}}$は,式~(\ref{eq:graph_instance})と書ける.\begin{gather}\boldsymbol{i_{n}}=A^{n}\boldsymbol{i_{0}}\label{eq:graph_instance}\\A=\frac{1}{|I||P|}M^{T}M\end{gather}$I$をノード集合,$A$を隣接行列とした重み付き無向グラフ$G$を考えると,反復におけるインスタンスのスコアの更新は,シードインスタンスのスコアがグラフ上を伝播していく過程と見なすことができる.よって,グラフカーネルによりこの過程を形式化することが可能である.小町ら~\cite{mamoru_komachi:2010}はジェネリック・パターンの影響を減らし,意味ドリフトを抑制するために,正則化ラプラシアンカーネル~\cite{b155}を用いた.まず,グラフ$G$のラプラシアン$L$を式~(\ref{eq:laplacian})によって求める.\begin{gather}L=D-A\label{eq:laplacian}\\[D]_{i,i}=\sum_{j}^{}[A]_{ij}\end{gather}次に,正則化ラプラシアンカーネルを式~(\ref{eq:reg_lap})で計算する.\begin{equation}R_{\beta}(A)=A\sum_{n=0}^{\infty}\beta^{n}(-L)^{n}=(I+\betaL)^{-1}\label{eq:reg_lap}\end{equation}正則化ラプラシアンカーネルはそれぞれのノードに対し,次数に応じて接するエッジの重みを減ずる.このため,ジェネリック・パターンの影響を低く抑えることができる.萩原ら~\cite{masato_hagiwara:2011}はこのグラフ理論によって再定式化したEspressoアルゴリズムをg-Espressoと呼び,集合拡張において意味ドリフトを抑制する効果があることを示した.\subsection{意味ドリフトへの対処}意味ドリフトの影響を軽減するために,小町ら~\cite{mamoru_komachi:2010}や萩原ら~\cite{masato_hagiwara:2011}の手法に加え,シードインスタンス集合の洗練~\cite{Vyas:2009:HEC:1645953.1645984},分類器の使用~\cite{Bellare_lightlysupervisedattribute,Sadamitsu:2011:ESE:2002736.2002876,Pennacchiotti:2011:ABT:2018936.2018955},人間の判断の導入~\cite{Vyas:2009:SES:1620754.1620796},意味カテゴリ間の関係の活用~\cite{Curran_minimisingsemantic,carlson-wsdm}など様々な手法が提案されている.Vyasらはブートストラッピング手法におけるシードインスタンスの影響を調査した~\cite{Vyas:2009:HEC:1645953.1645984}.その結果,専門家でない人の選んだシードインスタンス集合はランダムに選択したものよりも結果が悪くなる可能性があることを示した.また彼らは,人手で作成されたシードインスタンス集合を洗練し,集合拡張の性能を向上させる手法を提案した.Bellareらはブートストラッピング手法のランキング時にスコア関数の代わりに分類器を使用する手法を提案した~\cite{Bellare_lightlysupervisedattribute}.分類器を用いる手法はインスタンスのランキング時にパターン以外の素性を使うためである.SadamitsuらはBellareらの手法~\cite{Bellare_lightlysupervisedattribute}を拡張し,LatentDirichletAllocation(LDA)から推定されるトピック情報を素性として使用する手法を提案した~\cite{Sadamitsu:2011:ESE:2002736.2002876}.彼らはまた,意味的に近いカテゴリの情報を与え,LDAのトピックの粒度を調整する手法も提案している~\cite{Sadamitsu:2012:PACLIC26}.PennacchiottiとPantelは分類器のためのトレーニングデータを自動で収集する手法を提案した~\cite{Pennacchiotti:2011:ABT:2018936.2018955}.しかしながら,これらの研究は複数の意味カテゴリに対して同時に集合拡張を行うことを想定しておらず,\ref{introduction}節で説明したような,意味カテゴリ間の関係知識の利用を考慮していない.VyasとPantelは意味ドリフトの原因となったパターンを検出し,それを削除する手法を提案した~\cite{Vyas:2009:SES:1620754.1620796}.彼らは意味ドリフトを防ぐため,ブートストラッピング手法の反復に人間の正否判定を取り入れた.彼らの手法では,人手によって誤りインスタンスが発見された場合,その誤りインスタンスとそれを獲得する原因となったパターンを除去する.また,同様の誤りを防ぐため,誤りインスタンスと類似した文脈ベクトルを持つインスタンスも除去する.彼らもカテゴリ間の関係のような事前知識は使用していない.Curranらはブートストラッピング手法にカテゴリ間の排他制約を導入した,MutualExclusionBootstrappingという手法を提案した~\cite{Curran_minimisingsemantic}.MutualExclusionBootstrappingは,インスタンスやパターンの属するカテゴリはただ1つであるという制約を取り入れたものである.複数のカテゴリに出現するインスタンスやパターンには曖昧性があり,意味ドリフトの原因になると考えられる.そこで,曖昧性のあるインスタンスやパターンを除去することにより,彼らの手法は高い精度を達成した.同じく排他関係を使用する手法としてCarlsonらはCoupledPatternLearner(CPL)アルゴリズムを提案した~\cite{carlson-wsdm}.CPLアルゴリズムは意味カテゴリのインスタンス(例:自動車カテゴリのインスタンス)と関係インスタンス(例:CEO-of-Companyという関係に対する(LarryPage,Google)やCompany-acquired-Companyに対する(Google,Youtube))を同時に収集する手法である.CPLアルゴリズムはこれらのインスタンスを取得するために,カテゴリ間の排他関係とカテゴリ間の意味的関係(例:CEOカテゴリのインスタンスは会社カテゴリに属するインスタンスのうちいずれかのCEOである)を使用する.しかしながら,カテゴリ間の意味的関係は関係インスタンスの取得にしか用いられておらず,意味カテゴリのインスタンスについては複数カテゴリに対する排他制約という事前知識しか用いていない.Curranら~\cite{Curran_minimisingsemantic}とCarlsonら~\cite{carlson-wsdm}はどちらも事前知識としてシードインスタンスだけではなくカテゴリ間の排他関係も利用している.しかし,意味カテゴリ間には上位下位や兄弟関係など排他関係以外の関係も存在する.兄弟関係は共通の特徴を持つべきであるカテゴリについての知識であり,排他関係という,インスタンスが同時に属さないカテゴリに関する知識とは別種のものである.兄弟関係についての知識はWikipediaのような既存のリソースから容易に取得することができるため,事前知識として利用しやすい.本研究では,既存のリソースから入手できるカテゴリ間の兄弟関係に関する知識を事前知識として集合拡張に導入し,その有用性を検証する.
\section{提案手法}
\subsection{兄弟カテゴリのパターンによるフィルタリング}本節では,意味カテゴリ間の兄弟関係を事前知識として活用する手法を提案する.以降では,兄弟関係にあるカテゴリの集合を\textbf{兄弟グループ}と呼ぶこととする.例えば,自動車と自動二輪のカテゴリは兄弟関係にあるため,同一の兄弟グループに属する.本研究では,同一の兄弟グループに含まれるインスタンスは共通の特徴を保有していると仮定する.例えば,自動車と自動二輪の兄弟グループに含まれるインスタンスは「乗り物」や「ガソリン式」という特徴を持ち,「乗る」や「燃費」などの語と係り受け関係を持ちやすい.この兄弟グループに共通の特徴を持っていないインスタンスは,正しいインスタンスである可能性が低いと考えられる.そのため,提案手法は兄弟グループのシードインスタンス集合を利用して兄弟グループに共通の特徴を取得し,グループ内の候補インスタンスがこの共通の特徴を保有しているか否かを検証することで,誤ったインスタンスの獲得を防ぐ.同一の兄弟グループに属する自動車と自動二輪カテゴリについて,提案手法を用いて集合拡張の際の誤りインスタンスを除去する例を図~\ref{fig:overview}に示す.提案手法はまず,この兄弟グループのインスタンスに共通の特徴として,「乗る」や「燃費」という表現と係り受け関係を持ちやすいという知識を得る.既存のブートストラッピング手法では,自動車カテゴリにおいて「新型のX」というパターンを獲得してしまった場合,シードや兄弟グループとは無関係のインスタンスである「iPad」を除去することができない.これに対して,提案手法では候補インスタンスが「乗る」や「燃費」と係り受け関係にある文節に出現しているかを,インスタンスの獲得(厳密には候補のランキング)の前に検証することによって,「iPad」のような誤りインスタンスを取り除くことができる.この結果,提案手法は「カムリ」のような兄弟グループに共通する特徴を持つインスタンスのみを獲得する.\begin{figure}[t]\begin{center}\includegraphics{20-2ia9f1.eps}\end{center}\caption{兄弟関係を活用した集合拡張}\label{fig:overview}\end{figure}ここで,兄弟グループに共通の特徴が,対象とする意味カテゴリ以外も包含してしまうと,意味ドリフトが発生してしまう.これを防ぐために,兄弟グループ間は排他関係にあるとし,兄弟グループに共通の特徴は対象としている兄弟グループに固有の特徴とする.本研究では兄弟グループに共通の特徴は「乗る」や「燃費」などの表現によって表されると仮定する.このような表現を\textbf{フィルタパターン}と呼ぶ.提案手法では,候補インスタンスがフィルタパターンと共起しているか,すなわち,候補インスタンスがフィルタパターンと係り受け関係にある文節に出現しているかの検証を行うことで,インスタンスが兄弟グループに共通の特徴を保有しているかを確認する.この確認はインスタンスの獲得の直前に行い,候補インスタンスの抽出法については,既存の手法を用いる.すなわち,提案手法はEspressoアルゴリズムやg-Espressoなどの既存手法と組み合わせて利用することができる.\subsection{Espressoアルゴリズムをベースとした手法}\label{proposed_espresso}\begin{algorithm}[t]\caption{Espressoアルゴリズムをベースとした提案手法のアルゴリズム}\label{alg1}\input{09algo01.txt}\end{algorithm}Espressoアルゴリズムを利用し,図~\ref{fig:overview}のアイディアをアルゴリズムとして記述したものがAlgorithm~\ref{alg1}である.このアルゴリズムは入力として対象とするカテゴリの集合$C$,$S_{1}$から$S_{T}$までの兄弟グループ,それぞれのカテゴリ$c\inC$に対応するシードインスタンス集合$I_{c}$,反復の回数$L$,コーパス$W$を受け取る.兄弟グループはそれぞれ$C$の部分集合であり,また,互いに素である.まず,\ref{st_sibp_extract}行目から\ref{end_sibp_extract}行目において各兄弟集合$S_{j}$に対するフィルタパターン$F_{S_{j}}$を選択する.次に\ref{espresso}行目において兄弟グループ$S_{j}$内の各カテゴリ$c$のインスタンスを関数\Call{Espresso\_Exclusion}{}を用いて取得する.\Call{Espresso\_Exclusion}{}は要素のそれぞれがインスタンス$i$,カテゴリ$c$,スコア$s$のタプル,すなわち$(i,c,s)$からなるリスト$R$を返す.この関数において,インスタンスの抽出とスコアの計算は,~\ref{Espresso}節で説明したEspressoアルゴリズムに,兄弟グループのカテゴリ間でパターンに対する排他制約を導入した手法を用いて行う.\begin{figure}[t]\begin{center}\includegraphics{20-2ia9f2.eps}\end{center}\caption{文節間の係り受け関係の例}\label{eg:sentence}\end{figure}本研究ではパターンはインスタンスと係り受け関係にある文節と定義する.例えば,「プリウス」というインスタンスと図~\ref{eg:sentence}に示す文が与えられたとする(図~\ref{eg:sentence}では文を文節で区切り,係り受け関係を文節間の矢印で表現している).このとき,プリウスと同じ意味クラスに属するインスタンスを取得するためのパターンとして,\begin{quote}\begin{itemize}\itemX$\longrightarrow$販売を\itemX$\longleftarrow$新型\end{itemize}\end{quote}を得る.ここで,係り受け関係の向きについて,インスタンスを含む文節が別の文節に係るときを「$\to$」で,別の文節がインスタンスを含む文節に係るときを「$\gets$」で表している.関数\Call{Espresso\_Exclusion}{}では,「X$\to$販売を」や「X$\gets$新型」のように,係り受け関係の向きも含めた表現形式をパターンとする.次に$R$に含まれる候補インスタンス$i$が兄弟グループに共通の特徴を持つか否かの検証を,関数\Call{Filter}{}によって行う(\ref{filter}行目).関数\Call{Filter}{}は\ref{st_func_fil}行目から\ref{end_func_fil}行目に書かれている通りであり,$R$に含まれる$i$がそれぞれフィルタパターン$f$と共起しているかどうかを検証する.この関数はフィルタパターンと共起しているインスタンスをそのスコアとともにリストとして返す.言い換えれば,この関数はフィルタパターンの集合$F$によって表される兄弟グループに共通の特徴を保有していないインスタンスを除去している.兄弟グループ内でのドリフトを防ぐため,提案手法は兄弟グループのカテゴリ間に排他制約を導入している.パターンやインスタンスが兄弟グループ内の複数のカテゴリで出現している場合,提案手法はそれらが属するべき最適なカテゴリをただ1つ決定する.提案手法ではこの決定をランキングの結果をもとに行う.例えば自動車と自動二輪カテゴリにおいて「X→マフラー」というパターンが出現していたとする.ランキングの結果,もしこのパターンが自動車カテゴリでは13位であり自動二輪カテゴリでは4位だったとすると,このパターンは自動二輪カテゴリにのみ属するものとする.すでに説明したように,Algorithm~\ref{alg1}において関数\Call{Espresso\_Exclusion}{}はパターンに対する排他制約が導入されているものであるとしており,インスタンスに対する排他制約は\ref{exclusive}行目から\ref{end_exclusive}行目に実装されている.提案手法ではスコア$s$を元に,\ref{exclusive}行目から\ref{end_exclusive}行目での排他制約を適用しながら,反復数($l$回目)に応じて上位$N\timesl$個のインスタンスを獲得する.すべてのカテゴリについて新たなインスタンスの取得が終わった後,次の反復へと進む.入力として与えた回数だけ反復した後,アルゴリズムはそれぞれのカテゴリ$c\inC$に対応するインスタンス集合$I'_{c}$を出力する.\subsection{g-Espressoをベースとした手法}\label{sec:g_espresso}正則化ラプラシアンカーネルを利用したg-Espressoによるインスタンスの抽出と,フィルタパターンによる候補インスタンスの特徴の検証を組み合わせた手法を,アルゴリズムとして記述したものがAlgorithm~\ref{proposed_g_espresso}である.このアルゴリズムはAlgorithm~\ref{alg1}の入力から反復回数$L$を除いたものを入力として受け取る.\begin{algorithm}[b]\caption{g-Espressoをベースとした提案手法のアルゴリズム}\label{proposed_g_espresso}\begin{algorithmic}[1]\input{09algo02.txt}\end{algorithm}Algorithm~\ref{proposed_g_espresso}はAlgorithm~\ref{alg1}と同様,まず各兄弟集合$S_{j}$に対するフィルタパターン$F_{S_{j}}$を選択する.次に兄弟グループ$S_{j}$内の各カテゴリ$c$について,候補インスタンス集合$I_{v_{c}}$とパターンの集合$P_{v_{c}}$を関数\Call{Espresso}{}によって,抽出する~(\ref{espresso4g}行目).関数\Call{Espresso}{}は\ref{Espresso}節において説明したEspressoアルゴリズムによって,パターンとインスタンスのスコアを計算し,上位$N_{pattern}$個のパターンと上位$N_{instance}$個のインスタンスを返す関数である.なお,ここでのパターンも\ref{proposed_espresso}節での関数\Call{Espresso\_Exclusion}{}で用いたものと同様,「X$\to$発表した」のような係り受け関係の向きも含めたものとする.g-Espressoは対象とするカテゴリ毎に,コーパス中の全パターンと全インスタンスを対象とした計算を行うため,ウェブページなどの大規模コーパスや,複数の意味カテゴリを対象とした場合には計算量が膨大になってしまう.計算量を抑えるため,萩原ら~\cite{masato_hagiwara:2011}はブートストラッピング手法によって計算対象を制限し,その後グラフカーネルを適用する手法を用いた.本手法でも同様に,Espressoアルゴリズムによってシードインスタンス集合と相関の高いパターン/インスタンスを$P_{v_{c}}$,$I_{v_{c}}$として抽出し,g-Espressoへの入力とする.なお,今回は萩原ら~\cite{masato_hagiwara:2011}を参考に$N_{pattern}=2,000$とし,$N_{instance}=2,000\times|S_{j}|$とした.次に候補インスタンス集合$I_{v_{c}}$に含まれるインスタンスが兄弟グループに共通の特徴を持つか否かの検証を,Algorithm~\ref{alg1}における関数\Call{Filter}{}を用いて行う~(\ref{filter_g}行目).次に$P_{v_{c}}$と関数\Call{Filter}{}の返した$I_{v_{c}}$を対象とし,g-Espressoによってインスタンスのスコアを計算する.これは関数\Call{g-Espresso}{}を用いて行う~(\ref{g_espresso}行目).関数\Call{g-Espresso}{}は要素のそれぞれがインスタンス$i$,カテゴリ$c$,スコア$s$のタプルからなるリスト$R$を返す.最後にAlgorithm~\ref{alg1}と同様に,兄弟グループのカテゴリ間での排他制約を考慮しつつ,各カテゴリについて,スコアの上位$N_{all}$個のインスタンスを獲得し~(\ref{exclusive_g}行目から~\ref{end_exclusive_g}行目),$I'_{c}$として出力する.\subsection{フィルタパターンの獲得}既に説明したように,提案手法はインスタンスが兄弟グループに共通の特徴を持っているか否かをフィルタパターンを用いて判定する.この節ではフィルタパターンの獲得方法について述べる.フィルタパターンの獲得は候補の抽出とランキングの2つのステップからなる.候補の抽出では,兄弟グループのシードインスタンスと共起しているパターンを集める.例えば,自動車と自動二輪カテゴリからなる兄弟グループに対し,自動車か自動二輪カテゴリに含まれるシードインスタンスと共起しているパターンを抽出する.フィルタパターンは兄弟グループの特定のカテゴリのインスタンスを取得するためのものではなく,兄弟グループに無関係のインスタンスを除去するためのものであるため,兄弟グループに共通の特徴をとらえていることが望ましい.しかし,インスタンスとの係り受け関係の向きや,助詞や副詞など構成する語を厳密に指定する形式にしてしまうと,正解インスタンスまで取り除いてしまう可能性もある\footnote{フィルタパターンにおいて係り受け関係の向きを指定すると,指定しないものよりも精度が悪くなる.このことは~\ref{discussion}節において,実験的に明らかにする.}.このため,フィルタパターンは係り先,係り元といった係り受け関係の向きを考慮せず,さらに名詞と動詞に限定する.すなわち,フィルタパターンはEspressoアルゴリズムやg-Espressoで用いたパターンとは異なり,「乗る」や「エンジン」,「愛車」などの,インスタンスと係り受け関係にある文節に出現する名詞や動詞とする~\footnote{実際に獲得された各兄弟グループのフィルタパターンについては,表~\ref{tab:table2}に示してある.}.候補のランキングでは,抽出された候補の中からフィルタパターンとして最適なものを選択する.兄弟グループに含まれる意味カテゴリのインスタンスが獲得されるには,フィルタパターンと共起する必要がある.そのため,兄弟グループに属するインスタンスとできるだけ多く共起するようなフィルタパターンが適している.また,フィルタパターンによって,インスタンスが兄弟グループに共通の特徴を保有しているかどうかを検証するため,兄弟グループ内のカテゴリに均等に出現するようなフィルタパターンが適している.この2つの要素をそれぞれ網羅性と平等性として定式化し,これにもとづいてフィルタパターンの選択を行う.\begin{figure}[b]\begin{center}\includegraphics{20-2ia9f3.eps}\end{center}\caption{フィルタパターンとして望ましい性質}\label{fig:properties_filter_pattern}\end{figure}フィルタパターンは兄弟グループに属する正しいインスタンスを網羅するようなものであることが望ましい.そのため,兄弟グループ中の多くのシードインスタンスと共起しているパターンが適している.例として,自動車と自動二輪カテゴリのフィルタパターンについて考える(図~\ref{fig:properties_filter_pattern}).図~\ref{fig:properties_filter_pattern}において,パターンは斜体で表されている.また,パターンの下の四角で覆われた枠内の文字はシードインスタンスであり,特にパターンと共起しているものは太字で示してある.この図の(a)において,パターン「乗る」は「マイナーチェンジ」よりも多くのシードインスタンスと共起しているため,よりフィルタパターンに適していると考える.この要素を網羅性と呼び,$\mathit{Coverage}$という指標で測定する.ある兄弟グループ$S_{j}$に属するパターン$f$の$\mathit{Coverage}$は次の式~(\ref{recall})を用いて計算する.\begin{gather}\mathit{Coverage}(S_{j},f)=\frac{\sum_{c\inS_{j}}\sum_{i\inI_{c}}\mathit{cooccur}(f,i)}{\sum_{c\inS_{j}}|I_{c}|}\label{recall}\\\mathit{cooccur}(f,i)=\left\{\begin{array}{ll}1&\text{$i$と$f$が共起している場合}\\0&\text{それ以外}\\\end{array}\right.\end{gather}$I_{c}$はカテゴリ$c$のシードインスタンス集合であり,$|I_{c}|$はカテゴリ$c$のシードインスタンスの数である.$\mathit{cooccur}(f,i)$はインスタンス$i$がパターン$f$と共起しているか否かを表しており,共起しているなら1を,していなければ0を返す関数である.よって,$\sum_{i\inI_{c}}\mathit{cooccur}(f,i)$はカテゴリ$c$に属し,かつパターン$f$と共起しているシードインスタンスの数を表す.さらに,フィルタパターンはインスタンスが兄弟グループに共通の特徴を保有しているかどうかを検証するためのものであるため,特定のカテゴリに偏って出現しているパターンは不適当である.したがって,パターンは兄弟グループ内のカテゴリのうち,2つ以上で出現していなければならないとする.図~\ref{fig:properties_filter_pattern}の(b)において,「エンジン」というパターンは自動車と自動二輪の両方のカテゴリのインスタンスと共起しているが,「トヨタ」は自動車カテゴリのみでしか出現していない.このため「トヨタ」はフィルタパターンとしては不適当とし,候補から除去する.また,図~\ref{fig:properties_filter_pattern}の(b)では「乗る」というパターンは両方のカテゴリのインスタンスと均等に共起しているため,「エンジン」よりもフィルタパターンとして適している.この,パターンが兄弟グループ内のそれぞれのカテゴリのインスタンスと,どれだけ均等に共起するかという要素を平等性と呼ぶ.兄弟グループ内のあるカテゴリのインスタンスとパターンが共起するとき,パターンがそのカテゴリに出現したと定義すれば,平等性は兄弟グループ内での,パターンがどのカテゴリに出現するかの分散の大きさと言える.このため,平等性は情報量($\mathit{Entropy}$)を用いて測定できる.ある兄弟グループ$S_{j}$に属するパターン$f$の$Entropy$は次の式~(\ref{entropy})を用いて計算する.\begin{gather}\mathit{Entropy}(S_{j},f)=-\sum_{c\inS_{j}}P_c(f)\log_{|C|}P_c(f)\label{entropy}\\P_c(f)=\frac{\sum_{i\inI_{c}}\mathit{cooccur}(f,i)}{\sum_{c\inS_{j}}\sum_{i\inI_{c}}\mathit{cooccur}(f,i)}\end{gather}$|C|$はパターン$f$の出現しているカテゴリの数である.もしパターン$f$が兄弟グループ内のそれぞれのカテゴリのインスタンスと均等に共起したとすると,$\mathit{Entropy}(S_{j},f)$は最も高い値(1.0)となる.網羅性と平等性の両方の観点において優れているパターンを獲得するため,パターン$f$のスコアを次の式~(\ref{equ:filtering-score})を用いて計算する.\begin{equation}\mathit{Score}(S_{j},f)=\mathit{Entropy}(S_{j},f)\timesCoverage(S_{j},f)\label{equ:filtering-score}\end{equation}各兄弟グループ$S_{j}$の候補パターン$f$について$\mathit{Score}(S_{j},f)$を計算し,兄弟グループに共通の特徴を特に表していると考えられる,上位15個を兄弟グループのフィルタパターンとして獲得する.なお,兄弟グループが他の兄弟グループへ意味ドリフトしてしまうことを防ぐため,兄弟グループ間は排他関係にあるとする.そのため,複数の兄弟グループで候補となっているフィルタパターンについては,属する兄弟グループをただ1つ決めなければならない.この決定はフィルタパターンの出現頻度にもとづいて行う.すなわち,兄弟グループ内のシードインスタンスとの共起頻度の和をフィルタパターンの兄弟グループ内での出現頻度とし,これが最大である兄弟グループにのみフィルタパターンは属するとする.これにより,それぞれの兄弟グループに固有のフィルタパターンが得られる.このフィルタパターンを用いることで,兄弟グループに共通の特徴を持たない,無関係なインスタンスを除去できる.
\section{実験}
\subsection{実験設定}本節では集合拡張において,カテゴリ間の兄弟関係を事前知識として使用することの効果を実験的に検証する.実験ではEspressoアルゴリズム~\cite{pantel-pennacchiotti:2006:COLACL},Espressoアルゴリズムにカテゴリ間の排他制約を加えたもの(Espresso+排他制約),Espressoアルゴリズムにカテゴリ間の排他制約と兄弟関係を事前知識として加えたもの(提案手法(ベース:Espresso))のブートストラッピング手法と,g-Espressoアルゴリズム~\cite{masato_hagiwara:2011},g-Espressoアルゴリズムにカテゴリ間の排他制約と兄弟関係を事前知識として加えたもの(提案手法(ベース:g-Espresso))のグラフカーネルを用いた手法について比較を行う.グラフカーネルを用いた手法における,正則化ラプラシアンカーネルの拡散パラメータは萩原ら~\cite{masato_hagiwara:2011}と同様,$\beta=5.0\times10^{-4}$とした.ブートストラッピング手法では反復毎に,各カテゴリのインスタンスとパターンの獲得数を15個ずつ増加(すなわち$N=15$)させた.集合拡張は未知のインスタンスを取得するタスクであるため,再現率を正確に測定することは難しい.そのため,各手法の比較は,同じ数のインスタンスを取得した際の適合率を比べることによって行う.さらに,各手法の出力した正解インスタンスの集合を正解セットと考え,再現率を疑似的に計算し,比較する.なお,獲得インスタンスの正否は3人の評価者によって判定する.\ref{introduction}節で説明したように,近年では,全てのカテゴリのインスタンスを収集する需要が高まっている.このため実験では,Carlsonら~\cite{Carlson10towardan}のように,様々な種類のカテゴリを対象とする.代表的なカテゴリをまんべんなく対象とするため,関根の拡張固有表現階層のリスト\footnote{https://sites.google.com/site/extendednamedentityhierarchy/}とWikipediaを参考に,人手で41個のカテゴリを実験対象として選択した.対象カテゴリは表~\ref{tab:table2}に示した通りであり,この表に示した全てのカテゴリについて,同時に集合拡張を行う.なお,表~\ref{tab:table2}ではカテゴリを兄弟グループが同一のものでまとめてあり,兄弟グループ間は罫線によって区切られている.兄弟グループは同じ上位カテゴリを持つカテゴリの集合となるよう,Wikipediaを参考に人手で作成した.各カテゴリはただ1つの兄弟グループに属するものとし,各兄弟グループは2つ以上のカテゴリを含む.シードインスタンスについてはWikipediaから自動でインスタンスを抽出するツール~\cite{SUMIDA08.618}を利用し,各カテゴリ毎に15個ずつ用意した.なお,自動で抽出した結果には誤りも含まれているため,人手によって誤りインスタンスを除去している.実験には1億1千万の日本語ウェブページをコーパスとして用いた.ウェブページ中の文は日本語係り受け解析器であるKNP~\cite{And94knparser}を用いて係り受け構造を解析した.また,計算時間を削減するため,出現頻度が2回以下であるパターンとインスタンスは除去している.\subsection{結果}\label{discussion}\begin{figure}[b]\begin{center}\includegraphics{20-2ia9f4.eps}\end{center}\caption{各手法における取得インスタンス数とその適合率}\label{fig:figure3}\end{figure}ブートストラッピングの反復を10回行った際の,各手法における全カテゴリでの獲得インスタンス数とその適合率を図~\ref{fig:figure3}に示す.グラフカーネルを用いた手法では,ブートストラッピングと同数のインスタンスを獲得した際の適合率を示している.また,提案手法ではフィルタパターンにおいて係り受け関係の方向を指定しないとしていたが,この効果を確認するため,フィルタパターンにおいて係り受け関係の方向を指定した手法での結果も記した.この図より,Espresso+排他制約はEspressoよりも適合率が上昇していることがわかる.Espresso+排他制約の適合率はEspressoと比べると,4,305個のインスタンスを獲得したときに最も上昇し,2.4\%高い.また,10回の反復後,すなわち6,765個のインスタンスを獲得したときには1.3\%上昇している.提案手法(ベース:Espresso)はEspresso+排他制約よりもさらに適合率が上がっており,Espressoと比べると,4,305個のインスタンスを獲得したときには4.4\%上昇し,6,765個のインスタンスを獲得したときには2.1\%上がっている.さらに,g-Espressoと提案手法(ベース:g-Espresso)を比較しても,提案手法の適合率が上昇していることがわかる.提案手法(ベース:g-Espresso)の適合率はg-Espressoと比べ,3,690個のインスタンスを獲得したときに最も上昇し,6.1\%高い.この結果から,カテゴリ間の兄弟関係についての事前知識は意味ドリフトの抑制に寄与し,集合拡張の精度を向上させることがわかる.また図~\ref{fig:figure3}より,フィルタパターンにおいて係り受け関係の方向を指定した手法では,Espressoよりも適合率が上昇するが,提案手法(フィルタパターンにおいて係り受け関係の方向を指定しない場合)よりは適合率が低いことがわかる.したがって,フィルタパターンにおいて係り受け関係の方向まで指定することは厳しすぎる制約であり,フィルタパターンを用いて兄弟グループの共通性を検証する際には,係り受け関係の方向を指定する必要はないことがわかる.小町ら~\cite{mamoru_komachi:2010}や萩原ら~\cite{masato_hagiwara:2011}はグラフカーネルを用いることにより,意味ドリフトが抑制できることを示した.しかし,図~\ref{fig:figure3}において,グラフカーネルを用いた手法であるg-Espressoの適合率はEspressoより低い.これは,~\ref{sec:g_espresso}節で説明したように,グラフカーネルを適用するパターンと候補インスタンスを制限しているためであると考えられる.例えば,ヨーロッパの国カテゴリについて,「ドイツ」というシードインスタンスから「X$\to$サッカー選手一覧」,「X$\to$キーパーは」というパターンが抽出されるため,「強豪」や「代表」のような,対象とする意味カテゴリとは無関係なインスタンスのスコアが高くなってしまう.この問題について萩原ら~\cite{masato_hagiwara:2011}は,グラフの範囲を広げることで解消できるとしたが,複数の意味カテゴリを対象にした集合拡張では,計算量を抑えるためにグラフはできるだけ小さくせねばならず,避けられない問題であると考えられる.\begin{figure}[b]\begin{center}\includegraphics{20-2ia9f5.eps}\end{center}\caption{各手法における適合率と再現率}\label{fig:graph_pr_curve}\end{figure}再現率を疑似的に計算するため,反復を10回行った(すなわち各カテゴリで165個のインスタンスを獲得した)ときの,各手法で獲得した正解インスタンスの和集合を正解セットとして,反復毎\footnote{グラフカーネルを用いた手法では,各カテゴリでの獲得インスタンスを15個ずつ増やした}の適合率と再現率を計算した.この結果を図~\ref{fig:graph_pr_curve}に示した.図~\ref{fig:graph_pr_curve}より,提案手法(ベース:Espresso)はEspresso,Espresso+排他制約よりも性能が良く,また,提案手法(ベース:g-Espresso)はg-Espressoよりも性能が良いことがわかる.これより,提案手法は再現率を保ったまま,適合率を上昇させることが可能であると言える.\begin{table}[b]\caption{神社と寺カテゴリにおける各手法の獲得インスタンスの上位15個}\label{tab:table1}\input{09table01.txt}\end{table}適合率,再現率共に高いブートストラッピング手法に着目し,さらに詳しい分析を行う.まず,各手法における取得インスタンスの傾向を調べる.同じ兄弟グループに属する神社と寺カテゴリについて,各手法で反復を5回行った際の,獲得インスタンスのうち上位15個を表~\ref{tab:table1}に示す.なお,表~\ref{tab:table1}ではインスタンスを正解と誤りに分けて記している.表~\ref{tab:table1}によると,EspressoとEspresso+排他制約は多くの誤りインスタンスを獲得しているが,誤りの傾向には違いがある.Espressoは「八幡宮」や「太宰府天満宮」,「浅草寺」など,いくつかのインスタンスを神社と寺カテゴリの両方に属するものとしてしまっている.これに対して,Espresso+排他制約はインスタンスが複数カテゴリに所属しないように,インスタンスの属するただ1つのカテゴリを選択しており,Espressoのような誤りは発生していない.すなわち,排他制約は意味ドリフトを緩和する効果があることがわかる.しかしながら,Espresso+排他制約は寺カテゴリにおいて,「袋屋醤油店」や「あだしのまゆ村」など,対象カテゴリとは無関係のインスタンスを多く獲得してしまっている.提案手法は兄弟グループの共通性についての知識を利用することにより,このような誤りインスタンスを除去することに成功している.この結果から,兄弟関係は集合拡張に対して,有用な情報であることがわかる.\newcommand{\ThreeLine}[3]{}\begin{table}[p]\caption{反復を5回行った際の各カテゴリにおける各手法の適合率}\label{tab:table2}\input{09table02.txt}\end{table}反復を5回行った際の,各カテゴリにおける各手法の獲得インスタンスの適合率を表~\ref{tab:table2}に記す.また表~\ref{tab:table2}には提案手法の適合率の,Espressoからの上昇率も示した.さらに,それぞれの兄弟グループでのフィルタパターンのうち,上位3つをそのスコアとともに記した.表~\ref{tab:table2}より,提案手法とEspresso+排他制約は多くのカテゴリにおいてEspressoよりも適合率が上昇していることがわかる.この結果は,カテゴリ間の排他関係と兄弟関係は集合拡張の精度を向上させることを示している.しかしながら,いくつかのカテゴリにおいては適合率が下がっており,兄弟関係の知識が有効に働いていないようである.この原因は以下の2つに分類されると考えられる.\begin{enumerate}\itemフィルタパターンのスコアが低い\label{case1}\itemベースラインでの適合率が高い\label{case2}\end{enumerate}\begin{figure}[b]\begin{center}\includegraphics{20-2ia9f6.eps}\end{center}\caption{各兄弟グループで取得したフィルタパターンのスコアの最大値と適合率の上昇率}\label{fig:figure5}\end{figure}(\ref{case1})の場合は自動車メーカーと医薬品メーカー,美術館と劇場など,兄弟グループのカテゴリすべてで適合率が下がっている.例えば,自動車メーカーと医薬品メーカーカテゴリについては,Espressoと比べ,適合率がそれぞれ14.44\%,2.22\%下がっている.この2つのカテゴリを含む兄弟グループでは,最もスコアの高いフィルタパターンでさえスコアが0.1837とかなり低い.各兄弟グループで取得したフィルタパターンのスコアの最大値と,その兄弟グループの適合率のEspressoからの上昇率を図~\ref{fig:figure5}に記した.さらに図~\ref{fig:figure5}には一次近似曲線を引き,スコアと上昇率の相関を示した.この図より,取得したフィルタパターンのスコアの最大値が低いほど上昇率が下がり,スコアが0.6以下の場合にはEspressoよりも精度が悪くなることがわかる.フィルタパターンのスコアとは,兄弟グループの共通性を表したパターンをフィルタパターンとして取得できるよう,兄弟グループのシードインスタンスを用いて計算されたものである.つまり,取得したフィルタパターンのスコアが低いということは,提案手法がフィルタパターンに必要な要素である,網羅性と平等性を持つパターンを見つけられなかったことを示唆している.網羅性と平等性を持つパターンを獲得できなかった原因は,自動車メーカーと医薬品メーカーなど共通性の少ないカテゴリを兄弟グループとしてしまったためであると考えられる.兄弟グループの選択による提案手法への影響については,今後調査していきたい.映画監督やコメディアンカテゴリは~(\ref{case2})にあてはまる.(\ref{case2})の場合,Espressoにおいて意味ドリフトは起こっていないにもかかわらず,提案手法はフィルタを適用し,正解インスタンスを削除してしまっている.言い換えれば,提案手法は誤りインスタンスよりも正解インスタンスを多く除去してしまっている.この原因としては,フィルタパターンはシードインスタンスによってのみ決定されるため,ブートストラッピングの反復中に新たに抽出したインスタンスによってもたらされる,兄弟グループの共通性を扱えていない可能性がある.これに対処するために,ブートストラッピングの反復中にフィルタパターンを更新することが必要であると考えられる.しかし,新たに獲得したインスタンスを用いてフィルタパターンを更新した場合,意味ドリフトを抑制する効果が失われてしまうことも考えられるため,更新は慎重に行わなければならない.フィルタパターンの更新方法については今後の課題である.
\section{まとめ}
本論文では,ブートストラッピングにおいて,カテゴリ間の兄弟関係を事前知識として利用する手法を提案し,兄弟関係が集合拡張に対して有用な知識であることを示した.実験では,提案手法はベースラインであるEspressoアルゴリズムと比べ,適合率を最大で4.4\%向上させた.しかしながら,\ref{discussion}節において述べた通り,提案手法にはいくつかの副作用もある.この副作用の原因は,共通性の少ない兄弟グループの設計と,フィルタパターンを更新しないためであると考えられる.これらの要因への対処は今後の課題である.また,本研究ではカテゴリ間の兄弟関係がカテゴリのインスタンスを収集する際に有用な情報であることを示したが,今後は,この手法を関係インスタンスの取得に拡張していきたい.すなわち,関係(例:{\itis-president-of}や{\itis-citizen-of})間にある含意関係や因果関係を利用して,関係インスタンスを獲得する手法を構築したい.\acknowledgment本研究は,文部科学省科研費(23240018),文部科学省科研費(23700159),およびJST戦略的創造研究推進事業さきがけの一環として行われた.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Abney}{Abney}{2004}]{Abney:2004:UYA:1105596.1105600}Abney,S.\BBOP2004\BBCP.\newblock\BBOQUnderstandingtheYarowskyAlgorithm.\BBCQ\\newblock{\BemComput.Linguist.},{\Bbf30}(3),\mbox{\BPGS\365--395}.\bibitem[\protect\BCAY{Bellare,Talukdar,Kumaran,Pereira,Liberman,Mccallum,\BBA\Dredze}{Bellareet~al.}{2007}]{Bellare_lightlysupervisedattribute}Bellare,K.,Talukdar,P.~P.,Kumaran,G.,Pereira,O.,Liberman,M.,Mccallum,A.,\BBA\Dredze,M.\BBOP2007\BBCP.\newblock\BBOQLightly-SupervisedAttributeExtraction.\BBCQ\\newblockIn{\BemProceedingsoftheAdvancesinNeuralInformationProceedingSystemsWorkshoponMachineLearningforWebSearch},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Cao,Jiang,Pei,He,Liao,Chen,\BBA\Li}{Caoet~al.}{2008}]{Cao:2008:CQS:1401890.1401995}Cao,H.,Jiang,D.,Pei,J.,He,Q.,Liao,Z.,Chen,E.,\BBA\Li,H.\BBOP2008\BBCP.\newblock\BBOQContext-AwareQuerySuggestionbyMiningClick-ThroughandSessionData.\BBCQ\\newblockIn{\BemProceedingsofthe14thACMSIGKDDInternationalConferenceonKnowledgeDiscoveryandDataMining},\mbox{\BPGS\875--883}.\bibitem[\protect\BCAY{Carlson,Betteridge,Kisiel,Settles,{HruschkaJr.},\BBA\Mitchell}{Carlsonet~al.}{2010a}]{Carlson10towardan}Carlson,A.,Betteridge,J.,Kisiel,B.,Settles,B.,{HruschkaJr.},E.~R.,\BBA\Mitchell,T.~M.\BBOP2010a\BBCP.\newblock\BBOQTowardanarchitecturefornever-endinglanguagelearning.\BBCQ\\newblockIn{\BemProceedingsofthe24thAAAIConferenceonArtificialIntelligence},\mbox{\BPGS\1306--1313}.\bibitem[\protect\BCAY{Carlson,Betteridge,Wang,{HruschkaJr.},\BBA\Mitchell}{Carlsonet~al.}{2010b}]{carlson-wsdm}Carlson,A.,Betteridge,J.,Wang,R.~C.,{HruschkaJr.},E.~R.,\BBA\Mitchell,T.~M.\BBOP2010b\BBCP.\newblock\BBOQCoupledSemi-SupervisedLearningforInformationExtraction.\BBCQ\\newblockIn{\BemProceedingsofthe3rdACMInternationalConferenceonWebSearchandDataMining},\mbox{\BPGS\101--110}.\bibitem[\protect\BCAY{Curran,Murphy,\BBA\Scholz}{Curranet~al.}{2007}]{Curran_minimisingsemantic}Curran,J.~R.,Murphy,T.,\BBA\Scholz,B.\BBOP2007\BBCP.\newblock\BBOQMinimisingsemanticdriftwithMutualExclusionBootstrapping.\BBCQ\\newblockIn{\BemProceedingsofthe10thConferenceofthePacificAssociationforComputationalLinguistics},\mbox{\BPGS\172--180}.\bibitem[\protect\BCAY{Etzioni,Banko,\BBA\Cafarella}{Etzioniet~al.}{2006}]{Etzioni:06}Etzioni,O.,Banko,M.,\BBA\Cafarella,M.~J.\BBOP2006\BBCP.\newblock\BBOQMachineReading.\BBCQ\\newblockIn{\BemProceedingsofThe21stNationalConferenceonArtificialIntelligenceandtheEighteenthInnovativeApplicationsofArtificialIntelligenceConference},\mbox{\BPGS\1517--1519}.\bibitem[\protect\BCAY{萩原\JBA小川\JBA外山}{萩原\Jetal}{2011}]{masato_hagiwara:2011}萩原正人\JBA小川泰弘\JBA外山勝彦\BBOP2011\BBCP.\newblockグラフカーネルを用いた非分かち書き文からの漸次的語彙知識獲得.\\newblock\Jem{人工知能学会論文誌},{\Bbf26}(3),\mbox{\BPGS\440--450}.\bibitem[\protect\BCAY{Hearst}{Hearst}{1992}]{Hearst:1992:AAH:992133.992154}Hearst,M.~A.\BBOP1992\BBCP.\newblock\BBOQAutomaticAcquisitionofHyponymsfromLargeTextCorpora.\BBCQ\\newblockIn{\BemProceedingsofthe14thConferenceonComputationalLinguistics},\mbox{\BPGS\539--545}.\bibitem[\protect\BCAY{小町\JBA工藤\JBA新保\JBA松本}{小町\Jetal}{2010}]{mamoru_komachi:2010}小町守\JBA工藤拓\JBA新保仁\JBA松本裕治\BBOP2010\BBCP.\newblockEspresso型ブートストラッピング法における意味ドリフトのグラフ理論に基づく分析.\\newblock\Jem{人工知能学会論文誌},{\Bbf25}(2),\mbox{\BPGS\233--242}.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1994}]{And94knparser}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQKNParser:JapaneseDependency/CaseStructureAnalyzer.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponSharableNaturalLanguageResources},\mbox{\BPGS\48--55}.\bibitem[\protect\BCAY{Mintz,Bills,Snow,\BBA\Jurafsky}{Mintzet~al.}{2009}]{Mintz:2009:DSR:1690219.1690287}Mintz,M.,Bills,S.,Snow,R.,\BBA\Jurafsky,D.\BBOP2009\BBCP.\newblock\BBOQDistantsupervisionforrelationextractionwithoutlabeleddata.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP},\mbox{\BPGS\1003--1011}.\bibitem[\protect\BCAY{Pantel,Crestan,Borkovsky,Popescu,\BBA\Vyas}{Pantelet~al.}{2009}]{Pantel:2009:WDS:1699571.1699635}Pantel,P.,Crestan,E.,Borkovsky,A.,Popescu,A.-M.,\BBA\Vyas,V.\BBOP2009\BBCP.\newblock\BBOQWeb-scaledistributionalsimilarityandentitysetexpansion.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\938--947}.\bibitem[\protect\BCAY{Pantel\BBA\Lin}{Pantel\BBA\Lin}{2002}]{Pantel:2002:DWS:775047.775138}Pantel,P.\BBACOMMA\\BBA\Lin,D.\BBOP2002\BBCP.\newblock\BBOQDiscoveringwordsensesfromtext.\BBCQ\\newblockIn{\BemProceedingsofthe8thACMSIGKDDInternationalConferenceonKnowledgeDiscoveryandDataMining},\mbox{\BPGS\613--619}.\bibitem[\protect\BCAY{Pantel\BBA\Pennacchiotti}{Pantel\BBA\Pennacchiotti}{2006}]{pantel-pennacchiotti:2006:COLACL}Pantel,P.\BBACOMMA\\BBA\Pennacchiotti,M.\BBOP2006\BBCP.\newblock\BBOQEspresso:LeveragingGenericPatternsforAutomaticallyHarvestingSemanticRelations.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\113--120}.\bibitem[\protect\BCAY{Pantel\BBA\Ravichandran}{Pantel\BBA\Ravichandran}{2004}]{pantel04}Pantel,P.\BBACOMMA\\BBA\Ravichandran,D.\BBOP2004\BBCP.\newblock\BBOQAutomaticallyLabelingSemanticClasses.\BBCQ\\newblockIn{\BemProceedingsofthe2004HumanLanguageTechnologyConferenceoftheNorthAmericanchapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\321--328}.\bibitem[\protect\BCAY{Pennacchiotti\BBA\Pantel}{Pennacchiotti\BBA\Pantel}{2011}]{Pennacchiotti:2011:ABT:2018936.2018955}Pennacchiotti,M.\BBACOMMA\\BBA\Pantel,P.\BBOP2011\BBCP.\newblock\BBOQAutomaticallyBuildingTrainingExamplesforEntityExtraction.\BBCQ\\newblockIn{\BemProceedingsofthe15thConferenceonComputationalNaturalLanguageLearning},\mbox{\BPGS\163--171}.\bibitem[\protect\BCAY{Sadamitsu,Saito,Imamura,\BBA\Kikui}{Sadamitsuet~al.}{2011}]{Sadamitsu:2011:ESE:2002736.2002876}Sadamitsu,K.,Saito,K.,Imamura,K.,\BBA\Kikui,G.\BBOP2011\BBCP.\newblock\BBOQEntitySetExpansionusingTopicinformation.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\726--731}.\bibitem[\protect\BCAY{Sadamitsu,Saito,Imamura,\BBA\Matsuo}{Sadamitsuet~al.}{2012}]{Sadamitsu:2012:PACLIC26}Sadamitsu,K.,Saito,K.,Imamura,K.,\BBA\Matsuo,Y.\BBOP2012\BBCP.\newblock\BBOQEntitySetExpansionusingInteractiveTopicInformation.\BBCQ\\newblockIn{\BemProceedingsofthe26thPacificAsiaConferenceonLanguage,InformationandComputation},\mbox{\BPGS\114--122}.\bibitem[\protect\BCAY{Smola\BBA\Kondor}{Smola\BBA\Kondor}{2003}]{b155}Smola,A.~J.\BBACOMMA\\BBA\Kondor,R.\BBOP2003\BBCP.\newblock\BBOQKernelsandRegularizationonGraphs.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonLearningTheoryandKernelMachines},\mbox{\BPGS\144--158}.\bibitem[\protect\BCAY{Sumida,Yoshinaga,\BBA\Torisawa}{Sumidaet~al.}{2008}]{SUMIDA08.618}Sumida,A.,Yoshinaga,N.,\BBA\Torisawa,K.\BBOP2008\BBCP.\newblock\BBOQBoostingPrecisionandRecallofHyponymyRelationAcquisitionfromHierarchicalLayoutsinWikipedia.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\2462--2469}.\bibitem[\protect\BCAY{Vyas\BBA\Pantel}{Vyas\BBA\Pantel}{2009}]{Vyas:2009:SES:1620754.1620796}Vyas,V.\BBACOMMA\\BBA\Pantel,P.\BBOP2009\BBCP.\newblock\BBOQSemi-AutomaticEntitySetRefinement.\BBCQ\\newblockIn{\BemProceedingsofthe2009HumanLanguageTechnologiesConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\290--298}.\bibitem[\protect\BCAY{Vyas,Pantel,\BBA\Crestan}{Vyaset~al.}{2009}]{Vyas:2009:HEC:1645953.1645984}Vyas,V.,Pantel,P.,\BBA\Crestan,E.\BBOP2009\BBCP.\newblock\BBOQHelpingEditorsChooseBetterSeedSetsforEntitySetExpansion.\BBCQ\\newblockIn{\BemProceedingsofthe18thACMConferenceonInformationandKnowledgeManagement},\mbox{\BPGS\225--234}.\bibitem[\protect\BCAY{Wang\BBA\Cohen}{Wang\BBA\Cohen}{2009}]{Wang:2009:ASI:1687878.1687941}Wang,R.~C.\BBACOMMA\\BBA\Cohen,W.~W.\BBOP2009\BBCP.\newblock\BBOQAutomaticSetInstanceExtractionusingtheWeb.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP},\mbox{\BPGS\441--449}.\bibitem[\protect\BCAY{Yarowsky}{Yarowsky}{1995}]{Yarowsky95unsupervisedword}Yarowsky,D.\BBOP1995\BBCP.\newblock\BBOQUnsupervisedWordSenseDisambiguationRivalingSupervisedMethods.\BBCQ\\newblockIn{\BemProceedingsofthe33rdAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\189--196}.\end{thebibliography}\begin{biography}\bioauthor{高瀬翔}{2012年東北大学工学部情報知能システム総合学科卒業.同年,同大学大学院情報科学研究科博士前期課程に進学,現在に至る.自然言語処理の研究に従事.}\bioauthor{岡崎直観}{2007年東京大学大学院情報理工学系研究科・電子情報学専攻博士課程修了.同大学院情報理工学系研究科・特別研究員を経て,2011年より東北大学大学院情報科学研究科准教授.自然言語処理,テキストマイニングの研究に従事.情報理工学博士.情報処理学会,人工知能学会,ACL各会員.}\bioauthor{乾健太郎}{1995年東京工業大学大学院情報理工工学研究科博士課程修了.同研究科助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より東北大学大学情報科学研究科教授,現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL,AAAI各会員.}\end{biography}\biodate\end{document}
| |
V23N01-03 | \section{はじめに}
近年Twitterによる人間同士の短文のやりとりを始めとしたインターネット上の大量の会話データから自動知識獲得\cite{Inaba2014}が可能になったことや,高性能な音声認識機能が利用可能なスマートフォン端末を多くの利用者が所有するようになったことで,雑談対話システムへの関心が,研究者・開発者側からも利用者側からも高まっている.対話システムが扱う対話は大きく課題指向対話と非課題指向対話に分けられるが,雑談は非課題指向対話に分類される.課題指向対話との違いについていえば,課題指向対話では対話によって達成する(比較的)明確な達成目標がユーザ側にあり,一般に食事・天気など特定の閉じたドメインの中で対話が完結するのに対し,雑談では,対話をすること自体が目的となり,明確な達成目標がないなかで多様な話題を扱う必要がある.また,課題指向対話では基本的に対話時間(目標達成までの時間)が短い方が望ましいのに対し,雑談ではユーザが望む限り対話を長く楽しめることが望まれる.そのため,適切な応答を返すという点において,雑談対話システムは,課題指向対話とは異なる側面で,様々な技術的困難さを抱える.これまで,雑談対話システムの構築における最も大きな技術的障壁の1つは,多様な話題に対応する知識(応答パターン)を揃えるコストであった.上記のように,この問題はインターネットからの自動獲得によって解消されつつある.また,ユーザを楽しませる目的\cite{Wallace2004,Banchs2012,Wilcock2013}だけであれば,システムがおかしな発言をしてしまうことを逆手にとって,適切な応答を返しつづける技術的な困難さを(ある程度)回避してしまうことも可能である.その一方で,雑談対話には,ユーザを楽しませるという娯楽的な価値だけでなく,ユーザとシステムの間の信頼関係の構築\cite{Bickmore2001}や,ユーザに関する情報(ユーザの好みやユーザの知識の範囲)をシステムが取得することでユーザによりよいサービスを提供することを可能にする\cite{bang2015},遠隔地にいる老齢ユーザの認知・健康状態を測定したり認知症の進行を予防する\cite{Kobayashi2011},グループ内のコミュニケーションを活性化し人間関係を良好にする\cite{Matsuyama2013},といった工学的・社会的価値が存在する.このため,情報爆発,少子高齢化,生活様式の多様化と急激な変化による人間関係の複雑化といった諸問題を抱える現代社会において,雑談対話技術の更なる高精度化,すなわち適切な応答を返しつづける能力の向上が今まで以上に求められている.雑談対話の高精度化のためには,現状の技術の課題をエラー分析によって特定することが必要である.しかしながら,課題指向対話,特に音声対話システムにおける,主に音声誤認識に起因するエラーに関しては一定量の先行研究が存在するが,テキストのレベルでの雑談対話に関するエラーの研究はまだ少なく,エラー分析の根本となる人・機械間の雑談対話データの蓄積もなければ,そのデータに含まれるエラーを分析するための方法論・分類体系も十分でない.雑談対話システムがその内部でエラーを起こせば対話の破綻が起こり,ユーザが円滑に対話を継続することできなくなる.しかし,対話システムは,形態素解析,構文解析,意味解析,談話解析,表現生成など多くの自然言語処理技術の組み合わせによって実現され,かつシステム毎に採用している方式・構成も異なるため,システム内部のエラーを直接分析することは困難であるし,システム間で比較したり,知見を共有することも容易ではない.そこで我々はまず雑談対話の表層に注目し,破綻の類型化に取り組んだ.本論文では,対話破綻研究を目的とした雑談対話コーパスの構築,すなわち人・機械間の雑談対話データの収集と対話破綻のアノテーションについて報告する.そして,構築したコーパスを用いた分析によって得た破綻の分類体系の草案を示し,草案に認められる課題について議論する.以降,\ref{sec:data}節で対話データの収集について説明する.今回,新たに対話データ収集用の雑談対話システムを1つ用意し,1,146対話の雑談対話データを収集した.\ref{sec:annotation1}節及び\ref{sec:annotation2}節では,上記の雑談対話データに対するアノテーションについて述べる.24名のアノテータによる100対話への初期アノテーションについて\ref{sec:annotation1}節で説明し,その結果を踏まえて,残りの1,046対話について,異なりで計22名,各対話約2名のアノテータが行ったアノテーションについて\ref{sec:annotation2}節で説明する.\ref{sec:categorization}節では,\ref{sec:annotation2}節で説明した1,046対話に対するアノテーション結果の分析に基づく,雑談対話における破綻の類型について議論する.\ref{sec:relatedwork}節で関連研究について述べ,\ref{sec:summary}節でまとめ,今後の課題と展開を述べる.
\section{雑談対話データの収集}
label{sec:data}本研究は,ProjectNextNLPの対話タスク\cite{NextNLPWS}の活動の一部として行われた.そのため,データ収集も対話タスクの参加者を中心に行った.本タスクに参加したのは,表\ref{members}に示す大学・企業を含む15の拠点からの総勢32名である.これは,対話システムに関する国内のプロジェクトとして最大級の規模である.雑談対話の収集は,本研究のために新たに設けた専用のWebサイト\footnote{http://beta.cm.info.hiroshima-cu.ac.jp/{\textasciitilde}inaba/projectnext/}で行った.このWebサイトでは,NTTドコモが一般公開している雑談対話API\cite{oonishi}\footnote{https://www.nttdocomo.co.jp/service/developer/smart{\_}phone/analysis/chat/}を用いた雑談対話システムが稼動しており,Webブラウザでアクセスすることで,テキストでの雑談を行える.このサイトでは,ユーザが10発話を入力すると対話が終了し,対話ログが出力されるようになっている.サイト側ではユーザ管理を行っておらず,ユーザが自己の対話を纏めて後日提出することによって,ユーザと対話ログの対応が取れるようになっている.図\ref{screen}に雑談対話収集サイトのスクリーンショットを示す.\begin{table}[b]\caption{対話タスクの参加状況}\label{members}\input{03table01.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{23-1ia3f1.eps}\end{center}\caption{雑談対話収集サイトの画面}\label{screen}\end{figure}各拠点の参加者および参加者の知人にこの雑談対話システムと対話をしてもらい,全部で1,146対話を収集した.\mod{収集は2014年8月2日から31日の間に行った.}対話をする際には,図\ref{10commandments}に示す「対話ガイドライン(10箇条)」に沿うように教示をした.これは,現状の雑談対話システム技術が成熟していないこともあって,破綻だらけの対話ばかり収集されてしまわないためである.\begin{figure}[t]\begin{center}\includegraphics{23-1ia3f2.eps}\end{center}\caption{対話ガイドライン(10箇条)}\label{10commandments}\end{figure}\begin{table}[t]\caption{収集された雑談対話データの統計情報}\label{stats}\input{03table02.txt}\vspace{4pt}\small形態素解析にはMeCabのversion0.996\mod{(辞書はipadic-2.7.0-20070801)}を使用した.システム発話数は12,606となっているが,これは最初のプロンプト発話の1,146とユーザへの返答の11,460を合わせた値である.\end{table}ユーザ毎の対話数は1から40までばらつきがあるが,全体のユーザ数は100名を超えて\mbox{いる.}表\ref{stats}は収集された雑談対話データの統計情報である.収集した雑談対話の一例を以下に示す.\linebreakSはシステム発話,Uはユーザ発話を表す.\vspace{\baselineskip}\begin{itemize}\itemsep=-1mm\item[S:]こんにちは!声かけてくれるのを待ってたんだ。\item[U:]今日は最高気温36度だって。暑いねえ\item[S:]最高気温は17度が予想されます??\item[U:]いやいや猛暑ですよ\item[S:]猛暑に備えてますか?\item[U:]うん、日傘さしたり、水飲んだり、クーラー入れたりしてる\item[S:]クーラーは快適ですね\item[U:]うん、会社だと朝はつけられないから死にそう\item[S:]会社は冷房が効きますよねえ\item[U:]昼間は効くね。ここはパソコンがいっぱいあるからないと大変\item[S:]動きが悪いです\item[U:]そうなの?こっちは快適だよ\item[S:]パソコンは使い勝手が悪いです\end{itemize}
\section{初期アノテーション}
label{sec:annotation1}収集した雑談対話データ全体に対して対話破綻をアノテーションする前に,その一部について初期アノテーションを行った.具体的には,1,146対話からランダムに100対話を抽出し,タスク参加者の中で全100対話のアノテーションを行える24人によってアノテーションを行った.\mod{作業期間は2014年10月7日から17日の間である.}このアノテーションの目的は,残りの1,046対話に対して,1対話あたり何人のアノテータを割り当てるのが妥当かを検討することである.ここで作成したデータセットのことを以後{\bfinit100}と呼ぶ.アノテーションについては,どのようなエラーがあるのかを網羅的に分析したいという目的に鑑み,トップダウンな破綻の分類は示さず,直感に従って\maru・\sankaku・\batsuの3分類でアノテーションするように指示した.それぞれの意味は以下の通りである.\vspace{\baselineskip}\begin{description}\setlength{\labelsep}{0.25zw}\item[\maru\破綻ではない:]当該システム発話のあと対話を問題無く継続できる.\samepage\item[\sankaku\破綻と言い切れないが,違和感を感じる発話:]当該システム発話のあと対話をスムーズに継続することが困難.\samepage\item[\textmd{\batsu}\明らかにおかしいと思う発話(破綻):]当該システム発話のあと対話を継続することが困難.\samepage\end{description}\vspace{\baselineskip}多人数でアノテーションする場合には,\maru\batsuの判断の分布によりそれらの中間状態を表現できるため,必ずしも\sankakuのような中間レベルを表すカテゴリを用意する必要はないが,アノテータが\maruか\batsuかを迷うケースで判断に時間がかからないようにする目的で\sankakuを導入した.アノテーションには,図\ref{tool}に示す専用のツールを使用した.ツールでは,非文のチェックの他に,各発話に対してコメントを記入できるようになっている.また,先行する文脈のみに基づいて対話破綻のアノテーションが出来るように,1発話アノテーションする毎に,次のユーザ発話とシステム発話が表示されるようになっている.なお,破綻(\sankakuあるいは\batsu)とタグをつけた後の発話をどうアノテーションするかについては,対話の先頭から,破綻とタグ付けされた発話を含むこれまでの文脈を「ありき(与えられたもの)」として,アノテーションするように教示した.すなわちアノテータは,破綻があったところで対話がリセットされたとはせず,破綻も含めて先行文脈として作業を行った.\begin{figure}[b]\begin{center}\includegraphics{23-1ia3f3.eps}\end{center}\caption{雑談データ用破綻アノテーションツール}\label{tool}\end{figure}非文の定義は,「文法エラーなどにより日本語としての意味をなさない文」とし,会話体で許容される程度の「助詞落ち」や「ら抜き」は非文に該当しないとした.また,全く意味が通らない発話であれば当然\batsuを付けることになるが,非文であっても発話意図が汲み取れるのであれば,\maruや\sankakuを付けてもよいとした.\subsection{非文の割合}使用した対話システム\cite{oonishi}の応答生成は,人がすべて確認したテンプレートによるものではないので,非文の発生を完全に無くすことはできない.そこで,アノテーション時の非文のチェックの結果に基づき,文法レベルでの対話コーパスの品質を確認しておく.\begin{table}[b]\caption{init100における非文の分布}\label{nonsentence}\input{03table03.txt}\end{table}最初のプロンプトを除くシステム発話全1,000発話において非文のチェックが付けられた発話の分布を表\ref{nonsentence}に示す.表\ref{nonsentence}の1行目は,ある発話に対して非文と判断したアノテータの数を表す.2行目は各人数のアノテータに非文と判断された発話の数を表す.1人でも非文と付けた発話は1,000発話中127あったが,過半数(13人以上)が非文と付けたものはわずか7発話しかなかった.実際のデータを見ると,非文と判定したのが数名である発話はどれもアノテーション指示者からみて非文と判断するようなものではなかった.(「ルールは多いです」「価値観は欲しいです」「話し相手に飢えます」など,不自然ではあるが『日本語としての意味をなさない文』とまでいえない発話であった).仮に過半数以上が非文としたものを真の非文とし,それ以外をアノテーションの誤りとすれば,init100での非文の発生率は1\%未満である.今回の初期アノテーションでは,24人全員が100対話を同じ順序でアノテーションしている.その中で最も非文であると判定したアノテータが多いシステム発話は「熱中症に気をつけか??」というものであった.この発話は100対話中で4回発生しており,4発話に対して非文とチェックした人数は,出現順で19人,17人,13人,9人であった.つまり過半数が破綻と付与した7発話のうち3発話は同一の発話であった.同一内容の発話に対して「非文」とアノテーションした人数が大きくばらついているのは,既に非文と付けた発話に対する非文のチェックをアノテータが省略したことが原因と思われる.非文のチェックは,任意とも指示していないが,厳守するようにも指示しなかった.また,非文のチェックボックスは任意入力のフィールドであったコメント欄の直前に置かれていた(図\ref{tool}参照).このため,非文のチェックがアノテーションの主たる目的ではなく補助的な作業であったことから,後の方になるほどチェックを省略されてしまった可能性が高い.その事を考慮して,仮に四半(7人)以上が非文と判定したものを「真の非文」と考えても,非文の発生率はおよそ2\%である.このことから,今回のデータ中のシステム発話の品質は,個々の発話の日本語文法のレベルでは,当面の研究に必要なレベルが担保されていると考える.\subsection{アノテータ間の一致度の分析}init100に対して,24人のアノテータが付与したラベル\maru,\sankaku,\batsuの割合を表\ref{distribution}に示す.24人のアノテータ間の一致の程度を測るためにFleissの$\kappa$を算出すると,$0.276$であった.\cite{Landis77}も参考にすると,この値の解釈は「ランダムではないが,よく一致しているともいえない」とするのが妥当である.\sankakuを\batsuに含めて,2値のアノテーションとして計算すると,$0.396$とやや一致の具合が高まる.\sankakuを\maruに含めると$\kappa$は0.277にしか改善されないため,\sankakuは\batsuにより近いことが分かる.\begin{table}[b]\caption{init100中の\maru\sankaku\batsuの発生割合(発生数)}\label{distribution}\input{03table04.txt}\end{table}24人のアノテータをCohenの$\kappa$値をもとにWard法で階層クラスタリングを行うと,図\ref{cluster}のようになった.距離の定義やクラスタリングの手法を変えると,2つのクラスタの中でのまとまり方は細かく変わるものの,大きな2つのクラスタ間での移動はほとんど見られなかった.図~\ref{wariai_distribution2}に示す24人のアノテータの分布を見ると,\maruをつける傾向の大小で,前述の2クラスタが分かれていることが見て取れる.2つのクラスタの中でのFleissの$\kappa$を求めると,それぞれ$0.414$(11人)と$0.474$(13人)であり,これらの値は「適度に一致している」と解釈できる.前者,図\ref{cluster}の左側のクラスタ,をC1と呼ぶ.このクラスタは\maruを多く付けるアノテータのクラスタである.後者,同右側のクラスタ,をC2と呼ぶ.このクラスタは\maruを少なく付ける破綻に厳しいアノテータのクラスタである.\begin{figure}[b]\begin{center}\includegraphics{23-1ia3f4.eps}\end{center}\caption{アノテータのクラスタリング結果(番号はアノテータID)}\label{cluster}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{23-1ia3f5.eps}\end{center}\caption{アノテータ毎の\maru\sankaku\batsuを付与した割合(横軸はアノテータID)}\label{wariai_distribution2}\end{figure}表\ref{annotators_attributes}に,24人のアノテータの属性(性別,年齢層,職業,関係性)の分布を示す.職業の「学生」は大学生および大学院生,教員は大学教員を指す.関係性の「当事者」は,対話タスクに参加している研究者(会社員,教員,学生)のことで,関係者は,対話タスクには直接参加していないが,前述の当事者と同じグループで対話システムに普段から関わりのある仕事をしていることを意味する.無関係は,当事者と知己であるが,対話システムの研究開発とは普段関わりがないことを指す.性別・年齢層には,C1とC2の間に目立った違いは見て取れない.職業・関係性をみると,教員・当事者がC1側にやや多い印象を受けるが,Fisherの正確確率検定ではC1,C2間に統計的に優位な差はない(いずれも$p>.2$).従って,表\ref{annotators_attributes}に示した属性だけでは,新規のアノテータがどちらのグループに属するかを予測することは難しく,実際にアノテーションを行ってもらって傾向を把握するしかない.\begin{table}[b]\caption{アノテータの属性分布}\label{annotators_attributes}\input{03table05.txt}\end{table}24人のアノテータからランダムに$N$人を選び出したとき,ラベルの分布がどれだけ全体の分布から離れているのかを表したグラフを図\ref{plot}に示す.横軸は$N$の数で,縦軸はKullback-Leiblerdivergenceの対称平均の値である.黒丸が1,000回サンプリングした際の平均値を示す.下向き三角は1,000回中の最大値,上向き三角は1,000回中の最小値を表す.アノテータが1人から2人になる段階で,平均値からの乖離は半分近く縮まり,あとは,なだらかに24人の分布に近寄っていくことが分かる.\begin{figure}[b]\begin{center}\includegraphics{23-1ia3f6.eps}\end{center}\caption{24人のラベル分布とランダムサンプリングした$N$人のラベル分布の異なり}\label{plot}\end{figure}図\ref{hist}に,\maru\sankaku\batsuの各ラベルを付与された数毎の発話数のグラフを示す.左側のグラフは集計結果をそのまま示したもので,横軸が,ある発話について付与された特定のラベルの数(0から24)を表し,縦軸が,そのような発話の度数を表す.右側のグラフは,解り易さのため,左側のグラフを加工したものである.0から24までのラベルの数を5区間に区切り,各区間の積算値をプロットしてある.このグラフから,破綻ラベル\batsuが過半数以上に付与されてる発話の数は少なく,人により揺れが大きいことが読み取れる.また過半数以上が\sankakuを付与している発話はほとんどないことも分かる.\maruについては一致し易いが,\sankaku\batsuについて一致しにくいということを表している.\sankakuと\batsuを併せて計数した場合のグラフは,図中の\maruのグラフを左右反転させたものに等しくなる.\begin{figure}[t]\begin{center}\includegraphics{23-1ia3f7.eps}\end{center}\caption{各ラベルを付与された数毎の発話数(横軸:付与されたラベルの数,縦軸:発話の度数)}\begin{center}\small左図:元データ,右図:5区間に集約した結果\end{center}\label{hist}\end{figure}\maruの数と,\sankakuと\batsuを併せた数とが12対12で半分に割れた発話の分析も行った.すると,表面的には間違ってるとは言えないけれども,違和感がありそうな応答が多かった.「こういうことは普通ここでは言わない」という印象は持つものの,なぜそれを言わないかの説明が難しいものが多い.また,発言の意図が読みにくそうな発話,ユーザの話を聞いていないと感じられる発話,社会的に問題がある発話,ふざけているようにも見える発話なども判断が割れていた.これらの判定を分析することは,対話における認知の研究として学術的に面白い課題となり得る.以下は,評価が半分に割れた発話(下線部)を含む対話の例である.\begin{itemize}\itemsep=-1mm\item[U:]他に好きな楽器はありますか?\item[S:]サックスがいいですね\item[U:]サックスは木管楽器なんですよね\item[S:]相性がいいですね\item[U:]台風は大丈夫でしたか\item[S:]台風は必要です\item[U:]雨は必要ですよね\item[S:]\underline{朝から雨が降るのです}\end{itemize}\noindentこれは発話の意図が読みにくいため,「それがどうしたのか」という印象を受ける発話である.\vspace{\lineskip}\begin{itemize}\itemsep=-1mm\item[U:]夏って感じがします\samepage\item[S:]海は騒がしいですよねえ\samepage\item[U:]海に行くと盛り上がりますもんね\samepage\item[S:]海は静かなんですよねー\samepage\item[U:]騒がしいのか静かなのかどっちですか\samepage\item[S:]\underline{海はサイコーですよねえ}\samepage\item[U:]サイコーですねえ\samepage\end{itemize}\noindentこれは人によっては,質問に答えずにごまかしているように感じられるだろう発話である.\subsection{コメントに基づく破綻の分類}\label{commentcats}init100中の一部の対話について,アノテータによって対話破綻箇所に付与されたコメントを人手で分類したところ,大きく「同じ内容の繰り返し」「矛盾した内容」「発話として唐突」「ユーザ発言内容の無視」「質問に答えていない」に分類できることが分かった.\begin{description}\item[同じ内容の繰り返し]{表層としては少し異なっていたとしても内容として同じものを繰り返す場合,破綻とアノテーションされることが多かった.たとえば,「美味しいですね」「いいですね」などと同じような発話を繰り返す場合である.}\item[矛盾した内容]{システム発話間で矛盾が見られる場合は破綻とされることが多かった.たとえば,「イチゴが好き」という発言の直後に「リンゴが好き」と発言するなど,一貫性を欠く発話は問題視された.}\item[発話として唐突]{「おはようございます」に対して「明けましておめでとうございます」のように,文脈とは関係のない発言を突然行うことがあり,このような発話は破綻とされていた.}\item[ユーザ発言内容の無視]{対話はお互いが協調して進めていくものであるので,ユーザ発話を全く受けずにシステムが発話を行った場合には対話の破綻とみなされることが多かった.たとえば,旅行の話をしていて「車で行きましょう」とユーザが話しかけたのに「車はかっこいいですね」と車そのものについて言及したりする場合である.}\item[質問に答えていない]{ユーザ発言内容の無視に近いが,特に質問に答えていないものが破綻とされていた.たとえば,「チワワは欲しいですね」とシステムが話し,それに応じてユーザが「飼う予定はあるの?」と質問したが,システムは「チワワはいいらしいですよ」と答えたような場合である.}\end{description}\noindent上記以外にも口調の唐突な変化などが,問題のある現象として観察された.さらに詳しい分類については\ref{sec:categorization}節で述べる.
\section{残りの対話へのアノテーション}
\label{sec:annotation2}init100に対するアノテーション結果について,タスク参加者で議論を行った結果,残りの1,046対話(以後,\textbf{rest1046}と呼ぶ)のアノテーションについては,1対話につき2人で実施するという結論に至った.2名とした理由は以下の通りである.\begin{itemize}\item人的・経済的コストの面から,アノテーションにかかる作業量は最小限が望ましい.\itemアノテーションのコストを最小化できるのは1名でアノテーションを行う場合であるが,この場合,アノテータ間の揺れのために,破綻とされるべき発話が見逃されてしまう可能性がある.よって,複数名が望ましい.\item前述の分析でアノテータは大きく2つのクラスタに分かれることが分かっている.これらの2つのクラスタから1名ずつ割り当てることで,見逃しを最も効率的に減らせる可能性がある.\end{itemize}実際に,init100にアノテーションをした24人からランダムに$N$人をランダムに選んだ場合と,C1とC2の両クラスタから$N/2$人ずつ選び出した場合とで,図\ref{plot}と同じ方法でラベル分布の距離を比較すると,図\ref{cluster_vs_random}に示す結果になる.C1,C2のクラスタから1人ずつ,計2名選んだ場合の結果は,全体からランダムに3人選んだ場合と4人選んだ場合の中間程度になっており,より少ない人数で全体での分布に近い結果を得られることが分かる.\begin{figure}[b]\begin{center}\includegraphics{23-1ia3f8.eps}\end{center}\hangcaption{24人のラベル分布とランダムサンプリングした$N$人のラベル分布の異なりの比較:完全にランダムな場合(random)と,クラスタC1・C2を考慮した場合(cluster)}\label{cluster_vs_random}\end{figure}1,046対話をランダムに11個のサブセット(a--k)に分割した.a--jの10個のサブセットはそれぞれ100対話を含み,最後のサブセットkだけが46対話を含む.アノテーションには,22名のアノテータの協力が得られることになった.22名のうち19名が,init100に対するアノテーションに参加していたアノテータである.まずこの19名について,図\ref{cluster}のクラスタに基づき,2つの大クラスタC1およびC2からなるべく1名ずつのアノテータが割り当てられるように,サブセットkを除く10サブセットに割り当てた.その後残りの3名を同10サブセットに割り当てた.1名当りの分担量を2サブセットと固定して22名を10サブセットに割り当てたので,i,jの2つのサブセットだけ3名のアノテータを割り当てた.サブセットkについては,余力のある2名に割り当てた.アノテータが各対話にアノテーションを行う方法は,init100の場合(\ref{sec:annotation1}節)と同じである.アノテーションの結果の分布を表\ref{distribution2}に示す.init100よりも,\sankakuの割合が増えているが,\sankakuと\batsuを併せて見た場合には,init100のときとほぼ同じ分布と考えられる.また,各サブセット毎のFleissの$\kappa$値を表\ref{11kappa}に示す.\mod{2名のアノテータが同じ判断傾向を持つかどうかによって,サブセット間で$\kappa$値にばらつきが生じているが,全体平均としてはinit100とほぼ同じ値になっている.}\begin{table}[b]\caption{rest1046中の\maru\sankaku\batsuの発生割合(発生数)}\label{distribution2}\input{03table06.txt}\end{table}\begin{table}[b]\caption{サブセットa--k毎のFleissの$\kappa$値(i,jのみ3名でのアノテーション,その他は2名ずつ)}\label{11kappa}\input{03table07.txt}\vspace{4pt}\small\hfill(*マクロ平均)\end{table}rest1046全体について,2名のアノテータが付けたラベルの組み合わせ毎の頻度と割合を\mod{図\ref{confusion}に示す}(計算にあたりサブセットi,jの3人目のアノテーションは利用していない).先に述べたように,アノテータは\maruを多く付ける傾向のクラスタC1と,そうでないクラスタC2とに大きく分かれており,各サブセットに割り当てるアノテータは,なるべく2つのクラスタから1名ずつ選ぶようにした.\mod{図\ref{confusion}}では,整合した判定である(\batsu,\batsu)の組よりも,矛盾した判定である(\maru,\batsu)の方が数が多くなってしまっているが,これは上記の割当の結果を反映しているもので想定内の結果であると同時に,破綻の捉え方が人によって異なることを改めて示している.rest1046のアノテーションに際しては,担当する対話の最初の5対話と最後の5対話,計10対話だけ,\sankaku,\batsuをつけた箇所には,必ずその判断理由をコメントとして書くことを求めた.\pagebreakこれにより,総数で3,748個,異なりで2,468個のコメントを得た.\mod{アノテーション作業は2014年12月2日から20日の間に行った.}\begin{figure}[t]\begin{center}\includegraphics{23-1ia3f9.eps}\end{center}\caption{2名のアノテータによるラベルの組み合わせの頻度と割合}\label{confusion}\end{figure}
\section{対話破綻の類型化}
label{sec:categorization}本節では,収集したデータを基に策定を進めている対話破綻の分類体系の,現時点での案と課題について議論する.\ref{sec:annotation1}節ではinit100に対して付与された\sankaku,\batsuの破綻アノテーションに付随するコメントを大まかに分類した結果を示したが,ここではそれを土台としつつ,rest1046に対して付与されたコメントを分析し,雑談対話における対話破綻の類型化を行った結果を示す.対話が,ある発話によって破綻するとき,原因はその発話だけにあるとは限らない.もちろん,その発話が文法的におかしなものであったり,意味がわからなかったりする場合もある.しかし,その発話が文として正しいものであったとしても,「相手の発話に対して,このように応答するのはおかしい」場合や,「前に言ったことと矛盾している」という場合においても,対話の継続が困難となる.このように,対話の破綻を分析するに当たっては,当該発話そのものに原因があるのか,または広い意味での文脈(直前の発話,対話履歴,状況なども含む)に原因があるのかを特定する必要がある.また,破綻が生じた原因が存在する範囲が同じであっても,その内容は様々である.必要な情報の欠落や曖昧性のために意味が特定出来ない場合や,意味が特定できても文脈と矛盾する場合,矛盾はしなくても冗長な場合などがある.そこでまず,破綻の根拠となっている情報に基づき大分類を決定し,その後,破綻の種類を表す小分類を決定した.大分類は,破綻を認定する際にどの範囲に関連した破綻であるかという基準で,以下の4つに決定した(図\ref{wg2}参照).\clearpage\begin{figure}[t]\begin{center}\includegraphics{23-1ia3f10.eps}\end{center}\hangcaption{大分類を決める基準(範囲の違いを模式化した図であり,図中の発話は必ずしも各ケースに実際に該当する発話ではない).太字は破綻と認定された発話.}\label{wg2}\end{figure}\begin{itemize}\item発話\\当該システム発話のみから破綻が認定できるケース.典型的には非文が該当する.「意味不明」というコメントの場合でも,この発話単独で意味がわからないのではなく,前の発話や文脈との関係で意味が取れない,というケースがあるので注意した.\item応答\\直前のユーザ発話と当該システム発話から破綻が認定できるケース.典型的には,発話対制約違反や,前発話の話題を無視した応答などが該当する.あくまでもそれまでの対話の流れは無視して,1つ前の発話との関係だけで判断した.\item文脈\\対話開始時点から当該システム発話までの情報から破綻が認定できるケース.典型的には,対話の流れから判断できる不適切な発話・矛盾する情報の提供・不要な繰り返しなどが該当する.\item環境\\破綻原因が,「環境」すなわち「外部要因」にあり,上記の3分類には当てはまらないケース.典型的には,一般常識に反するシステム発話が該当する.\end{itemize}\subsection{対話破綻の分類体系案}表\ref{wg4}に示す対話破綻の分類体系案を考案した.「発話」・「環境」の大分類については,検討の段階で多数を占めた「誤り」と分類される発話に対して,より分解能が高まるようにそれぞれ小分類を設定した.\begin{table}[t]\caption{分類体系草案}\label{wg4}\input{03table08.txt}\end{table}一方,「応答」・「文脈」の大分類においては,\cite{bernsen1996principles,dybkjaer1996grice}に倣い,対話における協調の原則であるGriceの公準\cite{gri:log}に基づき小分類を設定した.\mod{Griceの公準は,量・質・関係・様態の各公準からなるもので,対話において参与者が遵守するように期待されている原則である.つまり,ユーザの直前の発話あるいはこれまでの対話履歴を受けてなされるシステム発話が守ると期待されている原則であるので,一般的にはこの原則が守られていないと,ユーザはシステムの発話意図を推測することができずに,対話が破綻すると考えられる.}\cite{bernsen1996principles,dybkjaer1996grice}は,課題指向対話のエラー分析にGriceの公準を用いて,一定の成果を得ている.アノテータのコメントに「答えていない」「無視しすぎ」「唐突すぎる」といった「違反」を示唆するものが多かったことも,対話の「規範」であるGriceの公準を用いた理由の1つである.破綻を分類することの一義的な目的は,ユーザが破綻であると考えた箇所で,システム内部のどこに問題(エラー)があったのかを探ることであり,それを知ることによって,システムの改善が可能になる.しかしながら,一般にシステム内部でおきたエラーを対話の表面から直接特定することは難しい.\mod{そこで,システムが何をしてしまったのか(どういう問題行動をしたか)をGriceの公準に基づいて分類することを基本とした.ただし,問題行動の原因が比較的解り易いエラーについては,「応答」大分類中の「誤解」および「文脈」大分類中の「不追随」として追加した.}以下で,大分類毎に,小分類について事例を基に説明する.\subsubsection{「発話」の小分類}基本的に,システム発話の生成過程に問題がある場合が該当する.「非文」の概念に近い.\begin{itemize}\item構文制約違反(構文制約違反)\\必須格の欠如や助詞の誤りなどが原因で,発話内容が理解できないもの.\\例)「S:熱中症に気をつけか??」\item意味制約違反(意味制約違反)\\意味素性の異なる語の組合せなどが原因で,発話内容が理解できないもの.\\例)「S:便乗に重ねますよねえ」\item不適切発話(不適切発話)\\発話として機能を果たさないもの.\\例)「S:ちゅっちゅ」\end{itemize}\subsubsection{「応答」の小分類}前発話との関係において協調の原則が守られていない破綻を,Griceの公準に基づいて分類する.誤解は内部的なエラーであり,対話行動自体の問題ではないが,比較的解り易いので小分類として加えた.\begin{itemize}\item量の公準違反(情報過不足)\\前発話に対して,応答に含むべき内容が欠落している,あるいは,不要な内容が含まれており,これが会話の進行を阻害する場合.\\例)「U:ラーメンが好きです」→「S:豚骨で有名ですね」\item質の公準違反(不理解)\\前発話と矛盾する内容の発話.前発話の話題に追随しながらも,前発話で示された命題内容と矛盾する命題内容を含む場合.なお,意味理解の失敗などによって生じる「ずれ」を含む発話は,関係の公準違反とする.\\例)「U:最近,山登りを始めました」→「S:山登りが出来ないのですか?」\item関係の公準違反(無関係)\\発話対として不自然な発話で,これによって会話の継続ができなくなっている状況.あるいは,前発話の意味内容と関係しない内容の発話を行った場合.相手の発話を無視している状況を含む.\\例)「U:それでは,趣味はなんですか?」→「S:最後に旅行されたのはいつですか?」\item様態の公準違反(意図不明)\\発話意図の曖昧性のため,会話の継続ができなくなっている状況.\\例)「U:退屈は嫌いですか?」→「S:退屈は心ですね」\item誤解(誤解)\\内容の解釈エラーによって,不適当な発話になっている状況.多義語の意味の取り違いなどが該当する.\\例)「U:スイカを食べたらお腹を壊します」→「S:スイカで買い物できてるのですか?」\end{itemize}\subsubsection{「文脈」の小分類}基本的には,「応答」の小分類と同様の考え方で,協調の原則に対する違反で分類する.\begin{itemize}\item量の公準違反(不要情報)\\与える情報が何もない無情報発話,あるいは,これまでの文脈に出現した発話の不要な繰り返し.\\例)海に行っていないという文脈において:「S:海に行かないなあ」\item質の公準違反(矛盾)\\これまでの文脈と矛盾する内容の発話.また,これまでの話題に対する態度(Positive/Negativeの極性)が急に転換する発話.\\例)人間関係が薄いという文脈において:「S:人間関係は深いです」\item関係の公準違反(無関係話題)\\これまでの文脈における話題から逸脱する発話.話の主たる話題ではなく,直前のユーザ発話中の話題語でない単語から話を展開させてしまうような場合が典型例.\\例)定期券を無くすという文脈において:「U:首からかけておくとか?」→「S:左右に振りますよねえ」\item様態の公準違反(関連性不明)\\話題は継続しており,直前発話との関係だけで見ると意味が通るように見えるが,それ以前の文脈を踏まえると,その発話の意図が理解できない状況.\\例)薬の話題において:「S:薬は大丈夫ですね」\item話題展開への不追随(不追随)\\ユーザからの話題の展開が起こっているにも関わらず,それに追随できていない状況.\\例)ドイツの話題の後:「U:あなたは海外経験ありますか?」→「S:ドイツは小売価格が高いです」\end{itemize}\subsubsection{「環境」の小分類}会話の文脈以外の原因で生じた破綻を分類する.\begin{itemize}\item無根拠(共通基盤欠如)\\根拠のない,一方的な主張.\\例)「S:マグロは鮮度が悪いですよねえ」\item矛盾(一般常識欠如)\\一般的に正しいと信じられている常識と矛盾する発話.\\例)「S:熱中症はいいですね」\item非常識(社会性欠如)\\罵詈雑言など,対話相手との社会的関係を破壊する発話.あるいは口調(人格や社会的属性)が突然変化する発話.\\例)「S:プールはいいですね」→「U:探しとくね」→「S:知らんのかい」\end{itemize}\subsection{分類体系草案の課題}考案した分類体系は一見よく纏まっており,それなりの一致度で分類を行えることが期待できた.そこで,破綻アノテータが付けたコメントを参考にしながら,タスク参加者で予備的に破綻の分類を行ってみた.しかしながら,予想以上にアノテータ間で一致しないことがわかった($\kappa$値で0.1から0.3程度の範囲).個々人の主観に任せた破綻アノテーションでは低めの一致度でもよいが,破綻の分類についてはなるべく客観性の高い分類ができることが望ましい.破綻の分類においてアノテータ間の不一致が大きい原因が,主にアノテーションの手順や教示,アノテータの訓練不足などにあるのか,それとも分類体系自体にあるのか,まだはっきりしていないが,少なくとも以下のような課題が分かっている.\begin{itemize}\item検討に際しての分類作業は排他的に一発話・一分類で行ったが,複数の大分類に渡ると思われる破綻がいくつか見られた.例えば,非文・発話対制約違反・話題からの逸脱のように,複数の大分類に渡る破綻が同時に起こることがあり得る.\item発話の意味制約違反については,典型的な例は「発話」レベルのものと判断しやすいが,解釈次第であることも多い.例えば,「仕事は真面目ですね」という発話は,「仕事」を一般的な概念として捉えれば意味制約違反と判断できるが,ある個人の「業績・仕事ぶり」を意味すると解釈すれば,発話のレベルでは問題がないことになる.「文脈という概念を持ち込むと,文の意味と発話(話し手)の意味を区別することはもはやできない\cite{Levinson00}」という見方に立てば,そもそも意味制約違反の小分類を「発話」のレベルに設けることが不適切かもしれない.\item誤解は,直前の発話に対するものという定義から「応答」の大分類に含めていたが,実際には文脈まで見ないと誤解とは言えない場合も見つかった.これも「応答」でなく「文脈」に含めるか,あるいは「応答」「文脈」の両方に設ける必要があると思われる.\item分類の問題というよりは,多分に破綻の認定自体の問題であるが,読み手側の知識不足や,表現に対する不慣れによって解釈できなかったため,破綻とされていることもある.例えば,「みんっ」という発話は,意味のある表現に解釈できない人と,「見ない」という意味に解釈できる人がいる.この場合,結果的に,破綻の分類も人により異なってくる.\item「応答」「文脈」のレベルに導入したGriceの公準に基づく分類は,特に一致率が低かった.これは現状のシステムが出力する発話が,自分のことなのに伝聞で話すなどの不自然な様態や,対話相手のキャラクタが突然変わるなど,通常の人同士の対話で見られないようなものであるために,解釈が難しいことも一因であると考えている.Griceの公準に基づく類型化は,典型例の整理・説明には有用であっても,あまり典型的ではない破綻の分類には適していない可能性がある.そうだとすれば,小分類のレベルで,各公準違反を事例別にさらに細分化するか,あるいは別の視点での分類を用意する必要がある.\end{itemize}
\section{関連研究}
\label{sec:relatedwork}本研究では,非課題指向型対話(雑談対話)に焦点を絞っているが,課題指向型対話システムの文脈では対話システムのエラー分析は活発に行われてきており,いくつものエラーの分類体系が提案されている.まず,Clarkの提案するコミュニケーション階層モデルに基づくエラーの分類体系\cite{clark1996using}が挙げられる.Clarkによれば,コミュニケーションのエラーは4つのレベルからなっている.チャネルレベル,信号レベル,意図レベル,会話レベルである.チャネルレベルとはやり取りが開始されているかどうかに関わる.信号レベルとはシンボルのやり取りに関わり,意図レベルは対話相手の意図の認識に関わる.会話レベルは,共同行為に関わるものである.下位レベルのエラーが起きていれば,上位レベルでもエラーとなり(upwardcausality),上位レベルにエラーがなければ,下位レベルにエラーがないとされる(downwardevidence).このような階層に基づいて,会議室予約システムの不理解によるエラーを分析するという研究がなされている\cite{bohus2005sorry}.また,スマートホームとレストラン情報案内というドメインにおいて,同様の分析もなされている\cite{moller2007analysis}.PaekはClarkの4つの階層が対話システムのエラー分析に一般性を持っているということを,教育や医療といった複数分野での対話分析の事例から議論している\cite{paek2003toward}.本論文ではGriceの公準\cite{gri:log}をエラーの類型化に用いているが,課題指向型対話システムのエラー分析においてもGriceの公準は利用されてきた.Dybkj{\ae}retal.\shortcite{dybkjaer1996grice}およびBernsenetal.\shortcite{bernsen1996principles}はフライト情報案内システムのエラー分析をGriceの公準および独自の対話分析から得られた知見をもとにエラーの類型化を行っている.たとえば,Griceの公準以外の要素として,対話の非対称性,背景知識,メタ対話能力に関わるエラーが挙げられている.電話応答システムにおける対話評価の観点として,Griceの公準に基づく要素を導入することも提案されている\cite{moller2005parameters}.特定のモデルや理論をベースにするのではなく,特定のシステムや対話ドメインの対話を綿密に分析することによりエラーを類型化した例も多い.AberdeenandFerroはフライト情報案内システムの分析により,命令に応答しない,何度も同じプロンプトを表示するなどのエラーに類型化している\cite{aberdeen2003}.また,Greenらによって対話機能を持つサービスロボットについてもエラー分析がされており,ロボットに特有のエラーとして,動作と発話のタイミングがずれるというエラーや,指さしなどのポインティング動作のエラーなどが独自のカテゴリとして分類されている\cite{green2006integrating}.Dzikovskaらは,教育対話システム(tutoringsystem)のエラーの類型化を行っている\cite{dzikovska2009dealing}.対話システムはいくつかのモジュールから構成される.このため,エラーの類型化の一つの方法として,エラーを起こしたモジュールがどれかによって分類する研究もある\cite{ward2005root}.たとえば,音声認識,音声理解,発話生成,音声合成といった単位でエラーを類型化する.音声認識によるエラーが多ければ,音声認識モジュールを改善すればよいという方針に繋がる.モジュール構成が明確で,各モジュールのエラーが比較的独立と考えられるのであれば,このような類型化の手法は有効である.本研究の類型化の手順は\cite{dybkjaer1996grice}のものに近い.Griceの公準を用いながら,対話コーパスについて独自の分析を行いエラーを類型化しているからである.本研究とDybkj{\ae}rらのものとの違いは,本研究が雑談対話システムを扱っていることである.課題指向型対話システムに比べタスクやドメインの制約が少ない雑談対話において,エラーの定義,どのようなエラーが起こりうるかは把握されてこなかった.本研究は,そのような背景に基づき,雑談対話コーパスの作成およびその類型化を行ったものである.なお,本研究ではClarkの階層モデルは用いていない.これは,主にテキスト対話を扱っていることによる.テキストのやり取りであれば,チャネルレベルと信号レベルのやり取りは基本的に担保されており,残りの二つの階層のみに基づいて分類をすることになる.雑談対話の内容の複雑さを鑑みればこの粒度は粗い.また,モジュールごとにエラーを分析する方法論についてであるが,雑談対話システムの構成は複雑であり,単体のモジュールにエラーの分析を起因させることは難しい.また,エラー分析として対話システムの内部構造に立ち入らない方が,システムに依らないエラー分析が可能であり,特定のシステムに依存しない,汎用性の高いエラーの類型化が期待できる.なお,雑談対話システムのエラー分析は,対話破綻の自動検出につながるものとして期待されている.自動検出ができれば,対話システムが自身の発話を行う前に,その発話に問題があれば,別の発話候補に切り替えるといったことが可能になる.また,何らかのエラーを伴う発話をしてしまった後に,自身の誤りに気づいて,それを訂正するといったことも可能となる.課題指向型の音声対話対話システムの文脈では,音声認識,発話理解,対話管理などの各モジュールから得られる特徴量から対話に破綻が起きているかどうかを判定する手法がいくつか提案されている.たとえば,Walkerら\cite{walker2000}やHermら\cite{herm2008calls}は,コールセンタにおける通話について,問題が起こっているかどうかを数ターンで判定する判定器を機械学習の手法で構築している.対話中のユーザの満足度の遷移を推定する研究もされている\cite{schmitt2011modeling}.これらは雑談対話を扱ってはいないが,目的意識は本論文での取り組みと近い.雑談対話においては,Chaiらがユーザの対話行為の系列の情報を用いて,問題のある質問応答ペアかどうかの判別を行っている\cite{chai2006towards}.Xiangらは,対話行為に加え,感情の系列を用いることで,雑談対話における問題発話の検出を行っている\cite{xiang2014problematic}.Higashinakaらも,雑談対話システムの発話の結束性をさまざまな素性から推定する手法を提案している\cite{higashinaka2014evaluating}.しかしながら,これらの研究は精度がいまだ高いとは言えず,また,対話破綻の類型化なども行われていない.今後エラー分析を詳細に行うことで,対話破綻の原因を明らかにし,高精度な破綻検出を実現したいと考えている.
\section{おわりに}
label{sec:summary}本論文では,雑談対話におけるエラー分析にむけた人・機械間の雑談対話コーパスの構築\mod{と対話破綻のアノテーションについて}報告した.そして,構築したコーパスに含まれる破綻を分析し,考案した破綻の分類体系について議論した.\mod{アノテーション方法の開発にあたっては,破綻の認定における主観性の高さを認めつつ,許容可能な範囲のコストで,客観的な分析の対象となりうる有用なデータを得られるように,著者らを含む15拠点からの研究者で議論・試行し,工夫を施した.今回報告した方法と結果は,破綻に関する今後のコーパス構築に限らず,同じように主観性の高い別種の言語現象についてのコーパス構築においても手法開発の参考として寄与するものと考える.}構築したコーパスでは,対話を破綻させているシステムの発話に対して,複数の作業者によってラベルとコメントが付与されている.破綻の判断については,事細かなガイドライン・判定方法は示さず,各個の主観に基づいたアノテーションを行った.このためアノテーションの一致率はそれほど高くないが,システムとの対話に対して人間が不満を持つ点,持たない点,その個人差について,興味深いデータを収集できた.\mod{また,アノテータ間の一致についての分析からは,破綻でない発話よりも破綻発話のほうが判定が揺らぎがちであること,アノテータが大きな傾向の違いを持つグループに分かれる可能性があること,などが明らかになった.}\mod{一方で,今回のコーパス構築手法には,改善の余地があることも確かである.}破綻の判定が揺らぐ要因の1つとして,ユーザが想定した対話相手のイメージの違いが存在する.今回は「待合室や飛行機などで隣り合った見知らぬ人」とだけ指定したが,性別・年齢・性格など,ユーザができる想定には依然大きな自由度があった.例えば,子供染みた発言や冗談は,想定する相手によって許容できる範囲が変わってくる.今後のデータ収集においては,対話相手のイメージをもっと細かくユーザに指定する,あるいは対話前にユーザが想定した相手のイメージ,対話後に残った相手のイメージを,対話データと同時に収集すると,より踏み込んだ分析が可能になるだろう.\mod{アノテーションにおける,破綻を含む先行文脈の扱いについても,さらなる検討が望まれる.例えば,今回は破綻があったところで対話がリセットされたとはせず,破綻も含めて先行文脈として作業を行うように指示をした.これにより,会話が進んでいけばいくほど破綻が認定されやすくなった可能性があるが,一度破綻したことで文脈上の制約が減り破綻が認定されにくくなっていた可能性もある.}これまで人・機械の雑談対話を体系的に収集し,整備したコーパスは存在せず,今回の収集は初の試みである.今回構築したコーパス中の雑談対話は,1つの雑談システムだけを用いて収集したものであるので,破綻の種類の網羅性やその分布の普遍性について言えることには限りがあるが,システム構築に使用した雑談APIは\cite{higashinaka-EtAl:2014:Coling}に基づく,現時点で最も複雑な雑談システムの1つであり,少なくとも網羅性については他のシステムを利用した場合と同等かそれ以上,確保できていると考えている.今後,他の雑談システムを使い,本論文で示した方法でデータの収集とアノテーション・分析を行っていくことで,破綻の分布の普遍性を高め,現在の雑談技術・自然言語処理技術が抱える課題により深くアプローチできると期待している.本稿で示した破綻の分類体系の草案にはまだ改善しなければならない点があるが,破綻の種類を事例的に整理したことで,雑談対話で起こりうる問題について一定の見通しを示すことができた.雑談対話において破綻の種類を分類しようする際に何が問題となるのかを明らかにしたことも,今回の取り組みで得た成果の1つである.今回構築したコーパスは,破綻検出技術の開発・評価データとして利用することができる\footnote{本論文掲載時点で,コーパスは次のURLで公開されている:\\https://sites.google.com/site/dialoguebreakdowndetection/chat-dialogue-corpus\\また,本コーパスの公開にあわせて開催された破綻検出チャレンジの結果が,\cite{higashinaka-EtAl:2015:DBD}にまとめられている.}.雑談システム自体はそれぞれの目的や利用状況,対象ユーザの想定などが異なるため,直接に比較することが難しく,システム内部の技術的課題について研究者間で議論することが難しい.しかし,雑談システムの入出力であるテキストだけを対象とし,複数の機関が並行して共通のデータで破綻検出技術について開発とエラー分析を進めれば,より一般性の高い議論ができるし,そこから各々の雑談システム自体の技術課題に対しても知見を得られるだろう.また開発された破綻検出技術は,それ自体,多くの研究者・開発者にとって有用なツールを提供できるだろう.今後は,別システムでのデータの収集や破綻の分類体系の改良を行いながら,破綻検出技術の研究を進めていきたい.\acknowledgment対話データの収集,および,対話破綻アノテーションにご協力頂いたProjectNextNLP対話タスクの拠点参加者とその関係者の皆さま,対話データ収集のためのシステム構築とサーバ運営にご協力いただいた広島市立大の稲葉通将氏に感謝いたします.\mod{システム構築には株式会社NTTドコモの雑談対話APIを使わせていただきました.}本稿の著者は,タスク共同リーダ2名と,\ref{sec:categorization}節の類型化に直接的に貢献したワーキンググループのメンバに限っていますが,その他の拠点参加者の方々におかれても,電話会議やメーリングリストでの議論を通じて本稿の執筆に様々に貢献していただきました.一人一人お名前を挙げるのは控えさせていただきますが,改めて拠点参加者の皆さまのご協力にお礼申し上げます.最後になりますが,有益なコメントをいただいた\mod{編集委員・査読者}の皆さまにお礼申し上げます.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aberdeen\BBA\Ferro}{Aberdeen\BBA\Ferro}{2003}]{aberdeen2003}Aberdeen,J.\BBACOMMA\\BBA\Ferro,L.\BBOP2003\BBCP.\newblock\BBOQDialoguePatternsandMisunderstandings.\BBCQ\\newblockIn{\BemProceedingsofISCAWorkshoponErrorHandlinginSpokenDialogueSystems},\mbox{\BPGS\17--21}.\bibitem[\protect\BCAY{Banchs\BBA\Li}{Banchs\BBA\Li}{2012}]{Banchs2012}Banchs,R.~E.\BBACOMMA\\BBA\Li,H.\BBOP2012\BBCP.\newblock\BBOQIRIS:AChat-orientedDialogueSystemBasedontheVectorSpaceModel.\BBCQ\\newblockIn{\BemProceedingsoftheACL2012SystemDemonstrations},\mbox{\BPGS\37--42}.\bibitem[\protect\BCAY{Bang,Noh,Kim,\BBA\Lee}{Banget~al.}{2015}]{bang2015}Bang,J.,Noh,H.,Kim,Y.,\BBA\Lee,G.~G.\BBOP2015\BBCP.\newblock\BBOQExample-basedChat-orientedDialogueSystemwithPersonalizedLong-termMemory.\BBCQ\\newblockIn{\BemProceedingsofBigComp},\mbox{\BPGS\238--243}.\bibitem[\protect\BCAY{Bernsen,Dybkj{\ae}r,\BBA\Dybkj{\ae}r}{Bernsenet~al.}{1996}]{bernsen1996principles}Bernsen,N.~O.,Dybkj{\ae}r,H.,\BBA\Dybkj{\ae}r,L.\BBOP1996\BBCP.\newblock\BBOQPrinciplesforthedesignofcooperativespokenhuman-machinedialogue.\BBCQ\\newblockIn{\BemProceedingsofICSLP},\lowercase{\BVOL}~2,\mbox{\BPGS\729--732}.\bibitem[\protect\BCAY{Bickmore\BBA\Cassell}{Bickmore\BBA\Cassell}{2001}]{Bickmore2001}Bickmore,T.~W.\BBACOMMA\\BBA\Cassell,J.\BBOP2001\BBCP.\newblock\BBOQRelationalAgents:AModelandImplementationofBulidingUserTrust.\BBCQ\\newblockIn{\BemProceedingsofCHI},\mbox{\BPGS\396--403}.\bibitem[\protect\BCAY{Bohus\BBA\Rudnicky}{Bohus\BBA\Rudnicky}{2005}]{bohus2005sorry}Bohus,D.\BBACOMMA\\BBA\Rudnicky,A.~I.\BBOP2005\BBCP.\newblock\BBOQSorry,IDidn'tCatchThat!---AnInvestigationofNon-understandingErrorsandRecoveryStrategies.\BBCQ\\newblockIn{\BemProceedingsofSIGDIAL},\mbox{\BPGS\128--143}.\bibitem[\protect\BCAY{Chai,Zhang,\BBA\Baldwin}{Chaiet~al.}{2006}]{chai2006towards}Chai,J.~Y.,Zhang,C.,\BBA\Baldwin,T.\BBOP2006\BBCP.\newblock\BBOQTowardsConversationalQA:AutomaticIdentificationofProblematicSituationsandUserIntent.\BBCQ\\newblockIn{\BemProceedingsofCOLING/ACL},\mbox{\BPGS\57--64}.\bibitem[\protect\BCAY{Clark}{Clark}{1996}]{clark1996using}Clark,H.~H.\BBOP1996\BBCP.\newblock{\BemUsingLanguage}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Dybkj{\ae}r,Bernsen,\BBA\Dybkj{\ae}r}{Dybkj{\ae}ret~al.}{1996}]{dybkjaer1996grice}Dybkj{\ae}r,L.,Bernsen,N.~O.,\BBA\Dybkj{\ae}r,H.\BBOP1996\BBCP.\newblock\BBOQGriceIncorporated:CooperativityinSpokenDialogue.\BBCQ\\newblockIn{\BemProceedingsofCOLING},\lowercase{\BVOL}~1,\mbox{\BPGS\328--333}.\bibitem[\protect\BCAY{Dzikovska,Callaway,Farrow,Moore,Steinhauser,\BBA\Campbell}{Dzikovskaet~al.}{2009}]{dzikovska2009dealing}Dzikovska,M.~O.,Callaway,C.~B.,Farrow,E.,Moore,J.~D.,Steinhauser,N.,\BBA\Campbell,G.\BBOP2009\BBCP.\newblock\BBOQDealingwithInterpretationErrorsinTutorialDialogue.\BBCQ\\newblockIn{\BemProceedingsofSIGDIAL},\mbox{\BPGS\38--45}.\bibitem[\protect\BCAY{Green,Eklundh,Wrede,\BBA\Li}{Greenet~al.}{2006}]{green2006integrating}Green,A.,Eklundh,K.~S.,Wrede,B.,\BBA\Li,S.\BBOP2006\BBCP.\newblock\BBOQIntegratingMiscommunicationAnalysisinNaturalLanguageInterfaceDesignforaServiceRobot.\BBCQ\\newblockIn{\BemProceedingsofIEEE/RSJ},\mbox{\BPGS\4678--4683}.\bibitem[\protect\BCAY{Grice}{Grice}{1975}]{gri:log}Grice,H.~P.\BBOP1975\BBCP.\newblock\BBOQLogicandConversation.\BBCQ\\newblockInCole,P.\BBACOMMA\\BBA\Morgan,J.\BEDS,{\BemSyntaxandSemantics3:SpeechActs},\mbox{\BPGS\41--58}.NewYork:AcademicPress.\bibitem[\protect\BCAY{Herm,Schmitt,\BBA\Liscombe}{Hermet~al.}{2008}]{herm2008calls}Herm,O.,Schmitt,A.,\BBA\Liscombe,J.\BBOP2008\BBCP.\newblock\BBOQWhenCallsGoWrong:HowtoDetectProblematicCallsBasedonLog-filesandEmotions?\BBCQ\\newblockIn{\BemProceedingsofINTERSPEECH},\mbox{\BPGS\463--466}.\bibitem[\protect\BCAY{東中\JBA船越\JBA小林\JBA稲葉}{東中\Jetal}{2015}]{higashinaka-EtAl:2015:DBD}東中竜一郎\JBA船越孝太郎\JBA小林優佳\JBA稲葉通将\BBOP2015\BBCP.\newblock対話破綻検出チャレンジ.\\newblock\Jem{言語・音声理解と対話処理研究会第75回研究会(第6回対話システムシンポジウム)},人工知能学会研究会資料SIG-SLUD-75-B502\JVOL,\mbox{\BPGS\27--32}.\bibitem[\protect\BCAY{Higashinaka,Imamura,Meguro,Miyazaki,Kobayashi,Sugiyama,Hirano,Makino,\BBA\Matsuo}{Higashinakaet~al.}{2014a}]{higashinaka-EtAl:2014:Coling}Higashinaka,R.,Imamura,K.,Meguro,T.,Miyazaki,C.,Kobayashi,N.,Sugiyama,H.,Hirano,T.,Makino,T.,\BBA\Matsuo,Y.\BBOP2014a\BBCP.\newblock\BBOQTowardsanOpen-domainConversationalSystemFullyBasedonNaturalLanguageProcessing.\BBCQ\\newblockIn{\BemProceedingsofCOLING},\mbox{\BPGS\928--939}.\bibitem[\protect\BCAY{Higashinaka,Meguro,Imamura,Sugiyama,Makino,\BBA\Matsuo}{Higashinakaet~al.}{2014b}]{higashinaka2014evaluating}Higashinaka,R.,Meguro,T.,Imamura,K.,Sugiyama,H.,Makino,T.,\BBA\Matsuo,Y.\BBOP2014b\BBCP.\newblock\BBOQEvaluatingCoherenceinOpenDomainConversationalSystems.\BBCQ\\newblockIn{\BemProceedingsof\mbox{INTERSPEECH}},\mbox{\BPGS\130--133}.\bibitem[\protect\BCAY{稲葉\JBA神園\JBA高橋}{稲葉\Jetal}{2014}]{Inaba2014}稲葉通将\JBA神園彩香\JBA高橋健一\BBOP2014\BBCP.\newblockTwitterを用いた非タスク指向型対話システムのための発話候補文獲得.\\newblock\Jem{人工知能学会論文誌},{\Bbf29}(1),\mbox{\BPGS\21--31}.\bibitem[\protect\BCAY{小林\JBA山本\JBA大内\JBA長\JBA瀬戸口\JBA土井}{小林\Jetal}{2011}]{Kobayashi2011}小林優佳\JBA山本大介\JBA大内一成\JBA長健太\JBA瀬戸口久雄\JBA土井美和子\BBOP2011\BBCP.\newblock安心でワクワクさせるロボット対話インタフェースを目指して:対話とセンサによる高齢者の健康情報収集.\\newblock\Jem{電子情報通信学会技術研究報告クラウドネットワークロボット},111\JVOL,\mbox{\BPGS\11--16}.\bibitem[\protect\BCAY{Landis\BBA\Koch}{Landis\BBA\Koch}{1977}]{Landis77}Landis,J.~R.\BBACOMMA\\BBA\Koch,G.~G.\BBOP1977\BBCP.\newblock\BBOQTheMeasurementofObserverAgreementforCategoricalData.\BBCQ\\newblock{\BemBiometrics},{\Bbf33},\mbox{\BPGS\159--174}.\bibitem[\protect\BCAY{Levinson}{Levinson}{2000}]{Levinson00}Levinson,S.~C.\BBOP2000\BBCP.\newblock{\BemPresumptiveMeaning:TheTheoryofGeneralziedConversationalImplicature}.\newblockMIT.\newblock(邦訳:「意味の推定:新グライス学派の語用論」,研究社,2007).\bibitem[\protect\BCAY{Matsuyama,Akiba,Saito,\BBA\Kobayashi}{Matsuyamaet~al.}{2013}]{Matsuyama2013}Matsuyama,Y.,Akiba,I.,Saito,A.,\BBA\Kobayashi,T.\BBOP2013\BBCP.\newblock\BBOQAFour-ParticipantGroupFacilitationFrameworkforConversationalRobots.\BBCQ\\newblockIn{\BemProceedingsofSIGDIAL},\mbox{\BPGS\284--293}.\bibitem[\protect\BCAY{M{\"o}ller}{M{\"o}ller}{2005}]{moller2005parameters}M{\"o}ller,S.\BBOP2005\BBCP.\newblock\BBOQParametersforQuantifyingtheInteractionwithSpokenDialogueTelephoneServices.\BBCQ\\newblockIn{\BemProceedingsofSIGDIAL},\mbox{\BPGS\166--177}.\bibitem[\protect\BCAY{M{\"o}ller,Engelbrecht,\BBA\Oulasvirta}{M{\"o}lleret~al.}{2007}]{moller2007analysis}M{\"o}ller,S.,Engelbrecht,K.-P.,\BBA\Oulasvirta,A.\BBOP2007\BBCP.\newblock\BBOQAnalysisofCommunicationFailuresforSpokenDialogueSystems.\BBCQ\\newblockIn{\BemProceedingsofINTERSPEECH},\mbox{\BPGS\134--137}.\bibitem[\protect\BCAY{大西\JBA吉村}{大西\JBA吉村}{2014}]{oonishi}大西可奈子\JBA吉村健\BBOP2014\BBCP.\newblockコンピュータとの自然な会話を実現する雑談対話技術.\\newblock\Jem{NTTDoCoMoテクニカル・ジャーナル},{\Bbf21}(4),\mbox{\BPGS\17--21}.\bibitem[\protect\BCAY{Paek}{Paek}{2003}]{paek2003toward}Paek,T.\BBOP2003\BBCP.\newblock\BBOQTowardaTaxonomyofCommunicationErrors.\BBCQ\\newblockIn{\BemProceedingsofISCAWorkshoponErrorHandlinginSpokenDialogueSystems},\mbox{\BPGS\53--58}.\bibitem[\protect\BCAY{Schmitt,Schatz,\BBA\Minker}{Schmittet~al.}{2011}]{schmitt2011modeling}Schmitt,A.,Schatz,B.,\BBA\Minker,W.\BBOP2011\BBCP.\newblock\BBOQModelingandPredictingQualityinSpokenHuman-computerInteraction.\BBCQ\\newblockIn{\BemProceedingsofSIGDIAL},\mbox{\BPGS\173--184}.\bibitem[\protect\BCAY{関根}{関根}{2015}]{NextNLPWS}関根聡\BBOP2015\BBCP.\newblockProjectNextNLP概要(2014/3-2015/2).\\newblock\Jem{言語処理学会第21回年次大会ワークショップ:自然言語処理におけるエラー分析}.\bibitem[\protect\BCAY{Walker,Langkilde,Wright,Gorin,\BBA\Litman}{Walkeret~al.}{2000}]{walker2000}Walker,M.,Langkilde,I.,Wright,J.,Gorin,A.,\BBA\Litman,D.\BBOP2000\BBCP.\newblock\BBOQLearningtoPredictProblematicSituationsinaSpokenDialogueSystem:ExperimentswithHowMayIHelpYou?\BBCQ\\newblockIn{\BemProceedingsofNAACL},\mbox{\BPGS\210--217}.\bibitem[\protect\BCAY{Wallace}{Wallace}{2004}]{Wallace2004}Wallace,R.~S.\BBOP2004\BBCP.\newblock\BBOQTheAnatomyofA.L.I.C.E.\BBCQ\\newblock\BTR,A.L.I.C.EArtificialIntelligenceFoundation,Inc.\bibitem[\protect\BCAY{Ward,Rivera,Ward,\BBA\Novick}{Wardet~al.}{2005}]{ward2005root}Ward,N.~G.,Rivera,A.~G.,Ward,K.,\BBA\Novick,D.~G.\BBOP2005\BBCP.\newblock\BBOQRootCausesofLostTimeandUserStressinaSimpleDialogSystem.\BBCQ\\newblockIn{\BemProceedingsofINTERSPEECH},\mbox{\BPGS\1565--1568}.\bibitem[\protect\BCAY{Wilcock\BBA\Jokinen}{Wilcock\BBA\Jokinen}{2013}]{Wilcock2013}Wilcock,G.\BBACOMMA\\BBA\Jokinen,K.\BBOP2013\BBCP.\newblock\BBOQWikitalkHuman-robotInteracitons.\BBCQ\\newblockIn{\BemProceedingsofICMI},\mbox{\BPGS\73--74}.\bibitem[\protect\BCAY{Xiang,Zhang,Zhou,Wang,\BBA\Qin}{Xianget~al.}{2014}]{xiang2014problematic}Xiang,Y.,Zhang,Y.,Zhou,X.,Wang,X.,\BBA\Qin,Y.\BBOP2014\BBCP.\newblock\BBOQProblematicSituationAnalysisandAutomaticRecognitionforChineseOnlineConversationalSystem.\BBCQ\\newblockIn{\BemProceedingsofCLP},\mbox{\BPGS\43--51}.\end{thebibliography}\begin{biography}\bioauthor{東中竜一郎}{1999年慶應義塾大学環境情報学部卒業,2001年同大学大学院政策・メディア研究科修士課程,2008年博士課程修了.2001年日本電信電話株式会社入社.現在,NTTメディアインテリジェンス研究所に所属.質問応答システム・音声対話システムの研究開発に従事.博士(学術).言語処理学会,人工知能学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{船越孝太郎}{2000年東京工業大学工学部情報工学科卒業.2002年同大学大学院情報理工学研究科計算工学専攻修士課程修了.2005年同博士課程修了.同年同大学院特別研究員.2006年より株式会社ホンダ・リサーチ・インスティチュート・ジャパン入社.2013年より同シニア・リサーチャ.博士(工学).自然言語理解,マルチモーダル対話に関する研究に従事.情報処理学会,人工知能学会,言語処理学会,ヒューマンインタフェース学会,ACMSIGCHI各会員.}\bioauthor{荒木雅弘}{1988年京都大学工学部卒業.1993年京都大学大学院工学研究科博士課程研究指導認定退学.京都大学工学部助手,同総合情報メディアセンター講師を経て,現在京都工芸繊維大学大学院工芸科学研究科准教授.音声対話システムおよびマルチモーダル対話記述言語の研究に従事.ACL,ISCA,情報処理学会等各会員.博士(工学).}\bioauthor{小林優佳}{2004年東京工業大学大学院理工学研究科修士課程終了(機械制御システム専攻).同年東芝家電製造株式会社(現東芝ライフスタイル株式会社)入社.2008年株式会社東芝研究開発センター入社.音声対話システムの研究開発に従事.電子情報通信学会,情報処理学会,人工知能学会各会員.}\bioauthor{塚原裕史}{1994年中央大学理工学部物理学科卒業.1996年同大学大学院博士課程前期修了.1999年同大学院博士課程後期修了.博士(理学).2000年日立ソフトウェアエンジニアリング株式会社入社.分散オブジェクト地理情報システムの研究・開発に従事.2005年株式会社デンソーアイティーラボラトリ入社.現在同社研究開発グループ勤務.自動車向け人工知能応用システムに関する研究・開発に従事.日本物理学会,情報処理学会各会員.}\bioauthor{水上雅博}{2012年同志社大学理工学部卒業.2014年奈良先端科学技術大学院大学情報科学研究科修士課程修了.同年より同大学院博士後期課程在学.自然言語処理および音声対話システムに関する研究に従事.人工知能学会,音響学会,言語処理学会各会員.}\end{biography}\biodate\end{document}
| |
V24N01-04 | \section{はじめに}
インターネットを通じたサービス利用はスマートフォンの普及を背景に近年ますます増加している\cite{ictbook2014}.スマートフォンでの各種サービスの利用はこれまでのPCを経由して利用するインターネットサービスに比べて,画面の大きさや操作性という面で大きく制限されており,サービス提供者はスマートフォンに合わせたユーザ体験を新たに構築する必要に迫られている.このような背景の中で推薦システムに注目が集まっている.推薦システムはユーザの興味関心に合わせて商品などを提示することを目的としたシステムであり,Amazon\footnote{http://www.amazon.com/}での商品推薦や,Facebook\footnote{https://www.facebook.com/}での友人推薦をはじめとして幅広く利用されている.画面の大きさや操作性が制限されているスマートフォンにおいて,推薦システムを用いてユーザに合わせて最適な選択肢を提示することでユーザ体験を大きく改善することが期待されており,今後様々な場面での利用が進んでいくと考えられる.このような背景から推薦システムのユーザ体験に関する研究が近年注目を集めており,その中で重要だと言われている指標の1つに多様性(Diversity)がある.推薦システムが悪いとそのサービスが悪いとみなされると指摘されており\cite{cosley2003},推薦システムのユーザ体験を考慮することはそのサービス設計のためにも重要である.多様性がユーザにもたらす影響についてはZieglerらの研究がよく知られており\cite{ziegler2005},多様性を含んだリストをユーザに提示するとユーザは自分に最適化されていないものが含まれていることは認識するが,多様性が含まれたものを好むという結果が報告されている.また推薦システムについてはFilterBubbleという問題が指摘されているが,その問題への対応のためにも推薦リストの多様性が重要であると言われている\cite{Pariser2011}.ジャーナリストであるイーライ・パリサーは検索エンジンやSNS(SocialNetworkService)が推薦システムの技術を用いてパーソナライズ化されていくことに対して,情報のタコツボ化が起こることを懸念し,人々が正しい意思決定をすることを阻害していると警鐘を鳴らした.その動きに対応して推薦システムに関する国際会議であるRecsys\footnote{https://recsys.acm.org/}では,2011年にFilterBubbleに関するワークショップを開催し,FilterBubble問題に関する見解を示した\cite{filterbubble}.その中でFilterBubbleとパーソナライズはトレードオフであること,すべての情報を人が網羅することは不可能なのでフィルタリング技術は必要であることを指摘した上で,推薦システムを作る過程において,そのシステムの説明性,透明性を担保すること,推薦される個々のアイテムだけでなくリスト全体を評価し,多様性も考慮して設計することが必要であるとした.このような背景から近年推薦システムを構築する上で多様性を考慮することは一般的になったが,推薦結果の多様性がユーザやサービスにどのような影響をあたえるかについては分かっていない点が多い.多様性に関する研究の多くは多様性がユーザ体験を向上させるという前提に立っているが,その根拠はユーザへのアンケートによるものであり,サービスにどのような形で利益をもたらすかについては明らかになっていない.これは推薦システム研究の多くが過去のデータを用いたオフラインテストで行われており,実際にサービス上でシステムを提供して比較した例が少ないことが要因である.本研究の目的は推薦システムを用いて提供されているサービスに対して多様性を導入し,推薦結果の多様性がユーザに与える影響について明らかにすることである.本研究ではウェブページ推薦システムを提供しているグノシー\footnote{http://gunosy.com}というサービスにおいて,推薦システムに多様性を導入しそのユーザ行動への影響について報告する.まず多様性がない既存システムにおけるユーザの行動を分析し,どのような特性をもったシステムであるかを示した.その上で多様性を導入したユーザ減衰モデルを構築した上で実際にサービス上でユーザに対して提供し,既存システムとの比較を行った.その結果多様性がサービスの継続率の改善や利用日数の増加という形でユーザの満足度を高めていることを示した.これはユーザは多様性を含むリストの方を好むという従来研究で指摘されていた点がサービス上においても有用に働くことを示したといえる.また利用日数が浅い段階ではユーザがクリックするウェブページの数は既存システムと同程度であるが,利用日数が増えるにしたがって多様性をもったユーザ減衰モデルのほうがクリックするウェブページの数が増えていくことを明らかにした.そして多様性のない既存システムでは,利用日数が増えるに従って推薦リスト下部のクリック率が下がっていくのに対して,多様性を取り入れたユーザ減衰モデルでは,推薦リスト下部のクリック率が向上していくことを示した.これは従来研究は確認できなかった多様性の中長期における影響を示したものである.本研究では実際に事業として開発・運用されているウェブサービスを利用しているため,ビジネス上の制約により用いている手法をすべて公開することはできない.既存システムのユーザ行動の分析によって推薦システムとして有効に作用していることを示すことによってその代わりとしたい.本研究の目的は多様性がユーザ体験にどのような影響を与えるかについて論じることであり,手法が非公開であることが本研究の結果に与える影響は軽微であると考える.以下に本論文の構成を示す.\ref{sec:related}章に関連研究と本研究の位置付けを示す.\ref{sec:gunosy}章において本研究で利用するグノシーというサービスと,そこで用いられている推薦システムについて紹介し,そのシステムのユーザ行動とその課題について分析する.\ref{sec:purpose}章で前章で述べた課題を元に推薦システムに多様性を導入する方法について述べる.\ref{sec:experience}章で既存システムと比較手法の比較実験を行い,推薦システムの多様性がサービスにもたらす影響について考察し,\ref{sec:conclusion}章で本研究のまとめを行う.
\section{関連研究}
\label{sec:related}本章では本研究の関連研究についてまとめる.推薦システムの初期の研究では検索エンジンと同様に結果の適合度によって推薦システムが評価されていた\cite{Jannach2010}.しかしHerlockerらの研究によって多様性,意外性,新規性などが推薦システムのユーザ満足度を高める可能性があると指摘され\cite{herlocker2004},現在ではKonstanらが推薦システムとユーザ体験に関する研究についてまとめたように様々な試みがなされている\cite{Konstan2012}.多様性に関する研究としてはZieglerらの研究がよく知られている\cite{ziegler2005}.Zieglerらはリスト内の多様性を表すintra-list-similarityという多様性に関係する指標を提案し,通常の類似度による推薦との重み付け和によって推薦を行う推薦システムを提案した.本の推薦システムによって多様性を持つシステムのユーザへのアンケートを行い,ユーザは自分に最適化されていないことは認識するものの,多様性が含まれている推薦リストのほうが好ましいと答えた.この結果が多様性が推薦システムにおいて重要だとされる根拠となり,推薦システムにおいて多様性を考慮する研究が数多く生まれているが,多様性がユーザに与える影響についてより踏み込んだ分析は我々の知る限りでは行われていない\cite{murakami2009,zhang2008avoiding,lathia2010temporal}.本研究は実サービスでの推薦システムの比較を行うことで,多様性がユーザに与える影響について新たな示唆を与えるものである.推薦システムのユーザ行動に関する知見が少ない理由として実際にサービス上で行われた実験が少ないことが挙げられる.ここではサービス上で行われた実験をいくつか紹介する.DavidsonらはYoutubeにおいて推薦システムを導入した際の効果について報告した\cite{davidson2010youtube}.そのシステムはco-viewを用いた単純なものであるとされており,手法の詳細については公開されていないが,単純な人気ランキングを表示するのと比べて207\%クリック率が向上したと報告されている.BellufらはブラジルのECサイトを対象に5\%のユーザに対して推薦システムを適用しユーザ行動の差を分析する研究を行い,結果として8--20\%の売上の向上が見込めることを報告している\cite{belluf2012case}.なおこちらの研究においても推薦システムの手法の詳細は公開されていない.サービス上での評価とは少し異なるが,Flederらは推薦システムを経済シミュレーションにより分析し\cite{fleder2007recommender},経路依存性が存在すること,推薦システムによってその特性が様々に変わることを指摘している.このように推薦システムがサービスにどのような影響を与えるかを調べた研究はまだ少ない.本研究ではウェブページ推薦を行うサービスであるグノシー上において提供する推薦システムを対象に実験を行い,推薦システムがどのように利用されており,多様性がサービスにどのような影響を与えているかを実データを分析することで示す.
\section{グノシーの推薦システム}
\label{sec:gunosy}本研究は株式会社Gunosyが提供している情報キュレーションサービスであるグノシー内において行われている.本章ではグノシーがどのようなサービスなのかを述べ,サービス内で用いられている推薦システムの概要を説明し,本システムがどのような特性を持っているのかをいくつかの実験の結果を元に説明する.その上で本システムの課題について分析を行い,多様性がどのような影響を与えるかを考察する.\subsection{グノシーについて}グノシーは株式会社Gunosyが運営する情報キュレーションサービスである.2011年9月にサービスを開始し,翌年11月に法人化された.スマートフォンアプリケーションを中心にサービスを展開しており,アプリケーションのダウンロード数は2016年10月で1600万を超えている国内最大級の情報キュレーションサービスである\footnote{https://gunosy.co.jp/news/75}.情報キュレーションサービスはウェブ上の様々なコンテンツを取捨選択し,サービス上でユーザに提示するサービスである.国内ではグノシーの他にSmartnews\footnote{https://www.smartnews.com},Anntena\footnote{https://antenna.jp},NewsPicks\footnote{https://newspicks.com/}等がよく知られている.情報キュレーションサービスで扱うコンテンツはニュースが中心ではあるが,コラムやブログ,まとめサイトなど様々なコンテンツを扱っていることが多い.2014年に矢野経済研究所が行った調査ではキュレーションサービスの市場規模は2012年は60億円程度であったが,2014年には178億円,2017年には395億円と急成長していくとしている\cite{yano2014}.本研究は2011年9月のサービスリリース時から2012年末までの期間を対象に行われたものである.その期間においてグノシーはTwitter\footnote{https://twitter.com/},Facebook,はてなブックマーク\footnote{http://b.hatena.ne.jp/}のアカウントを連携することにより,登録したユーザのそれぞれのサービス内での行動から1日25件のウェブページをユーザに提示するサービスを提供していた.提示されたコンテンツはウェブブラウザでログインして見ることができる他,登録したメールアドレスに指定した時間に送ることもできる.現在のグノシーではこの機能は‘マイニュース’というサービス上の一部の機能として提供されている.\subsection{グノシーの推薦システムの概要}本節ではグノシーで利用されている推薦システムがどのようなものかについて述べる.システムの詳細についてはビジネス上の制約により紹介することはできないが,本研究の目的は多様性がもたらすユーザ体験の変化を明らかにすることであり,システムの詳細が明らかでなくても問題はないと考える.グノシーの推薦システムは内容ベースフィルタリングをベースにしたシンプルなものである\cite{Jannach2010}.推薦対象となるウェブページ集合$W$とユーザ集合$U$を考える.ここであるウェブページ$w\inW$がユーザ$u\inU$にどれだけ好まれるかの予測値を$r$として表す.この予測値は正の値をとり,正規化されておらず値域は$[0,\infty)$となる.この評価値を元にユーザ$u$に対して$r$が大きい順にウェブページを$w_1,w_2,...,w_{|W|}$と並べると,$w_1,...,w_K$のウェブページがユーザに提示するウェブページのリストとなる.$K$はユーザに提示するウェブページの個数で,Gunosyの場合は$K=25$となる.多くの内容ベースフィルタリングによる推薦システムがそうであるように,ユーザ$u$の興味関心とウェブページ$w$の特徴量を共通の$N$次元ベクトル空間で表現し,評価値$r$はベクトルの類似度により求められる.ウェブページ特徴量$\vec{w}$とユーザ特徴量$\vec{u}$は単語によって構築される共通の次元空間を持っており,評価関数はウェブページの特徴量$\vec{w}$とユーザ特徴量$\vec{u}$との内積をベースに重み付けや正規化にいくつかのヒューリスティクスを用いている.ウェブページの特徴量$\vec{w}$の構築にはウェブページ内のテキストにおける単語のTF-IDF値を出現位置によって重み付けした値をベースに,そのウェブページが誰によって書かれたかによって幾つかの単語に値が追加されるルールや,そのウェブページについてSNS,ソーシャルブックマークサービス,ブログなどの外部のウェブサイトに投稿された内容を解析した結果なども用いている.ユーザの特徴量$\vec{u}$にはサービス登録時は連携したサービスでのプロフィール文などから構築した特徴量と,連携したサービスに投稿したウェブページとグノシー内でクリックしたウェブページの特徴量$\vec{w}$の重み付け和を組み合わせたものを利用している.このように手法は様々なルールやヒューリスティクスを含む形で構築されている.ウェブページの特徴量を生成するための詳細や連携サービスからの特徴量抽出,重み付けの詳細などは事業上の理由により公開することができない.しかし本研究の目的は多様性を導入した際のユーザ行動の変化を明らかにすることであるため,多様性を導入した手法と既存システムで非公開にしているウェブページの特徴量$\vec{w}$,ユーザの特徴量$\vec{u}$,評価値関数$f$は共通であることと,既存システムにおけるユーザ行動の分析が十分に行われていることで,本研究の目的と結果の有効性に対する影響は軽微であると我々は考えている.まず本システムが推薦システムとして有効に作用しているのかを検証する.本システムはユーザ$u$がウェブページ$w$に興味の持つ度合い$r$を求めている.$r$が適切に求められているのであれば,$r$が高ければ高いほどユーザ$u$がウェブページ$w$を閲覧する確率は高くなると考えられる.2012年5月から9月にサービスを利用した全ユーザに対して,推薦された記事の$r$とその記事のクリック率を比較し相関関係を求めた.各ウェブページの$r$を0$\sim$9.9まで0.1刻みとそれ以上に分け,各区分でのクリック率を$\frac{クリックしたユーザ数}{推薦されたユーザ数}$として求める.\begin{figure}[t]\begin{center}\includegraphics{24-1ia5f1.eps}\end{center}\caption{$r$とクリック率の関係}\label{fig:r_vs_ctr}\end{figure}クリック率と$r$の関係を図\ref{fig:r_vs_ctr}に示す.相関係数は0.958となり,この結果からクリック率と$r$には強い正の相関があることが示された.このことからウェブページのクリック率がユーザの興味関心の度合いを示すと仮定すれば,$r$はそのウェブページに対するユーザの興味関心の度合いを示すことができていると考えられる.\subsection{表示位置とクリック率}本節では記事の表示順位がクリック率にどのような影響を及ぼしているのかについて述べ,多様性の導入が本システムにどのような影響をもたらすのかについて考察する.本システムではユーザごとに$r$の大きい順に25件のウェブページを縦に並べて提示している.これは一般的な検索エンジンが検索結果を表示するのと似ており,検索エンジンのクリック率は順位によって変動することが知られている\cite{manning2008introduction}.前節では$r$とクリック率に強い相関があることを示したが,$r$が高ければ本システムでは高い位置に表示されることになる.本システムにおいてリスト内での表示位置がウェブページのクリック率にどのような影響を与えているのかを調べるために2つの実験を行った.\begin{figure}[b]\begin{center}\includegraphics{24-1ia5f2.eps}\end{center}\caption{順表示と逆順表示の際のクリック率の比較}\label{fig:reversed}\end{figure}第1の実験として一部のユーザに対して推薦結果のリストを逆順に表示し比較を行った.本システムでは通常25件のウェブページを$r$の大きい順に表示しているが,この実験では$k$番目のウェブページを$26-k$番目に表示するようにした.つまり元々1番目に表示されていたウェブページが25件目に表示され,25番目に表示されていたウェブページが1番目に表示されることになる.対象ユーザとしてアクティブなユーザの中から2,000人のユーザをランダムに抽出し,一定期間実施した.この実験の目的はウェブページのクリック率が表示位置によってどの程度変わるのかを知ることである.もし前節で示した$r$とクリック率の相関関係が,$r$が高いウェブページが上位に表示されることによるのであれば,逆表示であっても最上位に表示されたウェブページのクリック率は高くなり,最下位に表示された$r$の高いウェブページのクリック率は低くなる.図\ref{fig:reversed}に順表示と逆表示での位置ごとのクリック率を比較したグラフを示す.ここでクリック率は前節とは異なり,そのリスト内のウェブページを1つ以上クリックしたユーザを母数として求めている.まず順表示のほうのクリック率を見ると,順位が高いほどクリック率が高くなることがわかる.またリストの最下部で若干の上昇がみられるが,これはリストの最下部はスクロールが止まるため若干クリック率が上がるためであると考えられる.次に逆順表示のクリック率をみると,最上部は少し高いものの順表示と比べてると大幅に低く,その後5番目からゆるやかに上昇しだし,最下部では最上部と同じようなクリック率を計測した.逆表示において最上部以外は順位が下がるにつれてクリック率が上昇すること,最上部のクリック率は順表示と逆表示で大きな差があることから,$r$とクリック率の相関関係が表示位置のみによるものではなく,$r$がユーザの興味関心度合いをある程度表していることが明らかとなった.第2の実験として人手で選択したウェブページを25件のランダムな位置に挿入し,システムによって推薦されたウェブページとのクリック率の差分を調べた.ウェブページの選択に際しては外部のメディア運営者に協力を依頼し,運営するメディアの記事から日1件選択されたものを利用した.選択されたウェブページは対象となったユーザのウェブページリストのランダムな位置に挿入される.本実験は一定期間すべてのユーザを対象に行われた.\begin{figure}[b]\begin{center}\includegraphics{24-1ia5f3.eps}\end{center}\caption{人為的に選んだウェブページと推薦結果の比較}\label{fig:logic_vs_manual}\end{figure}この実験の目的は$r$の値にしたがってウェブページのリストを構築することがどれだけユーザのクリック率に寄与しているのかを確認することである.$r$の値に関係なく人手で選んだウェブページのクリック率が高くなるような表示位置があるのであれば,推薦システムのウェブページの選び方に課題があると考えられる.図\ref{fig:logic_vs_manual}に比較結果を示す.リストの上位の記事は人手で挿入された記事と比較して高いクリック率を有しているが,リストの中位の記事は手動で挿入された記事と比較し同程度のクリック率をもち,下位では人手で挿入した記事のほうが高いクリック率を持つようになっている.この結果は本システムが中位以降については$r$に従って推薦することがユーザのクリック率を高めることに寄与しない可能性があることを示唆している.2つの実験によって以下の事柄が明らかとなった.\begin{itemize}\item$r$の大きさとウェブページのクリック率の相関は表示順位のみによるものではないため,$r$の値はある程度ユーザの興味関心度合いを反映しているといえる.\item$r$の大きさにしたがってリストを構築した場合,上位においては高いクリック率を得ることができるが,中位以降では無作為に挿入した記事と同等のクリック率であり,下位では無作為に挿入した記事のほうが高いクリック率をもつ.\end{itemize}つまり本システムは興味関心をある程度表現できてはいるものの,推薦リストの構築として考えた際に中位以降の表示に対して課題があることが明らかになった.本システムではユーザの特徴量$\vec{u}$とウェブページの特徴量$\vec{w}$の類似度が高いものから順に並べてリストを構築している.ここでユーザの特徴量$\vec{u}$において$i$番目の次元の$u_i$の値が他の次元の値と比べ非常に大きいとする($u_i\ggu_{\backslashi}$).その時$i$次元が高い特徴量を持つウェブページの$r$が高くなるため,推薦リスト内のウェブページがそのようなウェブページばかりになってしまう.特徴量の各次元はユーザの興味関心の方向を表しているため,結果として推薦リスト内が同じようなウェブページばかりで構成されてしまうことになる.上記の例は極端ではあるが,上部で既に提示された記事と同じような内容になるため中位以降では飽きが生じてしまい,結果として人手で挿入した記事のほうが新鮮さがあるためクリック率が同程度かそれ以上になるのではないかと考える.このような結果から本システムに多様性を導入することにより,中位以降のクリック率を改善することができ,ユーザ満足度を向上させることに繋がるのではないかと考えた.
\section{推薦システムへの多様性の導入}
\label{sec:purpose}本章では既存の推薦システムに多様性を導入する方法について述べる.まず多様性の手法としてよく知られているZieglerらのTopicDiversificationAlgorithm(TDA)を紹介する\cite{ziegler2005}.そしてTDAをベースにグノシーの推薦システムに多様性を導入するためのユーザ減衰モデルについて述べ,TDAとの関連について議論する.そしてユーザ減衰モデルがどのように多様性を向上させているのかを比較実験によって示す.\subsection{TopicDiversificationAlgorithm}本節では推薦リストの多様性に関する手法としてよく知られているZieglerらの手法を紹介する\cite{ziegler2005}.Zieglerらは多様性を表す指標Intra-ListSimilarityと,関連度順に与えられた推薦リストから多様性を持った推薦リストを生成するTopicDiversificationAlgorithm(TDA)を提案している.TDAは既に関連度順に並んでいるアイテムリスト$L$があるときに,そのリストを多様性を持つように並び替えたリスト$L_{diver}$を構築することを目的としている.ここで多様性リスト$L_{diver}$はもともとのリスト$L$と同じ長さかそれより短いものとする.ここでアイテムリスト$l$とアイテム$p$の類似度を表す関数を$c(l,p)$と,アイテム$p$のリスト$l$内での位置を表す関数を$rank(p,l)$とする.またリスト$L$の$i$番目のアイテムを$L(i)$とすることにする.つまり$rank(L(i),L)=i$と書ける.TDAではまず$L_{diver}(0)=L(0)$として,その後$L_{diver}$に含まれない$L$内のアイテムリスト$L_{\backslashdiver}$から$L_{diver}$にアイテムを1つずつ追加する.まず$L_{\backslashdiver}$内のアイテム$p$とリスト$L_{diver}$との類似度$c(L_{diver},p)$の昇順になるようにソートしたリスト$L_{similar}$を構築し,以下の条件を満たす$p$を$L_{diver}$の末尾に加える.\begin{equation}\label{eq:tda}\min_{p}\bigl\{(1-\alpha)\timesrank(p,L)+\alpha\timesrank(p,L_{similar})\bigr\}\end{equation}式\ref{eq:tda}では既に作られているリストとの類似度の少なさの順位と,推薦システムとしての関連度の順位を平均した順位が最も高いアイテムを選ぶ.このようにして選ばれたアイテムをリストに加えることを繰り返し,多様性のあるリストを作る.この手法によって構築した推薦リストは$\alpha$を高めるとPresicionやRecallは低下するが多様性は高まっていき,アンケートによる実験の結果ユーザは$\alpha$が0.3〜0.4のリストを最も好むと報告された.特に内容ベースフィルタリングを用いた推薦リストにおいて著しいユーザ満足度の向上が見られたことが示されている.\subsection{多様性の導入}本節では\ref{sec:gunosy}章で述べた手法に多様性を導入する方法について述べる.前節で紹介したTDAは既に推薦されたリスト内のアイテムと類似度が高いアイテムが推薦されにくくなることを目的とした手法である.この考え方を元に既存システムに多様性を組み込むために,本研究では推薦されたアイテムの特徴量を,ユーザの特徴量から減衰することによって同様の多様性効果を得ることを目指す.以降本手法をユーザ減衰モデルと呼ぶ.このユーザ減衰モデルはTDAの考えをグノシーのシステムで実現するための手法であり,本論文の貢献としてユーザ減衰モデルの提案は含まない.まず推薦リストをいくつかのブロックに分割する.$K$個のウェブページを推薦する場合それを$N<K$となる$N$個のリストに分割する.ここで$i$番目のリスト内のウェブページの個数を$k_i$とすると$K=\sum_{i=0}^Nk_i$と書ける.また$i$番目のブロックまでに推薦されているウェブページの数を$n_i$とすると,$n_0=0$,$i$が1以上のときは$n_i=\sum_{j=0}^{i}k_j$と書ける.このようにリストを$N$個に分割した上で,各ブロックごとに推薦を行いながらユーザの特徴量を減衰させていく.$i$番目のリストを生成するためのユーザの特徴量を$\vec{u_i}$とすると,以下のように書ける.\pagebreak\begin{gather}\vec{u_0}=\vec{u}\nonumber\\\vec{u_{i+1}}=\vec{u_{i}}-\alpha\sum_{j=n_i}^{n_{i+1}}\vec{w_j}(i\geq0)\label{eq:descrease}\end{gather}ここで$\alpha$は定数である.このユーザ減衰モデルがTDAと同じような性質を持つことを示す.ユーザ減衰モデルにおいて$k_0=3$であり,$\vec{u_0}$を用いて$w_0,w_1,w_2$を推薦したとする.ここで次の推薦のための減衰されたユーザの特徴量$\vec{u_1}$は式\ref{eq:descrease}から以下のように求められる.\[\vec{u_1}=\vec{u_0}-\alpha*(\vec{w_0}+\vec{w_1}+\vec{w_2})\]ここで次に推薦されるアイテム$w_4$は以下のように書ける.\[w_4=max_{w\inW_{\backslashw_0,w_1,w_2}}f(\vec{u_1},\vec{w})\]ここで$f(\vec{u},\vec{w})$は同じベクトル空間上のユーザ特徴量とウェブページ特徴量の類似度をベースに表現されることから$f$では以下が成立すると仮定する.\begin{gather*}f(\vec{u_1}+\vec{u_2},w)\proptof(\vec{u_1},\vec{w})+f(\vec{u_2},\vec{w})\\f(\alpha\vec{u},\vec{w})\propto\alphaf(\vec{u},\vec{w})\end{gather*}これを利用すると$f(u_1,w)$は以下のように展開できる.\begin{equation}\label{eq:tda_vs_purpose}f(u_1,w)\proptof(u_0,w)+f(-\alpha(w_1+w_2+w_3),w)\proptof(u_0,w)-\alphaf(w_1+w_2+w_3,w)\end{equation}ここで第一項の$f(\vec{u_0},w)$は減衰前のユーザ特徴量と$w$の類似度を返すものであり,第二項目は既に構築された推薦リストと$w$の類似度を返すものである.つまりユーザ減衰モデルでは元々のユーザ特徴量の評価値から,既に構築された記事リストとの評価値に一定の値を乗じた値を引いた値が最大になるウェブページを推薦しているといえる.ここで式\ref{eq:tda}と式\ref{eq:tda_vs_purpose}を比較すると,TDAにおける順位を返す関数を評価値を返す関数と考えれば,ユーザ減衰モデルとTDAは一致するといえる.ユーザ減衰モデルとTDAの違いを以下にまとめる.\begin{itemize}\itemTDAではリストとの類似度を順位として重み付け平均で計算しているが,本研究では評価値の重み付け平均とすることでユーザ特徴量の減衰によって実現している.\itemTDAでは構築したリストにアイテムを1つずつ追加しているが,ユーザ減衰モデルではブロックにわけて複数個ずつ追加している.\end{itemize}このように細部の違いはあるもののユーザ減衰モデルの基本的な考え方はTDAと一致している.\subsection{既存システムとの比較実験}本節ではユーザ減衰モデルがどれだけ多様性を向上させているのかを既存システムと比較することによって示す.2012年11月の1週間の記事データを用いて1日ずつ当該期間にアクティブであったユーザから無作為に抽出した1,000人のユーザに対して,既存システムとユーザ減衰モデルを用いてそれぞれ25件の記事リスト生成し比較を行う.このとき推薦リストの分割数$N=5$とし,各ブロックの大きさは$k_1=3,k_2=4,k_3=5,k_4=6,k_5=7$とした.比較のためにZiegerらの研究でも用いられていたIntra-List-Similarity(ILS)とoverlapの2つの指標を用いる\cite{ziegler2005}.ILSはZieglerらが提案した多様性を評価するための指標であり,多様性を評価する上で代表的な手法である\cite{Konstan2012}.定義を以下に示す.\[ILS(P_{w_i})=\frac{\sum_{b_k\inP_{w_i}}\sum_{b_e\inP_{w_i},b_k\neqb_e}c_o(b_k,b_e)}{2}\]このようにILSはリスト内のすべてのアイテムの組み合わせの類似度の総和である.本節では各記事の特徴量のコサイン類似度によってILSを求めることとする.overlapは元の推薦リストと多様性のある記事リストが何件一致しているかによって求められる.これによって多様性によってどれだけ推薦結果が変化するのかを知ることができる.まず7日間全体での各指標の平均値を表\ref{tbl:diversity}に示す.\begin{table}[t]\caption{多様性指標の比較}\label{tbl:diversity}\input{05table01.txt}\end{table}ユーザ減衰モデルでは既存システムに比べてILSが下がっていることが分かる.これはユーザ特徴量を減衰しながら推薦することで,既存システムでは推薦されていたリスト上位で既に推薦された記事と類似している$r$が高い値をもつ記事が推薦されにくくなったためである.overlapは8.06であり既存システムと提案手法では約8件と約2/3の記事が変化していることが分かる.最上位ブロックは両方の手法で変化しない.$k_1=3$であるため今回の実験では3件の記事は必ず一致する.そのため残りの22件のうち17件が多様性によって変化したと言える.このようにユーザ減衰モデルがリスト内の類似度を低下させ,記事リストを変化させていることが明らかになった.
\section{多様性の導入によるユーザ行動の変化}
\label{sec:experience}本章ではユーザ減衰モデルを実際にサービスに適用することでユーザ行動におこった変化について述べ,推薦システムの多様性がユーザ体験に与える影響について考察する.\subsection{実験方法}本節では実験方法について述べる.本研究ではグノシーのサービス上で\ref{sec:gunosy}章で述べた既存システムと\ref{sec:purpose}章で述べたユーザ減衰モデルの比較を行った.実験は2012年の8月から12月において行われた.既存システムによってサービスを提供する期間と,ユーザ減衰モデルによってサービスを提供する期間に分け,それぞれの期間における新規登録ユーザのサービス内でのユーザ行動を比較した.また本サービスでは各種ウェブサービスとの連携によって初期のユーザ特徴量を構築しているが,連携したウェブサービス上での行動が少ない場合は初期のユーザの特徴量を構築することができない.本サービスではそのようなユーザに対してランダムな記事リストの生成を初期段階で行い,クリックしたウェブページのみによってユーザ特徴量を生成している.このようなユーザは継続率やウェブページのクリック率がそうでないユーザに比べて低いことが経験的に知られており,期間中のそのようなユーザの登録人数の比率が実験結果に影響を及ぼすと予想されることから,今回登録時にユーザ特徴量が生成できなかったユーザは比較実験の対象外とした.このようにして実験対象となるユーザ群を定義した.既存システムによるサービスを受けたユーザは3,465人,ユーザ減衰モデルによるサービスを受けたユーザは3,482人であり比較実験として同程度のユーザ数となった,各手法でユーザの登録期間は異なるが,実験期間において手法の変更以外のサービスのアップデートはデザインなども含めて行われてはいないため,実験として期間の違いは問題にならないと考えている.\subsection{評価方法}本節では行った実験の評価方法について述べる.ユーザ減衰モデルでは多様性の導入により,サービスを利用しているユーザの満足度が向上することが期待されている.それを測るために,週次でのユーザの継続率を比較する.登録してから7日目以内にウェブページを1つでもクリックした場合はそのユーザは1週目継続したとする.そして8日目以降14日目以内にウェブページを1つでもクリックした場合はそのユーザは2週目に継続したとする.このようにユーザが登録日から7日毎に推薦されたウェブページをクリックしたかを対象期間の登録ユーザ数を母数とした週次の継続率として評価に用いる.継続率はウェブサービスの改善の指標としてよく用いられる指標であり,これが高いとユーザがサービスに満足していると評価することができる.その上で各週に継続しているユーザがその週次内で何日間サービスを利用したかを比較する.この数値が高いとサービスを利用している日数が多いといえるため,ユーザがよりサービスに定着していると考えられる.そして順位ごとのクリック率を\ref{sec:gunosy}章と同様に比較し,ユーザが推薦リストをどのように利用しているか,それが利用日数が増えるごとにどのように変化していくかを評価する.\subsection{サービス利用の比較}本節では既存システムとユーザ減衰モデルの継続率の比較結果について述べる.既存システムとユーザ減衰モデルのそれぞれの週次継続率を表\ref{tbl:retention}に示す.ユーザ減衰モデルのほうがすべての週次で良い継続率を記録していることがわかる.この継続率が同等であるという仮説は1週目から4週目まですべてカイ二乗検定において有意水準1\%で棄却することができるため,ユーザ減衰モデルがユーザの継続率を有意に改善しているといえる.\begin{table}[b]\caption{週次継続率の比較}\label{tbl:retention}\input{05table02.txt}\end{table}次に各週内でのサービスの利用日数を調べる.ユーザ減衰モデルがユーザの満足度を向上させているのであれば,利用日数も高くなっていることが期待される.表\ref{tbl:weekly_active}に既存システム,ユーザ減衰モデルそれぞれの週次での平均利用日数とその分散を示す.ユーザ減衰モデルのほうが平均利用日数が高いことがわかる.2つの手法の平均利用日数は差がないという仮説は平均利用日数が正規分布に従うとするとt検定によって有意水準1\%で棄却されるため,この平均利用日数の差は統計的に有意であるといえる.\begin{table}[b]\caption{週次の利用日数の比較}\label{tbl:weekly_active}\input{05table03.txt}\end{table}このようにユーザ減衰モデルによって推薦リストに多様性を導入した結果,ユーザのサービス利用の満足度が向上したことが示唆された.\subsection{表示順位ごとのクリック率の変化}本節では多様性の導入がユーザのリスト内のクリック率に対してどのような変化を与えたのかを分析する.ユーザ減衰モデルでは上位で推薦したウェブページに関係するユーザの特徴量が減衰され,既存システムでは推薦されなかったウェブページが推薦されるようになっている.その結果として順位ごとのクリック率がどのように変化しているのかを調べる.ユーザ減衰モデルによって新たに推薦されるようになったウェブページは,既存システムでは$r$が低いためにより低い位置で推薦されるウェブページであるため,$r$とクリック率の相関関係のみを考えればクリック率が低下する恐れがある.ユーザ減衰モデルではリスト内の多様性が生まれることによって既存システムと同等かそれ以上のクリック率が生まれることを期待している.\begin{table}[b]\vspace{-0.5\Cvs}\caption{リスト内の一人あたりクリック数}\label{tbl:weekly_click}\input{05table04.txt}\end{table}表\ref{tbl:weekly_click}に週次のリスト内での平均クリック数と10段目までと11段目以降の平均クリック数を示す.平均クリック数はユーザ減衰モデルが既存システムをすべての期間で上回っており,登録から日数が経つごとにその差は拡大していく.平均クリック数が正規分布に従うと仮定しt検定を行った結果,3週目と4週目においてリスト全体の平均クリック数と11段目以降の平均クリック数,4週目において10段目までの平均クリック数においてそれらが等しいという仮説が有意水準1\%で棄却された.以上のことからユーザ減衰モデルによって平均クリック数,特にリスト下部での平均クリック数が3週目以降で改善していることが示される.特に11段目以降のクリック数は既存システムは低下していくのに対してユーザ減衰モデルでは中位以降のクリック数が上昇していっており,既存システムの課題が改善していることが分かる.\begin{figure}[b]\begin{center}\includegraphics{24-1ia5f4.eps}\end{center}\caption{1週目の表示位置ごとのクリック率}\label{fig:purposed_rank_1week}\end{figure}図\ref{fig:purposed_rank_1week}に登録1週目の表示位置によるクリック率の既存システムとユーザ減衰モデルの比較を示す.ばらつきはあるものの各表示位置においてクリック率はほぼ同等の傾向を示しており,多様性を導入することによってクリック率に対して悪影響が出ていないことが確認された.2週目も1週目と同等に既存システムとユーザ減衰モデルには大きな差は見られなかった.しかし図\ref{fig:purposed_rank_3week}に示す3週目には,中位以降でユーザ減衰モデルのほうがわずかではあるがクリック率が高い傾向になる.そして図\ref{fig:purposed_rank_4week}に示す4週目にはリスト全体でユーザ減衰モデルのほうがクリック率が上回る傾向にある.このように登録してから日が浅い段階ではユーザ減衰モデルと既存システムは同等であったが,利用日数が伸びるにしたがってユーザ減衰モデルの方がよりクリック数が多くなることが明らかになった.\begin{figure}[t]\begin{center}\includegraphics{24-1ia5f5.eps}\end{center}\caption{3週目の表示位置ごとのクリック率}\label{fig:purposed_rank_3week}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{24-1ia5f6.eps}\end{center}\caption{4週目の表示位置ごとのクリック率}\label{fig:purposed_rank_4week}\end{figure}\subsection{考察}本章では多様性を持たない既存システムと多様性を導入したユーザ減衰モデルを実際のサービス上で提供し,ユーザに与える影響を比較した.その結果多様性によってユーザのサービス利用の継続率と利用日数が有意に向上することが示された.また利用開始から日が浅い段階では記事リストのクリック率に変化はないが,利用日数が増えるにつれて記事リスト全体でクリック率が高くなる.特にリスト下部のクリック率が既存システムでは低下していくが,ユーザ減衰モデルでは上昇していくことが示された.既存システムでリスト下部のクリック率が利用日数が増えていく中で低下していく理由を考察する.本システムでは初期段階ではユーザが連携しているウェブサービスから得られるデータを用いてユーザの特徴量を構築し,その後システム内でクリックしたウェブページの特徴量を元にユーザ特徴量を更新していく.リストに多様性がある場合には個々のユーザがクリックしたウェブページ集合にも多様性が生まれると考えられることから,ユーザ減衰モデルにおけるユーザの特徴量$\vec{u}$は既存システムでは得られなかった多種多様な興味関心を内包したものとなり,ユーザ特徴量減衰後のウェブページがより興味に即したものになっていく.既存システムではリストに多様性がないためユーザのクリックするウェブページが同じような特徴量をもったウェブページに集中するため,ユーザ特徴量がそのようなウェブページにより更新されることから,利用日数が増えるほどに一層推薦されるウェブページリストに偏りが生まれる.その結果リスト下部のクリック数が既存システムではサービスへの飽きから徐々に下がっていくのに対し,ユーザ減衰モデルではリスト下部のコンテンツのユーザとのマッチング精度が向上していくことにより,リスト全体のクリック率がユーザ減衰モデルにおいて長期で高い値になっていることが考えられる.推薦リストの多様性については,評価者にリストを見せてどちらかを選ばせるような実験の結果をもって有効であるとされていたが,本研究ではその結果が実際にサービスの利用頻度という点で現れることを示した.その上でリスト全体のクリック率は初期段階では差がないが,利用日数が増えるにしたがって向上していくことが示され,特にリスト下部でのクリック率が多様性がある場合とない場合で大きな差になっていくことが明らかとなった.サービスにおけるユーザの継続率はユーザの満足度を表す重要な指標であると言われている\cite{RUST1993}.週次の継続率と利用日数が向上したことにより推薦システムの多様性がサービスのユーザ満足度の向上をもたらすことを示したと我々は考えている.そして利用日数が増えるに従ってクリック率の差が大きくなっていく点については,推薦システムのオンラインでの評価を行う上で短期的な評価だけでなく中長期的な評価も行う必要性があることを示した.以上のように本実験では推薦システムの多様性によって利用ユーザのクリック率,週次継続率,週次利用日数の向上が確認でき,多様性が推薦システムのユーザ満足度を改善することを示した.そしてその影響が継続的な利用によって観測されることを明らかにし,オンライン評価における中長期的な評価の必要性を示した.
\section{まとめ}
\label{sec:conclusion}本研究では推薦システムに多様性を導入することによるサービス上のユーザ行動の変化について比較実験を行い,多様性がユーザ体験を改善したことを示した.まずサービスのユーザ体験を改善することを目的に推薦システムの分析を行い,多様性がユーザの満足度を高める可能性があることを示した.その上でユーザ特徴量を減衰していく形で推薦システムに多様性もたらす手法との比較実験によってユーザ行動の変化を分析した.結果として継続率やサービス利用日数が有意に改善していることを示し,従来研究で言われていた多様性を含む推薦リストのほうがユーザに好まれるということを実サービス上で示した.そして利用日数が増えるにしたがってリスト全体のクリック率が改善していくこと,特にリスト下部のクリック率が多様性のない手法では下がっていくのに対して,多様性のある手法では向上していくことを示した.これは従来研究で示されていなかった多様性の中長期における影響を示したものである.推薦システムを実サービスに適用した際の効果については不明な点が多い.本研究ではリストの多様性が中長期的な視点でみたときにユーザ体験の改善に貢献することを示唆しており,今後推薦システムにおいて多様性を考慮する上で重要な知見を示すことができたと考えている.また中長期でよりよい影響が生まれていることから推薦システムを評価する上で実サービス上で,なおかつある程度期間を設けて実験を行う重要性を示したものであると言える.推薦システムのユーザ体験を考慮する上で多様性と並んで説明性や透明性が重要であると言われている\cite{Konstan2012}.今後はこれらの指標の有効性についても実サービス上で考察をしていきたい.また推薦システムにかぎらず本稿のように言語処理技術を実サービスに適用する上での課題や改善の手法について,サービス運営者としての視点から知見の共有や検証を行っていきたい.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Belluf,Xavier,\BBA\Giglio}{Bellufet~al.}{2012}]{belluf2012case}Belluf,T.,Xavier,L.,\BBA\Giglio,R.\BBOP2012\BBCP.\newblock\BBOQCaseStudyontheBusinessValueImpactofPersonalizedRecommendationsonaLargeOnlineRetailer.\BBCQ\\newblockIn{\BemProceedingsofthe6thACMConferenceonRecommenderSystems},\mbox{\BPGS\277--280}.ACM.\bibitem[\protect\BCAY{Cosley,Lam,Albert,Konstan,\BBA\Riedl}{Cosleyet~al.}{2003}]{cosley2003}Cosley,D.,Lam,S.~K.,Albert,I.,Konstan,J.~A.,\BBA\Riedl,J.\BBOP2003\BBCP.\newblock\BBOQIsSeeingBelieving?:HowRecommenderSystemInterfacesAffectUsers'Opinions.\BBCQ\\newblockIn{\BemProceedingsoftheSIGCHIConferenceonHumanFactorsinComputingSystems},\mbox{\BPGS\585--592}.ACM.\bibitem[\protect\BCAY{Davidson,Liebald,Liu,Nandy,Van~Vleet,Gargi,Gupta,He,Lambert,Livingston,\BBA\Sampath}{Davidsonet~al.}{2010}]{davidson2010youtube}Davidson,J.,Liebald,B.,Liu,J.,Nandy,P.,Van~Vleet,T.,Gargi,U.,Gupta,S.,He,Y.,Lambert,M.,Livingston,B.,\BBA\Sampath,D.\BBOP2010\BBCP.\newblock\BBOQTheYouTubeVideoRecommendationSystem.\BBCQ\\newblockIn{\BemProceedingsofthe4thACMConferenceonRecommenderSystems},\mbox{\BPGS\293--296}.ACM.\bibitem[\protect\BCAY{Fleder\BBA\Hosanagar}{Fleder\BBA\Hosanagar}{2007}]{fleder2007recommender}Fleder,D.~M.\BBACOMMA\\BBA\Hosanagar,K.\BBOP2007\BBCP.\newblock\BBOQRecommenderSystemsandTheirImpactonSalesDiversity.\BBCQ\\newblockIn{\BemProceedingsofthe8thACMConferenceonElectronicCommerce},\mbox{\BPGS\192--199}.ACM.\bibitem[\protect\BCAY{Herlocker,Konstan,Terveen,\BBA\Riedl}{Herlockeret~al.}{2004}]{herlocker2004}Herlocker,J.~L.,Konstan,J.~A.,Terveen,L.~G.,\BBA\Riedl,J.~T.\BBOP2004\BBCP.\newblock\BBOQEvaluatingCollaborativeFilteringRecommenderSystems.\BBCQ\\newblock{\BemACMTransactionsonInformationSystems(TOIS)},{\Bbf22}(1),\mbox{\BPGS\5--53}.\bibitem[\protect\BCAY{Jannach,Zanker,Felfernig,\BBA\Friedrich}{Jannachet~al.}{2010}]{Jannach2010}Jannach,D.,Zanker,M.,Felfernig,A.,\BBA\Friedrich,G.\BBOP2010\BBCP.\newblock{\BemRecommenderSystems:AnIntroduction\/}(1st\BEd).\newblockCambridgeUniversityPress,NewYork,NY,USA.\bibitem[\protect\BCAY{Konstan\BBA\Riedl}{Konstan\BBA\Riedl}{2012}]{Konstan2012}Konstan,J.~A.\BBACOMMA\\BBA\Riedl,J.\BBOP2012\BBCP.\newblock\BBOQRecommenderSystems:fromAlgorithmstoUserExperience.\BBCQ\\newblock{\BemUserModelingandUser-AdaptedInteraction},{\Bbf22}(1),\mbox{\BPGS\101--123}.\bibitem[\protect\BCAY{Lathia,Hailes,Capra,\BBA\Amatriain}{Lathiaet~al.}{2010}]{lathia2010temporal}Lathia,N.,Hailes,S.,Capra,L.,\BBA\Amatriain,X.\BBOP2010\BBCP.\newblock\BBOQTemporalDiversityinRecommenderSystems.\BBCQ\\newblockIn{\BemProceedingsofthe33rdInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\210--217}.ACM.\bibitem[\protect\BCAY{Manning,Raghavan,\BBA\Sch{\"u}tze}{Manninget~al.}{2008}]{manning2008introduction}Manning,C.~D.,Raghavan,P.,\BBA\Sch{\"u}tze,H.\BBOP2008\BBCP.\newblock{\BemIntroductiontoInformationRetrieval},\lowercase{\BVOL}~1.\newblockCambridgeUniversityPress,Cambridge.\bibitem[\protect\BCAY{村上\JBA森\JBA折原}{村上\Jetal}{2009}]{murakami2009}村上知子\JBA森紘一郎\JBA折原良平\BBOP2009\BBCP.\newblock推薦の意外性向上のための手法とその評価.\\newblock\Jem{人工知能学会論文誌},{\Bbf24}(5),\mbox{\BPGS\428--436}.\bibitem[\protect\BCAY{Pariser}{Pariser}{2011}]{Pariser2011}Pariser,E.\BBOP2011\BBCP.\newblock{\BemTheFilterBubble:WhattheInternetisHidingfromYou}.\newblockThePenguinGroup.\bibitem[\protect\BCAY{Resnick,Konstan,\BBA\Jameson}{Resnicket~al.}{2011}]{filterbubble}Resnick,P.,Konstan,J.,\BBA\Jameson,A.\BBOP2011\BBCP.\newblock\BBOQPanelonTheFilterBubble.\BBCQ\\newblockIn{\BemProceedingsofthe5thACMConferenceonRecommenderSystems}.\newblock\url{https://acmrecsys.wordpress.com/2011/10/25/panel-on-the-filter-bubble/}2016年5月3日閲覧.\bibitem[\protect\BCAY{Rust\BBA\Zahorik}{Rust\BBA\Zahorik}{1993}]{RUST1993}Rust,R.~T.\BBACOMMA\\BBA\Zahorik,A.~J.\BBOP1993\BBCP.\newblock\BBOQCustomerSatisfaction,CustomerRetention,andMarketShare.\BBCQ\\newblock{\BemJournalofRetailing},{\Bbf69}(2),\mbox{\BPGS\193--215}.\bibitem[\protect\BCAY{総務省}{総務省}{2014}]{ictbook2014}総務省\BBOP2014\BBCP.\newblock\Jem{平成26年度版情報通信白書}.\bibitem[\protect\BCAY{矢野経済研究所}{矢野経済研究所}{2014}]{yano2014}矢野経済研究所\BBOP2014\BBCP.\newblock\Jem{キュレーションサービス市場に関する調査結果}.\bibitem[\protect\BCAY{Zhang\BBA\Hurley}{Zhang\BBA\Hurley}{2008}]{zhang2008avoiding}Zhang,M.\BBACOMMA\\BBA\Hurley,N.\BBOP2008\BBCP.\newblock\BBOQAvoidingMonotony:ImprovingtheDiversityofRecommendationLists.\BBCQ\\newblockIn{\BemProceedingsofthe2008ACMConferenceonRecommenderSystems},\mbox{\BPGS\123--130}.ACM.\bibitem[\protect\BCAY{Ziegler,McNee,Konstan,\BBA\Lausen}{Ziegleret~al.}{2005}]{ziegler2005}Ziegler,C.-N.,McNee,S.~M.,Konstan,J.~A.,\BBA\Lausen,G.\BBOP2005\BBCP.\newblock\BBOQImprovingRecommendationListsthroughTopicDiversification.\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalConferenceonWorldWideWeb},\mbox{\BPGS\22--32}.ACM.\end{thebibliography}\begin{biography}\bioauthor{関喜史}{2008年富山商船高等専門学校情報工学科卒業.2011年東京大学工学部システム創成学科卒業.2013年東京大学大学院工学系研究科技術経営戦略学専攻修士課程修了.同大学院博士課程後期課程在学中.2012年に株式会社Gunosyを創業し,研究開発業務に従事.}\bioauthor{福島良典}{2011年東京大学工学部卒業.2013年同大学院工学系研究科修了.大学院在籍中にGunosyを共同開発し,2012年株式会社Gunosyを創業し代表取締役社長に就任.2012年度未踏スーパークリエイター.}\bioauthor{吉田宏司}{2011年東京大学工学部卒業.2013年同大学院工学系研究科修了.大学院在籍中にGunosyを共同開発し,2012年株式会社Gunosyを創業し現在データ分析部の部長を勤め,データ分析,アルゴリズム構築.Webの開発等を担当.2012年度未踏スーパークリエイター.}\bioauthor{松尾豊}{1997年東京大学工学部卒業.2002年同大学院博士課程修了.博士(工学).産業技術総合研究所,スタンフォード大学を経て,2007年より,東京大学大学院工学系研究科技術経営戦略学専攻准教授.2012年より人工知能学会理事・編集委員長,2014年より倫理委員長.人工知能学会論文賞,情報処理学会長尾真記念特別賞,ドコモモバイルサイエンス賞など受賞.専門は,Web工学,DeepLearning,人工知能.}\end{biography}\biodate\end{document}
| |
V07N04-06 | \section{はじめに}
\label{hajimeni}近年,テキストの自動要約の研究が盛んに行われている\cite{okumura99}.要約は,その利用目的により,原文の代わりとして用いる報知的(informative)要約と,原文を参照する前の段階で原文の適切性の判断などに用いる指示的(indicative)要約とに分類される\cite{Hand97}.報知的要約には,TVニュース番組への字幕生成(例えば,\cite{shirai99}参照)などのように,情報を落とすべきではない要約も含まれる.このような要約文の生成に,文や段落を単位とした重要文抽出の手法を利用すると,採用されなかった文に含まれる情報が欠落する可能性が高い.情報欠落の可能性が低い要約手法として,言い換えによる要約\cite{wakao97,yamasaki98}があるが,要約率に限界があることから(例えば,\cite{yamasaki98}参照),他の要約手法との併用が必要となる.情報欠落の可能性を減少させた手法として,これまでいくつかの手法が提案されている.福島ら\cite{fukushima99}は,長文を短文に分割した後に重要文抽出を行うことで,情報欠落の可能性の減少を試みている.しかし,重要文として採用されなかった文に含まれる情報には,欠落の可能性が残っていると言える.三上ら\cite{mikami99}は,文ごとに冗長な部分を削除することにより,文単位での抽出による情報の偏りを回避している.この手法では,連体修飾部や例示の部分を削除しても,文の中心内容は影響を受けないとして,これらの部分を削除対象としている.しかし,削除された部分が,読み手にとって重要と判断される場合もあることが三上らのアンケート調査の結果より明らかになっている.さらに,三上らは,連体修飾部等の意味に立ち入らず,構文構造のみから削除部分を認定しており,また,ある文を要約する際には,他の文の情報を使用していない.そのため,例1の下線部のように,意味が同じ修飾部であっても,一方が冗長であると認定されて削除されるならば,もう一方も同様に削除され,これらの情報は欠落する.逆に,冗長であると認定されなければ,両方とも残されるので,読み手にとって既知の情報を再度伝えることになる.\newpage\begin{quote}\label{rei:rei1}\hspace*{-1em}{\bf例1:}\\\hspace*{1em}\underline{薬害エイズの真相究明につながる}新たなファイルがあることが明らかになった問題で、$\cdots\cdots$\hspace*{1em}この問題は、\underline{薬害エイズの真相究明につながる}厚生省のファイルがこれまでに見つかった九冊の他にさらに七冊あることがわかったもので、$\cdots$\end{quote}\vspace{4mm}そこで本論文では,このような,意味の重複部分を削除する要約手法について議論する.テキスト内で,既出の部分と同一の意味を表している部分のみを削除することにより,情報欠落の可能性を極力回避し,冗長度を減少させることが可能であると考えられる.意味が同一であるかを判定するためには意味を理解する必要があるが,現状の技術で機械による意味理解は困難である.よって,意味の重複のうち,表現の重複で認定可能な事象\footnote{本論文では,語の集まりによって表現される対象物や現象,動作などを事象と呼ぶ.}を対象とする.例1の下線部のように,テキスト内に同じ事象を表す部分が再び現われたならば,その修飾部(第2文の下線部)を削除しても,人間は理解が可能である.本論文では,事象の重複部分の削除による要約を,事象の重複部を認定する「重複部の認定」と,重複部のうち削除可能な部分を決定する「重複部の削除」とに分けて議論する.「重複部の認定」では,2語の係り受け関係を用いて重複部の認定を行う.係り受け関係のある2つの語が,一つの事象を表していると仮定し,それを比較することで事象の重複を認定する.\ref{nintei}~節では,この2語の係り受け関係を用いた重複部の認定について述べる.一方,認定された重複部がすべて削除可能であるとは限らない.たとえ重複していたとしても,削除すると読み手の理解が困難になることや,不自然な要約文が生成されることがある.よって,「重複部の削除」では,全ての重複部を削除するのではなく,削除可能な部分を決定する必要がある.\ref{sakujo}~節では,決定の際に考慮すべき情報について述べる.以下,\ref{jitsugen}~節では,\ref{nintei}~節で述べる重複部の認定と,\ref{sakujo}~節で示す情報のうち実現可能なものとを用いた要約手法の計算機上での実現について述べる.\ref{hyouka}~節では,本手法の評価を行う.記事内に重複の多いニュース原稿を入力テキストとして要約を行い,どの程度重複部分を削除可能か,また,削除箇所が妥当であるかの評価実験を行った.ニュース原稿は,NHK放送技術研究所との共同研究のため提供された,NHK汎用原稿データベースを使用した.\ref{kousatsu}~節では,評価実験の結果より,人間(筆者)は削除したが本手法では削除されなかった重複部,および,妥当でない削除箇所について考察する.さらに,本手法の妥当性と有効性等について考察する.また,\ref{kanren}~節では関連研究について論じる.テキスト自動要約においては,一般的に単独の手法のみでは必ずしも十分な要約率が達成できるとは限らない.むしろ,複数の要約手法を併用することで望ましい要約が得られることが多い.本論文で提唱する手法は,要約を行なう応用において要素技術の一つとして用いることができるが,要約率を向上させるには文間の重複表現以外を用いた他の要約技術との併用を前提とする.
\section{重複部の認定}
\label{nintei}\subsection{2語の係り受け関係の利用}\label{nintei_2goriyou}事象の重複を認定するために,1語による表現が重複しているか否かの照合を行うことを考える.以下の例の第1文と第2文は,「太郎がボールを買った」という事象が重複している.この例文では,1語による表現「太郎」,「ボール」,「買う」の重複によって,重複している部分を認定することができる.\vspace{5mm}\begin{quote}\label{rei:rei2}\hspace*{-1em}{\bf例2:}\\\underline{太郎がボールを買った}。昨日、\underline{太郎が}スポーツ用品店で\underline{ボールを買った}。\end{quote}\vspace{5mm}以下の例では,1語による表現「走る」,「グランド」が重複しているが,それらの語が示している事象は異なっている.第1文では,走ったのは太郎であり,向かっている先がグランドである.しかし,第2文では,走っているのが次郎で,走っている場所がグランドである.\vspace{5mm}\begin{quote}\label{rei:rei3}\hspace*{-1em}{\bf例3:}\\太郎は、\underline{走って}\underline{グランド}へ向かった。そして、\underline{グランド}を\underline{走って}いる次郎を応援した。\end{quote}\vspace{5mm}このように,1語による表現の重複によって重複部を認定すると,重複していない事象を誤って認定する可能性がある.誤った認定を避けるために,係り受け関係のある2つの語が一つの事象を示していると仮定し,これを2語の係り受け関係と呼ぶ.文の骨格は2語の係り受け関係の組合せにより成っていると考えることができる.例2の第1文は,「太郎が買った」,「ボールを買った」という2語の係り受け関係の組合せで表すことができる.同様に第2文は,上記2つの2語の係り受け関係に,「昨日買った」,「スポーツ用品店で買った」を加えた,4つの2語の係り受け関係で表すことができる.第1文と第2文で重複している2語の係り受け関係が,事象の重複を表している.この2語の係り受け関係を用いて,例3の2つの文における事象の重複の認定を行う.第1文に含まれる2語の係り受け関係は,「太郎が向かった」,「走って向かった」,「グランドへ向かった」となり,第2文は「グランドを走っている」,「走っている次郎」,「次郎を応援した」となる.よって,第1文と第2文とで重複している2語の係り受け関係は存在しないので,事象の重複部はないと認定する.このように,2語の係り受け関係を用いると,事象の重複を誤って認定する可能性を減少させ,また,複数の事象により成っている文から,重複している事象のみを抽出することが可能となる.2語の係り受け関係は,その係り受け関係より,表\ref{tab:nigonokankei}~の関係1〜関係4に分類することができる.名詞Aが名詞Bを修飾する「AのB」の関係は,連体修飾語と被修飾語の名詞の関係の一つだが,後述するようにいくつかの用法があるため,本論文では区別して扱う.係り受け関係にある語$w_{1},w_{2}$から構成される,2語の係り受け関係を$R(w_{1},w_{2},r)$と表す.第1項が係り元の語,第2項が係り先の語であり,$r$は表\ref{tab:nigonokankei}~の分類における関係の番号(1〜4)である.本手法では,2語の係り受け関係において,文型の変化に柔軟に対応するために,助詞の情報は扱わない.また,これらの語は,活用による変化に対応するために,基本形を用いる.\begin{table}[t]\begin{center}\caption{2語の係り受け関係の分類}\label{tab:nigonokankei}\begin{tabular}{|l|l|}\hline\multicolumn{1}{|c|}{分類}&\multicolumn{1}{c|}{例}\\\hline\hline関係1:用言とその用言がとる格要素&太郎が買った,\\ボールを買った\\\hline関係2:連体修飾語と被修飾語の名詞&買ったボール\\\hline関係3:連用修飾語と被修飾語の用言&本格的に検討する\\\hline関係4:AのB&太郎のボール\\\hline\end{tabular}\end{center}\end{table}\subsection{重複の認定}\label{nintei_choufuku}\subsubsection{2語の係り受け関係の重複}\label{nintei_choufuku_2go}関係1の$R_{1}=(w_{1},w_{2},1)$と$R_{2}=(w_{3},w_{4},1)$において,$w_{1}$と$w_{3}$が同一の語であり,かつ,$w_{2}$と$w_{4}$も同一の語であるならば,$R_{1}$と$R_{2}$は重複していると認定する.関係2,3,4同士の重複の認定も同様に行う.同じ種類の関係同士だけではなく,異なる種類の関係同士であっても,それらの示す事象が重複している場合がある.そのため,異なる種類の関係であっても,以下のように照合\footnote{本論文において「照合」という語は,比較する処理のことを指し,比較した結果,同一であったという意味は含まない.}を行う.\vspace{2ex}\noindent{\bfa.関係2}連体修飾語には,被修飾語である名詞が連体修飾語の格要素となる「内の関係」と,格要素とならない「外の関係」とがある\cite{teramura75}.表\ref{tab:nigonokankei}~の関係2の例「買ったボール」の連体修飾語と被修飾語とは「内の関係」であり,被修飾語のボールを修飾語の格要素とすると,関係1である,「ボールを買った」となる.このように,関係2が表す事象と,関係1が表す事象は重複している可能性がある.よって,関係2の連体修飾語と被修飾語とが「内の関係」であれば,関係1と関係2を相互に照合を行い,関係1の$R_{1}=(w_{1},w_{2},1)$と,同一の語によって構成される関係2の$R_{2}(w_{2},w_{1},2)$とは,重複していると認定する.\vspace{2ex}\noindent{\bfb.関係3}関係3において,連用修飾語が形容詞,あるいは,形容動詞であり,被修飾語が動詞である場合は,関係1,および,関係2が示す事象と重複している可能性がある.例えば,関係3である「本格的に検討する」は,関係1である「検討が本格的だ」と,関係2である「本格的な検討」と重複している.よって,関係3は,関係1および関係2と相互に照合を行う.関係3である$R_{3}=(w_{1},w_{2},3)$の動詞$w_{2}$を名詞形にした$w_{2}^{\prime}$と$w_{1}$によって成る,関係1の$R_{1}=(w_{2}^{\prime},w_{1},1)$および,関係2の$R_{2}=(w_{1},w_{2}^{\prime},2)$は,重複していると認定する.\vspace{2ex}\noindent{\bfc.関係4}「AのB」には以下のような用法があり,AとBのどちらも用言となりうることが,島津ら\cite{shimazu85}によって指摘されている.\begin{itemize}\setlength{\itemsep}{-1.5mm}\item[i.]AがBの格要素:ビルの建設→関係1に対応\item[ii.]BがAの格要素:類似の経路→関係2に対応\item[iii.]AがVする(動詞を補う)B:彼女の鉛筆→関係1と関係2の組合せに対応\end{itemize}関係4を$R_{1}=(A,B,4)$とすると,i.の用法より関係1の$R_{2}=(A,B,1)$と,関係2の$R_{3}=(B,A,2)$との重複を認定する.これにより,「ビルの建設」が「ビルを建設する」,および,「建設するビル」と重複していると認定する.ii.の用法より関係1の$R_{4}=(B,A,1)$と,関係2の$R_{5}=(A,B,2)$との重複を認定する.これにより,「類似の経路」が「経路が類似する」,および,「類似する経路」と重複していると認定する.また,iii.の用法により,用言が省略されているとみなすことができるものもある.よって,$R_{1}=(A,B,4)$の名詞$A,B$と,関係1および関係2のうち,同一の用言$v$と関係のある名詞$A,B$との重複を認定する.$R_{1}$と重複している関係1,および,関係2の組合せを以下に示す.\begin{itemize}\setlength{\itemsep}{-1.5mm}\item関係1の$R_{6}=(A,V,1)$と$R_{7}=(B,V,1)$\item関係1の$R_{8}=(A,V,1)$と関係2の$R_{9}=(V,B,2)$\item関係1の$R_{10}=(B,V,1)$と関係2の$R_{11}=(V,A,2)$\end{itemize}これにより,「彼女の鉛筆」が「彼女が鉛筆を所有する」,「彼女が所有する鉛筆」,「鉛筆を所有する彼女」と重複していると認定される。\subsubsection{複合名詞と2語の係り受け関係の重複}\label{nintei_choufuku_fukugou}複合名詞内の名詞同士の関係は,「AのB」の関係で表しても,意味が変わらない場合がある.例えば,「財政問題」と「財政の問題」とは同一の内容を指している.よって,複合名詞は\setlength{\itemsep}{-1.5mm}\begin{itemize}\item一つの語として扱い,その係り先の語との関係を既出の関係と照合する\item複合名詞を構成する各名詞間の係り受け構造から,複数の部分$p_{1},p_{2},\cdots,p_{n}$に分割して,複数の関係4「$p_{i}$の$p_{j}$」($i<j$)として扱う.\end{itemize}の2通りで重複の認定を行う.\subsection{提題表現}\label{nintei_teidai}提題表現は,2語の係り受け関係とは独立に重複を認定することができる.提題表現は,その文の主題を提示するものであり,1つ前の文の提題表現と同じ名詞であれば,その名詞を省略しても,人は前の文の主題が続いていると理解する.よって,以下の例のように,提題表現の名詞と前文の提題表現の名詞とが同一であれば,2語の係り受け関係が重複していなくても,重複と認定する.\vspace{5mm}\begin{quote}\label{rei:rei4}\hspace*{-1em}{\bf例4:}\\\underline{橋本総理大臣は}$\cdots\cdots$に懸念を表しました。また\underline{橋本総理大臣は}$\cdots\cdots$という考えを示しました。\end{quote}
\section{重複部の削除}
\label{sakujo}本節では,重複部削除において必要となる情報について整理を行う.重複部と認定された2語の係り受け関係,および,提題表現を削除することにより要約を行うが,理解しやすく,かつ,自然な要約文を生成するためには,いくつかの情報を考慮しなければならない.これらの情報の中には,現段階では機械による実現が困難なものもあるが,重複部削除に必要な情報を整理することは有用である.\subsection{削除対象}\label{sakujo_taishou}重複している2語の係り受け関係であっても,その全体を削除してしまうと,理解が困難な文となる場合がある.以下に示す例文では,「韓国との連携を」が重複部と認定される.しかし,2度目に出現した「韓国との連携を」を削除すると,何を重視するのかの理解が困難な文となる.\vspace{5mm}\begin{quote}\label{rei:rei5}\hspace*{-1em}{\bf例5:}\\\hspace*{1em}「\underline{韓国との}密接な\underline{連携を}必要とする」と述べ、$\cdots$では[韓国との連携を]重視する考えを示しました。\end{quote}\vspace{5mm}これは,連携という語について,「連携を必要とする」という事象は既出であるが,「連携を重視する」という事象は述べられていないためである.すなわち,2語の係り受け関係$R_{1}=(w_{1},w_{2},r)$が重複していても,係り先となっている語$w_{2}$は,その係り先の語$w_{3}$との2語の係り受け関係$R_{2}=(w_{2},w_{3},r)$が重複していなければ,削除することはできない.よって,重複している2語の係り受け関係の2つの語のうち,係り元の語のみ削除を行う.\subsection{並列する節全体の削除}\label{sakujo_heiretsu}直接引用文を含む文では,以下の様な節の並列が見られる.\vspace{5mm}\begin{quote}\label{rei:rei6}\hspace*{-1em}{\bf例6:}\\橋本総理大臣は、中国の核実験について、「今月モスクワで原子力安全サミットが開催されるが、$\cdots$。我々の立場は、実験の早期停止を求めることだ」と述べ、\underline{原子力安全サミットを前に、核実験の停止を重ねて求めました}。\end{quote}\vspace{5mm}後半の節(下線部)の内容は,引用文を言い換えている場合が多く,また,ニュース文では,第1文等で同じ内容が既に示されている事が多い.そのため,重複している2語の係り受け関係の係り元を削除すると,係り先である文末の述部「求めました」のみが残存し,\begin{quote}橋本総理大臣は,$\cdots$「$\cdots\cdots$」と述べ、求めました。\end{quote}という不自然な文を生成してしまう.自然な文を生成するには,「求める」の格要素「停止を」を残存させる必要があるが,「停止を求めた」ことについては既に述べられているため,冗長となる.よって,冗長度を落とし,自然な文を生成するためには,後半の節全体を削除することが考えられる.この際に,前半の節の文末に,文末表現を補完する必要があるが,削除する後半の節から抽出して,補完が可能であると考えられる.\subsection{名詞の修飾要素の削除}\label{sakujo_meishi}重複部と認定された2語の係り受け関係が連体修飾語と被修飾語の名詞の関係,すなわち,関係2,または,関係4であった場合,その係り元である連体修飾語を削除すると意味の理解が困難になる可能性がある.一般に,連体修飾語は,以下の2つの要因を考慮して削除すべきである.\subsubsection{形式的表現の修飾要素の削除}\label{sakujo_meishi_keishiki}被修飾語の名詞が,形式的表現\cite{mikami99}である場合は,その修飾語を削除すると意味がとれなくなる可能性がある.形式的表現は,「考え」,「状況」のようなその語単独では,あまり意味を持たない語である.そのため,以下の例のように修飾語を削除すると,どのような考えなのか,どのような状況なのかを限定することができなくなり,読み手の理解が困難になる.\vspace{5mm}\begin{quote}\label{rei:rei7}\hspace*{-1em}{\bf例7:}[財政支出を予算案から削除する]\underline{考え}はないことを強調しました。[話し合う]\underline{状況}になっていない。\end{quote}\vspace{5mm}しかし,以下の例のように,形式的表現であっても,修飾要素を削除してもよい場合もある.\vspace{5mm}\begin{quote}\label{rei:rei8}\hspace*{-1em}{\bf例8:}\\昨日から、困った事態になっている。[困った]\underline{事態}を解消するため、$\cdots$\end{quote}\vspace{5mm}「事態が複雑になる」や「事態を解消する」のように,何かの事態が何らかの状態になる,または,何かの事態を何らかの状態にする,という用法の場合は,「事態」を限定する修飾要素を削除可能であると考えられる.しかし,「〜が…な事態になる」や,「〜が…の事態に至る」のような場合は,削除すると不自然になると考えられる.よって,形式的表現の修飾語は,その用法により,削除可能であるか否かを認定する必要がある.\subsubsection{ダ文の修飾要素の削除}\label{sakujo_meishi_hanteishi}以下の例の第2文は,ダ文(述部が名詞+判定詞からなる)である.\vspace{5mm}\begin{quote}\label{rei:rei9}\hspace*{-1em}{\bf例9:}\par食中毒の\underline{原因の食材を}特定した。カイワレ大根が\underline{[原因の]食材だ}。\end{quote}\vspace{5mm}第2文は,第1文の下線部と重複しているので,「原因の」が削除される.しかし,第2文はカイワレ大根が食材であることを述べているのではなく,カイワレ大根が原因であるということを述べているので,不自然な文となっている.第2文の修飾部が削除不可能な理由は,述部の名詞とその文の主語の関係にあると考えられる.主語の名詞「カイワレ大根」の意味は,述語の名詞「食材」の意味を包含している.さらに,その包含関係は読み手にとって明らかである.そのため,述部の名詞の修飾要素「原因の」を削除すると,不自然な文となる.このように,ダ文の場合は,述部の名詞よりも,その修飾語が重要な場合もある.\subsection{対照表現である修飾要素の削除}\label{sakujo_souhan}同一文章内に,「\underline{輸入の}血液製剤」と「\underline{国内産の}血液製剤」のように,同じ語「血液製材」が対照表現である修飾語を伴って出現する場合がある.これらの2語の係り受け関係の「血液製材」に対する修飾語を削除すると,どちらの血液製材について述べているのか分からなくなる.よって,ある語$w_1$の修飾語$w_2$を削除する際には,同一文章内で,$w_1$が,$w_2$の対照表現である修飾語$w_3$を伴って出現しているか否かを判定し,出現している場合には,修飾語$w_2$の削除を行わないよう考慮しなければならない.\subsection{用言がとる格要素の削除}\label{sakujo_yougen}用言がとる格要素を削除すると,その用言だけでは意味を理解できない場合がある.そのような例を以下に示す。\vspace{5mm}\begin{quote}\label{rei:rei11}\hspace*{-1em}{\bf例10:}\par[台湾海峡を]\underline{めぐる}今回の事態は$\cdots$[先送りすることも]\underline{ある}という考えを$\cdots$$\cdots$、引き続き[受注競争が]\underline{激しく}、$\cdots$。\end{quote}\vspace{5mm}これらの動詞や形容詞は広い意味を持つため,いずれかの格要素を残す必要性が高いと考えられる.しかし,以下のような文脈を考えると,「ある」の格要素が残されていなくても理解が可能であることがわかる.\vspace{5mm}\begin{quote}\label{rei:rei12}\hspace*{-1em}{\bf例11:}\par過半数の賛成があるかが心配だ。[過半数の賛成が]あれば、法案が可決される。\end{quote}\vspace{5mm}よって,これらの用言がとる格要素のうち,どれを削除すべきでないかは,記事中で2語の係り受け関係が出現する距離や,どの程度記事の中心になっているかなどの文脈にも依存すると考えられる.
\section{計算機上での実現}
\label{jitsugen}\subsection{定義}\label{jitsu_teigi}\ref{nintei}~節で述べた方法で重複部を認定するために,語,および,2語の係り受け関係について定義する.\subsubsection*{○語の定義}\label{jitsu_teigi_go}JUMAN\footnote{http://pine.kuee.kyoto-u.ac.jp/nl-resource/}による形態素解析,KNP\footnotemark[3]による構文解析を行ない,それぞれの文節内の\begin{itemize}\item自立語:名詞(形式名詞,副詞的名詞を除く),動詞,形容詞,副詞\item付属語:名詞接頭辞,サ変動詞「する」\end{itemize}からなる語群を,1つの語として扱う.よって,複合名詞は1つの名詞として,サ変名詞+「する」は1つの動詞として扱う.また,名詞+動詞(先/送り/する),動詞+動詞(創り/出す)なども,一つの動詞として扱う.ただし,動詞,または,形容詞の後に形式名詞または副詞的名詞がくる場合は,動詞+形式名詞で一つの名詞とし,2文節を一つの単位として扱う.\vspace{5mm}\begin{quote}{\bf例12:}問題を処理することが先決\\\hspace*{1em}取り出される関係:\\\hspace*{2.5em}$(問題,処理する,1)$\\\hspace*{2.5em}$(処理する(こと),先決,1)$\end{quote}\vspace{5mm}\subsubsection*{○2語の係り受け関係の定義}\label{jitsu_teigi_nigo}KNPによる係り受け解析結果で,係り受け関係にある2つの語を2語の係り受け関係とする.\subsection{重複部の認定}\label{jitsu_nintei}\subsubsection{2語の係り受け関係の照合}\label{jitsu_nintei_2go}\ref{jitsu_teigi}~節で定義した2語の係り受け関係を\ref{nintei_choufuku}~節で述べた方法で,既出の2語の係り受け関係と照合を行い,重複部を認定する.ただし,\ref{nintei_choufuku_2go}~節a.で述べた関係2と関係1との照合において,連体修飾語と被修飾語である名詞とが「外の関係」である関係2は,関係1に変換することはできない.そのため,たとえ2つの関係がどちらも$w_{1}$,$w_{2}$によって構成されていても,重複と認定することはできない.しかし,「外の関係」で現われた連体修飾部の用言と被修飾部の名詞が,同一テキスト内に,用言とその用言がとる格の関係で出現する可能性は低いので,実用上区別を行わなくても問題はないと考えられる.このため本手法ではこれらを区別せず照合を行う.また,\ref{nintei_choufuku_fukugou}~節2.で述べたように,複合名詞は2通りの照合を行う.\subsubsection{語の照合}\label{jitsu_nintei_go}語の照合において,複合名詞とその省略形とを重複していると認定するために,次のように照合を行う.比較する2つの複合名詞(一方が名詞1つでも可)の形態素数の和に対し,重複している形態素数の和(2語に共通なので,1つ重複していれば+2)が5割以上を占めていたら,同じものを意味する複合名詞であると認定する.\vspace{5mm}\begin{quote}{\bf例13:}「ビデオ/テープ」と「テープ」\\形態素数の和:3\\重複している形態素数:2\end{quote}\vspace{5mm}\subsubsection{複合名詞の照合}\label{jitsu_nintei_fukugou}\ref{nintei_choufuku_fukugou}~節で述べたように,複合名詞は,それを構成する各名詞間の係り受け構造から,複数の部分$p_{1},p_{2},\cdots,p_{n}$に分割して,複数の関係4「$p_{i}$の$p_{j}$」$(i<j)$として照合を行う必要がある.しかし,本手法では,複合名詞間の重複の削除は行なわない.それは,複合名詞内の名詞群をどのように2語の係り受け関係「AのB」に分割するかが問題となるからである.例えば,「農協系金融機関」という複合名詞は,JUMANの形態素解析により「農協/系/金融/機関」の4つの形態素に分割される.この複合名詞を「AのB」の関係で表すならば,「農協系の金融機関」とすべきである.また,「老人/保険/福祉/審議会」は「老人保険福祉の審議会」とすべきである.さらに,「農協系金融機関」を構成する複合名詞「金融機関」は,「金融の機関」と分割することもできる.このように,形態素群をどのように「AのB」に分割するかは,複合名詞の持つ意味によって異なる.「財政の問題」と「財政問題」の照合のように,複合名詞内の形態素群AとBが同一文章中に関係として出現している場合は,AとBへの分割が可能であると判断できる.しかし,関係として出現していない場合は,どこで分割すべきなのかの判断は困難である.\subsection{重複部の削除}\label{jitsu_sakujo}\subsubsection{実装困難な情報}\label{jitsu_sakujo_konnan}\ref{sakujo}~節で述べた情報のうち,本手法で実装を行わないものについて,その理由を述べる.\vspace{2ex}\noindent{\bf○ダ文の修飾要素の削除}\ref{sakujo_meishi_hanteishi}~節で述べたように,ダ文において,その述部の名詞の修飾要素が削除不可能であることを判定するためには,主語と述部の名詞の意味の範囲を認定し,比較する必要がある.しかし,この比較を行うには,世界知識を含めた大規模なシソーラスが必要となる.さらに,判定詞「だ」は省略されることもある.もし,\ref{sakujo_meishi_hanteishi}~節例9の第2文が「カイワレ大根が原因の食材(だ)とは$\cdots$」のように,「だ」が省略された形であった場合,構文解析結果からも,省略を認定できないため,削除可能か不可能かの認定はより困難になる.\vspace{2ex}\noindent{\bf○対照表現である修飾要素の削除}\ref{sakujo_souhan}~節で述べた,修飾語が対照表現であるかの認定を行うために,辞書を用いることが考えられる.しかし,対照表現となる修飾語を辞書に全て列挙することは困難である.また,文脈によって,修飾語が対照表現であるかの認定には,背景知識が必要になる場合もあると考えられる.これらは,背景の知識を含めて判断する必要がある.\vspace{2ex}\noindent{\bf○用言がとる格要素の削除}\ref{sakujo_yougen}~節で述べたように,用言がとる各格要素に対して,削除すべきか否かを判定するためには,記事中で2語の係り受け関係が出現する距離や,どの程度記事の中心になっているかなどの文脈を考慮する必要がある.\subsubsection{削除の方法}\label{jitsu_sakujo_houhou}\ref{sakujo}~節で述べた情報を用いて,重複部の削除を計算機上で実現する方法について述べる.なお,形式的表現の修飾要素の削除への対処については,\ref{sakujo_meishi_keishiki}~節で述べた用法の違いを,助詞の種類や動詞の種類,あるいは,それらの組合せなどにより区別することが考えられる.しかし,形式的表現ごとに条件が異なると考えられ,それらに対して全ての条件を辞書に登録することは困難である.そのため,人手で作成した辞書を用いて形式的表現を認定し,その修飾語は削除しないという,三上ら\cite{mikami99}と同様の対処が,現状では容易である.よって,本手法では,三上らの形式的表現辞書に,新たに5つの表現\begin{quote}段階,問題,立場,認識,前提\end{quote}を加えた辞書を作成し,実装した.以下に削除の手順を示す.\begin{enumerate}\item記事の先頭から順に見ていき,2語の係り受け関係$(w_{i},w_{j},r)$を抽出する.\itemその係り元の語$w_{i}$が提題表現であり(KNPの解析結果より判定),かつ,その名詞と前文の提題表現の名詞との重複があるか認定する.但し,以下のように,文内に直接引用文が含まれている場合,引用文内(括弧内)での提題表現の処理と,本文(括弧外)での処理は区別して行う.\vspace{5mm}\begin{quote}\label{rei:rei15}\hspace*{-1em}{\bf例14:}\\\underline{土井議長は}、$\cdots$について、「$\cdots$\underline{議員は}、選挙区にできるだけ長く居ようとし、$\cdots$」と述べました。その上で、[土井議長は、]「$\cdots\cdots$」と述べました。\end{quote}\vspace{5mm}\item一般の重複表現であり,かつ,係り先の語$w_{j}$が形式的表現でないか認定する.2.,あるいは,3.を満たしている$w_{i}$を削除する.ただし,$w_{i}$を削除することにより,構文構造\footnote{KNPの係り受け解析結果}が破壊される場合は,削除を行わない.\item1文の重複部を削除した後,並列する節の後半の節が述部を残して全て削除されていないかを調べ,削除されていたら後半の節の述部も削除する.(注意:前半の節の述部に,文末表現を補完する必要があるが,今回は行っていない.)\end{enumerate}\vspace{1.5ex}以下に,上記の手順によって行われる削除の例を示す.\newpage\begin{quote}\label{rei:rei15}\hspace*{-1em}{\bf例15:}\par\hspace*{1em}\underline{薬害エイズの真相究明につながる新たなファイルがある}ことが明らかになった問題で、$\cdots\cdots$\hspace*{1em}この問題は、\underline{[薬害エイズの真相究明につながる]厚生省のファイルが}これまでに見つかった九冊の他にさらに七冊\underline{ある}ことがわかったもので、$\cdots$\end{quote}第1文の下線部から抽出される関係は,\begin{center}\begin{tabular}{ll}$R_{1}=(薬害エイズ,真相究明,4)$,&\\$R_{2}=(真相究明,つながる,1)$,\\$R_{3}=(つながる,ファイル,2)$,&\\$R_{4}=(新たな,ファイル,2)$\\$R_{5}=(ファイル,ある,1)$,&\\\end{tabular}\end{center}の5つである.第2文の下線部から抽出される関係は,上記の関係と重複している$R_{1},R_{2},R_{3},R_{5}$と,重複していない$R_{6}=(厚生省,ファイル,4)$の5つである.$R_{1}〜R_{3}$が重複していることより,[]で囲まれた部分が削除される.一方,$R_{5}$も重複はしているが,その係り元の文節「ファイルが」を削除すると,$R_{6}$の「厚生省の」の係り先が失われ,構文構造が破壊されてしまう.よって,第2文の「ファイルが」の削除は行われない.
\section{評価}
\label{hyouka}ニュース原稿1996年1月〜8月分のうち20記事を抽出\footnote{削除率($=1-要約率$)が極端に低いものは除外したが,記事の内容については無作為に選んだ.また,KNPによる解析誤りは人手により修正を行なった.}し,その20記事の筆者によって重複部を削除した要約結果と,本手法による要約結果(平均要約率91.1\%)との削除された箇所を比較し,再現率,適合率によって評価を行う.今回の評価実験では,本手法の削除箇所が妥当であるか否かの評価を行う.よって,筆者による要約では,\begin{enumerate}\setlength{\itemsep}{-1.5mm}\item情報欠落を極力回避:既出の情報を含む部分のみを削除\item自然な要約文を生成:文が不自然になる削除は行わない\item文節単位の削除と,複合名詞の部分的な削除のみを行う\end{enumerate}と言う方針で,要約結果を作成した.なお,削除箇所としては,2語の係り受け関係の照合を1回行うごとに,削除可能と認定される文節群を1箇所として数える.$$再現率=\frac{人手と本手法とで一致する削除箇所数}{人手による削除箇所数}\×100\(\%)$$$$適合率=\frac{人手と本手法とで一致する削除箇所数}{本手法による削除箇所総数}\×100\(\%)$$評価の結果を以下に示す.\begin{itemize}\setlength{\itemsep}{-1.5mm}\item人手による削除箇所:205箇所\item本手法による削除箇所:195箇所\item人手と本手法とで一致する削除箇所:166箇所\item再現率:81.0\%\item適合率:85.1\%\end{itemize}本手法による要約結果,および,人手による要約結果の例を付録に添付する.\vspace{-4mm}
\section{考察}
\label{kousatsu}\subsection{再現率}\label{kousatus_saigen}まず,再現率について考察する.再現率が81.0\%であることより,人間がニュース記事を見て,\ref{hyouka}節の方針に従い削除可能と認定する箇所の多くを本手法によって削除できていると言える.人手により削除可能と認定された箇所が,本手法によっては削除されなかった原因を以下に示す.また,それぞれの箇所数を表\ref{tab:saigen_kasho}~に示す.\begin{itemize}\item以下の例文のように,前文の提題表現として「参議院本会議」が出現していなくても,人間には,それが主題であることが理解できるため,2文目の下線部が削除可能と認定された.\vspace{5mm}\begin{quote}\label{rei:rei16}\hspace*{-1em}{\bf例16:}\\総額十一兆円余りの平成八年度の暫定予算が、きょう午前開かれた\underline{参議院本会議で}可決され、成立しました。また、[きょうの]\underline{参議院本会議では、}\$\cdots$など十五本も、可決され、成立しました。\end{quote}\vspace{5mm}原因の多くは,このように,後の文の提題表現や修飾要素が削除されたものであった.よって,提題表現によって示されていない主題の認定やその影響の範囲の認定を行い,対処することで,再現率の向上が望める.\item人間は,「選挙制度」が「小選挙区比例代表並立制」の上位概念であるという知識から,これらの語を重複していると認定することができる.本手法では,語の照合において,類語を考慮していないため,これらを重複していると認定することはできない.また,類語辞典を用いて語の照合を行うとしても,人間には,文脈によっては同意である語の重複の認定も可能であるが,機械で実現することは困難である.\item本手法では「使用期限」などの複合名詞同士の重複の認定を行い,「期限」と省略する処理を\ref{jitsu_nintei_fukugou}~節の理由より行っていないが,人間はこれらの重複を認定し,削除した.\item以下の例において,動詞「きっかけにする」は,第1文では体言を修飾しており,第2文では用言を修飾している.このように,文型によって係り先が異なっている場合,2語の係り受け関係では重複を抽出できない.しかし,この原因によるものは4箇所と稀であった.\vspace{5mm}\begin{quote}\label{rei:rei17}\hspace*{-1em}{\bf例17:}\\$\cdots$の事件を\underline{きっかけにした}見直しが行われた。$\cdots$の事件を\underline{きっかけにして}、見直しが行われた。\end{quote}\vspace{5mm}\item「今日」と「きょう」のような表記のゆれによって,2語の係り受け関係が重複していると認定できなかったものがあった.\item法案は,会議で採決して,可決されて,成立するものであるという知識を利用して,例16の第2文を以下のように削除した.\vspace{5mm}\begin{quote}\hspace*{-1em}{\bf例18:}\\〜会議で[採決され],〜の賛成で[可決され],成立しました.\end{quote}\vspace{5mm}\item人間は「無差別テロ事件」と「爆弾テロ事件」が同じ事件を指している事を理解し,「事件」と省略するよりも「爆弾テロ」と省略する方が一般的だと判断した.\end{itemize}\begin{table}[t]\begin{center}\caption[原因1]{本手法では削除されなかった箇所}\label{tab:saigen_kasho}\begin{tabular}{|l|c|}\hline\multicolumn{1}{|c|}{原因}&箇所数\\\hline\hline主題の認定&14\\\hline類語の知識の利用&9\\\hline複合名詞の部分的な削除&4\\\hline文型の違い&4\\\hline表記のゆれ&2\\\hline世界知識の利用&1\\\hline複合名詞の後方部分の削除&1\\\hline\end{tabular}\end{center}\end{table}\subsection{適合率}\label{kousatus_tekigou}次に,適合率について考察する.適合率は85.1\%と高い値を示しているため,本手法による削除箇所は概ね妥当であると言える.本手法では削除したが,人間は削除しなかった箇所(以下妥当ではない削除箇所と呼ぶ)29箇所を,その原因によって分類した結果を表\ref{tab:tekigou_kasho}~に示す.\begin{table}[b]\begin{center}\caption[原因2]{妥当でない削除箇所}\label{tab:tekigou_kasho}\begin{tabular}{|l|c|}\hline\multicolumn{1}{|c|}{原因}&箇所数\\\hline\hline用言がとる格要素の削除&25\\\hlineダ文の修飾要素の削除&1\\\hline形式的表現の係り元の削除&2\\\hline文脈的に削除不可能&1\\\hline\end{tabular}\end{center}\end{table}原因の多くは,\ref{sakujo}~節で述べた,考慮すべき情報のうち,本手法で対処していないものであった.\begin{itemize}\item用言がとる格要素の削除\\妥当でない削除箇所のうちこの原因によるものが25箇所と大部分を占めている.実験結果では,この原因による妥当でない削除箇所のうち,用言が動詞であったものが21箇所,用言が形容詞であったものが4箇所であった.\ref{jitsu_sakujo_konnan}~節で述べたように,この原因への対処は困難であるが,他の原因に比べて占める割合が大きいので,現時点で最も対処が必要であるといえる.\\用言が動詞であったものには,「地震がある」,「最高となる」のように,動詞の直前の名詞と一組で動詞と考えられるものもあった.「$\cdots$になる」,「$\cdots$がある」,「$\cdots$とする」などの動詞については,助詞と動詞との組をあらかじめ辞書に登録し,直前の名詞と合わせて,動詞として扱うことで,妥当でない削除を避けることは可能である.ただし,削除可能な場合も削除を行なわない可能性があるので,登録する動詞については検討が必要である.この対処を行うことにより,今回の実験結果では4箇所の妥当でない削除を回避できる.\itemダ文の修飾要素の削除\\この原因による妥当でない削除箇所は,\ref{jitsu_sakujo_konnan}節で述べたように,判定詞「だ」が省略されたものであった.\item形式的表現\\本手法では,形式的表現の辞書を用いて,形式的表現の修飾要素の削除を防いでいる.そのため,この原因による妥当でない削除箇所は29箇所中2箇所と少なかった.2箇所は,名詞「範囲」が形式的表現の辞書に登録されていなかったため,妥当でない削除箇所となった.形式的表現辞書に登録する名詞の数を増やすと,妥当でない削除を行う可能性は低くできるが,\ref{sakujo_meishi_keishiki}~節の例8のような削除可能な場合にも削除を行なわなくなる.よって,登録する形式的表現はさらに検討が必要である.\item文脈上,削除不可能であった削除部分\\以下のように重複している文において,第2文の「外国の」を削除すると「国内の衛星の受注」もなかったともとれる曖昧な文になってしまう.\vspace{5mm}\begin{quote}\label{rei:rei18}\hspace*{-1em}{\bf例19:}\\日本が独自に開発したH2ロケットの改良型のロケットを使って西暦二千年にも日本として初めて\underline{外国の衛星}を打ち上げることになりました。$\cdots$、一回の打ち上げ費用がおよそ百九十億円と世界で最も高いため[外国の]衛星の受注はありませんでした。\end{quote}\vspace{5mm}同一記事中に「国内の衛星の受注」についての記述はなかったが,人間は背景の知識から,「外国の衛星の受注」に対照する修飾要素「国内の」を思い浮かべることができる.そのため,「外国の」を削除すると,「国内の衛星の受注はあったが」とも「国内の衛星の受注もなかった」とも解釈できてしまう.\\しかし,このような妥当でない削除箇所は29箇所中1箇所であったので,大きな影響はないと考えられる.\end{itemize}今回の評価実験では,2語の係り受け関係を用いた重複部認定において,助詞の種類の考慮を行わなくても,異なる事象を重複と認定する例は見られなかった.また,\ref{jitsu_nintei}~節で述べたように,関係2と関係1の照合において「内の関係」と「外の関係」との区別を行っていないが,これによって重複の認定を誤った例も見られなかった.\subsection{評価結果}\label{kousatus_zentai}まず,本手法の妥当性と有効性について考察する.本論文では,表層的に捉えられる重複部を対象にして,情報欠落を回避し,かつ,削除結果が不自然とならない表現の抽出ならびに削除手法を提案した.このため,手法の評価においてはこれらの削除をどの程度正しく行なうことができたかについて評価した.評価の結果は,再現率,適合率共に良好であったことから,本手法が重複部と認定する箇所は概ね妥当であり,不自然な文を生成する原因となる削除をほぼ回避できていると言える.ただし,本論文における評価結果は,本来の意味における重複部を概ね削除できているということを示さない.すなわち,重複であっても表層的には捉えられないものが存在し,報知的な要約を行なう場合このような重複に対してさらに削除できる可能性がある.本論文においては,このような意味的に高度な処理を要する重複は処理対象外としたが,今後これらに対しても検討を行なう必要がある.\vspace{1.5ex}次に,要約率について考察する.本手法は,文内の表層的な情報から捉えられる重複部を削除することによって情報欠落を極力回避した要約手法であり,比較的重複の多いニュース原稿を対象とした場合の要約率は91\%程度であった.文内の部分的削除による要約において,情報欠落を避けるためには,重複している情報のみを削除することが安全な方法であると考えられ,重複部以外の部分を削除しようとすると,情報欠落の危険があると言える.よって,評価結果の再現率と適合率が共に良好であったことから,本手法は情報を可能な限り保持した場合の文内の部分的削除による要約の限界に近いと考える.また本手法はどのようなテキストに対しても適用可能であるが,テキストの性格によって表層的な重複の多少は異なるので,期待される要約率は要約対象に依存する.前述したように,本手法の適用後であっても要約結果には表層では捉えられない重複が含まれていることが予想されるため,情報欠落なくさらに要約できる余地があると考えられる.本論文ではこのような重複は議論の対象外としたため最終的にどの程度まで報知的に要約することが可能なのかは不明であるが,これは今後の課題としたい.一方,表層で捉えられる重複部削除による要約率は限界に近いため,現状では,本手法のみでの要約率の大幅な向上は望めない.しかし,本手法の枠組には取り入れていない,表層的な情報を用いた言い換えなど,情報欠落の可能性の低い既存の要約手法と併用することにより,要約率の向上が可能であると考える.\vspace{1.5ex}次に,構文解析の誤りが本手法に与える影響について考察する.今回の評価実験は,KNPの解析誤りを人手で修正して行ったが,修正しない場合の再現率,適合率はそれぞれ67.3\%,75.8\%であった.KNPの解析誤りの影響では,削除可能な重複部が削除されなかったものが,削除不可能な重複部が削除されたものより多く見られた.本手法は,構文解析結果を用いて2語の係り受け関係の抽出を行っており,構文解析の誤りは,重複部の認定に大きな影響を与える.また,\ref{jitsu_sakujo_houhou}~節で示した削除の手順3の制約も構文解析結果によるため,重複部の認定を誤ると,削除可能な重複部が連鎖的に削除不可能となる可能性もある.これらにより,再現率が約15\%,適合率が約10\%低下したため,本手法はKNPの解析誤りにより大きな影響を受けると言える.また,削除可能な重複部が削除されなかったものが多く見られたことより,構文解析の誤りは,適合率よりも再現率に影響を与えると考えられる.\vspace{1.5ex}最後に,指示的な要約要求との関連について述べる.本論文では情報欠落を最小限にする報知的な要約手法を提案したが,本手法は指示的要約を行なう場合にも有効である.すなわち,本論文の手法は他の指示的要約手法と併用することが可能であり,例えば本手法によってテキストを(ニュース原稿であれば)90\%程度に圧縮した後,任意の指示的要約手法を用いることによって実現することができる.本手法は要約率が90\%であるため本手法単独で要約率を90\%から100\%の範囲で変化させる状況は考えにくいが,前述のように要約手法を併用することによって必要な要約率を可変とすることも実現できる.
\section{関連研究}
\label{kanren}複数の語を用いて,内容の重複を認定する研究に,岡ら\cite{oka98}がある.岡らは,概念を語の関係により表現し,語の関係を表す「リレーション記号(助詞など)」を別のリレーション記号に展開することにより表層表現の違いを吸収している.それに対し,本手法では,助詞の種類を考慮しないことと,4種類の関係間で相互に照合を行うことにより実現している.本手法の2語の係り受け関係は,同一テキスト内で,同一の概念を表す関係の抽出を目的としているため,助詞の種類を詳細に考慮しなくても,異なる事象を重複していると認定する可能性は低いと考えられる.また,今回の評価実験では,誤って認定した例は見られなかった.重複部を削除することにより要約を行う研究に,山本ら\cite{yamamoto96}がある.山本らの節照合処理では,内容が類似している節を認定し削除するために,同一,または,類似した動詞を含む2つの節内の,同じ助詞を含む文節同士が異なる内容を含んでいないかを判定している.節照合処理では,節内に重複していない情報が含まれている場合でも,その節全体を削除する.一方,本手法では,情報を落とさないことを目的としており,内容が類似している節であっても,新たに出現した情報を含む場合があるため,2語の係り受け関係を用いて,節内で削除可能な部分のみを認定して削除を行う.また,助詞の種類を考慮していないため,受け身や,連体修飾による表現の違いへの柔軟な対応が可能である.
\section{おわりに}
本論文では,表層で捉えられる重複部の認定と削除について議論を行った.文内の重複部は,情報欠落の可能性を減少させることを考えると,優先して削除するべき部分であると考えられる.重複部の認定では,係り受け関係のある2つの語が一つの事象を表していると仮定し,2語の係り受け関係同士を比較することで,表層から捉えられる内容の重複部を認定した.重複部の削除では,理解しやすく自然な要約文を生成するために,削除の際に考慮すべきいくつかの情報について述べた.さらに,議論した方法のうち,実現可能な部分を計算機上に実装し,評価実験を行った.本手法の削除箇所が妥当であるか否かの評価を行うため,ニュース原稿20記事の重複部を人手で削除した要約文と,本手法により削除した要約文との比較を行った.その結果,人間が削除可能と認定する削除箇所の81.0\%(再現率)が本手法によって削除可能であった.人間は削除したが,本手法では削除しなかった箇所の原因の多くを占めていた,提題表現によって示されていない主題の認定を行うことで,さらに再現率を向上させることができる.また,本手法による削除箇所の85.1\%(適合率)が妥当であることが分かった.妥当でない削除箇所の原因としては,用言がとる格要素の削除が大部分を占めていたため,最も優先して対処を行う必要があるといえる.自動要約において,要約率と情報欠落の回避はトレードオフの関係にあり,本手法の要約率は,情報を可能な限り保持した場合の文内の部分的削除による要約の限界に近いと考えられる.今後の課題として,本手法の精度向上のため,用言がとる格要素の削除への対処が最も優先される.\appendix本手法による要約結果を以下に示す.括弧[]で囲まれた部分は,本手法により削除された箇所を示し,下線部は,人間により削除された箇所を示す.\subsection*{原稿1}\begin{quotation}\noindent{\bf要約率:89.4\%(279/312=0.894)}\hruleスリランカのコロンボで起きた爆弾テロ事件について、外務省の橋本報道官は、「非人道的な無差別テロ\underline{事件}であり、この様な痛ましい事件が二度と起こることのないよう強く望む」とする談話を発表しました。この中で[~\underline{橋本報道官は}~]「\underline{今回の事件は、}多数の罪のない市民を犠牲にした[~\underline{非人道的な}~]無差別テロ\underline{事件}であり、犠牲者に対して深い哀悼の意を表すとともに、[~\underline{この様な痛ましい事件が}二度と~]起こることのないよう強く希望する」としています。また[~\underline{橋本報道官は}~]「日本は、スリランカが平和と安定の内に発展することを[~\underline{強く}~]希望しており、民族問題の解決に取り組むスリランカ政府と国民が今回の悲劇を克服し、永続的な和平の達成に向けて努力されることを期待する」としています。\end{quotation}\subsection*{原稿2}\begin{quotation}\noindent{\bf要約率:91.2\%(406/445=0.912)}\hrule衆議院の土井議長は今日、東京都内で講演し、衆議院に導入された小選挙区比例代表並立制について、「\underline{制度の}導入による弊害が深刻になっていると指摘する人が多くなっている」と述べました。この中で、[~\underline{土井議長は、衆議院の小選挙区比例代表並立制について、}~]「私は、宮沢内閣当時、委員会で、[~\underline{小選挙区制度が}~]導入されたら、議員は、選挙区にできるだけ長く居ようとし、国際社会の中で日本がどうあるべきかなどという問題よりも、選挙区の冠婚葬祭に関心を持つようになると発言したことがある。今、そういう状況が深刻になっていると指摘する人が多くなっている」と述べました。その上で、[~\underline{土井議長は、}~]「新しい\underline{選挙}制度を一回も実施しないうちに、再び改正するようなことをすれば、国会の権威はなくなるという人もいる一方で、実施すれば初めから悪くなるということがわかっている制度は英断をもって改正するべきだという人もいる。私としては、どっちに分があるとは言えないが、仮に改正案が提出されれば正常な形で議論が行われるようにしたい」と述べました。\end{quotation}\subsection*{原稿3}\begin{quotation}\noindent{\bf要約率:90.6\%(424/468=0.906)}\hruleバンコクを訪れている橋本総理大臣はまもなく中国の李鵬首相と会談し、台湾の総統選挙を前に中国と台湾の間の緊張が高まっていることについて中国側に自制した行動をとるよう求めたいとしています。アジア・ヨーロッパ首脳会議は二日目のきょう首脳レベルの会議を行い、核軍縮や国連改革など政治分野での協力や地域間の経済交流の拡大など幅広い分野で、アジアとヨーロッパが連携を強化していく必要性を確認しました。[~\underline{会議は、}~]あす再び首脳同士の意見交換を行った上で会議の成果をとりまとめた議長声明を発表することにしています。二日目の会議日程を終えた橋本総理大臣は、まもなく、中国の李鵬首相\footnote{「中国の李鵬首相」という表現の二度目の出現で「中国の」は削除されていない.これは,KNPの解析結果において,「中国の李鵬首相」の一度目の出現では,「中国の」が「李鵬首相」にかかると認定されているのに対し,二度目の出現では,「李鵬首相と」と「総理大臣就任後」が句の並列として認定され,「中国の」はそれら全体にかかると認定されているため,本手法では重複表現とは認定されないためである.}と総理大臣就任後初めての会談を行います。この中で、[~\underline{橋本総理大臣は、}~]今月二十三日に行われる台湾の総統選挙を前に[~\underline{中国と台湾の間の}緊張が~]高まっていることについて当事者の間で平和的な解決を図るため[~自制した行動をとるよう~]中国側に求めたいとしています。また[~\underline{橋本総理大臣は}~]中国に核実験を繰り返さないよう申し入れるとともに、包括的核実験禁止条約の早期妥結に向けて、協力を求めるものとみられます。\end{quotation}\begin{thebibliography}{}\bibitem[\protect\BCAY{福島,江原,白井}{福島\Jetal}{1999}]{fukushima99}福島孝博,江原暉将,白井克彦\BBOP1999\BBCP.\newblock\JBOQ短文分割の自動要約への効果\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(6),131--147.\bibitem[\protect\BCAY{Hand}{Hand}{1997}]{Hand97}Hand,T.\BBOP1997\BBCP.\newblock\BBOQAProposalforTask-basedEvaluationofTextSummarizationSystems.\BBCQ\\newblockIn{\BemProc.oftheACLWorkshoponIntelligentScalableTextSummarization},\BPGS\31--38.\bibitem[\protect\BCAY{三上,増山,中川}{三上\Jetal}{1999}]{mikami99}三上真,増山繁,中川聖一\BBOP1999\BBCP.\newblock\JBOQニュース番組における字幕生成のための文内短縮による要約\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(6),65--81.\bibitem[\protect\BCAY{岡,宮内,上田}{岡\Jetal}{1998}]{oka98}岡満美子,宮内忠信,上田良寛\BBOP1998\BBCP.\newblock\JBOQキーリレーションに基づくテキスト検索\JBCQ\\newblock\Jem{情報処理学会研究報告NL-103-12},\BPGS\89--96.\bibitem[\protect\BCAY{奥村難波}{奥村\JBA難波}{1999}]{okumura99}奥村学\BBACOMMA\難波英嗣\BBOP1999\BBCP.\newblock\JBOQテキスト自動要約に関する研究動向\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(5),1--26.\bibitem[\protect\BCAY{島津,内藤,野村}{島津\Jetal}{1985}]{shimazu85}島津明,内藤昭三,野村浩郷\BBOP1985\BBCP.\newblock\JBOQ日本語意味構造の分類-名詞句構造を中心に-\JBCQ\\newblock\Jem{情報処理学会研究報告NL-47-4},\BPGS\25--32.\bibitem[\protect\BCAY{白井,江原,沢村,福島,丸山,門馬}{白井\Jetal}{1999}]{shirai99}白井克彦,江原暉将,沢村英治,福島孝博,丸山一郎,門馬隆雄\BBOP1985\BBCP.\newblock\JBOQ視聴覚障害者向け放送ソフト製作技術研究開発プロジェクトの研究状況\JBCQ\\newblock\Jem{Proc.ofTAOWorkshoponTVClosedCaptionsforthehearingimpairedpeople},\BPGS\9--28.\bibitem[\protect\BCAY{寺村}{寺村}{19751978}]{teramura75}寺村秀夫\BBOP1975--1978\BBCP.\newblock\JBOQ連体修飾のシンタクスと意味(1)--(4)\JBCQ\\newblock\Jem{日本語・日本文化vol.4--7}.大阪外国語大学研究留学生別科.\bibitem[\protect\BCAY{若尾,江原,白井}{若尾\Jetal}{1997}]{wakao97}若尾孝博,江原暉将,白井克彦\BBOP1997\BBCP.\newblock\JBOQテレビニュース番組の字幕に見られる要約の手法\JBCQ\\newblock\Jem{情報処理学会研究報告NL-122-13},\BPGS\83--89.\bibitem[\protect\BCAY{山本,増山,内藤}{山本\Jetal}{1996}]{yamamoto96}山本和英,増山繁,内藤昭三\BBOP1996\BBCP.\newblock\JBOQ関連テキストを利用した重複表現削減による要約\JBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ79-D-II}(11),1968--1971.\bibitem[\protect\BCAY{山崎,三上,増山,中川}{山崎\Jetal}{1998}]{yamasaki98}山崎邦子,三上真,増山繁,中川聖一\BBOP1998\BBCP.\newblock\JBOQ聴覚障害者用字幕生成のための言い替えによるニュース文要約\JBCQ\\newblock\Jem{言語処理学会第4回年次大会論文集},\BPGS\646--649.\end{thebibliography}\renewcommand{\thepage}{}\begin{biography}\biotitle{略歴}\bioauthor{石\raisebox{1pt}{\begin{minipage}{8pt}\epsfile{file=746_141.eps}\end{minipage}}友子}{2000年豊橋技術科学大学大学院修士課程修了.現在,松下通信工業(株)勤務.在学中は,自然言語処理,特にテキスト要約の研究に従事.}\bioauthor{片岡明}{2000年豊橋技術科学大学大学院修士課程修了.同年,NTT西日本入社.現在,NTTコミュニケーション科学基礎研究所勤務.在学中は,自然言語処理,特にテキスト要約の研究に従事.{\ttE-mail:kataoka@cslab.kecl.ntt.co.jp}}\bioauthor{増山繁}{1977年京都大学工学部数理工学科卒業.1982年同大学院博士後期課程単位取得退学.1983年同修了(工学博士).1982年日本学術振興会奨励研究員.1984年京都大学工学部数理工学科助手.1989年豊橋技術科学大学知識情報工学系講師,1990年同助教授,1997年同教授.アルゴリズム工学,特に,並列グラフアルゴリズム等,及び,自然言語処理,特に,テキスト自動要約等の研究に従事.言語処理学会,電子情報通信学会,情報処理学会等会員.{\ttE-mail:masuyama@tutkie.tut.ac.jp}}\bioauthor{山本和英}{1996年豊橋技術科学大学大学院博士後期課程システム情報工学専攻修了.博士(工学).1996年〜2000年ATR音声翻訳通信研究所客員研究員,2000年〜ATR音声言語通信研究所客員研究員,現在に至る.1998年中国科学院自動化研究所国外訪問学者.要約処理,機械翻訳,韓国語及び中国語処理の研究に従事.1995年NLPRS'95BestPaperAwards.言語処理学会,情報処理学会,ACL各会員.{\ttE-mail:yamamoto@slt.atr.co.jp}}\bioauthor{中川聖一}{1976年京都大学大学院博士課程修了.同年京都大学情報工学科助手.1980年豊橋技術科学大学情報工学系講師.1983年助教授.1990年教授.1985〜1986年カーネギメロン大学客員研究員.工博.1977年電子通信学会論文賞.1988年度IETE最優秀論文賞.著書「確率モデルによる音声認識」電子情報通信学会(1988年),「情報理論の基礎と応用」近代科学社(1992年),「パターン情報処理」丸善(1999年)など.{\ttE-mail:nakagawa@tutics.tut.ac.jp}}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V17N02-01 | \section{はじめに}
科学技術や文化の発展に伴い,新しい用語が次々と作られインターネットによって世界中に発信される.外国の技術や文化を取り入れるために,これらの用語を迅速に母国語へ翻訳する必要性が高まっている.外国語を翻訳する方法には「意味訳」と「翻字」がある.意味訳は原言語の意味を翻訳先の言語で表記し,翻字は原言語の発音を翻訳先の言語における音韻体系で表記する.専門用語や固有名詞は翻字されることが多い.日本語や韓国語はカタカナやハングルなどの表音文字を用いて外国語を翻字する.それに対して,中国語は漢字を用いて翻字する.しかし,漢字は表意文字であるため,同じ発音に複数の文字が対応し,文字によって意味や印象が異なる.その結果,同音異義の問題が発生する.すなわち,翻字に使用する漢字によって,翻字された用語に対する意味や印象が変わってしまう.例えば,飲料水の名称である「コカコーラ(Coca-Cola)」に対して様々な漢字列で発音を表記することができる.公式の表記は「\UTFC{53EF}\UTFC{53E3}\UTFC{53EF}\UTFC{4E50}/ke--ko--ke--le/」であり,原言語と発音が近い.さらに,「\UTFC{53EF}\UTFC{53E3}」には「美味しい」,「\UTFC{53EF}\UTFC{4E50}」には「楽しい」という意味があり,飲料水として良い印象を与える.「Coca-Cola」の発音に近い漢字列として「\UTFC{53E3}\UTFC{5361}\UTFC{53E3}\UTFC{62C9}/ko--ka--ko--la/」もある.しかし,「\UTFC{53E3}\UTFC{5361}」には「喉に詰まる」という意味があり,飲料水の名称として不適切である.また,「人名」や「地名」といった翻字対象の種別によっても使用される漢字の傾向が異なる.例えば,「\UTFC{5B9D}」と「\UTFC{5821}」の発音はどちらも/bao/である.「\UTFC{5B9D}」には「貴重」や「宝物」などの意味があり中国語で人名や商品名によく使われるのに対して,「\UTFC{5821}」には「砦」や「小さい城」などの意味があり中国語で地名によく使われる.以上の例より,中国語への翻字においては,発音だけではなく,漢字が持つ意味や印象,さらに翻字対象の種別も考慮して漢字を選択する必要がある.この点は,企業名や商品名を中国に普及させてブランドイメージを高めたい企業にとって特に重要である.翻字に関する既存の手法は,「狭義の翻字」と「逆翻字」に大別することができる.「狭義の翻字」は,外国語を移入して新しい用語を生成する処理である\cite{Article_10,Article_11,Article_16,Article_18}.「逆翻字」は既に翻字された用語に対する元の用語を特定する処理である\cite{Article_01,Article_02,Article_04,Article_05,Article_06,Article_07,Article_08,Article_09,Article_12,Article_14}.逆翻字は主に言語横断検索や機械翻訳に応用されている.どちらの翻字も発音をモデル化して音訳を行う点は共通している.しかし,逆翻字は新しい用語を生成しないため,本研究とは目的が異なる.本研究の目的は狭義の翻字であり,以降,本論文では「翻字」を「狭義の翻字」の意味で使う.中国語を対象とした翻字の研究において,\cite{Article_10,Article_16,Article_18}は人名や地名などの外来語に対して,発音モデルと言語モデルを単独または組み合わせて使用した.それに対して,\cite{Article_11,Article_19,Article_21}は翻字対象語の意味や印象も使用した.\cite{Article_11}は,外国人名を翻字する際に,対象人名の言語(日本語や韓国語など),性別,姓名を考慮した.しかし,この手法は人名のみを対象としているので企業名や商品名などには利用できない.\cite{Article_19}は翻字対象語の発音と印象を考慮し,\cite{Article_21}は翻字対象語の種別も考慮した.\cite{Article_19}と\cite{Article_21}では,翻字対象の印象を表す「印象キーワード」に基づいて,翻字に使用する漢字を選択する.しかし,印象キーワードはユーザが中国語で与える必要がある.本研究は,\cite{Article_19}と\cite{Article_21}の手法に基づいて,さらに印象キーワードを人手で与える代わりにWorldWideWebから自動的に抽出して中国語への翻字に使用する手法を提案する.以下,\ref{sec:method}で本研究で提案する手法について説明し,\ref{sec:exp}で提案手法を評価する.
\section{提案する翻字手法}
label{sec:method}\subsection{概要}\label{sec:overview}\begin{figure}[b]\begin{center}\includegraphics{17-2ia2f1.eps}\end{center}\caption{提案する翻字手法の概要}\label{fig:1}\end{figure}本研究で提案する翻字手法の概要を図\ref{fig:1}に示す.図\ref{fig:1}は,\cite{Article_21}と同様に左から「発音モデル」,「印象モデル」,「言語モデル」に大別される.図\ref{fig:1}において,太い破線で囲まれた部分が本研究の特長である.以下,\mbox{図\ref{fig:1}}に基づいて翻字手法について説明する.本手法への入力は2つある.1つ目は,翻字対象となる外国語の用語である.2つ目は,翻字対象の種別として「人名」,「企業名」,「商品名」などのカテゴリを入力する.本手法はこれらの入力に対して,1つ以上の漢字列を翻字の候補として出力する.\cite{Article_21}では,3つ目の入力として翻字対象の意味や印象を表す「印象キーワード」を人手で入力する必要がある.しかし,本手法ではWebから関連語を自動抽出する.「発音モデル」,「印象モデル」,「言語モデル」に基づく翻字手法や関連語抽出手法そのものに新規性はない.本研究の貢献は,{\cite{Article_21}の翻字手法に関連語抽出手法を統合して,ユーザが印象キーワードを与える負担を削減する点にある.図\ref{fig:1}の最左では,「発音モデル」によって翻字対象と発音が似ている漢字列とそれぞれの確率が得られており,これらの漢字列が翻字候補となる.現在,翻字対象となる外国語として日本語のカタカナ語を対象としている.カタカナ語は発音表記であるローマ字に変換することが容易だからである.ただし,ローマ字表記に変換することができれば,他の言語を入力することも可能である.図\ref{fig:1}の中央では,「印象モデル」によって,自動抽出した翻字対象の関連語に関連する漢字とそれぞれの確率が得られている.図\ref{fig:1}では,「\UTFC{559C}\UTFC{7231}」,「\UTFC{666E}\UTFC{53CA}」,「\UTFC{666E}\UTFC{901A}」,「\UTFC{597D}」といった関連語の集合を用いて,「\UTFC{7231}」,「\UTFC{666E}」,「\UTFC{597D}」といった漢字とそれぞれの確率が得られている.\cite{Article_19}と\cite{Article_21}では,関連語(印象キーワード)はユーザが中国語で与える必要がある.したがって,ユーザは翻字対象が指す実体や概念について知っていなければならず,また,中国語も知っていなければならない.その結果,システムを利用できるユーザが制限されてしまう.本研究は関連語を自動抽出して,この問題を解消する.なお,「印象キーワード」という用語は\cite{Article_21}に従っており,実際には人手で与えた関連語である.図\ref{fig:1}の最右では,入力された種別に対応する言語モデルとして「企業名言語モデル」が選ばれている.発音モデルで得られた翻字候補は複数になる場合があるため,それぞれに順位を付ける.具体的には,発音モデルで得られた確率を印象モデルおよび言語モデルで得られた漢字の確率と統合して,翻字対象に順位を付ける.以下,\ref{sec:prob}で確率的な漢字選択手法の全体像について説明する.\ref{sec:pronu}〜\ref{sec:categ}で「発音」,「印象」,「言語」のモデル化について個別に説明し,\ref{sec:auto}で関連語の抽出について説明する.\ref{sec:prob}〜\ref{sec:categ}は\cite{Article_21}に基づいている.\subsection{漢字選択ための確率モデル}\label{sec:prob}本研究における翻字の目的は,「翻字対象のローマ字表記$R$」,「関連語$W$」,「翻字対象の種別$C$」が与えられた条件のもとで,$P(K|R,W,C)$が最大になる漢字列$K$を選択することである.式(\ref{eq:Bayes})を用いて$P(K|R,W,C)$を計算する.\pagebreak\begin{equation}\begin{split}P(K|R,W,C)&=\frac{P(R,W,C|K)\timesP(K)}{P(R,W,C)}\\&\approx\frac{P(R|K)\timesP(W|K)\timesP(C|K)\timesP(K)}{P(R,W,C)}\\&\proptoP(R|K)\timesP(W|K)\timesP(C|K)\timesP(K)\\&=P(R|K)\timesP(W|K)\timesP(C,K)\label{eq:Bayes}\end{split}\end{equation}式(\ref{eq:Bayes})の1行目はベイズの定理を用いた変形であり,2行目では$R$,$W$,$C$が互いに独立であると仮定している.$P(R,W,C)$は$K$に依存しないため無視する.最終的に,$P(K|R,W,C)$は$P(R|K)$,$P(W|K)$,$P(C,K)$の積として近似され,それぞれ「発音モデル」,「印象モデル」,「言語モデル」と呼ばれる.\subsection{発音モデル}\label{sec:pronu}発音モデルは,中国語の漢字列$K$が与えられた条件のもとで,ローマ字表記$R$が生成される条件付き確率$P(R|K)$であり,式(\ref{eq:Pronun})を用いて計算する.ローマ字表記はヘボン式を使用し,中国語のピンイン$Y$を中間言語として,中国語の漢字に変換する.\begin{equation}\begin{split}P(R|K)&\approxP(R|Y)\timesP(Y|K)\\&\approx\prod_{i=1}^NP(r_{i}|y_{i})\times\prod_{i=1}^NP(y_{i}|k_{i})\label{eq:Pronun}\end{split}\end{equation}$r_{i}$,$y_{i}$,$k_{i}$はそれぞれローマ字の音節,ピンインの音節,漢字1文字である.例えば,漢字列「\UTFC{7231}\UTFC{666E}\UTFC{751F}」が与えられた条件のもとで,ローマ字の音節「epuson」が生成される確率を計算する場合は,ピンインの音節「aipusheng」を中継して,式(\ref{eq:Cyukei})のように計算する.\begin{eqnarray}&&P(\textrm{epuson}|\textrm{\UTFC{7231}\UTFC{666E}\UTFC{751F}})\label{eq:Cyukei}\nonumber\\&&=\!P(\textrm{e\,pu\,son}|\textrm{ai\,pu\,sheng})\!\times\!P(\textrm{ai\,pu\,sheng}|\,\textrm{\UTFC{7231}\UTFC{666E}\UTFC{751F}})\nonumber\\&&=\!P(\textrm{e}|\textrm{ai})\!\times\!P(\textrm{pu}|\textrm{pu})\!\times\!P(\textrm{son}|\textrm{sheng})\!\times\!P(\textrm{ai}|\textrm{\UTFC{7231}})\times\!P(\textrm{pu}|\textrm{\UTFC{666E}})\!\times\!P(\textrm{sheng}|\textrm{\UTFC{751F}})\end{eqnarray}\begin{table}[b]\caption{ローマ字音節とピンイン音節の対応頻度と確率}\label{table:Pry}\input{02table01.txt}\end{table}\begin{table}[b]\caption{ピンイン音節と漢字の対応頻度と確率}\label{table:Pyk}\input{02table02.txt}\end{table}式(\ref{eq:Pronun})中の$P(r_{i}|y_{i})$と$P(y_{i}|k_{i})$は式(\ref{eq:Ryk})を用いて計算する.\begin{equation}\begin{split}P(r_{i}|y_{i})=\frac{F(r_{i},y_{i})}{\displaystyle{\sum_{j}}F(r_{j},y_{i})}\\P(y_{i}|k_{i})=\frac{F(y_{i},k_{i})}{\displaystyle{\sum_{j}}F(y_{j},k_{i})}\label{eq:Ryk}\end{split}\end{equation}$F(r_{i},y_{i})$はローマ字の音節$r_{i}$とピンインの音節$y_{i}$が対応する頻度であり,$F(y_{i},k_{i})$はピンインの音節$y_{i}$と漢字$k_{i}$が対応する頻度である.これらの頻度を計算するために,日中対訳辞書\cite{Book_02}のピンイン付き中国語と対応するカタカナ語$1,136$対を参考にして,ローマ字とピンインの音節,ピンインの音節と漢字を人手で対応付けた.これらの一部をそれぞれ表1と2に示す.表\ref{table:Pry}と\ref{table:Pyk}において,中国語のピンインには,発音の四声に基づいて1〜4の識別子が付けられている.表\ref{table:Pry}では,1つのローマ字音節$r_{i}$に複数のピンインの音節$y_{i}$が対応している.例えば,ローマ字の「a」に対して,3種類のピンイン音節「a1」,「ai4」,「an1」が対応している.表\ref{table:Pyk}では,確率$P(y_{i}|k_{i})$は$1.00$になる場合が多く,一般的には1つの漢字は1つのピンインと対応することが分かる.しかし,「\UTFC{4F5B}」と「\UTFC{4F3D}」はそれぞれ2つのピンインと対応している.翻字を行う際に,ローマ字表記$R$の分割が複数ある場合は,すべての可能な分割を考慮する.例えば,「epuson(エプソン)」は,二つのピンイン列と一致して次のように分割される.\begin{itemize}\itemepuson:aipusheng\itemepuson:aipusouan\end{itemize}\subsection{印象モデル}\label{sec:meaning}印象モデルは,漢字列$K$が与えられた条件のもとで,関連語列$W$が生成される条件付き確率$P(W|K)$である.$W$と$K$をそれぞれ単語$w_{i}$と漢字1文字$k_{j}$の単位で分割して,$P(W|K)$を$P(w_{i}|k_{j})$に基づいて近似する.しかし,$w_{i}$と$k_{j}$の数が常に同じであるとは限らないため,式(\ref{eq:Ass})を用いて$P(W|K)$を計算する.すなわち,各$k_{j}$について$P(w_{i}|k_{j})$が最大となる$w_{i}$だけを考慮する.\begin{equation}P(W|K)\approx{\displaystyle\prod_{j}}\max_{i}P(w_{i}|k_{j})\label{eq:Ass}\end{equation}\begin{table}[b]\caption{$P(w_{i}|k_{j})$の例}\label{table:Pwk}\input{02table03.txt}\end{table}表\ref{table:Pwk}に漢字3つと関連語4つに関する$P(w_{i}|k_{j})$を示す.表中の「--」は,$w_{i}$と$k_{j}$が対応しないことを示している.表\ref{table:Pwk}の例において,$P(W|K)$は式(\ref{eq:wk})のように計算される.\begin{eqnarray}&&P(\textrm{\UTFC{559C}\UTFC{7231}\UTFC{666E}\UTFC{53CA}\UTFC{666E}\UTFC{901A}\UTFC{751F}\UTFC{52A8}}|\textrm{\UTFC{7231}\UTFC{666E}\UTFC{751F}})\label{eq:wk}\nonumber\\&&=\!P(\textrm{\UTFC{559C}\UTFC{7231}}|\textrm{\UTFC{7231}})\!\times\!P(\textrm{\UTFC{666E}\UTFC{53CA}}|\textrm{\UTFC{666E}})\!\times\!P(\textrm{\UTFC{751F}\UTFC{52A8}}|\textrm{\UTFC{751F}})=0.02\times0.03\times0.03\\&&=0.000018\nonumber\end{eqnarray}$P(w_{i}|k_{j})$は式(\ref{eq:Ass2})を用いて計算する.\begin{equation}P(w_{i}|k_{j})=\frac{F(w_{i},k_{j})}{{\displaystyle\sum_{w}}F(w,k_{j})}\label{eq:Ass2}\end{equation}$F(w_{i},k_{j})$は$w_{i}$と$k_{j}$の共起頻度であり,本研究では漢字字典を用いて計算する.すなわち,漢字字典の見出し漢字を$k_{j}$として,$k_{j}$の意味記述に使用されている単語を$w_{i}$とする.中国語の漢字字典\footnote{\UTFC{65B0}\UTFC{534E}\UTFC{5B57}\UTFC{5178}\UTFC{7535}\UTFC{5B50}\UTFC{7248}(新華字典電子版)v1.0.}から外来語の表記に良く使われる見出し漢字$599$文字を人手で選択し,見出し漢字の意味記述をSuperMorpho\footnote{http://www.omronsoft.com/}で形態素解析して,単語と見出し漢字の共起頻度を計算した.\表~\ref{table:kanji2word}に$F(w_{i},k_{j})$の例を示す.表\ref{table:kanji2word}では,$P(w_{i}|k_{j})$が高いほど,漢字と単語の関係が強いことを示している.例えば,「\UTFC{9AD8}(高い)」,「\UTFC{597D}(良い)」,「\UTFC{4E50}(楽しい)」という3つの漢字$k_{j}$に対して$P(w_{i}|k_{j})$が最も高い単語$w_{i}$は,それぞれ「\UTFC{52A0}\UTFC{9AD8}(高くする)」,「\UTFC{597D}\UTFC{5403}(おいしい)」,「\UTFC{4E50}\UTFC{4E8E}(喜び)」である.ここで括弧内は各中国語に対する日本語訳を示す.\begin{table}[t]\caption{漢字辞典における漢字と単語との共起頻度と確率}\label{table:kanji2word}\input{02table04.txt}\end{table}\subsection{言語モデル}\label{sec:categ}言語モデル$P(C,K)$は,用語の種別$C$に関するコーパスを用いてモデル化する.具体的には,式(\ref{eq:Language})を用いて計算する.\begin{equation}P(C,K)=P(C)\!\times\!P(K|C)\proptoP(K|C)\label{eq:Language}\end{equation}$P(C)$は$K$に依存しないので無視する.原理的には,種別$C$のコーパスが与えられた条件のもとで,漢字列$K$が生成される条件付き確率を計算する.実際は,種別$C$に関するコーパスを用いて漢字のNグラム確率を計算する.現在は,$N=1$としている.本研究では,以下に示す3種類の言語モデルを構築し,実験に使用した.\begin{itemize}\item標準言語モデル:中国北京大学計算語言学研究所\footnote{http://icl.pky.edu.cn/}が富士通\footnote{http://www.frdc-fujitsu.com.cn/}と共同で作成した「PFR\UTFC{4EBA}\UTFC{6C11}\UTFC{65E5}\UTFC{62A5}\UTFC{6CE8}\UTFC{8BED}\UTFC{6599}\UTFC{5E93}(人民日報タグ付きコーパス)」\mbox{1998年}1月の新聞記事一ヶ月分から構築したモデルであり,異なり$4,540$(延べ$12,229,563$)の漢字を含む.\item企業名言語モデル:中国科学院計算技術研究所が主催している「\UTFC{4E2D}\UTFC{6587}\UTFC{81EA}\UTFC{7136}\UTFC{8BED}\UTFC{8A00}\UTFC{5904}\UTFC{7406}\UTFC{5F00}\UTFC{653E}\UTFC{5E73}\UTFC{53F0}(中国語自然言語処理オープンソース)」\footnote{http://www.nlp.org.cn/}が提供している$22,569$社を含む「\UTFC{516C}\UTFC{53F8}\UTFC{540D}\UTFC{5F55}\UTFC{5E93}(企業名リスト)」から構築したモデルであり,異なり$2,167$(延べ$78,432$)の漢字を含む.\item人名言語モデル:上記「\UTFC{4E2D}\UTFC{6587}\UTFC{81EA}\UTFC{7136}\UTFC{8BED}\UTFC{8A00}\UTFC{5904}\UTFC{7406}\UTFC{5F00}\UTFC{653E}\UTFC{5E73}\UTFC{53F0}」が提供している「\UTFC{5E26}\UTFC{8BCD}\UTFC{6027}\UTFC{8BCD}\UTFC{9891}\UTFC{7684}\UTFC{6269}\UTFC{5C55}\UTFC{8BCD}\UTFC{5178}(品詞および出現頻度付き拡張辞典)」から$38,406$件の人名を抽出して構築したモデルであり,異なり$2,318$(延べ$104,443$)の漢字を含む.\end{itemize}また,上記のモデルを構築する際に,SuperMorphoを用いてコーパスの形態素解析を行い,句読点,記号,機能語を事前に削除した.\subsection{関連語の自動抽出}\label{sec:auto}本研究では,翻字対象が指す実体や概念に対して,その意味や印象を中国語で表記した関連語をWebから自動的に抽出し,翻字に利用する.図\ref{fig:2}に,「エプソン」の関連語を自動抽出する過程を示す.図\ref{fig:2}の上部では翻字対象に関連する関連語候補を抽出し,下部では抽出する関連語を選択している.以下,それぞれについて説明する.\begin{figure}[b]\begin{center}\includegraphics{17-2ia2f2.eps}\end{center}\caption{関連語自動抽出の概要}\label{fig:2}\end{figure}翻字対象の関連語を抽出するためには,翻字対象に関する文書が必要である.例えば,翻字対象が商品名であれば,その商品を紹介する文書であり,翻字対象が企業名であれば,企業の理念などに関する文書である.このような文書として,フリー百科事典「ウィキペディア(Wikipedia)」日本語版\footnote{http://ja.wikipedia.org/wiki/}の記事を利用した.2009年6月15日の時点では約$150$万の項目があり,一般名詞,人名,地名,企業名,商品名などが登録されている.図{\ref{fig:karati}}は地名「カラチ」をWikipediaで検索して得られた記事ページの抜粋である.図{\ref{fig:karati}}において,最上部の「カラチ」は記事の名称(記事名)であり,その下は本文である.図{\ref{fig:karati}}の{\mbox{「目次」}}に示されているように,本文は「1歴史」,{\mbox{「2気候」}},{\mbox{「3人口統計」}}などの「セクション(節)」によって構造化されることがある.関連語候補の抽出は以下の手順に従って行う.\begin{enumerate}\item翻字対象語をWikipediaで検索して記事ページを取得する.現在の手法では,記事ページがない用語に対しては関連語を抽出することができない.\item取得した記事ページからHTMLタグを削除し,茶筌\footnote{http://chasen.naist.jp/hiki/ChaSen/}で形態素解析を行う.\item形態素解析の結果から,名詞と形容詞を翻字対象の関連語候補として抽出する.ただし,「名詞」のうち「名詞—数」,「名詞—接尾—助数詞」,「名詞—副詞可能」,「名詞—非自立」,「名詞—代名詞」は抽出しない.図\ref{fig:2}では,「普及」や「普通」などの名詞と「好き」や「良い」などの形容詞が関連語の候補として抽出されている.\end{enumerate}\begin{figure}[b]\begin{center}\includegraphics{17-2ia2f3.eps}\end{center}\caption{Wikipediaにおける「カラチ」の記事ページの抜粋}\label{fig:karati}\end{figure}ここで,図{\ref{fig:karati}}に示した記事ページの本文は構造化されているため,上記の手順(2)において,関連語抽出に有効な特定のセクション内だけを解析対象とする手法が考えられる.しかし,Wikipediaのガイドブックによる記事ページの編集方針\footnote{http://ja.wikipedia.org/wiki/Wikipedia:ガイドブック\_編集方針}では,記事は{\mbox「記事名(項目名)」}と{\mbox「本文」}で構成され,本文の基本構成は概要から次第に詳細内容になり,段落の数が多くなるようなら,「見出し」を付けて「セクション(節)」に分けるとしか規定していない.見出しの付け方やセクションの分け方は記事の著者によって方針が異なる.例えば,図{\ref{fig:karati}}で示した「カラチ」の記事ページは,\pagebreak「歴史」,「気候」,「人口統計」,「交通」,「姉妹都市」,「脚注」,「ギャラリー」の7セクションで構成されている.一方,「ハワイ」の記事ページは,「歴史」,「地理」,「人口動勢」,「政治と法律」,「経済」,「教育」,「芸術・文化」,「日本との関わり」,「その他」,「注」,「関連項目」,「外部リンク」の12セクションで構成されている.同じ地名に関する記述であるにも拘らず,「カラチ」と「ハワイ」の記事に共通するセクションは「歴史」だけである.さらに,同じ見出しのセクションでも,著者によって記述の方針が異なる可能性がある.このような状況では関連語抽出に有効なセクションを事前に定義することが困難である.そこで,今回の実験では本文全体を対象として関連語の候補を抽出した.Wikipediaから抽出した名詞と形容詞の中には,翻字対象との関連が低い語も含まれているため,翻字に使用する関連語を選択する必要がある.単語間の関連度を計算する手法\cite{Article_22,Article_25}が複数提案されている.本研究では,翻字対象と関連語候補間の相互情報量\cite{Article_03,Article_15}を計算して,その値が高い語を関連語として抽出する.ここでいう相互情報量とは,正確にはpointwisemutualinformationであり,式(\ref{eq:mutual})を用いて計算する.\begin{equation}I(X,Y)=\log\frac{P(X,Y)}{P(X)\timesP(Y)}\label{eq:mutual}\end{equation}$P(X)$と$P(Y)$は単語$X$と$Y$それぞれの出現確率であり,$P(X,Y)$は$X$と$Y$が同時に出現する確率である.ここでは便宜上,$X$を翻字対象,$Y$を1つの関連語候補とする.図\ref{fig:2}の例では,$X$は「エプソン」であり,$Y$は「好き,普及,普遍,良い」のいずれかである.関連語の選択は以下の手順に従って行う.\begin{enumerate}\item$P(X)$,$P(Y)$,$P(X,Y)$を計算するために,「$X$」,「$Y$」,「$X$and$Y$」を検索キーワードとしてYahoo!JAPAN\footnote{http://www.yahoo.co.jp/}で検索し,検索結果の総数でそれぞれの確率を近似する.\item式(\ref{eq:mutual})の値が高い候補を関連語として選択する.図\ref{fig:2}では,「エプソン」の関連語として「好き」,「普及」,「普通」,「良い」が選ばれている.選択する関連語の件数は実験的に決めるパラメタである.\ref{sec:exp}の評価実験では,関連語の件数を段階的に変化させて翻字への影響について考察する.\item(2)で選択した関連語を中国語に翻訳する.原理的には,この作業は機械翻訳システムを利用することで自動化することができる.しかし,現在はYahoo!JAPAN\footnote{http://honyaku.yahoo.co.jp/}を利用して人手で翻訳している.ただし,Yahoo!JAPANで翻訳できずに原言語がそのまま返される関連語は削除する.\mbox{図\ref{fig:2}}では,「\UTFC{559C}\UTFC{7231}」,「\UTFC{666E}\UTFC{53CA}」,「\UTFC{666E}\UTFC{901A}」,「\UTFC{597D}」はそれぞれ「好き」,「普及」,「普通」,「良い」に対する訳語であり,翻字対象の関連語として使用される.\end{enumerate}
\section{評価実験}
label{sec:exp}\subsection{実験方法}\label{sec:emethod}本手法で提案した関連語抽出手法の翻字における有効性を評価するために,人手で関連語を与えた場合の結果と比較した.具体的には,以下に示すモデルの組み合わせについて翻字精度を比較した.\begin{itemize}\item発音モデル+言語モデル\item発音モデル+印象モデル+言語モデル:関連語を自動抽出する\item発音モデル+印象モデル+言語モデル:関連語を人手で与える\end{itemize}各手法を順番に「音+言」,「自動」,「人手」と呼ぶ.「自動」は本研究の提案手法であり,「音+言」と「人手」は,それぞれ期待される翻字精度の下限と上限を推定するための手法である.本研究では\ref{sec:categ}で説明したように3種類の言語モデルを構築したため,翻字対象の種別に言語モデルを適応させた.すなわち,翻字対象の種別が企業名であれば「企業名言語モデル」を使用し,人名であれば「人名言語モデル」を使用し,それ以外の翻字対象には「標準言語モデル」を使用した.実験に使う翻字対象として,日中対訳辞書\cite{Book_02}に登録されているカタカナ語$1,136$語から\cite{Article_21}が使用した$210$語を選んだ.しかし,Wikipediaで記事ページが検索されなかった用語は関連語を抽出できないため,翻字対象語から削除した.また、Wikipediaで「曖昧さ回避のためのページ」が検索された用語も翻字対象語から削除した.例えば,「アポロ」で検索すると「アポロ(小惑星)」や「アポロ(曲)」といった異なる語義について書かれた記事へのリンクが表示される.本手法を実際に運用する場合,現状では複数のリンクから対象の語義に関する記事ページを自動的に特定することができない.そこで,今回の実験では多義語を翻字対象語から削除した.最終的に翻字対象として残った$128$語の内訳を表\ref{table:syubetsu}に示す.\begin{table}[b]\caption{翻字対象$128$語の内訳}\label{table:syubetsu}\input{02table05.txt}\end{table}各翻字対象語について,日本語が分かる中国人判定者2名に関連語を与えてもらった.具体的には,翻字対象の$128$語に対して,日中対訳辞書\cite{Book_02}に記載された解説を2名の判定者に示し,意味を理解させた上で,中国語で1つ以上の関連語を与えてもらった.ただし,判定者はWikipediaの記事を見ずに作業を行ったので,判定者が与えた関連語が全てWikipediaの記事に載っているとは限らない.各翻字対象語に対して,判定者は自分が与えた関連語に関わっていると判断した語を正解訳語として1つ以上選んだ.判定者が翻字対象に与えた関連語および選んだ正解訳語と不正解訳語の例を表\ref{table:examword}に示す.表\ref{table:examword}において,2列目の「中国語の関連語(日本語)」は,翻字対象に対して判定者が与えた関連語であり,括弧の中は筆者が付けた日本語訳である.3列目の「正解」は判定者が正解と判断した訳語の全てであり,4列目の「不正解」は判定者が不正解と判断した訳語の一部である.なお,翻字結果を公平に比較するために,「自動」と「人手」では翻字対象ごとに翻字に使用する関連語の数を揃えた.具体的には,「自動」では式(\ref{eq:mutual})の値が高い関連語候補のうち,「人手」で使用された関連語と同じ件数だけを使用した.\begin{table}[b]\caption{判定者が選んだ正解訳語と不正解訳語および関連語の例}\label{table:examword}\input{02table06.txt}\end{table}評価尺度として「正解訳語の平均順位」を用いた.「人手」では,各翻字対象について判定者2名に対する正解訳語の順位を平均し,さらに全翻字対象を横断して順位を平均した.「自動」では,各翻字対象について各判定者が与えた関連語数に合わせて実験を行い,各判定者に対応する正解訳語の順位を平均し,さらに全翻字対象を横断して正解訳語の順位を平均した.「音+言」では,翻字結果が関連語に依存しないため判定者による正解訳語の順位には違いがなく,全翻字対象を横断して順位を平均した.ここで,各翻字対象の「正解訳語」として,以下に示す3種類の解釈がある.\begin{enumerate}\makeatletter\renewcommand{\theenumi}{}\makeatother\item日中対訳辞書\cite{Book_02}に定義された訳語\item判定者2名の両方が適切と判定した訳語\item判定者のうち最低1名が適切と判定した訳語\end{enumerate}(a)は評価の客観性が最も高い.しかし,辞書に定義されていない用語でも訳語として適切な場合があるため,正解訳語の網羅性は最も低い.(c)は正解訳語の網羅性が最も高い.しかし,判定者の主観に依存するため,評価の客観性は最も低い.(b)は正解訳語の網羅性と評価の客観性ともに(a)と(c)の中間である.本実験では,客観性が一番低い(c)を省略して,(a)と(b)について評価を行った.\subsection{実験結果}\label{sec:result}\begin{table}[b]\caption{正解の種類(a)に対する正解訳語の平均順位}\label{table:auto1}\input{02table07.txt}\end{table}\begin{table}[b]\caption{正解の種類(b)に対する正解訳語の平均順位}\label{table:auto2}\input{02table08.txt}\end{table}正解の種類(a)と(b)に対する翻字の実験結果をそれぞれ表\ref{table:auto1}と\ref{table:auto2}に示す.表\ref{table:auto1}と\ref{table:auto2}において,2列目の「語数」は,正解訳語が少なくとも一つ存在する翻字対象の総数である.表\ref{table:auto1}の\mbox{「語数」}は,日中対訳辞書の訳語を正解訳語としているため,すべての翻字対象語には正解訳語が存在し,128語になる.それに対して,表\ref{table:auto2}の「語数」は,判定者2名の両方が適切と判断した訳語だけを正解訳語としているため,共通の正解訳語が存在しない翻字対象語を除いて,76語になる.3列目の「関連語数の平均」と4列目の「正解訳語数の平均」は,各判定者が翻字対象一つにつき与えた関連語数と正解と判定した正解訳語数の平均である.「正解訳語の平均順位」は\ref{sec:emethod}に示した3通りの手法に対する結果をそれぞれ示している.表\ref{table:auto1}と\ref{table:auto2}では,「音+言」の結果は関連語に依存しないため,判定者によらず必ず一致する.表\ref{table:auto1}と\ref{table:auto2}の結果より,正解の種類に関係なく,「自動」と「人手」の平均順位は「音+言」より高く,「人手」の平均順位が一番高かった.\begin{figure}[b]\begin{center}\includegraphics{17-2ia2f4.eps}\end{center}\caption{正解の種類(a)における正解訳語の順位分布図}\label{fig:ca1}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{17-2ia2f5.eps}\end{center}\caption{正解の種類(b)における正解訳語の順位分布図}\label{fig:ca2}\end{figure}図\ref{fig:ca1}と\ref{fig:ca2}は,表\ref{table:auto1}と\ref{table:auto2}の結果に対して「正解訳語の順位に関する分布」を分析した結果である.図\ref{fig:ca1}の正解訳語が上位10位以内に存在した語数を見ると,「自動」は「人手」より少なく,「音+言」より多かった.この傾向は図\ref{fig:ca2}でも同様であった.以上をまとめると,正解の種類と関係なく,自動抽出した関連語を利用して翻字を行う手法は,印象モデルを利用しない手法よりも有効であった.また,翻字精度を多少犠牲にして,人手で関連語を与えるコストを削減することができた.自動抽出する関連語を上位から1つずつ増やして,正解訳語の平均順位が変化する様子を調べた結果を図\ref{fig:num}に示す.図\ref{fig:num}より,関連語を1つしか使用しない場合でも正解の種類(a)と(b)における正解訳語の平均順位はそれぞれ$219$と$78$であり,表\ref{table:auto1}と\ref{table:auto2}にそれぞれ示した「音+言」の平均順位($229$と$102$)よりも高かった.また,正解訳語の平均順位は関連語数が増えるにつれ高くなり,関連語数が$7$を超えたところでほぼ一定になった.\begin{figure}[t]\begin{center}\includegraphics{17-2ia2f6.eps}\end{center}\caption{関連語の数と正解訳語の平均順位}\label{fig:num}\end{figure}\subsection{考察}\label{sec:kousatu}表\ref{table:yukou}と\ref{table:mukou}は,用語の種別ごとに翻字対象を1つずつ選んで,翻字に使用した関連語と正解の種類(a)における正解訳語の平均順位を示している.表\ref{table:yukou}は自動抽出した関連語が有効だった翻字対象の例を示し,表\ref{table:mukou}は自動抽出した関連語が有効でなかった翻字対象の例を示している.表\ref{table:yukou}の「順位」では「自動」における正解訳語の平均順位は「人手」より高く,逆に表\ref{table:mukou}では「自動」の順位は「人手」より低い.表\ref{table:yukou}と\ref{table:mukou}の「中国語の関連語」において,「自動」では中国語に翻訳する前の日本語を括弧内に示す.ただし,「人手」の関連語は判定者が直接中国語で入力したため,筆者が日本語訳を与えた.「中国語の関連語」を見ると,自動的に抽出した関連語は人手で与えた関連語とあまり一致していない.以下,この点について具体例を挙げながら考察する.\begin{table}[t]\caption{自動抽出した関連語が有効だった翻字対象の例}\label{table:yukou}\input{02table09.txt}\end{table}表\ref{table:yukou}を見ると,「カネボウ」では,企業名を付ける際には使用されないであろう「\UTFC{7834}\UTFC{4EA7}(破産)」と「\UTFC{50B2}\UTFC{6162}(傲慢)」が関連語として使用されていた.判定者が不適切な関連語を与えたことで評価実験の妥当性が損なわれていないか調べるために,全ての翻字対象について著者が関連語を吟味した.その結果,「カネボウ」の\mbox{「\UTFC{7834}\UTFC{4EA7}(破産)」}と「\UTFC{50B2}\UTFC{6162}(傲慢)」以外の関連語には問題がなかった.さらに,「カネボウ」の関連語から\mbox{「\UTFC{7834}\UTFC{4EA7}(破産)」}と\mbox{「\UTFC{50B2}\UTFC{6162}(傲慢)」}を削除し,自動抽出した関連語数を人手の関連語数に揃えて再度実験を行った.その結果,正解の種類や「人手」と「自動」といった手法の違いによらず,上記2つの関連語を削除する前と比べて実験結果は変わらなかった.以上より,人手による不適切な関連語によって評価実験の妥当性が損なわれていないことを確認した.\begin{table}[t]\caption{自動抽出した関連語が有効でなかった翻字対象の例}\label{table:mukou}\input{02table10.txt}\end{table}別の例として,\mbox{「カラチ」}では,自動抽出した関連語の中に,\mbox{Wikipedia}の記事ページにある「カラチ」と関連が強いと考えられるいくつかの語が含まれていない.例えば,「ムスリム」や「パキスタン」である.「ムスリム」と「パキスタン」は関連語候補として抽出されたものの「カラチ」との相互情報量は関連語候補中それぞれ11位と12位だった.他方において,判定者AとBが「カラチ」に与えた関連語の数はそれぞれ8語と10語だった.人手と自動と関連語の数を揃えたため,「ムスリム」と「パキスタン」は最終的に関連語として選択されなかった.本来関連が強い語を自動的に関連語として選択するためには,関連語候補を抽出する段階と抽出した候補を一定の基準で順位付ける段階のそれぞれにおいて改善の余地がある.まず,関連語候補を抽出する段階では,記事ページ本文全体が抽出対象となっている点に問題がある.表\ref{table:yukou}において「カラチ」の関連語を見ると,「外部リンク」というセクションから抽出された「リンク」が関連語として選択されている.しかし,\mbox{Wikipedia}では\mbox{「外部リンク」}に見出し語に関する説明が書かれることは稀である.「カラチ」の例に関して言えば,「外部リンク」のセクションを関連語抽出の対象から削除すれば,\mbox{「リンク」}は関連語候補として抽出されず,その結果「ムスリム」や「パキスタン」の順位が相対的に上がる.しかし,\mbox{「ハワイ」}の記事ページにおける「外部リンク」のセクションには,「カウアイ観光局」や「オアフ島観光局」などのアンカーテキスト(リンクをはるためのテキスト)が記述されており,「カウアイ」や「オアフ島」などの「ハワイ」に関連する語を含んでいる.すなわち,関連語抽出の対象から「外部リンク」を一律削除すればよいとは限らない.また,\ref{sec:auto}節で議論したように,セクションの分け方,見出しの付け方,セクション内の記述内容に関する方針は記事の著者によって異なる.以上より,関連語抽出において対象にすべきセクションとそれ以外を正確に区別することは難しい.これは今後も検討して解決すべき課題である.関連語の候補に順位を付ける段階では,式(\ref{eq:mutual})で用いた相互情報量以外の計算方法を試し,本研究の目的にとって最適な手法について今後検討する必要がある.表\ref{table:mukou}を見ると,「シャネル」では,自動抽出した関連語のうちいくつかが人手で与えた関連語と一致した.例えば,「\UTFC{9999}\UTFC{6C34}(香水)」や「\UTFC{540D}\UTFC{724C}(ブランド)」などである.しかし,人手で与えられた「\UTFC{534E}\UTFC{4E3D}(華やか)」や「\UTFC{8010}\UTFC{4E45}(耐久)」などのように翻字対象の印象を表す関連語がなく,翻字に有効でなかった.「インテル」では,自動抽出した関連語に「インテル」に関する印象を表す語がなかった.「カタール」では,自動抽出した関連語は全てカタール周辺国の国名であり,「カタール」自体を表す語として適切ではなかった.「モナリザ」と「ディスコ」では,自動抽出した関連語の中に,翻字対象と関係のない語がいくつかあった.例えば,「モナリザ」の「\UTFC{81EA}\UTFC{5DF1}(自分)」,「\UTFC{624B}(手)」,「\UTFC{6CA1}\UTFC{6709}(無く)」や,「ディスコ」の「\UTFC{597D}(良い)」,「\UTFC{56DE}\UTFC{6765}(帰り)」,「\UTFC{5236}(製)」である.また,Yahoo!JAPANの翻訳システムによる誤訳もあった.例えば,「ディスコ」に対する日本語の関連語「非常」は「とても」という意味なので,中国語の「\UTFC{5927}」ではなく「\UTFC{975E}\UTFC{5E38}」と訳されるべきであった.
\section{おわりに}
中国語では表意文字である漢字を翻字に使用するため,発音が同じでも使用する漢字によって翻字結果の意味や印象は異なる.そこで,中国語への翻字では漢字の選択が重要である.\cite{Article_21}は適切な漢字を選ぶために,発音だけでなく翻字対象の印象や種別を使用した.しかし,彼らの手法では翻字対象の関連語をユーザが与えるため高価である.本研究の貢献は,翻字対象の関連語をWebから自動的に抽出してユーザの負担を削減した点にある.評価実験の結果,本手法は人手で関連語を与える手法よりも翻字精度が低かった.しかし,漢字の意味や印象を考慮しない翻字手法よりは翻字精度が高かった.しかし,自動抽出した関連語には翻字対象の特徴を適切に表現していない用語もあったため,今後の課題として関連語抽出のさらなる精緻化が必要である.また,Wikipediaで説明を得ることができない用語や多義語への対応も今後の課題である.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Al-Onaizan\BBA\Knight}{Al-Onaizan\BBA\Knight}{2002}]{Article_01}Al-Onaizan,Y.\BBACOMMA\\BBA\Knight,K.\BBOP2002\BBCP.\newblock\BBOQTranslatingNamedEntitiesUsingMonolingualandBilingualResources.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\400--408}.\bibitem[\protect\BCAY{Bollegala,Matsuo,\BBA\Ishizuka}{Bollegalaet~al.}{2007}]{Article_22}Bollegala,D.,Matsuo,Y.,\BBA\Ishizuka,M.\BBOP2007\BBCP.\newblock\BBOQMeasuringSemanticSimilaritybetweenWordsUsingWebSearchEngines.\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalWorldWideWebConference},\mbox{\BPGS\757--766}.\bibitem[\protect\BCAY{Chen,Hueng,Ding,\BBA\Tsai}{Chenet~al.}{1998}]{Article_02}Chen,H.~H.,Hueng,S.~J.,Ding,Y.~W.,\BBA\Tsai,S.~C.\BBOP1998\BBCP.\newblock\BBOQProperNameTranslationinCross-LanguageInformationRetrieval.\BBCQ\\newblockIn{\BemProceedingsofthe36thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe17thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\232--236}.\bibitem[\protect\BCAY{Church\BBA\Hanks}{Church\BBA\Hanks}{1989}]{Article_03}Church,K.~W.\BBACOMMA\\BBA\Hanks,P.\BBOP1989\BBCP.\newblock\BBOQWordAssociationNorms,MutualInformation,andLexicography.\BBCQ\\newblockIn{\BemProceedingsofthe27thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\76--83}.\bibitem[\protect\BCAY{Fujii\BBA\Ishikawa}{Fujii\BBA\Ishikawa}{2001}]{Article_04}Fujii,A.\BBACOMMA\\BBA\Ishikawa,T.\BBOP2001\BBCP.\newblock\BBOQJapanese/EnglishCross-LanguageInformationRetrieval:ExplorationofQueryTranslationandTransliteration.\BBCQ\\newblock{\Bem{\emComputersandtheHumanities}},{\Bbf35}(4),\mbox{\BPGS\389--420}.\bibitem[\protect\BCAY{黄\JBA藤井\JBA石川}{黄\Jetal}{2007}]{Article_21}黄海湘\JBA藤井敦\JBA石川徹也\BBOP2007\BBCP.\newblock中国語への翻字における確率的な漢字選択手法.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ90--D}(10),\mbox{\BPGS\2914--2923}.\bibitem[\protect\BCAY{Jeong,Myaeng,Lee,\BBA\Choi}{Jeonget~al.}{1999}]{Article_05}Jeong,K.~S.,Myaeng,S.~H.,Lee,J.~S.,\BBA\Choi,K.~S.\BBOP1999\BBCP.\newblock\BBOQAutomaticIdentificationandBack-TransliterationofForeignWordsforInformationRetrieval.\BBCQ\\newblock{\Bem{\emInformationProcessing\&Management}},{\Bbf35},\mbox{\BPGS\523--540}.\bibitem[\protect\BCAY{Knight\BBA\Graehl}{Knight\BBA\Graehl}{1998}]{Article_06}Knight,K.\BBACOMMA\\BBA\Graehl,J.\BBOP1998\BBCP.\newblock\BBOQMachineTransliteration.\BBCQ\\newblock{\Bem{\emComputationalLinguistics}},{\Bbf24}(4),\mbox{\BPGS\599--612}.\bibitem[\protect\BCAY{Kwok,Deng,Dinstl,Sun,Xu,Peng,\BBA\Doyon}{Kwoket~al.}{2005}]{Article_08}Kwok,K.~L.,Deng,P.,Dinstl,N.,Sun,H.~L.,Xu,W.,Peng,P.,\BBA\Doyon,J.\BBOP2005\BBCP.\newblock\BBOQCHINET:aChineseNameFinderSystemforDocumentTriage.\BBCQ\\newblockIn{\BemProceedingsof2005InternationalConferenceonIntelligenceAnalysis}.\bibitem[\protect\BCAY{Kwok\BBA\Deng}{Kwok\BBA\Deng}{2002}]{Article_07}Kwok,K.~L.\BBACOMMA\\BBA\Deng,P.\BBOP2002\BBCP.\newblock\BBOQCorpus-basedPinyinNameResolution.\BBCQ\\newblockIn{\BemProceedingoftheFirstSIGHANWorkshoponChineseLanguageProcessing},\mbox{\BPGS\41--47}.\bibitem[\protect\BCAY{Lee\BBA\Chang}{Lee\BBA\Chang}{2003}]{Article_09}Lee,C.~J.\BBACOMMA\\BBA\Chang,J.~S.\BBOP2003\BBCP.\newblock\BBOQAcquisitionofEnglish-ChineseTransliteratedWordPairsfromParallel-AlignedTextsUsingaStatisticalMachineTransliterationModel.\BBCQ\\newblockIn{\BemProceedingsoftheHLT-NAACL2003WorkshoponBuildingandUsingParallelTexts:DataDrivenMachineTranslationandBeyond},\mbox{\BPGS\96--103}.\bibitem[\protect\BCAY{Li,Sim,Kuo,\BBA\Dong}{Liet~al.}{2007}]{Article_11}Li,H.~Z.,Sim,K.~C.,Kuo,J.~S.,\BBA\Dong,M.\BBOP2007\BBCP.\newblock\BBOQSemanticTransliterationofPersonalNames.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\120--127}.\bibitem[\protect\BCAY{Li,Zhang,\BBA\Su}{Liet~al.}{2004}]{Article_10}Li,H.~Z.,Zhang,M.,\BBA\Su,J.\BBOP2004\BBCP.\newblock\BBOQAJointSource-ChannelModelforMachineTransliteration.\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\159--166}.\bibitem[\protect\BCAY{Qu\BBA\Grefenstette}{Qu\BBA\Grefenstette}{2004}]{Article_12}Qu,Y.\BBACOMMA\\BBA\Grefenstette,G.\BBOP2004\BBCP.\newblock\BBOQFindingIdeographicRepresentationsofJapaneseNamesWritteninLatinScriptviaIdentificationandCorpusValidation.\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\183--190}.\bibitem[\protect\BCAY{佐々木\JBA佐藤\JBA宇津呂}{佐々木\Jetal}{2006}]{Article_25}佐々木靖弘\JBA佐藤理史\JBA宇津呂武仁\BBOP2006\BBCP.\newblock関連用語収集問題とその解法.\\newblock\Jem{{自然言語処理}},{\Bbf13}(3),\mbox{\BPGS\151--175}.\bibitem[\protect\BCAY{Stalls\BBA\Knight}{Stalls\BBA\Knight}{1998}]{Article_14}Stalls,B.~G.\BBACOMMA\\BBA\Knight,K.\BBOP1998\BBCP.\newblock\BBOQTranslatingNamesandTechnicalTermsinArabicText.\BBCQ\\newblockIn{\BemProceedingsoftheCOLING/ACLWorkshoponComputationalApproachestoSemiticLanguages},\mbox{\BPGS\34--41}.\bibitem[\protect\BCAY{鈴木\JBA王}{鈴木\JBA王}{2002}]{Book_02}鈴木義昭\JBA王文\BBOP2002\BBCP.\newblock\Jem{日本語から引ける中国語の外来語辞典}.\newblock東京堂出版.\bibitem[\protect\BCAY{Turney}{Turney}{2001}]{Article_15}Turney,P.~D.\BBOP2001\BBCP.\newblock\BBOQMiningtheWebforSynonyms:PMI-IRversusLSAonTOEFL.\BBCQ\\newblockIn{\BemProceedingsoftheTwelfthEuropeanConferenceonMachineLearning},\mbox{\BPGS\419--502}.\bibitem[\protect\BCAY{Virga\BBA\Khudanpur}{Virga\BBA\Khudanpur}{2003}]{Article_16}Virga,P.\BBACOMMA\\BBA\Khudanpur,S.\BBOP2003\BBCP.\newblock\BBOQTransliterationofProperNamesinCross-LingualInformationRetrieval.\BBCQ\\newblockIn{\BemProceedingsoftheACL2003WorkshoponMultilingualandMixed-languageNamedEntityRecognition},\mbox{\BPGS\57--64}.\bibitem[\protect\BCAY{Wan\BBA\Verspoor}{Wan\BBA\Verspoor}{1998}]{Article_18}Wan,S.\BBACOMMA\\BBA\Verspoor,C.~M.\BBOP1998\BBCP.\newblock\BBOQAutomaticEnglish-ChineseNameTransliterationforDevelopmentofMultilingualResources.\BBCQ\\newblockIn{\BemProceedingsofthe36thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe17thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1352--1356}.\bibitem[\protect\BCAY{Xu,Fujii,\BBA\Ishikawa}{Xuet~al.}{2006}]{Article_19}Xu,L.~L.,Fujii,A.,\BBA\Ishikawa,T.\BBOP2006\BBCP.\newblock\BBOQModelingImpressioninProbabilisticTransliterationintoChinese.\BBCQ\\newblockIn{\BemProceedingsofthe2006ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\242--249}.\end{thebibliography}\begin{biography}\bioauthor{黄海湘}{2002年3月獨協大学大学院博士前期課程(経済・経営情報専攻)修了.同年4月図書館情報大学大学院博士後期課程に入学.現在,大学統合にともない筑波大学大学院図書館情報メディア研究科に在籍中.}\bioauthor{藤井敦}{1993年3月東京工業大学工学部情報工学科卒業.1998年3月同大学大学院博士課程修了.現在,東京工業大学大学院情報理工学研究科准教授,博士(工学).自然言語処理,情報検索,音声言語処理,Webマイニングの研究に従事.情報処理学会,人工知能学会,電子情報通信学会,日本データベース学会,AssociationforComputationalLinguistics各会員.}\end{biography}\biodate\end{document}
| |
V16N01-02 | \section{はじめに}
本論文では,ベイズ識別と仮説検定に基づいて,英文書の作成者の母語話者/非母語話者の判別(母語話者性の判別)を高精度で行う手法を提案する.WWW上の英文書を英語教育や英文書作成支援に利用する研究が盛んに行われている\cite{大鹿,佐野,大武}.WWW上にはオーサライズされた言語コーパスとは比べものにならないくらいの大量の英文書が存在するため,これを言語データとして活用することで,必要な言語データの量の問題をかなり克服できる.しかし,WWW上の英文書の質は様々であり,英語を母語とする者あるいはそれと同等の英語運用能力を有する者が書いた英文書(本論文では母語話者文書と呼ぶ)と英語を母語としない者が書いた誤りや不自然な表現を含む英文書(本論文では非母語話者文書と呼ぶ)とが混在している.WWW上の英文書を英語学習教材として使用する場合,あるいは,英語表現の用例集として使用する場合は,使用する英文書を母語話者文書に制限するのが望ましい.また,非母語話者に特有の文法的特徴や使用語彙の傾向を調査したり,非母語話者が犯しがちな不自然な表現を収集するには,大量の母語話者文書および非母語話者文書を必要とする.したがって,英語教育や英文書作成支援を目的としてWWW上の英文書を使用する場合,英文書の母語話者性判別を行う技術は非常に重要である.本論文で提案する英文書の母語話者性判別手法では,品詞$n$-gramモデルを言語モデルとし,判別対象の文書の品詞列(文書中の単語をその品詞で置き換えた列)の母語話者言語モデルによる生起確率と非母語話者言語モデルによる生起確率との比に基づいて判別を行う.$n=5,6,7$といった比較的大きな$n$-gramモデルを言語モデルとすることで,母語話者/非母語話者固有の特徴をより良く扱うことが可能となり,判別精度の向上が期待できる.しかしその反面,両言語モデルのパラメタ($n$-gram確率)を最尤推定した場合,母語話者/非母語話者文書間で品詞$n$-gramモデルのパラメタ値に大きな違いがあるのか,学習データの統計的な揺らぎに起因するものなのかが区別できない.$n=3$という条件部が短い$n$-gramモデルを用いて判別を行う場合でさえ,ゼロ頻度問題およびスパースネスの問題に対処するために,通常なんらかのスムージングを行う.これに対し,提案手法では,仮説検定に基づいた方法で両言語モデルにおける文書の生起確率の比を推定する.
\section{文書クラス識別の枠組み}
\label{節:文書クラス識別の枠組み}本研究で扱う母語話者性の判別問題は,文書$d$が属すクラスの識別問題の一種である.本節では,文書が属すクラスの識別の枠組みについて,その一般論を述べておく.文書が属す可能性のあるクラスとして,$C_1,C_2,\cdots,C_M$があるとする.文書$d$がクラス$C$に属す文書である尤もらしさ(尤度)$Lh(d,C)$を何らかの方法で設定し,$Lh(d,C)$が最大の$C$,つまり,\[\arg\max_{C\in\{C_1,C_2,\cdots,C_M\}}Lh(d,C)\]を文書$d$が属すクラスとして識別する.文書$d$のどのような構成要素(特徴)を用いて$Lh(d,C)$をどのように定義するかにより,どのようなクラスの識別ができるか,および,その識別精度が異なって来る.次節で述べる言語識別,本論文で扱う母語話者性の判別の他,ジャンルの識別,著者識別,さらに迷惑メールの判別(spamfilter)もこの枠組みで議論することができる.文書$d$の属すクラスが$C$である尤度$Lh(d,C)$を$d$が与えられたときのクラス$C$の事後確率$P(C|d)$とし,文書$d$の属すクラスを,\begin{equation}\label{式:ベイズ識別1}\arg\max_{C\in\{C_1,C_2,\cdots,C_M\}}P(C|d)\end{equation}と推定することもできる.これは,統計的パターン認識で用いられる事後確率最大化識別(ベイズ識別)\cite{パターン認識テキスト}である.文書$d$の生起確率を$P(d)$,クラス$C$での$d$の生起確率(クラス$C$に属す文書が生起するときにその文書が$d$である条件付き確率)を$P_C(d)$,クラス$C$に属す文書の生起確率($C$の事前確率)を$P(C)$とすると,上記の事後確率$P(C|d)$は\[P(C|d)=\frac{P(C)P_C(d)}{P(d)}\]と表せるので,式(\ref{式:ベイズ識別1})は,\begin{equation}\label{式:ベイズ識別2}\arg\max_{C\in\{C_1,C_2,\cdots,C_M\}}P(C)P_C(d)\end{equation}と等しい.適当な統計的言語モデルを設定し,各クラス$C_i$の文書集合($C_i$の学習データ)を用いて,$C_i$の言語モデルのパラメタを推定すれば,式(\ref{式:ベイズ識別2})を用いて$d$が属すクラスの識別をすることができる.代表的な統計的言語モデルとして,$n$-gramモデルがある.一般に,ある時点で生起する事象の確率が,その直前の$n$個の時点で生起した事象だけの影響を受けるとき,これを$n$重マルコフ過程と呼び,$n$-gramモデルは,記号の生起を$(n-1)$重マルコフ過程で近似したモデルである\cite{確率的言語モデルテキスト}.特に,$n=1$の場合をuni-gramモデル,$n=2$の場合をbi-gramモデル,$n=3$の場合をtri-gramモデルと呼ぶ.$n$-gramモデルでは,記号列$\vec{a}=a_1a_2\cdotsa_\ell$の生起確率は,\[P(\vec{a})=\prod_{i=1}^{\ell+1}P(a_i\:|\:a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})\]で表される.ただし,$j\leq0$のとき$a_j=@_s$であり,$@_s$は文頭を表す特殊記号である.また,$a_{\ell+1}=@_e$であり,$@_e$は文末を表す特殊記号である.記号としては,文字,単語,品詞などが考えられる.本論文では,記号が文字であるものを文字$n$-gramモデル,記号が品詞であるものを品詞$n$-gramモデルと呼ぶことにする.条件付き確率$P(a_i\:|\:a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$は$n$-gram確率と呼ばれる.本論文では,言語クラス$C$の$n$-gram確率を$P_C(a_i\:|\:a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$と添え字を付けて表す.学習データの生起確率を最大にするようにモデルのパラメタを推定する最尤推定\cite{統計テキスト}では,$P_C(a_i\:|\:a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$は\begin{equation}\label{式:n-gram確率の最尤推定値}\frac{f_C(a_{i-n+1}\cdota_{i-2}\,a_{i-1}\,a_i)}{\sum_{a\inA}f_C(a_{i-n+1}\cdota_{i-2}\,a_{i-1}\,a)},\end{equation}すなわち,\[\frac{f_C(a_{i-n+1}\cdota_{i-2}\,a_{i-1}\,a_i)}{f_C(a_{i-n+1}\cdota_{i-2}\,a_{i-1})}\]と推定される.$f_C(\vec{a})$は言語クラス$C$の学習データにおける記号列$\vec{a}$の出現頻度であり,$A$は記号の全体集合である.しかし,$n$が大きい場合,$n$-gram確率を単純に式(\ref{式:n-gram確率の最尤推定値})により推定すると,学習データ中に出現しない記号列$a_{i-n+1}\cdotsa_{i-2}\,a_{i-1}\,a_i$に対して,$P_C(a_i\:|\:a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$を0と推定してしまうという大きな問題がある.また,たとえ学習データ中に出現したとしても,条件部の記号列$a_{i-n+1}\cdotsa_{i-2}\,a_{i-1}$の出現頻度が小さい場合は,統計的に信頼性のある確率値を推定するのが難しい.前者はゼロ頻度問題,後者はスパースネスの問題と呼ばれている\cite{確率的言語モデルテキスト}.したがって,これらの問題に対処するために,通常は$n$-gram確率のスムージングを行う.代表的なスムージング手法としては,加算スムージング,線形補間などがある\cite{確率的言語モデルテキスト}.一般に,線形補間の方が加算スムージングより精度が高いと言われている.また,多くの識別問題で高い性能を実現している2クラスの識別器であるSupportVectorMachine\cite{パターン認識テキスト}を使って,文書$d$の属すクラスを識別することもできる.
\section{関連研究}
\label{節:関連研究}文書の母語話者性の判別と関連の深い研究分野として,文書の記述言語を推定する言語識別がある.Cavnarらは,出現頻度上位の文字列とその順位を言語および文書の特徴と考える言語識別を行っている\cite{cavnar}.各言語$L_i$の学習データ文書中での1〜5の長さの文字列のうち出現頻度上位300個の文字列とその順位を求めて,言語$L_i$における順位表を作成しておく.同様に,識別対象文書$d$に対しても順位表を作成する.$d$の順位表中の各文字列の順位と$L_i$の順位表での順位との差の絶対値の和を$d$と$L_i$の非類似度$dissim(d,L_i)$と考え,$dissim(d,L)$が最小の言語$L$を$d$の記述言語として識別する.これは,前節で述べた枠組みに対して,$dissim(d,L_i)$の逆数を尤度$Lh(d,L_i)$と考えたことに相当する.また,前田らは,長さ2の文字列の出現頻度分布をユークリッド空間上のベクトル(頻度ベクトル)であると考え,識別対象文書$d$の頻度ベクトルと各言語$L_i$の学習データ文書の頻度ベクトルとの余弦を,$d$と言語$L_i$の類似度$sim(d,L_i)$とする言語識別を行っている\cite{前田}.これは,前節で述べた枠組みに対して,$sim(d,L_i)$を尤度$Lh(d,L_i)$と考えたことに相当する.行野らは,長い文字列の頻度は統計的な揺らぎが大きいものの,言語を特定する能力が高いと考え,1〜7の長さの文字列を言語および文書の特徴と考える言語識別の手法を提案している\cite{行野}.彼らの手法は,識別対象文書$d$に出現する1〜7の長さの文字列集合と言語$L_i$の学習データに出現する1〜7の長さの文字列集合の積集合の大きさを$Lh(d,L_i)$とする手法である.長い文字列を特徴として使用した結果,類似言語間の識別や識別対象文書が極めて短い場合の識別でも,Cavanrらの手法,前田らの手法に比べ高い識別精度を実現したと報告している.Dunningは文字$n$-gramモデルにより$P_{L_i}(d)$を求め,言語の事前確率を等確率($P(L_i)=P(L_j)$)と仮定して,ベイズ識別により,$d$の属す言語の識別を行っている\cite{dunning}.ただし,ゼロ頻度問題に対処するため,加算スムージングによる$n$-gram確率のスムージングを行っている.$n=1\sim5$を試した結果,$n=2$の場合,つまり,bi-gramモデルの場合が最も識別精度が高かったと報告している.Sibunらは,長さ$n$の文字列の確率分布を言語および文書の特徴と考え(実際には$n=1$または$n=2$を採用している),確率分布間の相違尺度であるKL-Divergenceに基づいた言語識別手法を提案している\cite{sibun}.確率分布$P$と$Q$のKL-Divergence(Kullback-Leibler距離)$D_{KL}(P||Q)$は\[D_{KL}(P||Q)=\sum_{x\in{\calX}}P(x)\log\frac{P(x)}{Q(x)}\]で定義される\cite{確率的言語モデルテキスト}.Sibunらの手法は,$D_{KL}(P_d||P_{L_i})$が最小の$L_i$を$d$の記述言語として識別する手法である.ただし,$P_d(\vec{a})$は文書$d$における文字列$\vec{a}$の生起確率,$P_{L_i}(\vec{a})$は言語クラス$L_i$における文字列$\vec{a}$の生起確率である.$P_d(\vec{a})$は\[P_d(\vec{a})=\gamma\cdotf_d(\vec{a})\qquad\text{ただし,}\gamma=\frac{1}{\sum_{\svec{a}\inA^n}f_d(\vec{a})}\]と推定されるので($f_d(\vec{a})$は$d$での文字列$\vec{a}$の出現頻度,$A$は記号の全体集合,$A^n$は可能な$n$長さの文字列の全体の集合),言語$L_i$における文書$d$の生起確率$P_{L_i}(d)$を\begin{equation}\label{式:文書の生起確率の大胆な近似}P_{L_i}(d)=\prod_{\svec{a}\inA^n}P_{L_i}(\vec{a})^{f_d(\vec{a})}\end{equation}と大胆に近似するならば,\[D_{KL}(P_d||P_{L_i})=\sum_{\svec{a}\inA^n}P_d(\vec{a})\log\frac{P_d(\vec{a})}{P_{L_i}(\vec{a})}=-\gamma\cdot\logP_{L_i}(d)+\sum_{\svec{a}\inA^n}P_d(\vec{a})\logP_d(\vec{a})\]となる.つまり,$D_{KL}(P_d||P_{L_i})$が最小の$L_i$を$d$の記述言語として識別するSibunらの手法は,式(\ref{式:文書の生起確率の大胆な近似})の近似を行った上で,言語の事前確率を等確率と仮定して,ベイズ識別により,$d$の属す言語の識別を行うことと等価である.なお,Sibunらもゼロ頻度問題に対処するために,$P_{L_i}(\vec{a})$は\begin{equation}\label{式:Sibun加算スムージング}P_{L_i}(\vec{a})=\frac{f_{L_i}(\vec{a})+\delta}{\sum_{\svec{a}\inA^n}\{f_{L_i}(\vec{a})+\delta\}}\end{equation}のように,加算スムージングによりスムージングしている($\delta$は非負の定数).次に,本論文で扱う文書の母語話者性判別に関する従来研究について述べる.Tomokiyoらは,長さ$n$($n=1,2,3$)の記号列(記号としては,単語,品詞,および単語品詞混合の3種を試している)を言語および文書の特徴と考え,文書(あるいは,文書を構成する単語をその品詞に置き換えたもの,文書を構成する一部の単語を品詞に置き換えたもの)の生起確率を式(\ref{式:文書の生起確率の大胆な近似})で近似し,ベイズ識別に基づく母語話者/非母語話者クラスの判別を行っている\cite{Tomokiyo}.しかし,彼らは,子供用ニュース記事の音読による発話や観光などに関する自発的発話を,音声認識器によりテキストにした文書,および,人手で書き起こした文書を対象としている.音読では読み間違いが非母語話者の大きな特徴であり,自発的発話では,使用語彙が母語話者/非母語話者の間の大きな違いである.一方,我々は,論文などのように十分推敲して作成されているフォーマルな文書を対象としており,母語話者/非母語話者判別に有効な特徴量も異なってくるため,彼らの判別実験結果と直接比較することはできない.藤井らは,品詞tri-gramモデルを言語モデルとし,ゼロ頻度問題に対処できるSkewDivergenceを用いて英文書の母語話者性の判別を行っている\cite{藤井}.以下で定義される判別対象文書$d$と言語クラス$C$($\in\{N,\NN\}$,$N$:母語話者言語クラス,$\NN$:非母語話者言語クラス)との相違度$ED(d\:;\:C)$\[ED(d\:;\:C)=\sum_{\tuple{ab}\inH^2}f_d(ab)D(P_d^\tuple{ab}\:||\:P_C^\tuple{ab})\]を求め,$ED(d\:;\:C)$を最小にする$C(\in\{N,\NN\})$を$d$が属すクラスとして推定する.ただし,$H$は品詞の全体集合,$P_d^\tuple{ab}$は文書$d$における条件を$ab$とする品詞tri-gram分布,$P_C^\tuple{ab}$はクラス$C$における条件を$ab$とする品詞tri-gram分布\footnote{つまり,$P_d^\tuple{ab}(x)$は文書$d$において,品詞列$ab$の次に品詞$x$が生起する確率$P_d(x|ab)$,$P_C^\tuple{ab}(x)$は言語クラス$C$において,品詞列$ab$の次に品詞$x$が生起する確率$P_C(x|ab)$である.},$D$は確率分布間の相違度である.確率分布間の相違度$D$としてKLDivergenceを用いた場合,$ED(d\:;\:C)$を最小にする$C(\in\{N,\NN\})$は,文書$d$の各単語をその品詞で置き換えた品詞列の生起確率を最大にする言語クラスである.したがって藤井らの手法は,品詞tri-gramモデルを言語モデルとし,言語の事前確率を等確率と仮定して,Bayes識別に基づいて$d$が属すクラスを判定する方法と本質的には同じである.藤井らの手法の特徴は,分布間の相違度$D$としてKLDivergenceを用いるのではなく,以下で定義されるSkewDivergence\cite{Lee}を用いている点にある.\[D_{skew}(p\:||\:q)=\sum_{x\in{\calX}}p(x)\log\frac{p(x)}{\alpha\cdotq(x)+(1-\alpha)\cdotp(x)}\]SkewDivergenceはゼロ頻度問題に弱いKLDivergenceを改良したものである.藤井らは,$\alpha$を,分布$q$(つまり,$P_N^\tuple{ab}$,$P_{\NN}^\tuple{ab}$)の推定に用いた学習データのサイズに応じて,$ab$毎に\begin{equation}\label{Skew:α}\alpha(ab)=1-\exp\left(-\sqrt{\beta\cdot\min(f_N(ab),f_{\NN}(ab))}\right)\end{equation}と設定している.彼らは,SkewDivergenceを用いることで,線形補間を施した品詞tri-gram分布によるKLDivergenceを用いた手法および多くの識別問題で高い精度を実現しているSupportVectorMachineを用いた手法よりも有意に高い判別精度を実現できたと報告している.英文書の母語話者性判別は,母語話者英語,非母語話者英語という類似した言語の識別問題と捉えることもできる.青木らは,文書を,それを構成する単語を品詞で置き換えた品詞列と見なし,基本的にはKL-Divergenceを用いたSibunらの言語識別手法に基づいて,文書の母語話者性の判別を行っている\cite{青木}.「長い文字列も言語特徴とすることで類似言語の識別精度が向上する」という行野らの知見からの予想通り,長い品詞列の頻度情報を利用した場合の判別精度が高く($n=6$のときが最も精度が高い),藤井らの手法より高精度で母語話者性を判別できたと報告している.著者らは,青木らの主張と同じく,長い品詞列の頻度情報も利用することが文書の母語話者性判別に有効であると考えている.藤井らの手法は言語モデルを$n>3$の品詞$n$-gramモデルとしてもそのまま適用できる.しかし,藤井らは,式(\ref{Skew:α})を\begin{itemize}\item$\alpha$は$f=\min(f_N(ab),f_{\NN}(ab))$の単調増加関数,\item$\lim_{f\rightarrow\infty}\alpha=1$,$\lim_{f\rightarrow0}\alpha=0$\end{itemize}を満たす$\alpha$の設定法の一例として用いたに過ぎず,$n$を大きくした場合に,式(\ref{Skew:α})で良いのかどうかは疑問である.さらに,$n$を大きくしたとき,式(\ref{Skew:α})では高い精度が得られない場合に,式(\ref{Skew:α})に代えて,上記の性質を満たす$f=\min(f_N(ab),f_{\NN}(ab))$のどのような関数を$\alpha$の設定に用いればよいのかも明らかではない.一方,青木らの手法は,統計的パターン認識の立場で見るならば,近似式(\ref{式:文書の生起確率の大胆な近似})を仮定したベイズ識別による判別法である.しかし,品詞$n$-gramモデルに比べ,式(\ref{式:文書の生起確率の大胆な近似})は,近似としては非常に粗い.$n$が大きな品詞$n$-gramモデルを言語モデルとして使用し,かつ,ゼロ頻度問題およびスパースネスの問題を克服する新たな母語話者性判別手法を次節で述べる.
\section{提案手法}
本論文で提案する母語話者性判別手法は,長い品詞列の頻度情報を利用することで,より高精度で判別を行うことをねらったもので,長い品詞列の頻度情報を使うことによる信頼性の低下を防ぐために仮説検定を利用しているのが大きな特徴である.藤井らおよび青木らの研究と同じく,文書をそれを構成する単語を品詞で置き換えた品詞列とみなす.品詞$n$-gramモデルを言語モデルとし,文書内の各文が独立に生起すると仮定すると,品詞列に変換した文書$d$のクラス$C$での生起確率$P_C(d)$は,\begin{equation}\label{式:文書の生起確率}P_C(d)=\prod_{\svec{a}\ind}\prod_{i=1}^{\ell(\svec{a})+1}P_C(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})\end{equation}と表せる.ただし,$\ell(\vec{a})$は文(品詞列)$\vec{a}$の長さであり,$a_i$は$\vec{a}$の$i$番目の品詞である.また,$j\leq0$のとき$a_j=@_s$であり,$a_{\ell(\svec{a})+1}=@_e$である(\ref{節:文書クラス識別の枠組み}節参照).Bayes識別に基づく文書$d$の母語話者性判別では,母語話者文書と非母語話者文書の事前確率を$0.5$とすると\footnote{事前確率は,どの分野や範囲の文書を判別したいかで異なってくるため,一般には不明である.そこでDunningや藤井らの研究と同様,事前確率を等確率とした.},\[\begin{array}{lcl}\displaystyle\frac{P_N(d)}{P_{NN}(d)}>1&\Longrightarrow&\mbox{母語話者文書クラス($N$)}\\[4mm]\displaystyle\frac{P_N(d)}{P_{NN}(d)}<1&\Longrightarrow&\mbox{非母語話者文書クラス($N\!N$)}\\[4mm]その他&\Longrightarrow&\mbox{未定}\end{array}\]と判別することになる.生起確率の比の対数を取り,文書(品詞列)の生起確率を式(\ref{式:文書の生起確率})を用いて展開すると,\begin{equation}\label{判別式}\log\frac{P_N(d)}{P_{\NN}(d)}=\sum_{\svec{a}\ind}\sum_{i=1}^{\ell(\svec{a})+1}\log\frac{P_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})}{P_{\NN}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})}\end{equation}となる.上式が正ならば$d$は母語話者文書,負ならば$d$は非母語話者文書と判別することになる.より大きな$n$における品詞$n$-gramモデルは,母語話者英語と非母語話者英語における品詞列の生起確率の相違をより良く取り扱うことができると予想される.しかし,現実的なサイズの学習データから最尤推定により求めた品詞$n$-gram確率による\begin{equation}\label{式:n-gram確率の比}\frac{P_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})}{P_{\NN}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})}\end{equation}では,この値が1から大きくずれる場合に,これが両言語の大きな相違を示しているのか,統計的な揺らぎに起因するものかが分からない(ゼロ頻度問題,スパースネスの問題).そこで,式(\ref{式:n-gram確率の比})を仮説検定に基づいた以下に述べる2種類の手法により控えめに(最尤推定値を用いた場合の比より1に近い値として)推定し,これを用いて式(\ref{判別式})の計算を行い母語話者性の判別を行う.\subsection{手法1}手法1では,式(\ref{式:n-gram確率の比})の値を以下のようにして推定する.ただし,$\widehat{P}_C(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$を$P_C(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$の最尤推定値とする.\begin{itemize}\item[(A)]$\widehat{P}_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})>\widehat{P}_{\NN}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$の場合\[\begin{cases}帰無仮説:&P_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})\leq\mu\cdotP_{\NN}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})\\対立仮説:&P_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})>\mu\cdotP_{\NN}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})\\\end{cases}\]なる有意水準$\alpha$の検定において,帰無仮説を棄却できる最大の$\mu$を求め,$\mu>1$ならば$n$-gram確率の比(\ref{式:n-gram確率の比})を$\mu$と推定し,$\mu\leq1$(つまり,$P_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$が$P_{N\!N}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$より有意に大きいと言えない)ならば1と推定する.$f_C(\vec{a})$を言語クラス$C$($\in\{N,\NN\}$)のモデルの学習データにおける品詞列$\vec{a}$の出現頻度とすると,上記の$\mu$は,\begin{align*}x&=f_N(a_{i-n+1}\cdotsa_{i-2}\,a_{i-1}\,a_i),&y&=f_{\NN}(a_{i-n+1}\cdotsa_{i-2}\,a_{i-1}\,a_i),\\m&=f_N(a_{i-n+1}\cdotsa_{i-2}\,a_{i-1}),&n&=f_{\NN}(a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})\end{align*}として,付録\ref{付録:estimateMu}の$\widehat{\mu}(x,m,y,n)$で求めることができる.\item[(B)]$\widehat{P}_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})<\widehat{P}_{\NN}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$の場合\[\begin{cases}帰無仮説:&\mu\cdotP_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})\geqP_{\NN}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})\\対立仮説:&\mu\cdotP_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})<P_{\NN}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})\\\end{cases}\]なる有意水準$\alpha$の検定において,帰無仮説を棄却できる最大の$\mu$を求め,$\mu>1$ならば$n$-gram確率の比(\ref{式:n-gram確率の比})を$1/\mu$と推定し,$\mu\leq1$(つまり,$P_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$が$P_{N\!N}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$より有意に小さいと言えない)ならば1と推定する.このような$\mu$は,$x$,$m$,$y$,$n$を前述(A)のように定めると,$\widehat{\mu}(y,n,x,m)$として求めることができる.\item[(C)]$\widehat{P}_N(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})=\widehat{P}_{\NN}(a_i|a_{i-n+1}\cdotsa_{i-2}\,a_{i-1})$の場合$n$-gram確率の比(\ref{式:n-gram確率の比})を1と推定する.\end{itemize}\begin{table}[b]\caption{$n$-gram確率の比の推定例}\label{表:n-gram確率の比の推定例}\input{02table01.txt}\end{table}つまり,頻度情報の統計的揺らぎを考慮し,$1-\alpha$の信頼度で,$n$-gram確率の比(\ref{式:n-gram確率の比})を控えめに(最尤推定値を用いた場合の比より1に近い値として)推定する.一方の$n$-gram確率が他方より有意に大きいと言えない場合,両$n$-gram確率に大きな違いはないということで,この$n$-gram確率の比を1と推定し,母語話者性判別に影響しないようにする.表\ref{表:n-gram確率の比の推定例}に$n$-gram確率の比の推定例を示す(有意水準$\alpha=0.05$).例(a)は頻度が小さいため有意水準0.05で一方の$n$-gram確率が他方の$n$-gram確率より大きいと判断できない場合で,比を1と推定している.例(b)〜(e)は最尤推定値を用いた場合より1に近い値を推定している(つまり,スパースネスの問題に対処できている).例(f)(g)は,最尤推定値を用いると$n$-gram確率の比がそれぞれ$\infty$,$0$となってしまう場合であるが,有意水準0.05での推定では0より大きな有限の値となっており,母語話者性の判別に決定的な影響を与えることを避けている(つまり,ゼロ頻度問題にも対処できている).\subsection{手法2}手法2は,手法1を拡張し,$n$-gram確率の比(\ref{式:n-gram確率の比})の推定において,有意水準$\alpha$では両言語モデルにおける$n$-gram確率の一方が他方より有意に大きいと判断できない場合に,$3\leqk<n$の$k$-gram確率の比の推定値を用いるものである\footnote{$2\leqk<n$も実験では試してみたが,$3\leqk<n$の場合より,若干精度が低下した.これは,bi-gramモデルでは母語話者/非母語話者文書の相違を扱うにはモデルが単純過ぎることを意味している.}.\begin{enumerate}\item$k\longleftarrown$\item\label{手法2繰り返し}以下の3つの場合に応じて,\begin{equation}\label{式:n-gram確率の比(手法2)}\frac{P_N(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})}{P_{\NN}(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})}\end{equation}を推定する.\begin{itemize}\item[(A)]$\widehat{P}_N(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})>\widehat{P}_{\NN}(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})$の場合\[\begin{cases}帰無仮説:&P_N(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})\leq\mu\cdotP_{\NN}(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})\\対立仮説:&P_N(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})>\mu\cdotP_{\NN}(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})\\\end{cases}\]なる有意水準$\alpha$の検定において,帰無仮説を棄却できる最大の$\mu$を求め,$\mu>1$ならば$k$-gram確率の比(\ref{式:n-gram確率の比(手法2)})を$\mu$と推定し,$\mu\leq1$ならば1と推定する.\item[(B)]$\widehat{P}_N(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})<\widehat{P}_{\NN}(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})$の場合\[\begin{cases}帰無仮説:&\mu\cdotP_N(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})\geqP_{\NN}(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})\\対立仮説:&\mu\cdotP_N(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})<P_{\NN}(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})\\\end{cases}\]なる有意水準$\alpha$の検定において,帰無仮説を棄却できる最大の$\mu$を求め,$\mu>1$ならば$k$-gram確率の比(\ref{式:n-gram確率の比(手法2)})を$1/\mu$と推定し,$\mu\leq1$ならば1と推定する.\item[(C)]$\widehat{P}_N(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})=\widehat{P}_{\NN}(a_i|a_{i-k+1}\cdotsa_{i-2}\,a_{i-1})$の場合$k$-gram確率の比(\ref{式:n-gram確率の比(手法2)})を1と推定する.\end{itemize}\item推定した$k$-gram確率の比(\ref{式:n-gram確率の比(手法2)})が1で,かつ,$k>3$ならば,$k\longleftarrowk-1$として(\ref{手法2繰り返し})へ.そうでないならば,この推定値を式(\ref{式:n-gram確率の比})の推定値とする.\end{enumerate}
\section{実験}
2つの提案手法,つまり,\begin{itemize}\item式(\ref{式:n-gram確率の比})の値の推定を手法1で行う判別手法(Hypo1),\item式(\ref{式:n-gram確率の比})の値の推定を手法2で行う判別手法(Hypo2)\end{itemize}を用いた母語話者性判別実験を行った.また,\begin{itemize}\item藤井らの手法で使用する言語モデルを$n$-gramに拡張した手法(Skew),\item青木らの手法(KL)\end{itemize}による母語話者性判別を行い,提案手法との比較を行った.実験データは以下の2種類を用意した.\begin{itemize}\item{\bfデータ1}\\電気情報関係の国際会議で発表された英語科学技術論文.内訳は,\begin{itemize}\item英語圏(米国,英国,カナダ,オーストラリア)で開催された採択率50\%未満の国際会議の論文で,第一著者が英語圏所属の非日本人名である論文602件,\item東/東南アジアで開催された採択率50\%以上の国際会議の論文で,第一著者が日本所属の日本人名の論文679件\end{itemize}である.擬似的に,前者を母語話者文書集合,後者を非母語話者文書集合とした.なお,母語話者文書集合/非母語話者文書集合における品詞列の出現頻度情報の信頼度がほぼ同一となるように,両文書集合中の延べ単語数(下記の前処理後の単語数)がほぼ同数になるように文書数を設定した.\item{\bfデータ2}\\電気情報関係の国際会議で発表された英語科学技術論文で,校正専門家(母語話者)が母語話者性を判定したもの60件(母語話者文書25件,非母語話者文書35件).これは,\cite{青木}で使用されている評価用論文と同一のものである.\end{itemize}なお,論文の収集に際しては,両文書集合に母語話者/非母語話者以外の特徴の差が現れないように注意を払った.すなわち,複数の研究分野から論文を収集し,図表や数式,ヘッダやフッタなどの情報を削除するという前処理を行った.単語列から品詞列への変換にはTreeTagger\footnote{http://www.ims.uni-stuttgart.de/projekte/corplex/TreeTagger/DecisonTreeTagger.html}を用いた.変換後の品詞異なり数は57であった(文頭,文末の特殊記号$@_s$,$@_e$を除く).データ1に付与された母語話者性($N$/$N\!N$の別)はかなり精度は高いものの,勿論誤りを含む.そこで,参考としてデータ2をテストデータ(判別対象文書)とした実験(評価実験2)も行った.データ数が少ないため,各手法に対して有意な差は期待できないが,データ1での結果と同様の傾向が見られるかどうかを調べた.各手法の評価は,以下の2つの精度\begin{align*}Prec(N)&=\frac{母語話者文書で母語話者文書と判別された文書数}{母語話者文書と判別された文書数}\\[4mm]Prec(\NN)&=\frac{非母語話者文書で非母語話者文書と判別された文書数}{非母語話者文書と判別された文書数}\end{align*}のうち値の低い方(これをMinPrecと表記する)を用いて評価する.これは,本手法の目的が,母語話者文書および非母語話者文書をともに高精度で収集することにあるからである.\subsection{評価実験1}以下のようにして,各手法の精度をデータ1を用いて10交差検定(10-foldcrossvalidation)\cite{確率的言語モデルテキスト}で求める.\begin{itemize}\item[(1)]データ1の母語話者文書集合を$B_1^N,B_2^N,\cdots,B_{10}^N$と10ブロックに分割する.同様にデータ1の非母語話者文書集合を$B_1^\NN,B_2^\NN,\cdots,B_{10}^\NN$と10ブロックに分割する.\item[(2)]各$t=1,2,\cdots,10$に対して,以下を行う.\begin{itemize}\item[(a)]各$i=1,2,\cdots,10\,(\neqt)$に対して,\\$B_t^N,\,B_i^N$を除く8ブロックの母語話者文書を母語話者言語モデルの学習データ,$B_t^\NN,\,B_i^\NN$を除く8ブロックの非母語話者文書を非母語話者言語モデルの学習データとして,$(B_i^N,B_i^\NN)$の各文書の母語話者性を判別し,MinPrecが最大となるメタパラメタの値を求める.\item[(b)]上記で求めたメタパラメタの値(9個)の平均値をメタパラメタの値として設定し,$B_t^N$を除く9ブロックの母語話者文書を母語話者言語モデルの学習データ,$B_t^\NN$を除く9ブロックの非母語話者文書を非母語話者言語モデルの学習データとして,$(B_t^N,B_t^\NN)$の各文書の母語話者性を判別する.\end{itemize}\item[(3)]上記(b)で求めた母語話者性判別結果より,精度を求める.\end{itemize}なお,各手法におけるメタパラメタは,手法Hypo1とHypo2では有意水準$\alpha$,手法Skewでは式(\ref{Skew:α})の$\beta$,手法KLでは式(\ref{式:Sibun加算スムージング})の加算項$\delta$である.上記(2)の(a)での各$(B_i^N,B_i^\NN)$に対するMinPrecが最大となるメタパラメタの値は,\begin{align*}\alpha&\in\{0.01,\;0.03,\;0.05,\;0.07,\;0.09,\;0.11\}\quad\mbox{(Hypo1,2)}\\\beta&\in\{0.01,\;0.02,\;\cdots,\;0.15\}\quad\mbox{(Skew)}\\\delta&\in\{1\times10^{-7},\;3\times10^{-7},\;5\times10^{-7},\;1\times10^{-6},\;3\times10^{-6},\;\cdots,\;5\times10^{-4}\}\quad\mbox{(KL)}\end{align*}の範囲で求めた.\subsection{評価実験2}以下のようにして,データ1を学習データ,データ2をテストデータとした場合の各手法の精度を求める.\begin{itemize}\item[(1)]データ1の母語話者文書集合を$B_1^N,B_2^N,\cdots,B_{10}^N$と10ブロックに分割する.同様にデータ1の非母語話者文書集合を$B_1^\NN,B_2^\NN,\cdots,B_{10}^\NN$と10ブロックに分割する.\item[(2)]各$i=1,2,\cdots,10$に対して,\\$B_i^N$を除く9ブロックの母語話者文書を母語話者言語モデルの学習データ,$B_i^\NN$を除く9ブロックの非母語話者文書を非母語話者言語モデルの学習データとして,$(B_i^N,B_i^\NN)$の各文書の母語話者性を判別し,MinPrecが最大となるメタパラメタの値を求める.\item[(3)]上記で求めたメタパラメタの値(10個)の平均値をメタパラメタの値として設定し,データ1の全母語話者文書を母語話者言語モデルの学習データ,データ1の全非母語話者文書を非母語話者言語モデルの学習データとして,データ2の各文書の母語話者性を判別し,精度を求める.\end{itemize}上記(2)でのMinPrecが最大となるメタパラメタ値は前節と同様の範囲で求めた.\subsection{結果と考察}$n=3,4,5,6,7,8$なる品詞$n$-gramを言語モデルとした場合の2つの評価実験の結果を表\ref{実験結果}に示す.表には,MinPrecだけでなく,参考のため,Prec(N),Prec(NN)も挙げている.また,『未定』の判定になった数を挙げている.手法Skewのみ未定があるが,これは,条件部の品詞列の学習データにおける頻度が高い品詞$n$-gram分布が存在し,用いた計算機の精度では式(\ref{Skew:α})の値が1となり,その結果$ED(d\;;\;N)$も$ED(d\;;\;\NN)$も$\infty$となってしまったことによる.評価実験1では,各手法とも,$n>3$でMinPrecが最も高い.手法Skewは,$\alpha$の設定式(\ref{Skew:α})が最適とは限らないことを述べたが,それでも,$n=5$の場合は$n=3$の場合より精度が1\%向上しており,このことからも,条件部の長い品詞$n$-gramモデルを言語モデルとすることの有効性が分かる.提案手法では,Hypo2の$n=7$の場合のMinPrecが最も高く,$\mbox{MinPrec}=Prec(N)=552/597\simeq0.925$である.一方,従来手法では,Skewの$n=5$の場合のMinPrecが最も高く,$\mbox{MinPrec}=Prec(N)=546/606\simeq0.901$である.2つの二項母集団の母比率の差の検定\cite{統計テキスト2}を行うと,有意水準約8\%で有意差があることが示せ,AICに基づく2つの二項母集団の母比率の差の検定\cite{統計テキスト3}でも有意差が示せる.2つの提案手法Hypo1とHypo2の比較では,同一の$n$に対するMinPrecはHypo2の方が概ね高い.特に,$n=6,7,8$ではその差は大きく,$n$-gram確率に関して,母語話者/非母語話者文書間で有意な差がない場合に,$k<n$なる$k$-gram確率を利用して式(\ref{式:n-gram確率の比})を推定する効果が現れていることが分かる.評価実験2でも,各手法とも$n>3$でMinPrecが最も高く,そのうち,Hypo2のMinPrecが最も高い.また,Hypo1とHypo2における同一の$n$に対するMinPrecはHypo2の方が概ね高い.評価実験2では使用したテスト文書数が少ないため,信頼性のある結果とは言えないが,このように評価実験1とある程度同様の傾向が現れていることが分かる.\begin{table}[t]\caption{評価実験1,2の結果}\label{実験結果}\input{02table02.txt}\end{table}
\section{おわりに}
英文書を品詞列と見なし,品詞$n$-gramモデルを統計的言語モデルとしたベイズ識別に基づく母語話者性判別手法を提案した.提案した手法は,長い品詞列の頻度情報を利用し,仮説検定を利用して,長い品詞列の頻度情報を使うことによる信頼性の低下を防ぐもので,従来手法からの判別精度の改善が確認できた.現在,Web上から科学技術論文を収集し,提案した母語話者性判別システムを用いて母語話者/非母語話者英語論文コーパスを構築することを検討している.\acknowledgment本研究の一部は,科学研究費補助金・基盤研究B(課題番号20320082)により行われた.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Cavnar\BBA\Trenkle}{Cavnar\BBA\Trenkle}{1994}]{cavnar}Cavnar,W.~B.\BBACOMMA\\BBA\Trenkle,J.~M.\BBOP1994\BBCP.\newblock\BBOQ{N}-Gram-BasedTextCategorization\BBCQ\\newblockIn{\BemProceedingsof{SDAIR}-94,3rdAnnualSymposiumonDocumentAnalysisandInformationRetrieval},\mbox{\BPGS\161--175}\LasVegas,US.\bibitem[\protect\BCAY{Dunning}{Dunning}{1994}]{dunning}Dunning,T.\BBOP1994\BBCP.\newblock\BBOQStatisticalIdentificationofLanguage\BBCQ\\newblockTechicalreport\MCCS-94-273,ComputingResearchLab(CRL),NewMexicoStateUniversity.\bibitem[\protect\BCAY{Lee}{Lee}{1999}]{Lee}Lee,L.\BBOP1999\BBCP.\newblock\BBOQMeasuresofDistributionalSimilarity\BBCQ\\newblockIn{\Bem37thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\25--32}.\bibitem[\protect\BCAY{Sibun\BBA\Reynar}{Sibun\BBA\Reynar}{1996}]{sibun}Sibun,P.\BBACOMMA\\BBA\Reynar,J.~C.\BBOP1996\BBCP.\newblock\BBOQLanguageIdentification:ExaminingtheIssues\BBCQ\\newblockIn{\Bem5thSymposiumonDocumentAnalysisandInformationRetrieval},\mbox{\BPGS\125--135}\LasVegas,Nevada,U.S.A.\bibitem[\protect\BCAY{Tomokiyo\BBA\Jones}{Tomokiyo\BBA\Jones}{2001}]{Tomokiyo}Tomokiyo,L.~M.\BBACOMMA\\BBA\Jones,R.\BBOP2001\BBCP.\newblock\BBOQYou'reNotFromRoundHere,AreYou?NaiveBayesDetectionofNon-nativeUtteranceText\BBCQ\\newblockIn{\BemProceedingsofthe2ndMeetingoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(NAACL-01)},\mbox{\BPGS\239--5246}.\bibitem[\protect\BCAY{青木\JBA冨浦\JBA行野\JBA谷川}{青木\Jetal}{2005}]{青木}青木さやか\JBA冨浦洋一\JBA行野顕正\JBA谷川龍司\BBOP2005\BBCP.\newblock\JBOQ言語識別技術を応用した英語における母語話者文書・非母語話者文書の判別\JBCQ\\newblock\Jem{情報科学技術レターズ,第5巻},\mbox{\BPGS\85--88}.\bibitem[\protect\BCAY{野田\JBA宮岡}{野田\JBA宮岡}{1992}]{統計テキスト}野田一雄\JBA宮岡悦良\BBOP1992\BBCP.\newblock\Jem{数理統計学の基礎}.\newblock共立出版.\bibitem[\protect\BCAY{麻生\JBA津田\JBA村田}{麻生\Jetal}{2003}]{パターン認識テキスト}麻生英樹\JBA津田宏治\JBA村田昇\BBOP2003\BBCP.\newblock\Jem{統計科学のフロンティア6パターン認識と学習の統計学}.\newblock岩波書店.\bibitem[\protect\BCAY{鈴木}{鈴木}{1995}]{統計テキスト3}鈴木義一郎\BBOP1995\BBCP.\newblock\Jem{情報量規準による統計解析入門}.\newblock講談社.\bibitem[\protect\BCAY{北}{北}{1999}]{確率的言語モデルテキスト}北研二\BBOP1999\BBCP.\newblock\Jem{言語と計算4確率的言語モデル}.\newblock東京大学出版会.\bibitem[\protect\BCAY{行野\JBA田中\JBA冨浦\JBA松本}{行野\Jetal}{2006}]{行野}行野顕正\JBA田中省作\JBA冨浦洋一\JBA松本英樹\BBOP2006\BBCP.\newblock\JBOQ低頻度byte列を活用した言語識別\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(4),\mbox{\BPGS\1287--1294}.\bibitem[\protect\BCAY{藤井\JBA冨浦\JBA田中}{藤井\Jetal}{2005}]{藤井}藤井宏\JBA冨浦洋一\JBA田中省作\BBOP2005\BBCP.\newblock\JBOQSkewDivergenceに基づく文書の母語話者性の推定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(4),\mbox{\BPGS\79--96}.\bibitem[\protect\BCAY{大鹿\JBA佐藤\JBA安藤\JBA山名}{大鹿\Jetal}{2005}]{大鹿}大鹿広憲\JBA佐藤学\JBA安藤進\JBA山名早人\BBOP2005\BBCP.\newblock\JBOQGoogleを活用した英作文支援システムの構築\JBCQ\\newblockIn{\BemDataEngineeringWorkshop},\mbox{\BPGS\4B--i8}.\bibitem[\protect\BCAY{竹村}{竹村}{1991}]{統計テキスト2}竹村彰通\BBOP1991\BBCP.\newblock\Jem{現代数理統計学}.\newblock創文社.\bibitem[\protect\BCAY{大武\JBA河本\JBA竹腰\JBA国村\JBAMorren\JBA竹内\JBA鵜川\JBA藤田\JBA金子}{大武\Jetal}{2004}]{大武}大武博\JBA河本健\JBA竹腰正隆\JBA国村正子\JBABrianMorren\JBA竹内浩昭\JBA鵜川義弘\JBA藤田信之\JBA金子周司\BBOP2004\BBCP.\newblock\JBOQインターネット利用による電子英文情報の即時教材化システムの開発とその教育利用\JBCQ\\newblock\Jem{情報処理学会研究会報告,FI,No.77},\mbox{\BPGS\23--32}.\bibitem[\protect\BCAY{佐野\JBA猪野}{佐野\JBA猪野}{2000}]{佐野}佐野洋\JBA猪野真理枝\BBOP2000\BBCP.\newblock\JBOQ英語文法の難易度計測と自動分析\JBCQ\\newblock\Jem{情報処理学会研究会報告,CE,No.58},\mbox{\BPGS\5--12}.\bibitem[\protect\BCAY{前田\JBA関\JBA吉川\JBA植村}{前田\Jetal}{2001}]{前田}前田亮\JBA関慶妍\JBA吉川正俊\JBA植村俊亮\BBOP2001\BBCP.\newblock\JBOQWeb文書の符号系および使用言語の自動識別\JBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ84-D-II}(1),\mbox{\BPGS\150--158}.\end{thebibliography}\appendix
\section{2つの二項母集団の母比率の比の検定}
標本$\vX$の統計モデルを$\{P(\cdot\:;\:\theta)\:|\:\theta\in\Theta\}$とし($\Theta$はパラメタ空間),$\Theta_0$と$\Theta_1$を$\Theta_0\cap\Theta_1=\emptyset$,$\Theta_0\cup\Theta_1=\Theta$なる$\Theta$の部分集合とする.$\theta\in\Theta_0$は帰無仮説,$\theta\in\Theta_1$は対立仮説と呼ばれる.標本$\vX$の値(観測値)$\vx$を基に$\theta\in\Theta_0$か$\theta\in\Theta_1$かを決定することを統計的仮説検定という(詳しくは,たとえば,文献\cite{統計テキスト}を参照).標本$\vX$の統計量$T(\vX)$を用いて$T(\vx)\geqt$のとき帰無仮説を棄却する検定を考える.与えられた$\Theta_0$と$\alpha$に依存させて$t$を\begin{equation}\label{式:有意水準αの検定}\forall\theta\in\Theta_0\;P(T(\vX)\geqt\:;\:\theta)\leq\alpha\end{equation}を満たすように設定すると,この検定は,有意水準$\alpha$の検定(帰無仮説が正しいにもかかわらず帰無仮説を棄却してしまう確率が$\alpha$以下である検定)となる.確率変数$X$が二項分布$B(m,p)$\footnote{$X$の確率関数$f_X(x)$が以下で与えられる分布である.\[f_X(x)=\begin{cases}_mC_x\:p^x(1-p)^{m-x}&\;x=0,1,2,\cdots,m,\\0&\;その他\end{cases}\]}に従い,確率変数$Y$が二項分布$B(n,q)$に従うとし,$x/m>y/n$である場合に,$(X,Y)$の観測値$(x,y)$を基に$p/q>\mu$であるか否かの判定を行いたい.このような判定を行う検定は,著者の知る限りでは,確率・統計のテキストなどでは解説されていない.望ましい性質を持つことで知られる尤度比検定を行うことも考えられるが,$m$,$n$が大きくなった場合,棄却判定の計算に時間を要する.したがって,尤度比検定を用いた場合,現実的な時間内で一つの文書の母語話者性の判別ができないことがある.そこで,本研究では,このような判定を高速に行う近似的な検定手法を新たに考案し,これを母語話者性の判別に利用する.一様最強力検定や第2種の誤り(帰無仮説が正しくないにもかかわらず帰無仮説を採択してしまう)確率が本手法より小さな検定で高速なものが求まるならば,これらの検定を利用することで母語話者性の判別の精度はより向上すると考えられる.帰無仮説と対立仮説を以下のように設定した検定を考える.\begin{align*}帰無仮説&:(p,q)\in\Theta_0=\{(p,q)\:|\:p\leq\muq,\;0\leqp\leq1,\;0\leqq\leq1\}\\対立仮説&:(p,q)\in\Theta_1=\{(p,q)\:|\:p>\muq,\;0\leqp\leq1,\;0\leqq\leq1\}\end{align*}本論文では母比率の比の検定と呼ぶ.本質的には,$p\leq\muq$であるか否かであるが,ここでは上記のように正確に両仮説を記述しておく.帰無仮説が棄却されるならば,$p/q>\mu$と判定したことになる.対立仮説が正しい場合に,その観測値が大きな値となる傾向を持つ統計量$T^\dagger(X,Y)$\[T^\dagger(X,Y)=\frac{X/m}{(Y+1)/(n+1)}\]を用いて,$T^\dagger(x,y)\geqt^\dagger(\mu)$のとき帰無仮説を棄却することにする.分母の`$+1$'は$Y$の観測値が0の場合でも$T^\dagger$が定義できるように導入したものである.式(\ref{式:有意水準αの検定})より,$t^\dagger(\mu)$は\begin{equation}\label{式:検定基礎}\forall(p,q)\in\Theta_0\;\;P(T^\dagger(X,Y)\geqt^\dagger(\mu)\:;\:p,q)\leq\alpha\end{equation}を満たすように,$\mu$と有意水準$\alpha$に応じて設定される.本手法では,$t^\dagger(\mu)$を求めて帰無仮説の棄却判定を行う代わりに,観測値$(x,y)$の$p$-値を用いて棄却判定を行う.$(x,y)$の$p$-値とは,$(x,y)$を基に帰無仮説を棄却できる最小の有意水準のことである.明らかに,$P(T^\dagger(X,Y)\geqt\:;\:p,q)$は$t$の減少関数であり,$T^\dagger(x,y)\geqt^\dagger(\mu)$のとき帰無仮説を棄却するのであるから,$(x,y)$の$p$-値は以下で与えられ,\begin{equation}\label{式:p-値1}\max_{(p,q)\in\Theta_0}\;P(T^\dagger(X,Y)\geqT^\dagger(x,y)\:;\:p,q)\end{equation}この値が$\alpha$以下である場合に,有意水準$\alpha$で帰無仮説を棄却することになる.ここで新たに\[T(X,Y)=\frac{X}{Y+1}\]と定義すると,式(\ref{式:p-値1})は,以下と等しい.\begin{equation}\label{式:p-値2}\max_{(p,q)\in\Theta_0}\;P(T(X,Y)\geqT(x,y)\:;\:p,q).\end{equation}$Y$が$B(n,q)$に従うとき,$0\leqy_0<n$なる任意の$y_0$に対して$P(Y\leqy_0\:;\:q)$は$q$の単調減少関数であり,$y_0<0$なる任意の$y_0$に対して$P(Y\leqy_0\:;\:q)=0$であり,$y_0\geqn$なる任意の$y_0$に対して$P(Y\leqy_0\:;\:q)=1$である.この性質と,$0<x,\;y<n$(∵前提$x/m>y/n$),および,\[P(T(X,Y)\geqT(x,y)\:;\:p,q)=\sum_{x'=0}^m\:\rule{0pt}{1pt}_mC_{x'}p^{x'}(1-p)^{m-x'}\cdotP\left(\frac{x'}{Y+1}\geqT(x,y)\:;\:q\right)\]と表すことができることから,$(x,y)$の$p$-値である式(\ref{式:p-値2})は,\begin{equation}\label{式:p-値3}\max_{(p,q)\in\Theta_0'}\;P(T(X,Y)\geqT(x,y)\:;\:p,q)\end{equation}と等しい.ただし,$\Theta_0'=\{(p,q)\:|\:p=\muq,\;0\leqp\leq1,\;0\leqq\leq1\}$である.観測値$(x,y)$に基づいた,$(p,q)\in\Theta_0'$の下での$p$,$q$の最尤推定値(つまり,$(x,y)$の生起確率を最大にする$p$,$q$の値)を$p^*(\mu)$,$q^*(\mu)$で表すと,\begin{align*}p^*(\mu)&=\mu\cdotq^*(\mu)\\q^*(\mu)&=\frac{x+\muy+\mum+n-\sqrt{(x+\muy+\mum+n)^2-4(x+y)(m+n)\mu}}{2(m+n)\mu}\end{align*}である.本手法では,検定に要する時間を考慮し,式(\ref{式:p-値3})を$P(T(X,Y)\geqT(x,y)\:;\:p^*(\mu),q^*(\mu))$で近似し,\[P(T(X,Y)\geqT(x,y)\:;\:p^*(\mu),q^*(\mu))\leq\alpha\]ならば帰無仮説を棄却する.二項分布$B(m,p)$に従う確率変数の分布関数は,$mp>5$かつ$m(1-p)>5$の場合,正規分布で近似できる.そこで,$P(T(X,Y)\geqT(x,y)\:;\:p^*(\mu),q^*(\mu))\leq\alpha$の判定に必要な$P(T(X,Y)\geqt\:;\:p,q)$の計算は,$X$,$Y$の分布を正規分布で近似できるか否かにより,4つの場合に分けて行った.$X$,$Y$共に正規分布で近似できる場合と,$X$のみ正規分布で近似できる場合の計算をそれぞれ以下の(1)(2)に示す.以下に示すとおり,正規分布の性質を利用して高速な計算が可能である.\medskip\noindent\underline{\mbox{(1)$5<mp<m-5$かつ$5<nq<n-5$の場合}}\[P\left(T(X,Y)\geqt\:;\:p,q\right)=P(X-tY\geqt\:;\:p,q)\]である.$X$の分布は正規分布$N(mp,mp(1-p))$で近似でき\footnote{平均が$\xi$,分散が$\sigma^2$の正規分布を$N(\xi,\sigma^2)$で表す.},$Y$の分布は$N(nq,nq(1-q))$で近似できるので,正規分布の性質より,\[P(T(X,Y)\geqt\:;\:p,q)=P\left(Z\geq\frac{t-mp+tnq}{\sqrt{mp(1-p)+t^2nq(1-q)}}\right)\]である.ただし,$Z$は標準正規分布に従う確率変数である.\medskip\noindent\underline{\mbox{(2)$5<mp<m-5$かつ[$nq\leq5$または$n-5\leqnq$]の場合}}\[P\left(T(X,Y)\geqt\:;\:p,q\right)=\sum_{y'=0}^nP(Y=y'\:;\:q)\cdotP(X\geqt(y'+1)\:;\:p)\]である.$X$の分布は正規分布$N(mp,mp(1-p))$で近似できるので,\[P\left(T(X,Y)\geqt\:;\:p,q\right)=\sum_{y'=0}^n\:\rule{0pt}{1pt}_nC_{y'}\:{q}^{y'}(1-q)^{n-y'}\cdotP\left(Z\geq\frac{t(y'+1)-mp}{\sqrt{mp(1-p)}}\right).\]である.ただし,$Z$は標準正規分布に従う確率変数である.
\section{仮説検定を利用した母比率の比の推定}
\label{付録:estimateMu}$X$を二項分布$B(m,p)$に従う確率変数,$x$をその観測値,$Y$を二項分布$B(n,q)$に従う確率変数,$y$をその観測値とする(勿論,$p$,$q$は未知である).$x/m>y/n$を前提として,前節の仮説検定で,帰無仮説を棄却できる最大の$\mu$,つまり,\begin{equation}P(T(X,Y)\geqT(x,y)\;;\;p^*(\widehat{\mu}(x,m,y,n)),q^*(\widehat{\mu}(x,m,y,n)))=\alpha\end{equation}なる$\widehat{\mu}(x,m,y,n)$を以下のようにして求める.\[pv(\mu\:;\:x,y)=P(T(X,Y)\geqT(x,y)\:;\:p^*(\mu),q^*(\mu))\]とおき,$pv(\mu\:;\:x,y)$が$\mu$の増加関数になっていることを利用して\footnote{$p^*(\mu)$は$\mu$の増加関数,$q^*(\mu)$は$\mu$の減少関数になっていることが示せる.\\このことから,$P(T(X,Y)\geqT(x,y)\;;\;p^*(\mu),q^*(\mu))$が$\mu$の増加関数になっていることが示せる.},2分法により求める.\begin{itemize}\item[(1)]$\mu_L=1$とし,$pv(\mu_L\;;\;x,y)<\alpha$となるまで,$\mu_L\leftarrow\mu_L/2$を繰り返す.\\$\mu_R=1$とし,$pv(\mu_R\;;\;x,y)>\alpha$となるまで,$\mu_R\leftarrow2\cdot\mu_R$を繰り返す.\item[(2)]$\mu_R-\mu_L$が十分小さくなるか,$pv((\mu_L+\mu_R)/2\;;\;x,y)=\alpha$となるまで以下を繰り返す.\begin{itemize}\item$\mu_C\leftarrow(\mu_L+\mu_R)/2$\item$\{pv(\mu_L\;;\;x,y)-\alpha\}$と$\{pv(\mu_C\;;\;x,y)-\alpha\}$が同符号ならば,$\mu_L\leftarrow\mu_C$とし,そうでないならば,$\mu_R\leftarrow\mu_C$とする.\end{itemize}\item[(3)]$(\mu_L+\mu_R)/2$が$\widehat{\mu}(x,m,y,n)$である.\end{itemize}最後に,前節で述べた$T^\dagger(X,Y)$による$p/q$の信頼区間を文献\cite{統計テキスト}に従って求め,$(\widehat{\mu}(x,m,y,n),\infty)$が近似的に$p/q$の$100(1-\alpha)\%$信頼区間になっていることを述べ,シミュレーションによりこれを確かめる.標本$\vX$の統計モデルを$\{P(\cdot\:;\:\theta)\:|\:\theta\in\Theta\}$とし,$S(\vx)$を$\Theta$の部分集合とする.\[\forall\theta\in\Theta\;\;P(\theta\inS(\vX)\:;\:\theta)\geq1-\alpha\]となるとき,$S(\vX)$を$\theta$の$100(1-\alpha)\%$信頼領域($S(\vX)$が区間になる場合は信頼区間)と言う.$p/q$はパラメタではないが,この定義に当てはめるならば,統計量$L(X,Y)$が\begin{equation}\label{式:信頼区間定義式}\forall(p,q)\in[0,1]^2\;\;P(L(X,Y)<p/q\:;\:p,q)\geq1-\alpha\end{equation}を満たすならば,$(L(X,Y),\infty)$は$p/q$の$100(1-\alpha)\%$信頼区間である.これは,$(X,Y)$の観測値を100個得たとき,$L(x,y)<p/q$を満たす観測値$(x,y)$が$100(1-\alpha)$個程度以上あることを意味している.観測値$(x,y)$に対する$L(x,y)$は,\[L(x,y)=\max\{\mu\:|\:T^\dagger(x,y)\geqt^\dagger(\mu)\}\]で求めることができる.以下にこれを示す.上記定義より,$(p_0,q_0)$を任意に選んだとき,\[L(x,y)<p_0/q_0\LongleftrightarrowT^\dagger(x,y)<t^\dagger(p_0/q_0)\]が成立する.したがって,\begin{align*}P(L(X,Y)<p_0/q_0\:;\:p_0,q_0)&=P(T^\dagger(X,Y)<t^\dagger(p_0/q_0)\:;\:p_0,q_0)\\&=1-P(T^\dagger(X,Y)\geqt^\dagger(p_0/q_0)\:;\:p_0,q_0)\\&\geq1-\alpha\quad(\mbox{∵$p_0\leq(p_0/q_0)q_0$と式(\ref{式:検定基礎})})\end{align*}$p_0$,$q_0$は任意に選んだので,$L(X,Y)$は式(\ref{式:信頼区間定義式})を満たすことが分かる.$L(x,y)$の定義より,$L(x,y)$は帰無仮説($p\leq\muq$)を棄却できる最大の$\mu$である.前節で述べた検定は,$p$-値(\ref{式:p-値3})(つまり$p$-値(\ref{式:p-値1}))を$P(T(X,Y)\geqT(x,y)\:;\:p^*(\mu),q^*(\mu))$で近似しているため,$\widehat{\mu}(x,m,y,n)$は$L(x,y)$の近似と考えられる.$\widehat{\mu}(x,m,y,n)$が$L(x,y)$の近似となっていることを確かめるために,シミュレーションを行った.有意水準$\alpha$を0.05とし,いくつかの$m$,$p$,$n$,$q$に対して,$B(m,p)$および$B(n,q)$に従って$(x,y)$を$10,000$個発生させ,$x/m\neqy/n$なる各$(x,y)$に対し,\begin{itemize}\item$x/m>y/n$のとき,$\widehat{\mu}(x,m,y,n)<p/q$ならば成功,$\widehat{\mu}(x,m,y,n)\geqp/q$ならば失敗,\item$x/m<y/n$のとき,$p/q<1/\widehat{\mu}(y,n,x,m)$ならば成功$p/q\geq1/\widehat{\mu}(y,n,x,m)$ならば失敗\end{itemize}とし,求めた信頼区間に$p/q$が含まれる割合を求めた.結果を表\ref{表:estimateMu}に示す.この表から,近似の影響はあるものの,$\widehat{\mu}(x,m,y,n)<p/q$あるいは$p/q<1/\widehat{\mu}(y,n,x,m)$がほぼ$100(1-\alpha)\%$の割合で成立していることが分かる.\clearpage\begin{table}[t]\caption{$p/q$の信頼区間の推定の成功率}\label{表:estimateMu}\input{02table03.txt}\end{table}\begin{biography}\bioauthor{冨浦洋一}{1984年九州大学工学部電子工学科卒業,1989年同大学院工学研究科電子工学専攻博士課程単位取得退学.同年九州大学工学部助手,1995年同助教授,現在,九州大学大学院システム情報科学研究院准教授.博士(工学).自然言語処理,計算言語学に関する研究に従事.}\bioauthor{青木さやか}{2006年九州大学工学部電気情報工学科卒業,2008年同大学院システム情報科学府知能システム学専攻修了,現在,新日鉄ソリューションズ(株)に勤務.自然言語処理に関する研究に従事.}\bioauthor{柴田雅博}{1996年九州大学工学部情報工学科卒業,2005年同大学院システム情報科学研究科知能システム学専攻博士課程単位取得退学.同年九州システム情報技術研究所特別研究助手,2006年九州大学ベンチャー・ビジネス・ラボラトリー講師(中核的研究機関研究員),現在,九州大学大学院システム情報科学研究院テクニカルスタッフ.博士(工学).自然言語処理に関する研究に従事.}\bioauthor{行野顕正}{2001年九州大学工学部電気情報工学科卒業,2007年同大学院システム情報科学府知能システム学専攻博士課程修了,現在,株式会社ジャストシステムに勤務.博士(工学).自然言語処理に関する研究に従事.}\end{biography}\biodate\end{document}
| |
V10N04-05 | \section{はじめに}
著者らは,実用に近い日本語--ウイグル語機械翻訳システムの実現を目指して一連の研究をしてきた\cite{NLC93,MSTHESIS,MUHPARAM,PRICAI94,MUH_OGA2001,OGAWA2000,MT_SUMMIT2001,MUH_NLT_2002}.その過程で,一定の語彙数を持つ日本語--ウイグル語電子辞書の開発が不可欠であると考え,その開発に着手した.その時点では,日本語--ウイグル語に関する通常の辞書さえない状況であった.最初は,日本語--ウイグル語機械翻訳実験用の基本的な辞書の開発を考えて,IPAの計算機用日本語基本動詞辞書IPAL\cite{IPAL}をベースに,名詞や形容詞などを含め,約1,200語の日本語--ウイグル語電子辞書を作成した\cite{NLC93,MSTHESIS}.IPAL動詞辞書には,日本語の動詞のうちで語彙体系上ならびに使用頻度上重要であると考えられる基本的な和語動詞861語が含まれている.両言語のなかで特に格助詞を含む名詞接尾辞と動詞接尾辞が動詞と密接な関係にあり,日本語--ウイグル語機械翻訳においても,動詞が重要であるため,IPAL動詞辞書を選んだ.しかし,1,200語前後の辞書では不十分であり,実用に近い機械翻訳システムの実現には,少なくとも日常使われる最低限の語彙を含む日本語--ウイグル語電子辞書の開発が必要であるとの考えに至った.そこで,我々はまずウイグル語--日本語辞書であるウイグル語辞典\cite{UJDIC}を電子化して機械可読にし,その逆辞書を自動的に生成するという方針で本格的な日本語--ウイグル語電子辞書の開発に着手した\cite{UJDICE,JUDICGEN}.辞書開発は,著者らが行なったが,その内の一人は十分な日本語能力を有するウイグル語ネイティブ話者である.日本語--ウイグル語電子辞書の開発作業は次のような段階に分けて行なった.\\\begin{enumerate}\itemウイグル語--日本語電子辞書の作成\begin{itemize}\item[1-1.]ウイグル語辞典\cite{UJDIC}のデータの電子化と項目タグの付与\item[1-2.]各項目の修正および品詞の付与\end{itemize}\item日本語--ウイグル語電子辞書の作成\begin{itemize}\item[2-1.]ウイグル語--日本語辞書から日本語--ウイグル語辞書を自動生成\item[2-2.]各見出し語の検査および修正\item[2-3.]機械翻訳システムで利用できる形式への変換\end{itemize}\end{enumerate}各作業の詳細については,2章以降で順次説明する.こうした一連の作業を行なった結果,語彙数約20,000語の日本語--ウイグル語電子辞書を作成することができた.著者らは,この辞書が日常よく使われる語彙をどの程度見出し語として採録しているかを調べるために,\\\begin{itemize}\item[a.]国立国語研究所の教育用基本語彙\cite{KOKKEN}6,104語中のより基本的とされている2,071語に対する収録率,\item[b.]EDRコーパス\cite{EDRCORPUS}の日本語テキスト文に含まれる単語の上位頻度2,056語に対する収録率\end{itemize}\mbox{}\\の2点に関して調査した.a.は,日本語基本語彙に対する調査で,b.は,新聞記事などからのテキストを対象とした調査であり,それぞれの特徴はあるが,全体として見ると,a.,b.ともに約80\,\%の収録率であった.さらに,a.とb.それぞれについて収録されていない単語一つ一つに関して,収録されなかった,すなわち見出し語として採録されなかった理由について詳細な分析を行ない,その理由を大きくA〜Eの5つに分類し,それぞれをさらに細分類して検討した.この結果は,本論文と同様の手法で辞書作成をする際,収録率を上げるために注意すべき点について,いくつかの知見を与えている.本論文は,次のような構成になっている.\ref{section:denshika}章では,ウイグル語辞典\cite{UJDIC}を機械可読にし,それに対して一連の編集作業を行なってウイグル語--日本語電子辞書を作成した過程について述べる.\ref{section:jidoseisei}章では,ウイグル語--日本語電子辞書からその逆辞書である日本語--ウイグル語辞書の自動生成について述べる.\ref{section:for_majo}章では,自動生成で得られた日本語--ウイグル語辞書の機械翻訳用辞書への変換について述べる.\ref{section:hyoka}章では,以上のようにして著者らが作成した日本語--ウイグル語辞書の収録率,および,収録されていない単語の調査とその結果について述べ,著者らが作成した日本語--ウイグル語辞書の評価とする.\ref{section:owari}章は本論文のまとめである.
\section{ウイグル語--日本語辞書の電子化}
label{section:denshika}我々の目標は,日本語--ウイグル語機械翻訳システムに使用できる辞書の作成である.元となる日本語--ウイグル語辞書が存在しなかったため,まず維漢辞典\cite{UHDIC}の和訳であるウイグル語辞典\cite{UJDIC}を計算機で処理可能な形にするための電算入力から作業を始めた.この作業では,計算機での処理を容易にするために,各項目にタグを付加し,図\ref{fig:first_dic}のような形式でデータを入力した.\begin{figure}\begin{center}\rule{0.9\textwidth}{0.2mm}\\\mbox{}\\\begin{minipage}{0.9\textwidth}{\small\begin{verbatim}\un!etij!e\j結果,結論,成果,効果,成績\\uemusabi!kiningn!etijisi\je試合の結果.\\ue!uginixn!etijisi\je学業成績.\\ue~!kazanma!k\je成績を得る.\\uen!etijig!eerixm!ek\je成果を得る.\\ue~b!erm!ek\je効果があがる.\\ue~qi!kma!k\je結果が出る.\\ue~qi!karma!k\je結論を出す.\\end{verbatim}}\end{minipage}\\\mbox{}\\\rule{0.9\textwidth}{0.2mm}\caption{電子化されたウイグル語辞典の一部}\label{fig:first_dic}\end{center}\end{figure}ここで,\verb+\u+,\verb+\j+,\verb+\ue+および\verb+\je+は,それぞれウイグル語の語彙見出し,日本語の対訳語,ウイグル語の用例・例文およびその和訳文を示すタグである.日本語の対訳語が複数ある場合,意味的に近いものと,そうではないものが,それぞれ`,'と`;'で区切られ,ウイグル語例文と和訳文の末尾に`.'が付いている.`\verb+~+'は,見出し語を表わし,`\verb+\+'は,行末を表わす.また,ウイグル語には32の文字があり,`c'以外のローマ字25文字とウイグル語の発音に近いローマ字の前に\verb+`!'+を付した\verb+`!g'+,\verb+`!h'+,\verb+`!k'+,\verb+`!e'+,\verb+`!o'+,\verb+`!u'+,\verb+`!z'+の7文字の合計32の表記を対応させた.ウイグル文字と本論文での表記の対応は表\ref{table:arabic_latin}の通りである.\begin{table}[tbp]\begin{center}\caption{ウイグル文字とローマ字表記(本論文での表記)との対応}\label{table:arabic_latin}\epsfile{file=uirmtab.eps,width=0.9\textwidth}\end{center}\end{table}次に,このデータに対し,ウイグル語ネイティブ話者および日本語ネイティブ話者からなる著者らの合議検討の共同作業により,すべての見出し語とその項目について逐一,その内容を吟味,確認し,さらに以下の3点に注目して修正を施した.\\\begin{enumerate}\item[1)]品詞の付与,および複数の品詞をもつ見出し語を品詞ごとに分割.\item[2)]不適切な訳語の修正,および見出し語綴りの誤りの訂正.\item[3)]語源・語義が異なる見出し語を異なる語義ごとに分割.\end{enumerate}\mbox{}\\まず,1)の品詞の付与であるが,図\ref{fig:first_dic}に見るように,元のウイグル語辞典\cite{UJDIC}には品詞が付与されていなかったので,すべての見出し語に人手で品詞を付与した.また,複数の品詞を持っている見出し語については,品詞ごとに分けて別々の見出しとした.日本語と違って,ウイグル語では二つ以上の品詞を持つ単語が多く,特に,形容詞にも名詞にもなる語が多い.ウイグル語の`\verb+k!ok+'はその一例であるが,図\ref{fig:arranged_dic}のように別々の見出し語に分割し,日本語訳および例文も,それぞれの品詞ごとに分けて付加した.\begin{figure}[tbp]\begin{center}\rule{0.9\textwidth}{0.2mm}\\\mbox{}\\\begin{minipage}{0.9\textwidth}\small\begin{verbatim}\uk!ok\j青い\[形容詞]\ue~boya!k\je青い顔料.\\ue~k!oz\je青い目.\\ue~purqa!k\je青豆.\\uk!ok\j空,天空;青いあざ;青草;まだ実らない作物;青菜,野菜,ウマゴヤシの芽;ふさ状のもの\[名詞]\ueB!urk!ut~t!ep!erwaz!kilma!kta.\jeタカが空を舞っている.\\ueb!edinig!e~q!uxm!ek\je体に青いあざができる.\\ue!Koylar~k!etoydi.\je羊たちは青草を食べ飽きた.\\end{verbatim}\end{minipage}\\\mbox{}\\\rule{0.9\textwidth}{0.2mm}\vspace{-1.6ex}\end{center}\caption{人手による修正を加えたウイグル語--日本語辞書の一部}\label{fig:arranged_dic}\end{figure}また,今回使用したウイグル語辞典\cite{UJDIC}は,維漢辞典\cite{UHDIC}の中国語訳を日本語に翻訳して作成されており,二次翻訳による意味のずれや欠落がかなりあった.2)は,主にそうした点に関しての修正である.例えば,ウイグル語の`gilitserin'\footnote{`gilitserin'はウイグル語でも「外来語」である.}は,維漢辞典\cite{UHDIC}での中国語への訳語が``甘油''になっており,ウイグル語辞典\cite{UJDIC}でも日本語訳が「甘油」になっていた.しかし,「甘油」は,日本語国語辞書の見出し語として含まれていなかった.そこで,中国語--英語辞典\cite{EC_CE_DIC}を引くと,``甘油''の英訳が`glycerine'であることが分かり,ウイグル語の`gilitserin'に対して「グリセリン」という日本語訳語を当てた.また,ウイグル語の日本語訳として与えられている単語が日本語国語辞典の見出し語に含まれてはいるものの,中国語を介して訳付けをしたため,意味がずれていたものもあった.例えば,ウイグル語の`katta'の維漢辞典\cite{UHDIC}での中国語への訳語は``大事''であるが,その意味は,「重要」という意味の「大事」ではなく,「偉大」という意味の「大事」である.しかし,我々が出発点として用いたウイグル語辞典\cite{UJDIC}では,中国語の「大事」を日本語に訳すとき「大事」をそのまま日本語として解釈して`katta'の意味の一つに「重要」が付与されていた.これは`katta'の意味としては正しくないのでそれを削除した.このような意味の取り違えは中国語の「汽車」が,日本語では「自動車」を意味しているように,同じ文字列で表わされた単語が中国語と日本語では異なる意味を持つことから生じている.さらに,こうした作業と並行して,時代遅れになった単語や訳語を削除したり,逆に,適切な訳語を適宜追加したりして,訳語を修正した.また,見出し語の綴り字の誤りは気付く限り訂正した.例えば,維漢辞典\cite{UHDIC}ならびにウイグル語辞典\cite{UJDIC}で`ara-tora'とあるのは誤りであり,`ara-tura'とするのが正しいので,そのように訂正した\footnote{飯沼「ウイグル語辞典」には,アラビックウイグル文字綴りが独自に付加されているが,それとラテンウイグル文字綴りの間に不一致が見られる.このことを指摘してくださった査読者に感謝する.この点について,若干の説明を以下に記す.この不一致の原因には,次の4つの場合が考えられる.1.『維漢辞典』のラテン文字(ラテンウイグル文字)見出し語表記と飯沼『ウイグル語辞典』のそれとは同一であるが,飯沼版でアラビア文字(アラビックウイグル文字)の綴りを独自に付加した際に,『維漢辞典』とは異なった規準で綴り字を決めていることが原因で生じた不一致.2.ウイグル語表記にラテン文字を導入した時に,中国語の発音を正確に表すために,中国語のPINYINで使われているzh,ch,shをウイグル語の組み合わせ文字として取り入れたが,これに対応するアラビックウイグル文字はない.そのために,それらを,音が近いアラビックウイグル文字で表記したために生じた不一致.例えば,PINYIN式では`dad!uizhang'と表記されるものをアラビックウイグル文字で表記し,それをラテン文字に写すと`dad!uyjang'になる.これは,上記1の特別な場合である.3.『維漢辞典』の編集過程でラテン文字見出し語の綴りに間違いがあったものを正しく修正できなかったが,アラビック文字の見出し語は正しく追加しているために生じている不一致.例えば,飯沼版ならびに『維漢辞典』で`ara-tora'とあるのは誤りで,`ara-tura'とするのが正しい.4.飯沼版で,独自にアラビア文字綴りを追加した時にアラビア文字綴りに誤りを犯したために生じた不一致.ウイグル語綴り字の正書法は,現代ウイグル語正書法辞典\cite{UIIMLA}が1997年に出版されるまでは決まっていなかったので,上記の1,2のようなことが生じていた.しかし,ネイティブのウイグル語話者にとっては,そのような表記の不一致が生じても,いずれの表記でも同一の単語として同定できるものである.3と4の不一致は,間違いが原因で生じているので,その誤りは訂正しなければならない.3の誤りは気付く限り修正した.4の修正については,今回の辞書にはアラビック表記を入れなかったので,対処していない.}.2)の不適切な訳語の修正作業には,日本語の意味の確認のために,広辞苑\cite{KOJIEN},日本語大辞典\cite{KODANSHA},大辞林\cite{SANSEIDO},新明解国語辞典\cite{BOOKSHELF}を,ウイグル語の意味の確認のために,ウイグル語辞典\cite{UJDIC},維漢辞典\cite{UHDIC},中国語--英語辞典\cite{EC_CE_DIC},ウイグル語詳細辞典\cite{UILUGET}などを参照した.3)は複数の異なる語義を持つ単語が一つの見出し語になっている場合に,これを別々の見出し語とした.複数の語義を持つ単語を辞書によって同じ一つの見出し語として扱ったり,別の見出し語として扱ったりしていることがある.ここでも,元になった維漢辞典\cite{UHDIC}では一つの見出し語として扱われているものがウイグル語辞典\cite{UJDIC}では別々の見出し語になっていたり,またはその逆であったりして,区別する規準がはっきりしていなかったが,著者らのこの作業では,意味が類似していなければ,別の見出し語とした.その例を図\ref{fig:separated_word}に示す.\begin{figure}[t]\begin{center}\rule{0.9\textwidth}{0.2mm}\\\mbox{}\\\begin{minipage}{0.9\textwidth}\small\begin{verbatim}\uk!eqm!ek\j踏む,渡る;通る,経る,経験する\[自動詞][他動詞]\uelay~\je泥を踏む.\\ue!kar~\je雪を踏む.\\ueHiyalim!gabirixk!eqti.\jeあることが脳裏をかすめた.\\uk!eqm!ek\j捨てる,あきらめる;許す\[他動詞]\uehamhiyaldin~\je幻想を捨てる.\\uex!ehsin!epsidin~\je私欲を捨てる.\\uejandin~\je命を捨てる.\\end{verbatim}\end{minipage}\\\mbox{}\\\rule{0.9\textwidth}{0.2mm}\vspace{-1.6ex}\end{center}\caption{同じ綴の語を別々の見出し語に分けた例}\label{fig:separated_word}\end{figure}\begin{table}\begin{center}\caption{ウイグル語--日本語電子辞書の見出し語数および平均対訳語数}\label{mytab:ujwtab}\footnotesize\begin{tabular}{|l||r|r|r|r|r|r|r|r|r|r|r|r|r}\hline品詞&名詞&動詞&\parbox[c]{2zw}{形容詞}&\parbox[c]{2zw}{動作名詞}&副詞&\parbox[c]{2zw}{助数詞}&\parbox[c]{2zw}{感嘆詞}&\parbox[c]{2zw}{代名詞}&\parbox[c]{2zw}{接続詞}&\parbox[c]{2zw}{接続助詞}&\parbox[c]{2zw}{語気助詞}&合計\\\hline見出し語数&7,259&3,682&2,868&1,046&691&142&48&19&21&10&2&15,788\\\hline\parbox[c]{5zw}{日本語への\\平均対訳\\語数}&1.86&2.35&2.12&2.12&2.09&1.61&2.14&1.79&2.48&2.80&2.50&2.05\\\hline\end{tabular}\end{center}\end{table}\mbox{}\\こうした作業の結果,最終的に約16,000語の語彙数を持つウイグル語--日本語電子辞書を作成することができた.この辞書の品詞ごとの見出し語数と平均対訳語数を表\ref{mytab:ujwtab}に示す.この表の中で,形容詞としているのは体言を修飾するか,状態・状況・様子を表わす述語になりうる単語であり,また,動作名詞は,``-する''が付いて動詞化する日本語のサ変名詞のように,`!kilma!k'が後に続いて動詞化する名詞である.また,名詞,動詞,形容詞,動作名詞の合計は14,855語で,見出し語総数15,788語の94.09\,\%になる.ここで,動作や状況を表わす動詞,形容詞,動作名詞は,平均2.12〜2.35語の日本語対訳語をもつのに対して,名詞に対しては平均して1.86語であり,名詞の方が1:1対応の傾向が強いことが伺える.これらの様子は,図\ref{myfig:ujnoun},\ref{myfig:ujverb},\ref{myfig:ujadj},\ref{myfig:ujsverb}によく現れている.\begin{figure}\vspace*{-2mm}\begin{minipage}{0.47\textwidth}\fbox{\epsfile{file=graphujnoun.eps,width=0.96\textwidth}}\caption{ウイグル語名詞から日本語名詞への\\対訳語数の分布}\label{myfig:ujnoun}\end{minipage}\hfill\begin{minipage}{0.47\textwidth}\fbox{\epsfile{file=graphujverb.eps,width=0.96\textwidth}}\caption{ウイグル語動詞から日本語動詞への\\対訳語数の分布}\label{myfig:ujverb}\end{minipage}\vspace{2mm}\begin{minipage}{0.47\textwidth}\fbox{\epsfile{file=graphujadj.eps,width=0.96\textwidth}}\caption{ウイグル語形容詞から日本語形容詞への\\対訳語数の分布}\label{myfig:ujadj}\end{minipage}\hfill\begin{minipage}{0.47\textwidth}\fbox{\epsfile{file=graphujsverb.eps,width=0.96\textwidth}}\caption{ウイグル語動作名詞から日本語動詞への\\対訳語数の分布}\label{myfig:ujsverb}\end{minipage}\end{figure}
\section{日本語--ウイグル語電子辞書の自動生成}
label{section:jidoseisei}前章で述べた一連の手続きによって作成したウイグル語--日本語電子辞書に対して,機械処理を施すことによって逆辞書である日本語--ウイグル語辞書を生成した.{\begin{figure}[p]\begin{center}\rule{0.9\textwidth}{0.2mm}\\\mbox{}\\\begin{minipage}{0.9\textwidth}\small\verb+\uqotka\jはけ,ブラシ\[名詞]+\\\verb+\uqotkilima!k\jはけでみがく,ブラシをかける\[他動詞]+\\\verb+\uqox!ka\j豚\[名詞]+\\\\\hspace*{2cm}(a)第\ref{section:denshika}章の手続きで生成したウイグル語--日本語辞書の一部\\\hspace*{4cm}$\Downarrow$\\\end{minipage}\\\begin{minipage}{0.9\textwidth}\small\verb+\uqotka\jはけ\[名詞]+\\\verb+\uqotka\jブラシ\[名詞]+\\\verb+\uqotkilima!k\jはけでみがく\[他動詞]+\\\verb+\uqotkilima!k\jブラシをかける\[他動詞]+\\\verb+\uqox!ka\j豚\[名詞]+\\\\\hspace*{2cm}(b)ウイグル語--日本語の対の辞書\\\hspace*{4cm}$\Downarrow$\\\end{minipage}\\\begin{minipage}{0.9\textwidth}\verb+<はけ,はけ,名詞,qotka>+\\\verb+<ブラシ,ぶらし,名詞,qotka>+\\\verb+<はけでみがく,はけでみがく,他動詞,qotkilima!k>+\\\verb+<ブラシをかける,ブラシをかける,他動詞,qotkilima!k>+\\\verb+<豚,ぶた,名詞,qox!ka>+\\\\\hspace*{2cm}(c)\verb+<日本語見出し語,読み,品詞,ウイグル語訳>+の4項組辞書\\\hspace*{4cm}$\Downarrow$\\\end{minipage}\\\begin{minipage}{0.9\textwidth}\begin{tabular}{llll}(日本語見出し語)&(読み)&(品詞)&(ウイグル語訳語)\\はけ&はけ&名詞&\verb+qotka+\\はけでみがく&はけでみがく&他動詞&\verb+qotkilima!k+\\豚&ぶた&名詞&\verb+qox!ka+\\ブラシ&ぶらし&名詞&\verb+qotka+\\ブラシをかける&ぶらしをかける&他動詞&\verb+qotkilima!k+\\\\\end{tabular}\\\hspace*{2cm}(d)日本語--ウイグル語辞書の一部\\\end{minipage}\\\rule{0.9\textwidth}{0.2mm}\caption{ウイグル語--日本語辞書から日本語--ウイグル語辞書への変換}\label{fig:convert}\end{center}\end{figure}ウイグル語--日本語電子辞書において,一つのウイグル語見出し語に複数の日本語訳が付されている場合もあるが,まず,これらをウイグル語と日本語訳語の対にした(図\ref{fig:convert}--(b)).これに,ウイグル語--日本語電子辞書に付加した品詞,および,漢字かな変換プログラムKAKASI\footnote{http://kakasi.namazu.org/}を利用して得た読み仮名を加え,4項組$<$日本語見出し語,読み,品詞,ウイグル語訳語$>$を自動的に作成した(図\ref{fig:convert}--(c)).さらに,これを読みでソートして,結果的に図\ref{fig:convert}--(d)のような形で日本語--ウイグル語辞書の基本を作成した.さらに,この4項組に対し,次の3点に注意しながら,人手による修正を加えた.\\\begin{enumerate}\item[1)]見出し語としての適切さ\item[2)]ウイグル語訳の妥当性\item[3)]読みの正しさ\end{enumerate}~1)は,訳語として適切に意味が表わされていても,それが必ずしも見出し語として適切ではないことによって生じる問題である.例えば,元になったウイグル語--日本語辞書においては\begin{center}\verb+\urixal!e\j卵白と砂糖で作ったお菓子.\[名詞]+\end{center}という項目があったが,日本語訳の「卵白と砂糖で作ったお菓子」は`rixal!e'の説明であり,「卵白と砂糖で作ったお菓子」の総称が`rixal!e'であるのではない.よって,日本語--ウイグル語辞書において「卵白と砂糖で作ったお菓子」という見出し語を設け,`rixal!e'をその訳語とするのは適切でない.また,例えば,\verb+<メロンの一種,めろんのいっしゅ,[名詞],!kari!kax>+のように「○○の一種」といった説明的な日本語訳も日本語--ウイグル語辞書の見出し語としては相応しくない.さらに,\verb+<清朝時代の新疆の県知事,しんちょうじだいのしんきょうのけんちじ,[名詞],ambal>+や宗教儀式の言葉の説明などもやはり日本語見出し語として不適切である.こうした不適切な日本語見出し語をもつ4項組を人手で除去した.次に2)のウイグル語訳の妥当性については,例えば,「音」という日本語見出しを持つ4項組には,\begin{verbatim}<音,おと,[名詞],a!hang>----(1)×<音,おと,[名詞],awaz>----(2)<音,おと,[名詞],sada>----(3)×<音,おと,[名詞],tawux>----(4)×\end{verbatim}\begin{table}\begin{center}\caption{日本語--ウイグル語電子辞書の見出し語数および平均対訳語数}\label{mytab:juwtab}\footnotesize\begin{tabular}{|l||r|r|r|r|r|r|r|r|r|r}\hline品詞&名詞&動詞&形容詞&サ変名詞&副詞&助数詞&感嘆詞&接続詞&合計\\\hline見出し語数&8,457&5,411&3,480&1,785&784&156&73&20&20,166\\\hline\parbox[c]{8zw}{ウイグル語への\\平均対訳語数}&1.51&1.60&1.68&1.31&1.76&1.47&1.71&1.55&1.56\\\hline\end{tabular}\end{center}\end{table}\begin{verbatim}<音,おと,[名詞],tiwix>----(5)\end{verbatim}\noindentの5つが現れるが,これらは,それぞれウイグル語--日本語辞書の次の項目\begin{verbatim}\ua!hang\j音,音調;調和,協調;口ぶり,語気\[名詞]\uawaz\j声,音,音量;叫び声;票,投票\[名詞]\usada\j音声,音,声\[名詞]\utawux\j声,音\[名詞]\utiwix\j音声,音\[名詞]\end{verbatim}\noindentから出てきている.しかし,a!hangは,ここちよい音(ye!kimli!k〜),きつい口調(k!eskin〜)のように音の調子を言う語であり,sadaは,歌声(nahxa〜si),拍手の音(al!kix〜si),民衆の声(ammining〜si)のように,声ないしは特定の音を意味する語である.また,tawuxは,母音(sozu!k〜),子音(!uz!uk〜),声帯(〜p!erdisi)のように人の声に関連した意味を持つ.これらはいずれも「音」という日本語に対する訳としては狭すぎて不適切であるので,上の(1),(3),(4)の4項組を削除した.同様にして,日本語見出し語に対して付けられたウイグル語訳の意味が不適切な場合には,日本語見出し語を修正するか,対応する4項組を人手で削除した.なお、上記1),2)で削除した4項組は約1,000個である。3)は,漢字表記の読みの曖昧さから生じる問題である.元のウイグル語--日本語辞書においては日本語訳に読みが付加されていなかったので,今回は漢字かな変換ソフトKAKASIを利用して自動的に読みを付加した.しかし,日本語には表記は同じでも読みが複数ある語があり,さらにその中には,読みが異なれば意味も異なる単語が多数存在する.そうした場合,対応するウイグル語訳も異なることになり,例えば,「額」の場合,「ひたい」と読めばそのウイグル語訳は`pixan!e'であるが,「がく」と読めば,額縁の意味の`jaza',あるいは金額の意味の`somma'をそのウイグル語訳として与えねばならない.そこで,ウイグル語訳の意味に合わせて日本語の見出し語の読みを人手で修正した.以上の作業の結果,語彙数約2万の日本語--ウイグル語電子辞書を作ることができた.\mbox{表\ref{mytab:juwtab}}に,日本語--ウイグル語電子辞書の品詞ごとの見出し語数および平均対訳語数を示した.この表の形容詞には,いわゆる日本語文法で言う形容詞,形容動詞,連体詞が含まれている.表\ref{mytab:ujwtab}のウイグル語--日本語辞書の場合と同様に,名詞,動詞,形容詞,サ変名詞で19,133語で,総見出し語数20,166語の94.88\,\%を占めている.また,日本語1単語あたりのウイグル語訳語数は,各品詞ごとの平均で1.31〜1.76語であり,全体の平均で1.56である.これは,本辞書の作成手続きからも推察されるように,ウイグル語--日本語辞書のウイグル語見出し語しか,日本語--ウイグル語辞書の訳語に出現しないことからも当然の結果とうなづかれよう.また,表\ref{mytab:ujwtab}の段階では32,330組のウイグル語--日本語訳の対があったが,表\ref{mytab:juwtab}の段階では31,392組の日本語--ウイグル語訳の対に減少している.この差の938組が,上述の操作の1),2)に関連する作業で不適切であるとして,削除されたものである.
\section{日本語--ウイグル語辞書の翻訳システム用辞書への変換}
label{section:for_majo}前章で作成した日本語--ウイグル語電子辞書は,データが電子化されてはいるが,そのままでは機械翻訳に用いることはできない.その意味では,前章で作成した辞書は,電子化された人間向けの日本語--ウイグル語辞書である.そこで,我々の機械翻訳システムで使用できるように,以下の手順で変換した.\\\begin{enumerate}\item動詞の語尾の削除\item形容詞の細分化\item動名詞の追加\item漢字表記と読みの分離\end{enumerate}\mbox{}\\我々の派生文法に基づく日本語--ウイグル語機械翻訳\cite{MT_SUMMIT2001}は,名詞接尾辞と動詞接尾辞の適切な変換\cite{MUH_OGA2001,MAJO}と形態素解析結果を逐語訳することを基本としており,この変換作業のキー・テクノロジーは,形態素解析システム用の適切な辞書を作ることにある.この作業は,前章までの手続きで作成した4項組に対して行なうことになるが,説明を簡単にするために,最初は読みの部分を無視した3項組で説明し,読みの部分の処理については最後に述べる.まず,使用する日本語形態素解析システムMAJO\cite{MAJO}の仕様に合わせ,動詞の語尾を削除した.その際,日本語見出し語は,MAJOで形態素解析して末尾の形態素を除去し,ウイグル語訳語は語尾(-ma!kもしくは-m!ek)を機械的に取り除いた.また,品詞についても,前章では自動詞,他動詞を区別したが,MAJOではこの区分は不要であり,その代りに語幹の末尾音素が母音か子音かで母音幹動詞か子音幹動詞かの区別を行なった.例えば,$<$調べる,他動詞,selixturma!k$>$を,$<$調べ,母音幹動詞,selixtur$>$\footnote{音韻処理に基づくMAJOでは,平仮名部分をローマ字表記に変換するため,実際には$<$調be,母音幹動詞,selixtur$>$と登録した.}と変換した.なお,「ブラシをかける」のように日本語では1形態素ではない語も最後の語尾を取り除き,$<$ブラシをかけ,母音幹動詞,qotkila$>$のように登録した.次に,形容詞と品詞付けされた単語を細分類し,それぞれに適切な品詞を与えた.今回の日本語--ウイグル語辞書における品詞は,原則として元となるウイグル語--日本語辞書において付加した品詞をそのまま使用した\footnote{動詞については上で説明したように,他動詞・自動詞の区分は無視し母音幹動詞・子音幹動詞という品詞を与えたが,動詞であることには変わりはない.}が,ウイグル語で形容詞と品詞付けした単語の日本語訳は,必ずしも日本語の形容詞とはならない.実際にウイグル語で形容詞とされた語の訳語として挙げられる日本語単語には,例えば,「白い」「静かな」「いわゆる」「空いた」「秋の」「意味のある」「意味のない」などの様々なパターンが存在する.日本語の見出し語としては,これらの単語の品詞を区別する必要があるため,動詞の場合と同様に日本語見出し語をMAJOで形態素解析し,その結果から以下のような品詞を付加した.\begin{description}\item[形状動詞]末尾の形態素が「い」で,その直前の形態素の品詞がMAJOによって形状動詞と判定された語\item[形状名詞]末尾の形態素が「な」で,その直前の形態素の品詞がMAJOによって形状名詞と判定された語\item[連体詞]1語の形態素から成り,その品詞が連体詞である語\item[修飾詞]以上のいずれにも分類されない語\end{description}ここで,形状動詞と形状名詞という呼称であるが,これは本研究の基礎となる派生文法における用語であり,それぞれ,日本語文法のいわゆる形容詞,形容動詞を指す.また,修飾詞という品詞は,機械翻訳のために追加した品詞である.この分類によって,上に例として挙げた単語については,「白い」「意味のない」は形状動詞,「静か」は形状名詞,「いわゆる」は連体詞,「空いた」「秋の」「意味のある」は修飾詞として辞書に登録した\footnote{形状動詞と形状名詞に関しては,動詞の場合と同様に末尾の語尾を取り除いて辞書に登録した}.次に,ここまでの段階の辞書では,見出し語として一部のサ変名詞について次のような問題があるので登録語を変更してそれを解決した.例えば,「合意する」は登録されているが,「合意」は登録されていなかったので,「合意する」は翻訳できるが「合意」は翻訳できないことになるという問題がある.これは,ウイグル語の「合意」に相当する`kelixix'が動詞`kelixm!ek'の語幹`kelix-'に名詞化接尾辞`-ix'が接続することによって合成された派生語であり,そのためベースとしたウイグル語--日本語辞書に見出し語として掲載されていなかったからである.そこで,こうした動詞に対しては,動詞語幹に`-ix'に後接させ,自動的に名詞形を作成し,これに動名詞という品詞を与えて辞書に登録した.すなわち,上記の例では,$<$合意,動名詞,kelixix$>$という項目を辞書に加えた.なお,その際に,$<$合意す,母音幹動詞,kelix$>$の項目の方は辞書から削除したので,辞書に登録された単語数自体は,この作業では変化しない.しかし,「合意する」を翻訳する場合には,名詞`kelixix'を動詞語幹`kelix-'に戻す操作が必要となるが,これは機械的に実現できる.それについては参考文献\cite{OGAWA2000}を参照されたい.最後に,漢字表記と読みをそれぞれ別の単語として登録した.形態素解析では,字面だけを見て解析するため,例えば「物」が辞書に登録してあっても「もの」は解析できない.そこで,見出し語の表記と読み仮名を別々に登録し,例えば,$<$物,もの,名詞,madda$>$に対しては$<$物,名詞,madda$>$と$<$もの,名詞,madda$>$を辞書に登録した.また,動詞・形状動詞・形状名詞の語尾も漢字表記に合わせて削除した.以上の結果,表\ref{table:judic_for_majo}に示した数の単語が機械翻訳システム用の辞書に登録された.表\ref{mytab:juwtab}に比べて単語数が増えているのは,仮名表記を登録したためであり,語彙数自体は約2万語のままである.登録した仮名表記は表\ref{mytab:juwtab}の合計見出し語数と表\ref{mytab:juwtab}の合計見出し語数の差の約16,000語である.ただし,見出し語を形態素解析する段階で,不適切な解析となったものについては手作業で修正をした.例えば,前章で作成した日本語--ウイグル語辞書には$<$息苦しい,自動詞,!kisilma!k$>$という組があったが,ここで「自動詞」という品詞が付加されているのは,ウイグル語の`!kisilma!k'が自動詞だからである.しかし日本語訳の「息苦しい」は動詞ではないため,そのままでは辞書に登録できない.そこで,`!kisilma!k'の語幹に連体修飾語とする語尾`-idig!an'を付加し,その品詞を「修飾詞」とした.よって,$<$息苦しい,自動詞,!kisilma!k$>$の場合は$<$息苦しい,修飾詞,!kisilidig!an$>$を辞書に登録した.今回の辞書作成では,このようにして登録した単語は20語あった.\begin{table}[tbp]\begin{center}\caption{機械翻訳システム用日本語--ウイグル語辞書の登録語数}\label{table:judic_for_majo}\footnotesize\begin{tabular}{|l||r|r|r|r|r|r|r|r|r|r|r|r|}\hline品詞&名詞&\parbox[c]{2em}{動名詞}&動詞&\parbox[c]{2em}{形状動詞}&\parbox[c]{2em}{形状名詞}&\parbox[c]{2em}{修飾詞}&副詞&\parbox[c]{2em}{助数詞}&\parbox[c]{2em}{感嘆詞}&\parbox[c]{2em}{接続詞}&\parbox[c]{2em}{連体詞}&合計\\\hline\parbox[c]{2em}{登録語数}&18,323&1,629&7,611&1,320&1293&4,099&1,375&294&110&26&22&36,102\\\hline\end{tabular}\end{center}\end{table}また,実際の機械翻訳には元のウイグル語--日本語辞書に掲載されていなかった助詞,動詞接尾辞などが必要となるが,それらについてはウイグル語の解説書を参考に人手で343語を登録した.よって現在のシステム用の辞書の収録語数は表\ref{table:judic_for_majo}の36,102語に人手で登録した単語を加えた36,445語である.
\section{日本語--ウイグル語電子辞書の評価}
label{section:hyoka}これまでに説明してきた一連の作業によってでき上がった日本語--ウイグル語電子辞書(以下日--ウ辞書と略記する)が,日本語--ウイグル語機械翻訳システムの実験用の辞書として,また日常普通に使う日本語--ウイグル語辞書としてどの程度満足できるかについて評価をしておくことは当然であろう.本論文で,著者らは2種類の評価を行なった.一つは,国立国語研究所が発表している「教育基本語彙」に対する収録率であり,もう一つはEDRコーパスの日本語テキスト文に含まれる出現頻度の高い単語に対する収録率である.前者は日本語の基本語彙と認められている語に対する収録率であり,後者は新聞記事や雑誌記事に高い頻度で出現する単語に対する収録率である.この評価では,第\ref{section:for_majo}章で作成した翻訳システム用の辞書(以下,システム用辞書と略記する)を用いて,単語が辞書に収録されているかどうかを自動的に判定した.この判定では,単純な字面の一致だけを見るため,例えば「何時も」と「いつも」のように同じ単語が別の形で記されていた場合にも,辞書に収録されていないと判定されてしまう.こうした語は,機械翻訳システム用の辞書においては未収録語として扱うべきであるが,人間が日常使う翻訳辞書として考えれば収録されていると見なしても良いであろう.そこで,以下では最初に翻訳システム用辞書における収録率と未収録語について検討した.一方で,未収録語のうち人間が使用する際には収録済みと見なすことができる語を調べ,第\ref{section:jidoseisei}章で作成した辞書を人間が通常用いる辞書として評価する際にはそれらを収録語と見なした.まず,国立国語研究所のデータに関する評価について述べる.国立国語研究所の「教育基本語彙データベース」\cite{KOKKEN}に含まれている6,104(2,071+4,033)語の内,どれぐらいがシステム用辞書に収録されているかを調べた結果,3,552個(58.20\,\%)の単語が含まれていることが分かった.ここで2,071+4,033と書いているのは,より基本的な語として「◎」印が付されたのが2,071語,その他の基本語として「○」印が付されたのが4,033語と,国語研の語彙データベースで二つに分けているので,そのように表わした.\begin{figure}[tbp]\begin{center}\fbox{\begin{minipage}{0.9\textwidth}\epsfile{file=graphcover.eps,width=0.9\textwidth}\end{minipage}}\\\caption{EDRコーパス上位頻度単語の日本語--ウイグル語辞書に含まれる割合}\label{myfig:cover}\end{center}\end{figure}第2の評価に関しては,我々は約21万文が入っているEDRコーパスの日本語テキスト文中の形態素の中から出現頻度の上位6,055語\footnote{ここで,6,055になっているのは基本語彙とされる国語研の「教育基本語彙データベース」の語彙数は6,103であり,それに準じて6,000前後の上位頻度語を選んだ結果である.}を選択し,その中でどれぐらいの数の単語が収録されているかを調べた.\mbox{}\\その結果,3,135個の単語(51.77\,\%)が我々が作成したシステム用辞書に収録されていた.単語の出現頻度は,コーパスに含まれる文の出典や文の選び方によって偏りが生じる可能性もあるが,第1の評価の結果と比較してEDRコーパスに関してはその偏りは全体の収録率に大きく影響する程ではないと言えよう.また,EDRコーパス出現頻度上位単語を500単位ずつ増していって,対する収録率をグラフにまとめて図\ref{myfig:cover}に示した.これらの評価1,2の結果は,基本語彙を6,000ベースで考えた時の単語の約半分が収録されていないが,国語研においてより基本的とされる語彙2,000語ベースで考えると,それぞれ国語研の2,071語(以下国語研データと略記する),EDRの上位頻出の2,056語(以下EDRデータと略記する)に対してシステム用辞書の収録率は,国語研データに対して79.19\,\%(1,640語),EDRデータに対して78.45\,\%(1,613語)である.そこで,我々は,未収録語(国語研データ20.81\,\%,EDRデータ21.55\,\%)に関して,その収録されなかった理由や現象を調査し,5種類の分類規準を決定し,その規準に基づいて収録されなかった単語の分類を行なった.その結果を付録\cite{JUDIC_APPENDIX}に示した.また,それを集約した結果を表\ref{mytab:nocov}にまとめた.\newcommand{\myitemA}[1]{}\newcommand{\myitemB}[1]{}\newcommand{\myitemC}[1]{}\newcommand{\myitemD}[1]{}\newcommand{\myitemE}[1]{}\newcommand{\kenum}[2]{}\newcommand{\tkenum}[2]{}\normalsize\begin{table}[p]\begin{center}\caption{未収録語の調査結果}\label{mytab:nocov}\small\normalbaselineskip=17pt\begin{tabular}{|l|l|@{}c@{}|@{}c@{}|l@{}|}\hline&種類&\multicolumn{2}{@{}c@{}|}{\begin{tabular}{c|c}\begin{minipage}[c]{0.24\textwidth}現象\end{minipage}&\begin{minipage}[c]{0.24\textwidth}例\end{minipage}\\\end{tabular}}&対処方法\\\hline\myitemA{A}&\myitemB{形式上の違いの理由で含まれなかった単語\kenum{10}{44}}&\multicolumn{2}{@{}c@{}|}{\begin{tabular}{l|l}\myitemC{(1)表記の違いや送り仮名の違いによるもの.\kenum{9}{35}}&\myitemD{「何時も」,「贈り物」は日本語--ウイグル語辞書の見出しに入っていないが,「いつも」,「贈物」はその見出しに入っている.}\\\hline\myitemC{(2)日本語で,形容詞の語幹が形容動詞の語幹にもなるもの.\kenum{0}{3}}&\myitemD{ウイグル語の形容詞'illi!k'の訳語として,「暖かい」[形]は辞書にあるが,「暖かな」[形動]はない.\\\begin{minipage}[t]{0.24\textwidth}\tiny\setlength{\unitlength}{1mm}\begin{picture}(32,18)\put(0,15){ウイグル語}\put(26,15){日本語}\put(5,10){\oval(12,6)}\put(1,9){illi!k}\put(29,9.8){\oval(8,7)}\put(26.5,8){\shortstack{\tiny暖かい\\{[形]}}}\put(26.5,0){\shortstack{暖かな\\{[形動]}}}\put(11,10){\vector(4,0){14}}\put(11,10){\vector(2,-1){14}}\end{picture}\\\mbox{}\end{minipage}}\\\hline\myitemC{(3)日本語の動詞で,その意味がウイグル語では形容詞で表されるもの,または逆に,日本語では形容詞で,その意味がウイグル語では動詞で表されるもの.\kenum{1}{6}}&\myitemD{「込む」は,動詞であるが,そのウイグル語訳である\\`besi!k'(込んでいる)は形容詞である.\\「痛い」は,形容詞であるが,そのウイグル語訳である\\`a!grima!k'は動詞である.}\end{tabular}}&\myitemE{これらの単語に対しては機械的処理を行なうことにより,辞書に追加できると考えられる.}\\\hline\myitemA{B}&\myitemB{元のウイグル語--日本語辞書で,日本語の訳付が不充分と考えられる単語\kenum{168}{205}}&\multicolumn{2}{@{}c@{}|}{\begin{tabular}{l|l}\myitemC{(1)同じ概念の違った表現.\kenum{15}{26}}&\myitemD{「米国」と「アメリカ」,\\「火曜」と「火曜日」など.}\\\hline\myitemC{(2)その単語の類似語が辞書に存在するもの.\kenum{42}{58}}&\myitemD{「辺り」対して「周り」,\\「危ない」に対して「危険な」など.}\\\hline\myitemC{(3)元のウイグル語--日本語辞書でウイグル語に語義が複数あるのに,その一部が落ちているもの.\kenum{95}{78}}&\myitemD{\tiny\setlength{\unitlength}{1mm}\begin{picture}(33,16)\put(0,14){ウイグル語}\put(26,14){日本語}\put(4,6.5){\oval(10,6)}\put(0,6){eqilma!k}\put(9,7){\vector(3,0){12}}\put(30,6.5){\circle{6}}\put(22,6){(門が)開く}\put(22,0){(花が)咲く}\put(9,7){\vector(2,-1){12}}\end{picture}}\\\end{tabular}}&\myitemE{ウイグル語--日本語辞書の編集時にできるだけ多くの訳語を入れる.}\\\hline\end{tabular}\end{center}\end{table}\normalsize\begin{table}[p]\addtocounter{table}{-1}\begin{center}\caption{未収録語の調査結果(続き)}\small\normalbaselineskip=17pt\begin{tabular}{|l|l|@{}c@{}|@{}c@{}|l@{}|}\hline&種類&\multicolumn{2}{@{}c@{}|}{\begin{tabular}{c|c}\begin{minipage}[c]{0.24\textwidth}現象\end{minipage}&\begin{minipage}[c]{0.24\textwidth}例\end{minipage}\\\end{tabular}}&対処方法\\\hline\myitemA{}&\myitemB{}&\multicolumn{2}{@{}c@{}|}{\begin{tabular}{l|l}\myitemC{(4)ウイグル語--日本語辞書の編集時に,複数の品詞を持つウイグル語に対して品詞の付け忘れがあったもの.\kenum{15}{28}}&\myitemD{ウイグル語の形容詞の`!kizil'\\(赤い)は名詞の場合もあるが,[名詞]という品詞を付けなかった.\\\begin{minipage}[t]{3.2cm}\tiny\setlength{\unitlength}{1mm}\begin{picture}(32,18)\put(0,15){ウイグル語}\put(26,15){日本語}\put(5,10){\oval(12,6)}\put(2,9){!kizil}\put(29,10.4){\oval(8,7)}\put(27,8){\shortstack{赤い\\{[形]}}}\put(27,0){\shortstack{赤\\{[名]}}}\put(11,10){\vector(4,0){14}}\put(11,10){\vector(2,-1){14}}\end{picture}\end{minipage}\\\mbox{}}\\\hline\myitemC{(5)日本語の丁寧語,尊敬語,謙譲語などの待遇表現.\kenum{1}{15}}&\myitemD{「参る」,「おっしゃる」,\\「いただく」など.}\\\end{tabular}}&\myitemE{}\\\hline\myitemA{C}&\myitemB{ウイグル語訳が一語で表せない単語.\kenum{191}{151}}&\multicolumn{2}{@{}c@{}|}{\begin{tabular}{l|l}\myitemC{(1)ウイグル語訳が派生語であるもの.\kenum{28}{9}}&\myitemD{\setlength{\unitlength}{1mm}\begin{picture}(33,16)\put(-1,5){「従来」}\put(18,5){{\bf!esli}{$\cdot$}d!e}\put(11,6){\vector(3,0){6}}\end{picture}}\\\hline\myitemC{(2)ウイグル語訳が2語以上の組合せからなる複合語であるもの.\kenum{150}{130}}&\myitemD{\setlength{\unitlength}{1mm}\begin{picture}(33,16)\put(-2,9){「握手」}\put(15,6){\shortstack{!kol\elixma!k\\手\\取り合う}}\put(9,10){\vector(3,0){5}}\put(-2,1){「彼処」}\put(15,-2){\shortstack{awu\\\\y!er\\あの\\\ところ}}\put(9,2){\vector(3,0){5}}\end{picture}}\\\hline\myitemC{(3)その語をウイグル語に訳す時,言い換えや語順の変更が必要になるもの.\kenum{10}{11}}&\myitemD{「...過ぎ」[接尾]$\longrightarrow$\\!h!eddidinoxu!k...(限度を超えて...)}\\\hline\myitemC{(4)その日本語を含む連語をウイグル語に訳すもの.\kenum{3}{1}}&\myitemD{「一緒」$\longrightarrow$...と{\bf一緒}に\\$\longrightarrow$...bil!enbill!e\\\\しれ$\longrightarrow$かも{\bfしれ}ない\\$\longrightarrow$...m!umkin\\\mbox{}}\\\end{tabular}}&\myitemE{辞書に新たに登録する.}\\\hline\end{tabular}\end{center}\end{table}\normalsize\begin{table}[p]\addtocounter{table}{-1}\begin{center}\caption{未収録語の調査結果(続き)}\small\normalbaselineskip=17pt\begin{tabular}{|l|l|@{}c@{}|@{}c@{}|l@{}|}\hline&種類&\multicolumn{2}{@{}c@{}|}{\begin{tabular}{c|c}\begin{minipage}[c]{0.24\textwidth}現象\end{minipage}&\begin{minipage}[c]{0.24\textwidth}例\end{minipage}\\\end{tabular}}&対処方法\\\hline\myitemA{D}&\myitemB{その日本語単語のウイグル語訳が元のウイグル語--日本語辞書から,何らかの理由で外れた単語\kenum{65}{8}}&\multicolumn{2}{@{}c@{}|}{\begin{tabular}{l|l}\myitemC{(1)技術的用語.元の辞書ができた時点で,まだ使われていなかったか,技術的な用語との理由で外れた単語.\kenum{26}{1}}&\myitemD{「テレビ」,「アプリケーション」,「エイズ」など.}\\\hline\myitemC{(2)現代用語に含まれると考えられる固有名詞.\kenum{31}{0}}&\myitemD{「リクルート」,「ゴルバチョフ」,「IBM」など.}\\\hline\myitemC{(3)普通に使われるウイグル語であるが,たまたま元のウイグル語--日本語辞書の見出し語から外れたと考えられるもの.\kenum{1}{4}}&\myitemD{「人形(!koqa!k)」,「もしもし(w!ey)」など.}\\\hline\myitemC{(4)ウイグル語では接尾辞として訳されるもの.\kenum{7}{3}}&\myitemD{「...的」,「...性」,「...目」など.}\\\end{tabular}}&\myitemE{辞書に新たに登録する.}\\\hline\myitemA{E}&\myitemB{その概念がウイグル語の複合語や句で表すことのできない単語.\kenum{9}{23}}&\multicolumn{2}{@{}c@{}|}{\begin{tabular}{l|l}\myitemC{(1)その概念が元々ウイグル語にない単語.\kenum{6}{18}}&\myitemD{「昭和」,「畳」,「神社」など.}\\\hline\myitemC{(2)総称としての概念が,ウイグル語にはない単語.\kenum{1}{3}}&\myitemD{「親」,「親子」,「菓子」など.}\\\hline\myitemC{(3)対応する語法がウイグル語には存在しないもの.\kenum{2}{2}}&\myitemD{「お」[接頭語],「ご」[接頭語].}\\\end{tabular}}&\myitemE{}\\\hline\hline合計&\multicolumn{4}{@{}l@{}|}{\myitemB{\mbox{}\kenum{443}{431}}}\\\hline\end{tabular}\end{center}\end{table}\subsection{分類規準}\label{subsection:kijun}日--ウ辞書の見出し語に採録されなかった単語を大きく5種類に分類し,その理由ないしは現象を以下に説明する.\vspace{0.2cm}A)形式上の違いの理由で収録されなかった単語これらは,形式的な違いだけの理由でシステム用辞書に含まれなかったが,人間が利用する際には簡単に参照可能であり,語彙としては含まれていると考えられるものである.ここで形式的な違いというのは,表記の違いと品詞付けの違いであり,次のように3つに細分類される.(1)漢字表記と仮名表記の違いと送り仮名の違い.国語研では,「何時も」と表記され,日--ウ辞書では「いつも」と表わされる場合である.(2)日本語では形容詞と形容動詞が区別されていることに起因する違い.国語研データでは,形容詞「暖かい」と形容動詞「暖かな」の両方が基本語彙とされていた.しかし,ウイグル語の形容詞`illi!k'の訳語としては「暖かい」はあっても「暖かな」はなかったため,逆辞書においても「暖かな」の見出し語はないとされた.しかし,この二つは語彙としては同じであり,日本語の「暖か」が形容詞の語幹にも形容動詞の語幹にもなりえるために片方が収録されていないと判定されたのである.(3)動詞による表現と形容詞による表現の違い.例えば,日本語の動詞「込む」はウイグル語では形容詞`besi!k(込んでいる)'に相当し,また,日本語の形容詞「痛い」はウイグル語では動詞`a!grima!k(痛む)'と表わされる.このように,日本語では動詞とされる語に対応するウイグル語が形容詞であったり,また,その逆に,日本語では形容詞とされる語に対応するウイグル語が動詞であるような場合である.付録\cite{JUDIC_APPENDIX}では,これらの3つの場合をA1,A2,A3の種類として分類し,備考欄には,その根拠を示す語を示している.\\B)ウ--日辞書の日本語訳付けが不十分なことが理由で収録されなかった単語ウ--日辞書\cite{UJDIC}は,ウイグル語--中国語辞書\cite{UHDIC}を日本語に翻訳して作られているので,間接的な訳付けに基づく意味の欠落や歪みがあったり,ウイグル語単語の意味が十分理解されないまま訳付けされていたりする場合がある.また,ウ--日辞書\mbox{\cite{UJDIC}}は,日本語を母語とする人を対象にしたため,ウイグル語単語の日本語訳の表現がいくつかあっても,その中の一部だけを訳語にしている場合が見られる.例えば,ウイグル語の単語`h!et!erlik'の訳としては,「危険な」や「危ない」が考えられるが,辞書には「危険な」だけが採録されていた.このような理由で訳語が欠落すると,本論文の方法で辞書を生成する場合には,見出し語として収録されないことになる.このような場合に対処するには,ウ--日辞書を整備する段階で,できるだけ多くの日本語訳を付しておくことである.このクラスに属する単語は,国語研では205語,EDRでは168語である.しかし,人間が利用する場合を考えれば,「危険な」のウイグル語訳があれば「危ない」という語のウイグル語訳にもそれを使うことができ,そうした観点からは,このクラスに入る単語は,A)に属する単語と同様に,第\ref{section:jidoseisei}章で作成した人間用の辞書には,実質上,含まれていると考えてもよいであろう.このB)に属する単語はさらに次の5つに細分類される.(1)表現は異なっているが同じ概念の語が辞書に存在する場合.例えば,「米国」と「アメリカ」,「火曜」と「火曜日」のように,前者は辞書にないが,それと同じことを表わしている後者が辞書にある場合である.(2)類似語が辞書に存在する場合.例えば,「辺り」に対して「周り」,「危ない」に対して「危険な」のように,前者は,辞書に入っていないが,類似語の後者が入っている場合である.(3)ウイグル語単語に複数の語彙があるのに,ウ--日辞書ではその一部が落ちているために,日-ウ辞書に収録できなかった場合.例えば,`eqilma!k'には「門が開く」の「開く」と「花が咲く」の「咲く」という語義があるが,「咲く」という語義が付されていなかったので,「咲く」が収録されなかったというような場合である.(4)ウ--日辞書編集時に複数の品詞を持つウイグル語に対して品詞の付け忘れがあった場合.例えば,`!kizil'は,「赤い」と「赤」のように形容詞と名詞の2つの品詞を持つが,[形容詞]とだけ品詞付けをしたので,名詞の「赤」という語が収録できなかったような場合である.(5)日本語の丁寧語・尊敬語・謙譲語などの待遇表現で,それが意味することを表わす通常の語が辞書に存在する場合.例えば,「お父様」「参る」は辞書にないが,「お父さん」「行く」はあるような場合である.付録\cite{JUDIC_APPENDIX}の表では,これらの5つの場合をB1,B2,B3,B4,B5の種類として分類し,その根拠になる語を備考欄に示した.\\C)日本語のウイグル語訳が一語で表わせないことが理由で収録されなかった単語このクラスに属する日本語単語にウイグル語訳を付けようとすると,派生語もしくは複合語として表現せざるを得ない場合である.このような現象は,日本語--ウイグル語のみならず,他言語間の辞書作成時にも当然現れる.これらの単語については,例えば辞書の用例部分から獲得するか,人手によって新たに登録する必要がある.このクラスに属する単語は,次の4つに細分類される.(1)ウイグル語訳が派生語である場合.例えば,日本語の「従来」が`{\bf!esli}$\cdot$d!e'と,`!esli'の派生語と表わされるような場合.(2)ウイグル語訳が2語以上の組み合わせからなる複合語である場合.例えば,「握手」が`!kolelixma!k'のように,`!kol(手)'と`elixma!k(握る)'の複合語として表わされるような場合である.(3)ウイグル語訳をするときに,言い換えや語順の変更が必要になる場合.例えば,``食べ過ぎ''の「〜過ぎ」は`!h!eddidinoxu!k~(yem!ek)'(限度を超えて〜する(食べる))のように訳す.(4)その日本語単語単独でなく,それを含む連語をウイグル語に訳す場合.例えば,「一緒」は,「〜と{\bf一緒}に」のような連語として考え,それを訳して`〜bil!enbille'とするような場合である.付録\cite{JUDIC_APPENDIX}では,これらの4つの場合をC1,C2,C3,C4の4つの種類に細分類し,C1の場合には,備考欄に派生語がどのように分解されるかを示している.また,C4の備考欄には,その単語を含む連語を示している.\\D)その日本語単語に相当するウイグル語単語が何らかの原因でウ--日辞書の見出し語から外れたために収録されなかった単語基礎としたウ--日辞書\cite{UJDIC},すなわち,そのもとのウイグル語--中国語辞書\cite{UHDIC}を作った時に,その単語に相当するウイグル語単語が,何らかの原因でその見出し語から外れたために収録されなかった場合である.このグループに属する単語の数については,国語研データ8語,EDRデータ66語とはっきりした差がある.これは,EDRデータでは,技術用語や現代用語に現れる固有名詞が多く出現していたためである.必要ならばこれらの単語は人手で登録するより他にない.このクラスに属する語は,その原因別に次のように4つに細分類される.(1)技術用語で元のウ--日辞書が作られた時にまだ使われていなかったか,技術用語との理由で外れた単語.例えば,「テレビ」,「アプリケーション」,「エイズ」などである.(2)現代用語に含まれると考えられる固有名詞.例えば,「リクルート」,「ゴルバチョフ」,「IBM」,「中曽根」などである.(3)普通に使われるウイグル語であるが,たまたま元のウ--日辞書の見出し語から外れた単語.例えば,「人形(!koqa!k)」,「もしもし(w!ey)」などである.(4)ウイグル語では接尾辞として訳される単語.元のウ--日辞書には,接尾辞は登録されていなかったために,ウイグル語では接尾辞として訳される日本語単語は採録されなかったものである.例えば,「君」「的」「性」「目」などである.付録\cite{JUDIC_APPENDIX}では,これらの語をD1,D2,D3,D4と分類し,このクラスに属する単語に対して,ウイグル語訳が付けられる場合には,それを記してある.\\E)その概念をウイグル語の複合語や句で表わすことのできない単語日本語単語が表わす概念がウイグル語にはなく,ウイグル語の複合語や句で表現することができない場合である.このように,一方の言語の単語が表わす概念を他方の言語で簡潔に表現できない問題はどのような言語間でも存在する.このクラスの単語が,国語研データの方で多く見られるのは,EDRデータには新聞や雑誌での高頻出語が含まれるのに対して,国語研データには日本語特有の語彙を収録しているためと考えられる.これらの単語を登録する場合,人間用の辞書であれば,例文などを添えながら説明を書くことになる.システム用の辞書であれば,日本語の読みをそのまま登録するか,E3の場合には何も訳出しないことになる.このクラスに属する単語は,次の3つに細分類される.(1)概念がウイグル語にない単語.例えば,「昭和」「畳」「神社」などである.(2)総称として概念がウイグル語にない単語.例えば,「親」「親子」「菓子」などである.ウイグル語で「親」は「父と母(ata-ana)」と表わされ,「親子」は「父子(ata-bala)」もしくは「母子(ana-bala)」としか表現できない.(3)対応する語法がウイグル語には存在しない場合.例えば,「お食事」の「お」,「ご挨拶」の「ご」などである.\subsection{分類規準の妥当性と分類結果の検討}\label{subsection:kento}前節では,我々の日--ウ辞書の見出し語として未収録となった原因をA〜Eまで大きく5つに分類し,さらにそれらを細分類して,A1〜A3,B1〜B5,C1〜C4,D1〜D4,E1〜E3の全部で19の規準を与えた.この結果は表\ref{mytab:nocov}にまとめられた通りである.国語研の教育用基本語彙は学習者に日本語教育をする上で基本的と見なされるものとされており,一方,EDRコーパスの日本語文の高頻度出現の語彙は,新聞などから抽出されたものであり,以下にも述べるように,これらは性質の異なったソースと考えられる.これらの2つの異なった語彙集合のいずれについても,未収録語は上の規準に従って無理なく分類ができ,しかも,未収録の原因のいずれについても,それぞれどのように対処すればよいかをそれ自身が示している.この意味で,\ref{subsection:kijun}で示した分類規準は妥当であると考えられる.次に,この規準に従って,2,000語ベースの国語研データ,EDRデータの未収録語を分類した結果について検討する.まず,A1〜E3までの理由ごとに,未収録語数を示すグラフを図\ref{myfig:uncover}に示す.この図\ref{myfig:uncover}と表\ref{mytab:nocov}を見ると,次のような特徴が分かる.\\\mbox{}\begin{figure}[tbp]\begin{center}\epsfile{file=graphuncover.eps,width=0.9\textwidth}\caption{日本語--ウイグル語辞書の未収録語の分布}\label{myfig:uncover}\mbox{}\end{center}\end{figure}\noindent{\bf国語研データとEDRデータの共通的特徴}\\1.未収録語数は,国語研データでは431語(431/2,071=20.81\,\%),EDRデータでは443語(443/2,056=21.55\,\%)で,共に約20\,\%である.2.種類B,Cに属する語が未収録語の主要部分を占めており,国語研データでは205(B)+151(C)=356語(356/431=82.60\,\%),EDRデータでは168(B)+191(C)=359語(359/443=81.04\,\%)で,共に未収録語全体の約80\,\%である.\\\noindent{\bf国語研データとEDRデータの対照的特徴}\\3.種類Dに属する語は,国語研データでは8語であるのに対して,EDRデータは66語で,約8倍である.D1〜D4に細分してもD3を除いてこの傾向は変わらない.これは,EDRデータが技術的な用語や時代を反映した現代用語的な語彙を多数含んでいることから自然な結果である.D3は本来辞書にあるのが当然の語彙である.4.種類Eに属する語は,国語研データでは23語であるのに対して,EDRデータは9語であり,3分の1余りである.これは,国語研データが,教育上基本的であるとして選定されたもので日本語特有の概念を含むことになると考えることができよう.5.種類Aについては,国語研データでは44語,EDRデータは10語である.種類A1,A2は,表記の規準化(送り仮名の統一,語幹が同じである形容詞・形容動詞の処理など)によってほとんど解消されると考えられる.以上,未収録語の分類結果を検討し,1.〜5.が観察された.既に述べたように,種類Aおよび種類Bに属する語は,人間用の辞書としては収録されていると見なせるであろう.種類Aと種類Bに属する語を合計すると,国語研データでは249語,EDRデータでは178語である.これらは,2,000語ベースで収録されなかったそれぞれの語数431語(国語研),443語(EDR)の57.77\,\%,40.18\,\%である.よって,第\ref{section:jidoseisei}章で作成した辞書は2,000語ベースで考えれば,それぞれ91.21\,\%,87.11\,\%の収録率をもつと見なせる.その意味では,本論文の自動的に生成した日--ウ辞書が当初の目的を達成していることを示していると考えてもよいであろう.また,3.,4.に見るように,国語研データとEDRデータとでは対照的であり,これは何を基本語彙とするかに依存するところである.生活習慣や社会習慣が異なれば語彙も異なる.また,次々に現れる現代用語を辞書見出し語にするのは難しい.このように見ると種類D,Eの語があることは我々が作成した辞書のような場合には決定的な欠点にはならないとしてもよいであろう.一方で,種類Cの語数は,国語研データ151語,EDRデータ191語であり,2,000語ベースで考えれば,それぞれ7.29\,\%,9.29\,\%である.種類C,即ち,ウイグル訳が一語で表現できない場合には,ウ--日辞書中の例文の中から対訳を抽出して登録したり,人手で新たに辞書登録するなどの作業が必要であり,今後の課題でもある.現在,ウ--日辞書中の例文の中から抽出した訳語を人手でチェックしている段階である.
\section{まとめ}
label{section:owari}本論文では,実用に近い日本語--ウイグル語機械翻訳システムの実現の目的で,少なくとも日常使われる最低限の語彙を含む日本語--ウイグル語辞書の開発を目標に,既存の語彙数約16,000語のウイグル語--日本語辞書\cite{UJDIC}から,できるだけ自動的な手順,作業で語彙数約20,000語の日本語--ウイグル語辞書を開発したプロセスについて説明し,その成果として得られた日本語--ウイグル語辞書の収録語の分析を行なった.その結果,機械翻訳システム用の辞書に関し,国立国語研究所の教育基本語彙データベース\cite{KOKKEN}における,より基本的な語彙2,071語に対する収録率が約79\,\%,また,EDRコーパスの約21万の日本語文から抽出した出現頻度上位2,056語に対する収録率が約78\,\%であった.また,\ref{subsection:kento}節で述べた観点から人間が利用する辞書として考えれば,それぞれ,91\,\%,87\,\%の収録率であった.このように,所期の目標の日本語--ウイグル語翻訳のための辞書を得ることができた.次に,表\ref{mytab:nocov}に整理した未収録語の分類規準は,本研究の場合だけでなく,一般に,日本語から他の言語への翻訳辞書の評価の場合にも適用できると考えられる.日本語からの,と制限しない場合で,任意の言語間の翻訳辞書作成の場合でも,その枠組みは利用可能である.さらに,本研究の日本語--ウイグル語辞書の場合と同様に例えばトルコ語--日本語辞書はあるが,日本語--トルコ語辞書がないときに,それを生成をする場合に,本研究で採用した逆辞書を作るという手順を用いるアプローチはコストと時間の視点から有効な手段を提供すると考えられる.本研究で日常使われる最低限の語彙を含む日本語--ウイグル語辞書ができたので,引き続いてこれを用いて実用に近い日本語--ウイグル語機械翻訳システムの実現を計りたい.その際に,種々の形で辞書の充実が必要になるであろうが,語彙の追加の他に,例えば,専門用語や外来語に対する対処,あるいは日本語固有の概念を表わす単語に対する対処の仕方など,場合に応じた工夫も必要になろう.\bibliographystyle{jnlpbbl}\bibliography{judicj}\begin{biography}\biotitle{略歴}\bioauthor{ムフタル・マフスット}{1983年新疆大学数学系卒業.1996年名古屋大学大学院工学研究科情報工学専攻博士課程満了.同年,三重大学助手.2001年より,名古屋大学助手.工学博士.自然言語処理に関する研究に従事.人工知能学会,情報処理学会各会員.}\bioauthor{小川泰弘}{1995年名古屋大学工学部情報工学科卒業.2000年同大学院工学研究科情報工学専攻博士課程後期課程修了.同年より,名古屋大学助手.自然言語処理に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{杉野花津江}{1961年愛知学芸大学数学科卒業.1965年より名古屋大学工学部助手.1997年〜2003年3月まで同大学院工学研究科助手.現在,同大学院情報科学研究科臨時補助員.オートマトン・言語理論,確率オートマトン,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会各会員.}\bioauthor{稲垣康善}{1962年名古屋大学工学部電子工学科卒業.1967年同大学院博士課程修了.同大助教授,三重大学教授を経て,1981年より名古屋大学工学部・大学院工学研究科教授.2003年4月より同大学名誉教授,愛知県立大学情報科学部教授.工学博士.この間,スイッチング回路理論,オートマトン・言語理論,計算論,ソフトウエア基礎論,並列処理論,代数的仕様記述法,人工知能基礎論,自然言語処理などの研究に従事.言語処理学会,情報処理学会,電子情報通信学会(現在副会長),人工知能学会,日本ソフトウエア科学会,IEEE,ACM,EATCS各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V03N04-02 | \section{はじめに}
label{intro}機械翻訳システムには,少し微妙だが重要な問題として冠詞の問題がある.例えば,\vspace*{5mm}\begin{equation}\mbox{\underline{本}\.と\.い\.う\.の\.は人間の成長に欠かせません.}\label{eqn:book_hito}\end{equation}の「本」は総称的な使われ方で,英語では``abook''にも``books''にも``thebook''にも訳される.これに対して,\begin{equation}\mbox{\.昨\.日\.僕\.が\.貸\.し\.た\underline{本}は読みましたか.}\label{eqn:book_boku}\end{equation}の「本」は英語では``thebook''と訳される.冠詞の問題は,多くの場合,名詞句の{\bf指示性}と{\bf数}を明らかにすることによって解決できる.文(\ref{eqn:book_hito})の「本」は総称名詞句で数は未定であり,``abook''にも``books''にも``thebook''にも訳される.また,文(\ref{eqn:book_boku})の「本」は定名詞句でほとんどの場合単数と解釈してよい.よって,英語では``thebook''となる.名詞句の指示性と数は日本語の表層表現から得られることが多い.例えば,文(\ref{eqn:book_hito})では「\.と\.い\.う\.の\.は」という表現から「本」が総称名詞句とわかる.文(\ref{eqn:book_boku})では修飾節「昨日僕が貸した」が限定していることから「本」が定名詞句とわかる.そこで,本研究では名詞句の指示性と数を日本語文中にあるこのような表層表現を手がかりとして推定することを試みた.名詞句の指示性と数の推定は文脈依存性の高い問題であり,本来文脈処理などを行なって解決すべき問題である.しかし,現時点での自然言語処理の技術では文脈処理を他の解析に役立てるところまでは来ていない.また,近年コーパスベースの研究が盛んであるが,指示性と数の正解の情報が付与されているコーパスがなく,タグなしコーパスから指示性と数の問題を解決することはほとんど不可能であるので,コーパスベースでこの問題を解決することはできない.そういう状況の中で,本論文は表層の手がかりを利用するだけでも指示性や数の問題をかなりの程度解決することができることを示すものである.本論文は文献\cite{Murata1993B}を詳しくしたものである.近年,本研究は,文献\cite{Bond1994,Murata1995}などにおいて引用され,具体的に重要性が明らかになりつつある.\cite{Bond1994}においては,日本語から英語への翻訳における数の決定に利用され,また,\cite{Murata1995}においては,同一名詞の指示対象の推定に利用されている.そこで,本論文は本研究を論文としてまとめることにしたものである.以前の文献ではあげられなかった規則も若干付け加えている.
\section{名詞句の指示性と数の分類}
label{sec:riron}\subsection{名詞句の指示性の分類}名詞句の指示性とは名詞句の対象への指示の仕方である.まず名詞句を,その名詞句の類の成員すべてか類自体を指示対象とする{\bf総称名詞句}と,類の成員の一部を指示対象とする{\bf非総称名詞句}に分ける.次に,非総称名詞句を指示対象が確定しているか否かで,{\bf定名詞句}と{\bf不定名詞句}に分ける(図\ref{fig:sijisei_bunrui})\footnote{この分類は文献\cite{Inoue1985}を参考にして行なった.日本語の名詞句に対して,この分類と同じような分類をしているものに文献\cite{Kinsui1986}が挙げられる.しかし,そこでは総称名詞句,定名詞句,不定名詞句の他に指示対象を持たない名詞句が考えられている.例えば,「私は大学教師です」の「大学教師」は指示対象を持たないとしてあった.それに対し,本研究では「大学教師」は大学教師という類のある成員と考え「不定名詞句」と考える.また,「定」「不定」の区別は聞き手の知識による分類となっており,ここでの分類とは異なる.}.この分類は英語の名詞句についての分類を念頭において行なったが,日本語の名詞句についてもかなりの程度役に立つと考えている\footnote{\ref{sec:junbi}節の表\ref{fig:sousyou}で述べるように指示性の判断が難しい名詞句も多く,新たな分類を設けなければならなくなることも考えられ,本論文の分類はまだ完全なものではない.しかし,第一近似としては有用なものであると考える.}.\begin{figure}[t]\small\begin{center}\fbox{\begin{minipage}[c]{220pt}\begin{center}{\tiny\[\mbox{\normalsize名詞句}\left\{\begin{array}[h]{cc}\mbox{\normalsize総称名詞句}&\\&\\\mbox{\normalsize非総称名詞句}&\left\{\begin{array}[h]{c}\mbox{\normalsize定名詞句}\\\\\mbox{\normalsize不定名詞句}\end{array}\right.\end{array}\right.\]}\end{center}\vspace*{1mm}\end{minipage}}\caption{名詞句の指示性の分類}\label{fig:sijisei_bunrui}\end{center}\end{figure}\paragraph{総称名詞句}総称名詞句は,その名詞句が意味する類に属する任意の成員(単数でも,複数でも,不可算のものでもよい)のすべて,もしくはその名詞句が意味する類それ自身を指示する.例えば,次の文(\ref{eqn:doguse})の「犬」は総称名詞句である.\begin{equation}\underline{犬}は役に立つ動物です.\label{eqn:doguse}\end{equation}ここでの「犬」は「犬」という類に属する成員のすべてを指示対象としている.\paragraph{定名詞句}定名詞句は,その名詞句が意味する類に属する文脈上唯一の成員(単数でも複数でも不可算のものでもよい)を指示する.例えば,次の文(\ref{eqn:thedoguse})の「その犬」は定名詞句である.\begin{equation}\underline{その犬}は役に立ちます.\label{eqn:thedoguse}\end{equation}ここでの「その犬」は,「犬」という類に属する文脈上唯一の成員を指示対象としている.このことは,指示詞「その」によって表わされており,聞き手は「その犬」なるものを確定できる.\paragraph{不定名詞句}不定名詞句は,その名詞句が意味する類に属するある不特定の成員(単数でも複数でも不可算のものでもよい)を指示する.不特定の成員を指示するというのは,現時点での聞き手の情報ではその名詞句が成員のどれを指し示すのか確定していないという意味である.また,現時点での聞き手の情報では,その名詞句が成員のどれを指し示しているとしても,その文の解釈として間違っていないということでもある.不定名詞句は総称名詞句とは異なり,その名詞句の意味する類の成員のすべてを指示するのではなくて,その名詞句の意味する類の成員の一部を指示する.次の文の「犬」は不定名詞句である.\begin{equation}\underline{犬}が三匹います.\label{eqn:dog3}\end{equation}ここでの「犬」は犬という類に属する任意の三匹の成員を指示対象として持ちえる.これはどんな犬でも三匹いればこの文が使えるということである.\begin{figure}[t]\small\begin{center}\fbox{\begin{minipage}[c]{220pt}\begin{center}{\tiny\[\mbox{\normalsize名詞句}\hspace{1mm}\left\{\begin{array}[h]{cc}\mbox{\normalsize可算名詞句}&\left\{\begin{array}[h]{c}\mbox{\normalsize単数名詞句}\\\\\mbox{\normalsize複数名詞句}\end{array}\right.\\&\\\mbox{\normalsize不可算名詞句}&\end{array}\right.\]}\end{center}\vspace*{1mm}\end{minipage}}\caption{名詞句の数の分類}\label{fig:suu_bunrui}\end{center}\end{figure}\subsection{名詞句の数の分類}名詞句の数とはその名詞句が指示する対象の数のことである.名詞句をその指示対象が数え上げられるか数え上げられないかに応じて,{\bf可算名詞句},{\bf不可算名詞句}に分ける.次に,可算名詞句をその指示する対象が一個か複数個かに応じて{\bf単数名詞句},{\bf複数名詞句}に分ける(図\ref{fig:suu_bunrui}).この分類は名詞句の指示性と同様に英語の名詞句の分類を念頭において行なった\footnote{この分類は日本語から英語への翻訳を念頭において行なったものであるが,以下の例のschool(学校)のように英語では無冠詞で表現されて不可算を思わせるものであっても意味的には単数であるものは単数として考える.\begin{quote}私はたいてい八時に\underline{学校}へ行きます.\\(Iusuallygoto\underline{school}at8:00.)\end{quote}}.\paragraph{単数}名詞句の指し示す対象が,話者の頭の中で一個のものとして他のものと区別して捉えることができる場合,その名詞句の数は単数となる.例えば,次の文の「ケーキ」は単数である.\begin{equation}彼女は\underline{ケーキ}を一個持って行きました.\end{equation}ここでの「ケーキ」は個々に区別して捉えることができ,一個である.\paragraph{複数}名詞句の指し示す対象が,話者の頭の中で個々に区別できるものとして複数個ある場合,その名詞句の数は複数となる.例えば,次の文の「たくさんのケーキ」は複数である.\begin{equation}この店には\underline{たくさんのケーキ}があります.\label{eqn:cake_mise}\end{equation}ここでの「たくさんのケーキ」は個々に区別して捉えることができ,またたくさんあるので複数個ある.\paragraph{不可算}名詞句の指し示す対象が,話者の頭の中で個々に区別できないものである場合,名詞句の数は不可算となる.例えば,次の文の「銅」は不可算である.\begin{equation}\underline{銅}はよく熱を伝導します.\label{eqn:cake_kinou}\end{equation}ここでの「銅」は個々に区別して捉えることができない.「銅」は「銅」という物質として使われており,不可算である.\vspace*{-2mm}
\section{名詞句の指示性と数の推定方法}
label{sec:decide}\subsection{「可能性」と「得点」}\label{sec:point}名詞句の指示性と数の推定は,表層の言語表現を手がかりにした規則を異なった種類の表現に応じて必要なだけ作り,入力文に対してそれらを適用することによって行なう.ある表層表現を手がかりにして,そこにあらわれる名詞句がある分類に属さないことがわかる場合がある.例えば,「\underline{\.あ\.る犬}」は連体詞「ある」がついていることから,「不定名詞句」であって「総称名詞句」「定名詞句」になる可能性はないことがわかる.これを表現するために,{\bf「可能性」}という評価値を導入する.「可能性」が1のときその分類に属する可能性があることを意味し,「可能性」が0のときその分類の可能性がないことを意味する.「可能性」が0となる規則が適用されれば,名詞句がその分類に属する可能性はなくなることになる.ある名詞句がある分類に属するかどうかを一つの表層表現から推定するのではなく,複数の表層表現を手がかりに推定を行なえば分類の精度はよくなると考えられる.そのため各規則に重要性を表わす{\bf「得点」}という評価値を導入し,ある名詞句に対して適用された規則の「得点」を合計することでその名詞句がある分類に属する場合の評価値とする.「可能性」の情報だけではどの分類に属するのか一意に推定できない場合に,この評価値はいずれの分類が最も適当であるか推定する基準になる.\begin{figure}[t]\small\begin{center}\fbox{\begin{minipage}[c]{220pt}\baselineskip=12pt\hspace*{1.0cm}\protect\verb+(規則の適用条件)+\\\hspace*{2.0cm}\protect\verb++\{\verb+不定(可能性得点)+\\\hspace*{2.18cm}\protect\verb+定(可能性得点)+\\\hspace*{2.18cm}\protect\verb+総称(可能性得点)+\}\end{minipage}}\caption{名詞句の指示性を推定する規則}\label{fig:rule_kouzou_sijisei}\end{center}\end{figure}\begin{figure}[t]\small\begin{center}\fbox{\begin{minipage}[c]{220pt}\baselineskip=12pt\hspace*{1.0cm}\protect\verb+(規則の適用条件)+\\\hspace*{2.0cm}\protect\verb++\{\verb+単数(可能性得点)+\\\hspace*{2.18cm}\protect\verb+複数(可能性得点)+\\\hspace*{2.18cm}\protect\verb+不可算(可能性得点)+\}\end{minipage}}\caption{名詞句の数を推定する規則}\label{fig:rule_kouzou_suu}\end{center}\end{figure}規則は指示性の場合に図\ref{fig:rule_kouzou_sijisei},数の場合に図\ref{fig:rule_kouzou_suu}の構造をしている.図の「規則の適用条件」には,その規則が適用されるかどうかの条件として,後で説明する依存構造の表現の形で文中の手がかりとなる表現を記述する.各分類には「可能性」と「得点」を一つずつ与えている.「可能性」は1か0のみであり,「得点」は0から10の間の整数である.「可能性」が1の分類がただ一つ求まった場合は,その分類を推定の結果とする.「可能性」が1の分類が複数ある場合は,その中で「得点」が最も大きい分類を推定の結果とする.同点の場合は同点の分類すべてを推定の結果とする.\begin{figure}[t]\small\begin{center}\fbox{\begin{minipage}[c]{300pt}\baselineskip=16pt\hspace*{0cm}\protect\verb+依存構造の表現::=(文節依存構造の表現依存構造の表現...)+\\\hspace*{0cm}\protect\verb+文節::=<単語単語...>+\\\hspace*{0cm}\protect\verb+単語::=[品詞品詞細分類活用型活用形基本形変化形]+\end{minipage}}\caption{依存構造の表現の基本要素の形式}\label{fig:s_eps}\end{center}\end{figure}\begin{figure}[t]\small\begin{center}\fbox{\begin{minipage}[c]{340pt}\begin{center}\begin{minipage}[c]{260pt}\baselineskip=0pt{\hspace*{0.000cm}\protect\verb+彼は──┐+\\\hspace*{0.000cm}\protect\verb+その──┐│+\\\hspace*{0.000cm}\protect\verb+弁護士の──┐│+\\\hspace*{0.000cm}\protect\verb+息子の──┤+\\\hspace*{0.000cm}\protect\verb+一人です.+}\center{(a):依存構造}\end{minipage}\end{center}\vspace{3mm}\begin{center}\begin{minipage}[c]{260pt}\baselineskip=12pt\hspace*{0cm}\protect\verb+(<[名詞普通名詞+\_\verb++\_\verb+一人一人]+\\\hspace*{0.33cm}\protect\verb+[判定詞+\_\verb+判定詞デス列基本形だです]+\\\hspace*{0.33cm}\protect\verb+[特殊句点+\_\verb++\_\verb+..]>+\\\hspace*{0.33cm}\protect\verb+(<[名詞普通名詞+\_\verb++\_\verb+息子息子]+\\\hspace*{0.84cm}\protect\verb+[助詞名詞接続助詞+\_\verb++\_\verb+のの]>+\\\hspace*{0.84cm}\protect\verb+(<[名詞普通名詞+\_\verb++\_\verb+弁護士弁護士]+\\\hspace*{1.36cm}\protect\verb+[助詞名詞接続助詞+\_\verb++\_\verb+のの]>+\\\hspace*{1.36cm}\protect\verb+(<[指示詞+\_\verb++\_\verb++\_\verb+そのその]>)))+\\\hspace*{0.33cm}\protect\verb+(<[名詞普通名詞+\_\verb++\_\verb+彼彼]+\\\hspace*{0.84cm}\protect\verb+[助詞副助詞+\_\verb++\_\verb+はは]+\\\hspace*{0.84cm}\protect\verb+[特殊読点+\_\verb++\_\verb+,,]>))+\center{(b):依存構造の表現}\end{minipage}\end{center}{\hspace*{2cm}(a)に示す依存構造は(b)に示す形に表現される.}\end{minipage}}\caption{入力文「彼はその弁護士の息子の一人です.」を表わす表現}\label{fig:弁護士_csan}\end{center}\end{figure}\subsection{システムの動作}\label{sec:system}文中の名詞句の指示性と数の推定は次のようなステップで行なわれる.\begin{itemize}\item[(1)]与えられた文の形態素解析,構文解析\footnote{形態素解析,構文解析は参考文献\cite{Matsumoto1992,Kurohashi1992}のものを用いた.}が行なわれ,依存構造の表現に変換される.この依存構造の表現は図\ref{fig:s_eps}のような形式のものであり,文節間の係り受けの情報を含んだ表現である.その例を図\ref{fig:弁護士_csan}に示す.\item[(2)]依存構造の表現に変換された文の名詞句を文頭から順に推定する\footnote{このため,既に推定された指示性と数は後に出てくる名詞句の解析の時に手がかりとして使用できる(例:\ref{subsec:abs_rule}節の具体例(c)(d)).}.各名詞句に対しては指示性を先に数を後に推定する\footnote{このため,数の推定には指示性の解析結果を用いることができる(例:\ref{subsec:num_rule}節の規則の例の3).}.指示性の推定は,指示性の規則をすべて用いて各分類の「可能性」と「得点」を計算する.この「可能性」と「得点」から\ref{sec:point}節で述べたように指示性を推定する.数の推定も同様である.規則の適用条件は依存構造の表現に似た形で表す.例えば,「その」がかかる名詞句を表現する場合は,図\ref{fig:その}のような構造となる.図中の``\verb+-+''は任意の依存構造の表現の部分を表す.このような適用条件の表現と入力文の依存構造の表現とを比較して規則が適用されるか否かを決定する.規則の適用条件の部分には,正規表現,論理和,論理積,否定などを書くことができる.また,比較部分を指定することによって文章中の任意の部分と比較することができる.\item[(3)]上記(2)で得られる推定の結果を図\ref{fig:弁護士_noun}に示す形で出力する.\end{itemize}\begin{figure}[t]\small\begin{center}\fbox{\begin{minipage}[c]{300pt}\baselineskip=12pt\hspace*{1.10cm}\protect\verb+(<[名詞-]>+\\\hspace*{1.6cm}\protect\verb+(<[指示詞+\_\verb++\_\verb++\_\verb+そのその]>)-)+\end{minipage}}\caption{「その」がかかる名詞句を表す規則の適用条件の表現}\label{fig:その}\end{center}\end{figure}\begin{figure}[t]\small\begin{center}\fbox{\begin{minipage}[c]{300pt}\baselineskip=12pt\begin{center}\begin{minipage}[c]{220pt}\baselineskip=12pt\hspace*{0cm}\protect\verb+(<[名詞普通名詞+\_\verb++\_\verb+一人一人不定単数]+\\\hspace*{0.33cm}\protect\verb+[判定詞+\_\verb+判定詞デス列基本形だです]+\\\hspace*{0.33cm}\protect\verb+[特殊句点+\_\verb++\_\verb+..]>+\\\hspace*{0.33cm}\protect\verb+(<[名詞普通名詞+\_\verb++\_\verb+息子息子定複数]+\\\hspace*{0.84cm}\protect\verb+[助詞名詞接続助詞+\_\verb++\_\verb+のの]>+\\\hspace*{0.84cm}\protect\verb+(<[名詞普通名詞+\_\verb++\_\verb+弁護士弁護士定単数]+\\\hspace*{1.36cm}\protect\verb+[助詞名詞接続助詞+\_\verb++\_\verb+のの]>+\\\hspace*{1.36cm}\protect\verb+(<[指示詞+\_\verb++\_\verb++\_\verb+そのその]>)))+\\\hspace*{0.33cm}\protect\verb+(<[名詞普通名詞+\_\verb++\_\verb+彼彼定単数]+\\\hspace*{0.84cm}\protect\verb+[助詞副助詞+\_\verb++\_\verb+はは]+\\\hspace*{0.84cm}\protect\verb+[特殊読点+\_\verb++\_\verb+,,]>))+\end{minipage}\end{center}\end{minipage}}\caption{図6の文に対する指示性と数の判定結果の表現}\label{fig:弁護士_noun}\end{center}\end{figure}システムでは文章ごとに解析しており,文章全体の表層表現を利用できるようにしている.これは同一名詞が既出のとき適用される規則に用いられる.\subsection{解析の対象から除外した名詞句}時間を表わす名詞句,「中」\hspace*{-.5em}「上」\hspace*{-.5em}「左」\hspace*{-.5em}「右」\hspace*{-.5em}「下」\hspace*{-.5em}「後」\hspace*{-.5em}「前」\hspace*{-.5em}「近く」\hspace*{-.5em}「遠く」\hspace*{-.5em}「別」\hspace*{-.5em}「他」\hspace*{-.5em}のよ\\うな名詞を主要部に持つ名詞句,「本当の」「普通の」「役に立つ」などの連体詞の一部とみなせる名詞を主要部に持つ名詞句は対象から除外した.「\underline{〜のまま}」「\underline{〜する程}」,「\underline{〜する訳}でない」,「\underline{〜する度}」の下線部に当たる名詞句なども除外した.\hspace*{-2mm}「大分」\hspace*{-2mm}「全員」\hspace*{-2mm}「\underline{一緒}に」\hspace*{-2mm}などの副詞とみなせるものも除外した.以上の名詞句以外は,対訳の英語文では名詞に訳されていない場合でもすべて解析の対象とした.
\section{推定に用いる規則}
label{sec:rule}規則は日本語,英語の文法書\cite{Kokuritukokugokenkyusho1978,Kumayama1985,Ikeuchi1985}を参考として作ったが,実験対象テキストを見て独自に考えて作ったものもある.実験中に新たな規則を随時追加していったが,現時点ですべてを網羅できているとはいえない.現在の規則の数は,指示性が86個で,数が48個である\footnote{すべての規則は文献\cite{Murata1993A}にある.}.次に規則の例をあげる.\subsection{指示性の規則}\label{subsec:abs_rule}\begin{enumerate}\item指示詞(「この」や「その」など)によって修飾される時,\\\{\mbox{不定名詞句}(00)\,\mbox{定名詞句}(12)\,\mbox{総称名詞句}(00)\}\footnote{各分類の「可能性」と「得点」を表わす.図\ref{fig:rule_kouzou_sijisei}参照.}\\(例文)\underline{\.こ\.の本}はおもしろい.\\(訳文)\underline{Thisbook}isinteresting.\item名詞句につく助詞が「は」で述語が過去形の時,\\\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(13)\,\mbox{総称名詞句}(11)\}\\(例文)\underline{犬}\.は向うに\.行\.き\.ま\.し\.た.\\(訳文)\underline{Thedog}wentaway.\item名詞句につく助詞が「は」で述語が現在形の時,\\\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(12)\,\mbox{総称名詞句}(13)\}\\(例文)\underline{犬}\.は役に立つ動物\.で\.す.\\(訳文)\underline{Dogs}\footnote{主語が総称名詞句になる場合であるので``adog''でも``thedog''でもよい.}areusefulanimals.\item名詞句につく助詞が「へ」「まで」「から」の時,\\\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(12)\,\mbox{総称名詞句}(10)\}\\(例文)彼を\underline{空港}\.ま\.で迎えに行きましょう.\\(訳文)Letusgotomeethimat\underline{theairport}.\item名詞句につく助詞が「の」で体言にかかる時\footnote{名詞句につく助詞が「の」で体言にかかる場合,いつでも総称名詞句であるとは限らない.しかし,「の」は旧情報と結び付きやすい性質を持っており,ほとんど定名詞句と総称名詞句のいずれかである.定名詞句の場合は他の情報により推定可能になると考え,総称名詞句により高い得点を与えている.},\\\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(12)\,\mbox{総称名詞句}(13)\}\\(例文)彼は\underline{教育}\.の\.価\.値を認識していません.\\(訳文)Hedoesn'trealizethevalueof\underline{education}.\end{enumerate}他にも,(i)「地球」「宇宙」のような名詞句自身から定名詞句と推定する規則\footnote{\label{foot:tikyuu}これは本来的には語の意味として取り扱うのが適切だろうが,これまで取り扱ってきた場合の特殊な場合と位置付けて規則の形で処理することにしている.},(ii)名詞句に数詞がかかることから総称名詞句以外と推定する規則,(iii)同一名詞の既出により定名詞句と推定する規則,(iv)「いつも」「昔は」「〜では」のような副詞が動詞にかかることから総称名詞句と推定する規則,(v)「〜が好き」「〜を楽しむ」のような動詞から総称名詞句と推定する規則,(vi)「用」「向き」のような接尾辞から総称名詞句と推定する規則などがある.手がかりとなる語がない時は不定名詞句と推定するようにしている\footnote{ここであげた規則の他に,「息子」「お腹」などの親族呼称,体の一部を意味する名詞句は定名詞句である割合が高いので,定名詞句であると推定する規則を追加した方が良いと思われる.ただし,この規則は5節で述べるテストサンプルの実験の後に作成したものであるので,5節での実験では用いていない.しかし,この規則の有効性を確かめるためこの規則を追加して実験したところ,5節で述べる指示性の精度に比べ学習サンプルでは0.4\%下がり,テストサンプルでは3\%上がるという結果となった.これは学習サンプルでは親族呼称,体の一部を意味する名詞句が定名詞句以外で使われる例が意外に多かったためで,一般のテキストでは親族呼称,体の一部の規則を利用した方がよいと思われる.このとき,親族呼称,体の一部を意味する名詞の判定には,分類語彙表\cite{Kokuritukokugokenkyusho1964}を用いている.分類語彙表の分類番号が121ではじまるものを親族呼称とし,157ではじまるものを体の一部とした.}.\vspace{3mm}例として,次の文の中に現れる名詞句「我々が昨日摘みとった果物」に注目し,これにどのような規則が適用され得点がどのようになるか,具体的に説明する.\newpage\noindent\underline{我々が昨日摘みとった果物}は味がいいです.\\\underline{Thefruitthatwepickedyesterday}tastesdelicious.\bigskip\vspace*{-.5mm}以下のように七つの規則が適用され,この「果物」は定名詞句と推定された.\begin{itemize}\item[(a)]名詞句につく助詞が「は」で述語が現在形の時,\\(果物\.は味が\.い\.い\.で\.す.)\footnote{規則が適用される手がかりとなる表現.}\\\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(12)\,\mbox{総称名詞句}(13)\}\item[(b)]述部が過去形の節が係る時,\\(摘み\.と\.っ\.た)\\\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(10)\}\item[(c)]「は」か「が」がついた定名詞句を含む節が係る時,\\(\.我\.々\.が)\\\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(10)\}\item[(d)]助詞がついた定名詞句を含む節が係る時,\\(\.我\.々が)\\\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(10)\}\item[(e)]代名詞を含む節が係る時,\\(\.我\.々が)\\\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(10)\}\item[(f)]名詞句につく助詞が「は」で述語が形容詞の時,\\(果物\.は味が\.い\.い\.で\.す.)\\\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(13)\,\mbox{総称名詞句}(14)\}\item[(g)]主要部の名詞が普通名詞の時,\\(果物)\\\{\mbox{不定名詞句}(11)\,\mbox{定名詞句}(10)\,\mbox{総称名詞句}(10)\}\end{itemize}\smallskipこれらすべての規則の適用の結果として「果物」の最終の「可能性」と「得点」は,\\\hspace*{9mm}\{\mbox{不定名詞句}(11)\,\mbox{定名詞句}(19)\,\mbox{総称名詞句}(17)\}\\となり,定名詞句と推定された.\subsection{数の規則}\label{subsec:num_rule}\begin{enumerate}\item「その」「この」「あの」によって修飾される時,\\\{\mbox{単数}(13)\,\mbox{複数}(10)\,\mbox{不可算}(11)\}\\(例文)\underline{\.あ\.の本}をください.\\(訳文)Giveme\underline{thatbook}.\item名詞句につく助詞が「は」「が」「も」「を」で,述部に数詞が係る場合,\\数詞の数が単数の時,\\\{\mbox{単数}(12)\,\mbox{複数}(10)\,\mbox{不可算}(10)\}\\数詞の数が複数の時,\\\{\mbox{単数}(10)\,\mbox{複数}(12)\,\mbox{不可算}(10)\}\\(例文)\underline{りんご}\.を\.二\.個食べる.\\(訳文)Ieattwo\underline{apples}.\item名詞句の指示性が総称名詞句と推定されており,係り先の動詞が「が好きです」「を楽しむ」などのように,総称の名詞句を格にとる場合,\\\{\mbox{単数}(10)\,\mbox{複数}(12)\,\mbox{不可算}(10)\}\\(例文)私は,\underline{りんご}\.が\.好\.き\.で\.す.\\(訳文)Ilike\underline{apples}.\end{enumerate}他にも,(i)「空気」「水」のような名詞句自身から不可算と推定する規則,(ii)「達」「ら」のような接尾辞から複数と推定する規則,(iii)数詞が係ることにより推定する規則,(iv)名詞述語文における主語と述語の数が一致することにより推定する規則,(v)「集める」「溢れる」などの動詞から推定する規則,(vi)「いくらでも」「何度でも」のような副詞が動詞にかかることから推定する規則などがある.手がかりとなる語がない時は単数と推定するようにしている.
\section{実験と考察}
label{sec:jikken}\subsection{実験の準備}\label{sec:junbi}\begin{table}[t]\small\caption{総称名詞句とした名詞句の例(下線部の名詞を主要部に持つ名詞句)}\label{fig:sousyou}{\begin{center}\begin{tabular}{|l|}\hline(1)\underline{ラクダ}は\underline{水}を飲まなくても長い間歩くことができます.\\(2)ワシントンスクールから一クラスの学生たちが,昨日,\underline{見学}にいきました.\\(3)多くの若い\underline{男}の\underline{人たち}は\underline{陸軍}に兵役します.\\(4)\underline{紳士}は普通\underline{淑女}のために\underline{ドア}を開けます.\\(5)有名なシャ−ロックホ−ムズ探偵の物語は大抵ロンドン地域を\underline{背景}にしたものです.\\(6)彼はクリスマスの\underline{贈り物}に本を買いました.\\(7)ワールドカップ大会の決勝戦は,\underline{タンゴ}のアルゼンチンと\underline{行進曲}の西ドイツとの勝負だ.\\[0.1cm]\hline\end{tabular}\end{center}}\end{table}実験に用いたテキストは名詞句の指示性と数の正解の分類がわかりやすいように日英の対訳がある文章に限った.実験対象のテキストの各名詞句に対してあらかじめ正解の分類を人手で決定した.正解の決定の際には対訳の英語文を見て行なったが,必ずしも冠詞にとらわれることなく\ref{sec:riron}節で説明した分類の定義によって正解を決定した.指示性の分類については,総称名詞句の判定は極めて困難であり,表~\ref{fig:sousyou}のようなものを総称名詞句としたが,正解が間違っている可能性がある.以下,正解とはこの人手による分類のことをいう.数の分類については,対訳の英語文で名詞に訳されているものは冠詞に合わせて正解を設定した.明らかに複数とか不可算とわかるものはそのように設定し,それ以外は単数とした.総称名詞句が主語に来る場合は冠詞が何になるのかわからないので,数の分類は単数でも複数でも不可算でもいいことにして正解は「未定」\footnote{各分類の得点が同点の時のみ正解とする分類.}とした.\begin{table}[t]\small\caption{学習サンプル}\label{tab:kanshi_d}\begin{center}{\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|r|r|}\hline&\multicolumn{5}{c|}{指示性}&\multicolumn{5}{c|}{数}\\\hline\multicolumn{1}{|c|}{評価}&不定&定&総称&その他&総数&単数&複数&不可算&その他&総数\\\hline\multicolumn{11}{|c|}{英語冠詞用法辞典(140文,380名詞句)}\\\hline正解&96&184&58&1&339&274&32&18&25&349\\正解を含む&0&3&1&0&4&1&1&1&0&3\\部分解&0&0&0&0&0&0&0&0&11&11\\不正解&4&25&7&1&37&3&10&0&4&17\\\hline正解率&96.0&86.8&87.9&50.0&89.2&98.6&74.4&94.7&62.5&91.8\\\hline\multicolumn{11}{|c|}{こぶとりじいさん(104文,267名詞句)}\\\hline正解&73&140&6&1&222&205&24&5&0&234\\正解を含む&3&4&0&0&7&2&0&0&0&2\\部分解&0&0&0&0&0&0&0&0&7&7\\不正解&11&23&4&0&38&1&22&1&0&24\\\hline正解率&83.9&84.0&60.0&100.0&83.2&98.7&52.2&83.3&0.0&87.6\\\hline\multicolumn{11}{|c|}{天声人語(23文,98名詞句)}\\\hline正解&25&35&16&0&76&64&13&0&3&80\\正解を含む&0&4&2&0&6&2&1&0&0&3\\部分解&0&0&0&0&0&0&0&0&6&6\\不正解&5&10&1&0&16&1&6&1&1&9\\\hline正解率&83.3&71.4&84.2&-----&77.6&95.5&65.0&0.0&30.0&81.6\\\hline全体での出現率&29.1&57.7&12.8&0.4&100.0&74.2&14.6&3.5&7.7&100.0\\全体での正解率&89.4&84.0&84.2&66.7&85.5&98.2&63.3&88.5&49.1&89.0\\\hline\end{tabular}}\end{center}\end{table}\subsection{実験}\ref{sec:system}節で述べたように指示性と数の推定の前に形態素・構文解析を行なうが,そこでの誤りは人手で修正した.まず,三つの資料\{英語冠詞用法辞典\cite{Kumayama1985}の典型的な用法の例文(140文,解析した名詞句380個),物語の「こぶとりじいさん」\cite{Nakao1985}全文(104文,解析した名詞句267個),86年7月1日の天声人語(23文,解析した名詞句98個)\}を学習サンプルとして実験を行なった.システムには正解を入力して自動的に正解率を出力できるようにして,正解率が向上するように規則を変更,追加した.最も正解率が良くなった規則の時の正解率を表\ref{tab:kanshi_d}に示す.このとき,三つの資料に対してはすべて同じ規則で実験を行なった.規則の変更,追加は,学習サンプルでのすべての誤り箇所に対して以下のことを行なうことによって実現する.\begin{enumerate}\item\label{enum:error_mod}誤り箇所を見て規則の変更・追加を行なう.具体的には,誤り箇所の周辺の表層表現を眺め,新たに規則を作成できないかを考える.また,このとき適用されている規則の条件部や得点を変更することでこの誤り箇所を直すことができないかを調べる.\item\ref{enum:error_mod}のルールの変更・追加を行なった後に実験を行ない全体の正解率が上がるか下がるかを調べる.正解率が上がれば\ref{enum:error_mod}で行なった変更・追加を正式に採用する.正解率が下がった場合は,\ref{enum:error_mod}で行なった変更・追加は行なわず,\ref{enum:error_mod}の検討を何回か行なう.\end{enumerate}このとき,大雑把に誤り例を調べ,同じ理由で誤ったもので,規則を追加することでそれらを改善できる場合はその規則を追加するということも行なう.また,ある規則を追加するべきかどうかが問題となったときに,その規則が適用される箇所をすべて出力し,それらを総合的に眺めた上で判断する場合もある.\begin{table}[t]\caption{テストサンプル}\label{tab:turu_d}\begin{center}{\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|r|r|}\hline&\multicolumn{5}{|c|}{指示性}&\multicolumn{5}{c|}{数}\\\hline\multicolumn{1}{|c|}{評価}&不定&定&総称&その他&総数&単数&複数&不可算&その他&総数\\\hline\multicolumn{11}{|c|}{つるのおんがえし(263文,699名詞句)}\\\hline正解&109&363&13&10&495&610&13&1&1&625\\正解を含む&6&25&0&0&31&12&2&0&0&14\\部分解&0&0&0&0&0&0&0&0&1&1\\不正解&32&135&6&0&173&2&20&37&0&59\\\hline正解率&74.2&69.4&68.4&100.0&70.8&97.8&37.1&2.6&50.0&89.4\\\hline\multicolumn{11}{|c|}{天声人語(75文,283名詞句)}\\\hline正解&75&81&16&0&172&197&13&2&3&215\\正解を含む&8&9&1&0&18&3&1&0&0&4\\部分解&0&0&0&0&0&0&0&0&3&3\\不正解&33&51&9&0&93&3&55&3&0&61\\\hline正解率&64.7&57.5&61.5&-----&60.8&97.0&18.8&40.0&50.0&76.0\\\hline\multicolumn{11}{|c|}{冷戦後世界と太平洋アジア(22文,192名詞句)}\\\hline正解&21&108&11&2&142&157&6&1&1&165\\正解を含む&6&7&0&0&13&3&0&0&0&3\\部分解&0&0&0&0&0&0&0&0&0&0\\不正解&11&24&2&0&37&3&20&1&0&24\\\hline正解率&55.3&77.7&84.6&100.0&74.0&96.3&23.1&50.0&100.0&85.9\\\hline全体での出現率&25.6&68.4&4.9&1.0&100.0&84.3&11.1&3.8&0.8&100.0\\全体での正解率&68.1&68.7&69.0&100.0&68.9&97.4&24.6&8.9&55.6&85.6\\\hline\end{tabular}}\end{center}\end{table}以上の学習サンプルでの実験では新しい文での正解率がわからない.そこで,以上のようにして作った規則を固定して,新たな三つの資料\{物語の「つるのおんがえし」\cite{Nakao1985}全文(263文,解析した名詞句699個),86年7月8,9,15日の天声人語の三回分(75文,解析した名詞句283個),冷戦後世界と太平洋アジア$\langle$国際文化会館会報Vol.3No.21992年4月号$\rangle$(22文,解析した名詞句192個)\}をテストサンプルとして実験を行なった.これらの正解率を表\ref{tab:turu_d}に示す.表中の「正解」は推定の結果が正解と一致した場合である.「正解を含む」は推定の結果の中に正解の分類がある場合である.例えば,正解が定名詞句で推定の結果が定名詞句と不定名詞句が同点で得られた場合,「正解を含む」となる.「部分解」は推定の結果が正解に含まれる場合である.「不正解」は以上の評価以外のものである.「正解率」は「正解」の個数を総数で割ったものである.「全正解率」は三つの資料全てにおける正解率である.「出現率」は各分類の個数を総数で割ったものである.「その他」は,単数と複数と不可算の得点が同点の時のみ正解とする「未定」のように,複数個の分類が正解になるものの個数である.\subsection{考察}\subsubsection{指示性の実験に対する考察}正解率が上がるようにテキストの表現に対して規則を変更して実験した学習サンプルのテキスト全体での正解率は85.5\%であった.また,各分類に対する正解率も極端に悪いものはない.このことから表層表現を手がかりとした我々の方法で極めて多くの名詞句の指示性が推定できることがわかった.規則を固定して実験したテストサンプルのテキスト全体での正解率は,68.9\%であった.また,各分類に対する正解率もほぼ均等に良くすべて50\%以上である.つるのおんがえしの実験では,定名詞句の出現率が74.8\%であったのですべての解析結果を定名詞句にする規則を作ると正解率が74.8\%になり実験の正解率の70.8\%より高くなるが,不定名詞句と総称名詞句の正解率が0\%になるので意味がない.われわれはそれぞれの分類が均等に良い正解率が得られることに価値があると考えている.テストサンプルのテキストでの正解率はあまり良くないが,規則を修正すれば容易に上がると考えられる.しかし,新しい文章に対する正解率を上げようとするとどこまでも規則を増やしていかねばならないという危険性がある.規則を変更しても解析が失敗する例として,表\ref{fig:false_tei},表\ref{fig:false_sousyou}がある.表\ref{fig:false_tei}は定名詞句であるのに,定名詞となる手がかりがなく解析を失敗したものである.これを解決するには文脈や発話状況などの表層表現以外の情報が必要である.表\ref{fig:false_sousyou}は総称名詞句であるのに,解析を失敗したものである.それぞれの例に対して失敗した理由を付けている.総称名詞句は判断が難しく,成功はしているが正解があっているのか不確かな例もある.\begin{equation}\underline{ラクダ}は\underline{水}を飲まなくても長い間歩けます.\label{eqn:rakuda}\end{equation}\vspace*{-.3mm}という文の「ラクダ」は明らかに総称名詞句であるが,「水」は総称名詞句でいいのだろうか.総称名詞句は他と明確に区別して考えにくく種々の性質のものがありそうなので,新たに分類を考え直さなくてはならないだろう.\setcounter{bottomnumber}{2}\begin{table}[t]\small\caption{解析を失敗した定名詞句の例(下線部の名詞を主要部に持つ名詞句)}\label{fig:false_tei}{\begin{center}\begin{tabular}{|p{300pt}|}\hline(1)彼は\underline{社長}の兄さんです.\\(2)ジョンは\underline{クラス}の中で一番背が高い.\\(3)彼女は\underline{テーブル}のほこりを取り除くためにふきんを使いました.\\(4)\underline{仕事}で難しい所がありましたが,克服しました.\\(5)私は\underline{先生}と同じ本を持っています.\\(6)車は\underline{道}の\underline{わき}に駐車してあります.\\(7)ジョンソン教授は\underline{学会}で\underline{論文}を読みました.\\[0.1cm]\hline\end{tabular}\end{center}}\end{table}\begin{table}[t]\small\caption{解析を失敗した総称名詞句の例(下線部の名詞句)}\label{fig:false_sousyou}{\begin{center}\begin{tabular}{|l|}\hline(1)修飾節で限定され定名詞句になる例\\\underline{それ自体を守ろうとしない文化}は滅びます.\\[0.1cm]\hline(2)述語が過去形のために定名詞句になる例\\\underline{中国人}は独自の文字を発明しました.\\[0.1cm]\hline(3)判定詞「だ」がつくために不定名詞句になる例\\日本の社会では父親は\underline{家長}です.\\[0.1cm]\hline(4)手がかりがなく不定名詞句になる例\\\underline{食物}がおいしければおいしいほど,たくさん食べます.\\普通\underline{肺炎}にかかると入院しなければなりません.\\[0.1cm]\hline\end{tabular}\end{center}}\end{table}これ以外の成功した例でも深く考察すると表層表現で推定できるのか疑問なものがある.\begin{equation}\mbox{これは\underline{\.私\.が\.彼\.か\.ら\.借\.り\.た辞書}です.}\label{eqn:kari_jisyo}\end{equation}この文の「私が彼から借りた辞書」は修飾節により限定されていて定名詞句と解析される.しかし,この「私が彼から借りた辞書」は,「私」が「彼」から複数の辞書を借りており,そのうちの一つを指す場合には不定名詞句となる.つまり,ある程度の知識がなければ定名詞句か不定名詞句かの判断ができない.\subsubsection{数の実験に対する考察}正解率が上がるようにテキストの表現に対して規則を変更して実験した学習サンプルとしてのテキスト全体での正解率は,89.0\%であった.しかし,「複数」の正解率が全体的に悪い.また,「不可算」は不可算名詞句としてあらかじめ登録してあるので見かけ上正解率は高いが,問題がないわけではない.規則を固定して実験したテストサンプルとしてのテキスト全体での正解率は,85.6\%であった.しかし,「複数」「不可算」の正解率は悪く,「単数」の出現率と正解率が高いおかげで高い正解率が出ているにすぎない.また,その「単数」の正解率が高いのも,手がかりのないときは「単数」と推定させているからにすぎない.正解が「複数」である名詞句で,解析が失敗した例に以下の下線部の名詞句がある.\begin{equation}\underline{あなたが注文した建築材料}がきました.\label{eqn:kentiku}\end{equation}手がかりがなく,解析結果は「単数」となってしまう.これを「複数」と判定できるようにするには,「建築材料」という名詞自身から「複数」と判定できるようにしなければならない.しかし,いつでも「建築材料」が「複数」とは限らない.数量表現以外から「複数」とわかった例として以下の下線部の名詞句がある.\hspace*{-2mm}\begin{equation}\mbox{その事故が発生してから\underline{野次馬}\.が\.集\.ま\.っ\.てきました.}\label{eqn:jiko}\end{equation}\vspace*{-.3mm}「が集まる」から「野次馬」が「複数」と解析された.このような規則を作っていけば,数が明\\示されていなくても名詞句の数がわかる場合がある.しかし,以下の例のように間違う場合もある.\begin{equation}\hspace*{-0.3cm}\mbox{\underline{シュート}\.を\.浴\.び\.たゴールキーパーが,右のてのひらを裂いた.}\label{eqn:shoot}\end{equation}\vspace*{-.3mm}「を浴びる」の規則は実験では「複数」と「不可算」が強いとしていたが,一発のシュートで手\\を裂いたので,上のシュートは「単数」である.動詞からの推定もそう安易なものではない.\begin{table}[t]\small\leavevmode\caption{数を推定するのに利用できそうな動詞の例}\begin{center}\label{tab:num_verb}\begin{tabular}{|p{13cm}|}\hline浴びる,吹きかける,まぶす,わきでる,そろえる,たてこむ,うもれる,流れる,吸い出す,しみる,もれる,そそぐ,もぐる,こぼれる,散らばる,群がる,押し寄せる,並べる,連ねる,増える,溢れる,折り重ねる,数える,飲む,どよめく\\\hline\end{tabular}\end{center}\end{table}学習サンプル,テストサンプルでの実験の後,「集まる」「並べる」「浴びる」などの動詞から数を推定する規則について考察した.分類語彙表の動詞の部分をながめ,数の推定に利用できそうな動詞を約300個人手で抽出した.その例を表\ref{tab:num_verb}にあげる.また,これらの動詞から数を推定できる名詞句がどれくらいの割合で出現するかを調べた.85年2月の天声人語一カ月分のうち構文解析が成功した文(526文,名詞2680個)に対して動詞から数を推定できる名詞句の数を数えたところ21個存在した.この数は少ないがそれでも数を解析できる名詞句が増えるので,動詞から数を推定する規則も利用する必要があると考える.
\section{おわりに}
label{sec:end}学習サンプルでの正解率は,指示性で85.5\%,数で89.0\%であり,テストサンプルでの正解率は,指示性で68.9\%,数で85.6\%であった.指示性の推定における課題としては,次の二つのことが残っている.一つは,人間が見ると状況から定名詞句であることが明らかであるのに推定できていない場合である.状況の情報をうまく使えるようになれば,推定できるようになる.しかし,このときも知識だけでなく表層表現と知識の連携が必要であろう.もう一つは,総称名詞句に関することである.総称名詞句は他の分類とはっきりと区別して定義することが難しいという性質をもっており,まだまだ考えてゆかなければならない問題である.しかし,現時点で総称名詞句としているものは表層表現を手がかりとして,ある程度取り出すことができるので,分類がどう変化しても本研究で用いた規則の適用条件の部分はそのまま使えると期待できる.数の方は数量詞のような表層表現があれば容易に推定できるがいつでも数量詞があるとは限らないので数の推定はそう容易ではない.しかし,数量詞のような表層表現がなくても,動詞「集める」や副詞「いくらでも」などの表層表現によって数を推定できる場合がある.このような規則によって推定できるものは少しではあるが,それでも解析できる名詞句の数が少しでも増えることになるので,このような規則も利用するべきであると考える.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部電気工学第二学科卒業.1995年同大学院修士課程修了.同年,同大学院博士課程進学,現在に至る.自然言語処理,機械翻訳の研究に従事.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程修了.同年,京都大学工学部助手,現在に至る.自然言語処理,知識情報処理の研究に従事.1994年4月より1年間Pennsylvania大学客員研究員.}\bioauthor{長尾真}{1959年京都大学工学部電子工学科卒業.工学博士.京都大学工学部助手,助教授を経て,1973年より京都大学工学部教授.国立民族学博物館教授を兼任(1976.2--1994.3).京都大学大型計算機センター長(1986.4--1990.3),日本認知科学会会長(1989.1--1990.12),パターン認識国際学会副会長(1982--1984),日本機械翻訳協会初代会長(1991.3--1996.6),機械翻訳国際連盟初代会長(1991.7--1993.7).電子情報通信学会副会長(1993.5--1995.4).情報処理学会副会長(1994.5--1996.4).京都大学附属図書館長(1995--).パターン認識,画像処理,機械翻訳,自然言語処理等の分野を並行して研究.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V05N01-06 | \section{はじめに}
\label{sec:introduction}文書検索では,検索対象の文書集合が大きくなるにつれ,高速/高精度な検索が困難になる.例えば,AltaVista~\footnote{{\tthttp://altavista.digital.com}}に代表されるインターネット上のキーワード検索エンジンでは,検索時に入力されるキーワード数が極端に少ないため~\footnote{AltaVistaでは平均2個弱のキーワードしか入力されない},1)望んた文書が検索されない(再現率の問題),2)望まない文書が大量に検索される(適合率の問題),といった問題が生じている.そのため,要求拡張(queryexpansion)~\cite{smeaton:83:a,peat:91:a,schatz:96:a,niwa:97:a},関連度フィードバック(relevancefeedback)~\cite{salton:83:a,salton:90:a}などの手法が提案されてきた.これらの手法はいずれも,要求となるキーワード集合を拡張したり洗練したりすることで,ユーザの検索意図を明確かつ正確なものに導いていく.これに対し,検索時にキーワード集合ではなく文書それ自身を入力し,入力文書と類似する文書を検索する方法が考えられる~\cite{wilbur:94:a}.この検索方法を{\gt文書連想検索}と呼ぶ.文書連想検索が有効なのは,検索要求と関連する文書を我々が既に持っているという状況や,キーワード検索の途中で関連する文書を一つでも見つけたという状況である.また,論文,特許など,我々自身が書いた文書もそのまま検索入力として利用できる.文書連想検索を使うことにより,適切なキーワード集合を選択することなしに,関連する文書を見つけることができる.文書連想検索を実現する際の問題点は,類似文書の検索に時間がかかることである.単純な網羅検索では,検索対象の大きさ$N$に比例した$O(N)$の時間を要する.そこで本論文では,{\gtクラスタ検索}~\cite{salton:83:a}と呼ばれる検索方法を用いる.クラスタ検索では,通常,クラスタリングによりクラスタの二分木をあらかじめ構築しておき~\footnote{クラスタリングにも,対象データ集合を平坦なクラスタ集合に分割する方法(非階層的クラスタリング)もあるが~\cite{anderberg:73:a},本論文では,クラスタの階層的な木構造を構築する方法(階層的クラスタリング)に限る.また,クラスタ木も相互背反な二分木に限る.},その上でトップダウンに二分木検索を行う.よって,検索時間は平均$O(\log_2N)$に抑えられる.ところが,クラスタ検索に関する従来の研究~\cite{croft:80:a,willett:88:a}では,単純な二分木検索では十分な検索精度が得られないという問題があった.その理由の一つは,クラスタリング時と検索時に異なる距離尺度を用いていたことである.ほとんどの研究では,クラスタリングの手法として単一リンク法,Ward法などを用いていたが,これらの手法は,後の検索で使われる尺度(例えば,TF$\cdot$IDF法や確率)とは直接関係のない尺度でクラスタの二分木を構築していく.これに対し本論文では,クラスタリングの対象文書それぞれを自己検索した際の精度を最大化していく確率的クラスタリングを提案する.よって本クラスタリング法は,検索に適した手法であると言える.実際に,クラスタ検索に本クラスタリング法を用いた場合,単純な二分木検索でも十分な検索精度を得ることができる.検索速度が速い点に加え,クラスタ検索には幾つかの利点がある.クラスタ検索が提案されたそもそもの理由は,「密接に関連した文書群は,同じ検索要求に対する関連性も同等に高い」という{\gtクラスタ仮説}~\cite{van-rijsbergen:74:a}である.通常のキーワード検索では,検索要求と単一文書を厳密なキーワード符合に基づいて比較するため,キーワードの表記の異なりにより関連する文書をとり逃すこともあるが,クラスタ検索では,検索要求を意味的にまとまった文書集合(クラスタ仮説で言うところの「密接に関連した文書群」)と比較するため,この問題も起りにくくなる.クラスタ仮説は,特に検索精度の向上という点において実験的に検証されていない仮説であったが,近年,Hearst等により,キーワード検索で検索した文書集合を絞りこむという状況で,その有効性が実証されている~\cite{hearst:96:a}.本論文では,クラスタ検索が検索対象に含まれているノイズの影響を受けにくいこと(ノイズ頑健性)に注目し,本論文で提案するクラスタ検索が網羅検索に比べ優れていることを実証する.以下,\ref{sec:cluster_based_search}~節では,クラスタ検索について説明する.\ref{sec:hbc}~節では,本論文で提案する確率的クラスタリングについて説明する.\ref{sec:experiment}~節では,本論文で提案したクラスタ検索の有効性を調べるために行なった幾つかの実験について述べる.
\section{クラスタ検索}
\label{sec:cluster_based_search}クラスタ検索に限らず,文書対文書の比較を行うには,まず文書間の距離を定義する必要がある.本論文では,条件付き確率$P(C|d)$を用い,文書$d$から文書集合$C$への方向性のある類似性を定義する.ある文書集合を検索する際は,$d$が入力文書(検索要求)となり,$C$がこれから検索しようとする文書集合の部分集合となる.最も極端な例が網羅検索であり,$C$は文書集合の各文書それ自身になる(図~\ref{fig:search_strategies}~(a)参照).一方,クラスタ検索では,$C$は何らかの指針により自動/人手で作られたクラスタである.$P(C|d)$を推定する方法は幾つか提案されているが~\cite{robertson:76:a,fuhr:89:a,kwok:90:a},本論文ではIwayama等の推定法~\cite{iwayama:94:b}を用いることにする.付録~\ref{app:SVMV}に$P(C|d)$の推定法を記す.図~\ref{fig:search_strategies}~(b)が典型的なクラスタ検索を図式化したものである.本論文で扱うクラスタ検索では,文書集合を二分木として自動的に構成し(このステップを{\gtクラスタリング}または{\gt訓練}と呼ぶ),検索要求を各クラスタ(ノード)と比較することによって,検索要求と類似する文書を指定した数だけとりだす(このステップを{\gt検索}または{\gtテスト}と呼ぶ).最も単純な検索法は{\gt二分木検索}であり(図~\ref{fig:search_strategies}~(b)参照),クラスタ木の根からトップダウンに木をたどり,指定した数の文書を含むクラスタを探す.木をたどる際は,各ノードでそれぞれの子ノードについて$P(C|d)$を計算し,どちらに進むかを決定する.二分木検索は,平均$O(\log_2N)$の検索時間しか必要とせず,網羅検索($O(N)$)に比べ高速な検索が可能である.一般に,網羅検索はその検索コストのため大規模な文書集合の検索/ランキングには適用しづらい.事実,現実に運用されている検索システムのほとんどは,ランク付きの検索出力が提供されていないか,提供されていても近似計算~\cite{cutting:97:a}である場合が多い.連想検索のように検索要求が長い場合は,ランク付けの計算に検索要求の全情報を使わないこともある~\cite{frakes:92:a}.検索コストを軽減する効果的な方法は,キーワードから文書への逆インデクス(invertedfile)~\cite{salton:83:a}を使い,検索要求に含まれているキーワードを全く含まない文書を検索対象から除外することである~\cite{perry:83:a}.残った文書集合を網羅検索することで計算量も幾分軽減できる.しかし,逆インデクスの導入は問題の本質的解決ではなく,原理的には依然として$O(N)$の検索コストが必要である.\begin{figure*}\begin{center}\epsfile{file=iwayama1.eps,width=0.9\textwidth}\end{center}\caption{連想検索における文書検索法:網羅検索とクラスタ検索}\label{fig:search_strategies}\vspace{-2mm}\end{figure*}クラスタ木上をトップダウンに二分木検索する方法とは逆に,葉からボトムアップにクラスタ木を検索する方法もある.この検索法は{\gtボトムアップクラスタ検索}と呼ばれ,二分木検索よりも精度的に有効であることが実証されている~\cite{croft:80:a,willett:88:a}.ところが,ボトムアップクラスタ検索では,まず検索の出発点となる葉ノードを決める必要がある.既に何らかの方法で出発点がわかっている場合はよいが,そうでない場合はゼロからこのノードを見つけるため,網羅検索に近い計算量が必要となる.本論文では,その簡素さと高速性のため,トップダウンな二分木検索を使うことにする.また,二分木検索にも,ビーム幅内を並行して検索する,検索の出発ノードを葉に近いノードにするなど様々な拡張が考えられるが,本論文では,断わりのない限り単純な二分木検索に限ることにする.
\section{確率的クラスタリング(HBC)}
\label{sec:hbc}クラスタ検索におけるクラスタリングの目的は,検索を行った際に高い精度を与えるようなクラスタ木を構築することである.不適切なクラスタ木は,検索要求に対して関連の低い文書を出力してしまう.特に,クラスタ木の根に近い部分は,与えられたほとんどの文書集合を含むため漠然性が高く,二分木検索もこの部分での比較で誤りを起しやすい.従来のクラスタ検索において二分木検索の精度が悪かったのは主にこの理由である.以下では,二分木検索でも高い精度を与えるような確率的クラスタリングを提案する.核となるアイデアは,クラスタリング(訓練)にも検索(テスト)にも前節で説明した確率$P(C|d)$を用いることである.まず,クラスタリングで使う尺度として{\gt\bf自己再現率(selfrecall)}を定義する.あるクラスタ$C$に関する自己再現率$SR(C)$を以下のように定義する.\begin{equation}SR(C)=\prod_{d\inC}P(C|d).\end{equation}自己再現率は,クラスタ内の各文書が自分自身を含むクラスタを見つけることができる確率,と解釈することができる.あるクラスタ$C$にとって,$SR(C)$の値が大きいということは,$C$内の各文書を検索入力とした時,それらが$C$を見つける確率が高いということである.文書集合${\calD}$がクラスタの集合$\{C_1,C_2,\ldots\}$に分割されているとすると,その文書集合${\calD}$に対する自己再現率は以下のように定義できる.\begin{equation}SR({\calD})=\prod_{C\in{\calD}}SR(C)=\prod_{C\in{\calD}}\prod_{d\inC}P(C|d).\end{equation}これは,文書集合全体に関する自己検索の精度に関連する.ここまでで,クラスタリングの目的は「文書集合${\calD}$が与えられた時,$SR({\calD})$が最大となる分割を見付けること」と詳細化できる.ただし,通常は山登り法になどにより局所的な最大分割を求めることが多い.例えば,$SR({\calD})$を評価関数として非階層的クラスタリングアルゴリズム~\cite{anderberg:73:a}を適用すると,文書集合を平坦なグループに分割することができる.また,文書集合${\calD}$に対して階層的な二分クラスタ木を構築するには,以下に示す凝集型アルゴリズムを適用すればよい.\begin{enumerate}\item初期クラスタ集合を,${\calD}$内の各文書それ自身のみからなるクラスタの集合とする.\itemマージにより$SR({\calD})$の増分が最大になるようなクラスタのペアを見つけ実際にマージする.\item残りのクラスタの数が1でなければステップ2に戻る.\end{enumerate}以上のアルゴリズムを{\gt\bf階層的ベイズクラスタリング(HBC:HierarchicalBayesianClustering)}と呼ぶ.HBCの詳細については,\cite{iwayama:95:b,iwayama:95:a}を参照されたい.そこでは,HBCと従来のクラスタリング手法との比較実験も行われている.また,付録~\ref{app:hbc}にHBCの形式的な記述を示す.従来のクラスタ検索における実験では,二分木検索に関して否定的な結果がでていた.考えられる理由は,クラスタリング(訓練)と検索(テスト)で異なった尺度(原理)を用いていたことである.従来の実験では,単一リンク法やWard法をクラスタリングの方法として用いていたが,これらの方法は,検索に使う尺度とは直接関係のない尺度を使いクラスタ木を構築している.例えば単一リンク法では,二つのクラスタ間の距離として,それらのクラスタを構成する要素(文書)間の最も近い距離を使う.よって,クラスタ内の他の構成要素の情報は無視されてしまう.また,構成要素(文書)とクラスタ全体との関係が考慮されていない.検索で用いるのは文書とクラスタとの距離である.これらの欠点は,完全リンク法や平均リンク法にもあてはまる.Ward法は,群内誤差の平方和によりクラスタ間の距離を計算するため,上記の欠点はない.しかし,群内誤差の平方和は,検索時に用いる距離尺度とは直接関係がない.それに対しHBCは,文書集合が与えられると,それらを自己検索した時の精度(具体的には自己再現率)を最大化するようなクラスタ木を構築する.つまり,訓練例に対する検索精度の最大化を行っているため,クラスタ検索という用途に直接関連した手法である.次節では,HBCをクラスタ検索に用いた場合の有効性を実験により検証する.なお,単一リンク法やWard法も統計解析という元々の用途には有効な手法である.
\section{実験}
\label{sec:experiment}\subsection{実験方式とデータについて}実験では,連想検索の精度を評価するために{\gtトピック割り付け}を行った.トピック割り付けとは,あらかじめ定義されたトピックの中から1個以上のトピックを文書に割り付けるタスクである.例えば,ある文書に$\{x,y,z\}$という3個のトピックが付いているとする.これらの正解トピックは,通常,専門家によって割り付けられる.そして,自動的な方法により,同じ文書に$\{x,w\}$という2個のトピックが割り付けられたとする.ここで,$x$という1つのトピックのみが3個の正解トピックから再現されたという意味で,{\gt\bf再現率(recall)}は$1/3$となる.また,$x$という1つのトピックのみが,自動的に割り付けられた2個のトピックのなかで正解であったという意味で,{\gt\bf適合率(precision)}は$1/2$となる.自動的なトピック割り付け法としては,$k$-NN法($k$-NearestNeighborclassifiers)~\cite{weiss:90:a,masand:92:a,mouri/97/a}を用いた.$k$-NN法では,ある文書$d$にトピックを割り付ける際,あらかじめ専門家によりトピックが割り付けられている文書集合(訓練データ)の中から$d$に近いものを$k$個検索する.この検索法に,文書連想検索の手法(網羅検索,クラスタ検索)を用い比較した.検索した$k$個の訓練データには既にトピックが付いているため,それぞれのトピックを重み付きで集計し,あるしきい値以上になるトピックを$d$に割り付ける.重みとしては,$d$と各々の訓練データとの距離(条件付き確率)を用いた.ここで,$d$に割り付けられるべき正解トピックが既にわかっているため,再現率/適合率が計算できる.また,自動割り付けにおけるしきい値を変化させることで,再現率/適合率のトレードオフ曲線が描ける.実験データには,「現代用語の基礎知識(92年版)~\cite{gk/92/a}(GK)」と「WallStreetJournal~\cite{liberman:91:a}(WSJ)」を用いた.それぞれの特徴は以下のとおりである.\begin{description}\item[{\gt\bf現代用語の基礎知識(GK)}]\strut\\日本語の辞書データ.$18,476$個の辞書見出しを持ち,それぞれ$149$の小カテゴリいずれかに分類されている.この小カテゴリをトピックとして用いた.つまり,各辞書見出しは単一の正解トピックを持っていることになる.各辞書見出しの説明文は,$13$から$1,938$,平均$287$の文字長を持つ.短い説明文の影響を除くため,説明文中に名詞,未知語(抽出法については後述)を$100$個以下しか含まない辞書見出しを除去した.また,辞書見出しを少数しか持たないカテゴリの影響を除くため,辞書見出しを$20$個以下しか含まないカテゴリを除去した.この結果,残った辞書見出し数は$1,072$,カテゴリ数は$39$となった.\item[{\gt\bfWallStreetJournal(WSJ)}]\strut\\英語の新聞記事データ.'89/7/25から'89/11/2までの$8,907$記事を使った.各記事には,$78$個のトピックの中から複数のトピックが割り付けられている.一つもトピックを持たない記事は取り除いた.記事に割り付けられている平均トピック数は$1.94$個である.\end{description}これら二つのデータセットには,日本語と英語という大きな相違点の他に,以下の特筆すべき相違点がある.\begin{itemize}\itemGKの各文書が単一のトピックしか持たないのに対し,WSJは複数(平均$1.94$個)のトピックを持つ.\itemGKは,文書長,および各トピックが持つ文書数が比較的均一なデータセットであるのに対し,WSJは非均一なデータセットである.GKには各トピックを担当する編集者が存在し,その編集者が担当トピックの辞書見出しを管理しているからである.それに加え,GKでは,短い辞書見出し,辞書見出し数が少ないトピックを上記の方法により強制的に除去している.よって,WSJに比べ,GKはよりノイズの少ないデータセットであると言える.逆の視点から見ると,WSJはより現実データに近いと言える.\end{itemize}実験の前処理として,まず,文書表現として用いるタームを抽出する必要がある.両データセットとも,名詞と未知語をタームとして用いた.タガーとして,GKではJUMAN~\cite{juman/94/a}を,WSJではXeroxPart-of-SpeechTagger~\cite{cutting:93:a}を用いた.WSJに関しては,ispell~\cite{ispell}を用いて語尾処理を行ない,単語の原形のみ用いた.また,トピック割り付けを行うには,データセットを訓練データとテストデータに分割する必要がある.GKは文書数が少ないため,4分割のクロスバリデーションを行った.WSJでは,'89/7/25から'89/9/29までの$5,820$記事を訓練データとして,'89/10/2から'89/11/2までの$3,087$記事をテストデータとして使った.\subsection{従来のクラスタ検索との比較}まず,比較的ノイズの少ないGKを用いて,HBCを用いたクラスタ検索と従来から行われていたクラスタ検索を比較する.従来法としては,クラスタリングにWard法~\cite{anderberg:73:a}を,検索に確率モデルを用いた.よって,両者はクラスタリングの手法のみが異なる.また,比較対象として,網羅検索による実験も行った.網羅検索における文書間の距離尺度には,クラスタ検索と同じ確率モデルを用いた.以上は$k$-NN法によるトピック割り付けであるが,この他にトピック割り付けの代表的な方法(以下,{\gtトピック検索法}と呼ぶ)も比較対象として実験に用いた.トピック検索法では,まず,各トピック毎にそのトピックが割り付けられている文書を集め,トピックを表現する文書集合とする.次に,トピックを割り当てようとする文書と,各トピックを表現している文書集合との間の距離を計算して,距離が近いトピックを文書に割り当てる.距離尺度としては,上記手法と同じ確率モデルを用いた.GKでは,割り当てられるべきトピックが一つであるため,実験に用いた手法でも,上位1位のトピックを割り付け,それが正解となっている割合で精度を測定した.実験結果を図~\ref{fig:gk}に示す.図中,X軸は,$k$-NN法でいうところの$k$,つまり,判定に用いた訓練データ数である.\begin{figure}\begin{center}\epsfile{file=iwayama2.eps,width=0.9\textwidth}\end{center}\vspace{-2mm}\caption{トピック割り付けにおける連想検索の比較(GK)}\label{fig:gk}\vspace{-2mm}\end{figure}図~\ref{fig:gk}から,$k$が極端に小さくない場合,網羅検索の精度が最も良いことがわかる.また,HBCを用いたクラスタ検索も,網羅検索の精度曲線を良く近似している.このことから,検索に要する速度などを考えると,HBCを用いたクラスタ検索は速度/精度の点でバランスの取れた手法であると言える.逆に,Ward法を用いたクラスタ検索が与える精度曲線は,網羅検索の精度曲線とは極端に異なり,特に$k$が$300$以下での精度が非常に悪くなっている.興味深いのは,網羅検索,二つのクラスタ検索共に,$k$が大きくなるにつれトピック検索法が与える精度に収束していく点である.ただし,HBCを用いたクラスタ検索,網羅検索が,$k$を適当に設定するとトピック検索法を上回るのに対し,Ward法を用いたクラスタ検索は,常にトピック検索法を下回る.以上の実験結果から,HBCを用いたクラスタ検索法は,従来のクラスタ検索よりも有効であることが確認できた.次節では,ノイズを含むより実データに近いWSJを用いて,HBCを用いたクラスタ検索と網羅検索との違いを詳しく調べる.\subsection{クラスタ検索のノイズ頑健性}クラスタ検索は,網羅検索と比べると汎化能力という点で優れている.クラスタ検索は訓練データを一般化したクラスタ集合を扱うためである.網羅検索は訓練データそれ自体を扱うため,訓練データ中に存在するノイズの影響を受けやすい.前節のGKによる実験では,この点が確かめられなかったが,これはGKがノイズの少ない均一なデータセットであることによる.本節では,WSJを使って,データセット中に存在するノイズがトピック割り付け(すなわち連想検索)に及ぼす影響を調べる.WSJの各文書には複数のトピックが割り付けられているため,前述の再現率/適合率で評価を行った.トピック割り付け戦略としては以下の3種類を用い比較した.\begin{description}\item[{\gt\bf定数割り付け(k-per-doc)}]\strut\\各テストデータに,均一に$k$個づつトピックを割り当てる.ここでは$k$の値を変化させて再現率/適合率曲線を描く.\item[{\gt\bf確率的割り付け(probabilitythreshold)}]\strut\\各テストデータに割り付けられるトピックには,確率から重みが計算できる.よって,あるしきい値以上の重みを持つトピックを各テストデータに割り付ける.ここでは割り付けのしきい値を変化させて再現率/適合率曲線を描く.\item[{\gt\bf比例配分割り付け(propotionalassignment)~\cite{lewis:92:a}}]\strut\\各トピック毎にテストデータを重みの順にソートしておき,訓練データ中でそのトピックが占める割合に比例した数のテストデータにそのトピックを割り付ける.例えば,訓練データ中で$2\%$の文書に割り付けられているトピックは,比例配分の定数を$0.1$とすると,テストデータ中の$0.2\%$の文書に割り付けられる.比例配分の定数を$5$とすると,テストデータ中の$10\%$の文書に割り付けられる.ここでは,比例配分の定数を変化させて再現率/適合率曲線を描く.\end{description}従来行なわれた実験~\cite{lewis:92:a,iwayama:94:b,nishino/95/a}では,比例配分割り付けの優位性が確認されている.しかし,比例配分割り付けを行うには,あらかじめ十分な数のテストデータがそろっている必要がある.よって,比例配分割り付けは,バッチ的な割り付け処理の局面では有効であるが,オンライン(リアルタイム)で割り付けを行なうような状況に適用することはできない.\begin{figure}\begin{center}\epsfile{file=iwayama3.eps,width=0.9\textwidth}\end{center}\vspace{-1.5mm}\caption{トピック割り付けにおける連想検索の比較(WSJ,定数割り付け)}\label{fig:wsj-kdoc}\vspace{-1.5mm}\end{figure}\begin{figure}\begin{center}\epsfile{file=iwayama4.eps,width=0.9\textwidth}\end{center}\vspace{-1.5mm}\caption{トピック割り付けにおける連想検索の比較(WSJ,確率的割り付け)}\label{fig:wsj-thresh}\vspace{-1.5mm}\end{figure}\begin{figure}\begin{center}\epsfile{file=iwayama5.eps,width=0.9\textwidth}\end{center}\vspace{-1.5mm}\caption{トピック割り付けにおける連想検索の比較(WSJ,比例配分割り付け)}\label{fig:wsj-prop}\vspace{-1.5mm}\end{figure}図~\ref{fig:wsj-kdoc}~$\sim$~\ref{fig:wsj-prop}にそれぞれの割り付け戦略による実験結果を示す.ここでは,HBCによるクラスタ検索と網羅検索を比較している.また,ベースラインとして,トピック検索法による結果も示した.Y軸のbreakevenとは,再現率/適合率トレードオフ曲線において,再現率と適合率が等しくなる点の値である.X軸は,前節と同じく$k$-NN法における$k$の値である.図~\ref{fig:wsj-kdoc}~$\sim$~\ref{fig:wsj-prop}から,まず,他の二つの割り付け戦略に比べ,比例配分割り付けが優れていることがわかる.また,比例配分割り付けでは,網羅検索,クラスタ検索共に,トピック検索と同程度の精度である.更に,両者共に$k$-NN法の$k$による影響をあまり強く受けていない.よって,比例配分割り付けは,検索の手法に対して安定した割り付け戦略であると言える.ところが,前述したように,比例配分割り付けはバッチ処理に限られるという制限がある.定数割り付け,確率的割り付けでは,網羅検索,クラスタ検索共に,ベースラインのトピック検索を大きく上回っている.これは,$k$-NN法の優位性を示している.ここで注目して欲しいのは,$k$-NN法でも,網羅検索の精度曲線が$k$の値に大きく影響を受けている点である.特に,最大breakevenを与える$k$の範囲が非常に狭く,それより$k$の値が大きくなると,breakevenが急激に低下している.これは,訓練データ中に存在するノイズの影響を強く受けていることを意味している.一方,クラスタ検索の精度曲線は$k$に依存せず安定している.つまり,最大breakevenを与える$k$の範囲が広いため,微妙なパラメータ($k$)設定を行う必要がない.これは,クラスタリングという汎化操作により,訓練データ中のノイズの影響があらわれにくくなっていることを意味している.以上から,HBCを用いたクラスタ検索は,網羅検索に比べノイズ頑健性に優れていると言える.
\section{おわりに}
本論文では,文書連想検索のための新しいクラスタ検索法を提案した.提案したクラスタ検索では,与えられた文書集合を自己検索した時の精度を最大化する確率的クラスタリングを用いている.よって,本クラスタリング手法は,従来のクラスタ検索で用いられていたクラスタリング手法に比べると,検索に密接に関連した手法であると言える.「現代用語の基礎知識」「WallStreetJournal」を用いた実験の結果,従来のクラスタ検索に対する本手法の優位性が確認できた.また,網羅検索に対しては,本手法がノイズ頑健性という点で優れていることが確認できた.以下,問題点と今後の課題を挙げる.\begin{description}\item[{\gtクラスタリングの高速化}]\strut\\本論文で提案したクラスタリングに限らず,通常の階層的クラスタリングは,サイズ$N$の文書集合をクラスタリングするのに$O(N^2)$の空間的/時間的計算資源を要する.今後は,特に大規模文書集合の文書連想検索に対処するために,クラスタリングに要する計算量を抑える必要がある.この問題に関して近年,文書表現として用いる単語の次元数を減らす~\cite{schutze:97:a},クラスタ間の距離を計算せず単語分布を調べる~\cite{tanaka/97/a}などの方法が提案されている.我々は,HBCの近似アルゴリズムによりこの問題を解決することを考えており,既に幾つかの手法を提案し,予備的な実験で有望な結果を得ている~\cite{iwayama/97/a}.今後は,大規模データに適用してその有効性を実証する必要がある.\item[{\gt多重分類}]\strut\\現状のクラスタ木は単純な二分木であるため,同一文書が複数の観点から分類されるといった多重分類を扱えない.この問題については,クラスタ生成時に同一文書が複数のクラスタに分類されることを許す,あるいは検索時に複数の検索パスを探索するなどの手法が考えられる.前者の手法については,既に提案したHBCの近似アルゴリズム~\cite{iwayama/97/a}が有望である.また,後者の手法については,シソーラス構築というタスクで有効な結果を得ている~\cite{tokunaga:97:a}.\item[{\gt動的な文書集合への対応}]\strut\\通常のクラスタリングでは,対象となる文書集合が文書の追加/削除などにより変化すると,一からクラスタリングを実行し直さなければならない.クラスタリングの高速化により再計算の時間が軽減されるとはいえ,大規模な文書集合を変化の都度再クラスタリングするのは非現実的である.この問題については,ほとんど研究がなされていない~\cite{crouch:75:a,can:89:a}.我々は,HBCの近似アルゴリズム~\cite{iwayama/97/a}の一種がインクリメンタルに動作することに着目し,動的な文書集合に対応することを考えている.\end{description}\vspace{-2mm}\bibliographystyle{jnlpbbl}\bibliography{IFIR,jIFIR}\clearpage\begin{biography}\biotitle{略歴}\bioauthor{岩山真}{1987年東京工業大学工学部情報工学科卒業.1992年同大学院理工学研究科博士後期課程修了.同年(株)日立製作所基礎研究所入所.博士(工学).自然言語処理,情報検索の研究に従事.情報処理学会,人工知能学会,AAAI,ACMSIGIR各会員.}\bioauthor{徳永健伸}{1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,同大学大学院情報理工学研究科助教授.博士(工学).自然言語処理,計算言語学,情報検索などの研究に従事.情報処理学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,ACMSIGIR各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\vspace{-3mm}\appendix
\section{$P(C|d)$の推定法}
\label{app:SVMV}まず,「存在する全てのターム~\footnote{本研究ではタームとして名詞および未知語を用いた.}から一つを乱数抽出したとき,それが$t$と等しい」という事象を``$T=t$''とする.$P(C|d)$を可能な全ての``$T=t$''で条件付けすると\begin{eqnarray}P(C|d)&=&\sum_{t}P(C|d,T=t)P(t|d)\nonumber\\&\approx&\sum_{T=t}P(C|T=t)P(T=t|d).\label{eq:svmv1}\end{eqnarray}となる.ここでの近似は,$T=t$が与えられたという条件下での$C$と$d$の条件付き独立性の仮定による~\footnote{詳しくは$P(C|d,T=t)=P(C|T=t)$.この式は,もし$T=t$を知れば,$C$に関する情報と$d$に関する情報は独立であることを示している.これは強い仮定であるが,$T=t$が$d$の特殊化された表現だと考えると妥当である.}.ベイズの定理を用いると,(\ref{eq:svmv1})は以下のようになる.\begin{equation}P(C|d)=P(C)\sum_{T=t}\frac{P(T=t|C)P(T=t|d)}{P(T=t)}.\label{eq:svmv2}\end{equation}ここで,各々の要素確率を以下のように推定する.\begin{itemize}\item$P(T=t|C)$:$C$における$t$の相対頻度.\item$P(T=t|d)$:$d$における$t$の相対頻度.\item$P(T=t)$:与えられた文書集合全体における$t$の相対頻度.\item$P(C)$:本論文では定数として扱った.\end{itemize}
\section{階層的ベイズクラスタリング(HierarchicalBayesianClustering)}
\label{app:hbc}\fbox{\begin{minipage}{100mm}\baselineskip=12pt\sfcode`;=3000\def\q{}{\bfInput}:\\\q${\calD}=\{d_{1},d_{2},\ldots,d_{N}\}$:asetof$N$documents;\\\q\\{\bfInitialize}:\\\q$M_0=\{C_1,C_2,\ldots,C_N\}$:asetofclusters;\\\q$C_i=\{d_{i}\}$for$1\lei\leN$\\\qcalculate$SR(C_i)$for$1\lei\leN$\\\qcalculate$SR(C_i\cupC_j)$for$1\lei<j\leN$\\\q\\{\bffor}$k=1${\bfto}$N-1${\bfdo}\\\q$(C_x,C_y)=\arg\max_{C_x,C_y}\frac{SR(C_x\cupC_y)}{SR(C_x)SR(C_y)}$\\\q$M_k=M_{k-1}-\{C_x,C_y\}+\{C_x\cupC_y\}$\\\qcalculate$SR(C_x\cupC_z)$forall$C_z\inM_k$where$z\nex$\\\q\\{\bfFunction}$SR(C)$\\\q{\bfreturn}$\prod_{d\inC}P(C|d)$\end{minipage}}\end{document}
| |
V19N03-02 | \section{はじめに}
自然言語処理で使われる帰納学習では,新聞データを用いて新聞用の分類器を学習するなど,ドメインAのデータを用いてドメインA用の分類器を学習することが一般的である.しかし一方,ドメインBについての分類器を学習したいのに,ドメインAのデータにしかラベルがついていないことがあり得る.このとき,ドメインA(ソースドメイン)のデータによって分類器を学習し,ドメインB(ターゲットドメイン)のデータに適応することを考える.これが領域適応であり,様々な手法が研究されている.しかし,語義曖昧性解消(WordSenseDisambiguation,WSD)について領域適応を行った場合,最も効果的な領域適応手法は,ソースドメインのデータ(ソースデータ)とターゲットドメインのデータ(ターゲットデータ)の性質により異なる.SVM等の分類器を利用してWSDを行う際にモデルを作る単位である,WSDの対象単語タイプ,ソースドメイン,ターゲットドメインの三つ組を1ケースとして数えるとする.本稿では,このケースごとに,データの性質から,最も効果的な領域適応手法を,決定木学習を用いて自動的に選択する手法について述べるとともに,どのような性質が効果的な領域適応手法の決定に影響を与えたかについて考察する.本稿の構成は以下のようになっている.まず\ref{Sec:関連研究}節で領域適応の関連研究について紹介する.\ref{Sec:領域適応手法の自動選択}節では領域適応手法をどのように自動選択するかについて述べる.\ref{Sec:データ}節では本研究で用いたデータについて説明する.\ref{sec:決定木学習におけるラベル付きデータの作成方法と学習方法}節では決定木学習におけるラベル付きデータの作成方法と学習方法について述べ,\ref{Sec:結果}節に結果を,\ref{Sec:考察}節に考察を,\ref{Sec:まとめ}節にまとめを述べる.
\section{関連研究}
\label{Sec:関連研究}領域適応は,学習に使用する情報により,supervised,semi-supervised,unsupervisedの三種に分けられる.まずsupervisedの領域適応は,訓練事例として少量のターゲットドメインだけでなく大量のソースドメインのデータを加えて学習を行うもので,訓練事例としてソースデータまたは少量のターゲットデータだけを利用する場合よりも,分類器を改良することを目指す.次のsemi-supervisedの領域適応は,ラベルつきのソースデータに加え,ラベルなしのターゲットデータを利用し,訓練事例としてソースデータだけを利用する場合よりも,分類器を改良することを目指す.また,最後のunsupervisedの領域適応は,ラベルつきのソースデータで学習後,ターゲットデータで実行する.本研究で扱うのは,supervisedの領域適応である.領域適応の研究は様々な分野で研究が行われており,ここではその一部を紹介する.まず,\cite{article2}は,EMアルゴリズムによる語義の事前確率推定によりWSDの領域適応を行っている.\cite{article3}も,EMアルゴリズムによる事前確率推定を行っているが,これは能動学習により事例をターゲットドメインから加えるsupervisedの領域適応である.Count-mergingにより重要文に重みをつけることで,性能を向上させている.また,\cite{article4}はシーケンスラベリングを例にsupervisedの領域適応を行っている.素性空間の次元を「ソースデータの素性空間」「ターゲットデータの素性空間」「ソースデータとターゲットデータ共通の素性空間」に相当する三倍にし,モデルを三倍に拡張して実験を行うというもので,様々なsupervisedの領域適応に併用できる手法である.利点として,上記の併用可能性に加え,実装が簡単で処理が速いこと,マルチドメインに拡張が簡単(素性空間の次元をドメイン数+1倍にすればよい)であることが挙げられる.さらに,\cite{article12}は\cite{article4}をsemi-supervisedのために拡張した.この手法がなぜ有効なのかはまだ解き明かされていないが,拡張前の利点を引き継いでいるだけでなく,ラベルなしのターゲットデータを利用することでよりよい性能が得られる.\cite{article5}は,semi-supervisedのWSDの領域適応を行った.大量のラベルなしのソースデータに,ラベルなしのターゲットデータを加えて行列を作り,特異値分解(SVD)により素性圧縮をして分類器を学習する手法である.また\cite{article6}は,大量のラベルなしのソースデータの代わりに,少量のラベルつきのソースデータを使用して,同様の手法でsupervisedの領域適応を行っている.\cite{article7}は領域適応を行う際,事例の重み付けにより性能が向上することを示した.この手法は様々なsupervisedまたはsemi-supervisedの領域適応との併用が可能である.また,領域適応に悪影響を及ぼすソースデータを特定して削除することも試みているが,ソースデータの削除は事例の重み付けを行わなければ有効であるが,事例の重み付けを行った場合には有効ではないと結論づけている.\cite{article14}はターゲットデータとソースデータの周辺確率を似せるようにカーネル空間を学習した後,条件確率がターゲットデータに似ているソースデータの事例をクラスタリングベースの事例選択を用いて選び,その事例を利用して領域適応を行っている.\cite{article15}はWeb上からランダムに取得したラベルなしデータを利用して,より高いレベルの素性を作成するためにスパースコーディングを利用したself-taughtlearningを提案している.これはunsupervisedの領域適応の一種である.\cite{article16}はco-trainingにおいて領域適応を行ったco-adaptationの研究である.boostingによる線形補完により領域適応を行い,両方の分類器においてエラー率が低下したことを報告している.また\cite{article17}はsemi-supervisedの領域適応である.この研究では,ソースデータ中とターゲットデータ中の単語の類似度を計算するために,pivotfeature(ソースデータとターゲットデータの両方でよく出てくる単語)の周りの単語の重みを計算する.この重みの行列にSVDを適用して新しい素性空間を作り,オリジナルの素性に新しい素性を加えて使用するという手法をとっている.本稿に最も近い研究は,\cite{article20}である.この研究では,多様なドメインからなる文書を構文解析する際,最も良いモデルは異なるという問題に注目している.彼らは様々な混合モデルによる構文解析の正解率を回帰分析で予測し,それぞれのターゲットデータに対して,最も高い正解率を出すと予測されたモデルを利用して構文解析を行っている.本研究との最も大きな違いは,対象のタスクが構文解析ではなく語彙曖昧性解消である点である.そのため,本論文ではケースという単位ごとに最適な領域適応を行う.また,彼らは複数のソースドメインから抽出した用例を混合して訓練事例とした領域適応を想定しているが,我々は想定していない.本研究では決定木学習を用いることで,どのような性質が最適な領域適応の決定に影響を与えるのかについて考察する.本稿では,ソースデータとターゲットデータの性質をもとに領域適応に用いる手法を自動選択する手法について述べる.これに関連した研究として\cite{article10}や\cite{article11}がある.\cite{article10}は,構文解析において,分野間距離をはかり,より適切なコーパスを利用して領域適応を行えるようにした.また,\cite{article11}は,構文解析において,自動的にタグ付けされたコーパスを用いて,ソースデータとターゲットデータの類似度から性能を予測できることを示した.これらの研究では,領域間の距離からソースデータとして利用できるコーパスを選択するという立場をとっているが,本研究では領域間の距離などの性質から,手法を選択するという立場をとる.
\section{領域適応手法の自動選択}
\label{Sec:領域適応手法の自動選択}\subsection{ケースごとの領域適応手法の自動選択}\label{Sec:ケースごとの領域適応手法の自動選択}本論文では,ケースという単位を定義し,ケースごとに適切な領域適応を行う.本論文におけるケースとは,SVM等の分類器を利用してWSDを行う際にモデルを作る単位である.WSDの分類器は,対象単語タイプ,ソースドメイン,ターゲットドメインの三つ組に対してひとつ作られるので,この三つ組をケースと呼ぶ.例えば,ケースを(対象単語タイプ,ソースドメイン,ターゲットドメイン)の順に書くと,(出る,新聞,Yahoo!知恵袋),(出る,Yahoo!知恵袋,新聞),(手,Yahoo!知恵袋,新聞)は全て別のケースである.最適な領域適応手法は,ソースデータとターゲットデータの性質により異なるが,WSDにおけるソースデータとターゲットデータの訓練事例集合は,ソースやターゲットになるコーパスのドメインだけでなく,WSDの対象単語も含めたケースごとに定まる.したがって,ケースごとに適切な領域適応手法を自動的に選択し,その手法を適宜用いて領域適応を行えば,どれかひとつの手法を用いるよりも,WSDの性能が向上することが予想される.このため,決定木学習を用いて,ケースごとに領域適応手法の自動選択を行う.決定木学習の素性にはソースデータとターゲットデータの性質を利用し,ラベル(教師値)には,WSDの正解率を比較した際に,そのケースにおいて最も正解率が高かった領域適応手法を用いる.決定木学習を用いるのは,どのような性質が最適な領域適応手法の決定に影響を与えるのかを明示的に示すことができる上,少量の訓練事例から学習しても十分な分類精度が得られるからである.また,n個の領域適応手法から選択する際には,pairwise方式で$_{n}C_{2}$通りの二分決定木をつくり,最終的にそれらを統合することで,ひとつのケースにつきひとつの領域適応手法を決定する\footnote{pairwise方式を利用するのは,多値分類では十分な分類性能が得られなかったためである.この原因は,入手できた事例数が144ケースという少数であったためだと思われる.}.なお,本論文で扱う領域適応手法は,どれもsupervisedの領域適応であるため,最終的にどの領域適応手法が選択されるかは不明な段階でも,先にターゲットデータに対する少量の語義のタグ付けが必要である.本論文では,一般公開されているYahoo!知恵袋,白書,新聞の三つのタグ付きコーパスから,144ケースのラベル付きデータを作成して決定木学習を行った.これらのラベル付きデータの素性ベクトルには,ソースデータとターゲットデータのJS距離などを用いており,それぞれのケースの対象単語タイプ,ソースドメイン,ターゲットドメインが何なのかという情報は与えていない.WSDの領域適応の問題が生じた場合には,問題のケースごとに,本論文で叙述するように素性ベクトルを作成して決定木への入力とし,決定木によって最適な領域適応手法を選択する.本論文では決定木学習の有効性を144ケースの交差検定によって示す.\subsection{WSDのための領域適応手法}\label{sec:item17}WSDのための領域適応手法として,本研究では以下に示す三つを用いる.したがって,pairwise方式で三つ(TOとRS,TOとFD,RSとFD)の二分決定木をつくり,最終的にそれらを統合することで,ひとつのケースにつきひとつの領域適応手法を決定する.以降,決定木の用例の単位であるケースと区別するために,WSDの用例の単位をトークンと呼ぶ.WSDの対象単語をwとすると,トークンはwの用例と等しい.それぞれソースドメインとターゲットドメインのコーパス中のwの用例が,ソースデータとターゲットデータの訓練事例であるため,ケースごとにソースデータとターゲットデータの数や性質は異なる.\begin{itemize}\item\TO:TargetOnly.ソースデータを用いず,ランダムに選んだ少量のターゲットデータのトークンに語義をタグ付けしたものだけを訓練事例にする.\item\RS:RandomSampling.ランダムに選んだ少量のターゲットデータのトークンに語義をタグ付けしたものとソースデータの両方を訓練事例にする.\item\FD:フィルタリングによる削除.ランダムに選んだ少量のターゲットデータのトークンに語義をタグ付けしたものとソースデータの両方を訓練事例にする.このときソースデータは,フィルタリングによりターゲットデータにある一定の閾値以上似ているデータのみを用いる.\end{itemize}FDでは以下の手順を取る.なお,ターゲットデータやソースデータのトークンは,後述するWSDの素性を要素としたベクトルとして表されている.\begin{itemize}\item[(1)]ターゲットデータのトークン$\forallt_{i}\inT$について,全ソースデータのトークン$\foralls_{j}\inS$とのコサイン類似度$sim_{i,j}$を計算する.\item[(2)]ソースデータのトークン$\foralls_{j}\inS$について,それぞれ最も自身と近いターゲットデータのトークン$t_{j,nearest}$を特定する.\item[(3)]ソースデータのトークン$\foralls_{j}\inS$について$t_{j,nearest}$との類似度$sim_{j,nearest}$をもとに,訓練事例とするかどうかを判定する.ここで,$sim_{j,nearest}$が0.8以上のソースデータ$s_{j}$を訓練事例に含めた.なお$sim_{i,j}$を計算する際,重みづけや正規化は行っていない.\end{itemize}なお,追加するターゲットデータ数は常に10トークンとした.分類器としてはマルチクラス対応のSVM(libsvm)を使用した.カーネルは予備実験の結果,線形カーネルが最も高い正解率を示したため,これを採用した.また,学習の素性には,\cite{article21}で使われている以下の17素性を用いた.\begin{itemize}\itemWSDの対象単語の前後二語までの形態素の表記(4素性)\itemWSDの対象単語の前後二語までの品詞(4素性)\itemWSDの対象単語の前後二語までの品詞の細分類(4素性)\itemWSDの対象単語の前後二語までの分類コード(4素性)\item係り受け(1素性)\begin{itemize}\item対象単語が名詞の場合はその名詞が係る動詞\item対象単語が動詞の場合はその動詞のヲ格の格要素\end{itemize}\end{itemize}分類語彙表の分類コードには\cite{book1}を使用した.\subsection{決定木学習のラベル}\label{Sec:決定木学習のラベル}作成する三つの二分決定木のうち,ここではTOとRSの決定木のラベル(教師値)について述べる.作成する決定木によって,TOとRSを,それぞれTOとFD,またはRSとFDに読み替えていただきたい.ケースごとに,最もWSDの正解率がよかった手法によって,TOとRSとSameの三種類のうちのひとつのラベルをつける.これらのつけ方は\ref{sec:Sameラベルの付け方}節で述べる.決定木は,ケースごとにソースデータとターゲットデータの性質から,TOかRSのどちらの手法を使って領域適応するべきかを判定していることに留意いただきたい\footnote{TOとFDの決定木なら,ラベルはTOとFD,Sameから選ぶことになり,TOかFDのどちらの手法を使って領域適応するべきかを判定することになる.また,RSとFDの決定木なら,ラベルはRSとFD,Sameから選ぶことになり,RSかFDのどちらの手法を使って領域適応するべきかを判定する.}.\begin{itemize}\item\TO:RSよりTOを使用した方がWSDの正解率が良いケース\item\RS:TOよりRSを使用した方がWSDの正解率が良いケース\item\Same:TOとRSのどちらを使ってもWSDの正解率に差がないケース\end{itemize}なお,TOとRSのどちらを使ってもWSDの正解率に差がないケースには,Sameラベルを使用せず,どちらかの手法に強制的に割りつけることも可能であるが,このような正解率に差がないケースが比較的多かったため(c.f.\tabref{決定木とラベル付け手法別に見たラベルの分布}),本論文ではSameラベルを使って決定木の分類性能をあげている.\subsection{決定木学習の素性}最適な領域適応手法はソースデータとターゲットデータの分布や距離などの性質によって異なると考えられるため,決定木には以下の24種類の合計40の素性を利用する\footnote{41番目の素性として品詞を追加した実験も行ったが,正解率が低下したため,最終的には含めなかった.}.なお,手法1と手法2は作成する二分決定木によって,RSとTO,またはRSとFD,またはTOとFDが相当する.また,データ1とデータ2は手法1と手法2に準じ,それぞれRSの場合にはソースデータ,TOの場合にはターゲットデータ,FDの場合にはターゲットデータに閾値以上似たソースデータが相当する.\begin{enumerate}\item手法1のシミュレーションの正解率\label{1}\item手法2のシミュレーションの正解率\label{2}\itemふたつの正解率の比((\ref{1})/(\ref{2}))\itemデータ1のトークン数\label{4}\itemデータ2のトークン数\label{5}\itemふたつのデータのトークン数の比((\ref{4})/(\ref{5}))\itemデータ1の語義数\label{7}\itemデータ2の語義数\label{8}\item辞書中の語義数\itemデータ1のMFS(MostFrequentSense:データ中最も頻出する語義)のトークン数\label{10}\itemデータ2のMFSのトークン数\label{11}\itemMFSの語義がデータ1とデータ2で同じか\label{12}\itemデータ1のMFSのパーセンテージ((\ref{10})/(\ref{4}))\label{13}\itemデータ2のMFSのパーセンテージ((\ref{11}9/(\ref{5}))\label{14}\itemデータ2のMFSのデータ1中でのパーセンテージ((\ref{11})/(\ref{4}))\label{15}\itemデータ1のMFSのデータ2中のパーセンテージ((\ref{10})/(\ref{5}))\label{16}\itemデータ1とデータ2の語義タグのジェンセン・シャノン・ダイバージェンス(JS距離)\label{17}\itemデータ1とデータ2の間のWSDの素性ごとの分布のJS距離\label{18}\itemデータ1とデータ2の間の素性ごとのJS距離を足しあわせたもの((\ref{18})を17種類足しあわせた値)\label{19}\itemデータ1とデータ2の素性をひとつの単位としたときのJS距離\label{20}\item新語義の数\label{21}\itemデータ1とデータ2で共通する語義数\label{22}\itemデータ1とデータ2で共通する語義の,データ1中のパーセンテージ((\ref{22})/(\ref{4}))\label{23}\itemデータ1とデータ2で共通する語義の,データ2中のパーセンテージ((\ref{22})/(\ref{5}))\label{24}\end{enumerate}なお,(\ref{1})と(\ref{2})のシミュレーションの正解率としては,手法ごとに以下を用いる.\begin{itemize}\itemRS:ソースデータのシミュレーションの正解率.ソースデータで分類器を学習し,語義をタグ付けしたターゲットデータ10トークンで評価した正解率\itemTO:TOのシミュレーションの正解率.ターゲットデータ10トークンに語義をタグ付けし,LeaveOneOut法で評価を行った際の正解率\itemFD:FDのシミュレーションの正解率.ターゲットデータに閾値以上似たソースデータで分類器を学習し,語義をタグ付けしたターゲットデータ10トークンで評価した正解率\end{itemize}また,(\ref{4})と(\ref{5})のトークン数には,手法ごとに以下を用いる.ただし,(\ref{13})〜(\ref{16}),(\ref{23}),(\ref{24})において,TOのデータ数は10トークンとする.\begin{itemize}\itemRS:全ソースデータのトークン数\itemTO:全ターゲットデータのトークン数\itemFD:全ソースデータの4/5(5分割交差検定のうち一試行)のうち,ターゲットデータに閾値以上似ているトークンの数\end{itemize}また,(\ref{7})と(\ref{8})の語義数には,手法ごとに以下を用いる.\begin{itemize}\itemRS:全ソースデータ中に出現する語義の異なり数\itemTO:語義をタグ付けした10トークンのターゲットデータ中に出現する語義の異なり数\itemFD:ソースデータの全トークンの4/5のうち,ターゲットデータに閾値以上似たデータに出現する語義の異なり数\end{itemize}また,(\ref{10})と(\ref{11}),(\ref{12})のMFSには,手法ごとに以下を用いる.\begin{itemize}\itemRS:全ソースデータ中の,全ソースデータのMFSを語義に持つトークンの数\itemTO:語義をタグ付けしたターゲットデータ10トークンの中の,語義をタグ付けしたターゲットデータ10トークンのMFSを語義に持つトークンの数\itemFD:「全ソースデータの4/5のうち,ターゲットデータに閾値以上似たデータ」中の,「全ソースデータの4/5のうち,ターゲットデータに閾値以上似たデータ」のMFSを語義に持つトークンの数\end{itemize}さらに,(\ref{17})〜(\ref{20})のJS距離は,カルバック・ライブラー・ダイバージェンスを対称にしたものであり,H(P)が分布Pのエントロピーであるとき,以下の式で与えられる.\begin{equation}D_{JSD}(P||Q)=H(\frac{1}{2}P+\frac{1}{2}Q)-\frac{1}{2}H(P)-\frac{1}{2}H(Q)\label{eq1}\end{equation}また,(\ref{17})では,\begin{itemize}\itemRS:全ソースデータの4/5\itemTO:ターゲットデータの10トークン\itemFD:全ソースデータの4/5のうち,ターゲットデータに閾値以上似たトークン\end{itemize}の語義タグの分布間のJS距離を用いたが,(\ref{18})のJS距離では,\begin{itemize}\itemRS:全ソースデータ\itemTO:全ターゲットデータ\itemFD:全ソースデータの4/5のうち,ターゲットデータに閾値以上似たトークン\end{itemize}の間のWSDの素性(形態素情報など17種類.\ref{sec:item17}節参照)の素性ごとの分布のJS距離を,(\ref{19})のJS距離では,これらのデータのWSDの素性(形態素情報など17種類)をつなげて,ひとつの単位としたものの分布のJS距離を用いた.これは,17種類全ての素性が等しいときにだけ,同じ要素と考えてJS距離を求めるものである.また,(\ref{22})の共通語義も,(\ref{17})のJS距離の際のデータのうち,手法に対応したふたつのデータに出現した語義の異なり数である.また,(\ref{21})の新語義の数は,\begin{itemize}\itemRSとTOの決定木:語義をタグ付けしたターゲットデータ10トークンに出現せず,全ソースデータのみに出現する語義の異なり数\itemRSとFDの決定木:全ソースデータの4/5のうち,ターゲットデータに閾値以上似たデータに出現せず,全ソースデータのみに出現する語義の異なり数\itemTOとFDの決定木:語義をタグ付けしたターゲットデータ10トークンに出現せず,全ソースデータの4/5のうち,ターゲットデータに閾値以上似たトークンのみに出現する語義の異なり数\end{itemize}になる.決定木作成アルゴリズムにはC4.5\cite{book2}を利用し,二分決定木を作成した.また,五分割交差検定を行った.決定木作成の枝刈りの閾値は訓練事例の1/4を開発用データとした予備実験により最適化した.なお,このとき決定木作成の閾値にはノードのエントロピーの値を使用し,0,0.1,0.2...というように0.1きざみで試した.閾値の最適化の際に,最高の正解率の決定木の閾値が複数ある場合には,決定木がより小さいときの閾値を採用した.
\section{データ}
\label{Sec:データ}実験には,現代日本語書き言葉均衡コーパス(BCCWJコーパス)\cite{article18}の白書のデータとYahoo!知恵袋のデータ,またRWCコーパスの毎日新聞コーパス\cite{article19}の三つのデータを利用し,ソースデータとターゲットデータを変えることで,全部で6通りの領域適応を行った.これらのデータには岩波国語辞典\cite{book3}の語義が付与されている.これらのコーパス中の多義語のうち,ソースデータおよびターゲットデータ中にともに50トークン以上存在する単語を実験対象とした.WSDを行う単語の異なり数は,白書⇔Yahoo!知恵袋:24白書⇔新聞:22Yahoo!知恵袋⇔新聞:26であり,最終的なケースの数は,28単語,合計144のケースとなった.ターゲットコーパス別に見たケースの最小,最大,平均トークン数を\tabref{tab:table1}に示す.また,実験には岩波国語辞典の小分類の語義を採用した.全WSDの対象単語の語義数ごとの内訳を\tabref{tab:Thelistoftargetwords}に示す.\begin{table}[b]\caption{ターゲットコーパス別に見たケースの最小,最大,平均トークン数}\label{tab:table1}\input{02table01.txt}\end{table}\begin{table}[b]\caption{全WSDの対象単語の語義数ごとの内訳}\label{tab:Thelistoftargetwords}\input{02table02.txt}\end{table}また,領域適応によるWSDの実験には五分割交差検定を用いた.RSのときのこの様子を\figref{fig:two-1}に示す.RSの場合には,ソースデータの4/5(ソースデータの濃い灰色の部分)に加え,ターゲットデータの4/5(ターゲットデータの白の部分と薄い灰色の部分)から10トークン(白い部分)を訓練事例とする.FDの際には,ソースデータの4/5(ソースデータの濃い灰色の部分)に関して,ターゲットデータの4/5(ターゲットデータの白の部分と薄い灰色の部分)との類似度を測り,一定以上似たデータと10トークン(白い部分)を訓練事例とする.テストデータは,ターゲットデータの残りの1/5(黒い部分)である.\begin{figure}[b]\begin{center}\includegraphics{19-3ia945f1.eps}\end{center}\caption{RSによるWSDの実験の五分割交差検定}\label{fig:two-1}\end{figure}\begin{table}[b]\begin{center}\hangcaption{Yahoo!知恵袋と白書でソースデータとターゲットデータを逆にしたときの領域適応別のWSDの正解率}\label{tab:table0}\input{02table03.txt}\end{table}\tabref{tab:table0}に,白書⇔Yahoo!知恵袋でソースデータとターゲットデータを逆にしたときの領域適応別のWSDの正解率を示す.これらの結果は,すべてのトークンごとの平均の正解率(マイクロ平均)である.ここで,タグつきターゲットデータが手に入ったと仮定して,supervisedの学習を5分割交差検定を用いて行ったselfと,ターゲットデータに対して,ソースデータだけで5分割交差検定を用いて学習を行ったSourceOnlyについてのWSDも行い,その正解率も参考として示した.\tabref{tab:table0}から,使用するコーパスによって効果の出る手法が異なることが分かる.また,\tabref{ソースデータとターゲットデータのコーパス別に見たケースごとの最適な領域適応手法の分布}に,ソースデータとターゲットデータのコーパス別に見たケースごとの最適な領域適応手法の分布を示す.この表において,例えば「RSとTO」は,RSとTOが同率一位であることを表す.この表から,最適な領域適応手法は,コーパスごとよりも,ケースごとに異なることが分かる.\begin{table}[t]\caption{ソースデータとターゲットデータのコーパス別に見たケースごとの最適な領域適応手法の分布}\label{ソースデータとターゲットデータのコーパス別に見たケースごとの最適な領域適応手法の分布}\input{02table04.txt}\end{table}
\section{決定木学習におけるラベル付きデータの作成方法と学習方法}
\label{sec:決定木学習におけるラベル付きデータの作成方法と学習方法}本研究では,決定木のSameラベルの付け方や,Sameラベルのついたトークンの扱い,決定木におけるケースの重みを変えて8通りの決定木を作成した.本節ではそれらの手法の詳細と,pairwiseに作成した複数の決定木の結果を統合して,最終的に領域適応手法を一意に定める手法について述べる.ここでも,\ref{Sec:決定木学習のラベル}節と同様,TOとRSの決定木のラベルについて述べる.作成する決定木によって,WSDの手法は読み替えていただきたい.\subsection{Sameラベルの付け方}\label{sec:Sameラベルの付け方}\ref{Sec:決定木学習のラベル}節で述べたように,決定木学習の教師値として,ケースごとに,最もWSDの正解率がよかった手法によって,TOとRSとSameの三種類のうちのひとつのラベルをつける.このうち,SameはTOでもRSでもWSDの正解率に差がないケースに対するラベルであるが,どこまでが正解率に差がなく,どこからが差があるかという点についてはいくつかの考え方がある.本稿では,以下の二通りのSameの定義を考え,両方について実験を行う.\begin{itemize}\item\「同じもの」:TOとRSのWSDの正解率が全く等しいものにSameをつけ,それ以外にTOかRSを付与する.\item\「カイ二乗検定」:TOとRSのWSDの正解率を比較してカイ二乗検定を行い,有意差がないものにSameをつけ,あるものにTOかRSを付与する.なお,カイ二乗検定の有意水準は0.05を利用した.\end{itemize}「同じもの」では,全く同じ正解率のケースだけを,TOとRSに差がないケースと考え,「カイ二乗検定」では,カイ二乗検定により有意差がないケースを,TOとRSに差がないケースと考えている.決定木とラベル付け手法別に見たラベルの分布を\tabref{決定木とラベル付け手法別に見たラベルの分布}に示す.また,コーパスとラベル付け手法別に見たラベルが割りつけられたケースの数と合計の単語タイプ数を\tabref{tab:Thenumberofcases}に示す.\begin{table}[t]\caption{決定木とラベル付け手法別に見たラベルの分布}\label{決定木とラベル付け手法別に見たラベルの分布}\input{02table05.txt}\end{table}\begin{table}[t]\caption{コーパスとラベル付け手法別に見たラベルが割りつけられたケースの数と合計の単語タイプ数}\label{tab:Thenumberofcases}\input{02table06.txt}\end{table}\subsection{決定木学習におけるSameの扱い}\label{sec:決定木学習におけるSameの扱い}前節のように全てのケースに三つのラベルを付与したが,三つ目のラベルSameについてはTOでもRSでも差がないケースであり,決定木学習の際にいくつかの扱い方が考えられる.本稿では,決定木学習の際,以下の二通りのSameの扱い方で実験を行う.\begin{itemize}\item\「Sameを利用した3値分類」:TO,RS,Sameの3値分類の決定木学習とテストを行う.\item\「訓練事例からSameの事例を削除した2値分類」:Sameが付与されたケースを訓練事例から削除してTOとRSの2値分類の決定木学習を行う.なお,テストには全ケースを利用する.\end{itemize}\figref{fig:three}に,「訓練事例からSameの事例を削除した2値分類」のときの決定木学習の五分割交差検定の様子を示す.全体が144ケースあり,最終的に訓練データとして用いるケースはそのうちのTOかRSのラベルをもつケースである.「同じもの」を使用するときは129ケースがこれにあたり,「カイ二乗検定」を用いるときには69ケースがこれにあたる(濃い灰色の部分).五分割交差検定の一試行において,この訓練データとなる濃い灰色の部分の4/5(白い部分)で訓練を行い,全体のケースの144ケースのうちの1/5(薄い灰色の部分)でテストを行う.これを五回交差して行うことで決定木学習の五分割交差検定を行った.\begin{figure}[t]\begin{center}\includegraphics{19-3ia945f2.eps}\end{center}\caption{訓練事例からSameの事例を削除した2値分類のときの決定木学習の五分割交差検定}\label{fig:three}\end{figure}「訓練事例からSameの事例を削除した2値分類」を利用してテストを行う場合,Sameラベルがふられたケースに正解はない.そのため,決定木のノードにおけるラベルの確からしさの度合いなどの閾値をもうけることで,「Sameを利用した3値分類」のSameのようなどちらの手法を利用してもよいという結果を出力することも考えられる.しかし,Sameラベルがふられたケースはもともと,どちらの手法を利用してもよいケースであるため,便宜的な割り付けを行っても問題ないとの考えから,本稿では学習した決定木を用いて全てのケースに自動的にTOかRSかを割り付けた.\subsection{ケースによる分類とトークン数による重みづけを用いた分類}\label{sec:ケースによる分類とトークン数による重みづけを用いた分類}\tabref{tab:table1}にあるように,ケースにはたくさんの事例があるケースと,少量の事例しかないケースがある.このため,決定木において,少量のトークン(WSDの事例)しかないケースよりも,たくさんのトークンがあるケースについて,利用する領域適応手法を正確に予測できた方が,より全体のWSDの正解率に寄与する可能性がある.本稿では,以下のようにケースによる分類のほかに,トークン数による重みづけを行う分類についても実験を行った.\begin{itemize}\item\「ケースによる分類」:全てのケースに同等の重みがあるとして決定木学習を行う.\item\「トークン数による重みづけを用いた分類」:ケースごとにケース中のトークン数の重みをつけて決定木学習を行う.\end{itemize}具体的には,トークン数による重みづけを用いた分類は,決定木学習の際,エントロピーの計算において,ひとつのケースをひとつのケースとして数えるかわりに,トークン数分のケースとして数えることで重みを付けている.\ref{sec:Sameラベルの付け方}--\ref{sec:ケースによる分類とトークン数による重みづけを用いた分類}節でそれぞれ二通りの選択肢があるため,本稿では全組み合わせの合計8通りの決定木を作成した.\subsection{決定木の統合}\label{sec:決定木の統合}決定木の統合は,以下のように行った.pairwiseの性質上,三つの決定木が三つとも同じ方法がよいと答えることはなく,答えが2:1に分かれるか,三つ巴になるはずである.このうち,2:1に分かれるときは,かならず2つの決定木が出した答えが理論的に一番良くなるため,その答えを選択すればよい.手法1$>$手法2のとき手法1のほうがよい手法であるとすると,例えば,TO$>$RSかつ,FD$>$RSかつTO$>$FDであれば,TO$>$FD$>$RSなので,TOを選択する.次に,三つ巴のときには,事例が割りつけられた葉についている確率を比較し,一番高い確率のところに割り付けた.確率は,「学習時にその葉に割りつけられたその手法のケース数/学習時に,その葉に割りつけられた全ケース数」として計算した.たとえば,テストデータが,実行時に「学習時に,TOが1ケース,RSが2ケース割り当てられた葉」に割り当てられた場合,そのテストデータは2/3の確率でRSとなる.三つ巴の場合には,この確率で比較し,最も高い確率の手法を割り当てた.三つ巴のときに,ふたつの決定木で割りつけられた葉の確率が同率一位である場合には,RS$>$TOかつFD$>$RSなら,FD$>$RS$>$TOなのでFDを選択,というように論理的に選択された手法を選択した.また,三つ巴でどれも確率が等しい時など,上記のルールを利用してもどうしても領域適応手法が選べない時には,一括的に領域適応を行ったときに正解率が高い順,つまり,FD,TO,RSの順で割りつけた.
\section{結果}
\label{Sec:結果}\tabref{tab:table2}に,もともとの手法を一括的に用いた際のWSDの平均正解率を示す.なお,144のケースには合計232,116のWSDのトークンが含まれており,本稿の平均正解率はそれらのトークンの平均の正解率(マイクロ平均)である.\tabref{tab:table2}からTO,RS,FDのうち,最も良い正解率はFDの82.27\%であることが分かる.\begin{table}[b]\caption{個別の手法を用いた際のWSDの平均正解率}\label{tab:table2}\input{02table07.txt}\end{table}\tabref{tab:table3}に,\ref{sec:決定木学習におけるラベル付きデータの作成方法と学習方法}節の決定木を用いて自動的にケースごとに選択した手法を利用した際のWSDの平均正解率を示す.なお,選択の仕方は,決定木学習による選択の8種類と,GoldenAnswerの一種類の合計9種類である.ここで,決定木学習による選択の8種類は,\ref{sec:Sameラベルの付け方}--\ref{sec:ケースによる分類とトークン数による重みづけを用いた分類}節でのそれぞれ二通りの選択肢による,全組み合わせに対応する.\tabref{tab:table3}の決定木学習の方法の列はそれぞれ,一列目が\ref{sec:Sameラベルの付け方}節の分類に,二列目が\ref{sec:決定木学習におけるSameの扱い}節の分類に,三列目が\ref{sec:ケースによる分類とトークン数による重みづけを用いた分類}節の分類にあたる.それぞれ,3値と2値は「Sameを利用した3値分類」と「訓練事例からSameの事例を削除した2値分類」を,ケースとトークンは「ケースによる分類」と「トークン数による重みづけを用いた分類」を示す.なお,GoldenAnswerは,決定木学習を用いる代わりに,ラベルとなっているふたつの領域適応のうち,WSDの正解率の高い領域適応手法をケースごとに人手で選択して,WSDの平均正解率を求めた値であり,upperboundである.\begin{table}[t]\caption{選択した手法を利用した際のWSDの平均正解率}\label{tab:table3}\input{02table08.txt}\end{table}「Sameを利用した3値分類」の決定木でSameが割りつけられたケースは,本来はTOでもRSでもどちらでもよいというように,二つの領域適応手法の選択肢のどちらを用いてもよいケースであるが,本稿では一括的に領域適応を行ったときに正解率が高い方の手法を用いて,最終的なWSDの平均正解率を算出した.「訓練事例からSameの事例を削除した2値分類」を利用した場合は,\ref{sec:決定木学習におけるSameの扱い}節で述べたように,学習した決定木を用いて自動的に全てのケースを分類した.そのため,Sameの割りつけられたケースも,決定木によって選択された手法を利用して最終的なWSDの平均正解率を算出した.\tabref{tab:table3}から,決定木学習を用いて選択した手法を利用した際のWSDの平均正解率のうち,最も高いWSDの平均正解率は,「カイ二乗検定」,「訓練事例からSameの事例を削除した2値分類」,「ケースによる分類」を利用した83.52\%である.\tabref{tab:table2}の,個別の手法を用いた際の最高の正解率,FDの82.27\%よりも正解率が高いため,決定木を利用して適切な領域適応手法を利用した方が,個々の領域適応手法を使った時よりも正解率が上がることが分かる.またこのとき,カイ二乗検定により十分な有意差が認められた.
\section{考察}
\label{Sec:考察}\subsection{決定木学習のラベル付きデータの作成方法と学習方法についての比較}本節では,決定木学習におけるラベル付きデータの作成方法と学習方法による違いを比較する.まずSameラベルの付け方について比べると,決定木学習におけるSameの扱いを「訓練事例からSameの事例を削除した2値分類」にしたときには「同じもの」が「カイ二乗検定」よりもよいが,「Sameを利用した3値分類」にしたときには「カイ二乗検定」が「同じもの」よりもよいことが分かる.また決定木学習におけるSameの扱いについて比べると,「訓練事例からSameの事例を削除した2値分類」のほうがいつも「Sameを利用した3値分類」よりもよいことが分かる.さらにケースによる分類とトークン数による重みづけを用いた分類について比べると,「ケースによる分類」のほうがいつも「トークン数による重みづけを用いた分類」よりもよいことが分かる.8種類の決定木の作成手法のうち最も良かったのは,決定木学習のデータのSameのラベル付けには「カイ二乗検定」を利用し,決定木学習におけるSameの扱いにおいては「訓練事例からSameの事例を削除した2値分類」を利用し,決定木学習の際には「ケースによる分類」を用いた決定木学習(カイ二乗検定,2値,ケース)であった.このとき,決定木の正解率はそれぞれ,TOとRSの決定木は69.57\%,TOとFDの決定木は64.81\%,RSとFDの決定木は52.63\%であった.また,上記の実験は,コーパスを考慮しない五分割交差検定であるため,語義タグがついていないコーパスに対しての性能を見るために,ケースをコーパスごとに分け,コーパスごとの交差検定を行った.上記の実験で最高の正解率だった(カイ二乗検定,2値,ケース)の決定木学習の手法で実験を行ったところ,WSDの平均正解率は82.32\%となった.FDの82.27\%よりも高いが,カイ二乗検定による有意差は得られなかった.利用したコーパスは3つであるため,144ケースのおおよそ三分割交差検定を行うこととなっており,訓練事例数が足りず,決定木の十分な分類性能が得られなかったためだと考えられる.WSDの領域適応の実際のタスクにおいて,本論文が提案する決定木を作る際には,ソースドメインのコーパス以外に,語義タグ付きのコーパスが少なくともひとつ以上存在する必要がある.その中にターゲットドメインのコーパスを含めずに済むかどうかは不明である.しかし,上記の実験から,含めない場合にもある程度の効果は得られると考える.あるいはターゲットドメインのコーパスに決定木を作るのに必要な程度の語義タグをつけることも考えられる.\subsection{学習された決定木についての考察}WSDの平均正解率が最高だった「カイ二乗検定」,「訓練事例からSameの事例を削除した2値分類」,「ケースによる分類」の決定木学習の五回の検定のうち,最も高い正解率だった決定木を付録として示し,生成に特に貢献した素性と素性値について以下に述べる.まず,TOとRSの決定木のルートノードでは,「ふたつの正解率の比=0.70以上」がnoのときTOが割り当てられた.これは「theOtherのシミュレーションの正解率/TOのシミュレーションの正解率」の割合が0.70以下であれば,TOが割り当てられたということである.つまり,10トークンのターゲットデータに語義をタグ付けし,LeaveOneOut法で評価を行った際の正解率のほうが,ソースデータで分類器を学習し,10トークンのターゲットデータに語義をタグ付けしたもので評価した正解率よりも高いときにはTOが割り当てられたということに等しい.このことから,10ケースの語義をタグ付けしたターゲットデータによるシミュレーションの予測が,最適な領域適応の手法を予想する強力な手がかりになることが分かる.次に,決定木の深さが1のノードでは,「JS距離(WSDの対象単語の一つ前の形態素)=0.61以上」のときにTOが選ばれている.このことから,WSDの対象単語の一つ前の形態素に関する素性の分布がソースデータとターゲットデータで異なっているときには,ソースデータを訓練事例に利用せず,ターゲットデータの10トークンに語義をタグ付けして訓練事例にした方がよいことが分かる.JS距離が大きいのは素性の分布が異なっていることを意味し,逆にJS距離が小さいのは素性の分布が似通っていることを意味する.WSDにおいて鍵となる素性の分布が遠く,ソースデータが十分に似ていない時には,ソースデータを利用しない方がよいため,JS距離が大きいときにはTOになりやすいと考えられる.同様に素性の分布が近く,ソースデータが十分に似ている時には,ソースデータを利用した方がよいため,JS距離が小さいときにはRSになりやすいと考えられる.また,RSとFDの決定木のルートノードでは,「ソースデータの数/ターゲットデータに一定以上似ているソースデータの数=186.85以上」のときFDが割り当てられた.FDは,ターゲットデータに閾値以上似たソースデータだけを訓練事例に利用する手法であるため,ターゲットデータに閾値以上似ていないソースデータが多量にあるときには,全ソースデータではなく,ターゲットデータに似ているデータだけを利用すればよいことが分かる.このことから,ターゲットデータに十分似ていないデータを足しすぎると,誤った学習が行われてしまうことが推察できる.次に,決定木の深さが1のノードでは,「JS距離(WSDの対象単語の二つ前の形態素)=0.74以上」がyesであればFDが,noであればRSが割り当てられた.このことから,WSDの対象単語の二つ前の形態素に関する素性の分布がソースデータと「ターゲットデータに一定以上似ているソースデータ」で似ているときには,ソースデータを訓練事例にすべて利用した方がよく,似ていない時には,ソースデータを利用せずに語義をタグ付けしたターゲットデータの10トークンを訓練事例にした方がよいことが分かる.本決定木では,TOとRSの決定木の深さ1のノードと同様に,素性の分布が似ているときに,ソースデータを利用したほうがよいという結果になっている.また,TOとFDの決定木のルートノードでは,「ターゲットデータ10トークン中のMFSの,ターゲットデータに閾値以上似たソースデータ中のパーセンテージ=12.58以下」である場合に,TOが割り当てられた.このことにより,ターゲットデータ10トークン中に最頻出する語義が,FDの訓練事例として利用される,「ターゲットデータに一定以上似ているソースデータ」に少ない時には,TOを用いた方がよいことが分かる.このことから,二つのデータの語義タグが似ていないときは,ソースデータから訓練事例を一切足すことなく,ターゲットデータだけで学習した方がよいと考えられる.次に,決定木の深さが1のノードでは,「JS距離(WSDの対象単語の一つ後の形態素の分類語彙表の値)=0.15以下」であれば,TOが割り当てられた.WSDの対象単語の一つ後の形態素の分類語彙表の値に関する素性の分布が,ターゲットデータと「ターゲットデータに一定以上似ているソースデータ」で似ているときには,ソースデータを訓練事例に一切利用せず,ターゲットデータを10トークンタグ付けして訓練事例にした方がよいことが分かる.ここで注目したいのは,これまでの決定木とは逆に,素性の分布が似ているときに,ソースデータを利用しないほうがよいという結果になっていることである.TOとFDの決定木全体を見てみると,ノードにJS距離についての条件は四度現れる.そのうち,二回は素性の分布が似ているときに,ソースデータを利用しないほうがよいという結果であり,残りの二回は逆に素性の分布が似ているときに,ソースデータを利用したほうがよいという結果になっている.このように同じJS距離でも素性によって似ているときにソースデータを利用した方がよかったり,そうでなかったりするのは,本決定木ではTOとFDの二手法から領域適応手法を選択しているためであると考えられる.全てのソースデータを訓練事例に含めるRSと異なり,FDでは,ターゲットデータに一定以上似ているソースデータを訓練事例に含めるため,素性によって似ていたらソースデータを使用すべきものと,ソースデータを使用すべきでないものに分かれているのではないかと考えられる.「WSDの対象単語の一つ後の形態素の分類語彙表の値」は後者であることが決定木から読みとれる.
\section{まとめ}
\label{Sec:まとめ}語義曖昧性解消(WSD;WordSenseDisambiguation)について領域適応を行った場合,ソースデータとターゲットデータのデータの性質により,最も効果的な領域適応手法が異なる.そのため本稿では,決定木学習を用いてソースデータとターゲットデータの性質から,最も効果的な領域適応手法を自動的に選択する手法について述べた.WSDの対象単語タイプ,ソースドメイン,ターゲットドメインの三つ組を1ケースとして数え,決定木学習を利用してケースごとに,TO,RS,FDの三種類から適切な領域適応手法を選択した.なお,TOはソースデータを用いず,ランダムに選んだ少量のターゲットデータに語義をタグ付けしたものだけを訓練事例とする手法,RSはソースデータと語義をタグ付けした少量のターゲットデータの両方を訓練事例とする手法,FDはターゲットデータに似たソースデータと語義をタグ付けした少量のターゲットデータを訓練事例とする手法である.三つの手法から領域適応手法を一意に選ぶため,pairwise方式に三つの決定木を作成し,最後に統合して用いた.ケースごとに自動的に選択された手法を用いて領域適応を行うことで,もともとの手法を一括的に使った時に比べ,WSDの正解率が有意に向上した.また,ラベル付きデータの作成方法と学習方法を8通り試したが,このうち最もWSDの平均正解率が高かったのは,決定木学習のケースへのラベル付けの際,ふたつの領域適応手法のWSDの正解率に有意差がないケースにSameラベルを付与し,Sameの割りつけられたケースは訓練事例から取り除いて2値分類を行い,ケースごとに分類を行う決定木学習であった.作成した決定木から,語義をタグ付けした少量のターゲットデータによるシミュレーションの予測や,同ターゲットデータの最頻出語義の「ターゲットデータに一定以上似ているソースデータ」中の出現率,ソースデータの数と「ターゲットデータに一定以上似ているソースデータ」の数の比が,最適な領域適応の手法を予想する強力な手がかりになることが分かった.\acknowledgment文部科学省科学研究費補助金特定領域研究「現代日本語書き言葉均衡コーパス」の助成により行われた.ここに,謹んで御礼申し上げる.また,本論文の内容の一部は,5thInternationalJointConferenceonNaturalLanguageProcessingで発表したものである\cite{article22}.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Agirre\BBA\de~Lacalle}{Agirre\BBA\de~Lacalle}{2008}]{article5}Agirre,E.\BBACOMMA\\BBA\de~Lacalle,O.~L.\BBOP2008\BBCP.\newblock\BBOQOnRobustnessandDomainAdaptationusingSVDforWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\17--24}.\bibitem[\protect\BCAY{Agirre\BBA\de~Lacalle}{Agirre\BBA\de~Lacalle}{2009}]{article6}Agirre,E.\BBACOMMA\\BBA\de~Lacalle,O.~L.\BBOP2009\BBCP.\newblock\BBOQSupervisedDomainAdaptionforWSD.\BBCQ\\newblockIn{\BemProceedingsofthe12thConferenceoftheEuropeanChapteroftheAssociationofComputationalLinguistics},\mbox{\BPGS\42--50}.\bibitem[\protect\BCAY{Asch\BBA\Daelemans}{Asch\BBA\Daelemans}{2010}]{article11}Asch,V.~V.\BBACOMMA\\BBA\Daelemans,W.\BBOP2010\BBCP.\newblock\BBOQUsingDomainSimilarityforPerformanceEstimation.\BBCQ\\newblockIn{\BemProceedingsofthe2010WorkshoponDomainAdaptationforNaturalLanguageProcessing,ACL2010},\mbox{\BPGS\31--36}.\bibitem[\protect\BCAY{Blitzer,McDonald,\BBA\Pereira}{Blitzeret~al.}{2006}]{article17}Blitzer,J.,McDonald,R.,\BBA\Pereira,F.\BBOP2006\BBCP.\newblock\BBOQDomainAdaptationwithStructuralCoppespondenceLearning.\BBCQ\\newblockIn{\BemProceedingsofthe2006ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\120--128}.\bibitem[\protect\BCAY{Chan\BBA\Ng}{Chan\BBA\Ng}{2006}]{article2}Chan,Y.~S.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2006\BBCP.\newblock\BBOQEstimatingClassPriorsinDomainAdaptationforWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\89--96}.\bibitem[\protect\BCAY{Chan\BBA\Ng}{Chan\BBA\Ng}{2007}]{article3}Chan,Y.~S.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2007\BBCP.\newblock\BBOQDomainAdaptationwithActiveLearningforWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics},\mbox{\BPGS\49--56}.\bibitem[\protect\BCAY{Daum\'{e}}{Daum\'{e}}{2007}]{article4}Daum\'{e},III,H.\BBOP2007\BBCP.\newblock\BBOQFrustratinglyEasyDomainAdaptation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics},\mbox{\BPGS\256--263}.\bibitem[\protect\BCAY{Daum\'{e},Kumar,\BBA\Saha}{Daum\'{e}et~al.}{2010}]{article12}Daum\'{e},III,H.,Kumar,A.,\BBA\Saha,A.\BBOP2010\BBCP.\newblock\BBOQFrustratinglyEasySemi-SupervisedDomainAdaptation.\BBCQ\\newblockIn{\BemProceedingsofthe2010WorkshoponDomainAdaptationforNaturalLanguageProcessing,ACL2010},\mbox{\BPGS\23--59}.\bibitem[\protect\BCAY{Hashida,Isahara,Tokunaga,Hashimoto,Ogino,\BBA\Kashino}{Hashidaet~al.}{1998}]{article19}Hashida,K.,Isahara,H.,Tokunaga,T.,Hashimoto,M.,Ogino,S.,\BBA\Kashino,W.\BBOP1998\BBCP.\newblock\BBOQTheRWCtextdatabases.\BBCQ\\newblockIn{\BemProceedingsofTheFirstInternationalConferenceonLanguageResourceandEvaluation},\mbox{\BPGS\457--461}.\bibitem[\protect\BCAY{Jiang\BBA\Zhai}{Jiang\BBA\Zhai}{2007}]{article7}Jiang,J.\BBACOMMA\\BBA\Zhai,C.\BBOP2007\BBCP.\newblock\BBOQInstanceWeightingforDomainAdaptationinNLP.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics},\mbox{\BPGS\264--271}.\bibitem[\protect\BCAY{Komiya\BBA\Okumura}{Komiya\BBA\Okumura}{2011}]{article22}Komiya,K.\BBACOMMA\\BBA\Okumura,M.\BBOP2011\BBCP.\newblock\BBOQAutomaticDeterminationofaDomainAdaptationMethodforWordSenseDisambiguationUsingDecisionTreeLearning.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalJointConferenceonNaturalLanguageProcessing,IJCNLP2011},\mbox{\BPGS\1107--1115}.\bibitem[\protect\BCAY{Maekawa}{Maekawa}{2008}]{article18}Maekawa,K.\BBOP2008\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe6thWorkshoponAsianLanguageResources(ALR)},\mbox{\BPGS\101--102}.\bibitem[\protect\BCAY{McClosky,Charniak,\BBA\Johnson}{McCloskyet~al.}{2010}]{article20}McClosky,D.,Charniak,E.,\BBA\Johnson,M.\BBOP2010\BBCP.\newblock\BBOQAutomaticDomainAdaptationforParsing.\BBCQ\\newblockIn{\BemProceedingsofthe2010AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\28--36}.\bibitem[\protect\BCAY{Quinlan}{Quinlan}{1993}]{book2}Quinlan,J.~R.\BBOP1993\BBCP.\newblock{\BemC4.5:ProgramsforMachineLearning}.\newblockMorganKaufmannPublishers.\bibitem[\protect\BCAY{Raina,Battle,Lee,Packer,\BBA\Ng}{Rainaet~al.}{2007}]{article15}Raina,R.,Battle,A.,Lee,H.,Packer,B.,\BBA\Ng,A.~Y.\BBOP2007\BBCP.\newblock\BBOQSelf-taughtLearning:TransferLearningfromUnlabeledData.\BBCQ\\newblockIn{\BemICML'07:Proceedingsofthe24thinternationalconferenceonMachinelearning},\mbox{\BPGS\759--766}.\bibitem[\protect\BCAY{Sugiyama\BBA\Okumura}{Sugiyama\BBA\Okumura}{2009}]{article21}Sugiyama,K.\BBACOMMA\\BBA\Okumura,M.\BBOP2009\BBCP.\newblock\BBOQSemi-supervisedClusteringforWordInstancesandItsEffectonWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonIntelligentTextProcessingandComputationalLinguistics(CICLing2009)},\mbox{\BPGS\266--279}.\bibitem[\protect\BCAY{Tur}{Tur}{2009}]{article16}Tur,G.\BBOP2009\BBCP.\newblock\BBOQCo-adaptation:AdaptiveCo-trainingforSemi-supervisedLearning.\BBCQ\\newblockIn{\BemProceedingsoftheIEEEInternationalConferenceonAcoustics,SpeechandSignalProcessing,2009.ICASSP2009},\mbox{\BPGS\3721--3724}.\bibitem[\protect\BCAY{Zhong,Fan,Peng,Zhang,Ren,Turaga,\BBA\Verscheure}{Zhonget~al.}{2009}]{article14}Zhong,E.,Fan,W.,Peng,J.,Zhang,K.,Ren,J.,Turaga,D.,\BBA\Verscheure,O.\BBOP2009\BBCP.\newblock\BBOQCrossDomainDistributionAdaptationviaKernelMapping.\BBCQ\\newblockIn{\BemProceedingsofthe15thACMSIGKDDinternationalconferenceonKnowledgediscoveryanddatamining},\mbox{\BPGS\1027--1036}.\bibitem[\protect\BCAY{張本\JBA宮尾\JBA辻井}{張本\Jetal}{2010}]{article10}張本佳子\JBA宮尾祐介\JBA辻井潤一\BBOP2010\BBCP.\newblock構文解析の分野適応における精度低下要因の分析及び分野間距離の測定手法.\\newblock\Jem{言語処理学会第16回年次大会発表論文集},\mbox{\BPGS\27--30}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{1964}]{book1}国立国語研究所\BBOP1964\BBCP.\newblock\Jem{分類語彙表}.\newblock秀英出版.\bibitem[\protect\BCAY{西尾\JBA岩淵\JBA水谷}{西尾\Jetal}{1994}]{book3}西尾実\JBA岩淵悦太郎\JBA水谷静夫\BBOP1994\BBCP.\newblock\Jem{岩波国語辞典第五版}.\newblock岩波書店.\end{thebibliography}\appendix
\section{生成された決定木}
上の枝がyes,下の枝がnoに相当する.JS距離(語義)は,決定木の素性の(\ref{17})データ1とデータ2の語義タグのJS距離の略記,JS距離(*)は,(\ref{18})データ1とデータ2の間のWSDの素性ごとの分布のJS距離の略記であり,*には\ref{sec:item17}節のWSDの素性名が入る.JS距離(Featureplus)は(\ref{19})データ1とデータ2の間の素性ごとのJS距離を足しあわせたものの略記で,(\ref{18})を17種類足しあわせた値であり,JS距離(Featureall)は(\ref{20})データ1とデータ2の素性をひとつの単位としたときのJS距離の略記である.\begin{figure}[h]\begin{center}\includegraphics{19-3ia945f3.eps}\end{center}\caption{TOとRSの決定木}\end{figure}\begin{figure}[h]\begin{center}\includegraphics{19-3ia945f4.eps}\end{center}\caption{RSとFDの決定木}\end{figure}\begin{figure}[h]\begin{center}\includegraphics{19-3ia945f5.eps}\end{center}\caption{TOとFDの決定木}\end{figure}\begin{biography}\bioauthor{古宮嘉那子}{2005年東京農工大学工学部情報コミュニケーション工学科卒.2009年同大大学院博士後期課程電子情報工学専攻修了.博士(工学).同年東京工業大学精密工学研究所研究員,2010年東京農工大学工学研究院特任助教,現在に至る.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{奥村学}{1962生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.工学博士.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在に至る.自然言語処理,知的情報提示技術,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会,AAAI,言語処理学会,ACL,認知科学会,計量国語学会各会員.}\end{biography}\biodate\clearpage\clearpage\end{document}
| |
V05N01-05 | \section{はじめに}
コロケーション(Collocation)の知識は,単語間の共起情報を与える言語学的に重要な知識源であり,機械翻訳をはじめとする自然言語処理において,重要な意味をもっている.コロケーションとは,テキスト中に頻繁に出現する単語の組み合わせであり,言語的あるいは慣用的な表現であることから,様々な形態が考えられる.その例として,``{\itThankyouverymuch}''や``{\itIwouldliketo}''のような単語が連続している表現と,``{\itnotonly〜but(also)〜}''や``{\itnotsomuch〜as〜}''のように単語間にギャップを持つ不連続な表現が存在する.これらの表現はそれを一つのまとまった単位として処理する必要があり,その知識は機械翻訳への適用をはじめとして,音声・文字認識における認識結果の誤り訂正\cite{Omoto96}や,第二外国語を学習する際の手助けとするような言語学習や言語教育の分野にも適用できる\cite{Kita94a,Kita97}.以上のように,コロケーションの収集・整理は言語学的にも機械処理の面からも有益であるため,その収集の仕方は自然言語処理における重要な課題である.しかし,人手による収集では膨大な時間と手間が必要となり,かつコロケーションの定義が曖昧であるためにその網羅性・一貫性にも問題が生じる.これらの点から,コロケーションを自動的に抽出・収集する方法として,相互情報量を用いた方法\cite{Church90},仕事量基準を用いた方法\cite{Kita93,Kita94b},$n$-gramを用いた方法\cite{Nagao94},2つの単語の位置関係の分布を考慮する方法\cite{Smadja93}をはじめとして様々な方法が提案されている\cite{Shinnou94,Shinnou95a,Shinnou95b}.しかし,従来の方法の多くは連続したコロケーションを抽出の対象としており,不連続なコロケーションの抽出に関する研究はごく少数であった\cite{Omoto96,Ikehara95}.本論文では,単語の位置情報に基づき,連続型および不連続型の二種類のコロケーションをコーパスから自動的に抽出する方法を提案する.提案する手法は,コーパス全体からコロケーションを抽出するだけではなく,指定された任意の範囲(たとえば,何番目の文,または何番目から何番目の文の中)にあるコロケーションを同定することができる.また,提案する手法は,言語に依存しない(言語独立の)方法であり,機械翻訳等への様々な活用が期待できる.以下,本論文の第\ref{Sec:extract_abstract}節では,提案する手法の基本的な考え方とその特徴について述べる.本手法では,単語の位置情報をとらえるために,コーパス・データを受理する有限オートマトンを用いるが,第\ref{Sec:alergia_algorithm}節では,我々の用いたオートマトン学習アルゴリズムであるALERGIAアルゴリズムについて概略を述べる.第\ref{Sec:extract_algorithm}節では,第\ref{Sec:extract_abstract}節で述べた考えに基づく位置情報を用いた自動抽出アルゴリズムを提案する.第\ref{Sec:experiment}節では,本手法をATR対話コーパスに適用した結果を示し評価を行う.
\section{コロケーションの自動抽出の考え方と特徴}
\label{Sec:extract_abstract}従来,コロケーションは人手によって収集・整理されてきており,自動的に抽出する方法についての研究も,その多くは連続したコロケーションの抽出に限定されていた.そこで本論文では,そのような限定をせずにすべてのコロケーションを自動的に抽出する手法として,コーパス中の単語の位置情報を用いる方法を提案する.\subsection{コロケーションとは}\label{Subsec:def_collocation}コロケーションは,一般には,任意の再現する単語の組み合わせ(arbitraryandrecurrentwordcombination)として定義される\cite{Benson90,Benson86,Smadja93}.しかし,この定義だけでは余りに漠然としているため,本論文では,コロケーションを以下のようにとらえる.\begin{itemize}\item[1.]コロケーションは,テキスト中で頻繁に出現する(繰り返し使われる)単語の組み合わせで,同一文中に共起し,複数文にまたがらないものである.\item[2.]コロケーションは,単語間の結び付きが強い単語の組み合わせであり,これらは意味的なまとまりを構成する.また,コロケーションは,形態的な面から,次の二つのタイプに分類することができる\cite{Abe97}.\begin{itemize}\item[(a)]単語が隣接して強く結合して,他語の挿入や語の交換が通常なされない表現.\item[(b)]隣接の度合が弱く,表現中に他語の挿入も許される表現.\end{itemize}本論文では,(a)のタイプのコロケーションを連続型コロケーション,(b)のタイプのコロケーションを不連続型コロケーションと呼ぶ.\end{itemize}\subsection{コロケーションの自動抽出}\label{Subsec:auto_extract}\ref{Subsec:def_collocation}節の条件を満たすコロケーションを自動的に抽出するために,本論文では,まずコーパス中での出現頻度の高い単語列に着目する.しかし,単に出現頻度の高い単語列を抽出するだけでは,意味的にまとまりのない断片的な単語列が多く抽出されるので,最長一致の原則\cite{Ikehara95}を用いて,一度,コロケーションとみなされた単語の組み合わせが,それ以後に分割されて処理されることを避ける.また,以下のように,連続型コロケーションと不連続型コロケーションは,別々に抽出する.\begin{itemize}\item[1.]コーパス中に複数回出現する単語列(連続型コロケーション)と,複数回出現し,かつ出現ごとに隣接する単語が異なる単語を抽出する.\item[2.]上記1の単語列または単語がギャップを持って(離れて)複数回共起する組み合わせが不連続型コロケーションである.\end{itemize}上の集計方法は,不連続型コロケーションが連続型コロケーションに比べて,その存在数(出現回数)が少ないため,出現回数をスコアとしてコロケーションを抽出した場合,不連続型コロケーションは連続型コロケーションよりも,はるかに低いスコアとなり,スコアのみにより,不連続なコロケーションを抽出するのは困難である\cite{Omoto96}ことから,現実的な方法であると考える.\subsection{単語の位置情報}\label{Subsec:based}まず,本手法の基礎となる,単語の``位置情報''について説明する.コーパス中のある特定の場所にある単語$w$の位置を,2項組\hspace{-0.2mm}$(i,j)$\hspace{-0.2mm}によって表す.ここで,$i$は文番号(コーパス中の何番目の文であるか)を,また$j$は単語番号(文中の何番目の単語であるか)を示している.単語$w$はコーパス中の複数箇所に出現しえるので,このような2項組のリストを考えることにより,単語$w$がコーパス中のどこに出現するかを把握することができる.以下では,2項組\hspace{-0.2mm}$(i,j)$\hspace{-0.2mm}のリストのことを,単語$w$の出現位置表と呼ぶことにする.一つ注意すべきことは,ある単語\hspace{-0.2mm}$w$\hspace{-0.2mm}に対し,必ずしも出現位置表を一つだけ考える必要はないという点である.もし,単語$w$が異なったコンテキストで用いられていれば,コンテキストごとに単語$w$の出現位置表を用意してもよい.従って,同じ単語$w$であっても,異なった出現位置表を持つ場合がある.本論文では,単語$w$の出現するコンテキストをとらえるために,有限オートマトンを用いる.まず,コーパス中のすべての文を受理するような有限オートマトンを構成する.このような有限オートマトンにおいて,単語$w$による状態遷移はオートマトン中の複数箇所に現れる可能性があるので,各状態遷移ごとに単語$w$の出現位置表を作成する.なお,本論文では,コーパスから有限オートマトンを構成するために,ALERGIAアルゴリズム\cite{Carrasco94}を用いる(\ref{Sec:alergia_algorithm}節参照).本論文における自動抽出法では,ある文中の単語の組み合わせが他の文にも出現するものをその文に含まれるコロケーション(の候補)とみなす.単語の出現位置表を用いることにより,単語間の位置関係をとらえることができるので,ある単語がコーパス中の複数の文に出現している場合,その各々の文の中での組み合わせを考慮するだけで,複数の文に対して同じ組み合わせで出現しているものを知ることができる.
\section{ALERGIAアルゴリズムによる決定性確率有限オートマトンの構成}
\label{Sec:alergia_algorithm}\ref{Subsec:based}節で述べたように,単語の出現するコンテキストをとらえるために,本論文では有限オートマトンを用いる.我々は,コーパス・テキストを受理するような有限オートマトンを構成するために,ALERGIAアルゴリズム\cite{Carrasco94}を用いた.ALERGIAアルゴリズムは,状態マージング手法を用いて,学習データに対し最適な構造を持つオートマトンを自動的に構成する.また,ALERGIAアルゴリズムでは,本節(3)で述べるように,状態の等価判定を行い,等価な状態をマージすることで,オートマトンを構成する.等価判定を変化させることで,本手法で抽出される単語の組み合わせの結び付きの強さを考慮できるのではないかと考える.以下で,ALERGIAアルゴリズムの概要を述べる.また,図\ref{Fig:pta2dsfa}に,ALERGIAアルゴリズムを用いて,学習データ\(S=\{110,\lambda,\lambda,\lambda,0,\lambda,00,00,\lambda,\lambda,\lambda,10110,\lambda,\lambda,100\}\)($\lambda$は空列)に対する決定性確率有限オートマトンを構成する例を示す.図\ref{Fig:pta2dsfa}(a)から(d)までの各状態の中には状態番号を記載し,各状態の下には入力記号列がその状態をたどった回数(左)とその状態で受理された回数(右)を付与している.また,各状態遷移には``遷移記号[状態遷移を行った回数]''を付与した.\begin{figure}[hbt]\begin{center}\epsfile{file=kita1.eps,width=0.80\textwidth}\end{center}\caption{ALERGIAアルゴリズムによる決定性確率有限オートマトンの構成}\label{Fig:pta2dsfa}\end{figure}\subsubsection*{(1)接頭木アクセプタの作成}学習データから接頭木アクセプタ(PrefixTreeAcceptor;PTA)を作成する.ここで,接頭木アクセプタとは,学習データ中の入力記号列のみを受理することが可能な決定性有限オートマトンであり,初期状態を根とした木構造となる(図\ref{Fig:pta2dsfa}(a)参照).\subsubsection*{(2)状態遷移確率の計算}\hspace{-0.2mm}$n_{i}$\hspace{-0.2mm}を学習データが接頭木アクセプタの状態\hspace{-0.2mm}$q_{i}$\hspace{-0.2mm}を訪れた回数とする.もし学習データが状態\hspace{-0.2mm}$q_{i}$\hspace{-0.2mm}で受理されれば,受理されたデータの個数を\hspace{-0.2mm}$f_{i}(\sharp)$\hspace{-0.2mm}とする.状態\hspace{-0.2mm}$q_{i}$\hspace{-0.2mm}で受理されなければ,次の状態へ遷移するが,このとき状態遷移\hspace{-0.2mm}$\delta_{i}(a)$\hspace{-0.2mm}(状態\hspace{-0.2mm}$q_{i}$\hspace{-0.2mm}で入力記号$a$がきたときの遷移)をたどった回数を\hspace{-0.2mm}$f_{i}(a)$\hspace{-0.2mm}とする.状態遷移\hspace{-0.2mm}$\delta_{i}(a)$\hspace{-0.2mm}の遷移確率\hspace{-0.2mm}$P_{i}(a)$\hspace{-0.2mm}は,次のようにして求められる.\vspace{-0.5mm}\begin{equation}P_{i}(a)=\frac{f_{i}(a)}{n_{i}}\end{equation}\vspace{-0.5mm}なお,\hspace{-0.2mm}$P_{i}(\sharp)$\hspace{-0.2mm}は,入力記号列が状態\hspace{-0.2mm}$q_{i}$\hspace{-0.2mm}で受理される確率を表している.\subsubsection*{(3)状態のマージ}接頭木アクセプタの状態$q_{i}$と状態$q_{j}$が等価(\(q_{i}\equivq_{j}\))であれば,これら2つの状態をマージする.ここで,状態$q_{i}$\hspace{-0.2mm}と状態$q_{j}$\hspace{-0.2mm}が等価であるとは,すべての入力記号\(a\in\Sigma\)($\Sigma$は入力記号の集合)について,遷移確率$P_{i}(a)$と$P_{j}(a)$が等しく,遷移後の状態も等価であるときをいう.すなわち,\begin{equation}q_{i}\equivq_{j}\Longleftrightarrow\foralla\in\Sigma\left\{\begin{array}{l}P_{i}(a)=P_{j}(a)\\\delta_{i}(a)\equiv\delta_{j}(a)\end{array}\right.\end{equation}状態の等価性を判断する場合,学習データに対する統計的な揺れを伴うので,二つの遷移確率の差が許容範囲にあるときに等価であるとする.いま,確率$p$のベルヌイ確率変数があり,$n$回の試行のうち$f$回この事象が起こったとすると,次式が成り立つ.\begin{equation}P\left(\left|p-\frac{f}{n}\right|<\sqrt{\frac{1}{2n}\log\frac{2}{\alpha}}\right)\geq1-\alpha\end{equation}ALERGIAアルゴリズムでは,学習データから推定された二つの遷移確率の差が信頼範囲\(\sqrt{\frac{1}{2n}\log\frac{2}{\alpha}}\)の和の範囲内にあるときに,二つの状態を確率的に等価であるとしている.すなわち,状態$q_{i}$\hspace{-0.2mm}と状態$q_{j}$\hspace{-0.2mm}が等価であるとは,すべての入力記号\(a\in\Sigma\)について,次式が成り立つことである.\begin{equation}\left|\frac{f_{i}(a)}{n_{i}}-\frac{f_{j}(a)}{n_{j}}\right|\leq\sqrt{\frac{1}{2}\log\frac{2}{\alpha}}\left(\frac{1}{\sqrt{n_{i}}}+\frac{1}{\sqrt{n_{j}}}\right)\label{Eq:eq_state}\end{equation}図\ref{Fig:pta2dsfa}(b)は図\ref{Fig:pta2dsfa}(a)の状態$q_1$\hspace{-0.2mm}と状態$q_2$\hspace{-0.2mm}をマージした後のオートマトンである.その後,順に状態をマージして,最終的に図\ref{Fig:pta2dsfa}(e)の決定性確率有限オートマトンが得られる.図\ref{Fig:pta2dsfa}(e)の状態の中にはその状態の受理確率を記載し,各状態遷移には``遷移記号[遷移確率]''を付与している.
\section{単語位置情報に基づく自動抽出アルゴリズム}
\label{Sec:extract_algorithm}\ref{Sec:extract_abstract}節で述べた考えに基づいた,コロケーションの自動抽出アルゴリズムを,以下で説明する.まず,コーパスを\(W=s_0s_1\ldotss_N\)と表す.$s_n$はコーパス中の$n$番目の文であり,$N+1$がコーパス中の文の総数である.また,コーパス中の文$s_n$は,\(s_n=w_n^0\ldotsw_n^{T(n)}\)と表す.ここで,$w_n^t$は,文$s_n$中の$t$番目の単語であり,\hspace{-0.2mm}$T(n)+1$\hspace{-0.2mm}が文の長さ(単語長)である.以下では,コーパス中の単語の位置を表すのに,``文番号''および``単語番号''という用語を用いる.文番号とはコーパス中の文に対して先頭から順に付けた番号であり,単語番号とは各々の文の中で先頭から順に付けた単語の出現番号である.すなわち,文\hspace{-0.2mm}$s_n$\hspace{-0.2mm}中の単語$w_n^t$に対しては,文番号は$n$,単語番号は$t$となる.\subsection*{手順(1):単語の出現位置表の作成}\hspace{0.5mm}ALERGIA\hspace{0.5mm}アルゴリズムを用いて,コーパス\(W=\{s_n;0\len\leN\}\)を受理する決定性確率有限オートマトンを構成する.決定性確率有限オートマトンでは,各文\hspace{-0.2mm}$s_n$\hspace{-0.2mm}に対して状態遷移が一意に定まる.各状態遷移に対して,単語の出現位置表を作成する(図\ref{Fig:inlearn}参照).なお,出現位置表とは,すでに\ref{Subsec:based}節で述べたように,各単語のコーパス中の出現位置をまとめたものであり,出現位置は文番号と単語番号の2項組で表される.位置情報は\(n=0,1,\ldotsN\),\(t(n)=0,\ldotsT(n)\)の順に記録する.\begin{figure}[hbt]\begin{center}\epsfile{file=kita2.eps,width=0.60\textwidth}\end{center}\caption{コーパス$W$中の各単語の出現位置の記録}\label{Fig:inlearn}\end{figure}図\ref{Fig:edgeattr}は,図\ref{Fig:inlearn}の処理によって作成された($W$中の)単語の出現位置表を示している.各表は文$s_0$の単語``もしもし'',``通訳国際会議事務局'',``です'',``か''に対応している.\begin{figure}[hbt]\begin{center}\begin{footnotesize}\begin{minipage}[t]{3cm}\begin{tabular}[t]{|r|r|}\multicolumn{2}{c}{\bfもしもし}\\\hline\multicolumn{1}{|c|}{\bf文}&\multicolumn{1}{c|}{\bf単語}\\\multicolumn{1}{|c|}{\bf番号}&\multicolumn{1}{c|}{\bf番号}\\\hline0&0\\73&0\\116&0\\169&0\\236&0\\270&0\\353&0\\429&0\\484&0\\512&0\\\end{tabular}\end{minipage}\quad\begin{minipage}[t]{3cm}\begin{tabular}[t]{|r|r|}\multicolumn{2}{c}{\bf通訳国際会議}\\\multicolumn{2}{c}{\bf事務局}\\\hline\multicolumn{1}{|c|}{\bf文}&\multicolumn{1}{c|}{\bf単語}\\\multicolumn{1}{|c|}{\bf番号}&\multicolumn{1}{c|}{\bf番号}\\\hline0&1\\\hline\end{tabular}\end{minipage}\quad\begin{minipage}[t]{3cm}\begin{tabular}[t]{|r|r|}\multicolumn{2}{c}{\bfです}\\\hline\multicolumn{1}{|c|}{\bf文}&\multicolumn{1}{c|}{\bf単語}\\\multicolumn{1}{|c|}{\bf番号}&\multicolumn{1}{c|}{\bf番号}\\\hline0&2\\1&2\\2&5\\4&2\\7&8\\13&9\\14&8\\15&3\\16&22\\17&4\\18&9\\19&9\\22&10\\23&27\\31&6\\33&6\\33&12\\\multicolumn{2}{|c|}{$\vdots$}\\73&2\\\multicolumn{2}{|c|}{$\vdots$}\\\end{tabular}\end{minipage}\quad\begin{minipage}[t]{3cm}\begin{tabular}[t]{|r|r|}\multicolumn{2}{c}{\bfか}\\\hline\multicolumn{1}{|c|}{\bf文}&\multicolumn{1}{c|}{\bf単語}\\\multicolumn{1}{|c|}{\bf番号}&\multicolumn{1}{c|}{\bf番号}\\\hline0&3\\3&9\\6&19\\10&2\\12&7\\14&9\\15&4\\18&10\\21&33\\22&19\\27&15\\31&7\\33&13\\\multicolumn{2}{|c|}{$\vdots$}\\73&3\\\multicolumn{2}{|c|}{$\vdots$}\\\end{tabular}\end{minipage}\end{footnotesize}\end{center}\caption{$W$中の文$s_0$の単語に関する出現位置表}\label{Fig:edgeattr}\end{figure}なお,ALERGIAアルゴリズムの等価判定の信頼範囲を決定する\hspace{-0.2mm}$\alpha$\hspace{-0.2mm}の値によって,構築されるオートマトンの規模は変化する.様々な\hspace{-0.2mm}$\alpha$\hspace{-0.2mm}の値に対するオートマトンによって,上の手順で作成される出現位置表の総数\((=状態遷移の総数)\)と各表の内容が異なる.各表に記録される出現位置の2項組の数は状態遷移の回数である.\subsection*{手順(2):単語共有表の作成}手順(2)から手順(6)にかけて,コーパス中の文$s_n$中のコロケーションを同定・抽出する処理を行う.手順\hspace{0.6mm}(1)で\hspace{0.6mm}作成された,単語の出現位置表から,文$s_n$の単語共有表を作成する(図4参照).\begin{figure}[hbt]\begin{center}\begin{footnotesize}\begin{minipage}[t]{5cm}\begin{tabular}[t]{|c|c|c|}\multicolumn{3}{c}{\bf文$s_0$の単語共有表}\\\hline\multicolumn{1}{|c|}{\bf文番号}&\multicolumn{1}{c|}{\bf単語番号}&\multicolumn{1}{c|}{\bf位置番号}\\\hline14&8&2\\14&9&3\\15&3&2\\15&4&3\\18&9&2\\18&10&3\\31&6&2\\31&7&3\\33&6&2\\33&12&2\\33&13&3\\\multicolumn{3}{|c|}{$\vdots$}\\73&0&0\\73&2&2\\73&3&3\\\multicolumn{3}{|c|}{$\vdots$}\\\end{tabular}\end{minipage}\quad\begin{minipage}[t]{5cm}\begin{tabular}[t]{|c|c|c|}\multicolumn{3}{c}{\bf下記のものは単語共有表には}\\\multicolumn{3}{c}{\bf含めない}\\\hline\multicolumn{1}{|c|}{\bf文番号}&\multicolumn{1}{c|}{\bf単語番号}&\multicolumn{1}{c|}{\bf位置番号}\\\hline0&0&0\\0&1&1\\0&2&2\\0&3&3\\1&2&2\\2&5&2\\3&9&3\\4&2&2\\6&19&3\\7&8&2\\10&2&3\\12&7&3\\13&9&2\\16&22&2\\17&4&2\\19&9&2\\21&33&3\\22&10&2\\23&27&2\\\end{tabular}\end{minipage}\end{footnotesize}\end{center}\caption{コーパス$W$中の文$s_0$の単語共有表(左表)と単語共有表には含めない出現位置(右表)}\label{Fig:wordkyofile}\end{figure}文$s_n$の単語共有表とは,文$s_n$中のすべての単語\hspace{-0.2mm}\(w_n^0,\ldotsw_n^{T(n)}\)\hspace{-0.2mm}(の状態遷移)の出現位置表を文番号の小さい順にマージして一つの表にまとめた(文$s_n$に対して固有の)ものである.なお,図\ref{Fig:wordkyofile}において\hspace{-0.2mm}``位置番号''\hspace{-0.2mm}とあるものは,マージする前に,各単語の出現位置表に文$s_n$の単語番号$t(n)$を付けて,文$s_n$の単語共有表の情報として付加したものである.つまり,文$s_n$の単語共有表の中の情報は``文番号(出現する文の番号$m$)'',``単語番号(文$s_m$中の単語位置)'',``位置番号(文$s_n$中の単語位置)''の3項組となる.以下では,単語共有表の一行(3項組)を出現位置レコードと呼ぶ.ただし,次のものは文$s_n$の単語共有表に含めない.\begin{itemize}\item[1.]文番号が$n$である出現位置レコード.\item[2.]マージしたときにその文番号を持つ出現位置が一つしかない出現位置レコード.たとえば,図\ref{Fig:edgeattr}の出現位置表において,文番号$1$や$2$を持つ出現位置レコードがこれに該当する.\end{itemize}上記のものを含めない理由は,手順(3)と手順(5)で,文$s_n$の単語共有表を参照して,他の文にも出現する文$s_n$\hspace{-0.2mm}中の単語の組み合わせを探すために,文$s_n$\hspace{-0.2mm}中の単語が複数個出現する他の文番号を持つ出現位置レコードのみを,文$s_n$の単語共有表に残せばよいからである.\subsection*{手順(3):二文中に共通して出現するパターンの抽出}手順(3)から手順(6)では,他の文にも出現する文$s_n$\hspace{-0.2mm}中のパターンを抽出するために,二文(文$s_n$と\hspace{-0.2mm}他の文)中で共通して現れるパターンを抽出する処理(手順(3),手順(5))を繰り返し,抽出されるパターンを収集する(手順(4),手順(6)).手順(3)と手順(4)では,抽出・収集するパターンは単語または単語列であり,手順(5)と手順(6)では,抽出・収集するパターンはギャップを持った単語の組み合わせである(\ref{Subsec:auto_extract}節参照).手順(2)で作成した文$s_n$の単語共有表を,同一文番号を持つ出現位置レコードごとにまとめ,分割する(図\ref{Fig:tst2sp}参照).\begin{figure}[hbt]\begin{center}\epsfile{file=kita5.eps,width=0.70\textwidth}\end{center}\caption{コーパス$W$中の文$s_0$から抽出された出現パターン}\label{Fig:tst2sp}\end{figure}こうして得られた分割表のうち,文番号が$m$であるものをとりだし,次の抽出規則を用いて出現パターンを抽出する.ここで抽出される出現パターンは,文$s_n$と文$s_m$の両者に現れるパターンとなる.\begin{itemize}\item[{\bf抽出規則1~:~}]二つの出現位置レコード$r_1$と$r_2$($\neqr_1$)の位置番号(文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}中の単語位置)を${\calP}_1$,${\calP}_2$と表し,単語番号(文$s_m$中の単語位置)を${\calW}_1$,${\calW}_2$と表すと,\begin{itemize}\item[1.]\({\calP}_1+1={\calP}_2\)かつ\({\calW}_1+1={\calW}_2\)のとき,``[$r_1$の単語][$r_2$の単語]''\item[2.]\({\calP}_2+1={\calP}_1\)かつ\({\calW}_2+1={\calW}_1\)のとき,``[$r_2$の単語][$r_1$の単語]''\end{itemize}のように前後に単語を結び付け,結び付いた単語列(二単語以上のパターン)を一つの出現パターンとする.\item[{\bf抽出規則2~:~}]抽出規則1を満たす$r_2$がない場合,``[$r_1$の単語]''を一つの出現パターンとする.\end{itemize}上記の抽出規則により得られる出現パターンはコーパス中に最低でも2回出現するために,文$s_n$に含まれるコロケーション(またはその要素)となる可能性がある.以上の処理を,文$s_n$の単語共有表のすべての分割表に対して行い,出現パターンをすべて抽出する.\subsection*{手順(4):単語パターンの収集と連続型コロケーションの抽出}手順(3)で抽出された出現パターン群から,位置番号の値のみの比較処理で,文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}の単語パターンを収集する(図\ref{Fig:subpdel}参照).ここで,単語パターンとは,文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}中の単語(列)が一つのまとまりとして他の文にも出現するものである.\begin{figure}[hbt]\begin{center}\epsfile{file=kita6.eps,width=0.70\textwidth}\end{center}\vspace{-3mm}\caption{コーパス$W$中の文$s_0$の部分パターンの削除}\label{Fig:subpdel}\vspace{-2mm}\end{figure}抽出された出現パターン群から,次の収集規則により,既に抽出されたパターンに包含される断片的なパターンを削除する.\begin{itemize}\item[{\bf収集規則~:~}]文$s_n$中で,あるパターンが抽出された場所からは,その部分パターンを抽出しないとし,部分パターンを削除する.\end{itemize}上の収集規則を満たすために問題となるのは,出現パターンが複数個抽出されたときに,複数の出現パターンが同じ位置番号の値の単語を持つ場合である.その場合,出現パターン$a$の最小の位置番号を${\calP}_{min}(a)$,最大の位置番号を${\calP}_{max}(a)$とすると,もし$a$の位置番号(列)が最大値・最小値の比較によって出現パターン$b$(\(\neqa\))の位置番号列に包含される(\({\calP}_{min}(b)\leq{\calP}_{min}(a)\)かつ\({\calP}_{max}(a)\leq{\calP}_{max}(b)\))ならば$a$を削除する.単語パターンは文$s_n$中のパターンの位置のみで判定して収集し,以後,位置番号の情報のみを必要とする.たとえば,複数の出現パターンの位置番号列が全く一致する場合(\({\calP}_{min}(a)={\calP}_{min}(b)\)かつ\({\calP}_{max}(a)={\calP}_{max}(b)\))は,同一単語パターンであるので,どれか一つを残し,削除すればよい(図\ref{Fig:subpdel}(1)(3)(5)).収集規則で削除されずに残された出現パターンを文$s_n$の単語パターンとし,単語パターンの集合を$P_{s_n}$とする.$P_{s_n}$中の単語列(二単語以上のパターン)を文$s_n$中の連続型コロケーションとして抽出する.たとえば,コーパス$W$の文$s_0$の\hspace{-0.1mm}$P_{s_0}$\hspace{-0.1mm}からは``ですか''が抽出される.また,$P_{s_n}$中の単語パターンは,文$s_n$中の不連続型コロケーションの構成要素となる.\subsection*{手順(5):二文中に共通して出現する不連続型コロケーションの抽出}手順(4)で作られた集合\hspace{-0.1mm}$P_{s_n}$\hspace{-0.1mm}中の単語パターンは,文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}中の単語(列)が,コーパス中の他の文にも出現するパターンであり,文$s_n$における単語のまとまりと考えることができる.\ref{Subsec:auto_extract}節で述べたように,文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}に含まれる不連続型コロケーションは,集合$P_{s_n}$中の単語パターンが,文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}の中と同じ組み合わせ(同順)で他の文中でもギャップを持って共起するものである.文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}中のどのような不連続な単語の組み合わせが他の文に出現しているかを知るために,再度,文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}中と同じ単語の組み合わせが出現している他の文に対して処理を行う.文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}の単語共有表の分割表で,文番号が\hspace{-0.1mm}$m'$\hspace{-0.1mm}であるものをとりだす.文番号\hspace{-0.1mm}$m'$\hspace{-0.1mm}の分割表から,手順(3)と同様の処理で抽出される二文中に共通する出現パターンが,位置番号列の比較によって,$P_{s_n}$中の単語パターンと一致するかどうかを調べる.もし,文$s_{m'}$との間で複数の($P_{s_n}$中の)単語パターンが共通して出現していて,かつ両方の文で同順でギャップを持って現れている場合,その単語パターンの組み合わせが文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}と文$s_{m'}$に共通して現れる不連続型コロケーションである.以下で,処理の詳細な説明を述べる.\subsubsection*{手順(5.1):要素の認定}手順(3)で作成された文$s_n$の単語共有表の分割表のうち,文番号が$m'$であるものをとりだし,二文(文$s_n$と文$s_{m'}$)中に共通して出現するパターンを抽出する.ただし,この手順では,抽出された出現パターンから,次の条件を満たさないパターンを削除する(図\ref{Fig:idenexam}参照.ただし,$P_{s_0}$は図\ref{Fig:subpdel}のものを用いている).\begin{itemize}\item[{\bf条件1~:~}]$P_{s_n}$中にある単語パターンと位置番号(列)が一致するパターンであること.\item[{\bf条件2~:~}]条件1を満たさない出現パターンをすべて削除した後,出現パターンが,``位置番号(文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}中の位置)''と``単語番号(文$s_{m'}$中の位置)''ともに不連続な関係が成立する他の出現パターンを持つものであること.\end{itemize}\begin{figure}[hbt]\begin{center}\epsfile{file=kita7.eps,width=0.90\textwidth}\end{center}\caption{コーパス$W$中の文$s_0$に含まれる不連続型コロケーションの要素の認定}\label{Fig:idenexam}\end{figure}条件1は,出現パターンの最小位置番号と最大位置番号が,$P_{s_n}$中にある単語パターンの最小位置番号と最大位置番号と完全に一致する場合のみ成立する.たとえば,図\ref{Fig:idenexam}(a)の出現パターン2と図\ref{Fig:idenexam}(b)の出現パターン2は,図\ref{Fig:subpdel}の$P_{s_0}$中の単語パターン1と一致し,図\ref{Fig:idenexam}(b)の出現パターン1は図\ref{Fig:subpdel}の$P_{s_0}$中の単語パターン2と一致するため,条件1を満たす.しかし,図\ref{Fig:idenexam}(a)の出現パターン1は条件1を満たさない.次に,条件1を満たす出現パターンが一つしか存在しない場合は,条件2で比較対象となる他の出現パターンがないため,このパターンは削除する(図\ref{Fig:idenexam}(a)の出現パターン2).もし条件1を満たす出現パターンが複数ある場合,ある出現パターンに対して,位置番号と単語番号が共に不連続な関係が成立する他の出現パターンを探す.なお,条件2の不連続な関係は,次の不連続条件により判定できる.ここで,条件2の判定の対象となる出現パターンを$a$,比較対象の他の出現パターンを$b$とする.また,${\calW}_{min}(a)$を$a$の最小単語番号,${\calW}_{max}(a)$を$a$の最大単語番号とする.最小位置番号と最大位置番号は,手順(4)と同様,${\calP}_{min}(a)$と${\calP}_{max}(a)$で表す.\begin{itemize}\item[{\bf不連続条件A~:~}]\({\calP}_{min}(a)-1>{\calP}_{max}(b)\)かつ\({\calW}_{min}(a)-1>{\calW}_{max}(b)\)\item[{\bf不連続条件B~:~}]\({\calP}_{max}(a)+1<{\calP}_{min}(b)\)かつ\({\calW}_{max}(a)+1<{\calW}_{min}(b)\)\end{itemize}不連続条件Aまたは不連続条件Bの一方を満たす場合,パターン$a$とパターン$b$の間に位置番号と単語番号とで共に不連続な関係が成立する.二つの不連続条件を用いて条件2を満たさない出現パターンを削除する.図\ref{Fig:idenexam}(b)の場合,出現パターン1と出現パターン2の間には,位置番号(文$s_0$中の位置)と単語番号(文$s_{73}$中の位置)共に不連続な関係が成立する(不連続条件を満たす)ため,二つのパターンはともに条件2を満たす.条件1と条件2を共に満たす出現パターン($P_{s_n}$中の単語パターン)が,文$s_n$に含まれる不連続型コロケーションの要素となる.つまり,そのパターンを共有する文$s_{m'}$(図\ref{Fig:idenexam}(b)の場合は\(m'=73\))と,文$s_n$には同じ不連続な単語の組み合わせが出現する.条件1と条件2を共に満たす出現パターンがある場合,次の手順(5.2)の処理を行い,二文中で共通する不連続型コロケーションを抽出する.\subsubsection*{手順(5.2):多分木の構築}手順(5.1)で抽出された文$s_n$と文$s_{m'}$で共通して出現する出現パターンのうちの一つを$a$としたときに,不連続条件Aを満たす$b$を持たない(両方の文で,その出現パターンより前の位置には他の出現パターンが出現していない)出現パターンが,文$s_n$と文$s_{m'}$との間で共通して現れる不連続型コロケーションの先頭の要素である.先頭の要素である出現パターンすべてに対して,先頭の要素ではない(両方の文で,ある出現パターンの後に出現している)出現パターンをつないで,先頭の出現パターンを根とした多分木を構成する.以下にその多分木の構築について述べる.最初に,先頭の要素である出現パターンを各々別の木構造の根とする.各々の根に対してつなぐことのできる出現パターンは,根を$a$としたときに不連続条件Bが成立する出現パターン$b$のみである.このとき,$b$は根$a$の子孫となる.つまり,木構造の各々の節の出現パターンを$a$としたときに,\begin{itemize}\item不連続条件Bを満たす出現パターン$b$が節$a$の子孫である.\itemあるいは,不連続条件Aを満たす出現パターン$b$が節$a$の祖先である.\end{itemize}という条件を満たし,木構造が根のみである場合は単純に根の子として直接つなげればよい.しかし,既に根以外の節がある場合は,次のようにしてパターンを多分木につなげていく(図\ref{Fig:ctree}参照).\begin{itemize}\item[1.]節$X$の子孫であり,かつ節$X$が子パターンを持っていない場合,節$X$の子としてつなげる.\item[2.]節$X$\hspace{-0.1mm}の子孫であり,かつ節$X$\hspace{-0.1mm}の子の祖先でもある場合,節$X$\hspace{-0.1mm}と節$X$\hspace{-0.1mm}の子の間に挿入する.\item[3.]節$X$\hspace{-0.1mm}の子孫であり,かつ節$X$\hspace{-0.1mm}の子すべてに対して子孫でも祖先でもない場合,節$X\hspace{-0.1mm}$の子としてつなげる.\end{itemize}上の条件を,1,2,3の順に適用して多分木を構築する.\begin{figure}[hbt]\begin{center}\epsfile{file=kita8.eps,width=0.50\textwidth}\end{center}\caption{多分木による不連続型コロケーションの抽出}\label{Fig:ctree}\vspace{4mm}\end{figure}以上の処理に基づいて,すべての出現パターンを各々多分木につなげる.構成されたすべての多分木を根からすべての葉までたどった各々の出現パターン($P_{s_n}$中の単語パターン)の組み合わせが,文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}と文$s_{m'}$の間で共通して出現する文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}中の不連続型コロケーションである.たとえば,図\ref{Fig:idenexam}(b)の場合,文$s_0$と文$s_{73}$との間では,出現パターン1``もしもし''が根となり,残る出現パターン2``ですか''を根につなぐことになる.``ですか''は葉となるので,根からたどったパターン``もしもし〜ですか''が文$s_0$と文$s_{73}$で共通して出現する不連続型コロケーションとして抽出される.\subsection*{手順(6):不連続型コロケーションの収集}手順(5)を文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}の単語共有表のすべての分割表に対して行い,抽出される二文(文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}と他の文)中で共通して出現する$P_{s_n}$中の単語パターンの組み合わせ(不連続型コロケーション)から,文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}中の不連続型コロケーションを重複しないように収集する.まず,抽出された各々の不連続型コロケーション$\alpha$の先頭の要素である単語パターンと,不連続型コロケーション$\beta$\((\neq\alpha)\)の先頭の要素である単語パターンの位置番号列を比較する.位置番号列が一致した場合は,次の要素同士を比較するという処理を繰り返す.すべての単語パターンが一致すれば,\hspace{-0.2mm}$\alpha$\hspace{-0.1mm}と\hspace{-0.1mm}$\beta$\hspace{-0.1mm}を文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}の同じ不連続型コロケーションとし,一致しない要素が一つでもあれば,$\alpha$と$\beta$は文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}中の異なる不連続型コロケーションとする.\vspace{-2mm}\subsection*{手順(7):コロケーションの集計}コーパス中のすべての文に対して手順(2)から手順(6)の処理を行い,各文に含まれる連続型および不連続型コロケーション(の候補)を手順(4)と手順(6)で抽出する.コーパス全体でのコロケーションを集計するために,抽出された連続型および不連続型コロケーションを,各々単語の組み合わせそのもの(文字列)の比較により,同じものが抽出された回数を求める.\vspace{1zh}以上,手順(1)から手順(7)で,コロケーションの抽出法を述べてきた.手順(1)と手順(7)のみで若干の文字列処理を必要とするほかは,すべて整数(位置情報)の比較演算のみで行うことができる.また,各文$s_n$\((0\len\leN)\)が含むコロケーションの抽出処理は,各々独立したものであり,分割処理を行うことで,計算機の負荷を軽くすることができる.本手法の処理の特徴を次に示す.\begin{itemize}\item[1.]各単語間の距離値そのものを扱うのではなく,各単語の関係を``連続''か``不連続''かのみとして考える.\item[2.]意味的にまとまりのない断片的な単語列の抽出を防ぐために,池原ら\cite{Ikehara95}のように最長一致の原則により単語列の長いものだけを抽出する.\item[3.]多分木を構築することで一度の処理で,すべての任意の長さの不連続型コロケーションを抽出する.\item[4.]コーパス全体に含まれるコロケーションだけではなく,任意の文(または任意の範囲の文)に含まれるコロケーションを知りたい場合にも適する.\item[5.]処理するコーパスを大きくしたい場合,位置情報を追加または新規作成するだけでよい.\end{itemize}
\section{コロケーションの抽出実験}
\label{Sec:experiment}\subsection{言語データ}前節で述べた抽出法を用いて,コロケーションの抽出実験を行った.実験で使用したデータはATR自動翻訳電話研究所で作成されたATR対話データベース(ATRDialogueDatabase;ADD)から抜き出した.ADDは主に電話またはキーボードを介した目的指向型の対話に基づいて作成された話し言葉ないしは疑似話し言葉に関する言語データベースであり,ADD中の各単語には形態素解析等の様々な事前分析により,表記,ひらがなによる読み,標準表現,品詞,活用型,音便等の属性が付与されている.本実験では,単語の表記の部分のみを用いた.なお,ADDには会話属性として領域(国際会議,旅行等)とメディア(電話,キーボード等)がある.本実験では,国際会議に関するキーボード会話データを用いた.キーボード会話とは,キーボードを使って入力し,計算機を介してコミュニケーションを行う会話で,話し言葉に近い言い回しを含んでいる.使用したデータの大きさを表\ref{Tab:sourcedata}に示す.\begin{table}[hbt]\begin{center}\caption{抽出実験に用いたデータの大きさ}\label{Tab:sourcedata}\begin{tabular}{lccc}\hline言語&文の数&異なり単語数&延べ単語数\\\hline日本語&6,025&3,799&71,780\\\hline英語&5,984&3,158&64,088\\\hline\end{tabular}\end{center}\end{table}\subsection{実験結果}実験結果を,表\ref{Tab:jcolalphaht209}(日本語データ)および表\ref{Tab:ecolalphaht209}(英語データ)に示す(式(\ref{Eq:eq_state})で,$\alpha\approx1^{-10}$程度).実験結果より,連続型コロケーションと不連続型コロケーションともに意味的にまとまりのある単語の組み合わせを抽出している.また,名詞間の共起関係(複合名詞句等)よりも,述語型の定型表現や慣用表現を多く抽出している.一方,従来の手法で抽出される連続型コロケーションは,相互情報量を用いた方法では,主に複合語やコーパスのドメインに依存した複合名詞句であり,仕事量基準を用いた方法では,主に述語型の定型表現や慣用句である\cite{Kita94a,Kita94b}.本手法は,出現頻度をスコアとして抽出したために,同じく出現頻度に着目した仕事量基準を用いた方法と同じ傾向の表現を抽出し,従来法に相当する結果を得た.ただし,不連続型コロケーションは,全体として出現回数が少ないために,一部にノイズ的なものを含んでいる.この原因の一つとして,今回の実験で使用した言語データの規模が小さかったことがあげられる.抽出された不連続型コロケーションの出現回数は,連続型コロケーションの出現回数に比べ圧倒的に少なく,最も多い場合でも,日本語の場合に13回,英語の場合に5回に過ぎない.このため,偶然共起したような単語の組み合わせが,ノイズとして混入してしまった.より大規模の言語データを用いれば,ノイズ的な単語の組み合わせの混入を抑えることができると考えられる.不連続型コロケーションの出現回数が少ないという点に関しては,今回実験に用いた言語データの性質も関係していると思われる.抽出実験に用いた言語データは会話,すなわち話し言葉であり,話し言葉の性質として,断片的で不完全な表現や省略が多いことをあげることができる.その結果として,話し言葉中には不連続型コロケーションの絶対数が少ないのではないかと考えられる.この点に関しては,新聞記事等の言語データを対象とした抽出実験を行い,今回の結果と比較してみる必要があるだろう.これは,今後の課題である.\begin{table}[hbt]\begin{center}\caption{実験結果(日本語)}\label{Tab:jcolalphaht209}\begin{footnotesize}\begin{tabular}{|lr||lr|}\hline\multicolumn{2}{|c||}{連続型コロケーション}&\multicolumn{2}{c|}{不連続型コロケーション}\\\hline\multicolumn{2}{|c||}{種類数10,994}&\multicolumn{2}{c|}{種類数8,293}\\\hline\multicolumn{2}{|c||}{延べ出現回数26,308}&\multicolumn{2}{c|}{延べ出現回数9,139}\\\hline\multicolumn{2}{|c||}{コロケーションと出現回数}&\multicolumn{2}{c|}{コロケーションと出現回数}\\\hlineそうですか&111&はい〜ですね&13\\ですか&95&はい〜です&13\\わかりました&81&の〜です&10\\そうですね&81&の〜が&7\\ですね&73&はい〜が&7\\には&46&の〜の&6\\はいわかりました&46&を〜に&6\\あそうですか&43&もしもし〜ですか&5\\ですから&43&はい〜でございます&5\\はいかしこまりました&34&はい〜に&5\\失礼します&32&ええ〜が&5\\はい第13回コンピュータ国際会議事務局です&32&え〜ですか&4\\でしょうか&32&も〜に&4\\はいでは&30&は〜を&4\\それは&29&あと〜の&4\\ですが&29&を〜の&4\\失礼いたします&26&ええ〜で&4\\はい第13回コンピュータ国際会議事務局でございます&25&ええ〜に&4\\お世話になっております&25&で〜を&4\\それと&25&と〜ですね&4\\なんですが&25&表〜で&4\\はい失礼いたします&24&普通ページ〜表&4\\ですので&24&表〜ページ&4\\私は&23&2〜で&4\\どうもありがとうございました&23&が〜です&4\\でございます&23&の〜を&4\\にも&23&はい〜には&4\\はい失礼します&22&はい〜ておりまして&4\\でしたら&21&の〜から&4\\はいでは失礼いたします&21&の〜と&4\\では&21&あ〜ですか&3\\よろしくお願いします&20&ああ〜ですか&3\\ああそうですか&20&の方も〜の方も&3\\と申します&20&現在〜中です&3\\はいそうです&19&失礼ですが〜ですか&3\\\hline\end{tabular}\end{footnotesize}\end{center}\end{table}\begin{table}[hbt]\begin{center}\caption{実験結果(英語)}\label{Tab:ecolalphaht209}\begin{footnotesize}\begin{tabular}{|lr||lr|}\hline\multicolumn{2}{|c||}{連続型コロケーション}&\multicolumn{2}{c|}{不連続型コロケーション}\\\hline\multicolumn{2}{|c||}{種類数10,127}&\multicolumn{2}{c|}{種類数5,910}\\\hline\multicolumn{2}{|c||}{延べ出現回数24,692}&\multicolumn{2}{c|}{延べ出現回数6,414}\\\hline\multicolumn{2}{|c||}{コロケーションと出現回数}&\multicolumn{2}{c|}{コロケーションと出現回数}\\\hlineisthatso&82&isee〜right&5\\isee&70&from〜to&4\\andthe&62&and〜are&4\\thankyouverymuch&58&asfarasthe〜isconcerned&4\\ohisthatso&53&of〜and&4\\okaygoodbye&52&professor〜professor&4\\forthe&46&whetherthe〜ornot&3\\yesgoodbye&43&mr〜right&3\\tothe&38&professor〜oftokyouniversityand&3\\ofthe&36&professor〜and&3\\fromthe&31&yourapplicationis〜10th&3\\thankyou&31&fromthe〜ofthe&3\\willbe&31&the〜are&3\\yesitis&30&theslides〜theohp&3\\onthe&29&directly〜hecomes&3\\it's&29&yes〜speaking&3\\inthe&28&professor〜professor〜and&3\\withthe&28&the〜one&3\\isthe&25&yesthe〜andthe&3\\yesplease&25&the〜and&3\\mayihelpyou&23&out〜for&3\\isthat&23&forthe〜of&3\\sothe&22&of〜our&3\\thisis&22&ofthe〜ofthe&3\\allright&22&onthe〜and&3\\noproblem&22&inthe〜no&3\\itis&22&in〜and&3\\wehave&19&dr〜of&3\\yesthe&19&andthe〜are&3\\thistime&19&yes〜are&3\\atthe&19&iwillshow〜by&2\\isit&19&howmany〜willtherebe&2\\iunderstand&19&feeof〜perperson&2\\yesiwill&19&iwouldliketotake〜withme&2\\ohisee&19&fromthe〜tothe&2\\\hline\end{tabular}\end{footnotesize}\end{center}\end{table}\subsection{位置情報の変化によるコロケーションの違い}\ref{Sec:extract_algorithm}節で述べた抽出方法では,コーパス・データを受理する有限オートマトンを用いて単語の出現位置表を作成した.しかし,単語の出現位置表を作成する方法は,他にも色々と考えられる.本論文では有限オートマトンを用いた理由は,\ref{Subsec:based}節で述べたように,有限オートマトンより単語の出現するコンテキストをとらえるためである.また,本論文では有限オートマトンの作成にALERGIAアルゴリズムを用いたが,ALERGIAアルゴリズムの信頼範囲(式(\ref{Eq:eq_state})における$\alpha$の値)を変化させることにより,異なった出現位置表が作られる.追加実験として,ALERGIAアルゴリズムの信頼範囲を変化させた場合に抽出されるコロケーションの違いを調べた.結果として,状態の等価判定を厳しくする(式(\ref{Eq:eq_state})の\hspace{-0.2mm}$\alpha$の\hspace{-0.2mm}値が大きい)ほど,出現回数の多い単語同士の共起関係が強調される傾向にあり,出現回数の少ない長い表現の抽出は抑制された.これにより,単語数の少ないコロケーションが多く抽出された.特に,上位に抽出されたものの多くは2単語のみの表現であった.たとえば,日本語の場合には,格助詞間の共起(``〜の〜に'',``〜を〜に''等)が上位に抽出され,英語の場合には,前置詞と冠詞などの共起が上位に抽出された.上位の表現の出現回数は等価判定を緩くした場合に比べて多くなった.逆に,等価判定を緩くする($\alpha$の値が小さい)ほど短い表現の抽出が抑制され,単語数の多い長い表現が優先して抽出された.等価判定が厳しかった場合に抽出されていた短い表現は,より単語数の多い表現に吸収され,抽出されるコロケーションの種類が多くなった.我々の実験より,式(\ref{Eq:eq_state})の$\alpha$の値は0から0.1の範囲が適当であると考えられる.以上のように抽出されるコロケーションが変化する理由として次のことが考えられる.ALERGIAアルゴリズムでは,状態をマージする際の等価判定は,ある状態から遷移する単語とその遷移確率の類似判定をどれほど厳しく(または緩く)するかを意味している.したがって,等価判定を操作することにより,疑似的に,単語の結び付きの強さを考慮することができる.単語自身の出現回数が多い単語ほど,その単語に比べ,前後の単語が原文中で珍しい(出現回数が少ない)単語であることが増える.結果として,コーパス中で滅多に出現しないような単語が前後に結び付く(出現する)ことがあっても,結び付くことが少ない(珍しい)ために,単語間の関係が認められなくなる.ただし,あまりに等価判定が厳しすぎる場合は,接頭木アクセプタ(木構造)に近いものとなるために,各文での先頭からの距離値に左右されやすく,また,出現回数の多い単語が,その前後の単語を無視して共起することが増える.このため,\ref{Subsec:def_collocation}節での定義に対して,コロケーションとして不適切なものが上位に抽出される場合がある.
\section{おわりに}
\label{Sec:conclusion}本論文では,連続型および不連続型コロケーションの自動抽出法として,単語の出現位置表を用いて,単語の連続・不連続の関係により,出現頻度の高い単語の組み合わせを長さ優先の条件で抽出する方法を提案した.また,ATR対話データベースを用いた実験を行い,提案した方法の有効性を示した.本手法はコーパス中の各々の文に対する処理であることから,任意の文(またはコーパスの一部分)に含まれるコロケーションを知りたい場合にも有効である.今後の課題として,有限オートマトン以外の方法による出現位置表の作成や,抽出されたコロケーションの定量的な評価方法について研究を行いたいと考えている.\bibliographystyle{jnlpbbl}\bibliography{paper}\begin{biography}\biotitle{略歴}\bioauthor{小田裕樹}{1975年生.1997年徳島大学工学部知能情報工学科卒業.同年,同大学院博士前期課程入学,現在に至る.確率・統計的自然言語処理の研究に従事.情報処理学会学生会員.}\bioauthor{北研二}{1957年生.1981年早稲田大学理工学部数学科卒業.1983年から1992年まで沖電気工業(株)勤務.この間,1987年から1992年までATR自動翻訳電話研究所に出向.1992年9月から徳島大学工学部勤務.現在,同助教授.工学博士.確率・統計的自然言語処理,音声認識等の研究に従事.情報処理学会,電子情報通信学会,日本音響学会,日本言語学会,計量国語学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V08N02-03 | \section{はじめに}
人間はあいまいな情報を受け取り適宜に解釈して適切に会話を進めることができる.これは,人間が長年にわたって蓄積してきた,言語やその基本となる語概念に関する「常識」を持っているからである.すなわち,ある単語から概念を想起し,さらに,その概念に関係のある様々な概念を連想できる能力が重要な役割を果たしていると考えられる.本研究の前提とする「常識的判断」とは,「女性−婦人」,「山−丘」などは同義・類義の関係,「山−川」,「夕焼け−赤い」などは密な関係,「山−机」,「電車−空」などは疎な関係であると判断するなど,語と語の意味的関係について,コンピュータにも人間の常識的な感覚に近い判断をさせることをねらうものである.このような常識的判断を可能とするメカニズムは,利用者の意図を汲み取ることのできる人間的な情報処理システムの開発基盤として役立つと考えている.我々が開発を進めている常識的判断システム全体は,日常的な事項,すなわち,大きさ,重さ,速さ,時間,場所等に関する基本的な知識\cite{Kikuyama,Obata}と感覚や感情に関する知識\cite{Baba,Hanada,Tsutiya}で構成する判断知識ベースサブシステムと本論文で対象とする語概念間の関連度を評価する概念連鎖メカニズムで構成している.判断知識ベースを構成する知識は少数(約5千語)の代表的な語(代表語)の間の常識的な関係(事物の大小関係,夕焼け−赤いなど)を定義したものである.常識的判断システムに入力される多くの語は代表語ではなく,知識ベースには陽に表現されていない未知語となるため概念連鎖メカニズムは,これらの未知語について,意味的関係やその強さの度合いを評価し,最も関連の強い代表語を決定する.本稿では,この概念連鎖メカニズムの基盤となる概念ベースの構造,すなわち,語とその意味を表す属性(関連の強い語)の集合の構成とそれを用いた概念間の関連度の定量化方式について提案している.従来は一般に,概念間の類似性に重点が置かれ類似度として評価されているが,本稿では類似性のみならず「山と川」,「電車と駅」,「川と水」など概念間の幅広い関係の評価を対象とするため関連度として評価している.例えば,類似性の評価において「車と馬」は乗り物という観点において類似しているという考え方がとられているが,本稿の関連度評価では,両者の概念は乗り物という共通の属性をもっているに過ぎないと考え,全体としての関連度はかなり低いものとなる.当然,観点として乗り物が設定された場合の関連度は高くなる.観点となる概念のもつ属性の範囲に限定した関連度を評価する\cite{Irie2}ことにより,類似や相対,反意などにも対応可能である.概念間の類似度に関するテーマについては,幾つかの研究成果が報告されているが\cite{okada,oosuga,suzuki},多くは,連想に関する理論,あるいは,自然言語処理における類似語の処理などの研究であり,本研究で対象とするような常識的判断のための概念ベースや概念関連度とは異なる.概念ベースの構造や必要とされる正確さは目的により異なったものとなる.我々の対象とする常識的判断システムの概念ベースは自動学習や利用者の教示による継続的な改善(成長)が前提となる.常識的判断の適切さは概念ベースの内容と関連度計算方式に左右されるため,利用を通じた概念ベースの恒常的な成長の容易性は極めて重要な評価要因となる.\cite{kasahara4}では,概念構造の定義と概念ベースの機械構築および概念類似度の計算方式について興味深い報告がなされている.そこでは,一つの概念を,「意味特徴を表す属性」と「概念と属性の関連の深さを表す重み」で表現された$m$次元ベクトルとして取り扱い,2つの概念間の類似度は正規化された2ベクトルの内積として計算している.このベクトル空間モデルでは,約4万の概念を約3千の独立性の高い属性で表現することによりベクトル表現のための直交性の問題に対処しているが,必ずしも直交性が保証されているとは言えない.また,属性の重みの問題として,出現頻度に基づき重みが付与されているが,属性の追加/修正が発生した時,新しい属性の重みをどのように決定するのか,既に存在する属性の重みはどのように変更するのか,という問題が生じ,概念ベースの継続的な成長を前提とすることは難しい.本稿では,これらの問題を考慮した上で,継続的な成長を容易とするような新たな概念ベースを構築し,常識的判断として適切な関連度を計算できるような関連度評価方式を提案し,実験により評価する.以下,2章で,まず,概念連鎖メカニズムの実現に必要となる概念ベースの構造について述べ,より単純な構造の概念ベースを提案する.3章では,本稿の主題である概念関連度の定量化の問題を定式化し,概念の$n$次属性までの論理関係を考慮する新方式の提案を行う.4章では,2,3章で提案した概念ベースと概念関連度計算方式の各組合わせについて評価実験を行い,人間の常識的判断により近いかという観点と,概念ベースの継続的な成長の容易性の観点において従来法との比較検討を行う.
\section{概念ベースの構造}
\subsection{概念ベース}\label{BasicCB}本研究では\cite{kasahara1,kasahara4}で抽出された約4万の概念の利用を前提としており概念の定義は以下とする.概念の定義:概念$A$はその属性$a_i$と重み$w_i$の対の集合とする.\begin{eqnarray}A&=&\{(a_1,w_1),(a_2,w_2),\cdots,(a_m,w_m)\}\end{eqnarray}ここで,属性の直交性が仮定できるならば任意の概念は形式的に$m$次元属性空間のベクトルとして表現できる(ベクトルの大きさは1に正規化する).\begin{eqnarray}A&=&(w_1,w_2,\cdots,w_m)\label{Vector}\\&&0\lew_i\le1\nonumber\\&&\sum_{i=1}^mw_i^2=1\nonumber\end{eqnarray}ただし,$m$はすべての概念を定義するために必要な属性数である.概念ベースはそれら概念の集合である.以下に評価の前提とする3種の概念ベースについて述べる.\begin{description}\item[基本概念ベース:]約4万の概念Aとその属性$a_i$および重み$w_i$を複数の国語辞書などの語義文から自動的に獲得している.辞書の見出し部の単語を概念とし,語義文に含まれる自立語を属性として抽出し,それらの重みは属性の出現頻度を基に付与している.さらに,属性の自己参照による新たな属性の追加,及び不要な属性の統計的な除去からなる精錬を行うことによって概念ベースを機械構築している.このようにして構築された概念ベースをその後に変更を加えた概念ベースと区別するため,基本概念ベースと呼び,そこで使われている属性を基本属性と呼ぶことにする.(概念数:約4万,属性種別:約4万,一概念の属性数:平均約45,最大400)\item[圧縮概念ベース:]基本概念ベースの各基本属性をALT-J/Eシソーラス\cite{ikehara}の約3千種の概念カテゴリーに分類圧縮し,これらを新属性として各属性の重みを正規化し直す.この新属性の概念ベースを圧縮概念ベースと呼ぶ.(概念数:約4万,属性種別:約3千,一概念の属性数:平均約70,最大533)\item[縮小概念ベース:]基本概念ベースの各概念がもつ属性の中から重み順に30個を抽出することにより属性数を縮小し,属性の重みも正規化し直す.これを縮小概念ベースと呼ぶ.なお,属性数30という数は,\cite{irie}による最適な打ち切り属性数に関する実験結果によるものである.(概念数:約4万,属性種別:約4万,一概念の属性数:平均約26,最大30)\end{description}これらの3種の概念ベースは以下の特性を有している.\begin{itemize}\item機械構築しているため概念の属性には少なからぬ雑音(属性としてふさわしくない単語)が含まれている.\item属性の重みは概念の語義文内での自立語の出現頻度に基づいており,概念と属性の意味的関連の強さを正しく表しているとは言えない.\item概念により,その属性数は異なっており属性数の不充分な概念も多々ある.\end{itemize}\subsection{概念ベースの利用形態}\label{DefCon}3種の概念ベースのもつこれらの特性を考慮して,本研究では以下のような利用形態を評価する.\begin{enumerate}\item基本概念ベースでは属性の直交性を仮定できないので概念をベクトルとして表現することができず,関連度を2つの概念ベクトルの内積として定義できない.そのため,2つの概念の関連の強さを属性集合の近さ(一致する要素の数)で評価する.\item約3千種の属性と重みで表現された圧縮概念ベースの場合には,カテゴリー圧縮により属性間の独立性がある程度高められていることから,各概念を約3千次元のベクトルとして扱うことができ,関連度は2つの概念ベクトルの内積として定義する.\item概念の属性数を30個以下に縮小した縮小概念ベースにおいても属性の直交性を仮定できないので,2つの概念の関連の強さを集合としての近さで評価する.\end{enumerate}概念をベクトルとして取り扱う方式では,属性の重みは極めて重要な役割を果たすことから,新しい概念の追加や,既存の概念への属性の追加,修正に伴う重みの変更は困難となる.また,属性圧縮により基本属性がもっていた詳細な意味情報が失われ,十分な評価精度が得られない恐れがある.概念間の関連の度合いを属性集合の近さで評価する方式では,本稿で提案するような重みを使用しない評価方式や属性も概念としてとらえ,概念を属性の連鎖的関係で定義する方式も可能となる.属性の重みを使用しない方式では,当然ながら,概念に対する新たな属性の追加時に重みの付与は不必要であり,また,明らかに不適切と思われる属性の削除も極めて容易となる.\subsection{概念の連鎖的定義}\label{CBchain}概念ベースにおける各概念は,ある単語の表記によってラベル付けできる.また,基本概念ベースおよび縮小概念ベースでは,属性$a_i$もある単語表記である.したがって,概念ベース中の任意の属性の単語表記が同じ概念ベース中の概念の単語表記中に存在すると仮定すると,属性$a_i$をその単語表記に対応する概念とみなすことで,属性の属性を取り出すことができる.基本概念ベースと縮小概念ベースはこの条件を満たしているが,圧縮概念ベースはこの条件を満たしていない.いま,単語表記を$Word_i$,概念の属性を$a_i$と表現すると,ある概念$A$は次式で定義される.ただし,本節では重みは省略して記述する.\begin{eqnarray}\mbox{概念}A&=&Word_A\\&=&\{a_1,a_2,\cdots,a_i,\cdots,a_N\}\\&=&\{Word_1,Word_2,\cdots,Word_N\}\end{eqnarray}ここで,属性$a_i$を概念$A$の1次属性と呼ぶ.$Word_i$はある概念と見なせるので,\begin{eqnarray}\mbox{1次属性}a_i&=&WORD_i\\&=&\{a_{i1},a_{i2},\cdots,a_{ij},\cdots,a_{iM}\}\end{eqnarray}これらの属性$a_{ij}$(1次属性の1次属性)を概念$A$の2次属性と呼ぶ.概念$A$を2次属性までの概念連鎖で定義すると以下のようにマトリックス状になる.{\samepage\begin{eqnarray}&&\left(\begin{array}{cccc}\hspace{0.2cm}a_1\hspace{0.2cm}&a_2\hspace{0.2cm}&\cdots\hspace{0.2cm}&a_{N}\hspace{0.1cm}\end{array}\right)\nonumber\\A&=&\left[\begin{array}{cccc}a_{11}&a_{21}&\cdots&a_{N1}\\a_{12}&a_{22}&\cdots&a_{N2}\\\vdots&\vdots&\vdots&\vdots\\a_{1M}&a_{2M}&\cdots&a_{NM}\end{array}\right]\label{EMatrix}\end{eqnarray}}ただし,式\ref{EMatrix}では,$a_{ij}$は概念$A$の2次属性であり,概念$A$の各1次属性の1次属性数は一定($M$)としている.さらに,概念の2次属性もその1次属性の集合で表現でき,同様に概念$A$の$n$次属性まで定義可能である.したがって,基本概念ベースおよび縮小概念ベースでは,概念$A$は$n$次までの属性の連鎖で定義されていることになる.
\section{概念関連度の評価モデル}
\subsection{概念の属性ベクトル空間モデル}従来,概念関連度の評価は,2つの正規化された概念ベクトルの内積により行われている\cite{matsuzawa,kasahara4,salton,ishikawa,hokari}.すなわち,式\ref{Vector}のように表現された概念ベクトル間の内積により計算できる.しかし,この方式では各属性間の直交性を仮定しており,直交属性を選ぶことは容易ではなく\cite{takama},また,適切な重みを設定することも非常に困難であると思われる.\cite{kasahara4,ishikawa,hokari}ではALT-J/Eシソーラス\cite{ikehara}の約3千種の概念カテゴリーを属性として利用し,各属性の重みは,基本的には出現頻度により与えているが,十分な直交性を有しているか,また,適切な重みになっているか,あるいは,そのような適切な性質を持つような概念ベースへと自動的に精錬を行えるかが問題となる.\subsection{概念の属性集合モデル}\ref{CBchain}で示したように,本稿で提案する概念の定義では,任意の概念$A$はその属性の集合として定義されている.また,各属性はある概念であるため,結果として任意の概念$A$は$n$次までの属性の連鎖で定義されている.このような概念定義に対する関連度評価モデルを以下に述べる.\subsubsection{1次属性集合の一致度}各概念の属性には,その概念に関連する概念が並んでいるものと考えられるので,一致する属性数が多い程関連が強いと考えられる.したがって,2つの概念$A$,$B$の関連度は,それぞれの1次属性同士の一致単語数を0から1の範囲に正規化したものとする.すなわち,2つの概念$A$,$B$を1次属性$a_i,b_j$とその重み$u_i,v_j$を用いて,\begin{eqnarray}A&=&\{(a_i,u_i)|i=1\simL\}\label{ConA}\\B&=&\{(b_j,v_j)|j=1\simM\}\label{ConB}\end{eqnarray}と表現し,$a_i=b_j$なる$a_i$の個数を$s$個とするとき,概念$A$と概念$B$の一致度$Match(A,B)$を次式で定義する.\begin{eqnarray}Match(A,B)&=&(s/L+s/M)/2\label{Ematch}\end{eqnarray}この式は,概念$A$から見たときの属性の一致割合$s/L$と概念$B$から見たときの一致割合$s/M$の平均を表しており,重み情報は無視している.また,$L=M=N$(属性数が等しい)のとき,式\ref{Ematch}は,\begin{eqnarray}Match(A,B)&=&s/N\label{EmatchN}\end{eqnarray}となる.また,重み情報を利用する場合の一致度$MatchW(A,B)$を以下のように定義する.\begin{eqnarray}MatchW(A,B)&=&(s_A/n_A+s_B/n_B)/2\label{EmatchW}\\s_A&=&\sum_{a_i=b_j}u_i\nonumber\\s_B&=&\sum_{a_i=b_j}v_j\nonumber\\n_A&=&\sum_{i=1}^Lu_i\nonumber\\n_B&=&\sum_{j=1}^Mv_j\nonumber\end{eqnarray}この式は,概念$A$から見たときの一致している属性の重みの割合$s_A/n_A$と概念$B$から見たときの一致している属性の重みの割合$s_B/n_B$の平均を表している.\subsubsection{概念連鎖による関連度}1次属性同士を比較する際に,単語の完全一致ではなく,その単語が表している概念としての一致度を利用することができる.すなわち,1次属性同士の概念としての一致度は,それぞれの2次属性同士の一致単語数から導き,1次属性同士が単語としては一致していなくても,その一致度合いを見積もれるようにする方法である.一致度を利用することにより,2つの概念間の関連度はそれぞれの1次属性同士の一致度の平均として定義できる.ただし,一致度は0から1の範囲の実数であるため1次属性同士の対応関係が問題になってくる.いま,ある1次属性$a_i$と相手のすべての1次属性$b_j(j=1,\cdots,M)$との一致度を計算したとき,$a_i$は一致度が最大の$b_j$に対応させるべきである.しかし,同じことが他のすべての$a_i(i=1,\cdots,L)$にも言えるため,問題は複雑になる.これは,1次属性同士を並べるときに,対応する1次属性間の一致度の合計が最大になるように並べ替える問題である.このような並べ替え問題は,組み合わせ最適化問題の一種であり,要素数が多くなると組み合わせ爆発を起こすため,真の最適解を求めることはそれほど容易ではない.しかし,\cite{ukita}で提案している「単純法」のように,単純な方法でも比較的最適解に近い値がでることから,本稿で行う実験では並び替え問題の部分には単純法を利用している.単純法とは,最適化手法の欲張り法の一種で,一致度が最大のものを順に選択していく方法であり,その結果が最適解である保証はないが,比較的良好な解が得られるので,ここでの適用には十分であると判断している.なお,より正確に一致度の合計が最大になるように並び替えたい場合は,遺伝的アルゴリズムなどを用いることができる\cite{ukita}.以上の考察より,概念$A$と概念$B$との2次属性までの概念連鎖による関連度$Chain(A,B)$は以下に示すアルゴリズム(CNW)により評価する.{\bf概念連鎖による関連度評価アルゴリズム(CNW)}\begin{enumerate}\item1次属性数の少ない方の概念を概念$A$とし($L\leM$),概念$A$の1次属性の並びを固定する.\begin{eqnarray}A&=&(a_1,a_2,\cdots,a_L)\end{eqnarray}\item概念$B$の各1次属性を対応する概念$A$の各1次属性との一致度($Match$)の合計が最大になるように並べ替える.ただし,対応にあふれた概念$B$の1次属性($b_{x_j},\j=L+1,\cdots,M$)は無視する.\begin{eqnarray}B_x&=&(b_{x_1},b_{x_2},\cdots,b_{x_L})\end{eqnarray}\item概念$A$と概念$B$との関連度$Chain(A,B)$は,\begin{eqnarray}Chain(A,B)&=&(s/L+s/M)/2\label{Echain}\\s&=&\sum_{i=1}^LMatch(a_i,b_{x_i})\nonumber\end{eqnarray}である.また,1次属性数が同じ場合($L=M=N$)の関連度は,\begin{eqnarray}Chain(A,B)&=&s/N\end{eqnarray}となる.\end{enumerate}アルゴリズムCNWでは重み情報を利用していない.重み情報を利用した概念連鎖による関連度評価アルゴリズム(CW)は以下のようになる.{\bf重み付き概念連鎖による関連度評価アルゴリズム(CW)}\begin{enumerate}\item1次属性数の少ない方の概念を概念$A$とし($L\leM$),概念$A$の1次属性の並びを固定する.\begin{eqnarray}A&=&((a_1,u_1),(a_2,u_2),\cdots,(a_L,u_L))\nonumber\\\end{eqnarray}\item概念$B$の各1次属性を対応する概念$A$の各1次属性との重み付き一致度($MatchW$)の合計が最大になるように並べ替える.ただし,対応にあふれた概念$B$の1次属性($b_{x_j},\j=L+1,\cdots,M$)は無視する.\begin{eqnarray}B_x&=&((b_{x_1},v_{x_1}),(b_{x_2},v_{x_2}),\cdots,(b_{x_L},v_{x_L}))\nonumber\\\end{eqnarray}\item概念$A$と概念$B$との関連度$ChainW(A,B)$は,\begin{eqnarray}&&ChainW(A,B)=(s_A/n_A+s_B/n_B)/2\label{EchainW}\nonumber\\\\&&\hspace*{1cm}s_A=\sum_{i=1}^Lu_iMatchW(a_i,b_{x_i})\nonumber\\&&\hspace*{1cm}s_B=\sum_{i=1}^Lv_{x_i}MatchW(a_i,b_{x_i})\nonumber\\&&\hspace*{1cm}n_A=\sum_{i=1}^{L}u_i\nonumber\\&&\hspace*{1cm}n_B=\sum_{j=1}^{M}v_j\nonumber\end{eqnarray}である.ただし,$u_i,v_j$は,それぞれ属性$a_i,b_j$の重みである.\end{enumerate}アルゴリズムCWは,流れとしてはアルゴリズムCNWと同様であるが,1次属性同士の一致度の計算に重み付き一致度を用いる点と得られた一致度に重みを掛け合わせる点が異なる.\small\begin{figure}[tb]\begin{center}(a)1次属性\begin{tabular}{rrrrrrr}\hline机&=&\{&学校,&勉強,&本棚&\}\\椅子&=&\{&勉強,&教室,&木&\}\\\hline\end{tabular}\vspace{0.2cm}(b)2次属性\begin{tabular}{rrrrrrr}\hline学校&=&\{&大学,&生徒,&木造&\}\\勉強&=&\{&勉学,&鉛筆,&成績&\}\\本棚&=&\{&勉学,&書籍,&壁&\}\\教室&=&\{&生徒,&黒板,&大学&\}\\木&=&\{&木造,&樹木,&曜日&\}\\\hline\end{tabular}\vspace{0.2cm}(c)一致度マトリックス\begin{tabular}{r|rrr}\hline&学校&勉強&本棚\\\hline勉強&0&{\bf1}&1/3\\教室&{\bf2/3}&0&0\\木&1/3&0&{\bf0}\\\hline\end{tabular}\vspace{0.2cm}(d)計算\begin{eqnarray}椅子_x&=&(教室,勉強,木)\nonumber\\s&=&2/3+1+0=5/3\nonumber\\Chain(机,椅子)&=&(5/3)/3=5/9\nonumber\end{eqnarray}\end{center}\caption{関連度の計算例}\label{Eassoc}\end{figure}\normalsize図\ref{Eassoc}に重みを利用しない場合の概念連鎖による関連度(CNW)の計算例を示す.比較する対象概念を「机」と「椅子」とし,属性数を3個とした場合のそれぞれの(a)1次属性,および,1次属性の1次属性,すなわち,(b)2次属性の例である.(c)一致度マトリックスは,概念「机」の各1次属性と概念「椅子」の各1次属性とのそれぞれの1次属性集合の一致度である.たとえば,「学校」と「教室」の一致度は,「生徒」と「大学」が一致するので3個中2つが一致し,一致度は$2/3$である.この一致度マトリックスから最大値を順に選んでいくと,太字で示した1,2/3,0となり,「椅子」の1次属性の並びは(教室,勉強,木)となる.したがって,一致度の合計は5/3となるので,関連度は5/9である.
\section{評価実験と考察}
関連度の性能は,使用する概念ベースと関連度計算方式の両方に左右されるが,本稿では概念ベース3通り(基本概念ベース,圧縮概念ベース,縮小概念ベース)に対して,以下に示す5通りの関連度計算方式の各組合せについて検討する.\begin{description}\item[Match]重み情報を利用しない1次属性同士の一致度(式\ref{Ematch})\item[MatchW]重み情報を利用する1次属性同士の一致度(式\ref{EmatchW})\item[Chain]重み情報を利用しない2次属性までの概念連鎖による関連度(式\ref{Echain})\item[ChainW]重み情報を利用する2次属性までの概念連鎖による関連度(式\ref{EchainW})\item[Vector]ベクトル内積による関連度\end{description}ただし,使用する概念ベースによって利用できる関連度計算方式が限られてくるので,実際には表\ref{Case}に示す9通りについて評価する.この中で,圧縮概念ベースに対するベクトル内積(Vector)が従来方式である.\begin{table}[tb]\caption[]{概念ベースと関連度計算方式}\label{Case}\begin{center}\begin{tabular}{r|r|r|r}&重み&1次属性&2次属性\\\hline基本&利用&一致度(MatchW)&概念連鎖(ChainW)\\\cline{2-4}&無視&一致度(Match)&概念連鎖(Chain)\\\hline圧縮&利用&ベクトル内積(Vector)&\\\hline縮小&利用&一致度(MatchW)&概念連鎖(ChainW)\\\cline{2-4}&無視&一致度(Match)&概念連鎖(Chain)\\\end{tabular}\end{center}\end{table}\subsection{評価法}まず,以下のような4つの概念の組(サンプル概念)を準備する.\begin{center}(概念X$|$概念A\概念B\概念C)\end{center}ここで,概念Xは任意の概念(対象概念)であり,概念Aは概念Xと同義か類義の概念,概念Bは概念Xに密に関係する概念,概念Cは概念Xに疎な関係の概念である.密な関係とは反意関係・対関係・上位下位関係・全体部分関係・兄弟関係など具体的な関係を定義できるものを指し,疎な関係とは具体的な関係を定義できないものを指す.すなわち,対象概念Xに対してAが非常に関連が強く,Bが関連があり,Cはほとんど関連がない概念である.$r_A$を概念Xと概念Aとの関連度,$r_B$を概念Xと概念Bとの関連度,$r_C$を概念Xと概念Cとの関連度とすると,\begin{equation}r_A>r_B>r_C\end{equation}のとき,その関連度計算結果は正解であり,それ以外は不正解である.次に,そのようなサンプル概念をどのように作成するのかが問題となるが,本研究では,人間の常識的判断に近いものほど良いと考えているので,サンプル概念の作成は人手によるものとした.すなわち,被験者約30名に対して,サンプル概念(X,A,B,C)を20組以上作成してもらい,さらに,サンプル概念作成者以外の2人により各サンプル概念が正しいかどうか判断してもらい,1人でも正しいとは言えないと答えたサンプル概念は削除した.したがって,3人中3人とも同じと判断したサンプル概念を抽出した.以上のような過程を経て,合計559組のサンプル概念(da33-559)を準備した.表\ref{Sample}に,準備したサンプル概念の一部を示す.\begin{table}[tb]\caption[]{サンプル概念(抜粋)}\begin{center}\begin{tabular}{r|rrr}\hline概念X&概念A&概念B&概念C\\\hlineご飯&飯&米&青空\\安易&簡易&気持ち&経済\\意図&志向&内心&帰宅\\飲料&飲み物&喉&反省\\羽&翼&鳥&返還\\延期&順延&日程&関連\\演技&芝居&俳優&灯油\\演算&計算&処理&芋\\王女&王妃&王様&一致\\価格&物価&相場&転職\\河川&川&対岸&予想\\火&炎&火事&海\\花&花弁&花瓶&弁別\\過去&以前&歴史&減額\\会合&集会&集団&現行犯\\会話&対話&話&電車\\回想&回顧&過去&研修\\海&海洋&魚&机\\絵画&絵&画家&文庫\\獲得&取得&取捨&類似\\\hline\end{tabular}\end{center}\label{Sample}\end{table}関連度評価方式の評価点は,全サンプル概念(559組)に対する正解率,すなわち,サンプル概念100組あたりのA,B,Cの順序正解個数とする.\subsection{評価結果と考察}以上で準備したサンプル概念を用いて,表\ref{Case}に示した9通りの方式(概念ベースと関連度計算方式)に対して,評価実験を行った.実験結果を表\ref{Result1}に示す.\begin{table}[tb]\renewcommand{\arraystretch}{}\caption[]{関連度評価方式の実験結果}\label{Result1}\begin{center}\begin{tabular}{r|r|r}概念ベース&関連度計算方式&正解率\\\hline基本&一致度(Match)&75.1\\&一致度(MatchW)&77.8\\&概念連鎖(Chain)&79.8\\&概念連鎖(ChainW)&83.5\\\hline圧縮&ベクトル内積(Vector)&79.4\\\hline縮小&一致度(Match)&61.7\\&一致度(MatchW)&64.4\\&概念連鎖(Chain)&82.6\\&概念連鎖(ChainW)&84.3\\\hline\end{tabular}\end{center}\end{table}実験結果から,ChainW,Chain方式の正解率が従来のVector方式より高いことが分かる.その中でも,基本概念ベースよりも縮小概念ベースを用いた方がより高い.これは,基本概念ベースには多くの雑音(不適切な属性)が含まれているため,属性数を重みの大きい順に30個で打ち切ることにより,雑音をある程度除去できたことによる効果であると思われる.ただし,MatchW,Match方式では,逆に,縮小概念ベースよりも基本概念ベースを用いた方が正解率が高い.MatchW,Match方式は,1次属性のみしか用いないために,属性同士の一致確率が極めて低く,さらに属性数を30個に打ち切ってしまう縮小概念ベースでは,雑音の抑制効果よりも,属性同士の一致確率の減少がまさってしまうため,このような結果となったものと考えられる.この点においても,概念を連鎖的に利用することにより,属性同士が完全に一致していなくても概念としての一致度を利用できるChainW,Chain方式が有効であることが確認できる.圧縮概念ベースを用いたVector方式でも,属性数を30個で打ち切ると正解率が落ちる(正解率76.0\%)が,その落ちかたはMatchW,Match方式に比べて小さい.これは,基本概念ベースおよび縮小概念ベースでは属性種別が約4万であるのに対し,圧縮概念ベースでは属性種別が約3千と少ないため属性同士の一致確率が比較的高いことによる効果と考えられる.しかし,ChainW,Chain方式よりは劣っており,また,ChainW,Chain方式では縮小概念ベースを用いた方がより正解率が上がる.したがって,関連度計算方式としてChainW,Chainを採用すれば,よりコンパクトな概念ベース(縮小概念ベース)で,より良い関連度を計算できることが分かる.属性の重みを関連度計算に利用する場合と利用しない場合とを比較してみると,重みを利用した方がよりよい結果となっている.このことは,辞書での出現頻度を基に付与した重み情報が,どの程度正しいかは不明ではあるが,有効であることを示している.しかし,概念ベースを成長させて行くには,人間からの直接教示,電子新聞・書籍,インターネットを利用した文書収集などを通じて,概念や属性の追加・修正・削除を行っていく必要があり,その場合の適切な重み情報の付与は非常に困難である.したがって,重み情報を利用しない計算方式であるChainの正解率が,ChainWに比べてそれほど劣っていないことは,注目に値する.すなわち,単純に雑音的な属性は削除し良い属性は追加していくことで,概念ベースおよび関連度計算結果がより良いものになっていくであろうことが期待できる.もちろん,適切な重み情報を付与することが可能ならば,ChainWによりより精度の高い関連度を求めることができる.PentiumII400MHzのパーソナルコンピュータで実行した場合,サンプル概念559組(1677回の関連度計算)に対する計算時間は,圧縮のVector,縮小のMatchおよびMatchWでは約12秒,縮小のChainおよびChainWでは約23秒である.ChainやChainWでは,やや複雑な計算を行っているにもかかわらず倍程度の計算時間で済んでいる.これは,関連度計算を行うためには,概念表記(単語)を基にその概念を概念ベースから検索する必要があり,概念ベースの概念数が約4万と多いために,概念の検索処理に多くの計算時間がかかるためである.純粋な関連度計算の時間では,Vector,Match,MatchWの計算時間を1とすると,Chain,ChainWの計算時間は,縮小概念ベースの場合で30×30=900であるが,実際の利用においては検索処理は省略できないので,関連度計算時間は倍程度で済むようである.\subsection{概念ベースへの属性追加実験}従来の関連度計算方式Vectorでは,概念ベースを構築・拡張・精錬する際には,シソーラスなどの概念カテゴリーデータベースが必要であるのに対し,提案した関連度計算方式ChainW,Chainでは,シソーラスなどは不要である.そのため,概念ベースの構造は単純なものとなり,拡張・精錬,すなわち概念ベースの成長が容易に行えるであろうことが予想される.さらに,Chain方式では重み情報が不要なため,特に属性の追加は容易に行える.そこでここでは,縮小概念ベース+Chainに対して,概念への人手による適切な属性の追加実験を行い,概念ベースの成長の容易性と関連度性能の向上可能性を示す.実験手順および結果は以下の通りである.\begin{enumerate}\item評価実験で用いたサンプル概念559組(da33-559)から,100組を抽出し(da33-100)評価実験を行う.その結果,正解率86\%,すなわち,不正解数は14であった.\item不正解のサンプル概念組の各概念の関連度を見て,不当に低い概念に適切と思われる属性を人手により2〜6個追加する.\item属性追加を行った概念ベースを用いて,サンプル概念100組(da33-100)に対して,評価実験を行う.その結果,正解率98\%となった.(属性追加を行っても正解とはならなかったサンプル概念が14組中2組あった.)\item属性追加を行った概念ベースを用いて,サンプル概念559組(da33-559)に対して,評価実験を行う.その結果,正解率85.0\%となった.属性追加を行う前の概念ベースでは正解率82.6\%であり,正解数にすると462である.正解率85.0\%を正解数に換算すると475であり,正解数が13増えたことになる.\end{enumerate}Chain方式は,重みを計算には使用せずに概念の2次属性までを連鎖的に利用する方式である.したがって,一つの概念Xの属性を修正すると,概念Xを属性として持つ多くの概念に影響がおよぶ可能性がある.しかし,上の実験結果からは,そのような影響はプラス側にやや見られた程度であり,ほぼプラスマイナスゼロとみなせる.以上,単純な属性追加実験によって,概念ベースを容易に成長させることが可能であることが分かった.
\section{おわりに}
コンピュータに常識的な判断能力をもたせるための第一歩として,本稿では,語と語の意味的関係の強さの評価に関し人間の常識的感覚による判断とできるだけ近い判断のできる概念連鎖メカニズムの実現手段を提案した.具体的には,学習や利用者の教示により常に概念を更新できることを前提とする概念ベースの適切な構造とそれを用いた概念間の関連度の定量化方式を提案した.従来の関連度定量化方式は,概念を属性の重みベクトルで表現し,概念の関連度は2つの重みベクトルの正規化されたベクトル内積により評価している.ただし,ここでの属性はシソーラスなどを用いて,概念カテゴリーに置き換えておく必要があった.本稿では,この従来方式と概念の関連度合いを属性集合の近さとして評価する提案方式を実験により比較した.提案方式では,概念をその属性集合の2次元の連鎖的な集合(マトリックスで表現される)とみなし,2つの概念の対応する1次属性間での2次属性の一致度合いで評価している.また,属性を概念カテゴリーに置き換える操作は不要であり,より単純な構造の概念ベースとなる.実験は,機械構築した約4万語の概念ベースと複数の人間がそれぞれの常識的感覚に基づき作成した559組の評価サンプル概念を用いて行った.結果として,提案方式は判断の的確性の点で,従来のベクトル方式よりも優れていることを示した.また,提案方式で属性の重みを概念ベースの縮小化にだけ使い関連度計算では重みを使わない場合には,属性の追加・削減が容易となり,属性が学習や利用者の教示により継続的に改善され,判断の正確性は一層高いものとなることが期待できる.これらの理由から,提案方式は常識的判断のための概念連鎖メカニズムの実現に適した方式であると言える.\acknowledgment本研究は文部省からの補助を受けた同志社大学の学術フロンティア研究プロジェクトにおける研究の一環として行った.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.工学博士.主に,CAD/CAM,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会各会員.}\bioauthor{河岡司}{1966年大阪大学工学部通信工学科卒業.1968年同大学院修士課程修了.同年,日本電信電話公社入社,情報通信網研究所知識処理研究部長,NTTコミュニケーション科学研究所所長を経て,現在同志社大学工学部教授.工学博士.主にコンピュータネットワーク,知識情報処理の研究に従事.言語処理学会,人工知能学会,電子情報通信学会,情報処理学会,IEEE(CS)各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V14N01-06 | \section{はじめに}
\label{sec:intro}{\bfseries機能表現}とは,「にあたって」や「をめぐって」のように,2つ以上の語から構成され,全体として1つの機能的な意味をもつ表現である.一方,この機能表現に対して,それと同一表記をとり,内容的な意味をもつ表現が存在することがある.例えば,\strref{ex:niatatte-F}と\strref{ex:niatatte-C}には,「にあたって」という表記の表現が共通して現れている.\begin{example}\item出発する\kern0pt\uline{にあたって},荷物をチェックした\label{ex:niatatte-F}\itemボールは,壁\kern0pt\uline{にあたって}跳ね返った\label{ex:niatatte-C}\end{example}\strref{ex:niatatte-F}では,下線部はひとかたまりとなって,「機会が来たのに当面して」という機能的な意味で用いられている.それに対して,\strref{ex:niatatte-C}では,下線部に含まれている動詞「あたる」は,動詞「あたる」本来の内容的な意味で用いられている.このような表現においては,機能的な意味で用いられている場合と,内容的な意味で用いられている場合とを識別する必要がある\cite{日本語複合辞用例データベースの作成と分析}.以下,文~(\ref{ex:niatatte-F}),(\ref{ex:niatatte-C})の下線部のように,表記のみに基づいて判断すると,機能的に用いられている可能性がある部分を{\bf機能表現候補}と呼ぶ.機能表現の数については,いくつかの先行研究が存在する.\cite{日本語表現文型}は,450種類の表現を,意味的に52種類に分類し,機能的に7種類に分類している.\cite{階層構造による日本語機能表現の分類}は,森田らが分類した表現の内,格助詞,接続助詞および助動詞に相当する表現について,階層的かつ網羅的な整理を行い,390種類の意味的・機能的に異なる表現が存在し,その異形は13690種類に上ると報告している.土屋らは,森田らが分類した表現の内,特に一般性が高いと判断される337種類の表現について,新聞記事から機能表現候補を含む用例を無作為に収集し,人手によって用法を判定したデータベースを作成している.このデータベースによると,機能表現候補が新聞記事(1年間)に50回以上出現し,かつ,機能的な意味で用いられている場合と,それ以外の意味で用いられている場合の両方が適度な割合で出現する表現は,52種類である.本論文では,この52種類の表現を当面の検討対象として,機能表現の取り扱い状況を検討する.まず,既存の解析系について,この52種類の表現に対する取り扱い状況を調査したところ,52種類の表現全てに対して十分な取り扱いがされているわけではないことが分かった\footnote{詳しくは,\ref{subsec:既存の解析系}節を参照}.52種類の表現の内,形態素解析器JUMAN~\cite{juman-5.1}と構文解析器KNP\cite{knp-2.0}の組合わせによって,機能的な意味で用いられている場合と内容的な意味で用いられている場合とが識別される可能性がある表現は31種類である.また,形態素解析器ChaSen~\cite{chasen-2.3.3}と構文解析器CaboCha~\cite{cabocha}の組合わせを用いた場合には,識別される可能性がある表現は26種類である.このような現状を改善するには,機能表現候補の用法を正しく識別する検出器が必要である.そのような検出器を実現する方法として,検出対象である機能表現を形態素解析用辞書に登録し,形態素解析と同時に機能表現を検出する方法と,形態素解析結果を利用して機能表現を検出する方法が考えられる.現在,広く用いられている形態素解析器は,機械学習的なアプローチで接続制約や連接コストを推定した辞書に基づいて動作する.そのため,形態素解析と同時に機能表現を検出するには,既存の形態素に加えて各機能表現の接続制約や連接コストを推定するための,機能表現がラベル付けされた大規模なコーパスが必要になる.しかし,検出対象の機能表現が多数になる場合は,作成コストの点から見て,そのような条件を満たす大規模コーパスを準備することは非現実的である.形態素解析と機能表現検出が独立に実行可能であると仮定し,形態素解析結果を利用して機能表現を検出することにすると,前述のような問題を避けられる.そこで,機能表現の構成要素である可能性がある形態素が,機能表現の一部として現れる場合と,機能表現とは関係なく現れる場合で,接続制約が変化しないという仮定を置いた上で,人手で作成した検出規則を形態素解析結果に対して適用することにより機能表現を検出する手法が提案されてきた\cite{接続情報にもとづく助詞型機能表現の自動検出,助動詞型機能表現の形態・接続情報と自動検出,形態素情報を用いた日本語機能表現の検出}.しかし,これらの手法では,検出規則を人手で作成するのに多大なコストが必要となり,検出対象とする機能表現集合の規模の拡大に対して追従が困難である.そこで,本論文では,機能表現検出と形態素解析は独立に実行可能であると仮定した上で,機能表現検出を形態素を単位とするチャンク同定問題として定式化し,形態素解析結果から機械学習によって機能表現を検出する方法を提案する.機械学習手法としては,入力次元数に依存しない高い汎化能力を持ち,Kernel関数を導入することによって効率良く素性の組合わせを考慮しながら分類問題を学習することが可能なSupportVectorMachine(SVM)\cite{Vapnik98a}を用いる.具体的には,SVMを用いたチャンカーYamCha~\cite{yamcha}を利用して,形態素解析器ChaSenによる形態素解析結果を入力とする機能表現検出器を実装した.ただし,形態素解析用辞書に「助詞・格助詞・連語」や「接続詞」として登録されている複合語が,形態素解析結果中に含まれていた場合は,その複合語を,構成要素である形態素の列に置き換えた形態素列を入力とする.また,訓練データとしては,先に述べた52表現について人手で用法を判定したデータを用いる.更に,このようにして実装した機能表現検出器は,既存の解析系および\cite{形態素情報を用いた日本語機能表現の検出}が提案した人手で作成した規則に基づく手法と比べて,機能表現を高精度に検出できることを示す.本論文の構成は以下の通りである.最初に,本論文の対象とする機能表現と,その機能表現候補の用法を表現するための判定ラベルについて述べた上で,機能表現検出をチャンク同定問題として定式化する(\ref{sec:detection}章).次に,SVMを用いて機能表現検出器を実装するための詳細を説明する(\ref{sec:chunking_using_svm}章).\ref{sec:human_rule}章では,人手で判定規則を作成して機能表現を検出する手法について説明する.\ref{sec:実験と考察}章では,作成した機能表現検出器の検出性能を評価し,この検出器は,既存の解析系および人手によって規則を作成した手法と比べ,機能表現を高精度に検出できることを示す.加えて,機械学習時に必要となる訓練データを削減する方法を検討する.\ref{sec:関連研究}章では,関連研究について述べ,最後に結論を述べる(\ref{sec:おわりに}章).
\section{日本語機能表現の検出}
\label{sec:detection}\subsection{日本語複合辞用例データベース}森田ら\cite{日本語表現文型}は,機能表現の中でも特に「単なる語の連接ではなく,表現形式全体として,個々の構成要素のプラス以上の独自の意味が生じている」表現を{\bfseries複合辞}と呼び,個々の構成要素の意味から構成的に表現形式全体の意味を説明できるような表現とは区別している.現代語複合辞用例集\cite{複合辞用例集}(以下,{\bfseries複合辞用例集}と呼ぶ)は,主要な125種類の複合辞について,用例を集成し,説明を加えたものである.日本語複合辞用例データベース\cite{日本語複合辞用例データベースの作成と分析}(以下,{\bfseries用例データベース}と呼ぶ)は,機能表現の機械処理を研究するための基礎データを提供することを目的として設計・編纂されたデータベースである.用例データベースは,複合辞用例集に収録されている125種類の複合辞および,その異形(合計337種類の機能表現)を対象として,機能表現候補と一致する表記のリストと,個々の機能表現候補に対して最大50個の用例を収録している.そして,各機能表現候補が文中において果たしている働きを,\tabref{tbl:判定ラベル体系}に示す6種類の判定ラベルのうちから人手で判定し,付与している.機能表現に対して付与される判定ラベルは,F,A,Mのいずれかであり,これらが本論文における検出対象となる.\begin{table}[tb]\caption{判定ラベル体系}\label{tbl:判定ラベル体系}\newcommand{\exlabel}[1]{}\begin{center}\footnotesize\def\arraystretch{}\begin{tabular}{c|c|c|c|c|p{184pt}}\hline\hline判定&判定&&内容&&\\[-1pt]ラベル&単位&読み&vs機能&用法&\multicolumn{1}{c}{例文}\\\hlineB&不適切&\multicolumn{3}{c|}{}&\exlabel{ex:A43-2000:B}…と谷川王将は気\kern0pt\uline{にかけて}\kern0ptいる.\\\hlineY&適切&不一致&\multicolumn{2}{c|}{}&\hangafter=1\hangindent=13.7pt\exlabel{ex:A12-1000:Y}~地球\kern0pt\uline{上では},人口の増加,異常気象が心配されている.\\\hlineC&適切&一致&内容的&内容的用法&\hangafter=1\hangindent=13.7pt\exlabel{ex:A56-1000:C}~まな板\kern0pt\uline{にとって}\kern0ptていねいに…みそ汁の実にするのである.\\\hlineF&適切&一致&機能的&複合辞用例集の用法&\hangafter=1\hangindent=13.7pt\exlabel{ex:A22-1000:F}~受験などでは倍率が上がった\kern0pt\uline{ところで}\kern0pt入学金があがることはない.\\A&適切&一致&機能的&接続詞的用法&\hangafter=1\hangindent=13.7pt\exlabel{ex:A22-1000:A}~\uline{ところで},全国の桜の名所では近年,樹勢の衰えが目立ち,…\\M&適切&一致&機能的&他の機能的用法&\hangafter=1\hangindent=13.7pt\exlabel{ex:A22-1000:M}~浜ノ島はあと一歩の\kern0pt\uline{ところで}\kern0pt勝ち星に結び付かず負け越した.\\\hline\end{tabular}\end{center}\end{table}\subsection{判定ラベル体系}\label{subsec:label}判定ラベルとは,機能表現候補が文中でどのような働きをしているかを表すラベルであり,用例データベースでは\tabref{tbl:判定ラベル体系}の通り,6種類のラベルが設定されている.以下,個々の判定ラベルについて説明する.用例データベースでは,IPA品詞体系(THiMCO97)の形態素解析用辞書\cite{ipadic-2.6.1}に登録されている語から,「助詞・格助詞・連語」として登録されている語を取り除いた残りの語を,語としている.そして,ある機能表現候補が,1個以上の語,複合辞または慣用表現からなる列である場合,その候補は判定単位として適切であるが,それ以外の場合は,その候補は判定単位として不適切であるとして,判定ラベルBを付与している.例えば,\tabref{tbl:判定ラベル体系}中の\strref{ex:A43-2000:B}に含まれる機能表現候補「にかけて」は,「心配する」という意味の慣用表現「気にかける」の一部が活用した形であり,先に述べた条件を満たしていない.したがって,\strref{ex:A43-2000:B}には,判定ラベルBが付与される.判定ラベルYは,機能表現候補の読みが,判定対象となっている機能表現の読みと一致していないことを表す.例えば,「AうえでB」という形で,「Aした後でB」という出来事の継起関係を表す機能表現「うえで」の用例として\tabref{tbl:判定ラベル体系}中の\strref{ex:A12-1000:Y}を判定する場合を考える.この場合,機能表現候補の読み「じょうで」と,判定対象となっている機能表現の読み「うえで」が一致していないので.判定ラベルYを付与する.判定ラベルCは,機能表現候補に内容的に働いている語が含まれていることを表す.例えば,\tabref{tbl:判定ラベル体系}中の\strref{ex:A56-1000:C}の機能表現候補に含まれる動詞「とる」は本来の意味で内容的に働いているので,判定ラベルとしてCを付与する.判定ラベルF,A,Mは,機能表現候補が機能的に働いているとき,その機能を区別するためのラベルである.判定ラベルFは,機能表現候補が複合辞用例集で説明されている用法で働いていることを表し,判定ラベルAは,機能表現候補が接続詞的に働いていることを表す.判定ラベルMは,これら以外の機能的な働きをしていることを表す.例として,「ところで」の用例として\tabref{tbl:判定ラベル体系}中の\strref{ex:A22-1000:F}$\sim$(\ref{ex:A22-1000:M})を判定する場合を考える.\strref{ex:A22-1000:F}のターゲット文字列は,複合辞用例集で説明されている通りに逆接の働きをしているので,判定ラベルFを付与する.\strref{ex:A22-1000:A}のターゲット文字列は,文頭で接続詞的に働いているので,判定ラベルAを付与する.\strref{ex:A22-1000:M}のターゲット文字列は,形式名詞「ところ」を含めて機能的に働いているので,判定ラベルMを付与する.本論文では,判定ラベルF,A,Mが付与される機能表現候補を検出対象とする.\subsection{チャンキングによる定式化}\label{subsec:formalization}\vspace*{-2pt}本節では,最初に,機能表現検出タスクに対して機械学習的手法を適用する場合に,考慮しておくべき2つの問題点について述べる.第1の問題点は,学習データの分量とモデルの複雑さの間に存在するトレードオフの関係であり,第2の問題点は,機能表現候補が部分的に重複して現れた場合の取り扱いである.その上で,機能表現を検出する手順として,以下の2通りの手順を検討する.\begin{itemize}\item1つまたは複数の形態素からなる機能表現候補を単位として,判定ラベルを付与する手順(以下,{\bfseries手順1}と呼ぶ).\item形態素を単位として,機能表現の一部であることを表すチャンクタグを付与する手順(以下,{\bfseries手順2}と呼ぶ).\end{itemize}手順2については,検出対象とする機能表現の取り扱い方によって,更に2通りに細分化することができる.第1は,検出対象とする全ての機能表現に同一のチャンクタグを用いる手順(以下,{\bfseries手順2-a}と呼ぶ)であり,第2は,機能表現毎に異なるチャンクタグを用いる手順(以下,{\bfseries手順2-b}と呼ぶ)である.機能表現検出タスクに対して機械学習的手法を適用する場合には,まず,学習データの分量とモデルの複雑さの間に存在するトレードオフの関係を考慮する必要がある.一般に,あるタスクに対して機械学習手法を適用する時,そのタスクの対象をどの程度に細分化してモデルで表現するかは,非常に重要な問題である.十分な分量の学習データが利用可能である場合には,タスクの対象を細かく分類した複雑なモデルを採用することによって,モデルの予測精度は改善する.しかし,不十分な分量の学習データしか利用できない場合に,過度に複雑なモデルを採用すると,モデルの予測精度は悪化する.つまり,機能表現検出タスクに対して機械学習的手法を適用する場合には,利用できる学習データの量を考慮しながら,適当な複雑さのモデルを選択する必要がある.機能表現検出タスクに対して機械学習的手法を適用する場合には,第2の問題点として,機能表現候補が部分的に重複して現れる場合を考慮する必要がある.例えば,\strref{ex:toiu-F}と\strref{ex:toiumonono-F}には,「という」および「というものの」という2つの機能表現候補が,部分的に重複して現れている.\begin{example}\itemそれが試合\kern0pt\uline{\uline{という}{\kern0pt}ものの}{\kern0pt}難しさだ.\label{ex:toiu-F}\item勝った{\kern0pt}\uline{\uline{という}}\uline{ものの},スコアは悪い.\label{ex:toiumonono-F}\end{example}\strref{ex:toiu-F}では,「AというB」という形で用いられてBの具体的な内容を示しているので,2つの機能表現候補の内,「という」という機能表現候補に対して,機能的であるという判定を行う必要がある.それに対して,\strref{ex:toiumonono-F}では,「AというもののB」の形で,前件Aの成立・存在を認めた上で,それにもかかわらず後件Bのようなことがあるという関係を述べているので,2つの機能表現候補の内,「というものの」という機能表現候補に対して,機能的であるという判定を行う必要がある.実際に予備調査を行った結果から,機能表現候補の出現箇所の約20\%において,このように複数の機能表現候補の一部が重複した形で現れることが分かった.したがって,機能表現検出において,複数の機能表現候補が部分的に重複して現れる場合を無視することは適当ではなく,その複数の候補を適切に扱う必要がある.以上の問題点を踏まえて,手順1について検討する.ある1つの機能表現候補に適切な判定ラベルを付与するには,その候補に付与される可能性がある複数の判定ラベル間に優先順位を与えるモデルが必要である.つまり,判定ラベルの数を$U$とすると,$U$に比例した複雑さのモデルが必要である.手順1では,機能表現毎に個別に判定ラベルを付与するため,機能表現の種類数を$V$とすると,判定ラベルの総数は,候補毎の判定ラベルの数$U$と機能表現の種類数$V$の積$U\cdotV$となる.したがって,手順1のモデルの複雑さは,$U\cdotV$に比例する.また,第2の問題点に対応するには,部分的に重複している複数の機能表現候補と判定ラベルの対から,適当なものを選択する必要がある.手順1のモデルでは,機能表現候補と判定ラベルの$U\cdotV$通りの対を全て区別しているので,それらを比較することにより,適当な対を選択する.次に,手順2について検討する.手順2では,形態素を単位として判定を行い,それぞれの形態素に,機能表現の一部であることを表すチャンクタグを付与する.ある形態素に適切なチャンクタグを付与するには,その形態素に付与される可能性がある全てのチャンクタグに優先順位を与えるモデルが必要である.このようなモデルの複雑さは,その形態素に付与される可能性があるチャンクタグの種類数に比例する.さらに,チャンクタグ$c$を形態素$m_{1}$に付与する場合と形態素$m_{2}$に付与する場合の2通りの状況を考える.また,機能表現に含まれる全ての形態素の異なり数$M$とする.この時,同一のチャンクタグ$c$を付与する場合であっても,付与対象となる形態素が異なる場合には異なるモデルが必要という立場に立つと,手順2のモデルの複雑さは,チャンクタグの種類数と,形態素の異なり数$M$の積に比例すると考えられる.この分析を踏まえて,手順2-aと手順2-bのモデルの複雑さを検討する.手順2-aでは,検出対象とする全ての機能表現に同一のチャンクタグを用いる.このチャンクタグは,その形態素が含まれるチャンクの用法を表す判定ラベルと,その形態素がチャンクの中で占める位置を表す部分からなり,チャンクタグの種類数は$U$に比例する.よって,手順2-aのモデルの複雑さは$U\cdotM$に比例する.一方,手順2-bでは,機能表現毎に異なるチャンクタグを用いる.このチャンクタグは,その形態素がどの機能表現の一部であるかを表す部分,その形態素が含まれるチャンクの用法を表す判定ラベル,および,その形態素がチャンクの中で占める位置を表す部分からなり,チャンクタグの種類数は$U\cdotV$に比例する.よって,手順2-bのモデルの複雑さは,$U\cdotV\cdotM$に比例する.また,手順2では,形態素を単位としてチャンクタグを付与することによって,部分的に重複している複数の機能表現候補の選択も同時に行っている.例えば,\strref{ex:toiu-F},(\ref{ex:toiumonono-F})の場合,形態素「もの」に対してチャンクタグを付与すると,機能表現候補「という」と機能表現候補「というものの」のどちらが適切かという選択も同時に行われる.先に述べた通り,モデルの複雑さと,モデルの推定に必要となる学習データの量にはトレードオフの関係が存在する.手順1のモデルの複雑さは$U\cdotV$に比例し,手順2-aのモデルの複雑さは$U\cdotM$に比例し,手順2-bのモデルの複雑さは$U\cdotV\cdotM$に比例する.\ref{sec:intro}章で述べたように,異形を考慮すると,機能表現の種類数$V$は1万種類以上となる.それに対して,機能表現中に現れる形態素は,助詞・助動詞などの付属語と限られた自立語のみであり,機能表現中に現れる形態素の異なり数$M$は,機能表現の種類数$V$よりもはるかに少なく,多くても数百程度と予想される.したがって,検討した手順の中で,もっとも簡単なモデルを使っている手順は,手順2-aである.本論文では,利用できる学習データの量が十分ではない可能性を考慮して,複雑なモデルの採用を避け,できるだけ簡単なモデルの手順を採用することにする.よって,本論文における機能表現検出タスクの定式化においては,手順2-aを採用する.すなわち,形態素を単位として,機能表現の一部であることを表すチャンクタグを付与し,機能表現をチャンキングするという方式を採用する.そのチャンクタグとしては,検出対象とする全ての機能表現に同一のチャンクタグを用いる.
\section{SVMを用いたチャンキングによる機能表現検出}
\label{sec:chunking_using_svm}\subsection{SupportVectorMachines}サポートベクトルマシンは,素性空間を超平面で分割することによりデータを2つのクラスに分類する二値分類器である\cite{SVM,tinysvm}.2つのクラスを正例,負例とすると,学習データにおける正例と負例の間隔(マージン)を最大にする超平面を求め,それを用いて分類を行う.すなわち,以下の識別関数$f(x)$の値によってクラスを判別することと等価である.\begin{align}\label{eq:svm1}f({\bfx})&=\operatorname{sgn}\left(\sum^{l}_{i=1}\alpha_iy_iK({\bfx}_i,{\bfx})+b\right)\\b&=-\frac{\operatorname{max}_{i,y_i=-1}b_i+\operatorname{min}_{i,y_i=1}b_i}{2}\nonumber\\b_i&=\sum^l_{j=1}\alpha_jy_jK({\bfx}_j,{\bfx}_i)\nonumber\end{align}ここで${\bfx}$は識別したい事例の文脈(素性の集合),${\bfx}_{i}$と$y_i(i=1,...,l,y_i\in\{1,-1\})$は学習データの文脈とクラスである.また,関数$sgn(x)$は,$x\geq0$のときに1,$x<0$のときに$-1$となる二値関数である.\pagebreak各$\alpha_i$は,式(\ref{eq:svm5})と式(\ref{eq:svm6})の制約のもとで式(\ref{eq:svm4})の$L(\alpha)$を最大にするものである.{\allowdisplaybreaks\begin{align}L({\alpha})&=\sum^l_{i=1}\alpha_i-\frac{1}{2}\sum^l_{i,j=1}\alpha_i\alpha_jy_iy_jK({\bfx_i},{\bfx_j})\label{eq:svm4}\\&0\leq\alpha_i\leqC\,\,(i=1,...,l)\label{eq:svm5}\\&\sum^l_{i=1}\alpha_iy_i=0\label{eq:svm6}\end{align}}関数$K$はカーネル関数と呼ばれ,様々なものが提案されているが,本論文では次式で定義される多項式カーネルを用いる.\begin{equation}\label{eq:svm3}K({\bfx},{\bfy})=({\bfx}\cdot{\bfy}+1)^d\end{equation}ここで,$C,d$は実験的に設定される定数である.予備実験を行い,次数$d$の値として$1,2,3$の3通りを検討した.$d=2,3$とした場合はF値に大きな差はなかったが,$d=1$とするとF値がかなり悪化した\footnote{評価尺度(F値)については\ref{subsec:評価尺度}節を参照}.ただし,$d=3$とした場合は,$d=2$とした場合に比べて,学習時間がかなり増加したため,本論文では,次数$d$の値として2を用いる.また,予備実験において,マージン$C$の値として$1,0.1,0.01,0.001,0.0001$の5通りを検討したところ,F値に大きな差が見られなかったため,本論文ではマージン$C$の値として1を用いる.\subsection{チャンクタグの表現法}\ref{subsec:formalization}節で述べたように,本論文では,検出対象とする機能表現全てに共通のチャンクタグを,形態素を単位として付与するという手順で,機能表現検出を行う.チャンクタグは,そのチャンクタグが付与された形態素が,検出対象とする機能表現のいずれかに含まれるか否かを表し,チャンクの範囲を示す要素とチャンクの用法を示す要素という2つの要素からなる.以下,本論文で用いたチャンクタグについて詳細を述べる.チャンクの範囲を示す要素の表現法としては,以下で示すようなIOB2フォーマット\cite{Sang00a}が広く利用されている.本論文でも,このIOB2フォーマットを使用する.\begin{quote}\begin{tabular}{cl}\textbf{I}&チャンクに含まれる形態素(先頭以外)\\\textbf{O}&チャンクに含まれない形態素\\\textbf{B}&チャンクの先頭の形態素\\\end{tabular}\end{quote}\begin{table}\begin{center}\caption{チャンクの用法を示す要素の体系}\label{tab:tag}\begin{tabular}{c||c|c|c|c|c|c}\hline体系1(CHK1)&F&A&M&C&Y&B\\\hline体系2(CHK2)&\multicolumn{1}{c}{F}&\multicolumn{1}{c}{A}&\multicolumn{1}{c|}{M}&C&Y&B\\\hline体系3(CHK3)&\multicolumn{1}{c}{F}&\multicolumn{1}{c}{A}&\multicolumn{1}{c|}{M}&\multicolumn{1}{c}{C}&\multicolumn{1}{c}{Y}&\multicolumn{1}{c}{B}\\\hline体系4(CHK4)&F&\multicolumn{1}{c}{A}&\multicolumn{1}{c}{M}&\multicolumn{1}{c}{C}&\multicolumn{1}{c}{Y}&\multicolumn{1}{c}{B}\\\hline体系5(CHK5)&F&\multicolumn{1}{c}{A}&\multicolumn{1}{c|}{M}&\multicolumn{1}{c}{C}&\multicolumn{1}{c}{Y}&\multicolumn{1}{c}{B}\\\hline体系6(CHK6)&F&\multicolumn{1}{c}{A}&\multicolumn{1}{c|}{M}&C&Y&B\\\hline体系7(CHK7)&F&A&M&\multicolumn{1}{|c}{C}&\multicolumn{1}{c}{Y}&B\\\hline体系8(CHK8)&\multicolumn{1}{c}{F}&M&A&\multicolumn{1}{|c}{C}&\multicolumn{1}{c}{Y}&B\\\hline体系9(CHK9)&\multicolumn{1}{c}{F}&M&A&C&Y&B\\\hline体系10(CHK10)&F&A&M&\multicolumn{3}{c}{---}\\\hline体系11(CHK11)&F&\multicolumn{1}{c}{A}&M&\multicolumn{3}{c}{---}\\\hline体系12(CHK12)&\multicolumn{1}{c}{F}&\multicolumn{1}{c}{A}&M&\multicolumn{3}{c}{---}\\\hline体系13(CHK13)&\multicolumn{1}{c}{F}&M&A&\multicolumn{3}{c}{---}\\\hline\end{tabular}\end{center}\end{table}チャンクの用法を示す要素の表現法としては,\tabref{tab:tag}のように様々なものが考えられる.例えば,体系5(CHK5)は,6種類の判定ラベルF,A,M,C,Y,Bのうち,ラベルA,MとラベルC,Y,Bをそれぞれ区別せずに1つの分類とみなす表現法である.そして,各機能表現候補は,チャンクであることを表す要素(B/I)と,用法を示す要素(F/AM/CYB)を組み合わせた6種類のチャンクタグによって表現される.実際には,この6種類に,チャンクに含まれないことを表すチャンクタグ{\bfseriesO}を加えて,\figref{fig:chunktag}のように7種類のチャンクタグを付与する.また,体系11(CHK11)は,判定ラベルF,A,Mの機能表現候補に対しては体系5と同様にチャンクタグを付与するが,判定ラベルC,Y,Bの機能表現候補に対しては,チャンクとして区別せずに,チャンクタグ{\bfseriesO}を付与する体系である.予備実験の結果,いずれの表現法を用いても大きな性能の差は見られなかったため,本論文では,最も性能が良かった体系5(CHK5)を用いる.\begin{figure}\begin{center}\begin{tabular}{l|c||c|c|c|c}\hline\multicolumn{2}{c||}{}&\multicolumn{3}{c|}{機能表現候補の形態素}&それ以外の形態素\\\cline{3-5}\multicolumn{2}{c||}{}&F&A,M&C,Y,B&\\\hline\hlineチャンクに含まれる&先頭&{\bfseriesB-F}&{\bfseriesB-AM}&{\bfseriesB-CYB}&\\\cline{2-5}&先頭以外&{\bfseriesI-F}&{\bfseriesI-AM}&{\bfseriesI-CYB}&\\\hline\multicolumn{2}{l||}{チャンクに含まれない}&\multicolumn{3}{c|}{}&{\bfseriesO}\\\hline\end{tabular}\end{center}\vspace{8pt}\caption{体系5(CHK5)におけるチャンクタグ}\label{fig:chunktag}\vspace{-2pt}\end{figure}本論文では,用例データベースで設定されている判定ラベルのうち,ラベルFが付与された表現を検出する検出器(これを,検出器Fと呼ぶ)と,ラベルF,A,Mのいずれかが付与された表現(機能表現)を検出する検出器(これを,検出器FAMと呼ぶ)を作成する.検出器FAMの評価時には,判定ラベルF,A,Mを区別しない.判定ラベルFは,複合辞用例集で説明されている用法で用いられていることを表す判定ラベルであり,機能表現候補がひとかたまりとなって非構成的な意味を持っている場合にのみ付与される.それに対して,判定ラベルA,Mは,機能表現候補が非構成的な意味を持っているか否かに関わらず,その機能表現候補が機能的な働きをしていることを表すラベルである.したがって,検出器Fは,非構成的な意味を持つ機能表現(の一部)のみを検出する検出器となり,検出器FAMは機能表現全体を検出する検出器となる.SVMは二値分類器であるため,そのままでは,2クラスの分類しか扱えない.本論文のようにクラス数が3以上の場合には,複数の二値分類器を組み合わせて拡張する必要がある.本論文では,拡張手法としては,広く利用されているペアワイズ法を用いる.ペアワイズ法とは,$N$個のクラスに属するデータを分類する時,異なる2つのクラスのあらゆる組み合わせに対する二値分類器を作り,得られた$N(N-1)/2$個の二値分類器の多数決により,クラスを決定する方法である.\subsection{素性}\label{subsec:feature}学習・解析に用いる素性について説明する.文頭から$i$番目の形態素$m_{i}$に対して与えられる素性$F_{i}$は,形態素素性$MF(m_{i})$,チャンク素性$CF(i)$,チャンク文脈素性$OF(i)$の3つ組として,次式によって定義される.\begin{equation}F_{i}=\langleMF(m_{i}),CF(i),OF(i)\rangle\end{equation}形態素素性$MF(m_{i})$は,形態素解析器によって形態素$m_{i}$に付与される情報である.本論文では,IPA品詞体系(THiMCO97)の形態素解析用辞書\cite{ipadic-2.6.1}に基づいて動作する形態素解析器ChaSenによる形態素解析結果を入力としているため,以下の10種類の情報(表層形,品詞,品詞細分類$1\sim3$,活用型,活用形,原形,読み,発音)を形態素素性として用いた.チャンク素性$CF(i)$とチャンク文脈素性$OF(i)$は,$i$番目の位置に出現している機能表現候補に基づいて定まる素性である.今,下図のような形態素列$m_j\ldotsm_i\ldotsm_k$からなる機能表現候補$E$が存在したとする.\begin{center}\begin{tabular}[tb]{ccccc}$m_{j-2}$&$m_{j-1}$&\fbox{$m_j\ldotsm_i\ldotsm_k$}&$m_{k+1}$&$m_{k+2}$\\&&機能表現候補$E$&&\end{tabular}\end{center}チャンク素性$CF(i)$は,$i$番目の位置に出現している機能表現候補$E$を構成している形態素の数(機能表現候補の長さ)と,機能表現候補中における形態素$m_{i}$の相対的位置の情報の2つ組である.チャンク文脈素性$OF(i)$は,$i$番目の位置に出現している機能表現候補の直前2形態素および直後2形態素の形態素素性とチャンク素性の組である.すなわち,$i$番目の位置に対する$CF(i)$および$OF(i)$は次式で表される.\begin{align*}CF(i)&=\langlek-j+1,\;\;i-j+1\rangle\\OF(i)&=\langleMF(m_{j-2}),CF(m_{j-2}),MF(m_{j-1}),CF(m_{j-1}),\\&\quad\;\phantom{\langle}MF(m_{k+1}),CF(m_{k+1}),MF(m_{k+2}),CF(m_{k+2})\rangle\end{align*}\begin{figure}[b]\begin{center}\includegraphics[width=.6\textwidth]{06f2.eps}\caption{YamChaの学習・解析}\label{yamcha}\end{center}\end{figure}\ref{subsec:formalization}節で述べたように,機能表現検出においては,1つの文中に,複数の機能表現候補が部分的に重複して現れる場合を考慮する必要がある.ここでは,そのような場合のチャンク素性とチャンク文脈素性の付与方法について考える.複数の機能表現候補が部分的に重複して現れている場合,それらの候補全てに基づいてチャンク素性とチャンク文脈素性を付与するという方法と,それらの候補から何らかの基準を用いて1つの候補を選択し,選択された候補に基づいてチャンク素性とチャンク文脈素性を付与するという方法が考えられる.前者の方法で付与された素性を参照して機械学習を行うには,重複する可能性がある機能表現の全ての組み合わせに対して十分な量の学習事例が必要であるが,そのような学習事例を準備することは現実的ではない.そのため,本論文では,後者の方法を採り,次の優先順序に従って選ばれた1つの機能表現候補に基づいて,チャンク素性とチャンク文脈素性を付与することにする\footnote{この優先順序は,人手で作成した判定規則に基づく手法(\ref{sec:human_rule}章)において,複数の機能表現候補が部分的に重なって出現し,それらに対する判定ラベルが競合した場合に,適切な判定ラベル付与結果を取捨選択する場合の優先順序とは異なっている.ここでは,学習・解析方向が左から右であることを考慮して,最も左側の機能表現候補を優先している.}.\begin{description}\item[1]先頭の形態素が,最も左側の機能表現候補を用いる.\item[2]1を満たす候補が複数存在する場合は,その中で最も形態素数が多い候補を用いる.\end{description}例えば,\strref{ex:nakutehaikemasen}には,「なくてはいけません」および「てはいけません」という2つの機能表現候補が,部分的に重複して現れている.\begin{example}\item慎重にし{\kern0pt}\uline{なく}\uline{\uline{てはいけません}}.\label{ex:nakutehaikemasen}\end{example}この場合,「なくてはいけません」という機能表現候補が,「てはいけません」という機能表現候補に比べて,より左の形態素から始まっているので,「なくてはいけません」という機能表現候補に基づいて,チャンク素性とチャンク文脈素性を付与する.また,\strref{ex:toiumonono}には,「という」および「というものの」という2つの機能表現候補が,部分的に重複して現れている.\begin{example}\itemそれが試合{\kern0pt}\uline{\uline{という}}\uline{ものの}{\kern0pt}難しさだ.\label{ex:toiumonono}\end{example}この場合,2つの機能表現候補の先頭の形態素は同一であるため,より形態素数が多い候補「というものの」に基づいて,チャンク素性とチャンク文脈素性を付与する.$i$番目の形態素に対するチャンクタグを$c_{i}$とすると,チャンクタグ$c_{i}$の学習・解析を行う場合に用いる素性として,$i$番目の形態素および前後2形態素に付与された素性$F_{i-2},F_{i-1},F_{i},F_{i+1},F_{i+2}$と,直前2形態素に付与されたチャンクタグ$c_{i-2},c_{i-1}$を用いる(\figref{yamcha}).解析時には,解析によって得られたチャンクタグを,直前2形態素に付与されたチャンクタグとして順に利用して,解析を行う.前後3形態素の素性と直前3形態素のチャンクタグを用いて学習・解析を行う予備実験も行ったが,前後2形態素の素性と直前2形態素のチャンクタグを用いた場合に比べて,殆んど性能が変わらなかったため,前後2形態素の素性と直前2形態素のチャンクタグを用いる.
\section{人手による規則を用いた検出}
\label{sec:human_rule}この節では,形態素解析結果に基づいて,人手で作成した規則によって機能表現候補の用法を識別する検出器の概略について述べる.形式的には,ある機能表現候補$E$の用法を判定する規則$T(E)$は,形態素列パターン$P(E)$と,判定規則リスト$R(E)$の2つ組として,次のように定義される.\[T(E)\equiv\langleP(E),\:R(E)\rangle\]機能表現候補$E$に一致する形態素列パターン$P(E)$は,1つの形態素に一致する形態素パターン$p$の列である.\begin{align*}P(E)&\equivp_{1}p_{2}\cdotsp_{l}\\p&\equiv\langleLex,\:POS,\:FORM\rangle\end{align*}形態素パターン$p$は,形態素の基本形の表記$Lex$,品詞$POS$および活用形$FORM$の3つ組として定義される.例えば,「として」に対する形態素列パターン$P(\mbox{として})$は,以下のように3つの形態素パターンからなる.\[P(\mbox{として})=\langle\kern0pt\mbox{と},~\mbox{助詞},*\rangle\\langle\kern0pt\mbox{する},~\mbox{動詞},~\mbox{連用形}\kern0pt\rangle\\langle\kern0pt\mbox{て},~\mbox{助詞},*\rangle\]なお,本論文では,IPA品詞体系の形態素解析用辞書に基づいて動作する形態素解析器ChaSenによる形態素解析結果を入力としているため,品詞と活用形はIPA品詞体系で指定する.また,判定規則リスト$R(E)$は,機能表現候補の直前の形態素列に一致する左接続制約$LC$,直後の形態素列に一致する右接続制約$RC$,および,これらの制約を満たした場合の判定ラベル$L$からなる3つ組として定義される判定規則$r$の順序付き集合である.\begin{align*}R(E)&\equiv\{r_{1},r_{2},\ldots,r_{k}\}\\r&\equiv\langleLC,\:RC,\:L\rangle\end{align*}左接続制約$LC$および右接続制約$RC$は,論理関数$\mathtt{and},~\mathtt{or},~\mathtt{not}$と,\pagebreak左接続素性$LF$または右接続素性$RF$の組み合わせである.\begin{align*}LC&\equivLF\|\{\ttand}(LC',LC'')\|\{\ttor}(LC',LC'')\|\{\ttnot}(LC')\\RC&\equivRF\|\{\ttand}(RC',RC'')\|\{\ttor}(RC',RC'')\|\{\ttnot}(RC')\end{align*}ここで,$LC',LC''$は任意の左接続制約を表し,$RC',RC''$は任意の右接続制約を表す.例えば,「として」に対する判定規則リスト$R(\mbox{として})$は,以下のような2つの判定規則の順序付き集合である.\[R(\mbox{として})=\left\{\langle\phi,{\ttand}(\mbox{助動詞},~{\ttnot}(\langle\kern0pt\mbox{だ},~\mbox{助動詞},*\rangle)),\mbox{C}\rangle,\\langle\kern0pt\mbox{体言},\:\phi,\mbox{F}\rangle\\right\}\]最初の判定規則は,左接続制約なし,右接続制約「${\ttand}(\mbox{助動詞},\{\ttnot}(\langle\mbox{だ},\\mbox{助動詞},*\rangle))$」,判定ラベルCという3つ組である.これは,機能表現候補の右側が「だ」以外の助動詞であれば,機能表現候補の左側がどのような表現であっても,判定ラベルCを付与するという判定規則を意味する.接続素性としては,複合辞用例集で説明されている接続制約を参考にして,\tabref{tbl:左接続素性}と\tabref{tbl:右接続素性}のような素性を用意した.\begin{table}[b]\caption{左接続素性}\label{tbl:左接続素性}\begin{center}\begin{tabular}{l|p{0.6\columnwidth}}\hline$LF$&\multicolumn{1}{c}{意味}\\\hline体言&直前部分が体言である場合に真\\用言&直前部分が用言である場合に真\\基本形&直前部分が基本形の用言である場合に真\\過去形&直前部分が過去形の用言である場合に真\\助詞「の」&直前部分に名詞と助詞「の」が連続して現れている場合に真\\文頭&機能表現候補が文頭に現れている場合に真\\$p$&直前の形態素が形態素パターン$p$に一致する場合に真\\\hline\end{tabular}\end{center}\vspace*{5mm}\caption{右接続素性}\label{tbl:右接続素性}\begin{center}\begin{tabular}{l|p{0.6\columnwidth}}\hline$RF$&\multicolumn{1}{c}{意味}\\\hline助動詞&直後に助動詞が現れている場合に真\\体言&直後に体言が現れている場合に真\\文末&機能表現候補が文末に現れている場合に真\\$p$&直後の形態素が形態素パターン$p$と一致する場合に真\\\hline\end{tabular}\end{center}\end{table}このような規則$T(E)$に基づく判定は,以下の2段階からなる.最初に,形態素列パターン$P(E)$によって機能表現候補を発見し,次に,判定規則リスト$R(E)$に含まれる判定規則を先頭から順に検査して,最初に一致した判定規則$r_{i}$の判定ラベルを出力する.例えば,\strref{ex:toshite-F}の形態素解析結果を対象として判定を行う場合を考える.\begin{example}\itemたくさんの若者たちが,ボランティア{\kern0pt}\uline{として},頑張っている.\label{ex:toshite-F}\end{example}最初に形態素列パターン$P(\mbox{として})$によって下線部が機能表現候補として発見される.次に,判定規則リスト$R(\mbox{として})$に含まれている判定規則を順に適用していく.1番目の規則$\langle\phi,{\ttand}(\mbox{助動詞},\linebreak{\ttnot}(\langle\mbox{だ},~\mbox{助動詞},*\rangle)),\mbox{C}\rangle$は,右接続制約が「だ」以外の助動詞となっているが,\strref{ex:toshite-F}では,機能表現候補の直後は読点になっているから,成り立たない.2番目の規則$\langle\mbox{体言},\:\phi,\mbox{F}\rangle$は,左接続制約が「体言」になっており,\strref{ex:toshite-F}でも成り立っているので,判定ラベルとしてFを出力する.なお,全ての判定規則が成り立たなかった場合は,判定ラベルを付与しない.人手で作成した判定規則の数を,\tabref{tbl:human_crafted_rules}に示す.1つの機能表現候補を判定するための判定規則リストは,平均して2.7個の判定規則からなっている.なお,使用した接続素性は186個である.\begin{table}[t]\caption{人手で作成した判定規則数}\label{tbl:human_crafted_rules}\begin{center}\begin{tabular}{c|r}\hline判定ラベル&規則数\\\hlineF&53\\A&9\\M&11\\C&46\\Y&0\\B&26\\\hline計&145\\\hline\end{tabular}\end{center}\end{table}1つの文に対して,全ての可能な機能表現候補に対する規則を適用すると,複数の機能表現候補が照合されることがある.この時,\ref{subsec:formalization}節で述べた場合と同様に,複数の機能表現候補が部分的に重なって出現して,それらの候補に対する判定ラベルが相互に競合し,複数の判定ラベル付与結果を同時に採用できない場合がある.その場合は,以下の優先順序に従って機能表現候補を採用する.まず,形態素列長で比較して,より長い機能表現候補を採用する.機能表現候補の形態素列長が等しい場合は,先頭の形態素が最も左側の機能表現候補を採用する.既に採用されている機能表現候補と,競合する機能表現候補は,全て棄却する\footnote{この優先順序は,チャンク素性・チャンク文脈素性を付与する際に,部分的に重複する複数の機能表現候補を取捨選択するための優先順序とは異なっている(\ref{subsec:feature}節).ここでは,形態素列長として長い機能表現候補は,短い機能表現候補と比べて,判定の際の制約条件が多くなるから,より信頼できるというヒューリスティックスに基づいて,形態素列長として長い機能表現候補を優先している.}.
\section{実験と考察}
\label{sec:実験と考察}本論文で提案する2つの検出器,検出器Fと検出器FAMに対して,学習および解析を行い,各ベースラインと性能を比較した.\pagebreakまた,用いる素性の違いによって,性能がどのように変化するかを調査した.さらに,訓練時のデータサイズの違いと検出性能の関係を明らかにし,最後に,訓練データの作成コストの削減が可能であるかを調査した.\subsection{データセット}\label{subsec:dataset}文を単位として学習を行うには,文中に現れる全ての機能表現候補に対して判定ラベルが付与されたデータが必要である.そのため,本論文の対象とする52表現に対する用例として用例データベースに収録されている2600例文(1つの表現につき50例文)について,これらの例文に含まれている全ての機能表現候補に判定ラベルを付与した.以下,この2600例文をまとめて,全データセットと呼ぶ.\begin{table}[b]\caption{データセットの各統計量}\label{tab:dataset}\begin{center}\begin{tabular}{@{}c||c|c|c|c|c|c|c||c@{}}\hline&\multicolumn{7}{c||}{判定ラベル}&\\\cline{2-7}&F&A&M&C&Y&B&計&\raisebox{1.5ex}[0pt]{全形態素数}\\\hline全データセット&1974&55&453&523&9&169&3183&92899\\部分データセット&1478&52&342&465&8&155&2500&90813\\\hline\end{tabular}\end{center}\end{table}ただし,用例データベースでは,機能表現候補の先頭と末尾が形態素境界と一致しない候補にも判定ラベルが付与されているが,本論文では,形態素解析結果に基づいて機能表現を検出する立場をとるため,そのような機能表現候補に対する判定ラベルは取り除くことにする.具体的には,以下のような処理を行った.最初に,用例データベースに収録されている用例を,IPA品詞体系の形態素解析用辞書に基づいて動作する形態素解析器ChaSenを用いて形態素解析した.次に,形態素解析結果中に,形態素解析用辞書に「助詞・格助詞・連語」や「接続詞」として登録されている複合語が含まれていた場合は,その複合語を,構成要素である形態素の列に置き換えた.このようにして得られた形態素解析結果と機能表現候補を照合し,先頭と末尾が形態素境界と一致しなかった176個の候補に対する判定ラベルを取り除いた.取り除いた判定ラベルの内,175個は,人手によってラベルBと判定されている.また,取り除いた手順より明らかに,この175個の判定ラベルに対応する機能表現候補は,形態素解析結果のみに基づいてラベルBと判定することができる.したがって,これらの判定ラベルを取り除いても,機能表現検出の評価としては問題はない.取り除いた判定ラベルの内,残る1個は,人手によってラベルMと判定されている.この判定ラベルは,形態素解析誤りによって取り除かれてしまったが,数が僅かであり,無視することができる.全データセットに含まれる各ラベルの数と,全形態素数を\tabref{tab:dataset}に示す.1つの例文に,複数の機能表現候補が出現する場合があるため,機能表現候補の総数は,例文の総数よりも多くなっている.\subsection{評価尺度}\label{subsec:評価尺度}実験を評価する際の尺度には,以下の式で表される精度,再現率,F値,および判別率を用いた.\begin{align*}\mbox{精度}&=\frac{\mbox{検出に成功したチャンク数}}{\mbox{解析によって検出されたチャンク数}}\\[0.5zh]\mbox{再現率}&=\frac{\mbox{検出に成功したチャンク数}}{\mbox{評価データに存在するチャンク数}}\\[0.5zh]\mbox{F値}&=\frac{2\times\mbox{精度}\times\mbox{再現率}}{\mbox{精度}+\mbox{再現率}}\\[0.5zh]\mbox{判別率}&=\frac{\mbox{正解した判定ラベル数}}{\mbox{全判定ラベル数}}\end{align*}また,実験は,10分割交差検定を用いて行った.\subsection{既存の解析系に対する評価基準}\label{subsec:既存の解析系}既存の解析系(JUMAN/KNPおよびChaSen/CaboCha)は,形態素解析および構文解析段階で処理が必要となる機能表現を,部分的に処理の対象としている.しかし,明示的に機能表現を取り扱うという立場は取っていないため,機能表現のチャンキングというタスクに対する既存の解析系の性能を評価するには,その出力をどのように解釈するかを定めておく必要がある.形態素解析器JUMANと構文解析器KNPの組み合わせでは,機能表現は以下のように処理される.最初に,接続詞として形態素解析用辞書に登録されている機能表現は,形態素解析時に検出される.次に,構文解析時に,解析規則に記述された特定の形態素列が現れると,直前の文節の一部としてまとめたり,直前の文節からの係り受けのみを受けるように制約を加えて,機能表現である可能性を考慮した解析を行う.一方,IPA品詞体系(THiMCO97)の形態素解析用辞書\cite{ipadic-2.6.1}を用いた形態素解析器ChaSenと,京都テキストコーパス\cite{京都大学テキストコーパス}から機械学習したモデルを用いた構文解析器CaboChaの組合わせでは,機能表現は以下のように処理される.最初に,形態素解析用辞書に「助詞・格助詞・連語」や「接続詞」として登録されている機能表現は,形態素解析時に検出される.また,「ざるを得ない」などの表現は直前の文節の一部としてまとめられ,機能的な表現として解析される.本論文では,機能表現候補部分が,機能表現である可能性を考慮した解析の対象となっている場合は,判定ラベルF,A,Mのいずれかが付与されているとみなし,それ以外の場合は,判定ラベルC,Y,Bのいずれかが付与されているとみなすことにする.既存の解析系でも,一部の機能表現については,機能的な働きをしていることを考慮した解析が行われているが,その対応状況は不十分である.判定ラベルF,A,Mのいずれかが付与されている用例の内,少なくとも1つの用例が,機能的に働いている可能性を考慮して解析され,かつ,判定ラベルC,Y,Bのいずれかが付与された用例の内,少なくとも1つの用例が,機能的に働いている可能性を考慮せずに解析されている場合,その機能表現は,用法が正しく区別される可能性があるとする.用例データベースに50用例が収録されている表現で,かつ,機能的な意味で用いられている場合と,それ以外の意味で用いられている場合の両方が適度な割合で出現する表現は,52種類ある.本論文では,この52種類を対象とするが,その内,JUMAN/KNPによって用法が正しく区別される可能性がある表現は,31種類である.一方,ChaSen/CaboChaによって用法が正しく区別される可能性がある表現は26種類である.また,用例データベースに収録されている337表現全体では,新聞上の実際の用法の割合に関係なく識別が必要と思われる表現は,111種類である.その内,JUMAN/KNPによって用法が正しく区別される可能性がある表現は43種類,ChaSen/CaboChaによって用法が正しく区別される可能性がある表現は40種類である.\subsection{評価結果}\subsubsection{概要}検出器Fおよび検出器FAMと,各ベースラインの検出性能を\tabref{tab:kekka_gaiyou}に示す.\tabref{tab:kekka_gaiyou}において,「頻度最大の判定ラベル」とは,全ての候補部分に対して頻度最大の判定ラベル(ラベルF)を付与した場合の検出性能である.「JUMAN/KNP」および「ChaSen/CaboCha」といった既存の解析系は,機能表現の用法の区別を意識した検出は行わないため,ラベルF,A,Mを正解とする評価のみを行った.「人手作成の規則による検出器」は,\ref{sec:human_rule}節で記述した手法による検出性能である.\tabref{tab:kekka_gaiyou}中の「CRFを用いた検出器」は,ConditionalRandomFileds(CRF)\cite{CRF}によって学習・解析を行った場合の検出性能である.CRFとは,系列ラベリング問題のために設計された識別モデルであり,正しい系列ラベリングを他の全ラベリング候補と弁別するような学習を行う.本論文では,CRFによる学習・解析用ツールとしてCRF++\footnote{\url{http://chasen.org/~taku/software/CRF++/}}を利用した.素性としては,前後2形態素の形態素素性,チャンク素性,チャンク文脈素性と,直前2形態素のチャンクタグを用いた.学習時には,事前分布としてGaussianPriorを用いて事後確率を最大化することにより,パラメータを正則化した\cite{kudo.IPSJNL2004}.その際のハイパーパラメータとしては,1,2,3,4,5の5通りの値について予備実験を行い,最も良い性能を示した1を採用した.\begin{table}[t]\caption{各検出器の検出性能(\%)}\label{tab:kekka_gaiyou}\begin{center}{\footnotesize\begin{tabular}{l|p{104pt}||rrr|r||rrr|r}\hline&&\multicolumn{4}{c||}{検出器F}&\multicolumn{4}{c}{検出器FAM}\\\cline{3-6}\cline{7-10}&&精度&再現率&F値&判別率&精度&再現率&F値&判別率\\\hline\hline&頻度最大の判定ラベル&72.4&100&76.6&62.0&78.0&100&87.6&78.0\\ベース&JUMAN/KNP&---&---&---&---&89.2&49.3&63.5&55.8\\ライン&ChaSen/CaboCha&---&---&---&---&89.0&45.6&60.3&53.2\\\hline\multicolumn{2}{l||}{人手作成の規則による検出器}&86.8&83.7&85.2&82.0&90.7&81.6&85.9&79.1\\\multicolumn{2}{l||}{CRFを用いた検出器}&82.0&85.9&83.9&79.3&84.9&87.4&86.1&81.1\\\hlineSVMを&形態素素性&85.1&89.2&87.1&85.5&88.0&91.0&89.4&86.5\\用いた&形態素素性,チャンク素性&87.6&91.1&89.3&87.9&91.0&93.2&92.1&89.0\\検出器&形態素素性,チャンク素性,チャンク文脈素性&87.1&91.3&89.1&87.5&91.1&93.6&92.3&89.2\\\hline\end{tabular}}\end{center}\vspace*{-6pt}\end{table}\tabref{tab:kekka_gaiyou}中の「SVMを用いた検出器」は,本論文の提案するSVMによるチャンキング手法による検出性能である.表より,提案手法は,学習・解析に用いた素性に関わらず,ベースラインおよび人手作成の規則による検出よりも,高いF値を示した.また,提案手法は,CRFを用いた検出器よりも,高いF値を示した.学習・解析に用いた素性の違いによる性能の違いを検討すると,形態素素性のみを用いた場合に比べて,形態素素性とチャンク素性を併用した場合の方が,F値で2ポイント以上上回った.このことから,チャンク素性は,機能表現を検出するための素性として有効であったと言える.それに対して,形態素素性とチャンク素性を併用した場合と,形態素素性・チャンク素性・チャンク文脈素性と全ての素性を使った場合に,性能の差は殆んど見られなかった.全ての素性を用いて学習と解析を行った検出器Fおよび検出器FAMにおいて,他の表現と比較して極端に検出性能が悪く,F値が50に達しなかった表現は,「としては」と「にあたり」の2表現である.例えば,\strref{ex:niatari-F}に含まれる「にあたり」は,「(新規参入という)時が来たのに当面して」という機能的な意味で用いられているため,判定ラベルFが付与されるべき文である.それに対して,\strref{ex:niatari-C}および\strref{ex:niatari-C2}に含まれる「にあたり」は,内容的に用いられているため,判定ラベルCが付与されるべき文である.\begin{example}\item新規参入{\kern0pt}\uline{にあたり},潜在的なニーズを掘り起こそうと,転勤族を主な対象にした.\label{ex:niatari-F}\itemお神酒の瓶が女性{\kern0pt}\uline{にあたり},けがをする事故があった.\label{ex:niatari-C}\item米国の最先端の科学者が知恵を結集して原爆の開発{\kern0pt}\uline{にあたり},一九四五年八月に広島・長崎に原爆が投下された.\label{ex:niatari-C2}\end{example}しかし,SVMを用いた検出器Fおよび検出器FAMは,\strref{ex:niatari-F}と\strref{ex:niatari-C}に対しては判定ラベルCを,\strref{ex:niatari-C2}に対しては判定ラベルFを付与してしまい,用法を正しく判定できたのは\strref{ex:niatari-C}のみだった.仮に,\strref{ex:niatari-F}と\strref{ex:niatari-C}を区別することだけが必要ならば,直前がサ変名詞であることが有効な素性として働く可能性があるが,\strref{ex:niatari-C2}は,そのような素性だけではうまく判定できない.このように,提案手法によっては適切に検出できない表現もごく少数ながら存在するが,他の表現については,\tabref{tab:kekka_gaiyou}に示したように適切に検出することができた.\subsubsection{素性の比較}前述の通り,形態素素性とチャンク素性を併用した場合と,\pagebreak形態素素性・チャンク素性・チャンク文脈素性と全ての素性を使った場合に,性能の差は殆んど見られなかった.しかし,表現によっては,チャンク文脈素性が,検出の際に決定的な効果をもつ表現も存在するはずである.そこで,実際にそのような効果が現れている表現が存在するか,検出器FAMについて,形態素素性とチャンク素性のみ用いた場合の検出性能と,チャンク文脈素性を含む全ての素性を用いた場合の検出性能を,表現毎に比較した.F値で比較したとき,全ての素性を用いた場合の検出性能が,形態素素性とチャンク素性のみを用いた場合の検出性能を3ポイント以上上回っている表現は,以下の8表現である.\vspace{\NearBaselineskip}\begin{center}\begin{tabular}{llll}といっても&としても&といえば&というものの\\にあたって&に応じて&にとり&ことがある\end{tabular}\end{center}\vspace{\NearBaselineskip}この8表現に対して,チャンク文脈素性を含めて全ての素性を用いた場合には検出に成功した用例と,形態素素性とチャンク素性のみを用いた場合には検出に失敗した用例を,比較・分析した.例えば,「にあたって」の検出性能は,形態素素性とチャンク素性のみを用いた場合にはF値で0.79だったのに対して,チャンク文脈素性を含めて全ての素性を用いた場合にはF値で1.00となり,大きな改善が見られた.「にあたって」の用例を分析したところ,機能表現候補の直後に,形態素解析用辞書において「動詞・非自立」と分類されている語が現れていると,内容的に働いていると判定できることが分かった.チャンク文脈素性を用いると,機能表現候補に後続する2形態素分の情報を検出時に利用することができるので,この手がかりを機械学習することができ,検出性能が大きく向上したものと考えられる.「にあたって」以外の7表現の用例についても,「にあたって」と同様の特徴的なチャンク文脈素性が確認できた用例がいくつかあった.しかし,この7表現の用例については,検出性能の改善に寄与したチャンク文脈素性は,それぞれの用例に個別的で,全ての用例に共通するような素性は見い出されなかった.逆に,F値で比較したとき,全ての素性を用いた場合の検出性能が,形態素素性とチャンク素性のみを用いた場合の検出性能を3ポイント以上下回っている表現は,以下の7表現である.\vspace{\NearBaselineskip}\begin{center}\begin{tabular}{llll}となれば&といいながら&かと思うと&ところを\\にしても&にあたり&に従い\end{tabular}\end{center}\vspace{\NearBaselineskip}この7表現についても,検出に成功した用例と失敗した用例とを比較したが,失敗の原因は,それぞれの用例に個別的で,全ての用例に共通する原因は見い出されなかった.そのため,これらの表現は,チャンク文脈素性がスパースであるために,チャンク文脈素性を参照することによって性能が悪化したと考えられる.このように,素性によって検出性能が良くなる表現と,検出性能が悪くなる表現があることを考慮すると,素性の異なる複数の検出器を組み合わせて検出するという方法が考えられる.この方法を採用した場合,\ref{sec:human_rule}章で述べた場合と同様に,複数の機能表現候補に対する判定ラベルが相互に競合し,複数の検出器による検出結果を同時に採用できない可能性がある.このような場合に対応するには,複数の検出器による検出結果を統合するための枠組みが必要となるため,本論文では,そのような複雑な手法は用いない(\ref{subsec:formalization}節).\subsubsection{SVMを用いたチャンキングと人手で作成した規則を用いた検出器の比較}形態素素性とチャンク素性のみを用いた検出器FAMと,人手により作成した検出規則を用いた手法\cite{形態素情報を用いた日本語機能表現の検出}による検出器FAMに対して,前節と同様に,表現毎に性能を比較した.表現毎に見た場合,人手規則を用いた検出器FAMのF値が,SVMを用いた検出器FAMのF値に比べて3ポイント以上高い表現は,52表現中14表現存在した.14表現の内,「にあたり」などの4表現は,SVMを用いた検出器FAMの精度が,人手規則を用いた検出器FAMの精度を上回っているが,再現率は,人手規則を用いた検出器FAMの方が上回っている.人手規則を用いた検出器FAMでは,再現率を重視して判定規則が作成されているため,検出が困難な表現に対しても,高い再現率を維持できる.そのため,このような表現については,SVMを用いた検出器FAMに比べて,F値が高くなると考えられる.「に従い」などの10表現については,人手規則を用いた検出器FAMが,精度と再現率の両方の尺度で,SVMを用いた検出器FAMを上回っていた.例えば,\strref{ex:nishitagai-F}と\strref{ex:nishitagai-F2}に含まれる「にしたがい」はいずれも機能的な意味で用いられており,判定ラベルFが付与されるべきである.それに対して,\strref{ex:nishitagai-C}に含まれる「にしたがい」は内容的に用いられているので,判定ラベルCが付与されるべきである.\begin{example}\item年齢を経る{\kern0pt}\uline{にしたがい},体内の水分は減る.\label{ex:nishitagai-F}\item晩年に向かう{\kern0pt}\uline{にしたがい}{\kern0pt}仕事の質が上がっている.\label{ex:nishitagai-F2}\item二十年ごとに古い伝統の型{\kern0pt}\uline{にしたがい}{\kern0pt}社を建てかえる.\label{ex:nishitagai-C}\end{example}SVMを用いた検出器FAMは,\strref{ex:nishitagai-F}と\strref{ex:nishitagai-C}は正しく判定できたが,\strref{ex:nishitagai-F2}には判定ラベルCを誤って付与した.これは直後の文脈を用いて誤った判定を行っているのではないかと考えられる.それに対して,人手規則を用いた検出器FAMは,機能的に働いている機能表現候補の直前は用言であるという規則に基づいて,3つの文を正しく判定した.このように,表現毎に個別に見ると,人手によって作成された規則が,SVMよりも良い性能を示す場合はあるが,対象とする表現全体としては,SVMを用いた検出器FAMの性能が,人手規則による検出器FAMの性能を上回っている.\subsection{訓練データサイズの違いによる比較}ここまでの実験では,用例データベースに基づいて作成した全データセットを訓練データとして実験を行った.本節では,このデータサイズが,機能表現検出の学習に十分であるか検討する.そのため,訓練データとして用いる判定ラベル数を減少させた時,検出性能がどのように変化するかを調査した.結果を\figref{fig:learning_curve}に示す.\begin{figure}[b]\begin{center}\includegraphics[width=.7\textwidth]{06f3.eps}\end{center}\caption{訓練データサイズと学習性能の関係}\label{fig:learning_curve}\end{figure}\figref{fig:learning_curve}より,全データセットの約10分の1の判定ラベルのみを訓練データとして用いた時は,検出性能が大きく低下しているが,判定ラベル数の増加にともなって検出性能も向上し,全データセットに相当する判定ラベル数付近では,対象とする表現全体に対する検出性能はほぼ飽和していることがわかる.したがって,チャンク文脈素性を参照することによって検出性能が悪化する7表現を除いた残る45表現については,全データセットの分量で,機能表現検出の学習に十分であると言える.また,チャンク文脈素性を参照することによって検出性能が悪化する7表現についても,形態素素性とチャンク素性を用いた検出器を学習するには,全データセットの分量で十分であると言える.\subsection{訓練データの作成コストの削減}ここまでの実験では,文を単位として機械学習を行うため,文中に現れる全ての機能表現候補に対して判定ラベルを付与した全データセットを,訓練データとして用いた.しかし,このようにして訓練データを作成する方法には,以下のような問題が考えられる.\begin{itemize}\item「という」などのように出現頻度の高い機能表現と,出現頻度の低い機能表現の収集数に差が生じ,学習に偏りが生じる恐れがある.\item検出対象とする機能表現の種類を増やすと,たとえ例文数が一定であっても,機能表現候補の出現数が増加し,訓練データの作成コストが増大する.\end{itemize}これらの問題を解決するため,例文中に含まれる全ての機能表現候補に判定ラベルを付与するのではなく,必要な一部の機能表現候補に限って判定ラベルを付与する方法を検討する.前者の問題を解決するためには,各機能表現に対する学習事例の数を一定にすることが考えられる.そのため,1表現に対して50用例が収録されている用例データベースにおいて判定ラベルが付与されている機能表現候補と,その前後2形態素のみを学習データとして用いるという方法を考えた.しかし,この方法では,前後2形態素の範囲内に,判定ラベルがまだ付与されていない別の機能表現候補が含まれている場合,誤った判定ラベルを用いて学習してしまうことがあり,予備実験でも性能がかなり低下した.この問題を避けるには,判定ラベルが付与されている機能表現候補の前後2形態素の範囲内に,別の機能表現候補が出現していた場合は,その機能表現候補にも判定ラベルを付与し,その候補の前後2形態素を範囲に加えるという操作を繰り返し,判定ラベルが付与された機能表現候補とその前後2形態素のみを残すという方法が考えられる.しかし,この方法でも,チャンクタグ{\bfseriesO}に対する学習事例の数が不十分なために,性能が低下した.そのため,ここまでの操作によって判定ラベルが付与されなかった機能表現候補を取り除き,それらによって分断された部分を,それぞれ1文とみなして学習を行う方法を採用した.例として,「ばかりだ」という機能表現の例文として,用例データベースに収録されている\strref{ex:bakarida}を考える(``/''は形態素区切りを表す).\begin{example}\item/セミナー/開催/\underline{に/あたり}/,/最初/は/戸惑う/こと/\fbox{ばかり/だっ}/た/\underline{と/いう}/./\label{ex:bakarida}\end{example}「ばかりだ」の前後2形態素の範囲内には,「という」という機能表現候補が含まれている.そのため,この機能表現候補にも判定ラベルを付与し,この機能表現候補の前後2形態素の範囲を判定ラベル付与の対象に加える.\begin{example}\item/戸惑う/こと/\underline{ばかり/だっ}/た/\underline{と/いう}/./\end{example}「にあたり」という機能表現候補には,この操作によっては,判定ラベルが付与されない.この機能表現候補を取り除き,それによって分断された部分を,\strref{ex:divided_sentence_1}と\strref{ex:divided_sentence_2}のようにそれぞれ1文とみなして学習を行う.\begin{example}\item/セミナー/開催/\label{ex:divided_sentence_1}\item/,/最初/は/戸惑う/こと/\underline{ばかり/だっ}/た/\underline{と/いう}/./\label{ex:divided_sentence_2}\end{example}この手続きによって得られたデータセットを,以下では部分データセットと呼ぶ.部分データセットに含まれる各ラベル数と,全形態素数を\tabref{tab:dataset}に示す.データセットの作成に必要な人手コストは,機能表現候補の出現数にほぼ比例すると考えられる.したがって,\tabref{tab:dataset}より,部分データセットの作成に必要な人手コストは,全データセットの作成に必要な人手コストと比較して,かなり小さくなっていることが分かる.この部分データセットを訓練データとして機能表現検出器を作成した場合の検出性能を\tabref{tab:cost_F}に示す.学習・解析の素性としては,検出器Fについては,形態素素性とチャンク素性を,検出器FAMについては,形態素素性,チャンク素性およびチャンク文脈素性を用いた.部分データセットを訓練データとした場合の検出性能は,全データセットを訓練データとした場合の検出性能と比較して,検出器Fについて約1.0ポイント,検出器FAMについて約0.8ポイント低下している.しかし,この検出性能の低下は,データセットの作成に必要な人手コストの削減に対して,十分に小さい.したがって,上で述べた方法によって訓練データの作成コストの削減ができているといえる.\begin{table}\begin{center}\caption{訓練データの違いによる性能比較(\%)}\label{tab:cost_F}\begin{tabular}{c||c|c|c|c|c|c}\hline&\multicolumn{3}{c|}{検出器F}&\multicolumn{3}{c}{検出器FAM}\\\cline{2-7}データセット&精度&再現率&F値&精度&再現率&F値\\\hline\hline全データセット&87.6&91.1&89.3&91.1&93.6&92.3\\部分データセット&87.1&89.8&88.4&90.7&92.4&91.5\\\hline\end{tabular}\end{center}\vspace{11pt}\end{table}
\section{関連研究}
\label{sec:関連研究}\cite{Uchimoto04aj,Uchimoto04}は,話し言葉コーパス\cite{CSJ}を対象コーパスとして,半自動で精度良く短単位・長単位の2種類の粒度の形態論的情報を付与する枠組みを提案している.この枠組みでは,なるべく少ない人的コストで話し言葉コーパス全体に2種類の粒度の形態素情報を付与するため,最初に短単位の解析を行い,次に,短単位の形態素情報を素性として,短単位をチャンキングすることによって長単位の形態素情報を付与するという手順を採っている.例えば,「という」という機能表現は,短単位列としては助詞「と」および動詞「いう」の連体形の2短単位に分割され,長単位としては助詞「という」という1長単位にチャンキングされる.短単位から長単位をチャンキングするための機械学習手法としては,最大エントロピー法(ME)とSVMを比較し,SVMがより優れていると報告している.内元らの研究は,話し言葉コーパス全体を対象としているのに対して,本論文では,機能表現に焦点をあてて検討を行っている点で異なる.そのため,内元らは話し言葉コーパス中の長単位全体に対する形態素解析精度の評価は行っているが,機能表現に特化した評価は行っていない.一方,本論文では,既存の解析系における機能表現の取り扱い状況を整理した上で,機能表現に特化した性能評価を行っている.また,本論文では,対象となる機能表現のリストを事前に用意しているため,形態素列のどの部分が機能表現として検出される可能性があるかという情報(チャンク素性およびチャンク文脈素性)を利用して,チャンキングを行うことができる.機械学習手法としては,CRFとSVMを比較し,SVMの方が検出性能が高いことを示している.\cite{shudo.coling80,shudo.NL88,shudo.NLC98,shudo.mwe2004}は,機能表現や慣用表現を含む複数の形態素からなる定型的表現をできるだけ網羅的に収集し,機能表現間に類似度を定義して,機能表現の言い換えや機械翻訳に利用することを提案している.\cite{hyoudo.NLC98,hyoudo.NLP99,hyoudo.NLP00}と\cite{isaji.NLP04}は,日本語の文構造の解析を容易にするため,通常よりかなり長い文節を単位として解析を行うことを提案し,機能表現を含む大規模な長単位機能語辞書を作成している.しかし,これらの先行研究における日本語処理系においては,機能表現と同一の形態素列が内容的に振る舞う可能性が考慮されていない.
\section{おわりに}
\label{sec:おわりに}本論文では,機能表現検出と形態素解析は独立に実行可能であると仮定した上で,形態素を単位とするチャンク同定問題として機能表現検出タスクを定式化し,機械学習手法を適用して機能表現の検出を実現した.実際に,SVMを用いたチャンカーYamChaを利用して,形態素解析器ChaSenによる形態素解析結果を入力とする機能表現検出器を実装し,52種類の機能表現を対象として性能評価を行った.その結果,機械学習によって作成した機能表現検出器は,既存の解析系および人手で作成した規則を用いた検出器よりも,高精度に機能表現を検出できることを示した.更に,訓練データの作成コストを削減する方法について検討し,訓練データを作成するコストを大幅に削減しつつ,同時に,検出性能がほぼ同等の検出器を実現できることを示した.今後の研究課題として,検出対象とする機能表現の種類を増やし,その性能を評価することを計画している.また,係り受け解析と機能表現検出を組み合わせることにより,両者をより高精度に行う方法についても検討していきたい.\begin{thebibliography}{}\bibitem[\protect\BCAY{Cristianini\BBA\Shawe-Taylor}{Cristianini\BBA\Shawe-Taylor}{2000}]{SVM}Cristianini,N.\BBACOMMA\\BBA\Shawe-Taylor,J.\BBOP2000\BBCP.\newblock{\BemAnIntroductionto{S}upport{V}ector{M}achinesand{O}ther{K}ernel-based{L}earning{M}ethods}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Kudoh}{Kudoh}{2000}]{tinysvm}Kudoh,T.\BBOP2000\BBCP.\newblock\BBOQ{TinySVM:SupportVectorMachines}\BBCQ\\newblock\url{http://cl.aist-nara.ac.jp/~taku-ku/software/TinySVM/index.html}.\bibitem[\protect\BCAY{Lafferty,Mc{C}allum,\BBA\Pereira}{Laffertyet~al.}{2001}]{CRF}Lafferty,J.,Mc{C}allum,A.,\BBA\Pereira,F.\BBOP2001\BBCP.\newblock\BBOQConditional{R}andom{F}ields:{P}robabilistic{M}odelsfor{S}egmentingand{L}abeling{S}equence{D}ata\BBCQ\\newblockIn{\BemProceedingsofICML},\BPGS\282--289.\bibitem[\protect\BCAY{松吉,佐藤,宇津呂}{松吉\Jetal}{2005}]{接続情報にもとづく助詞型機能表現の自動検出}松吉俊,佐藤理史,宇津呂武仁\BBOP2005\BBCP.\newblock\JBOQ接続情報にもとづく助詞型機能表現の自動検出\JBCQ\\newblock\Jem{言語処理学会第11回年次大会論文集},\BPGS\1044--1047.\bibitem[\protect\BCAY{中塚,佐藤,宇津呂}{中塚\Jetal}{2005}]{助動詞型機能表現の形態・接続情報と自動検出}中塚裕之,佐藤理史,宇津呂武仁\BBOP2005\BBCP.\newblock\JBOQ助動詞型機能表現の形態・接続情報と自動検出\JBCQ\\newblock\Jem{言語処理学会第11回年次大会論文集},\BPGS\596--599.\bibitem[\protect\BCAY{Shudo,Narahara,\BBA\Yoshida}{Shudoet~al.}{1980}]{shudo.coling80}Shudo,K.,Narahara,T.,\BBA\Yoshida,S.\BBOP1980\BBCP.\newblock\BBOQMorphologicalAspectofJapaneseLanguageProcessing\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalConferenceonComputationalLinguistics(COLING'80)},\BPGS\1--8.\bibitem[\protect\BCAY{Shudo,Tanabe,Takahashi,\BBA\Yoshimura}{Shudoet~al.}{2004}]{shudo.mwe2004}Shudo,K.,Tanabe,T.,Takahashi,M.,\BBA\Yoshimura,K.\BBOP2004\BBCP.\newblock\BBOQMWEsasNon-propositionalContentIndicators\BBCQ\\newblockIn{\BemProceedingsofthe2ndACLWorkshoponMultiwordExpressions:IntegratingProcessing(MWE-2004)},\BPGS\32--39.\bibitem[\protect\BCAY{{TjongKimSang}}{{TjongKimSang}}{2000}]{Sang00a}{TjongKimSang},E.\BBOP2000\BBCP.\newblock\BBOQNounPhraseRecognitionbySystemCombination\BBCQ\\newblockIn{\BemProceedingsofthe1stConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\BPGS\50--55.\bibitem[\protect\BCAY{Uchimoto,Takaoka,Nobata,Yamada,Sekine,\BBA\Isahara}{Uchimotoet~al.}{2004}]{Uchimoto04}Uchimoto,K.,Takaoka,K.,Nobata,C.,Yamada,A.,Sekine,S.,\BBA\Isahara,H.\BBOP2004\BBCP.\newblock\BBOQMorphologicalAnalysisoftheCorpusofSpontaneousJapanese\BBCQ\\newblock{\BemIEEETransactionsonSpeechandAudioProcessing},{\Bbf12}(4).\bibitem[\protect\BCAY{内元,高岡,野畑,山田,関根,井佐原}{内元\Jetal}{2004}]{Uchimoto04aj}内元清貴,高岡一馬,野畑周,山田篤,関根聡,井佐原均\BBOP2004\BBCP.\newblock\JBOQ『日本語話し言葉コーパス』への形態素情報付与\JBCQ\\newblock\Jem{第3回「話し言葉の科学と工学」ワークショップ論文集},\BPGS\39--46.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1998}]{Vapnik98a}Vapnik,V.~N.\BBOP1998\BBCP.\newblock{\BemStatisticalLearningTheory(AdaptiveandLearningSystemsforSignalProcessing,Communications,andControl)}.\newblockJohnWiley\&SonsInc.\bibitem[\protect\BCAY{兵藤,若田,池田}{兵藤\Jetal}{1998}]{hyoudo.NLC98}兵藤安昭,若田光敏,池田尚志\BBOP1998\BBCP.\newblock\JBOQ文節ブロック間規則による浅い係り受け解析と精度評価\JBCQ\\newblock\Jem{電子情報通信学会研究報告},NLC98-30\JVOL.\bibitem[\protect\BCAY{兵藤,池田}{兵藤\JBA池田}{1999}]{hyoudo.NLP99}兵藤安昭,池田尚志\BBOP1999\BBCP.\newblock\JBOQ文節単位のコストに基づく日本語文節解析システム\JBCQ\\newblock\Jem{言語処理学会第5回年次大会発表論文集},\BPGS\502--504.\bibitem[\protect\BCAY{兵藤,村上,池田}{兵藤\Jetal}{2000}]{hyoudo.NLP00}兵藤安昭,村上裕,池田尚志\BBOP2000\BBCP.\newblock\JBOQ文節解析のための長単位機能語辞書\JBCQ\\newblock\Jem{言語処理学会第6回年次大会発表論文集},\BPGS\407--410.\bibitem[\protect\BCAY{土屋,宇津呂,松吉,佐藤,中川}{土屋\Jetal}{2006}]{日本語複合辞用例データベースの作成と分析}土屋雅稔,宇津呂武仁,松吉俊,佐藤理史,中川聖一\BBOP2006\BBCP.\newblock\JBOQ日本語複合辞用例データベースの作成と分析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(6).\bibitem[\protect\BCAY{土屋,宇津呂,佐藤,中川}{土屋\Jetal}{2005}]{形態素情報を用いた日本語機能表現の検出}土屋雅稔,宇津呂武仁,佐藤理史,中川聖一\BBOP2005\BBCP.\newblock\JBOQ形態素情報を用いた日本語機能表現の検出\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\BPGS\584--587.\bibitem[\protect\BCAY{前川}{前川}{2004}]{CSJ}前川喜久雄\BBOP2004\BBCP.\newblock\Jem{『日本語話し言葉コーパス』の概観ver.1.0}.\newblock\url{http://www2.kokken.go.jp/~csj/public/members_only/manuals/overview10.pdf}.\bibitem[\protect\BCAY{首藤,吉村,武内,津田}{首藤\Jetal}{1988}]{shudo.NL88}首藤公昭,吉村賢治,武内美津乃,津田健蔵\BBOP1988\BBCP.\newblock\JBOQ日本語の慣用的表現について---語の非標準的用法からのアプローチ---\JBCQ\\newblock\Jem{情報処理学会研究報告},1988-NL-66\JVOL,\BPGS\1--7.\bibitem[\protect\BCAY{首藤,小山,高橋,吉村}{首藤\Jetal}{1998}]{shudo.NLC98}首藤公昭,小山泰男,高橋雅仁,吉村賢治\BBOP1998\BBCP.\newblock\JBOQ依存構造に基づく言語表現の意味的類似度\JBCQ\\newblock\Jem{電子情報通信学会研究報告},NLC98-30\JVOL,\BPGS\33--40.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2001}]{複合辞用例集}国立国語研究所\BBOP2001\BBCP.\newblock\Jem{現代語複合辞用例集}.\bibitem[\protect\BCAY{松吉,佐藤,宇津呂}{松吉\Jetal}{2006}]{階層構造による日本語機能表現の分類}松吉俊,佐藤理史,宇津呂武仁\BBOP2006\BBCP.\newblock\JBOQ階層構造による日本語機能表現の分類\JBCQ\\newblock\Jem{言語処理学会第12回年次大会発表論文集},\BPGS\408--411.\bibitem[\protect\BCAY{浅原,松本}{浅原\JBA松本}{2003}]{ipadic-2.6.1}浅原正幸,松本裕治\BBOP2003\BBCP.\newblock\JBOQipadicversion2.6.1ユーザーズマニュアル\JBCQ\\newblock\url{http://chasen.aist-nara.ac.jp/chasen/doc/ipadic-2.6.1-j.pdf}.\bibitem[\protect\BCAY{工藤,山本,松本}{工藤\Jetal}{2004}]{kudo.IPSJNL2004}工藤拓,山本薫,松本裕治\BBOP2004\BBCP.\newblock\JBOQConditionalRandomFieldsを用いた日本語形態素解析\JBCQ\\newblock\Jem{情報処理学会研究報告},2004-NL-161\JVOL,\BPGS\89--96.\bibitem[\protect\BCAY{工藤,松本}{工藤\JBA松本}{2002a}]{yamcha}工藤拓,松本裕治\BBOP2002a\BBCP.\newblock\JBOQ{SupportVectorMachineを用いたChunk同定}\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(5),pp.~3--21.\bibitem[\protect\BCAY{工藤,松本}{工藤\JBA松本}{2002b}]{cabocha}工藤拓,松本裕治\BBOP2002b\BBCP.\newblock\JBOQチャンキングの段階適用による係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(6),pp.~1834--1842.\bibitem[\protect\BCAY{黒橋,河原}{黒橋\JBA河原}{2005a}]{juman-5.1}黒橋禎夫,河原大輔\BBOP2005a\BBCP.\newblock\Jem{日本語形態素解析システム{JUMAN}version5.1使用説明書}.\newblock\url{http://www.kc.t.u-tokyo.ac.jp/nl-resource/juman/juman-5.1.tar.gz}.\bibitem[\protect\BCAY{黒橋,河原}{黒橋\JBA河原}{2005b}]{knp-2.0}黒橋禎夫,河原大輔\BBOP2005b\BBCP.\newblock\Jem{日本語構文解析システム{KNP}version2.0使用説明書}.\newblock\url{http://www.kc.t.u-tokyo.ac.jp/nl-resource/knp/knp-2.0.tar.gz}.\bibitem[\protect\BCAY{黒橋長尾}{黒橋\JBA長尾}{1997}]{京都大学テキストコーパス}黒橋禎夫,長尾眞\BBOP1997\BBCP.\newblock\JBOQ京都大学テキストコーパス・プロジェクト\JBCQ\\newblock\Jem{言語処理学会第3回年次大会発表論文集},\BPGS\115--118.\bibitem[\protect\BCAY{松本,北内,山下,平野,松田,高岡,浅原}{松本\Jetal}{2003}]{chasen-2.3.3}松本裕治,北内啓,山下達雄,平野善隆,松田寛,高岡一馬,浅原正幸\BBOP2003\BBCP.\newblock\JBOQ形態素解析システム{C}ha{S}enversion2.3.3使用説明書\JBCQ\\newblock\url{http://chasen.aist-nara.ac.jp/chasen/doc/chasen-2.3.3-j.pdf}.\bibitem[\protect\BCAY{森田,松木}{森田\JBA松木}{1989}]{日本語表現文型}森田良行,松木正恵\BBOP1989\BBCP.\newblock\Jem{日本語表現文型},\Jem{NAFL選書},5\JVOL.\newblockアルク.\bibitem[\protect\BCAY{伊佐治,山田,池田}{伊佐治\Jetal}{2004}]{isaji.NLP04}伊佐治和哉,山田将之,池田尚志\BBOP2004\BBCP.\newblock\JBOQ長単位の機能語を辞書に持たせた文節構造解析システムibukiC\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\BPGS\636--639.\end{thebibliography}\begin{biography}\bioauthor{土屋雅稔}{1998年京都大学工学部電気工学科第二学科卒業.2004年京都大学大学院情報学研究科知能情報学専攻博士課程単位認定退学.京都大学修士(情報学).2004年より豊橋技術科学大学情報メディア基盤センター助手.自然言語処理に関する研究に従事.}\bioauthor{注連隆夫}{2005年大阪府立大学工学部卒業.現在,京都大学大学院情報学研究科修士課程在学中.自然言語処理の研究に従事.}\bioauthor{高木俊宏}{2006年京都大学工学部卒業.現在,同大学院情報学研究科修士課程在学中.通信ネットワークの研究に従事.}\bioauthor{内元清貴}{1994年京都大学工学部電気工学第二学科卒業.1996年同大学院修士課程修了.博士(情報学).同年郵政省通信総合研究所入所.現在,独立行政法人情報通信研究機構主任研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{松吉俊}{2003年京都大学理学部卒業.2005年同大学院情報学研究科修士課程修了.現在,同大学院情報学研究科博士後期課程在学中.自然言語処理の研究に従事.}\bioauthor{宇津呂武仁}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学大学院工学研究科博士課程電気工学第二専攻修了.京都大学博士(工学).奈良先端科学技術大学院大学情報科学研究科助手,豊橋技術科学大学工学部情報工学系講師,京都大学情報学研究科知能情報学専攻講師を経て,2006年より筑波大学大学院システム情報工学研究科知能機能システム専攻助教授.自然言語処理の研究に従事.}\bioauthor{佐藤理史}{1983年京都大学工学部電気工学第二学科卒業.1988年同大学院工学研究科博士後期課程電気工学第二専攻研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学情報科学研究科助教授,京都大学大学院情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科電子情報システム専攻教授.工学博士.自然言語処理,情報の自動編集等の研究に従事.}\bioauthor{中川聖一}{1976年京都大学大学院博士課程修了.同年,京都大学情報工学科助手.1980年豊橋技術科学大学情報工学系講師.1990年教授.1985--1986年カーネギメロン大学客員研究員.音声情報処理,自然言語処理,人工知能の研究に従事.工学博士.1977年電子通信学会論文賞,1988年IETE最優秀論文賞,2001年電子情報通信学会論文賞,各受賞.電子情報通信学会フェロー.著書「確率モデルによる音声認識」(電子情報通信学会編),「音声聴覚と神経回路網モデル」(共著,オーム社),「情報理論の基礎と応用」(近代科学社),「パターン情報処理」(丸善),「SpokenLanguageSystems」(編著,IOSPress)など.}\end{biography}\biodate\end{document}
| |
V15N05-02 | \section{はじめに}
\label{sec:intro}言語横断情報検索や言語横断質問応答,機械翻訳などの2つの言語に関わる処理を実現するには,その言語対に対する大規模対訳辞書などの言語横断言語資源が必要である.情報流通技術の発達に伴って,様々な言語で記述された情報を活用することが可能となりつつあり,複数言語を対象とする自然言語処理技術はますます重要な課題となることが予想される.しかし,世界には数多くの言語が存在するため,あらゆる言語対を対象として豊富な言語資源を整備することは,非現実的である.現実には,需要の大きい一部の言語対については大規模な言語資源が利用できるが,それ以外の多くの言語対については,小規模な対訳辞書しか利用できない場合が多い.もし,新規の言語対に対して対訳辞書を自動的に構築することができれば,このような状況を改善するのに非常に役立つと考えられるが,広く知られている通り,完全に自動的に高精度の対訳辞書を構築することはかなり困難である.そのため,本論文では,新規対訳辞書の自動構築というタスクに代わって,既存の小規模な対訳辞書を拡充するというタスクに着目する.まず,入力言語,中間言語,出力言語という3つの言語を考えた時,入力言語から出力言語への小規模な対訳辞書(以後,{\bfseries種辞書}と呼ぶ)と,入力言語から中間言語への大規模な辞書および,中間言語から出力言語への大規模な辞書という3つの辞書が利用できる状況を考える.この時,種辞書を拡充するというタスクは,以下の2つの条件を満たす語の訳語を推定するというタスクとして定義される.第1に,その語は,種辞書には登録されていない未知語である.第2に,入力言語から中間言語への対訳辞書と中間言語から出力言語への対訳辞書の両方を参照することにより,その語の出力言語上での訳語候補が得られる.タスクの設定から明らかに,種辞書の拡充というタスクは,2つの仮定に依存している.まず,(a)小規模な種辞書が存在しなければならず,次に,(b)先に述べた条件を満たす適切な中間言語が存在しなければならない.最初の仮定(a)から,完全に新規の言語対に対しては,このタスク設定は適用できないという制限が発生する.しかし,最近のネットワークとコンピュータの発達にともない,そのような完全に新規の言語対は少なくなりつつあり,非常に小規模な対訳辞書でも良ければ,多くの言語対について対訳辞書が利用できるようになってきている.また,英語を中間言語として考えると,多くの言語対について,後の仮定(b)が成り立つことは経験的に知られている.したがって,種辞書の拡充というタスクは,対訳辞書の自動構築よりも多くの仮定に依存していることは事実であるが,この仮定は多くの場合に問題にならないと考えられ,かつ,これらの仮定を導入することによって利用可能となる知識を用いれば,より簡単に訳語推定が可能になると期待される.種辞書の拡充というタスクは,新規対訳辞書の自動構築や,既存辞書に登録されていない新規な未知語に対する訳語の推定といった関連研究とは,2つの点で異なっている.\cite{日仏対訳辞書}は,英語を中間言語として利用し,和英辞書と英和辞書および英仏辞書と仏英辞書という4種類の辞書を利用して,新規の和仏対訳辞書を作成する方法を提案している.このような新規対訳辞書の自動構築というタスクでは,対象とする言語対についてはまったく対訳辞書が存在しない状況を想定しており,入力言語—出力言語の対訳辞書から得られる情報を考慮することは行われていない.それに対して,本論文で提案する辞書拡充というタスクは,小規模な種辞書から得られる情報をなるべく有効に利用しようとしている点で,先行研究とは異なる.\cite{ウェブから対訳を推定}は,既存の対訳辞書に登録されていない新規な未知語を対象として,大規模なコンパラブルコーパスなどを用いて訳語の推定を行っている.このような研究は,既存の対訳辞書から得られる情報を用いているという点では,辞書拡充というタスクと類似している.しかし,このような新規な未知語の多くは名詞であるため,多くの先行研究では,未知の名詞の訳語推定に特化した検討がされている.それに対して,非常に小規模な種辞書の拡充を行うには,名詞のみの訳語推定では不十分であり,動詞・形容詞などについても訳語の推定を行う必要が生じる.この問題については,\ref{subsec:辞書の分析}節で再び議論する.以下,\ref{sec:expansion}節では,中間言語を用いて対訳辞書を拡充する方法を提案する.\ref{sec:experiment}節では,入力言語をインドネシア語,中間言語を英語,出力言語を日本語として,対訳辞書の拡充を行った実験について報告する.特に,拡充された辞書を,実際の言語横断情報検索システムに組み込んで,評価した結果について報告する.\ref{sec:related_works}節では関連研究について述べ,最後に結論を述べる.
\section{中間言語を用いた対訳辞書の拡充}
\label{sec:expansion}\subsection{対訳辞書の拡充}ある入力言語から,ある出力言語への対訳辞書を作成するとき,以下のような状況を仮定する.\begin{quote}\textbf{仮定:}ある中間言語を考えると,入力言語から出力言語への小規模な対訳辞書(以下,\textbf{種辞書}と呼ぶ)と,入力言語から中間言語への大規模な対訳辞書および中間言語から出力言語への大規模な対訳辞書が存在する.\end{quote}このような仮定は,英語を中間言語とすると,かなり多くの言語対に対して成り立つことが期待できる.本論文では,上述の仮定の下で,入力言語から中間言語への大規模対訳辞書には登録されているが,種辞書には登録されていない語の訳語を推定することによって,種辞書を拡充するというタスク(対訳辞書の拡充)を扱う.\subsection{中間言語と共起ベクトルを用いた拡充方法}\label{subsec:提案手法}本論文で提案する拡充方法は,以下の2段階からなる.\begin{enumerate}\item入力言語のコーパスを用いて,翻訳したい単語と,種辞書に登録されている見出し語の単語共起ベクトルを作成する.次に,その単語共起ベクトルを,種辞書を用いて,出力言語上のベクトルに変換する.\item入力言語から中間言語への対訳辞書と,中間言語から出力言語への対訳辞書を利用して,訳語候補を列挙する.出力言語のコーパスを用いて,それぞれの訳語候補について単語共起ベクトルを作成し,前段階で得られたベクトルとの類似度に基づいて,訳語を決定する.\end{enumerate}提案手法の概略を,\figref{fig:提案手法}に示す.\begin{figure}[b]\begin{center}\includegraphics{15-5ia2f1.eps}\caption{提案手法}\label{fig:提案手法}\end{center}\end{figure}最初に,入力言語上の単語共起ベクトルを,種辞書を用いて,出力言語上のベクトルに変換する.言語を問わず,コーパス上における単語$w_{i},w_{j}$の共起頻度は$f(w_{i},w_{j})$と表す.種辞書$D$の全見出し語を$x_{i}(i=1,2,\ldots,n)$とすると,入力言語の単語$x_{s}$の共起ベクトル$\bf{v}(x_{s})$は,次式のように表される.\begin{equation}\bf{v}(x_{s})=(f(x_{s},x_{1}),\ldots,f(x_{s},x_{n}))\label{eq:src_vector}\end{equation}つまり,この共起ベクトル$\bf{v}(x_{s})$の各次元は,入力言語の単語と対応している.この共起ベクトル$\bf{v}(x_{s})$を,種辞書を用いて,各次元要素が出力言語の単語と対応するようなベクトル$\bf{v}_{t}(x_{s})$に変換する.\begin{equation}\bf{v}_{t}(x_{s})=(f_{t}(x_{s},z_{1}),\ldots,f_{t}(x_{s},z_{m}))\label{eq:trans_vector}\end{equation}ここで,$z_{j}(j=1,2,\ldots,m)$は,種辞書に現れる全ての訳語である.また,$f_{t}(x_{s},z_{k})$は,単語$x_{s}$に関する入力言語コーパス上の共起頻度を,出力言語の単語$z_{j}$との共起の程度を示すように変換する関数であり,次のように定義する.\begin{equation}f_{t}(x_{s},z_{j})=\sum_{i=1}^{n}f(x_{s},x_{i})\cdot\delta(x_{i},z_{j})\end{equation}ここで,$\delta(x_{i},z_{j})$は,単語$z_{j}$が単語$x_{i}$の訳語であるかどうかを示す関数であり,単語$x_{i}$を種辞書で調べたときに得られる訳語集合を$D(x_{i})$とすると,次式によって表される.\begin{equation}\delta(x_{i},z_{j})=\begin{cases}1&\mbox{if}\z_{j}\inD(x_{i})\\0&\mbox{otherwise}\end{cases}\end{equation}次に,訳語候補を,以下の手順で列挙する.最初に,入力言語の単語$x_{s}$について,入力言語から中間言語への対訳辞書を検索して,中間言語上の訳語集合$\bf{Y}_{s}$を得る.続いて,得られた訳語$\bf{y}_{s}\in\bf{Y}_{s}$を用いて,中間言語から出力言語への対訳辞書を検索し,出力言語上の訳語候補集合$\bf{Z}_{s}$を得る.ただし,訳語$\bf{y}_{s}$は,一般に,複数の語からなることがあり得る.通常の対訳辞書において,入力言語の単語$x_{s}$に相当する単語が中間言語上に存在する場合には,その相当する単語を訳語として使うことができるが,相当する単語が中間言語上に存在しない場合には,複数の語からなる句または説明文の形の訳語が使われる.そこで,訳語$\bf{y}_{s}$が単語1語からなっていた場合は,そのまま中間言語から出力言語への対訳辞書を検索し,訳語$\bf{y}_{s}$が複数の語からなっていた場合は,訳語$\bf{y}_{s}$を構成する語全てを1つずつ用いて中間言語から出力言語への対訳辞書を検索し,得られた全ての訳語候補集合の和集合を訳語$\bf{y}_{s}$の訳語候補集合とする.訳語候補$\bf{z}_{s}\in\bf{Z}_{s}$についても同様に,複数の語からなることがあり得る.ある訳語候補$\bf{z}_{s}$が単語列$z_{s}^{1}z_{s}^{2}\cdots{}z_{s}^{l}$である時,訳語候補$\bf{z}_{s}$の共起ベクトルを構成語全てを用いて次式のように求める.\begin{equation}\bf{u}(\bf{z}_{s})=\left(\sum_{k=1}^{l}f(z_{s}^{k},z_{1})\,\ldots,\\sum_{k=1}^{l}f(z_{s}^{k},z_{m})\right)\label{eq:dst_vector}\end{equation}ベクトル$\bf{v}_{t}(x_{s})$とベクトル$\bf{u}(\bf{z}_{s})$のcosine類似度$s(\bf{v}_{t}(x_{s}),\bf{u}(\bf{z}_{s}))$を計算し,適当な条件を満たした訳語候補$\bf{z}_{s}$を,単語$x_{s}$の訳語として出力する.本論文では,条件として,(1)類似度の大きい訳語候補から順に出力する,(2)類似度が適当な閾値より大きい訳語候補を出力する,という2通りの方法を考える.この評価については,\ref{subsec:閾値の比較}節で述べる.\paragraph{例}\入力言語としてインドネシア語,出力言語として日本語,中間言語として英語を用いた場合,提案手法による対訳辞書の拡充が,どのようにして行われるかを具体例を用いて示す.拡充対象となる語は,インドネシア語—日本語辞書(種辞書)には登録されていないが,インドネシア語—英語辞書には登録されている語である\footnote{実際には,正解訳語の判定を安定して行うために,元々の辞書に登録されている語を一部取り除いた辞書を種辞書,取り除いた語をテスト単語として実験を行った.詳細については,\ref{subsec:condition}節を参照.}.そのような語`peradaban'をインドネシア語—英語辞書を用いて翻訳すると,2つの英訳語`civilization',`culture'が得られる.次に,この2つの英訳語を,英語—日本語辞書を用いて翻訳すると,13通りの訳語候補が得られる.\begin{quote}文明,文明人,文化,文化生活,教化,開化,教養,都会,人口密集地,養成する,培養する,培養,菌株\end{quote}これらの訳語候補に対して\eqnref{eq:dst_vector}によって求めたベクトル$u(\mbox{文明}),u(\mbox{文明人}),\ldots,u(\mbox{菌株})$と,\eqnref{eq:trans_vector}によって求めたベクトル$v_{t}(\mbox{`peradaban'})$とのcosine類似度と,それぞれの訳語候補が実際に訳語として正しいかどうかを人手で判定した結果を,\tabref{tbl:example}に示す.この場合,13通りの訳語候補から類似度順に上位3個の訳語候補を訳語として出力すると,出力された3個の訳語中で正しい訳語は1個だけであるから,精度は33\%となり,正しい2個の訳語中で出力された訳語は1個だけであるから,再現率は50\%となる.類似度が0.2より大きい訳語候補を選択した場合には,精度は20\%,再現率は100\%である.この手順を,対象となる全ての語に対して行うと,インドネシア語—英語辞書と英語—日本語辞書によって訳語候補が見つかる全ての語を含む拡充された辞書が得られる.\begin{table}[t]\caption{インドネシア語単語`peradaban'に対する訳語候補の例}\label{tbl:example}\begin{center}\input{02table01.txt}\end{center}\end{table}\subsection{共起ベクトルの補正}共起ベクトルを求めるとき,単純な共起頻度$f(w_{i},w_{j})$を用いる代わりに,適当な補正を加える方法が有効である可能性がある.その方法として,本論文では,共起頻度を補正する方法と,LatentSemanticAnalysis(LSA)に基づいてベクトルを変換する方法の2通りを検討する.まず,情報検索においてしばしば用いられる$TF\cdotIDF$の考え方を応用して,以下の2通りの補正された頻度を,単純な共起頻度$f(w_{i},w_{j})$の代わりに用いる方法を比較する.\begin{align}f_{\rmIDF}(w_{i},w_{j})&=\frac{f(w_{i},w_{j})}{df(w_{j})}\label{eq:IDF}\\f_{\rmTFIDF}(w_{i},w_{j})&=\frac{f(w_{i},w_{j})\cdot{}tf(w_{j})}{df(w_{j})}\label{eq:TFIDF}\end{align}ここで,$tf(w)$は,ある単語$w$の単語出現頻度であり,$df(w)$は,ある単語$w$の文書出現頻度である.LSAに基づく方法では,まず,日本語コーパス上での単語—文書共起行列$A$を求める.この行列$A$の$i$行$j$列の要素は,単語$w_{i}$の文書$d_{j}$中における頻度である.この時,行列$A$の行数は,種辞書に出現する語数$m$に等しく,列数は,コーパスに含まれる文書数$d$に等しい.このような行列$A$は,次式のように,3つの行列$U,D,V$に特異値分解することができる.\begin{equation}A_{m\timesd}=U_{m\timesr}D_{r\timesr}V^{\rmT}_{d\timesr}\end{equation}ただし,$r$は行列$A$の階数である.この時,適当な小さい階数$r'$(ただし,$r'<r$)を選ぶと,階数$r'$における行列$A$の最適近似は次式によって表される.\begin{equation}U'_{m\timesr'}D'_{r'\timesr'}V'^{\rmT}_{d\timesr'}\end{equation}ただし,$U',D',V'$の各要素は,それぞれ,行列$U,D,V$の対応する要素と等しい.ここで,左特異行列$U'$の各行は,その行に対応する語が,単語—文書という共起の観点から見て,他の語とどのように類似しているかを表すベクトルと考えることができる.このようにして得られた語の類似性を表すベクトルを用いて,\eqnref{eq:trans_vector}で求められたベクトル$v_{t}(x_{s})$と,\eqnref{eq:dst_vector}で求められたベクトル$u(z_{s})$を,以下のように補正する.\begin{align}v_{\mathrm{LSA}}(x_{s})&=v_{t}(x_{s})\U'\label{eq:LSA1}\\u_{\mathrm{LSA}}(z_{s})&=u(z_{s})\U'\label{eq:LSA2}\end{align}このように補正することにより,類似語と共起している場合の訳語選択を,より適切に行えるようになる可能性がある.これらの補正方法の評価については,\ref{subsec:補正の比較}節で述べる.
\section{評価実験}
\label{sec:experiment}入力言語をインドネシア語,中間言語を英語,出力言語を日本語として,対訳辞書の拡充を行った実験について述べる.\subsection{実験条件}\label{subsec:condition}本論文では,日本語コーパスとして,毎日新聞CD-ROM(1993年$\sim$1995年)を,形態素解析器MeCab~\cite{mecab}で形態素解析したデータを用いた.共起ベクトルを用いて単語間の意味的な類似度を測定するには,なるべく類似したドメインに対するコーパスの方が良い結果が得られると予想される.しかし,インドネシア語に対する既存の言語資源は大変少ないため,インドネシア国内向けに編集・公開されているウェブ新聞\footnote{\url{http://www.kompas.com/},\url{http://www.tempointeraktif.com/}}の記事を,インドネシア語コーパスとして用いた.各コーパスの諸元は\tabref{tbl:コーパスの諸元}の通りである.\begin{table}[b]\caption{コーパスの諸元}\label{tbl:コーパスの諸元}\begin{center}\input{02table02.txt}\end{center}\end{table}\begin{table}[b]\caption{語彙サイズと品詞分布}\label{tbl:語彙サイズと品詞分布}\begin{center}\input{02table03.txt}\end{center}\end{table}インドネシア語から日本語への対訳辞書としては\cite{IEDIC}を,インドネシア語から英語への対訳辞書としては\cite{IEDIC}を,英和辞書としては英辞郎\cite{EJDIC}を用いた.各辞書の語彙サイズを\tabref{tbl:語彙サイズと品詞分布}に示す\footnote{\tabref{tbl:語彙サイズと品詞分布}において,「その他」は,品詞情報が付与されていない見出し語全て(複数語からなる慣用句など)を含む.}.対訳辞書の拡充手法を正確に評価するには,インドネシア語から英語への対訳辞書に収録されているが,種辞書には収録されていない語,つまり実際の拡充対象となる語を対象として,各種評価を行う必要がある.しかし,そのような語については正解訳語のリストが存在せず,安定した評価が難しい.そのため,本論文では,インドネシア語から日本語への対訳辞書から,500個の訳語対をテスト用として取り出し,残りの訳語対のみを登録した辞書を種辞書として実験を行う.この時,インドネシア語コーパスを用いて,拡充対象となる語の頻度分布を調査し,得られた頻度分布と,テスト用訳語対のインドネシア語単語の頻度分布が概ね等しくなるように,テスト用訳語対を選択した.結果を\figref{fig:テスト単語}に示す.また,選択されたテスト単語(500語)に対する訳語候補数を\tabref{tbl:テスト単語対の諸元}に示す.インドネシア語1語に対して英語訳語候補は平均1.73個,日本語訳語候補は平均3.03個存在する.\begin{figure}[b]\begin{center}\includegraphics{15-5ia2f2.eps}\end{center}\caption{インドネシア語—日本語の訳語対のインドネシア語コーパス中の頻度分布}\label{fig:テスト単語}\end{figure}\begin{table}[b]\caption{テスト単語対の諸元}\label{tbl:テスト単語対の諸元}\begin{center}\input{02table04.txt}\end{center}\end{table}評価尺度としては,次式によって定義される精度,再現率,$F_{\beta=1}$値,訳語含有率を用いた.{\allowdisplaybreaks\begin{align*}\mbox{精度}&=\frac{a}{b}\\\mbox{再現率}&=\frac{c}{d}\\F_{\beta=1}&=\frac{2\times\mbox{精度}\times\mbox{再現率}}{\mbox{精度}+\mbox{再現率}}\\\mbox{訳語含有率}&=\frac{e}{f}\end{align*}}ただし,出力された候補の内,正解と判定された候補の数を$a$,出力された候補の総数を$b$とする.また,正解の内,出力された正解の数を$c$,正解の総数を$d$とする\footnote{正解と同義の表現が出力された場合は,人手で判定を行った.そのとき,1つの正解に対して複数の出力が対応付けられ,$a$と$c$が等しくならないことがある.}.$e$は出力された候補中に少なくとも1つの正解が含まれていたテスト単語の数,$f$はテスト単語の総数(500)である.\subsection{出力する訳語の選択方法による比較}\label{subsec:閾値の比較}\begin{figure}[b]\begin{center}\includegraphics{15-5ia2f3.eps}\end{center}\caption{出力する訳語の選択方法による比較}\label{fig:閾値の比較}\end{figure}類似度によって整列された訳語候補リストから,どの部分を訳語候補として出力することが適切かを検討する.上位$n$候補を取り出した場合と,類似度$s$が閾値より大きい候補を取り出した場合の精度・再現率を\figref{fig:閾値の比較}に示す.\figref{fig:閾値の比較}では,ベースラインとして,3通りの訳語選択方法を想定している.第1の方法および第2の方法は,逆引きによって訳語候補を選択する手法\cite{日仏対訳辞書}である.逆引き用辞書としては,\cite{EJDIC}に含まれている和英辞書を使い,中間言語(英語)上で一致度を求めた\footnote{この方法は,\cite{日仏対訳辞書}では「1回逆引き法」として言及されている方法である.}.提案法と同様に,一致度の上位$n$候補を取り出した場合を第1のベースライン,一致度が閾値$x$より大きい候補を取り出した場合を第2のベースラインとする.第3のベースラインは,まったく訳語選択を行わずに,インドネシア語から英語への対訳辞書と英和辞書を検索して得られた日本語訳語候補全てを訳語として選択する手法である.\figref{fig:閾値の比較}より,提案法には,類似度と閾値を比較して訳語を選択すると,低い閾値を用いた場合には,良い精度が得られず,高い閾値を用いた場合には,精度は改善されるが,出力される訳語が極端に少なくなってしまう問題があることが分かる.つまり,提案法に対しては,適当な閾値と比較して訳語を選択する方法よりも,上位$n$候補を選択する方法が適している.適切な$n$は,拡充した辞書を利用する実際の応用アプリケーションによって変化すると予想されるが,本論文では,最も良い$F_{\beta=1}$値が得られた$n=3$を用いることにする.上位$n$候補を訳語として選択した場合の提案法は,逆引きを用いた2通りのベースラインに対して,全ての評価尺度で優っている.また,提案法は,まったく訳語選択を行わないベースラインに対して,精度および$F_{\beta=1}$値で優っている.\subsection{共起ベクトルの補正方法の比較}\label{subsec:補正の比較}単純な共起頻度を用いて共起ベクトルを求めた場合,\eqnref{eq:IDF}のように文書出現頻度を用いて共起頻度を補正して共起ベクトルを求めた場合,\eqnref{eq:TFIDF}のように単語出現頻度と文書出現頻度を用いて共起頻度を補正して共起ベクトルを求めた場合,さらに\eqnref{eq:LSA1}と\eqnref{eq:LSA2}のようにLSAに基づいて共起ベクトルを補正した場合を比較した.LSAに基づく方法では,$10\sim500$の範囲で$r'$の適切な値を実験的に求めたところ,最も良い結果が得られた$r'=500$を選んだ.結果を\tabref{tbl:補正の比較}に示す.表より,これらの補正による効果は殆んど観察されず,単純さから,共起頻度を用いて共起ベクトルを求める方法が良い.\begin{table}[b]\caption{共起頻度の補正方法による比較}\label{tbl:補正の比較}\begin{center}\input{02table05.txt}\end{center}\end{table}以下,このような結果が得られた理由について考察する.ある訳語候補集合から,1つの訳語候補を訳語として選択するか否かを判定する場合,その候補と共起する語の重要度は,その語が,一般的にどのように振る舞うかによって決まるのではなく,その語が,訳語候補集合に含まれる他の候補と,その候補とを区別するのに役立つか否かによって決まると予想される.それに対して,\eqnref{eq:IDF},\eqnref{eq:TFIDF}および\eqnref{eq:LSA1}と\eqnref{eq:LSA2}はいずれも,語の一般的な振舞いにのみ注目して補正を行っているため,効果が得られなかったのではないかと考えられる.\subsection{品詞別の比較}\label{subsec:辞書の分析}\tabref{tbl:語彙サイズと品詞分布}より,2つの辞書の品詞別分類に大きな差はなく,約7,000語から約30,000語にインドネシア語の語彙が拡大するとき,名詞ばかりが増えるのではなく,動詞・形容詞についてもほぼ均等に増加していることが分かる.そのため,小規模な種辞書を拡充する場合には,未知語(殆んどが名詞)に対する訳語獲得とは異なり,名詞だけではなく,動詞や形容詞についても訳語を推定する必要がある.\begin{figure}[b]\begin{center}\includegraphics{15-5ia2f4.eps}\end{center}\caption{品詞による比較}\label{fig:品詞による比較}\end{figure}このような性質を持つ辞書拡充タスクに対する提案法の有効性を検討するため,テスト用の訳語対集合を,インドネシア語の品詞によって名詞・動詞・形容詞の3つに分類し,それぞれに対して訳語推定を行った.結果を\figref{fig:品詞による比較}に示す.ベースラインは,逆引きによって訳語候補を選択する手法($n=10$)と,全く訳語候補の選択を行わない手法の2つである.\figref{fig:品詞による比較}より,提案法は,ベースラインと比較して品詞による性能の変化が小さく,辞書拡充タスクに適していることが分かる.\subsection{頻度別の比較}テスト用の訳語対集合を,インドネシア語の開発用コーパス上の頻度によって分類した場合の結果を\figref{fig:頻度の比較}に示す.頻度が精度・再現率・訳語含有率に与えている影響は,それほど大きくない.したがって,本来の目的である種辞書中に存在しない単語に対する訳語も,同程度の精度で得られると期待できる.実際に,そのような単語を対象として行った実験結果については,\ref{subsec:CLIR_experiment}節で述べる.\begin{figure}[b]\begin{center}\includegraphics{15-5ia2f5.eps}\end{center}\caption{頻度による比較}\label{fig:頻度の比較}\end{figure}\subsection{種辞書の大きさによる比較}\label{subsec:seed_compare}次に,種辞書の大きさが,訳語推定に対して与える影響について検討する.種辞書の訳語対を,インドネシア語の開発用コーパス上の頻度順によって整列し,上位$n$対のみを残すことによって,$n$対からなる小規模な種辞書を作成した.この種辞書を用いて,テスト用訳語対に対して訳語候補の上位3候補までを出力した場合の精度の変化を\figref{fig:種辞書の大きさによる精度の変化}に示す.図より,訳語推定を行うには3,000語程度の種辞書が必要であり,特に1,000語未満の種辞書を用いると極端に推定精度が悪化することが分かる.\begin{figure}[t]\begin{center}\includegraphics{15-5ia2f6.eps}\end{center}\caption{種辞書の大きさによる精度の変化}\label{fig:種辞書の大きさによる精度の変化}\end{figure}\subsection{言語横断情報検索における効果}\label{subsec:CLIR_experiment}言語横断情報検索は,\pagebreak大規模な対訳辞書を必要とする典型的な自然言語処理技術の1つであり,他の言語横断なタスクに比べて,カバー率の高い対訳辞書を特に必要とするタスクである.上位3候補を訳語として出力する提案法は,僅かな精度の低下と引き換えに,大きな再現率の改善を得ている(\figref{fig:閾値の比較}).よって,提案法は,言語横断情報検索に適していると考えられるので,本節では,現実の言語横断情報検索システムにおける提案法の効果を検討する.具体的には,インドネシア語—日本語の言語横断情報検索タスクを対象として,既存の小規模なインドネシア語—日本語辞書を提案法によって拡充した場合に得られる効果について述べる.最初に,対象とするインドネシア語—日本語の言語横断情報検索タスクの内容について説明する.このタスクは,日本国内の事象についてのインドネシア語の質問文を入力とし,その質問文に対する適切な情報を含む日本語文書を出力とする.評価用テストセットコレクションおよび評価尺度としては,NTCIR3ウェブ情報検索タスク\cite{eguchi_NTCIR3}において使用されたものを用いる.ただし,このテストセットコレクションは,日本語の文書集合(約100\,GB)と,この文書集合中に回答が含まれている日本語の質問文(47個),および,その英訳文からなり,インドネシア語の質問文は用意されていない.そのため,英訳された質問文を,日本に留学中のインドネシア語を母語とする大学院生(2名)に翻訳してもらい,インドネシア語の質問文を用意した.NTCIR3ウェブ情報検索タスクでは,評価尺度としてMeanAveragePrecision(MAP)値を用いる.ただし,出力された文書の評価にあたっては,one-click-distancedocumentmodelを採用し,同時に,正解の関連の度合いについても2段階の評価を行っている\footnote{正確には3段階の評価を行っているが,実際に検討しているのは2段階のみである.}.そのため,以下の4種類のMAP値が評価尺度として用いられる.\begin{itemize}\itemRC:ハイパーリンクを考慮することなく,正解と強く関連している文書の精度\itemRL:ハイパーリンクを考慮すると,正解と強く関連している文書の精度\itemPC:ハイパーリンクを考慮することなく,正解と部分的に関連している文書の精度\itemPL:ハイパーリンクを考慮すると,正解と部分的に関連している文書の精度\end{itemize}言語横断情報検索システムとしては,\cite{IJCLIR}を用いる.このシステムの検索手順は以下の通りである.まず最初に,入力されたインドネシア語質問文からインドネシア語キーワードを抽出する.次に,インドネシア語キーワードを,対訳辞書を用いて,日本語キーワードに翻訳する.最後に,日本語キーワードを用いて,日本語文書集合を検索し,条件に合致する文書を出力する.この部分には,\cite{fujii03b}による情報検索システムをそのまま用いている.このように,本システムは,言語横断情報検索システムとして,対訳辞書を用いた非常に基本的な構成を採用しており,対訳辞書による違いが検討しやすいと考える.次に,提案手法によって種辞書を拡充した場合の効果について検討する.質問文中に含まれる単語の異なり数は301であり,その内,種辞書に含まれない未知語の異なり数は106(35\%)である.それに対して,提案手法によって辞書の拡充を行い,20,457語の見出し語からなる辞書を作成したところ,28語について訳語を得ることができ,未知語の異なり数は78(26\%)まで減少した.この28語は,テスト単語を取り除く前の元々のインドネシア語—日本語辞書にも含まれていなかった完全な未知語である.日本に留学中のインドネシア語を母語とする大学院生(1名)に,この28語に対して出力された訳語の正解判定を依頼したところ,約52\%の精度で正しい訳語が出力されていることが分かった.この結果は,\ref{subsec:閾値の比較}節における結果と概ね一致していることから,本論文の提案手法は完全な未知語についても有効である.\begin{table}[b]\caption{言語横断情報検索における効果}\label{tbl:IR実験結果}\begin{center}\begin{small}\input{02table06.txt}\end{small}\end{center}\end{table}辞書を変更した場合の情報検索性能の変化を\tabref{tbl:IR実験結果}に示す.ここで,手法(1)〜(3)が既存の比較手法であり,手法(4)〜(6)が提案手法によって拡充した辞書を辞書を用いた結果である.また,手法(3)と手法(6)は,他の手法とは異なり,\cite{IJCLIR}によって提案された方法を用いて,対訳辞書を用いて得られた訳語候補の絞り込みを行っている.この絞り込みには,訳語候補の日本語コーパスにおける相互情報量と,その訳語候補を用いて検索して発見された文書の信頼度が,組み合わせて用いられる.この絞り込みは,検索時に同時に行わざるを得ないため,システムの処理速度の低下が欠点である.手法(7)は,\cite{日仏対訳辞書}の手法を,インドネシア語—英語—日本語について適用して作成した辞書を用いた結果である.\tabref{tbl:IR実験結果}では明らかに,手法(7)がもっとも性能が悪い.このように,\cite{日仏対訳辞書}の手法は,元とする辞書の品質によっては,非常に低品質の辞書しか得られないという問題が生じることがある.手法(1)と手法(4),手法(2)と手法(5)を比較すると,いずれの場合も,拡充した辞書を用いることによって情報検索性能が改善している.したがって,本提案手法を用いて拡充した辞書は,情報検索において有用と考えられる.手法(3)と手法(6)の間には,性能の差は殆んどなく,訳語候補の絞り込みを行うと,本提案手法によって辞書を拡充した効果が現れなくなることが分かる.しかし,手法(5)は,訳語候補の絞り込みを行っていないにも関わらず,手法(3)および手法(6)とほぼ同等の性能を達成している.よって,本提案手法を用いて拡充した辞書は情報検索において有用であり,同時に,訳語候補の絞り込みという高負荷な処理を行うことなしに,訳語候補の絞り込みを行った場合と同等の性能を達成できる.\begin{figure}[b]\begin{center}\includegraphics{15-5ia2f7.eps}\end{center}\caption{種辞書の大きさが情報検索性能に与える影響}\label{fig:RL_comparison}\end{figure}\ref{subsec:seed_compare}節で述べた方法により,見出し語数の異なる種辞書を複数用意し,種辞書の大きさが検索性能に与える影響を調べた.結果を\figref{fig:RL_comparison}に示す.手法(2),(5)はともに,種辞書に含まれている見出し語の数が増えるにつれて性能が改善しているが,種辞書に含まれる見出し語の数が少ない場合には,手法(2)と手法(5)の差が大きくなっている.このように,本提案手法は,種辞書に含まれる見出し語数が少ない場合には,種辞書をそのまま使う場合に比べて効果が大きいと考えられる.
\section{関連研究}
\label{sec:related_works}\ref{sec:intro}節でも述べた通り,本研究と関連が深いタスクとして,2つの方向がある.第1は,新規の言語対に対する対訳辞書を自動構築するという研究であり,第2は,既存の対訳辞書に登録されていない未知語に対する訳語を推定するという研究である.新規の言語対に対する対訳辞書を自動構築する研究は,さらに,大きく2つのアプローチに分けることができる.第1のアプローチは,既存の対訳辞書をまったく仮定せず,対象としている言語対のコーパスから直接に対訳辞書を構築しようとするアプローチである.第2のアプローチは,ある中間言語を導入して,その中間言語との間の対訳辞書を利用することにより,新規言語対の対訳辞書を構築するというアプローチである.第1のアプローチでは,基本的に,単語の周辺の文脈を何らかの方法で表現し,入力言語と出力言語で類似した文脈に出現する語を訳語対とする.例えば,\cite{fung95}は,英語と中国語を対象として,ある単語の直前と直後に現れる単語の種類数を求め,その種類数によって単語の文脈的な特異性を表し,良く似た特異性を備えた英語単語と中国語単語とを訳語対としてまとめるという方法を提案している.\cite{rapp95}は,英語とドイツ語を対象として,非常に基本的な単語の訳語対(6個)とコンパラブルコーパスを用意しておき,これらの訳語との共起頻度に基づいて定義した単語間の類似度を用いて訳語対を求める方法を提案している.新規対訳辞書を自動構築する第2のアプローチとしては,本研究と同様に,英語を中間言語として用いる試みが幾つか報告されている.\cite{日仏対訳辞書}は,英語を中間言語として利用して,和仏対訳辞書を作成する方法を提案している.この方法では,和英辞書と英仏辞書を利用して,日本語単語に対するフランス語訳語候補を獲得し,仏英辞書と英和辞書を利用して,得られたフランス語単語に対する日本語訳語候補を調べる(逆引きを行う)ことによって,訳語候補の絞り込みを行い,訳語推定精度を改善している.この方法で,名詞を対象とした場合の精度は76\%,再現率は44\%である.白井ら\cite{shirai01}は,田中らと同様の方法を用いて,英語を中間言語として日本語と韓国語の対訳辞書を作成している.Bondら\cite{bond01}も同様に,英語を中間言語として利用して,日本語とマレー語の対訳辞書を作成している.張ら\cite{日中対訳辞書}は,英語を中間言語として利用して,日中対訳辞書を作成する方法を提案している.この方法では,和英辞書と英中辞書を利用して,日本語単語に対する中国語訳語候補を獲得し,日本語と中国語の品詞情報と漢字情報を利用して訳語候補の順位付けを行っている.この方法で,第1位に順位付けられた訳語候補のみを出力した場合の精度は81.4\%である.これらの先行研究は,対象となる言語対の辞書が全く存在しない状況を想定しており,入力言語—出力言語の対訳辞書から得られる情報を考慮することは行われていない.それに対して,本論文の手法では,対象となる言語対について小規模な種辞書が存在する状況を想定しており,その種辞書から得られる情報をなるべく有効に利用しようとしている点で,これらの先行研究とは異なる.既存の対訳辞書には含まれていない語について訳語推定を行い,かつ,その推定にあたっては既存の対訳辞書を最大限に利用しようするという2つの点において,本論文で提案する種辞書の拡充というタスクと,未知語の訳語推定というタスクは関連が深い.例えば,\cite{tanaka02}は,対象となる言語対のコンパラブルコーパスを用意し,周辺に共起する単語を文脈ベクトルとして表現し,文脈ベクトルの類似度を求めて訳語を推定するという方法を提案している.ただし,推定対象は,複合名詞に限られており,動詞や形容詞には対応していない.\cite{kaji01}も,類似の方法を提案し,複合語と単純語の両方に対して評価を行っている.ただし,\cite{kaji01}は,非常に大規模な既存の対訳辞書(50,000語)を用いている点で,本論文とは問題設定が異なっていると考えられる.本論文で提案している辞書の拡充というタスクにもっとも近い問題設定としては,\cite{tanaka96,fung98,chiao02,gaussier04}がある.例えば,\cite{tanaka96}は,英語と日本語のコンパラブルコーパスと小規模な対訳辞書を用意し,英語コーパス上で観測された単語共起と,日本語コーパス上で観測された単語共起とを比較して,単語共起として類似した振る舞いをしている単語を訳語として選択するという方法を提案している.本論文の提案手法は,入力言語から中間言語への対訳辞書と,中間言語から出力言語への対訳辞書の情報をも利用することによって,より小さい種辞書で,より再現率の高い訳語推定を行っている.また,本論文では,得られた訳語を人手で判定して評価を行うだけでなく,実際の言語横断情報検索システムに組み込んだ性能評価を行っている.
\section{むすび}
本論文では,インドネシア語—英語辞書および英語—日本語辞書を利用して訳語候補を取り出し,インドネシア語コーパスと日本語コーパスの共起情報を用いて訳語候補の絞り込みを行って,小規模なインドネシア語—日本語辞書を拡充する方法を提案した.提案手法を用いて実際に辞書を拡充したところ,上位3候補を出力した場合には精度45.9\%,再現率60.7\%で拡充することができた.さらに,実際のインドネシア語—日本語言語横断情報検索システムに,提案手法を用いて拡充した辞書を組み込んで実験を行った.この実験により,提案手法によって拡充された辞書は,実際の言語横断情報検索システムにとって有用であり,特別な訳語絞り込み手法を適用することなしに,訳語絞り込み手法を適用した場合と同等の性能を得ることができることを示した.この提案手法は,実際の言語横断情報検索システムにおいて有効であることが示されているが,収録されている見出し語は約20,000語とまだ少なく,より大規模な辞書への拡充が必要と予想される.そのためには,本提案手法によって拡充された辞書とコーパスを用いて,中間言語には依存せずに辞書を拡充するブートストラップ的な方法の検討が必要と考えられる.\begin{thebibliography}{}\bibitem[\protect\BCAY{{AgencyforTheAssessmentandApplicationofTechnology}}{{AgencyforTheAssessmentandApplicationofTechnology}}{}]{IEDIC}{AgencyforTheAssessmentandApplicationofTechnology}\BBOP?\BBCP.\newblock\BBOQKamusElektornikBahasaIndonesia\BBCQ\\newblock\url{http://nlp.aia.bppt.go.id/kebi}.\bibitem[\protect\BCAY{Bond,Yamazaki,Sulong,\BBA\Ogura}{Bondet~al.}{2001}]{bond01}Bond,F.,Yamazaki,T.,Sulong,R.~B.,\BBA\Ogura,K.\BBOP2001\BBCP.\newblock\BBOQDesignand{C}onstructionofamachine-tractable{J}apanese-{M}alay{L}exicon\BBCQ\\newblock\Jem{言語処理学会第7回年次大会発表論文集},\mbox{\BPGS\62--65}.\bibitem[\protect\BCAY{Chiao\BBA\Zweigenbaum}{Chiao\BBA\Zweigenbaum}{2002}]{chiao02}Chiao,Y.-C.\BBACOMMA\\BBA\Zweigenbaum,P.\BBOP2002\BBCP.\newblock\BBOQLookingforcandidatetranslationalequivalentsinspecialized,comparablecorpora\BBCQ\\newblockIn{\BemProceedingsofthe19thinternationalconferenceonComputationallinguistics},\mbox{\BPGS\1--5}\Morristown,NJ,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Eguchi,Oyama,Ishida,Kando,\BBA\Kuriyama}{Eguchiet~al.}{2003}]{eguchi_NTCIR3}Eguchi,K.,Oyama,K.,Ishida,E.,Kando,N.,\BBA\Kuriyama,K.\BBOP2003\BBCP.\newblock\BBOQOverviewoftheWebRetrievalTaskattheThird{NTCIR}Workshop\BBCQ\\newblockIn{\BemProceedingsoftheThirdNTCIRWorkshoponresearchinInformationRetrieval,AutomaticTextSummarizationandQuestionAnswering}.\bibitem[\protect\BCAY{Fujii\BBA\Ishikawa}{Fujii\BBA\Ishikawa}{2003}]{fujii03b}Fujii,A.\BBACOMMA\\BBA\Ishikawa,T.\BBOP2003\BBCP.\newblock\BBOQ{NTCIR}-3Cross-Language{IR}Experimentsat{ULIS}\BBCQ\\newblockIn{\BemProceedingsoftheThirdNTCIRWorkshop}.\newblock\url{http://research.nii.ac.jp/ntcir/workshop/OnlineProceedings3/NTCIR3-CLIR-FujiiA.pdf}.\bibitem[\protect\BCAY{Fung}{Fung}{1995}]{fung95}Fung,P.\BBOP1995\BBCP.\newblock\BBOQCompilingBilingualLexiconEntriesfromaNon-Parallel{E}nglish-{C}hineseCorpus\BBCQ\\newblockInYarovsky,D.\BBACOMMA\\BBA\Church,K.\BEDS,{\BemProceedingsoftheThirdWorkshoponVeryLargeCorpora},\mbox{\BPGS\173--183}\Somerset,NewJersey.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Fung\BBA\Yee}{Fung\BBA\Yee}{1998}]{fung98}Fung,P.\BBACOMMA\\BBA\Yee,L.~Y.\BBOP1998\BBCP.\newblock\BBOQAnIRapproachfortranslatingnewwordsfromnonparallel,comparabletexts\BBCQ\\newblockIn{\BemProceedingsofthe17thinternationalconferenceonComputationallinguistics},\mbox{\BPGS\414--420}\Morristown,NJ,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Gaussier,Renders,Matveeva,Goutte,\BBA\Dejean}{Gaussieret~al.}{2004}]{gaussier04}Gaussier,E.,Renders,J.,Matveeva,I.,Goutte,C.,\BBA\Dejean,H.\BBOP2004\BBCP.\newblock\BBOQAGeometricViewonBilingualLexiconExtractionfromComparableCorpora\BBCQ\\newblockIn{\BemProceedingsofthe42ndMeetingoftheAssociationforComputationalLinguistics(ACL'04),MainVolume},\mbox{\BPGS\526--533}\Barcelona,Spain.\bibitem[\protect\BCAY{Purwarianti,Tsuchiya,\BBA\Nakagawa}{Purwariantiet~al.}{2007}]{IJCLIR}Purwarianti,A.,Tsuchiya,M.,\BBA\Nakagawa,S.\BBOP2007\BBCP.\newblock\BBOQIndonesian-JapaneseTransitiveTranslationusingEnglishforCLIR\BBCQ\\newblock\Jem{自然言語処理},{\Bbf14}(2),\mbox{\BPGS\95--123}.\bibitem[\protect\BCAY{Rapp}{Rapp}{1995}]{rapp95}Rapp,R.\BBOP1995\BBCP.\newblock\BBOQIdentifyingWordnanslationsinNon-ParallelTexts\BBCQ\\newblockIn{\BemProceedingsofthe33rdAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\320--322}.\bibitem[\protect\BCAY{Shirai\BBA\Yamamoto}{Shirai\BBA\Yamamoto}{2001}]{shirai01}Shirai,S.\BBACOMMA\\BBA\Yamamoto,K.\BBOP2001\BBCP.\newblock\BBOQLinkingEnglishWordsinTwoBilingualDictionariestoGenerateAnotherLanguagePairDictionary\BBCQ\\newblockIn{\BemProceedingsofICCPOL2001},\mbox{\BPGS\174--179}.\bibitem[\protect\BCAY{Tanaka\BBA\Iwasaki}{Tanaka\BBA\Iwasaki}{1996}]{tanaka96}Tanaka,K.\BBACOMMA\\BBA\Iwasaki,H.\BBOP1996\BBCP.\newblock\BBOQExtractionoflexicaltranslationsfromnon-alignedcorpora\BBCQ\\newblockIn{\BemProceedingsofthe16thconferenceonComputationallinguistics},\mbox{\BPGS\580--585}\Morristown,NJ,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Tanaka}{Tanaka}{2002}]{tanaka02}Tanaka,T.\BBOP2002\BBCP.\newblock\BBOQMeasuringthesimilaritybetweencompoundnounsindifferentlanguagesusingnon-parallelcorpora\BBCQ\\newblockIn{\BemProceedingsofthe19thinternationalconferenceonComputationallinguistics},\mbox{\BPGS\1--7}\Morristown,NJ,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{梶博行\JBA相薗敏子}{梶博行\JBA相薗敏子}{2001}]{kaji01}梶博行\JBA相薗敏子\BBOP2001\BBCP.\newblock\JBOQ共起語集合の類似度に基づく対訳コーパスからの対訳語抽出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(9),\mbox{\BPGS\2248--2258}.\bibitem[\protect\BCAY{田中\JBA梅村\JBA岩崎}{田中\Jetal}{1996}]{日仏対訳辞書}田中久美子\JBA梅村恭司\JBA岩崎英哉\BBOP1996\BBCP.\newblock\JBOQ第3言語を介した対訳辞書の作成\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(6),\mbox{\BPGS\1915--1924}.\bibitem[\protect\BCAY{張\JBA馬\JBA井佐原}{張\Jetal}{2005}]{日中対訳辞書}張玉潔\JBA馬青\JBA井佐原均\BBOP2005\BBCP.\newblock\JBOQ英語を介した日中対訳辞書の自動構築\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\63--85}.\bibitem[\protect\BCAY{工藤}{工藤}{2006}]{mecab}工藤拓\BBOP2006\BBCP.\newblock\JBOQ形態素解析器{M}e{C}ab\JBCQ\\newblock\url{http://chasen.org/~taku/software/mecab/}.\bibitem[\protect\BCAY{道端秀樹}{道端秀樹}{2002}]{EJDIC}道端秀樹\JED\\BBOP2002\BBCP.\newblock\Jem{英辞朗}.\newblockアルク.\bibitem[\protect\BCAY{宇津呂\JBA日野\JBA堀内\JBA中川}{宇津呂\Jetal}{2005}]{ウェブから対訳を推定}宇津呂武仁\JBA日野浩平\JBA堀内貴司\JBA中川聖一\BBOP2005\BBCP.\newblock\JBOQ日英関連報道記事を用いた訳語対応推定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(5),\mbox{\BPGS\43--69}.\end{thebibliography}\begin{biography}\bioauthor{土屋雅稔}{1998年京都大学工学部電気工学第二学科卒業.2004年京都大学大学院情報学研究科知能情報学専攻博士課程単位認定退学.博士(情報学).2004年豊橋技術科学大学情報処理センター助手.2007年より豊橋技術科学大学情報メディア基盤センター助教.自然言語処理に関する研究に従事.}\bioauthor{脇田敏行}{2007年豊橋技術科学大学情報工学系卒業.}\bioauthor[:]{AyuPurwarianti}{GraduatedfromToyohashiUniversityofTechnologyforherDr.ofEng.degreein2007.Since2008,shehasbeenjoiningBandungInstituteofTechnologyasaResearchAssociateintheSchoolofInformaticsandElectricalEngineering.HerresearchinterestisinnaturallanguageprocessingareaespeciallyforIndonesianlanguage.}\bioauthor{中川聖一}{1976年京都大学大学院博士課程修了.同年,京都大学情報工学科助手.1980年豊橋技術科学大学情報工学系講師.1990年教授.1985--1986年カーネギメロン大学客員研究員.音声情報処理,自然言語処理,人工知能の研究に従事.工学博士.1977年電子通信学会論文賞,1988年IETE最優秀論文賞,2001年電子情報通信学会論文賞,各受賞.電子情報通信学会フェロー.情報処理学会フェロー.著書「確率モデルによる音声認識」(電子情報通信学会編),「音声聴覚と神経回路網モデル」(共著,オーム社),「情報理論の基礎と応用」(近代科学社),「パターン情報処理」(丸善),「SpokenLanguageSystems」(編著,IOSPress)など.}\end{biography}\biodate\clearpage\end{document}
| |
V06N02-04 | \section{はじめに}
日本語テキスト音声合成は,漢字かな交じりの日本語テキストに対して,読み,アクセント(韻律上の基本単位であるアクセント句の設定とそのアクセント型付与),ポーズ等の読み韻律情報\footnote{本論文では,読みと,アクセントやポーズなどの韻律情報をまとめて読み韻律情報とよぶ.}を設定し,これらを元に音声波形を生成して合成音声を出力する.自然で聞きやすい合成音声を出力するためには,この読み韻律情報を正しく設定する必要がある.読みは,形態素解析により認定された単語の読みにより得られるため,形態素解析の精度が読みの精度に直結する.ただし,数量表現の読み(例:11本→ジューイ\underline{ッポ}ン:\mbox{下線部分=読み}が変化)と連濁化(例:子供+部屋→コドモ\underline{ベ}ヤ:\mbox{下線部分=連濁)については,すべてを単語}として辞書登録するのは困難であるため,規則により読みを付与する.数量表現の読みについては\cite{Miyazaki4},連濁化については\cite{Sato}等により,その手法がほぼ確立されている.アクセント句のアクセント型設定については,\cite{Sagisaka}の付属語アクセント結合規則,複合単語(自立語)のアクセント結合規則,文節間アクセント結合規則により,その手法がほぼ確立されている.アクセント句境界とポーズの設定については,従来から多くの手法が提案されている.ヒューリスティックスベースの手法としては,係り受けの構造を利用する\cite{Hakoda1},右枝分かれ境界等の統語情報を用いる\cite{Kawai}等がある.また,統計的手法によるポーズの設定としては,係り受け情報を利用した手法\cite{Kaiki}が提案されている.しかしこれらは,係り受けなどの言語的情報が既知であることを前提としており,これらの言語的情報の取得が課題となる.一方,\cite{Suzuki}ではN文節の品詞情報を用いて局所的な係り受け構造を推定し,また\cite{Fujio}では,品詞列を入力として確率文脈自由文法を用いて係り受けを学習し,アクセント句境界や韻律句境界,ポーズの設定を行う.しかし\cite{Suzuki}は,文節内の処理については言及しておらず,また,\cite{Fujio}では文節内での設定において,文節内構造の予測誤りによる精度の低下が問題点として挙げられている.我々は,\cite{Miyazaki1}の方式をベースとし,多段解析法による形態素解析を用いて得られた単語情報を利用して規則により読み韻律情報を設定し,\cite{Hakoda2}の音声合成部を用いて合成音声を出力する日本語テキスト音声合成システムAUDIOTEXを開発した.このAUDIOTEXには,現在,数多く開発されている音声合成システムと比較して以下の2つの特徴がある.\begin{itemize}\item単語辞書の登録単語数が多いため,形態素解析における未知語認定が少ない.\\(AUDIOTEX:約37万語,市販の主な音声合成システム:10〜14万語)\item単語辞書において,特に名詞と接辞は,他のシステムにはない意味カテゴリ等の意味情報をもち,これらの意味情報を用いた複合語の意味的係り受け解析により,複合語の構造を高精度に解析できるため,複合語の多用されるニュース文などに対しても,正しく読み韻律情報が設定できる.\end{itemize}本論文では,AUDIOTEXにおける読み韻律情報の設定,特に\cite{Miyazaki1}からの主な改良点として,形態素解析における読み韻律情報付与に対応した長単位認定,アクセント句境界設定における複数文節アクセント句の設定,ポーズ設定における多段階設定法の導入について述べ,さらに,これらの処理で用いる単語辞書の構成について説明する.この読み韻律情報の設定においては,文節間の係り受け解析は行わず,多段解析法の形態素解析により得られる複合語内意味的係り受け情報,品詞等の単語情報のみを用いる.文節間の係り受け解析を行わないのは,現状,係り受け解析の精度が十分でなく,コストがかかり,また,文節間係り受けの影響を大きく受けるポーズ設定においては,アクセント句境界前後の品詞情報等から得られるアクセント句結合力を導入することにより,実用上十分な精度が得られるためである.さらに,文節内の構造に対しては,複合語意味的係り受け情報を用いることにより,その局所構造を元に適切にポーズを設定できる.以下,\ref{sec:TTS-flow}節ではテキスト音声合成処理の流れ,\mbox{\ref{sec:morph}節では形態素解析における読み韻律情報設定}のための特徴,\ref{sec:dic}節では読み韻律情報設定のための単語辞書の情報,\ref{sec:assign}節では読み韻律情報の設定方法,\ref{sec:evaluation}節では読み韻律情報設定に対する評価と考察,\ref{sec:conclusion}節ではまとめを述べる.
\section{テキスト音声合成の流れ}
label{sec:TTS-flow}テキスト音声合成の一般的な流れを図\ref{fig:system}の左側に示す.漢字かな交じりの日本語テキストを入力し,テキスト解析部において,言語的な解析\footnote{形態素解析,構文解析,意味解析等.一般に,現状,構文解析や意味解析を高精度で行うことは困難であるため,形態素解析のみ,あるいは形態素解析と局所的な係り受け解析が行われる場合が多い.}を行い,その情報を利用して読み韻律情報を生成する.そして音声合成部では,読み韻律情報を用いてピッチや時間長データを設定して音声波形を生成し,合成音声を出力する.\begin{figure*}[tb]\begin{center}\epsfile{file=system.eps}\end{center}\caption{テキスト音声合成処理の流れ}\label{fig:system}\end{figure*}次にAUDIOTEXにおける読み韻律情報,テキスト解析部,音声合成部の概略を述べる.AUDIOTEXでは,読み韻律情報として,アクセント句単位に読み,アクセント型,音調結合型を指定するアクセント付カナ文を用いる.このアクセント付カナ文は,ピッチパタンを話調成分\footnote{ポーズで区切られる単位(呼気段落)ごとに設定される.}の上にアクセント成分\footnote{アクセント句ごとに設定される.}が重畳したものとして表し,アクセント句の間(アクセント句境界)に音調結合という概念を導入して,アクセント句成分の相対的な大きさやポーズ挿入の現象を統一的にモデル化する韻律制御モデル\cite{Hakoda1}に基づいている.ここで音調結合型は,話調成分,アクセント成分,ポーズの関係により分けられ,本論文では,表\ref{tab:oncyo}に示す6種類を用いる.また,読み上げ速度としては,通常,ニュースなどが読み上げられる速度を想定しており\footnote{ポーズ区間を除いた平均速度6.4モーラ/秒を基準の\mbox{速度としている.読み上げ速度の変更は可能であるが,読み韻律情}報が読み上げ速度により変化することはない.},この速度を基準として読み韻律情報を設定する.\begin{table}[thb]\caption{音調結合型}\label{tab:oncyo}\begin{center}\begin{tabular}{l|l|l|l|l}\hline名称&表記&ポーズ&話調成分&直後アクセント成分\\\hline強結合&$\ast$&なし&同一&抑圧\\弱結合&/&なし&同一&抑圧なし\\小ポーズ&$\sqcup$(スペース)&小ポーズ(300msec)&再設定&-\\中ポーズ&,&中ポーズ(500msec)&再設定&-\\大ポーズ&.&大ポーズ(700msec)&再設定&-\\疑問調\footnotemark&?&大ポーズ(700msec)&再設定&-\\\hline\end{tabular}\end{center}\end{table}\footnotetext{直前アクセント句末尾のピッチを上げる.}テキスト解析部は図\ref{fig:system}の右側に示す5部により構成される.\begin{description}\item[形態素解析]文を単語に分割し,品詞や読み等の単語情報を付与する.この単語情報は,読み韻律情報を設定するために必要な多くの情報を備えている.この形態素解析で利用する単語辞書には約37万語が登録されている.詳しくは,\ref{sec:morph}節,\ref{sec:dic}節で述べる.\item[テキスト書き換え]入力テキストが,そのまま音声化するのに不適当な表現や形式である場合,それを音声化に適した表現に書き換える.書き換え内容は入力テキストの形式やドメインに依存する.例えば,新聞記事では漢語表現や文末表現の書き換え(例:``今秋''→``今年の秋'',``〜の予定。''→``〜の予定です。'')が必要であり,また,電子メールでは,読み上げ対象とならない引用記号やsignatureの削除などが必要である.現在,新聞記事用\cite{Matsuoka},電子メール用の2種類のテキスト書き換えを備えているが,本論文ではこの詳細については省略する.\item[読み付与]数量表現の読み付与,連濁化を規則により行う.その他の読みは,形態素解析で得られる各単語の読みを用いる.\item[アクセント付与]複合語意味的係り受け情報等を用いて,韻律上の基本単位であるアクセント句を設定する.また,単語固有のアクセント型,単語のアクセント的性質を用いたアクセント結合規則により,アクセント句のアクセント型を付与する.詳しくは,\ref{subs:accent}節で述べる.\item[音調結合型付与]時間表現,数量表現や同格表現(例えば役職名+人名)など,独立に扱うことができ,その構造が複合語内意味的係り受け情報より得られる局所構造内のアクセント句境界,および,句読点の直後など品詞情報から容易に意味的,構文的な切れ目であることを推定できるアクセント句境界を対象として,その局所構造に基づき音調結合型を設定した後,残りのアクセント句境界に対して,アクセント句結合力を用いて音調結合型を設定する,段階的な音調結合型設定法(多段階設定法)に基づき,音調結合型を付与する.詳しくは,\ref{subs:pause}節で述べる.\end{description}音声合成部は,波形編集方式の音声合成ソフトウェアFLUET\cite{Hakoda2}の音声合成部を利用しており,アクセント付カナ文を音素記号列に変換する韻律パラメータ生成部,音素片ファイルから隣接する音素環境が一致する音素片データを選択する音素片選択部,選択した音素片データを結合し,規則で設定されたピッチ,時間長データに基づいて波形データを加工する音素片接続部からなる.また,AUDIOTEXはCでコーディングされており(音声合成部はC++ライブラリ),UNIXおよびWindows上で動作する.
\section{形態素解析における読み韻律情報設定のための特徴}
label{sec:morph}形態素解析は,\cite{Miyazaki1}の多段解析法による形態素解析を,より高精度な読み韻律情報設定を行うために拡張して利用している.多段解析法は,文字種の違いに着目して仮に設定した範囲内(仮文節)であらゆる単語の組合わせを検定する局所総当たり法をベースとし,構文や意味の情報が有効となる複合語解析や同型語判別などには,部分的に深く解析する.辞書としては,各単語の情報を記述した単語辞書と,文法的接続情報を記述した接続辞書を用いる.以下,読み韻律情報設定のための形態素解析という観点から,その特徴を詳しく説明する.ここで,連語の認定と用言語幹語尾の一語化は,\cite{Miyazaki1}より新たに拡張した項目であり,共に長単位認定を行うための手法である.\begin{figure}[tb]\begin{center}\epsfile{file=kakari.eps}\end{center}\caption{複合語内意味的係り受け例}\label{fig:kakari}\end{figure}\begin{description}\item[複合語内意味的係り受け情報]複合語を構成する単語間の意味的結合関係を係り受けによって解析する\cite{Miyazaki2}.係り受け解析では,数詞,固有名詞,接辞,用言性名詞,非用言性名詞など14種の係り受け規則を用いる.例として``前平成株式会社社長山田太郎氏51才''に対する複合語内意味的係り受けを図\ref{fig:kakari}に示す.この意味的係り受け情報は,アクセント句境界,音調結合型の設定に利用する.\item[連語の認定]単語の認定精度の向上は,読み韻律情報の精度向上に直結する.そこで,認定\mbox{精度が比較的低かった,補助用言(例:``話している''の``いる'')や}格助詞相当語(例:``彼について''の``について'')の認定精度を向上させるために,「助詞+補助用言」(例:``て+いる'')や格助詞相当語(例:``に+つい+て'')を連語として登録し,認定することとした.しかし,これらの連語内でアクセント句が分割される場合等があるため(例:彼{\dgに}/{\dgついて}\footnote{/はアクセント句境界を表す.以降でも同様に記述する.また,この例における太字は,1つの連語であることを示す.}),アクセント,音調結合型設定時に,連語すべてを1単語として扱うのは問題がある.そこで,形態素解析では,連語として1語で認定する単語を,連語を構成する各構成単語に分解できる機能を設けた.詳しくは,\ref{sec:dic}節で述べる.\item[用言語幹語尾の一語化]規則的な活用を行う用言は,単語辞書では,不変化部分(例:似)と変化部分(例:る,れ,ろ)に分離し,それぞれを1単語として登録している.また,サ変名詞(運動)が,サ変動詞(運動する)の一部を構成する場合があるが,単語辞書上は,サ変動詞型名詞(運動)とサ変動詞活用形(する)のみを登録し,語幹語尾をまとめた単語(運動する)としては登録していない.アクセント句結合力に基づく音調結合型の設定においては,アクセント句境界前後の単語の品詞情報が重要となる.しかし,辞書の登録単位である短単位での単語認定では,例えば``グランドで/運動する''のアクセント句境界の直後単語をサ変名詞(運動)として扱い,その結果,音調結合型の設定を誤るという問題があった.そこで,単語認定後,「用言不変化部分+変化部分」,「用言性名詞+活用語尾」を一語に統合することにした.これにより,例えば``運動する''を1語のサ変動詞として扱うことになる.\end{description}\vspace{3mm}
\section{読み韻律情報設定のための単語辞書情報}
label{sec:dic}一般に単語辞書は,形態素解析において単語を認定するための情報をもつが,AUDIOTEXの単語辞書では,読み韻律情報を設定するための様々な情報も保持している.本節では,読み韻律情報の設定に関連がある単語辞書情報について述べる.\vspace{3mm}\subsection{長単位語への対応}\label{subs:cho}単語辞書に登録する単語の単位は,原則的には語基や接辞などの短単位語であり,複合語などの長単位語は,短単位語の組み合わせとみなす.ただし,次に示す語は,以下の理由により例外的に長単位で登録している.\begin{itemize}\item連語:補助用言や格助詞相当語の認定精度の向上のため.(例)について,ていまし\item短単位語から長単位語の意味や読みなどを合成できない,または合成するのが難しい一部の慣用表現,熟語,複合語,並列語:短単位語の組み合わせでは,正しく認定できないため.(例)十六夜(イザヨイ),一期一会(イチゴイチエ),日仏英(ニチフツエイ)\item有名な人名・地名等や一般語で構成される作品名・商品名等の一部の固有名詞:\\固有名詞の読みはバリエーションが多く,このうち有名な人名・地名等は長単位で登録することにより,その読み精度を向上できるため.\\(例)羽生善治(ハブヨシハル),清水寺(キヨミズデラ)\\また,一般語のみで構成される固有名詞は短単位語の組み合わせでは固有名詞として認定できないため.(例)週間住宅情報\item国語辞典に子見出し語や派生語などとして収録されている一般用語:出現頻度が高く一般性が高いと考えられるため.(ただし,これらの単語すべてが認定精度向上に役立つとは限らない.)(例)為替相場,人工呼吸,身分証明書\end{itemize}このように,長単位で登録することにより,一般に形態素解析の精度は向上する.しかし,アクセント,音調結合型の設定においては,長単位語を短単位語と同様に一語として取り扱うことは,以下のような問題を生じる.\begin{itemize}\item長単位語の内部に設定すべきアクセント句境界に対応できない.\\並列語:``日仏英''→日/仏/英,連語:``について''→彼{\dgに}/{\dgついて}\item長単位語内部にアクセント句境界を設定する必要はないが,複合語を構成する単語数によりアクセント句境界を設定する場合に,複合語を構成する単語数が正しく得られず設定を誤る.\\(例)``為替相場''が1語(長単位登録)の場合\\形態素解析結果:``為替相場+速報+サービス''(3単語扱い,実際は4単語)\\アクセント句:×``為替相場速報サービス''と設定.(○:``為替相場/速報サービス'')\\cf.``為替+速報+サービス''(3単語)→○``為替速報サービス''\end{itemize}これらの長単位語に対して適切に読み韻律情報を設定するために,次の3つの単語辞書情報をもつ.\begin{description}\item[アクセント句情報]アクセント句情報は,最大3アクセント句分のモーラ数,読み長(読みの表記上の長さ),アクセント型を保持する.最大3アクセント句分の情報をもつのは,固有名詞など,1語で登録されている複合語内部の特定の位置にアクセント句境界が必ず存在する場合に対応するためである.例えば,短単位語の``日本''のアクセント句情報は,\\\hspace*{1cm}第1アクセント句:モーラ数=3,読み長=3,アクセント型=2\\\hspace*{1cm}第2,3アクセント句:なし\\となり,長単位語の``日仏英''(3アクセント句)は,\\\hspace*{1cm}第1アクセント句:モーラ数=2,読み長=2,アクセント型=1(日)\\\hspace*{1cm}第2アクセント句:モーラ数=2,読み長=2,アクセント型=1(仏)\\\hspace*{1cm}第3アクセント句:モーラ数=2,読み長=2,アクセント型=1(英)\\となる.この情報により,``日/仏/英''と正しくアクセント句境界が設定できる.\item[語数]登録単語の内部ではアクセント句境界を生じないが,長単位で登録されていることを表すための情報であり,登録単語を構成する単語数を表す.例えば,``為替相場(2)+速\mbox{報(1)+サービス(1)''(かっこ内の数字が語数を表す)では,}形態素解析の認定単語数は3語であるが,語数により4語からなる複合語であることがわかり,``為替相場/速報サービス''と正しくアクセント句境界が設定できる.\item[構成単語情報]長単位で登録された単語を短単位の構成単語に展開するために,各構成単語(最大10語)の見出し長,品詞,読み長をもつ.これは,長単位語の内部に設定すべきアクセント句境界があり,構成単語に付属語を含む場合,つまり,主に連語に対応するためである.これらの長単位語は,アクセント付与を行う前に構成単語情報を元に辞書検索を行い,短単位に展開しておく.上記のアクセント情報で対応する単語と異なり,辞書検索を行って短単位に展開するのは,付属語のアクセント結合のための情報(表\ref{tab:dic}の付属語アクセント属性,副次アクセントフラグ)を長単位語内で保持するのは煩雑なためである.(例)連語``ていまし(て+い+まし)''\\\hspace*{1cm}て:見出し長=1,品詞=接続助詞,読み長=1\\\hspace*{1cm}い:見出し長=1,品詞=一段動詞語幹,読み長=1\\\hspace*{1cm}まし:見出し長=2,品詞=助動詞連用形(断定),読み長=2\end{description}\subsection{読み韻律情報設定で用いる単語辞書情報}表\ref{tab:dic}に,読み韻律情報を設定する際に利用する単語辞書情報を,全処理で利用する共通情報と,特定の処理のみで利用する,読み付与用情報,アクセント句境界設定用情報,アクセント型設定用情報,音調結合型設定用情報の5種類に分けて示す.読み付与用には,数量表現の読みの補正,連濁化のための情報をもつ.アクセント句境界設定用には,複合語の内部構造を表すための各種フラグ,および,韻律的な特徴を表すフラグ,アクセント型設定用にはアクセント的特徴を示す各種フラグ,音調結合型設定用には,助詞を構文的に分類した助詞ポーズ属性をもつ.\begin{table}[thb]\caption{読み韻律情報設定用単語辞書情報}\label{tab:dic}\begin{center}\begin{tabular}{|l|l|}\hline\multicolumn{2}{|l|}{共通情報}\\\hline品詞&\cite{Miyazaki5}を元にした品詞体系(注1)\\モーラ数&\ref{subs:cho}節のアクセント句情報の一部\\\hline\multicolumn{2}{|l|}{読み付与用情報}\\\hline読み&長音化表記(例:可能→カノー)\\連濁フラグ&語頭が連濁する条件(直前語尾条件)\\数詞音韻フラグ&助数詞に設定し,数詞の読みを補正[11\underline{回}→ジューイ\underline{ッ}カイ](注2)\\助数詞音韻フラグ&助数詞に設定し,助数詞の読みを補正[3\underline{本}→サン\underline{ボ}ン](注2)\\\hline\multicolumn{2}{|l|}{アクセント句境界設定用情報}\\\hline承接語フラグ&\footnotesize{特定品詞(助数詞,地名,姓,名,組織名,その他固有名)に承接する語}\\連体詞化フラグ&複合語内で連体詞的(〜の)に使われる語[クリスマス]\\前置助数詞フラグ&数詞の前で助数詞的に用いられる語[国道,第]\\後置助数詞フラグ&数詞の後で助数詞的に用いられる語[科目,議席]\\役職・敬称フラグ&役職,職種,敬称を表す語[先生,様]\\独立アクセント句フラグ&その語(+付属語)のみでアクセント句を構成[前(接頭辞)]\\\footnotesize{前方アクセント句境界フラグ}&単語前方にアクセント句境界を設定[全体]\\\footnotesize{後方アクセント句境界フラグ}&単語の後方にアクセント句境界を設定[生まれ]\\\hline\multicolumn{2}{|l|}{アクセント型設定用情報}\\\hlineアクセント型&\ref{subs:cho}節のアクセント句情報の一部\\アクセント結合例外属性&自立語アクセント結合での,例外的なアクセント型付与\\助数詞種別&助数詞のアクセント型付与規則種別\\副次アクセントフラグ&副次アクセント属性をもつ語[ます]\\付属語アクセント属性&付属語アクセント結合用属性(直前語品詞(動詞,形容詞,その他)別)\\\hline\multicolumn{2}{|l|}{音調結合型設定用情報}\\\hline助詞ポーズ属性&助詞に設定し,結合力を求めるために利用\\\hline\multicolumn{2}{l}{(注1)大分類:名詞,動詞,形容詞,形容動詞,副詞,連体詞,接続詞,感動詞,}\\\multicolumn{2}{l}{\hspace*{2cm}接辞,助動詞,助詞,記号}\\\multicolumn{2}{l}{(注2)表記の下線部はそのフラグが設定される単語を表し,}\\\multicolumn{2}{l}{\hspace*{1cm}読みの下線部はそのフラグにより補正が行われた読みを表す}\\\multicolumn{2}{l}{(注3)[]内に,当該フラグがonとなる単語例を表す}\end{tabular}\end{center}\end{table}\normalsize
\section{読み韻律情報の設定法}
\label{sec:assign}本節では,読み韻律情報の設定方法について説明する.特に,新たに多段階設定法を導入した音調結合型の設定について詳細に述べる.読み付与については,\cite{Miyazaki1}の手法(数量表現読み付与,連濁化)をそのまま利用するため省略する.\subsection{アクセント付与}\label{subs:accent}複合語内意味的係り受け情報および表\ref{tab:dic}に示した単語辞書情報を用いて,アクセント句境界およびアクセント型の設定を行う.数詞については\cite{Miyazaki4},複合語については\cite{Miyazaki3}を基本としてアクセント句境界を設定し,\cite{Sagisaka}に基づきアクセント句のアクセント型を設定する.ここで\cite{Miyazaki1}では,文節間のアクセント結合を行っていない(文節境界をすべてアクセント句境界としている).これは,文節間のアクセント結合を行わなくても,音調結合型を強結合とすることにより実用上十分と判断しているからである.しかし,次に示す,結び付きの強い文節間においては,強結合としても不自然に感じるという実験結果が得られたため,アクセント結合を行うこととした.\begin{itemize}\item指示副詞+用言\\そう(指示副詞)+思う(動詞)→そう思う\item連体詞+名詞($\neq$複合語)\\この(連体詞)+会議(名詞)→この会議\\cf.この(連体詞)+国際(名詞)+会議(名詞)→この/国際会議\end{itemize}また,複合語内のアクセント句境界設定において,独立性の高い時詞等は常に独立のアクセント句とされていたが,複合語内意味的係り受け情報,直後単語の品詞情報(一般名詞,サ変名詞,転生名詞,その他)により,他の単語と結合するか判断することにした.(例)\\\hspace*{1cm}正月(時詞)+番組(一般名詞)+で(格助詞)→正月番組で\\\hspace*{1cm}今日(時詞)+番組(一般名詞)+で(格助詞)→今日/番組でさらに,自立語アクセント結合において,付属語アクセント結合における副次アクセントと同様の現象が存在する.例えば,神奈川等:カナ'ガワ/ト'ー,大阪等:オーサカト'ー\footnote{'はアクセント位置を表し,/はアクセント句境界を表す.以降も同様に記述する.}\\のうち,先行語(``神奈川'')がアクセントをもつ``神奈川等''は副次アクセントをもつ.そこで,自立語でも,付属語と同様に副次アクセントに対応することにした.\subsection{音調結合型(ポーズ)付与}\label{subs:pause}音調結合型の設定は,複合語内等から段階的に音調結合型を設定していく多段階設定法を新たに導入した.多段階設定法では,はじめに,時間表現,数量表現や同格表現(例:「役職名+人名」では役職名と人名は同格とみなせる)など,独立に扱うことができ,その構造が複合語内意味的係り受け情報より得られる局所構造内のアクセント句境界,および,句読点の直後など品詞情報から容易に意味的,構文的な切れ目であることを推定できるアクセント句境界を対象として,意味的,構文的に大きな切れ目となるアクセント句境界にポーズを,つながりが強いアクセント句境界にポーズなしを設定する.次に,上記において音調結合型が設定されなかったアクセント句境界に対し,前後の単語の品詞情報等より得られるアクセント句結合力(以降では結合力と表記)を用いて音調結合型を設定する.ここで,すべてのアクセント句境界に音調結合型が設定されるが,あるモーラ長以上連続してポーズが設定されていない連続アクセント句列(ポーズ未設定区間)に対しては,結合力を用いてポーズ付与のための補正を行う.結合力の値は1〜10の10段階(値が大きいほど結合力が強い)であり,アクセント句境界の前後アクセント句の係り受けがありえない場合(例:用言連用形<アクセント句境界>名詞)では極端に値を小さく,逆に係り受けが生じる可能性が高い場合(例:用言連体形<アクセント句境界>名詞)では大きく設定している.この多段階設定法を導入することにより,従来手法では精度が低かった複数アクセント句からなる複合語内の設定においても,その内部構造を反映した適切な音調結合型の設定が可能となり,また,文節間の係り受け解析を用いなくても,結合力により近似的に係り受け構造を推定し,結合力の強さとポーズ未設定区間のモーラ数に応じて段階的にポーズを付与していくので,実用上十分な精度で音調結合型を設定できる.以下,多段階設定法の各ステップについて説明する.ポーズ付与の補正以外では,すでに音調結合型が設定されているアクセント句境界は対象とせず,未設定のアクセント句境界のみを対象とする.\subsubsection{記号に基づく音調結合型設定}\label{subsub:kigo}アクセント句末尾が句読点等の記号の場合,その直後アクセント句境界に対して,音調結合型を設定する.句点,感嘆符の場合は大ポーズ(700msec),疑問符には,疑問調(末尾ピッチが上がる+700msecポーズ),読点,開きかっこには中ポーズ(500msec),その他の中点以外の記号には小ポーズ(300msec)を付与する.\subsubsection{日時表現・数量表現の音調結合型設定}\label{subsub:num}日時表現,数量表現は,その局所構造に基づき音調結合型を決定する.日時表現は,その表現を年要素,月要素,日要素に分類し,この出現パターンにより,音調結合型を設定する.\\(例)\\\{小ポーズ\}\footnote{\{{\itTYPE}\}は,その位置がアクセント句境界であり,音調結合型として{\itTYPE}を設定することを表す.以降も同様に記述する.}年要素\{小ポーズ\}月要素\{強結合\}日要素:\\\hspace*{1cm}{\dg会議は\{小ポーズ\}平成10年\{小ポーズ\}6月\{強結合\}1日から}\\\{小ポーズ\}月要素\{強結合\}日要素:{\dg会議は\{小ポーズ\}6月\{強結合\}1日から}数量表現は,\cite{Miyazaki4}で,\\(前置助数詞)+(符号)+数詞+(助数詞)+(接辞)\footnote{()は省略可を表す.}\\と定義された表現である.この数量表現のパターンやその前後アクセント句の品詞に応じて,数量表現内および,その前後の音調結合型を設定する.\\(例)\\\{小ポーズ\}前置助数詞\{小ポーズ\}2つ以上の数詞(+助数詞)アクセント句:\\\hspace*{1cm}{\dg\{小ポーズ\}第\{小ポーズ\}百/二十/三回}\\\{小ポーズ\}前置助数詞\{強結合\}1つの数詞(+助数詞)アクセント句:\\\hspace*{1cm}{\dg\{小ポーズ\}第\{強結合\}三回}\subsubsection{特定単語の組み合わせによる音調結合型設定}\label{subsub:combi}連続する2または3アクセント句の品詞等の単語情報を参照して得られる局所構造により,意味的,構文的な切れ目となり,常にポーズを付与すべきアクセント句境界に小ポーズを,また,つながりが非常に強く,常にポーズなしとすべき境界に強結合または弱結合を設定する.\\(例)\\役職\{小ポーズ\}人名[同格表現]:{\dg社長\{小ポーズ\}山田太郎氏}\\``など''(副助詞)\{小ポーズ\}用言以外の単語[例示表現]:\\\hspace*{1cm}{\dg証人喚問など\{小ポーズ\}事実審理が/始まります。}\subsubsection{結合力に基づく音調結合型設定}\label{subsub:ketsugo}記号に基づく音調結合型設定〜特定単語の組み合わせによる音調結合型設定で音調結合型が設定されなかったアクセント句境界に対し,アクセント句境界前後の単語の品詞等により得られる結合力を用いて音調結合型を設定する.\begin{table}[t]\caption{直前単語の品詞分類}\label{tab:prev}\begin{center}\begin{tabular}{|c|l|l|}\hline分類&品詞&具体例\\\hlineP1&副詞型名詞,時詞,数詞&\\P2&連体詞型名詞,連体詞&\\P3&用言,助動詞連体形&\\P4&用言,助動詞連用形&\\P5&副詞&\\P6&P1〜P5,P7〜P11以外&\\P7&助詞:ポーズ属性1&副助詞:は(この語のみ)\\P8&助詞:ポーズ属性2&接続助詞:から,けれど,ば,副助詞:だけ,しか\\P9&助詞:ポーズ属性3&格助詞:が,副助詞:も,接続助詞:たり,つつ\\P10&助詞:ポーズ属性4&格助詞:から,で,を副助詞:ずつ,でも\\P11&助詞:ポーズ属性5&格助詞:の,と,や副助詞:か,なり,やら\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{直後単語の品詞分類}\label{tab:next}\begin{center}\begin{tabular}{|l|l|}\hline分類&品詞\\\hlineN1&副詞型名詞,時詞,数詞\\N2&連体詞型名詞,連体詞\\N3&本動詞\\N4&補助動詞\\N5&形容詞,形容動詞\\N6&副詞\\N7&その他(一般名詞,接辞等)\\\hline\end{tabular}\end{center}\end{table}結合力を設定するために,品詞により,アクセント句境界の直前単語を表\ref{tab:prev}に示すP1〜P11の11種類,直後単語を表\ref{tab:next}に示すN1〜N7の7種類に分類した.これらは,品詞の構文的性質(例:P3=連体修飾をする用言),および,独立性\footnote{大分類が名詞と同一でも副詞型名詞,時詞等の方が一般名詞等より独立性が高いため,名詞を細分類している.(P1・P6,N1・N7)}という2つの観点により分類を行ったものである.このため,直前単語の分類においては,助詞を単語辞書情報の助詞ポーズ属性(構文的性質と独立性により助詞を分類)により5種類に細分類した.表\ref{tab:prev}のP7〜P11には各ポーズ属性毎にその属性をもつ助詞(抜粋)をあわせて示している.結合力は,Pi×Nj(i=1〜11,j=1〜7)の組み合わせマトリックスにより決定する\footnote{ただし連語から分解された単語の境界には,無条件に結合力最大値(10)を与える.\\(例){\dgに}(結合力=10){\dgついて}}.この組み合わせマトリックスの各値は,PiとNjの構文的な性質(係り受けがありえる,ありえない),および,それぞれの独立性,さらに,係り受けがありえる組み合わせにおいては,その韻律的特徴\footnote{アクセント句のモーラ長や複合語の複数アクセント句化など.}を考慮して経験的に設定している.ここでは,Pi×N7の組み合わせマトリックスのみを表\ref{tab:ketsugo}に示して具体的に説明する.直前単語がP2,P3,P11の場合は,このアクセント句境界の直前文節が直後文節に係る連体修飾関係となる可能性が高いため,表\ref{tab:ketsugo2}に示すように,直後アクセント句等の条件に応じて結合力を変える.表\ref{tab:ketsugo2}の項番1は,直後が複数アクセント句からなる複合語である場合を表しており,この場合は,連体修飾関係が成立していても,アクセント句単位の構造としては,右枝分かれ構造となる場合がほとんどである\footnote{例えば``昨年/成立した/(A)男女/雇用機会/均等法''では,文節単位の構造としては``成立した''→``\mbox{男女雇用機会均等}法''と係り受けが成立するが,アクセント句単位の構造としては,``成立した''→``均等法''となり,(A)は右枝分かれ境界となる.}ため,結合力を最小とする.\begin{table}\caption{Pi×N7の組み合わせマトリックス}\label{tab:ketsugo}\begin{center}\begin{tabular}{|l|l|l|l|l|l|}\hlineP1=2&P2=表\ref{tab:ketsugo2}&P3=表\ref{tab:ketsugo2}&P4=1&P5=2&P6=9\\\hlineP7=1&P8=1&P9=2&P10=2&P11=表\ref{tab:ketsugo2}&\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{P2,P3,P11の結合力}\label{tab:ketsugo2}\begin{center}\begin{tabular}{|c|l|l|c|c|c|}\hline項&直後アクセント句条件&その他の条件&\multicolumn{3}{c|}{結合力}\\\cline{4-6}番&&&P2&P3&P11\\\hline1&名詞,接辞,連体詞のみ&2つ後のアクセント句先頭=名詞or接辞&-&1&1\\2&自立語の総モーラ数$\geq$5&Pi$\ne$格助詞``の''&5&4&2\\3&自立語の総モーラ数$\geq$5&Pi=格助詞``の''&-&-&5\\\hline4&\multicolumn{2}{|l|}{上記以外}&8&7&8\\\hline\end{tabular}\end{center}\end{table}この結合力はポーズ付与の補正でも利用するため,記号に基づく音調結合型設定〜特定単語の組み合わせによる音調結合型設定ですでに強結合または弱結合を設定しているアクセント句境界に対しても求めておく(ただし音調結合型の設定は行わない).ただし,これらのアクセント句境界に対しては,得られた結合力に10を加算する.これは,記号に基づく音調結合型設定〜特定単語の組み合わせによる音調結合型設定で設定される音調結合型を結合力に基づく音調結合型設定で設定される音調結合型より信頼性が高いと考えるためである.音調結合型未設定のアクセント句境界に対しては,結合力=1となるアクセント句境界に小ポーズ,それ以外のアクセント句境界には,文節境界となるアクセント句境界に弱結合,それ以外に強結合を付与する.\subsubsection{ポーズ付与の補正}\label{subsub:unpause}あるモーラ長以上ポーズが設定されていない場合(このポーズが設定されていない区間をポーズ未設定区間とよぶ)に,結合力を用いてポーズを設定する.ここでは,ポーズ未設定区間の長さと結合力に基づく音調結合型設定で設定した結合力の強さにより,段階的にポーズを付与する.\begin{description}\item[20モーラ\hspace{-0.05mm}$\leq$\hspace{-0.05mm}ポーズ未設定区間長\hspace{-0.05mm}$<$\hspace{-0.05mm}30モーラの場合]\mbox{ポーズ未設定区間先頭から5モーラ目}〜\mbox{末尾から5モーラ目までに}\mbox{結合力3以下のアクセント句境界が存在する場合にのみ,そ}の中で最小の結合力をもつアクセント句境界に小ポーズを付与する.\mbox{それ以外の場合は}ポーズを付与しない.\item[ポーズ未設定区間長$\geq$30モーラの場合]ポーズ未設定区間先頭から5モーラ目〜末尾から5モーラ目までに結合力が6以下のアクセント句境界が存在する場合にその中で最小の結合力をもつアクセント句境界に小ポーズを設定する.条件を満たすアクセント句境界が存在しない場合には,ポーズ未設定区間先頭から2モーラ目〜末尾から2モーラ目までのアクセント句境界において,最小の結合力をもつアクセント句境界に小ポーズを付与する.\end{description}ここで,ポーズ付与の補正を行った後のポーズ未設定区間が上記条件を満たす場合には,再帰的にポーズ付与の補正を行う.これは,ポーズ未設定区間長が20モーラ以上30モーラ未満と,ポーズが挿入されなくてもあまり不自然でない長さの場合には,結合力が弱い(3以下)アクセント句境界が存在した場合にのみポーズを付与し,ポーズ未設定区間長が30モーラ以上と,ポーズがなければ不自然となる長さを越えた場合には,必ずポーズを設定するという2段階のポーズ付与の補正を行うものである.\subsubsection{ポーズ付与例}図\ref{fig:pause}に多段階設定法によるポーズ付与例を示す.まず,$[$A$]$,$[$B$]$,$[$C$]$に順にポーズが設定された後,結合力が求められ\footnote{$[$A$]$,$[$B$]$,$[$C$]$のアクセント句境界はすでにポーズが設定されているため,結合力を求める必要がない.},結合力=1である$[$D$]$に小ポーズが付与される.そして,ポーズ未設定区間``実態調査を共同で行うことで合意しました。''(27モーラ)において最小結合力2($\leq$3)をもつ$[$E$]$に小ポーズが付与される.ポーズ未設定区間``放射性廃棄物の海洋投棄に''(23モーラ)は,ポーズ未設定区間長が20モーラ以上30モーラ未満であり,最小結合力が5($>$3)であるため,ポーズは付与されない.\begin{figure}[tb]\vspace{-4mm}\begin{center}\epsfile{file=pause.eps}\end{center}\caption{ポーズ付与例}\label{fig:pause}\end{figure}
\section{評価}
label{sec:evaluation}\subsection{読み韻律情報の評価法}\label{subs:kana}本論文で提案した読み韻律情報設定法の有効性を検証するため,AUDIOTEXで生成した読み韻律情報(アクセント付カナ文)に対する評価を行った.具体的には,読み付与,アクセント句境界設定,アクセント型設定,ポーズ設定,読み韻律設定(総合評価)の5種類の正解率を算出した.ここで,AUDIOTEXでは6種類の音調結合型を付与しているが,本評価ではポーズの有無の2段階で評価を行うこととした.これは,現在の合成音声の品質はまだ十分といえず,ポーズなしのアクセント句境界に対して強結合と弱結合のどちらを設定するのが正しいかを正確に聞き分けることができないためである.\footnote{一般には,左枝分かれ境界に対しては強結合,右枝分かれ境界に対しては弱結合を付与するのが適切であるが,現在の合成音声の品質では,左枝分かれ境界に対しても弱結合を付与する方が明瞭性が増し,聞きやすい場合がある.このためAUDIOTEXでは,ポーズを付与しない文節境界にはすべて弱結合を付与している.}それぞれの正解率は以下の式により表される.\begin{eqnarray}読み正解率&=&\frac{C_{al}-C_{er}}{C_{al}}\\アクセント句境界正解率&=&\frac{(C_{al}-C_{ep})-B_{er}}{C_{al}-C_{ep}}\\アクセント型正解率&=&\frac{A_{sp}-A_{te}}{A_{sp}}\\ポーズ正解率&=&\frac{A_{sp}-A_{pe}}{A_{sp}}\\読み韻律正解率&=&\frac{A_{cr}}{A_{al}}\end{eqnarray}\begin{small}\begin{tabbing}\hspace{1.5cm}\=\hspace{1cm}\=\kill\>$C_{al}$\>全文字数\\\>$C_{er}$\>読みを誤った文字数\\\>$C_{ep}$\>読み誤り同一アクセント句文字数\\\>$B_{er}$\>誤ったアクセント句境界数\\\>$A_{sp}$\>正しく分割されたアクセント句数\\\>$A_{te}$\>アクセント型を誤ったアクセント句数\\\>$A_{pe}$\>ポーズ有無を誤ったアクセント句数\\\>$A_{cr}$\>読み,アクセント句境界,アクセント型,ポーズ有無が正しいアクセント句数\\\>$A_{al}$\>全アクセント句数\end{tabbing}\end{small}ここで,アクセント句境界正解率における「読み誤り同一アクセント句文字数」($C_{ep}$)とは,読みを誤った文字,および,読みを誤った文字と同一アクセント句を構成する文字の総数である.例えば,``通算1アンダー''は``通算''と``1アンダー''の2アクセント句となるが,``1''の読みを``イチ''と読み誤った場合(正解は``ワン''),読み誤った文字``1''と同一アクセント句となる``アンダー''も評価対象から除く.また,アクセント型,音調結合型正解率の分母となる「正しく分割されたアクセント句数」とは,前後共に正しいアクセント句境界で区切られたアクセント句数を表す.さらに,「アクセント型を誤ったアクセント句数」($A_{te}$),「ポーズ有無を誤ったアクセント句数」($A_{pe}$)は,正しく分割されたアクセント句を対象とする.このように正解率を定めたのは,正しく与えられた情報を用いた際の設定精度評価を行うためである.ところで,アクセント句境界やポーズはゆれが許容され,単一の正解は存在しない.例えば,``小型処理装置''は,``小型/処理装置''(2アクセント句)でも``小型処理装置''(1アクセント句)でもよく,``初めて/(A)相場水準に/触れ、''の(A)の位置にポーズがあっても\mbox{なくても許容}される.また,誤りに対する許容度は個人差も存在する.そこで,合成音声に慣れ,読み韻律情報の誤りの種類の判定を行うことができ,誤まった読み韻律情報を正しく修正することができる2名の評価者(評価者A,B)が,AUDIOTEXにより生成された合成音声を聴き,不自然に聞こえる個所を誤りとして評価を行った.評価対象としたテキストは,ニュース文章484文(29829文字)である.評価は,(1)評価テキストに対して単語辞書を全く整備しない状態で生成されたアクセント付カナ文(オープン評価),(2)評価テキストに対して単語辞書の整備を行った後に生成されたアクセント付カナ文(クローズ評価),そして本手法のベースとなった手法である\cite{Miyazaki1}により生成されたアクセント付カナ文の3種類を対象に行った.\subsection{読み韻律情報の評価結果}各正解率を求めるための各値を表\ref{tab:ev_value},正解率を表\ref{tab:evaluation}に示す.表\ref{tab:ev_value},表\ref{tab:evaluation}において,「A$\mid$B正解」は評価者A,B共に正解と判断したもの,および評価者AまたはBのいずれかが正解と判断したものを正解としたもの,「A\&B正解」は評価者A,B共に正解と判断したもののみを正解としたものである\footnote{ただし,表\ref{tab:ev_value}における$C_{er}$,$B_{er}$などの誤り数においては,「A$\mid$B正解」は,評価者A,Bが共に誤りとしたもの,「A\&B正解」は,評価者A,B,一方でも誤りとしたものを表している.}.\begin{table}[tb]\caption{評価式の各値}\label{tab:ev_value}\begin{center}\begin{tabular}{|c|l|cccc|}\hline\multicolumn{2}{|l|}{}&評価者A&評価者B&A$\mid$B正解&A\&B正解\\\hline共通&$C_{al}$&\multicolumn{4}{|c|}{29829}\\\hline(1)&$C_{er}$&\multicolumn{4}{|c|}{88}\\単語&$C_{ep}$&\multicolumn{4}{|c|}{281}\\辞書&$B_{er}$&178&146&107&217\\未整備&$A_{al}$&\multicolumn{4}{|c|}{7253}\\(オープン)&$A_{sp}$&7009&7055&7122&6942\\&$A_{te}$&85&141&57&169\\&$A_{pe}$&80&375&63&392\\&$A_{cr}$&6721&6425&6890&6256\\\hline(2)&$C_{er}$&\multicolumn{4}{|c|}{32}\\単語&$C_{ep}$&\multicolumn{4}{|c|}{75}\\辞書&$B_{er}$&56&69&27&98\\整備後&$A_{al}$&\multicolumn{4}{|c|}{7207}\\(クローズ)&$A_{sp}$&7133&7108&7164&7077\\&$A_{te}$&18&86&14&90\\&$A_{pe}$&82&382&64&400\\&$A_{cr}$&7005&6617&7072&6550\\\hline(3)&$C_{er}$&\multicolumn{4}{|c|}{97}\\(宮崎,&$C_{ep}$&\multicolumn{4}{|c|}{317}\\大山&$B_{er}$&403&466&282&587\\1986)&$A_{al}$&\multicolumn{4}{|c|}{7360}\\&$A_{sp}$&6762&6580&6884&6458\\&$A_{te}$&324&559&281&602\\&$A_{pe}$&469&1198&374&1293\\&$A_{cr}$&5823&4751&5986&4588\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tb]\caption{読み韻律情報の正解率}\label{tab:evaluation}\begin{center}\begin{tabular}{|l|l|ccccc|}\hline評価対象&種別&\multicolumn{5}{|c|}{正解率(\%)}\\\cline{3-7}&&評価者A&評価者B&A$\mid$B正解&A\&B正解&A,B平均\\\hline(1)&読み&\multicolumn{5}{|c|}{99.70}\\単語&アクセント句境界&99.39&99.51&99.64&99.27&99.45\\辞書&アクセント型&98.79&98.00&99.20&97.57&98.40\\未整備&ポーズ&98.86&94.68&99.12&94.35&96.77\\(オープン)&読み韻律&92.67&88.58&95.00&86.25&90.63\\\hline(2)&読み&\multicolumn{5}{|c|}{99.89}\\単語&アクセント句境界&99.81&99.77&99.91&99.67&99.79\\辞書&アクセント型&99.75&98.79&99.80&98.73&99.27\\整備後&ポーズ&98.85&94.63&99.11&94.35&96.74\\(クローズ)&読み韻律&97.20&91.81&98.13&90.88&94.51\\\hline(3)&読み&\multicolumn{5}{|c|}{99.67}\\(宮崎,&アクセント句境界&98.63&98.42&99.04&98.01&98.53\\大山&アクセント型&95.21&91.50&95.92&90.68&93.36\\1986)&ポーズ&93.06&81.79&94.57&79.98&87.43\\&読み韻律&79.12&64.55&81.33&62.34&71.84\\\hline\end{tabular}\end{center}\end{table}ここで,(2)のクローズ評価用に行った単語辞書の整備は,新語登録(人名等)48語,アクセント句境界設定用情報整備27語,アクセント型設定用情報整備24語,複合語意味的係り受け情報を正しく設定するため,および同型語認定精度を向上させるための情報(意味カテゴリ,承接属性など)整備18語,不適切な単位や誤った内容で登録されている単語の削除4語であった.\subsubsection{評価者間の比較}評価者Aと評価者Bの評価結果を比較すると,全体的な傾向は同じ,すなわち,(2)クローズ評価,(1)オープン評価,(3)\cite{Miyazaki1}の手法の順に各正解率が高いといえる.ただし,全体的に評価者Bの方が評価者Aより正解率が低い.これは,韻律のゆれの許容範囲は個人差が大きいことを表している.特に,アクセント型では,評価者Bが判定した誤りは評価者Aの約2〜5倍,ポーズ有無では,約3〜5倍となっている.このうち,(2)クローズ評価のアクセント型誤り($A_{te}$)において,評価者Bのみ誤りとしたアクセント句のうち,44\%(32件)は,設定されたアクセント型は1型以上であるが,評価者Bは0型(平板型)と判断したものであった(例:キノ'ー(昨日),クワワ'ル(加わる),ス'ーカイ(数回)).また,(2)クローズ評価のポーズ有無誤り($A_{pe}$)において,評価者Bのみ誤りとしたアクセント句のうち,12\%(37件)は,連体修飾句が修飾する複合語が複数アクセント句である場合の,連体修飾句と複合語の間のポーズであった(例:``大統領の/(A)財政赤字/削減策に''における(A)の位置のポーズ).また,10\%(31件)は,数量表現内のポーズであった(例:``およそ/(B)七億/七千万円の''における(B)の位置のポーズ).\subsubsection{評価対象間の比較}表\ref{tab:evaluation}の(1)オープン評価と(2)クローズ評価を,評価者A,Bが共に誤りとしたもの(A$\mid$B正解)を対象として比較すると,(2)クローズ評価において,読みの誤り($C_{er}$)が\mbox{約$\frac{1}{3}$,アクセ}ント句境界($B_{er}$),アクセント型($A_{te}$)の誤りが約半数に減少している.この減少分は,未知語の新規登録,複合語係り受け用情報の整備による形態素解析精度の向上,および,表\ref{tab:dic}に示した読み韻律付与用単語情報の適正さによって改善される割合を示し,本手法ではこの単語辞書情報の正確さが読み韻律情報の精度に大きな影響を与えるといえる.ここで,(2)クローズ評価においてポーズ有無誤り($A_{pe}$)が微増しているのは,読み,アクセント句境界が誤った部分はポーズ評価の対象としていないため,ポーズにおいては,形態素解析誤りに起因する誤りはほとんどなく,また,辞書整備により読み,アクセント句境界誤りが減少したために,ポーズ評価の対象となるアクセント句数が増え,さらに,ポーズ付与のための単語辞書情報は1つしかない(助詞ポーズ属性)ため,辞書整備の影響が少ないからである.(3)の\cite{Miyazaki1}で提案された手法と比較すると,本提案方式((1),(2))はポーズ正解率の向上が顕著であり,新たに導入した多段階設定法によるポーズ付与,および形態素解析における長単位認定が有効であるといえる.\vspace{2mm}\subsubsection{(2)クローズ評価における誤り原因}(2)クローズ評価において,評価者A,Bが共に誤りとしたもの(A$\mid$B正解)を対象として,各誤りの原因を以下に示す.\begin{description}\item[読み誤り]1文節1自立語における同型語の読み分け誤りが75\%(24件)と誤り原因の大半を占めた.このような同型語の読み分けが多段解析法による形態素解析の課題であるといえる.\\(例)\\\hspace*{1cm}香港ドルと{\dg元}(×モト→○ゲン)の交換\\\hspace*{1cm}{\dg大勢}(×オオゼー→○タイセー)が判明\item[アクセント句境界誤り]主要な誤り原因は以下の2点である.\begin{description}\item[形態素解析誤り]品詞認定誤り,単語境界誤り等の形態素解析誤りが原因となる誤りが33\%(9件)をを占めた.\\(例)\\\hspace*{1cm}×国会会/期末(○国会/会期末):\\\hspace*{1.5cm}``国会(固有名詞)+会(接尾辞)+期末(名詞)\hspace{-2mm}''と誤認定されるため\\\hspace*{1.5cm}(正解:``国会(固有名詞)+会期(名詞)+末(接尾辞)'')\item[数量表現における誤り]数量表現において,通常は数詞に承接しない単語等が承接した場合に,アクセント句境界を誤った.(11\%(3件))\\(例)\\\hspace*{1cm}×捜査/一課(○捜査一課):``捜査''と``一''が関連付けできない\end{description}\item[アクセント型誤り]品詞の認定誤り等(引き上げ:×動詞,○転生名詞)の形態素解析誤りが原因となる誤りが36\%(5件)であった.\item[ポーズ有無誤り]文節間係り受け解析を行っていないことに起因し,係り受けのない``連体形+名詞'',``が(助詞)+用言''間等,および,並列句での誤りが20\%(13件)を占めた.\\(例)\\\hspace*{1cm}×5百万ポンドと\{弱結合\}前の\{小ポーズ\}年の/同じ時期に/比べ\\\hspace*{1cm}(○5百万ポンドと\{小ポーズ\}前の\{弱結合\}年の/同じ時期に/比べ)\end{description}また,新たに導入した多段階設定法では,係り受けがありえないアクセント句境界前後の単語の組み合わせについては,極端に結合力を弱く設定したが,総桐タンスを\{小ポーズ\}納入などと/報道されました。\\\hspace*{1cm}(結合力=2,ポーズ付与の補正により小ポーズ付与)\\の``を+納入''のような体言止め等の表現に対応できず,\mbox{実際には係り受け関係があるにも関わ}らず,誤ってポーズが付与され,\cite{Miyazaki1}よりディグレードした場合が5\%(3件)生じた.\subsection{処理性能評価}\ref{subs:kana}節で用いた評価文(29829文字)に対するテキスト解析部の処理時間(アクセント付カナ文を生成するまでの時間)を測定した結果を,表\ref{tab:speed}に示す.使用マシンは,SunSparcStation20である.表\ref{tab:speed}により,\cite{Miyazaki1}と比較して,AUDIOTEXが約3.9倍も処理時間がかかることがわかる.この理由として,形態素解析における用言語幹語尾1語化処理の追加,および,読み韻律情報設定における規則の追加が考えられる.\begin{table}[bt]\caption{テキスト解析処理の処理時間}\label{tab:speed}\begin{center}\begin{tabular}{l|c|c}\hline&処理時間&100文字あたりの処理時間\\\hlineAUDIOTEX&280.22秒&0.94秒\\\cite{Miyazaki1}&72.57秒&0.24秒\\\hline\end{tabular}\end{center}\end{table}しかしAUDIOTEXでは,読み韻律情報設定と平行して合成音声の出力を行うことが可能であり,100文字の読み上げ時間は約15〜20秒程度であるため,実用上十分な処理速度であるといえる.
\section{おわりに}
label{sec:conclusion}多段解析法による形態素解析より得られる単語情報を用いて,読み韻律情報を規則により設定する方法,および読み韻律情報設定のための単語辞書の構成を示した.そして,特に音調結合型(ポーズ)の設定において,多段階設定法を新たに導入し,文節間の係り受け情報を用いなくても,実用上十分な精度でポーズを付与できることを示し,本手法の有効性を確認した.本手法による読み韻律情報の設定精度は,単語辞書の精度に大きく依存しているため,今後は単語辞書の精度向上を容易に行う手法を考えていく必要があると考えられる.\vspace{-3mm}\bibliographystyle{jnlpbbl}\bibliography{v06n2_04}\begin{biography}\biotitle{略歴}\bioauthor{浅野久子}{1991年横浜国立大学工学部電子情報工学科卒業.同年,日本電信電話(株)入社.音声合成,情報抽出のための自然言語処理,テキスト処理の研究に従事.現在,NTT情報通信研究所知的通信処理研究部勤務.情報処理学会会員.}\bioauthor{松岡浩司}{1979年九州大学工学部電子工学科卒業.同年,日本電信電話公社(現NTT)入社.現在,NTTマルチメディアシステム総合研究所関西リモートオフィスにて電子図書館システムの研究開発に従事.形態素解析,音声合成,情報検索の研究に興味を持つ.情報処理学会,電子情報通信学会各会員.}\bioauthor{高木伸一郎}{1981年金沢大学大学院電気工学専攻修士課程修了.同年,日本電信電話公社(現NTT)入社.日本語形態素解析を用いた校正支援システムなど知的支援サービスの開発に従事.現在,NTT情報通信研究所知的通信処理研究部主幹研究員.情報処理学会,電子情報通信学会各会員.}\bioauthor{小原永}{1979年慶応義塾大学大学院電気工学専攻修士課程修了.同年,日本電信電話公社(現NTT)入社.機械翻訳,推敲支援,韻律生成技術の研究に従事.現在,NTT情報通信研究所知的通信処理研究部主幹研究員.情報処理学会,電子情報通信学会各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V14N05-02 | \section{はじめに}
我々人間は,日常生活において様々な会話の中から必要に応じて情報を取捨選択している.さらに,会話の流れに即して語の意味を適宜解釈し,適切な応答を行っている.人間は語の情報から適切な応答を行うために,様々な連想を行っている\cite{yoshimura2006}.例えば,「車」という語から「タイヤ」,「エンジン」,「事故」,…,といった語を自然に連想する.連想によって,会話の内容を柔軟に拡大させている.このように,柔軟な会話ができる背景には,語の意味や,語と語の関係についての膨大な知識を有しているため,種々の知識から語と語の関連性を判断し,新たな語を連想することができることが挙げられる.実生活における会話では,「車と自動車」,「自動車と自転車」のように,同義性や類似性の高い語と語の関係のみならず,「車と運転」,「赤ちゃんと玩具」,「雨と傘」のように,広い意味での語と語の関連性の評価が必要となる場合が多い.人間とコンピュータ,あるいはコンピュータ同士の会話においても,人間のような柔軟で常識的な応答を行うためには連想機能が重要となる.そのためには,コンピュータに語と語に関する知識を付与し,同義性や類義性のみならず,多様な観点において語と語の関連の強さを定量的に評価する手法が必要となる.これまで,コンピュータにおける会話処理の重要な要素の一つとして,語と語の類似度に関する研究がなされてきた.類似度の研究では,シソーラスなどの知識を用いて,語と語が意味的にどの程度似ているかを評価することを目的としている\cite{kasahara1997}.そのため,会話において未知の語が出現した場合には,既知の知識との類似度を算出し,同義語や類義語に置換することによって語の意味を理解することが可能となる.一方,本論文では,コンピュータとの会話において,「雨が降っていますよ」という文に対し,「雪」,「霧」,…などの「雨」に対する同義語や類義語だけではなく,「雨」や「降る」という語から,人間が自然に想起するような,「傘」,「濡れる」,「天気予報」,…などの語を幅広く想起させ,自然な会話を行うための連想機能を実現することを目的としている.コンピュータがこのような連想をできるならば,「雨が降っていますよ」という文に対して,「それでは傘を持っていきます」という応答を生成することが可能となる.コンピュータの連想機能を実現するために,概念ベースとそれを用いた関連度計算方式が提案されている\cite{kojima2004,watabe2001,watabe2006}.概念ベースでは,語の意味(概念)が,電子化国語辞書から抽出した特徴語(直接意味語・間接意味語)と重みの集合で定義されている.各特徴語(属性)の重みは,概念と概念の関連の強さを定量的に評価するための基本量として定義している.すなわち,概念ベースの構築においては,概念に対する属性をどのように抽出し,各属性に付与する重みをどのように決定するかが重要となる.本論文では,電子化辞書から構築された4万語規模の概念ベースを,電子化された新聞記事等を用いて12万語規模の概念ベースへ拡張する手法について述べている.概念ベースの構築手法については,電子化辞書から見出し語に対する語義説明文から属性を抽出し,属性信頼度に基づく精錬を行う手法が提案されている.しかしながら,この手法には大きく2つの問題点が存在する.第一には,辞書の語義説明文から取得される大部分の属性は,語の狭義の意味を説明する語(直接意味語)であり,間接的に見出し語と関連を持つ広義の意味語(間接意味語)を獲得することが困難である点である.これは,コンピュータに柔軟な連想機能を実現する上で,同義や類義の語以外の連想語を取得する際に大きく影響する.直接意味語と間接意味語について,「自動車」の例を挙げる.\noindent例.自動車\begin{description}\item[直接意味語]車,車輪,原動機,回転,装置,ブレーキ,…\item[間接意味語]渋滞,免許証,事故,便利,交通,信号,保険,レース,…\end{description}第二には,4万語規模の概念ベースでは,幅広い連想を行い,語と語の関連性を定量化する上で語彙が不十分である点である.概念を定義するための属性は,全て概念ベースに定義されている語でなければならないという制約があるため,4万語規模の概念ベースに定義されていない語を,新たな属性として概念に付与するためには,概念ベースの拡張が必須となる.概念ベースの拡張においては,概念に付与すべき属性の抽出手法,並びに,獲得した属性に対する重みの付与手法が必要となる.まず,国語辞書からの概念ベース構築の際に適切に属性を取得することができなかった概念を抽出し,不適切な概念を削除する.属性の抽出手法として,電子化された新聞記事等における共起に基づく手法を提案する.また,重みの付与手法として,属性関連度と概念価値に基づく手法を提案する.このように拡張した概念ベースの有用性を,関連度計算方式を用いた評価実験によって示している.
\section{概念ベース}
概念ベース\cite{kojima2004,hirose2002}は,概念(見出し語)とその特徴を表す複数の語(属性)を対の組として集めた語の知識ベースである.任意の概念$A$は,見出し語$A$と属性$a_i$,重み$w_i$により以下のように定義する.\begin{equation}A=\{(a_1,w_1),(a_2,w_2),(a_3,w_3),\cdots,(a_k,w_k)\}\end{equation}なお,属性となる全ての語は概念ベースの概念として定義されていなければならない.このことから,各概念は$n$次元の属性連鎖集合として定義されることとなる(図\ref{fig:concept-base}).すなわち,概念$A$の属性$a_i$を一次元の属性(一次属性)と呼ぶ.さらに,属性$a_i$を概念として見た場合,$a_i$の属性$a_{i_j}$を概念$A$の二次元の属性(二次属性)として導出することが可能である.\begin{figure}[b]\begin{center}\includegraphics{14-5ia2f1.eps}\caption{概念ベース}\label{fig:concept-base}\end{center}\end{figure}概念とは,$n$次元の属性連鎖集合で定義される属性空間である.概念は,無限連鎖による属性集合であるため,起点となる概念を識別するために「見出し語」と言う表現を用いる.すなわち,見出し語とは,$n$次元の属性連鎖集合によって定義された属性空間を識別するためのラベルである.さらに,単に「属性」と表記する場合は,各概念の一次属性を表すものとする.各属性の重みは,概念と他の概念との関連の強さを定量的に評価するための基本量として付与している.すなわち,概念間の関連の強さは概念を構成する(属性,重み)の対の集合の総合的な一致度合いに基づき定量化される.このため,概念間の関連の強さを定量化するためには,属性とその重みを具体的にどのように付与するかが重要となる.なお,本論文で対象とする概念ベースでは,各概念の属性はシソーラス等を用いて意味的に圧縮していない.その理由として,各概念が持つ微妙な特徴が意味的な圧縮を行うことによって失われること,また,概念を意味的に適切に圧縮することが困難であることが挙げられる.
\section{関連度計算方式}
関連度計算方式\cite{watabe2006}は,概念ベースに定義された語と語の関連の強さを,同義性,類似性のみに関わらず定量化する手法である.本論文では,概念を構成する属性集合間の一致の度合いを定量化する関連度計算方式を前提に,この方式に適した概念ベースの構築法を論じている.また,語と語の類似性評価手法として,シソーラスなどを用いて属性の意味的な圧縮を行った概念ベースを前提に各概念をベクトルと見なし,余弦を用いて定量化するベクトル空間モデルが広く利用されている\cite{Kawashima2005}.この方式は,「赤ちゃんと子ども」や「自動車と車」といった,類似性の高い語と語の類似性評価には適しているが,「赤ちゃんと玩具」や「自動車と事故」といった語と語の関連性は,類似性という観点からは関連性評価が困難であると考えられる.そのため,本論文に使用する概念ベースは,より柔軟に語と語の関連の強さを定量化するために関連度計算方式を前提としている.以下,概念間の属性一致度,並びに属性一致度に基づき概念関連度を求める関連度計算方式について述べる.\subsection{属性一致度}概念$A$,$B$の属性を$a_i$,$b_j$,対応する重みを$u_i$,$v_j$とし,それぞれ属性が$L$個,$M$個あるとする.($L\leqM$).また,各概念の属性の重みを,その総和が$1.0$となるよう正規化している.\begin{gather*}A=\{(a_i,u_i)|i=1\simL\}\\B=\{(b_j,v_j)|j=1\simM\}\end{gather*}このとき,概念$A$と概念$B$の属性一致度$\mathit{MatchWR}(A,B)$を以下のように定義する.\begin{gather}\mathit{MatchWR}(A,B)=\sum_{a_i=b_j}\mathit{min}(u_i,v_j)\\\mathit{min}(u_i,v_j)=\begin{cases}u_i(u_i\leqv_j)\\v_j(v_j<u_i)\end{cases}\end{gather}ただし,$a_i=b_j$は属性同士が一致した場合を示している.すなわち,一致した属性の重みのうち,小さい方の重みの和が属性一致度となる.属性一致度は$0.0\sim1.0$の値をとる.\subsection{概念関連度}概念関連度$\mathit{MR}$は,対象となる二つの概念において,一次属性の組み合わせについて属性一致度を求め,これを基に概念を構成する属性集合全体としての一致度合いを計算することで算出される.具体的には,まず,見出し語として一致する属性同士($a_i=b_j$)について,優先的に対応を決定する.他の属性については,全ての一次属性の組み合わせにおいて属性一致度を算出し,属性一致度の和が最大となるように組み合わせを決定する.属性一致度を考慮することにより,属性同士の見出し語としての一致だけではなく,一致度合いの近い属性を有効に対応づけることが可能となる.また,概念$A$,$B$間の見出し語として一致する属性($a_i=b_j$)については,以下の処理により別扱いとする.$a_i=b_j$なる属性があった場合,それらの属性の重みを参照し,$u_i>v_j$となる場合は,$a_i$の重み$u_i$を$u_i-v_j$とし,属性$b_j$を概念$B$から除外する.逆の場合は,同様に$b_j$の重み$v_j$を$v_j-u_i$とし,属性$a_i$を概念$A$から除外する.見出し語として一致する属性が$T$組あった場合,概念$A$,$B$はそれぞれ$A'$,$B'$として以下のように再定義され,これらの属性間には見出し語として一致する属性は存在しなくなる.見出し語として一致した属性の概念関連度を$\mathit{MR}_{\mathit{com}}(A,B)$とし,以下の式で定義する.\begin{gather}\mathit{MR}_{\mathit{com}}(A,B)=\sum_{a_i=b_j}\mathit{min}(u_i,v_j)\\A'=\{(a_i',u_i')|i=1\simL-T\}\nonumber\\B'=\{(b_j',v_j')|j=1\simM-T\}\nonumber\\\mathit{min}(u_i,v_j)=\begin{cases}u_i(u_i\leqv_j)\\v_j(v_j<u_i)\end{cases}\end{gather}次に,見出し語として一致する属性を除外した$A'$,$B'$の概念関連度を$\mathit{MR}_{\mathit{def}}(A',B')$とする.$\mathit{MR}_{\mathit{def}}(A',B')$を算出するために,属性数の少ない方の概念$A'$の並びを固定し,属性間の属性一致度の和が最大になるように概念$B'$の属性を並べ替える.この時,対応にあふれた属性は無視する.概念$A'$の属性$a_i'$と概念$B'$の属性$b_{x_i}$が対応したとすると,概念$B'$は以下のように並び換えられる.\begin{equation}B'=\{(b_{x_1},v_{x_1}),(b_{x_2},v_{x_2}),\cdots,(b_{x_{L-T}},v_{x_{L-T}})\}\end{equation}この結果,見出し語として一致する属性を除去した属性間の概念関連度$\mathit{MR}_{\mathit{def}}(A',B')$を以下の式によって定義する.$\mathit{MR}_{\mathit{def}}(A',B')$は対応が決定した属性間の重みの比率と,重みの平均値を属性一致度に乗じることで,属性一致度を補正する.\begin{gather}\mathit{MR}_{\mathit{def}}(A',B')=\sum_{s=1}^{L-T}\mathit{MatchWR}(a_s',b_s')\times\frac{\mathit{min}(u_s',v_s')}{\mathit{max}(u_s',v_s')}\times\frac{u_s'+v_s'}{2}\\\mathit{max}(u_i,v_j)=\begin{cases}u_i(u_i\geqv_j)\\v_j(v_j>u_i)\end{cases}\end{gather}このように,見出し語として一致する属性間の概念関連度$\mathit{MR}_{\mathit{com}}(A,B)$と,見出し語として一致しない属性間の概念関連度$\mathit{MR}_{\mathit{def}}(A',B')$をそれぞれ算出し,合計を概念$A$,$B$の概念関連度$\mathit{MR}(A,B)$とする.\begin{equation}\mathit{MR}(A,B)=\mathit{MR}_{\mathit{com}}(A,B)+\mathit{MR}_{\mathit{def}}(A',B')\end{equation}概念関連度もまた,属性一致度と同様$0.0\sim1.0$の値をとる.
\section{関連度計算方式を用いた概念ベース評価法}
\label{hyouka}構築した概念ベースの性能評価は,概念ベースに定義されている概念$X$と概念$Y$の関連の強さに対して,人間の評価と関連度計算の比較により行う.任意の概念$X$と概念$Y$に対し出来るだけ人間の判断結果に近い結果が得られる概念ベースが,連想機能を実現する上で有効であると考えられる.\subsection{評価用データ}任意の概念を基準概念$X$とし,人間が判断して非常に高い関連があると考えられる概念$A$,概念$A$ほどではないが,概念$X$に対して関連があると考えられる概念$B$,そして,概念$X$に対して無関連だと考えられる概念$C$を一組とするデータを準備する.このような4つの見出し語が一組となり構成されるデータセットを$X$-$\mathit{ABC}$評価用データと呼ぶ(表\ref{Table:X-ABC}).\begin{table}[t]\input{02t1.txt}\end{table}\subsection{X-ABC関連度評価法}基準概念$X$に対して,概念$A$,概念$B$,概念$C$の概念関連度$\mathit{MR}(X,A)$,$\mathit{MR}(X,B)$,$\mathit{MR}(X,C)$を算出する.このとき,それぞれの概念関連度の間に以下の式が成立するならば,判断は正しいとする.また,全$X$-$\mathit{ABC}$評価用データに対し,以下の式を満たす$X$-$\mathit{ABC}$評価用データの比率を$C$平均順序正解率と呼ぶ.$set_{num}$は$X$-$\mathit{ABC}$評価用データの総数である.\begin{gather}\mathit{MR}(X,A)-\mathit{MR}(X,B)>\mathit{AveMR}(X,C)\\\mathit{MR}(X,B)-\mathit{MR}(X,C)>\mathit{AveMR}(X,C)\\\mathit{AveMR}(X,C)=\frac{\sum_{i=1}^{\mathit{set}_{\mathit{num}}}\mathit{MR}(X_i,C_i)}{\mathit{set}_{\mathit{num}}}\end{gather}なお,$\mathit{AveMR}(X,C)$は$X$-$\mathit{ABC}$評価用データ全体における$MR(X,C)$の平均値である.基準概念$X$に対して無関連である概念$C$との概念関連度$\mathit{MR}(X,C)$は,0となるのが理想であるが,一つでも一致する属性があった場合,$\mathit{MR}(X,C)$は$0$とならない.そのため,$\mathit{AveMR}(X,C)$を概念関連度の誤差とみなし,各概念関連度($\mathit{MR}(X,A)$,$\mathit{MR}(X,B)$,$\mathit{MR}(X,C)$)間に誤差以上の有意差があった場合を正解し,概念ベースの性能評価を行う.
\section{国語辞書を用いた基本概念ベース構築法}
\label{kihon-make}本節では,電子化国語辞書から概念ベースを構築する手法について述べる.この手法では,電子化国語辞書から各見出し語に対して,語義説明文に含まれる自立語を属性候補として抽出し,それらを,属性信頼度(語に関する種々の知識から属性としての確からしさを定量化した値)により精錬し不適切な語を削除する\cite{kojima2004}.その後,手作業で作成した重み学習データを用いた最適化実験により属性の重みを付与することにより概念ベース(基本概念ベース)を構築している.また,属性の取得数が少数であった見出し語に関しては,基本概念ベースには定義していない.\subsection{電子化辞書からの属性抽出}電子化国語辞書の見出し語の語義説明文中に含まれる自立語を構文解析により機械的に抽出する.次に,見出し語の意味には関係なくどの説明文にも形式的に含まれる自立語は削除し属性候補を得る(Ex.する,なる,…).このようにして,概念総数約3万4千,属性総数約150万,各概念につき平均約40の属性を持つ初期概念ベースが得られる.初期概念ベースは,厳密には関連度計算のための基本量として重みが付与された概念ベースではなく,「概念—属性」の対の集合が取得され,各属性の語義説明文内での出現頻度を重みとして保持している.\subsection{学習による重み付与手法}\label{sec:gakushu}初期概念ベースについて説明文中の出現頻度と語に関する種々の知識(シソーラスや同義語辞書等)を用いて属性らしさを表す属性信頼度を求める\cite{kojima2004}.さらに属性信頼度の値により属性のクラス分けを行い,学習実験によりクラス毎の最適な属性の重みを得る.初期概念ベースを用いて属性信頼度を算出し,実験により各属性の重みを算出する重み学習による属性重み付与手法について述べる.各属性の重みが属性の確からしさを表す属性信頼度に関係することは明らかであるが,各属性信頼度に対してどのような重みを付与すればよいのかは極めて難しい課題である.そこで,手作業で用意した学習データを用いて,評価結果が最適となる属性の重みを実験的に求める手法が提案されている.学習実験により属性の重みを決定する際に,各属性の重みを連続値として最適化を行うのは不可能である.したがって,属性信頼度を基準とし,6つのクラスに分割し,クラスごとに重みを最適化する.以下,属性信頼度と属性信頼度を算出するための手がかり,学習データ,実験的に決定したクラス別の重みについて述べる.\subsubsection{属性信頼度と信頼度クラス}属性信頼度は複数の手がかりを用いて算出され,各手がかりに合致する属性の確からしさは手作業によるサンプルの目視評価によって求められている.属性信頼度を算出するための手がかりは以下の6項目である.\begin{enumerate}\item概念と属性の一致\item関係データに定義されている\item初期概念ベースの頻度重み\item初期概念ベースを用いた概念関連度\item概念と属性の表記の部分一致\item概念と属性が相互属性関係にある\end{enumerate}\noindent関係データとは電子化辞書を解析した際に取得された語と語の関係を示すデータであり,同義・類義・反意などの関係が定義されている.また,相互属性関係とは,概念$A$の属性$a_i$に対し,概念$a_i$の属性として概念$A$が付与されている場合,概念$A$と属性$a_i$は相互属性関係にあると定義する.また,複数の手がかりに該当する属性の属性信頼度は,独立事象の確率合成によって算出する.独立事象$P_1$,$P_2$の起こりうる確率が$p_1$,$p_2$であった場合,$P_1$,$P_2$が同時に起こりうる確率$P$は以下の式\ref{eq:gousei}によって算出する.\begin{equation}P=\frac{p_1p_2}{p_1p_2+(1-p_1)(1-p_2)}\label{eq:gousei}\end{equation}算出された各属性の属性信頼度を表\ref{Table:shinraido-class}に示すように信頼度クラスに分類する.\begin{table}[b]\input{02t2.txt}\end{table}\subsubsection{各信頼度クラスの属性の重み}重み学習データ(表\ref{Table:gakushu-data})を用いてC平均順序正解率が最高となる各属性信頼度クラスの重みは表\ref{Table:gakushu-kekka}のように得られる.\begin{table}[b]\input{02t3.txt}\end{table}重みが$0$となる信頼度クラス$5$,$6$に関しては,属性として採用されず,概念ベースから削除される.信頼度クラス$1$に関しては,同義・類義・反意をさらに細分化して重みを算出しており,同義が$8$,類義が$4$,反意が$1$となっている.このとき,概念ベースの概念総数は約3万4千,属性総数は約53万,平均属性数は各概念につき約16個となる.このように構築された概念ベースを基本概念ベースと呼ぶ.\begin{table}[b]\input{02t4.txt}\end{table}\subsubsection{特徴と問題点}\label{special}学習による重み付与手法は,概念ベースの属性を選別し,適切な重みを付与する手法としては十分評価できるものである.しかし,同じ信頼度クラスに属する属性には同じ重みを付与することになるため,信頼度クラスの設定が曖昧であると適切な重みを算出することが困難になる.また,この方式は,学習データに大きく依存するため一般性に問題が残る(図\ref{fig:270-590}).図\ref{fig:270-590}では,重みを最適化するために使用した590組の学習データによるC平均順序正解率と,590組の学習データと重複しない500組の評価データによるC平均順序正解率を示している.\begin{figure}[t]\begin{center}\includegraphics{14-5ia2f2.eps}\caption{基本概念ベースの性能評価}\label{fig:270-590}\end{center}\end{figure}最適化実験に使用した学習データによるC平均順序正解率と,最適化実験に使用しなかった評価データによるC平均順序正解率では,およそ10\%の差違が生じており,学習対象となる学習データに大きく依存する重みが算出されていることが分かる.さらに,語彙数の拡大された概念ベースの構築に際しては,信頼度クラスの分割数の設定と,それに伴う最適化学習時間などに多くの課題が発生する.
\section{新聞記事を用いた概念ベース構築法}
本節では,基本概念ベースの構築において,電子化辞書から適切な属性を抽出することができなかった見出し語について,新聞記事などを用いて属性を取得し,概念ベースを大規模なものへ拡張し構築する手法について述べる.また,基本概念ベースに定義されている概念についても,属性を追加している.なお,基本概念ベースへの属性追加手法として,語間の論理関係を用いた属性拡張\cite{kojima2004a}が提案されているが,基本概念ベースに定義される概念のみを対象としており,本論文で目的とする概念ベースの拡張とは本質的に異なる.基本概念ベースに定義されている約4万語の概念では,日常会話に出現する語に幅広く対応することが困難であり,少なくとも国語辞書の見出し語として記載される概念については,概念ベースとして構築することが望ましい.しかし,電子化辞書に記載される語義説明文からは適切に属性を取得できない概念が多数存在するため,新聞記事やWEB文書など,一般の文書から属性を獲得することが必要となる.新聞記事など一般の記事から取得した属性候補の確からしさは,電子化辞書に記載される語義説明文から取得した属性候補に対して低下する.そのため,概念に対して不適切な属性(雑音属性)の除去を行い,適切な重みを付与する必要がある.これには,\ref{sec:gakushu}節に述べたように,属性信頼度の考え方に基づく概念ベースの精錬手法が有効であると考えられるが,概念数の増大により,適切な学習データを作成することや,学習データに基づく重みの最適化を行うために時間がかかることなど,種々の問題が発生する.したがって,大規模な概念ベースを構築する際には,概念ベースの規模に即した精錬手法が必要となる.本論文では,大規模に拡張した概念ベースの精錬手法として,情報検索やテキストマイニングなどの分野において広く利用されるキーワード重み付け手法である$\mathit{tf}\cdot\mathit{idf}$法\cite{tokunaga1999}に基づき各概念に付与された属性に対し初期属性重みを付与する.さらに,その初期属性重みを用いることにより,拡張した概念ベースに定義される任意の概念と概念の概念関連度を算出することが可能となる.そのため,各概念と属性の概念関連度を特に属性関連度と呼び,属性関連度を用いて雑音属性の除去を行う.また,$\mathit{idf}$の考え方に基づく概念価値を算出し再度重みを付与することにより,概念ベースの質の向上を図っている.\subsection{電子化辞書からの見出し語抽出}一般的な国語辞書にはおよそ20万語の語彙が収録されている.電子化国語辞書を用いた基本概念ベースの構築においては,見出し語の説明文から取得された自立語数(属性数)が少数である場合には,その見出し語は概念として採用されていなかった.しかし,4万語程度の概念では,自然な会話を行うために語と語の関連性を定量化する上で語彙が不十分である.そこで,電子化新聞の記事を用いることにより,国語辞書からは属性の取得が困難であった見出し語(概念)について,属性を抽出する手法を提案する.国語辞書に掲載されている20万語のうち,見出し語(概念)として不適切な表記を除去した約12万語の概念について,電子化新聞(毎日新聞,日本経済新聞)より属性を取得する.すなわち,基本概念ベースに定義されている概念についても,同様に属性を取得する.表\ref{Table:get-word}に電子化辞書に記載されており,且つ基本概念ベースでは定義されなかった見出し語(概念)の例,および,見出し語として不適切な表記の例を示す.\begin{table}[t]\input{02t5.txt}\end{table}基本概念ベースにはカタカナ語や固有名詞が定義されていなかった場合が多い.また,一般的に会話文中に出現するような「飲食店」などの語も定義されていない.見出し語として不適切であるとしたものは,「…」による表記の省略,「〈〉」による表記の使用例,「・」による表記の並列等である.\subsection{電子化新聞からの属性抽出}\label{get-attribute}電子化新聞には,電子化辞書のように「語—説明文」という明確な関係がない.このため,電子化新聞から「概念—属性」の関係を抽出するためには,新聞記事内での語と語の共起を手がかりとする手法が有効であると考える\cite{hirose2002}.本論文における共起とは,句読点によって区切られた領域において,単語$A$と単語$B$が同時に出現している場合,単語$A$と単語$B$は共起していると定義する.例えば,図\ref{fig:news-kyouki}に示すように,新聞記事内に「…,大学が国立研究所など外部の研究機関に大学院の研究室を置く,…」という文があった場合,語「大学,国立,研究所,外部,…」など,文中に出現する単語は共起していると定義する.このように,電子化新聞中の記事を句読点に区切られた領域に分割し,領域ごとに約12万語に拡張された概念ベースに定義される概念および属性候補を自立語として抽出する.\begin{figure}[b]\begin{center}\includegraphics{14-5ia2f3.eps}\caption{共起の例}\label{fig:news-kyouki}\end{center}\end{figure}また,抽出された領域内の単語$A$,単語$B$,単語$C$,…の間には,単語$A$を概念とした場合,その属性として共起している単語$B$,単語$C$,…が付与されるという関係にある.「…,大学が国立研究所など外部の研究機関に大学院の研究室を置く,…」の例では,表\ref{Table:kyouki-zokusei}のように「概念—属性」の関係を取得する.\begin{table}[t]\input{02t6.txt}\end{table}このようにして,各概念に対して取得された属性数は平均で100属性ほどである.\subsection{初期属性重みの付与}本論文では,最終的な属性重みとして属性関連度と概念価値を用いる.しかし,前節までの手順により「概念—属性」の関係を抽出した段階では,各概念に対する属性に適切な重みが付与されていないため,属性関連度を算出することができない.そこで,$\mathit{tf}\cdot\mathit{idf}$法の考え方に基づく初期重みを付与することにより,属性関連度を算出する.\subsubsection{疑似$\mathit{tf}$の算出}$\mathit{tf}$とは,対象文書内に同一の単語が出現する頻度である.すなわち,限られた領域内で頻繁に出現する単語は重要であるという指標となる.しかし,本論文で構築する概念ベースでは,各概念に対して,重複する属性は付与していない.したがって,各概念に対して付与される属性の出現頻度は全て1回のみである.そのため,概念ベースからは定量的な$\mathit{tf}$の算出が困難である.そこで,本論文では,概念ベースの初期属性重み算出のために,基本概念ベースと属性抽出の際の共起情報を基に,以下の手順により,3段階の疑似$\mathit{tf}$値を各属性に付与する(図\ref{fig:shoki-shinraido}).$\mathit{tf}(A,a)$は,概念(見出し語)$A$に対する属性候補$a$の疑似$\mathit{tf}$値を示している.\begin{figure}[t]\begin{center}\includegraphics{14-5ia2f4.eps}\caption{初期属性重み算出のための疑似$\mathit{tf}$導出}\label{fig:shoki-shinraido}\end{center}\end{figure}新聞記事を用いた概念ベースの拡張では,前提として基本概念ベースを使用している.基本概念ベースに定義される概念に対し,付与されている属性の質は高い.そのため,基本概念ベースに定義されている「概念—属性」の関係は信頼性が高いと考えられるため,疑似$\mathit{tf}$を1.0としている.また,基本概念ベースには定義されていない「概念—属性」の関係は,新聞記事内での共起情報に基づいて収集している.しかし,新聞記事内での共起情報のみでは,「概念—属性」の関係がどの程度確からしいかを判定することは困難である.したがって,新聞記事内の共起情報のみによって関係が示される属性に関しては疑似$\mathit{tf}$を0.0とし,属性候補として保留する.$\mathit{tf}\cdot\mathit{idf}$法では,単語の出現頻度と,全文書における対数文書頻度を乗じることによりキーワードの重みを算出している.そのため,疑似$\mathit{tf}$を0.0とした場合,$\mathit{tf}\cdot\mathit{idf}$法に基づいた重み付けを行うと,重みは0.0となる.しかしながら,新聞記事内での共起情報以外に「概念—属性」の関係を明確にすることができないために,属性候補を雑音属性として除去すると,大半の属性候補は概念ベースから除去されてしまう.そこで,疑似$\mathit{tf}$を0.0とし属性候補を保留しておき,後述の属性関連度を算出し,属性としての採否を決定することで,最終的な属性として付与することとする.本論文では,直接意味語のみならず,間接意味語も含めて,概念の属性とすることを目的としている.複合語を形成する語と語の間には間接意味語の関係となる場合が多いと考えられる.ここで,複合語とは,「携帯電話」などのように,複数の自立語(名詞)が複合することによって,新たな意味を持つ語のことである.新聞記事内に出現する語のうち,本論文では,特に隣接する語と語の間には関係があると考え,記事内で隣接して出現する語と語を複合語として定義した.新聞記事から取得された複合語はおよそ46万語ある.概念と属性候補が複合語の関係にある場合,共起の条件のみを満たす「概念—属性」の関係よりも信頼性があるものとし疑似$\mathit{tf}$値を0.5としている.同様に,概念と属性候補の見出し語の表記が部分的に一致している場合,たとえば,「車と自動車」のように,「車」という表記が一致しており,これらの語と語の間には関連があると考えられる.そのため,疑似$\mathit{tf}$値を0.5としている.さらに,国語辞書における自立語とその語義説明文の間には,語と語がどのような論理関係を持っているかが記されている場合が多い.そこで,図\ref{fig:kankei}に示す関係を用いて,語と語の明確な論理関係を抽出し,「概念—属性」の関係が国語辞書において論理関係を取得できる場合,疑似$\mathit{tf}$値を1.0としている.これは,複合語や表記の部分的な一致とは異なり,国語辞書の情報から関係が明確となるため,概念に対して確からしい属性であると判断し,疑似$\mathit{tf}$値を付与している.また,国語辞書の記載情報については,「対」と記されている見出し語との関係は反意語,「類」と記されている見出し語との関係は類義語,また,体言止めとなっている場合は見出し語と同義語,「〜の略」と記されている場合は,見出し語と同義であるとした.\begin{figure}[t]\begin{center}\includegraphics{14-5ia2f5.eps}\caption{同義・類義・反意の語彙説明文}\label{fig:kankei}\end{center}\end{figure}国語辞書の記載情報と同様に,シソーラスにおいて上位・下位・仲間(親ノードが同じ)(図\ref{fig:shoki-shinraido})関係にある「概念—属性」の関係も,人手で作成された信頼できる情報であるとし,疑似$\mathit{tf}$値を1.0としている.\subsubsection{$\mathit{idf}$の考え方に基づく概念価値}概念価値とは,概念ベースに定義されている各概念の概念ベース内における重要性を示す値である.各概念は,$n$次の属性連鎖集合によって定義されている.各概念を特徴づける属性は,各概念の語義説明文や同一の新聞記事に共に出現する語である.それら属性はすべて概念ベースにおいて定義されているため,さらにそれらの属性の語義説明文や新聞記事に共出現する語を取得することが可能である.したがって,$n$次の属性集合を仮想的な文書集合として捉えることができる.本論文では,概念ベースを仮想的な文書空間と捉え概念価値を算出し,概念ベースに定義される各概念に対する属性の重みとして付与する手法を提案する.概念ベースの特性上,多数の概念の属性として付与されているような概念は参照頻度が高く,各概念を特徴づける上で価値が低いと考えられる.そのため,対数文書頻度である$\mathit{idf}$の考え方に基づき,少数の概念にしか属性として付与されていない概念の価値を重要視することを目的としている.概念ベースにおける概念価値として,情報検索などの分野で広く利用されている$\mathit{tf}\cdot\mathit{idf}$に基づく概念価値算出手法について述べる.本論文では特に,$\mathit{idf}$の考え方を基に概念価値の算出を行う.$\mathit{idf}$とは,稀に出現する語は重要であるという観点に基づいた情報価値である.一般に$\mathit{idf}$は以下の式によって算出される.\begin{equation}\mathit{idf}(t)=\log\frac{N}{\mathit{df}(t)}\end{equation}ここで,$N$は検索対象となる文書集合中の全文書数,$\mathit{df}(t)$は語$t$が出現する文書数である.$\mathit{idf}$は,ある語が少数の文書にしか出現しない場合において大きな値となり,全ての文書に出現するような語は最小の値となる.一般に検索対象となる文書数は膨大であり,対数をとることでその分布を抑制している.本論文で対象としている概念ベースは,$n$次元の属性連鎖集合で定義されており,見出し語を起点とし,$n$次元までの属性集合を取得することが可能である.したがって,概念ベースに定義される全見出し語数(約12万語)を仮想的な全文書数とし,ある概念$A$が12万語の概念の中で属性として参照されている見出し語数を,仮想的な概念$A$の出現文書数とみなすことができる.したがって,概念ベースにおける擬似的な$\mathit{idf}$を以下の式によって定義する.\begin{equation}V\_\mathit{CB}_{(n)}(t)=\log_2\frac{N_{\mathit{all}}}{\mathit{df}(t)}\label{idf-base}\end{equation}このとき,$N_{\mathit{all}}$は概念ベースに定義される全概念数である約12万,$\mathit{df}(t)$は,語$t$を$n$次属性内に属性として保持している概念数である.なお,一般に$\mathit{idf}$を算出する際の抑制関数として常用対数が用いられている.これは,情報検索やテキストマイニングなどで対象とする文書数が数億から数十億といった巨大な規模の文書をソースとしているためである.一方,本論文で扱う概念ベースは約12万語の仮想的な文書集合であり,常用対数を用いることによって抑制幅が大きくなり各値の分布が高密度に圧縮されるため,対数の底は2としている.このように,$\mathit{idf}$の考え方に基づき,$n$次の属性集合を用いて擬似的に算出する概念価値を$V\_\mathit{CB}_{(n)}$と定義する.\subsubsection{初期属性重みの付与}\label{shoki-omomi}本論文では,属性関連度を用いて各概念に付与された属性に重みを算出する手法を提案する.そのため,属性関連度を算出するために,各概念に付与される属性には属性重みが付与されている必要がある.属性関連度を算出するための初期属性重みとして,疑似$\mathit{tf}$と$V\_\mathit{CB}_{(1)}$による重み付けを行う(式\ref{shoki-zokuseiomomi}).\begin{equation}w(A,a)=p\_\mathit{tf}(A,a)\timesV\_\mathit{CB}_{(1)}(a)\label{shoki-zokuseiomomi}\end{equation}$w(A,a)$は概念$A$に対する属性候補$a$の属性重み,$p\_\mathit{tf}(A,a)$は概念$A$に対する属性候補$a$の疑似$\mathit{tf}$値,$V\_\mathit{CB}_{(1)}(a)$は属性候補を新聞記事から収集し,疑似$\mathit{tf}$を各概念に対する属性候補に付与した後に,疑似$\mathit{tf}$値が0.0となった属性候補を除去した概念ベースでの一次属性を用いた$a$の概念価値である.\subsection{属性関連度}\label{kinji-shinraido}概念ベースに定義される任意の概念と概念の関連度を概念関連度と呼ぶことに対し,「概念—属性」の関係にある概念同士の概念関連度を特に属性関連度($\mathit{AR}$)と呼ぶ.属性関連度は概念関連度と同様に,各概念に付与される属性に対して属性重みが付与されることにより算出される.各属性に重みが付与されていない限りは属性関連度を算出できないため,\ref{shoki-omomi}節に述べた手法により重みを付与し,概念$A$に対する属性$a_i$の属性関連度を算出している(式\ref{zokusei-kanrendo}).\begin{equation}\mathit{AR}(A,a_i)=\mathit{MR}(A,a_i)\label{zokusei-kanrendo}\end{equation}また,属性関連度を用いて新聞記事から拡張した概念ベースの属性の精錬を行う.新聞記事から「概念—属性」の関係を抽出した場合,国語辞書など定義的な情報源から抽出する場合と比較すると,属性としての信頼性が低下する.そのため,初期属性重みを基に,属性を精錬する必要がある.新聞記事からの属性拡張を行っているが,前提条件として基本概念ベースを使用しているため,精錬に際しては,図\ref{fig:270-590}に示した500組の$X$-$\mathit{ABC}$評価用データを用いて,基準概念$X$に対し無関連の概念である概念$C$の平均値,すなわち基本概念ベースにおける$\mathit{MR}(X,C)$の平均値(0.02)を閾値とし,属性を選別している.このとき,拡張した概念ベースは,概念総数約12万,属性総数約250万,各概念に対し平均約30属性が付与された.\subsection{属性関連度と概念価値に基づく重み付与手法}\label{shin-omomi}$\mathit{tf}\cdot\mathit{idf}$法では,ある限られた領域内に頻出する語は重要であるという考え方に基づく$\mathit{tf}$と,全文書集合において稀に出現する語は重要であるという考え方に基づく$\mathit{idf}$を乗じることによって各キーワードの重みを算出している.一方,本論文では,$\mathit{idf}$の考え方に基づく概念価値を定量的に算出することは可能であるが,出現頻度の情報に基づく$\mathit{tf}$を算出することができない.そのため,疑似$\mathit{tf}$を付与することにより,$\mathit{tf}\cdot\mathit{idf}$法に準拠した手法による重み付けを行っている.しかし,疑似$\mathit{tf}$は3段階の値であり,詳細な重みを算出できているとは言い難い.そこで,疑似$\mathit{tf}$と概念価値によって重みを付与した概念ベースを用いて属性関連度を算出し,「概念—属性」の関連の強さが大きいほどその属性は概念にとって重要な属性であると考え,属性関連度($\mathit{AR}$)と概念価値($V\_\mathit{CB}_{(n)}$)を乗じた値を重みとして付与する.具体的には,概念$A$の属性$a_i$の重み$u_i$を以下の式で定義する.\begin{equation}u_i=\mathit{AR}(A,a_i)\timesV\_\mathit{CB}_{(n)}(a_i)\end{equation}本論文で提案する属性関連度と概念価値による重み付与手法では,\ref{kihon-make}節で作成された概念ベースへの実験による重み付与手法とは異なり,各属性の重みが離散値ではなく連続値をとることに特徴がある.
\section{$X$-$\mathit{ABC}$関連度評価法を用いた評価実験}
\ref{hyouka}節に述べた$X$-$\mathit{ABC}$関連度評価法を用いて,拡張した概念ベースの性能評価を行った.評価用データとして,多数の$X$-$\mathit{ABC}$評価用データを準備し,3名の被験者により目視評価を行い,3名全員が正しいと判定した1780組の$X$-$\mathit{ABC}$評価用データを採用した.実験に際しては,初期属性重みを付与した概念ベースに対し,属性関連度と概念価値を$V\_\mathit{CB}_{(1)}\simV\_\mathit{CB}_{(4)}$まで展開した値をそれぞれ重みとして付与した概念ベースの性能比較を行った.また,本論文では属性関連度と概念価値を乗じ,重みを付与するため,再帰的に重みを算出することが可能であり,再帰的に重みを付与した場合のC平均順序正解率の動向を調査した.最後に,基本概念ベースと拡張した概念ベースの性能比較として,500組の$X$-$\mathit{ABC}$評価用データと1780組の$X$-$\mathit{ABC}$評価用データを用いて性能評価を行った.\subsection{属性関連度と概念価値による重み付与手法の検証}\ref{shoki-omomi}節において作成した初期属性重みを付与した概念ベースと,\ref{shin-omomi}節において作成した概念ベースの性能比較を行った.初期属性重みに関しては,疑似$\mathit{tf}$が0.0となった属性候補を除去し,残った属性候補のみを用いて概念価値を算出し,重みとして付与している(式\ref{idf-base}).また,属性関連度と概念価値による重み付与手法では,初期属性重みを用いて算出した属性関連度を基に,属性関連度が$0.02$に満たない属性候補を除去し,1次属性から算出した概念価値から4次属性まで概念ベースを属性連鎖によって展開し算出した概念価値を用いて重みを付与した概念ベースを構築した.図\ref{fig:shoki-kanrendo-comp}にそれぞれのC平均順序正解率を示す.\begin{figure}[t]\begin{center}\includegraphics{14-5ia2f6.eps}\caption{初期属性重みと属性関連度$\times$概念価値}\label{fig:shoki-kanrendo-comp}\end{center}\end{figure}図\ref{fig:shoki-kanrendo-comp}から,雑音属性の除去を行った後に,2次属性まで各概念を属性連鎖によって展開した際に取得される概念価値$V\_\mathit{CB}_{(2)}$と属性関連度を乗じ,重みを付与した場合が最高となり,71.2\%となった.以降の検証では,属性関連度と概念価値$V\_\mathit{CB}_{(2)}$を乗じた重みを付与した概念ベースを拡張概念ベースと定義し,拡張概念ベースを用いて実験を行った.\subsection{属性関連度を繰り返し算出した重み付与手法の検証}属性関連度と概念価値に基づく重み付与手法は,算出された重みを基に再度属性関連度を算出することによって再帰的に重みを付与することが可能である.すなわち,拡張概念ベースに付与された重みを基に属性関連度を算出し,概念価値を乗じた重みを付与することができる.このような操作を繰り返すことによってC平均順序正解率にどのような変動が見られるかを調査した.図\ref{reverse}に結果を示す.\begin{figure}[b]\begin{center}\includegraphics{14-5ia2f7.eps}\caption{再帰的に重みを付与した場合のC平均順序正解率}\label{reverse}\end{center}\end{figure}図\ref{reverse}では左から順に拡張概念ベースを用いて属性関連度を算出し概念価値を乗じた重みを付与した概念ベース(first),firstを用いて属性関連度を算出し概念価値を乗じた重みを付与した概念ベース(second)…,と順に4回目の繰り返しまで示している.図\ref{reverse}から,再帰的に重みを付与することは可能であるが,徐々にC平均順序正解率が低下することが分かる.すなわち,再帰的に重みを付与しても,C平均順序正解率の向上は見込めないことが分かる.\subsection{基本概念ベースと拡張概念ベースの性能比較}本論文では,新聞記事から概念ベースを拡張する手法について論じているが,拡張のベースとなる基本概念ベースに定義される概念について,拡張することによって基本概念ベース部分の性能にどのような変化が見られるかを検証した.検証には基本概念ベースに定義されている概念のみで構成された$X$-$\mathit{ABC}$評価用データ500組と基本概念ベースに未定義の概念も含む1780組の$X$-$\mathit{ABC}$評価用データを用いた.実験結果を図\ref{kihon-kakucho}に示す.\begin{figure}[b]\begin{center}\includegraphics{14-5ia2f8.eps}\caption{基本概念ベースと拡張概念ベースの性能比較}\label{kihon-kakucho}\end{center}\end{figure}図\ref{kihon-kakucho}から,基本概念ベースに定義されている概念について54.8\%から73.2\%へC平均順序正解率を向上させたことが分かる.また,基本概念ベースに定義されていない概念も含む$X$-$\mathit{ABC}$評価用データについては,基本概念ベースでは概念関連度を正しく算出することができない概念について,拡張概念ベースによって対応を可能としたため,対応語彙数の拡張に成功していることが分かる.基本概念ベースでは,1780組の$X$-$\mathit{ABC}$評価用データに対応できずC平均順序正解率が7.4\%となり,拡張によって対応語彙数が拡大したことによる有効性が示されている.\subsection{考察}検証実験により,基本概念ベースの性能を大幅に向上し,対応できる語彙数を拡張しても,拡張概念ベースの基本概念ベース相当部分における性能もまた,元々基本概念ベースに定義されていた概念と同等の性能で概念関連度を算出することが可能となったと言える.すなわち,本論文で提案した手法を用いて基本概念ベースを新聞記事によって拡張し,属性関連度と概念価値を用いた重み付与手法によって構築した拡張概念ベースは有効であることが示されたと言える.
\section{おわりに}
人間とコンピュータの自然な会話を実現するにはコンピュータに大規模の語について,類義語のみならず幅広い関連語を連想できる機能を持たせることが必須となる.この連想機能により,会話において,知らない語を知っている語に置き換え,文の意味を理解し,さらに入力文に含まれる語から応答にふさわしい語を想起することにより,自然な応答文を作り出すことが可能となる.本論文では,12万語を超える大規模概念ベースを構築するため,電子化辞書の語義説明文からだけではなく,電子化新聞等,対象語(概念)を含む一般的な情報文から多数の属性候補語を収集し,それらを属性関連度と概念価値に基づく属性重み付与法により精錬し適切な属性語を選出する方式を提案した.この方式では,流行語など,電子化国語辞書にも掲載されていない新概念についてもWEBのホームページを使い逐次拡張が可能となる.また,提案方式で構築した大規模概念ベース(12万語)を用いた関連度評価実験により,拡張された概念に関しても4万語規模概念ベース以上の性能が得られることを示した.ただし,提案手法では固有名詞と用言に関しては十分な属性を獲得することが出来ず,今後の課題として対応が必要である.固有名詞については,概念ベースとは別に,人名辞典,企業名辞典,地名辞典などの辞典類の知識ベース化による対処,また,用言については,大規模な格フレーム辞書\cite{kawahara2005,kawahara2006}の利用による対処を考えている.\acknowledgment本研究は文部科学省からの補助を受けた同志社大学の学術フロンティア研究プロジェクトにおける研究の一環として行った.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{広瀬\JBA渡部\JBA河岡}{広瀬\Jetal}{2002}]{hirose2002}広瀬幹規\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ概念間ルールと属性としての出現頻度を考慮した概念ベースの自動精錬手法\JBCQ\\newblock信学技報,電子情報通信学会,NLC2001-93,109--116.\bibitem[\protect\BCAY{笠原\JBA松澤\JBA石川}{笠原\Jetal}{1997}]{kasahara1997}笠原要\JBA松澤和光\JBA石川勉\BBOP1997\BBCP.\newblock\JBOQ国語辞書を利用した日常語の類似性判別\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf38}(7),\mbox{\BPGS\1272--1283}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2005}]{kawahara2005}河原大輔\JBA黒橋禎夫\BBOP2005\BBCP.\newblock\JBOQ格フレーム辞書の漸次的自動構築\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\109--131}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2006}]{kawahara2006}河原大輔\JBA黒橋禎夫\BBOP2006\BBCP.\newblock\JBOQ高性能計算環境を用いたWebからの大規模格フレーム構築\JBCQ\\newblock自然言語処理研究会,情報処理学会.\bibitem[\protect\BCAY{川島\JBA石川}{川島\JBA石川}{2005}]{Kawashima2005}川島貴広\JBA石川勉\BBOP2005\BBCP.\newblock\JBOQ言葉の意味の類似性判別に関するシソーラスと概念ベースの性能評価\JBCQ\\newblock\Jem{人工知能学会論文誌,20巻5号B},\mbox{\BPGS\326--336}.\bibitem[\protect\BCAY{小島\JBA渡部\JBA河岡}{小島\Jetal}{2002}]{kojima2004}小島一秀\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ連想システムのための概念ベース構成法-属性信頼度の考え方に基づく属性重みの決定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(5),\mbox{\BPGS\93--110}.\bibitem[\protect\BCAY{小島\JBA渡部\JBA河岡}{小島\Jetal}{2004}]{kojima2004a}小島一秀\JBA渡部広一\JBA河岡司\BBOP2004\BBCP.\newblock\JBOQ連想システムのための概念ベース構成法-語間の論理関係を用いた属性拡張\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(3),\mbox{\BPGS\21--38}.\bibitem[\protect\BCAY{徳永}{徳永}{1999}]{tokunaga1999}徳永健伸\JED\\BBOP1999\BBCP.\newblock\Jem{情報検索と言語処理}.\newblock東京大学出版会.\bibitem[\protect\BCAY{渡部\JBA河岡}{渡部\JBA河岡}{2001}]{watabe2001}渡部広一\JBA河岡司\BBOP2001\BBCP.\newblock\JBOQ常識的判断のための概念間の関連度評価モデル\JBCQ\\newblock\Jem{自然言語処理},{\Bbf8}(2),\mbox{\BPGS\39--54}.\bibitem[\protect\BCAY{渡部\JBA奥村\JBA河岡}{渡部\Jetal}{2006}]{watabe2006}渡部広一\JBA奥村紀之\JBA河岡司\BBOP2006\BBCP.\newblock\JBOQ概念の意味属性と共起情報を用いた関連度計算方式\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(1),\mbox{\BPGS\53--74}.\bibitem[\protect\BCAY{吉村\JBA土屋\JBA渡部\JBA河岡}{吉村\Jetal}{2006}]{yoshimura2006}吉村枝里子\JBA土屋誠司\JBA渡部広一\JBA河岡司\BBOP2006\BBCP.\newblock\JBOQ連想知識メカニズムを用いた挨拶文の自動拡張方式\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(1),\mbox{\BPGS\117--141}.\end{thebibliography}\begin{biography}\bioauthor{奥村紀之}{2003年同志社大学工学部知識工学科卒業.2005年同志社大学大学院工学研究科知識工学専攻博士前期課程修了.同大学院工学研究科知識工学専攻博士後期課程在学.知識情報処理の研究に従事.言語処理学会会員.}\bioauthor{土屋誠司}{2000年同志社大学工学部知識工学科卒業.2002年同志社大学大学院工学研究科知識工学専攻博士前期課程修了.同年,三洋電機株式会社入社.2007年同志社大学大学院工学研究科知識工学専攻博士後期課程修了.同年,徳島大学大学院ソシオテクノサイエンス研究部助教.工学博士.主に,知識処理,概念処理,意味解釈の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.工学博士.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会各会員.}\bioauthor{河岡司}{1966年大阪大学工学部通信工学科卒業.1968年同大学院修士課程修了.同年,日本電信電話公社入社,情報通信網研究所知識処理研究部長,NTTコミュニケーション科学研究所所長を経て,現在同志社大学工学部教授.工学博士.主にコンピュータネットワーク,知識情報処理の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,IEEE(CS)各会員.}\end{biography}\biodate\end{document}
| |
V26N02-07 | \section{はじめに}
\label{sect:introduction}日本語の構文解析は,標準的に文節間の依存関係により構成される構造「文節依存構造」(あるいは,文節係り受け構造)に基づいて行われてきた.特に,CaboCha~\cite{Kudo:2002:CoNLL}やKNP~\cite{Kawahara:2006:HLTNAACL}に代表される文節依存構造に基づく解析器は高い解析精度を実現して広範に利用され,日本語の自然言語処理全般の発展に大きく寄与してきた.しかしながら,文節依存構造による構文構造の表現には,2つの問題点があることが指摘されている~\cite{Butler:2012:ANLP,Tanaka:2013:SPMRL}.一つは依存構造の単位が構文の構成素(constituent)\footnote{本論文では,名詞句,動詞句などの「句」の単位を指す.}と整合しないこと,もう一つは格関係\footnote{「誰が」「何を」「何に」と動詞などで表される名詞と述語の関係.}や連体修飾節の種別\footnote{名詞を修飾する節と名詞との関係の種類を示す.例えば「昨日見た-夢」では,「夢」は「見る」の対象になっているが,「月に行った-夢」では,「月に行った」は「夢」の内容になっている,など関係の違いを表す.}などの統語情報(以下,文法機能情報と呼ぶ)を依存構造の中に埋め込むことが困難なことである.これらの問題点は,述語項構造解析などの構文構造と密接な関係を持つ処理や,機械翻訳における事前並べ替え~\cite{Hoshino:2019:IPSJ}や多言語間の質問応答など他の言語との対応付けが必要な処理で,不都合を生じる要因となる.本論文では,構文の構成素と整合する単位に基づき,文法機能情報を埋め込むことが可能なことを特徴とする単語依存構造解析に基づく構文解析を提案する.以下では,文節依存構造解析の2つの問題点を,述語項構造解析との関係を例に具体的に説明し,我々の解決手段の概要について述べる.一つ目の依存構造の単位と構文の構成素との不整合は,構文解析結果の部分構造(一つ以上の文節が結合した単位)が,名詞句や動詞句などの構文の構成素と必ずしも一致しないということである.例えば,次の文(\ref{ex-coordination-ja1})のように文節を単位として表現された文から述語項構造を抽出することを考える.\begin{exe}\ex\label{ex-coordination-ja1}\gll$_{b1}$彼が$\mid_{b2}$飲んだ$\mid_{b3}$ワインと$\mid_{b4}$酒の$\mid_{b5}$リスト\\{}\textit{he}{\scriptsizeNOM}{}\textit{drink}{\scriptsizePAST}{}\textit{wine}{\scriptsizeCONJ}{}\textit{sake}{\scriptsizeGEN}{}\textit{list}\\\end{exe}\begin{exe}\ex\label{ex-coordination-ja1-const}\lb{NP}\lb{NP}彼が飲んだ\lb{NP}ワインと酒\rb{}\rb{}のリスト\rb{}\\\end{exe}文(\ref{ex-coordination-ja1})の文節依存構造には,4つの依存構造(係り受け構造)—並列構造を含む依存構造$b3$--$b4$と,並列構造を含まない依存構造$b1$--$b2$,$b2$--$b4$と$b4$--$b5$—が存在している.また,文(\ref{ex-coordination-ja1})には,文(\ref{ex-coordination-ja1-const})で表されるように,「ワインと酒」「彼が飲んだワインと酒」「彼が飲んだワインと酒のリスト」の3つの名詞句が階層的に含まれている.しかし,文(\ref{ex-coordination-ja1})の文節を結合してできる単位は,最初の2つの名詞句のどちらとも一致しない.この結果として,文(\ref{ex-coordination-ja1})の文節依存構造から,述語項構造を抽出しようとしたとき,述語「飲んだ」の項として並列構造を含む名詞句である「ワインと酒」を,直接的に取り出すことができない.この不一致は,他の言語との対応付けを行うときにも同様の問題を生じる.例えば,文(\ref{ex-coordination-ja1})と対訳関係にある文(\ref{ex-coordination-en})において,並列構造を含む名詞句``wineandsake''に対応付けるべき名詞句「ワインと酒」を,直接取り出すことができない.\begin{exe}\ex\label{ex-coordination-en}\lb{NP}alistof\lb{NP}\lb{NP}wineandsake\rb{}hedrank\rb{}\rb{}\\\end{exe}もう一つの問題点は,文節依存構造では,統語的に異なる構造を区別するための情報を付加することが困難な点である.その典型的な例として,内の関係の連体修飾節(関係節)と外の関係の連体修飾節(内容節や補充節)の区別がある.文(\ref{ex-coordination-ja1})は主名詞句(被修飾名詞句)となる「ワインと酒」が述語「飲む」の対格の格関係を持つ関係節\footnote{「ワインや酒」-を-「飲む」という関係を持つ.}を含み,文(\ref{ex-gapless})は主名詞句「理由と事情」が述語との格関係がない外の関係の連体修飾節(内容節)\footnote{「飲む」-という-「理由や事情」という関係を持つ.}を含んでいる.\begin{exe}\ex\label{ex-gapless}\glln$_{b1}$彼が$\mid_{b2}$飲んだ$\mid_{b3}$理由と$\mid_{b4}$事情の$\mid_{b5}$説明\\{}he{\scriptsizeNOM}{}drink{\scriptsizePAST}{}reason{\scriptsizeCONJ}{}situation{\scriptsizeGEN}{}explanation\\\end{exe}述語項構造を抽出する観点では,文(\ref{ex-coordination-ja1})の名詞句「ワインと酒」は,述語「飲む」の項として抽出するが,文(\ref{ex-gapless})の名詞句「理由と事情」は項として抽出しない.このような連体修飾節の違いを区別するためには,依存構造に文法機能情報を付加してそれぞれの統語的な機能を表示することが考えられる.しかし,文節依存構造の場合,主名詞句と文節の結合単位が一致しないため,文(\ref{ex-coordination-ja1}),文(\ref{ex-gapless})それぞれの文節$b2$と$b4$の間の依存構造に文法機能情報を付加しても,述語と主名詞句の間の関係を適切に表示しているとは言い難い.我々は,以上のような従来の文節依存構造における問題点を解決することを目的として,日本語において,構文の構成素を適切に扱い文法機能情報を明示的に扱うことのできる単語単位の依存構造による構文解析を提案する.単語依存構造では,あらかじめ文節のような固定したチャンクを依存構造の単位として設定するのではなく,全ての関係を単語単位の結合した構造として表現することにより,構文構造を柔軟に表現することを可能にする.構文の構成素との整合性を考慮するには,句構造による構文解析が有力な選択肢と考えられるが,日本語の柔軟な語順への対応のしやすさや,文節依存構造のアノテーションからの移行のしやすさの点から,依存構造を採用した.ただし,依存構造の設計は,構文の構成素に基づいた構造および文法機能情報を表している句のラベル(非終端記号)を持つことを特徴とする句構造を規範として,句構造の構造・情報を依存構造に変換する形で行った.本論文で提案する単語依存構造では,文(\ref{ex-coordination-ja1})に含まれる「ワインと酒」という並列構造は,\Fig{fig:ex-coordination-conjunction}の上の例のように表現する\footnote{本論文では,UniversalDependencies\cite{McDonald:2013:ACL,Nivre:2015:CICLing}やStanfordtypeddependencies\cite{DeMarneffe:2014:LREC}と同様に,主辞を起点として従属部に向かう方向の矢印により依存構造を表す.}$^{,}$\footnote{後述するように6種類の依存構造の構成の仕方(スキーマ)を提案する.}.すなわち,「ワイン」と「酒」という単語からなる依存構造に対して文法機能情報を表すラベル(以下,文法機能タイプ)「並列」を付加することにより,それぞれの単語を主辞とする構文要素からなる並列構造が存在することを示している.また,「ワインと酒」という名詞句は,「ワイン」「と」「酒」の3語から構成される依存構造の塊と対応付けることができる.また,文(\ref{ex-coordination-ja1})と文(\ref{ex-gapless})の区別は,\Fig{fig:ex-coordination-conjunction}のように,主名詞の主辞となる単語と連体修飾節の主辞となる述語の間の関係に,「関係節」や「内容節」のような文法機能タイプを付加することで実現できる.\begin{figure}[b]\begin{center}\includegraphics{26-2ia7f1.eps}\end{center}\hangcaption{単語単位の依存構造による構文構造の表示例.上:並列の名詞句と内の関係の連体修飾節(関係節)を含む文(\ref{ex-coordination-ja1}),下:並列の名詞句と外の関係の連体修飾節(内容節)を含む文(\ref{ex-gapless}).}\label{fig:ex-coordination-conjunction}\end{figure}日本語の単語依存構造には他に,多言語間で共通の構文構造表示を目指したUniversalDependencies\footnote{http://universaldependencies.github.io/docs/}(以下,UD)\cite{McDonald:2013:ACL,DeMarneffe:2014:LREC,Nivre:2015:CICLing}の日本語仕様\cite{Kanayama:2015:ANLP,Tanaka:2016:LREC,Asahara:2019:JNLP}がある.UDの主目的は多言語間での仕様の共通化であるため,各言語の特徴的な言語現象に対するアノテーションは捨象される傾向があり,例に挙げた関係節と内容節の区別も行わない.本研究は,UDへの対応は視野に入れつつも,主眼は日本語において重要と考えられる文法機能情報を表示可能な単語依存構造を実現することである.単語依存構造による構文解析は文節依存構造の課題を解決できる一方,構文解析器により自動解析を行う観点で見ると,文節依存構造と比較して依存関係を結ぶ組合せの数が増大するため,解析精度への影響が懸念される.また,日本語の単語依存構造としてどのような構造が適切であるか,すなわち依存構造の主辞をどのように決定すれば良いのかは自明ではない.森らは,単語間に依存構造を付与した大規模なコーパスを構築して,構文解析器の学習データとして適用した結果として,90\%以上の精度が得られたことを報告している~\cite{Mori:2014:LREC}.森らの依存構造は,文節依存構造と同様に後方の語が主辞となる単一方向の依存構造から構成されるが,本論文で提案する単語依存構造のように,両方向の依存構造が含まれる場合の解析精度への影響を検証する必要がある.また,依存構造に付与された文法機能タイプが解析器によりどの程度再現可能であるのかも確認する必要がある.以下,\Sect{sect:relatedwork}で関連する研究について述べ,\Sect{sect:design-of-typed-dependencies}で日本語の文法機能タイプ付き単語依存構造の設計について説明し,\Sect{sect:corpus}で実際に行ったコーパスの構築について述べる.\Sect{sect:evaluation}では依存構造の単位や構造の異なる単語依存構造データから構文解析モデルを構築し,それらの違いが構文解析の精度に与える影響や,文法機能タイプから得られる述語項構造情報の精度について評価実験を行った結果について述べる.\Sect{sect:problems}で単語依存構造において検討すべき課題について述べる.
\section{関連研究}
\label{sect:relatedwork}日本語の構文構造に文法機能情報を表示する研究としては,語彙化文法に基づくものがある.主辞駆動型句構造文法(Head-drivenPhraseStructureGrammar,HPSG)~\cite{Sag:2003}がその代表的なものであり,理論的に精緻な日本語の文法JPSG(JapanesePhraseStructureGrammar)を提案したGunjiらの研究\cite{Gunji:1987},話し言葉を対象に実用的な文法を構築して解析器を実現したNagataらの研究~\cite{Nagata:1993:IEICE},広い言語現象をカバーし,意味表現MRS(MinimalRecursionSemantics)~\cite{Copestake:2005:LRC}と統合した文法JACYを構築したSiegelらの研究~\cite{Siegel:2002:WS},JACYに基づいて大規模なツリーバンクおよび構文解析器のモデルを構築したBondらの研究~\cite{Bond:2008:LRE}などがある.HPSGの他に,日本語の語彙機能文法(LexicalFunctionGrammar,LFG)\cite{Kaplan:1982:MRGR}を構築した増市らの研究\cite{Masuichi:2003:JNLP},日本語の組合せ範疇文法(CombinatoryCategorialGrammar,CCG)を提案した戸次の研究~\cite{Bekki:2010},その文法に基づいたツリーバンクを既存の文節依存構造コーパスと述語項構造データから構築したUematsuらの研究~\cite{Uematsu:2013:ACL}などがある.これらのアプローチでは,統語情報,意味情報,語用情報等を統合した精緻な情報を扱えることが大きな利点であるが,解析は基本的に単一化に基づく方法で行われ,高い計算コストを必要とする.また,文節依存構造に比較するとアノテーションコストが高いため,大規模なデータが構築しにくく,また対象ドメインに対して新たにコーパスを用意するのも容易ではない.語彙化文法に基づく方法に比較して計算コスト,アノテーションコスト両面で軽量で,かつ文法機能情報を活用できる解析の枠組みとして,文脈自由文法(ContextFreeGrammar,CFG)によるもの,依存構造文法によるものがある.日本語のCFGを構築して解析器を実装,評価したものとしては,Noroらの研究~\cite{Noro:2005:SYM}があるが,彼らの研究では前節に挙げたような,連体修飾節の区別や述語項構造の情報は扱っていない.Tanakaらは,非終端記号としてこれらの文法機能情報を組み込んだ句構造木ツリーバンクを構築して確率自由文脈文法(ProbablisticContextFreeGrammar,PCFG)の構文解析モデルを評価した結果,文節依存構造解析相当の精度を維持しながら文法機能タイプを扱えることを報告している~\cite{Tanaka:2013:SPMRL}.また,Butlerらは,Penn通時コーパスの規約に従い,より詳細な句構造コーパスKeyakiTreebankを構築し\cite{Butler:2012:WS},PCFGによる構文解析を行った結果についても報告している\cite{Fang:2014:ANLP}.しかし,日本語の句構造木の構築は,従来の文節依存構造の構築よりも難易度が高いため,ドメイン適用のためのデータを構築する障壁となる可能性がある.単語依存構造は,アノテーションを行う観点からすると同じ依存構造である文節依存構造に近く,句構造木の構築に比較して低いアノテーションコストで様々なドメインのデータが構築しやすいと考えられる.日本語の単語単位の依存構造解析については,森らが,現代日本語書き言葉均衡コーパス\cite{Maekawa:2014:LRE,Den:2008:LREC}で定義されている短単位をベースとして\footnote{動詞,形容詞等用言は,短単位を語基と活用語尾でさらに分割している.},大規模なコーパスを構築している\cite{Mori:2014:LREC}.彼らのコーパスでは単語間の文法機能タイプのアノテーションはなく,文法機能情報を獲得するためには別のデータを準備することが必要になる.他に,Uchimotoらは,日本語の話し言葉を対象として,主に言い淀みやフィラー等の文節依存構造ではうまく表現が行えない現象に対して,単語間の依存構造を定義しているが~\cite{Uchimoto:2008:LREC},詳細な文法機能を区別するための仕組みは考慮されていない.文法機能タイプを持つ単語依存構造で構文構造を表現する方法は,英語等では広く使われており,中でもStanfordtypeddependencies(以下,SD)\cite{DeMarneffe:2008:COLINGWS}が代表的なアノテーションスキーマとなっている.日本語の文法機能タイプは,標準的な文節依存構造では扱われていないため,我々はSDで用いられている文法機能タイプを参考にして新たに定めた.ただし,述語項構造情報を抽出するために必要になる情報など日本語の構文構造を表現するのに不足している情報があるため,日本語の文法的特徴が付与されている句構造木の非終端記号を変換するという方針により,必要な情報を表現できるように拡張した\footnote{例えば,「内の関係」と「外の関係」の連体修飾節の区別を表現できるように文法機能タイプを細分化した.}.句構造は各部分木が構文の構成素と一致することからも,構造の変換元とすることに適している.本論文では,提案する単語依存構造に基づく最初のコーパスの構築を,既存コーパスの句構造木に付与された情報を単語依存構造に変換することで行い,変換された構文木を学習データとすることで解析器を実現した.\Sect{sect:introduction}で述べた多言語横断で共通の構文構造表示を目指すスキーマであるUDは,SDを拡張したものであり,日本語UDの仕様も策定されコーパスの構築が行われている(金山他2015;Tanakaetal.2016;浅原他2019).\nocite{Kanayama:2015:ANLP,Tanaka:2016:LREC,Asahara:2019:JNLP}前述したようにUDでは,言語特有の文法機能情報はアノテーションされない傾向があるが,本研究の日本語の単語依存構造の設計を,UDに必要な情報を包含する形で行うことにより,我々の単語依存構造をUDに変換することが可能であると考える.例えば,文法機能タイプに関しては,\Sect{sect:dependency-type}に述べるようにUDより細かいタイプを採用しており,タイプを統合することによりUDへの対応付けが可能である.
\section{日本語文法機能タイプ付き依存構造の設計}
\label{sect:design-of-typed-dependencies}本節では,(a)構文の構成素と整合する部分構造から構成される,(b)日本語の文法機能情報を表す文法機能タイプを持つ,という2点を満たす日本語の文法機能タイプ付き単語依存構造の設計について述べる.設計は,この2つの条件を満たしている句構造を規範として,木の構造と各句の非終端記号が持つ文法機能情報を単語依存構造へ変換するという方針に基づいて行った.句構造は,Tanakaらの句構造ツリーバンク~\cite{Tanaka:2013:SPMRL}を用いた.その方針の上で,具体的に(1)依存構造を構成する単位を何にするか,(2)日本語の構文構造に適切な依存構造をどのように定義するか,(3)どのような文法機能タイプ(依存関係タイプ)を定義するか,の3点を定める必要がある.我々は,(1)を後述する長単位に,(2)は句構造からの変換規則の違いにより6種類の依存構造スキーマを考え,(3)を句構造の非終端記号から変換した35種類の文法機能タイプに定めた.\Sect{sect:evaluation}では,本節で定めた依存構造の単位,依存構造スキーマの解析精度に与える影響および,文法機能タイプの有効性を調べるために行った評価実験について述べる.以降では,(1)から(3)のそれぞれについて述べる.\subsection{依存構造の単位}\label{sect:parsingunit}依存構造の構成する単位を「単語」とする場合,その単語の定義を何にするかは,全体設計に大きな影響を与える.本論文では,揺れが小さく斉一な単位として,現代日本語書き言葉均衡コーパス(以下,BCCWJ)\cite{Maekawa:2014:LRE,Den:2008:LREC}で採用されている短単位(ShortUnitWord,SUW)を基礎として考える.短単位は,基準がわかりやすくアノテーション作業においても揺れが少ない,取り出した単位が文脈から離れすぎない\cite{Ogura:2007:ANLP},という長所があり,単語についての詳細な情報を保持する解析処理の最小単位として適している.一方で,統語的な基本単位として依存構造を構成するには短過ぎる傾向がある.例えば,「かもしれない」のような機能語相当の働きを持つ複合辞は,短単位では,「か」「も」「しれ」「ない」の4語に分割されるが,これらの間の依存関係を表現しても,あまり意義のある関係は含まれない.そこで,同じくBCCWJで採用されている長単位(LongUnitWord,LUW)を,依存構造を構成する単位として採用する.長単位は,粗く言えば,一つの文節内を1語の内容語と0語以上の機能語に分割した際の,内容語,連続した機能語の結合をそれぞれ1単位として定義される.長単位では,「かもしれない」等の複合辞は助動詞相当の一語として扱われるため,重要度の低い依存関係を扱わなくてよいとともに,構文構造を見通しよく表現することができる.表\ref{fig:example-analyzed-sentence}に,文を短単位,長単位に単語分割した例を示す.短単位と長単位は階層的な関係になっているため,長単位の依存構造に基づく構文解析を行う場合にも,それぞれの長単位を構成する短単位の情報も解析器の素性として用いることができる.\texttt{NN},\texttt{VB}などの品詞シンボルは後述する句構造ツリーバンクで定義された前終端記号を表しており,\Tab{tbl:nonterminal-symbols}のようにBCCWJで定義された品詞と対応関係がある.\begin{table}[t]\caption{単語分割結果の例(品詞名は簡略化して表記)}\label{fig:example-analyzed-sentence}\input{07table01.tex}\end{table}\begin{table}[t]\hangcaption{句構造ツリーバンク\protect\cite{Tanaka:2013:SPMRL}で前終端記号として用いられている品詞シンボル(本稿では,句構造から単語依存構造へ変換する規則が参照)}\label{tbl:nonterminal-symbols}\input{07table02.tex}\end{table}\subsection{依存構造スキーマ}\label{sect:dependency-schema}日本語の文節依存構造では,各依存構造を構成する文節間で基本的に右側が主辞になる構造として定義されている(主辞後置型).しかしながら,日本語において単語間の依存構造を考える場合には,主辞をどのように決定するか,すなわちどのような依存構造を構成するのが適切であるかは自明ではない.そこで我々は,「構文解析結果の部分構造が構文の構成素(constituent)と一致する」要件を満たす句構造を出発点として,単語依存構造への変換方法を考えることにより,依存構造の設計を行った.述語句(述語と後続する0語以上の助動詞や助詞で構成される句)とその項を構成素として含むような文に対して,二つのタイプの句構造を考える.一つは述語とその項を先に結合する構造,もう一つは述語と後続する助詞,助動詞などの機能語を先に結合する構造であり,本論文では,前者を述語項結合型(あるいは1型),後者を述語文節結合型(あるいは2型)と呼ぶ.\Fig{fig:predicate-conjoining-type}は,同じ文を述語項結合型,述語文節結合型により構成した句構造の例である.述語項結合型は,文(\ref{ex-hf1})や対応する英語の文(\ref{ex-eng1})のようにHPSG等で用いられる生成文法的な考えに基づく構造,述語文節結合型は,文(\ref{ex-hf2})や対応する英語の文(\ref{ex-eng2})のような文節に類似した構造と捉えることもできる.\begin{exe}\ex\label{ex-sov}\begin{xlist}\ex\label{ex-hf1}\glln\lb{}\lb{}\lb{VP}猫が魚を食べ\rb{}\hspace{-1mm}た\rb{}\hspace{-1mm}かもしれない\rb{}\\{}{}{}SOVauxaux\\\ex\label{ex-hf2}\glln\lb{}猫が\lb{}魚を\lb{VP}食べたかもしれない\rb{}\hspace{-1mm}\rb{}\hspace{-1mm}\rb{}\\{}SOVauxaux\\\end{xlist}\ex\begin{xlist}\ex\label{ex-eng1}\glln\lb{}Thecat\lb{}mayhave\lb{VP}eatenthefish\rb{}\rb{}\rb{}.\\{}S{}{}auxaux{}V{}O\\\ex\label{ex-eng2}\glln\lb{}Thecat\lb{}\lb{VP}mayhaveeaten\rb{}thefish\rb{}\rb{}.\\{}S{}{}{}auxauxV{}O{}\\\end{xlist}\end{exe}\begin{figure}[t]\begin{center}\includegraphics{26-2ia7f2.eps}\end{center}\hangcaption{述語句の結合型の違いによる2種類の句構造の構成.四角で囲んだ\texttt{VP}は,述語を含む句で優先的に結合する部分木の非終端記号を表す.その他の非終端記号\texttt{PP-OBJ},\texttt{IP-REL\_sbj}は,それぞれ対格の後置詞句,主格の空所を持つ関係節を表す.}\label{fig:predicate-conjoining-type}\end{figure}これらの句構造から単語間の依存構造へ変換することを考える.句構造が二分木で構成されている場合を考えると各中間ノードの分岐ごとに左右どちらの要素が主辞になるかを順に決定することで,依存構造を構築することができる.その際,日本語の文を構成する主要な要素である,名詞句+機能語(主に助詞)から成る後置詞句,述語+機能語(主に助詞,助動詞)から成る述語句それぞれにおいて,内容語と機能語のどちらを主辞と扱うかで,二つのタイプに分ける\footnote{多くの場合,内容語を主辞とするものを意味主辞(semantichead),機能語を主辞とするものを統語主辞(syntactichead)と見做すことができるが,ここでは両者を区別せずに扱う.}.ここでは便宜的に,後置詞句で機能語を主辞と扱うものを項機能語主辞(AF-head),内容語を主辞と扱うものを項内容語主辞(AC-head),述語句で機能語を主辞と扱うものを述語機能語主辞(PF-head),内容語を主辞と扱うものを述語内容語主辞(PC-head)と呼ぶ.この主辞型の組合せが4通りあり,これらを2タイプの句構造の結合型への適用すると8通りになるが,述語内容語主辞の2つの主辞型については,句構造結合型の1型,2型に適用した結果が,同じ依存構造になるため,実際には,\Tab{tbl:dependency-schema}に示す6タイプの依存構造が構成されることになる.これらを依存構造スキーマと呼ぶ.\begin{table}[b]\caption{句構造の結合型,主辞型の組合せと依存構造スキーマ}\label{tbl:dependency-schema}\input{07table03.tex}\end{table}AF-head+PF-headは主辞後置の原則に則ったスキーマで,述語項結合型(1型)に適用したものを,主辞後置1型(HeadFinaltype1,\HFo),述語文節結合型(2型)に適用したものを,主辞後置2型(HeadFinaltype2,\HFt)とする.主辞後置型から,述語句で内容語(述語)を主辞に変えたAF-head+PC-headは,述語と項がより近い依存関係を持つようにしたもので,述語項結合型,文節結合型いずれに適用したものも同じ依存構造となる.これを述語内容語主辞型(PredicateContentwordHeadtype,\PCH)とする.また,主辞後置型から,後置詞句で内容語を主辞にした,AC-head+PF-headを述語項結合型,述語文節結合型それぞれに適用したものを,それぞれ項内容語主辞1型(ArgumentContentwordHeadtype1,\ACHo),項内容語主辞2型(ArgumentContentwordHeadtype2,\ACHt)とする.さらに,述語句,後置詞句の両方において内容語を主辞としたAC-head+PC-headは,述語と項の内容語同士が直接依存構造を持つようにしたもので,これを内容語主辞型(ContentWordHeadtype,\CWH)とする.この型は,内容語間の関係を重視し,少なくとも一方が内容語となる単語間に対して依存構造を考えるUDと類似した依存構造スキーマである.\CWHとUDとは並列構造における主辞の扱い\footnote{UDでは並列要素のうち先頭の要素が主辞になる.}や文法機能タイプなどが異なる.これら6通りの依存構造スキーマによる構文解析例を\Fig{fig:ex-dependency-schema}に示す.各スキーマによって,統語的関係にある語の間の距離が異なることから,解析器で再現する際の難易度も異なると考えられる.\Sect{sect:corpus}で,これらの依存構造スキーマに基づいて構築したコーパスについて述べ,\Sect{sect:evaluation}で,解析器への適用面から比較する.\begin{figure}[b]\begin{center}\includegraphics{26-2ia7f3.eps}\end{center}\hangcaption{各依存構造スキーマによる構文解析例.枠で囲まれた文字列は句構造において先に結合する構造を示す.}\label{fig:ex-dependency-schema}\end{figure}\subsection{文法機能タイプ}\label{sect:dependency-type}我々は,Stanfordtypeddependenciesを参考に,35種類の文法機能タイプを定義した\footnote{前置詞句や等位接続詞を含む構造に対して,Stanfordtypeddependenciesで定義されているcollapseddependencytypeは採用していない.}.SDとの主な違いは,\dt{nsubjpass},\dt{auxpass},\dt{agent}など受動態特有のタイプや\dt{det}(determiner),\dt{expl}(expletive),\dt{xcomp}(openclausalcomplement)など,日本語では不要もしくは必要性の低いと考えられるタイプを採用していないこと,日本語の多様な連体修飾節に対応するため関係節に関するタイプ\dt{rcmod}を細分化したことである.日本語の文法的特徴を反映させるため,日本語句構造ツリーバンクの非終端記号を文法機能タイプに変換することにより,元の句構造の情報が利用されるように定めた.\Tab{tbl:dependency-types}に,主要な文法機能タイプを示す.参考として,日本語UDversion2において定義が類似した文法機能タイプを併記している.以下に,カテゴリごとに定義した文法機能タイプについて説明する.\begin{table}[b]\caption{主な文法機能タイプ}\label{tbl:dependency-types}\input{07table04.tex}\vspace{4pt}\small例は,\dt{dependency\_type}(主辞,従属部)の形で表記し,``-''は長単位の境界を表す.長単位列のうちどの長単位が主辞になるかは,依存構造スキーマによって異なる.また,UDversion2との対応は近似的なものであり,必ずしも同じ定義を持つとは限らない.\end{table}\paragraph{格関係のタイプ}述語と格関係を持つ項との関係に付与する文法機能タイプであり,必須項(argument)タイプと,付加項(adjunct)タイプに大別される.必須項タイプは,\dt{nsubj}(主格),\dt{dobj}(対格),\dt{iobj}(与格)を,付加項タイプは,\dt{lmod}(場所格),\dt{tmod}(時間格),\dt{arg}(その他の格)を定義した.アノテーションは,述語項構造情報に基づいて行うが,句構造ツリーバンク~\cite{Tanaka:2013:SPMRL}の情報を利用する場合は,非終端記号に付加された文法機能ラベル(\ctag{-SBJ}(主格),\ctag{-TMP}(時間格)など)を変換して行う.\begin{table}[b]\hangcaption{節の種類と句構造ツリーバンクで用いられている非終端記号,単語依存構造で導入した文法機能タイプ}\label{tab:clause-labels}\input{07table05.tex}\end{table}\paragraph{節のタイプ}日本語において節と句の境界は曖昧であるが,本論文の文法機能タイプは,句構造ツリーバンク~\cite{Tanaka:2013:SPMRL}において定義されている節のタイプに基づいている.\Tab{tab:clause-labels}に句構造ツリーバンクで分類した節の種類と対応する文法機能タイプを示す.連体修飾節については,内の関係の連体修飾節(関係節)とそれ以外の外の関係の連体修飾節を区別するために,それぞれ,\textit{rcmod},\textit{ncmod}という文法機能タイプを割り当てている.さらに関係節の空所(gap)になっている格の種類を区別するため,\textit{rcmod}を,\textit{rcmod\_nsubj},\textit{rcmod\_dobj},\textit{rcmod\_iobj}の3つの文法機能タイプに細分化した.これにより,連体修飾節の主辞の述語と主名詞句の関係を区別し,文法機能タイプにより述語項構造を捉えることが可能になる.外の関係の連体修飾節には,内容節(月に行った-夢)と補充節(月に行った-結果)があるが,句構造ではこれらを区別をせず\ctag{IP-ADN}としており,依存構造でも文法機能タイプを~\dt{ncmod}とした.\paragraph{語・句による修飾関係のタイプ}格関係以外の修飾関係(ただし節による修飾を除く)に付与する文法機能タイプで,\textit{nmod}(名詞類による修飾関係),\textit{amod}(形容詞類による修飾関係),\textit{vmod}(動詞類による修飾関係),\textit{advmod}(副詞類による修飾関係)などがある.また,名詞句+格助詞「の」による連体修飾句の関係は,\textit{post}と定義した.\paragraph{並列関係のタイプ}並列関係を持つ要素間に付与する文法機能タイプとして,\dt{conj}(並列),\dt{appos}(同格)を定義した.並列要素と並立助詞(「と」「や」など)との関係には,SDと同様に,\dt{cc}(coordination)を定義した.これは並立要素をマークしている関係を明確にすることで,並列構造を抽出しやすくするためである.\paragraph{機能語関係のタイプ}機能語と内容語,機能語と機能語の間の依存関係に付与する文法機能タイプで,以下のような種類のタイプを定義している.\textit{pobj}(助詞と内容語との関係),\textit{aux}(助動詞と内容語との関係),\textit{cop}(判定詞と名詞述語の関係)など機能語を含む文法機能タイプ,\textit{pnc}(句読点との関係),\textit{par}(括弧類との関係)など記号類を含む文法機能タイプがある.\paragraph{その他のタイプ}接続助詞と節の主辞との間の関係\textit{mark},複合動詞の関係\textit{vb},未定義の関係として\textit{dep}を用意している.様々な文法機能タイプの中でも,特に格関係のタイプと関係節のタイプを導入することの利点は,これらのタイプが付加された依存構造を辿ることにより,述語項構造が抽出できることである.例えば,\Fig{fig:ex-dependency-schema}の主辞後置1型(\HFo)の依存構造の場合には,述語と項となる内容語間に2つのpathを辿ることができる.すなわち,「魚フライ(\texttt{NN})$\leftarrow$\textit{pobj}$\leftarrow$\textbf{\textit{dobj}}$\leftarrow$食べ(\texttt{VB})」と「食べ(\texttt{VB})$\leftarrow${\itaux}$\leftarrow${\itaux}$\leftarrow$\textbf{\textit{rcmod\_nsubj}}$\leftarrow$ペルシャ猫(\texttt{NN})」のpathである.二つの文法機能タイプ{\itdobj}と{\itrcmod\_nsubj}を識別することにより,述語「食べる」の直接目的語と主語としてそれぞれ「魚フライ」と「ペルシャ猫」を抽出することができる.\begin{figure}[b]\begin{center}\includegraphics{26-2ia7f4.eps}\end{center}\caption{文法機能タイプ付き依存構造({\PCH})による構文解析例(述語項構造,関係節).}\label{fig:ex-parsing-predarg}\end{figure}\subsection{文法機能タイプ付き依存構造による構文解析例}\label{sect:typed-dependencies-examples}提案した文法機能タイプ付き依存構造により,詳細化される構文情報について例を示す.本節で示す例は,述語内容語主辞スキーマ\PCHによるものである.\paragraph{述語項構造}格関係の文法機能タイプにより,必須項と付加項との区別を含めて,述語と項の関係を明示することが可能になる.また,連体修飾節と主名詞の関係を明示することが可能になる.\Fig{fig:ex-parsing-predarg}の一番上に示す例では,動詞「食べる」に対する格関係が,\dt{nsubj}(主格),\dt{dobj}(対格),\dt{lmod}(場所格)により明示されている.次の二つの例では,動詞「食べる」と主名詞句との関係が,関係節であるか(\dt{rcmod\_dobj}),内容節/補充節であるか(\dt{ncmod})が明示的に区別されている.これらの文法機能情報を構文解析結果から得られることにより,別に解析を行うことなく述語項構造の情報を取得できる.\paragraph{並列構造}並列構造をスコープを含めて的確に表示することが可能になる.\Fig{fig:ex-parsing-coord}の上の例では,\dt{cc},\dt{conj}のリンクにより,結ばれている名詞「猫」と「犬」が並列関係にあることが明示されている.さらにそれぞれの主辞から従属部へと辿ることにより,それぞれが「隣町に住んでいる猫」,「初めて見る犬」の名詞句から構成されていることも捉えることができる.また,\Fig{fig:ex-parsing-coord}の下は,部分並列の例である(\cite{Asahara:2018:JNLP}の部分並列の例を一部改変).例のように,複数の項の組を一つの述語が共有する場合でも,単純に全ての項の主辞を同一の述語(「かし」)とし,項が組になって部分並列の構造になっていること(「本を」と「太郎に」,「ノートを」と「三郎に」)は表示しない.このため,部分並列の場合,依存構造の情報のみから正しい述語項構造を取得することはできないが,これは,直接統語的に関係する語の間の依存構造を優先して構成する方針を採っているためである.\begin{figure}[t]\begin{center}\includegraphics{26-2ia7f5.eps}\end{center}\caption{文法機能タイプ付き依存構造({\PCH})による構文解析例(名詞句の並列,部分並列).}\label{fig:ex-parsing-coord}\end{figure}
\section{既存コーパスの変換による単語依存構造コーパスの構築}
\label{sect:corpus}本節では,提案する文法機能タイプ付き単語依存構造コーパスの初期構築を行った際の方法について述べる.\Sect{sect:design-of-typed-dependencies}で述べたように,本論文で提案する単語依存構造は句構造を規範として設計しているため,依存構造の連結した単位(部分構造)や文法機能タイプは,句構造の部分木の単位や非終端記号との親和性が高い.また,新たなアノテーションスキームに基づくコーパスを構築する際には,ゼロからアノテーションを行うより,既存のコーパスから一定の規則を定めて変換を行う方が,設計の変更への対応や一貫性を保持するに有利であると考えられる.そこで,我々は提案する単語依存構造に基づくコーパスの最初の構築を既存の句構造コーパスの持つ構造と非終端記号の情報を変換する方法により行った.実際に2種類の句構造コーパスを変換することにより構築した単語依存コーパスの統計量についても述べる.\subsection{句構造木から依存構造への変換}\Sect{sect:dependency-schema},\Sect{sect:dependency-type}で述べたように,依存構造スキーマ,文法機能タイプの設計は,句構造からの変換に基づいて行った.同様に,文法機能タイプ付き単語依存構造コーパスの構築を,句構造ツリーバンク\cite{Tanaka:2013:SPMRL}から,句構造木の構造と付加された文法機能ラベル(非終端記号)を自動変換することよって行うことを考える.この句構造木は完全な二分木で構成されており,非終端記号には,文法機能タイプへの変換に必要な格の情報,関係節の情報等が含まれる\footnote{一部はKaedeTreebankとして公開されている.https://github.com/mynlp/kaede/}.句構造から依存構造への変換は,二分木の各分岐に対して主辞決定規則(以下,主辞規則)を適用し,非終端記号の組合せにより左右どちらの子を主辞とするかを決定することで行う.この主辞規則は,依存構造スキーマに応じて異なる規則を用意する.表~\ref{tbl:headrule-ex-pch}に述語内容語主辞型\PCH,内容語主辞型\CWH,各スキーマの主辞規則の例を示す.\Fig{fig:ex-constituent}は,変換元となる句構造の例と,表~\ref{tbl:headrule-ex-pch}の主辞規則を適応した結果を示す.四角い枠で囲まれた非終端記号は,各分岐ごとに主辞規則を用いて,決定された主辞を示している.\begin{table}[b]\hangcaption{述語内容語主辞型\PCH(AF-head+PC-head),内容語主辞型\CWH(AC-head+PC-head)の主辞規則の例}\label{tbl:headrule-ex-pch}\input{07table06.tex}\vspace{-0.5\Cvs}\end{table}\begin{figure}[b]\begin{center}\includegraphics{26-2ia7f6.eps}\end{center}\hangcaption{変換元になる句構造の例.四角で囲まれた非終端記号は.各分岐において主辞規則により主辞と決定されたノードを示す.}\label{fig:ex-constituent}\end{figure}文法機能タイプは,句構造木の各分岐ごとに周辺のノードの非終端記号を参照する文法機能タイプ変換規則によって決定する.表~\ref{fig:ex-deplabelrule}は,文法機能タイプ変換規則の例である.ある葉ノードの単語D(前終端記号P)とDの主辞との依存構造の文法機能タイプを決定する際には,Dから根ノードの方向にたどりDが主辞とならない最初のノードC,Cの左の子ノードL,Cの姉妹ノードHを参照する.図中の``*''は,任意の非終端記号を表す.\begin{table}[b]\caption{文法機能タイプ変換規則の例}\label{fig:ex-deplabelrule}\input{07table07.tex}\vspace{4pt}\smallある葉ノード単語D(前終端記号P)とDの主辞との依存構造の文法機能タイプを決定する際に,Dから根ノードの方向にたどりDが主辞とならない最初のノードC,Cの左の子ノードL,Cの姉妹ノードHを参照する.``*''は,任意の非終端記号を表す.\end{table}\begin{figure}[b]\begin{center}\includegraphics{26-2ia7f7.eps}\end{center}\caption{句構造から変換された依存構造の例.}\label{fig:converted-deptrees}\end{figure}\Fig{fig:converted-deptrees}は,\Fig{fig:ex-constituent}の句構造に,表~\ref{tbl:headrule-ex-pch}の主辞規則と表~\ref{fig:ex-deplabelrule}の文法機能タイプ変換規則を適用して変換した2タイプの依存構造\PCH,\CWHの結果を示す.このように各依存構造スキーマ用の主辞規則と文法機能タイプ変換規則を使用することにより対応するスキーマに基づく依存構造コーパスを構築することができる.\subsection{構築したコーパスの統計量}単語依存構造への変換する句構造ツリーバンクとして,京都大学テキストコーパスversion4.0(以下,京大コーパス)\cite{Kurohashi:2003}40,000文のうち,文法機能ラベル付きの句構造木が構築されている19,953文(一般記事9,953文,社説記事10,000文),BCCWJのコアデータのうち同じく句構造木が構築されている18,400文を用いた.これらの句構造から述語内容語主辞型スキーマ(\PCH)に基づく依存構造に変換したコーパスの統計量を\Tab{tbl:corpus-statistics}に示す.\begin{table}[b]\caption{構築したコーパスの統計量(依存構造スキーマ\textsf{PCH})}\label{tbl:corpus-statistics}\input{07table08.tex}\end{table}付与された文法機能タイプの統計量から,各コーパス・サブコーパスの構文的な特徴を概観することができる.例えば,書き言葉で書かれたコーパス(京大コーパスやBCCWJの出版・書籍や新聞など)では,主格の関係にある\dt{nsubj}は文数よりも多くあらわれる傾向があるが,話し言葉に近いBCCWJの知恵袋,ブログでは,文数よりも極端に下回っていることがわかる.また,内の関係の関係節の割合は,固めの書き言葉で書かれている白書,新聞で高く,次いで出版・書籍と雑誌,最も低い割合が,知恵袋,ブログという傾向が見られる.このように,文法機能タイプを様々なコーパスにアノテーションすることによって,それぞれのコーパスに含まれている文の文体や構文的な特徴を分析することにも有効であることが期待される.
\section{構文解析器への適用評価}
\label{sect:evaluation}本論文で提案する単語依存構造は,依存関係を結ぶ組合せの数が,文節依存構造と比較して増加するだけでなく,従来の単一方向の依存構造からなる文節依存構造と比較して複雑な構造となっているため,構文解析器に適用した場合にどの程度の解析精度が得られるかを確認する必要がある.また,依存構造スキーマによっては,統語的に重要な関係を持つ語の間の距離(ノード間の弧の数)が長くなることによって,高次の特徴量を使用しないと十分な精度が得られない懸念がある.本節では,提案する単語依存構造による構文解析モデルを実際の解析器で構築し,これらの要素がどの程度解析精度に影響するのかを評価する.評価の主眼は,それぞれの依存構造スキーマに基づく単語依存構造に対して解析モデルを最適化することではなく,既存の解析器の標準的な設定で構築したモデルを使用する際に,依存構造スキーマ,依存構造単位(短単位,長単位,文節)の違いが解析精度へどう影響するかを確認することである.実験には,単語依存構造解析で実績のある2種類のtransitionベースの構文解析器を使用することで,標準的な条件での解析精度が得られることを想定している.また,本論文の依存構造解析から得られた述語項構造情報を,既存の述語項構造解析により得られた述語項構造情報と比較することにより,導入した文法機能タイプの効果を確認する.各依存構造スキーマに基づいた依存構造コーパスを学習データとして構文解析モデルを構築し,解析精度について評価した.解析評価には,前節で述べたように句構造ツリーバンクから自動的に変換した依存構造コーパスと,既存の構文解析器を使用した.評価する観点として,次の3点に着目した.\begin{enumerate}\item\label{enum:dependency-schema}依存構造スキーマの解析精度への影響\item\label{enum:chunking}依存構造単位の解析精度への影響\item\label{enum:predicate-arguments}文法機能タイプから得られる述語項構造情報の評価\end{enumerate}(\ref{enum:dependency-schema})では,\Sect{sect:dependency-schema}で述べた6種類の依存構造スキーマに基づいて構築した長単位ベースの依存構造解析モデルの解析精度を比較した.長単位列の正解データを入力として使用し,形態素解析(短単位へ分割と品詞タグ付与)や長単位へのチャンキングの精度の影響を排除した.(\ref{enum:chunking})では,短単位列の正解を入力として,依存構造の単位(短単位,長単位,文節)が解析精度に与える影響を調べた.評価のベースラインを揃えるため,短単位列から長単位や文節のチャンキングを行う精度の影響も精度評価に含めた.すなわち比較するのは,(a)短単位列から直接短単位間の依存構造解析を行う場合,(b)短単位列から長単位へのチャンキングを行った後,長単位間の依存構造解析を行う場合,(c)短単位列から文節へのチャンキングを行った後,文節間の依存構造解析を行う場合,の3種類である.最後に(\ref{enum:predicate-arguments})では,依存構造解析結果から文法機能タイプを利用して抽出した述語項構造解析の情報と,既存の述語項構造解析器の結果との比較を行った.比較する解析器の条件を揃えるため,平文を入力とし,依存構造解析を行う場合は,短単位への形態素解析,長単位へのチャンキング,長単位間の依存構造解析を順に行った.\Tab{tab:evaluation-condition}にこれらの実験条件をまとめた.\begin{table}[b]\caption{実験条件}\label{tab:evaluation-condition}\input{07table09.tex}\vspace{4pt}\small解析方法のLUWは長単位ベースの解析,SUWは短単位ベースの解析を表す.\end{table}以下,\Sect{sect:eval-setting}で共通の実験設定について述べた後,(1)--(3)に対応する評価実験についてそれぞれ\Sect{sect:dependency-schema-results}-\Sect{sect:predicate-arguments-results}で述べ,最後に\Sect{sect:evaluation-summary}で評価結果をまとめる.\subsection{実験設定}\label{sect:eval-setting}評価実験には,句構造ツリーバンクから\Sect{sect:corpus}で述べた方法で依存構造に変換したものを使用した.京大コーパスは,全19,953文を学習データ15,839文,開発データ2,114文,評価データ2,000文に,BCCWJは,全18,400文を,学習データ14,772文,開発データ1,919文,評価データ1,798文に分割し,それぞれのコーパスごとに構文解析モデルを構築した.\Tab{tab:train-test-data}に学習,開発,評価データの統計量を示す.\begin{table}[b]\caption{評価実験に使用したコーパスの統計量}\label{tab:train-test-data}\input{07table10.tex}\end{table}解析器の前処理が必要な場合,短単位への分割および品詞タグ付けは,MeCab~\cite{Kudo:2004:EMNLP},長単位へのチャンキングは,Comainu~\cite{Kozawa:2014:JNLP}を使用して行った\footnote{MeCabはver.0.996をUniDic辞書mecab-unidicver.2.1.2とともに用い,Comainuはver.0.72を用いた.}.構文解析器は,タイプ付き単語依存構造解析で実績のあるtransitionベースの2種類,(1)英語のSDにおいて80\%以上のラベル正解率の実績を持つMaltParser~\cite{Nivre:2007:NLE}および,(2)主にUDの解析に使用されているUDPipe~\cite{udpipe:2017}を用いた\footnote{MaltParserはver.1.8,UDPipeはver.1.2.0を用いた.}.MaltParserは,解析アルゴリズムにStackアルゴリズム(projective)を選択し,識別学習ライブラリにLIBLINEAR\footnote{ver.2.1を用いた.}を使用してモデル学習を行った.6種類の依存構造スキーマそれぞれに対して解析モデルを構築して評価を行った.解析モデルの素性には,\Tab{tbl:parser-features-wordattr}に示す単語属性を組み合わせて用いた.長単位は複合名詞等の構成的な複合語を多く含み,長単位ベースの属性で構成した素性は疎になる傾向があるため,短単位ベースの属性を組み合わせた.短単位ベースの単語属性は,対象となる長単位の最左あるいは最右の短単位のものを用いた.例えば,長単位「魚フライ」に対して,短単位ベースの単語属性は,$S_L.l$(最左の短単位の語彙素「魚」),$S_R.l$(最右の短単位の語彙素「フライ」)等である.また,単語を汎化するため,日本語語彙大系~\cite{ikehara:1997}の属性を用いて単語意味属性(一般名詞属性),固有名詞属性を付与した.単語意味属性は,過度の細分化を防ぐため,3階層目までの属性を使用した.\begin{table}[b]\caption{構文解析器(MaltParser)の素性テンプレートに用いた単語属性}\label{tbl:parser-features-wordattr}\input{07table11.tex}\end{table}\begin{table}[p]\caption{構文解析器(MaltParser)に用いた素性テンプレート}\label{tbl:parser-features}\input{07table12.tex}\end{table}用いた素性テンプレートを\Tab{tbl:parser-features}に示す.依存構造スキーマによって有効な素性は異なると考えられるが,各依存構造スキーマごとに\Tab{tbl:parser-features}の左側に記載しているようなカテゴリを当てはめて素性テンプレートを定義し,評価実験時には全依存構造スキーマの素性テンプレートの和集合を共通に使用した.MaltParserはtransitionベースの解析器であり,解析は先頭から順に決定的に行われる.素性テンプレートは,ある解析時点でのスタック$S$中の部分木,キュー$Q$中の単語に関する単語属性の組合せで定義している\footnote{表では単語属性の組合せの一例を示している.}.表中,スタック$S$中の部分木の根の単語を最上部から,$\{s_0$,$s_1$,...$s_n\}$,キュー$Q$中の単語を先頭から,$\{q_0$,$q_1$,...$q_m\}$で表している.Stackアルゴリズムでは,スタックの最上位から2つの部分木(根がそれぞれ$s_0$,$s_1$)から新しい弧を作る.スタック中の部分木については,$.h$(主辞),$.l_c$,$.l_d$等の指定子で対象の単語(長単位)を指定している.$.l_c$,$.r_c$はそれぞれ部分木の根(主辞)の最左の子(従属部),最右の子,$.l_d$,$.r_d$はそれぞれ部分木の中の根の最左の子孫,最右の子孫を表している.UDPipeは,MaltParserと同じくtransitionベースの解析器であるが,ニューラルネットワークベースの分類器を用いた予測を行い,素性を設定する必要はない.transitionsystemは,既定値であるprojectiveなarcstandardsystemを用いた.また,解析器自身で,単語分割,品詞タグ付けを行うことができるが,他と条件を揃えるため本論文では,UDPipeは依存構造解析のみを行い,短単位への分割,品詞タグ付けは,前述のMeCabを用いた.\subsection{依存構造スキーマの比較}\label{sect:dependency-schema-results}長単位列の正解データを入力として与え,6種類の依存構造スキーマに基づく解析モデルにより構文解析を行った.全体の精度として,unlabeledattachmentscore(UAS)およびlabeledattachmentscore(LAS)を\Tab{tbl:parsing-results1}に,文法機能タイプごとの精度(F$_1$score)を\Tab{tbl:parsing-results-deptype-ktc},\Tab{tbl:parsing-results-deptype-bccwj}に示す.\begin{table}[b]\caption{全体解析精度(長単位)}\label{tbl:parsing-results1}\noindent\input{07table13.tex}\end{table}全体的な傾向として,後置詞句において助詞を主辞とするスキーマ(\HFo,\HFt,\PCH)の精度が,内容語を主辞とするスキーマ(\ACHo,\ACHt,\CWH)よりも高い結果となっている.特に,後置詞句,述語句ともに機能語を主辞とし,述語句を先に結合する\HFtがいずれの場合も最も良い精度となっていることは,日本語の単語依存構造解析を標準的なtransitionベースの構文解析器への適用するにあたって,機能語主辞の構造が精度面で有利であることを示唆していると考えられる.\begin{table}[t]\caption{文法機能タイプ別解析結果(長単位,京大コーパス)}\label{tbl:parsing-results-deptype-ktc}\input{07table14.tex}\end{table}文法機能タイプ別の精度を見ると,コーパスにおいて大きな割合を占める格関係の依存構造(\dt{nsubj}など)や連用修飾関係(\dt{advcl}),並列構造(\dt{conj}など)において,\HFo,\HFt,\PCHのスキーマによる精度が高い.これらの依存構造において,主辞を内容語とするよりも格助詞等の機能語とする方が有利であることを反映しており,3つのスキーマの全体精度が高いことに寄与していると考えられる.一方,連体修飾関係(\dt{rcmod},\dt{ncmod}など)の精度は,述語句で内容語を主辞とするスキーマ(\PCH,\CWH)が比較的高い精度を示していることがわかる.これは,連体修飾句の主辞となる用言と主名詞の内容語との間で直接依存関係を持つことが,依存関係先,および文法機能タイプの決定に寄与している結果と考えられる.\begin{table}[t]\caption{文法機能タイプ別解析結果(長単位,BCCWJ)}\label{tbl:parsing-results-deptype-bccwj}\input{07table15.tex}\end{table}必須項の格関係(\tp{nsubj},\tp{dobj},\tp{iobj})の精度は,付加項の格関係(\tp{tmod},\tp{lmod})に比べて,高い結果となっている.必須項の格関係については,典型的には名詞句に後置される格助詞「が」「を」「に」と動詞の組合せによって正しく推測可能な場合が多くの割合を占めるのに対して,時間格や場所格は,共起しやすい格助詞「に」「で」がそれ以外の広範な用法を持っており,時間格,場所格で用いられているのか他の用法で用いられているかの判別が困難であることが多いためと考えられる.\paragraph{学習コーパス量}学習コーパスの規模と解析精度との関係を見るため,京大コーパス,BCCWJそれぞれについて,MaltParserの学習データとして使う文数を,1,000文,3,000文,5,000文,10,000文,全文に変えて解析モデル(\HFo,\HFt,\PCH)を構築し,解析精度の変化を調べた結果を,\Fig{fig:learning-curve}に示す.どのモデルも,本論文の評価実験で用いた1,000文規模でUAS91以上の精度を実現し,10,000文規模で,UAS93-94に達している.1,000--10,000文の区間では,LASの精度上昇幅がUASの上昇幅を上回っており,文法機能タイプの精度を重視する場合,10,000文規模の学習データを用いるのが一つ目安と考えられる.\begin{figure}[p]\begin{center}\includegraphics{26-2ia7f8.eps}\end{center}\caption{\label{fig:learning-curve}学習コーパス量と解析精度の関係.}\end{figure}\subsection{依存構造単位の比較}\label{sect:chunking-results}依存構造の単位による解析精度の違いを調べるため,京大コーパスのデータに関して,長単位による依存構造の他に,短単位の依存構造,文節単位の依存構造について依存構造解析モデルを構築した.正解の短単位依存構造は,長単位依存構造のデータを元に,各長単位を短単位に分割し,長単位内の隣接する短単位間に依存関係を結び,右側の短単位が左側の短単位の主辞になる構造とした.長単位間の依存構造は,依存関係元,依存関係先,それぞれの長単位の中で,一番右側に来る短単位,すなわち主辞になる短単位の間の依存構造に変換した.また,長単位内部の短単位間の文法機能タイプは\dt{luw}に統一した(\Fig{fig:conversion-luw-to-suw}).\paragraph{長単位と短単位}長単位の依存構造解析モデルと短単位の依存構造解析モデルを比較するため,短単位列の正解データを入力として,長単位依存構造解析モデル,短単位依存構造解析モデルそれぞれで解析した.長単位の依存構造解析は,入力の短単位列をComainuでチャンキングした結果の長単位列を,長単位依存構造解析モデルで解析した.長単位の正解データを直接入力しないのは,短単位依存構造解析モデルと入力の条件を揃えることと,長単位チャンキングの全体解析精度への影響を加味するためである.\Tab{tbl:parsing-results-wordunit}は,京大コーパスの短単位の形態素情報の正解データを入力として,長単位依存構造モデルで解析した結果と,短単位依存構造モデルで解析した結果である.比較のために,長単位解析モデルの結果も文法機能タイプ\dt{luw}を用いて短単位の依存構造に変換して集計している.短単位の依存関係で集計すると,比較的簡単な長単位内部の依存関係\dt{luw}が含まれることにより,精度が高めに計測されるため,括弧内に依存関係ラベル\dt{luw}を除いた精度を表示している.\begin{figure}[t]\begin{center}\includegraphics{26-2ia7f9.eps}\end{center}\hangcaption{長単位依存構造から短単位依存構造への変換の例({\PCH}).長単位を分割し,構成する短単位間に文法機能タイプ\dt{luw}を持つ依存構造に変換する.}\label{fig:conversion-luw-to-suw}\end{figure}\begin{table}[t]\caption{構文解析結果:依存構造単位の比較(京大コーパス)}\label{tbl:parsing-results-wordunit}\input{07table16.tex}\vspace{4pt}\small短単位間の依存構造で集計している.括弧内は長単位内の短単位間依存関係~\dt{luw}を除いた値を示す.\end{table}\Tab{tbl:parsing-results-wordunit}のMaltParserの結果では,\PCH,\CWHを除いて短単位モデルの解析精度が長単位モデルより僅かに勝っているのは,長単位チャンキングの精度(長単位境界のF値99.41,品詞のF値98.80)が影響していると考えられる.一方,UDPipeでは,全体に短単位モデルの結果よりも長単位モデルの結果の方が高く,長単位で依存構造を捉えることが有効に働いている.同じスキーマで比較する限り,UDPipeの長単位モデルでの解析精度は,MaltParserの長単位および短単位モデル,UDPipeの短単位モデルの結果をほぼ上回っていることから,ある程度のチャンキングの精度と,依存構造解析器の基本精度があれば,長単位モデルで解析する方が高い精度が得られると考えられる.\paragraph{長単位/短単位と文節}文節単位の依存構造との比較を行うため,京大コーパスの20,000文について単語単位を短単位に置換したデータを人手で作成した.この形態素情報データのうち15,893文をCaboChaの学習データとして,文節チャンキングモデル,文節依存構造モデルをそれぞれ構築した.評価データをCaboChaで解析した結果は,CoNLL形式による短単位間の依存構造として出力した~\footnote{CaboChaはver.~0.68を用いた.実際の解析は文節依存構造として行われるが,CaboChaの出力オプションでCoNLL形式を指定することにより,文節内は隣接する左の単語から右の単語へ順に係り(右の単語が左の単語の主辞となり),文節間はそれぞれの文節の主辞が依存関係元と依存関係先の単語として出力される.}.条件を揃えるため,いずれの解析も短単位の正解データを入力として与え,短単位解析は,短単位の依存構造解析,長単位解析は,Comainuによる長単位チャンキングと長単位の依存構造解析,文節解析は,CaboChaによる文節チャンキングと文節依存構造解析を行った.長単位/短単位依存構造と文節依存構造は,依存構造の単位が異なるため単純な精度の比較はできないが,構文解析から獲得できる重要な情報として,「格関係」「連体修飾関係」「連用修飾関係」「並列関係」の4つの文法機能タイプのカテゴリについて,正解の単語間の依存構造を出力できる割合(再現率)を調べた.文法機能タイプのカテゴリ分けは,格関係は,\tp{nsubj},\tp{dobj},\tp{iobj},\tp{tmod},\tp{lmod},\tp{arg},連体修飾関係は,\tp{rcmod},\tp{rcmod\_nsubj},\tp{rcmod\_dobj},\tp{rcmod\_iobj},\tp{ncmod},連用修飾関係は,\tp{advcl},並列関係は,\tp{conj},\tp{appos}とした.CaboChaは文法機能タイプの出力を行わないので,いすれの解析結果についても文法機能タイプの正誤は無視した.結果を\Tab{tbl:parsing-results-dtypecat}に示す.スキーマにより違いはあるが,\HFo,\HFt,\PCHについては,ほぼ文節依存構造と同程度の精度を示している.特に連体修飾関係と並列関係は,文節依存構造よりも高い精度を示す結果となっている.一方,連用修飾関係は,文節依存構造が単語依存構造よりも高い精度を示している.依存関係にある単語間の距離による傾向を見るため,MaltParserの\HFt(長単位)の結果とCaboChaの結果について,連体修飾と連用修飾の依存関係にある単語間の距離(短単位に換算)と再現率の関係を\Fig{fig:distance-recall}に示す.連体修飾関係の場合,単語依存構造の方が全般に高い精度を示している.連体修飾関係の依存構造の多くは5単位程度の短い距離であり,6--15短単位の中程度の距離の事例は少ないため,当てるのが難しい依存関係と考えられる.単語依存構造は,連体修飾関係のこの中程度の距離において,再現率の低下を低く抑えられている.一方,連用修飾関係の場合,後置詞句と述語や,副詞節と主節など,絶対的な距離が長くなり得る関係が含まれるが,15短単位程度までの距離では単語依存構造,文節依存構造で差がないのに対し,15短単位を超える距離においては文節依存構造の方が精度を維持していることが分かる.これは,文節にチャンキングすることにより,依存構造を持つ単位(文節)の間の実質的な距離を縮めていることと,依存構造を構成する組合せの数を減らしてることが有利に働いていると考えられる.\begin{table}[t]\caption{構文解析結果(文法機能タイプ種別再現率)}\label{tbl:parsing-results-dtypecat}\input{07table17.tex}\end{table}\begin{figure}[t]\begin{center}\includegraphics{26-2ia7f10.eps}\end{center}\caption{依存関係にある単語間の距離と再現率.}\label{fig:distance-recall}\end{figure}\subsection{述語項構造情報}\label{sect:predicate-arguments-results}\Sect{sect:introduction}で述べたように,述語項構造は構文構造と密接な関係があるため,構文構造に有効な情報を持たせれば,述語と項を直接抽出することが可能である.本節では,文法機能タイプ付き依存構造解析から抽出可能な述語項構造の情報の精度について評価を行う.述語項構造を抽出するために直接目印となる文法機能タイプは,必須項の格関係(\tp{nsubj},\tp{dobj},\tp{iobj})と内の関係の関係節(\tp{rcmod\_subj},\tp{rcmod\_dobj},\tp{rcmod\_iobj})である.依存構造解析結果から,述語を起点としてこれらの文法機能タイプを辿ることによって,述語,格関係,項の3つ組$(\mathit{pred},\mathit{rel},\mathit{arg})$を抽出する.述語~$\mathit{pred}$は,動詞(サ変名詞を含む)か形容詞(形状詞を含む),項~$\mathit{arg}$は,項の主辞の名詞,~$\mathit{rel}$は,主格(\dt{nsubj}),対格(\dt{dobj}),与格(\dt{iobj})である.正解データは,本論文で用いた京大コーパスのデータのうち,NAISTテキストコーパスver.~1.5(以下,NAISTコーパス)\cite{Iida:2007:LAW}に収録されている述語項構造をこの3つ組に変換することによって作成した.基本的には,NAISTコーパス中の格関係``ga'',``o''および``ni''をそれぞれ\dt{nsubj},\dt{dobj},\dt{iobj}に対応させた.ただし,能動態,使役態等の格交替が起きている場合でも,NAISTコーパス中の格関係は能動態のものに直して表示されているため,コーパス中の態での格関係になるように人手で修正した.また,抽出された3つ組のうち,ゼロ代名詞が含まれているものは除外し,コーパス中の依存構造で正解が抽出できる述語項の関係のみに絞った.最終的に,6,435組を正解の述語項関係として抽出した.本実験では,述語項構造解析器SynCha~\cite{Iida:2011:ACL}や項の情報を扱える構文解析器KNPと条件を合わせて比較するため,平文を入力として,MeCabで短単位への形態素解析を行い,Comainuでの長単位チャンキングを経由してMaltParserまたはUDPipeで依存構造解析を行った(長単位依存構造解析).SynChaは,入力された平文をCaboChaで文節依存構造解析を行った結果に対して,述語項構造解析を行い,KNPは,入力された平文を文節依存構造解析と行い,出力された各関係の情報を述語項構造情報に変換した\footnote{Synchaはver.0.3.1,KNPは,ver.4.1-betaを用いた.}.\Tab{tbl:pas-results}は,抽出された述語項の3つ組と正解データを比較した結果である.\PCH,\CWHは,構文解析精度の結果では\HFo,\HFtに及ばなかったが,述語項構造情報の精度に関して,MaltParserでは\PCH,UDPipeでは\CWHが最も良い結果となっている.このことは,\PCH,\CWHが述語句内の内容語を主辞とすることにより,項になる要素と述語で直接の依存構造が構成される特徴によるものと考えられる.SynChaは,ゼロ代名詞の認定や照応解析も行っており直接的な比較はできないが,本論文の単語依存構造解析結果から抽出した述語項構造の精度は,構文解析(文節依存構造解析)と述語項構造解析を2段階で行っているSynChaの精度を十分に上回っており,依存構造解析時に同時に単語間の格関係を同定することが妥当であることを示していると考えられる.特に,\PCH,\CWHの結果は,再現率はKNPには及ばないが,適合率,F$_1$scoreでは同等以上の結果が得られている.\begin{table}[t]\caption{述語項構造情報獲得結果(長単位)}\label{tbl:pas-results}\input{07table18.tex}\end{table}また,本論文の文法機能タイプ付き依存構造解析のように,述語項構造解析と構文解析と同時に行っている場合,構文解析と述語項構造解析を多段で行った場合に比べて両者の整合性を保持しやすい利点がある.典型的な例は,「庭から逃げた猫の足跡」のように,主名詞を含む名詞句に「AのB」を持つような関係節を含む解析である.名詞Aが関係節の項に成る場合は,通常関係節の述語と名詞Aの間に依存関係があると考えられるが,単語依存構造解析の場合は,これらの関係を同時に扱うことができる.この例で,述語「逃げる」と統語的に関係のある語を「猫」とするのか,「足跡」なのか判断が難しい場合であっても,述語「逃げる」の主格の項が「猫」になり可能性が高いと推定できたとすると,述語「逃げる」と名詞「猫」の間に\dt{rcmod\_nsubj}という文法機能タイプを持つ依存構造を構成し,自動的に「逃げる」と「猫」の間に統語的関係があるという解析結果になる.構文解析と述語項構造解析の多段処理の場合は,前段の構文解析での判断が難しく,誤った依存構造を構成してしまうと,後段の述語項構造解析でその誤りを伝播させる可能性が高まる.また,前段の構文解析結果と後段の述語項構造解析の結果で整合が取れる保証もない.\begin{figure}[b]\begin{center}\includegraphics{26-2ia7f11.eps}\end{center}\caption{単語依存構造解析と述語項構造解析の結果の例(その1).}\label{fig:predarg-worddep1}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{26-2ia7f12.eps}\end{center}\caption{単語依存構造解析と述語項構造解析の結果の例(その2).}\label{fig:predarg-worddep2}\end{figure}\Fig{fig:predarg-worddep1}は,単語依存構造解析の結果,文節依存構造解析と述語構造解析の2段処理による結果の実際の例である.単語依存構造解析の結果では,述語「接する」と項「イタリア」が主格と述語の連体修飾関係(\dt{rcmod\_nsubj})で依存構造を構成しており,構文解析結果と述語項構造解析結果が整合している.文節依存構造解析では,述語を含む文節「接する」と文節「政治動向は」で誤った依存構造を構成している一方で,述語項構造解析では正しい項「イタリア(の)」を抽出しており,両解析結果で整合が取れていない.また,\Fig{fig:predarg-worddep2}の単語依存構造解析の結果では,述語「見落とされる」と項「仕組み」が主格と述語の連体修飾関係(\dt{rcmod\_nsubj})で依存構造を構成している.それに対し,文節依存構造解析では,述語を含む文節「見落とされている」と文節「政治の」で誤った依存構造を構成した結果,正しい項「仕組み」を抽出することに失敗している.実験で使用したテストセットに含まれるこのような構造75例のうち,文法機能タイプ付き単語構造解析では42例で述語項構造と依存構造が正しく抽出できたのに対して,CaboCha,SynChaの多段処理で正しく抽出できたのものは,6例に止まった.\subsection{評価のまとめ}\label{sect:evaluation-summary}\Sect{sect:evaluation}では,依存構造スキーマ,依存構造の単位,述語項構造情報の3点に着目して構文解析器への適用性を評価した.使用した構文解析器は,transitionベースの2種類に限定しており,素性設計を最適化しているわけではないため,確定的な結論は導き出せないが,評価実験によって得られた本論文の単語依存構造を解析器で使用する場合の傾向,特性について以下で述べる.依存構造スキーマについては,後置詞句において機能語を主辞とする項機能語主辞型の\HFo,\HFt,\PCHが構文解析の全体的な精度が高い傾向にある.特に,述語文節結合型と組み合わせた\HFtが他の2つのスキーマより僅かに高い精度を出している.この結果は,格助詞等の機能語で後置詞の統語的役割を決め,述語は後続する機能語からなる述語句を単位として他の句と統語的関係を持つという日本語の特性を反映していると考えられる.依存構造の単位を,長単位にするか短単位にするかは,\Tab{tbl:parsing-results-wordunit}のMaltParserの結果のみからは判断が難しいが,UDPipeの長単位の結果が,ほぼ全てのスキーマにおいて,UDPipe短単位の結果,MaltParserの長単位,短単位の結果を上回っていることから,解析器への適用面でも,構文構造を見通し良く表現できる長単位ベースの依存構造を用いるのが良いと考える.また,本実験の結果は,長単位チャンキングの誤りを含んでいるので,チャンキングの精度向上によっても,解析精度全体の向上が期待できる.また,\Tab{tbl:parsing-results-dtypecat}に示されるように,連用修飾関係以外の主要な文法機能タイプを持つ依存構造について,長単位ベースの項機能主辞型\HFo,\HFt,\PCHの単語依存構造解析の精度が文節依存構造解析のCaboChaの精度と同等以上の結果を出しており,日本語の構文解析として単語依存構造を用いることは実用性があると考える.述語項構造情報の取得に関しては,全てのスキーマで2段階解析のSynChaの結果を上回っており,述語項構造情報を考慮しながら構文解析を行っている効果が表れていると考えている.述語項構造情報の取得に関しては,内容語主辞型の\PCH,\CWHが高い精度を出しており,格助詞等の手がかりがない関係節において,内容語同士の関係を捉えやすいスキーマの特性が反映されていると考えられる.以上の結果から,構文解析の精度を重視する場合,長単位ベースで項機能語主辞型のスキーマ,特に\HFtが第1候補として挙げられる.また,述語項構造情報を扱う場合は,\PCH,\CWHが有利だと考えられる.ただし,現実的には,タスクに応じて複数の依存構造スキーマのコーパスや解析モデルを用意することは効率が悪いため,\HFtなど一つのスキーマをベースとして,UDを含む他のスキーマへ変換可能な情報を付加した拡張スキーマを策定することが一つの有力な方法であると考える.
\section{単語間依存構造の課題}
\label{sect:problems}\subsection{名詞句の内部構造の扱い}依存構造の単位としてBCCWJの長単位を採用することで,機能語間の関係のように重要度の低い依存関係を無視できる反面,名詞句内の内部構造のような構造の表現能力に制約がある.例えば,「以降」のように短単位品詞が「名詞-普通名詞-副詞可能」である語や,「解消」のように「名詞-普通名詞-サ変可能」である語は,先行する名詞句と結合して一つの長単位を構成するため,前方から修飾する要素がある場合に長単位全体と依存関係を作ることになる.例えば,「昨年/の/事件以降」「項構造/の/曖昧性解消」という長単位に区切られるため「昨年の事件」「項構造の曖昧性」という単位の名詞句を切り出すことができない.この問題に関しては,全てを短単位の依存構造として扱う方法,あるいは,このような名詞句の構造を別の階層として扱う方法等が考えられるが,前者は解析精度への影響の面,後者は文節依存構造と同様に階層的構造の処理を別に考慮する複雑さが生じるという面がある.また,依存構造解析の単位として,長単位と短単位の中間的な単位を定義するという選択肢も考えられる.ただし,一貫性を確保できる明確な定義など,さらなる検討が必要である.\subsection{アスペクト・ムードの扱い}本論文の依存構造では,複雑になることを避けるため,アスペクト,ムードを含む助動詞,補助動詞等を一括して扱い,項と述語のまとまりに後に結合するか(1型),述語と先に結合するか(2型)の2種類に分類した.しかしながら,寺村の分類~\cite{寺村:1984}にあるように,アスペクトを表す補助動詞を述語と結合して「コト」(叙述内容)の構造を一旦構成し,テンス,推量や説明等の概言のムードと呼んでいる助動詞,助詞類を外側に結合するという文の構成を,依存構造や文法機能タイプに反映させることは,文全体の意味解析処理に利用する上で有用であると考えられる.これを実現するためには,アスペクト,ムードの分類とともに,文法機能タイプ,依存構造への反映方法が検討事項となる.\subsection{UniversalDependenciesとの関係}UDは,依存構造スキーマ\CWHと類似した構造を持っているが,本論文の評価結果からは,項機能語主辞型の\HFo,\HFt,\PCHに比べて,精度面で低くなる傾向が見られている.また,本論文で文法機能タイプとして導入した連体修飾節の区別はUDでは存在しないなど,UDの方が情報量が少ない傾向にあるため,言語リソースを構築する際には,スーパーセットとして本論文で述べたようなスキーマで行い,UDに変換するという方法も有力であると考える\footnote{UDの言語依存仕様としてサブタイプを定義する方法も考えられる.}.構文解析器で,UDの結果を得ようとする際には,直接UDの構造を出力するのではなく,構造の近い\PCHで解析結果を得て,UDに変換することも選択肢になると考えられる.UDの主要な文法機能タイプは,連体修飾や付加項の細分類を除いてほぼ同等であるので,文法機能タイプの変換に関しては可能であると考えられる.構造的な変換に関しては,全面的に内容語が主辞になる構造や,先頭の要素が主辞になる並列構造への等への対応を検討する必要がある.
\section{まとめ}
\label{sect:conclusion}本論文では,日本語の構文解析において,構文の構成素と整合する単語を単位とし,かつ文法機能情報を利用可能にするため,文法機能タイプ付き単語依存構造解析を提案した.6タイプの依存構造スキーマを考え,それぞれについて依存構造モデルを構築し,構文解析器での解析精度について調べた.全般的に,後置詞句においては機能語を主辞とするスキーマが精度的に有利であるという傾向があり,項機能語主辞型の単語依存構造解析は,文節依存構造解析と同等の精度が実現可能であることが確かめられた.さらに,単語依存構造解析の文法機能タイプにより得られる述語項構造情報は,構文解析と多段で行う述語項構造解析に匹敵する精度であることが確認された.意味解析との親和性をより高めるために,名詞句の構造の洗練化やアスペクト,ムード等の文構造の反映方法が今後の検討事項であると考えている.また,多言語横断の構文解析の枠組みを目指したUniversalDependenciesの対応についても,解析精度や情報量の面で有利である本論文で扱った依存構造スキーマを介して解析,変換を行うことは有力な方法の一つであると考える.\acknowledgmentUniversalDependenciesを通じて,日本語の単語依存構造について活発にご議論いただいているUniversalDependencies日本語チームの皆様に感謝申し上げます.本稿は,ACL-IJCNLP2015:Word-basedJapaneseTypedDependencyParsingwithGramaticalFunctionAnalysisで発表した内容をもとに,加筆修正を行ったものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原\JBA金山\JBA宮尾\JBA田中\JBA大村\JBA村脇\JBA松本}{浅原\Jetal}{2019}]{Asahara:2019:JNLP}浅原正幸\JBA金山博\JBA宮尾祐介\JBA田中貴秋\JBA大村舞\JBA村脇有吾\JBA松本裕治\BBOP2019\BBCP.\newblockUniversalDependencies日本語コーパス.\\newblock\Jem{自然言語処理},{\Bbf26}(1),\mbox{\BPGS\3--36}.\bibitem[\protect\BCAY{浅原\JBA松本}{浅原\JBA松本}{2018}]{Asahara:2018:JNLP}浅原正幸\JBA松本裕治\BBOP2018\BBCP.\newblock『現代日本語書き言葉均衡コーパス』に対する文節係り受け・並列構造アノテーション.\\newblock\Jem{自然言語処理},{\Bbf25}(4),\mbox{\BPGS\331--356}.\bibitem[\protect\BCAY{戸次}{戸次}{2010}]{Bekki:2010}戸次大介\BBOP2010\BBCP.\newblock\Jem{日本語文法の形式理論}.\newblockくろしお出版.\bibitem[\protect\BCAY{Bond,Fujita,\BBA\Tanaka}{Bondet~al.}{2008}]{Bond:2008:LRE}Bond,F.,Fujita,S.,\BBA\Tanaka,T.\BBOP2008\BBCP.\newblock\BBOQTheHinokiSyntacticandSemanticTreebankofJapanese.\BBCQ\\newblock{\BemJournalofLanguageResourcesandEvaluation},{\Bbf42}(2),\mbox{\BPGS\243--251}.\bibitem[\protect\BCAY{Butler,Zhou,\BBA\Yoshimoto}{Butleret~al.}{2012a}]{Butler:2012:ANLP}Butler,A.,Zhou,Z.,\BBA\Yoshimoto,K.\BBOP2012a\BBCP.\newblock\BBOQProblemsforSuccessfulBunsetsuBasedParsingandSomeSolutions.\BBCQ\\newblock\Jem{言語処理学会第18回年次大会予稿集},\mbox{\BPGS\951--954}.\bibitem[\protect\BCAY{Butler,Hotta,Otomo,Yoshimoto,Zhou,\BBA\Zhu}{Butleret~al.}{2012b}]{Butler:2012:WS}Butler,A.,Hotta,H.,Otomo,R.,Yoshimoto,K.,Zhou,Z.,\BBA\Zhu,H.\BBOP2012b\BBCP.\newblock\BBOQKeyakiTreebank:PhraseStructurewithFunctionalInformationforJapanese.\BBCQ\\newblock\Jem{テキストアノテーションワークショップ,国立国語学研究所}.\bibitem[\protect\BCAY{Copestake,Flickinger,Pollard,\BBA\Sag}{Copestakeet~al.}{2005}]{Copestake:2005:LRC}Copestake,A.,Flickinger,D.,Pollard,C.,\BBA\Sag,I.~A.\BBOP2005\BBCP.\newblock\BBOQMinimalRecursionSemantics:AnIntroduction.\BBCQ\\newblock{\BemResearchonLanguageandComputation},{\Bbf3}(4),\mbox{\BPGS\281--332}.\bibitem[\protect\BCAY{de~Marneffe\BBA\Manning}{de~Marneffe\BBA\Manning}{2008}]{DeMarneffe:2008:COLINGWS}de~Marneffe,M.-C.\BBACOMMA\\BBA\Manning,C.~D.\BBOP2008\BBCP.\newblock\BBOQTheStanfordTypedDependenciesRepresentation.\BBCQ\\newblockIn{\BemProceedingsofCOLING2008WorkshoponCross-frameworkandCross-domainParserEvaluation},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{de~Marneffe,Silveira,Dozat,Haverinen,Ginter,Nivre,\BBA\Manning}{de~Marneffeet~al.}{2014}]{DeMarneffe:2014:LREC}de~Marneffe,M.-C.,Silveira,N.,Dozat,T.,Haverinen,K.,Ginter,F.,Nivre,J.,\BBA\Manning,C.~D.\BBOP2014\BBCP.\newblock\BBOQUniversalStanfordDependencies:ACross-linguisticTypology.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonLanguageResourcesandEvaluation},LREC2014,\mbox{\BPGS\4585--4592}.\bibitem[\protect\BCAY{Den,Nakamura,Ogiso,\BBA\Ogura}{Denet~al.}{2008}]{Den:2008:LREC}Den,Y.,Nakamura,J.,Ogiso,T.,\BBA\Ogura,H.\BBOP2008\BBCP.\newblock\BBOQAProperApproachtoJapaneseMorphologicalAnalysis:Dictionary,ModelandEvaluation.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalConferenceonLanguageResourcesandEvaluation},LREC2008,\mbox{\BPGS\1019--1024}.\bibitem[\protect\BCAY{Fang,Butler,\BBA\Yoshimoto}{Fanget~al.}{2014}]{Fang:2014:ANLP}Fang,T.,Butler,A.,\BBA\Yoshimoto,K.\BBOP2014\BBCP.\newblock\BBOQParsingJapanesewithaPCFGTreebankGrammar.\BBCQ\\newblock\Jem{言語処理学会第20回年次大会予稿集},\mbox{\BPGS\432--435}.\bibitem[\protect\BCAY{Gunji}{Gunji}{1987}]{Gunji:1987}Gunji,T.\BBOP1987\BBCP.\newblock{\BemJapanesePhraseStructureGrammar:AUnification-BasedApproach}.\newblockD.Reidel(Kluwer).\bibitem[\protect\BCAY{星野\JBA宮尾\JBA須藤\JBA林\JBA永田}{星野\Jetal}{2019}]{Hoshino:2019:IPSJ}星野翔\JBA宮尾祐介\JBA須藤克仁\JBA林克彦\JBA永田昌明\BBOP2019\BBCP.\newblock統計的機械翻訳のための統語に基づく単純な事前並べ替え手法.\\newblock\Jem{情報処理学会論文誌},{\Bbf60}(3),\mbox{\BPGS\890--902}.\bibitem[\protect\BCAY{Iida,Komachi,Inui,\BBA\Matsumoto}{Iidaet~al.}{2007}]{Iida:2007:LAW}Iida,R.,Komachi,M.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQAnnotatingaJapaneseTextCorpuswithPredicate-argumentandCoreferenceRelations.\BBCQ\\newblockIn{\BemProceedingsofthetheLinguisticAnnotationWorkshop},LAW'07,\mbox{\BPGS\132--139}.\bibitem[\protect\BCAY{Iida\BBA\Poesio}{Iida\BBA\Poesio}{2011}]{Iida:2011:ACL}Iida,R.\BBACOMMA\\BBA\Poesio,M.\BBOP2011\BBCP.\newblock\BBOQACross-LingualILPSolutiontoZeroAnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},ACL-HLT2011,\mbox{\BPGS\804--813}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{ikehara:1997}池原悟\JBA宮崎雅弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{金山\JBA宮尾\JBA田中\JBA森\JBA浅原\JBA植松}{金山\Jetal}{2015}]{Kanayama:2015:ANLP}金山博\JBA宮尾祐介\JBA田中貴秋\JBA森信介\JBA浅原正幸\JBA植松すみれ\BBOP2015\BBCP.\newblock日本語UniversalDependenciesの試案.\\newblock\Jem{言語処理学会第21回年次大会予稿集},\mbox{\BPGS\505--508}.\bibitem[\protect\BCAY{Kaplan\BBA\Bresnan}{Kaplan\BBA\Bresnan}{1982}]{Kaplan:1982:MRGR}Kaplan,R.~M.\BBACOMMA\\BBA\Bresnan,J.\BBOP1982\BBCP.\newblock\BBOQLexical-FunctionalGrammar:aFormalSystemforGrammaticalRepresentation.\BBCQ\\newblock{\BemTheMentalRepresentationofGrammaticalRelations},\mbox{\BPGS\173--281}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{Kawahara:2006:HLTNAACL}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQAFully-lexicalizedProbabilisticModelforJapaneseSyntacticandCaseStructureAnalysis.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationofComputationalLinguistics},HLT-NAACL2006,\mbox{\BPGS\176--183}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{Kudo:2002:CoNLL}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQJapaneseDependencyAnalysisUsingCascadedChunking.\BBCQ\\newblockIn{\BemProceedingsofthe6thConferenceonNaturalLanguageLearning},\lowercase{\BVOL}~20of{\BemCoNLL2002},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Kudo,\protect\mbox{Yamamoto},\BBA\Matsumoto}{Kudoet~al.}{2004}]{Kudo:2004:EMNLP}Kudo,T.,\protect\mbox{Yamamoto},K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldstoJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},EMNLP2004,\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{2003}]{Kurohashi:2003}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP2003\BBCP.\newblock{\BemBuildingaJapaneseParsedCorpus--whileImprovingtheParsingSystem},\BCH~14,\mbox{\BPGS\249--260}.\newblockKluwerAcademicPublishers.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Ogiso,Maruyama,Ogura,Kashino,Koiso,Yamaguchi,Tanaka,\BBA\Den}{Maekawaet~al.}{2014}]{Maekawa:2014:LRE}Maekawa,K.,Yamazaki,M.,Ogiso,T.,Maruyama,T.,Ogura,H.,Kashino,W.,Koiso,H.,Yamaguchi,M.,Tanaka,M.,\BBA\Den,Y.\BBOP2014\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf48}(2),\mbox{\BPGS\345--371}.\bibitem[\protect\BCAY{増市\JBA大熊}{増市\JBA大熊}{2003}]{Masuichi:2003:JNLP}増市博\JBA大熊智子\BBOP2003\BBCP.\newblockLexicalFunctionalGrammarに基づく実用的な日本語解析システムの構築.\\newblock\Jem{自然言語処理},{\Bbf10}(2),\mbox{\BPGS\79--109}.\bibitem[\protect\BCAY{McDonald,Nivre,Quirmbach-Brundage,Goldberg,Das,Ganchev,Hall,Petrov,Zhang,T{\"{a}}ckstr{\"{o}}m,Bedini,Castell{\'{o}},\BBA\Lee}{McDonaldet~al.}{2013}]{McDonald:2013:ACL}McDonald,R.,Nivre,J.,Quirmbach-Brundage,Y.,Goldberg,Y.,Das,D.,Ganchev,K.,Hall,K.,Petrov,S.,Zhang,H.,T{\"{a}}ckstr{\"{o}}m,O.,Bedini,C.,Castell{\'{o}},N.~B.,\BBA\Lee,J.\BBOP2013\BBCP.\newblock\BBOQUniversalDependencyAnnotationforMultilingualParsing.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics},ACL2013,\mbox{\BPGS\92--97}.\bibitem[\protect\BCAY{Mori,Ogura,\BBA\Sasada}{Moriet~al.}{2014}]{Mori:2014:LREC}Mori,S.,Ogura,H.,\BBA\Sasada,T.\BBOP2014\BBCP.\newblock\BBOQAJapaneseWordDependencyCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonLanguageResourcesandEvaluation},LREC2014,\mbox{\BPGS\753--758}.\bibitem[\protect\BCAY{Nagata\BBA\Morimoto}{Nagata\BBA\Morimoto}{1993}]{Nagata:1993:IEICE}Nagata,M.\BBACOMMA\\BBA\Morimoto,T.\BBOP1993\BBCP.\newblock\BBOQAUnification-basedJapaneseParserforSpeech-to-speechTranslation.\BBCQ\\newblock{\BemIEICETransactiononInformationandSystems},{\BbfE76-D}(1),\mbox{\BPGS\51--61}.\bibitem[\protect\BCAY{Nivre}{Nivre}{2015}]{Nivre:2015:CICLing}Nivre,J.\BBOP2015\BBCP.\newblock\BBOQTowardsaUniversalGrammarforNaturalLanguageProcessing.\BBCQ\\newblockIn{\BemComputationalLinguisticsandIntelligentTextProcessing-16thInternationalConference,CICLing2015,Cairo,Egypt,April14--20,2015,Proceedings,PartI},\mbox{\BPGS\3--16}.\bibitem[\protect\BCAY{Nivre,Hall,Nilsson,Chanev,Ery{\.{i}}{\v{g}}{\.{i}}t,K{\"{u}}bler,Marinov,\BBA\Marsi}{Nivreet~al.}{2007}]{Nivre:2007:NLE}Nivre,J.,Hall,J.,Nilsson,J.,Chanev,A.,Ery{\.{i}}{\v{g}}{\.{i}}t,G.,K{\"{u}}bler,S.,Marinov,S.,\BBA\Marsi,E.\BBOP2007\BBCP.\newblock\BBOQMaltParser:ALanguage-independentSystemforData-drivenDependencyParsing.\BBCQ\\newblock{\BemJournalofNaturalLanguageEngineering},{\Bbf13}(2),\mbox{\BPGS\95--135}.\bibitem[\protect\BCAY{Noro,Hashimoto,Tokunaga,\BBA\Tanaka.}{Noroet~al.}{2005}]{Noro:2005:SYM}Noro,T.,Hashimoto,T.,Tokunaga,T.,\BBA\Tanaka.,H.\BBOP2005\BBCP.\newblock\BBOQBuildingaLarge-scaleJapaneseSyntacticallyAnnotatedCorpusforDerivingaCFG.\BBCQ\\newblockIn{\BemProceedingsofSymposiumonLarge-ScaleKnowledgeResources},\mbox{\BPGS\159--162}.\bibitem[\protect\BCAY{小椋\JBA小木曽\JBA小磯\JBA冨士池\JBA相馬}{小椋\Jetal}{2007}]{Ogura:2007:ANLP}小椋秀樹\JBA小木曽智信\JBA小磯花絵\JBA冨士池優美\JBA相馬さつき\BBOP2007\BBCP.\newblock「現代日本語書き言葉均衡コーパス」の短単位解析について.\\newblock\Jem{言語処理学会第13回年次大会予稿集},\mbox{\BPGS\720--723}.\bibitem[\protect\BCAY{小澤\JBA内元\JBA伝}{小澤\Jetal}{2014}]{Kozawa:2014:JNLP}小澤俊介\JBA内元清貴\JBA伝康晴\BBOP2014\BBCP.\newblock長単位解析器の異なる品詞体系への適用.\\newblock\Jem{自然言語処理},{\Bbf21}(2),\mbox{\BPGS\379--401}.\bibitem[\protect\BCAY{Sag,Wasow,\BBA\Bender}{Saget~al.}{2003}]{Sag:2003}Sag,I.~A.,Wasow,T.,\BBA\Bender,E.~M.\BBOP2003\BBCP.\newblock{\BemSyntacticTheory:AFormalIntroduction}.\newblock2ndEdition,CSLIPublications.\bibitem[\protect\BCAY{Siegel\BBA\Bender}{Siegel\BBA\Bender}{2002}]{Siegel:2002:WS}Siegel,M.\BBACOMMA\\BBA\Bender,E.~M.\BBOP2002\BBCP.\newblock\BBOQEfficientDeepProcessingofJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe3rdWorkshoponAsianLanguageResourcesandInternationalStandardizationatthe19thInternationalConferenceonComputationalLinguistics},\lowercase{\BVOL}~12,\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Straka\BBA\Strakov{\'{a}}}{Straka\BBA\Strakov{\'{a}}}{2017}]{udpipe:2017}Straka,M.\BBACOMMA\\BBA\Strakov{\'{a}},J.\BBOP2017\BBCP.\newblock\BBOQTokenizing,POSTagging,LemmatizingandParsingUD2.0withUDPipe.\BBCQ\\newblockIn{\BemProceedingsoftheCoNLL2017SharedTask:MultilingualParsingfromRawTexttoUniversalDependencies},\mbox{\BPGS\88--99},Vancouver,Canada.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Tanaka,Miyao,Asahara,Uematsu,Kanayama,Mori,\BBA\Matsumoto}{Tanakaet~al.}{2016}]{Tanaka:2016:LREC}Tanaka,T.,Miyao,Y.,Asahara,M.,Uematsu,S.,Kanayama,H.,Mori,S.,\BBA\Matsumoto,Y.\BBOP2016\BBCP.\newblock\BBOQUniversalDependenciesforJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonLanguageResourcesandEvaluation},LREC2016,\mbox{\BPGS\1651--1658}.\bibitem[\protect\BCAY{Tanaka\BBA\Nagata}{Tanaka\BBA\Nagata}{2013}]{Tanaka:2013:SPMRL}Tanaka,T.\BBACOMMA\\BBA\Nagata,M.\BBOP2013\BBCP.\newblock\BBOQConstructingaPracticalConstituentParserfromaJapaneseTreebankwithFunctionLabels.\BBCQ\\newblockIn{\BemProceedingsoftheFourthWorkshoponStatisticalParsingofMorphologically-RichLanguages},SPMRL2013,\mbox{\BPGS\108--118}.\bibitem[\protect\BCAY{寺村}{寺村}{1984}]{寺村:1984}寺村秀夫\BBOP1984\BBCP.\newblock\Jem{日本語のシンタックスと意味I--III}.\newblockくろしお出版.\bibitem[\protect\BCAY{Uchimoto\BBA\Den}{Uchimoto\BBA\Den}{2008}]{Uchimoto:2008:LREC}Uchimoto,K.\BBACOMMA\\BBA\Den,Y.\BBOP2008\BBCP.\newblock\BBOQWord-levelDependency-structureAnnotationtoCorpusofSpontaneousJapaneseanditsApplication.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonLanguageResourcesandEvaluation},LREC2008,\mbox{\BPGS\3118--3122}.\bibitem[\protect\BCAY{Uematsu,Matsuzaki,Hanaoka,Miyao,\BBA\Mima}{Uematsuet~al.}{2013}]{Uematsu:2013:ACL}Uematsu,S.,Matsuzaki,T.,Hanaoka,H.,Miyao,Y.,\BBA\Mima,H.\BBOP2013\BBCP.\newblock\BBOQIntegratingMultipleDependencyCorporaforInducingWide-coverageJapaneseCCGResources.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics},ACL-2013,\mbox{\BPGS\1042--1051}.\end{thebibliography}\begin{biography}\bioauthor{田中貴秋}{1996年大阪大学大学院基礎工学研究科修士課程修了.同年,日本電信電話株式会社入社.2007年--2012年西日本電信電話株式会社研究開発センタ勤務.現在,日本電信電話株式会社コミュニケーション科学基礎研究所にて自然言語処理の研究に従事.言語処理学会,人工知能学会各会員.}\bioauthor{永田昌明}{1987年京都大学大学院工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,コミュニケーション科学研究所上席特別研究員.工学博士.自然言語処理の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
| |
V26N03-03 | \section{はじめに}
\label{sec:intro}本稿では,参照文を用いた文単位での機械翻訳自動評価手法について述べる.文単位での信頼性の高い自動評価によって,機械翻訳システムの細かい改善が可能になる.文単位での機械翻訳の評価手法には,ある機械翻訳システムの翻訳文に対して他のシステムの翻訳文と比較して相対的に評価する手法と,翻訳文の品質を絶対的に評価する手法がある.本研究では,機械翻訳システムの文単位での定性的な分析,つまり,評価対象の機械翻訳システムがどのような文に対してどの程度の品質で翻訳できるのかについての分析を可能にするため,各翻訳文に対して絶対的な自動評価を行う.本研究では,人手評価に近い絶対評価ができる手法を信頼性の高い自動評価であると捉え,その信頼性に基づいて各評価手法の性能比較や分析を行う.機械翻訳に関する国際会議ConferenceonMachineTranslation(WMT)\footnote{https://aclanthology.info/venues/wmt}では,機械翻訳自動評価手法の人手評価との相関を競うMetricsSharedTaskが開催されており,これまでに多くの手法が提案されてきた.しかし,現在のデファクトスタンダードであるBLEU\cite{papineni-2002}をはじめとして,ほとんどの機械翻訳自動評価手法は文字$N$-gramや単語$N$-gramなどの局所的な素性を利用しており,文単位での評価にとっては限定的な情報しか扱えていない.また,大域的な情報を考慮するために文の分散表現を用いた手法も存在するが,人手評価値付きのデータセットなどの比較的少量の教師ありデータのみを用いてモデル全体を学習するため,十分な性能を示せていない.そこで本研究では,局所的な素性に基づく従来手法では扱えない大域的な情報を考慮するために,大規模コーパスによって事前学習された文の分散表現を用いる機械翻訳自動評価手法を提案する.我々の提案手法は,(a)~翻訳文と参照文を独立に符号化する手法と,(b)~翻訳文と参照文を同時に符号化する手法に大別できる.これらの2つの提案手法は,大規模コーパスによって事前学習された文の分散表現を素性として利用し,人手評価値付きのデータセット上で訓練された回帰モデルによって機械翻訳の自動評価を行うという点で共通している.我々はまず,事前学習された文の分散表現を用いた機械翻訳自動評価のための回帰モデルRUSE\footnote{https://github.com/Shi-ma/RUSE}(RegressorUsingSentenceEmbeddings)(図~\ref{fig:ruse_bert}(a))を提案する.WMT-2017MetricsSharedTask\cite{bojar-2017}のデータセットにおける実験の結果,RUSEは文単位の全てのto-English言語対で従来手法よりも高い性能を示した.この結果は,事前学習された文の分散表現が機械翻訳の自動評価にとって有用な素性であることを示す.\begin{figure}[t]\begin{center}\includegraphics[scale=1.1]{26-3ia3f1.eps}\end{center}\caption{各手法の概要.散点部は訓練し,横線部は固定する.}\label{fig:ruse_bert}\end{figure}我々は続いて,文および文対の符号化器であるBERTによる機械翻訳自動評価手法(図~\ref{fig:ruse_bert}(b))を提案する.BERT(BidirectionalEncoderRepresentationsfromTransformers)\cite{devlin-2019}は,大規模な生コーパスを用いて双方向言語モデルおよび隣接文推定の事前学習を行った上でタスクに応じた再訓練を行い,多くの自然言語処理タスクで最高性能を更新している.我々は,WMTMetricsSharedTaskの人手評価値付きデータセットを用いて再訓練することで,BERTによる機械翻訳自動評価を可能にした.WMT-2017MetricsSharedTaskのデータセットにおける実験の結果,BERTによる機械翻訳自動評価は文単位の全てのto-English言語対でRUSEを凌ぎ,最高性能を更新した.詳細な分析の結果,RUSEとの主な相違点である事前学習の方法,文対モデリング,符号化器の再訓練の3点が,それぞれBERTによる機械翻訳自動評価における性能改善に貢献していることが明らかになった.本研究の主な貢献は以下の3つである.\begin{itemize}\item事前学習された文の分散表現に基づく機械翻訳自動評価手法RUSEを提案し,事前学習された文の分散表現が機械翻訳の自動評価において有用な素性であることを示した.\item同じく事前学習された文の分散表現に基づくBERTによる機械翻訳の自動評価を行い,WMT-2017MetricsSharedTaskのデータセットを用いる実験において,文単位の全てのto-English言語対で最高性能を更新した.\itemRUSEとBERTによる機械翻訳自動評価の比較に基づく詳細な分析により,BERTの事前学習の方法,文対モデリング,符号化器の再訓練の3点が,それぞれ機械翻訳の自動評価における性能改善に貢献していることを明らかにした.\end{itemize}本稿の構成を示す.2節では,まず機械翻訳の人手評価について説明し,続いて機械翻訳自動評価手法の関連研究について概説する.3節では,事前学習された文の分散表現に基づくRUSEおよびBERTによる機械翻訳の自動評価手法を提案する.4節では,WMTMetricsSharedTaskの人手評価値付きデータセットを用いて,提案手法の評価実験を行う.5節では,訓練データの文対数と性能の関係やfrom-English言語対における性能について分析する.最後に6節で,本研究のまとめを述べる.
\section{関連研究}
\label{sec:related_works}本節では,まず機械翻訳の人手評価について説明し,続いて機械翻訳自動評価手法の関連研究について概説する.自動評価については,人手評価値付きのデータセットを用いて訓練する手法を教師あり手法,訓練しない手法を教師なし手法として分けて説明する.\subsection{機械翻訳の人手評価}\label{sub:human_evaluation}機械翻訳に関する国際会議WMTでは,機械翻訳システムの性能を競うNewsTranslationSharedTaskが開催されており,各システムの翻訳文を研究者やクラウドソーシングによって人手評価してきた.WMTにおける機械翻訳の人手評価としては,各翻訳文に対する相対評価(RR:RelativeRanking)\cite{bojar-2016a}と絶対評価(DA:DirectAssessment)\cite{graham-2013,graham-2014,graham-2017}が行われてきた.人手の相対評価では,ある原文と参照文に対して複数の機械翻訳システムによる翻訳文が与えられ,各翻訳文を順位付けする.しかし,このような相対評価では異なる原文に対する翻訳文同士の品質を比較できないという問題が存在する.そのため,WMT-2016\cite{bojar-2016b}からは人手の絶対評価が行われ始めた\footnote{WMTにおいて,人手の絶対評価が採用され始めたのはWMT-2016NewsTranslationSharedTaskからであるが,WMT-2016MetricsSharedTaskでは訓練用のデータセットとしてWMT-2015NewsTranslationSharedTask\cite{stanojevic-2015b}における翻訳文と参照文に対して人手で付与した絶対評価値付きデータセットが公開されている.}.人手の絶対評価では,ある原文と参照文に対して単一の機械翻訳システムによる翻訳文が与えられ,各翻訳文に妥当性や流暢性についての品質スコアを付与する.WMTの人手評価では,原文は考慮せず,翻訳文と参照文の比較のみによって各翻訳文の妥当性や流暢性について絶対的な評価を行っている.ここでの翻訳文の妥当性とは,参照文との意味的な類似度のことであり,機械翻訳におけるターゲット言語側の単言語の評価タスクとなっている.WMTNewsTranslationSharedTaskにおける妥当性や流暢性の人手評価値の収集は下記の手順で行われる.\begin{enumerate}\itemWMTNewsTranslationSharedTaskに参加した機械翻訳システムの翻訳文とそれに対応する参照文の対が100文対ずつ無作為抽出され,各評価者に割り振られる.\item各評価者は,翻訳文と参照文を比較し,0〜100のアナログスケールにより各翻訳文の妥当性や流暢性を評価する.\item品質管理\cite{graham-2014}により,質の低い評価者による評価値を排除する.\item評価者ごとのスコアの偏りを均質化するため,評価者ごとに平均が0,標準偏差が1となるようにz-scoreを用いて評価値を標準化する.\item複数の評価者による標準化された評価値を平均し,最終的な評価値とする.\end{enumerate}WMTMetricsSharedTaskでは,上記の方法で収集されたデータセットの中から妥当性についての質の高いデータ\footnote{評価者15人以上によって評価された翻訳文と参照文の対\cite{graham-2015}}を各言語対ごとに無作為抽出することにより,人手の絶対評価値付きデータセットを作成している.本研究では,この人手による妥当性についての絶対評価値付きデータセットを用いて,提案手法を訓練および評価する.\subsection{機械翻訳の自動評価のための教師なし手法}\label{sub:unsupervised}機械翻訳の自動評価におけるデファクトスタンダードであるBLEU\cite{papineni-2002}は,単語$N$-gramの一致率に基づくシステム単位の教師なし手法である.文単位での評価のためには,平滑化されたSentBLEU\footnote{https://github.com/moses-smt/mosesdecoder/blob/master/scripts/generic/mteval-v13a.pl}が用いられる.SentBLEUは,WMTMetricsSharedTaskにおけるベースラインとして利用されている.AM-FM\cite{banchs-2015}は,機械翻訳自動評価のために文の分散表現を用いる教師なし手法であり,妥当性に基づく評価手法であるAdequacyMetric(AM)と流暢性に基づく評価手法であるFluencyMetric(FM)の調和平均を最終的な翻訳文の評価値とする.妥当性を評価するAMでは,潜在的意味インデキシング(LSI)により得られる,参照文と翻訳文の各分散表現間のコサイン類似度に基づいて翻訳文を評価する.流暢性を求めるFMでは,$N$-gram言語モデルに基づいて翻訳文を評価する.chrF\footnote{https://github.com/m-popovic/chrF}\cite{popovic-2015}は,文字$N$-gramのF値に基づく手法である.また,chrF+およびchrF++\cite{popovic-2017}は,文字$N$-gramとともに単語$N$-gramのF値も考慮する.これらの手法は,WMT-2016\cite{bojar-2016b}以降のMetricsSharedTaskにおいて文単位のfrom-English言語対で常に高い性能を示している.MEANT~2.0\footnote{http://chikiu-jackie-lo.org/home/index.php/meant}\cite{lo-2017}は,逆文書頻度で重み付けされた単語$N$-gram,単語分散表現に基づく単語類似度および意味役割付与(SRL)に基づく構文類似度を用いる手法である.SRLを利用できない言語においては,MEANT~2.0-nosrlを適用することができる.MEANT~2.0はWMT-2017MetricsSharedTaskにおいて,文単位のto-English言語対で高い性能を示しており,教師なし手法の中では最も高い性能を示している.また,MEANT~2.0-nosrlはWMT-2017MetricsSharedTaskにおいて,文単位のfrom-English言語対で最高性能を示している.これらの教師なし手法は,多くの言語対において一貫した評価ができるという利点を持つ.しかし,評価値のラベル付きデータが比較的多く存在するto-English言語対においては,教師あり手法がより高い性能を示している.我々は,to-English言語対を主な対象として,より人手評価に近い絶対評価ができる教師あり手法を提案する.\subsection{機械翻訳の自動評価のための教師あり手法}\label{sub:supervised}BEER\footnote{https://github.com/stanojevic/beer}\cite{stanojevic-2015a}は,文字$N$-gramの一致率を素性として人手の相対評価値付きデータセット上で訓練を行う教師あり手法である.この手法は,WMT-2017のMetricsSharedTaskにおいて,文単位のfrom-English言語対で高い性能を示している.Blend\footnote{https://github.com/qingsongma/blend}\cite{ma-2017}は,機械翻訳の自動評価用ツールキットAsiya\footnote{http://asiya.lsi.upc.edu}\cite{PBML_Asiya:2010}の基本25素性に先述のBEERなど4種類の他の機械翻訳自動評価手法\cite{stanojevic-2015a,wang-2016,yu-2015a,yu-2015b}を組み合わせたアンサンブル手法であり,人手の絶対評価値付きデータセット上で訓練する教師あり手法である.この手法は,WMT-2017MetricsSharedTaskにおいて,文単位のto-English言語対で最高性能を達成している.Blendは多くの素性を用いる手法であるが,文字単位の編集距離や単語$N$-gramに基づく素性など,文全体を同時に考慮できない局所的な情報のみに頼っている.本研究では,これらの教師あり学習に基づく従来手法では扱えない大域的な情報を考慮する手法を提案する.\subsection{機械翻訳の自動評価のための大域的な素性に基づく教師あり手法}\label{sub:reval}文全体の大域的な情報を考慮する手法として,文の分散表現に基づくReVal\footnote{https://github.com/rohitguptacs/ReVal}\cite{gupta-2015}がある.ReValはWMTMetricsSharedTaskおよび文対の意味的類似度推定タスク\cite{marelli-2014}における人手の相対評価値付きデータセット上でTree-LSTM\cite{tai-2015}によって文の分散表現を学習する.しかし,小規模なラベル付きコーパスのみを用いるため十分な性能を達成できていない\cite{bojar-2016b}.本研究では,大規模な生コーパス上で事前学習された文の分散表現を利用することで,文単位での表現学習における少資源問題を克服する.
\section{事前学習された文の分散表現を用いた機械翻訳の自動評価}
\label{sec:ruse}従来手法に多く見られる文字や単語の$N$-gram素性に基づく機械翻訳自動評価手法には,文全体の大域的な情報を考慮できないため,参照文と表層的には異なるが意味的には似ている翻訳文に対して正確な評価ができないという問題がある.一方で,\ref{sub:reval}節で説明したReValは文の分散表現を用いて大域的な情報を考慮するが,WMTMetricsSharedTaskのデータセットなどの小規模なラベル付きコーパスのみを用いてモデル全体を訓練するため,文単位での十分な表現学習ができていない.そこで本研究では,大域的な情報を考慮する際の少資源問題を解決するために,事前学習された文の分散表現に基づく機械翻訳自動評価手法を提案する.我々の提案手法は,RUSEとBERTによる機械翻訳自動評価の2つである.まず\ref{sub:ruse}節では,文の分散表現を用いた機械翻訳自動評価のための回帰モデルであるRUSEについて説明する.次に\ref{sub:bert}節では,文対を同時に符号化するBERTによる機械翻訳自動評価について説明する.\subsection{RUSE:文の分散表現を用いた機械翻訳自動評価のための回帰モデル}\label{sub:ruse}本節では,事前学習された文の分散表現を素性とする回帰モデルRUSE(RegressorUsingSentenceEmbeddings)について説明する.まず\ref{subsub:sentence_embeddings}節では,RUSEで使用する3種類の文の分散表現について説明する.続いて\ref{subsub:ruse_regressor}節では,機械翻訳自動評価のための回帰モデルおよび素性抽出について述べる.\subsubsection{事前学習された文の分散表現}\label{subsub:sentence_embeddings}大規模なコーパスを用いて事前学習された文の分散表現は,文書分類や文対の意味的類似度推定など多くの応用タスク\cite{conneau-2018}において高い性能を発揮している.本研究では,教師あり学習に基づくInferSent\cite{conneau-2017},教師なし学習に基づくQuickThought\cite{logeswaran-2018}およびマルチタスク学習に基づくUniversalSentenceEncoder\cite{cer-2018}の3手法を用いて文全体の大域的な情報を考慮する.InferSent\footnote{https://github.com/facebookresearch/InferSent}は,含意関係認識のためのStanfordNaturalLanguageInference(SNLI)データセット\cite{bowman-2015}上でMax-poolingを用いた双方向LSTMネットワークを訓練する教師あり学習に基づく手法である.図~\ref{fig:infersent}に示すように,文$u$および$v$をそれぞれ符号化し,それらの分散表現$\vec{u}$および$\vec{v}$から素性を抽出し,含意関係認識の3値分類を通して文の符号化器を学習する.含意関係認識とは,所与の文対の関係を含意/矛盾/中立に3値分類するタスクであり,意味の違いに敏感な文の分散表現が得られると期待できる.QuickThought\footnote{https://github.com/lajanugen/S2V}は,大規模な生コーパス上で双方向GRUネットワークを用いて隣接文推定することにより,教師なしで文の表現学習を行う手法である.図~\ref{fig:quick-thought}に示すように,文$i$,その文脈$t$,その他の文(対比文)$c_1,c_2,...,c_k$が与えられ,2種類の文の符号化器$f$および$g$がそれぞれ文を符号化する.そして,入力文の分散表現$\vec{i}$との最大の内積値を持つ分散表現に対応する文を隣接文として推定する分類器を用いて,隣接文推定の学習を行う.応用タスクでは,所与の文を2つの符号化器$f$および$g$を用いてそれぞれ符号化し,各符号化器から得られる分散表現を連結することによって文の分散表現を獲得する.隣接文推定タスクを通して文の符号化器を学習することによって,文対の関係を考慮した分散表現が得られると期待できる.\begin{figure}[t]\noindent\begin{minipage}[b]{158pt}\begin{center}\includegraphics[scale=1.1]{26-3ia3f2.eps}\end{center}\caption{InferSentの概要図}\label{fig:infersent}\end{minipage}\begin{minipage}[b]{260pt}\begin{center}\includegraphics[scale=1.1]{26-3ia3f3.eps}\end{center}\caption{QuickThoughtの概要図}\label{fig:quick-thought}\end{minipage}\end{figure}UniversalSentenceEncoder\footnote{https://www.tensorflow.org/hub/modules/google/universal-sentence-encoder-large/2}は,復号器を用いるSkip-Thought\cite{kiros-2015}のような隣接文推定,発話応答推定および含意関係認識の3タスクを用いて自己注意機構に基づくネットワーク\cite{vaswani-2017}をマルチタスク学習する手法である.UniversalSentenceEncoderでは隣接文推定や発話応答推定のための訓練データとして,Wikipedia,ニュース,QAサイト,議論サイトなどの多様なWebソースを用いる.多様なドメインのコーパスに基づくマルチタスク学習によって,幅広い応用タスクにおいて有用な文の分散表現が得られると期待できる.\subsubsection{機械翻訳自動評価のための回帰モデルと素性抽出}\label{subsub:ruse_regressor}機械翻訳の自動評価は,翻訳文と参照文から翻訳文の人手評価値を推定する回帰タスクとして考えることができる.そこでRUSE(図~\ref{fig:ruse_bert}(a))は,所与の翻訳文$t$と参照文$r$から\ref{subsub:sentence_embeddings}節の符号化器を用いて分散表現$\vec{t}$および$\vec{r}$を獲得し,InferSent\cite{conneau-2017}にならって以下の3つの方法で翻訳文と参照文の関係を抽出し,それら3つを連結したものを素性として多層パーセプトロン(MLP)に基づく回帰モデルを訓練する.\begin{itemize}\item連結:$(\vec{t},\vec{r})$\item要素積:$\vec{t}*\vec{r}$\item要素差:$|\vec{t}-\vec{r}|$\end{itemize}回帰モデルには,これらの3種類の素性を連結した4$d$次元の素性が入力される.\pagebreakただし,$d$は分散表現$\vec{t}$および$\vec{r}$の次元数である.RUSEでは回帰モデルのみを学習し,文の符号化器の再訓練は行わない.\subsection{BERTによる機械翻訳自動評価}\label{sub:bert}文および文対単位の表現学習モデルであるBERT(BidirectionalEncoderRepresentationsfromTransformers)\cite{devlin-2019}が,文対の意味的類似度推定など多くのタスクで最高性能を更新し,注目を集めている.本節では,BERTを用いて機械翻訳の自動評価を行う.BERTによる機械翻訳の自動評価はRUSEと同じく,事前学習された文の分散表現を利用し,MLPによって人手評価値を推定する.ただし,図~\ref{fig:ruse_bert}(b)に示すように,BERTによる機械翻訳の自動評価では翻訳文と参照文の両方を文対の符号化器で同時に符号化する.以下では,RUSEとの主な相違点でありBERTによる機械翻訳自動評価の特徴である,事前学習の方法,文対モデリング,符号化器の再訓練について詳細に説明する.\subsubsection{BERTにおける事前学習}\label{subsub:bert_pre-train}BERTは,大規模な生コーパス上で双方向の自己注意機構に基づくネットワーク\cite{vaswani-2017}を用いて,以下の2種類の教師なし事前学習を同時に行う.\paragraph{双方向言語モデル:}生コーパスの一部のトークンを[MASK]トークンに置換した上で,双方向の言語モデルによって元のトークンを推定する.この教師なしの事前学習によって,BERTの符号化器は文内におけるトークン間の関係を学習する.\paragraph{隣接文推定:}生コーパスの一部の文を無作為に他の文に置換した上で,連続する2文が隣接していた文対か否かを2値分類する.この教師なしの事前学習によって,BERTの符号化器は文対の関係を学習する.\subsubsection{BERTにおける文対モデリング}\label{subsub:bert_sentence-pair_encoding}BERTでは,隣接文推定や含意関係認識などの文対を扱うタスクのために,各文を独立に符号化するのではなく,文対を同時に符号化する.文対に含まれる各文は,入力系列の先頭に一度のみ追加される[CLS]トークンおよび各文末に追加される[SEP]トークンによって区別される(図~\ref{fig:bert_input}).最終的に,[CLS]トークンに対応する最終の隠れ層が,文対の分散表現を表す\footnote{極性分類などの単一文を扱うタスクのために,文対ではなく文を符号化することもできる.この場合,文頭と文末に[CLS]トークンと[SEP]トークンが一度ずつ追加され,[CLS]に対応する最終の隠れ層が文の分散表現を表す.}.\subsubsection{BERTにおける符号化器の再訓練}\label{subsub:bert_fine-tuning}BERTでは,符号化器で文または文対の分散表現を得た後,それを入力としてMLPによって分類や回帰などの応用タスクを解く.なお,応用タスクのラベル付きデータを用いてMLPを訓練する際,文または文対の分散表現を得るための符号化器も再訓練する.\begin{figure}[b]\begin{center}\includegraphics{26-3ia3f4.eps}\end{center}\caption{BERTの文対モデリング($u$,$v$:入力トークン,$T,T'$:各入力トークンに対する分散表現)}\label{fig:bert_input}\end{figure}
\section{評価実験}
\label{sec:experiment_wmt17}本節では,WMTMetricsSharedTaskにおける人手の絶対評価値付きデータセットを用いて,文単位のto-English言語対における提案手法の有効性を検証する.\begin{table}[b]\caption{WMTMetricsSharedTaskのto-English言語対における人手の絶対評価値付き文対数}\label{tab:dataset_da}\input{03table01.tex}\end{table}\subsection{実験設定}\label{sub:settings_wmt17}表~\ref{tab:dataset_da}に,\ref{sub:human_evaluation}節の手順により作成された人手の絶対評価値付きデータセットの言語対\footnote{en:英語,cs:チェコ語,de:ドイツ語,fi:フィンランド語,ro:ルーマニア語,ru:ロシア語,tr:トルコ語,lv:ラトビア語,zh:中国語}ごとの文対数を示す.これらのデータセットにおける人手の絶対評価値は,約$-1.95$〜約$1.65$の実数値で示されている.本実験では,WMT-2015\cite{stanojevic-2015b}およびWMT-2016\cite{bojar-2016b}の合計5,360文対を無作為に分割し,9割を訓練用,1割を開発用に利用する.また,WMT-2017\cite{bojar-2017}の文対は評価用に利用する.RUSEの素性には,それぞれ著者らによって公開されている学習済みのInferSent,QuickThoughtおよびUniversalSentenceEncoderを用いて文の分散表現を得る.BERTには,著者らによって公開されている訓練済みモデルのうち,BERT$_\text{BASE}$(uncased)\footnote{https://github.com/google-research/bert}を用いる.各自動評価手法のメタ評価のために,人手の絶対評価値とのピアソンの積率相関係数,スピアマンの順位相関係数および平均2乗誤差を用いる.ピアソンの積率相関係数は,WMTMetricsSharedTaskで用いられており,各手法が出力する評価値の絶対的なメタ評価ができる指標である.しかし,ピアソンの積率相関係数は外れ値が存在した場合に不当な値を示すという問題が存在するため,本実験ではスピアマンの順位相関係数によるメタ評価も行う.また本研究では,機械翻訳の自動評価を回帰問題として扱っているため,各自動評価手法がどれほど人手の評価値に近い値を出力しているかについても評価したい.そのため,本タスクを回帰問題として扱っているBlend,RUSEおよびBERTについては,人手の評価値と各手法の評価値の平均2乗誤差によるメタ評価も行う.\subsection{比較手法}\label{sub:metrics_wmt17}本実験では,WMT-2017MetricsSharedTaskにおけるベースラインであるSentBLEUおよび上位3手法を提案手法と比較する.比較手法のメタ評価には,WMT-2017MetricsSharedTask\footnote{http://www.statmt.org/wmt17/results.html}で公開されている各手法の評価値を利用した.提案手法については,事前学習された文の分散表現による貢献を明らかにするため,RUSEの素性として単語分散表現の平均ベクトルを用いた実験も行う.RUSEとBERTによる機械翻訳自動評価を比較するため,最終的に以下の7つの設定で実験した.\paragraph{RUSEwithGloVe-BoW:}図~\ref{fig:ruse_bert}(a)の文の分散表現として,単語分散表現GloVe\cite{pennington-2014}(glove.840B.300d\footnote{https://nlp.stanford.edu/projects/glove})の平均ベクトルを用いる.この300次元のベクトルを文の分散表現として,\ref{subsub:ruse_regressor}節の方法で素性を抽出する.\paragraph{RUSEwithIS:}SNLIデータセット\cite{bowman-2015}の56万文およびMultiNLIデータセット\cite{williams-2018}の約43万文の両方を用いて事前学習されたInferSentによって4,096次元の文の分散表現を獲得し,\ref{subsub:ruse_regressor}節の方法で素性を抽出する.\paragraph{RUSEwithQT:}BookCorpusデータセット\cite{Zhu-2015}の4,500万文およびUMBCWebBase\cite{han-2013}の約1億3,000万文の両方を用いて事前学習されたQuickThoughtによって4,800次元の文の分散表現を獲得し,\ref{subsub:ruse_regressor}節の方法で素性を抽出する.\paragraph{RUSEwithUSE:}Wikipedia,ニュース,QAサイト,議論サイトなどの多様なWebソースを用いて事前学習されたUniversalSentenceEncoderによって512次元の文の分散表現を獲得し,\ref{subsub:ruse_regressor}節の方法で素性を抽出する.\paragraph{RUSEwithBERT:}単一文を入力とするBERTの[CLS]トークンに対応する隠れ層のうち,最終4層を連結したものを3,072次元の文の分散表現として\ref{subsub:ruse_regressor}節の方法で素性を抽出する.ただし,BERTの符号化器の部分は再訓練しない.\paragraph{BERT(w/ofine-tuning):}文対を入力とするBERTの[CLS]トークンに対応する隠れ層のうち最終4層を連結したもの(3,072次元)を,図~\ref{fig:ruse_bert}(b)のMLPの入力として用いる.ただし,BERTの符号化器の部分は再訓練しない.\paragraph{BERT:}文対を入力とするBERTの[CLS]トークンに対応する最終隠れ層(768次元)を図~\ref{fig:ruse_bert}(b)のMLPの入力として用い,MLPとともにBERTの符号化器の部分も再訓練する.RUSEとBERT(w/ofine-tuning)の各パラメータは,以下の組み合わせの中からグリッドサーチにより,開発データにおける平均2乗誤差が最も小さいモデルを選択する.なお,全ての層において活性化関数はReLUを使用する.\begin{itemize}\item$バッチサイズ\in\{64,128,256,512,1024\}$\item$学習率(\text{Adam})\in\{\text{1e-3}\}$\item$エポック数\in\{1,2,...,30\}$\item$\text{ドロップアウト率}\in\{0.1,0.3,0.5\}$\item$\text{MLPの隠れ層の数}\in\{1,2,3\}$\item$\text{MLPの隠れ層の次元}\in\{512,1024,2048,4096\}$\end{itemize}BERTの各パラメータは,著者らによって提唱されている組み合わせの中からグリッドサーチにより,開発データにおける平均2乗誤差が最も小さいモデルを選択する.\begin{table}[b]\caption{WMT-2017MetricsSharedTask(to-English言語対)におけるピアソンの積率相関係数}\label{tab:experiment_wmt17_pearson}\input{03table02.tex}\end{table}\subsection{実験結果}\label{sub:results_wmt17}表~\ref{tab:experiment_wmt17_pearson},表~\ref{tab:experiment_wmt17_spearman}および表~\ref{tab:experiment_wmt17_mse}にWMT-2017MetricsSharedTaskにおける実験結果を示す.表~\ref{tab:experiment_wmt17_pearson}および表~\ref{tab:experiment_wmt17_spearman}より,BERTが全てのto-English言語対において人手評価との最高の相関を示す.同様に,表~\ref{tab:experiment_wmt17_mse}より,BERTがzh-en以外の言語対で最小の誤差を示す.これらの結果は,文対を同時に符号化する表現学習モデルであるBERTが機械翻訳自動評価タスクにおいても有効であることを示す.\begin{table}[t]\caption{WMT-2017MetricsSharedTask(to-English言語対)におけるスピアマンの順位相関係数}\label{tab:experiment_wmt17_spearman}\input{03table03.tex}\end{table}\begin{table}[t]\caption{WMT-2017MetricsSharedTask(to-English言語対)における平均2乗誤差}\label{tab:experiment_wmt17_mse}\input{03table04.tex}\end{table}各表の下段を比較すると,事前学習された文の分散表現を素性として用いた全てのRUSEモデルが,単語分散表現の平均ベクトルを素性として用いたRUSEwithGloVe-BoWよりも高い相関および小さな誤差を示していることがわかる.これらの結果は,文全体の大域的な情報を考慮できる文の分散表現に基づく素性が,機械翻訳自動評価にとって有用であることを意味する.また,QuickThoughtやBERTの素性を用いるRUSEwithQTおよびRUSEwithBERTが,単一の符号化器に基づく提案手法の中でも特に高い性能を示した.このことから,隣接文推定の教師なし学習によって得られる文の分散表現が,機械翻訳の評価において特に有効であると考えられる.UniversalSentenceEncoderもマルチタスク学習の一部として隣接文推定を行っているが,これはQuickThoughtやBERTにおける隣接文推定とは設定が異なる.QuickThoughtやBERTにおける隣接文推定では,符号化器と単純な分類器を用いて文対が隣接するか否かを分類する.一方でUniversalSentenceEncoderにおける隣接文推定では,符号化器と復号器を用いて入力文から隣接文を生成する.そのため,前者はタスクを解くための情報を符号化器が獲得するが,後者は符号化器と復号器の両方にタスクを解くための情報が散在すると考えられる.この違いのために,QuickThoughtやBERTが有用性の高い文の分散表現を獲得できた.さらに,隣接文推定のみによって事前学習されたRUSEwithQuickThoughtよりも,双方向言語モデルと隣接文推定の両方によって事前学習されたRUSEwithBERTの方が,多くの言語対において高い性能を示していることがわかる.このことから,BERTの符号化器における事前学習の方法による性能への影響がわかる.つまり,BERTの大きな特徴のひとつである双方向言語モデルによる事前学習は,機械翻訳の自動評価のためにも有効であると考えられる.RUSEwithBERTとBERT(w/ofine-tuning)を比較すると,BERTの文対モデリングによる性能への影響がわかる.多くの言語対において,翻訳文と参照文を独立に符号化する前者よりも,同時に符号化する後者の方が高い性能を持つ.RUSEでは,InferSentにならって2つの文の分散表現を組み合わせる素性抽出を行ったが,これが機械翻訳の自動評価に適した素性抽出の方法であるとは限らない.一方で,BERTの文対モデリングは,素性抽出を陽に行うことなく文対の関係を考慮した分散表現を得ている.BERTでは隣接文推定による事前学習の際に,上手く文対の関係を学習できている可能性がある.BERT(w/ofine-tuning)とBERTを比較すると,符号化器の再訓練による性能への影響がわかる.事前学習された文対の符号化器から素性抽出を行いMLPのみを訓練するBERT(w/ofine-tuning)よりも,文対の分散表現を素性としMLPとともに符号化器を再訓練するBERTの方が,全ての言語対において大幅に高い相関を示し,zh-en以外の言語対で最小の誤差を示す.つまり,BERTの大きな特徴のひとつである符号化器の再訓練は,機械翻訳の自動評価のためにも有効である.
\section{分析}
\label{sec:analysis}\subsection{訓練データの文対数と性能の関係}\label{sub:larning_curve}本節では,WMT-2017のlv-en言語対の560文対を評価用データとして,RUSEとBERTについて訓練データの文対数と性能の関係を分析する.WMT-2015,WMT-2016およびWMT-2017のlv-en言語対以外の合計8,720文対を無作為に分割し,8,160文対を訓練用,560文対を開発用に利用する.そして,訓練用データを510文対,1,020文対,2,040文対,4,080文対,8,160文対の5つの大きさでそれぞれ無作為抽出し,開発用データと評価用データにおける人手評価値とのピアソンの積率相関係数,スピアマンの順位相関係数および平均2乗誤差を評価する.RUSEの素性には\ref{sub:settings_wmt17}節で述べたQuickThoughtを用いる.RUSEの各パラメータは\ref{sub:settings_wmt17}節の組み合わせの中からグリッドサーチにより,開発データにおける平均2乗誤差が最も小さいモデルを選択するが,バッチサイズのみ以下に変更した.\begin{itemize}\item$バッチサイズ\in\{16,32,64,128,256,512,1024\}$\end{itemize}BERTの各パラメータは,著者らによって提唱されている組み合わせの中からグリッドサーチにより,開発データにおける平均2乗誤差が最も小さいモデルを選択するが,バッチサイズとエポック数のみ以下に変更した.\begin{itemize}\item$バッチサイズ\in\{8,16,32\}$\item$エポック数\in\{1,2,...,6\}$\end{itemize}\begin{figure}[b]\begin{center}\includegraphics{26-3ia3f5.eps}\end{center}\caption{RUSE(左)とBERT(右)における学習曲線(人手評価とのピアソンの積率相関係数)}\label{fig:LC_pearson}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{26-3ia3f6.eps}\end{center}\caption{RUSE(左)とBERT(右)における学習曲線(人手評価とのスピアマンの順位相関係数)}\label{fig:LC_spearman}\end{figure}図~\ref{fig:LC_pearson},図~\ref{fig:LC_spearman}および図~\ref{fig:LC_mse}に,RUSEとBERTのピアソンの積率相関係数,スピアマンの順位相関係数および平均二乗誤差に対する学習曲線をそれぞれ示す.RUSEの学習曲線およびBERTの学習曲線において,訓練データ数が510文対の場合と8,160文対の場合では評価時のピアソンの積率相関係数およびスピアマンの順位相関係数に約0.1の差があり,評価時の平均2乗誤差には約0.05以上の差がある.このことから,RUSEおよびBERTによる機械翻訳自動評価の両手法において,訓練データ数による性能の変化が大きいことがわかる.また,図~\ref{fig:LC_pearson}と図~\ref{fig:LC_spearman}および図~\ref{fig:LC_mse}より,BERTによる機械翻訳自動評価は訓練データ数が510文対の場合でも,RUSEの8,160文対の訓練データ数での性能を上回っていることがわかる.510文対のデータで訓練されたBERTによる機械翻訳自動評価の性能は,表\ref{tab:experiment_wmt17_pearson}と表\ref{tab:experiment_wmt17_spearman}および表\ref{tab:experiment_wmt17_mse}におけるいずれの比較手法よりも同等もしくは高い性能を示している.以上の分析から,BERTは少量のラベル付きコーパスを用いる訓練でも高い性能を発揮することがわかり,訓練データ数を増やすことが可能であれば,更に信頼性の高い機械翻訳自動評価手法になると考えられる.\begin{figure}[t]\begin{center}\includegraphics{26-3ia3f7.eps}\end{center}\caption{RUSE(左)とBERT(右)における学習曲線(人手評価との平均2乗誤差)}\label{fig:LC_mse}\end{figure}\subsection{from-English言語対における性能}\label{sub:from-english}本節では,to-English言語対以外の設定として,from-English言語対の中で最も多くのラベル付きコーパスが存在するen-ru言語対における性能を調査する.WMT-2015の500文対およびWMT-2016の560文対の合計1,060文対を無作為に分割し,9割を訓練用,1割を開発用に利用する.評価用には,WMT-2017の560文対を用いる.RUSEの素性には,ロシア語のWikipedia上で事前学習したQuickThoughtを用いる.RUSEの各パラメータは\ref{sub:settings_wmt17}節の組み合わせの中からグリッドサーチにより,開発データにおける平均2乗誤差が最も小さいモデルを選択するが,バッチサイズとMLPの隠れ層の次元のみ以下に変更した.\begin{itemize}\item$バッチサイズ\in\{16,32,64,128,256\}$\item$\text{MLPの隠れ層の次元}\in\{128,256,512,1024,2048,4096\}$\end{itemize}BERTには,著者らによって公開されている多言語対応の訓練済みモデル(Multilingual,Cased)\footnote{https://github.com/google-research/bert/blob/master/multilingual.md}を用いる.BERTの各パラメータは,\ref{sub:larning_curve}節と同様に選択する.比較手法として,WMTMetricsSharedTaskのベースラインであるSentBLEU,WMT-2017MetricsSharedTaskにおける上位3手法である,chrF+\cite{popovic-2017},MEANT~2.0-nosrl\cite{lo-2017}およびBlend\cite{ma-2017}を用いる.\ref{sub:metrics_wmt17}節と同様に,各比較手法の公開されている評価値を用いて各比較手法のメタ評価を行った.人手評価値とのピアソンの積率相関係数,スピアマンの順位相関係数および平均2乗誤差によって各手法を評価する.評価の結果を表~\ref{tab:from-english}に示す.教師あり学習に基づくBlendとRUSEを比較すると,RUSEの方が高い性能を示しており,to-English言語対以外の設定においても事前学習された文の分散表現が機械翻訳の自動評価にとって有効な素性であると言える.しかし,RUSEは教師なし学習に基づくchrF+およびMEANT~2.0-nosrlの性能には及ばない.前節の分析から,RUSEは訓練データ数による性能の変化が大きいことが確認されており,en-ru言語対においても同様の理由で性能が低下していると考えられる.\begin{table}[t]\hangcaption{WMT-2017MetricsSharedTask(en-ru言語対)における人手による絶対評価とのピアソンの積率相関係数,スピアマンの順位相関係数および平均2乗誤差}\label{tab:from-english}\input{03table05.tex}\end{table}一方でBERTは,他の手法よりも大幅に高い性能を示している.同じく前節の分析から,BERTは少量のデータでも高い性能を発揮することが確認されており,en-ru言語対においても最高性能を達成した.このことからBERTは,少量のラベル付きコーパスが利用できれば,様々な言語対に対応した機械翻訳自動評価手法になると考えられる.\subsection{出力例}\label{output_examples}WMT-2017MetricsSharedTaskにおいて文単位のto-English言語対で最高性能を達成したBlendと,提案手法であるRUSEおよびBERTによる機械翻訳自動評価の出力を比較をする.人手評価値と各手法の評価値を比較するために,\ref{sub:larning_curve}節と同様にWMT-2017におけるlv-en言語対560文対に対する人手評価値および各手法の評価値を用いた.表~\ref{tab:examples}に,翻訳文と参照文に対する人手評価値および各手法の評価値を示す.成功例1において,参照文と語彙や構文は異なるが意味が似ている(人手評価値が高い)翻訳文に対して,Blendでは低い値をつけてしまっているのに対し,提案手法であるRUSEやBERTによる評価ではBlendより高い値を示しており,正しい評価が行えている.また,成功例2において,参照文と語彙や構文が似ているが意味が異なる(人手評価値が低い)翻訳文に対して,Blendでは高い値をつけてしまっているのに対し,RUSEやBERTによる評価では低い値を示しており,正しい評価が行えている.このことから,RUSEやBERTは,局所的な素性に基づく手法であるBlendでは扱えない大域的な情報を考慮した評価ができていると考えられる.\begin{table}[t]\caption{Blend,RUSEおよびBERTによる機械翻訳自動評価の出力例}\label{tab:examples}\input{03table06.tex}\end{table}失敗例には言い換えの問題があると考えられ,どの手法でも人手評価より低い値をつけてしまっている.Blendによる評価では,言い換えによる表層の不一致の影響により低い値がつけられていると考えられる.RUSEやBERTによる評価では,文全体の言い換えの関係を上手く捉えられていないため,低い値をつけてしまっていると考えられる.
\section{おわりに}
本研究では,信頼性の高い文単位での絶対的な自動評価を行うため,事前学習された文の分散表現に基づく機械翻訳の自動評価手法を提案した.我々は,大規模な生コーパスを用いる隣接文推定や双方向言語モデルの教師なし事前学習によって,機械翻訳の自動評価のために有用な文の符号化器が得られることを示した.我々の提案手法は,局所的な素性に基づく従来手法では扱えない大域的な情報を考慮することができ,翻訳文と参照文の間の表層的な一致率にとらわれない正確な自動評価を可能にした.RUSEによる機械翻訳の自動評価では,WMT-2017MetricsSharedTaskの評価実験において,文単位のto-English言語対でどの従来手法よりも高い性能を示した.また,BERTによる機械翻訳の自動評価では,WMT-2017MetricsSharedTaskの評価実験において,文単位の全てのto-English言語対でRUSEを凌ぎ,最高性能を更新した.詳細な分析の結果,BERTによる機械翻訳の自動評価は,事前学習の方法,文対モデリング,符号化器の再訓練の3点がそれぞれ性能改善に貢献しており,少量のラベル付きコーパスのみを用いても高い性能を発揮することがわかった.\acknowledgment本研究の一部はJSPS科研費(研究活動スタート支援,課題番号:18H06465)の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Banchs,D'Haro,\BBA\Li}{Banchset~al.}{2015}]{banchs-2015}Banchs,R.~E.,D'Haro,L.~F.,\BBA\Li,H.\BBOP2015\BBCP.\newblock\BBOQAdequacy-FluencyMetrics:EvaluatingMTintheContinuousSpaceModelFramework.\BBCQ\\newblock{\BemIEEE/ACMTransactionsonAudio,Speech,andLanguageProcessing},{\Bbf23}(3),\mbox{\BPGS\472--482}.\bibitem[\protect\BCAY{Bojar,Chatterjee,Federmann,Graham,Haddow,Huck,Jimeno~Yepes,Koehn,Logacheva,Monz,Negri,Neveol,Neves,Popel,Post,Rubino,Scarton,Specia,Turchi,Verspoor,\BBA\Zampieri}{Bojaret~al.}{2016}]{bojar-2016a}Bojar,O.,Chatterjee,R.,Federmann,C.,Graham,Y.,Haddow,B.,Huck,M.,Jimeno~Yepes,A.,Koehn,P.,Logacheva,V.,Monz,C.,Negri,M.,Neveol,A.,Neves,M.,Popel,M.,Post,M.,Rubino,R.,Scarton,C.,Specia,L.,Turchi,M.,Verspoor,K.,\BBA\Zampieri,M.\BBOP2016\BBCP.\newblock\BBOQFindingsofthe2016ConferenceonMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe1stConferenceonMachineTranslation},\mbox{\BPGS\131--198}.\bibitem[\protect\BCAY{Bojar,Graham,\BBA\Kamran}{Bojaret~al.}{2017}]{bojar-2017}Bojar,O.,Graham,Y.,\BBA\Kamran,A.\BBOP2017\BBCP.\newblock\BBOQResultsoftheWMT17MetricsSharedTask.\BBCQ\\newblockIn{\BemProceedingsofthe2ndConferenceonMachineTranslation},\mbox{\BPGS\489--513}.\bibitem[\protect\BCAY{Bojar,Graham,Kamran,\BBA\Stanojevi{\'{c}}}{Bojaret~al.}{2016}]{bojar-2016b}Bojar,O.,Graham,Y.,Kamran,A.,\BBA\Stanojevi{\'{c}},M.\BBOP2016\BBCP.\newblock\BBOQResultsoftheWMT16MetricsSharedTask.\BBCQ\\newblockIn{\BemProceedingsofthe1stConferenceonMachineTranslation},\mbox{\BPGS\199--231}.\bibitem[\protect\BCAY{Bowman,Angeli,Potts,\BBA\Manning}{Bowmanet~al.}{2015}]{bowman-2015}Bowman,S.~R.,Angeli,G.,Potts,C.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQALargeAnnotatedCorpusforLearningNaturalLanguageInference.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\632--642}.\bibitem[\protect\BCAY{Cer,Yang,Kong,Hua,Limtiaco,St.~John,Constant,Guajardo-Cespedes,Yuan,Tar,Strope,\BBA\Kurzweil}{Ceret~al.}{2018}]{cer-2018}Cer,D.,Yang,Y.,Kong,S.-y.,Hua,N.,Limtiaco,N.,St.~John,R.,Constant,N.,Guajardo-Cespedes,M.,Yuan,S.,Tar,C.,Strope,B.,\BBA\Kurzweil,R.\BBOP2018\BBCP.\newblock\BBOQUniversalSentenceEncoderforEnglish.\BBCQ\\newblockIn{\BemProceedingsofthe2018ConferenceonEmpiricalMethodsinNaturalLanguageProcessing:SystemDemonstrations},\mbox{\BPGS\169--174}.\bibitem[\protect\BCAY{Conneau\BBA\Kiela}{Conneau\BBA\Kiela}{2018}]{conneau-2018}Conneau,A.\BBACOMMA\\BBA\Kiela,D.\BBOP2018\BBCP.\newblock\BBOQSentEval:AnEvaluationToolkitforUniversalSentenceRepresentations.\BBCQ\\newblockIn{\BemProceedingsofthe11thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\1669--1704}.\bibitem[\protect\BCAY{Conneau,Kiela,Schwenk,Barrault,\BBA\Bordes}{Conneauet~al.}{2017}]{conneau-2017}Conneau,A.,Kiela,D.,Schwenk,H.,Barrault,L.,\BBA\Bordes,A.\BBOP2017\BBCP.\newblock\BBOQSupervisedLearningofUniversalSentenceRepresentationsfromNaturalLanguageInferenceData.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\670--680}.\bibitem[\protect\BCAY{Devlin,Chang,Lee,\BBA\Toutanova}{Devlinet~al.}{2019}]{devlin-2019}Devlin,J.,Chang,M.-W.,Lee,K.,\BBA\Toutanova,K.\BBOP2019\BBCP.\newblock\BBOQBERT:Pre-trainingofDeepBidirectionalTransformersforLanguageUnderstanding.\BBCQ\\newblockIn{\BemProceedingsofthe2019ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies,Volume1(LongandShortPapers)},\mbox{\BPGS\4171--4186}.\bibitem[\protect\BCAY{Gim{\'{e}}nez\BBA\M{\`{a}}rquez}{Gim{\'{e}}nez\BBA\M{\`{a}}rquez}{2010}]{PBML_Asiya:2010}Gim{\'{e}}nez,J.\BBACOMMA\\BBA\M{\`{a}}rquez,L.\BBOP2010\BBCP.\newblock\BBOQAsiya:~AnOpenToolkitforAutomaticMachineTranslation(Meta-)Evaluation.\BBCQ\\newblock{\BemThePragueBulletinofMathematicalLinguistics},{\Bbf94},\mbox{\BPGS\77--86}.\bibitem[\protect\BCAY{Graham,Baldwin,\BBA\Mathur}{Grahamet~al.}{2015}]{graham-2015}Graham,Y.,Baldwin,T.,\BBA\Mathur,N.\BBOP2015\BBCP.\newblock\BBOQAccurateEvaluationofSegment-levelMachineTranslationMetrics.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\1183--1191}.\bibitem[\protect\BCAY{Graham,Baldwin,Moffat,\BBA\Zobel}{Grahamet~al.}{2013}]{graham-2013}Graham,Y.,Baldwin,T.,Moffat,A.,\BBA\Zobel,J.\BBOP2013\BBCP.\newblock\BBOQContinuousMeasurementScalesinHumanEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe7thLinguisticAnnotationWorkshopandInteroperabilitywithDiscourse},\mbox{\BPGS\33--41}.\bibitem[\protect\BCAY{Graham,Baldwin,Moffat,\BBA\Zobel}{Grahamet~al.}{2014}]{graham-2014}Graham,Y.,Baldwin,T.,Moffat,A.,\BBA\Zobel,J.\BBOP2014\BBCP.\newblock\BBOQIsMachineTranslationGettingBetteroverTime?\BBCQ\\newblockIn{\BemProceedingsofthe14thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics2014},\mbox{\BPGS\443--451}.\bibitem[\protect\BCAY{Graham,Baldwin,Moffat,\BBA\Zobel}{Grahamet~al.}{2017}]{graham-2017}Graham,Y.,Baldwin,T.,Moffat,A.,\BBA\Zobel,J.\BBOP2017\BBCP.\newblock\BBOQCanMachineTranslationSystemsbeEvaluatedbytheCrowdAlone.\BBCQ\\newblock{\BemNaturalLanguageEngineering},{\Bbf23}(1),\mbox{\BPGS\3--30}.\bibitem[\protect\BCAY{Gupta,Orasan,\BBA\vanGenabith}{Guptaet~al.}{2015}]{gupta-2015}Gupta,R.,Orasan,C.,\BBA\vanGenabith,J.\BBOP2015\BBCP.\newblock\BBOQMachineTranslationEvaluationusingRecurrentNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe10thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\380--384}.\bibitem[\protect\BCAY{Han,L.~Kashyap,Finin,\mbox{Mayfield},\BBA\Weese}{Hanet~al.}{2013}]{han-2013}Han,L.,L.~Kashyap,A.,Finin,T.,\mbox{Mayfield},J.,\BBA\Weese,J.\BBOP2013\BBCP.\newblock\BBOQUMBC\_EBIQUITY-CORE:SemanticTextualSimilaritySystems.\BBCQ\\newblockIn{\Bem2ndJointConferenceonLexicalandComputationalSemantics,Volume1:ProceedingsoftheMainConferenceandtheSharedTask:SemanticTextualSimilarity},\mbox{\BPGS\44--52}.\bibitem[\protect\BCAY{Kiros,Zhu,Salakhutdinov,Zemel,Urtasun,Torralba,\BBA\Fidler}{Kiroset~al.}{2015}]{kiros-2015}Kiros,R.,Zhu,Y.,Salakhutdinov,R.~R.,Zemel,R.,Urtasun,R.,Torralba,A.,\BBA\Fidler,S.\BBOP2015\BBCP.\newblock\BBOQSkip-ThoughtVectors.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems28},\mbox{\BPGS\3294--3302}.\bibitem[\protect\BCAY{Lo}{Lo}{2017}]{lo-2017}Lo,C.-K.\BBOP2017\BBCP.\newblock\BBOQMEANT~2.0:~AccurateSemanticMTEvaluationforAnyOutputLanguage.\BBCQ\\newblockIn{\BemProceedingsofthe2ndConferenceonMachineTranslation},\mbox{\BPGS\589--597}.\bibitem[\protect\BCAY{Logeswaran\BBA\Lee}{Logeswaran\BBA\Lee}{2018}]{logeswaran-2018}Logeswaran,L.\BBACOMMA\\BBA\Lee,H.\BBOP2018\BBCP.\newblock\BBOQAnEfficientFrameworkforLearningSentenceRepresentations.\BBCQ\\newblockIn{\BemInternationalConferenceonLearningRepresentations},\mbox{\BPGS\1--16}.\bibitem[\protect\BCAY{Ma,Graham,Wang,\BBA\Liu}{Maet~al.}{2017}]{ma-2017}Ma,Q.,Graham,Y.,Wang,S.,\BBA\Liu,Q.\BBOP2017\BBCP.\newblock\BBOQBlend:~aNovelCombinedMTMetricBasedonDirectAssessment---CASICT-DCUsubmissiontoWMT17MetricsTask.\BBCQ\\newblockIn{\BemProceedingsofthe2ndConferenceonMachineTranslation},\mbox{\BPGS\598--603}.\bibitem[\protect\BCAY{Marelli,Menini,Baroni,Bentivogli,Bernardi,\BBA\Zamparelli}{Marelliet~al.}{2014}]{marelli-2014}Marelli,M.,Menini,S.,Baroni,M.,Bentivogli,L.,Bernardi,R.,\BBA\Zamparelli,R.\BBOP2014\BBCP.\newblock\BBOQASICKCurefortheEvaluationofCompositionalDistributionalSemanticModels.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\216--223}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni-2002}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:~aMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsof40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Pennington,Socher,\BBA\Manning}{Penningtonet~al.}{2014}]{pennington-2014}Pennington,J.,Socher,R.,\BBA\Manning,C.\BBOP2014\BBCP.\newblock\BBOQGloVe:GlobalVectorsforWordRepresentation.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1532--1543}.\bibitem[\protect\BCAY{Popovi{\'{c}}}{Popovi{\'{c}}}{2015}]{popovic-2015}Popovi{\'{c}},M.\BBOP2015\BBCP.\newblock\BBOQchrF:CharacterN-gramF-scoreforAutomaticMTEvaluation.\BBCQ\\newblockIn{\BemProceedingsofthe10thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\392--395}.\bibitem[\protect\BCAY{Popovi{\'{c}}}{Popovi{\'{c}}}{2017}]{popovic-2017}Popovi{\'{c}},M.\BBOP2017\BBCP.\newblock\BBOQchrF++:~WordsHelpingCharacterN-grams.\BBCQ\\newblockIn{\BemProceedingsofthe2ndConferenceonMachineTranslation},\mbox{\BPGS\612--618}.\bibitem[\protect\BCAY{Stanojevi{\'{c}},Koehn,\BBA\Bojar}{Stanojevi{\'{c}}et~al.}{2015}]{stanojevic-2015b}Stanojevi{\'{c}},M.,Koehn,P.,\BBA\Bojar,O.\BBOP2015\BBCP.\newblock\BBOQResultsoftheWMT15MetricsSharedTask.\BBCQ\\newblockIn{\BemProceedingsofthe10thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\256--273}.\bibitem[\protect\BCAY{{Stanojevi{\'{c}}}\BBA\Sima'an}{{Stanojevi{\'{c}}}\BBA\Sima'an}{2015}]{stanojevic-2015a}{Stanojevi{\'{c}}},M.\BBACOMMA\\BBA\Sima'an,K.\BBOP2015\BBCP.\newblock\BBOQBEER~1.1:~ILLCUvASubmissiontoMetricsandTuningTask.\BBCQ\\newblockIn{\BemProceedingsofthe10thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\396--401}.\bibitem[\protect\BCAY{Tai,Socher,\BBA\Manning}{Taiet~al.}{2015}]{tai-2015}Tai,K.~S.,Socher,R.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQImprovedSemanticRepresentationsFromTree-StructuredLongShort-TermMemoryNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\1556--1566}.\bibitem[\protect\BCAY{Vaswani,Shazeer,Parmar,Uszkoreit,Jones,Gomez,Kaiser,\BBA\Polosukhin}{Vaswaniet~al.}{2017}]{vaswani-2017}Vaswani,A.,Shazeer,N.,Parmar,N.,Uszkoreit,J.,Jones,L.,Gomez,A.~N.,Kaiser,L.,\BBA\Polosukhin,I.\BBOP2017\BBCP.\newblock\BBOQAttentionisAllyouNeed.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems30},\mbox{\BPGS\5998--6008}.\bibitem[\protect\BCAY{Wang,Peter,Rosendahl,\BBA\Ney}{Wanget~al.}{2016}]{wang-2016}Wang,W.,Peter,J.-T.,Rosendahl,H.,\BBA\Ney,H.\BBOP2016\BBCP.\newblock\BBOQCharacTER:~TranslationEditRateonCharacterLevel.\BBCQ\\newblockIn{\BemProceedingsofthe1stConferenceonMachineTranslation},\mbox{\BPGS\505--510}.\bibitem[\protect\BCAY{Williams,Nangia,\BBA\Bowman}{Williamset~al.}{2018}]{williams-2018}Williams,A.,Nangia,N.,\BBA\Bowman,S.\BBOP2018\BBCP.\newblock\BBOQABroad-CoverageChallengeCorpusforSentenceUnderstandingthroughInference.\BBCQ\\newblockIn{\BemProceedingsofthe2018ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies,Volume1},\mbox{\BPGS\1112--1122}.\bibitem[\protect\BCAY{Yu,Ma,Wu,\BBA\Liu}{Yuet~al.}{2015a}]{yu-2015a}Yu,H.,Ma,Q.,Wu,X.,\BBA\Liu,Q.\BBOP2015a\BBCP.\newblock\BBOQCASICT-DCUParticipationinWMT2015MetricsTask.\BBCQ\\newblockIn{\BemProceedingsofthe10thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\417--421}.\bibitem[\protect\BCAY{Yu,Wu,Jiang,Liu,\BBA\Lin}{Yuet~al.}{2015b}]{yu-2015b}Yu,H.,Wu,X.,Jiang,W.,Liu,Q.,\BBA\Lin,S.\BBOP2015b\BBCP.\newblock\BBOQAnAutomaticMachineTranslationEvaluationMetricBasedonDependencyParsingModel.\BBCQ\\newblockIn{\BemarXivpreprintarXiv:1508.01996}.\bibitem[\protect\BCAY{Zhu,Kiros,Zemel,Salakhutdinov,Urtasun,\mbox{Torralba},\BBA\Fidler}{Zhuet~al.}{2015}]{Zhu-2015}Zhu,Y.,Kiros,R.,Zemel,R.~S.,Salakhutdinov,R.,Urtasun,R.,\mbox{Torralba},A.,\BBA\Fidler,S.\BBOP2015\BBCP.\newblock\BBOQAligningBooksandMovies:TowardsStory-LikeVisualExplanationsbyWatchingMoviesandReadingBooks.\BBCQ\\newblockIn{\Bem2015IEEEInternationalConferenceonComputerVision},\mbox{\BPGS\19--27}.\end{thebibliography}\begin{biography}\bioauthor{嶋中宏希}{2018年首都大学東京システムデザイン学部システムデザイン学科情報通信システムコース卒業.同年,首都大学東京システムデザイン研究科システムデザイン専攻情報科学域博士前期課程に進学,現在に至る.}\bioauthor{梶原智之}{2013年長岡技術科学大学工学部電気電子情報工学課程卒業.2015年同大学大学院工学研究科修士課程電気電子情報工学専攻修了.2018年首都大学東京大学院システムデザイン研究科博士後期課程情報通信システム学域修了.博士(工学).同年より大阪大学データビリティフロンティア機構特任助教.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{小町守}{2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒業.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2008年より日本学術振興会特別研究員(DC2)を経て,2010年博士後期課程修了.博士(工学).同年より同研究科助教を経て,2013年より首都大学東京システムデザイン学部准教授.大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
| |
V18N01-02 | \section{はじめに}
\label{sec:mylabel1}自然言語処理の研究分野において,1文を対象にした研究は盛んに行われてきた.特に,形態素解析や構文解析は実用レベルに達しており,様々な自然言語を対象とした応用研究において,基礎処理として使用されている.しかし,高度な文章処理を目的としている応用研究,例えば文章要約や照応解析,質問応答,評判分析などは,当然ながら1文を対象にしているわけではなく,高い精度を実現するためには,文章中の話題のまとまりや文間の接続関係といった談話構造の理解が必要になる.このような談話構造解析を用いれば,文章要約(田中,面来,野口,矢後,韓,原田2006)では話題のまとまりを考慮した自然な要約が可能になり,照応解析(南,原田2002)では先行詞候補を探索する範囲を談話構造木の照応詞と根を結ぶ経路上へと高い精度で絞り込むことができ,質問応答システム(加藤,古川,蒲生,韓,原田2005)では理由や原因の回答抽出が容易になることが期待される.談話構造解析の従来研究では様々なモデルが提案されてきた.何を基本単位とするか,単位間の関係,談話構造のモデルなど研究者により様々である.談話構造のモデルとしては文を基本単位とした木構造モデルが一般的である.黒橋ら(黒橋,長尾1994)は文間に11種類の結束関係(並列,対比,主題連鎖,焦点—主題連鎖,詳細化,理由,原因—結果,変化,例提示,例説明,質問—応答)を定義し,手掛かり表現・主題連鎖・文間の類似性に着目し判定している.横山ら(横山,難波,奥村2003)は8種類(因果,背景,呼応,並列,対比,転換,補足,例示)の係り受け関係をSVMを用いた機械学習により判定している.Marcu(Marcu2002)は木構造モデルではなく,連続する2文に限り,4種類の接続関係(CONTRAST,CAUSE-EXPLANATION-EVIDENCE,CONDITION,ELABORATION)を大量のテキストデータを用いた用例利用型の手法で判定している.山本ら(山本,斉藤2008)は,同様の手法で,6種類の接続関係(累加,逆接,因果,並列,転換,例示)を判定している.以上のように談話構造解析の従来研究では様々な解析方法が提案されているが,大きく2つの問題がある.1つ目は,文の話題の中心である焦点の推移を詳細に分析できていないという問題である.焦点はその文を象徴する最も重要な手掛かりであり,談話構造解析には欠かせない要素である.2つ目は,基本的に接続詞や文末表現,同一語の出現など,表層的な情報に基づいているという問題である.特に,接続詞が文中に現れる頻度はあまり高くない.シソーラスを用いて類義情報を取り入れている研究もあるが,そもそも利用されている意味解析の精度が低く類義判定が信頼性に欠けること,また談話では主題の属性や部分などへの話題の変化が多く見られ,類義情報のみでは文間のつながりを適切に把握できないなどの問題点がある.本研究では精度の高い談話構造解析を実現するため,談話の結束性を評価するセンタリング理論を談話構造解析に導入することで,談話の焦点の推移を詳細に捉えることを可能にする.そして部分/属性関係など2語が表す概念間の意味的関係を定めるにあたって,原田らが開発した意味解析システムSage(語意精度95{\%},深層格精度90{\%})(原田,尾見,岩田志,水野1999;原田,水野2001;原田,田淵,大野2002)を用いて各語の意味(概念)を高精度に定め,さらにEDR電子辞書(1995)から抽出した概念間の部分/属性関係を対象知識として,話題の部分/属性への展開などの検出に用いる手法を提案する.
\section{提案手法}
\label{sec:mylabel2}本研究では談話構造を表すモデルとして談話の話題の推移を表すために「談話構造木」という木構造を定義する.談話構造木では,句点で区切られた文をノードとし,各ノード文はただ1つの親ノードを持つ.そして文ノードを接続しているアークに9種類の文間接続関係(詳細化,展開,原因—結果,逆接,遷移,転換,並列,例提示,質問—応答)を付与する.以下に例を示す.\vspace{0.5\baselineskip}\fbox{\parbox{380pt}{\noindentN自動車は19日,新車発表会を開催。N自動車としては初となる電気自動車を公開した。電気自動車は,走行時にCO$_{2}$を排出しないとして注目を集めている。しかし,一充電あたりの航続距離が短いなどの問題点もある。販売を伸ばしているハイブリット車への対抗として,N自動車は巻き返しを図る考えだ。}}\vspace{0.5\baselineskip}\begin{figure}[t]\begin{center}\includegraphics{18-1ia1f1.eps}\end{center}\caption{談話構造木の例1}\end{figure}図1の例文では,1文目と2文目ではともに「N自動車」を主な話題としている.そして3文目では2文目に登場した「電気自動車」へと話題が展開している.4文目では,3文目の話題「電気自動車」についてさらに情報を付加している.そして5文目ではまた「N自動車」へと話題が戻っている.例文では,大まかに分けると「N自動車」とそこから派生した「電気自動車」についての話題が存在し,図1の談話構造木でその話題の推移を表すことができる.本研究ではセンタリング理論(Grosz,JoshiandWeinstein1995)と対象知識に基づき談話中の話題の移り変わりに着目した談話構造解析の手法を提案する.センタリング理論とは文の話題の中心である焦点の推移に着目して文間の結束性をモデル化した理論である(第4章).また,対象知識とは,語の語意が表す概念の部分/属性関係,上位—下位関係,類義関係といった2概念間の意味的関係をEDR電子辞書の共起辞書と概念辞書から抽出したものである(第3章).本研究の手法では対象知識により話題の部分や属性などへの展開といった概念の意味的関係を考慮してセンタリング理論を拡張し,文の話題の推移を的確に捉えられる談話構造解析を可能にする.その結果として,先に述べたように,文をノードとする談話構造木を機械的に生成する.この時,焦点の推移に基づく文間の結束性を文を表すノード間のアークとして表現する.さらにアークにこの文間の焦点の推移が何を意味するのかを表す理由や展開といった9種類の文間接続関係ラベルを割り振ることで,文同士の役割的関係を明らかにする.これによって,質問応答や照応解析の解の探索範囲を絞り込んだり,自動要約で主たる話の流れを示す評価基準を得られることが期待できる.なお,Groszらのセンタリング理論では代名詞の扱いに関する規則が与えられているが,現在筆者らの環境ではゼロ代名詞や指示代名詞の先行詞を高い精度で特定する技術を確立できていないので,それらを考慮するとかえって談話構造木の構築精度を下げる可能性があるので,本研究では代名詞を扱わないことにした.談話構造木を以下のプロセスを経て構築する.\begin{enumerate}\item形態素・構文・意味解析\item談話構造木の構築\item文間接続関係の判定\end{enumerate}まず,形態素・構文解析をJuman・Knp(黒橋,長尾1998)を用いて,意味解析をSageを用いて行う.これにより談話に含まれる各文は,形態素,文節に分割され,それぞれにEDR辞書中の品詞と語意(EDR辞書で定義された約40万概念のどれか)が付与され,文節間の係り受け関係には役割関係を表す深層格(EDR辞書で定義されたものにSageで追加された30種のどれか)が付与される.つぎに談話構造木の構築と文間接続関係の判定を分割して行う.談話構造木の構築は,センタリング理論,表層パターン,文間距離に着目した手法を用いて行う(第5章).センタリング理論はGrosz(Grosz,JoshiandWeinstein1995)のものを,本研究で提案する対象知識を用いて拡張して使用する.最後に,構築された談話構造木中のリンクに文間接続関係を付与する(第6章).文間接続関係の判定には,接続詞,主題,モダリティ・テンス・アスペクト,語意で表される概念間の部分/属性関係などの対象知識に着目したルールを用いて判定する.本研究の提案する手法では,センタリング理論と対象知識で話題の推移を的確に捉え,談話構造木の構築と文間接続関係の判定のプロセスを分割して行うことにより,文間接続関係の判定を単純化することが可能になる.なお,研究を具体的に進めるにあたって,文間接続関係の定義やその判定ルールの作成においては,対象となる談話として,新聞やWebの報道・解説・論説記事を用いたので,研究成果は精度の信頼性においてこれらの談話が対象になるが,談話構造構築方式はより一般的に適用できると考えている.ただし,会話文などのように言外の指示表現が多用される分野では精度が落ちることが想定される.本稿では,まず提案手法の基本となる対象知識について3章で,センタリング理論について4章で述べた後,実際の談話構造解析のプロセスについて,5章で談話構造木の構築方法,6章で文間接続関係の判定方法について述べる.
\section{対象知識}
\label{sec:mylabel3}談話の中でも,特に論文や新聞などの報道・解説・論説といった文章では,まず始めにその談話が何について述べられているものなのかを表す談話全体の話題(大話題)が示され,続いてその大話題を説明するために,大話題に関連した幾つかのさらに詳細な話題(小話題)が述べられるといった話題の階層構造を取る場合が多い.小話題としては大話題の部分/属性,下位,類義などが現れやすい.以下を例文として説明する.\vspace{0.5\baselineskip}\fbox{\parbox{380pt}{\noindent相模原市は、神奈川県北部にある都市。人口は70万人を超え、神奈川県内では横浜市、川崎市についで第3位の人口規模を擁する。特に20代、30代、50代周辺の人口が多く、市全体を活気ある雰囲気にしている。市内に大学が多いことで、学生の街としての顔も併せ持つ。}}\vspace{0.5\baselineskip}例文では,まず冒頭で談話全体の話題である大話題「相模原市」が示されている.そして,2文目,3文目で大話題「相模原市」(Sageで求めた語意は0f2ff2:相模原市という市)の部分/属性「人口」(3c0fa3:一定の地域に住む人の数)が,4文目では部分/属性「大学」(1e8598:高等教育の中核となる学術研究および教育の最高機関)が小話題として説明されている.したがって,例文のような文章を談話解析するためには,「人口」が「相模原市」の部分/属性であるという対象—部分/属性関係といった知識が必要になる.本研究ではこのような話題となる対象間の関係を対象知識と呼ぶ.対象知識としては,対象—部分/属性関係のほかに,上位—下位関係,類義関係を考える.\begin{figure}[t]\begin{center}\includegraphics{18-1ia1f2.eps}\end{center}\caption{対象知識の判定方法}\end{figure}概念間に意味的関係があるかどうかの判定(図2)では,2つの語の語意が表す2概念をシソーラスと共起辞書,品詞,概念類似度を用いた対象知識判定規則に照らし合わせ,適合した場合に当該2概念間に対象—部分/属性関係,上位—下位関係,類義関係があると考える.シソーラスにはEDR概念辞書,共起辞書にはEDR日本語共起辞書((株)日本語電子辞書研究所1995)[9]を用いる.以下で対象知識のそれぞれの,対象知識判定規則について述べる.\subsection{対象—部分/属性関係判定規則}\label{sec:mylabel4}対象—部分/属性関係とは表1のような概念間の関係を示す.ここで注意したいのは,本研究では,ある概念の部分概念と属性概念を明確に分類しないということである.本研究では,あくまで小話題として現れやすい概念を抽出することを目的としている.\begin{table}[t]\caption{対象—部分/属性関係の例}\input{01table01.txt}\end{table}\begin{table}[t]\caption{共起辞書レコードの検索}\input{01table02.txt}\end{table}対象—部分/属性関係の判定規則には,主に共起辞書を用いるものとシソーラスでの上位概念ペアを用いるものの2種類がある.共起辞書を用いるものは,共起辞書中の共起関係子が助詞「の」であるレコードに着目する.その理由は,「自動車のエンジン」というように,対象と部分/属性を直接結びつける代表的な助詞として「の」が用いられるからである.対象とするレコードの検索には対象概念と部分/属性概念のペアを対象とし,完全一致だけでなく類義のレコードも対象とすることで対象—部分/属性概念の可能性があるものを漏れなく抽出する.レコードの検索方法は表2の3種類を用い,適合条件に一致すれば該当レコードありとする.ここで類義かどうかの判定には,シソーラス上の距離に基づく以下の式(加藤,古川,蒲生,韓,原田2005)を用いて類似度を計算し,その類似度が閾値(本報告では0.85とした)以上のものを類義とする.\begin{align}&類似度(\mathrm{a},\mathrm{b})=\frac{2(1-r)dc}{2(1-r)dc+(1-r^{da})+(1-r^{db})}\\&\hspace{150pt}r:\公比(r\ne1.0)\nonumber\\&\hspace{150pt}dc:\共通上位概念までの概念の深さ\nonumber\\&\hspace{150pt}da:\共通上位概念から語\mathrm{a}までの深さ\nonumber\\&\hspace{150pt}db:\共通上位概念から語\mathrm{b}までの深さ\nonumber\end{align}ただし,助詞「の」の用法には,対象が部分/属性を修飾する用法のほかに,「彼の走る姿」といった主格の用法や,「黄色の花」といった対象をその状態が修飾するもの,「13時の会議」といった時間による修飾などの用法がある.これらの用法を取り除くため,該当レコードに対して,深層格や品詞,シソーラスでの上位概念による以下の規則を用いてさらに絞り込みを行う.\begin{enumerate}\item対象とする深層格はmodifier(修飾),element-of(要素),part-of(部分)\item品詞は数詞を除く名詞\item対象候補は上位概念に「時」,「状態」,「物やものに対する指示的な呼称」,「方向」,「複数のものの関係によって決まる位置」,「部分」を持たない\end{enumerate}以上の共起辞書レコードの検索,深層格や品詞,シソーラスでの上位概念による規則に適合したものを対象—部分/属性関係とする.つぎに,上位概念ペアを用いた対象—部分/属性関係の抽出について述べる.EDR概念辞書には「人間の属性」や「動物の部分」,「具体物の属性」,「機械の部品」などの概念が含まれる.部分/属性概念候補がこれらを上位概念に持ち,さらに対象概念候補がそれら属性を持つにふさわしい概念(表3の左列に列挙した概念)を上位概念に持てば,対象—部分/属性関係ありとする.例えば部分/属性候補が「人間の属性」を上位概念に持ち,対象概念候補が「人間」を上位概念に持てば,対象—部分/属性関係ありとする.これらの対象—部分/属性関係を持つ上位概念のペアの一覧を表3に示す.\begin{table}[b]\caption{部分/属性関係を持つ概念の上位概念ペア一覧}\input{01table03.txt}\end{table}\subsection{上位—下位関係判定規則}\label{sec:mylabel5}上位—下位関係とは表4のような概念間の関係を指す.上位—下位関係はシソーラスを用いることで容易に抽出することができる.ただし,シソーラス中のすべての上位—下位関係を持つ概念を対象にしてしまうと意味が離れすぎてしまうため,2概念間に適当な概念間距離閾値(本報告では,距離2)を設定する.\begin{table}[t]\caption{上位—下位関係の例}\input{01table04.txt}\end{table}\subsection{類義判定規則}\label{sec:mylabel6}類義に関してもシソーラスを用いることで容易に抽出することができる.式(1)に基づき類似度を計算し,適当な閾値(本報告では0.85)以上の2概念間に類義関係ありと判断する.
\section{センタリング理論}
\label{sec:mylabel7}センタリング理論(Grosz,JoshiandWeinstein1995)とは,文の焦点の移り変わりに着目して談話の結束性をモデル化したものである.センタリング理論では,談話単位中の各文Si\footnote{Grosz1995では発話Uとしているが本稿では処理対象単位が文であるのでSとした.}にCf(Si)(Forward-lookingcenters)を,また各文Siとその前に出現する各文SjにCb(Si,Sj)(Backward-lookingcenter)を定義する.Cf(Si)は文Siに出現する要素(話題)のリストであり,優先順位によりソートされている.Cb(Si,Sj)は,ただ一つの要素を持ち,文Sjから文Siに談話が推移した時の焦点をあらわしている.本研究では,以下のように定義する.\vspace{1\baselineskip}Cf(Si):Forward-lookingcenters\begin{itemize}\item文Siに出現する名詞節と主辞がサ変名詞である動詞節を要素とするリスト\item以下の優先順位により降順にソートされている\\主題(ハ格)>ガ格>ニ格>ヲ格>その他\end{itemize}Cb(Si,Sj):Backward-lookingcenter\begin{itemize}\itemCf(Sj)の要素でSiに含まれる名詞節と,同一または同義または対象知識(第3章)で判定される部分/属性や上位/下位関係のある概念を表す語を主辞とする文節のうちソート順で最上位要素\itemルートノード文ではCf(Si)の最上位要素\itemi$>$j\end{itemize}\vspace{1\baselineskip}文の3つ組Si,Sj,Sk$(\mathrm{i}>\mathrm{j}>\mathrm{k})$に対して,Cbの推移Cb(Sj,Sk)$\to$Cb(Si,Sj)の値を表5\\footnote{Grosz1995ではCONTINUATION,RETAINING,SHIFTINGの3種類.}の\linebreakように定義する.これをTRANSITIONと呼ぶ.談話構造木の構築でTRANSITIONCb(Sj,Sk)$\to$Cb(Si,Sj)を求める際にはSkは確定しており,SkはSjの親ノードである.\begin{table}[t]\caption{TRANSITIONの分類}\input{01table05.txt}\end{table}TRANSITIONは焦点の連続性を評価している.そして,このTRANSITIONの種類により文間の結束性の強さが示される.結束性の強さは以下の順に従う.\vspace{1\baselineskip}CONTINUATION>RETAINING>SHIFTING>NOTHING\vspace{1\baselineskip}以下の例文でセンタリング理論におけるCf,CbとTRANSITIONの判定例を示す.\vspace{1\baselineskip}例文a\vspace{0.5\baselineskip}\fbox{\parbox{380pt}{\noindent幸子は夕飯の材料が足らないことに気づいた。そこで幸子は弟に買い物を頼んだ。しかし、弟は幸子に嫌だと言った。弟はゲームに夢中だった。}}\vspace{1\baselineskip}\begin{itemize}\item[a1.]幸子は夕飯の材料が足らないことに気づいた。\\Cf(Sa1):[幸子,材料,夕飯]\\Cb(Sa1,\$\phi)$:[幸子]\item[a2.]そこで幸子は弟に買い物を頼んだ。\\Cf(Sa2):[幸子,弟,買い物]\\Cb(Sa2,Sa1):[幸子]\\TRNSITIONCb(Sa1,$\phi$)$\to$Cb(Sa2,Sa1):CONTINUATION\item[a3.]しかし、弟は幸子に嫌だと言った。\\Cf(Sa3):[弟,幸子]\\Cb(Sa3,Sa1):[幸子]\\TRANSITIONCb(Sa1,$\phi$)$\to$Cb(Sa3,Sa1):RETAINING\\Cb(Sa3,Sa2):[幸子]\\TRANSITIONCb(Sa2,Sa1)$\to$Cb(Sa3,Sa2):RETAINING\item[a4.]弟はゲームに夢中だった。\\Cf(Sa4):[弟,ゲーム]\\Cb(Sa4,Sa1):[$\phi$]\\TRANSITIONCb(Sa1,$\phi$)$\to$Cb(Sa4,Sa1):NOTHING\\Cb(Sa4,Sa2):[弟]\\TRANSITIONCb(Sa2,Sa1)$\to$Cb(Sa4,Sa2):SHIFTING\\Cb(Sa4,Sa3):[弟]\\TRANSITIONCb(Sa3,Sa2)$\to$Cb(Sa4,Sa3):SHIFTING\end{itemize}\vspace{1\baselineskip}例文aでは,文Sa4で比較先の文SjによりTRANSITIONが分かれている.Cb(Sa4,Sa2)とCb(Sa4,Sa3)のときはTRANSITIONがSHIFTINGとなっているが,Cb(Sa4,Sa1)の場合はNOTHINGである.これはつまり,文Sa4は,文Sa1よりも文Sa2やSa3との間の結束性が高いことを表している.次の例では,部分/属性でCbが決定されている.\vspace{1\baselineskip}例文b\vspace{0.5\baselineskip}\fbox{\parbox{380pt}{\noindentN社は新型自動車を発表した。新型自動車は優れた環境性能を実現。燃費は、23.0~km/lとクラストップレベル。}}\vspace{1\baselineskip}\begin{itemize}\item[b1.]N社は新型自動車を発表した。\\Cf(Sb1):[N社,新型自動車,発表]\\Cb(Sb1,$\phi)$:[N社]\item[b2.]新型自動車は優れた環境性能を実現。\\Cf(Sb2):[新型自動車,環境性能,実現]\\Cb(Sb2,Sb1):[新型自動車]\\TRANSITIONCb(Sb1,$\phi$)$\to$Cb(Sb2,Sb1):SHIFTING\item[b3.]燃費は、23.0~km/lとクラストップレベル。\\Cf(Sb3):[燃費,23.0~km/l,クラストップレベル]\\Cb(Sb3,Sb1):[燃費(新型自動車)]\\TRANSITIONCb(Sb1,$\phi$)$\to$Cb(Sb3,Sb1):SHIFTING\\Cb(Sb3,Sb2):[燃費(新型自動車)]\\TRANSITIONCb(Sb2,Sb1)$\to$Cb(Sb3,Sb2):CONTINUATION\end{itemize}\vspace{1\baselineskip}例文bでは,文Sb3のCbが先行文内の「自動車」の部分/属性概念である「燃費」である.また,文Sb3で比較先の文SjがSb1の時のCb(Sb3,Sb1)の場合はSHIFTING,Sb2の時のCb(Sb3,Sb2)の場合はCONTINUATIONと分かれており,文Sb3は文Sb2との結束性が高い.Cb(Si,Sj)が部分/属性概念などで決定される場合と同一概念や同義概念で決定される場合を談話構造木構築の際に区別するため,Cb決定タイプを表6のように設定する.Cf(Si)の要素と同一概念または同義概念が含まれない場合は,EQUAL以外の決定タイプが採用される.この場合の優先順位は,ATTRIBUTE,LOWER,SIMILARの順である.第5章で詳しく述べるが,本研究では,談話構造木の構築にこのTRANSITIONの種類における結束性の強さを主な指標として用いる.談話構造木は談話における話題の推移を表す木構造であるので,同じ焦点Cbを持つ文同士が接続されることが望ましい.このことは,結束性の強いTRANSITION(CONTINUATIONやRETAINING)になる文同士を接続したリンクを多く含む談話構造木を構築すればよいということと同義である.\begin{table}[t]\caption{Cb決定タイプ}\input{01table06.txt}\end{table}
\section{談話構造木の構築}
\label{sec:mylabel8}\subsection{談話構造木}\label{sec:mylabel9}本章では談話構造木の構築アルゴリズムについて述べる.談話構造木は文をノードとし,談話中の話題の推移を表す木構造である.談話構造木中では,近い話題を持つ,つまり結束性の高い文同士が隣接する.また,ルートノード(談話構造木の根に当たるノード)は談話の先頭文であり,各ノード文は自身よりも前に出現した文のうちのただ一つを親ノード文として持つ.談話構造木構築アルゴリズムでは,先頭から順に処理対象文とし,先頭文はルートノードに,以降の文は自身よりも前に出現した文すべてを接続候補文とし,最も結束性の高い接続候補文に接続する.文同士の結束性を測るための指標として,センタリング理論(第4章)におけるTRANSITIONの種類により結束性の度合いを表すセンタリング得点,特定の表層パターンの組み合わせに着目した表層パターン得点,文間距離を用いた文間距離得点の3つの指標の和を用いる.以下でそれぞれについて説明する.\subsection{センタリング得点Cp}\label{sec:mylabel10}センタリング理論では,文間の焦点の推移に着目したTRANSITIONを求めることにより文間の結束性の高さを評価できる.接続候補ノード文とのTRANSITIONを求め,TRANSITIONの種類により結束性が高いものほど高得点とする.ここでTRANSITIONの判定には,対象知識も含める.つまり,接続候補文のCbと処理対象文のCbの関係が対象知識上の関係に該当すればTRANSITIONはCONTINUATIONかRETAININGになる.ただし,Cbが同一概念や同義概念ではなく対象知識から決定される概念を持つ語の場合は,同一概念や同義概念の場合よりも得点を低くするように,Cbの決定タイプにより重み付けする.センタリング得点Cpは以下の式に従う.\begin{align}&Cp=Tp\timesw_{Cb}\\&\hspace{50pt}Tp:\text{TRANSITION得点}\nonumber\\&\hspace{50pt}w_{Cb}:\Cb重み\nonumber\end{align}TpはTRANSITIONに応じた得点であり,結束性の高いものほど高得点になるように設定する.w$_\mathrm{Cb}$はCbの決定タイプに応じた重みであり同一概念や同義概念を1.0とし,優先度に応じた値を設定する.表7にTRANSITION得点Tp,表8にCb決定タイプによる重みw$_\mathrm{Cb}$の例を示す.\begin{table}[b]\caption{TRANSITION得点Tpの例}\input{01table07.txt}\end{table}\begin{table}[b]\caption{Cb決定タイプによる重みw$_\mathrm{Cb}$の例}\input{01table08.txt}\end{table}\subsection{表層パターン得点Ep}\label{sec:mylabel11}接続候補文と処理対象文が特定の表層パターンの組み合わせ(例えば,接続候補文の表記が「最初に」で始まり,処理対象文の表記が「つぎに」で始まる)を持てば,関連の高い話題を順序立てて提示していると考えられ,結束性は高いと判断し,表層パターン得点Epを付与する.表層パターンが現れる場合は接続先として確定的な場合であり,Epはセンタリング得点のCONTINUATIONの場合などよりも高い値に設定する.このような表層パターンの組み合わせの例を表9に示す.\begin{table}[t]\caption{表層パターン組み合わせの例}\input{01table09.txt}\end{table}\subsection{文間距離得点Dp}\label{sec:mylabel12}発話者は,読者にわかりやすいように,話題を徐々に変化させながら談話を構築する.そのため近接する文は関連性の高い話題を持つことが自然である.そこで近接する文ノードほど結束性が高いと判断し,文間距離に反比例する得点を与える.\begin{align}&Dp=Dp_{\max}\left(1-\frac{d}{i}\right)\\&\hspace{50pt}d:文間距離\nonumber\\&\hspace{50pt}i:処理対象文番号\nonumber\\&\hspace{50pt}Dp_{\max}:距離得点上限値\nonumber\end{align}ここで,dは接続候補文と処理対象文との文間距離,iは処理対象文番号,$Dp_{\max}$は文間距離得点上限値である.$Dp_{\max}$はTRANSITION間の得点を大きく超えない値が望ましい.つまり表7の場合CONTINUATIONが90,RETAININGが60であるので$Dp_{\max}$は30とした.\subsection{談話構造木構築アルゴリズム}\label{sec:mylabel13}以上の3つの指標の合計得点を結束性得点とし,接続候補文それぞれに対して求め,最高得点を持つ文を親ノードとしてリンクを張る.談話構造木構築アルゴリズムを図3に示す.以下の文章を例に説明する.\vspace{1\baselineskip}\fbox{\parbox{380pt}{\noindentN自動社は19日、新車発表会を開催。N自動車としては初となる電気自動車を公開した。電気自動車は、走行時にCO$_{2}$を排出しないとして注目を集めている。販売を伸ばしているハイブリット車への対抗として、N自動車は巻き返しを図る考えだ。}}\vspace{1\baselineskip}\begin{figure}[t]\begin{center}\includegraphics{18-1ia1f3.eps}\end{center}\caption{談話構造木構築アルゴリズム}\vspace{2\baselineskip}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{18-1ia1f4.eps}\end{center}\caption{談話構造木の構築例}\vspace{-1\baselineskip}\end{figure}ここでTRANSITION得点Tpは表7,文間距離得点上限値$Dp_{\max}$は30として説明する.まず1文目をルートノードにする.2文目では,接続候補文は1文目のみであるので1文目とリンクを張る.3文目では,1文目と2文目が接続候補文になるが,それぞれに対しTRANSITIONを求めると,1文目に対してはNOTHING,2文目に対してはSHIFTINGとなる.表層パターンはなく,距離得点を加算する.結束性得点は1文目15,2文目52.5となり,2文目が最も結束性得点が高くなるので,2文目とリンクを張る.4文目は,1文目から3文目までが接続候補文となる.それぞれに対して,TRANSITIONを求める.図4は各接続候補文に対してTRANSITIONを求めた状態である.1文目と2文目に対してはCONTINUATION,3文目に対してはSHIFTINGとなる.表層パターンはなく,距離得点を加算する.結束性得点は,1文目97.5,2文目105,3文目52.5となり最も得点の高い2文目とリンクを張る.
\section{文間接続関係の判定}
\label{sec:mylabel14}\subsection{文間接続関係}\label{sec:mylabel15}構築された談話構造木中のすべてのリンクに文間接続関係を付与する.文間接続関係はリンクで直接接続された2文間の接続関係を表す.何種類の関係を定義するかは,研究者により異なっているが(6種類〜11種類),本研究では,黒橋ら(黒橋,長尾1994)の11種類の結束関係(並列,対比,主題連鎖,焦点—主題連鎖,詳細化,理由,原因—結果,変化,例提示,例説明,質問—応答)を参考に,事例13文章112文に試行する過程で,意味解析結果の語意,深層格,モダリティや,対象知識や主題や話題を基にした計算可能性と要約や質問応答などの応用での必要性から,表10の9種類を定義し,利用することにした.\begin{table}[b]\vspace{-1\baselineskip}\caption{文間接続関係一覧}\input{01table10.txt}\end{table}文間接続関係は基本的には,親ノード文から子ノード文への関係である.つまり表10でのSiが親ノード文であり,Sjが子ノード文である.例えば,文間接続関係が「詳細化」といった場合は親ノード文での話題に関して子ノード文でさらに詳細な情報が記述されているということである.ただし,「原因結果」と「逆接」関係に関しては逆向き関係が存在する.なお,黒橋らとの比較で言えば,判定の明確性を維持し6.2節の文間接続関係判定ルールを容易に構築できるようにするために,対比を逆接として,変化を遷移として再定義した.また同様の目的から主題連鎖と焦点—主題連鎖の違いを,展開と転換に分離再定義した.一方,理由と例説明は出現頻度が低いので今回の分類では削除した.具体的な事例では,これらは詳細化に分類されることが多いと思われる.\subsection{文間接続関係判定ルール}\label{sec:mylabel16}文間接続関係の判定には,文間接続関係判定ルールを用いる.文間接続関係判定ルールは以下の形式を持つ.\vspace{1\baselineskip}\begin{itemize}\item接続関係名\begin{itemize}\item9種類の接続関係(表10)のうち1つ\end{itemize}\item条件部\begin{itemize}\item接続詞\item主題\itemモダリティ・テンス・アスペクト\item対象知識\item構文・意味情報\end{itemize}\item得点\begin{itemize}\item接続関係名への確信度\end{itemize}\end{itemize}\vspace{1\baselineskip}\begin{figure}[b]\begin{center}\includegraphics{18-1ia1f5.eps}\end{center}\caption{文間接続関係判定ルールの例1}\end{figure}文間接続関係判定ルールは接続関係名と条件部,得点から構成される.条件部は接続詞などの表層表現や主題の推移,文の認識や話者の態度を表すモダリティ(推量,疑問など),時制を表すテンス・アスペクト,対象知識,構文・意味情報を用いた論理式である.ここで主題とは,その文が何について述べられているのかを示すもので,一般的には,助詞「は」で示される文節のことを指す.本研究では,助詞「は」で示される文節のほかに助詞「も」や読点「、」で示される主語格も対象とする.なおモダリティテンスアスペクト,接続詞,構文・意味情報は,モダリティ解析機能が加わった意味解析システムSage(梅澤,西尾,松田,原田2008;梅澤,加藤,松田,原田2009)で解析された情報に基づく.ルールの例とその適合例を図5〜図7に示す.図5の例では,親ノード文の主題以外の文節「電気自動車」が子ノード文の主題として現れている.親ノード文の話題「N自動車」から新たな話題「電気自動車」に展開されている.図~6では,子ノード文が接続詞「しかし」で始まっている.接続詞「しかし」は逆接を表す一般的な接続詞であり.このような接続詞が現れる場合は,接続関係が明確に現れている場合であり,高得点を与える.図7では親ノード文の主題「電気自動車」が子ノード文で部分/属性である「充電時間」になっている.この場合では親ノード文の話題を引き続きつつより詳細な内容の説明へ移行していると考えている.\begin{figure}[t]\begin{center}\includegraphics{18-1ia1f6.eps}\end{center}\caption{文間接続関係判定ルールの例2}\vspace{2\baselineskip}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{18-1ia1f7.eps}\end{center}\caption{文間接続関係判定ルールの例3}\end{figure}\begin{table}[p]\caption{文間接続関係判定ルール一覧}\input{01table11.txt}\end{table}\begin{table}[t]\caption{接続詞一覧}\input{01table12.txt}\end{table}ルールの一覧を表11に,ルールで使われる接続詞の一覧を表12に,それを用いる文間接続関係名ごとに示す.ここで(R)と書かれているものは逆向き関係を表している.\subsection{文間接続関係判定アルゴリズム}\label{sec:mylabel17}つぎに文間接続関係判定のアルゴリズム図8について述べる.文間接続関係判定のアルゴリズムでは,談話構造木に存在するすべてのリンクに対し,1つずつ順に文間接続関係を付与する.まず,リンク1つに対し接続関係それぞれに対応する9つの適合得点を用意する.そして表11のルール1つずつ,条件部に適合するか判定する.適合した場合には,ルールの得点を対応する接続関係の適合得点に加算する.そしてすべてのルールについて適合判定を行った後,最高の適合得点を持つ接続関係を文間接続関係として決定する.\begin{figure}[t]\begin{center}\includegraphics{18-1ia1f8.eps}\end{center}\caption{文間接続関係判定アルゴリズム}\end{figure}
\section{評価実験と考察}
\subsection{評価実験}\label{sec:mylabel18}本研究で作成したDIAで談話構造解析を行った様子を図9に示す.左上のテキストボックスに解析するテキストを入力.実行すると左下に談話解析の結果である談話構造木が表示される.各入力文はノードで表示され,接続関係にある文同士が親ノードから子ノードへのアークで接続されている.また文間接続関係を表すラベルがアーク上に付与される.例えば,4文目「日航株は1円の値上がりでも,大幅な上昇率となる。」と6文目「ただ,売り抜けることができないと,全額損失になる。」では「株」と「損失」の部分/属性関係を基に,4文目と10文目「市場では「一か八かのギャンブル相場入りした」(大手証券関係者)との声が出ている。」では「株」と「相場」の部分/属性関係を基に正しく接続先の決定ができている.また談話構造木の左下の部分木は,詳細化として株価が1円近辺になった時の具体的な値動きについての話題で構成されている.一方,右下の部分木では日航株が話題となっている.この結果を,自動要約に用いるには,根の文と本文章の最後に近い葉の文に至る道上から要約文を作ることが有効のように思われる.\begin{figure}[b]\begin{center}\includegraphics{18-1ia1f9.eps}\end{center}\caption{DIAの実行例}\end{figure}本研究はこれまでに述べてきたように,談話構造木中の接続先判定においても,文間接続関係の決定においても,筆者らの事例調査と経験によって作成したルールによっている.このルールを作成するにあたって筆者らが本論文で述べて談話構造木の作成の基本アルゴリズムをベースに手作業で事例の文章の談話構造木を作成する過程において,アルゴリズム中の表8に示したCb決定タイプによる重みw$_\mathrm{Cb}$などのいくつかの数値パラメタを決定していった.このシステム作成時に事例として利用したのはWeb上のニュース記事から抽出した13文章112文である.これらを対象にクローズドテストを行った.各種パラメータや得点は出来るだけ正しい談話構造が求まるよう人手で調整した.実験に用いたパラメータは,TRANSITION得点のCONTINUATIONは90,RETAININGは55,SHIFTINGは30,NOTHINGは0,距離得点上限値は33,Cb決定タイプによる重みは,部分/属性(共起辞書から抽出)は0.6,部分/属性(上位概念ペア)は0.3,上位—下位0.6,類義0.3とした.文間接族関係の判定ルールの得点は表11のとおりである.実験結果を表13に示す(分母が99なのは接続関係の数が$112-13=99$だからである).\begin{table}[b]\caption{実験結果}\input{01table13.txt}\end{table}接続先文の正解率は談話構造木の構築で正しい親ノード文を選んだ割合を表している.文間接族関係の正解率は談話構造木の構築で正しい接続先が選ばれたものの中での文間接族関係の正解率である.全体の正解率は,正しい接続先を選びかつ正しい文間接族関係を選んだ割合である.さらに,Webから得た上記とは異なる12文章129文を対象にオープンテストを実施した.正解の判定は筆者らが所属する研究室の自動要約を研究している筆者らとは別の学生に依頼した.その結果を表14に示す.\begin{table}[t]\caption{実験結果}\input{01table14.txt}\end{table}\subsection{考察}実験の結果,談話構造木の構築では,同一概念や同義概念が含まれる場合は正しく接続先が特定されたが,部分/属性概念,上位/下位概念など対象知識から得られる概念関係を用いた接続先の決定は表8に示したCb決定タイプによる重みw$_\mathrm{Cb}$に依存し,誤る事例はこの数値が原因であることが多かった.現在w$_\mathrm{Cb}$は経験的に定めているが,今後より多くの正解事例を手作業で作成し機械学習によってよる定めることによってより精度の高い接続先の決定が行えると思われる.一方,部分/属性の判定精度を向上できると接続先の決定精度も向上する.部分/属性の判定は,共起辞書を用いた規則の場合は高い確率で正しい関係を導いている.上位概念ペアを用いた規則の場合は,部分/属性の上位概念として選定した概念(\tablename~\ref{tab3}の右列に列挙した概念)がシソーラスでの位置で根から近(高層)いことが原因で,少し精度が低くなっていることがある.より下層の概念(その分概念数は多くなるが)を上位概念として選定すれば誤りを除くことができ,精度は向上する.また2語間だけでみた場合は正しい部分/属性関係であっても,文脈上ではそうではない場合もあった(例:属性が「関係者」でそれを持つ対象が「法人」や「施設」など文脈上に複数の候補がある場合).文間接続関係の判定は,高い精度を実現したが,詳細化と遷移間の分離精度が少し低かった.さらにセンタリング理論で同義概念など概念の関係をみるとき文節を単位に比較したが,文節の区切りに表現上のゆらぎがあり,さらに大きい単位でみないと正しく比較できない場合があった(例:「通信技術」と「通信の技術」.後者は2文節).本研究の応用については,現在,自動要約,照応解析,質問応答に用いることを試行している.自動要約においては,要約の種となる重要語を選定する際の得点として,談話構造木において原文の最初の文から最後の文に至る路上の文に含まれる場合に加点する手法で,話の主要な流れを漏れなくカバーする要約文の生成を期待できる.ゼロ代名詞の先行詞の判定を行う照応解析では,先行詞候補を探索する範囲を談話構造木において先頭の文からゼロ代名詞のある文に至る経路上の文に高い精度で絞り込むことができると期待している.質問応答システムでは,文間接続関係を用いて,理由や原因の回答抽出が容易になることや,質問文と類似度の高い照応文という知識文(新聞やweb中の回答を得ようとする知識ソース中の文)から実際に回答を含む回答文を探索する範囲を談話構造木中で照応文を含む経路上に限定できることなどが期待できる.
\section{おわりに}
本研究では,センタリング理論と対象知識に基づき,談話における話題の推移を,正確に捉える談話構造解析の手法を示した.対象知識を用いることで,同一概念や同義概念だけでなく部分/属性や上位/下位概念への話題の展開を考慮し,表記上の手掛かりがない文章でも焦点の推移を的確にとらえることが可能となった.また,センタリング理論により,焦点の推移と連続性を評価したことで,結束性の高い談話構造木を構築することができた.文間接続関係判定ルールと対象知識判定規則の精緻化や,機械学習などによる各種パラメータの高精度な決定,辞書の整備,表記のゆれに対する解決などを行えばさらに高い精度を実現できるだと思われる.\acknowledgment本研究を進めるにあたって有意義なコメントを頂いた青山学院大学原田研究室の皆様に感謝いたします.特に,久保田裕章氏には接続先の決定方法や文間接続関係の選出の議論に参加して頂き有意義な意見を頂いた,また西尾公秀氏には丁寧なオープンテストを実施して頂いた,深く感謝いたします.\bibliographystyle{jnlpbbl_1.5}\label{sec:mylabel19}\begin{thebibliography}{99}\itemGroszBarbaraJ,WeinsteinScottandJoshiAravindK(1995).``Centering:AFrameworkforModelingtheLocalCoherenceofDiscourse.''\textit{AssociationforComputationalLinguistics},21,pp.203--225.\item原田実,尾見孝一郎,岩田隆志,水野高宏(1999).日本語文章からの意味フレーム自動生成システムSAGE(SemanticframeAutomaticGEnerator)の開発研究.人工知能学会第13回全国大会論文集,pp.213--216.\item原田実,水野高宏(2001).EDRを用いた日本語意味解析システムSAGE.人工知能学会論文誌,\textbf{16}(1),pp.85--93.\item原田実,田淵和幸,大野博之(2002).日本語意味解析システムSAGEの高速化・高精度化とコーパスによる精度評価.情報処理学会論文誌,\textbf{43}(9),pp.2894--2902.\item(株)日本語電子辞書研究所(1995).EDR電子化辞書仕様説明書(第2版).\item加藤直人,森元逞(1995).統計的手法による談話構造解析.情報処理学会第51回全国大会,pp.99--100.\item加藤裕平,古川勇人,蒲生健輝,韓東力,原田実(2005).WEB検索による知識文の獲得と意味グラフ照合推論による質問応答システムMetis.情報処理学会第67回全国大会論文集,1G-06,第2分冊,pp.11--12.\item黒橋禎夫,長尾真(1994).表層表現中の情報に基づく文章構造の自動抽出.自然言語処理,\textbf{1}(1),pp.3--20.\item黒橋禎夫,長尾真(1998a).日本語形態素解析システムJUMANversion3.61.京都大学大学院情報学研究科.\item黒橋禎夫,長尾真(1998b).日本語構文解析システムKNP使用説明書version2.0b6.京都大学大学院情報学研究科.\itemMarcuDanielandEchihabiAbdessamad(2002).``AnUnsupervisedApproachtoRecognizingDiscourseRelations.''\textit{Proceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},pp.368--375.\item南旭瑞,原田実(2002).語意の類似性を用いた照応解析システムの開発Anasys.情報処理学会第64回全国大会論文集,3M-06第2分冊,pp.53--54.\item横山憲司,難波英嗣,奥村学(2003).SupportVectorMachineを用いた談話構造解析.情報処理学会研究報告自然言語処理研究会報告,23,pp.~193--200.\item柴田和秀,黒橋禎夫(2005).隠れマルコフモデルによるトピックの遷移を捉えた談話構造解析.言語処理学会第11回年次大会,pp.109--112.\itemSporlederCarolineandLascaridesAlex(2005).``ExploitingLinguisticCuestoClassifyRhetoricalRelations.''\textit{ProceedingsofRecentAdvancesinNaturalLanguageProcessing},pp.532--539.\item田中信彰,面来道彦,野口貴,矢後友和,韓東力,原田実(2006).意味解析を踏まえた自動要約システムABISYS.言語処理学会論文誌,\textbf{13}(1),pp.143--164.\item梅澤俊之,西尾華織,松田源立,原田実(2008).意味解析システムSAGEの精度向上とモダリティの付与と辞書更新支援系の開発.言語処理学会第14回年次大会発表論文集,E3-1,pp.548--551.\item梅澤俊之,加藤大知,松田源立,原田実(2009).意味解析システムSAGEの精度向上—モダリティと副詞節について—.情報処理学会第191回自然言語処理研究会,pp.1--8.\item山本和英,斉藤真実(2008).用例利用型による文間接続関係の同定.自然言語処理,\textbf{15}(3),pp.21--51.\end{thebibliography}\begin{biography}\bioauthor{梅澤俊之}{2008年青山学院大学理工学部情報テクノロジー学科卒業.2010年青山学院大学大学院理工学研究科理工学専攻知能情報コース博士前期課程修了.}\bioauthor{原田実}{1975年東京大学理学部物理学科卒業.1980年東京大学理学系大学院博士課程修了.理学博士.(財)電力中央研究所研究員を経て,1989年青山学院大学理工学部経営工学科助教授に就任,2000年より同情報テクノロジー学科教授.1986年電力中央研究所経済研究所所長賞.1992年人工知能学会全国大会優秀論文賞.2008年青山学院学術褒賞.主たる研究は,自動プログラミング,意味理解,自動要約,質問応答,テキストマイニング,対話応答などにおいて実利用可能な技術開発に従事.情報処理学会,電子情報通信学会,人工知能学会,日本ソフトウエア科学会,IEEE,ACM各会員.}\end{biography}\biodate\end{document}
| |
V17N01-03 | \section{はじめに}
形態素解析は,文を形態素列に分割し,各形態素に品詞をタグ付けするタスクである.形態素解析は自然言語処理における基盤技術であり,構文解析や情報検索といった応用を実現するうえで高い精度の達成が不可欠となる.日本語の形態素解析では,あらかじめ定義された辞書を用いる手法が高い精度を達成している~\cite{Kurohashi1994full,浅原正幸:2002,Kudo2004full}.この手法では,入力文は辞書引きにより得られた形態素のラティスに展開され,ラティス中の最適なパスが出力として選択される.しかし,辞書に基づく形態素解析には,辞書にない形態素({\bf未知語})の解析を誤りやすいという問題がある.例えば,形態素解析器JUMAN\footnote{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/juman.html}は,デフォルトの辞書を用いると,未知の動詞「ググる」を誤って「ググ」と「る」に分割する.この未知語問題は,未知語を解析用の辞書に追加することで解決する.しかし,人手による辞書登録はコストがかかるため,計算機による自動化が望まれる.人手によらない未知語問題への解決策として,2通りの手法が提案されている.ひとつ目の手法では,形態素解析における未知語モデルを改良する~\cite{Nagata1999full,内元清貴:2001,Asahara2004full,東藍:2006}.日本語の形態素解析で広く用いられる未知語モデルは,字種に基づく簡単なヒューリスティクスだが,代わりに統計や機械学習に基づく未知語モデルを導入すると未知語同定の精度が向上する.二つ目の手法では,テキストから未知語を自動獲得し,形態素解析用の辞書を拡張する~\cite{Mori1996full}.二つの手法を比べると,前者は入力文中の個々の未知語を同定しようとするのに対し,後者は同じ未知語のテキスト中での複数の使われ方を比較できるという点で異なる.複数の使われ方の比較は未知語の同定に効果的と考えられる.例えば「ようつべ」(YouTubeのスラング)という形態素を知らないまま,「ようつべって…」という文を解釈したいとする.このとき,「ようつべ」は,未知の名詞以外にも,未知の動詞「ようつべる」とも解釈でき,いずれが正しいか判断しがたい.同様に,別の文「ようつべとは,…」について,名詞「ようつべ」の他に,動詞「ようつぶ」の命令形とも解釈できる.しかし,両者を見比べると,2文とも名詞「ようつべ」で解釈できることから,名詞という解釈がより自然だと推測できる.従って,本論文では後者の手法を採用する.ただし,両者は対立するものではなく,組み合わせることで,より高い解析精度が得られるようになると期待できる.未知語獲得の従来手法はバッチ処理であり,コーパスをソートしてすべての部分文字列を調べる~\cite{Mori1996full}.しかし,この手法は効率が悪い.なぜなら高頻度の形態素のほとんどが解析用の辞書に登録済みであり,一般に出現頻度でコーパスの90\%以上を網羅している.こうした既知の形態素を改めて獲得しても無駄になる.これに対し,提案手法では,辞書に登録されていない形態素のみを獲得対象とする.従来研究は,資源の制約から,主に小規模な新聞記事を対象に行われてきたが,近年,ウェブの出現により大規模なテキストが入手可能となっている.それに伴い,自然言語処理の様々な分野でデータの大規模化による性能向上が報告されている\cite{Banko2001full,Brants2007full}.しかし,未知語獲得は,データの大規模化が単純に解決する性質の問題ではない.未知語の中には,「ブログ」のように高頻度ながら登録が漏れているものもあるが,大部分がいわゆるロングテールに属す低頻度の形態素である.こうした形態素の出現するテキストには偏りがあるだけでなく,データを増やすだけでは,次々と新たな未知語が出現してきりがない.従って,とにかくデータを与えてそこから未知語を獲得するよりも,個々の未知語候補に着目し,それが獲得されるまでデータを読み込む方が自然である.そもそも,未知語の同定のために,何千,何万もの使われ方を調べる必要はなく,直観的には,ほとんどの場合,10件程度を見比べればほぼ明らかではないかと思われる.本論文では,オンライン未知語獲得という枠組みと,その具体的な実現手法を提案する.オンライン未知語獲得では,バッチ処理ではなく,逐次的に入力されるテキストから未知語を獲得する.形態素解析器自体は,通常通りテキストを文単位で解析し,形態素列を出力する.異なる点は,解析の裏で未知語獲得器が動作することである.具体的には,解析された文から未知語を抽出し,適当な時点で形態素解析器の辞書を更新する.これにより獲得された未知語が形態素解析に反映される.オンライン未知語獲得では,獲得開始時に対象コーパスを決める必要がない.そのため,例えば,クローラが毎日新たなページを取得するという設定でも,この差分のみから未知語が獲得できる.オンライン未知語獲得は,検出,列挙,選択のサブタスクにより実現される.このうち,列挙は日本語の持つ形態論的制約を利用し,選択は蓄積した複数用例の比較による.実験により比較的少数の用例から高精度に未知語が獲得され,その結果形態素解析の精度が改善することが示された.本論文の構成は次の通りである.\ref{sec:acquisition-task}章で未知語獲得タスクを整理し,\ref{sec:online-acquisition}章でオンライン未知語獲得の枠組みを提案する.\ref{sec:enumeration-and-selection}章では,オンライン未知語獲得の実現手法のうち,列挙と選択を説明する.\ref{sec:experiments}章で実験結果を報告し,\ref{sec:related-work}章で関連研究,\ref{sec:conclusion}章で結論を述べる.
\section{未知語獲得タスク}
\label{sec:acquisition-task}未知語獲得とは,未知語について,テキスト中の一つ以上の{\bf用例}から{\bf辞書項目}を帰納的に生成するタスクである.ここで,辞書項目は辞書の項目として記述される形態素であり,テキスト中に出現したその形態素を用例とよぶ.例えば,未知語「ググる」について,「なんとなく\underline{ググって}みた.」や「\underline{ググら}ずに答える.」といったテキスト中の用例から辞書項目を生成する.ただし,個々の用例の解釈には曖昧性があり,そうした曖昧性を解消することによって辞書項目が生成される.辞書項目の生成には{\bf語幹}と{\bf品詞}の同定が必要となる.「ググる」の例にあるように,動詞や形容詞は文法的役割に応じて形態変化を起こすが,この形態変化は活用という概念によって処理される.活用する形態素は{\bf語幹}と{\bf語尾}からなる.語幹は不変だが,語尾は活用に応じて変化する.例えば,「ググって」は語幹「ググ」と語尾「って」からなる.名詞は活用せず,語幹のみからなる.品詞は形態素解析用に定義されたものに基づく.ただし,既存の品詞は人手での付与が前提となっており,形態,構文,意味レベルの情報が混在している.未知語獲得タスクにおいて,いきなり意味レベルの情報を獲得するのは難しいため,本論文では,ひとまず形態レベルの情報の獲得を目指す.そのために,品詞分類を整理する.以下の説明は形態素解析器JUMANが採用する品詞体系に基づく.品詞体系の設定方法には様々な流儀があるため一般化が難しいが,少なくともipadic\footnote{http://sourceforge.jp/projects/ipadic/}の品詞体系でも同様の議論が成り立つことは容易に想像できる.品詞は「品詞」,「品詞細分類」,「活用型」,「活用形」の4種類からなる.「品詞」には「名詞」,「動詞」,「形容詞」などがある.「名詞」の「品詞細分類」には,「普通名詞」や「サ変名詞」の他,固有名詞用の「固有名詞」,「組織名」,「地名」,「人名」などがある.しかし,固有名詞と普通名詞の識別は,形態レベルの文法的な情報のみでは困難なので,本論文では,便宜的に固有名詞も「普通名詞」とみなす.用言の「動詞」と「形容詞」には「品詞細分類」は設定されていない.代わりに活用を扱うために{\bf活用型}と{\bf活用形}が与えられる.活用型は活用のタイプに基づく分類であり,活用形は個々の具体的な活用形態を指す.例えば,「ググる」の活用型は「子音動詞ラ行」で,「ググって」の活用形は「タ系連用テ形」,「ググら」は「未然形」となる.未知語獲得タスクにおける品詞は,「品詞」,「品詞細分類」,「活用型」の適当な組である.簡単のために,名詞については「品詞細分類」,動詞と形容詞については「活用型」で呼ぶ.例えば,「ググる」の品詞は「子音動詞ラ行」となる.\begin{table}[b]\caption{獲得対象の品詞}\label{tb:pos-list}\input{04table01.txt}\vspace{-1\baselineskip}\end{table}基本語彙は既に人手により辞書登録されているので,獲得対象をオープンクラスの品詞に絞り込める.つまり,「来る」などの不規則変化動詞や助詞,助動詞などの付属語は獲得対象から除外される.本論文では,名詞,動詞,および形容詞を獲得対象の品詞とする.副詞もオープンクラスとみなせるが,今回は明示的な獲得対象としない.副詞と名詞の識別も,形態レベルの情報だけでは困難だからである.副詞の認識は今後の課題とする.以上をまとめると,獲得対象の品詞は表\ref{tb:pos-list}の15種類となる.形態素の単位認定基準,つまりある言葉が1形態素か否かは自明でない.例えば,「ミンククジラ」のように構成的な名詞や「宣べ伝える」のような複合動詞を1形態素とするか分割すべきか明らかでない.実際,人手で整備された既存の形態素解析用の辞書も,単位に一貫性があるとは言い難い.他の単位認定基準としては,『現代日本語書き言葉均衡コーパス』が人間の作業者向けに詳細な基準を設けている~\cite{BCCWJ2008}.しかし,この基準は煩雑で,しかも意味レベルの情報も利用しているため,プログラムに落とし込んで未知語の自動獲得に利用することは困難である.本論文では,厳密な単位認定にはこだわらないとする.
\section{オンライン未知語獲得}
\label{sec:online-acquisition}\subsection{システム構成}\label{sec:online-acquisition-idea}未知語獲得タスクに対して,我々はオンラインによる解法を提案する.図\ref{fig:system}にオンライン未知語獲得のシステム構成を示す.形態素解析器自体は,通常通り入力文に対して形態素列を出力する.ただし,辞書として,人手で整備した基本語彙辞書の他に,自動獲得辞書も用いる.形態素解析の裏では未知語獲得器が動く.獲得器は,形態素解析器が出力する形態素列を文ごとに受け取り,そこから未知語を抽出する.獲得器は,適当な時点で未知語を獲得し,形態素解析器の自動獲得辞書を更新する.辞書更新により未知語獲得が以降の解析に反映される.\begin{figure}[b]\begin{center}\includegraphics{17-1ia4f1.eps}\end{center}\caption{オンライン未知語獲得システムの構成}\label{fig:system}\end{figure}獲得器には高い精度での未知語獲得が要求される.獲得された未知語の辞書へのフィードバックに人手が介在しないが,誤獲得が解析に悪影響を及ぼすことは避けたいからである.獲得器は,未知語の用例を蓄積することで,それまでに解析されたテキストを獲得に利用できる.未解析のテキストは獲得に利用できないが,見方を変えれば,次に読むテキストをあらかじめ決める必要がないことを意味する.従って,獲得の都合に応じて対象テキストを動的に変更するという応用も可能である.オンライン未知語獲得を実現するために,以下のサブタスクを設定する.\begin{description}\item[検出]各文の形態素解析結果から未知語の用例を検出する.\item[列挙]検出された各未知語用例に対して,語幹と品詞からなる辞書項目の候補を列挙する.\item[選択]各未知語用例に対して,最適な辞書項目の候補を選択する.選択は,過去に検出された用例を蓄積しておき,それら複数用例の比較により行う.比較される用例が増え,曖昧性が十分に解消できた時点で獲得し,形態素解析器の辞書を更新する.\end{description}未知語「ググる」の獲得を例にシステムの挙動を説明する.「ググる」は語幹「ググ」と品詞「子音動詞ラ行」からなる.テキストを読み進めて,ある時点で文「なんとなくググってみた.」が入ってきたとする.獲得器は,まず,この文の「ググ」を手がかりに未知語用例を検出する.次に,この用例に対して考えられる辞書項目の候補を列挙する.辞書項目の候補としては,語幹「ググ」と品詞「子音動詞ラ行」以外にも,同じ語幹で「子音動詞ワ行」,語幹「ググって」と品詞「子音動詞マ行」,語幹「なんとなくググ」と品詞「子音動詞ラ行」なども考えられる.こうした複数の候補の中から正しい候補を選択する必要があるが,この1用例だけを見ても正しい候補を判断しがたい.そこで獲得器は判断を保留し,用例を記憶に蓄えておく.さらにテキストを読み進めると,「ググらずに答える.」という文が入力される.同様に検出と列挙を行ったのち,「ググってみた」の用例を記憶から取り出して,「ググらず」と比較する.すると,両者を共通に解釈できる辞書項目の候補は語幹「ググ」と品詞「子音動詞ラ行」のみである.このように複数の用例を比較して曖昧性を解消する.比較する用例が増え,選択された候補が適当な終了条件を満たしたとき,その候補を獲得する.これにより,「ググる」が自動獲得辞書に追加される.オンライン未知語獲得のサブタスクのうち,本論文では列挙と選択について詳述する.検出タスクについては簡単な手法を説明するにとどめる.\subsection{未知語用例の検出}\label{sec:detection}未知語検出は各文から未知語の用例を検出するタスクである.文は,形態素解析結果に基づく形態素列,または文字列として表現される.タスクの入力は,解析器が返す文の形態素列である.一方出力は,未知語用例に対応する文の部分文字列であり,その範囲を$[s_d,e_d]$とする.ただし,$[s_d,e_d]$が未知語用例の語幹の範囲$[s_u,e_u]$と厳密に一致する必要はない.辞書項目,つまり語幹と品詞の組の候補の列挙は次の列挙タスクで行うが,どの程度の正確さで検出が必要かは列挙のアルゴリズムに依存する.\ref{sec:enumeration-method}節で述べる列挙アルゴリズムは,語幹の境界候補の列挙を$s_d$を基点に行うので,検出範囲は$s_u\leqs_d\leqe_u$を満たす必要がある.日本語において未知語用例の検出は自明なタスクではない.一番単純な検出手法として,既知語とテキストの文字列マッチングを行い,マッチしない箇所を検出するというものが考えられる.しかし,日本語の単純な音韻体系がわざわいして,多くの未知語に対して無関係な既知語がマッチし,検出漏れが起きる.この現象は,形態素解析器が持つ文法知識を利用することである程度抑えられる.形態素解析器は,入力文に対して,辞書引きと未知語処理により,出力すべき形態素の候補を列挙する.未知語処理により列挙される形態素候補を{\bf未定義語}と呼ぶ.JUMANでは,字種に基づく簡単なヒューリスティクスが採用されている.例えば,カタカナの連続が一つの形態素候補とされる.これにより,未知語「ググる」を含む入力文「ググってみた.」に対して,未定義語「ググ」が形態素候補となり,これを含むパスが出力に選ばれる.従って,形態素解析結果中の未定義語$w_i$を検出範囲$[s_{w_i},e_{w_i}]$とする.ただし,$s_{w_i}$と$e_{w_i}$は,形態素$w_i$の文字列表現における開始・終了位置である.形態素解析を用いる検出手法でも検出されない未知語用例が存在する.例えば,「アブラハム」は「アブラ」(油)と「ハム」に分割され,「うざい」は「う」(卯/雨/鵜)と「ざい」(剤/在/材/罪/剤)に分割される.こうした過分割未知語の検出は今後の課題とする.
\section{辞書項目の列挙と選択}
\label{sec:enumeration-and-selection}\subsection{列挙タスクと選択タスク}\label{sec:enumeration-and-selection-tasks}列挙は,検出された各用例に対して,文中の前後の文脈を利用して,考えられる辞書項目の候補を列挙するタスクである.辞書項目の候補は語幹と品詞からなる.ここで,語幹の同定は前方境界と後方境界の二つの同定を意味する.例えば,「なんとなくググってみた」の場合,「なく」と「ググ」の間に前方境界が,「ググ」と「って」の間に後方境界が引かれる.そこで,辞書項目の候補を前方境界,後方境界,品詞の組で表現する.列挙される候補は,効率よく正解候補を選択するためには,なるべく数が少ないことが望ましい.選択は,各未知語用例に対して,最適な辞書項目の候補を選択するタスクである.この際,検出済みの未知語用例を蓄積することで,複数の用例が比較できる.選択タスクの実現には,最適な候補を選択する基準と,最終的に獲得を判断するための終了条件が必要となる.\subsection{形態論的制約の利用}\label{sec:enumeration-constraints}辞書項目の列挙において,候補絞り込みの手がかりとして形態論的制約を利用する.日本語は膠着語であり,形態素は,その文法的な役割に応じて,接尾辞,助動詞,助詞などに後続される.この際,用言は後続する形態素に応じて活用形を変える.また,形態素同士の連接には品詞に応じて制約が働く.例えば,助詞「を」は,「走る」の基本連用形「走り」に後続して「走りを」という形は取り得るが,未然形「走ら」に後続して「走らを」とはならない.このような連接に関する制限を形態論的制約と呼ぶ.この形態論的制約を列挙に利用するために{\bfサフィックス}を導入する.サフィックスとは,語幹に後続し得る文字列であり,自立語の語尾(あれば)と後続する付属語列を連結したものである.サフィックスの例を表\ref{tb:naming-conventions}に示す.いま,ある文字列に対してあるサフィックスが後続したとする.このとき,そのサフィックスの直前が自立語の語幹の後方境界の可能性がある.\begin{table}[t]\caption{サフィックスの例}\label{tb:naming-conventions}\input{04table02.txt}\end{table}サフィックスの集合は生テキストから収集される.ここで,形態素解析が既知語について十分に高精度であることを利用する.具体的には,テキストを形態素解析し,既知語に後続するサフィックスを収集する.こうして集められたサフィックスを品詞ごとに集約する.いま,サフィックスが十分に大きなコーパスから収集されたとき,ある品詞に属す形態素の語幹に後続し得るサフィックスは,品詞に対応するサフィックス集合中のいずれかに限定される.従って,サフィックスを候補列挙に用いることで,後方境界と同時に品詞の候補が列挙できる.なおかつ,品詞候補を形態論的制約を満たすものに限定できる.ただし,一般に,サフィックスは複数の品詞に後続し得る.例えば,サフィックス「をも」は母音動詞にもサ変名詞にも後続できる.サフィックスの収集には,Kawaharaet~al.の手法により編纂されたウェブコーパスを用いる~\cite{Kawahara2006full}.ただし,予備実験により,この大規模コーパスでもサフィックスの異なり数が収束しないと判明した.「させられかねなかっただろう」のような低頻度の長いサフィックスが存在するからである.そこで,サフィックスの最大長を5文字とし,それより長いサフィックスは先頭の5文字で統合する.実験では,約1億ページから約66万の異なるサフィックスを得た.サフィックスあたりの品詞数は平均で1.33であった.\subsection{サフィックスを用いた列挙手法}\label{sec:enumeration-method}サフィックスを用いて辞書項目の列挙を行う.まず,列挙に利用する文中の前後の文脈,つまり前方境界と後方境界の探索範囲を文節を用いて限定する.\pagebreak文節については,構文解析器KNP\footnote{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/knp.html}が係り受け解析の前処理として文節まとめあげを行うので,その結果を利用する.検出された未知語用例が属す文節,および最大で前後2文節を探索範囲とする.ただし,文頭,文末や句読点で探索を打ち切る.後方境界と品詞の組の候補を図\ref{fig:suffix-match}のようにサフィックスを用いて列挙する.検出範囲の開始位置$s_d$から探索範囲の終端までの各位置で,サフィックスのマッチングを行う.サフィックスがマッチしたとき,サフィックス開始位置が後方境界の候補となり,サフィックスに対応する1個以上の品詞が候補となる.\begin{figure}[b]\begin{center}\includegraphics{17-1ia4f2.eps}\end{center}\caption{候補の列挙}\label{fig:suffix-match}\end{figure}長さの異なる複数のサフィックスがマッチした場合,以下の規則で採用するサフィックスを選択する.原則として長い候補を優先するが,サフィックスの終了位置が文節境界と一致しなければならない.ただし,サフィックスは最大5文字としているので,5文字のサフィックスがあれば無条件で採用する.また,サフィックス以外の手がかりとして,以下を前方境界と後方境界の候補列挙に利用する.\begin{itemize}\item文頭と文末\footnote{ただし,ウェブコーパスの場合は,HTMLから文抽出を行うため,文頭や文末は文抽出誤りの影響を受ける可能性があり,あまり信頼できない.}\item句読点や記号\item「御」などの接頭辞\item「首相」などの末尾要素\itemKNPにより与えられる文節境界\end{itemize}これらの手がかりにより列挙される候補のうち,後方境界については,特殊な品詞``EOB''を与える.``EOB''はサフィックスなしに語幹単独で出現し得ることを示す.例えば,「グーグル」などの名詞には句読点などが直接後続し得る.また,母音動詞は基本連用形(名詞化)が語幹と同形なので,語幹単独で出現し得るとみなせる.一方,「ググる」などの子音動詞ラ行は語幹単独では出現しない.``EOB''は選択タスクにおいて語幹単独で出現し得る品詞に展開される.\subsection{用例の蓄積}\label{sec:selection-accumulation}辞書項目の選択には,それまでに検出された複数の用例を利用する.具体的には,新たに入ってきた用例について,その用例と同じ辞書項目を表す可能性のある用例群を記憶から取り出して比較する.ただし,真に同じ辞書項目を表す用例のみを取り出すのは難しいので,ひとまず前方境界を共有する用例群を取り出し,後の処理で絞り込みを行う.また,獲得に至らなかった用例は記憶に追加し,獲得時には使われた用例群を削除する.用例の効率的な管理のためにトライを利用する.各用例の格納は,前方境界の候補数だけ行う.トライのキーとして,各前方境界候補と,それより右で最左の後方境界候補に挟まれた文字列を用いる.例えば,図\ref{fig:suffix-match}の用例に対して,「ググ」と「何となくググ」をキーとして2箇所に格納する.用例取り出し時にはキーを使ってトライをたどり,途中のノード,およびキーの末端ノードの子孫に格納された用例群を取り出す.\subsection{辞書項目の選択}\label{sec:selection-method}辞書項目の候補,つまり前方境界,後方境界および品詞の候補のうち,最適な候補の選択を記憶から取り出された用例群の比較により行う.図\ref{fig:selection}に選択の擬似コードを示す.候補の絞り込みは前方境界,後方境界,品詞の順で行う.また,語幹については短い候補(前方境界は右,後方境界は左)から順に調べる.\begin{figure}[b]\input{04fig03.txt}\caption{選択の擬似コード}\label{fig:selection}\end{figure}用例$e$の各前方境界候補に対して,まず記憶から前方境界$f$を共有する用例群$E$を取り出す(retrieveExamples).次に,用例群の比較により,若干の後方境界候補の足切りを行う(refineRearBoundaryCandidates).これにより,語幹の長さが0の候補や,後述の終了条件を満たさないことが明らかな候補を取り除く.残った各後方境界候補$r$に対して,品詞の絞り込みを行う(refinePOSCandidates).品詞候補が$p$一つに絞り込まれ,その候補が獲得の終了条件を満たすなら,候補$(f,r,p)$を獲得する.選択の方針は,単純に,多くの用例をうまく説明できる候補を選ぶというものであり,絞り込みは用例群の包含関係により行う.refinePOSCandidatesでは,$(f,r)$を共有する用例群中の被覆率が閾値以上の品詞候補を選ぶ.ただし,「普通名詞」,「サ変名詞」,「ナ形容詞」は区別が明確でなく,また,「母音動詞」の「基本連用形」と「普通名詞」の区別は困難なため,これらの品詞のみが候補として残った場合には「普通名詞」を採用する.終了条件は,候補$(f,r,p)$を共有する用例群について,次の二つが満たされる場合とする.一つ目は前方境界の妥当性のチェックである.具体的には,句読点などの明らかな境界マーカーから前方境界が得られた候補の割合が閾値以上とする.例えば,未知語「新撰組」に対して,形態素解析が「新」を接頭辞と解釈するため,常に「撰組」が辞書項目の候補となる.選択アルゴリズムは短い候補を優先するので,「新撰組」よりも先に「撰組」が調べられる.しかし,「撰組」の直前に句読点等が来る用例はないので,「撰組」は獲得されない.二つ目は活用型の異なり数が閾値以上という条件である.これにより,品詞が偶発的に選択されたのではなく,実際に該当品詞として使われていることを確認する\footnote{実験では異なり数の閾値を3とした.従って,獲得には最低3個の用例が必要となる.}.\subsection{品詞分類手法の比較}\label{sec:selection-comparison}品詞分類について先行研究との簡単な比較を示す.Moriet~al.の後ろの「文字列」と福島・鍜治らの「後続するひらがなn-gram」,および桑江らの「最長後続ひらがな列」は,本論文のサフィックスと同様の働きをする~\cite{Mori1996full,福島健一:2007,鍜治伸裕:2009,桑江常則:2008}.Moriet~al.は前後の文字列とその頻度をベクトルで表現し,語幹候補と品詞モデルとのベクトル間の距離の近さにより品詞を判定している.しかし,同じ品詞に属す形態素が本当に似たベクトルを取るのだろうか.直観的には,品詞は大雑把な分類であり,同じ品詞に属す形態素でも振る舞いにばらつきがありそうに思われる.そこで,ウェブコーパスを対象に簡単な実験を行った.まず,コーパスの形態素解析結果から既知語に後続するサフィックスを収集する.次に,サフィックスを各形態素ごとに集約し,形態素ごとの後続サフィックスの頻度分布を求める.同様にして,形態素が属す品詞ごとに,後続サフィックスの頻度分布を求める.そして,各形態素と品詞との間で,後続サフィックスの頻度分布の近さを求める.ただし,頻度分布の近さの尺度としてSkewdivergence$s_\alpha$を用いる~\cite{Lee2001full}.\pagebreak\begin{align*}s_\alpha(q,r)&=D_{KL}(r||\alphaq+(1-\alpha)r),\\D_{KL}(q||r)&=\sum_yq(y)(\logq(y)-\logr(y))\end{align*}ここで,$q$,$r$はサフィックスの頻度分布とし,$\alpha=0.99$とする.図\ref{fig:divergence}に,「子音動詞ラ行」の例を示す.横軸は「子音動詞ラ行」の各形態素の絶対頻度を表し,縦軸は各形態素の,「母音動詞」との近さと「子音動詞ラ行」との近さとの「差」を表す.低頻度区間では,二つの近さの差が小さく,近さによる品詞判定では識別が難しいと予想される形態素が目立つ.それだけでなく,高頻度区間でも差が小さい形態素が散見される.従って,出現頻度が大きくても,近さによる品詞判定が難しいと予想される場合が存在する.福島・鍜治らは品詞識別にSVMを用い,素性として後続するひらがなn-gramを与える.素性の値に福島らは頻度,鍜治らは出現したか否かの2値を使う.SVMは識別器であり,品詞内の近さよりも品詞間の差異を学習すると期待される.\begin{figure}[b]\begin{center}\includegraphics{17-1ia4f4.eps}\end{center}\caption{「子音動詞ラ行」の各形態素の,「母音動詞」との近さと「子音動詞ラ行」との近さとの「差」}\label{fig:divergence}\end{figure}一方,提案手法は,サフィックスの頻度には注目せず,個々のサフィックスを品詞リストに写像する.サフィックスは形態論的制約を満たすか否かの2値を表現しており,候補列挙の時点で,制約を満たさない品詞は候補から除外される.このように,品詞の絞り込みが各用例に対して行われるので,単純に多くの用例を説明できる候補を選ぶだけで品詞分類が行える.また,提案手法は一つの語幹に対応する品詞は一つという仮定を置いている.これに対し,Moriet~al.と桑江らは,「楽し-い」と「楽し-む」のように,一つの語幹が複数の品詞に属す可能性を明示的にモデル化している.しかし,「楽し-い」と「楽し-む」のような派生関係にある形態素の品詞の衝突は,基本語彙が登録済みのため,極めてまれと推測される.無関係な形態素同士の偶発的な衝突については,提案手法はテキストを逐次的に解析するため,同一ドメインのテキストを読んでいる場合,特に起きにくいと推測される.\subsection{獲得未知語の分割可能性}\label{sec:selection-decomposition}獲得された未知語が実際には2個以上の形態素からなる可能性がある.未知語は比較的少数の用例から獲得するため,未知語$B$が,観測された用例中でたまたま$AB$という連続で現れていた場合,$AB$を1形態素として獲得してしまう.例えば,複合語「顆粒タイプ」が未知語「顆粒」よりも先に獲得されるかもしれない.この問題に対処するために,未知語獲得時に,獲得済みの形態素が獲得形態素によって分割できるかを調べ,できる場合にはその形態素を辞書から削除する.現在のところ,分割可能性の検査には形態素解析器を用いる.これにより形態素解析器に記述された制約知識を利用する.まず,分割対象形態素の候補列挙は単純な文字列マッチングにより行う.次に,候補を一時的に辞書から取り除いた状態で,その候補の形態素解析を行い,獲得形態素によって分割されなかった場合に候補を辞書に戻す.
\section{実験}
\label{sec:experiments}\subsection{実験設定}\label{sec:experiments-settings}オンライン未知語獲得について,獲得される未知語の精度,および未知語獲得の形態素解析への貢献を評価する.基本語彙辞書として,形態素解析器JUMANのデフォルトの辞書を用いる.この辞書は約3万の基本語彙を収録している.表記ゆれを展開し,固有名詞を含めれば,語彙数は約12万となる.獲得対象テキストとして,ドメインが限定されたコーパスを用いる.話題を共有するテキストの方が,互いに無関係なテキストよりも未知語が集中的に出現すると期待されるからである.実験では,検索エンジン基盤TSUBAKI~\cite{Shinzato2008full}を用い,その検索結果をドメイン限定コーパスとみなす.各クエリに対して,システムは検索結果のページを順に読み,未知語を獲得する.獲得は千ページ目で打ち切り,同じ千ページを拡張された語彙を用いて再解析する.クエリとしては,「捕鯨問題」,「赤ちゃんポスト」,「ジャスラック」,「ツンデレ」,および「アガリクス」を使用する.獲得された未知語は,語幹と品詞の両方が正しい場合に正解とする.ただし,\ref{sec:acquisition-task}章で述べたように,語幹の単位認定は難しい.実際,Nagataと内元らは,単位認定の不一致が報告されたエラーの原因の一つとみなしている~\cite{Nagata1999full,内元清貴:2001}.単位認定の不一致を回避するために,正解コーパスとの単純比較ではなく,人手による判定を採用する.未知語獲得の形態素解析への貢献の評価は次の手順で行う.獲得対象テキストを基本語彙辞書と拡張された辞書の2通りで形態素解析する.二つの解析結果を比較して,図\ref{fig:diff}のように単語分割の境界が一致しない箇所を抽出する.これを``diff''ブロックとよぶ.``diff''ブロックの正誤判定は,形態素への分割と,分割および品詞割り当ての2通りにより行う.ただし,形態素境界は,明らかに誤っていない場合に正解とする.評価には,クエリごとに,再解析により解析結果が変化した文の中から無作為に抽出した50文を用いる.\begin{figure}[b]\begin{center}\includegraphics{17-1ia4f5.eps}\end{center}\caption{``diff''ブロックの例}\label{fig:diff}\end{figure}品詞の評価については,「普通名詞」と「サ変名詞」という名詞の「品詞細分類」を区別しない\footnote{また,「名詞形態指示詞」も名詞とみなす.名詞形態指示詞の形態レベルの振る舞いは名詞と同様だからである.指示詞はクローズドクラスだが,「コレ」のようなカタカナ指示詞は新聞記事には出現しないため,登録が漏れている.}.また,JUMANが未知語に与える特殊な品詞「未定義語」は名詞とみなす.\subsection{実験結果}\label{sec:experiments-results}\begin{table}[b]\caption{クエリごとの統計}\label{tb:queries}\input{04table03.txt}\end{table}表~\ref{tb:queries}にクエリごとの統計を示す.再解析により変化した文の割合に大きなばらつきがある(0.43--9.26\%).基本語彙辞書はこれまで新聞記事を対象に整備されてきたため,新聞記事と似ていないドメインほど未知語獲得の効果が大きい傾向がみられる.獲得された未知語の精度は97.3--98.5\%と高い.しかも,獲得時点で利用した用例数の中央値は4--7に過ぎない.先行研究では出現回数が10回未満の候補を信用できないとして無視していたことを考えると非常に小さな値である~\cite{Mori1996full}.\begin{figure}[b]\vspace{-1\baselineskip}\begin{center}\includegraphics{17-1ia4f6.eps}\end{center}\caption{クエリ「ジャスラック」における獲得された未知語の頻度と順位}\label{fig:frequency}\end{figure}図\ref{fig:frequency}に,獲得された未知語の頻度とその頻度の順位との関係を示す.ここで,頻度は,拡張された辞書を用いた再解析結果から数えたものである.順位の下位区間における急な落ち込みは,用例数の不足により獲得されていない未知語の影響と推測される.図\ref{fig:process}に,獲得の経過を示す.ここで,獲得未知語の累積出現数は,拡張された辞書を用いた再解析結果から数えたものである.終了時点での蓄積されている用例数と未知語の累積出現数の比較から,検出された未知語用例がすべて真の未知語と仮定すると,提案手法で検出される未知語のうちおよそ半分が獲得されたと推定できる.表~\ref{tb:examples}に獲得された未知語の例を示す.予想される通り,獲得された未知語の大半が名詞(94.1--100\%)やカタカナのみからなる形態素(67.9--79.4\%)である.「タイーホ」や「ぱくる」など新聞記事にはあまり見られない俗語も獲得されている.字種が混在する「ドジっ娘」や「シャ乱Q」は字種に基づく形態素解析の未知語処理では正しく解析できない.「すごい」に対する「スゴい」,「解かる」に対する「解る」のように,登録済みの形態素の異表記もあった.誤り例には,「パクられる」や「フラグが立つ」など明らかに構成的な表現を1形態素と認識しているものがある.ただし,これらは,さらに未知語獲得を進めて,それぞれ「パクる」や「フラグ」が獲得された場合,分割可能性のチェックにより消される.他には,副詞の「やっぱ」が名詞と誤認識された.\begin{figure}[t]\begin{center}\includegraphics{17-1ia4f7.eps}\end{center}\caption{クエリ「ジャスラック」における獲得の経過}\label{fig:process}\end{figure}\begin{table}[t]\caption{獲得未知語の例}\label{tb:examples}\input{04table04.txt}\end{table}表~\ref{tb:change-seg}に``diff''ブロックの評価結果を示す.ほとんどのブロックが拡張された語彙によって正しく解析されている(E$\rightarrow$CおよびC$\rightarrow$C).一方,獲得による副作用は限定されている(C$\rightarrow$E).従って,獲得された未知語が形態素解析の精度を改善することが示された.\subsection{議論}\label{sec:experiments-discussion}形態素解析において,カタカナ未知語が短いカタカナ形態素によって分割されることがある.例えば,基本語彙辞書のみを用いると,未知語「アブラハム」は「アブラ」と「ハム」に過分割される.「アブラハム」は,\ref{sec:detection}節で述べた単純な検出手法では検出されず,従って獲得もされない.また,未知語の獲得によって新たな過分割が発生し得る.例えば,「サー」の獲得によって,「サーバー」が「サー」と既知の「バー」によって過分割されるようになる.このような過分割の問題は,本論文が利用した形態レベルの文法的振る舞いだけを調べても解決できない.他の手がかり,例えば,「サーバー」がserverという一つの外来語だから分割できないといった知識が必要となる.\begin{table}[t]\caption{``diff''ブロックの評価}\label{tb:change-seg}\input{04table05.txt}\vspace{-1\baselineskip}\end{table}提案手法では,カタカナ「イイ」のように語尾までカタカナで表記された用言は誤って名詞と認識される.現在の形態素解析は語尾のひらがな表記を前提としている.この仮定は新聞記事に対しては妥当だが,ウェブテキストに対しては無効であり,より柔軟な解析が必要になる.ただし,こうした未知語の解析は元々誤っており,獲得によって形態素解析が悪化するわけではない.未知語問題への2通りの解決策のうち,未知語モデルによる手法は,その利点として,低頻度語の正しい同定が強調されている~\cite{Nagata1999full,Asahara2004full}.しかし,ウェブの出現により,ほとんど無尽蔵のテキストが入手できるようになった現在,限られた情報のみを用いた同定は不可欠ではない.仮に,解析対象のテキストが少量で,未知語獲得を行うには用例の出現回数が足りないとしても,ウェブから解析対象テキストと関連するテキストを収集することで,用例の出現回数を増やすことができる.ここで,バッチ処理~\cite{Mori1996full}と異なる,オンライン獲得という特徴を生かせる.すなわち,解析対象テキストから検出された用例にマークして,それらの用例が獲得に使われたか追跡することで,未知語が十分に獲得された時点で処理を停止させることができる.最後に,残された課題を整理する.\ref{sec:acquisition-task}章で整理したように,形態素に付与される様々な情報のうち,本論文はひとまず形態レベルの情報の獲得を目指した.形態レベルの手がかりでは得られない知識としては,名詞と副詞の区別の他に,固有名詞と普通名詞の区別などがある.特に名詞の細分類は固有表現認識や省略・照応解析に役立つと期待されるので,テキストからの自動獲得を目指したい.本論文では形態素の単位認定にこだわらなかったが,獲得された未知語の中には構成的なものが含まれている.参考までに,クエリ「ジャスラック」の獲得結果を調べたところ,判断に迷う場合を含めると10\%弱(45/460)が複合語であった.ただし,複合語の基準としては,JUMAN4.0から5.0への変更時に行った複合語の整理\footnote{「日本語形態素解析システムJUMANversion6.0」付録E12.1参照.http://nlp.kuee.kyoto-u.ac.jp/nl-resource/juman.html}を参考にした.日本語の複合名詞は,文法的なマーカなしに構成要素が直接連結されるため,形態レベルの手がかりでは構成要素に分割できない.細粒度での単位認定を実現するには,他の手がかりを利用する必要がある.形態レベルでの未知語獲得については,検出が大きな課題として残っている.なかでもひらがな表記の未知語は曖昧性が高く,形態素解析器によってより短い既知の形態素へ過分割されることが少なくない.予備調査として,形態素解析結果のうち,$1+1$,$1+2$,$2+1$文字というパターンのひらがな形態素のペアのみを対象に,未知語検出の再現率を求めたところ,本論文の手法では31\%にとどまることが判明している.ひらがな表記の未知語は数の上では少なく,頻度の上でも異なり数でも,未知語の大半をカタカナ名詞が占める.しかし,カタカナ名詞は形態素解析の未知語処理でほぼ問題なく同定できるのに対し,ひらがな未知語の解析誤りは応用に大きな悪影響を及ぼしやすい.例えば,「ようつべ」が「よ」,「うつ」,「べ」に誤って分解され,「うつ」が動詞と解釈された場合,文節まとめあげにより「よ」と「うつ」,「うつ」と「べ」の間に文節境界が引かれ,これに基づき見当違いな係り受け解析が行われてしまう.提案手法の利点の一つは,既知の形態素を改めて獲得しないことによる効率の良さだが,今後はこの利点を維持しつつ検出の再現率を上げていきたい.
\section{関連研究}
\label{sec:related-work}形態素解析における未知語の問題は,言語の類型論的特徴や文字の性質に依存する部分が少なくない.フィン語やトルコ語は日本語と同様の膠着語で,自立語に複数の付属語が後続して語を形成する.ただし,これらの言語は分かち書きするため,形態素解析は,分かち書きの単位である語を形態素に分割するタスクとなる.例えば,MorphoChallengeでは,頻度つきの語のリストから教師なしで形態素を切り出すタスクが競われている(Kurimo,Creutz,Varjokallio,Arisoy,andSara{\c{c}}lar2006;Kurimo,Creutz,andTurunen2007).日本語と同様に分かち書きしない言語としては,中国語やタイ語などがあるが,いずれも分析的であり,膠着語の日本語とは性質が異なる.Penget~al.は中国語の単語分割に新語検出を組み込む~\cite{Peng2004full}.この手法では,テキストを一度解析した結果から単語分割の信頼度を元に新語を検出し,それらを素性に組み込んだ状態で再解析を行う.日本語については,未知語モデルを導入する手法がいくつか提案されている.Nagataは,字種や単語長に基づく生成的な未知語モデルを単語分割に組み込む~\cite{Nagata1999full}.内元らは最大エントロピーモデルに基づく形態素解析の中で,字種やその遷移などの未知語同定に有効な情報を素性として利用する~\cite{内元清貴:2001}.東らは最大エントロピーモデルに代えて条件付き確率場を採用する~\cite{東藍:2006}.Asaharaet~al.は文字レベルのチャンキングにより未知語を同定しており,学習器としてSupportVectorMachineを用いる~\cite{Asahara2004full}.中川らは,単語分割されたテキストに対して,未知語のすべての出現を考慮して品詞を推定する手法を提案している~\cite{中川哲治:2008}.しかし,我々が想定するタスクでは,品詞推定と独立に単語分割が実現されるという仮定は現実的ではない.テキストからの未知語の自動獲得については,Moriet~al.は,語幹の前後の文字列とその頻度をベクトルで表現し,コーパス中の任意の部分文字列について,品詞のモデルとのベクトルの距離により品詞らしさを判定する~\cite{Mori1996full}.鍜治らはカタカナ用言についてテキストからの自動獲得を行っている~\cite{鍜治伸裕:2009}.彼らは,獲得対象を「ググる」などの語幹が自明なカタカナの用言に限定し,品詞分類に特化した手法を提案する.一般の未知語を獲得する場合には,あわせて語幹同定の問題も解く必要がある.
\section{結論}
\label{sec:conclusion}本論文では,オンライン未知語獲得という枠組みと,その具体的な実現方法を提案した.実験により,未知語が高精度に獲得され,その結果形態素解析の精度が向上することが示された.形態素解析自体は成熟した技術であり,構文解析や情報検索といった応用のための前処理となっている.従って,応用処理の精度向上に提案手法を利用したいと考えている.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原\JBA松本}{浅原\JBA松本}{2002}]{浅原正幸:2002}浅原正幸\JBA松本裕治\BBOP2002\BBCP.\newblock形態素解析のための拡張統計モデル.\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(3),\mbox{\BPGS\685--695}.\bibitem[\protect\BCAY{Asahara\BBA\Matsumoto}{Asahara\BBA\Matsumoto}{2004}]{Asahara2004full}Asahara,M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQJapaneseUnknownWordIdentificationbyCharacter-basedChunking.\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics(COLING2004)},\mbox{\BPGS\459--465}.\bibitem[\protect\BCAY{東\JBA浅原\JBA松本}{東\Jetal}{2006}]{東藍:2006}東藍\JBA浅原正幸\JBA松本裕治\BBOP2006\BBCP.\newblock条件付確率場による日本語未知語処理.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf2006}(53),\mbox{\BPGS\67--74}.\bibitem[\protect\BCAY{Banko\BBA\Brill}{Banko\BBA\Brill}{2001}]{Banko2001full}Banko,M.\BBACOMMA\\BBA\Brill,E.\BBOP2001\BBCP.\newblock\BBOQMitigatingthePaucity-of-dataProblem:ExploringtheEffectofTrainingCorpusSizeonClassifierPerformanceforNaturalLanguageProcessing.\BBCQ\\newblockIn{\BemProceedingsoftheFirstInternationalConferenceonHumanLanguageTechnologyResearch(HLT2001)},\mbox{\BPGS\1--5}.\bibitem[\protect\BCAY{Brants,Popat,Xu,Och,\BBA\Dean}{Brantset~al.}{2007}]{Brants2007full}Brants,T.,Popat,A.~C.,Xu,P.,Och,F.~J.,\BBA\Dean,J.\BBOP2007\BBCP.\newblock\BBOQLargeLanguageModelsinMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL2007)},\mbox{\BPGS\858--867}.\bibitem[\protect\BCAY{福島\JBA鍜治\JBA喜連川}{福島\Jetal}{2007}]{福島健一:2007}福島健一\JBA鍜治伸裕\JBA喜連川優\BBOP2007\BBCP.\newblock機械学習を用いたカタカナ用言の獲得.\\newblock\Jem{言語処理学会第13回年次大会発表論文集},\mbox{\BPGS\815--818}.\bibitem[\protect\BCAY{鍜治\JBA福島\JBA喜連川}{鍜治\Jetal}{2009}]{鍜治伸裕:2009}鍜治伸裕\JBA福島健一\JBA喜連川優\BBOP2009\BBCP.\newblock大規模ウェブテキストからの片仮名用言の自動獲得.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ92-D}(3),\mbox{\BPGS\293--300}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{Kawahara2006full}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQCaseFrameCompilationfromtheWebusingHigh-PerformanceComputing.\BBCQ\\newblockIn{\BemProceedingsofThe5thInternationalConferenceonLanguageResourcesandEvaluation(LREC-06)},\mbox{\BPGS\1344--1347}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{Kudo2004full}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldsto{J}apaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2004)},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{Kurimo,Creutz,\BBA\Turunen}{Kurimoet~al.}{2007}]{Kurimo2007}Kurimo,M.,Creutz,M.,\BBA\Turunen,V.\BBOP2007\BBCP.\newblock\BBOQOverviewof{M}orpho{C}hallengein{CLEF}2007.\BBCQ\\newblockIn{\BemWorkingNotesoftheCLEF2007Workshop},\mbox{\BPGS\19--21}.\bibitem[\protect\BCAY{Kurimo,Creutz,Varjokallio,Arisoy,\BBA\Saraclar}{Kurimoet~al.}{2006}]{Kurimo2006}Kurimo,M.,Creutz,M.,Varjokallio,M.,Arisoy,E.,\BBA\Sara{\c{c}}lar,M.\BBOP2006\BBCP.\newblock\BBOQUnsupervisedSegmentationofWordsintoMorphemes--{C}hallenge2005,anIntroductionandEvaluationReport.\BBCQ\\newblockIn{\BemProceedingsofthePASCALChallengeWorkshoponUnsupervisedSegmentationofWordsintoMorphemes}.\bibitem[\protect\BCAY{Kurohashi,Nakamura,Matsumoto,\BBA\Nagao}{Kurohashiet~al.}{1994}]{Kurohashi1994full}Kurohashi,S.,Nakamura,T.,Matsumoto,Y.,\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQImprovementsof{J}apaneseMorphologicalAnalyzer{JUMAN}.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalWorkshoponSharableNaturalLanguageResources},\mbox{\BPGS\22--38}.\bibitem[\protect\BCAY{桑江\JBA佐藤\JBA藤田}{桑江\Jetal}{2008}]{桑江常則:2008}桑江常則\JBA佐藤理史\JBA藤田篤\BBOP2008\BBCP.\newblock後続ひらがな列に基づく語の活用型推定.\\newblock\Jem{情報処理学会研究報告},{\Bbf2008-NL-186}(186),\mbox{\BPGS\7--12}.\bibitem[\protect\BCAY{Lee}{Lee}{2001}]{Lee2001full}Lee,L.\BBOP2001\BBCP.\newblock\BBOQOntheEffectivenessoftheSkewDivergenceforStatisticalLanguageAnalysis.\BBCQ\\newblockIn{\BemProceedingsoftheEighthInternatinoalWorkshopofArtificialIntelligenceandStatistics(AI\&Statistics2001)},\mbox{\BPGS\65--72}.\bibitem[\protect\BCAY{Mori\BBA\Nagao}{Mori\BBA\Nagao}{1996}]{Mori1996full}Mori,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1996\BBCP.\newblock\BBOQWordExtractionfromCorporaandItsPart-of-SpeechEstimationUsingDistributionalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe16thConferenceonComputationalLinguistics},\lowercase{\BVOL}~2,\mbox{\BPGS\1119--1122}.\bibitem[\protect\BCAY{Nagata}{Nagata}{1999}]{Nagata1999full}Nagata,M.\BBOP1999\BBCP.\newblock\BBOQAPartofSpeechEstimationMethodfor{J}apaneseUnknownWordsusingaStatisticalModelofMorphologyandContext.\BBCQ\\newblockIn{\BemProceedingsofthe37thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL1999)},\mbox{\BPGS\277--284}.\bibitem[\protect\BCAY{中川\JBA松本}{中川\JBA松本}{2008}]{中川哲治:2008}中川哲治\JBA松本裕治\BBOP2008\BBCP.\newblock大域的な情報を用いた未知語の品詞推定.\\newblock\Jem{情報処理学会論文誌},{\Bbf49}(3),\mbox{\BPGS\1437--1450}.\bibitem[\protect\BCAY{小椋\JBA小磯\JBA冨士池\JBA原}{小椋\Jetal}{2008}]{BCCWJ2008}小椋秀樹\JBA小磯花絵\JBA冨士池優美\JBA原裕\BBOP2008\BBCP.\newblock\Jem{『現代日本語書き言葉均衡コーパス』形態論情報規程集}.\bibitem[\protect\BCAY{Peng,Feng,\BBA\McCallum}{Penget~al.}{2004}]{Peng2004full}Peng,F.,Feng,F.,\BBA\McCallum,A.\BBOP2004\BBCP.\newblock\BBOQChineseSegmentationandNewWordDetectionusingConditionalRandomFields.\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics(COLING2004)},\mbox{\BPGS\562--568}.\bibitem[\protect\BCAY{Shinzato,Shibata,Kawahara,Hashimoto,\BBA\Kurohashi}{Shinzatoet~al.}{2008}]{Shinzato2008full}Shinzato,K.,Shibata,T.,Kawahara,D.,Hashimoto,C.,\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQ{TSUBAKI}:AnOpenSearchEngineInfrastructureforDevelopingNewInformationAccessMethodology.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP2008)},\mbox{\BPGS\189--196}.\bibitem[\protect\BCAY{内元\JBA関根\JBA井佐原}{内元\Jetal}{2001}]{内元清貴:2001}内元清貴\JBA関根聡\JBA井佐原均\BBOP2001\BBCP.\newblock最大エントロピーモデルに基づく形態素解析未知語の問題の解決策.\\newblock\Jem{自然言語処理},{\Bbf8}(1),\mbox{\BPGS\127--141}.\end{thebibliography}\begin{biography}\bioauthor{村脇有吾}{2006年3月京都大学工学部情報学科卒業.2008年3月京都大学大学院情報学研究科修士課程卒業.同年4月,同博士後期課程入学,現在に至る.}\bioauthor{黒橋禎夫}{1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年,京都大学大学院情報学研究科教授,現在に至る.}\end{biography}\biodate\end{document}
| |
V05N01-04 | \section{はじめに}
本研究では,論説文の文章構造についてモデル化し,それに基づいた文章解析について論じる.近年のインターネットや,電子媒体の発達などにより大量の電子化された文書が個人の周囲にあふれてきており,文書理解,自動要約等,これらを自動的に処理する手法の必要性が増している.文章の構造化はそれらの処理の前提となる過程であるが,人間がその作業を行なう場合を思えば容易に分かるように,元来非常に知的な処理である.しかし,大量の文書を高速に処理するためには,記述されている領域に依存した知識を前提とせず,なるべく深い意味解析に立ち入らない「表層的」な処理により行なうことが求められる.文末表現から文章構造を組み立てる手法,表層的な表現から構造化する手法,また,テキスト・セグメンテーションの手法もいくつか提案されているが,画一的な観点からの文章の構造化では,大域的構造,局所的構造,両者をともに良好に解析する手法は少ない.我々の手法では,トップダウン的解析とボトムアップ的解析の双方の利点を活かし,文章の木構造を根から葉の方向へ,葉から根の方向へと同時に生成していく.これらのアルゴリズムは,相互に再帰的な二つのモジュールにより構成されている.我々の目的は,Shankらに代表されるような「深い意味解析」が必要な談話理解過程を論じるものではない.むしろ,文章における結束関係\cite{Halliday:76}や連接関係の理解過程のモデル化を目標としている.この分野の研究については,たとえば\cite{Abe:94}にサーベイされている.なかでも,目的と手法が似ているものは,\cite{Dahlgren:88,Dahlgren:89}のCRA(coherencerelationassignment)アルゴリズムであろう.しかし,彼女らの手法は局所的構造と大域的構造を別々に作るようである.日本語の文章の連接関係の解析では,\cite{Fukumoto:91,Fukumoto:92}や,\cite{Kurohashi:94}などがあり,文末の表現や表層的な情報により文章の構造化を試みているが,局所的な解析には適した手法だが,大域的には十分な解析精度は得にくいと思われる.以下,第2章では前提となる文章構造のモデルを提案し,第3章ではトップダウン的解析アプローチについて,第4章ではボトムアップ的解析アプローチについて述べ,第5章で両者を融合した解析手法について説明する.最後に第6章で実験結果と本手法についての評価を述べる.
\section{文章の論説モデル}
\subsection{文末表現と論説文の構造}\subsubsection{文のタイプ}日本語の文は,客体的な出来事や事柄を表す部分と,それに対する筆者/話し手の立場からの把握の仕方(言表事態めあてのモダリティ),発話・伝達的態度の有り方を示す部分(発話・伝達のモダリティ)から成り立っている\cite{Nitta:91}.我々は,モダリティが文末の述語を表層的に分類することによりある程度解析できることに着目し,\cite{Fukumoto:91}に基づいて分類する.文のタイプの分類としては,福本らの分類を小分類として用いるが,さらにこれらを「意見」,「断定」,「叙述」の3つに大分類する.本研究ではこれを利用することにより論説文の構造の解析を行なう.以下に文のタイプを示す.\begin{description}\item[意見]筆者の願望や疑問などの意見が含まれる文\\これらは仁田\cite{Nitta:91}における発話・伝達のモダリティのうち,表出,働き掛け,問い掛けにあたる.\begin{center}\begin{tabular}{lll}意見&問掛&要望\\\end{tabular}\end{center}\item[断定]筆者の判断が含まれる文\\これらは仁田\cite{Nitta:91}における発話・伝達のモダリティのうち述べ立てにあたり,また言表事態めあてのモダリティのうち判断・推量をとる.\begin{center}\begin{tabular}{llll}断定&推量&理由&判断\\\end{tabular}\end{center}\item[叙述]事実を述べている文\\これらは仁田\cite{Nitta:91}における発話・伝達のモダリティのうち,述べ立て(現象描写文)である.\begin{center}\begin{tabular}{lllll}叙述&可能&伝聞&様態&存在\\継続&状態&使役&例示\\\end{tabular}\end{center}\end{description}小分類個々を実際にどう分類するかについては,\cite{Fukumoto:91}を参照されたい.\subsubsection{文のタイプと論説文構造の特性}上記の分類に基づき,文のタイプと文章中の出現位置の関係を調べた.図\ref{bunpu}は文の位置と各文のタイプの出現頻度の関係を,304個の社説\footnote{日本経済新聞94年1月から6月までの社説}について調べた結果である.各文章はそれぞれ文数が異なるので,文の位置は0〜1に規格化してある.\begin{figure}[htbp]\begin{center}\includegraphics{bunpu.ps}\caption{各タイプの文の出現頻度}\label{bunpu}\end{center}\end{figure}「意見」は,文章の$3/4$以降で出現頻度が増加し始めているが,それ以前ではほとんど一定である.「叙述」は,文章の開始部で際だって頻出し,中間部ではほぼ一定,終了部で頻度が低下している.「断定」は,文章全体に現れるが,終了部でわずかに減少する.これによると,論説文(新聞の社説)では,論旨の展開の構造があり,少なくとも3つの部分に分割される.さらに,このうちの中間の部分も構造化されることが予想される.\subsection{論説文の修辞レベル}本研究では,論説文の構成を図\ref{model}のように考える.この階層的な文章構造の構築を目標に,文章の解析手法を考える.文章の修辞レベルとは,以下の通りである.\begin{itemize}\item論証レベル:論説文章の最上位のレベルである.ここのレベルの構造は,固定的に「導入」,「展開」,「結論」をノードとして,これ以下の構造を統括する.\item話題レベル:このレベルでは,名詞の分布,連鎖に着目した話題の構造,および議論の展開構造における一まとまりの話題を扱う.\item思考レベル:\hspace{2mm}\cite{Ono:89}\hspace{2mm}を参考に,思考レベル,言明レベルを導入する.これらの構造は,修辞構造理論\cite{Mann:87:a}に基づいており,言明間の関係,およびそうして関係付けられたものの間の関係を表す.表\ref{rheto}に分類を表す.表中で,n,n1,n2は核(nucleus)を,sは衛星(satellite)を表わす.「n←s」,「s→n」等はそれぞれ前文が核,後文が衛星,あるいは前文が衛星,後文が核であることを表す.\item言明レベル:一つの話題,筆者の一つの言明を表現した構造で,ノードは,一文あるいは言明レベルの修辞関係(表\ref{rheto}参照)に対応する.各文は,命題とモダリティに相当する文末情報からなるとするが,本研究では,命題部分からは名詞の出現を,文末部分からは文のタイプのみを扱う.\end{itemize}\begin{figure}[htbp]\begin{center}\includegraphics[scale=1.0,clip]{ronsi_model.eps}\caption{論説文の修辞レベル}\label{model}\end{center}\end{figure}\begin{table}[htb]\begin{center}\begin{tabular}{|c|c|c|c|c|c|}\hline\multicolumn{5}{|c|}{思考レベル}&言明レベル\\\hline\multicolumn{3}{|c|}{直列型}&並列型&転換型&\\\hlinen1→n2&n←s&s→n&n1→n2&n1→n2&n←s\\\hline順接&添加&条件&並列&転換&説明\\逆接&&結論&選択&&強調\\換言&&一般化&対比&&例示\\&&相反&&&\\&&提起&&&\\&&根拠&&&\\&&因果&&&\\\hline\end{tabular}\end{center}\caption{修辞関係の分類}\label{rheto}\end{table}
\section{文章解析のトップダウン的アプローチ}
\label{top1}\subsection{文章のセグメンテーションの手法とトップダウン的構造化}\label{top2}望月ら\cite{Mochiduki:96}のテキスト・セグメンテーションの手法は,文章中のすべての文と文の境界について種々の観点から設定したパラメタを観測し,\begin{equation}\hat{y}=a_o+a_1x_1+a_2x_2+\cdots+a_px_p\label{siki}\end{equation}\[(x_i:パラメタiの点数,a_i:パラメタiの重み)\]なる式で,閾値を越えた\hspace{-0.2mm}$\hat{y}$\hspace{-0.2mm}によりテキスト分割の可不可を判定するものである.パラメタとしては,段落をはさんでの出現する傾向が強いもの/性質,あるいは段落をまたいでは出現しそうにないもの/性質などを選ぶ(次節参照).まず,我々は次のように仮定する.\begin{description}\item{\bf仮定}\begin{quote}(\ref{siki})式の評価値は,テキストの「非連続性の強さ」と相関性がある.\end{quote}\end{description}この値の大きさをもとに次のアルゴリズムで文章のトップダウン的構造化を行う.\begin{description}\item{\bf構造化のトップダウン・アルゴリズム}\begin{enumerate}\item文章中のすべての文と文の境界について(\ref{siki})式により評価値を求める.\item評価値の高い順にセグメントの分割を行い,二分木を作る.\end{enumerate}\end{description}\subsection{セグメンテーションのパラメタ}望月ら\cite{Mochiduki:96}をもとに,パラメタを以下のような観点から選択する.パラメタの選択には,有効と思われるものをなるべく多く用意し,訓練データに対する重回帰分析によりパラメタの重みを決める.なお,形式段落であるかどうかは,有力なパラメタの候補であるが,本研究では,訓練の際の正解として用いている.\begin{itemize}\item助詞は「は」と「が」の出現\\着目している境界の前後の文について調べる.これにより主題,主語の存在の影響が判定に反映される.\item接続語句の有無\\接続語句は文間の接続関係を表層的に明示している.これにより文間の接続関係の影響が判定に反映される.\item指示語(こそあど)の有無\\指示語の参照先は同一段落内であることが多い.これにより上記性質が判定に反映される.\item時制の情報\\着目している境界の前後の文の時制の変化について調べる.以前の調査\cite{Isoyama:94}によると,過去形となるのは叙述文のみで,過去形の叙述文は「導入」に用いられる,など段落に影響する場合がある.\item文のタイプの情報\\例えば,段落の末尾で著者は意見や断定を行なう傾向があるかもしれない.このような性質が判定に反映される.\item名詞の連鎖の情報\\文章中で,ある名詞は話題に関連してある段落にかたよって出現するかもしれない.これにより,同義語\footnote{\cite{Hayashi:66}による.}も含めた名詞の連鎖やその切れ目の情報を判定に反映させられる.\end{itemize}パラメタの一覧を表\ref{juu-param}に示す.なお,「重み」欄は,次節で述べる訓練の結果得られたパラメタの重みである.重みから接続語句の展開型,時制,文のタイプの情報(境界の候補の前文が「意見文」であるかどうか)がセグメンテーションに大きく影響していることが分かる.\begin{table}[htb]\begin{center}\begin{tabular}{|c|l|l||r|}\hlineパラメタ&分類&抽出方法&重み($a_i$)\\\hline\hline$x_1$&助詞&前文に「は」が出現なら,1点&-0.078\\$x_2$&&「は」が出現なら,1点&1.867\\$x_3$&&前文に「が」が出現なら,1点&1.151\\$x_4$&&「が」が出現なら,1点&0.334\\\hline$x_5$&接続&文頭に「補足」型が出現なら,1点&-0.437\\$x_6$&語句&文頭に「展開」型が出現なら,1点&-2.039\\$x_7$&(注1)&文頭に「転換」型が出現なら,1点&(注2)\\\hline$x_8$&指示語&後文の文頭に「こそあど」型が出現なら,1点&-0.091\\\hline$x_9$&時制&現在$\rightarrow$現在なら,1点&3.449\\$x_{10}$&&現在$\rightarrow$過去なら,1点&4.604\\$x_{11}$&&過去$\rightarrow$現在なら,1点&1.407\\$x_{12}$&&過去$\rightarrow$過去なら,1点&2.862\\\hline$x_{13}$&文の&叙述$\rightarrow$叙述なら,1点&0.481\\$x_{14}$&タイプ&叙述$\rightarrow$断定なら,1点&0.224\\$x_{15}$&&叙述$\rightarrow$意見なら,1点&1.643\\$x_{16}$&&断定$\rightarrow$叙述なら,1点&-0.519\\$x_{17}$&&断定$\rightarrow$断定なら,1点&0.267\\$x_{18}$&&断定$\rightarrow$意見なら,1点&-0.987\\$x_{19}$&&意見$\rightarrow$叙述なら,1点&2.220\\$x_{20}$&&意見$\rightarrow$断定なら,1点&2.963\\$x_{21}$&&意見$\rightarrow$意見なら,1点&2.250\\\hline$x_{22}$&名詞の&連鎖の開始なら,1点加点&0.236\\$x_{23}$&連鎖&前文で連鎖の終了なら,1点加点&0.400\\$x_{24}$&&前文でギャップの開始なら,1点加点&-0.156\\$x_{25}$&&ギャップの終了なら,1点加点&-0.048\\\hline\hline$a_0$&定数項&&-2.522\\\hline\end{tabular}\end{center}\begin{quote}\hspace*{1mm}(注1)接続語句の分類については付録Iに示す.\\\hspace*{1mm}(注2)実際は出現個数が少なく未使用\\\end{quote}\caption{重回帰分析に使用するパラメタ}\label{juu-param}\end{table}\subsection{パラメタの訓練}まず,パラメタの重みを決定するが,訓練の十分性をみるために,訓練とセグメンテーションの精度の関係を調べる.訓練では,テキスト中のすべての文と文の境界についてパラメタを評価し,正解としてその境界が形式段落と一致するときに$y=10$,しないとき$y=-1$を与える.図\ref{kunren}に訓練データの数と,訓練データとは別な20編の社説に対する段落検出の精度の関係を示す.別の調査\footnote{1993年,1994年の日本経済新聞の社説1227編から,一段落あたりの平均の文の数は$2.69$であることがわかった.}から求めた段落内の文の数の平均をもとに,一定の段落の数だけ,評価値の大きい境界から順に段落として採用する.実験は,訓練データの数を変えていき,訓練データとは別の20編の評価データにより再現率,適合率\footnote{\[\mbox{適合率}=\frac{\mbox{形式段落と一致した境界の数}}{\mbox{プログラムで検出された境界の数}}\]\[\mbox{再現率}=\frac{\mbox{形式段落と一致した境界の数}}{\mbox{形式段落の境界の数}}\]}を求めたものである.以上により訓練は,80編程で十分であることがわかった.\begin{figure}\begin{center}\includegraphics[scale=0.95,clip]{nikkei_2.eps}\caption{訓練データ数と精度}\label{kunren}\end{center}\end{figure}
\section{文章解析のボトムアップ的アプローチ}
\subsection{セグメント統合のアルゴリズム(ボトムアップ的構造化)}まず,セグメントの統合について述べる.次節以降で述べる「結束性の強さ」に基づいて,セグメントは次のように統合される.\begin{description}\item{\bfセグメント統合のアルゴリズム}\\連続する4個のセグメント\hspace{-0.2mm}$S_1$,$S_2$,$S_3$,$S_4$において,$S_1$と$S_2$,$S_2$と$S_3$,$S_3$と$S_4$\hspace{-0.2mm}の結束性の強さをそれぞれ\hspace{-0.2mm}$R_1$,$R_2$,$R_3$\hspace{-0.2mm}とすると,\[R_1<R_2>R_3\]の場合のみ,セグメント$S_2$と$S_3$を統合して新しいセグメント$S_{23}$を作る(図\ref{bottomup}参照).\end{description}これにより,文章のボトムアップ的構造化のアルゴリズムは次のように表される.\begin{description}\item{\bf構造化のボトムアップ・アルゴリズム}\\文の並びから始めて,「セグメント統合のアルゴリズム」を繰り返し適用し,セグメントを統合していく.\end{description}\begin{figure}[htbp]\begin{center}\includegraphics[scale=0.8,clip]{bottomup.ps}\caption{セグメント統合のアルゴリズム}\label{bottomup}\end{center}\end{figure}\subsection{結束性の良さの指標}\label{tuyosa}結束関係とは,文章を構成する要素間の意味的な関係をいう\cite{Halliday:76}が,本研究の範囲からいえば,二つのセグメント間の意味的な関係ということになる.オリジナルの結束関係では,指示,代用,省略,接続,語彙的結束性があるが,ここでは,修辞関係の観点から見た「接続」のみ扱う.また,以下の規則を1から順に適用することにより,「結束性の強さ」という尺度を導入する.\begin{enumerate}\item形式段落をまたぐ結び付きより形式段落内の結び付きの方が結束性が強い.\item接続表現のあるものの間の結び付きの方がないものの間より結束性が強い.\item思考レベルの修辞関係より言明レベルの修辞関係の方が結束性が強い.\item思考レベルにおいては並列型,直列型,転換型の順で結束性が強い.\item思考レベル,言明レベルにおいて同型同士ならば先の結合の方が結束性が強い.\end{enumerate}\subsection{セグメントの隣接関係}構造化された隣接する二つのセグメント間の修辞関係の同定は,次のような手順で行なう.\begin{enumerate}\item右セグメントの左端が形式段落の切れ目で接続表現があれば,それにより同定する.接続表現からの修辞関係同定は,付録Iによる.\itemセグメントが部分木に統合されている場合,評価は「核優先の仮定」を用いて代表する核同士を比較し,付録IIIの表により同定する(後述).\item接続表現があればそれにより同定する(付録I参照).\item左右のセグメントが両方とも一文であるならば,言明レベルの修辞関係を優先する.\item文のタイプの比較によって同定する(後述).\itemデフォルトは``順接''とする.\end{enumerate}ここで,「核優先の仮定」とは以下である.\begin{description}\item{\bf核優先の仮定}\begin{quote}セグメント間の修辞関係を評価するとき,基本的に核だけでそのセグメントの評価ができる(表\ref{rheto}参照).ただし,前文と後文が両方とも核になる修辞関係では,\begin{itemize}\item前文が主$\cdots$換言・並列・選択・対比\item後文が主$\cdots$順接・逆接・転換\end{itemize}とする.\end{quote}\end{description}「文のタイプの比較」とは,二文(セグメントの場合は代表する文)のタイプを比較することにより修辞関係を同定するもので,詳細を付録IIIに示す.この際,二つのセグメントの境界が形式段落と一致している場合は「形式段落間」,2文とも形式段落内に存在する場合は「形式段落内」の各項目を参照する.
\section{トップダウン的アプローチとボトムアップ的アプローチの融合}
\subsection{トップダウン(分割)vs.ボトムアップ(統合)}ここで,トップダウン的なアプローチとボトムアップ的なアプローチについて比較する.\begin{description}\item{\bfトップダウン的アプローチ(セグメント列の分割)}\begin{itemize}\itemパラメタにより,(表層的に)明確に指標が現れている箇所ほど早い段階で分割が行われている.\item構造木の葉にあたる下部に近付くにつれ,適当でない分割が行なわれる.これは評価関数による判定では小さいセグメント列をさらに分割するという細かい判定まで正しく評価できないことによる.\end{itemize}\item{\bfボトムアップ的アプローチ(セグメントの統合)}\begin{itemize}\item対象とする構造が小さいほど,結束性の強さや修辞関係は正しく判定される.\item反面,大きい構造(セグメント)同士の修辞関係ほど意味的な影響が強くなり,判定は困難である.\end{itemize}\end{description}\subsection{両者を融合したアルゴリズム}本研究で提案する解析アルゴリズムは,前節で述べたトップダウン解析とボトムアップ解析の良いところのみを採り入れたアルゴリズムで,次の二つの手順からなる.\begin{description}\item{\bftopdown}\begin{enumerate}\item処理範囲が1セグメントなら終了.\item(\ref{siki})式により,セグメント列において最大の分割箇所を求め,二分割する.\itemそれぞれのセグメント列を{\bfbottomup}により構造化する.\end{enumerate}\item{\bfbottomup}\begin{enumerate}\item処理範囲が1セグメントなら終了.\item「セグメント統合のアルゴリズム」に基づき,セグメント列上で統合できるセグメントを検出し,次にそれらを統合する.統合できるセグメントがなければ次のステップへ.\item得られたセグメント列を{\bftopdown}により構造化する.\end{enumerate}\end{description}解析処理の例を,図\ref{tb_model}に摸式的に示す.\begin{figure}\begin{center}\includegraphics[scale=0.9,clip]{tb_model.eps}\caption{分割と統合による構造解析}\label{tb_model}\end{center}\end{figure}
\section{解析システムと実験}
\subsection{構造木の生成例}本研究のアルゴリズムに基づいて,付録に示す入力データを解析した結果を図\ref{tree_example}に示す.\begin{figure}[htbp]\baselineskip=12pt\begin{verbatim}[]|-[]||-[(1,1),順接,(1,2)]||-順接||-[]||-[(2,1),並列,(2,2)]||-結論||-[[(3,1),転換,(3,2)],逆接,(4,1)]|-転換|-[]|-[]||-[]|||-[]||||-[(5,1),順接,(5,2)]||||-順接||||-[(5,3),並列,(5,4)]|||-順接|||-[(6,1),並列,(6,2)]||-順接||-[]||-[]|||-[(7,1),順接,(7,2)]|||-順接|||-[[(8,1),順接,(8,2)],順接,(8,3)]||-順接||-(9,1)|-転換|-[]|-[[(9,2),対比,(9,3)],順接,(10,1)]|-結論|-[(11,1),転換,(11,2)]\end{verbatim}\caption{構造木の生成例}\label{tree_example}\end{figure}\subsection{解析結果の評価の方針}本研究で提案した手法の評価を試みる.評価では,生成された木構造の正確さを評価するわけだが,正解をどのように設定するのかという点と,正解との多少の構造のずれをどのように評価に加えるのかという問題がある.そこで本研究での評価方法としては,\begin{enumerate}\item根の近辺のみの評価:「構造化のトップダウン・アルゴリズム」と「構造化のボトムアップ・アルゴリズム」について,根の近辺の分割が形式段落と一致しているかで判定し,両者を比較,\item葉の近辺のみの評価:葉の近辺のセグメントの統合が人間の処理と一致しているかで判定.「構造化のトップダウン・アルゴリズム」単独で実行した場合とも比較する,\item全体的評価:個々の木の人間による検査,\end{enumerate}に分けて評価を行なう.\subsection{解析結果の評価(根の近辺)}図\ref{eval1}において再現率(T),適合率(T)は,「構造化のトップダウン・アルゴリズム」(\ref{top2}節)で,次第に分割を進めていった時に段落の境界についての精度を再現率,適合率により表示したものである\footnote{日本経済新聞1994年1月1日から1月14日までの社説20編による.}.これによると,「構造化のトップダウン・アルゴリズム」は,文章全体を5段落に分割するあたりまでは,65%以上の適合率で形式段落と一致している.形式段落と一致することが,かならずしも意味的なセグメンテーションの正確さを意味するものではないが,形式段落は著者が一つの区切りとして加えたものであり,客観的な指標として意味があると考えられる.再現率(B),適合率(B)は,「構造化のボトムアップ・アルゴリズム」のみにより構造化し,根に近い部分から段落分割していったときの精度を示したものである.一方,「構造化のボトムアップ・アルゴリズム」は,結束性の強さの判定に形式段落の情報を用いているので,これを用いてセグメンテーションの精度を議論することには問題がある.そのため,再現率(B*),適合率(B*)は,「構造化のボトムアップ・アルゴリズム」で形式段落の情報を利用する部分を削除したものによる実験結果を示している.再現率(B*)は,0.2近辺の値を示している.適合率(B*)は,初期の数回の分割では正しい(形式段落と一致した)分割を行っているものの,「構造化のボトムアップ・アルゴリズム」による結果(再現率(B),適合率(B))と比べて著しく悪い結果である.つまり,「構造化のボトムアップ・アルゴリズム」のみによる構造化では,形式段落の情報がセグメンテーションに寄与してはいるものの,これを差し引けば文章の全体的な構造化に関しては有意な効果は見られないと言える.なお,形式段落の情報はセグメントの分割を示す情報であり,これが必ずしもセグメントの統合を目的とする「構造化のボトムアップ・アルゴリズム」の動作をコントロールしているとは言えないようである.\begin{figure}\begin{center}\includegraphics[scale=0.95,clip]{nikkei_3V3.eps}\caption{段落の分割数と精度}\label{eval1}\end{center}\end{figure}\subsection{解析結果の評価(葉の近辺)}\label{sec64}解析結果と人間により生成された構造との比較を行なった(表\ref{kabu}).被験者7名\footnote{理系の大学4年生と大学院修士課程1年生だが,自然言語処理に関しては専門的な教育は特に受けていない.}に,文,セグメントの意味的な結び付きに応じて文章を木構造で表現する方法を教え,木の一段目,つまりどの二文が一番最初にまとめられるかと,二段目,つまり一段目を含んでそれらがさらにどのようにまとめられるかについて,提案の手法による解析結果と比較し,再現率,適合率を求めた.使用した文章は,日本経済新聞の社説(1994年1月1日から連続して)35編で,一編につき被験者一名,ひとりの被験者が5編ずつを解析した.表中「人間(a)」とは,35編の社説について隣接する二文(またはセグメント)を被験者が統合した個数の合計を,「計算機(b)」とは,提案の手法により隣接する二文(またはセグメント)が統合された個数の合計を表す.また「一致(c)」とは,被験者の統合と提案の手法による両者が一致した箇所の個数を表す.再現率,適合率は,以下による.\[\mbox{再現率}=\frac{(c)}{(a)},\hspace*{3em}\mbox{適合率}=\frac{(c)}{(b)}\]表中で,「TB」は,提案の方式によるもの,「T」は,「構造化のトップダウン・アルゴリズム」単独で解析したものである.\begin{table}[htb]\begin{center}\begin{tabular}{|c|c|r|r|r|r|r|}\hline&&人間(a)&計算機(b)&一致(c)&再現率(%)&適合率(%)\\\hlineTB&一段目&306&294&160&52.3&54.4\\\cline{2-7}&二段目&198&241&47&23.7&19.5\\\hlineT&一段目&&293&146&47.7&49.8\\\cline{2-7}&二段目&&180&36&18.2&20.0\\\hline\end{tabular}\end{center}\caption{構造木下部についての検討}\label{kabu}\end{table}一段目について再現率,適合率とも50%程度だが,この実験では,被験者に全く自由に構造を描かせ,それを本手法による解析結果と比較したものであるので,評価基準としては厳しいものである.ある程度の許容範囲を設け,結果の特性を含めることができるような評価手法の検討が課題となる.「構造化のトップダウン・アルゴリズム」のみによる解析との比較では,前節の評価結果ほど差がないにせよ,やはり,提案の手法によって精度が向上しているのが分かる.\subsection{解析結果の評価(全体的評価)}提案のアルゴリズムにより30編の社説\footnote{日本経済新聞94年1月の社説からいくつかを使用}(総段落数323,総文数899)を解析し,生成された木構造を人間が評価した.全体的な評価は表\ref{kaiseki_kekka}のようになる.ここで,「解析の誤り」とは,修辞関係の同定誤りとセグメント分割の間違いである.「許容範囲外」とはセグメントの分割誤りが二つ以上あるか,またはセグメントの分割誤りが一つで修辞関係同定誤りが一つ以上あるものとした.人間が見て「誤りがない」とすることができたのは,30編の社説のうちの8編であった.これらの文章はどれも相対的に他の文章より短く,セグメントの分割がより正確だったと考えられる.逆に許容範囲外にあるとするものも11編であった.これらの文章は相対的に文章自体が長く,セグメントの分割誤りが目立った.人間の判断による「解析の誤り」について,木構造が明らかに誤りであるとされたところが合計31箇所あった.そのうち17箇所は修辞関係の同定誤りによるもので,セグメント分割の間違いは14箇所であった.この実験では,計算機が出力した構造と原文とに対して人間が評価を行なっており,\ref{sec64}節の実験のように計算機と人間が独立して解析を行なった後に一致を調べるという手法とは異なる.人間の判断に明確に違反するものを除き,人間は計算機の解析結果を見て,計算機による解析結果を許容する方向に影響され,そのため\ref{sec64}節の実験よりも良好な結果が得られてたものと思われる.本研究の応用を人間に代わって大量の文書処理を行なうことにあるとすると,解析結果を人間が許容できるかどうかは重要であり,表\ref{kaiseki_kekka}の結果についても意味があると考えられる.\begin{table}[htb]\begin{center}\begin{tabular}{|l|r|c|}\hline分類&数&割合(%)\\\hline誤りなし&8編&26.7\\\hline許容範囲内&11編&36.7\\\hline許容範囲外&11編&36.7\\\hline\end{tabular}\end{center}\caption{解析結果の全体評価}\label{kaiseki_kekka}\end{table}
\section{まとめ}
本研究では,論説文の構造を階層化した文章モデルを提案し,これに基づき,テキストセグメンテーションの手法を応用したトップダウン構造解析アプローチ,セグメントを統合していくボトムアップ構造解析アプローチを示した.さらに,両者の利点を生かすことができる分割と統合による文章解析手法を提案した.また,実験によりこの手法の有効性を確認した.本手法での構造化は,文末の表層的な情報によるモダリティの解析に依るところが大きい.これを基に文章の論説モデルを定義した.文末に現れるモダリティは,文のタイプとして扱われ,トップダウン構造化にもボトムアップ構造化にも利用されていく.文章解析のトップダウン的アプローチとしては,文章のセグメンテーションの手法を応用し,評価関数の値の大きい箇所から分割していく.文章解析のボトムアップ的アプローチとしては,修辞関係に着目したセグメント統合により隣接していて関係が強いところから統合していく.葉に近い部分をボトムアップ的解析で,根に近い部分をトップダウン的解析で処理することにより,一方の欠点を他方の利点で補う効果的な手法となった.本研究のような対象においては,解析結果を正解と不正解の2値に分けてしまうのでは評価としては不十分であり,正解に近いものはそれなりに評価してやる必要がある.これについて,解析木の根に近い部分は形式段落の位置に基づく客観的評価,葉に近い部分は人間が解析したものとの比較,全体的な構造に対しては個々の解析結果を人間が検討することにより評価を行った.今後の課題としては,本手法の応用と拡張がある.どちらも他方の状況を抜きに考えられないが,本手法の中心的なアルゴリズムは非常に単純であるため,柔軟に拡張が可能と考えられる.\acknowledgment本実験で利用したコーパスは,日本経済新聞CD-ROM'93〜'94版から得ている.同社,および利用に関して尽力された方々に深く感謝します.査読者氏にはいくつかの有益なご指摘をいただきました.またこれらをきっかけに,著者らの気付かなかった解析プログラム中のいくつかのバグが発見されました.ここに感謝します.また,数々の実験のデータの採集を行なってくれた横浜国立大学工学研究科の学生比留間正樹君,奈良雅雄君に感謝します.\nocite{Wada:97}\nocite{Hiruma:97}\nocite{Tamura:97}\bibliographystyle{jnlpbbl}\bibliography{article,tamlab,book,proceedings}\vspace{-8mm}\begin{biography}\biotitle{略歴}\bioauthor{田村直良}{1985年東京工業大学大学院博士課程情報工学専攻修了,工学博士.同年東京工業大学大学工学部助手.1987年横浜国立大学工学部講師,同助教授を経て,1995年米国オレゴン州立大学客員助教授,1997年横浜国立大学教育人間科学部教授,現在に至る.構文解析,文章解析,文章要約などの自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員}\bioauthor{和田啓二}{1995年横浜国立大学工学部電子情報工学科卒業.1997年横浜国立大学大学院工学研究科修了,その間自然言語処理,知識情報処理の研究に従事.同年,日本アイ・ビー・エム入社,現在に至る.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\noindent{\bf\Large付録I(接続表現の分類)}\vspace*{1em}\begin{tabular}{|l|c|l|}\hline接続関係の性質&接続関係&接続表現の例\\\hline\hline補足的なもの&例示&たとえば,今回は\\\cline{2-3}&換言&いわば,つまり,すなわち\\\cline{2-3}&強調&言うまでもなく,まして,なおさら\\&&とくに,さらに,とりわけ\\&&もちろん,ただ\\\cline{2-3}&添加&しかも,それに,おまけに\\&&なお,もっとも,その上\\\cline{2-3}&説明&それは,なぜなら,というのは\\\hline展開を与えるもの&逆接&しかし,残念ながら,だが\\&&でも,ところが,けれども\\\cline{2-3}&並列&また,同時に\\\cline{2-3}&選択&もしくは\\\cline{2-3}&対比&いっぽう,これに対し(て)\\\cline{2-3}&提起&問題は,問題として\\\cline{2-3}&因果&その結果,そのため,このため,これでは\\\cline{2-3}&結論&したがって,だから,結局(は)\\\cline{2-3}&順接&そして,そこで\\\cline{2-3}&相反&それでも,それなのに,それより,むしろ\\\cline{2-3}&一般化&このように\\\cline{2-3}&根拠&だからこそ,これこそ,それこそ\\\cline{2-3}&条件&とすれば\\\hline転換を表すもの&転換&ところで,さて\\\hline\end{tabular}\\\vspace*{2em}\noindent{\bf\Large付録II(原文章)}{\baselineskip=15pt\begin{verbatim}リストラを円滑にする独禁法の運用(日本経済新聞94年1月8日の社説)(1,1):企業が思い切ったリストラクチャリング(事業の再構築)を推進しようという場合に,独占禁止法の運用が硬直的で実態に合っていない,という声が産業界から上がっている.(1,2):企業の合併や,共同投資などを行うときに運用上の規制が細かく,企業の自主性が尊ばれていない,というのである.(2,1):経団連産業政策部はこの問題を取り上げ,独禁法関連の運用面の規制緩和についての要望を会員から聞き始めた.(2,2):また,通産省の産業構造審議会総合部会基本問題小委員会はさきにまとめた中間提言で,企業のリストラを支援する視点から独禁政策の見直しが必要だとしている.(3,1):私たちはかねて不公正な取引やカルテル行為に対して独禁法の厳正な運用を公正取引委員会に強く望んできた.(3,2):これらに向けた運用強化が必要なことは言うまでもない.(途中省略)(10,1):産業界では環境の激変から素材産業を中心に合併のうねりが高まっており,国際化のなかの構造変化への対応策としての合併・事業の再編成は今後も中期的に続きそうである.(11,1):リストラを円滑にし,競争を促進する視点に立った独禁政策が必要だ.(11,2):「規制緩和」というこの国の課題から公取委を外す理由は全くない.\end{verbatim}}\vspace*{2em}\noindent{\bf\Large付録III(二文のタイプからの修辞関係の同定)}\vspace*{1em}\begin{tabular}{|c|c|c||c|c|c|}\hline\multicolumn{2}{|c|}{隣接する文のタイプ}&修辞関係&\multicolumn{2}{|c|}{隣接する文のタイプ}&修辞関係\\\hline\hline形&意見→断定&転換&&叙述→意見&結論\\\cline{2-3}\cline{5-6}&意見→意見&転換&&断定→推量&結論\\\cline{2-3}\cline{5-6}式&意見→推量&転換&形&断定→意見&結論\\\cline{2-3}\cline{5-6}&意見→問掛&転換&&推量→意見&結論\\\cline{2-3}\cline{5-6}段&推量→推量&転換&式&叙述→問掛&結論\\\cline{2-3}\cline{5-6}&推量→問掛&転換&&叙述→推量&結論\\\cline{2-3}\cline{5-6}落&問掛→問掛&転換&段&様態→意見&結論\\\cline{2-3}\cline{5-6}&断定→問掛&転換&&意見→断定&説明\\\cline{2-3}\cline{5-6}間&可能→叙述&転換&落&推量→断定&説明\\\cline{1-3}\cline{5-6}\multicolumn{3}{|c||}{}&&叙述→叙述&説明\\\cline{5-6}\multicolumn{3}{|c||}{}&内&叙述→断定&説明\\\cline{5-6}\multicolumn{3}{|c||}{}&&問掛→断定&説明\\\cline{5-6}\multicolumn{3}{|c||}{}&&問掛→叙述&説明\\\cline{5-6}\multicolumn{3}{|c||}{}&&断定→叙述&強調\\\cline{5-6}\multicolumn{3}{|c||}{}&&断定→伝聞&強調\\\cline{5-6}\multicolumn{3}{|c||}{デフォルトは``順接''}&&意見→伝聞&強調\\\hline\end{tabular}\end{document}
| |
V10N02-03 | \section{はじめに}
近年,情報分野の認知度・重要度は急速に増し,それに伴って自然言語処理分野の研究もさらに活発なものとなっている.形態素論から構文論へと研究は進み,現在は意味論に関する研究がその中心となっている.比喩表現はその代表的なテーマの1つであり,我々の日常的なコミュニケーションも比喩表現の雛型としての言語知識に基づいた部分が多いとされている\cite{Lakoff-1}.比喩表現に関する研究は,近年細かく分類され,様々なアプローチによる研究が精力的に進められている.人工知能(自然言語処理)分野における比喩処理の研究として,Barndenは,ATT-Metaと呼ばれる比喩推論システムを試作している\cite{Barnden-1}.このシステムは,cnduitmetaphorと称する意味伝達に際しての理解のずれの枠組み\cite{Reddy-1}など,比喩表現についての言語学的な研究成果をもとに構築され,喩詞と被喩詞との意味的な共通領域を定量的に示すことができる.コンピュータに比喩を理解させるためには概念の類似性や顕現性に関する知識が必要となるが,TverskyやOrtonyは概念の属性集合の照合によって類似性を説明する線形結合モデルを提案し,顕現性を計算する際に重要な要素として情報の強度(intensity)と診断度(diagnosticity)を提案している\cite{Tversky-1,Ortony-3}.今井らは連想実験に基づいて構成される属性の束を用いてSD法の実験を行い,その結果を円形図上に配置し,さらに凸包という幾何学的な概念を用いて相対的に顕現性の高い属性の抽出を行っている\cite{Imai-1}.比喩表現を大きく直喩・隠喩的な比喩と換喩的な比喩とに分類すると,換喩的な比喩の研究として,村田らは「名詞Aの名詞B」「名詞A名詞B」の形をした名詞句を利用し,それを用いて換喩を解析することを試みている\cite{Murata-1}.内山らは換喩的な比喩を研究対象に,統計的に解釈する方法について述べている\cite{Uchiyama-1}.また内海らは直喩・隠喩的な比喩の研究について,関連性理論を基盤とした言語解釈の計算モデルを適用し,属性隠喩を対象として文脈に依存した隠喩解釈の計算モデルを提案している\cite{Utsumi-1}.しかしこれらの研究はいずれも比喩とわかっている表現の解釈を中心に行われており,実際の文章に現れる表現が比喩であるかどうかといった比喩認識については,あまり深い議論はなされていない.本研究は日本語文章の比喩表現,その中でも直喩・隠喩的な比喩について,その認識・抽出を目的としている.我々はこれまで確率的なプロトタイプモデル\cite{Iwayama-1}を利用して,コーパスから知識を取り出すことによって比喩認識に用いる大規模な知識ベースを自動構築する手法を提案し\cite{Masui-1},動作に基づく属性に注目した観点からの比喩認識を提案してきた\cite{Masui-3}.これにより喩詞と被喩詞とからなる表現の定量的な比喩性判断が可能となった.しかし,この手法を実際の文章に現れる表現に対して適用するためには,比喩表現候補の喩詞と被喩詞とを正確に抽出できなければならない.これに対しては直喩の代表的な表現形式である``名詞Aのような名詞B''を対象に,構文パターンやシソーラスを用いる手法で研究を進めてきた\cite{Tazoe-1,Tazoe-2}が,喩詞・被喩詞を抽出する手法は,同時に``名詞Aのような名詞B''表現が比喩であるかどうかを判定することにも密接に関連するという結論に至った.本論文では``名詞Aのような名詞B''表現について,意味情報を用いたパターン分類によって比喩性を判定し,喩詞と被喩詞とを正確に抽出できるモデルについて提案する.本論文の構成を示す.\ref{sec:bunrui}章では``名詞Aのような名詞B''表現について意味情報を用いたパターン分類とそれぞれのパターンの特徴・比喩性を述べる.\ref{sec:teian}章では我々が提案する比喩性判定モデルの処理の流れを詳細に説明する.\ref{sec:ko-pasu}章ではコーパスを用いた判定実験結果について考察を加える.\ref{sec:hiyugo}章では明らかに比喩性を決定づける語の存在について検証する.
\section{``名詞Aのような名詞B''表現のパターン分類}
label{sec:bunrui}\subsection{比喩とリテラル}\label{subsec:hiyulite}比喩表現の中の直喩の代表的な表現形式に``名詞Aのような名詞B''がある.しかし,``名詞Aのような名詞B''表現がすべて直喩であるとは限らない.これについては従来から議論がなされており,中村は,対応する2つの名詞の意味領域が互いに排斥しあっている場合は比喩表現であり,名詞Aの意味領域が名詞Bの意味領域の中に含まれると比喩表現であることが少なくなる,としている\cite{Nakamura-1}.またOrtonyは``AislikeB(AはBのようだ)''において,A,B共通の属性の顕現性がAにおいて低くBにおいて高ければ比喩的な類似性であり,Aにおいて高くBにおいても高ければリテラルな(字義通りの)類似性である,としている\cite{Ortony-2}.以上をまとめると,``名詞Aのような名詞B''表現の用法は大きく2つに分けることができる.1つは「じゅうたんのような芝」を例とする直喩であり,この用法を単に『比喩』と呼ぶことにする.もう1つは「中国のような国」を例とする比喩ではない用法であり,この場合は例示を意味する.このような比喩ではない用法は他にも,指示(例えば「次のような点」),人の判断(例えば「当たり前のようなこと」)などがあり,それらをまとめて『リテラル』と呼ぶことにする.我々は``名詞Aのような名詞B''表現について,これら2つの用法をコンピュータで判定するモデルを提案する.明らかにこの判定モデルは構文情報だけでは実現できず,意味情報や概念情報を扱う必要がある.\subsection{意味情報を用いたパターン分類}\label{subsec:imitekina}``名詞Aのような名詞B''表現が実際の文章の中でどのような用法で使用されているのかを調べるために,日本経済新聞\cite{Nikkei-1}の1994年1月分の記事約11万文について調査した.その結果,``のような''を含む表現はちょうど500組抽出され,構文情報を用いて分類したところ``名詞句のような名詞句''表現は311組,その中で2つとも単一名詞(修飾語句がつかない)である``名詞Aのような名詞B''表現は78組抽出された(表\ref{tab:noyouna1}参照).\begin{table}[htbp]\caption{``のような''を含む表現の分類}\begin{center}\begin{tabular}{|l|r|}\hline名詞Aのような名詞B&78\\\hline名詞句のような名詞句(上を除く)&233\\このような&81\\そのような&20\\どのような&61\\〜かのような&9\\これまでのような&10\\かつてのような&3\\のようなのだ&2\\のような,&1\\のような)&2\\\hline\hline計&500\\\hline\end{tabular}\end{center}\label{tab:noyouna1}\end{table}その78組について,名詞Aと名詞Bの意味情報やその関係に従って,``名詞Aのような名詞B''表現が比喩なのかリテラルなのかを判定することを考慮しながら,次の6つのパターンに分類した.\medskip\begin{description}\item[パターン1:]名詞Aと名詞Bが直接対比され,異種概念であるもの(あとのパターン2〜6に該当しないもの)--11組\end{description}\begin{quote}\begin{description}\item[例:]じゅうたんのような芝\\夢のような約束\end{description}\end{quote}\medskip\begin{description}\item[パターン2:]名詞Aと名詞Bが直接対比され,名詞Bが名詞Aの上位概念であるもの--5組\end{description}\begin{quote}\begin{description}\item[例:]中国のような国\\雑木林のような自然\end{description}\end{quote}\medskip\begin{description}\item[パターン3:]名詞Bが名詞Aの静的な属性(部分,形状など)であるもの--11組\end{description}\begin{quote}\begin{description}\item[例:](スペース)シャトルのような羽根\\ピラミッドのような形\end{description}\end{quote}\medskip\begin{description}\item[パターン4:]名詞Bが名詞Aの動的な属性(状態,状況など)であるもの--5組\end{description}\begin{quote}\begin{description}\item[例:]ニュージーランドのような自然\\ボスニアのような問題\end{description}\end{quote}\medskip\begin{description}\item[パターン5:]名詞Bが特定の名詞(抽象名詞)であるもの--24組\end{description}\begin{quote}\begin{description}\item[例:]バールのようなもの\\刃物のようなもの\end{description}\end{quote}\medskip\begin{description}\item[パターン6:]名詞Aが特定の名詞(人称代名詞,時制名詞,文中の場所を指す名詞,事物の評価を表す名詞)であるもの--27組\end{description}\begin{quote}\begin{description}\item[例:]私のような選手\\君のような人間\\現在のような環境\\従来のような勢い\\次のような点\\以上のような状況\\当たり前のようなこと\end{description}\end{quote}\medskipここで,例えば「次のようなもの」のようにパターン5とパターン6に属する表現が5組あり,両方のパターンでカウントしている.\subsection{各パターンの比喩性}\label{subsec:kakupata-n}\ref{subsec:hiyulite}の定義をもとに,\ref{subsec:imitekina}で分類した各パターンの比喩性について説明する.\medskipパターン1(直接対比,異種概念)について\begin{quote}名詞Aと名詞Bが異種概念で直接対比されており,異種概念の類似属性を比較しているということで,比喩といえる.この場合,名詞Aが喩詞であり,名詞Bが被喩詞である.\end{quote}\medskipパターン2(直接対比,上下関係)について\begin{quote}名詞Aが名詞Bの概念に含まれており,これは比喩としての意味はなく,例示を表すリテラルである.名詞Bの例として名詞Aが挙げられているのである.\end{quote}\medskipパターン3(BがAの静的な属性)について\begin{quote}意味の上からは``AのBのようなXのB''であり,論理的にはAとXの関係で比喩かリテラルかが決まる.実際のところ,``AのB''が普遍性のある静的な属性を表現することから,AとXは異種概念であることが一般的であり,比喩となる.この場合,喩詞は``AのB'',被喩詞は``XのB''である.しかしXは文脈のどこかに記されており,``AのようなB''だけを抽出した場合,Xを特定することはできない.喩詞として``AのB''は抽出することができる.\end{quote}\medskipパターン4(BがAの動的な属性)について\begin{quote}意味の上からはパターン3と同様``AのBのようなXのB''であるが,``AのB''が時と場合によってゆれのある動的な属性を表現することから,XはAを普遍化したもの(上位概念)であることが一般的であり,例示を表すリテラルとなる.\end{quote}\medskipパターン5(名詞Bが特定の名詞)について\begin{quote}名詞Bが``もの'',``こと''など特定の抽象名詞の場合で,例示を表すリテラルである可能性が高い.ただし,「特効薬のようなもの」や「安全弁のようなもの」などのように,名詞Aが比喩性を決定づける語(\ref{sec:hiyugo}章で述べる比喩語)であるときに比喩となる.\end{quote}\medskipパターン6(名詞Aが特定の名詞)について\begin{quote}名詞Aが人称代名詞あるいは現在過去の時制名詞であるときは例示,文中の場所を指す名詞であるときは指示,事物の評価を表す名詞であるときは人の判断と,いずれもリテラルである.\end{quote}\medskip以上をまとめると,表\ref{tab:noyouna3}のようになる.\begin{table}[htbp]\caption{``名詞Aのような名詞B''表現のパターン分類}\begin{center}\begin{tabular}{|l|l|l|r|}\hlineパターン1&直接対比,異種概念&比喩(喩詞``A'',被喩詞``B'')&11組\\パターン2&直接対比,上下関係&リテラル&5組\\パターン3&BがAの静的な属性&比喩(喩詞``AのB'')&11組\\パターン4&BがAの動的な属性&リテラル&5組\\パターン5&名詞Bが特定の名詞&ほぼリテラル&24組\\パターン6&名詞Aが特定の名詞&リテラル&27組\\\hline\end{tabular}\end{center}\label{tab:noyouna3}\end{table}
\section{比喩性判定モデルの提案}
label{sec:teian}\ref{sec:bunrui}章のパターン分類をもとに,``名詞Aのような名詞B''表現を入力として,比喩あるいはリテラルを判定し,比喩については喩詞・被喩詞を抽出するモデルを提案する(図\ref{fig:hantei_moderu}参照).\begin{figure}[htbp]\begin{center}\leavevmode\vspace*{5mm}\epsfxsize=14cm\epsfysize=14.466cm\epsfbox{fig1.eps}\caption{比喩性判定モデル}\label{fig:hantei_moderu}\vspace*{5mm}\end{center}\end{figure}図\ref{fig:hantei_moderu}の各ステップについて説明する.\medskipステップ1[Aが特定名詞?]:\begin{quote}名詞Aが特定の名詞(人称代名詞,時制名詞,文中の場所を指す名詞,事物の評価を表す名詞)であるかを調べる.特定の名詞であれば,パターン6(リテラル)と判定する.そうでなければ,ステップ2へ渡す.\end{quote}\medskipステップ2[Bが特定名詞?]:\begin{quote}名詞Bが特定の名詞(抽象名詞)であるかを調べる.特定の名詞であれば,パターン5(ほぼリテラル)と判定する.そうでなければ,ステップ3へ渡す.\end{quote}\medskipステップ3[BがAの属性?]:\begin{quote}名詞Bが名詞Aの属性であるかどうかを調べる.属性であればステップ4へ,属性でなければステップ5へ渡す.\end{quote}\medskipステップ4[静的or動的]:\begin{quote}「名詞Aの名詞B」が静的な属性か動的な属性かを判断する.静的な属性であれば,パターン3(比喩)と判定し,喩詞は``AのB''となる.動的な属性であれば,パターン4(リテラル)と判定する.\end{quote}\medskipステップ5[概念比較]:\begin{quote}名詞Bが名詞Aの属性でなければ,名詞Aと名詞Bは直接対比できると判断し,概念比較を行う.名詞Bが名詞Aの上位概念であれば,パターン2(リテラル)と判定する.そうでなければ,名詞Aと名詞Bは異種概念と判断し,パターン1(比喩)と判定,喩詞は``A'',被喩詞は``B''となる.\end{quote}\medskipこのモデルに従えば,\ref{subsec:imitekina}のパターン5(ほぼリテラル)とパターン6(リテラル)の両方に属する表現(例えば「次のようなもの」)は,パターン6(リテラル)と分類される.
\section{コーパスでの検証}
label{sec:ko-pasu}\subsection{比喩性判定モデルの実現}\label{subsec:jitugen}\ref{sec:teian}章の比喩性判定モデルを実現するために,意味情報として日本語語彙大系\cite{NTT-1}を利用して,図\ref{fig:hantei_moderu}の各ステップの具体的なルールを定義した.その手順はまず,日本経済新聞1994年1月のデータ78組に対して,日本語語彙大系からそれぞれの名詞に意味情報を付与した.その際に,1つの名詞に複数の意味情報が付与される,いわゆる多義性が生じるが,今回は我々が妥当と考える意味情報を1つだけ付与することとした.そして,各ステップの処理とデータに付与された意味情報を参照しながら,比喩性判定モデルを実現するための具体的なルールを定義した.各ステップのルールを説明する.\medskipステップ1のルール:\begin{quote}日本語語彙大系では,名詞をさらに8種類(一般名詞,用言性名詞,転生名詞,副詞型名詞,連体詞型名詞,代名詞,形式名詞,固有名詞)に細分類している.名詞Aが用言性名詞(サ変動詞型名詞,形容動詞型名詞)か,副詞型名詞(時詞,数詞など)か,代名詞か,形式名詞であれば,名詞Aが特定の名詞とする.\end{quote}\medskipステップ2のルール:\begin{quote}名詞Bが形式名詞であれば,名詞Bが特定の名詞とする.\end{quote}\medskipステップ3のルール:\begin{quote}名詞Aと名詞Bの意味情報を調べて,名詞Aが具体(意味属性番号2--994)で名詞Bが抽象(1000--2715)か,名詞Aが抽象物(1001--1234)で名詞Bが事・抽象的関係(1235--2715)であれば,名詞Bが名詞Aの属性とする.\end{quote}\medskipステップ4のルール:\begin{quote}名詞Aが固有名詞であれば,「名詞Aの名詞B」は動的な属性とする.そうでなければ静的な属性とする.\end{quote}\medskipステップ5のルール:\begin{quote}名詞Aと名詞Bの意味情報を日本語語彙大系の階層構造に当てはめ,名詞Bが名詞Aの上位であるか,まったく同種であるか,異種(その他)であるか判定する.名詞Bが名詞Aの上位であれば,上下関係とする.名詞Aと名詞Bが異種(その他)であれば,異種概念とする.名詞Aと名詞Bの意味情報が同種であるとき,名詞Aが固有名詞で名詞Bが一般名詞であれば,厳密には名詞Bが名詞Aの上位概念であるとし,そうでなければ,厳密には異種概念であるとする.\end{quote}\subsection{学習データでの検証}\label{subsec:jikken1}\ref{subsec:jitugen}のルールに基づいて比喩性判定モデルを実装し,日本経済新聞1994年1月のデータ78組を用いて実験を行った.これは学習データを用いた実験に相当する.比喩性判定結果を表\ref{tab:kekka1}に示す.\begin{table}[htbp]\caption{比喩性判定結果(1994年1月データ78組)}\begin{center}\begin{small}\begin{tabular}{|lll|}\hline\multicolumn{3}{|l|}{{\bfパターン1:直接対比,異種概念(比喩)}}\\\hline夢のような約束&じゅうたんのような芝&丘のような山\\悪夢のような日々&小春日和のような読後感&黒子のような組織\\夢のような話&迷路のような路地&魔法のような話\\屋根裏のような部屋&&\\\hline2食中毒のような危機&2京都のような都&4ニュージーランドのような自然\\5スパナのような物&5タイヤのような物&6次のような点(2組)\\6次のような質問&6右のような事態&\\\hline\hline\multicolumn{3}{|l|}{{\bfパターン2:直接対比,上下関係(リテラル)}}\\\hline中国のような国&雑木林のような自然&北朝鮮のような国\\\hline\hline\multicolumn{3}{|l|}{{\bfパターン3:BがAの静的な属性(比喩)}}\\\hlineピラミッドのような形&大理石のような肌合い&オーケストラのような構造\\杉のような感じ&針のような形&雑誌のようなペース\\円盤のようなデザイン&能のような動き&航空機のような構造\\渡り鳥のようなやり方&&\\\hline\hline\multicolumn{3}{|l|}{{\bfパターン4:BがAの動的な属性(リテラル)}}\\\hlineボスニアのような問題&米国のような意識&東京のような混乱\\\hline\hline\multicolumn{3}{|l|}{{\bfパターン5:名詞Bが特定の名詞(ほぼリテラル)}}\\\hlineバールのようなもの(2組)&刃物のようなもの&安全弁のようなもの\\特効薬のようなもの&金づちのようなもの&ハンマーのようなもの\\印のようなもの&弾のようなもの&ハサミのようなもの\\古典のようなもの&ジーパンのようなもの&シンポジウムのようなもの\\\hline6次のようなもの&&\\\hline\hline\multicolumn{3}{|l|}{{\bfパターン6:名詞Aが特定の名詞(リテラル)}}\\\hline私のような選手&君のような人間&現在のような環境\\従来のような勢い&以上のような状況&当たり前のようなこと\\今のような話&今回のような不祥事&昔のような姿\\今のような人生&私のようなユーザー&私のような職業\\昔日のような活気&前回のような調整&当時のような活気\\今回のような決着&彼女のような例&私のような者\\今回のようなこと&&\\\hline1ルネサンスのような息吹&5結晶のようなもの&\\\hline\hline\multicolumn{3}{|l|}{{\bf未知語:}}\\\hline3シャトルのような羽根&4オークマのような例&5スタンガンのようなもの(3組)\\6本書のような書物&6同社のような企業&6昨夏のようなこと\\\hline\end{tabular}\end{small}\end{center}\label{tab:kekka1}\end{table}先頭に番号がついているデータは,実装モデルのパターン分類結果と我々のパターン分類結果(表\ref{tab:noyouna3})が一致しないものであり,その番号は我々の分類パターンを示す.判定が一致する割合は,全体で74.4\,\%(58/78),未知語を除けば82.9\,\%(58/70)である.判定が一致しないデータを中心に,モデルの各ステップについて考察を加える.\medskip未知語について\begin{quote}名詞Aあるいは名詞Bが日本語語彙大系では未知語のため,パターンを判定することができない表現である.省略形(``シャトル''…スペースシャトル),固有名詞(``オークマ''),外来語(``スタンガン'')などは未知語となり得る.また,データの切り出しには形態素解析器茶筅\cite{Chasen-1}を利用したため,接辞がついた表現(``昨夏'',``本書'',``同社'')などは,茶筅の辞書と日本語語彙大系とでずれが生じている.\end{quote}\medskipステップ1について\begin{quote}時詞の中にも顕現性が高いもの(``ルネサンス'')が存在し,比喩となり得る表現がある.このような表現は比喩語(\ref{sec:hiyugo}章参照)で対処することも考えられる.名詞Aがサ変動詞型名詞(``結晶'')の場合,これは用言性名詞に含まれ,パターン6(リテラル)と判定されてしまう.名詞分類の粒度をさらに細かくし,サ変動詞型名詞と形容動詞型名詞(例えば``当たり前'')を別に処理したほうがよいのかもしれない.``次''と``右''については,日本語語彙大系では一般名詞であるが,形式名詞扱いをすればよいと考える.\end{quote}\medskipステップ2について\begin{quote}``物''については,日本語語彙大系では一般名詞であるが,形式名詞扱いをすればよいと考える.\end{quote}\medskipステップ3について\begin{quote}現行のルールでは,名詞Bが具体(``自然'')であると,名詞Bが名詞Aの属性とは判断しない.しかし,そのようなケースもないとは言えないので,ルールをさらに精緻化する必要がある.これも意味属性を束ねる粒度の問題である.\end{quote}\medskipステップ5について\begin{quote}名詞Bと名詞Aの間に上下関係がある(``危機''--``食中毒'',``都''--``京都'')と思われるが,日本語語彙大系の意味情報がそのような上下関係にないものが存在する.日本語語彙大系の意味情報はある視点を基に構築された階層構造となっている.対して,本来の上下関係にはさまざまな視点があり,それらをすべて表現するならば意味ネットワーク構造になると考える.これらの複数の視点を取り込むことは,今後の課題となる.\end{quote}\subsection{評価用データでの検証}\ref{subsec:jikken1}と同じ方法で,日本経済新聞1994年2月のデータ61組を用いて実験を行った.これはルールの評価用データを用いた実験に相当し,データの抽出には1994年1月データと同様の手法を用いている.比喩性判定結果を表\ref{tab:kekka2}に示す.\begin{table}[htbp]\caption{比喩性判定結果(1994年2月データ61組)}\begin{center}\begin{small}\begin{tabular}{|lll|}\hline\multicolumn{3}{|l|}{{\bfパターン1:直接対比,異種概念(比喩)}}\\\hline魔球のような歌集&悪夢のような事件&\\\hline2フォーラムのようなイベント&2弾痕のような穴&2山形のような場所\\2樹海のような森&6次のような事実&6以下のような行為\\6次のような歌&&\\\hline\hline\multicolumn{3}{|l|}{{\bfパターン2:直接対比,上下関係(リテラル)}}\\\hline北朝鮮のような国&寒天のような食べ物&\\\hline\hline\multicolumn{3}{|l|}{{\bfパターン3:BがAの静的な属性(比喩)}}\\\hline友達のような関係&戦友のような存在&オーナーのような存在\\陶器のような肌触り&ディーラーのような感覚&ワインのような味わい\\貝殻のような光沢&子供のような思い込み&青年のような気迫\\地獄のような状況&&\\\hline1ウソのような変化&1うそのような静けさ&1糸車のような木片\\2定番のような曲&&\\\hline\hline\multicolumn{3}{|l|}{{\bfパターン4:BがAの動的な属性(リテラル)}}\\\hline米国のような例&&\\\hline\hline\multicolumn{3}{|l|}{{\bfパターン5:名詞Bが特定の名詞(ほぼリテラル)}}\\\hlineドライバーのようなもの&ガソリンのようなもの&ナイフのようなもの(2組)\\同窓会のようなもの&制服のようなもの&学校のようなもの\\ニックネームのようなもの&タンクのようなところ&イラストのようなもの\\\hline6以下のようなもの(2組)&&\\\hline\hline\multicolumn{3}{|l|}{{\bfパターン6:名詞Aが特定の名詞(リテラル)}}\\\hline今回のようなケース&昨年のような崩落&従来のような姿勢\\昨年のような方式&今度のような文書&こんどのような手法\\今回のような特例&今回のような行動&いまのような黒字\\現在のような形&今回のような形式&昨年のような凶作\\昔のような勢い&今回のような事件&以上のような仕組み\\\hline3落雷のような音&5合併のようなもの&\\\hline\hline\multicolumn{3}{|l|}{{\bf未知語:}}\\\hline1木靴のような空間&2北斎のような巨人&3レーザー光線のような光\\3おわんのような形&3ガイドラインのような意味合い&6今のような変革期\\\hline\end{tabular}\end{small}\end{center}\label{tab:kekka2}\end{table}判定が一致する割合は,全体で65.6\,\%(40/61),未知語を除けば72.7\,\%(40/55)である.1994年1月データ(表\ref{tab:kekka1})と比べると一致する割合が10\,\%ほど落ちている.これはステップ3の,名詞Bが名詞Aの属性かどうかの判断に失敗するケースが増えていることが主な原因である.特にステップ3については実装のためのルールにまだ精細が必要と考えられるが,これは意味属性の束の粒度の問題であり,議論・検証するためには粒度に見合うだけの用例データが必要となる.今回は全体的な処理の流れとして,提案する比喩性判定モデルは実際の文章に現れる``名詞Aのような名詞B''表現に有効であることが確認できた.
\section{比喩語の存在}
label{sec:hiyugo}\subsection{比喩語の定義}典型的な比喩表現に用いられる喩詞は,属性が顕著であり,その属性を持つ代表的な事物として一般的に知識共有されているものであることが多い.逆に,そのような語が名詞Aに使用された場合,``名詞Aのような名詞B''表現は比喩である可能性が極めて高くなる.ここではそのような語のことを『比喩語』と呼ぶことにする.比喩語は例えば``夢''や``魔法''などである.これらは慣用的に喩詞として使用されている語で,典型的比喩表現を収集することによって抽出できると考えている.\subsection{比喩語の効果}比喩語の効果を示すために,簡単な実験を行った.まず比喩語辞書を,比喩表現辞典\cite{Nakamura-2}を利用して作成した.比喩表現辞典には巻末に索引があり,イメージ(喩詞に相当する)やトピック(被喩詞に相当する)という観点で語が集められている.今回は,イメージとして複数回現れた語を収集し(1,553語),比喩語辞書とした.データとして日本経済新聞1994年1月分78組を用い,名詞Aが比喩語であるかどうかを調べた.その結果をパターン別に表\ref{tab:hiyugo}に示す.\begin{table}[htbp]\caption{比喩語辞書との一致}\begin{center}\begin{tabular}{|l|r|r|l|}\hline&データ数&比喩語数&\\\hline\hlineパターン1(比喩)&11&5&``夢''(2組),``悪夢'',``魔法'',``丘''\\パターン2(リテラル)&5&0&\\パターン3(比喩)&11&3&``大理石'',``ピラミッド'',``針''\\パターン4(リテラル)&5&0&\\パターン5(ほぼリテラル)&19&2&``刃物'',``ハサミ''\\パターン6(リテラル)&27&1&``彼女''\\\hline\hline計&78&11&\\\hline\end{tabular}\end{center}\label{tab:hiyugo}\end{table}比喩表現(パターン1,3)に比喩語の含まれる割合は36.4\,\%(8/22),リテラル(パターン2,4,6)は2.7\,\%(1/37)と,十分に利用価値のある値となっている.このことから比喩語と呼ばれる,比喩性を決定づける語の存在は明らかであり,それらは比喩性判定に有用であると考えられる.パターン6の``彼女''には代名詞としての用法と``恋人''という意味での用法があり,データは前者,比喩語辞書は後者でくいちがいが見られる.パターン5の``刃物のようなもの'',``ハサミのようなもの''は通常はリテラルと考えられるが,文脈によっては比喩となる可能性もある.
\section{おわりに}
本研究は,日本語文章の比喩表現,その中でも直喩・隠喩的な比喩について,その認識・抽出を目的としている.比喩表現に関する研究は,比喩解釈のものが多く,確率理論に基づいた計算モデルがいくつか報告されている\cite{Iwayama-1,Pattabhiraman-1}.比喩解釈については対比する喩詞と被喩詞が既知であることが前提となり,比喩認識はその喩詞と被喩詞とを正確に抽出できなければならない.直喩の代表的な表現形式である``名詞Aのような名詞B''を対象にしても,常に名詞Aと名詞Bが対比されるわけではない.本論文では,``名詞Aのような名詞B''表現について,意味情報を用いたパターン分類によって比喩性を判定し,喩詞と被喩詞とを正確に抽出できるモデルを提案した.このモデルを日本語語彙大系を利用して実装したところ,得られたパターン分類結果と人間のそれとが一致する割合は,学習データについては未知語を除けば82.9\,\%(含めれば74.4\,\%),評価用データについては72.7\,\%(同65.6\,\%)であった.実装ルールをさらに精緻化するために,用例データを増やし細かく検証する必要はあるが,比喩性判定モデルの処理の流れは実際の文章中の比喩表現認識,喩詞・被喩詞の抽出に有効であることを示すことができた.また,比喩語という比喩性を決定づける語についてもその効果を示すことができた.本手法は明らかに,前後の文脈を考慮していないので,文脈に依存した比喩性の判断はできない.「刃物のようなもの」を例にすれば,「凶器は刃物のようなものである」ではリテラル(例示)であるのに対し,「言葉は刃物のようなものである」では比喩表現となる.``もの''が``凶器''を指すのか``言葉''を指すのか同定する手法を取り入れることによって,これらの表現を我々のモデルでも区別して判断することが可能と考えられる.このような文脈処理の問題は,比喩性判定モデルの拡張として今後の課題となる.自然言語において比喩表現は例外ではなくむしろ本質的なものであり\cite{Ikehara-2},これらを機械的に扱う研究を進めることで,自然言語処理研究全体に通じる重要な知見を得ることができると確信している.\acknowledgment鈴鹿工業高等専門学校電子情報工学科田添研究室と三重大学情報工学科人工知能研究室の学生のみなさんには,ディスカッションでの有益な意見交換,検証データの整理などで非常なお世話になった.ここであらためて感謝の意を表したい.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{田添丈博}{1991年三重大学工学部電子工学科卒業.1993年同大学院工学研究科電子工学専攻修士課程修了.同年,鈴鹿工業高等専門学校電子情報工学科助手,現在に至る.また,2000年より三重大学大学院工学研究科システム工学専攻博士後期課程在学中.自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{椎野努}{1964年名古屋大学工学部電気工学科卒業.同年,沖電気工業(株)入社.マイクロ波通信,データ通信,基本ソフトウェア,ソフトウェアCAD,各種エキスパートシステム,機械翻訳システム等の研究開発に従事.1990年三重大学工学部情報工学科教授.2002年愛知工業大学工学部情報通信工学科教授.工学博士.自然言語処理,画像処理,音楽情報処理等に興味をもつ.情報処理学会,人工知能学会,日本心理学会,IEEE各会員.}\bioauthor{桝井文人}{1990年岡山大学理学部地学科卒業.同年,沖電気工業(株)入社.2000年三重大学工学部情報工学科助手.質問応答システム,情報抽出の研究に従事.言語処理学会,電子情報通信学会,人工知能学会各会員.}\bioauthor{河合敦夫}{1980年名古屋大学理学部卒業.1985年同大学院工学研究科情報工学専攻博士課程修了.工学博士.同年,日本電信電話(株)入社.同社情報通信網研究所主任研究員を経て,1992年より三重大学工学部情報工学科助教授.文書添削,検索分類等の自然言語処理及び色彩画像処理の研究開発に従事.言語処理学会,情報処理学会,電子情報通信学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V08N04-05 | \section{まえがき}
音声認識技術の進歩により,最近は文章入力を音声で行うことも可能になって来ている.文章を音声で入力する場合には,音声を文字化すると失われてしまう韻律のような情報も言語処理に利用できる可能性がある.韻律には,多様な情報が含まれているが,その中で構文情報に着目した研究がこれまでにいくつか行われている.\cite{UYE}は読み上げ文のポーズやイントネーションを観察し,それらが文の構文構造と関連を持つことを明らかにした.この結果は,もし韻律情報が得られるならば,それを構文解析のための知識源の一つとして利用できる可能性を示唆している.\cite{KOM}は韻律情報を用いて隣接句間の結合度を定義し,結合度の弱い句境界から順に分割して行くことにより,構文木に似た構造が得られることを示した.また,\cite{SEK}は隣接句間の修飾関係の有無の判定に韻律情報が有効であることを報告している.これらの研究は,韻律と構文構造の関係を取り扱ってはいるが,実際に韻律情報を通常の意味の構文解析に利用したものではない.これに対して,\cite{EGU}は5種類の韻律的特徴量を取り上げ,それらと係り受け距離の統計的な関係を,総ペナルティ最小化法\cite{OZE-1}を用いて係り受け解析を行う際のペナルティ関数に組み込むことにより,韻律情報を用いない場合に比べて解析精度が向上することを見い出した.そして,そこで取り上げられた韻律的特徴量の中では文節間のポーズ長が最も有効であることを報告している.その後,同じ枠組みの中で韻律的特徴量の種類を増やし,また対象話者数を拡大して,特徴量の有効な組合せを求める研究や,特徴量の話者独立性に関する検討が行われている\cite{KOU-1,OZE-2,OZE-3,OZE-4}.総ペナルティ最小化法を用いたこれら一連の研究においては,韻律的特徴量が正規分布することが仮定されている.しかし,実際の分布は正規分布とはかなり異なっている.したがって,特徴量の分布を近似するための分布関数を改良することにより,韻律情報をより有効に利用できる可能性がある.また,これまでに取り上げられていない韻律的特徴量の中に有効性の高いものがある可能性もある.そこで本研究では,まず韻律的特徴量,特に最も有効とされるポーズ長に対する分布関数の改良を試みた.また,韻律的特徴量を従来の12種類\cite{OZE-4}から24種類に増やし,日本語読み上げ文の係り受け解析におけるそれらの有効性を実験的に検討した\cite{HIR}.
\section{係り受け解析}
日本語文の構文構造は,文節間の広義の修飾・被修飾関係である「係り受け」という考え方に基づいて記述することができる\cite{HAS}.すなわち日本語文の構文構造は,文中のどの文節がどの文節に係るかを指定することにより決定される.いま,文を文節列$x_{1}x_{2}\cdotsx_{m}$で表し,文節$x_{i}$の係り先,すなわち$x_{i}$を受ける唯一の文節を$x_{c(i)}$で表せば,$c$は$\{1,2,\ldots,m-1\}$から$\{2,3,\ldots,m\}$への写像となる.この写像は次の性質を持つ\cite{YOS}.\vspace{5mm}\begin{itemize}\item後方唯一性:\$i<c(i)$\\($i=1,2,\ldots,m-1$)\\(唯一性は$c$が写像であるということに,すでに含まれている.)\item非交差性:\$i<j$ならば,$c(i)\leqj$または$c(j)\leqc(i)$\\($i,j=1,2,\ldots,m-1$)\end{itemize}\vspace{5mm}上の2つの条件を満たす写像$c$を,ここでは$x_{1}x_{2}\cdotsx_{m}$の上の係り受け構造という.係り受け構造$c$が定まっているとき,$(x_{i},x_{c(i)})$を係り受け文節対という.また,$c(i)-i$を文節$x_{i}$と$x_{c(i)}$の間の係り受け距離,あるいは単に$x_{i}$の係り受け距離という.$(x_{i},\x_{j})$が係り受け文節対であるか否かに関わらず,$j-i$を$x_{i}$と$x_{j}$の間の文節間距離,あるいは単に距離という.文長$m$が3以上の場合には複数の係り受け構造が存在するが,そのすべてが妥当な構文構造を表すわけではない.したがって,さらに制約条件を加え,係り受け構造の中から妥当な構文構造を見い出す必要がある.古典的な係り受け解析においては,文節$x,y$の属性値によって$x$が$y$に係ることが許されるか否かが決まっていると考え,これを制約条件として用いることが多かった.しかし,それだけでは大きな構文的曖昧性が残るので,最近では「許されるか否か」の2値情報ではなく「許される程度」を考え,それを確率,整合度,選好度など\cite{FJO,EHA,UTU}の実数値で表すことが試みられている.本研究で用いた係り受け解析法である「総ペナルティ最小化法」では,$x$が$y$に係ることの困難さを,非負の実数値を取るペナルティ関数$F(x,y)$で表す.そして,総ペナルティ\begin{equation}\sum_{i=1}^{m-1}F(x_{i},x_{c(i)})\end{equation}が最小になる係り受け構造$c$を見い出す.この問題は動的計画法の原理に基づき効率良く解くことができる\cite{OZE-1}.ペナルティ関数$F(x,y)$には種々の言語的知識を組み込むことができる.本研究では,学習データから得られる韻律と係り受け距離に関する統計的知識を組み込む.本研究では,この他に,韻律情報を用いない場合の解析精度を知るため,「決定論的解析法」と呼ばれる係り受け解析法\cite{KUR}を用いた.この方法では,2文節間に係り受けが許されるか否かの2値情報に基づき,文末文節から順にその文節を受ける文節を決定していく.その文節を受けることができる文節が複数存在する場合は,最も距離が近い文節を受け文節として採用する.
\section{データベース}
本研究で使用したATR音声データベース(セットB)\cite{ATR}について簡単に説明する.このデータベースには,新聞,雑誌,小説,手紙,教科書等の出版物から抽出された503文が含まれている.これらの文はAからJまでの10グループに分けられており,各グループには50文(グループJだけは53文)が含まれている.総文節数は3425であり,文末の文節は係り先を持たないので,全部で2922の係り受け文節対が存在する.各文には,表記の他に品詞情報や各文節の係り受け距離などを表すラベルが付されている.このような言語情報の他に,このデータベースにはこれらの文を読み上げた音声データが含まれており,音韻やポーズの位置などを示すラベルが付けられている.データベース全体としては,男性6名,女性4名のアナウンサー/ナレーターの音声データが含まれているが,本研究では,その中の男性2名(MHT,MTK),女性2名(FKN,FYM)の音声データを用いた.これらの発声者はすべてナレーターである.MHT,FKN,FYMの3名については,ピッチ(基本周波数)データがデータベースに含まれているので,それを利用した.MTKについては,ピッチデータが含まれていなかったので,ラグ窓法\cite{SAG}により抽出した.
\section{韻律情報}
係り受け解析とは,文中の各文節がどの文節に係るかを定めることであるから,各文節の係り受け距離に関する何らかの情報があれば,それは係り受け解析のための有効な情報となる.したがって,各文節の韻律的特徴量と係り受け距離の間の関係が分かれば,韻律的特徴量は係り受け解析のための有効な情報となるはずである.本研究では,このような考え方に基づいて韻律情報の利用を図る.\subsection{係り受け距離とポーズ長}まず,係り受け距離と関係がある韻律的特徴量の例として,着目している文節とその直後の文節の間のポーズ長を取り上げる.ポーズ長は,\cite{EGU}および,その後の一連の研究で採用された韻律的特徴量の中で,最も有効性が高いと報告されているものである.図\ref{pau1}は,男性話者MHTについて,1から5までの係り受け距離ごとに,ポーズ長の相対頻度分布を示したものである.このグラフから,どの係り受け距離に対しても,頻度が一度極端に少なくなった後で再び上昇する傾向のあることが分かる.(以後,このように落ち込んだ部分を「ディップ」と呼ぶ.)そして,係り受け距離によって固有の分布を持つことが知られる.このことは,ポーズ長が係り受け距離に関する情報を含んでいることを意味している.なお,参考までに係り受け距離そのものの頻度分布を表\ref{kakarifreq}に示す.これより,係り受け距離が大きくなると頻度が急激に減少し,1から3までの係り受け距離が全体の90\%以上を占めていることが分かる.\begin{figure}\begin{center}\atari(130,89.3)\caption{ポーズ長の相対頻度分布(男性話者MHT).\\(係り受け距離1,2に対してはポーズ長0の相対頻度はスケールの上限を越えている.)}\label{pau1}\end{center}\end{figure}\small\begin{table}\caption{係り受け距離の頻度分布}\label{kakarifreq}\begin{center}\begin{tabular}{|c||c|c|c|c|c|c|c|c|c|c||c|}\hline係り受け距離&1&2&3&4&5&6&7&8&9&10&計\\\hline文節数&1909&500&253&126&73&35&13&9&3&1&2922\\相対頻度(\%)&65.3&17.1&8.7&4.3&2.5&1.2&0.4&0.3&0.1&0.0&100.0\\\hline\end{tabular}\end{center}\end{table}\normalsize\subsection{韻律的特徴量}文節$X$に対する韻律的特徴量は,文節$X$と,主としてその直後の文節$Y$が持つ物理量の相対的関係から抽出する.測定する物理量は,ポーズ長,ピッチ曲線,パワー曲線,発話速度などである.ポーズ長はそのまま特徴量とするが,ピッチ曲線やパワー曲線からは何に着目するかによって種々の特徴量が抽出できる.発話速度に関しても,どの部分の速度に着目するかによって異なった特徴量が得られる.本研究では,以下のような24種類の特徴量を取り上げた.ピッチやパワーの値は対数をとっている.図\ref{prosody3}は1$\sim$16の特徴量を模式的に示したものである.図中の番号は上記の番号に対応している.19$\sim$24は,アクセントコマンドやフレーズコマンド\cite{FUJ}を,東京大学新領域創成科学研究科広瀬研究室で作成された韻律解析プログラム``{\itPROSODY}''\cite{MIN}によって推定し,それらから求めた特徴量である.\vspace{5mm}\begin{itemize}\item[1),2)]$X$,$Y$間のポーズ長(ポーズ長),および$X$の直前のポーズ長(ポーズ長前)\item[3),4)]$X$の末尾の母音継続時間長(母音長前),および$Y$の先頭の母音継続時間長(母音長後)\item[5)]$X$のピッチ曲線にあてはめた回帰直線の傾き(ピッチ傾)\item[6),7)]$X$のピッチ曲線の最大値までの,および最大値後の回帰直線の傾き(それぞれ,ピッチ傾前,ピッチ傾後)\item[8)]$X$の回帰直線の終端値と$Y$の回帰直線の始端値の差(ピッチ差1)\item[9)]ピッチ曲線を文節内の最大値で分割し,それぞれにあてはめた回帰直線によるピッチの差(ピッチ差2)\item[10)]$X$,$Y$のそれぞれに対するピッチ曲線の平均値の差(ピッチ平均)\end{itemize}パワーについても上記{\it5-10}と同様に抽出\begin{itemize}\item[11)](パワー傾),12)(パワー傾前),13)(パワー傾後)\item[14)](パワー差1),15)(パワー差2),16)(パワー平均)\end{itemize}\vspace{5mm}\begin{itemize}\item[17),18)]\\$X$,および$Y$の1秒当たりの平均モーラ数(それぞれ,平均モーラ数1,平均モーラ数2)\item[19),20)]\\$X$の直前,および直後にあるフレーズコマンドの大きさ(それぞれ,フレーズコマンド前,フレーズコマンド後)\item[21)]$X$の終端から$X$の直後にあるフレーズコマンドまでの時間(フレーズコマンド時間)\item[22)]Xの直前,および直後にあるフレーズコマンドの大きさの差(フレーズコマンド差1)\item[23)]22)を$X$の継続長で割ったもの(フレーズコマンド差2)\item[24)]$X$内のアクセントコマンドの数を$X$の継続長で割ったもの(アクセントコマンド数)\end{itemize}\vspace{5mm}これらの中で,1),3),4),5),8),9),10),11),14),15),16)の11種類の特徴量は\cite{OZE-4}で取り上げられたものである.なお,同論文では3)と4)の比も特徴量として取り上げられているが,明確な有効性は報告されていないので,本研究では取り上げなかった.19)$\sim$22)において,$X$の直前(直後)のフレーズコマンドとは,$X$の始端(終端)から一定の時間的しきい値内にあるフレーズコマンドの中で始端(終端)に最も近いものである.そのようなフレーズコマンドが存在しない場合には,その大きさを0とした.\begin{figure}\begin{center}\atari(130.1,43.5)\atari(65.8,43.5)\caption{韻律的特徴量の模式図}\label{prosody3}\end{center}\end{figure}
\section{ペナルティ関数}
\vspace{-1mm}総ペナルティ最小化法を用いて韻律的特徴量の有効性を調べるため,文節$x$が文節$y$に係ることの困難さを表すペナルティ関数$F(x,\y)$を,学習データから得られる韻律的特徴量と係り受け距離に関する統計的知識に基づいて定義する.まず,文中のある文節の係り受け距離を$d$とし,その文節に対する$n$個の韻律的特徴量を成分とするベクトルを$\mbox{\boldmath$p$}_n=(p_1,\ldots,p_n)$とする.そして,$\mbox{\boldmath$p$}_n$が与えられたときの$d$の条件付き確率を$P(d|\mbox{\boldmath$p$}_n)$とする.$P(d|\mbox{\boldmath$p$}_n)$はベイズの定理により\begin{equation}P(d|\mbox{\boldmath$p$}_n)=\frac{P(\mbox{\boldmath$p$}_n|d)P(d)}{\sum_{d}P(\mbox{\boldmath$p$}_n|d)P(d)}\end{equation}と書き直すことができる.したがって,$P(\mbox{\boldmath$p$}_n|d)$と$P(d)$が分かれば$P(d|\mbox{\boldmath$p$}_n)$が求められる.$P(\mbox{\boldmath$p$}_n|d)$は,第$i$特徴量に対する条件付き確率分布$P_{i}(\\cdot\\midd)$を学習データ中の係り受け距離$d$の文節に対する第$i$特徴量の実際の分布から推定し,また,それらの独立性を仮定して\begin{equation}P(\mbox{\boldmath$p$}_n|d)=\prod_{i=1}^{n}P_{i}(p_{i}|d)\end{equation}\noindentにより推定する.$P_{i}(\\cdot\\midd)$の具体的な推定法については後で述べる.また,学習データ中の係り受け距離が$d$である文節数を$N_d$とすれば,$P(d)$は\begin{equation}P(d)=\frac{N_d}{\displaystyle\sum_{d}N_d}\end{equation}により推定できる.さて,文節$x$が文節$y$に係ることができるか否かは,それらを構成する形態素によってかなりの程度定まっている.そこで,これを「係り受け規則」として表し,文節$x$が文節$y$に係ることがその規則によって許されないときは$\infty$のペナルティを与える.また,許されるときは$P(d|\mbox{\boldmath$p$}_n)$を用いてペナルティを定めることにする.すなわち,$d(x,y)$を$x$と$y$の間の距離として,ペナルティ関数$F(x,y)$を次のように定義する\cite{EGU}.\begin{equation}F(x,y)=\left\{\begin{array}{ll}\infty,&x\\mbox{が}\y\\mbox{に係ることが規則によって許されない場合}\\-\logP(d(x,y)|\mbox{\boldmath$p$}_n),&x\\mbox{が}\y\\mbox{に係ることが規則によって許される場合}\end{array}\right.\label{eqn:6}\end{equation}係り受け規則は\cite{KUR}の考え方に基づいて人手で作成したもの\cite{KOU-1}を用いた.この係り受け規則は,決定論的解析法においても共通に使用する.使用したデータベースに対するこの規則の係り受け被覆率,すなわち,データベース中のラベルによって示される2922個の係り受け文節対の中で,この規則により係り受けが許される文節対の割合は92.6\%であった.また,文被覆率,すなわち,503文の中でラベルによって示される係り受け構造がこの規則により許される文の割合は73.0\%であった.
\section{韻律的特徴量の有効性}
係り受け解析における韻律的特徴量の有効性を文正解率,すなわち評価文の中で解析結果がデータベースのラベルで示される係り受け構造と一致する文の割合によって評価する.また,学習データと評価データの組合わせを変えたときの文正解率と係り受け正解率の違いを,それぞれ文長と係り受け距離ごとに観察する.\subsection{学習データと評価データ}3節に述べたデータベースを学習データと評価データに用いた.そのときの条件を表\ref{cond:1}に示す.表中のExp(i)はクローズド実験のための条件である.使用できるデータ量が少ない場合のオープン実験においては,学習データと評価データの役割を入れ替えて複数回の実験を行う,クロス・バリデーション\cite{JEL,MAN}を用いるのがよいとされている.クロス・バリデーションにも,単純なものから複雑なものまで種々の変形が考えられるが,ここで用いるデータ量や研究目的に対してどれが最適であるかは,現時点では不明であるので,ここでは,全データを学習データと評価データに分割する仕方を変えたデータセットを2組用意するという単純な方法を採用した.学習データと評価データの最適な分割比率も不明であるが,学習データを多めに取り,学習データと評価データの量の比が約7対3となるように分割した.また,2つのデータセットの評価データは,重なりがなく,読み上げ方が異なる可能性が大きい部分を選ぶこととした.すなわち,データセットExp(ii)では503文リストの最初の3グループを評価データ,残りを学習データとし,一方,Exp(iii)ではリストの最後の3グループを評価データ,残りを学習データとしている.これらのデータセットに対する解析結果の平均を韻律的特徴量の有効性の評価値とすると共に,それぞれに対する結果の違いも観察することとした.なお,全て話者依存実験である.すなわち,学習と評価は同一話者の文音声を用いて,話者ごとに行っている.\begin{table}\caption{学習データと評価データに関する実験条件}\label{cond:1}\begin{center}\begin{tabular}{|c|c|c|}\hline&学習データ&評価データ\\\hlineExp(i)&A-J(503文,3425文節)&A-J(503文,3425文節)\\Exp(ii)&D-J(353文,2409文節)&A-C(150文,1016文節)\\Exp(iii)&A-G(350文,2505文節)&H-J(153文,920文節)\\\hline\end{tabular}\end{center}\end{table}\subsection{ポーズ長に対する分布関数}韻律的特徴量の中で,特にポーズ長が係り受け解析に有効であることが報告されている\cite{EGU,KOU-1,KOU-2}.また,ポーズ長は,図\ref{pau1}に示したように,係り受け距離によって特異な分布を持っている.そこで,まずポーズ長のみに着目して,使用する分布関数を係り受け距離ごとに変え,どのような分布関数の組合せが有効であるかを調べた.実験条件はExp(i)である.取り上げた分布関数は,正規分布,ポアソン分布,指数分布,および相対頻度分布である.係り受け距離1,2,3に対しては,これらの分布関数の全ての組合わせを試みた.また,係り受け距離4以上に対しては,全て相対頻度分布を用いた.相対頻度分布は,各特徴量の最大値と最小値の間を30分割して求めた.相対頻度分布以外の分布関数の平均値パラメータを推定するとき,\begin{itemize}\item[(A)]全てのデータから平均値パラメータを推定\item[(B)]ディップより大きい値を持つデータのみから平均値パラメータを推定\end{itemize}の2つの場合を比較すると,(B)の方が文正解率が高いことが予備実験において観察された.そこで,(A),(B)それぞれの場合において文正解率が上位であった分布関数の組合わせを3つずつ選んだ.その結果を表3に掲げる.$C_{1}\simC_{3}$が場合(A),$C_{4}\simC_{6}$が場合(B)から選んだものである.\begin{table}\begin{center}\caption{係り受け距離1$\sim$3に対するポーズ長の分布関数の組合せ.\\係り受け距離4以上に対しては,すべて相対頻度分布を使用.}\label{cond:2}\small\begin{tabular}{cl}\hline\hline$C_1$&係り受け距離$1\sim3$の全てに対して正規分布で近似.\\$C_2$&係り受け距離$1\sim3$の全てに対してポアソン分布で近似.\\$C_3$&係り受け距離1に対しては指数分布で近似.$2,3$に対しては正規分布で近似.\\\hline$C_4$&係り受け距離$1\sim3$の全てに対して正規分布で近似.\\$C_5$&係り受け距離2に対しては相対頻度分布を使用.1,3に対しては正規分布で近似.\\$C_6$&係り受け距離1,2に対しては正規分布で近似.3に対してはポアソン分布で近似.\\\hline\hline\end{tabular}\normalsize\end{center}\end{table}これらの分布関数の組合せに対する文正解率を表\ref{res:3}に示す.同表において``距離情報''は,式(\ref{eqn:6})において$P(d(x,y)|\mbox{\boldmath$p$}_n)$の代りに,その事前確率,すなわち文節間距離の確率$P(d(x,y))$を使用したときの文正解率である.また,``決定論的''は,決定論的解析法を用いた時の文正解率を表す.$C_{1}$の文正解率は,係り受け距離4以上に対しても正規分布を適用した場合と全く同じであった.したがって,係り受け距離4以上に対して従来の正規分布の代りに相対頻度分布を用いても,文正解率は向上も低下もしなかったことになる.\begin{table}[htbp]\begin{center}\caption{分布関数の組合せに対する文正解率(\%)}\label{res:3}\small\begin{tabular}{|c|c|c|c|c|c|}\hline組合せ&MHT&MTK&FKN&FYM&平均\\\hline\hline$C_1$&57.7&57.3&54.5&55.3&56.2\\$C_2$&57.9&56.9&57.1&55.5&56.9\\$C_3$&56.7&56.7&55.3&56.1&55.8\\\hline$C_4$&59.6&57.3&57.3&55.5&57.4\\$C_5$&59.4&57.3&57.1&55.7&57.4\\$C_6$&60.2&56.9&57.3&55.7&57.5\\\hline距離情報&&&&&52.3\\\hline決定論的&&&&&47.3\\\hline\end{tabular}\normalsize\end{center}\end{table}組合せ$C_4$,$C_5$,$C_6$の中では文正解率の違いはあまり見られない.しかし,組合せ$C_4$,$C_5$,$C_6$の方が,組合せ$C_1$,$C_2$,$C_3$よりも全体的に正解率が高い.すなわち,平均値パラメータの推定法として,方法(A)より方法(B)の方が良い.この理由は解明できていないが,ポーズ長は値が0のデータが多く,またディップを持つという特異な分布によるものと思われる.表\ref{res:3}の4名の話者の文正解率の平均から,文正解率が,係り受け規則に係り受け距離の頻度情報を加えることで5ポイント,さらにポーズ情報を用いることで約5ポイント向上することが分かる.\subsection{ポーズ長と他の一つの韻律的特徴量の組合せ}組合せ$C_4$,$C_5$,$C_6$に対する文正解率は話者により高低があるので,どの組合せが最適かが明確でない.そこで,ポーズ長にもう一つ韻律的特徴量を組合せて結果を比較する.ポーズ長以外の韻律的特徴量の分布関数としては,相対頻度分布を用いた.表\ref{res:4}は,ポーズ長と他の一つの特徴量の組合せで,話者4名の文正解率の平均値が高かったものを上から順に示している.実験条件はExp(i)である.\begin{table}\begin{center}\caption{ポーズ長と他の一つの特徴量を組合わせたときの文正解率(\%)}\label{res:4}\begin{tabular}{|c|c||c|c|c|c|c|}\hlineポーズ長分布関数&組合せる特徴量&MHT&MTK&FKN&FYM&平均\\\hline\hline$C_5$&平均モーラ数2&60.4&58.4&58.1&57.1&58.5\\$C_5$&ピッチ傾&60.6&57.1&57.7&56.1&57.9\\$C_4$&平均モーラ数2&60.6&57.1&57.7&56.1&57.9\\$C_5$&パワー差1&59.4&57.3&57.9&56.5&57.8\\$C_4$&パワー差2&60.4&57.7&57.3&55.7&57.8\\$C_4$&パワー傾前&60.4&57.1&57.3&56.3&57.8\\$C_6$&平均モーラ数2&59.8&57.5&57.7&56.3&57.8\\$C_5$&アクセントコマンド数&60.4&58.1&57.1&55.5&57.8\\\hline\end{tabular}\end{center}\end{table}表\ref{res:4}の結果より,組合せ$C_5$によってポーズ情報を利用し,もう一つの特徴量として``平均モーラ数2''すなわち,注目している文節の次の文節の平均モーラ数を利用した場合に,ほとんどの話者で最高の結果が得られた.したがって,ポーズ長の分布関数の組合せ$C_5$が,ポーズ情報を利用する上で効果があることが分かった.このことから,以後の実験では,組合せ$C_5$を利用する.\subsection{韻律的特徴量の組合わせ(クローズド実験)}ポーズ長以外の有効な特徴量を探索するため,次のように一つずつ特徴量を追加して係り受け解析実験を行った.ただし,実験条件はExp(i)である.また,25番目の韻律的特徴量として,「``パワー傾前''と``パワー傾後''の併用」を追加した.これは,これらの特徴量の併用による相乗効果を期待したためである.以下で,$T$は特徴量の全体からなる集合,$S$はその中で実際に係り受け解析に使用する特徴量の集合を表す.\vspace{5mm}\begin{itemize}\item[(1)]$S:=\{\mbox{ポーズ長}\}$とし,$S$を用いて係り受け解析を行う.\item[(2)]今までに用いてない(すなわち,$T-S$に含まれる)特徴量の一つを$f$とし,$S\cup\{f\}$を用いて係り受け解析を行う.\item[(3)]$f$を$T-S$の中で動かしたときの$S\cup\{f\}$による文正解率の最大値が$S$による文正解率より高くなければ終了する.高ければ,そのときの最大値を与える$f$を$f_{0}$とし,$S:=S\cup\{f_{0}\}$とする.もし,$S=T$(すなわち,特徴量を使い切った)ならば終了する.$S\not=T$ならば(2)に戻る.\end{itemize}\vspace{5mm}特徴量の組合せを表\ref{cond:3}に,実験結果を表\ref{res:5}に示す.距離情報を用いることにより平均文正解率が5.0ポイント向上し,それがポーズ長を用いることによって,さらに5.1ポイント向上している.残りの10種類の特徴量の追加による平均文正解率の向上は3.3ポイントである.この結果,決定論的解析法の結果をベースラインとしたときの文正解率の向上率は28.3\%となる.これはこれまでの向上率22.0\%\cite{KOU-1,OZE-4}より6.3ポイント高い.\begin{table}\begin{center}\caption{韻律的特徴量の組合せ}\label{cond:3}\begin{tabular}{cl}\hline\hline特徴量の組合せ&使用する特徴量\\\hline$C_a$&``ポーズ長''のみ\\$C_b$&$C_a$と``平均モーラ数2''\\$C_c$&$C_b$と``パワー差1''\\$C_d$&$C_c$と``ピッチ傾前''\\$C_e$&$C_d$と``パワー傾前後の併用''\\$C_f$&$C_e$と``アクセントコマンド数''\\$C_g$&$C_f$と``母音長後''\\$C_h$&$C_g$と``フレーズコマンド差2''\\$C_i$&$C_h$と``パワー差2''\\$C_j$&$C_i$と``ピッチ差2''\\$C_k$&$C_j$と``ポーズ長前''\\\hline\hline\end{tabular}\end{center}\end{table}\begin{table}\begin{center}\caption{韻律的特徴量の組合わせに対する文正解率(\%)}\label{res:5}\begin{tabular}{|c|c|c|c|c|c|}\hline組合せ&MHT&MTK&FKN&FYM&平均\\\hline\hline$C_a$&59.4&57.3&57.1&55.7&57.4\\$C_b$&60.4&58.4&58.1&57.1&58.5\\$C_c$&60.4&59.0&58.1&57.3&58.7\\$C_d$&61.0&59.2&57.9&57.3&58.9\\$C_e$&61.6&58.4&58.3&58.3&59.2\\$C_f$&62.6&59.8&58.3&58.3&59.8\\$C_g$&63.0&59.2&59.2&58.1&59.9\\$C_h$&63.0&60.0&59.6&59.2&60.5\\$C_i$&63.4&60.8&58.6&59.4&60.5\\$C_j$&63.2&60.8&58.6&59.6&60.6\\$C_k$&63.8&60.4&59.2&59.4&60.7\\\hline距離情報&&&&&52.3\\\hline決定論的&&&&&47.3\\\hline\end{tabular}\end{center}\end{table}\newpage\subsection{韻律的特徴量の組合わせ(オープン実験)}クローズド実験と同様に特徴量を順次追加することにより,有効な特徴量の探索を行った.ただし,実験条件はExp(ii),Exp(iii)であり,結果は,それらの文正解率の平均で示す.特徴量の組合せを表\ref{cond:4}に,Exp(ii),Exp(iii)の実験結果の平均を表\ref{res:8}に示す.このように,オープン実験においては3種類の特徴量が有効であり,距離情報で5.0ポイント,ポーズ長でさらに4.7ポイント,2つの特徴量の追加によりさらに0.8ポイントの文正解率の向上が認められる.決定論的解析法の結果をベースラインとしたときの文正解率の向上率は21.2\%である.これは,これまでの向上率17.2\%\cite{KOU-1}より4.0ポイント高い.\begin{table}\begin{center}\caption{韻律的特徴量の組合せ}\label{cond:4}\begin{tabular}{cl}\hline\hline特徴量の組合せ&使用する韻律的特徴量\\\hline$C_A$&ポーズ長のみ\\$C_B$&$C_A$と``パワー差1''\\$C_C$&$C_B$と``母音長後''\\\hline\hline\end{tabular}\end{center}\end{table}\begin{table}\begin{center}\caption{韻律的特徴量の組合わせに対する文正解率(\%)(Exp(ii)とExp(iii)の平均)}\label{res:8}\begin{tabular}{|c|c|c|c|c|c|}\hline組合せ&MHT&MTK&FKN&FYM&平均\\\hline\hline$C_A$&60.4&59.8&59.7&56.8&59.2\\$C_B$&62.3&60.0&59.8&57.4&59.9\\$C_C$&62.3&61.3&59.1&57.4&60.0\\\hline距離情報&&&&&54.5\\\hline決定論的&&&&&49.5\\\hline\end{tabular}\end{center}\end{table}しかしながら,クローズド実験に比べ,文正解率の向上に寄与する特徴量の数が少ない.また,正解率の向上は,ほとんどポーズ長によるものであり,それと併用したときの,ピッチ,パワー,話速などに関連する特徴量の寄与はあまり明らかでなかった.\subsection{文長と文正解率}クローズド実験,およびオープン実験において,それぞれ文正解率が一番高かった特徴量の組合せに対する文長(文節数)と文正解率の関係を表\ref{res:9},表\ref{res:10},表\ref{res:11}に示す.文長11以上については,オープン実験における評価文の数が少なく,信頼性が低いと思われるので省略した.クローズド実験,オープン実験共に,当然ながら文長が長くなるほど文正解率が下がっているが,ほとんどの場合,韻律情報を使った方が,決定論的解析法よりも良い結果が得られている.韻律情報を用いた場合の話者平均正解率は,Exp(ii)(表\ref{res:10})においては,文が長くなったとき比較的緩やかに低下するが,Exp(iii)(表\ref{res:11})においては,それより急に低下する.この傾向は決定論的解析法を用いたときにも見られるので,Exp(ii)の評価文セットよりもExp(iii)の評価文セットの方が,長い文に対する解析の困難度が高いと考えられる.しかし,韻律情報を用いたときの全文話者平均正解率はExp(ii)(58.7\%)よりもExp(iii)(61.4\%)の方が高い.この原因は,Exp(ii)の評価文セットには,話者平均正解率が全文話者平均正解率を下回る長さ7以上の文がExp(iii)の評価文セットより多く存在するためと考えられる.ところが決定論的解析法の全文平均正解率は,Exp(ii)(50.0\%)の方がExp(iii)(49.0\%)より高いので,韻律情報を用いたときのExp(ii)とExp(iii)の全文話者平均正解率の違いは,文長の分布の違いだけに帰せられるものではなく,韻律情報の効果の違いが関係していると考えられる.また,話者別に見ると,Exp(ii)の方がExp(iii)より全文平均正解率が高い話者もいれば,逆の話者もいる.話者FYMは,Exp(ii)においてもExp(iii)においても,全文平均正解率が全文話者平均正解率より低い.FYMが読み上げた音声は,他の話者より発話速度が速く,ポーズ数が少なく,平均ポーズ長も短いことが知られており\cite{OZE-4},このことがFYMに対する全文平均正解率の低さに関係があると思われる.以上のように,解析結果は,評価文が本来持っている解析の困難さ,韻律情報の効果,学習データと評価データの組合せ,読み上げ方など,多くの要因によって影響を受けると推察される.しかし,上に述べた観察結果が単なる統計的ばらつきによるものではないことを確認するためには,より多くのデータが必要と思われる.\begin{table}\begin{center}\caption{文長に対する文正解率(\%)(クローズド実験)(Exp(i))}\label{res:9}\begin{tabular}{|c|c|c|c|c|c|c|c|c|c||c|}\hline文長&2&3&4&5&6&7&8&9&10&全文平均\\\hline\hline文数&4&17&38&80&110&86&58&58&23&503\\\hlineMHT&100&94.1&89.5&75.0&73.6&58.1&50.0&48.3&56.5&63.8\\MTK&100&94.1&78.9&75.0&73.6&50.0&43.1&46.6&39.1&60.4\\FKN&100&76.5&84.2&75.0&66.4&53.5&44.8&46.6&34.8&59.2\\FYM&100&94.1&84.2&67.5&68.2&46.5&50.0&46.6&56.5&59.4\\話者平均&100&89.7&84.2&73.1&70.5&52.0&47.0&47.0&46.7&60.7\\\hline決定論的&100&82.4&73.7&63.8&57.3&37.2&31.0&32.8&30.4&47.3\\\hline\end{tabular}\end{center}\end{table}\begin{table}\begin{center}\caption{文長に対する文正解率(\%)(オープン実験)(Exp(ii))}\label{res:10}\begin{tabular}{|c|c|c|c|c|c|c|c|c|c||c|}\hline文長&2&3&4&5&6&7&8&9&10&全文平均\\\hline\hline文数&2&3&10&28&30&26&19&20&4&150\\\hlineMHT&100&100&90.0&75.0&80.0&53.8&47.4&55.0&50.0&63.3\\MTK&100&100&80.0&82.1&73.3&42.3&47.4&50.0&50.0&60.0\\FKN&100&66.7&100&71.4&70.0&46.2&36.8&55.0&0.0&56.7\\FYM&100&100&90.0&57.1&66.7&42.3&47.4&50.0&25.0&54.7\\話者平均&100&91.7&90.0&71.4&72.5&46.2&44.8&52.5&31.3&58.7\\\hline決定論的&100&100&80.0&57.1&63.3&38.5&36.8&35.0&50.0&50.0\\\hline\end{tabular}\end{center}\end{table}\vspace{-5mm}\begin{table}\begin{center}\caption{文長に対する文正解率(\%)(オープン実験)(Exp(iii))}\label{res:11}\begin{tabular}{|c|c|c|c|c|c|c|c|c|c||c|}\hline文長&2&3&4&5&6&7&8&9&10&全文平均\\\hline\hline文数&2&10&19&32&37&24&13&10&2&153\\\hlineMHT&100&90.0&84.2&78.1&62.2&37.5&38.5&40.0&50.0&61.4\\MTK&100&90.0&84.2&87.5&59.5&37.5&38.5&40.0&0.0&62.7\\FKN&100&80.0&89.5&84.4&59.5&41.7&38.5&30.0&0.0&61.4\\FYM&100&100&78.9&78.1&56.8&33.3&38.5&40.0&50.0&60.1\\話者平均&100&90.0&84.2&82.0&59.5&37.5&38.5&37.5&25.0&61.4\\\hline決定論的&100&80.0&73.7&68.8&43.2&29.2&23.1&30.0&0.0&49.0\\\hline\end{tabular}\end{center}\end{table}\subsection{係り受け距離と係り受け正解率}6.5節と同じ特徴量の組合せに対する,係り受け距離と係り受け正解率の関係を表\ref{res:12},表\ref{res:13},表\ref{res:14}に示す.ただし係り受け正解率とは,評価文中の文末を除く全文節の中で,解析結果による係り先がデータベースのラベルで示される係り先と一致するものの割合である.ほとんどの場合において,韻律情報を用いた方が決定論的解析法より高い係り受け正解率が得られている.Exp(ii)(表\ref{res:13})とExp(iii)(表\ref{res:14})を比較すると係り受け距離6のところで正解率にかなりの差が見られる.文が長くなったときのExp(ii)とExp(iii)の文正解率の差は,このことが関係しているかも知れない.その他の点については,Exp(ii)とExp(iii)で顕著な傾向の違いは見られない.FYMは,Exp(ii)においてもExp(iii)においても,ほとんどの係り受け距離に対して係り受け正解率が平均より低い.全文節話者平均で見るとExp(ii)の方がExp(iii)より係り受け正解率が高いが,全文話者正解率はExp(iii)の方が高い.傾向としては,係り受け正解率が高くなるほど文正解率も高くなるはずであるが,この結果が示すように完全な単調性はない.\begin{table}\begin{center}\caption{係り受け距離に対する係り受け正解率(\%)(クローズド実験)(Exp(i))}\label{res:12}\footnotesize\begin{tabular}{|c|c|c|c|c|c|c|c|c|c|c||c|}\hline係り受け距離&1&2&3&4&5&6&7&8&9&10&合計/全文節平均\\\hline\hline文節数&1909&500&253&126&73&35&13&9&3&1&2922\\\hlineMHT&95.0&83.8&90.9&82.5&71.2&62.9&92.3&88.9&0.0&0.0&91.0\\MTK&94.7&85.0&86.6&76.2&68.5&65.7&76.9&66.7&0.0&0.0&90.2\\FKN&95.1&85.4&86.2&73.0&63.0&60.0&69.2&88.9&0.0&0.0&90.2\\FYM&95.8&80.4&86.6&74.6&65.8&48.6&84.6&55.6&0.0&0.0&89.8\\話者平均&95.2&83.7&87.6&76.6&67.1&59.3&80.8&75.0&0.0&0.0&90.3\\\hline決定論的&94.0&79.4&76.3&57.1&39.7&17.1&15.4&0.0&0.0&0.0&85.3\\\hline\end{tabular}\normalsize\end{center}\end{table}\begin{table}\begin{center}\caption{係り受け距離に対する係り受け正解率(\%)(オープン実験)(Exp(ii))}\label{res:13}\footnotesize\begin{tabular}{|c|c|c|c|c|c|c|c|c||c|}\hline係り受け距離&1&2&3&4&5&6&7&8&合計/全文節平均\\\hline\hline文節数&566&161&74&30&19&10&3&3&866\\\hlineMHT&94.7&83.9&91.9&80.0&57.9&40.0&0.0&0.0&89.8\\MTK&94.7&85.1&86.5&76.7&47.4&30.0&0.0&0.0&89.1\\FKN&95.4&80.1&89.2&73.3&52.6&30.0&0.0&0.0&88.9\\FYM&96.5&78.9&87.8&66.7&42.1&30.0&33.3&0.0&88.9\\話者平均&95.3&82.0&88.9&74.2&50.0&32.5&8.3&0.0&89.2\\\hline決定論的&93.6&83.2&74.3&60.0&42.1&20.0&0.0&0.0&86.3\\\hline\end{tabular}\normalsize\end{center}\end{table}\begin{table}\begin{center}\caption{係り受け距離に対する係り受け正解率(\%)(オープン実験)(Exp(iii))}\label{res:14}\footnotesize\begin{tabular}{|c|c|c|c|c|c|c|c|c|c|c||c|}\hline係り受け距離&1&2&3&4&5&6&7&8&9&10&合計/全文節平均\\\hline\hline文節数&511&129&61&35&17&9&1&2&1&1&767\\\hlineMHT&95.7&79.8&88.5&80.0&47.1&22.2&0.0&0.0&0.0&0.0&89.2\\MTK&95.7&86.0&88.5&68.6&47.1&11.1&0.0&0.0&0.0&0.0&89.6\\FKN&96.1&83.7&86.9&62.9&29.4&11.1&0.0&0.0&0.0&0.0&88.7\\FYM&97.1&78.3&82.0&57.1&58.8&11.1&0.0&0.0&0.0&0.0&88.4\\話者平均&96.2&82.0&86.5&67.2&45.6&13.9&0.0&0.0&0.0&0.0&89.0\\\hline決定論的&94.3&77.5&73.8&57.1&23.5&11.1&0.0&0.0&0.0&0.0&85.0\\\hline\end{tabular}\normalsize\end{center}\vspace{3mm}\end{table}
\section{あとがき}
24種類の韻律的特徴量を取り上げ,係り受け解析に有効な特徴量を求めるための広範な探索を行った.また,特徴量の現実の分布をより良く近似するために,分布関数の改良を試みた.その結果,決定論的解析法をベースラインにしたとき,韻律的特徴量を用いることによる文正解率の向上率は,従来の向上率に比べて,クローズド実験において6.3ポイント,オープン実験において4.0ポイント高い値が得られた.ポーズ長はクローズド実験においてもオープン実験においても非常に有効であったが,これと併用したときの,ピッチ,パワー,話速などに関連する特徴量の有効性は,オープン実験においてはあまり明らかではなかった.しかし,これは特徴量の抽出法やその利用法に問題があるためかも知れないので,このことから直ちにピッチ,パワー,話速などに関連する特徴量が構文情報を含まないと結論付けることはできない.ピッチやパワーに関連する特徴量がそれぞれ単独ではある程度有効であることが知られている\cite{EGU,OZE-3}ので,ポーズ長と併用したときの有効性があまり認められなかったのは,これらの特徴量がポーズ長と強い相関を持つためかも知れない.また,各文節は固有のピッチやパワーのパターンを持っている.したがって,本研究で使用した韻律的特徴量には,係り受け距離に関する情報だけでなく,文節が変ることによるピッチやパワーの変動も同時に含まれている.もし,それらを分離できればさらに有効な特徴量が抽出できる可能性もある.また,ポーズ長の有効性は確認されているものの,その特異な分布を良く近似するには到っておらず,改良の余地が残されている.学習データと評価データの組合せを変えた2つのオープン実験の結果の観察から,文正解率は,評価文が本来持っている解析の困難さ,韻律情報の効果,学習データと評価データの組合せ,読み上げ方など,多くの要因に依存することが推察された.しかし,今回用いた503文のデータではデータ量が少ないため,この観察結果が単なる統計的なばらつきによるものか,必然性のあることなのかを明確に区別することは困難であった.今後より多くのデータを用いてこれらの点を確認したい.本研究で用いた係り受け規則の文被覆率は73.0\%である.したがって,この規則を用いる限り,文正解率はこの数字を越えることはできない.本研究では,韻律的特徴量を用いた場合の文正解率の向上量だけを問題にしたので,文被覆率にはあまり注意を払わなかった.しかし,文被覆率の低さが有効な特徴量を見い出す妨げになっている可能性も否定できない.したがって,今後は,係り受け規則の改良も含めて検討する必要がある.\vspace{5mm}\acknowledgment藤崎モデルに基づく韻律解析プログラムを提供して下さった,東京大学新領域創成科学研究科広瀬啓吉教授に深く感謝致します.また,本研究は高坂和之氏(現在日本電気(株)勤務)の電気通信大学大学院在学中の研究に負うところが多いことを記して,感謝の意を表します.\bibliographystyle{jnlpbbl}\bibliography{288}\newpage\begin{biography}\biotitle{略歴}\bioauthor{廣瀬幸由}{1998年電気通信大学電気通信学部情報工学科卒業.2000年同大学院修士課程修了.在学中,音声言語の研究に従事.現在,ソニー株式会社勤務.言語処理学会会員.}\bioauthor{尾関和彦}{1965年東京大学工学部電気工学科卒業.同年,日本放送協会入社.1968年より1年間エジンバラ大学客員研究員.音声言語処理の研究に従事.電子通信学会第41回論文賞受賞.現在,電気通信大学電気通信学部情報通信工学科教授.工学博士.言語処理学会,日本音響学会,電子情報通信学会,情報処理学会,ISCA,IEEE各会員.}\bioauthor{高木一幸}{1987年筑波大学第3学群情報学類卒業.1989年筑波大学理工学研究科修士課程修了.同年,日本IBM入社.1995年筑波大学工学研究科博士課程修了.音声言語処理の研究に従事.現在,電気通信大学電気通信学部情報通信工学科助手.博士(工学).日本音響学会,電子情報通信学会,情報処理学会,人工知能学会各会員}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V04N03-02 | \section{はじめに}
\label{sec:introduction}単語の多義性を解消するための技術は,機械翻訳における訳語の選択や仮名漢字変換における同音異義語の選択などに応用できる.そのため,さまざまな手法\cite{Nagao96}が研究されているが,最近の傾向ではコーパスに基づいて多義性を解消するものが多い.コーパスに基づく手法では,単語と単語や語義と語義との共起関係をコーパスから抽出し,抽出した共起関係に基づいて入力単語の語義を決める.しかし,抽出した共起関係のみでは全ての入力には対応できないというスパース性の問題がある.スパース性に対処するための一つの方法は,シソーラスを利用することである.シソーラスを使う従来手法には,クラスベースの手法\cite{Yarowsky92,Resnik92,Nomiyama93,Tanaka95a}や事例ベースの手法\cite{Kurohashi92,Iida95,Fujii96a}がある.クラスベースの手法では,システムに入力された単語(入力単語)の代りに,その上位にある,より抽象的な節点を利用する\footnote{本章では単語と語義と節点とを特には区別しない.}.一方,事例ベースの手法では,このような抽象化は行わない.すなわち,入力単語がコーパスに出現していない場合には,出現している単語(出現単語)のうちで,入力単語に対して,シソーラス上での距離が最短の単語を利用する.ところで,シソーラス上では,2単語間の距離は,それらに共通の上位節点\footnote{「二つの節点に共通の上位節点」といった場合には,共通の上位節点のうちで最も深い節点,すなわち,根から最も遠い節点を指す.}の深さにより決まる.つまり,共通の上位節点の深さが深いほど,2単語間の距離は短くなる.したがって,事例ベースの手法では,シソーラス上における最短距離の出現単語ではなくて,最短距離の出現単語と入力単語とに共通の上位節点を利用しているとも考えられる.こう考えると,どちらの手法も,入力単語よりも抽象度の高い節点を利用している点では,共通である.二つの手法の相違は,上位節点の決め方とその振舞いの解釈である.まず,上位節点の決め方については,クラスベースの手法が,当該の入力単語とは独立に設定した上位節点を利用するのに対して,事例ベースの手法では,入力単語に応じて,それに最短距離の出現単語から動的に決まる上位節点を利用する.次に,上位節点の振舞いについては,クラスベースの手法では,上位節点の振舞いは,その下位にある節点の振舞いを平均化したものである.一方,事例ベースの手法では,上位節点の振舞いは,入力単語と最短距離にある出現単語と同じである.このため,クラスベースの手法では,クラス内にある単語同士の差異を記述できないし,事例ベースの手法では,最短距離にある出現単語の振舞いが入力単語の振舞いと異なる場合には,当該の入力の処理に失敗することになる.これは,一方では平均化により情報が失なわれ\cite{Dagan93},他方では個別化によりノイズに弱くなる\cite{Nomiyama93}という二律排反な状況である.クラスベースの手法でこの状況に対処するためには,クラスの抽象化の度合を下げればよい.しかし,それには大規模なコーパスが必要である.一方,事例ベースの手法では,最短距離の出現単語だけではなくて,適当な距離にある幾つかの出現単語を選び,それらの振舞いを平均化して入力単語の振舞いとすればよい.しかし,幾つ出現単語を選べば良いかの指針は,従来の研究では提案されていない.本稿では,平均化による情報の損失や個別化によるノイズを避けて,適当な抽象度の節点により動詞の多義性を解消する手法を提案する.多義性は,与えられた語義の集合から,尤度が1位の語義を選択することにより解消される.それぞれの語義の尤度は,まず,動詞と係り受け関係にある単語に基づいて計算される.このとき,尤度が1位の語義と2位の語義との尤度差について,その信頼下限\footnote{確率変数の信頼下限というときには,その推定値の信頼下限を意味する.確率変数$X$の(推定値の)信頼下限とは,$X$の期待値を$\langleX\rangle$,分散を$var(X)$とすると$\langleX\rangle-\alpha\sqrt{var(X)}$である.また,信頼上限は$\langleX\rangle+\alpha\sqrt{var(X)}$である.$\alpha$は推定の精度を左右するパラメータであり,$\alpha$が大きいと$X$の値が実際に信頼下限と信頼上限からなる区間にあることが多くなる.}が閾値以下の場合には語義を判定しないで,信頼下限が閾値よりも大きいときにのみ語義を判定する.語義が判定できないときには,シソーラスを一段上った節点を利用して多義性の解消を試みる.この過程を根に至るまで繰り返す.根においても多義性が解消できないときには,その係り受け関係においては語義は判定されない.提案手法の要点は,従来の研究では固定的に選ばれていた上位節点を,入力に応じて統計的に動的に選択するという点である.尤度差の信頼下限は,事例ベースの手法において,「幾つ出現単語を選べば良いか」を決めるための指標と考えることができる.あるいは,クラスベースの手法において,「平均化による情報の損失を最小にするクラス」を,入力に応じて設定するための規準と考えることができる.以下,\ref{sec:model}章では動詞の多義性の解消法について述べ,\ref{sec:experiment}章では提案手法の有効性を実験により示す.実験では,主に,提案手法とクラスベースの手法とを比較する.\ref{sec:discussion}章では提案手法とクラスベースの手法や事例ベースの手法との関係などを述べ,\ref{sec:conclusion}章で結論を述べる.
\section{動詞の多義性の解消法}
\label{sec:model}提案手法では,シソーラスに沿って段階的に入力単語を抽象化し,それぞれの段階で動詞語義の尤度を計算する.動詞語義の尤度は尤度パラメータ(確率変数)の値なので,シソーラスに沿った段階的な抽象化は,尤度パラメータの標本空間(定義域)を,シソーラスに沿って段階的に拡張することで実現する.このように,提案手法では,尤度パラメータの標本空間は可変なのであるが,説明の順番としては,まず,固定された標本空間での多義性の解消法について述べたあとで,可変の標本空間での多義性の解消法について述べ,最後に,\cite{Dagan94}の手法を変形した手法について述べる.本章で述べる方法は,一つの係り受け関係において動詞語義を決定する方法である.複数の係り受け関係がある場合には,関係ごとに尤度1位の語義と2位の語義との尤度差の信頼下限を得て,その値が最大の係り受け関係に従って動詞の語義を決める.ただし,全ての関係において尤度差の信頼下限が閾値以下である場合には,語義は判定されない.\subsection{固定された標本空間における動詞の多義性解消}\label{sec:solid}関係$r$にある単語$W$と動詞$V$とが与えられ,それぞれの語義集合が$W=\{w_1,w_2,\ldots\}$,$V=\{v_1,v_2,\ldots\}$であるとき,語義$v_i$の尤度パラメータ$F_i$の標本空間を定義する.まず,語義$w_h$と$v_i$とが関係$r$で共起することを$r(w_h,v_i)$で表し,その共起頻度を$n(r(w_h,v_i))$とする.このとき,単語$W$と語義$v_i$の共起頻度$n_i=n(r(W,v_i))=\sum_{w_h\inW}n(r(w_h,v_i))$に基づいて語義$v_i$の尤度を決める.$n(r(W,v_i))$は,標本空間が$\{r(W,v_1),r(W,v_2),\ldots\}$である確率変数$N(r(W,v_i))$の観測値である.$N(r(W,v_i))$の標本空間は$F_i$の標本空間でもある.本稿では,この標本空間における共起頻度の分布が一般化超幾何分布\footnote{ある母集団が$k$種類の個体からなるとき,それぞれの種類の個体数を$N_1,N_2,...,N_k$とする$(N=N_1+\cdots+N_k)$.$n$個の個体を非復元抽出したとき,それぞれの種類の個体が$n_1,n_2,...,n_k(n=n_1+\cdots+n_k)$だけ選ばれる確率は,一般化超幾何分布$h(n_1\cdotsn_k|N_1\cdotsN_k)=\left(\begin{array}{l}N_1\\n_1\end{array}\right)\cdots\left(\begin{array}{l}N_k\\n_k\end{array}\right)\left(\begin{array}{l}N\\n\end{array}\right)^{-1}$で表される.なお,$k=2$の場合が超幾何分布である.}に従うと仮定する.つまり,標本空間を$\{r(W,v_1),r(W,v_2),\ldots,r(W,v_k)\}$としたとき,$W$と$v_i$との共起頻度を表す確率変数$N(r(W,v_i))$の値には$0\leN(r(W,v_i))\leN_i$という制限があり,$N_1+N_2+\cdots+N_k=N$であるとする.このとき,語義$v_i$の尤度パラメータ$F_i$を以下のように定義する.\begin{equation}\label{D1}F_i=\frac{N_i-n_i}{N-n}.\end{equation}ただし,$n=n_1+n_2+\cdots+n_k$.すると,$F_i$の期待値,分散,および,$F_i$と$F_j$の共分散は以下の通りである(付録A参照).\begin{eqnarray}\label{D2}\langleF_i\rangle&=&(n_i+1)/(n+k),\\\label{D3}var(F_i)&=&p_i(1-p_i)/(n+k+1),\\\label{D4}cov(F_i,F_j)&=&-p_ip_j/(n+k+1).\end{eqnarray}ただし,$p_i=\langleF_i\rangle$である.動詞の語義を判定するかしないかは,$D=F_1-F_2$の信頼下限($Pl$)に基づいて決める.ここで,$\langleD\rangle=\langleF_1\rangle-\langleF_2\rangle$,$var(D)=var(F_1)+var(F_2)-2cov(F_1,F_2)$である.ただし,動詞の語義を適当に並べかえて,$i\gej$ならば$n_i\gen_j$であるようにする.推定精度を左右する$\alpha$と閾値$\theta$を適当に選んで,$Pl(v_1)=\langleD\rangle-\alpha\sqrt{var(D)}>\theta$である場合には$v_1$を語義とする.そうでない場合には関係$r$においては語義を判定しない.なお,$\alpha$と$\theta$の値は\ref{sec:experiment}章で述べる.複数の関係がある場合には,前述のように,最大の$Pl$である関係(信頼下限最大の関係)に基づいて語義の判定を行う.これは,\ref{sec:variable}節と\ref{sec:dagan}節で述べる手法についても同様である.なお,以後,特に断わらない限り,信頼下限とは,尤度1位の語義と2位の語義との尤度差($D$)の信頼下限($Pl$)のことである.\paragraph{例}「初めて理由を聞いた」における「聞く」の多義性を解消する.「聞く」の語義としては,「音を耳に感じとる(HEAR)」と「質問する(ASK)」とを考える.なお,以下では,$F_i$という表記の代りに$F(HEAR)$や$F(ASK)$という表記を用いる.また,共起頻度はEDR日本語コーパス\cite{EDR95}の一部における共起頻度である.「初めて理由を聞いた」には,「副詞(初めて,聞く)」と「を(理由,聞く)」という二つの係り受け関係\footnote{本稿での係り受け関係の種類は\ref{sec:data}節で述べる.}があるので.それぞれについて信頼下限を求めると以下のようになる.まず,「初めて」は「聞く」との共起回数は1回で,HEARと共起している.このとき,$\alpha=1$とすると,(\ref{D2})式から$\langleF(HEAR)\rangle=(1+1)/(1+2)\simeq0.67$,$\langleF(ASK)\rangle=(0+1)/(1+2)\simeq0.33$である.分散は(\ref{D3})式から$var(F(HEAR))=var(F(ASK))\simeq0.056$であり,共分散は(\ref{D4})式から$cov(F(HEAR),F(ASK))\simeq-0.056$である.以上より,$\langleD\rangle=\langleF(HEAR)\rangle-\langleF(ASK)\rangle\simeq0.33$,かつ,$var(D)=var(F(HEAR))+var(F(ASK))-2cov(F(HEAR),F(ASK))\simeq0.22$,$\sqrt{var(D)}\simeq0.47$である.よって,$Pl(HEAR)=\langleD\rangle-\sqrt{var(D)}\simeq-0.14$である.次に,「理由」は関係「を」では「聞く」との共起回数は5回で,HEARと0回,ASKと5回共起している.よって,上と同様な計算により,$Pl(ASK)\simeq0.47$となる.「聞く」の語義は,$\theta=0$とすると,以下のように決まる.まず,「副詞(初めて,聞く)」では,$Pl(HEAR)\simeq-0.14\le\theta$であるので,語義は判定されない.一方,「を(理由,聞く)」では,$Pl(ASK)\simeq0.47>\theta$であるので,ASKが語義として選択される.語義が判定された関係は「を」のみであるので,全体ではASKが語義として選択される.この例では,信頼下限最大の係り受け関係に従って語義を判定した結果が成功している.失敗する例については次節で述べる.\vspace{\baselineskip}本節で述べた手法は,単語と動詞語義との共起頻度に基づいて動詞の多義性を解消する手法であるが,この手法は,容易にクラスベースの手法に拡張できる.すなわち,あるクラスが与えられたときには,そのクラスと動詞語義との共起頻度に基づいて動詞の多義性を解消すればよい.このとき,クラスと動詞語義との共起頻度を得るには,そのクラスに属する語義の全てについて動詞語義との共起頻度を得て,それらの和をとればよい.これは,\ref{sec:dagan}節で述べる手法についても同様である.\subsection{可変の標本空間における動詞の多義性解消}\label{sec:variable}前節で述べた手法は,標本空間$\{r\}\times\{w_1,w_2,\ldots\}\times\{v_1,v_2,\dots\}$を縮小した標本空間$\{r(W,v_1),r(W,v_2),\ldots\}$における共起頻度の分布についての手法である.ここでは,標本空間をシソーラスに沿って拡張することを考える.標本空間を段階的に拡張し,各段階において信頼下限を求め,信頼下限が閾値より大となった時点で語義を判定し,判定のプロセスを終える.以下では,まず,標本空間の拡張の仕方について述べ,次に,信頼下限の求め方について述べる.最後に例を示す.\subsubsection{標本空間の拡張の仕方}ここで考える標本空間は$\{r\}\timesU_i\times\{v_1,v_2,\ldots\}$である.$U_i$は,単語$W$の語義集合$W=\{w_1,w_2,\ldots\}$を,シソーラス\footnote{本稿では,シソーラスとは,一つの根を有するDAG(DirectedAcyclicGraph)であるとする.シソーラスの節点のうちで,根は,それに接続する枝の終点となることはなく,かつ,根からは全ての節点に対して有向道がある.また,そこから出ていく枝がないような節点を葉と呼ぶ.さらに,ある節点の支配下の節点とは,その節点から到達できる節点である.}の構造に従って拡張したものである.$U_i$は$U_{ij}$の和集合として定義されるので,$U_{ij}$を定義してから,$U_i$を定義する.まず,$U_{ij}$は,根から$w_j$までの道上の節点において,根からの距離が$i$にある節点が支配する葉の集合\footnote{任意の単語の任意の語義は葉で表現されると仮定する.この場合には各々の語義は互いに支配関係にない.分類語彙表\cite{Kokken64}とEDR概念体系とを,\ref{sec:experiment}章では,実験に用いるのであるが,分類語彙表の場合には,この仮定が成立する.しかし,EDR概念体系の場合には,語義にあたる概念が葉であるとは限らないため,その語義にあたる節点が別の語義にあたる節点を支配している場合がある.その場合には,ある節点における葉の数が,その節点が支配する語義の数と一致しない.そのため(\ref{U2a})式や(\ref{U2b})式において考慮されない語義がでる.本稿ではこの問題は無視し,全ての語義が葉に相当するとして尤度を計算した.}として定義される.このとき,根から$w_j$までの距離を$l_j$とすると,\begin{equation}\label{U_0j}U_{0j}\supseteqU_{1j}\supseteq\cdots\supseteqU_{l_jj}=\{w_j\}\end{equation}である.なお,$k>l_j$のときには$U_{kj}=\phi$である.次に,$U_i$を以下のように定義する.\begin{equation}\label{U_i}U_i=\bigcup_{w_j\inW}U_{ij}.\end{equation}$i\lej$のときには,(\ref{U_0j})式と同様に,$U_i\supseteqU_j$が成立する.このとき,標本空間は,$l=\max_{w_j\inW}l_j$とすると,$U_l$から順に,$U_{l-1},U_{l-2},\ldots,U_0$と拡張される.たとえば,図\ref{fig:U_i}で$W=\{w_4,w_5\}$とすると,$U_0=\{w_1,w_2,w_3,w_4,w_5,w_6\}$,$U_1=U_2=\{w_4,w_5,w_6\}$,$U_3=\{w_5\}$である.このとき,標本空間は,$U_3,U_2,U_1,U_0$の順に拡張される.複数の親を持つ節点の場合には,根からの距離として複数の道の中で最長のものを選択すれば,$i\lej$のときに$U_i\supseteqU_j$となる.たとえば,根$a$から葉$e$までの二つの道が,$a\rightarrowb\rightarrowc\rightarrowd\rightarrowe$と$a\rightarrowb\rightarrowf\rightarrowe$であるとき,それぞれの節点の根からの距離は,$a=0,b=1,c=2,d=3,e=4,f=2$,とする.標本空間の拡張の仕方は他にも考えられるが,DAGを対象とする場合には,上述の方法が簡明であると考える.\begin{figure}[htbp]\begin{center}\leavevmode\atari(88,64)\end{center}\caption{$U_i$の例}\label{fig:U_i}\end{figure}\subsubsection{信頼下限の求め方}関係$r$にある単語$W$と動詞$V$について,それぞれの語義集合を$W=\{w_1,w_2,\ldots\}$,$V=\{v_1,v_2,\ldots\}$とする.ここで考える標本空間は,$I=\{r\}\timesU_i\timesV$である.語義$v_j$の尤度パラメータ$F(W^\prime,v_j|I)$は,$W^\prime=W\capU_i$とすると,次のように定義される.\begin{eqnarray}\label{U1}F(W^\prime,v_j|I)&=&F(v_j|I)F(W^\prime|v_j,I)\nonumber\\&=&F(v_j|I)\sum_{w\inW^\prime}F(w|v_j,I).\end{eqnarray}$F(W^\prime,v_j|I)$は,図\ref{fig:I}に示されるような標本空間の構造,すなわち,まず,動詞の語義を選び,次に,その語義のもとで単語の語義を選ぶという構造を反映している.\begin{figure}[htbp]\begin{center}\leavevmode\atari(108,72)\end{center}\caption{標本空間$I$の構造}\label{fig:I}\end{figure}$F(W^\prime,v_j|I)$の期待値は以下の通りである.\begin{equation}\label{U3}\langleF(W^\prime,v_j|I)\rangle=\langleF(v_j|I)\rangle\sum_{w\inW^\prime}\langleF(w|v_j,I)\rangle.\end{equation}ただし,$F(v_j|I)$と$F(W^\prime|v_j,I)$とは確率的に独立であるとみなした.なお,分散や共分散は付録Bで与える.(\ref{U1})式における$F(v_j|I)$や$F(w|v_j,I)$は,前と同じように一般化超幾何分布に従う確率変数であり,それらの期待値は以下の通りである.\begin{eqnarray}\label{U2a}\langleF(v_j|I)\rangle&=&\frac{\sum_{u\inU_i}n(r(u,v_j))+1}{\sum_{u\inU_i,v\inV}n(r(u,v))+|V|}\;\;,\\\label{U2b}\langleF(w|v_j,I)\rangle&=&\frac{n(r(w,v_j))+1}{\sum_{u\inU_i}n(r(u,v_j))+|U_i|}\;\;.\end{eqnarray}ただし,$n(r(u,v))$は関係$r$における共起頻度を表す.分散や共分散も(\ref{D3}),(\ref{D4})式と同様に得られる.(\ref{U2a})式と(\ref{U2b})式に使われる数値のなかで,まず,$|V|$は動詞の語義の数である.また,$|U_i|$は標本空間の可変な部分の大きさを表わす数値である.$|U_i|$はシソーラスの構造から決まるので,シソーラスの節点にあらかじめ記録しておくことにより,実行時の計算量を減らす.たとえば,図\ref{fig:U_i}で$|U_2|$の値を求めるときには,二つの節点$u_{24}$と$u_{25}$に記録されている$|U_{24}|=1$と$|U_{25}|=2$の和をとる.同様に,$\sum_{u\inU_i}n(r(u,v_j))$の値も,各節点に,支配下の葉と$v_j$との共起頻度の和を記録しておき,それを利用して求める\footnote{共起頻度の和は葉から根に再帰的に共起頻度を伝播することで記録する.たとえば,図\ref{fig:U_i}では,$u_1$に記録される値は$u_{24}$と$u_{25}$に記録されている値の和である.多重継承があるときには,この伝播の過程で,一つの節点に複数の親がある場合がある.その場合には,その節点に記録されている共起頻度の値を均等に親に分ける.}.図\ref{fig:U_i}の例では,$U_2$について,$\sum_{u\inU_2}n(r(u,v_j))=n(r(w_4,v_j))+n(r(w_5,v_j))+n(r(w_6,v_j))$を求めるためには,$u_{24}$に記録されている$n(r(w_4,v_j))$の値と$u_{25}$に記録されている$n(r(w_5,v_j))+n(r(w_6,v_j))$の値との和をとる.また,(\ref{U2a})式や(\ref{U2b})式の値は,$U_i$ごとに計算され,$U_i$は最大でシソーラスの高さだけの数しかないので,これらの値を計算することは計算量の面で困難ではない.動詞の語義を判定するかしないかは,$D=F(W^\prime,v_1|I)-F(W^\prime,v_2|I)$の信頼下限($Pl$)に基づいて決める.ただし,動詞の語義を適当に並べかえて,$\langleF(W^\prime,v_1|I)\rangle\ge\langleF(W^\prime,v_2|I)\rangle\ge,\ldots$であるようにする.なお,$D$の期待値は$\langleD\rangle=\langleF(W^\prime,v_1|I)\rangle-\langleF(W^\prime,v_2|I)\rangle$である.また,分散$var(D)$は付録Bで与える.語義を判定するために,$\alpha$と$\theta$を適当に選んで,$Pl(v_1)=\langleD\rangle-\alpha\sqrt{var(D)}>\theta$である場合には$v_1$を語義とし,語義判定のプロセスを終える.そうでない場合には,$U_i$の段階では語義の判定をせずに,標本空間をシソーラスに沿って拡張した$U_{i-1}$で再び語義の判定をする.$U_0$においても判定ができないときには関係$r$においては語義の判定を行わない.なお,$\alpha$と$\theta$の値は\ref{sec:experiment}章で述べる.\paragraph{例}「私は関係者にいきさつを聞いた」における「聞く」の多義性を解消する.「聞く」の語義としては,前節と同様に,ASKとHEARとを考える.また,$\alpha=1,\theta=0$とする.なお,計算に必要なその他の詳細は省略する.「私は関係者にいきさつを聞いた」には,「は(私,聞く)」「に(関係者,聞く)」「を(いきさつ,聞く)」という三つの係り受け関係があるので,それぞれについて信頼下限を計算し,語義を求める.「私」は関係「は」では「聞く」との共起回数は6回で,HEARと5回,ASKと1回共起している.そのため,標本空間を拡張するまでもなく$Pl(HEAR)=2.1\times10^{-1}>\theta$となった.「関係者」は関係「に」では2回共起し,HEARと1回,ASKと1回共起している.しかし,このHEARでの共起はタグ付けの誤りであり,ASKと共起すべきものであった.とにかく,この段階ではHEARとASKとで尤度差はない.しかし,シソーラス(分類語彙表)を2段階あがった時点($U_4$)では,$U_4$全体でHEARとの共起は2回,ASKとの共起は9回である.このとき,$|U_4|=69$であり,$Pl(ASK)=5.5\times10^{-4}>\theta$となり,ASKが語義として選択される.これは,タグ付けの誤りを回避した例である.「いきさつ」は関係「を」では「聞く」との共起頻度は0である.一段シソーラスを上ったときの標本空間全体ではASKと1回,HEARと0回共起する.しかし,この段階では$Pl(ASK)<\theta$であるので語義は判定されない.そのまま標本空間を拡張していくと,$U_1$で頻度の分布が逆転し,HEARで171回,ASKで104回共起している.しかし$|U_1|=26984$と標本空間の大きさが大きいので信頼下限は閾値$\theta$を超えない.結局,この係り受け関係では語義は判定されない.これは,シソーラス上での最短距離の語義に従えば成功していた例である.三つの係り受け関係のうちで「は(私,聞く)」が最も信頼下限$Pl$が大きい.一般に,シソーラスを上ると標本空間の大きさは指数的に大きくなるので,尤度は指数的に小さくなる.そのため,標本空間が小さいときの信頼下限は,それが大きいときに比べて大きい.この例では,「は(私,聞く)」に従って語義を選択するので,HEARが語義に選ばれる.これは失敗である.なお,最大の信頼下限に基づく語義選択の妥当性は,\ref{sec:experiment}章で実験により確かめる.\subsection{Daganの手法}\label{sec:dagan}多義性を解消するときに,語義の判定が可能なものだけを判定するという手法は,\cite{Dagan94}でも採用されている.\cite{Dagan94}では,機械翻訳における訳語の選択を目的としているが,ここでは,その手法を,動詞語義の選択のために修正したものについて述べる.以下では,この手法を単にDaganの手法と呼ぶ.また,本節で用いられている記号のうちで,新たに定義されていない記号については,\ref{sec:solid}節と同じ意味で用いられている.標本空間についていえば,Daganの手法は,\ref{sec:solid}節と同じ,固定された標本空間を使う.ただし,\cite{Dagan94}では共起頻度は多項分布をしていると仮定している.動詞の語義を判定するかどうかは,$\hat{p_1}$と$\hat{p_2}$との対数比$\ln(\hat{p_1}/\hat{p_2})$に基づいて決める.ただし,$\hat{p_1},\hat{p_2},\ldots$は,$n_1,n_2,\ldots$から最尤推定される$r(W,v_1),r(W,v_2),\ldots$の確率であり,$\ln(\hat{p_1}/\hat{p_2})=\ln(n_1/n_2)$,$var(\ln(\hat{p_1}/\hat{p_2}))\simeq1/n_1+1/n_2$である.もし,$n_1$,$n_2$で$0$なるものがあれば,$0$の代りに$0.5$を用いる.$\alpha$と$\theta$を適当に選んで,$Pl(v_1)=\ln(\hat{p_1}/\hat{p_2})-\alpha\sqrt{var(\ln(\hat{p_1}/\hat{p_2}))}>\theta$である場合には$v_1$を語義とする\footnote{\cite{Dagan94}では`$>$'ではなく`$\ge$'であるが,`$\ge$'の場合には,$\theta=0$としたときに$\hat{p_1}=\hat{p_2}$であっても$v_1$が選ばれることになるため`$>$'とした.ただし実際にはどちらを用いても同じことである.}.そうでない場合には関係$r$では語義は判定されない.なお,\cite{Dagan94}では$\alpha=1.282$,$\theta=0.2$が選ばれているので,\ref{sec:experiment}章の実験でもそれに従った.\subsection{Daganの手法と提案手法との違い}Daganの手法と提案手法との基本的な違いは,標本空間が固定か可変かということである.提案手法が,尤度の比較に差を用いたり,分布に一般化超幾何分布を仮定したりしているのは,可変の標本空間を上手く取扱うためである.まず,尤度の比較に差を用いた場合には,標本空間を拡張するたびに尤度や尤度差が指数的に小さくなるので,標本空間の大きさを信頼下限に直接反映させることができる.Daganの手法のように(対数)比を用いた場合には,第1位の語義の尤度と第2位の語義の尤度とはオーダとしては違わないため,標本空間の大きさは直接には反映されない.次に,一般化超幾何分布を用いている理由は,標本空間の大きさを明示的に取扱うためである.提案手法では,標本空間を拡張するたびに,尤度パラメータの期待値や分散が変化することが必要である.一般化超幾何分布に従うと,(\ref{U2b})式で示されるように,標本空間の可変な部分の大きさを$|U_i|$として明示的に取り扱える.標本空間の大きさを信頼下限に反映させる理由は,標本空間が小さいときほど語義の判定結果が信頼できると考えているためである.
\section{実験}
\label{sec:experiment}実験のデータ/手法/結果について順に述べる.\subsection{実験データ}\label{sec:data}\subsubsection{コーパスからの実験データの抽出}EDR日本語コーパス\footnote{本稿で用いたEDR日本語コーパス,日本語単語辞書,概念体系辞書はVersion1.5である.}から,動詞を「係り」または「受け」とする係り受け関係を抽出した.EDR日本語コーパスは,新聞・雑誌・辞典などの流通文書から1文単位でとられた約22万文からなるコーパスであり,各文は,人手により,形態素・構文・意味解析されている.なお,EDR日本語コーパスにおける形態素解析の結果には,動詞などの活用語の基本形は示されていない.そこで,本実験では,EDR日本語コーパスでの形態素解析結果をもとに,JUMAN\cite{Matsumoto94}を用いて動詞の基本形を同定した.EDR日本語コーパスにおける解析結果のうちで,本稿で利用するものは,文節間の係り受け関係と文節の主辞に付与された語義(概念識別子)とである.文節間の係り受け関係は,構文解析の結果から得た.また,構文解析の結果には句の主辞に相当するものに印が付いているので,それを利用して文節の主辞を得た.抽出したものは,コーパスにおいて主辞の印がついている動詞と,それと係り受け関係にある文節の集合である.これは,主節か従属節か連体修飾節のいずれかであるが,本稿では一括してセットと呼ぶ.多義性解消は各セットごとに行なわれる.なお,次のセットは抽出しなかった.\begin{itemize}\item多義性解消の対象である動詞に概念識別子が割当てられていないもの.\item多義性解消の対象である動詞を主辞とする文節(動詞文節)が受身,あるいは,使役であるもの.\item多義性解消の対象である動詞をJUMANにより基本形に変形できないもの.\end{itemize}また,セットに含まれる文節で,次のものは除いた.\begin{itemize}\item動詞/形容詞/形容動詞/副詞/名詞/接尾語/数字以外を主辞とする文節.\item動詞文節で,主辞である動詞をJUMANにより基本形に変形できないもの.\end{itemize}\newpage係り受け関係としては図\ref{fig:rels}に示されている21種類を用いた.「*」で示されているものは関係のグループにつけた名前であり,関係の名前ではない.「*係り」というのは,その品詞\footnote{「形容(動)詞」とは,形容詞または形容動詞のことである.また,名詞/接尾語/数字は一括して「名詞」とした.}の形態素を主辞とする文節に係っていくことを示している.なお,係りの関係は関係名の先頭に「係:」を付けることで示す.「*受け」は,その文節を受けることを示している.「*受け」の関係で「*格助詞」で示されるのは,名詞に続く助詞列が格助詞を含む場合である.なお,「φ」は,名詞文節を受ける際に,格助詞や係助詞などが介在しない場合である.また,関係が「*係助詞」で示されるのは,名詞に続く助詞列が係助詞のみからなる場合である.複数の係助詞が共起する場合には最後の係助詞により関係名が決まる.その他の場合は「助詞相当表現」として扱った.この例としては「に対して」などがある.\begin{figure}[htbp]\begin{center}\leavevmode\atari(99,37)\end{center}\caption{21種類の係り受け関係}\label{fig:rels}\end{figure}抽出したセットから頻度500以上の動詞74語を選び,それらの動詞を含む約8,9000セットを実験の対象とした.実験では頻度が5000を超える4語(ある,いう,する,なる)については,無作為に抽出した5000のセットについて実験を行った.その他の動詞については,抽出された全てのセットについて実験を行った.ただし,頻度が10未満の語義を語義としてもつ動詞を多義性解消の対象とするようなセットは実験のデータから除いた.なお,この74語には異なり語義数が1の動詞は含まれていない.\subsubsection{シソーラス}実験に用いたシソーラスはEDR概念体系と分類語彙表である.EDR概念体系には約40万の概念識別子があり,それらはDAGを構成している.分類語彙表には分類番号がつけられた約3万7千の単語があり,それらは意味的に分類された6レベルの木構造をなす.\subsection{実験の手法}\label{sec:method}それぞれの動詞について,抽出したセットに対して,10分割のクロスバリデーション法で多義性解消の実験を行った.すなわち,抽出したセットの集合を10個の均等な大きさの部分集合に分け,9個の部分集合を訓練データとして共起頻度を得て,残りの部分集合をテストデータとして多義性の解消をするということを10回繰り返した.訓練の段階では,以下のようにして,動詞の語義(概念識別子)と,それに係る(それを受ける)単語の語義との共起頻度を得た.まず,シソーラスとして分類語彙表を使う場合には,その単語に割り当てられている$n$個の分類番号の全てに対して,$1/n$を動詞語義との共起頻度とした.次に,シソーラスとしてEDR概念体系を使う場合には,共起の相手である単語に,コーパスにおいて概念識別子が付与されていれば,その概念識別子に共起頻度1を与え,そうでなければ,分類語彙表の場合と同様に,単語に割り当てられている全ての概念識別子に対して均等に共起頻度を割当てた.なお,テストの段階では,単語は全て多義語として取り扱い,単語に付与されている概念識別子は利用しなかった.コーパスのなかの単語には複合名詞もある.そのときには右からの最長一致により辞書引きをした.たとえば,「データ通信」が辞書にないときには「通信」で引き,「通信データ」の場合には「データ」で引いた.このようにしても辞書にない単語については共起として数えなかった.分類語彙表をシソーラスとして使うときには,分類語彙表にない単語は未知語となる.また,EDR概念体系をシソーラスとして使うときには,EDR日本語単語辞書にもEDR日本語コーパスにもない単語は未知語となる(字面が登録されていても概念識別子が登録されていない場合は未知語である).\subsection{実験結果}\label{sec:results}\subsubsection{多義性解消の精度}抽出したセットに対して,次の四つの要因を組み合わせて多義性解消の実験をした.その正確な組合せ方は表\ref{tab:results}にある.1)標本空間は,\ref{sec:model}章で述べた意味において,固定または可変である.2)共起の相手は,標本空間が固定の場合には単語かクラスであり,可変の場合には語義である.ただし,クラスとは,分類語彙表の場合には,分類番号の上位3桁を共有する分類番号の集合のことである.また,EDR概念体系の場合には,根からの距離が4である概念識別子が一つのクラスを代表する概念識別子であり,それに支配される概念識別子の集合が一つのクラスである.3)シソーラスには,分類語彙表かEDR概念体系かを用いた.4)多義性解消の際に動詞語義を判定する手法は,差に基づくもの(\ref{sec:solid}節や\ref{sec:variable}節の手法)か比に基づくもの(Daganの手法)である.なお,表\ref{tab:results}の2行目に$\alpha=1.55$などとあるのは,\ref{sec:solid}節と\ref{sec:variable}節で述べた,差に基づく手法においてパラメータ$\alpha$の値を1.55などにしたということである.ただし,$\theta$は0に固定した.また,比に基づく手法の場合は$\alpha=1.282$,$\theta=0.2$と一定である.ここで,差に基づく手法の$\alpha$の値は,比較の便宜のため,比に基づく手法と適合率の差が1%未満になるように調整した場合の値である.抽出したセットに対して,動詞ごとに多義性解消の実験を行い,判定率・適合率を計算した.ある動詞に対する判定率・適合率の定義は以下の通りである.\begin{equation}\label{app}\mbox{判定率}=\frac{\mbox{語義が判定されたセットの数}}{\mbox{その動詞を含むセットの数}},\end{equation}\begin{equation}\label{pr}\mbox{適合率}=\frac{\mbox{正解の数}}{\mbox{語義が判定されたセットの数}}.\end{equation}ただし,正解とは,プログラムにより選択された語義が,EDR日本語コーパスにおいて付与されている語義(概念識別子)と一致する場合をいう.\begin{table}[htbp]\begin{center}\leavevmode\caption{判定率・適合率の平均値}\label{tab:results}\smallskip\begin{tabular}{|c|cc|cc|cc|cc|cc|c|}\hline標本空間&\multicolumn{8}{c|}{固定}&\multicolumn{2}{c|}{可変}&\\\cline{1-2}\cline{2-9}\cline{10-11}共起対象&\multicolumn{4}{c|}{単語($\alpha=1.55$)}&\multicolumn{4}{c|}{クラス($\alpha=1.95$)}&\multicolumn{2}{c|}{語義($\alpha=1$)}&\\\cline{1-2}\cline{2-5}\cline{6-9}\cline{10-11}Thesaurus&\multicolumn{2}{c|}{分類}&\multicolumn{2}{c|}{EDR}&\multicolumn{2}{c|}{分類}&\multicolumn{2}{c|}{EDR}&分類&EDR&\raisebox{1.6ex}[0pt]{BASE}\\\cline{1-2}\cline{2-3}\cline{4-5}\cline{6-7}\cline{8-9}\cline{10-11}判定手法&比&差&比&差&比&差&比&差&\multicolumn{2}{c|}{差}&\\\hline\hline&.267&.332&.302&.363&.688&.682&.765&.764&.726&.865&1.000\\\raisebox{1.6ex}[0pt]{全体}&.750&.752&.753&.751&.710&.707&.696&.696&.713&.695&0.652\\\hline\hline&.132&.163&.153&.179&.370&.365&.517&.533&.539&.699&1.000\\\raisebox{1.6ex}[0pt]{group1}&.541&.544&.563&.567&.483&.473&.445&.442&.488&.462&0.353\\\hline&.194&.250&.214&.269&.510&.497&.587&.582&.624&.793&1.000\\\raisebox{1.6ex}[0pt]{group2}&.665&.675&.671&.665&.608&.607&.603&.604&.624&.587&0.515\\\hline&.307&.366&.356&.411&.808&.795&.874&.865&.796&.926&1.000\\\raisebox{1.6ex}[0pt]{group3}&.734&.733&.725&.726&.686&.685&.672&.673&.690&.674&0.647\\\hline&.331&.406&.374&.444&.850&.844&.905&.898&.829&.947&1.000\\\raisebox{1.6ex}[0pt]{group4}&.861&.859&.859&.854&.831&.832&.825&.826&.823&.818&0.813\\\hline&.380&.485&.419&.523&.917&.925&.954&.957&.852&.966&1.000\\\raisebox{1.6ex}[0pt]{group5}&.964&.963&.962&.960&.957&.956&.953&.953&.956&.954&0.951\\\hline\end{tabular}\end{center}各欄には,上段に判定率の平均値,下段に適合率の平均値が記載されている.表の2行目に$\alpha=1.55$などとあるのは,\ref{sec:solid}節と\ref{sec:variable}節で述べた,差に基づく手法においてパラメータ$\alpha$の値を1.55などにしたということである.ただし,$\theta$は0に固定した.また,比に基づく手法の場合は$\alpha=1.282$,$\theta=0.2$と一定である.\end{table}判定率・適合率は動詞ごとに異なり,かつ,その異なりは最頻の語義の占める割合と相関があると考えられる.たとえば,一つしか語義がない場合には適合率は1である.そこで,動詞74語を,最頻の語義の占める割合の小さいものから順に,五つの均等な大きさのグループに分け,各グループごとに判定率・適合率の平均値を求めた.それらは,表\ref{tab:results}に,group1〜5として示されている.表の各欄の値は,上段が判定率の平均値であり,下段が適合率の平均値である.なお,「全体」とある行には動詞全体についての平均値が載せてある.また,「BASE」とある右端の列には,常に最頻の語義を選ぶ手法の判定率と適合率がある.この手法は,多義性解消のための手法のベースラインと考えられる\cite{Gale92}.BASEにおいては,全てのセットについて,最頻の語義を語義とみなすので,判定率は1,適合率は最頻の語義の割合となる.表\ref{tab:results}において,まず,共起対象として,単語を選んだ場合とその他(クラスや語義)を選んだ場合とを比べると,シソーラスや判定手法の組合わせにより違いはあるが,単語を選んだ場合の適合率が,その他の場合より4〜5%程度高い.しかし,判定率を比べると,その他の場合の方が,35〜50%程度,単語を選んだ場合より高い.このように単語を共起対象とした場合には,クラスや語義を共起対象とする場合に比べて,適合率が高くなり判定率が低くなるが,4〜5%程度の適合率の高さは,35〜50%程度の判定率の低さを埋め合わせるほどではないと考える.次に,固定された標本空間での結果について比較する.まず,EDR概念体系と分類語彙表とを比べると,登録単語数の差を反映して,EDR概念体系の方が判定率が高い.また,比に基づく手法と差に基づく手法とを比べると,単語を共起の相手とした場合には,差に基づく手法の方が,6%程度,判定率が高い.このことは,差に基づく手法の方が共起頻度の違いに敏感なことを示している.クラスを共起の相手とした場合には,比に基づくものの方が多少判定率が高いが,その差は1%未満である.この場合に,手法の違いが,共起の相手を単語にした場合に比べて効かないのは,クラスを共起の相手とした場合には,単語を共起の相手とした場合に比べて,語義ごとの共起頻度の情報が無視される度合が強いためであると考えられる.最後に,固定された標本空間におけるクラスの結果と可変な標本空間の結果とを,差に基づく手法について比べると,可変な標本空間における方が,分類語彙表の場合には4%程度,EDR概念体系の場合には10%程度,判定率が高い.前述のように,クラスを共起の相手としたときには,比/差の手法において全体の判定率の違いは1%未満である.それに比べて,4あるいは10%程度の違いは大きいと考える.つまり,語義の判定に比を用いるか差を用いるかに比べて,標本空間を可変にするか固定にするかは,より重要な違いであると考える.なお,本稿程度の規模の実験では,1%程度の差があれば,EDR日本語コーパスが日本語全体を良く代表していると仮定して,日本語全体でも同様な傾向が見られるといえる.たとえば,固定された標本空間で,共起の相手としてクラスを選び,分類語彙表をシソーラスとして使ったときには,比に基づく手法の判定率と差に基づく手法の判定率との差は0.6%であるが,これは,符号検定によると,1%の有意水準で有意な差である.\subsubsection{最大の信頼下限による語義判定の有効性}表\ref{tab:results}では,動詞ごとに判定率と適合率を得て,それらの平均を示した.動詞ごとに適合率などを得たのは,動詞ごとのデータ数の違いを吸収するためである.ところで,本節と次節では,係り受け関係を個別にみるので,後述する指標を動詞ごとに得て,それを平均するのは不適当である.なぜなら,動詞によっては,出現数の少い係り受け関係があるため,安定した数値が得られないからである.そのため,動詞ごとではなくて,抽出したセット全体における指標を調べるが,この場合でも動詞ごとのデータ数の影響は除きたい.そこで,まず,各動詞について,前節と同様のセットに対して,\ref{sec:variable}節で述べた提案手法により,EDR概念体系を用い,共起の対象を語義とし,$\alpha=1$,$\theta=0$で多義性の解消をした.次に,その解析結果の中から,各動詞について500セットを無作為に選び,全体では$500\times74=37,000$セットについて本節と次節での分析をした.このセットの中では,最頻の語義が占める割合は0.655,語義の判定されたセットの占める割合は0.865,判定されたセットの中での正解の割合は0.720である.さて,提案手法では,複数の係り受け関係があるときには,係り受け関係ごとに動詞語義と信頼下限とを求め,信頼下限最大の動詞語義を語義として選択している.それが妥当なことは表\ref{tab:1and2}からわかる.表\ref{tab:1and2}は,抽出されたセットの中で語義が判定されたセットについて,係り受け関係ごとに語義判定の正解/不正解を調べたときに,信頼下限最大の係り受け関係での正解/不正解と2番目以降での正解/不正解との関連を示したものである.各欄の数値は,そのようなセットが,語義の判定されたセットの中で占める割合である.なお,「2番目以降に正解なし」という場合は,一つのセットにおいて,語義が判定された係り受け関係の数が1である場合を含む.表\ref{tab:1and2}から,信頼下限が2番目以降の係り受け関係に正解がある場合は,0.46と少ないことがわかる.更に,信頼下限最大のものが不正解である場合には,2番目以降に正解がある割合は$0.021/0.280\simeq0.075$のみである.以上から,語義の判定された係り受け関係が複数あるときには,信頼下限最大の係り受け関係に基づいて語義を判断するのが妥当であるといえる.\begin{table}[htbp]\begin{center}\leavevmode\caption{信頼下限最大の係り受け関係での正解/不正解と2番目以降のものでの正解/不正解の関連}\label{tab:1and2}\bigskip\begin{tabular}{c|cc|c}&2番目以降に正解あり&2番目以降に正解なし&合計\\\hline信頼下限最大の関係が正解&0.442&0.278&0.720\\信頼下限最大の関係が不正解&0.021&0.259&0.280\\\hline合計&0.463&0.537&1.000\end{tabular}\end{center}\end{table}\subsubsection{個別の係り受け関係の多義性解消への寄与}動詞の多義性解消における,係り受け関係ごとの寄与率を表\ref{tab:contrib}に示す.表\ref{tab:contrib}において,係り受け関係の「寄与率」とは,正解であったセットの中で,その係り受け関係の信頼下限が最大であったセット(その関係に基づいて語義が判定されたセット)の割合である.なお,表\ref{tab:contrib}の係り受け関係は,図\ref{fig:rels}に示したもののなかで,寄与率が1%以上のものである.また,表\ref{tab:contrib}では寄与率が5%の上下で境界線を引いた.次に,「出現率」は,その係り受け関係が出現するセットの数を全セット数で割ったものである.ただし,1セット中に同じ係り受け関係が複数回出現しても1回として計数した.「1位判定率」というのは,その係り受け関係が出現したセットにおいて,その関係に基づいて動詞語義が判定されたセットの割合である.「1位適合率」というのは,その係り受け関係により語義が判定されたセットにおいて,正解であったセットの割合である.「共出現数」とは,その係り受け関係が出現したセットにおいて,その関係を含めた係り受け関係の個数の平均値である.まず,寄与率をみると,「を」「に」「が」のような必須的な格,および,これに準ずる「係:名詞」のものが,やはり,高い.しかし,必須でない係り受け関係でも,「係:動詞」や「動詞」は寄与率が高い.これは,この二つの出現率が高いためであろう.つまり,コーパス中には複文が多いためであると考えられる.次に,1位判定率は,共出現数が少いほど高くなる傾向がある.それは,判定の際の競合相手が少くなるためである.そのため,$\mbox{1位判定率}/(1/\mbox{共出現数})=\mbox{1位判定率}\times\mbox{共出現数}$は,係り受け関係の相対的な強さ,つまり,提案手法が,どの係り受け関係により語義を判定するかの相対的な度合を示していると考えられる.この指標により,係り受け関係を並べると,大きい方から,「副詞」「を」「動詞」「係:動詞」「形容(動)詞」「φ」「が」「に」「係:名詞」...となる.ところで,計算機用日本語基本動詞辞書IPAL\cite{IPAL87}のような格フレーム辞書には,名詞と動詞の格関係のみが記述されている.したがって,動詞と動詞や副詞と動詞との共起関係は記述されていない.ところが,上述のことからは,動詞と動詞や副詞と動詞の係り受け関係も,多義性解消に高く貢献しているといえる.よって,格フレームだけでなく,動詞と動詞や副詞と動詞の共起関係を記述しておくことも必要であると考える.なお,1位適合率については次章で別に述べる.\begin{table}[htbp]\begin{center}\leavevmode\begin{tabular}{l|ccccc}係り受け関係&寄与率&出現率&1位判定率&1位適合率&共出現数\\\hlineを&0.212&0.346&0.495&0.769&2.738\\係:動詞&0.130&0.278&0.457&0.637&2.610\\係:名詞&0.117&0.272&0.367&0.731&2.324\\動詞&0.116&0.247&0.430&0.679&2.837\\に&0.089&0.245&0.325&0.695&2.786\\が&0.084&0.212&0.325&0.762&2.807\\副詞&0.050&0.100&0.426&0.727&3.255\\\hlineは&0.046&0.187&0.208&0.739&3.053\\φ&0.032&0.081&0.324&0.759&3.303\\形容(動)詞&0.029&0.067&0.369&0.733&3.030\\で&0.027&0.116&0.200&0.737&3.167\\助詞相当表現&0.014&0.075&0.162&0.727&3.003\\も&0.012&0.049&0.206&0.730&2.690\\と&0.011&0.038&0.251&0.744&2.540\\から&0.011&0.036&0.229&0.843&3.124\\係:形容(動)詞&0.011&0.034&0.287&0.665&2.497\\\end{tabular}\end{center}\caption{係り受け関係の寄与率}\label{tab:contrib}\end{table}
\section{考察}
\label{sec:discussion}本章では,提案手法とクラスベースの手法や事例ベースの手法との関係,および,今後の課題について述べる.\subsection{提案手法とクラスベースの手法や事例ベースの手法との関係}提案手法とクラスベースの手法とを比較すると,クラスベースの手法におけるクラスは,本稿での場合のように,先験的に決めるか,あるいは,データに基づいて決める\cite{Resnik92,Nomiyama93,Tanaka95a}必要がある.データに基づく場合には,必要が生じた時点でクラスを変更する必要がある.しかし,提案手法の場合には,入力に応じて動的に標本空間を定めるため,クラスの設定自体が不要である.提案手法と事例ベースの手法とを実験的に比較することは今後の課題であるが,一つの係り受け関係から動詞の語義を決める場合については,定性的には以下のことが言える.まず,動詞語義の尤度についていえば,事例ベースの手法では,入力単語が動詞語義に付与する尤度は,入力単語から,その動詞語義とコーパスで共起した単語(出現単語)への,シソーラス上での最短距離に基づいている.一方,提案手法では,動詞語義の尤度は,シソーラスの構造と動詞語義のシソーラス上での頻度分布と入力単語とにより決まる.これは,シソーラス上での距離を,コーパスでの共起情報と入力単語とを利用して尤度に変換しているとみなすこともできる.なお,これと同様なことは\cite{Shinnou96}でも行なわれている.しかし,\cite{Shinnou96}は,単語間の一般的な類似性を,シソーラス上での単語間の距離とコーパスでの共起頻度の分布とから設定することを目的としていて,多義性の解消は直接の目的とはしていない.次に,提案手法において,\ref{sec:variable}節で述べた$\alpha$の値を0にすると,第1位と第2位の語義の尤度差が0でなくなった段階で,必ず,動詞の語義が判定される.このときには,事例ベースの手法のように,シソーラス上での最短距離の出現単語に基づいて動詞語義を判定していることになる.一方,$\alpha$の値を大きくすると,動詞語義の頻度分布に大きな偏りがなければ,語義は判定されない.つまり,$\alpha$の値を大きくすることは,最短距離以外にある出現単語も考慮することを意味する.このことは,\ref{sec:introduction}章で述べた,「入力単語の振舞いを決めるのに幾つ出現単語を用いるか」という問題を,$\alpha$の設定に帰着させたと考えることもできる.事例ベースの手法で,もし複数の出現単語を使うとしても,幾つ使うかを決めるためには,シソーラスにおける動詞語義の頻度分布などを考慮しなければならないであろう.提案手法では,\ref{sec:variable}節で述べたように,それが既に分散として数式中で考慮されているため,$\alpha$の値を決めることは,幾つ出現単語を使うかを決めるよりは,容易であると考える.\subsection{今後の課題}表\ref{tab:contrib}にあるように,関係ごとの1位適合率は一様ではない.たとえば,「を」は1位適合率が高く,「係:動詞」は1位適合率が低い.そこで,1位適合率が高いものは,$\alpha$を小さくすることにより,判定率を高くし,1位適合率が低いものは,$\alpha$を大きくすることにより,判定率を低くすることが考えられる.$\alpha$の設定の仕方は今後の課題である.なお,同様な考え方として,\cite{Fujii96a}では,複数の格要素における語義の尤度を足し合わせて全体の尤度とするときに,格ごとの曖昧性解消への貢献度に応じて,その格での尤度に重みを付ける手法が述べられている.本稿では,複数の係り受け関係があっても,それらの間の関係は考慮せずに,信頼下限が最大のものを選んで多義性の解消をしている.この方法は,表\ref{tab:1and2}に示すように,有効である.しかし,複数の係り受け関係の間にある依存関係を利用すれば,判定率や適合率が向上すると考えられる.そのような依存関係を取扱うことは今後の課題である.依存関係を考慮したものとしては,既存の格フレームを利用したり\cite{Kurohashi92,Fujii96a},格フレームあるいは決定木を獲得したり\cite{Tanaka95b},対数線型モデル\cite{Matsuda88}により依存関係を推定する\cite{Bruce94}などの研究があるので,これらと提案手法との融合を検討したい.
\section{おわりに}
\label{sec:conclusion}シソーラスの構造に従って標本空間を動的に拡張し,動詞の多義性を解消する手法を提案した.シソーラスを使って多義性を解消する従来手法には,クラスベースの手法と事例ベースの手法とがあるが,前者には平均化により情報が失われるという短所があり,後者には個別化によりノイズに弱くなるという短所がある.提案手法は,入力に応じて抽象化の度合を統計的に変化させることにより,情報の損失やノイズを避けながら多義性の解消をしようとしている.実験では,EDR日本語コーパスから頻度500以上の動詞74語を抽出し,延べで約89,000の動詞について多義性の解消をした.このとき,最頻の語義を常に選ぶ場合の適合率は65%,判定率は100%であった.クラスベースの手法と提案手法とを比較すると,分類語彙表をシソーラスとして利用した場合には,適合率は共に71%であったが,判定率は,クラスベースの手法が68%,提案手法が73%であった.EDR概念体系を利用した場合には,適合率は共に70%であったが,判定率は,クラスベースの手法が76%,提案手法が87%であった.両者の判定率を比べると,提案手法の判定率の方が統計的に有意に高く,提案手法の有効性が示された.仮名漢字変換や情報検索などに提案手法を応用すること,複数の係り受け関係の間にある依存関係をモデル化すること,などが今後の課題である.\acknowledgment本稿に対して適切な助言を下さった,本学山本幹雄講師に感謝する.\bibliographystyle{jnlpbbl}\bibliography{disamb}\section*{付録}\label{sec:appendix}\section*{A壷のなかに残された玉の割合の推定\footnote{超幾何分布については\cite[Chapter6]{Jaynes96}にある.}}\label{sec:apA}壷の中に$k$種類の玉があり,それぞれ,$N_1$,$N_2$,...,$N_k$個であるとする($N=\sum_{i=1}^{k}N_i$).ただし,それらの値は不明である.$n$個の玉を壷から取り出したとき,それぞれの種類が,$n_1$,$n_2$,...,$n_k$だけ取り出されたとする($n=\sum_{i=1}^{k}n_i$).このとき,壷の中に残された玉$i$の割合$F_i=(N_i-n_i)/(N-n)$の期待値$\langleF_i\rangle$と分散$var(F_i)$,および,$F_i$と$F_j$との共分散$cov(F_i,F_j)$は$N\rightarrow\infty$のとき次の通りである.\begin{equation}\label{A1}\langleF_i\rangle=(n_i+1)/(n+k)\end{equation}\begin{equation}\label{A2}var(F_i)=p_i(1-p_i)/(n+k+1)\end{equation}\begin{equation}\label{A3}cov(F_i,F_j)=-p_ip_j/(n+k+1)\end{equation}ただし,$p_i=\langleF_i\rangle$である.\subsection*{導出の概略}$N_1$の期待値$\langleN_1\rangle$,分散$var(N_1)$,および,$N_1$と$N_2$との共分散$cov(N_1,N_2)$を求め,それを利用して$\langleF_1\rangle$,$var(F_1)$,$cov(F_1,F_2)$を求める.その他の$F_i$,$i=2,\ldots,k$については対称性から求まる.$D$により$k$種類の玉が,それぞれ,$n_1$,...,$n_k$個取り出されたという事象を示す.$N$や$N_i$は$p(\ldots)$の内部で使われたときには,玉の数が$N$や$N_i$であるという事象を示し,それ以外の場合には玉の数を示す.また,$I$はこの問題に対する事前知識(標本空間など)を示す.\begin{equation}\label{A4}\langleN_1\rangle=\sum_{N_1=0}^{N}N_1p(N_1|D,N,I)\end{equation}であるので,まず,$p(N_1|D,N,I)$を求める.ベイズの定理から,\begin{equation}\label{A5}p(N_1|D,N,I)=p(N_1|N,I)\frac{p(D|N_1,N,I)}{p(D|N,I)}.\end{equation}事前確率として次のような一様分布を設定する.\begin{equation}\label{A6}p(N_1|N,I)=\left\{\begin{array}{ll}1/(N+1)&0\leN_1\leN\\0&\mbox{otherwise}\end{array}\right..\end{equation}$D$は一般化超幾何分布からの標本であるので,\begin{equation}\label{A7}p(D|N_1,N,I)=\frac{\left(\begin{array}{l}N_1\\n_1\end{array}\right)\sum_{N_2+\cdots+N_k=N-N_1}\left(\begin{array}{l}N_2\\n_2\end{array}\right)\cdots\left(\begin{array}{l}N_k\\n_k\end{array}\right)}{\left(\begin{array}{l}N\\n\end{array}\right)}.\end{equation}$p(D|N,I)$は正規化のため項であり,\begin{equation}\label{A8}p(D|N,I)=\sum_{N_1=0}^Np(D|N_1,N,I)p(N_1|N,I).\end{equation}(\ref{A5})式に,(\ref{A6}),(\ref{A7}),(\ref{A8})式を代入すると次式が得られる.\begin{equation}\label{A9}p(N_1|D,N,I)=\frac{\left(\begin{array}{l}N_1\\n_1\end{array}\right)\sum_{N_2+\cdots+N_k=N-N_1}\left(\begin{array}{l}N_2\\n_2\end{array}\right)\cdots\left(\begin{array}{l}N_k\\n_k\end{array}\right)}{\sum_{N_1+\cdots+N_k=N}\left(\begin{array}{l}N_1\\n_1\end{array}\right)\cdots\left(\begin{array}{l}N_k\\n_k\end{array}\right)}.\end{equation}ここで\begin{equation}\label{A10}\sum_{N_1+\cdots+N_k=N}\left(\begin{array}{l}N_1\\n_1\end{array}\right)\cdots\left(\begin{array}{l}N_k\\n_k\end{array}\right)=\left(\begin{array}{l}N+k-1\\n+k-1\end{array}\right).\end{equation}よって,\begin{equation}\label{A11}p(N_1|D,N,I)=\left(\begin{array}{l}N_1\\n_1\end{array}\right)\left(\begin{array}{l}N-N_1+k-2\\n-n_1+k-2\\\end{array}\right)\left(\begin{array}{l}N+k-1\\n+k-1\end{array}\right)^{-1}\end{equation}(\ref{A11})式を(\ref{A4})式に代入すると\begin{equation}\label{A12}\langleN_1\rangle=\frac{(n_1+1)(N+k)}{n+k}-1.\end{equation}$F_1=(N_1-n_1)/(N-n)$とすると(\ref{A1})式が得られる.また$p_1=\langleF_1\rangle$とすると,\begin{equation}\label{A13}var(N_1)=\frac{p_1(1-p_1)}{n+k+1}(N+k)(N-n)\end{equation}である.よって,\begin{equation}\label{A14}var(F_1)=\frac{p_1(1-p_1)}{n+k+1}\frac{N+k}{N-n}\end{equation}であり,$N\rightarrow\infty$とすれば(\ref{A2})式が得られる.$N_1$と$N_2$との共分散は,$cov(N_1,N_2)=\langle(N_1-\langleN_1\rangle)(N_2-\langleN_2\rangle)\rangle=\langleN_1N_2\rangle-\langleN_1\rangle\langleN_2\rangle$である.(\ref{A5})式から(\ref{A8})式までと同様な導出により\begin{equation}\label{A15}p(N_1,N_2|D,N,I)=\left(\begin{array}{l}N_1\\n_1\end{array}\right)\left(\begin{array}{l}N_2\\n_2\end{array}\right)\left(\begin{array}{l}N-N_1-N_2+k-3\\n-n_1-n_2+k-3\\\end{array}\right)\left(\begin{array}{l}N+k-1\\n+k-1\end{array}\right)^{-1}\end{equation}であるので,$p_1=(n_1+1)/(n+k)$,$p_2=(n_2+1)/(n+k)$とすると\begin{equation}\label{A16}cov(N_1,N_2)=\frac{-p_1p_2}{n+k+1}(N+k)(N-n).\end{equation}$F_1=(N_1-n_1)/(N-n)$,$F_2=(N_2-n_2)/(N-n)$とすると\begin{equation}\label{A17}cov(F_1,F_2)=\frac{-p_1p_2}{n+k+1}\frac{N+k}{N-n}\end{equation}である.$N\rightarrow\infty$として(\ref{A3})式を得る.\section*{B差の分散}$D=F(W^\prime,v_1|I)-F(W^\prime,v_2|I)$としたとき,$var(D)$は(\ref{B2}),(\ref{B3}),(\ref{B4})式などから(\ref{B1})式により得られる.$E(X)$は確率変数$X$の期待値である.$F(v_1|I)$や$F(w|v_1,I)$などの期待値や分散などは\ref{sec:model}章を参照.また,(\ref{B2})式と(\ref{B4})式では$F(v_1|I)$と$F(v_2|I)$以外は確率的に独立であるとした.(\ref{B1})と(\ref{B2})と(\ref{B3})式については\cite{Stuart87},(\ref{B4})式については\cite{Bohrnstedt69}を参照.\begin{equation}\label{B1}var(D)=var(F(W^\prime,v_1|I))+var(F(W^\prime,v_2|I))-2cov(F(W^\prime,v_1|I),F(W^\prime,v_2|I))\end{equation}\begin{eqnarray}\label{B2}var(F(W^\prime,v_1|I))&=&var(F(v_1|I)F(W^\prime|v_1,I))\nonumber\\&=&var(F(v_1|I))var(F(W^\prime|v_1,I))+E(F(v_1|I))^2var(F(W^\prime|v_1,I))\nonumber\\&+&var(F(v_1|I))E(F(W^\prime|v_1,I))^2\end{eqnarray}\begin{eqnarray}\label{B3}var(F(W^\prime|v_1,I))&=&\sum_{w\inW^\prime}var(F(w|v,I))+\sum_{w,w^\prime\inW^\prime,w\new^\prime}cov(F(w|v,I),F(w^\prime|v,I))\nonumber\\\end{eqnarray}\begin{eqnarray}\label{B4}cov(F(W^\prime,v_1|I),F(W^\prime,v_2|I))&=&cov(F(v_1|I)F(W^\prime|v_1,I),F(v_2|I)F(W^\prime|v_2,I))\nonumber\\&=&cov(F(v_1|I),F(v_2|I))E(F(W^\prime|v_1,I))E(F(W^\prime|v_2,I))\nonumber\\\end{eqnarray}\begin{biography}\biotitle{略歴}\bioauthor{内山将夫}{筑波大学第三学群情報学類卒業(1992).筑波大学大学院工学研究科博士課程修了(1997).信州大学工学部電気電子工学科助手(1997).言語処理学会,情報処理学会の会員.}\bioauthor{板橋秀一}{東北大学工学部通信工学科卒業(1964).東北大学大学院工学研究科電気及び通信工学専攻博士課程単位取得退学(1970).東北大学電気通信研究所助手(1970).通産省工業技術院電子技術総合研究所技官(1972).同主任研究官(1974).ストックホルム王立工科大学客員研究員(1977-78).筑波大学電子・情報工学系助教授(1982).筑波大学電子・情報工学系教授(1987).専門は音声・自然言語・画像の処理・理解.1982年より,(社)日本電子工業振興協会の音声入力方式分科会主査,音声入出力方式専門委員会委員長として音声データベースの検討・構築に従事している.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V04N02-03 | \section{はじめに}
\newenvironment{indention}[1]{}{}照応現象の一つに,文章中に現れていないがすでに言及されたことに関係する事物を間接的に指示する間接照応という用法がある\cite{yamanashi92}.たとえば,「家がある.屋根は白い.」の場合,「屋根」は前文の「家」の屋根である.間接照応の研究はこれまで自然言語処理においてあまり行なわれていなかったが\footnote{文献\cite{Tanaka1}では化学の世界に限定して名詞「体積」の間接照応の解析をしているが,一般の名詞すべてに対して間接照応の解析を行なっている研究はない.},文章の結束性の把握や意味理解において重要な問題である.そこで,我々は二つの名詞間の関係に関する知識を用いて日本語文章上でこの問題を解決することを試みた.間接照応の照応詞としては名詞句,指示詞,ゼロ代名詞が考えられるが,本論文では,名詞句が照応詞である場合の間接照応だけを対象とする.
\section{間接照応の解析方法}
\label{sec:how_to}間接照応の照応先になりえる事物は,間接照応の照応詞によってある程度限定される.例えば,以下の例文のように「屋根」が照応詞である場合は,照応先は「家」などの建物に限定される.\begin{equation}\begin{minipage}[h]{10cm}家がある.\underline{屋根}は白い.\end{minipage}\label{eqn:mouhitori_ojiisan_hoho_kobu}\end{equation}そこで,間接照応の解析を行なうには,間接照応の照応先と照応詞の間の条件を記載した辞書が必要となる.照応先と照応詞の間の条件を記載するとき,照応先でまとめて記載するか,照応詞でまとめて記載するかの問題がある.照応先でまとめて記載すると関係の種類が爆発的に増加することになるが,照応詞でまとめて記載すると関係の種類の数をある程度の数に抑えることができる.例えば,「家族」が間接照応の照応詞である場合,照応先としては「人」ぐらいであるが,「家族」が間接照応の照応先である場合,照応詞としては「人数」「成員」「文化的水準」などと多様なものが想定される.よって,照応詞でまとめて記載する方が効率的であることがわかる.\begin{table}[t]\begin{center}\caption{名詞格フレーム辞書の例}\label{tab:noun_case_frame}\begin{tabular}{|l|l|l|}\hline照応詞&照応先となりえるもの&照応詞と照応先の関係\\\hline家族&人&所属\\\hline国民&国&所属\\\hline元首&国&所属\\\hline屋根&建物&全体--部分\\\hline模型&生産物(飛行機,船)&対象\\\hline行事&組織&関与\\\hline人格&人&所有\\\hline教育&人&行為者\\&人&受益者\\&能力(数学,技術)&対象\\\hline研究&人,組織&行為者\\&学問(数学,技術)&対象\\\hline\end{tabular}\end{center}\end{table}照応詞でまとめると二つの名詞の間の関係に関する辞書の表現は動詞の格フレームに似たものになる.この名詞に対する辞書を{\bf名詞格フレーム辞書}と呼ぶことにする.名詞格フレームの例は表\ref{tab:noun_case_frame}のようなものである.ところが,このような辞書は今のところ存在しない.そこで,名詞格フレーム辞書の代わりに,照応詞が用言の派生語である場合は用言の格フレーム辞書を用い,照応詞が用言の派生語でない場合は,「名詞Aの名詞B」の用例を用いる.間接照応の解析は以下の手順で行なう.\begin{enumerate}\item\label{enum:youso_kenshutu}解析する名詞に対して,用言格フレーム辞書と「AのB」の用例を用いて,間接照応先を求める必要のある空の要素を検出する.解析する名詞が用言からの派生語である場合は用言格フレーム辞書を用い,用言からの派生語でない場合は「AのB」の用例を用いる.\begin{table}[t]\caption{動詞「解析する」の格フレーム}\label{tab:kuitigau_frame}\begin{center}\begin{tabular}[h]{|l|l|l|}\hline表層格&意味素性&用例\\\hlineガ&HUM(人間)&生徒,彼\\ヲ&ABS(抽象名詞)/PRO(具体物)&値/資料\\\hline\end{tabular}\\\end{center}\end{table}\begin{table}[t]\caption{主題の重み}\label{fig:shudai_omomi}\begin{center}\newcommand{\mn}[1]{}\begin{tabular}[c]{|l|l|r|}\hline\multicolumn{1}{|c|}{表層表現}&\multicolumn{1}{|c|}{例}&重み\\\hlineガ格の指示詞・代名詞・ゼロ代名詞&(\underline{太郎}が)した.&21\\\hline名詞は/には&\underline{太郎}はした.&20\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{焦点の重み}\label{fig:shouten_omomi}\begin{center}\newcommand{\mn}[1]{}\begin{tabular}[c]{|l|l|r|}\hline\multicolumn{1}{|l|}{{表層表現(「は」がつかないもので)}}&\multicolumn{1}{|c|}{例}&重み\\\hline{ガ格以外の指示詞・代名詞・ゼロ代名詞}&(\underline{太郎}に)した.&16\\\hline{名詞が/も/だ/なら}&\underline{太郎}がした.&15\\\hline名詞を/に/,/.&\underline{太郎}にした.&14\\\hline名詞へ/で/から/より&\underline{学校}へ行く.&13\\\hline\end{tabular}\end{center}\end{table}例えば,以下の例文の名詞「解析」の解析を行なう場合は,名詞「解析」は用言からの派生語なので,動詞「解析する」の格フレームを取り出す(表\ref{tab:kuitigau_frame}).表\ref{tab:kuitigau_frame}の動詞「解析する」の格フレームには,ガ格とヲ格の二つの格要素があるので,ガ格とヲ格の二つのものが間接照応先を求めるべき要素となる.\begin{equation}\begin{minipage}[h]{9cm}電気信号を利用したおかげで物理学者たちは大量のデータを収集できるようになった.\\そこで,素早い\underline{解析}のための方法が必要となった.\end{minipage}\label{eqn:data_kuitigai}\end{equation}\item\label{enum:kouho_age}($\,$\ref{enum:youso_kenshutu}$\,$)で検出した間接照応先を求める必要のある空の要素に対して,主語や主題や焦点から照応先の候補をあげる.主語,主題,焦点の順に照応先のなりやすさがあるので,推定にはそれに応じた重みを与える.本論文で想定している主題や焦点とその重みを表\ref{fig:shudai_omomi},表\ref{fig:shouten_omomi}にあげる.例えば,「家がある.屋根は白い.」の「屋根」が照応詞である場合は,前方の焦点の「家」が照応先の候補となる.また,例文(\ref{eqn:data_kuitigai})の「解析」のガ格の空の要素の解析をする場合だと,主題・焦点などから「電気信号」「物理学者たち」「大量のデータ」が照応先の候補となる.このとき,これらの候補には表\ref{fig:shudai_omomi},表\ref{fig:shouten_omomi}から重みを与え,ある種の優先性を与える.\item「AのB」の用例と用言格フレーム辞書による意味的制約と,解析している名詞と候補の距離から照応先を判定する.意味的制約としては解析する名詞が用言からの派生語である場合は用言格フレーム辞書を用い,その格フレームの格要素に記載されている用例との類似度が大きいほど間接照応先になりやすいとする.用言からの派生語でない場合は「AのB」の用例を用い,「名詞Aの<解析する名詞>」の用例を集め,名詞Aとの類似度が大きいほど間接照応先になりやすいとする.このときの類似度は分類語彙表における類似レベルを利用する.例えば,「家がある.屋根は白い.」の「屋根」の間接照応先を求める場合では,「\verb+<+名詞A\verb+>+の屋根」の用例を集め,\verb+<+名詞A\verb+>+と意味的に近い名詞を間接照応先とする.また,例文(\ref{eqn:data_kuitigai})の「解析」のガ格の空の要素の解析の場合では,($\,$\ref{enum:kouho_age}$\,$)であげた候補「電気信号」「物理学者たち」「大量のデータ」のうち,動詞「解析する」の格フレームのガ格の意味素性HUM(人間)を満足し,ガ格の用例「生徒」「彼」と意味的に近く,照応詞「解析」と比較的近いところにある「物理学者たち」がガ格の照応先と判定される.同様にヲ格も解析され,「大量のデータ」が照応先と判定され,「解析」が「物理学者たち」が「大量のデータ」に対して行なう解析であると解析できる.\end{enumerate}用言の格フレーム辞書を代用する場合は代用による誤りはあまり生じないと考えられる.「名詞Aの名詞B」を代用する場合は,「名詞Aの名詞B」が多様な意味関係を持つので間接照応していない名詞対に対しても間接照応すると判定する誤りがかなり生じると考えられる.そこで,以下の処理を施すことによりこの誤りを減らすことにした.\begin{enumerate}\item名詞Aが「本当」などの形容詞的な名詞,数量表現,時間を示す表現である場合,その用例は用いない.例えば,「本当の壁」などの用例は用いない.これは「本当」と「壁」が間接照応の関係になるとは考えられないからである.\item名詞Bが「鶴」「人間」などのような間接照応の照応詞になりにくいものである場合,その用例は用いない.つまり,「鶴」「人間」などのような間接照応の照応詞になりにくいものである場合,間接照応の解析を行なわない.本研究で照応詞になりにくいものとみなした語の例を表\ref{fig:hi_shouousi}にあげる.これらの語は飽和名詞\cite{houwameishi}とよばれるものや関係名詞以外の名詞群と似ているが,飽和名詞などは間接照応をする場合があるので,これらの名詞よりもより限定されたものであると考える.\end{enumerate}この二つの処理だけでは代用による誤りを完全に消すことはできないが,少しは軽減できると期待できる.\begin{table}[t]\caption{間接照応の照応詞になりにくいものとみなした語の例}\label{fig:hi_shouousi}\begin{center}\begin{tabular}[c]{|p{11.5cm}|}\hlineLEP実験装置データ解析プログラムドイツ語ドル相場バスパターン認識プログラム宇宙烏映画英語火機械装置共産空き地軍人顕微鏡湖国語昆虫坂道山山道事故自転車自動車実業学校社会車酒樽植物深夜バス人間杉雪山先進国先進主要国川太鼓団扇男茶中学校鳥鶴笛天狗動物日本語日本人物干しざお物置物理学物理学者物理法則泡箱\\\hline\end{tabular}\end{center}\end{table}照応詞が用言の派生語でない場合は,基本的には上で述べたように「名詞Aの名詞B」の用例を用いるが,体(からだ)の一部を表わす名詞と親族呼称の場合は間接照応先は人間と動物に絞られるのが明らかなので,「AのB」の用例を用いず``照応詞「体の一部を表わす名詞」--照応先「人間と動物を表わす名詞」'',``照応詞「親族呼称」--照応先「人間と動物を表わす名詞」''という知識を用いて解析する.「体の一部を表わす名詞」「人間と動物を表わす名詞」の検出には名詞意味素性辞書\cite{imiso-in-BGH}を利用した.また,「親族呼称」の検出は分類語彙表において分類番号が121ではじまる名詞を「親族呼称」とすることで行なった.この種の知識を用いて解析することは名詞格フレーム辞書において簡単に作れる部分は作っておき,作るのが難しい部分については「AのB」で代用するという考え方に基づいている.本研究では上の二つの知識の他はすべて「AのB」の用例で対処したが,この種の知識としては他に``照応詞「病気・感情を表わす名詞」--照応先「人間と動物」'',``照応詞「物体に対する属性名詞(色,大きさなど)」--照応先「物体」''などが考えられる.これらの知識も規則化して用いた方がよいと思われるが,きりがないので本研究では先に述べた二つの知識だけを利用した.以上の方法で一般の名詞における間接照応は解析できるが,「一部」などの部分を表わす名詞や「隣」などの空間語については特有の処理が必要となる.以下の例文の「一部」のように用言の格要素である場合は,その用言との意味的整合性の情報を利用する.意味的整合性の情報は,その用言の格フレームのものを利用する.\begin{equation}\smallskip\begin{minipage}[h]{10cm}物資は水、戦車、弾薬が目につくが、おおいをかけられ積み荷が分からない車も多数ある.\underline{一部}はさらに北西のラフハに向かい、積み荷を降ろしてダンマンに戻るトラックと行き交うたびに砂ぼこりをあげていた.\end{minipage}\label{eqn:kuruma_itibu}\smallskip\end{equation}例えば,この例文では「一部」は「向かう」のガ格であるので,「向かう」の格フレームのガ格を参照する.ガ格にはガ格に入ることができる名詞の用例が記載されていて,この場合は「彼」や「船」などの移動できるものが入ることができると記載されている.このため,間接照応先は「彼」や「船」と意味的に近いものであることがわかる.例文中の前文の「車」は移動できるという意味で「彼」や「船」と意味的に近いので,間接照応先として妥当であると判定される.また,以下の例文の「隣」のように体言に係る場合は,その体言と意味的に近いものだけを照応先とすることによって解析する.\begin{equation}\begin{minipage}[h]{10cm}お爺さんは大喜びをして家に帰りました。そして、その夜起こったことを人々に話して聞かせるのでした。さて、\underline{隣}の家に瘤のあるお爺さんがもう一人住んでおりました。\end{minipage}\label{eqn:tonari_ie}\end{equation}例えば,この例文では「隣」は係り先の体言が「家」であるので,一文目の「家」と間接照応すると解析できる.
\section{照応処理システム}
\begin{figure}[t]\leavevmode\begin{center}\fbox{\begin{minipage}[c]{6cm}\hspace*{0.7cm}条件部$\Rightarrow$\{提案提案..$\;$\}\\[-0.1cm]\hspace*{0.7cm}提案:=(解の候補\,得点)\end{minipage}}\smallskip\caption{規則の表現}\label{fig:kouho_rekkyo}\end{center}\end{figure}\subsection{システムの枠組}\label{wakugumi}本研究では,名詞における間接照応の解析を行なう際,名詞,指示詞,代名詞,ゼロ代名詞などによる直接照応の解析も同時に行なう.まず,解析する文章を構文解析・格解析する\cite{csan2_ieice}.その結果に対して文頭から順に文節ごとに照応解析を行なう.照応解析は,照応解析の手がかりとなる複数の情報をそれぞれ規則にし,これらの規則を用いて解の候補に得点を与えて,合計点が最も高い解の候補をシステムの解とすることによって実現する.これは,照応解析のように複雑な問題では複数の情報が絡み合っており,複数の情報を総合的に判断することにより解析を行なうためである.規則に応じて候補に得点を足していく操作は,その候補が指示対象であるという確信度が高まっていくことに対応している.規則は,図\ref{fig:kouho_rekkyo}の構造をしている.図中の「条件部」には文章中のあらゆる語やその分類語彙表\cite{bgh}の分類番号やIPALの格フレーム\cite{ipal}の情報や名詞の指示性の情報や構文解析・格解析の結果の情報などを条件として書くことができる.「解の候補」には照応先となる名詞の位置を書くことができる.「得点」は解としての適切さの度合を表している.\subsection{照応解析に用いる規則}名詞の解析のために規則を13個作成したが,これらすべてを適用順序に従って以下に示す.以下の規則のうち,間接照応の解析のための規則は規則\ref{enum:間接照応_非サ変名詞}〜\規則\ref{enum:itibu_case}の四つである.規則\ref{enum:ika_kisoku}〜\規則\ref{enum:定名詞以外探索}の9個の規則は直接照応の解析のためのものであり,それぞれの規則で用いている専門用語および規則の詳細については文献\cite{murata_noun_nlp}を参照せよ.また,代名詞などの指示先も同時に解析するがこれのための規則は文献\cite{murata_deno_nl95}を参照せよ.{\begin{enumerate}\item\label{enum:ika_kisoku}「以下」「後述」の名詞や「次のような/次のように/次の〜点」における「次」の場合\\\{(次の文\,$50$)\}\footnote{列挙判定規則の提案のリストを表わす.図\ref{fig:kouho_rekkyo}参照.}\item「それぞれの」「各々の」「各」などに修飾された名詞の場合\\\{(特定指示として個体導入\,$50$)\}\item「自分」の場合\\\{(「自分」が存在する文の主格,「自分」が主格の場合は「自分」を含む文の主節の主格\,$50$)\}\item\label{enum:定名詞探索}推定した名詞の指示性が定名詞の場合で,その名詞を末尾に含み修飾語や所有者が同じ名詞Aが前方にある場合\\\{(名詞A\,$30$)\}\item\label{enum:総称名詞導入}名詞の指示性が総称名詞の場合\\\{(総称指示として個体導入\,$10$)\}\item名詞の指示性が不特定性の不定名詞の場合\\\{(不特定指示として個体導入\,$10$)\}\item名詞の指示性が総称名詞でも不特定性の不定名詞でもない場合\\\{(特定指示として個体導入\,$10$)\}\item「普通」「様」「大分」「一緒」「本当」「何」などの指示対象を持たない名詞の場合\\\{(指示対象なし\,$50$)\}\begin{table}[t]\begin{center}\caption{直接照応の解析の際に名詞の指示性の情報から与える得点}\label{tab:teimeishidenai_doai1}\begin{tabular}[h]{|l|r|}\hline指示性の推定における得点の状況&定名詞でない度合$d$\\\hline定名詞の得点を越える得点を総称名詞と不定名詞が持たない時&0\\定名詞の得点より1点高い得点を総称名詞か不定名詞が持つ時&$3$\\定名詞の得点より2点高い得点を総称名詞か不定名詞が持つ時&$6$\\定名詞の得点より3点以上高い得点を総称名詞か不定名詞が持つ時&規則は適用されない\\\hline\end{tabular}\end{center}\end{table}\item\label{enum:定名詞以外探索}この規則は名詞の指示性が定名詞以外の場合に適用される.以下の得点で用いるdとwとnの説明をする.dは,文献\cite{match}によって推定した指示性に基づいて表\ref{tab:teimeishidenai_doai1}から定まる定名詞でない度合である.wは,表\ref{fig:shudai_omomi},表\ref{fig:shouten_omomi}から定まる主題と焦点の重みである.nは,今解析している名詞と指示対象の候補とする名詞との間の距離を反映した数字である.\\\{(修飾語や所有者が同じで重みが$w$で$n$個前\footnote{主題が何個前かを調べる方法は,主題だけを数えることによって行なう.主題がかかる用言の位置が今解析している文節よりも前にある場合は,その用言の位置にその主題があるとして数える.そうでない場合はそのままの位置で数える.}の同一名詞の主題\,$w-n-d+4$)\\(修飾語や所有者が同じで,今解析している名詞を末尾に含む重みが$w$で$n$個前の主題\,$w-n-d+4-5$)\\(修飾語や所有者が同じで重みが$w$で$n$個前の同一名詞の焦点\,$w-n-d+4$)\\(修飾語や所有者が同じで,今解析している名詞を末尾に含む重みが$w$で$n$個前の焦点\,$w-n-d+4-5$)\}\item\label{enum:間接照応_非サ変名詞}修飾節を持たず\footnote{修飾節を持っている名詞は,修飾節を持っている分だけ限定されていると考えられ,間接照応を行ないにくいと考えるため.},定名詞である度合が$d$で,用言からの派生語ではないが,間接照応の照応詞となる名詞Bの場合(定名詞である度合$d$は文献\cite{match}での指示性の推定における得点の状況から表\ref{tab:teimeishidenai_doai2}によって与えられる.これは,定名詞の方が不定名詞よりも間接照応しやすいと考えたためである.)\\\{(「名詞Aの名詞B」の用例の名詞Aとの類似度により与えられる得点が$s$で,重みが$w$で$n$個前にある主題を間接照応の照応先とする\,$w-n+d+s$)\\(用例との類似度により与えられる得点が$s$で,重みが$w$で$n$個前の\.焦\.点を間接照応の照応先とする\,$w-n+d+s$)\\(用例との類似度により与えられる得点が$s$で,解析している名詞が係る動詞の主格\,$23+d+s$)\\(用例との類似度により与えられる得点が$s$で,解析している名詞が係る動詞が係る名詞を間接照応の照応先とする\,$23+d+s$)\}\\主題や焦点の定義と重み$w$は表\ref{fig:shudai_omomi},表\ref{fig:shouten_omomi}のとおりである.「名詞Aの名詞B」の用例の名詞Aとの類似度により与えられる$s$は,分類語彙表における名詞Aと照応先の類似レベルに応じて表\ref{tab:ruijido_hisahen}により与えられる.このとき,名詞Aが形容詞的な名詞である用例は利用しない.\begin{table}[t]\begin{center}\caption{間接照応の解析の際に名詞の指示性の情報から与える得点}\label{tab:teimeishidenai_doai2}\begin{tabular}[h]{|l|r|}\hline指示性の推定における得点の状況&定名詞である度合$d$\\\hline定名詞の得点が最も高い時&5\\定名詞の得点が総称名詞か不定名詞の得点と同点の時&0\\定名詞の得点より1点高い得点を総称名詞か不定名詞が持つ時&$-5$\\定名詞の得点より2点高い得点を総称名詞か不定名詞が持つ時&$-10$\\定名詞の得点より3点以上高い得点を総称名詞か不定名詞が持つ時&規則は適用されない\\\hline\end{tabular}\end{center}\bigskip\end{table}\begin{table}[t]\leavevmode\caption{用言からの派生語でない場合に与える得点}\label{tab:ruijido_hisahen}\begin{center}\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|}\hline類似レベル&0&1&2&3&4&5&6&一致\\\hline得点&$-$30&$-$20&$-$10&$-5$&0&5&7&10\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\vspace*{-1.4mm}\leavevmode\caption{用言からの派生語の場合に与える得点}\label{tab:ruijido_sahen}\begin{center}\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|}\hline類似レベル&0&1&2&3&4&5&6&一致\\\hline得点&$-$10&$-$2&1&2&2.5&3&3.5&4\\\hline\end{tabular}\end{center}\vspace*{-1.3mm}\end{table}\item\label{enum:サ変名詞}修飾節を持たず,用言からの派生語の場合,\\\{(ゼロ代名詞解析モジュール\cite{murata_deno_nl95}で解析する\,20)\}\\ゼロ代名詞解析モジュールでは,解析する用言からの派生語の空の格要素すべてに対して以下のような規則により候補をあげ,最も得点の大きい候補を照応先とする.ただし,最も得点の大きい候補が閾値の得点よりも小さい場合は,間接照応先の解析は行なわない.この閾値は,ガ格,ヲ格,ニ格,デ格の場合,それぞれ,15点,14点,15点,16点とし,その他の表層格の場合17点とした.また,格フレームに任意格の指定がある格の場合はさらに閾値に3点を加算した.\begin{indention}{0.8cm}\noindentガ格の省略の場合の規則\\\{(用言の格フレームのガ格の用例との類似度がsで重みが$w$で$n$個前の主題\,$w-n*2+1+s$)\\(重みが$w$で$n$個前の焦点\,$w-n+1+s$)\\(用例との類似度がsで今解析している節と並列の節の主格\,$25+s$)\\(用例との類似度がsで今解析している節の従属節か主節の主格\,$23+s$)\\(用例との類似度がsで今解析している節が埋め込み文の場合で主節の主格\,$22+s$)\}\end{indention}\begin{indention}{0.8cm}\noindentガ格以外の省略の場合の規則\\\{(用言の格フレームの格要素の用例との類似度がsで重みがwでn個前の主題\,$w-n*2-3+s$)\\(用例との類似度がsで重みがwでn個前の焦点\,$w-n*2+1+s$)\}\end{indention}この規則中の$s$は,用言の格フレームの格要素の用例と照応先の候補の分類語彙表における類似レベルに応じて表\ref{tab:ruijido_sahen}により与えられる.\item「一部」「隣」などの特殊な名詞で,助詞「の」がつく場合\\\{(今解析している名詞が係る名詞と同一の前方にある名詞を間接照応の照応先とする\,$30$)\}\item\label{enum:itibu_case}「一部」「隣」などの特殊な名詞で,それが用言の格要素になっている場合\\\{(\ref{enum:サ変名詞}と同様な解析モジュールで解析する\,30)\}\end{enumerate}}上記の規則で与える50,30,20,10点などの値は,特殊な名詞のための規則,直接照応のための規則,用言からの派生語に対する間接照応のための規則,照応せず新しく個体として導入されるもののための規則の優先順序を指定するためのものである.また,規則\ref{enum:間接照応_非サ変名詞}で与える23点は主題や焦点の重みとの関係で実験的に定めた.また,分類語彙表での類似レベルや名詞の指示性の情報から与える得点なども実験的に定めた.また,\ref{sec:how_to}節で述べた``照応詞「体の一部を表わす名詞」--照応先「人間と動物を表わす名詞」'',``照応詞「親族呼称」--照応先「人間と動物を表わす名詞」''の知識を用いた解析は以上の規則による解析とは別の解析によって行なう.この種の確信度の高い間接照応の解析は直接照応の解析を行なうよりも前に行なった方が直接照応の解析精度があがるため,規則の得点による解析を行なう前に行なう.具体的にはこれらの解析は規則\ref{enum:定名詞探索},\ref{enum:定名詞以外探索}において用いる名詞の所有者を推定することによって行なわれ,この所有者が間接照応先に相当する.所有者の推定は意味素性が体の一部を意味するPARである名詞か,分類語彙表の分類番号の最初の3桁が``121''である名詞(親族呼称)に対してのみ行なう.その名詞が存在する文の主語かそれまでの主題の中から意味素性がHUM(人間)かANI(動物)のものを探し出して,それを所有者とする.\subsection{解析例}間接照応の解析例を図\ref{tab:dousarei}に示す.図\ref{tab:dousarei}は名詞「公定歩合」の解析を正しく行なったことを示している.これを以下で説明する.文献\cite{match}の方法で「公定歩合」の指示性の解析を行なうと,不定名詞と推定されたので\footnote{文献\cite{match}での推定では不定名詞となったが,「公定歩合」の正しい指示性は,「公定歩合」が「西独」の「公定歩合」であるので,定名詞である.本研究の間接照応の解析を行ない,間接照応となった場合それを定名詞とすることで,文献\cite{match}での指示性の推定精度が上がると思われる.しかし,間接照応する名詞がすべて定名詞となるわけではないので,問題はそう簡単ではない.},前節の3番目の規則により「不定名詞」という候補があげられそれに10点を与える.この候補の得点が最も高い場合は間接照応先を求めないことになる.また,「公定歩合」は用言からの派生語でないので,前節の4番目の規則が用いられる.この規則により主語,主題,焦点から「西独」「自国通貨安」「政策協調」「このドル高」といった候補があげられ,それぞれに得点が与えられる.さらに「公定歩合」との間の距離に応じて得点が与えられ,また,推定した「公定歩合」の指示性が定名詞でなかったので,間接照応しにくくなるという意味で$-5$点を各候補に与える.さらに,「名詞Aの公定歩合」の用例の「名詞A」になっている名詞に「日本」「米国」があり,これらの名詞との類似度に応じて得点を与える.「日本」「米国」と類似度の高い「西独」が最も高い合計点をとり,間接照応先として正しく解析された.\begin{figure}[t]\fbox{\begin{minipage}[h]{13.5cm}このドル高は、政策協調をぎくしゃくさせている.自国通貨安を防ごうと、西独が\underline{公定歩合}を引き上げた.\vspace{0.2cm}\begin{center}\begin{tabular}[h]{|l|l@{}|r@{}|r@{}|r@{}|r@{}|r@{}|}\hline\multicolumn{2}{|l|}{}&不定名詞&西独&自国通貨安&政策協調&このドル高\\\hline\multicolumn{2}{|l|}{3番目の規則}&10&&&&\\\hline\multicolumn{2}{|l|}{4番目の規則}&&25&$-23$&$-24$&$-17$\\\hline&主語&&23&&&\\&主題焦点w&&&14&14&20\\&距離n&&&$-2$&$-3$&$-2$\\&定名詞である度合$d$&&$-5$&$-5$&$-5$&$-5$\\&用例との類似度$s$&&7&$-30$&$-30$&$-30$\\\hline\multicolumn{2}{|l|}{合計}&10&25&$-23$&$-24$&$-17$\\\hline\end{tabular}\end{center}\vspace{0.2cm}「名詞Aの公定歩合」の用例\hspace{0.5cm}日本の公定歩合,米国の公定歩合\smallskip\end{minipage}}\smallskip\smallskip\caption{間接照応の解析例}\label{tab:dousarei}\end{figure}
\section{実験}
\subsection{実験}間接照応の解析を行なう前に構文解析・格解析を行なうが,そこでの誤りは人手で修正した.格フレームはIPALの辞書のものを用いたが,IPALの辞書にない用言に対しては人手で格フレームを作成した.「名詞Aの名詞B」の用例はEDRの共起辞書\cite{edr_kyouki_1.0}のものを利用した.格解析の修正では実験テキスト中の「名詞Aの名詞B」の格解析も正しく行なえることを仮定して修正した.たとえば,「主治医のすすめ」という句が実験テキスト中にある場合,「主治医」は「すすめ」のガ格に入るということはわかっているとする.本研究で提案した「名詞Aの名詞B」の用例と用言格フレーム辞書を用いる方法で間接照応の解析を行なった結果を表\ref{tab:sougoukekka}に示す.テストサンプルにおいても再現率63\%,適合率68\%の精度を得ているので,名詞格フレーム辞書が存在しない現在においても6割以上の精度で間接照応の解析ができることがわかる.\begin{table*}[t]\begin{minipage}[h]{14cm}\caption{本研究の実験結果}\label{tab:sougoukekka}\begin{center}\begin{tabular}[c]{|@{\,}l@{\,}|@{\,}r@{}c@{\,}|@{\,}r@{}c@{\,}|@{\,}r@{}c@{\,}|@{\,}r@{}c@{\,}|@{\,}r@{}c@{\,}|@{\,}r@{}c@{\,}|}\hline&\multicolumn{4}{c|@{\,}}{\small用言からの派生名詞以外}&\multicolumn{4}{c|@{\,}}{\small用言からの派生名詞}&\multicolumn{4}{c|}{\small合計}\\\cline{2-13}&\multicolumn{2}{c|@{\,}}{\small再現率}&\multicolumn{2}{c|@{\,}}{\small適合率}&\multicolumn{2}{c|@{\,}}{\small再現率}&\multicolumn{2}{c|@{\,}}{\small適合率}&\multicolumn{2}{c|@{\,}}{\small再現率}&\multicolumn{2}{c|}{\small適合率}\\\hline\multicolumn{13}{|c|}{「名詞Aの名詞B」と用言の格フレームを用いた実験}\\\hline{\small学習サンプル}&91\%&(60/66)&86\%&(60/70)&66\%&(23/35)&79\%&(23/29)&82\%&(83/101)&84\%&(83/99)\\\hline{\smallテストサンプル}&63\%&(24/38)&83\%&(24/29)&63\%&(20/32)&56\%&(20/36)&63\%&(44/70)&68\%&(44/65)\\\hline\multicolumn{13}{|c|}{完全な名詞格フレーム辞書を用いることができる場合の評価}\\\hline{\small学習サンプル}&91\%&(60/66)&88\%&(60/68)&69\%&(24/35)&89\%&(24/27)&83\%&(84/101)&88\%&(84/95)\\\hline{\smallテストサンプル}&79\%&(30/38)&86\%&(30/35)&63\%&(20/32)&77\%&(20/26)&71\%&(50/70)&82\%&(50/61)\\\hline\end{tabular}\end{center}\begin{center}\begin{minipage}{0.9\textwidth}\baselineskip=14.5pt各規則で与える得点は学習サンプルにおいて人手で調節した.\\{学習サンプル\{例文(43文)\cite{walker2},童話「こぶとりじいさん」全文(93文)\cite{kobu},天声人語一日分(26文),社説1テーマ(26文)\}テストサンプル\{童話「つるのおんがえし」前から91文抜粋\cite{kobu},天声人語二日分(50文),社説半日分(30文)\}評価に適合率と再現率を用いたのは,間接照応を行なわない名詞をシステムが誤って間接照応を行なうと解析することがあり,この誤りを適切に調べるためである.適合率は間接照応の照応先を持つ名詞の要素のうち正解した要素の個数を,システムが間接照応の照応先を持つと解析した要素の個数で割ったもので,再現率は間接照応の照応先を持つ要素のうち正解した要素の個数を,間接照応の照応先を持つ要素の個数で割ったものである.}\end{minipage}\end{center}\end{minipage}\bigskip\vspace{-1.5mm}\end{table*}また,「名詞Aの名詞B」と用言の格フレームを用いた近似的な方法による実験の他に,完全な名詞格フレーム辞書を用いることができることを仮定した評価も行なった(表\ref{tab:sougoukekka}の二段目).この評価は,「名詞Aの名詞B」と用言の格フレームを用いる近似的な方法で解析した結果において,以下の三つの理由で誤ったものを正解として数えることによって行なった.\begin{enumerate}\item適切な用例が不足している.\item副作用を示す用例が存在している.\item名詞と動詞の場合で格フレームが異なる.\end{enumerate}実際に名詞格フレーム辞書を作って解析する場合は,辞書に誤りが含まれることが予想され,精度はここで示したものよりも若干低くなると思われる.\subsection{誤りの考察}\vspace{-0.5mm}名詞格フレーム辞書を用いることができたとして本手法では誤りとなるものとしては次のようなものがあった.\begin{equation}\vspace{-0.5mm}\begin{minipage}[h]{10cm}こんなひどいふぶきの中をいったいだれがきたのかといぶかりながら、お婆さんは言いました。\\「どなたじゃな」\\戸を開けてみると、そこには全身雪でまっ\hspace{-0.2mm}しろになった\hspace{-0.1mm}\underline{娘}\hspace{-0.1mm}が立っておりました。\end{minipage}\end{equation}この例文の下線部の「娘」は若い女の人という意味で用いられていて間接照応しないが,「お婆さん」の「娘」であると解析してしまった.これは,名詞の役割における多義性の問題であり,非常に難しい問題である.また,次のような誤りもあった.\begin{equation}\begin{minipage}[h]{10cm}各国が国内経済政策優先に走るのは、...\\(中略)\\日本の政策当局には、労働需給のひっ迫や消費税導入によって便乗値上げなどからインフレ懸念が強まるとの見方が出始めている。\\この見方は、G7で日本への過度の\underline{期待}をけん制し金融政策のフリーハンドを確保しておくべきだとの意見につながる。\end{minipage}\end{equation}この例文の下線部の「期待」の間接照応先は,「期待」のガ格の間接照応先を「政策当局」と解析したが,「期待」のガ格の正しい間接照応先は「各国」である.この解析ができるようにするには,「期待」がかかる動詞の意味を利用する必要がある.この例の「けん制する」の場合,「けん制する」のガ格と「けん制する」のヲ格にくる動詞のガ格とはほとんど一致しないと考えられる.この知識を用いると,ゼロ代名詞の解析において「けん制する」のガ格には「政策当局」がすでに入っているので,「期待」のガ格に「政策当局」が入るという誤りはなくなると考えられる.このような知識も蓄えて解析する必要がある.また,本研究の方法では,知識の利用は一段階しか行なわないが,二段階の知識の利用が必要な例があった.\begin{equation}\begin{minipage}[h]{10cm}30日に竹下首相をまじえて、自民党の関係者が話し合った内容によると、1票の格差は3倍以内を目標に是正する、総定数を1減らして511に戻す、\underline{抵抗}の強い\underline{2人区}の解消は見送り、定数6の北海道1区だけ分区する方針で合意した、という。\end{minipage}\label{eqn:nininku_ayamari}\end{equation}この例文の下線部の「抵抗」の間接照応先は一見すれば「2人区」と思ってしまうが,深く考えれば「2人区の立候補者」であることがわかる.このような場合は,「2人区」から「抵抗」まで間接照応するとき,「2人区---立候補者」,「立候補者が抵抗する」の二段階の知識の利用が必要となる.このような場合も処理できるような枠組にしていく必要がある.しかし,知識の二段階の利用をあらゆるものに適用すると,間接照応でないのに誤って間接照応と解析する場合が増加し,適合率を低下させることになる.二段階の知識を利用する場合は,また新たな考え方が必要である.\vspace*{-1mm}\begin{table}[t]\caption{「名詞Aの名詞B」を分類語彙表に基づいて並べかえたもの}\label{tab:noun_bgh}\vspace{-1mm}\begin{center}\begin{tabular}{|l|l|}\hline名詞B&名詞Aを分類語彙表に基づいて並べかえたもの\\\hline国民&(人間)相手\,(組織)国先進国両国内地全国日本ソ連\\&英国アメリカスイスデンマーク世界\\\hline元首&(人間)来賓\,(組織)外国各国ポーランド\\\hline屋根&(組織)北海道世界学校工場ガソリンスタンドスーパー\\&自宅本部\,(生産物)車住宅家邸宅民家神殿玄関車\\&車体新車(現象)緑オレンジ色(動作)かわらぶき\\&(精神)方式(特徴)形式車体\\\hline模型&(動物)象\,(自然)富士山\,(生産物)鋳物マンション\\&カプセル電車船軍艦飛行機ジェット機\,(動作)造船\\&(精神)プラン\,(性質)運行\\\hline行事&(人間)皇室王室官民家元\,(組織)全国農村県日本\\&ソ連寺学校学園母校\,(動作)就任まつり祭り\\&祝い巡礼\,(精神)祝い恒例公式\\\hline人格&(人間)わたし私人間青少年政治家\\\hline\end{tabular}\vspace*{-3mm}\end{center}\end{table}\begin{table}[t]\caption{分類語彙表の分類番号の変更}\vspace{-1mm}\label{tab:bunrui_code_change}\begin{center}\begin{tabular}[c]{|l|l|l|}\hline意味素性&分類語彙表の&変更後の\\&分類番号&分類番号\\\hlineANI(動物)&156&511\\[0cm]\hlineHUM(人間)&12[0-4]&52[0-4]\\[0cm]\hlineORG(組織・機関)&125,126,127,128&535,536,537,538\\[0cm]\hlinePLA(植物)&155&611\\[0cm]\hlinePAR(生物の部分)&157&621\\[0cm]\hlineNAT(自然物)&152&631\\[0cm]\hlinePRO(生産物・道具)&14[0-9]&64[0-9]\\[0cm]\hlineLOC(空間・方角)&117&651\\[0cm]\hlinePHE(現象名詞)&150,151&711,712\\[0cm]\hlineACT(動作・作用)&13[3-8]&81[3-8]\\[0cm]\hlineMEN(精神)&130&821\\[0cm]\hlineCHA(性質)&11[2-58],158&83[2-58],839\\[0cm]\hlineREL(関係)&111&841\\[0cm]\hlineLIN(言語作品)&131,132&851,852\\[0cm]\hlineその他&110&861\\[0cm]\hlineTIM(時間)&116&a11\\[0cm]\hlineQUA(数量)&119&b11\\[0cm]\hline\end{tabular}\vspace*{-3mm}\end{center}\end{table}
\section{名詞格フレーム辞書の作成に関する考察}
本論文では,完全な形の名詞格フレーム辞書を用いる代わりに,「名詞Aの名詞B」を利用して間接照応の解析を行なった.しかし,完全な形の名詞関係辞書をなんらかの方法で作成し,これを用いて解析することの方が精度も高くなると期待できるし,自然言語処理に対する正しいスタンスであると考えられる.そこで,名詞格フレーム辞書の作成に関する考察を行なった.「名詞Aの名詞B」の意味解析の研究が進めば,名詞格フレーム辞書は自動的に作成することができると思われる.この場合は非常に小さいコストで名詞格フレーム辞書を作成できることになる.「名詞Aの名詞B」の意味解析の研究が今のような状態でなかなか困難で,人手で作成せざるをえない場合は,どうだろうか.このときも,「名詞Aの名詞B」の用例に注目して作成するのがよいと考えられる.例えば,EDRの「名詞Aの名詞B」の用例を名詞Bの分類語彙表\cite{bgh}の分類番号に応じて並べかえ,また,名詞Aの分類語彙表の分類番号に応じて並べかえ,さらに,名詞Aが形容詞的な名詞である用例を省くと表\ref{tab:noun_bgh}のようになる.このとき並べかえに用いる分類語彙表の分類番号は,表\ref{tab:bunrui_code_change}の変更を行なったものを用いた.表~\ref{tab:bunrui_code_change}は,IPAL動詞辞書\cite{ipal}の意味素性を参考にして作成したものである.「AのB」の用例が表\ref{tab:noun_bgh}の形になれば,そこから名詞格フレーム辞書を人手で作成するのはそんなに大変なことではないと考えられる.「国民」の欄の「相手」,「元首」の欄の「来賓」を取り除いたり,特徴,性質を意味する名詞を取り除くことによって作成することになる.また,「名詞A」にある名詞を大雑把に眺めて国を意味する名詞が多いというときは名詞Aには国を意味するものが入りやすいという意味素性による指定も行なうことにもなる.ただし,用例が不足していることが考えられるので,用例が不足していることを念頭において人手で用例を足しながら作成する必要がある.しかし,意味的な順番に並べかえていて意味的に近いものが近くにあるので,人手で用例を足すときもそれほど困難ではないと考えられる.
\section{おわりに}
本研究では,名詞における間接照応の解析方法の提案を行なった.このとき,名詞格フレーム辞書を作成することが望ましいが,名詞格フレーム辞書はまだ存在しないので,「名詞Aの名詞B」の用例と用言格フレーム辞書を代わりに利用することにした.この方法で,テストサンプルにおいて再現率63\%,適合率68\%の精度で解析できた.このことは,名詞格フレーム辞書が存在しない現在においてもある程度の精度で間接照応の解析ができることを意味している.また,完全な名詞格フレーム辞書が利用できることを仮定した実験も行なったが,この精度はテストサンプルにおいて再現率71\%,適合率82\%であった.また,名詞格フレーム辞書の作成に「名詞Aの名詞B」を利用する方法を示した.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部電気工学第二学科卒業.1995年同大学院修士課程修了.同年,同大学院博士課程進学,現在に至る.自然言語処理,機械翻訳の研究に従事.}\bioauthor{長尾真}{1959年京都大学工学部電子工学科卒業.工学博士.京都大学工学部助手,助教授を経て,1973年より京都大学工学部教授.国立民族学博物館教授を兼任(1976.2--1994.3).京都大学大型計算機センター長(1986.4--1990.3),日本認知科学会会長(1989.1--1990.12),パターン認識国際学会副会長(1982--1984),日本機械翻訳協会初代会長(1991.3--1996.6),機械翻訳国際連盟初代会長(1991.7--1993.7).電子情報通信学会副会長(1993.5--1995.4).情報処理学会副会長(1994.5--1996.4).京都大学附属図書館長(1995--).パターン認識,画像処理,機械翻訳,自然言語処理等の分野を並行して研究.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V15N03-02 | \section{はじめに}
自然言語処理研究は1文を処理対象として数多くの研究が行われてきたが,2文以上を処理対象とする談話処理の研究は依然として多いとは言えない.これは問題が大幅に難しくなることが一因であろう.例えば,構文解析の係り先同定などに見られるように解が文の中にある場合の選択肢は比較的少数であるが,照応・省略解析などのような問題となると解候補や考慮すべき情報が多大となるため正解を得るのは容易ではない.この結果,多くの報告が示すように概ねどのような談話処理の問題であっても十分な精度が得られることは比較的少ない.しかし,これによって談話処理の重要性は何ら変化することはなく,我々は継続的に取り組んでいかなければならない.本論文では,談話処理のうち文間の接続関係を同定する問題に取り組んだ.文間の接続関係同定は,文生成に関係する様々な応用処理,例えば対話処理,複数文書要約,質問応答などにおいて重要となる.例えば,人間の質問に対話的に答えるシステムを考えた場合,対話をスムーズに行うために,システムは伝えるべき情報を自然な発話になるように繋げなければならない.その際に,文間に適切な接続詞を補う必要が出てくる.また,文書要約では文章中から重要な文を選んで列挙する重要文抽出手法が依然として多く行われているが,飛び飛びになっている文が選ばれた際に接続詞を適切に修正(削除,追加,変更)する必要が出てくる.本研究では以下のように問題設定した.まず,入力は接続詞を持つ文とその前文の連続2文として,この接続詞を与えない場合にどの程度同定できるかというタスクとして問題設定した.タスクの入力を連続2文とすることの妥当性については3節で議論する.次に,同定するのは実在した接続詞そのものではなく,接続関係とした.最終的な文生成を考えると接続詞を選ぶことが最終的な目的となるが,例えば「しかし」と「けれども」のどちらかにするかを使い分けることが本研究の目的ではない.また,多くの場合は接続関係が同じであればその接続関係にある接続詞のどれを選んでも構わないと推察されることからこのようなタスク設定とした.我々の設定した接続関係については2節で議論する.ここで関連研究を概観する.日本語接続詞を利用した要約や文書分類の研究,あるいは接続詞そのものの分析の研究は多数あるが本論文の対象ではないので省略する.接続詞決定に関して,例えば高橋らが考察を行っているが(高橋他1987),この入力は「文章の意味構造」であり,すなわち接続関係が与えられて接続詞を決める問題であるため本研究とは比較できない.一方,飯田らは気象情報文を生成する過程で「接続詞」\footnote{(飯田,相川2005)では「接続詞」を自動決定するとあるが,「…し,」と「…が,」しか出現しないことから「接続詞」とは接続助詞を指すものと推察される.}を自動同定する処理を行っている(飯田・相川2005)が,順接と逆接のどちらになるかを選択するタスクであり,これ以外の関係を全く想定していない.また,入力は時間,天気,気温,風力などの気象データであり,全く異なるタスクと考えてよい.以上のように,日本語で言語表現を入力として接続詞,もしくは接続関係を同定する研究は我々の知る限り存在しない.Marcuは大規模なテキストデータによる学習からNa\"{\i}veBayes分類器を用いてセグメント間の接続関係を同定する手法を提案している(Marcuetal.2002).Marcuは接続関係をCONTRAST(逆接),CAUSE-EXPLANATION-EVIDENCE(因果,並列),CONDITION(条件),ELABORATION(累加)の4種類に限定し,さらに同じテキストから取り出した関係を持たない2つのセグメントと異なるテキストから取り出した関係を持たないセグメントを加えた6種類の接続関係を用いてそのうちの2つの関係間での2値分類を行っている.そこでは2つのセグメントからそれぞれ取り出した単語対を素性とし,大量のコーパスから取り出した単語対の情報がシステムに良い影響を与えていることを示している.さらに,コーパスの量が同じなら単語対に用いる品詞を限定した方が精度が良くなることも述べている.一方,Hutchinsonは機械学習により極性(polarity),真実性(veridicality),接続関係の種類(type)の3つの側面から接続関係を分類し,接続関係の分類構造の分析を行っている(Hutchinson2004b).SporlederはMarcuの研究を受けて,単語の表層形だけでなく,対象とする文のドキュメント内での出現位置や文の長さ,単語のbigram,品詞,テンス・アスペクトなどを素性として用いて,機械学習器BoosTexterによる同定を行っている(Sporlederetal.2005).ここで,SporlederはMarcuとは異なる5種類の接続関係を対象としている.本論文では大量のWeb文書を用いて,与えられた2文に最も近い用例を探すことで2文間の接続関係を推定する手法を提案する.すなわち,大量のWebテキストを用例として利用することで,接続関係を推定するための規則を作ることなく接続関係を同定する.これは,用例利用型(example-based)の手法と呼ばれ,主に機械翻訳の分野で手法の有効性が確認されている.本研究では,これを談話処理の問題に適用し,手法の有効性を検証する.
\section{接続関係の分類}
本論文で用いた接続関係について述べる.接続関係の種類に関しては多くの研究者が個々の案を提示している(市川1978;Wolfetal.2005).例えば,古くから知られているMannandThompsonのRST(RhetoricalStructureTheory)(Lochbaumetal.2000)においてはnucleusとsatelliteの関係として21種類を定義している\footnote{Evidence,Concession,Elaboration,Motivation,Condition,Evaluation,Justify,Circumstance,Background,VolitionalCause,Non-volitionalCause,VolitionalResult,Non-volitionalResult,Otherwise,Restatement,Antithesis,Solutionhood,Enablement,Purpose,Interpretation,Summaryの21種類.これ以外に複数のnucleus間の関係としてSequence,Contrast,Jointの3種を定義している.}.日本語では,市川が文の接続関係を,「順接」,「逆接」,「添加」,「対比」,「転換」,「同列」,「補足」,「連鎖」の8つの類型に分類している.我々は,形態素解析器「茶筌」$^{(1)}$の辞書(IPADIC,Ver.~2.7.0)に登録されている167個の接続詞を,概ね市川の類型によって分類を試みた.ただし以下の理由から若干の変更を行い,最終的に表1のように分類した.また完全な表を付録に示す.\begin{itemize}\item「同列」と「補足」,「逆接」と「対比」を区別するのは容易ではなかったため一緒にした\item「例示」は市川の類型にはないが,文自体に特徴があったため,別に分類したほうがよいと考えた\item「連鎖」は市川の分類で定義だけはあるものの,具体的には触れられていないため分類として削除した\end{itemize}\begin{table}[b]\caption{接続関係の分類とコーパス中の出現割合}\input{02table01.txt}\end{table}この結果,市川の分類における「順接」は概ね「累加」または「因果」に該当する.同様に市川の分類における「添加」も「累加」または「因果」に,「対比」は「並列」(一部「逆接」)に,「同列」は「並列」に,「補足」は「累加」に該当する.この他「なかんずく」,「わけても」など,以下の6分類のどれにも属さない「その他」の分類も存在するが,非常にまれであるためここではこれらは扱わない.表1では,接続関係の分類と共に,本研究で使用したコーパス中での出現割合も示す.コーパスは,接続詞でつながった2文を1事例として,我々がWeb文書から約120万事例を収集した.HutchinsonはWebから自動的に接続詞を含む文を抽出する方法を提案している(Hutchinson2004a)が,ここでは使用したコーパスからIPADICによる接続詞でつながっている2文の組を自動的に抽出した.ところで,接続詞によっては一意に接続関係を決められないものもある.例1,例2の接続詞「したがって」はそれぞれ,「なので」と同様な因果関係,「つまり」と同様な並列関係にそれぞれ分類可能である.本論文では,複数の接続関係に分類される接続詞は取り得る全接続関係の中に分類しているが,テストセットではこれらは除外した.なお,このように多義性により除外された接続詞は167種類のうち1割程度である.\hangafter=1\hangindent=4zw\noindent\hboxto3zw{例1)\hfill}理系の人間だって科学のごく一部しか勉強できない。\ul{したがって}、文系の人がたくさんの理系の授業を受ける必要はない。\hangafter=1\hangindent=4zw\noindent\hboxto3zw{例2)\hfill}高気圧におおわれた地域は、天気がよくなります。\ul{したがって}、雨が降らないのです。
\section{人手による接続関係の推定}
人間は接続関係をどのように判断しているのか,人間は接続関係の同定をどの程度の精度で行うことができるか,などを検証することを目的に被験者実験を行った.本節ではこの実験について報告する.青空文庫$^{(4)}$から旧字体のものを除き,ランダムに選んだ23テキストを3人の被験者(A,B,C)に与え,文頭に接続詞をもつ文を対象に300個の接続部分を空欄として穴埋め形式で適当な接続関係を選んでもらった.被験者には前節で述べた接続関係と,各接続関係に属するいくつかの代表的な接続詞を提示した.テキストの長さにはかなりばらつきがあり,短いテキストでは1テキスト中に穴埋め箇所は2箇所,長いテキストでは43箇所あるものもある.被験者が選ぶ接続関係は指定した6種類のうちいくつ選んでもかまわないが,複数選択する場合には優先順位をつけるよう指示した.実験は,同一の問題に対してテキスト全体を与えた場合と穴埋め箇所の前後1文ずつを取り出した2文だけを与えた場合の2通り行った.最初にテキスト全体での推定をしてもらい,その3日後に2文だけを用いた場合の実験を行った.2文だけを用いた実験では,テキスト全体での出力結果を被験者が思い出さないように全てのテキストから取り出した2文の組を無作為に並べ替えて提示した.\subsection{正解率の比較と一致率}各被験者の,テキスト全体を見て判断した場合(全文)と2文の情報のみで判断した場合(2文)での正解率と2種類の出力の一致率を表2に示す.被験者には優先順位をつけて複数選択してもらっているので,それを考慮するため,質問応答でよく使われているMRR(MeanReciprocalRank)の評価手法を応用して正解率を求めた.具体的にはN番目の出力が正解した場合に1/Nのポイントを与え,その合計を全問題数300で割った値を正解率としている.\begin{table}[b]\caption{各正解率と二つの出力の一致率}\input{02table02.txt}\end{table}表2から3件の考察を行う.まず,正解率を見ると全文,2文のどちらの場合も5割〜6割程度である.これは,人間にとっても接続関係を同定することが容易ではないか,もしくは正解が一意ではなく複数の解釈,若干の自由度があるかのどちらか,もしくは両方を示している.いずれにしても,実際に記述された正解との単純比較だけでは人間との感覚にずれがあり,注意が必要である.次に,直感ではテキスト全体を見たときの方が2文だけを見て判断するより精度が良くなる,と誰しもが考えるであろう.しかし,表2が示すように,人間が接続関係を推定する際は両者の正解率にあまり差はない.これについては3.3節でさらに議論する.最後に,テキスト全体を見て判断した場合の人間の出力と2文のみで判断した場合の出力の一致率は共に約6割と高くない.つまり,正解率は変わらないが正解している問題は少なからず異なっている.このことから,テキスト全体を見た方が正しく判断できるものと逆に情報を2文に限定したほうがよい場合がそれぞれ存在することを示唆している.\subsection{接続関係ごとの正解率}テキスト全体を見た場合と2文だけを見た場合の正解率の異なりを接続関係ごとに分析し,接続関係の持つ特徴を考える.図1,図2にそれぞれ3人の被験者の平均による接続関係毎の正解率と適合率を示す.\begin{figure}[b]\centerline{\includegraphics{15-3ia2f1.eps}}\caption{接続関係ごとの正解率の平均}\end{figure}図1,図2より「転換」においては2文だけで判断するよりテキスト全体を見たほうが正解率と適合率が高い.特に「転換」という接続関係は話題の移り変わりを表すので,直前の1文だけでは判断できないと考えられる.また,「加反」や「例示」はテキスト全体でも2文でもほとんど差がなく,しかも他の接続関係に比べて正解率,適合率共に高い.このことから,「加反」や「例示」は直前の文とのつながりを表しやすいといえる.\begin{figure}[t]\centerline{\includegraphics{15-3ia2f2.eps}}\caption{接続関係ごとの適合率の平均}\end{figure}\subsection{テキストと2文の出力の一致度と正解の関係}テキスト全体を見て選んだ接続関係と2文だけを見て選んだ接続関係が一致した問題数と,そのときの正解率から考察を行う.ここでは,簡単のため優先順位の最も高い接続関係を被験者の唯一の出力としている.表3は各被験者の出力結果の内訳である.表中の○,×はそれぞれ正解,不正解を示している.この表から,全文を見なければ正解が出来ない項目b(122)は全体(900)の13.5{\%}であることが分かる.この結果から,全文入力することと比較して入力文を2文に制限することで条件が極端に不利になることはないと考え,本論文の入力を連続する2文とした.表4は2文だけ見たときには誤っているがテキスト全体を見た場合では正解している問題と,逆にテキスト全体では誤っているが2文だけで判断したときには正解している問題の接続関係ごとの割合を示している.表4より,テキスト全体を見た場合に正解した問題と2文だけを見た場合に正解した問題に多少の偏りは見られる.しかし,この結果からは接続関係によってテキスト全体を見た方が正しく判断できるものと情報を2文に限定した方がよいものに分けることはできない.\begin{table}[t]\begin{minipage}[t]{190pt}\caption{出力の一致からみた人間と正解の関係}\input{02table03.txt}\end{minipage}\hfill\begin{minipage}[t]{200pt}\caption{一方でのみ正解している問題}\input{02table04.txt}\end{minipage}\end{table}今回のようなタスクで長いテキストから接続関係を判断するとき,まず人は2文だけを見て決めようとする.そこでうまく接続関係が決められない場合には見る範囲を広げていく.しかし全文が見れる以上,2文だけで判断可能な場合でも人は他の文章の影響を受けずにはいられない.そのため,もし2文だけで接続関係を判断するための情報が十分含まれているとしたら,テキスト全体を与えることでかえって判断を迷わす結果となっている可能性がある.また,接続関係を決めるための情報が2文では不十分であるときは,人間の判断も自信のないものとなっている可能性が高い.また,表3においてテキスト全体を見た場合と2文だけを見た場合の出力が一致した問題(a,b)中での正解率(a/(a$+$b))は62〜77{\%}であり,3人の平均では71{\%}であった.表2に示す3人の被験者それぞれの正解率と比較するとおよそ1割強高い.これは,全体の正解率と比べて出力が一致している問題中での正解率の方が高くなるであろうという人間の直感とも一致する.しかし全体の17\%の問題(b)については正解とは異なった関係を選んでいるにもかかわらず,テキスト全体を見て判断した接続関係と2文だけで判断した接続関係が一致していることから,人は迷いなくその関係を選んでいると考えられる.出力がどちらも同じであるということは,接続関係を判断するためには2文の情報だけで十分であるといえるのではないか.
\section{類似用例による接続関係の推定}
本節では,入力の2文に対してコーパス中で2文間の接続関係が同一と判断される類似用例文の検索手法の大まかな流れについて述べる.処理の概要を図3に示す.入力文と類似した2文の組を探すといっても,単純に文が似ているものを探せばよいというものではない.例えば「雨が降った。試合は中止になった。(因果)」と「雨が降った。試合は中止にならなかった。(逆接)」は,単語の一致率などを用いた一般的な類似度計算によって非常によく似た2文の組とされるものであるが,それぞれの文間の接続関係はまったく逆である.反対に,「本を読んだ。つまらなかった。(逆接)」と「評判の映画を観た。僕には退屈で眠くなった。(逆接)」では,一致する単語や一般的に類義語や上位語,下位語とされるものが存在しないにもかかわらず,人間が見ると直感的にこの2つの例文は似ている文であり,接続関係も同じであるといえる.本論文ではこのように,入力に対して同じ接続関係を持つと思われる類似用例文を大量のコーパス中から探し,その用例によって接続関係を推定する手法を提案する.以下に大まかな処理の流れを示す.\noindent\textbf{Step1.}前処理として,クラスタリング用に別のコーパスを用意し,接続関係を決定すると考えられる主要な単語を,GETA$^{(3)}$を用いてクラスタリングする.「本を読んだ。つまらなかった。」と「評判の映画を観た。僕には退屈で眠くなった。」の例では,「本を--映画を」,「読んだ--観た」,「つまらない--眠い」などの単語ごとにクラスタリングされることが理想である.クラスタリングの際,1文目と2文目から抽出する単語は区別される.詳しくは6節で説明する.\noindent\textbf{Step2.}入力の2文から動的に構文パタンを生成し,構文的に似ている文を候補として抽出する.パタンの生成,候補文の抽出に関しては5節で詳しく述べる.Step1のクラスタリングの際にも構文パタンを素性として用いるため,本論文では先にこちらを説明する.\noindent\textbf{Step3.}抽出した候補文に対して,単語や構文パタンによるスコア付けを行い,スコアの高い順に出力する.\begin{figure}[t]\centerline{\includegraphics{15-3ia2f3.eps}}\caption{類似用例による接続関係の推定}\end{figure}用例利用型(example-based)による解法は主に機械翻訳の分野で使用されてきた.例えば,(Sumita1998)で議論されているように,日本語の「AのB」と記述される際の助詞ノには多義性があり,その結果英語などに翻訳する際には多訳性が生じる.これに対して入力表現の「AのB」に最も類似している表現がどのように翻訳されているかを模倣することによって多義性解消を行う(すなわち翻訳結果を得る)というのが用例利用型翻訳の基本的な考え方である.本論文では,上記のAやBが文であり,助詞ノが接続詞であると仮に見做せばちょうど「AのB」の翻訳と同一の考え方ができるのではないかと考え,用例利用型による解法を目指した.用例利用型手法は万能ではない.我々は,用例利用型を有効に機能させるためには二つの重要なポイントがあると考える.すなわち,(a)広範な用例を収集すること(b)適切な類似度を設定することの2点である.(a)はコーパスを利用する他手法と同様であるが,「大量」である必要がない点は統計的手法などと異なる.すなわち用例利用型は用例の類似度を用い,出現頻度を利用しないため,各事例の出現比率は考慮する必要がない.このため,いくら重要事例であっても同一の事例が複数ある必要はなく,用例が広範に収集されていることのみが性能に影響する.(b)は統計的手法における統計量,規則を用いた手法の条件部に相当する処理を類似度によって制御しているため,類似度をどのように定義するかが制御部の核心である.本研究でどのように類似度を設定したかについては7節で議論する.
\section{パタンによる候補文の抽出}
本研究では入力文に最も類似した文をコーパス中の文に対するスコア付けによって求めるが,コーパス中の全ての文に対してスコア付けをすると計算量が膨大となるため,入力文から生成した構文パタンに一致したコーパス中の文のみを対象とする.これらコーパス中から抽出された文を入力文に対する候補文と呼ぶ.本節では入力文からの構文パタン生成手法および候補文の抽出について説明する.また,この構文パタンは6節で述べる単語のクラスタリングの素性としても使用する.\subsection{構文パタンの生成}例3のように入力の2文が与えられたとき,まず入力の1文目,2文目それぞれから構文パタンを作成する.ここで,入力の各文から生成される構文パタンを基本パタンと呼ぶ.図4は例3の入力に対する構文解析結果である.構文解析器には「南瓜」$^{(2)}$を用いた.\noindent\hboxto3zw{例3)\hfill}1文目:上海の新生活はサンディにとって心地よいものとなるはずだった。\noindent\hboxto3zw{\hfill}2文目:しかし、最愛の母親の死は彼女に大きな打撃と計り知れない心痛を与えた。\begin{figure}[t]\centerline{\includegraphics{15-3ia2f4.eps}}\caption{例3の構文解析結果}\end{figure}\subsubsection{パタン要素の抽出}入力の各文から基本パタンを生成するために必要な要素を文節ごとに抽出する.ここで,「未知語」は全て「名詞」として扱い,句点以外の記号はあらかじめ全て削除しておく.以下に各文節からのパタン要素の抽出方法を説明する.\noindent\ul{\mbox{i)文末文節以外の文節からのパタン要素の抽出}}パタンを構成する要素を文節単位で抽出する.1文節から生成される要素をパタンの一要素とする.文節内の助詞,助動詞を抽出し,さらに全ての品詞で「非自立」であるものと,動詞の「ある」を無条件にパタン要素として採用する.同じ文節内のものを連結し,パタンの一要素とする.文節末が名詞または動詞の場合は,それぞれ``NOUN'',``VERB''に一般化し,それで一要素とする.また,文節末尾以外の名詞でNE(固有表現)タグがついているものはNEタグに変換する.例3では「上海」は``LOCATION''になる.「AのB」,「A(し)たB」などの「Aの」や「A(し)た」といった連体修飾節はパタンの要素には採用しない.ただし,NEタグの要素を含む場合を除く.例えば,例3の「最愛の」,「母の」はパタンの要素として採用しないが,「上海の」は「LOCATIONの」という形で採用する.\noindent\ul{\mbox{ii)文末文節からのパタン要素の抽出}}文末文節に関しては他の文節とは異なり,複数のパタン要素が生成される.文末文節の末尾から一形態素ずつ付与して複数のパタンの要素を作成する.ここで,抽出対象となるものは助詞,助動詞,感動詞,および全ての品詞で「非自立」であるもの,動詞の「ある」である.ただし,文末の「助詞」または「助動詞」の連続は切り離さない.例3の1文目の文末文節の「なるはずだった。」からは「はずだった。」と「だった。」の2種類のパタン要素が生成され,これらをそれぞれ末尾として構文パタンを生成する.つまり,ここでは助動詞「た。」の要素は作成されない.また,文末の形態素が形容詞ならば,その「形容詞の出現形+『。』」の要素を作成し,文末が名詞および動詞の場合はi)と同じくそれぞれ``NOUN'',``VERB''に一般化して一要素とする.\subsubsection{基本パタンの生成}\begin{figure}[b]\centerline{\includegraphics{15-3ia2f5.eps}}\caption{各パタン要素と係り受け}\end{figure}\begin{figure}[b]\centerline{\includegraphics{15-3ia2f6.eps}}\caption{例3の1文目,2文目から生成される各基本パタンと要素数}\end{figure}このようにして,各文節からパタン要素を取り出し,それぞれの文節から係り先の文節のパタン要素をつなげて構文パタンを作成する.つまり,同じ文節に係っているものどうしは同時にひとつの構文パタンの中には存在しないことになる.文末については要素が複数存在するので,それぞれの要素について構文パタンを作成する.図5に例3の各文節から抽出したパタン要素と文節ごとの係り受けを,図6には例3の1文目,2文目から生成した全ての基本パタンを示す.また,``*''は任意の文字列を意味している.各基本パタンにはそのときのパタンの要素数が付与される.文末文節以外の文節からは1文節から抽出された要素に対して一要素とし,文末文節から抽出された要素に対しては,一形態素で一要素として計算している.ただし,句点はカウントしない.例えば,例3の1文目の基本パタン「*は*ものと*はずだった。」では,文末文節以外の文節から抽出された要素が「*は」,「*ものと」の2つであり,文末文節から抽出された要素「*はずだった。」は句点を除いて三形態素からなるので,この基本パタンの要素数は5となる.\subsubsection{基本パタンの組み合わせによる構文パタンの生成}生成した1文目と2文目の基本パタンのすべての組み合わせを,入力に対する構文パタンとする.各構文パタンの要素数は組み合わせた基本パタンの要素数の合計となる.例えば,図6から1文目の基本パタン「LOCATIONの*は*ものと*はずだった。」と2文目の基本パタン「*に*ない*を*た。」を組み合わせて,要素数$10(6+4)$の構文パタン「LOCATIONの*は*ものと*はずだった。*に*ない*を*た。」ができる.図6では,1文目と2文目からの基本パタンがそれぞれ9パタンと6パタンであるため,最終的に全ての組み合わせで54個の構文パタンが生成されることになる.\subsection{候補文の抽出}5.1.3節で生成したパタンに適合する2文の組をコーパスから探す.ここで,パタンに適合したコーパス中の2文の組を候補文と呼ぶ.入力に対して最も類似した文はこの候補文の中から探す.パタンの照合に使用したコーパスはWeb文書から抽出した約120万事例である.生成したパタンを要素数の多いものから順に同じ要素数のパタンを一組として照合させる.ここでは120万事例から入力に最も近い1文を探すための絞込みをすることが目的であるので,ある程度の閾値で候補を絞る必要がある.しかしここで絞りすぎるのも問題である.ここでは実験的に,抽出された候補文が100セットを超えたときパタンの照合を終了するとした.つまり,例えば例3の入力文から得られるパタンのうち最も多い要素数をもつパタンは「LOCATIONの*は*ものと*はずだった。*に*ない*を*た。」と「LOCATIONの*は*ものと*はずだった。*と*ない*を*た。」である.これらを使って抽出してきた候補文の累計が100に満たない場合,さらに次の要素数9のパタン群(「LOCATIONの*は*ものと*だった。*に*ない*を*た。」,「*にとって*ものと*はずだった。*に*ない*を*た。」,…)を用いて候補文を増やす.ここで,抽出した候補文に対して7節の単語によるスコア付けによって入力に最も近い文を探す.
\section{単語のクラスタリング}
本節では,単語のクラスタリングについて説明する.本節で生成した単語のクラスタは入力文と候補文との類似度を測る際に使用する.なお,本研究ではクラスタリングのためのツールとしてGETA$^{(3)}$を用いた.GETAは大規模で疎な行列の行間あるいは列間の類似度を高速計算する類似度計算ツールであり,クラスタリングライブラリが提供されているように,クラスタリングとして利用することが可能である.\subsection{クラスタリングに用いた素性}1文目,および2文目の述語と,1文目,2文目それぞれの述語に係る格要素のそれぞれについて接続関係が同じ文で用いられやすい単語のクラスタを作成する.すなわち,ここでは4種類のクラスタリングを行うことになる.単語のクラスタリングではGETAの処理時間との兼ね合いもあり,データセット1万セットで分類を行った.クラスタと単語は一対一ではなく,ある単語が複数のクラスタに属す場合も存在する.\vspace{\baselineskip}\begin{minipage}{183pt}例4)\\\includegraphics{15-3ia2-4.eps}\end{minipage}\hspace{2zw}\begin{minipage}{165pt}例5)\\\includegraphics{15-3ia2-5.eps}\end{minipage}\vspace{\baselineskip}\noindent\ul{\mbox{i)述語の同定}}本節で述べる述語とは,茶筌の品詞体系で「動詞」(基本形が「する」,「ある」,「なる」,「せる」,「れる」,「られる」であるものを除く)と「名詞--サ変」および「形容詞」となるもので,文末文節中で最も文末に近いものをいう.ここで,品詞が動詞,及び形容詞であるものは全て基本形にしている\footnote{実際には,今回のテストデータにおいては形容詞は全て基本形で出現していた.}.また,品詞が「動詞」で,基本形が「する」,「ある」,「なる」,「せる」,「れる」,「られる」となるもののみが文末文節にある場合はその係り元文節内で同様にして探す.すなわち,例4では「読む」が述語となり,例5では「勉強」が述語となる.ここで,サ変名詞に他の名詞が後続する場合,例えば「勉強方法にある」のような場合も「勉強」を述語とした.\noindent\ul{\mbox{ii)述語に係る格要素の抽出}}述語に係る格要素とは,i)で抽出した述語を含む文節に係る格文節で,文節末が「名詞\footnote{ここでいう「名詞」はIPADICにおける「名詞--一般」および「名詞--サ変」を指す.固有名詞は個別性が高いため,ここでの対象とはしなかった.}+助詞」となるもの全てを指す.さらに名詞が連続している場合は末尾の名詞のみを使用する.「名詞+の」は格要素として使用していない.また,述語が抽出されなかった場合は文末文節に係る格要素をここでいう述語に係る格要素として使用している.例4では述語「読む」に係る「本+を」が格要素となる.例5では「勉強」に係る文節が「数学の」のみであるが,これは「名詞+の」の形であるため採用されない.よって,この例からは格要素は抽出されない.以下では,例えば,1文目の述語をクラスタリングする場合,1文目をtarget,2文目をsourceと呼ぶことにする.2文目の述語をクラスタリングする場合は2文目がtarget,1文目がsourceとなる.述語に係る格要素のクラスタリング素性に関しても同様である.また,今回「述語が無い」または「格要素が無い」という情報は,クラスタリングの素性としては与えていない.本研究では,対象を述語とそれに係る格要素に限定した.これ以外の要素,例えば修飾語などの語句が接続関係の決定に影響する可能性は完全には否定できないが,我々はこれらを考慮することによる利得よりも素性数が増加して統計的な有意性を生じない損失のほうが大きいと考え,クラスタリングの対象素性からは除外した.\begin{table}[t]\caption{述語のクラスタリングに用いた素性と重み}\input{02table05.txt}\end{table}\begin{table}[t]\caption{述語に係る格要素のクラスタリングに用いた素性と重み}\input{02table06.txt}\end{table}表5,表6に述語と述語に係る格要素のクラスタリングに用いた素性と重みを示す.これらを素性として,GETAでは文書分類や単語シソーラスの自動構築に用いられている階層的ベイズクラスタリング(Iwayamaetal.1995)での分類を行っている.階層的クラスタリングとは,多次元のデータセットに対して,要素間の類似度に基づいて比較的「近い」要素群をクラスタとして発見する分析手法の1つである.GETAでは各アイテム(ここでは述語および格要素)の中で最も「近い」ものから順にボトムアップで各アイテムをまとめあげていく.一般的な木構造とは違い,同じ階層は存在せず,指定したクラスタ数になるように分割点を決定する(図7).\begin{figure}[t]\centerline{\includegraphics{15-3ia2f7.eps}}\caption{GETAによるクラスタリング構造}\end{figure}\subsection{クラスタ数の決定}クラスタリングを行う際,クラスタ数をどのように設定すればよいか.本論文ではクラスタ中のエントロピーを用いて自動的にクラスタ数を決定する.あるデータDのエントロピーは次式で求められる.\begin{equation}H(D)=-\sum_{接続関係i}P_{i}\log_{2}P_{i}\end{equation}ここで,$P_{i}$はデータ中の接続関係$i$の割合を示す.また,分割後のエントロピーは各クラスタ中のエントロピーの加重平均で表される.例えばクラスタ数2の場合,分割前のデータを$D_{0}$,分割後のデータをそれぞれ$D_{1}$,$D_{2}$とし,データ$D_{i}$のデータの個数を$|D_{i}|$,エントロピーを$H(D_{i})$とすると分割後のエントロピー$H(D_{1}+D_{2})$は以下の式で求められる.\begin{equation}H(D_{1}+D_{2})=\frac{|D_{1}|}{|D_{0}|}H(D_{1})+\frac{|D_{2}|}{|D_{0}|}H(D_{2})\end{equation}さらに,次の条件のいずれかを満たす場合にはクラスタリングを行わないとした.[条件1]任意の単語Aがすべてのクラスに属す場合[条件2]1種類の単語だけで構成されているクラスが存在する場合本論文では,単語のクラスタを単語の汎化の目的で使用するため,1種類の単語しか存在しないクラスタは汎化の意味をもたないと考え2番目の条件を加えた.したがって,1つのクラスタに複数の単語が存在するという条件の下でエントロピーの小さいクラスタを生成する.1文目の述語$(V_{1})$,2文目の述語$(V_{2})$,1文目の述語に係る格要素$(N_{1})$,2文目の述語に係る格要素$(N_{2})$の4種類のクラスタリングについて,それぞれ指定したクラスタ数と分割後のエントロピーの関係を図8に示す.\begin{figure}[t]\centerline{\includegraphics{15-3ia2f8.eps}}\caption{指定したクラスタ数と分割後のエントロピーの変化}\end{figure}\begin{table}[t]\caption{各分類器で設定したクラスタ数}\input{02table07.txt}\end{table}1種類の単語しか持たないクラスタが出現した時点で分割を停止している(条件2).そのため実験では,図8に示す範囲で最も小さいエントロピーを持つクラスタ数を利用している.表7に各分類器で設定したクラスタ数を示す.例えば,コーパスから抽出してきた1文目の述語1万単語をGETAでクラスタリングする際のクラスタ数は711である.
\section{候補文のスコア付け}
本章では,5節で抽出してきたコーパス中に存在する候補文に対してスコア付けを行い,入力文に最も類似した候補文を探す.\subsection{構文パタンによるスコア}5.2節の構文パタンによる候補文の抽出では要素数の多いパタン順に照合を行った.しかし,要素数はパタン生成に使用した文節数,および形態素数であるため,単に要素が多いというだけでは特徴的なパタンであるとはいえない.そこで,入力文$i$から生成した候補文$c$をコーパスから抽出する際に使用したパタン$PT(i,c)$が特徴的なパタンであるかどうかを表す尺度として,パタン$PT(i,c)$の尤もらしさをパタン$PT(i,c)$がコーパス中で一致した2文の組(候補文)の数の逆数で表す.つまり,例えば構文パタンAに一致して抽出された候補文が$a$,$b$,$c$の3セットだったとする.このとき,パタンAの尤もらしさは1/3となる.さらに,このときの構文パタンの尤もらしさを,その構文パタンによって得られた候補文$c$のパタンスコア$S_{PT}(i,c)$とする.すなわち候補文$a$,$b$,$c$のパタンスコアは全て1/3となる.また,構文パタンAに一致する候補文は,構文パタンAから一要素だけ減らした構文パタンBにも一致する.つまり,コーパス中の2文の組Xが構文パタン「*は*ものと*はずだった。*は*た。」に一致するならば,Xは構文パタン「*は*ものと*だった。*は*た。」にも一致する.しかし,照合の際に使用した構文パタンが違うため,これらは区別して扱う.すなわち,候補文aについて,構文パタンAによって得られた$a$:A(候補文:使用した構文パタン)と構文パタンBによって得られた$a$:Bは別物であり,それぞれの構文パタンがコーパス中で一致した2文の組数によってパタンスコアは異なる.\begin{equation}S_{PT}(i,c)=\frac{1}{PT(i,c)にマッチするコーパス中の候補文の数}\end{equation}\subsection{単語スコア}はじめに,5.1節と同様にして入力文から1文目,および2文目の述語($V_{1i}$,$V_{2i}$)と,1文目,2文目それぞれの述語に係る格要素($N_{1i}$,$N_{2i}$)を抽出する.候補文からも同様に取り出し($V_{1c}$,$V_{2c}$,$N_{1c}$,$N_{2c}$),4種類の単語に対してそれぞれ単語スコアを計算する.\noindent\ul{\mbox{i)述語による単語スコア}}入力文$i$が与えられたときの,1文目の述語による候補文$c$のスコアと,2文目の述語による候補文$c$のスコアをそれぞれ$S_{V1}(i,c)$,$S_{V2}(i,c)$とする.$S_{V1}(i,c)$の初期値を0.001とし,図9の条件に従ってそれぞれのスコアを加算する.$S_{V2}(i,c)$も同様に計算する.\noindent\ul{\mbox{ii)述語に係る格要素による単語スコア}}入力文$i$が与えられたときの,1文目の述語に係る格要素による候補文$c$のスコアと,2文目の述語に係る格要素による候補文$c$のスコアをそれぞれ$S_{N1}(i,c)$,$S_{N2}(i,c)$とする.また,述語に係る格要素は全て「A(名詞)+B(助詞)」の形になっているが,「助詞」を一般化して「A(名詞)+助詞」にしたものを$N'_{1}$,$N'_{2}$としている.この場合,参照するクラスタは「助詞」を一般化する前のものと同一のものを使用し,クラスタを参照する際に全ての「助詞」を対象としている.$S_{N1}(i,c)$の初期値を0.001とし,図10の条件に従ってそれぞれのスコアを加算する.$S_{N2}(i,c)$も同様に計算する.\begin{figure}[b]\centerline{\includegraphics{15-3ia2f9.eps}}\caption{述語による単語スコアの加算方法}\end{figure}\begin{figure}[b]\centerline{\includegraphics{15-3ia2f10.eps}}\caption{述語に係る格要素による単語スコアの加算方法}\end{figure}\subsection{候補文に対するスコア計算}7.1節と7.2節で求めたパタンスコアと単語スコアを用いて(4)の計算式により候補文$c$の入力文に対する類似度を計算した.\begin{equation}\mathit{Sim}(i,c)=S_{PT}(i,c)\times\{(S_{V1}(i,c)\timesS_{V2}(i,c))\times(S_{N1}(i,c)\timesS_{V1}(i,c))\times(S_{N1}(i,c)\timesS_{V2}(i,c))\}\end{equation}1文目の述語が入力文の1文目の述語と同一もしくは類似であったとしても,2文目の述語がまったく異なるものでは入力文と候補文が類似であるとはいえないため,$S_{V1}(i,c)$と$S_{V2}(i,c)$を掛け合わせている.また,述語が同一もしくは類似であるときに格要素の類似性が重要になってくるため,1文目と2文目でそれぞれ述語と格要素のスコアを掛け合わせている.式(4)はパタンスコアとそれらを全て掛け合わせたものである.式(4)を簡略化したものを式(5)に示す.\begin{equation}\mathit{Sim}(i,c)=S_{PT}(i,c)\times\{S_{N1}(i,c)\timesS_{V1}(i,c)^{2}\timesS_{N2}(i,c)\timesS_{V1}(i,c)^{2}\}\end{equation}この類似度が最も高い候補文の接続関係を入力の2文間の接続関係として出力する.
\section{評価実験及び考察}
\subsection{データセット}本実験で,入力文に対して類似した2文の組を探すために使用したコーパスは我々が収集した120万事例のWebコーパスである.記号等を多用したWeb独特の文は収集の対象外としてあらかじめコーパスを作成する際に除外しているが,文法的に不自然なもの等の判断はしていない.接続関係ごとの120万事例中の割合は表1に示した通りである.Web文書を入力としたテストでは,入力としてWeb文書から接続詞でつながった2文を6種類の接続関係に対して50セットずつ無作為に抽出した.これらをシステムの入力とするが,形態素解析の誤り等により入力文から構文パタンが生成されず,候補文がひとつも得られないものが19セット(累加:2,逆接:3,転換:8,例示:6)あったため,これらを除いた合計281問に対して実験を行った.実験では2文目の文頭の接続詞を除いた形で2文を入力としている.ここで,正解は元の接続詞が属す接続関係としている.本論文では複数の接続関係に属す接続詞も対象としているが,それらはテストセットには含んでいない.\subsection{Web文書からの入力に対する評価}Web文書を入力としたときの評価結果を表8に示す.類似度の計算で,パタンスコア$S_{PT}(i,c)$を用いず,単語スコアによる計算のみで類似度を計算した場合と,式(5)によって求めた場合(単語スコア×パタンスコア)の二通りについて評価実験を行った.単語スコアのみの評価で,どの候補文に対しても単語によって各単語スコアに値が加算されず差が出ない場合,これを不正解として集計した場合を「単語スコア(1)」,コーパス中で最も頻度の高い「累加」を答えとして集計した場合を「単語スコア(2)」の2種類の集計を行った.ここでは接続関係ごとの正解率の異なりも観察できるようにと考え,各接続関係で同等の量のテストセットを用意した.しかし各接続関係の実際の出現頻度には偏りがある.そのため,各接続関係の出現頻度を考慮した場合でも正解率を求めた(合計(頻度を考慮)欄).また,ベースラインとして,使用したコーパス(120万事例)中で最も多く出現した「累加」とすべて回答した場合とした(ベースライン欄).実験の結果,同スコアで一位となる候補文が複数出力される場合が多く存在した.この場合の対応としては,得られた複数の候補文のもつ接続関係の中で最も多いものを出力とすることも考えられる.しかし提案手法が出現割合を考慮することは本論文での趣旨とは異なるため,本実験では最も高い類似度を持つ2文から得られる接続関係を全て出力として,出力された接続関係の種類数に対する正解の割合をその入力に対する正解ポイントとし,合計を問題数で割ったものを正解率とした.つまり,例えばある入力に対して最も高い類似度を持つコーパス中の2文の組が4セット得られたとする.それぞれの2文間の接続関係が「因果」,「累加」,「因果」,「逆接」であるならば,システムは「因果」,「累加」,「逆接」の3つを出力する.正解が「因果」であった場合,この入力に対する正解ポイントは1/3となる.正解率はこれらの合計を問題文の総数で割って求める.\begin{table}[t]\caption{Web文書を入力とした評価結果}\input{02table08.txt}\end{table}表8より,単語スコアのみを用いて類似度を計算した場合と単語スコアとパタンスコアの両方を用いて類似度を計算した場合の両者で,ベースラインよりも高い正解率が得られた.また,両者を比較すると,単語スコアとパタンスコアの両方を用いた場合の方がわずかに合計での正解率が高くなっているが,出現頻度を考慮した場合,単語スコアのみの計算で出力が得られなかった場合は全て「累加」を出力するとしたシステムの方が正解率は良くなる.このことから,入力文と候補文の類似度の計算ではパタンスコアにはあまり効果がないといえる.次に,出力が得られた問題に対して出力結果の中に正解が含まれている問題の割合を表9に示す.単語スコアのみで行った実験では,単語によるスコアの加算がどの候補文に対してもされなかった場合,つまり候補文のスコアが全て初期値のままで差がない場合は``出力無し''としてここでは除いている.表9より,類似度の計算によってシステムが出した接続関係の中に正解とする接続関係が存在する割合はおよそ6割であった.単語スコアのみの場合で出力数の平均は1.53であり,それから考えると比較的高い割合を示しているといえる.また,本研究においては文間の接続関係そのものの曖昧性が大きいため,正解を何とするかが問題となる.残りの4割の問題では正解とは異なる接続関係を持つ文が選ばれたことになるが,人間が見たときに正解と判断できるものも含んでいると考える.システムの評価基準のひとつとしてここでは「2文をつなぐ元の文章中の接続詞が属す接続関係」を正解としたが,本システムの応用分野によっても正解の幅は異なる.しかし,一般的に人間が見て適切であると判断できる範囲であれば実用に耐え得ると考える.人手による評価については8.5節で議論する.\begin{table}[t]\caption{出力結果に正解が含まれている問題の割合}\input{02table09.txt}\end{table}また,単語のスコアのみの計算で出力が得られなかった問題は281問中41問(14.6\%)あり,そのうち入力の2文から単語要素がひとつも抽出されなかったものは23問であった.パタンスコアが類似文検索にあまり効果がみられないことからも,あらゆる候補文に対して何かしらの単語によるスコア付けが必要となる.今回述語とそれに係る格要素のみに限定することで,その文でのメインの話題どうしの接続関係を正確に把握できるのではないかと考えた.しかし本手法での単語の抽出方法では,1文目の述語$(V_{1})$,2文目の述語$(V_{2})$,1文目の述語に係る格要素$(N_{1})$,2文目の述語に係る格要素$(N_{2})$の4種類全てが取り出せる2文の組は1割程度しか存在していなかった.もちろん,常に文間の接続関係がその全ての要素で決まるわけではなく,あるひとつの単語によって関係が定義される場合もある.だが,抽出する単語を限定していることで必要な情報が取れていない場合も多く存在する.今回指定した,述語とそれに係る格要素だけでは万全ではないといえる.かといって入力文が与えられたときにどの単語に注目すべきなのかを自動的に判断するのは容易ではない.述語とそれに係る格要素以外の部分に関しては,係り受けや品詞による限定だけでは文によって必要とされるものが異なる場合に対処できない.しかし,無条件に文中の単語を対象としては悪影響が大きくなると予想される.今後これをどう対応するかは重要な課題である.\subsection{機械学習手法との比較}表8で本手法の精度が47.9{\%}(出現頻度を考慮しない場合の平均)であることを示した.この値はベースラインの精度17.1{\%}よりも良好なことは明白であるが,機械学習手法よりも本当に優位なのか.その結果を示したのが表10である.今回の比較では一般的な機械学習手法であるサポートベクターマシン(SVM)$^{(5)}$と,BACT(aBoostingAlgorithmforClassificationofTrees)$^{(6)}$を使用した.BACTは文構造を明示的に利用した分類器であり,部分木を素性としてブースティングを利用している.SVM,BACT共にデフォルトの設定のまま実験を行った.精度測定に使用した入力文は8.2節で行った実験と全く同一である.\begin{table}[t]\caption{提案手法と他手法との精度比較}\input{02table10.txt}\end{table}SVMは,ある接続関係とそれ以外の接続関係をそれぞれ正例,負例として学習した.正例と負例は同量にして,各10,000文で学習した.素性としては機能語も含む全ての単語集合(bag-of-words)を用いたが,接続詞のみ除外した.BACTについては,単語を要素とする木構造(実際にはリスト構造)を入力として与えた\footnote{名詞,動詞,形容詞に属する単語をそれぞれN,V,Aに汎化した木構造を与えた実験も行ったが,表10のBACTの結果よりも悪化した.}.両分類器共に,各接続関係ごとに2値分類器を作成するため複数の分類器において正例と判定され,結果として出力する接続関係が単独とならないことがある.その場合は,複数解の出力と考え,8.2節で述べたのと同一の方法で精度計算した.表10から,SVMやBACTは共にベースラインよりも良好な結果を示してはいるが,提案手法よりも明らかに精度が低いことが分かる.\subsection{エントロピー減少量と正解率の関係}6.2節で各分類器のクラスタ数を「一種類の単語のみで構成されるクラスタが生じない範囲で最も小さいエントロピーを持つクラスタ数」として設定し,そのクラスタ数で単語をクラスタリングした結果を,単語スコアを求める際に使用している.ここでは,式(1)により求めたエントロピーが小さいクラスタには同じ接続関係になりやすい文中の単語が偏っているという考えに基づいている.しかし,本当に式(1)によるエントロピーが小さくなるようにクラスタを生成することで正解率は向上するのだろうか.本論文で用いたデータでは分割前のエントロピーは1.9〜2.0程度であった.また図8をみると,分割前のエントロピーに対して分割後のエントロピーは1.2〜1.4程度であり,元のエントロピーの半分にもなっていない.そこで,6.2節で生成した各単語のクラスタで閾値以上のエントロピーを持つクラスタを削除し,残りの閾値より小さいエントロピーを持つクラスタのみを使用した場合で実験を行った.表11には1文目の述語$(V_{1})$,2文目の述語$(V_{2})$,1文目の述語に係る格要素$(N_{1})$,2文目の述語に係る格要素$(N_{2})$のそれぞれのクラスタにおいて,各条件に合ったクラスタの数を示している.表11の``$<$X''は6.2節で設定したクラスタ数でクラスタリングした結果生成されたクラスタで,Xより小さいエントロピーを持つクラスタを意味する.また,式(1)によれば,単純に文間の接続詞が同じものでクラスタを生成した場合,生成されたクラスタはどれもエントロピーが0となり,エントロピー減少量は$H(D_{0})$となる.このクラスタを用いたときの結果を``=0.0(Conj)''の欄に示す.\begin{table}[b]\caption{条件を満たすクラスタの数}\input{02table11.txt}\end{table}\begin{figure}[b]\centerline{\includegraphics{15-3ia2f11.eps}}\caption{条件を満たすクラスタのみを使用した場合の評価結果}\end{figure}また,図11はそれぞれの条件を満たすクラスタのみを使用して実験を行ったときの結果を示している.テストセットは8.2節で使用したWeb文書からのテストセットと同じである.表11,図11より,閾値を高くしていき,エントロピーの小さいクラスタだけを用いて類似度の計算を行った方が出力される問題数は減るが,その中での正解率は高くなっていくことがわかる.このことから式(1)によるエントロピーが小さいクラスタを数多く生成することができればシステムの向上が見込めるということがいえる.今回はクラスタリングツールGETAの処理速度の関係で,$V_{1}$,$V_{2}$,$N_{1}$,$N_{2}$それぞれのクラスタリングにおいて1万単語ずつしか分類できなかった.そのため,例えば最もスコアの高い候補文(システムの出力)が1文目の述語が一致している(1文目の述語によるスコアには1が加算される)だけで他の単語は入力文中の単語とは関係のないものであったとする.このとき,他の候補文でより入力文に類似したものがあったとしても,各クラスタ内に入力文とその候補文中の単語が存在しなければスコアは加算されない.本論文ではGETAによる単語の汎化を行ったが,1万単語では不十分であり,やはり過疎性の問題が存在していたといえる.出力結果を観察すると,このような例は少なくなかった.閾値を設けた場合のクラスタではそこからさらに単語数は削られている.そのため,システムが答えを出力できた問題の数は当然減少するが,システムが答えを出力した問題の中でもこの単語数の少なさが誤りの要因として含まれていると考える.クラスタ数の減少量から単純に計算して,エントロピーが0のもののみを使用した場合の単語数は閾値を設ける前の単語数のおよそ3.5\%であり,約350単語でしかない.クラスタの削除を行わない場合でシステムは85.4\%の問題に対して答えを出力している.そのことから,生成したクラスタからエントロピーが大きいものを削除した後の単語数が合計で数万語程度あれば,エントロピーが0となるものだけを採用した場合(``$=0.0$'')の正解率で全ての問題に対応できると予測できる.ただし,エントロピーが小さいクラスタであれば何でもよいというわけではない.単純に文間の接続詞が同じものどうしをまとめたクラスタを用いた場合(``$=0.0(\mathrm{conj})$'')でも各クラスタのエントロピーは0となる.しかし,出力された問題数に対する正解率で見た場合,図11から,6.2節で生成した4種類のクラスタでそれぞれエントロピーが0となるものだけを採用した場合(``$=0.0$'')の正解率は60.6{\%}で,単純に文間の接続詞が同じものどうしをまとめたクラスタを用いた場合(``$=0.0(\mathrm{conj})$'')では,45.7{\%}である.この結果から,本手法で生成したクラスタは,少なくとも文間の接続詞によってまとめたクラスタよりは良いものであるといえる.また本論文では,式(1)によるエントロピーは良好なクラスタの一指標とはなりえるが,エントロピーが小さいものが必ずしも良いクラスタであるとはいえないと考える.\subsection{人手による評価}3人の被験者にWeb文書を入力とした8.2節の実験でシステムが出力した接続関係と,入力の2文を提示し,システムが出力した接続関係が正しいと思うものに○をつけてもらった.システムの出力としては単語スコアとパタンスコアの両方を用いて類似度を求めたときの出力を提示した.被験者らにはそれぞれの接続関係の定義を表12のように提示し,各接続関係に含まれる接続詞も参考として提示した.しかし,この接続詞の分類は必ずしも一意に決まるものではないので,あくまでも参考として使用することに限定し,被験者らにもそのように教示した.今回のシステムでは複数の接続関係を出力する場合も存在するので,人手による評価では出力数に対する2人以上の被験者が正しいと判断した接続関係割合を正解ポイントとして,Web文書を入力とした8.2節での評価と同様に累計を問題数で割ったものを正解率として求めた.システムの出力として被験者らには単語スコア×パタンスコアで類似度を求めたときの出力結果を提示している.接続関係のコーパス中での出現頻度は考慮していない.結果を表13に示す.\begin{table}[b]\caption{被験者に提示した接続関係とその定義文}\input{02table12.txt}\end{table}\begin{table}[b]\caption{人手評価によるシステムの正解率}\input{02table13.txt}\end{table}人手による評価では,システムの自動評価よりおよそ27ポイント高い評価結果となった.人手による評価で7割以上の正解率を得られたことで,本手法の有効性を確認した.これによって,他のアプリケーションへの応用の可能性がみられたと考える.結果の事例観察から,自動評価と人手評価の精度が大きく異なったのは大きく2つの理由が関係していると考える.1つは入力文を接続詞で連続する前後2文としたため,当該2文以前,及び以後の文脈が接続詞の決定に強く影響していると考えられる場合である.これは例6のような場合に見受けられる.\noindent\hboxto3zw{例6)\hfill}舌鼓を乱打させました。\noindent\hboxto3zw{\hfill}食べずに済ませられないのがカレーうどん。この例ではシステムは「逆接」と出力され,被験者3名とも正しいと判断されたが,実際の接続詞は「さて」(転換)である.この例においては,この2文の前後数文も示していれば人間も「転換」の接続関係と判断すると予測される.もう一つは,少なくとも読み手には複数の可能性が存在すると考えられる場合である(例7).\hangafter=1\hangindent=4zw\noindent\hboxto3zw{例7)\hfill}コンビニエンスストア側にとっては、預金の窓口機能も加えることで店舗の集客力を高める狙いがあります。\hangafter=1\hangindent=4zw\noindent\hboxto3zw{\hfill}金融機関側にとっては、店舗を開設するより少ない投資で拠点を拡大できる利点があります。この例では,システムの出力は「累加」であり,被験者3名は正しいと判断したが,実例は「一方」すなわち並列である.人間は与えられた2文とその接続関係(例7の場合は並列関係)に対して妥当性を検証し,全体として意味が取れた場合に正しいと判断すると推察される.しかし全体として意味が取れる接続関係は必ずしも1つだけではないと考えられ,これによって人手の正解率が高くなったものと考える.換言すれば,この結果は読み手と書き手の理解が一致しないことが少なからずあることを示しているのではないだろうか.\subsection{抽出された単語の数}\begin{figure}[b]\centerline{\includegraphics{15-3ia2f12.eps}}\caption{抽出された単語の種類数と問題数の異なり}\end{figure}8.4節では本論文で生成した単語のクラスタに含まれる単語数が不十分であったことについて触れたが,その他にも抽出した単語の種類にも不足があった.本論文では文中の修飾部に含まれる語は文間の接続関係を推定する際にはあまり重要ではなく,逆にノイズとなる場合が多いと考え,対象を文の述語とそれに係る格要素に限定したが,1文目の述語($V_{1}$),2文目の述語($V_{2}$),1文目の格要素($N_{1}$),2文目の格要素($N_{2}$)の4種類全てが抽出される2文の組は一割程度であった.図12は本実験で用いたWeb文書からの281セット中での抽出された単語の種類数と問題数の内訳を示している.接続関係を推定するのに必ずしも4種類全ての単語が抽出される必要はないが,抽出される単語数が減るほど正解率も低くなる傾向がある.Web文書などの一般的な文章では修飾部を含まない文は少なく,$V_{1}$,$V_{2}$,$N_{1}$,$N_{2}$の4種類では不十分である可能性がある.また,述語が「みる」「思う」等の広く一般的に用いられる語では,接続関係を同定することは難しい.このような場合には逆に修飾部によって接続関係が決定されることがある.このため,その2文での重要語の選別が重要となってくる.ここでいう重要語とは,単にTF・IDFなどから得られるものとは限らない.この重要語の選別が更なる精度向上には必要不可欠であると考える.
\section{結論}
連続する2文の接続関係を同定する手法について議論した.我々は,大量の事例を収集し,そのうち入力の2文に最も類似した事例に倣って問題を解く用例利用型(example-based)の処理手法を提案した.この技術は主に機械翻訳において用いられ,有効性が確認されているが,我々はこれを談話処理の問題に初めて適用した.その結果,本研究で対象としたような接続関係同定問題に対しても用例利用型が有効に機能することを実験によって示した.本研究は日本語を対象とした関連研究がないため相対的な性能の比較は不可能だが,人間による判断で提案手法による出力の75{\%}以上が正しい接続関係であると判断されたことから,満足ではないながらも実用的な技術水準にまで高めることができたと考える.用例利用型の1つの大きな特徴は,事例追加の容易性である.同じコーパスによる手法である統計的手法は,事例が追加されると確率が再計算されるため処理性能が必ずしも向上するとは限らず,偏った事例の追加も悪影響を及ぼす可能性が高い.これに対し用例利用型はより類似した用例が増えるという影響のみであるためさらに性能が向上する可能性が高く,また事例追加による影響が局所的であるため全体的な事例追加のバランスを考慮する必要がない.今後は,こういった用例利用型に関する議論をさらに深めることで手法の特性を検証し,用例利用という手法の優位性並びに問題点をより明らかにしていきたい.\section*{使用した言語資源およびツール}\begin{itemize}\item[(1)]形態素解析器``茶筌'',Ver.~2.3.3,奈良先端科学技術大学院大学松本研究室,\\http://chasen.org/{\textasciitilde}taku/software/ChaSen/\item[(2)]構文解析器``南瓜'',Ver.~0.50,奈良先端科学技術大学院大学松本研究室,\\http://chasen.org/{\textasciitilde}taku/software/chabocha/\item[(3)]クラスタリングツール``汎用連想計算エンジン(GETA)'',第二版,http://geta.ex.nii.ac.jp\item[(4)]青空文庫.http://www.aozora.gr.jp/\item[(5)]TinySVM.http://chasen.org/{\textasciitilde}taku/software/TinySVM/\item[(6)]BACT.http://chasen.org/{\textasciitilde}taku/software/bact/\end{itemize}\begin{thebibliography}{}\itemHutchinson,B.(2004a).``MiningtheWebforDiscourseMarkers.''\textit{Proc.oftheFourthInternationalConferenceonLanguageResoursesandEvaluation},pp.~407--410.\itemHutchinson,B.(2004b).``AcquiringtheMeaningofDiscourseMarkers.''\textit{Proc.ofthe42ndAnnualMeetingoftheAssociationforComputationalLinguistics},pp.~684--691.\item市川孝(1978).“国語教育のための文章論概説.”教育出版,pp.~65--67.\item飯田朱美,相川清明(2005).“ベクトルの非類似度を用いて複数表現の接続詞を自動決定するお天気情報システム,”情報処理学会研究報告,SLP57-24.情報処理学会.\itemIwayama,M.andTokunaga,T.(1995).``HierarchicalBayesianclusteringforautomatictextclassification.''\textit{Proc.ofthe14thInternationalJointConferenceonArtificialIntelligence},pp.~1322--1327.\itemMarcu,D.andEchihabi,A.(2002).``AnUnsupervisedApproachtoRecognizingDiscourseRelations.''\textit{Proc.ofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},pp.~368--375.\itemLochbaum,K.E.,Grosz,B.J.,andSidner,C.L.(2000).``DiscourseStructureandIntentionRecognition.''In:R.Dale,H.MoislandH.Somers,eds.HandbookofNaturalLanguageProcessing,MercelDekker,Inc.,pp.~123--146.\itemSporleder,C.andLascarides,A.(2005).``ExploitingLinguisticCuestoClassifyRhetoricalRelations.''\textit{Proc.ofRecentAdvancesinNaturalLanguageProcessing},pp.~532--539.\itemSumita,E.(1998).``AnExample-BasedApproachtoTransferandStructualDisambiguationwithinMachineTranslation.''Doctoralthesis.KyotoUniversity.\item高橋晃,桃内佳雄,宮本衛市.(1987)文章生成における接続詞の生成方略について.情報処理学会研究報告NL62-3.情報処理学会.\itemWolf,F.andGibson,E.(2005).``RepresentingDiscourseCoherence:ACorpus-BasedStudy.''\textit{ComputationalLinguistics},\textbf{31}(2),pp.~249--287.\end{thebibliography}\appendix本研究で採用した6種類の接続関係と各接続関係に属する接続詞を以下に示す.なお,本研究で使用しなかったその他の接続詞も参考として示す.\vspace{\baselineskip}\begin{center}\small\begin{tabular}{lp{40zw}}\hline接続関係&接続詞\\\hline累加&また,又,亦,そして,それに,しかも,さらに,それから,そのうえ,そのうえに,それと,おまけに,ちなみに,因みに,なお,尚,なぜなら,ただし,但し,ただ,但,かつ,とどうじに,と同時に,あわせて,併せて,おなじく,同じく,それも,ましてや,それどころか,どころか,ついで,次いで,ならびに,まずは,つぎに,次に,そのうえで,だとすれば,とすれば,ほな,ほなら,ほんなら,そういや,そういえば,そーいや,それだけに,だって,というのも,じつは,実は,ほんとうは,本当は,もっとも,尤も,ともすれば,そもそも,じゃ,んじゃ,しかしながら,然しながら,然し乍ら,それだけに,つまるところ,そうですが\\\hline逆接&しかし,然し,でも,ところが,だが,ですけれど,しかしながら,然し乍ら,然しながら,けれども,けれど,ですが,それでも,じゃが,だけど,されど,が,けど,そうですが,だけれども,だからといって,さりとて,なのに,それなのに,にもかかわらず,さもなければ,でないと,いな,いや,否,いえ,じつは,実は,本当は,ほんとうは,そもそも,だからといって,はんめん,反面,そうですが,ぎゃくに,逆に,でなければ,てゆーか,てか,ってか\\\hline因果&なので,だから,ですから,ゆえに,故に,ほんで,そこで,そやさかい,すると,だとすると,そうなると,そうすると,だとすれば,とすれば,だからこそ,それで,かくして,こうして,そうして,で,それだけに,したがって,従って,よって,それから,そうしたら,したら,そしたら,では,じゃ,んじゃ\\\hline並列&または,又は,あるいは,或いは,或は,もしくは,若しくは,それとも,ないし,乃至,つまり,すなわち,即ち,いっぽう,一方,かたや,および,及び,ないしは,ならびに,並びに,それから,それでいて,したがって,従って,よって,てゆーか,てか,ってか,\\\hline転換&では,それでは,ところで,さて,それじゃ,じゃあ,ふんじゃ,ほんじゃ,んじゃ,じゃ,ほんなら,ほな,ほなら,それにしても,ともあれ,さあ,そうしたら,したら,そしたら,ならば,なら,それなら,てゆーか,てか,ってか,そういや,そういえば,そーいや\\\hline例示&たとえば,例えば,譬えば,たとへば,例へば,譬へば\\\hlineその他&おしむらくは,惜しむらくは,名かんづく,なかんずく,そりゃ,そく,即,おそれながら,恐れながら,おって,追って,わけても,ともに,ついては\\\hline\end{tabular}\end{center}\clearpage\begin{biography}\bioauthor{山本和英}{1996年3月豊橋技術科学大学大学院工学研究科博士後期課程システム情報工学専攻修了.博士(工学).1996年〜2005年(株)国際電気通信基礎技術研究所(ATR)研究員(2002年〜2005年客員研究員).1998年中国科学院自動化研究所国外訪問学者.2002年より長岡技術科学大学電気系,現在准教授.言語表現加工技術(要約,換言,翻訳),主観表現処理(評判,意見,感情)などに興味がある.言語処理学会,人工知能学会,情報処理学会,各会員.e-mail:yamamoto@fw.ipsj.or.jp}\bioauthor{齋藤真実}{2005年3月長岡技術科学大学電気電子情報工学課程卒業.2007年3月同大学大学院工学研究科修士課程電気電子情報工学専攻修了.修士(工学).在学中は質問応答及び談話処理の研究に従事.言語処理学会学生会員.e-mail:saito@nlp.nagaokaut.ac.jp}\end{biography}\biodate\end{document}
| |
V06N05-05 | \section{はじめに}
\label{sec:hajimeni}人間の翻訳作業を支援するシステムは,電子単語辞書から機械翻訳システムまでいろいろ提案されており関連する研究も多い\cite{MT97}.著者らはこの中の用例提示型の翻訳支援システムの研究を行っている.このシステムは一般的に巨大な対訳用例データベースと検索システムから構成される.このシステムに対して利用者は「翻訳がわからない」と思う表現を入力する.するとシステムは入力に一致した表現,あるいは類似した表現をデータベース中で検索してその翻訳例を提示する.利用者は提示された翻訳例を参考に翻訳を作成する.機械翻訳システムと違ってこの場合の翻訳の主体は利用者にあり,システムは利用者に参考となる情報を提示するだけである.このように利用者主体の翻訳作業を支援する考え方はKay\cite{Kay97}によって1980年に提案されている.この文献では電子化辞書を使った支援を提案しているが,対訳用例を使う翻訳支援もこの考えを基本的に踏襲したものである.また実際に対訳用例を使って日英翻訳支援システムを作成した例としては\cite{Naka89,Sumi91}等の先駆的なシステムがある.さらに最近では商用システムもいくつか販売されている.著者らは上記一連の研究と同一の考えに基づいて,日本語ニュースの英訳支援のためのシステムを開発している.このシステムには二つの特徴がある.一つは利用する日英用例の対応付けの粒度である.従来の研究では,表現の対応を集めた日英表現翻訳辞書や文間の対応付けを行ったデータベースなど詳細な単位で対応のとれたデータベースを利用することが多かった.これらに対して著者らのデータベースは記事という大きな単位での対応はとれているが,それより細かな対応はとれていない.これは日本語ニュース記事を英訳する場合に,英語視聴者の背景知識や興味に合わせて大きく意訳することがあるためである.極端な場合は日本語ニュースを参考にして英文ニュースを新たに作成する場合もある.このため入力の検索結果に対応する翻訳部分を提示するには,日英表現の自動的な照合が必要になる.そしてこの場合に表現が照合しないことも前提にしなくてはならない.第二点は「意訳の支援」である.従来,用例提示型のシステムはマニュアル翻訳のような定型的な翻訳に応用する場合が多かった.たしかにニュース翻訳の場合でも「株価」「天気予報」「新車販売台数月例報告」などの項目はほぼ定型的な文から成り立っており,これらを有効に支援できると思われる.しかし著者らは本システムで意訳を積極的に支援したいと考えている.なぜなら意訳こそニュース翻訳の難しい部分であり,また用例によって有効に支援できると考えるからである.例えば日本語の短い言い回し「いかがなものか」は本稿のデータベース中だけでも過去10通り程度に訳されている.同様に同じ単語や似たような文が文脈によってどのように意訳されているかを観察すれば,意訳のための知識を効果的に学ぶことができると考える.意訳であろうと定型的な翻訳を支援する場合であろうと,表現を検索する部分には同じ手法を利用できる.しかし,結果の表示には異なった配慮が必要である.定型的な翻訳であれば入力に対応する翻訳例を一つ示せば十分である.しかし意訳を支援するにはできるだけたくさんの翻訳例を文脈付きで利用者に提示する必要がある.このため著者らのシステムは検索速度を重視している.またどのような長さの入力であっても出力は日本語と英語の記事を提示した上で,対応個所を強調して表示している.本稿は上記のシステム中の検索部分を対象としている.著者らは一文字から一記事までの範囲を入力として類似検索ができるシステムを研究している.これは意訳が単語や短い表現から文や記事までの広い範囲で行われるためである.実際には一文字から一文までを対象にした検索システムと記事を対象にした検索システムの二つを作成した.本稿はこのうちの一文までの表現を対象として類似用例を検索する手法について報告する.著者らはこの検索を頑健で柔軟かつ高速に行うためキーワードのAND検索を基本的な手法として採用した.すなわち,入力を形態素解析してあらかじめ指定している品詞のキーワードを抽出してAND検索を行う手法である.しかし単純なAND検索を行うと不適切な結果を多数表示することが判明した.そこで著者らはAND検索に語順と「変位」と呼ぶ制限を加えることを提案する.これは表層的な情報を利用してAND検索に構文的な情報を反映させようという試みである.この手法は構文解析を利用していないため速度と頑健性に優れている.以下,本稿の構成を示す.まず~\ref{sec:gaiyou}~章で著者らの用例提示型翻訳支援システムの概要を説明して,この中の類似用例検索部分の設計方針を示す.\ref{sec:mondai}~章では類似用例検索にキーワードによるAND検索を利用した場合に起こる問題を示す.続く~\ref{sec:algo}~章ではAND検索に語順と変位を使う手法を提案する.またこの手法を使った検索手順をアルゴリズムの形で示す.そして~\ref{sec:jikken}~章で約160万用例からなるデータベースを使った検索実験を報告する.ここでは検索時間と,検索結果の主観的な満足度などを報告し,提案手法はAND検索にくらべてわずかに検索時間が増加するものの(約1.3倍)利用者の満足度は統計的に有意に優れていたことを示す.次に~\ref{sec:kanren}~章では関連研究を紹介して本研究との比較を行い最後に~\ref{sec:ketsuron}~章で本稿のまとめを行う.
\section{用例提示システムの概要}
\label{sec:gaiyou}\subsection{構成}用例提示システムは下記の部分から構成されている.\begin{itemize}\item日本語と英語の2言語ニュース記事データベース\item日本語類似用例検索システム\item検索結果の表示システム\end{itemize}このシステムは次のような形で利用する.まず英訳したい日本語ニュース記事がある.この中で翻訳を調査したい表現があればこれをシステムに入力する.このとき利用者は表現を編集せず,カットアンドペーストで入力することを想定している.システムは入力に一致する表現,あるいは最も近い表現を日本語記事データベースで検索する.結果は日本語,英語とも記事を表示単位として,日本語の検索結果を含む文とそれに対応する英文を強調して表示する.記事を単位として表示するのは,文脈を利用者に提供することが重要だと考えるからである.ユーザは提示された過去の翻訳例を参照して自分の翻訳を作成する.もし結果に満足できなければ次の検索結果をシステムに要求する.\vspace{-3mm}\subsection{データベース}\label{sec:database}\vspace{-1mm}2言語記事データベースはNHKの日本語ニュース記事とその人手による英訳を1995年3月から1997年2月までの期間蓄積して作成したものである.表~\ref{tab:database}~に本稿のシステムで使った日本語記事データベースの大きさを示す\footnote{表~\ref{tab:database}~中の文の数は,記事内容を表す文と,記事の作成者,タイトルといった付加情報を表す文を合わせた数である.検索ではこれらすべてを対象としている.記事内容を表す文は446,444件(76MB)である.}.また,英語の部分もほぼ同じ規模である.英語のニュース記事は日本語の記事全体を元にして作成しており,日本語文の単純な直訳を集めたものではない.これは英語視聴者の視点に立った分かりやすいニュースを作成するために意訳が求められるからである.このため文間の対応関係を単純に求めることは難しい.そこで\cite{Kuma97}で提案された手法を使って対応付けを実施した.さらに任意の日本語文字列を高速に検索できるように日本語データベースに対してポインタ表現の部分列インデックスを作成した\cite{Naga96}.このインデックスにより,任意長の入力文字列の出現位置を漏らさず高速に求めることができる.この時,どの記事のどの文に出現したかもわかるようにインデックスを作成している.\begin{table}\begin{center}\caption{日本語部分のデータベースの規模}\begin{tabular}{l|r}\hline\hline記事数&94,830件\\文の数&1,615,119件\\バイト数&104MB\\\hline\end{tabular}\label{tab:database}\end{center}\end{table}\subsection{検索部分の設計方針}\label{sec:houshin}\ref{sec:hajimeni}~章で述べたように著者らはこのシステムを使って定型的な翻訳だけでなく意訳を支援したいと考えている.この目標はシステムの想定利用者であるニュース翻訳者への面接調査を行って設定した.翻訳者は日本語,英語とも基本的に堪能である.しかし経験によってはニュース翻訳の知識が十分でない場合がある.面接調査によると,「固有名詞」や「複合語」などの主に定型的翻訳を行う表現と,単語,表現,文,記事のさまざまな段階で必要になる意訳を支援してほしいという要求があった.定型的翻訳,意訳とも多種類の表現が対象になる.そこで著者らのシステムではさまざまな長さの入力に対して検索できるようにした.具体的には一文字から一文までを入力対象にした検索システムと記事を入力対象にした検索システムの二つを作成した.日本語ニュース記事は5文程度からなっており段落がない.そこで実用上はこの分類で十分と考えたからである.本稿はこのうちの一文までの文字列を入力として類似用例を検索する手法について報告する\footnote{記事を入力とした検索および閲覧システムに付いては\cite{Tan97a,Tan97b,Tan99a}を参照されたい.}.なお本稿ではこの検索システムを表現検索システムと呼ぶ.表現検索システムには次の2種類の検索機能がある.\begin{itemize}\vspace{-0.25mm}\item完全一致検索\\\vspace{-0.25mm}\hspace*{-3pt}一文までの範囲の文字列を入力してこれに完全に一致する表現の出現位置を~\ref{sec:database}~節のインデックスを参照して漏らさず求める.この結果,これを含む記事と文とその中の位置を特定することができる.長い入力に対しては結果が得られない可能性が高いが,慣用的な表現を検索するのに有効である\vspace{-0.25mm}\item類似検索\\\vspace{-0.25mm}\hspace*{-3pt}入力文字列を形態素解析して自立語を抽出しこれをキーワードとする\footnote{このとき活用する自立語は活用形に展開し,さらに間違ったキーワードを検索しないように接続し得る機能語を付与した展開を行う.\ref{sec:jissou}~節参照.}.データベース中\breakの日本語の各文を対象にキーワードをなるべく多く含む文を検索する.すなわち入力表現と用例文の類似性は共有するキーワードの数で評価する.キーワードの出現位置は上記の完全一致検索を利用することで高速かつ完全に求めることができる.キーワードの組み合わせによる検索もあとで述べるように高速に実現できる.なお類似検索は一文を検索対象とするため,以後,一文と用例を同じ意味で使用する\end{itemize}類似検索は次のような手順で実行する.また具体例は図~\ref{fig:nagare}に示す.\begin{enumerate}\item最初はすべてのキーワードを含んだ用例を検索する.成功すればそれらを表示する.\itemもし,検索に失敗するか,成功しても利用者がさらに検索を要求した場合にはキーワード数を一つ減らして検索を続ける.この時一度表示した用例は検索の対象としない.なぜなら同じ用例を提示しても利用者は新たな情報を得られないからである.\end{enumerate}このようにキーワード数の条件を利用者の指示で徐々に緩和して検索を実行する.条件を緩和する場合にはキーワードすべてが同じ重要性を持つと仮定して,任意のキーワードが一つなくなった条件で検索を行う.ここで提案した検索は特殊な処理を想定していないため頑健である.またキーワードの選択方法,キーワードの緩和方法を変えることでさまざまな検索を実現できるため柔軟性も高い.このため将来の拡張も比較的簡単である.また高速なため,満足な解が得られない場合は何度でも検索できる.さらに類似検索の結果を提示する場合も根拠としてキーワードを提示できるため直感的な理解が容易になる.なお,完全一致検索はポインタ表現の部分列インデックスを参照することでそのまま実現できるので以降では類似検索部分のみ議論する.\begin{figure}\begin{center}\epsfile{file=98.eps,height=10cm}\caption{類似検索概念図}\label{fig:nagare}\end{center}\end{figure}
\section{AND検索の問題点}
\label{sec:mondai}\ref{sec:gaiyou}~章で述べた類似検索を実現するにあたり著者らは最初キーワードのAND検索を採用した\cite{Salt83}.すなわち入力キーワードと検索対象中のキーワードの語順の一致を考慮しない手法である.AND検索を採用した理由の1つは高速性である.データベース中での各キーワードの出現位置さえわかれば,これらをAND条件で含む記事を特定するのは容易で高速である.もう1つの理由は\ref{sec:kanren}~章で述べるようにAND検索を採用した用例検索システムが多く提案されており効果的であると報告されていたからである.しかし日本語ニュース原稿を対象にAND検索を使うと問題が発生することが明らかになった.問題の例を示そう.例えば「政府の作業」の類似用例を検索するのに\{政府{\bfand}作業\}で検索すると下記の文をすべて出力する.尚,用例中の照合キーワードを太字で強調している.\smallskip\begin{quote}例1外務省の橋本外務報道官も,きのうの記者会見で,「保証人委員会は一生懸命{\gt作業}をしているが,ペルー{\gt政府}と武装グループが,保証人委員会の努力を受け入れる所まで事態は進んでいない」と述べました.例2この問題に関する自民党の対外経済協力特別委員会が今日午後開かれ,{\gt政府}側は,「中国は去年七月に核実験を行なった後,今後の核実験を凍結すると表明しており,無償資金協力の再開に向けた準備{\gt作業}を進めていきたい.」と述べました.例3また池田外務大臣は,「日本{\gt政府}とペルー{\gt政府}との間は信頼関係が出来ている」と述べ,両国{\gt政府}の間で緊密に連絡を取っていることを明らかにするとともに,今後の日本の役割について「関係国の間で,バラバラの対応にならないよう,国際社会が一致してペルー{\gt政府}の進め方を支えていくことが重要だ.日本{\gt政府}は,事件の解決に向けたペルー\underline{{\gt政府}の{\gt作業}}がうまく運ぶよう,条件を整える努力をしてきており,今後はこうした努力が一層大切になる」と述べました.\end{quote}\smallskip例1には「政府」「作業」というキーワードが一文中に出現している.しかしこの順序が逆転しており,またその間に関連がなく類似用例とは考えられない.例2では2つのキーワードが出現しており語順も入力と同じである.しかし両者に係り受け関係はないため類似用例とは考えられない.例3では「政府」が6個所,「作業」が1個所出現している.この中で,下線部が入力表現と一致しており用例3は類似用例と判断できる.しかしこの用例には「政府」が6個所も出現しているため下線がなければ該当個所を見いだすのは容易ではない.ここで使った入力表現「政府の作業」は短いため,この中に重複するキーワードはない.しかし長い入力表現では同じキーワードが出現する可能性がある.この場合,照合部分を把握するのはさらに困難になる.まとめるとAND検索の問題は例1と例2で示したような不正解文を拾いやすいこと,正解であっても例3のように該当個所を確認しにくいことである.このような問題が発生する主な原因は日本語ニュースの文の平均長が88.9文字\cite{Kuma96}と長いことにある.短い用例を使ったシステムではこのような問題は発生しにくいであろう.これらの問題を解決するには構文解析を利用する手法が考えられる.入力のキーワード間の係り受け関係を認定して,同様の係り受け関係を持つ用例を検索する手法である\cite{Hyou94}.しかし現時点では構文解析器の精度が十分でないためこの手法は採用しにくい.そこで著者らはこれらの問題を構文解析せずに\ref{sec:algo}~章で提案する近似的な手法で解決することにした.
\section{提案手法}
\label{sec:algo}単純なAND検索手法には\ref{sec:mondai}~章で述べた問題がある.またこれらを解決するのに構文解析を使うことは困難である.そこで著者らはAND検索に語順と変位とよぶ制約を加えた検索手法を考案した.尚,以下ではこの手法をAND+W+D(AND+Wordorder+Deviation)検索とよぶ.この手法は構文解析をせずに,表層の単語のならびと位置情報を使って近似的に構文的な情報を捉えたものである.本章ではAND検索,AND検索に語順を加えた検索(AND+W検索)について説明し,その上で提案手法(AND+W+D検索)を説明する.次にその実装アルゴリズムを説明する.以下では次の入力例を用いて説明を行う.\begin{center}\begin{tabular}{ll}入力表現&**A*B**A*C*\end{tabular}\end{center}ここで``A,B,C''はキーワード,``*''はそれ以外の単語とする.また簡単のためキーワードや単語はすべて一文字とする.\subsection{AND検索}AND検索では次の4つの用例をすべて出力する.ここでは用例中の照合したキーワードを強調表示している.\begin{center}\begin{tabular}{ll}用例1&*\underline{\bfA}**\underline{\bfB}*\underline{\bfC}**\underline{\bfA}**\\用例2&*\underline{\bfAA}*\underline{\bfB}***\underline{\bfC}\\用例3&*\underline{\bfA}**\underline{\bfA}**\underline{\bfB}*\underline{\bfA}**\underline{\bfC}\\用例4&*\underline{\bfA}**\underline{\bfA}*\underline{\bfB}**\underline{\bfA}*\underline{\bfC}\end{tabular}\end{center}これらの用例は順序が違ってもキーワード``A,B,C''を含んでいるので条件を満たす.また4つの用例の間に優先順位はない.用例3と用例4には``A''が3つあるが,この中のどの2つと照合したかを決めることができない\footnote{入力に合わせて2つ``A''を選択するのであれば任意に選択するしかなくあいまいである.}.以上の問題は先に\ref{sec:mondai}~章の例3で具体例で説明した問題と同一である.\subsection{語順を考慮したAND検索}入力と語順が同じ表現はそうでない表現より近いであろう.なぜなら語順はある程度構文の情報を担うからである.そこでAND検索に語順の制約を付加することで類似性の低い不適切な検索結果を減らせると期待できる.例えば上記の例でキーワードの語順を考慮して検索すると用例3と用例4だけが出力される.\ref{sec:mondai}~章の例で言うと,「政府の作業」に対して例2と例3だけに解を絞ったことに相当する.\begin{center}\begin{tabular}{ll}用例3&*\underline{\bfA}**A**\underline{\bfB}*\underline{\bfA}**\underline{\bfC}\\用例4&*\underline{\bfA}**A*\underline{\bfB}**\underline{\bfA}*\underline{\bfC}\end{tabular}\end{center}しかし,語順だけでは不十分な点がある.まず用例3と4には最初にAが2つあるがどちらが照合キーワードなのか決めることができず照合個所を特定できない.また用例の間に優先順位をつけることができない.キーワードの数と語順が同じ用例が検索されたときにその提示の優先順位を決められない問題である.これは大規模なデータベースを対象にした場合に結果を絞り込めない問題につながる.\subsection{語順と変位を考慮したAND検索}\label{sec:teian}著者らは上記の問題を解決するために以下で説明するキーワードの「変位」を使った手法を利用した.まず入力中のキーワード$x_i$の出現位置を与える関数を$org(x_i)$とする.この値は任意のキーワードについて一意に決めることができる.これに対してキーワード$x_i$の用例内での出現位置を与える関数を$pos(x_i)$とする\footnote{$org(x_i),pos(x_i)$は差をとるためデータベース中での絶対位置であっても文毎の相対位置であってもかまわない.以下では文毎の相対位置とする.}.もし$pos(x_i)$の値が決まればキーワード$x_i$を入力と用例で照合できることになる.しかし,現在の例のように用例に同一キーワードが複数出現する場合には一意に照合できない.ここで入力中の$x_i$の右隣のキーワードが$x_{i+1}$であるとする.また用例中にも$x_i$と$x_{i+1}$と同じ2つのキーワードが出現しているとする.ただし用例にはこの2つのキーワードが複数出現しておりキーワードの対応があいまいだとする.この時,次式で定義するキーワード対の変位$dev(x_i,x_{i+1})$が最小になるように$pos(x_i),pos(x_{i+1})$を決めることにする.この基準を使えば変位が同じ場合を除いて一意に照合することができる.\begin{equation}dev(x_i,x_{i+1})=|(org(x_{i+1})-org(x_i))-(pos(x_{i+1})-pos(x_i))|\label{for:dev}\end{equation}(\ref{for:dev})~式は入力のキーワード対の間隔と用例のキーワード対の間隔の差である.これが最も小さくなるように照合するのは,キーワードの間隔が似ている場合には係り受け関係も近い可能性があると考えたからである.例えばこの経験則で~\ref{sec:mondai}~章の例3の「政府の作業」の照合を正しく行うことができる.一般に入力のキーワードが$n(n\ge2)$個ある場合には隣接キーワード対の変位を利用して,その合計が最小になるように照合する\footnote{隣接キーワード一組では必ずしも構文の近さを反映しない場合がある.「政府の作業」と「政府に作業」は係り受けは違うが変位は0である.キーワードが増えて制限が強くなるほど構文的近さの良い近似になる傾向がある.}.\begin{equation}\sum_{i=1}^{n-1}dev(x_i,x_{i+1})\end{equation}現在の例で入力には$\{A,B,A,C\}$というキーワードがある.そこで$dev(A,B)+dev(B,A)+dev(A,C)$が最小となるようキーワードを対応させる.また,この値の小さな順に用例を提示する.この結果は次の通りである.\begin{center}\begin{tabular}{lll}用例4&*A**\underline{\bfA}*\underline{\bfB}**\underline{\bfA}*\underline{\bfC}&変位合計0\\用例3&*A**\underline{\bfA}**\underline{\bfB}*\underline{\bfA}**\underline{\bfC}&変位合計3\end{tabular}\end{center}AND+W検索と同じ用例を検索しているが,照合したキーワードを特定できており,また検索用例に順位がついていることに注意されたい.ここでAND+W+D検索の特徴をまとめる.\begin{itemize}\itemキーワードのあいまい性の解消\\AND+W+D検索はキーワード照合にあいまい性がある場合にそれを解消する能力がある.\ref{sec:mondai}~章の例3の場合では「政府」の照合個所を下線部分に特定できる.この性質は結果を表示する場合に有用である.\item用例の順位付けが可能\\AND+W検索とAND+W+D検索が同じ入力キーワード群で出力する用例集合は上記の例のように常に一致する.違いの一つは用例に優先順位がつく点である.例えば,\ref{sec:mondai}~章の例の例2と例3のキーワード数は2で同じである.しかし例3の変位合計は0であるため1位となり例2は変位が大きいので2位の解となる.\item完全一致検索に近い\\名詞複合語を検索する場合は構成要素の名詞が連続した用例が正解である.AND+W+D検索ではもし入力と同一の複合語があればその変位合計は0となって第1位で出力される.すなわち完全一致検索の機能も包含した検索手法となっている.一方,AND+W検索ではこのような保証はない.この性質は特に名詞複合語の検索が多くなる場合に有利である.\end{itemize}一般的にAND検索は同じ入力キーワード群に対して語順を考慮したAND+W検索とAND+W+D検索より多くの文を検索する傾向がある.ただし,キーワード数を1まで減らして検索できる文の集合はいずれの手法も同じである.すなわちデータベース中の類似用例の正解がどう定義されていても最大限に条件を緩和すれば3手法の再現率は同じことになる.\subsection{アルゴリズムの概要}\label{sec:jissou}類似検索全体のアルゴリズムは~\ref{sec:houshin}~節に示した手順に従っている.すなわち利用者の要求に従ってキーワードの数を一つずつ減らして検索を行う.このとき利用者は途中で検索を打ち切ることが可能である\footnote{実際,キーワード数が一つになるまで条件を緩和することは考えにくい.}.また,用例はキーワードを最大個数含む段階で表示するものとし,それ以後のキーワードを削減した段階では表示しない.ここでは上記を考慮したAND+W+D検索アルゴリズムの概要を説明する.処理の大まかな流れは以下の通りである.\begin{itemize}\item入力表現の形態素解析を行ってキーワードを求める\item用例集合中でのキーワードの出現位置を完全一致検索で求める\itemキーワードが出現している用例についてはノードテーブルを作成する.ノードテーブルは検索に使うデータ構造である\item検索,表示処理のループ.ユーザの要求によって繰り返す\begin{itemize}\item検索処理\item表示処理\end{itemize}\end{itemize}入力表現は形態素解析されて自立語がキーワードとして抽出される.キーワードのうち活用語は活用語尾や「な(い)」「つつ」など接続し得る機能語をすべて付加して展開する.本システムではキーワードの出現位置を文字列検索(完全一致検索)によって求めている.このため活用するキーワードは可能な出現形で検索する必要がある.このとき活用語尾を付加しただけでは間違った品詞のキーワードを検索する場合がある.例えば一段動詞の未然形や連用形の「衰え」を検索すると名詞の「衰え」を検索する恐れがある.このため機能語も付加して検索することで誤検索を防いでいる.ただし,例えば否定の「ない」は「なかっ」「なかろ」「なく」「ない」「なけれ」と活用するが「な」だけを付加する.つまり誤検索を防ぐのに必要十分な機能語部分文字列を付加する戦略を取っている.入力には同じ表層形のキーワードが複数出現する場合があるため,出現順に付番してすべてを区別する.この番号をキーワードidと呼ぶ.ただし展開で得られる派生キーワードは同一のキーワードidとする.全用例集合を対象に各キーワード表層形を完全一致検索によって検索し,それぞれが出現した用例とその中での位置を求める.キーワードが一つ以上出現している用例については,ノードテーブルと呼ぶデータ構造を作成する.前節で使った入力と4つの用例に対応するノードテーブルの例を図~\ref{fig:dousa}~に示す.\begin{figure}\begin{center}\epsfile{file=104.eps,height=10cm}\caption{ノードテーブルと検索結果}\label{fig:dousa}\vspace*{-1mm}\end{center}\end{figure}この図の最上段は入力のキーワードの出現位置を示している.下部の$g_1$から$g_4$に示したノード群が用例1から4に対応するノードテーブルである.このテーブルは入力のキーワードを出現順,つまりキーワードid順に並べ,各idのキーワード表層形の出現位置をノードとして記述している.各ノードは対応するキーワードidで管理されている\footnote{活用する語の場合には同一キーワードidに複数の表層形があり,そのすべての出現位置を同一キーワードid下のノードとする.}.ここで入力中にキーワードが$M$個あるとする.このノードテーブルには次の性質がある.\begin{itemize}\item[(性質1)]用例のノードテーブルに対して任意のノードから右方向でかつ出現位置が増加するような経路を作成したとする.この経路上のノード集合は語順の条件を満たすキーワード集合である.図~\ref{fig:dousa}~の矢印が経路の例である.以後,経路とはこの条件を満たす経路であるとする.任意のノードからの経路を求める場合に,ノードをなるべく多く含んでかつ変位合計が最小となる経路はグラフの最短経路問題として定式化できるので従来のアルゴリズムで高速に求めることができる\footnote{ノード間の辺のスコアは式~(\ref{for:dev})~で定義する変位とする.}.すなわち各ノードを始点とする最適な検索結果を求めることができる.\item[(性質2)]$N$個のキーワードを含む経路はキーワードidが$M-N+1$以下(左)であるノードを開始点とする経路上にしかない.例えば図~\ref{fig:dousa}~においてキーワード数3の経路はキーワードidが1のノードと2のノードを開始点とする場合しかない.別な見方をするとキーワードidが$M-N+1$に属するノードを開始点として経路を求めると,$N$以下のキーワードを含む場合の経路を求めることができる.\end{itemize}以上の性質を利用して図~\ref{fig:shousai}~に示すAND+W+D検索を実現した.\begin{figure}\begin{quote}\baselineskip=12pt\sfcode`;=3000\def\q{}a1)\q入力のキーワードを抽出,展開する;\\a2)\q用例集合でのキーワードの出現位置(文と位置)をすべて求める;\\a3)\q$M$キーワード数;\\a4)\q$N=M$;\\[3mm]b1)\q$G\leftarrow\emptyset$;\\b2)\q{\bfforeach}\{$i\mids_i\inS$\}\{全用例に対して\\b3)\q\q{\bfif}(用例$s_i$がキーワードを一つ以上含むならば)\{\\b4)\q\q\q用例$s_i$のノードテーブル$g_i$を作成する;\\b5)\q\q\q$G\leftarrowG\cup\{i\}$;検索対象用例リストを作成する\\b6)\q\q\}\\b7)\q\}\\[3mm]c1)\q{\bfwhile}($N>0$)\{\\c2)\q\q$startId=M-N+1$;開始点のキーワードidの設定\\c3)\q\q{\bfforeach}\{$i\midi\inG$\}\{検索対象用例$i$に対して\\c4)\q\q\q{\bfforeach}\{$n\midg_i$の$startId$に属する各ノード\}\{\\c5-1)\q\q\q\q$g_i$のノード$n$から始まる最適経路を求める\\c5-2)\q\q\q\q最適経路上のノード数を$num$\\c5-3)\q\q\q\q変位を$newdev$\\c5-4)\q\q\q\qキーワード出現位置リストを$list$とする\\c6)\q\q\q\q{\bfif}($R(i).dev>newdev$)\{\\c7-1)\q\q\q\q\q$R(i).dev\leftarrownewdev;$\\c7-2)\q\q\q\q\q$R(i).kwd\_num\leftarrownum;$\\c7-3)\q\q\q\q\q$R(i).kwd\_list\leftarrowlist;$\\c8)\q\q\q\q\}\\c9)\q\q\q\}\\c10)\q\q\}\\[3mm]d1)\q\q{\bfforeach}\{$i\midi\in\{R(i).kwd\_num=N\}\}$\{\\d2)\q\q\q{\itdev}の小さい順に用例$i$とその照合キーワードを表示する;\\d3)\q\q\q$G\leftarrowG-\{i\}$;表示した集合を対象用例から削除する\\d4)\q\q\}\\d5)\q\q{\bfif}(利用者が終了を指示{\bfor}$G=\emptyset$)\{終了;\}\\d6)\q\q{\bfelse}\{$N\leftarrowN-1$;\}\\d7)\q\}\end{quote}\caption{AND+W+D検索の基本アルゴリズム}\label{fig:shousai}\end{figure}アルゴリズム中の変数$S$は全用例集合を示す$S=\{s_1,s_2,\ldotss_i,\ldots\}$.$G$は検索対象の用例の番号を記録するリスト変数である(b5).一度表示した用例はこのリストから削除することで以降の処理を行わないようにする(d3).$R(i)$は用例$s_i$に関する情報を格納する構造体の配列である.この変数には用例$s_i$の最大キーワード含有数$R(i).kwd\_num$,その変位合計$R(i).dev$,キーワード群の出現位置$R(i).kwd\_list$を記録する(c7).検索処理の中心部分は(c1--c10)である.キーワード数$N$の用例を検索するために開始キーワードidを(c2)で設定している.このあと各用例$i$の中でこのキーワードidに属するノードから最適経路を探索している(c5).検索開始キーワードidはキーワード数の緩和(d6)に伴って1から順に増加するように設定されている(c2).このため(性質2)から用例$i$でキーワード数$N$の経路が見つかった場合に,すでに同数の解が以前の開始キーワードid($\{1,\ldots,M-N\}$)での探索で発見されている可能性がある.そこでこのような場合には変位合計の小さい解だけを残す処理を行っている(c6--c7).図~\ref{fig:dousa}~の矢印で示す経路と変位は,キーワードid1のノードを開始点として最適経路を求めた結果である.用例1と2についてはキーワード数3の解が,用例3と4についてはキーワード数4の解が求められている.以上のように本手法はキーワードを最大限含む順に解を求めている.多くの場合利用者は条件緩和の途中で検索を打ち切るので,この順序で解を求めている.ただしこの手法では用例のノード集合を最初に全部保持するためデータベースの大きさによってはメモリの消費が問題になる可能性がある.この場合には各用例の最適解を最初に求めるなど変更する余地はある.いずれにせよ動的計画法を利用すれば実用的な速度で解を求めることができる.
\section{検索実験}
\label{sec:jikken}\subsection{実行時間}\label{sec:jikan}AND検索,AND+W検索,AND+W+D検索を対象に検索時間を評価した.AND+W検索はAND+W+D検索アルゴリズムをほぼそのまま利用して作成した.AND検索はキーワードのノード集合を作成する過程で出現キーワード数を計数することで実現した.検索対象データベースは1995年3月から1997年2月までに収集した日本語ニュースである(表~\ref{tab:database}).入力したのは1997年3月のニュース記事からランダムに選んだ500記事の各先頭行500行である.これらの記事は検索対象データベースに含まれていない.また入力の平均文字数は92.7文字と長い.このためキーワードが完全一致する用例はほとんどない.実験手順は以下のとおりである.\begin{table}\begin{center}\caption{検索時間の比較(秒)}\label{tab:jikan}\begin{tabular}{l|rrr}\hline\hline手法&\multicolumn{1}{c}{AND}&\multicolumn{1}{c}{AND+W}&\multicolumn{1}{c}{AND+W+D}\\\cline{2-4}総時間&25,573.1&33,201.6&33,426.9\\一回の緩和の平均時間&2.33&3.02&3.04\\\hline\end{tabular}\end{center}\end{table}入力の各文を形態素解析して自立語キーワードを抽出する.そして各文でキーワード数1になるまで条件を自動的に緩和しながら検索を行ってその累積時間を計測した\footnote{利用したワークステーションの記憶容量は256MBであり,処理速度は{\itSPECint92}$=202.9$,{\itSPECfp92}$=259.5$である.}.結果を表~\ref{tab:jikan}に示す.緩和の合計回数は3手法で等しく10,989回である.この表から語順を考慮したAND+W手法とAND+W+D手法でもAND検索にくらべて約1.3倍の時間増だったことがわかる.またAND+WとAND+W+Dを比較すると,時間の差はほとんどなく変位の有無の影響はほとんどなかったことがわかる.1回の緩和,すなわち利用者が1つキーワードを減少するよう指示した時に要した平均検索時間(総時間$/10,989$)を2行目に記した.これによればAND検索で2秒,AND+W,AND+W+Dで3秒程度である.ただし総時間にはキーワードの出現位置をディスクからメモリに転送する初期処理の時間を含めており,この時間がかなりの部分を占めている.初期処理が終了した後の1回の緩和に要する時間は語順と変位を考慮しても1ないし2秒であり実用上満足できる速度であった.以上の実験より語順と変位を考慮してもAND検索なみに十分高速に検索できることを確認した.\subsection{検索文数の絞り込み効果}\label{sec:siborikomi}\ref{sec:teian}~節の終わりに述べたようにキーワード数を1まで緩和すれば,AND,AND+W,AND+W+D手法で検索できる用例集合は同じである.しかし実際にはキーワード数の大きなところで検索を打ち切るので利用者の見る用例数は語順の制約の有無で違ってくる.この違いを前節と同じ入力を使って評価した.語順を考慮した手法AND+W\footnote{AND+WとAND+W+Dは同じキーワード集合に対して同じ用例集合を検索するので,ここではAND+Wで代表する.}とAND検索それぞれについて,各キーワード数での検索用例数を計測した.結果を図~\ref{fig:kazu}に示す.検索用例数は入力500文で合計したものである.横軸はキーワード数で縦軸は対数を取った検索数である.また,このグラフの一部の検索用例数を表~\ref{tab:kazu}に示す.\begin{figure}\begin{center}\epsfile{file=108.eps,height=10cm}\caption{各キーワード数での検索用例数(500入力での合計)}\label{fig:kazu}\end{center}\end{figure}\begin{table}\begin{center}\caption{各キーワード数での検索用例数(500入力での合計)}\label{tab:kazu}\begin{tabular}{r|r|r}\hline\hline\multicolumn{1}{c|}{キーワード数}&\multicolumn{1}{c|}{AND}&\multicolumn{1}{c}{AND+W(+D)}\\\cline{1-3}1&54,374,495&59,258,536\\2&13,923,270&11,338,161\\3&3,470,894&2,088,640\\$\vdots$&$\vdots$&$\vdots$\\\hline\end{tabular}\end{center}\end{table}アルゴリズムの説明で述べたように,文は含有キーワード数が最大の時に一度表示するだけである.このため図~\ref{fig:kazu}の2つのグラフの面積は等しくなる.表~\ref{tab:kazu}から明らかなようにキーワード数1の部分でAND+W検索の検索用例数がAND検索の結果を大きく超えている.この結果キーワード数が1以外の部分ではAND+W検索の検索数はANDより小さく押さえられている.すなわち語順制約を使うことでキーワード数が1より大きい部分で検索結果数を絞り込むことができたことが確認できる.しかし,語順による絞り込みの効果が十分であるとは言えない.キーワード数が小さい部分での絶対的な検索数が大きいのが問題である.例えば3語のキーワードで検索する用例数は平均で$4,177$($=2,088,640/500$)に達した.このような用例も検索する可能性があるため絞り込み効果は十分でない.逆に50程度の検索用例数を許容すると仮定すればキーワードの語順を考えない場合でも10語以上含む入力であれば許容範囲の検索数となる.語順を使った場合は8語以上で許容範囲となる.\vspace*{-4mm}\subsection{検索結果の満足度}\vspace*{-0.5mm}\label{sec:manzoku}語順に変位の制約を加えると検索結果に優先順位をつけることができる.この順位が妥当であれば検索用例数の多さの問題は解決できる.そこで著者らはこの順位の妥当性を検証するため3手法の検索結果の満足度の高さを主観的に評価して比較した.実験要領は以下の通りである.\begin{itemize}\item被験者\\翻訳者3名.このうち1名はニュース翻訳の経験が豊富である.残りの2名はニュース翻訳を直接担当しているわけではないが翻訳の経験は豊富である.いずれの被験者も検索手法については知らされていない.\item入力表現\\現実の入力を想定して58の日本語表現を作成した.具体的には先の実験で使用した500文から文をランダムに抽出し,それらの一部を切り出して作成した.すなわちカットアンドペーストで入力することを想定した.長さの平均は22.6文字,最大の入力は62文字,最小の入力は14文字である.\item出力\\一つの入力に対して各3手法の上位5個の日本語検索結果を印刷して提示した.この時,各手法の検索結果の提示順序を1つの入力ごとに変更して,検索手法と結果の対応がわからなくなるようにした.また照合したキーワードを$<>$で囲んで表示した.被験者は最初のキーワードから最後のキーワードが出現した区間を中心に評価した.これはキーワードで検索した部分以外に偶然類似した部分があった場合にこれを評価しないためである.\item評価手法\\検索した部分の正しい英訳があると想定したときの満足度を次の2種類で評価した.\begin{itemize}\item相対評価\\3手法すべての結果を見て,最も満足度の高い結果を5点として,以下この結果との満足度の差を下記の要領で評価した.\begin{center}\begin{tabular}{llr}全く差がない&&5\\わずかに差がある&(わずかに劣る)&4\\差がある&(劣る)&3\\かなり差がある&(かなり劣る)&2\\非常に差がある&(非常に劣る)&1\\\end{tabular}\end{center}\item絶対評価\\翻訳を行うときに英訳があればどの程度役に立つかを以下の5段階で絶対評価した.\begin{center}\begin{tabular}{llr}非常に役に立つ&(非常に良い)&5\\かなり役に立つ&(良い)&4\\まあ役に立つ&(ふつう)&3\\あまり役に立たない&(悪い)&2\\全然役に立たない&(非常に悪い)&1\\\end{tabular}\end{center}\end{itemize}\end{itemize}評価シートの実例を付録に示す.3名の評価結果の平均値を表~\ref{tab:soutai}と~\ref{tab:zettai}に示す.\begin{table}\begin{center}\caption{相対評価結果}\label{tab:soutai}\begin{tabular}{c|ccc}\hline\hline被験者&AND&AND+W&AND+W+D\\\hlineA&$2.88$&$2.94$&$3.60$\\B&$2.99$&$3.07$&$3.90$\\C&$3.07$&$3.21$&$3.80$\\\hline平均&$2.98$&$3.08$&$3.77$\\\hline\end{tabular}\end{center}\end{table}\begin{table}\begin{center}\caption{絶対評価結果}\label{tab:zettai}\begin{tabular}{c|ccc}\hline\hline被験者&AND&AND+W&AND+W+D\\\hlineA&$2.78$&$2.81$&$3.13$\\B&$2.84$&$2.98$&$3.44$\\C&$3.02$&$3.10$&$3.44$\\\hline平均&$2.88$&$2.96$&$3.34$\\\hline\end{tabular}\end{center}\end{table}また各手法の違いを検定するため平均値の差の$t$--検定を行った.手法間の$t$--値を表~\ref{tab:soutaiT}と\ref{tab:zettaiT}に示す\footnote{二つの母分散が等しい場合とそうでない場合で計算したところ表中の桁数で値は変わらなかった.}.\begin{table}\vspace*{-4mm}\begin{center}\caption{相対評価の$t$--値}\label{tab:soutaiT}\begin{tabular}{c|rr}\hline\hline&AND&AND+W\\\hlineAND+W&1.55&\\AND+W+D&13.28&11.77\\\hline\end{tabular}\end{center}\bigskip\begin{center}\caption{絶対評価の$t$--値}\label{tab:zettaiT}\begin{tabular}{c|rr}\hline\hline&AND&AND+W\\\hlineAND+W&1.44&\\AND+W+D&8.73&7.23\\\hline\end{tabular}\end{center}\end{table}$t_{0.025}(\infty)=1.960$であるからどちらの表でもAND+W+DとAND,AND+W+DとAND+Wの組み合わせでは有意水準5\%で帰無仮説(平均値に差がない)を棄却できる\footnote{$t_{0.0005}(\infty)=3.291$であり0.1\%であっても棄却できる.}.一方,ANDとAND+Wでは5\%有意水準の棄却はできない.以上の結果より次のことが結論できる.\begin{itemize}\itemAND検索とAND検索に語順制約を加えたAND+W検索ではAND+W検索の方が満足度が高くなる傾向は認められたが,統計的に有意な差はなかった.\itemAND+W+D検索の満足度はAND検索とAND+W検索のいずれの満足度より高くなった.またこれは統計的に有意な差であった.\end{itemize}以上より提案手法の精度が最も高かったと結論できる.\vspace*{-1.5mm}\subsection{議論}\vspace*{-0.5mm}本章の実験結果のまとめを示す.\begin{itemize}\item検索時間はAND検索が有利であったが語順と変位を加えても1.3倍程度の時間増であった.\item語順制約を追加することで検索結果を絞り込む効果は確認できた.しかし,短い入力に対する絞り込み効果は十分ではなかった.\item変位の制約を加えると検索結果に順位付けができる.この効果を計測したところ有効性を有意に検出できた.\end{itemize}今回の実験から,カットアンドペースト方式の入力ではAND+W+D検索とAND検索を使うのが良いと著者らは考えている.AND+W+D検索は最も満足度が高かったからである.AND検索は今回の満足度の実験の結果は一番低かった.しかし,速度の面は最も優れている.また入力の表現が長い部分では検索結果の数も問題にならない.そこで長い表現を検索する場合にAND+W+D検索を補完する意味で利用する価値があると考える.一方AND+W検索とAND+W+D検索の両方を使う必要性は小さいと言える.両者は基本的に同じ検索結果となるからである.ただし,これは本稿のように入力表現を原文のカットアンドペーストで作成する場合に限る.利用者が直接キーワード列を入力する場合には変位の情報を使えない.このため語順だけを使ったAND+W検索を使う必要も生じる\footnote{著者らのシステムにもキーワードを直接入力する機能があり,この場合にはANDとAND+W検索を利用している.}.
\section{関連研究}
\label{sec:kanren}類似用例提示型翻訳支援システムの提案はこれまで多くなされている\cite{Naka89,Sumi91,Tera92,Sato93,Take94,Hyou94,Kitamu96,Aoya95}.ここではこのようなシステムの中で著者らの検索の研究と近い研究について比較を行う.中村\cite{Naka89}の研究は著者らの研究の出発点になったものである.この論文は用例検索による翻訳支援の考え方と構成を示している.中村はこの論文で入力表現と用例が共有する自立語の数に基づいて類似性を計算する手法を提案している.また,検索結果の順位を次の3つの条件で整列している:1)構成語(本研究のキーワード)がその他の語をはさまない,2)用例中の自立語の個数に対する構成語の数の比率,3)含んでいる構成語の数.このシステムを使った小規模な評価実験では長い(複数文節)表現を入力した場合に検索結果が「あいまい」となって被験者の評価が低くなったと報告している.これは検索結果の効果的な絞り込みの必要性を示唆した結果である.著者らはこれに対して語順と変位を考慮した検索を提案しその有効性を確認した.隅田ら\cite{Sumi91}は表現辞典の用例文を検索する翻訳支援システムを提案している.著者らとの主要な違いは2点ある.1)用例文はニュースの記事に比べて短く入力も単文に近い用例を想定している点,2)検索では構文的な類似性を重視している点である.類似検索は入力の自立語を順次無視して最後に付属語列のパターンまで検索条件を緩和する手法を採用している.ここで語順は考慮していない.隅田らは構文情報の把握に助詞を利用している.これは短い用例を対象にした場合に有効であるが,著者らのように長い用例を扱う場合には不適切である.なぜなら長い用例では表層の助詞だけで主要な構文構造を把握することができないからである.また,助詞は極めて多くの場所に出現するためこれを使う処理は遅くなる問題もある.実際著者らのシステムで助詞をキーワードに含めて検索実験を行ったところ自立語だけを対象にする場合の約23倍の時間がかかることが分かった.佐藤\cite{Sato93}は文字を連続して多く共有する2つの文を近いと考えた「最適照合検索」を提案している.この論文では1文字を照合単位としかつ順序を考慮した照合手法(CTM1)と2文字と3文字を照合単位とし,順序を無視した照合手法(CTM2)を提案している.またどちらの手法も文字列が連続して出現することを類似性の条件に含めている.文字と単語の違いを無視すれば,著者らの語順と変位を考えた手法がCTM1に,語順を無視した手法がCTM2に対応する.またこの二つの手法の検索結果の違いを次のような実験で検討している.1)100個の入力をそれぞれ検索し,上位5つの類似表現を得る,2)その英訳の中で最良の英訳の有用性を4段階で主観評価する\footnote{利用者は一つの有用な対訳が得られれば十分という考えによる.一方,著者らは多様な対訳の検索を重要視している.}.実験結果よると二つの手法の有用性は同等もしくはCTM2の方が若干良かったとなっている.著者らの結果と比べると出現順序を考えないCTM2の結果が良いのは意外である.原因は用例データベースの違い,入力表現の違い,評価法の違いがあるため断定できないが,CTM2の文字列の連続性の条件が貢献している可能性がある.この条件が著者らの変位と対応したと考えられる.著者らの実験結果でも語順だけでは効果が薄く変位が有効であった点を考えると両者の実験結果に矛盾はない.
\section{おわりに}
\label{sec:ketsuron}翻訳支援を目的とした類似文検索手法を提案してその有効性を実験で確認した.提案したのは入力と用例のキーワードの共有数,語順,その変位を類似性の基準とした検索手法である.提案手法は入力文の形態素解析以外は表層文字列の一致を使うため,高速かつ頑健という利点を持つ.今後の課題を述べる.現在はすべての自立語を同等の重要性を持ったキーワードとして検索を実行している.しかし,利用者が知りたい表現が特定のキーワードを含む場合があろう.また,動詞を含んだ表現で条件緩和をする場合に,一般的に動詞は削除しない方が良いと考えられる.このような特別な条件や経験則を現在の処理に追加するのは今後の課題である.このような変更は内容が明らかになれば現在の枠組みで簡単に実現できると考えている.現在,本検索部分を含んだ日英翻訳支援システムをニュースの翻訳現場で実際に使用し始めている.そこで検索条件の改良は実際の利用者の意見を取り入れて進めていきたいと考えている.また今回は日本語の検索部分だけの評価を行ったが,実際の英語の出力を使ってシステム全体の評価も行う予定である.これについては別途報告したい.今回は日本語を対象にした検索システムを報告した.今回の内容は言語に依存した部分がほとんどないためその他の言語への応用も簡単である.すでに英語の検索部分を作成しており,その有効性を調査したいと考えている.さらにその他の言語への適用可能性も検討したい.\vspace{-2mm}\bigskip\medskip\noindent{\Large\bf付録\quad評価シートの例}\bigskip\vspace{-2mm}\label{app:sheet}\baselineskip=0.98\normalbaselineskipこの場合はAND+W,AND+W+D,ANDの順に検索結果を表示している.評価文の最初の括弧付の数字が相対評価,2番目の数字が絶対評価の値を示す.++++++++++入力文++++++++++++++IN事故のあった施設の中を調査しました.++++++++++キーワード++++++++++KW$<$事故$>$の$<$あっ$>$た$<$施設$>$の中を$<$調査し$>$ました.++++++++++検索文++++++++++++++SR2-1(1)(2)この研究グループは,車に携帯電話を備えていて,軽い物損$<$事故$>$を起こ\breakしたことの$<$ある$>$ドライバー六百九十九人について,事故のデータと通話記録を$<$調査し$>$ま\breakした.SR2-2(1)(2)公海上でおきた今回の$<$事故$>$の原因調査は国際条約で船籍の$<$ある$>$ロシア\breakが行うことになりますが事故の原因を特定するためには船首部分の破断面などを詳しく分析す\breakる必要があるため,運輸省では引き続き外交ルートを通して共同で$<$調査す$>$ることをロシア側\breakに求めていくことにしています.SR2-3(1)(2)埼玉県内では小山代表が理事長を務める特別養護老人ホームが$<$ある$>$北本市\breakでもきょう臨時の市議会が開かれ,$<$施設$>$建設に至る経緯や運営について$<$調査す$>$る特別委\break員会を設けたほか,現在同じ社会福祉グループの特別養護老人ホームの建設が進んでいる上福岡市も,市役所の中に対策委員会を設置して補助金の使い途などについて調査を始めています.SR2-4(1)(2)埼玉県内では小山容疑者が理事長を務める特別養護老人ホームが$<$ある$>$北\break本市でもきょう臨時の市議会が開かれ,$<$施設$>$建設に至る経緯や運営について$<$調査す$>$る特\break別委員会を設けたほか,現在同じ社会福祉グループの特別養護老人ホームの建設が進んでいる\break上福岡市も,市役所の中に対策委員会を設置して補助金の使い途などについて調査を始めてい\breakます.SR2-5(1)(1)去年,山形県でジェット機の低空飛行が原因で女性が馬から落ちて怪我をし\breakた$<$事故$>$について在日アメリカ軍はこのジェット機がアメリカ軍機で$<$ある$>$ことを認め被害\break者に賠償の支払いに応じる意向を防衛$<$施設$>$庁に伝えてきていたことが分かりました.++++++++++検索文++++++++++++++SR2-1(5)(4)東京電力によりますと$<$事故$>$が$<$あっ$>$た$<$施設$>$は定期点検中でタービン\breakなどを分解して組み直し再び発電を始めるための試運転中に事故が起きたということです.SR2-2(3)(3)警察庁は今年六月に全国で起きた死者やケガ人のでたおよそ六万二千件の交\break通事故を対象に携帯電話が原因とみられる$<$事故$>$がどの程度$<$ある$>$のか初めて$<$調査し$>$ま\breakした.SR2-3(3)(3)警察庁は今年六月に全国で起きた死者やケガ人のでたおよそ六万二千件の交\break通事故を対象に携帯電話が原因とみられる$<$事故$>$がどの程度$<$ある$>$のか初めて$<$調査し$>$ま\breakした.SR2-4(1)(1)このため,ノースウエスト航空では問題のエンジンをアメリカのミネアポリ\breakスに$<$ある$>$本社の整備$<$施設$>$に運んで詳しく$<$調査す$>$る事にしたもので,きょう,機体か\breakら問題のエンジンを取り外して新しいエンジンと取り替え,このエンジンをきょうにもミネア\breakポリスに向け送る事にしています.SR2-5(1)(1)それによりますと,去年の六月二十四日,ワシントン州のフェアチャイルド\break空軍基地の上空で航空ショーのリハーサル飛行をしていたBー五十二戦略爆撃機が墜落し乗員\break四人全員が死亡した$<$\hspace{-0.2pt}事故\hspace{-0.2pt}$>$で,墜落地点は基地に$<$\hspace{-0.2pt}ある\hspace{-0.2pt}$>$\mbox{核兵器の貯蔵$<$\hspace{-0.2pt}施設\hspace{-0.2pt}$>$のすぐ近くで,}距離はわずか十五メートルしか離れていなかったいうことです.++++++++++検索文++++++++++++++SR2-1(1)(1)このうち,原子力の問題に取り組んでいる原子力資料情報室は,地球規模で\break環境に影響を及ぼす恐れの$<$ある$>$原子力発電所の$<$事故$>$について,去年十二月の高速増殖炉\break「もんじゅ」のナトリウム漏れ$<$事故$>$を例に挙げて▼地元への$<$事故$>$の報告を義務付けるこ\breakとや▼原子力$<$施設$>$での$<$事故$>$の原因を$<$調査す$>$る第三者機関を設けること,それに▼民\break間の調査に対しても情報を公開することなどを盛り込んだ「原子力$<$施設$>$$<$事故$>$対応法」の\break制定を提案しました.SR2-2(1)(1)沖縄県に$<$ある$>$アメリカ軍基地の排水管から高い濃度の有害物質PCBが\break検出された問題できょう基地をかかえる沖縄県内の自治体の代表らが防衛$<$施設$>$庁を訪れ,ア\breakメリカ軍による相次ぐ事件や$<$事故$>$の防止に全力をあげるよう要請しました.SR2-3(1)(1)NHKはこの問題の実態をつかむため保健所を持ち処理$<$施設$>$に許認可権\breakが$<$ある$>$各都道府県や市あわせて八十二の自治体を対象にアンケート方式で$<$調査し$>$すべて\breakの自治体から回答を得ました.SR2-4(1)(1)NHKはこの問題の実態をつかむため保健所を持ち処理$<$施設$>$に許認可権\breakが$<$ある$>$各都道府県や市あわせて八十二を対象にアンケート方式で$<$調査し$>$すべての自治体\breakから回答を得ました.SR2-5(1)(1)これに対して池田外務大臣は「在日アメリカ軍は今回の$<$事故$>$で使用され\breakたのと同様の劣化ウランを含む砲弾を日本国内の一部の$<$施設$>$に所蔵しているがこれは日本が\break攻撃を受けるなど緊急事態が発生した場合には使用する必要が$<$ある$>$ものでそうした意味で撤\break去を求めるのは適当ではない」と述べ,アメリカ軍に対して,日本国内に所蔵している同種の\break砲弾の撤去は求めないという考えを示しました.\baselineskip=\normalbaselineskip\bigskip\acknowledgment本研究は第一著者がNHK放送技術研究所勤務中に行った研究をまとめたものです.本論文をまとめる機会を与えていただいたATR音声翻訳通信研究所の山本誠一社長と横尾昭男室長に感謝いたします.また,プログラムの作成と実験に協力していただいた株式会社KISの松田伸洋氏に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{v06n5_05}\bigskip\begin{biography}\biotitle{略歴}\bioauthor{田中英輝}{1982年九州大学工学部電子工学科卒業.1984年同大学院修士課程修了.同年,日本放送協会に入局.1987年同放送技術研究所勤務.1997年ATR音声翻訳通信研究所勤務.現在第4研究室主任研究員.機械翻訳,機械学習,情報検索の研究に従事.工学博士.情報処理学会,人工知能学会各会員.}\bioauthor{熊野正}{1993年東京工業大学工学部情報工学科卒業.1995年同学理工学研究科情報工学専攻修士課程修了.同年,日本放送協会に入局.放送技術研究所勤務.自然言語処理,人工知能の研究に従事.情報処理学会,人工知能学会各会員.}\bioauthor{浦谷則好}{1975年東京大学大学院修士課程(電気工学)修了.同年,日本放送協会に入局.1979年同放送技術研究所勤務.1991年より3年間ATR自動翻訳電話研究所ならびに音声翻訳通信研究所に勤務.現在,NHK放送技術研究所ヒューマンサイエンス主任研究員.情報検索,自然言語処理の研究に従事.工学博士.情報処理学会,電子情報通信学会,映像情報メディア学会各会員.}\bioauthor{江原暉将}{1967年早稲田大学第一理工学部電気通信学科卒業.同年,日本放送協会に入局.1970年より放送技術研究所に勤務.現在,ヒューマンサイエンスグループ主任研究員.かな漢字変換,機械翻訳,音声認識などの研究に従事.工学博士.本会評議委員.情報処理学会,機械翻訳協会,電子情報通信学会,映像情報メディア学会各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V26N01-09 | \section{はじめに}
近年,ニューラルネットワーク及び分散表現の使用により,係り受け解析は大きく発展している.\cite{dchen2014,weiss2015,hzhou2015,alberti2015,andor2016,dyer2015}.こうした構文解析器が,単語ごとの分かち書きを行う英語や多くのヨーロッパ諸語に適用された場合は非常に正確に動作する.しかし,日本語や中国語のように,特に単語毎の分かち書きを行わない言語に対し適用する場合は,事前に形態素解析器や単語分割器を利用して単語分割を行う必要がある.また,単語分割が比較的に容易な言語の場合でも,構文解析器は品詞タグ付け結果を利用することが多い.したがって,前段の単語分割器や品詞タグ付け器と後段の構文解析器をパイプラインにより結合されて用いられる.しかし,どのような単語分割器や品詞タグ付け器にも出力の誤りが存在し,結果的にそれが後方の係り受け解析器にも伝播することで,全体の解析結果が悪くなってしまう問題が存在した.これを誤差伝播問題と呼ぶ.日本語においても中国語においても,単語の定義には曖昧性が存在するが,特に中国語では,このような単語の定義の曖昧性から,単語分割が悪名高く難しいことが知られている\cite{Shen2016a}.それゆえ,従来法である単語分割,品詞タグ付け,構文解析のパイプラインモデルは,単語分割の誤りに常に悩まされることになった.単語分割器が単語の境界を誤って分割してしまうと,伝統的なone-hotな単語素性や通常の単語の分散表現(\textbf{wordembedding})では,もとの単語の意味を正しく捉えなおすことは難しい.結果的に,中国語の文を生文から解析する際は,パイプラインモデルの精度は70\%前半程度となっていた\cite{hatori2012}.このような誤差伝播問題に対しては,統合モデルを使用することが有効な解決方法として提案されている\cite{zhang-clark2008:EMNLP,zhang-clark2010,hatori2011,hatori2012,mzhang2014}.中国語の単語は,単一の表層系で複数の構文的な役割を演じる.ゆえに,そうした単語の境界を定めることと,後続の品詞タグ付け,構文解析は非常に関連のあるタスクとなり,それらを別個に行うよりも,同時に処理することで性能の向上が見込まれる.中国語の統合構文解析器については,すでに\citeA{hatori2012}や\citeA{mzhang2014}などの統合モデルが存在する.しかし,これらのモデルは,近年のwordembeddingのような表現学習や,深層学習手法を利用しておらず,専ら,複雑な素性選択や,それら素性同士の組み合わせに依存している.本研究では,ニューラルネットワークを用いた手法による中国語の統合構文解析モデルを提案し,パイプラインを用いたモデルとも比較する.ニューラルネットワークに基づく係り受け解析では,単語の分散表現と同様に文字の分散表現が有効であることが英語などの言語における実験で示されている\cite{ballesteros2015}.しかし,中国語や日本語のように個々の文字が固有の意味を持つ言語において,単語以下の構造である部分単語の分散表現がどのように有効であるかについては,いまだ十分な研究が行われていない.中国語では単語そのものの定義がやや曖昧である他に,単語内にも意味を持つ部分単語が存在する場合がある.加えて,中国語の統合構文解析を行う場合には,単語分割の誤りに対処したり,文中で単語分割をまだ行っていない箇所の先読みを行う必要があり,必然的に,単語だけではなく部分単語や単語とはならない文字列の意味を捉えることが必要になる.このような部分単語や単語とはならない文字列は,大抵の場合はモデルの学習に用いる訓練コーパスや事前学習された単語の分散表現中には存在せず,文字や文字列の分散表現を扱わない先行研究では未知語として処理される.しかし,こうした文字列を未知語として置換し処理するよりも,その構成文字から可能な限りその意味を汲み取った方が,より高精度な構文解析が行えると考えられる.このため,本研究では文字列の分散表現を利用した統合構文解析モデルを提案する.提案手法では,既知の文字または単語についてはそれらの分散表現を使用し,未知の文字列については文字列の分散表現を使用する.本研究では中国語の統合構文解析モデルとして,単語分割・品詞タグ付けおよび係り受け解析の統合モデルと,単語分割と品詞タグ付けの統合モデルおよび係り受け解析のパイプラインモデルの2つを提案する.これらのモデルを使用することで,実験では新規に世界最高性能の中国語単語分割および品詞タグ付け精度を達成した.また,係り受け解析とのパイプラインモデルが,従前の統合解析モデルと比較して,より優れた性能を達成した.以上の全てのモデルにおいて,単語と文字の分散表現に加えて文字列の分散表現を利用した.著者の知る限りにおいて,これは分散表現とニューラルネットワークを利用し,中国語の単語分割・品詞タグ付け・係り受け解析の統合解析を行った,はじめてのモデルである.この論文における貢献は以下のようにまとめられる.(1)分散表現に基づく,初めての統合構文解析モデルを提案した.(2)文字列の分散表現を未知語や不完全な文字列に対してその意味を可能な限り汲み取るために使用した.(3)加えて,既存手法で見られた複雑な素性選択を避けるために,双方向LSTMを使用するモデルを提案した.(4)中国語のコーパスにおける実験で単語分割・品詞タグ付けおよび係り受け解析にて新規に世界最高性能を達成した.この他に,本論文では中国語係り受け解析のラベル付けモデルを提案し,原文からラベル付き係り受け解析までを行った際のスコアを評価する.このモデルに関しても,同様に文字列の分散表現を利用する.
\section{関連研究}
遷移型係り受け解析アルゴリズムは,係り受け解析を行う際にその精度の高さと処理速度の速さから広く使われているモデルである.特に中国語の統合遷移型係り受け解析に対するアルゴリズムは\citeA{hatori2012}および\citeA{mzhang2014}において提案された.\citeA{hatori2012}は,係り受け解析に関する情報が,単語分割と品詞タグ付けを行う際にも有効であることを示し,遷移型係り受け解析アルゴリズムに基づく最初の単語分割,品詞タグ付けおよび係り受け解析のモデルを提案した.\citeA{mzhang2014}はこれを拡張し,通常の単語間の係り受けに加えて,単語内部の係り受けに対して独自にアノテーションを施し,これを考慮することによって,精度の向上を達成できることを示した.こうした\citeA{hatori2012}および\citeA{mzhang2014}による提案手法により,パイプラインモデルより優れた性能を出すなど,大きな成果が得られた.一方で,このような従来法におけるモデルでは,文字および単語のone-hotな表現を専ら利用しており,使用する文字や単語の類似性は考慮されていなかった.加えて,中国語の統合構文解析により処理を行う最中には,素性として,既知の単語や文字だけではなく単語をなさない不完全な文字列や部分単語も出現する.そのような不完全な文字列もしくは未知の単語は,モデルになんらかの形で認識させることで構文解析を行う際の重要な情報となりうる.しかし,そのような不完全な文字列は,従来法における外部知識源である辞書情報や,学習済みの通常の単語の分散表現では捉えることが難しかった.\citeA{hatori2012}および\citeA{mzhang2014}の提案手法における他の問題点として,これらの先行研究が詳細な素性選択を用いていることがあげられる.一方で,近年,双方向LSTMを利用し詳細な素性選択を回避したニューラルネットワークモデルが提案されている\cite{kiperwasser2016,cross2016}.これらのモデルでは,双方向LSTMは語句の分散表現をその内容も含めてモデル化するために用いられている.実際に,\citeA{kiperwasser2016}による構文解析モデルにおいては,双方向LSTMにより文全体の情報を利用することができるのに対し,素性に基づくモデルでは文全体を素性として用いることはできない.また,このように双方向LSTMを利用して文全体を符号化する手法は,機械翻訳でも多く用いられている\cite{bahdanau2014}.結果として,\citeA{kiperwasser2016}によるモデルでは世界最高の性能と比較可能な性能を達成している.本研究では,$n$グラムの文字分散表現に対応した双方向LSTMを利用した構文解析モデルも提案する.なお,\citeA{hatori2012}による手法ではあくまでも単一の分類器を使用して単語分割・品詞タグ付けおよび係り受け解析を同時に行うのに対し,\citeA{mzhang2014}の提案手法では,単語分割・品詞タグ付けに対応する分類器と係り受け解析に対応する分類器を同時に用意し,単語分割・品詞タグ付けに対応する分類器を数単語分だけ先に処理させる.このような2つの手法は,本研究における単語分割・品詞タグ付けおよび係り受け解析の統合モデルと,単語分割・品詞タグ付けの統合モデルおよび係り受け解析のパイプラインモデルの関係に近い.\ref{sec:segtag+dep}節にて,この関係を詳細に議論する.
\section{モデル}
この論文で提案する統合構文解析モデルは,\ref{sec:transition}節で解説する遷移型アルゴリズムを使用する.また,不完全な文字列に対する分散表現を得るための文字列の分散表現手法については\ref{sec:modelembedding}節で解説する.素性選択を利用するニューラルネットワークモデルを\ref{sec:modelfnn}節で解説し,双方向LSTMを利用するニューラルネットワークモデルを\ref{sec:bilstm}節で解説する.\subsection{単語分割・品詞タグ付け,係り受け解析のための遷移型アルゴリズム}\label{sec:transition}単語分割・品詞タグ付け,係り受け解析のための統合アルゴリズムには\citeA{hatori2012}に基づく,遷移型の統合アルゴリズムを使用する.統合解析モデルは入力文字列からなるbufferとstackからなり,bufferは文字が格納され,stackには単語と品詞タグ,およびそれらの単語の構文木上の子孫に当たる単語が格納される(図\ref{fig:trans}).初期状態ではbufferに全ての入力文字列が格納される.stackは空である.また,アルゴリズムの便宜上,bufferの末尾には文末を意味するシンボル``EOS''を置く.下記の遷移操作に従って,bufferからstackに文字が移され,単語や構文木か形成される.終状態においては,bufferが空になり,stackにはEOSシンボルを係り受け解析におけるROOTノードとして,品詞タグが付与された単語群による構文木が生成されている.\begin{figure}[b]\begin{center}\includegraphics{26-1ia9f1.eps}\end{center}\caption{単語分割・品詞タグ付け,素性選択のための遷移に基づく統合アルゴリズム}\label{fig:trans}\end{figure}本研究で用いる遷移操作は以下の通りである.\begin{itemize}\item{\usefont{T1}{pcr}{m}{n}SH(t)}(\textit{shift}):bufferの最初の文字をstackの先頭へ移動させ,新しい単語とする\item{\usefont{T1}{pcr}{m}{n}AP}(\textit{append}):bufferの最初の文字をstackの先頭の単語の末尾に加える\item{\usefont{T1}{pcr}{m}{n}RR}(\textit{reduce-right}):stackの先頭2単語のうち,右側の単語をstackから消去し,左側の単語の右側の子供の単語とする\item{\usefont{T1}{pcr}{m}{n}RL}(\textit{reduce-left}):stackの先頭2単語のうち,左側の単語をstackから消去し,右側の単語の左側の子供の単語とする\end{itemize}{\usefont{T1}{pcr}{m}{n}SH}操作および{\usefont{T1}{pcr}{m}{n}AP}操作によって単語の境界と品詞タグが決定され,{\usefont{T1}{pcr}{m}{n}RR}操作および{\usefont{T1}{pcr}{m}{n}RL}操作により構文木が作成される.これらの遷移操作のうち,{\usefont{T1}{pcr}{m}{n}RR}操作および{\usefont{T1}{pcr}{m}{n}RL}操作はArc-standardアルゴリズムのものと同一である\cite{nivre2004arcstand}.{\usefont{T1}{pcr}{m}{n}SH}操作および{\usefont{T1}{pcr}{m}{n}AP}操作はいずれもbufferの最初の文字をstackへと移動させるが,{\usefont{T1}{pcr}{m}{n}SH}操作は移動した文字を新しい単語の先頭とするのに対し,{\usefont{T1}{pcr}{m}{n}AP}操作はすでにstack先頭にある部分単語の末尾に文字を加える.ゆえに,{\usefont{T1}{pcr}{m}{n}SH}操作はモデルが予測する単語数を1単語だけ増加させるのに対し,{\usefont{T1}{pcr}{m}{n}AP}操作は,stackの先頭に存在する部分単語を1文字分だけ延長させる.品詞タグは{\usefont{T1}{pcr}{m}{n}SH(t)}操作と同時に付与される.ゆえに,{\usefont{T1}{pcr}{m}{n}SH(t)}操作は品詞タグの数と同じだけ存在する.なお,buffer上に文字が存在しない時は,{\usefont{T1}{pcr}{m}{n}SH}操作および{\usefont{T1}{pcr}{m}{n}AP}操作を行うことはできない.同様にstack上に2個以上の単語または生成途中の単語が存在しない時は{\usefont{T1}{pcr}{m}{n}RR}操作および{\usefont{T1}{pcr}{m}{n}RL}操作を行うことはできない.また,{\usefont{T1}{pcr}{m}{n}AP}操作が適用可能となるのは,直前の操作が{\usefont{T1}{pcr}{m}{n}SH}操作,もしくは{\usefont{T1}{pcr}{m}{n}AP}操作である時のみである.この論文においては,貪欲法による訓練及び探索とビーム法による訓練および探索の両方を実験する.この解析アルゴリズムはその両方に対して動作する.また,本研究においては,単語分割と品詞タグ付けの統合モデルと係り受け解析の単独モデルも同様に作成した.単語分割と品詞タグ付けの統合モデルにおいては,{\usefont{T1}{pcr}{m}{n}RR}操作および{\usefont{T1}{pcr}{m}{n}RL}操作は用いない.同様に,単独の係り受け解析モデルにおいては,通常のArc-standard構文解析モデルを使用する.\subsection{単語および文字,文字列の分散表現}\label{sec:modelembedding}本節ではニューラルネットワークモデルにおいて用いられる分散表現について解説する.統合構文解析を行う際は,必然的に,意味のある単語と不完全な文字列が解析中に多く出現する.このような不完全な文字列の表現は,\citeA{hatori2012}などの既存手法においては用いられなかったが,もし,分散表現を用いて他の単語や文字列との類似性を表現できれば,統合構文解析を行う際に非常によい情報となりうるはずである.例えば,固有表現である``南京\UTFC{4E1C}路''(上海にある有名な商店街)はPennChineseTreebank(CTB)コーパスではひとつの単語として扱われている.このような固有表現は,``北京西路''や``湘西路''などとしてCTBコーパス中に多く出現する.これらは,``南京''や``北京''などの都市を表す部分単語と``\UTFC{4E1C}路''や``西路''などといった場所を表す部分単語の組み合わせとして理解される.こうした表現を学習することで,テストデータ中に未知の``(固有地名)\UTFC{4E1C}路''や``(固有地名)西路''といった表現が出現しても,これを地名として処理することが期待できる.また,部分単語や,逆に複数の単語にまたがる文字列を利用することが,単語分割の誤りを補うために役立つ場合もある.例えば,``南京\UTFC{4E1C}路''に対し,単語分割器が過剰に単語分割を行い,``南京''と``\UTFC{4E1C}路''の2単語に区切ってしまった場合を仮定しよう\footnote{アノテーション基準によっては,そもそもこのような分割の仕方が正しい場合もある.}.この時,事前学習された単語の分散表現やCTBの訓練コーパス中に``\UTFC{4E1C}路''という単語が存在しなければ,これは未知語として処理されうる.このような場合でも,その文字の構成から``\UTFC{4E1C}路''は場所を表す単語であると推測できる.このように,部分単語や文字の表現を使用することで,単語分割の誤りに対して頑健さを持たせることができる.しかしながら,こうした部分単語や文字列等は,多くの従来研究では未知語もしくは``UNK''シンボル等として置換され,処理されていた.本研究では,こうした文字列についても,それを構成する文字から可能な限り意味を捉える分散表現を提案する.$n$個の文字$c_i$からなる文字列$c_1c_2\cdotsc_n$を考える.提案手法ではこの文字列に対する分散表現$\mathbf{v}(\cdot)$を以下のように計算する.\begin{equation}\mathbf{v}(c_1c_2\cdotsc_n)=\sum_{i=1}^n\mathbf{v}_c(c_i)\end{equation}ここで$\mathbf{v}_c(\cdot)$は文字の分散表現ベクトルを表す.このように文字列の分散表現を,その構成文字の文字表現から構成する手法は,どのような文字列に対しても計算できるほかRNNやCNN等の複雑なニューラルネットワークを用いないことによる速度上の利点が存在する.なお,このような文字,単語および文字列の分散表現はすべて同じベクトルの次元を持ち,ニューラルネットワークの計算グラフ中で,入力に対しどのような分散表現を利用するかが決定される.したがって,いずれの分散表現を利用する場合でも,その基となる文字または単語の分散表現が,ニューラルネットワークの誤差逆伝播法により学習される.本研究では,任意の中国語の単語列に対し,以下の規則にて,その分散表現を割り当てる.\begin{description}\item[(1)]文字列が既存の単語分散表現中に存在するか調べ,存在する場合には,その分散表現を使用する.\item[(2)]分散表現が存在しない場合には,上記の式のように,文字に対する分散表現を用いて,文字列の分散表現として使用する.\item[(3)]分散表現中に存在しない文字についてはUNKシンボルを使用する.\end{description}本研究では,UNKシンボルのような未知語の表現ベクトルを利用することは可能な限り回避した.なぜならば,そのようなベクトルを使用することはニューラルネットワークに与える入力を縮退させることになるからである.しかしながら,事前学習された分散表現中に存在しない文字については,入力をUNKシンボルに置換して使用する.品詞タグについても同様に対応する分散表現を用意し,学習に使用する.UNKシンボルに対応する分散表現や品詞タグに対応する分散表現は,正規分布を用いて初期化される.この他,本研究では,部分単語の長さに対応する,数字の分散表現を一部に用いた.これは,一定の長さを持つ文字列は,同じ分散表現を共有するものである.もっぱら,bufferからstackへと一文字毎に移されている最中の部分単語の長さを表現するために用いられる.数字の分散表現も正規分布を用いて初期化される.提案手法では,単語と文字の分散表現を事前学習にて準備する.文字と単語の分散表現は,同一のベクトル空間に埋め込まれる.まず,事前学習に用いるコーパスについて,単語分割されたファイルと一文ごとに文字分割されたファイルを用意する.各ファイルには一行に一文ずつ事前学習に用いる文を配置する.次に,それらのファイルを結合し,行単位でランダムに並び替え,単語及び文字の分散表現を学習するための事前学習コーパスとする.これにより,類似した意味を持つ単語と中国語の文字は,ベクトル空間内の近い位置に埋め込まれることが期待される.中国語の文中には,一文字で一単語となる単語も存在し,そのような単語を介して,周辺の文字や単語が類似した位置に配置されうるからである.具体的な分散表現学習に用いたツールおよびコーパスについては,\ref{sec:exp_setting}節に記載した.\subsection{素性選択を利用するニューラルネットワークモデル}\label{sec:modelfnn}\subsubsection{ニューラルネットワークモデル}素性選択に基づくニューラルネットワークモデルを図\ref{fig:modelfnnnet}に示す.素性とその分散表現を入力に取るニューラルネットワークを使用した構文解析は,近年,活発な研究が行われており,その中には貪欲法に基づいてニューラルネットワークを学習させるもの\cite{dchen2014,weiss2015},ビーム探索を用いるもの\cite{andor2016,weiss2015}がある.本研究では,このように素性を入力として用いることに加えて,不完全な文字列が素性として入力されても処理が可能であるように,\ref{sec:modelembedding}節にて導入した文字列の分散表現の動的生成を加えた.\begin{figure}[t]\begin{center}\includegraphics{26-1ia9f2.eps}\end{center}\hangcaption{素性に基づくニューラルネットワーク.貪欲法による出力は2番目の隠れ層から入力を受けるのに対し,ビーム探索には全ての隠れ層および貪欲法による出力層から入力を受けるパーセプトロン層を使用する.入力の文字列は,分散表現に含まれている場合はその分散表現が使用され,含まれていない場合は,文字列の分散表現がその文字構成から計算されて使用される.}\label{fig:modelfnnnet}\end{figure}遷移操作を決定する分類器には,8,000次元の2つの隠れ層を持つ,3層フィードフォワードニューラルネットワークを使用した.これは200次元の隠れ層を利用した\cite{dchen2014}や1,024次元もしくは2,048次元の隠れ層を利用した\citeA{weiss2015}よりも更に大きい.隠れ層の活性化関数にはReLUを使用した\cite{nair2010relu}.なお,\cite{dchen2014}にて用いられている$x^3$の活性化関数は,2層のフィードフォワードニューラルネットワークでは比較可能な性能を達成したが,3層以上のフィードフォワードニューラルネットワークでは,うまく動作しなかった.フィードフォワードニューラルネットワークの最終層が出力層となる.貪欲法による出力層はsoftmax関数を使用した.ニューラルネットワークの隠れ層は乱数を用いて初期化した.貪欲法における損失関数$L(\theta)$は\begin{gather*}L(\theta)=-\sum_{s,t}\logp_{s,t}^{\mathrm{greedy}}+\frac{\lambda}{2}||\theta||^2,\\p_{s,t}^{\mathrm{greedy}}(\boldsymbol{\beta})\propto\exp\left(\sum_jw_{tj}\beta_j+b_t\right),\end{gather*}となる.ここで,$t$は可能な遷移操作の集合$\mathcal{T}$($t\in\mathcal{T}$)の中のある1つの遷移操作を表す.$s$はニューラルネットワークの学習におけるミニバッチ中の1つの要素を示す.$\boldsymbol{\beta}$はフィードフォワードニューラルネットワーク最終層における出力を表す.$w_{tj}$及び$b_t$はニューラルネットワークの重み行列とバイアス項を示す.$\theta$はモデルの全ての変数を示す.本研究ではニューラルネットワークの変数に対し,$L2$罰則項とDropoutを使用した.ニューラルネットワークの誤差逆伝播法は,これらのニューラルネットワークの変数を含めて,単語及び文字の分散表現まで行われる.誤差逆伝播法の学習率の調整にはAdagradを使用する\cite{duchi2010adagrad}.Adam\cite{kingma2015adam}とSGDを使用することも考慮したが,このモデルについてはAdagradがよりよく振る舞った.他のモデル変数については表\ref{table:params}にまとめる.\begin{table}[t]\caption{ニューラルネットワークの構造と学習に関する諸変数}\label{table:params}\input{09table01.tex}\vspace{4pt}\small単語と文字は同じ次元の分散表現を持つ.「文字列長さの埋め込み」とは,bufferからstackへと一文字毎に移されている最中の部分単語の長さに対応する数字の分散表現である.\end{table}表\ref{table:params}のモデル変数のうち,$\mathbf{h_1}$と$\mathbf{h_2}$のサイズは予備実験により決められた.学習率の初期値については,ニューラルネットワークの学習において広く使われているものを用いたが,ビームを使用する場合は,モデルの安定性のため,小さな初期値から学習を始めた.単語・文字の埋め込みにおけるボキャブラリー数については,分散表現に含まれる語彙数を多くするため,サイズの大きいものを用いた.埋め込みの次元は\citeA{dchen2014}などの先行研究で広く使われている値の一つである200次元を用いた.ニューラルネットワークの隠れ層が8,000次元となり,これは先行研究よりも大きい.この理由として,1つ目に,\ref{sec:features}節にて紹介する,素性を表現するベクトル表現が大きいことが挙げられる.例えば,単語分割,品詞タグ付けおよび係り受け解析の統合モデルについては,合計で9,820次元にもなる.この中には文字列に関する素性も含まれる.これを表現するために大きな隠れ層が必要となる.2つ目に,ニューラルネットワークが,単語分割,品詞タグ付けおよび係り受け解析という多岐にわたる判断をしなければならないことが挙げられる.出力側が複雑になるために,必要となる隠れ層のサイズも大きくなると考えられる.貪欲法によるモデルの学習では,学習前に,訓練データセット中の全ての文に対して,遷移型構文解析アルゴリズムを正解ラベルに従って順次適用させたときに出現する,入力素性および遷移操作の教師ラベルの組み合わせを予め計算し抽出した.このようにして抽出された文内での遷移操作と入力素性の組み合わせを,文をまたいでシャッフルしてからニューラルネットワークの学習に用いるミニバッチを作成した.これにより,あるミニバッチに特定の文が偏ることがないようにした.モデルのテスト時や実際の入力文の解析時には,処理を行う文を複数個並べてミニバッチを作成し,同時に解析が行えるようにした.これにより,ある一連のニューラルネットワークの呼び出しに対し,複数文を同時に処理することが可能となり,速度の大幅な向上が可能となった.この際に,同時に処理が可能な文数は専らGPUのメモリサイズのみに制約される.また,この方法はビームを用いた解析にも適用できる.\subsubsection{素性}\label{sec:features}このニューラルネットワークの素性を表\ref{table:features}に列挙する.本研究では,以下の3種類の素性を使用した.\begin{description}\item{(1)}\citeA{hatori2012}にて用いられた素性から,素性同士の共起を取り除いたもの\item{(2)}\citeA{dchen2014}にて用いられた素性\item{(3)}文字列に関する独自の素性\end{description}\begin{table}[t]\caption{統合モデルに対する素性}\label{table:features}\input{09table02.tex}\vspace{4pt}\smallこの表において,``b''はbufferの文字,``s''はstackの単語を示し,``b''と``s''の次の数字は,先頭からの文字および単語の番号である.``l''と``r''は,その単語の左側と右側の子どもの単語のことを指し,``l''と``r''の次の数字は,子どもの単語の番号である.サフィックスのw,p,c,eは,それぞれ,文字列または単語,品詞タグ,文字,そして文字列の最後の一文字を表す.``q0''は直前にbufferからstackへ移動された単語を,``q1''は``q0''より先に移動された単語を示す.``partofq0word''では,q0f1,q0f2,q0f3は,それぞれf1,f2,f3の位置の文字から始まるq0の部分単語を表す.ここでf1はq0の最後の文字の位置を表すため,q0f1はq0の最後の一文字を表す.f2は最後から2番目の文字の位置を表すため,q0f2はf2の位置から始まる2文字の文字列を示す.``stringsacrossq0andbuf.''では,q0f1bXは,単語q0のf1の位置から始まる$X$個の文字からなる文字列を表す.この素性による文字列はbufferとstackにまたがりうるが,連続的な文字列に限定する.``stringsofbuffercharacters''では,bX-Yが,buffer内部の$X$番目から$Y$番目までの文字列を表す.lenq0はq0の長さを示し,この分散表現のみ小さな埋め込みのサイズを用いる.\end{table}このなかで独自の素性として,部分単語に関するものとbufferとstackにまたがる文字列の素性,bufferの中の文字列の素性が存在する.bufferとstackにまたがる文字列の素性は,現在,単語分割が行われている単語に対する貴重な情報を提供する.また,長すぎる文字列に対する素性を用いることがないように,本研究では文字列素性の長さを4文字以下に制限した.CTBデータセットにおいては,5文字以上の長さの単語は稀であるからである.ただし,これは素性に関するものであり,出力単語としてはそれ以上の長さのものもありうる.ただし,本研究では,文中に連続に出現する文字列のみを素性に用い,共起に関する素性は使用しなかった.ここでいう共起に関する素性とは,例えばstackの先頭以外の位置にある文字列と,bufferにある文字列の組み合わせに関する素性等である.\citeA{hatori2012}では多数の手作業で調整されたone-hotな素性の共起を利用していた.本研究では,そのような素性同士の共起はニューラルネットワークの隠れ層上で自然に考慮されると考えた\cite{hinton1986}.本研究では,単語分割済みの単語については,単語や文字列のほかに,すでにモデルによって付与された品詞も素性として利用させた.また,bufferからstackへと一文字ずつ文字を移動させている最中の単語の長さを表現するために,小さな次元の埋め込みを用いた.また,単語分割,品詞タグ付けおよび係り受け解析の統合解析モデルとは別に,単語分割と品詞タグ付けのみの統合モデルも実験に用いた.このモデルについては,構文解析に関する素性,すなわちstackに存在する単語や文字列の子供や孫にあたる単語に関する素性を省略している.\subsubsection{ビーム探索}ビーム探索は中国語の統合解析において重要な役割を果たす.本研究では,近年提案された,ビームを用いたニューラルネットワークの最適化手法を採用した\cite{weiss2015,andor2016}.図\ref{fig:modelfnnnet}では,最上部に位置するパーセプトロン層がビームを利用した解析に使用する.具体的には,ビーム探索のために独立したパーセプトロン層を用意し,フィードフォワードニューラルネットワークの2層の隠れ層および貪欲法による出力層を,その入力とする:[$\mathbf{h}_1,\mathbf{h}_2,\mathbf{p^{\mathrm{greedy}}(y)}$].次に,このパーセプトロン層を以下のコスト関数にしたがって学習させる\cite{andor2016}:\begin{align*}L(d^*_{1:j};\theta)&=-\sum_{i=1}^j\rho(d^*_{1:i-1},d^*_i;\theta)\\&+\ln\sum_{d'_{1:j}\in\mathcal{B}_{1:j}}\exp\sum_{i=1}^j\rho(d'_{1:i-1},d'_i;\theta),\label{eq:andor}\end{align*}ここにおいて,$d_{1:j}$は統合構文解析の遷移経路を示し,$d^*_{1:j}$は正解の遷移経路を示す.$\mathcal{B}_{1:j}$はビーム内部での1番目から$j$番目までの遷移経路を示す.$\rho$は図\ref{fig:modelfnnnet}におけるパーセプトロン層の出力を表す.本研究では,\citeA{andor2016}と同様にして,貪欲法を用いてフォードフォワードニューラルネットワーク部分を学習し,次にビームを用いて,パーセプトロン層のみを学習させる.最後に,フィードフォワードニューラルネットワークを含めて誤差逆伝播法による学習を行う.この学習はネットワーク全体に対して行うことも可能であるが,予備実験の結果,この段階で文字および単語の埋め込み層を最適化すると,学習結果が悪くなることが判明した.そこで,本研究では,文字及び単語埋め込み層をこの段階の学習からは除外した.このニューラルネットワーク全体を通した誤差逆伝播法は,かなりのGPUメモリを消費する.それゆえ,訓練コーパスのうちとりわけ長い文は,GPUメモリに載せられないために訓練から取り除いた.また,ビームを用いた訓練においては,最初のエポックでは小さなビームサイズで学習を行い,徐々に学習に用いるビームサイズを増やしていった.学習には順に4,8,16のサイズのビームを使用した.最終的な単語分割・品詞タグ付けおよび係り受け解析の統合モデルの学習及びテストにはサイズ16のビームを用いた.本研究では,単語分割・品詞タグ付けおよび係り受け解析の統合モデルでのビーム探索について,\citeA{hatori2012}と同様に特別な配置ステップを使用した.単語分割・品詞タグ付けおよび係り受け解析の統合モデルでのビーム探索では,{\usefont{T1}{pcr}{m}{n}AP}遷移のみに2ステップの配置をもたせている.この配置を使用することで,$N$文字の文に対する総遷移回数は,どのような遷移経路を経由しても,文終端記号に対応する遷移を除いて$2N-1$となる.これは,{\usefont{T1}{pcr}{m}{n}AP}遷移操作が,文字の追加と単語内の係り受け解決の2つのことを行っているとして解釈できる.つまり,中国語の単語は,単語内にも文字同士の係り受け関係が存在すると解釈し,{\usefont{T1}{pcr}{m}{n}AP}遷移操作はこの単語内の係り受けを解決するものとして捉える.本研究では,\citeA{hatori2012}にて用いられた,HuangとSagaeによる動的計画法を用いたビーム探索の手法は使用していない\cite{huangsagae2010,hatori2012}.それは,\citeA{andor2016}によるニューラルネットワークのビームサーチを利用した広域最適化手法式が,遷移型解析の途中状態でのニューラルネットワーク関数の出力結果を入力とすることによる.遷移型解析にて経由するすべての途中状態でのニューラルネットワークの出力結果は,先の式を通じて,全体の計算グラフの中に取り込まれる.このように,ニューラルネットワークの計算グラフの中で,遷移の途中状態も含めた最適化が行われるために,少なくとも学習時は,この手法における動的計画法の採用は難しいと考えられる.また,ニューラルネットワーク固有の問題としてDropoutを使用している場合は,そもそも,同一の入力に対して確率的に異なる振る舞いをする.この性質は,動的計画法には向かない.\subsection{双方向LSTMを使用したモデル}\label{sec:bilstm}\ref{sec:modelfnn}節では,素性選択を利用したニューラルネットワークを提案した.このモデルは非常に高い性能を誇るが,以下の2つの問題が存在した.\begin{description}\item[(1)]ニューラルネットワークが限られた素性に基づいて動作するため,文全体の情報を入力にとることはできない\item[(2)]素性選択に頼っている\end{description}この問題を解決するため,\citeA{kiperwasser2016}は双方向LSTMによる構文解析モデルを提案した.彼らのモデルでは非常に少数の素性のみを使用しながら,双方向LSTMを使用することで文全体の情報をニューラルネットワークに与えることに成功した.結果的に,彼らのモデルは,PennTreebankデータセットにて素性に基づく\citeA{weiss2015}によるモデルと比較可能な性能を達成した.彼らのモデルは,3つの部分から成り立っている.入力文を処理する双方向LSTMと,双方向LSTMの隠れ層から素性を抽出する関数と,多層パーセプトロンである.語句を直接に素性として用いるのではなく,文全体を双方向LSTMを利用して処理した各語句の分散表現を素性として用いることに特徴がある.本論文では,\citeA{kiperwasser2016}の手法を発展させ,双方向LSTMによる文全体の情報抽出を利用して,単純かつ大域的な素性を利用した統合構文解析モデルを提案する.\citeA{kiperwasser2016}の手法は,入力が単語分割されていることを前提としている.したがって,中国語の統合構文解析に応用するに際し,単語分割が施されていない入力に,どのように双方向LSTMを利用するかが問題となる.文字に対する単純な双方向LSTMのみを使用した場合,文字列としての意味を捉えられるとは限らない.そこで本研究では,単純な文字入力の他に,文中に存在するできる限り多くの文字列に対して,分散表現を付与し,その利用を可能にする方法を提案する.図\ref{fig:modellstmnet}のように,入力文中に出現する複数の長さの文字列を捉えるために,$n$文字入力に対応する複数の双方向LSTMを組み合わせる.$n$文字入力に対応する双方向LSTMは文字列$c_i\cdotsc_{i+n-1}$の配列である\[\{c_1\cdotsc_{n},\cdots,c_i\cdotsc_{i+n-1},\cdots,c_{N-n+1}\cdotsc_{N}\}\]を入力とする.ここで,$c_i$は$N$文字からなる文中の$i$番目の文字を表す.また,文終端記号やニューラルネットワークのパディングのための表現は別に与える.具体的には,$n=1$のときは,文字入力の双方向LSTMに対応し,$n=2$のときは連続的な2文字$c_ic_{i+1}$を双方向LSTMの入力とする.こうした$n$文字入力に対応する双方向LSTMは,入力となる文字列の表現を,単語または文字の分散表現もしくは動的に生成される文字列の分散表現として利用する.このように文中に存在する文字列をできる限り利用する手法では,当然ながら,多くの不完全な単語が入力中に生成されてしまう.しかしながら,不完全な単語や文字列であっても,文字列の分散表現を利用することで,双方向LSTMにその構成文字の情報を伝えることが可能となる.\begin{figure}[t]\begin{center}\includegraphics{26-1ia9f3.eps}\end{center}\hangcaption{双方向LSTMによるモデル.$n$-gramに対応する4個の独立した双方向LSTMによって,文全体が$n$文字ずつ処理され,文字の開始位置に応じた4個の隠れ状態が作られる.次にstackやbufferの状態に合わせて,隠れ状態から素性抽出が行われる.なお,素性抽出の際は,単語の開始位置に対応する4個の隠れ状態を結合して用いる.なお,本図においては,4素性モデルに対応する4個の素性を図示した.8素性モデルにおいて使用される,stackの子供の単語に関する4個の素性については,図示していない.}\label{fig:modellstmnet}\end{figure}このようにして生成された文中の文字列の双方向LSTMによる表現を,buffer及びstack内部の単語や文字列の表現として利用する.ただし,ここでは,文字$c_i$から開始する複数の文字列$c_i,c_ic_{i+1},\cdots,c_{i+n-1}$について,その双方向LSTMによる表現を連結したベクトル\[\left[v(c_i),v(c_ic_{i+1}),\cdots,v(c_{i+n-1})\right]\]を,文字$c_i$から開始される文字列の素性の表現ベクトルとして利用する.双方向LSTMを利用するモデルの素性は表\ref{table:featureslstm}にまとめられる.最後に多層パーセプトロンおよびsoftmax関数により,統合構文解析に用いられる遷移確率が予測される.\begin{table}[t]\caption{双方向LSTMを用いたモデルに使用される素性}\label{table:featureslstm}\input{09table03.tex}\vspace{4pt}\small構文解析を行う際のstackとbufferのみの非常に基本的な素性が4素性モデルであり,stackの子供の単語に関する4個の素性を加えたのが8素性モデルである.素性に使用されている記号については,表\ref{table:features}と同一である.\end{table}双方向LSTMを使用するモデルについては,多層パーセプトロンには3層の重み行列を持つものを用いた.このニューラルネットワークについては,貪欲法による学習を適用した.\subsection{係り受けラベルの推定モデル}\label{sec:modellabeler}本論文では係り受け解析のラベルの推定モデルを提案する.このモデルは,先程までのモデルとは独立に,入力文の単語列,品詞タグおよびラベルなしの係り受け解析結果を入力にとる.モデル本体は,入力単語列と品詞タグを処理する一層の双方向LSTMと,係り受けのある各単語ペアごとにラベルを推定するフィードフォワードニューラルネットワークからなる(図\ref{fig:modellabeler}).前節までのモデルと同様にUNKに起因する問題を回避するため,このモデルは,入力単語を,単語,文字および文字列の分散表現を利用して,入力単語列の分散表現を得る.また,品詞タグも分散表現に変換し,入力単語列の分散表現と連結した上で,双方向LSTMへの入力とする.双方向LSTMの出力から係り受け元と係り受け先の単語の分散表現を抽出し,2層フィードフォワードニューラルネットワークの入力とする.2層フィードフォワードニューラルネットワークの最終層にあるsoftmax関数が係り受けのラベルの予測分布を出力する.\begin{figure}[t]\begin{center}\includegraphics{26-1ia9f4.eps}\end{center}\hangcaption{双方向LSTMによる係り受け解析結果へのラベル付けモデル.係り受けのある単語対について,係り受けラベルを推測する.}\label{fig:modellabeler}\end{figure}
\section{実験}
\subsection{実験設定}\label{sec:exp_setting}実験には,中国語の構文解析データセットである,PennChineseTreebank5.1(CTB-5)およびPennChineseTreebank7(CTB-7)を利用した.データセットの分割には,標準的に用いられているCTB-5の分割\cite{jiang2008ctb5}およびCTB-7の分割\cite{wang2011ctb7}を使用した.オリジナルのCTBデータセットには,係り受け解析の結果は含まれていない.そこで,Penn2Malt\footnote{https://stp.lingfil.uu.se/~nivre/research/Penn2Malt.html}を使用して係り受け解析の形式に変換した.データセットの統計を表\ref{table:ctb5stat}に示す.\begin{table}[t]\caption{PennChineseTreebankデータセットの統計}\label{table:ctb5stat}\input{09table04.tex}\end{table}分散表現の事前学習にはChineseGigawordCorpusを使用した.分散表現の事前学習の具体的な手法は,\ref{sec:modelembedding}節の後半に記載した.本研究では,単語および文字の分散表現事前学習にはword2vecを使用した\cite{mikolov2013word2vec}.事前学習に用いたコーパスの単語分割には,\cite{Shen2016c}のKKNにより行われた.これら単語と文字の同時埋め込み事前学習は,\ref{sec:modelembedding}節にて紹介した方法により行われた.学習済み分散表現のうち,その頻度順の上位100万語を使用した.さらに,CTBデータセットのうち訓練データセットに含まれる未知語については,正規乱数を用いて初期化されたベクトルを使用する.開発データセットおよびテストデータセットについては,このような事前に初期化された分散表現を持たない未知語を持つ.本研究ではラベルなしの係り受け解析をまず実験し,評価した.次に,\ref{sec:labelexp}節にてラベル付きの解析を行った.単語分割や品詞タグ付け,係り受けの評価には,\citeA{hatori2012}および\citeA{mzhang2014}にしたがって,F1測定による標準的な単語単位での評価を行った.この設定では,正しく分割されていない単語に対しては,品詞タグと係り受け解析の結果も正しいとはみなされない.\citeA{hatori2012}と同様に,句読点への係り受けは評価の対象とはしない.本研究ではSegTag,SegTagDepおよびDepの3種類のモデルを用いて実験を行った.SegTagは単語分割と品詞タグ付けの統合モデルである.SegTagモデルにて使用される遷移操作は\ref{sec:transition}節にて,使用される素性は,\ref{sec:features}節の末尾にて解説している.SegTagDepは単語分割・品詞タグ付けおよび係り受け解析の統合モデルであり,Depは係り受け解析のモデルである.Depモデルは\citeA{weiss2015}および\citeA{andor2016}に類似し,また使用される素性の種類は\citeA{dchen2014}と同様であるが,素性の入力方法には,\ref{sec:modelembedding}節にて解説した文字列の分散表現を利用している.これにより,単語分割の誤りや未知語などがDepモデルの入力に含まれていても,Depモデルは,文字表現からある程度はその入力を捉えることが期待される.この効果は後ほど検証する.この論文における実験の多くはGPUを用いて行われたが,ビームを用いた学習の一部は,大きなミニバッチを使用していたために,GPUメモリに乗せることができず,CPU上で行われた.ニューラルネットワークの実装にはTheanoを用いた.\subsection{結果}\subsubsection{単語分割と品詞タグ付けの統合モデル}最初に,単語分割と品詞タグ付けの統合モデル(SegTag)について実験し,評価した.このモデルにて使用される遷移操作は\ref{sec:transition}節にて,使用される素性は,\ref{sec:features}節の末尾にて解説している.表\ref{table:segpos}では,CTB-5データセットを用いて,単語分割と品詞タグ付けの性能を比較した.本研究では提案手法を\citeA{hatori2012}および\citeA{mzhang2014},\citeA{zhangdarwish2015}の3つの異なる関連研究と比較した.ZhangY.らのモデルはZhangM.らのモデルのk-best出力を,再並び替えするモデルである\cite{zhangdarwish2015}.なお,この表における\citeA{hatori2012}の手法のスコアは\citeA{hatori2012}の論文から取得した.本研究での単語分割と品詞タグ付けの統合モデルは,これらの既存手法に対し,その両方で優れた性能を示した.この中には優れた辞書情報を利用する\citeA{hatori2012}のモデルも含まれる.ただし,本研究では,ChineseGigawordCorpusを用いて,単語および文字の分散表現を事前学習しており,CTBデータセットのみを使用している既存手法との比較においては注意を要する.\begin{table}[b]\caption{単語分割と品詞タグ付けの統合モデル}\label{table:segpos}\input{09table05.tex}\vspace{4pt}\smallCTB-5における実験結果.SegTagモデルを,\citeA{hatori2012}および\citeA{mzhang2014},\citeA{zhangdarwish2015}のモデルと比較した.\citeA{hatori2012}のモデルにおける(d)は,辞書を使用したモデルであることを示す.\citeA{mzhang2014}のモデルにおけるEAGはArc-Eagerモデルであることを示す.SegTag(g)は貪欲法を用いて学習されたモデルを,SegTagはビームサーチを用いて学習されたモデルを示す.\end{table}\subsubsection{単語分割・品詞タグ付けおよび係り受け解析の統合モデル}表\ref{table:segposdepresult}は単語分割・品詞タグ付けおよび係り受け解析までをすべて統合して行った場合の結果を示している.特に貪欲法を用いて学習を行った統合モデルであるSegTagDep(g)モデルとビームを用いて学習を行ったSegTagDepモデルの結果を示す.提案手法は単語分割と品詞タグ付けにおいて既存手法を超える性能を発揮した.\citeA{andor2016}によるビームサーチを用いることで係り受け解析のスコアは更に改善されたが,ZhangM.らの手法およびそれを用いるZhangY.らの手法にはわずかに劣る性能を示した.なお,この表における\citeA{hatori2012}の手法のスコアは\citeA{mzhang2014}から取得した.\begin{table}[t]\hangcaption{単語分割・品詞タグ付けおよび係り受け解析の統合モデル(SegTagDep)と単語分割と品詞タグ付けの統合モデルと係り受け解析のパイプラインモデル(SegTag+Dep).}\label{table:segposdepresult}\input{09table06.tex}\vspace{4pt}\smallCTB-5における実験結果.(g)は貪欲法を用いて学習されたことを示す.SegTag+Depモデルにおいては,SegTagとDepの双方でビームを用いて訓練とテストを行っている.なお,\citeA{zhangdarwish2015}は他の構文解析器の結果を再配置し,精度の向上を目指すモデルである.$\ddagger$はSegTagDep(g)モデルに対して対応のあるt検定を行い,$p<0.01$で統計的に有意な改善が見られたことを示す.\end{table}なお,貪欲法によるモデルであるSegTagDep(g)はビームサーチを用いるモデルよりわずかに劣る結果となったが,ビームを用いないことによる解析の速さは一考に値する.\subsubsection{単語分割と品詞タグ付けの統合モデルと係り受け解析のパイプラインモデル}\label{sec:segtag+dep}次にSegTagモデルと依存構造解析のみのモデル(Dep)とのパイプラインモデル(SegTag+Dep)を実験した.簡単のため,SegTagモデルは貪欲法で学習されたのに対し,Depモデルはサイズ4のビームを用いて学習及びテストが行われた.結果を表\ref{table:segposdepresult}のSegTag+Depに示す.同じくビームサーチを使用するモデルであるSegTagDepとSegTag+Depを比較した場合,SegTag+Depは係り受け解析を含めた統合モデルであるSegTagDepよりも係り受け解析および単語分割において優れていた.SegTagDepモデルやSegTag+Depモデルにおける単語分割の誤りは,主に固有表現にて生じている.本論文では,これを詳細に考察する.SegTagDepモデルにて用いられるビームを用いた学習では,\citeA{hatori2012}の{\usefont{T1}{pcr}{m}{n}AP}操作に2倍の配置長を持たせる手法が使われている.これは,単語内部の文字同士の係り受けを考慮していると解釈できる.例えば``\UTFC{8BB0}者''(記者),``\UTFC{5B9E}\UTFC{9A8C}室''(実験室)のような単語においては,前の文字が,順番に後ろの文字に係り受け構造を持つとして,直感的にも理解できる.この解釈では,{\usefont{T1}{pcr}{m}{n}AP}操作は,文字を連結し,かつ単語内の係り受けを解決しているために,2倍の配置長を持つ操作となる.しかし,固有表現においては,先程のような単語内係り受けが存在するとは考えにくい場合がある.例えば,人名である``\UTFC{5362}仁法''は文字同士の係り受けを持たない単語と見なしたほうが自然である.そのような単語に対しては,SegTagDepモデルでは{\usefont{T1}{pcr}{m}{n}SH}遷移を行うことが多くなる.これは\citeA{hatori2012}の{\usefont{T1}{pcr}{m}{n}AP}遷移が文字の結合と単語内係り受けの解決という2つのことをしているとみなした場合に,固有表現には必ずしもそのような内部の係り受けが存在するとは限らないため,やや過剰な配置をもたせていると考えられるためである.そのため,結果的に,SegTag+Depの方がSegTagDepより優れてた単語分割結果となったと考えられる.固有表現について,SegTagDepモデルとSegTag+Depモデルを比較した場合,以下のような差が見られた.``\UTFC{603B}\UTFC{7EDF}~\UTFC{9F9A}保雷~餐叙,''(ゴンバオリ大統領が会食をして,)という句中の``\UTFC{9F9A}保雷~餐叙''に対し,SegTagDepモデルは``\UTFC{9F9A}保雷餐叙''という一単語として固有表現としたのに対し,SegTag+Depモデルは固有表現の``\UTFC{9F9A}保雷''(ゴンバオリ・人名)と動詞の``餐叙''(会食をして)として,正しく単語分割を行った.地名についても,一語の固有表現である``新喀里多尼\UTFC{4E9A}''(ニューカレドニア)や``所\UTFC{7F57}\UTFC{95E8}群\UTFC{5C9B}''(ソロモン諸島)に対して,SegTagDepモデルは過分割を行ったが,SegTag+Depモデルは一語の固有表現として,正しく分割を行った.やや特殊な例としては,``以多明尼加\UTFC{4E3A}例,就在\UTFC{9648}水扁\UTFC{603B}\UTFC{7EDF}造\UTFC{8BBF}前夕,多国新\UTFC{603B}\UTFC{7EDF}\UTFC{9635}\UTFC{8425}主\UTFC{52A8}向媒体透露,中国大\UTFC{9646}将\UTFC{4E3A}多国\UTFC{5174}建大型火力\UTFC{53D1}\UTFC{7535}厂的\UTFC{8BAF}息.''(ドミニカ共和国では,陳水扁総統が訪れる直前に,新大統領陣営は自ら中国大陸により大型の火力発電所が建設されることをメディアに告げた.)という文では,``多国''がドミニカを指し示す固有表現となる.一方で,``多国''は``多''および``国''と二単語にも分割され,この場合は「多くの国」という意味にもなる.このような場合に,SegTagDepでは``多国''を``多''と``国''に分割して出力されたが,SegTag+Depでは「多国」として一語の固有表現として出力された.また,関連研究にて,\citeA{mzhang2014}の提案したSTD(Arc-standard)モデルは,\citeA{hatori2012}の単語分割・品詞タグ付けおよび係り受け解析の統合モデルよりも高性能に動作した.\citeA{mzhang2014}の提案したSTD(Arc-standard)モデルは,まず単語分割を先に行い,その結果を``deque''に格納してから係り受け解析を行うモデルであり,本論文におけるSegTag+Depモデルと類似する.本研究における提案手法においては,加えて,単語と文字の分散表現を利用することで従来法より高性能に単語分割と品詞タグ付けが動作するために,単語分割と品詞タグ付けの結果を先読みすることでDepモデルが最終的に良い結果を出しているものと推測される.\subsubsection{CTB-7における実験}SegTagDepおよびSegTag+Depモデルをより大きなCTB-7データセットにおいても評価した.CTB-7データセットにおける実験においては,4層の隠れ層を持つ多層パーセプトロンが3層のものよりも優れた結果を残した.ただし,CTB-5における実験においては,明確な差異を見出すことができなかった.この違いについては,訓練データセットのサイズの違いによるものと推測される.4層の隠れ層を持つ多層パーセプトロンモデルによる実験結果を表\ref{table:ctb7}に示す.\subsubsection{文字列の分散表現の影響}本研究にて提案する文字列の分散表現がどの程度有効なのかを調べるため,SegTag+Depモデルについて,文字列の分散表現を使用した場合とUNKに対応する分散表現を使用した場合の,性能の変化を調べた.実際の使用条件に近い状況で試験を行うために,SegTagモデルによる単語分割及び品詞タグ付けの解析結果に対し,係り受け解析を行う.係り受け解析には,貪欲法により学習された以下の2つのモデルを試験した.最初のモデルDep(g)は,文字列の分散表現を使用した係り受けモデルである.次のモデルDep(g)-csは,文字列の分散表現を使用せず,文字と単語の分散表現に出現しない未知語に対しては,UNKの分散表現を使用したモデルである.入力素性に対応する分散表現が存在しなかった場合には,従来法であるDep(g)-csモデルはUNKの分散表現を使用するが,Dep(g)は文字列の分散表現を使用する.結果を表\ref{table:sumemb}に示す.なお,簡単のために,ビームを使用しない条件での比較を示す.\begin{table}[b]\caption{SegTagDepとSegTag+Depの実験結果}\label{table:ctb7}\input{09table07.tex}\vspace{4pt}\smallCTB-7における実験結果.なお,貪欲法を用いて訓練されたモデルSegTagDep(g)による結果も同様に示す.SegTag+Depモデルにおいては,SegTagとDepの双方でビームを用いて訓練とテストを行っている.\end{table}\begin{table}[b]\hangcaption{SegTagの解析結果に対し,文字列の分散表現を利用した場合とUNKの分散表現を利用した場合のDep(g)モデルの性能}\label{table:sumemb}\input{09table08.tex}\vspace{4pt}\smallCTB-5における実験結果.``Dep(g)-cs''は,文字列の分散表現を使用せず,文字と単語の分散表現に出現しない未知語に対しては,UNKの分散表現を使用したモデルである.$^{*}$は対応のあるt検定を行ったところ,$p<0.05$で統計的に有意な改善が見られたことを示す.\end{table}この結果から,モデルが未知語に遭遇した場合,単純なUNKの分散表現を利用するよりも,文字列の分散表現を利用したほうが性能が良くなることがわかる.\subsubsection{双方向LSTMを使用したモデル}双方向LSTMを使用したモデルについても,同様に実験を行った.なお,本実験では貪欲法に基づく学習のみを行った\footnote{ビームを用いた学習により性能の向上が見込まれるが,双方向LSTMを使用していることにより,現実的な時間内での訓練及び評価は難しいと判断した.}.双方向LSTMを利用したモデルは,表\ref{table:featureslstm}のように基本的な素性にしか依存しないという利点がある.結果を表\ref{table:globalext}に示す.双方向LSTMを用いたモデルは,従来法と比較してやや悪い性能となったが,非常に基本的な素性のみを使用してこの性能を達成したことは注目に値する.\begin{table}[b]\caption{双方向LSTMを使用するモデル}\label{table:globalext}\input{09table09.tex}\vspace{4pt}\smallCTB-5における実験結果.4素性モデルと8素性モデルは,表\ref{table:featureslstm}における使用素性数と対応する.\end{table}\begin{table}[b]\caption{ラベルなし係り受け解析スコア(UAS)とラベル付き係り受け解析スコア(LAS)}\label{table:labeldep}\input{09table10.tex}\vspace{4pt}\smallCTB-5とCTB-7における実験結果.LASは,UASと同様に単語分割が正しい単語同士の係り受けの場合のみ正解となる.また,引用符や句読点は評価から取り除かれている.\end{table}\subsubsection{係り受けのラベル推定}\label{sec:labelexp}最後に,係り受けのラベル解析モデルを利用することで,ラベルも含めた係り受け解析を行う.CTB-5およびCTB-7に対して,係り受けのラベルの推定を行った.この実験では,ラベルなしの評価では最も優れていたSegTag+Depの解析結果に対し,更にラベル推定を行うことで,各コーパスにおける原文からラベル付係り受け解析を行った際のスコアを測定することを目的とする.係り受け解析のラベルの推定結果を表\ref{table:labeldep}に示す.この係り受けラベルの推定モデルについては,パイプラインもしくは統合モデルによる評価が,\citeA{hatori2012}や\citeA{mzhang2014}などの先行研究では行われておらず,比較の対象とはしなかった.また,上のCTB-5とCTB-7の解析結果について,ラベル付き係り受けのうち,もととなるラベルなしの係り受けが正しい係り受けについてのラベル毎の正解率を集計した.その結果を表\ref{table:labeldep2}に示す.総じて,修飾語(modifier)はスコアが高めとなるが,文内のより大域的な構造である主格(SUB)や目的格(OBJ)については低めとなる傾向が見られた.\begin{table}[t]\caption{ラベルごとの正解率}\label{table:labeldep2}\input{09table11.tex}\vspace{4pt}\smallCTB-5とCTB-7における実験結果.なお,句読点の係り受けである``P''ラベルとROOTへの係り受けである``ROOT''ラベルは除いた.\end{table}
\section{将来研究}
本研究中では,結果として,単語分割,品詞タグ付けおよび係り受け解析の統合モデルよりも,単語分割と品詞タグ付けの統合モデルおよび係り受け解析のパイプラインモデルの方が,優れた性能を発揮した.これは,係り受け解析の情報を単語分割に活用する際に,どこまで内部的に単語分割を行ってから,係り受けを解析を行うか,という問題と関連する.例えば,\citeA{hatori2012}のモデルでは,単語分割と係り受け解析は同時であると言えるが,\citeA{mzhang2014}のSTDモデルでは,単語分割を3単語分だけ先に行うことにより,係り受け解析の際に,単語の先読みを可能にしている.このような問題に対し,解析文やモデルの状態に応じて,単語の先読みを行うか,係り受け解析を優先して行うかを判断するモデルを作成することができれば,非常に有用な統合構文解析器となるだろう.この他,本論文では,最後に係り受けのラベル推定を行ったが,この係り受けラベル推定モデルも含めて係り受け解析を行うモデルも考えられる.このようにすることで,係り受けのラベルの種類に関する情報が係り受け解析や,品詞タグ付けなどの精度に良い影響を及ぼしうるため,これは有望な研究となりえるだろう.最後に,双方向LSTMによる文中の単語表現は,例えば,近年提案されたELMoのように,非常に柔軟かつ強力な手法である\cite{elmo2018}.しかしながら,今回の研究で速度およびGPUメモリの制約により,双方向LSTMを用いるモデルとビーム探索を併用することが出来なかったように,中国語の統合解析への双方向LSTMの使用は,あまり容易なことではない.これは,主に,中国語の統合構文解析では,解析が進むに連れて,文字ばかりでなく解析済みの単語の情報を利用することが重要となるからである.解析のステップごとに,解析済みの単語を用いて双方向LSTMを再計算する手法は,計算コストがかなり大きいと言える.この問題点が解決されれば,この手法を用いて世界最高性能を達成するモデルを作成しうると考えられる.
\section{結論}
本論文では,中国語の統合構文解析を行う2つのモデルを提案した.1つ目は素性とフィードフォワードニューラルネットワークに基づくモデルであり,2つ目は双方向LSTMを使用したニューラルネットワークに基づくモデルである.そのいずれにおいても,文字列の分散表現を使用することで,UNKに相当する分散表現を用いることを避け,不完全な語句であっても,その構成する文字の分散表現から文字列同士の分散表現を得ることが可能となる.結果として,単語分割,品詞タグ付けおよび係り受け解析の統合モデルは,中国の単語分割と品詞タグ付けにおいて既存の統合解析手法よりも優れた性能を発揮した.しかし,係り受け解析については,既存手法と比較可能,もしくはやや劣る性能にとどまった.そこで,さらに,単語分割と品詞タグ付けの統合モデルおよび係り受け解析のパイプラインモデルを実証することで,係り受け解析にても世界最高の性能を達成した.双方向LSTMモデルを使用することで,基本的な素性のみを使用しながら文全体の構造も考慮するモデルも提案した.\acknowledgmentこの論文はACL2017にて発表を行った``NeuralJointModelforTransition-basedChineseSyntacticAnalysis''を和訳し,拡張したものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Alberti,Weiss,Coppola,\BBA\Petrov}{Albertiet~al.}{2015}]{alberti2015}Alberti,C.,Weiss,D.,Coppola,G.,\BBA\Petrov,S.\BBOP2015\BBCP.\newblock\BBOQImprovedTransition-BasedParsingandTaggingwithNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1354--1359}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Andor,Alberti,Weiss,Severyn,Presta,Ganchev,Petrov,\BBA\Collins}{Andoret~al.}{2016}]{andor2016}Andor,D.,Alberti,C.,Weiss,D.,Severyn,A.,Presta,A.,Ganchev,K.,Petrov,S.,\BBA\Collins,M.\BBOP2016\BBCP.\newblock\BBOQGloballyNormalizedTransition-BasedNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\2442--2452}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Bahdanau,Cho,\BBA\Bengio}{Bahdanauet~al.}{2014}]{bahdanau2014}Bahdanau,D.,Cho,K.,\BBA\Bengio,Y.\BBOP2014\BBCP.\newblock\BBOQNeuralMachineTranslationbyJointlyLearningtoAlignandTranslate.\BBCQ\\newblock{\BemCoRR},{\Bbfabs/1409.0473}.\bibitem[\protect\BCAY{Ballesteros,Dyer,\BBA\Smith}{Ballesteroset~al.}{2015}]{ballesteros2015}Ballesteros,M.,Dyer,C.,\BBA\Smith,N.~A.\BBOP2015\BBCP.\newblock\BBOQImprovedTransition-basedParsingbyModelingCharactersinsteadofWordswithLSTMs.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\349--359}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Chen\BBA\Manning}{Chen\BBA\Manning}{2014}]{dchen2014}Chen,D.\BBACOMMA\\BBA\Manning,C.\BBOP2014\BBCP.\newblock\BBOQAFastandAccurateDependencyParserusingNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\740--750}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Cross\BBA\Huang}{Cross\BBA\Huang}{2016}]{cross2016}Cross,J.\BBACOMMA\\BBA\Huang,L.\BBOP2016\BBCP.\newblock\BBOQIncrementalParsingwithMinimalFeaturesUsingBi-DirectionalLSTM.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\32--37},Berlin,Germany.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Duchi,Hazan,\BBA\Singer}{Duchiet~al.}{2010}]{duchi2010adagrad}Duchi,J.,Hazan,E.,\BBA\Singer,Y.\BBOP2010\BBCP.\newblock\BBOQAdaptiveSubgradientMethodsforOnlineLearningandStochasticOptimization.\BBCQ.\newblock\BNUM\UCB/EECS-2010-24.\bibitem[\protect\BCAY{Dyer,Ballesteros,Ling,Matthews,\BBA\Smith}{Dyeret~al.}{2015}]{dyer2015}Dyer,C.,Ballesteros,M.,Ling,W.,Matthews,A.,\BBA\Smith,N.~A.\BBOP2015\BBCP.\newblock\BBOQTransition-BasedDependencyParsingwithStackLongShort-TermMemory.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\334--343}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Hatori,Matsuzaki,Miyao,\BBA\Tsujii}{Hatoriet~al.}{2011}]{hatori2011}Hatori,J.,Matsuzaki,T.,Miyao,Y.,\BBA\Tsujii,J.\BBOP2011\BBCP.\newblock\BBOQIncrementalJointPOSTaggingandDependencyParsinginChinese.\BBCQ\\newblockIn{\BemProceedingsof5thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\1216--1224}.AsianFederationofNaturalLanguageProcessing.\bibitem[\protect\BCAY{Hatori,Matsuzaki,Miyao,\BBA\Tsujii}{Hatoriet~al.}{2012}]{hatori2012}Hatori,J.,Matsuzaki,T.,Miyao,Y.,\BBA\Tsujii,J.\BBOP2012\BBCP.\newblock\BBOQIncrementalJointApproachtoWordSegmentation,POSTagging,andDependencyParsinginChinese.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1045--1053}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Hinton,McClelland,\BBA\Rumelhart}{Hintonet~al.}{1986}]{hinton1986}Hinton,G.~E.,McClelland,J.~L.,\BBA\Rumelhart,D.~E.\BBOP1986\BBCP.\newblock\BBOQLearningDistributedRepresentationsofConcepts.\BBCQ\\newblockIn{\BemProceedingsofthe8thAnnualConferenceoftheCognitiveScienceSociety}.\newblockVol.~1,p.~12.\bibitem[\protect\BCAY{Huang\BBA\Sagae}{Huang\BBA\Sagae}{2010}]{huangsagae2010}Huang,L.\BBACOMMA\\BBA\Sagae,K.\BBOP2010\BBCP.\newblock\BBOQDynamicProgrammingforLinear-TimeIncrementalParsing.\BBCQ\\newblockIn{\BemProceedingsofthe48thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1077--1086},Uppsala,Sweden.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Jiang,Huang,Liu,\BBA\L{\"{u}}}{Jianget~al.}{2008}]{jiang2008ctb5}Jiang,W.,Huang,L.,Liu,Q.,\BBA\L{\"{u}},Y.\BBOP2008\BBCP.\newblock\BBOQACascadedLinearModelforJointChineseWordSegmentationandPart-of-SpeechTagging.\BBCQ\\newblockIn{\BemProceedingsofACL-08:HLT},\mbox{\BPGS\897--904}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2015}]{kingma2015adam}Kingma,D.~P.\BBACOMMA\\BBA\Ba,J.\BBOP2015\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)}.\bibitem[\protect\BCAY{Kiperwasser\BBA\Goldberg}{Kiperwasser\BBA\Goldberg}{2016}]{kiperwasser2016}Kiperwasser,E.\BBACOMMA\\BBA\Goldberg,Y.\BBOP2016\BBCP.\newblock\BBOQSimpleandAccurateDependencyParsingUsingBidirectionalLSTMFeatureRepresentations.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf4},\mbox{\BPGS\313--327}.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{mikolov2013word2vec}Mikolov,T.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQEfficientEstimationofWordRepresentationsinVectorSpace.\BBCQ.\bibitem[\protect\BCAY{Nair\BBA\Hinton}{Nair\BBA\Hinton}{2010}]{nair2010relu}Nair,V.\BBACOMMA\\BBA\Hinton,G.~E.\BBOP2010\BBCP.\newblock\BBOQRectifiedLinearUnitsImproveRestrictedBoltzmannMachines.\BBCQ\\newblockIn{\BemProceedingsofthe27thInternationalConferenceonMachineLearning(ICML-10),June21-24,2010,Haifa,Israel},\mbox{\BPGS\807--814}.\bibitem[\protect\BCAY{Nivre}{Nivre}{2004}]{nivre2004arcstand}Nivre,J.\BBOP2004\BBCP.\newblock\BBOQIncrementalityinDeterministicDependencyParsing.\BBCQ\\newblockInKeller,F.,Clark,S.,Crocker,M.,\BBA\Steedman,M.\BEDS,{\BemProceedingsoftheACLWorkshopIncrementalParsing:BringingEngineeringandCognitionTogether},\mbox{\BPGS\50--57}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Peters,Neumann,Iyyer,Gardner,Clark,Lee,\BBA\Zettlemoyer}{Peterset~al.}{2018}]{elmo2018}Peters,M.~E.,Neumann,M.,Iyyer,M.,Gardner,M.,Clark,C.,Lee,K.,\BBA\Zettlemoyer,L.\BBOP2018\BBCP.\newblock\BBOQDeepContextualizedWordRepresentations.\BBCQ\\newblockIn{\BemProceedingsofNAACL}.\bibitem[\protect\BCAY{Shen,Kawahara,\BBA\Kurohashi}{Shenet~al.}{2016a}]{Shen2016a}Shen,M.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2016a\BBCP.\newblock\BBOQChineseWordSegmentationandUnknownWordExtractionbyMiningMaximizedSubstring.\BBCQ\\newblock\Jem{自然言語処理},{\Bbf23}(3),\mbox{\BPGS\235--266}.\bibitem[\protect\BCAY{Shen,Li,Choe,Chu,Kawahara,\BBA\Kurohashi}{Shenet~al.}{2016b}]{Shen2016c}Shen,M.,Li,W.,Choe,H.,Chu,C.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2016b\BBCP.\newblock\BBOQConsistentWordSegmentation,Part-of-SpeechTaggingandDependencyLabellingAnnotationforChineseLanguage.\BBCQ\\newblockIn{\BemProceedingsofthe26thInternationalConferenceonComputationalLinguistics(COLING2016)},\mbox{\BPGS\298--308},Osaka,Japan.\bibitem[\protect\BCAY{Wang,Kazama,Tsuruoka,Chen,Zhang,\BBA\Torisawa}{Wanget~al.}{2011}]{wang2011ctb7}Wang,Y.,Kazama,J.,Tsuruoka,Y.,Chen,W.,Zhang,Y.,\BBA\Torisawa,K.\BBOP2011\BBCP.\newblock\BBOQImprovingChineseWordSegmentationandPOSTaggingwithSemi-supervisedMethodsUsingLargeAuto-AnalyzedData.\BBCQ\\newblockIn{\BemProceedingsof5thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\309--317},ChiangMai,Thailand.AsianFederationofNaturalLanguageProcessing.\bibitem[\protect\BCAY{Weiss,Alberti,Collins,\BBA\Petrov}{Weisset~al.}{2015}]{weiss2015}Weiss,D.,Alberti,C.,Collins,M.,\BBA\Petrov,S.\BBOP2015\BBCP.\newblock\BBOQStructuredTrainingforNeuralNetworkTransition-BasedParsing.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\323--333}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Zhang,Zhang,Che,\BBA\Liu}{Zhanget~al.}{2014}]{mzhang2014}Zhang,M.,Zhang,Y.,Che,W.,\BBA\Liu,T.\BBOP2014\BBCP.\newblock\BBOQCharacter-LevelChineseDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1326--1336}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Zhang,Li,Barzilay,\BBA\Darwish}{Zhanget~al.}{2015}]{zhangdarwish2015}Zhang,Y.,Li,C.,Barzilay,R.,\BBA\Darwish,K.\BBOP2015\BBCP.\newblock\BBOQRandomizedGreedyInferenceforJointSegmentation,POSTaggingandDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsoftheTwenty-FourthInternationalJointConferenceonArtificialIntelligence},\mbox{\BPGS\42--52}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Zhang\BBA\Clark}{Zhang\BBA\Clark}{2008}]{zhang-clark2008:EMNLP}Zhang,Y.\BBACOMMA\\BBA\Clark,S.\BBOP2008\BBCP.\newblock\BBOQATaleofTwoParsers:InvestigatingandCombiningGraph-basedandTransition-basedDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsofthe2008ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\562--571}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Zhang\BBA\Clark}{Zhang\BBA\Clark}{2010}]{zhang-clark2010}Zhang,Y.\BBACOMMA\\BBA\Clark,S.\BBOP2010\BBCP.\newblock\BBOQAFastDecoderforJointWordSegmentationandPOS-TaggingUsingaSingleDiscriminativeModel.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\843--852}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Zhou,Zhang,Huang,\BBA\Chen}{Zhouet~al.}{2015}]{hzhou2015}Zhou,H.,Zhang,Y.,Huang,S.,\BBA\Chen,J.\BBOP2015\BBCP.\newblock\BBOQANeuralProbabilisticStructured-PredictionModelforTransition-BasedDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\1213--1222}.AssociationforComputationalLinguistics.\end{thebibliography}\begin{biography}\bioauthor{栗田修平}{2013年京都大学理学部物理系卒業.2015年同大学院物理学教室修士課程修了.2015年より京都大学大学院情報学研究科知能情報学専攻博士課程在籍中.2019年同大学院博士取得見込み.深層学習,深層学習を用いた自然言語処理の研究に従事.修士(理学).言語処理学会,ACL,各会員.}\bioauthor{河原大輔}{1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.2002年同大学院博士課程単位取得認定退学.東京大学大学院情報理工学系研究科学術研究支援員,独立行政法人情報通信研究機構研究員,同主任研究員を経て,2010年より京都大学大学院情報学研究科准教授.自然言語処理,知識処理の研究に従事.博士(情報学).情報処理学会,言語処理学会,人工知能学会,電子情報通信学会,ACL,各会員.}\bioauthor{黒橋禎夫}{1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.言語処理学会10周年記念論文賞,同20周年記念論文賞,第8回船井情報科学振興賞,2009IBMFacultyAward等を受賞.2014年より日本学術会議連携会員.}\end{biography}\biodate\end{document}
| |
V22N04-01 | \section{はじめに}
Googleに代表される現在の検索エンジンはその性能が非常によくなってきており,適切な検索用語(キーワード)さえ与えてやればおおむね期待通りの検索結果が得られる.しかし一方,多くのユーザ,特に子どもや高齢者,外国人などにとって検索対象を表す適切な検索用語(特に専門用語など)を見つけることは往々にしてそう簡単ではない.マイクロソフトの「現在の検索で不満に思う点」に関する調査\footnote{http://www.garbagenews.net/archives/1466626.htmlまたはhttp://news.mynavi.jp/news/2010/07/05/028/}によれば,57.6\%の人が適切なキーワード探しの難しさに不満を感じている.また,「何か欲しい情報を求めて検索エンジンを利用しているのに,それを利用するための適切なキーワードをまた別のところで探さねばならないという,堂々巡りをした経験を持つ人も多いはず」とも指摘されている.これは2010年の調査ではあるが,現在においてもこれらの不満点が大方解消されたとは言い難い.そこで,関連語・周辺語(たとえば「コンピュータ」,「前の状態」,「戻す」)またはそれらの語から構成される文を手掛かりに適切な検索用語(この場合「システム復元」)を予測・提示する検索支援システムがあればより快適な検索ができるのではないかと考えられる.本研究では,ITや医療など様々な分野において,これらの分野の関連語・周辺語またはそれらの語から構成される文を入力とし,機械学習を用いて適切な検索用語を予測・提示する検索支援システムの開発を目標としている.このような研究は,すくなくとも日本語においては我々が調べた限りではこれまでなされていなかった\footnote{類似研究として,「意味的逆引き辞書」に関する研究\cite{Aihara}や「クロスワードを解く」に関する研究\cite{Uchiki}がある.しかしこれらは分野ごとの検索用語の予測・提示に基づく検索支援を第一の目的としておらず,それゆえに,精度(正解率)は本研究で得られたものよりはるかに低かった.また,手法もLSIを利用した情報検索技術やエキスパートなどに基づくアプローチを取っており,本研究が取っている機械学習のアプローチとは異なる.}.本稿ではその第一歩として,分野をコンピュータ関連に限定し,深層学習(DeepLearning)の一種であるDeepBeliefNetwork(DBN)を用いた予測手法を提案する.近年,深層学習は様々な分野で注目され,音声認識~\cite{Li}や画像認識~\cite{Krizhevsky}のみならず,自然言語処理の諸課題への応用にも優れた性能を出している.それらの諸課題は,形態素・構文解析~\cite{Billingsley,Hermann,Luong,Socher:13a},意味処理~\cite{Hashimoto,Srivastava,Tsubaki},言い換え~\cite{Socher:11},機械翻訳~\cite{Auli,Liu,Kalchbrenner,Zou},文書分類~\cite{Glorot},情報検索~\cite{Salakhutdinov},その他~\cite{Seide,Socher:13b}を含む.さらに,統一した枠組みで品詞タグ付け・チャンキング・固有表現認識・意味役割のラベル付けを含む各種の言語処理課題を取り扱えるニューラルネットおよび学習アルゴリズムも提案されている~\cite{Collobert}.しかしながら,われわれの知っている限りでは,前に述べたような情報検索支援に関する課題に深層学習を用いた研究はこれまでなされていない.したがって,本稿で述べる研究は主に二つの目的を持っている.一つは,関連語・周辺語などから適切な検索用語を正確に予測する手法を提案することである.もう一つは,深層学習がこのような言語処理課題において,従来の機械学習手法である多層パーセプトロン(MLP)やサポートベクトルマシン(SVM)より優れているか否かを確かめることである.本研究に用いたデータはインターネットから精度保証がある程度できる手動収集と,ノイズ\footnote{ここのノイズとは,関係のない単語が含まれている,または必要な単語が欠落していることを指す.}は含まれるが規模の大きいデータの収集が可能な自動収集との2通りの方法で収集した.加えて,ある程度規模が大きく精度もよい疑似データも自動生成して用いた.機械学習のパラメータチューニングはグリッドサーチと交差検証を用いて行った.実験の結果,まず,学習データとして手動収集データのみを用いても自動収集データと疑似データを加えてもDBNの予測精度は用例に基づくベースライン手法よりははるかに高くMLPとSVMのいずれよりも高いことが確認できた.また,いずれの機械学習手法も,手動収集データにノイズの多い自動収集データとノイズの少ない疑似データを加えて学習することにより予測精度が向上した.さらに,手動収集データにノイズの多い自動収集データのみを加えて学習した場合,DBNとSVMには予測精度の向上が見られたがMLPにはみられなかった.この結果から,MLPよりもDBNとSVMのほうがノイズに強くノイズの多い学習データも有効利用できる可能性が高いと言えよう.
\section{関連語・周辺語コーパス}
\begin{table}[b]\caption{コーパスの入力とラベルのペアの例}\label{tab:example}\input{01table01.txt}\end{table}機械学習を用いて関連語・周辺語から検索用語を予測・提示する場合,その学習データとして,入力(関連語・周辺語)と正解となるレスポンス(検索用語)のペアからなるコーパスが必要となる.本稿ではこのようなコーパスを「関連語・周辺語コーパス」と呼ぶ.また,教師あり機械学習では,レスポンスをラベルと呼ぶ場合が多いので,本稿では検索用語をラベルと呼ぶ.表~\ref{tab:example}はコーパスの入力(関連語・周辺語とその元となる説明文書)とラベルのペアの例を示す.本章では,コーパスデータの収集・作成方法について述べる.また,収集・作成したデータからの関連語・周辺語の抽出方法と特徴ベクトルの構成方法について述べる.\subsection{手動収集と自動収集}本研究では,ラベルを説明している文書には関連語・周辺語が多く含まれると考え,インターネットからこのようなWebページを手動と自動の2通りの方法で収集した.手動収集では人手でラベルを説明するWebページを選別し収集する\footnote{人手でWebページを選別した後,そのWebページから説明文書として該当する箇所を人手で選別する処理を行っている.}.一方,自動収集では,ラベルの後に「とは」「は」「というものは」「については」「の意味は」の5語を付けて(たとえば,ラベルが「グラフィックボード」であれば「グラフィックボードとは」「グラフィックボードというものは」などで)Googleで検索したものを説明文書として収集する\footnote{収集したWebページ全体をそのラベルの説明文書として扱っている.}.手動収集データは規模が小さい代わりに精度が高く,自動収集データは精度が低い代わりに規模が大きい.\subsection{疑似データ}機械学習の汎化能力を向上させるために,学習データとして,精度は高いが規模が小さい手動収集データに加え,精度はそれほど高くない(つまり,ノイズはある)が相対的に規模の大きい自動収集データを用いることにした.しかし,自動収集したデータには説明文書とラベルがそもそも一致しない,つまり説明文書へのラベルが履き違えられている可能性も考えられる.そのために,手動で収集した説明文書をオリジナルのデータとしてとらえ,それらに適度なノイズを加えて作成した疑似データも用いることにした.このようなデータは自動収集したデータに比べノイズが少なくラベルの履き違いもないと考えることができる.疑似データの具体的な生成手順は以下の通りである.\begin{enumerate}\itemオリジナルの説明文書からすべての異なり単語を抽出する.\item個々のオリジナルの説明文書に対し,追加,削除,または追加\&削除の処理を加える.具体的には,手順(1)で抽出した単語のうち,説明文書にない単語を説明文書の単語数の10\%個ランダムに選んで加える,説明文書から単語を説明文書の単語数の10\%個ランダムに選んで削除する,または上記の(10\%ずつの)追加と削除を同時に施す,という処理を等確率(つまり,それぞれを1/3の確率)で行う\footnote{10\%という値は,予備実験などで精査して決めたものではなく,著者らが適度なノイズとして主観で設定したものである.}.\item手順(2)で得られたデータを疑似データとする.\end{enumerate}なお,この生成方法においては,1つのオリジナルの説明文書に対し,疑似データを複数生成することが可能である.\subsection{評価データ}評価データは学習データとは別に自動収集したものを用いる.ただし,自動収集データは,ラベルが正確とは限らないため,評価データとして用いても適切な評価とならない可能性がある.そのため,評価データとして自動収集データの中からラベルの正しいものを人手で選別して用いることにした.\subsection{関連語・周辺語抽出とベクトル変換}以下の手順(1)〜(4)で説明文書から関連語・周辺語を抽出する.それに手順(5)(6)を加えることにより,機械学習に必要な特徴ベクトルへの変換を行う.\begin{enumerate}\item手動収集のデータを形態素解析し,名詞(固有名詞,サ変接続,一般)を抽出する\footnote{形態素解析にMeCab0.98を使用した.未知語と表記ゆれについては特別な処理を施しておらず今後の課題となる.ただし,未知語としての複合語については,たとえば「木村製作所」や「株式会社ウエーブ」など大半の日本企業名の場合は(中小企業で社名としては未知語であっても)「木村」と「製作所」などがそれぞれ名詞として解析されているので,手順(2)にしたがって問題なく1つの既知単語として扱われる.一方,たとえば「騰迅公司」のような表現において,最初の漢字が名詞以外の品詞と判断された場合は1つの既知単語として正しく扱うことができない.また,表記ゆれについては,「サーバ」と「サーバー」,「神経回路」と「ニューラルネット」のような形態素解析ツールの辞書に登録されているものはそれぞれ異なる単語として扱われてしまい,予測性能を落とす可能性がある.}.\item名詞が連続しているならば,日本語同士なら結合し,英語同士なら空白を間に入れて結合し,1つの単語と見なす.\item各ラベルから出現頻度がトップ50以内の単語を抽出する\footnote{50という値は,手動で収集したデータにおいて各ラベルの関連語・周辺語の数は確実にそれ以下であることを確認した上で,提案手法の拡張性(つまり多少大きい目に)と機械学習の素性選択能力(つまり多少大きい目にしても問題がないこと)も考慮にいれて設定した.なお,この値は多少大きく設定されても手順(4)で絞られるので値をある程度大きい目に設定しておけば40がよいか60がよいかといった細かい選択はほとんど意味をなさないと思われる.}.\itemラベル間で重複している単語を除外する.本研究では,以下に述べる考えに基づき2ラベル間で重複する単語を除外する,または,3ラベル以上で共通する単語を除外するという2通りの方法を採用した.まず,各ラベルにできるだけ特徴的な単語のみを素性にするためには重複単語をできるだけ除外するのが効果的と考える.また,今回は実験規模が小さくあまり問題にならないが,予測用語の数の増加に伴う特徴ベクトル次元の大幅な増加を抑える1つの方法として重複単語を除外することが考えられる.特徴ベクトル次元の抑制はまた一般的に,学習におけるデータスパースネス問題の緩和にもつながる.しかし一方,ラベル間の単語重複をまったく認めないと,たとえば「USBメモリ」のような,「USB」や「メモリ」に共通する重要な単語を除外してしまう問題も考えられる.そのため,本研究では2ラベル間の重複を許容し3ラベル以上で共通する単語を除外する方法も用いる.\item上記手順で得られた単語をベクトルの要素とし,個々の要素はその単語が出現していれば1,出現していなければ0の2値を取る.\item2.1,2.2,2.3節で述べたすべてのデータに対し形態素解析を行い,手順(5)にしたがって特徴ベクトルに変換する.\end{enumerate}
\section{深層学習}
深層学習とは従来の機械学習より深い層構造をしている機械学習手法全般のことを指す.その代表的な手法としてDeepBeliefNetwork(DBN)~\cite{Hinton,Lee,Bengio:09,Bengio:13}とStackedDenoisingAutoencoder(SdA)~\cite{Bengio:07,Bengio:09,Bengio:13,Vincent:08,Vincent:10}が提案されている.数多くの課題において,その両者の性能がほぼ同じと言われているが,本研究ではよりスマートなアーキテクチャを有するDBNを用いることにした.深層学習は,本来経験則で行っていた特徴抽出を機械学習に組み込もうとしてできたものである.そのため,DBNは,RestrictedBoltzmannMachine(RBM)を複数並べ教師なし学習の特徴抽出器として利用する多層のニューラルネットと,ラベルを出力する教師あり学習の最終層から構成される.特徴抽出器の教師なし学習はPre-training,最終層の教師あり学習はFine-tuningと呼ばれる.\subsection{RestrictedBoltzmannMachine(RBM)}RBMは制限付きボルツマンマシンとも呼ばれ,学習データの確率分布を教師なし学習で表現する(言い換えれば,学習データの生成モデルを統計的な機械学習の方法で構築する),一種の確率的なグラフィカルモデルである.本来のボルツマンマシンの可視層と隠れ層のユニット間の結合を制限することにより,効率的な教師なし学習を実現している.RBMの構造は図~\ref{fig_rbm}に示しているように可視層と隠れ層の2層から構成され,層内ユニット間に結合がなく,層間のユニット,すなわち可視ユニット($v_1,v_2,\cdots,v_m$)と隠れユニット($h_1,h_2,\cdots,h_n$),は結合されている.\begin{figure}[t]\begin{center}\includegraphics{22-4ia1f1.eps}\end{center}\caption{RestrictedBoltzmannMachineの構造}\label{fig_rbm}\vspace{-1\Cvs}\end{figure}以下,その学習アルゴリズム~\cite{Bengio:09}を簡潔に述べておく.学習データ$\bm{v}$が可視層に与えられたとき,まず,式(1),(2),そして再度(1)の順で条件付確率に基づくサンプリングを行う.{\allowdisplaybreaks\begin{gather}P(h_i^{(k)}=1|\bm{v}^{(k)})={\rmsigmoid}\bigg(\sum_{j=1}^mw_{ij}v_j^{(k)}+c_i\bigg)\\P(v_j^{(k+1)}=1|\bm{h}^{(k)})={\rmsigmoid}\bigg(\sum_{i=1}^nw_{ij}h_i^{(k)}+b_j\bigg)\end{gather}}ただし,$k$($\geq1$)はサンプリングの繰り返し回数,$\bm{v}^{(1)}=\bm{v}$,$w_{ij}$はユニット$v_j$と$h_i$間の結合の重み,そして,$b_j$と$c_i$は可視層と隠れ層のユニット$v_j$と$h_i$のオフセット(バイアス)である.サンプリングを$k$回行った後,重みとオフセットは以下のように更新される.\begin{gather}\bm{W}\leftarrow\bm{W}+\epsilon(\bm{h}^{(1)}\bm{v}^{T}-P(\bm{h}^{(k+1)}=1|\bm{v}^{(k+1)})\bm{v}^{(k+1)T})\\\bm{b}\leftarrow\bm{b}+\epsilon(\bm{v}-\bm{v}^{(k+1)})\\\bm{c}\leftarrow\bm{c}+\epsilon(\bm{h}^{(1)}-P(\bm{h}^{(k+1)}=1|\bm{v}^{(k+1)}))\end{gather}ただし,$\epsilon$は学習率である.$\bm{W}$は微小な乱数\footnote{本研究では,http://deeplearning.net/tutorial/mlp.htmlのチュートリアルに従って,区間[$-4\frac{\sqrt{6}}{\sqrt{m+n}}$,$4\frac{\sqrt{6}}{\sqrt{m+n}}$]内の一様乱数を用いる(ただし,$m$と$n$はそれぞれ可視層と隠れ層のユニット数である).その数学的な考えについては\cite{Glorot:10}を参照されたい.},$\bm{b}$,$\bm{c}$は$\bm{0}$で初期化する.サンプリングの繰り返し回数が十分多いときはGibbssamplingと呼ばれており計算コストが非常に高い.そのため,通常,サンプリングを$k$回のみ行う$k$-ContrastiveDivergence(略してCD-$k$)と呼ばれる方法が採用される.実際,$k=1$(CD-1)でも結果が十分よいことが経験的に知られており\cite{Bengio:09},本研究も$k=1$に設定して学習を行う.ここで$N$個の学習データに対しCD-$k$と呼ばれるサンプリング方法で$e$回繰り返し学習を行う手順を図~\ref{fig:procedure-RBM}にまとめる.学習が進むにつれ,可視層のサンプル\footnote{ここでは条件付確率の式(1)(2)に基づき生成されたデータをサンプルと呼んでいる.}$\bm{v}^{(k+1)}$が学習データ$\bm{v}$に近づいていく.\subsection{DeepBeliefNetwork(DBN)}図~\ref{fig_dbn}は一例として,三つのRBMと教師あり学習器から構成されるDBNを示す.ただし実際,DBNを構成するRBMの数は可変である.それらRBMはPre-trainingとも呼ばれ,教師なしの特徴抽出器として機能する.一方,教師あり学習器はFine-tuningとも呼ばれ,入力(図~\ref{fig_dbn}の場合はその入力から得られたRBM3の出力)とラベルのペア(つまり正解付学習データ)を学習することにより未知の入力に対しても適切なラベルを出力できるようになる.図に示しているように前方のRBMの隠れ層は後方のRBMの可視層となっている.ここでは簡便化のために,RBMの層(ただし入力層を除く)をDBNの隠れ層と見なす.つまり,図の例は三層の隠れ層のDBNである(隠れ層の数とRBMの数は同じであることに注意されたい).なお,教師あり学習はいろいろな方法で実現できるが,本稿ではロジスティク回帰を用いることにした.\begin{figure}[b]\vspace{-0.5\Cvs}\begin{center}\includegraphics{22-4ia1f2.eps}\end{center}\caption{RBMの学習手順}\label{fig:procedure-RBM}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{22-4ia1f3.eps}\end{center}\caption{DeepBeliefNetworkの例}\label{fig_dbn}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{22-4ia1f4.eps}\end{center}\caption{三つのRBMを持つDBNの学習手順}\label{fig:procedure-DBN}\end{figure}三つのRBMを持つDBNの学習手順を図~\ref{fig:procedure-DBN}にまとめる.
\section{実験}
\subsection{実験設定}\subsubsection{データ}\begin{table}[b]\caption{10個のラベルと各ラベルの入力(説明文書)の数とそれらの全ラベルに占める割合}\label{tab:dist}\input{01table02.txt}\vspace{-0.5\Cvs}\end{table}\begin{table}[b]\caption{学習用データセット}\label{tab:data}\input{01table03.txt}\end{table}学習と評価には10個のラベルとそれらの入力(説明文書)のペアから構成されるデータを用いた.表~\ref{tab:dist}はラベル名と各ラベルの入力(説明文書)の数とそれらの全ラベルに占める割合を示す\footnote{自動収集データにおいて各ラベルのデータ数に多少のバラつきがあるが,ある程度のバランスが取れている.}.ただし,学習データは,手動収集データをベースとし,そのベースとなるデータに異なる数の自動収集データと疑似データを加えることにより13個のデータセット(表~\ref{tab:data})を作成して用いた.表中のm300はベースとなるデータセットで手動で収集した300個のデータである.また,たとえばa2400は2,400個の自動収集データとm300で構成されたデータセット,p2400は2,400個の疑似データとm300から構成されたデータセット,そしてa2400p2400は2,400個の自動収集データ,2,400個の疑似データ,そしてm300から構成されたデータセットである.また,評価には学習データと異なる100個のデータを用いた.個々の説明文書は2.4節で述べた方法で,2ラベル間で重複する単語を除外する場合と3ラベル以上で共通する単語を除外する場合においてそれぞれ182と223次元の特徴ベクトルに変換される.\subsubsection{パラメータのチューニング}\begin{table}[b]\caption{グリッドサーチに用いるパラメータ}\label{tab:gs}\input{01table04.txt}\end{table}各種の機械学習の各学習データセットにおける最適なパラメータは,それぞれの学習データセットに対しグリッドサーチと5-fold交差検証を行って決定した.グリッドサーチに用いるパラメータの詳細は表~\ref{tab:gs}にまとめている.たとえば,DBNの入力が182次元の場合の構造(隠れ層)の欄に152-121-91がある.これは,そのDBNは182-{\bf152-121-91}-10という構造を持つ,ということを表している.ただし,数字182と10は入力層と出力層のユニット数であり,それぞれ特徴ベクトルの次元数とラベルの数に対応している.また,これら隠れ層のユニット数は恣意的にではなく,前半の3つについては線形等間隔に設定している.すなわち,入力層のユニット数(182)から,ピラミッド的に,最初の隠れ層のユニット数を$182\times5/6$(152),次の隠れ層のユニット数を$182\times4/6$(121),そして,最後の隠れ層のユニット数を$182\times3/6$(91)のように設定している.一方,後半の3つについては,Bengioの\cite{Bengio:12}の薦め,すなわち,過学習への対処が適切であれば隠れ層のユニット数は基本的に多いほどよい,ネットワーク構造は各層が同じサイズでよい場合が多い(ピラミッドまたは逆ピラミッドである必要はない)に基づき,すべての隠れ層のユニット数を入力層のユニット数の3/2倍であるように設定した.入力層のユニット数が223の場合も同様な考え方に基づいて設定した.DBNがMLPとSVMよりパラメータが多いため,同じ細かさのグリッドサーチで最適なパラメータを決めてしまうと,パラメータの多いDBNのほうが細かなチューニングができるため有利になる可能性がある.このようなバイアスをなくすために,MLPとSVMについてそのパラメータグリッドをより細かくし,MLPとSVMの探索すべきパラメータセットの数(つまり,パラメータの組み合わせの数)をDBNのそれと等しいかそれ以上にした.一方,MLPについては,構造,学習率,学習回数がDBNとまったく同じものも比較に用いた.本稿では後者をMLP1,前者をMLP2と呼ぶ.その結果,DBNとMLP2は同じく864通りのパラメータセット,SVM(Linear)とSVM(RBF)は900通りのパラメータセット,また,MLP1は72通りのパラメータセットを持つことになる.\subsubsection{ベースライン}\begin{figure}[b]\begin{center}\includegraphics{22-4ia1f5.eps}\end{center}\caption{ベースライン手法(Baseline1,Baseline2)およびその正解率算出のアルゴリズム}\label{fig:baseline}\end{figure}MLPとSVMに加え,用例に基づく手法をベースラインとして比較実験に加えた.これは,評価データを学習データの一つひとつと比較し,共通する単語のもっとも多い,または共通する単語数をその評価データの単語数で正規化した値がもっとも大きい学習データのラベルを評価データのラベルとする方法である.ここで両者をそれぞれBaseline1とBaseline2と呼ぶ.図~\ref{fig:baseline}は本手法および本手法による予測結果の正解率算出のアルゴリズムを示す.ただし,カウントに用いる単語は2.4節で述べた(1)〜(4)の手順に従って説明文書から抽出されたものである.\subsection{実験結果}\subsubsection{182次元の特徴ベクトルを使用した場合}図~\ref{fig:prec}は各機械学習において,異なる学習データセットを用いた場合の評価データへの予測精度を示す.ここでの精度は,各パラメータセットの交差検証誤差を昇順(小さい順)に並べたときの上位N個(ただしNは5から30まで可変)のパラメータセットを用いた場合の平均精度である.なお,本論文に用いられている平均精度はすべてマクロ平均で算出したものである.\begin{figure}[p]\begin{center}\includegraphics{22-4ia1f6.eps}\end{center}\hangcaption{交差検証誤差の昇順で上位N(5〜30)セットのパラメータを用いた場合の各機械学習の平均精度についての学習データセット間の比較(182次元の特徴ベクトルを用いた場合)}\label{fig:prec}\end{figure}図に示しているように,全般的に見れば,学習データセットa2400p2400を用いた場合(逆三角形マークの点線\footnote{点線と破線の違いに注意されたい.}),すなわち手動収集データに自動収集データと疑似データの両方を最も多く加えた場合,DBNとMLPは最高の精度,そしてSVMもほぼ最高の精度を出している\footnote{SVM(RBF)の場合,逆三角形マークの点線は四角形マークの点線と重ねていることに注意されたい.}.また,手動収集データに自動収集データと疑似データの両方を適度に加えた場合(点線)は,手動収集データのみの場合(星マークの太線)に比べ,DBNとMLPとSVM(RBF)の予測精度はおおむね向上している.しかしSVM(Linear)についてはそのような傾向は見られなかった\footnote{これはSVM(Linear)が線形分離可能なデータしか取り扱えないことに起因するものと思われる.}.さらに,手動収集データのみを用いた場合と,自動収集データと疑似データのどちらか一方のみを手動収集データに加えた場合について比べると,DBNとSVM(RBF)については自動収集データのみを加えた場合(実線),MLPについては疑似データのみを加えた場合(破線)のほうがそれぞれに精度の向上が見られた.自動収集データのほうが疑似データよりもノイズが多いことから,上記結果はDBNとSVM(RBF)のほうがMLPよりもノイズの多い学習データを有効利用できる可能性が高いことを示している.図~\ref{fig:cmp}は各機械学習間の評価データへの予測精度の比較を示す.ここでの精度は図~\ref{fig:prec}と同様,各パラメータセットの交差検証誤差を昇順に並べたときの上位N個(ただしNは5から30まで可変)のパラメータセットを用いた場合の平均精度である.学習データセットも図~\ref{fig:prec}のとまったく同じであるがそれらの詳細の明示は省略されている.ただし,各グラフの縦軸の範囲が統一されているため,グラフDBNvs.SVM(RBF)において,SVM(RBF)の精度が0.9未満なもの(計4本の線)が表示されていない(なお,すべての結果は図~\ref{fig:prec}には示されている).この図からはDBNのほう(実線)が他の機械学習(破線)より性能がよいことが一目瞭然にわかる.\begin{figure}[p]\begin{center}\includegraphics{22-4ia1f7.eps}\end{center}\hangcaption{交差検証誤差の昇順で上位N(5〜30)セットのパラメータを用いた場合の平均精度についての機械学習間の比較(182次元の特徴ベクトルを用いた場合)}\label{fig:cmp}\end{figure}\begin{table}[p]\caption{ベースラインの精度}\label{tab:baseline}\input{01table05.txt}\end{table}表~\ref{tab:baseline},\ref{tab:rst-top1},\ref{tab:rst-top5},\ref{tab:rst-top10}はそれぞれ,各学習データセットを用いた場合の,ベースラインの予測精度,交差検証誤差が最小のパラメータセットを用いた場合の予測精度,交差検証誤差を昇順に並べたときの上位5個,10個のパラメータセットを用いた場合の平均予測精度を示す.まず,機械学習とは対照的に,ベースライン手法では,ノイズの多い学習データを加えても(つまり,手動収集データに自動収集データのみを加えた場合と,自動収集データと疑似データの両方を加えた場合),予測精度の向上に役立たないばかりか,逆に,これらのデータは予測精度を大きく下げてしまった.次に,ほとんどの場合において,ベースラインの予測精度は機械学習のそれよりかなり低かった.また,ほとんどの場合において,DBNがすべての機械学習において最高の予測精度を出している(各学習セットにおいて各機械学習手法中の最高の精度は太字で表されている).\begin{table}[t]\hangcaption{交差検証誤差が最小のパラメータセットを用いたDBN,MLP,SVMの予測精度(182次元の特徴ベクトルを用いた場合)}\label{tab:rst-top1}\input{01table06.txt}\end{table}\begin{table}[t]\hangcaption{交差検証誤差を昇順に並べたときの上位5個のパラメータセットを用いたDBN,MLP,SVMの平均予測精度(182次元の特徴ベクトルを用いた場合)}\label{tab:rst-top5}\input{01table07.txt}\end{table}\subsubsection{223次元の特徴ベクトルを使用した場合}前節の実験結果はすでに提案手法の予測精度が従来の機械学習手法より高いことを示しただけでなく,学習データにおけるノイズに対する頑健性もある程度示せたと考える.しかし上記実験では,手動学習データのラベル間の重複単語を除外していたため,疑似データの作成時はそれらをノイズとして加えることができず,提案手法のノイズへの頑健性に疑問が残る.本節の実験は,2ラベル間の重複単語を残しているため,前節の実験よりも,より適切にノイズの頑健性を確認できると考える.\begin{table}[t]\hangcaption{交差検証誤差を昇順に並べたときの上位10個のパラメータセットを用いたDBN,MLP,SVMの平均予測精度(182次元の特徴ベクトルを用いた場合)}\label{tab:rst-top10}\input{01table08.txt}\end{table}\begin{figure}[p]\begin{center}\includegraphics{22-4ia1f8.eps}\end{center}\hangcaption{交差検証誤差の昇順で上位N(5〜30)セットのパラメータを用いた場合の各機械学習の平均精度についての学習データセット間の比較(223次元の特徴ベクトルを用いた場合)}\label{fig:prec-add}\end{figure}図~\ref{fig:prec-add}は図~\ref{fig:prec}と同様,各機械学習において,異なる学習データセットを用いた場合の評価データへの予測精度を示す.DBNのグラフにおいて,すべての点線と2本の実線が星マークの太線(つまり手動データ)の上にあること,また,SVM(RBF)においてすべての点線と実線が星マークの太線の上にあることから,前の実験結果と同様,DBNとSVM(RBF)については疑似データを含めたノイズのある学習データの利用が有効であることが確認できる.一方,MLPとSVM(Linear)については,手動データの星マークの太線がほとんど一番上に位置していることから,疑似データを含めたノイズのある学習データの有効性がほとんど見られない.すなわち,MLPとSVM(Linear)のノイズに対する頑健性については,前節の実験結果よりも悪い結果となった(逆にDBNの優位性がより顕著になったとも言える).なお,182次元の特徴ベクトルを用いた実験結果ではa2400p2400を用いた場合(逆三角形マークの点線),すなわち手動収集データに自動収集データと疑似データの両方を最も多く加えた場合,DBNが最高の精度を出しているのに対し,本実験結果ではDBNはa600p600を用いた場合(正三角形マークの点線)に最高の精度を出している.これは,精度の高いデータに対し,加えてよいノイズのあるデータについては適正の数があるはずで,次元数が増えると個々の特徴ベクトルの本来のノイズの度合いが増強したため,ノイズデータの適正数が減少したと考えることができ,両者の結果は矛盾しないと思われる.\subsubsection{有意差検定}\begin{table}[b]\vspace{-0.5\Cvs}\hangcaption{交差検証誤差が最小のパラメータセットを用いた場合のDBNと他の手法との性能比較に関する両側符号検定とt検定の結果}\label{tab:test-top1}\input{01table09.txt}\vspace{4pt}\small数値はp値であり,有意水準10\%で有意に差があるものには*,有意水準5\%で有意に差があるものには**,有意水準1\%で有意に差があるものには***を付けている.\par\end{table}\begin{table}[b]\hangcaption{各学習データセットについて,それらにおける交差検証誤差を昇順に並べたときの上位10個のパラメータセットを用いた場合の平均予測精度についてのDBNと他の手法との性能比較に関する両側t検定の結果}\label{tab:test-top10}\input{01table10.txt}\small数値はp値であり,有意水準10\%で有意に差があるものには*,有意水準5\%で有意に差があるものには**,有意水準1\%で有意に差があるものには***を付けている.\par\end{table}交差検証誤差が最小のパラメータセットを用いた場合と,交差検証誤差を昇順に並べたときの上位10個のパラメータセットを用いた場合について,DBNと他の手法との性能の有意差検定を行った.交差検証誤差が最小のパラメータセットを用いた場合,各学習データセットについて単独で検定を行うとデータ数が少なすぎるため,各学習データセットの結果を1つにまとめて符号検定とt検定を行った.一方,交差検証誤差上位10個のパラメータセットを用いた場合は各学習データセットについて単独でt検定を行った.検定結果を表~\ref{tab:test-top1},\ref{tab:test-top10}に示す.これらの結果から,182次元と223次元の特徴ベクトルのいずれを用いても,多数の場合においてDBNが他の手法より有意に優れていることが確認できる.また,詳細をみると,たとえばa2400p2400の学習データセットについては182次元の特徴ベクトルを,a600p600/a1200p1200の学習データセットについては223次元の特徴ベクトルを用いたほうが有意差が顕著であることがわかり,特徴ベクトルの構成方法について,DBNと他の手法との性能差の観点からどれが一番よいかは一概に断言することができない\footnote{この結果については4.2.2節でも述べたように,ノイズデータについては適正の数があるはずであることと,次元数が増えると個々のベクトルの本来のノイズの度合いが増強する(よってノイズデータの適正数が減る)ことを合わせて考えれば両者の結果は矛盾しないと思われる.}.\begin{table}[t]\hangcaption{各学習データセットに対して交差検証誤差が最小のパラメータセットを用いた場合のラベルごとの全学習データセットにおける平均予測精度}\label{tab:label-prec}\input{01table11.txt}\end{table}最後に,参考として,各手法のラベル(検索語)ごとの予測精度(表~\ref{tab:label-prec})と,交差検証誤差が最小のパラメータセット(表~\ref{tab:parameter})を示しておく.表~\ref{tab:label-prec}から,182次元の「PCケース」を除き各ラベルへの予測精度にばらつきが小さいことがわかる.また,全般的にDBNのほうがほかの手法より各ラベルに対する予測精度がよいことがわかる.さらに,たとえばDBNの予測精度は182次元の場合のほうが10個中の6個のラベルについて223次元の場合に勝っており,182次元と223次元のどちらのほうがよいかが一概に言えないことがわかる.表~\ref{tab:parameter}には,隠れ層のユニット数が182次元で273,223次元で335が多く出現しており,隠れ層のユニット数は多いほうがよいというBengioの提言と合致している.\begin{table}[t]\caption{DBNの各学習データセットに対して交差検証誤差が最小のパラメータセット}\label{tab:parameter}\input{01table12.txt}\end{table}
\section{本課題の意義について}
本研究では特定の分野の関連語・周辺語または説明文書を入力としたときの\pagebreak検索用語の予測・提示を行う検索支援を想定している.まず,説明文書による支援の意義は,たとえばThe5thNTCIRWorkshopMeetingonEvaluationofInformationAccessTechnologies:InformationRetrieval,QuestionAnsweringandCross-LingualInformationAccessのようなワークショップ型共同研究\cite{Ma}における長い文書を検索課題\footnote{検索課題例:AOLとタイムワーナー合併の影響に関する記事を探したい.AOL・タイムワーナー合併がインターネットとエンターテインメントというメディア産業に与える影響に関する意見を適合とする.AOL・タイムワーナー合併の展開についての記述は部分的に適合とする.総額と所有権転換の仕組みに関する情報は不適合とする.}としたタスクからも類推できる.つまり,たとえばユーザが関連語・周辺語もはっきりわからないときはその支援要求を文書の形で伝える(入力する)ニーズはあると考える.また一方,当然のことではあるが,本研究では,少数キーワード(関連語・周辺語)による検索用語の予測も期待している.実際,表~\ref{tab:keyword-prec}は,DBNについて,各学習データセットを用いた場合の,表~\ref{tab:keyword}に示す3関連語・周辺語($+1$ノイズ語)\footnote{これらのキーワードは予備実験も含め一切精査せずに著者らの知識に頼って手動収集のデータから関連語・周辺語・ノイズ語としてふさわしいものを主観で選んでいる.しかし当然なことではあるが,これらのキーワードはすべて誰にも知られている用語である保証はない(また,本実験の目的からしてそう保証する必要もない).}による全検索用語の平均予測精度を示している\footnote{当然のことではあるが,予測精度は用いるキーワードに大きく依存する.試しに10検索用語のうち6検索用語の関連語・周辺語を意識的に関連性の弱いものを選んで実験すると平均精度が8割程度までに下がった.}.実験はまだ小規模ではあるが,この結果は提案手法が少数キーワードによる支援も可能であることを示唆していると思われる.\begin{table}[t]\caption{予測に用いるキーワード}\label{tab:keyword}\input{01table13.txt}\end{table}\begin{table}[t]\caption{DBNの少数キーワードによる予測精度(223次元の特徴ベクトルを用いた場合)}\label{tab:keyword-prec}\input{01table14.txt}\end{table}
\section{結び}
本稿では深層学習の代表的な手法であるDeepBeliefNetwork(DBN)を用いて\pagebreak関連語・周辺語またはそれらの語から構成される説明文書から適切な検索用語を予測する手法を提案した.DBNの有効性を確認するために,用例に基づくベースライン手法,多層パーセプトロン(MLP),およびサポートベクトルマシン(SVM)との比較を行った.学習と評価に用いるデータは手動と自動の2通りの方法でインターネットから収集した.加えて,自動生成した疑似データも用いた.各種機械学習の最適なパラメータはグリッドサーチと交差検証を行うことにより決めた.実験の結果,DBNの予測精度はベースライン手法よりはるかに高くMLPとSVMのいずれよりも高かった.また,手動収集データに自動収集のデータと疑似データを加えて学習することにより予測精度は向上した.さらに,よりノイズの多い学習データを加えてもDBNの予測精度はさらに向上した.しかしながらこの場合MLPの精度向上は見られなかった.このことから,DBNのほうがMLPよりもノイズの多い学習データを有効利用できることが分かった.なお,まだ少数の実験例しかなかったが,提案手法が少数キーワードによる支援も可能であることを示唆した実験結果も得られた.今後はより大規模な評価実験を通じ,提案手法の有効性の確認を行うとともに,様々な分野における実用的な検索用語の予測システムを構築していく予定である.\acknowledgment本稿に対して丁寧かつ有益なご意見ご指摘をいただきました査読者の方に感謝いたします.本稿の内容の一部は,The28thPacificAsiaConferenceonLanguage,InformationandComputing(Paclic28)で発表したものです\cite{Ma:14}.また,本研究はJSPS科研費25330368の助成を受けています.記して謝意を表します.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{粟飯原\JBA長尾\JBA田中}{粟飯原\Jetal}{2013}]{Aihara}粟飯原俊介\JBA長尾真\JBA田中久美子\BBOP2013\BBCP.\newblock意味的逆引き辞書『真言』.\\newblock\Jem{言語処理学会第19回年次大会発表論文集},\mbox{\BPGS\406--409}.\bibitem[\protect\BCAY{Auli,Galley,Quirk,\BBA\Zweig}{Auliet~al.}{2013}]{Auli}Auli,M.,Galley,M.,Quirk,C.,\BBA\Zweig,G.\BBOP2013\BBCP.\newblock\BBOQJointLanguageandTranslationModelingwithRecurrentNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2013)},\mbox{\BPGS\1044--1054}.\bibitem[\protect\BCAY{Bengio}{Bengio}{2009}]{Bengio:09}Bengio,Y.\BBOP2009\BBCP.\newblock\BBOQLearningDeepArchitecturesforAI.\BBCQ\\newblock{\BemFoundationsandTrendsinMachineLearning},{\Bbf2}(1),\mbox{\BPGS\1--127}.\bibitem[\protect\BCAY{Bengio}{Bengio}{2012}]{Bengio:12}Bengio,Y.\BBOP2012\BBCP.\newblock\BBOQPracticalRecommendationsforGradient-BasedTrainingofDeepArchitectures.\BBCQ\\newblock{\BemeprintarXiv:1206.5533},\mbox{\BPGS\1--33}.\bibitem[\protect\BCAY{Bengio,Courville,\BBA\Vincent}{Bengioet~al.}{2013}]{Bengio:13}Bengio,Y.,Courville,A.,\BBA\Vincent,P.\BBOP2013\BBCP.\newblock\BBOQRepresentationLearning:AReviewandNewPerspectives.\BBCQ\\newblock{\BemIEEETransactionsonPatternAnalysisandMachineIntelligence},{\Bbf35}(8),\mbox{\BPGS\1798--1828}.\bibitem[\protect\BCAY{Bengio,Lamblin,Popovici,\BBA\Larochelle}{Bengioet~al.}{2007}]{Bengio:07}Bengio,Y.,Lamblin,P.,Popovici,D.,\BBA\Larochelle,H.\BBOP2007\BBCP.\newblock\BBOQGreedyLayer-wiseTrainingofDeepNetworks.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems19(NIPS2006)},\mbox{\BPGS\153--160}.\bibitem[\protect\BCAY{Billingsley\BBA\Curran}{Billingsley\BBA\Curran}{2012}]{Billingsley}Billingsley,R.\BBACOMMA\\BBA\Curran,J.\BBOP2012\BBCP.\newblock\BBOQImprovementstoTraininganRNNParser.\BBCQ\\newblockIn{\BemProceedingsofthe24thInternationalConferenceonComputationalLinguistics(COLING2012)},\mbox{\BPGS\279--294}.\bibitem[\protect\BCAY{Collobert,Weston,Bottou,Karlen,Kavukcuoglu,\BBA\Kuksa}{Collobertet~al.}{2011}]{Collobert}Collobert,R.,Weston,J.,Bottou,L.,Karlen,M.,Kavukcuoglu,K.,\BBA\Kuksa,P.\BBOP2011\BBCP.\newblock\BBOQNaturalLanguageProcessing(Almost)fromScratch.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf12},\mbox{\BPGS\2493--2537}.\bibitem[\protect\BCAY{Glorot\BBA\Bengio}{Glorot\BBA\Bengio}{2010}]{Glorot:10}Glorot,X.\BBACOMMA\\BBA\Bengio,Y.\BBOP2010\BBCP.\newblock\BBOQUnderstandingtheDifficultyofTrainingDeepFeedforwardNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe13thInternationalConferenceonArtificialIntelligenceandStatistics(AISTATS2010)},\mbox{\BPGS\249--256}.\bibitem[\protect\BCAY{Glorot,Bordes,\BBA\Bengio}{Glorotet~al.}{2011}]{Glorot}Glorot,X.,Bordes,A.,\BBA\Bengio,Y.\BBOP2011\BBCP.\newblock\BBOQDomainAdaptationforLarge-ScaleSentimentClassification:ADeepLearningApproach.\BBCQ\\newblockIn{\BemProceedingsofthe28thInternationalConferenceonMachineLearning(ICML2011)},\mbox{\BPGS\513--520}.\bibitem[\protect\BCAY{Hashimoto,Miwa,Tsuruoka,\BBA\Chikayama}{Hashimotoet~al.}{2013}]{Hashimoto}Hashimoto,K.,Miwa,M.,Tsuruoka,Y.,\BBA\Chikayama,T.\BBOP2013\BBCP.\newblock\BBOQSimpleCustomizationofRecursiveNeuralNetworksforSemanticRelationClassification.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2013)},\mbox{\BPGS\1372--1376}.\bibitem[\protect\BCAY{Hermann\BBA\Blunsom}{Hermann\BBA\Blunsom}{2013}]{Hermann}Hermann,K.~M.\BBACOMMA\\BBA\Blunsom,P.\BBOP2013\BBCP.\newblock\BBOQTheRoleofSyntaxinVectorSpaceModelsofCompositionalSemantics.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2013)},\mbox{\BPGS\894--904}.\bibitem[\protect\BCAY{Hiton,Osindero,\BBA\Teh}{Hitonet~al.}{2006}]{Hinton}Hiton,G.~E.,Osindero,S.,\BBA\Teh,Y.\BBOP2006\BBCP.\newblock\BBOQAFastLearningAlgorithmforDeepBeliefNets.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf18},\mbox{\BPGS\1527--1554}.\bibitem[\protect\BCAY{Kalchbrenner\BBA\Blunsom}{Kalchbrenner\BBA\Blunsom}{2013}]{Kalchbrenner}Kalchbrenner,N.\BBACOMMA\\BBA\Blunsom,P.\BBOP2013\BBCP.\newblock\BBOQRecurrentContinuousTranslationModels.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2013)},\mbox{\BPGS\1700--1709}.\bibitem[\protect\BCAY{Krizhevsky,Sutskever,\BBA\Hinton}{Krizhevskyet~al.}{2012}]{Krizhevsky}Krizhevsky,A.,Sutskever,I.,\BBA\Hinton,G.~E.\BBOP2012\BBCP.\newblock\BBOQImageNetClassificationwithDeepConvolutionalNeuralNetworks.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems25(NIPS2012)},\mbox{\BPGS\1097--1105}.\bibitem[\protect\BCAY{Lee,Grosse,Ranganath,\BBA\Ng}{Leeet~al.}{2009}]{Lee}Lee,H.,Grosse,R.,Ranganath,R.,\BBA\Ng,A.~Y.\BBOP2009\BBCP.\newblock\BBOQConvolutionalDeepBeliefNetworksforScalableUnsupervisedLearningofHierarchicalRepresentations.\BBCQ\\newblockIn{\BemProceedingsofthe26thInternationalConferenceonMachineLearning(ICML2009)},\mbox{\BPGS\609--616}.\bibitem[\protect\BCAY{Li,Zhao,Jiang,Zhang,Wang,Gonzalez,Valentin,\BBA\Sahli}{Liet~al.}{2013}]{Li}Li,L.,Zhao,Y.,Jiang,D.,Zhang,Y.,Wang,F.,Gonzalez,I.,Valentin,E.,\BBA\Sahli,H.\BBOP2013\BBCP.\newblock\BBOQHybridDeepNeuralNetwork-HiddenMarkovModel(DNN-HMM)BasedSpeechEmotionRecognition.\BBCQ\\newblockIn{\BemProceedingsofHumaineAssociationConferenceonAffectiveComputingandIntelligentInteraction(ACII2013)},\mbox{\BPGS\312--317}.\bibitem[\protect\BCAY{Liu,Watanabe,Sumita,\BBA\Zhao}{Liuet~al.}{2013}]{Liu}Liu,L.,Watanabe,T.,Sumita,E.,\BBA\Zhao,T.\BBOP2013\BBCP.\newblock\BBOQAdditiveNeuralNetworksforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2013)},\mbox{\BPGS\791--801}.\bibitem[\protect\BCAY{Luong,Socher,\BBA\Manning}{Luonget~al.}{2013}]{Luong}Luong,T.,Socher,R.,\BBA\Manning,C.\BBOP2013\BBCP.\newblock\BBOQBetterWordRepresentationswithRecursiveNeuralNetworksforMorphology.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2013)},\mbox{\BPGS\104--113}.\bibitem[\protect\BCAY{Ma,Nakao,\BBA\Murata}{Maet~al.}{2005}]{Ma}Ma,Q.,Nakao,K.,\BBA\Murata,M.\BBOP2005\BBCP.\newblock\BBOQSingleLanguageInformationRetrievalatNTCIR-5.\BBCQ\\newblockIn{\BemProceedingsoftheFifthNTCIRWorkshopMeetingonEvaluationofInformationAccessTechnologies:InformationRetrieval,QuestionAnsweringandCross-LingualInformationAccess},\mbox{\BPGS\39--43}.\bibitem[\protect\BCAY{Ma,Tanigawa,\BBA\Murata}{Maet~al.}{2014}]{Ma:14}Ma,Q.,Tanigawa,I.,\BBA\Murata,M.\BBOP2014\BBCP.\newblock\BBOQRetrievalTermPredictionUsingDeepBeliefNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe28thPacificAsiaConferenceonLanguage,InformationandComputing(Paclic28)},\mbox{\BPGS\338--347}.\bibitem[\protect\BCAY{内木\JBA佐藤\JBA駒谷}{内木\Jetal}{2013}]{Uchiki}内木賢吾\JBA佐藤理史\JBA駒谷和範\BBOP2013\BBCP.\newblock日本語クロスワードを解く:性能向上の検討.\\newblock\Jem{2013年度人工知能学会全国大会}.\bibitem[\protect\BCAY{Salakhutdinov\BBA\Hinton}{Salakhutdinov\BBA\Hinton}{2009}]{Salakhutdinov}Salakhutdinov,R.\BBACOMMA\\BBA\Hinton,G.~E.\BBOP2009\BBCP.\newblock\BBOQSemanticHashing.\BBCQ\\newblock{\BemInternationalJournalofApproximateReasoning},{\Bbf50}(7),\mbox{\BPGS\969--978}.\bibitem[\protect\BCAY{Seide,Li,\BBA\Yu}{Seideet~al.}{2011}]{Seide}Seide,F.,Li,G.,\BBA\Yu,D.\BBOP2011\BBCP.\newblock\BBOQConversationalSpeechTranscriptionUsingContext-DependentDeepNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsof12thAnnualConferenceoftheInternationalSpeechCommunicationAssociation(INTERSPEECH2011)},\mbox{\BPGS\437--440}.\bibitem[\protect\BCAY{Socher,Bauer,Manning,\BBA\Ng}{Socheret~al.}{2013}]{Socher:13a}Socher,R.,Bauer,J.,Manning,C.~D.,\BBA\Ng,A.~Y.\BBOP2013\BBCP.\newblock\BBOQParsingwithComputationalVectorGrammars.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2013)},\mbox{\BPGS\455--465}.\bibitem[\protect\BCAY{Socher,Huang,Pennington,Ng,\BBA\Manning}{Socheret~al.}{2011}]{Socher:11}Socher,R.,Huang,E.~H.,Pennington,J.,Ng,A.~Y.,\BBA\Manning,C.~D.\BBOP2011\BBCP.\newblock\BBOQDynamicPoolingandUnfoldingRecursiveAutoencodersforParaphraseDetection.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems24(NIPS2011)},\mbox{\BPGS\801--809}.\bibitem[\protect\BCAY{Socher,Perelygin,Wu,\BBA\Chuang}{Socheret~al.}{2013}]{Socher:13b}Socher,R.,Perelygin,A.,Wu,J.~Y.,\BBA\Chuang,J.\BBOP2013\BBCP.\newblock\BBOQRecursiveDeepModelsforSemanticCompositionalityOveraSentimentTreebank.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2013)},\mbox{\BPGS\1631--1642}.\bibitem[\protect\BCAY{Srivastava,Hovy,\BBA\Hovy}{Srivastavaet~al.}{2013}]{Srivastava}Srivastava,S.,Hovy,D.,\BBA\Hovy,E.~H.\BBOP2013\BBCP.\newblock\BBOQAWalk-BasedSemanticallyEnrichedTreeKernelOverDistributedWordRepresentations.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2013)},\mbox{\BPGS\1411--1416}.\bibitem[\protect\BCAY{Tsubaki,Duh,Shimbo,\BBA\Matsumoto}{Tsubakiet~al.}{2013}]{Tsubaki}Tsubaki,M.,Duh,K.,Shimbo,M.,\BBA\Matsumoto,Y.\BBOP2013\BBCP.\newblock\BBOQModelingandLearningSemanticCo-CompositionalitythroughPrototypeProjectionsandNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2013)},\mbox{\BPGS\130--140}.\bibitem[\protect\BCAY{Vincent,Larochelle,Bengio,\BBA\Manzagol}{Vincentet~al.}{2008}]{Vincent:08}Vincent,P.,Larochelle,H.,Bengio,Y.,\BBA\Manzagol,P.~A.\BBOP2008\BBCP.\newblock\BBOQExtractingandComposingRobustFeatureswithDenoisingAutoencoders.\BBCQ\\newblockIn{\BemProceedingsofthe25thInternationalConferenceonMachineLearning(ICML2008)},\mbox{\BPGS\1096--1103}.\bibitem[\protect\BCAY{Vincent,Larochelle,Lajoie,Bengio,\BBA\Manzagol}{Vincentet~al.}{2010}]{Vincent:10}Vincent,P.,Larochelle,H.,Lajoie,I.,Bengio,Y.,\BBA\Manzagol,P.~A.\BBOP2010\BBCP.\newblock\BBOQStackedDenoisingAutoencoders:LearningUsefulRepresentationsinaDeepNetworkwithaLocalDenoisingCriterion.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf11},\mbox{\BPGS\3371--3408}.\bibitem[\protect\BCAY{Zou,Socher,Cer,\BBA\Manning}{Zouet~al.}{2013}]{Zou}Zou,W.~Y.,Socher,R.,Cer,D.~M.,\BBA\Manning,C.~D.\BBOP2013\BBCP.\newblock\BBOQBilingualWordEmbeddingsforPhrase-BasedMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2013)},\mbox{\BPGS\1393--1398}.\end{thebibliography}\begin{biography}\bioauthor{馬青}{1983年北京航空航天大学自動制御学科卒業.1987年筑波大学大学院修士課程理工学研究科理工学専攻修了.1990年同大学院博士課程工学研究科電子・情報工学専攻修了.工学博士.郵政省通信総合研究所・独立行政法人通信総合研究所(現国立研究開発法人情報通信研究機構)主任研究官・主任研究員を経て,2003年4月より,龍谷大学理工学部教授.自然言語処理,機械学習の研究に従事.言語処理学会,情報処理学会,電子情報通信学会,日本神経回路学会,各会員.}\bioauthor{谷河息吹}{2013年龍谷大学数理情報学科卒業.2015年龍谷大学大学院理工学研究科数理情報学専攻修士課程修了.人工知能学会員.}\bioauthor{村田真樹}{1993年京都大学工学部電気工学第二学科卒業.1997年同大学院工学研究科電子通信工学専攻博士課程修了.博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.独立行政法人情報通信研究機構主任研究員を経て,2010年4月より,鳥取大学大学院工学研究科情報エレクトロニクス専攻教授.自然言語処理,情報抽出の研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,計量国語学会,各会員.}\end{biography}\biodate\end{document}
| |
V21N02-02 | \section{はじめに}
平成11年から政府主導で行われた平成の大合併や,平成19年より施行された地方分権改革推進法など,地方政治を重視する取り組みが盛んに行われていたのは記憶に新しい.一方で,有権者の政治離れが深刻な問題となって久しく,平成25年7月21日の第23回参議院議員通常選挙における選挙区選挙では52.61\%の投票率\footnote{http://www.soumu.go.jp/senkyo/senkyo\_s/data/sangiin23/index.html}となり,参議院議員通常選挙において過去3番目に低い値となった.地方政治の場合,平成23年4月の第17回統一地方選挙の投票率は,48.15\%\footnote{http://www.soumu.go.jp/senkyo/senkyo\_s/data/chihou/ichiran.html}であり,さらに低い値となっている.地方政治に対する有権者の政治離れの原因には幾つか考えられるが,その一因に地方議会議員およびその活動の認知度の低さがあげられる.現状では,政治情報を入手するソースとしてテレビや新聞などのマスメディアが占める割合が大きいが,このようなマスメディアに首長以外の地方議会議員が取り上げられることはほとんどない.地方議会議員は国会議員と同様に住民による選挙によって選ばれ,かつ,国政よりも身近な存在であるべきであるにもかかわらず,その活動に関する認知度が低いのは大きな問題であると考える.そこで,住民に提供される地方政治の情報,特に地方議会議員に関する情報量の不足を解決するための方法の一つとして,Web上の情報を有効に利用することを考える.Web上に存在する議員の情報には,議員や政党のホームページ,ニュースサイトの政治ニュース,議員のブログやTwitterなどのSNS,マニフェスト,議会の会議録などがある.このうち会議録には,議員からの一方的な情報発信ではなく,議論や反対意見などのやりとりが含まれ,公の場における各議員の活動や考え方を知ることができる.また,研究対象として会議録を見た場合,会議録は,首長や議員の議論が書き起こされた話し言葉のデータであり,長い年月の議論が記録された通時的なデータであることから,政治学,経済学,言語学,情報工学等の様々な分野における研究対象のデータとして利用されている.例えば,政治学の分野では,平成の大合併前後に行われた市長選挙についての分析を行い,合併を行った市と行わなかった市の違いを当選者の属性から比較した平野\cite{hrn}の研究,合併が地方議会や議員の活動に対して与えた影響を856議員にアンケート調査することで分析を行った森脇\cite{mrwk}の研究などがある.また,経済学の分野では,「小規模自治体の多選首長は合併に消極的」という仮説を検証するために,全国の地方議員,首長の情報を人手で調査した川浦\cite{kwur,kwur2}の研究など,言語学の分野では,「去った○日」という表現(「去る○日」の意)が那覇市の会議録に見られることを指摘した井上\cite{inue},「めっちゃんこ」が名古屋市の会議録に見られることを指摘した山下\footnote{http://dictionary.sanseido-publ.co.jp/wp/2012/07/07/},形態素N-gramを用いて地方議会会議録の地域差を捉える方法について検討した高丸ら\cite{tkmr,tkmr1,tkmr2},発言者の出身地域とオノマトペの使用頻度についての分析を行った平田ら\cite{hrt}などの研究が存在する.情報工学の分野においても,特徴的な表層表現を手掛かりに国会会議録を対象とした自動要約を行った川端ら\cite{kwbt}や山本ら\cite{ymmt}の研究,住民の潜在的な関心を明確化するための能動的質問生成手法を提案した木村ら\cite{kim3}の研究などが存在し,海外でも,会議録中の発言を元にイデオロギーを分類するYuetal.\cite{bei}や,会議録で用いられている語句を可視化するGeodeetal.\cite{bart}などの研究が行われている.これらの研究を行う上で基礎となる会議録のデータであるが,国会の場合,国立国会図書館により会議録サイト\footnote{http://kokkai.ndl.go.jp/}が整備されており,第1回国会(昭和22年)以降のすべての会議録がテキストデータとして公開され,検索システムによって検索を行うことができる.一方で,地方議会会議録の場合,全ての自治体の会議録をまとめているサイトは存在せず,自治体ごとに参照する必要がある.加えて,自治体によりWeb上で公開されている形式が異なることが多いため,統一的に各自治体の会議録を扱おうとすれば収集作業や整形作業に労力がかかる.また,各研究者が重複するデータの電子化作業を個別に行っているといった非効率な状況も招いている.このような背景から,我々は地方政治に関する研究の活性化・学際的応用を目指して,研究者が利用可能な{\bf地方議会会議録コーパス}の構築を行っている.コーパスの構築にあたっては,木村ら\cite{kim1}や乙武ら\cite{ottk}において行われた,北海道の地方議会会議録データの自動収集や加工の技術を参考にし,全国の市町村の議会会議録を対象としたコーパス構築を行うこととした.地方議会会議録コーパスは,Web上で公開されている全国の地方議会会議録を対象として,「いつ」「どの会議で」「どの議員が」「何を発言したのか」を,発言に対して市町村や議会種別,年度や発言者名などの各種情報を付与することで構築し,検索可能な形式で収録する.また,近年,ヨーロッパではVoteMatch\footnote{http://www.votematch.net}と呼ばれる投票支援ツールが多くの利用者を獲得しており\cite{uekm,uekm2,kgm},日本でも「投票ぴったん\footnote{http://www.votematch.jpn.org/}」などの日本語版ボートマッチシステムが利用されていること,さらに平成25年4月19日から公職選挙法が一部改正され\footnote{http://http://www.soumu.go.jp/senkyo/senkyo\_s/naruhodo/naruhodo10.html},インターネットなどを利用した選挙運動のうち一定のものが解禁されたことなどから,我々は,地方議会会議録コーパスを用いて,会議録における発言を基に利用者と政治的に近い考えをもつ議員を判断して提示するシステムを最終的な目的としている.さて,地方議会会議録コーパスを構築すると,会議録を文字列や単語で検索することができるようになる.さらに,会議録の書誌情報や議員情報に基づいて簡単な注釈付けを行うことにより,年度や地域をまたいだ比較検討や,地域ごとの表現の差の分析などを行うことが可能となる.その一方で,我々が構築を目指しているシステムは利用者と政治的に近い議員を判断し利用者に提示するものであるため,会議録の書誌情報や発言議員名といった簡単な注釈付けのみでは議員の施策や事業に対する意見の判別を行うことができず不十分である.すなわち,議員の発言の中にある施策や事業に対する意見のように,下位構造が存在し,それらが結び付くことで一つの情報となるものに対しての分析を行うことは,会議録の文字列検索のみでは難しい.政治的な考えの近さは,一般に,施策や事業などへの賛否の一致度合いにより推測できると考えられ,上神ら\cite{uekm,uekm2,kgm}などのボートマッチシステムでも,この考え方に基づいている.さらに,議員の施策や事業に関する賛否の意見には,同じ賛成の立場をとる議員の間でもその賛成の度合いには差が存在している.例えば,「昨年度は○○などの事業に取り組んできた」と発言した議員と,「○○などの事業を行うのもやむを得ない」と発言した議員では,前者の方が既に自らが取り組んでいることを表明していることから,より積極的に賛成であると考えられる.積極的に賛成である議員の方が,消極的に賛成である議員よりも,彼らが賛成する施策や事業の実現に向けて尽力すると考えられるため,当該の施策や事業を実現してほしい利用者には,積極的に賛成である議員の方を提示することが望ましい.また,消極的に反対の意見を示している議員よりも,積極的に反対の意見を示している議員の方が,彼らが反対する施策や事業を廃止することに注力すると考えられるため,反対の立場を取る議員に対しても同様の考えが成り立つ.このように賛否に加えて積極性を考慮して,利用者と近い考えをもつ議員を判断する必要がある.以上の背景から,我々は,比較的簡単な処理により自動的に付与できるタグを地方議会会議録コーパス全体に付与するとともに,上記の政治情報システムの検討のために,会議録の一部に対して,議員の施策・事業に対する賛否とその積極性に関連する情報の注釈付けを行うこととした.本稿ではまず2節で関連研究について述べ,3節では地方議会会議録の収集及び地方議会会議録コーパスの構築について説明する.次に,4節では地方議会会議録コーパスの一部に対して我々が付与したタグの仕様や注釈結果の統計とその分析及び残された課題について述べる.最後に5節でまとめる.
\section{関連研究}
本節では,本稿に関連する各種研究について説明する.\subsection{会議録を対象とした研究}会議録を対象とした研究としては,以前より国会会議録を対象とした研究が行われてきた.川端ら\cite{kwbt}や山本ら\cite{ymmt}は特徴的な表層表現を手掛かりに国会会議録を対象とした自動要約を行っている.平田ら\cite{hrt}は,発言者の出身地域とオノマトペの使用頻度についての分析を行っている.また,国会会議録検索システムというシステムが公開されており,国会の会議録を自由に検索・閲覧することができる.これに対し,地方議会会議録のもつ会議録検索システムは,市町村ごとに様式が異なっているため,複数の市町村の会議録を対象に研究を行おうとした場合にそのまま利用することは難しい.そこで,地方議会会議録を収集して統一された書式に整形する必要がある.これに関連し,木村ら\cite{kim1}や乙武ら\cite{ottk}は北海道内の各市町村を対象に地方議会会議録の自動収集に向けた公開パタンの分析を行っている.51種類の収集パタンによる自動収集プログラムを用いて約94\%の自治体から会議録の収集に成功している.この成果を参考にしつつ,我々は,各自治体が会議録を公開している形式を分析し,全国規模の会議録の収集を行った.\subsection{コーパス構築に関する研究}Web文書を対象としコーパスを構築する研究では,以下の研究が存在する.関口ら\cite{skgc}はWeb文書を収集し,HTMLタグや日本語文章の書法を用い,質の面での改善を行うことでWebコーパスを作成した.橋本ら\cite{hsmt}は,ブログを対象とした自然言語処理の高精度化への寄与を目的とし,81名の大学生に4つのテーマで執筆させた249記事のブログに,文境界,形態素,係り受け,格・省略・照応,固有表現,評価表現に関する注釈付けを行った.Ptaszynskietal.\cite{ptas}は,日本語のブログを自動収集して構築した,3.5億文からなるコーパスYACISに対して自動的に感情情報を付与した.また,飯田ら\cite{iid}は新聞記事を対象とし,述語項構造・共参照タグを付与する基準について報告し,事態性名詞のタグ付与において,具体物のタグ付与と項のタグ付与を独立に行うことで作業品質を向上させている.しかしながら,本研究でコーパス構築の対象としたデータは地方議会会議録であり,これらのコーパス構築の手法とは対象とするデータが異なる.\subsection{主観的な情報の注釈付けに関する研究}本研究は政治的課題に対する賛否と積極性に関する注釈付けを行っており,主観的な注釈付けの一つである.主観的な注釈付けとしては,以下の研究がある.Weibeetal.\cite{wb}は,意見などのprivatestateをニュース記事の句に対して注釈付けを行っている.松吉ら\cite{mtys}は,書き手が表明する真偽判断,価値判断などの事象に対する総合的な情報を表すタグの体系を提案し,これに基づくコーパスを基礎とした解析システムを提案した.また,評判情報に関する研究では,小林ら\cite{kbys}は主観的評価の構成要素を「根拠」「評価」「態度」の3つの要素に分類したうえでの注釈付きコーパスの作成を行っている.宮崎ら\cite{myzk}は,Web文書を対象に,製品の様態と評価とを分離した評判情報のモデルを提案し,評判情報コーパス構築の際の注釈者間の注釈揺れを削減する方法を論じている.大城ら\cite{osr}は,施策や事業に対する賛否の意見を,構造的に捉えるための注釈付けタグセットを提案し,その有効性を確認した.我々の提案する注釈付けは,意見や評判情報の注釈付けと同様に文中のある部分に対して極性を付与するという点で共通しているが,極性に加えて程度を表す積極性の情報を注釈付けしている点でこれらの研究と異なる.積極性の情報を注釈付けすることの有用性については,次節で説明する.\subsection{ボートマッチに関する研究}ボートマッチは選挙に関するインターネットサービスの一種で,有権者と立候補者,または有権者と政党の考え方の一致度を測定することができるシステムである.上神ら\cite{uekm,uekm2,kgm}はコンピュータによりコーディングを自動化する手法を提案しマニフェストの分析の自動化を行い,それを用いてボートマッチシステム「投票ぴったん」を作成した.また,毎日新聞の「えらぼーと」{\kern-0.5zw}\footnote{http://vote.mainichi.jp/}などが公開されている.木村ら(木村他2011)は意思決定の際に用いられる決定木を用い,「決定木において同じ経路を選択する相手は同じ考え方をする相手とみなすことができる」という仮説のもとに,利用者の政治的興味や関心を同定するための質問生成手法を提案している.我々の場合,賛否に加え積極性についても考慮し注釈付けを行うため,既存のボートマッチシステムでは比較を行うのが難しいある施策や事業に対し同意見の議員を積極性という尺度を用いて分類することが可能となる.それにより,「昨年度は○○などの事業に取り組んできた」と発言した議員と,「○○などの事業を行うのもやむを得ない」と発言した議員のように,どちらも賛成の意思を示しているが積極性の度合いが異なる場合に,我々の提案する注釈付け手法を用いれば,前者の議員がより積極的に賛成であると注釈付けることが可能である.これにより,当該の施策や事業を実現してほしい利用者に対し,その意見により近い前者の議員を提示することが可能となる.
\section{地方議会会議録コーパス}
\label{sec:aboutcgkc}本節では,地方議会会議録の収集および地方議会会議録コーパスを構築するプロジェクトの概要及び,構築された地方議会会議録コーパスについて説明する.\subsection{プロジェクトの目的}本プロジェクトは,地方政治に関する研究の活性化・学際的応用を目指して,研究者が利用可能な地方議会会議録コーパスを全国規模で構築しWeb上で提供することを目的とする.また,そのコーパスを利用した政治学,社会言語学,情報工学の研究を行い,その成果を学際的に応用した政治情報システムの開発を行う.プロジェクトの全体像を図\ref{zent}に示す.\clearpage\subsection{地方議会会議録の収集}\begin{figure}[b]\vspace{-0.8\Cvs}\begin{center}\includegraphics{21-2iaCA2f1.eps}\end{center}\caption{プロジェクトの全体像}\label{zent}\end{figure}\begin{table}[b]\caption{51市町村の会議録検索システム}\label{syst}\input{ca02table01.txt}\vspace*{-0.5\Cvs}\end{table}全都道府県の県庁所在地と政令指定都市の計51市町村の会議録について平成17年から平成22年を対象に収集を行った.市町村の会議録の多くは,Web上で専用の会議録検索システムを通して公開されている.その会議録システムは表\ref{syst}に示すように大きく分けて4つの会社が会議録検索システムを提供しており,それぞれ付録Aに示すクロールプログラムを構築し収集を行った.なお,その他に該当するのは秋田市のみで,独自の会議録検索システムを作っていたため人手により会議録を収集した.\subsection{地方議会会議録コーパスの構築}\begin{table}[b]\caption{発言に付与する項目}\label{huyo1}\input{ca02table02.txt}\end{table}利用者の利便性を考慮し,付録Aの方法により収集した会議録に対し表\ref{huyo1}に示す付随情報を付与し,データベース化を行った.その際には必要な発言のみを簡単に参照できるように会議録を発言単位に分割した.発言単位の分割については,句点や括弧などを区切りにしており,その際にHTMLタグはすべて取り除いている.以下,発言に付与する項目について説明する.「発言ID」は各発言の識別を行うため,「市町村コード」は市町村ごとの検索のため,「議会名」は議会ごとの検索のため,「議会種別コード」市町村によって名称の違う議会名を分類するためにそれぞれ必要となる.「年度」,「回」,「月」,「号」,「日付」については時間情報として重要なため必要である.「表題」はページのタイトルとして,「段落番号」は段落ごとの抽出を容易にするため,「役職名」は会議によって議員の役職が変わることがあるため,「発言者名」は会議録中の文字列をそのまま保持するため,また,発言者が議員であるとは限らないため,「議員ID」は議員の識別のためにそれぞれ必要である.「ファイルのパス」は元ファイルを参照することを容易にするため,「その他」は発言とそれ以外の内容を区別するためにそれぞれ必要となる.例えば,図\ref{egko}のような会議録が与えられたとき,下線部の発言に対して表\ref{eghuyo1}のように情報が付与され,図\ref{fig:huyoo}の様になる.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA2f2.eps}\end{center}\caption{甲府市議会会議録の例}\label{egko}\end{figure}\begin{table}[t]\caption{発言に対する情報付与の例}\label{eghuyo1}\input{ca02table03.txt}\end{table}「発言ID」は会議録では2番目の発言であることを表している.「市町村コード」は総務省により割り当てられた地方公共団体コードを指す.「議会種別コード」は定例会と臨時会には個別のコードが割り当てられているが,その他の委員会は市町村によって異なるためその他と一括りにしている.「年度」は表題に含まれる和暦を西暦に直している.「回」は表題に「第○回定例会」のように書かれているものもあるが,例のように「○月定例会」と書かれているものは,元ファイルが配置されていた同一ディレクトリ内の定例会の開催月を比較して何回目であるかを推定している.「議会名」は表題から日付や回などを省くことで生成される.「号」はファイル名より会議が1日目であることを表している.「日付」はこの例の中には現れていないが,会議録のHTMLタグの中に現れるものを抽出している.「表題」は会議録のHTMLファイルにあるtitle要素であるが,titleがない場合はファイル名から「平成〜年○○会」までを抽出している.「段落番号」は2番目の段落であることを表している.なお,段落の区切りはbrタグにより判別される.「役職名」と「発言者名」は,発言者の発言の最初に,「○役職名(発言者名君)」のような表現で現れるものを抽出している.「議員ID」は全国の地方議員の一覧を別途用意し,すべての議員に割り振った.「ファイルのパス」は収集したファイルの保存場所を示している.「発言」には,該当する1文の発言を文字列で保存している.「その他」には発言以外の会議録の内容,例えば「(市長宮島雅展君登壇)」のような記述が入れられる.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA2f3.eps}\end{center}\caption{図\ref{egko}中の下線部に対して付与を行った結果}\label{fig:huyoo}\end{figure}\subsection{地方議会会議録コーパスを用いた研究}前節の手法により構築した地方議会会議録コーパス及びそのデータベースにより,全国の地方議会会議録に対し,「いつ」,「どの会議で」,「どの議員が」,「何を発言したのか」について検索を行うことが可能となる.これを受けて,今後,政治学,社会言語学,情報工学といった各分野での研究が期待されるが,以下では現時点で行われている,地方議会会議録コーパスを用いた情報工学と社会言語学の研究について紹介する.\subsubsection{情報工学の研究}情報工学の分野では,会議録に含まれるテキストから,政治的課題の表現や要求表現の自動抽出,抽出データの関係推定などを用いて,住民,自治体職員,政治家などに有益な情報を提供する研究が行われている.会議録は定例会だけでも膨大な量であり,北海道小樽市の市議会会議録の場合,定例会1回分の会議録だけでA4判にすると200ページを超える.木村ら\cite{kim3}は,大量のテキストデータに対して能動的にアクセスし,これらのデータを読む住民が少ないと考え政治的課題の関心を明確にするための質問をシステムから利用者に行うことで,利用者の考えに近い議員を提示する方法を提案している.会議録に含まれる重要部分を抽出する研究も行われている.葦原ら\cite{ashr}は,会議録に含まれる重要な内容が議員からの質問に含まれることが多いことに着目し,議員の質問から要求表現を抽出する研究を行っている.他には,大城ら\cite{osr}は施策や事業に対する賛否の意見を,構造的にとらえるための注釈付けタグセットを提案している.議員の施策や事業の意見について注釈付けを行うという点では共通しているが,同じ賛成(もしくは反対)を示す議員に対しその積極性を考慮するという点で本研究とは異なっている.\subsubsection{言語学の研究}地方議会会議録は,社会言語学,日本語学,方言学などの研究に寄与する言語資源であると考えられる.しかし,会議録は議会における発言を一字一句厳密に記録しているわけではなく,文章としての読みやすさを考慮して,意味内容が大きく変わらない範囲で修正(整文)が加えられている.高丸ら\cite{tkmr,tkmr1,tkmr2}は地方議会会議録の言語資源としての性質を明らかにするための基礎研究として,複数の地方議会会議録における整文の状況を分析し,実態を比較した.整文の過程において,冗長な表現の削除や言い間違いや方言語彙の修正などが行われているため,地方議会会議録コーパスを用い話し言葉などに含まれる非流暢性を分析することは困難であると考えられるが,本コーパスは通時性・共時性を併せ持つ言語資源であるため,新しい文法表現の需要の実態や議会用語の変遷等を分析することが可能である.さらに,整文の担当者がある表現が方言であることに気付かないことや,発言者の口調を維持するために,方言であっても整文されずに残されることがあることといった理由により,会議録に現れる方言等を分析することが可能である.現在これらの観点に基づく研究への本コーパスの活用が進められている.
\section{賛否の積極性に関する注釈付け}
\ref{sec:aboutcgkc}節で説明した地方議会会議録コーパスにより,発言(文)や方言のような表層的な表現の検索や分析は可能となった.しかし,我々が開発を目指している,利用者の考えに近い議員を提示するシステムを構築するためには,ある議員の施策や事業に対する意見,例えばその賛否や積極性を判定する必要がある.意見は複数の形態素等の要素を組み合わせることにより表されるものであると考えられるため,先に述べたプレインテキストに基づくコーパスの構築のみでは不十分であると考え,会議録中に表れる政治的課題や政策に対する賛否およびその積極性に関する注釈付けを行うこととした.本節では,まず賛否の積極性に関する情報に関して考察し,注釈すべき情報の定義を行う.付与したXML形式のタグの仕様と付与の基準について説明した後,注釈付け結果の統計を示す.最後に,タグに関する課題について述べる.\subsection{賛否の積極性に関する情報}\label{ssec:info}賛否の積極性について考えるにあたり,会議録中の賛否を表明する発言を観察し,それらについて分析を行った.図\ref{fig:eg_bamen}に,会議録の構成を5つの場面の観点から例文とともに示す.\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA2f4.eps}\end{center}\caption{会議録の場面構成}\label{fig:eg_bamen}\end{figure}図\ref{fig:eg_bamen}に示した5つの場面の内,(i)から(iv)の場面において施策や事業およびそれに関する賛否を表す文や表現が現れることが多く,一方で(v)の場面ではほとんど現れなかった.次に,議員が施策や事業に関する意見を述べる際の発言の例を図\ref{fig:eg_sentence}に示す.施策や事業に関する意見を表す文は,例文(1)の下線部(a)のように施策や事業そのものを表す表現と,下線部(b)のように発言者の施策や事業に関する意見の表現の2つから構成されると考えることができる.なお,発言者としては,一般の議員に加えて,自治体の首長及び部局長,委員長,議長なども現れる.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA2f5.eps}\end{center}\caption{施策や事業に関する意見を含む文の例}\label{fig:eg_sentence}\end{figure}まず,施策や事業の表現についての分析結果について述べる.例文(2)では,施策や事業は下線部(c)の複合名詞1語で表されているが,例文(1)の下線部(a)や例文(3)の下線部(e),例文(7)の下線部(m)のようにより大きな名詞句で1つの施策や事業が表現されているものも多く存在しており,いずれの場合も連続する文字列で現れていることが多かった.また,例文(4)のように,施策や事業は現れていないが,その実施の度合いのみを述べている文も多く存在していた.次に,施策や事業に対する賛否の表現についての分析結果を述べる.例文(1)から例文(5)までのように,施策や事業に関して賛成を述べる表現と,例文(6),(7)のような施策や事業に対して反対を述べる表現がある.その比率としては賛成が非常に多かった.これは自分の関心のある施策や事業と,行政側に実現させたい施策や事業について言及することが非常に多く見られたことによるものであると思われる.賛成を述べる際には,例文(1)の下線部(b)や,例文(5)の下線部(h)のように明確に賛成の意思を表す文が非常に多く見られた.下線部(d)のように「積極的に」などの言葉が入り,積極的な意思を示す表現も見られた.反対を述べる際には,賛成の場合と同様に例文(6)の下線部(k)と(l)のように明確に反対の意思を表明する文も存在するが,例文(7)のように,現状で十分であり,新たな行動を起こす必要がないため,下線部(m)の施策や事業には賛成ではないというように,消極的に反対を述べる文も存在していた.また,例文(5)の下線部(h)と(i)のように,施策や事業を表す表現が意見を表明する文以降の文で発言され,それ以前の文にその施策や事業に対する説明があり,それが施策や事業に対する意見の理由となるような文も存在していた.他にも例文(9)のように,自らの意見ではなく市民の声として施策や事業に対して意見を述べる文も見られた.\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA2f6.eps}\end{center}\caption{施策や事業の実現の度合い}\label{fig:jit}\end{figure}さらに,同じように賛成の立場(もしくは,反対の立場)を表明していても,言及する施策や事業がどのくらい実現されているかの度合いにも差が見られた.その度合いは図\ref{fig:jit}に示す4つに大別することができた.ここで,議員の施策や事業に関する意見を表明する発言を読み,その賛否への積極性を判断する場合を内省すると,積極性を判断するための手掛かりとして,少なくとも以下の3点があった.1点目は,発言中の「やむを得ない」などのほかに手立てがないことを示す表現である.この表現がある場合,消極的な賛成(もしくは,反対)であることが読み取れる.しかしながら,会議録の場合,一般的には積極性を示すはずの表現の存在が必ずしも字義通りの積極性を示すとは限らない.例えば,「取り組まねばならないと考えている」という表現の場合,一般的には積極的な賛成を示していると考えられるが,会議録における議員の発言においては,この表現だけをもって,積極的な賛成であると判断することは不適切である.なぜなら,会議録には特有の表現や言い回しがあり,議員は施策や事業に積極的に取り組むことが当然として捉えられているため,積極的であることを示す表現が常時の表現となっていることが多い.一方,消極的であることを示す表現に関しては,例えば「大幅な繰り入れについてはおのずから限界があると考えるので,値上げについては賛成とは言えないが,やむを得ないと考える」のように,現状が非常に厳しいため本心では実施したくないのだが現状を鑑みると実施せざるを得ないという意図で発言したと読み取れ,消極性が感じられる.すなわち,積極的であることを示す表現が常時の表現のため,表現が積極的なものに偏っており,積極的か消極的かを示す表現で,非対称性があるように思われる.2点目は,言及された施策や事業の具体性である.積極的であるように読み取れる場合,その施策や事業への言及が具体的であることが多い.例えば,単に「取り組まねばならない」という発言よりも,「○○といった理由により△月までに取り組まねばならない」という発言の方が,積極的に取り組むという意思を読み取ることができる.具体性の有無を判断する手掛かりとして,実現したい施策や事業の詳細な内容や,現状を数値などを踏まえて言及するような構造等が考えられるが,本稿では施策や事業に対する意見の根拠となる理由に着目し,理由が述べられている文には具体性があると考えた.3点目は,言及された施策や事業の実現度合いである.すなわち,これから取り組みたいという意思を表明しているだけなのか,それとも,既に施策や事業の一部に着手しているのか,といった違いにより,賛否の積極性を読み取ることができると考えられる.施策や事業に対する賛否の積極性を判断する上で,上記の3点が手がかりになるということは仮説であるが,賛否の積極性に対する人間の判断結果と共に,これらの手がかりに関する表現の注釈付けを行うことにより,その仮説の分析,および,その分析結果に基づいて構築された積極性判断のための仕組みが正しく動作しうるかどうかの確認が可能となる.\subsection{賛否の積極性に関する注釈付け}\label{ssec:huyo}本稿では,地方議会会議録コーパスに収録されている,札幌市,横浜市,京都市,北九州市の4市の2010年の第2回定例会を対象に注釈付けを行った.この4市を対象とした理由は,政令指定都市であること,全国に散らばっていること,同一の記述形式の会議録を採用していることの3点による.注釈付けを行う単位として,「発話」,「段落」,「文」,「文字列」の4つの単位を用い,「文」,「段落」,「発話」を以下のように定義した.まず,4市の会議録の記述形式では,全ての文の最後が句点で終わっていることから,句点を「文」の境界とした.次に,同一の話題に関する文は1つの段落にまとめて記述されており,全ての段落の最初には空白が存在することから,行頭の空白を「段落」の境界とした.最後に,文の発言者に関する情報がコーパス中に収録されているため,発言者が同一人物である文の連続を1つの「発話」とした.\ref{ssec:info}節での議論を基に,表\ref{tb:tag}に示す11種類のタグに関して注釈付けを行うこととした.先に述べた4つの都市に対して,8人の注釈者が1人2都市ずつ担当し注釈付けを行い,1都市につき4つのコーパスを作成することとした.注釈者の育った言語環境は全員日本語で,出身地は神奈川県が3人,静岡県が2人,愛知県が1人,岡山県が1人,佐賀県が1人であった.注釈作業にかかった時間は,おおむね1都市につき15時間から20時間程度であった.各注釈の説明を以下に述べる.\begin{table}[b]\caption{注釈の一覧}\label{tb:tag}\input{ca02table04.txt}\end{table}(1)番目は,発言がどのようなシーンでなされたかの注釈であり,発話単位で付与する.議員が意見を述べることが多いシーンについて,発言が行われる場面ごとの比較や分析を行えるよう「質問」,「回答」,「討論」,「説明」の4シーンを想定し,各シーンを以下のように定義した.\begin{itemize}\item「質問」:発言中に他者に対して回答を求める文が存在している.\item「回答」:発言中に他者からの質問に対する回答となる文が存在している.\item「討論」:自分の意見を一方的に表明している文が存在している.\item「説明」:議案等の内容を説明する文が存在している.\end{itemize}上記の4シーンに当てはまらないシーンは「その他」として注釈づけを行った.シーンは排他的に注釈付けられる.すなわち,注釈者は上記の4シーンに「その他」を加えた5つのうちから1つを選ぶ.作業効率の観点から,「その他」のシーンにおける発言には(2)以降の注釈付けを行わなかった.(2)番目は,発言者の関心がある施策や事業に関する注釈であり,文字列単位で付与する.発言中に含まれる施策や事業を示す文字列を同定するとともに,これに対し,「賛成(推進)」,「反対(廃止)」,「その他」の何れかの極性を付与する.これにより,発言に対する賛否の自動判定を行うための機械学習の教師情報として,注釈付けを行ったコーパスを利用できる.極性の判断は前後の文脈に現れる記述により,作業者の主観に基づいて行われた.施策や事業に関する注釈付けは次のような形で行われる.\begin{quote}\texttt{<}PolicyPolarity=\verb/"/賛成\verb/"/\texttt{>}ANA5路線の存続\texttt{<}/Policy\texttt{>}\end{quote}この例では,「ANA5路線の存続」という施策に対し,発言者は賛成の意思を立場を示している.(3)番目は,発言内容のカテゴリーに関する注釈であり,段落単位で付与する.カテゴリーは,木村ら\cite{kim2}の政治的カテゴリーを参考に,比較的議題に挙げられることが多い,「医療」,「教育」,「環境」,「観光」,「防災」,「公共」の6カテゴリーを対象とした.1つの段落に複数のカテゴリーを付与することを許可している.また,発言内容がどのカテゴリーにも属さない場合には「その他」として注釈付けを行った.(4)番目は,質問と回答の対応付けに関する注釈であり,段落単位で付与する.質問の段落から回答の段落へと1対1で対応付けており,もしも,回答が複数の段落にまたがっている場合は最初の段落に対応付けを行った.段落に対する注釈付けは次のような形で行われる.これにより,ある議員の質問とそれに対する行政側の回答が結び付き,施策・事業ごとの議員の意見と行政側の意見を1つの組として分析が可能となる.\begin{quote}\texttt{<}ParagraphId=\verb/"/P338\verb/"/CorrespondingAnswerParagraphID=\verb/"/P438\verb/"/Category=\verb/"/医療\verb/"/\texttt{>}\end{quote}この例では,338番目の段落は医療のカテゴリーについて発言しており,その段落の中で現れた質問は,438段落で回答されていることを表している.(5)番目は,疑問文かどうかを判断した結果の注釈であり,文単位で付与する.本稿での疑問文とは,他者の回答を要求する文と定義しており,「○○についてお聞かせ願いたい」といった表現であっても疑問文とした.(6)番目は,意見性がある文かどうかを判断した結果の注釈であり,文単位で付与する.本稿での意見性がある文とは,「○○すべきだ」,「△△の方が良いと考えられる」といった意見であることが明確に示されている文と定義している.(7)番目は,発言者本人の意見である文かどうかを判断した結果の注釈であり,文単位で付与する.(8)番目は,発言内容の中核となる文に関する注釈である.本稿での中核となる文とは,発言内容を端的に述べている文と定義している.我々は,システムが利用者に発言内容を提示する際には,発言内容の整理・要約を行う必要があると考えており,整理・要約を行うための情報として利用することを想定している.(2)の施策・事業を注釈を含む文,または,(6)の意見性があると判断された文を含む段落には,最低でも1文は中核となる文を選定し注釈付けを行うこととした.(9)番目は,(2)の施策・事業の極性または(6)の意見性がある文と,その理由となる文との対応付けに関する注釈である.理由となる文から,(2)で選択された施策・事業または(6)の意見性がある文へと1対多で対応付けを行っている.これらが複数存在することにより,理由となる文の集合と,(2)ならびに(6)に属する文の集合の間に多対多の関係が成り立つ.これにより,施策や事業に対する賛否の現れ方や,どのような発言が賛否の理由となるのかについての分析が可能となる.(10)番目は,発言時点で文中の意見がどの程度実現されているかの注釈であり,文単位で付与する.実現の程度として,「表明」,「着手」,「完了」,「拡大」の4つの状態を以下のように定義した.\begin{itemize}\item「表明」:何も実現できていない状態.やるべきという意思を表明しただけの状態.\item「着手」:実現のために行動を開始した状態.現在進行中であり,目標は達成されていない.\item「完了」:すでに目標を達成した状態.現在は行動していない.\item「拡大」:すでに目標を達成しており,{\kern-0.5zw}さらなる成果を求めて行動したい{\kern-0.5zw}(している){\kern-0.5zw}状態.\end{itemize}(2)の施策・事業を注釈した文には必ず付与することとした.(11)番目は,総合的に見て,文中の意見がどの程度説得性がありそうか(目標を実現できそうか)に関する注釈であり,文単位で付与する.説得性の判断は前後の文脈を考慮した作業者の主観に基づいて行われ,(2)の施策・事業に関する注釈付けを行った文には必ず付与することとした.前述の理由の対応付けや意見性の有無と合わせて,発言中のどの要素が意見の積極性を表すかについての考察が可能となる.文に関する注釈付けは以下のように行われる.\begin{quote}\texttt{<}SentenceId=\verb/"/S346\verb/"/Member=\verb/"/(小川直人議員)\verb/"/IsQuestion=\verb/"/False\verb/"/IsOpinion=\verb/"/True\verb/"/IsPrincipal=\verb/"/True\verb/"/Actualization=\verb/"/不明\verb/"/CorrespondingConclusive=\verb/"/P:352\_11\_9:ANA5路線の存続\verb/"/IsPersuasive=\verb/"/True\verb/"/IsCoreSentence=\verb/"/False\verb/"/\texttt{>}丘珠5路線は、道内主要都市を結び、ビジネスマンや観光客、さらには札幌市内医療機関への通院など、多くの人がさまざまな目的を持ち札幌と各地を往来しており、移転することで年間37万人の利用者の利便性や経済活動を著しく損なうことになるのは明らかであります。\texttt{<}/Sentence\texttt{>}\\\texttt{<}SentenceId=\verb/"/S352\verb/"/Member=\verb/"/(小川直人議員)\verb/"/IsQuestion=\verb/"/True\verb/"/IsOpinion=\verb/"/True\verb/"/IsPrincipal=\verb/"/True\verb/"/Actualization=\verb/"/表明\verb/"/CorrespondingConclusive=\verb/"/None\verb/"/IsPersuasive=\linebreak\verb/"/True\verb/"/IsCoreSentence=\verb/"/True\verb/"/\texttt{>}そこで、質問ですが、\texttt{<}PolicyPolarity=\verb/"/賛成\verb/"/\texttt{>}ANA5路線の存続\texttt{<}/Policy\texttt{>}に向けては、道、経済界、関係自治体が一体となった活動が求められ、さらには、道民、市民に大きく運動を広げていくことも視野に入れた取り組みが必要と考えますが、今後、市長はどのように対応しようとされているのか、お伺いいたします。\texttt{<}/Sentence\texttt{>}\end{quote}表\ref{tb:tag}中の各注釈は(5)から順に,「IsQuestion」,「IsOpinion」,「IsPrincipal」,「IsCoreSentence」,「CorrespondingConclusive」,「Actualization」,「IsPersuasive」と表され,この例では,2文目に現れている「ANA5路線の存続」という施策に対し,1文目がその理由として結びついている.注釈者の注釈付けの際の誤りを軽減するために,図\ref{fg:tool}に示す,専用のタグ付けツールを開発し,ツールを通して上記の注釈付けを行った.注釈情報は,図\ref{fg:xml}に示すようなXML形式で付与される.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA2f7.eps}\end{center}\caption{タグ付けツール}\label{fg:tool}\end{figure}\begin{figure}[p]\begin{center}\includegraphics{21-2iaCA2f8.eps}\end{center}\caption{XMLデータの例}\label{fg:xml}\end{figure}\subsection{注釈結果の統計および分析}\begin{table}[p]\caption{総発話数とシーンごとの内訳}\label{tb:utterance}\input{ca02table05.txt}\end{table}\begin{table}[p]\caption{段落とカテゴリーごとの内訳}\label{tb:paragraph}\input{ca02table06.txt}\end{table}\begin{table}[p]\caption{文単位の注釈結果}\label{tb:sentence}\input{ca02table07.txt}\end{table}\begin{table}[p]\caption{施策・事業の注釈結果}\label{tb:policy}\input{ca02table08.txt}\end{table}\begin{table}[p]\caption{実現度と説得性の内訳}\label{tb:jitset}\input{ca02table09.txt}\end{table}\ref{ssec:huyo}節で述べた4都市の当該会議録に対する注釈付けを行った結果の傾向を分析するために,各統計量を調査した.その結果を表\ref{tb:utterance}から表\ref{tb:reaper}に示す.以下の(1)などの数字は,\ref{ssec:info}節の\mbox{表\ref{tb:tag}}中の注釈の種類番号である.表\ref{tb:utterance}に,会議録中の発話の数と(1)で付与されたシーンの内訳を示す.表\ref{tb:paragraph}には,会議録中の段落の数,(3)のカテゴリーが付与された段落の数およびその内訳を示す.各段落には複数のカテゴリーの付与を許可していることと,ならびに「その他」のシーンの段落にはカテゴリーが付与されていないことに注意されたい.表\ref{tb:sentence}に,会議録中の文の数,(1)で付与されたシーンの文の数とその内訳,(3)で付与されたカテゴリーの文の数とその内訳,(5)の疑問文の数,(6)の意見性のある文の数,(7)の本人の意見である文の数,(8)の中核となる文の数,(9)の理由となる文の数,(10)の実現度を有する文の数とその内訳,(11)の説得性がある文の数を示す.表\ref{tb:policy}には,(2)の抽出された施策や事業及び極性の内訳を示す.各表中の括弧内の値は割合を示している.表\ref{tb:jitset}に,各実現度と説得性の関係を示しており,括弧内の数はそれぞれ表明の文の中で説得性のあるものの割合と,着手・完了・拡大の文の中で説得性のあるものの割合を示している.表\ref{tb:reaper}に,意見文および施策や事業に対して理由が結びつくかどうか,それらが説得性を持つかどうかを示している.なお,表中の数値は4都市の注釈結果を合計したものである.\begin{table}[t]\caption{理由と説得性の関係}\label{tb:reaper}\input{ca02table10.txt}\end{table}まず,4都市間で注釈結果を比較すると,表\ref{tb:utterance}から表\ref{tb:policy}に関しては注釈の数の分布に大きな差は見られない.次に,表\ref{tb:utterance}から順に統計量からわかったことについて述べる.表\ref{tb:utterance}の総発話数とシーンごとの内訳を見ると,いずれの市においても「その他」のシーンが一番多く,「回答」,「質問」のシーンが残りの大部分を占めている.「その他」のシーンは,図\ref{fig:eg_bamen}の(5)に示したとおり,議長の挨拶や議決,予算などの各種報告に対して注釈されるものであり,施策や事業に対し意見を述べる発言はほぼ存在しない.そのため,施策や事業に対する賛否を判定する際には不要であり,シーンに関する注釈付けをおこなうことにより,これらを省いたデータを作成することが可能になると考えられる.また,「回答」のシーンの注釈数を4都市間で比較すると,北九州市のみ他の都市より多くなっていた.4都市とも質問者の多数の質問に対し,市長及び関係部署の議員が答える形式をとっているが,北九州市は部署の区切りが「建設都市局長」「建設局長」というように役職が細かく設定されているため,回答者が増える傾向にあるからではないかと思われる.このように,各シーンの分布の違いから各都市の議会の傾向について分析することも可能であることがわかった.表\ref{tb:paragraph}の段落とカテゴリーごとの内訳を見ると,いずれの都市においても「その他」が一番多く,「医療」が次に続き「教育」,「公共」が残りの多くを占めている.今回注釈付けを行ったのは2010年の会議録であり,その前年の2009年に新型インフルエンザが世界的に流行していたため,それに対しての対策等について述べる議員が多く,「医療」のカテゴリーであると注釈された段落の数が他の物に比べて多くなったものと考えられる.この結果から,議会の話題は時事的な問題に影響を受け得るということがわかった.表\ref{tb:sentence}の文単位の注釈結果を見ると,カテゴリーの分布は特に変わらないが,シーンの分布は大きく変化し,「質問」のシーンと注釈された発話に含まれる文が一番多くなっている.これは4都市の議会の質問応答形式が一括質疑・一括答弁であり,発話者が交代する場面が少ないことによる.このように,発話単位でのシーンと各シーンの発話に含まれる文の数を比較することで,議会の質問形式の傾向を知ることができる.表\ref{tb:policy}の施策や事業の極性の内訳をみると,賛成の割合が横浜市,札幌市においては約9割,北九州市,京都市においては約8割をそれぞれ占めていた.これにより,会議録中の発言では賛成意見が常時の表現となっているという\ref{ssec:info}節における1点目の観察について裏付けることができた.また,賛否の判定を二値分類で行う際には否定の判定精度が重要になると考えられる.表\ref{tb:jitset}の実現度と説得性の関係を見ると,実現度に関する注釈付けのある文に関して説得性があると判断された文の割合が約4割から5割となっており,実現度に関する注釈付けのない文に関して説得性があると判断された文の割合を大きく上回っている.これにより,度合いにかかわらず実現度を含む文,すなわち施策や事業を実現したいという発言や,既に実施しているという発言は積極性に寄与すると考えることができそうである.最後に,意見文および施策や事業に対して,それらに理由が結びついているか,説得性を持つかに関しての統計を示した表\ref{tb:reaper}を見ると,理由が結びついている文や施策は説得性があると判断されることが多い傾向にあり,理由を持つ文は積極性の手がかりになるという\ref{ssec:info}節における2点目の観察を裏付けることができた.\subsection{付与したタグの課題}\label{ssec:mondai}本小節では地方議会会議録コーパスに我々が提案したタグを付与した際に明らかになった課題を,「タグの仕様」と「注釈付けにおける主観的判断」の2つの観点から説明する.\subsubsection{タグの仕様策定に関わる課題}「理由の対応付け」のタグは施策や事業に関する賛否の理由となる文に対して付与され,その理由と施策や事業とを結びつけるものであるが,その付与単位を「文」としている.また,会議録では「○○してまいります」や「○○と考えます」等のような文末表現が常態となっており,「××を行うことは大きな利益を生むため,推進していこうと考えております」といった,理由を含む複文においても文末表現として現れることが多い.そのため,理由を表す表現について分析を行いたい時には,単に理由を含むと注釈づけられた文全体に注目するだけでは正しくないという問題がある.理由に纏わる分析を簡単に行えるようにするためには,「理由の対応付け」のタグの注釈単位を文字列とし,先述の例の「××を行うことは大きな利益を生むため」にのような従属節等に注釈付けを行えるような仕様とすれば,この問題は解決できると考えられる.\subsubsection{注釈付けにおける主観的判断}\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA2f9.eps}\end{center}\caption{施策や事業の認定に関する判断に生じた揺れの例}\label{fig:yure}\end{figure}テキストに対する注釈付けにおいて,一般的に,注釈者間の判断が必ずしも一致しないことが問題となる.本稿における注釈付けにおいては,特に「施策・事業」の認定に関する判断に揺れが見られた.「施策・事業」のタグは文字列に対し付与されるものであるが,議員の発言中に必ずしも施策や事業がひとつの連続した文字列や名詞句の形で出現するわけではなく,図\ref{fig:yure}のように,注釈者によりどの範囲を施策や事業として捉えるのかが異なってしまうことがあった.いずれの例もどの範囲を施策や事業として注釈付けるかで揺れが生じているのだが,下の例に関してはある注釈者は2つの施策があると注釈し,別の注釈者は纏めて1つの施策として注釈付けている.これにより施策や事業とそれに関する賛否の分析を行う際にばらつきが生じてしまう.解決策としては施策や事業のみ範囲をあらかじめ決めておくという仕様にすることが考えられる.\subsubsection{提案した注釈付け手法に追加して必要であると考えられる情報}本稿では議員の施策や事業に関する賛否と積極性に関する注釈付け手法を提案したが,積極性は必ずしもその有無といった二値の値で判断される情報ではなく,例えば「やや積極的」「かなり積極的」というように,積極的な場合と消極的な場合のいずれにおいても複数の段階が存在することがある.このような場合において,より詳細に注釈付けを行うためには,積極性に関する度合いを表現する手段が追加される必要がある.
\section{おわりに}
本稿では,地方政治に関する研究の活性化・学際的応用を目指して,全都道府県の県庁所在地および政令指定都市の計51市町村について会議録の収集とコーパスの構築を行った.51市町村の会議録はWeb上で主に4社の会議録検索システムにより提供されており,ページに張られたリンクをたどっていく方法とCGIのパラメータを変えていく方法などにより,会議録を自動的に収集することを行った.地方議会会議録コーパスには17項目の情報を付与しており,また,発言単位に分割してデータベース化を行っている.また,我々が目的とする会議録における発言を基に利用者と政治的に近い考えをもつ議員を判断して提示するシステムの開発に向け,地方議会会議録コーパスの分析・評価用のデータ作成のために,会議録中の議員の,施策や事業に対する賛否とその積極性に関する注釈付けを行う手法について提案をした.注釈結果の統計および課題について論じた.今後,本稿での分析により得られた知見を基に,各発言に対して,賛否とその積極性を自動判定する手法を開発したいと考えている.\acknowledgment本研究の一部は,JSPS科研費22300086の助成を受けたものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{葦原\JBA木村\JBA荒木}{葦原\Jetal}{2012}]{ashr}葦原史敏\JBA木村泰知\JBA荒木健治\BBOP2012\BBCP.\newblock地方議会会議録における要求・要望表現抽出の提案.\\newblock\Jem{言語処理学会第18回年次大会論文集},\mbox{\BPGS\1--27}.\bibitem[\protect\BCAY{de~Goede,vanWees,Marx,\BBA\Reinanda}{de~Goedeet~al.}{2013}]{bart}de~Goede,B.,vanWees,J.,Marx,M.,\BBA\Reinanda,R.\BBOP2013\BBCP.\newblock\BBOQPoliticalMashupNgramviewerTrackingWhoSaidWhatandWheninParliament.\BBCQ\\newblock{\BemResearchandAdvancedTechnologyforDigitalLibraries},\mbox{\BPGS\446--449}.\bibitem[\protect\BCAY{橋本\JBA黒橋\JBA河原\JBA新里\JBA永田}{橋本\Jetal}{2011}]{hsmt}橋本力\JBA黒橋禎夫\JBA河原大輔\JBA新里圭司\JBA永田昌明\BBOP2011\BBCP.\newblock構文・照応・評価情報つきブログコーパスの構築.\\newblock\Jem{自然言語処理},{\Bbf18}(2),\mbox{\BPGS\175--201}.\bibitem[\protect\BCAY{平田\JBA中村\JBA小松\JBA秋田}{平田\Jetal}{2012}]{hrt}平田佐智子\JBA中村聡史\JBA小松孝徳\JBA秋田喜美\BBOP2012\BBCP.\newblock国会会議録コーパスを用いたオノマトペ使用の地域比較.\\newblock\Jem{第27回人工知能学会全国大会論文集,3N4-OS-01c-2},{\Bbf31}(10).\bibitem[\protect\BCAY{飯田\JBA小町\JBA乾\JBA松本}{飯田\Jetal}{2008}]{iid}飯田龍\JBA小町守\JBA乾健太郎\JBA松本裕治\BBOP2008\BBCP.\newblock述語項構造と照応関係のアノテーション:NAISTテキストコーパス構築の経験から.\\newblock\Jem{自然言語処理},{\Bbf17}(2),\mbox{\BPGS\25--50}.\bibitem[\protect\BCAY{井上}{井上}{2013}]{inue}井上史雄\BBOP2013\BBCP.\newblock[ことばの散歩道]171去った○日.\\newblock\Jem{日本語学},{\Bbf31-10}.\bibitem[\protect\BCAY{川端\JBA山本}{川端\JBA山本}{2007}]{kwbt}川端正法\JBA山本和英\BBOP2007\BBCP.\newblock話題の継続に着目した国会会議録要約.\\newblock\Jem{言語処理学会第13回年度大会},\mbox{\BPGS\696--699}.\bibitem[\protect\BCAY{川浦}{川浦}{2009}]{kwur}川浦昭彦\BBOP2009\BBCP.\newblock\BBOQSelf-ServingMayorsandLocalGovernmentConsolidationsinHokkaido.\BBCQ\\newblock\Jem{日本経済学会春季大会研究報告}.\bibitem[\protect\BCAY{Kawaura}{Kawaura}{2010}]{kwur2}Kawaura,A.\BBOP2010\BBCP.\newblock\BBOQSelf-ServingMayorsandLocalGovernmentConsolidationsinJapan.\BBCQ\\newblockIn{\BemUniversityofHawaiiDepartmentofEconomicsWorkingPaper}.\bibitem[\protect\BCAY{木村\JBA渋木\JBA高丸}{木村\Jetal}{2009}]{kim1}木村泰知\JBA渋木英潔\JBA高丸圭一\BBOP2009\BBCP.\newblock地方議員と住民間の共同支援に向けたウェブの利用.\\newblock\Jem{選挙研究},{\Bbf25}(1),\mbox{\BPGS\110--118}.\bibitem[\protect\BCAY{木村\JBA渋木\JBA高丸\JBA小林\JBA森}{木村\Jetal}{2010}]{kim2}木村泰知\JBA渋木英潔\JBA高丸圭一\JBA小林哲郎\JBA森辰則\BBOP2010\BBCP.\newblock北海道を対象とした地方議員と住民間の共同支援システムのユーザインターフェース評価.\\newblock\Jem{第24回人工知能学会全国大会論文集,2J2-NFC2-3}.\bibitem[\protect\BCAY{木村\JBA渋木\JBA高丸\JBA乙武\JBA小林\JBA森}{木村\Jetal}{2011}]{kim3}木村泰知\JBA渋木英潔\JBA高丸圭一\JBA乙武北斗\JBA小林哲郎\JBA森辰則\BBOP2011\BBCP.\newblock地方議員マッチングシステムにおける能動的質問のための質問生成手法.\\newblock\Jem{第24回人工知能学会全国大会論文集},{\Bbf26}(5),\mbox{\BPGS\580--593}.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本}{小林\Jetal}{2006}]{kbys}小林のぞみ\JBA乾健太郎\JBA松本裕治\BBOP2006\BBCP.\newblock意見情報の抽出/構造化のタスク使用に関する考察.\\newblock\Jem{自然言語処理研究会報告2006-NL-171}.\bibitem[\protect\BCAY{松吉\JBA江口\JBA佐尾\JBA村上\JBA乾\JBA松本}{松吉\Jetal}{2010}]{mtys}松吉俊\JBA江口萌\JBA佐尾ちとせ\JBA村上浩司\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblockテキスト情報分析のための判断情報アノテーション.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ93-D}(6),\mbox{\BPGS\705--713}.\bibitem[\protect\BCAY{宮崎\JBA森}{宮崎\JBA森}{2010}]{myzk}宮崎林太郎\JBA森辰則\BBOP2010\BBCP.\newblock注釈事例参照を用いた複数注釈者による評判情報コーパスの作成.\\newblock\Jem{自然言語処理},{\Bbf17}(5),\mbox{\BPGS\3--50}.\bibitem[\protect\BCAY{森脇}{森脇}{2008}]{mrwk}森脇俊雅\BBOP2008\BBCP.\newblock合併と地方議会活動:議員アンケートの分析を中心にして.\\newblock\Jem{選挙研究},{\Bbf23},\mbox{\BPGS\82--90}.\bibitem[\protect\BCAY{大城\JBA渡邊\JBA渋木\JBA木村\JBA森}{大城\Jetal}{2012}]{osr}大城卓\JBA渡邊裕斗\JBA渋木英潔\JBA木村泰知\JBA森辰則\BBOP2012\BBCP.\newblock地方政治情報システムのための地方議会会議録への注釈付けタグセットの提案.\\newblock\Jem{言語処理学会第18回年次大会発表論文集},\mbox{\BPGS\3--9}.\bibitem[\protect\BCAY{乙武\JBA高丸\JBA渋木\JBA木村\JBA荒木}{乙武\Jetal}{2009}]{ottk}乙武北斗\JBA高丸圭一\JBA渋木英潔\JBA木村泰知\JBA荒木健治\BBOP2009\BBCP.\newblock地方議会会議録の自動収集に向けた公開パタンの分析.\\newblock\Jem{言語処理学会第15回年次大会},\mbox{\BPGS\192--195}.\bibitem[\protect\BCAY{Ptaszynski,Rzepka,Araki,\BBA\Momouchi}{Ptaszynskiet~al.}{2012}]{ptas}Ptaszynski,M.,Rzepka,R.,Araki,K.,\BBA\Momouchi,Y.\BBOP2012\BBCP.\newblock\BBOQAutomaticallyAnnotatingAFive-Billion-WordCorpusofJapaneseBlogsforAffectandSentimentAnalysis.\BBCQ\\newblockIn{\BemProseedingsofthe3rdWorkshoponComputationalApproachestoSubjectivityandSentimentAnalysis},\mbox{\BPGS\123--130}.\bibitem[\protect\BCAY{関口\JBA山本}{関口\JBA山本}{2003}]{skgc}関口洋一\JBA山本和英\BBOP2003\BBCP.\newblockWebコーパスの提案.\\newblock\Jem{情報処理学会研究報告.情報学基礎研究会報告},{\Bbf2003}(98),\mbox{\BPGS\123--130}.\bibitem[\protect\BCAY{高丸\JBA木村}{高丸\JBA木村}{2010}]{tkmr}高丸圭一\JBA木村泰知\BBOP2010\BBCP.\newblock栃木県の地方議会会議録における整文についての基礎分析—本会議のウェブ配信と会議録の比較—.\\newblock\Jem{都市経済研究年報},\mbox{\BPGS\74--86}.\bibitem[\protect\BCAY{高丸}{高丸}{2011}]{tkmr1}高丸圭一\BBOP2011\BBCP.\newblock規模の異なる自治体における地方議会会議録の整文の比較.\\newblock\Jem{社会言語科学会第27回研究大会},\mbox{\BPGS\256--259}.\bibitem[\protect\BCAY{高丸}{高丸}{2013}]{tkmr2}高丸圭一\BBOP2013\BBCP.\newblock形態素N-gramを用いた地方議会会議録における地域差の分析手法の検討—ひらがなで構成された文末の4-gramに着目して—.\\newblock\Jem{明海日本語},\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{上神}{上神}{2006}]{uekm}上神貴佳\BBOP2006\BBCP.\newblock投票支援ツールと『政策中心の選挙』の実現—オランダの実践と日本における展望—.\\newblock\Jem{選挙学会紀要},{\Bbf6},\mbox{\BPGS\43--64}.\bibitem[\protect\BCAY{上神\JBA堤}{上神\JBA堤}{2008}]{uekm2}上神貴佳\JBA堤英敬\BBOP2008\BBCP.\newblock投票支援のためのインターネット・ツール—日本版ボートマッチの作成プロセスについて—.\\newblock\Jem{選挙学会紀要},{\Bbf10},\mbox{\BPGS\39--80}.\bibitem[\protect\BCAY{上神\JBA佐藤}{上神\JBA佐藤}{2009}]{kgm}上神貴佳\JBA佐藤哲也\BBOP2009\BBCP.\newblock政党や政治家の政策的な立場を推定する—コンピュータによる自動コーディングの試み—.\\newblock\Jem{選挙研究},{\Bbf25}(1),\mbox{\BPGS\61--73}.\bibitem[\protect\BCAY{Weibe,Wilson,\BBA\Cardie}{Weibeet~al.}{2005}]{wb}Weibe,J.,Wilson,T.,\BBA\Cardie,C.\BBOP2005\BBCP.\newblock\BBOQAnnotatingExpressionsofOpinionsandEmotionsinLanguage.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf39}(2--3),\mbox{\BPGS\165--210}.\bibitem[\protect\BCAY{山本\JBA安達}{山本\JBA安達}{2005}]{ymmt}山本和英\JBA安達康昭\BBOP2005\BBCP.\newblock国会会議録を対象とする話し言葉要約.\\newblock\Jem{自然言語処理},{\Bbf12}(1),\mbox{\BPGS\51--78}.\bibitem[\protect\BCAY{Yu,Kaufmann,\BBA\Diermeier}{Yuet~al.}{2008}]{bei}Yu,B.,Kaufmann,S.,\BBA\Diermeier,D.\BBOP2008\BBCP.\newblock\BBOQClassifyingPartyAffiliationfromPoliticalSpeech.\BBCQ\\newblock{\BemJournalofInformationTechnology\&Politics},{\Bbf5}(1),\mbox{\BPGS\33--48}.\bibitem[\protect\BCAY{平野}{平野}{2008}]{hrn}平野淳一\BBOP2008\BBCP.\newblock「平成の大合併」と市長選挙.\\newblock\Jem{選挙研究},{\Bbf24}(1),\mbox{\BPGS\32--39}.\end{thebibliography}\appendix\vspace*{-1\Cvs}
\section{各会議録検索システムのクロールプログラムの仕様}
表\ref{syst}に示した4つの会社が提供する会議録検索システムのそれぞれに収録された会議録を収集するためのクロールプログラムの仕様は以下のとおりである.\\\begin{itemize}\item大和速記情報センター・会議録研究所:大和速記情報センターおよび会議録研究所の会議録検索システムを導入している市町村のWebページでは,トップページもしくはトップページから直接リンクが張られているページに,各年度の会議録へのリンク一覧が存在するものがほとんどである.リンク一覧が存在しない場合,検索用の入力フォームに未記入で検索を実行することで全会議録の検索結果がリンク情報として表示される.これらのリンクをクロールプログラムが辿ることで会議録のページを自動的に取得する.\itemフューチャーイン:フューチャーインの会議録検索システムを導入している市町村のWebページでは,会議録検索システムの出力がCGIプログラムにより自動生成されていて,そのCGIプログラムに渡すパラメタにより出力内容を制御できる.例えば,会議録の検索は,以下のようなパラメタを渡すことで行われている.\\[0.5\Cvs]ACT=100\&KENSAKU=0\&SORT=0\&KTYP=0,1,2,3,4\&KGTP=0,1,2,3,4\&PAGE=1\\[0.5\Cvs]CGIプログラムに渡すパラメタPAGEの値を順次変えることですべての検索結果を得ることができる.パラメタACT,KTYPの値はそれぞれ,ページの表示方法,会議種別に対応する.また,会議録は発言ごとに分割されており,同じCGIプログラムにおいて,次のようなパラメタを渡すことで各発言を取得できる.\\[0.5\Cvs]ACT=203\&KENSAKU=0\&SORT=0\&KTYP=2,3\&KGTP=1,2\&TITL\_SUBT=\%95\%BD\\\%90\%AC\%82Q\%82Q\%94N\%81@\%82Q\%8C\%8E\%92\%E8\%97\%E1\%89\%EF\%81\%7C03\%8\\C\%8E03\%93\%FA-04\%8D\%86\&HUID=46845\&FINO=655\&HATUGENMODE=0\&HYOU\\JIMODE=0\&STYLE=0\\[0.5\Cvs]パラメタTITL\_SUBT,HUIDの値はそれぞれ,URIエンコードされた表題,発言IDに対応する.パラメタACTは,この例の「203」では「発言」,ひとつ前の例の「100」では「検索結果」を指している.パラメタTITL\_SUBTの値は,この例では「平成22年2月定例会03月03日--04号」を指している.クロールプログラムは,これらパラメタの値を順次変えることでCGIプログラムを経由して会議録を自動的に取得する.\item神戸綜合速記:神戸綜合速記の会議録検索システムを導入している市町村のWebページでは,会議録検索システムの検索結果の出力がCGIプログラムにより自動生成されており,そのCGIプログラムに渡すパラメタにより出力内容を制御できる.例えば,会議録の検索は,CGIプログラムに以下のようなパラメタを渡すことで行われている.\\[0.5\Cvs]treedepth=\%95\%BD\%90\%AC22\%94N\%20\%95\%BD\%90\%AC22\%94N\%203\%8C\%8E\%92\\\%E8\%97\%E1\%89\%EF\%20\\[0.5\Cvs]パラメタtreedepthの値はURIエンコードされた和暦と表題に対応する.この例では「平成22年3月定例会」を指している.クロールプログラムは,このパラメタの値を変え,CGIプログラムが生成したページに張られたリンクをたどることで会議録のページを自動的に取得する.\end{itemize}\begin{biography}\bioauthor{筒井貴士}{2013年横浜国立大学工学部電子情報工学科卒業.現在,同大学大学院環境情報学府情報メディア環境学専攻博士課程前期在学中.自然言語処理に関する研究に従事.}\bioauthor{我満拓弥}{2013年横浜国立大学工学部電子情報工学科卒業.現在,東京大学大学院工学系研究科電気系工学専攻博士課程前期在学中.数理生命情報学に関する研究に従事.}\bioauthor{大城卓}{2010年横浜国立大学工学部電子情報工学科卒業.2012年同大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了.修士(情報学).在学中は自然言語処理に関する研究に従事.}\bioauthor{菅原晃平}{2010年横浜国立大学工学部電子情報工学科卒業.2012年同大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了.修士(情報学).在学中は自然言語処理に関する研究に従事.}\bioauthor{永井隆広}{2010年横浜国立大学工学部電子情報工学科卒業.2012年同大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了.修士(情報学).在学中は自然言語処理に関する研究に従事.}\bioauthor{渋木英潔}{1997年小樽商科大学商学部商学部商業教員養成課程卒業.1999年同大学大学院商学研究科修士課程修了.2002年北海道大学大学院工学研究科博士後期課程修了.博士(工学).2006年北海学園大学大学院経営学研究科博士後期課程修了.博士(経営学).現在,横浜国立大学環境情報研究院科学研究費研究員.自然言語に関する研究に従事.言語処理学会,情報処理学会,電子情報通信学会,日本認知科学学会各会員.}\bioauthor{木村泰知}{2004年北海道大学大学院工学研究科電子情報工学専攻博士後期課程修了.博士(工学).2005年,小樽商科大学商学部助教授着任.2007年,同准教授,現在に至る.この間,2010年10月より2011年9月までNewYork大学客員研究員.自然言語処理,情報抽出などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{森辰則}{1991年横浜国立大学大学院工学研究科博士課程後期修了.工学博士.同年,同大学工学部助手着任.同講師,同助教授を経て,現在,同大学大学院環境情報研究院教授.この間,1998年2月より11月までStanford大学CSLI客員研究員.自然言語処理,情報抽出,情報検索などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,ACM各会員.}\end{biography}\biodate\end{document}
| |
V14N03-04 | \section{はじめに}
\label{sec:hajimeni}\subsection{背景}テキストデータからヒトの心理状態を抽出・分析する研究例は近年盛んに行われるようになっている.これは,ヒトの行動について,観測可能な形として外部に現れた行動結果だけでなく,評価・好き嫌い・満足・要求といった心理的な面を扱うニーズが高まっていることを反映している.筆者らは,交通行動,特に,経路選択行動の心理状態をことばによってモデル化することを試みている.交通行動分析の代表的な問題の捉え方の1つは,ある場所から別の場所に移動する際に経路や交通手段としていくつかの選択肢が挙がっており,その中から1つを選ぶというものであるが,交通行動分析においても同様に心理面のニーズが高まっている.従来の交通行動分析の主要な課題の1つは経済の急速な発展とともに増大する交通需要を量的に満たすという点であった.これを踏まえ,多くの場合,関心は選択の結果である行動に向けられており,行動結果が観測可能な形として現れた情報から分析を加えるというアプローチが多い.この場合,個人の行動の因果的背景は簡素化される\cite{Fujii2002}ことが多く,ヒトの心理的な側面に目が向けられることは少なかった.心理的な要素を扱うことがあっても,内部的な変数として表現されることが多かった.しかし,欧米諸国と同様に我が国も成熟社会を迎え,量的な需要を満たすだけでなく,心理的な側面や質的な側面に目を向ける必要性が高まっている.ヒトが多くの選択肢の中から1つを選択して行動に移る時には,何らかの心理的な思考過程を経ていると思われる.心理的な側面に着目することによって,なぜ選択したのかという因果関係や,ある選択肢を選択した場合でも何らかの不満を感じているかもしれないといったような,従来の方法では捉えることが難しかった未知の要素を発見するのに役立つと考えられる.選択理由に着目することの重要性は\citeA{Shafir1993}によって指摘されている.彼らは実験の結果,理由付けがなされることによって選択行動が行われる点もあることを見いだし,さらに,従来の数値的な行動モデルでは説明できない場合もあることを報告している.したがって,交通行動分析においても,選択肢の選択理由を直接捉えることが重要であると考えられる.\subsection{選択肢の選択プロセスの捉え方}いくつかの選択肢の中から1つを選ぶという行動は我々の生活の中でしばしば行われる.\pagebreakたとえば,ある商品を購入する場合には,いくつかの候補を挙げ,それぞれの特徴,評判,意見等を比較して最終的に1つを選ぶというプロセスを経ることが多い.このような,選択行動とそれに伴う心の状態を研究対象とする例はいくつか行われている.たとえば,\citeA{Tateishi2001}はある商品を購入する時の評判情報を分析しているが,評判情報を「ユーザの行動・意思決定に役立つ形式で意見をまとめたもの」と捉えている.したがって,選択行動をするに際しての,各選択肢の特徴となる情報をWeb等のテキストデータから抽出・分析することが評判情報や意見抽出等の研究例であると位置づけることができる.\begin{figure}[b]\begin{center}\begin{picture}(370,50)(0,10)\put(10,40){\framebox(70,20){交通空間}}\put(150,40){\framebox(70,20){認知結果}}\put(290,40){\framebox(70,20){選択・行動}}\put(80,50){\vector(1,0){70}}\put(220,50){\vector(1,0){70}}\put(80,25){\makebox(70,15){空間認知}}\put(80,10){\makebox(70,15){「認知する」}}\put(220,25){\makebox(70,15){意思決定}}\put(220,10){\makebox(70,15){「決める」}}\end{picture}\end{center}\caption{選択のプロセス}\label{fig:process}\end{figure}本稿で扱う交通行動分析における選択行動も同様の枠組みで捉えることができる\shortcite{Takao2004_HKSTS}.すなわち,\begin{enumerate}\item起点から終点に至る経路や交通手段が選択肢としていくつか存在するとき,\itemその中から1つを選択することである\end{enumerate}と考えられる.これに対応して,選択行動の心理的プロセスは2段階で捉えることができる(図\ref{fig:process}).第1段階は物理的な交通空間内の各選択肢の特徴や印象といった要素を意識・認識・認知するまでの段階で,いわば「認知する」段階である.認知した結果の要素を「認知結果」と呼ぶ.第2段階は,各選択肢の認知結果を評価して候補となる選択肢を取捨選択し,最終的な選択をする意思決定の段階で,いわば「決める」段階である.したがって,前述の評判情報や意見抽出等の研究は,第1段階に焦点を当てた研究であると位置づけることができる.これに対して,本研究では「決める」段階も含めて包括的に選択行動を捉えようとする点に立場の違いがある.第2段階の「決める」段階は意思決定のモデルで捉えることができる.意思決定モデルは補償型と非補償型に大別することができる\cite{Payne1976}.補償型の意思決定モデルは効用関数のようにある種の点数の足し算で選択肢の魅力を表現するモデルであり,非補償型の意思決定モデルは特定の属性によって選択肢を取捨選択するように表現するモデルである\footnote{\citeA{Shafir1993}も同様の分類を行っており,補償型は`formal,value-based',非補償型は`reason-based'に相当する.}.ヒトが選択行動を行う際は,何らかの理由を念頭に置いて選択肢の取捨選択を行うという思考プロセスを経ることが多いと考えられる.補償型モデルは行動結果を大局的に捉えようとする場合に便利であるのに対し,非補償型モデルは選択または非選択の根拠をモデルの中で明確に扱うため,選択理由を明示的に表現することができる.したがって,ヒトの論理的な思考プロセスを明らかにするには非補償型が適していると考えられるので,本研究では非補償型のモデルで分析を試みる.本研究の枠組みで選択行動を捉える場合,第2段階は\citeA{Tversky1972}のElimination-By-Aspects(EBA)の意思決定モデルで表現することができる.「アスペクト」\footnote{「アスペクト」の用語は本稿ではEBAのアスペクトを表す.}とは,ある状況を表す特徴,つまり,「遅い」「確実」のような,選択候補のいくつかの選択肢に共通して表れる認知結果を意味する.言い換えると,意思決定の段階をEBAに則って捉える場合,認知結果がEBAモデルのアスペクトに相当する\footnote{以下の文中ではEBAの処理に着目する場合は「アスペクト」,「認知する」段階の結果やデータ収集に着目する場合は「認知結果」と記す.}.EBAでは,意思決定は,着目しているアスペクトを各選択肢が持っているか否かによって候補を順に排除していくことで行われる.たとえば,「遅い」のが嫌な場合,「遅い」というアスペクトを持つ選択肢が候補から排除される.したがって,選択肢を直接選ぶのではなく,選ぶのはアスペクトであり,その結果選択肢が選択されるという捉え方である.\subsection{目的}\label{subsec:mokuteki}筆者らのこれまでの研究では,ことばとして表れた情報を,それぞれ個別に適切に捉えることができるかどうかに焦点を当ててきた.たとえば,\shortciteA{Takao2005_E,Takao2005_NLP}ではそれぞれの文に記述された認知結果を適切に抽出できるかどうか,\shortciteA{Takao2005_RON}では,「決める」段階における1回の取捨選択方略をそれぞれ個別に適切に捉えることができたかに着目した.この結果を踏まえ,本稿では,選択行動の「決める」段階の意思決定の過程を全体として捉え,「決める」プロセス全体の記述について検証し,情報処理を行う上での問題点を明確化する.すなわち,文や認知結果,取捨選択方略を個別に扱うのではなく,1選択行動を表すデータをひとまとめで扱い,提案手法の総合的な検証を行う.ただし,一般に,ヒトの心理状態は必ずしも完全な形ではことばに表れていないことに注意する必要がある.不完全な形のことばデータからは,これまでの研究で述べた手法をそのまま用いるだけでは正しい選択結果を記述できるとは限らない.したがって,不完全なことばのデータから「決める」プロセスの心理状態を扱うにはどのような課題があるのかを明確化する必要がある.そこで,できるだけ簡単な形で「決める」プロセスを表現したうえで,追加的な課題を発見し,その解決方法を考察することが本稿のもう1つの目的である.さらに,マーケティングへの利用という観点から言えば,選択肢に関する種々の評判や印象を単に抽出するだけでなく,選択や排除のきっかけとなった理由をピンポイントで抽出できれば,選択肢が選択されるための手がかりを効率的に得ることができる.そこで,単純な情報抽出だけではなく,EBAの意思決定モデルに則って問題を捉えることで,きっかけの理由が得られることを示す.本稿の構成は次の通りである.\ref{sec:kanren}章では関連研究を整理して本稿の立場を明確にする.\ref{sec:datacollect}章ではデータ収集方法について述べる.\ref{sec:ebaprocess}章では選択プロセスをEBAに則って表現する方法について述べる.\ref{sec:gyoukan}章では行間を読み取る方法について述べる.\ref{sec:kikkake}章では選択・削除されるきっかけの理由を捉える方法について述べる.最後に,\ref{sec:owarini}章で内容をまとめる.
\section{関連研究}
\label{sec:kanren}評判情報・意見抽出の研究例としては,\citeA{Tateishi2001,Kobayashi2003,Kobayashi2004,Kobayashi2005}の研究がWeb上に大量に存在する言語データから特定の製品の評判情報を抽出している.彼らの方法は,評価表現を肯定的・否定的表現に分類してあらかじめ辞書として用意しておくという固定的な尺度を用いているのに対し,本研究では,アスペクトは状況によって評価が変化しうるという前提に立って取捨選択の様子をEBAに則って捉えるという点が異なっている.また,\citeA{Nasukawa2005}は種となる好不評表現を少数定義し,文章中でその種表現が存在する場所を特定することで好評・不評の認知結果を抽出している.彼らの研究では情報処理機器を対象としており,ユーザーから質問や苦情の形で挙がってきた言語データの中から開発サイドが対処すべき項目を抽出するという目的のため,認知結果が好評・不評に分類できるという前提に基づき,不評の認知結果を抽出するという立場に立っている.このように,評判情報・意見抽出の研究例の多くは評価表現を固定的に捉えているが,それらが選択に際して実際にどの程度寄与しているかについての分析は必ずしも十分とは言えない.一方,本研究の方法は選択のプロセスを捉えることになるため,取捨選択に寄与した認知結果をピンポイントで抽出することができる.また,認知結果は必ずしも1語では表現できず,「待ち時間が長い」のように長い語となる点に注意する必要がある.これについて,\citeA{Kobayashi2005}は認知結果とその評価を〈対象,属性,属性値,評価〉の4つ組で抽出することを試み,例えば〈フィット(ホンダの車種名),走行性能,キビキビ,満足〉という組を抽出し,その上で,属性値と評価の区別は困難であるため,評価と属性値を合わせて評価値としている(図\ref{fig:4_2}).これに対して本研究では,「疲れる」「暑い」のように,「身体が」等の属性を表す語は通常省略されて属性と属性値が1語になる場合や,「到着時間の見込みがたてやすい」のように属性と属性値の区別が曖昧な場合があり,両者を合わせて認知結果とすることが適切である.また,本研究では,評価は選択肢の取捨選択のトリガーとして捉えるので,特定の属性値に特定の評価を与えるという立場には立っていない.\begin{figure}[t]\begin{center}\begin{picture}(300,75)(0,10)\put(10,70){\makebox(60,15)[l]{\shortciteA{Kobayashi2005}}}\put(200,70){\makebox(90,15){評価値(例:キビキビ=満足)}}\put(245,65){\oval(90,10)[t]}\put(100,40){\framebox(40,20){対象}}\put(150,40){\framebox(40,20){属性}}\put(200,40){\framebox(40,20){属性値}}\put(250,40){\framebox(40,20){評価}}\put(195,35){\oval(90,10)[b]}\put(150,10){\makebox(90,15){認知結果(例:疲れる)}}\put(10,10){\makebox(60,15)[l]{本研究}}\end{picture}\end{center}\caption{\protect\shortciteA{Kobayashi2005}の方法と本研究の方法の違い}\label{fig:4_2}\end{figure}印象表現に関する研究例としては,楽曲に関する印象表現の研究\shortcite{Kumamoto2002}や,テレビ番組に関する印象表現の研究\shortcite{Hitachi2000}がある.さらに,\shortciteA{Kumamoto2004}は楽曲検索システムにおける程度語の研究も行っている.それに対し,本研究では表現収集を直接の目的とはしておらず,選択プロセスを捉えることに主眼を置き,それに必要な表現をシソーラスを利用しながら収集する立場をとる.また,自由記述型アンケートの自由回答文から人間の心理状態を分析しようと試みる研究例もある.\citeA{Inui2004}は,道路に関する自由記述型アンケートの自由回答文を,回答の背後にある態度や回答意図の分類に焦点を当てて分析している.本研究の対象は態度や意図ではなく選択理由であるという違いはあるものの,言語データからヒトの心理状態を知ろうとする点が本研究と類似しており,また,表現に着目するという点でヒントを与えてくれている.経路選択にどのような要因が影響を及ぼすかについての研究もいくつかなされている.\citeA{Nakamura2002}は駅周辺の危険・不快要因を研究している.\shortciteA{Fukuda2002}は交通手段選択行動を対象として各種項目の5段階の主観的評価を尋ねている.このように,経路選択行動には種々の要因が影響を及ぼす.しかし,いくつかの要因については個々に研究がなされているが,選択行動に関して包括的に要因を捉える研究は十分なされているとはいえない.そこで,本研究では被験者にことばで記述してもらう方法で選択のきっかけとなる要因を捉えることを試みる.
\section{データ収集方法}
\label{sec:datacollect}評判情報・意見抽出の研究例では,既に存在する言語データから有益な情報を抽出しようとするマイニング的な立場に立っている場合が多い.これに対し,本研究では分析の枠組みを設定し,それに適したデータを収集するという立場に立ち,自由記述型アンケートを実施してデータを収集した.\shortcite{Takao2004_KKKK}被験者に対し,特定の出発点から京都市役所に行く場合について,自転車・地下鉄・バス・タクシーの4つの選択肢を提示し,どうやって行くかについてのアンケート調査を実施した.季節・天候等の異なるいくつかのシナリオを提示し,それぞれの場合について,以下の設問の回答を求めた.\begin{description}\item{(a)}各経路について思うことを自由に記述\item{(b)}どの経路を選択するか\item{(c)}選択する理由を自由に記述\end{description}(a)が「認知する」,(b)(c)が「決める」に対応する.厳密に言えば,これは完全に自由な記述ではなく,項目別の記述である.この理由は,選択プロセスの分析の枠組みに適したデータを収集するためである.(a)(b)(c)をセットで数えた場合の有効回答数は138回答である.文数では(a)が1209文,(c)が258文である.
\section{EBAに則った取捨選択プロセスの記述}
\label{sec:ebaprocess}\subsection{取捨選択方略}「決める」プロセスは,ある根拠に基づいてそれぞれの選択肢を排除するか残存させるかをより分けるといういくつかのステップで構成される.1つの根拠に基づく1回のより分けを1回の「取捨選択」といい,その根拠を「方略」という.EBAの場合,アスペクトを持つかどうかが根拠となる.分析の結果,取捨選択の方略は次の3種類に整理できることがわかった.\shortcite{Takao2005_RON}\begin{itemize}\itemPositiveな方略\itemNegativeな方略\itemIndifferentな方略\end{itemize}Positiveな方略はアスペクトを好むことを表し,対象アスペクトを持っている選択肢を候補に残してそれ以外の選択肢を候補から排除する方略である.Negativeな方略はアスペクトを嫌がることを表し,対象アスペクトを持っている選択肢を候補から排除してそれ以外の選択肢を候補に残す方略である.Indifferentな方略とは,選択肢を選ぶ時にそのアスペクトは相対的に重要ではなく,もっと優先順位の高いアスペクトが他にあることを表す.つまり,このアスペクトによって選択肢は排除されないことを明示する意味で用いられる.Indifferentな方略は主に方略を判別するために用いられ,「決める」プロセスを通しで扱う場合には明示的には用いられない.1回の取捨選択方略で選択肢が残存または排除される様子を整理し,表\ref{tab:6_1}に示す.例として,「速い」についての取捨選択を示す.この場合,選択肢が「速い」というアスペクトを持つ場合,「not速い」というアスペクトを持つ場合,両方とも持たない場合の3通りがある.表の1番目の「速い」についてのPositiveな方略は「速いのが望ましい」を意味する.この結果,「速い」だけが候補に残存し(表の○印),それ以外の2つは候補から排除される(表の×印).また,この場合の取捨選択の様子を図\ref{fig:6_3}に示す.\begin{table}[t]\caption{基本的な取捨選択}\begin{center}\begin{tabular}{|l|l|l||c|c|c|}\hline\multicolumn{3}{|c||}{方略}&\multicolumn{3}{|c|}{選択肢が持つアスペクト}\\\hline種類&対象アスペクト&意味&速い¬速い&記述なし\\\hline\hlinePositive&速い&速いのが望ましい&○&×&×\\\hlineNegative¬速い&速くないのは嫌&○&×&○\\\hlineNegative&速い&速いのは嫌&×&○&○\\\hlinePositive¬速い&速くないのが望ましい&×&○&×\\\hline\multicolumn{6}{r}{○:候補に残存×:排除}\\\end{tabular}\label{tab:6_1}\end{center}\end{table}\begin{figure}[t]\begin{center}\begin{picture}(220,100)(110,5)\put(110,90){\makebox(60,15){選択肢1}}\put(190,90){\makebox(60,15){選択肢2}}\put(270,90){\makebox(60,15){選択肢3}}\put(110,70){\framebox(60,20){速い}}\put(190,70){\framebox(60,20){not速い}}\put(270,70){\framebox(60,20){(記述なし)}}\put(110,35){\framebox(220,20){方略:Positive,速い(速いのが望ましい)}}\put(140,70){\line(0,-1){15}}\put(220,70){\line(0,-1){15}}\put(300,70){\line(0,-1){15}}\put(140,35){\vector(0,-1){15}}\put(220,35){\vector(0,-1){15}}\put(300,35){\vector(0,-1){15}}\put(110,5){\makebox(60,15){残存}}\put(190,5){\makebox(60,15){排除}}\put(270,5){\makebox(60,15){排除}}\end{picture}\end{center}\caption{1回のPositiveな方略での取捨選択}\label{fig:6_3}\end{figure}表の2番目「not速い」についてのNegativeな方略は「速くないのは嫌」を意味する.この場合,「not速い」だけが排除され,「速い」と「記述なし」が候補に残存する.この場合の取捨選択の様子を図\ref{fig:6_4}に示す.\begin{figure}[t]\begin{center}\begin{picture}(220,100)(110,5)\put(110,90){\makebox(60,15){選択肢1}}\put(190,90){\makebox(60,15){選択肢2}}\put(270,90){\makebox(60,15){選択肢3}}\put(110,70){\framebox(60,20){速い}}\put(190,70){\framebox(60,20){not速い}}\put(270,70){\framebox(60,20){(記述なし)}}\put(110,35){\framebox(220,20){方略:Negative,not速い(速くないのは嫌)}}\put(140,70){\line(0,-1){15}}\put(220,70){\line(0,-1){15}}\put(300,70){\line(0,-1){15}}\put(140,35){\vector(0,-1){15}}\put(220,35){\vector(0,-1){15}}\put(300,35){\vector(0,-1){15}}\put(110,5){\makebox(60,15){残存}}\put(190,5){\makebox(60,15){排除}}\put(270,5){\makebox(60,15){残存}}\end{picture}\end{center}\caption{1回のNegativeな方略での取捨選択}\label{fig:6_4}\vspace{-1\baselineskip}\end{figure}これを見てわかるように,「速くない」の「ない」を表す否定「not」を適切に考慮して取捨選択を表現する必要がある.また,1番目と2番目は似た方略であるが,「記述なし」の選択肢,すなわち,「速い」とも「速くない」とも意識に挙がっていないような選択肢が残存するか排除されるかが異なる\footnote{\citeA{Shafir1993}では,choose(長所に着目して選択する場合)とreject(短所に着目して排除する場合)とで違いがあり,際立った長所も短所もない選択肢はchooseもrejectもされにくいことが報告されている.本稿の方法はこの様子を表現することができる.}.しかし,反義語がある場合を考えると,文字通りの処理だけでは問題があることがわかる.たとえば,「not速い」についてのNegativeな方略は「not速い」を持つ選択肢のみを排除し,それ以外の選択肢を候補に残す.意味を考えると,この方略は「速くないのは嫌」なので,当然「遅い」場合も嫌と言うことを意味する.しかし,文字通りの処理だと,「遅い」を持つ選択肢は「not速い」とは表記が異なるため,排除には該当せず,残存することになってしまう.したがって,取捨選択を適切に表現するためには,方略の対象アスペクトの反義語を適切に認識する必要があることがわかる.\subsection{同義語・反義語のグルーピング}\label{sec:grouping}\begin{table}[b]\caption{同義語・反意語のグルーピング}\begin{center}\begin{tabular}{|c|l|l|}\hline&グループ名&反義語\\\hline1&暑い&寒い\\2&遠い&近い\\3&広い&狭い\\4&道路がすく&混雑・渋滞\\5&ゆったり&窮屈\\6&軽い&重い\\7&濡れる&乾く\\8&明るい&暗い\\9&速い・早い&遅い\\10&安全&危険\\11&平穏&不穏\\12&可能&不可能\\13&確実&不確実\\14&高い&安い\\15&便利&不便\\16&遅れる&間に合う\\17&疲れる&楽\\18&束縛&自由\\19&気分転換&−\\20&幸運&不運\\\hline\end{tabular}\label{tab:6_4}\end{center}\end{table}\begin{table}[t]\caption{取捨選択表(反義語処理あり)}\begin{center}\begin{tabular}{|l|l||c|c|c|c|c|}\hline\multicolumn{2}{|c||}{方略}&\multicolumn{5}{|c|}{選択肢が持つアスペクト}\\\hline種類&対象アスペクト&速い¬速い&遅い¬遅い&記述なし\\\hline\hlinePositive&速い&○&×&×&○&×\\\hlineNegative¬速い&○&×&×&○&○\\\hlineNegative&遅い&○&×&×&○&○\\\hlinePositive¬遅い&○&×&×&○&×\\\hlineNegative&速い&×&○&○&×&○\\\hlinePositive¬速い&×&○&○&×&×\\\hlinePositive&遅い&×&○&○&×&×\\\hlineNegative¬遅い&×&○&○&×&○\\\hline\multicolumn{7}{r}{○:候補に残存×:排除}\\\end{tabular}\label{tab:6_5}\end{center}\end{table}本研究では角川類語新辞典\shortcite{Kadokawa}を用いて語の意味分類を整理した.分類の粗いカテゴリを適宜分割し,同義語・反義語のカテゴリをグルーピングした.たとえば,「安い」と「無料」は別のカテゴリに属しているが,どちらも安価であることを表しているので,グルーピングによって同じ意味であると捉えることができる.このことによって,「安い」についてのPositiveな方略(安いのが望ましい)の場合に,「無料」の選択肢を候補に残すことができる.表\ref{tab:6_4}に本稿で作成した20組の同義語・反義語の組を示す(グルーピングの必要があるもののみを示した).このようにして反義語を適切に認識できるようにしたうえで,たとえば,方略の対象アスペクトが「速い」または「not速い」の場合,\begin{quote}「遅い」$\rightarrow$「not速い」\\「not遅い」$\rightarrow$「速い」\end{quote}のように置き換えることとする.すなわち,反義語を置き換えるとともに,notの有無を反転させる.すると,表\ref{tab:6_5}のようになり,不都合は解消される.\subsection{その他の問題}本研究のデータには「決める」段階での選択理由に「習慣的にこの選択肢に決めている」という場合が若干あった.習慣行動とは「当初はある種の心理状態によって,すなわち,理由を意識した状態で選択肢を選んでいたが,繰り返し同様の行動を実行するにつれて,選択理由が意識から消滅した状態」であるといえる\cite{Fujii2002}.したがって,選択理由がことばに表れないのは,選択理由を意識しなくなったためである.ことばに表れていないので,本研究のことばを用いる手法では選択の様子をうまく表現できない.もし可能なら,データを収集する際の工夫として,そのような習慣が形成されるに至った理由を再質問等によって文データの形にし,そのプロセスを捉えたいところであるが,この点については今後の課題である.本稿では「習慣的」を表す語が含まれるかどうかで習慣的な選択かどうかを判別するにとどめた.\subsection{通しテスト}「決める」プロセスは,いくつかの取捨選択のステップで構成される.\ref{subsec:mokuteki}節で述べたように,筆者らのこれまでの研究では,取捨選択方略をそれぞれ個別に適切に抽出することを問題とし,良い結果を得た\shortcite{Takao2005_RON}.本稿ではこれらの個別の取捨選択方略を構成することで,選択プロセスの開始から完了までを通しで扱うことを問題としているので,本節でそのテストを行う.すなわち,本手法のできるだけ簡単な形によって「決める」プロセスを記述できるかどうかを確認するとともに,どのような課題が残されているかを解明するために,「決める」プロセスの通しテストを行った\footnote{取捨選択のステップを個別に扱うのではなく,選択プロセス全体を通しで扱うことを明示するため,「通しテスト」と記す.}.最終的な選択が行われるまでの,各選択肢の認知結果の記述,および,選択理由の方略が記述された,一連のアンケート回答を1件とし,表\ref{tab:6_5}の取捨選択表に基づいた選択行動の表現結果が実際の選択結果と一致しているかをテストした.繰り返しになるが,このテストは性能評価ではなく,心理的な情報をことばでどの程度扱えるかや,それに関する課題を見いだすためのものである.\begin{table}[b]\caption{通しテストの結果(表れている情報のみ)}\begin{center}\begin{tabular}{|cl|r|r|}\hline区分&評価&全データ&テストセット\\\hline○&正しい選択肢のみが残った&33&6\\△&まだ余分な選択肢が残っている&10&2\\▲&全部排除された&58&12\\×&間違った選択肢が残った&7&2\\−&習慣的/方略の記述なし&30&8\\\hline計&&138&30\\\hline\end{tabular}\label{tab:6_8}\end{center}\end{table}\begin{figure}[t]\begin{center}\begin{picture}(360,195)(50,30)\put(110,210){\makebox(70,15){自転車}}\put(190,210){\makebox(70,15){地下鉄}}\put(270,210){\makebox(70,15){バス}}\put(350,210){\makebox(70,15){タクシー}}\put(110,170){\framebox(70,40){\shortstack{濡れる}}}\put(190,170){\framebox(70,40){\shortstack{not濡れる\\時間が読める}}}\put(270,170){\framebox(70,40){\shortstack{not濡れる\\混む\\遅い}}}\put(350,170){\framebox(70,40){\shortstack{not濡れる\\道路が混む\\遅い}}}\put(50,135){\makebox(55,20)[r]{取捨選択1}}\put(110,135){\framebox(310,20){文:「濡れたくないので自転車は却下.」,方略:Negative,濡れる}}\put(145,170){\line(0,-1){15}}\put(225,170){\line(0,-1){15}}\put(305,170){\line(0,-1){15}}\put(385,170){\line(0,-1){15}}\put(145,135){\vector(0,-1){15}}\put(225,135){\vector(0,-1){15}}\put(305,135){\vector(0,-1){15}}\put(385,135){\vector(0,-1){15}}\put(110,105){\makebox(70,15){排除}}\put(190,105){\makebox(70,15){残存}}\put(270,105){\makebox(70,15){残存}}\put(350,105){\makebox(70,15){残存}}\put(50,60){\makebox(55,30)[r]{取捨選択2}}\put(110,60){\framebox(310,30){\shortstack{文:「五十日なので道路が混んでいる可能性があり,\\バスとタクシーも却下.」,方略:Negative,道路が混む}}}\put(225,105){\line(0,-1){15}}\put(305,105){\line(0,-1){15}}\put(385,105){\line(0,-1){15}}\put(225,60){\vector(0,-1){15}}\put(305,60){\vector(0,-1){15}}\put(385,60){\vector(0,-1){15}}\put(190,30){\makebox(70,15){残存}}\put(270,30){\makebox(70,15){排除}}\put(350,30){\makebox(70,15){排除}}\end{picture}\end{center}\caption{「決める」プロセスの記述}\label{fig:6_2}\end{figure}表\ref{tab:6_8}にその結果を示す.テストセットは全データからランダムに30回答を選んだものであり,その残りが学習セットである.学習セットを言語知識の獲得用に用いるために両者を分離したが,\ref{sec:ebaprocess}章までの段階では学習セットを用いた言語知識の獲得は行っていない.なお,後述の\ref{sec:gyoukan}章の「行間を読み取る」の分析で学習セットを用いている.表の「○正しい選択肢のみが残った」は成功したもの,「△まだ余分な選択肢が残っている」は正しい選択肢以外にも何か排除されずに残っている場合,「▲全部排除された」は正しい選択肢も含めてすべての選択肢が排除された場合,「×間違った選択肢が残った」は正しい選択肢が排除され,間違った選択肢だけが残った場合である.「−習慣的/方略の記述なし」は習慣的な選択と明記している場合,または,選択理由の方略が1つも記述されていない場合である.的はずれな回答はテスト対象外としたが,習慣的な選択や部分的に認知結果がうまく記述されていない回答もテスト対象から除外せずテストを行った.この場合,被験者の文章表現力や着眼点の違いも結果の成績の善し悪しに影響する.さらに,EBAの意思決定モデルで記述できないような選択行動をしている場合も不成功の一因となる.したがって,表の`○'評価の割合が小さいように見えるが,必ずしも手法に問題点があるためだけではなく,被験者の文章表現力等,ことば自体がヒトの心理状態をどの程度表現できるものなのかという問題にも大きく影響を受けている.`○'の成功例によって,心理状態が本手法に適合し,かつ,完全にことばに表れている場合なら,取捨選択方略によって「決める」プロセスが記述できることが確認できる.成功例を図\ref{fig:6_2}に示す.方略の抽出元の文も示した\footnote{この例では選択肢を「却下」する旨が元の文に明示的に表れているが,EBAに則って取捨選択の理由を捉えることが本研究の目的であるので,選択肢の却下の語句は直接用いず,方略に沿って選択行動を捉えている.したがって,「遅いのは嫌だから」のように,選択肢は明記されず,アスペクトを嫌う場合も本手法で扱うことができる.}.次に,失敗の原因を詳しく考察することで,不完全なことばデータの処理方法を明確化する.\subsection{考察}\label{sec:kousatsu}ここでは,不成功の原因を考察する.第1は,アスペクトの記述不足である.選択理由の文は「雨が降っていて自転車に乗れないから.」と記述されていたが,この文には「雨」という条件と「乗れない」という結果は書かれている一方,「危険」等のアスペクトは明記されていないので,取捨選択を適切に表現できなかった.日常会話では,自転車は雨に日には「危険」ということを常識で知っているので,ことばに明示的に表れていなくても意味を理解できる.つまり,ヒトの文章表現には限界があり,心理状態を必ずしもありのまま文に記述するとは限らず,常識や暗黙の了解事項を活用して省略された意図をくみ取ってもらおうとしている.内容が多岐にわたる常識を収集するのは有利な解決方法とは言えないので,現実的な方法としては,データ収集時に,記述内容に不足があった場合には適切に再質問をするという方法が考えられる.つまり,乗れないという判断を下すに至った理由を明記するように被験者に求める必要がある.また,「認知する」段階と「決める」段階での記述内容の整合がとれていないために失敗したものもあった.たとえば,「決める」段階の文には「お金もかからない.」と記述されているが,「認知する」段階には「お金がかかる/かからない」という意味の記述がない場合があった.これについてもデータ収集時に記述不足を指摘して明記させる必要がある.第2は,相対的なアスペクトについて行間を読み取る必要性である.選択理由の記述には「移動時間が短い」と記述されていた(「移動時間が短い」についてのPositiveな方略)が,次のように各選択肢のアスペクトに「移動時間が短い」が表れていないためすべての選択肢が排除されてしまった.\begin{quote}自転車:(記述なし)\\地下鉄:「時間がかかる」\\バス:「時間がかかる」\\タクシー:(記述なし)\end{quote}しかし,地下鉄・バスについては「時間がかかる」が明記されている.自転車・タクシーについては「時間がかかる」を記述しないことで相対的に「時間がかからない」というニュアンスをくみ取ってもらおうとしている.したがって,何も記述されていない状態でも,他の選択肢の記述を参照し,相対的に「時間がかからない」と判断し,被験者の気持ちを行間からくみ取る処理が必要である.これについては次章で詳しく述べる.第3はアスペクトの程度語の処理の必要性である.各選択肢のアスペクトが以下のようになっているとする.\begin{quote}自転車:「交通費がかからない」\\地下鉄:「費用がかかる」\\バス:「費用がかかる」\\タクシー:「費用が格段にかかる」\end{quote}この時「費用もそれほどかからない」という文から「not費用がかかる」についてのPositiveな方略が抽出された.このため,自転車のみが残存し,正解の地下鉄は「費用がかかる」ため排除されてしまった.したがって,「格段に」「それほど」のような強弱の程度語を適切に解釈することが必要である.すなわち,この場合は費用が「それほどかからない」以下の選択肢を残存させ,「格段にかかる」のみを排除すればよい.本研究ではアスペクトがことばに表れているかどうかという観点から,属性値を白黒2値で表した.しかし,\citeA{Bohanec}が質的スコアを何段階かで表現しているように,程度を適切に捉える必要がある.\begin{quote}Bohanecの例(教育水準):\{unacceptable,acceptable,appropriate\}\\本研究の例(費用):\{格段にかかる,かかる,かからない\}\end{quote}程度語は,「とても遅い」の「とても」のような,アスペクトの語へ係る修飾語や,「混雑がひどい」の「ひどい」のような,アスペクトの語から係る語や文末表現の形で表される.本研究のデータから程度語を調べたところ,強弱を表すものと確信度を表すものの2つの軸があることがわかった.\begin{quote}強弱の程度の軸:とても〜程度語なし〜少し\\確信度の程度の軸:絶対〜程度語なし〜かもしれない\end{quote}この2つの軸を扱うことにより,アスペクトをより適切に捉えることができる.ただし,\citeA{Bohanec}のモデルは,選択肢の総合評価を出すことを目的としていることから,補償型モデルに分類できる.したがって,彼らの方法はそのままでは本研究のような選択プロセスを記述する目的に用いるには適しておらず,独自に工夫を行う必要がある.しかし,本研究の場合は程度語の処理を必要とする場合はきわめて少なく,程度語についてはさらに多くのデータを収集して検討する必要がある.第4は属性ツリーの必要性である.取捨選択方略の対象アスペクトに「不便」が登場しているが,選択肢のアスペクトには直接表れていない場合があった.「時間がかかる」「到着時間が不安定」「高い」等を総合して「不便」と見なす必要がある.この処理には\citeA{Bohanec}の属性ツリーの手法を用いることができる(図\ref{fig:6_7}).彼らのモデルは,属性を依存構造によってツリーで表し,下位の属性を上位の属性に集計する仕組みになっている.「不便」の例では,\begin{quote}if時間がかかるand到着時間が不安定and高いthen不便\end{quote}のようなif-thenルールでツリーの末端からルート(根)に向かって集計を行う必要がある.\begin{figure}[b]\begin{center}\begin{picture}(200,82)(0,0)\put(0,66){\framebox(70,16){不便}}\put(35,8){\line(0,1){58}}\put(35,52){\line(1,0){65}}\put(35,30){\line(1,0){65}}\put(35,8){\line(1,0){65}}\put(100,44){\framebox(100,16){時間がかかる}}\put(100,22){\framebox(100,16){到着時間が不安定}}\put(100,0){\framebox(100,16){高い}}\end{picture}\end{center}\caption{Bohanecの属性ツリー}\label{fig:6_7}\end{figure}このほか,語のニュアンスの違いによる不成功もあった.たとえば,「楽」が肉体的に楽なのか,気分的に楽なのかを区別する必要があるケースがあった.テストセットの不成功の原因を整理し,表\ref{tab:6_9}に示す.このうち,(0)(1)はEBAでは表すことができない,または,ヒトの文章記述力に関する事柄であり,(4)(5)は語彙知識の事柄である.そこで,EBAに深く関係する事柄で,改善効果の大きい(2)の「行間を読み取る」について,次章でさらに議論する.\begin{table}[t]\caption{不成功の原因}\begin{center}\begin{tabular}{clr}\hline&原因&件数(のべ)\\\hline(0)&習慣的な選択&7\\(1)&アスペクトの記述不足&11\\(2)&相対的なアスペクトについて行間を読み取る必要&2\\(3)&程度語の処理が必要&2\\(4)&属性ツリーが必要&2\\(5)&語のニュアンスの違い&3\\\hline\end{tabular}\label{tab:6_9}\end{center}\end{table}
\section{行間を読み取る}
\label{sec:gyoukan}行間を読み取る必要があることは\ref{sec:kousatsu}で述べた.すなわち,何も記述しないことで何らかのニュアンスを示そうとしているので,記述なしの項目を表\ref{tab:6_5}に従って処理するだけでは不十分な場合がある.したがって,それらを情報として適切に取り出さなければ選択行動を正しく表現できない.この章では,行間に隠されたアスペクトを適切に補充し,その結果,通しテストの成績がどの程度改善されるかを検証し,行間を読み取る効果を確認する.行間を読み取る必要のある場合は次の2つのタイプに分けられることがわかった.\begin{description}\item{(a)}Positiveな方略による取捨選択で,表れている情報だけだと全選択肢が排除されるが,対象アスペクトの反義語がいずれかの選択肢に挙がっている場合\item{(b)}Negativeな方略による取捨選択で,表れている情報だけだと何も排除されないが,対象アスペクトの反義語がいずれかの選択肢に挙がっている場合\end{description}\ref{sec:grouping}で述べた反義語処理により,あるアスペクトの反義語はnotの有無を反転させることで表現している.(a)の例を次に示す.\begin{quote}選択肢1:「濡れる」\\選択肢2:(記述なし)\\方略:Positive,not濡れる(濡れないのが望ましい)\end{quote}この例の方略ではアスペクト「not濡れる」を持つ選択肢のみが残存し,他は排除される.その結果,全ての選択肢がこの方略によって排除される.しかし,対象アスペクト「not濡れる」の反義語「濡れる」が選択肢1に挙がっており,選択肢2は何も記述しないことで「濡れない」ニュアンスを表そうとしている.したがって,「(記述なし)」の選択肢2に「濡れる」の反義語「not濡れる」を補い,残存させる.(b)の例を次に示す.\begin{quote}選択肢1:「時間通り」\\選択肢2:(記述なし)\\方略:Negative,not時間通り\end{quote}この例の方略ではアスペクト「not時間通り」を持つ選択肢のみが排除され,他は残存する.その結果,この方略によって選択肢は排除されない.しかし,対象アスペクト「not時間通り」の反義語「時間通り」が選択肢1に挙がっており,選択肢2は何も記述しないことで「時間通りでない」ニュアンスを表そうとしている.したがって,「(記述なし)」の選択肢2に「時間通り」の反義語「not時間通り」を補い,排除する.以上の処理を行った通しテストの結果を表\ref{tab:6_8gyoukan}に示す.表\ref{tab:6_8}よりも改善されていることがわかる.\begin{table}[t]\caption{通しテストの結果(行間を読む処理あり)}\begin{center}\begin{tabular}{|cl|r|r|}\hline区分&評価&全データ&テストセット\\\hline○&正しい選択肢のみが残った&42&9\\△&まだ余分な選択肢が残っている&18&2\\▲&全部排除された&41&9\\×&間違った選択肢が残った&7&2\\−&習慣的/方略の記述なし&30&8\\\hline計&&138&30\\\hline\end{tabular}\label{tab:6_8gyoukan}\end{center}\end{table}
\section{選択または排除されるきっかけ}
\label{sec:kikkake}本稿のようにEBAに則って選択のプロセスを表現することにより,選択肢が選択または排除されるきっかけとなった理由を捉えることができる.したがって,単純な評判情報や意見分析等では得ることが困難だった,他の選択肢と比較した場合の相対的な長所や弱点を知ることができる.排除されるきっかけは「決める」プロセス中で残存→排除に切り替わる時点の対象アスペクトを取り出すことで得られる.ただし,方略がPositiveかNegativeによってnotの反転の有無が異なる.たとえば,次のようになる.\begin{itemize}\item方略「Positive,涼しい」で排除された場合,選択肢が持つアスペクトは「not涼しい」\item方略「Negative,暑い」で排除された場合,選択肢が持つアスペクトは「暑い」\end{itemize}図\ref{fig:6_2}の例で言うと,自転車が排除されたきっかけの理由は,自転車が「濡れる」からである.\begin{table}[bp]\caption{排除・残存のきっかけ}\begin{center}\begin{tabular}[t]{|l||l|l|l|}\hline選択肢&認知結果に多く登場&排除のきっかけ&残存のきっかけ\\\hline自転車&濡れる(45)&濡れる(8)&速い(6)\\&快適(39)¬確実(7)¬高い(5)\\&速い(32)&疲れる(6)&確実(4)\\&&遠い(6)&\\\hline地下鉄&不愉快(90)¬速い(8)&確実(12)\\&確実(46)&疲れる(8)¬高い(7)\\&繁雑(27)&遠い(3)¬濡れる(7)\\¬速い(27)¬快適(3)&\\\hlineバス¬確実(69)¬確実(10)¬高い(5)\\¬速い(56)¬速い(9)¬濡れる(4)\\¬道路がすく(41)&疲れる(8)&安全(3)\\\hlineタクシー&高い(66)¬確実(9)¬疲れる(8)\\¬疲れる(49)&高い(7)¬濡れる(8)\\¬遠い(36)¬速い(3)&速い(8)\\&¬快適(3)&\\\hline\multicolumn{4}{r}{()は度数}\\\end{tabular}\label{tab:kikkake}\end{center}\end{table}同様に,選択肢が残存するきっかけの理由も得ることができる.残存するきっかけとは,他の選択肢で排除されたものがある一方で,当該選択肢は残存した方略の対象アスペクトを表し,相対的な長所を意味する.たとえば,選択肢が1〜4の4つの場合,ある方略で1と2が排除されたら,その方略の対象アスペクトは3と4の残存のきっかけである.ただし,方略がPositiveかNegativeによってnotの反転の有無が異なる.\begin{itemize}\item方略「Positive,涼しい」で残存した場合,選択肢が持つアスペクトは「涼しい」\item方略「Negative,暑い」で残存した場合,選択肢が持つアスペクトは「not暑い」\end{itemize}さらに,各選択肢の長所と短所を表\ref{tab:6_4}の同義語・反義語のグルーピングによって整理した.すなわち,反義語の場合はnotの有無を反転したうえで対応するグループ名に置き換えた.これは,「危険」と「not安全」を同一視して数えるのが適切だからである.表\ref{tab:kikkake}に選択または排除されるきっかけを度数の多い順に3位まで示す.ただし,通しテストの成績が○と△の場合のみを対象とした.排除のきっかけが短所,残存のきっかけが長所に相当する.比較のため,認知結果に多く登場したアスペクト(単純な評判情報に相当)も示した.表から,たとえば,「快適」は自転車の認知結果には多く挙がっているが,排除・残存にはあまり影響していないことがわかる.このように,単純な評判情報からは得ることが困難な情報を捉えることができる.
\section{おわりに}
\label{sec:owarini}本稿では,選択肢の取捨選択プロセスをEBAに則って表現した.本手法によって「決める」プロセスを記述できるかどうかを確認するとともに,心理状態が完全な形でことばに表れていない場合にどのような処理が必要であるかを分析した.本稿の成果は以下のように要約される.\begin{itemize}\item取捨選択方略に基づき,1回の選択行動の一連の選択プロセスを通しで表現する方法について述べた.\item反義語を適切に扱うため,同義語・反意語のグルーピングを行った.\item通しテストの結果,ヒトの心理状態は必ずしも完全な形ではことばに表れていないことや,ことばに明示的に表れている情報を単純に扱うだけでは不十分であることがわかった.また,その解決方法を考察した.\itemことばに明示的に表れている情報だけでは必ずしも十分ではなく,行間を読み取る処理が必要であり,その方法を示した.\item選択肢の相対的な長所・短所を知るため,選択または排除させるきっかけを捉える方法を示した.\end{itemize}本稿では分析の枠組みを設定し,それに適したデータをアンケートによって収集したため,利用できるデータ量はあまり多くなかった.ブログ等の大量に存在する既存の言語データを有効的に活用する方法を研究し,より多くの言語データを活用できるようにすることが今後の課題である.\bibliographystyle{jnlpbbl_1.2}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bohanec,Urh,\BBA\Rajkovi\v{c}}{Bohanecet~al.}{1992}]{Bohanec}Bohanec,M.,Urh,B.,\BBA\Rajkovi\v{c},V.\BBOP1992\BBCP.\newblock\BBOQEvaluatingOptionsbyCombinedQualitativeandQuantitativeMethods\BBCQ\\newblock{\BemActaPsychologica},{\Bbf80}(1--3),\mbox{\BPGS\67--89}.\bibitem[\protect\BCAY{藤井}{藤井}{2002}]{Fujii2002}藤井聡\BBOP2002\BBCP.\newblock\Jem{交通行動分析の社会心理学的アプローチ,交通行動の分析とモデリング(北村・森川編著),第3章}.\newblock技報堂出版.\bibitem[\protect\BCAY{福田\JBA森地}{福田\JBA森地}{2002}]{Fukuda2002}福田大輔\JBA森地茂\BBOP2002\BBCP.\newblock\JBOQ選択肢の選別過程に関する実証比較分析:交通手段選択行動を対象として\JBCQ\\newblock\Jem{土木計画学研究・論文集},{\Bbf19},\mbox{\BPGS\375--381}.\bibitem[\protect\BCAY{月出\JBA石崎}{月出\JBA石崎}{2000}]{Hitachi2000}月出奈都子\JBA石崎俊\BBOP2000\BBCP.\newblock\JBOQTV番組に対する自由回答文の印象抽出システム—インターネットアンケート調査による自由回答文の解析—\JBCQ\\newblock\Jem{言語処理学会第6回年次大会発表論文集},\mbox{\BPGS\249--251}.\bibitem[\protect\BCAY{乾}{乾}{2004}]{Inui2004}乾裕子\BBOP2004\BBCP.\newblock\Jem{自由記述アンケート回答の意図抽出および自動分類に関する研究—要求意図を中心に—}.\newblock神戸大学博士論文.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本\JBA立石\JBA福島}{小林\Jetal}{2003}]{Kobayashi2003}小林のぞみ\JBA乾健太郎\JBA松本裕治\JBA立石健二\JBA福島俊一\BBOP2003\BBCP.\newblock\JBOQテキストマイニングによる評価表現の収集\JBCQ\\newblock\Jem{情報処理学会研究報告,NL154-12},\mbox{\BPGS\77--84}.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本\JBA立石\JBA福島}{小林\Jetal}{2005}]{Kobayashi2005}小林のぞみ\JBA乾健太郎\JBA松本裕治\JBA立石健二\JBA福島俊一\BBOP2005\BBCP.\newblock\JBOQ意見抽出のための評価表現の収集\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(3),\mbox{\BPGS\203--222}.\bibitem[\protect\BCAY{Kobayashi,Inui,Matsumoto,Tateishi,\BBA\Fukushima}{Kobayashiet~al.}{2004}]{Kobayashi2004}Kobayashi,N.,Inui,K.,Matsumoto,Y.,Tateishi,K.,\BBA\Fukushima,T.\BBOP2004\BBCP.\newblock\BBOQCollectingEvaluativeExpressionsforOpinionExtraction\BBCQ\\newblockIn{\BemProceedingsofthe1stInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP-04)},\mbox{\BPGS\584--589}.\bibitem[\protect\BCAY{熊本\JBA太田}{熊本\JBA太田}{2002}]{Kumamoto2002}熊本忠彦\JBA太田公子\BBOP2002\BBCP.\newblock\JBOQ印象に基づく楽曲検索:検索ニーズに合った印象尺度の設計\JBCQ\\newblock\Jem{情報処理学会研究報告,2001-NL-147},{\Bbf6},\mbox{\BPGS\35--40}.\bibitem[\protect\BCAY{熊本\JBA太田}{熊本\JBA太田}{2004}]{Kumamoto2004}熊本忠彦\JBA太田公子\BBOP2004\BBCP.\newblock\JBOQ印象に基づく楽曲検索システムにおける程度語の理解\JBCQ\\newblock\Jem{人工知能学会全国大会(第18回),}\\verb+http://www-kasm.nii.ac.jp/jsai2004_schedule/paper-161.html+.\bibitem[\protect\BCAY{仲村\JBA内田\JBA日野}{仲村\Jetal}{2002}]{Nakamura2002}仲村彩\JBA内田敬\JBA日野泰雄\BBOP2002\BBCP.\newblock\JBOQ歩行者系道路の施設整備と交通手段・経路選択行動に関する分析\JBCQ\\newblock\Jem{土木計画学研究・講演集Vol.26,}\58.pdf.\bibitem[\protect\BCAY{那須川\JBA金山\JBA坪井\JBA渡辺}{那須川\Jetal}{2005}]{Nasukawa2005}那須川哲哉\JBA金山博\JBA坪井祐太\JBA渡辺日出雄\BBOP2005\BBCP.\newblock\JBOQ好不評文脈を応用した自然言語処理\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集,}\S1\verb+-+4.pdf.\bibitem[\protect\BCAY{大野\JBA浜西}{大野\JBA浜西}{1989}]{Kadokawa}大野晋\JBA浜西正人\BBOP1989\BBCP.\newblock\Jem{角川類語新辞典CD-ROM版}.\newblock角川書店/富士通.\bibitem[\protect\BCAY{Payne}{Payne}{1976}]{Payne1976}Payne,J.~W.\BBOP1976\BBCP.\newblock\BBOQTaskComplexityandContingentProcessinginDecisionMaking:AnInformationSearchandProtocolAnalysis\BBCQ\\newblock{\BemOrganizationalBehaviorandHumanPerformance},{\Bbf16},\mbox{\BPGS\366--387}.\bibitem[\protect\BCAY{Shafir,Simonson,\BBA\Tversky}{Shafiret~al.}{1993}]{Shafir1993}Shafir,E.,Simonson,I.,\BBA\Tversky,A.\BBOP1993\BBCP.\newblock\BBOQReason-basedchoice\BBCQ\\newblock{\BemCognition},{\Bbf49}(1--2),\mbox{\BPGS\11--36}.\bibitem[\protect\BCAY{鷹尾\JBA朝倉}{鷹尾\JBA朝倉}{2004}]{Takao2004_KKKK}鷹尾和享\JBA朝倉康夫\BBOP2004\BBCP.\newblock\JBOQことばによる空間認知と経路選択モデルのためのデータ収集\JBCQ\\newblock\Jem{第24回交通工学研究発表会論文報告集},\mbox{\BPGS\285--288}.\bibitem[\protect\BCAY{鷹尾\JBA朝倉}{鷹尾\JBA朝倉}{2005a}]{Takao2005_RON}鷹尾和享\JBA朝倉康夫\BBOP2005a\BBCP.\newblock\JBOQ自由回答文からの交通経路のアスペクトの取捨選択方略の抽出\JBCQ\\newblock\Jem{土木計画学研究・論文集},{\Bbf22}(1),\mbox{\BPGS\11--18}.\bibitem[\protect\BCAY{鷹尾\JBA朝倉}{鷹尾\JBA朝倉}{2005b}]{Takao2005_NLP}鷹尾和享\JBA朝倉康夫\BBOP2005b\BBCP.\newblock\JBOQ自由記述された交通経路の認知結果の否定判別\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\161--164}.\bibitem[\protect\BCAY{Takao\BBA\Asakura}{Takao\BBA\Asakura}{2004}]{Takao2004_HKSTS}Takao,K.\BBACOMMA\\BBA\Asakura,Y.\BBOP2004\BBCP.\newblock\BBOQCatchingandModelingSpatialCognitionandRouteChoiceBehaviourLinguistically\BBCQ\\newblockIn{\BemProceedingsofthe9thConferenceofHongKongSocietyforTransportationStudies(9thHKSTS)},\mbox{\BPGS\108--116}.\bibitem[\protect\BCAY{Takao\BBA\Asakura}{Takao\BBA\Asakura}{2005}]{Takao2005_E}Takao,K.\BBACOMMA\\BBA\Asakura,Y.\BBOP2005\BBCP.\newblock\BBOQExtractionofCognitionResultsofTravelRoutesfromOpen-endedQuestionnaireTexts\BBCQ\\newblock{\BemJournaloftheEasternAsiaSocietyforTransportationStudies},{\Bbf6},\mbox{\BPGS\1943--1955}.\bibitem[\protect\BCAY{立石\JBA石黒\JBA福島}{立石\Jetal}{2001}]{Tateishi2001}立石健二\JBA石黒義英\JBA福島俊一\BBOP2001\BBCP.\newblock\JBOQインターネットからの評判情報検索\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-144-11},\mbox{\BPGS\75--82}.\bibitem[\protect\BCAY{Tversky}{Tversky}{1972}]{Tversky1972}Tversky,A.\BBOP1972\BBCP.\newblock\BBOQEliminationbyAspects:ATheoryofChoice\BBCQ\\newblock{\BemPsychologicalReview},{\Bbf79}(4),\mbox{\BPGS\281--299}.\end{thebibliography}\begin{biography}\bioauthor{鷹尾和享}{1990年京都大学大学院工学研究科修士課程交通土木工学専攻修了.2005年神戸大学大学院自然科学研究科博士課程修了.博士(工学).自然言語処理,交通工学,情報処理の研究および業務に従事.現在,(社)システム科学研究所専門研究員.言語処理学会,土木学会各会員.}\bioauthor{朝倉康夫}{1981年京都大学大学院修士課程土木工学専攻修了.1988年京都大学工学博士.京都大学助手,愛媛大学講師,助教授,教授を経て,現在,神戸大学大学院自然科学研究科教授.交通工学,交通行動分析の研究に従事.土木学会,交通工学研究会,応用地域学会各会員.}\end{biography}\biodate\end{document}
| |
V02N01-02 | \section{はじめに}
我々が目標とするのは,日本語の複文の理解システムである.このようなシステムにおいては,{\bfゼロ代名詞}の照応の解析が重要な問題となり,例えば「ので」「から」などで接続された複文におけるゼロ代名詞照応の解析は,構文論,意味論,語用論の総合的な利用が要求される.文献\cite{中川:複文の意味論,COLING94}では,複文中に設定される意味および談話役割を用いた制約条件という形でこの問題を取り扱うことが提案されている.これは,ゼロ代名詞と対応する役割(動作主,経験者など)だけではなく,語用論的な役割(観察者など)の照応にも言及する制約であり,これによって,意味論および語用論を統合した形での複文の意味解析が可能である.ところで,意味役割や語用論的役割の照応解析の結果は,役割間での照応関係という形で得られるが(例えば,``観察者=動作主''など),実際にそれらの役割がどのような対象を指示するかは文脈情報を利用しないと決定できない場合が多い.つまり,各役割を変数とみなした場合,変数の値が決定されているわけではないが,別の変数との関係づけがなされている,という情報を解析の途中および結果として扱う必要がある.このような場合に用いられる方法論の一つとして,制約論理プログラミング\cite{橋田:情報の部分性}が考えられる.この場合,変数の間の関係(同値関係など)をその変数の持つ制約とみなすことにより,適用が可能である.そこで,著者らは,まず形態素解析システムJUMAN\cite{松本:NewJUMANmanual}および構文解析システムSAX\cite{松本:NewSAXmanual}を用い,その結果得られる素性構造に制約論理プログラミングの手法を用いて,ゼロ代名詞照応などを分析する理解システムを構築した.この理解システムでは,プログラム変換の手法を用いた制約変換システム\cite{森:否定情報の扱える制約システム}を利用している.このシステムで扱える文は,例えば「花子が暑がったので窓を開けた.」など,文献\cite{中川:複文の意味論,COLING94}で扱った複文の一部であり,日本語文全体からみてもその対象は非常に限定されるが,文献\cite{中川:複文の意味論,COLING94}で扱われている他の文,例えば「叱られたので,反省文を書かせた.」,「病気で苦しかったのに,会社を休めなかった.」などについても,本論文で述べる手法により,処理が可能である.また,他の種類の複文,例えば「傷が痛いのなら,病院に行く.」など従属節が条件節になるような複文に関しても,節間の制約を適切に記述できれば,本論文での手法の応用は可能である.なお,本システムに類する研究であるが,まず,本システムで参考としているような日本語文の構造をもとにし,LFG(語彙機能文法)の枠組を用いて記述したシステムが,文献\cite{水野:日本語の文の構造}に述べられている.これは,日本語文の発話構造を叙述部分と陳述部分に分けて階層化し,それをLFGによって記述するものである.この構造は本論文で参考としている日本語の階層構造(後で述べる)に類似したものであり,さらに,その枠組上で複文の構造的な特徴についても議論がなされている.しかし,その検討の対象が構文解析のレベルに限定されており,本論文によるシステムで扱っているような,意味役割や語用論的役割の照応解析といったレベルまでは扱っていない点が異なる.また,名詞や代名詞の照応解析を対象とした研究としては,例えば,文献\cite{清水:日本語談話の照応解決}で,視点や焦点といった語用論的概念を用いた議論が,解析システムの構築を前提としてなされている.しかし,第一文の解析結果を用いて,第二文以降に現れる名詞や代名詞の照応解析を行なう,という議論がなされており,本論文で扱うような,従属節と主節という構造が一文中に現れるような場合の,その一文中での照応関係の解析を行なう,というものではない.
\section{日本語複文に関する制約および素性構造による表現}
\label{節:複文の制約}本論文で述べるシステムにより意味解析が可能となる日本語の複文は,\tableref{システムの対象}に示すような種類のものである.例えば,次のような例文である.\begin{table}[htbp]\caption{システムの解析対象となる複文}\tablelabel{システムの対象}\begin{center}\begin{tabular}{|c||c|}\hline{\bf接続助詞}&ので(順接),のに(逆接)\\\hline{\bf従属節の形式}&主観形容詞,主観形容詞+「がる」,受動態\\\hline{\bf主節の形式}&意志的動作の記述(能動態),使役態\\\hline\end{tabular}\end{center}\end{table}\enumsentence{\exslabel{複文a}寒かったので,窓を閉めた.}\enumsentence{\exslabel{複文aa}寒がったので,窓を閉めた.}\enumsentence{\exslabel{複文c}奈緒美は寒がったのに窓を閉めなかった.}\enumsentence{\exslabel{複文d}オモチャを壊されたのに,作り直さなかった.}これらの例文は,\exsref{複文a},\exsref{複文aa}が順接の複文,\exsref{複文c},\exsref{複文d}が逆接の複文といわれるものであり,それぞれ次のような意味を表していると考えることができる.\begin{itemize}\item「ので」(「から」)による順接文…従属節での記述内容を原因として起こった動作・状態が主節での記述内容である.\item「のに」による逆接文…従属節での記述内容から予想される結果とは異なる動作・状態が主節での記述内容である.\end{itemize}つまり,これらの複文は全て「原因・理由--結果」を表しているといえる.そのため,複文の意味を考える際にも,この「因果性」という要素を扱わなければならない\footnote{「とき」などを接続助詞とする,時・場所を表す従属節の場合は,この「因果性」が希薄なため,因果性に基礎をおく制約が有効でない.そのため,別の方法を検討することが必要である.}.そこで,次のように{\bf動機保持者}という意味および語用論的性質を持つ役割を定義し,従属節と主節との間で意味役割もしくは語用論的役割を橋渡しする役割を担わせる.\begin{definit}{動機保持者}\deflabel{動機保持者}動機保持者とは,従属節で記述される状況によって,主節中で記述される何らかの動作もしくは状態を引き起こすに十分の動機を持つ人物を指す.\end{definit}動機保持者を用いることにより,\tableref{システムの対象}に示した種類の複文では,意味的な因果性を\tableref{従属節の制約}および\tableref{主節の制約}のような意味もしくは語用論的役割の間の制約の形で記述することができる\cite{中川:複文の意味論,COLING94}.ここで,本論文で扱う制約に必要な意味および語用論的役割の定義を以下に示す.\begin{itemize}\item動作主,経験者,受動者,対象…いわゆる$\theta$役割\footnote{GB理論における$\theta$役割は,述語の要求する項に対して意味的情報を与えるものである\cite{Sells:ContemporarySyntacticTheories}.例えば,{\ithit}(叩く)という述語は,Agent(動作主)とPatient(受動者)という$\theta$役割を与える.}に対応する.\item観察者…命題部で記述される状況を直接もしくは間接的に観察する人物のうち,経験者以外の人物を指す\footnote{文献\cite{斎藤:心情述語の語用論的分析,大江:日英語の比較研究}などの議論をもとにした役割であり,「悲しい」「痛い」などの主観形容詞に「がる」がついて「悲しがる」「痛がる」となった時,主観形容詞で表される状態を外部から観察している人物を表す.}.\item被影響者…受動態で記述される動作・作用の影響を受ける人物を指し,\begin{itemize}\item直接受動文の場合,接尾辞「られ」が支配する動詞句での受動者と同一人物を指す.\item間接受動文の場合,接尾辞「られ」の主格すなわち被害者を指す.\end{itemize}\item使役者…使役態の文の主格に対応する意味役割であり,使役態で記述されている事態を直接もしくは間接的にひきおこす人物を指す\cite{寺村:日本語のシンタクスと意味1}.例えば,「母親が赤ん坊にミルクを飲ませる」という文の場合,主格である「母親」が使役者である.\end{itemize}なお,以降で,意味もしくは語用論的役割の照応関係を記述する場合,``\prole{役割名}{\small設定された節}''という表記を用いる\footnote{例えば,``\prole{動作主}{主節}''とは,主節中に設定された動作主を表す.}.\begin{table}[htbp]\caption{従属節中の制約}\tablelabel{従属節の制約}\begin{center}\begin{tabular}{|c|c|c|}\hline{\lw{\bf従属節の形式}}&\multicolumn{2}{c|}{\bf動機保持者になりうる意味および語用論的役割}\\\cline{2-3}&\multicolumn{1}{c|}{\bf順接}&\multicolumn{1}{c|}{\bf逆接}\\\hline\hline主観形容詞&\prole{経験者}{\small従属節}&\prole{経験者}{\small従属節}\\\hline主観形容詞&{\lw{\prole{観察者}{\small従属節}}}&\prole{観察者}{\small従属節}または\\~~+「がる」&&\prole{経験者}{\small従属節}\\\hline受動態&\prole{被影響者}{\small従属節}&\prole{被影響者}{\small従属節}\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{主節での制約}\tablelabel{主節の制約}\begin{center}\begin{tabular}{|c|c|}\hline{\bf主節の形式}&{\bf動機保持者に関する制約}\\\hline\hline意志的動作&動機保持者=\prole{動作主}{\small主節}\\\hline使役態&動機保持者=\prole{使役者}{\small主節}\\\hline\end{tabular}\end{center}\end{table}先ほどの例文を用いて,これらの制約がどのように適用されるかを見てみる.ただし,本論文では,「は」は主格を主題として取り立てる場合のみについて考えることとする.\begin{itemize}\item[\protect\exsref{複文a}]寒かったので,窓を閉めた.\end{itemize}この文では,主節の「窓を閉めた」という動作を行なった人物は,従属節で「寒い」と感じた人であり,この二つの意味役割が動機保持者を介して一致する.\begin{itemize}\item[\protect\exsref{複文aa}]寒がったので,窓を閉めた.\end{itemize}一方この文では,誰かが寒がった状況を観察した人物(観察者)が動機保持者となり,これが主節の動作主と一致する.\begin{itemize}\item[\protect\exsref{複文c}]奈緒美は寒がったのに窓を閉めなかった.\end{itemize}従属節では,誰かが寒がった状況を観察した人物が動機保持者となり,これが主節の動作主と一致する.また,「奈緒美は」は,主節の主格を主題として取り立てられているとするため,結局「奈緒美」が誰かが寒がっている状況を観察し,その結果として主節の動作主となる解釈が得られる.また,\tableref{従属節の制約}により,逆接文の持つもう一つの解釈として,「寒がった」人物,つまり「寒い」という状況の経験者が動機保持者となり,これが主節の動作主と一致する場合もある.この時も,「奈緒美は」は主節の主格となるため,「奈緒美」自身が寒がり,かつ主節の動作主となることになる.\begin{itemize}\item[\protect\exsref{複文d}]オモチャを壊されたのに,作り直さなかった.\end{itemize}この文の従属節は間接受身の解釈となる.例えば,「私」がオモチャの所有者であり,そのオモチャを「壊される」という動作の被影響者となる.そして,その人物(ここでは「私」)が\tableref{従属節の制約}の制約によって動機保持者となり,主節の動作「作り直す」の動作主となる.以上で述べた制約について重要な点は,文献\cite{中川:複文の意味論,COLING94}で提案された動機保持者に関する制約が,従属節における動機保持者の決まり方,主節における動機保持者の結び付き先を,各々,従属節内,主節内において局所的に与えている点である.この局所性により,動機保持者が関与するゼロ代名詞照応の計算で考慮すべき領域が主節あるいは従属節の内部に限定されるため,計算の効率向上に大きく寄与し,また,句構造文法など,既成の文法体系の上でこの制約を利用したシステムを構築する際には都合がよい.さて,ここで,以上のような複文の解釈結果を素性構造で記述することについて述べる.そのために,まず,本論文で扱う「ので(から)」「のに」による複文の階層構造を,\figref{複文の階層構造}のように考える.すると,例えば\exsref{複文aa}は,複合事象のレベルまでの構造が\figref{複文の階層構造の例}となる.この階層構造は,文献\cite{郡司:制約に基づく文法}での議論をもとにしており,本論文では接続助詞「ので(から)」「のに」によって形成される従属節中に様相辞が存在しない場合を扱う\footnote{「北海道は寒いらしいので,上着を持って行こう.」など,従属節中に「らしい」「そうだ」が存在するような文も考えられるが,これは様相辞の意味論に関する問題を含んでおり,本論文の対象外とする.}ことなどから,「ので(から)」「のに」が事象レベルに接続して従属節を形成すると考えることにより得られる.\begin{figure}[hbtp]\begin{center}\unitlength=.04ex\tree{\node{発話}{\Ln4{判断}{\Ln4{主題}}{\Rn4{意見}{\Ln4{複合事象}{\Ln7{従属事象}{\Ln4{事象}}{\Rn4{接続}}}{\Rn7{事象}{\Ln4{過程}{\Ln4{行動/状態}{\Ln6{主体/対象}}{\Rn6{動作/様子}{\Ln4{受け手}}{\Rn4{動作/様子}{\Ln4{動作}}{\Rn4{様態}}}}}{\Rn4{相}}}{\Rn4{時制}}}}{\Rn4{様相}}}}{\Rn4{陳述}}}\end{center}\caption{複文の基本的な階層構造}\figlabel{複文の階層構造}\end{figure}\begin{figure}[htbp]\begin{center}\unitlength=.04ex\tree{\node{複合事象}{\Ln7{従属事象}{\Ln4{事象}{\lf{寒がった}}}{\Rn4{接続}{\lf{ので}}}}{\Rn7{事象}{\lf{窓を閉めた}}}}\end{center}\caption{複文の階層構造の例:「寒がったので窓を閉めた」}\figlabel{複文の階層構造の例}\end{figure}次に,複文の意味素性構造について考える.日本語の複文の素性構造表現,特にその意味素性に関する素性構造表現の定式化は今だ明確になされていないのが現状である.例えば,文献\cite{Tonoike:HierarchicalClauseStructure}では,「ために」という接続詞の構造を\figref{「ために」の構造}のように表している\footnote{図中で{\bfadjacent}が従属節,{\bfdep}が主節を表している.}.このように,{\bfsem}に関しては抽象的な説明となっており,``{\itacauseof\/}''という意味が実際にどのような構造をとるかについては述べられていない.しかし,本論文では節間の意味的なつながりに触れており,\figref{「ために」の構造}における{\bfsem}にあたる情報をどのような構造で表すかという問題を扱わなければならない.そこで,ここでは,複文の意味素性として\figref{複文の意味素性}のような構造を考える.\begin{figure}[htbp]\footnotesize\begin{center}\vspace{-0.2mm}\outerfs{\bfadjacent:&\outerfs{\bfhead:&\outerfs{\bfpos:&v\\\bftense:&+tensed}\\\bfsem:&{\itacauseof\/}\fbox{1}}\\\bfdep:&\outerfs{\bfhead:&\outerfs{\bfpos:&v\\\bftense:&+tensed}\\\bfsem:&\fbox{1}}}\end{center}\caption{文献\protect\cite{Tonoike:HierarchicalClauseStructure}による「ために」の素性構造}\figlabel{「ために」の構造}\end{figure}\begin{figure}[htbp]\begin{center}\outerfs{\bf意味主辞:&主節の意味主辞\\\bf意味修飾辞:&\{\protect\figref{修飾辞素性}に示す素性構造\}}\end{center}\caption{複文の意味素性構造}\figlabel{複文の意味素性}\end{figure}\begin{figure}[htbp]\begin{center}\vspace{-0.2mm}\outerfs{\bf意味主辞:&\outerfs{\bf修飾関係:&従属節\\\bf接続:&接続助詞名\\\bf接続関係:&順接もしくは逆接\\\bf動機保持者:&\fbox{1}\\\bf事象:&従属節の\\&事象レベルでの\\&意味主辞}\\\bf意味修飾辞:&\{~\}}\end{center}\caption{修飾辞素性}\figlabel{修飾辞素性}\vspace{-0.1mm}\end{figure}まず,複文の意味主辞として主節の意味主辞をとる.\vspace{-0.1mm}意味修飾辞としては,従属節を示す\figref{修飾辞素性}のような素性構造をとる.\vspace{-0.1mm}\figref{修飾辞素性}では,意味主辞として,修飾関係,接続,接続関係という素性を用意している.\vspace{-0.1mm}修飾関\\係素性の値は,従属節を表すために``従属節''とし,接続素性は,その値として``ので'',``のに''のような接続助詞名をとる.\vspace{-0.1mm}また,接続関係素性の値は,接続助詞が「ので」の場合は``順接'',「のに」の場合は``逆接''とする.\vspace{-0.1mm}さらに,動機保持者の参照する人物を値としてとる動機保持者素性と,従属節の事象レベルでの意味主辞を値としてとる事象素性も意味主辞中に設定する.\vspace{-0.1mm}なお,事象という素性を用いるのは,前記の\figref{複文の階層構造}の構造による.\vspace{-0.1mm}\newsavebox{\myboxaaa}\sbox{\myboxaaa}{\footnotesize\outerfs{Soa:\outerfs{relation:閉める\\動作主:\fbox{1}\\対象:\fbox{窓}}\\時制:基準時以前\\認め方:肯定}}\begin{figure}[htbp]\footnotesize\begin{quote}\fbox{Main}=\outerfs{判断:\outerfs{意見:\outerfs{事象:\usebox{\myboxaaa}}}}\end{quote}\caption{主節の意味主辞素性の値}\figlabel{主節のSEM}\end{figure}ここで,文\exsref{複文aa}の意味素性について考えてみる.主節の意味素性は,\figref{主節のSEM}に示すようになり,従属節の意味素性は,\figref{従属節のSEM}に示すようになる\footnote{素性構造中で,\fbox{exp}は,実際に経験者の対象となる人物の意味情報を表す素性構造を参照する.}.ただし,\figref{従属節のSEM}の``OBSERVE''というrelationは,\hspace{0.05mm}接尾辞「がる」により導入される関係であり,「がる」\hspace{0.05mm}に\hspace{0.05mm}よ\hspace{0.05mm}っ\hspace{0.05mm}て\hspace{0.05mm}導\hspace{0.05mm}入\hspace{0.05mm}さ\hspace{0.05mm}れ\hspace{0.05mm}る\hspace{0.05mm}役\hspace{0.05mm}割\hspace{0.05mm}が``観察者:\fbox{2}'',観察された状況が``Soa:[・\hspace{-.5em}・\hspace{-.5em}・]''である.\newsavebox{\myboxa}\sbox{\myboxa}{\footnotesize\outerfs{relation:OBSERVE\\Soa:\outerfs{relation:寒い\\経験者:\fbox{exp}}\\観察者:\fbox{2}}}\begin{figure}[htbp]\footnotesize\begin{quote}\fbox{Sub}=\outerfs{意味主辞:\outerfs{修飾関係:従属節\\接続:ので\\接続関係:順接\\動機保持者:\fbox{2}\\事象:\outerfs{Soa:\usebox{\myboxa}\\時制:基準時以前\\認め方:肯定}}\\意味修飾辞:\{~\}}\end{quote}\caption{従属節の意味素性の値}\figlabel{従属節のSEM}\end{figure}\newsavebox{\myboxc}\sbox{\myboxc}{\footnotesize\outerfs{relation:OBSERVE\\Soa:\outerfs{relation:寒い\\経験者:\fbox{exp}}\\観察者:\fbox{1}}}\newsavebox{\myboxb}\sbox{\myboxb}{\footnotesize\outerfs{意味主辞:\outerfs{修飾関係:従属節\\接続:ので\\接続関係:順接\\動機保持者:\fbox{1}\\事象:\outerfs{Soa:\usebox{\myboxc}\\時制:基準時以前\\認め方:肯定}}\\意味修飾辞:\{~\}}}\newsavebox{\myboxbbb}\sbox{\myboxbbb}{\footnotesize\outerfs{Soa:\outerfs{relation:閉める\\動作主:\fbox{1}\\対象:\fbox{窓}}\\時制:基準時以前\\認め方:肯定}}\begin{figure}[htbp]\begin{center}\footnotesize\fbox{SEM}=\outerfs{意味主辞:\outerfs{判断:\outerfs{意見:&\outerfs{事象:\usebox{\myboxbbb}}}}\\意味修飾辞:$\left\{\usebox{\myboxb}\right\}$}\end{center}\caption{単一化による複文の素性構造}\figlabel{単一化による複文の素性構造}\end{figure}\fbox{Sub}中では,タグ\fbox{2}の参照関係によって,``動機保持者=\prole{観察者}{\small従属節}''という制約が記述されている.ただし,これらから単一化により\figref{複文の意味素性}の素性構造を組み立てる際に,``動機保持者=\prole{動作主}{\small主節}''という\tableref{主節の制約}の制約に対応する``\fbox{1}=\fbox{2}''という制約も素性構造に反映させる.ここで,\fbox{1}は,主節の動作主を参照するタグであり,\fbox{2}は,従属節の観察者を参照するタグである.このようにして組み立てた複文\exsref{複文aa}の意味素性を\figref{単一化による複文の素性構造}に示す.ここでは,\fbox{2}は全て\fbox{1}に置き換わっている.
\section{制約変換による日本語複文の意味解析システム}
以上のように,意味および語用論的役割の照応関係に関する意味解析を行なうためには,各役割(変数)の同値関係などの情報を解析中に扱わなければならず,その結果も各変数間の関係で得られることが多い.このような問題を扱うための方法論の一つに制約論理プログラミングがある\cite{橋田:情報の部分性}.一方,JPSG\cite{Gunji:JPSG}における下位範疇化原理などの文法的な原理も,一種の制約条件とみなせることから\cite{郡司:制約に基づく文法},制約論理プログラミングの手法を取り入れた,複文の意味解析システムの構築が考えられる.\begin{figure}[htbp]\begin{center}\input{system.tex}\end{center}\caption{日本語文の意味解析システム}\figlabel{システム構成}\end{figure}\iffalseどの部分に語用論的制約を記述し,どの様にしてそれを利用するか,についてここで説明する.\fiそこで今回,著者らは,形態素解析システムJUMAN\cite{松本:NewJUMANmanual},構文解析システムSAX\cite{松本:NewSAXmanual}を利用し,さらに制約変換システム\cite{森:否定情報の扱える制約システム}を併用するシステムを構築した.システムの構成の概略は\figref{システム構成}のようになる.図中において,JUMANおよびSAXは既存のシステムである.我々は,ここに,SAXで用いる文法規則として\figref{複文の階層構造}の階層構造を基にしたDCGを,さらに意味解析のための制約を記述した意味辞書を新しく設けた.さらに,これらを利用して解析を行なうためにSAXと制約変換システムをDCGの補強項に記述したPrologのプログラムを通じて接続したものが,本システムである.このシステムに日本語文(単文,「ので」「のに」による複文)が入力されると,JUMANにより形態素解析され,SAXにその結果が渡される.そして,構文解析されるわけだが,ここで,\ref{節:複文の制約}~節の\tableref{従属節の制約},\tableref{主節の制約}で挙げた制約を用いて,意味役割などの照応解析を行なう.本システムでは,\tableref{従属節の制約},\tableref{主節の制約}の語用論的制約を,各語彙の意味辞書として素性構造の形式で記述する.構文解析を行ないつつ,これらの情報を制約変換システムにより変換し,意味および語用論的役割の照応解析を行なうことが,本システムの目的である.\subsection{意味辞書}\label{節:意味辞書}以上のように,本システムでは,意味辞書に記述した制約を変換しながら解析が進む.このため,各語彙についての意味辞書の記述,特に「ので」「のに」という接続助詞の意味辞書の記述が本システムにとってのもっとも重要な点となる.\begin{figure}[htbp]\begin{quote}\setlength{\baselineskip}{4.2mm}\begin{verbatim}閉める(動詞,F,Kform,[F=[主辞:[品詞:動詞,活用形:Kform,使役形態:ニ使役,文法格:[主格:'+',対格:'+',与格:'-'],接尾可能様態辞:[passive:'+',causative:'+',observe:'-',desire:'+']],文法格内容:[主格:[意味:X],対格:[意味:Y]],見出し:閉める,slash:[],近接:[],下位範疇化:[[主辞:[品詞:格助詞,格標識:が,文法役割:subject],依存語彙:[品詞:動詞,見出し:閉める],意味:X],[主辞:[品詞:格助詞,格標識:を,文法役割:object],依存語彙:[品詞:動詞,見出し:閉める],意味:Y]],意味:[意味主辞:[soa:[relation:閉める,動作主:X,対象:Y#[意味主辞:[animate:'-']]],時制:T],意味修飾辞:[]]],constraint_Tense(Kform,T)]).\end{verbatim}\end{quote}\caption{動詞「閉める」の意味辞書}\figlabel{動詞の意味辞書例}\end{figure}本システムにおける意味辞書は,意味役割などがどのように設定されるかといったいわゆる意味情報に加えて,用言における下位範疇化情報など,文法情報に属するものも併せて素性構造の形式を用いて記述する.例えば,動詞「閉める」の意味辞書は\figref{動詞の意味辞書例}のように記述する.なお,``{\ttX\#[*]}''という表記は,素性構造``{\tt[*]}''を{\ttX}という名前のタグを用いて参照できることを示す.この辞書には,「閉める」が格助詞「が」を伴う後置詞句をsubjectとして下位範疇化し,その意味役割は動作主となること,格助詞「を」を伴う後置詞句をobjectとして下位範疇化し,その意味役割は対象となること,が記述してある.時制については{\ttconstraint\_Tense/2}という制約を用いて,用言の活用語尾によって「基準時」(現在形の場合)もしくは「基準時以前」(過去形の場合)という値をとるように記述してある.\begin{figure}[htbp]\begin{quote}\setlength{\baselineskip}{4.2mm}\begin{verbatim}のだ(助動詞,F,ダ列タ系連用テ形,[F=[主辞:[品詞:助動詞,接続関係:順接,修飾関係:従属節,依存:Depend],見出し:ので,近接:Adjacent,意味:Sem],constraint_NoDe(Depend,Adjacent,Sem)]).\end{verbatim}\end{quote}\caption{接続助詞「ので」の意味辞書}\figlabel{接続助詞の意味辞書例}\end{figure}\begin{figure}[htbp]\begin{quote}\setlength{\baselineskip}{4.2mm}\begin{verbatim}constraint_NoDe([主辞:[品詞:動詞,態:能動],意味:[意味主辞:[事象:[soa:[動作主:Motiv]]]]],[[主辞:[品詞:動詞性接尾辞,態:observe],意味:[意味主辞:Sem#[事象:[soa:[観察者:Motiv]]]]]],[意味主辞:Sem#[接続:ので,修飾関係:従属節,接続関係:順接,動機保持者:Motiv],意味修飾辞:[]]).\end{verbatim}\end{quote}\caption{「ので」による動機保持者に関する制約の記述}\figlabel{従属節制約例}\end{figure}また,「ので」「のに」による複文を解析するために,これら接続助詞の意味辞書を記述する必要がある.ここでは,「ので」の意味辞書を\figref{接続助詞の意味辞書例}に示す\footnote{品詞が助動詞となっているのは,JUMAN\cite{松本:NewJUMANmanual}による品詞分類をそのまま用いているためである.}.辞書項目中において,近接素性の値が,「ので」がつく従属節の内容を示す素性構造となる.また,依存素性の値が,「〜なので」という従属節をとる主節の内容を示す素性構造となる.ところで,依存素性や近接素性の値は,主節や従属節の記述形式によって変化するものであるため,辞書中では制約を用いてその値を記述する.これらの値を与えるのが制約{\ttconstraint\_NoDe/3}であり,第一引数が依存素性の値,第二引数が近接素性の値,第三引数が「ので」の意味素性の値となる.ここでは,従属節が主観形容詞+「がる」による記述,主節が意志的動作記述(能動態)の場合の制約について,\figref{従属節制約例}に示す.この記述により,``\prole{観察者}{\small従属節}=動機保持者''および``\prole{動作主}{\small主節}=動機保持者''という制約が変数{\ttMotiv}を用いて表されている.\begin{figure}[htbp]\newsavebox{\conjboxc}\sbox{\conjboxc}{\scriptsize\outerfs{\bf主辞:&\fbox{H3}\outerfs{\bf依存:&\outerfs{\bf主辞:&\fbox{H2}\\\bf意味:&\fbox{S2}}}\\\bf意味:&\fbox{S3}\\\bf近接:&$\left\{\begin{array}{l}\mbox{\outerfs{\bf主辞:&\fbox{H1}\\\bf意味:&\fbox{S1}}}\end{array}\right\}$}}\newsavebox{\subboxc}\sbox{\subboxc}{\scriptsize\outerfs{\bf主辞:&\fbox{H1}\\\bf意味:&\fbox{S1}}}\newsavebox{\mainboxc}\sbox{\mainboxc}{\scriptsize\outerfs{\bf主辞:&\fbox{H2}\\\bf意味:&\fbox{S2}}}\newsavebox{\subordboxc}\sbox{\subordboxc}{\scriptsize\outerfs{\bf主辞:&\fbox{H3}\outerfs{\bf依存:&\outerfs{\bf主辞:&\fbox{H2}\\\bf意味:&\fbox{S2}}}\\\bf意味:&\fbox{S1}+\fbox{S3}\\\bf近接:&\{~\}}}\newsavebox{\compboxc}\sbox{\compboxc}{\scriptsize\outerfs{\bf主辞:&\fbox{H2}\\\bf意味:&\fbox{S1}+\fbox{S2}+\fbox{S3}}}\begin{center}\unitlength=.08ex\tree{\node{\usebox{\compboxc}}{\Ln8{\usebox{\subordboxc}}{\Ln7{\usebox{\subboxc}}\lf{\scriptsize従属節の内容}}{\Rn7{\usebox{\conjboxc}}\lf{\scriptsizeので}}}{\Rn8{\usebox{\mainboxc}}\lf{\scriptsize主節の内容}}}\end{center}\caption{接続助詞「ので」による素性値の共有関係}\figlabel{共有関係}\end{figure}このように,依存素性および近接素性を用いることによって,接続助詞「ので」による複文は複合事象レベルにおいて\figref{共有関係}のような構造および素性値の共有関係を持つこととなる\cite{Tonoike:HierarchicalClauseStructure,JPSGOverView}.なお,接続助詞「のに」の場合も同様にして扱う.\subsection{接続助詞「ので」による日本語複文の解析}\label{節:日本語複文の解析}本システムは,SAXにおいてDCGを用いることにより構文解析を行ない,同時に制約変換システムと情報のやりとりをすることによって意味解析を行なうものである.このため,文の解析は\figref{複文の階層構造}のような構造を持つ構文解析木がボトムアップに生成されるように進む.複文を解析した場合には,従属節が従属事象として解析され,主節が事象として解析され,これらを複合事象としてまとめることによって複文となる,というように解析が進む.\begin{figure}[htbp]\begin{center}\epsfile{file=fig14.eps,width=85mm}\end{center}\caption{構文解析木の出力例}\figlabel{例文の構文木}\end{figure}この節では,「寒がったので,窓を閉めた」という簡単な複文を例にとり,本システムにおける解析がどのように行なわれるのかについて述べる.なお,本システムにおけるこの文の構文解析木は,\figref{例文の構文木}のように得られる.まず,従属節「寒がったので」の部分の解析について述べる.これは,``{\tt従属事象-->事象,接続}''というDCGにより,「寒がった」という事象と「ので」という接続とからなると解析される.このとき,「寒がった」という部分の解析結果として\figref{従属節部分1}の素性構造がえられる.また「ので」の意味辞書より,従属節が主観形容詞+「がる」であり主節が動作動詞の能動態の場合として\figref{従属節部分2}の素性構造がそれぞれ得られる\footnote{以下で示す各素性構造はそれぞれ独立したものであり,素性構造中のタグ({\ttF1,F2,…})も素性構造毎に独立している.}.\figref{従属節部分1}の素性構造では,意味素性の中に経験者と対象と観察者という役割が設定されている.また,経験者については,タグ{\ttF9}によって主格の後置詞句の持つ意味素性の値を参照し,対象はタグ{\ttF12}によって対格の後置詞句の持つ意味素性の値を参照する.\figref{従属節部分2}では,意味素性の値として,\figref{修飾辞素性}に対応する素性構造をとる.また,近接素性の値は従属節の形式(この場合は主観形容詞+「がる」)に対応する値であり,主辞素性中の依存素性の値は主節の形式(ここでは動作動詞による能動態)に対応している.\begin{figure}[htbp]\begin{center}\epsfile{file=fig15.eps,width=116mm}\end{center}\caption{事象「寒がった」の素性構造}\figlabel{従属節部分1}\end{figure}\begin{figure}[htbp]\begin{center}\epsfile{file=fig16.eps,width=109mm}\end{center}\caption{接続助詞「ので」の素性構造}\figlabel{従属節部分2}\end{figure}そして,\figref{従属節部分1}の素性構造と,\figref{従属節部分2}中の近接素性の値となっている素性構造との単一化が行なわれ,従属節「寒がったので」の解析結果として\figref{従属節部分3}の素性構造が得られる.この素性構造中の意味素性の値は,\figref{従属節のSEM}に示した\fbox{Sub}に相当し,タグ{\ttF21}によって,観察者と動機保持者が同じ値を参照することを表している.\begin{figure}[htbp]\begin{center}\epsfile{file=fig17.eps,width=109mm}\end{center}\caption{従属節「寒がったので」の素性構造}\figlabel{従属節部分3}\end{figure}次に,主節の「窓を閉めた」という部分が,事象として同様に解析される.その結果として,\figref{主節部分1}の素性構造が得られる.ここでは,意味素性の中に動作主と対象という役割が設定されており,タグ{\ttF16}によって対象が対格である「窓」の意味素性を参照すること,およびタグ{\ttF8}によって動作主が主格の後置詞句の意味素性の値を参照することが示されている.\begin{figure}[htbp]\begin{center}\epsfile{file=fig18.eps,width=85mm}\end{center}\caption{主節「窓を閉めた」の素性構造}\figlabel{主節部分1}\end{figure}そして,\figref{従属節部分3},\figref{主節部分1}の素性構造が,``{\tt複合事象-->従属事象,事象}''というDCGによって組み合わされる.この時,\figref{従属節部分3}の依存素性の値と\figref{主節部分1}の素性構造を単一化することで,複文全体の意味素性が形成される.その結果として,\figref{全文}に,全文の解析結果として得られる素性構造を示す.\begin{figure}[htbp]\begin{center}\epsfile{file=fig19.eps,width=140mm}\end{center}\caption{「寒がったので窓を閉めた」の解析結果}\figlabel{全文}\vspace*{7cm}\end{figure}\begin{figure}[htbp]\begin{center}\epsfile{file=fig20.eps,width=134mm}\end{center}\caption{「寒がったのに窓を閉めなかった」の解析結果}\figlabel{逆接全文}\end{figure}
\section{おわりに}
本論文では順接の「ので」による複文の解析を例にとり,日本語の複文の意味解析システムの構成および動作について説明した.前節で述べたように,「ので」による順接の複文に関しては,\tableref{従属節の制約}や\tableref{主節の制約}に示した制約を意味辞書および補強項に記述する事により,意味解析が可能になる.同じように,逆接を表わす接続助詞「のに」についても,意味辞書を前節の\figref{接続助詞の意味辞書例}のように記述することによって解析を行なうことが可能である.例として,「寒がったのに窓を閉めなかった」という文の解析結果を\figref{逆接全文}に示す.この文の場合,\tableref{従属節の制約}および\tableref{主節の制約}の制約から,1)\prole{観察者}{\small従属節}=動機保持者=\prole{動作主}{\small主節},2)\prole{経験者}{\small従属節}=動機保持者=\prole{動作主}{\small主節}の二通りの解析結果が存在する.\figref{逆接全文}では,最初の素性構造において1)の結果をタグ{\ttF8}で,二つめの素性構造において2)の結果をタグ{\ttF8}を用いて表している.このように,意味および語用論的役割に関する制約を\tableref{従属節の制約}や\tableref{主節の制約}に示したように節ごとの局所的な制約として記述することにより,句構造文法をベースとしたシステムに制約変換システムを組み合わせる(\figref{システム構成}参照)という手法で,接続助詞「ので」「のに」による順接および逆接の複文の意味解析システムを計算機上に構築した.さらに,「れば」「たら」「なら」により従属節が条件節となる複文などについても,同様の手法で扱えると考えられ,現在検討中である.\section*{謝辞}本研究において,日本語の複文の理解システムの試作を進めるにあたり,Prologによる制約変換システムを提供して頂き,また,その利用や,理解システム試作に関する全般的なアドバイスを頂いた横浜国立大学工学部の森辰則講師に感謝します.また,本研究には,文部省科学研究費重点領域研究「音声言語」により経済的サポートを受けていることを記し,関係各位に感謝いたします.\bibliographystyle{jtheapa}\bibliography{jpaper}\newpage\begin{biography}\biotitle{略歴}\bioauthor{西沢信一郎}{1969年生.1992年横浜国立大学工学部卒業.1994年横浜国立大学大学院工学研究科博士課程前期修了.現在,横浜国立大学大学院工学研究科博士課程後期に在学中.現在の主な研究テーマは自然言語処理.情報処理学会の学生会員.}\bioauthor{中川裕志}{1953年生.1975年東京大学工学部卒業.1980年東京大学大学院修了.工学博士.現在,横浜国立大学工学部電子情報工学科助教授.現在の主たる研究テーマは自然言語処理および日本語の語用論.日本認知科学会,人工知能学会などの会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V15N03-01 | \section{はじめに}
今日,大学は社会に貢献することが求められているようになっている.特に,産業界と関係の深い学部においては産学連携が強く求められるようになってきている.そのような産学連携を活性化するためには大学側のシーズを専門用語によって簡単に検索できるシステムが望まれる.そこで,著者らは産学連携マッチングを支援する研究情報検索システムの研究を開始した.本研究では研究情報検索システムの主要要素である専門用語の抽出に取り組んでいる.対象分野としては専門用語による研究情報検索システムのニーズが高く,これまで研究がなされていない分野の1つである看護学分野を選択した.専門用語抽出の研究は情報処理分野を対象にした研究は盛んに行われている.しかしながら,一部の医学・基礎医学分野以外には他分野の専門用語抽出の研究は見当たらない.予備研究によって,病気の症状や治療法を表す専門用語が情報検索分野における代表的な専門用語の抽出方法では抽出が難しいことが判明した.そこで,専門用語になりうる品詞の組合せの拡張と一般的な語を除去することで専門用語抽出の性能改善を図った.以下,2章で従来研究とアプローチについて述べ,3章で提案手法,4章で実験及び評価,5章で考察と今後の課題について述べる.
\section{従来研究とアプローチ}
\subsection{従来研究}用語には1単語から構成されるものもあれば複数の単語から構成される複合語のものも存在する.例えば「専門用語抽出」は「専門」「用語」「抽出」の3つの単語から構成されている.多くの専門用語は,例のように複合語で構成されていることが多い.このような複合語を考慮した情報処理分野における専門用語抽出の研究の代表的なものに中川らの研究(中川2003)がある.中川らは名詞と一部の特殊な形容詞を単名詞として扱い,それら単名詞の出現頻度と連接頻度を用いた専門用語抽出方法とスコア付け方法を提案している.この提案手法は情報処理分野における専門用語抽出では高い性能を示している.しかしながら,著者らの予備実験(木浪2006)では,看護学分野における専門用語に中川らが専門用語の構成要素として許した形態素以外の形態素を含むものが多数存在するため,中川らの手法では良い性能を示せていない.複合語を構成する品詞の組合せに着目した従来研究として辻河らの研究(辻河2003)がある.辻河らは品詞の組合せを用いて専門用語を構築する場合に,名詞だけではなく接頭語・接尾語も対象とすることが抽出性能の向上に有効であるという結論を導き出している.複合語に着目した他の研究として,単語n-gramに対して連接コストを割り当てることで専門用語抽出を行う相澤らの研究(相澤2005)がある.相澤らの手法では以下の手順によって専門用語の抽出を行っている.はじめに,対象分野の既知の用語集合から構成語間の連接コストを求める.連接コストは,ある単語が専門用語の先頭に位置する確率,中間に位置する確率,末尾に位置する確率に基づき求められる.次に,算出された連接コストを元に値が小さい順に構成語を葉として追加して2分木を構成する.これら単語と連接コストによって構成され2分木の集合が依存木を構成し,この依存木から専門用語候補の抽出を行う.最後に,抽出された専門用語候補の非終端確率(門用語候補の前後に語が必要である確率)を求め,算出された確率が一定の閾値以下であれば専門用語であると判断するという手法である.相澤らの手法は非終端確率を用いることで専門用語ではない一般名詞や単名詞の除去を可能とする特徴を持つ.他方連接コストの計算に用いる重みを求めるため既知の用語集合を用いていることから,その用語集合に収録されていない新語が現れた場合,新語をどのように扱うのか不明確であるという問題がある.文書のテキストだけではなく作者情報を考慮することを特徴とする専門用語抽出の研究に立石らの研究(立石2006)がある.この研究は立石らの論文でも述べられているように,中川らの研究と比較してどちらが優れているという関係ではなく,相互に補完的な研究であると言える.他に,「テンプレート」を用いた情報抽出を行う研究として井上らの研究(井上2001)がある.井上らの手法では病名や診断機器,診断症例などに対して記述パターンや文中に共起する文字列について分析を行い,その分析結果を元に抽出すべき情報とその周辺の文字列の関係を記した「テンプレート」を用いて情報抽出を行っている.井上らの手法は単純な構文の文書中に表れる病名や診断機器に関する情報は良い抽出結果を得ているが,「抗癌剤と放射線を用いた…」や「化学療法や食事療法といった…」といった「AとB」「AやB」のように並列構造を持った文書など,テンプレートの抽出能力を超えた複雑な文書構造の場合の情報抽出は,再現率・適合率ともに50〜60{\%}と良い結果を得ていない.上記研究から,これまで現れていない新語や複雑な文書構造に対応するためには,複合語を専門用語の候補とみなし出現頻度と連接頻度を用いたランキング手法を用いた抽出方法である中川らの手法及び辻河らの手法が有力であることがわかる.但し,中川ら及び辻河らの手法はいずれも情報処理分野を対象としたものであり,他分野への適用可能性は不明である.\subsection{アプローチ}著者らは,上記研究の手法をベースに看護学分野の専門用語抽出方法を考案することとした.看護学分野の文献から専門用語を抽出する予備実験(木浪2006)を行った結果,以下の3つの問題が判明した.1つ目の問題は,看護学分野において従来研究で前提条件としている品詞の組合せでは抽出できない専門用語が多数存在している.例えば「破(動詞)骨(名詞)細胞(名詞)」のように動詞を含んだ専門用語などが存在する.2つ目の問題は,誤って抽出された一般的な用語が多数存在していることである.ここで言う「一般的な用語」とは,看護学分野で使用される用語ではあるが,看護学分野固有の用語ではなく日常生活においても広く利用される用語をいう.このような用語には「積極的,人間関係,価値観」などが含まれる.以上の事を踏まえ,本研究はそれぞれの問題別にアプローチを検討した.1つ目の問題については,専門用語の候補となりうる品詞の組合せを拡張することで専門用語抽出の再現率向上を図る.2つ目の問題については,一般的な語を除去することで専門用語抽出の適合率向上を図る.本論文では,再現率向上を優先し,それが低下しない範囲で適合率の向上を目指す.研究情報検索システムでは,検索キーワードが専門用語と判定された場合にその重みを大きくすることにより専門性の高い論文として選択することを考えている.それ故,専門用語をもれなく抽出すること,すなわち再現率の向上が重要となる.その一方,専門用語以外を誤って専門用語と判定してもその論文が選択候補から除去されることはなく,弊害はそれほど大きくないといえる.以上のことから,まず初めに再現率向上のルール導出によって再現率向上を行い,次に再現率を低下させずに適合率向上のためのルール導出を行うこととした.予備研究の結果,看護学分野の専門用語は日本語形態素のみで構成される専門用語の割合が多いことが判明した.英語形態素と日本語形態素の両方が含まれている専門用語(例:情報処理分野で言うと,ACID特性など),あるいは英語形態素のみで構成される専門用語を正しく抽出するには日本語のみに着目した提案手法は不適切となるが,そのような例は現時点ではそれほど多くない.従って,本研究では日本語の専門用語に着目して研究を行った.なお,3章以降で述べる「ルール」とは,専門用語になりうる品詞の組合せと,それら品詞を連接する条件を表す.
\section{提案手法}
\subsection{前提条件}\subsubsection{専門用語抽出環境}本章以降で用いる専門用語抽出対象となる文献(以降データセットと呼ぶ)の提供,正解となる専門用語集合(以降正解セットと呼ぶ)の作成は看護学の専門家である本学看護学研究科の社会人大学院生に依頼した.正解セットの作成方法について説明する.正解セットはもれなく全ての専門用語を含んでいることが望ましいことから,1つの文献に対して2人が専門用語の選択作業を行い,選択された2人分の専門用語の和集合を正解セットとした.依頼した文献(30文献)のうち,前半部分(16文献)を用いて提案手法によるルールの導出と洗練を行い,残り後半(14文献)を用いて提案手法の評価を行った.これ以降,前半を学習用データセット,後半を評価用データセットと呼ぶ.以下にデータセットの詳細を示す.学習用データセットは,1文献あたりの単語数は約9,000語,全正解単語数(専門用語)は2,587語である.評価用データセットは,1文献あたりの単語数は約5,600語,全正解単語数(専門用語)は4,711語である.なお,本研究に必要となる形態素解析器には「茶筌」version2.3.3,形態素解析辞書にはIPADICversion2.6.3を用いた.\subsubsection{専門用語抽出処理}\begin{figure}[b]\begin{center}\includegraphics{15-3ia1f1.eps}\end{center}\caption{専門用語抽出処理の流れと実行例}\end{figure}専門用語の抽出は形態素解析結果とルールを用いて行う.専門用語抽出処理の流れと実行例を図1に示す.図1の専門用語抽出処理の流れを説明する.文章入力(図1(a))として「看護学分野での専門用語抽出」という句が入力されたとする(図1(a$'$)).次に形態素解析(図1(b))が実行される.例では8つの形態素と品詞情報が得られる(図1(b$'$)).その次に形態素解析の結果として得られた品詞情報と専門用語を抽出するためのルールを用いて専門用語抽出を行う(図1(c)).例では,「看護」「学」「分野」の組合せである「看護学分野」(図1(c1$'$))と,「専門」「用語」「抽出」の組合せである「専門用語抽出」(図1(c2$'$))の2つが得られる.最後に専門用語が出力される(図1(d),(d$'$)).基本となるルールは,中川らの研究成果を実装したTermExtract(TermExtract2006)モジュールの品詞に,辻河らの研究で述べられている接頭語,接尾語を例外的に単名詞として扱うルールを追加したものを用いる.基本となるルールの全てを表1に示す.例における下線部は対応する品詞を示す.なお,ここで用いる品詞形態はIPA品詞形態に準拠している.\begin{table}[b]\caption{ルール一覧}\input{01table1.txt}\end{table}以下,連接条件について説明する.「無条件連接」とは「表1にあるいずれかの品詞が連続して現れなくても連接可能である」ことを表す.無条件連接以外の連接条件では,条件を満たす場合に形態素の前(あるいは後)の形態素と連接されて用語を構成する.条件を満たさない形態素は破棄される.なお,無条件連接と条件付連接の両方が適用可能である場合は,条件付連接を優先して形態素の連接を行う.以下に例を示す.\noindent例1)無条件連接:名詞--一般,名詞--サ変接続と連続した場合\vspace{1zw}\fbox{\parbox{33zw}{用語(名詞--一般)抽出(名詞--サ変接続);\par→どちらも無条件連接なので「用語抽出」という用語が構成される.}}\vspace{1zw}\noindent例2)条件付連接:名詞--一般,名詞--形容動詞語幹と連続した場合\vspace{1zw}\fbox{\parbox{39zw}{円錐(名詞--一般)小体(名詞--形容動詞語幹);\par\hangafter=1\hangindent=3zw→名詞--形容動詞語幹の次には連接対象が必要だが,連続していないため「小体」が破棄され「円錐」までが用語として抽出される}}\vspace{1zw}\subsection{再現率向上のためのルール導出手順}以下のサイクルの繰り返しにより,再現率を向上させるルールを導出する.\begin{itemize}\item[(i)]専門用語抽出システムにより専門用語抽出を行う.\item[(ii)]抽出できなかった専門用語を人手によって抽出する.\item[(iii)]抽出できなかった専門用語を形態素解析し,その用語を抽出可能とするルールの導出を行う\item[(iv)]導出されたルールの妥当性を後述する手順で評価する.\item[(v)]妥当性評価の結果が,品詞レベルで妥当なルールあるいは語レベルでは妥当なルールの場合は,それらのルールをルール集合に追加する.\end{itemize}例外を除いた全ての専門用語に関して(ii)から(v)の処理が行われるまで繰り返す.ここで言う例外とは形態素解析器の限界によって正しく形態素解析を行うことができない形態素(同綴異品詞)を含む専門用語のことを言う.例えば,「うつ病」の形態素解析を行うと「うつ(動詞)」「病(名詞)」となり,誤った形態素解析結果となる.ルールの妥当性は以下の手順で評価する.\begin{itemize}\item[(i)]品詞レベルでルールを適用した結果,再現率が向上し適合率が低下しないか評価する.再現率が向上し,適合率が低下しない場合,このルールは妥当とする.\item[(ii)]再現率が向上し,適合率が低下した場合,品詞レベルでルールを適用するのではなく特定の語を連接対象とする.特定の語は,その意味分類が看護学分野に関連した分野に属するものを選択する.具体的には,分類語彙表(国立国語研究所2004)の「医療・看護」「生理・病気など」「救護・救援」など看護学分野に関連した分類に属するものを選択する.\end{itemize}\subsection{適合率向上のためのルール導出手順}適合率の低下は一般用語を専門用語と認識することに起因することから,適合率向上のためには専門用語ではありえない用語の組み合わせルールを導出すると共に,一般用語を取り除くことが有効といえる.適合率を向上させるルールの導出は,以下のサイクルを繰り返すことにより行う.\begin{itemize}\item[(i)]専門用語抽出システムにより専門用語の抽出を行う.\item[(ii)]誤って抽出された語を人手によって抽出する.\item[(iii)]誤って抽出された語を形態素解析し,追加するルールの導出を行う.追加ルールは次の2種類のルールのいずれかである.専門用語の構成要素から特定の形態素を除外するルール,あるいは専門用語から特定の形態素の組合せを除外するルールである.\item[(iv)]仮にそのルールを追加した場合の再現率・適合率を評価し,再現率が低下せずに適合率が向上するのならば,ルール集合へのルールの追加を行う.\end{itemize}一般用語の除去については,専門用語は一般の人になじみが無い,つまり親密度が低いとの仮説に基づき,親密度の高い語を除去することにより実施した.具体的には,佐藤らの研究成果(佐藤2004)で得られた単語親密度が付与された語彙集合を用いて,一般用語を除去した.以下に佐藤らの研究について説明する.佐藤らは基本となる語彙集合から単語親密度を用いて基本語彙を選定する研究を行っている.ここで言う基本語彙とは,コミュニケーションや日常生活でもっとも普通に使用され,使用頻度が高い語彙のことを言う.単語親密度とは,単語に対する主観的ななじみの程度を示した尺度で,複数の被験者が1から7の7段階で評定した結果を平均化したものを言う.評定に用いる値はそれぞれ「1はなじみがなく,7はなじみがある」を示している.基本となる語彙の母集合には,時代や性差に左右されにくく普遍的な語彙が多数収録されている国語大辞典の見出し語を選択している.収録されている語彙数は成人の理解語数とされている48,000語の2倍程度である94,928語と十分な数が収録されている.基本的な語彙の選択にはこれら母集合に対し実験により単語親密度を付加し,得られた単語親密度が5以上の語彙を選択している.これは,従来研究によって成人の過半数が知っていると推定される理解語彙数,小学校修了時の理解語彙数,単語親密度が5以上の語彙数の3つにおいて語彙数の整合が取れていることから単語親密度が5以上の語彙を基本語彙候補としている.除去対象となる一般的な語は,単語親密度が5以上の語であれば「人間関係,価値観,医薬,コンピュータ」など28,445語,単語親密度が6以上の語は「積極的,時間,不安,性格」など4,523語である.\subsection{形態素解析手法の改善}形態素解析の結果得られた片仮名に関して,連続する片仮名を連接して1語とすることで形態素解析手法の改善を図る.\subsection{導出したルール}\subsubsection{再現率向上のためのルール}全部で8つのルールを導出した.特定の品詞を連接するルール,特定の語を連接するルール,変更したルールの3つに分類して説明する.\noindent1)特定の品詞を連接するルール\noindent1-1)名詞--副詞可能品詞が「名詞--副詞可能」で連接条件が「無条件連接」であるルールを追加した.ただし,連接対象として不要と判断した時相名詞などを含む形態素は連接対象から除外した.除外した全ての形態素を表2に示す.以下に本ルールが適用される専門用語の例を示す.下線部が対象の形態素である.他のルールに関しても対象の形態素に下線を付記する.\vspace{1zw}\fbox{\parbox{39zw}{急性腎\ul{前}性腎不全,鼓室形成\ul{術後}後遺症,\ul{産後}脚気,\ul{絶対}好気性菌,\ul{前後}十字靱帯損傷,\ul{時間}薬理学}}\vspace{1zw}\begin{table}[t]\caption{除外する名詞--副詞可能}\input{01table2.txt}\end{table}\noindent1-2)形容詞--自立アウオ段ガル接続品詞が「形容詞--自立」,細分類が「アウオ段--ガル接続」,連接条件が「無条件連接」であるルールを導出した.以下に本ルールが適用される専門用語の例を示す.\vspace{1zw}\fbox{\ul{暗}視野照明,炎症性\ul{硬}結,\ul{緩}速導入,\ul{狭}隅角緑内障,\ul{硬}膜下出血,\ul{多}剤耐性}\vspace{1zw}\noindent1-3)動詞--自立五段・ラ行体言接続特殊2品詞が「動詞--自立」,細分類が「五段・ラ行体言接続特殊2」,連接条件が「無条件連接」であるルールを導出した.以下に本ルールが適用される専門用語の例を示す.\vspace{1zw}\fbox{下顎\ul{切}創,外旋\ul{拘}縮,眼位性眼\ul{振},\ul{駆}散薬,\ul{散}腫,\ul{殺}真菌薬,\ul{粘}膿性,\ul{破}骨細胞}\vspace{1zw}\noindent2)特定の語を連接するルール\noindent2-1)副詞--一般品詞が「副詞--一般」で連接条件が「無条件連接」であるルールを導出した.ただし,語彙分類が生理・病気などに分類されている語と「的」で終わる語を連接対象とした.以下に本ルールが適用される専門用語の例を示す.\vspace{1zw}\fbox{\ul{極}低産体重児,\ul{早}発症,\ul{早}成,\ul{漸}深帯,\ul{漸}加}\vspace{1zw}\noindent2-2)名詞--非自立副詞可能品詞が「名詞--非自立」,細分類が「副詞可能」で連接条件が「無条件連接」であるルールを導出した.ただし,連接対象は「間」とした.ここで「間」の語彙分類が看護学分野に属するものではないにも関わらず連接対象とした理由を説明する.辻河らの研究(辻河2003)によって接辞を専門用語の構成要素としてみなすのが妥当であることが判明していること,「間」は接辞としての性質を有する語であることから「間」を連接対象とした.以下に本ルールが適用される専門用語の例を示す.\vspace{1zw}\fbox{\ul{間}質性肺炎,\ul{間}入性,\ul{間}擦疹,\ul{間}擦性湿疹}\vspace{1zw}\noindent2-3)動詞--自立一段連用形品詞が「動詞--自立」,細分類が「一段連用形」,連接条件が「前または後ろに連接対象が続いた場合のみ連接」であるルールを導出した.ただし,語彙分類が「医療」「救護・救援」に分類されている語のみを連接対象とした.以下に本ルールが適用される専門用語の例を示す.\vspace{1zw}\fbox{\ul{病診}連携,脈\ul{診},\ul{視}紫紅,\ul{視}束前核,低拍\ul{出}性,拍\ul{出}量}\vspace{1zw}\noindent2-4)名詞--数単体では専門用語としての意味を成さないため,連接条件を「前または後に連接対象が続いた場合のみ連接」であるルールを導出した.以下に本ルールが適用される専門用語の例を示す.\vspace{1zw}\fbox{\ul{二}次性高血圧症,\ul{四}段脈,\ul{一}次性脳幹外傷,膝蓋骨\ul{一}次中枢若年性骨軟骨症,\ul{三}色性色覚}\vspace{1zw}\noindent3)変更したルール\noindent3-1)名詞--形容動詞語幹,名詞--ナイ形容詞語幹該当品詞の次に連接対象が続かない専門用語が存在したため,連接条件を「無条件連接」へ変更した.以下に本ルールが適用される専門用語の例を示す.\vspace{1zw}\fbox{眼部外傷性色素\ul{沈着},胃腸機能\ul{異常},喀痰喀出\ul{困難},膵硬\ul{変},アウエル\ul{小体}}\vspace{1zw}\subsubsection{適合率向上のためのルール}適合率向上に寄与するルールを全部で11導出した.専門用語の構成要素から除外する形態素の導出,専門用語候補から除外する語の組み合わせの導出,一般的な語の除去,の3つに分類して示す.\noindent1)専門用語の構成要素から除外する形態素の導出専門用語の一部になりえない語を連接対象から除外するルールを導出した.\noindent1-1)名詞--一般に分類される「一つ〜九つ」を連接対象から除外した.\noindent1-2)名詞--接尾の中で専門用語として不要と判断された形態素「ごと」を除外した.\noindent\hangafter=1\hangindent=1zw1-3)専門用語の一部になりえない数詞と特定の助数詞(ヶ月,週間など)の組み合わせを除外した.以下に本ルールによって除外された一般用語例を示す.下線部が除外対象となった語である.以下のルールにおいても同様にルール適用箇所に下線を付与した.\vspace{1zw}\fbox{術後\ul{\mbox{1ヶ月}},\ul{\mbox{1週間}}服用,胸部食道癌\ul{\mbox{275例}}}\vspace{1zw}\noindent\hangafter=1\hangindent=1zw1-4)専門用語の一部になりえない特定の未知語(章節番号や箇条書きに使われる記号など)を連接対象から除外した.以下に本ルールによって除外された一般用語例を示す.\vspace{1zw}\fbox{\ul{\mbox{\maru{1}}}急性盲腸炎,\ul{\mbox{\maru{2}}}異染体,\ul{III}破骨細胞,\ul{iv}膵硬変}\vspace{1zw}\noindent2)専門用語候補から除外する語の組み合わせの導出抽出された複合語のうち,専門用語になりえない語の組み合わせを専門用語候補から除外した.各項目に例を示す.\noindent2-1)年代や区間を示すものを除外した.\vspace{1zw}\fbox{\ul{\mbox{0.01--9.95}},\ul{\mbox{1999--2006}}}\vspace{1zw}\noindent2-2)小数点を含む数値のみを除外した.\vspace{1zw}\fbox{\ul{10},\ul{0.1},\ul{1999},\ul{20061210}}\vspace{1zw}\noindent2-3)数値と特定の単位(kg,歳,回など)で構成されている語を除外した.\vspace{1zw}\fbox{\ul{\mbox{50\,kg}},\ul{\mbox{24歳}},\ul{\mbox{20回}}}\vspace{1zw}\noindent2-4)数式を表す語を除外した.\vspace{1zw}\fbox{\ul{\mbox{$0.1<x<9.1$}},\ul{\mbox{$y=2x+b$}}}\vspace{1zw}\noindent2-5)図表番号を除外した.\vspace{1zw}\fbox{\ul{\mbox{図1}},\ul{\mbox{表2-1}},\ul{\mbox{Fig.~a}},\ul{Table.~b-1}}\vspace{1zw}\noindent2-6)1文字で構成されている語は専門用語ではないとして除外した.\noindent3)単語親密度に基づく一般用語の除去抽出された複合語のうち,単語親密度が5以上の語を除去した.以下に除去した語の例を示す.\vspace{1zw}\fbox{\parbox{39zw}{\ul{国際的},\ul{積極的},\ul{プライバシー},\ul{コミュニケーション},\ul{ガイドライン},\ul{困難さ},\ul{価値観},\ul{不十分},\ul{人間関係}}}\vspace{1zw}
\section{実験及び評価}
\subsection{データセット}本学の看護学研究科の社会人大学院生から提供された看護学に関する文献の後半を評価用データセットとした.正解データセットは上記社会人大学院生が人手で作成した.\subsection{評価方法}中川らの手法である従来手法と,ルールの拡張と一般的な語の除去を行った提案手法の2つについて,再現率と適合率の観点から比較・評価を行った.ここで,再現率・適合率の計算に用いる「完全一致」「部分一致」という概念について説明する.「完全一致」とは抽出された専門用語に不要な語が連接されていないことであり,「部分一致」とは不要な語が連接されていることを言う.例として「情報検索数を数える」という文から専門用語を抽出する場合を考えてみる.上記句から専門用語を抽出する場合「\ul{情報検索}」が完全一致の専門用語であるのに対して「数」という名詞が誤って余分に連接された「\ul{情報検索}数」は部分一致の専門用語であるといえる.抽出された専門用語は研究情報検索システムにおいて検索キーワードの重み付けに使用される.不要な語が連接されている部分一致の専門用語であっても,検索キーワードと一致する部分を見つけ出し重み付けできることから,完全一致の専門用語だけではなく部分一致である専門用語も重要であるといえる.従って,再現率・適合率の計算においては完全一致,部分一致の両方について評価する.\subsection{実験結果}\begin{table}[b]\caption{実験結果}\input{01table3.txt}\end{table}表3に各手法の部分一致,完全一致における再現率・適合率を示す.全ての評価指標において提案手法が従来手法を上回っている.部分一致における再現率は83{\%}から96{\%}となり,ほぼもれなく専門用語を抽出可能となったと言える.部分一致における適合率は42{\%}から55{\%}となり,不要な語を大幅に除去可能となったと言える.
\section{考察と今後の課題}
\subsection{考察}従来研究と提案手法を比較する実験を行った結果,再現率と適合率の双方において部分一致の場合10{\%}以上の向上していることを確認した.次に各アプローチの分析結果と考察について述べる.\subsubsection{品詞の組合せの拡張に関する考察}まず再現率向上ルールを適用した結果の分析結果について述べる.表4のNo.2に再現率向上ルールを適用した結果を示す.ルールを適用することで部分一致では83{\%}から99{\%},完全一致では76{\%}から90{\%}となり,部分一致において専門用語をほぼもれなく抽出可能となったといえる.部分一致で抽出できなかった原因は,該当用語の構成要素に除去対象が含まれていたためである.具体的には連接対象外となっている語が含まれている「\ul{I}期腺癌」が抽出できなかった.\begin{table}[b]\caption{従来研究とルール拡張の比較}\input{01table4.txt}\end{table}完全一致において,約10{\%}抽出できていない専門用語が残存しているが,これは誤って不要な語が連接されたことに起因する.例として,「\ul{女性}レシピエント」「\ul{広範囲}孔脳症」のように不要な語が誤って連接されてしまうために完全一致の専門用語として抽出されていないものが存在した.このような語が完全一致における再現率低下要因の大部分を占めていた.この点に関しては,4.2で述べたように研究者情報検索では部分一致の専門用語でも十分対応可能であること,完全一致の再現率の向上を行うことで部分一致の再現率を低下させる可能性が高いことから,提案手法によって十分な再現率を得られていると言える.次に適合率向上ルールの適用結果の分析結果について述べる.表4のNo.3に再現率向上ルールと一般的な語の除去を除いた適合率向上ルールを適用した結果を示す.ルールを適用することで部分一致では37{\%}から41{\%},完全一致では27{\%}から30{\%}と不要な語が除去可能となっている.しかしながら,再現率を低下させずに適合率を向上させるという制約の下にルールを導出したにも関わらず,再現率が約0.1{\%}低下した.これは,適合率向上のためのルールを適用することで専門用語の構成要素が除去対象となり,抽出不可能となる専門用語が存在することに起因する.例として,専門用語である「10年生存率」では年月日を表す「10年」が除去され「生存率」だけが抽出されるため再現率が低下する.このような語は5語存在した.一方,完全一致における再現率では,約0.3{\%}向上した.これは誤って連接されていた不要な語が適合率向上ルールによって除去されることにより完全一致の専門用語が増加したことに起因する.例として,「3時間」という不要な語が連接された「\ul{\mbox{3時間}}急速静脈内投与」から時間を表す「3時間」が除去され,完全一致の専門用語「急速静脈内投与」が得られる.このような語が7語存在した.\subsubsection{単語親密度に基づく一般的な語の除去に関する考察}評価用データセット(品詞によるルール適用済み)に対して本処理を行った時の専門用語候補数の推移を図2に示す.同様に再現率および適合率の変化を図3に示す.\begin{figure}[b]\begin{minipage}[b]{176pt}\begin{center}\includegraphics{15-3ia1f2.eps}\end{center}\caption{専門用語候補の抽出数推移}\end{minipage}\hfill\begin{minipage}[b]{224pt}\begin{center}\includegraphics{15-3ia1f3.eps}\end{center}\caption{再現率--適合率グラフ}\end{minipage}\end{figure}ここで,図2および図3における親密度の境界値がnであるとは,「一般的な語」として用いた語彙集合における単語親密度が$n+1$以上7以下である語彙を専門用語候補から除去したことを意味する.言い換えれば,専門用語候補には単語親密度が1からnの単語しか残存しないということである.なお,$n=7$の場合は,専門用語候補から除去する「一般的な語」は無いものとする.図2から分かるように,境界値が5においてはほとんど専門用語しか残存していないことが分かる.図3において,単語親密度の研究結果を導入することにより適合率が向上したものの,部分一致における適合率は55{\%}とまだ改善の余地が残されている.除去できなかった1,933語のうち,統計用語が141語,「〜病院,〜先生,〜大学」といった固有名詞が127語,存在した.それ以外では,「医療水準,自己申告,謝辞,本論分」のような複合名詞や単名詞も看護関係では専門用語といえない用語が残ってしまった.これらの原因は,以下に起因する.・統計用語といった他分野の専門用語が含まれていた.・固有名詞は全て専門用語候補としていたが,専門用語と言えない固有名詞が存在した.・佐藤らが用いた語彙集に含まれていない一般的な語が存在した.統計用語に関しては統計用語集を利用することにより除去する.あるいは他の領域における専門用語抽出方法が確立されていれば,それを利用してその領域の専門用語を除去する.固有名詞に関しては,看護学分野に関係しない一般的な語に固有名詞が連接されている語は一般的な語として除去するルールを追加することが考えられる.佐藤らが用いた語彙集に含まれていない用語に関しては,語彙集の充実が待たれるところである.再現率に関しては,完全一致における再現率は82{\%}と改善の余地があるものの,部分一致における再現率は96{\%}と高い値を示しており,適合率を向上させながらほぼ全ての専門用語を抽出可能になったといえる.誤って除去してしまった4{\%}の語について述べる.親密度の境界を5とした場合,68種類78語の専門用語が誤って除去された.以下に誤って除去された専門用語の一部を示す.\vspace{1zw}\fbox{\parbox{39zw}{ぜん息,アレルギー,医師,炎症,下痢,解毒,患者,吸引,救命,血小板,抗生物質,更年期,高血圧,採血,酸素吸入,止血,治療,食生活,心電図,蛋白,肺がん,肺炎,貧血,副作用}}\vspace{1zw}親密度の境界を6とした場合,10種類16語の専門用語が誤って除去された.以下に誤って除去された専門用語の一部を示す.\vspace{1zw}\fbox{アレルギー,医師,患者,高血圧,死亡,治療,食生活,診断,入院,輸血}\vspace{1zw}専門用語が誤って除去された事は,全ての看護専門用語が馴染みのない親密度の低い語ではないことを意味している.つまり,看護は生活の一部であり,一部の専門用語は日常生活の中で利用されているということである.図3において,適合率は親密度境界値が1から5までほとんど低下しないが,再現率は親密度境界が低くなるに従い少しずつ低下しており,適合率のような急激な変化は見られない.この違いも,専門用語が全て馴染みのない親密度の低い語ではないことに起因していると考えられる.親密度が一定以下(ここでは親密度境界=5)の語は,前述の統計用語や固有名詞などを除けば専門用語である確率が高い.一方,専門用語が全て親密度の低い訳ではないことから,親密度境界値が低くなるに従い少しずつ看護の専門家だけに通用する用語になっていくためと考えられる.\subsection{今後の課題}日本語に着目して専門用語抽出法では,英語形態素を含んだ専門用語を抽出できない.英語形態素を含んだ専門用語数を調査したところ,学習用データセットにおいて12.2{\%}(317語/2,587語),評価用データセットにおいて13.7{\%}(290語/2,123語)と専門用語全体の10{\%}を超えており,多いとは言えないが英語形態素を含んだ専門用語についても抽出技法を確立することが望まれる.また,専門用語といえない固有名詞が存在することが確認された.これに関しては,新たなルールを追加することが望ましい.
\section{まとめ}
本論文では専門用語になりうる品詞の組合せを拡張することにより看護学分野における専門用語抽出の再現率の向上を図った.更に単語親密度の研究と組み合わせることで適合率の向上を図った.再現率向上においては,専門用語抽出のルールに連接可能な品詞の追加および特定の語の追加と,連続する片仮名を連接して1語とする形態素解析手法の改善によって看護学分野における専門用語抽出の再現率が99{\%}とほぼ全ての専門用語を抽出可能となった.適合率向上においては,専門用語の構成要素としない語を除去するルールを追加することで再現率を低下させずに適合率を向上させることができた.更に単語親密度5以上の語彙(基本語彙)を除去するルールにより,再現率が99{\%}から96{\%}と僅かに低下したものの適合率は41{\%}から55{\%}と大幅に向上した.今後の課題として,英語を含んだ専門用語抽出技法,専門用語でない固有名詞を除去する技法を確立することが望まれる.\acknowledgment本研究は,岩手県学術研究振興財団研究費補助金及び岩手県立大学全学プロジェクト等研究費の助成を受けて行ったものである.本研究で用いた実験データの提供や専門用語判定作業を行って頂いた岩手県立大学看護学研究科の大学院生の皆様にはこの場を借りて深く感謝する.\begin{thebibliography}{}\item相澤彰子,野末道子,今尚之,坂本真至,中渡瀬秀一(2005).土木関連用語辞書の見出し語の分析と検索システムにおける活用に関する考察.情報処理学会研究報告,自然言語処理研究会,\textbf{169}(19),pp.~131--138.\item井上大悟,永井秀利,中村貞吾,野村浩郷,大貝晴俊(2001).“医療論文抄録からのファクト情報抽出を目的とした言語分析.”自然言語処理,\textbf{141}(17),pp.~103--110.\item木浪孝治,池田哲夫,高山毅,武田利明(2006).品詞の組合せの拡張による看護学分野での専門用語抽出再現率の改善.情報処理学会データベースシステム研究会電子情報通信学会データ工学専門委員日本データベース学会共催夏のデータベースワークショップDBWS2006,Vol.~2006,No.~78,pp.~313--320.\item国立国語研究所(2004).国立国語研究所資料集14「分類語彙表増補改訂版」,大日本図書.\item中川裕志,森辰則,湯本紘彰(2003).“出現頻度と連接頻度に基づく専門用語抽出.”自然言語処理,\textbf{10}(1),pp.~27--45.\item奈良先端科学技術大学院大学自然言語処理学講座,日本語形態素解析器ChaSen,http://ChaSen.naist.jp/hiki/ChaSen/.\item佐藤浩史,笹原要,金杉友子,天野成昭(2004).“単語親密度に基づく基本的語彙の選定.”人工知能学会論文誌,\textbf{19}(6),pp.~502--510.\item立石健二,久寿居大(2006).複数の作成者情報付き文書から専門用語抽出.情報処理学会論文誌データベース,Vol.~47,No.~SIG8,pp.~24--32.\itemTermExtract(2006).「茶筅」用モジュール``Chasen.pm''の説明,http://gensen.dl.itc.u-tokyo.ac.jp/doc/Chasen.html.\item辻河亨,吉田稔,中川裕志(2003).“語彙空間の構造に基づく専門用語抽出.”情報処理学会研究報告,自然言語処理研究会,\textbf{159}(22),pp.~155--162.\end{thebibliography}\begin{biography}\bioauthor{木浪孝治}{2005年岩手県立大学ソフトウェア情報学部卒業.2007年同大学院修士課程修了.修士(ソフトウェア情報学).同年,(株)日立製作所入社.DBMSの設計開発に従事.}\bioauthor{池田哲夫(正会員)}{1981年東京大学大学院情報科学専攻修士課程修了.同年日本電信電話公社入社.岩手県立大学教授を経て2006年静岡県立大学教授.情報検索,GIS等の研究に従事.博士(工学)(東京大学).}\bioauthor{村田嘉利}{1979年名古屋大学大学院修了.同年日本電信電話公社入社.2003年静岡大学理工学研究科後期博士課程修了.博士(工学).2006年から岩手県立大学ソフトウェア情報学部教授ならびにNiCT研究員.データベース応用の研究に従事.}\bioauthor{高山毅}{1966年生.1995年筑波大学大学院博士課程工学研究科電子・情報工学専攻修了.博士(工学).現在,岩手県立大学ソフトウェア情報学部准教授.データベース応用システムの研究開発に従事.情報処理学会会員.}\bioauthor{武田利明}{1979年千葉大学看護学部看護学科卒業.1982年同大学院修士課程修了.同年,帝人(株)入社,1994年医薬開発研究所主任研究員,獣医学博士,現在,岩手県立大学看護学部教授.専門は基礎看護学,看護技術に関する実証的研究に従事.}\end{biography}\biodate\end{document}
| |
V02N04-04 | \section{まえがき}
本論文では,話者の対象認識過程に基づく日本語助詞「が」と「は」の意味分類を行ない,これを,一般化LR法に基づいて構文解析するSGLRパーザ(沼崎,田中1991)の上に実装する.さらに,助詞「を」と「に」についても意味分類を行ない,パーザに実装する.そして,これらの意味分類の有用性を実験により確認した結果について述べる.話者の対象認識過程とは,話者が対象を認識し,それを言語として表現する際に,対象を概念化し,対象に対する話者の見方や捉え方,判断等を加える過程のことをいう.本研究の新規性は,次の3点である.1.三浦文法に基づいて,日本語の助詞「が」と「は」の意味規則,及び,「を」と「に」についての意味分類を考案したこと.2.この規則の動作機構をPrologの述語として記述し,日本語DCGの補強項に組み込んだこと.3.その規則をSGLRパーザに載せ,構文解析と意味解析の融合を図り,それにより,構文的曖昧性を著しく削減できることを示したことである.関連する研究としては,(野口,鈴木1990)がある.そこでは,「が」と「は」の用法の分類を,その語用論的機能と,聴者の解釈過程の特徴とによって整理している.本研究との相違は,(野口,鈴木1990)が聴者の解釈過程を考慮した分類であるのに対し,本研究では,話者の対象認識過程を考慮した分類である点,および,本研究がパーザへの実装を行なっているのに対し,(野口,鈴木1990)は,これを行なっていない点である.以後,2章では言語の過程的構造,3章では助詞「が」と「は」の意味分析,4章では助詞「が」と「は」のコア概念について述べる.5章では,助詞「が」と「は」の意味規則,および,助詞「を」と「に」の意味規則について述べる.6章ではパーザの基本的枠組,7章では試作した文法と辞書について述べる.8章ではSGLRパーザの実装について述べ,実験結果を示す.そして,9章では結論を述べる.
\section{言語の過程的構造}
言語にはそれが生成される過程がある.例えば,人が町中を歩く際に,見えるものを表現するとする.この際に,生成される言葉は,人により千差万別であろう.この理由は,話し手が語る言葉が,彼が見たものを全て含んではいないことによる.また,同じものに着目しても,人によりその捉え所が異なり,別々の表現になることもある.このように,言語表現は,万人に共通する対象のあり方がそのまま表現されているわけではなく,対象のあり方が話し手の認識(対象の見方,捉え方,感情,判断,意志)を通して,表現されているのである.しかしながら,その表現に内在する普遍的な情報を分析する試みが,時枝誠記の言語過程説・時枝文法(時枝1941,1950)および,これを発展的に継承した三浦つとむの三浦文法(三浦1967a,1967b,1972,1975,1976)に提唱されている.時枝は彼の言語過程説において,文の主体的表現と,客体的表現の違いを分析している.三浦は,これを継承しつつ,意味は表現自体が持っている客観的な関係であるとした関係意味論を提唱し,それに基づく新しい日本語の文法,三浦文法を提案した.三浦文法は,細部についての分析が及んでいない部分もあるが,本研究では,これに基づいて日本語の文法を作成し,DCG形式で表現している.以下では,三浦文法を概観してみる.\subsection{主体表現と客体表現}時枝の言語過程説によれば,言語表現は以下のように主体的表現(辞)と客対的表現(詞)に分けられ,文は,辞が詞を包み込むようにして構成された句を,別の句が重層的に包み込んだ入れ子型構造(図\ref{fig:ireko}参照)で表される.\begin{itemize}\item客体的表現:\\話者が対象を概念化して捉えた表現で,日本語では,名詞,動詞,形容詞,副詞,連体詞,接辞で表される.主観的な感情や意志などであっても,それが話者の対象として捉えられたものであれば概念化し,客体的表現として表される.実体,属性,関係からなる対象のうち,実体を概念化したものが名詞である.\item主体的表現\\話者の主体的な感情,要求,意志,判断などを直接表現したものであり,日本語では,助詞,助動詞(陳述を表す零記号,すなわち,図\ref{fig:ireko}に示す記号φのように肯定判断を表し,表現としては省略された助動詞を含む),感動詞,接続詞,陳述副詞で表される.\end{itemize}\begin{figure}\begin{picture}(300,40)(-100,30)\put(15,35){\framebox(175,40){}}\put(20,40){\framebox(40,30){梅}}\put(60,43){\framebox(20,24){の}}\put(85,40){\framebox(40,30){花}}\put(125,43){\framebox(20,24){が}}\put(150,40){\framebox(40,30){咲く}}\put(190,43){\framebox(20,24){φ}}\end{picture}\caption{句の入れ子型構造}\vspace*{-1mm}\label{fig:ireko}\end{figure}\vspace*{-0.5mm}
\section{助詞「が」と「は」の意味分析}
\vspace*{-0.5mm}日本語の格助詞「が」,副助詞・係助詞「は」の意味解釈については,多くの国語学者・言語学者により論じられており,既に種々の学説が提案されている.例えば,久野は図\ref{fig:kuno}に示すように,「は」を主題と対照に,「が」を中立叙述と総記と目的格に分け,新情報/旧情報という観点から「が」と「は」の相違を論じている(久野1973).しかし,従来の学説の主な論点は,主題/主格,新情報/旧情報などといった点にとどまっており,話者の対象認識過程まで踏み込んだ議論はあまりされていない.池田は,認知的な観点から,「は」が「その発話の対象世界が何であるかを指し示すものである」のに対して,「が」は「対象世界について叙述する際の着目対象を指すもの」という説明原理に基づいて説明することを試みている(池田1989)時枝の言語過程説(時枝1941,1950)を発展的に継承した三浦の助詞論(三浦1967b,1972,1975,1976)によれば,助詞は用言に対する実体の関係(格関係など)を示すだけでなく,実体に対する話者の捉え方をも表す.以下では,このような観点から,格助詞「が」,および副助詞・係助詞「は」を対象に話者の対象認識過程からみた意味分析を行ない,核となる概念(コア概念)を明らかにする.さらに,「は」や「が」を使い分けることによって生ずる微妙なニュアンスの違いをも解析できるようなより高度な日本語文の意味処理を実現するための助詞「は」「が」に関する分類規則を作る.\begin{figure}\hspace*{10mm}主題(総称):鯨\underline{は}ホニュウ類です.\\\hspace*{10mm}主題(文脈指示):太郎\underline{は}学生です.\\\hspace*{10mm}対照:雨\underline{は}降っていますが雪\underline{は}降っていません.\\\hspace*{10mm}中立叙述:雨\underline{が}降っています.\\\hspace*{10mm}総記:太郎\underline{が}学生です.\\\hspace*{10mm}目的格:僕は花子\underline{が}好きだ.\caption{助詞「は」と「が」の用法(久野)}\vspace*{-1mm}\label{fig:kuno}\end{figure}\subsection{三浦文法による助詞の扱い}言語表現には万人に共通する対象のあり方がそのまま表現されているわけではなく,対象のあり方が話者の認識(対象の見方,捉え方,話者の感情・意志・判断など対象に立ち向かう話者の心的状況)を通して表現されている.すなわち,言語は対象-認識-表現の過程的構造を持つ.ここで,意味とは「音声や文字に結び付き固定された対象と認識との間の関係」であり,言語表現そのものに客観的に存在する.語は表現されて初めて意味(関係)を生じるのであり,対象や認識は意味を構成する実体である.言語表現は,話者が対象を概念化して捉えた客体的表現(詞)と話者の主観的な感情・要求・意志・判断などを直接的に表現した主体的表現(辞)に分けられる.日本語文は詞が辞を伴って入れ子を構成していく,入れ子構造モデルとして捉えられる.助詞は辞であり,対象(実体)に立ち向かう話者の立場を直接表現する.助詞のうち,実体のあり方の認識を表すのが格助詞,認識に対する陳述の要求を表すのが係助詞,実体や認識に対する観念的前提の付加を表すのが副助詞である.格助詞「が」は実体の個別性,係助詞「は」は実体の普遍性,副助詞「は」は実体の特殊性を表す.\vspace*{-0.5mm}
\section{助詞「が」「は」のコア概念}
\vspace*{-0.5mm}一般に対象は複雑な構造と多様な属性を持ち,その数は数えきれない.このような性質を持つ対象を有限な能力で認識するには,種々の捨象が行なわれる.すべての対象はそれ自身を他と区別する特徴を持つと同時に何らかの共通性を持つ.この個別性と普遍性は相対的なものであり,認識者の視点によって相互に入れ替わる.ここで,対象の個別性に着目すれば,対象は具体的に取り上げられ,普遍性に着目すれば対象の個別的側面は捨象されて抽象化が行なわれる.\subsection{助詞「が」のコア概念}格助詞「が」は,対象(実体)の個別的側面に着目して,その時その時の実体のあり方を個別的・具体的に取り上げることを表す.例えば,「鳥が飛ぶ」においては,認識者の目前にいる「鳥」という種(クラス)に属する個体(インスタンス)としての「鳥」を取り上げている.久野の中立叙述は,この用法にあたる.また,クラスとしての「鳥」も,より抽象化された上位概念であるクラスとしての「動物」から見れば,個別的・具体的に取り上げたことになる.特殊な文脈において,今話題にのぼっている動物の中で,「鳥だけ(こそ)飛ぶ」という意味で,「鳥が飛ぶ」と表現する場合にも,実体の個別性を表す格助詞「が」が使われる.この場合は個別性が特に強調され,実体の限定性・排他性を表すようになる.久野の総記や目的格は,このような用法にあたる.格助詞「が」は,従来,新情報や主格を表すと言われている.しかし,新情報は,性質上個別に取り上げる必要があるから,また,主格は用言に必須のものとしてやはり個別に取り上げる必要があるから,それぞれ「が」が使われると考えるべきである.また,「が」は主格以外にも使われることは,久野が「が」の用法として目的格をあげていることからも明らかであろう.さらに,池田の「対象世界の中で着目するもの」は,当然個別に取り上げる必要があるため,「が」が使われると考えられる.\subsection{助詞「は」のコア概念}係助詞「は」は,対象の普遍的側面に着目して,いつも替わらない実体のあり方を普遍的・抽象的に取り上げることを表す.例えば,「鳥は飛ぶ」においては,インスタンスとしての「鳥」ではなく,クラスとしての「鳥」を取り上げている.久野の主題(総称)は,このような用法にあたる.副助詞「は」は,対象を他の実体と比較してその特別なあり方,すなわち実体の特殊性を取り上げることを表す.通常,ある観念的前提が存在する.例えば,「昨日は遅刻した」においては,「いつもは遅刻しない」という観念的前提が存在しており,「遅刻する」という観点から見た「今日,一昨日,\ldots」と比較した「昨日」の特殊性を取り上げている.また,特殊な文脈において,今話題にのぼっている動物の中で,「他のものと異なり鳥こそ飛ぶ」という意味で,「鳥は飛ぶ」と表現する場合にも,実体の特殊性を表す副助詞「は」が使われる.この場合,実体の限定性・排他性を表す「鳥が飛ぶ」と類似な表現であるが,「が」を用いた場合に比べて,排他性はあまりない.久野の主題(文脈指示)は上記のような用法に当たる.さらに,「雨は降っているが雪は降っていない」では,「雨」のときは「雪などそれ以外の天候」ではなく,「雪」のときは「雨などそれ以外の天候ではないことを意識して,相互前提において両者(「雨」と「雪」)の特殊性を取り上げている.この相互前提から対照の意味が生ずる.久野の対照は,このような用法にあたる.副助詞・係助詞「は」は,従来,旧情報や主題を表すと言われている.しかし,実体の普遍的側面(例えば,クラスとしての鳥の概念)は,誰でもが共通の知識としてもっている既知の情報,すなわち旧情報である.また,実体の特殊的側面は,話者と聞き手の間で対象の比較対象となる実体や観念的前提とともに知識を共有していて始めて理解できる旧情報である.このような旧情報を「は」で取り上げ,それらについて叙述する,すなわち新情報を付加することにより主題の意味を生じるのである.さらに,池田の「対象世界が何であるか指し示すもの」は,「は」が主題を示すことを別な表現で述べたものと言える.
\section{助詞の意味分類}
\subsection{助詞「が」と「は」の意味規則}\label{sec:gatoha}三浦文法に基づく助詞「が」と「は」の意味規則の要点は次の通りである.まず,意味を「音声や文字に結び付き固定された対象と認識との間の関係」即ち,対象と認識との間の関係と定義した上で,助詞「が」と「は」に前接する名詞の3つの範疇(クラスとインスタンスを表す範疇N1,インスタンスを表す範疇N2,クラスを表す範疇N3)に対して助詞「が」と「は」の意味分類を次のように定義している.\\[N1+が]前接する名詞が目的格の場合,N1をN3と捨象し限定性.\\~例:酒が好きだ./水が飲みたい.\\前接する名詞が総記の場合,N1をN3と捨象し限定性.\\~例:燕が鳥だ./子供がかかりやすい.\\上記以外の場合,N1をN2と捨象し個別性.\\~例:鳥が飛ぶ./雪が白い./犬がいる.\\[N1+は]存在文の場合,N1をN3と捨象し特殊性.\\~例:犬はいる./本はある.\\前接する名詞が対照の場合,N1をN3と捨象し特殊性.\\~例:月は東に日は西に.\\前接する名詞が目的格の場合,N1をN3と捨象し特殊性.\\~例:酒は好きだ./水は飲みたい.\\上記以外の場合,N1をN3と捨象し普遍性.\\~例:鳥は飛ぶ./雪は白い./燕は鳥だ.\\[N2+が]限定性.~例:太郎が学生です.\\[N2+は]特殊性.~例:太郎は学生です.\\[N3+が]限定性.~例:鳥類がハチュウ類から進化した.\\[N3+は]普遍性.~例:鳥類はハチュウ類から進化した.\subsection{助詞「を」と「に」の意味分類}\label{sec:wotoni}助詞「を」と「に」のコア概念については,三浦文法(三浦1967b,1972,1975,1976)に準拠している.すなわち,「を」は,実体と属性との動的な目標としての関係付けを行ない,「に」は,実体と属性との静的な目標としての関係付けを行なう.意味分類は,助詞に前接する名詞あるいは,他の品詞の上位概念により,「を」を4つ,「に」を5つに分けることにした(森岡,徳川,川端,中村,星野1993).\\[場所+を]場所.~例:鳥が空を飛ぶ.\\[時+を]時.~例:この宿で夜を過ごす.\\[行為+を]行為.~例:彼は仕事をする.\\[上記以外+を]動的対象.~例:白い上着を着る.\\[場所+に]場所.~例:並木の道に雨が降る.\\[時+に]時.~例:三時に会いました.\\[様態+に]様態.~例:左右に揺れる.\\[行為+に]目的.~例:忘れ物を取りに帰る.\\[上記以外+に]静的対象.~例:あなたに渡すものがある.
\section{パーザの基本的枠組}
次に話者の対象認識過程を分析するパーザの基本的枠組について記述する.\\・文法規則はDCG形式とする.\\これは,我々がSGLRパーザ(後述)を使用していることによる.\\・DCGの記述はチョムスキー標準形に準ずる.\\チョムスキー標準形は,文法に意味制約を加えることとの整合性が良い.すなわち,規則右辺の非終端記号が2つのみ存在するという点が,二つの要素を意味分類して,一つの結果を作るという枠組を導入でき,構文解析と,意味解析の融合を図ることができる.\\・全ての名詞に(引数として)N1,N2,N3,N4,N51,N52の分類(ただし,N4は動作名詞,N51は目的格をとる状態名詞,N52は目的格をとらない状態名詞を表す.)と,上位概念を与える.\\上位概念としては,助詞「を」と「に」の意味分類に適合するものとして,人,動物,物,場所,時,表現,行為などを割り振る.\\・全ての助詞,助動詞に(引数として)その語を与える.\\・全ての動詞に,上位の意味概念を与える.(宮崎,高橋1993)の意味分類では用いられないものも含む.\\・意味分類は補強項で行なう.\\これは,DCG形式の要請によるものである.SGLRパーザは,これにより,意味解析と構文解析を融合して行なう.\\・構文解析と意味分類を同時に進める.\\・意味分類の同定は,トップレベルの規則で呼び出す.\\・構文的曖昧性がある場合は,曖昧な個々の解析に意味分類を与える.これにより,構文的曖昧性を,意味分類を通して,削減できる可能性が生ずる.\\・話者の対象認識過程は,構文木の客体判断である詞と,主体判断である辞として取り出す.さらに,助詞「が」と「は」の用法の分類として,話者の対象に対する見方を抽出する.
\section{文法と辞書の試作}
以上に基づき試作した簡易版の文法と辞書を図\ref{fig:gram},図\ref{fig:dict}に示す.文法と辞書はDCG形式に従っており,補強項のプログラム呼び出しにより,意味処理を行なう.補強項のプログラムは図\ref{fig:augmentation}に示した.これをSGLRパーザに実装することにより,構文解析を行なう.パーザの動作はボトムアップに情報を組み立てていく.これにより,情報は引数として与えられた変数を通し,木の末端のカテゴリから上位のカテゴリに向かって流れる.文法は,おおむね三浦文法の形式に従っている.特に,零判断辞というものを,導入している点は,従来のものと異なる.零判断辞は,話者の主体的判断を示す重要な要素である.これについては,実験例で説明する.また,辞書の各項目には,引数として,意味的情報が付加されている.以下,補強項のプログラムについて説明する.``分類''は,後置詞句における,助詞の意味分類を行なう.''同定''は,話者の対象認識過程の認識を呼び出す.''認識''では,\ref{sec:gatoha},\ref{sec:wotoni}に示した意味分類規則に従って,助詞の役割を分類する.''認識''の第一引数において,助詞の種類と名詞の分類に応じ,第六引数に分類の結果を返す.''述部''は,認識の際に,述語の情報を必要とする時,それを呼び出すものである.\newpage\begin{figure}[htb]\footnotesize\verb|文法:|\\\begin{minipage}[t]{.48\textwidth}\begin{verbatim}文(S)-->文(S1),文(S2),{同定1(S1,S2,S)}.文(S)-->詞(P),辞(D),{同定(P,D,S)}.詞(S)-->後置詞句(P),動詞(V),{結合(P,[述語(V)],S)}.詞(S)-->後置詞句(P),名詞(N),{結合(P,[述語(N)],S)}.詞(S)-->後置詞句(P),形容詞(A),{結合(P,[述語(A)],S)}.詞(S)-->後置詞句(P1),形式動詞句(P2),{結合(P1,[述語(P2)],S)}.詞(S)-->後置詞句(P),仮定動詞(V),{要素(指示格(_),P),結合(P,[述語(V)],S)}.後置詞句(P)-->後置詞句(P1),後置詞句(P2),{結合(P1,P2,P)}.後置詞句(P)-->動詞(A),助詞(ni),{分類([A,ni],P)}.後置詞句(P)-->名詞(A),助詞(D),{分類([A,D],P)}.\end{verbatim}\end{minipage}\begin{minipage}[t]{.48\textwidth}\begin{verbatim}後置詞句(P)-->名詞句([S,A]),助詞(D),{分類([A,D],P0),結合(S,P0,P)}.後置詞句(P)-->形容詞(A),辞0(D),{分類([A,D],P)}.名詞(P)-->代名詞(N),名詞(P).名詞句([S,P])-->文(S),名詞(P),{述部(S,行為)}.形式動詞句([n4,V])-->名詞([n4,_]),形式動詞(V).仮定動詞(存在)-->[].辞0(φ)-->[].辞(D)-->辞0(D).辞(da)-->助動詞(da).辞(masu)-->助動詞(masu).辞(ADJ)-->形式形容詞(ADJ),辞0(D).辞([masu,ta])-->助動詞(masu),助動詞(ta).辞(X)-->辞0(D),助動詞(X),{X==ta;X==tai;X==nai;X==darou}.\end{verbatim}\end{minipage}\normalsize\caption{試作した日本語文法}\label{fig:gram}\end{figure}\begin{figure}[htb]\footnotesize\verb|辞書:|\\\begin{minipage}[t]{.32\textwidth}\begin{verbatim}名詞([n1,動物])-->[鯨].名詞([n1,物])-->[雨].名詞([n1,物])-->[酒].名詞([n1,物])-->[水].名詞([n1,場所])-->[東].名詞([n1,場所])-->[道].名詞([n1,物])-->[上着].名詞([n1,物])-->[忘れ物].名詞([n2,人])-->[僕].名詞([n2,人])-->[花子].名詞([n2,時])-->[夜].名詞([n3,動物])-->[鳥類].名詞([n4,様態])-->[進化].名詞([n51,感情])-->[好き].代名詞(kono)-->[この].助詞(ga)-->[が].助詞(wo)-->[を].助詞(de)-->[で].助動詞(da)-->[です].助動詞(ta)-->[た].助動詞(masu)-->[ます].動詞(現象)-->[かかり].動詞(現象)-->[降る].動詞(行為)-->[飲み].動詞(行為)-->[行く].動詞(行為)-->[過ごす].動詞(行為)-->[揺れる].動詞(行為)-->[会い].動詞(存在)-->[ある].形式動詞(行為)-->[した].形式形容詞(程度)-->[やすい].\end{verbatim}\end{minipage}\begin{minipage}[t]{.32\textwidth}\begin{verbatim}名詞([n1,動物])-->[犬].名詞([n1,物])-->[本].名詞([n1,物])-->[月].名詞([n1,物])-->[花].名詞([n1,場所])-->[西].名詞([n1,動物])-->[燕].名詞([n1,物])-->[並木].名詞([n2,人])-->[私].名詞([n2,人])-->[あなた].名詞([n2,数])-->[三].名詞([n3,動物])-->[ホニュウ類].名詞([n3,動物])-->[ハチュウ類].名詞([n4,様態])-->[左右].名詞([n52,様態])-->[きれい].助詞(ha)-->[は].助詞(ni)-->[に].助詞(no)-->[の].助詞(kara)-->[から].助動詞(da)-->[だ].助動詞(tai)-->[たい].助動詞(masu)-->[まし].動詞(現象)-->[降って].動詞(行為)-->[飛ぶ].動詞(行為)-->[取り].動詞(行為)-->[着る].動詞(行為)-->[渡す].動詞(行為)-->[帰る].動詞(存在)-->[いる].形式動詞(存在)-->[い].形容詞(色)-->[白い].\end{verbatim}\end{minipage}\begin{minipage}[t]{.32\textwidth}\begin{verbatim}名詞([n1,人])-->[学生].名詞([n1,人])-->[子供].名詞([n1,物])-->[雪].名詞([n1,動物])-->[鳥].名詞([n1,場所])-->[空].名詞([n1,物,時])-->[日].名詞([n1,物])-->[もの].名詞([n2,場所])-->[宿].名詞([n2,人])-->[太郎].名詞([n2,時])-->[昨日].\end{verbatim}\end{minipage}\normalsize\caption{試作した日本語辞書}\label{fig:dict}\end{figure}\begin{figure}[htbp]\footnotesize\begin{verbatim}分類([[N|_],ha],[主題(N)]):-!.分類([[N|_],ga],[総記(N)]):-!.分類([[_,N|_],wo],[目的格(N)]):-!.分類([[_,N|_],ni],[指示格(N)]):-!.分類([V,ni],[指示格(V)]):-!.分類([N,to],[同位格(N)]):-!.分類([N,mo],[同主題(N)]):-!.分類([N,no],[所有格(N)]):-!.分類([X,Y],[その他(X,Y)]):-!.結合([],X,X):-!.結合([A|X],Y,[A|Z]):-結合(X,Y,Z).要素(X,[X|_]):-!.要素(X,[_|R]):-要素(X,R).同定([A|L],D,[B|R]):-同定([A|L],D,[0,0],[B|R]).同定([[]|L],D,F,R):-同定(L,D,F,R).同定([A|L],D,F,[A|R]):-A=[_|_],同定(L,D,F,R).同定([A|L],D,F,[B|R]):-認識(A,L,D,F,F1,B),同定(L,D,F1,R).同定([],_,_,[]).同定1(S,S,[対照,S]):-!.認識(総記(n1),L,da,[0,N],[1,N],[[N1→N3+が],総記,限定性]):-述部(L,[n1,_]).認識(総記(n1),L,da,[0,N],[1,N],[[N1→N3+が],目的格,限定性]):-述部(L,[n51,_]),!.認識(総記(n1),L,tai,[0,N],[1,N],[[N1→N3+が],目的格,限定性]):-述部(L,行為).認識(総記(n1),L,程度,[0,N],[1,N],[[N1→N3+が],総記,限定性]).認識(総記(n1),L,_,[0,N],[1,N],[[N1→N2+が],中立叙述,個別性]).認識(総記(n2),L,_,[0,N],[1,N],[[N2+が],総記,限定性]).認識(総記(n3),L,_,[0,N],[1,N],[[N3+が],総記,限定性]).認識(主題(n1),L,_,[N,0],[N,1],[[N1→N3+は],存在,特殊性]):-述部(L,存在).認識(主題(n1),L,da,[N,0],[N,1],[[N1→N3+は],目的格,特殊性]):-述部(L,[n4,_]).認識(主題(n1),L,da,[N,0],[N,1],[[N1→N3+は],目的格,特殊性]):-述部(L,[n51,_]).認識(主題(n1),L,tai,[N,0],[N,1],[[N1→N3+は],目的格,特殊性]).認識(主題(n1),L,_,[N,0],[N,1],[[N1→N3+は],総称,普遍性]).認識(主題(n2),L,_,[N,0],[N,1],[[N2+は],文脈指示,特殊性]).認識(主題(n3),L,_,[N,0],[N,1],[[N3+は],総称,普遍性]).認識(目的格(場所),L,_,F,F,[目的格,場所]):-!.認識(目的格(時),L,_,F,F,[目的格,時]):-!.認識(目的格(物),L,_,F,F,[目的格,動的対象]):-!.認識(目的格(動物),L,_,F,F,[目的格,動的対象]):-!.認識(目的格(人),L,_,F,F,[目的格,動的対象]):-!.認識(目的格(行為),L,_,F,F,[目的格,行為]):-!.認識(目的格(_),L,_,F,F,[目的格,動的対象]).認識(指示格(場所),L,_,F,F,[指示格,場所]):-!.認識(指示格(時),L,_,F,F,[指示格,時]):-!.認識(指示格(場合),L,_,F,F,[指示格,場合]):-!.認識(指示格(様態),L,_,F,F,[指示格,様態]):-!.認識(指示格(行為),L,_,F,F,[指示格,目的]):-!.認識(指示格(物),L,F,_,F,[指示格,静的対象]):-!.認識(指示格(動物),L,_,F,F,[指示格,静的対象]):-!.認識(指示格(人),L,_,F,F,[指示格,静的対象]):-!.認識(指示格(_),L,_,F,F,[指示格,静的対象]).認識(その他(_,_),L,_,F,F,[]).認識(所有格(_),L,_,F,F,[]).認識(述語(P),L,_,F,F,述語(P)).述部([述語(P)|_],P):-!.述部([A|L],P):-述部(L,P).\end{verbatim}\normalsize\caption{意味分類の規則}\label{fig:augmentation}\end{figure}\normalsize\clearpage
\section{パーザへの実装}
Prolog上に,DCG文法の形式により,話者の対象認識過程に基づく助詞の意味分類を示した.その際,ボトムアップに情報が流れるように記述している.この点は,SGLRパーザを使用するが故の文法の特殊性といえる.しかし,この文法は,他のDCGのボトムアップパーザにも適用できる文法であり,その意味で,文法には一般性があるといえる.\subsection{SGLRパーザについて}SGLRパーザ(沼崎,田中1991)は,Prolog上に構築された一般化LRパーザで,富田法に準ずる構文解析のアルゴリズムを持っている.その特徴は,構文解析で用いるスタックが複数生ずる場合,これを統合し,処理効率を上げていること,及び,DCG文法を用いることにより,構文解析と意味解析の融合を図れる枠組を提供していることである.上のような文法と辞書,及び,補強項のプログラムを用意すれば,SGLRのトランスレータが文法と辞書をボトムアップに動作するPrologプログラムに変換し,構文解析を行なうことができる.\subsection{実験結果}上記の文法,辞書,意味分類規則をSGLRパーザ上で動作させた結果を下に示す.\small\begin{verbatim}inputsentense:酒,が,好き,だ.酒,が,好き,だLength:4executiontime=0msec|-文|-詞||-後置詞句|||-名詞--酒|||-助詞--が||-名詞--好き|-辞|-助動詞--だArgumentInformation:[[[[N1→N3+が],目的格,限定性],述語([n51,感情])]]NumberofTreesare:1\end{verbatim}\normalsizeこの例は,「が」の解析結果として,「酒」が目的格になっており,N1のカテゴリが,N3のカテゴリに捨象されているこことを示している.また,客体的表現を''詞''として,主体的表現を''辞''として取り出している.この点と,捨象の判断において,話者の対象認識過程の実装に成功している.\small\begin{verbatim}inputsentense:月,は,東,に,日,は,西,に.月,は,東,に,日,は,西,にLength:8executiontime=60msec|-文|-文||-詞|||-後置詞句||||-後置詞句|||||-名詞--月|||||-助詞--は||||-後置詞句||||-名詞--東||||-助詞--に|||-仮定動詞--[]||-辞||-辞0--[]|-文|-詞||-後置詞句|||-後置詞句||||-名詞--日||||-助詞--は|||-後置詞句|||-名詞--西|||-助詞--に||-仮定動詞--[]|-辞|-辞0--[]ArgumentInformation:[[対照,[[[N1→N3+は],存在,特殊性],[指示格,場所],述語(存在)]]]NumberofTreesare:1\end{verbatim}\normalsizeこの文は,対照の文であることを示すと同時に,「東」と「西」が場所を示すことを表している.\small\begin{verbatim}inputsentense:鳥,が,空,を,飛ぶ.鳥,が,空,を,飛ぶLength:5executiontime=10msec|-文|-詞||-後置詞句|||-後置詞句||||-名詞--鳥||||-助詞--が|||-後置詞句|||-名詞--空|||-助詞--を||-動詞--飛ぶ|-辞|-辞0--[]ArgumentInformation:[[[[N1→N2+が],中立叙述,個別性],[目的格,場所],述語(行為)]]NumberofTreesare:1\end{verbatim}\normalsizeこの文は,「が」の中立叙述の用法であることを示し,「を」の解析において,「空」が場所であることを示している.また,文末に付加された「辞0」は,零判断辞といい,肯定の助動詞がそこに省略されていることを示している.\small\begin{verbatim}inputsentense:あなた,に,渡す,もの,が,ある.あなた,に,渡す,もの,が,あるLength:6executiontime=10msec|-文|-詞||-後置詞句|||-名詞句||||-文|||||-詞||||||-後置詞句|||||||-名詞--あなた|||||||-助詞--に||||||-動詞--渡す|||||-辞|||||-辞0--[]||||-名詞--もの|||-助詞--が||-動詞--ある|-辞|-辞0--[]ArgumentInformation:[[[指示格,静的対象],述語(行為),[[N1→N2+が],中立叙述,個別性],述語(存在)]]NumberofTreesis:1\end{verbatim}\normalsizeこの解析は,「が」の総記の用法であり,「あなた」が対象であることを示している.また,文末の辞0は,そこに肯定の助動詞が省略されていることを示している.上記のように本論文に記載した例文については,全て正しく意味分類がなされた.また,予想されていたことではあるが,構文的曖昧性も著しく減少することが判明した.例えば,「月は東に日は西に.」の文には,66通りの構文木が存在するが,意味制約によりそれが1つに絞られ,解析時間も4.5倍速くなっている.
\section{結論}
本研究では,DCG文法に基づいて,助詞「が」と「は」及び,「に」と「を」の意味分類を行なうパーザの基本的枠組を提案し,その有用性を実証した.話者の対象認識過程の分析について言えば,客体的表現と主体的表現を詞と辞の形で取り出す文法を試作した点と,主体的表現である助詞の意味分類をSGLRパーザ上に実装した点で,話者の対象の見方の抽出に成功したと言える.今後はさらに,話者の対象の捉え方や感情,判断,意志等を分類抽出する拡張が期待できる.さらに,パーザ自体も,三浦文法による形態素解析システム(高橋,佐野,宍倉,前川,宮崎1993)と結合し,三浦文法による本格的な統語意味融合型の文法を構築し,構文的曖昧性の意味制約を用いた解消の検討を行なう予定である.\acknowledgment最後に「は」と「が」の意味分析において御討論頂いたNTTコミュニケーション科学研究所の,池原悟,白井諭の両氏に感謝する.\nocite{Ikeda1989}\nocite{Kuno1973}\nocite{Miura1967a}\nocite{Miura1967b}\nocite{Miura1972}\nocite{Miura1975}\nocite{Miura1976}\nocite{Miyazaki1993}\nocite{Morioka1993}\nocite{Noguchi1990}\nocite{Numazaki1991}\nocite{Takahashi1993}\nocite{Tokieda1941}\nocite{Tokieda1950}\bibliographystyle{jtheapa}\bibliography{nls}\begin{biography}\biotitle{略歴}\bioauthor{沼崎浩明}1986年東京工業大学工学部情報工学科卒業.1988年同大学院修士課程修了.同年(株)三菱総合研究所入社.1989年東京工業大学大学院博士課程入学.1992年同大学院博士課程修了.日本学術振興会特別研究員.1993年より新潟大学工学部情報工学科助手.自然言語理解,対話システムなどの研究に従事.工学博士.1990年情報処理学会学術奨励賞受賞.電子情報通信学会,情報処理学会,各会員.1995年7月死去.\bioauthor{宮崎正弘}1969年東京工業大学工学部電気工学科卒業.同年日本電信電話公社に入社.以来,電気通信研究所において大型コンピュータDIPSの開発,コンピュータシステムの性能評価法の研究,日本文音声出力システムや機械翻訳などの自然言語処理の研究に従事.1989年より新潟大学工学部情報工学科教授.自然言語理解,機械翻訳,辞書・シソーラスなど自然言語処理用言語知識の体系化などの研究に従事.工学博士.1995年日本科学技術情報センター賞(学術賞)受賞.電子情報通信学会,情報処理学会,人工知能学会,各会員.\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V09N05-01 | \section{はじめに}
自然言語処理においてchunk同定問題(chunking)とは,単語列(一般にこれをtoken列とよぶ)をある視点からまとめ上げていき,まとめ上げた固まり(chunk)をそれらが果たす機能ごとに分類する一連の手続きのことを指す.この問題の範疇にある処理として,英語の単名詞句同定(baseNPchunking),任意の句の同定(chunking),日本語の文節まとめ上げ,固有名詞/専門用語抽出などがある.また,各文字をtokenとしてとらえるならば,英語のtokenization,日本語のわかち書き,品詞タグ付けなどもchunk同定問題の一種としてとらえることができる.一般に,chunk同定問題は,文脈から得られる情報を素性としてとらえ,それらの情報から精度良くchunkを同定するルールを導出する手続きとみなすことができる.そのため,各種の統計的機械学習アルゴリズムを適用可能である.実際に機械学習を用いた多くのchunk同定手法が提案されている\cite{Ramshaw95,Tjong_Kim_Sang2000a,Tjong_Kim_Sang2000b,Tjong_Kim_Sang2000d,内元00,Sassano00b}.しかしながら,従来の統計的手法は,いくつかの問題がある.例えば,隠れマルコフモデルや最大エントロピー(ME)モデルは素性どうしの組み合わせ(共起関係)を効率良く学習できず,有効な組み合わせの多くは人手によって設定される.また多く機械学習アルゴリズムは高い精度を得るために慎重な素性選択を要求し,これらの素性選択も人間の発見的な手続きにたよっている場合が多い.一方,統計的機械学習の分野では,Boosting\cite{Freund96},SupportVectorMachines(SVMs)\cite{Vapnik95a,Vapnik98}等の学習サンプルと分類境界の間隔(マージン)を最大化にするような戦略に基づく手法が提案されている.特にSVMは,学習データの次元数(素性集合)に依存しない極めて高い汎化能力を持ち合わせていることが実験的にも理論的にも明らかになっている.さらに,Kernel関数を導入するとこで,非線形のモデル空間を仮定したり,複数の素性の組み合せを考慮した学習が可能である.このような優位性から,SVMは多くのパターン認識の分野に応用されている.自然言語処理の分野においても,文書分類や係り受け解析に応用されており,従来の手法に比べて高い性能を示している\cite{Joachims99,平2000,kudo2000b,kudo2000c,工藤02}本稿ではchunk同定問題として,英語の単名詞句のまとめ上げ(baseNPchunking)および英語の任意の句の同定(chunking)を例にとりながら学習手法としてSVMを用いた手法を述べる.さらに,chunkの表現方法が異なる複数の学習データから独立に学習し,それらの重み付き多数決を行うことでさらなる精度向上を試みる.その際,本稿では,各モデルの重みとしてSVMに固有の新たな2種類の重み付けの手法を提案する.本稿の構成は以下の通りである.2章でSVMの概要を説明し,3章で一般的なchunk同定モデルおよびSVMの具体的な適用方法,重み付け多数決の方法について述べる.さらに4章で実際のタグ付きコーパスを用いた評価実験を提示し,最後に5章で本稿をまとめる.
\section{SupportVectorMachine}
\subsection{最適分離平面}分類問題において,正例,負例の2つのクラスに属す学習データのベクトル集合を,\begin{eqnarray*}({\bfx}_i,y_i),\ldots,({\bfx}_l,y_l)\qquad{\bfx}_i\in{\bfR}^n,\,\,y_i\in\{+1,-1\}\end{eqnarray*}とする.ここで${\bfx}_i$はデータ$i$の特徴ベクトルで,一般的に$n$次元の素性ベクトル$({\bfx}_i=[f_1,f_2,\ldots,f_n]^T\in{\bfR}^n)$で表現される.$y_i$はデータ$i$が正例($+1$)あるいは負例($-1$)のいずれかを表わす値である.パターン認識とは,この学習データ${\bfx}_i\in{\bfR}^n$から,クラスラベル出力$y\in\{\pm1\}$への識別関数$f:{\bfR}^n\rightarrow\{\pm1\}$を導出することにある.SVMでは,以下のような$n$次元Euclid空間上の平面で正例,負例を分離することを考える.\begin{eqnarray}{\bfw}^T{\bfx}+b=0\qquad{\bfw}\in{\bfR}^n,b\in{\bfR}\label{eq:hyperplane}\end{eqnarray}この時,近接する正例と負例の間の間隔({\bfマージン})ができるだけ大きいほうが,汎化能力が高く,精度よく評価データを分類できる.図\ref{fig:hyperplane}に,2次元空間上の正例(白丸),負例(黒丸)を分離する問題を例にこのマージン最大化の概略を表す.\begin{figure}\begin{center}\epsfxsize=7cm\epsfbox{hyperplane.eps}\caption{マージン最大化}\label{fig:hyperplane}\end{center}\end{figure}図\ref{fig:hyperplane}中の実線は式(\ref{eq:hyperplane})の分離平面を示す.一般にこのような分離平面は無数に存在し,図\ref{fig:hyperplane}に示す2つの分離平面はどちらも学習データを誤りなく分離している.分離平面に平行する2つの破線は分離平面が傾き${\bfw}$を変化させないまま平行移動したときに,分類誤りなく移動できる境界を示す.この2つの破線間の距離を{\bfマージン}と呼び,SVMはマージンが最大となる分離平面を求める戦略を採用している.図\ref{fig:hyperplane}の例では,右の分離平面が左の分離平面にくらべて大きなマージンを持っており,精度よくテスト事例を分離できることを意味している.実際に2つの破線を求めてみる.破線は,正例($+1$)もしくは負例($-1$)のラベルを出力する境界面になるように正規化を行えば,\begin{eqnarray*}&{\bfw}^T{\bfx}+b=\pm1\qquad{\bfw}\in{\bfR}^n,b\in{\bfR}\end{eqnarray*}で与えられる.さらにマージン$d$は,分離平面上の任意の点${\bfx'}$から各破線までの距離の和であり,${\bfx'}$は,${\bfw}^T{\bfx'}+b=0$を満たすため,\begin{eqnarray*}d&=&\frac{|{\bfw}^T{\bfx'}+b-1|}{\|{\bfw}\|}+\frac{|{\bfw}^T{\bfx'}+b+1|}{\|{\bfw}\|}=\frac{|-1|}{\|{\bfw}\|}+\frac{|1|}{\|{\bfw}\|}\nonumber\\&=&\frac{2}{\|{\bfw}\|}\end{eqnarray*}となる.このマージンを最大化するためには,$\|{\bfw}\|$を最小化すればよい.つまり,この問題は以下の制約付き最適化問題を解くことと等価となる\footnote{実際の我々の実験では多少の解析誤りを認めるSoftMarginの項を追加した最適化問題を解いている}.\begin{eqnarray*}&目的関数:&L({\bfw})=\frac{1}{2}\|{\bfw}\|^2\rightarrow最小化\\&制約条件:&y_i({\bfw}^T{\bfx}_i+b)\geq1\,\,(i=1\ldotsl)\end{eqnarray*}ここで,2つの破線上の分類を決定づける事例をサポートベクターと呼び,サポートベクター以外の事例は実際の学習結果に影響を及ぼさない.さらに,一般的な分類問題においては,学習データを線形分離することが困難な場合ある.このような場合,各素性の組み合わせを考慮し,より高次元な空間に学習データを写像すれば線形分離が容易になる.実際の証明は省略するがSVMの学習,分類アルゴリズムは事例間の内積しか使用しない.この点を生かし,各事例間の内積を任意のKernel関数におきかえることで,SVMは低次元中の非線形分類問題を高次元中の線形分離問題としてみなし分類を行うことが可能となっている.多くのKernel関数が提案されているが,我々は以下の式で与えられる$d$次の多項式Kernel関数を用いた.\begin{eqnarray*}K({\bfx}_i,{\bfx}_j)=({\bfx}_i^T{\bfx}_j+1)^d\label{eq:kernel_pol}\end{eqnarray*}$d$次の多項式関数は$d$個までの素性の組み合わせ(共起)を考慮した学習モデルと見なすことができる.\subsection{SVMの汎化能力}ここで,汎化能力に関する一般的な理論について考察する.学習データおよびテストデータがすべて独立かつ同じ分布$P({\bfx},y)$から生成されたと仮定すると,識別関数$f$のテストデータに対する汎化誤差$E_g[f]$,学習データに対する誤差$E_t[f]$は以下のように与えられる.\begin{eqnarray*}E_g[f]&=&\int\frac{1}{2}|f({\bfx})-y|dP({\bfx},y)\\E_t[f]&=&\frac{1}{l}\sum_{i=1}^{l}\frac{1}{2}|f({\bfx}_i)-y_i|\end{eqnarray*}さらに,$E_g[f],E_t[f]$には以下のような関係が成立することが知られている\cite{Vapnik98}.\newtheorem{theorem}{}\begin{theorem}[Vapnik]学習データの事例数を$l$,モデルのVC次元を$h$とする時,汎化誤差$E_g[f]$は,$1-\eta$の確率で以下の上限値を持つ.\begin{eqnarray}E_g[f]\leqE_t[f]+\sqrt{\frac{h(\ln\frac{2l}{h}+1)-\ln\frac{\eta}{4}}{l}}\label{eq:svm_gen}\end{eqnarray}\end{theorem}ここでVC次元$h$とは,モデルの記述能力,複雑さを表すパラメータである.式(\ref{eq:svm_gen})の右辺をVCboundと呼び,汎化誤差を小さくするには,VCboundをできるだけ小さくすればよい.従来からある多くの学習アルゴリズムは,モデルの複雑さであるVC次元$h$を固定し,学習データに対するエラー率を最小にするような戦略をとる.そのため,適切に$h$を選ばないとテストデータを精度良く分類できない.また適切な$h$の選択は一般的に困難である.一方SVMは,学習データに対するエラー率をSoftMarginやKernel関数を使って固定し,そのうえで右辺の第二項を最小化する戦略をとる.実際に式(\ref{eq:svm_gen})の右辺第二項に注目すると,$h$に対して増加関数となっている.つまり,汎化誤差$E_g(h)$を小さくするには,$h$をできるだけ小さくすればよい.SVMではVC次元$h$とマージン$M$には以下の関係が成立することが知られている\cite{Vapnik98}.\begin{theorem}[Vapnik]事例の次元数を$n$,マージンを$d$,全事例を囲む球面の最小直径を$D$とすると,SVMのVC次元$h$は,以下の上限値を持つ.\begin{eqnarray}h\leq\min(D^2/d^2,n)+1\label{eq:teiri}\end{eqnarray}\end{theorem}式(\ref{eq:teiri})から,$h$を最小にするためには,マージンを最大にすればよく,これはSVMがとる戦略そのものであることが分かる.また,学習データの次元数が十分大きければ,VC次元$h$は,学習データの次元数に依存しない.さらに,$D$は,使用するKernel関数によって決まるため,式(\ref{eq:teiri})はKernel関数の選択の指針を与える能力も持ちあわせていることが知られている\cite{Vapnik98}.また,Vapnikは式(\ref{eq:svm_gen})とは別に,SVMに固有のエラー率の上限を与えている.\begin{theorem}[Vapnik]$E_l[f]$を{\itLeave-One-Out}によって評価されるエラー率とする場合\begin{eqnarray}E_l[f]\leq\frac{サポートベクター数}{学習サンプル数}\label{eq:loo}\end{eqnarray}となる.\end{theorem}{\itLeave-One-Out}とは,$l$個の学習データのうち1個をとりのぞいてテストデータとし,残り$l-1$を使って学習することをすべてのデータについて$l$回繰り返すことで,未知データに対するエラー率を予測する手法である.式(\ref{eq:loo})は容易に証明可能である.つまり,SVMの特徴としてsupportvector以外の事例は最終の識別関数には一切影響を及ぼさない.そのため個々のsupportvectorすべてが誤ったときが最悪のケースとなり,式(\ref{eq:loo})が導かれる.このboundは,単純明解で汎化誤差のおおまかな値を予測することを可能にする.しかし,supportvectorの数が増えても汎化能力が向上する事例もあり,式(\ref{eq:loo})の汎化誤差の予測能力は式(\ref{eq:svm_gen})には劣ることが知られている.\vspace{-4mm}
\section{SVMに基づくChunk同定}
\subsection{Chunkの表現方法}Chunk同定の際,各chunkの状態をどう表現するかが問題となる.一つの手法として,各chunk同定を分割問題とみなし,各単語の間(ギャップ)にタグを付与する手法が考えられる.しかし,この手法は単語とは別の位置にタグを付与する必要があり,従来からある形態素解析などのタグ付けタスクとは異なる枠組が必要となる.その一方で,各単語にchunkの状態を示すタグを付与する手法がある.この手法は,従来からあるタグ付け問題と同じ枠組でモデル化ができる利点がある.後者の単語にタグを付与する表現法として,以下2種類の手法が提案されている.\begin{enumerate}\itemInside/Outside\\この手法は英語のbaseNP同定でよく用いられる手法の一つである\cite{Ramshaw95}.この手法では,chunkの状態として以下の3種類を設定する.\begin{tabular}{cl}I&現在位置の単語は,chunkの一部である.\\O&現在位置の単語は,chunkに含まれない.\\B&現在位置の単語は,あるchunkの直後に位置するchunkの先頭である.\\\end{tabular}\vspace*{5mm}さらにTjongKimSangらは,上記のモデルをIOB1と呼び,このモデルを基にIOB2/IOE1/IOE2の3種類の表現方法を提案している\cite{Tjong_Kim_Sang2000e}.\begin{tabular}{cp{34zw}}IOB2&IOB1と基本的に同じだが,Bタグの意味づけがことなる.IOB2の場合,Bタグはすべてのchunkの先頭に付与される.\\IOE1&IOB1と基本的に同じだが,Bタグの代わりにEタグを導入する.Eタグは,あるchunkの直前に位置するchunkの末尾の単語に付与される.\\IOE2&IOE1と基本的に同じだが,Eタグはすべてのchunkの末尾の単語に付与される.\end{tabular}\itemStart/End\\この手法は日本語固有名詞抽出において用いられた手法\cite{内元00}で,各単語に付与するタグとして以下の5種類を設定する\footnote{内元らは,C/E/U/O/Sの5種類のタグを用いているが,IOB1/IOB2/IOE1/IOE2モデルとの整合性から,便宜的にB/E/I/O/Sタグを用いる.タグの名称の変更のみで本質的なタグの意味づけに変更はない.}.\begin{tabular}{cp{34zw}}B&現在位置の単語は,2つ以上の単語から構成されるchunkの先頭の単語である.\\E&現在位置の単語は,2つ以上の単語から構成されるchunkの末尾の単語である.\\I&現在位置の単語は,3つ以上の単語から構成されるchunkの先頭,末尾以外の中間の単語である.\\S&現在位置の単語は単独で一つのchunkを構成する.\\O&現在位置の単語はchunkに含まれない\\\end{tabular}\end{enumerate}これら5種類のタグ付け手法を英語の単名詞句抽出(baseNPchunking)を例に以下に示す.\begin{center}\begin{tabular}{l|ccccc}&IOB1&IOB2&IOE1&IOE2&IOBES\\\hlineIn&O&O&O&O&O\\early&I&B&I&I&B\\trading&I&I&I&E&E\\in&O&O&O&O&O\\busy&I&B&I&I&B\\Hong&I&I&I&I&I\\Kong&I&I&E&E&E\\Monday&B&B&I&E&S\\,&O&O&O&O&O\\gold&I&B&I&E&S\\was&O&O&O&O&O\\\end{tabular}\end{center}各chunkに対し,そのchunkの役割を示すタグを付与する場合は,B/E/I/O/Sといったchunkの状態を示すタグと,役割を示すタグを'-'で連結し新たなタグを導入することによって表現する.例えば,IOB2モデルにおいて,動詞句(VP)の先頭の単語はB-VPというタグを付与すればよい.\subsection{SVMによるChunk同定}基本的にSVMは2値分類器である.そのため,chunkのタグ表現のように多値の分類問題を扱うためにはSVMに対し何らかの拡張を行う必要がある.一般に,2値分類器を多値分類器に拡張する手法として,以下に述べる2種類の手法がある.一つは,{\itoneclassvs.allothers}と呼ばれる手法で,$K$クラスの分類問題に対し,あるクラスかそれ以外かを分類する計$K$種類の分類器を作成する手法である.もう一つは,{\itpairwise}法であり,各クラス2つの組み合わせを分類する$K\times(K-2)/2$種類の分類器を作成し,最終的にそれらの多数決でクラスを決定する手法である.また,DietterichやAllweinらは,上記の二つを含む形で,二値分類を多値分類器に拡張するための統一的な手法を提案している\cite{dietterich95solving,allwein00reducing}.本稿では,多値分類器への拡張手法として{\itpairwise}法を採用した.採用の理由として以下が挙げられる.\begin{itemize}\item一般に,SVMは$O(n^2)\simO(n^3)$($n$は学習データのサイズ)の学習コストを要求する.そのために,個々の二値分類器に用いられる学習データのサイズが小さければ,学習コストを大幅に削減することができる.{\itpairwise}法は,{\itoneclassvs.others}に比べ多くの二値各分類器を作成するが,各二値分類器に用いられる学習データは少量であり,全体的に学習のコストを小さくすることができる.\item{\itpairwise}法が実験的に良い結果が得られたという報告\cite{Ulrich}がある.\end{itemize}chunkタグの学習に用いる素性としては,現在の単語およびその周辺の単語や品詞といった文脈を用いる.具体的には,位置$i$のchunkタグ$c_i$の推定を行う素性として$c_i$自身の単語と品詞,および右2つ,左2つの単語と品詞を用いた.また,左2つのchunkタグも素性として使用した.さらに,解析方向を逆(右向きから左向き)にし,右2つのchunkを素性として使用することも考えられる.本稿では,これら2つの解析手法を{\bf前向き解析/後ろ向き解析}と呼び区別する.\begin{center}\begin{tabular}{cccccc}&&$\rightarrow$&解析方向&$\rightarrow$&\\単語:&$w_{i-2}$&$w_{i-1}$&$w_{i}$&$w_{i+1}$&$w_{i+1}$\\品詞:&$t_{i-2}$&$t_{i-1}$&$t_{i}$&$t_{i+1}$&$t_{i+1}$\\chunk:&$c_{i-2}$&$c_{i-1}$&\fbox{$c_{i}$}\end{tabular}\end{center}一般に,左2つ(後ろ向きの場合は右2つ)のchunkタグは学習データに対しては付与されているが,テストデータに対しては付与されていない.そこで実際の解析時には,これらの素性は左から右向きに(後向きの場合は右から左に)解析しながら動的に追加していくこととした.このような処理は,一種の動的計画法(DP)と考えることができる.すなわち,全体として最尤なchunkタグ列は,各chunkタグに付与されるある種のスコアの和が最大になるようなタグ列を選択することにより決定される.さらに,動的計画法を行う際に,解析のビーム幅を指定することで曖昧性の候補の爆発を抑えることができる.CoNLL2000のsharedtaskにおいて,我々はスコアとしてpairwise時の投票数,また,ビーム幅を5として解析を行っている\cite{kudo2000a}.本稿では,このような曖昧性を考慮したビーム幅付きの解析は行わず,ビーム幅1の決定的な解析を行った.その理由としては以下が挙げられる.\begin{itemize}\item我々の詳細な調査の結果,ビーム幅を大きく設定しても,顕著な精度向上に繋がらず,決定的な解析でも十分な解析精度が得られることが分かった.\item本稿の目的は,後述する重み付き多数決の手法を比較することであり,単純な設定にすることで,個々の重み付け手法の相違点を明確にすることができる.\end{itemize}\subsection{重み付き多数決}重み付き多数決とは,1つの学習器で出力を得るのではなく,学習データ,学習データの表現方法,素性の選択手法,学習アルゴリズム,あるいは学習アルゴリズムのパラメータ等の異なる複数の学習器を線形結合して出力を得るアルゴリズムのことを指す.このような重み付き多数決の手法は,潜在的にマージン最大化の効果があり,汎化能力の高い強学習アルゴリズムを作成できることが理論的にも実験的にも明らかになっている.ここで,多数決がなぜ精度向上に繋がるのか,その簡単な証明を行う.重み付き多数決に用いる学習器の1つを$f_i\in{\bfR}$,さらに学習すべき対象(正解)を$t\in{\bfR}$とする.また,$f_i$の$M$個を均一な重み$1/M$で線形結合した学習器を$f'=\frac{1}{M}\sum_{i=1}^Mf_i$とする.この時,$f_i$と$t$,および$f'$と$t$の二乗誤差の期待値には以下のような関係が成立する.ただし$E[x]$は,$x$の期待値を表現する.\begin{eqnarray}E[(f'-t)^2]&=&E[\textstyle(\frac{1}{M}\textstyle\sum_{i=1}^Mf_i-t)^2]\nonumber\\&=&E[\textstyle\frac{1}{M}\textstyle\sum_{i=1}^M(f_i-t)^2-\frac{1}{M}\textstyle\sum_{i=1}^M(f_i-\frac{1}{M}\sum_{i=1}^Mf_i)^2]\nonumber\\&\leq&E[\textstyle\frac{1}{M}\sum_{i=1}^M(f_i-t)^2]\nonumber\\&=&E[(f_i-t)^2]\label{eq:w}\end{eqnarray}式\ref{eq:w}より,多数決を行った学習器の二乗誤差の期待値のが,単独に学習した学習器の期待値より小さくなることが分かる.ここでは,証明を簡単にするために均一な重みとしたが,不均一な重みの場合に対する一般化も可能である.詳細については文献\cite{Haykin99}を参照されたい.この重み付き多数決の概念の一つとしてBoosting\cite{Freund96}があり,自然言語処理の多くのタスクに応用され高い精度を示している.Chunk同定問題においても,重み付き多数決の手法が適用されている.例えば,TjongKimSangらは,baseNP同定の問題に対し,弱学習アルゴリズムにMBL,ME,IGTree等の7種類のアルゴリズム,さらにIOB1/IOB2/IOE1/IOE2の4種類の表現を用いて独立に学習した複数のモデルの重み付き多数決を行うことで,個々のモデルのどれよりも高精度の結果が得られたと報告している\cite{Tjong_Kim_Sang2000a,Tjong_Kim_Sang2000b}.本稿では,弱学習アルゴリズムにSVMを用い,IOB1/IOB2/IOE1/IOE2の4種類の表現,さらに解析方向(前向き/後ろ向き)の合計$4\times2=8$種類の重み付け多数決を行うことで精度向上を試みる.IOB1/IOB2/IOE1/IOE2には,それぞれ次のような特徴がある.IOB1/IOE2は,chunkが連続したときのみ他とは異なるタグ(B/E)が付与される.つまり,chunkが連続するような事例に特化した学習が行われる.また,IOB2/IOE2は,chunkの開始/終了位置に他とは違ったタグ(B/E)が付与される.これらは,chunkの開始/終了位置に特化した学習が行われるさらに,chunk中の主辞(Head)となる単語は,chunkの成立に必要不可欠であるために,他の単語に比べ頻出し,同定が容易である.主辞がchunkの先頭にある場合は,前向きに解析を行うことで,主辞が最初に決定され,その結果が後続するタグの素性に影響を及ぼすため,全体として高い精度が期待できる.逆に,主辞がchunkの末尾にある場合は,後ろ向きに解析を行ったほうが高い精度が得られる.前向き/後ろ向きとは,すべてのchunkの主辞が先頭/末尾にあると仮定し,それぞれの仮定に特化した学習手法である.このように,chunkの表現方法,及び解析方向の異なる複数の学習器を作成することで,それぞれ視点の異なる複数の学習器が作成される.一般に,複数の学習器の性質が異なれば異なるほど,多数決の結果の精度が高くなるために,単独のタグ表現方法,及び解析方向の手法より高い精度が期待できる.重み付き多数決を行う場合,各モデルの重みをどう決定するかが問題となる.真のテストデータに対する精度を用いることで良い結果を得ることができるが,一般に真のテストデータを評価することは不可能である.Boostingでは学習データの頻度分布を変更しながら,各ラウンドにおける学習データに対する精度を重みとしている.しかしながら,SVMは,SoftMarginパラメータ,Kernel関数の選択次第で,学習データを完全に分離することができ,単純に学習データに対する精度を重みにすることは困難である.本稿では,重み付き多数決の重みとして以下の4種類の手法を提案し,それぞれの手法の精度や計算量などを考察する.\begin{enumerate}\item{\bf均一重み}\\これは,すべてのモデルに対し均一の重みを付与する手法である.最も単純な手法であり,他の手法に対するベースラインとなる.\item{\bf交差検定}\\学習データを$N$等分し,$N-1$を学習データ,残りの$1$をテストとして評価する.この処理を$N$回行い,それぞれの精度の平均を各モデルの重みとして利用する.\item{\bfVCbound}\\式(\ref{eq:svm_gen}),式(\ref{eq:teiri})を用いてVCboundを計算し,その値から正解率の下限を推定し\footnote{エラー率の上限であるため,1からこの値を引き,正解率の下限とみなす.},重みとする手法である.ただし,式(\ref{eq:teiri})における全事例を囲む最小直径$D$は各学習データから原点までのノルム最大値を用いて近似を行った.\begin{eqnarray*}D^2\sim\max_{i}\{K({\bfx}_i,{\bfx}_i)-2K({\bfx}_i,O)+K(O,O)\}\,\,\,\,(O:原点)\end{eqnarray*}\item{\bfLeave-One-Out(L-O-O)bound}\\式(\ref{eq:loo})のLeave-One-Outboundを求め,正解率の下限を推定し,重みとする手法である.\end{enumerate}実際の解析は以下のように行った.\begin{enumerate}\item学習データをIOB1/IOB2/IOE1/IOE2の各表現に変換する.\item4つの表現に対し,前向き解析,後ろ向き解析の計$4\times2=8$種類のモデルを作成し,SVMで独立に学習する.\item8種類のモデルに対し,VCbound,Leave-One-Outboundを計算し重みを求める.交差検定に関しては,(1),(2)の処理を各分割したデータに対して行い,各ラウンドのタグ付け精度の平均を重みとする.実際の実験では,交差検定における分割数$N$は,5とした.\item合計8種類のモデルを用いて学習データとは別のテストデータを解析する.個々の8種類のモデルが出力するchunkの表現は,それぞれ異なるため,そのままでは多数決を行うことができない.多数決を行うためには,個々の結果を1つの統一表現に変換する必要がある.この目的のために,解析後のデータをIOB1/IOB2/IOE1/IOE2の各表現に再び変換する.\itemIOB1/IOB2/IOE1/IOE2の個々に変換された結果に対し,タグレベルで合計8種類の重みつき多数決を行う\footnote{実際にはchunkレベルで行わないとchunkの整合性が取れなくなる可能性があるが,本稿では問題を簡単にするためタグレベルで多数決を取ることとした}.つまり各重み付けの手法に対し,IOB1/IOB2/IOE1/IOE2の4種類の表現方法で評価した結果を得ることとなる.最終的に,$4$(統一表現のタイプ)$\times$$4$(重み付けの方法)$=16$種類の結果を得ることとなる.\end{enumerate}重み付き多数決の候補として,IOBES前向き解析とIOBES後向き解析の各モデルを参加させることは可能であるが,我々はそのような実験を行わなかった.その理由として,推定すべきクラスの数がIOB1,IOB2,IOE1,IOE2モデルは3に対し,IOBESモデルは5と異なり,VCboundや,Leave-One-Outboundを同じ条件で比較することが困難なことが挙げられる.IOBES前向き解析とIOBES後向き解析の各モデルの実験は,IOB1,IOB2,IOE1,IOE2の各モデルとの精度を比較するために行った.
\section{実験と考察}
\subsection{実験環境,設定}実験には以下の2種類のタグ付きデータを用いた.\begin{itemize}\itembaseNP標準データセット({\bfbaseNP})\\PennTree-bank/WSJの15-18を学習データ,00-14,19-24をテストデータとし,BrillTagger\cite{Brill95}を用いてpart-of-speech(POS)を付与したデータである.テストデータのサイズ以外は,baseNP抽出に用いられるデータとして一般的なものである.\itemChunkingデータセット({\bfchunking})\\baseNP標準データセットと基本的に同一であるが,baseNP以外に{\smallVP,PP,ADJP,ADVP,CONJP,INITJ,LST,PRT,SBAR}の合計10種類の英語の句を表現するタグが付与されている.テストデータのサイズを除けば,CoNLL-2000SheadTask\cite{Tjong_Kim_Sang2000c}と同一のデータである.\end{itemize}それぞれのデータのサイズを表\ref{fg:env}に示す.\begin{table}\begin{center}\begin{tabular}{r|r|r|r}\hline\hline&トークン(単語)数&chunk数&文数\\\hlinebaseNP学習データ&211,727&53,371&8,936\\baseNPテストデータ&962,039&248,656&40,272\\chunking学習データ&211,727&104,893&8,936\\chunkingテストデータ&962,039&483,301&40,272\\\end{tabular}\end{center}\caption{実験データ}\label{fg:env}\end{table}実験にはSVM学習パッケージ{\itTiny}SVMを用いた\footnote{http://cl.aist-nara.ac.jp/\~\,taku-ku/software/TinySVM/から入手可能}.このツールは,本実験のようなバイナリの素性表現に特化して高速化が施されており,VCboundを自動的に推定する機能を持っている.また,すべての実験において,Kernel関数は2次の多項式Kernelを使用した.評価方法としては,適合率と再現率の調和平均で与えられるF値($\beta=1$)を用いた.これはchunk同定において一般的に用いられる評価方法である.以後,特にことわらない限りF値のことを精度と呼ぶ.\subsection{実験結果}表\ref{fg:ind}に,各chunkの表現方法,および解析方向が異なる計8種のモデルで独立に学習した実験結果(テストデータに対する精度,推定された重み)をまとめた.また,比較対象として,Start/End法を用いた学習結果についても示している.さらに,表\ref{fg:voting}に,これらを均一重み,\,\,交差検定($N=5$),\,\,VCbound,\,\,LeaveonOutboundの4種類の重み付けで多数決を行った際の結果をまとめた.表\ref{fg:best}には,各の重み付け手法の中の最良の結果について,その適合率と再現率を示す.\begin{table}\begin{center}\begin{tabular}{@{}c@{}@{}c@{}|p{2.4zw}|ccc@{}}\hline\hline\multicolumn{2}{c|}{学習条件}&\multicolumn{1}{c|}{精度}&\multicolumn{3}{c}{推定された重み}\\学習データ&変換先&$F_{\beta=1}$&交差検定&VCbound&L-O-Obound\\\hlinebaseNP&IOB1-前&94.04&.9394&.4310&.9193\\&IOB1-後&94.08&.9422&.4351&.9184\\&IOB2-前&94.13&.9410&.4415&.9172\\&IOB2-後&94.13&.9407&.4300&.9166\\&IOE1-前&93.91&.9386&.4274&.9183\\&IOE1-後&94.14&.9425&.4400&.{\bf9217}\\&IOE2-前&94.09&.9409&.4350&.9180\\&IOE2-後&{\bf94.23}&{\bf.9426}&{\bf.4510}&.9193\\\hlinechunking&IOB1-前&93.56&.9342&.6585&.9605\\&IOB1-後&93.58&.9346&.6614&.9596\\&IOB2-前&93.54&.9341&.6809&.9586\\&IOB2-後&93.52&.9355&.6722&.9594\\&IOE1-前&93.46&.9335&.6533&.9589\\&IOE1-後&{\bf93.65}&.9358&.6669&.9611\\&IOE2-前&93.50&.9341&.6740&{\bf.9606}\\&IOE2-後&{\bf93.65}&{\bf.9361}&{\bf.6913}&.9597\\\hline\hlinebaseNP&IOBES-前&93.93&&&\\&IOBES-後&93.94&&&\\\hlinechunking&IOBES-前&93.36&&&\\&IOBES-後&93.41&&&\\\end{tabular}\end{center}\caption{個々のモデルの精度比較}\label{fg:ind}\end{table}\begin{table}\begin{center}\begin{tabular}{@{}c@{}c|ccccc@{}}\hline\hline\multicolumn{2}{c|}{学習条件}&\multicolumn{4}{c}{各重み付けに対する精度$F_{\beta=1}$}\\学習データ&評価手法&均一重み&交差検定&VCbound&L-O-Obound\\\hlinebaseNP&IOB1&94.31&94.37&94.39&94.36\\&IOB2&94.33&94.39&{\bf94.41}&94.38\\&IOE1&94.32&94.38&94.38&94.36\\&IOE2&94.33&94.38&94.40&94.38\\\hlinechunking&IOB1&93.78&93.81&93.81&93.81\\&IOB2&93.74&{\bf93.84}&{\bf93.84}&{\bf93.84}\\&IOE1&93.79&93.81&93.81&93.81\\&IOE2&93.81&93.82&93.83&93.82\\\end{tabular}\end{center}\caption{重み付き多数決の結果}\label{fg:voting}\end{table}\begin{table}\begin{center}\begin{tabular}{c|ccc}\hline\hlineデータセット&適合率&再現率&$F_{\beta=1}$\\\hlinebaseNP&94.48\%&94.34\%&94.41\\chunking&93.85\%&93.83\%&93.84\\\end{tabular}\end{center}\caption{各データセットに対する最良結果}\label{fg:best}\end{table}\subsection{Chunkの表現方法と解析精度}表\ref{fg:ind}から,Inside/Outsideに基づく8つの手法を比較すると,「IOE2+後ろ向き」が最良の精度を,「IOE1+前向き」が最低の精度を示すことが分かる\footnote{chunkingデータセットの「IOE1+後ろ向き」以外は,「IOE2+後ろ向き」の結果が10\%の棄却率で有意であることが確認された.}.これは,以下に述べる我々の直観と合致する.\begin{itemize}\item多くの場合,chunk中の主辞は末尾の単語となる.すなわち,後ろ向きからから解析すると,主辞を最初に決定できるため優位となる.\\$\rightarrow$(後ろ向き$>$前向き)\itemIOEは,主辞となりやすいchunkの末尾に特化した学習が行われるため,先頭に特化するIOBに比べ優位となる.\\$\rightarrow$(IOE$>$IOB)\itemIOBは,chunkの先頭を,IOEは,chunkの末尾に特化して学習が行われる.そのため,IOBは,前向き,IOEは後ろ向きから解析すると特化して学習される単語が先に推定されるため,優位となる.\\$\rightarrow$(IOB+前向き$>$IOB+後ろ向き,IOE前向き$<$IOE後ろ向き)\item同一のchunkが連続することは稀である.すなわち,chunkの連続に特化するIOB1/IOE1は,chunkの先頭/末尾に特化するIOB2/IOE2に比べ劣る.\\$\rightarrow$(\{IOB1IOE1\}$<$\{IOB2IOE2\})\item同一chunkが連続する場合は,前のchunkの末尾の単語(主辞)よりはむしろ,後続するchunkの先頭の単語が境界の認定に役割を果たす場合が多い.そのため,chunkが連続する場合は,chunkの先頭に特化するIOB1がIOE1に比べ優位となる.\\$\rightarrow$(IOB1$>$IOE1)\end{itemize}次にInside/Outside法(IOB1/IOB2/IOE1/IOE2の各手法)とStart/End法の精度を比較する.颯々野らは,各学習アルゴリズムの特徴を考察しながら,決定リストについては細かい組み合せを考慮するStart/End法が,最大エントロピー方についてはより粗い情報を考慮するInside/Outside法が精度が良いと報告している\cite{Sassano00b}.SVMを用いた本手法では,全体的にInside/Outside法の法が,Start/Endに比べ高い精度を示している.SVMは,決定リストのように単独の素性(ルール)で分類するのではなく,最大エントロピーと同じく複数の素性の線型結合で分類するために,この結果は,颯々野らの分析と合致する.さらに,別の要因として以下が考えられる.まず,Start/Endは,5種類のタグを使い表現するため,Inside/Outsideと比較して,データスパースネスの問題を助長してしまう恐れがある.また,5種類のタグを使うことで,矛盾のあるタグのシーケンスの数が増えてしまう.具体的には,S→E,I→B,O→Iといったタグの連続は,タグ付けとしては不適切である.一方,IOB1は,O→Bのみ,IOB2はO→Iのみが不適切な連続である.タグ付けに関する指針,制約といった「タグ付けスキーマ」は,それらを明示的な形で与えない本手法では,システム自身がデータから学習する必要があり,それだけ余計なコストが生じてしまう.つまり,矛盾のあるタグ列が少ない表現方法が優位であると考える.\subsection{モデル選択能力}重み付き多数決を行う際の重みは,各システムの未知データに対する精度の予測値であるため,これらの大小を比較することでモデル選択が行える.表\ref{fg:ind}から,VCbound,交差検定,それぞれが「IOE2+後ろ向き」に対し最高の重みを,「IOE1+前向き」に最低の重みを算出しており,テストデータに対する精度をうまく予想してる.これらの結果から,VCbound,交差検定がモデル選択基準として良好に機能していることが分かる.交差検定はモデル選択に用いられる一般的な手法であるが,分割数が多くなると推定に多くの計算量を必要とする.その一方で,VCboundは学習と同時にモデル選択が行え,交差検定に比べ効率的であると考える.Leave-One-Outboundは他に比べ計算コストの小さいモデル選択手法であるが,その能力はVCboundや交差検定よりも劣ることが分かった.\subsection{多数決の効果}表\ref{fg:voting}から,多数決を行うことで,重みの付与方法によらず,単独のどのモデルよりも精度が向上することが確認できる\footnote{棄却率10\%以下で有意差があると判定された}.重み付き多数決の手法間の精度差には,多くの場合,顕著な差は見られなかった.特にVCbound,交差検定,Leave-One-Outboundは,ほぼ同等の精度となった.しかし,均一重みと比較して,上記の3つ手法で重みを推定するほうが,若干ながら優位であることが分かる.\subsection{関連研究との比較}\subsubsection{baseNPデータセット}TjongKimSangらは,弱学習アルゴリズムにMBL,ME,IGTree等の7種類のアルゴリズム,さらにIOB1/IOB2/IOE1/IOE2の4種類の表現を用いて独立に学習した複数のモデルの重み付き多数決を行うことで,baseNPデータセットに対し93.86の精度が得られたと報告している\cite{Tjong_Kim_Sang2000a,Tjong_Kim_Sang2000b}.我々は単独の表現を用いた場合でも93.91-94.23の精度を得ている.テストデータが異なるため,厳密な比較は行えないが,SVM単独の結果は,従来手法と同等だと考える.一方,従来手法は7種類の学習アルゴリズム,及び4つのchunk表現の異なるシステムの多数決の結果であり,個々の学習器の学習,及びテストの計算量は,SVM単独のシステムに比べ大きい.システムの複雑さという観点から見れば,SVM単独のシステムは,従来手法に比べ優位であると考える.さらに,従来手法と同様に,各表現の重み付き多数決を行うことで94.40の精度を得ることができた.これは,従来法の精度93.86に比べ優れていると考える.多数決を実行することは,全体としてシステムが複雑になることが一つの問題点である.TjongKimSangらによる手法は,MBL,ME,IGTreeといった,7種類のアルゴリズムを用いており,全体として複雑になっている.さらに,個々の学習器のパラメータは恣意的に設定されており,これらの最適なパラメータを考慮すると,設定すべきパラメータの数が多く,制御が困難であると考える.一方,本手法は,単一のSVMのみを用い,それ以外の学習アルゴリズムを用いていない.重み付き多数決を行うという観点から見れば,本手法は,従来手法に比べシステム全体の設計が,簡潔であり,設定すべきパラメータ数が少ない.この点も,本手法の優位な点と考える.\subsubsection{CoNLLデータセット}CoNLL-2000SharedTaskにおいて我々はSVMとIOB2と前向き解析の単独システム用いて93.48の精度を報告している\cite{kudo2000a}\footnote{テストデータが異なるため精度に若干差が出ている.}.本実験結果から,多数決を行うことで,「IOB2+前向き」に限らず,どの単独システムに比べても精度が向上している.またCoNLL-2000で報告された重み付き多数決に基づく他の手法\cite{Tjong_Kim_Sang2000d}よりも高い精度を示すことができた.\subsection{今後の課題}\begin{itemize}\item他の分野への応用\\我々の提案する手法は,日本語の文節まとめ上げや固有名詞,専門用語抽出と一般的なchunk同定問題に応用可能である.我々の提案する手法がこれらの他の分野でも有効であるか実際に検証を行う予定である.\item可変長モデル\\本稿では,左右2つの文脈のみを考慮する単純な固定長モデルを採用した.しかし実際には,個々のchunkを同定に必要な文脈長は可変であり,個々のchunkに対し最適な文脈長を選択することでさらなる精度向上が期待できる.颯々野らは日本語の固有名詞抽出において可変長モデルを提案し単純な固定長のモデルより高い精度が得られたと報告している\cite{Sassano00b}.今後このような可変長のモデルを取りいれたいと考えている.\itemより予測能力の高いboundの採用\\本稿では,重み付き多数決の重みとして,SVMに固有の概念---VCbound,Leave-One-Outboundを提案した.その一方でChapelleらは,これらより予測能力の高いboundを提案し,Kernel関数の選択やSoftMarginパラメータの選択に極めて有効であるとこを示している\cite{ChaVap00}.これらの予測能力の高いboundを重みとして採用することでさらなる精度向上が期待できる.\end{itemize}
\section{まとめ}
本稿では,SupportVectorMachine(SVM)に基づく一般的なchunk同定問題の解析手法を提案し,実際のタグ付きコーパスを用いて実験を行った.英語の単名詞句抽出における実験では,複数のシステム混合に基づく従来のモデルと同等の精度を示し,SVMの持つ高い汎化能力を裏づける結果となった.また,chunkの表現方法や解析方向の異なる複数のシステムの中から最適なものを選択するための「モデル選択基準」として,本稿で採用したVCboundは,従来からある交差検定と同程度の予測性能があることが確認された.VCboundは,交差検定のように学習を繰り返す必要がなく,学習と同時に計算が可能であるため,計算量の軽減に繋がる.さらに,chunkの表現方法や解析方向の異なる複数のシステムの重み付き多数決を行うことで,個々のどのモデルよりも高い精度を示した.\bibliographystyle{jnlpbbl}\bibliography{main}\begin{biography}\biotitle{略歴}\bioauthor{工藤拓}{1976年生.1999年京都大学工学部電気電子工学科卒,2001年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了,同年同大学院博士後期課程に進学.専門は統計的自然言語処理.機械学習,統計的手法に興味を持つ.}\bioauthor{松本裕治}{1955年生.1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.専門は自然言語処理.情報処理学会,日本ソフトウェア科学会,言語処理学会,認知科学会,AAAI,ACL,ACM各会員}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V04N01-02 | \section{はじめに}
label{sec:Intro}自然言語処理では,これまで書き言葉を対象として,さまざまな理論や技術が開発されてきたが,話し言葉に関しては,ほとんど何もなされてこなかった.しかし,近年の音声認識技術の進歩によって,話し言葉の解析は自然言語処理の中心的なテーマの1つになりつつある.音声翻訳,音声対話システム,マルチモーダル・インターフェースなどの領域で,自然な発話を扱うための手法が研究され出している.話し言葉の特徴は,言い淀み,言い直し,省略などのさまざまな{\bf不適格性}\,(ill-formedness)である.例えば,(\ref{eq:Sentence1})には,(i)\,言い直し(「ほん」が「翻訳」に言い直されている),(ii)\,助詞省略(「翻訳」の後の格助詞「を」が省略されている)の2つの不適格性がある.\enumsentence{\label{eq:Sentence1}ほん,翻訳入れます.}書き言葉には見られないこれらの現象のために,従来の適格文の解析手法はそのままでは話し言葉の解析には適用できない.したがって,不適格性を扱うための手法を確立することが,話し言葉を対象とした自然言語処理研究にとって必須である.特に,不適格性を扱うための手法をその他の言語解析過程の中にどのように組み込むかが,重要な課題となる.本稿では,テキスト(漢字仮名混じり文)に書き起こされた日本語の話し言葉の文からその文の格構造を取り出す構文・意味解析処理の中で,言い淀み,言い直しなどの不適格性を適切に扱う手法について述べる.不適格文を扱う手法の研究は,以下の3つのアプローチに大別できる.\begin{description}\item[A.不適格性を扱う個別的な手法]話し言葉に特有の不適格性を個別的な手法で扱う.言い直しを扱う手法\cite{Hindle:ACL83-123,Bear:ACL92-56,Nakatani:ACL93-46,佐川:情処論-35-1-46}や助詞省略を扱う手法\cite{山本:情処論-33-11-1322}がある.\item[B.不適格性を扱う一般的な手法]さまざまな不適格性を一般的なモデルに基づいて扱う.以下の2つのモデルに大別される.\begin{description}\item[B-1.二段階モデル(two-stagemodel)に基づく手法]まず,通常の適格文の解析手法で入力文を解析し,それが失敗した場合に,不適格性を扱うための処理を起動する.{\bf部分解析法}\cite{Jensen:CL-9-3-147,McDonald:ANLP92-193}や{\bf制約緩和法}\cite{Weischedel:CL-9-3-161,Mellish:ACL89-102}がある.\item[B-2.統一モデル(uniformmodel)に基づく手法]適格文と不適格文との間に明確な区別をおかず,両者を連続的なものととらえ統一的に扱う.{\bf優先意味論}に基づく手法\cite{Fass:CL-9-3-178}や{\bfアブダクション}に基づく手法\cite{Hobbs:AI-63-69}がある.\end{description}\end{description}本稿では,以下にあげる理由により,統一モデルに基づく手法を用いる.\begin{enumerate}\renewcommand{\theenumi}{}\renewcommand{\labelenumi}{}\item不適格文の処理はしばしば,適格文の処理と同等な能力を必要とする.例えば,言い直しを含む文において修復対象(言い直された部分)の範囲を同定するのは,適格文において従属節の範囲を決めるのと同じ難しさがある.したがって,不適格文を扱うために,従来適格文の処理に使われてきた手法を拡張して使えることが望ましい.\item不適格文と適格文が曖昧な場合がある.例えば,(\ref{eq:Sentence1})の「ほん」はたまたま「本」と同じ字面であるため,「本(に)翻訳(を)入れます」のような適格文としての解釈が可能になる.適格文と不適格文が統一的に扱えないと,このような曖昧性は解消できない.\item話し言葉(特に音声言語)の解析に必要な実時間処理は,不適格文を処理するのに二段階の過程を経る二段階モデルでは実現できない.これに対して,統一モデルでは,漸時的な処理が可能なので,実時間処理を実現しやすい.\item統一モデルは人間の言語処理モデルとしても妥当である.人間はしばしば,文の途中であっても不適格性が生じたことに気がつく.このことは,人間が適格文の処理と並行して,不適格性の検出のための処理を行なっていることを示唆する.\end{enumerate}統一モデルを採用することにより,適格文におけるさまざまな問題(構造の決定や文法・意味関係の付与といった問題)を解決するための手法を拡張することで,不適格性の問題も同じ枠組の中で扱える.より具体的には,言い淀み,言い直しなどを語と語の間のある種の依存関係と考えることにより,{\bf係り受け解析}の拡張として,適格性と不適格性を統一的に扱う手法が実現される.以下,まず\ref{sec:Ill-formed}\,節では,日本語の話し言葉におけるさまざまな不適格性を,音声対話コーパスからの実例をあげながら説明し,統一モデルの必要性を述べる.次に\ref{sec:Uniform}\,節で,本稿で提案する統一モデルに基づく話し言葉の解析手法を説明する.\ref{sec:Evaluation}\,節では,解析の実例をあげるとともに実験システムの性能を評価することで本手法の有効性を検討する.さらに,その適用範囲についても明らかにする.\ref{sec:Comparison}\,節では,従来の手法との比較を述べ,最後に,\ref{sec:Conclude}\,節でまとめを述べる.なお,話し言葉の解析を考える上で,音声情報の果たす役割は重要であるが,本稿では音声処理の問題には立ち入らない.
\section{日本語の話し言葉における不適格性}
label{sec:Ill-formed}日本語の話し言葉では,さまざまなレベルでさまざまな種類の不適格性が生じる\cite{河原:情処-36-11-1027}.ここでは,これらの不適格性のうち,本研究でターゲットとする言い淀み,言い直し,繰り返し,助詞省略について,ATR対話データベース(ADD)\,\cite{江原:ATR-TR-I-0186}から実例をあげながら説明する.\subsection{言い淀み}\label{sec:Ill-formed:Hesitation}{\bf言い淀み}(hesitations)とは,「あのー」「えーと」などの意味を持たない冗長語(間投語,つなぎ語ともいう)によって発話が滞ることである.(\ref{eq:Hesitation})では太字が冗長語である.\enumsentence{\label{eq:Hesitation}{\bfえーっと},そちら第一回の通訳電話国際会議の事務局でしょうか.}\citeA{村上:IEICE-SP-91-100-71}によると,ADDでは,約50\,\%の文に言い淀みが含まれる.このうち約70\,\%では,頻度上位4種類の冗長語(「えー」「あのー」「あの」「え」)が使われている\footnote{\citeA{中川:音響-51-3-202}による日本音響学会連続音声データベース(ASJ)の分析では,言い淀みは1文あたり1.126回出現し,「え」「えと」「あの」「あ」「ま」の頻度上位5種類の冗長語が出現総数の82\,\%を占める.\citeauthor{中川:音響-51-3-202}は長母音や促音による違いを無視しているので,\citeauthor{村上:IEICE-SP-91-100-71}の分析結果にもこの方略を適用すると,同じ5種類の冗長語のバリエーションで上位9種類,約85\,\%を占めることになり,両者の分析はほぼ一致する.}.このことから,言い淀みは,(言語処理においては)主だった冗長語を辞書に登録することでかなりの部分が扱えると思われる.ただし,冗長語はしばしば他の単語と混同される(連体詞「あの」「その」など)ことがあり,そういった場合に統一モデルは有効である.\subsection{言い直し}\label{sec:Ill-formed:Repair}{\bf言い直し}(repairs)とは,言い誤りを訂正したり,より良い言い回しに変更するために,話者自身が発話を中断してその部分を再度発話することである.\citeA{村上:IEICE-SP-91-100-71}によると,ADDでは,約10\,\%の文に言い直しが含まれる\footnote{これは,\citeA{中川:音響-51-3-202}によるASJの分析結果(1文あたり0.145回)や\citeA{Bear:ACL92-56}によるDARPAのATISタスク・コーパスの分析結果(10語以上の文の10\,\%)ともほぼ一致する.}.(\ref{eq:Repair1})では太字が言い直しによって訂正された部分(修復対象)である.\enumsentence{\label{eq:Repair1}あの,この{\bfクレ},クレジットカードというのは}言語処理における言い直しの扱いの問題点は以下のようにまとめられる.\begin{enumerate}\renewcommand{\theenumi}{}\renewcommand{\labelenumi}{}\item言い直しには言語的な手がかりがないので,検出が困難である.言い直しに伴って言い淀みが生じることがしばしばあるが,言い淀みは元来独立して起こり得るので,信頼できる手がかりにはならない\footnote{音声処理との統合を考えると,音響的・韻律的な手がかりが役立つ可能性はある\cite{O'Shaughnessy:ICSLP92-931,Nakatani:ACL93-46}.}.\item修復対象の範囲を同定するのが困難である.例えば,(\ref{eq:Repair2})では「準備を」と「始めて」は修復対象に含まれるが,「もう」と「ビデオの」は含まれない.\enumsentence{\label{eq:Repair2}もう{\bf準備を始めて},ビデオの準備を始めていきたい.}\item言い直しは,話者に生じたトラブルの内容に応じて,多様なパターンをとる.例えば,(\ref{eq:Repair3}),(\ref{eq:Repair4}),(\ref{eq:Repair5})はそれぞれ,音韻的な原因(発語の途中でつまった),統語的な原因(誤った助詞を選択した),意味的な原因(不適切な意味内容を選択した)による言い直しと考えられる.\enumsentence{\label{eq:Repair3}{\bfつう},通訳電話に関するさまざまな,あのー,方面}\enumsentence{\label{eq:Repair4}あの,{\bfクレジットカードをね},あのー,クレジットカードの名前となんか,ナンバーを}\enumsentence{\label{eq:Repair5}あの,会議ではもちろん{\bf通訳},翻訳も入れます.}\end{enumerate}これらの問題点は,適格文の処理で生じる問題点と共通している.例えば,(\ref{eq:Repair2})における修復対象の範囲の同定は,(\ref{eq:Subord})における従属節(太字部分)の範囲の同定と同種の問題である.\enumsentence{\label{eq:Subord}もう{\bf準備を始めてから}ずいぶん待ちました.}さらに,\citeA{佐川:IPSJ-NL-94-100-73}が指摘したように,言い直しの中には適格文と簡単には区別できないものがある.例えば,(\ref{eq:Repair6})では,「きょう」が「協賛する」に言い直されているのであるが,「きょう」がたまたま「今日」と同じ字面のため,適格文としての解釈も可能である.\enumsentence{\label{eq:Repair6}{\bfきょう},協賛する学会会員}\citeauthor{佐川:IPSJ-NL-94-100-73}によると,このような適格文との間で曖昧性がある例は,ADDに含まれる言い直しのうちの約1割を占めている.しかし,(\ref{eq:Repair5})のような文でも,助詞省略の可能性を考えると曖昧になる(「通訳」の後に助詞を補うと「入れます」に係る可能性がある)ことから,この割合は実際にはもっと大きいと思われる.これらは,言い直しのような不適格性を,適格文の処理手法を拡張することで統一的に扱う必要があることを示唆する.\subsection{繰り返し}\label{sec:Ill-formed:Repetition}{\bf繰り返し}(repetitions)は,言い直しの特別な場合である.\citeA{村上:IEICE-SP-91-100-71}によると,ADDに含まれる言い直しの14\,\%が繰り返しである.(\ref{eq:Repetition})では太字が繰り返された部分である.\enumsentence{\label{eq:Repetition}えー,{\bf京都ロイヤルが},えー,京都ロイヤルが一番都心ですね.}\subsection{助詞省略}\label{sec:Ill-formed:ParticleEllipsis}{\bf助詞省略}(particleellipses)は,書き言葉には見られない,話し言葉に特有の現象である.\citeA{保坂:JSAI-SLUD-9203-1}によると,ADDにおいて,普通名詞文節の12\,\%,代名詞文節の16\,\%で助詞が省略されている\footnote{\citeA{山本:情処論-33-11-1322}によると,ASJでは,助詞省略の割合は全名詞文節の4\,\%である.}.(\ref{eq:Particle})では省略された助詞を括弧内に補ってある.\enumsentence{\label{eq:Particle}会議{\bf[に]},参加する手続き{\bf[を]},ちょっと,お教え願えますでしょうか.}助詞省略は,構文・意味解析において大きな問題となる.日本語では,通常,語と語の間の意味関係が格助詞によって明示されるので,解析システムは格情報を頼りに意味関係を決定しようとする.もし助詞が省略されていると,このような方法で意味関係を決定することができない.しかし,格情報をあてにできない場面は,書き言葉においても生じる.例えば,主格や目的格の名詞句が主題化されると,助詞が同一の形式(「は」や「も」)に置き換わるので,もとの格が何であったかは簡単にはわからない.さらに,日本語には関係代名詞がないので,被修飾名詞の関係節内での意味役割(例えば(\ref{eq:Particle})での「手続き」と「参加する」の間の意味関係)を決めるのに格情報を利用することはできない.こういった場合には,単語の意味属性を頼りに意味関係の推定を行なうことになるが,助詞省略を含む句に対しても同じ方法が適用できる.これも,適格文と不適格文を統一的に扱うモデルの妥当性を示している.\vspace*{-0.2mm}\subsection{その他の不適格性}\label{sec:Ill-formed:Others}\vspace*{-0.2mm}日本語の話し言葉には,これまで述べたもの以外にも,述部の省略,倒置,言い誤りなどの不適格性があるが,これらについては,(a)\,頻度が低い,(b)\,単純なヒューリスティクスで扱えることが多い,(c)\,構文・意味解析の範囲を越えるなどの理由により,本稿では扱わない.\vspace*{-0.2mm}
\section{統一モデルに基づく話し言葉の解析}
label{sec:Uniform}\vspace*{-0.2mm}\vspace*{-0.2mm}\subsection{本手法の概要}\label{sec:Uniform:Overview}\vspace*{-0.2mm}本稿で提案する統一モデルに基づく話し言葉の解析手法を説明する.本手法は,\begin{enumerate}\renewcommand{\theenumi}{}\renewcommand{\labelenumi}{}\item話し言葉におけるさまざまな制約を統一的に記述した規則群\item入力文に対してそれらの規則を順次適用して最適な解釈を求める解釈器\end{enumerate}からなる.すべての規則は{\bf確定節}によって記述され,解釈器としては{\bfアブダクション}が用いられる.本稿では前者についてのみ述べる.後者については,別稿\cite{伝:情処論-35-12-2734}を参照されたい.本手法は,基本的には,係り受け解析の拡張である.入力文の依存構造を生成するために,各語(文節)の間の依存関係を調べる.例えば,(\ref{eq:Sentence2})に対する依存構造と各文節の間の文法・意味関係は(\ref{eq:Depend1})のようになる.\enumsentence{\label{eq:Sentence2}会議では翻訳も入れます.}\enumsentence{\label{eq:Depend1}[\DP{loct\&de}会議では\Q[\DP{obje\&accAct}翻訳も\Q入れます]]}ここで,\Rel{loct},\Rel{obje}は意味関係(それぞれ「場所」「対象」)を表し,\Rel{de},\Rel{accAct}は文法関係(それぞれ「デ格」「目的格・能動態」)を表す\footnote{文法関係は,係り文節が任意格要素の場合は係り文節の格で表し,必須格要素の場合は係り文節の格と受け文節の態の組合せで表す.これは,後者では,態に依存して格交替が起こる可能性があるからである.}.依存構造の決定と文法・意味関係の付与は,{\bf構造規則}と{\bf解釈規則}を参照しながら行なう.この処理は,格情報のみに基づいて決定的に行なうのではなく,係り文節と受け文節の間の意味的な結合の強さや文法関係の実現のしやすさ(例えば「も」は「主格」になりやすいか「目的格」になりやすいか)などを考慮して,さまざまな候補に{\bf優先度}を与え,最終的に最も優先度の高い組合せを見つけることによって行なう.したがって,我々のフォーマリズムは,制約に基づく(constraint-based)というよりは,{\bf選好}に基づく(preference-based)ものである.本手法では,通常の係り受け解析を拡張し,言い淀み,言い直しなども語と語(文節と文節)の間の依存関係ととらえる.例えば,言い直しを含む文(\ref{eq:Sentence3})の依存構造は(\ref{eq:Depend2})のようになる.\enumsentence{\label{eq:Sentence3}ほん,翻訳入れます.}\enumsentence{\label{eq:Depend2}[\DP{obje\&accAct}[\DP{phonRepair}ほん\Q翻訳]\Q入れます]}ここで,\Rel{phonRepair}は「ほん」と「翻訳」の間に音韻的な原因による言い直し(以下「音韻的言い直し」)によって依存関係が生じていることを表す.このように,不適格性を扱えるよう係り受け解析を拡張することによって,適格文の最適な解釈を求める処理と不適格性を検出・修正する処理が同じ道具だてで実現できるだけでなく,適格文と不適格文との間の曖昧性にも対処できる.\subsection{構文・意味解析の過程}\label{sec:Uniform:Process}本手法による構文・意味解析の過程を簡単な例題を用いて説明する.図\,\ref{fig:Process}\,は(\ref{eq:Sentence3})の解析過程である.この文は,言い直しと助詞省略の2つの不適格性を含む.さらに,言い直しは適格文との間で曖昧である(「ほん」は「本」と同じ字面).\begin{figure}\begin{center}\mbox{{\bfA:}\quadほん\Q翻訳\Q入れます}\\[\medskipamount]{\Large$\Downarrow$}\rlap{\fbox{文節解析}}\\[\medskipamount]\mbox{\makebox(0,0)[lb]{\raisebox{1.6\baselineskip}{\bfB:}}\begin{footnotesize}\Feature{\Slot{phon}&\Value{ほん}\\\Slot{syn}&\Pair{\footnotesize\Value{本},\Value{普通名詞},\Value{無},\Value{$-$}}\\\Slot{sem}&\Pair{\footnotesize\Value{本},\Value{書物}}}\Feature{\Slot{phon}&\Value{ほんやく}\\\Slot{syn}&\Pair{\footnotesize\Value{翻訳},\Value{サ変名詞},\Value{無},\Value{$-$}}\\\Slot{sem}&\Pair{\footnotesize\Value{翻訳},\Value{翻訳}}}\Feature{\Slot{phon}&\Value{いれます}\\\Slot{syn}&\Pair{\footnotesize\Value{入れる},\Value{がを動詞},\Value{基本},\Value{能動}}\\\Slot{sem}&\Pair{\footnotesize\Value{入れる},\Value{授受}}}\end{footnotesize}}\\[\medskipamount]{\Large$\Downarrow$}\rlap{\fbox{依存構造解析}}\\[\medskipamount]\mbox{{\bfC:}\quad[\DP{?}[\DP{?}ほん\Q翻訳]\Q入れます]\qquad{\bfOR}\qquad[\DP{?}ほん\Q[\DP{?}翻訳\Q入れます]]}\\[\medskipamount]{\Large$\Downarrow$}\rlap{\fbox{依存関係解析}}\\[\medskipamount]\mbox{\raisebox{1.2\baselineskip}{\bfD:}\DependTable{\Pair{ほん,\,翻訳}}{\Rel{of\&gen}&0.0002\\\underline{\Rel{phonRepair}}&\underline{0.0053}}\DependTable{\Pair{翻訳,\,入れます}}{\underline{\Rel{obje\&accAct}}&\underline{0.0134}\\\Rel{inst\&de}&0.0031}\DependTable{\Pair{ほん,\,入れます}}{\Rel{obje\&accAct}&0.0004\\\Rel{loct\&ni}&0.0029}}\\[\medskipamount]{\Large$\Downarrow$}\rlap{\fbox{最適解選択}}\\[\smallskipamount]\mbox{{\bfE:}\quad[\DP{obje\&accAct}[\DP{phonRepair}ほん\Q翻訳]\Q入れます]}\end{center}\caption{構文・意味解析の過程}\label{fig:Process}\end{figure}解析過程は以下の4つのステップからなる.\begin{description}\item[文節解析]入力文{\bfA}を素性構造で表現された文節の列{\bfB}に変換する.\item[依存構造解析]文節の列{\bfB}に構造規則を適用し,可能な依存構造の集合{\bfC}に変換する.\item[依存関係解析]依存構造の集合{\bfC}に含まれる各依存関係について,解釈規則を適用し,解釈の候補{\bfD}を生成する.依存関係解釈の候補のおのおのには,$[0,1]$間の実数値で表される優先度を与える.\item[最適解選択]最も優先度の大きい解釈({\bfD}の下線部分)を選択し,文全体の依存構造と依存関係解釈{\bfE}を出力する.\end{description}この例では,{\bfB}の文節列に対して,{\bfC}の2つの依存構造が可能であり,その中に3つの依存関係が含まれる.それぞれの依存関係に対する解釈の候補は{\bfD}のようになり,下線を引いたものが最も優先度の大きい組合せとして選択される.この過程において,助詞省略は「目的格」に解釈され,言い直しと適格文(「本(に)入れます」)との曖昧性も解消されている.\subsection{文節解析}\label{sec:Uniform:Bunsetsu}文節解析への入力は,音声認識システムの出力として漢字仮名混じり文が与えられることを想定している.文節解析は,入力文を素性構造で表現された文節の列に変換する.文節は,ちょうど1つの自立語といくつかの付属語からなる\footnote{特別な付属語として,繋辞(「です」など)と補文標識(「こと」など)がある.これらは自立語の範疇を変更する(「会議」(名詞)$\to$「会議です」(動詞))ので,{\bf範疇変換語}とよぶ.範疇変換語を含む文節に対しては,複数のレベルでの係り受けが可能である.例えば,「言語学の会議です」は名詞レベル,「これは会議です」は動詞レベルでの係り受けである.}.素性構造は,一般に以下の形式である.\begin{equation}\label{eq:Feature}\Feature{\Slot{phon}&よみ\\\Slot{syn}&\Pair{語彙,範疇,形,態}\\\Slot{sem}&\Pair{概念,属性}}\end{equation}\begin{description}\item[よみ]文節全体のよみを仮名で表したもの.\item[語彙]文節内の自立語の見出し語.\item[範疇]語彙の統語範疇.「連体詞」「副詞」「普通名詞」「固有名詞」「が動詞」「がを動詞」「が形容詞」などがある(用言は格パターンに応じて細分類されている)\footnote{範疇変換語を含む文節の範疇はリストで表す.例えば,「会議です」の範疇は「普通名詞+繋辞」である.}.\item[形]名詞文節の格や動詞文節の活用形.名詞文節が助詞省略を含む場合は「無」で表す.\item[態]動詞文節の態.動詞文節以外は`\Value{$-$}'で表す.\item[概念]文節内の自立語の見出し語.\item[属性]概念の意味属性.角川類語新辞典\cite{大野:角類新-81}の小分類を使用.\end{description}話し言葉では{\bf不要語}を扱う必要がある.不要語は以下のいずれかである.\begin{itemize}\item「あのー」「えーと」のような冗長語\item発語が中断された語(中断語)\end{itemize}これらは,しばしば,適正な語と同じ字面になることがある(例えば(\ref{eq:Sentence3})の中断語「ほん」は「本」と同じ字面).その場合には,不要語と適正な語の両方の可能性を考慮することになる.なお本稿では,不要語であっても,音声認識システムによって正しい音韻列が与えられると仮定しているが,これは現在の音声認識技術から考えると少し難しいかも知れない.文節解析の出力である文節列は,以下の形式の要素式によって表現される.\begin{equation}\label{eq:Bunsetsu}\Formula{\Var{Sym}}{\Var{Start},\Var{End},\Var{Feature}}\end{equation}\Var{Sym}は非終端記号であり,\Var{Start},\Var{End}はそれぞれ,その文節の開始位置,終了位置(確定節文法(DCG)の文字列引数に対応)を表し,\Var{Feature}はその文節の素性構造を表す.非終端記号\Var{Sym}は,統語範疇に依存して表\,\ref{tab:Sym}(付録)のように決まる.\subsection{依存構造解析}\label{sec:Uniform:Struct}依存構造解析は,(\ref{eq:Bunsetsu})の形式の要素式で表現された文節の列に対して,構造規則を適用しながら,すべての可能な依存構造を生成する.構造規則は,一般に以下の形式である\footnote{実際には,範疇変換を扱う構造規則が別にあり,これによって,「会議です」の範疇が「普通名詞+繋辞」から「が動詞」に変換される.変換前には名詞レベルでの係り受けが,変換後には動詞レベルでの係り受けが可能である.}.\begin{equation}\label{eq:Struct}\begin{array}[t]{@{}l@{}}\Formula{\Var{Sym2}}{X_0,X_2,F_2}\,\Implied\,\Formula{\Var{Sym1}}{X_0,X_1,F_1},\,\Formula{\Var{Sym2}}{X_1,X_2,F_2},\,\Formula{\Var{Depend}}{F_1,F_2}.\end{array}\end{equation}この規則は,係り文節(右辺の第1式)と受け文節(右辺の第2式)から複合句(左辺)が作られることを表す.複合句の素性構造は受け文節から引き継がれ,これは日本語が主要部後置(head-final)型であることによる.右辺の第3式は,係り文節と受け文節の間の依存関係を表す.この依存関係は,依存関係解析において,適当な文法・意味関係もしくは不適格性を示す関係に解釈される.係り文節と受け文節の可能な組合せとその間の依存関係の解釈の種類は,非終端記号によって表\,\ref{tab:Struct}(付録)のように制限される.この規則は複合句に対しても再帰的に適用される.複合句の素性構造は主要部の情報だけを持つので,依存関係は句の間の関係ではなく,主要部文節の間の関係であることに注意せよ.これは係り受け解析の特徴であり,調べるべき依存関係の数が文節数の二乗のオーダに抑えられる.\subsection{依存関係解析}\label{sec:Uniform:Depend}依存関係解析は,すべての可能な依存構造に含まれる依存関係のおのおのに対して,解釈規則を適用し,すべての可能な解釈の候補を生成する.解釈規則は,(i)\,適格な依存関係に関する規則と(ii)\,不適格な依存関係に関する規則の2種類からなる.\subsubsection{適格な依存関係に関する解釈規則}\label{sec:Uniform:Depend:Well-formed}適格な依存関係に関する解釈規則は,一般に以下の形式である.\begin{equation}\label{eq:Well-formed}\begin{array}[t]{@{}l@{}}\Formula{\Var{Depend}}{F_1,F_2}\,\Implied\,\Formula{\Var{Cond}}{F_1,F_2},\,\Formula{\Var{SemRel}}{F_1,F_2},\,\Formula{\Var{SynRel}}{F_1,F_2}.\end{array}\end{equation}この規則は,依存関係\Var{Depend}が,ある条件\Var{Cond}のもとで,ある意味関係\Var{SemRel}とある文法関係\Var{SynRel}に解釈できることを表す.例えば,名詞文節と動詞文節の間の依存関係(\Rel{dep\_n\_v})は,意味関係\Rel{obje}(「対象」)と文法関係\Rel{accAct}(「目的格・能動態」)に解釈できる.この際の条件としては,受け文節が目的格に対象を取る動詞(「がを動詞」など)であること,受け文節の態が「能動」であること,係り文節の形が目的格になれるもの(「を」「も」「無」など)であること,などが課される.これらの条件は,単一化文法において,下位範疇化素性として記述されているものと等価である.適格な依存関係の一部を表\,\ref{tab:Well-formed}(付録)にあげる.\subsubsection{不適格な依存関係に関する解釈規則}\label{sec:Uniform:Depend:Ill-formed}不適格な依存関係に関する解釈規則は,一般に以下の形式である.\begin{equation}\label{eq:Ill-formed}\begin{array}[t]{@{}l@{}}\Formula{\Var{Depend}}{F_1,F_2}\,\Implied\,\Formula{\Var{Cond}}{F_1,F_2},\,\Formula{\Var{IllRel}}{F_1,F_2}.\end{array}\end{equation}この規則は,依存関係\Var{Depend}が,ある条件\Var{Cond}のもとで,ある不適格性を示す関係\Var{IllRel}に解釈できることを表す.例えば,不要語と名詞文節の間の依存関係(\Rel{dep\_nonlex\_any})は,不適格な依存関係\Rel{phonRepair}(「音韻的言い直し」)に解釈できる.この際の条件としては,係り文節のよみが受け文節のよみの部分(例えば「ほん」と「ほんやく」)であることが課される.不適格な依存関係を表\,\ref{tab:Ill-formed}(付録)にあげる.ここでは,以下の5種類の不適格性を考えている.\Rel{hest}(「言い淀み」),\Rel{phonRepair}(「音韻的言い直し」),\Rel{synRepair}(「統語的言い直し」),\Rel{semRepair}(「意味的言い直し」),\Rel{rept}(「繰り返し」).\subsubsection{優先度}\label{sec:Uniform:Depend:Preference}依存関係解釈の候補のおのおのには,$[0,1]$間の実数値で表される優先度が与えられる.優先度をどのように与えるかということは,話し言葉の構文・意味解析をどのようなモデルに基づいて行なうかということとは,一応独立した問題であると考えられる.しかし,本手法の有効性を検証するために,我々は一つの優先度計算法を実験システムに実装した.以下では,これについて簡単に説明する.詳細は別稿\cite{伝:言処-投稿中}を参照されたい.我々の優先度計算法は,{\bfコーパス}に基づく(corpus-based)手法である.優先度は,その依存関係解釈が学習データ中でどのくらいの頻度で生じているかに応じて与える.すなわち,係り文節$\alpha$と受け文節$\beta$の間の依存関係解釈$\pi$の優先度$P(\pi,\alpha,\beta)$は,次式で与えられる.\begin{equation}\label{eq:Preference}P(\pi,\alpha,\beta)=\frac{\mbox{\Formula{$\pi$}{\alpha,\beta}の頻度}}{\sum_{p,x,y}\mbox{\Formula{$p$}{x,y}の頻度}}\end{equation}分子は係\hspace{-0.1mm}り\hspace{-0.1mm}文節$\alpha$\hspace{-0.2mm}と受け文節$\beta$\hspace{-0.1mm}の間に解釈$\pi$\hspace{-0.1mm}を持つ事例(\Formula{$\pi$}{\alpha,\beta}で表す)\hspace{-0.1mm}の頻度であり,\hspace{-0.5mm}分母は学\\習データ中のすべての事例の頻度の総和である.しかし,このままでは学習データの希薄性(data-sparseness)の問題を避けられないので,分子の\,\Formula{$\pi$}{\alpha,\beta}\,の頻度を計算する際に,完全に一致する事例だけでなく類似した事例の頻度も考慮する.例えば,\Formula{\Rel{obje}}{翻訳,入れる}\,の頻度を計算する際に,これと類似した事例\,\Formula{\Rel{obje}}{通訳,行なう}\,が学習データ中にあれば,その頻度を考慮に入れるという具合である.不適格な依存関係についても,例えば,言い直しのパターンの間の類似性を定義し,上と同じ方法で優先度の計算を行なう.類似性の定義などの詳細についてはここでは省略する.\subsection{最適解選択}\label{sec:Uniform:Best}最適解選択は,すべての可能な依存構造と依存関係解釈の候補から,最も優先度が大きくなる組合せをみつけ,文全体の依存構造と依存関係解釈を出力する(格構造はそこから生成できる).
\section{評価}
label{sec:Evaluation}\subsection{解析の実例}\label{sec:Evaluation:Example}以下では,本手法による構文・意味解析の実例をあげる.例文はいずれもATR対話データベース(ADD)\,\cite{江原:ATR-TR-I-0186}からとったものである.\begin{Ex}\label{Ex:Example1}\rm\\begin{description}\item[入力]あの,会議ではもちろん通訳,翻訳も入れます.\item[出力][\DP{loct\&de}\SS{[\DP{hest}あの\Q会議では]\\\relax[\DP{advRel\&renyo}\SS{もちろん\\\relax[\DP{obje\&accAct}[\DP{semRepair}通訳\Q翻訳も]\Q入れます]]]}}\end{description}\end{Ex}この文は言い淀み(「あの」)と言い直し(「通訳」$\to$「翻訳も」)を含む.冗長語「あの」は直後の文節「会議では」に対して不適格な依存関係\Rel{hest}で係る.これはすべての言い淀みに共通した構造である.この文の言い直しは,意味的な原因で生じており,不適格な依存関係\Rel{semRepair}が付与される.構造規則(\ref{eq:Struct})により,言い直しの訂正部分「翻訳も」が主要部として上位の構造に伝わることに注意せよ.これは,日本語においては,不適格性による構造も含めて,主要部後置の性質が成り立つことを意味する.\begin{Ex}\label{Ex:Example2}\rm\\begin{description}\item[入力]あのー,言語学関係の方からのスピーチ,スピー,スピー,スピーチのですね,申し込み\item[出力][\DP{from\&karano}\SS{[\DP{in\&gen}[\DP{hest}あのー\Q言語学関係の]\Q方からの]\\\relax[\DP{of\&gen}\SS{[\DP{synRepair}\SS{スピーチ\\\relax[\DP{phonRepair}\SS{スピー\\\relax[\DP{phonRepair}スピー\Qスピーチのですね]]]}}\\\relax申し込み]]}}\end{description}\end{Ex}この文では言い直しが3つ連続して生じている(「スピーチ」「スピー」「スピー」$\to$「スピーチのですね」).これらはすべて訂正部分に係るように分析される.その結果,連続する言い直しの部分は右分岐構造をなす.これは,日本語の適格文の標準的な構造に合致する.\begin{Ex}\label{Ex:Example3}\rm\\begin{description}\item[入力]えーっと,受領の通知は,受け取りの通知は十二月三十一日までに出させていただきます.\item[出力][\DP{obje\&accAct}\SS{[\DP{rept}\SS{[\DP{of\&gen}[\DP{hest}えーっと\Q受領の]\Q通知は]\\\relax[\DP{of\&gen}受け取りの\Q通知は]]}\\\relax[\DP{tlim\&madeni}十二月三十一日までに\Q出させていただきます]]}\end{description}\end{Ex}この文の言い直し(「受領の通知は」$\to$「受け取りの通知は」)では,修復対象が単一の文節ではなく,複数の文節である.しかし,修復対象の内部が適格な構造([\DP{of\&gen}受領の通知は])をなしているため,係り受け解析を拡張した本手法では,大域的なマッチング\cite{Kikui:ICSLP94-915}を用いることなく,修復対象の範囲を同定できる.修復対象の内部構造の適格性は,日本語においては,多くの場合に成り立つと予想される.実際,ADDの10対話を分析したところ,修復対象が(冗長語を除いて)2文節以上ある言い直し(14例)のすべてについて,適格な内部構造を与えることができた.\begin{Ex}\label{Eq:Example4}\rm\\begin{description}\item[入力]国際電話の,どうじ,コンピュータによる通訳,コンピュータによる同時通訳に関する,あのー,会議\item[出力]\SS{[\DP{on\&nikansuru}\\\QQ[\DP{of\&gen}\SS{国際電話の\\\relax[\DP{phonRepair}\SS{どうじ\\\relax[\DP{semRepair}\SS{[\DP{by\&niyoru}コンピュータによる\Q通訳]\\\relax[\DP{by\&niyoru}コンピュータによる\Q同時通訳に関する]]]]}}}\\\QQ[\DP{hest}あのー\Q会議]]}\end{description}\end{Ex}この文では,言い直しが2つ連続して生じており(「どうじ」「コンピュータによる通訳」$\to$「コンピュータによる同時通訳に関する」),かつ,2番めの言い直しの修復対象は複数の文節である.さらに,言い直しの直前の文節「国際電話の」は2つの言い直しをはさんで「コンピュータによる同時通訳に関する」に係る.この例は一見かなり複雑にみえるが,上のように問題なく依存構造が与えられる.このような複雑な例でもうまく扱えるということは,係り受け解析を拡張した本手法の一般性を示しているといえる.\subsection{実験システムの性能}\label{sec:Evaluation:Experiment}本手法の有効性を定量的に検証するために,実験システムを作成した.優先度の計算法としては,\ref{sec:Uniform:Depend:Preference}\,節で概略を述べたものを用いた.実験は,ADDの10対話(662文)を対象として,交差検定(crossvalidation)で行なった.実験の詳細については,別稿\cite{伝:言処-投稿中}を参照されたい.実験の結果,依存関係解釈の正解率は66\%,文全体の解釈の正解率は49\%であった(人手で付与したものと完全に一致したときのみ正解).不適格性の検出・修正だけでなく,構文・意味解析の総合性能を評価していることを考えると,悪くない成績といえる.一方,言い直しに注目すると,統語的言い直しでは再現率90\%,適合率47\%,意味的言い直しでは再現率88\%,適合率32\%であった(音韻的言い直しでは,修復対象と適正な語との曖昧性が生じなかったために,再現率,適合率ともに100\%であった).さらに,言い直しの解析の適合率の低さが統一モデルに起因するものかどうか調べるために,この手法を二段階モデルに組み込んで比較した.すなわち,言い直しに対する解釈規則を除いた規則群で第一段階の解析を行ない,それが失敗した場合に,言い直しに対する解釈規則を加えて再解析を行なう.この結果,適合率は,統語的言い直しでは75\%と大きく改善されたが,意味的言い直しでは33\%に改善されたに過ぎなかった.逆に,再現率はそれぞれ,30\%,12\%と大きく低下した.これは,言い直しの多くが適格文として誤って解析されたことを表し(事実,適格な依存関係の解析の適合率が二段階モデルでは低下した),\citeA{佐川:IPSJ-NL-94-100-73}が観察した不適格文と適格文との曖昧性が二段階モデルでは大きな問題となることがわかった.これに対し,統一モデルでは,音響的・韻律的情報を用いることによって,誤って言い直しと判断される例を除去できる可能性がある\cite{O'Shaughnessy:ICSLP92-931,Nakatani:ACL93-46}.\subsection{適用範囲}\label{sec:Evaluation:Limitation}本研究のターゲットである言い淀み,言い直し,繰り返し,助詞省略のうち,本手法では扱えないものを以下にあげる.\begin{enumerate}\renewcommand{\theenumi}{}\renewcommand{\labelenumi}{}\item\label{Limitation:1}文節の途中で生じた言い淀みや言い直しは扱えない.例えば,(\ref{eq:Limitation1})では,冗長語「あのー」が文節「こちらが」の途中で生じている.(\ref{eq:Limitation2})では,言い直しの訂正が文節の途中から生じている.(\ref{eq:Limitation3})では,助詞を含む文節全体(「アブストラクトが」)の代わりに助詞(「が」)だけが言い換えられている.\enumsentence{\label{eq:Limitation1}こちら,{\bfあのー},が朝食の,えー,お値段.}\enumsentence{\label{eq:Limitation2}えーと,この時点で,提出していただく{\bfだく}のは}\enumsentence{\label{eq:Limitation3}あのー,アブストラクト{\bfを}があれば}ADDの613対話に対する粗い見積りでは,言い淀み,言い直しが文節の途中で生じる割合は,それぞれ,0.15\%,3.7\%であった.後者の半数は助詞の言い換えである.\item\label{Limitation:2}複合的な原因によって生じた言い直しは扱えない.例えば,(\ref{eq:Limitation4})は,音韻的な原因と意味的な原因が複合した言い直しと考えられる(「おおさ」は「大阪」の発語を中断したものであり,かつ,「大阪」自体も「京都」を言い誤ったものである).\enumsentence{\label{eq:Limitation4}東京から,{\bfおおさ},えー,京都まで}\item\label{Limitation:3}修復対象が2文節以上ある言い直しのうち,主要部が中断語であるものは扱えない.例えば,(\ref{eq:Limitation5})では,修復対象「これはきん」の主要部「きん」は訂正部分の主要部「禁ぜられています」の中断語であると思われるが,「きん」が不要語になってしまうため,修復対象の内部構造を正しく解析できない.\enumsentence{\label{eq:Limitation5}{\bfこれはきん},えー,一応,これは,えー,禁ぜられていますんで}\end{enumerate}(\ref{Limitation:1})は,係り受け解析を基本とする本手法とは別に扱う必要がある.(\ref{Limitation:2}),(\ref{Limitation:3})は,中断語の扱いに関する問題点であり,今後検討したい.
\section{従来の手法との比較}
label{sec:Comparison}不適格文を扱う手法の研究は,\ref{sec:Intro}\,節で述べたように,(A)\,不適格性を扱う個別的な手法,(B-1)\,二段階モデルに基づく一般的な手法,(B-2)\,統一モデルに基づく一般的な手法の3つのアプローチに大別できる.これらと本稿の手法との比較を述べる.不適格性を扱う個別的な手法\cite{Hindle:ACL83-123,Bear:ACL92-56,Nakatani:ACL93-46,佐川:情処論-35-1-46,山本:情処論-33-11-1322}においては,言い直しの扱いなどが他の構文・意味解析過程とは独立して論ぜられている.これらの中には,再現率・適合率による評価において,本稿の手法より優れているものもある(例えば,\citeA{Nakatani:ACL93-46}は言い直しの検出で再現率83\%と適合率94\%を達成している)が,これらの手法を構文・意味解析システムに組み込んだときにどれだけ有効かは明らかでない\footnote{\citeauthor{Bear:ACL92-56}は後の報告\cite{Dowding:ACL93-54}において,言い直しの処理を構文・意味解析システムに組み込んだ際の再現率・適合率がそれぞれ30\%,62\%であったとしている.}.特に,\ref{sec:Ill-formed:Repair}\,節で述べたように,日本語においては適格文と不適格文の曖昧性が生じる場合が多いので,不適格性の処理を構文・意味解析過程の中にうまく組み込む方法を考えることがとりわけ重要である.一方,不適格性を扱う一般的な手法を話し言葉の不適格性の扱いに具体的に適用した研究は見られない.二段階モデルに基づく手法\cite{Jensen:CL-9-3-147,McDonald:ANLP92-193,Weischedel:CL-9-3-161,Mellish:ACL89-102}の中には,話し言葉の処理に適用できそうなものもある(例えば,チャート法の拡張によって文中の余分な語の削除や欠落している語の挿入を行なう\citeA{Mellish:ACL89-102}の手法)が,具体例がないのでその有効範囲は明らかでない.また,統一モデルに基づく手法\cite{Fass:CL-9-3-178,Hobbs:AI-63-69}は,動作原理と簡単な例の提示に留まっており,本稿で示したような広範囲な実例への適用については述べられていない.本稿の手法は,既存の統一モデルに基づく手法からアイデアを借用している部分もある(例えば,確定節による規則の記述とアブダクションによる解釈は\citeA{Hobbs:AI-63-69}のモデルの拡張である)が,話し言葉の不適格性を扱うための具体的な規則や優先度計算の具体的な手法を与えている点において,既存の手法に優る.まとめると,本稿の手法は,不適格性を扱うための具体的な方法を与えつつ,特定の不適格性の扱いにとどまらず構文・意味解析過程全体を考慮した手法を実現している点が,従来の手法に対して優れているといえる.
\section{おわりに}
label{sec:Conclude}本稿では,テキスト(漢字仮名混じり文)に書き起こされた日本語の話し言葉の文からその文の格構造を取り出す構文・意味解析処理の中で,言い淀み,言い直しなどの不適格性を適切に扱う手法について述べた.本手法は,適格文と不適格文を統一的に扱う統一モデルに基づいており,具体的には,係り受け解析の拡張によって実現されている.本稿では,まず,音声対話コーパスからの実例をあげながら統一モデルの必要性を述べ,次に,本手法の詳細を説明した後,その有効性を解析の実例をあげるとともに実験システムの性能を評価することで示した.その結果,さまざまな不適格性を含む複雑な話し言葉の文が,係り受け解析を基本とする本手法によってうまく扱えることが示され,さらに,定量的にも,試験文の約半数に完全に正しい依存構造が与えられることが示された.今後の課題としては,適用範囲の拡大とともに,音響的・韻律的情報を利用した不適格性の解析の高精度化があげられる.\bibliographystyle{jnlpbbl}\bibliography{main}\begin{biography}\biotitle{略歴}\bioauthor{伝康晴}{1988年京都大学工学部電気工学第二学科卒業.1993年同大学大学院博士後期課程研究指導認定退学.京都大学博士(工学).1991年より2年間ATR自動翻訳電話研究所滞在研究員.1993年国際電気通信基礎技術研究所入社,ATR音声翻訳通信研究所研究員.1996年10月より奈良先端科学技術大学院大学情報科学研究科助教授,現在に至る.計算言語学,認知科学の研究に従事.日本認知科学会,日本ソフトウェア科学会,人工知能学会,情報処理学会,言語処理学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\appendix\begin{table}[h]\caption{非終端記号}\label{tab:Sym}\smallskip\centering\begin{tabular}{|c|l|}\hline\Var{Sym}&\hfil統語範疇\\\hline\hline\Rel{nonlex}&不要語\\\hline\Rel{adn}&連体詞\\\hline\Rel{adv}&副詞\\\hline\Rel{n}&普通名詞,固有名詞などの名詞類\\\hline\Rel{v}&が動詞,がを動詞,が形容詞などの動詞類\\\hline\Rel{n\_v}&名詞類+繋辞\\\hline\Rel{v\_n}&動詞類+補文標識\\\hline\Rel{n\_v\_n}&名詞類+繋辞+補文標識\\\hline\Rel{v\_n\_v}&動詞類+補文標識+繋辞\\\hline\end{tabular}\end{table}\begin{table}[h]\caption{依存構造における係り文節と受け文節の組合せ}\label{tab:Struct}\vspace*{-\bigskipamount}\centering\begin{tabular}[t]{|c|c|c|}\hline\Var{Sym1}&\Var{Sym2}&\Var{Depend}\\\hline\hline\Rel{nonlex}&\Rel{nonlex}&\Rel{dep\_nonlex\_nonlex}\\\hline\Rel{nonlex}&\Rel{adn},\Rel{adv},\Rel{n},\Rel{n\_v},\Rel{n\_v\_n},\Rel{v},\Rel{v\_n},\Rel{v\_n\_v}\,のいずれか&\Rel{dep\_nonlex\_any}\\\hline\Rel{adn}&\Rel{adn}&\Rel{dep\_adn\_adn}\\\hline\Rel{adn}&\Rel{n},\Rel{n\_v},\Rel{n\_v\_n}\,のいずれか&\Rel{dep\_adn\_n}\\\hline\Rel{adv}&\Rel{adv}&\Rel{dep\_adv\_adv}\\\hline\Rel{adv}&\Rel{v},\Rel{v\_n},\Rel{v\_n\_v}\,のいずれか&\Rel{dep\_adv\_v}\\\hline\Rel{n}&\Rel{n},\Rel{n\_v},\Rel{n\_v\_n}\,のいずれか&\Rel{dep\_n\_n}\\\hline\Rel{n}&\Rel{v},\Rel{v\_n},\Rel{v\_n\_v}\,のいずれか&\Rel{dep\_n\_v}\\\hline\Rel{v}&\Rel{n},\Rel{n\_v},\Rel{n\_v\_n}\,のいずれか&\Rel{dep\_v\_n}\\\hline\Rel{v}&\Rel{v},\Rel{v\_n},\Rel{v\_n\_v}\,のいずれか&\Rel{dep\_v\_v}\\\hline\end{tabular}\end{table}\begin{table}[h]\caption{適格な依存関係に関する解釈(一部)}\label{tab:Well-formed}\smallskip\centering\begin{tabular}{|c|c|c||l|}\hline\Var{Depend}&\Var{SemRel}&\Var{SynRel}&\hfil例\\\hline\hline\Rel{dep\_adn\_n}&\Rel{adnRel}&\Rel{rentai}&\Pair{この,\,会議}\\\hline\Rel{dep\_adv\_v}&\Rel{advRel}&\Rel{renyo}&\Pair{多分,\,簡単だ}\\\hline&\Rel{of}&\Rel{gen}&\Pair{日本の,\,首相}\\\cline{2-4}\Rel{dep\_n\_n}&\Rel{in}&\Rel{gen}&\Pair{京都の,\,ホテル}\\\cline{2-4}&\Rel{from}&\Rel{karano}&\Pair{大学からの,\,参加者}\\\hline&\Rel{agen}&\Rel{nomAct}&\Pair{学生が,\,研究する}\\\cline{2-4}&\Rel{obje}&\Rel{nomAct}&\Pair{会議が,\,興味深い}\\\cline{2-4}\Rel{dep\_n\_v}&\Rel{obje}&\Rel{accAct}&\Pair{日本語を,\,話す}\\\cline{2-4}&\Rel{obje}&\Rel{nomPass}&\Pair{日本語が,\,話される}\\\cline{2-4}&\Rel{loct}&\Rel{de}&\Pair{大学で,\,研究する}\\\hline\Rel{dep\_v\_n}&\Rel{that}&\Rel{toiu}&\Pair{分析するという,\,研究}\\\hline\Rel{dep\_v\_v}&\Rel{caus}&\Rel{node}&\Pair{興味深いので,\,聞く}\\\hline\end{tabular}\end{table}\begin{table}[h]\caption{不適格な依存関係に関する解釈}\label{tab:Ill-formed}\smallskip\centering\begin{tabular}{|c|c||l|}\hline\Var{Depend}&\Var{IllRel}&\hfil例\\\hline\hline\Rel{dep\_nonlex\_nonlex}&\Rel{hest}&\Pair{えーっと,\,あのー}\\\hline\Rel{dep\_nonlex\_any}&\Rel{hest}&\Pair{えーっと,\,そちら}\\\cline{2-3}&\Rel{phonRepair}&\Pair{つう,\,通訳電話}\\\hline\Rel{dep\_adn\_adn}&\Rel{semRepair}&\Pair{同じ,\,同一}\\\hline\Rel{dep\_adv\_adv}&\Rel{semRepair}&\Pair{直接に,\,簡単に}\\\hline&\Rel{synRepair}&\Pair{カードを,\,カードの}\\\cline{2-3}\Rel{dep\_n\_n}&\Rel{semRepair}&\Pair{通訳,\,翻訳}\\\cline{2-3}&\Rel{rept}&\Pair{通知は,\,通知は}\\\hline&\Rel{synRepair}&\Pair{持ち込んで,\,持ち込んでいただいて}\\\cline{2-3}\Rel{dep\_v\_v}&\Rel{semRepair}&\Pair{つもりです,\,予定です}\\\cline{2-3}&\Rel{rept}&\Pair{行くと,\,行くと}\\\hline\end{tabular}\end{table}\end{document}
| |
V02N02-01 | \section{まえがき}
高度な自然言語理解システムの実現のために,凝った言い回し,すなわち修辞表現を工学的に処理する手法の確立は,避けて通れない研究課題になっている.代表的な修辞表現である「比喩」は,隠喩,直喩,活喩,物喩,提喩,換喩,諷喩,引喩,張喩,類喩,声喩,字喩,詞喩の13種類に分類するのが一般的である\cite{Haga1990}.その中でも隠喩と換喩は,従来からとりわけ注目され\cite{Haga1990},工学の分野でもこの2種の比喩の解析の研究については,既に数多く行われている\cite{Doi1989,Iwayama1991,Utsumi1993,Suwa1994,Iwayama1992}.隠喩と換喩以外の比喩については,諷喩の固定したものである「諺」を検出するモデルが提案されている\cite{Doi1992}以外は,概して工学的処理の対象としてはまだあまり注目されていないといってよい.比喩の一つである「詞喩」は,「同音語など,ことばの多面性を利用してイメージの多重性をもたらす,地口や語呂合わせなどの遊戯的表現の総称」と定義され\cite{Nakamura1991},その中心が,同音異義語あるいは類音語を利用した「掛け言葉」にあるとされている\cite{Nakamura1977}.また「駄洒落」は中村によると,「掛け言葉の使用それ自体を目的として無意味な言葉を添える表現技法」と定義される\cite{Nakamura1991}.さらに尼ケ崎は,掛け言葉と駄洒落とを,成立の仕組みの上では同じものとして扱っている\cite{Amagasaki1988}.これらによると,詞喩と駄洒落との関係については種々の見方があるものの,駄洒落を詞喩表現の卑近な典型例として扱うことに異論は無いものと考えられる.北垣は,ヒューマンフレンドリーなコンピュータの開発という観点から,駄洒落情報を抽出するシステムを試作している\cite{Kitagaki1993}.しかしこれは,自然言語理解の観点から駄洒落の工学的解析に取り組んだ研究ではない.筆者らは,駄洒落を「地口」として扱い,その工学的検出法の検討を進めてきた\cite{Takizawa1989}.現在は検出から一歩進めて,駄洒落を理解するシステムの構築を目指している.その研究の一環として本稿では,記述された(即ち発話されたものでない)駄洒落を収集し,筆者らが「併置型」と呼ぶ駄洒落の一種について,音素上の性質を分析し,工学的処理機構を構成するために必要な知見を得た結果について報告する.
\section{分析のための準備}
label{pre}\subsection{用語の定義}\label{pre-def}比喩の研究では,比喩を,例えられる語(被喩辞,tenor)と例える語(喩辞,vehicle)との2項関係に単純化して分析している.例えば楠見によると,実際の用例における\#\ref{one}のような比喩を\#\ref{two}のような直喩等に単純化して,被喩辞「心」と喩辞「沼」の2項の関係を分析する\cite{Haga1990}.\vspace*{1em}\begin{sample}\item「心は風のない池か沼の面のようにただどんよりと澱んでいた.」\label{one}\item「心は沼のようだ」\label{two}\end{sample}\vspace*{1em}被喩辞と喩辞の2項以外は,一般に比喩の成立には直接的には無関係と考えられるため,比喩の研究はこの2項の関係を分析することに帰結させることができる.そこで本研究でも,駄洒落を,比喩の一種である詞喩の典型例と捉え,2項関係に単純化して分析する.筆者らは,駄洒落(地口)を「重畳型」と「併置型」とに分類できることを指摘した\cite{Takizawa1992}.重畳型とは,\#\ref{three}のように,2項の音素列を共有させる駄洒落である.\vspace*{1em}\begin{sample}\item「\underline{通常残業}省」\label{three}\end{sample}\vspace*{1em}\#\ref{three}の場合は「通商産業省」と「通常残業」とが,下線部で音素位置を共有している.また併置型とは\#\ref{four}のように,2項の音素列を近接した位置に併存させる駄洒落である.\vspace*{1em}\begin{sample}\item「\underline{トイレ}に行っ\underline{といれ}」\label{four}\end{sample}\vspace*{1em}\#\ref{four}の場合は,類似音素列である「トイレ」(普通名詞)と「といれ」(「行って」(子音動詞カ行促音便形タ系連用テ形)の一部「て」+「おいで」(普通名詞)の音便化)とが,下線部で示すように近接して併存している.ある発話に対して聞き手が駄洒落で答える\#\ref{five}のような例は,併置型に分類される.\vspace*{1em}\begin{sample}\item「\underline{運動場}借りてもいい?」「\underline{うん,どうじょ}.」\label{five}\end{sample}\vspace*{1em}一般の比喩の場合,単純化された2項は一方が被喩辞,他方が喩辞となる.ところが駄洒落の場合,2項のうちのどちらが被喩辞でどちらが喩辞であるかを明確には決められない.例えば,\#\ref{six}の場合,「豚」(普通名詞)と「ぶた」(子音動詞タ行未然形)との2項関係に単純化できるが,先行する「豚」の音素を「ぶた」のほうに重ねたと考えれば,「ぶた」が「豚」を例えたことになる.逆に,「ぶた」が後続することを匂わせるためにまず「豚」を提示した(すなわち「豚」に「ぶた」を重ねている)と考えれば,「豚」が「ぶた」を例えたことになる.\vspace*{1em}\begin{sample}\item「豚がぶたれた」\label{six}\end{sample}\vspace*{1em}そこで本研究では,駄洒落を構成する2項を区別することなく共に喩辞とし,先に提示される喩辞を「先行喩辞」,後の喩辞を「後続喩辞」と呼ぶことにする.駄洒落は,両喩辞の発音を接近させるために,一方(または両方)の喩辞の発音を変歪させることがよく行われる.本研究では,発音変歪後の語句(例えば\#\ref{four}の後半の下線部「といれ」)を「出現喩辞」と呼ぶことにする.そして変歪前の語句,即ち出現喩辞を,付録で述べる「基準辞書」に登録されている形態素の組合せに復元した語句を「復元喩辞」と呼ぶことにする.例えば\#\ref{four}の出現喩辞「といれ」の場合,「ておいで」が復元喩辞(後続復元喩辞)となる.なお,\#\ref{four}の先行復元喩辞「トイレ」のように,出現喩辞が復元喩辞と一致する場合もありうる.重畳型と併置型とでは,機械処理によって出現喩辞(および復元喩辞)を同定するためにとるべき方法が,根本的に異なる.重畳型の場合,先行出現喩辞と後続出現喩辞とが重なっており\footnote{従って重畳型の場合は「先行」「後続」という呼称は不適当であろう.},両方の出現喩辞を同定するには,同一文字列の範囲を2重に解析する必要がある.例えば重畳型駄洒落「通常残業省」の場合,表記に従った辞書引きから「通常残業」(2形態素)を一方の出現喩辞(かつ復元喩辞)として同定した上で,更に同一文字列の範囲において,今度は音素列の最長一致による辞書引きを行い,もう一方の出現喩辞である「通常残業省」を同定して,そこから復元喩辞の「通商産業省」を復元する,という解析を行う必要がある.通常の自然言語処理では,このように同一文字列を2重に解析することは一般に無い.それに対し併置型駄洒落の場合は,先行/後続出現喩辞が独立して明示されているため,形態素・構文解析は原理的には通常の自然言語における解析方法と同じであり,あとは音素列の照合によって,同一(または類似)音素列を探索して先行/後続出現喩辞を同定すればよい.そこで本稿では,機械処理がより簡単と思われる併置型のほうにまず着目して分析した.\subsection{想定する駄洒落理解システム}機械による駄洒落理解とは,文を入力し,意味解析結果,出現喩辞,および復元喩辞を出力することとする.例えば,\#\ref{four}の文を入力した場合,概念的には以下のような出力を得ることを,機械が駄洒落を理解したこととする.\vspace*{1em}\begin{list}{}{}\item意味解析結果:トイレに行くことを勧める\footnote{実際の意味解析結果の出力は,もちろんこのような自然言語による曖昧な表現でなく,記号による意味表現にすべきであろう.}\item先行出現喩辞:「トイレ」\item後続出現喩辞:「といれ」\item先行復元喩辞:「トイレ」\item後続復元喩辞:「ておいで」\end{list}\vspace*{1em}{\unitlength=1mm\begin{figure}\begin{center}\vspace{-0.7cm}\epsfile{file=fig.eps,scale=1.0}\caption{本研究で想定する駄洒落理解システム}\label{joke-system}\end{center}\end{figure}}本研究で想定する駄洒落理解システムを図\ref{joke-system}に示す.このシステムは,未知語処理機能をもつ通常の自然言語理解システム(以下「主処理部」と呼ぶ)に,音素列比較に基づく駄洒落検出部と,駄洒落に起因する未知語の処理部(以下「喩辞復元部」と呼ぶ)とを外付けした機構を想定している\footnote{想定する駄洒落理解システムは,漢字カナ交じり文を音素記号列化する際の限界や,通常の未知語処理の困難さなど,駄洒落処理に限らない一般的な未解決の問題を切り離して想定したものである.これは,本研究が取り扱う範囲を駄洒落処理に限定したいためである.従って提案するシステムを実際に実現するためには,乗り越えなければならない壁が多くある.}.主処理部に外付けするという方針で設計したのは,通常の自然言語理解技術の進歩を,駄洒落理解システムに取り込むことができるようにするためである.この方針によれば,主処理部の性能向上に伴って,駄洒落理解システムとしての性能も向上することが期待できる.また,通常の自然言語理解システムがもつ一般的な限界を一応切り離して,外付け部分の構築に重点的に取り組むことができる.入力は,テキスト文(漢字カナ交じり文)とする\footnote{現段階では,音声入力を想定していない.その理由は,音声認識における音韻識別性能の限界という,本研究が直接的には対象としない要因による制約を排除するためである.しかし駄洒落はイントネーション等のプロソディーを駆使して生成・理解される発話表現と考えられるので,将来的には音声入力を想定したシステムを検討しなければならないと考えられる.}.まず駄洒落検出部では,入力テキストを音素記号化し,その音素列の中に,ある程度の長さに渡ってある程度の類似性で一致あるいは類似する部分音素列の組があるかどうかを調べる.あった場合(その部分音素列をps1とps2とする),その入力に駄洒落が存在したと判定し,ps1とps2を,先行/後続出現喩辞の音素列とする.一方,主処理部において未知語と判定された語句を取り出し,その未知語が出現喩辞,即ち駄洒落化に伴う音素変歪によって生じた語句であるかどうかを喩辞復元部で判定する.具体的には,その未知語の音素列がps1またはps2のどちらかと重なるかどうかをチェックする.もし重なるならば,その未知語を出現喩辞と判定し,喩辞復元部において,駄洒落の音素変歪の性質に基づく規則に従ってその未知語(出現喩辞)から元の語(復元喩辞)を復元し,復元した語を主処理部に返す.この処理部における処理の目的は,復元喩辞の同定のみならず,通常の意味解析が出現喩辞(駄洒落化による未知語)の存在によって妨げられるのを防ぐことである.本システムは最終出力として,通常の意味解析結果,出現喩辞,および復元喩辞が主処理部から得られることになる.駄洒落検出部において,入力に駄洒落が含まれていないと判定された場合は,意味解析結果だけが出力されることになる.\subsection{分析内容}本研究の目的は,図1の駄洒落理解システムを実現するために必要な音素上の知見を得ることである.そのために,特に駄洒落のための処理を行う部分である「駄洒落検出部」と「喩辞復元部」とについて,その構築のためにどのような音素上の知見が必要かを考える.まず,駄洒落検出部を構築するためは,音素列がどの程度一致あるいは類似したら駄洒落と判定するかという基準を決めることが必要である.そこで,収集した駄洒落における先行/後続出現喩辞について,音素列の長さと音素の類似性という観点から,以下の2点を調べる.\vspace*{1em}(1)先行−後続出現喩辞間の音素列は,どれ位の長さの一致(または類似)が見られるか(2)先行−後続出現喩辞間の音素の相違にはどのような特徴があるか\vspace*{1em}\\また,喩辞復元部を構築するためには,出現喩辞を復元喩辞に復元するための知見,すなわち駄洒落はどのように発音が変歪される傾向があるかについての知見が必要になる.そこで,収集した駄洒落における出現喩辞/復元喩辞について,以下の点について調べる.\vspace*{1em}(3)出現−復元喩辞間の音素の相違にはどのような特徴があるか\\\\\\vspace{-1mm}以上の3点について調べた結果を,それぞれ\ref{onso-length}〜\ref{onso-soui}節で述べる.\subsection{分析対象とする駄洒落の収集と選定}本稿で分析対象とする駄洒落は,外国語専攻の大学生54名に回答用紙を配布し,筆記による創作を依頼して収集したものである\footnote{本研究で分析対象とする駄洒落は,コーパスから用例を収集したものではない.用例を用いなかった理由は,実際のコーパスにおいて駄洒落が出現する頻度が限られており,計量的な分析に耐えるだけの用例を収集することが困難と思われたためである.}.従って収集された駄洒落は,発話されたものではなく,記述されたものである.各人の創作個数には制限を設けず,被験者ペースの回答により,制限時間も設けなかった.その結果,325個の創作文(または創作句)が収集された(但し\#\ref{five}のような対話文の場合,1対話を1文と数えた).収集した325個の文(句)から,以下の基準で分析対象を選定した.\\\begin{enumerate}{\def\labelenumi{}\item\ref{pre-def}節で述べたように,本研究ではまず併置型駄洒落を対象とするため,重畳型駄洒落は分析対象から除外した.\item被験者間で重複する駄洒落は1つだけ残し,あとは除外した.\item2項関係に単純化した場合に重複するものは1つだけ残し,あとは除外した.\item韻を踏んでいるだけのものは駄洒落でなく韻文に属すると考え,除外した.韻文とみなす基準は,先行/後続復元喩辞の音素列の一致(または類似)部分を切り出した場合に,先行/後続復元喩辞共に形態素の途中で切れてしまうものとした.つまり,音素一致(または類似)範囲を切り出すと先行/後続復元喩辞のどちらか少なくとも片方が一つあるいは2つ以上の形態素(の組合せ)になっているもののみを駄洒落とした.この基準に基づき除外した例を\#\ref{seven},\#\ref{eight}に示す.\vspace*{1em}\begin{sample}\item「ママと坊やでマーボー春雨」\label{seven}\item「大腸・小腸・気象庁」\label{eight}\end{sample}\vspace*{1em}\#\ref{seven}は駄洒落ではなく頭韻の組合せとみなすのが妥当と思われる.\#\ref{eight}は復元喩辞が「腸」と「庁」であり,どちらも形態素「大腸」「小腸」「気象庁」の一部に過ぎないので,駄洒落ではなく韻文とみなした\footnote{「大腸」が無ければ両出現喩辞は「小腸」と「象庁」となるので,一形態素を成す「小腸」を一方の復元喩辞とみなすこともできるが,\#8は七五調のリズムになっていることから,成立の上で「大腸」が不可欠と考えられる.そうすると,本分析では一形態素とみなさない「腸」と「庁」が出現喩辞となるので,分析から除外するのが妥当ということになる.}.\item「ひねり」が全く無く,単なる同音(または類似音)の反復に過ぎないと思われるものは除外した\footnote{「掛け言葉の使用それ自体を目的として無意味な言葉を添える表現技法」である駄洒落に対して,同音(または類似音)の反復に過ぎないからといって除外することは定義に矛盾する,という意見があるかも知れない.しかし同音(または類似音)の反復に過ぎないものまでも駄洒落に含めると,類似した音素の羅列だけでも駄洒落になり得てしまい,駄洒落の範囲が極端に広がってしまう危険がある.多少の「ひねり」が感じられることを,駄洒落であるための条件とすることは,直観的な定義にも合致していると思われる.}.除外した例を\#\ref{nine}と\#\ref{ten}に示す.\vspace*{1em}\begin{sample}\item「寝耳に耳」\label{nine}\item「あなた何型?」「くわがた」\label{ten}\end{sample}\vspace*{1em}}\end{enumerate}以上のような形態上の理由によって除外されたもの以外は,すべて分析対象とし,駄洒落としての面白さのような主観的な判定による除外は行わなかった.また,原文のままでは2項関係になっていないものを2項関係にするための修正を行った.修正の例を\#\ref{eleven},\#\ref{twelve}に示す.\vspace*{1em}\begin{sample}\item「鳩が何かを落としていったってね」「ふん」\\\\hspace*{3cm}→「糞」と「ふん」との2項関係として分析\label{eleven}\item「天国の話をしよう」「あのよー」\\\\hspace*{3cm}→「あの世」と「あのよー」との2項関係として分析\label{twelve}\end{sample}\vspace*{1em}以上の除外・修正の結果,最終的に分析対象とした駄洒落数(先行/後続出現喩辞の組)は203組となった.\ref{onso}章では,この203組を分析した結果について述べる.
\section{併置型駄洒落の音素上の分析}
label{onso}\subsection{音素列同士の照合方法}本節では,\#\ref{thirteen}の例を用いて,音素列同士の照合方法を説明する.\vspace*{1em}\begin{sample}\item仏などほっとけ.\label{thirteen}\end{sample}\vspace*{1em}まず,原文を音素列に変換し,一致(または類似)する部分音素列を出現喩辞として切り出す.\#\ref{thirteen}を変換した音素列/hotokenadohoQtoke/から切り出した以下の2つの部分音素列が,それぞれ先行/後続出現喩辞の音素列となる.\vspace*{1em}\begin{list}{}{}\item先行出現喩辞\hspace*{2cm}/hotoke/\item後続出現喩辞\hspace*{2cm}/hoQtoke/\end{list}\vspace*{1em}次に,先行−後続出現喩辞間,および出現−復元喩辞間で,音素列を照合し,音素の相違を調べる.音素列を照合する手順は,次の通りとする.まず子音同士を照合する.次に母音同士を照合する.但し母音の場合は,短音同士だけでなく,短音と長音(例えば/o/と/oo/)あるいは単母音と複合母音(例えば/o/と/eo/)のような音素同士の対応づけも許容する.最後に促音/Q/と撥音/N/について,既に照合し終わった音素を除いた残りの音素と照合する.なお,例えば音素列$/\alpha\beta\gamma/$\hspace*{-0.2mm}と\hspace*{-0.2mm}$/\alpha\gamma/$とを照合した場合,$/\alpha/$同士と\hspace*{-0.3mm}$/\gamma/$同士が対応づけられ,/β/と対応づけられる音素は無いことになる.この$/\hspace*{-0.3mm}\beta\hspace*{-0.3mm}/$のような音素を「相手の無い音素」と呼ぶことにする.この手順に従い,\#\ref{thirteen}の部分音素列を照合すると,以下のようになる.\vspace*{1em}\begin{itemize}\item先行出現喩辞と後続出現喩辞との照合\begin{verbatim}先行出現喩辞/hotoke/||.||||→相違:相手の無い促音が1つ存在後続出現喩辞/hoQtoke/\end{verbatim}\item出現喩辞と,その出現喩辞から復元した復元喩辞との照合\begin{example}先行出現喩辞/hotoke/||||||→相違は無い先行復元喩辞/hotoke/(普通名詞「仏」)後続出現喩辞/hoQtoke/||||△||→相違:/o/と/eo/\footnote{単母音と複合母音の対応づけも許容しているので,この場合は「単母音/o/と複合母音/eo/とが相違している」とし,「相手の無い/e/が一つ存在する」とはしない.}後続復元喩辞/hoQteoke/(子音動詞ラ行タ系連用テ形「ほって」+子音動詞カ行命令形「おけ」)\end{example}\end{itemize}\vspace*{1em}以上の結果,\#\ref{thirteen}の場合に得られる音素の相違は,以下のようになる.\vspace*{1em}\begin{list}{}{}\item先行−後続出現喩辞間…相手の無い促音が1つ存在\item出現−復元喩辞間…(後続のほうが)/o/と/eo/\end{list}\subsection{先行/後続出現喩辞の音素列の長さについての分析}\label{onso-length}音節は単独で発声できる最小単位とされている\footnote{今回収集した駄洒落の中で1対だけ,音節単位の入れ替えがあった(/zjare/-/rezja/).この場合,上記の要領で音素を単純に照合すると大きな相違となってしまう.しかし音節単位の入れ替えは,音声を聞き取った印象では大きな相違とは感じられないものである.なぜなら音節は,単独で発声できる最小単位とされており\cite{JIPDEC1992},人間は音素単位でなく音節単位で音声を知覚しているためと考えられる.従って本研究ではこの1対だけは例外として「音節単位の入れ替え」という一つの相違として扱うことにする.}ため,その数が,実際の長さを反映していると考えられる.そこで本研究では音素列の長さとして,音素数ではなく音節数を用いる.例えば\#13の場合の音節数は,先行出現喩辞/hotoke/が3,後続出現喩辞/hoQtoke/が4である.\begin{figure}\begin{center}\begin{tabular}{cc|rrrrrrrr}後&&&&&&\multicolumn{4}{r}{(総計203)}\vspace*{-0.2em}\\続&&&&&&&&&\vspace*{-0.2em}\\出&8&&&&&&&&\vspace*{-0.2em}\\現&7&&&&&&&1&1\vspace*{-0.2em}\\喩&6&&&&&2&3&&\vspace*{-0.2em}\\辞&5&&&2&4&4&2&&\vspace*{-0.2em}\\の&4&&2&16&29&6&&&\vspace*{-0.2em}\\音&3&&8&65&4&1&&&\vspace*{-0.2em}\\節&2&&51&1&&&&&\vspace*{-0.2em}\\数&1&\1&&&&&&&\vspace*{-0.2em}\\\cline{3-10}\multicolumn{3}{r}{1}&2&3&4&\5&\6&\7&\8\vspace*{-0.2em}\\\multicolumn{10}{r}{先\行\出\現\喩\辞\の\音\節\数\\\\}\vspace*{-0.1em}\\\end{tabular}\caption{先行/後続出現喩辞の音節数の分布}\label{onsetu-dist}\end{center}\end{figure}分析対象とする203個の先行/後続出現喩辞の各音節数の分布を,図\ref{onsetu-dist}に示す.先行/後続出現喩辞の各音節数が一致しているのは合計154個で,全体(203個)のうちの約4分の3を占める.また,先行のほうが長いものは15個,後続のほうが長いものは34個であった.図2から,先行/後続出現喩辞の各音素列の長さについて,定性的に以下の知見が得られる.\vspace*{2em}\\【知見】\begin{itemize}\item出現喩辞の音節数は,先行と後続とで一致する場合が多い.\item一致する場合の長さは,2〜4音節である場合が多い.\item不一致の場合の長さは,先行が3音節,後続が4音節である場合が比較的多い.\item不一致の場合でも,長さの差は2音節までで,3音節以上の差があることはほとんどない.\item不一致の場合,後続のほうが先行よりも長い場合が多い.\end{itemize}\subsection{先行−後続出現喩辞間の音素の相違についての分析}分析対象の203対のうち,先行−後続出現喩辞間に最低1個でも音素の相違があるのは71対であった(約35\%).従って全体の約3分の2は音素列が完全に一致したことになる.1対につき1個の相違があるのは57対,2個の相違があるのは12対,3個の相違があるのは2対となった.従って相違の総計は87個となった.この87個について分析した結果,以下のようになった.\vspace*{1em}\begin{list}{\Large$\bullet$}{}\item促音/Q/\\\\相手の無い促音が20個と,際だって多かった.\item母音\\\\長音−短音間の相違が38個で際だって多く,内訳は表\ref{different1}のようになった.表\ref{different1}によると,/o/-/oo/の相違と/a/-/aa/の相違が比較的多いと言える.先行が短音で後続が長音である傾向がやや強いように見受けられるが,目立った傾向とまでは言えない.\begin{table}\begin{center}\caption{長音--短音間の相違の内訳}\label{different1}\begin{tabular}{lccc}音素の相違&先行が長音で&先行が短音で&計\\&後続が短音&後続が長音&\\\hline/o/-/oo/&8&6&14\\/a/-/aa/&4&7&11\\/e/-/ee/&1&4&5\\/i/-/ii/&2&3&5\\/u/-/uu/&0&3&3\\\end{tabular}\end{center}\end{table}\\\\単母音間の相違や単母音−複合母音間の相違は,表\ref{different2}の4個と,相手の無い拗音/j/と一緒になった1個(後述)の,計5個だけであった.\begin{table}\begin{center}\caption{短母音間および短母音--複合母音間の相違(各1個)}\label{different2}\begin{tabular}{l}/i/-/e/\\/a/-/o/\\/oi/-/u/\\/a/-/au/\\\end{tabular}\end{center}\end{table}\item子音(半母音を含む)\\\\最も多かったのは破裂音の無声−有声間の相違で,6個であった.そのうち構音位置が同じ/k/-/g/および/t/-/d/の組み合わせが5個を占め,それ以外は/k/-/d/の1個だけであった.摩擦音については,有声/z/−無声/s/の相違が2個見られた.その他の子音については,表\ref{different3}に示す相違がそれぞれ1個ずつとなった.\begin{table}\begin{center}\caption{その他の子音間の相違(各1個)}\label{different3}\begin{tabular}{l}/i/-/e/\\/a/-/o/\\/oi/-/u/\\/a/-/au/\\\end{tabular}\end{center}\end{table}\item撥音/N/\\\\相手の無い撥音が2個あった.\itemほか\\\\残りは,表\ref{different4}の相違となった.\addtocounter{footnote}{-1}\begin{table}\begin{center}\caption{その他の相違}\label{different4}\begin{tabular}{l}相手の無い拗音(2個)\\相手の無い拗音と母音の相違/joo/-/oi/(1個)\\相手の無い鼻音/n/(1個)\\相手の無い流音/r/(2個)\\音節単位の入替/zjare/-/rezja/\footnotemark(1個)\\\end{tabular}\end{center}\end{table}\end{list}以上より,先行−後続出現喩辞間の音素の相違について,以下の知見が得られる.\vspace*{2em}\\【知見】\begin{itemize}\item音素の相違があることは比較的少ない.\item相違がある場合,1個である場合が最も多く,多くても3個程度までである.\item相手の無い促音/Q/が多い.\item母音については,長音−短音間の相違が多く,その中でも/o/-/oo/間と/a/-/aa/間の相違が多い.短音間の相違や単母音と複合母音との間の相違などはあまり多くない.従って駄洒落における母音の相違は,長音と短音との相違以外はあまり考慮しなくていいと言える.\item子音については,破裂音の無声−有声間の相違が比較的目立ち,その中でも同じ構音位置での相違が多い.しかし子音の相違については概して目立った傾向は無い.\end{itemize}\subsection{出現−復元喩辞間の音素の相違についての分析}\label{onso-soui}分析対象とする406対(203対$\times$2(先行と後続))の出現−復元喩辞の対のうち,相違があるの\\は59対(約15\%)で,比較的少なく,すべて後続の出現−復元喩辞間の相違であった.相違が1個なのは44対,2個が13対,3個が2対で,その結果,相違は総計76個となった.この76個について,音素グループ毎に分析する.\vspace*{1em}\begin{list}{\Large$\bullet$}{}\item撥音/N/\\\\撥音に関する相違は,先行−後続出現喩辞間では87個中2個しか見られなかったのに対し,出現−復元喩辞間では76個中11個と,比較的目立った.内訳は,撥音とその他の音素との相違が10個,相手の無い撥音が1個であった.他の音素との相違(10個)の内訳は,/N/-/no/が6個で最も多く,次が/N/-/ru/(または/iru/)の3個で,/N/-/su/が1個だけ見られた.荻野によると,いわゆる「形式的でない表現」において多用される付属語「ん」と置き換えられるものとして,形式名詞「の」など(/N/-/no/)が最も多く,その次に多いのが否定助動詞「ぬ」など(/N/-/nu/)で,その次がラ行動詞型語尾・接尾の類(/N/-/ru/など)となっている\cite{Ogino1993}.即ち,筆者らの結果における撥音に関する相違の出現頻度の1位と2位はそれぞれ,同文献における出現頻度の1位と3位に対応している\footnote{同文献において2位の出現頻度をもつ,否定助動詞「ぬ」が撥音化した「ん」は,我々の研究では,既に一般化した表現とみなし,否定助動詞として基準辞書に登録している.そのため,否定助動詞「ぬ」の意味で/N/が使われた場合は,出現喩辞も復元喩辞も/N/となり,相違が生じない.そのためこの場合は,撥音に関する相違の順位に現れていない.}.このことから,駄洒落の出現−復元喩辞間の撥音に関する相違の出現頻度に関しては,いわゆる「形式的でない」表現における出現頻度と同様の傾向があるといえる.\item子音\\\\有声の破裂音-摩擦音間(/d/-/z/)が4個,流音-有声破裂音間(/r/-/d/)が2個,無声摩擦音間(/h/-/s/)が1個,の計7個見られた.全子音に関する相違の合計が76個中の7個だけなので,比較的少ないといえる.\item促音/Q/\\\\先行−後続出現喩辞間に際だって多く見られた,相手の無い促音は,出現−復元喩辞間の場合は1個しか無かった.その代わりに,先行−後続出現喩辞間では全く見られなかった,相手のある促音が,表\ref{different5}のようにいくつか見られた.\begin{table}\begin{center}\caption{相手のある促音に関する相違}\label{different5}\begin{tabular}{cccc}出現喩辞&&復元喩辞&個数\\\hline/Q/&-&/de/&2\\/Q/&-&/ru/&1\\\end{tabular}\end{center}\end{table}\item母音\\\\先行−後続出現喩辞間では少なかった単母音間の相違は,出現−復元喩辞間の場合では9個あった.音素の出現頻度は表\ref{different6}のように,目立った特徴は無い.\begin{table}\begin{center}\caption{短母音間の相違}\label{different6}\begin{tabular}{cccc}出現喩辞&&復元喩辞&個数\\\hline/u/&-&/o/&2\\/o/&-&/u/&1\\/e/&-&/a/&2\\/a/&-&/e/&1\\/e/&-&/o/&1\\/o/&-&/e/&1\\/i/&-&/a/&1\\\end{tabular}\end{center}\end{table}\\\\先行−後続出現喩辞間では際だって多く見られた短音−長音間の相違は,出現−復元喩辞間の場合は表\ref{different7}のように比較的少なく,ほとんどの場合,出現喩辞が長音,復元喩辞が短音であった.先行−後続出現喩辞間の場合と同様に/o/と/a/が多かったが,/e/も多いのが特徴である.\begin{table}\begin{center}\caption{短音--長音間の相違}\label{different7}\begin{tabular}{cccc}出現喩辞&&復元喩辞&個数\\\hline/oo/&-&/o/&6\\/o/&-&/oo/&1\\/ee/&-&/e/&5\\/aa/&-&/a/&4\\/uu/&-&/u/&1\\/ii/&-&/i/&1\\\end{tabular}\end{center}\end{table}\\\\上記以外の母音に関する相違は,表\ref{different8}のようになった./ai/-/a/の相違を除き,出現喩辞が単母音または長音に限られるのは,復元喩辞が発音の「なまけ」によって出現喩辞に変化することによるものと考えられる.例外である/ai/-/a/の4個のうち,3個は終助詞「か」が出現喩辞「かい」に変化したものであり,あと1個は判定詞「じゃ」が「じゃい」に変化したものである.また,先行−後続出現喩辞間でいくつか見られた,相手の無い拗音/j/は表\ref{different9}のように,出現−復元喩辞間でもいくつか見られた.すべて出現喩辞の摩擦音に拗音が付加している場合であった.\begin{table}\begin{center}\caption{その他の母音に関する相違}\label{different8}\begin{tabular}{ccccc}出現喩辞&&復元喩辞&個数&\\\cline{1-4}\multicolumn{1}{l}{単母音}&-&\multicolumn{1}{l}{複合母音}&&\\/o/&-&/eo/&5&\\\multicolumn{1}{l}{複合母音}&-&\multicolumn{1}{l}{単母音}&&\\/ai/&-&/a/&4&\\\multicolumn{1}{l}{長音間}&&&&\\/ee/&-&/ii/&1&\\\multicolumn{1}{l}{長音}&-&\multicolumn{1}{l}{複合母音}&&\\/oo/&-&/eo/&1&\\/aa/&-&/ai/&1&\\/ee/&-&/ai/&1&\\\multicolumn{5}{l}{半母音(拗音/j/を含む)や子音を挟んだ母音}\\/ee/&-&/jai/&1&\\/a/&-&/owa/&1&\\/aa/&-&/uwa/&1&\\/i/&-&/esi/&1&\\/oo/&-&/eoru/&1&\\\end{tabular}\end{center}\end{table}\begin{table}\begin{center}\caption{相手の無い拗音に関する相違}\label{different9}\begin{tabular}{cccc}出現喩辞&&復元喩辞&個数\\\hline/zjoo/&-&/zo/&1\\/sja/&-&/sa/&2\\/zjo/&-&/zo/&1\\\end{tabular}\end{center}\end{table}\itemほか\\\\以上の他に,表\ref{different10}のような相違が見られた.「相手無し-/i/」は,「いや」が「や」に,「います」が「ます」になまけたもので,母音に見られたなまけの特徴と共通しているといえる.\begin{table}\begin{center}\caption{その他の相違}\label{different10}\begin{tabular}{cccc}出現喩辞&&復元喩辞&個数\\\hline/su/&-&相手なし&1\\/t/&-&相手なし&1\\相手なし&-&/i/&2\\\end{tabular}\end{center}\end{table}\end{list}以上より,出現−復元喩辞間の音素の相違について,以下の知見が得られる.\vspace*{2em}\\\vspace{-0.2mm}【知見】\begin{itemize}\item音素の相違があることは比較的少ない.特に先行の出現−復元喩辞間に相違があることはほとんどない.\item音素の相違は1個である場合が最も多く,多くても3個程度までである.\item撥音に関する相違が比較的目立つ.また撥音とその他の音素との相違は,いわゆる「形式的でない」表現と同様な出現頻度の傾向がある.\item子音の相違は比較的少ない.\item促音の相違は少ない.相違がある場合でも,相手の無い促音よりも相手のある促音のほうが多い.\item単母音間の相違は比較的少ない.単母音の音素の相違には特徴的な傾向は無い.\item母音の短音−長音間の相違は比較的少ない.ほとんどの場合,出現喩辞が長音,復元喩辞が短音である./o/,/e/,/a/が比較的多い.\item母音の相違の場合,ほとんどの場合,出現喩辞が単母音または長音に限られる.これは,母音に関しては,復元喩辞から発音をなまけたものにする場合が多いためと考えられる.出現喩辞側では,終助詞や判定詞などの文末の語に/i/や,摩擦音の後に拗音/j/が付加することがよくある.\end{itemize}\vspace{-0.3mm}
\section{考察と課題}
分析結果によると,駄洒落において極端に発音が変歪される場合は少ないことが明らかになった.むしろ変歪が全く無く,音素列が完全に一致する場合が多数を占めている.この性質は,工学的処理において両出現喩辞および両復元喩辞を同定するのに都合が良い.人間が駄洒落を理解する過程における処理では,先行−後続出現喩辞間では,明示された2つの音素列を単純に比較するだけであるのに対し,出現−復元喩辞間では,1つの音素列と,自分の知識に格納されている概念の音素列との比較を行い,音素列の類似した概念を取り出すという検索作業を必要とする.そのため,検索労力を軽減するため,出現−復元喩辞間のほうが音素の相違が少ないはずと予想される.分析結果では,先行−後続出現喩辞間に相違がある対は全体の約35%であるのに対し,出現−復元喩辞間は約15%と少なく,この予想に矛盾しない結果になっている.復元喩辞から出現喩辞への音素の変歪と,先行−後続出現喩辞間の音素の相違とが一致している場合が3例あった.この場合,復元喩辞同士は音素列が完全に一致しているのに,出現喩辞にした結果かえって音素列に不一致が生じることになる.即ち,両復元喩辞の発音を近づけるために変歪して出現喩辞にするという,変歪の目的に反している.その例を\#\ref{fourteen}に示す.\vspace*{1em}\begin{sample}\itemこのイカ酢はイカスー\label{fourteen}\end{sample}\vspace*{1em}\#\ref{fourteen}の分析結果を表\ref{result}に示す.復元喩辞間に相違がないにもかかわらず,出現喩辞間に短音/u/−長音/uu/の相違がある.他の2例も母音の短音−長音間の相違であった.これは,音素変歪(特に長音化すること)自体が,駄洒落の成立に重要な役割を果たしていることを示唆している.面白い駄洒落にするために音素変歪が果たす役割については本稿では立ち入らなかったが,重要な問題と思われる.\begin{table}\begin{center}\caption{\#\ref{fourteen}の分析結果}\label{result}\begin{tabular}{lcll}[分析結果]&&&\\\先行出現喩辞&:&イカ酢&/ikasu/\\\後続出現喩辞&:&イカスー&/ikasuu/\\\先行復元喩辞&:&イカ酢(普通名詞)&/ikasu/\\\後続復元喩辞&:&いかす(子音動詞サ行)&/ikasu/\\\end{tabular}\end{center}\end{table}本分析には,以下のような課題が残っている.\begin{itemize}\item分析対象が用例に基づくものでないこと\\\\本研究で分析対象とした駄洒落は,分析のために創作されたものである.そのため分析対象は,ステレオタイプ的な,いわば「苦し紛れ」の駄洒落が目立った.本分析結果が普遍的な駄洒落に適用できるかどうかという問題が残っている.\item基準辞書の補強の問題\\\\付録で述べるように,本研究では俗語的表現を許容するため基準辞書の補強を行ったが,どの程度まで許容すべきかについての明確な基準が無い.そのため分析結果が,駄洒落に特有な音素変歪の特徴であるかどうかを明確にできかったという問題が残っている.\item音素変歪の表記法の問題\\\\記述された駄洒落の場合には,音韻に関する表記の忠実性に限界があるために,「表記のゆれ」が分析結果に影響を与えていることが考えられる.例えば,\#\ref{four}の後続出現喩辞の表記を変えて\#\ref{four}(a)〜(c)のようにした場合,後続出現喩辞は(a)(b)(c)の順に,先行出現喩辞「トイレ」との音素列一致度が減少し,逆に後続復元喩辞「ておいで」との一致度が増加するが,実際の駄洒落においてどの表記が用いられるかは明確にできるものではない.\vspace*{1em}\hspace*{1em}\#4(a)\\\「トイレに行っといで」\\\hspace*{1em}\#4(b)\\\「トイレに行っておいれ」\\\hspace*{1em}\#4(c)\\\「トイレに行っておいで」\\\end{itemize}このように,本稿のような表記された音素上の分析で,駄洒落の真の発音上の性質をどこまで的確に捉えられるか,という問題が残っている.上記の例のように,先行−後続出現喩辞間の音素の相違と,出現−復元喩辞間の相違とは,同一駄洒落上で背反の関係にある.従って本稿のようにそれぞれの相違を別個に分析することはむしろ不自然と考えることもできる.より適切な分析方法について今後も検討していきたい.
\section{むすび}
本稿では,筆者らが「併置型」と呼ぶ駄洒落の一種について,音素上の性質を分析し,工学的処理機構を構成するために必要な知見を得た結果について報告した.今後,更に多くの駄洒落について分析を行い,本稿で得られた結果が普遍的に通用するものであるかどうかを確かめる必要がある.また,音素上の特徴だけでなく,形態素/構文上,さらに意味上の特徴の分析も必要である.両喩辞の意味が持つ「価値の落差」や,俗語的表現であることなどが,駄洒落としての「出来の良さ」に関連していると考えられるので\cite{Takizawa1992},今後も検討を進める予定である.\section*{謝辞}研究のきっかけを与えて下さった同志社大学柳田益造教授,駄洒落の収集に協力下さった神戸市外国語大学の諸氏,並びに有益なご討論を賜る京都大学山梨正明教授及び京都言語学コロキウムの諸氏に感謝致します.本研究では基準辞書として,京都大学長尾研究室の形態素解析システムJUMANの標準辞書を用いた.関係各位に感謝致します.最後に,有益なご指摘を下さった査読者の方に御礼申し上げます.\section*{付録:基準辞書について}本研究において分析の基準として用いる形態素解析辞書を「基準辞書」と呼ぶことにする.基準辞書として,日本語形態素解析システムJUMANに標準添付されている辞書(異なり形態素数約13万語)を用いた.但し実際の分析には,終助詞,擬音・擬態語,固有名詞等の形態素の追加,および連接辞書の拡張などの補強を行った辞書を用いた.以下に,補強した理由,補強範囲,および補強の具体的内容について述べる.\vspace*{1em}\begin{list}{\Large$\bullet$}{}\item補強した理由\\\\喩辞復元部では,主処理部において生じた未知語のうち,駄洒落化に伴う音素変歪によって未知語になったと判定されたものを出現喩辞の候補とし,復元喩辞に復元する.そのため主処理部において,出現喩辞以外の未知語をできるだけ減らしておくことが,より正しい解析結果を得るための前提となる\footnote{形態素解析に失敗することと,未知語を生じることとは等価ではない.誤った形態素解析を行ってしまったことによって未知語であっても未知語にならないこともありうるが,これは主処理部における問題であるので,本研究では取り扱わないことにする.}.そのために補強が必要となる.\item補強の範囲\\\\活用変化の追加や語彙の登録など,形態素単位で対応できる範囲で,しかも駄洒落の場合に限らずある程度使用が普遍化していると思われる表現について,方言的・俗語的表現も含めてできるだけ対応できるように補強する.そうすることで,駄洒落に特有な特徴のみをより明確に浮かび上がらせることができると考えられる.\item補強の具体的内容\begin{enumerate}\def\labelenumi{}\item常識的表記と思われる擬音・擬態語や,俗語的表現として定着していると思われる語彙,および固有名詞等を追加した.広辞苑\cite{Koujien1969}に掲載されている語彙を一応の追加の基準としたが,擬音・擬態語等については,広辞苑に掲載されていないものも追加した.\vspace*{1em}\begin{tabular}{l}[追加例]\\\\\\\擬音・擬態語「ガーン」,「ポトン」\\\\\\\代名詞「どいつ」\\\\\\\他動詞サ行変格活用「ざんす」\\\\\\\判定詞「や」(用例:「好きや」)\\\\\\\判定詞「じゃ」(用例:「誰じゃ」)\\\\\\\終助詞「や」(用例:「痛いや」)\\\end{tabular}\vspace*{1em}\item連接辞書の強化を行い,俗語的表現として定着していると思われる接続関係を許容するようにした.例えば「格好いい」(名詞+形容詞)は,JUMANに標準添付されている連接辞書では接続検定ではねられる(「格好がいい」(名詞+助詞+形容詞)としなければならない)が,俗語的表現として一般化していると思われるので,名詞+形容詞の接続を連接辞書に追加し,「格好いい」を許容できるようにした.他に同様な理由で,命令形+終助詞(例「捨てろよ」),接尾辞+判定詞(例「ではないです」)などを追加した.\item活用変化を拡張し,例えば「見れる」のようないわゆる「ラ抜き言葉」などを許容できるようにした.\end{enumerate}\end{list}なおJUMANシステムは,文献\cite{Masuoka1989}に基づいて作成されている.\bibliographystyle{jtheapa}\bibliography{main}\newpage\begin{biography}\biotitle{略歴}\bioauthor{滝澤修}{1985年京都大学工学部電気工学科卒業.1987年同大学院修士課程修了.同年,郵政省電波研究所(現・通信総合研究所)入所.現在,同所関西先端研究センター知的機能研究室主任研究官.自然言語処理の中でも,駄洒落,皮肉,トートロジー等の修辞表現の計算機処理に興味を持っている.1990年度電子情報通信学会篠原記念学術奨励賞,同年度電気関係学会関西支部連合大会奨励賞受賞.日本音響学会,日本心理学会,情報処理学会,言語処理学会,計量国語学会,人工知能学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V03N02-02 | \section{はじめに}
インターネット上の電子ニュース(以下,ネットニュースと記す)は,誰もが自由に記事を投稿することができ,それがそのまま広く配布されるという特徴を持った,新しいマスメディアである.情報発信者が限られている従来のマスメディア(新聞,ラジオ,テレビ)と比べ,情報発信の機会を広くに解放した点で,ネットニュースはマスメディアの新しい可能性を開いたが,逆に,情報発信者の拡大による情報の洪水と情報(テキスト)品質の多様化という新しい現象を引き起こしつつある.このため,求める情報を簡単に見つけることができなくなりつつある.我々は,この問題を解決する方策として,ダイジェストに注目している\cite{Madoka-master-94,Madoka-ipsj-conf-94,Madoka-ipsj95}.ダイジェストとは,元となる情報の特質をコンパクトにまとめて情報の種類別に整理したものであり,我々が大量の情報に接する際に効果的なナビゲーション機能を果たす.既存のダイジェストは,人手で編集されたものがほとんどであるが,はじめからオンラインテキストとして存在するネットニュースでは,このダイジェスト作成を完全に自動化することが可能である.我々は,既に,ネットニュースのダイジェスト自動生成の1つのプロトタイプとして,fj.meetingsのダイジェスト自動生成システムを作成し,実際に運用している\footnote{\verb+http://www.jaist.ac.jp/\~{}sato/nnad/home-j.html+}.本研究では,その次のステップとして,fj.wantedのダイジェスト自動生成について検討した.fj.wantedは,fj.meetingsとは異なり,かなり多様な投稿者が,多様なテキスト品質の記事を投稿しており,fj.meetingsのダイジェスト自動生成で用いた手法とは異なった手法が必要となる.
\section{ニュースグループfj.wanted}
ダイジェスト自動生成システムの作成に先立ち,94年9月8日から10月18日の間にfj.wantedに流れた記事231件(フォロー記事は除く)に対する調査を行なった.特に,その中の59件については,詳細な調査を行なった.ここでは,その調査結果を示す.\subsection{主題上の特徴}fj.wantedの記事の主題(目的)は,「何かを探している(求めている)ということを伝える」というものである.これらの記事の主題は,おおよそ,図\ref{fig:category}に示すような2段の階層的カテゴリに分類することが可能である\footnote{下位分類の1--5に分類できないもの(例えば,「ある物とある物を交換したい$=$交換してくれる人を探している」)は,0の「探しています」に分類する.}.この図において,かぎ括弧内は,求めるものの対象が何であるかを示している.以下では,これらのカテゴリを記事のカテゴリと呼ぶ.\begin{figure}\begin{center}\tree[h]{0.探しています[人,物,情報]}\leaf{1.譲って下さい[物]}\leaf{2.譲ります[物]}\leaf{3.貸して下さい[物]}\leaf{4.募集します[人]}\leaf{5.教えて下さい[情報]}\endtree\end{center}\caption{記事のカテゴリ}\label{fig:category}\end{figure}\subsection{文章上の特徴}fj.wantedの記事には,以下のような文章上の特徴が見られた.\begin{enumerate}\item[(1)]多くの記事において,その記事の内容を端的に表す1文(以下,サマリ文と呼ぶ)が存在する.\end{enumerate}調査した記事59件中,54件(91.5\%)にサマリ文が存在した.\begin{enumerate}\item[(2)]fj.wantedの記事で用いられる文章構造のほとんどは,単刀直入型か背景説明型である.\end{enumerate}単刀直入型と背景説明型とは,図\ref{fig:structure}に示すような文章構造(文章の流れ)をさす.この図において,かぎ括弧がつけられたものは,省略可能な要素である.調査した記事59件中,単刀直入型は47件(79.8\%),背景説明型は10件(16.9\%)であった.なお,これらの型において,「要約」の部分が1文であれば,それがサマリ文となる.\begin{figure}\begin{center}\begin{tabular}[t]{|l|}\multicolumn{1}{c}{単刀直入型}\\\hline1.[あいさつ・自己紹介]\\2.要約(1文or複数の文)\\3.[詳細説明]\\\hline\end{tabular}\hspace*{10mm}\begin{tabular}[t]{|l|}\multicolumn{1}{c}{背景説明型}\\\hline1.[あいさつ・自己紹介]\\2.背景説明\\3.要約(1文or複数の文)\\4.[詳細説明]\\\hline\end{tabular}\end{center}\caption{単刀直入型と背景説明型}\label{fig:structure}\end{figure}\subsection{表現上の特徴}fj.wantedの記事には,以下のような表現上の特徴が見られた.\begin{enumerate}\item[(1)]典型的な「求む」の表現が,多くの記事で用いられる.\end{enumerate}これらの表現のほとんどは,典型的な動詞群と文パターン(文末表現)によって構成されている.使われる典型的な動詞は,記事のカテゴリによって異なる.図\ref{fig:pattern_example}に例を示す.\begin{enumerate}\item[(2)]機械による言語処理を難しくする,以下のような特徴が見られる.\begin{itemize}\itemテキストが低品質である.(誤りが多い)\item会話体が存在する.(ex.「〜ってあるんでしょうか?」)\item品目名として,かなり特殊な固有名詞が多数現れる.\end{itemize}\end{enumerate}\begin{figure}\begin{center}\begin{tabular}{|rl|}\hline\multicolumn{2}{|l|}{特徴的な動詞}\\\hline0.&探しています,求めています,〜方はいらっしゃいませんか,...\\1.&譲って下さい,売って下さい,買います,...\\2.&譲ります,売ります,...\\3.&貸して下さい\\4.&募集します\\5.&教えて下さい,ご存知ないですか,...\\\hline\hline\multicolumn{2}{|l|}{典型的な「求む」の文パターン}\\\hlinea.&「〜を(動詞)下さい」\\b.&「〜を(動詞)下さる方を探しています」\\c.&「〜を探しています.どなたか(動詞)いただけないでしょうか」\\\hline\end{tabular}\end{center}\caption{典型的な「求む」の表現例}\label{fig:pattern_example}\vspace*{10mm}\end{figure}
\section{サマリ抽出}
上記の調査結果に基づき,fj.wantedの各記事から\begin{enumerate}\item記事のカテゴリ\itemサマリ文\end{enumerate}の2つを記事のサマリとして抽出することとし,それを行なうモジュールを作成した.その概要を図\ref{fig:summary_extraction}に示す.この図に示すように,サマリ抽出は,文分割,特徴抽出,カテゴリ判定,サマリ文抽出の4つのステップによって行なうが,最後の2つのカテゴリ判定とサマリ文抽出はそれぞれ独立に行う.これは,以下のように,サマリ文として抽出すべき文とカテゴリ判定の根拠となる文が異なる場合があるからである.\begin{quote}AT互換機用のモニタを探しています。\\VGA以上の解像度を持つカラーモニターを2万円未満で譲っていただけないでしょうか。\end{quote}この例では,1文目がサマリ文であるのに対し,カテゴリ「譲って下さい」は2文目から求まる.\begin{figure}\begin{center}\small\fbox{\begin{tabular}{p{8zw}cp{8zw}}&記事&\\&$\downarrow$&\\&\fbox{1.文分割}&(先頭10文のみ)\\&$\downarrow$&\\&\fbox{2.特徴抽出}&\\&$\downarrow$&\\&特徴ベクトル&(各文に対して)\\&$\swarrow$\\\\$\searrow$&\\\multicolumn{3}{c}{\begin{tabular}{@{}c@{}}\fbox{3.カテゴリ判定}\\$\downarrow$\\カテゴリ\end{tabular}\\\begin{tabular}{@{}c@{}}\fbox{4.サマリ文抽出}\\$\downarrow$\\サマリ文\end{tabular}}\end{tabular}}\end{center}\caption{サマリ抽出の概要}\label{fig:summary_extraction}\end{figure}\subsection{文分割}ニュース記事の本文を文毎に分割し,先頭の10文を取り出す\footnote{この10という数は,実験的に決定した.なお,fj.wantedの記事の半数以上は,10文以下の記事である.}.記事には,色々な表示上の工夫がされていることがあり,文を切り出すことはそれほど単純ではない.ここでは,各種のヒューリスティックを組み込んだ専用プログラムによって文を切り出す.\subsection{特徴抽出}各文に対して,42個の特徴が存在するかどうかを調べ,特徴ベクトル(42bitのビット列)を作成する.ここでの「特徴」とは,例えば,\begin{description}\item[特徴2]「譲って下さい」に類する表現が存在する\end{description}といったものであり,これは,表\ref{table:yuzutte}に示すような表現が存在するかどうかを,文字列照合によって調べることによって判定する.42個の特徴の概要を表\ref{table:features}に示す.\begin{table}\caption{特徴2の表現}\label{table:yuzutte}\begin{center}\small\begin{tabular}{|r|l|l|l|}\hline譲って&\multicolumn{3}{l|}{\{欲しい$|$下さい$|$もらいたい$|$頂きたい\}}\\\cline{2-4}&もらえ&\multicolumn{2}{l|}{ると}\\\cline{3-4}&頂け&ます&か\\&&ません&でしょうか\\&&ない&\\\hlineお譲り&\multicolumn{3}{l|}{\{下さい$|$頂きたい$|$頂きたく\}}\\\cline{2-4}&頂け&\multicolumn{2}{l|}{ると}\\\cline{3-4}&願え&ます&か\\&&ません&でしょうか\\&&ない&\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{42個の特徴}\label{table:features}\begin{center}\footnotesize\begin{tabular}{rll}ID&特徴&以降の処理での利用\\\hline1&探しています&$\rightarrow$探しています\\2&譲って下さい&$\rightarrow$譲って下さい\\3&売って下さい&$\rightarrow$譲って下さい\\4&買って下さい&$\rightarrow$譲ります\\5&貸して下さい&$\rightarrow$貸して下さい\\6&教えて下さい&$\rightarrow$教えて下さい\\7&知らせて下さい&$\rightarrow$教えて下さい\\8&紹介して下さい&$\rightarrow$教えて下さい\\9&ダビングして下さい&$\rightarrow$譲って下さい\\10&譲ります&$\rightarrow$譲ります\\11&売ります&$\rightarrow$譲ります\\12&募集します&$\rightarrow$募集します\\13&知りたいの&$\rightarrow$教えて下さい\\14&買いたいの&$\rightarrow$譲って下さい\\15&欲しいの&$\rightarrow$譲って下さい\\16&求めています&$\rightarrow$探しています\\17&希望します&$\rightarrow$(譲って下さい)\\18&存在しますか&$\rightarrow$教えて下さい\\19&はあるのでしょうか&$\rightarrow$教えて下さい\\20&はいらっしゃいますか&$\rightarrow$探しています\\21&可能でしょうか&$\rightarrow$教えて下さい\\\hline\end{tabular}\begin{tabular}{rll}ID&特徴&以降の処理での利用\\\hline22&知りませんか&$\rightarrow$教えて下さい\\23&質問です&$\rightarrow$教えて下さい\\24&譲って下さる&$\rightarrow$譲って下さい\\25&売って下さる&$\rightarrow$譲って下さい\\26&買って下さる&$\rightarrow$譲ります\\27&貸して下さる&$\rightarrow$貸して下さい\\28&ダビングして下さる&$\rightarrow$譲って下さい\\29&知っている&$\rightarrow$教えて下さい\\30&情報を待っています&$\rightarrow$教えて下さい\\31&情報をお持ちの&$\rightarrow$教えて下さい\\32&届きません&$\rightarrow$譲って下さい\\33&価格&$\rightarrow$譲って下さい(+探)\\34&1万円&$\rightarrow$譲って下さい(+探)\\35&どのように/誰か/どこか&$\rightarrow$教えて下さい(+探)\\36&疑問文&\\37&です文&$\rightarrow$skip\\38&あいさつ&$\rightarrow$skip\\39&自己紹介&$\rightarrow$skip\\40&代理投稿&$\rightarrow$skip\\41&境界線&$\rightarrow$skip\\42&コメント&$\rightarrow$skip\\\hline\end{tabular}\end{center}\end{table}\subsection{カテゴリ判定}カテゴリ判定では,35個の規則を用いる.このうち,31個の規則は,特徴1--16,18-32に直接対応する規則で,これらの特徴の存在がそのままカテゴリの候補に対応する(表\ref{table:features}中の,「以降の処理での利用」欄を参照).残りの4つの規則のうちの3つは,特徴33--35に対応する規則で,他の規則によって「探しています」というカテゴリが候補となっている場合にのみ使用する.残りの1つの規則(特徴17に対応)は,他の規則によってカテゴリの候補が得られない場合にのみ使用する.具体的には,以下の手順によってカテゴリを決定する.\begin{enumerate}\itemカテゴリ候補リストを空とする.\item先頭の文の特徴ベクトルから順に,文の特徴ベクトルに対して以下を実行する.\begin{enumerate}\item[(a)]規則を適用し,その特徴ベクトルから得られる全てのカテゴリの候補をカテゴリ候補リストに追加する.\item[(b)]そのリストの中に,「譲って下さい/譲ります/貸して下さい/募集します」のいずれかが含まれる場合は,それを最終的なカテゴリとし,処理を終了する.\end{enumerate}\itemカテゴリ候補リストに「教えて下さい」が含まれている場合は,それを最終的なカテゴリとし,処理を終了する.\itemカテゴリ候補リストに「探しています」が含まれている場合は,それを最終的なカテゴリとし,処理を終了する.\itemカテゴリは不明とする.\end{enumerate}\subsection{サマリ文抽出}サマリ文の抽出では,以下の2つの方法を実装した.\begin{description}\item[表現パターンによる方法]特徴1--32を持った最初の文をサマリ文とする.但し,その前の文が「疑問文(特徴36)」である場合は,その文をサマリ文とする.\item[文章構造による方法]特徴37--42を持たない最初の文をサマリ文とする\footnote{これは,単刀直入型に対応した方法である.}.\end{description}
\section{実験}
2節での調査の対象とした231件の記事(KNOWN)と,1994年12月5日から12月13日の間にfj.wantedに流れた80件の記事(UNKNOWN)に対してサマリ抽出の実験を行なった.ここでは,その実験結果について述べる.\subsection{カテゴリ判定}カテゴリ判定の実験結果を表\ref{table:cat_result}に示す.この表よりわかるように,既知の記事群(KNOWN)に対しては88.3\%,未知の記事群(UNKNOWN)に対しては81.3\%という高い精度で正しくカテゴリを判定できた.\begin{table}\caption{カテゴリ判定の実験結果}\label{table:cat_result}\begin{center}\begin{tabular}{|l|rr|rr|}\hline&\multicolumn{2}{c|}{KNOWN}&\multicolumn{2}{c|}{UNKNOWN}\\\hline全記事数&231&(100.0\%)&80&(100.0\%)\\\hlineカテゴリを正しく判定&204&(88.3\%)&65&(81.3\%)\\カテゴリを誤って判定&22&(9.5\%)&7&(8.8\%)\\判定不能&5&(2.1\%)&8&(10.0\%)\\\hline\end{tabular}\end{center}\end{table}カテゴリの判定に失敗した例とカテゴリが抽出できなかった例を,図\ref{fig:cat_error}と図\ref{fig:cat_fail}に示す\footnote{ここで,本論文におけるネットニュース記事の参照に関する考え方を述べておく.通常のガイドラインでは,ネットニュース記事を参照する場合には,そのメッセージIDを明記することが推奨されている.しかし,本論文では,メッセージIDを明記しないことにし,かつ,記事中の署名,所属に関する記述を編集することによって,そのニュース記事の投稿者に関する情報を明らかにしない方針を取った.それは以下の理由による.(1)本論文での参照している記事は,本論文では,処理対象の例としてのみ意味を持っている.(2)本論文でメッセージIDを明記することが投稿者の利益になるとは思われない.なお,本論文で例として参照しているニュース記事は,全て,1994年12月5日から12月13日の間にfj.wantedに流れた80件の記事(UNKNOWN)から取った.}.図\ref{fig:cat_error}の例では,正しいカテゴリは「譲って下さい」であるのに対し,「探しています」というカテゴリだと判定された.\subsection{サマリ文抽出}サマリ文抽出の実験結果を表\ref{table:summary_result}に示す.ここで,組み合わせた方法とは,まず,表現パターンによる方法でサマリ文の抽出を試み,抽出できない場合のみ文章構造による方法を用いる方法である.この表において,カギ括弧内は,サマリ文が存在する場合の成功率を示す.この表より,表現パターンによる方法は,抽出精度がよく,文章構造による方法と組み合わせることのよって,さらにほんの少しだけ抽出精度が向上することがわかる.\begin{figure}\begin{screen}\small\noindent\begin{tabular}{@{}p{\textwidth}@{}}\verb+<名前>@<所属>+\\\\キャノンのFDレンズを探してます。\\\\FD50F1.2(〜1.4まで)のレンズを手放そうと考えている方がありましたら一報連絡ください。\end{tabular}\end{screen}\caption{カテゴリ判定の失敗例}\label{fig:cat_error}\end{figure}\begin{figure}\begin{screen}\small\noindent\begin{tabular}{@{}p{\textwidth}@{}}オーディオ用アンプ\\メーカー等問いません。\\気長にお待ちしています。\\\\\verb+<名前>@<所属>+\end{tabular}\end{screen}\caption{カテゴリ判定の不能例}\label{fig:cat_fail}\end{figure}図\ref{fig:extract_error}にサマリ抽出の失敗例を示す.この例の場合,「私が欲しているのは,〜とゆーものです」というパターンが登録されていないため,表現パターンによる方法では抽出に失敗する.また,文章構造による方法では,最初の文が自己紹介文(特徴39)であり,第2文が「です文」(特徴37)であるため,この2文をスキップし,第3文をサマリ文として抽出してしまう.\begin{table}\caption{サマリ文抽出の実験結果}\label{table:summary_result}\begin{center}\begin{tabular}{|l|rrr|rrr|}\hline&\multicolumn{3}{c|}{KNOWN}&\multicolumn{3}{c|}{UNKNOWN}\\\hline全記事数&231&(100.0\%)&&80&(100.0\%)&\\サマリ文が存在&198&(85.7\%)&[100.0\%]&69&(86.3\%)&[100.0\%]\\\hline表現パターンによる方法&\multicolumn{3}{c|}{}&\multicolumn{3}{c|}{}\\\multicolumn{1}{|r|}{正しく抽出}&185&(80.1\%)&[93.4\%]&60&(75.0\%)&[87.0\%]\\\multicolumn{1}{|r|}{抽出誤り}&40&(17.3\%)&&14&(17.5\%)&\\\multicolumn{1}{|r|}{抽出不能}&6&(2.6\%)&&6&(7.5\%)&\\\hline文章構造による方法&\multicolumn{3}{c|}{}&\multicolumn{3}{c|}{}\\\multicolumn{1}{|r|}{正しく抽出}&156&(67.5\%)&[78.8\%]&44&(55.0\%)&[63.8\%]\\\multicolumn{1}{|r|}{抽出誤り}&75&(32.5\%)&&36&(45.0\%)&\\\hline組み合わせた方法&\multicolumn{3}{c|}{}&\multicolumn{3}{c|}{}\\\multicolumn{1}{|r|}{正しく抽出}&187&(81.0\%)&[94.4\%]&61&(76.3\%)&[88.4\%]\\\multicolumn{1}{|r|}{抽出誤り}&44&(19.0\%)&&19&(23.8\%)&\\\hline\end{tabular}\end{center}\end{table}
\section{ダイジェストシステム}
上記のサマリ抽出モジュールを用いて,fj.wantedのダイジェストシステムを試作した.作成したシステムの概要を図\ref{fig:system}に示す.サマリ文抽出では,基本的には,表現パタンによる方法を用い,この方法によってサマリ文が抽出できない場合には,文章構造による方法を用いる.ダイジェスト編集では,得られた記事のサマリをカテゴリ別に整理し,HTML(HyperTextMarkupLanguage)形式で出力する.このとき,元の記事へのポインタを,ハイパーテキストのリンクとして埋め込む.ダイジェストリーダーとしては,WWW(World-WideWeb)のクライアントプログラム(xmosaic等)を用いる.\begin{figure}\begin{screen}\small\noindent\begin{tabular}{@{}p{\textwidth}@{}}\verb+<名前>@<所属>と申します。+\\\\私が欲しているのは、”HONDACIVIC25X[EF2]のサービスマニュアル”いわゆる、整備解説書とゆーものです。\\\\まあ、ディーラー系の部販に行けば手にはいるのですが、何せ1万円という値段は、今の私には大き過ぎるのです。(以下略)\end{tabular}\end{screen}\caption{サマリ抽出の失敗例}\label{fig:extract_error}\end{figure}\begin{figure}\begin{center}\small\fbox{\begin{tabular}{cccc}記事&記事&...&記事\\$\downarrow$&$\downarrow$&&$\downarrow$\\\fbox{サマリ抽出}&\fbox{サマリ抽出}&...&\fbox{サマリ抽出}\\$\downarrow$&$\downarrow$&&$\downarrow$\\サマリ&サマリ&...&サマリ\\$\downarrow$&$\downarrow$&&$\downarrow$\\\multicolumn{4}{c}{\framebox[70mm]{ダイジェスト編集}}\\\multicolumn{4}{c}{$\downarrow$}\\\multicolumn{4}{c}{ダイジェスト}\\\multicolumn{4}{c}{$\uparrow$}\\\multicolumn{4}{c}{\fbox{ダイジェストリーダー}}\end{tabular}}\end{center}\caption{ダイジェストシステムの概要}\label{fig:system}\end{figure}\clearpage\begin{figure}[h]\begin{center}\atari(139,73)\end{center}\caption{WWWでのダイジェストサービス}\label{fig:digest}\end{figure}本システムは,現在,WWWにおいて試験運用している\footnote{\verb+http://www.jaist.ac.jp/\~{}sato/nnad/home-j.html+}.図\ref{fig:digest}にダイジェストの表示例を示す.
\section{議論}
\begin{enumerate}\item[(1)]本研究により,fj.wantedに関しても実用的なダイジェストの自動生成が可能であることが明らかになった.\end{enumerate}当初,我々は,テキストと投稿者がかなり多様であるため,fj.wantedのダイジェスト自動生成は,難しいのではないかと考えていた.しかし,本研究の結果は,この予想を覆すものであった.fj.wantedのダイジェスト自動生成が可能であった最大の理由は,「fj.wantedの記事が,自分の求めるものが何であるかを読み手に伝えるという明確な目的を持った文章であり,そのような情報を伝達するために使われる文章構造と文章表現はかなり限定される」ということにあるだろう\footnote{逆の側面から見れば,このように文章構造や文章表現が限られているため,我々は明確にその文章の主題(目的)を理解することができるとも言えよう.}.このことが,言わば「斜め読み」的処理によるサマリ抽出を可能にしていると考えられる.\begin{enumerate}\item[(2)]さらなる精度向上を目指すならば,サマリ文がない記事(15\%)のサマリ生成が必要となる.\end{enumerate}サマリ文がない記事の多くは,照応や省略といった現象が現れているためにサマリ文となるような1文が存在しない記事である.このため,照応,省略の処理が十分な精度で実現できなければ,適切なサマリ文を生成できないと考えられる.\begin{enumerate}\item[(3)]投稿者によるサマリ作成は非現実的である.そのため,サマリの自動抽出は重要である.\end{enumerate}サマリを自動生成するのではなく,あらかじめサマリを付けて投稿してもらうという解も存在する.しかし,現在の記事のサブジェクト(subject)に書かれている情報からみて,我々は,それは非現実的だと考える.\begin{enumerate}\item[(4)]本方法は,他の掲示情報型ニュースグループや質問応答型\footnote{「ある質問記事に対して,それに対する答がフォロー記事として投稿される」という性質を持つニュースグループ.}ニュースグループの質問記事のダイジェストにも応用できると考えられる.\end{enumerate}応答記事の要約を含んだ形で,ダイジェスト(あるいは,FAQ(FrequentlyAskedQuestions))を自動生成することも考えられるが,その重要性は低いと考える.なぜならば,質問記事のリストを,質問の要約とそれへの応答記事へのポインタという形で示すことができれば,十分にダイジェストの役割を果たすと考えられるからである.\begin{enumerate}\item[(5)]テキストの主題による分類は重要である.\end{enumerate}テキストには,主題(目的)と分野(内容)\footnote{例えば,新聞記事では,経済,政治,スポーツといった分類が,この「分野による分類」に相当する.}という2つの直交する分類が存在し,この2つが,いわば情報の取捨選択の縦糸と横糸となっている.このうち,分野による分類はいままで多くの研究があるが,主題による分類は,それほど注目されていなかった.この主題による分類も,分野による分類と同様に,求める情報に到達することを支援するナビゲーション機能の実現において,強力な道具となると考えられる.
\section{関連研究}
ダイジェストの自動生成を実現する中心技術は,サマリ抽出にある.本システムでは,記事のサマリとして,記事のカテゴリとサマリ文を抽出した.これらに関連する研究は,主に,テキスト分類と要約という分野において研究されてきた.\subsection{テキスト分類}テキスト分類とは,ひとまとまりのテキスト(文献,ニュース記事等)を,その内容に基づいて,分類することである.通常,あらかじめカテゴリ集合が与えられ,その中から適切なカテゴリを割り当てることを行なう.Construe-TIS\cite{Construe-TIS-91}は,英語の新聞記事を対象とする分類システムで,キーワードから概念を認識し,認識した概念を組み合わせて最終的なカテゴリを決定する.このシステムは,キーワードとその前後の文脈情報という表層的な手がかりを利用し,かなりよい精度(90\%程度)で新聞記事を分類することができる.一方,ThinkingMachineCorporationは,Memory-BasedReasoningを用いて,DowJonesのニュース記事を分類するシステムを開発している\cite{Masand-92}.このシステムは,すでに分類済みの5万件のニュース記事を用いて,再現率約80\%,正解率約70\%で,分類コード割り当てを行なうことができる.これらのシステムは,いずれも英語を対象としたシステムであり,日本語を対象としたテキスト分類は,それほど試みられていない.また,前節で述べたように,これらの分類は,いずれもテキストの内容(分野)による分類であり,主題(目的)による分類は,ほとんど研究されていない.\subsection{要約}要約とは,あるひとまとまりのテキスト(例えば,論文)が表している意味内容を,非常に短いテキストで簡潔に表現することを言う.ここ1,2年,日本語を対象とした要約研究がいくつか行なわれている.原ら\cite{Hara-ipsj-nlp-94}は,複雑な言語解析を避け,項目名と特徴という表層的な情報を利用することで,特許広報の抄録を作成する方法を提案している.一方,GREEN\cite{Yamamoto-nlp-95}は,論説文を対象とした要約システムである.このシステムは,現状で利用可能な談話要素を取り込み,重要な文を抜き出すこととその文から修飾句を削減することによって要約を生成する.我々の立場は,前者と近いが,以下の二点において今までの研究と異なる.第一に,ネットニュースのダイジェストの生成の際に必要となるサマリは,通常の要約よりも非常に短いという点である.我々がダイジェストに求める機能は,「情報(記事)が必要であるか,不必要であるか判定できること」であり,これを満たすならば,サマリは短ければ短いほど好ましいと考える.第二に,対象としているテキストの品質が多様であるという点である.これまでの研究が対象としてきたテキストは,特許広報や新聞の論説記事など高品質なテキストである.これらのテキストの品質に対し,ネットニュースの記事のテキスト品質はかなり低い.\subsection{fj.meetingsダイジェストとの違い}ネットニュースのダイジェスト自動生成システムは,本システム以外に,筆者らが先に実現したfj.meetingsのダイジェスト自動生成システム\cite{Madoka-master-94,Madoka-ipsj-conf-94,Madoka-ipsj95}がある.このシステムと本システムとの大きな違いは,サマリとして抽出する情報と,その抽出法にある.fj.meetingsのダイジェスト作成では,会告記事から,その会議の名称(タイトル),開催期日,開催場所,論文締切期日といった情報項目を,その記事のサマリとして抽出する.このように,抽出すべき情報をあらかじめ限定できるのは,対象とする記事が会議に関する記事に限定されるからである.このため,サマリ抽出には,いわゆる情報抽出の手法を用いることができる.fj.meetingsのサマリ抽出では,センタリング,箇条書といったスタイル情報と抽出する情報項目に特有な言語表現パターンを組み合わせて利用する.これに対して本システムのダイジェスト作成では,各記事から,その記事の内容を端的に表す1文(サマリ文)を抽出する.これは,fj.wantedの記事から抽出すべき情報項目を,fj.meetingsの会告記事のように限定することができないからである.このため,サマリ抽出の手法は,情報抽出よりは要約に近い形となる.本システムでは,主に言語表現パターンを利用して,サマリ文を見つける方法をとっている.
\section{おわりに}
本稿では,fj.wantedのダイジェストの自動生成を実現する方法について述べた.その中心技術は,ニュース記事からのサマリ抽出法である.この方法は,言わば「斜め読みを模擬した処理」であり,まず,表層的な表現を手がかりとして,42の特徴を抽出し,それらの特徴を用いて,記事のサマリ(カテゴリとサマリ文)を抽出する.未知の記事群に対するブラインドテストにおいて,本方法は,カテゴリ判定正解率81\%,サマリ文抽出正解率76\%という値を示した.本論文で述べた方法は,fj.wantedを対象としたものであるが,他の掲示情報型ニュースグループや質問応答型のニュースグループのダイジェスト作成にも,同様な手法が適用できると考えられる.また,本方法を発展させることによって,FAQの自動作成もある程度可能であろう.ダイジェストの自動生成では,オリジナルのテキストがすでにオンラインテキストとして存在することが前提となっている.現在のところ,ネットニュースはこの前提を満たす数少ない対象であるが,今後,多くのテキスト情報がオンラインテキストとして入手可能になるにつれて,他の対象に対しても,ダイジェストの自動生成の道が開けると考えられる.本論文で示したダイジェストは,ネットニュースに対するダイジェストの一例に過ぎない.この他に,いわゆる``What'sup?''(今,何が話題になっているか)を把握するための俯瞰ダイジェストや必要な記事をキーワードから探すリファレンスダイジェストなどが考えられる\cite{Madoka-master-94}.今後,これらのダイジェストをニュースリーダーと有機的に統合し,多角的にネットニュースにアクセスすることを可能にしていく必要があるであろう.それは,間接的には,ネットニュースの新しいマスメディアとしての可能性を広げていくことにつながっていくと考えられる.\newpage\bibliographystyle{jnlpbbl}\bibliography{main}\begin{biography}\biotitle{略歴}\bioauthor{佐藤理史}{1983年京都大学工学部電気工学第二学科卒業.1988年同大学院博士課程研究指導認定退学.同年,京都大学工学部助手.1992年より北陸先端科学技術大学院大学情報科学研究科助教授.京都大学博士(工学).自然言語処理,機械学習,超並列人工知能などの研究に従事.}\bioauthor{佐藤円}{1986年慶應義塾大学法学部政治学科卒業.同年,(株)総合ビジョン入社.1990年(株)電通総研勤務.1994年北陸先端科学技術大学院大学情報科学研究科修士課程修了.現在,同博士後期課程在学中.計算機ネットワーク上のマスコミュニケーション,計算機使用者の倫理等に興味を持っている.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V06N07-02 | \section{はじめに}
日本語の長文で一文中に従属節が複数個存在する場合,それらの節の間の係り受け関係を一意に認定することは非常に困難である.また,このことは,日本語の長文を構文解析する際の最大のボトルネックの一つとなっている.一方,これまで,日本語の従属節の間の依存関係に関する研究としては,\cite{Minami73aj,Minami93aj}による従属節の三階層の分類がよく知られている.\cite{Minami73aj,Minami93aj}は,スコープの包含関係の狭い順に従属節を三階層に分類し,スコープの広い従属節は,よりスコープの狭い従属節をその中に含むことができるが,逆に,スコープの狭い従属節が,よりスコープの広い従属節をその中に含むことはできないという傾向について述べている.さらに,\cite{FFukumoto92aj,SShirai95bj}は,計算機による係り受け解析において\cite{Minami73aj,Minami93aj}の従属節の分類が有用であるとし,その利用法について提案している.特に,\cite{SShirai95bj}は,計算機による係り受け解析における有効性の観点から,\cite{Minami73aj,Minami93aj}の従属節の三階層の分類を再構成・詳細化し,また,この詳細な従属節の分類を用いた従属節係り受け判定規則を提案している.これらの研究においては,人手で例文を分析することにより従属節の節末表現を抽出し,例文における従属節の係り受け関係の傾向から,従属節の節末表現を階層的に分類している.しかし,人手で分析できる例文の量には限りがあるため,このようにして抽出された従属節節末表現は網羅性に欠けるおそれがある.また,人手で従属節節末表現の階層的分類を行う際にも,分類そのものの網羅性に欠ける,あるいは分類が恣意性の影響を受けるおそれが多分にある\footnote{実際に,EDR日本語コーパス\cite{EDR95aj-nlp}(約21万文)に対して,\cite{SShirai95bj}の従属節係り受け判定規則のうち,表層的形態素情報の部分を用いて従属節の係り受け関係の判定を行った結果,約30\%のカバレージ,約80\%の適合率という結果を得ている\cite{Nishiokayama98aj}.}.そこで,本論文では,大量の構文解析済コーパスから,統計的手法により,従属節節末表現の間の係り受け関係を判定する規則を自動抽出する手法を提案する.まず,大量の構文解析済コーパスを分析し,そこに含まれる従属節節末表現を網羅するように,従属節の素性を設定する.この段階で,人手による例文の分析では洩れがあった従属節節末表現についても,これを網羅的に収集することができる.また,統計的手法として,決定リストの学習の手法~\cite{Yarowsky94a}を用いることにより,係り側・受け側の従属節の形態素上の特徴と,二つの従属節のスコープが包含関係にあるか否かの間の因果関係を分析し,この因果関係を考慮して,従属節節末表現の間の係り受け関係判定規則を学習する.そこでは,従属節のスコープの包含関係の傾向に応じて従属節節末表現を階層的に分類するのではなく,個々の従属節節末表現の間に,スコープの包含関係,言い換えれば,係り受け関係の傾向が強く見られるか否かを統計的に判定している.また,人手によって係り受け関係の傾向を規則化するのではなく,大量の係り受けデータから自動的に学習を行っているので,抽出された係り受け判定規則に恣意性が含まれることはない.本論文では,実際に,EDR日本語コーパス\cite{EDR95aj-nlp}(構文解析済,約21万文)から従属節係り受け判定規則を抽出し,これを用いて従属節の係り受け関係を判定する評価実験を行った結果について示す.また,関連手法との実験的比較として,従来の統計的係り受け解析モデル\cite{Collins96a,Fujio97aj,Ehara98aj,Haruno98cj,Uchimoto98aj}と本論文のモデルとの違いについて説明し,従属節間の係り受け解析においては,従来の統計的係り受け解析モデルに比べて本論文のモデルの方が優れていることを示す.同様に,従属節間の係り受けの判定に有効な属性を選択する方法として,決定木学習\cite{Quinlan93a}により属性選択を行う手法\cite{Haruno98cj}と,本論文で採用した決定リスト学習の手法\cite{Yarowsky94a}を比較し,本論文の手法の優位性を示す.さらに,推定された従属節間の係り受け関係を,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析において利用することにより,統計的文係り受け解析の精度が向上することを示す.
\section{従属節の階層的分類を用いた係り受け解析}
\label{sec:sbrd_hd}本節では,\cite{SShirai95bj}における従属節の階層的分類,およびそれを用いた従属節係り受け判定規則について述べる.\subsection{従属節の三階層の分類}\label{subsec:clsb}まず,\cite{SShirai95bj}では,\cite{Minami73aj,Minami93aj}の従属節の三階層の分類に基づいて,計算機による係り受け解析における有効性の観点から,統語構造におけるスコープの包含関係の狭い順に,以下の三階層の従属節分類を提案している.ただし,ここで設定された全54種類の従属節の節末表現は,新聞記事の要約文972文を人手で分析することにより得たものである.\begin{description}\item[A類]「同時」の表現.「$\sim$とともに」,「$\sim$ながら」,「$\sim$つつ」など7種類.\item[B類]「原因」,「中止」の表現.連用形単独,「$\sim$て」,「名詞+で」,「$\sim$ため」など46種類.\item[C類]「独立」の表現.「$\sim$が」1種類.\end{description}\subsection{従属節間のスコープの包含関係}そして,上記の三種類の従属節間のスコープの包含関係に,以下の傾向があるとしている.\begin{enumerate}\itemA類は,他のA類,B類,C類の一部となることができる.\itemB類は,他のB類,C類の一部となることができるが,A類の一部とはなれない.\itemC類は,他のC類の一部となることができるが,A類,B類の一部とはなれない.\end{enumerate}また,その他に,従属節に対して以下の四つの詳細な分類を行い,従属節のスコープの間に詳細な包含関係を設定している.\paragraph{読点の有無}同類同士の従属節の間では,読点の付与された従属節の方が,読点の付与されていない従属節を含む関係にある.すなわち,従属節のスコープの包含関係は,包含関係の狭い順に,A類$<$A類+読点$<$B類$<$B類+読点$<$C類$<$C類+読点となる.\paragraph{連用節の中止性}B類同士,「B類+読点」同士の従属節は,表現の意味的な流れの中止性の強弱により,以下の二種類に分類でき,中止性の強い従属節は中止性の弱い従属節を包含する.\begin{itemize}\item中止性の弱いもの:用言連用形,「$\sim$て」,「$\sim$ため」など7種類.\item中止性の強いもの:「名詞+で」,「$\sim$ており」など4種類.\end{itemize}\paragraph{述語の状態性と動作性}B類同士,「B類+読点」同士の従属節は,動作性の強い順に,他動詞性,自動詞性,形容詞性,名詞性の四種類に分類でき,動作性が強い従属節は,動作性の弱い従属節を包含する.\paragraph{引用節と連体節}引用節が連用節を包含する際の包含関係においては,「$\sim$すると(発表する)」などの引用節の包含関係の広さは「C類+読点」に準じ,「$\sim$するよう(依頼する)」などの引用相当節述語の包含関係の広さは「B類+読点」に準ずる.一方,連体節が連用節を包含する際の包含関係においては,形式名詞に係る連体節述語の包含関係の広さは「B類+読点」に準じ,その他の通常の連体節述語の包含関係の広さはB類に準ずる.\subsection{従属節係り受け判定規則}\label{subsec:deprule}さらに,\cite{SShirai95bj}では,上記の従属節間のスコープの包含関係を,従属節間の係り受け関係と対応させ,従属節間の係り受け関係の決定においては,スコープの包含関係においてより広い関係にあるほど係り受けの優先度が高いとし,\begin{enumerate}\item優先度の低い従属節は優先度の高い従属節に係る.\item優先度の高い従属節は優先度の低い従属節に係らない.\end{enumerate}という優先規則を提案している.
\section{コーパスからの従属節係り受け選好情報の抽出}
\label{sec:learn}本論文では,前節のような従属節の階層的分類による係り受け判定規則を人手で抽出するのではなく,構文解析済コーパスから,従属節の間の係り受け選好情報を自動的に抽出する.\subsection{日本語従属節の定義}\label{subsec:dataex}本節では,本論文で対象とする日本語従属節の定義について述べる.従属節を定義するにあたっては,まず,文を形態素解析システム茶筌\cite{Matsumoto97aj}により形態素解析し,次に正規表現により記述された文節定義にしたがって,形態素列を文節単位にまとめる(文節処理までを施したデータについては,\cite{Fujio97aj,Fujio99aj}の係り受け解析で用いられているものを利用している.).一般に,文節は自立語部分と付属語部分からなるが,文節区切り済データ上で,自立語部分と付属語部分が以下の条件を満たす文節を従属節の主辞となる述語的文節とする\footnote{本論文中では,品詞および活用形などの文法用語はいずれも形態素解析システム茶筌\cite{Matsumoto97aj}の用語にしたがっている.}.\begin{enumerate}\item自立語部分は,以下のいずれかを満たす(いわゆる述語).\begin{enumerate}\item[(a)]動詞または形容詞.\item[(b)]「名詞句$+$判定詞(である)」\end{enumerate}\item付属語部分は,以下のいずれかを満たす.\begin{enumerate}\item[(a)]なし.\item[(b)]副詞タイプ(例:「$\sim$(して)以来」---「以来」が副詞).\item[(c)]副詞的名詞タイプ(例:「$\sim$(する)ため」---「ため」が副詞的名詞)\item[(d)]形式名詞タイプ(例:「$\sim$(する)こと」---「こと」が形式名詞)\item[(e)]時相名詞タイプ(例:「$\sim$(する)まえ」---「まえ」が時相名詞)\item[(f)]述語接続助詞タイプ(例:「$\sim$(する)が」---「が」が述語接続助詞)\item[(g)]引用助詞タイプ(例:「$\sim$(する)と」---「と」が引用助詞)\item[(h)](a)$\sim$(g)の後に,副助詞(「は」「など」など),終助詞(「か」「よ」など)が付加されたもの.\end{enumerate}\end{enumerate}この定義は,狭義の従属節を含む任意の述語節(引用節,連体修飾節などを含む)に対応しており,本論文ではその全てをまとめて広義の「従属節」として扱う.ただし,連体修飾節については,係り受け関係において受け側となる場合にのみ,係り受け関係決定の評価の対象としている.\begin{table*}\begin{center}\caption{従属節の素性}\label{tab:ftr}\begin{tabular}[c]{|c|c|c|}\hline\multicolumn{1}{|c|}{素性タイプ}&種類数&\multicolumn{1}{|c|}{素性(語彙素性については抜粋)}\\\hline\hline読点素性&2&読点有,読点無\\\hline文法・品詞素性&&副詞,副詞的名詞,形式名詞,時相名詞,\\(節末か否かの&17&述語接続助詞,引用助詞,副助詞,\\区別あり)&&に(格助詞)+副助詞,判定詞,終助詞\\\hline節末活用語&12&語幹,基本,未然,連用,連体,条件,\\活用形素性&&命令,タ,タリ,テ,推量,意志\\\hline&&副詞(ともに,一方で,以来)\\&&副詞的名詞(あと,とき,ため,場合,よう,方が)\\語彙素性&&形式名詞(のは,もの,ものは,こと,ことが)\\(頻度10以上)&235&時相名詞(今,瞬間,前に,以上)\\(文法・品詞素性を&&述語接続助詞(が,から,ものの,ながら,つつ,し),\\語彙化したもの)&&引用助詞(と),副助詞(は,など,も,だけ,でも,なら),\\&&に(格助詞)+副助詞(には,にも),\\&&判定詞(では,でも),終助詞(か,かを,よ)\\\hline\end{tabular}\end{center}\end{table*}\vspace{-2mm}\subsection{従属節の素性表現}\label{subsec:ftr}次に,従属節の係り受け選好情報を記述するための準備として,従属節の様々な属性を記述するために,前節で定義した従属節の主辞となる述語的文節に対して,表\ref{tab:ftr}の素性を設定する.これは,人手により抽出された\cite{SShirai95bj}の従属節の節末表現の設定(\ref{subsec:clsb}節)をより一般的・網羅的にするためのものである.特に,本論文では,EDR日本語コーパス\cite{EDR95aj-nlp}(約21万文)の構文解析済コーパス(のうち,文の表層文字列および構文構造の括弧付け情報のみ)を用いて,従属節の係り受け選好情報の抽出を行うので,EDRコーパスから抽出された従属節を網羅するように設定されている.また,これらの素性は,従属節の主辞となる述語的文節の特徴を記述したもので,いずれも文節処理までで利用可能な形態素・品詞上の特徴のみを用いている.表\ref{tab:ftr}の素性は,大きく,i)読点素性,ii)文法・品詞素性,iii)節末活用語活用形素性,iv)語彙素性の四タイプに分けられる.ii)の文法・品詞素性は,従属節の主辞となる述語的文節の付属語列部分に現れ得る形態素の品詞を記述したもので,その形態素が文節末に現れるか文節の中程に現れるかの区別がある.iii)の節末活用語活用形素性は,従属節の主辞となる述語的文節の文節末が活用語の場合にその活用形を記述したものである.iv)の語彙素性は,ii)の文法・品詞素性の各素性を語彙化したものである.\subsection{決定リストの学習}従属節の間の係り受け関係の選好情報を記述する方法として,決定リスト~\cite{Rivest87a,Yarowsky94a}を用いる.本論文では,特に,\cite{Yarowsky94a}の決定リスト学習の方法を用いて,従属節の係り受け関係が記述されたデータから従属節係り受け選好情報を抽出する.決定リストは,ある証拠$E$のもとでクラス$D$を決定するという規則を優先度の高い順にリスト形式で並べたもので,適用時には優先度の高い規則から順に適用を試みていく.\cite{Yarowsky94a}の決定リスト学習の方法においては,クラス$D$の正解付データから,証拠$E$が存在する($E\!=\!1$)という条件のもとでクラス$D$が$D\!=\!x$となる条件付確率$P(D\!=\!x\midE\!=\!1)$を計算し,この条件付確率を用いて以下の手順で決定リストを構成する.\begin{enumerate}\itemある証拠$E$が存在する($E\!=\!1$)という条件のもとでの条件付確率$P(D\!=\!x\midE\!=\!1)$\mbox{の値の大きさが一位のクラス}$x_1$と二位のクラス$x_2$の間で,以下の対数尤度比を計算する.\[\log_2\frac{P(D\!=\!x_1\midE\!=\!1)}{P(D\!=\!x_2\midE\!=\!1)}\]その結果,対数尤度比が大きい順に証拠$E$とクラス$D$の組を並べる\footnote{実際には,ある証拠$E$が存在するという条件のもとでクラス$D$が$D\!=\!x$となる事象の頻度に,微小値$\alpha(0.1\leq\alpha\leq0.25)$を加えることにより,観測された頻度が0の場合にも対処できる\cite{Yarowsky94a}.この補正は,クラス$D$を一意に\mbox{決定する}(すなわち,二位のクラス$x_2$について,$P(D\!=\!x_2\midE\!=\!1)\!=\!0$となる)証拠$E$が複数ある場合,\mbox{それらを,証}拠$E$のもとでクラス$D\!=\!x_1$となる事象の頻度順に優先付けするという効果がある.}.ただし,このときの対数尤度比は,クラス$D\!=\!x$の確率$P(D\!=\!x)$の値の大きさが一位のクラス$x_1$と二位のクラス$x_2$の間で以下の対数尤度比を計算して得られる値\[\log_2\frac{P(D\!=\!x_1)}{P(D\!=\!x_2)}\]を下限値とする.\item決定リストの最終行は``default''を表し,クラス$D\!=\!x$の確率$P(D\!=\!x)$の値の大きさが一位のクラス$x_1$を与える.\end{enumerate}\subsection{決定リストの学習による従属節係り受け選好情報の抽出}\label{subsec:dlist_sb}前節の決定リストの学習の手法を用いて,二つの従属節の間の係り受け関係の選好情報を抽出する.基本的には,ある二つの従属節の主辞となる述語的文節の素性の情報の組を証拠として,その二つの述語節の間の係り受け関係を決定する.いま,一文中で従属節の主辞となる述語的文節(および文末述語文節)の並びを$Seg_1,\ldots,Seg_n$とすると,一つの述語的文節は,\ref{subsec:ftr}節で述べた素性の組で記述されるので,各述語的文節$Seg_i$は,複数の素性を要素としうる素性集合${\calF}_i$を持つことになる.このとき,決定リストの証拠$E$としては,二つの述語的文節$Seg_i$,$Seg_j(i<j)$の持つ素性集合${\calF}_i$,${\calF}_j$に対して,そのあらゆる可能な部分集合\footnote{ただし,互いに包含関係にある素性については,どちらか一方のみを含める.}の組$(F_i,F_j)$を証拠$E$の候補とする\footnote{従来の統計的係り受け解析モデルでは,これらの素性の他に,二つの文節間の距離を利用している.本論文では,従属節の階層的分類の考え方に即して素性の設定を行っており,二つの文節間の距離の情報はあえて利用せず,現在設定している素性の範囲でどの程度の性能が達成できるかを示す.}.また,決定リストのクラス$D$としては,基本的には,述語的文節$Seg_i$と$Seg_j$が係り受け関係にある場合と,係り受け関係にない場合の二つを設定することになるが,第\ref{sec:sbrd_hd}節で述べた従属節の階層的分類の考え方を利用することにより,特に,二つの述語的文節が係り受け関係にない場合について,少し異なったクラスの設定をする.そのために,まず,従属節間の係り受け関係が,従属節のスコープの包含関係にどのように対応しているのかについて調べる.以下では,従属節の主辞となる述語的文節$Seg_1$が,文中の他の従属節の主辞となる述語的文節$Seg_2$に先行しているとして,従属節間の係り受け関係と従属節のスコープの包含関係との対応を以下のように分類して考える.\begin{figure}\hspace*{-1.5cm}\begin{center}\framebox{\epsfile{file=fig/rel_mod_j.ps,scale=0.65}}\caption{従属節間の係り受けとスコープの包含関係:\\(1)先行する述語的文節$Seg_1$が後続の述語的文節$Seg_2$に係る場合.}\label{fig:rel1}\end{center}\end{figure}\begin{figure}\vspace{-8mm}\hspace*{-1cm}\begin{center}\framebox{\epsfile{file=fig/rel_out_over_j.ps,scale=0.58}}\caption{従属節間の係り受けとスコープの包含関係:\\(2a)先行する述語的文節$Seg_1$が後続の述語的文節$Seg_2$を越えて,\\より遠くの述語的文節に係る場合.}\label{fig:rel2a}\end{center}\vspace{-2mm}\end{figure}\begin{enumerate}\item[(1)]先行する述語的文節$Seg_1$が後続の述語的文節$Seg_2$に係る場合(図\ref{fig:rel1}).\item[(2)]先行する述語的文節$Seg_1$が後続の述語的文節$Seg_2$に係らない場合.\begin{enumerate}\item[(2a)]先行する述語的文節$Seg_1$が後続の述語的文節$Seg_2$を越えて,より遠くの述語的文節に係る場合(図\ref{fig:rel2a}).\item[(2b)]先行する述語的文節$Seg_1$が後続の述語的文節$Seg_2$よりも前の述語的文節に係る場合.\begin{enumerate}\item[(2b-i)]$Seg_1$\hspace{-0.5pt}が\hspace{-0.5pt}$Seg_2$\hspace{-0.5pt}を主辞とする従属節のスコープに\mbox{含まれる場合(図\ref{fig:rel2bi})}.\item[(2b-ii)]$Seg_1$が$Seg_2$を主辞とする従属節のスコープに含まれない場合(図~\ref{fig:rel2bii}).\end{enumerate}\end{enumerate}\end{enumerate}\medskip\noindent\begin{minipage}{\textwidth}最初に,従属節(の主辞文節$Seg_1$)が,後続する従属節(の主辞文節$Seg_2$)に係る場合は,図~\ref{fig:rel1}に示すように,$Seg_1$を主辞とする従属節は,$Seg_2$を主辞とする従属節のスコープに包含されることになる(図中の矢印は係り受け関係を,また,木構造は統語解析木の略記を表す.).一方,従属節(の主辞文節$Seg_1$)が,後続する従属節(の主辞文節$Seg_2$)に係らない場合は,図~\ref{fig:rel2a}$\sim$\ref{fig:rel2bii}に\end{minipage}\begin{figure}\hspace*{-1.5cm}\vspace{-3mm}\begin{center}\framebox{\epsfile{file=fig/rel_in_notmod_j.ps,height=49mm,width=132mm}}\caption{従属節間の係り受けとスコープの包含関係:\\(2b-i)先行する述語的文節$Seg_1$が後続の述語的文節$Seg_2$よりも前の\\述語的文節に係る場合で,$Seg_1$が$Seg_2$を主辞とする従属節のスコープに含まれる場合.}\label{fig:rel2bi}\end{center}\end{figure}\begin{figure}\hspace*{-1.5cm}\vspace{-12mm}\begin{center}\framebox{\epsfile{file=fig/rel_out_short_j.ps,height=39mm,width=137mm}}\caption{従属節間の係り受けとスコープの包含関係:\\(2b-ii)先行する述語的文節$Seg_1$が後続の述語的文節$Seg_2$よりも前の\\述語的文節に係る場合で,$Seg_1$が$Seg_2$を主辞とする従属節のスコープに含まれない場合.}\label{fig:rel2bii}\end{center}\vspace{-6mm}\end{figure}\noindent示すように,上記の(2a),(2b)の二通りに分けられる.ここで,\ref{subsec:deprule}節の従属節係り受け判定規則を言い換えると,従属節の包含関係においてより広いスコープを持つ従属節(の主辞文節)は,後続する従属節のうち,より狭いスコープを持つ従属節(の主辞文節)には係らないということができる.したがって,(2a)の場合には,主辞文節$Seg_1$は,包含関係において$Seg_2$より\mbox{もより広い}スコープを持つ必要がある.一方,(2b)の場合は,$Seg_1$が$Seg_2$\mbox{を主辞とする従属節}のスコープに含まれる場合((2b-i),図\ref{fig:rel2bi})と,含まれない場合((2b-ii),図\ref{fig:rel2bii})の両方の可能性がある.したがって,一般に,(2b)の場合には,$Seg_1$を主辞とする従属節のスコープの広さと,$Seg_2$を主辞とする従属節のスコープの広さの間には依存関係がなく,互いに独立な関係にあると言える.以上のことから,本論文では,二つの述語的文節が係り受け関係にない場合のうち,特に(2a)の場合のみに注目して,決定リストのクラス$D$としては,\medskip\begin{enumerate}\noindent\begin{minipage}{\textwidth}\item述語的文節$Seg_i$と$Seg_j$が係り受け関係にある場合,\item述語的文節$Seg_i$の係り先が,$Seg_j$を越えたより後ろの述語的文節または文末述語文\end{minipage}節となる場合,\end{enumerate}の二つを設定することとし,このいずれの場合になるかを判定することとする\footnote{従来の統計的係り受け解析モデル\cite{Collins96a,Fujio97aj,Ehara98aj,Haruno98cj,Uchimoto98aj}\mbox{においては,}クラスとして二つの文節が係り受け関係にある場合と係り受け関係にない場合の二つを設定しており,従属節の階層的分類の考え方を利用した本論文の設定とは異なっている.本論文の設定法と,従来の統計的係り受け解析モデルにおけるクラスの設定法の実験的比較については,\ref{subsubsec:prev_dep}節で詳しく述べる.}.以上をまとめると,決定リストの証拠$E$とクラス$D$は以下のようになる.\begin{itemize}\item{\bf証拠}$E$:二つの従属節の主辞となる述語的文節$Seg_i$,$Seg_j(i\!<\!j)$の持つ素性集合のあらゆる部分集合の組$(F_{i},F_{j})$.\item{\bfクラス}$D$:$Seg_i$が$Seg_j$に係る場合($D\!=\!係る$)と,$Seg_i$が$Seg_j$を越えてより\mbox{後ろの述語}的文節もしくは文末述語文節に係る場合($D\!=\!越える$)の二値.\end{itemize}このような証拠$E$とクラス$D$の設定のもとで,前節の決定リストの学習法にしたがって,従属節間の係り受けを決定する選好情報を抽出する.\subsubsection*{例}例として,図~\ref{fig:ex}の従属節間の係り受け解析済の文から,従属節の係り受け関係のデータを抽出する手順を以下に示す.図~\ref{fig:ex}の文には,文末の他に二つの述語的文節$Seg_1$,$Seg_2$があり,そ\breakれぞれ,${\calF}_1$,${\calF}_2$の素性集合を持つ\footnote{$Seg_2$の``なので''は,茶筌では,「判定詞``だ''の連体形+助動詞``のだ''のテ形」として形態素解析される.}.また,係り受け関係としては,$Seg_1$が文末に係るために,$Seg_1$は$Seg_2$を「越える」という関係にある.この$Seg_1$と$Seg_2$の係り受け\mbox{関係から,決定リス}トを構成するための証拠$E$・クラス$D$のデータを抽出すると,表~\ref{tab:EDex}の結果が得られる.ここで,${\calF}_1$中の二つの素性\begin{quote}述語接続助詞(節末),``が''\end{quote}については,包含関係にあるので,どちらか一方のみを含めることして,${\calF}_1$と${\calF}_2$のあらゆる可能な部分集合の組が証拠$E$となる.また,これらの証拠に対して,そのクラス$D$はいずれも$D\!=\!「越える」$となる.\begin{figure*}\begin{center}\framebox{\epsfile{file=fig/depex.ps,vscale=0.9,hscale=0.75}}\\\vspace*{.3cm}\begin{tabular}[c]{|l|l|}\hline\multicolumn{1}{|c|}{述語的文節}&\multicolumn{1}{|c|}{素性集合}\\\hline$Seg_1$:``値上げするが,''&${\calF}_1\!=\!\Bigl\{読点有,述語接続助詞(節末),``が''\Bigr\}$\\$Seg_2$:``3\%なので,''&${\calF}_2\!=\!\Bigl\{読点有,テ形\Bigr\}$\\$Seg_3$(文末):``でてくるだろう.''&\multicolumn{1}{|c|}{---}\\\hline\end{tabular}\caption{複数の従属節を含む文の例}\label{fig:ex}\end{center}\end{figure*}\begin{table}\begin{center}\caption{係り受け解析済の文から抽出される証拠$E$・クラス$D$の組の例}\label{tab:EDex}\begin{tabular}[c]{|c|c|c|}\hline\multicolumn{2}{|c|}{証拠$E$}&クラス\\\cline{1-2}$F_1$&$F_2$&$D$\\\hline\hline読点有&読点有&越える\\読点有&テ形&越える\\読点有&読点有,テ形&越える\\述語接続助詞(節末)&読点有&越える\\述語接続助詞(節末)&テ形&越える\\述語接続助詞(節末)&読点有,テ形&越える\\読点有,述語接続助詞(節末)&読点有&越える\\読点有,述語接続助詞(節末)&テ形&越える\\読点有,述語接続助詞(節末)&読点有,テ形&越える\\``が''&読点有&越える\\``が''&テ形&越える\\``が''&読点有,テ形&越える\\読点有,``が''&読点有&越える\\読点有,``が''&テ形&越える\\読点有,``が''&読点有,テ形&越える\\\hline\end{tabular}\end{center}\end{table}\subsection{EDRコーパスから学習した決定リスト}EDR日本語コーパスの約21万文を訓練用データ(95\%)と評価用データ(5\%)に分割し,訓練用データ199,500文から,係り受け関係が「係る」または「越える」になる述語的文節を抽\mbox{出した結果},162,443組の述語的文節のペアが得られた.これらの従属節係り受けデータから,従属節係り受け選好のための決定リストを学習した.結果のうち,証拠$E$の頻度が10以上の規則をいくつか抜粋したものを表~\ref{tab:dlist}に示す.規則数は,確率値が$P(D\midE)\!=\!1$となる規則が923,$0.5378\!<\!P(D\midE)\!<\!1$となる規則が6,889で,その総数は7,812である.表~\ref{tab:dlist}の\mbox{決定リストのデ}フォールト規則としては,\begin{eqnarray*}P(D\!=\!越える)&=&0.5378\\P(D\!=\!係る)&=&0.4622\\P(D\!=\!越える)&>&P(D\!=\!係る)\end{eqnarray*}となることから,$D\!=\!「越える」$をデフォールト規則とし,これを決定リストの最終行とする.\begin{table*}\begin{center}\caption{EDRコーパスから学習した決定リスト中の規則\\(証拠$E$の頻度10以上)の抜粋}\label{tab:dlist}\vspace*{.1cm}\hspace*{-1cm}\begin{tabular}[c]{|c|c|c|c|c|}\hline\multicolumn{2}{|c|}{証拠$E$}&クラス&確率値&証拠$E$\\\cline{1-2}$F_1$&$F_2$&$D$&$P(D\midE)$&の頻度\\\hline\hline連用形&判定詞($\neg$節末)&越える&1&548\\連用形&``では''&越える&1&536\\$\vdots$&$\vdots$&$\vdots$&$\vdots$&$\vdots$\\読点無&読点有,``のが''&係る&1&123\\$\vdots$&$\vdots$&$\vdots$&$\vdots$&$\vdots$\\読点無,副詞($\neg$節末)&読点有,``が''&係る&1&10\\読点有&読点無,判定詞($\neg$節末)&越える&0.997&1541\\$\vdots$&$\vdots$&$\vdots$&$\vdots$&$\vdots$\\副詞的名詞&連用形&越える&0.538&1280\\(デフォールト)&(デフォールト)&越える&0.5378&87366\\\hline\end{tabular}\end{center}\end{table*}
\section{決定リストを用いた従属節係り受け解析}
\label{sec:ana}\subsection{二つの従属節の間の係り受け関係の推定}\begin{table}\begin{center}\caption{決定リストの適用例}\label{tab:dlap}\begin{tabular}[c]{|c|c|c|c|c|}\hline\multicolumn{2}{|c|}{証拠$E$}&クラス&確率値&\\\cline{1-2}$F_1$&$F_2$&$D$&$P(D\midE)$&頻度\\\hline\hline{\bf読点有,``が''}&{\bfテ形}&{\bf越える}&{\bf0.917}&{\bf1354}\\``が''&テ形&越える&0.912&1391\\読点有,述語接続助詞(節末)&テ形&越える&0.907&570\\述語接続助詞(節末)&テ形&越える&0.858&620\\読点有&テ形&越える&0.835&11923\\読点有,``が''&読点有&越える&0.827&2936\\読点有,``が''&読点有,テ形&越える&0.826&533\\読点有,述語接続助詞(節末)&読点有&越える&0.818&1212\\``が''&読点有&越える&0.815&3027\\``が''&読点有,テ形&越える&0.814&547\\読点有,述語接続助詞(節末)&読点有,テ形&越える&0.804&225\\述語接続助詞(節末)&読点有&越える&0.746&1352\\述語接続助詞(節末)&読点有,テ形&越える&0.722&252\\読点有&読点有,テ形&越える&0.674&4071\\読点有&読点有&越える&0.612&24511\\\hline\end{tabular}\end{center}\end{table}いま,一文中の二つの従属節の主辞文節$Seg_i$,$Seg_j(i<j)$が与えられていて,決定リストを用いてこの二つの文節間の係り受け関係を推定することを考える.$Seg_i$,$Seg_j$それぞれの持つ素性集合を${\calF}_i$,${\calF}_j$とすると,${\calF}_i$,${\calF}_j$に対してあらゆる可能な部分集合の組$(F_i,F_j)$を考え,これを証拠$E$の候補として決定リストを検索し,決定リスト中でもっとも優先順位の高い規則の与えるクラス$\hat{D}$を$Seg_i$,$Seg_j$の係り受け関係の推定結果とする.決定リストを用いたこの係り受け関係の推定法は,あらゆる可能な証拠$(F_i,F_j)$について,条件付確率$P(D\!=\!x(F_i,F_j)\mid(F_i,F_j))$の最大値を与える証拠$(\hat{F}_i,\hat{F}_j)$を求め,その証拠を用いた時のクラス$D\!=\!x(\hat{F}_i,\hat{F}_j)$をクラス$D$の推定結果$\hat{D}$とすることと等価である\footnote{ただし,ある証拠$E$が存在するという条件のもとでクラス$D$が$D\!=\!x$となる事象の頻度に,微小値$\alpha(0.1\leq\alpha\leq0.25)$を加えるという補正がなされているとする.}.\begin{eqnarray*}(\hat{F}_i,\hat{F}_j)&=&\argmax_{(F_i,F_j)}P(D\!=\!x(F_i,F_j)\mid(F_i,F_j))\\\hat{D}&=&x(\hat{F}_i,\hat{F}_j)\end{eqnarray*}\subsubsection*{例}例として,図~\ref{fig:ex}の文の述語的文節$Seg_1$と$Seg_2$の間の係り受け関係を,表~\ref{tab:dlist}の\mbox{決定リストを用}いて推定する様子を以下に示す.述語的文節$Seg_1$と$Seg_2$の組に対する可能な証拠のパターン$(F_1,F_2)$は,表~\ref{tab:EDex}のようになり,これらの証拠について表~\ref{tab:dlist}の決定リストを検索すると,\mbox{それぞ}れ表~\ref{tab:dlap}に示すクラス$D$および条件付確率$P(D|E)$が得られる.この結果,最も優先順位の高い規則として,表~\ref{tab:dlap}の先頭にゴシック体で示した規則が選ばれ,係り受け関係の推定に用いる証拠$(\hat{F}_1,\hat{F}_2)$および係り受け関係の推定結果$\hat{D}$はそれぞれ,\begin{eqnarray*}(\hat{F}_1,\hat{F}_2)&=&\Bigl(\\{読点有,``が''\},\\{テ形\}\\Bigr)\\\hat{D}&=&越える\end{eqnarray*}となる.\subsection{一文中の従属節の係り受け解析}\label{subsubsec:sent}次に,前節で求めた二つの従属節の間の係り受け関係の推定結果を用いて,一文中の従属節の係り受け解析を行う.その際には,先行する従属節の主辞となる述語的文節が,後続する述語的文節に「係る」確率だけでなく,後続する述語的文節を「越える」確率も考慮して,従属節の係り受け解析の優先度を計算する\footnote{従来の統計的係り受け解析モデル\cite{Collins96a,Fujio97aj,Ehara98aj,Haruno98cj,Uchimoto98aj}では,「係る」確率のみを考慮して一文全体の係り受け解析の優先度を計算している.本論文の計算法と,従来の統計的係り受け解析モデルにおける計算法との実験的比較については,\ref{subsubsec:prev_dep}節で詳しく述べる.}.まず,文$S$をその文中の述語的文節の列$S_{sb}$として以下のように記述する.\begin{eqnarray*}S_{sb}&=&Seg_1,\ldots,Seg_{n-1},Seg_n(文末)\end{eqnarray*}ここで,各$Seg_i$は述語的文節を表し,$Seg_n$は文末の述語文節である.また,述語的文節$Seg_i$の係り先の文節を$mod(Seg_i)$で表す.そして,文$S$中の述語的文節の列$S_{sb}$の間の係り受け関係のパターンを,述語的文節$Seg_i$の係り先の文節$mod(Seg_i)$の列で表し,これを$Dep(S_{sb})$と記述する.ただし,ここでは,文中の係り受け関係としては,互いに非交差のもののみを対象とする(実際の解析は,CKY法によっている.).\begin{eqnarray*}Dep(S_{sb})&=&mod(Seg_1),\ldots,mod(Seg_{n-1})\\&&(ただし,互いに非交差の係り受け関係のみ)\end{eqnarray*}そして,以下の手順により,決定リスト中の係り受け関係の確率値を用いて,それぞれの係り受けパターン$Dep(S_{sb})$の優先度を計算する.まず,従属節$Seg_i$から$mod(Seg_i)$への係り受け関係の優先度を計算する.前節と同様,二つ\breakの述語的文節$Seg_i$と$Seg_j$の間に係り受け関係$D\!=\!x$が成り立つ確率の推定においては,あらゆる証拠$(F_i,F_j)$について,決定リストを用いて条件付確率$P(D\!=\!x\mid(F_i,F_j))$の最大値を求め,この最大条件付確率を求めるべき推定値$\hat{P}(D\!=\!x\mid(Seg_i,Seg_j))$とする.\begin{eqnarray*}\hat{P}(D\!=\!x\mid(Seg_i,Seg_j))&=&\max_{(F_i,F_j)}P(D\!=\!x\mid(F_i,F_j))\end{eqnarray*}そして,述語的文節$Seg_k$を$Seg_i$の係り先\begin{eqnarray*}Seg_k&=&mod(Seg_i)\end{eqnarray*}として,以下の式により,述語的文節$Seg_i$が$Seg_k$に係る係り受け関係の優先度$Q(D\!=\!係る\mid(Seg_i,Seg_k))$を計算する.\begin{enumerate}\item$k\!<\!n$の場合.$Seg_i$が$Seg_k$に「係る」確率と$Seg_i$が$Seg_j(j\!=\!i+1,\ldots,k-1)$を「越える」確率の相乗平均\footnote{ここで,相乗平均ではなく単に積をとると,係り先$Seg_k$が$Seg_i$からどれだけ離れているかによって\mbox{積をとる項の数が}異なり,項の数が少ない方が有利になってしまう傾向がある.これはすなわち,より近くに係る係り受け関係が有利になるようにバイアスをかけることに相当する.数学的意味付けとしては,積をとることにより確率としての性質が保たれるという利点はあるが,各係り受け関係の確率を公平に評価するという目的からは外れるため,本論文では積ではなく相乗平均を用いるという立場をとる.なお,両者の実験的比較としては,\ref{subsubsec:subsent}節において\mbox{相乗平均を用いた場合と積を}用いた場合の実験結果を比較し,その違いについて考察する.}を$Q(D\!=\!係る\mid(Seg_i,Seg_k))$とする.\begin{eqnarray*}\lefteqn{Q(D\!=\!係る\mid(Seg_i,Seg_k))=}\\&&\Bigl(\\\hat{P}(D\!=\!係る\mid(Seg_i,Seg_k))\times\prod_{j=i+1}^{k-1}\hat{P}(D\!=\!越える\mid(Seg_i,Seg_j))\\\Bigr)^{\frac{1}{k-i}}\end{eqnarray*}\item$k\!=\!n$の場合.$Seg_i$が$Seg_n(文末)$に「係る」確率は(文末を「越える」確率は0なので)1とみなして考慮せず,$Seg_i$が$Seg_j(j\!=\!i+1,\ldots,n-1)$を「越える」確率の相乗平均を$Q(D\!=\!係る\mid(Seg_i,Seg_k))$とする.(ただし,$i\!<\!n-1$とする.$i\!=\!n-1$のときは,$Seg_{n-1}$は必ず$Seg_n$(文末)に係る.)\begin{eqnarray*}Q(D\!=\!係る\mid(Seg_i,Seg_k))&=&\Bigl(\\prod_{j=i+1}^{n-1}\hat{P}(D\!=\!越える\mid(Seg_i,Seg_j))\\Bigr)^{\frac{1}{n-i-1}}\end{eqnarray*}\end{enumerate}最後に,述語的文節$Seg_i$から$mod(Seg_i)$への係り受け関係の優先度$Q(D\!=\!係る\mid(Seg_i,mod(Seg_i)))$の積によって,文$S$中の述語的文節の列$S_{sb}$が\mbox{係り受け関係$Dep(S_{sb})$を持}つ優先度$Q(S_{sb},Dep(S_{sb}))$を計算する.\begin{eqnarray*}Q(S_{sb},Dep(S_{sb}))&=&\prod_{i=1}^{n-2}Q(D\!=\!係る\mid(Seg_i,mod(Seg_i)))\end{eqnarray*}上式の優先度を用いて,文$S$中の述語的文節の列$S_{sb}$に対して以下の最大の\mbox{優先度を与える係り}受け関係$\hat{Dep}(S_{sb})$を,文$S$の従属節係り受け解析の解析結果とする.\begin{eqnarray*}\hat{Dep}(S_{sb})&=&\argmax_{Dep(S_{sb})}Q(S_{sb},Dep(S_{sb}))\end{eqnarray*}
\section{実験および評価}
\ref{subsec:dlist_sb}節の方法により,EDR日本語コーパス約21万文のうちの訓練用データ(95\%)\mbox{から抽出し}た従属節係り受けデータから,従属節係り受け選好のための決定リストを学習し,これを用いて評価用データ(5\%)中の二つの従属節の間の係り受け関係を推定する実験,および一文中の従属節の係り受け解析の実験を行った.\subsection{評価データ}評価用データ(5\%)10,320文中で,一文中に二つ以上の従属節を含み,従属節の係り受けの曖昧性のある文は,3,128文(約30\%)であった.この3,128文および残りの7,192文について,文節数,一文中の平均文節数,述語的文節数を調査した結果を表~\ref{tab:evalD}に示す.また,第\ref{sec:sentana}節では,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析において,推定した従属節間の係り受け関係を評価するので,これらの評価用文セットを\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析によって解析した場合の,文節レベル正解率,上位1個/5個における文レベル正解含有率,および,述語的文節の係り受け正解率も示す.以下の実験では,評価用データ10,320文のうち,従属節の係り受けの曖昧性のある文3,128文を評価対象とする.\begin{table}[t]\vspace{-5mm}\begin{center}\caption{評価用データの特性}\label{tab:evalD}\begin{tabular}[c]{|c||c|c||c|}\hline&\multicolumn{2}{|c||}{部分データセット}&\\\cline{2-3}&従属節係り受け&従属節係り受け&\\&曖昧性あり&曖昧性なし&全評価データ\\\hline\hline文数&3,128(30.3\%)&7,192(69.7\%)&10,320\\文節数&32,038(39.9\%)&48,281(60.1\%)&80,319\\一文中の平均文節数&10.2&6.7&7.8\\述語的文節数&&&\\\multicolumn{1}{|r||}{(総数)}&8,789&---&---\\\multicolumn{1}{|r||}{(係り先が曖昧)}&4,207&0&4,207\\\hline係り受け解析正解率&&&\\\cite{Fujio97aj,Fujio99aj}&&&\\\multicolumn{1}{|r||}{文節レベル正解率}&85.3\%&86.7\%&86.1\%\\\multicolumn{1}{|r||}{文レベル正解含有率}&&&\\\multicolumn{1}{|r||}{(上位1個)}&25.4\%&47.5\%&40.8\%\\\multicolumn{1}{|r||}{(上位5個)}&35.8\%&60.2\%&52.8\%\\\multicolumn{1}{|r||}{述語的文節の正解率}&65.7\%&---&65.7\%\\\hline\end{tabular}\end{center}\end{table}\subsection{二つの従属節の間の係り受け関係の推定}\label{subsubsec:experi-pair}以下の条件のもとで,評価データ3,128文に対して,二つの従属節の間の係り受け関係を推定する実験を行なった.\begin{table}\begin{center}\caption{二つの従属節の間の係り受け関係の推定の実験結果(\%)}\label{tab:ressub}\begin{tabular}[c]{|c||c|c||c|c|}\hline&\multicolumn{4}{|c|}{二つの従属節の間の係り受け関係の推定}\\\cline{2-5}&\multicolumn{2}{|c||}{決定リストによる素性選択}&\multicolumn{2}{|c|}{\\\決定木による素性選択\\\}\\\cline{2-5}$P(D\midE)$&カバレージ&適合率&カバレージ&適合率\\\hline\hline1&0.84&100&1.1&100\\$\sim$0.95&14.4&95.9&3.4&98.1\\$\sim$0.90&43.8&91.0&20.2&94.7\\$\sim$0.85&55.0&87.4&21.7&94.1\\$\sim$0.80&78.7&83.8&23.6&93.0\\$\sim$0.75&88.8&80.2&62.7&84.3\\$\sim$0.70&95.3&78.5&63.8&84.0\\$\sim$0.65&96.6&78.4&65.9&83.5\\$\sim$0.60&100&78.3&96.6&78.5\\$\sim$0.5378&100&78.3&---&---\\$\sim$0.50&---&---&99.9&77.6\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[t]\vspace{-2mm}\begin{center}\epsfile{file=fig/cvpr-pde-segpair-j-jnlp-nc.ps,scale=0.8}\vspace{-2mm}\caption{二つの従属節の間の係り受け関係の推定の実験結果}\label{fig:resseg}\end{center}\end{figure}\begin{itemize}\item決定リスト中の規則の証拠$E$の頻度の閾値として,頻度10以上のものを用いる.\item条件付確率$P(D\midE)$の大きさに閾値を設け,この閾値を段階的に変えることにより,係り受け関係の推定のカバレージと精度の相関を調べる.ただし,決定リストを用いた従属節係り受け関係推定のカバレージは,次式で,\begin{eqnarray*}カバレージ&=&\frac{\begin{tabular}[c]{c}決定リストが適用可能な述語的文節の組数\end{tabular}}{評価対象の述語的文節の組数}\end{eqnarray*}また,係り受け関係の推定精度は,以下の適合率で測定する.\[適合率\=\\frac{係り受け関係の推定結果が正解の組数}{決定リストが適用可能な述語的文節の組数}\]\end{itemize}この結果を表\ref{tab:ressub}の「決定リストによる素性選択」の欄,および図\ref{fig:resseg}の「決定リスト」のプロットに示す\footnote{条件付確率値$P(D\midE)$は,証拠$E=1$の条件のもとで,決定リストがどの程度の信頼性をもってクラス$D$を出力するかということを表している.本論文では,指定された信頼度のもとで,決定リストがどの程度のカバレージ・適合率を示すかを調べるために,まず,図\ref{fig:resseg}に示すように,$P(D\midE)$の下限値/カバレージの相関,および,$P(D\midE)$の下限値/適合率の相関をプロットする.また,本論文の手法を関連手法と比較する(\ref{subsec:compare}節)際には,あわせて,カバレージ/適合率の相関をプロットし,これらの相関を参照しながら比較・分析を行う.}.この結果から,決定リスト中の条件付確率$P(D\midE)$の大きさの制限が強い場合は,\newpageカバレージは低いが適合率はかなり高いことがわかる.また,条件付確率$P(D\midE)$の大きさの制限を緩くして,カバレージが100\%近い場合でも,80\%近くの適合率を達成している.(決定木学習による素性選択との比較については,\ref{subsubsec:dtree}節で述べる.)\subsection{一文中の従属節の係り受け解析}\label{subsubsec:subsent}さらに,前節で求めた二つの従属節の間の係り受け関係の推定結果を用いて,\ref{subsubsec:sent}節の方法により一文中の従属節の係り受け解析を行い,その性能を評価した.前節と同様に,条件付確率$P(D\midE)$の大きさに閾値を設け,この閾値を段階的に変えることにより,カバレージと係り受け解析精度の相関を調べた.具体的には,まず,条件付確率$P(D\midE)$の大きさに閾値を設け,確率値$\hat{P}(D\!=\!x\mid(Seg_i,Seg_j))$がこの閾値より小さい場合は,デフォールト規則の確率値を用いて,\vspace{-2mm}\begin{eqnarray*}\hat{P}(D\!=\!係る\mid(Seg_i,Seg_j))&=&P(D\!=\!係る)\\(=0.4622)\\\hat{P}(D\!=\!越える\mid(Seg_i,Seg_j))&=&P(D\!=\!越える)\\(=0.5378)\end{eqnarray*}とする.この結果,優先度$Q(S_{sb},Dep(S_{sb}))$が最大となる係り受け解析結果$\hat{Dep}(S_{sb})$として複数のものが得られた場合には,それらの複数の係り受け解析結果に含まれる係り受け関係のうち,それらの複数の解析結果の間で係り先の曖昧性がなく,しかも,確率値$\hat{P}(D\!=\!x\mid(Seg_i,Seg_j))$が与えられた閾値以上の係り受け関係のみを出力する\footnote{他の部分解析手法としては,文全体の係り受け解析結果(この場合,従属節間の係り受け解析結果)のうち,確率値の上位$n$個を用いて個々の部分的な係り受け関係の確信度を計算し,この確信度に対して閾値を設定することにより部分解析を行うという方法\cite{Inui98aj,Fujio99aj}も考えられる.本論文では,決定リストにより計算される確率値の信頼性を直接評価するために,現在のような方法を採用している.}.評価尺度としては,一文中の従属節の係り受け解析のカバレージは,次式で,\begin{eqnarray*}\begin{tabular}[c]{c}文節レベル\\カバレージ\end{tabular}&=&\frac{\begin{tabular}[c]{c}係り先が決定可能な述語的文節数\end{tabular}}{評価対象の述語的文節数}\\\begin{tabular}[c]{c}文レベル\\カバレージ\end{tabular}&=&\frac{\begin{tabular}[c]{c}文中の全述語的文節の係り先が決定可能な文数\end{tabular}}{評価対象の文数}\end{eqnarray*}また,係り受け解析の精度は,以下の適合率で測定する.\begin{eqnarray*}\begin{tabular}[c]{c}文節レベル\\適合率\end{tabular}&=&\frac{\begin{tabular}[c]{c}解析結果の係り先が正解の述語的文節数\end{tabular}}{係り先が決定可能な述語的文節数}\\\begin{tabular}[c]{c}文レベル\\適合率\end{tabular}&=&\frac{\begin{tabular}[c]{c}文中の全述語的文節の係り先が正解の文数\end{tabular}}{\begin{tabular}[c]{c}文中の全述語的文節の係り先が決定可能な文数\end{tabular}}\end{eqnarray*}この結果を表\ref{tab:ressub-sent},および図\ref{fig:ressub}の「本論文のモデル」のプロットに示す.文節レベル・文レベルのいずれにおいても,前節の二つの従属節の間の係り受け関係の推定の場合と同様の傾向を示している.カバレージが100\%近い場合は,文節レベルで約76\%,文レベルで約71\%の適合率である.\begin{table*}[t]\begin{center}\caption{一文中の従属節の係り受け解析の実験結果(\%)}\label{tab:ressub-sent}\begin{tabular}[c]{|c||c|c||c|c|}\hline&\multicolumn{2}{|c||}{文節レベル}&\multicolumn{2}{|c|}{文レベル}\\\cline{2-5}$P(D\midE)$&カバレージ&適合率&カバレージ&適合率\\\hline\hline1&5.4&90.4&4.1&93.7\\$\sim$0.95&19.4&88.7&15.1&91.1\\$\sim$0.90&46.6&88.1&39.3&87.4\\$\sim$0.85&59.2&85.1&52.5&83.6\\$\sim$0.80&83.4&80.8&78.9&78.2\\$\sim$0.75&91.7&78.5&89.2&74.8\\$\sim$0.70&99.6&75.6&99.4&71.1\\$\sim$0.65&99.7&75.6&99.6&71.1\\$\sim$0.60&99.9&75.7&99.8&71.1\\$\sim$0.5378&99.8&75.7&99.7&71.1\\\hline\end{tabular}\end{center}\end{table*}\begin{figure}[p]\begin{center}\epsfile{file=fig/cvpr-pde-subseg-j-nc.ps,scale=0.8}\epsfile{file=fig/cvpr-pde-subsent-j.ps,scale=0.8}\caption{一文中の従属節の係り受け解析の実験結果}\label{fig:ressub}\end{center}\end{figure}\subsubsection*{一文中の従属節の係り受け関係の優先度:相乗平均と積の比較および考察}ここで,\ref{subsubsec:sent}節において,述語的文節$Seg_i$が$Seg_k$に係る係り受け関係の優先度$Q(D\!=\!係る\mid(Seg_i,Seg_k))$を計算する際に,各々の係り受け関係の相乗平均ではなく積を用いて一文中の従属節の係り受け解析を行った結果について考察する.まず,この場合,優先度$Q(D\!=\!係る\mid(Seg_i,Seg_k))$は,以下の式によって計算される.\begin{enumerate}\item$k\!<\!n$(すなわち,$Seg_k$が文末以外)の場合.\begin{eqnarray*}\lefteqn{Q(D\!=\!係る\mid(Seg_i,Seg_k))=}\\&&\hat{P}(D\!=\!係る\mid(Seg_i,Seg_k))\times\prod_{j=i+1}^{k-1}\hat{P}(D\!=\!越える\mid(Seg_i,Seg_j))\end{eqnarray*}\item$k\!=\!n$(すなわち,$Seg_k$が文末)の場合.\begin{eqnarray*}Q(D\!=\!係る\mid(Seg_i,Seg_k))&=&\prod_{j=i+1}^{n-1}\hat{P}(D\!=\!越える\mid(Seg_i,Seg_j))\end{eqnarray*}\end{enumerate}\begin{figure}\begin{center}\epsfile{file=fig/pr-cv-subsegsent-no_geomean.ps,scale=0.8}\caption{一文中の従属節の係り受け解析の優先度:相乗平均と積の比較}\label{fig:no_geomean}\end{center}\end{figure}次に,相乗平均を用いた場合および積を用いた場合の両者について,文節レベル/文レベルのカバレージに対する適合率の推移を,図\ref{fig:no_geomean}の「相乗平均」および「積」の\mbox{プロットに示す.この}図から分かるように,カバレージの低いところ(すなわち,条件付確率$P(D\midE)$の下限値の高いところ)では,優先度として積を用いた場合の方がやや高い適合率を示している.この原因としては,積を用いた場合,より近くに係る係り受け関係を優先するバイアスがかかっている点が挙げられる.すなわち,比較的信頼度の高い係り受け関係だけを考慮する場合は,より近くに係る係り受け関係を優先するバイアスが,一文中の従属節の係り受け解析の性能の向上に寄与すると言える.この結果から,従属節係り受け選好情報の学習の段階で,従属節間の距離の情報を明示的に考慮し,よりきめ細かな係り受け選好情報を学習すれば,一文中の従属節の係り受け解析の性能がさらに向上する可能性があると期待できる.しかし,従属節間の距離の情報を明示的に考慮しその効果について考察することは,本論文の範囲を越えるため,今後の課題とする.また,以下では,各係り受け関係の確率を公平に評価しその効果を明らかにするという目的のため,従属節間の係り受け関係の優先度としては相乗平均を用いた場合の結果を示す.\subsection{関連手法との比較}\label{subsec:compare}本節では,本論文の手法を,従来の統計的係り受け解析モデル\cite{Collins96a,Fujio97aj,Ehara98aj,Haruno98cj,Uchimoto98aj}と比較し,評価実験を通して,本論文の手法の利点を示す.まず,従来の統計的係り受け解析モデルが,本論文の手法と異なる点として,以下の三つが挙げられる.\begin{enumerate}\item[(1)]事象として二つの文節が係り受け関係にある場合と係り受け関係にない場合の二つを設定し,二つの文節が係り受け関係にある確率を次式(もしくは,それに準ずる式)で定義する.\[\frac{二つの文節(の属性)が係り受け関係にある頻度}{二つの文節(の属性)が一文中に出現する頻度}\]\item[(2)]一文中の係り受け解析結果の確率を,文中の全ての文節間の係り受け関係の確率の積(もしくは,それに何らかの正規化を施したもの)で計算し,確率値最大の解析結果を求める.\item[(3)]上記の従来のモデルのうち,\cite{Haruno98cj}以外においては,係り受け解析の際に使用する属性があらかじめ固定されており,属性選択を明示的に行う機構がない.また,\cite{Haruno98cj}においては,決定リスト学習ではなく,決定木学習\cite{Quinlan93a}によって属性選択が行われる.\end{enumerate}これらの相違点について,以下では,まず,\ref{subsubsec:prev_dep}節において,上記の(1),(2)を満たすモデル\mbox{と本論文のモデル}の比較を行う.次に,\ref{subsubsec:dtree}節において,決定木学習\cite{Quinlan93a}を用いた\break統計的係り受け解析手法\cite{Haruno98cj}との比較を行う.\subsubsection{「係る」「係らない」を事象とし「係る」確率のみを考慮するモデルとの比較}\label{subsubsec:prev_dep}本論文の従属節間の係り受け解析の設定において,上記(1)および(2)を満たすモデルとして,第\ref{sec:learn}節の決定リスト学習による従属節係り受け選好情報抽出,および,第\ref{sec:ana}\mbox{節の決定リスト}を用いた従属節係り受け解析の枠組みに以下の変更を施したモデルを考える.\begin{itemize}\item従属節の素性として,「文末」を表す素性を追加する(従来のモデルとあわせるために必要.).\item決定リストのクラスとして,先行する述語的文節が後続する述語的文節に「係る」場合と「係らない」場合の二値を設定する.\item先行する述語的文節$Seg_i$が後続する述語的文節$Seg_j$に係る係り受け関係の優先度$Q(D\!=\!係る\mid(Seg_i,Seg_j))$として,以下のものを用いる.\begin{eqnarray*}Q(D\!=\!係る\mid(Seg_i,Seg_j))&=&\hat{P}(D\!=\!係る\mid(Seg_i,Seg_j))\end{eqnarray*}\end{itemize}\begin{table*}\begin{center}\caption{一文中の従属節の係り受け解析の実験結果(\%):\\「係る」「係らない」を事象とし「係る」確率のみを考慮するモデル}\label{tab:ressub-prev}\begin{tabular}[c]{|c||c|c||c|c|}\hline&\multicolumn{2}{|c||}{文節レベル}&\multicolumn{2}{|c|}{文レベル}\\\cline{2-5}$P(D\midE)$&カバレージ&適合率&カバレージ&適合率\\\hline\hline1&0.4&81.3&0.03&100\\$\sim$0.95&0.7&86.7&0.2&100\\$\sim$0.90&1.9&85.9&0.3&90.0\\$\sim$0.85&13.3&85.1&5.0&90.3\\$\sim$0.80&28.1&83.7&13.4&89.0\\$\sim$0.75&37.5&81.7&20.7&85.0\\$\sim$0.70&56.9&80.0&34.1&81.8\\$\sim$0.65&90.2&75.8&76.0&71.9\\$\sim$0.6180&92.2&75.0&89.6&71.3\\\hline\end{tabular}\end{center}\end{table*}\begin{figure}\begin{center}\epsfile{file=fig/pr-cv-subsegsent.ps,scale=0.8}\caption{一文中の従属節の係り受け解析:「係る」「係らない」を事象とし\\「係る」確率のみを考慮するモデルとの比較}\label{fig:res_prev}\end{center}\end{figure}このモデルに対して,EDR日本語コーパス約21万文のうちの訓練用データ(95\%)から抽出した従属節係り受けデータから,従属節係り受け選好のための決定リストを学習した.\mbox{このモデ}ルによって学習された決定リストにおいては,$D\!=\!「係らない」$がデフォールト規則となり,その確率値は,$P(D\!=\!係らない)\!=\!0.6180$であった.このモデルを用いて,\ref{subsubsec:subsent}節と同じ設定で一文中の従属節の係り受け解析を行った結果を,表\ref{tab:ressub-prev},および図\ref{fig:ressub}の「係る/係らない」のプロットに示す.本論文のモデルと比較すると,条件付確率$P(D\midE)$の閾値が同じ場合,文節レベル・文レベルともにカバレージがかなり低いことが分かる.また,カバレージに対する適合率\breakの推移をプロットした結果を,本論文のモデルによる結果と比較したものを図\ref{fig:res_prev}に示す.\mbox{これか}ら分かるように,文節レベル・文レベルともに,カバレージ・適合率の両方において,本論文のモデルの方が高い性能を示している.これらの結果から,従属節間の係り受け解析に関しては,「係る」「係らない」を事象とし「係る」確率のみを考慮する従来の統計的係り受け解析モデルと比較して,本論文のモデルの性能の方が上回っているといえる.\vspace{-4mm}\subsubsection{二つの従属節の間の係り受け関係の推定:決定木学習による素性選択との比較}\label{subsubsec:dtree}次に,統計的日本語係り受け解析において,係り受け関係の判定に有効な素性の選択に決定木学習\cite{Quinlan93a}を用いた手法\cite{Haruno98cj}と,本論文の手法の比較を行う.決定木学習においては,訓練集合中で,目的クラスに関するエントロピーの減少分が最大となるように素性が選択され,訓練集合が部分集合に分割される.本論文の決定リスト学習の手法における素性選択と,\cite{Haruno98cj}における素性選択の間の最大の違いとして,本論文の手法では,係り側文節と受け側の両方の素性を同時に考慮して素性選択が行われるのに対して,\cite{Haruno98cj}の決定木学習における素性選択では,一回の素性選択のプロセスでは,係り側素性あるいは受け側素性のどちらか一方のみが選択される.したがって,\cite{Haruno98cj}の決定木学習における素性選択では,係り側と受け側の素性が組になってはじめて係り受け関係の推定に有効となるような素性の組の有効性が過小評価されてしまうおそれがある.そこで,係り側と受け側の組で従属節の素性の有効性を評価する方法が,全体の精度にどの程度寄与しているかを調べるために,決定木学習の手法\cite{Quinlan93a}を従属節係り受け選好情報の学習に適用し,本論文の決定リスト学習による結果と比較した.ただし,決定木学習\cite{Quinlan93a}の適用にあたっては,\cite{Haruno98cj}における素性の設定方法を参考にして素性の設定を行った.具体的には,係り側・受け側の述語的文節の双方について,\ref{subsec:ftr}節で設定したi)$\sim$iv)の四つの素性タイプを素性とし(素性数は合計8個),各素性のとり得る値は,表\ref{tab:ftr}中の右欄の対応するもの(すなわち,i)読点素性は2個,ii)文法・品詞素性は17個,iii)節末活用語活用形素性は12個,iv)語彙素性は235個)とした\footnote{他の素性の設定方法として,決定リスト学習の場合のように,全ての素性(全266個)を二値素性とする方法も考えられるが,この場合,素性数が多いため,決定木学習の効率が悪く,また決定木適用時の性能もよくない.}.また,決定すべきクラスは,\ref{subsec:dlist_sb}節の決定リスト学習の場合と同様に,前の述語的文節が後ろの述語的文節に「係る」場合と,「越える」(より後ろに係る)場合の二値とした.さらに,決定リスト学習の手法と条件を同じにするために,決定木の葉節点における用例の総頻度は10以上とし,また,学習された決定木の枝刈りは行っていない.\begin{figure}\begin{center}\epsfile{file=fig/pr-cv-seg-nc.ps,scale=0.8}\caption{二つの従属節の間の係り受け関係の推定:\\決定リスト・決定木学習の比較}\label{fig:res_dtree}\end{center}\end{figure}以上の条件のもとで,\ref{subsubsec:experi-pair}節において,決定リストを用いて二つの従属節の間の係り受け関係を推定した場合と同じ訓練用データおよび評価用データを用いて,二つの従属節の間の係り受け関係を推定する決定木を学習し,その性能の評価を行った.\ref{subsubsec:experi-pair}節の場合と同様に,決定木の葉節点におけるクラスの条件付確率の下限値を変化させて,カバレージと適合率の相関を調べた.この結果を表\ref{tab:ressub}の「決定木による素性選択」の欄,および図\ref{fig:resseg}の「決定木」\mbox{のプロットに示}す.これらの結果から分かるように,決定木の葉節点におけるクラスの条件付確率の下限値が,決定リストにおける条件付確率$P(D\midE)$の下限値と同じ場合,決定木の適合率は決定リストよりも若干優れているが,カバレージはかなり低いことがわかる.この理由として,両者のモデルの大きさの違いが挙げられる.決定リストの規則数が7,812であるのに対して,決定木の総節点数は774で,両者のモデルの大きさはほぼ一桁違うことになる.つまり,決定リスト学習の方は,決定木学習に比べてきめ細かいモデルが学習できており,高いカバレージを示す反面,ノイズとなる規則も含まれているため,適合率において若干劣っていると考えられる.また,決定リストと決定木の間で,カバレージに対する適合率の推移をプロットした結果を\mbox{比較したもの}を図\ref{fig:res_dtree}に示す.図\ref{fig:res_dtree}においては,ほとんどのカバレージにおいて,\mbox{決定リストに}よる適合率が,決定木による適合率を2$\sim$3\%程度上回っており,これらの部分においては,統計的検定を行った結果においても,両者の間に有意な差が認められた.また,両者の適合率が接近する部分(3点)においては,統計的検定を行った結果において有意な差は認られなかった.この結果から,カバレージ・適合率の両方を総合的に考慮すると,決定リストの方が決定木よりもほぼ高い性能を示していると言える.したがって,決定木学習において\cite{Haruno98cj}の素性の設定方法を参考にした場合と比較すると,決定リスト学習において係り側と受け側の組で従属節の素性の有効性を評価する方法が,全体の精度にある程度寄与していることがわかる.
\section{文係り受け解析における従属節係り受け選好情報の評価}
\label{sec:sentana}次に,\ref{subsubsec:subsent}節で一文中の従属節の係り受け解析により推定した従属節間の係り受け関係を,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析において利用し,その性能を評価する.\vspace{-1mm}\subsection{評価法}\label{subsec:sentM}具体的には,\ref{subsubsec:subsent}節の従属節係り受け解析で出力される係り受け関係を,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析における初期係り受け制約として固定し,従属節間の係り受け関係の可能性を制限した形で文係り受け解析を行う\footnote{よりきめ細かな方法としては,従属節係り受け解析における係り受け確率の値を考慮して,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析において,従属節間の係り受け関係を何らかの形で重み付けするといった方法も考えられる.本論文では,評価を簡単にするため,現在の方法をとっている.}.ここでも,条件付確率$P(D\midE)$の閾値を変化させることによって,統計的文係り受け解析において利用可能な初期係り受け制約の数を変化させ,文係り受け解析の精度がどのように推移するかを測定する.文係り受け解析の精度は,\ref{subsubsec:subsent}節の場合と同様に,文節レベル・文レベルの適合率によって評価する.ただし,\ref{subsubsec:subsent}節の場合と違い,述語的文節だけでなく,文中の全文節の係り先について評価を行う.また,文レベルの適合率については,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析の確率値が最大の解析結果の適合率に加えて,確率値の上位5個以内に正解が含有される率の測定も行う.\subsection{評価用データセット}EDR日本語コーパス約21万文のうちの評価用データ(5\%)から以下の部分集合を求め,評価用データセットとした.\begin{enumerate}\item「全評価セット」\\一文中に二つ以上の従属節を含み,従属節の係り受けの曖昧性のある文3,128文からなる評価セット.\item「従属節の初期係り受け制約(少なくとも一つ)付の部分評価セット」\\「全評価セット」中の文のうち,初期係り受け制約として,文中の少なくとも一つの従属節の係り先が固定されている文からなる評価セット(条件付確率$P(D\midE)$の下限値によって変化).\item「従属節の初期係り受け制約(完全)付の部分評価セット」\\「従属節の初期係り受け制約(少なくとも一つ)付の部分評価セット」中の文のうち,初期係り受け制約として,文中の全ての従属節の係り先が固定されている文からなる評価セット(条件付確率$P(D\midE)$の下限値によって変化).\end{enumerate}\subsection{結果および考察}\begin{figure}\begin{center}\epsfile{file=fig/pr-cvseg-seg-j.ps,scale=0.8}\vspace*{-1mm}\caption{文係り受け解析における従属節係り受け選好情報の評価:\\従属節係り受け制約のもとでの文節レベル適合率}\label{fig:segeval}\end{center}\end{figure}\begin{figure}\begin{center}\epsfile{file=fig/pr-cvseg-sent1-j.ps,scale=0.8}\epsfile{file=fig/pr-cvseg-sent5-j.ps,scale=0.8}\caption{文係り受け解析における従属節係り受け選好情報の評価:\\従属節係り受け制約のもとでの文レベル正解含有率}\label{fig:senteval}\end{center}\end{figure}条件付確率$P(D\midE)$の下限値の変化に伴って,文節レベルの係り受け解析適合率,\mbox{文レベル}の係り受け解析正解含有率がどのように変化するかを,それぞれ,図~\ref{fig:segeval}および図~\ref{fig:senteval}に\mbox{示す.こ}こでは,特に,統計的文係り受け解析において利用可能な初期係り受け制約のカバレージと文係り受け解析の精度の相関を調べるために,図~\ref{fig:segeval}および図~\ref{fig:senteval}の横軸としては,\ref{subsubsec:subsent}\mbox{節の一文中}の従属節の係り受け解析の従属節レベルのカバレージ(表\ref{tab:ressub-sent}の文節レベルカバレージ)を用いる.また,図~\ref{fig:senteval}の文レベルの係り受け解析正解含有率としては,文係り受け解析結果の上位1個および5個中での正解含有率を示す.さらに,図~\ref{fig:segeval}および図~\ref{fig:senteval}中には,文係り受け解析精度の上限値および下限値もそれぞれ示す.ここで,文係り受け解析精度の上限値は,従属節の係り先の正解を正解コーパスから取り出し,\ref{subsec:sentM}節の評価手順において,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析における初期係り受け制約として,この正しい係り先を与えた場合の精度である.また,下限値は,\ref{subsec:sentM}節の評価手順において,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析における初期係り受け制約として何も与えなかった場合,すなわち,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析そのままの精度である.図~\ref{fig:segeval}の「全評価セット」に対する文節レベル適合率は,従属節レベルの\mbox{カバレージが約83\%の}時(条件付確率$P(D\midE)$の下限値が0.8の時)に最大となり,その最大値は,文係り受け精度の下限値よりも1.7\%上回っている.この結果を言い換えれば,全体の8割強の従属節に対して,条件付確率$P(D\midE)$の値が0.8以上という条件を満たす初期係り受け制約を与えた場合に,評価セット全体での性能が最大となるということである.それ以外の場合には,従属節の初期係り受け制約のカバレージが少ないか,あるいは,条件付確率$P(D\midE)$の下限値の条件が緩すぎるかのどちらかの理由により,評価セット全体としての性能は低下する.また,「従属節の初期係り受け制約(完全)付の部分評価セット」に対する文節レベル適合率は,従属節レベルのカバレージが約20\%の時(条件付確率$P(D\midE)$の下限値が0.95の時)に最大となり,文係り受け精度の下限値と比べて3.4\%向上している.これは,文係り受け精度の下限値と上限値の間の精度向上分(5.1\%)と比較して,約6割に達している.さらに,図~\ref{fig:senteval}の文レベルの係り受け解析正解含有率のうち,文係り受け解析結果の上位1個に対する結果については,文節レベルの適合率とほぼ同様の傾向がみられる\footnote{全評価セットの結果と「従属節の初期係り受け制約(少なくとも一つ)付の部分評価セット」の結果を比べると,横軸のカバレージが20\%以下の場合($P(D\midE)$の下限値が0.95および1の場合)は,全評価セットに比べて,「従属節の初期係り受け制約(少なくとも一つ)付の部分評価セット」の方が,正解含有率がわずかに低くなっており,それ以外の場合には,全評価セットの方が正解含有率が低いか,あるいは両者がほぼ同程度の正解含有率を示している.このうち,\mbox{全評}価セットの方が高い正解含有率を示す場合がある理由は,係り先が曖昧な述語的文節が一文中に含まれる平均数において,後者の評価セットの方が前者を上回っており,(平均的にみて)係り受け解析がより難しくなっているからである.}.これらの結果から,条件付確率$P(D\midE)$の下限値をどのように設定した場合でも,従属節の初期係り受け制約を用いることにより,文節レベルの適合率および文係り受け解析結果の上位1個での正解含有率の両方において,下限値を上回る結果が得られているので,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析の性能向上に効果があることがわかる.また,文係り受け解析結果の上位5個に対する結果においても,「従属節の初期係り受け制約(完全)付の部分評価セット」では,条件付確率$P(D\midE)$の下限値の条件が厳しくなりカバレージが下がるにしたがって,文正解含有率がかなり上限に近づいており,従属節の初期係り受け制約の有効性が確認できる.しかし,条件付確率$P(D\midE)$の下限値の条件が緩くなり従属節の初期係り受け制約のカバレージが上がると,いずれの評価セットにおいても文正解含有率が低下し,カバレージが100\%近くでは下限値をも下回ってしまう.つまり,文係り受け解析結果の上位5個までに正解が含まれればよいという緩い基準のもとでは,従属節の初期係り受け制約として信頼性の低いものまで用いてしまうと,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析の結果をそのまま信用するよりも若干性能が悪くなることになる.
\section{おわりに}
本論文では,大量の構文解析済コーパスから,統計的手法により,従属節節末表現の間の係り受け関係を判定する規則を自動抽出する手法を提案した.実際に,EDR日本語コーパス\cite{EDR95aj-nlp}(構文解析済,約21万文)から従属節係り受け判定規則を抽出し,これを用いて従属節の係り受け関係を判定する評価実験を行い,本論文の手法が有用であることを示した.また,関連手法との性能比較においても,本論文の手法の方が優れていることを示した.さらに,推定された従属節間の係り受け関係を,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析において利用することにより,統計的文係り受け解析の精度が向上することを示した.今後は,本論文の方法により推定された従属節間の係り受け関係,並列構造の推定に関するヒューリスティックス\cite{Kurohashi92cj},統計的に推定された動詞の下位範疇化優先度\cite{Utsuro98b}など,従来の統計的係り受け解析モデルでは利用されていなかった情報を,統計的日本語係り受け解析の枠組みにおいて統合的に利用する方式を提案し,それらの情報が係り受け解析の精度向上にどの程度寄与するのかを評価していく予定である.その際には,述語的文節間の距離の情報や,二つの従属節の間にどのような従属節があるか,すなわち三つ以上の従属節の間の依存関係など,本論文で扱わなかった情報についても,それらを統合的に利用しその有効性を検証する.\bibliographystyle{jnlpbbl}\bibliography{v06n7_02}\begin{biography}\biotitle{略歴}\bioauthor{宇津呂武仁}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学大学院工学研究科博士課程電気工学第二専攻修了.京都大学博士(工学).同年,奈良先端科学技術大学院大学助手,現在に至る.1999$\sim$2000年,米国ジョンズ・ホプキンス大学計算機科学科客員研究員.自然言語処理の研究に従事.情報処理学会,人工知能学会,日本ソフトウェア科学会,ACL各会員.}\bioauthor{西岡山滋之}{1992年大阪教育大学教育学部教養学科卒業.1998年奈良先端科学技術大学院大学情報科学研究科情報処理学専攻博士前期課程修了.現在,大阪大学言語文化研究科博士前期課程在学中.日本ソフトウェア科学会,認知科学会各会員.}\bioauthor{藤尾正和}{1995年京都大学理学部生物学科卒業.1997年奈良先端科学技術大学院大学情報科学研究科情報処理学専攻博士前期課程修了.現在,同博士後期課程在学中.自然言語処理の研究に従事.学習理論,構文解析に興味を持つ.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.京都大学工学博士.専門は自然言語処理.情報処理学会,人工知能学会,日本ソフトウェア科学会,認知科学会,AAAI,ACL,ACM各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V17N01-08 | \section{はじめに}
label{introduction}テキストの評価は,自動要約や機械翻訳などのようなテキストを生成するタスクにおいて手法の評価として用いられるだけでなく,例えば人によって書かれた小論文の自動評価\cite{miltsakaki2004}といったように,それ自体を目的とすることもある.言語処理の分野においては前者のような手法評価の観点からテキスト評価に着目することが多く,例えば自動要約の評価で広く用いられているROUGE\cite{lin2003,lin2004}や機械翻訳で用いられているBLEU\cite{papineni2002}のような評価尺度が存在している.これらの評価手法は特に内容についての評価に重点が置かれている.つまり,評価対象のテキストが含んでいなければならない情報をどの程度含んでいるかということに焦点が当てられている.しかし,実際にはテキストは単に必要な情報を含んでいれば良いというわけではない.テキストには読み手が存在し,その読み手がテキストに書かれた内容を正しく理解できなければ,そのテキストは意味をなさない.読み手の理解を阻害する原因には,難解な語彙の使用,不適切な論理展開や文章の構成などが挙げられる.これらはテキストの内容に関する問題ではなく,テキストそのものに関する問題である.従って,テキストの内容が正しく読み手に伝わるかどうかを考慮するならば,その評価においては内容に関する評価だけでなく,テキストそのものについての評価も重要となる.テキストそのものについての性質のうち,テキスト一貫性\cite{danwa}とは文章の意味的なまとまりの良さであり,例えば因果関係や文章構造などによって示される文同士の繋がりである.意味的なまとまりが悪ければ,テキストの内容を読み手が正確に理解することが困難になると考えられる.このことから一貫性の評価はテキストの内容が正しく伝わることを保証するために必要であると言える.また,テキスト一貫性が評価できるようになると,テキストを生成するシステムにおいて,例えば,一貫性が良くなるように文章を構成したり,一貫性の観点からの複数の出力候補のランク付けが可能となり,出力するテキストの質を高めることができる.テキスト一貫性は局所的な一貫性と大域的な一貫性という2種類のレベルに分類できる.局所的な一貫性とは相前後する2文間における一貫性であり,大域的な一貫性とは文章における話題の遷移の一貫性のことである.一貫性の評価に関しては,この局所的な一貫性と大域的な一貫性の両方についてそれぞれ考えることができるが,局所的な一貫性は大域的な一貫性にとって重要な要素であり,局所的な一貫性の評価の精度の向上が大域的な一貫性の評価に影響すると考えられる.以上のことから,本論文では,テキスト一貫性,特に局所的な一貫性に焦点を当て,この観点からのテキストの評価について述べる.テキストの性質について,テキスト一貫性と並べて論じられるものにテキスト結束性\cite{halliday1976}がある.これは意味的なつながりである一貫性とは異なり,文法的なつながりである.一貫性が文脈に依存しているのに対し,結束性は脱文脈的で規則的な性質である\cite{iori2007}.テキスト結束性に寄与する要素は大きく参照\footnote{代名詞の使用や省略は参照に含まれる.},接続,語彙的結束性\footnote{同じ語の繰り返しは語彙的結束性に含まれる.}に分けられる.これらはテキストの表層において現れる要素である.一貫性は先に述べたように意味のまとまりの良さであり,これに寄与する要素は明示的な形では現れない.一貫性と結束性はどちらもテキストのまとまりに関する性質であり,それぞれが独立ではなく互いに関係している.従って,テキストの表層に現れる,結束性に関係する要素である接続表現や語彙的結束性を一貫性モデルにおいても考慮することで性能の向上が期待できる.2章で述べるように,局所的な一貫性に関する研究はテキスト中の隣接する文間の関係を単語の遷移という観点から捉えているものが多い.その中でもBarzilayら\cite{barzilay2005,barzilay2008}の研究は,この領域における他の研究において多く採用されているentitygridという表現を提案しており,先駆的な研究として注目に値する.しかし,3章で詳述するように,このモデルでは要素の遷移の傾向のみ考慮しており,テキストのまとまりに関係している明示的な特徴はほとんど利用されていない.そこで本論文では4章で詳述するように,一貫性モデルに結束性に関わる要素を組み込むことによって,結束性を考慮に入れた局所的な一貫性モデルを提案する.
\section{関連研究}
label{relatedwork}Barzilayら\cite{barzilay2005,barzilay2008}は局所的な一貫性のモデルとしてentitygridを提案している.このモデルはテキスト中で述べられている要素の遷移に着目している.これは,センタリング理論\cite{grosz1995}で示されているように,一貫性のあるテキストではその文中の要素の出現に規則性があるという考えに基づいている.Elsnerら\cite{elsner2008}は,entitygridモデルがテキストの一貫性において要素の遷移にのみ着目しているということに言及し,例えば参照表現や対象の要素がこれまでに既に述べられている要素かどうかなどといった他の要素をモデルに組み込んでいる.Filippovaら\cite{katja2007}はentitygridモデルに要素間の関係を考慮したモデルを提案し,このモデルをドイツ語の新聞記事に対して適用した結果を報告している.大域的な一貫性について,Barzilayら\cite{barzilay2004}は隠れマルコフモデル(HMM)を採用したモデルを提案している.このモデルでは文章中の話題をHMMにおける隠れ状態と見なし,話題の一貫性を隠れ状態の遷移確率によって表現している.Soricutら\cite{soricut2006}やElsnerら\cite{elsner2007}は局所的な一貫性と大域的な一貫性を同時に考慮するモデルをそれぞれ提案している.これらのモデルはentitygridモデルとHMMを組み合わせたものである.日本語の文章に対する一貫性の評価手法には,板倉ら\cite{itakura2008}の提案する段落の一貫性指標がある.これは段落内で用いられている単語間の意味的な関係に基づいている.これらの手法では文書中の単語の出現に着目してテキスト一貫性を評価しており,\ref{introduction}章で述べたように一貫性に影響すると考えられる,テキスト結束性に関係する表層的な特徴は考慮されていない.
\section{EntityGridに基づく局所的な一貫性モデル}
\begin{figure}[b]\begin{center}\includegraphics{17-1ia9f1.eps}\end{center}\caption{テキスト例(WallStreetJournalから引用)}\label{sample}\end{figure}\begin{table}[b]\caption{図\ref{sample}のテキストに対するentitygrid}\label{egsample}\input{09table01.txt}\end{table}Barzilayら\cite{barzilay2008}は,一貫性のあるテキストではその中で述べられる要素の出現の分布には規則性があるという仮説に基づいた一貫性のモデルを提案している.また,このテキスト中の要素の分布パターンを捉えるために,entitygridと呼ばれる表現を導入している.これは,テキストを,行に文を,列に文章中の要素をそれぞれ対応させた行列として表したものである.その各項には文における要素の構文役割が入る.用いられる構文役割は主語(S),目的語(O),その他(X),出現せず(-)の4種類である.図\ref{sample}に示すテキストに対応するentitygridを表\ref{egsample}に示す.この一貫性モデルではentitygridの作成の際に共参照解析を行い,異なる表現であっても同じ要素を指すものをまとめている.例えば,図\ref{sample}において$s_1$の``BELLINDUSTRIESInc.''と$s_4$の``Bell''は同じ要素を指すと判定されると,それらの構文役割は表\ref{egsample}の同じ列(``BELL'')に記述される.局所的な一貫性の評価にはentitygridを基に作られた文書ベクトルを用いる.ベクトルの要素は文n-gram($n\ge2$)における構文役割の遷移確率と,構文役割の出現確率からなる.構文役割の遷移を計算する際には,文書始めと文書終わりを含んだ遷移も考慮する.この確率はentitygrid中に存在する長さ$n$の全ての構文役割の遷移の数に対する対象の長さ$n$の遷移列の割合である.例えば,表\ref{egsample}に示すentitygridにおいて,[S-]という遷移の確率は,長さ2の全ての遷移の数(即ち,50)に対する対象の遷移列(即ち,3)の割合から求められる(即ち,0.06).また,テキストにおいて頻出する要素は,そのテキストの話題に関連すると考えられ,そのような要素はそうでない要素とは異なる遷移の傾向を持つという仮定から,出現頻度によってテキスト中の要素をグループに分け,それぞれのグループにおいてentitygridを作成している.連続する2文における遷移確率で構成された文書ベクトル$d_1$,$d_2$を図\ref{vecsample}に示す.図中の``0'',``1''はそれぞれ文書始め,文書終わりを表す.Barzilayらは構文役割をdependencyparserを使って推定しているが,これに対して本論文では構文役割を格助詞によって決定する(表\ref{sr_baseline}).また,文書ベクトルの作成において,考慮する構文役割の遷移はBarzilayらの手法と同様に文3-gramまでとした.\begin{figure}[b]\begin{center}\includegraphics{17-1ia9f2.eps}\end{center}\caption{長さ2の遷移列に基づく文書ベクトル}\label{vecsample}\end{figure}\begin{table}[b]\caption{構文役割}\label{sr_baseline}\input{09table02.txt}\end{table}テキスト一貫性は,対象のテキストについて一貫性がある,一貫性がないといったように絶対的に評価することが困難であるため,Barzilayらはテキストの文の順番を局所的一貫性に基づいて順位付けすることで相対的に評価するモデルを提案している.テキストの順位付けにはスコア関数を導入し,その値を利用する.このスコア関数は,あるテキスト$d_i$の文の順番を並べ替えて生成したテキストを$x_{ij}$,$x_{ik}$とし,$x_{ij}$の方が$x_{ik}$よりも一貫性があるとしたとき,\[{\bfw}\cdot\Phi(x_{ij})>{\bfw}\cdot\Phi(x_{ik})\]という条件を満たすような関数である.この{\bfw}の値は学習によって推定する.このパラメータの学習にはrankingSVMが用いられる.$\Phi(x)$はテキスト$x$の一貫性に関する性質を表す素性ベクトルであり,具体的には上述のテキスト中の要素の遷移確率で構成された文書ベクトルである.モデルの評価は,テキストの文の順番を決定するというタスクを順位付け問題として定式化して行う.即ち,テキストを文の集合と見なし,それから生成できるテキストの順位付けを行う.元のテキストの順番で構成されたテキストの順位が最も高ければ,そのテキストに対する局所的な一貫性の良し悪しを正しく評価できたと見なす.しかし,実際には,同じテキストから生成された異なる文の順番を持つテキストの一貫性を比較することは困難であるため,元テキストとそのテキストから生成された異なる順番を持つテキストのペアに対して比較を行い,どの程度元のテキストの方に高い順位を割り当てることができているかで評価する.この一貫性モデルは,テキスト中の要素の遷移列のみに着目している.参照表現に関しては共参照解析を行い,異なる表現であっても同じ要素を指すものは同一の要素として扱っているが,接続表現や同義語,類義語といったテキストのまとまりに関係しているその他の明示的な特徴は利用されていない.
\section{テキスト結束性に関わる要素と構文役割の拡張}
本論文では,Barzilayら\cite{barzilay2008}の局所的な一貫性モデルに対して,テキスト結束性に寄与する,テキストに表層的に現れる文法的要素を考慮することで,その性能の向上を図る.これにより,既存手法では``正しい一貫性を持つテキストの性質''に着目したモデルを構築していたのに対し,本手法では``正しい結束性を持ち,且つ,一貫性を保っているテキストの性質''に着目したモデルを構築できると考えられる.具体的には,\ref{introduction}章で述べたテキスト結束性に寄与する要素を,それぞれ,文書ベクトルへの素性の追加,接続関係毎の遷移確率の計算,意味的な類似性に基づく文中の要素のクラスタリングという形で,局所的な一貫性モデルに組み込む.また,構文役割について,日本語の主題表現を考慮に入れた拡張を行う.\subsection{接続関係毎の遷移確率の計算}本論文では文の展開において接続関係の種類毎に文中の要素の構文役割の遷移の傾向が異なるという仮説を立てる.例えば,ある時点までで主題として述べられていた要素は,話題転換後には全く出現しない,あるいは別の主題の補助的な役割として出現するということが考えられる.この仮説による特徴を捉えるために,文の接続関係毎に遷移確率を計算する.文間の関係の推定には接続表現を利用する.テキスト中の隣接する文に対して,後ろの文の接続詞の種類によって文間の関係を決定する.接続関係には市川の分類\cite{itikawa1978}を採用し,これに基づいて接続詞を表\ref{conjtype}に示すグループに分類する.表中の括弧内の数字はそのグループに属する接続詞の数である.各グループへの接続詞の対応付けは人手で行った.接続詞が存在しない場合はその2文間には連鎖型の接続関係があると見なす.文間の関係の種類毎に遷移確率を計算するため,ベクトルの素性の数は接続関係の数に比例して増加する.このことはデータのスパース性を導くと考えられるので,さらにこの8種類の分類を表\ref{relation}に示す文脈形成の関係に基づく3種類のグループにまとめる.\begin{table}[b]\caption{接続関係の分類}\label{conjtype}\input{09table03.txt}\end{table}\begin{table}[b]\caption{文脈形成の観点に基づく接続関係の分類}\label{relation}\input{09table04.txt}\end{table}\begin{table}[b]\begin{minipage}[t]{.5\textwidth}\begin{center}\includegraphics{17-1ia9f3.eps}\end{center}\figcaption{テキスト例2}\label{sample2}\end{minipage}\hfill\begin{minipage}[t]{.45\textwidth}\caption{図\ref{sample2}に対するentitygrid}\label{egsample2}\input{09table05.txt}\end{minipage}\end{table}図\ref{sample2}に示すテキストとそのentitygrid(表\ref{egsample2})から生成される長さ2の構文役割の遷移確率のベクトルの例を示す.ここで$s_1,\dots,s_4$は文であり,$e_1,\dots,e_3$は文中の要素,図中の下付き文字はその要素の文中での構文役割である.文$s_2$の文頭に接続詞``そして''があり,この接続詞は添加型に属するため,$s_1$と$s_2$間の関係はGroup2となる.$s_2$と$s_3$間,$s_3$と$s_4$間に関しては$s_3$と$s_4$の文頭に接続詞が存在しないので連鎖型と見なしGroup3となる.遷移確率の計算は各関係毎に行う.例えば,Group3の[S-]という構文役割の遷移確率は,Group3の長さ2の全ての遷移の数(即ち,16)に対する[S-]の遷移の数(即ち,1)の割合である0.06となる.図\ref{sample2}のベクトルを図\ref{sample2vector}に示す.SS$_{\rmG_i}$はGroup$i$における構文役割の遷移[SS]の遷移確率を表す.\begin{figure}[t]\begin{center}\includegraphics{17-1ia9f4.eps}\end{center}\caption{接続関係を考慮した文書ベクトルの例(一部)}\label{sample2vector}\vspace{-0.5\baselineskip}\end{figure}\subsection{参照表現}参照表現に関して,本論文ではその先行詞が明示的である指示表現のみを考慮する.``この''や``あの''などの指示形容詞が使われている指示表現はその先行詞が前文に現れることが多い.従って,逆に指示形容詞が出現している文の前文にその先行詞が出現していなければ,その2文間のつながりは悪いと考えることができる.このことを考慮するために,指示形容詞を含む参照表現がその先行詞を前文に含む割合を文書ベクトルの素性として追加する.対象とする指示形容詞は``この''など8種類で,割合は``指示形容詞+名詞''という表現の出現数に対する,その先行詞が前文に現れている場合の数で求める.これは参照表現が正しく機能している割合と見なすことができる.Barzilayらの手法ではgridを作成する際に共参照解析を行い,異なる表現であっても同じ要素を指す場合は同一要素と見なしている.これに対して,本論文では共参照解析は行っていない.\subsection{語彙的結束性に基づいた文中の要素のクラスタリング}Barzilayらのentitygridモデルでは遷移確率を計算する際にそれぞれの要素を独立に扱っている.そのために要素間の関係はモデルに反映されていない.この問題に対して,各要素を意味的なクラスタリングによってまとめ,得られたクラスタを1つの要素として扱うことで対応する.本論文ではクラスタリング手法として日本語語彙大系\cite{goitaikei}の意味体系を利用した手法と語彙的連鎖を利用した手法の2種類を考える.要素をクラスタにまとめた際,同じクラスタにまとめられる要素が1文中に複数存在すると,そのクラスタに対して複数の構文役割が存在することになる.このような場合における構文役割の扱いに対して,次の2種類を考える.\begin{list}{}{}\item[{\bf手法1(1st).}]構文役割の優先順位\footnote{優先順位:S$>$O$>$X.}に基づいて,クラスタに対して1つの構文役割を決定する.\item[{\bf手法2(comb).}]クラスタ中の構文役割を全て利用し,遷移は全組合せを考える.\end{list}図\ref{select}にそれぞれの例を示す.図において,$e_1$,$e_2$,$e_3$は要素であり,$c_1$は$e_2$と$e_3$を含むクラスタである.手法1では,文$s_1$と$s_2$間での$c_1$の遷移は[OS]のみとする.これに対して,手法2では,構文役割の全ての組合せである[OO],[OS],[-O],[-S]を$c_1$の遷移と見なす.\begin{figure}[t]\begin{center}\includegraphics{17-1ia9f5.eps}\end{center}\caption{構文役割の選択}\label{select}\end{figure}\subsubsection{日本語語彙大系を利用したクラスタリング}日本語語彙大系を使って,要素を同じ概念のグループにまとめる.日本語語彙大系は最大12段からなる階層的な構造を持つ意味属性の体系を持つシソーラスである.このそれぞれの意味属性をクラスタとして扱う.テキスト中に出現する各要素に対して,その要素が持つ意味属性を日本語語彙大系から検索する.このうち特定の段において同じ意味属性を有する要素を同じクラスタにまとめる.1つの要素に対して複数の意味属性が存在する場合は,その特定の段の意味属性で見た時に数の多かった意味属性をその要素の意味属性と見なす.\subsubsection{語彙的連鎖を利用したクラスタリング}語彙的連鎖\cite{morris1991}とは意味的に関連している語の列である.この語の列をクラスタとして扱う.本論文ではMochizukiらの手法\cite{mochizuki2000}に基づいて語彙的連鎖を求める.はじめに,単語$X$,$Y$間の共起スコアはコサイン尺度(1)によって求める.\begin{equation}cos(X,Y)=\frac{\sum^n_{i=1}x_i\timesy_i}{\sqrt{\sum^n_{i=1}x^2_i}\times\sqrt{\sum^n_{i=1}y^2_i}}\end{equation}ここで$x_i$,$y_i$はテキスト$i$において単語$X$,$Y$が出現する回数であり,$n$はコーパス中のテキストの数である.次に,2つのクラスタ$C_i$,$C_j$間の類似度は式(2)によって求める.\begin{equation}sim(C_i,C_j)=\underset{X,Y}{\max}\cos(X\inC_i,Y\inC_j)\end{equation}語彙的連鎖の生成アルゴリズムは1文中の要素のクラスタリングとテキスト全体の要素のクラスタリングの2ステップからなり,テキスト中の全ての文に対してこのステップを繰り返し行う.1文中の要素のクラスタリングでは,まずテキストから文を取り出し,その文中のそれぞれの要素を1クラスタと見なして,全てのクラスタのペアに対して式(2)によって類似度を計算する.類似度の最も高いペアの類似度が閾値以上であれば,そのペアをマージする.この処理をマージするペアが無くなるまで繰り返す.次に,テキスト全体のクラスタと先ほど生成した文中のクラスタの全てのペアの類似度を同様に式(2)によって計算する.類似度の最も高いペアの類似度が閾値以上であれば,そのペアをマージする.この処理をマージするペアが無くなるまで繰り返す.\subsection{構文役割の拡張}Barzilayら\cite{barzilay2008}のentitygridモデルではテキストにおいて顕著な使われ方をする要素をそうでない要素と分けて遷移確率を求めている.これは顕著に表れる要素はテキストの主題を表すことが多く,そのような要素は特別な遷移傾向を持つという仮説に基づいている.主題に関しては,日本語の文章では助詞``は''を用いることでその文の主題を明示的に表すことができる.また,主題かどうかというだけでなく,述部に直接係る要素とそうでない要素では文章の展開への寄与が異なると考えられる.これらのことをモデルに組み込むために,本論文ではBarzilayらのentitygridモデルで用いられている4種類の構文役割を表\ref{sr_proposed}に示す主題と述部要素を加えた6種類に拡張する.この構文役割の集合においては,その役割間の優先順位関係をH$>$S$>$O$>$R$>$Xとする(cf.\cite{marilyn1994}).\begin{table}[t]\caption{構文役割(拡張)}\label{sr_proposed}\input{09table06.txt}\end{table}
\section{実験と考察}
前章で述べた各要素の評価のために2種類の実験を行った.1つは文順序に関するタスクであり,もう1つは自動要約で生成された要約テキストのランキングのタスクである.実験において性能を評価するモデルと各モデルから生成される文書ベクトルの次元数を表\ref{features}に示す.各モデルに対して接続関係毎に遷移確率を計算してベクトルを作成した場合(+CONJ)と,それを行わなかった場合(noCONJ)の両方で実験を行った.全てのモデルにおいて頻出する要素とそうでない要素に分けてgridを作成する.その閾値はBarzilayらの手法と同様に2とした.BaselineはBarzilayら\cite{barzilay2008}の設定に従ったモデルである.但し,本論文ではBaselineにおいても共参照解析は行わない.\begin{table}[t]\caption{検討するモデル}\label{features}\input{09table07.txt}\end{table}実験では,形態素解析にはMeCab\footnote{http://mecab.sourceforge.net/}を,係り受け解析にはCaboCha\footnote{http://www.chasen.org/\~{}taku/software/cabocha/}を使用した.\subsection{予備実験}\label{pilot}語彙的結束性の考慮において,日本語語彙大系を利用したクラスタリングの際に使用する意味属性の段と語彙的連鎖によるクラスタリングの際の閾値をあらかじめ決定する必要がある.本論文ではこれらの値を予備実験によって決定した.予備実験は表\ref{features}のSC(1st)とLC(1st)のモデルに対して,\ref{sentenceordering}節と同じタスクを行った.使用したデータは朝日新聞コーパスの2003年の記事のうち,``人もの''というカテゴリに分類されている記事100件である.この記事の順番を無作為に並べ替えたものと元の記事を比べて元の記事の方が一貫性があると判定したペアを正解と見なし,その精度が最も良かった値を使用するパラメータとした.日本語語彙大系で用いられている意味属性体系は最大で12段あり1が最も抽象的な概念である.このうち3〜9の段に対して実験を行った.結果を表\ref{goitaikeipilot}に示す.同様に,語彙的連鎖のクラスタのマージに関する閾値について,0.05から0.5まで0.05刻みで値を変えて行った実験の結果を表\ref{lcpilot}に示す.これらの結果から,本実験では語彙的連鎖のクラスタのマージの閾値には0.35を使用した.また,日本語語彙大系を用いたクラスタリングは語彙的連鎖のクラスタリングに比べて,精度が低いことが判明したため,以降の実験では文中の要素のクラスタリングでは語彙的連鎖によるクラスタリングについてのみ行う.\subsection{実験1:テキストの並べ替え}\label{sentenceordering}文順序に関するタスクでは,3章で述べた評価方法と同様にオリジナルのテキストと文の順番を並べ替えたテキストとを比較し,どちらが一貫性があるかを正しく判定できた精度でモデルの評価を行った.\begin{table}[b]\caption{予備実験結果(日本語語彙大系)}\label{goitaikeipilot}\input{09table08.txt}\end{table}\begin{table}[b]\caption{予備実験結果(語彙的連鎖)}\label{lcpilot}\input{09table09.txt}\end{table}\begin{table}[b]\caption{各モデルのコストパラメータの値}\label{costparameter}\input{09table10.txt}\end{table}学習にはSVM$^{light}$\footnote{http://www.cs.cornell.edu/people/tj/svm\_light/}のrankingSVMモードを使用した.コストパラメータ$c$の値については各モデル毎に予備実験で使用したデータを使って10分割交差検定を行い,最も精度が高いものを使用している.各モデルに対する$c$の値を表\ref{costparameter}に示す.また,並べ替えテキスト中の文の順番がオリジナルのテキストの文の順番と大きく異なっていれば,一貫性の判定は容易になると考えられる.このことを検証するために,表\ref{permutation}に示す5種類の並べ替えの比較を行う.swap1はオリジナルのテキストとの差が最も小さく,randomはその差が最も大きくなる.mixはswap1,swap2,swap3の混合であり,swap3よりは差は小さい.本実験では朝日新聞コーパスの2003年分の記事から,``行政改革'',``医療'',``教育''というカテゴリに該当するもので,1記事あたり10文以上で構成されているものを使用した.データセット中に含まれる記事のカテゴリの割合は均等になるように調整している.オリジナルのテキストと比較する並べ替えテキストに関して,表\ref{permutation}に示す各並べ替えの種類のそれぞれにおいて,1つの記事に対して20個の並べ替えテキストを生成した.この比較する並べ替えのテキストの数に関して,Karamanis\cite{karamanis2006}はセンタリング理論に基づいた手法に対して,信頼できる結果を得るために100,000個の並べ替えテキストを生成して評価を行っているが,我々はentitygridに基づいたモデルを用いており,このモデルでの精度向上を目的としているため,使用する並べ替えテキストの数はBarzilayら\cite{barzilay2008}の実験の設定にあわせている.\begin{table}[b]\caption{並べ替えの種類}\label{permutation}\input{09table11.txt}\end{table}実験はデータセットに対して10分割交差検定を行い,テストデータ中の各ペアにおいてオリジナルのテキストの方が一貫性があると判定されたペアの割合で評価した.表\ref{exp1_model}に100記事,300記事に対してmixの並べ替えを行ったデータを用いた各モデルの結果を示す.``noCONJ''は各モデルにおいて接続関係毎の遷移確率の計算を行わなかった場合,``+CONJ''は接続関係毎の遷移確率の計算を行った場合を示す.表中の太字の数値は使用したデータにおいて最も良かったものを表し,斜字はベースライン(接続関係を未考慮のBaseline)を下回ったものを表す.また,右肩の記号$^{**}(p<0.01)$,$^{*}(p<0.05)$は符号検定においてベースラインの精度と有意な差があることを示す.全体としては,いくつかベースラインを下回っているものがあるものの,多くのモデルにおいてベースラインを有意に上回る結果を得ることができた.接続関係毎に遷移確率を計算したモデル(``+CONJ''の列)の方がそうでないモデル(``noCONJ''の列)に比べて良い結果を示している.特に各データセットにおいて接続関係のタイプを考慮したモデルが最も良い精度を得ており,文脈の展開を明示的に示す接続表現から得られる接続関係が一貫性の判定に有用であることを示している.\begin{table}[t]\caption{モデル別の結果(実験1)}\label{exp1_model}\input{09table12.txt}\end{table}gridから作成される文書ベクトルの素性は構文役割の遷移の組合せの数だけ存在する.従って,構文役割を拡張したモデル(SR(H))はベースラインのモデルに比べて素性の数が多くなり,データが少なかった時の影響が顕著に表れると考えられる.また,参照表現については少数の明示的な指示形容詞のみに限定したため,参照表現を考慮したモデル(REF)でもそれほど差が出なかったと考えられる.語彙的結束性に基づいたクラスタリングを行ったモデルでは良好な結果を得ることができた.本論文で提案した要素の全てを考慮したモデルは,全ての場合で最良の結果を得ることはなく語彙的結束性のみを考慮したモデルを下回った場合もあった.これは構文役割を拡張したモデルと同様に,全ての要素を考慮したモデルと語彙的結束性のみを考慮したモデルとでは文書ベクトルの次元の数が異なることが影響していると考えられる.本論文で用いている一貫性モデルではモデルの学習に必要なデータは人間が書いたテキストのみであり,学習のために特別な情報を付与する必要はない.従って,学習データの作成に必要なコストはほとんどない.そこで,データを更に増やして実験を行った.この実験ではベースラインのモデル(Baseline),構文役割を拡張したモデル(SR(H)),全ての要素を考慮したモデル(ALL-LC(comb)),接続関係毎に遷移確率を計算したモデル(+CONJ,Baseline)と全ての要素を考慮した接続関係毎に遷移確率を計算したモデル(+CONJ,ALL-LC(comb))のみを使用した.結果を表\ref{exp1_add_tab}に,そのグラフを図\ref{exp1_add}に示す.接続関係毎の遷移確率を考慮したモデルはそうでないモデルに比べて,データが増加するにつれて精度が向上することが明らかになった.一方,構文役割を拡張したモデルはデータを増やしていってもベースラインに比べてあまり向上は見られなかった.表\ref{exp1_data}に並べ替えの種類毎での結果を示す.比較するテキストの差と問題の難易度との関係については,差が一番小さいswap1では精度が最も低く,一番大きいrandomでは精度が最も高くなっており,仮説通りの結果が得られた.また,全てのデータセットにおいてBaselineと比べて本論文のモデルの方が良好な結果を得ることができた.\begin{table}[t]\caption{データ増加時の精度(実験1)}\label{exp1_add_tab}\input{09table13.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{17-1ia9f6.eps}\end{center}\caption{データ増加時の精度(実験1)}\label{exp1_add}\end{figure}\begin{table}[t]\caption{データ別の結果(実験1)}\label{exp1_data}\input{09table14.txt}\end{table}\subsection{実験2:要約文書の比較}\ref{sentenceordering}節で行った実験では,あるテキストとそのテキスト中の文の順番を並べ替えたものとを比較している.このため比較する2つのテキストの単語の出現頻度分布は等しいと言える.しかし,実際にはこのような状況は稀であると考えられる.例えば,自動要約の評価においては同じ元文書から生成された要約を用いてシステムの評価を行う.元文書が同じであっても,システム毎に異なる要約が生成されることがあり,これらの単語の出現傾向は異なると考えられる.そこで,実際に自動要約システムによって生成された要約を比較し,どちらが一貫性があるかを判定するという実験を行った.実験に使用したデータはNTCIR-4\footnote{http://research.nii.ac.jp/ntcir/ntcir-ws4/ws-en.html}\cite{ntcir4}のサブタスクであったTSC3(TextSummarizationChallenge3)\footnote{http://www.lr.pi.titech.ac.jp/tsc/index-en.html}に提出された要約である.TSC3では11のシステムが30件の元文書に対してそれぞれ長短2種類の要約を生成している.このうち実際に要約文が出力されている657件の要約を使用した.それぞれの要約には被験者による評価結果が付与されている.この評価では,被験者は15個のQualityquestionと呼ばれるテキストの質に関するチェック項目\cite{hirao2004}が示され,各項目毎にスコアを付ける.このQualityquestionは主に要約の読みやすさに対する質問で構成されている.本実験では特に一貫性に関係する項目のスコアのみに着目し,これらから要約の一貫性に関するスコアを計算し比較を行った.要約のスコアの決定について述べる.TSC3で用いられた15個のチェック項目のうち,付録\ref{qq}に示す8個の項目のスコアを利用した.それぞれチェック項目のスコアは各項目の内容に該当する箇所の個数であり,$qq_2$〜$qq_8$については$qq_1$の項目に当てはまった重複文は除外して数えられている.以上より,要約$S$のスコア$score(S)$を以下の式によって求める.\begin{equation}score(S)=\frac{N(qq_2)+\dots+N(qq_8)}{length(S)-N(qq_1)}+\frac{N(qq_1)}{length(S)}\end{equation}ここで,$N(qq_i)$はチェック項目$qq_i$のスコアであり,$length(S)$は要約$S$の文数である.$qq_8$の回答は``矛盾している'',``どちらともいえない'',``矛盾していない''のいずれかであり,これらのスコアは順に1,0.5,0として$N(qq_8)$の値とした.各スコアは文章中のおかしな箇所の個数であることから,$score(S)$は小さい方が良いテキスト,即ち,本実験においては一貫性が高いと考える.この$score(S)$を用いて,本実験では同じテキストから生成された異なるシステムによる同じ長さの要約のペアに対し,どちらの要約が一貫性があるかを判定する.従って,タスクとしては実験1と同じものとなる.比較する要約のスコアが等しいペアは除外する.テキスト一貫性の判定を実際に利用する状況では,判定が必要なデータを訓練データに用いることはできず,別に訓練データを用意する必要がある.このことを考慮して,本実験では交差検定ではなく\ref{sentenceordering}節の実験において作成した300記事とそのmixの並べ替えを訓練データとして用い,それによって得られたモデルを用いて判定を行った.実験に使用した学習器や各パラメータの値は\ref{sentenceordering}節での実験と同じである.また,\ref{sentenceordering}節の実験と同様に,比較するテキストの差による精度の違いの検証も行った.本実験ではそれぞれの要約のスコアの差が大きければ,一貫性の判定は容易になると考えられる.そこで比較する要約のペアのスコアの差を0から2.0まで0.5刻みでの範囲で分割し,それぞれでの精度を計算した.用いたテストデータ全てに対する,各モデルの精度を表\ref{exp2_model}に示す.表中の記号,字体の意味については前節の実験と同様である.\begin{table}[b]\caption{モデル別の結果(実験2)}\label{exp2_model}\input{09table15.txt}\end{table}学習データとテストデータのドメインが異なるために,前節の実験に比べて全体的な精度は低くなっているが,提案したほぼ全てのモデルにおいてベースラインよりも良い精度を得ることができた.接続関係を考慮したモデル(表中の``+CONJ''の列)とそうでないモデル(表中の``noCONJ''の列)では,最も良い精度を得られたモデルは接続関係を考慮しない場合でのものであったが,それぞれのモデルにおいての接続関係の考慮の有無による違いでは考慮した方が良い精度を示しているものが多くなっている.本実験においても,構文役割の拡張(SR(H))や参照表現の考慮(REF)を組み込んだモデルは,ほとんど改善が見られなかった.これは前節の実験結果と同様であった.語彙的結束性に基づくクラスタリングにおいても,同様にベースラインを上回る結果を得ることができた.比較した要約のスコアの差が小さければ,それらの一貫性を判定することが困難になると考えられる.そこでテストデータの各ペアのスコアの差毎の精度を求めた.その結果を表\ref{exp2_data}に示す.1行目のラベルの括弧の中の数字はその範囲に該当する要約ペアの数である.差が2.0より大きいペアについては,該当するペアの数が多くなかったため省略している.要約のスコアの差と精度の関係については,こちらも仮説通りスコアの差が小さければ判定は難しくなり,差が大きくなれば判定は容易であるという結果になった.本実験で用いたTSCのデータは1つの元文書に対して複数のシステム要約が存在しており,上述の計算式で求められたスコアに基づいて同じ元文書から生成された要約を順位付けすることができる.そこで要約のペアの比較ではなく,同一文書から生成された要約の順位を推定するという実験を行った.使用したモデルは前述の実験と同じ300記事とそのmixの並べ替えのデータで学習したものである.評価にはSpearmanの順位相関係数の平均を使用した.結果を表\ref{rankcor}に示す.\begin{table}[t]\caption{スコアの差毎の結果(実験2)}\label{exp2_data}\input{09table16.txt}\end{table}\begin{table}[t]\caption{順位相関(実験2)}\label{rankcor}\input{09table17.txt}\end{table}ベースラインに比べて提案したモデルに高い相関を示すものがあったが,全体的に相関は低いという結果が得られた.これは特にスコアの差が小さい場合での判定精度が影響していると考えられる.本実験結果から,ベースラインと比べると,ある程度実際にテキスト一貫性の判定を行うような設定においても本論文で提案したモデルの方が有効であることが明らかになった.しかし,その精度は高いとは言えず,改良の余地がある.
\section{おわりに}
本論文では接続関係,参照表現,語彙的結束性といった結束装置,また,日本語に特化した構文役割をentitygridモデルに組み込むことで,結束性を考慮したテキストの局所的な一貫性モデルを提案し,その有効性の検証を行った.実験から,提案モデルがテキスト一貫性の高いテキストの判定と自動要約によって作成されたテキストの評価の2つのタスクにおいて,オリジナルのentitygridモデルを上回るということを示した.entitygridによるテキストの一貫性モデルはテキストにおける文中の要素の遷移に着目したものである.本論文ではその要素の遷移は文脈の展開によって違う傾向を示すという仮説を立て,文脈展開の種類を明示的に示す働きを持つ接続関係に着目し,その種類毎にgridを作成するというモデルを提案した.実験の結果,接続関係を考慮したモデルの方がそうでないモデルに比べて良い結果を得ることができ,この仮説がテキストの一貫性の評価において有効であることを示した.また,その他の項目についても一貫性の評価において有効であることを示した.本論文で採用したentitygridに基づいた局所的一貫性のモデルでは,テキストを1つのベクトルとして扱うため,テキスト全体についての一貫性の判定は行えても,テキストの部分についての一貫性の評価は行えない.テキストの部分の一貫性の評価は,小論文の自動評価など教育の現場での利用において有用であると考えられる.また,例えばテキストにおいて一貫性の悪い箇所の数を用いるなどによって,テキストの部分の一貫性の評価をテキスト全体の評価に用いることも可能であると考えられる.このことから,テキスト内の部分的な単位での一貫性の評価手法の提案が今後の課題である.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Barzilay\BBA\Lapata}{Barzilay\BBA\Lapata}{2005}]{barzilay2005}Barzilay,R.\BBACOMMA\\BBA\Lapata,M.\BBOP2005\BBCP.\newblock\BBOQModelingLocalCoherence:anEntity-basedApproach.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics(ACL'05)},\mbox{\BPGS\141--148}.\bibitem[\protect\BCAY{Barzilay\BBA\Lapata}{Barzilay\BBA\Lapata}{2008}]{barzilay2008}Barzilay,R.\BBACOMMA\\BBA\Lapata,M.\BBOP2008\BBCP.\newblock\BBOQModelingLocalCoherence:AnEntity-BasedApproach.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf34}(1),\mbox{\BPGS\1--34}.\bibitem[\protect\BCAY{Barzilay\BBA\Lee}{Barzilay\BBA\Lee}{2004}]{barzilay2004}Barzilay,R.\BBACOMMA\\BBA\Lee,L.\BBOP2004\BBCP.\newblock\BBOQCatchingtheDrift:ProbabilisticContentModels,withApplicationstoGenerationandSummarization.\BBCQ\\newblockIn{\BemHLT-NAACL2004:MainProceedings},\mbox{\BPGS\113--120}.\bibitem[\protect\BCAY{Elsner,Austerweil,\BBA\Charniak}{Elsneret~al.}{2007}]{elsner2007}Elsner,M.,Austerweil,J.,\BBA\Charniak,E.\BBOP2007\BBCP.\newblock\BBOQAUnifiedLocalandGlobalModelforDiscourseCoherence.\BBCQ\\newblockIn{\BemHumanLanguageTechnologies2007:TheConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics;ProceedingsoftheMainConference},\mbox{\BPGS\436--443}.\bibitem[\protect\BCAY{Elsner\BBA\Charniak}{Elsner\BBA\Charniak}{2008}]{elsner2008}Elsner,M.\BBACOMMA\\BBA\Charniak,E.\BBOP2008\BBCP.\newblock\BBOQCoreference-inspiredCoherenceModeling.\BBCQ\\newblockIn{\BemProceedingsofACL-08:HLT,ShortPapers},\mbox{\BPGS\41--44}.\bibitem[\protect\BCAY{Filippova\BBA\Strube}{Filippova\BBA\Strube}{2007}]{katja2007}Filippova,K.\BBACOMMA\\BBA\Strube,M.\BBOP2007\BBCP.\newblock\BBOQExtendingtheEntity-gridCoherenceModeltoSemanticallyRelatedEntities.\BBCQ\\newblockIn{\BemProceedingsofthe11thEuropeanWorkshoponNaturalLanguageGeneration}.\bibitem[\protect\BCAY{Grosz,Weinstein,\BBA\Joshi}{Groszet~al.}{1995}]{grosz1995}Grosz,B.~J.,Weinstein,S.,\BBA\Joshi,A.~K.\BBOP1995\BBCP.\newblock\BBOQCentering:aFrameworkforModelingtheLocalCoherenceofDiscourse.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf21}(2),\mbox{\BPGS\203--225}.\bibitem[\protect\BCAY{Halliday\BBA\Hasan}{Halliday\BBA\Hasan}{1976}]{halliday1976}Halliday,M.A.~K.\BBACOMMA\\BBA\Hasan,R.\BBOP1976\BBCP.\newblock{\BemCohesioninEnglish}.\newblockLongman,London.\bibitem[\protect\BCAY{Hirao,Okumura,Fukushima,\BBA\Nanba}{Hiraoet~al.}{2004}]{hirao2004}Hirao,T.,Okumura,M.,Fukushima,T.,\BBA\Nanba,H.\BBOP2004\BBCP.\newblock\BBOQTextSummarizationChallenge3-TextsummarizationevaluationatNTCIRWorkshop4.\BBCQ\\newblockWorkingNotesofthe4thNTCIRWorkshopMeeting.\bibitem[\protect\BCAY{市川}{市川}{1978}]{itikawa1978}市川孝\BBOP1978\BBCP.\newblock\Jem{国語教育のための文章論概説}.\newblock教育出版.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{goitaikei}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{庵}{庵}{2007}]{iori2007}庵功雄\BBOP2007\BBCP.\newblock\Jem{日本語におけるテキストの結束性の研究}.\newblockくろしお出版.\bibitem[\protect\BCAY{板倉\JBA白井\JBA黒岩\JBA小高\JBA小倉}{板倉\Jetal}{2008}]{itakura2008}板倉由知\JBA白井治彦\JBA黒岩丈介\JBA小高知宏\JBA小倉久和\BBOP2008\BBCP.\newblock単語の概念関係を用いた段落一貫性評価指標の有効性.\\newblock\Jem{情報処理学会研究報告NL-183}.\bibitem[\protect\BCAY{Kando}{Kando}{2004}]{ntcir4}Kando,N.\BBOP2004\BBCP.\newblock\BBOQOverviewoftheFourthNTCIRWorkshop.\BBCQ\\newblockWorkingNotesofthe4thNTCIRWorkshopmeeting.\bibitem[\protect\BCAY{Karamanis}{Karamanis}{2006}]{karamanis2006}Karamanis,N.\BBOP2006\BBCP.\newblock\BBOQEvaluatingCenteringforSentenceOrderinginTwoNewDomains.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNAACL,CompanionVolume:ShortPapers},\mbox{\BPGS\65--68}.\bibitem[\protect\BCAY{Lin}{Lin}{2004}]{lin2004}Lin,C.-Y.\BBOP2004\BBCP.\newblock\BBOQROUGE:APackageforAutomaticEvaluationofSummaries.\BBCQ\\newblockIn{\BemProceedingsofWorksoponTextSummarizationBranchesOut,PostConferenceWorkshopofACL2004},\mbox{\BPGS\74--81}.\bibitem[\protect\BCAY{Lin\BBA\Hovy}{Lin\BBA\Hovy}{2003}]{lin2003}Lin,C.-Y.\BBACOMMA\\BBA\Hovy,E.\BBOP2003\BBCP.\newblock\BBOQAutomaticEvaluationofSummariesUsingN-gramCo-OccurrenceStatistics.\BBCQ\\newblockIn{\BemProceedingsofHLT-NAACL-2003}.\bibitem[\protect\BCAY{Miltsakaki\BBA\Kukich}{Miltsakaki\BBA\Kukich}{2004}]{miltsakaki2004}Miltsakaki,E.\BBACOMMA\\BBA\Kukich,K.\BBOP2004\BBCP.\newblock\BBOQEvaluationofTextCoherenceforElectronicEssayScoringSystems.\BBCQ\\newblock{\BemNaturalLanguageEngineering},{\Bbf10}(1),\mbox{\BPGS\25--55}.\bibitem[\protect\BCAY{Mochizuki,Iwayama,\BBA\Okumura}{Mochizukiet~al.}{2000}]{mochizuki2000}Mochizuki,H.,Iwayama,M.,\BBA\Okumura,M.\BBOP2000\BBCP.\newblock\BBOQPassage-LevelDocumentRetrievalUsingLexicalChains.\BBCQ\\newblockIn{\BemProceedingsofRIAO2000},\mbox{\BPGS\491--506}.\bibitem[\protect\BCAY{Morris\BBA\Hirst}{Morris\BBA\Hirst}{1991}]{morris1991}Morris,J.\BBACOMMA\\BBA\Hirst,G.\BBOP1991\BBCP.\newblock\BBOQLexicalCohesionComputedbyThesauralRelationsasanIndicatoroftheStructureofText.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf17}(1),\mbox{\BPGS\21--48}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni2002}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:aMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Soricut\BBA\Marcu}{Soricut\BBA\Marcu}{2006}]{soricut2006}Soricut,R.\BBACOMMA\\BBA\Marcu,D.\BBOP2006\BBCP.\newblock\BBOQDiscourseGenerationUsingUtility-TrainedCoherenceModels.\BBCQ\\newblockIn{\BemProceedingsoftheCOLING/ACL2006MainConferencePosterSessions},\mbox{\BPGS\803--810}.\bibitem[\protect\BCAY{田窪\JBA西山\JBA三藤\JBA亀山\JBA片桐}{田窪\Jetal}{2004}]{danwa}田窪行則\JBA西山佑司\JBA三藤博\JBA亀山恵\JBA片桐恭弘\BBOP2004\BBCP.\newblock\Jem{談話と文脈}.\newblock言語の科学7.岩波書店.\bibitem[\protect\BCAY{Walker,Iida,\BBA\Cote}{Walkeret~al.}{1994}]{marilyn1994}Walker,M.,Iida,M.,\BBA\Cote,S.\BBOP1994\BBCP.\newblock\BBOQJapaneseDiscourseandtheProcessofCentering.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf20}(2),\mbox{\BPGS\193--232}.\end{thebibliography}\appendix
\section{スコアの計算に使用したQualityquestion}
label{qq}\begin{list}{}{}\item[${\bfqq_1}$.]同一の,あるいはほぼ重複する文はいくつあるか?\item[${\bfqq_2}$.](ゼロ)代名詞化,指示表現化すべき箇所はいくつあるか?\item[${\bfqq_3}$.]先行詞のない指示表現はいくつあるか?\item[${\bfqq_4}$.]固有表現の出現位置がおかしい箇所はいくつあるか?\item[${\bfqq_5}$.]同一事物を参照する表現の一貫性という観点から修正すべき表現はいくつあるか?\item[${\bfqq_6}$.](前後の文脈も踏まえた上で)必須要素が欠如している箇所はいくつあるか?\item[${\bfqq_7}$.]接続詞が必要・不必要な箇所はいくつあるか?\item[${\bfqq_8}$.]時系列の関係が矛盾してないか?\end{list}\begin{biography}\bioauthor{横野光(正会員)}{2003年岡山大学工学部情報工学科卒.2008年同大大学院自然科学研究科産業創成工学専攻単位取得退学.博士(工学).同年東京工業大学精密工学研究所研究員,現在に至る.自然言語処理の研究に従事.情報処理学会,言語処理学会各会員.}\bioauthor{奥村学(正会員)}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.工学博士.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在に至る.自然言語処理,知的情報提示技術,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会.AAAI,言語処理学会,ACL,認知科学会,計量国語学会各会員.\\oku@pi.titech.ac.jp,http://oku-gw.pi.titech.ac.jp/{\textasciitilde}oku/}\end{biography}\biodate\end{document}
| |
V14N03-11 | \section{はじめに}
テキスト対話における対話者の情緒\footnote{心理学ではemotionの訳語に「情緒」や「情動」を用いる.emotionは,feeling(訳語は「感情」)より狭い意味である.本稿では,機械処理の立場から\cite{徳久&岡田98}にならい,「情緒」という用語を用いる.}を分析する上で,情緒タグ付きテキスト対話コーパスが必要とされている.通常,言語表現と話者の情緒との間には,必ずしも直接的な対応関係が存在するとは限らず,多義が存在する場合が多いため,対話文に内包された情緒を言語表現のみによって正しく判定することは難しい.したがって,音声や表情などの言語外情報が欠けているテキスト対話に対して,情緒のタグを付与しようとすると,付与するタグの種類やタイミングが付与作業者によって異なってしまうという「タグ付与の不安定さ」が問題となる.そのため,情緒タグの付与には可能な限り言語外情報の付随する対話を対象とすることが望まれる.音声の持つ言語外情報を活用する方法は,既に多くの研究で試みられており,音声対話においては安定性の高いタグ付与が可能であることが示されている.たとえばLitmanらは,チュータリングの対話における感情予測を実現する際に,音声対話コーパスにPositive,Neutral,Negativeの3分類の感情タグを付与したところ,2人の付与者間の感情タグの一致率は81.75\%($\kappa=0.624$)であったと報告している\cite{Litman03}.音声以外の言語外情報として表情に注目すると,漫画における対話シーンの利用可能性が考えられる.漫画は漫画家により創作された対話であるので,人間同士の対話を直接記録した対話データではない.しかし,研究目的に依っては漫画の対話が研究対象として受け入れられる場合がある.漫画家は人間同士の対話,表情,心境などについての観察能力に秀でており,読者に自然に受け入れられるように漫画に描き込むことができるので,漫画内での出来事は空想ではあるがそれ以外の部分,すなわち,登場人物の口調,人物間の交渉などの談話展開は常識的であるし,その間の人物の喜怒哀楽といった心境は読者にとって納得のいくように描かれている.口調や談話展開,心境については,現実の対話を日記として記述した場合と同じような現実味があるといえるだろう\footnote{ただし,漫画の表情は読者に登場人物の心境を伝えるために誇張して描かれている可能性があるので,表情そのものを研究の対象とする場合は注意が必要である.なお,口調も特殊な表現が使われるが,登場人物の個性を表すものの場合,その人物について区別すれば,分析全体への影響は大きくならない.}.ゆえに,漫画は,情緒と言語表現の関係を分析する上で有効な言語資源となりうる可能性がある.漫画の表現や理解に関する研究として,中澤は,幼児から中学生までが漫画における「人物絵」,「表情」,「形喩」,「吹き出し表現」,「音喩」,「コマの感情」についてを読み取る能力を調査したところ,表情理解とコマの感情理解に関して,相対的に複雑な「心配,不安」については正答率は低いが,相対的に明確な「嬉しさ,怒り,悲しさ,悔しさ,楽しさ,寂しさ」については正答率が70\%を超えていたと報告している\cite{中澤05}.また,遠藤らは,漫画の修辞的技法について認知科学的な立場からの分析の枠組みを示すために,「時間」,「叙法」,「態」,「描写の焦点」,「コマの言説」に着目し,ハイパーコミックを構築した\cite{遠藤&小方03}.中澤により漫画から安定して感情を読み取ることの可能性は示された.しかし,資源の構築という面からは,遠藤らのような全般的な資源としての蓄積例はあるものの,感情に特化した言語資源として構築した例はなく,漫画を対象に構築した言語資源にどれだけの信頼性があるのかは明確ではない.そこで,本稿では,漫画を対象とした情緒タグ付きテキスト対話コーパスを構築し,その信頼性を評価することを目的とする.コーパスの信頼性として,本稿で注目する点は次の通りである.\begin{itemize}\item{\bf安定性:}主観的な判断で付与されるタグであるが,作業者に依存する揺らぎが抑えられているか.\begin{description}\item{\bf(1)一致率:}コーパス構築の途中段階で一時的に付与される情緒タグにおける作業者間の一致の割合\item{\bf(2)同意率:}コーパス構築の最終段階で決定される情緒タグについて,作業者以外の者から得られる同意の割合\end{description}\item{\bf有効性:}構築したコーパスは言語分析に使用する価値があるか.\end{itemize}これらを評価することを念頭に,本稿は次のことを行う.1)漫画の表情を参照しながら,1話につき2人の作業者が一時的な情緒タグを付与する.その結果より一致率を評価する.その結果は関連研究と比較し,そして,表情を参照しない場合と比較する.2)一時的な情緒タグを作業者の協議により選別・修正し,正解とする情緒タグを決定する.その結果を別の者が検査して,同意率を評価する.3)台詞と情緒タグの共起に基づき「情緒表現性のある文末表現」をコーパスから抽出するという試行的な実験を行う.漫画を対象としたコーパスであっても,自然で情緒的な文末表現が得られるかどうかによって,有効性を判断する.これらの評価を通じて,漫画に登場する人物の表情を情緒の判定に用いることの可能性と,それを利用した情緒タグ付与方法の信頼性を確認する.
\section{情緒の位置づけ}
漫画の読者は,漫画から登場人物の情緒を読み取ることができる.漫画を読む過程で,幾つかの観点から情緒を捉えることができる(図\ref{fig1}).それぞれを以下で説明し,本稿で扱う情緒の位置づけを明確にする.\begin{figure}[b]\begin{center}\includegraphics{14-3ia11f1.eps}\caption{漫画から情緒を読み取る過程}\label{fig1}\end{center}\end{figure}\subsection{内在する情緒}情緒は,情緒主の内部に存在し,情緒主しか知り得ない.本稿では,この情緒を「真の内在する情緒」と呼ぶことにする.一方,第三者は,情緒主に関する様々な情報を元に,真の内在する情緒に向かって情緒を推定することができる.本稿ではこの推定される情緒を「推定上の内在する情緒」と呼ぶことにする.漫画においては,登場人物の「真の内在する情緒」は,基本的には漫画の作者しか知り得ないが,時折ナレーションや登場人物の独り言に表現されることがある.読者は,漫画のシリーズ全体からそうした表現を捉えて登場人物の性格を理解し,さらに,漫画に含まれる総合的な描写(絵,表情,台詞,独り言,効果音,ナレーション),および,その前後の振る舞いを把握することができるので,「真の内在する情緒」に近いものとして「推定上の内在する情緒」を読み取ることができる.\subsection{表出する情緒}音声,表情,言語表現は,音素,顔の形状,文字の並びなどの物理的特徴により識別される.それらの識別に対して,人々の間で共通した解釈があるとき,音声,表情,言語表現は情報を伝達する役割を果たすことができる.言語表現は,国語辞典に見られるように文字列の解釈の仕方が約束されている.言語表現から話し手の考えが理解できるのは,第一に言語表現に対する約束を用いて聞き手が話し手の考えを聞き手の中に再構築できるからである.一方,表情の解釈は,社会的な約束付けが先に与えられるものではないが,生得的な情緒の反応として,あるいは,経験的なものとして,人々の間で共通点がある.このように,言語表現や表情には解釈の共通性があるので,話し手が言語表現や表情を用いて他者に情緒を伝えることができる.本稿では,言語表現の解釈として得られる情緒のことを「言語表現に表出する情緒」,そして,表情の解釈として得られる情緒のことを「表情に表出する情緒」と呼ぶことにする.「表情に表出する情緒」について,表情は,意識下では情緒的な反応が直結しているが,他者による解釈を見越して表情を作ることもできる.従って,情緒主の表情は,その者の「真の内在する情緒」と必ずしも一致するとは限らない.現実の表情では情緒を正確に把握することは容易ではないが,漫画の表情では漫画家が区別のつきやすいように表情を描くので,「表情に表出する情緒」は「推定上の内在する情緒」よりも区別が容易である.一方,「言語表現に表出する情緒」とは,繰り返しになるが,言語表現の規範としての意味的約束に対応している情緒である.たとえば,「雨に降ら\underline{れてしまった}」の下線部には,「雨が降る」という事態に対する「話者のネガティブな気持ち」が対応している.典型例については情緒的な判断が容易にみえるが,直感的ではなしにその判断を説明しようとすると,実際には深い分析が伴う(たとえば,\cite{金子06})ため,「推定上の内在する情緒」や「表情に表出する情緒」と比較すると判断が容易ではない.\subsection{本稿のタグ付与のねらい}「真の内在する情緒」を求めることは,心理学的・認知科学的な要求として存在する.しかし,本稿は,言語処理の立場から,言語理解として人々が共通に推定する情緒を,計算機処理により推定することを狙うため,「推定上の内在する情緒」を情緒タグとして付与する.ここで,試行的に漫画を読みながら情緒のタグを付与してみると,「表情に表出する情緒」に強く影響を受けることに気がつく.たとえば,「顔で笑って心で泣いて」という状況のとき,笑顔に対する情緒のタグを付与してしまう.ところが,「表情に表出する情緒」をタグとして付与してみると,「推定上の内在する情緒」を素直に付与しやすいことが分かる.そこで,本稿では補助として「表情に表出する情緒」を表情タグとして付与することにする.「言語表現に表出する情緒」を厳密にとらえることは,上述のとおり容易ではないので,「言語表現に表出する情緒」をタグとして付与することは,本稿では直接的には狙わない.情緒を表出することが約束されている言語表現ならば,ある程度の大きさのコーパスにおいて対応する情緒とともに繰り返し出現することが予想される.したがって,「言語表現に表出する情緒」は,本コーパスの「推定上の内在する情緒」のタグから分析的に求めることにする.
\section{コーパスの構築}
\subsection{コーパスに収録するタグ}\subsubsection{タグの種類}本稿のコーパスには,「推定上の内在する情緒」と「表情に表出する情緒」に対応するタグを付与する.前者に対応するタグを「情緒タグ」,後者に対応するタグを「表情タグ」と呼ぶ.詳細を以下で説明する.\noindent{\bf(1)情緒タグ}情緒タグは,以下に示すような9分類系と3分類系の2系統とする.\noindent{\bf(9分類系)}9分類系の情緒タグは,次の9種類とする:\begin{quote}《喜び》,《悲しみ》,《好ましい》,《嫌だ》,《驚き》,《期待》,《恐れ》,《怒り》,《なし》\end{quote}プルチックの基本情緒\cite{Plutchik60}を参考にした8種類と,情緒の無い状態《なし》である.プルチックの分類を用いる理由は,複雑な情緒を,複数の基本情緒の組み合わせで表現できるためである.ただし,本稿のコーパスに複雑な情緒に対するタグとして複数のタグを付与する際,プルチックの示す組み合わせ方に必ずしも従う必要はなく,作業者の直感に任せることとする.それは日本語と英語での感情表現語の概念に差があるためである.また,9分類系の情緒の日本語名は\cite{徳久&岡田98}に従った.情緒タグの付与において,判断に悩む場合,情緒の生起する原因を参考にすることを意図している.\noindent{\bf(3分類系)}3分類系の情緒タグは,次の3種類とする:\begin{quote}《Positive》,《Negative》,《なし》\end{quote}《Positive》は,《喜び》,《好ましい》,《期待》に対応し,《Negative》は,《悲しみ》,《嫌だ》,《恐れ》,《怒り》に対応する.9分類系の《驚き》は3分類系の《なし》に含める.このように,作業者は,9分類系でタグを付与することとし,3分類系は9分類系からの自動変換で得るものとする.3分類系は,情緒の分解能としては荒い.しかし,\cite{Litman03}や\cite{Craggs&Wood04}などに示されるように,感情に関するタギングではよく使用される分類である.3分類系は,関連研究とコーパスの精度を比較するために用いる.\noindent{\bf(2)表情タグ}表情タグは,次の7種類とする:\begin{quote}〈幸福〉,〈嫌悪〉,〈悲しみ〉,〈驚き〉,〈恐れ〉,〈怒り〉,〈背後〉\end{quote}はじめの6種類はエクマンらの分類\cite{エクマン&フリーセン90}に基づく表情である.残りの1種類の〈背後〉は,本稿が漫画の特徴を加味して定めた「みなしの表情」である.つまり,「青ざめ」,「冷や汗」,「震え」などの描写が伴うと人物の情緒的な様子が読者に伝わることに配慮して定めたタグである.表情タグと9分類系の情緒タグでは,ラベル名に不一致の箇所があるが,次のように対応する:〈幸福〉は《喜び》,《好ましい》,《期待》と対応する.〈嫌悪〉は《嫌だ》と対応する.〈悲しみ〉,〈驚き〉,〈恐れ〉,〈怒り〉は,文字通りに9分類系の情緒タグと対応する.エクマンらが表情を大別したときに区別されていないことから分かるとおり,顔の形状の違いにより,《喜び》,《好ましい》,《期待》を見分けることは困難であるため,本稿でも無理に細分類することを避けた.また,〈嫌悪〉と《嫌だ》は,背景研究で使われていたラベルに従うため統一したラベル名にはしなかった.\subsubsection{付与手順}本稿で行うタグ付与の手順は次の通りである:\begin{description}\item{\bf手順1:}1つの話に対して2人の作業者が独立に漫画を読みながら,漫画の登場人物に対して表情タグを一時的に付与する.表情タグは,コマ内の人物に対して付与する.\item{\bf手順2:}同じく2人の作業者が独立に,表情タグの付与されたところに,前後の文脈などを考慮しながら,情緒タグを一時的に付与する.情緒タグも表情タグと同じくコマ内の人物に対して付与する.\item{\bf手順3:}手順1・2で一時的なタグを付与した2人の作業者が,互いにその一時的なタグを見比べて,協議により,「正解」といえる表情タグと情緒タグを決定する.\end{description}手順1・2に2名しか作業者を割り当てていないため,単純に両者の一致するタグを「正解のタグ」と決定するのでは,信頼性が得られないと考えて,手順3を設けている.以降の説明で,付与手順に関してタグを区別するために,手順1・2で付与したタグを「一時タグ」,手順3で決定したタグを「正解タグ」と呼ぶ.一時タグ,正解タグともに,複数の情緒が推定される際,複数の情緒タグを付与する.情緒主が葛藤している状況では,相反する情緒が交互に生じていると考えられるが,タグの対応する漫画のコマの時間幅においては同時に生じると見なして,両方の情緒タグを付与する.ただし,タグ付与者が単に決めかねていることと,情緒主が葛藤していることは区別し,前者の場合はいずれかのタグに決定する.なお,表情タグの付与されたところに,情緒タグを付与するのは,本稿の着眼点として表情という言語外情報を利用することを掲げているためである.実践的に情緒タグ付きコーパスを構築する際,表情タグのない部分に情緒タグを付与することを制限するものではない.また,台詞のないところでも表情タグがあれば情緒タグを付与するのは,対話の聞き手の情緒を分析する上で必要になると考えたからである.\subsection{コーパスに収録する言語表現}本稿では,言語表現の分析用のコーパスの構築を目指しているので,漫画の絵はコーパスに収録せず,言語表現をコーパスに収録する.コーパスに収録する言語表現は,ナレーション,登場人物の台詞(吹き出しの内と外),および,登場人物の発するオノマトペである.コーパスには,それらの言語表現に話者名を添えて収録する.その際,吹き出しの外の台詞は,登場人物の内心の気持ちを言語表現したものである可能性があるので,話者名に括弧を付け,吹き出し内の台詞と区別をする.コーパス中の言語表現の形態素・構文解析において,句読点が無かったり平仮名書きが多いと支障をきたすため,言語表現をコーパスに収録する際,句読点の追加と仮名漢字変換を行った.判断基準はタイピストに示したものの,判断に揺れが生じるので,後に表現の統一をとる\footnote{漫画のありのままの表現を分析することが目的ならば,こうした加工は必要でない.本稿では,平仮名表記のレベルで表現を区別して分析することが目的ではないので,加工を行った.}.\subsection{実施}本稿では,漫画「ちびまる子ちゃん」の第1巻から第10巻までの10冊\cite{さくら87-93}を対象とした.採用の理由は,小学生の女の子の出来事を描いており,比較的常識的な場面設定と日常的な会話が多くみられるためである.作業者の体制について,漫画本の言語表現をコーパスとして収録する作業を2人のタイピストが行い,タグの付与作業を本研究室の学生6名が行った(以後,この6名の作業者をA者〜F者と呼ぶ).作業時間について,タイピストによる全文の収録には約2ヶ月,タグの付与全般には約1ヶ月をそれぞれ要した.タグ付与の実働時間について,手順1から3までを実施するには1話あたり約2時間であった.一時タグの決定と両者の協議ともに時間を費やした.コーパスの一部を表\ref{tab1}に示す.台詞を構成する文が基本単位であり,通番が与えられる.ここには表示していないが,巻番号,話番号などの整理番号を備えている.一時タグは,2人の作業者が別々に付与作業を行った後,ここに示すように1つのファイルに統合する.各者に見落としがあるのだが,正解タグにおいては,それらが修正されていることがわかる.\begin{table}[b]\begin{center}\caption{コーパスの一部(\protect\cite{さくら87-93}第5巻より)}\label{tab1}\footnotesize\setlength{\tabcolsep}{1.5pt}\begin{tabular}{|c|c|c|p{3zw}|p{4cm}||c|c|c|c|c|c|}\hline\hline\#&頁&コ&\multicolumn{1}{|c|}{話者}&\multicolumn{1}{|c||}{台詞}&\multicolumn{2}{|c|}{正解タグ}&\multicolumn{4}{|c|}{一時タグ}\\\cline{8-11}&&マ&&&\multicolumn{2}{c}{}&\multicolumn{2}{|c|}{X者}&\multicolumn{2}{|c|}{Y者}\\\cline{6-11}&&&&&表情&情緒&表情&情緒&表情&情緒\\\hline\hline1&22&3&まる子&うちのもみの木は小さいね.&〈悲しみ〉&《悲しみ》&〈嫌悪〉&《嫌だ》&〈悲しみ〉&《悲しみ》\\\cline{1-1}\cline{4-11}2&&&お姉&仕方ないじゃん.&〈幸福〉&《悲しみ》&〈幸福〉&《悲しみ》&〈幸福〉&《悲しみ》\\&&&ちゃん&&&&&&&\\\cline{1-1}\cline{3-11}3&&4&お姉&ぎゃあっ!&〈驚き〉&《驚き》&〈驚き〉&《驚き》&〈驚き〉&《驚き》\\&&&ちゃん&&〈恐れ〉&《恐れ》&(青)&&〈恐れ〉&《恐れ》\\&&&&&(青)&&&&(青)&\\\cline{1-1}\cline{4-11}4&&&まる子&&〈驚き〉&《驚き》&〈驚き〉&《驚き》&&\\\hline5&23&1&お姉ちゃん&まる子,あんたもみの木の鉢に金魚の死骸埋めたでしょ.&&&&&&\\\cline{1-1}\cline{3-11}6&&2&まる子&そうだよ.&&&&&&\\\cline{1-1}\cline{5-5}7&&&&だって肥料になると思って.&&&&&&\\\cline{1-1}\cline{4-11}8&&&お姉&やめてよ.&〈嫌悪〉&《嫌だ》&〈嫌悪〉&《嫌だ》&〈嫌悪〉&《嫌だ》\\\cline{1-1}\cline{5-5}9&&&ちゃん&気持ち悪い.&(汗)&&(汗)&&(汗)&\\\hline\end{tabular}\vspace{\baselineskip}\caption{コーパスの規模}\label{tab2}\begin{tabular}{llrr}\hline\hline\multicolumn{2}{c}{項目}&\multicolumn{2}{c}{規模}\\\hline\multicolumn{2}{l}{冊子,話}&\multicolumn{2}{l}{第1巻〜第10巻,104話}\\\multicolumn{2}{l}{コマ}&\multicolumn{2}{l}{10,213(コマ)}\\\multicolumn{2}{l}{文,文字}&\multicolumn{2}{l}{29,538(文),388,809(文字)}\\\multicolumn{2}{l}{タグ付与箇所}&\multicolumn{2}{l}{12,345(のべ人)}\\\hline\multicolumn{2}{l}{表情タグ}&14,040(個)&100.0\%~~~\\(内訳)&〈幸福〉&6,018(個)&42.9\%~~~\\&〈嫌悪〉&2,608(個)&18.6\%~~~\\&〈驚き〉&1,787(個)&12.7\%~~~\\&〈悲しみ〉&1,360(個)&9.7\%~~~\\&〈怒り〉&1,200(個)&8.5\%~~~\\&〈恐れ〉&870(個)&6.2\%~~~\\&〈背後〉&197(個)&1.4\%~~~\\\hline\multicolumn{2}{l}{情緒タグ}&16,635(個)&100.0\%~~~\\(内訳)&《喜び》&4,469(個)&26.9\%~~~\\&《嫌だ》&2,990(個)&18.0\%~~~\\&《期待》&2,237(個)&13.4\%~~~\\&《驚き》&2,010(個)&12.1\%~~~\\&《恐れ》&1,757(個)&10.6\%~~~\\&《悲しみ》&1,428(個)&8.6\%~~~\\&《怒り》&1,347(個)&8.1\%~~~\\&《なし》&207(個)&1.2\%~~~\\&《好ましい》&190(個)&1.1\%~~~\\\hline\end{tabular}\end{center}\end{table}台詞と正解タグの関係は次の特徴がある:\begin{itemize}\item表情タグと情緒タグは,同一コマ内の同一話者の台詞全てに対応するものであり,台詞中の特定の文に対応するものではない(たとえば,\#8,\#9).\item複数のタグは同時に生じていることを表すために付与された場合もあれば,複雑な情緒を表すために付与された場合もある(たとえば\#3).\item台詞が無くてもタグは付与されることがある(たとえば\#4).\item\#5のように叱責と思われる台詞であっても,漫画において表情の描かれていないコマには情緒タグを付与しない.\end{itemize}\subsection{結果}構築したコーパスの規模を表\ref{tab2}にまとめる.10冊の漫画に104話が収録されていた.言語表現の規模としてコマ数,文数,文字数を示し,タグの規模として,正解タグの付与箇所数,表情タグ数,情緒タグ数を示す.「タグ付与箇所数」とは,コマ毎の登場人物のうち表情が平静でなかった者の数である.本コーパスではそのような者にタグが付与される.たとえば,表\ref{tab1}でタグが付与された話者数はのべ5人である.
\section{安定性の評価}
既に述べたとおり,本コーパスはタグ付与の安定性に関して次の配慮を行った:\begin{description}\item{\bf(1)}表情を参照しながら情緒タグを付与した.\item{\bf(2)}2者による協議により正解の情緒タグを決定した.\end{description}(1)に関して,第\ref{sec4.2}節では,まず,2者間の一時タグの一致率を求め,コーパス全体の安定性を評価する.関連研究と比較して,本コーパスの安定性の水準を考察する.次に,一部の話について表情参照のない場合の一致率を求め,表情参照のある場合と比較することで,表情が安定性を高める効果を調べる.(2)に関して,第\ref{sec4.3}節では,作業者以外の者が正解タグに同意した数を調べて,コーパス全体の正解タグの正確さ(同意率)を評価する.次に,一時タグと正解タグの比較により作業者の精度を調べ,精度の悪かった部分の正解タグについての同意率を評価する.2者による協議が,最終的に決定されるタグの「正確さ」の確保に有効であることを確認する.\subsection{評価方法}主観的なタグ付与の安定性を評価するために,2人の付与作業者間での一致するタグの割合をカッパ値($\kappa$値)で評価する方法が,用いられている\cite{Narayanan02}:\[\kappa=(P(A)-P(E))/(1-P(E))\]$P(A)$は2人の付与者によるタグの一致数の割合である.$P(E)$は偶然の一致の期待値の割合である.タグ付与の1つの対象に,複数のタグの付与を認めるタスクにおいて,単純に$\kappa$値を用いた評価ができないことから\footnote{複数の注釈の組が1つの複雑な意味を表す注釈とみなして求めた$\kappa$値を,本稿では$\kappa_{\mbox{複合}}$と呼ぶ.$P(E)$を求める際に独立性が保証できないことから,正確な方法とは言えないが,参考値として求める.また,単一の注釈の付与されたところのみを対象に求めた$\kappa$値を,本稿では$\kappa_{\mbox{単独}}$と呼び,参考値として求める.},2人の作業者の付与タグ総数を基準とした一致率が評価値として用いられることがある\cite{徳久R&寺嶌06}:\[\mbox{〈一致率〉}=\frac{\mbox{〈2者間の一致タグ数〉}*2}{\mbox{〈2者の総付与タグ数〉}}*100(\%)\]次に,正解の存在する場合の評価方法を示す.2人の作業者間の協議で正解タグを付与したが,協議とは無関係な人物が正解タグを見たときに同意できるタグの数の割合(本稿では〈同意率〉と呼ぶ)によって,正解タグの「正確さ」を評価する:\[\mbox{〈同意率〉}=\frac{\mbox{〈同意を得た正解タグの数〉}}{\mbox{〈検査された正解タグの数〉}}*100(\%)\]正解タグが決まっているならば,正解タグに対する一時タグの再現率と適合率から評価することができる:\[\mbox{〈再現率〉}=\frac{\mbox{〈正解タグと一致した一時タグ数〉}}{\mbox{〈正解タグ数〉}}\]\[\mbox{〈適合率〉}=\frac{\mbox{〈正解タグと一致した一時タグ数〉}}{\mbox{〈一時タグ数〉}}\]\subsection{情緒の一時タグの評価}\label{sec4.2}\begin{table}[b]\begin{center}\caption{表情参照時の9分類系情緒の一時タグの一致率}\label{tab3}\begin{tabular}{cccccc}\hline\hline巻&作業者&一致率&(一致数)&$\kappa_{\mbox{複合}}$&$\kappa_{\mbox{単独}}$\\\hline1〜2&A者-B者&74.0\%&(3,667)&0.532&0.607\\3〜4&C者-B者&71.9\%&(3,148)&0.513&0.600\\5〜6&C者-D者&68.6\%&(2,904)&0.497&0.597\\7〜8&E者-D者&52.7\%&(2,625)&0.313&0.408\\9〜10&E者-F者&60.1\%&(2,808)&0.363&0.496\\\hline1〜10&総合&65.2\%&(15,152)&0.444&0.546\\\hline\end{tabular}\end{center}\end{table}\subsubsection{表情参照時の情緒タグの一致率}2人の作業者間で情緒の一時タグの一致率および$\kappa$値(参考値)を求めた.表\ref{tab3}にその結果をまとめる.表\ref{tab3}より以下のことが分かる.\begin{itemize}\item総合の一致率は65.2\%であった\footnote{総合とは,A,C,E者側とB,D,F者側をそれぞれ束ねて比較することである.}.\item作業者対ごとに一致率をみると,52.7\%〜74.0\%であった.\itemE-D者間とE-F者間の一致率が相対的に低い.\end{itemize}漫画「ちびまる子ちゃん」は易しく理解できる漫画であることから,7巻から10巻の話の内容が難しいというよりは,E者による情緒の判断に問題があった可能性がある.関連研究において,9分類系情緒のタグを付与して一致率を示した例がないため,ここに示した一致率は,今後のタグ付与における参考値となる.\subsubsection{関連研究との比較}感情タグに関する研究では,感情の種類として,Positive,Neutral,Negativeを用いることが多い.\cite{Litman03}や\cite{Narayanan02}に見られるように,音声対話においては,Positive/Negativeの2種類の感情の識別の$\kappa$値は0.465〜0.624であり,一致率は最高で81.75\%というレベルである.それらと比較のできるように,本コーパスの3分類系の情緒タグの一致率を求めた.表\ref{tab4}に結果をまとめる.表\ref{tab4}より以下のことが分かる.\begin{itemize}\item一致率は総合で78.0\%であり,作業者対ごとにみると72.5\%から82.9\%までの範囲にある.\item$\kappa$値について$\kappa_{\mbox{複合}}$は総合で0.640であり,作業者対ごとにみると0.589から0.668までの範囲にある.\end{itemize}関連研究と比較すると,本稿の結果は最高値についていえば関連研究の結果を上回っている.そして,総合の評価値をみると,最高値よりやや劣る程度である.ゆえに,本稿で提案したタグ付与の方法は安定性が高いといえる.\begin{table}[b]\begin{center}\caption{表情参照時の3分類系情緒の一時タグの一致率}\label{tab4}\begin{tabular}{cccccc}\hline\hline巻&作業者対&一致率&(一致数)&$\kappa_{\mbox{複合}}$&$\kappa_{\mbox{単独}}$\\\hline1〜2&A者-B者&82.9\%&(3,849)&0.668&0.682\\3〜4&C者-B者&81.5\%&(3,286)&0.657&0.671\\5〜6&C者-D者&81.8\%&(3,155)&0.702&0.717\\7〜8&E者-D者&72.5\%&(3,117)&0.572&0.594\\9〜10&E者-F者&74.3\%&(2,818)&0.589&0.612\\\hline全て&総合&78.0\%&(19,043)&0.640&0.658\\\hline\end{tabular}\end{center}\end{table}\subsubsection{表情参照しない時の一致率}表情を参照することの効果を調査するために,表情参照をせずにタグを付与し,一致率を求めた.対象は,第2巻,第6巻の各第1話,第2話の合計4話(1,217文)とした.表\ref{tab5}に,表情参照のある場合の一致率と表情参照のない場合の一致率を比較して示す.表情参照のある場合は,前述の結果から該当話を抽出した値である.表\ref{tab5}より以下のことが分かる.\begin{itemize}\item一致率は,表情参照のない場合が60.5\%であり,表情参照のある場合は67.7\%であることから,表情参照のある方が安定している.\end{itemize}\begin{table}[t]\begin{center}\caption{表情参照の有無による情緒タグの一致率の違い}\label{tab5}\begin{tabular}{cccc}\hline\hline表情参照&一致率&$\kappa_{\mbox{複合}}$&$\kappa_{\mbox{単独}}$\\\hlineあり&67.7\%&0.485&0.575\\なし&60.5\%&0.382&0.472\\\hline\end{tabular}\end{center}\end{table}表情タグの付与されていない箇所に,情緒タグを付与しなかったが,実践的なコーパス構築においては,その部分にも情緒タグを付与することがあるだろう.その際の一致率は,表情参照のありとなしの各場合の間になると思われる.表情タグの無い部分でも前後の表情タグから補間的に様子がとらえられるためである.\subsection{情緒の正解タグの評価}\label{sec4.3}\subsubsection{正解タグのサンプル検査}\label{sec4.3.1}本コーパスからランダムに対話部分を抽出し,計414個の正解情緒タグを対象に検査した〈同意率〉は97\%(414/425)であった.したがって,正解タグの正確さは高い.\begin{table}[b]\begin{center}\caption{正解タグと一時タグの間の一致の割合}\label{tab6}\begin{tabular}{ccccc}\hline\hline作業者&再現率&適合率&一致率&(一致数)\\\hlineA者&0.876&0.931&90.3\%&(4,578)\\B者&0.848&0.889&86.8\%&(8,432)\\C者&0.766&0.832&79.8\%&(7,068)\\D者&0.822&0.901&86.0\%&(8,049)\\E者&0.670&0.690&68.0\%&(6,862)\\F者&0.798&0.843&82.0\%&(3,958)\\\hline総合&0.788&0.838&81.3\%&(38,947)\\\hline\end{tabular}\end{center}\end{table}\subsubsection{一時タグと正解タグの比較}一時タグと正解タグの〈適合率〉と〈再現率〉を求めると,表\ref{tab6}のようになった.表\ref{tab6}から以下のことが分かる.\begin{itemize}\item総合では,再現率と適合率が,0.788と0.838である.\item作業者ごとにみると,再現率と適合率は,C者とE者が総合よりも低い.\end{itemize}そこで,最も評価の悪かったE者が関わった部分の正解タグの正確さを評価した.第7巻から第10巻までがE者の担当であったので,その範囲について正解タグの同意率を求めたところ,97\%(158/163)であった.全体の同意率と同等であったことから,手順3による協議は,作業者の判断誤りを補うことができていたといえる.
\section{有効性の評価}
本コーパスは漫画を題材として作成した.漫画における発話文であっても言語分析の目的によっては有効であることを,試行的な実験を通じて示す.本稿はコーパスの構築が目的であるので,コーパスに分析する価値があるかどうかの目途がたてば有効性の評価は十分である.\subsection{情緒の共起する文末表現の抽出}日本語の文末には,助詞・助動詞のみならず形式的な語の組み合わせを加えると,多くの表現形式が存在し,その中には話者の後悔や非難などの主観を表すものがある.そこで,本コーパスにおいて,情緒タグとの共起から,情緒的なニュアンスのある文末表現を抽出することを試みる.文末表現を抽出する方法について述べる.形式的な語も加えると文末表現と判断する根拠が曖昧であるため,繰り返し情緒と共起する文末文字列を機械的に抽出する方法を本稿では用いる.その手順は次のとおりである:(1)10分割したコーパスの1つをテストデータ,残りをトレーニングデータとする.(2)10通りのテストデータとトレーニングデータの組において,テストデータ中の各文について,トレーニングデータから最長一致となる文末の文字列を抽出する.(3)コーパス全体から文末表現の一致する文を検索し,その文に付与されている情緒タグの数を集計することで,抽出した文末表現と情緒タグの共起する頻度を求める.\subsection{抽出結果}台詞のあるタグ付与箇所11,027から3,164種類の文末表現を得た.その中より,情緒を表現すると思われる文末表現を図\ref{fig2}に幾つか紹介する.「かも,のに,うよ,もん,てしまう」を含む文末表現の一部である.情緒の共起割合とは,その文末表現に共起した情緒タグの総数を100\%としたときの各情緒タグの割合である.\begin{figure}[t]\begin{center}\includegraphics{14-3ia11f2.eps}\caption{情緒表現性のある文末表現の例}\label{fig2}\end{center}\end{figure}ここに挙げた例は,わかりやすい例である.しかし,他の文末表現をみると確率的には情緒との関連性があるものの,人の目でみたときには関連性が感じられないものもある\footnote{参考として,得られた文末表現をそのまま用いて本コーパスの台詞から情緒を推定する実験(文末表現に対応し割合の最も高い情緒を台詞から推定される情緒とし,その台詞に対応する情緒タグを少なくとも1つを求める)を行ったところ,43.8\%(4,832/11,027)の正解率であった.}.文末表現を見て感じられる情緒は「言語表現に表出する情緒」であるが,確率的に関連付けられている情緒が「推定上の内在する情緒」であるため,こうした差異が生じたものと思われる.さらに,情緒的な文末表現についての知識ベースを構築する場合を考えてみると,文末表現に対応する「言語表現に表出する情緒」の妥当性の問題の他に,文末表現の知識ベースとしての表記の問題が生じる.たとえば,言語表現の意味をとらえる知識の記述形式として,機械翻訳の分野では文型パターンが提案されている\cite{池原04}ので,その表記法を参考にして,図\ref{fig2}の文末表現は次のようにパターン化できる:\begin{description}\itemP0100:$CL1.te$みようよ.期待50\%,喜び50\%\itemP0101:$CL1$ましょうよ.期待40\%,喜び60\%\end{description}P0100について,図\ref{fig2}では「てみようよ.」だが,助詞「て」は先行する動詞に依存して「で」であってもよいため,洗練の際にその揺れを吸収する関数である``$.te$''に書き換える.P0101について,同図では「りましょうよ.」となっており,活用語尾の「り」が余分であるため洗練の際に修正が必要である.以上のように,本実験は,単純なものであるが,漫画を題材としていても分析価値のあるコーパスであることが確認できた.
\section{考察}
第\ref{sec6.1}節では,今後の情緒タグ付与に備え,情緒タグ付与の誤り例を示す.第\ref{sec6.2}節では,複数の情緒タグの付与される場面と複雑な情緒の関係を分析し,複雑な情緒を扱う上での未解決の問題を示す.\subsection{情緒タグ付与の誤り分析}\label{sec6.1}第\ref{sec4.3}項での同意率の調査において,同意の得られなかった箇所について分析する.\subsubsection{類似の情緒を区別する問題}タグ付与者によると,「《喜び》,《期待》,および,《好ましい》の3つの区別に戸惑った」という意見があった.同意率の検査では,下記の例の2コマ目のお姉ちゃんの情緒が《喜び》であることに対して同意が得られなかった.検査者によると,《喜び》は,まだノートを所有していないので不適切であり,「ノートに対する《好ましい》」と,「ノートがもらえるという《期待》」の2つの情緒タグが適切であるという.このように,区別の決め手になるのは,情緒の生じる原因および情緒の反応を前後の文脈から読み取ることである.\vspace{\baselineskip}\begin{center}\begin{tabular}{|c|c|c|l|c|c|}\hline\#&コマ&話者&\multicolumn{1}{|c|}{台詞}&表情&情緒\\\hline1&1&お姉ちゃん&あーっ,このノートいいなー.&&\\\hline2&2&お姉ちゃん&どうしたの?&〈幸福〉&\underline{《喜び》}\\\cline{1-1}\cline{4-4}3&&&コレ.&&\\\hline4&&お母さん&シーチキンを買ったら,&〈幸福〉&《喜び》\\&&&もらったのよ.&&\\\hline5&3&お姉ちゃん&私に頂戴.&〈幸福〉&《期待》\\\cline{1-1}\cline{4-4}6&&&算数のノートにするの.&&\\\hline\multicolumn{6}{r}{※3巻24ページより引用}\end{tabular}\end{center}\subsubsection{対人的な情緒のタグを選択する問題}9分類系の情緒は,基本行動との対応関係を考察する上でわかりやすいが,対人感情への対応関係が不明確である.下記の例では,\#3のナレーションのとおり,たまちゃんの真の内在する情緒は「心配」である.タグ付与者は「心配」に対して《嫌だ》を選択したが,同意率の検査者は《恐れ》の方がよいという意見であった.対話では対人感情に敏感であるので,典型的な対人感情と9分類系のタグとの対応関係をタグ付与作業者にあらかじめ示しておくことが必要であった.\vspace{\baselineskip}\begin{center}\begin{tabular}{|c|c|c|l|c|c|}\hline\#&コマ&話者&\multicolumn{1}{|c|}{台詞}&表情&情緒\\\hline1&7&まる子&今日もお父さんとお風呂に入る約&〈幸福〉&《喜び》\\&&&束してるんだ.&&《期待》\\\cline{1-1}\cline{3-6}2&&たまちゃん&またのぼせないようにね.&〈幸福〉&\underline{《嫌だ》}\\\cline{1-1}\cline{3-6}3&&ナレータ&色々と心配なたまちゃんであった.&&\\\hline\multicolumn{6}{r}{※10巻62ページより引用}\end{tabular}\end{center}\subsubsection{表情に依存する問題}本稿で対象としている漫画「ちびまる子ちゃん」では,タグ付与過程での印象として,登場人物に内在する情緒と表情がよく対応しているように思われ,また,愛想笑いのように内在する情緒と表情が対応しないときは,「汗」が描かれるようである.下記の例では,検査者は\#14〜\#16で「ももこ」が愛想笑いをしているとして,《喜び》の情緒タグは不適切であると判断したため,相違が生じた.\vspace{\baselineskip}\begin{center}\begin{tabular}{|c|c|c|l|c|c|}\hline\#&コマ&話者&\multicolumn{1}{|c|}{台詞}&表情&情緒\\\hline1&2&お母さん&…てな具合にさあ,私も若いころには&〈喜び〉&《喜び》\\&&&色々あった訳よ.&&\\\cline{1-1}\cline{3-6}2&&ももこ&ふうん…失恋…ねェ….&&\\\hline3&3&お母さん&アンタ失恋ってのは悲しいもんよォ.&〈嫌悪〉&《喜び》\\\cline{1-1}\cline{4-4}4&&&も〜〜お母さんはネェ.&&《悲しみ》\\\cline{1-1}\cline{3-6}5&&ももこ&分かったよ.&〈幸福〉&《嫌だ》\\\cline{1-1}\cline{4-4}6&&&辛いんでしょ.&〈嫌悪(汗)〉&\\\cline{1-1}\cline{4-4}7&&&ハイハイ.&&\\\cline{1-1}\cline{4-4}8&&&もういい?&&\\\cline{1-1}\cline{4-4}9&&&私眠いから.&&\\\hline10&4&お母さん&ダメッ,ももこっ!&〈幸福〉&《喜び》\\\cline{1-1}\cline{4-4}11&&&ここから先が面白いのよ.&&\\\cline{1-1}\cline{4-4}12&&&いよいよお父さんが登場するのよ.&&\\\cline{1-1}\cline{4-4}13&&&寝ちゃダメッ.&&\\\cline{1-1}\cline{3-6}14&&ももこ&ふーん….&〈幸福(汗)〉&\underline{《喜び》}\\\cline{1-1}\cline{4-4}15&&&あー,ワクワクするなあ.&&《嫌だ》\\\cline{1-1}\cline{4-4}16&&&楽しみだなあ.&&\\\hline\multicolumn{6}{r}{※4巻155ページより引用}\end{tabular}\end{center}\subsubsection{ナレーションを見落とす問題}ナレーションや非直接的な吹き出し(吹き出しと人物の間を複数の丸で結ぶもの)は,人物の心境を表し,真の内在する情緒が記述されているといえる.下記の例では,ナレータのいうとおり,まる子が〈幸福〉の表情でお母さんに話しかけているのはお母さんの心境に探りをいれているのであって,《喜び》をもって話をしているのではない.\#2の台詞は非直接的な吹き出しの部分であるが,その台詞は「不安」な気持ちを直接的に述べており,情緒タグとしては《恐れ》が適当である.\vspace{\baselineskip}\begin{center}\setlength{\tabcolsep}{3pt}\begin{tabular}{|c|c|c|l|c|c|}\hline\#&コマ&話者&\multicolumn{1}{|c|}{台詞}&表情&情緒\\\hline1&3&まる子&はっ,お父さんとお母さん,&〈幸福〉&《恐れ》\\&&&ケンカしてるらしいね.&〈恐れ(青)〉&\\\cline{1-1}\cline{4-4}2&&&たいしたことなきゃいいけど.&&\\\cline{1-1}\cline{3-6}3&&お父さん&&〈怒り〉&《怒り》\\\cline{1-1}\cline{3-6}4&&お母さん&&〈怒り〉&《怒り》\\\hline5&4&まる子&ねえお母さん,今日の夕食お寿司にしてえ.&〈幸福〉&\underline{《喜び》}\\\cline{1-1}\cline{4-4}6&&&お願いー.&&《期待》\\\cline{1-1}\cline{3-6}7&&ナレータ&このように子供は自らリトマス紙となり,&&\\&&&親のケンカの深刻さを調べるのだ.&&\\\hline\multicolumn{6}{r}{※7巻127ページより引用}\end{tabular}\end{center}\subsection{複雑な情緒の扱い}\label{sec6.2}複雑な情緒に対するタグの付与について考察する.\subsubsection{複雑な情緒の例}本稿は,プルチックの8つの基本的な情緒を参考に情緒タグを定めた.その利点として,複雑な情緒を基本的な情緒の組み合わせで扱うことが挙げられる.その利点を活かすために,本コーパスでは,1つのコマ・1人の人物において,複数の情緒が同時に推定できるとき,それらの付与を認めている.たとえば,下記の例では,\#5,6,7のたまちゃんの台詞には,たまちゃんの情緒として,《喜び》と《好ましい》を同時に付与する.ここで,プルチックの分類に従うと,《喜び》と《好ましい》に対しては,《愛》という複雑な情緒が対応する.\vspace{\baselineskip}\begin{center}\begin{tabular}{|c|c|c|l|c|c|}\hline\#&コマ&話者&\multicolumn{1}{|c|}{台詞}&表情&情緒\\\hline1&1&たまちゃん&ねえ,まるちゃん.&〈幸福〉&《期待》\\\cline{1-1}\cline{4-4}2&&&母の日には,何あげる?&&\\\cline{1-1}\cline{3-6}3&&まる子&え?&〈驚き〉&《驚き》\\\cline{1-1}\cline{4-4}4&&&何かあげるの?&&\\\hline5&2&たまちゃん&そりゃそうよ.&〈幸福〉&《喜び》\\\cline{1-1}\cline{4-4}6&&&いつも,お世話になっているお母さんだ&&《好ましい》\\&&&もん.&&→《愛》\\\cline{1-1}\cline{4-4}7&&&母の日くらいお礼しなきゃ.&&\\\cline{1-1}\cline{3-6}8&&まる子&あんた子供の癖に義理がたいわねェ.&&\\\hline\multicolumn{6}{r}{※6巻4ページより引用}\end{tabular}\end{center}\subsubsection{複雑な情緒へのタグ付与}プルチックは,2つの基本的な情緒の組により複雑な情緒として23種類を示した.そこで,その組に従い,本コーパスの基本的な情緒の2つ組に対して,複雑な情緒を表すタグを付与し,そのタグに対する同意率を求めた.同意率は,各情緒について最大30件のランダムサンプリングにより検査した.同意の判定には,複雑な情緒の英語側の語義を考慮に入れた.表\ref{tab7}にその結果を示す.全体で,同意率は63\%となったが,複雑な情緒ごとに見ると同意率の開きが大きい.\begin{table}[t]\begin{center}\caption{複雑な情緒のタグ付与と同意率}\label{tab7}\begin{tabular}{rccrrc}\hline\hline\#&複雑な情緒&情緒の組み合わせ&件数&同意率&(同意数/サンプル数)\\\hline1&楽観&喜び+期待&1,231&100\%&(30/30)\\2&好戦的&期待+怒り&11&100\%&(11/11)\\3&懸念&期待+恐れ&70&97\%&(29/30)\\4&歓喜&喜び+驚き&110&93\%&(28/30)\\5&みじめ&嫌だ+悲しみ&234&87\%&(26/30)\\6&憂鬱&喜び+嫌だ&71&83\%&(25/30)\\7&嫉妬&怒り+悲しみ&27&81\%&(22/27)\\8&憤慨&驚き+怒り&22&77\%&(17/22)\\9&警戒&恐れ+驚き&252&77\%&(23/30)\\10&絶望&恐れ+悲しみ&81&73\%&(22/30)\\11&失望&驚き+悲しみ&38&73\%&(22/30)\\12&軽蔑&嫌だ+怒り&239&63\%&(19/30)\\13&運命&期待+好ましい&19&53\%&(10/19)\\14&愛&喜び+好ましい&62&47\%&(14/30)\\15&自慢&喜び+怒り&10&30\%&(3/10)\\16&恥&恐れ+嫌だ&452&27\%&(8/30)\\17&悲観&期待+悲しみ&37&17\%&(5/30)\\18&罪悪感&喜び+恐れ&25&16\%&(4/25)\\19&皮肉&期待+嫌だ&35&7\%&(2/30)\\20&服従&恐れ+好ましい&4&0\%&(0/4)\\21&好奇心&驚き+好ましい&3&0\%&(0/3)\\22&-&驚き+嫌だ&178&&\\23&-&喜び+悲しみ&51&&\\24&-&期待+驚き&42&&\\25&-&恐れ+怒り&18&&\\26&-&嫌だ+好ましい&2&&\\27&支配&好ましい+怒り&0&&\\28&感傷的&好ましい+悲しみ&0&&\\\hline&&&3,324&63\%&(320/511)\\\hline\end{tabular}\end{center}\end{table}\subsubsection{複雑な情緒の対応関係の誤り分析}同意のできなかった理由について考察する.\begin{itemize}\item「cynicism(皮肉・冷笑)」について,「期待+嫌だ」の対象が人間である必要がある.下記の正例では,まる子は,丸尾の態度に《嫌だ》と思いつつ丸尾がツチノコ探しを続けることに《期待》をしているので,冷笑の様子と言える.しかし,下記の負例では,まる子が今の洋服が気に入らないこととして《嫌だ》が付与されているが,同時にお母さんが要求に応えてくれることの《期待》が付与されている.\begin{description}\item(正例)\begin{description}\item[丸尾:]スタモツチノコ株式会社さえ成功すれば世界は我々のものなのです.\item[まる子:]そうかなァ….《期待》,《嫌だ》\item[ナレータ:]世界がツチノコごときに従うとは思えない.\end{description}\begin{flushright}(4巻,48ページより引用)\end{flushright}\item(負例)\begin{description}\item[まる子:]お母さん,お母さん.\itemもっと夜会服って感じのないかね.\itemロングスカートでさあ.《嫌だ》,《期待》\item[お母さん:]ないわよ.\end{description}\begin{flushright}(7巻,117ページより引用)\end{flushright}\end{description}\item「罪悪感」について,「喜び+恐れ」は《喜び》の対象や原因と,《恐れ》の原因とが一致しなければならない.たとえば,下記の正例では,お母さんは,お父さんの発言を原因として,《喜び》を感じつつ,《恐れ》も感じているので,「罪悪感」がある.しかし,下記の負例では,おじいちゃんは,《恐れ》の余韻が残っているだけで,「罪悪感」はない.\begin{description}\item(正例)\begin{description}\item[お父さん:]どれどれまる子と噂になってるはまじってどれだ?\item[お姉ちゃん:]この子よ,この子.\item[お父さん:]おー,おもしれー顔してるなァ.\itemまる子と結婚したら夫婦で漫才やらせよう.\item[お母さん:]お父さん,まる子が聞いたら怒るわよ.《喜び》,《恐れ》\end{description}\begin{flushright}(8巻,26ページより引用)\end{flushright}\item(負例)\begin{description}\item[まる子:]おじいちゃん,火事だよ.\item[おじいちゃん:]たっ,大変じゃ.早く逃げろっ.\itemまる子っ,こっちに来るんじゃ.\item[まる子:]違う,違う,うちじゃないよ.よその火事!!\item[おじいちゃん:]…そうかい….よそかい……《喜び》,《恐れ》\end{description}\begin{flushright}(10巻,27ページより引用)\end{flushright}\end{description}\item「悲観」を構成する「期待+悲しみ」のうち《期待》について,本稿は「予期」とせずポジティブな解釈を認めているため「悲観」の語感にそぐわなくなった.《悲しみ》の中で何かに《期待》を持ちつつ行動する様子は「悲観」というより「辛抱強い」あるいは「意地」といえる.\begin{description}\item(負例)\begin{description}\item[お父さん:]こりゃ祭も中止だな.\item[まる子:]嫌だっ.\item夕方までに止むもん….\itemお祭に行けるもん….《悲しみ》,《期待》\end{description}\begin{flushright}(6巻,61ページより引用)\end{flushright}\end{description}\item「恥」は「恐れ+嫌だ」であるが,情緒主の評価を下げることに関連しなければならない.しかし,下記の例では,まる子が酷く恐れているのであって「恥」にはならない.\begin{description}\item(負例)\begin{description}\item[まる子:]あー神様神様,大地震なんて絶対絶対来ませんように….\item《恐れ》,《嫌だ》\end{description}\begin{flushright}(2巻,97ページより引用)\end{flushright}\end{description}\end{itemize}上述の分析によると,9分類系の情緒タグだけでは,複雑な情緒をそのまま扱うことは難しい.複雑な情緒を扱う上で,コーパスにはさらなる情報の付与が必要である.\subsubsection{複雑な情緒への対処に向けて}複雑な情緒を扱うために必要な情報とは,情緒の原因・対象についての情報である.特に次の点が重要である:\begin{itemize}\item対人性:情緒の生じる原因・対象として関わる人物を明確にすること.\item他の情緒との関連性:注目している情緒の原因・対象が,組となるもう一方の情緒の原因・対象と同一であるかどうか.\item情緒主への評判:情緒の原因・対象,および,その影響が,情緒主の評判に関わるかどうか.\end{itemize}たとえば,次のように情緒タグに情報を付加することが考えられる.\begin{description}\item(例)\begin{description}\item[u1:]お父さん:おー,おもしれー顔してるなァ.\item[u2:]お父さん:まる子と結婚したら夫婦で漫才やらせよう.\item[u3:]お母さん:おとうさん,まる子が聞いたら怒るわよ.\end{description}\begin{description}\item《喜び,原因:u2,対人性:0,評判:0》,\item《恐れ,原因:u2,対人性:+,評判:0》\end{description}\end{description}ここまでタグが付与されているならば,「罪悪感」のタグの付与は,同一の原因である《喜び》と《恐れ,対人性:+》の存在を基に自動で行うことができる.さらに,より厳密に情緒をタグで表そうとすると,上記の情報の他に,OCCモデルでEvent,Agent,Objectで体系的に示されるような情報やゴール・プランや選好等に関する情報も必要になる\cite{Ortony88}.また,心的状態を表すタグを付与する方法がある\cite{徳久&中野&山下&岡田01}.しかし,こうした豊富な情報をコーパスに付与しようとすると,言語表現されていない背景事情を表すためのタグが非常に多くなる.たとえば,上述の{\bfu2}という原因の表示は,ここでは幸いにも適当なラベルとして使用できたが,常にこの程度の粒度のラベルで原因がカバーできるとは限らない.そのような目に見えない情報に対するタグは,表記が複雑になり分析者の負担が非常に重い\cite{古塩&徳久04}.
\section{おわりに}
本稿は,信頼性の高い情緒タグ付き対話コーパスを実現することを狙い,漫画の対話文を対象に,登場人物の表情を参照する方法によって情緒タグを付与した.また,得られた対話コーパスの信頼性を評価した.具体的には,漫画「ちびまる子ちゃん」(10冊)を対象に,1話につき2人のタグ付与作業者が「表情タグ(7種類)」と「情緒タグ(9種類)」を一時的に付与した後に,正解とする表情タグと情緒タグを両者が協議により決定した.その結果,コーパスの規模は,29,538文(388,809文字),表情タグ14,040個,情緒タグ16,635個となった.また,漫画本の言語表現の電子化とタグの付与は約3ヶ月で完了した.次に,コーパスの信頼性を次の3点から評価した:\begin{description}\item(1)一致率:コーパス構築の途中段階で一時的に付与される情緒タグにおける作業者間の一致の割合\item(2)同意率:コーパス構築の最終段階で決定される情緒タグについて,作業者以外の者から得られる同意の割合\item(3)有効性:構築したコーパスは言語分析に使用する価値があるか.\end{description}(1)について,2者の一時的な情緒タグの一致率は,9分類系の情緒タグにおいて65.2\%($\kappa$=0.444),3分類系の情緒タグにおいて78.0\%($\kappa$=0.640)であった.関連研究\cite{Litman03}における3分類系の情緒の一致率が81.75\%($\kappa$=0.465〜0.624)であったことに対し,本稿は近い結果を得たことから,本稿のタグの安定性は良好な部類に属することがわかった.また,表情を参照しない場合の9分類系情緒タグの一致率が60.5\%($\kappa$=0.382)であったことより,表情を参照することにより安定性が向上することが確認できた.(2)について,サンプリング検査によると,同意率は97\%(414/425)となった.コーパスにおいて一時的なタグの一致率の低かった部分において,最終的に正解として決定した情緒タグの同意率を求めたところ97\%(158/163)となったことより,正確さが確保できていることが確認できた.(3)について,得られたコーパスを「情緒表現性のある文末表現の抽出」に使用したところ,11,027件の情緒タグ付きの台詞から3,164件の文末表現が情緒の共起割合とともに抽出された.漫画から作成したコーパスであるが,自然で情緒的な文末表現が見られたことから,本コーパスは言語表現と情緒の関係を分析する上で有効であることの一例が示された.以上から,情緒判定において,漫画に登場する人物の表情は,音声に匹敵する言語外情報を持つことが分かり,それを利用したタグ付与方法の信頼性が確認された.今後の課題として,異なる漫画を対象にコーパスを構築すること,漫画以外の言語表現(たとえば,blogなど)との共通性を調査することが挙げられる.\acknowledgment本研究は科学技術研究費補助金(若手研究(B):課題番号17700151)の下で行いました.コーパスへの言語表現の収録作業にご協力頂きました田中勝弘氏・東弘之氏(鳥取シルバー人材センター),そして,タグ付与にご協力頂きました研究室メンバーに深く感謝します.漫画「ちびまる子ちゃん」の著者さくらももこ氏に敬意を表します.\begin{thebibliography}{}\bibitem[\protect\BCAY{Craggs\BBA\Wood}{Craggs\BBA\Wood}{2004}]{Craggs&Wood04}Craggs,R.\BBACOMMA\\BBA\Wood,M.~M.\BBOP2004\BBCP.\newblock\BBOQAtwodimensionalannotationschemeforemotionindialogue\BBCQ\\newblockIn{\BemExploringAttitudeandAffectinText:TheoriesandApplications},\BPGS\44--49.AAAIPress.\bibitem[\protect\BCAY{Ekman\BBA\Friesen}{Ekman\BBA\Friesen}{1990}]{エクマン&フリーセン90}Ekman,P.\BBACOMMA\\BBA\Friesen,W.~V.\BBOP1990\BBCP.\newblock工藤力\hspace*{-0.5zw}(訳編)\hspace*{-0.5zw},\Jem{表情分析入門}.\newblock誠心書房.\bibitem[\protect\BCAY{Litman\BBA\Forbes}{Litman\BBA\Forbes}{2003}]{Litman03}Litman,D.\BBACOMMA\\BBA\Forbes,K.\BBOP2003\BBCP.\newblock\BBOQRecognizingemotionsfromstudentspeechintutoringdialogues\BBCQ\\newblockIn{\BemAutomaticSpeechRecognitionandUnderstandingWorkshop}.\bibitem[\protect\BCAY{Narayanan}{Narayanan}{2002}]{Narayanan02}Narayanan,S.\BBOP2002\BBCP.\newblock\BBOQTowardsmodelinguserbehaviorinhuman-machineinteractions:EffectofErrorsandEmotions\BBCQ\\newblockIn{\BemISLEWorkshoponTaggingformultimodaldialogsWorkshop}.\bibitem[\protect\BCAY{Ortony,Clore,\BBA\Collins}{Ortonyet~al.}{1988}]{Ortony88}Ortony,A.,Clore,G.~L.,\BBA\Collins,A.\BBOP1988\BBCP.\newblock{\BemTheCognitiveStructureofEmotions}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Plutchik}{Plutchik}{1960}]{Plutchik60}Plutchik,R.\BBOP1960\BBCP.\newblock\BBOQTheMultifactor-AnalyticTheoryofEmotion\BBCQ\\newblock{\BemTheJournalofPsychology},{\Bbf50},pp.~153--171.\bibitem[\protect\BCAY{池原,阿部,徳久,村上}{池原\Jetal}{2004}]{池原04}池原悟,阿部さつき,徳久雅人,村上仁一\BBOP2004\BBCP.\newblock\JBOQ非線形な表現構造に着目した重文と複文の日英文型パターン化\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(3),pp.~69--95.\bibitem[\protect\BCAY{遠藤,小方}{遠藤\JBA小方}{2003}]{遠藤&小方03}遠藤泰弘,小方孝\BBOP2003\BBCP.\newblock\JBOQマンガの言説技法を統合する枠組みとしてのハイパーコミック\JBCQ\\newblock\Jem{マンガ研究},{\Bbf4},pp.~113--132.\bibitem[\protect\BCAY{金子}{金子}{2006}]{金子06}金子真\BBOP2006\BBCP.\newblock\JBOQ焦点化副詞「ナンカ」が表わす否定的評価の派生について\JBCQ\\newblock\Jem{言語処理学会第12回年次大会ワークショップ「感情・評価・態度と言語」論文集},pp.~33--36.\bibitem[\protect\BCAY{古塩,徳久,村上,池原}{古塩\Jetal}{2004}]{古塩&徳久04}古塩貴行,徳久雅人,村上仁一,池原悟\BBOP2004\BBCP.\newblock\JBOQ情緒注釈付きコーパスの誤り分析\JBCQ\\newblock\Jem{人工知能学会全国大会},2G3--02.\bibitem[\protect\BCAY{さくらももこ}{さくらももこ}{1987--1993}]{さくら87-93}さくらももこ\BBOP1987--1993\BBCP.\newblock\Jem{ちびまる子ちゃん},1〜10\JVOL.\newblock集英社.\bibitem[\protect\BCAY{徳久,中野,山下,岡田}{徳久\Jetal}{2001}]{徳久&中野&山下&岡田01}徳久雅人,中野育恵,山下智之,岡田直之\BBOP2001\BBCP.\newblock\JBOQ情緒を加味した深いタスク指向の対話理解のためのルールベースの構築\JBCQ\\newblock\Jem{信学技報},{\BbfTL2001-25},pp.~21--28.\bibitem[\protect\BCAY{徳久,岡田}{徳久,岡田}{1998}]{徳久&岡田98}徳久雅人,岡田直之\BBOP1998\BBCP.\newblock\JBOQパターン理解的手法に基づく知能エージェントの情緒生起\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(8),pp.~2440--2451.\bibitem[\protect\BCAY{徳久,寺嶌}{徳久,寺嶌}{2006}]{徳久R&寺嶌06}徳久良子,寺嶌立太\BBOP2006\BBCP.\newblock\JBOQ雑談における発話のやりとりと盛り上がりの関連\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf21}(2),pp.~133--142.\bibitem[\protect\BCAY{中澤}{中澤}{2005}]{中澤05}中澤潤\BBOP2005\BBCP.\newblock\JBOQマンガのコマの読みリテラシーの発達\JBCQ\\newblock\Jem{マンガ研究},{\Bbf7},pp.~6--21.\end{thebibliography}\begin{biography}\bioauthor{徳久雅人}{1995年九州工業大学大学院情報工学研究科博士前期課程修了.同年同大学情報工学部助手.統合的知能エージェントの開発に従事.2002年より鳥取大学工学部助手.自然言語処理の研究に従事.情報処理学会,電子情報通信学会,人工知能学会,言語処理学会各会員.}\bioauthor{村上仁一}{1984年筑波大学第3学群基礎工学類卒業.1986年同大学修士課程理工学研究科理工学専攻修了.同年NTT情報通信処理研究所に勤務.1991年国際通信基礎研究所(ATR)自動翻訳電話研究所に出向.1998年より鳥取大学工学部助教授.主に音声認識のための言語処理の研究に従事.電子情報通信学会,日本音響学会,言語処理学会各会員.}\bioauthor{池原悟}{1967年大阪大学基礎工学部電気工学科卒業.1969年同大学大学院修士課程修了.同年日本電信電話公社に入社.数式処理,トラフィック理論,自然言語処理の研究に従事.1996年スタンフォード大学客員教授.1996年より鳥取大学工学部教授.工学博士.1982年情報処理学会論文賞,1993年同学会研究賞,1995年日本科学技術情報センター賞(学術賞),同年人工知能学会論文賞,2002年電気通信普及財団賞(テレコム・システム技術賞),2006年人工知能学会業績賞受賞.電子情報通信学会,人工知能学会,言語処理学会,機械翻訳協会各会員.}\end{biography}\biodate\end{document}
| |
V10N04-06 | \section{はじめに}
\label{sec:intro}\thispagestyle{empty}機械翻訳,言語横断的な検索や要約など複数の言語を同時に扱うシステムにおいて対訳辞書は必要不可欠であり,その品質がシステム全体の性能を左右する.これらに用いられる対訳辞書は現在,人手によって作成されることが多い.しかし,人手による作成には限界があり,品質を向上するためには膨大な労力が必要であること,辞書の記述の一貫性を保つことが困難であることが問題となる.このことからコーパスから自動的に対訳辞書を作成しようとする研究が近年盛んに行われている~\cite{tanaka_96,kitamura_97,melamed_97,yamamoto_01,kaji_01}.しかし,これらの研究の多くは対訳表現の対応度の計算に単語の共起関係を利用しているためにデータスパースネスに陥りやすく,そのため小規模なコーパスから対訳表現を抽出することは難しい.対訳コーパス自体があまり多くない現状では,小規模な対訳コーパスからでも対訳表現を抽出できることが望ましい.本論文では,サポートベクタマシン~\cite{vapnik_book_99}を用いて文対応付き対訳コーパスから対訳表現を抽出する手法を提案する.サポートベクタマシンは訓練事例と分割境界の距離(マージン)を最大化する戦略に基づく手法であり,従来からある学習モデルに比べて汎化能力が高く過学習しにくいために,データスパースネスに対して頑健であるという特徴を持つ.さらにカーネル関数を用いることによって非線形な分割境界を学習したり,素性同士の依存関係を自動的に学習することが可能である.このため,自然言語処理の分野でもテキスト分類~\cite{joachims_98,taira_99},Chunk同定~\cite{kudo_00b},構文解析~\cite{kudo_00a}などに応用されている.我々の手法は,訓練コーパスによって対訳モデルをあらかじめ学習する必要があるが,一旦モデルを学習してしまえば,訓練コーパスにおいて出現回数が少ない対訳表現あるいは訓練コーパスにおいて出現しなかった対訳表現でさえも抽出することができる.したがってある程度大規模な対訳コーパスから優れた対訳モデルを学習しておけば,サポートベクタマシンの高い汎化能力によって低頻度の対訳表現でも抽出が可能であるという特徴を持つ.本論文の構成は以下の通りである.\ref{sec:svm}~節ではサポートベクタマシンについて説明し,\ref{sec:SVMdict}~節ではサポートベクタマシンを用いて対訳表現を抽出する手法を述べる.\ref{sec:experiment_discussion}~節では我々が提案した手法の有効性を示すために行った実験の結果とそれに対する考察を述べる.\ref{sec:related_works}~節において関連研究との比較を行う.最後に\ref{sec:conclusion}~節で本論文のまとめを述べる.
\section{サポートベクタマシン}
\label{sec:svm}サポートベクタマシン(SupportVectorMachine,以下SVM)\cite{vapnik_book_99}は,$d$~個の素性を持つ事例を$d$~次元ベクトルによって表し,${\bfR}^d$において2~つのクラスに線形分離する二値分類器である.与えられた事例$\vec{x}=(x_1,x_2,\ldots,x_d)^t$がクラス$X_{-1},X_{+1}$のどちらに属するかを式~(\ref{eq:classify})によって判別する.\begin{equation}\label{eq:classify}f(\vec{x})=\sign(g(\vec{x}))=\left\{\begin{array}{rl}+1&\left(\vec{x}\inX_{+1}\right)\\-1&\left(\vec{x}\inX_{-1}\right)\\\end{array}\right.\end{equation}ここで$g$は2~つのクラスを分離する超平面であり,$\vec{w}$と$b$は学習によって決定する.\begin{equation}\label{eq:hyperplain}g(\vec{x})=\vec{w}^t\vec{x}+b\end{equation}訓練事例$\vec{x}_1,\ldots,\vec{x}_n$に対する教師信号$y_1,\ldots,y_n$を以下のように与える.\[y_i=\left\{\begin{array}{rl}+1&\left(\vec{x}_i\inX_{+1}\right)\\-1&\left(\vec{x}_i\inX_{-1}\right)\\\end{array}\right.\]訓練事例が線形分離可能である場合には,式~(\ref{eq:classify})を満たすような$\vec{w}$,$b$は複数存在することから以下のような制約を与える.\begin{equation}\label{eq:constraint}\foralli,\quady_i(\vec{w}^t\vec{x}_i+b)-1\geq0\end{equation}SVMでは,訓練事例と分割境界の間の距離(マージン)を最大化する戦略に基づきパラメータ$\vec{w}$,$b$を決める.詳しい導出は文献~\cite{vapnik_book_99}に譲るが,最終的にマージンの最大化の問題は式~(\ref{eq:constraint})の条件の下に$||\vec{w}||^2/2$を最小化する問題に帰着する~\footnote{実際の実験ではある程度の誤りを許すソフトマージン項を追加したモデルを用いた.}.これを2~次計画法によって解くことで最適な分離平面$g$が得られる.事例$\vec{x}$に対して$g(\vec{x})$の符号はクラスを表し,絶対値はクラス分けの確信度を表す.また,以下のようにシグモイド関数によって$\vec{x}$がクラス$X_{+1}$に分類される確率を近似することができる~\cite{platt_99}.\begin{equation}\label{eq:sigmoid}P(\vec{x}\inX_{+1}|\vec{x})=\frac{1}{1+\exp(-g(\vec{x}))}\end{equation}\paragraph{非線形分離への拡張:}線形分離が困難な事例に対しても,前処理として非線形な写像$\phi:{\bfR}^d\mapsto{\bfR}^{d'}$を用いてそれらをより高次元に写像することによって線形分離できる場合がある.写像先の空間${\bfR}^{d'}$において線形分離を行えば元の空間${\bfR}^d$において非線形分離を行っているのと同じことになる.詳しい導出は省略するが,SVMでは学習,識別アルゴリズムにおいて事例間の内積しか使用していない点を生かし,各事例間の内積$\vec{x}_i^t\vec{x}_j$を式~(\ref{eq:kernel})に置き換えることによって高次元への写像を実現する.\begin{equation}\label{eq:kernel}K(\vec{x}_i,\vec{x}_j)=\phi(\vec{x}_i)^t\phi(\vec{x}_j)\end{equation}$K$はカーネル関数と呼ばれる.実際には$\phi$自体の計算をする必要がないので,計算量の面でも非常に効率的である.よく使われるカーネル関数の例としては多項式型カーネル関数~(\ref{eq:poly_kernel})などが知られている.\begin{equation}\label{eq:poly_kernel}K(\vec{x}_i,\vec{x}_j)=(\vec{x}_i^t\vec{x}_j+1)^p\end{equation}$p$~次の多項式型カーネル関数による非線形分離は,元の空間${\bfR}^d$においては$p$~個の素性の依存関係を考慮していることに相当する.
\section{SVMを用いた対訳表現の抽出}
\label{sec:SVMdict}本論文で提案する手法は,対訳文となっている日本語文と英語文から,その中に含まれる句の対訳関係を抽出する.その手法は以下の2~つの手順から構成される.\begin{quote}\begin{enumerate}\item訓練コーパスにおいて対訳関係となっている表現(対訳対)とそうでない表現を人手によって分類,前者を正事例,後者を負事例とし,これらからSVMによって対訳モデルを学習する(\ref{sec:learn}~節).\item対訳文となっている日英両言語の文を構文解析し,得られた句構造から対訳対と成り得る候補(対訳対候補)の集合を作成する.それらを対訳モデルに入力することによって対訳関係であるかどうかを判別する(\ref{sec:extraction}~節).\end{enumerate}\end{quote}本手法の概略図を図~\ref{fig:struct}に示す.\begin{figure}[tbp]\begin{center}\epsfile{file=struct.eps,width=.8\columnwidth}\caption{本手法の概略}\label{fig:struct}\end{center}\end{figure}\subsection{使用する素性}\label{sec:feature}SVMを対訳関係の抽出に用いるためには,対訳対候補から素性ベクトルを作成する必要がある.本論文で提案する手法では表~\ref{tab:features}のような素性を用いて素性ベクトルを構成した.\begin{table}[t]\centering\caption{対訳表現の抽出に使用した素性}\label{tab:features}\begin{small}\begin{tabular}{|ll|r|}\hline&\multicolumn{1}{c|}{素性}&\multicolumn{1}{c|}{個数}\\\hline\hline&既存の辞書を使用する素性&\\\hline(1a)&対訳対候補内の対訳単語対&1,558\\(1b)&対訳対候補が現れる文脈で共起する語同士の対訳単語対&2,408\\\hline&単語数を使用する素性&\\\hline(2a)&日本語句の単語数&1\\(2b)&英語句の単語数&1\\\hline&構成する品詞に関する素性&\\\hline(3a)&日本語句における名詞,動詞,形容詞,形容動詞,副詞の出現割合&5\\(3b)&英語句における名詞,動詞,形容詞,副詞の出現割合&4\\\hline&構成する語に関する素性&\\\hline(4a)&日本語句に出現する語&3,006\\(4b)&英語句に出現する語&2,654\\\hline&句の近傍に出現する語に関する素性&\\\hline(5a)&日本語句の近傍に現れる語&3,266\\(5b)&英語句の近傍に現れる語&2,859\\\hline\hline&\multicolumn{1}{c|}{合計}&15,762\\\hline\end{tabular}\end{small}\end{table}既存の辞書を使用する素性を2~種類用いる.素性~(1a)は,対訳対候補に含まれる語について辞書引きを行い,対訳となっている単語の組(対訳単語対)が対訳対候補に含まれていればそれを素性とする.対訳関係となっている表現には対訳単語対が多く含まれることに基づく素性である.辞書に含まれる対訳単語対を素性ベクトルの次元に割り当て,対訳対候補内に対訳単語対が現れた場合は対応する次元の値を1とし,そうでなければ0とする.素性~(1b)は,対訳対候補の近傍に出現した語について辞書引きを行い,辞書に含まれる対訳単語対を素性とする.「対訳関係にある表現は近傍に出現している語の出現文脈も(言語の違いこそあれ)似ている」という考え~\cite{kaji_01}に基づく素性である.本論文における実験では,同一文に現れる語を近傍とした.辞書に含まれる対訳単語対を素性ベクトルの次元に割り当て,対訳対候補の近傍に対訳単語対が現れた場合は対応する次元の値を1とし,そうでなければ0とする.対訳辞書という既存の知識を素性という形で有効に利用することによって精度の向上を期待することができる.素性~(2a)(2b)は,対訳関係となっている表現は両言語の句の構成語数に相関関係があるという考えに基づく.日英それぞれの句に含まれる語数を素性とした.素性~(3a)(3b)は,対訳関係となっている表現は内容語に関してはその構成比率について両言語間に相関関係があるという考えに基づく.日英それぞれについて句の語数に対する内容語の出現数の割合を素性とする.なお,日本語の内容語は名詞,動詞,形容詞,形容動詞,副詞とし,英語の内容語は名詞,動詞,形容詞,副詞とした.素性~(4a)(4b)は,日英両言語を構成する内容語に素性ベクトルの次元を割り当て,語が出現すれば対応する次元の値を1とし,そうでなければ0とする素性である.素性~(5a)(5b)は,対訳対候補の近傍に現れた内容語に素性ベクトルの次元を割り当て,語が出現すれば対応する次元の値を1とし,そうでなければ0とする素性である.対訳文中に既存の対訳辞書によって辞書引きできない語が多数含まれる場合がある.素性~(4a)(4b)(5a)(5b)はそのような場合に既存の対訳辞書を用いた素性~(1a)(1b)を補完する目的で導入した.カーネル関数によって素性~(4a)と(4b)の依存関係,素性~(5a)と(5b)の依存関係をモデルに組み込むことによって,既存の対訳辞書に現れない対訳単語対における素性~(1a)(1b)と同じ役割を期待することができる.\subsection{対訳モデルの学習}\label{sec:learn}訓練コーパス中の各対訳文において対訳関係となっている表現とそうでない表現を人手によって作成する.対応する日英の両文を構文解析し,得られた両言語の句の組合わせについて,対訳表現となっているものを正事例とし,そうでないものを負事例とする.本論文における実験では,組合わせの対象とする句は名詞句と動詞句とした.また,巨大すぎる句構造は対訳表現としての実用的な価値が少ないと思われることから,句の部分構文木の高さが5以下のものを組合わせの対象とした.本論文における実験では,日本経済新聞社英文ビジネスレター文例大事典~\cite{nikkei_business_corpus}を対訳コーパスとして用いた.英文ビジネスレター文例大事典の各対訳文は対訳対となる部分があらかじめマークアップされており,対訳表現として抽出すべき句の制約(部分構文木の高さが5以下の名詞句,動詞句)を満たす対訳対を正事例とした.負事例は,ApplePieParser~\footnote{{\tthttp://www.cs.nyu.edu/cs/projects/proteus/app/}}とKNP~\footnote{{\tthttp://www-lab25.kuee.kyoto-u.ac.jp/nl-resource/knp.html}}によって構文解析した結果から対訳表現として抽出する句の制約を満たすもののうち,対訳表現になっていないものを選んだ.具体的には,各対訳文に1~対ずつある対訳対$(p_j,p_e)$($p_j$は日本語句,$p_e$は英語句)に対して,日英各文を構文解析することによって得られた句$p_j'(\neqp_j)$や$p_e'(\neqp_e)$を用いた$(p_j',p_e)$や$(p_j,p_e')$を負事例とした~\footnote{本来であれば,構文解析によって得られた句の全ての組合わせから人手によって正事例と負事例に分割して学習するべきであるが,$p_j$や$p_e$を含む全ての対訳対候補の中から対訳対$(p_j,p_e)$を高い精度で抽出できることを示せれば本手法の有効性を示すことができることから上記の実験設定で十分であると考える.}.このようにして得られた全ての事例から\ref{sec:feature}~節で述べた方法によって素性ベクトルを作成し,教師信号として正事例には$+1$,負事例には$-1$を与える.これを訓練データとして\ref{sec:svm}~節で述べたSVMによって対訳モデルの学習を行い,式~(\ref{eq:hyperplain})における最適な分離平面$g$を得る.\subsection{対訳対の抽出}\label{sec:extraction}まず,抽出の対象となる対訳対の候補を作成する.対訳文になっている日英両言語の文を構文解析し,得られた日英両言語の句の組合わせを対訳対候補の集合とする.訓練データと条件を同じにするために,対象とする句は部分構文木の高さが5以下の名詞句と動詞句とした.生成した対訳対候補から\ref{sec:feature}~節で述べた方法によって素性ベクトルを作成する.それらと\ref{sec:learn}~節で述べた方法によって得た最適な分離平面$g$を用いて,その対訳対候補の「対訳対らしさ」を測る.対訳対候補$(p_j,p_e)$に対応する素性ベクトルを$\vec{x}_{p_jp_e}$とした時,最適な分離平面$g$を用いて$(p_j,p_e)$の「対訳対らしさ」を以下の式によって表す.\begin{equation}\label{eq:sim}sim(p_j,p_e)=\frac{1}{1+\exp(-g(\vec{x}_{p_jp_e}))}\end{equation}任意の$(p_j,p_e)$に対して$0<sim(p_j,p_e)<1$であり,$sim(p_j,p_e)$が大きいほど$(p_j,p_e)$が「対訳対らしい」ことを表す.一つの句が複数の句と対応することはないことから,以下のようなアルゴリズムによって対訳対の抽出を行う.\begin{quote}\begin{enumerate}\item[{\bf入力:}]閾値$th\in[0,1]$\\対訳文中の対訳対候補の集合$C$\item[{\bf出力:}]抽出された対訳対の集合$T$\item[{\bf1.}]$T\leftarrow\emptyset$\item[{\bf2.}]$th\leqsim(p_j,p_e)$となる$(p_j,p_e)\inC$がなければ終了.\item[{\bf3.}]$\displaystyle(p_j^*,p_e^*)=\argmax_{(p_j,p_e)\inC}sim(p_j,p_e)$となる$(p_j^*,p_e^*)$を対訳対として抽出し$T$に追加する.\item[{\bf4.}]$p_j^*$や$p_e^*$を含む対訳対候補を$C$から削除する.\item[{\bf5.}]{\bf2.}へ戻る.\end{enumerate}\end{quote}$th$の値によって得られる対訳対の品質を調節することができる.$th$の値が$1$に近い時には抽出数が少なくなる代わりに確信度が高い対訳対だけを抽出し,逆に$th$の値が$0$に近い時には確信度が多少低いものも抽出することによって抽出数を優先する.上記の処理は1~文単位で行う.そのため\ref{sec:learn}~節によって対訳モデルを一旦学習してしまえば抽出対象となるコーパスは小規模なものでもよく,たとえ1~文からでもそこに含まれる対訳対を抽出することができる.
\section{実験および考察}
\label{sec:experiment_discussion}\subsection{実験結果}\label{sec:results}\ref{sec:SVMdict}~節において提案した手法の有効性を確認するために,日本経済新聞社英文ビジネスレター文例大事典~\cite{nikkei_business_corpus}を対訳コーパスとして用いた実験を行った.コーパスに含まれる対訳文のうち,訓練コーパスとして4,000~文,テストコーパスとして1,000~文を用い,\ref{sec:learn}~節に従い対訳対候補を生成した.その結果,本論文における実験の対象となった対訳対候補の数は表~\ref{tab:candidates}の通りとなった.また,対訳対候補に含まれる形態数の平均値とコーパス中における対訳対候補の出現頻度の平均値を表~\ref{tab:avg_length_count}に示す.\begin{table}[tbp]\centering\caption{対訳対候補の数}\label{tab:candidates}\begin{small}\begin{tabular}{|l|r|r|}\hline&\multicolumn{1}{c|}{正事例}&\multicolumn{1}{c|}{負事例}\\\hline訓練コーパス&4,000&59,203\\テストコーパス&1,000&15,048\\\hline\end{tabular}\end{small}\end{table}\begin{table}[tbp]\centering\caption{対訳対候補の平均形態素数と平均頻度}\label{tab:avg_length_count}\begin{small}\begin{tabular}{|l|r|r|r|r||r|r|r|r|}\hline&\multicolumn{4}{c||}{平均形態素数}&\multicolumn{4}{c|}{平均頻度}\\\cline{2-9}&\multicolumn{2}{c|}{正事例}&\multicolumn{2}{c||}{負事例}&\multicolumn{2}{c|}{正事例}&\multicolumn{2}{c|}{負事例}\\\cline{2-9}&\multicolumn{1}{c|}{\makebox[.9cm]{日本語}}&\multicolumn{1}{c|}{\makebox[.9cm]{英語}}&\multicolumn{1}{c|}{\makebox[.9cm]{日本語}}&\multicolumn{1}{c||}{\makebox[.9cm]{英語}}&\multicolumn{1}{c|}{\makebox[.9cm]{日本語}}&\multicolumn{1}{c|}{\makebox[.9cm]{英語}}&\multicolumn{1}{c|}{\makebox[.9cm]{日本語}}&\multicolumn{1}{c|}{\makebox[.9cm]{英語}}\\\hline訓練コーパス&5.03&3.97&4.96&4.23&1.06&1.04&1.33&1.26\\テストコーパス&5.10&4.09&5.03&4.62&1.01&1.01&1.25&1.12\\\hline\end{tabular}\end{small}\end{table}得られた事例から\ref{sec:feature}~節に従って素性を生成する.素性~(1a)(1b)のために使用する対訳辞書としてEDICT~\footnote{\tthttp://www.csse.monash.edu.au/$\mbox{}^\sim$jwb/edict.html}に含まれる対訳単語対のうち,訓練コーパス中に出現した2,879個を用いた.素性~(4a)(4b)(5a)(5b)のために使用する語として,訓練コーパス中に3回以上出現する語を用いた.その結果,用意した素性の個数は表~\ref{tab:features}の通りとなった.対訳モデルの学習では,カーネル関数を用いない場合(linear)と2~次,3~次,4~次の多項式型カーネル関数(poly2,poly3,poly4)を用いた場合の実験を行った.訓練コーパスから得られた事例を用いて対訳モデルの学習を行い,テストコーパスから得られた事例から対訳対の抽出を行った.それぞれの対訳モデルにおいて抽出アルゴリズムの閾値$th$の値を0.1,0.5,0.7,0.9と変化させた時の適合率と再現率を図~\ref{fig:result}\begin{figure}[tbp]\begin{center}\epsfile{file=result.eps,width=.6\columnwidth}\caption{対訳モデルと抽出精度}\label{fig:result}\end{center}\end{figure}に示す.各点の右に示した数字が閾値$th$である.もっとも良い抽出精度を示した2~次多項式型カーネル関数を用いた場合の適合率と再現率を表~\ref{tab:result}\begin{table}[tbp]\centering\caption{2~次多項式型カーネル関数による対訳モデルの適合率と再現率}\label{tab:result}\begin{small}\begin{tabular}{|c|r|r|r|r|}\hline閾値$th$&出力数&正解数&\multicolumn{1}{c|}{適合率(\%)}&\multicolumn{1}{c|}{再現率(\%)}\\\hline0.1&1,000&804&80.4&80.4\\0.5&960&776&80.8&77.6\\0.7&701&594&84.7&59.4\\0.9&265&229&86.4&22.9\\\hline\end{tabular}\end{small}\end{table}に示す.また2~次多項式型カーネル関数を用い,抽出時の閾値$th=0.5$の時の対訳対の抽出例を表~\ref{tab:success}\begin{table*}[tbp]\centering\caption{本手法による対訳対の抽出例}\label{tab:success}{\small\begin{tabular}{|l|l|r|}\hline\multicolumn{1}{|c|}{日本語句$p_j$}&\multicolumn{1}{c|}{英語句$p_e$}&\multicolumn{1}{c|}{$sim(p_j,p_e)$}\\\hline本部に異動いたします&movetothecorporateheadquarters&0.899\\会長として経営を続ける&carryonaschairman&0.862\\長年の海外勤務&ourmanyyearsofserviceoverseas&0.824\\新しい人事異動&anewassignment&0.823\\2年の任期を1期もしくはそれ以上の期間&foroneormoretwo-yearterms&0.605\\\hline\end{tabular}}\end{table*}に示す.以上の結果から,本論文で提案した手法によって1,000~文という比較的小規模なコーパスから低頻度の対訳対でも高い精度で抽出できることが示された.\subsection{対訳モデルと抽出精度}\label{sec:kernel}SVMは使用するカーネル関数とそれに付随するパラメータに自由度があり,それらは実験的に決定する必要がある.そこで本論文で行った実験においてもカーネル関数を使わない場合(linear)と2~次,3~次,4~次の多項式型カーネル関数(poly2,poly3,poly4)を用いた場合の実験を行った.linearによる抽出精度は多項式型カーネル関数を使用した場合よりも低い.\ref{sec:feature}~節で述べた素性が,素性同士の依存関係がカーネル関数によって自動的に学習されることを期待しているためであると考えられる.多項式型カーネル関数を用いた場合には2~次(poly2)がもっとも良い抽出精度となった.本論文で行った実験における訓練事例の数や素性の構成では,2~次多項式型カーネル関数によって2~個の素性の依存関係を学習することが最適であることを示している.SVMは,より高次元の多項式型カーネル関数を用いることによってより多くの素性の依存関係を考慮した複雑なモデルを学習することが可能であるが,あまりに多くの素性の依存関係を学習してしまうと,その中には学習する必要のないものも含まれることになり,過学習によってモデルの性能を悪化させる結果になることが予想される.本論文における実験でも同様の現象が起こっていると考えられる.\subsection{訓練コーパスの大きさと抽出精度}\label{sec:corpus_size}訓練コーパスの文数が抽出精度に与える影響を調べるために,訓練コーパスの文数を200~文から4,000~文まで200~文ずつ増やしながら対訳モデルの学習を行い,テストコーパスからの抽出における適合率と再現率を求める実験を行った結果を図~\ref{fig:size_dict}(左)に示す.使用したカーネル関数は2~次多項式型カーネル関数であり,抽出時の閾値$th$は0.5とした.適合率,再現率ともに訓練コーパスの文数にほぼ比例して上昇しており,訓練コーパスの文数が精度に大きな影響を及ぼしていることがわかる.このため本手法は,対訳モデルの学習において比較的大規模なコーパスを用いる必要がある.しかし,抽出時には処理を1~文単位で行うので,一旦学習が完了してしまえば抽出対象となるコーパスは小規模なものでもよく,たとえ1~文からでもそこに含まれる対訳対を抽出することができる.\begin{figure}[tbp]\centering\begin{tabular}{cc}\epsfile{file=size.eps,width=.47\textwidth}&\epsfile{file=dict.eps,width=.47\textwidth}\end{tabular}\caption{訓練コーパスの文数と精度の関係(左)と対訳辞書の大きさと精度の関係(右)}\label{fig:size_dict}\end{figure}\subsection{辞書の大きさと抽出精度}\label{sec:dict_size}素性~(1a)(1b)で用いている既存の対訳辞書の大きさが抽出精度に与える影響を調べるために,使用する対訳単語対の数を0~個から2,800~個まで100~個ずつ増やしながら対訳モデルの学習を行い,テストコーパスからの抽出における適合率と再現率を求める実験を行った結果を図~\ref{fig:size_dict}(右)に示す.使用したカーネル関数は2~次多項式型カーネル関数であり,抽出時の閾値$th$は0.5とした.適合率,再現率ともに使用する対訳単語対の数にほぼ比例して上昇しており,本手法において使用する対訳辞書は可能なかぎり多くの対訳単語対を含むものを用いた方が良いことがわかる.\subsection{素性と抽出精度}\label{sec:important_features}素性の重要度を調べるために,\ref{sec:feature}~節において述べた素性を1~種類ずつ削除して対訳モデルの学習を行い,テストコーパスからの抽出における適合率と再現率の増減を求める実験を行った結果を表~\ref{tab:important_features}に示す.使用したカーネル関数は2~次多項式型カーネル関数であり,抽出時の閾値$th$は0.5とした.適合率と再現率における括弧内の値は素性1~個あたりの増減である.\begin{table*}[tbp]\centering\caption{素性を削除した時の適合率と再現率の増減}\label{tab:important_features}{\small\begin{tabular}{|ll|r|rr@{}l|rr@{}l|}\hline\multicolumn{2}{|c|}{素性}&\multicolumn{1}{c|}{個数}&\multicolumn{3}{c|}{適合率(\%)}&\multicolumn{3}{c|}{再現率(\%)}\\\hline\hline&辞書による素性&3,966&$-13.1$&$(-3.3$&$\times10^{-3})$&$-13.9$&$(-3.5$&$\times10^{-3})$\\\hline(1a)&対訳対内対訳単語対&1,558&$-9.0$&$(-5.8$&$\times10^{-3})$&$-9.3$&$(-6.0$&$\times10^{-3})$\\(1b)&対訳対外対訳単語対&2,408&$-3.2$&$(-1.3$&$\times10^{-3})$&$-4.0$&$(-1.7$&$\times10^{-3})$\\\hline\hline&語数による素性&2&$-4.2$&$(-2.1$&$\times10^{\pm0})$&$-3.0$&$(-1.5$&$\times10^{\pm0})$\\\hline(2a)&日本語語数&1&$-2.2$&$(-2.2$&$\times10^{\pm0})$&$-2.1$&$(-2.1$&$\times10^{\pm0})$\\(2b)&英語語数&1&$-2.5$&$(-2.5$&$\times10^{\pm0})$&$-2.6$&$(-2.6$&$\times10^{\pm0})$\\\hline\hline&品詞による素性&9&$-4.0$&$(-4.4$&$\times10^{-1})$&$-4.2$&$(-4.7$&$\times10^{-1})$\\\hline(3a)&日本語品詞&5&$-1.0$&$(-2.0$&$\times10^{-1})$&$-1.3$&$(-2.6$&$\times10^{-1})$\\(3b)&英語品詞&4&$-2.4$&$(-6.0$&$\times10^{-1})$&$-2.6$&$(-6.5$&$\times10^{-1})$\\\hline\hline&構成語による素性&5,660&$-3.1$&$(-5.5$&$\times10^{-4})$&$-4.0$&$(-7.1$&$\times10^{-4})$\\\hline(4a)&日本語構成語&3,006&$-2.2$&$(-7.4$&$\times10^{-4})$&$-3.9$&$(-1.3$&$\times10^{-3})$\\(4b)&英語構成語&2,654&$-2.4$&$(-9.0$&$\times10^{-4})$&$-3.4$&$(-1.3$&$\times10^{-3})$\\\hline\hline&近傍語による素性&6,125&$-2.2$&$(-3.7$&$\times10^{-4})$&$-2.5$&$(-4.1$&$\times10^{-4})$\\\hline(5a)&日本語近傍語&3,266&$-1.3$&$(-4.1$&$\times10^{-4})$&$-1.6$&$(-4.9$&$\times10^{-4})$\\(5b)&英語近傍語&2,859&$-2.0$&$(-6.9$&$\times10^{-4})$&$-2.2$&$(-7.7$&$\times10^{-4})$\\\hline\hline&全ての素性を使用&15,762&80.8&&&77.6&&\\\hline\end{tabular}}\end{table*}素性1~個あたりの精度の増減では,語数による素性~(2a)(2b)と品詞による素性~(3a)(3b)を削除した時の下落が特に大きい.(2a)(2b)に属する素性は全ての事例に存在し,(3a)(3b)に属する素性も他の素性に比べるとはるかに多くの事例に存在する素性である.したがって,モデル構築におけるこれらの役割は大きく,ゆえに削除した時の精度の下落が大きくなると考えられる.その他では,対訳辞書による素性~(1a)(1b)を削除した時の下落が大きい.素性~(1a)は日英両言語の句の中で既存の対訳辞書によって辞書引きできるものがあるかどうかを表しており,この情報が句の対訳関係を推定する際には極めて重要であるという我々の直感と合致する.また素性~(1b)の仮定である「対訳関係にある表現は近傍に出現している語の出現文脈も(言語の違いこそあれ)似ている」という考えが対訳モデルの構築において効果が大きいことが示された.その他の素性を削除した時も抽出精度の下落を引き起こしており,対訳モデルの構成において有効であることが示された.\subsection{認識誤りと素性}\label{sec:mistake}認識誤りの原因を調べるために,テストコーパスにおいて正しく認識された事例と正しく認識されなかった事例における素性の出現個数(素性値が0以外となる要素の個数)の平均値を計算した(表~\ref{tab:avg_features}).使用したカーネル関数は2~次多項式型カーネル関数であり,抽出時の閾値$th$は0.5とした.出力と記された行において$+1$と記されている列はシステムが対訳対であると認識した事例を表し,$-1$と記されている列は対訳対でないと認識した事例を表す.素性~(1b)の行に注目すると,対訳対でないと識別された負事例に対して,対訳対として識別されてしまった負事例における素性~(1b)の出現個数の平均値がかなり大きく,正事例の場合の値とあまり差のない値となっている.このことは,対訳対として識別されてしまった負事例の近傍に対訳単語対がよく現れていることを表している.本論文における実験では,同一文に現れる語を近傍とし,素性~(1b)は辞書中の対訳単語対が近傍に出現するか否かを表しているので,特に頻出する対訳単語対に関する素性~(1b)の出現個数は増えやすく,それが認識誤りを招いていると考えられる.したがって近傍の定義を「同一文内」ではなく,「日本語句・英語句から$n$~語以内」のように近傍の範囲を狭くしたり「日本語句・英語句と係り受け関係にある」のようにより関連性が強いものだけを素性にすることによってこのような誤りは減らすことができると思われる.しかし,表~\ref{tab:important_features}からわかるように,近傍の範囲を狭くすることによって素性~(1b)が減りすぎると精度が下落するので,今回の実験では近傍を「同一文内」とした.\begin{table}[tbp]\centering\caption{一事例あたりの素性の出現個数の平均値}\label{tab:avg_features}\begin{small}\begin{tabular}{|l|r|r|r|r|}\hline\multicolumn{1}{|c|}{事例}&\multicolumn{2}{c|}{正事例}&\multicolumn{2}{c|}{負事例}\\\hline\multicolumn{1}{|c|}{出力}&\multicolumn{1}{c|}{$+1$}&\multicolumn{1}{c|}{$-1$}&\multicolumn{1}{c|}{$+1$}&\multicolumn{1}{c|}{$-1$}\\\hline\hline\multicolumn{1}{|c|}{事例数}&\makebox[.9cm][r]{776}&\makebox[.9cm][r]{224}&\makebox[.9cm][r]{184}&\makebox[.9cm][r]{14,864}\\\hline\hline(1a)対訳対内対訳単語対&1.07&0.83&0.13&0.04\\(1b)対訳対外対訳単語対&3.75&3.88&3.51&2.75\\(2a)日本語語数&1.00&1.00&1.00&1.00\\(2b)英語語数&1.00&1.00&1.00&1.00\\(3a)日本語品詞&1.50&1.41&1.38&1.50\\(3b)英語品詞&1.72&1.60&1.96&1.55\\(4a)日本語構成語&4.92&4.47&4.32&4.77\\(4b)英語構成語&3.68&3.15&4.24&3.93\\(5a)日本語近傍語&4.47&4.40&4.39&4.45\\(5b)英語近傍語&4.54&4.59&4.54&4.53\\\hline\end{tabular}\end{small}\end{table}
\section{関連研究との比較}
\label{sec:related_works}本手法と同様に対訳文の文対応が既に付いていることを前提にしている研究には文献~\cite{melamed_97,kitamura_97,yamamoto_01}などがあげられる.\cite{melamed_97}はCompetitiveLinkingAlgorithmという単語対のリンク付け法と2つのパラメータに対する山登り法を組み合わせて単語対の対応度を求める手法を提案した.しかしMelamedの手法は1~単語対1~単語の対応を仮定しており,日本語と英語のように構造が大きく異なる言語に対して適用するのは困難である.\cite{kitamura_97}はDice係数~\cite{kay_93}を対訳対の出現頻度の対数によって重み付けする重み付きDice係数を提案し,これを対訳対の対応度として採用した.\cite{yamamoto_01}は北村らの手法を改良し,文節の依存関係が対訳表現の抽出において有効な手がかりであることを示した.北村らの手法と山本らの手法が対応度として採用している重み付きDice係数は対訳対の出現回数に依存しているので,出現回数が少ない対訳対に対する対応度はデータスパースネスのために信頼することができず,したがって小規模な対訳コーパスから対訳対を抽出することは難しい.それに対して本手法は対訳表現の抽出を統計的機械学習のアプローチで捉えており,対訳モデルの学習において対訳対の出現回数に依存しない素性を用いて対訳対を特徴づける.したがって,本手法は訓練コーパスによって対訳モデルをあらかじめ学習する必要がある反面,一旦モデルを学習してしまえば訓練コーパスにおいて出現回数が少ない対訳対あるいは出現しなかった対訳対でさえもデータスパースネスに陥ることなく抽出することができるという特徴がある.本手法と同様に対訳対の抽出を統計的機械学習の枠組みで捉えている研究として文献~\cite{satoken_NLP02}があげられる.佐藤らは最大エントロピー法(MaximumEntropyMethod,以下ME~法)~\cite{berger_96}を用いて文対応付き対訳コーパス上に対訳単語対の確率モデルを推定・抽出する手法を提案した.単語の共起情報と品詞情報を使用した素性約12,000~個を用い,推定確率0.1以上の単語対に対して行った抽出では適合率73.64\,\%,再現率21.79\,\%を実現した.この手法は,一旦モデルを学習してしまえば未知語を含むコーパスに対して学習し直す必要がないという点において本論文で提案した手法と共通点がある.\cite{satoken_NLP02}における報告とは使用しているコーパス・素性や抽出対象が異なるので,本論文で行った実験において使用したコーパス・素性を用いてME~法によって抽出する実験を本手法との比較のために行った.対訳対候補$(p_j,p_e)$に対応する素性ベクトル$\vec{x}_{p_jp_e}$が正事例である確率$P(\vec{x}_{p_jp_e}\inX_{+1}|\vec{x}_{p_jp_e})$をME~法によって推定し,これを式~(\ref{eq:sim})の代わりに用いて対訳表現の抽出を行った.その結果,$th=0.5$において適合率69.2\,\%,再現率63.6\,\%となった.これはカーネル関数を用いない対訳モデル(linear)とほぼ同じ精度である.本論文で使用した素性は,素性同士の依存関係がカーネル関数によって自動的に学習されることを期待しているためであると考えられる.一般に素性同士には依存関係があるので,ME~法では素性同士の依存関係を表す素性を新たに作成する必要がある.その結果,素性の総数が非常に多くなってしまい,過学習を起こす危険があるため,ヒューリスティックによって有効な素性だけを選別したり,貪欲戦略に基づく素性選択アルゴリズム~\cite{berger_96}を使用して素性の総数を減らす手法を用いることが多い.しかし,前者は選別の基準が難しく,後者は計算量が膨大になるという欠点がある.例えば本論文で用いた素性15,762~個を用いて2~つの素性の依存関係を表す素性を生成し,これらを用いてME~法によって確率モデルを推定しようとすると,素性の総数がおよそ250~万個となり,現実的な時間で計算することは困難である.一方,SVMでは多項式型カーネル関数を用いることによって計算量をほとんど増やすことなく素性同士の依存関係を自動的に学習することができる.一方,本手法と異なり,対訳文の文対応が付いていることを前提としない研究には文献~\cite{tanaka_96,kaji_01}などがあげられる.これらの手法は「一方の言語で共起する単語の訳語は他方の言語でも共起する」ということを仮定している.\cite{tanaka_96}は各言語に出現する語の共起確率行列の距離が小さくなるように確率翻訳行列を最適化することによって対訳関係を得る手法を提案した.\cite{kaji_01}は既存の辞書に含まれる単語との対訳対中に含まれる語の共起集合の共通部分の大きさによって対応度を計算している.本論文で提案した手法においても「一方の言語で共起する単語の訳語は他方の言語でも共起する」という仮定を素性~(1b)に用いている点においてこれらの手法と共通点がある.現状では文対応付き対訳コーパスはあまり多くないため,文対応を前提としないこれらの手法は適用できる範囲は広いが,文対応付き対訳コーパスを用いた手法よりも精度が劣る.一方,本手法の前提となっている文対応付き対訳コーパスは,原文に忠実に翻訳した対訳コーパスであれば,\cite{kay_93,utsuro_94,sukehiro_95}などで提案されている手法によって作成することができる.対応する文がなかったり,1つの文が複数の文に対応している場合には人手による後編集が必要になるが,その労力は全て人手による対応付けに比べて比較にならないほど少ないと考えられる.
\section{おわりに}
\label{sec:conclusion}本論文では,SVMを用いて文対応付き対訳コーパスから対訳表現を抽出する手法を提案した.対訳モデルの素性として,対訳辞書による素性,語数による素性,品詞による素性,構成語による素性,近傍に出現する語による素性を使用し,SVMに基づく対訳表現の対応度を用いて対訳表現を抽出する.既存の手法は対訳表現の対応度の計算に単語の共起関係を利用しているためにデータスパースネスに陥りやすく,小規模なコーパスからの対訳表現の抽出は困難である.それに対して本手法は,訓練コーパスによって対訳モデルをあらかじめ学習する必要があるが,一旦モデルを学習してしまえば,訓練コーパスにおいて出現回数が少ない対訳表現あるいは訓練コーパスにおいて出現しなかった対訳表現でさえも抽出することができる.したがってある程度大規模な対訳コーパスから優れた対訳モデルを学習しておけば,サポートベクタマシンの高い汎化能力によって低頻度の対訳表現でも抽出が可能であるという特徴を持つ.本手法の有効性を示すために日英対訳コーパスを用いた対訳表現の抽出実験を行った.対訳モデルの学習に2~次多項式型カーネル関数を使用し,抽出時の閾値$th=0.5$とした時には,1,000文という比較的小規模なコーパスから適合率80.8\,\%,再現率77.6\,\%の精度で抽出できることを示した.また素性の重要度を調べる実験では,語数による素性,品詞による素性,対訳辞書による素性が精度向上に大きく貢献していることがわかった.しかし,対訳対候補の近傍に現れる語を対訳辞書によって辞書引きして得た素性において近傍の範囲を「同一文内」としていることが認識誤りを増やす原因となっている.近傍の範囲を「対訳対候補から$n$語以内」や「対訳対候補と係り受け関係にある」とすることで改善できると思われる.\acknowledgment日経英文ビジネスレター文例大事典の研究利用許諾を頂いた日本経済新聞社に感謝致します.元慶應義塾大学教授の故中西正和先生に深く感謝し,ご冥福をお祈り致します.\bibliographystyle{jnlpbbl}\bibliography{422}\nocite{satoken_coling2002}\nocite{satoken_sci2002}\begin{biography}\biotitle{略歴}\bioauthor{佐藤健吾}{平成7年慶應義塾大学理工学部数理科学科卒業.平成15年同大学大学院理工学研究科博士課程開放環境科学専攻修了.博士(工学).現在,同大学理工学部生命情報学科助手.バイオインフォマティクス,自然言語処理,統計的機械学習などに興味を持つ.情報処理学会,言語処理学会各会員.}\bioauthor{斎藤博昭}{昭和58年慶應義塾大学工学部数理工学科卒業.現在同大理工学部情報工学科専任講師.工学博士.昭和59年よりカーネギーメロン大学に訪問研究員として滞在し,機械翻訳および音声認識の研究に従事.情報処理学会,言語処理学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V22N05-04 | \section{はじめに}
述語項構造は,文章内の述語とその項の間の関係を規定する構造である.例えば次の文,\eenumsentence{\item[][太郎]は[手紙]を{書い}た。}では,「書く」という表現が述語であり,「太郎」と「手紙」という表現がこの述語の項である.述語と項の間の関係は,それぞれの項に,述語に対する役割を表すラベルを付与することで表現される.役割のラベルは解析に用いる意味論に応じて異なるが,例えば表層格を用いた解析では,上記の「太郎」には「ガ格」,「手紙」には「ヲ格」のラベルが与えられる.このように,文章中の要素を述語との関係によって構造的に整理する事で,複雑な文構造・文章構造を持った文章において「誰が,何を,どうした」のような文章理解に重要な情報を抽出することができる.このため,述語項構造の解析は機械翻訳,情報抽出,言い換え,含意関係理解などの複雑な文構造を取り扱う必要のある言語処理において有効に利用されている\cite{shen2007using,liu2010semantic}.\begin{table}[b]\caption{NAISTテキストコーパス1.4b上での精度比較(F値)}\label{tb:system-accracy-comparison}\input{04table01.txt}\par\vspace{4pt}\smallただし,既存研究のデータセットはそれぞれ訓練,評価に用いた事例数が異なっており,厳密な比較を行うことは難しい.\end{table}述語項構造解析の研究は,英語に関するコーパス主導の研究に追随する形で,日本語においても2005年以降に統計的機械学習を用いた手法が盛んに研究され,これまでに様々な解析モデルが提案されてきた.表\ref{tb:system-accracy-comparison}は,今日までの日本語の述語項構造解析に関する研究報告における主要な解析器の精度をまとめたものである.表には,新聞記事に対する解析精度(F値)を,(1)述語(もしくはイベント性名詞.以下,これらを併せて述語と呼ぶ)の項となる文字列が述語と同一文節内にある事例(文節内事例と呼ぶ),(2)述語の項となる文字列と述語の間に直接的な統語係り受け関係が認められる事例(係り有り事例と呼ぶ),(3)述語の項となる文字列が文内に現れるものの,述語との間に直接的な統語係り受け関係が認められない事例(文内ゼロ照応事例と呼ぶ),(4)述語の項となる文字列が文の外に現れている事例(文間ゼロ照応事例と呼ぶ)の別に記した.なお,「文節単位」は項として適切な文字列表現の最右の形態素が含まれる文節を正解の範囲として評価したものであり,「形態素単位」はその最右の形態素を正解の範囲として評価したものである.既存の解析器では直接係り受け関係がある比較的容易な事例においては$90\%$弱と高い精度が得られているものの,統語的な手がかりがより希薄となるゼロ照応の事例においては,文内ゼロ照応で$50\%$弱,文間ゼロ照応で$20\%$前後\footnote{いずれも正解の述語位置と統語係り受け構造を与えた場合}と精度が低い水準にとどまっており,解析の質に大きな開きがあることが認められる.この結果は,日本語ゼロ照応解析の高い難易度を物語っているが,一方で,ゼロ照応の問題がタスク全体に占める割合は十分に大きく無視できない.表~\ref{tbl:instances-ntc1.5}には,標準的な訓練・評価用コーパスであるNAISTテキストコーパス(NTC)1.5版における項の数\footnote{言語処理学会第21回年次大会ワークショップ「自然言語処理におけるエラー分析」\cite{eaws-2015}の述語項構造解析班報告~\cite{eaws-pas-2015}において提案された評価手法と同様の前処理を施した後の数.外界照応は,何らかの要素を指していることは明らかだが,その要素が文章中に出てきていない事例を表す.}を示したが,ここから項構造解析全体の約$40\%$はゼロ照応に関わる問題であることが分かる.したがって,述語項構造解析の研究ではこれら省略された項の解析精度をいかに向上させるかが課題となる.\begin{table}[b]\caption{NAISTテキストコーパス1.5内の各ラベルの事例数}\label{tbl:instances-ntc1.5}\input{04table02.txt}\end{table}しかし,「ゼロ照応の問題」と一括りに言っても,並列構造や制御動詞構文など比較的統語的な現象として説明可能なものから,文脈や談話構造を読み解かなければならないもの,基本的な世界知識を手がかりに推論しなければならないものなど様々であるにもかかわらず,現状では既存のシステムがどのような種類の問題を解くことができ,あるいは解くことができないのかについて明確な知見が得られていないばかりでなく,現象の分布すら知られていない.そこで,我々はこの難解な項の省略解析へ適切にアプローチするために,現象の特徴を出来る限り詳細に分析し把握することを試みる.本稿では,ゼロ照応に関する事例のうち,手始めに探索のスコープが比較的短く,様々な統語的パターンが観測できる文内ゼロ照応の問題に的を絞り,各事例が持つ特徴を構文構造分析と人手による手がかり分析という二つの観点から類型化し,カテゴリごとの分布と最先端システムによる解析精度を示す.具体的には以下の二つの方法で分析を進め,今後の研究で注力すべき課題を考慮する際の参考となるべく努めた.本研究の成果は次のとおりである.(1)文内ゼロ照応の事例において,既存の解析モデルがモデル化している述語間の項の共有関係・機能動詞構文・並列構造といった特徴が,実際の問題にどの程度影響があるかを確かめるために,NTCや京都大学テキストコーパス(KTC)の正解アノテーション情報を利用してこれらの特徴を持つ事例を機械的に分類し,各カテゴリの事例数や現状の解析精度,各カテゴリが理想的に正答できた場合の精度上昇幅等を示した.結果として,特に,対象述語Pと,項と直接係り受け関係にある述語Oとの間で項を共有している事例の割合が文内ゼロ照応全体の$58\%$存在することが分かったほか,これらの中には,PとOが直接的な並列構造や機能動詞構文の形になっているものばかりでなく,局所的な構造の組み合わせによって解が導かれる事例が一定数存在することが分かった.(2)同様に,文内ゼロ照応の事例についてコーパスより抽出した少量のサンプルを用いて,人間が正解を導き出す場合にどのような手がかりを用いるかについてアノテータの内省をもとに分析し,考えられうる手がかりの種類を列挙するとともに,その分布を示した.手がかりの種類を幅広く調査するため,従来より解析器の学習・評価に用いられているNTCに加えて,多様なジャンルの文章を含む日本語書き言葉均衡コーパス(BCCWJ)に対する述語項構造アノテーションデータからもサンプルを収集した.この結果,手がかりの種類とその組み合わせに関する分布が大きな広がりを持っていることが明らかとなった.また,手がかりの組み合わせに関する性質として,それぞれの手がかりが独立に項候補の確信度を上げるように働くものに加えて,(1)の分析で得られた知見と同様に,機能動詞や述語間の意味的なつながりを考慮すべきものなど,局所的な解析結果を順を追って重ねていくことで初めて項候補の推定に寄与する種類の事例も多く存在することが明らかとなった.加えて,それぞれの手がかりを用いる事例に対する既存システムの解析精度より,既存のモデルは統語構造や選択選好を用いる事例に関しては相対的に高い解析精度を示すものの,世界知識や文脈を読み解く必要がある事例や,その他未だ一般化されていない雑多な手がかりを用いる事例に関しては低い精度にとどまっていることが分かり,これらの現象に対する解析の糸口を模索していく必要があることを明らかにした.
\section{関連研究}
ゼロ照応問題に対して解析の手がかりとするための情報は,これまでにも様々考えられてきた.具体的に推定モデルに組み込まれた例としては,一般的な統語係り受けパス情報の他に,(1)各述語がどのような語を項として取りやすいかという選択選好の情報として,名詞,格助詞,述語の共起に関する統計値を用いる手法~\cite{iida2006exploiting,iida2011cross,imamura2009discriminative,sasano2008fully,sasano2011discriminative}や,(2)語が提題化された場合など,文章中のそれぞれの位置における,特定の語の顕現性を表すスコアを用いる手法\cite{sasano2008fully,sasano2011discriminative,imamura2009discriminative,iida2011cross}などがある.また,複数述語間の項の共有に関する情報として,(3)支援動詞辞書を用いる手法~\cite{komachi2006noun}や,(4)スクリプト的な知識を学習する手法(飯田,徳永2010;大内,進藤,Kevin,松本2015)\nocite{iida2010jnlp}\nocite{ouchi2015nl},(5)それぞれの述語の格スロットに出現する項の類似度を用いる手法~\cite{hayashibe2011japanese},(6)直前の述語に対する項構造の解析結果を直後に出現する述語の解析に利用する手法\cite{imamura2009discriminative,hayashibe2014position}などが存在する.そのほか,技術資料としては示されていないものの,述語項構造解析器ChaPASの0.74版\cite{chapas2013}やKNP\cite{knp2013}は,(7)項構造解析の前段の処理として並列構造解析を行っている.しかし一方で,そもそもゼロ照応問題にどのような現象がどの程度あらわれるのか,あるいは,特定の解析モデルが焦点をあてている課題について,どの程度の割合を解くことが出来たかといった定量的な分析はこれまでになされておらず,今後具体的にどのような種類の問題を中心に取り組めばよいか不明瞭な状態となっている.
\section{分析対象}
\subsection{分析用データ}本稿では,分析用データとしてNAISTテキストコーパス(NTC)および日本語書き言葉均衡コーパスに対する述語項構造アノテーションデータ(BCCWJ-PAS)の二種類のデータを利用する.NAISTテキストコーパスは,約四万文の新聞記事に対して項構造アノテーションがなされているコーパスであり,従来より述語項構造解析の研究において統計的機械学習における訓練や解析モデルの評価に利用されてきたものである.このコーパスは分析に十分なデータ量を含んでいるため,\ref{sec:pattern-analysis}~節の構造パターンを利用した分析においてはこのデータを中心に分析を進める.一方で,項構造のうち特にゼロ照応の関係については,新聞のような多数の読者を想定して客観的に事実を述べる場合と,主観的に意見を述べる場合,レビュー記事や歴史書のように前提となる主題が存在する場合,対話文やQAなどの話者が入れ替わる場合などのように,文章のドメインや構造に応じて本質的に異なった情報が手がかりとされることが想定されるため,このような異質な文章ジャンルをバランスよく含むBCCWJに対して分析を行うことで,出来る限り多様な手がかりの種類を明らかにすることを目指すほか,新聞記事データにおける手がかり分布との対比により,ドメイン依存性の問題も議論する.BCCWJ-PASについては,国語研究所・NAIST・東京工業大学で開発が進められている日本語書き言葉均衡コーパスに対する述語項構造アノテーションデータの2014年7月時点の版のうち,BCCWJのCore-Aセクションにおける以下の22文書1,625文からなる部分を評価・分析用データとして利用する.\begin{itemize}\itemOW:OW6X\_00000OW6X\_00010の2記事\itemOY:OY01\_00082OY04\_00001OY04\_00017OY04\_00027OY10\_00067OY12\_00005の6記事\itemPB:PB12\_00001PB2n\_00003PB40\_00003PB42\_00003PB50\_00003PB59\_00001の6記事\itemPM:M12\_00006PM24\_00003PM25\_00001PM26\_00004の4記事\itemPN:PN1b\_00002PN1c\_00001PN1d\_00001PN3b\_00001の4記事\end{itemize}BCCWJ-PASにおけるアノテーションは,NTCとおよそ同等の形式で行われている.ただし,この時点で作業者一名によるアノテーションしか行われていなかったため,同一データに対して第二者によるアノテーションを再度行い,両者のずれを修正したものを利用する\footnote{ただし,共参照情報の修正は対象外とした.}.\subsection{分析対象システムと評価方法}本稿では,現状の最先端システムにおける事例カテゴリ,手がかりカテゴリごとの解析精度を測る目的で,松林\&乾の解析器~\cite{matsubayashi2014}を例に取り,文内ゼロ照応解析について分析を行う.述語項構造解析の既存研究においては,利用しているデータの違いもあり,正確に精度を比較することが難しいが,表\ref{tb:system-accracy-comparison}の概算値比較に基づけば,松林\&乾のシステムは文内ゼロ照応の問題において現状での最高精度を達成するシステムの一つであるといえる.松林\&乾の解析器は,文内の項のみを対象に解析を行うモデルである.入力として文と解析対象の述語位置を受け取り,文中の各形態素について,ガ・ヲ・ニである尤度を点推定の線形分類モデルで推定し,文中で最大の尤度を取る形態素を項として出力する.より具体的には,以下のアルゴリズムで出力を決定する.\begin{enumerate}\item訓練データ内の統計により,項となることが稀な品詞を持つ項候補を枝刈りする.具体的には,IPA品詞体系において「名詞」「動詞」「助動詞」「終助詞」「副助詞」「未知語(未定義語)」の品詞をもつ形態素のみを項候補とする.この枝刈りは,訓練データの$99\%$以上の正解項を保持しつつ,候補を$36\%$削減する.\itemL2-正則化L2-lossのSVMを用いて,項候補に対して\{ガ,ヲ,ニ,NONE\}の多値分類を行うモデルを学習し,各候補について述語毎にそれぞれのラベルに対するスコアを求める.\item述語毎に,文内候補から\{ガ,ヲ,ニ\}の各ラベルについて最もスコアの高いものを一つずつ選ぶ.\{ガ,ヲ,ニ\}のそれぞれについて個別の閾値を定めておき,選出した最尤候補が閾値を超えていれば,その形態素を対象述語の項として認定し,格ラベルと共に出力する.閾値は訓練データでのF値が最大となるように調整する.\end{enumerate}利用している素性についての詳細は松林\&乾~\cite{matsubayashi2014}を参照されたいが,主要なものとして,統語係り受けパス(係り受け方向のみのもの,品詞や主辞,助詞等で語彙化したもの),大規模データより取得された(項,格助詞,述語)の共起情報,見出し語を名詞クラスタにより汎化した素性等が含まれている.注意すべき点として,松林\&乾の実験では学習・推定に正解の統語係り受け木を与えたのに対して,本稿では,KTCと同形式の正解統語係り受け関係データを利用できないBCCWJと設定を合わせるために,公開されているCaboCha0.66モデルの出力結果を用いて学習・推定した結果を用いる.このため,本稿で報告する精度は,元論文で報告されたものより解析精度が低い.また,日本語述語項構造解析の分野では,一般に利用するデータや問題設定の違い,データフォーマットに対する前処理の違いにより,既存研究との正確な精度の比較が困難な状況にある.この状況を改善する目的で,本稿におけるシステムの解析精度評価については,言語処理学会第21回年次大会ワークショップ「自然言語処理におけるエラー分析」\cite{eaws-2015}の述語項構造解析班報告\cite{eaws-pas-2015}において提案された評価手法にもとづいて算出したF値を用いる.この評価手法は,(項,格,述語相当語)のタプルに関して,システムが出力した項の位置が正解データと文節単位で一致しているかを,適合率,再現率,F値によって評価するものであるが,各システムの形態素区切りや文節区切りの差異を緩和するよう工夫されたものである(詳細は\cite{eaws-pas-2015}の2.1節を参照されたい).ただし,京大形式とNAIST形式の二つの異なる格ラベル形式で解析するシステム同士を比較するために導入された,システム出力と正解の項とのアラインメントを取る処理については,今回はNAIST形式の格ラベルを用いた解析システムである松林\&乾のシステムのみを分析対象とするため,ラベルアラインメント無しの方法を選択した.また,以降の分析において,正解の構文構造を必要とする分析手法においては,システムの述語項構造出力を正解の係り受け構造がアノテーションされたNTC(京大コーパス形式)の形態素・文節区切りと対応が取れるよう変換し,正解の統語係り受け木を用いて分析を行う.本節以降,解析精度とは松林\&乾のシステムの精度のことを指す.評価データにおける文内ゼロ照応事例の統計値と解析精度は表~\ref{tb:ntc_zero}のとおりである.\begin{table}[t]\caption{NTC1.5評価データにおける文内ゼロ照応事例数及び解析精度}\label{tb:ntc_zero}\input{04table03.txt}\end{table}
\section{構造パターンの自動分類による事例カテゴリ分析}
\label{sec:pattern-analysis}本節では,既存の解析モデルがモデル化している述語間の項の共有関係・項の類似度,機能動詞構文,並列構造といった特徴が,実際の問題にどの程度影響があるかを確かめるために,特に文内ゼロ照応の事例に焦点を当て,NTCや京都大学テキストコーパス(KTC)の正解アノテーション情報を利用して上記の特徴を持つ事例を機械的に分類し,各カテゴリの事例数や現状の解析精度,各カテゴリが理想的に正答できた場合の精度上昇幅等を示す.既存研究において,複数の述語間の構造的・意味的な関係を解析に用いる場合の一般的な方法は,述語間の何らかの関係を通して,関係が比較的簡単に求まる述語—項ペアの情報を難易度の高い述語—項ペアの解析の手がかりに利用するというものである.このような情報を用いることができる事例を近似的に抽出するために,次の方法を用いて事例を分類する.例えば,図~\ref{fig:ex1}の文において,述語相当の名詞「勉強」(Pで表記)に対するガ格の項(Aで表記)は「太郎」であるが,これらは直接係り受け関係にない.そこで,対象の述語Pと項Aだけではなく,Aと直接係り受け関係にある語Oを考える.もし,語Oも項構造を持っており,かつ,AがOの項でもあるならば,PとOは項を共有しているということになり,直接的に項を推定しやすいAとOの関係を,より間接的な関係となっているAとPの関係推定に利用できる可能性がある.したがって,このような(A,O,P)の組を取り出すことで,複数の述語間の構造的・意味的な関係を利用する手法が被覆する事例の数や,そのような事例における既存システムの現状の精度を分析することができる.ただし,事例によっては文中にAとして適切な複数個の共参照関係にある語が存在する場合がある\footnote{「太郎,太郎,太郎と繰り返し手を振り呼ぶ次郎。」という文における「呼ぶ」のヲ格「太郎」のような場合.}.そのような場合,(i)「Pよりも前にある語を優先する」(ii)「Pに単語位置がより近い語を優先する」の二つのルールを順に適用することでAを一意に定める.また一般に,Aには直接係り受け関係が認められる語の候補として,係り先文節の中にある語および複数の直接係り元文節の中にある語が考えられるため,Oを一意に定めるための方法が必要である.本稿では,AとPの関係において最も関わりが深いと思われる語Oを以下の方法で選択する.\noindent(手順1)Aに対する係り元文節,係り先文節の主辞をOの候補として抽出する.\noindent\hboxto8zw{(手順2)(手順1)\hfil}で抽出した候補のうち,Pとの統語係り受け距離がもっとも近いものを残す.\noindent\hboxto8zw{(手順3)(手順2)\hfil}までで得られた候補のうち,Pに単語位置が最も近いものを一つだけ選ぶ.\noindentこの方法を用いれば,例えば次のような文について,${\rmO}_2$より${\rmO}_1$を優先して選択することが出来る.\eenumsentence{\item[a.][豊か$_{{\rmP}}$]で[興味深い$_{{\rmO}_1}$][世界$_{\rmA}$]が[広がって$_{{\rmO}_2}$]いる。\hspace{0.1truecm}\item[b.]手品を[した$_{{\rmO}_2}$][人$_{\rmA}$]が周りに[驚き$_{{\rmP}}$]を[与える$_{{\rmO}_1}$]。}このように定めたA,O,Pを利用して,分析対象コーパス中に現れる文内ゼロ照応の事例を詳細に分析するために,以下の7つの指標で事例を分類した.\begin{itemize}\setlength{\parskip}{0cm}\setlength{\itemsep}{0cm}\item対象述語(P)の品詞(動詞,サ変名詞,その他)\itemPに対する項(A)の格(ガ,ヲ,ニ)\itemAと直接的に統語係り受け関係がある語(O)の種類(動詞述語,名詞述語,その他の述語,述語ではない)\itemA,O,Pの出現順序\itemOが述語相当語の場合,OとPがAを項として共有しているか\itemOとPがAを項として共有している場合,\begin{itemize}\item二つの格ラベルが一致しているか\itemPとOが並列構造で繋がっているか,PがOの項であるか,それ以外\end{itemize}\itemOとPの間の係り受け距離\end{itemize}Oが述語相当語,つまり項構造を持つ場合については,PとOがAを共有しているかに加えて,さらにPとOが並列関係かどうか,広義の機能動詞構文に典型的なPがOの項となる形になっているかといった観点で分類する.また,OとPでAに対する格関係ラベルが異なる場合は,二つの述語間で主題や動作主が保存される場合に比べてより難易度の高い問題であると想定して区別して分類する.\begin{figure}[t]\begin{center}\includegraphics{22-5ia4f1.eps}\end{center}\caption{文内の直接係り受け関係にない述語と項の例\label{fig:ex1}}\vspace{-1\Cvs}\end{figure}A,O,Pの出現順序は,連体修飾などの構造的な特徴を簡潔にとらえるのに役立つ.\{A,O,P\}の置換として6通りの順序組がありうるが,これらを統語係り受け関係・述語—項関係と併記して示すと,図~\ref{fig:seq}のようになる.このうちOAPとOPAは上述のOを選択するアルゴリズムに従えば出現することはない.AOP,APOは最も一般的な構造であり,並列構造や機能動詞構文(APOの一部)などの構造を含む.POAはOがAを連体修飾する形であり,この一部にはPとOの間に構造的な関係が認められる可能性がある.PAOはPの項がPよりも後ろのOに関連して出現する形である.\begin{figure}[t]\begin{center}\includegraphics{22-5ia4f2.eps}\end{center}\caption{A,O,Pの出現順序と統語係り受け関係・述語—項関係の概観}\label{fig:seq}\par\small実線は直接統語係り受け関係,破線は述語—項関係.OAPとOPAはOを選択するアルゴリズム上,出現することはない.\par\vspace{-1\Cvs}\end{figure}分析対象のデータとして,KTCによる正解統語係り受け情報,並列構造情報が利用できるNTC1.5版を利用する.コーパスは,述語項構造解析の研究で一般的に利用されているTairaetal.\cite{taira2008japanese}の分割に基づいて,訓練,開発,評価用データの区分に分割し,評価データにおいて事例カテゴリ別に出現頻度と既存システムの解析精度を測定する.また,各事例カテゴリにおける具体的な例文の提示や,事例ベースの分析には開発データを利用する.\subsection{分析結果にもとづく考察}\label{sec:discussion}表~\ref{tb:categ1}に分析の結果を示した.まず,格助詞ごとの分布を見ると,文内ゼロ照応の事例はガ格$81\%$,ヲ格$14\%$,ニ格$4\%$と,殆どの事例がガ格の省略である.解析精度はガ格で最も高く,ヲ格,ニ格は殆ど正答が難しい状況となっている.述語側の品詞の分布は動詞$48\%$,サ変名詞$38\%$,その他$13\%$であり,主に動詞とサ変名詞がその大半を占める.品詞別の精度は,動詞が最も高く$45\%$弱,形容詞が最も低く$31\%$,その他は概ね$40\%$前後となっている.次に,Aの直接係り先であるOとの関係を見ると,まずOの品詞は動詞が$60\%$と強い偏りを見せており,また,全体の$74\%$で項構造を持っていることが分かる.さらにこれらの項構造を持つOのうち,Pと項を共有しているものの割合は約$78\%$と高く,文内ゼロ照応全体でみてもOとPの間に項の共有がある事例が$58\%$と半数以上存在することが分かった.これは,並列構造解析や,機能動詞構文,スクリプト知識などを代表とした,項構造間の何らかの関係を利用して解ける可能性のある事例が比較的多数存在することを示している.\begin{table}[p]\centering\rotatebox{90}{\begin{minipage}{571pt}\caption{事例カテゴリ毎の事例数と解析精度}\label{tb:categ1}\input{04table04.txt}\end{minipage}}\end{table}システムの精度をみると,項共有の有無によって解析精度に約$20\%$の大きな開きが見られる.これは,松林\&乾のシステムは述語構造間の高次の関係を明示的にモデル化していないものの,機能語や主辞情報を含む係り受けパスが項共有の情報をある程度とらえているためと考えられる.次に,OとPが項を共有している場合のより詳細な分析として,「二つの述語間で格ラベルが一致しているか」,「PとOが並列構造で繋がっているか,あるいはPがOの項であるか,それ以外か」という二つの指標で事例を分類した結果を述べる.まず,二つの述語で格ラベルが一致しているものは項を共有している事例の$80\%$を占めており,更に,格ラベルが異なる場合と比べて$30\%$弱ほど精度が良いことが分かった.次に,PとOが並列構造で繋がっているものは項を共有する事例の$15\%$,PがOの項である事例(機能動詞構文や制御動詞構文などの事例を含む)は$10\%$と比較的少量に留まっており,その他の事例が$75\%$と大多数であることが分かった.一方,より明確な手がかりがある並列構造や,O,Pが述語—項関係になっているものは,解析精度が65〜67.5\%とそれ以外の事例に比べて高い数値を示す結果となった.これも,前述のとおり松林\&乾のシステムでは解析モデルとして項構造の関係を明示的に扱ってはいないながらも,少なからずこれらの現象の特徴をとらえているためと考えられる.また,並列構造や機能動詞構文の形の事例に関して相対的に高精度が得られていることは,これらの事例がゼロ照応解析の有望な手がかりとなっていることを示す証拠であり,明示的な並列構造解析や機能動詞・制御動詞の辞書的な取り扱いによって精度が更に向上する可能性を示唆していると言える.\begin{table}[b]\vspace{-0.5\Cvs}\caption{A,O,Pの語順,PO間の係り受け距離別の解析精度}\label{tb:aop}\input{04table05.txt}\end{table}表~\ref{tb:aop}にA,O,Pの位置ごとの事例数と解析精度を示した.主要部終端型である日本語ではAPO,AOPの割合が多く,この形が全体の$77\%$を占めている.続いて,OがAを連体修飾する形のPOA,述語PとAの係り先Oが項Aを挟む形のPAOの順となっている.解析精度はAPOの語順で最も高く,F値で$58\%$を達成している.これは前述の並列構造や機能動詞構文のほとんどがAPOの語順を取っているためと考えられるが,一方で,二番目に多く,同様にOとPの並列構造を含むと考えられるAOPの語順では,F値$27\%$と解析精度に大きな開きが見られるのが興味深い.PとOの間の係り受け距離と事例数の関係を見ると1が$50\%$,2が$24\%$,3が$13\%$とおよそ距離に線形に分布している.一般に係り受け距離が遠くなるほど解析精度は低下していくが,PとOの間に直接係り受け関係が見られる事例では$53\%$,特にこのうちAPOの語順を取るものについては$65\%$と比較的高い精度で解析出来ていることが分かった.\subsection{項共有を伴う事例のエラー分析}\label{sec:shared-arg-err-analysis}\ref{sec:discussion}節の分析から,文内ゼロ照応の半数以上が,項と直接係り関係にある述語との項共有を伴うことがわかった.項共有を伴うケースは,それを伴わないケースに比べて手がかりを求めやすく,今後の性能向上の糸口となる可能性が高い.一方で,解析対象述語Pのゼロ照応の項Aが,Aと直接係り受け関係にある述語Oと項共有を伴う事例のうち,PとOが直接的に並列構造となっている,もしくは機能動詞構文に典型的な述語Oが項としてPをとっているものの割合は合わせて$25\%$程度にとどまっていた.そこで,我々は項共有を伴う残り$75\%$の事例のうち,松林\&乾のシステムで解析エラーとなったものを分析し,どのような情報を用いて複数の述語にまたがる項の関連性をとらえることができるかを分析した.具体的には,文内ゼロ照応にあたる述語—項ペアについて,\ref{sec:discussion}節の分析カテゴリのうち,PとOが項Aを共有しており,PとOが並列関係でなく,PがOの項となっていない事例について,開発データ上で松林\&乾のシステムが正しい項の位置を当てられなかった事例(偽陰性の事例)を無作為に$50$事例抽出し,これらを人手で分析した.表~\ref{tb:err-ctg}には,分析した事例をカテゴリ化し,その分布を示した.以下では,それぞれのカテゴリについて簡単に説明する.なお,例文は実際に分析した開発セット中の事例であるが,必要に応じて文構造を簡略化してある.\begin{table}[t]\hangcaption{PとOが項Aを共有するもののうち,PとOが並列関係でなく,PがOの項ではない事例の\mbox{エラー}カテゴリ分布}\label{tb:err-ctg}\input{04table06.txt}\end{table}\begin{description}\item[述語の並列構造・広義の機能動詞構文・モダリティ表現の組み合わせ]\mbox{}\\\ref{sec:discussion}節の分析では,PとOが直接的に並列構造となっている,もしくは機能動詞構文に典型的な述語Oが項としてPをとっているもののみを扱ったが,実際にはこれらの局所的な問題の組み合わせによって,長距離の述語項関係が導き出せる事例が存在する.例えば,次の文では「行政改革委員会」は直接的には「開き」にかかっており,この「開き」と文末尾の「決めた」が並列関係となっていることから,この二つの述語が主語を共有していることが分かる.さらに,この「決めた」という述語と解析対象の述語「意見具申する」が機能動詞構文の形をとっていることから,「決める」と「意見具申する」の主語が同一であると推定でき,結果として「具申する」のガ格が「行政改革委員会」であることが導かれる.\begin{screen}行政改革委員[会$_\text{ガ}$]は第二回会合を[\ul{開き}$_\mathrm{O}$]、行革推進方策について政府に意見具申[する$_\mathrm{P}$]ことを決めた。\end{screen}また,モダリティ相当表現が複合する形もよく見られた.以下の例では,「強めており」と「方針(だ)」が並列関係であるが,「求める方針だ」は「求めるつもりだ」相当の表現であり,このことから,「強めており」と「求める」の主語が同一であることが導かれる.\begin{screen}批判している[グループ$_\text{ガ}$]は危機感を強めて[\ul{おり}$_\mathrm{O}$]、除名処分を強く[求める$_\mathrm{P}$]方針。\end{screen}\item[係り受けで連鎖する述語・名詞間の意味的関係]\mbox{}\\統語的・機能的な構造だけからは項の共有が導けないが,PとAの係り受けパスの内側にある述語や名詞の間に,その意味的な関係により項構造の伝播が認められる事例.例えば,次の例では「訪ね」と「要請した」が並列構造であり,その統語関係から主語を共有していることが判断できるが,「訪ね」の目的語である「党首」と「要請した」の述語—項関係は統語的には導けない.しかし,常識的なスクリプト的知識に基づけば,「Aを訪ね、要請した」は,「Aに要請するためにAを訪ねた」と類推できる.その結果を受けて,さらに機能動詞構文の構造により「Aに協力を要請する」は「Aが協力する」へ,「Aが推進へ協力する」は「Aが推進する」へと読み替えられ,最終的に解析対象述語「推進」のガ格として「党首」を取りうることが導かれる.\begin{screen}飯田会長は、新進党の海部[党首$_\text{ガ}$]を事務所に[\ul{訪ね}$_\mathrm{O}$]、行政改革[推進$_\mathrm{P}$]への協力を要請した。\end{screen}\item[発言者の認識]\mbox{}\\文中に発話の引用が含まれ,発話文中の動作主が,発話者であるような事例.このような事例では,発話内容の範囲,および発話者の特定が解析の手がかりとなる.\begin{screen}研究[グループ$_\text{ガ}$]は、中心に存在する天体はブラックホール以外に[考え$_\mathrm{P}$]られないと[\ul{結論づけた}$_\mathrm{O}$]。\end{screen}\item[機能語相当表現の認識]\mbox{}\\複数の形態素をひとまとまりとして一つの文法的機能を持つ複合辞を認識することで,解析の手がかりとして適切な単位を得ることができる場合がある.例えば,以下の例では「の場合」が提題化の機能相当の表現であり,この部分を一つの副助詞相当とみなせば,「佐藤氏」と「競合する」は直接係り受け関係にある.\begin{screen}佐藤[氏$_\text{ガ}$]の[\ul{場合}$_\mathrm{O}$]、現状では新進党の海部俊樹党首と競合[する$_\mathrm{P}$]が(後略)\end{screen}\item[世界知識を用いた推論が必要]\mbox{}\\文内の情報から述語項関係が読み解けるが,その推定に知識推論が必要と思われる事例.例えば,下の例で「支持する」のガ格とされている「自治労」は,直接的には「中執見解を了承した」という事実だけが言及されており,特段の知識がない場合は「支持する」と「自治労」は結びつかない.ただし,ここで中執とは中央執行部のことで,自治労は基本的に中央執行部の意見を会議で承認し,組合全体としてそれに従うという知識があれば,「支持しないとの中執見解を了承した」という表現から,中央執行部の「支持しない」という意思決定を了承するならば,自治労は支持しない,という関係が読み解ける.\begin{screen}$[自治労_\text{ガ}]$は十一日、東京都内のホテルで全国委員長会議を[\ul{開き}$_\mathrm{O}$]、社会党の山花貞夫・新民主連合会長らによる新党準備会は支持[し$_\mathrm{P}$]ないとの中執見解を了承した。\end{screen}\item[文脈・背景知識が必要で一文からは判断不可能]\mbox{}\\下記の例では,解析対象述語「除名」の選択選好からヲ格は人であることがわかり,また文中に出現する人物は「山花氏ら」しかいないが,除名されるのが山花氏らであるかどうかを判断するための十分な情報が文中には存在しない.\begin{screen}山花氏[ら$_\text{ヲ}$]は[除名$_\mathrm{P}$]処分を行わないよう執行部に[\ul{働きかけて}$_\mathrm{O}$]いる。\end{screen}\end{description}カテゴリは,既存研究で扱っている現象の延長上にあり比較的取り扱いが明瞭な統語的・機能的な現象および単純な共起関係から推定できる選択選好をまとめた「統語的・機能的・選好的」と,現状では取り扱いが難しい知識を用いた推論や談話構造解析を含む「知識・談話的」,「その他」の三つに大別した.表~\ref{tb:err-ctg}から,従来研究で扱う現象の延長として説明できる「統語的・機能的・選好的」の割合が全体の$46\%$程度,知識推論や談話構造理解などのより高度な知識処理が必要と思われる事例の割合が$32\%$程度存在することがわかった.特徴的な点としては,\ref{sec:discussion}節の分析では,PとOが直接的に並列構造となっている,もしくは機能動詞構文に典型的な述語Oが項としてPをとっているものなど,特定の現象が単独で出現する場合のみを区別して扱っていたが,実際にはこれらが部分問題として出現している例が多く見られた.特に,動詞や名詞の項構造が,係り受けの鎖の中で連鎖的に関連しているケースにおいては,これらの部分的な手がかり同士は,相補的に確信度を高め合っているのではなく,統語的関係として隣り合う項構造どうしの関係の連鎖を順に解析することで目的の解にたどり着く事例が多く見られた.このような事例は特に「述語の並列構造・広義の機能動詞構文・モダリティ表現の組み合わせ」,「係り受けで連鎖する述語・名詞間の意味的関係」,および「世界知識を用いた推論が必要」のカテゴリによく見られた.この結果を受けて,次に,分析対象事例中に「解析対象述語Pと項を共有し,かつ並列構造にある述語が存在する」「解析対象述語Pと項を共有し,かつPを項に取る述語が存在する」事例を調べることで,これらの現象の解析が正答に直接的にあるいは部分問題として間接的に寄与するであろう事例の数を調べた.また,この際,エラー分析中に顕著に出現した現象である「提題化表現」「発話引用」の事例についても分析に含めた.\begin{table}[b]\caption{事例カテゴリ毎の事例数と解析精度}\label{tb:instance-gategory2}\input{04table07.txt}\end{table}表~\ref{tb:instance-gategory2}より,第一に,項が文内で「は」「について」「の場合」などの機能語相当表現で提題化されている事例はゼロ照応全体の$39\%$存在しており,文外での提題化とあわせて全体で約半数が提題化の標識を手がかりとできる事例であることが分かる.提題化されている事例では提題化されていない事例に比べて相対的に高い解析精度を示しているが,一方で,文内ゼロ照応の問題のほとんどがガ格を推定する問題であることを鑑みれば,提題化の情報は強い手がかりと想像されるにもかかわらず,現状では提題化されながらも必ずしも正答できない事例が少なからず存在しており,ゼロ照応解析の問題の中に,複雑な現象が絡み合っていることを容易に想像させる.第二に,項を共有している述語との並列構造が項特定の部分的な手がかりとして含まれる事例がゼロ照応問題全体の$13\%$弱を占め,機能動詞構文などに典型的な「Pと項を共有し,かつPを項に取る述語が存在する」事例が$19\%$弱を占めることがわかった.特に後者の事例は,PがAと直接係り受け関係にあるOの項となっている場合の事例数に比べて$3$倍強となっており,異なる述語間の項構造に関する2次以上の特徴量を解析モデルに組み込むことの重要性を示唆している.表~\ref{tb:err-ctg}で示した具体的なエラー事例の分類からも,「係り受けで連鎖する述語・名詞間の意味的関係」「述語の並列構造・広義の機能動詞構文の組み合わせ」など,少なくともPとOが項を共有する事例の$26\%$程度がこのような複数の述語間の項構造の組み合わせを考慮しなければならない問題であった.発話文の引用に典型的な「述語が鉤括弧の中にある」事例も全体の$16\%$弱と無視できない割合を占めており,特別の解析を行う必要性を示唆している.\subsection{解析精度の理想値}\begin{table}[b]\caption{解析精度の理想値}\label{tb:acc-oracle}\input{04table08.txt}\end{table}表~\ref{tb:acc-oracle}には,分析対象のカテゴリのうち,今回の分析で特に焦点を当ててきた項の共有が手がかりとなりうる事例について,各々が理想的に正答できた場合の精度上昇幅を参考値として示す.この数値は,解析対象のシステムについて,偽陽性の結果はそのままに,偽陰性の結果を過不足なく正答出来たとした時の精度を示したものである.ただし,「項共有(並列構造)」「項共有(PがOの項)」以外の項目については,\ref{sec:shared-arg-err-analysis}~節で示したサンプリングによるエラーの分布推定に基づいた概算値である.並列構造や広義の機能動詞構文について,それぞれを局所的に解いた場合にゼロ照応全体に与えるインパクトはF値で$5$ポイント程度であるのに対して,局所的な構造の組み合わせを通じて解を得られる種類の事例まで正答した場合,F値で$13$ポイント程度の上昇を見込めることが分かる.また,これに加えて発言者や提題化された実体・概念,機能語相当表現の正確な認識が達成された場合でF値が$60\%$程度となる.精度$60\%$以上を実現するためには,現状で述語項構造解析の文脈ではあまり取り組まれていない,世界知識を用いた推論や,談話解析などの技術を取り込むか,もしくはそのような後段の処理につなげるための適切な問題設定やインターフェースを用意する必要がある.OとPが項を共有する事例について,その適合率が$100\%$近くに達した場合でも,文内ゼロ照応全体のF値は$70\%$強である.文内ゼロ照応の$42\%$は項の共有がない,より手がかりの少ない事例であり,この部分でどのような特徴が手がかりとなりうるかについては今後の分析課題である.
\section{人間の直感にもとづく手がかりアノテーションによる分析}
前節では,既存研究において焦点が当てられた項の共有関係を背景に,特定の構造を持つ事例を機械的に分類することで文内ゼロ照応における現象の分布を明らかにした.本節では,特定の事前知識に依存せずにゼロ照応解析に対する手がかりを幅広く調査することを目的として,コーパスよりランダムに抽出した少量のサンプルに対して,人間が正解を導き出す際に根拠とする手がかりの種類を分析する.\begin{table}[b]\caption{手がかりアノテーションの例}\label{tbl:clue-example1}\input{04table09.txt}\end{table}具体的な手続きとして,述語項構造アノテーションデータの一部に,人手により表~\ref{tbl:clue-example1}のような,正解分析結果を導き出すための根拠となる手がかりのカテゴリラベルを付与し,次の項目を調査する.\begin{itemize}\item解析に必要な手がかりの種類とその組み合わせの種類\item各手がかりを必要とする事例の分布\item各手がかりを必要とする事例に対する既存システムの解析精度\end{itemize}以降では,まず,分析に利用するデータのサンプリング方法について説明し,次に,具体的なアノテーションの方法について述べる.その後,アノテーション結果を利用した手がかりカテゴリの分布に関する分析やシステムの解析精度について詳しく議論する.\subsection{データのサンプリング方法}手がかりアノテーションの対象データとして,述語項構造がアノテートされたコーパスより,文内ゼロ照応の事例と判断される(述語,項,格)の三つ組を一事例として,少量のデータを無作為にサンプルする.本節における分析では,手がかりの種類を幅広く調査するために,\ref{sec:pattern-analysis}~節で利用したNTCに加えて,BCCWJに対する述語項構造アノテーションデータからも手がかりアノテーションを行う事例をサンプルした.抽出対象となるNTCの仕様では,一般に項は共参照クラスタとして表現されているが,ここでも\ref{sec:pattern-analysis}~節と同様の方法で対象の形態素を一意に定める.一般に,コーパス中の格の出現頻度はガ格に強い偏りがあり,小規模のサンプリングではヲ・ニ格の数が極端に少なくなるという問題がある.述語—項の関係においては,格毎に起こりうる現象の分布が異なると考えられるため,手がかりの種類や組み合わせを俯瞰するためには,ガ・ヲ・ニ格それぞれについて一定数分析を行うのが適切と考えられる.しかしながら,前節までの分析においては,NTCについてガ・ヲ・ニ格全体に対する解析精度を中心に議論を進めていることから,NTCについてはコーパス中のガ・ヲ・ニ格の分布に従い事例をサンプルし,一方で,BCCWJについては文書ジャンル毎に格ごとのサンプル数を固定してサンプリングを行うこととした.具体的に,NTCではデータ全体を\citeA{taira2008japanese}と同様の方法で訓練・開発・評価のデータ区分に分け,開発データから文内ゼロ照応に関する$100$事例を無作為にサンプルした.BCCWJでは,評価データとして用意したBCCWJCore-AセクションにおけるOW(白書),OY(ブログ),PB(書籍),PM(雑誌),PN(新聞)から,ジャンルごとにガ・ヲ・ニそれぞれの格を$20$事例ずつランダムサンプルすることを試みた.ただし,実際には,特定の文書ジャンルに関して文内ゼロ照応に関する十分な事例数がない場合があり\footnote{新聞が$41$事例,ブログが$19$事例となった.},合計では$240$事例となった.NTCおよびBCCWJコーパスからサンプルした事例における格の分布は表\ref{tb:numcase}に示す.\begin{table}[t]\caption{サンプルデータにおける格の分布}\label{tb:numcase}\input{04table10.txt}\end{table}\subsection{手がかりアノテーションの方法}アノテータには,サンプルされた(述語,項,格)の三つ組,及び,当該の述語と項が含まれる文が表~\ref{tbl:clue-example1}の例文の欄に表記されているような形式で与えられる.アノテータはこれに対して,あらかじめ定められている手がかりのカテゴリラベルを付与することを試みる.格関係を判断するにあたって複数の手がかりが必要な場合は,判断に最低限必要となるラベルをすべて列挙し,ラベルの組み合わせとして表現する\footnote{実際のアノテーションでは,補助的に判断の確信度を上げる手がかりについても表記を別にして併せて付与を行ったが,説明と表記の簡略化のため,この情報は省略した.}.アノテーションの際には,カテゴリラベルを付与するだけでなく,アノテータがどのようにして解を導いたかについても注釈を加える.このようにすることで,カテゴリラベルだけでは説明が難しい複雑な現象に対する内省の結果を残し,後の精緻な分析を補助できるほか,アノテーション修正時にアノテータの意図を確認しながら議論ができるため,適切な反復修正作業が可能となる.手がかりのカテゴリラベルは,あらかじめ著者らが列挙したものから始め,アノテーションの過程で新たに必要となったものを順次追加する方法をとった.アノテータはこれまでに列挙された手がかりラベルでは説明できない事例に遭遇した場合,簡潔な説明と共に「その他」のラベルに分類する.その他のラベルに分類された手がかりのうち,著者らとの協議において一定数の事例を類型化できるものについては,適切な名称を付けて「その他」から分離した.このようにして最終的に得られた手がかりカテゴリラベルは,以下のとおりである.\begin{itemize}\item統語関係:統語的な構造が手がかりとなる.\begin{itemize}\item統語パス:述語と項の間の係り受け鎖構造が手がかりとなる.\begin{itemize}\item語彙化パス:統語パスとその内部の語の語彙知識が手がかりとなる.\begin{itemize}\item相互作用(意味):統語パス内の述語の項構造同士が「意味的」に特定の項を共有する.\item機能語相当表現:機能語の特定が手がかりとなる.\item連体修飾:連体修飾における格関係の特定が重要な手がかりとなる.\item受身:受け身による格交替を判定することが重要な手がかりとなる.\end{itemize}\item相互作用(形式):統語パス内の述語の項構造同士が「形式的」に特定の項を共有する.\begin{itemize}\item機能動詞:機能動詞の特定が手がかりとなる.\item制御構文:制御構文が手がかりとなる.\end{itemize}\item並列:並列構造の特定が手がかりとなる.\end{itemize}\end{itemize}\item談話関係:何らかの談話的関係が手がかりとなる.\begin{itemize}\item発話者:発話者・著者の特定が手がかりとなる.\end{itemize}\item文脈:文脈が手がかりとなる.\item知識:何らかの世界知識が必要.\begin{itemize}\item選択選好:述語と項の間に強い選択選好がある.\item語義:語の意味が手がかりとなる.\item複合語:複合語内の形態素間の意味的関係が手がかりとなる.\item常識:常識的知識が必要.\end{itemize}\itemその他:その他の手がかりが必要.\itemアノテーションエラー:格ラベルのアノテーションエラー.\end{itemize}カテゴリラベルは「統語関係」「談話関係」「文脈」「知識」「その他」「アノテーションエラー」のカテゴリをトップノードとして階層構造を成しており,下層へ行くほど詳細化されたカテゴリラベルとなっている.アノテーションの際は,現象を詳細化して説明できる場合は,より下層のラベルを優先して付与する.実際のアノテーションは,著者らとは別の,$4,000$〜$5,000$文規模の述語項構造アノテーションの経験を持つ日本語母語話者のアノテータ一名によって行われた.必要に応じて著者らとの協議を行いながら一周目のアノテーションを行った後,最終的な著者らとの協議の結果を踏まえ,再修正を行ったものを最終的な分析対象のデータとした.\subsection{文内ゼロ照応事例における手がかりの分布}本節のアノテーションにおいては,各事例に付与されているラベルの組は,その全てが解析に必要な要素であるという前提であるため,事例ごとの手がかりラベルの組を一つのパターン(ラベルパターンと呼ぶ)とみなして分析を行う.まず,それぞれの手がかりがどの程度使われたかを示すために,ラベルパターン中に現れる個別のラベルの出現数を表~\ref{tbl:nakayama-ntc-label-freq},\ref{tbl:nakayama-bccwj-label-freq}に示した.それぞれのコーパスを比較すると,NTCでは「選択選好」「語義」など知識に関するラベルの他に,「機能語相当表現」や「並列」「機能動詞」など統語関係のラベルも上位に含まれている一方で,BCCWJでは,「選択選好」「その他」の他に,「文脈」「常識」など知識や談話に関するラベルが上位のほとんどを占める.\begin{table}[b]\begin{minipage}[t]{0.45\hsize}\caption{NTCにおける各ラベルの出現数}\label{tbl:nakayama-ntc-label-freq}\input{04table11.txt}\end{minipage}\hfill\begin{minipage}[t]{0.45\hsize}\caption{BCCWJにおける各ラベルの出現数}\label{tbl:nakayama-bccwj-label-freq}\input{04table12.txt}\end{minipage}\end{table}\begin{table}[b]\caption{NTC・BCCWJにおけるトップノードカテゴリの出現数}\label{tb:topnode}\input{04table13.txt}\end{table}ただし,表~\ref{tb:numcase}に挙げているとおり,NTCとBCCWJではサンプリング方法の違いにより,分析事例における格の分布が異なる.したがって,これらの手がかりカテゴリの分布の特徴がドメインの違いによるものであるか,あるいは格の分布の違いによってもたらされるものであるかを確かめる必要がある.そこで,表~\ref{tb:topnode}には,NTC・BCCWJそれぞれについて,各ラベルを手がかりカテゴリの階層構造におけるトップノードによって置き換え,その出現数を格ごとに集計したものを示す.結果として,格ごとの手がかりラベルの分布を見ても,BCCWJではNTCに比べて「知識」や「文脈」のラベルの比率が上昇していることが分かる.ここから,新聞記事以外のより一般的なドメインの文章を処理するにあたっては,より知識や文脈を重視した解析手法が重要となってくるであろうことがうかがえる.また,格ごとに観察すると,ガ格に比べてヲ・ニ格ではより知識のラベルに分類される手がかりが必要となる傾向にあることも分かる.次に,ラベルパターンごとの事例数をコーパスごとにそれぞれ表~\ref{tbl:nakayama-ntc-label-pattern-freq},表~\ref{tbl:nakayama-bccwj-label-pattern-freq}に示す.パターンの分布を俯瞰すると,組み合わせの分布が非常に広いことがわかる.ラベルパターンの種類は,単体のもの,複数のラベル組み合わせによるものを含め$90$種類存在した.90種類あるラベルパターンのうち事例数が5以上の高頻出ラベルパターンは,「機能動詞」や「並列相互作用(意味)」など1つや2つのラベルで構成される単純なラベルパターンであるが,そのようなラベルパターンの数は14種類と多くない.これらの事例のうち,代表的な事例を表~\ref{tbl:clue-example}に挙げる.一方で,残り76種類の事例数5未満のラベルパターンは,「その他並列相互作用(意味)」や「常識機能語相当表現統語関係連体修飾」など,複数のラベルを組み合わせた複雑な構成になっているのもが多い.表~\ref{tbl:nakayama-complex-example}に複数ラベルの組み合わせによる事例をいくつか挙げるが,このような複雑なラベル構造を成す事例は決して少数ではない.我々が特に注目すべき点として挙げたいのは,複数のラベルを組み合わせる場合に,それぞれの手がかりが個々に項の確信度を上げる種類のパターンと,全ての手がかりがそろって初めて正しく解が導かれる種類のパターンの二つの種類が見られた点である.例えば,表~\ref{tbl:nakayama-complex-example}の(3)の事例においては,選択選好,発話者情報,といった手がかりが,個別に項候補の確信度を上げているのに対して,表~\ref{tbl:nakayama-complex-example}の(5)の事例においては,「教える」のニ格に「子」を埋めるための手がかりと,「勉強を教える」のニ格が「勉強する」のガ格と一致するという知識の双方がそろわなければ,正しい解析が難しい例となっている.したがって,ゼロ照応問題へのアプローチを考える際には,これらの複雑な手がかりの組み合わせ事例を個々に観察し,少なくとも,手がかりの組み合わせが重要な意味を持つパターンに対して大域的な構造解析のアプローチを取る必要があると言える.\begin{table}[p]\caption{NTCにおける各ラベルパターンの事例数}\label{tbl:nakayama-ntc-label-pattern-freq}\input{04table14.txt}\end{table}\begin{table}[p]\caption{BCCWJにおける各ラベルパターンの事例数}\label{tbl:nakayama-bccwj-label-pattern-freq}\input{04table15.txt}\end{table}\begin{table}[t]\caption{代表的なラベルパターンの例}\label{tbl:clue-example}\input{04table16.txt}\par\vspace{4pt}\small[P]:述語,[ガ,ヲ,ニ]:格\end{table}\begin{table}[p]\addtolength{\normalbaselineskip}{-2pt}\caption{複雑なラベルパターンの事例}\label{tbl:nakayama-complex-example}\input{04table17.txt}\par\vspace{4pt}\small[P]:述語,[ガ,ヲ,ニ]:格\end{table}\subsection{システム解析結果との比較}前節の手がかりラベルパターンについて,各ラベルパターンの解析精度を分析することで,現状の解析システムがどの種の問題に正答しているかを分析する.ただし,前節での分類結果より,NTCからのサンプル数$100$とBCCWJからのサンプル数$240$に対して,ラベルパターンの種類が$90$あることがわかっており,個々のラベルパターンに対する精度を求めるための十分な事例数がない.そこで,今回は以下の4種類の大分類によってラベルパターンを集約し分析を行った.{\makeatletter\renewcommand{\theenumi}{}\begin{enumerate}\item統語関係以下のラベルまたは選択選好ラベルのみの組み合わせで表せられるラベルパターン\item知識や文脈,談話関係以下のラベルを含むラベルパターン(ただし,その他を含むラベルパターンを除く)\itemその他を含むラベルパターン\itemアノテーションエラー\end{enumerate}\makeatother}(a)は,「機能動詞」や「選択選好機能語相当表現」などのラベルパターンであり,従来の解析システムの素性として用いられる手がかりに該当する.(b)のラベルパターンに該当する事例は「知識」や「文脈」,「談話」に関する手がかりが必要であり,解析器としてはより高度な処理が要求されるラベルパターンである.(c)の「その他」ラベルに分類される現象は,事前に想定されていなかった手がかりで,かつ現状で簡潔に一般化できるほどの出現頻度がなかった現象であり,既存の解析器では該当の手がかりを適切に捉えにくい事例と考えられるものである.表~\ref{tbl:ntc-clue-再現率},表~\ref{tbl:bccwj-clue-再現率}はNTCとBCCWJにおける手がかりラベルパターンと解析精度である.ここでの分析はサンプルされた特定の(述語,項,格)の正解三つ組事例に対する正誤を分析するものであるため,正解事例に対する再現率を評価の基準とした.なお,BCCWJは文書ジャンルごとに事例数を揃えてアノテーションを行ったが,定量的な分析を行うにはジャンルごとのアノテーション事例数が不十分であったため,全ての文書ジャンルを統合して分析を行った.(d)のアノテーションエラーについては,真の正解ではないため,再現率の評価からは除外した.\begin{table}[t]\caption{NTCにおける手がかりラベルパターンと解析器の再現率}\label{tbl:ntc-clue-再現率}\input{04table18.txt}\end{table}\begin{table}[t]\caption{BCCWJにおける手がかりラベルパターンと解析器の再現率}\label{tbl:bccwj-clue-再現率}\input{04table19.txt}\end{table}表~\ref{tbl:ntc-clue-再現率}のNTCにおける結果を見ると,統語関係以下のラベルまたは選択選好ラベルのみの組み合わせで表されるラベルパターンの再現率は$0.57$と比較的高く,知識や文脈,談話関係以下のラベルを含むラベルパターンは$0.3$程度となっている.松林\&乾のシステムでは統語関係の情報として項候補や述語の位置,係り受けの情報を使用し,選択選好の情報として格フレーム\footnote{京大格フレームVer.~1.0}を使用しているため,これらの手がかりの組み合わせのみで表すことのできる事例に対しては比較的高い解析精度となったと考えられる.また,表~\ref{tbl:bccwj-clue-再現率}の結果から,BCCWJではNTCと比べて再現率が落ちる傾向が見られる.解析器はNTCの学習データを用いて学習しており,必ずしもBCCWJの各ドメインに対する適切な学習がされているわけではないため,特に統語関係または選択選好のみで表せるラベルパターンの精度に関しては,NTCでは比較的高い精度となっているものの,BCCWJでは他のラベルパターンと同程度の精度となった.松林\&乾のシステムは選択選好に対する対応として,Web16億文から獲得された格フレーム情報を使用していることから,このラベルパターンで精度が下がった原因は,各ドメイン特有の選択選好性によるものではなく,新聞ドメインと他のドメインで統語現象の性質が異なっていることに起因すると考えられる.また,その他を含むラベルパターンの再現率は,知識や文脈,談話関係以下のラベルを含むラベルパターンと同程度の低い再現率にとどまった.「その他」ラベルに分類される現象は一般化できるほど頻出する現象ではなく,それらの現象を汎化してシステムに組み込むことは簡単ではないが,NTC及びBCCWJコーパス内の文内ゼロ照応問題の3割弱を占めており,ゼロ照応問題全体の解析精度向上のためには無視できない程度の割合で存在しているため,今後,サンプル事例の規模を増やし,より詳細な分析を行っていく必要があると考える.
\section{結論}
本稿では,述語項構造解析における中心的な課題である項のゼロ照応問題へ適切にアプローチするために,現象の特徴を出来る限り詳細に分析し把握することを試みた.第一に,文内ゼロ照応関係にある述語と項のペアを,統語情報と述語—項関係の情報を用いて機械的に分類可能な7つの指標の組み合わせで分類した.分析内容として,各事例カテゴリにおける事例数の分布を示したほか,松林\&乾~\cite{matsubayashi2014}のシステムを例に取り,各指標における解析精度の偏りを示した.特に,対象述語Pと,項と直接係り受け関係にある述語Oとの間で項を共有している事例の割合が文内ゼロ照応全体の$58\%$存在することが分かったほか,これらは,PとOが直接的な並列構造や機能動詞構文の形になっているものばかりでなく,局所的な構造の組み合わせによって解が導かれる事例が多く存在することが分かった.このことは,複数述語間の項構造に対する高次の特徴を今後どのようにとらえていくべきかに関する知見を与えている.また,発話引用文における発話者の推定が一定の事例数に寄与することも分かった.第二に,アノテータの内省を頼りに,人間が正解を導き出す場合に用いる手がかりを分析し,考えられる手がかりの種類を列挙するとともに,その分布を示した.個々のゼロ照応現象を紐解いていくと,手がかりの種類とその組み合わせに関する分布が大きな広がりを持っていることが明らかとなった.また,手がかりの組み合わせに関する性質として,提題化や選択選好情報のように,それぞれの手がかりが独立に項候補の確信度を上げるように働くものに加えて,前半の構造ベースの分析で得られた知見と同様に,機能動詞や述語間の意味的なつながりを考慮すべきものなど,局所的な解析結果を順を追って重ねていくことで初めて項候補の推定に寄与する種類の事例も多く存在することが明らかとなった.また,既存のモデルは統語構造や選択選好を用いる事例に関しては相対的に高い解析精度を示すものの,世界知識や文脈を読み解く必要がある事例や,その他未だ一般化されていない雑多な手がかりを用いる事例に関しては低い精度にとどまっていた.しかしこれら精度の低い事例はゼロ照応問題全体に対して無視できない割合を占めており,引き続き,これらの現象に対する解析の糸口を模索していく必要がある.\acknowledgment本研究は,文部科学省科研費(研究課題番号:23240018),(研究課題番号:15K16045)及び,RISTEX社会技術研究開発センターの研究開発活動「コミュニティがつなぐ安全・安心な都市・地域の創造」の一環として行われた.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{林部\JBA小町\JBA松本}{林部\Jetal}{2014}]{hayashibe2014position}林部祐太\JBA小町守\JBA松本裕治\BBOP2014\BBCP.\newblock述語と項の位置関係ごとの候補比較による日本語述語項構造解析.\\newblock\Jem{自然言語処理},{\Bbf21}(1),\mbox{\BPGS\3--26}.\bibitem[\protect\BCAY{Hayashibe,Komachi,\BBA\Matsumoto}{Hayashibeet~al.}{2011}]{hayashibe2011japanese}Hayashibe,Y.,Komachi,M.,\BBA\Matsumoto,Y.\BBOP2011\BBCP.\newblock\BBOQJapanesePredicateArgumentStructureAnalysisExploitingArgumentPositionandType.\BBCQ\\newblockIn{\BemIJCNLP},\mbox{\BPGS\201--209}.\bibitem[\protect\BCAY{飯田\JBA徳永}{飯田\JBA徳永}{2010}]{iida2010jnlp}飯田龍\JBA徳永健伸\BBOP2010\BBCP.\newblock述語対の項共有情報を利用した文間ゼロ照応解析.\\newblock\Jem{言語処理学会第16回年次大会発表論文集},\mbox{\BPGS\804--807}.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2006}]{iida2006exploiting}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2006\BBCP.\newblock\BBOQExploitingSyntacticPatternsasCluesinZero-anaphoraResolution.\BBCQ\\newblockIn{\BemCOLING-ACL2006},\mbox{\BPGS\625--632}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Iida\BBA\Poesio}{Iida\BBA\Poesio}{2011}]{iida2011cross}Iida,R.\BBACOMMA\\BBA\Poesio,M.\BBOP2011\BBCP.\newblock\BBOQACross-LingualILPSolutiontoZeroAnaphoraResolution.\BBCQ\\newblockIn{\BemACL2011},\mbox{\BPGS\804--813}.\bibitem[\protect\BCAY{Imamura,Saito,\BBA\Izumi}{Imamuraet~al.}{2009}]{imamura2009discriminative}Imamura,K.,Saito,K.,\BBA\Izumi,T.\BBOP2009\BBCP.\newblock\BBOQDiscriminativeApproachtoPredicate-argumentStructureAnalysiswithZero-anaphoraResolution.\BBCQ\\newblockIn{\BemACL-IJCNLP2009ShortPapers},\mbox{\BPGS\85--88}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{小町\JBA飯田\JBA乾\JBA松本}{小町\Jetal}{2006}]{komachi2006noun}小町守\JBA飯田龍\JBA乾健太郎\JBA松本裕治\BBOP2006\BBCP.\newblock名詞句の語彙統語パターンを用いた事態性名詞の項構造解析.\\newblock\Jem{自然言語処理},{\Bbf17}(1),\mbox{\BPGS\141--159}.\bibitem[\protect\BCAY{Liu\BBA\Gildea}{Liu\BBA\Gildea}{2010}]{liu2010semantic}Liu,D.\BBACOMMA\\BBA\Gildea,D.\BBOP2010\BBCP.\newblock\BBOQSemanticRoleFeaturesforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalConferenceonComputationalLinguistics(Coling2010)},\mbox{\BPGS\716--724}.\bibitem[\protect\BCAY{松林\JBA乾}{松林\JBA乾}{2014}]{matsubayashi2014}松林優一郎\JBA乾健太郎\BBOP2014\BBCP.\newblock統計的日本語述語項構造解析のための素性設計再考.\\newblock\Jem{言語処理学会第20回年次大会発表論文集},\mbox{\BPGS\360--363}.\bibitem[\protect\BCAY{松林\JBA吉野\JBA林部\JBA中山}{松林\Jetal}{2015}]{eaws-pas-2015}松林優一郎\JBA吉野幸一郎\JBA林部祐太\JBA中山周\BBOP2015\BBCP.\newblock述語項構造解析「ProjectNEXT述語項構造タスク」.\\newblock\Jem{言語処理学会第21回年次大会発表論文集},\mbox{\BPGS\1--157}.\bibitem[\protect\BCAY{大内\JBA進藤\JBA{DuhKevin}\JBA松本}{大内\Jetal}{2015}]{ouchi2015nl}大内啓樹\JBA進藤裕之\JBA{DuhKevin}\JBA松本裕治\BBOP2015\BBCP.\newblock述語対の項共有情報を利用した文間ゼロ照応解析.\\newblock\Jem{情報処理学会第220回自然言語処理研究会研究報告},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Sasano,Kawahara,\BBA\Kurohashi}{Sasanoet~al.}{2008}]{sasano2008fully}Sasano,R.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQAFully-lexicalizedProbabilisticModelforJapaneseZeroAnaphoraResolution.\BBCQ\\newblockIn{\BemCOLING2008Volume1},\mbox{\BPGS\769--776}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Sasano\BBA\Kurohashi}{Sasano\BBA\Kurohashi}{2011}]{sasano2011discriminative}Sasano,R.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2011\BBCP.\newblock\BBOQADiscriminativeApproachtoJapaneseZeroAnaphoraResolutionwithLarge-scaleLexicalizedCaseFrames.\BBCQ\\newblockIn{\BemIJCNLP2011},\mbox{\BPGS\758--766}.\bibitem[\protect\BCAY{関根\JBA乾}{関根\JBA乾}{2015}]{eaws-2015}関根聡\JBA乾健太郎\BBOP2015\BBCP.\newblockProjectNextNLP概要(2014/3-2015/2).\\newblock\Jem{言語処理学会第21回年次大会発表論文集},\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{Shen\BBA\Lapata}{Shen\BBA\Lapata}{2007}]{shen2007using}Shen,D.\BBACOMMA\\BBA\Lapata,M.\BBOP2007\BBCP.\newblock\BBOQUsingSemanticRolestoImproveQuestionAnswering.\BBCQ\\newblockIn{\Bemthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL2007)},\mbox{\BPGS\12--21}.\bibitem[\protect\BCAY{Taira,Fujita,\BBA\Nagata}{Tairaet~al.}{2008}]{taira2008japanese}Taira,H.,Fujita,S.,\BBA\Nagata,M.\BBOP2008\BBCP.\newblock\BBOQAJapanesePredicateArgumentStructureAnalysisUsingDecisionLists.\BBCQ\\newblockIn{\BemEMNLP2008},\mbox{\BPGS\523--532}.\bibitem[\protect\BCAY{黒橋・河原研究室}{黒橋・河原研究室}{2013}]{knp2013}黒橋・河原研究室.\newblock\BBOQKNPversion4.1.\BBCQ.\newblock{\ttfamilyhttp://nlp.ist.i.kyoto-u.ac.jp/index.php?\linebreak[2]cmd=read\&page=KNP\&alias\%5B\%5D=\%E6\%97\%A5\%E6\%9C\%AC\%E8\%AA\%9E\%E6\%A7\%8B\%E6\%96\%87\linebreak[2]\%E8\%A7\%A3\%E6\%9E\%90\%E3\%82\%B7\%E3\%82\%B9\%E3\%83\%86\%E3\%83\%A0KNP}Accessed:2014-05-20.\bibitem[\protect\BCAY{渡邉}{渡邉}{2013}]{chapas2013}渡邉陽太郎.\newblock\BBOQChaPASversion0.74.\BBCQ\\newblock\Turl{https://sites.google.com/site/yotarow/chapas}.\newblock\mbox{Accessed:}2014-05-20.\end{thebibliography}\begin{biography}\bioauthor{松林優一郎}{1981年生.2010年東京大学大学院情報理工学系研究科・コンピュータ科学専攻博士課程修了.情報理工学博士.同年より国立情報学研究所・特任研究員.2012年より東北大学大学院情報科学研究科・研究特任助教.意味解析の研究に従事.情報処理学会,人工知能学会,ACL各会員.}\bioauthor{中山周}{2014年法政大学情報科学部コンピュータ科学科卒業.同年東北大学大学院情報科学研究科博士前期課程進学.現在に至る.自然言語処理に関する研究に従事.}\bioauthor{乾健太郎}{1995年東京工業大学大学院情報理工学研究科博士課程修了.同研究科助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より東北大学大学情報科学研究科教授,現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL,AAAI各会員.}\end{biography}\biodate\end{document}
| |
V05N04-03 | \section{はじめに}
label{はじめに}\subsection{複合名詞解析とは}\label{複合名詞解析とは}複合名詞とは,名詞の列であって,全体で文法的に一つの名詞として振る舞うものを指す.そして,複合名詞解析とは,複合名詞を構成する名詞の間の依存関係を尤度の高い順に導出することである.複合名詞は情報をコンパクトに伝達できるため重要な役割を果たしており,簡潔な表現が要求される新聞記事等ではとりわけ多用される.そして,記事中の重要語から構成される複合名詞は,記事内容を凝縮することさえ可能である.例えば,「改正大店法施行」という見出しは,「改正された大店法(=大規模小売店舗法)が施行される」ことを述べた記事の内容を一つの名詞に縮約したものである.そして,このことを理解するためには,{大店法,改正,施行}が掛かり受けの構成要素となる単位であることと,これら3単語間に[[大店法改正]施行]という依存関係があることを理解する必要がある.複合名詞解析の確立は,機械翻訳のみでなく,インデキシングやフィルタリングを通して,情報抽出・情報検索等の高度化に貢献することが期待される.\subsection{従来の手法}\label{従来の手法}日本語の複合名詞解析の枠組みは,基本的に,\begin{itemize}\item[(1)]入力された文字列を形態素解析により構成単語列に分解する.\item[(2)]構成単語列間の可能な依存構造の中から尤度の高いものを選択する.\end{itemize}の二つの過程からなり,この限りでは通常の掛かり受け解析と同一である.異なる点は,品詞情報だけでは解析の手がかりとならないため,品詞以外の情報を利用せざるを得ない点である.品詞以外の手がかりを導入する方法としては,まず人手により記述したルールを主体とする手法が用いられ,大規模なコーパスが利用可能になるにつれ,コーパスから自動的に抽出した知識を利用する手法が主流となってきた.第一の段階である語分割の過程は,通常の形態素解析の一環でもあるが,特に複合名詞の分割を意識して行われたものとして,長尾らの研究\cite{長尾1978}がある.そこでは,各漢字の接頭辞・接尾辞らしさを利用したルールに基づく複合名詞の分割法が提案され\breakており,例えば長さ8の複合名詞の分割精度は84.9\%と報告されている.複合名詞の構造決定に\breakついては述べられていないが,長さ3,4,5,6の複合名詞について深さ2までの構造が人手で調べられている.それによれば,調べられた240個の長さ5の複合名詞については接辞を含んだ構\break造が完全に示されており,その59\%は左分岐構造をとっている.その後宮崎により、数詞の処理,固有名詞処理,動詞の格パターンと名詞の意味を用いた掛かり受け判定等に関する14種類のルールを導入する等、ルールを精緻化し,更に,「分割数が少なく掛かり受け数が多い分割ほど優先する」等のヒューリスティクスを導入することにより,未登録語が無いという条件の下で,99.8\%の精度で複合語の分割を行う手法が提案された\cite{宮崎1984}.コーパスに基づく統計的な手法では,分かち書きの一般的な手法として確率文節文法に基づく形態素解析が提案され\cite{松延1986},ついで漢字複合語の分割に特化して,短単\break位造語モデル(漢字複合語の基本単位を,長さ2の語基の前後に長さ1の接頭辞・接尾辞がそれ\breakぞれ0個以上連接したものとする)と呼ばれるマルコフモデルに基づく漢字複合語分割手法が提案された\cite{武田1987}.確率パラメータは,技術論文の抄録から抽出した長さ2,3,4の連続漢字列を用いて繰り返し法により推定し,頻出語について正解パターンを与える等の改良により,97\%の分割精度を達成している(全体の平均文字長は不明).次の段階である分割された単語の間の掛かり受けの解析についても,ルールに基づく枠組みと,コーパスに基づく枠組み双方で研究されてきた.前者の枠組みとして,宮崎は語分割に関する研究を発展させ,掛かり受けルールの拡充とこれらの適用順序の考慮により,限定された領域については,未知語を含まない平均語基数3.4の複合名詞167個について94.6\%の精度を達成している\cite{宮崎1993}.なお,英語圏でのルールに基づく研究としてはFinin\cite{Finin1980},McDonald\cite{McDonald1982},Isabelle\cite{Isabelle1984}等の研究があるが,シソーラス等の知識に基づくルールを用いる点は同様である.ルールに基づく手法の利点は,対象領域を特化した場合,人手による精密なルールの記述が可能となるため,高精度な解析が可能になることである.しかし,ルール作成・維持にコストがかかることと,一般に移植性に劣る点で,大規模で開いたテキストの取り扱いには向かないといえる.コーパスに基づく手法では,人手によるルール作成・メンテナンスのコストは削減できるが,名詞間の共起のしやすさを評価するために,単語間の共起情報を獲得する必要がある.しかし,共起情報の信頼性と獲得量が両立するデータ獲得手法の実現は容易ではなく,さまざまな研究が行われている.一般には,共起情報を抽出する対象として,何らかの固定したトレーニングコーパスを用意し,適当な共起条件に基づいて自動的に名詞対を取り出す.そのままでは一般に名詞対のデータが不足するので,観測されない名詞対の掛かり受け尤度を仮想的に得るため,名詞をシソーラス上の概念や,共起解析により自動的に生成したクラスタに写像し,観測された名詞間の共起を,そのようなクラス間共起として評価する.例えば,西野は共起単語ベクトルを用いて名詞をクラスタリングし,名詞間の掛かり受けの尤度をクラス間の掛かり受け尤度として捉えた\cite{西野1988}.小林は分類語彙表\cite{林1966}中の概念を利用して,名詞間の掛かり受けの尤度を概念間の掛かり受け尤度により評価した\cite{小林1996}.これらを掛かり受け解析に適用するためには,一般に,複合名詞の掛かり受け構造を二分木で記述し,統計的に求めた名詞間の掛かり受けのしやすさを,掛かり受け構造の各分岐における主辞間の掛かり受けのしやすさとみなし,それらの積算によって掛かり受け構造全体の確からしさを評価する手法が取られる.西野の手法では,平均4.2文字の複合名詞について73.6\%の精度で正しい掛かり受け構造が特定できたと報告されている.小林は,名詞間の距離に関するヒューリスティクスと併用することにより,シソーラス未登録語を含まない,例えば長さ6文字の複合名詞について,73\%の解析精度を得ている.なお英語圏では,Lauerが小林とほとんど同じ枠組みで3語からなる複合名詞解析の研究を行っており\cite{Lauer1995},Rogetのシソーラス(1911年版)を用いて,Gloria'sencyclopediaに出現する,シソーラス未登録語を含まない3語よりなる複合名詞について,81\%の解析精度を得ている.(ただし,小林,Lauerとも,概念間の共起尤度に加え,主辞間の距離や左分岐構造を優先するヒューリスティクスを併用している).以上を総括すると,従来のコーパスに基づく複合名詞解析の枠組みは,固定したトレーニングコーパスを用い,クラス間共起という形で間接的に名詞の共起情報を抽出することにより,掛かり受け構造の推定を行っていたといえる.この場合に生じる問題は,クラスへの所属が不明な単語を扱うことができないことである.例えば新聞記事のような開いたデータを扱う場合には,形態素解析辞書への未登録単語が頻出するばかりでなく(この場合,形態素解析の段階で誤りが発生するため,正解は得られない),形態素解析辞書へ登録されていてもシソーラスに登録されていない単語が出現する可能性があり,解析の際には問題となる.実際,我々が実験に用いた400個の複合名詞中,形態素解析用の辞書または分類語彙表に登録されていない単語を含むものは120個に上った(うち形態素解析辞書未登録語は48個).未登録語の問題は,未登録語の語境界,品詞,所属クラスを正しく推定することができれば解決可能であるが,現時点では,これらについて確立した手法は無い.特に,語の所属クラス推定のためには,与えられたコーパス中でのその語の出現環境を得ることが必要となるため,なんらかの形でコンテクストの参照が必要となる.すなわち,あらかじめ固定したデータのみを用いて解析を行う枠組みでは,開いたコーパスを扱うには限界がある.\subsection{本論文の目的}\label{本論文の目的}本論文では,「あらかじめ固定されたデータのみを用いて解析する」という従来の枠組に対して,「必要な情報をオン・デマンドで対象コーパスから取得しながら解析する」という枠組を提唱し,その枠組における複合名詞解析の能力を検証する.文字インデキシングされた大規模なコーパスを主記憶内に置くことが仮想的ではない現在,本論文で提示する枠組には検討の価値があると考える.十分な大きさのコーパスの任意の場所を参照できれば,複合名詞に含まれる辞書未登録語の発見や,それらを含めた複合名詞を構成する諸単語に関する,様々な共起情報が取得できると思われるが,実際に我々は,テンプレートを用いたパターン照合によりこれらが実現できることを示す.このような手法においては,未登録語の発見はパターン照合の問題へ統合されるうえ,発見された未登録語の共起情報を文字列のレベルで直接参照するため,クラス推定の問題も生じない.データスパースネスの問題については,テンプレートの拡充による共起情報抽出能力の強化と,複合名詞を構成する単語対のうち,一部の共起情報しか観測されない場合に,それらをできるだけ尊重して掛かり受け構造を選択するためのヒューリスティクスを整備する.これらにより,シソーラス等の知識源に依存せず,純粋に表層情報のみを利用した場合の解析精度の一つの限界を目指す.本論文では,長さ5,6,7,8の複合名詞各100個,計400個について,新聞2ヵ月分,1年分\breakを用いて実験を行い,提案する枠組みで,高い精度の複合名詞解析が可能なことを示す.複合名詞解析の精度評価に関しては,パターン照合による未登録語の発見やヒューリスティクスの寄与も明らかにする.\subsection{本論文の構成}\label{本論文の構成}以下{\bf\ref{複合名詞解析の構成}節}では,複合名詞解析の構成の概略を述べ,{\bf\ref{従来手法と問題点の分析}節}では,クラス間共起を用いる手法のうち,クラスとしてシソーラス上の概念を用いる「概念依存法」の概括と,その問題点を整理する.{\bf\ref{文書走査による複合名詞解析}節}では提案手法の詳細を示し,共起データ抽出と構造解析について例を用いて述べる.{\bf\ref{実験結果}節}では,{\bf\ref{文書走査による複合名詞解析}節}で述べた複合名詞の解析実験の結果について示す.{\bf\ref{本論文の目的}}で述べた分析の他,ベースラインとの比較等を行う.最後に,今後の課題について述べる.
\section{複合名詞解析の構成}
label{複合名詞解析の構成}既に述べたように,複合名詞解析の基本要素は:\\(1)\入力された文字列を形態素解析により構成単語列に分解する.\\(2)\構成単語列間の依存構造のうち尤度の高いものを選択する.\\の2点である.本節ではこれらの項目について述べる.\subsection{形態素解析}\label{形態素解析}複合名詞は,まず形態素解析器により名詞,接辞等の列に分解される.我々はルールベースの形態素解析器\cite{久光1994}を用いたが,複合名詞解析の前処理として位置付けた場合,若干の調整が必要であった.例えば,「構造解析」のように長さ2の語基2個からなる複合名詞や,「解決策」,「担当者」のように,長さ2のサ変名詞に接辞が付加した複合語が登録されていると,本来捉えるべき内部構造が得られなくなることがある\footnote{例えば,「構造解析」が登録されていた場合,(((複合-語)-構造)-解析)のような内部構造は得られなくなる.}.したがって,語基や接辞である「構造」,「解析」,「担当」,「解決」,「策」,「者」等は辞書に残す一方で,長単位のエントリは削除しておく必要がある.このような手順を経たうえで,試料として選んだ400個の複合名詞(長さ5,6,7,8のもの100個ずつ)に関して,最小コストかつ最小分割数の解のみ(複数個ある場合はそのすべて)を形態素解析結果として用いた.解析の対象となる複合名詞の形態素解析の精度に関しては,形態素解析が出力する解の平均個数が1.2個で,正しい解が含まれるものは,複合名詞400個中352個であった.残りの48個について,46個は,「住専」,「大店法」のような略語や,姓,名のような未登録語が過分割される誤り(「住・専」のように)であり,2例は単語境界を捉えられない誤りであった.これらの解は,誤りがある場合もそのまま,共起情報抽出部に渡される.参考までに,固有名詞,略号等の出現単語をすべて辞書登録した場合,複合名詞1個ごとの解の平均個数は1.1個,解候補に正解を含まないものは4例であった.\subsection{複合名詞解析規則}\label{複合名詞解析規則}形態素解析の結果得られる名詞の連鎖を複合名詞に組み上げるため,2分木を基本とするCFG\breakルールと,各ルールに付随する属性計算ルールを用いた.名詞(句)と名詞(句)の連鎖により名詞句ができることを示す最も基本的なルールは,以下の3つである:\vspace*{1mm}\begin{tabular}{clll}\hboxto10mm{\hfil}&\itNP&$\rightarrow$&\itNPNP\\\hboxto10mm{\hfil}&\itNP&$\rightarrow$&\itN\\\hboxto10mm{\hfil}&\itN&$\rightarrow$&\it{w}\rm{(}\it{w}は単語\rm{)}\end{tabular}\vspace*{1mm}\noindentこれに,接頭辞(\it{PREFIX}\rm{)}に関するルール,接尾辞(\it{SUFFIX}\rm{)}に関するルール:\vspace*{1mm}\begin{tabular}{clll}\hboxto10mm{\hfil}&\itN&$\rightarrow$&\itPREFIXN\\\hboxto10mm{\hfil}&\itN&$\rightarrow$&\itNSUFFIX\end{tabular}\vspace*{1mm}\noindent等を追加することにより,標準的な二分木モデルのためのルール群が得られる.ここで,各ルールに出現する非終端記号には,属性"$head$","$cost$"を付与し,それぞれ,そのノード全体を代表する名詞である主辞と,積算されたコストを記録する.第一のルールの左辺・右辺の非終端記号を添字で区別したルール:\begin{tabular}{clll}\hboxto10mm{\hfil}&\it$NP_L$&$\rightarrow$&\it$NP_{R1}\\NP_{R2}$\end{tabular}\noindentを用いて各属性値の伝搬について一般的に記述すれば次のようになる:\vspace*{-8mm}\begin{eqnarray*}NP_{L}{\bullet}head&=&H(NP_{R1}{\bullet}head,NP_{R2}{\bullet}head),\\\vspace*{-3mm}NP_{L}{\bullet}cost&=&C(NP_{R1}{\bullet}head,NP_{R1}{\bullet}cost,NP_{R2}{\bullet}head,NP_{R2}{\bullet}cost).\end{eqnarray*}\vspace*{-2mm}\noindentここで$NP_{X}{\bullet}Y$は$NP_X$の属性$Y$の属性値を表す.$NP_{R1}$と$NP_{R2}$の親ノードとなる$NP_L$の主\break辞は$NP_{R1}$と$NP_{R2}$の主辞から計算され,$NP_L$を親とする部分木のコストは,その子ノード達\breakの属性値からボトムアップで定められる.$H$と$C$の定め方によりさまざまな尤度付けが定式化できる.主辞の定め方については,二つの名詞が複合して名詞を構成するとき,日本語では一般に後置される名詞が全体の主要部となる(すなわち,$H(NP_{R1}{\bullet}head,NP_{R2}{\bullet}head)=NP_{R2}{\bullet}head$).しかし,いくつかの例外があり,それらについては後述する.
\section{従来手法と問題点の分析}
label{従来手法と問題点の分析}本節では,小林・Lauerの概念依存モデルを{\bf\ref{複合名詞解析規則}}の枠組みを用いて表現し,改良すべき点を整理する.\subsection{概念依存モデルの実現}\label{概念依存モデルの実現}小林が示した概念依存モデルと同等の尤度付けは,次の関数$C$によるスコアの最大化問題として実現できる:\vspace{-0.3cm}\begin{eqnarray*}\lefteqn{C(NP_{R1}{\bullet}head,NP_{R1}{\bullet}cost,NP_{R2}{\bullet}head,NP_{R2}{\bullet}cost)=}\\&&NP_{R1}{\bullet}cost+NP_{R2}{\bullet}cost+{\Delta}(NP_{R1}{\bullet}head+NP_{R2}{\bullet}head),\\\lefteqn{{\Delta}(NP_{R1}{\bullet}head,NP_{R2}{\bullet}head)=}\\&&\log\frac{RF(class(NP_{R1}{\bullet}head),class(NP_{R2}{\bullet}head)}{RF(class(NP_{R1}{\bullet}head),\ast){\times}RF(\ast,class(NP_{R2}{\bullet}head)}.\\\end{eqnarray*}\vspace{-0.3cm}ここで,$class(x)$は,主辞$x$の分類語彙表中の意味分類,$RF(a,b)$は,あらかじめ用意された意味分類の2項組データベース(後で述べる単語の共起データベースから生成される)中で,意味分類$a$と$b$がこの順序で共起する相対頻度,"$\ast$"は,任意の意味分類を表す.主辞については,二つの名詞が複合して名詞を構成するとき,後置される名詞を全体の主辞としている\footnote{接尾辞が語基に後接する場合,語基を主辞とするほうが良いであろうと示唆している.}.この手法を用いた複合名詞解析の精度は,6文字漢字複合名詞で61\%,数値表現に関するテンプレートと,主辞間の依存距離を加味した場合,6文字漢字複合名詞で73\%と報告されている\cite{小林1996}.\vspace{-2mm}\subsection{課題の整理}\label{課題の整理}\vspace{-1mm}従来法の問題点を整理し,取り組むべき課題を整理すると,以下の3点となる.\vspace{-2mm}\subsubsection{共起情報獲得手法の拡充}\label{共起情報獲得手法の拡充}自明な問題としては,形態素解析用辞書またはシソーラスに登録されていない単語が出現した場合,概念共起法では取り扱いが困難なことである.既に述べたように,このような未登録語\breakは,我々が実験用に無作為抽出した400個の複合語サンプル中,120個に現れており,そのうち46個の形態素解析辞書未登録語に関しては,始めの形態素解析の段階で失敗してしまう.従って,このような事実を考慮した共起情報の獲得方法を考えねばならない.2単語の「共起」を数える場合,共起するとみなす条件の強さによりさまざまな立場がある.英語圏の研究では,緩やかな共起を認めるものとして,注目する二単語が特定の長さの単語列の中にともに出現する回数を計るワードウィンドウ法\cite{Yarowsky1992}が,強い条件を課すものとして,注目する2名詞が非名詞に両側から挟まれる形で出現する回数を計る方法\cite{Pustejovsky1993}があり,Lauerは先に述べた研究において,後者の手法の優位性を示した\cite{Lauer1995}.これらを語境界が明示されない日本語コーパスに適用するためには,語境界の同定を含む何らかの工夫が必要である.西野の手法では,名詞のクラスタリングをするために単語間の共起回数を数える際,上記の中間的な手法を取っている.すなわち,2単語がトレーニングセットに含まれる連続漢字文字列中で掛かり受けの可能性がある位置に現れたとき,両者は1回共起したとする.この場合,共起\breakの観測を連続漢字文字列中に限定することによる量的な問題と,掛かり受けの可能性が0でない名詞対をすべて1回共起したとみなすことにより生じる共起源の品質低下の問題が懸念される.小林は,単語共起データを得るために,より厳しい制限を課している.すなわち,あらかじ\breakめ獲得されている16万の4文字漢字列を用い\cite{田中1992},これを2文字ずつに分割して得られ\breakる2文字漢字列の双方が辞書にある場合,これを単語の共起と認める.小林の方法では,これを概念共起に変換するため,上記単語対の双方がシソーラス中でそれぞれ唯一の概念に対応する場合のみ,両概念が1回共起したと数える.したがって,共起データの品質は高いと思われるが,4文字漢字列という限定と,曖昧性無くシソーラスに登録されているという限定が加わる\breakため,共起を数える条件はかなり厳しい.このため,「の」で結ばれて出現する2文字の名詞対も共起したとはみなされないし,「住専」や「大店法」のように,辞書・シソーラス共に未登録の単語を含む複合語には対応できない.例えば「改正大店法施行」の場合は,「改正/SN・大/ADJ・店/N・法/N・施行/SN」と過分割されてしまい,意味の有る依存構造は得られない\footnote{観測された分割誤りはほとんどすべてが過分割誤りであるため,以下では実際的な効果と問題の簡易化のため,未登録語による分割誤りのタイプとして,過分割誤りのみを想定している.}.従って,実際のデータを扱うためには,シソーラスを用いないだけでなく,上記のような解析誤りも前提とした枠組みが必要である.ここで,「住専」,「大店法」等が掛かり受けの単位となるまとまりであることは,多くの場合,文書の他の部分におけるこれら文字列の出現状況から推定できるため,それを利用することが考えられる.我々は,シソーラスを介さずに,ノイズの少ない文字列レベルの共起情報をできるだけ多く収集するため,日本語の特性を生かしたテンプレートを各種用意し,それらを用いて共起情報を得ることにした.過分割された未登録語の発見は,これらのテンプレート中に自然に組み入れられる.\subsubsection{短い複合語の問題}\label{短い複合語の問題}「住専」,「大店法」のような未登録語だけでなく,主辞の選択においても,単語自体の情報を用いないと困難が生じることがありうる.例えば,「危険物」は,「危険」と「物」の意味的な組み合わせで全体の意味を構成できるため,辞書に「危険物」が登録されていないことは自然であり,「危険物」が「危険」+「物」と分解されることは,形態素解析として失敗ではない.しかし,「危険物」が部分複合語として含まれる複合語の掛かり受け構造を調べる場合,「危険物」を「危険」と「物」に分解したままで扱い,全体の主辞を「物」とすると,「危険物」の共起情報が適切に捉えられない恐れが多分にある.そこで,係り受けを判断する際には「危険物」全体の共起関係を利用することが必要となってくる.しかし,「危険物」のような単語すべてをあらかじめシソーラスに登録しておくことは困難であるから,「住専」のような,通常の未登録語の問題と同様,これらの部分複合語を概念共起モデルで扱うことは困難となる.これに対し,文書中の他の部分で「危険物」が独立して出現することが発見できた場合,「危険物」自体を掛かり受け単位とみて,その共起情報を取得することにすれば,シソーラスに関する制約は回避できる.以下では,複合語中で,他の単語との掛かり受けを考えるときに考慮すべき部分を,便宜上「主辞」と呼ぶことにする.\subsubsection{主辞の選択}\label{主辞の選択}{\bf\ref{短い複合語の問題}}では,短い複合語を扱う場合の辞書登録の問題とともに,主辞の選択について述べたが,単に後置される名詞を主辞とすれば良いと言えない場合として,人名,地名等の固有名詞を含む場合がある.固有名詞は,登録語も含めて,同サンプル中約29\%の複合名詞に出現したので,これらを扱う場合の主辞計算ルールも考察する必要がある.
\section{文書走査による複合名詞解析}
label{文書走査による複合名詞解析}本節では,{\bf\ref{課題の整理}}で述べた問題を解決するための手法を提案する\footnote{報告者らが以前提案した手法\cite{Hisamitsu1996}を精密化したものである.}.提案手法では,辞書とテンプレートを組み合わせて,与えられた複合名詞に含まれる名詞の共起情報を必要に応じて表層的に抽出する.その際,コーパスに応じた動的なデータ獲得を行うことが特徴である.すなわち,テンプレート照合のキーとして,初期の形態素解析の結果得られる単語を用いるだけでなく,テンプレートによるデータ抽出時に,辞書照合と文字列比較の組み合わせにより,初期の形態素解析で過分割されていた未登録語や,部分複合語の検出を行い,これらの共起情報を追加獲得する.そして,必要に応じて形態素解析結果の修正などをした後,掛かり受け解析を行う.提案する手法は,固定されたシソーラスを用いず,発見された未登録語や部分複合語に対応して,必要に応じて柔軟に共起情報を取得することができるため,頑健性に優れている.以下では,提案手法を「文書走査法」と称する.\subsection{共起データ獲得法}\label{共起データ獲得法}{\bf\ref{共起情報獲得手法の拡充}}において名詞A,Bの共起を数えるいくつかの手法について述べたが,文書走作法では,\break2単語A,Bがフィラーとなるテンプレートを用いて単語Aに関する共起単語群を抽出するため,「名詞A,Bが共起する」ことを,「A,Bが同時にあるテンプレートのフィラーとなる」こと\breakと定義する.テンプレートは,2単語の隣接を含み,小林の方法の拡張になっている.以下,文書走査法の共起単語獲得手順を例を用いながら示す:\newlength{\originalparindent}\originalparindent=\parindent\settowidth{\leftskip}{(1)\}\settowidth{\parindent}{(1)\}\parindent=-\parindent(1)\与えられた複合語を形態素解析し,結果(複数可)を分割結果リストに記録する.同時に,得られた候補単語を字面レベルでリストKEY\_LISTに記録する.ここで,KEY\_LISTは,共起情報抽出の対象となる単語(テンプレートでAの位置をしめる単語)を格納する.\settowidth{\parindent}{例)\}\parindent=-\parindent例)\「改正大店法施行」の場合,初期解析結果により唯一の解が得られ,分割結果リストは{「改正/SN・大/Adj・店/N・法/N・施行/SN」},KEY\_LISTは{改正,大,店,法,施行}となる.\settowidth{\leftskip}{(2)\}\settowidth{\parindent}{(2)\}\parindent=-\parindent(2)\KEY\_LIST中の先頭の文字列の共起文字列をテンプレートを用いて抽出する.その過程で,共起情報抽出の対象となっている単語と,分割結果リスト中での隣接単語(1個または2個)を連結した文字列が,\settowidth{\leftskip}{(2)\(I)\}\settowidth{\parindent}{(I)\}\parindent=-\parindent(I)\形態素解析の単位となるべき未登録語と判断されたとき:\settowidth{\leftskip}{(2)\(I)\}\noindent\rightskip=15mm連結された文字列をWORD\_LISTとKEY\_LISTの両方に追加する.ここでWORD\_LISTは,新たに発見された単語を格納する(新たに発見された単語の品詞については後述).\settowidth{\leftskip}{(2)\(I)\}\settowidth{\parindent}{(II)\}\parindent=-\parindent(II)\掛かり受けの単位となるべき主辞と判断されたとき:\settowidth{\leftskip}{(2)\(I)\}\noindent\rightskip=15mm上記連結した文字列を,KEY\_LISTに追加する.\settowidth{\leftskip}{(2)\}\noindentここで,(I),(II)の判断の根拠となるルールについては,{\bf\ref{連続漢字文字列中から共起情報を取り出すもの}}で{\bfフィルタリング規則}として詳述する.\settowidth{\parindent}{例)\}\parindent=-\parindent例)\「改正大店法施行」の場合,「大店法」を新たに形態素解析の単位となるべき未登録語とみなし,WORD\_LISTとKEY\_LISTに追加する.\settowidth{\leftskip}{(3)\}\settowidth{\parindent}{(3)\}\parindent=-\parindent(3)\共起情報を獲得し終えた要素は,KEY\_LISTから除去する.\settowidth{\leftskip}{(4)\}\settowidth{\parindent}{(4)\}\parindent=-\parindent(4)\KEY\_LISTが空でなければ(2)に戻る.\settowidth{\leftskip}{(5)\}\settowidth{\parindent}{(5)\}\parindent=-\parindent(5)\WORD\_LISTの要素を元の形態素解析辞書と併用して,複合名詞を再解析し,分割結果リストを更新する.\settowidth{\parindent}{例)\}\parindent=-\parindent例)\「改正大店法施行」の場合,再解析の結果,唯一の解「改正/SN・大店法/N・施行/SN」が得られ,分割結果リストは{「改正/SN・大店法/N・施行/SN」}となる.\settowidth{\leftskip}{(6)\}\settowidth{\parindent}{(6)\}\parindent=-\parindent(6)\文法と共起情報を用いて,最尤掛かり受け構造を求める.\parindent=\originalparindent\leftskip=0mm\rightskip=0mm\subsection{テンプレートの説明}\label{テンプレートの説明}本節では,{\bf\ref{共起データ獲得法}}で述べたテンプレートについて説明する.{\bf図\ref{fig:templates}}は2つの文字列A,Bの共起を抽出するためのテンプレート群である.Aは共起関係を調べる対象となる単語,Bは漢字文字列,Dは,空白,記号,“の”以外の平仮名等のいずれかであるとする(D中から“の”を除くのは,例えば「AのBのC」中から「AのB」,「BのC」だけを抜き出すと,誤った掛かり受け\breakを獲得することが多いためである).テンプレートは,連続漢字文字列中から共起情報を取り出すもの({\bf図\ref{fig:templates}}(A))と,平仮名を含む文字列中から共起情報を取り出すもの(それ以外)の二種類に分かれる.\begin{figure}[tbp]\begin{center}\leavevmode\epsfile{file=templates.epsf,scale=0.8}\vspace{3mm}\end{center}\caption{用いたテンプレートの例}\label{fig:templates}\end{figure}\subsubsection{連続漢字文字列中から共起情報を取り出すもの}\label{連続漢字文字列中から共起情報を取り出すもの}テンプレート群{\bf図\ref{fig:templates}}(A)は,2つの名詞が,連続漢字文字列内に共起する例を獲得する.Aが長さ1の単語の場合,Bは長さ2以下の漢字文字列,Aが長さ2以上の単語の場合,Bは長さ3\break以下の漢字文字列とする.ここでBの長さの制限は,掛かり受けの単位を2文字以下の基本単語(いわゆる短単位),またはそれに接辞が付加されたものとしたためで,文字数3はこれから従う.この制限を除くと,Aと共起する文字列として2語以上からなる複合語が混入するため,共起データの品質が著しく劣化する.連続漢字文字列からの共起情報抽出は,語内の単語境界が示されていないため次に述べるフィルタリング規則を補助的に用いる:\noindent{\bfフィルタリング規則}\noindent「{\bf図\ref{fig:templates}}(A)に属するテンプレートにより発見されたABおよびBAについては:\settowidth{\leftskip}{(I)\}\settowidth{\parindent}{(I)\}\parindent=-\parindent(I)\文字列ABが解析すべき複合語内に部分文字列として含まれており,AB(BA)の始端と終端が,初期分割の解における形態素境界と一致し、かつ\settowidth{\leftskip}{(I)\(a)\}\settowidth{\parindent}{(a)\}\parindent=-\parindent(a)\AB(BA)の長さが2であり,かつ連結した文字列としてAB(BA)が辞書に登録されていない\vspace*{-5mm}\begin{center}または,\end{center}\vspace*{-3mm}\settowidth{\leftskip}{(I)\(b)\}\settowidth{\parindent}{(b)\}\parindent=-\parindent(b)\AB(BA)の長さが3であり,Bも文字列の連結AB(BA)も辞書登録されておらず,辞書登録された2単語A',B'(ただしA'≠A)を用いてAB=A'B'(BA=B'A')と分割でき\breakない\vspace*{-5mm}\begin{center}または,\end{center}\vspace*{-3mm}\settowidth{\leftskip}{(I)\(c)\}\settowidth{\parindent}{(c)\}\parindent=-\parindent(c)\AB(BA)の長さが3であり,A(B)がサ変名詞でなく,Aが接頭(尾)辞またはBが接尾(頭)辞であり,文字列の連結AB(BA)が辞書登録されておらず,辞書登録された2単語A',B'(ただしA'≠A)を用いてAB=A'B'(BA=B'A')と分割できない\settowidth{\leftskip}{(I)\}\noindentならば,C=AB(BA)を新たに単語とみなし(品詞はNまたはSNとする.SNはCがサ変化\break接辞で終わる場合),WORD\_LISTとKEY\_LISTに加える.\settowidth{\leftskip}{(I)\(d)\}\settowidth{\parindent}{(d)\}\parindent=-\parindent(d)\\(b),(c)以外でAB(BA)の長さが3の場合は,A(B)がサ変名詞でなく,B(A)の長さが1\breakならば,主辞としてAB(BA)をKEY\_LISTに加える.\settowidth{\leftskip}{(II)\}\settowidth{\parindent}{(II)\}\parindent=-\parindent(II)\それ以外の場合:\\AB(BA)の長さが3以上で,Bが辞書登録されており,2単語A',B'(ただしA'≠A)を用\breakいてAB=A'B'(BA=B'A')と分割できない場合,AB(BA)を複合語とみなし,AとBが\break複合語内で共起したとする.\parindent=\originalparindent\leftskip=0mm例えば,「住専」,「大店法」,「簡素化」等が,ひらがなや括弧に挟まれる形で文中の他の部分に出現しているとき,「住/N・専/KJ・問題/N」(KJは単漢字)の"住"を対象とする共起単語抽出過程からは,I-(a)に従い「住専/N」が得られる.同様に,「改正/SN・大/Adj・店/N・法/N・施行/SN」の"大"を対象とする共起単語抽出過程からは,I-(b)に従い「大店法」が,「簡素/Adj・化/Suffix・手続/SN」の"簡素"を対象とする共起単語抽出過程からは,I-(c)に従い「簡素化/SN」が,新たに単語とみなされ,WORD\_LISTとKEY\_LISTに加えられる.\subsubsection{平仮名を含む文字列から共起情報を取り出すもの}\label{平仮名を含む文字列から共起情報を取り出すもの}1-(B)以降のテンプレート群においては,Aの長さに関わり無く,Bは長さ3以下の漢字文字列とする.テンプレート群1-(B)は,2つの名詞が,助詞「の」を挟んで共起する例を獲得するためのテンプレートである.テンプレート群1-(C)は,形容詞,形容動詞と,それが修飾する単語の例を獲得するテンプレートである.テンプレート群1-(D)は,サ変動詞と,そのガ格,ニ格,ヲ格となる名詞の例を獲得するテンプレートである.テンプレート群1-(E)は,サ変動詞と,それに連体修飾される名詞の例を獲得するテンプレートである.テンプレート群1-(F)は,並列関係をとる名詞の例を獲得するテンプレートである.テンプレート群1-(G)は,「〜についての〜」という関係にある二つの名詞の例を獲得するテンプレートである.\subsection{例}\label{例}「改正大店法施行」の解析の場合,初期の形態素解析において,5つの単語からなる唯一の解「改正/SN・大/Adj・店/N・法/N・施行/SN」を得る.第1の単語「改正」については,「改正中」(1-(A)),「法律の改正」(1-(B)),「法を改正する」(1-(D)),「改正された大店法」(1-(E))等が獲得される(「大店法」はこの段階で既に「改正」に対する共起文字列として取り上げられている).第2の単語「大」からは,「大店法」が単語としてWORD\_LISTに登録され(1-(A)+フィルタリング規則I-(b)),「大きな変化」(1-(C))等が共起例として獲得される.第3の単語「店」,第4の単語「法」については,「大」と同様に,「店の管理」(1-(B)),「法を改正」(1-(D))等が得られる.第4の単語「施行」については,「早期施行」(1-(A)),「施行を決定」(1-(D)),「大店法の施行」(1-(B))等が獲得される.最後に,新たに発見された単語“大店法”をキーとして検索を実施し,「反大店法」(1-(A))等を得る.{\bf図\ref{fig:DBexample}}(A),(B)に,上記の5つのキーに基づいて発見されたパターンと,これらを単語の共起対ごとに頻度情報とともに整理した例をまとめた.参考のため,(B)には,各対の共起パターン\breakの種類を付記したが,最終的に回数の計数時には共起の種類を区別していない.\begin{figure}[tbp]\begin{center}\leavevmode\epsfile{file=DBexample.epsf,scale=0.8}\end{center}\caption{発見された共起データの例}\label{fig:DBexample}\end{figure}\subsection{尤度判定と主辞の選択}\label{尤度判定と主辞の選択}複合名詞の掛かり受け構造の選択は,共起情報に基づくスコア付けと,共起情報が足りない場合に用いるヒューリスティクスを組み合わせて行う.\subsubsection{主辞同士の尤度計算}\label{主辞同士の尤度計算}最尤掛かり受け構造の計算は,{\bf\ref{複合名詞解析規則}}の枠組を用いて,以下の関数$C$によるコスト最小化問題と\breakして実現される:\vspace{-0.5cm}\begin{eqnarray*}\lefteqn{C(NP_{R1}{\bullet}head,NP_{R1}{\bullet}cost,NP_{R2}{\bullet}head,NP_{R2}{\bullet}cost)=}\\&&NP_{R1}{\bullet}cost+NP_{R2}{\bullet}cost+{\Delta}(NP_{R1}{\bullet}head+NP_{R2}{\bullet}head),\\\lefteqn{{\Delta}(NP_{R1}{\bullet}head,NP_{R2}{\bullet}head)=}\\&&\displaystyle-\log(\frac{Freq(NP_{R1}{\bullet}head,NP_{R2}{\bullet}head)}{Freq(NP_{R1}{\bullet}head){\times}Freq(NP_{R2}{\bullet}head)}).\\\end{eqnarray*}\vspace{-0.5cm}ここで,$Freq(x,y)$は,主辞$x,y$が何等かのテンプレート中に$A=x,B=y$または$A=y,B=x$として共起した回数,$Freq(x)$は,主辞$x$が何等かのテンプレート中に$A=x$または$B=x$として現われた回数,$Freq(y)$は,主辞$y$が何等かのテンプレート中に$A=y$または$B=y$として現われた回数を表わす\footnote{テンプレートのフィラーとなる順序は考慮していない.「簡素な手続き」,「手続の簡素さ」や,能動態と受動態の区別を無視したためである.}.$x,y$の値は文字列である.上記のコストを用いてコストの低い順から依存木を選出することは,名詞句をまとめあげるごとに計算される主辞同士の相互情報量\cite{Church1990}を依存木全体で積算した値が大きな順に依存木を選び出すのと同等である.実際,テンプレートで2名詞A,B間の共起が\break観測できるすべての位置の数を$N_{total}$としたとき,相互情報量を用いる場合,$log$の内側は,\begin{center}$\displaystyle\frac{N_{total}{\times}Freq(NP_{R1}{\bullet}head,NP_{R2}{\bullet}head)}{Freq(NP_{R1}{\bullet}head){\times}Freq(NP_{R2}{\bullet}head)}$\end{center}\noindentとすべきであるが,この値が大きくなることと,\begin{center}$\displaystyle\log(\frac{Freq(NP_{R1}{\bullet}head,NP_{R2}{\bullet}head)}{Freq(NP_{R1}{\bullet}head){\times}Freq(NP_{R2}{\bullet}head)})$\end{center}\noindentが大きくなること,すなわち,正値のコスト:\begin{center}$\displaystyle-\log(\frac{Freq(NP_{R1}{\bullet}head,NP_{R2}{\bullet}head)}{Freq(NP_{R1}{\bullet}head){\times}Freq(NP_{R2}{\bullet}head)})$\end{center}\noindentが小さくなることは同値である.文書走査法では,オンデマンドで共起情報を抽出するためコスト計算時に$N_{total}$が不明であるが,分割数の等しい解同士のコストを比較する場合には$N_{total}$は順序に影響を与えず,しかも比較は最小分割数の解同士で行われるため,$N_{total}$は無視できる.\subsubsection{主辞の選択における注意}\label{主辞の選択における注意}先にも述べたように,二つの名詞(句)を一つの名詞句に組み上げるとき,一般には後置される名詞句の主辞を全体の主辞とする.最も典型的な場合,\begin{tabular}{clll}\hboxto10mm{\hfil}&\itNP&$\rightarrow$&\it$NP_1\NP_2$\end{tabular}\noindentにおいて,典型的な場合,例えば右辺の$NP_{i}$の主辞がそれぞれ長さ2の普通名詞であるような場合,左辺の$NP$の主辞は,$NP_2$の主辞である.しかし,{\bf\ref{複合名詞解析の構成}}節で述べたように,新たな主辞を合成したり,$NP_1$の主辞を選択する方が望ましい場合がある.以下,そのような場合について述べる.\noindent{\bf短い複合語}\noindent長さが3の短い複合語に関しては,新たな主辞を合成した方が良い場合がある.例えば,以下の例:\begin{tabular}{cllll}\hboxto10mm{\hfil}&(1)&新工場&$\rightarrow$&新/Adj+工場/N\\\hboxto10mm{\hfil}&(2)&危険物&$\rightarrow$&危険/Adj+物/N\end{tabular}\noindentのうち,(1)は,右辺の2単語の長さが,順に1,2である.これに対して,(2)では,右辺の2単語の長さが,順に2,1となる.一般に(2)のように,2語目の長さが短い場合,2語目を全体\breakの主辞とするとあまり共起情報が得られないことが多い(例えば,「物」のような抽象的な名詞が直接用いられることはまれである).我々は,このような場合,部分依存構造としては[危険物]を二単語間の依存関係として認めつつ,左辺$NP$全体の主辞として,「危険物」自体を用いる\breakことした.そのために,$NP_1,NP_2$から$NP$を構成するとき,主辞を合成するルールを追加する\footnote{右辺第1項がサ変名詞の場合は,このような主辞の合成は行わない.}.このような合成された主辞に関しては,{\bf\ref{連続漢字文字列中から共起情報を取り出すもの}}のルールにより,共起情報が抽出されることに注意されたい.\noindent{\bf人名}\noindent「会長/N・山田/PN・太郎/PN・氏/Suffix・引退/SN」中の「山田/PN・太郎/PN・氏/Suffix」のようなパターンがある場合\footnote{我々の辞書は,固有名詞に,「人名」や,「姓」,「名」等の細分を持たない.この細分があれば,解析精度はより向上するであろう.},この部分の掛かり受け構造は[[山田\太郎]\氏]で,その主辞は「山田」と考えるのが自然であろう.このとき,「山田会長」のような共起関係が他の場所で観測されれば,部分構造[会長\[[山田\太郎]\氏]]が得られる.さらに,このような構造に関しては,その主辞は役職名である「会長」とするのが自然と思われる.実際は,役職名を定義してルール化することは行わなかったが,人名部分をまとめる処理は,掛かり受け解析の前処理として行った({\bf\ref{人名の場合}}を参照).\subsection{データ不足に対応するためのヒューリスティクスの整備}\label{データ不足に対応するためのヒューリスティクスの整備}データ不足に対処するための方策として,テンプレートの拡充とともに,複合名詞を構成する単語対のうち,一部の共起情報しか観測されない場合に用いるヒューリスティクスを整備した.基本的な方針は,{\bf観測された共起例をできるだけ尊重して掛かり受け構造を選択する}ことである.まず,問題を整理するため,「共起データが不足する」ことを次のように定義する:\leftskip=10mm\rightskip=10mm\noindentある依存構造に対して,そこに現れるすべての掛かり受け対に対してコーパス中で共起関係が観測されている場合,その依存構造は「共起例によって完全に覆われている」と定義する.ある複合名詞に対し,共起例によって完全に覆われた依存構造が存在しない場合,「その複合名詞に関する共起データが不足している」と定義する.\leftskip=0mm\rightskip=0mmある複合名詞について共起データが不足する場合は,大きく分けて三種類であった.すなわち,数詞を含む場合,固有名詞を含む場合,その他一般の単語からなる場合である.以下,この三つの場合についてそれぞれ述べる.\vspace*{-2mm}\subsubsection{数表現}\label{数表現}「合計約二十五万円」のように数値を含む表現の場合,通常の形態素解析を行うと「合計/SN・約/Prefix・二/Num・十/Num・五/Num・万/Num・円/Suffix」となる(Numは数詞を表す).このような数字の列を含む結果をそのまま共起解析に渡しても,数字列が長いと{\bf\ref{テンプレートの説明}}で定義されたテンプレートでは有効な共起関係は得られないうえ,数字部分の内部構造を考えること自体無意味である.我々は,宮崎や小林と同様に,数値表現は前処理によって対処した.すなわち,まず数値部\break分をまとめ,「円」,「人」,「年」等の数詞接尾辞,「約」等の数詞接頭辞を付加することにより,「約二十五万円」の部分を,予め[[約二十五万]円]のような名詞句としてまとめる処理を行った(この処理により,金額,日時,等がすべて正しく処理された).この後に,必要ならば{\bf\ref{一般の場合}}で述べるルールを適用する.\vspace*{-3mm}\subsubsection{人名の場合}\label{人名の場合}{\bf\ref{主辞の選択における注意}}で述べたように,人名の場合,低頻度であったり,他の単語(職名や「氏」など)と結合\breakして,漢字列の途中に現われることが多く,{\bf\ref{テンプレートの説明}}のテンプレートでは共起情報が得られないことが多い.このため,「$固有名詞_1$+$固有名詞_2$+氏」を$固有名詞_1$を主辞とする名詞句[[$固有名詞_1$\$固有名詞_2$]\氏]としてまとめたうえで,{\bf\ref{一般の場合}}を適用する.ここで,$固有名詞_1$は姓,$固有名詞_2$は名と想定しているが,我々の辞書には固有名詞の細分がないため,単に固有名詞としている.\vspace*{-3mm}\subsubsection{一般の場合}\label{一般の場合}ある複合名詞に対し共起例が不足する場合でも,主要な単語同士の掛かり受けは観測されていることは多く,このような情報を優先して評価することは効果的であると考えられる.我々は,この考え方をルールの形に整理し,共起例が不足する複合名詞の解析については,唯一の解が選択できるまで次のルールを順に適用することにより対応した:\settowidth{\leftskip}{(1)\}\settowidth{\parindent}{(1)\}\parindent=-\parindent(1)\なるべく多くの共起情報を利用している依存構造を優先する.\settowidth{\leftskip}{(2)\}\settowidth{\parindent}{(2)\}\parindent=-\parindent(2)\共起情報が存在しない対については大きな定正値コスト($>>1$)を与えた上で,コストが小さくなる依存構造を優先する.\settowidth{\leftskip}{(3)\}\settowidth{\parindent}{(3)\}\parindent=-\parindent(3)\共起情報が得られている終端の名詞対を結ぶ依存木上の距離(経過する最小ノード数)の和が少ないものを優先する.\settowidth{\leftskip}{(4)\}\settowidth{\parindent}{(4)\}\parindent=-\parindent(4)\依存関係にある名詞の,複合名詞内での位置の間の距離の和が少ないものを優先する.\parindent=\originalparindent\leftskip=0mm背景となる考え方は,{\bfなるべく多くの観測例を反映させた上で,最小コストの構造を選ぶこと}(ルール1,2)と,{\bf観測された共起ペアはなるべく小さな部分木のなかでまとめること}(ルール3)の二点である.後者は,長い固有名詞が,部分的な固有名詞の連鎖として合成される場合を想定している.すべての名詞対の間に共起関係が観測されないときは,(4)により最左導出優先戦略の解が得られるが,これはLauerが3単語の場合に用いたベースライン「左分岐優先」\cite{Lauer1995}を拡\break充したものにあたる.これは言語学で指摘されている「日本語においては左分岐構造が優位である」\cite{奥津1978}という点の反映でもある.ルールの適用例として,{\bf図\ref{fig:heuristics}}(a)の例は,5個の名詞のうち,1番目と3番目,4番目と5番目の名詞のみに共起関係が観測された場合である.ルールを(1)$\rightarrow$(2)$\rightarrow$(3)の順で適用することにより,観測された例を優先させ,しかも,観測された共起ペアをはじめになるべく小さな部分木のなかでまとめている(I)が選ばれる.もし,{\bf図\ref{fig:heuristics}}(b)のように,共起関係が一切観測されなかった場合,(4)に従って依存構造(III)が選ばれる.ここで,各ノードに付与された記号はそれ\breakぞれの主辞を表わし,実線は共起例が観測された依存関係,破線はそうでない依存関係を表す(具体例は,{\bf\ref{解析例}}を参照).\begin{figure}[tbp]\begin{center}\leavevmode\epsfile{file=heuristics.epsf,scale=0.77}\end{center}\caption{ヒューリスティクスの適用例}\label{fig:heuristics}\end{figure}
\section{実験結果}
label{実験結果}以上に述べた手法を用いて,新聞記事から抽出した長さ5文字から8文字までの漢字だけから\breakなる複合名詞各100個,計400個について実験を行った.\subsection{実験に用いた資料}\label{実験に用いた資料}実験に用いたのは,日経新聞1992年の記事であり,対象とした複合名詞は,1月,2月の記事\break約27,000(文字数にして約700万文字)から連続漢字列を無作為に抽出した.最初に抽出した400個のうち,34個は,複合名詞ではない,または,依存構造が一意に判断不能のいずれかであったため,解が一意的に定まるもののみになるまで無作為抽出を追加した.\subsection{ベースライン}\label{ベースライン}本論文では,提案手法の位置付けを示すためにベースラインと比較した.比較の対象としたベースラインは,テンプレートにより新たに発見された単語を追加して形態素解析結果を修正した後,人名と数表現部分は前処理し,共起情報抽出の過程で発見された長さ3の短い複合語はその部分でまとめたうえで,最左導出優先戦略を適用したものであり,最左導出優先戦略に文書走査法の特性を反映させて強化したものである.また,このベースラインは実際に扱った例における最頻掛かり受け構造を反映している.このベースラインとの比較により,共起情報やヒューリスティクスの効果を見ることができる.\subsection{コーパスサイズの影響}\label{コーパスサイズの影響}コーパスサイズの影響を調べるため,1月,2月の2月分の記事中から共起データを抽出した場合と,1年分全体から共起データを抽出した場合のそれぞれについて解析精度を調べた.\subsection{結果}\label{結果}{\bf表\ref{表:文字数と精度}}は,提案方式については2つのコーパスサイズを含む4つの場合について,文字数ごとの\break解析精度を評価したものである.未知語が無い場合に表層的な共起データとヒューリスティクスで達成できる精度の上限を見積もるため,未登録語すべてを辞書に追加したうえで,どの程度の精度が得られるかを示したのが最下段の数値である.\begin{table}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline複合名詞の構成文字数&5&6&7&8\\\hline\hlineベースライン&81&72&65&53\\\hline\parbox{10zw}{\vspace*{-2mm}\baselineskip11pt\begin{center}文書走査法\\(新聞記事2ヶ月分)\end{center}\vspace*{-2mm}}&88&83&80&75\\\hline\parbox{10zw}{\vspace*{-2mm}\baselineskip11pt\begin{center}文書走査法\\(新聞記事1年分)\end{center}\vspace*{-2mm}}&90&86&84&84\\\hline\parbox{11.5zw}{\vspace*{-2mm}\baselineskip11pt\hspace*{-3mm}\begin{center}文書走査法\\(すべての未登録語を\\\\与え、新聞記事1年分)\end{center}\vspace*{-2mm}}&94&92&91&89\\\hline\end{tabular}\end{center}\caption{複合名詞の文字数と解析精度}\label{表:文字数と精度}\end{table}\noindent\ref{表:単語数と精度}は,表\ref{表:文字数と精度}の内容を,掛かり受けに関わる単語数ごとに評価しなおしたものである.3行目以降の各行の数字は,正しく解析できた数を表す.単語数が2の場合,間違いが生じるのは未登録語などが正しく認識できない場合である.\begin{table}\begin{center}\begin{tabular}{|c|c|c|c|c|c|}\hline複合名詞の構成単語数&2&3&4&5&6\\\hline\hline\parbox{10zw}{\vspace*{-2mm}\baselineskip11pt\begin{center}各構成単語数ごとの\\複合名詞の数\end{center}\vspace*{-2mm}}&46&201&130&21&2\\\hlineベースライン&42&138&82&9&0\\\hline\parbox{10zw}{\vspace*{-2mm}\baselineskip11pt\begin{center}文書走査法\\(新聞記事2ヶ月分)\end{center}\vspace*{-2mm}}&42&176&91&16&1\\\hline\parbox{10zw}{\vspace*{-2mm}\baselineskip11pt\begin{center}文書走査法\\(新聞記事1年分)\end{center}\vspace*{-2mm}}&42&177&108&16&1\\\hline\parbox{11.5zw}{\vspace*{-2mm}\baselineskip11pt\hspace*{-3mm}\begin{center}文書走査法\\(すべての未登録語を\\\\与え、新聞記事1年分)\end{center}\vspace*{-2mm}}&46&191&112&16&1\\\hline\end{tabular}\end{center}\caption{複合名詞の構成単語数と解析精度}\label{表:単語数と精度}\end{table}ここで,単語数については,数字部分は前処理により1語と判定している.また,掛かり受け構造の正誤を判定する上で,掛かり受け構造を担う最小単位として,「大店法」のような略語系のものは,これ以上細分しないものを正解としている.獲得した単語の品詞については,現状では固有名詞の同定を行っていないため,固有名詞を文字列として獲得でき,その掛かり受けが正しく認識できても,正解とはしていない.例えば,「二子山」は普通名詞として認識され,「二子山親方」は[二子山親方]と解析できるが,「二子山」を固有名として認識できないため誤りとしている(このようなケースは,新聞記事1年分を用いた文書走査法の場合,16例あった).{\bf表\ref{表:文字数とヒューリスティクス利用数}}には,新聞記事1年分を用いた文書走査法において,共起例が不足した場合にヒューリス\breakティクスを用いた例の総数とそれによる正解の総数を,複合名詞の長さごとに示した.{\bf表\ref{表:単語数とヒューリスティクス利用数}}は,これを単語数ごとに調べたものである.\begin{table}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline複合名詞の構成文字数&5&6&7&8\\\hline\hline\parbox{19zw}{\vspace*{-2mm}\baselineskip11pt\begin{flushleft}掛かり受けに関するヒューリスティクスを\\用いた場合の数\end{flushleft}\vspace*{-2mm}}&15&29&47&45\\\hline\parbox{19zw}{\vspace*{-2mm}\baselineskip11pt\begin{flushleft}掛かり受けに関するヒューリスティクスを\\用いて解析に成功した場合の数\end{flushleft}\vspace*{-2mm}}&12(2)&26(2)&39(1)&34(1)\\\hline\end{tabular}\\{\footnotesize*括弧内は,単語間の共起が観測できず,最左分岐戦略が適用されたものの数}\end{center}\caption{複合名詞の長さごとのヒューリスティクスの利用状況}\label{表:文字数とヒューリスティクス利用数}\end{table}\begin{table}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline複合名詞の構成単語数&3&4&5&6\\\hline\hline\parbox{19zw}{\vspace*{-2mm}\baselineskip11pt\begin{flushleft}掛かり受けに関するヒューリスティクスを\\用いた場合の数\end{flushleft}\vspace*{-2mm}}&57&69&9&1\\\hline\parbox{19zw}{\vspace*{-2mm}\baselineskip11pt\begin{flushleft}掛かり受けに関するヒューリスティクスを\\用いて解析に成功した場合の数\end{flushleft}\vspace*{-2mm}}&49(3)&54(2)&7(1)&1\\\hline\end{tabular}{\footnotesize*括弧内は,単語間の共起が観測できず,最左分岐戦略が適用されたものの数}\end{center}\caption{複合名詞の構成単語数ごとのヒューリスティクスの利用状況}\label{表:単語数とヒューリスティクス利用数}\end{table}\subsection{解析例}\label{解析例}解析が成功した例と,失敗した例をいくつか示す.\subsubsection{成功例}\label{成功例}\noindent・全体を覆う共起例がある場合.\settowidth{\leftskip}{・}\noindent[[改正\大店法]\施行]\settowidth{\leftskip}{・[[改正……}\settowidth{\parindent}{………\}\parindent=-\parindent………"大店法"は,単語として獲得された.\settowidth{\leftskip}{・}\noindent[[[土地\区画]\整理]\事業]]\settowidth{\leftskip}{・[[改正……}\settowidth{\parindent}{………\}\parindent=-\parindent………"整理"と"事業"は,「事業を整理する」という形の共起しか得られなかったが,解析は正しい.\settowidth{\leftskip}{・}\noindent[[国内\[独占\販売]]\契約]\settowidth{\leftskip}{・[[改正……}\settowidth{\parindent}{………\}\parindent=-\parindent………"独占"と"販売","国内"と"販売","販売"と"契約"の共起がそれぞれ強く観察され,全体として正しく解析された.\settowidth{\leftskip}{・}\settowidth{\parindent}{・}\parindent=-\parindent・共起例が不足した場合のヒューリスティクスにより,正しい解析がえられた例:\settowidth{\leftskip}{・}\noindent[第二\[湾岸\道路]]\settowidth{\leftskip}{・[[改正……}\settowidth{\parindent}{………\}\parindent=-\parindent………"湾岸道路"が単独で観察された.この部分をまとめることにより,正解が得られた.\settowidth{\leftskip}{・}\noindent[県\[[環境\保全]\協会]]\settowidth{\leftskip}{・[[改正……}\settowidth{\parindent}{………\}\parindent=-\parindent………"県"と"協会","環境"と"保全"の共起がそれぞれ単独で観察された.これらを優先する解釈により正解が得られた.\settowidth{\leftskip}{・}\settowidth{\parindent}{・}\parindent=-\parindent・前処理により,解が一意に絞られる例\settowidth{\leftskip}{・}\noindent[同[百二十七万人]]\settowidth{\leftskip}{・[[改正……}\settowidth{\parindent}{………\}\parindent=-\parindent………"百二十七万"は数字としてまとめられ,[百二十七万人]までが「数字+接辞」とし\breakて前処理される.\parindent=\originalparindent\leftskip=0mm\subsubsection{失敗例}\label{失敗例}\settowidth{\leftskip}{・}\settowidth{\parindent}{・}\parindent=-\parindent・全体を覆う共起例があっても間違いを生じる例\settowidth{\leftskip}{・}\noindent[発売[開始以来]](正解は[[発売開始]以来])\settowidth{\leftskip}{・[[改正……}\settowidth{\parindent}{………\}\parindent=-\parindent………"発売"と"開始","発売"と"以来","開始"と"以来"のすべての対が観察されたが,"発売"と"以来"の共起が強く,これに解釈が引っ張られた.\settowidth{\leftskip}{・}\settowidth{\parindent}{・}\parindent=-\parindent・共起例が不足で,ヒューリスティクスにより間違いを生じる例\settowidth{\leftskip}{・}\noindent[酸素[[製造装置]開発]](正解は[[[酸素製造]装置]開発])\settowidth{\leftskip}{・[[改正……}\settowidth{\parindent}{………\}\parindent=-\parindent………"酸素"と"製造"という共起が観察されず,観察された"製造装置","装置開発"等の共起を優先する解釈に引っ張られた.\settowidth{\leftskip}{・}\settowidth{\parindent}{・}\parindent=-\parindent・未登録固有名詞により間違いが生じる例\settowidth{\leftskip}{・}\noindent[[[小宮路]清行]社長](正解は,[[小宮路清行]社長])\settowidth{\leftskip}{・[[改正……}\settowidth{\parindent}{………\}\parindent=-\parindent………"小宮路"が"小宮/PN"+"路/N"と分解され回復できなかった.\parindent=\originalparindent\leftskip=0mm\subsection{未登録語を含む複合名詞について}\label{未登録語を含む複合名詞について}未登録語に関しては,400個の複合名詞中,形態素解析辞書未登録語を含むものが46個,分類語彙表未登録語を含むものが117個,どちらか一方を含むものが120個あったが,これらのう\breakち85個は正しく解析された.形態素解析用辞書に登録されていない未登録語のうち,25個は共起例抽出の段階で正しく獲得され,それらを含む複合名詞のうち18個は正しく解析された.その他単語境界のみを正しく獲得した未登録語は16個あった.正しく獲得できなかった未登録語の例は,次の通り:\noindent・単語境界は検出できたが,品詞が誤り:\settowidth{\leftskip}{・単語}\noindent渚園(固有名詞.施設名),李鵬(人名),小和田(人名)\leftskip=0mm\noindent・単語境界も検出できない:\settowidth{\leftskip}{・単語}\noindent車駕之古祉(地名),日豊(「日豊本線」に出現),欽用(人名.「上条欽用氏」に出現)\leftskip=0mm
\section{考察}
label{考察}ベースラインは,数字部分や短い複合語をまとめたうえで,基本的には最左導出優先戦略をとっているが,その精度は,{\bf表\ref{表:単語数と精度}}から,3単語で約69\%であり,日本語と英語の違いにも関わらず,Lauerの「3単語65\%」\cite{Lauer1995}というベースライン精度と類似している.提案手法は{\bf表\ref{表:文字数と精度}},{\bf表\ref{表:単語数と精度}}のどちらで見てもベースラインを大きく上回っており,共起情報を用いることによる効果があきらかとなっている.また,コーパスサイズ拡大の有効性も示されており,実験した範囲では,コーパスサイズの拡大により正解は増加しても,新たな間違いが発生することはなかった.これは,新聞記事1,2月分と通年分で比較したため,文書の同質性・関連性が比較的保たれたためと思われる.共起例が不足する場合に用いたヒューリスティクスは,例えば,3単語からなる複合名詞の28\%に適用され,その86\%(49例)に正解を与えている.これらの中で,共起例が全く見つからず,単なる最左導出優先戦略で出力されたものは3例に過ぎず,この傾向は4語,5語の場合も変わらない.したがって,実際に観測された共起関係をできるだけ優先するという考え方が有効であることがわかる.{\bf\ref{未登録語を含む複合名詞について}}で述べたように,400個の複合名詞のうち形態素解析辞書またはシソーラス未登録語を含むものは120個であった.これはクラス間共起を用いる手法を用いる場合には障害となるが,提\break案手法は表層情報しか用いないため,形態素解析さえ成功すれば問題とはならず,これらのうち70\%を正しく解析できた.特に,形態素解析の過分割誤りで生じた誤りのうち18例は,未登録語を獲得してこれを修正した上で正解を得ており,提案手法がクラス間共起を用いる方法に比べて頑健であることを示している.本論文で提示した未登録語や短い部分複合語の発見手法は,文字種,長さ,出現環境のみを用いた単純な手法であるが,略称や部分複合語の発見には効果的であった.固有名詞を除いて,複合語中にのみ出現し,他に単独で現れない名詞は少ないこと,特に重要な未登録語は単独で出現しやすく,略称系の未登録語は一般的に重要度が高いこと,等の理由で,単純な手法でも効果が得られたものと思われる.
\section{おわりに}
label{おわりに}本論文では,新聞記事に現われる複合名詞内の掛かり受け構造を決定するために,コーパス中を複数個のテンプレートを用いて走査し,複合名詞構成単語間の共起情報を抽出し,複合名詞の解析を行う手法について述べた.構成単語の出現環境と辞書引きの結果から,共起データ収集と同時に,略称,短い複合語,固有名詞の一部等の未登録語を検出し,それらの共起情報も追加探索することにより,未登録語に対しても頑健かつ高精度な複合名詞解析が実現できた.また,共起例が十分に得られなかった場合のため,観察された共起例をなるべく有効に利用するヒューリスティクスを提案し,その効果が示された.解析精度においては,それ自体かなり高精度である,ベースラインとして用いた最左導出法に基づく手法を大きく上回り,長さ8の複合名詞についても80\%以上の精度で解析できることがわかった.提案した手法は,テンプレートマッチしか用いないため,頑健性,簡便性,移植性において優れている.今後の課題としては,以下のことが挙げられる.\noindent{\bf人名等の推定}単語境界が正しく獲得された未登録名詞であって,品詞が正しく判定されなかった16個の固有名詞のうち8個は人名であった.これらは,役職名や,「氏」のような周囲の手がかり語を用いることにより推定可能であると考えられる.このような部分については,ルールに基づく手法を取り入れてゆくことが効果的と思われる.\noindent{\bf解析の効率}本研究では,表層情報のみを用いて達成できる手法の能力評価が目的であったため,データ抽出を含めた解析速度は考慮していない.共起情報の抽出は,ディスク上の新聞1年分のテキストファイルの線形探索を用いており,掛かり受けの解析は,共起情報が発見されなかった主辞の間の掛かり受けのコストを仮想的な高い価に設定することにより,発見された単語共起対が最も多く用いられている掛かり受け構造中で,最小コストを持つものをまず導出し,その中から必要に応じてヒューリスティクスを用いて最尤解を選出することで行った.実験の範囲では,最尤解の選択は,共起情報抽出に比べて無視できる程度の時間しかかからなかった.共起情報抽出の高速化のためには,テキストに文字インデックスを付与してメモリ上に置き,テンプレートマッチを並列化し,共起データを再利用するなどの工夫が考えられ,1桁から2桁の高速化は可能と見積もれる.従って,今回の実験に用いた程度の複合名詞であれば,「文書走査法」の枠組みでも必ずしもリアルタイムの解析を逸脱しない.掛かり受け構造の導出には,ボトムアップ・チャート法を用いた.文字列の長さを$n$として,チャートの作成自体は${\rmO}(n^3)$で完了するが,最小コスト解の中からさらにヒューリスティクスを用いて最尤解を選択する場合,現在のままでは,複合名詞の長さの指数関数で個数が増大する可能な掛かり受け構造間の比較が必要なため,問題となる.コスト計算に掛かり受けの距離等を含めることにより,ヒューリスティクスまで考慮しながら$n$の多項式時間でチャートを作成することも可能であるため,これを実装する必要がある.\noindent{\bf言い替え表現}単語の共起頻度を記録する際に用いたテンプレートの種類は,掛かり受け解析には現在利用していない.ある依存構造が選ばれた場合,用いられたテンプレートを参照して,複合名詞を通常の文に言い替えられる可能性がある.言い替え手法の研究は,言語生成に関係する興味深い問題である.\noindent{\bf形態素解析における未知語検出・クラス間共起法との統合}形態素解析の研究の進展により,形態素解析部単独で「住専」のような未登録語を高精度に推定可能となった場合,これをただちに未登録語の発見に利用することができる.クラス間共起法との統合については,文書走査による共起情報抽において構成単語同士の共起例が十分に得られない場合に,クラス間共起法に切り替えることが考えうる(Lauerによれば,十分に共起情報がある場合,クラスを介すより,直接単語共起を用いた方が精度が良い\cite{Lauer1995}.実際,我々の例では,ヒューリスティクスが必要ない場合の4単語からなる複合名詞の解析精度は約88\%であった).このとき,複合語構成単語中にクラス所属不明語が存在する場合,それらの所属クラスを推定する必要があるため,それらの単語の出現環境を調べる必要がある.このためには,文書走査法の自然な拡張として,テンプレートを用いて,それらの単語の出現環境を単語ベクトルとして抽出し,これらのベクトルと,あらかじめ用意された,クラスを特徴付けるベクトルの比較により,単語の所属クラスを推定することが考えられる.そして,各単語の所属が推定できた時点で,クラス間共起モデルを利用する.クラス間共起でも共起情報が不足するときは,例えば今回提案したヒューリスティクスを用いて最尤解を決定すれば良い.組み合わせは他にも考えられるため,さまざまな方法を比較する必要がある.\noindent{\bf他の課題への適用}テンプレートによる表層的なデータ収集のみで,かなり困難とされてきた複合名詞解析が高精度で達成できることは,例えば構文解析の曖昧性解消問題等にも同様の手法が応用できることを示唆している.今後は,文書走査法の,そのようなタスクへの適用を図りたい.\vspace{-0.5cm}\bibliographystyle{jnlpbbl}\bibliography{v05n4_03}\begin{biography}\biotitle{略歴}\bioauthor{久光徹}{1984年東京大学理学部数学科卒業.1986年同大学院修士課程修了.同年より(株)日立製作所\基礎研究所に勤務.自然言語処理の研究に従事.現在に至る.1995年1月より1年間Sheffield大学客員研究員.情報処理学会,電子情報通信学会,言語処理学会,ACL各会員.}\bioauthor{新田義彦}{1969年東京大学理学部数学科卒業.同年より(株)日立製作所中央研究所に勤務.1974年より同システム開発研究所に勤務.1985年より同基礎研究所に勤務.この間1976〜1977年スタンフォード大学工学部OR学科(M.S.).形式言語,情報検索,機械翻訳,自然言語理解の研究に従事.1995年より日本大学経済学部教授(理工学部兼任教授).日本ソフトウェア科学会,ACM,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V09N05-03 | \section{はじめに}
ある文字列を$k$回以上含むドキュメント数には,文字列の意味に関連する性質がある.この論文では,このドキュメント数を重複度$k$のドキュメント頻度と呼び,特に$k$を指定しない場合には,重複条件付きドキュメント頻度と呼ぶことにする.図\ref{dfn-sample}は,332,918個の日本語アブストラクトの本文を対象に,様々な文字列に対し,$k$を変化させて,重複度$k$のドキュメント頻度を計測したものである.文字列が意味のある単語の部分である場合には,$k$の増加にしたがっても,文書数の減少は緩やかである.たとえば,「メ」「メデ」「メディ」「メディア」などについては,$k$が一つ増加するごとに,ドキュメントの数が半減する傾向が観察される.一方,単語の切れ目を含む文字列の場合,$k$が増えるにしたがって文章数が1/4以下になることが観測できる.この性質を使って,文書中のキーワードを辞書を使わないで検出するということが可能であるという報告\cite{Keyword}がある.重複条件付きドキュメント頻度を単語の境界の検出に使用するには,任意の文字列について,その重複度付ドキュメント頻度を求めることが必要である.たとえば,文献\cite{Keyword}の文書分析では,頻度3を越える文字列について重複条件付きドキュメント頻度を計算しており,平均440バイト程度の1ドキュメントについて,1400個程度の文字列が調査の対象となっている.単純な方法で重複度付ドキュメント頻度を求めると,文字列ごとにコーパス長に比例する計算時間がかかることになり,後述するように一つのドキュメントを処理するのも大変である.さらに,キーワードをドキュメントの全体にわたって調査すると,この処理を332,918回繰り返すことになり,単純な方法では計算時間がかかりすぎるという問題がある.\begin{figure}[htbp]\begin{center}\begin{verbatim}k=1k=2k=3k=4k=5文字列52424223241111761563419メ463222001221707392メデ458021781211699388メディ443421311195692382メディア560881540メディアを8312000メディアを用8312000メディアを用い646000メディアを用いた\end{verbatim}\caption{重複条件付きドキュメント頻度の例}\label{dfn-sample}\end{center}\end{figure}ここで,重複度を考慮しないドキュメント頻度(単純ドキュメント頻度)については,ドキュメント頻度が同じ文字列をクラス分けができ,そのクラスごとに頻度を計測することが可能であるという報告\cite{DF1}がある.例中の「メディアを用」と「メディアを用い」の二つの文字が同じドキュメント頻度を持っているが,このような文字列が一つのクラスに属する文字列の例である.報告\cite{DF1}によると,コーパスの文字数を$N$とした場合に,クラス数は最大で$2N-1$である.よって,$O(N)$の大きさの表に,任意の文字列の単純ドキュメント頻度を保持することができる.しかし,重複度を考慮した場合に同じクラス分けが使えるかどうか明らかではないという問題が残る.また,クラス分けをして,表を作成するならば,重複条件付きのドキュメント頻度は,クラスごと,つまりそのクラスを代表する一つの文字列についてのみ求めればよいが,単純な方法では,代表の文字列の個数が$O(N)$,それぞれの計算に$O(N)$かかることになり,全体で$O(N^2)$の処理となる.$N$がおよそ$10^8$程度のコーパスでは,実際に前処理が終わらないという問題が残る.文献\cite{DF1}は単純ドキュメント頻度について,この問題の解決方法を示している.この方法は,文字出現頻度から重複を除いて単純ドキュメント頻度を求めている.しかし,重複の構造が複雑な重複条件付きドキュメント頻度の計測には,重複を除くという考え方が使用できない.この論文では,重複条件付きドキュメント頻度の計測についても,クラス分けが使用できることを示し,その前処理として重複度の上限を与えた場合に,$O(N\logN)$で,クラスごとの重複条件付きドキュメント頻度の表を作ることができることを示す.そのときに,重複条件付き文字列頻度という概念を提案し,重複条件付き文字列頻度の関数として重複条件付きドキュメント頻度が求まることを示す.最後に,実際に動作するシステムを作成し,332,918個のドキュメントで,69,312,280文字からなるコーパスで計測した計算時間を示す.ここで示すアルゴリズムは,$k$を固定したとき,ある文字列が$k$回以上出現するドキュメントの数を数え上げる問題について,ドキュメントの全文字数を$N$とすると,前処理は計算時間$O(N\logN)$,メモリ使用量$O(N)$であり,その後に値を求めるときには計算時間$O(\logN)$,メモリ使用量$O(N)$である.
\section{記号の定義}
$tf(d,x)$を,ドキュメント$d$に含まれる文字列$x$の個数と定義する.この論文で扱う頻度は,$tf(d,x)$で定義できるものである.$cf(x)$は,文字列頻度と呼ばれるものであり,$df(x)$は単純ドキュメント頻度と呼ばれるものである.\begin{itemize}\item$cf(x)$\:\ドキュメント集合中に文字列$x$が出現する数\\$$cf(x)=\sum_{d}tf(d,x)$$\item$df(x)$\:\文字列$x$が1回以上出現するドキュメントの数\\$$df(x)=\mid\{d|tf(d,x)\geq1\}\mid$$\end{itemize}われわれが求めたい重複条件付きドキュメント頻度も$tf(d,x)$から求められるものである.\begin{itemize}\item$df_k(x)$\:\文字列$x$が$k$回以上出現するドキュメントの数\\$$df_k(x)=\mid\{d|tf(d,x)\geqk\}\mid$$\end{itemize}
\section{SuffixArray}
クラス分けのために,SuffixArrayというデータ構造を用いる.SuffixArrayは文献\cite{SUFFIX}によって示されたデータ構造である(図\ref{suffix_array}).このデータ構造はあるテキストがあったときに,そのテキストのすべての文字からテキストの終了までの文字列(suffix;接尾辞)の集合を考え,その集合を辞書順に並べたものである.ここで,テキストの本体がメモリにあるとすると,一つの文字列を格納するのに,文字列の開始場所という一つの整数を格納すれば良い.このため,任意の部分文字列の場所を知ることができるにもかかわらず,必要な記憶容量は$O(N)$で済む.SuffixArrayは以下のルーチンで生成できる.\begin{center}\begin{verbatim}/*size:コーパスの文字数,text:コーパスの先頭を指すポインタ*/intsuffix_compare(structsuffix_struct*x,structsuffix_struct*y){returnstrcmp(text+x->position,text+y->position);/*x->position,y->positionはそれぞれx,yに対応する場所を指すポインタ*/}for(i=0;i<size;i++){suffix[i].position=i;}qsort(suffix,size,sizeof(structsuffix_struct),suffix_compare);\end{verbatim}\end{center}ドキュメント頻度を計算する場合,ドキュメントの長さに上限があればコーパス中の文字列はドキュメント毎に区切られていると見なすことができる.この条件の下で上記のアルゴリズムを使ってデータ構造を作成するためには,$O(N\logN)$時間必要である.\par\begin{figure}[htbp]\begin{center}\epsfxsize=9cm\epsfbox{suffix_array.eps}\caption{SuffixArrayのサンプルとある文字列の出現場所の特定}\label{suffix_array}\end{center}\end{figure}
\section{文字列のクラス分け}
文字列の文献\cite{DF1}の文字列のクラス分けの方法を使用するが,この論文では,重複条件付きドキュメント頻度を求める場合にもクラス分けを使用できることを述べる.クラス分けはsuffixを用いて定義される.SuffixArrayのsuffixは辞書順に並んでいるので,文字列の先頭部分が次のsuffixと共通であることが多い.そこで,$common[i]$を$suffix[i]$と$suffix[i+1]$の文字列の先頭からの共通部分とする.文献\cite{DF1}のクラスの定義を下に示す.\parここで,定義の記述を簡単にするため$j-1<i$の場合$min_{k=i}^{j-1}=∞$とする.そして,$common[-1]=-1$,$common[N]=-1$とする.区間の境界での$common$の大きい方である$outgoing(i,j)=max(common[i-1],common[j])$と定義し,区間内部での$common$の最小のもの$inner(i,j)=min_{k=i}^{j-1}(common[k])$と定義する.\\\par\newpage[定義]\par区間$[i,j]$がクラスを形成するとは,$inner(i,j)>outgoing(i,j)$であることをいう.\\\par$inner(i,j)$は区間全体で共通部分となる文字列の長さであり,$inner(i,j)>outgoing(i,j)$であるとは区間を広げると全体で共通となる文字列が短くなるという意味となる.区間$[i,j]$がクラスを形成するとき,区間$[i,j]$に共通する「長さ$outgoing(i,j)+1$から$inner(i,j)$までの部分文字列」の集合を,その区間に対応する文字列のクラスと定義する.図\ref{suffix_array_class}で,区間$[i,j]=[2,2]$,$[i,j]=[1,4]$,$[i,j]=[1,3]$を見た場合,\begin{center}\[\begin{array}{lllllll}outgoing(2,2)&=&max(common[1],common[2])&=&max(6,3)&=&6\\inner(2,2)&=&min_{k=2}^{1}(common[k])&=&∞\\\\outgoing(1,4)&=&max(common[0],common[4])&=&max(2,0)&=&2\\inner(1,4)&=&min_{k=1}^{3}(common[k])&=&3\\\\outgoing(1,3)&=&max(common[0],common[3])&=&max(2,6)&=&6\\inner(1,3)&=&min_{k=1}^{2}(common[k])&=&3\\\end{array}\]\end{center}となり,区間$[2,2]$は$inner(2,2)>outgoing(2,2)$,区間$[1,4]$は$inner(1,4)>outgoing(1,4)$となるのでクラスを形成するが,区間$[1,3]$は$inner(1,3)<outgoing(1,3)$となるのでクラスを形成しない.\begin{figure}[htbp]\begin{center}\epsfxsize=7cm\epsfbox{suffix_array_class.eps}\caption{SuffixArray上の文字列のクラス}\label{suffix_array_class}\end{center}\end{figure}文献\cite{DF1}によると,クラス数は最大でも$2N-1$であり,その表は作成し記憶することが実際的な大きさである.\\\par[$occurence(C)$の定義]\parクラス$C$で定まる区間$[i,j]$について,集合${suffix[i],...,suffix[j]}$を$occurence(C)$とする.$occurence(C)$は,出現場所を示す整数の集合となる.\\\par[性質1]\parクラス$C$があったとき,$C$の任意の2要素$x$,$y$について,任意のドキュメントを$d$とすると,$tf(d,x)=tf(d,y)$である.\\証明\par$tf(d,x)$は,$d$の中に出現する$x$の個数であるが,これは,$x$の出現する場所で,その場所がドキュメント$d$に属する回数に等しい.$x$の出現する場所は,$x$の属するクラス$C$の$occurence(C)$で求まる.$tf(d,x)$は,$occurence(C)$の各要素である整数が,ドキュメント$d$に属しているかどうかで求めることができる.つまり,$x$の属する$C$について,$x$の出現する位置の集合$occurence(C)$を求めて,それから$tf(d,x)$を決定できる.ここで,$y$が$x$と同じクラスの属していれば,両方とも$occurence(C)$が同じであるため,$tf(d,x)=tf(d,y)$となる.\\\par[性質2]\parクラス$C$があったとき,$C$の任意の2要素$x$,$y$について,\begin{itemize}\item$cf(x)=cf(y)$\item$df(x)=df(y)$\item$df_k(x)=df_k(y)$\end{itemize}が成立する.\\証明\par性質1より,$tf(d,x)=tf(d,y)$なので,$tf(d,x)$を使用して定義できる頻度はすべて等しい.すなわち,\par$$cf(x)=\sum_{d}tf(d,x)=\sum_{d}tf(d,y)=cf(y)$$$$df(x)=\mid\{d|tf(d,x)\geq1\}\mid=\mid\{d|tf(d,y)\geq1\}\mid=df(y)$$$$df_k(x)=\mid\{d|tf(d,x)\geqn\}\mid=\mid\{d|tf(d,y)\geqn\}\mid=df_k(y)$$\\証明は単純であるが,$df_k(x)$の性質は未知であるため,同じクラスに属する文字列について,その値が等しいことを示すことは必要である.
\section{クラスの階層関係}
クラスごとの頻度の表を高速に作成するために,クラス間の階層関係を利用するが,まず,クラスの階層関係を定義する.区間$[i_1,j_1]$がクラス$C_1$を形成し,区間$[i_2,j_2]$がクラス$C_2$を形成していて,区間$[i_1,j_1]$が区間$[i_2,j_2]$に含まれているとき,$C_1$は$C_2$の下位のクラスと定義する.また,$C_2$は$C_1$の上位のクラスと定義する.\\\begin{figure}[htbp]\begin{center}\epsfxsize=7cm\epsfbox{class_kankei.eps}\caption{クラスの階層関係}\label{class_kankei}\end{center}\end{figure}[性質4]\par2つのクラス$C_1$,$C_2$に交わりがあったときには,$C_1$は$C_2$の上位のクラスであるか$C_1$は$C_2$の下位のクラスであるかのどちらかである.\\証明\par$C_1$と$C_2$に交わりがあるということは,\begin{center}\[\begin{array}{lr}i_1\leqi_2\leqj_1\leqj_2&(1)\\i_2\leqi_1\leqj_2\leqj_1&(2)\\i_1\leqi_2\leqj_2\leqj_1&(3)\\i_2\leqi_1\leqj_1\leqj_2&(4)\\\end{array}\]\end{center}のいずれかである.\par$(1)$の場合,$i_1<i_2$であると仮定する.区間$[i_1,j_1]$では$$max(common[i_1-1],common[j_1])<min_{k_1=i_1}^{j_1-1}(common[k_1])$$となるので,$common[j_1]<common[k_1]\(i_1\leqk_1\leqj_1-1)$である.一方,区間$[i_2,j_2]$では,$k_1=i_2-1$,$k_2=j_1\(i_2\leqk_2\leqj_2-1)$となる$k_1$,$k_2$が存在する.従って,$$common[k_1]=common[i_2-1]>common[k_2]=common[j_1]$$となり,区間$[i_2,j_2]$は$$max(common[i_2-1],common[j_2])<min_{k_2=i_2}^{j_2-1}(common[k_2])$$を満たさず,$i_1<i_2$の場合クラス$C_2$を形成しないので$C_1$と$C_2$に交わりはない.\par$i_1=i_2\leqj_1\leqj_2$の場合はクラスの階層の定義より,$C_2$が$C_1$の上位クラスである,または,等しいクラスである.\par$(2)$も$(1)$と同様に証明できる.また,$(3)$の場合はクラスの階層の定義より,$C_1$が$C_2$の上位クラスであるか等しいクラスであり,$(4)$の場合は,$C_2$が$C_1$の上位クラスである,または,等しいクラスである.\par以上より,2つのクラスに交わりがある場合は,一方がもう一方の上位クラス,または,下位クラスとなる.\\[性質5]\parSuffixArrayにおいて,すべてのsuffixはクラスによって階層構造を形成する.\\証明\par$common[-1]=common[N]=-1$より,最上位クラスは,すべてのsuffixを含むクラスである.また,性質4よりあるクラスが他のクラスの部分クラスでない限り交わることはない.このとき,部分クラスでは上位クラスよりその区間が短くなる.\par以上のことから,すべての文字列の出現場所は文字列クラスによって階層構造を形成する.\\[性質6]\par任意の区間$[i,j]$について,$[i,j]$を含む区間でクラスを形成する区間がある.\\区間$[i,i]$において$outgoing(i,i)<∞$,$inner(i,i)=∞$なので,$inner(i,i)>outgoing(i,i)$となり,区間$[i,i]$は1つのsuffixからなる最下位クラスを形成する.\\\par証明\par性質5より,SuffixArrayのすべてのsuffixはクラスによって階層構造を形成する.\\\par[記号]\par任意の区間$[i,j]$について,それを含むクラスを形成する区間のうち,もっとも下位のものを$[i,j]$から定まるクラスとし,$Class^{\ast}([i,j])$と記述する.任意の区間について,それを含むもっとも下位のクラスが一意に定まることは,計算量を押さえたアルゴリズムを構成するときに必要な性質である.$Class^{\ast}([i,j])$は,後述する頻度を計数するところで使用する.
\section{重複条件付きドキュメント頻度の計測における問題点}
すべてのクラスについて,それに属する文字列のドキュメント頻度を単純な方法で求めるとすると,通常の計算機では実用上問題がある.クラスの大きさが高々$2N$であったとしても,$df(x)$,$df_2(x)$,$df_3(x)$のように条件を満たす集合を作って,その大きさを計測すると,各$x$の処理に$O(N)$時間かかり,$x$が$N$個あれば,全体では$O(N^2)$時間必要となる.これは,コーパスの大きさから考えて,通常の計算機では実行できない処理となる.\par文字列の出現頻度であれば,クラス階層に従って頻度の合計を求めることができる.すなわち,下位のクラスの文字列頻度を合計して,上位の文字列頻度とすることができる.言い換えれば,長い文字列の頻度から,短い文字列の頻度をもとめることができる.しかし,ドキュメント頻度は,直接寄せ集めることができない.たとえば,図\ref{chofuku_df}のようなコーパスについて考える.文字列abcは6回出現し,それが出現するドキュメントの数が4個である.また,文字列abxは7回出現し,それが出現するドキュメントの数が5個である.このとき文字列abに続く文字のパターンがabcとabxの2つだけであったとすると,suffixの構造は図\ref{chofuku_df}に示されたような構造になる.この状況で,abの出現回数は6+7回である.しかし,この状況で,abが出現するドキュメントの数は9個とはいえない.abcとabxが両方出現するドキュメントを2個と数えることが間違いだからである.\cite{DF1}で示されるように,単純なドキュメント頻度の計数であれば,重複して数えているところを差し引くという方法があるが,ドキュメントを計測する条件が,その文字列が2回以上出現するドキュメント数であった場合,クラスの上下によるドキュメント頻度の変化はさらに複雑になり,重複を差し引くという方法は使用できない.\begin{figure}[htbp]\begin{center}\epsfxsize=12cm\epsfbox{chofuku_df.eps}\caption{重複がある場合のドキュメント頻度}\label{chofuku_df}\end{center}\end{figure}
\section{出現場所の重複条件}
重複条件付きドキュメント頻度の計測行う準備として,この論文で新しく使用する「文字列の出現場所ごとの重複条件」を定義する.重複条件付きドキュメント頻度の計測のために,クラス階層で寄せ集められる数を定義し,その数の関数として重複条件付きドキュメント頻度を求めることを行う.ここで使用する頻度を定義するために,文字列の出現場所の重複度と重複条件を使用する.すべての文字列の出現場所は,SuffixArray内の配列の番号で順序づけることができる.この順序をsuffix順と定義し,これを利用して文字列の出現場所の重複条件と重複度を定義する.\\[定義]\parある文字列$x$の出現場所の重複度が$k$であるとは,suffix順でその出現場所以下の場所で,かつ同一のドキュメントに属する文字列$x$の出現場所が$k$個あることとする.\\\par図\ref{chofuku}に重複度の例を示す.\parsuffix順でabx(suffix[3])以下の場所にあるのは,abc(suffix[0])とabd(suffix[1]),abe(suffix[2]),abx(suffix[3])である.ここで,文字列abxについてdocument\#1での文字列abの重複度$k$を求めると,ドキュメント中に文字列abc,abd,abxが出現するので,$k=3$である.\\\begin{figure}[htbp]\begin{center}\epsfxsize=10cm\epsfbox{chofuku.eps}\caption{重複度$k$}\label{chofuku}\end{center}\end{figure}[性質7]\par文字列$x$がドキュメント$i$に$t$個出現するとき,$t$個の出現場所について,すべて重複度を求め,それをsuffix順に並べると$1,...,t$となる.
\section{重複条件付き文字列頻度}
[記号]\par$x$を文字列としたとき,重複条件付き文字列頻度$cf_k(x)$と重複条件付きドキュメント文字列頻度$tf_k(d,x)$と書く.\\[定義]\par$cf_k(x)$はコーパス中で,重複度が$k$以上の文字列$x$の出現数とする.\\[定義]\par$tf_k(d,x)$はドキュメント$d$中で,重複度が$k$以上の文字列$x$の出現数とする.\\[性質8]$$\forallx,y\inC,\\forallk;\foralld;\tf_k(d,x)=tf_k(d,y)$$\\文字列$x$の属するクラスを$C$とする.重複度は,場所と文字列に関係するので注意が必要であるが,suffix順で順番をつけるので,$occurence(C)$が定まれば,それぞれの要素についての重複度が一意に定まる.したがって,$tf_k(d,x)$は$tf(d,x)$と同様に$d$と$occurence(C)$の関数となる.
\section{重複条件付き文字列頻度とドキュメント頻度の関係}
ドキュメント頻度と重複条件付き文字列頻度には下の単純な関係がある.\\[定理\\文字列頻度とドキュメント頻度の関係]$$df_k(x)=cf_{k}(x)-cf_{k+1}(x)$$証明\par$tf(d,x)=t$のとき,$k\leqt$について,$$tf_{k}(d,x)-tf_{k+1}(d,x)=1$$$tf(d,x)=t$のとき$tf_t(d,x)=1$,$tf_{t+1}(d,x)=0$,$tf_{t+2}(d,x)=0$,以下0が続くので,$k>t$について,$$tf_{k}(d,x)-tf_{k+1}(d,x)=0$$$cf_k(x)=\sum_{d}tf_k(d,x)$であるので,\begin{eqnarray*}cf_{k}(x)-cf_{k+1}(x)&=&\sum_{d}(tf_{k}(d,x)-tf_{k+1}(d,x))\\&=&\mid\{d|tf(d,x)\geqk\}\mid\\&=&df_k(x)\\\end{eqnarray*}あるテキストにおいて,$cf_k$と$df_k$を実際に求めた例を図\ref{df_cf}に示す.\par図\ref{df_cf}の3つのドキュメントで,文字列abについて$cf_k$,$df_k$を求める.まず,$cf_k$を計算する.$tf(1,ab)=7\leq8$,$tf(3,ab)=6\leq8$である,ドキュメント\#1,\#3は,重複度$k\geq8$となる文字列abが存在しないため,$cf_8$の数え上げに関係しない.ドキュメント\#2では,$tf(2,ab)=8$であるので重複度$k\geq8$となる文字列abが一つだけ($tf-k+1=1$)存在する.したがって,$cf_8(ab)=1$.同様に,$cf_7(ab)$は,$tf(1,ab)-k+1=7-7+1=1$,$tf(2,ab)-k+1=8-7+1=2$となり,ドキュメント\#1,\#2によってそれぞれ1と2がカウントアップされるので,$cf_7(ab)=1+2=3$となる.他も同様である.この様に$cf_k$が求められたので,定理「文字列頻度とドキュメント頻度の関係」を用いることで,$df_k$を計算できる.\begin{figure}[htbp]\begin{center}\epsfxsize=10cm\epsfbox{df_cf.eps}\caption{重複条件付き文字列頻度とドキュメント頻度}\label{df_cf}\end{center}\end{figure}[性質9]\parあるクラス$C$があったとき,その要素$x,y$については任意の$k$について,$$cf_k(x)=cf_k(y)$$証明\par$cf_k(x)=\sum_{d}tf_k(d,x)$,$tf_k(d,x)=tf_k(d,y)$なので,$$cf_k(x)=\sum_{d}tf_k(d,x)=\sum_{d}tf_k(d,y)=cf_k(y)$$
\section{重複度判定のためのデータ構造}
ここでは重複度を判定するためのデータ構造であるpreviousリンク(文献[DF1])について説明する.previousリンクはそれぞれのsuffixについて,同じドキュメントに属し,かつsuffix順で前にある最も近いsuffixの順位を記録しておく.もしそのような場所がなければ,-1をpreviousリンクとする.このデータ構造はコーパスの大きさに比例した大きさのメモリ領域である.\par文字列$x$のある出現重複度が$k$以上であることの判定は,その出現場所からpreviousリンクを$k$回たどれるかどうかと,たどれる場合,その文字列がまだ出現しているかを計測することで判定できる(図\ref{chofuku_struct}).\par\begin{figure}[htbp]\begin{center}\epsfxsize=12cm\epsfbox{chofuku_struct.eps}\caption{重複度判定のためのデータ構造}\label{chofuku_struct}\end{center}\end{figure}このデータ構造を作るには,ドキュメント数と同数の整数配列を用意して,それぞれの文字列の出現ごとに,ドキュメントの番号を求め,その配列からpreviousリンクの場所の情報を求めると同時に,その表を現在の場所に更新すればよい.\parpreviousリンクを作成するプログラムは以下のような構造になる.このデータ構造を作成するには,ドキュメント数と同じメモリ領域を用意し,コーパス全体を一度スキャンすることになる.\begin{verbatim}/*id_max:ドキュメント数,size:コーパスの文字数*/for(i=0;i<id_max;i++){last_suffixes[i]=-1;}for(i=0;i<size;i++){suffix[i].previous_suffix=last_suffixes[suffix[i].id];last_suffixes[suffix[i].id]=i;}\end{verbatim}重複度判定は,このpreviousリンクを$k$回たどることができ,かつその文字列が同じドキュメントにあるかどうかで判定できる.(注)実際のプログラムでは,計算量を押さえるため,単純に重複度を判定せず,この重複度の判定と別の処理を同時に行っている.
\section{クラス検出のアルゴリズム}
クラスを検出するアルゴリズムの概略は以下のように行う.\begin{enumerate}\itemSuffixArrayをsuffix順が小さいものから見て行く.\itemクラスの開始場所を見つける.\itemクラスの終了場所を探す.\begin{itemize}\itemクラスは階層構造になっているため,そのクラスの終了場所が見つかる前に,他のクラスの開始場所が見つかることがある.この場合は,スタックにその開始場所をプッシュする.\itemクラスの終了場所が見つかれば,報告しスタックを回復する.\end{itemize}\end{enumerate}上記のアルゴリズムでクラスを求めていったとき,求めるクラスの先頭が発見できていて,まだ,その終りが発見できていないクラスを計算中のクラスと呼ぶことにする.アルゴリズムでは,スタック中のクラスを現在計算中のクラスとする.\par$common[i]$はコーパスの文字列と同じ大きさの配列で,SuffixArrayで次のsuffixと文字列が一致している長さである.この文字列はドキュメントの長さを越えることはなく,したがって,計算量のオーダを増やすことはない.\par文字列のクラスは,$common[i]$の増減にしたがっている.$common[i]$が増加したときは,現在計算中のクラスを計算終了していないクラスとして登録し,新しいクラスが開始したものとして処理する.\par$common[i]$が減少しているときは次の2つのケースがある.\begin{itemize}\item現在のクラスは終了するが,実は現在のクラスと同じsuffixの場所から始まったクラスが,現在のクラス以外にもある場合.\item現在のクラスを終了し,スタックトップのクラスの処理を継続しなければならない場合.\end{itemize}2番目のケースで,スタックトップの計算途中のクラスの処理を継続するときには,このクラスがすぐに終了しているかどうかの検査から処理を継続する.クラスの発見をするには$common[i]$ごとに,クラス終了判定の操作を行うことになる.2番目のケースでは,計算途中のクラスの数だけ繰り返しが起きるのだが,その繰り返しの数を合計してもクラスの最大数を越えることはない.したがって,クラスの最大数と$common[i]$の個数からこの操作は$O(N)$で完了できる.\par現在計算中のクラスについて,以下の性質が成り立つ.\\[性質10]\par現在計算中のsuffixから始まり,ドキュメントの区切りまでの文字列を属するクラス毎に分類すると,そのクラスは現在計算中のクラスとなる.
\section{単純な重複条件付き文字列頻度の計数}
重複度$k$が与えられていたとき,すべての文字列$x$に対して重複度が$k$以上である$cf_k(x)$を求めることを考える.重複度は文字列と場所の関数であるが,同一クラスに属する文字列の重複度が異なることはない.また,同一クラスに属する文字列について,$cf_k(x)$は等しい.そこでクラスの数だけのカウンタを用意し,各suffixについて処理を行なうことでも計数できる.これを単純な方法とよぶ.この方法はメモリ領域$O(N)$であるが,計算時間が問題となる.\par計数の方法は,ある場所について,そこから始まるクラスの集合を求め,すべてのクラスに対してカウンタを用意し,クラス毎に重複度が$k$以上であるかを判定して,カウンタに1を加えるというものである.この方法を単純に行うと,一つのsuffixに関連するクラスが多数になり得るため,$O(N\logN)$以下の計算量では収まらない場合がある.具体的には同じ文字が長く連続するようなデータがこのケースになる.\par
\section{重複条件付き文字列頻度の計数}
重複条件付き文字列頻度の計数を単純な方法で行うと,一つのsuffixに対し,それが含まれるクラスをすべて求め,そのクラスのすべてに対してカウンタの更新を行わなければならない.しかし,以下の性質を利用することですべてのクラスに対しカウンタを更新することを避けられる.\\[性質11]\parある場所が与えられたとき,そのsuffixの先頭の文字列に対応するクラスの集合が求められるが,そのクラスには一意の階層関係がある.\\[性質12]\parある場所が与えられたとき,そこのsuffixの先頭の文字列に対応するクラスのうち,あるクラスの文字列について重複度が$k$であったとすると,そのクラスより上位のクラスの重複度は$k$以上である.\parこの2つの性質のため,カウンタの加算を一つのsuffixと一つの重複度$k$にに対して一つにすることができる.つまり,あるsuffixで重複度$k$以上となるクラスのうち,最下位のクラスのカウンタだけを加算しておき,下位クラスの計数が終了したときに,上位のクラスのカウンタにその計数値を加算していくことで,すべてのクラスの計数値を得ることができる.
\section{クラスの発見と頻度計算}
\subsection{クラスの始まりを発見したときの処理}あるクラスの始まりは$common[i]$が増加したことで発見できる.このとき,現在計測している重複条件付き文字列頻度の情報はほかのクラスの情報と同様にスタックに待避させ,重複条件付き文字列頻度は0に初期化して新たに計数する.\subsection{重複度判定とクラス選択の融合}ある場所で,重複度が$k$より大きいクラスのなかで最も下位のクラスを特定する操作は,重複度判定と融合することができる.重複度の判定はpreviousリンクを$k$回たどった場所$i$と,現在の場所$j$の区間が一つのドキュメントに含まれるかどうかで行うので,逆にその区間を含むクラスの集合を求めておき,その中で$Class^{\ast}([i,j])$を求めることができる.\parこの操作は,さらにクラスの検出と同時に行うことができる.これは,「ある場所で,重複度が$k$より大きい$Class^{\ast}([i,j])$」を定める区間$[i,j]$が,現在の場所$j$を終りに持つため,検出の途中では計算未終了のクラスとなっていることを利用する.\par具体的には,まず,previousリンクを$k$回たどったところにある文字列の出現を求める.次に,その出現場所と最初の出現場所を含む文字列から,共通かつ計算中の$Class^{\ast}([i,j])$を特定する.そのクラスの重複条件付き文字列頻度を加算する.\subsection{クラスの終了を発見したときの処理}あるクラスの終了は$common[i]$が減少することで発見できる.このとき,上位クラスへ計数の値を伝える処理をする.下位クラスの計数が終了したときに上位クラスのカウンタに,その計数値を加算することで,結果的にすべてのクラスに加算するのと同じ値を得ることができる.
\section{実行例}
サンプルとして処理するデータは以下のファイルである.一行が一つのドキュメントになっている.\begin{verbatim}abcabcabcabcdabcdebcde\end{verbatim}\subsection{SuffixArrayの作成とクラス検出の準備}第一段階では,SuffixArrayを作成し,commonをもとめ,PreviousLinkを作成する.例に対しては以下のようなデータが作成される.先頭から,\begin{itemize}\itemsuffixの番号\itemsuffixが属するドキュメントの番号\item同じドキュメントに属しているsuffixで,直前に現れたものの番号\item直後のsuffixと「先頭から一致している文字列」の長さ\itemそのsuffixの文字\end{itemize}である.\begin{verbatim}00-10:11-10:22-10:33-10:4003:abc5046:abcabc6053:abcabcabc7114:abcd8220:abcde9062:bc10095:bcabc110102:bcabcabc12173:bcd13284:bcde14330:bcde150111:c160154:cabc170161:cabcabc181122:cd192133:cde203140:cde211181:d222192:de233200:de242221:e253230:e\end{verbatim}\subsection{求められたクラスの表の例}本文で説明した方法で,$cf$が2より大きなクラスを求める.これを,クラスの先頭の場所を第1キー,長さを第2キーにしてソートし,同時に,重複条件付き文字列頻度から,文書頻度に変換する.その結果は,以下のようになる.この例では,$cf$が2より大きなクラスは全部で14個ある.クラスごとに,対応する区間,次に長さ,それぞれのクラスに対する統計値とクラスを代表する文字列となっている.クラスを代表する文字列とは,そのクラスのなかで最長の文字列である.この中には,区間の大きさが1のクラスは含まれていない.この情報の中にはクラスに含まれる最短の文字列が何であるかという情報が含まれていない.そのような文字列は,クラスを代表する文字列と先頭から比較していき,最も長く一致するものの中で最も上位のクラスの情報を取り出すことで対処している.クラスのソートで,区間の先頭を第1キーにすることでほぼ辞書順に並ぶ.区間の先頭が同じ場合には,長さが短いほうが優先されることで,結果としてクラスの代表する文字列は辞書順に並ぶ.\begin{verbatim}total=14Class[4,8]L=3tf=5df1=3df2=1df3=1df4=0S="abc"Class[5,6]L=6tf=2df1=1df2=1df3=0df4=0S="abcabc"Class[7,8]L=4tf=2df1=2df2=0df3=0df4=0S="abcd"Class[9,14]L=2tf=6df1=4df2=1df3=1df4=0S="bc"Class[10,11]L=5tf=2df1=1df2=1df3=0df4=0S="bcabc"Class[12,14]L=3tf=3df1=3df2=0df3=0df4=0S="bcd"Class[13,14]L=4tf=2df1=2df2=0df3=0df4=0S="bcde"Class[15,20]L=1tf=6df1=4df2=1df3=1df4=0S="c"Class[16,17]L=4tf=2df1=1df2=1df3=0df4=0S="cabc"Class[18,20]L=2tf=3df1=3df2=0df3=0df4=0S="cd"Class[19,20]L=3tf=2df1=2df2=0df3=0df4=0S="cde"Class[21,23]L=1tf=3df1=3df2=0df3=0df4=0S="d"Class[22,23]L=2tf=2df1=2df2=0df3=0df4=0S="de"Class[24,25]L=1tf=2df1=2df2=0df3=0df4=0S="e"\end{verbatim}\subsection{文字列に対する処理}与えられた任意の文字列に対して,上記の表を二分探索することで$tf,df_1(=df),df_2,df_3,df_4$を求めることができる.二分探索であり,表の大きさは$O(N)$であるので,この処理は$O(\logN)$で終了する.\begin{verbatim}abc--Class[4,8]に該当(代表文字列)53110abcabcabc--Class[5,6]に該当(代表文字列)21100abcabcabcd--Class[7,8]に該当(代表文字列)22000abcdabca--Class[5,6]に該当(代表文字列でない)21100abcaabcab--Class[5,6]に該当(代表文字列でない)21100abcababcabc--Class[5,6]に該当(代表文字列)21100abcabcabcabca--表になく,コーパスに存在する11000abcabcaabcabcab--表になく,コーパスに存在する11000abcabcababcabcabc--表になく,コーパスに存在する11000abcabcabcabcabcabca--表になく,コーパスに存在しない00000abcabcabca\end{verbatim}
\section{実行時間の計測}
実行時間の計測は,どのようなドキュメントを用いても良いが,ここでは,技術用語のアブストラクトの集合を使用した.そこからアブストラクトの本文だけを抜き出し,一行を一つのドキュメントに整形したものである.332,918文書,69,312,280文字,130,993,215バイトのコーパスである.測定には,AthlonMP1.2Mhz,3GByteメモリのシステムを使用した.\subsection{ボトムラインシステム}最初の比較対象のシステムは,一番単純な方法で計測した場合である.文字列と重複度$k$が与えられたときに,$k$のドキュメント頻度をは,コーパスの先頭から順番に見るという方針で求めるものである.具体的には,以下のようなプログラムで求める.これば,クラス分けもクラスの階層構造も利用しないシステムとなっている.このシステムは定義が単純であるため速度の比較だけでなく,プログラムの動作の正答を用意し,提案するシステムが正しく動作していることの確認にも使用した.このシステムを{\ttlinear}と呼ぶことにする.\begin{verbatim}/*s1の先頭がs2で始まっているかどうかを検査する関数*/staticintstring_sub(char*s1,char*s2){while(*s2){if(*s1!=*s2){return0;}s1++;s2++;}return*s1;}/*改行までの間に,文字列がk回出現するかどうか調べ,出現した回数をカウントする回数.*/intdfn(intk,char*s){inti;/*stringposition*/intt;/*termfrequencyinadocument*/intn;/*documentfrequency*/n=0;t=0;for(i=0;i<size;i++){if(string_sub(&text[i],s))t++;if(text[i]=='\n'){if(t>=k)n++;t=0;}}returnn;}\end{verbatim}\subsection{ベースラインシステム}ベースラインシステムは,クラス分けを使用しているが,表を作成するときにクラスの階層構造を使用しないシステムである.クラスの検出のあと,下のCのプログラムを使って,$df_1$から$df_5$までを同時にもとめて表にする.このシステムを{\ttbase}と呼ぶことにする.\begin{verbatim}/*重複条件付きドキュメント頻度を一斉に求める関数結果は,staticな配列に保存する.*/staticintdfn[MAX_C];staticvoidcount_dfn(char*s,intlen){inti;/*stringposition*/intt;/*termfrequencyinadocument*/intn;/*documentfrequency*/intk;n=0;t=0;for(k=0;k<MAX_C;k++){dfn[k]=0;};for(i=0;i<size;i++){if(strncmp(&text[i],s,len)==0)t++;if(text[i]=='\n'){for(k=0;k<MAX_C;k++){if(t>k)dfn[k]++;}t=0;}}}\end{verbatim}\subsection{提案システム}提案するシステムはこの論文で記述した方法を用いたものであり,クラスの表を作成し,表の数値を計数するときに,クラスの階層の性質を使用したものである.このシステムを{\ttclass}と呼ぶことにする.\subsection{計測}実験は,10個のドキュメントのなかに含まれる文字列頻度が3をこえるすべての文字列について,$cf$,$df_0$,$df_1$,$df_2$,$df_3$,$df_4$,$df_5$を求めることを行った.コーパスの文字数$N$による効果を測定するために,使用するコーパスを,先頭から,316ドキュメント,1000ドキュメント,3162ドキュメント,10000ドキュメント,31623ドキュメント,100000ドキュメント,332918ドキュメントと変化させた実行時間を計測した.実行時間は,前処理の時間と,重複条件付きのドキュメント頻度を求める時間とに分けて計測した.表\ref{実行時間}に{\ttlinear},{\ttbase},{\ttclass}の実行時間を示す.表\ref{実行時間}の中の時間は,処理装置の使用時間を秒で示したものである.また,すべてのプログラムが同一の頻度を出力することも確認した.重複条件付きドキュメント頻度の分析対象とした文字列は,10ドキュメント,4156バイト,2190文字の部分文字列で,統計的に安定な頻度が3を越える文字列である.この文字列の数は,コーパスが大きくなるにつれ増加するが,その増加は緩やかである.{\ttlinear}システムは,前処理は必要なく,前処理の時間はテキストを読む時間だけである.この計測ではファイル処理の時間は除外しているので,前処理の時間は0.0となる.{\ttlinear}システムは直ちに結果を出力し始めるがコーパスのドキュメント数が増加することに比例して一つあたりの分析時間が大きくなっていく.10個のドキュメントの分析という小さな問題であっても,実用的に使用できるのは,ドキュメントの数が1万程度までである.{\ttbase}システムは,分析時間は高速になるが,前処理に$O(N^2)$の時間がかかることが観測される.実用的に使用できるのは,ドキュメントの数が数千個程度までである.提案するシステム({\ttclass})の実行時間は,実データにおいて,前処理$O(N\logN)$となっている.そして,分析時間を分析対象の文字数で割ることで求められる1文字列あたりの時間は,最大でも0.036ミリ秒であり,1000ドキュメントより大きなコーパスにおいて,$O(\logN)$となっている.332,918ドキュメントの前処理の時間は1223.4と$O(N\logN)$に比べて大きい.ほかに比べて増加しているのは,実験に使用したコンピュータの実装メモリに近いプロセスの大きさになったためだと考えられる.以上,クラス分けによる表の作成と,クラスの階層構造を利用することによって,はじめて10万を越えるドキュメント数に対して分析ができるようになったことがわかる.\begin{table}[htbp]\begin{center}\begin{tabular}{|r|r|r|}\hlineドキュメント数&コーパス文字数&文字列個数\\\hline316&66547&6119\\1000&221457&6957\\3162&724945&8018\\10000&2336198&9189\\31623&6862825&10349\\100000&20095547&11214\\332918&69312280&12270\\\hline\end{tabular}\vspace*{3mm}\\\begin{tabular}{|r|rr|rr|rr|}\hline{ドキュメント数}&\multicolumn{2}{|c|}{linear\[sec]}&\multicolumn{2}{|c|}{base\[sec]}&\multicolumn{2}{|c|}{class\[sec]}\\&前処理&分析&前処理&分析&前処理&分析\\\hline316&0.0&89.2&81.4&0.10&0.3&0.10\\1000&0.0&312.3&891.6&0.14&1.1&0.14\\3162&0.0&1173.8&9802.6&0.19&4.4&0.19\\10000&0.0&4315.8&-&-&17.5&0.26\\31623&-&-&-&-&59.9&0.31\\100000&-&-&-&-&202.6&0.38\\332918&-&-&-&-&1223.4&0.44\\\hline\end{tabular}\vspace*{2mm}\caption{実行時間の計測}\label{実行時間}\end{center}\end{table}\vspace*{4em}\subsection{メモリ容量負荷}プログラムで使用するメモリの量を示すために,実行しているプロセスの大きさを計測する.これを表\ref{プロセス}に示す.計測では分析する重複度の上限は5に設定している.表\ref{プロセス}より,提案するシステムのメモリ負荷は,$O(N)$となっていることがわかる.そして,表の作成に,1クラスあたり100バイト,表の検索に,1クラスあたり50バイト使用していることがわかる.表の検索のプログラムは,クラス分けの表とSuffixArrayを保持しており,プロセスの大きさの主要な部分は,その大きさである.表を作成するには,クラス検出のためのデータ構造や,重複度判定のためのデータ構造などがあり,分析処理よりもメモリを多く必要とする.\begin{table}[htbp]\begin{center}\begin{tabular}{|l||r|r|r|r|}\hlineドキュメント数&10000&31623&100000&332918\\\hline$cf>2$のクラスの数&787844&2303978&6815815&24018652\\表の作成プロセス&80M&234M&626M&2366M\\分析処理プロセス&40M&116M&333M&1175M\\\hline\end{tabular}\vspace*{2mm}\caption{メモリ使用量の計測}\label{プロセス}\end{center}\end{table}\newpage
\section{そのほかの応用}
任意の文字列について,前処理の後に$O(\logN)$で重複条件付きドキュメント頻度の分析を行うことは,文字列の統計処理の基本技術であり,ここで述べた単語の境界の分析以外にも応用範囲がある.\subsection{情報検索への応用}日本語,中国語などの情報検索では2文字の文字列に対して,ドキュメント頻度を計測して,2文字に対して情報検索の重みを計算することが行われている.$df_2(x)/df_1(x)$は,Adaptationと呼ばれる量で,ドキュメントの確率という空間において,ドキュメントにある文字列が出現するということを条件としたとき,そのドキュメントに2回文字列が出現する確率の推定値である.文献\cite{DF2}は英語において,その確率が統計的に単語の性質を識別できることを示している.この量を使って検索対象の文字列を区分けすると検索精度が向上するという報告\cite{IR}がある.あらかじめ表を作成するのが難しいため,この報告の処理対象は2文字に限られていたが,ここで述べた方法を使って,任意の長さの文字列から検索に効果のある文字列を選びだし,情報検索の性能を向上させるのは有望な応用の一つだと考えられる.\subsection{遺伝子情報への応用}文献\cite{Keyword}は,自然言語で書かれたドキュメントを分析対象として,辞書を使わず,重複条件付きドキュメント頻度からキーワードを抽出していたが,これは「あるドキュメントに繰り返し現れる文字列」を効果的に取り出すシステムと解釈できる.これを遺伝子情報に適用して,「遺伝子に繰り返し現れるDNA配列」を検出するのは有望な応用の一つと考えられる.遺伝子の長さを考えると,ここで示した方法をつかってはじめて,遺伝子のドキュメント頻度の分析ができるようになると考えられる.\subsection{プログラミングツールへの応用}文献\cite{TOOL}は,文字列の頻度を分析して,プログラム中にまれにしか現れない文字列を検出し,それがプログラムの欠損の判定に効果があることを示している.このツールにおいて,使用しているのは文字列の総出現頻度だけであるが,重複条件付きドキュメント頻度はプログラム中の構造がより精密に判定できる情報源である.あらたな情報が提供されれば,このようなツールの検出性能が向上することが期待できる.
\section{まとめ}
この論文では,重複条件付きドキュメント頻度の性質を述べたあと,それを前処理で表にする方法を述べた.その経過において,まず,出現場所の集合という概念を示すことで,既存のクラス分けの方法が重複条件付きドキュメント頻度の計数に使えることを述べた.次に,クラスの階層関係を利用して計数できる重複条件付文字列頻度を説明し,それを用いて重複条件付きドキュメント頻度の表を構成できることを述べた.最後に,クラス分けの効果とクラスの階層構造の利用が処理に効果があることを,332,918個のドキュメントをもつコーパスで検証し,ドキュメントの長さを$N$とするとき,前処理の処理時間が$O(N\logN)$であり,表を引く処理が$O(\logN)$であることを確かめた.最後に,実行中のプロセスの大きさを調べることでメモリの負荷が$O(N)$であることを確認した.そして,この方法で10万を越える数のドキュメントについて,任意文字列に対する重複度付きドキュメント頻度の分析を行えたことを報告する.\acknowledgment本研究は平成14年度IPA未踏ソフトウェア創造事業のプロジェクトの一部であり,住友電気工業株式会社の援助による成果です.また,AT\&T\KennethW.Church氏,つくば大学\山本幹雄氏にはクラスシステムについて,直接,教えて頂きました.深く感謝します.\bibliographystyle{jnlpbbl}\bibliography{369}\begin{biography}\biotitle{略歴}\bioauthor{梅村恭司}{1983年東京大学大学院工学系研究科情報工学専攻修士課程修了.同年,日本電信電話公社電気通信研究所入所.1995年豊橋技術科学大学工学部情報工学系助教授,現在に至る.博士(工学),記号処理,統計言語処理,システムプログラムの研究に従事ACM,ソフトウェア学会,電子情報通信学会,計量国語学会各会員.}\bioauthor{真田亜希子}{1978年生.2001年豊橋技術科学大学工学部情報工学課程卒業.同年豊橋技術科学大学大学院工学研究科情報工学専攻修士課程入学,現在に至る.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V02N04-01 | \section{背景と目的}
今日,家庭向けの電化製品から,ビジネス向けの専門的な機器まであらゆる製品にマニュアルが付属している.これらの機器は,複雑な操作手順を必要とするものが多い.これを曖昧性なく記述することが,マニュアルには求められている.また,海外向けの製品などのマニュアルで,このような複雑な操作手順を適切に翻訳することも困難である.そこで,本稿は,上記のような問題の解決の基礎となるマニュアル文を計算機で理解する手法について検討するが,その前に日本語マニュアル文の理解システムが実現した際に期待される効果について述べておく.\begin{itemize}\item日本語マニュアル文の機械翻訳において言語-知識間の関係の基礎を与える.\item自然言語で書かれたマニュアル文の表す知識の論理構造を明らかにし,これをマニュアル文作成者にフィードバックすることによってより質の良いマニュアル文作成の援助を行なえる.\itemマニュアル文理解を通して抽出されたマニュアルが記述している機械操作に関する知識を知識ベース化できる.この知識ベースは,知的操作システムや自動運転システムにおいて役立つ.\end{itemize}さて,一般的な文理解は,おおむね次の手順で行なわれると考えられる.\begin{enumerate}\item文の表層表現を意味表現に変換する.\label{変換}\itemこの意味表現の未決定部分を決定する.\label{決定}\end{enumerate}\ref{変換}は,一般的に「文法の最小関与アプローチ」\cite{kame}といわれる考え方に則って行なわれる.この考え方は,文を形態素解析や構文解析などを用いて論理式などの意味表現へ翻訳する際,統語的知識や一部の意味的知識だけを利用し,以後の処理において覆されない意味表現を得るというものである.よって,得られた意味表現は一般に曖昧であり,文脈などにより決定されると考えられる未決定部分が含まれる.従来の\ref{決定}に関する研究は,記述対象や事象に関する領域知識を利用して,意味表現の表す物事に関する推論をして,意味表現の未決定部分を決定するという方向であった(\cite{abe}など).これは,知識表現レベルでの曖昧性解消と考えることができる.領域知識を用いる方法は,広範な知識を用いるため,曖昧性解消においては有用である.しかし,この方法を用いるには,大規模な領域知識ないし常識知識をあらかじめ備えておく必要があるが,現在そのような常識・知識ベースは存在していない点が問題である.したがって,この問題に対処するためは,個別の領域知識にほとんど依存しない情報を用いることが必要となる.さて,本稿では,対象を日本語マニュアル文に限定して考えている.そして,\cite{mori}に基づき,上記の個別の領域知識にほとんど依存しない情報として,言語表現自体が持っている意味によって,その言語表現がマニュアル文に使用される際に顕在化する制約について考察する.ここで重要な点は,以下での考察が個別のマニュアルが記述している個別領域(例えば、ワープロのマニュアルならワープロ操作固有の知識)を問題にしているのではなく,マニュアル文でありさえすれば,分野や製品を問わずいかなるマニュアル文にも通用する制約について考察しようとしている点である.しかし,領域知識にほとんど依存しないとはいえ,言語的な制約を適用する話し手,聞き手などの対象が,解析しようとしているマニュアル文では何に対応しているかなどの,言語的対象とマニュアルで述べられている世界における対象物の間の関係に関する知識は必要である.以下では,この知識を言語・マニュアル対応関係知識と呼ぶ.ここでは,対象としているのが日本語マニュアル文であるから,言語学的な対象と記述対象の間の関係に関する情報などこの種の情報は「解析中の文章が日本語で書かれたマニュアルに現れる文である」ということ自身から導く.よって以上の手順をまとめると,本稿で想定している日本語マニュアル文の理解システムでは,「文法の最小関与アプローチ」による構文解析と,言語表現自身が持つ語用論的制約と,言語・マニュアル対応関係知識に基づいて,マニュアル文を理解することとなろう.さて,意味表現の未決定部分を決定する問題に関しては,ゼロ代名詞の照応,限量子の作用範囲の決定や,もともと曖昧な語の曖昧性解消など,さまざまな問題がある.日本語では主語が頻繁に省略されるため,意味表現の未決定部分にはゼロ代名詞が多く存在する.そのため,ゼロ代名詞の適切な指示対象を同定することは日本語マニュアル文の理解における重要な要素技術である.そこで,本稿では,ゼロ代名詞の指示対象同定問題に対して,マニュアル文の操作手順においてしばしば現れる条件表現の性質を利用することを提案する.というのは,システムの操作に関しては,今のところ基本的に利用者とのインタラクションなしで完全に動くものはない.そこで,ある条件の時はこういう動作が起きるなどという人間とシステムのインタラクションをマニュアルで正確に記述しなければならない.そして,その記述方法として,条件表現がしばしば用いられているからである.一般に,マニュアル文の読者,つまり利用者の関心は,自分が行なう動作,システムが行なう動作が何であるか,自分の動作の結果システムはどうなるかなどを知ることなので,条件表現における動作主の決定が不可欠である.従って,本稿では,マニュアルの操作手順に現れる条件表現についてその語用論的制約を定式化し,主に主語に対応するゼロ代名詞の指示対象同定に応用することについて述べる.もちろん,本稿で提案する制約だけでゼロ代名詞の指示対象同定問題が全て解決するわけではないが,条件表現が使われている文においては有力な制約となることが多くのマニュアル文を分析した結果分かった.さて,本稿で問題にするのは,操作手順を記述する文であり,多くの場合主語は動作の主体すなわち動作主である.ただし,無意志の動作や,状態を記述している文あるいは節もあるので,ここでは,動作主の代わりに\cite{仁田:日本語の格を求めて}のいう「主(ぬし)」という概念を用いる.すなわち,仁田の分類ではより広く(a)対象に変化を与える主体,(b)知覚,認知,思考などの主体,(c)事象発生の起因的な引き起こし手,(d)発生物,現象,(e)属性,性質の持ち主を含む.したがって,場合によってはカラやデでマークされることもありうる.若干,複雑になったが非常に大雑把に言えば,能動文の場合は主語であり,受身文の場合は対応する能動文の主語になるものと考えられる.以下ではこれを{\dg主}と呼ぶことにする.そして,省略されている場合に{\dg主}になれる可能性のあるものを考える場合には、この考え方を基準とした.以下,第2節では,マニュアル文に現れる対象物と,依頼勧誘表現,可能義務表現が使用される場合に言語学的に導かれる制約について記す.第3節では,マニュアル文において条件表現が使用される場合に,言語学的に導かれる制約を説明し,さらに実際のマニュアル文において,その制約がどの程度成立しているかを示す.第4節は,まとめである.
\section{マニュアル文における基本的制約}
マニュアルを構成する最も基本的なオブジェクトおよびその言語的な役割は大別すると次のようになる.\begin{description}\item[制約1]マニュアル文における言語的役割に対応するオブジェクト\item[話し手]メーカー(マニュアルライター)である.意図を持つ.\item[聞き手]マニュアルの読み手である利用者になる.意図を持つ.\item[第三者]装置やシステムの全体もしくは一部を表す.通常は,意図的動作を行なわず,メーカー,利用者により制御される.またすべての動きがメーカーに把握されている.ただし,非常に知的なマシンの場合には,意図を持ち得る.\end{description}これらを考慮するとマニュアル文で用いられる人称は次のようになる.\begin{description}\item[制約2]人称\item[一人称]メーカー\item[二人称]利用者\item[三人称]システム\end{description}次に,基本的な表現形式についての考察をする.マニュアルの基本的な構成は説明の仕方の説明,操作手順の説明,アフターサービスに関する説明等からなる.これら各々の文脈に現われる文は性質が異なる.操作手順の説明では,話し手の動作は既に完了しているが,説明の仕方の説明,アフターサービスに関する説明では,その限りではない.そこで,以下の考察では,マニュアルの主要部である操作手順の説明に現れる場合を考える.まず,依頼文について考える.例えば,\enumsentence{「ここで設定したホスト名は,NCDXサーバで発生するNFSの要求に内部的に使用されることに留意して下さい.」\cite[p.3-29]{NCDw}}のように,マニュアル文での依頼対象は人称の制約(制約2)から利用者となる.従って次の制約が得られる.\begin{description}\item[制約3]依頼勧誘表現\end{description}\begin{quote}依頼,勧誘表現の文において依頼ないしは勧誘されて動作などを行なう{\dg主}は,利用者である.\end{quote}また,マニュアルにはある動作に関する許可,可能,義務などの状態を表現するモダリティがしばしば現われる.ここでは,可能表現と義務表現について考える.可能表現の例文を示す.\enumsentence{\label{kanou}「この設定により,Telnetで接続する場合にTelnetホスト名の入力を省略できます.」\cite[p.3-33]{NCDw}}可能表現を持つ文は,ある動作をすることが可能であることを示すとともに,その動作を行なうことに関して,{\dg主}に選択権があることを示す.また,義務表現を持つ文は,{\dg主}がある動作をしなければならないことを示しているが,これは,{\dg主}には選択の余地があり,その動作を行なわない可能性があるからである.よって,次の制約が得られる.\begin{description}\item[制約4]可能表現,義務表現における{\dg主}\end{description}\begin{quote}可能表現,義務表現の文の{\dg主}は何らかの意味でその選択を行なうための意図を持ち得なければならない.マニュアルが読まれている時点では操作に関するメーカの動作は終了しているとすれば,{\dg主}はメーカにはなり得ないので,利用者となる.\end{quote}これより,(\ref{kanou})の場合「省略する」動作を行なうのが利用者であることが得られる.
\section{条件表現の{\dg主}に関する制約}
日本語の条件表現には,「れば」,「たら」,「なら」,「と」があり,これらの形式を特徴づける基本的性格は異なっている\cite{masu}.それぞれの基本的な特徴をまとめると表\ref{kihon}のようになる.\begin{table}[htbp]\begin{center}\caption{条件表現の基本的特徴}\label{kihon}\begin{tabular}{|c|l|}\hline形式&基本的特徴\\\hline\hline「と」&現実に観察される継起的な事態の表現\\\hline「れば」&一般的因果関係の表現\\\hline「たら」&時空間に実現する個別事態の表現\\\hline「なら」&ある事態を真であると仮定して提示する表現\\\hline\end{tabular}\end{center}\end{table}このうち,我々が調べた範囲で見ると,マニュアル文では「たら」,「なら」はあまり用いられていなかった.また,「れば」に比べて,「と」の出現頻度が高かった.以下の節ではそれぞれの場合について考察する.\subsection{「と」文の{\dg主}制約}まず,\cite{kuno}によると,接続助詞「と」について,前件は先行条件を表し,後件は,その当然の結果,習慣的な結果,或いは不可避な結果を表すとある.また,\cite{masu}によると,「と」が未然の事態を表す場合,後件の事態が前件の事態に連動して起こるという意味において前件と後件の二つの事態が一体の事態であることが強調されている.このような性質から,「と」の後件は,命令・要求・決意を表せないとされる.よって,後件には基本的に事実の叙述や判断,推量の表現のみが許される.また,基本的にはマニュアル文では確実な物事のみを述べるものであり,物事の不確実さを表すような話し手の態度,特に判断,推量の表現は現れにくい.したがって,事実叙述のみが後件に現われると考えられる.事実叙述として現われ得るのは,ある動作の記述と,許可表現などによる何らかの動作に関連する状態記述である.動作の記述を考える際に重要となるのが動詞の意志性,無意志性の問題である.動詞の意志に関する分類として,\cite{ipa}の分類に基づくと,{\dg主}が意図的に行ないうる動作を表す意志動詞と,{\dg主}による意図的な動作を表さない無意志動詞とがある.動詞の命令形が命令を表し,意志・推量形が意志・勧誘を表すものが,意志動詞であり,命令形が願望を表したり,意志・推量形が推量を表すのが無意志動詞である.無意志動詞は,無意志用法のみであるが,意志動詞は,意志用法のみのものと,意志用法,無意志用法の両方に使えるものの2種類がある.無意志動詞としては,「痛む」,無意志用法もある意志動詞としては,「落す」,意志用法のみの意志動詞としては,「捜す」などがある.まず,意志用法の動詞が後件で使われる場合を考える.「と」文の後件には,先に述べたように依頼,勧誘表現は存在しない.そのため,動作手順の説明では,動詞の基本形つまり「る形」\cite{井上}が用いられることがほとんどである.「る形」で動作主が聞き手の場合,実質的に依頼表現になる.従って,「と」文では後件で依頼を表現できないため,{\dg主}は聞き手にはなり得ない.また,「と」文では,先に述べたように決意を表すことができない.「る形」で{\dg主}が話し手の場合意志を表すが,この用法も「と」文では存在しないため{\dg主}は話し手にはならない.{\dg主}が第三者の場合,「る形」では,依頼,意志等を表さないので,「と」文の性質には抵触しない.したがって,人称に関する制約より第三者であるシステムが後件の{\dg主}となる.例えば,\enumsentence{\label{tobun}「取消キーを押すと,文書作成画面に戻ります.」\cite{OAS}}において,「文書作成画面に戻る」のはシステムである.無意志用法の場合は,「る形」が意志,命令,依頼等を表さないので,意志用法の場合と異なる振舞いをする.例えば,「触れると,感電します.」の後件の{\dg主}は利用者になる.また,可能態の文のように状態記述の場合は,意志,命令,依頼を表さない.状態記述には意志用法/無意志用法の概念は無いが,これを無意志用法しかないと見倣せば,「と」に関する制約は次のようになる.\begin{description}\item[制約5]「と」文の後件の{\dg主}制約\end{description}\begin{quote}接続助詞「と」による複文構造において,後件の述部が無意志用法を持たず非過去の場合には,その{\dg主}は3人称になる.\end{quote}この制約の検証のために,接続助詞「と」が用いられているマニュアル文例を約400例ほどを集め,2節における主要な結果である制約4,および言語学的考察においてはそれに関連している制約5について調べた.その結果,調べた範囲では,これらの制約に違反する文はなく,制約の妥当性が確認された.\subsection{「れば」,「たら」,「なら」の使用例についての考察}ここでは,「と」以外の条件表現である「れば」,「たら」,「なら」のマニュアル文での使われ方について考察する.「なら」は用例が少ないので,特に,「れば」と「たら」の使い分けについて述べる.まず,\cite{masu}による「れば」「たら」「なら」の意味を列挙しよう.\begin{description}\item[「れば」]の基本的特徴は,時間を越えて成り立つ普遍的因果関係を表すことにある.また,状態表現は,動作の表現に比べ仮定的な表現になりやすい.\item[「たら」]に関しては,1)時間の経過にともなって実現することが予想される事態を表すものと,2)実現するかどうかが定かではないような事態が実現したことを仮定し,それにともなってどのような事態が実現するかを表現するもの,とがある.\item[「なら」]については,後件に表現の重点があり,前件を真と仮定して,その想定のもとで,後件で判断や態度の表明が行なわれるため,典型的な仮定表現である.また,「れば」,「たら」に比べて前件と後件のつながりが弱い.\end{description}ここで述べた各接続助詞の意味からすぐに分かることは,条件節すなわち前件で「れば」「たら」「なら」が使われる場合,主節すなわち後件において依頼表現の可能かどうかである.まず,普遍的な因果関係が記述される場合は,後件は前件の発生にともなって必然的に生じる結果であるから,原理的には話し手自身がその結果に対して持つ意見が介入する余地がない.依頼は話し手自身の持つ主観的なものであるから,後件に依頼はこない.「れば」が普遍的因果性を表すということは,「れば」の後件には基本的には依頼表現が現れないことを意味する.ただし,前件が状態表現の場合は仮定的になる,とあることから,その場合は後件に依頼表現が現れる可能性がある.次に仮定を表すとされる「たら」「なら」の場合について考えてみる.前件すなわち条件節で仮定が表現される場合は次のように考えられる.すなわち,仮定した人物は話し手である.話し手は,この仮定された状況において起こりそうなことやあるべき動作などを後件すなわち主節で記述する.つまり,後件は話し手の願望や予想が記述されている.このことは,仮定法一般に言えることである.したがって,後件で話し手の願望とみなせる依頼が現れることは可能性が高い,と言える.まとめると,「たら」「なら」は基本的には仮定を表すから,後件では依頼表現が現れる可能性が高いことになる.このことを実例で見てみよう.まず,「れば」と同じように因果性を記述する「と」では,実例を調べた結果,主節で依頼表現は現れなかった.後に示す実例文の分析でも「れば」接続の文で主節が依頼表現のものは非常に少ない.ただし,「れば」では,前件が状態の場合には後件で依頼が可能であり,それに該当する例として次のものがある.\enumsentence{\label{iraireba}「ウィンドウを見る必要がなければ,ウィンドウをリサイズ・コーナを使用して小さくするのではなくアイコンにして下さい.」\cite[p.63]{desk}}この文の前件は,状態を表しているので,上で述べたように主節で依頼表現が現れていると考えられる.(\ref{iraireba})の「なければ」を「なかったら」や「ないなら」に代えた文を考えてみれば分かるように,「たら」,「なら」も同様に依頼を表すことができるのことも,上の説明から予想されることである.これは,ごく大雑把な傾向であるが,もう少し詳しく,「れば」「たら」「なら」の使い分けを考えるために,主節つまり後件を次のような観点から分類する.まず,操作手順の説明の場合と限定しているので,メーカーの動作は完了していると考えられる.従って,{\dg主}となりうるオブジェクトは利用者とシステムである.そして,「と」と同様に意志性/無意志性の観点から,意志用法であるものを動作,無意志用法であるものを状態と2つに分ける.さらに,完了などの相表現,可能表現,形容詞,形容動詞など本質的に状態であるものも状態に分類している.本稿で調べた範囲ではこの分類で状態であることを認識できたが,その他の状態と認識されうる表現が存在する可能性はあり,その際には状態を表示する表現について追加が必要になる.現状では,この分類より,可能な{\dg主}と動作$\cdot$状態の組合せは,次の4つになる.\begin{itemize}\item利用者の動作\item利用者の状態\itemシステムの動作\itemシステムの状態\end{itemize}この4つの状態をそれぞれの接続助詞で接続すると各々16通りの接続が考えられる.以下では,この分類に従って,「れば」,「たら」,「なら」を前件及び後件の性質により分類し考察する.表\ref{bunruireba}に「れば」の分類,表\ref{bunruitara}に「たら」の分類,「なら」は例文数が少ないが参考までに表\ref{bunruinara}に「なら」の分類を示す.\newcommand{\maintab}{}\newcommand{\subtab}{}\begin{table*}[btp]\caption{「れば」の分類表}\label{bunruireba}\begin{center}\begin{tabular}{|@{}c@{}|@{}c@{}|}\hline&後\hspace{3zw}件\\\subtab&\maintab\\\hline\end{tabular}\end{center}\end{table*}\newcommand{\Maintab}{}\newcommand{\Subtab}{}\begin{table*}[btp]\caption{「たら」の分類表}\label{bunruitara}\begin{center}\begin{tabular}{|@{}c@{}|@{}c@{}|}\hline&後\hspace{3zw}件\\\Subtab&\Maintab\\\hline\end{tabular}\end{center}\end{table*}\newcommand{\MainTab}{}\newcommand{\SubTab}{}\begin{table*}[btp]\caption{「なら」の分類表}\label{bunruinara}\begin{center}\begin{tabular}{|@{}c@{}|@{}c@{}|}\hline&後\hspace{3zw}件\\\SubTab&\MainTab\\\hline\end{tabular}\end{center}\end{table*}これらの基本的特徴に,マニュアルで用いられる文であるということを勘案して,表\ref{bunruireba},表\ref{bunruitara},表\ref{bunruinara}について各々検討していく.まず,全体を概観すると,「れば」と「たら」,「なら」とでは,使用傾向が大きく違うことが分る.「れば」では後件が利用者の動作になりにくく,逆に「たら」,「なら」では「れば」とは相補的に後件が利用者の動作になりやすい.また,全般的に,前件がシステムの動作である文が非常に少ない.このことの理由は,現在のシステムのほとんどが,利用者の働きかけにより何か他の動作を行なったりある状態に移行したりするからであると考えられる.前件がシステムの状態である文でも,そのシステム状態は利用者の動作に起因するものであるというタイプが多い.「れば」文の場合,前件が利用者の動作である文が多い.これは,「れば」文の基本的性質である因果関係は,動作の方が表しやすいためと考えられる.さらに,前件がシステムの状態である文も,そのシステム状態は利用者によって引き起こされた結果であるという文が多い.この理由は,動作的側面を残しているため,上記の場合と同様の理由で「れば」で表しやすいからであろう.以下では,接続の種類により差が明確に出た後件の性質の分類に基づき考察していく.\subsubsection{後件が利用者の動作である文について}ここでは,後件が利用者の動作になるタイプについて考察する.この分類になる割合は,「れば」の場合約5\%,「たら」の場合約90\%,「なら」の場合,文例が少ないが100\%である.まず,これらの接続助詞で接続される文では,後件に利用者の動作をとることができるという点で,「と」文と根本的に異なる.後件が利用者の動作である場合,すなわち,利用者が{\dg主}である場合は,ある種の依頼を表す.なお,マニュアル文において,前件が$\alpha$,後件が$\beta$であるこ\\とを「$\alpha\rightarrow\beta$」と表記する.ただし,$\alpha,\beta$は,「(利用者ないしはシステム)の(動作ないしは状態)」を表す。利用者でもシステムでもよいときは,単に動作,あるいは状態と書く.\begin{enumerate}\item{\bf動作$\rightarrow$利用者の動作について}\label{act-usract}\\「れば」1例,「たら」33例まず,前件が利用者の動作である「れば」の文はほとんどない.そこで頻度の高い「たら」の文を無理に「れば」文に変えた次の文について考えてみよう.\enumsentence{\label{debag}「そのモジュールのデバッグが終了すれば,指定のファイルに書き込んで下さい.」\\ただし,原文は(シャープ株式会社,p.108)であり、「終了すれば,」が「終了したら,」となっている.}この文は,少なくとも筆者らには「終了すれば」ではなく「終了したら」とする方が自然である.その理由は,「れば」の基本的性質は,因果関係を表すからである.もう少し詳しく言うと,基本的に利用者に行動の選択権があるマニュアル文において,二つの利用者の動作が何らかの必然的な因果関係を持っているとは考えにくいからである.一方,「たら」では仮定的表現と時間的経過の性質が反映される.前件が利用者の動作の場合は時間の経過に沿って,前件がシステムの動作の場合は仮定的な事態の発生によって,利用者にある動作を促していると考えられる.従って,「動作$\rightarrow$利用者の動作」では「たら」を使うのが適当であろう.前件がシステムの動作となる「たら」例をあげる.\enumsentence{\label{ijou}「使用中に機器が停止したら安全装置が作動してないか調べて下さい.」(リンナイ株式会社,p.31)}\item{\bf利用者の状態$\rightarrow$利用者の動作について}\label{st-usract}\\「れば」4例,「たら」7例,「なら」8例\\先に例示した(\ref{iraireba})が「れば」の例である.「れば」接続の文(\ref{iraireba})については既に述べた通りである.これまた,既に述べたような「たら」「なら」文の主節に依頼表現がくる例を以下に示しておく.\enumsentence{\label{iraitara}「縫いおわったら,布をひろげます.」(蛇の目ミシン工業株式会社)}「なら」の場合,次の例の「必要なら」など出現の仕方がほぼ決まっている.\enumsentence{\label{irainara}「必要なら,ボーレート,パリティ,フロー制御,データ長及びストップビット数の設定を変更して下さい.」\cite[p.58]{LASER}}\item{\bfシステムの状態$\rightarrow$利用者の動作について}\label{sysst-usract}\\「れば」6例,「たら」13例,「なら」1例\\この型については,「れば」も「たら」も文例が存在しているが性質は大きく異なる.「なら」は用例が少ないのでここでは省略する.「たら」は今までと同様に,時間的推移や仮定を表している.一方,「れば」の場合は異なる.この分類に出てくる表現は次のように異常に関する処置についてである.\enumsentence{\label{shochi}「それでもエラーが出るようであれば,``A''を押して処理を中止しMS-DOSにもどり,前項「重要なエラーメッセージ」の処置を試みます.」\cite[p.167]{DOS}}異常とその処置の対応がはっきりしている場合,表現の因果性を強くして利用者に処置の仕方を表すために「れば」を用いる傾向があると考えられる.\end{enumerate}後件が利用者の動作となる文についてみてきたがまとめると次のようになる.\begin{itemize}\item「れば」の場合,後件に利用者の動作が来ること自体が特殊で,もし来たとしても前件が状態の方が自然である.\item「たら」の場合は,前件には束縛されない.\end{itemize}\subsubsection{後件がシステムの動作である文について}後件がシステムの動作,すなわち,後件の{\dg主}がシステムである文では,「れば」の使用頻度が非常に高い.全体としてこの分類になる割合は,「れば」では約45\%,「たら」では約3\%,「なら」はなしである.よって,ここからの考察は主として「れば」についておこなう.\def\labelenumi{}\def\theenumi{}\begin{enumerate}\item{\bf動作$\rightarrow$システムの動作について}\label{act-sysact}\\「れば」53例,「たら」0例\\前件の{\dg主}が利用者の場合,利用者の動作の結果としてシステムが何かの動作を行なうという文となり,「れば」の基本的性質と一致する.一方,システムの動作からシステムの動作は利用者にとって直接関係ない情報であると考えられる.そのため,前件の{\dg主}がシステムの場合の文例が少ないと考えられる.一方,「たら」,「なら」は因果関係を表さないため,ここでは使われないと考えられる.\item{\bfシステムの状態$\rightarrow$システムの動作について}\label{sysst-sysact}\\「れば」38例,「たら」2例\\この分類でよく用いられている用法は,システムがある状態であると自動的に次の動作にシステムが移るというものである.システムの状態が利用者の操作の結果であれば,利用者の動作の結果として,システムがある動作を起こすという意味になるので,「れば」で表現しやすい.\item{\bf利用者の状態$\rightarrow$システムの動作について}\label{usrst-sysact}\\「れば」1例,「たら」0例\\利用者の状態を察知してシステムが何か動作を起こすような文である.これは,本来システムが知的であるか利用者の状態を検知するセンサー機能を有する場合に現れると考えられる.現在のところ,この意味での文例は見つかっていない.しかし,現在行なっている表層表現による分類では次の文がここに該当してしまう.\enumsentence{\label{chau}「TRANSPORTでDECnetを選択するのであれば,NODEはDECnetnodeになります.」\cite[p.4-25]{NCDw}}意味的には(\ref{chau})は,NODEの利用者に対する選択肢がDECnetnodeだけであるということを表すのでこの分類には実際には対応しない.\end{enumerate}以上,後件がシステムの動作である文について見てきたが,まとめると,現在のシステムの動作は,利用者の動作の結果としての動作,システム内での動作という2通りがあり,いずれも,システムの動作は因果関係があるために「れば」で表現される.\subsubsection{後件が状態である文について}後件が状態である文では,「れば」の使用頻度が非常に高い.全体としてこの分類になる割合は,「れば」では約48\%,「たら」では約7\%,「なら」はなしである.よって,ここからの考察は主として「れば」についておこなう.後件の状態は利用者の状態とシステムの状態の2種類あるが,後件がシステムの状態である文は非常に少ない.一方,後件が利用者の状態である文例は非常に多く,これについて見るとほとんどが可能態の「〜できる」という形になっている.これは,マニュアル文では,話し手の視点はもっぱら聞き手である利用者に合わせているため,システムの状態は利用者の状態と一体化させて書かれていることが多いためであると考えられる.すなわち,システムの状態の多くは,利用者にとって「なにかすることができる」という選択権があることを示すために,利用者の状態の表現をとっていると考えられる.そのため,状態の分類について後件が利用者の状態である文は多く,システムの状態である文は少ないことが説明できる.以下,各々の場合を考察する.\def\labelenumi{}\def\theenumi{}\begin{enumerate}\item{\bf後件が利用者の状態のとき}\label{-usrst}\\「れば」97例,「たら」3例\\先に述べたように後件の利用者の状態は「〜できる」という形が多い.前件が利用者の動作の場合,利用者の動作の帰結として利用者の状態,特に可能状態になるので,因果関係が成立していると考えられる.そのため,「れば」が用いられていると考えられる.前件がシステムの状態である場合,システムのある状態から予想される利用者の特定の状態への推移を表す.したがって,因果関係を表す「れば」を用いると考えられる.前件が利用者の状態である場合,その状態で利用者にできる動作を示す.既に述べたように前件が状態だと,「れば」の持つ普遍的因果性の意味会いが薄まるため,「れば」が用いられる.また,「たら」についても,利用者のある状態を仮定するとあることができるので,使用可能である.前件がシステムの動作の場合,調べた範囲では「れば」は見つからなかった.前件が動作であれば,「れば」は因果関係を表す.利用者の可能状態とは,マニュアルの書き手すなわち話し手の利用者すなわち聞き手への態度であり,「れば」の因果関係の意味と相容れないのが「れば」文がない理由であろう.「たら」では,システムの動作が終了したあと利用者がある状態になるということを表現しており,「たら」の時間的経過の性質を反映している.いずれの場合も,制約4により,可能態の{\dg主}は意図を持ちうる利用者となる.\item{\bf後件がシステムの状態のとき}\label{-sysst}\\「れば」25例,「たら」0例\\先に述べたように,後件がシステムの状態である文は,状態を利用者と一体化させて記述するため総じて少ない.前件が利用者の動作の場合,利用者の動作によりシステムがある状態になるという文になるので,因果関係が生じ「れば」が用いられる.前件がシステムの動作である場合,システムのとった動作の結果として,システムがある状態になるということで,「れば」の基本的性質に反しない.また,システムの動作が時間的に終ったあとで,システムのある状態になるということで,「たら」の性質にも反しない.前件がシステムの状態である場合,システムの状態からシステムの状態への関連を表すが,これについては,利用者は直接関与できないと考えられる.後件におけるシステムの状態が利用者の状態に直接結び付いていない限り,この表現は使われないと考えられる.前件が利用者の状態である場合は特殊で,\ref{usrst-sysact}と同様システムのあり方に依存し,システムが知的であるか,利用者の状態を察知するセンサー機能を有する場合に限られると考えられる.実際,システムの状態は,利用者の状態と一致させて記述されることが多く,文例は見つかってはいない.\end{enumerate}いずれの場合も,後件の{\dg主}は,システムになると考えられる.後件が状態の場合,「れば」が用いられやすい理由としては,マニュアル文では,物事を確定的に記述する傾向があるためと考えられる.一方,「たら」は基本的には仮定の事態ないしは時間経過を表すために用いられる.時間経過を表現したい場合は,後件が状態であるため時間経過を表現することにはなりにくいことが,使用例が少ない原因のひとつであろう.また,仮定法の場合,後件が確定的状態になりにくいことも,「たら」が使われない理由のひとつであろう.後件が状態である文についてみてきたがまとめると,利用者の状態とシステムの状態は一体化されて記述され,そのため,利用者に選択権を持たせる「〜できる」という表現を用いる傾向がある.そして,利用者の選択権は,状況により必然的に生じるものであるという理由で「れば」が多く用いられていると考えられる.\subsection{デフォールト規則}今までの考察から,「れば」,「たら」,「なら」についてのマニュアルにおける使用方法に関する傾向が得られた.特に,{\dg主}に注目すると文型と強い相関があることがわかる.そこで次のデフォールト規則を立てることができる.まず,「れば」については,「と」とほぼ同様の分布になるので以下のようになる.\begin{description}\item[デフォールト規則1]「れば」文の後件の{\dg主}制約\end{description}\begin{quote}接続助詞「れば」による複文構造において,後件は利用者の意志的動作を表さない.つまり,後件の述部が無意志用法を持たない場合には,その{\dg主}はシステムになる.\end{quote}「たら」,「なら」については,これと相補的な分布をしているので,以下のようになる.\begin{description}\item[デフォールト規則2]「たら」「なら」文の後件の{\dg主}制約\end{description}\begin{quote}接続助詞「たら」,「なら」による複文構造において,後件は利用者の動作しか表さない.つまり,後件の{\dg主}は利用者である.\end{quote}前出の分布表から上記のデフォールト規則の予測の正しさを調べてみると,「れば」に関するデフォールト規則1は95.1\%,デフォールト規則2は「たら」に対して89.8\%,「なら」に対しては,文例が少ないものの,100\%満足されている.よって,これらのデフォールト規則は十分妥当性を持っていると考えられる.もちろん,3.2節での分析に従った,よりきめの細かいデフォールト規則も可能だが,紙面の都合で,ここでは省略する.
\section{おわりに}
マニュアル文に現われる条件表現「と」,「れば」,「たら」,「なら」について言語学的,実証的考察を行ない,その性質について述べた.また,その性質から,各条件表現の後件の{\dg主}について,制約ならびにデフォールト規則を提案し,十分妥当性を持つことを検証した.これらの制約やデフォールト規則を利用することにより,マニュアル文から知識獲得に必要不可欠なゼロ代名詞の照応候補の絞り込みなどを効率よく行なえると期待される.また,本稿で扱った条件表現は二つの単文が接続されたものであったが,複文が前件もしくは後件に含まれる場合も数は少ないが存在する.このような場合に関しても考察する必要があろう.\bibliographystyle{jtheapa}\bibliography{jpaper}\renewcommand{\refname}{}\makeatletter\@ifundefined{nop}{\def\nop#1{}}{}\makeatother\begin{thebibliography}{}\bibitem[\protect\BCAY{{Canon,Inc.}}{{Canon,Inc.}}{1993}]{LASER}{Canon,Inc.}\BBOP1993\BBCP.\newblock\Jem{LASERSHOTA404PS/A404PS-Lite操作説明書}.\bibitem[\protect\BCAY{{NetworkComputingDevices,Inc.}}{{NetworkComputingDevices,Inc.}}{1992}]{NCDw}{NetworkComputingDevices,Inc.}\BBOP1992\BBCP.\newblock{\BemNCDware2.4XServerUser'sManual}.\bibitem[\protect\BCAY{日本電気株式会社}{日本電気株式会社}{1990}]{DOS}日本電気株式会社\BBOP1990\BBCP.\newblock\Jem{MS-DOS$^{\mbox{{\smallTM}}}$3.3Cユーザーズガイド}.\bibitem[\protect\BCAY{{SunMicrosystems,Inc.}}{{SunMicrosystems,Inc.}}{1992}]{desk}{SunMicrosystems,Inc.}\BBOP1992\BBCP.\newblock\Jem{Desktopシステム・ユーザ・ガイド}.\bibitem[\protect\BCAY{ハイテクノロジーコミュニケーションズ(株)}{ハイテクノロジーコミュニケーションズ(株)}{1988}]{OAS}ハイテクノロジーコミュニケーションズ(株)\BBOP1988\BBCP.\newblock\Jem{OASYSLiteF・ROM11/11D操作マニュアル}.\bibitem[\protect\BCAY{シャープ株式会社}{シャープ株式会社}{}]{pocket}シャープ株式会社.\newblock\Jem{ポケットコンピュータPC-1490UII取扱説明書}.\bibitem[\protect\BCAY{リンナイ株式会社}{リンナイ株式会社}{}]{heater}リンナイ株式会社.\newblock\Jem{ガスファンヒーター取扱説明書}.\bibitem[\protect\BCAY{蛇の目ミシン工業株式会社}{蛇の目ミシン工業株式会社}{}]{sew}蛇の目ミシン工業株式会社.\newblock\Jem{JE-2000使い方の手引き}.\end{thebibliography}など16冊.\begin{biography}\biotitle{略歴}\bioauthor{森辰則}{1986年横浜国立大学工学部卒業.1991年同大大学院工学研究科博士課程修了.工学博士.1991年より横浜国立大学工学部勤務.現在,同助教授.計算言語学,自然言語処理システムの研究に従事.情報処理学会,人工知能学会,日本認知科学会,日本ソフトウェア科学会各会員.}\bioauthor{龍野弘幸}{1971年生.1994年横浜国立大学工学部卒業.現在同大大学院工学研究科在籍}\bioauthor{中川裕志}{1953年生.1975年東京大学工学部卒業.1980年東京大学大学院博士過程修了.工学博士.現在横浜国立大学工学部電子情報工学科教授.自然言語処理,日本語の意味論・語用論などの研究に従事.日本認知科学会,人工知能学会などの会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V26N01-06 | \section{はじめに}
フレーズベースの統計的機械翻訳\cite{Koehn:2003:SPT:1073445.1073462}は,フレーズを翻訳単位として機械翻訳を行う手法である.この手法では局所的な文脈を考慮して翻訳を行うため,英語とフランス語のように,語順が似ている言語対や短い文においては高品質な翻訳を行えることが知られている.しかし,英語と日本語のように,語順が大きく異なる言語対では,局所的な文脈を考慮するだけでは原言語のフレーズを目的言語のどのフレーズに翻訳するかを正しく選択することは難しいため,翻訳精度が低い.このような語順の問題に対し,翻訳器のデコーダで並び替えを考慮しつつ翻訳する手法\linebreak\cite{Tillmann:2004:UOM:1613984.1614010},翻訳器に入力する前に原言語文の語順を目的言語文の語順に近づくよう並び替える事前並び替え\cite{nakagawa2015},原言語文をそのまま翻訳した目的言語文を並び替える事後並び替えが提案されている\cite{hayashi-EtAl:2013:EMNLP}.特に事前並び替え手法は,長距離の並び替えを効果的かつ効率的に行える\cite{E14-1026,nakagawa2015}.先行研究として,Nakagawa\cite{nakagawa2015}はBracketingTransductionGrammar(BTG)\cite{Wu:1997:SIT:972705.972707}にしたがって構文解析を行いつつ事前並び替えを行う手法を提案している.この手法は事前並び替えにおいて最高性能を達成しているが,並び替えの学習のために人手による素性テンプレートの設計が必要である.そこで,本稿では統計的機械翻訳のためのRecursiveNeuralNetwork(RvNN)\cite{GollerandKuchler,Socher:2011:PNS:3104482.3104499}を用いた事前並び替え手法を提案する.ニューラルネットワークによる学習の特徴として,人手による素性テンプレートの設計が不要であり,訓練データから直接素性ベクトルを学習できるという利点がある.また,RvNNは木構造の再帰的ニューラルネットワークであり,長距離の並び替えが容易に行える.提案手法では与えられた構文木にしたがってRvNNを構築し,葉ノードからボトムアップに計算を行っていくことで,各節ノードにおいて,並び替えに対して重要であると考えられる部分木の単語や品詞・構文タグを考慮した並び替えを行う.統計的機械翻訳をベースにすることで,事前並び替えのような中間プロセスに注目した手法の性能が翻訳全体に与える影響について明らかにできる利点がある.また統計的機械翻訳のようにホワイトボックス的なアプローチは,商用翻訳においてシステムの修正やアップデートが容易であるという利点もある.さらに現在主流のニューラル機械翻訳\cite{D15-1166}でも,統計的機械翻訳とニューラル機械翻訳を組み合わせることで性能を向上するモデルが先行研究\cite{D17-1149}により提案されており,統計的機械翻訳の性能を向上させることは有益である.英日・英仏・英中の言語対を用いた評価実験の結果,英日翻訳において,提案手法はNakagawaの手法と遜色ない精度を達成した.また詳細な分析を実施し,英仏,英中における事前並び替えの性能,また事前並び替えに影響を与える要因を調査した.さらに近年,機械翻訳の主流となっているニューラル機械翻訳\cite{D15-1166}において事前並び替えが与える影響についても実験を行い検証した.
\section{関連研究}
\label{sec:mt_reordering}本章では,提案手法と関連の深い事前並び替えに関する既存研究について議論する.Collinsら\cite{CollinsKoehn2005}やGojunandFraser\cite{gojunfraser2012},Wangら\cite{wang-collins-koehn:2007:EMNLP-CoNLL2007}は並び替えのルールを定め,そのルールにしたがって事前並び替えを行っている.Xuら\cite{xu-EtAl:2009:NAACLHLT09}やIsozakiら\cite{isozaki10hfe}は木構造に対して並び替えのルールを定め,SVO型言語である英語からSOV型言語への翻訳における事前並び替えを行っている.これらの手法のように,ある言語対について並び替えのルールを定めるためには原言語と目的言語についての知識が必要であり,また全ての言語対において並び替えのルールを定めることは難しい.そのため,ルールに基づいた並び替えでは適用可能な言語対が限られてしまう.そこで,対訳コーパスから自動で並び替えを学習する手法も提案されている.Zhangら\cite{Zhang:2007:CRS:1626281.1626282}やCregoandHabash\cite{crego-habash:2008:WMT}は$n$-gramからなるチャンクに対して,並び替えルールを対訳コーパスから得る手法を提案している.CregoandMari\~no\cite{Crego2006}やTrombleandEisner\cite{tromble-eisner:2009:EMNLP}は品詞タグを用いた事前並び替え手法を提案している.またVisweswariahら\cite{visweswariah-EtAl:2011:EMNLP}は単語をノードとしたグラフを作成し,巡回セールスマン問題として並び替えの問題を定式化している.木構造を用いることで長距離の部分フレーズの並び替えが容易に行えるという利点があるため,木構造を用いる手法も多く提案されている.XiaandMcCord\cite{xia-mccord:2004:COLING}やGenzel\cite{genzel:2010:PAPERS}は木構造から並び替えパターンを抽出し,これを原言語文に適用することで並び替えを行っている.機械学習を用いて並び替えを学習する手法も提案されている.Liら\cite{li-EtAl:2007:ACLMain2}は構文木での各ノードにおいて最大エントロピーモデルを用いて,子ノードが$3$つ以内のノードに限定して学習および並び替えを行うモデルを提案している.LernerandPetrov\cite{lerner-petrov:2013:EMNLP}は依存木に対して,子ノードが$7$つ以内のノードに対して並び替えを行う手法を提案している.Yangら\cite{yang-EtAl:2012:ACL2012}は並び替えを子ノードの順序を求める順序問題とし,Ranking-SVM\cite{joachims2002optimizing}を用いて子ノードの順序を求めることで並び替えを行っている.木構造を用いて各ノードにおける子ノードの順序を決定するようなモデルでは,子ノードの数が多くなるにつれて並び替え候補が爆発的に増加するという問題がある.そこで,木構造を$2$分木に限定することで,各ノードにおいて子ノードを並び替えるか否かという二値分類の問題として定義できる.Jehlら\cite{E14-1026}は$2$分木に対して,アラインメントの交差が少なくなるようにロジスティック回帰モデルを用いて並び替えを学習する手法を提案している.Hoshinoら\cite{hoshino-EtAl:2015:ACL-IJCNLP}は,$2$分木に対して順位相関係数であるKendallの$\tau$\cite{kendall1938measure}が最大となるように二値分類の分類器を用いて各ノードでの並び替えを行っている.DeNeroandUszkoreit\cite{denero-uszkoreit:2011:EMNLP}は構文解析をしつつ同時に並び替えも学習する手法を提案している.Neubigら\cite{neubig-watanabe-mori:2012:EMNLP-CoNLL}はBTGに基づいて構文木の構築および並び替えを行う手法を提案しているが,計算量が多く時間がかかるという問題があった.本稿で比較を行うNakagawa\cite{nakagawa2015}の手法は,BTGに基づく並び替えにおける計算量の問題を解決した手法であり,翻訳において最高性能を達成している.原言語文と単語アラインメントからトップダウンで$2$分木を構築しつつ,各ノードで並び替えをするか否かを学習する.$2$単語以上のスパンのうち,どこで区切るか,区切った部分の前後を並び替えるかをトップダウンで再帰的に計算していくことで,最終的に構文木および各節ノードでのラベルが決定される.構文木を構築しながら並び替えも予測するため構文解析を事前に行う必要がなく,構文解析器の精度に依ることなく並び替えを行える.しかしその学習のために素性テンプレートを人手で設計する必要がある.近年では,素性テンプレートの設計を必要としないニューラルネットワークに基づいた手法も提案されている.deGispertら\cite{degispert-iglesias-byrne:2015:NAACL-HLT}はフィードフォワードニューラルネットワーク(FFNN)を用いた$2$分木での並び替えを提案している.Bothaら\cite{botha-EtAl:2017:EMNLP2017}もFFNNを用いた並び替えを提案しているが,木構造を用いずに並び替えを行っている.Miceli-BaroneandAttardi\cite{micelibarone-attardi:2015:ACL-IJCNLP}はRecurrentNeuralNetwork(RNN)を用いて依存木のノードを辿ることで並び替え手法を提案している.彼らは,単語を出力する``EMIT'',親ノードへ移動する``UP'',$j$番目のノードへ移動する``DOWN$_j$''の$3$つの動作を定義し,RNNで動作を予測することで並び替えを行う.Kanouchiら\cite{kanouchi-sudoh-komachi:2016:WAT2016}は統計的機械翻訳の翻訳モデルにより抽出するフレーズペアについて,RvNNを用いて並び替えラベルを推定することで,翻訳システムの内部で翻訳と同時にフレーズの並び替えを行う.提案手法と同様RvNNを用いているが,提案手法は翻訳システムとは独立して事前並び替えを行う点で異なる.また提案手法では原言語の構文木に対してボトムアップに構築されるRvNNを用いて$2$種類のラベルの予測を行うことで,部分木全体を考慮した並び替えを行える.構文木を用いることで,長距離の並び替えがより簡単に行えるという利点がある.Kawaraら\cite{P18-3004}は英日対においてRvNNを用いた事前並び替え手法を提案し,提案手法が有効であることを示している.本稿では英日,英仏,英中対に対してRvNNを用いた事前並び替えを適用し,詳細な分析を行う.
\section{RecursiveNeuralNetworkによる事前並び替え}
\label{sec:reorder_rvnn}本章では提案手法であるRvNNによる並び替え手法を説明する.まず提案手法のベースとなる,文対における語順の近さを測る指標であるKendallの$\tau$を説明する.次に節ノードにおける正解ラベル付与のアルゴリズムについて述べ,RvNNを用いた事前並び替えモデルについて述べる.\subsection{Kendallの$\tau$}\label{sec:kendall_tau}Kendallの$\tau$\cite{kendall1938measure}は順位相関係数の$1$つであり,式(\ref{eq:kendall_tau})で計算される.\begin{align}\label{eq:kendall_tau}\tau(\bm{a})&=\frac{4\sum^{n-1}_{i=1}\sum^{n}_{j=i}\delta({\bm{a}}_i<{\bm{a}}_j)}{|\bm{a}|(|\bm{a}|-1)}-1,\\\delta(x)&=\begin{cases}1&(x\{\rmis\true}),\\0&({\rmotherwise}).\end{cases}\nonumber\end{align}数列$\bm{a}$の要素が完全に昇順に並んでいる場合,$\tau(\bm{a})$は$1$を,完全に降順であれば$-1$をとり,それ以外であれば$-1<\tau(\bm{a})<1$となる.式(\ref{eq:kendall_tau})は$\bm{a}$に含まれる数値のペア$\bm{a}_iと\bm{a}_j(i<j)$が昇順$(\bm{a}_i<\bm{a}_j)$になっている割合を$-1$から$1$の間に正規化したものであり,この値が大きいほど昇順に並んでいるペアの割合が多い.\subsection{正解ラベルの付与}\label{sec:rank_eval}提案手法では,$2$分木である句構文木の各節ノードにおいて子ノードの順序を入れ替えるかどうかのラベル付けを行い,並び替えの訓練データを作成する.Algorithm\ref{alg:labeling}に正解ラベル付与の擬似コードを示す.入力は$2$分木のノード$n$と単語アラインメント$\bm{a}$である.ノードは左右の子ノードへのリンク(leftおよびright)と,並び替えを示すラベル(label)を保持する.$\bm{a}[n]$は,葉ノードにおける単語のアラインメントの目的言語におけるインデックスを表す.並び替えのラベルは関数KendallTau($a_l,a_r$)により,\ref{sec:kendall_tau}節で説明した手法でKendallの$\tau$の値を計算し,その結果に基づいて決定する.各節ノードにおいて,子ノードを並び替えた際にKendallの$\tau$が大きくなる場合は並び替えを行う``Inverted''ラベルを,小さくなるまたは変わらない場合はそのままの順序を維持する``Straight''ラベルを付与する.これをボトムアップで行うことで,与えられた構文木においてKendallの$\tau$が最大となるようにラベルが付与される.\begin{algorithm}[t]\caption{正解ラベル付与の擬似コード}\label{alg:labeling}\input{06algo01.tex}\end{algorithm}\subsection{事前並び替えモデル}RvNNは木構造型のニューラルネットワークである\cite{GollerandKuchler,Socher:2011:PNS:3104482.3104499}.RvNNにおける各ノードは図\ref{fig:rvnn_unit}に示す構造を持ち,これを再帰的に結合することで,木構造型のニューラルネットワークを構築する.\begin{figure}[t]\begin{center}\includegraphics{26-1ia6f1.eps}\end{center}\caption{RvNNの基本となる構造}\label{fig:rvnn_unit}\end{figure}提案手法では句構文木にしたがってRvNNを構築し,各節ノードにおいてAlgorithm\ref{alg:labeling}で付与した正解ラベルを予測する学習を行う.Algorithm\ref{alg:preorder}に予測したラベルを用いた並び替えの擬似コードを示す.入力はAlgorithm\ref{alg:labeling}によって正解ラベルが付与された$2$分木のノード$n$であり,左右の子ノードへのリンク(leftおよびright)と並び替えの予測結果を保持するlabelを持つ.$\mathrm{len}(\cdot)$は要素の数を計算する.葉ノードはさらに自身の単語wordとそのベクトル表現$\bm{e}$を保持する.$S_l$,$S_r$は並び替え後の単語列である.節ノードにおいては,左と右の子ノードから,それぞれのベクトル表現$\bm{v}_l$,$\bm{v}_r$を入力とし,関数RvNN($\bm{v}_l,\bm{v}_r$)によって自身のベクトルの計算とラベルの予測を行う.RvNN($\bm{v}_l,\bm{v}_r$)はベクトル表現$\bm{v}_l$,$\bm{v}_r$を受け取り,予測されたラベル$Label$と節ノードのベクトル$\bm{v}$を返す関数である.左の子ノードと右の子ノードのベクトル表現を用いてラベルを予測することで,部分木を考慮しつつ並び替えを行うかどうかを決定できる.\begin{algorithm}[b]\caption{RvNNによる並び替えの擬似コード}\label{alg:preorder}\input{06algo02.tex}\end{algorithm}\begin{figure}[b]\begin{center}\includegraphics{26-1ia6f2.eps}\end{center}\hangcaption{``MyparentsliveinLondon''のRvNNによる並び替え(横線が引いてある節ノードは``Inverted'').緑色はノードのベクトルを表し,青色は品詞・構文タグのベクトルを表す.}\label{fig:rec_example}\end{figure}図\ref{fig:rec_example}に``MyparentsliveinLondon''という文に対してRvNNを用いた並び替えの例を示す.例えば``liveinLondon''のフレーズに対応したノードにおいて,式(\ref{eq:concatnodes})に従い``live''と``inLondon''の子ノードを考慮してベクトルを計算する.\begin{align}\label{eq:concatnodes}\bm{v}&=f([\bm{v}_l;\bm{v}_r]W+\bm{b})\\\label{eq:labelfunc}\bm{s}&=\bm{v}W_s+\bm{b_s}\end{align}$f$はReLU関数,$W\in\mathbb{R}^{\lambda\times2\lambda}$は重み行列,$\bm{v}_l$,$\bm{v}_r\in\mathbb{R}^\lambda$はそれぞれ左,右の子ノードのベクトル,$W_s\in\mathbb{R}^{2\times\lambda}$は出力層における重み行列,$\bm{b}\in\mathbb{R}^\lambda$,$\bm{b_s}\in\mathbb{R}^2$はバイアス項を表す($\lambda$は隠れ層の次元数を表す).また$[\cdot;\cdot]$はベクトルを結合する.${\bfs}\inR^2$は各ラベルに対する重みのベクトルであり,式(\ref{eq:softmax})に示すソフトマックス関数に入力することで``Straight''および``Inverted''ラベルの確率を計算する.\begin{equation}\label{eq:softmax}p_i=\frac{\exp(\bm{s}_i)}{\sum_{m=1}^{|\bm{s}|}\exp(\bm{s}_m)}\end{equation}$|\cdot|$はベクトルの次元数を表し,ここでは$|\bm{s}|=2$である.葉ノードでは,単語ベクトルを入力とし,式(\ref{eq:leaf_node})によってベクトル表現を得る.\begin{align}\bm{e}&=\bm{x}W_x\nonumber\\\label{eq:leaf_node}\bm{v}_e&=f(\bm{e}W_e+\bm{b}_e)\end{align}ここで$\bm{x}\in\mathbb{R}^V$は入力単語を表すone-hotベクトル,$W_x\in\mathbb{R}^{V\times\lambda}$は単語分散表現を表す行列($V$は語彙数を表す),$W_e\in\mathbb{R}^{\lambda\times\lambda}$は重み行列,$\bm{b}_e\in\mathbb{R}^\lambda$はバイアス項である.ロス関数は式(\ref{eq:loss_func})で定義される交差エントロピーを用いる.\begin{equation}\label{eq:loss_func}L(\theta)=-\frac{1}{K}\sum^K_{k=1}\sum_{n\in\mathcal{T}}\logp(l^n_k;\theta)\end{equation}$\theta$はモデルのパラメータ,$n$は構文木$\mathcal{T}$のノードであり,$K$はミニバッチのサイズ,$l^n_k$はミニバッチの$k$番目の構文木の$n$番目のノードのラベルを表す.本稿では,各ノードにおける品詞もしくは構文タグを考慮する手法も提案する.これらを考慮する際は,式(\ref{eq:concatnodes})に代わり式(\ref{eq:concatnodes_pos})を用いる.\begin{equation}\label{eq:concatnodes_pos}\bm{v}_t=f([\bm{v}_l;\bm{v}_r;\bm{e}_t]W_t+\bm{b}_t)\end{equation}${\bfe}_t\in\mathbb{R}^\lambda$は品詞・構文タグの情報を表現するベクトルで,各ノードの品詞または構文タグを表すone-hotベクトルを入力とし,式(\ref{eq:leaf_node})と同様に計算する.$W_t\in\mathbb{R}^{3\lambda\times\lambda}$は重み行列,$\bm{b}_t\in\mathbb{R}^\lambda$はバイアス項である.
\section{翻訳性能評価}
\label{sec:experiments}本章では事前並び替えを用いた翻訳評価実験について述べる.まず初めに実験設定について述べ,実験結果を示す.その後,翻訳結果の詳細な分析を行う.\subsection{実験設定}英日,英仏,英中対において原言語文の事前並び替えを行い,その上で機械翻訳システムを訓練し,翻訳精度を評価する.英日翻訳はASPECコーパス\cite{NAKAZAWA16.621}を用いた.ASPECコーパスはUtiyamaandIsahara\cite{Utiyama07ajapanese-english}による文アラインメント類似度に基づいて対訳文がランク付けされている.本稿では上位$50$万文対から$10$万文対をサンプリングして事前並び替えの訓練データとした.英仏翻訳はCommonCrawlコーパス\cite{bojar-EtAl:2015:WMT}を用いた.CommonCrawlコーパスに含まれる訓練データは約$291$万文対,開発データ(newstest2013)は3,000文対,テストデータ(newstest2014)は3,003文対である.英中翻訳はIWSLTコーパス\cite{iwslt15}を用いた.IWSLTコーパスに含まれる訓練データは約$21$万文対,開発データ(dev2010)は$887$文対,テストデータ(tst2013)は1,261文対である.英仏,英中ともに,訓練データから無作為にサンプリングした10万文を並び替えの訓練データとした.全ての言語対において,先行研究\cite{nakagawa2015,D15-1166}と同様翻訳器の学習には原言語,目的言語ともに$50$単語以下で,文対の単語数の比はMosesの前処理スクリプトのデフォルト値である$9$以下の条件を満たす文対を用いた.表\ref{tab:corpus_stats}に翻訳システムの訓練に用いたデータの統計量を示す.\begin{table}[b]\caption{翻訳の学習に用いたデータの統計量(文対)}\label{tab:corpus_stats}\input{06table01.tex}\end{table}英語文はStanfordCoreNLP\footnote{http://stanfordnlp.github.io/CoreNLP/}で単語分割と品詞タグ付けを,Enju\footnote{http://www.nactem.ac.uk/enju/}で構文解析を行った.日本語文はMeCab\footnote{http://taku910.github.io/mecab/}で形態素解析を,Ckylark\footnote{https://github.com/odashi/Ckylark}で構文解析を行った.フランス語文はMosesに付属しているスクリプト\footnote{https://github.com/moses-smt/mosesdecoder/blob/master/scripts/tokenizer/tokenizer.perl}で単語分割を行い,BerkeleyParser\footnote{https://github.com/slavpetrov/berkeleyparser}で構文解析を行った.中国語文はKyotoMorph\footnote{https://bitbucket.org/msmoshen/kyotomorph-beta}を用いて単語分割を行い,BerkeleyParserで構文解析を行った.KyotoMorphの訓練にはCTBversion5(CTB5)とSCTB\cite{chu-EtAl:2016:ALR12}を用いた.並び替えの学習における単語アラインメントはMGIZA\footnote{https://github.com/moses-smt/mgiza}を用い,IBMModel1とhiddenMarkovmodelをそれぞれ$3$回繰り返して両方向のアラインメントを計算した.この時の単語クラス数は,先行研究\cite{nakagawa2015}にしたがって$256$とした.その後,intersectionのルールにより最終的なアラインメントを獲得した.提案手法であるRvNNはChainer\footnote{http://chainer.org/}を用いて実装し,語彙は頻度が高いものから$5$万語を用いた.最適化にはAdam\cite{DBLP:journals/corr/KingmaB14}に重み減衰(0.0001)およびGradientClipping($5$)を適用して行った.ミニバッチサイズは$500$とした.開発データにおけるロス値が最小となったエポック(英日:2,英中・英仏:5)のモデルを用い,事前並び替えを行う.Nakagawa\cite{nakagawa2015}のBTG手法を比較対象とし,公開されている実装\footnote{http://github.com/google/topdown-btg-preordering}を用いた.訓練には提案手法と同一の前処理を行った$10$万文対の対訳データを用い事前並び替えを行った.統計的機械翻訳器としてMoses\footnote{http://www.statmt.org/moses/}のフレーズベース統計的機械翻訳(PBSMT)を用いた.訓練データの目的言語文を用いてKenLM\footnote{http://github.com/kpu/kenlm}で$5$-gram言語モデルを訓練した.並び替えモデルはLinearモデル\cite{Koehn:2003:SPT:1073445.1073462}を用いた.ハイパーパラメータのチューニングは開発データを用いてMERT\cite{och:2003:ACL}で$3$回行った.それぞれの設定でテストデータの翻訳を評価した評価値の平均を最終的な評価値とする.また,ニューラル機械翻訳器としてOpenNMT\footnote{http://opennmt.net/}の注意機構モデルを用いた.語彙は原言語,目的言語ともに頻度の上位$5$万語を用い,単語ベクトルの次元数は$500$,隠れ層のベクトルの次元数は$500$とした.デフォルトの設定に従い,エンコーダ,デコーダともに$2$層のLSTMを用いた.バッチサイズは$64$文とし,$13$エポックの学習を行った.翻訳精度の評価指標としてBLEU\cite{papineni-EtAl:2002:ACL},また語順の評価指標としてRIBES\cite{sudoh-nagata:2016:WAT2016}を用いた.それぞれの評価値の統計的有意差を検証するため,ブートストラップによる検定\cite{koehn:2004:EMNLP}を行った.\subsection{実験結果}\label{sec:ex_result}\subsubsection{提案手法における品詞・構文タグの効果}RvNNにおける品詞・構文タグおよび単語ベクトル,節ノードのベクトルの次元数が事前並び替えおよびPBSMTの翻訳精度に与える影響を検証するため,英日対においてASPECコーパスの上位$50$万文対を用いて実験を行った.表\ref{tab:rec_bleu}に,単語のみを入力とした場合と品詞・構文タグを付与した場合の開発セットにおけるBLEU値を示す.WAT2017のベースラインシステム\footnote{http://lotus.kuee.kyoto-u.ac.jp/WAT/WAT2017/baseline/baselineSystemPhrase.html}と同様に並び替えなしのものは歪み制約は$20$とし,BTGとRvNNで並び替えを行った場合の歪み制約は$0$とした.品詞・構文タグがない場合,ベクトルの次元数が$100$の時に比べて,$200$の時はBLEU値が低下しているが,$500$の時は向上している.品詞・構文タグを用いた場合,ベクトルの次元数が$100$の時に比べて,$200$の時はBLEU値が向上したが,$500$の時は低下している.また,品詞・構文タグを用いないベクトル次元数が$500$の時と,品詞・構文タグを用いたベクトル次元数が$200$の時を比較すると,有意差は見られなかった.以上の結果に基づき,以降の実験では隠れ層のベクトルの次元数をより少ない$200$とし,品詞・構文タグを用いて事前並び替えを行う.\begin{table}[t]\hangcaption{ベクトルの次元数と品詞・構文タグの有無による開発セットにおけるBLEUの変化(英日ASPECコーパスの50万文対で学習)}\label{tab:rec_bleu}\input{06table02.tex}\end{table}\subsubsection{PBSMTおよびNMTによる翻訳精度}PBSMT,NMTにより翻訳を行った結果を表\ref{tab:eval_bleu}に示す.BTGとRvNNで事前並び替えを行ったものはPBSMTにおける歪み制約を$0$とした.並び替えなしのものは英日,日英ではWAT2017のベースラインシステムの設定に従い,歪み制約を$20$とした.英中,中英,英仏,仏英対では歪み制約をMosesのデフォルト値である$6$とした\footnote{Gotoら\cite{P13-1016}は中英翻訳において歪み制約を$10$,$20$,$30$,$\infty$にして翻訳を行い,歪み制約が$10$の時にBLEU値が一番高かったと報告している.そのため,英中,中英翻訳において,歪み制約を$6$,$10$,$20$に設定し翻訳実験を行った.その結果,開発データにおいてBLEU値が一番高かった歪み制約$6$を選択した.}.\begin{table}[t]\hangcaption{テストセットにおけるBLEUおよびRIBESの評価結果(最も性能の高いものと有意差がないもの($p<0.05$)を太字で表す)}\label{tab:eval_bleu}\input{06table03.tex}\end{table}PBSMTで翻訳を行った場合,英日方向の翻訳では並び替えなしに比べてRvNNとBTGの両方でBLEU値がそれぞれ$4.62$ポイント,$4.97$ポイント有意に向上した.またRIBES値も事前並び替えなしに比べて,RvNNおよびBTGで$8.77$ポイント,$9.58$ポイント有意に向上した.これらの結果から,英日翻訳において事前並び替えを行うことで翻訳精度が大きく向上していることが分かる.RvNNとBTGでは,BLEU値およびRIBES値において統計的有意差は認められなかった($p$値はそれぞれ$p=0.068$,$p=0.226$であった).このことから提案手法では,素性テンプレートの設計を必要とすることなく,事前並び替え手法のstate-of-the-artであるBTGと同等の翻訳性能を達成していることが分かる.英仏,英中方向におけるPBSMTを用いた翻訳結果のBLEU値およびRIBES値は,BTGでは有意に向上したが,RvNNでは並び替えなしと同程度となった.一方で,RvNN,BTG,並び替えなしの三者について,英仏・英中翻訳におけるRIBESの値に有意差はなかった.これは英中,英仏の言語対では元々長距離の語順変換が不要であるため,事前並び替えの効果が限定的だったことを示唆していると考える.また日英方向では,PBSMTを用いた翻訳結果では,並び替えなしと比較してRvNNによる事前並び替えを行うことで,BLEU値が有意に$1.99$ポイント向上している.しかしBTGでの並び替えによるBLEU値の向上には及ばない結果となった.RIBES値はRvNNとBTGでそれぞれ$7.65$ポイント,$8.27$ポイントの向上を達成している.仏英,中英方向においてPBSMTによる翻訳では,BTGによる並び替えではBLEU値が並び替えなしの場合に比べ有意に向上しているが,RvNNによる並び替えでは,並び替えなしの場合よりも低下している.これは構文木の精度が影響したものと考えられ,\ref{sec:analsys_reorder}項において分析する.NMTを用いた翻訳では,RvNNによる事前並び替えを行うと,英日,英中,日英,仏英方向の翻訳においてBLEU値,RIBES値が低下した.しかし,英仏方向ではBLEU値が$0.65$ポイント,RIBES値が$0.18$ポイント,中英方向ではBLEU値が$0.62$ポイント,RIBES値が$0.57$ポイント向上した.BTGによる事前並び替えでは,NMTを用いて翻訳を行うと,並び替えなしの場合に比べ,すべての言語対でBLEU値{,RIBES値}が低下する結果となった.これはSudohら\cite{sudoh-nagata:2016:WAT2016}の英中翻訳における実験結果と共通の現象であり,原因の$1$つとして,事前並び替えにより言語の構造が崩れてしまうことが考えられる.しかし英仏,中英対においては,RvNNの事前並び替えの結果,NMTの翻訳精度が向上しており,NMTにおいても事前並び替えによる効果が発揮される場合があることを示している.今後,提案手法をNMTのモデルに組み込み同時に学習を行うことで,NMTにおける翻訳精度の向上に取り組む予定である.NMTによる翻訳におけるRIBES値について,英仏,仏英翻訳においてBTGによる並び替えを行ったPBSMTの性能が事前並び替えなしのNMTの性能をわずかに上回っているが,これらの結果には統計的有意差はなかった(それぞれ$p=0.329$,$p=0.323$).先行研究でも示されている通り,本実験においても事前並び替えの有無に関わらず,NMTがSMTを上回る結果となっている.\subsection{分析}\subsubsection{事前並び替えと翻訳精度の関係分析}\label{sec:analsys_reorder}事前並び替えの性能が翻訳結果に与える影響を調査するため,事前並び替えの性能と翻訳精度の関連を分析する.入力文の理想的な事前並び替えが行えると,原言語と目的言語の語順が等しくなる.つまり,並び替えた入力文と参照翻訳の語順が等しくなり,翻訳タスクは逐語翻訳に近づくと考えられる.そのため,並び替えた入力文と参照翻訳の語順の近さを評価するKendallの$\tau$と,翻訳結果と参照翻訳の語順を評価するRIBES値には相関があると期待される.また逐語翻訳に近づくことで翻訳タスク自体が簡単になり,BLEU値も向上すると期待できる.表\ref{tab:kendallBLEURIBES}に,開発セットにおける並び替え前後の入力文それぞれと参照翻訳文間のKendallの$\tau$と,PBSMTによる翻訳結果のBLEU値,RIBES値を示す.英日対において,RvNNは並び替えなしに比べてKendallの$\tau$が$27.07$ポイント向上しており,英語,日本語文での語順の一致率を大きく向上できている.BLEU値,RIBES値もそれぞれ$3.68$ポイント,$8.27$ポイント向上している.日英対においても並び替えなしと比較してRvNNによる事前並び替えでKendallの$\tau$が$10.83$ポイント向上し,BLEU値,RIBES値もそれぞれ$2.27$ポイント,$8.23$ポイント向上している.つまりRvNNでは,語順の一致率を大きく向上できた英日,日英対では,BLEU値およびRIBES値を改善できていることが分かる.一方,仏英,中英対では並び替えなしに比べてRvNNのKendallの$\tau$がそれぞれ$1.08$ポイント,$0.26$ポイント向上したが,BLEU値,RIBES値に有意な変化はみられなかった.このことから,事前並び替えにより語順の一致率を高めることができれば,翻訳精度に大きく貢献できるが,Kendallの$\tau$の小規模な改善が翻訳精度に与える影響は限定的であることが分かる.\begin{table}[t]\hangcaption{開発データにおけるKendallの$\tau$とBLEUおよびRIBESとの関係(最も性能の高いものと有意差がないもの($p<0.05$)を太字で表す)}\label{tab:kendallBLEURIBES}\input{06table04.tex}\end{table}一方で,BTGでは仏英対においてKendallの$\tau$を$1.43$ポイント向上できており,またBLEU値,RIBES値がそれぞれ$1.27$ポイント,$0.41$ポイント,中英対においてもKendallの$\tau$を$1.65$ポイント改善し,またRIBES値が$0.24$ポイント向上している.提案手法では中英対においてBLEU,RIBESを向上できなかった理由として,構文解析エラーの影響が考えられる.BTGでは事前並び替えに適した木構造を構築しながら並び替えを行う.一方,RvNNでは構文解析器が出力する構文木に基づいて事前並び替えを行うため,構文解析器の精度がRvNNによる並び替えの精度に影響する.本実験で用いた構文解析器の精度は,中国語で$77\%$\cite{che-spitkovsky-liu:2012:ACL2012short}と報告されており,英語の場合の$91\%$\cite{Miyao:2008:FFM:1350986.1350988}より大幅に低い.中英翻訳のため構文解析した中国語文のうち,開発データから一文単位のBLEU値が低下した$50$件を観察した結果,構文解析エラーと単語アラインメントの質が低いことによる複合的な要因により事前並び替えに失敗していることが明らかとなった.構文解析に失敗した文は$13$文あり,そのうち名詞句の解析誤りが$9$件,動詞句の解析誤りが$6$件あった.これらの構文解析エラーにより,事前並び替えに失敗したものは$6$件あった.このうち構文解析エラーによりどのような並び替えを行ってもKendallの$\tau$を向上できないものが$3$件,単語アラインメントそのものができておらず,どのような並び替えを行ってもKendallの$\tau$を向上できないものが$2$件あった.これらは中英翻訳の実験に用いた対訳コーパス(IWSLT2015)はTEDより収集された口語体の文であるため構文解析が難しく,またコーパスサイズが小さいことから単語アラインメントも困難なためと考えられる.\subsubsection{機械学習手法の効果}\label{sec:diff_ml}次に,提案手法では構文木に基づく機械学習により事前並び替えを行うが,構文木を用いる効果および機械学習手法の効果を分けて検証するため,提案手法と同様に機械学習を用いて構文木の各ノードで並び替えを行う手法であるHoshinoら\cite{hoshino-EtAl:2015:ACL-IJCNLP}と英日対で比較実験を行った.Hoshinoらの手法は,機械学習手法としてSupportVectorMachineを用いるものである.表\ref{tab:comp_hoshino}にその結果を示す.Hoshinoらの手法と比較して,RvNNを用いた翻訳ではBLEU値が有意に$0.58$ポイント高い結果となった.この結果より,単語ベクトルおよび品詞・構文タグベクトルを考慮しRvNNによる事前並び替えを行うことで,構文情報をよりとらえた並び替えを実現できることが分かる.\begin{table}[b]\hangcaption{機械学習手法の違いによる並び替えのPBSMTによる英日対での翻訳評価(最も性能の高いものと有意差がないもの($p<0.05$)を太字で表す)}\label{tab:comp_hoshino}\input{06table05.tex}\end{table}\begin{table}[b]\caption{英日対における並び替えの成功例とその翻訳例}\label{tab:preorder_success}\input{06table06.tex}\end{table}\subsubsection{翻訳例の分析}表\ref{tab:preorder_success}に英日対において事前並び替えに成功した例,およびそのPBSMT,NMTを用いた翻訳結果を示す.原文と参照訳では語順が大きく異なっているが,並び替えを行うことで語順が近づいていることが分かる.PBSMTによる翻訳例では,並び替えなしの文と比べ,並び替えを行った文は意味が通るような訳文となっている.特に,動詞である``causes''が並び替えを行うことで文末に移動し,参照訳の「ひきおこす」と同様の意味を表す「原因となる」と翻訳されており,並び替えなしの翻訳である「部品である」と比べて正しい翻訳結果となっている.NMTによる翻訳例ではPBSMTによる翻訳例と比較してより流暢な翻訳となっているが,低頻度語である``economizer''が$\langle$unk$\rangle$と翻訳されている.\begin{table}[b]\caption{英日対における並び替えの失敗例とその翻訳例}\label{tab:preorder_failed1}\input{06table07.tex}\end{table}表\ref{tab:preorder_failed1}に英日対において事前並び替えに失敗した例およびそのPBSMT,NMTによる翻訳結果を示す.RvNNによる並び替えの例では,元々括弧外にあった単語列が,並び替えの結果括弧の中に入っていたり,左括弧と右括弧の順番が反対になっている.これは構文解析の結果,図\ref{fig:parse_ex}に示すように``(c)''というフレーズが誤って二つの句に分断されており,その誤りが事前並び替えに影響してしまったためである.BTGでは構文解析と並び替えを同時に行うため,このような構文解析誤りの影響を受けない.表\ref{tab:preorder_enfr},\ref{tab:preorder_enzh}に,英仏対および英中対での並び替えおよび翻訳結果を示す.これらの言語対では語順が似ているため,事前並び替えを行っても語順はほとんど変化せず,実際に並び替えなしの文とBTG,RvNNによって並び替えられた文も,それほど変化していない.\begin{figure}[t]\begin{center}\includegraphics{26-1ia6f3.eps}\end{center}\caption{失敗した構文解析結果の一部分(横線が引いてある節ノードは``Inverted''を示す)}\label{fig:parse_ex}\end{figure}\begin{table}[t]\caption{英仏対における並び替えの例とその翻訳例}\label{tab:preorder_enfr}\input{06table08.tex}\end{table}\begin{table}[t]\caption{英中対における並び替えの例とその翻訳例}\label{tab:preorder_enzh}\input{06table09.tex}\end{table}
\section{まとめ}
本稿では統計的機械翻訳のための素性テンプレートの設計を必要としないRvNNを用いた事前並び替え手法を提案した.英日,英仏,英中言語対を用いた評価実験の結果,提案手法は英日統計的機械翻訳において,人手で設計した素性テンプレートに基づく事前並び替え手法のstate-of-the-art\cite{nakagawa2015}と同等の翻訳性能を達成している.しかし,提案手法では構文解析を必要とするため,構文解析の誤りが事前並び替えの精度に影響する.よって,構文解析とノードの並び替えを同時に行うモデルの構築が今後の課題の$1$つとして挙げられる.先行研究\cite{sudoh-nagata:2016:WAT2016,DuandWay:2017}において,事前並び替えを行った文対でNMTを訓練すると,翻訳精度が低下することが報告されている.しかし提案手法を用いた場合,英仏,中英対ではNMTにおいてBLEU値が有意に向上しており,事前並び替えがNMTに貢献する可能性が示された.提案手法では事前並び替えとNMTは完全に独立なモデルとなっているが,これらを統合し,事前並び替えモデルとNMTの訓練を同時に行うことでNMTに適した事前並び替えを行えると期待できる.今後,このような事前並び替えとNMTモデルを融合した手法に取り組む予定である.\acknowledgment本研究は,日本電信電話株式会社コミュニケーション科学基礎研究所及びJSPS科研費\#17H06822の助成を受けたものです.本稿の評価実験を行うにあたり,ご協力いただいた星野翔氏に深謝いたします.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bojar,Chatterjee,Federmann,Haddow,Huck,Hokamp,Koehn,Logacheva,Monz,Negri,Post,Scarton,Specia,\BBA\Turchi}{Bojaret~al.}{2015}]{bojar-EtAl:2015:WMT}Bojar,O.,Chatterjee,R.,Federmann,C.,Haddow,B.,Huck,M.,Hokamp,C.,Koehn,P.,Logacheva,V.,Monz,C.,Negri,M.,Post,M.,Scarton,C.,Specia,L.,\BBA\Turchi,M.\BBOP2015\BBCP.\newblock\BBOQFindingsofthe2015WorkshoponStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe10thWorkshoponStatisticalMachineTranslation(WMT)},\mbox{\BPGS\1--46},Lisbon,Portugal.\bibitem[\protect\BCAY{Botha,Pitler,Ma,Bakalov,Salcianu,Weiss,McDonald,\BBA\Petrov}{Bothaet~al.}{2017}]{botha-EtAl:2017:EMNLP2017}Botha,J.~A.,Pitler,E.,Ma,J.,Bakalov,A.,Salcianu,A.,Weiss,D.,McDonald,R.,\BBA\Petrov,S.\BBOP2017\BBCP.\newblock\BBOQNaturalLanguageProcessingwithSmallFeed-ForwardNetworks.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\2879--2885},Copenhagen,Denmark.\bibitem[\protect\BCAY{Cettolo,Niehues,St{\"{u}}ker,Bentivogli,Cattoni,\BBA\Federico}{Cettoloet~al.}{2015}]{iwslt15}Cettolo,M.,Niehues,J.,St{\"{u}}ker,S.,Bentivogli,L.,Cattoni,R.,\BBA\Federico,M.\BBOP2015\BBCP.\newblock\BBOQTheIWSLT2015EvaluationCampaign.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalWorkshoponSpokenLanguageTranslation(IWSLT)},\mbox{\BPGS\2--10},Tokyo,Japan.\bibitem[\protect\BCAY{Che,Spitkovsky,\BBA\Liu}{Cheet~al.}{2012}]{che-spitkovsky-liu:2012:ACL2012short}Che,W.,Spitkovsky,V.,\BBA\Liu,T.\BBOP2012\BBCP.\newblock\BBOQAComparisonofChineseParsersforStanfordDependencies.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\11--16},JejuIsland,Korea.\bibitem[\protect\BCAY{Chu,Nakazawa,Kawahara,\BBA\Kurohashi}{Chuet~al.}{2016}]{chu-EtAl:2016:ALR12}Chu,C.,Nakazawa,T.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2016\BBCP.\newblock\BBOQSCTB:AChineseTreebankinScientificDomain.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponAsianLanguageResources(ALR)},\mbox{\BPGS\59--67},Osaka,Japan.\bibitem[\protect\BCAY{Collins,Koehn,\BBA\Kucerova}{Collinset~al.}{2005}]{CollinsKoehn2005}Collins,M.,Koehn,P.,\BBA\Kucerova,I.\BBOP2005\BBCP.\newblock\BBOQClauseRestructuringforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\531--540}.\bibitem[\protect\BCAY{Crego\BBA\Habash}{Crego\BBA\Habash}{2008}]{crego-habash:2008:WMT}Crego,J.~M.\BBACOMMA\\BBA\Habash,N.\BBOP2008\BBCP.\newblock\BBOQUsingShallowSyntaxInformationtoImproveWordAlignmentandReorderingforSMT.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\53--61},Columbus,Ohio.\bibitem[\protect\BCAY{Crego\BBA\Mari{\~{n}}o}{Crego\BBA\Mari{\~{n}}o}{2006}]{Crego2006}Crego,J.~M.\BBACOMMA\\BBA\Mari{\~{n}}o,J.~B.\BBOP2006\BBCP.\newblock\BBOQImprovingStatisticalMTbyCouplingReorderingandDecoding.\BBCQ\\newblock{\BemMachineTranslation},{\Bbf20}(3),\mbox{\BPGS\199--215}.\bibitem[\protect\BCAY{de~Gispert,Iglesias,\BBA\Byrne}{de~Gispertet~al.}{2015}]{degispert-iglesias-byrne:2015:NAACL-HLT}de~Gispert,A.,Iglesias,G.,\BBA\Byrne,B.\BBOP2015\BBCP.\newblock\BBOQFastandAccuratePreorderingforSMTusingNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies(NAACL-HLT)},\mbox{\BPGS\1012--1017},Denver,Colorado.\bibitem[\protect\BCAY{DeNero\BBA\Uszkoreit}{DeNero\BBA\Uszkoreit}{2011}]{denero-uszkoreit:2011:EMNLP}DeNero,J.\BBACOMMA\\BBA\Uszkoreit,J.\BBOP2011\BBCP.\newblock\BBOQInducingSentenceStructurefromParallelCorporaforReordering.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\193--203},Edinburgh,UK.\bibitem[\protect\BCAY{Du\BBA\Way}{Du\BBA\Way}{2017}]{DuandWay:2017}Du,J.\BBACOMMA\\BBA\Way,A.\BBOP2017\BBCP.\newblock\BBOQPre-ReorderingforNeuralMachineTranslation:HelpfulorHarmful?\BBCQ\\newblock{\BemThePragueBulletinofMathematicalLinguistics},{\Bbf108},\mbox{\BPGS\171--182}.\bibitem[\protect\BCAY{Genzel}{Genzel}{2010}]{genzel:2010:PAPERS}Genzel,D.\BBOP2010\BBCP.\newblock\BBOQAutomaticallyLearningSource-sideReorderingRulesforLargeScaleMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\376--384},Beijing,China.\bibitem[\protect\BCAY{Gojun\BBA\Fraser}{Gojun\BBA\Fraser}{2012}]{gojunfraser2012}Gojun,A.\BBACOMMA\\BBA\Fraser,A.\BBOP2012\BBCP.\newblock\BBOQDeterminingthePlacementofGermanVerbsinEnglish-to-GermanSMT.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL)},\mbox{\BPGS\726--735},Avignon,France.\bibitem[\protect\BCAY{Goller\BBA\Kuchler}{Goller\BBA\Kuchler}{1996}]{GollerandKuchler}Goller,C.\BBACOMMA\\BBA\Kuchler,A.\BBOP1996\BBCP.\newblock\BBOQLearningTask-dependentDistributedRepresentationsbyBackpropagationthroughStructure.\BBCQ\\newblockIn{\BemProceedingsoftheIEEEInternationalConferenceonNeuralNetworks,1996},\lowercase{\BVOL}~1,\mbox{\BPGS\347--352}.\bibitem[\protect\BCAY{Goto,Utiyama,Sumita,Tamura,\BBA\Kurohashi}{Gotoet~al.}{2013}]{P13-1016}Goto,I.,Utiyama,M.,Sumita,E.,Tamura,A.,\BBA\Kurohashi,S.\BBOP2013\BBCP.\newblock\BBOQDistortionModelConsideringRichContextforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\155--165},Sofia,Bulgaria.\bibitem[\protect\BCAY{Hayashi,Sudoh,Tsukada,Suzuki,\BBA\Nagata}{Hayashiet~al.}{2013}]{hayashi-EtAl:2013:EMNLP}Hayashi,K.,Sudoh,K.,Tsukada,H.,Suzuki,J.,\BBA\Nagata,M.\BBOP2013\BBCP\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1382--1386},Seattle,USA.\bibitem[\protect\BCAY{Hoshino,Miyao,Sudoh,Hayashi,\BBA\Nagata}{Hoshinoet~al.}{2015}]{hoshino-EtAl:2015:ACL-IJCNLP}Hoshino,S.,Miyao,Y.,Sudoh,K.,Hayashi,K.,\BBA\Nagata,M.\BBOP2015\BBCP.\newblock\BBOQDiscriminativePreorderingMeetsKendall's$\tau$Maximization.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguisticsandInternationalJointConferenceonNaturalLanguageProcessing(ACL-IJCNLP)},\mbox{\BPGS\139--144},Beijing,China.\bibitem[\protect\BCAY{Isozaki,Sudoh,Tsukada,\BBA\Duh}{Isozakiet~al.}{2010}]{isozaki10hfe}Isozaki,H.,Sudoh,K.,Tsukada,H.,\BBA\Duh,K.\BBOP2010\BBCP.\newblock\BBOQHeadFinalization:ASimpleReorderingRuleforSOVLanguages.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponStatisticalMachineTranslationandMetricsMATR},\mbox{\BPGS\244--251},Uppsala,Sweden.\bibitem[\protect\BCAY{Jehl,de~Gispert,Hopkins,\BBA\Byrne}{Jehlet~al.}{2014}]{E14-1026}Jehl,L.,de~Gispert,A.,Hopkins,M.,\BBA\Byrne,W.\BBOP2014\BBCP.\newblock\BBOQSource-sidePreorderingforTranslationusingLogisticRegressionandDepth-firstBranch-and-BoundSearch.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL)},\mbox{\BPGS\239--248},Gothenburg,Sweden.\bibitem[\protect\BCAY{Joachims}{Joachims}{2002}]{joachims2002optimizing}Joachims,T.\BBOP2002\BBCP.\newblock\BBOQOptimizingSearchEnginesusingClickthroughData.\BBCQ\\newblockIn{\BemProceedingsoftheACMSIGKDDInternationalConferenceonKnowledgeDiscoveryandDataMining},\mbox{\BPGS\133--142},NewYork,USA.\bibitem[\protect\BCAY{Kanouchi,Sudoh,\BBA\Komachi}{Kanouchiet~al.}{2016}]{kanouchi-sudoh-komachi:2016:WAT2016}Kanouchi,S.,Sudoh,K.,\BBA\Komachi,M.\BBOP2016\BBCP.\newblock\BBOQNeuralReorderingModelConsideringPhraseTranslationandWordAlignmentforPhrase-basedTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponAsianTranslation(WAT)},\mbox{\BPGS\94--103},Osaka,Japan.\bibitem[\protect\BCAY{Kawara,Chu,\BBA\Arase}{Kawaraet~al.}{2018}]{P18-3004}Kawara,Y.,Chu,C.,\BBA\Arase,Y.\BBOP2018\BBCP.\newblock\BBOQRecursiveNeuralNetworkBasedPreorderingforEnglish-to-JapaneseMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics(ACL),StudentResearchWorkshop},\mbox{\BPGS\21--27},Melbourne,Australia.\bibitem[\protect\BCAY{Kendall}{Kendall}{1938}]{kendall1938measure}Kendall,M.~G.\BBOP1938\BBCP.\newblock\BBOQANewMeasureofRankCorrelation.\BBCQ\\newblock{\BemBiometrika},{\Bbf30}(1/2),\mbox{\BPGS\81--93}.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2015}]{DBLP:journals/corr/KingmaB14}Kingma,D.~P.\BBACOMMA\\BBA\Ba,J.\BBOP2015\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceforLearningRepresentations(ICLR)},SanDiego,USA.\bibitem[\protect\BCAY{Koehn}{Koehn}{2004}]{koehn:2004:EMNLP}Koehn,P.\BBOP2004\BBCP.\newblock\BBOQStatisticalSignificanceTestsforMachineTranslationEvaluation.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\388--395},Barcelona,Spain.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{Koehn:2003:SPT:1073445.1073462}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-basedTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsonHumanLanguageTechnology(NAACL-HLT)},\mbox{\BPGS\48--54},Edmonton,Canada.\bibitem[\protect\BCAY{Lerner\BBA\Petrov}{Lerner\BBA\Petrov}{2013}]{lerner-petrov:2013:EMNLP}Lerner,U.\BBACOMMA\\BBA\Petrov,S.\BBOP2013\BBCP.\newblock\BBOQSource-SideClassifierPreorderingforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\513--523},Seattle,USA.\bibitem[\protect\BCAY{Li,Li,Zhang,Li,Zhou,\BBA\Guan}{Liet~al.}{2007}]{li-EtAl:2007:ACLMain2}Li,C.-H.,Li,M.,Zhang,D.,Li,M.,Zhou,M.,\BBA\Guan,Y.\BBOP2007\BBCP.\newblock\BBOQAProbabilisticApproachtoSyntax-basedReorderingforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationofComputationalLinguistics(ACL)},\mbox{\BPGS\720--727},Prague,CzechRepublic.\bibitem[\protect\BCAY{Luong,Pham,\BBA\Manning}{Luonget~al.}{2015}]{D15-1166}Luong,T.,Pham,H.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQEffectiveApproachestoAttention-basedNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1412--1421},Lisbon,Portugal.\bibitem[\protect\BCAY{Miceli~Barone\BBA\Attardi}{Miceli~Barone\BBA\Attardi}{2015}]{micelibarone-attardi:2015:ACL-IJCNLP}Miceli~Barone,A.~V.\BBACOMMA\\BBA\Attardi,G.\BBOP2015\BBCP.\newblock\BBOQNon-projectiveDependency-basedPre-ReorderingwithRecurrentNeuralNetworkforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguisticsandtheInternationalJointConferenceonNaturalLanguageProcessing(ACL-IJCNLP)},\mbox{\BPGS\846--856},Beijing,China.\bibitem[\protect\BCAY{Miyao\BBA\Tsujii}{Miyao\BBA\Tsujii}{2008}]{Miyao:2008:FFM:1350986.1350988}Miyao,Y.\BBACOMMA\\BBA\Tsujii,J.\BBOP2008\BBCP.\newblock\BBOQFeatureForestModelsforProbabilisticHpsgParsing.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf34}(1),\mbox{\BPGS\35--80}.\bibitem[\protect\BCAY{Nakagawa}{Nakagawa}{2015}]{nakagawa2015}Nakagawa,T.\BBOP2015\BBCP.\newblock\BBOQEfficientTop-DownBTGParsingforMachineTranslationPreordering.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguisticsandInternationalJointConferenceonNaturalLanguageProcessing(ACL-IJCNLP)},\mbox{\BPGS\208--218},Beijing,China.\bibitem[\protect\BCAY{Nakazawa,Yaguchi,Uchimoto,Utiyama,Sumita,Kurohashi,\BBA\Isahara}{Nakazawaet~al.}{2016}]{NAKAZAWA16.621}Nakazawa,T.,Yaguchi,M.,Uchimoto,K.,Utiyama,M.,Sumita,E.,Kurohashi,S.,\BBA\Isahara,H.\BBOP2016\BBCP.\newblock\BBOQASPEC:AsianScientificPaperExcerptCorpus.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\2204--2208},Portoro{\v{z}},Slovenia.\bibitem[\protect\BCAY{Neubig,Watanabe,\BBA\Mori}{Neubiget~al.}{2012}]{neubig-watanabe-mori:2012:EMNLP-CoNLL}Neubig,G.,Watanabe,T.,\BBA\Mori,S.\BBOP2012\BBCP.\newblock\BBOQInducingaDiscriminativeParsertoOptimizeMachineTranslationReordering.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL)},\mbox{\BPGS\843--853},JejuIsland,Korea.\bibitem[\protect\BCAY{Och}{Och}{2003}]{och:2003:ACL}Och,F.~J.\BBOP2003\BBCP.\newblock\BBOQMinimumErrorRateTraininginStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\160--167},Sapporo,Japan.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni-EtAl:2002:ACL}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:aMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\311--318},Philadelphia,USA.\bibitem[\protect\BCAY{Socher,Lin,Ng,\BBA\Manning}{Socheret~al.}{2011}]{Socher:2011:PNS:3104482.3104499}Socher,R.,Lin,C.C.-Y.,Ng,A.~Y.,\BBA\Manning,C.~D.\BBOP2011\BBCP.\newblock\BBOQParsingNaturalScenesandNaturalLanguagewithRecursiveNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsoftheonInternationalConferenceonMachineLearning(ICML)},\mbox{\BPGS\129--136},Bellevue,USA.\bibitem[\protect\BCAY{Sudoh\BBA\Nagata}{Sudoh\BBA\Nagata}{2016}]{sudoh-nagata:2016:WAT2016}Sudoh,K.\BBACOMMA\\BBA\Nagata,M.\BBOP2016\BBCP.\newblock\BBOQChinese-to-JapanesePatentMachineTranslationbasedonSyntacticPre-orderingforWAT2016.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponAsianTranslation(WAT)},\mbox{\BPGS\211--215},Osaka,Japan.\bibitem[\protect\BCAY{Tillmann}{Tillmann}{2004}]{Tillmann:2004:UOM:1613984.1614010}Tillmann,C.\BBOP2004\BBCP.\newblock\BBOQAUnigramOrientationModelforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(HLT-NAACL)},\mbox{\BPGS\101--104},Boston,USA.\bibitem[\protect\BCAY{Tromble\BBA\Eisner}{Tromble\BBA\Eisner}{2009}]{tromble-eisner:2009:EMNLP}Tromble,R.\BBACOMMA\\BBA\Eisner,J.\BBOP2009\BBCP.\newblock\BBOQLearningLinearOrderingProblemsforBetterTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1007--1016},Singapore.\bibitem[\protect\BCAY{Utiyama\BBA\Isahara}{Utiyama\BBA\Isahara}{2007}]{Utiyama07ajapanese-english}Utiyama,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2007\BBCP.\newblock\BBOQAJapanese-EnglishPatentParallelCorpus.\BBCQ\\newblockIn{\BemProceedingsoftheMachineTranslationSummitXI},\mbox{\BPGS\475--482},Copenhagen,Denmark.\bibitem[\protect\BCAY{Visweswariah,Rajkumar,Gandhe,Ramanathan,\BBA\Navratil}{Visweswariahet~al.}{2011}]{visweswariah-EtAl:2011:EMNLP}Visweswariah,K.,Rajkumar,R.,Gandhe,A.,Ramanathan,A.,\BBA\Navratil,J.\BBOP2011\BBCP.\newblock\BBOQAWordReorderingModelforImprovedMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\486--496},Edinburgh,UK.\bibitem[\protect\BCAY{Wang,Collins,\BBA\Koehn}{Wanget~al.}{2007}]{wang-collins-koehn:2007:EMNLP-CoNLL2007}Wang,C.,Collins,M.,\BBA\Koehn,P.\BBOP2007\BBCP.\newblock\BBOQChineseSyntacticReorderingforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL)},\mbox{\BPGS\737--745},Prague,CzechRepublic.\bibitem[\protect\BCAY{Wang,Tu,Xiong,\BBA\Zhang}{Wanget~al.}{2017}]{D17-1149}Wang,X.,Tu,Z.,Xiong,D.,\BBA\Zhang,M.\BBOP2017\BBCP.\newblock\BBOQTranslatingPhrasesinNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1421--1431},Copenhagen,Denmark.\bibitem[\protect\BCAY{Wu}{Wu}{1997}]{Wu:1997:SIT:972705.972707}Wu,D.\BBOP1997\BBCP.\newblock\BBOQStochasticInversionTransductionGrammarsandBilingualParsingofParallelCorpora.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf23}(3),\mbox{\BPGS\377--403}.\bibitem[\protect\BCAY{Xia\BBA\McCord}{Xia\BBA\McCord}{2004}]{xia-mccord:2004:COLING}Xia,F.\BBACOMMA\\BBA\McCord,M.\BBOP2004\BBCP.\newblock\BBOQImprovingaStatisticalMTSystemwithAutomaticallyLearnedRewritePatterns.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\508--514},Geneva,Switzerland.\bibitem[\protect\BCAY{Xu,Kang,Ringgaard,\BBA\Och}{Xuet~al.}{2009}]{xu-EtAl:2009:NAACLHLT09}Xu,P.,Kang,J.,Ringgaard,M.,\BBA\Och,F.\BBOP2009\BBCP.\newblock\BBOQUsingaDependencyParsertoImproveSMTforSubject-Object-VerbLanguages.\BBCQ\\newblockIn{\BemProceedingsofHumanLanguageTechnologies:TheAnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(HLT-NAACL)},\mbox{\BPGS\245--253},Boulder,Colorado.\bibitem[\protect\BCAY{Yang,Li,Zhang,\BBA\Yu}{Yanget~al.}{2012}]{yang-EtAl:2012:ACL2012}Yang,N.,Li,M.,Zhang,D.,\BBA\Yu,N.\BBOP2012\BBCP.\newblock\BBOQARanking-basedApproachtoWordReorderingforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\912--920},JejuIsland,Korea.\bibitem[\protect\BCAY{Zhang,Zens,\BBA\Ney}{Zhanget~al.}{2007}]{Zhang:2007:CRS:1626281.1626282}Zhang,Y.,Zens,R.,\BBA\Ney,H.\BBOP2007\BBCP.\newblock\BBOQChunk-levelReorderingofSourceLanguageSentenceswithAutomaticallyLearnedRulesforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemHumanLanguageTechnologies:TheConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(HLT-NAACL);ProceedingsoftheMainConference},\mbox{\BPGS\1--8},Rochester,USA.\end{thebibliography}\begin{biography}\bioauthor{瓦祐希}{2018年大阪大学大学院情報科学研究科博士前期課程修了.現在同大学院博士課程.機械翻訳の研究に従事.言語処理学会,ACL,各会員.}\bioauthor[:]{ChenhuiChu}{2008年重慶大学ソフトウェア工学部卒業.2012年に京都大学大学院情報学研究科修士課程修了.2015年同大学院博士課程修了.博士(情報学).日本学術振興会特別研究員DC2,国立研究開発法人科学技術振興機構研究員を経て,2017年より大阪大学データビリティフロンティア機構特任助教.機械翻訳,自然言語処理の研究に従事.言語処理学会,人工知能学会,ACL,各会員.}\bioauthor{荒瀬由紀}{2006年大阪大学工学部電子情報エネルギー工学科卒業.2007年同大学院情報科学研究科博士前期課程,2010年同博士後期課程修了.博士(情報科学).同年,MicrosoftResearchAsiaに入社,自然言語処理に関する研究開発に従事.2014年より大阪大学大学院情報科学研究科マルチメディア工学専攻准教授,現在に至る.言い換え表現抽出,機械翻訳技術,対話システム研究に興味を持つ.}\end{biography}\biodate\end{document}
| |
V23N05-04 | \section{はじめに}
文書間類似度がはかるものとして「伝える内容の一致」(内容一致)だけでなく「伝える表現の一致」(表現一致)がある.文書間類似度は自動要約や機械翻訳ではシステム出力の内容評価を行うために参照要約(翻訳)との差異を評価する指標として用いられる.一方,文書間類似度は表現の差異を評価することを目的としてテキストの文体の計量比較にも用いられる.本稿では,文書間類似度の数理的構造の説明し,様々な内容もしくは文体が同じであることが想定されるテキストを用いて,各計量の特性について検討する\modified{.}\cite{nanba-hirao-2008-JSAI-journal}は2008年時点での自動要約の評価指標についての評価をまとめている.2008年以降に提案された語順を考慮した内容評価のための指標を含めて,語順に対する順序尺度を含めた距離空間・類似度・カーネル・相関係数などの尺度を用いて,数理的構造について整理する.具体的には,一致部分文字列による尺度・一致部分列による尺度・ベクトル型順序尺度・編集型順序尺度の四つに分類し議論する.これらの四つの尺度に基づき,内容一致(内容の同一性)と表現一致(文体の類似性)の観点から,言語生産過程の多様性を評価する.複数人が同一課題を実施した場合の各評価尺度の分散や,同一人が同一課題を繰り返し実施した場合の各評価尺度の分散などを検討する.生産過程においては口述・筆術・タイプ入力の三種類について評価し,課題においては要約・語釈・再話について評価する.要約は長い文書を同等の内容で短く言い換えることを目的とする言語生産過程であるが,語釈は短い単語が指し示す意味と同等の内容を長く言い換えることを目的とする言語生産過程であることから,要約は語釈の逆写像の一般化ととらえることができる.また,再話は長い文書を再度同等の内容でそのまま提示することを目的とする言語生産過程であることから,要約の一般化であるととらえることができる.この評価を通して,四つの指標における差異がどのような生産過程の差異に現れるのかを調査する.また同一言語生産課題に対する生成物の多様性についても議論する.表現一致をつかさどるものとして,情報の提示順序を含む修辞法(rhetoric)・使用域(register)や位相(phase)\footnote{ここでは「使用域」と「位相」は数学の用途ではなく文体論の用語として用いている.}に内在する文体・個人に内在する文体などが考えられる.要約を評価するにあたり,内容一致は重要であると考えるが,表現一致はどの程度重要であるのだろうか.さらにこれらはどの評価尺度に表出するのだろうか.対照比較を介して,各言語生産過程に共通のふるまいを示す評価尺度と課題に特有のふるまいを示す評価尺度について調査する.\modified{自動要約評価のための参照文書は一般に口述筆記の専門家や記者経験者などにより作成され,統制された少数のものが提供される.自動翻訳評価においても職業翻訳家等により限られた数の参照文書が作成される.統制は距離空間上の凸問題として課題を設定し,その課題設定の枠組内で評価したい工学研究者の都合で行われているものである.さらに,工学研究者は参照文書の差異がユークリッド距離空間上に規定され,文書間類似度で比較可能なレベルで統制できうるものだと考えているきらいがある.一方,文書を介したコミュニケーションにおいて,言語生産者ではない者による受容過程は統制されるものではなく,複数の受容者間で共有されるものではない.一人の受容者においても時間的経過などで統制できるものでもない.本稿では,人間の要約作成時の不安定な言語受容過程\footnote{ここで言語受容過程とは,要約作成時に元文書を読む過程のことを指す.}において文書の重要箇所選択がどの程度ゆれるものなのかを評価するとともに,そのゆれは評価指標を構成するどの尺度に表れるのかを調査する.この調査を通して,本来誤りでないものが課題設定の時点で誤りになっている可能性があるという実態を明らかにする.}本稿の貢献は以下のとおりである:\begin{itemize}\item既存の文書要約や機械翻訳の自動評価に利用される評価指標と,距離空間・類似度・カーネル空間・順序尺度・相関係数などの尺度との関係を整理\modified{した}\item同一課題について複数人の言語生産者間で生成される文書のゆれを定量的に評価\modified{した}\item課題ごとに同一人の言語生産者の課題試行間で生成される文書のゆれを定量的に評価\modified{した}\item上に述べたゆれの評価に基づき,内容評価と表現評価の尺度上のふるまいの\modified{不安定さを明らかにした}\end{itemize}尚,本稿では,「評価指標」と「尺度」を区別して用いる.自動要約や機械翻訳ではシステム出力の内容評価を行うためのROUGEやBLEUなど広く知られているものを表す際に「評価指標」と呼び,「評価指標」を構成する距離空間・類似度・カーネル・相関係数などを「尺度」と呼ぶ.「評価指標」が単一の「尺度」から構成されることもあり,「評価指標」=「尺度」である場合もある.以下,\ref{sec:sim}節では既存の自動評価指標を距離・類似度・カーネル・順序尺度・相関係数により説明することで,文書間類似度を四つに分類し整理する.3節では尺度を適用して比較するさまざまな言語生成過程を記録した言語資源について説明する.4節では評価尺度の定性的な評価について示す.5節にまとめと今後の研究の方向性について示す.
\section{評価指標と距離・類似度・カーネル・順序尺度・相関係数}
\label{sec:sim}\subsection{本節の趣旨}\label{ss:sim-intro}本節では,過去に提案されている自動要約と機械翻訳の評価指標を距離・類似度・カーネル・順序尺度・相関係数などの尺度により説明することを試みる.この説明の過程で,いくつかの評価指標が擬距離の公理の対称性,三角不等式や,距離の公理の非退化性を満たさないことに言及する.まず,部分文字列(substring)と部分列(subsequence)の違いを明確にするため,2.2節で部分文字列と部分列に基づく類似度について解説する.2.3節で先行研究で言及されている評価指標について解説する.2.4節で関連するカーネル・順序尺度について示す.2.5節で指標の一般化について述べる.評価指標においては,二つのデータ比較という観点から,単一の参照テキストと単一のシステム出力テキストの対の文書間類似度に限定して議論する.複数の参照テキストを考慮する場合には退化性等を考慮する必要がある.尚,本節で用いる用語や記号の定義は\ref{sec:app:term}節にまとめてある.\subsection{LCSubstrとLCS}\subsubsection{記号列と文字列と部分文字列と部分列}評価指標の議論を始める前に,記号列,文字列,部分文字列,部分列の違いについて確認する.何らかの全順序が付与されている記号集合のことを{\bf記号列}と呼ぶ.本稿では記号列ベクトル$s=\langles_{1},\ldots,s_{m}\rangle,t=\langlet_{1},\ldots,t_{m}\rangle$などで表現する.参照テキスト,システム出力テキストは,ともに文字(character)ベースの記号列もしくは形態素解析後の形態素(morpheme)ベースの記号列とみなすことができる.評価する記号列上の連続列のことを{\bf文字列(string)}と呼ぶ.記号列の要素が文字(character)である場合を「文字ベースの文字列(character-basedstring)」,記号列の要素が形態素(morpheme)である場合を「形態素ベースの文字列(morpheme-based)」と呼ぶこととする.記号列に対して隣接性と順序を保持した部分的記号列のことを{\bf部分文字列(substring)}と呼ぶ.長さ$n$の部分文字列を特にn-gram部分文字列と呼ぶ.記号列$s$の$i$番目の要素からはじまるn-gram部分文字列を$s_{i\ldotsi+n-1}$で表現する.記号列に対して順序を保持した部分的記号列のことを{\bf部分列(subsequence)}と呼ぶ.隣接性は保持しなくてよい.長さ$p$の部分列を特にp-mer部分列と呼ぶ.記号列$s$のp-mer部分列を,インデックスベクトル$\vec{i}=\langlei_{1},\ldots,i_{p}\rangle(1\leqi_{1}<i_{2}<\cdots<i_{p}\leq|s|)$を用いて,$s[\vec{i}]$と表す.\subsubsection{最長共通部分文字列(LongestCommonSubstring:LCSubstr)長}\label{sss:LCStr}最長共通部分文字列(LongestCommonSubstring)の\modified{略称}はLCSだが,一般には\ref{sss:LCS}\modified{節}に示す最長共通部分列(LongestCommonSubsequence)のことをLCSと呼ぶことが多い.本稿では前者を\modified{LCSubstr},後者をLCSと呼び,区別する.記号列$s$,$t$を与えた際の最長共通部分文字列を次式で定義する:\[\mbox{\modified{LCSubstr}}(s,t)=\argmax_{s_{i\ldotsi+n-1}|\existsj,s_{i\ldotsi+n-1}=t_{j\ldotsj+n-1}}n\]記号列$s$,$t$を与えた際の最長共通部分文字列長(\modified{LCSubstr}長)を次式で定義する:\[|\mbox{\modified{LCSubstr}}(s,t)|=\max_{\foralli,\forallj,s_{i\ldotsi+n-1}=t_{j\ldotsj+n-1}}n\]これを[0,1]区間に正規化すると以下のようになる:\[\mbox{Score}_{\mbox{\modified{LCSubstr}}}(s,t)=\frac{2\cdot|\mbox{\modified{LCSubstr}}(s,t)|}{|s|+|t|}\]\subsubsection{最長共通部分列(LongestCommonSubsequence:LCS)長とLevenshtein距離}\label{sss:LCS}\label{para:Levenshtein}記号列$s$,$t$を与えた際の最長共通部分列(LongestCommonSubsequence:LCS)を次式で定義する:\[\mbox{LCS}(s,t)=\argmax_{s[\vec{i}]\exists\vec{j},s[\vec{i}]=t[\vec{j}]}|\vec{i}|\]記号列$s$,$t$を与えた際の最長共通部分列長(LCS長)を次式で定義する:\[|\mbox{LCS}(s,t)|=\max_{\forall\vec{i},\forall\vec{j}:s[\vec{i}]=t[\vec{j}]}|\vec{i}|\][0,1]区間に正規化すると,以下のようになる:\[\mbox{Score}_{\mbox{LCS}}(s,t)=\frac{2\cdot|\mbox{LCS}(s,t)|}{|s|+|t|}\]なお,挿入のコストを1,削除のコストを1,代入のコストを2(もしくは代入を禁止)とした場合のLevenshtein距離(編集型距離)とLCS長の関係は以下のようになる:\[\mbox{d}_{\mbox{Levenshtein}}(s,t)=|s|+|t|-2\cdot|\mbox{LCS}(s,t)|\]さらにLCSは\ref{para:rankedit}節で示すとおり,対称群上の編集型距離のうちのUlam距離と深く関連し,一種の順序尺度であるとも考えられる.\subsubsection{ギャップ加重最長共通部分列長による指標}\label{sss:WLCS}部分列LCSは部分文字列\modified{LCSubstr}と異なり,ギャップを伴う.ギャップが多いLCSに減衰させた値を割り当てるために,「LCSの記号列上の長さ」に対して加重を行うことができる.「LCSの記号列上の長さ」は参照テキスト\footnote{本稿では参照テキストを$R$と定義する.}側($|\mbox{LCS}(C,R)|_{R}$で表す)とシステム出力テキスト\footnote{本稿ではシステム出力テキストを$C$と定義する.}側($|\mbox{LCS}(C,R)|_{C}$で表す)とで異なるために,それぞれ計算する必要がある.\begin{gather*}|\mbox{LCS}(C,R)|_{R}=\argmax_{(j_{|\vec{j}|}-j_{1})|\forall\vec{i},\forall\vec{j},C[\vec{i}]=R[\vec{j}]}|\vec{j}|\\|\mbox{LCS}(C,R)|_{C}=\argmax_{(i_{|\vec{i}|}-i_{1})|\forall\vec{i},\forall\vec{j},C[\vec{i}]=R[\vec{j}]}|\vec{i}|\end{gather*}参照テキスト側で重みを付けて正規化する再現率的な指標を$\mbox{R}_{\mbox{WLCS}}(C,R)$とし,システム出力テキスト側で重みを付けて正規化する精度的な指標を$\mbox{P}_{\mbox{WLCS}}(C,R)$とすると以下のようになる.\begin{gather*}\mbox{R}_{\mbox{WLCS}}(C,R)=\frac{\alpha^{|\mbox{LCS}(C,R)|_{R}-|\mbox{LCS}(C,R)|}\cdot|\mbox{LCS}(C,R)|}{|R|}\\[1ex]\mbox{P}_{\mbox{WLCS}}(C,R)=\frac{\alpha^{|\mbox{LCS}(C,R)|_{C}-|\mbox{LCS}(C,R)|}\cdot|\mbox{LCS}(C,R)|}{|C|}\end{gather*}全体を正規化すると以下のようになる.\[\mbox{Score}^{(\gamma)}_{\mbox{WLCS}}(C,R)=\frac{(1+\gamma^{2})R_{\mbox{WLCS}}(C,R)P_{\mbox{WLCS}}(C,R)}{R_{\mbox{WLCS}}(C,R)+\gamma^{2}P_{\mbox{WLCS}}(C,R)}\]ここで$\gamma$は$\mbox{R}_{\mbox{WLCS}}$と$\mbox{P}_{\mbox{WLCS}}$のどちらを重視するかの混ぜ合わせ係数である.\subsection{自動評価指標}次に自動要約と機械翻訳の自動評価指標を確認するが,基本的には文単位の評価かつ参照テキストが一つであるという仮定をおく.\subsubsection{要約の評価指標}ROUGE-L\cite{Lin-2004-WSTS}は\modified{,}システム出力テキストと参照テキストの最長共通部分列(LCS)長を指標として正規化したものである.\[\mbox{Score}^{(\gamma)}_{\mbox{ROUGE-L}}(C,R)=\frac{(1+\gamma^{2})\cdotR_{\mbox{LCS}}(C,R)\cdotP_{\mbox{LCS}}(C,R)}{R_{\mbox{LCS}}(C,R)+\gamma^{2}P_{\mbox{LCS}}(C,R)}\]ここで再現率に相当する$R_{\mbox{LCS}}(C,R)$と精度に相当する$P_{\mbox{LCS}}(C,R)$は以下のように定義する:\begin{gather*}R_{\mbox{LCS}}(C,R)=\frac{\displaystyle|\mbox{LCS(C,R)}|}{|R|}\\[1ex]P_{\mbox{LCS}}(C,R)=\frac{\displaystyle|\mbox{LCS(C,R)}|}{|C|}\end{gather*}上記指標は文単位のものであり,文書レベルに拡張するために,システム出力テキスト中の文$c_{i}\inC$と参照テキスト中の文$r_{j}\inR$のLCS記号列中の記号の集合和を用いて評価する.同様の議論が他の指標においても行われているが,以下本稿ではこの議論を省略する.\paragraph{ROUGE-W}\label{para:ROUGE-W}\modified{ROUGE-W\cite{Lin-2004-WSTS}は,}ギャップ加重最長共通部分列長に似た概念である.違いとしては「LCSの記号列上の長さ」を参照テキスト側とシステム出力テキスト側$|\mbox{LCS}(C,R)|_{R}+|\mbox{LCS}(C,R)|_{C}$でとった上で,加重関数$f(x):f(x+y)>f(x)+f(y),x>0,y>0,x\inN,y\inN$($N$は自然数)を別に定\pagebreak義して「LCSの記号列上の長さ」に対して加重を行う.ROUGE-Wの実装では$f(x)=x^{\alpha}$という多項式を用いており,ギャップ加重最長共通部分列長$\mbox{Score}^{(\gamma)}_{\mbox{WLCS}}(C,R)$の変種と考えることができる.\paragraph{ROUGE-N}\label{para:ROUGE-N}ROUGE-N\cite{Lin-2003-NAACL,Lin-2004-WSTS}はn-gramの一致度を指標として用いるものである.\[\mbox{Score}^{(R)}_{\mbox{ROUGE-N}}(C,R)=\frac{\displaystyle\sum_{e\in(\mbox{n-gram}(C)\cap\mbox{n-gram}(R))}\min(|e|_{C},|e|_{R})}{\displaystyle\sum_{e\in\mbox{n-gram}(R)}|e|_{R}}\]但し,$\mbox{n-gram}(C)$はシステム出力テキストC中のn-gram集合,$\mbox{n-gram}(R)$は参照テキストR中のn-gram集合,$|e|_{C}$はCに含まれる$e$の要素数(のべ出現数),$|e|_{R}$はRに含まれる$e$の要素数とする.\paragraph{ROUGE-S(U)}\label{para:ROUGE-S}ROUGE-S\cite{Lin-2004-WSTS}は,2-merの部分列の一致度を指標として用いるものである.\[\mbox{Score}^{(\gamma)}_{\mbox{ROUGE-S}}(C,R)=\frac{(1+\gamma^{2})P_{S}(C,R)R_{S}(C,R)}{R_{S}(C,R)+\gamma^{2}P_{S}(C,R)}\]ここで精度に相当する$P_{S}(C,R)$と再現率に相当する$R_{S}(C,R)$は以下のように定義する:\begin{align*}P_{S}(C,R)&=\frac{\displaystyle\sum_{e\in(\mbox{2-mer}_{C}\cap\mbox{2-mer}_{R})}\min(|e|_{C},|e|_{R})}{\displaystyle\sum_{e\in\mbox{2-mer}(C)}|e|_{C}}\\R_{S}(C,R)&=\frac{\displaystyle\sum_{e\in(\mbox{2-mer}_{C}\cap\mbox{2-mer}_{R})}\min(|e|_{C},|e|_{R})}{\displaystyle\sum_{e\in\mbox{2-mer}(R)}|e|_{R}}\end{align*}但し,$\mbox{p-mer}(C)$はC中のp-mer集合,$\mbox{p-mer}(R)$は参照テキストR中のp-mer集合とする.ROUGE-SUは上のROUGE-Sの$p=2$を$p\leq2$に拡張したものである.\paragraph{ESK}\label{para:ESK}ESK\cite{hirao-2006-IPSJ-journal}は畳み込みカーネルの一つである拡張文字列カーネルのうち,ギャップ加重p-mer部分列カーネルを評価指標として定義したものである.\[\begin{split}&\mbox{Score}^{\mbox{p-mer}}_{\mbox{ESK}}(C,R)\\&\quad=\frac{\displaystyle\sum_{u\in{\mbox{p-mer}(C)}}\sum_{v\in{\mbox{p-mer}(R)}}\lambda^{|u|-p}\delta(u,v)|u||v|}{\displaystyle\sqrt{(\sum_{u,u'\in{\mbox{p-mer}(C)}}\lambda^{(|u|-p)}|u||u'|)+(\sum_{v,v'\in{\mbox{p-mer}(R)}}\lambda^{(|v|-p)}|v||v'|)}}\end{split}\]\cite{hirao-2006-IPSJ-journal}では2-merの部分列に制限するほか,文単位に比較し精度重視の指標と再現度重視の\modified{指標}の二つの\modified{重みつき}調和平均\modified{($0\leq\lambda\leq1$)}を定義している.ESKは他に各形態素に付与される意味ラベルを考慮した評価指標を提案しているが,本稿で用いるESKは意味ラベルを考慮しない形態素基本形に基づくものとする.\subsubsection{翻訳の評価指標}\paragraph{BLEU}BLEU\cite{Papineni-2001-BLEU}は機械翻訳評価のための指標で,$n$の値を変えたn-gramの精度系指標の重み($\omega_{n}$)付き相乗平均により指標を定義する.\begin{align*}P^{\mbox{n-gram}}_{\mbox{BLEU}}(C,R)&=\frac{\displaystyle\sum_{e\in(\mbox{n-gram}(C)\cap\mbox{n-gram}(R))}\min(|e|_{C},|e|_{R})}{\displaystyle\sum_{e\in\mbox{n-gram}(C)}|e|}\\\mbox{Score}_{\mbox{BLEU}}(C,R)&=BP(C,R)\cdot\exp(\displaystyle\sum^{N}_{n=1}\omega_{n}\logP^{\mbox{n-gram}}_{\mbox{BLEU}}(C,R))\end{align*}ここで相乗平均の計算を簡単にするために$\sum^{N}_{n=1}\omega_{n}=1$という制約がある.短いシステム出力テキストに対して高い精度が出やすいこの精度系の指標に対し,精度と再現率の重み付き調和平均という方法を取らず,BrevityPenalty(BP)という項を入れて補正している.\[\mbox{BP}(C,R)=\left\{\begin{array}{ll}1&\mbox{if}\|C|>|R|\\\exp(1-\frac{|R|}{|C|})&\mbox{if}\|C|\leq|R|\end{array}\right.\]\paragraph{IMPACT}\label{para:IMPACT}IMPACT\cite{echizen-ya-2007-MTSUMMIT}はLCSに基づく指標ではなく,\modified{LCSubstr}の再帰的な取得による指標である.{\allowdisplaybreaks\begin{align*}R_{IP}(C,R)&=\Biggl(\displaystyle\frac{\displaystyle\sum^{\mbox{RN}}_{r=0}(\alpha^{r}\sum_{e\in\mbox{\modified{LCSubstr}}(C^{(r)},R^{(r)})}|e|^{\beta})}{|R|^{\beta}}\Biggr)^{\displaystyle\frac{1}{\beta}}\\[1ex]P_{IP}(C,R)&=\Biggl(\displaystyle\frac{\displaystyle\sum^{\mbox{RN}}_{r=0}(\alpha^{r}\sum_{e\in\mbox{\modified{LCSubstr}}(C^{(r)},R^{(r)})}|e|^{\beta})}{|C|^{\beta}}\Biggr)^{\displaystyle\frac{1}{\beta}}\end{align*}}ここで$\alpha$はイテレート回数$r$($r\leq\mbox{RN}$)に対する重み($\alpha<1.0$),$\beta$は\modified{\modified{LCSubstr}長に対する重み}($\beta>1.0$),$C^{(1)}=C$,$R^{(1)}=R$,$C^{(r)}=C^{(r-1)}\setminus\{\mbox{\modified{LCSubstr}}(C^{(r-1)},R^{(r-1)})\}$,$R^{(r)}=R^{(r-1)}\setminus\{\mbox{\modified{LCSubstr}}(C^{(r-1)},R^{(r-1)})\}$\pagebreakとする.\[\mbox{Score}_{\mbox{IP}}=\frac{(1+\gamma^{2})R_{\mbox{IP}}P_{\mbox{IP}}}{R_{\mbox{IP}}+\gamma^{2}P_{\mbox{IP}}}\]この指標は\ref{para:allstr}節に示す文字列長加重全部分文字列カーネルに関連がある.文字列長加重全部分文字列カーネルに対して,再帰的に\modified{LCSubstr}を選択する際に既選択の\modified{LCSubstr}を排除し,再帰の回数をRNで制限するという制約を入れたものである.\paragraph{RIBES}\label{para:RIBES}RIBES(平尾,磯崎,須藤,Duh,塚田,永田2014)は,\nocite{hirao-2014-JNLP-journal}システム出力テキストと参照テキストのアラインメントをとったうえで,語順の編集型順序尺度を考慮したものである.\[\begin{split}\mbox{Score}_{\mbox{RIBES}}&=\Biggl(d_{\mbox{Kendall}}(\mbox{1-gram}_{\mbox{align}}(C,R))\Biggr)\cdot\\&\quad\Biggl(P_{\mbox{RIBES}}(C,R)\Biggr)^{\alpha}\cdot\Biggl(\mbox{BP}(C,R)\Biggr)^{\beta}\end{split}\]ここで$d_{\mbox{Kendall}}(\mu,\nu)$は\ref{para:rankedit}\modified{節}で定義する順位ベクトル$\mu,\nu$に対するKendall距離,$\mbox{1-gram}_{\mbox{align}}(\mu,\nu)$は元論文\cite{hirao-2014-JNLP-journal}の\modified{{\ttworder}}で出力されるアラインメントされた二つの順序ベクトルの対を表す.右辺2項目は1-gram(単語ベースのもの)精度とよび$P_{\mbox{RIBES}}(C,R)=\frac{|\mbox{1-gram}_{\mbox{align}}(C,R)|}{|C|}$とする.$|\mbox{1-gram}_{\mbox{align}}(\mu,\nu)|$は\modified{{\ttworder}}で出力されるアラインメントされた順序ベクトルの長さ(二つ出力されるが等しい)である.$\alpha$は1-gram精度に対する重み,$\beta$はBLEUで用いられたBPに対する重みである.なお,$P_{\mbox{RIBES}}(C,R)$は,それぞれの記号列に重複する記号がない場合,以下が成り立つ:\begin{align*}P_{\mbox{RIBES}}(C,R)&=\mbox{Score}^{(P)}_{\mbox{ROUGE-1}}(C,R)\\[1ex]=&\frac{\displaystyle\sum_{e\in(\mbox{1-gram}(C)\cap\mbox{1-gram}(R))}\min(|e|_{C},|e|_{R})}{\displaystyle\sum_{e\in\mbox{1-gram}(R)}|e|}\end{align*}\paragraph{LRscore}\label{para:LRscore}LRscore\cite{Birch-2010}も同様に,アラインメントをとったうえで,語順の順序尺度を考慮したものである.順序尺度としてベクトル型であるHamming距離と編集型であるKendall距離を用いている.\begin{align*}\mbox{Score}^{\mbox{Hamming}}_{\mbox{LRscore}}(C,R)&=\alpha\cdotBP(C,R)\cdotd_{\mbox{Hamming}}(C,R)+(1-\alpha)\mbox{Score}_{\mbox{BLEU}(C,R)}\\[1.5ex]\mbox{Score}^{\mbox{Kendall}}_{\mbox{LRscore}}(C,R)&=\alpha\cdotBP(C,R)\cdotd_{\mbox{Kendall}}(C,R)+(1-\alpha)\mbox{Score}_{\mbox{BLEU}(C,R)}\end{align*}$\alpha$は語順をどの程度考慮するかの重みつけ係数.\subsection{関連するカーネル・順序尺度}上に述べた指標は,基本的には以下のカーネルおよび順序尺度の組み合わせで構成することができる.以下では,各種指標に関連するカーネルおよび順序尺度について確認する.\subsubsection{カーネル・距離(文字列の共有)}畳み込みカーネルのうち系列データに対するカーネルは,共通する部分文字列・部分列を数え上げる.いずれも効率よく計数する方法が提案されている(Shawe-TaylorandCristianini,大北訳2010)\nocite{Taylor-2010}.また,適切に正規化することにより部分文字列・部分列の共有についての距離や指標を規定することができる.様々なカーネルの説明に入る前に,[0,1]区間正規化について示す.カーネルの[0,1]区間正規化はカーネルの研究分野でよく用いられており以下の式により行われる:\[\mbox{Score}_{K_{-}}(s,t)=\frac{K_{-}(s,t)}{||K_{-}(s,s)||\cdot||K_{-}(t,t)||}\]各種指標のように,再現率--精度間の重み$\gamma$を入れたい場合には以下のようにする:\[\mbox{Score}^{(\gamma)}_{K_{-}}(s,t)=\frac{(1+\gamma^{2})K_{-}(s,t)}{\sqrt{(K_{-}(s,s))^{2}+\gamma^{2}(K_{-}(t,t))^{2}}}\]\paragraph{全部分文字列カーネルと文字列長加重全部分文字列カーネル}\label{para:allstr}全部分文字列カーネル(AllStringKernelorExactMatchingKernel)は共通する全ての部分文字列の数を数える.任意の長さの部分文字列$u$の出現数を座標軸とする特徴量空間$F_{\mbox{all\_str}}$を考える.\begin{align*}\Phi^{*}_{\mbox{str}}:\sigma^{*}&\rightarrowF_{\mbox{all\_str}}\simR^{|\sigma|^{*}}\\\Phi^{*}_{\mbox{str}}(s)&=(\phi^{*}_{u}(s))_{u\in\sigma^{*}}\\\phi^{*}_{u}(s)&=|\{i|s_{i\ldots*}=u\}|\\K_{\mbox{all\_str}}(s,t)&=\langle\Phi^{*}_{\mbox{str}}(s),\Phi^{*}_{\mbox{str}}(t)\rangle_{F_{\mbox{all\_str}}}\\&=\sum_{u\in\sigma^{*}}\phi^{*}_{u}(s)\phi^{*}_{u}(t)\end{align*}カーネル関数を直接計算すると以下のようになる:\[K_{\mbox{all\_str}}(s,t)=\sum^{\min(|s|,|t|)}_{n=1}\sum^{|s|-n+1}_{i=1}\sum^{|t|-n+1}_{j=1}\delta(s_{i\ldotsi+n-1},t_{j\ldotsj+n-1})\]ここで$\delta$はクロネッカーのデルタとする.言語処理の場合,得られるn-gramに対して加重をかけることが一般に行われている.文字列長に対して加重をかけたものを文字列長加重全部分文字列カーネル(LengthWeightedAllStringKernelorLengthWeightedExactMatchingKernel)と呼ぶ.\[\begin{split}&K_{\mbox{w\_all\_str}}(s,t)\\&\quad=\sum^{\min(|s|,|t|)}_{n=1}\sum^{|s|-n+1}_{i=1}\sum^{|t|-n+1}_{j=1}\omega_{|s|}\delta(s_{i\ldotsi+n-1},t_{j\ldotsj+n-1})\end{split}\]ここで$\omega_{n}$は長さ$n$に対する重みを表す.\ref{para:IMPACT}節で述べたIMPACTはこのカーネルの特殊形とみなすことができる.このカーネルと次のn-スペクトラムカーネルはSuffixTreeを用いて効率よく計算する方法が提案されている.\paragraph{n-スペクトラムカーネル}\label{para:n-spec-k}n-スペクトラムカーネル(SpectrumKernel)は共通する長さ$n$の部分文字列(n-gram)の数を数える.長さ$n$の部分文字列$u$の出現数を座標軸とする特徴量空間$F_{\mbox{n-gram}}$を考える.\begin{align*}\Phi^{n}_{\mbox{str}}:\sigma^{n}&\rightarrowF_{\mbox{n-gram}}\simR^{|\sigma|^{n}}\\\Phi^{n}_{\mbox{str}}(s)&=(\phi^{n}_{u}(s))_{u\in\sigma^{n}}\\\phi^{n}_{u}(s)&=|\{i|s_{i\ldotsi+n-1}=u\}|\\K_{\mbox{n-gram}}(s,t)&=\langle\Phi^{n}_{\mbox{str}}(s),\Phi^{n}_{\mbox{str}}(t)\rangle_{F_{\mbox{n-gram}}}\\&=\sum_{u\in\sigma^{n}}\phi^{n}_{u}(s)\phi^{n}_{t}(t)\end{align*}直接計算すると以下のようになる:\[K_{\mbox{n-gram}}(s,t)=\sum^{|s|-n+1}_{i=1}\sum^{|t|-n+1}_{j=1}\delta(s_{i\ldotsi+n-1},t_{j\ldotsj+n-1})\]ROUGE-Nは,分子に$K_{\mbox{n-gram}}(C,R)$より小さい値を持ち,分母に参照テキストののべ出力n-gram数を持つことから,再現率として正規化したものに相当する.通常の正規化した$K_{\mbox{n-gram}}(s,t)$は再現率と精度の調和平均と解釈できる.また1-gramスペクトラムカーネルは1-mer部分列カーネルと同値で,これらは近似的にBLEUなどで利用されているBP相当の値を計算すると考える.\paragraph{全部分列カーネル}\label{para:allseq-k}全部分列カーネルは共通するすべての部分列の数を数える.任意の長さの部分列$v$の出現数を座標軸とする特徴量空間$F_{\mbox{all\_seq}}$を考える.{\allowdisplaybreaks\begin{align*}\Psi^{*}_{\mbox{seq}}:\sigma^{*}\rightarrow&F_{\mbox{all\_seq}}\simR^{|\sigma|^{\infty}}\\\Psi^{*}_{\mbox{seq}}(s)=&(\psi^{*}_{v}(s))_{v\in\sigma^{*}}\\\psi^{*}_{v}(s)=&|\{\vec{i}|s[\vec{i}]=v\}|\\K_{\mbox{all\_seq}}(s,t)=&\langle\Psi^{*}_{\mbox{seq}}(s),\Psi^{*}_{\mbox{seq}}(t)\rangle_{F_{\mbox{all\_seq}}}\\=&\sum_{v\in\sigma^{*}}\psi^{*}_{v}(s)\cdot\psi^{*}_{v}(t)\end{align*}}$K_{\mbox{all\_seq}}(s,t)$は以下のように再帰的に計算することにより$O(|s||t|)$で計算することができる.$\epsilon$を空記号列とすると$K_{\mbox{all\_seq}}(s,\epsilon)=K_{\mbox{all\_seq}}(t,\epsilon)=1$とし,$K_{\mbox{all\_seq}}(s,t)$が求まると$K_{\mbox{all\_seq}}(s\cdota,t)=K_{\mbox{all\_seq}}(s,t)+\sum_{1\leqi\leq|t|,j:t_{j}=a}K_{\mbox{all\_seq}}(s,t_{i\ldotsj-1})$と$s$再帰的に定義できる.さらに$\tilde{K}_{\mbox{all\_seq}}(s\cdota,t)=K_{\mbox{all\_seq}}(s,t_{i\ldotsj-1})$とすると,$\tilde{K}_{\mbox{all\_seq}}(s\cdota,t\cdotb)=\tilde{K}_{\mbox{all\_seq}}(s\cdota,t)+\delta(a,b)K_{\mbox{all\_seq}}(s,t)$と$t$再帰的に定義できる.\paragraph{固定長部分列カーネル}\label{para:p-mer-k}固定長部分列カーネルは共通する長さ$p$の部分列(p-mer)の数を数えあげる.長さ$p$の部分文字列$v$の出現数を座標軸とする特徴量空間$F_{\mbox{p-mer}}$を考える.\begin{align*}\Psi^{p}_{\mbox{seq}}:\sigma^{p}&\rightarrowF_{\mbox{p-mer}}\simR^{|\sigma|^{p}}\\\Psi^{p}_{\mbox{seq}}(s)&=(\psi^{p}_{v}(s))_{v\in\sigma^{p}}\\\psi^{p}_{v}(s)&=|\{\vec{i}|s[\vec{i}]=v\}|\\K_{\mbox{p-mer}}(s,t)&=\langle\Psi^{p}_{\mbox{seq}}(s),\Psi^{p}_{\mbox{seq}}(t)\rangle_{F_{\mbox{p-mer}}}\\&=\sum_{v\in\sigma^{p}}\psi^{p}_{v}(s)\cdot\psi^{p}_{v}(t)\end{align*}ROUGE-Sは,分子に$K_{\mbox{2-mer}}(C,R)$より小さい値を持ち,分母に参照テキストののべ出力2-mer数を持つことから,再現率として正規化したものに相当する.ROUGE-SUは,分子に$K_{\mbox{1-mer,2-mer}}(C,R)$より小さい値を持ち,分母に参照テキストののべ出力1-mer,2-mer数を持つことから,再現率として正規化する.通常の正規化した$K_{\mbox{p-mer}}(s,t)$は再現率と精度の調和平均と解釈できる.\paragraph{ギャップ加重部分列カーネル}\label{para:gap-p-mer-k}ギャップ加重部分列カーネル\modified{は}p-merの部分列の数え上げの際に隣接性を考慮して重み$\lambda$を加重する.ESK\cite{hirao-2006-IPSJ-journal}は,このカーネルを用いた尺度である.長さ$p$の部分列$v$を座標とする特徴量空間$F_{\mbox{p-mer}}$を考える.\begin{align*}K_{\mbox{gap\_p-mer}}(s,t)&=\langle\Psi^{gap\_p}_{\mbox{seq}}(s),\Psi^{gap\_p}_{\mbox{seq}}(t)\rangle_{F_{\mbox{p-mer}}}\\&=\sum_{v\in\sigma^{p}}\psi^{gap\_p}_{v}(s)\cdot\psi^{gap\_p}_{v}(t)\end{align*}ここで$\psi^{gap\_p}_{v}(s)=\sum_{\vec{i}:v=s[\vec{i}]}\lambda^{l(\vec{i})}$とし,$l(\vec{i})=|s_{i_{1}\ldotsi_{|v|}}|(\vec{i}=\langlei_{1},\ldots,i_{|v|}\rangle)$とする.\subsubsection{順序尺度}以下では順序尺度について考えるが,文献\cite{kamishima-2009-JSAI-sig-dmsm}に詳しい解説がある.基本的には同じ長さ$m$の二つの順位ベクトル$\mu,\nu\inS_{m}$に対する2種類の距離を考える.\paragraph{順位ベクトル型距離}\label{para:rankvec}一つ目の距離は「順位ベクトル型」の距離で順位ベクトルを$m$次元空間中の点を表すベクトルとみなし,ベクトル空間上の距離を定義する.\modified{ベクトル空間上の$\theta$-ノルムを用いる}と以下のようになる:\[d_{||\mbox{Rank}||_{\theta}}(\mu,\nu)=(\sum^{m}_{i=1}|\mu(i)-\nu(i)|^{\theta})^{1/\theta}\]ここで$\theta=1$の場合,特にSpearmanfootruleと呼ぶ.\[d_{\mbox{Footrule}}(\mu,\nu)=(\sum^{m}_{i=1}|\mu(i)-\nu(i)|)\]$\theta=2$の場合は通常のEuclid距離だが,このEuclid距離を2乗したものを特にSpearman距離と呼ぶ.\[d_{\mbox{Spearman}}(\mu,\nu)=(\sum^{m}_{i=1}|\mu(i)-\nu(i)|^{2})\]Spearman距離は,距離の公理のうち対称性と正定値性を満たす.しかし,Euclid距離を2乗したものなので三角不等式を満たさないが,慣習的\modified{に}距離として扱われる.さらに$[-1,1]$区間に正規化したものはSpearmanの順位相関係数$\rho$として知られている.\[\mbox{Spearman's}\;\rho=1-\frac{6\cdotd_{\mbox{Spearman}}(\mu,\nu)}{m^3-m}\]この値は順序尺度に基づく二つの順位ベクトル$\mu,\nu$のPearson相関係数と等しい\footnote{ここで順序尺度とは,間隔に意味がある間隔尺度を順位のみに変換していることを前提にしている.}.その他,順位ベクトルの同一順位のものが同じ要素である要素数を数えたHamming距離がある.\[d_{\mbox{Hamming}}(\mu,\nu)=\sum^{m}_{i=1}\delta(\mu(i),\nu(i))\]Hamming距離は文字列上で代入(コスト1)のみを許した編集距離としても解釈できる.また,距離$\mbox{d}_{||\mbox{rank}||_\theta}$,$d_{\mbox{Footrule}}$,$d_{\mbox{Spearman}}$,$d_{\mbox{Hamming}}$に対応するスコア$\mbox{Score}_{||\mbox{rank}||_\theta}$,$\mbox{Score}_{\mbox{Footrule}}$,$\mbox{Score}_{\mbox{Spearman}}$,$\mbox{Score}_{\mbox{Hamming}}$を次のように規定することができる.\[\mbox{Score}_{-}=\frac{1}{1+d_{-}}\]\paragraph{対称群上の編集型距離}\label{para:rankedit}二つ目の距離は「編集型」の距離である.順序ベクトルを記号列とみなした場合,順位ベクトル$\mu$をもうひとつの順位ベクトル$\nu$に変換するために必要な最小操作数を意味するLevenshtein距離について述べた.以下では,順序ベクトルを対称群とみなした場合の編集型距離について述べる.編集に許される操作によっていくつかの距離のバリエーションがある.\begin{itemize}\itemKendall距離:\\Kendall距離$d_{\mbox{Kendall}}(\mu,\nu)$は順序ベクトルを対称群とみなした際に隣接互換で置換する最小回数によって定義される.言い換えると隣接する対象対を交換(Swap)する操作の最小回数を用いたものである.Kendall距離は,二つの順位ベクトル中の$\frac{m(m-1)}{2}$個の対象対のうち逆順になっている対の数に等しい.\begin{gather*}d_{\mbox{Kendall}}(\mu,\nu)=\min(\argmax_{\bar{q}}\delta((\Pi^{\bar{q}}_{q=1}\pi_{2}(k_{q},k_{q}+1))\cdot\mu,\nu))\\d_{\mbox{Kendall}}(\mu,\nu)=\sum^{m}_{i=1}\sum^{m}_{j=i+1}\chi(i,j)\end{gather*}ここで,$k_{q}$は順位ベクトル$\mu$のインデックス.また,$\chi$は対象対$\langlei,j\rangle$が同順のとき0,逆順のとき1を返す指示関数:\[\chi=\left\{\begin{array}{ll}1&\mbox{if}\(\mu(i)-\mu(j))(\nu(i)-\nu(j))<0,\\0&\mbox{if}\(\mu(i)-\mu(j))(\nu(i)-\nu(j))\geq0\end{array}\right.\]$\pi_{2}=(i,i+1)$は隣接する二つの元のみを入れ替えて他の元は変えない操作である隣接互換を意味する.これを指標として使いやすくするために[0,1]区間の範囲に正規化すると以下のようになる:\[\mbox{Score}_{\mbox{Kendall}}(\mu,\nu)=1-\frac{2\cdotd_{\mbox{Kendall}}(\mu,\nu)}{m^2-m}\]これを$[-1,1]$区間の範囲に正規化したものはKendallの順位相関係数$\tau$として知られている.\[\mbox{Kendall's}\;\tau=1-\frac{4\cdotd_{\mbox{Kendall}}(\mu,\nu)}{m^2-m}\]\itemCayley距離:\\Cayley距離$d_{\mbox{Caylay}}$は順序ベクトルを対称群とみなした際に互換で置換する最小回数によって定義される.言い換えると隣接していなくても良い対象対を交換(Swap)する最小回数を用いたものである.\newpage\[d_{\mbox{Caylay}}(\mu,\nu)=\min(\argmax_{\bar{q}}\delta((\Pi^{\bar{q}}_{q=1}\pi_{2}(k_{q},l_{q}))\cdot\mu,\nu))\]ここで,$k_{q},l_{q}$は順位ベクトル$\mu$のインデックス.$\pi_{2}=(i,j)$は二つの元のみを入れ替えて他の元は変えない操作である互換を意味する.\itemUlam距離:\\Ulam距離$d_{\mbox{Ulam}}$は順序ベクトルを対称群とみなした際に連続した順序ベクトル部分列$\langlei,i+1,\ldots,j-1,j\rangle$の巡回置換の操作のみで置換する最小回数によって定義される.これは「本棚の本の入れ換え」で例えられる.順位ベクトル$\mu$で並んでいる本棚の本を順位ベクトル$\nu$に並べ替えるために,ある要素を抜いて別の場所に挿入するということを行う.Ulam距離は同じ要素が記号列に存在しないという前提のもと,最長一致部分列長と以下の関係にあることが知られている.\[d_{\mbox{Ulam}}(\mu,\nu)=m-|\mbox{LCS}(\mu,\nu)|\]これを[0,1]区間の範囲に正規化すると以下のように正規化最大共通部分列と同じになる:\begin{align*}\mbox{Score}_{\mbox{Ulam}}(\mu,\nu)&=1-\frac{d_{\mbox{Ulam}}(\mu,\nu)}{m}\\&=\frac{|\mbox{LCS}(\mu,\nu)|}{m}\\&=\mbox{Score}_{\mbox{LCS}}(\mu,\nu)\end{align*}\end{itemize}\modified{図\ref{fig:editdist}に順序ベクトルによる置換により表現した編集型距離の例を示す.編集型距離の定義で許される編集の回数を数えると,順序ベクトル$(1,4,3,2)$と$(1,2,3,4)$のKendall距離は3,Caylay距離は1,Ulam距離は2となる.また,順序ベクトル$(2,3,1,4)$と$(1,2,3,4)$のKendall距離は2,Caylay距離は2,Ulam距離は1となる.}\begin{figure}[t]\begin{center}\includegraphics{23-5ia4f1.eps}\end{center}\caption{対称群上の編集型距離}\label{fig:editdist}\end{figure}以下は,我々の意見だが,言語生産時の編集作業の工数を評価する場合には,\cite{Nivre-2009-ACL}のswapに代表されるようなKendall距離のような編集よりもUlam距離のような編集を考慮すべきであると考える.言語生産時に,Kendall距離で考慮される列内絶対位置よりも,Ulam距離で考慮される列内相対位置を考えながら編集を行う方が人にとって自然な処理であると考える.\paragraph{順序尺度間の関係}\label{para:rankrel}ベクトル型の$\mbox{Spearman's}\;\rho$と$\mbox{Kendall's}\;\tau$との間には以下のDanielsの不等式が成立する:\[-1\leq\frac{3(m+2)}{m-2}\tau-\frac{2(m+1)}{m-2}\rho\leq1\]$m\rightarrow\infty$の極限をとると$-1\leq3\tau-2\rho\leq1$が成り立つ.このことから二つの相関係数の間の相関が高いことが示される.距離の観点からは,$d_{\mbox{Caylay}}\leqd_{\mbox{Kendall}}$が成り立つ.さらにFootrule距離とKendall距離とCayley距離の間に以下の不等式が成り立つ(Diaconis-Grahaminequality):\[d_{\mbox{Kendall}}+d_{\mbox{Caylay}}\leqd_{\mbox{Footrule}}\leq2\cdotd_{\mbox{Kendall}}\]またSpearman距離とKendallの距離の間には以下の不等式が成り立つ(Durbin-Stuartinequality):\[\frac{4}{3}d_{\mbox{Kendall}}(1+\frac{d_{\mbox{Kendall}}}{m})\leqd_{\mbox{Spearman}}\]つまり,評価指標のデザインにおける順序尺度の選択による差異は,これらの不等式の範囲によって制限される.\subsection{指標の一般化}\label{ss:sim-general}以上,評価指標・距離・カーネル・相関係数を議論してきた.まとめると付記B表\ref{table:scores}のようになる.各指標と人手の評価結果をできるかぎり合わせるという観点からすると,\cite{hirao-2007-JSAI-journal}のように,表\ref{table:scores}にあげたすべての尺度$\mbox{Score}_{-}\in\{\mbox{Score}_{*}\}$の加重相乗平均(下式)を考え,加重$\omega_{-}$と各指標に付随するパラメータを,各指標の従属性や相関に注意しながら人手の評価結果との回帰により求めれば良い.\begin{gather*}\overline{\mbox{Score}_{*}}=\sqrt[\displaystyle\sum\omega_{-}]{\displaystyle\Pi\mbox{Score}^{\omega_{-}}_{-}}\\\log\overline{\mbox{Score}_{*}}=\frac{1}{\displaystyle\sum\omega_{-}}(\sumw_{-}\cdot\log\mbox{Score}_{-})\end{gather*}この指標のあり方については注意すべき点がいくつかある.\begin{itemize}\itemsubstring(部分文字列:n-gram系)とsubsequence(部分列:p-mer系)との違いを踏まえる.\item最長一致部分長は対称群上の編集型距離であるUlam距離と深く関連する.\item順序に対する順位ベクトル型距離と編集型距離の間には\ref{para:rankrel}節に示される関係が成り立つ.\end{itemize}本稿では,先に述べた四つの尺度がそれぞれどのような特性があるかを明らかにすることを目的としており,最適な指標の組み合わせについては検討を行わない.次節以降,各尺度がさまざまな言語資源上でどのようなふるまいをするのかについてみていきたい.
\section{評価に用いる言語資源}
ここでは様々な言語生成過程を記録した言語資源におけるテキスト対の尺度の差異を検証することにより,各尺度がとらえようとしているものが何なのかを分析する.表\ref{tbl:resources}に,利用する言語資源について示す.まず言語生産過程として,要約(BCCWJ-SUMM)と語釈(GLOSS)と再話(RETELLING)の3種類の言語資源を用いる.要約は長い元文書を短くする情報提示手法である.語釈は短い単語を長い文書で説明する情報提示手法である.再話は長い元文書をできるだけその内容を保存したまま示す情報提示手法である.情報提示手法を比較することで,各尺度が何を評価しているのかを明らかにすることを試みる.\begin{table}[t]\caption{指標評価に使う言語資源}\label{tbl:resources}\input{04table01.txt}\end{table}要約と語釈については,クラウドソーシングにより安価で大量にデータを得る手法(タイプ入力)と実験室にて被験者に繰り返し同一課題を依頼してデータを得る手法(筆述)の2種類の方法を用いた.再話のデータについては既存のデータを用い,筆述による形態と口述による形態のデータを準備した.言語生産形態として,タイプ入力・筆術・口述の3種類のデータを対照比較する.これは評価尺度が,要約の内容の類似度だけでなく,個人の文体の類似度を評価してしまう部分を分析するために準備した.それぞれ文体の統制が可能なレベルが異なっており,評価尺度に影響を与えるものだと考え,これを評価することを試みる.さらに,大勢の実験協力者に同じタスクを行わせる場合の協力者間の尺度のふるまいと,同一の実験協力者に同じタスクを複数回行わせる場合の尺度のふるまいを検証し,どの尺度にゆれが生じるかを明らかにする.以下各言語資源について解説する.\subsection{BCCWJ-SUMM\_C}BCCWJ-SUMM\_Cは『現代日本語書き言葉均衡コーパス』\cite{Maekawa-2014-LRE}(BCCWJ)の新聞記事(PNサンプル)の要約をYahoo!クラウドソーシング(15歳以上の男女)により被験者実験的に作成したもの\cite{asahara-2015-jclws7}である.BCCWJの1サンプルには複数の記事が含まれており,それを記事単位に分割したうえで元文書集合19文書を構築した.元文書集合はBCCWJコアデータPNサンプル(優先順位A)から選択した.40文字毎に改行した元文書を画像として提供し,実験協力者に50--100文字に要約せよという指示で収集した.自動\modified{要約}の本来のあり方としては,文字数の削減ではなく,読み手の読み時間の削減が本質であると考えるが,実験の都合上,文字数による制限を課した.実験協力者の環境はPCに限定した.元文書毎に約100--200人の実験協力者が要約に従事した.実験実施時期は2014年9月である.得られたデータには,文字数制限を守っていないもの・実験の趣旨を理解していないもの・既に実験を行った実験協力者から同一回答を提供されたと考えられるものなどが含まれており,これらを排除したものを有効要約とする.統計分析においてこの有効要約のみを用いる.\subsection{BCCWJ-SUMM\_L}BCCWJ-SUMM\_LはBCCWJの新聞記事の要約を実験室環境で筆述により作成したもの\cite{asahara-2015-jclws7}である.BCCWJ-SUMM\_Cで用いた元文書を印刷紙面で提供し,実験協力者に50--100文字に要約せよという指示で収集した.一つの元文書に対して,3回まで繰り返して要約文作成を行った.実験協力者は1回の要約文作成に10分間の時間制限を設定した.各回の間には休憩時間をおかず,早く要約課題が完成した場合には,ただちに次の回の要約作成を行った.尚,各実験協力者は要約対象文書を含む文書群の読文時間を評価する実験を,本実験の前に行っており,要約文作成前に元新聞記事を1回読んでいる.今後,読文時間と要約抽出箇所との評価を進める予定である.繰り返しに際しては,特別に「前と同じ要約文を作成してください」などといった指示は行わず,質問された場合にも「自由に要約文を作成してください」と教示した.実験協力者は原稿用紙上で筆述(鉛筆と消しゴム利用)で要約を行い,そのデータを電子化した.本実験の実験参加者は要約作業前に要約元文書の読み時間のデータも取得した.さらに被験者の特性(最終学歴・語彙数・言語形成地・記憶力)などのデータについても取得した.実験実施時期は2014年8月--10月であるが,今後このデータは引き続き拡充していく予定である.統計分析においては,同一課題について,異なる被験者間のスコア(1回目のみを評価:BCCWJ-SUMM\_L(P))と,同一被験者の回数間のスコア(BCCWJ-SUMM\_L(T))の両方を評価する.\subsection{GLOSS\_C}GLOSS\_Cは語釈文をYahoo!クラウドソーシング(15歳以上の男女)により被験者実験的に作成したものである.実験実施時期は2014年2月である.「その動物を全く知らない人がどのようなものかわかるように説明してください」と教示し,同意した実験協力者は兎(単語親密度6.6)・鶏(同6.4)・象(同6.0)の3種類から対象物を選択回答した.単語親密度は\cite{amano-1999-ntt-database}による.150文字以上250文字以内で3文字以上の同文字連続は認めない設定とした.実験協力者300名を募集したところ得られた解答数は,鶏:71・兎:111・象:113(295/300)であった.\modified{尚,このデータの質的分析は\cite{kato-cjws-2015}を参照されたい.}\subsection{GLOSS\_L}GLOSS\_Lは語釈文を実験室環境で筆述により収集したものである.実験実施時期は2013年5月--6月である.実験協力者8名(20代--50代の男女)に,GLOSS\_Cと同様に「その動物を全く知らない人がどのようなものかわかるように説明してください」と教示した.実験協力者は,10分間で兎(単語親密度6.6)・鶏(同6.4)・象(同6.0)の3種類から2種類の対象物を選択回答した.目安として5分経過時にブザー音を鳴らした.選択した対象物について同様に記述を繰り返すことを4回行った.得られた解答数は,兎7人分×4回,鶏6人分×4回,象3人分×4回である.平均145文字(max227文字,min85文字)を得た.統計分析においては,同一課題について,異なる被験者間のスコア(1回目のみを評価:GLOSS\_L(P))と,同一被験者の回数間のスコア(GLOSS\_L(T))の両方を評価する.\modified{尚,このデータを用いた認知的な分析は\cite{kato-ninjal-2015,kato-jcss-2015}を参照されたい.}\subsection{RETELLING\_I}最初の再話のデータは「独話Retellingコーパス」\cite{yasuda-2013-JASS31,yasuda-2013-JASS32}である.このコーパスは\cite{miyabe-2014-GNWS}でも用いられている.実験協力者は5名で,同一人が同内容をそれぞれ10回独話を繰り返した.就職活動を前提とした模擬面接の設定で,実験協力者は自ら予め用意した「学生生活で力を入れてきたこと(3分間程度)」についての独話を行った.同内容を繰り返すことや何回依頼するかは知らせていない.5人分×10回(50話分)の独話を取得した.面接官(聴衆)は有無を交互とした.奇数回(1・3・5・7・9回)は聴衆なしの独話,偶数回(2・4・6・8・10回)は聴衆に対する独話である.聴衆には,聴いていることを表すために頷くことのみを許可しており,話者への質問や意見など,発話は一切行わなかった.収録は録音と録画を行い,音声データを書き起こした.被験者によってインタビュー内容が異なるために,統計分析においては同一被験者の回数間のスコア(RETELLING\_I(T))のみを評価する.\subsection{RETELLING\_K}次の再話のデータは怪談を繰り返し口述したものであり,先行研究\cite{yasuda-2012-JCSS}によるものである.実験協力者は3名\footnote{実験協力者120代・女性・東京都,実験協力者230代・女性・茨城県,実験協力者320代・女性・神奈川県}で,実験は1名ずつ個別に行った.実験協力者は怪談を聞いたのち,その怪談について3回の再話を行った.怪談は3種類を用意したため,各人9回の語りを行った.語りに関しては,「怪談として他の人に伝えるよう話す」との指示をした.既存の物語では,個人の記憶による先入観の影響が予測されたため,4分間程度の新規な怪談を3本作成した.実験環境は図2のように,ビデオカメラと録音機により,録音と録画を行った.聴衆の影響を除去するために,聴衆は設置しなかった.実験協力者は以下の配置で録音機に向かって話した.\begin{figure}[t]\begin{center}\includegraphics{23-5ia4f2.eps}\end{center}\caption{RETELLING\_Kデータの収録環境}\end{figure}本稿では音声データを書き起こしたものを用いる.統計分析においては,同一課題について,異なる被験者間のスコア(1回目のみを評価:RETELLING\_K(P))と,同一被験者の回数間のスコア(RETELLING\_K(T))の両方を評価する.\subsection{RETELLING\_M}最後の再話のデータは桃太郎の物語を筆述で繰り返し記述したものであり,先行研究\cite{yasuda-2014-JASS33}によるものである.実験協力者10名(20代--50代の男女)に,「桃太郎の物語を全く知らない人に向けて記述してください」と教示し,実験協力者は10分間で記述(筆述)した.同様に記述を繰り返すことを4回行った.平均のべ284語(min:150語・max:451語),異なり語107語(min:74語・max:152語)の「桃太郎」10人分×4回(40話分)を取得した.統計分析においては,同一課題について,異なる被験者間のスコア(1回目のみを評価:RETELLING\_M(P))と,同一被験者の回数間のスコア(RETELLING\_M(T))の両方を評価する.
\section{尺度の定性的な分析}
\subsection{尺度の分析方法}本節では前節で述べたコーパスを用いて各尺度がどのように振る舞うかを観察する.利用する尺度は以下の30種類である.\begin{itemize}\itemn-gramスペクトラム(1,2,3,4)(char/mrph)\itemn-gram以下スペクトラム($\leq$2,$\leq$3,$\leq$4)(char/mrph)\itemp-mer部分列(2,3,4)(char/mrph)\itemp-mer以下部分列($\leq$2,$\leq$3,$\leq$4)(char/mrph)\item1-gramスペクトラム+Footrule(char/mrph)(=Spearman)\item1-gramスペクトラム+Kendall(char/mrph)\end{itemize}付記C表\ref{tbl:score-sum-gross},\ref{tbl:score-retelling}に各コーパス中の2サンプル間の尺度の平均値(Mean)と標準偏差(SD)\footnote{サンプル対に規定する同値類内全組み合わせに対する算術平均.実験室において複数回実施したコーパスについては,回数を固定した場合(T)と,被験者を固定した場合(P)と部分集合群を規定し,各部分集合中で全組み合わせに対する算術平均を得た.標準偏差も同様.}を示す.スコアについて(char)``\_c''は文字単位の記号列として評価したもの,(mrph)``\_m''は形態素単位の記号列(MeCab-0.98+IPADIC-2.7.0による)として評価したものである.括弧内の数字は部分文字列長(n-gramにおけるn)もしくは部分列長(p-merにおけるp)を示す.シャピロ・ウィルク検定の結果,ほとんどの場合p値が0.05未満であり,正規分布とはいえない傾向が見られた.\subsection{尺度のグラフ}図\ref{fig:score-task-graph}に形態素単位に評価した,n-gram(1),n-gram(2),p-mer(2),Kendallの尺度のタスク毎の平均値グラフを示す.エラーバーは標準誤差を表す.\begin{figure}[b]\begin{center}\includegraphics{23-5ia4f3.eps}\end{center}\caption{課題と評価尺度(n-gram(1),n-gram(2),p-mer(2),Kendall:形態素単位平均値と標準誤差)}\label{fig:score-task-graph}\end{figure}unigram(n-gram(1))を用いた場合,要約と語釈は中程度,再話はかなり高い値である.GLOSS\_{\linebreak}L(T)がほぼ再話と同程度の値である一方,BCCWJ-SUMM\_L(T)が低いことから,要約を繰り返す際の言語生産の特殊性が見られる.要約を繰り返す際には,回数毎に文章中の重要箇所を変更するサンプル・被験者が存在し,標準偏差も高くなっている.bigram(n-gram(2)),skip-bigram(p-mer(2))を用いた場合,異なる被験者間と繰り返し間との間に差が見られるようになる.これは何らかの個人の文体差が形態素の連接に影響を与えているのではないかと考える.bigram(n-gram(2))とskip-bigram(p-mer(2))の間の差として,語釈の場合のみbigramの値が下がった.語釈という課題の性質上,物語や要約と異なり,情報の提示順が変わることも考えられる.しかし,順序尺度であるKendallの値ではbigramの値ほど顕著な差が見られなかった.単語の隣接性が語釈のみ下がるという値のふるまいについては今後検討していきたい.クラウドソーシングと研究室内被験者実験との差(BCCWJ-SUMM\_C$\Leftrightarrow$BCCWJ-SUMM\_L(P),GLOSS\_C$\Leftrightarrow$GLOSS\_L(P))については,各尺度・各課題(要約・語釈)で差が見られなかった.\subsection{課題間の評価}\label{sub:test}以下,課題間を比較するために,6種類の評価軸を分析する.ほとんどの場合,正規分布であることも等分散であること(F検定による)も仮定できない.ここではウィルコクソンの順位和検定(0.05未満で2群の代表値が左右にずれている)を行う\footnote{コルモゴロフ=スミルノフ検定(0.05未満で2群は異なる分布から取り出されたことを示す)も行ったが,ほぼ同等の結果が得られたため省略する.}.\modified{多重比較に対応するためにBonferroni法を用いた.}付記C表\ref{tbl:test}に結果のまとめを示す.\begin{itemize}\item実験室における複数人の課題間の違いの評価\\BCCWJ-SUMM\_L(P)$\Leftrightarrow$GLOSS\_L(P)$\Leftrightarrow$RETELLING\_K(P)$\Leftrightarrow$RETELLING\_M(P)\begin{itemize}\itemBCCWJ-SUMM\_L(P)$\Leftrightarrow$GLOSS\_L(P)\\\modified{文字単位の評価の場合n-gram(2,3,4)\_charに有意差が見られた.\\形態素単位の評価の場合n-gram(2,3,4)\_mrphに有意差が見られた.}\itemBCCWJ-SUMM\_L(P)$\Leftrightarrow$RETELLING\_K(P)\\\modified{n-gram(4)\_char,n-gram(3,4)\_mrph以外で有意差が見られた.}\itemBCCWJ-SUMM\_L(P)$\Leftrightarrow$RETELLING\_K(M)\\\modified{n-gram(4)\_mrph以外で有意差が見られた.}\itemGLOSS\_L(P)$\Leftrightarrow$RETELLING\_\{K,M\}(P)\\全ての尺度について,有意差が見られた.\itemRETELLING\_K(P)$\Leftrightarrow$RETELLING\_M(P)\\\modified{全ての尺度について,有意差が見られなかった.}\end{itemize}要約$\Leftrightarrow$語釈間はn-gram(1)で有意差が見られなかった.同じ文字・同じ形態素を使うという観点では一致度のレベルが等しいが,\modified{語の連接が入ると有意差が見られることがわかった.}グラフからは語釈の方が語の連接や順序尺度の一致度が低い.これは語釈の目的としては情報の提示順に重要性のないことが伺える.\\要約$\Leftrightarrow$再話,語釈$\Leftrightarrow$再話の間においては有意差が見られた.再話は同じ話をするという特性から一致度が高くなる一方,要約・語釈は目的を達成するがために同じ表現を用いなければならないという制約がなく,一致度が低くなる傾向にある.\modified{また同一課題の語釈間では有意差はなかった.}\item実験室における単一人の回数間距離の課題間の違いの評価\\BCCWJ-SUMM\_L(T)$\Leftrightarrow$GLOSS\_L(T)$\Leftrightarrow$RETELLING\_I(T)$\Leftrightarrow$RETELLING\_K(T)$\Leftrightarrow$RETELLING\_M(T)\begin{itemize}\itemBCCWJ-SUMM\_L(T)$\Leftrightarrow$GLOSS\_L(T)\\\modified{文字単位の評価の場合n-gram(1,$\leq$2,$\leq$3,$\leq$4)\_char,p-mer(2,3,4,$\leq$2,$\leq$3,$\leq$4)\_charに有意差があった.\\形態素単位の評価の場合n-gram(1,$\leq$2,$\leq$3)\_mrph,Kendall\_mrphに有意差があった.}\itemBCCWJ-SUMM\_L(T)$\Leftrightarrow$RETELLING\_\{I,K,M\}(T)\\\modified{n-gram(4)\_char(BCCWJ-SUMM\_L(T)$\Leftrightarrow$RETELLING\_\{K\}(T)),n-gram(4)\_mrph(BCCWJ-SUMM\_L(T)$\Leftrightarrow$RETELLING\_\{K,M\}(T))以外の全ての尺度について,有意差が見られた.}\itemGLOSS\_L(T)$\Leftrightarrow$RETELLING\_\{I,K,M\}(T)\\全ての尺度について,有意差があった.\itemRETELLING\_I(T)$\Leftrightarrow$RETELLING\_K(T)\\\modified{n-gram(1)\_mrphについてのみ有意差があった.}\itemRETELLING\_I(T)$\Leftrightarrow$RETELLING\_M(T)\\\modified{文字単位の評価の場合n-gram(4)\_char,footrule\_char,kendall\_char以外に有意差があった.形態素単位の評価の場合,kendall\_mrph以外に有意差があった.}\itemRETELLING\_I(T)$\Leftrightarrow$RETELLING\_M(T)\\\modified{文字単位の評価の場合全ての尺度に有意差がなかった.形態素単位の評価の場合,n-gram($\leq$2,$\leq$3,$\leq$4)\_mrph,footrule\_mrph,kendall\_mrph以外に有意差があった.}\\\end{itemize}複数人間の評価ではなく,複数回間の評価でも同じ傾向が見られる.\\再話課題間については,形態素単位の評価において,三課題のうちどの二つ組においても有意差が出る傾向にある.口述による再話(RETELLING\_\{I,K\})の方が筆述による再話(RETELLING\_M)より一致度が高くなる.また口述による再話においては,自身の体験に基づく再話(RETELLING\_I)の方が,他者から聞いた話の再話(RETELLING\_K)よりも一致度の高くなることが認められた.\itemクラウドソーシングにおける課題間の違いの評価\\BCCWJ-SUMM\_C$\Leftrightarrow$GLOSS\_Cについて,全ての尺度について,有意差があった.\\クラウドソーシングにおける課題間の違いについても,前項と同じ傾向が見られる.\item要約課題においてクラウドソーシングと実験室との違い\modified{の評価}(複数人間)\\BCCWJ-SUMM\_C$\Leftrightarrow$BCCWJ-SUMM\_L(P)について,n-gram(2)\_char,n-gram(3)\_char,n-gram(4)\_charにのみ有意差があった.\\これは,タイプ入力(BCCWJ-SUMM\_C)と筆述(BCCWJ-SUMM\_L(P))とで,表記ゆれ統制の差の影響が考えられる.\item語釈課題においてクラウドソーシングと実験室との違い\modified{の評価}(複数人間)\\GLOSS\_C$\Leftrightarrow$GLOSS\_L(P)について,n-gram(2,3,4)\_char,n-gram(2,3,4)\_mrph,Footrule\_mrph,Kendall\_mrph以外について有意差があった.\\語釈においては,クラウドソーシングの場合wikipediaや辞書サイトからのコピーが行われる傾向にある一方,実験室の場合は特にリファレンスもなく筆述で行うために差が出たのではないかと考える.\item複数人間距離と単一人の回数間距離の違い\modified{の評価}\\BCCWJ-SUMM\_L(P)$\Leftrightarrow$BCCWJ-SUMM\_L(T),GLOSS\_L(P)$\Leftrightarrow$GLOSS\_L(T),\linebreakRETELLING\_K(P)$\Leftrightarrow$RETELLING\_K(T),RETELLING\_M(P)$\Leftrightarrow$RETELLING\_M(T)について,全ての尺度について有意差があった.\\基本的に単一人が実施したほうが一致度が高いと考えられるが,統計分析の結果からもそれが確認できる.\end{itemize}\subsection{各評価尺度の特性}課題間の議論から考えられる各尺度の特性について論じる.まず,文字n-gramはタイプ入力と筆述入力の差として認められることから,表記ゆれレベルで一致度の下がる特性があると考える.形態素n-gramは再話と繰り返しで顕著に高くなったことから,個人の文体などを反映していると考える.p-mer,Footrule,Kendallなどは語順の一致を反映していると考えられるが,ストーリー性がある要約・再話で一致度が高い一方,語釈などにおいては低い傾向にあることがわかった.語順に対して,ストーリーの一致を評価するのか,説明の順序を評価するのかについて深く検討する必要があると考える.ストーリーの一致については\cite{kato-jnlp-2016}において,被験者実験的に人が何を同一の物語とみなすかについて検討されている.また,語釈などにおいても情報提示順序により伝わりやすさが変わること\cite{kato-jcss-2015}が報告されている.自動要約の評価尺度で導入された語順の尺度については,ストーリーの一致(内容一致)を目的とするのか,伝わりやすさの一致(表現一致)を目的とするのかについては言及されていない.今回の調査では,タスクの設定によりこれらを切り分けることを試みたが,タスク間の差異は確認できなかった.n-gram,p-merともに$n$,$p$の値が高くなるにつれて尺度の値が低くなる.このために有意差が出にくくなる傾向にある.n-gram,p-merともに$n$(or$p$)以下の尺度として設定した場合に,より低い$n$(or$p$)の方が一致が多くなる傾向にあるために,より高い$n$(or$p$)の差異が見られなくなる傾向がある.これは尺度の自然な解釈であると考えられるが,何らかの用途で長いn-gram,p-merを重要視する場合には部分(文字)列長に対して加重を行う必要があるだろう.n-gram(1)\_*とKendall\_*と比較した場合,n-gram(1)\_*では有意差が出るが,順序尺度を入れたKendall\_*では有意差が出ない尺度の組み合わせがいくつかあった.これは文字順・語順の一致度が低い場合に,順序尺度を掛けあわせたがために全体の一致度の差がなくなったことが考えられる.
\section{おわりに}
本稿では,まず自動要約・機械翻訳で用いられている評価指標の数理的構造を説明した.評価指標がどのカーネル・距離・相関係数などの尺度と対応しているのかを説明し,n-gram系,p-mer系,\modified{ベクトル型順序尺度,編集型}順序尺度の\modified{四つ}に抽象化した.次に様々な言語資源を用いて各指標を構成する尺度の特性を明らかにした.要約・語釈・再話からなる7種類の言語資源を用いて,課題・多人数産出・複数回産出・産出手段(口述・筆述・タイプ)の軸を用いて,どのような分散が観察されるかを確認した.\modified{結果,各評価尺度において,表現一致と内容一致の識別は困難であり,評価の識別限界としての分散があることを示した.}今後の展開として以下の\modified{五}つを考えている.一つ目は要約評価に求められる尺度とは何かを明らかにすることである.尺度が捉える言語の特性については明らかにしたが,自動要約に必要な内容評価と読みやすさの観点については何も言っていないに等しい.現在,収集した要約に対して,以下の五つの軸で人手による評価を付与している\cite{asahara-2015-jclws7}.\begin{itemize}\item文法性(Grammaticality):誤字・文法的でない文が含まれていないか\item非冗長性(Non-redundancy):全く同じ情報が繰り返されていないか\item指示詞の明解さ(Referentialclarity):先行詞のない指示詞(代名詞)が含まれていないか\item焦点(Focus):要約全体と無関係な情報が含まれていないか\item構造と一貫性(StructureandCoherence):接続詞を補ったり削除したりする必要のある箇所はないか\end{itemize}人手による評価を悉皆的に付与したうえで,各評価軸がどの尺度に表れるのかを引き続き分析していきたい.\modified{二つ目は情報構造アノテーションとの重ね合わせである.尺度において,語順の評価を入れるかどうかが一つの論点であった.日本語において語順を決める一つの要素として情報構造がある.情報構造は言語生産者側の観点である情報状態\{speaker-new,speaker-old\}と言語受容者側の観点である共有性\{hearer-new,hearer-old\}の区別を行い,後者については被験者実験的にアノテーションを行う.これらのアノテーション結果を用いて,なぜ要約文はその順序で情報を提示する必要があるのかについて検討する.}\modified{三つ目は要約文の言語受容者側の観点からの認知的な評価である.今回は元文書の言語受容者であり要約文の言語生産者側の観点からの認知的な評価を主に扱った.生産された要約文が他の言語受容者にとって同じ話として認定されるか\cite{kato-jnlp-2016,kato-jcss-2015}を検討していきたい.一方,日本語複数文書要約についての拡張も考えられるが,元文書側の言語生産者が複数人になるという問題がある.複数の言語生産者側が考慮している情報構造が,要約作成者と要約受容者にどのように受容されるか追跡可能な認知実験手法を検討する.}\modified{四}つ目は人文系の研究者が評価する文体についての尺度を明らかにすることである.文体の研究は使用域(register)や位相(phase)などに着目して行われるが,現在のところ役割語など単一の語についての研究がほとんどである.語の連接や語の順序などの使用域や位相を,先に述べた尺度で捉えることを目標とする.\modified{五}つ目は同じ話とは何かということを定量的に評価する手法の提案である.内容を捉える尺度と表現を捉える尺度を分離することで,人が内容が一致していると認知できる表現のゆれを捉えることを目標とする.既に同じ話を構成する要素について,様々な分析\cite{yasuda-2012-JCSS,yasuda-2013-JASS32,yasuda-2014-JASS33,kato-jass-2015,kato-jass-2016}を進めているが,これらの結果が尺度にどのように表れるのかについて分析を行う.\acknowledgment要約文の作成および評価についてはNTTCS研の平尾努氏の助言を受けました.本研究の一部は,国立国語研究所基幹型共同研究プロジェクト「コーパスアノテーションの基礎研究」(2011--2015)および国立国語研究所「超大規模コーパス構築プロジェクト」(2011--2015)によるものです.本研究はJSPS科研費基盤研究(B)25284083,若手研究(B)26770156の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{天野\JBA近藤}{天野\JBA近藤}{1999}]{amano-1999-ntt-database}天野成昭\JBA近藤公久\BBOP1999\BBCP.\newblock\Jem{日本語の語彙特性第1期CD-ROM版}.\newblock三省堂.\bibitem[\protect\BCAY{浅原\JBA杉\JBA柳野}{浅原\Jetal}{2015}]{asahara-2015-jclws7}浅原正幸\JBA杉真緒\JBA柳野祥子\BBOP2015\BBCP.\newblockBCCWJ-SUMM:『現代日本語書き言葉均衡コーパス』を元文書とした要約文書コーパス.\\newblock\Jem{第7回コーパス日本語学ワークショップ予稿集},\mbox{\BPGS\285--292}.\bibitem[\protect\BCAY{Birch\BBA\Osborne}{Birch\BBA\Osborne}{2010}]{Birch-2010}Birch,A.\BBACOMMA\\BBA\Osborne,M.\BBOP2010\BBCP.\newblock\BBOQLRscoreforEvaluationLexicalandReorderingQualityinMT.\BBCQ\\newblockIn{\BemProceedingsoftheJoint5thWorkshoponStatisticalMachineTranslationandMetricsMATR},\mbox{\BPGS\327--332}.\bibitem[\protect\BCAY{Echizen-ya\BBA\Araki}{Echizen-ya\BBA\Araki}{2007}]{echizen-ya-2007-MTSUMMIT}Echizen-ya,H.\BBACOMMA\\BBA\Araki,K.\BBOP2007\BBCP.\newblock\BBOQAutomaticEvaluationofMachineTranslationbasedonRecursiveAcquisitionofanIntuitiveCommonPartsContinuum.\BBCQ\\newblockIn{\BemProceedingsoftheMTSummitXIWorkshoponPatentTranslation},\mbox{\BPGS\151--158}.\bibitem[\protect\BCAY{平尾\JBA磯崎\JBA須藤\JBA{K.Duh}\JBA塚田\JBA永田}{平尾\Jetal}{2014}]{hirao-2014-JNLP-journal}平尾努\JBA磯崎秀樹\JBA須藤克仁\JBA{K.Duh}\JBA塚田元\JBA永田昌明\BBOP2014\BBCP.\newblock語順の相関に基づく機械翻訳の自動評価法.\\newblock\Jem{自然言語処理},{\Bbf21}(3),\mbox{\BPGS\411--444}.\bibitem[\protect\BCAY{平尾\JBA奥村\JBA磯崎}{平尾\Jetal}{2006}]{hirao-2006-IPSJ-journal}平尾努\JBA奥村学\JBA磯崎秀樹\BBOP2006\BBCP.\newblock拡張ストリングカーネルを用いた要約システムの自動評価法.\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(6),\mbox{\BPGS\1753--1765}.\bibitem[\protect\BCAY{平尾\JBA奥村\JBA安田\JBA磯崎}{平尾\Jetal}{2007}]{hirao-2007-JSAI-journal}平尾努\JBA奥村学\JBA安田宣仁\JBA磯崎秀樹\BBOP2007\BBCP.\newblock投票型回帰モデルによる要約自動評価法.\\newblock\Jem{人工知能学会論文誌},{\Bbf22}(2),\mbox{\BPGS\115--126}.\bibitem[\protect\BCAY{神嶌}{神嶌}{2009}]{kamishima-2009-JSAI-sig-dmsm}神嶌敏弘\BBOP2009\BBCP.\newblock順序の距離と確率モデル.\\newblock\Jem{人工知能学会研究会資料SIG-DMSM-A902-07}.\bibitem[\protect\BCAY{加藤}{加藤}{2015a}]{kato-ninjal-2015}加藤祥\BBOP2015a\BBCP.\newblockテキストから対象物認識に有用な記述内容—動物を例に—.\\newblock\Jem{国立国語研究所論集},{\Bbf9},\mbox{\BPGS\23--50}.\bibitem[\protect\BCAY{加藤}{加藤}{2015b}]{kato-cjws-2015}加藤祥\BBOP2015b\BBCP.\newblock象は鼻が長いか—テキストから取得される対象物情報.\\newblock\Jem{第7回コーパス日本語学ワークショップ},\mbox{\BPGS\35--44}.\bibitem[\protect\BCAY{加藤}{加藤}{2015c}]{kato-jass-2015}加藤祥\BBOP2015c\BBCP.\newblock同じ話における共通語彙.\\newblock\Jem{社会言語科学会第36回大会}.\bibitem[\protect\BCAY{加藤\JBA浅原}{加藤\JBA浅原}{2015}]{kato-jcss-2015}加藤祥\JBA浅原正幸\BBOP2015\BBCP.\newblockテキストからの対象物認識における情報提示順序の影響.\\newblock\Jem{2015年度日本認知科学会第32回大会},\mbox{\BPGS\362--369}.\bibitem[\protect\BCAY{加藤\JBA浅原}{加藤\JBA浅原}{2016}]{kato-jass-2016}加藤祥\JBA浅原正幸\BBOP2016\BBCP.\newblock恋愛小説において物語を特徴づける表現—タイトルと帯に見られる表現分析の試み—.\\newblock\Jem{社会言語科学会第38回大会},\mbox{\BPGS\128--131}.\bibitem[\protect\BCAY{加藤\JBA富田\JBA浅原}{加藤\Jetal}{2016}]{kato-jnlp-2016}加藤祥\JBA富田あかね\JBA浅原正幸\BBOP2016\BBCP.\newblock物語がその物語であるための要素—何が同じであれば同じで何が違えば違うのか—.\\newblock\Jem{言語処理学会第22回発表論文集},\mbox{\BPGS\266--269}.\bibitem[\protect\BCAY{Lin}{Lin}{2004}]{Lin-2004-WSTS}Lin,C.-Y.\BBOP2004\BBCP.\newblock\BBOQROUGE:APackageforAutomaticEvaluationofSummaries.\BBCQ\\newblockIn{\BemProceedingsofWorkshoponSummarizationBranchesOut,PostConferenceWorkshopofACL2004},\mbox{\BPGS\74--81}.\bibitem[\protect\BCAY{Lin\BBA\Hovy}{Lin\BBA\Hovy}{2003}]{Lin-2003-NAACL}Lin,C.-Y.\BBACOMMA\\BBA\Hovy,E.\BBOP2003\BBCP.\newblock\BBOQAutomaticEvaluationofSummariesUsingN-gramCo-occurrenceStatistics.\BBCQ\\newblockIn{\BemProceedingsofthe4thMeetingoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsandHumanLanguageTechnology},\mbox{\BPGS\150--157}.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Ogiso,Maruyama,Ogura,Kashino,Koiso,Yamaguchi,Tanaka,\BBA\Den}{Maekawaet~al.}{2014}]{Maekawa-2014-LRE}Maekawa,K.,Yamazaki,M.,Ogiso,T.,Maruyama,T.,Ogura,H.,Kashino,W.,Koiso,H.,Yamaguchi,M.,Tanaka,M.,\BBA\Den,Y.\BBOP2014\BBCP.\newblock\BBOQBalancedcorpusofcontemporarywrittenJapanese.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf48},\mbox{\BPGS\345--371}.\bibitem[\protect\BCAY{宮部\JBA四方\JBA久保\JBA荒牧}{宮部\Jetal}{2014}]{miyabe-2014-GNWS}宮部真衣\JBA四方朱子\JBA久保圭\JBA荒牧英治\BBOP2014\BBCP.\newblock音声認識による認知症・発達障害スクリーニングは可能か?—言語能力測定システム“言秤”の提案—.\\newblock\Jem{グループウェアとネットワークサービスワークショップ2014}.\bibitem[\protect\BCAY{難波\JBA平尾}{難波\JBA平尾}{2008}]{nanba-hirao-2008-JSAI-journal}難波英嗣\JBA平尾努\BBOP2008\BBCP.\newblockテキスト要約の自動評価.\\newblock\Jem{人工知能学会誌},{\Bbf23}(1),\mbox{\BPGS\10--16}.\bibitem[\protect\BCAY{Nivre}{Nivre}{2009}]{Nivre-2009-ACL}Nivre,J.\BBOP2009\BBCP.\newblock\BBOQNon-ProjectiveDependencyParsinginExpectedLinearTime.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheACLandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP},\mbox{\BPGS\351--359}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2001}]{Papineni-2001-BLEU}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2001\BBCP.\newblock\BBOQBleu:aMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblock\BTR,IBMResearchReportRC22176(W0109-022).\bibitem[\protect\BCAY{{Shawe-Taylor,~J.}\JBA{CristianiniN.}\JBA{大北剛(訳)}}{{Shawe-Taylor,~J.}\Jetal}{2010}]{Taylor-2010}{Shawe-Taylor,~J.}\JBA{CristianiniN.}\JBA{大北剛(訳)}\BBOP2010\BBCP.\newblock\Jem{カーネル法によるパターン解析(KernelMethodsforPatternAnalysis),第11章構造化データに対するカーネル:文字列,木など}.\newblock共立出版.\bibitem[\protect\BCAY{保田}{保田}{2014}]{yasuda-2014-JASS33}保田祥\BBOP2014\BBCP.\newblock同じ話を成立させる語—「桃太郎」を「桃太郎」として成立させる語彙—.\\newblock\Jem{社会言語科学会第33回大会発表論文集},\mbox{\BPGS\138--141}.\bibitem[\protect\BCAY{保田\JBA荒牧}{保田\JBA荒牧}{2012}]{yasuda-2012-JCSS}保田祥\JBA荒牧英治\BBOP2012\BBCP.\newblock人が同じ話を何度もするとどうなるか?:繰り返しによって生じる物語独話の変化.\\newblock\Jem{日本認知科学会第29回大会},\mbox{\BPGS\217--223}.\bibitem[\protect\BCAY{保田\JBA田中\JBA荒牧}{保田\Jetal}{2013a}]{yasuda-2013-JASS31}保田祥\JBA田中弥生\JBA荒牧英治\BBOP2013a\BBCP.\newblock繰り返しにおける独話の変化.\\newblock\Jem{社会言語科学会第31回大会発表論文集},\mbox{\BPGS\190--193}.\bibitem[\protect\BCAY{保田\JBA田中\JBA荒牧}{保田\Jetal}{2013b}]{yasuda-2013-JASS32}保田祥\JBA田中弥生\JBA荒牧英治\BBOP2013b\BBCP.\newblock同じ話であるとはどういうことか.\\newblock\Jem{社会言語科学会第32回大会発表論文集},\mbox{\BPGS\30--33}.\end{thebibliography}\appendix
\section{\ref{sec:sim}節で用いる用語定義}
\label{sec:app:term}以下\ref{sec:sim}節で用いる用語を定義する:\begin{itemize}\item記号集合:本稿では記号の集合を$\sigma$で表す.\item記号列:何らかの全順序が付与されている記号集合.\\本稿では記号列ベクトル$s=\langles_{1},\ldots,s_{m}\rangle,t=\langlet_{1},\ldots,t_{m}\rangle$などで表現する.\item文字(character),文字ベース(character-based):記号集合$\sigma$の要素の記号$s_{i}\in\sigma$としての文字.記号集合$\sigma$の要素が文字であること.\item形態素(morpheme),形態素ベース(morpheme-based):記号集合$\sigma$の要素の記号$s_{i}\in\sigma$としての形態素.記号集合$\sigma$の要素が形態素であること.\item文字列(string):評価する記号列上の連続列.記号列の要素が文字(character)である場合を「文字ベースの文字列(character-basedstring)」,記号列の要素が形態素(morpheme)である場合を「形態素ベースの文字列(morpheme-basedstring)」と呼ぶこととする.\item部分文字列(substring):記号列に対して隣接性と順序を保持した部分的記号列.長さ$n$の部分文字列を特にn-gram部分文字列と呼ぶ.\\記号列$s$の$i$番目の要素からはじまるn-gram部分文字列を$s_{i\ldotsi+n-1}$で表現する.\item部分列(subsequence):記号列に対して順序を保持した部分的記号列.隣接性は保持しなくてよい.長さ$p$の部分列を特にp-mer部分列と呼ぶ.記号列$s$のp-mer部分列を,インデックスベクトル$\vec{i}=\langlei_{1},\ldots,i_{p}\rangle(1\leqi_{1}<i_{2}<\cdots<i_{p}\leq|s|)$を用いて,$s[\vec{i}]$と表す.\item参照テキスト(reference):人間が作成した正解要約/翻訳.本稿では記号列$R$で表す.\itemシステム出力テキスト(candidate):要約作成器/機械翻訳器が出力した要約/翻訳.本稿では記号列$C$で表す.\item距離(distance):集合$X$上で定義された2変数の実数値関数で,本稿では$d:X\timesX\rightarrowR$などの記号を使う.正定値性($d(x,y)\geq0$),\modified{非退化性($x=y\Rightarrowd(x,y)=0$)},対称性($d(x,y)=d(y,x)$),三角不等式($d(x,y)+d(y,z)\geqd(x,z)$)を満たす.\item絶対値(absolutevalue):大きさの一般化概念.実数については0からの距離,集合については要素数を表すのに用い$|x|$で表す.また,テキストC中の単語/n-gram/p-merの要素数(のべ出現数)を$|e|_{C}$で表す.\item$\theta$-ノルム(norm):ベクトル空間上に距離を規定する長さの一般化概念.ベクトル$x=\langlex_{1},\ldots,x_{n}\rangle$の$\theta$-ノルムを\modified{$||x||_{\theta}=(\sum^{n}_{i=1}|x_{i}|^{\theta})^{1/\theta}$}により定義する.特に$\theta$を定義しない場合($||x||$)は2-ノルムを用いる.\item内積記号$\cdot$:文字列に対しては連結,整数・実数については積,ベクトルなどについては内積,対称群については写像の合成(積)を扱うために用いる.\item類似度(similarity):二つの元の距離は遠さを表すのに対し,類似度は近さを表す.距離の逆数は類似度として扱える.\item相関係数(correlation):二つの確率変数の間の相関を表す指標で,類似度として扱える.$[-1,1]$区間の値をとり,1に近い場合は正の相関があると呼び,$-1$に近い場合には負の相関があると呼ぶ.0に近い場合には相関が弱いという意味がある.\itemカーネル関数(kernelfunction):特徴空間中の座標の明示的な計算を経由せずに特徴量空間における内積(正定値性と非退化性をもち,実数ベクトル空間では対称性ももつ)を定義するもの.本稿では$K(s,t)$と表記する.内積を正規化することによりcosine類似度($\frac{K(s,t)}{||K(s,s)||\cdot||K(t,t)||}$)を定義することができる.\itemスコア(score):類似度などを[0,1]区間に正規化したもの.本稿では$\mbox{score}$などの記号で示す.\item接頭辞(prefix):記号列の先頭要素を含む連続文字列.\item接尾辞(suffix):記号列の末尾要素を含む連続文字列.\item部分集合(subset):記号列を集合とみなした場合の部分集合.隣接性と順序は保持しなくてよい.要素数$k$の部分集合を特に$k$-element部分集合と呼ぶ.\item順位ベクトル(rankvector):インデックス$i$要素が対象$i$の順位を表すベクトル.本稿では$m$次元の順位ベクトル空間を$S_{m}$で表し,順位ベクトル空間の要素である順位ベクトルを$\mu=\langle\mu(1),\ldots,\mu(m)\rangle$で表す.$\mu(i)$には対象$i$の順位を表す自然数が入る.\item順序ベクトル(ordervector):順位が$i$番目である要素がインデックス$i$の位置に格納されているベクトル.本稿では$m$次元の順序ベクトル空間を$T_{m}$で表し,順位ベクトル$\mu(i)$に対応する順序ベクトルを$\mu^{-1}=\langle\mu^{-1}(1),\ldots,\mu^{-1}(m)\rangle$で表す.$\mu^{-1}(i)$には順位が$i$である要素(の順位ベクトル上でのインデックス)が入る.\item同順(concordant):二つの順位ベクトル中で対象対$i$と$j$が以下を満たすとき,その対象対が同順であるという.\\$(\mu(i)-\mu(j))(\nu(i)-\nu(j))\geq0$\item逆順(discordant):二つの順位ベクトル中で対象対が同順でないことを逆順という.\item文字列上の編集:挿入(insertion),削除(deletion),代入(substitution)の三つを規定する.\item順序ベクトル上の編集:順序ベクトルを対称群(symmetricgroup)と考えて編集する際の操作を規定する.\item\modified{対称群}:並び替えの編集操作(置換:permutation)を元とする群.順序ベクトル$\mu^{-1}=\langle\mu^{-1}(1),\ldots,\mu^{-1}(m)\rangle$のうち,$\mu^{-1}(k_{1}),\mu^{-1}(k_{2}),\ldots,\mu^{-1}(k_{r})$以外は動かさず,$\mu^{-1}(k_{1})\rightarrow\mu^{-1}(k_{2}),\mu^{-1}(k_{2})\rightarrow\mu^{-1}(k_{3}),\ldots$のように順にずらす置換\\$\left(\begin{array}{cccc}\mu^{-1}(k_{1})&\mu^{-1}(k_{2})&\ldots&\mu^{-1}(k_{r})\\\mu^{-1}(k_{2})&\mu^{-1}(k_{3})&\ldots&\mu^{-1}(k_{1})\end{array}\right)$\\のことを巡回置換と呼び,$\pi_{r}=(k_{1},k_{2},\ldots,k_{r})$で表す.二つの元のみを入れ替えて他の元は変えないもの(2元の巡回置換)を互換(transposition)と呼び,$\pi_{2}=(i,j)$で表す.隣接する二つの元のみを入れ替えて他の元は変えないものを隣接互換(adjacenttransposition)と呼び,$\pi_{2}=(i,i+1)$で表す.\itemクロネッカーのデルタ$\delta$:$\delta(i,j)=\left\{\begin{array}{ll}1&(i=j)\\0&(i\neqj)\end{array}\right.$\item\modified{$s$再帰($s$-recursive),$t$再帰($t$-recursive):それぞれ変数$s$,$t$に対して再帰的に定義すること.本稿では$s$,$t$は文字列を想定し,1文字増やした際の文字列を定義する差分方程式の説明に用いる.}\end{itemize}\newpage
\section{指標・スコア・距離・カーネル・相関係数の関係まとめ}
\begin{table}[b]\rotatebox{90}{\begin{minipage}{470pt}\caption{指標・スコア・距離・カーネル・相関係数の関係まとめ}\label{table:scores}\input{04table02.txt}\end{minipage}}\end{table}\clearpage
\section{言語生成過程と尺度}
\modified{表\ref{tbl:test}に\ref{sub:test}節で行った検定の結果のまとめを示す.}表\ref{tbl:score-sum-gross}に要約課題・語釈課題と各尺度の比較を表\ref{tbl:score-retelling}に再話課題と各尺度の比較を示す.標準偏差はBCCWJ-SUMM\_L(T)が最も大きい.これは繰り返し要約する際に全く同じ要約文を再生産する被験者と全く異なる要約文を再生産する被験者とが存在するからだと考えられる.しかし,他の再話(RETELLING\_K(T),RETELLING\_M(T))でも被験者間の標準偏差と比して高いことから要約文特有の現象ではないと考える.\begin{table}[h]\caption{\ref{sub:test}節で行った検定の結果のまとめ(有意差があったもの一覧)}\label{tbl:test}\input{04table03.txt}\end{table}\begin{table}[p]\rotatebox{90}{\begin{minipage}{570pt}\caption{要約課題・語釈課題と各尺度}\label{tbl:score-sum-gross}\input{04table04.txt}\end{minipage}}\end{table}\begin{table}[p]\rotatebox{90}{\begin{minipage}{570pt}\caption{再話課題と各尺度}\label{tbl:score-retelling}\input{04table05.txt}\end{minipage}}\end{table}\begin{biography}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2004年より同大学助教.2012年より国立国語研究所コーパス開発センター特任准教授.\modified{国立国語研究所言語資源研究系准教授を経て,現在国立国語研究所コーパス開発センター准教授.}博士(工学).}\bioauthor{加藤祥}{2011年神戸大学人文学研究科博士後期課程修了.201\modified{2}年より国立国語研究所コーパス開発センタープロジェクトPDフェロー.現在国立国語研究所コーパス開発センタープロジェクト非常勤研究員.博士(文学).}\end{biography}\biodate\clearpage\clearpage\end{document}
| |
V14N03-10 | \section{はじめに}
インターネット上での商取引やブログの増加により,特定の商品や出来事についての感情や評価,意見などの個人の主観を表明したテキストが増加している.この主観の対象が特定の商品に対するものである時は,商品へのフィードバックとして企業に注目される.主観が特定のニュースや施策に対するものであれば,国民の反応を知る手がかりとして利用する用途なども考えられる.国内外で多数の主観に注目した会議が開催されていることからも,関心の高さをうかがい知ることができる(EAAT2004,Shanahanetal.2005,言語処理学会2005,言語処理学会2006,AAAI2006,EACL2006,ACL2006).本研究では,このようなテキストに現れた個人の主観の表明の中でも,特に,「うれしい」「かなしい」などの個人の感情を表す感情表現に着目し,その特性を理解するためのモデルを提案し,書籍や映画などの作品検索に応用するための方策を考察する.なお感情とは,ある対象に対する主体の気分や心の動きであり,感情表現とは,感情とその主体,対象などの構成要素をまとめて呼ぶ呼称である.態度とはテキストの中で感情や評価,意見など主観を表明した部分である.感情表現には感情表現事典(中村1993)に収録されているような感情という態度を表明している部分だけではなく,それを表明した主体や向けられた対象,その理由や根拠が関連する構成要素が存在する.我々は書評や映画評などの作品レビューが利用者にとって鑑賞する作品の選択に参考となるかどうかを判断するためには,感情表現の中の態度だけでなく他の構成要素も抽出する必要性があると考える.これは,作品レビューには参考になるもの,ならないものがあり,それを判断する手がかりとして構成要素が利用されていると仮定したことによる.さらに構成要素の中でも態度を表明した理由や根拠がその判断に大きく影響していると考えた.そこでまず感情表現抽出の準備段階として,感情表現の構成要素をあきらかにするため,Web上の作品レビューを用いて分析を行い,感情表現のモデルを定義し,構成要素の特徴をあきらかにした.次に感情表現の理由や根拠の重要性や働きを調べるため,追加分析と被験者実験を行い,作品検索に感情表現を用いるとき,検索結果が利用者にとって参考となる情報となるためには理由という構成要素が重要な働きをしていることを示した.\subsection{作品レビューにおける主観的な情報}本研究で扱うレビューとは,ある対象について評論したテキストのことである.レビューには,下記のような多様なドメインが考えられる.・作品:映画評,ブックレビューやCD,楽曲,演劇などの作品に関するレビュー・製品:携帯電話や車などの製品についてのレビュー・サービス:レストランや飛行機,ホテルなどのサービスに関してのレビュー・組織:会社や団体など,組織についてのレビューこれらドメインによって,レビュー中に表明された主観的な情報の用途,関連する構成要素と各要素の重要性,働き,評価の観点などが異なる.製品においては,使い勝手や好みなどの主観的な情報も重要であるが,その仕様や機能,価格など製品に関する事実がより重要な観点となる.同様にサービスではその特徴や利点が,組織では活動の内容などが重要な観点となる.これら製品やサービス,組織は利用するためのものであるため,それぞれが持つ機能や特徴,性質など主に具体的な事実や数値とそれが好意的なのか否定的なのかという評価がレビューとして重要視される.しかし映画や書籍のような作品は個人が味わうためのものであり,価格やあらすじ,登場人物などの事実以上に,それを利用者が読んだり鑑賞したりしてどう感じるかといった,利用者の抱く感情が重要である.\subsection{作品検索の問題点}現在の作品を対象とした検索では,作品のタイトルや登場人物,ジャンルなどを手がかりにして,利用者が自分の希望する作品を検索している.しかし利用者の要求には,「今日は泣ける本が読みたい」「派手な映画を見て元気を出したい」「背筋も凍るような恐怖のホラー映画が見たい」など,それらを見聞きした結果どのような感情を感じるかといったものもある.実際Web上の質問サービスである「教えてgoo\footnote{教えてgoo,http://oshiete.goo.ne.jp/}」や「Yahoo!知恵袋\footnote{Yahoo!知恵袋,http://chiebukuro.yahoo.co.jp/}」などの質問回答サービスには,「切なくなる本を教えてほしい」「怖い映画を教えてください」などの質問が存在する.感情表現を手がかりとして作品を検索できれば,これら要求を満たすことができる.我々は,単に作品へ向けられた感情表現中の感情という態度を表明した語句のみから作品を探すのではなく,感情の主体,対象,理由などの感情表現の他の構成要素も利用することが重要と考える.さらに構成要素の中でも理由,根拠,原因が明記された感情表現が特に利用者にとって参考となり得る重要な情報であると考えた.理由,根拠,原因の記述された感情表現を検索に利用することで,同じ「幸せな気分になれる本」を探したときでも,「笑える内容だったから幸せだった」のか「ハッピーエンドで終わったから幸せだった」のかなどを区別することができる.また,我々は,趣味嗜好が強く反映される作品レビューのようなテキストではそれを読んだ利用者がテキストに記述された内容を理解し,鑑賞する作品を選択するときに参考にすることが可能であることが重要であると考えた.具体的には,感情表現を用いた作品検索において,「理由」が記述されたものに重み付けをし,さらに結果をその作品レビューが含む理由と共に表示することなどが考えられる.そこで,本研究では作品レビューのテキストを対象とし,そこに出現する感情表現を分析した.なかでも感情表現の理由や根拠に注目して研究を行った.\subsection{本論文の構成}本論文の構成は次のとおりである.2節では,関連研究を概観し,本研究の位置づけを明確にする.3節では,書籍と映画に関するレビューを人手分析し,感情表現の構成要素を定義した.4節では,3節で定義した構成要素の特徴と働きについて考察をした.5節では,構成要素の中から理由に着目し,その重要性を分析,検討した.6節では5節での検討内容を被験者実験によって実証し,7節ではその結果を考察した.8節は本論文の結論である.
\section{関連研究}
テキストから,「意見」「評価」「感情」など主観表現の態度を抽出,または分類する研究では,処理対象とする要素が様々である.論文によって要素の名称が異なるが,今節では説明のため代表的な要素の表記を統一する.対象へ向けられた意見,評価,感情などは「態度」とする.同様にして態度が向けられた対象は「対象」,主観を表明した主体は「主体」,「態度」における肯定的,否定的,中立などの属性を「極性」とする.\subsection{主観の極性を判定する研究}テキスト中に表明された主観を扱う研究の中のひとつの大きなグループは,極性を判定する研究である.Turney(Turney2002)はWeb上の映画のレビューテキストから態度を抽出し,その極性を検索エンジンを用いて得られた「excellent」または「poor」との共起しやすさから判定し,さらに抽出された態度の極性の集合から,テキストの極性を判定している.極性を正しく判定するため,態度を単語ではなく前後の文脈を追加した句として抽出している.舘野(舘野2002)は,企業のサポートセンターによせられた「お客様の声」に含まれる態度に着目し,事前に行った構文構造解析から木構造を用いて,否定的な極性を含む文を抽出している.那須川ら(那須川,金山2004)は,デジタルカメラまたは映画について書き込まれているWeb上の掲示板から,極性が既に判定されている既知の態度をもとに,新たな態度を極性付きで抽出している.極性の判定には,極性が定義されている態度と新たな態度の間に,極性を反転させる「しかし」などの表現が出現するかどうかを利用している.立石ら(立石ら2004)は評判情報検索に,態度,対象,極性を組み合わせた辞書を用いている.たとえばコンピュータの分野において「小さい」が1,000表現中8回出現し,そのうち7回が肯定的なら,コンピュータが対象のとき,「小さい」という態度は肯定的な極性であると判定される.KimandHovy(KimandHovy2004)は,態度,主体,対象,極性に着目し,抽出を行っている.主体ごとに極性の方向(肯定的か,否定的か,中立か)とその強さを計算することで,主体がどのような極性をもっているか判定している.\subsection{主観の極性以外の側面も扱う研究}小林ら(小林ら2005)は態度,対象,対象の属性を抽出している.対象の属性とは,対象の要素のことである.例えば「携帯電話」における対象の属性は「液晶画面」であり,大きな枠組みである対象と,下位要素である対象の属性を区別している.Wiebeら(Wiebeetal.2005)は,手作業でコーパスにタグ付けを行うことにより,態度の構成要素を定義している.主観的な発言や明示的である率直な態度に関しては,態度,主体,対象,極性に加え,主観の強さ,表現の強さ,主観に実態があるかどうか(仮定の話か,実際の話か),の各要素を定義している.表現による主観的な態度については,態度,主体,主観の強さ,極性を定義している.発話や記述の事実に関しては,発話や記述の部分とその主体,対象を定義している.Liuら(Liuetal.2003)は,常識知から出来事と感情の組み合わせを学習することで,文を感情カテゴリに分類している.例えば「自動車事故で恐怖を感じた」という事例から「自動車事故」は「恐怖」という組み合わせを辞書に登録することにより,「自動車事故にあった」という文を「恐怖」という感情カテゴリに分類している.田中ら(田中ら2004)はテキストの情緒を推定するため,日本語語彙体系をもとに作成した結合価パターンを用いている.この研究で情緒属性と呼ばれている要素には,「前提条件」「情緒主(主体)」「情緒対象(対象)」「原因」「情緒名」がある.「太郎がコンサートのチケットを入手した」という文から情緒主「太郎」は原因「獲得」から「獲得による喜び」という情緒を導き出している.大塚(大塚2004)は,道路計画に対する住民への自由記述アンケートテキストが要求か否かを判定している.要求の要素として要求動機,要求内容,要求意図が定義されている.要求意図が明示的に表明されていなくても,要求動機が出現することでそこに暗黙的な要求意図が存在すると示されている.例えば「歩道がせまい」という事実を要求動機ととらえることで,「歩道を広くして欲しい」という暗黙的な要求意図を導き出している.ただしテキストが要求か否かの判定に関しては,明示的要求のみを対象としている.これまでの研究において,我々が「理由」と呼ぶ理由,原因,根拠,動機などは,態度を導きだしたり,テキストや文,句などを分類するための手がかりとして扱われてきた.本研究では利用者にとって作品レビューが鑑賞する作品を選択するのに参考になるかどうかを判断する手がかりとして感情表現の「理由」に着目し,その特性や働きの分析を行った.
\section{感情表現のモデル作成}
作品レビュー中の感情表現のモデルを検討するためにグラウンデッドセオリーの「絶えざる比較法」(GlaserandStrauss1967)の枠組に従った.データ収集,分析,分析を通じて見えてきた問題に沿ったデータ収集のサイクルを理論的飽和まで繰り返すことにより,結論を得る(Keith2005).分析対象にはWeb上の書籍および映画の作品レビューを取り上げた.\subsection{コーパス}コーパスは,杉田と江口(杉田ら2001)が2000年10月に収集した作品レビューに関するコミュニティに属する332のWebサイト上のページである.本稿では,その中から6サイトを無作為に選択し,さらに各サイトから作品レビューが記述されたファイルを1つずつ選択した「作品レビューサブコーパス(以下:BSC)」を作成し,実験に用いた.BSCは書籍64件と映画18件の計82件の作品レビューから構成されており,計1,528文である.表1にBSCの詳細を示す.選択した6サイトおよびその書き手は重複しない.書き手とは,そのサイトで作品レビューを書いた人物である.書籍に関する作品レビューは1冊の書籍,映画に関する作品レビューは1作の映画について書かれたもので,はじめと終わりが読み手に明確なひとまとまりのテキストを1件の作品レビューとした.\begin{table}[b]\begin{center}\input{10t1.txt}\end{center}\end{table}\subsection{タグ付け}中山ら(中山ら2005)は,BSCに対して,感情だけではなく,感情,意見,評価などの何らかの主観を表明している箇所に着目して,人手でタグ付けを行い,主観の表明に関わる一連の構成要素を含む主観表現のモデルを提案した.BSCには,主観表現は653組あり,そのうち,「\textgt{態度}」が感情と分類された感情表現は257組であった.本稿では,この感情表現に着目して,さらに分析をすすめた.\begin{figure}[b]\centerline{\includegraphics{14-3ia10f1.eps}}\caption{タグ付け作業の手順}\end{figure}モデル構築のためのタグ付けの作業は次のとおりである.作業者は著者である.まず,感情が表明されている箇所に注目し,その「\textgt{態度}」を1つタグ付けした後に,続けてその態度に関連する他の構成要素を検討した.タグ付けは作品レビュー単位で行い,1文の中に複数の態度がある場合や,関連要素が作品レビュー内で文を超えて存在するものも検討の対象とした.同一箇所に複数のタグを重複して付与することもできる.作業者である著者の主観により新たな構成要素が発見されるごとに,その要素をモデルに加え,既に分析済みのコーパスも新たなモデルでタグ付けをやり直した.この繰り返しによりタグ付けする構成要素を決定しながらBSC中の全てのテキストにタグ付けを行った.図1にタグ付け作業の手順を示す.その結果,構成要素として「\textgt{態度}」「\textgt{主体}」「\textgt{対象}」「\textgt{理由}」という4つとそれぞれの下位要素を得た.表2に感情表現の構成要素と下位要素の一覧を示す.タグ付けに際しては開始時と終了時の判断の差が発生しないよう,終了後にもう1度見直しを行った.見直しでは,各要素を「\textgt{\ul{主体}}は\textgt{\ul{対象}}を\textgt{\ul{理由}}によって\textgt{\ul{態度}}と感じた」と同等の文に言い換え,矛盾がないか確認した.\begin{table}[t]\input{10t2.txt}\end{table}以下,構成要素について説明する.「\textgt{態度}」は主観が表明されていると判断した部分にタグ付けした.「\textgt{態度}」であるかどうかの判断には,\maru{1}事実報告ではないこと\maru{2}思ったこと,感じたことであることなどを基準とした.表明のタイプについて,態度が明示的に表明されている場合は「\textgt{態度記述}」,暗黙的に表明されている場合は「\textgt{ゼロ態度}」とした.下位要素について,「\textgt{態度}」がタグ付けされた中でも感情だと判断された場合は「\textgt{感情}」,感情かどうかの判断が難しい場合は「\textgt{保留}」とした.これ以降に説明する「\textgt{態度}」以外の上位要素は,タグ付けされている「\textgt{態度}」に関連するもののみを検討している.「\textgt{態度}」には「\textgt{態度なし}」という表明のタイプが存在するが,今回は「\textgt{態度なし}」に該当するものはタグ付けを行わず分析対象としなかった.「\textgt{主体}」は「\textgt{態度}」を表明した人またはモノ,「\textgt{対象}」は「\textgt{態度}」が向けられた人またはモノである.両者の表明のタイプに関して,テキスト中に要素が明示的に記述されている場合はそれぞれ「\textgt{主体記述}」「\textgt{対象記述}」,明示的に要素が記述されていないが省略されていると判断できる場合はそれぞれ「\textgt{ゼロ主体}」「\textgt{ゼロ対象}」とした.テキスト中に記述されてなく,かつ該当するものが無い場合は「\textgt{不明}」とした.それぞれの下位要素として,タグ付けされたものの属性である書き手,登場人物,ストーリーなどがある.\begin{table}[t]\input{10t3.txt}\end{table}「\textgt{理由}」は「\textgt{態度}」を表明した原因,理由,根拠となる部分である.「\textgt{理由}」の表明のタイプに関しては「\textgt{記述されていない}」もの,語尾が(から|ため|ので|よって)または(すれば|してくれば|なら)という表現であるかこの表現に言い換えることのできる「\textgt{明確に理由が記述されている}」もの,語尾を(を理由として|を原因として)と大きく言い換えることで「\textgt{理由}」であると判断できる「\textgt{暗黙的に理由が記述されている}」ものに分類した.「\textgt{理由}」の下位要素は「主体の主観的な判断によるもの」を「主観理由」,「事実によるもの」を「客観理由」とした.「\textgt{理由}」に関しては,5節で詳しく考察をした.タグ付けされた作品レビューの例を表3に,そこから抽出した要素の一覧を表4に示す.同一箇所に複数のタグが付与される例として,表3の作品レビューAでは,ある態度について同じ部分が「\textgt{対象}」「\textgt{理由}」になっている例(o4,r4)を,作品レビューBではある態度に関しては「\textgt{理由}」とタグ付けされている部分に別の態度についての構成要素がある例(r8,a9など)を含んでいる.\begin{table}[t]\input{10t4.txt}\end{table}
\section{タグ付けの結果}
4.1節では感情表現に関するタグ付けの結果を報告し,4.2節では,「\textgt{理由}」の特性や下位要素を検証する分析をした.4.3節では複数分析者間の一致度調査の結果を報告する.4.4節では感情表現の「\textgt{理由}」の働きについて考察を行った.これら分析により,感情表現の構成要素の特徴やパタンをあきらかにし,また「\textgt{理由}」の重要性を検討した.\subsection{感情表現の分析}感情表現257組についての分析を行い,感情表現の構成要素の特徴や出現パタンを調べた.タグ付けされた上位要素の組み合わせ件数の一覧を表5に示す.\begin{table}[b]\begin{center}\input{10t5.txt}\end{center}\end{table}\subsubsection{構成要素}表5に示すように,もっとも多くタグ付けされた上位要素の組み合わせは,\textgt{[態度あり]+[主体あり]+[対象あり]+[理由不明]}であり,257組の中で170組あった.「\textgt{主体}」は全ての257件あり,うち記述あり22件,ゼロ主体148件であった.「\textgt{対象}」は236件で,うち記述あり181件,ゼロ対象55件だった.「\textgt{理由}」は66件で,うち明確54件,暗黙12件だった.「\textgt{対象}」は作品レビューの対象書籍または映画であるものが50件で最も多く,他で多かったものとしては,事実が40件,登場人物が38件,場面が28件だった.\subsubsection{構成要素の特徴と考察}「\textgt{対象}」236件のうち,45件は記述が省略されている「ゼロ対象」であった.また,「書き手」以外の「\textgt{主体}」がタグ付けされた例は全部で23件あった.主観表現全体で24件あったうち23件が「\textgt{感情}」で見られ,書き手以外の「\textgt{主体}」がタグ付けされている部分では,ほぼ感情が表明されている.感情表現の処理において,構成要素のうち「\textgt{主体}」が省略されているかどうかは重要な要素であると考える.書き手自身が「\textgt{主体}」であるとき「\textgt{主体}」の表記が省略されることの多い日本語において,あえて「\textgt{主体}」が記述されるときは,主体が自らの意見について自信がない,もしくは自らの意見が特殊であると自認している特別な場合だった.また,下位要素が「書き手」以外の「\textgt{主体}」がタグ付けされた例は全部で24件あった.うち22件は登場人物の感情を記述したものであり,あらすじの説明中に出現したものが多かった.作品レビューの書き手が表明した「\textgt{感情}」と,作品内で登場人物が表明した「\textgt{感情}」では意味が異なるため,区別しなくてはならない.これはレビューの書き手による「\textgt{感情}」は主観的な情報であるのに対し,登場人物の「\textgt{感情}」は作品の一部で客観的な情報だからである.同様にして,作品に向けられた「\textgt{感情}」と作品以外に向けられた「\textgt{感情}」も区別する必要がある.そのため作品レビューを処理する際には,タイトルと記事,作品レビューの地の部分とあらすじの記述箇所の切り分けなど,テキスト全体の構造に着目した処理も必要である.また,中山ら(2005)で行った,感情,意見,評価などの多様な主観の表明に関わる表現の分析と比較しても,とくに,感情表現のみの顕著な傾向は見られなかった.\subsection{「理由」について}\subsubsection{明確な「理由」と暗黙的な「理由」}感情表現の「\textgt{理由}」は66件あった.「\textgt{理由}」は表明のタイプとして明確なものと暗黙的なものに分類できた.それぞれの理由の表明のタイプは,タグが付与された部分の語尾が以下に示す3つのパタンのいずれかであるか,言い換えることができるものを指す.(から|ため|ので|よって)+「\textgt{態度}」明確\maru{1}(すれば|してくれば|なら)+「\textgt{態度}」明確\maru{2}(を理由として|を原因として)+「\textgt{態度}」暗黙的明確な理由\maru{1}に当てはまるものは47件あった.明確な理由\maru{2}にあてはまるものは4件あった.暗黙的な理由は15件あり,うち6件は「\textgt{対象}」と「\textgt{理由}」のタグ付与が重なっていた.暗黙的な理由をさらに分析すると下記のカテゴリを見出すことができた.\noindentI.作品レビューのドメインに依存した対象(場面・ストーリー・登場人物)の説明が理由になっているもののうち,直接的な因果関係が成立しないため,「〜ので」「〜から」などに言い換えられないものIa.個々の場面(6件)Ib.全体のストーリー(2件)Ic.登場人物(3件)Id.視線移動(1件)\noindentII.分析者の体験・世界知識が理由となっているもののうち,「〜ので」「〜から」など直接的な因果関係に言い換えられないもの(3件)このうち,Iのような具体的な場面,ストーリー等に関連する理由は,「〜ので」「〜から」などには言い換えられないが,「〜を理由として」「〜を原因として」には言い換えることができ,また,後述する複数分析者間の一致度調査でも一致して判定された割合が高かった.それに対し,IIは,個々の判定者の個人的な体験や世界知識に関連するものであり,他者との共有や理解は難しい場合もある.\subsubsection{主観的な「理由」と事実による「理由」}「\textgt{理由}」には,下位要素として主観的なものと事実による客観的なものがあった.木戸(木戸,佐久間1989)によれば,文の機能として「根拠:判断のよりどころとなった事実を提示する機能」,「理由:判断のよりどころとなった意見を提示する機能」と定義されている.本研究が「\textgt{理由}」の下位要素として定義した「主観理由」は後者の「判断のよりどころとなった意見を提示する機能」に,「客観理由」は前者の「判断のよりどころとなった事実を述べる機能」にあたる.「\textgt{理由}」の66件中,「主観理由」は33件,「客観理由」は30件,どちらとも判断つかず保留したものが3件あった.「主観理由」には書き手の考えが,「客観理由」には書籍の内容や書き手の状況が多かった.表6に件数の一覧を,表7に下位要素の例を示す.\begin{table}[b]\begin{center}\input{10t6.txt}\end{center}\end{table}\begin{table}[t]\begin{center}\input{10t7.txt}\end{center}\end{table}\subsection{分析者間でのタグ付与一致度}タグの信頼性を調査するため,3名の分析者によるタグ付けの一致度調査を行った.分析者1は20代女性,分析者2は20代男性,分析者3はBSC全体のタグ付けを行った著者である.いずれの分析者も大学院生である.分析対象としてBSC82件全体(1,528文)の中から10件(150文)を無作為に選んだ.タグ付けは3.2節に示した構成要素に関して行った.感情表現のタグ付与のみの一致度調査では,比較する件数が少なかったため,感情のみではなく,なんらかの主観を表明した箇所に関して,関連する構成要素をタグ付与し,その一致度を調査した.4.3.2節では,分析者間でタグ付与に揺れが現れることが予想される「\textgt{態度}」と「\textgt{理由}」に関して考察する.\subsubsection{分析者間での態度タグ付与}表8に各分析者が「\textgt{態度}」タグを付与した数と,その中でも3名の分析者が同じ部分に「\textgt{態度}」タグを付与した数を示す.分析者1,分析者2,分析者3は,それぞれ70件,144件,98件の「\textgt{態度}」をタグ付与し,そのうち3名が同じ部分にタグ付与したものは52件あった.\begin{table}[t]\begin{center}\input{10t8.txt}\vspace{\baselineskip}\input{10t9.txt}\end{center}\end{table}分析者間でのタグ付与の一致度は,2つの調査で評価した.表9に各分析者間の「\textgt{態度}」タグ付与一致率\footnote{一致率は,比較する分析者同士での同じ部分にタグを付与した割合の平均で求めた.}とコーエンの$\kappa$係数(Cohen1960)によりもとめた各分析者間での「\textgt{態度}」タグ付与の一致度\footnote{タグ付与される可能性のある部分281箇所を仮定し,共通でタグ付与しなかった部分も一致として計算した.281箇所は,1行あたりに含まれる態度の数の平均値を求め,それを全行数にかけあわせて計算した.}を示す.分析者1と3の態度タグ付与には高い一致が見られたが,分析者2は,分析者1および3との一致は中程度であった.\subsubsection{分析者間での理由タグ付与一致度}前節にて2名以上が同じ部分に「\textgt{態度}」が付与された87件それぞれの「\textgt{理由}」について,その一致度を調査した.「\textgt{理由}」のタグ付け部分が同じかどうかは著者が判定した.複数者が「\textgt{理由なし}」とした場合も一致していると数えた.87件中で「\textgt{態度}」を付与した2名以上が同じ部分に「\textgt{理由}」を付与したものでは86.2{\kern0pt}%の75件あった.中でも2名両者または3名全員が同じ部分に「\textgt{理由}」を付与したものは66.7{\kern0pt}%の58件あった.まったく一致しないものは13.8{\kern0pt}%の12件あった.\begin{table}[t]\begin{center}\input{10t10.txt}\end{center}\end{table}分析者間での一致度を表10に示す.被験者間での「\textgt{理由}」付与について,7割以上の一致が確認された.感情表現のタグ付けは個々の判定者の主観による揺れを含むやや難しいタスクであるが,共通して認識される要素も少なくなく,本稿のタグ付けも一定の範囲で信頼性が確保されたと考える.\subsection{「理由」についての考察}態度のように主観的な情報では「いいですね」と思った「\textgt{理由}」は様々である.我々は,この理由こそが利用者の知りたい情報となるのではないかと考える.これは同一態度であってもその理由が異なれば,まったく違った情報になる場合があるからである.例えばストーリー重視で作品を探す利用者にとって,最も有用な情報となるのは,ストーリーの良さを理由にした「この作品はいいですね」などの肯定的表現である.このことから態度がどんな理由で表明されたかが,作品レビューの感情表現をもとに作品を検索する際には重要となり,かつ利用者がそのレビューを信頼し,参考にできるかどうかに関連すると仮説を立てた.そこで我々は,「\textgt{理由}」の働きを確認するため,次節以降で追加分析を行った.
\section{「理由」の特性の分析}
5.1節では,レビューに対して評価がつけられているAmazon.co.jpにて,参考になるレビューと参考にならないレビューとで「\textgt{理由}」の出現に違いがあるのかを示した.5.2節では「\textgt{理由}」が同じ作品に同じ感情を感じた場合であっても様々であることを調べ,「\textgt{理由}」を提示することの必要性を示した.5.3節では異なるジャンルである新聞記事にて,「\textgt{理由}」がどのように存在するのかを調査し,そこから「\textgt{理由}」の重要性を分析した.これらの分析により,作品検索において利用される作品レビューが参考になるかどうかという面での「\textgt{理由}」の重要性を示した.\subsection{「理由」は利用者に求められているか}Amazon.co.jp\footnote{Amazon.co.jp,http://www.amazon.co.jp/}のカスタマーレビューには,そのレビューが参考になったかどうかの投票システムがある.これを用いて,感情表現の「\textgt{理由}」が明記してあるレビューとそうでないレビューでは,参考になる度合いが違うかどうかを調査した.2004年書籍ベストセラー上位5冊の書籍について,書かれてから1ヶ月以上経過しているレビューから,それぞれ最も参考になっているレビュー10件,最も参考になっていないレビュー10件,計100件のレビューに感情表現のタグ付けを行い,その内容を比べた.タグ付けは著者が行った.それぞれのレビューに含まれた感情表現のうち,何件が「\textgt{理由}」を持つかを調べた結果を表11に示す.参考になったレビューには,参考にならないものに比べ,「\textgt{態度}」と「\textgt{理由}」ともに多く含まれていた.表11で示したように参考になったレビューに「\textgt{理由}」が含まれている割合は36.9{\kern0pt}%である.参考にならないレビューで「\textgt{理由}」が含まれる割合は24.5{\kern0pt}%であり,両者にはカイ二乗検定により優位水準5{\kern0pt}%で優位差があった.このことからも,参考になったレビューには理由が含まれる割合が高いといえる.参考になったレビューには,好意的なもの,批判的なものも含め,なぜそう思ったのか,つまり「\textgt{理由}」をわかりやすく書いてあるものが多かった.また「\textgt{理由}」以外にも簡単なあらすじや,どんな人に最適かが書かれているものが多かった.それに対して参考にならないレビューでは,単に「面白い」や「つまらない」と書いてあるものや,参考になったものに比べ理由が不明確であるもの,さらに書籍とは関係のない内容などが多く,利用者にとって有効な情報になっていないと考える.\begin{table}[b]\begin{center}\input{10t11.txt}\end{center}\end{table}この結果から,参考になるレビューには参考にならないレビューよりも「\textgt{理由}」が記述されている「\textgt{態度}」が多く,参考になるものとならないものを区別するひとつの手がかりになっているのではないかと考えた.\subsection{「理由」には多様性があるか}同じ「\textgt{対象}」,同じ「\textgt{態度}」で「\textgt{主体}」が異なる場合において,「\textgt{理由}」に多様性があるかを確認するため,新たなテキストを用いて詳しく分析した.これはある作品に対して同様に「面白かった」という結論を示している作品レビューにも参考にできるものとできないものがあるのは,「\textgt{理由}」の多様性に一因があるのではないかと考えたためである.\begin{table}[b]\input{10t12.txt}\end{table}BSCではこの条件にあてはまる例が確認できなかったため,gooブログ検索\footnote{gooブログ検索,http://blog.goo.ne.jp/}を用いて検索した,映画「交渉人真下正義」および「チャーリーとチョコレート工場」に関する作品レビューを新たなコーパスとして利用した.同じ「\textgt{対象}」に同じ「\textgt{態度}」を表すテキストとして,「楽しめた」という感情表現の記述があり,なおかつ「\textgt{理由}」の記述があるもので,「交渉人真下正義」および「チャーリーとチョコレート工場」に関する作品レビューをそれぞれ10件ずつ,計20件選択した.これを映画レビューコーパスと呼ぶ.映画レビューコーパスへの構成要素のタグ付けは著者が行った.映画レビューコーパスのテキスト中の「楽しめた」という感情表現に対応する「\textgt{理由}」を表12に示す.同じ作品を「\textgt{対象}」とし,同じ「\textgt{態度}」を感じたとしても,人によりその「\textgt{理由}」が異っている.これは同じ作品に対し「楽しめた」という感情を持ったとしても,人によってそれを感じる部分(場面)が違うためである.実際に「\textgt{理由}」とされた内容を見ていくと,「交渉人真下正義」ではテンポやノリ,ドキドキ感が挙げられており,この映画の特徴の中でも楽しめた部分を指している.「チャーリーとチョコレート工場」では世界観や役者の演技などが挙げられており,前者の「交渉人真下正義」とは異なる「楽しめた」理由が示されている.このような「\textgt{理由}」の多様性が参考にできるものとそうでない作品レビューを生み,結果として「\textgt{理由}」が利用者にとって必要とされていると考える.\subsection{異なるジャンルにおける「理由」の特徴}作品レビューにおける「\textgt{理由}」の特徴を明確にするために,異なる文書ジャンルでの「\textgt{理由}」について比較分析を行った.異なる文書ジャンルとして新聞記事(社説を含む)をとりあげた.この分析において作品レビューはBSCを,新聞記事は,一例としてGoogleニュース日本版\footnote{Googleニュース日本版,http://news.google.co.jp/}で上位にランキングされていた30件を利用した.これを新聞記事コーパスと呼ぶ.新聞記事コーパスにおける構成要素のタグ付けは筆者が行った.新聞記事コーパスのテキストには感情表現がほとんど含まれないため,ここではBSCにおける主観表現の「\textgt{理由}」と,新聞記事コーパスにおける主観表現の「\textgt{理由}」を比較分析した.BSC全体で「\textgt{理由}」が653件中151件,23.1{\kern0pt}%出現していたのに対し,新聞記事コーパスでは73.2{\kern0pt}%で出現していた.両者にはX二乗検定にて優位水準1{\kern0pt}%で有意差が見られ,新聞記事コーパスのほうが「\textgt{理由}」が出現する確率が高い.これは新聞記事では読み手に納得,理解させることや,記事の信頼性が問われるため,「\textgt{理由}」を記述することで読み手に訴えかけているのではないかと考えた.またBSCには客観理由が44.4{\kern0pt}%,主観理由が49.0{\kern0pt}%と同じ程度で出現していたのに対し,新聞記事コーパスでは主観理由が44.3{\kern0pt}%,客観理由が55.6{\kern0pt}%であった.これについては,同じくX二乗検定にて優位水準5{\kern0pt}%までは有意差があると言えず,有意水準10{\kern0pt}%ではじめて有意差があるといえた.ただし,この中で10件ある郵政民営化問題と解散総選挙問題だけを取り上げてみると,客観理由は75.0{\kern0pt}%にもなり,記事の内容によって書き手の主観が「\textgt{理由}」になりやすいニュースと,そうでないニュースがある.BSCにおける「\textgt{理由}」において,客観理由ではストーリーや登場人物の行動などの作品の内容を「\textgt{理由}」として書き手の感情が表明されたケースが多かった.主観理由では,「物語の力強さ」「まるで自分も登場人物の一人になったかのよう」など,書籍に書かれている内容や映画に映っている内容以外に対する書き手の考え,状況,様子を「\textgt{理由}」として,書き手の感情を表明していた.BSCに比べ新聞記事コーパスは小規模であるが,異なるジャンルにおける「\textgt{理由}」の特徴の違いが示唆された.
\section{被験者実験}
\subsection{「理由」の働きと重要性に関する被験者実験}感情表現の「\textgt{理由}」が作品レビューを読む利用者にとってどのような働きをしているのかを分析するために,被験者実験を行った.被験者は,都内の大学生16名であり,8名ずつの2グループに分けて行った.グループXは文系女子大の学生8名,グループYは理工系の男子学生8名である.被験者に映画に関する作品レビューを読んでもらい,見る映画を選択する上で参考になる部分に下線を付与してもらった.実験手順は次の通りである.I.事前アンケートII.被験者による下線付与III.フォーカスグループインタビュー被験者実験により,5節で示した「\textgt{理由}」の重要性に関して,実際に作品レビューがどのように読まれているかという面から分析する.\subsubsection{事前アンケート}被験者のインターネット利用時間などを調べた.主要な回答結果を表13に示す.\subsubsection{被験者による下線付与}分析対象は,表14に示す3つの映画の各々について,ブログに書かれた作品レビューを10件ずつ,計30件である.作品レビューはgooブログ検索[11]を用いて各映画のタイトルで検索した結果の上位から,主に映画について書かれているものを10件選択した.30件の作品レビューの書き手は全て異なる.各映画にはM1〜M3,各作品レビューにはR1〜R30というIDを付与した.R1〜R10はM1の,R11〜R20はM2の,R21〜R30はM3の作品レビューである.この実験に用いた映画の作品レビューの集合を実験用レビューと呼ぶ.実験用レビューを分析するためのタグ付けは筆者が行った.実験用レビューの詳細を表15に示す.16名の被験者に提示した実験用レビューは同じものであるが,提示する順番による結果への影響を考慮し,提示した順は被験者それぞれで異なっている.調査はグループごとに8名ずつまとめて行い,グループXとグループYの調査日時,調査場所は異なっている.各被験者は,3つの映画についての情報を探しており,その情報をもとに映画を見るかどうか決めようとしている状況を想定するよう求めた.\begin{table}[p]\begin{center}\input{10t13.txt}\vspace{\baselineskip}\input{10t14.txt}\vspace{\baselineskip}\input{10t15.txt}\end{center}\end{table}実験には実験用レビューを1件ずつ紙に印刷したものを用いた.被験者には,1件の作品レビューの中で被験者が参考にできると感じた部分があればそこに下線を,さらにその作品レビューの中で特に参考になった部分があれば下線と丸印を付与するよう求めた.被験者が提示された順に作品レビューを読み,下線を付与する.作業時間に制限はないが,作業は1つの作品レビューずつ行い,次の作品レビューに進んだ後で前の作品レビューに戻ることはできない.1映画に関する10件の作品レビューについて作業が終わった時点で,その10件中で最も参考となった作品レビューを選択し,その理由を回答してもらった.この作業を3つの映画に関して行った.被験者間で下線付与した部分が重なり,かつ著者が同じ内容に下線が引かれていると判断した場合,同じ箇所に対する下線とした.以下に実例を示す.\vspace{0.25\baselineskip}\mbox{\vtop{\hbox{やっぱり期待外れで}{\hruleheight0.25pt}\kern2pt{\hruleheight0.25pt}}\vtop{\hbox{ありましたよ。}\kern2.25pt{\hruleheight0.25pt}}…ア}\vspace{0.25\baselineskip}\mbox{\vtop{\hbox{とても}{\hruleheight0.25pt}\kern4.25pt{\hruleheight0.25pt}}\vtop{\hbox{ほのぼのとした良い}{\hruleheight0.25pt}\kern2pt{\hruleheight0.25pt}\kern2pt{\hruleheight0.25pt}}\vtop{\hbox{映画。}\kern2.25pt{\hruleheight0.25pt}\kern2pt{\hruleheight0.25pt}}…イ}\vspace{0.5\baselineskip}アは2つの下線を,イでは3つの下線を同じ部分に下線付与したものとして扱った.これは,まったく同じ部分に下線が引かれていなくとも,構成要素として関連性がある部分を分離して考え難かったためである.\begin{table}[t]\begin{center}\input{10t16.txt}\end{center}\end{table}\subsection{フォーカスグループインタビュー}被験者の参考にする部分に対する考えを明らかにするために,作業終了後に休憩を挟んだ後,グループごとの被験者全員に対してフォーカスグループインタビューを行った.フォーカスグループインタビューでは,グループの8名全員にひとつの部屋に入ってもらい,表16に示す主な質問を軸にして,被験者全員に自由に発言を行ってもらった.被験者から新たな議論の種がまかれた場合,その内容について我々が用意した質問と同じように議論してもらった.モデレータは著者がつとめた.会場では机をコの字型に並べ,被験者間の発言の様子がわかるようにした.
\section{被験者実験の結果と考察}
\subsection{事前アンケート}表13より,グループXとグループYでは趣味としてインターネットを使う時間が大きく違う.また,グループXがネット上の情報を参考として映画を見るのに対し,グループYはあまり下調べもネット上の情報を参考にもしていない.\subsection{被験者による下線付与}表17は,実験用レビューと下線が付与された部分の特徴である.実験用レビューへの感情表現のタグ付けは筆者が行った.表17は最も参考となる作品レビューを選んだ理由である.表17,表18中のR10,R17,R23,R28は最も参考になるとされた作品レビューのIDである.参考とする部分の下線の数には,特に参考となった部分の下線の数も含まれる.\begin{table}[b]\input{10t17.txt}\end{table}\subsection{グループ間での下線付与の差異}表13に示したように,被験者両グループの性質は異なる.しかし被験者により下線付与された部分の性質に差はなかった.被験者にとって重要な部分は,「\textgt{態度}」や「\textgt{理由}」を含み映画の感想を記述する部分と,「\textgt{態度}」や「\textgt{理由}」を含まず映画の内容や特徴を説明する部分に大別でき,それは被験者の性質に関わらなかった.表17に示すように,実験用レビュー全体で「\textgt{態度}」と「\textgt{理由}」は高い確率で下線付与されており,これも被験者の性質に関わらず参考とすべき情報として認識されていた.また,どちらのグループも最も参考になる作品レビューとして選んだものは作品レビューR10,R17,R23およびR28で共通していた.\subsection{被験者間での下線付与の差異}「\textgt{態度}」と「\textgt{理由}」には多く下線付与されており,被験者間でも下線付与の傾向に顕著な差はなかった.「\textgt{態度}」と「\textgt{理由}」以外の下線付与部分では,映画のストーリーの記述が多かった.ただし,一部の被験者は下線を付与しなかった.これは後のフォーカスグループインタビューで,僅かなストーリーの記述でもネタバレとして敬遠するためであることがわかった.映画M2の作品レビューには「虫が苦手な人は見ないほうがいいかも」との記述があり,複数の被験者から特に参考となる下線がひかれた.またM3の作品レビューでの「アメリ好きにおすすめ」といった記述も同様であった.特に参考となる部分については,キャラクター重視もあれば,ストーリー重視もあり,他にも被験者各々が気になる観点について下線が引かれることがわかった.このことから被験者の趣味趣向や知識が強く反映され,被験者それぞれにとって異なる部分が選ばれるとわかった.実験用レビューに出現した全ての感情表現の「\textgt{態度}」337箇所中,86.6{\kern0pt}%にあたる292箇所,全ての「\textgt{理由}」146箇所中,79.4{\kern0pt}%にあたる116箇所で下線付与された.「\textgt{態度}」と「\textgt{理由}」どちらも無い部分に付与された下線は全下線338箇所中の32.2{\kern0pt}%にあたる125箇所で,映画を見に来た人の様子による事実報告や映画のストーリー,特徴的な映画の場面を実体験から解説している部分への付与が多かった.特に参考となる下線が付与された部分の特徴を調べると,「\textgt{態度}」と「\textgt{理由}」がそろっている部分に付与されたものが41.4{\kern0pt}%,「\textgt{態度}」だけが37.7{\kern0pt}%だった.「\textgt{態度}」も「\textgt{理由}」も無い部分は20.9{\kern0pt}%だったことから,特に参考になる部分を選択するとき,「\textgt{態度}」と「\textgt{理由}」が出現するかどうかも関連していると考えられた.\subsection{最も参考となる作品レビュー}表17に示すように,特に参考となる作品レビューとされたR10,R17,R23,R28の4件はどれも文字数,下線数,特に参考となった下線数ともに多かったが,それ以外の特徴については一定の傾向が見られなかった.これら特に参考となる作品レビューには,選んだ理由を示した表18からもわかるように,被験者個々の趣味や嗜好に合致する点がわかりやすく記述されていたと考えられる.被験者によって最も参考となる作品レビューの内容や観点は異なっていることから,参考となる作品レビューではただ単に「この映画は面白かった」ということだけでなく,映画の中のどのような部分がどのように面白かったのかの記述が必要とされた.これは我々の主張する「\textgt{理由}」の部分に該当している.\begin{table}[p]\input{10t18.txt}\end{table}\subsection{フォーカスグループインタビュー}フォーカスグループインタビューでは,表16の質問を中心に議論してもらった.その結果,被験者が参考になる情報を選ぶ基準として主に以下の8点があげられた.\maru{1}映画の上映場所,日時,長さがわかる\maru{2}出演者がわかる\maru{3}あらすじ,見所がわかる\maru{4}映画がどんな人に向けられているか\maru{5}映画をみてどう思ったか\maru{6}作品レビューの書き手の人物像がうかがえる部分\maru{7}決め付けではなく,筋道立った記述により共感できる/できないの判断ができる部分\maru{8}〜のような映画など,比較対象がわかるこれらの点は,このような部分に下線付与しなかった被験者からも支持された.\maru{1}〜\maru{3}については,作品レビューでなくとも得られる事実報告のような内容の記述である.これに対して\maru{4}〜\maru{8}は,作品レビューでなければ得られない,主観的な内容の記述である.フォーカスグループインタビューの内容から,我々は以下のような仮説を立てた.友人や知人からのクチコミのほうが,ネットに書き込まれた情報よりも信頼できるという意見が多かったことから,被験者にとって最も参考としやすい情報は「書き手がどんな趣向でどのような性質を持つ人かわかっていること」である.その中でも,なぜ書き手がそういった考えを記述したか理解するため,書き手の考えを理解する手がかりになる具体的な「\textgt{理由}」の記述があるかどうかは,書き手の性質がわからないときに,大きな判断材料となる.ブログなどに書かれた作品レビューに理由のない態度のみが記述されている場合,その作品レビューは理由があるものに比べて参考にし難く,利用者がその内容を参考にできるかどうかを判断することができない.それに対して,明確な比較対象や具体的な説明,さらには筋道立てた内容があれば,利用者はそれに共感できるかどうかを判断することができる.共感できれば作品への興味が増幅され,共感できなければ作品への興味が薄れる.こういった判断ができる作品レビューには理解や信頼が生じ,参考になる情報となる.\subsection{「理由」の分析のまとめ}実験と分析の結果から,作品レビューの利用者は「\textgt{理由}」を手がかりとして,書き手の嗜好や性質および作品の性質が強く影響する作品レビューのテキスト内容が自分にとって信頼できるのか,参考にできるのかを判断していると考えられた.「\textgt{態度}」と「\textgt{理由}」の組み合わせは,作品レビューのような作品レビューにおいて,とても重要な要素である.本稿にて行われた実験においては,被験者が作品レビューを見て映画を見るかどうか決める際には,まず「\textgt{理由}」や「\textgt{態度}」,および事実報告の記述の有無によってその作品レビューが参考になるかどうかを,さらに「\textgt{理由}」や「\textgt{態度}」の内容に共感できるかどうかにより,その映画についての最終的な判断が下されていた.
\section{おわりに}
本稿では,まずWeb上の作品レビュー82件に対し構成要素を人手でタグ付けることで,感情表現のモデルについて検討し,「\textgt{態度}」「\textgt{主体}」「\textgt{対象}」「\textgt{理由}」の上位要素からなる4つ組みのモデルを提案した.「\textgt{主体}」「\textgt{対象}」については省略されるものとされないパタンが,「\textgt{理由}」については明確なものと暗黙的なもの,さらに主観的なものと事実にもとづくものに着目した.次に作品レビューにおける「\textgt{理由}」の重要性に注目し,その特徴と働きを調べるため,別のテキストによる追加分析とフォーカスグループインタビューを行った.その結果,書籍や映画などを対象とした書き手の嗜好や状況がその感想に強く反映される作品レビューのようなテキストでは,書き手の態度だけでなく,感情表現の構成要素が重要とわかった.特に理由が嗜好や性質のわからない第三者が書いたテキストを利用者が理解し,鑑賞する作品を選択するのに参考にする上で重要だとわかった.また,あらすじのような情報も作品レビューにおいて鑑賞する作品を選択するのに参考になる情報とわかった.今後は,本稿にて定義した各要素の構造を分析し,自動抽出する手法について検討する.またフォーカスグループインタビューにおける質的な分析を行った点について,量的な調査から客観的な分析も必要である.今回はWeb上のテキストを中心に分析を行ったが,テキスト媒体や購読対象の違いによる特性についても分析を行う予定である.今回の調査によってあらすじなどの記述も作品レビューにおいて重要であるとわかったが,その扱いについても今後議論する必要がある.\acknowledgment本研究を進めるにあたり,多くの有益なコメントを下さった豊橋技術科学大学情報工学系の関洋平助手,および本論文の査読者の方に深く感謝します.\section*{参考文献}\noindent\hangafter=1\hangindent=2zwAAAI(2006).``SpringSymposiumonComputationalApproachestoAnalyzingWeblogs.''Stanford,CA,USA.\noindent\hangafter=1\hangindent=2zwACL(2006).``SentimentandSubjectivityinText.''\textit{WorkshopattheAnnualMeetingoftheAssociationofComputationalLinguistics},Sydney.\noindent\hangafter=1\hangindent=2zwCohen,J.(1960).``ACoefficientofAgreementforNominalScales.''\textit{EducationalandPsychologicalMeasurement},\textbf{20},pp.~37--46.\noindent\hangafter=1\hangindent=2zwEAAT(2004).``ProceedingsofAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications.''Stanford,TechnicalReportSS-04--07.\noindent\hangafter=1\hangindent=2zwEACL(2006).``ProceedingsoftheWorkshoponNEWTEXT-Wikisandblogsandotherdynamictextsources.''Trento,Italy.\noindent\hangafter=1\hangindent=2zw言語処理学会(2005).第11回年次大会発表論文集テーマセッション感情・感性の言語学.\noindent\hangafter=1\hangindent=2zw言語処理学会(2006).第12回年次大会ワークショップ「感情・評価・態度と言語」論文集.\noindent\hangafter=1\hangindent=2zwGlaser,B.G.andStrauss,A.L.(1967).``TheDiscoveryofGroundedTheory.''Chicago,Aldine.\noindent\hangafter=1\hangindent=2zwShanahan,J.G.,Qu,Y.andWiebe,J.(2005).``ComputingAttitudeandAffectinText:TheoryandApplications(TheInformationRetrievalSeries).''Springer.\noindent\hangafter=1\hangindent=2zwWiebe,J.,Wilson,T.andCardie,C.(2005).``Annotatingexpressionsofopinionsandemotionsinlanguage.''\textit{LanguageResourcesandEvaluation},\textbf{39},(2--3),pp.~165--210.\noindent\hangafter=1\hangindent=2zw木戸光子著,佐久間まゆみ編(1989).``文章構造と要約文の諸相第7章文の機能による要約文の特徴.''くろしお出版,pp.~112-125.\noindent\hangafter=1\hangindent=2zwKim,S.M.andHovy,E.(2004).``Determingthesentimentofopinions.''\textit{ProceedingofConferenceonComputationalLin-guistics(CoNLL-2004)},pp.~1367--1373.\noindent\hangafter=1\hangindent=2zwKeith,F.P.著,川合隆男監訳(2005).``社会的調査入門量的調査と質的調査の活用.''慶應義塾大学出版会.\noindent\hangafter=1\hangindent=2zw小林のぞみ,乾健太郎,松本裕治,立石健二,福島俊一(2005).``意見抽出のための評価表現の収集,自然言語処理.''\textbf{12}(2),pp.~203--222.\noindent\hangafter=1\hangindent=2zwLiu,H.,LiebermanandH.,Selker,T.(2003).``AModelofTextualAffectSensingusingReal-WorldKnowledge.''ProceedingsofIUI2003.\noindent\hangafter=1\hangindent=2zwLandis,J.R.andKoch,G.G.(1977).``Themeasurementofobserveragreementforcategoricaldata.''\textit{Biometrics},\textbf{33},pp.~159--174.\noindent\hangafter=1\hangindent=2zw森田良行,松木正恵(1989).``日本語表現文型:用例中心・複合辞の意味と用法.''アルク.\noindent\hangafter=1\hangindent=2zw中村明編(1993).``感情表現辞典.''東京堂出版.\noindent\hangafter=1\hangindent=2zw中山記男,江口浩二,神門典子(2005).``感情表現のモデル.''言語処理学会第11回年次大会発表論文,pp.~149--152.\noindent\hangafter=1\hangindent=2zw那須川哲哉,金山博(2004).``文脈一貫性を利用した極性付評価表現の語彙獲得.''情報処理学会研究報告``自然言語処理(NL162-16).''pp.~109--116.\noindent\hangafter=1\hangindent=2zw大塚裕子(2004).``自由記述アンケート回答の意図抽出および自動分類に関する研究.''神戸大学大学院自然科学研究科博士論文.\noindent\hangafter=1\hangindent=2zw杉田茂樹,江口浩二(2001).``目録データベースとWebコンテンツの統合的利用方式.''情報処理学会研究報告情報学基礎(NL142-),pp.~153--158.\noindent\hangafter=1\hangindent=2zw田中努,徳久雅人,村上仁一,池原悟(2004).``結合価パターンへの情緒生起情報の付与.''言語処理学会第10回年次大会発表論文,pp.~345--348.\noindent\hangafter=1\hangindent=2zwTurney,P.D.(2002).``Thumbsup?thumbsdown?SemanticOrientationAppliedtoUnsupervisedClassificationofReviews.''\textit{InProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2002)},pp.~417--424.\noindent\hangafter=1\hangindent=2zw立石健二,石黒義英,福島俊一(2004).``インターネットからの評判情報検索.''人工知能学会誌,\textbf{19}(3),pp.~317--323.\noindent\hangafter=1\hangindent=2zw舘野昌一(2002)``「お客様の声」に含まれるテキスト感性表現の抽出方法.''情報処理学会研究報告自然言語処理(NL153-14),pp.~105--112.\begin{biography}\bioauthor{中山記男}{2001年芝浦工業大学工学部工業経営学科卒業.2003年芝浦工業大学大学院工学研究科電気工学専攻修士課程修了.同年,総合研究大学院大学情報学専攻博士課程に入学,現在に至る.自然言語処理の研究に従事.}\bioauthor{神門典子}{1994年慶應義塾大学文学研究科博士課程修了.博士(図書館・情報学).1995年米国シラキウス大学情報学部客員研究員,1996〜1997年デンマーク王立図書館情報大学客員研究員.1998年学術情報センター助教授.2000年国立情報学研究所助教授,2002年より総合研究大学院大学助教授を併任,2004年より国立情報学研究所教授並びに総合研究大学院大学教授,現在に至る.テキスト構造を用いた検索と情報活用支援,言語横断検索,情報検索システムの評価等の研究に従事.ACM-SIGIR,ASIS{\&}T,言語処理学会,日本図書館情報学会各会員.}\end{biography}\biodate\end{document}
| |
V06N03-03 | \section{はじめに}
label{intro}テキストは単なる文の集まりではなく,テキスト中の各文は互いに何らかの意味的関係を持つ.特に意味的関係の強い文が集まって談話セグメントと呼ばれる単位を形成する.文が互いに意味的関係を持つように,これらの談話セグメント間にも意味的な関係が存在する.テキストの全体的な談話構造はこの談話セグメント間の関係によって形成される.そのため,テキストのセグメント境界を検出するテキストセグメンテーションの研究は,談話構造解析の第一ステップであると考えられる\cite{Grosz:86}.また,最近では,テキストセグメンテーションの研究は情報検索の分野においても応用されている.長いテキスト中には複数のサブトピックが存在しているため,テキスト全体を扱うよりも,テキストをセグメントに分けた方が検索対象として良いと考えられるためである\cite{Callan:94,Salton:93,Hearst:93}.セグメント境界の検出では,テキスト中の表層的な情報が利用されることが多い.表層的な情報は比較的容易に抽出可能であり,特別な領域知識を必要としないので一般的な利用が可能だからである.多様な表層的情報の中で,意味的に類似した単語間の表層的関係である語彙的結束性\cite{Halliday:76}が,これまで多くのテキストセグメンテーションの研究に使用されている\cite{Morris:91,Kozima:93,hearst:94b,okumura:94a,reynar:94}.OkumuraとHonda\cite{okumura:94a}は語彙的結束性の情報だけでは充分ではなく,他の表層的情報を取り入れることによって,テキストセグメンテーションの精度が向上することを報告している.本稿では,複数の表層的手がかりとして,接続詞,照応表現,省略,文のタイプ,語彙的結束性などを使用して日本語テキストのセグメント境界を検出する手法について述べる.セグメント境界の検出では,手がかりから得られるスコアを基に,各文間の境界へのなりやすさ(あるいはなり難さ)を表す文間のスコアを与えることが多い.この手がかりを複数設定し,組み合わせて使用する手法は数多く存在する\cite{McRoy:92}が,各手がかりの出現がセグメント境界の検出に影響する度合が異なるため,各手がかりのスコアをそのまま使用せず,各手がかりの重要度に応じた重みをかけ,重み付きスコアの総和を文間のスコアとする手法が比較的良く用いられる.重み付きスコアの総和を文間のスコアとして使用する手法においては,各手がかりに最適な重み付けを行うことが,検出精度向上にとって重要になる.複数の表層的手がかりを用いてセグメント境界の検出を行う過去の研究\cite{Kurohashi:94,Sumita:92,Cohen:87,Fukumoto1}では,各手がかりの重みは直観あるいは,人手による試行錯誤によって決定される傾向がある.しかし人手による重みの決定はコストが高く,決定された重みを使用することで,必ずしも最適あるいは最適に近い精度が得られるという保証がない.そのため人手による重み付けを避け,少なくとも最適に近い値を得るために,自動的に重みを決定する方が望ましいと考えられる.そこで本研究では,正しいセグメント境界位置の情報が付いた訓練テキストを用意し,統計的手法である重回帰分析を使用することで各表層的手がかりの重要度の重みを自動的に学習する.しかし,重みの自動学習手法では訓練データの数が少ない場合に学習精度が良くならないという問題がある\cite{Akiba:98}.また,訓練データに対してパラメータ(手がかり)の数が多い場合には,学習された値が過適合を起す傾向があるという問題が知られている.学習された重みが訓練データに対し過適合すると,訓練データ以外のテキストに適用した場合には良い精度が得られない.また,考えられる全ての表層的手がかりが,常にセグメンテーションにとって良い手がかりになるとは限らない.そこで,過適合の問題を解消するために,重みの学習と共に使用する手がかりの最適化も行う必要がある.有効な手がかりだけを選択することができれば,良い重みの学習ができ,セグメンテーションの精度が向上すると考えられる.本研究で重みの学習に使用する重回帰分析には,有効なパラメータを選択する手法が既にいくつか開発されている.そこで,本研究ではパラメータ選択手法の一つとして広く利用されているステップワイズ法を使用する.重回帰分析とパラメータ選択手法であるステップワイズ法を使用することにより,有効な手がかりのみを選択し,最適な重みを獲得できると考えられる.我々の主張を要約すると以下のようになる.\begin{itemize}\itemテキストセグメンテーションにおいて,複数の表層的手がかりの組み合わせは有効である.\item重回帰分析とステップワイズ法の使用によってテキストセグメンテーションにとって有効な手がかりの選択と重みの自動的な獲得が可能となる.\end{itemize}上記の主張の有効性を調べるため,いくつかの実験を行う.小規模な実験ではあるが,実験結果から我々のアプローチの有効性を示す.以下,2節では本研究でテキストセグメンテーションに使用する表層的手がかりについて説明する.3節では複数の手がかりの重みを自動的に決定する手法について述べる.4節では自動的に有効な手がかりを選択する手法について述べる.5節では,本研究のアプローチによる実験について記述する.
\section{テキストセグメンテーションに使用する表層的手がかり}
\label{sec:cues}テキスト中には,セグメント境界あるいは非境界の検出に使用できると考えられる多くの表層的な手がかりが存在する.しかし,良い結果を得るために,どの手がかりを使用するべきなのかは明らかでない.そのため我々はまず,使用可能な全ての表層的な手がかりを数え挙げる.次に,有効な手がかりを選択し,その手がかりを組み合わせることによってテキストセグメンテーションを行う.まず,本研究で用いるテキストセグメンテーション手法について説明する.ここで,文$n$と文$n+1$の間を$p(n,n+1)$と表わすことにする.$n$は$1$から「テキストの$文数-1$」の範囲を取る.各文間$p(n,n+1)$は,セグメント境界の候補となる.この文間ごとに,式(\ref{equ:sumscr})で表わすように,各手がかり$i$の重み付きスコア$w_{i}\timesscr_{i}(n,n+1)$の合計スコアである$scr(n,n+1)$を計算する.なお,各手がかりのスコア$scr_{i}(n,n+1)$には,初期値として0を与える.\begin{equation}\label{equ:sumscr}scr(n,n+1)=\sum_{i=1}^{I}w_{i}\timesscr_{i}(n,n+1)\end{equation}高いスコア$scr(n,n+1)$を持つ文間$p(n,n+1)$が,セグメント境界の候補として優先され,スコア順にセグメント境界として選択される.本研究では,以下の表層的手がかりを使用する.\begin{itemize}\item主語を表わす助詞の出現($i=1..4$).\\文間$p(n,n+1)$の前の文($n$)もしくは後の文($n+1$)に,副助詞「は」もしくは格助詞「が」が出現した場合,それぞれ$scr_{i}(n,n+1)$に1を加える.ただしテキスト中には「は」や「が」の出現する文が多数存在し,すべてを抽出してもあまり意味がないと考えられる.そこで後述する語彙的連鎖を構成する自立語に付属する場合だけを考慮する.\item接続詞の出現($i=5..10$).\\以下に示す6つの接続詞のどれかが文$n+1$の文頭に出現した場合,$scr_{i}(n,n+1)$に1を加える.\begin{itemize}\item「添加」型(例,しかも,そして)\item「強調」型(例,むしろ,とにかく)\item「説明」型(例,例えば,つまり)\item「順接」型(例,ゆえに,だから)\item「逆接」型(例,しかし,だが)\item「転換」型(例,ところで,それでは)\end{itemize}接続詞の分類は所\cite{tokoro},国語文法\cite{kougobunpou}を参照し,機能によって著者が行った.\item照応表現の出現($i=11..13$).\\以下に示す3つの前方照応詞のどれかが,文$n+1$の文頭に出現した場合,$scr_{i}(n,n+1)$に1を加える.\begin{itemize}\item「あ」型(例,あの,あんな)\item「こ」型(例,この,こんな)\item「そ」型(例,その,そんな)\end{itemize}\item主語の省略($i=14$).\\文$n+1$に主語が出現しない場合,$scr_{i}(n,n+1)$に1を加える.\item同一タイプの文の連続($i=15..18$).\\文$n$と$n+1$がどちらも同じタイプと判断される場合,$scr_{i}(n,n+1)$に1を加える.文のタイプは永野\cite{nagano},福本\cite{Fukumoto1}を参照し,文末表現を手がかりにして9つに分類した.このうち特に客観的な事実や事象を提示する「叙述文」および,判断や主張を強く提示する「判断文」と「断定文」の連続を特に区別し,それ以外の文タイプの連続を「その他」として以下の4種類に分ける.\begin{itemize}\item叙述文(例,〜ている,〜ません)\item判断文(例,〜に違いない,〜と判断する)\item断定文(例,〜のである,〜なのだ)\itemその他\end{itemize}\item語彙的連鎖の出現($i=19..22$).\\語彙的連鎖とは,語彙的結束性を持つ語の連続のことをいう\cite{Morris:91}.語彙的連鎖はテキスト中に存在する意味的なまとまりを示すと考えることができる\cite{Morris:91,Barzilay:97}.そこで,語彙的連鎖の情報と,連鎖の範囲内で単語が出現しない部分であるギャップの情報を使用する.語彙的連鎖のギャップは,その区間では一時的に別の話題に移っていることを示していると考えられる.文$n$で連鎖が終わっているか,ギャップが始まる場合と,文$n+1$で連鎖が始まっているか,ギャップが終わっている場合に,それぞれ$scr_{i}(n,n+1)$に1を加える.なお,ギャップ長を1文とし,連鎖の範囲内で1文以上単語が出現しない場合にすべてギャップとする.また,語彙的結束性を持つ語をシソーラス上の同一クラスに属する語として計算する.シソーラスには,角川類語新辞典\cite{kadokawa}を使用する.\item語彙的連鎖内の単語につく修飾語の変化($i=23$).\\文$n+1$で語彙的連鎖を構成する単語に付く修飾語が変化している場合,$scr_{i}(n,n+1)$に1を加える.同一の語彙的連鎖を構成する語につく修飾語が変化すると,これまで述べられていた話題の別の側面について述べていると考えることができ,新しい話題に変化していると考えられる.\end{itemize}上に挙げた手がかりのスコアは,各文間のセグメント境界への成り易さもしくは成り難さを示す文間のスコアを計算するために使用される.例えば,副助詞「は」の出現は,セグメント境界への成り易さを表わし,照応表現の出現や同じタイプの文の連続は,境界への成り難さを表わすと考えられる.各手がかりの出現がセグメント境界の検出に影響する度合が異なるため,各手がかりのスコアには重要度に応じた重みをかける必要がある.次節では,各手がかりへの重み付け手法を示す.\newpage
\section{複数の手がかりへの自動的な重み付け}
label{sec:weight}各手がかりに重みを付ける手法としては,少なくとも次の2つが考えられる.1つは人手による重み付けであり,もう1つは自動的な計算である.人手による重み付けの場合,各手がかりの重みは専門家による直観もしくは試行錯誤によって決定されることが多い.しかし,この作業は非常に手間がかかる上に,新しい領域のテキストをシステムが処理する場合,重みの調整を柔軟に行うことができない.また,人手によって決定された重みは客観性に欠け,最適あるいはほぼ最適な性能を引き出すという保証がない\cite{Alshawi:94,Rayner:94}.一方,自動的な計算の場合,人手による労力を省くことができ,新しい領域への適用も容易に行える.また,決定された値が客観性を持ち少なくとも最適に近い値を得られると考えられる.このようなことから,重み付けを自動化することにはメリットがあると考えられる.本研究では,自動的な重み付けのために,正解セグメント境界の情報が付加されたテキストを用意し,訓練テキストとして使用する.各手がかりの自動的な重みの推定には,統計的手法である重回帰分析\cite{Sen:90:a,Jobson:91}を使用する.重回帰分析は,ある変数(目的変数と呼ばれ,「結果」と考えられる)をもっとも良く推定あるいは予測するために役立つと考えられる複数の変数(説明変数と呼ばれ,「原因」と考えられる)の間に成り立つ関係式を求め,この関係式に基づいて説明変数の値から目的変数の値を予測したり,各説明変数の重要度を評価する分析手法である.関係式は,後述するように目的変数と説明変数の組を集めた観測データを基に計算される.本研究では,この目的変数が各文間の境界へのなりやすさを表すスコアに対応し,説明変数が各手がかりのスコアに対応する.また各説明変数の重要度の評価が各手がかりの重み付けに対応する.重回帰分析による重みの推定は以下のように行なわれる.訓練テキストの各文間$p(n,n+1)$に,次のような観測データがあるとする.\begin{table}[htbp]\begin{center}\caption{観測データ}\label{equ:kansoku}\begin{tabular}{|c|c|c|c|c|}\hline目的変数&\multicolumn{4}{|c|}{説明変数($i=1..I$)}\\\hline$S(1,2)$&$scr_{11}$&$scr_{21}$&$\cdots$&$scr_{I1}$\\$S(2,3)$&$scr_{12}$&$scr_{22}$&$\cdots$&$scr_{I2}$\\$\vdots$&$\vdots$&$\vdots$&$\ddots$&$\vdots$\\$S(N,N+1)$&$scr_{1N}$&$scr_{2N}$&$\cdots$&$scr_{IN}$\\\hline\end{tabular}\end{center}\end{table}ここで,$N$は文間の総数,$scr_{ij}$の説明変数が$I$個の手がかりから得られるスコアであり,$S(n,n+1)$の目的変数がセグメント境界へのなりやすさを表す文間のスコアである.この観測データから次の予測式$(\ref{equ:expect})$を計算する.\begin{eqnarray}\label{equ:expect}\hat{S}(1,2)=a+w_{1}scr_{11}+w_{2}scr_{21}+\cdots+w_{I}scr_{I1}\nonumber\\\hat{S}(2,3)=a+w_{1}scr_{12}+w_{2}scr_{22}+\cdots+w_{I}scr_{I2}\nonumber\\\vdots\hspace{1.0cm}\vdots\hspace{1.2cm}\vdots\hspace{1.2cm}\vdots\hspace{1.2cm}\ddots\hspace{1.0cm}\vdots\hspace{0.4cm}\nonumber\\\hat{S}(N,N+1)=a+w_{1}scr_{1N}+w_{2}scr_{2N}+\cdots+w_{I}scr_{IN}\nonumber\\\end{eqnarray}ここで$a$は定数項であり,$w_{1},\cdots,w_{I}$は回帰係数と呼ばれる.次に,予測式$(\ref{equ:expect})$の$\hat{S}(1,2),\cdots,\hat{S}(N,N+1)$と観測データ(表$\ref{equ:kansoku}$)の$S(1,2),\cdots,S(N,N+1)$との誤差を最小2乗法により最小にする.すなわち,\begin{equation}\label{equ:least_squares}Q\equiv\sum_{n=1}^N\{S(n,n+1)-(a+w_{1}scr_{1n}+\cdots+w_{I}scr_{IN})\}^2\end{equation}\noindentを計算し、式$(\ref{equ:least_squares})$が最小となる$a$および$w_{1},\cdots,{w_I}$を定め、それを推定された回帰係数とする.この回帰係数が各手がかりに対して決定された重みに対応することから,本研究でパラメータとして設定する手がかりの重み付けに重回帰分析を利用することができる.重回帰分析を使用して各手がかりに対する最適な重みを決定するためには,セグメント境界の$S(n,n+1)$には高い値を与え,逆に境界にならない文間の$S(n,n+1)$には低い値を与える必要がある.仮に各$S(n,n+1)$に実際のテキストの現象を反映した良い値を与えることができれば,より最適な性能を引き出すことができると考えられる.しかし,本研究で訓練データとして使用するテキストには正解境界位置の情報しか付加されていない.そこで正解境界の$S(n,n+1)$には$10$を与え,非境界の$S(n,n+1)$には$-1$を与えて重回帰分析を適用する.これらの値は,$S(n,n+1)$への値の与え方を4通りの組み合わせで行った予備実験の結果から選択した.関連研究として,\cite{Watanabe:96}が挙げられる.Watanabeはテキスト中の重要な文を選択することによる新聞記事の要約生成を行っている.重要文の選択のために,文の表層的特徴の重み付けを行い,重みの決定に重回帰分析を使用している.Watanabeの研究では,訓練テキストの各文の$S$に人間の被験者たちが重要であると判断した度合を与えている.本研究では$S$に対して同様の方法で値を与えることはしていない.訓練テキストの各文間について,セグメントへの成り易さ,成り難さを人間の被験者が判断することは,非常に困難でコストが高過ぎるためである.
\section{有効な手がかりの自動選択}
label{sec:select}セグメンテーションにとって,\ref{sec:cues}節で挙げた表層的手がかりが実際にどの程度有効かは明らかでない.有効でない手がかりを含めて重回帰分析で重みを計算すると悪影響の原因となる.そのうえ,訓練データの量に比べて,表層的手がかりが多過ぎる場合には,過適合の問題が発生する.一方,\ref{sec:cues}節で設定した手がかり全体の中から有効な手がかりだけを選択できれば,良い重みが決定できセグメンテーションの精度も向上すると考えられる.しかし,有効な手がかりを選択するには手がかりの有効度を計算する客観的な基準が必要になる.この客観的な基準の設定は難しい問題であるが,幸いにも,本研究で重みの計算に使用する重回帰分析では,多くのパラメータ選択手法が既に開発されている.そこで本研究では,パラメータ選択手法の一つで,もっとも一般的なステップワイズ法\cite{Jobson:91}と呼ばれるパラメータ選択手法を用いる.ステップワイズ法は,後述するアルゴリズムにより,重回帰モデルに加えることで良い推定ができると判断されたパラメータを加え,逆に別のパラメータが加えられたことにより,良い推定に役立たなくなったと判断されたパラメータを除去するという処理を繰り返し,最終的に有効なパラメータの組を選択する.パラメータの追加および削除の際に一般的に使用される判断基準は,各パラメータの重み$w_{i}$について個別に計算した$F$値に基づくものである.この個別の$F$統計値は以下の式で与えられる.\begin{equation}\label{equ:fvalue}\displaystyle{F_0=(\frac{w_i}{SE(w_i)})^2}\end{equation}ここで$SE(w_i)$は標準誤差と呼ばれ$w_i$の標準偏差を表す.この統計量の分布は自由度$(p,n-p-1)$のF分布に従う($p$はパラメータの数,$n$はデータの数を示す).よって$\displaystyle{F_0>=F_{(p,n-p-1)}(\alpha)}$ならば,有意水準$\alpha$でパラメータ$i$は有効であると判断される.ただし,この基準値$\displaystyle{F_{(p,n-p-1)}(\alpha)}$の計算が複雑であるため,一般的にはパラメータを追加する時の基準値を$F_{in}$とし,パラメータを除去する時の基準値を$F_{out}$として,それぞれに定数\footnote{$F_{in},F_{out}$の値は,$1.0$から$4.0$までの範囲から選んで与えるのが一般的であり,重要なパラメータを削除しないことに重点を置くなら小さい値,無駄なパラメータを取り込まないことに重点を置くなら大きな値を指定する.本研究では$F_{in},F_{out}$ともに$1.2$を与えている.}を与えてパラメータ選択を行う.ステップワイズ法のアルゴリズムは次のようになる.\begin{tabbing}ステップ1.\\\quad\=重回帰モデルに何もパラメータが含まれていない状態から開始\\ステップ2.\\\quad\={\bfif}(すべてのパラメータが含まれている)\\\>\quad\=取り込むパラメータはない.ステップ3へ\\\>{\bfelse}\\\>\quad\=残りのパラメータを1つづつ順番に採用し,F値を計算.\\\>\>F値最大のパラメータを選ぶ.\\\>\>{\bfif}($F値>F_{in}$)\\\>\>\quad\=そのパラメータを取り込む.ステップ3へ\\\>\>{\bfelse}\\\>\>\>取り込むべきパラメータはない.ステップ3へ\\ステップ3.\\\quad\=モデルに含まれているパラメータについてF値を計算.\\\>F値最小となるパラメータを選ぶ\\\>{\bfif}($F値>F_{out}$)\\\>\quad\={\bfif}(取り込むべきパラメータがない)\\\>\>\quad\=終了\\\>\>{\bfelse}\\\>\>\>ステップ4へ\\\>{\bfelse}\\\>\>そのパラメータをモデルから取り除きステップ3へ\\ステップ4.\\\quad\={\bfif}(すべてのパラメータが取り込まれている)\\\>\>終了\\\>{\bfelse}\\\>\>ステップ2へ\\\end{tabbing}ステップワイズ法以外に良く利用される手法として,変数増加法と変数減少法があるが,変数増加法では,一度採用されたパラメータは除去されることがなく,変数減少法では,一度除去されたパラメータは採用されることがないという問題がある.ステップワイズ法は両手法の問題点を改良した手法であるため,他の手法よりも良いパラメータ選択ができると考えられる.
\section{実験}
label{sec:experiments}これまでに述べた本研究の主張は以下のように要約できる.\begin{itemize}\itemテキストセグメンテーションにおいて,複数の表層的手がかりの組み合わせは有効である.\item重回帰分析とステップワイズ法の使用によってテキストセグメンテーションにとって有効な手がかりの選択と重みの自動的な獲得が可能となる.\end{itemize}本節では,本研究のアプローチの有効性を確かめるための実験を行う.実験には,日本語の国語の問題集から意味の切れ目を問う問題に使用された14テキストを使用する.問題は例えば,『次の文章を意味的に3つの部分に分けるとしたらどこで切れるか.境界になる個所を答えなさい』というようなものである.システムの性能はシステムの出力と問題集の解答を比較することで計算する.実験に使用する14テキストの平均境界候補数は20(12から47)であり,平均正解境界数は$3.4$(2から6)である.なお,以下の理由から,実験の正解として形式段落を使用していない.\begin{itemize}\item実験に使用する問題集のテキストのほとんどは,形式段落を示す字下げの情報をあらかじめ消してあり利用できないため.\item日本語のテキストの場合,形式段落の境界が必ずしも意味的な境界と一致するとは限らず,修辞的理由から形式段落に分けられる場合がしばしばあるため\cite{tokoro}.\end{itemize}実験では,システムは各文間のスコア$scr(n,n+1)$を値の高い順に出力する.システムの出力の上位$10\%,20\%,30\%$および$40\%$における精度を評価する.評価尺度には,再現率($Recall$)と適合率($Precision$)を使用する.$Recall$は全正解境界の内,システムによって正しく検出された境界の割合を示す.$Precision$はシステムが境界と検出した候補の内,実際に正解境界であるものの割合を示す.$Recall$と$Precision$は次式で表わされる.\begin{equation}Recall=\frac{システムにより検出された正解境界数}{全ての正解境界数}\end{equation}\begin{equation}Precision=\frac{システムにより検出された正解境界数}{システムが検出した全境界数}\end{equation}実験は以下の6通りについて行う.\begin{enumerate}\item語彙的連鎖の手がかり以外の手がかりによる実験.\\手がかり1から18および23を使用.\item語彙的連鎖の手がかりのみを使用した実験.\\手がかり19から22を使用.\item\ref{sec:cues}節で挙げた全ての手がかりを使用した実験.\\重みの決定は人手によって行う.\item\ref{sec:cues}節で挙げた全ての手がかりを使用した実験.\\重みの決定は重回帰分析によって自動的に行う.重回帰分析では,14テキストを2テキストづつ7グループに分け,6グループを訓練テキストとして使用し,残りの1グループを評価テキストとして使用する.評価用のテキストを変えることにより,7回のクロスバリデーション\cite{Weiss:91}を行い平均値で評価する.\itemステップワイズ法により選択された手がかりのみを使用した実験.\\\ref{sec:select}節で述べたように,訓練テキスト内で有効な手がかりの選択にステップワイズ法を使用する.手がかりの選択以外の手続きは全て4番目の実験と同じである.\item5人の被験者による実験.\\5人の被験者に対し,システムと同様の14テキストについて,セグメント境界位置を問う問題を解かせる.解答数は問題集の正解数を下限とし,それ以上であれば,被験者が自由に選んで良いとする.この実験により,テキストセグメンテーション実験の精度の上限の算出を試みる.この実験の結果によってセグメンテーションタスクの難易度が示されると考えられる\cite{Passonneau:93,Gale:92}.\end{enumerate}全ての実験結果を図\ref{fig:handm}と\ref{fig:regressm}および表\ref{tab:human}に示す.2つの図は14テキストに対するシステムの平均精度を示す.表\ref{tab:human}は5人の被験者によるセグメンテーション実験の結果を示す.表\ref{tab:human}がこのタスクにおける精度の上限を表すと考えられる.また,下限についても計算している(図\ref{fig:regressm}の``lowerbound'').下限はシステムがランダムにセグメント境界候補を選択した場合を考えることで計算することができる.この場合,precisionは各境界候補が正解になる平均確率と同じであり,recallは出力の割合と同じである.図\ref{fig:handm}では語彙的連鎖以外の手がかりによる実験(``ex.1''),語彙的連鎖のみの手がかりによる実験(``ex.2'')および,設定した全ての手がかりによる実験(``ex.3'')の精度を比較している.結果から複数の手がかりを組み合わせて使用した``ex.3''が良い精度を引き出すことがわかる.また,語彙的連鎖が有効な手がかりである可能性が示されているといえる.図\ref{fig:regressm}は複数の手がかりを使用し,人手によって重みを与えた実験(``ex.3'')と訓練テキストにより自動的に計算された重みを使用した実験(``ex.4.test'')との比較をしている.結果から自動的に学習された重みが概ね良い精度を出すことが示されている.人手による手間を省き,客観的な値が得られることから,自動的な重み付けは人手による重み付けよりも良い手法であるといえる.\begin{figure}[htbp]\begin{center}\epsfile{file=handmport2.ps,scale=0.5}\caption{\vspace*{-3mm}Handtuning}\label{fig:handm}\end{center}\end{figure}\begin{figure}[htbp]\begin{center}\epsfile{file=regressmport2.ps,scale=0.5}\caption{\vspace{-3mm}Automatictuning}\label{fig:regressm}\end{center}\end{figure}\begin{table}[ht]\begin{center}\caption{Theresultofthehumansubjects}\begin{tabular}{|c|c|}\hlinerecall&precision\\\hline\hline63.1\%&57.2\%\\\hline\end{tabular}\label{tab:human}\end{center}\end{table}図\ref{fig:regressm}では,全ての手がかりを使用して自動的に重みを決定した場合(``ex.4.test'')と選択された手がかりのみを使用して自動的に重みを決定した場合(``ex.5.test'')の比較も行っている.結果から有効な手がかりを選択することで良い精度を引き出していることがわかる.この結果は本研究で使用したパラメータ選択手法によって訓練テキストへの重みの過適合の問題が解消されていることも示している.実験4と実験5では訓練テキストによる結果と評価テキストによる結果の差が異なる.パラメータ選択を行う``ex.5.training''と``ex.5.test''の差は,パラメータ選択を行わない``ex.4.training''と``ex.4.test''の差よりも小さい.今回の実験(実験5)では,平均7.4の手がかりが選択され,選ばれた手がかりは訓練セットごとに異なっていた.その中で常に選択された手がかりは,逆接の接続詞(\ref{sec:cues}節の手がかり9)と語彙的連鎖の手がかり(手がかり19と20)であった.また重回帰分析のような統計的手法では,パラメータの選択で個々のパラメータ(手がかり)が有効かどうかを検定した場合と同様に,得られた重回帰式全体が実際に予測に役立っているかどうかを検定する必要がある.本研究で計算された各重回帰式について,$F$分布に基づく検定を行ったところ,有意水準$\alpha$が$0.05$から$0.1$の範囲で重みの推定に役立っているという結果を得た.さらに,同様の実験として,問題集の正解を使用せず,被験者による実験(実験6)で被験者の過半数(3人)以上がセグメント境界であると判断した位置を正解とした実験も行った.この場合正解境界数は平均で3.5(2から6)であった.実験の結果,システムはこちらの実験においても問題集の正解と同様な精度を得た.関連研究としてLitmanandPassonneau\cite{Litman:95}の研究が挙げられる.彼らも複数の手がかりを使用したテキストセグメンテーション手法を提案している.LitmanとPassonneauのモデルでは機械学習ツールを使用してspokennarrativeコーパスから訓練を行っている.彼らの研究との厳密な比較は困難であるが,本研究のタスクにおける精度の上限が彼らのタスクの場合に比べて低いことから,本研究のタスクの方がより難しいと考えられる.そのため我々のシステムの精度が彼らのものに比べて低いとは必ずしもいえない.
\section{おわりに}
本稿では,複数の表層的手がかりを使用して,テキストのセグメント境界を検出する手法について述べた.複数の表層的な手がかりを組み合わせて使用し,各手がかりへの重みを自動的に決定することがテキストセグメンテーションにとって有効であると考えられる.さらに,重回帰分析とステップワイズ法を使用することで過適合を防ぎつつ,各手がかりへの自動的な重み付けをする手法を示した.本研究の実験は小規模ではあるが,主張の有効性を示す結果を得ることができた.今後大規模なデータセットを使用して実験を行う必要がある.複数の表層的手がかりを使用するテキストセグメンテーションのアプローチとしては,本研究で使用した手がかりのスコアの重み付き総和を用いる手法以外に,C4.5\cite{Quinlan:93}のような,境界/非境界をクラスとし,各手がかりから決定木を学習して分類を行う決定木学習の手法が考えられる\cite{Litman:95,Honda:96}.今後両方のアプローチの比較をしていく必要がある.今後の課題として,訓練テキストをクラスタリングし,手がかりの重み計算をテキストのグループごとに行う手法の実験を計画をしている.テキスト間にはさまざまな違いが存在する.例えば,著者の違い,文体の違い,ジャンルの違いなどである.訓練テキストをクラスタリングし,特徴の類似したテキストのクラスタごとに手がかりの重みを計算することで,訓練テキスト全体を使用する場合よりも良い重み付けが可能になると考えられる.結果としてセグメンテーションの精度向上も期待できる.音声認識の分野では,言語モデルの精度向上のために,訓練データのクラスタリングが行われ,自動学習手法における有望な手法と考えられている\cite{Carter:94,Iyer:94}.\acknowledgment本研究での「角川類語新辞典」の使用を許可して下さった(株)角川書店に感謝致します.統計解析に関して御助言を頂きました群馬大学社会情報学部の青木教授および北陸先端科学技術大学院大学情報科学研究科の松澤教授に感謝致します.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Alshawi\BBA\Carter}{Alshawi\BBA\Carter}{1994}]{Alshawi:94}Alshawi,H.\BBACOMMA\\BBA\Carter,D.\BBOP1994\BBCP.\newblock\BBOQ{Trainingandscalingpreferencefunctionsfordisambiguation}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf20}(4),635--648.\bibitem[\protect\BCAY{Barzilay\BBA\Elhadad}{Barzilay\BBA\Elhadad}{1997}]{Barzilay:97}Barzilay,R.\BBACOMMA\\BBA\Elhadad,M.\BBOP1997\BBCP.\newblock\BBOQ{Usinglexicalchainsfortextsummaryzation}\BBCQ\\newblockIn{\BemProc.oftheACLWorkshoponIntelligentScalableTextSummarization},\BPGS\10--17.\bibitem[\protect\BCAY{Callan}{Callan}{1994}]{Callan:94}Callan,J.~P.\BBOP1994\BBCP.\newblock\BBOQ{Passage-LevelEvidenceinDocumentRetrieval}\BBCQ\\newblockIn{\BemProc.of17thAnnualInternationalACMSpecialInterestGrouponInformationRetrievalConferenceonResearchandDevelopmentinInformationRetrieval},\BPGS\302--310.\bibitem[\protect\BCAY{Carter}{Carter}{1994}]{Carter:94}Carter,D.\BBOP1994\BBCP.\newblock\BBOQ{ImprovingLanguageModelsbyClusteringTrainingSentences}\BBCQ\\newblockIn{\BemProc.ofthe4thConferenceonAppliedNaturalLanguageProcessing},\BPGS\59--64.\bibitem[\protect\BCAY{Cohen}{Cohen}{1987}]{Cohen:87}Cohen,R.\BBOP1987\BBCP.\newblock\BBOQ{Analyzingthestructureofargumentativediscourse}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf13},11--24.\bibitem[\protect\BCAY{Gale\JBAChurch\BBA\Yarowsky}{Galeet~al.}{1992}]{Gale:92}Gale,W.\JBAChurch,K.\JBA\BBA\Yarowsky,D.\BBOP1992\BBCP.\newblock\BBOQ{EstimatingUpperandLowerBoundsonthePerformanceofWord-SenseDisambiguationPrograms}\BBCQ\\newblockIn{\BemProc.ofthe30thAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\249--256.\bibitem[\protect\BCAY{Grosz\BBA\Sidner}{Grosz\BBA\Sidner}{1986}]{Grosz:86}Grosz,B.\BBACOMMA\\BBA\Sidner,C.\BBOP1986\BBCP.\newblock\BBOQAttention,intention,andthestructureofdiscourse\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf12}(3),175--204.\bibitem[\protect\BCAY{Halliday\BBA\Hasan}{Halliday\BBA\Hasan}{1976}]{Halliday:76}Halliday,H.\BBACOMMA\\BBA\Hasan,R.\BBOP1976\BBCP.\newblock{\BemCohesioninEnglish}.\newblockLongman.\bibitem[\protect\BCAY{Hearst}{Hearst}{1994}]{hearst:94b}Hearst,M.\BBOP1994\BBCP.\newblock\BBOQ{Multi-ParagraphSegmentationofExpositoryTexts}\BBCQ\\newblockIn{\BemProc.ofthe32ndAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\9--16.\bibitem[\protect\BCAY{Hearst\BBA\Plaunt}{Hearst\BBA\Plaunt}{1993}]{Hearst:93}Hearst,M.\BBACOMMA\\BBA\Plaunt,C.\BBOP1993\BBCP.\newblock\BBOQ{SubtopicStructuringforFull-LengthDocumentAccess}\BBCQ\\newblockIn{\BemProc.of16thAnnualInternationalACMSpecialInterestGrouponInformationRetrievalConferenceonResearchandDevelopmentinInformationRetrieval},\BPGS\59--68.\bibitem[\protect\BCAY{Iyer\JBAOstendorf\BBA\Rohlicek}{Iyeret~al.}{1994}]{Iyer:94}Iyer,R.\JBAOstendorf,M.\JBA\BBA\Rohlicek,J.\BBOP1994\BBCP.\newblock\BBOQ{Languagemodelingwithsentence-levelmixtures}\BBCQ\\newblockIn{\BemProc.oftheHumanLanguageTechnologyWorkshop1994},\BPGS\82--87.\bibitem[\protect\BCAY{Jobson}{Jobson}{1991}]{Jobson:91}Jobson,J.\BBOP1991\BBCP.\newblock{\Bem{AppliedMultivariateDataAnalysisVolumeI:RegressionandExperimentalDesign}}.\newblockSpringer-Verlag.\bibitem[\protect\BCAY{Kozima}{Kozima}{1993}]{Kozima:93}Kozima,H.\BBOP1993\BBCP.\newblock\BBOQ{Textsegmentationbasedonsimilaritybetweenwords'}\BBCQ\\newblockIn{\BemProc.ofthe31stAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\286--288.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1994}]{Kurohashi:94}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQ{AutomaticDetectionofDiscourseStructurebyCheckingSurfceInformationinSentence}\BBCQ\\newblockIn{\BemProc.ofthe15thInternationalConferenceonComputationalLinguistics},\BPGS\1123--1127.\bibitem[\protect\BCAY{Litman\BBA\Passonneau}{Litman\BBA\Passonneau}{1995}]{Litman:95}Litman,D.\BBACOMMA\\BBA\Passonneau,R.\BBOP1995\BBCP.\newblock\BBOQ{CombiningMultipleKnowledgeSourcesforDiscourse}\BBCQ\\newblockIn{\BemProc.ofthe33rdAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\108--115.\bibitem[\protect\BCAY{McRoy}{McRoy}{1992}]{McRoy:92}McRoy,S.\BBOP1992\BBCP.\newblock\BBOQUsingmultipleknowledgesourcesforwordsensediscrimination\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf18}(1),1--30.\bibitem[\protect\BCAY{Morris\BBA\Hirst}{Morris\BBA\Hirst}{1991}]{Morris:91}Morris,J.\BBACOMMA\\BBA\Hirst,G.\BBOP1991\BBCP.\newblock\BBOQ{LexicalCohesionComputedbyThesauralRelationsasanIndicatoroftheStructureofText}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf17}(1),21--48.\bibitem[\protect\BCAY{Okumura\BBA\Honda}{Okumura\BBA\Honda}{1994}]{okumura:94a}Okumura,M.\BBACOMMA\\BBA\Honda,T.\BBOP1994\BBCP.\newblock\BBOQWordSenseDisambiguationandTextSegmentationBasedonlexicalCohesion\BBCQ\\newblockIn{\BemProc.ofthe15thInternationalConferenceonComputationalLinguistics},\BPGS\755--761.\bibitem[\protect\BCAY{Passonneau\BBA\Litman}{Passonneau\BBA\Litman}{1993}]{Passonneau:93}Passonneau,R.\BBACOMMA\\BBA\Litman,D.\BBOP1993\BBCP.\newblock\BBOQ{Intention-basedSegmentation:HumanReliabilityandCorrelationwithLinguisticCues}\BBCQ\\newblockIn{\Bem31stAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\148--155.\bibitem[\protect\BCAY{Quinlan}{Quinlan}{1993}]{Quinlan:93}Quinlan,J.\BBOP1993\BBCP.\newblock{\Bem{C4.5:ProgramsforMachineLearning}}.\newblockMorganKaufmann.\bibitem[\protect\BCAY{Rayner\JBACarter\JBADigalakis\BBA\Price}{Rayneret~al.}{1994}]{Rayner:94}Rayner,M.\JBACarter,D.\JBADigalakis,V.\JBA\BBA\Price,P.\BBOP1994\BBCP.\newblock\BBOQ{Combiningknowledgesourcestoreordern-bestspeechhypothesislists}\BBCQ\\newblockIn{\BemProc.oftheHumanLanguagetechnologyWorkshop1994},\BPGS\271--221.\bibitem[\protect\BCAY{Reynar}{Reynar}{1994}]{reynar:94}Reynar,J.\BBOP1994\BBCP.\newblock\BBOQ{Anautomaticmethodoffindingtopicboundaries}\BBCQ\\newblockIn{\BemProc.ofthe32ndAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\331--333.\bibitem[\protect\BCAY{Salton\JBAAllan\BBA\Buckley}{Saltonet~al.}{1993}]{Salton:93}Salton,G.\JBAAllan,J.\JBA\BBA\Buckley,C.\BBOP1993\BBCP.\newblock\BBOQ{Approachestopassageretrievalinfulltextinformationsystems.}\BBCQ\\newblockIn{\BemProc.of16thAnnualInternationalACMSpecialInterestGrouponInformationRetrievalConferenceonResearchandDevelopmentinInformationRetrieval},\BPGS\49--56.\bibitem[\protect\BCAY{Sen\BBA\Srivastava}{Sen\BBA\Srivastava}{1990}]{Sen:90:a}Sen,A.\BBACOMMA\\BBA\Srivastava,M.\BBOP1990\BBCP.\newblock{\Bem{Regressionanalysis:theory,methods,andapplications}}.\newblockSpringer-Verlag.\bibitem[\protect\BCAY{Sumita\JBAOno\JBAChino\BBA\Amano}{Sumitaet~al.}{1992}]{Sumita:92}Sumita,K.\JBAOno,K.\JBAChino,T.\JBA\BBA\Amano,S.\BBOP1992\BBCP.\newblock\BBOQ{AdiscoursestructureanalyzerforJapanesetext}\BBCQ\\newblockIn{\BemProc.oftheInternationalConferenceonFifthGenerationComputerSystems1992},\BPGS\1133--1140.\bibitem[\protect\BCAY{Watanabe}{Watanabe}{1996}]{Watanabe:96}Watanabe,H.\BBOP1996\BBCP.\newblock\BBOQ{AMethodforAbstractingNewspaperArticlesbyUsingSurfaceClues}\BBCQ\\newblockIn{\BemProc.ofthe16thInternationalConferenceonComputationalLinguistics},\BPGS\974--979.\bibitem[\protect\BCAY{Weiss\BBA\Kulikowski}{Weiss\BBA\Kulikowski}{1991}]{Weiss:91}Weiss,S.\BBACOMMA\\BBA\Kulikowski,C.\BBOP1991\BBCP.\newblock{\Bem{Computersystemsthatlearn:classificationandpredictionmethodsfromstatistics,neuralnets,machinelearning,andexpertsystems}}.\newblockMorganKaufmann.\bibitem[\protect\BCAY{所}{所}{1987}]{tokoro}所一哉\BBOP1987\BBCP.\newblock\Jem{現代文レトリック読解法}.\newblock匠出版.\bibitem[\protect\BCAY{本田\JBA望月\JBABao\JBA奥村}{本田\Jetal}{1996}]{Honda:96}本田岳夫\JBA望月源\JBABaoH.T.\JBA奥村学\BBOP1996\BBCP.\newblock\JBOQ{決定木獲得アルゴリズムを用いたテキストセグメンテーション}\JBCQ\\newblock\Jem{言語処理学会第2回年次大会発表論文集},\BPGS\329--332.\bibitem[\protect\BCAY{永野}{永野}{1986}]{nagano}永野賢\BBOP1986\BBCP.\newblock\Jem{{文章論総説}}.\newblock朝倉書店.\bibitem[\protect\BCAY{福本}{福本}{1990}]{Fukumoto1}福本淳一\BBOP1990\BBCP.\newblock\JBOQ{筆者の主張に基づく日本語文章の構造化}\JBCQ\\newblock\Jem{情報処理学会研究会資料NL78-15},\BPGS\113--120.\bibitem[\protect\BCAY{秋葉\JBAフセイン\JBA金田}{秋葉\Jetal}{1998}]{Akiba:98}秋葉泰弘\JBAフセインアルモアリム\JBA金田重郎\BBOP1998\BBCP.\newblock\JBOQ{例からの学習技術の応用に向けて1,2}\JBCQ\\newblock\Jem{情報処理学会},{\Bbf39}(2),(3),145--151(2),245--251(3).\bibitem[\protect\BCAY{成田}{成田}{1980}]{kougobunpou}成田杢之助\BBOP1980\BBCP.\newblock\Jem{{口語文法表覧}}.\newblock共文社.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{望月源}{1970年生.1993年金沢大学経済学部経済学科卒業.1999年北陸先端科学技術大学院大学情報科学研究科博士後期課程修了.同年4月より,北陸先端科学技術大学院大学情報科学研究科助手.博士(情報科学).自然言語処理,知的情報検索システムの研究に従事.情報処理学会会員}\bioauthor{本田岳夫}{1968年生.1992年,東京工業大学工学部情報工学科卒業.1994年,北陸先端科学技術大学院大学情報科学研究科博士前期課程修了.1998年,同博士後期課程満期退学.同年,東京工業大学情報理工学研究科教務補佐員を経て,株式会社富士通愛知エンジニアリング勤務,現在に至る.}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,現在に至る.工学博士.自然言語処理,知的情報検索システム,語学学習支援システム,語彙知識獲得に関する研究に従事.情報処理学会,人工知能学会,AAAI,ACL,認知科学会,計量国語学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V26N01-03 | \section{はじめに}
近年,ソーシャルニュースサイトや討論ポータルの発展に伴い,様々な話題がオンライン上で議論されるようになった.これら議論は世の中の貴重な意見を含んでいるが,分析には関連する複数の投稿・発言の内容を理解する必要がある.これまでも対話行為の分析\cite{Stolcke2000,Bunt2010}を発展させ,議論を談話行為に基づいて分析するアプローチが提案されてきた.議論における談話行為の自動的な分類は,情報アクセスや要約の改善に寄与できると考えられている.このため,電子メール\cite{Cohen2004,Carvalho2005,Carvalho2006,Hu2009,Omuya2013},ニュースグループ\cite{Wang2007},技術電子掲示板\cite{Kim2010b,Wang2011,Bhatia2012,Liu2017},ソーシャルニュース\cite{Zhang2017}等の談話行為・対話行為が既存の研究で対象とされてきた.議論において談話行為・対話行為を分類する際には,議論のパターンを取り入れることの重要性がたびたび指摘されてきた.投稿間の関係・リンク\cite{Carvalho2005,Hu2009},投稿の位置・深さ\cite{Wang2007,Kim2010a,Kim2010b,Wang2011,Bhatia2012,Zhang2017,Liu2017}等のパターン情報は,確率的なグラフィカルモデル,構造学習モデル,系列学習モデル等と組み合わせて利用されてきた.これらアプローチは談話行為の分類において有効性を示したが,分類モデルにパターン情報を取り入れるためにタスク依存のパターン素性を設計する必要があった.本稿では議論のパターンをニューラルネットワークを用いて取り入れるモデルを提案する.近年,ニューラルネットワークを用いて木構造\cite{Socher2011,Socher2014,Tai2015}やグラフ構造\cite{Defferrard2016,Kipf2017}を学習する有効性が示されている.提案モデルではパターン素性を設計せずに,木構造学習層とグラフ構造学習層を用いて議論のパターンを学習する.既存の研究では様々な対象の談話行為・対話行為が分類されてきたが,本稿ではReddit\footnote{https://www.reddit.com/}の談話行為の分類に提案モデルを適用する.Redditは大規模なソーシャルニュースサイトであり,数多くのトピックについて日々議論が行われている.議論はスレッド単位で行われ,トピックを提供する最初の投稿および投稿に対する返信の連鎖で構成される.提案モデルの評価では\citeA{Zhang2017}の$9$種類の談話行為を対象にする.$9$種類の談話行為は{\itAnswer},{\itElaboration},{\itQuestion},{\itAppreciation},{\itAgreement},{\itDisagreement},{\itHumor},{\itAnnouncement},{\itNegativeReaction}であり,図\ref{fig:example}にこれら談話行為の例を示す.本稿では次の二つの理由でRedditを対象とした.第一に,Reddit上での議論は投稿をノード,返信関係をエッジとした木構造およびグラフ構造として表すことができる.第二に,公開されているRedditの談話行為が付与されたコーパスは大規模であり,ニューラルネットワークを用いて木構造やグラフ構造を学習するのに適している.本稿の貢献には以下の三点が挙げられる:\begin{enumerate}\item投稿間の構造に対応した,木構造学習層とグラフ構造学習層を含むモデルを提案する.\item談話行為の分類性能において,提案モデルが従来のパターン素性と系列学習を組み合わせたモデルを上回ることを示す.\item提案モデルの中間層を注意機構を通じて分析し,談話行為の分類に有効な構造を確認する.\end{enumerate}本稿の以降の章では次の内容を述べる.\ref{sec:related}章で提案モデルの関連研究を紹介し,モデルの詳細を\ref{sec:model}章で述べる.\ref{sec:exp}章で提案モデルを用いた評価実験を報告し,結果を\ref{sec:discuss}章で考察する.最後に\ref{sec:conc}章では本稿をまとめ,さらに今後の展望を述べる.\begin{figure}[t]\begin{center}\includegraphics{26-1ia3f1.eps}\end{center}\hangcaption{Redditを対象とした談話行為の例.各丸はスレッド中の投稿,赤色は最初の投稿,青色は返信の投稿,矢印は返信を表している.最初の質問({\itQuestion})が答え({\itAnswer})とユーモア({\itHumor})の返信を受けており,答えの一つはさらに謝辞({\itAppreciation})と追加情報({\itElaboration})の返信を受けている.}\label{fig:example}\end{figure}
\section{関連研究}
\label{sec:related}\subsection{談話行為・対話行為の分類}議論を対象として,談話行為・対話行為を自動的に分類する手法は従来より研究されてきた.初期の研究としては,特に電子メールおよび技術電子掲示板が対象となることが多かった.\citeA{Cohen2004}は電子メールに対話行為をアノテーションし,テキスト素性を用いた分類器を構築した.この研究は\citeA{Carvalho2005}によって関係素性を用いたコレクティブ分類モデル,\citeA{Carvalho2006}によってN-gram素性の拡張が行われた.\citeA{Hu2009}も電子メールに対話行為をアノテーションし,構造学習モデルを用いた分類を試みた.この研究は\citeA{Omuya2013}によってクラス毎の素性の最適化およびカスケード分類器を用いた拡張が行われた.\citeA{Kim2010b}は技術電子掲示板の投稿に対話行為をタグ付けし,パターン素性と系列学習器を用いた分類実験を実施した.この研究はのちに,\citeA{Wang2011}によって対話行為の分類とリンク関係の同時学習,\citeA{Liu2017}によって外部記憶を持つ系列学習器の拡張が行われた.\citeA{Bhatia2012}も技術電子掲示板の投稿に対話行為をタグ付けし,パターン素性を含む様々な素性を用いた分類器を評価した.議論を対象とした談話行為・対話行為の分類は,電子メール・技術電子掲示板以外を対象としても研究されてきた.\citeA{Wang2007}はニュースグループの節を対象にパターン素性と系列学習モデルを用いた議論カテゴリの分類を評価した.\citeA{Kim2010a}はチャットの対話行為を分類するためにパターン素性を用いた系列学習モデルを探索した.\citeA{Zhang2011}は短文投稿を対話行為でアノテートし,単語素性と文字素性を用いた分類モデルを学習した.\citeA{Zhang2012}は同じ短文投稿データを用いて,ラベル伝搬に基づく半教師あり学習モデル等を探索した.\citeA{Ferschke2012}は対話行為が付与されたWikipediaノートページのコーパスを作成し,テキスト素性とパターン素性を用いた分類器を学習した.\citeA{Zhang2017}はRedditのスレッドを談話行為でアノテートし,パターン素性を含む様々な素性を用いた系列学習モデルを設計した.\subsection{Redditの自動分析}大量のテキストおよび画像コンテンツから構成されるRedditを対象に,世の中の意見を分析する研究が数多く行われてきた.Redditを対象とした自動分析の中でも,人気度を表すkarmascore(ポジティブ投票とネガティブ投票の差)の分析は広く研究されてきた.\citeA{Jaech2015}は人気度のランキングタスクを提案し,ペアワイズ分類器を用いたランキングを行った.\citeA{Wei2016b}は人気度を用いて投稿を説得力に応じてランキングするシステムを設計した.\citeA{He2016}は動的に人気度を推定する深層強化学習の構成を提案し,この研究はさらに\citeA{He2017}によって2段階の処理に拡張された.\citeA{Hessel2017}は人気度の推定タスクにおいてマルチモーダル素性が有効であることを示した.\citeA{Cheng2017}は関連要素を因子として結び付けるニューラルモデルを用いて人気度を推定し,文書埋め込みに基づくモデルを上回る性能を実現した.\citeA{Zayats2018}は人気度を推定するのに適したグラフ構造のニューラルモデルを提案し,投稿を独立に扱うモデルを上回る性能を実現した.Redditを対象とした自動分析では,人気度以外に着目した研究も数多く行われている.本稿が対象とする談話行為の分析\cite{Zhang2017}もその一つであり,他にも様々なタスクが検討されている.\citeA{Buntain2014}は回答を投稿する人の社会的な役割に着目し,それらを教師あり学習で分類した.\citeA{Tan2016}はChangeMyViewsubredditを対象とし,説得性の高い投稿の明確化および意見の適応性を分類するモデルを構築した.\citeA{Lim2017}は投稿者の専門性を投稿内容に非依存な手法を用いて探索した.\subsection{提案モデルとの比較}提案モデルでは議論のパターンをニューラルネットワークに基づく木構造学習層とグラフ構造学習層を用いて学習する.これは従来用いられてきたパターン素性を用いずに,テキスト情報と議論のパターンを同時に学習するアプローチである.また,談話行為・対話行為の分類では従来は系列学習モデルが用いられることが多かった\cite{Wang2007,Kim2010a,Kim2010b,Wang2011,Zhang2017,Liu2017}.\citeA{Carvalho2005}は確率的なグラフィカルモデルを用いたが,関係素性と事前学習したテキスト素性に基づく分類器を前提としている.提案モデルをRedditの自動分析を行うモデルと比較すると,類似したアプローチが\citeA{Zayats2018}で用いられている.\citeA{Zayats2018}ではLongshort-termmemory(LSTM)\cite{Hochreiter1997}を拡張し,階層および時系列情報をグラフ構造として学習するモデルを提案した.しかし,このモデルはRedditの人気度を効率的に学習するための設計を含んでいる.Redditの人気度は投稿時間や投稿者の属性に強く相関することが知られている\cite{Jaech2015}.人気度の推定モデルを談話行為の推定にそのまま適用しても,\ref{sec:exp}章で詳細を述べる実験で示すように性能は限定的である.
\section{提案モデル}
\label{sec:model}提案モデルであるTree-LSTMGCNHybridの概要を図\ref{fig:model2}に示す.Tree-LSTMGCNHybridではまずスレッド中の投稿をLSTMと最大プーリングでエンコード(CommentEncoder)し,投稿の特徴量を得る.次に,投稿間の関係を木構造のLSTM処理(Parent-BranchTree-LSTM,Child-SumTree-LSTM)およびグラフ構造の畳み込み処理(GCN)で取り入れた投稿の特徴量を得る.投稿の特徴量にはさらに注意機構(Self-Attention)を適用し,最終的には全結合層でラベルに接続(LabelClassifier)する.\begin{figure}[p]\begin{center}\includegraphics{26-1ia3f2.eps}\end{center}\hangcaption{提案モデルTree-LSTMGCNHybridの概要.このモデルではスレッドに含まれる投稿をCommentEncoderでエンコードし,それらを木構造学習層(Parent-BranchTree-LSTM,Chid-SumTree-LSTM)およびグラフ構造学習層(GCN)で処理する.}\label{fig:model2}\end{figure}Tree-LSTMGCNHybridでは,既存のLSTM,木構造のLSTM,グラフ構造の畳み込みの処理を一部変更した上で組み合わせて,議論の分析に効果的なモデルを提案している.返信元から返信先に展開される議論のフローを取り入れるために,LSTMの$1$ステップ前の参照処理を修正したParent-BranchTree-LSTMを用意した.返信先から返信元に展開される議論のフローを取り入れるために,\citeA{Tai2015}のChild-SumTree-LSTMを用意した.返信の方向に依存しない周辺で展開される議論のフローを取り入れるために,\citeA{Defferrard2016}のGCNを用意した.本章の以降では,各構成要素の詳細について述べる.\subsubsection*{CommentEncoder}CommentEncoderでは投稿単位の処理を実現するために,投稿中の単語から投稿の特徴量を求める.タイトルテキスト${\boldsymbola}_{title}$と投稿テキスト${\boldsymbola}_{1\ldotsI}$からなる系列データを入力とする.各テキスト中の単語は,EmbeddingLayerの埋め込み行列${\boldsymbolE}$によって${\boldsymbolx}_{title}$および${\boldsymbolx}_{1\ldotsI}$に変換する.変換した入力は,双方向LSTM\footnote{タイトルを持つ最初の投稿と以降の投稿を別途処理できるように,最初の投稿用の$\rmLSTM_s$と返信の投稿用の$\rmLSTM_c$を用意した.}により以下の状態遷移関数に基づき処理する:{\allowdisplaybreaks\begin{align}{\boldsymboli}_t&=\sigma\left({\boldsymbolW}_i{\boldsymbolx}_t+{\boldsymbolU}_i{\boldsymbolh}_{t-1}+{\boldsymbolb}_i\right)\label{eq:lstm1}\\{\boldsymbolo}_t&=\sigma\left({\boldsymbolW}_o{\boldsymbolx}_t+{\boldsymbolU}_o{\boldsymbolh}_{t-1}+{\boldsymbolb}_o\right)\label{eq:lstm2}\\{\boldsymbolf}_t&=\sigma\left({\boldsymbolW}_f{\boldsymbolx}_t+{\boldsymbolU}_f{\boldsymbolh}_{t-1}+{\boldsymbolb}_f\right)\label{eq:lstm3}\\\tilde{{\boldsymbolc}}_t&=\tanh\left({\boldsymbolW}_c{\boldsymbolx}_t+{\boldsymbolU}_c{\boldsymbolh}_{t-1}+{\boldsymbolb}_c\right)\label{eq:lstm4}\\{\boldsymbolc}_t&={\boldsymboli}_t\odot\tilde{{\boldsymbolc}}_t+{\boldsymbolf}_t\odot{\boldsymbolc}_{t-1}\label{eq:lstm5}\\{\boldsymbolh}_t&={\boldsymbolo}_t\odot\tanh\left({\boldsymbolc}_t\right)\end{align}}ここで${\boldsymboli}_t$は入力ゲート,${\boldsymbolo}_t$は出力ゲート,${\boldsymbolf}_t$は忘却ゲート,$\tilde{{\boldsymbolc}}_t$はメモリセルゲート,${\boldsymbolc}_t$はメモリセルの状態,${\boldsymbolh}_t$は隠れ状態,${\boldsymbolW}_*$と${\boldsymbolU}_*$は重み行列,${\boldsymbolb}_*$はバイアス項,$\sigma$はロジスティックシグモイド関数,$\odot$は要素積の演算子である.双方向LSTMの出力は結合し,時間方向の最大プーリング(MaxPooling)により投稿の特徴量${\boldsymbolm}={\rmmax}\left(\overrightarrow{{\boldsymbolh}}\|\overleftarrow{{\boldsymbolh}}\right)$を得る.ここで,$\overrightarrow{{\boldsymbolh}}$は$\boldsymbolh$の順方向での処理結果,$\overleftarrow{{\boldsymbolh}}$は$\boldsymbolh$の逆方向での処理結果,$\|$はテンソルの結合を意味する.また,最初の投稿については,タイトルの出力(${\boldsymbolh}_{title}$)と投稿の出力(${\boldsymbolh}_1$)の要素和($\oplus$)を$\overrightarrow{{\boldsymbolh}}_{title}\|\overleftarrow{{\boldsymbolh}}_{title}\oplus\overrightarrow{{\boldsymbolh}}_1\|\overleftarrow{{\boldsymbolh}}_1$のようにして,最大プーリングの前に求める.\subsubsection*{Parent-BranchTree-LSTM}Parent-BranchTree-LSTMでは親ノード(返信元)の情報を用いた談話行為の推定を可能にする.投稿の特徴量は根ノードから葉ノードへと処理する.LSTMの$1$時刻前の隠れ状態${\boldsymbolh}_{t-1}$(式\ref{eq:lstm1}--\ref{eq:lstm4})を親ノードの隠れ状態${\boldsymbolh}_{parent}$に置き換えて,以下の式に基づき処理する:{\allowdisplaybreaks\begin{align}{\boldsymboli}_t&=\sigma\left({\boldsymbolW}_i{\boldsymbolx}_t+{\boldsymbolU}_i{\boldsymbolh}_{parent}+{\boldsymbolb}_i\right)\\{\boldsymbolo}_t&=\sigma\left({\boldsymbolW}_o{\boldsymbolx}_t+{\boldsymbolU}_o{\boldsymbolh}_{parent}+{\boldsymbolb}_o\right)\\{\boldsymbolf}_t&=\sigma\left({\boldsymbolW}_f{\boldsymbolx}_t+{\boldsymbolU}_f{\boldsymbolh}_{parent}+{\boldsymbolb}_f\right)\\\tilde{{\boldsymbolc}}_t&=\tanh\left({\boldsymbolW}_c{\boldsymbolx}_t+{\boldsymbolU}_c{\boldsymbolh}_{parent}+{\boldsymbolb}_c\right)\end{align}}なお,投稿には複数の子ノード(返信)がありえるため,${\boldsymbolh}_{parent}$は複数の投稿で共有されることがある.また,以降の処理では${\boldsymbolh}$をParent-BranchTree-LSTMが出力する投稿の特徴量${\boldsymbolr}_P$として用いる.\subsubsection*{Child-SumTree-LSTM}Child-SumTree-LSTMでは子ノード(返信)の情報を用いた談話行為の推定を可能にする.投稿の特徴量は葉ノードから根ノードへとChild-SumTree-LSTM\cite{Tai2015}で処理する.具体的には,式\ref{eq:lstm1},\ref{eq:lstm2},\ref{eq:lstm4}に含まれる$1$時刻前の隠れ状態${\boldsymbolh}_{t-1}$を子ノードの隠れ状態$\tilde{{\boldsymbolh}}_{t}$に置き換え,忘却ゲート${\boldsymbolf}_t$(式\ref{eq:lstm3})とメモリセルゲート${\boldsymbolc}_t$(式\ref{eq:lstm5})を以下の式に置き換え処理する:\begin{align}\tilde{{\boldsymbolh}}_t&=\sum_k{\boldsymbolh}_k\\{\boldsymbolf}_{tk}&=\sigma\left({\boldsymbolW}_f{\boldsymbolx}_t+{\boldsymbolU}_f{\boldsymbolh}_k+{\boldsymbolb}_f\right)\\{\boldsymbolc}_t&={\boldsymboli}_t\odot\tilde{{\boldsymbolc}}_t+\sum_k{\boldsymbolf}_{tk}\odot{\boldsymbolc}_{k}\end{align}ここで${\boldsymbolh}_k$は子ノードの隠れ状態,${\boldsymbolc}_k$は子ノードのメモリセル状態である.また,以降の処理では${\boldsymbolh}$をChild-SumTree-LSTMが出力する投稿の特徴量${\boldsymbolr}_C$として用いる.\subsubsection*{GCN}GCNでは周辺ノード(返信元および返信先)の情報を用いた談話行為の推定を可能にする.各ノードの周辺ノードを畳み込みフィルタでグラフ上の畳み込みとして取り込む.具体的には,畳み込みフィルタをチェビシェフ展開で近似する手法\cite{Hammond2011}に基づく,グラフ畳み込み処理\cite{Defferrard2016}を用いる.投稿の特徴${\boldsymbolh}_l$を入力として,以下の状態遷移関数で処理する:\begin{align}{\boldsymbolh}_{l+1}&={\boldsymbolU}g_\theta\left({\boldsymbol\Lambda}\right){\boldsymbolU}^T{\boldsymbolh}_l\\g_{\boldsymbol\theta}\left({\boldsymbol\Lambda}\right)&=\sum_k^{K-1}{\boldsymbol\theta}_kT_k(\tilde{\boldsymbol\Lambda})\end{align}ここで$l$は層の番号,$\boldsymbolU$は入力グラフにおける正規化されたラプラシアンのフーリエ基底,$\boldsymbol{\theta}_k\in\mathbb{R}^K$はチェビシェフ係数のベクトル,$T_k(\tilde{\boldsymbol\Lambda})$は$k$次のチェビシェフ多項式である.グラフ上の畳み込み処理は連続的に適用することにより多層化でき,提案モデルでは式\ref{eq:gcn}のようにグラフ畳み込み処理$2$層と正規化線形関数(ReLU)を組み合わせた投稿の特徴量${\boldsymbolr}_G$を得る:\pagebreak\begin{align}{\boldsymbolr}_G&={\boldsymbolU}g_\theta\left({\boldsymbol\Lambda}\right){\boldsymbolU}^T{\rmReLU}\left({\boldsymbolU}g_\theta\left({\boldsymbol\Lambda}\right){\boldsymbolU}^T{\boldsymbolm}\right)\label{eq:gcn}\end{align}\subsubsection*{Self-Attention}Parent-BranchTree-LSTM(P),Child-SumTree-LSTM(C),GCN(G)に対応する$j\in\{P,C,G\}$番目の特徴量を,自己注意方法の注意機構\cite{Yang2016,Lin2017}(Self-Attention)で統合する.注意機構で統合した$i$番目の投稿の特徴量${\boldsymbols}_i$は,議論のフローを取り入れた特徴量${\boldsymbolr}_{ji}$の重み付き和として以下のように求める:\begin{align}{\boldsymbols}_i&=\sum_{j\in\{P,C,G\}}\alpha_{ji}{\boldsymbolr}_{ji}\\\alpha_{ji}&=\frac{\exp\left({\boldsymbolv}_\alpha^T{\boldsymbolu}_{ji}\right)}{\sum_{j'\in\{P,C,G\}}\exp\left({\boldsymbolv}_\alpha^T{\boldsymbolu}_{j'i}\right)}\label{eq:softmax}\\{\boldsymbolu}_{ji}&=\tanh\left({\boldsymbolW}_\alpha{\boldsymbolr}_{ji}+{\boldsymbolb}_\alpha\right)\end{align}ここで${\boldsymbolv}_\alpha$は重みベクトル,${\boldsymbolW}_\alpha$は重み行列,${\boldsymbolb}_\alpha$はバイアス項である.\subsubsection*{LabelClassifier}各投稿の特徴量${\boldsymbols}_i$を,全ての$i$で共有された全結合層とソフトマックス関数を用いて以下のようなラベル出力$\sigma\left({\boldsymboly}_i\right)$を得る:\begin{align}{\boldsymboly}_i&={\boldsymbolW}_{d}{\boldsymbols}_i+{\boldsymbolb}_d\\\sigma\left({\boldsymboly}_i\right)&=\frac{\exp\left({\boldsymboly}_i\right)}{\sum_{i'}\exp\left({\boldsymboly}_{i'}\right)}\end{align}ここで${\boldsymbolW}_d$は重み行列,${\boldsymbolb}_d$はバイアス項である.
\section{実験}
\label{sec:exp}\subsection{ベースライン}提案手法のベースラインとして,ルールに基づくモデル(Rule5-ACTS),従来のパターン素性と系列学習を組み合わせたモデル(CRFVote),$2$種類のニューラルモデル(LSTM-CRFVote,Greaph-LSTM)を用意した.\subsubsection*{Rule5-ACTS}機械学習に基づかないベースラインとして,単純なルールに基づく分類器Rule5-ACTSを用意した.スレッド中の投稿$c$はAlgorithm\ref{alg1}に基づいてラベル$l$に分類される.なお,この分類器では投稿が{\itAgreement},{\itDisagreement},{\itHumor},{\itNegativeReaction}の$4$種類のラベルに分類されることはない.\begin{algorithm}[b]\caption{Rule5-ACTS}\label{alg1}\input{03algo01.tex}\end{algorithm}\subsubsection*{CRFVote}\citeA{Zhang2017}で最も良い性能を示した,条件付き確率場(CRF)に基づくモデルをCRFVoteとして実装した.このモデルではスレッドを分解して,根ノードから各葉ノードへの系列を独立して処理する.内容語,句読点,パターン,著者,スレッド,コミュニティの素性をCRFで学習する.素性の中でもパターン素性の大きな効果がアブレーションテストにより確認されている.なお,スレッドを系列に分解して処理するため,一つの投稿に対して複数の異なるラベルを分類することがある.この際には,投稿のラベルは分類したラベルの多数決によって決定する.\subsubsection*{LSTM-CRFVote}CommentEncoder(\ref{sec:model}章)にLSTM層とCRF層を組み合わせて,CRFVoteをニューラルモデルに拡張したLSTM-CRFVoteを実装した.系列学習タスクにおいて,LSTMとCRFを組み合わせるアプローチが有効であることは知られている\cite{Huang2015,Lample2016,Ma2016}.また,CRFVoteと同様にスレッドは根ノードから葉ノードへの系列に分解する.このモデルではまず各系列をCommentEncoderで処理し,各投稿の特徴量を得る.次にLSTM層により投稿間の依存関係を導入し,さらにCRF層でラベル間の相関関係を導入する.また,複数のラベルが分類された投稿については,CRFVoteと同様に多数決でラベルを決定する.\subsubsection*{Graph-LSTM}グラフ構造に対応したLSTM\cite{Zayats2018}をGraph-LSTMとして実装した.スレッド上の投稿間の親子関係および兄弟関係を処理できるように,LSTMを拡張して親子間の接続を扱う忘却ゲートと兄弟間の接続を扱う忘却ゲートを用意している.また,投稿中の単語分散表現の平均に加えて,グラフ上の位置や返信数といったパターン素性を組み合わせた入力を用意している.このモデルは談話行為の分類を目的として設計されてはいないが,Reddit投稿の人気度を推定する際には優れた性能を発揮している.\subsection{データ・評価手法}\label{sec:data}提案モデルとベースラインモデルの評価には\citeA{Zhang2017}のデータ\footnote{https://github.com/google-research-datasets/coarse-discourse}を用いた.データはRedditの9,438スレッド,115,827投稿,2,837コミュニティ(subreddit)より構成され,各投稿には表\ref{tab:cdis-exp}に示される$10$種類の談話行為が$3$人のアノテータによりアノテートされている.\citeA{Zhang2017}の設定を踏襲し,アノテータ間の多数決でラベルを決定できない投稿および多数決で決定したラベルが{\itOther}の投稿を除外した.結果として,評価には9,131スレッド,98,865投稿のデータを用いた.各談話行為のラベルの数,それらの最初の投稿の割合,Krippendorf'sAlphaによる一致度を表\ref{tab:cdis}に示す.\begin{table}[t]\caption{各談話行為とその概要}\label{tab:cdis-exp}\input{03table01.tex}\end{table}\begin{table}[t]\caption{談話行為の数,最初の投稿の割合,Krippendorf'sAlphaによる一致度}\label{tab:cdis}\input{03table02.tex}\end{table}すべてのモデルは$10$交差検定で評価し,評価尺度としてはAccuracy,Precision,Recall,${\rmF}_1$値を用いた.ニューラルモデルについては,開発データを用意するために$10$交差検定ではデータを8:1:1の割合で訓練:開発:テストに分割した.テスト時の性能を測定する際には,開発データで最良の${\rmF}_1$値が得られた学習結果を利用した.\subsection{モデルの設定}\subsubsection*{単語分散表現の事前学習}ニューラルモデルで用いる単語分散表現は,2006--2016のRedditダンプデータ\footnote{https://bigquery.cloud.google.com/dataset/fh-bigquery:reddit\_posts}$^{,}$\footnote{https://bigquery.cloud.google.com/dataset/fh-bigquery:reddit\_comments}をサンプリングしたデータで事前学習した.サンプリングでは,実験データ中に表れる2,837コミュニティ(\ref{sec:data}節)に属する,約$2.3$億の投稿を取得した.事前学習ではword2vec\cite{Mikolov2013}をskip-gramアルゴリズムで$次元=100$,$学習率=0.025$,$ウィンドウ幅=5$,$ネガティブサンプル数=5$,$エポック=5$の設定で用いた.\subsubsection*{各層のユニット数と最大単語数}提案モデルやベースラインモデルには,\pagebreakユニット数のパラメータを設定できる層が含まれている.LSTMのユニット数としては,${\rmLSTM}_S$と${\rmLSTM}_C$については$300$に,LSTM-CRFVoteについては$600$に設定した.Parent-BranchTree-LSTM,Child-SumTree-LSTM,GCNのユニット数には$600$を設定した.また,Redditの投稿には数千語にもおよぶ長い投稿が存在する.効率化のために,スレッドの最初の投稿については最大$400$語,返信の投稿については最大$100$語のみを利用した.\subsubsection*{最適化手法}LSTM-CRFVote,Graph-LSTM,Tree-LSTMGCNHybridの最適化には確率的勾配降下法を用いた.目的関数にはLSTM-CRFVoteはCRFのスコアを用い,Graph-LSTMとTree-LSTMGCNHybridは交差エントロピーを用いた.確率的勾配降下法のパラメータとしては,学習率は$\{0.01,0.1\}$から開発データで良い性能を示した値を選択し,$モメンタム=0.9$,$勾配クリッピング=3.0$を用いた.また,過学習を避けるためにドロップアウト\cite{Srivastava2014}を割合$0.5$でLSTM層とGCNの中間層に導入した.\begin{table}[b]\caption{提案モデルとベースラインモデルのAccuracy,Precision,Recall,${\rmF}_1$値}\label{tab:result}\input{03table03.tex}\vspace{4pt}\smallPrecision,Recall,${\rmF}_1$値については,$9$つの談話行為をデータ数に応じて重み付けした平均値である.太字は各評価指標で最大の値を示している.\end{table}\subsection{実験結果}\label{sec:result}表\ref{tab:result}に各モデルの評価結果を示す.また,提案モデルであるTree-LSTMGCNHybridについては,一つの構成要素のみを用いたモデルを提案モデル(構成要素名)として用意している.結果から,Tree-LSTMGCNHybridが従来のCRFVoteをAccuracyで$1.5\%$,${\rmF}_1$値で$2.2$上回る性能を示している.LSTM-CRFVoteもCRFVoteを上回る性能を示しており,ニューラルモデルへの単純な拡張およびニューラルモデルにより議論のパターンを学習する有効性が示唆される\footnote{すべての評価指標において,Tree-LSTMGCNHybridとLSTM-CRFVote間に有意水準$5\%$で統計的な有意差があることをFisher-PitmannPermutationTestで確認している.また,LSTM-CRFVoteとCRFVote間においても,Accuracyについては有意水準$10\%$,Precision,Recall,${\rmF}_1$値については有意水準$5\%$で統計的な有意差があることを確認している.}.Graph-LSTMはCRFVoteに及ばない性能しか得られておらず,Redditを対象としていても人気度の推定モデルを談話行為の分類にそのまま用いるのは難しいことが分かる.Rule5-ACTSでは他のモデルを大きく下回る性能になっており,単純なルールではこのタスクに対応しきれないことを示している.なお,計算時間については,Tree-LSTMGCNHybridは$10$交差検定の評価を完了するのにNVIDIATitanXgpuを$1$個用いて約$21$時間掛かった.ニューラルモデルは一般的に計算負荷が高く,本実験においてもIntelCorei7cpuを$1$コア用いて約$4$時間掛かったCRFVoteの約$5$倍の時間が掛かっている.提案モデルの単一構成要素を用いた結果については,構成要素ごとに異なる傾向が得られた.Parent-BranchTree-LSTMが最も高い性能,GCNがParent-BranchTree-LSTMを僅かに下回る性能,Child-SumTree-LSTMが他二つより大幅に低い性能を示した.Redditの議論では根ノードから葉ノードへと返信の連鎖で議論が進む.このため,親ノードを参照する構成要素が高い性能を示しているこれらの結果は直感に合う.また,GCNでは$2$層の畳み込み層により,長さ$2$以内のノードを参照している.GCNでParent-BranchTree-LSTMに近い性能が得られており,談話行為の分類においては遠いノードの影響は僅かであると考えられる.\begin{figure}[b]\begin{center}\includegraphics{26-1ia3f3.eps}\end{center}\caption{注意機構の確率値から求めた確率密度関数}\label{fig:att-probs}\end{figure}
\section{考察}
\label{sec:discuss}\subsection{木構造・グラフ構造の有効な組み合わせ}\label{sec:strategy}提案モデルでは三つの構成要素を注意機構を用いて統合している.Tree-LSTMGCNHybridがこれら構成要素をどのように組み合わせているかを分析するために,注意機構が出力する確率値を分析した.図\ref{fig:att-probs}aに,すべての投稿についての確率値から求めた確率密度関数を示す.最も優先される構成要素はParent-BranchTree-LSTMであり,\ref{sec:result}節の実験結果で単独で最も高い性能が得られた構成要素でもある,しかし,$2$番目に優先される構成要素は,単独では低い性能を示したChild-SumTree-LSTMとなった.このため,木構造やグラフ構造の効果は,単独で用いた場合と組み合わせた場合では必ずしも一致しないことが分かる.図\ref{fig:att-probs}bに最初の投稿に限定した場合の確率密度関数を示す.最初の投稿には親ノードがなく,全体の場合と比較してChild-SumTree-LSTMとGCNが優先されている.\begin{figure}[b]\begin{center}\includegraphics{26-1ia3f4.eps}\end{center}\caption{返信の数ごとに分割した確率密度関数}\label{fig:att-probs2}\end{figure}注意機構の確率値をさらに返信の数ごとに場合分けした結果を図\ref{fig:att-probs2}に示す.返信がないか少ない場合は,求めた確率密度関数は全体と似た傾向を示した(図\ref{fig:att-probs2}a).返信が中程度の場合には,Child-SumTree-LSTMとGCNのピークの位置がParent-BranchTree-LSTMに近くなった(図\ref{fig:att-probs2}b).返信数が大きい場合には,GCNのピークの位置がChild-SumTree-LSTMを上回る結果となった(図\ref{fig:att-probs2}c,\ref{fig:att-probs2}d).GCNの結果から,返信数が多ければ周辺の投稿のみで談話行為の分類が十分に行えることが伺える.\subsection{ニューラルモデルの強み}提案モデルのより詳細な効果を確認するために,談話行為毎の性能を確認した.表\ref{tab:result2}にRule5-ACTS,CRFVote,LSTM-CRFVote,Parent-BranchTree-LSTM,Tree-LSTMGCNHybridの談話行為毎の${\rmF}_1$値を示す.結果として,ニューラルモデルがほぼすべての談話行為について,従来モデルと比較して同等以上の性能を達成している.特に{\itDisagreement},{\itHumor},{\itNegativeReaction}については,CRFVoteから大きく性能が向上した.これらの談話行為は他と比べて発生頻度が小さく(表\ref{tab:cdis}),ニューラルモデルが低頻度の談話行為の特徴をうまく捉えていることを示唆している.\begin{table}[b]\caption{提案モデルとベースラインモデルの各談話行為についての${\rmF}_1$値}\label{tab:result2}\input{03table04.tex}\end{table}\begin{table}[b]\caption{\textit{Appreciation}についての提案モデルとベースラインモデルのPrecision,Recall,${\rmF}_1$値}\label{tab:result3}\input{03table05.tex}\end{table}{\itAnnouncement}においては,複数の構成要素を組み合わせたモデル(Tree-LSTMGCNHybrid)が$3.2$ポイントの${\rmF}_1$値の向上を示した.{\itAnnouncement}は最初の投稿にしか表れない特徴があり(表\ref{tab:cdis}),\ref{sec:strategy}節の分析でもChild-SumTree-LSTMとGCNが最初の投稿において優先されていた.提案モデルが改善を示さなかった唯一の談話行為としては,{\itAppreciation}が挙げられる.表\ref{tab:result3}に示される{\itAppreciation}のPrecision,Recall,${\rmF}_1$値を確認したところ,PrecisionにおいてはRule5-ACTSおよびCRFVoteが優れた性能を示していた.この結果から,強い言語的な手掛かり(例.``thank'')が存在する談話行為については,ルールやタスク依存の素性を含むモデルに強みがあることが伺える.\begin{figure}[b]\begin{center}\includegraphics{26-1ia3f5.eps}\end{center}\hangcaption{CRFVoteに対してTree-LSTMGCNHybridの推定結果が改善した例.例中では,人名を``PERSON'',具体的なURLを``URL'',製品名を``PRODUCT'',数値を``XXXX''に置き換えている.また,例中のCRFVote,Tree-LSTMGCNHybridはそれぞれのモデルの推定結果である.}\label{fig:ea1-2}\end{figure}CRFVoteに対して提案モデル(Tree-LSTMGCNHybrid)の推定結果が改善した例を図\ref{fig:ea1-2}に示す.aのID2ではスポーツ選手の怪我に対して意見を述べているが,誤ってElaborationと推定されていた談話行為が正しくNegativeReactionと推定されるようになった.提案モデルにより,ID2の投稿は親投稿(ID1)を補足しているのではなく,親投稿に対しての個人的かつ否定的な見解であることを判定できていることが確認できる.また,bのID3では国ごとの製品価格の違いについて意見を述べているが,誤ってAnswerと推定されていた談話行為が正しくHumorと推定されるようになった.提案モデルにより,ID3の投稿は親投稿(ID1)の質問に答えているというより,親投稿の内容に即した冗談であることを判定できていることが確認できる.
\section{おわりに}
\label{sec:conc}本稿では議論のパターンをニューラルネットワークを用いて学習し,談話行為を分類するモデルを提案した.提案モデルでは3種類の構成要素(Parent-BranchTree-LSTM,Child-SumTree-LSTM,GCN)を用意し,議論のパターンを学習することを試みた.評価実験により,提案モデルは従来モデルと比較してAccuracyで$1.5\%$,${\rmF}_1$値で$2.2$の性能向上を確認した.また,3種類の構成要素間の関係を注意機構の確率値を通じて分析した.今後の課題としては,提案モデルをReddit以外の議論に対して適用することを検討している.Redditには大規模な投稿データを容易に入手できるという利点があるが,投稿時間や投稿者の属性等のテキスト以外の要素が投稿に大きな影響を与えている.議論を分析するための柔軟なアーキテクチャを探索するためにも,今後は提案モデルの拡張をより一層進めたい.\acknowledgment東京工業大学奥村・高村研究室の皆様には,ニューラルネットワークを用いて木構造やグラフ構造を学習する手法について,議論を通じて様々なアドバイスを頂きました.ここに感謝の意を表します.また,本論文はThe27thInternationalConferenceonComputationalLinguistics(COLING2018)に採択された,IntegratingTreeStructuresandGraphStructureswithNeuralNetworkstoClassifyDiscussionDiscourseActs\cite{Miura2018}を日本語で書き直し内容を追加したものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bhatia,Biyani,\BBA\Mitra}{Bhatiaet~al.}{2012}]{Bhatia2012}Bhatia,S.,Biyani,P.,\BBA\Mitra,P.\BBOP2012\BBCP.\newblock\BBOQClassifyingUserMessagesForManagingWebForumData.\BBCQ\\newblockIn{\BemProceedingsofthe15thInternationalworkshopontheWebandDatabases}.\bibitem[\protect\BCAY{Bunt,Alexandersson,Carletta,Choe,Fang,Hasida,Lee,Petukhova,Popescu-Belis,Romary,Soria,\BBA\Traum}{Buntet~al.}{2010}]{Bunt2010}Bunt,H.,Alexandersson,J.,Carletta,J.,Choe,J.-W.,Fang,A.~C.,Hasida,K.,Lee,K.,Petukhova,V.,Popescu-Belis,A.,Romary,L.,Soria,C.,\BBA\Traum,D.\BBOP2010\BBCP.\newblock\BBOQTowardsanISOStandardforDialogueActAnnotation.\BBCQ\\newblockIn{\BemProceedingsofthe7thConferenceonInternationalLanguageResourcesandEvaluation},\mbox{\BPGS\2548--2555}.\bibitem[\protect\BCAY{Buntain\BBA\Golbeck}{Buntain\BBA\Golbeck}{2014}]{Buntain2014}Buntain,C.\BBACOMMA\\BBA\Golbeck,J.\BBOP2014\BBCP.\newblock\BBOQIdentifyingSocialRolesinRedditUsingNetworkStructure.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponModelingSocialMedia:MiningBigDatainSocialMediaandtheWeb},\mbox{\BPGS\615--620}.\bibitem[\protect\BCAY{Carvalho\BBA\Cohen}{Carvalho\BBA\Cohen}{2006}]{Carvalho2006}Carvalho,V.\BBACOMMA\\BBA\Cohen,W.\BBOP2006\BBCP.\newblock\BBOQImproving``EmailSpeechActs''AnalysisviaN-gramSelection.\BBCQ\\newblockIn{\BemProceedingsoftheAnalyzingConversationsinTextandSpeech},\mbox{\BPGS\35--41}.\bibitem[\protect\BCAY{Carvalho\BBA\Cohen}{Carvalho\BBA\Cohen}{2005}]{Carvalho2005}Carvalho,V.~R.\BBACOMMA\\BBA\Cohen,W.~W.\BBOP2005\BBCP.\newblock\BBOQOntheCollectiveClassificationofEmail``SpeechAct''.\BBCQ\\newblockIn{\BemProceedingsofthe28thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\345--352}.\bibitem[\protect\BCAY{Cheng,Fang,\BBA\Ostendorf}{Chenget~al.}{2017}]{Cheng2017}Cheng,H.,Fang,H.,\BBA\Ostendorf,M.\BBOP2017\BBCP.\newblock\BBOQAFactoredNeuralNetworkModelforCharacterizingOnlineDiscussionsinVectorSpace.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\2296--2306}.\bibitem[\protect\BCAY{Cohen,Carvalho,\BBA\Mitchell}{Cohenet~al.}{2004}]{Cohen2004}Cohen,W.~W.,Carvalho,V.~R.,\BBA\Mitchell,T.~M.\BBOP2004\BBCP.\newblock\BBOQLearningtoClassifyEmailinto``SpeechActs''.\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\309--316}.\bibitem[\protect\BCAY{Defferrard,Bresson,\BBA\Vandergheynst}{Defferrardet~al.}{2016}]{Defferrard2016}Defferrard,M.,Bresson,X.,\BBA\Vandergheynst,P.\BBOP2016\BBCP.\newblock\BBOQConvolutionalNeuralNetworksonGraphswithFastLocalizedSpectralFiltering.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems29},\mbox{\BPGS\3844--3852}.CurranAssociates,Inc.\bibitem[\protect\BCAY{Ferschke,Gurevych,\BBA\Chebotar}{Ferschkeet~al.}{2012}]{Ferschke2012}Ferschke,O.,Gurevych,I.,\BBA\Chebotar,Y.\BBOP2012\BBCP.\newblock\BBOQBehindtheArticle:RecognizingDialogActsinWikipediaTalkPages.\BBCQ\\newblockIn{\BemProceedingsofthe13thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\777--786}.\bibitem[\protect\BCAY{Hammond,Vandergheynst,\BBA\Gribonval}{Hammondet~al.}{2011}]{Hammond2011}Hammond,D.~K.,Vandergheynst,P.,\BBA\Gribonval,R.\BBOP2011\BBCP.\newblock\BBOQWaveletsonGraphsviaSpectralGraphTheory.\BBCQ\\newblock{\BemAppliedandComputationalHarmonicAnalysis},{\Bbf30}(2),\mbox{\BPGS\129--150}.\bibitem[\protect\BCAY{He,Ostendorf,\BBA\He}{Heet~al.}{2017}]{He2017}He,J.,Ostendorf,M.,\BBA\He,X.\BBOP2017\BBCP.\newblock\BBOQReinforcementLearningwithExternalKnowledgeandTwo-StageQ-functionsforPredictingPopularRedditThreads.\BBCQ\\newblock{\BemarXivpreprintarXiv:1704.06217}.\bibitem[\protect\BCAY{He,Ostendorf,He,Chen,Gao,Li,\BBA\Deng}{Heet~al.}{2016}]{He2016}He,J.,Ostendorf,M.,He,X.,Chen,J.,Gao,J.,Li,L.,\BBA\Deng,L.\BBOP2016\BBCP.\newblock\BBOQDeepReinforcementLearningwithaCombinatorialActionSpaceforPredictingPopularRedditThreads.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1838--1848}.\bibitem[\protect\BCAY{Hessel,Lee,\BBA\Mimno}{Hesselet~al.}{2017}]{Hessel2017}Hessel,J.,Lee,L.,\BBA\Mimno,D.\BBOP2017\BBCP.\newblock\BBOQCatsandCaptionsvs.CreatorsandtheClock:ComparingMultimodalContenttoContextinPredictingRelativePopularity.\BBCQ\\newblockIn{\BemProceedingsofthe26thInternationalConferenceonWorldWideWeb},\mbox{\BPGS\927--936}.\bibitem[\protect\BCAY{Hochreiter\BBA\Schmidhuber}{Hochreiter\BBA\Schmidhuber}{1997}]{Hochreiter1997}Hochreiter,S.\BBACOMMA\\BBA\Schmidhuber,J.\BBOP1997\BBCP.\newblock\BBOQLongShort-TermMemory.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf9}(8),\mbox{\BPGS\1735--1780}.\bibitem[\protect\BCAY{Hu,Passonneau,\BBA\Rambow}{Huet~al.}{2009}]{Hu2009}Hu,J.,Passonneau,R.,\BBA\Rambow,O.\BBOP2009\BBCP.\newblock\BBOQContrastingtheInteractionStructureofanEmailandaTelephoneCorpus:AMachineLearningApproachtoAnnotationofDialogueFunctionUnits.\BBCQ\\newblockIn{\BemProceedingsoftheSIGDIAL2009Conference},\mbox{\BPGS\357--366}.\bibitem[\protect\BCAY{Huang,Xu,\BBA\Yu}{Huanget~al.}{2015}]{Huang2015}Huang,Z.,Xu,W.,\BBA\Yu,K.\BBOP2015\BBCP.\newblock\BBOQBidirectionalLSTM-CRFModelsforSequenceTagging.\BBCQ\\newblock{\BemarXivpreprintarXiv:1508.01991}.\bibitem[\protect\BCAY{Jaech,Zayats,Fang,Ostendorf,\BBA\Hajishirzi}{Jaechet~al.}{2015}]{Jaech2015}Jaech,A.,Zayats,V.,Fang,H.,Ostendorf,M.,\BBA\Hajishirzi,H.\BBOP2015\BBCP.\newblock\BBOQTalkingtotheCrowd:WhatDoPeopleReacttoinOnlineDiscussions?\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\2026--2031}.\bibitem[\protect\BCAY{Kim,Cavedon,\BBA\Baldwin}{Kimet~al.}{2010a}]{Kim2010a}Kim,S.~N.,Cavedon,L.,\BBA\Baldwin,T.\BBOP2010a\BBCP.\newblock\BBOQClassifyingDialogueActsinOne-on-OneLiveChats.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\862--871}.\bibitem[\protect\BCAY{Kim,Wang,\BBA\Baldwin}{Kimet~al.}{2010b}]{Kim2010b}Kim,S.~N.,Wang,L.,\BBA\Baldwin,T.\BBOP2010b\BBCP.\newblock\BBOQTaggingandLinkingWebForumPosts.\BBCQ\\newblockIn{\BemProceedingsofthe14thConferenceonComputationalNaturalLanguageLearning},\mbox{\BPGS\192--202}.\bibitem[\protect\BCAY{Kipf\BBA\Welling}{Kipf\BBA\Welling}{2017}]{Kipf2017}Kipf,T.~N.\BBACOMMA\\BBA\Welling,M.\BBOP2017\BBCP.\newblock\BBOQSemi-SupervisedClassificationwithGraphConvolutionalNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonLearningRepresentations}.\bibitem[\protect\BCAY{Lample,Ballesteros,Subramanian,Kawakami,\BBA\Dyer}{Lampleet~al.}{2016}]{Lample2016}Lample,G.,Ballesteros,M.,Subramanian,S.,Kawakami,K.,\BBA\Dyer,C.\BBOP2016\BBCP.\newblock\BBOQNeuralArchitecturesforNamedEntityRecognition.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\260--270}.\bibitem[\protect\BCAY{Lim,Carman,\BBA\Wong}{Limet~al.}{2017}]{Lim2017}Lim,W.~H.,Carman,M.~J.,\BBA\Wong,S.-M.~J.\BBOP2017\BBCP.\newblock\BBOQEstimatingRelativeUserExpertiseforContentQualityPredictiononReddit.\BBCQ\\newblockIn{\BemProceedingsofthe28thACMConferenceonHypertextandSocialMedia},\mbox{\BPGS\55--64}.\bibitem[\protect\BCAY{Lin,Feng,dosSantos,Yu,Xiang,Zhou,\BBA\Bengio}{Linet~al.}{2017}]{Lin2017}Lin,Z.,Feng,M.,dosSantos,C.~N.,Yu,M.,Xiang,B.,Zhou,B.,\BBA\Bengio,Y.\BBOP2017\BBCP.\newblock\BBOQAStructuredSelf-attentiveSentenceEmbedding.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalConferenceonLearningRepresentations}.\bibitem[\protect\BCAY{Liu,Baldwin,\BBA\Cohn}{Liuet~al.}{2017}]{Liu2017}Liu,F.,Baldwin,T.,\BBA\Cohn,T.\BBOP2017\BBCP.\newblock\BBOQCapturingLong-rangeContextualDependencieswithMemory-enhancedConditionalRandomFields.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\555--565}.\bibitem[\protect\BCAY{Ma\BBA\Hovy}{Ma\BBA\Hovy}{2016}]{Ma2016}Ma,X.\BBACOMMA\\BBA\Hovy,E.\BBOP2016\BBCP.\newblock\BBOQEnd-to-endSequenceLabelingviaBi-directionalLSTM-CNNs-CRF.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1064--1074}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{Mikolov2013}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.~S.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandtheirCompositionality.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems26},\mbox{\BPGS\3111--3119}.\bibitem[\protect\BCAY{Miura,Kano,Taniguchi,Taniguchi,Misawa,\BBA\Ohkuma}{Miuraet~al.}{2018}]{Miura2018}Miura,Y.,Kano,R.,Taniguchi,M.,Taniguchi,T.,Misawa,S.,\BBA\Ohkuma,T.\BBOP2018\BBCP.\newblock\BBOQIntegratingTreeStructuresandGraphStructureswithNeuralNetworkstoClassifyDiscussionDiscourseActs.\BBCQ\\newblockIn{\BemProceedingsofthe27thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\3806--3818}.\bibitem[\protect\BCAY{Omuya,Prabhakaran,\BBA\Rambow}{Omuyaet~al.}{2013}]{Omuya2013}Omuya,A.,Prabhakaran,V.,\BBA\Rambow,O.\BBOP2013\BBCP.\newblock\BBOQImprovingtheQualityofMinorityClassIdentificationinDialogActTagging.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\802--807}.\bibitem[\protect\BCAY{Socher,Karpathy,Le,Manning,\BBA\Ng}{Socheret~al.}{2014}]{Socher2014}Socher,R.,Karpathy,A.,Le,Q.~V.,Manning,C.~D.,\BBA\Ng,A.~Y.\BBOP2014\BBCP.\newblock\BBOQGroundedCompositionalSemanticsforFindingandDescribingImageswithSentences.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf2},\mbox{\BPGS\207--218}.\bibitem[\protect\BCAY{Socher,Lin,Ng,\BBA\Manning}{Socheret~al.}{2011}]{Socher2011}Socher,R.,Lin,C.C.-Y.,Ng,A.~Y.,\BBA\Manning,C.~D.\BBOP2011\BBCP.\newblock\BBOQParsingNaturalScenesandNaturalLanguagewithRecursiveNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe28thInternationalConferenceonInternationalConferenceonMachineLearning},\mbox{\BPGS\129--136}.\bibitem[\protect\BCAY{Srivastava,Hinton,Krizhevsky,Sutskever,\BBA\Salakhutdinov}{Srivastavaet~al.}{2014}]{Srivastava2014}Srivastava,N.,Hinton,G.,Krizhevsky,A.,Sutskever,I.,\BBA\Salakhutdinov,R.\BBOP2014\BBCP.\newblock\BBOQDropout:ASimpleWaytoPreventNeuralNetworksfromOverfitting.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf15},\mbox{\BPGS\1929--1958}.\bibitem[\protect\BCAY{Stolcke,Ries,Coccaro,Shriberg,Bates,Jurafsky,Taylor,Martin,VanEss-Dykema,\BBA\Meteer}{Stolckeet~al.}{2000}]{Stolcke2000}Stolcke,A.,Ries,K.,Coccaro,N.,Shriberg,E.,Bates,R.~A.,Jurafsky,D.,Taylor,P.,Martin,R.,VanEss-Dykema,C.,\BBA\Meteer,M.\BBOP2000\BBCP.\newblock\BBOQDialogueActModelingforAutomaticTaggingandRecognitionofConversationalSpeech.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf26}(3),\mbox{\BPGS\339--373}.\bibitem[\protect\BCAY{Tai,Socher,\BBA\Manning}{Taiet~al.}{2015}]{Tai2015}Tai,K.~S.,Socher,R.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQImprovedSemanticRepresentationsFromTree-StructuredLongShort-TermMemoryNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\1556--1566}.\bibitem[\protect\BCAY{Tan,Niculae,Danescu-Niculescu-Mizil,\BBA\Lee}{Tanet~al.}{2016}]{Tan2016}Tan,C.,Niculae,V.,Danescu-Niculescu-Mizil,C.,\BBA\Lee,L.\BBOP2016\BBCP.\newblock\BBOQWinningArguments:InteractionDynamicsandPersuasionStrategiesinGood-faithOnlineDiscussions.\BBCQ\\newblockIn{\BemProceedingsofthe25thInternationalConferenceonWorldWideWeb},\mbox{\BPGS\613--624}.\bibitem[\protect\BCAY{Wang,Lui,Kim,Nivre,\BBA\Baldwin}{Wanget~al.}{2011}]{Wang2011}Wang,L.,Lui,M.,Kim,S.~N.,Nivre,J.,\BBA\Baldwin,T.\BBOP2011\BBCP.\newblock\BBOQPredictingThreadDiscourseStructureoverTechnicalWebForums.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\13--25}.\bibitem[\protect\BCAY{Wang,Joshi,\BBA\Rose}{Wanget~al.}{2007}]{Wang2007}Wang,Y.-C.,Joshi,M.,\BBA\Rose,C.\BBOP2007\BBCP.\newblock\BBOQAFeatureBasedApproachtoLeveragingContextforClassifyingNewsgroupStyleDiscussionSegments.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\73--76}.\bibitem[\protect\BCAY{Wei,Liu,\BBA\Li}{Weiet~al.}{2016}]{Wei2016b}Wei,Z.,Liu,Y.,\BBA\Li,Y.\BBOP2016\BBCP.\newblock\BBOQIsThisPostPersuasive?RankingArgumentativeCommentsinOnlineForum.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\195--200}.\bibitem[\protect\BCAY{Yang,Yang,Dyer,He,Smola,\BBA\Hovy}{Yanget~al.}{2016}]{Yang2016}Yang,Z.,Yang,D.,Dyer,C.,He,X.,Smola,A.,\BBA\Hovy,E.\BBOP2016\BBCP.\newblock\BBOQHierarchicalAttentionNetworksforDocumentClassification.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\1480--1489}.\bibitem[\protect\BCAY{Zayats\BBA\Ostendorf}{Zayats\BBA\Ostendorf}{2018}]{Zayats2018}Zayats,V.\BBACOMMA\\BBA\Ostendorf,M.\BBOP2018\BBCP.\newblock\BBOQConversationModelingonRedditUsingaGraph-StructuredLSTM.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf6},\mbox{\BPGS\121--132}.\bibitem[\protect\BCAY{Zhang,Culbertson,\BBA\Paritosh}{Zhanget~al.}{2017}]{Zhang2017}Zhang,A.,Culbertson,B.,\BBA\Paritosh,P.\BBOP2017\BBCP.\newblock\BBOQCharacterizingOnlineDiscussionUsingCoarseDiscourseSequences.\BBCQ\\newblockIn{\BemProceedingsofthe11thAAAIInternationalConferenceonWebandSocialMedia},\mbox{\BPGS\357--366}.\bibitem[\protect\BCAY{Zhang,Gao,\BBA\Li}{Zhanget~al.}{2011}]{Zhang2011}Zhang,R.,Gao,D.,\BBA\Li,W.\BBOP2011\BBCP.\newblock\BBOQWhatAreTweetersDoing:RecognizingSpeechActsinTwitter.\BBCQ\\newblockIn{\BemProceedingsoftheAAAI-11WorkshoponAnalyzingMicrotext},\mbox{\BPGS\86--91}.\bibitem[\protect\BCAY{Zhang,Gao,\BBA\Li}{Zhanget~al.}{2012}]{Zhang2012}Zhang,R.,Gao,D.,\BBA\Li,W.\BBOP2012\BBCP.\newblock\BBOQTowardsScalableSpeechActRecognitioninTwitter:TacklingInsufficientTrainingData.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponSemanticAnalysisinSocialMedia},\mbox{\BPGS\18--27}.\end{thebibliography}\begin{biography}\bioauthor{三浦康秀}{2004年電気通信大学大学院電気通信学研究科修士課程修了.同年,富士ゼロックス株式会社入社.現在,コミュニケーション技術研究所において,自然言語処理の研究開発に従事.また併せて,2016年より東京工業大学工学院情報通信系博士後期課程に在学中.言語処理学会会員.}\bioauthor{狩野竜示}{2013年東京大学情報理工学系研究科修士課程修了.同年,富士ゼロックス株式会社入社.現在,コミュニケーション技術研究所において,自然言語処理の研究開発に従事.}\bioauthor{谷口元樹}{2009年北海道大学大学院情報科学研究科修士課程修了.同年,富士ゼロックス株式会社入社.現在,コミュニケーション技術研究所において,自然言語処理の研究開発に従事.}\bioauthor{谷口友紀}{2004年神戸大学大学院自然科学研究科修士課程修了.同年,富士ゼロックス株式会社入社.現在,コミュニケーション技術研究所において,自然言語処理の研究開発に従事.}\bioauthor{三沢翔太郎}{2016年早稲田大学大学院創造理工学研究科修士課程修了.同年,富士ゼロックス株式会社入社.現在,コミュニケーション技術研究所において,自然言語処理の研究開発に従事.}\bioauthor{大熊智子}{1994年東京女子大学文理学部卒業.1996年慶應義塾大学政策・メディア研究科修士課程修了.同年,富士ゼロックス株式会社入社.現在,コミュニケーション技術研究所において,自然言語処理と情報推薦の研究に従事.言語処理学会編集委員.博士(学術).}\end{biography}\biodate\end{document}
| |
V07N02-02 | \section{はじめに}
\label{sec:introduction}近年,WWWを通じて英字新聞記事に接する機会が増えてきたことに伴い,より正確に英文記事を日本語に翻訳する必要性が高まってきている.新聞記事は見出しと本文から構成されるが,見出しは記事の最も重要な情報を伝える表現である\footnote{テキストから重要な文を選択するテキスト抄録システムにおいて,見出しを最も重要な文であるとみなす考え方\cite{Nakao97,Yoshimi99}がある.}ため,見出しを正確に翻訳することは他の表現の翻訳に比べてより一層重要である.英字新聞記事の見出しは,できるだけ少ない文字数でできるだけ多くの情報を伝えるためや,読者の注意を引くために,通常の文の表現形式とは異なる特有の形式をしている.このため,従来の英日機械翻訳システムでは適切に翻訳できない場合が多い.その原因は主に,見出し特有表現の構文解析を適切に行なうための構文解析規則が,様々な種類や分野のテキストを扱うことを前提に開発された機械翻訳システムでは記述されていないことにあると考えられる.既存の構文解析規則で適切に扱えない表現への対応策の選択肢としては,特殊な表現形式が扱えるように構文解析規則を拡張するアプローチと,既存の構文解析規則は変更せず,既存の規則でも適切に処理できるように原言語の表現を書き換える新たなモジュールを設けるアプローチが考えられる.後者のアプローチとして,長い文の構文解析が失敗しやすいという問題に,長文を複数の短文に分割することによって対処する方法\cite{Kim94}や,書き換えを行なうべきかどうかの判定精度を高めるために,完全な構文情報が得られる構文解析終了後にまで書き換え規則の適用を遅らせる方法\footnote{この方法は,日英間の構造的な差異を調整し,より自然な翻訳を生成するために構文構造を書き換える方法\cite{Nagao85a}に近いと考えられる.}\cite{Shirai95}などがこれまでに示されている.実際に運用されている機械翻訳システムでは構文解析規則の規模は非常に大きくなっているため,既存の規則との整合性を保ちながら新たな規則を追加することは容易ではない.また,特殊な表現を扱うための規則を追加すると規則の汎用性が損なわれる恐れがある.これに対して,既存の規則には手を加えず,原言語の表現を書き換える前編集系を新たに開発する方が,書き換え結果が既存の構文解析規則で正しく解析できるかどうかを人手で判断することは比較的容易であるという点や,規則の汎用性を維持することができるという点でシステムの開発,維持上望ましい.本研究では,従来の機械翻訳システムによる新聞記事見出し翻訳の品質が低いという問題に対して自動前編集モジュールを設けるアプローチを採り,浅いレベルの手がかりに基づいて原言語の表現を書き換えることによってこの問題を解決することを目指している.自動前編集による見出し翻訳の品質改善の一例として本稿では,見出し特有表現のうち比較的高い頻度\footnote{284件の見出しを対象とした我々の調査で確認された見出し特有の表現\cite{Uenoda78}は,be動詞の省略を含むものが73件(25.7\%),等位接続詞のコンマでの代用を含むものが25件(8.8\%),``say''のコロンでの代用を含むものが4件(1.4\%)などである.ただし,現在形で過去の事象を表す表現や冠詞の省略などは今回の調査では考慮しなかった.}で見られるbe動詞の省略現象に対象を絞り,be動詞が省略されている見出しにbe動詞を正しく補うための書き換え規則を,形態素解析と粗い構文解析\footnote{具体的には,\ref{sec:preeditHeadline:cond}\,節で述べる手続きによる処理を指す.}によって得られる情報に基づいて記述し,これらの書き換え規則によって適切な書き換えが行なえることを示す.本稿の対象は英字新聞記事見出しという限定されたものであるが,英字新聞記事は英日機械翻訳システムの一般利用者が日々接することが多いテキストの一つであるため,実用的なシステムにおける見出し解析の重要性は高い.また,本稿の目的はbe動詞を補うことによって見出し解析の精度を向上させることにあり,書き換えた見出しの翻訳が日本語新聞記事の見出しの文体に照らし合わせて適切であるかどうかは本稿の対象外である.
\section{英々変換系}
\label{sec:preedit}\subsection{英々変換の枠組}\label{sec:preedit:flow}本節で述べる自動前編集系(英々変換系)を組み込んだ機械翻訳システムにおける解析の流れを図\ref{fig:flow}\,に示す.このシステムでは,形態素解析終了後に英々変換を実行して英語表現を書き換えた後,書き換えた部分の形態素解析を行ない,表現全体の形態素解析結果を構文解析系に送る.一度目の書き換え結果に対する構文解析に失敗した場合\footnote{本稿では,入力表現全体を覆う構文構造が生成できないことを構文解析の失敗と呼ぶ.},処理の制御は英々変換に戻る.再度英々変換を行なう場合には,各書き換え規則に記述されている規則の信頼度(後述)に従って,一度目の英々変換では用いなかった規則を新たに適用したり,逆に一度目の処理で行なった書き換えを取り消したりする\footnote{二度目の構文解析に失敗した場合には,断片的な構文構造を内部表現とする.}.\begin{figure}[htbp]\begin{center}\fbox{\epsfile{file=flow2.eps,width=0.6\columnwidth}}\end{center}\caption{解析の流れ}\label{fig:flow}\end{figure}英々変換系での処理は,形態素解析結果に対して先頭から順に書き換え規則の適用条件との照合を行なっていき,適用条件が満たされる部分を順次書き換えていく.この英々変換系は,新聞記事見出しの書き換え専用に設計したものではなく,通常の表現も対象とした一般的な枠組である.実際,見出し以外の表現に対する書き換え規則として,挿入語句を識別する規則や長い表現を分割する規則などが記述されている.\subsection{書き換え規則の形式}\label{sec:preedit:ruleformat}書き換え規則には,次に示すように,適用条件と書き換え操作の他,制御情報として適用抑制規則集合と信頼度を記述することができる.\[(\,識別番号,適用条件,書き換え操作,適用抑制規則集合,信頼度\,)\]書き換え対象候補が適用条件を満たすかどうかの判定は,書き換え対象候補の形態素語彙属性や構文属性を調べる手続きを用いて行なう.書き換え操作には,英語表現を追加,削除,置換する操作と,システム固有の編集記号を付加する操作がある.実験に用いたシステムでは,利用可能な編集記号として,多品詞語の品詞を指定する記号や,節や句の範囲や従属先を指定する記号など54種類が定義されている.編集記号の付加によって解釈の曖昧性が減るため,解析の精度と速度の向上が期待できる.ある規則$R$に与えられている適用抑制規則集合は$R$の適用を抑える他の規則に関するメタ条件を表し,規則$R$はその適用抑制規則集合に記述されている識別番号の規則が既に適用されている場合には適用されない.規則$R$の適用抑制規則集合には,$R$の書き換え対象と重複する部分を書き換えようとする規則だけでなく,書き換え対象が$R$のものと重複しない規則を含めてもよい.規則には,その信頼性が高く,規則の適用によって翻訳品質が向上することがほぼ確実な規則もあれば,信頼性があまり高くない規則もある.信頼度は,このようなことを考慮して,信頼性があまり高くない規則による悪影響を抑えるために設定したものである.各規則には,その信頼性に応じてA,B,Cのいずれかの信頼度を与える.信頼度Aの規則は最初の構文解析の前に適用し,構文解析に失敗してもこの規則による書き換えは取り消さない.規則に信頼度Aを与えるのは,この規則を適用しないと構文解析に失敗することがほぼ確実であり,たとえこの規則によって書き換えた表現の構文解析に失敗して断片的な構文構造しか得られなかったとしても,この規則を適用しない場合の(断片的な)構文構造から生成される翻訳よりも高い品質の翻訳が生成されると期待される場合である.信頼度Bの規則は最初の構文解析の前に適用するが,最初の構文解析に失敗した場合,この規則による書き換えは取り消す.信頼度Cの規則は最初の構文解析の前には適用せず,最初の構文解析に失敗した場合に初めて適用する.簡単な書き換え規則の例を図\ref{fig:EtoE_rule}\,に示す.この規則は新聞記事見出しの書き換え用ではないが,倒置文の構文解析が失敗することに対処するためのものである.この規則は,現在着目している語が入力文の先頭語であり(\verb+p==1+),着目語の(細分類)品詞候補として過去分詞の可能性があるが名詞の可能性がなく,さらに着目語の直後の語が``is''であるときに適用される.この適用条件が満たされると,着目語の先頭文字を小文字に変換し,``Whatis''という語句を着目語の直前に挿入する.この処理によって,例えば``AffiliatedistheparentcompanyofGlobeNewspaperCo.''という文が``WhatisaffiliatedistheparentcompanyofGlobeNewspaperCo.''に書き換えられる.\begin{figure}[tbhp]\begin{RULE}{0.9\textwidth}\begin{verbatim}(301,(p==1&&word_class(p,past_participle)==TRUE&&word_class(p,noun)==FALSE&&word(p+1,"is")==TRUE),(to_lower(p),insert(p-1,"Whatis")),(),A)\end{verbatim}\end{RULE}\caption{書き換え規則の例}\label{fig:EtoE_rule}\end{figure}
\section{英字新聞記事見出しの調査}
\label{sec:investigation}英字新聞記事の見出しでは,述語の時制や態などに関する情報の省略や,冠詞の省略,略語の使用,等位接続詞のコンマでの代用など文字数を節約するための様々な工夫がなされている\cite{Uenoda78}.本研究では,これら見出し特有の現象のうち時制情報などの省略に関連するbe動詞の省略現象を扱うことにし,ロイター記事\cite{Lewis97}の見出し284件を対象として次の四項目の調査を行なった.\begin{enumerate}\itembe動詞が省略されているのはどのような場合か.\label{enum:key}\itembe動詞が省略されている見出しをそのまま我々の実験システムで翻訳した場合の翻訳品質はどの程度か.\label{enum:quality}\itembe動詞が省略されている見出しにbe動詞が適切に補われた場合,項目(\ref{enum:quality})の翻訳に比べてどの程度品質が改善されるか.\label{enum:improve}\item形態素語彙,構文上のどのような現象が,be動詞が省略されている見出しとそうでない見出しを区別する手がかりとなるか.\label{enum:feats}\end{enumerate}本節では項目(\ref{enum:key}),(\ref{enum:quality}),(\ref{enum:improve})についての調査結果を示し,項目(\ref{enum:feats})については\ref{sec:preeditHeadline:cond}\,節で述べる.\subsection{\protect\KEYの種類}\label{sec:investigation:key}be動詞の省略は調査対象の見出し284件のうち73件において見られた.一般にbe動詞の省略は一つの見出しにおいて複数箇所で行なわれうるが,これら73件の見出しでは一箇所での省略しか行なわれていなかった.通常の表現形式ではbe動詞と結び付けられ全体で定形述語と解釈される表現をここでは\KEYと呼ぶ.73件の見出しに出現した\KEYは,受動態用法の過去分詞,to不定詞,現在分詞,叙述用法の形容詞,前置詞句,複合動詞の構成素の六種類であった.ここで複合動詞の構成素とは,be動詞と結合して複合動詞となる語句を意味し,例えば``beup''における``up''などである.各\KEYごとに,それが出現した見出しの例(上段)と,省略箇所に人手でbe動詞を補った表現(下段),さらに出現件数を表\ref{tab:stat}\,に示す.表\ref{tab:stat}\,では,\KEYに下線を付し,人手で補ったbe動詞を斜字体で示している.\begin{table}[htbp]\caption{be動詞が省略されている見出しの例と件数}\label{tab:stat}\begin{center}\begin{tabular}{|l||l|r|}\hline\multicolumn{1}{|c||}{\KEY}&\multicolumn{1}{|c|}{例}&\multicolumn{1}{|c|}{件数}\\\hline\hline過去分詞&\begin{minipage}{0.6\columnwidth}\vspace*{1mm}\begin{HEADLINE2}\headlineACalabrianbank\underline{taken}overbycommissioners\headlineBCalabrianbank{\itwas}\underline{taken}overbycommissioners\label{HEADLINE2:taken}\end{HEADLINE2}\vspace*{0mm}\end{minipage}&24\\\hlineto不定詞&\begin{minipage}{0.6\columnwidth}\vspace*{1mm}\begin{HEADLINE2}\headlineAU.S.official\underline{tovisit}Japanastraderowgrows\headlineBU.S.official{\itis}\underline{tovisit}Japanastraderowgrows\label{HEADLINE2:visit}\end{HEADLINE2}\vspace*{0mm}\end{minipage}&17\\\hline現在分詞&\begin{minipage}{0.6\columnwidth}\vspace*{1mm}\begin{HEADLINE2}\headlineASenate\underline{preparing}fornewU.S.budgetbattle\headlineBSenate{\itis}\underline{preparing}fornewU.S.budgetbattle\label{HEADLINE2:preparing}\end{HEADLINE2}\vspace*{0mm}\end{minipage}&12\\\hline形容詞&\begin{minipage}{0.6\columnwidth}\vspace*{1mm}\begin{HEADLINE2}\headlineAEarlygulfcashsoybeansslightly\underline{firmer}\headlineBEarlygulfcashsoybeans{\itare}slightly\underline{firmer}\label{HEADLINE2:firmer}\end{HEADLINE2}\vspace*{0mm}\end{minipage}&11\\\hline前置詞句&\begin{minipage}{0.6\columnwidth}\vspace*{1mm}\begin{HEADLINE2}\headlineANoprospect\underline{insightofECbudgetaccord}\headlineBNoprospect{\itis}\underline{insightofECbudgetaccord}\label{HEADLINE2:insightof}\end{HEADLINE2}\vspace*{0mm}\end{minipage}&6\\\hline複合動詞の構成素&\begin{minipage}{0.6\columnwidth}\vspace*{1mm}\begin{HEADLINE2}\headlineAPanAmFebruaryloadfactor\underline{up}\headlineBPanAmFebruaryloadfactor{\itwas}\underline{up}\label{HEADLINE2:up}\end{HEADLINE2}\vspace*{0mm}\end{minipage}&3\\\hline\multicolumn{1}{|c||}{合計}&&73\\\hline\end{tabular}\end{center}\end{table}\subsection{従来システムによる見出し翻訳の品質}\label{sec:investigation:quality}従来システムによる見出し翻訳の問題点を明らかにしておくために,be動詞が省略されている73件の見出しをそのまま我々の実験システムで処理し,その結果を評価した.評価の際に翻訳のどの部分を対象とするかに関して,見出し全体を対象とすることと,\KEYに直接関連がある部分だけを対象とすることが考えられる.ここではbe動詞の省略が翻訳品質に及ぼす影響に関心があるため,後者の局所的な評価を行なった.評価値は合格か不合格かの二値とした.合否判定は,翻訳が文法的であるかという観点と,文法的な翻訳の場合,翻訳の意味が元の見出しの意味と一致しているかという観点から行なった.翻訳の文体が新聞記事見出しとして適切であるかどうかは考慮しなかった.合格と認める翻訳は文法的であり意味的に等価なものである.be動詞が省略されいることが原因で文法的でないか意味的に等価でない翻訳が生成された場合は不合格とした.\begin{table}[htbp]\vspace{-3mm}\caption{be動詞が省略されている見出しの翻訳品質}\label{tab:quality}\begin{center}\begin{tabular}{|l||r|r|}\hline\multicolumn{1}{|c||}{\KEY}&\multicolumn{1}{|c|}{合格}&\multicolumn{1}{|c|}{不合格}\\\hline\hline過去分詞&16&8\\to不定詞&1&16\\現在分詞&10&2\\形容詞&6&5\\前置詞句&2&4\\複合動詞の構成素&1&2\\\hline\multicolumn{1}{|c||}{合計}&36&37\\\hline\end{tabular}\end{center}\end{table}評価結果を表\ref{tab:quality}\,に示す.\KEY全体では,合格と不合格の件数はそれぞれ36件と37件でほぼ同じであるが,\KEY別に見ると,現在分詞の場合には12件中10件が合格したのに対してto不定詞の場合には17件中16件とほとんどが不合格となった.\KEYが現在分詞である場合にほとんどが合格となるのは,\KEYをその前方に存在する名詞句に従属させた解釈が,be動詞を補った場合の翻訳とほぼ等しい意味を伝えている場合,その解釈を合格としたためである.例えば表\ref{tab:stat}\,の見出し(H\ref{HEADLINE2:preparing})は本来be動詞を補って(H\ref{HEADLINE2:preparing}')のように解釈されるべきであるが,(H\ref{HEADLINE2:preparing})の翻訳「新しい米国の予算の戦いに備えて準備している上院」は,(H\ref{HEADLINE2:preparing}')の翻訳「上院は,新しい米国の予算の戦いに備えて準備している」と意味的に等しいので合格とした.他の\KEYについてもこのような場合には合格とした.\KEYがto不定詞の場合には,\KEYをその前方の名詞句に従属させると,be動詞を補った場合とは意味が大きく異なる翻訳が生成された.不合格となった16件はすべて,to不定詞が「$\cdots$するための」と訳され,本来伝えられるべき予定や運命などの意味に解釈することができなかった.例えば表\ref{tab:stat}\,の見出し(H\ref{HEADLINE2:visit})は予定を表す文と解釈しなければならないが,(H\ref{HEADLINE2:visit})の翻訳「日本を訪問するための米国の職員」はそのように解釈できない.元の意味と大きく異なる意味を伝える翻訳が生成されたもう一つの例は,過去分詞形と解釈されるべき\KEYが定形(現在形または過去形)と解釈された場合である.例えば次の見出し(H\ref{HEADLINE:sued})では``sued''が過去形とみなされ,対象格と解釈されるべき``Three''が主格と解釈された.\begin{HEADLINE}\headlineThree\underline{sued}overballvalvesforninemilepoint\label{HEADLINE:sued}\end{HEADLINE}規則動詞や一部の不規則動詞の過去分詞形は定形と表記が同一であるため,このような誤りが生じる見出しの件数は少なくない.不合格と判定された37件の見出しを正しく翻訳するためには,be動詞を補わなければならない.これに対して,合格と認められた36件については,be動詞を補った場合の翻訳とほぼ等しい意味を伝える翻訳が生成されるので,英日翻訳の見地からはbe動詞補完は可能ではあるが必要ではないという捉え方もできるかも知れない.しかし,これら36件の見出しも読者には通常be動詞を補って理解されるので,本研究では見出しの構文的解釈の見地からbe動詞を補う対象に含める.従って本稿では,be動詞が省略された見出しとは,be動詞を補うべき見出しとbe動詞を補うことができる見出しを合わせたものを指している.\subsection{期待される改善度}\label{sec:investigation:improve}be動詞を補うことによってどの程度の品質改善が期待できるかをあらかじめ確認しておくために,73件の見出しに人手でbe動詞で補った表現を実験システムで処理し,be動詞が補われていない見出しの翻訳と比較した.評価値は,改善,同等,改悪の三値とした.\ref{sec:investigation:quality}\,節の評価で合格となった見出しの翻訳が改善されているとは,be動詞を補うことによって\KEYとその前方の名詞句との構文的関係が改善されたことを意味する.例えば見出し(H\ref{HEADLINE2:preparing})の翻訳「新しい米国の予算の戦いに備えて準備している上院」と比較して,be動詞を補った表現(H\ref{HEADLINE2:preparing}')の翻訳「上院は,新しい米国の予算の戦いに備えて準備している」はより適切であるとみなす.改善箇所と改悪箇所の両方が存在している場合,あるいは改善も改悪も見られない場合には同等とする.\begin{table}[htbp]\caption{be動詞補完による翻訳品質の改善度}\label{tab:improve}\begin{center}\begin{tabular}{|l||r|r|r|r|r|r|}\hline&\multicolumn{3}{|c|}{合格}&\multicolumn{3}{|c|}{不合格}\\\cline{2-7}\multicolumn{1}{|c||}{\raisebox{1.5ex}[0pt]{\KEY}}&\multicolumn{1}{|c|}{改善}&\multicolumn{1}{|c|}{同等}&\multicolumn{1}{|c|}{改悪}&\multicolumn{1}{|c|}{改善}&\multicolumn{1}{|c|}{同等}&\multicolumn{1}{|c|}{改悪}\\\hline\hline過去分詞&14&0&2&7&1&0\\to不定詞&1&0&0&16&0&0\\現在分詞&9&0&1&1&1&0\\形容詞&5&0&1&5&0&0\\前置詞句&2&0&0&4&0&0\\複合動詞の構成素&1&0&0&2&0&0\\\hline\multicolumn{1}{|c||}{合計}&32&0&4&35&2&0\\\hline\end{tabular}\end{center}\end{table}評価結果を表\ref{tab:improve}\,に示す.\ref{sec:investigation:quality}\,節の評価で合格となった見出し36件のうち32件と,不合格となった見出し37件のうち35件について,より適切な翻訳が得られている.このことから,英々変換によってbe動詞を正しく補うことができれば,システムの既存部分に変更を加えることなく見出し翻訳の品質が改善されると期待できる.なお,合格となった見出し36件のうち4件の翻訳品質が低下しているが,この原因は辞書または構文解析規則の不備であり,本稿の主要目的であるbe動詞の補完とは直接の関係はない.
\section{be動詞補完規則の記述}
\label{sec:preeditHeadline}be動詞補完精度の評価指標には,補完漏れ件数の少なさを示す再現率と不要な補完件数の少なさを示す適合率を用いるが,規則の記述方針として,漏れを減らすことよりも不要な補完を抑えることを重視した.その理由は,不要な補完が行なわれた場合,構文構造と意味が大きく変化するため悪影響が出るのに対して,\ref{sec:investigation:quality}\,節で述べたように,be動詞が省略されている見出し73件のうち36件については補完漏れが生じた場合でもある程度の品質の翻訳が得られることなどである.\subsection{適用条件}\label{sec:preeditHeadline:cond}本研究で設定した適用条件は,be動詞が省略されている見出しとそうでない見出しを区別する一般的な手がかりになりうる現象を284件の見出しにおいて分析した結果に基づいており,以下で説明する形態素語彙,構文上の四条件から主に構成されている.適用条件には,これら一般的な条件の他に,例えば``of''など特定の前置詞で導かれる前置詞句を処理対象外とする条件など,語彙に依存した個別条件も若干含まれる.\subsubsection{\KEY前方での名詞句の存在}be動詞が省略されている見出しでは,\KEYの前方に名詞句が存在する.より具体的には名詞句は,表\ref{tab:stat}\,の見出し(H\ref{HEADLINE2:taken})などのように\KEYの直前に現れるか,見出し(H\ref{HEADLINE2:firmer})のように\KEYの直前に副詞が存在しその副詞の直前に現れる場合がほとんどであるので,次の条件\ref{COND:leftnp}\,を設ける.\begin{COND}\cond\KEYCの直前に,あるいは\KEYC直前の副詞の直前に名詞句が存在する.\label{COND:leftnp}\end{COND}見出しに現れる名詞句は比較的単純な構造をしていることが多いので,次のような構造を持つ名詞句NPを検出する手続きを記述した.\begin{eqnarray*}\mbox{NP}&=&\mbox{NP0}\(\mbox{P}\\mbox{NP0})^?\\\mbox{NP0}&=&(\mbox{AV}^?\\{\mbox{AJ}|\mbox{Ven}|\mbox{Ving}\})^?\\mbox{N}^+\end{eqnarray*}ここで,P,AV,AJ,Ven,Ving,Nはそれぞれ前置詞,副詞,形容詞,過去分詞,現在分詞,名詞を表し,上付き記号?と+はそれぞれ一回以下,一回以上の出現を意味する.\subsubsection{潜在節と競合する節の非存在}be動詞と\KEYCを組み合わせると定形述語が復元され,それまで通常の構文解析で節と解釈できなかった部分が節と解釈できるようになる.このような節をここでは潜在節と呼ぶ.潜在節の主語になる名詞句は,前述の条件\ref{COND:leftnp}\,を満たす名詞句である.例えば表\ref{tab:stat}\,の見出し(H\ref{HEADLINE2:preparing})にbe動詞を補うと,(H\ref{HEADLINE2:preparing}')のように定形述語``{\itis}preparing''が復元され,見出し全体が名詞句``Senate''を主語とする一つの節になる.be動詞補完の可否を決める手がかりの一つとして,潜在節と構文的に競合する節の有無に着目する.be動詞が省略されている見出し(H\ref{HEADLINE2:taken})ないし(H\ref{HEADLINE2:up})では潜在節と構文的に競合する節は存在しない.これに対して,次の見出し(H\ref{HEADLINE:lift})では潜在節と構文的に競合する節が存在する.\begin{HEADLINE}\headlineReaganhopestoliftJapansanctionssoon\label{HEADLINE:lift}\end{HEADLINE}この見出しにおける潜在節は``{\itare}tolift''を主辞とし``Reaganhopes''を主語とする節であるが,この解釈は既存の定形述語``hopes''を主辞とし``Reagan''を主語とする通常の節としての解釈と構文的に競合する.このような場合には経験的に,通常の節としての解釈を優先することにする.次の見出し(H\ref{HEADLINE:lost})では,``lost''の直前にbe動詞を挿入することは構文的に不可能であり,``wascarrying''を主辞とする通常の節としての解釈しか許されない.\begin{HEADLINE}\headlineVessellostinPacificwascarryinglead\label{HEADLINE:lost}\end{HEADLINE}見出し中に節が存在しても,それが潜在節と構文的に競合しない場合にはbe動詞を補う.例えば表\ref{tab:stat}\,の見出し(H\ref{HEADLINE2:visit})には節``traderowgrows''が存在するが,この節と潜在節``U.S.official{\itis}tovisitJapan''とは節境界を示す接続詞``as''によって分離されており競合しないので,(H\ref{HEADLINE2:visit})は(H\ref{HEADLINE2:visit}')のように書き換える.このような考察に基づき,潜在節と構文的に競合する節が存在しない場合に限り見出しにbe動詞を補うことにし,次の条件\ref{COND:sbjpred}\,を設ける.\begin{COND}\cond潜在節と構文的に競合する節が存在しない.\label{COND:sbjpred}\end{COND}\ref{sec:investigation:quality}\,節の見出し(H\ref{HEADLINE:sued})では,``sued''を過去分詞形と解釈しbe動詞を補った潜在節``Three{\itwere}sued$\cdots$''と,``sued''を過去形と解釈した節``Threesued$\cdots$''が構文的に競合する.このように,定形と同一表記の過去分詞が\KEYCであり,この\KEYCを定形と解釈した動詞を主辞とする節が潜在節と構文的に競合する場合には,条件\ref{COND:sbjpred}\,ではなく,後述する条件\ref{COND:pastpart}\,に従うものとする.節境界は接続詞や関係詞やコンマなどの節境界標識によって明示されている場合もあれば明示されていない場合もあるが,接続詞で明示されている場合のみを扱う.さらに,見出しは高々二つの節から構成され,かつ一方が他方の中央埋め込み節ではないものと仮定する.条件\ref{COND:sbjpred}\,が満たされるかどうかを厳密に判定するためには構文解析を行なう必要があるが,ここでは次のような手順で行なう.\setcounter{algocounter}{0}\begin{ALGO}\step見出し中に節境界標識の接続詞が存在し,それによって見出しが二分される場合,そのうち着目している\KEYCを含む部分をステップ\ref{ALGO:sbjpred:parse}\,の処理対象とする.節境界標識が存在しない場合,見出し全体をステップ\ref{ALGO:sbjpred:parse}\,の処理対象とする.\step処理対象の先頭から順に,述語になり得る定形動詞を探していく.もし見つかれば,その述語候補と人称,数が一致する名詞を主辞とする名詞句がその前方に存在するかどうかを調べる\footnote{名詞句の検索は条件\ref{COND:leftnp}\,の判定で用いる手続きと同じ手続きを用いて行なう.}.もしそのような名詞句が存在すれば,それを主語とみなし,条件\ref{COND:sbjpred}\,が満たされないものとする.ただし,着目している\KEYCが定形と同一表記の過去分詞である場合,この\KEYCを定形と解釈した動詞を述語候補とはしない.\label{ALGO:sbjpred:parse}\end{ALGO}\subsubsection{過去分詞に関する条件}\KEYCに定形か過去分詞形かの曖昧性がある場合,\KEYCを定形と解釈すれば,この\KEYCを主辞とし潜在節と構文的に競合する節が存在することになるため,条件\ref{COND:sbjpred}\,に従うと,見出し(H\ref{HEADLINE:sued})などのようにbe動詞を補うべき見出しにbe動詞が補われない.この曖昧性の解消をここでは,\KEYC直後の名詞句の有無と,\KEYCの動詞型\cite{Hornby77}に基づいて行なう.\KEYCを定形と解釈することは動詞の態を能動とみなすことであり,過去分詞形と解釈することは\KEYCとbe動詞を組み合わせて受動態とみなすことであるが,\KEYCが動詞型としてSVOO型もSVOC型も持たない場合,\KEYCの目的語が存在すれば,受動態と解釈することは構文的に不可能である.ここでは\KEYC直後の名詞句を目的語とみなし,\KEYCの直後に名詞句が存在しなければ受動態と解釈してbe動詞を補う.\KEYCが動詞型としてSVOO型かSVOC型を持つ場合は,\KEYCの直後に名詞句が存在しても受動態と解釈できることがあるが,正確に判定するためには,\KEYC直後の名詞句だけでなく,さらにその後方の名詞句の有無も認識する必要がある.定形か過去分詞形かの曖昧性に関しては,見出しではほとんどの場合後者と解釈していよいという経験則\cite{Uenoda78}があることと,粗い構文解析しか行なわない方針であることから,ここでは\KEYCがSVOO型かSVOC型を持つならばbe動詞を補うことにし,次の条件\ref{COND:pastpart}\,を設ける.\begin{COND}\cond\KEYCに定形か過去分詞形かの曖昧性がある場合,\KEYCの直後に名詞句が存在しないか,\KEYCがSVOO型かSVOC型を持つ動詞である.\label{COND:pastpart}\end{COND}この条件に従えば,見出し(H\ref{HEADLINE:sued})では``sued''の直後にその目的語となる名詞句が存在しないので,be動詞が補われる.また,次の見出し(H\ref{HEADLINE:offered})では``offered''の直後に名詞句が存在するが``offered''はSVOO型を持つので,be動詞が補われる.\begin{HEADLINE}\headlineU.K.moneymarket\underline{offered}earlyassistance\label{HEADLINE:offered}\end{HEADLINE}\subsubsection{固定的表現の非存在}\KEYCとその前方に存在する名詞句が連語や慣用句のように固定的な表現を構成する場合be動詞を補わない方がよいと考えられるので,次の条件\ref{COND:idiom}\,を設ける.\begin{COND}\cond\KEYCが固定的表現の構成要素でない.\label{COND:idiom}\end{COND}例えば次の見出し(H\ref{HEADLINE:need})では,``need''とto不定詞の間に結び付きがあると辞書に記述されているので,この結び付きを優先する.\begin{HEADLINE}\headlineNoneedtostateU.K.supportforsystem---Lawson\label{HEADLINE:need}\end{HEADLINE}ここでいう固定的表現とは,\KEYCの辞書項目または条件\ref{COND:leftnp}\,を満たす名詞句の主辞の辞書項目に記述されている表現だけでなく,``for$\cdots$to$\cdots$''や``too$\cdots$to$\cdots$''などのような相関語句も含む.従って,例えばto不定詞が\KEYCでありその前方に``for''や``too''などの語が存在する場合be動詞を補わない.\subsection{be動詞の屈折形生成}\label{sec:preeditHeadline:inflex}適切なbe動詞補完を行なうためには,主語候補の直後すなわち条件\ref{COND:leftnp}\,を満たす名詞句の直後にbe動詞を挿入すべきかどうかを判定するだけでなく,挿入する場合にはbe動詞の屈折形を決定する必要がある.屈折形は,人称,数,時制,相情報などに基づいて決めなければならないが,ここでは,時制は現在とし,主語候補の主辞の人称と数に従う区別だけを行なうことにし,``am'',``are'',``is''のいずれかとする.新聞記事見出しでは過去の事柄が現在形で表されることも少なくない\cite{Shirai97,Uenoda78}ので,現在時制とすることはそれほど不自然ではないと考えられる.\subsection{規則の制御情報}\label{sec:preeditHeadline:ctrl}調査対象の73件の見出しでは複数箇所でbe動詞が省略されている例は存在しなかった.このため,形態素解析結果に対して先頭から順に適用条件との照合を行なっていき,ある\KEYCに関してbe動詞補完が行なわれた場合,他の\KEYCに関する補完を行なわないようにする.すなわち,\ref{sec:preedit}\,節で述べた,ある\KEYCに関する規則に与える適用抑制規則集合の要素は,その規則以外のすべての\KEYCに関する規則の識別番号とする.規則の信頼度は,すべてのbe動詞補完規則についてBとし,be動詞を補った見出しの構文解析に失敗した場合には補完を取り消して元の表現に戻す.
\section{実験と考察}
\label{sec:experiment}本節では,be動詞補完規則作成のために調査した訓練データの見出し284件を対象として行なった実験の結果と,訓練データとは異なる試験データの見出し312件を対象として行なった実験の結果を示し,be動詞補完が正しく行なえなかった見出しについてその原因を分析する.さらに,試験データにおいて正しくbe動詞が補えた見出しについて,その翻訳品質がどの程度改善されたかを検証する.\ref{sec:preeditHeadline:inflex}\,節で述べたように,be動詞の屈折形の決定は,時制などを考慮せず,主語候補の主辞の人称と数だけに基づいて行なっている.このため今回の評価では,システムが生成したbe動詞と人間が補ったbe動詞とで,人称と数がそれぞれ一致していれば,時制などが適切でない場合でも正解とみなす.\subsection{実験結果}実験結果を表\ref{tab:result_rec_pre}\,に示す.表\ref{tab:result_rec_pre}\,によれば,訓練データで再現率89.0\%,適合率97.0\%の精度が得られ,試験データで再現率81.2\%,適合率92.0\%の精度が得られており,比較的簡単な規則でほぼ適切な補完が行なえている.不要な補完は訓練データで2箇所,試験データで6箇所生じているが,これらは補完漏れ(訓練データで8箇所,試験データで16箇所)に比べて少なく,全体としては,不要な補完の抑制を優先するという\ref{sec:preeditHeadline}\,節で述べた規則記述における所期の目標が達成されている.\KEY別に見ると,訓練データにおいても試験データにおいても前置詞句の場合の適合率が最も低い.\begin{table}\caption{実験結果}\label{tab:result_rec_pre}\begin{center}\begin{tabular}{|l||r@{}c|r@{}c|r@{}c|r@{}c|}\hline&\multicolumn{4}{|c|}{訓練データ}&\multicolumn{4}{|c|}{試験データ}\\\cline{2-9}\multicolumn{1}{|c||}{\raisebox{1.5ex}[0pt]{\KEYC}}&\multicolumn{2}{|c|}{再現率}&\multicolumn{2}{|c|}{適合率}&\multicolumn{2}{|c|}{再現率}&\multicolumn{2}{|c|}{適合率}\\\hline\hline過去分詞&87.5\%&(21/24)&100\%&(21/21)&87.8\%&(36/41)&94.7\%&(36/38)\\to不定詞&100\%&(17/17)&100\%&(17/17)&88.2\%&(15/17)&88.2\%&(15/17)\\現在分詞&91.7\%&(11/12)&100\%&(11/11)&62.5\%&(5/8)&100\%&(5/5)\\形容詞&81.8\%&(9/11)&90.0\%&(9/10)&69.2\%&(9/13)&90.0\%&(9/10)\\前置詞句&83.3\%&(5/6)&83.3\%&(5/6)&66.7\%&(2/3)&66.7\%&(2/3)\\複合動詞の構成素&66.7\%&(2/3)&100\%&(2/2)&66.7\%&(2/3)&100\%&(2/2)\\\hline\multicolumn{1}{|c||}{合計}&89.0\%&(65/73)&97.0\%&(65/67)&81.2\%&(69/85)&92.0\%&(69/75)\\\hline\end{tabular}\end{center}\end{table}\subsection{失敗原因の分析}訓練データと試験データのそれぞれについて,補完漏れと不要な補完が生じた原因を調べた結果を表\ref{tab:error_cause}\,に示す.\begin{table}[htbp]\caption{失敗原因の分析}\label{tab:error_cause}\begin{center}\begin{tabular}{|l||r|r|r|r|}\hline&\multicolumn{2}{|c|}{訓練データ}&\multicolumn{2}{|c|}{試験データ}\\\cline{2-5}\multicolumn{1}{|c||}{\raisebox{1.5ex}[0pt]{原因}}&\multicolumn{1}{|c|}{補完漏れ}&\multicolumn{1}{|c|}{不要補完}&\multicolumn{1}{|c|}{補完漏れ}&\multicolumn{1}{|c|}{不要補完}\\\hline\hline形態素解析&1&0&3&3\\条件\ref{COND:leftnp}&1&0&0&0\\条件\ref{COND:sbjpred}\,(多品詞語)&2&1&2&0\\条件\ref{COND:sbjpred}\,(節境界)&3&0&7&0\\条件\ref{COND:pastpart}&0&0&0&1\\条件\ref{COND:idiom}&0&1&0&2\\その他の条件&1&0&4&0\\\hline\multicolumn{1}{|c||}{合計}&8&2&16&6\\\hline\end{tabular}\end{center}\end{table}\subsubsection{補完漏れの原因}訓練データで生じた8箇所での補完漏れのうち1箇所は,キーになるべき語が辞書未登録語であったことによる形態素解析での問題であり,残りの7箇所での補完漏れがbe動詞補完規則の不備によるものであった.7箇所のうち5箇所は条件\ref{COND:sbjpred}\,が満たされるかどうかの判定を誤ったことによるものであった.その5箇所中2箇所は多品詞語の品詞解釈を誤ったことによるものであった.例えば次の見出し(H\ref{HEADLINE:down})では,この場合名詞と解釈すべき``imports''を動詞とみなし,``U.S.sugar''をその主語とみなす誤りが生じていたため,潜在節と競合する節が存在すると解釈された.\begin{HEADLINE}\headlineU.S.sugarimports\underline{down}inweek---USDA\label{HEADLINE:down}\end{HEADLINE}このような誤りに対しては品詞推定法\cite{Takeda93,Takeda95}を導入することによって改善が可能であると考えられる.5箇所中残りの3箇所についての原因は節境界が正しく認識できないことにあった.条件\ref{COND:sbjpred}\,の判定で用いた節境界認識手続きでは一部の接続詞だけを節境界標識とみなしているために,次の見出し(H\ref{HEADLINE:unable})のように節境界がコンマによって示される場合に,実際には二つの節から構成される見出しが一つの節から成ると誤解釈され,潜在節``Africa{\itis}unabletopayitsdebts''と競合しない節``OAUchiefsays''が競合すると判定されていた.\begin{HEADLINE}\headlineAfrica\underline{unable}topayitsdebts,OAUchiefsays\label{HEADLINE:unable}\end{HEADLINE}試験データで生じた16箇所での補完漏れの原因の内訳は,辞書未登録語など形態素解析での問題によるものが3箇所,be動詞補完規則の不備によるものが13箇所であった.13箇所中9箇所は条件\ref{COND:sbjpred}\,の判定誤りによるものであり,その9箇所のうち7箇所については節境界を正しく捉えられないことが原因であった.訓練データにおいても試験データにおいても,条件\ref{COND:sbjpred}\,の判定誤りが補完漏れの原因の半数以上を占めているので,この判定精度の向上に重点的に取り組んでいく必要がある.\subsubsection{不要な補完の原因}訓練データで生じた2箇所での不要な補完のうち1箇所は,多品詞語の品詞解釈を誤ったため,実際には潜在節と競合する節を検出することができなかったことによるものであった.残りの1箇所は,慣用句と解釈すべき表現をそのように解釈できなかったものである.試験データにおいてbe動詞補完規則の不備が原因で生じた3箇所での不要な補完のうち1箇所は,定形か過去分詞形かの曖昧性がある場合過去分詞形と解釈するという経験則に反する例であった.残りの2箇所は慣用句の解釈を誤ったものである.\subsection{規則の制御情報について}\ref{sec:preeditHeadline:ctrl}\,節で述べたように,be動詞補完は一見出しについて一箇所でしか行なっていない.訓練データには二箇所以上でbe動詞が省略されている見出しは含まれていなかったが,試験データには次の見出し(H\ref{HEADLINE:updown})のように二箇所でbe動詞が省略されている見出しが2件含まれており,後方の\KEYに対してbe動詞を補うことができなかった\footnote{これら2件の見出しでは節境界がコンマによって示されているため,複数箇所での補完ができるように適用抑制規則集合を変更しても,条件\ref{COND:sbjpred}\,の節境界の認識が正しく行なえない.このため,表\ref{tab:error_cause}\,では「条件\ref{COND:sbjpred}\,(節境界)」に含めた.}.\begin{HEADLINE}\headlineSwissairJanuarytraffic\underline{up},revenue\underline{down}\label{HEADLINE:updown}\end{HEADLINE}be動詞補完規則にはすべて信頼度Bを与えているため,補完結果に対する構文解析が失敗すると,一度行なった補完が取り消されるが,今回の実験では,取り消しが生じた見出しは訓練データ,試験データいずれにおいても存在しなかった.\subsection{be動詞補完による翻訳品質の改善度}be動詞を補うことによって実際にどの程度の品質改善が達成されたかを確認するために,試験データにおいて正しくbe動詞が補えた67件\footnote{見出し(H\ref{HEADLINE:updown})のように二箇所への補完が必要な2件を69件から除く.}の見出しについて,be動詞補完前と補完後の翻訳を比較した.\ref{sec:investigation:improve}\,節の評価基準と同じ基準で評価した結果を表\ref{tab:improve_unknown}\,に示す.表\ref{tab:improve_unknown}\,によれば,67件のうち61件について翻訳品質が改善されており,be動詞補完による新聞記事見出し翻訳の品質改善効果が確認された.なお,4件の品質低下の原因は実験システムの既存部分の不備であり,be動詞の補完とは無関係である.\begin{table}[htbp]\caption{試験データでの翻訳品質の改善度}\label{tab:improve_unknown}\begin{center}\begin{tabular}{|l||r|r|r|}\hline\multicolumn{1}{|c||}{\KEY}&\multicolumn{1}{|c|}{改善}&\multicolumn{1}{|c|}{同等}&\multicolumn{1}{|c|}{改悪}\\\hline\hline過去分詞&32&2&2\\to不定詞&15&0&0\\現在分詞&3&0&1\\形容詞&8&0&1\\前置詞句&2&0&0\\複合動詞の構成素&1&0&0\\\hline\multicolumn{1}{|c||}{合計}&61&2&4\\\hline\end{tabular}\end{center}\end{table}
\section{おわりに}
本稿では,標準的な表現を主な対象とした機械翻訳システムには適切な翻訳を生成することが難しい英字新聞記事見出しを通常の表現に書き換えることによって翻訳品質を改善する方法を示した.見出し特有の表現形式のうち比較的高い頻度で見られるbe動詞の省略現象に対処するための規則を記述し,小規模ではあるが実験を行なった結果,試験データに対して再現率81.2\%,適合率92.0\%の精度が得られ,提案した方法の有効性が確認できた.今後取り組むべき課題として次のような点が挙げられる.\begin{enumerate}\itembe動詞の省略現象に次いで頻繁に見られる見出し特有の現象はコンマが等位接続詞として用いられることであり,これが原因で適切な翻訳が得られないことも多い.また,単にbe動詞を補うだけでは翻訳品質の向上が不十分であり,コンマを等位接続詞に書き換える処理も同時に行なって初めて適切な翻訳が得られる見出しも存在する.従って,コンマに関する書き換え規則を記述するなど規則の拡張を行なう必要がある.\item提案した方法では,記事本文から得られる手がかりを利用せずに書き換えを行なっている.しかし,より高い精度の書き換えを実現するためには,記事の本文特に第一文から得られる手がかりに基づく処理を行なうことが有効であると考えられる.例えば本稿では適切に行なえていない時制や相の決定に必要な情報が本文中に明示されている可能性は高い.\item本稿では,処理対象の表現は新聞記事の見出しであることを前提として書き換えを行なっているが,提案した方法を実際の機械翻訳システムに組み込んで利用する場合には,処理対象表現が新聞記事の見出しであるかどうかを判定する処理を実現する必要がある.\end{enumerate}\acknowledgment英々変換系の初期の実装を行なって頂いたシャープ(株)ソフト事業推進センターの関谷正明さん(現在,同社設計技術開発センター)と,議論に参加頂いた英日機械翻訳グループの諸氏に感謝します.また,本稿の改善に非常に有益なコメントを頂いた査読者の方に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{v07n2_02}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.1987年よりシャープ(株)にて機械翻訳システムの研究開発に従事.1999年神戸大学大学院自然科学研究科博士課程修了.}\bioauthor{佐田いち子}{1984年北九州大学文学部英文学科卒業.同年シャープ(株)に入社.現在,同社情報システム事業本部ソフト事業推進センター係長.1985年より機械翻訳システムの研究開発に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V24N03-02 | \section{研究背景}
label{first}元来から日本は,外来語を受け入れやすい環境にあるといわれており,数多くの外国の言葉を片仮名として表記し,そのまま使用している.近年になり,今まで以上にグローバル化が進展すると共に,外来語が益々増加する中,外来語の発音を片仮名表記にしないケースが見受けられる.特に,英語の場合,外国語の表記をそのまま利用することも増えてきている.また,英単語などの頭文字をつなげて表記する,いわゆる略語もよく利用されるようになっている.例えば,「IC」といった英字略語がそれにあたる.しかし,英字略語は英単語の頭文字から構成される表現であるため,まったく別のことを表現しているにも関わらず,同じ表記になることが多い.先の英字略語「IC」には,「集積回路」という意味や高速道路などの「インターチェンジ」という意味がある.さらには,ある業界では,これらとはまた別の意味で使用されることもある.このように,英字略語は便利な反面,いわゆる一般的な単語よりも非常に多くの意味を有する多義性の問題を持つ.そのため,英字略語が利用されている情報は,すべての人が容易に,また,正確に把握できるとは言い難い.そこで,例えば,新聞記事などでは,記事の中で最初に英字略語が使用される箇所において,括弧書きでその意味を日本語で併記する処理をとっていることが多い.しかし,よく知られている英字略語にはそのような処置がとられていないなど,完全に対処されているわけではない.また,記事中の最初の箇所にのみ上記のような処置がとられており,それ以降はその意味が併記されていないことが多い.そのため,記事の途中から文書を読んだり,関連する記事が複数のページに渡って掲載されている時に先頭のページではない部分から記事を読んだりした場合には,最初にその英字略語が出現した箇所を探さなくてはならず,解読にはひと手間が必要となり,理解の妨げとなる.さらに,一般的な文章の場合では,このように英字略語の意味を併記するという処置をとる方が珍しいと言える.
\section{関連研究}
label{positioning}上記を踏まえて本論文では,英字略語の意味を推定する方法について提案する.本研究と同様の主旨の研究には,\cite{okazaki:07}の研究が報告されている.この方法では,新聞記事などの文章では,英字略語の意味を括弧書きで併記する表現に着目し,英字略語の意味の自動推定を実現している.しかし,すべての英字略語に対してこのような表現が適用されているわけではない.そのため,うまく自動推定できない場合がある.また,\cite{yoshida:05}では,片仮名表記の外来語を英語に復元した後に,辞書を用いて日本語訳を獲得する方法が提案されている.しかし,本方法では,対象が片仮名に限定されており,かつ,多義性を有する語彙には対応できない問題がある.さらに,\cite{M.Stevenson:09}や\cite{N.Okazaki:10}は,英字略語が頻出する生物医学の分野に着目し,医学関連のデータベースから抽出したデータセットをもとに作成したコーパスやクラスタリング技術を適用することに加え,語の共起情報を有効に活用することで,英字略語の意味を推定している.しかし,本方法は医学領域に特化した情報源を利用しているからこそ,語の共起情報が生物医学に関する英字略語の曖昧性解消に対して有効に機能していることに加えて,英字略語の意味を推定する教師データを自動生成するために大規模な文書集合を必要とすることから,汎用的に活用することは難しい.また,英字略語を対象としているわけではないが,単語(語義)の曖昧性を解消する方法が研究されている.\cite{R.Mihalcea:07}は,Wikipediaにおける各記事の参照情報であるハイパーリンクを利用することで,一般的な単語と当該単語を含む文章を入力した際に,当該単語の曖昧性を解消し,意味推定を実現している.本方法は品詞情報を利用して意味推定を実施しており,有効に機能する単語が限定(当該論文では曖昧性を有する普通名詞の意味推定を実施)されるという問題がある.他には,文章内の単語を知識ベースのエントリにマッピングすることで曖昧性を解消する技術(EntityDisambiguation)として,\cite{Y.Sun:15}はWikipediaから収集した情報をもとにニューラルネットワークを構築し,入力単語と入力文書のペアとエントリ間の類似性を判断している.しかし,本方法は2つのニューラルネットワークのトレーニング及びメンテナンスが必要であり,対象領域などに応じた適切な運用が要求される.一方,従来の情報検索でよく用いられるベクトル空間モデル\cite{G.Salton:75}などでは,文書における単語の出現頻度や統計情報などを利用して単語と文書間の類似性を判断している.このような方法は単語と文書内の各単語の表記が一致しない場合は関連性がないとの仮定に基づいている.そのため,多義性を持つ単語をはじめ,表記揺れや類義性を持つような単語に対して意味の推定を行うことは困難である.そこで,本論文では,多義性を有する英字略語に対して,意味の推定を実現する方法を提案する.提案方法では,我々がすでに提案している,あらゆる語彙の意味的な近さを判断できるメカニズムを組み合わせ,英字略語の意味を推定する.具体的には,ある概念から様々な概念を連想する語彙の概念化処理が可能な概念ベース\cite{kojima:02,hirose:02,okumura:07},及び,世界で最も収録語数が多いとされるWikipedia(ウィキメディア財団)\nocite{Wikipedia}を使用する.さらに,概念化した語彙の意味的な近さを判断するため,関連度計算\cite{watabe:06},または,EarthMover'sDistanceを応用した文章間関連度計算方法\cite{fujie:09}を用いる.これらを用いて英字略語の多義性を解消し,英字略語の本来の意味を推定する.この技術により,英字略語の意味を理解しやすくすることができ,情報検索や自動要約,情報推薦や自動翻訳など多くのアプリケーションの性能向上に加え,知能を有するロボットの研究開発における自然な知的対話の実現に寄与することも期待できる.
\section{提案方法の概要}
\label{concept}図\ref{fig:concept}に提案方法である英字略語の意味推定方法の概略図を示す.\begin{figure}[b]\begin{center}\includegraphics{24-3ia2f1.eps}\end{center}\caption{英字略語の意味推定方法の概略図}\label{fig:concept}\end{figure}英字略語が含まれる文章を入力として,入力文章から英字略語を抽出する.当該英字略語をWikipediaで検索し,意味が1つであれば,その意味を出力する.意味が複数ある場合には,それらの意味と入力文章との意味的な近さを判断し,最も近いと判断した意味を決定する.この際,当該意味と英字略語(が含まれる文章)の意味的な近さを判断するために,語彙の概念化を行う.なお,ここで述べる「意味」とは,英字略語の意味を表現する語,つまり,英字略語のもととなっている英単語の日本語での表現を「意味」と定義している.例えば,前述した英字略語「IC」の意味を推定する場合,「集積回路」や「インターチェンジ」という語を「意味」として出力する.\ref{technology}章では,本論文において使用した要素技術として,語彙を概念化する方法と,概念化した語彙の意味的な近さを判断する方法に関して詳細に説明する.
\section{使用要素技術}
\label{technology}\subsection{語彙の概念化処理}\label{conceptualization}\subsubsection{概念ベース}\label{concept_base}概念ベース\cite{kojima:02,hirose:02,okumura:07}とは,複数の電子化国語辞書などの見出し語を概念,その語義文に使用されている自立語を概念の意味特徴を表す属性と定義して構築された大規模なデータベースである.本論文で使用した概念ベースは自動的に概念および属性を構築した後,人間の常識に沿った属性の追加や削除を人手で行ったものであり,概念数は約9万語である.概念ベースでは,ある概念$A$は$m$個の属性$a_i$とその属性の重要性を表す重み$w_i$の対によって構成されており,以下のように表現することができる.ここで,属性$a_i$を概念$A$の一次属性と呼ぶ.\[\text{概念A}=\{(a_1,w_1),(a_2,w_2),\cdots,(a_m,w_m)\}\]概念ベースの大きな特徴として,属性である単語は概念として必ず定義されている点がある.これにより,概念$A$の一次属性である属性$a_i$を概念とみなし,更に属性を導くことができる.概念$a_i$から導かれた属性$a_{\mathit{ij}}$を,元の概念$A$の二次属性と呼ぶ.概念ベースの具体例を表\ref{table:concept_ex}に示す.\begin{table}[b]\caption{概念ベースの例}\label{table:concept_ex}\input{02table01.txt}\end{table}例えば,表\ref{table:concept_ex}のように,概念「医者」の一次属性である「患者」は,概念「患者」としても定義されている.また,この概念「患者」の一次属性である「病人,看病,治療,…」は,元の概念「医者」の二次属性ということになる.このように,概念ベースにより概念の意味特徴を定義し,連鎖できる構造を利用することで語彙の意味の近さを評価できる.詳細は\ref{evaluation_approach}節で説明する.\subsubsection{未定義語の概念化}\label{unknown_word}前節で述べた通り,概念ベースは複数の電子化国語辞書などを用いて構築されており,大規模かつ品質が高いというメリットがある.しかし,すべての語彙を網羅できていないという欠点もある.そのため,概念ベースに登録されていない未定義語は概念化されておらず,意味の近さを評価することはできない.そこで,未定義語については,Web上の言語情報を利用し,自動的に概念化すること\cite{tsuji:04,goto:08}で対処する.具体的には,Web検索エンジン(Google,Inc.)\nocite{google}により未定義語をキーワードとして情報検索し,検索結果の上位100件の検索結果ページの内容を取得する.その内容から概念ベースに登録されている自立語のみを抽出し,それらを未定義語の一次属性とする.また,一次属性に対する重みは,情報検索の分野で広く用いられている$\mathit{tf}\cdot\mathit{idf}$\cite{tokunaga:99}の考え方を応用することで算出する.語の網羅性である$\mathit{tf}$値は,検索結果ページ$A$中に出現する自立語$\mathit{Word}_{\mathit{A}}$の出現頻度$\mathit{tfreq}\allowbreak(\mathit{Word}_{\mathit{A}},A)$を,検索結果ページ$A$中のすべての自立語の語数$\mathit{tnum}(A)$で割ることで算出される.算出式は以下のようになる.\[\mathit{tf}(\mathit{Word}_{A},A)=\frac{\mathit{tfreq}(\mathit{Word}_{A},A)}{\mathit{tnum}(A)}\]次に,語の特定性である$\mathit{idf}$値は,StaticsWeb-InverseDocumentFrequency($\mathit{SWeb\mathchar`-idf}$)値を用いる\cite{tsuji:04,goto:08}.$\mathit{idf}$値の算出には,対象となる全文書空間の情報が必要になる.しかし,Webを利用する場合,Web上のすべての情報が必要ということになり,正確な$\mathit{idf}$値を算出することは現実的には不可能である.そこで,無作為に選択した固有名詞1,000個をそれぞれキーワードとして,Web検索エンジン(Google,Inc.)\nocite{google}で検索する.続いて,検索結果の上位10件の検索結果ページの内容を取得する.そして,それらの内容に含まれるすべての自立語の集合を疑似的なWebの全情報空間とみなし$\mathit{SWeb\mathchar`-idf}$値を算出する.$\mathit{SWeb\mathchar`-idf}$値の算出式は以下のように定義される.ここで$N$は固有名詞1,000個を検索キーワードとした際の各検索結果上位10件の合計ページ数($N=10,000$),$\mathit{df}(\mathit{Word}_{A})$は$\mathit{Word}_{A}$が出現する検索結果ページ数である.\[\mathit{SWeb\mathchar`-idf}(\mathit{Word}_{A})=\log\frac{N}{\mathit{df}(\mathit{Word}_{A})}\]この10,000ページから,複数の電子化国語辞書などから概念を抽出したデータベースである概念ベースの収録語数である約9万語を超える単語数が得られたことから,獲得した10,000ページをWebの全情報空間とみなしている.なお,固有名詞の選び方を変えても$\mathit{SWeb\mathchar`-idf}$値に大きな変化は見られないことが報告されている\cite{tsuji:04}.以上に示した式より,自立語$\mathit{Word}_{A}$へ付与する重み$w$は次の式で定義される.\[w=\mathit{tf}(\mathit{Word}_{A},A)\cdot\mathit{SWeb\mathchar`-idf}(\mathit{Word}_{A})\]つまり,ある自立語の重みは,網羅性を表す$\mathit{tf}$値と特定性を表す$\mathit{SWeb\mathchar`-idf}$値を掛け合わせることで与えられる.Web上の言語情報を利用するため,品質は概念ベースより劣るというデメリットはあるが,すべての語彙を概念化できるという大きなメリットがある.また,\cite{tsuji:04,goto:08}などの研究成果から,Web情報を利用して未定義語を概念化する方法の有効性が確認されており,本論文での処理においても十分な性能を確保していると考えられる.\subsection{意味的関連性評価方法}\label{evaluation_approach}\subsubsection{関連度計算}\label{DoA}関連度計算とは,概念と概念の関連の強さを定量的に評価する計算である.概念間にある関連性を定量的に評価する方法として,ベクトル空間モデルが広く用いられている.しかし,本論文では,概念を定義する属性集合とその重みを含めた一致度に基づいた関連度計算方式を利用する.これは,関連度計算方式が有限ベクトル空間によるベクトル空間モデルよりも良好な結果が得られるという報告がなされているためである\cite{watabe:01}.本論文では,重み比率付き関連度計算方式を使用する\cite{watabe:06}.任意の概念$A$,$B$について,それぞれ一次属性を$a_i$,$b_j$とし,対応する重みを$u_i$,$v_j$とする.また,概念$A$,$B$の属性数を$L$個,$M$個$(L\leqM)$とする.なお,各概念の一次属性の重みは,その総和が1.0となるよう正規化している.\begin{align*}A&=\{(a_i,u_i)\;\;|\;\;i=1〜L\}\\B&=\{(b_j,v_j)\;\;|\;\;j=1〜M\}\end{align*}このとき,重み比率付き一致度(DegreeofMatch)は以下のように定義される.ここで,$\mathit{DoM}(A,B)$は概念$A$,$B$の重み比率付き一致度である.\begin{align*}\mathit{DoM}(A,B)&=\sum_{a_i=b_j}^{}\min(u_i,v_j)\\\min(\alpha,\beta)&=\left\{\begin{array}{ll}\alpha&(\beta>\alpha)\\\beta&(\alpha\geq\beta)\end{array}\right.\end{align*}この定義は,概念$A$,$B$に対し,$a_i=b_j$となる属性(概念$A$,$B$に共通する属性)があった場合,共通する属性の重みの共通部分,つまり,小さい重み分のみ一致するという考えに基づいている.次に,属性数が少ない方の概念を$A$とし$(L\leqM)$,概念$A$の属性を基準とする.\[A=\{(a_1,u_1),\cdots,(a_i,u_i),\cdots,(a_L,u_L)\}\]そして,概念$B$の属性を,概念$A$の各属性との重み比率付き一致度$\mathit{DoM}(a_i,b_\mathit{xi})$の和が最大になるように並び替える.\[B_x=\{(b_{x1},v_{x1}),\cdots,(b_\mathit{xi},v_\mathit{xi}),\cdots,(b_\mathit{xL},v_\mathit{xL})\}\]これによって,概念$A$の一次属性と概念$B$の一次属性の対応する組を決める.対応にあふれた概念$B$の属性は無視する.ただし,一次属性同士が一致するものがある場合(概念表記が同じ:$a_i=b_j$)は別扱いにする.これは概念ベースには約9万語の概念が存在し,属性が一致することは稀であるという考えに基づく.従って,一致した属性の扱いを別にすることで,属性が一致した場合を大きく評価する.具体的には,対応する属性の重み$u_i$,$v_j$の大きさを重みの小さい方にそろえる.このとき,重みの大きい方はその値から小さい方の重みを引き,もう一度,他の属性と対応をとる.例えば,$a_i=b_j$で$u_i=v_j+\alpha$とすれば,対応を決定する箇所は$(a_i,v_j)$と$(b_j,v_j)$であり,$(a_i,\alpha)$はもう一度他の属性と対応させる.このように対応を決め,対応がとれた属性の組み合わせの数を$T$個とする.重み比率付き関連度とは,重み比率付き一致度を比較する概念の各属性間で算出し,その和の最大値を求めることで計算する.重み比率付き関連度(DegreeofAssociation)は以下の式で定義される.ここで,$\mathit{DoA}(A,B)$は概念$A$,$B$の重み比率付き関連度である.\[\mathit{DoA}(A,B)=\sum_{i=1}^{T}\{\mathit{DoM}(a_i,b_\mathit{xi})\cdot(u_i+v_\mathit{xi})\cdot(\min(u_i,v_\mathit{xi})/\max(u_i,v_\mathit{xi}))/2\}\]以下,重み比率付き一致度を一致度,重み比率付き関連度を関連度と略し,この関連度\cite{watabe:06}を用いる.関連度は概念間の関連の強さを0〜1の間の連続値で表す.\subsubsection{EarthMover'sDistance}\label{EMD}前節において,概念間の関連の強さを評価する方法として関連度計算について説明した.関連度計算は関連性が高い順に属性の対応をとることで計算を行う,つまり,1対1で対応をとる方法である.そのため,両概念に対して,少ない方の属性数分しか対応がとれない.例えば,概念$A$が持つ属性が3語,概念$B$が持つ属性が100語であった場合,概念$B$の属性97語は計算の対象外となる.そこで,本論文では,両概念の属性数に差がある状況にも対応するため,関連度計算に加えて,M対Nで対応をとることができるEarthMover'sDistance(EMD)を用いて意味的な関連性を評価する方法を利用する.EMDを用いた意味的な関連性評価方法は,ヒッチコック型輸送問題\cite{A.J.Hoffman:63}(需要地の需要を満たすように供給地から輸送を行う際の最小輸送コストを解く問題)で計算される距離尺度であるEMDを概念間の関連性評価に適用したものである.EMDは,2つの概念間の関連性を定量的に表現することが可能であり,\cite{fujie:09}の研究によりその有用性が報告されている.EMDとは,2つの離散分布があるとき,一方からもう一方の分布への変換を行う際の最小コストを指す.離散分布は当該分布を構成する要素と重みの対の集合で表現される.コスト算出の際には,変換前の離散分布の要素が持つ重みを供給量,変換先の離散分布の要素が持つ重みを需要量と考え,要素間の距離を供給量,需要量にしたがって重みを運送すると考える.できるだけ短い距離で,かつ,需要量に対して効率的に重みを運送する経路がEMDとなる.これを概念間の関連性評価に適応させる場合,概念の一次属性を要素として捉え,一次属性の集合を離散分布と考える.ある概念の離散分布を違う概念の離散分布へ変換すると考えると,その際のコストが最小となる概念が元の概念に最も近い概念となることから,概念間の関連性評価へ適用することが可能となる.EMDを用いた意味的な関連性評価方法について,図\ref{fig:EMD}に示す簡略図を用いて説明する.ある概念$A$と$B$があったとき,概念$A$を概念$B$に変換する際のコストを考える.それぞれの概念をそれらの一次属性$a_i$,$b_j$の離散分布と考える.EMDでは変換コストの算出を行う際に離散分布を構成する要素同士の距離を用いる.EMDを用いた意味的な関連性評価方法では,この距離を一次属性同士の関連性であると考え,一致度によってこれを求める.\begin{figure}[b]\begin{center}\includegraphics{24-3ia2f2.eps}\end{center}\caption{EMDを用いた意味的な関連性評価方法}\label{fig:EMD}\end{figure}属性$a_i$,$b_j$の距離$\mathit{dis}(a_i,b_j)$は次の式で表される.一致度は関連性が高いと値が大きくなる.また,一致度の最大値は1であるため,1から一致度を引いた値を距離としている.\[\mathit{dis}(a_i,b_j)=1-\mathit{DoM}(a_i,b_j)\]ここで,図\ref{fig:EMD}の例における$a_1$と$b_1$の間の変換コスト$\mathit{cost}(a_1,b_1)$は次の式で算出される.これは$a_1$と$b_1$の距離に重みを掛けたものである.$a_1$と$b_1$が持つ重みは同じく0.3であるため供給量と需要量が合致し,$a_1$からの重みの運送はこの時点で終了する.\[\mathit{cost}(a_1,b_1)=\mathit{dis}(a_1,b_1)\cdot0.3\]同様にコストの計算を行い,最終的にすべての運送経路のコストを足し合わせたものがEMDとなる.図\ref{fig:EMD}の例では概念$A$,$B$間のEMDは次のように表される.\[\mathit{EMD}(A,B)=\mathit{cost}(a_1,b_1)+\mathit{cost}(a_2,b_2)+\mathit{cost}(a_2,b_3)\]以上の式で算出されたEMDの最小値を最適化計算で求め,概念間の関連性(意味的な近さ)を算出している.
\section{英字略語の意味推定方法}
\label{proposal_method}\subsection{英字略語の抽出}\label{extract}本論文で提案する英語略語の意味推定方法の処理対象として扱う英字略語は,英単語の頭文字から構成される表記とする.例えば,商品の型番や「W杯」のように記号や数字,日本語などアルファベット以外の文字が混じる表記の場合,それらは英字略語ではないものとする.また,1文字で構成される英字略語の場合,英単語の頭文字ではなく,例えば,S字カーブの「S」のように,アルファベットの形状などに起因する意味で使用されることがある.本研究は,語彙の意味に着目し,多義性を有する英字略語の意味推定を目的としている.また,英字略語は大文字のアルファベットで構成されることが多いため,本論文では,2文字以上の大文字アルファベットのみで構成されている語を英字略語として扱うこととする.入力として受け付ける情報は,英字略語が含まれている文章とし,その文章から2文字以上の大文字アルファベットの羅列を英字略語として抽出する.\subsection{Wikipediaによる意味候補の検索}\label{search}\ref{extract}節で抽出した英字略語をWikipedia(ウィキメディア財団)で検索する.検索の結果,当該英字略語を説明する意味が1つであった場合には,その意味を出力する.意味を複数有する場合には,次節で述べる意味的な近さに基づく多義性の解消を行うため,それぞれの意味を概念化する.概念化には,\ref{concept_base}節で述べた概念ベースと\ref{unknown_word}節で述べたWebを用いた未定義語の概念化方法を用いる.今回,\ref{experiment_condition}節にあるように,英字略語の概念化は新聞記事を用いて実施しているため,Wikipediaから取得した意味候補の概念化も新聞記事を利用して実施したいが,各意味候補が新聞記事に含まれているとは限らない.一方,Wikipedia内の情報は辞書的に構成されており,新聞記事内の情報とは系統が異なる.そこで,今回は新聞記事と同様に雑多な情報から構成されるWeb情報を利用して意味候補の概念化を実施することにした.一例として,英字略語「IC」をWikipediaで検索した際の結果を表\ref{table:IC}に示す.英字略語「IC」の場合,13種類の意味を有していた.\begin{table}[b]\caption{英字略語「IC」をWikipediaで検索した際の結果}\label{table:IC}\input{02table02.txt}\end{table}\begin{table}[b]\caption{Wikipediaから英字略語の意味候補を取得する規則}\label{table:rule}\input{02table03.txt}\end{table}\begin{table}[b]\caption{設定したストップワードのリスト}\label{table:stopword}\input{02table04.txt}\end{table}Wikipediaから抽出した意味には,当該意味を説明・補助する情報(例えば,表\ref{table:IC}の3番における「-」以降の記述)が含まれるが,当該情報は意味の概念化処理における雑音となる.そこで,Wikipediaから抽出した意味に表\ref{table:rule}に示した規則を上から順に適用することで雑音を削除する.さらに,Wikipediaに掲載されている意味の中には,商品の型番やある種のコードなど英字略語ではないアルファベットの羅列(表\ref{table:IC}の例では10番と11番)が多数含まれているため,表\ref{table:stopword}に示したストップワードを適用することで当該意味を削除した上で意味候補を取得する.\subsection{英字略語の多義性解消}\label{resolution}\ref{search}節で検索した英字略語が複数の意味を有した場合,その多義性を解消する必要がある.具体的には,\ref{search}節で概念化された意味候補と入力された英字略語を含む文章との意味的な近さを評価することで実現する.この際,概念化された意味候補と英字略語の意味的な近さを評価するため,英字略語も概念化する必要がある.入力された文章に含まれる自立語をすべて抽出し,それを英字略語の一次属性と見立てる.これにより,英字略語を疑似的に概念化できる.なお,英字略語の一次属性とした自立語の中には概念ベースに登録されている語と登録されていない語(未定義語)が存在する.未定義語については,\ref{unknown_word}節で説明した方法により概念化を行う.この処理により,英字略語を概念とし,一次,二次へと属性を展開することができ,意味的な近さを評価することが可能になる.なお,英字略語を疑似的に概念化する際,一次属性として抽出した自立語が未定義語であった場合,当該一次属性に対する重みは,\ref{unknown_word}節で説明した未定義語の概念化における属性への重み付けの考え方と同様にして付与する.具体的には,語の網羅性である$\mathit{tf}$値は,入力された文章$A$中に出現する自立語$\mathit{Word}_A$の出現頻度$\mathit{tfreq}(Word_A,A)$を文章$A$中のすべての自立語の語数$\mathit{tnum}_A$で割ったもので算出される.算出式は以下のようになる.\[\mathit{tf}(\mathit{Word}_A,A)=\frac{\mathit{tfreq}(\mathit{Word}_A,A)}{\mathit{tnum}_A}\]語の特定性である$\mathit{idf}$値は$\mathit{SWeb\mathchar`-idf}$ではなくStaticsArticle-InverseDocumentFrequency($\mathit{SA\mathchar`-idf}$)を用いる.これは,疑似的な全文章空間の情報として,$\mathit{tf}$値を算出する際に使用した文章と同じカテゴリ,ジャンルである文章集合を利用する必要があるためである.$\mathit{SA\mathchar`-idf}$値の算出式は以下のように定義される.ここで,$N$は利用する文章集合の全文章数,$\mathit{df}(\mathit{Word}_A)$はその文章集合の中で$\mathit{Word}_A$が出現する文章数である.\[\mathit{SA\mathchar`-idf}(\mathit{Word}_A)=\log\frac{N}{\mathit{df}(\mathit{Word}_A)}\]以上に示した式より,自立語$\mathit{Word}_A$へ付与する重み$w$は次の式で定義される.\[w=\mathit{tf}(\mathit{Word}_A,A)\cdot\mathit{SA\mathchar`-idf}(\mathit{Word}_A)\]このように,概念化された英字略語と意味候補との意味的な近さを\ref{evaluation_approach}節で説明した語彙の意味的な近さを評価する方法により評価する.その結果,最も意味的に近いと判断された意味候補を英字略語の意味とする.
\section{評価実験}
\label{evaluation_experiment}\subsection{実験条件}\label{experiment_condition}本論文では,新聞記事から英字略語を抽出し,当該英字略語が含まれている記事を入力文章とすることで評価を実施した.今回使用した新聞記事は全国紙1か月分(約12,000記事)であり,2文字以上の大文字アルファベットの羅列が含まれる記事は約3,700記事であった.当該約3,700記事から表\ref{table:stopword}に示したストップワードに該当する略語として意味がない文字列を含む記事を人手で削除した上で,無作為に129記事を抽出し,評価実験データとして使用した.なお,その中で,表記が異なる英字略語の数は58個であった.つまり,129種類の英字略語の意味と58種類の英字略語の表記が含まれる記事を評価実験データとして使用した.また,当該58個の英字略語の表記をWikipediaで検索し,表\ref{table:rule}と表\ref{table:stopword}に示した規則を適用した結果,707個の意味を取得できた(1つの英字略語の表記につき,平均で12.2個,最少で2個,最多で29個の意味が存在).提案方法により推定した英字略語の意味が,当該英字略語を含む新聞記事における意味と一致した場合を正答として評価した.なお,意味の一致に関する判定は人手で実施しており,Wikipediaから取得した意味候補の中に正解となる候補が複数含まれることもある(例えば,表\ref{table:IC}における7番と8番の候補「インターシティ」は両方ともヨーロッパにおける都市間列車を指しており,どちらを選択しても正解と判定している).今回は評価の簡略化のため,英字略語として扱う2文字以上の大文字アルファベットの羅列が1つ含まれる記事を評価対象としている.\ref{resolution}節で述べた通り,入力した文章を用いて英字略語を疑似的に概念化する際には,\ref{unknown_word}節での考え方に基づき属性に重み付けを行う.今回の実験における入力対象は新聞記事である.そのため,概念ベースに登録されていない未定義語である一次属性に対する重み付けに必要な$\mathit{SA\mathchar`-idf}$値の算出には,1か月分の新聞記事集合を使用した.この1か月分の新聞記事集合から,概念ベースの収録語数である約9万語を超える単語数が得られたことから,当該集合を疑似的な全文章空間の情報とみなしている.\subsection{比較方法}\label{comparative_approach}本節では,本論文における提案方法の比較に使用するベクトル空間モデル\cite{G.Salton:75}について述べる.ベクトル空間モデルは,情報検索の分野で幅広く利用されている検索モデルである.各語の重みから構成されるベクトルとして入力語と文書をそれぞれ表現し,二つのベクトルの成す角度の余弦によって類似度を計算する点に特徴がある.ベクトル空間モデルにおいて使用される重みにはいくつかの種類があるが,本評価では,情報検索の分野で広く用いられている$\mathit{tf}\cdot\mathit{idf}$\cite{tokunaga:99}を使用する.\ref{search}節で概念化された英字略語を含む入力文章を$q$,同様に概念化された意味候補を$d_i$,両者における自立語の語の総数(異なり)を$M$とすれば,入力文章$q$と意味候補$d_i$はそれぞれ以下のような$M$次元のベクトルで表現できる.\begin{align*}q&=(w_{q1},w_{q2},\cdots,w_\mathit{qM})\\d_i&=(w_{i1},w_{i2},\cdots,w_\mathit{iM})\end{align*}入力文章$q$に対する意味候補$d_i$の得点$s_q(d_i)$は二つのベクトルの余弦により求まる.式を以下に示す.\[s_q(d_i)=\frac{\sum_{j=1}^{M}w_\mathit{ij}w_\mathit{qj}}{\sqrt[]{\mathstrut{\sum_{j=1}^{M}{w_\mathit{ij}^2}}}\:\:\sqrt[]{\mathstrut{\sum_{j=1}^{M}{w_\mathit{qj}^2}}}}\]\subsection{評価結果}\label{result}本論文では,提案方法に対して,以下に示す3種類の入力文章(A,B,C)および3種類の関連性評価方法(1,2,3),つまり,合計9パターンの評価を行った.\begin{itembox}[c]{評価方法(入力文章)}\begin{itemize}\item(A)英字略語を含む記事全体\item(B)英字略語を含む一文とその前後一文\item(C)英字略語を含む一文のみ\end{itemize}\end{itembox}\begin{itembox}[c]{評価方法(関連性評価方法)}\begin{itemize}\item(1)関連度計算(関連度)\item(2)EarthMover'sDistance(EMD)\item(3)ベクトル空間モデル(VSM)\end{itemize}\end{itembox}評価結果を表\ref{table:result}に示す.表\ref{table:result}における数値は正答率を示す.なお,\ref{positioning}章で紹介した先行研究\cite{okazaki:07,yoshida:05}は,適用可能な英字略語に制約条件(英字略語の意味を括弧書きで併記することが必要,片仮名表記が必要)がある.今回の評価で使用した129記事に対して,当該先行研究が適用できた英字略語はそれぞれ35\%程度であったため,これらの先行研究の正答率は最高でも35\%程度となる.\begin{table}[b]\caption{評価結果}\label{table:result}\input{02table05.txt}\end{table}表\ref{table:result}より,関連度計算はベクトル空間モデルよりも正答率が5--8\%高く,EMDはベクトル空間モデルよりも正答率が8--12\%高くなっており,提案方法が既存方法であるベクトル空間モデルよりも優れた結果を示した.また,EMDは関連度計算よりも3--4\%と若干ではあるが高い正答率を獲得した.他には,入力文章が長い(入力情報量が多い)ほど高い正答率を得ていることが分かる.意味推定結果の一例を図\ref{fig:result_sample_no1},図\ref{fig:result_sample_no2},図\ref{fig:result_sample_no3}に示す.\begin{figure}[t]\includegraphics{24-3ia2f3.eps}\caption{英字略語の意味推定結果一例(その1)}\label{fig:result_sample_no1}\end{figure}\begin{figure}[t]\includegraphics{24-3ia2f4.eps}\caption{英字略語の意味推定結果一例(その2)}\label{fig:result_sample_no2}\end{figure}\begin{figure}[t]\includegraphics{24-3ia2f5.eps}\caption{英字略語の意味推定結果一例(その3)}\label{fig:result_sample_no3}\end{figure}図\ref{fig:result_sample_no1}では,英字略語AFCに対して,Wikipediaから取得した13個の意味候補から,9つのすべてのパターンにおいて正しい意味を推定できており,英字略語の意味を十分に理解できていることが分かる.次に,図\ref{fig:result_sample_no2}では,英字略語HDに対して,20個の意味候補から,入力文章に英字略語を含む記事全体を使用した場合(パターン(A))は正しい意味を推定できた一方,推定に失敗したパターンがある.具体的には,ベクトル空間モデルを使用し,かつ,入力文章に英字略語を含む一文とその前後一文または英字略語を含む一文のみを使用した場合(パターン(B)-(3),パターン(C)-(3))と,関連度計算を使用し,かつ,入力文章に英字略語を含む一文のみを使用した場合(パターン(C)-(1))に失敗している.前者(パターン(B)-(3),パターン(C)-(3))は,単語の表記をもとに関連性を判断するベクトル空間モデルより,単語の意味を考慮して関連性を判断する関連度計算やEMDが有効に機能したためだと考えらえる.後者(パターン(C)-(1))は,関連性の高い属性を1対1で対応をとって計算を行うために他の関連性の高い属性を除外する可能性がある関連度計算より,すべての属性を計算に利用するEMDが有効に機能したことが考えられる.最後に,図\ref{fig:result_sample_no3}では,英字略語FBに対して,16個の意味候補から,9つのすべてのパターンにおいて正しい意味を推定することができなかった.これは,入力文章に金銭に関連する語が多く含まれていたため,正しい意味である「フェイスブック」より金銭に関連する意味候補である「政府短期証券」のほうが意味的に近いと判定されたためだと考えられる.Wikipediaは現存する辞書の中で収録語数が最も多いとされるが,提案方法は,処理の拠り所である辞書に登録されていない単語には対応できないという問題がある.これは,辞書を使用する以上,避けられない問題である.ただし,評価実験で使用したデータとは異なる100件の新聞記事を無作為に調査した結果,Wikipediaに登録されていない英字略語の出現頻度は約4.5\%であった.よって,新聞記事に登場するような比較的一般的な英字略語を対象とする場合,Wikipediaに未登録の語があることに起因する正答率の低下は5\%程度であると考えられる.なお,今回実施した評価に関しては,Wikipediaに登録されていない英字略語は評価実験データから除外している.
\section{まとめ}
\label{conclusion}本論文では,英単語の頭文字から構成される表現である英字略語に焦点を当て,その意味を推定する方法について提案した.提案方法では,英字略語の意味推定を未知語の意味推定とみなし,語彙の概念化方法と語彙の意味的な近さを評価できる関連性評価方法を使用する.さらに,英字略語ゆえの情報の欠如をWikipediaを辞書として用いて補完することで,英字略語の多義性を解消し,英字略語の本来の意味を推定することを実現した.提案方法に対して,129件の新聞記事を入力文章として評価を行った.評価結果より,最高で80\%近い正答率を示したことに加え,表記に頼る比較方法より良好な結果を得ることができた.本論文で提案した技術により,英字略語の意味を理解しやすくすることができ,情報検索や自動要約など多くのアプリケーションの性能向上や知能ロボットの研究開発における自然な知的対話の実現に寄与することができると考えられる.今後の研究課題としては,近年,盛んに研究が行われているWord2Vec\cite{T.Mikolov:13}のようなニューラルネットワークを応用したベクトルモデルを適用する方法の検討が考えられる.ベクトルモデルを構築するために使用する情報源を適切に選択・構築することで,概念ベースそのものを拡張(性能向上)できる可能性がある.このような検討により,語彙の概念化処理を発展させ,より円滑な自然言語処理の実現が期待できる.\acknowledgment本研究の一部は,JSPS科研費16K00311の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{藤江\JBA渡部\JBA河岡}{藤江\Jetal}{2009}]{fujie:09}藤江悠五\JBA渡部広一\JBA河岡司\BBOP2009\BBCP.\newblock概念ベースとEarthMover'sDistanceを用いた文書検索.\\newblock\Jem{自然言語処理},{\Bbf16}(3),\mbox{\BPGS\25--49}.\bibitem[\protect\BCAY{{Google,~Inc.}}{{Google,~Inc.}}{}]{google}{Google,~Inc.}\newblock\BBOQGoogle.\BBCQ\\newblock\Turl{http://www.google.co.jp}.\bibitem[\protect\BCAY{後藤\JBA土屋\JBA渡部\JBA河岡}{後藤\Jetal}{2008}]{goto:08}後藤和人\JBA土屋誠司\JBA渡部広一\JBA河岡司\BBOP2008\BBCP.\newblockWebを用いた未知語検索キーワードのシソーラスノードへの割付け手法.\\newblock\Jem{自然言語処理},{\Bbf15}(3),\mbox{\BPGS\91--113}.\bibitem[\protect\BCAY{広瀬\JBA渡部\JBA河岡}{広瀬\Jetal}{2002}]{hirose:02}広瀬幹規\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock概念間ルールと属性としての出現頻度を考慮した概念ベースの自動精錬手法.\\newblock\Jem{信学技報},{\BbfNLC2001-93},\mbox{\BPGS\109--116}.\bibitem[\protect\BCAY{Hoffman}{Hoffman}{1963}]{A.J.Hoffman:63}Hoffman,A.~J.\BBOP1963\BBCP.\newblock\BBOQOnSimpleLinearProgramingProblems.\BBCQ\\newblockIn{\BemProceedingsofthe7thSymposiuminPureMathematicsoftheAMS},\lowercase{\BVOL}~7,\mbox{\BPGS\317--323}.\bibitem[\protect\BCAY{小島\JBA渡部\JBA河岡}{小島\Jetal}{2002}]{kojima:02}小島一秀\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock連想システムのための概念ベース構成法—属性信頼度の考え方に基づく属性重みの決定.\\newblock\Jem{自然言語処理},{\Bbf9}(5),\mbox{\BPGS\93--110}.\bibitem[\protect\BCAY{Mihalcea}{Mihalcea}{2007}]{R.Mihalcea:07}Mihalcea,R.\BBOP2007\BBCP.\newblock\BBOQUsingWikipediaforAutomatricWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofNAACLHLT},\mbox{\BPGS\196--203}.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{T.Mikolov:13}Mikolov,T.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQEfficientEstimationofWordRepresentationsinVectorSpace.\BBCQ\\newblock{\BemarXivpreprint},{\BbfarXiv:1301.3781},\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{岡崎\JBA石塚}{岡崎\JBA石塚}{2007}]{okazaki:07}岡崎直観\JBA石塚満\BBOP2007\BBCP.\newblock日本語新聞記事からの略語抽出.\\newblock\Jem{第21回人工知能学会全国大会論文集},{\Bbf2G4-4},\mbox{\BPGS\1--3}.\bibitem[\protect\BCAY{Okazaki,Ananiadou,\BBA\Tsujii}{Okazakiet~al.}{2010}]{N.Okazaki:10}Okazaki,N.,Ananiadou,S.,\BBA\Tsujii,J.\BBOP2010\BBCP.\newblock\BBOQBuildingaHigh-qualitySenseInventoryforImprovedAbbreviationDisambiguation.\BBCQ\\newblock{\BemBioinformatics},{\Bbf26}(9),\mbox{\BPGS\1246--1253}.\bibitem[\protect\BCAY{奥村\JBA土屋\JBA渡部\JBA河岡}{奥村\Jetal}{2007}]{okumura:07}奥村紀之\JBA土屋誠司\JBA渡部広一\JBA河岡司\BBOP2007\BBCP.\newblock概念間の関連度計算のための大規模概念ベースの構築.\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\41--64}.\bibitem[\protect\BCAY{Salton,Wong,\BBA\Yang}{Saltonet~al.}{1975}]{G.Salton:75}Salton,G.,Wong,A.,\BBA\Yang,C.~S.\BBOP1975\BBCP.\newblock\BBOQAVectorSpaceModelforAutomaticIndexing.\BBCQ\\newblock{\BemCommunicationsoftheACM},{\Bbf18}(11),\mbox{\BPGS\613--620}.\bibitem[\protect\BCAY{Stevenson,Guo,Amri,\BBA\Gaizauskas}{Stevensonet~al.}{2009}]{M.Stevenson:09}Stevenson,M.,Guo,Y.,Amri,A.~A.,\BBA\Gaizauskas,R.\BBOP2009\BBCP.\newblock\BBOQDisambiguationofBiomedicalAbbreviations.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponBioNLP},\mbox{\BPGS\71--79}.\bibitem[\protect\BCAY{Sun,Lin,Tang,Yang,\BBA\Wang}{Sunet~al.}{2015}]{Y.Sun:15}Sun,Y.,Lin,L.,Tang,D.,Yang,N.,\BBA\Wang,X.\BBOP2015\BBCP.\newblock\BBOQModelingMention,ContextandEntitywithNeuralNetworksforEntityDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe24thInternationalJointConferenceonArtificialIntelligence(IJCAI2015)},\mbox{\BPGS\1333--1339}.\bibitem[\protect\BCAY{徳永}{徳永}{1999}]{tokunaga:99}徳永健伸\BBOP1999\BBCP.\newblock\Jem{情報検索と言語処理}.\newblock東京大学出版会.\bibitem[\protect\BCAY{辻\JBA渡部\JBA河岡}{辻\Jetal}{2004}]{tsuji:04}辻泰希\JBA渡部広一\JBA河岡司\BBOP2004\BBCP.\newblockwwwを用いた概念ベースにない新概念およびその属性獲得手法.\\newblock\Jem{第18回人工知能学会全国大会論文集},{\Bbf2D1-02},\mbox{\BPGS\1--4}.\bibitem[\protect\BCAY{渡部\JBA河岡}{渡部\JBA河岡}{2001}]{watabe:01}渡部広一\JBA河岡司\BBOP2001\BBCP.\newblock常識的判断のための概念間の関連度評価モデル.\\newblock\Jem{自然言語処理},{\Bbf8}(2),\mbox{\BPGS\39--54}.\bibitem[\protect\BCAY{渡部\JBA奥村\JBA河岡}{渡部\Jetal}{2006}]{watabe:06}渡部広一\JBA奥村紀之\JBA河岡司\BBOP2006\BBCP.\newblock概念の意味属性と共起情報を用いた関連度計算方式.\\newblock\Jem{自然言語処理},{\Bbf13}(1),\mbox{\BPGS\53--74}.\bibitem[\protect\BCAY{ウィキメディア財団}{ウィキメディア財団}{}]{Wikipedia}ウィキメディア財団.\newblockウィキペディアフリー百科事典.\\newblock\Turl{https://jp.wikipedia.org}.\bibitem[\protect\BCAY{吉田\JBA遠間\JBA増山\JBA酒井}{吉田\Jetal}{2005}]{yoshida:05}吉田辰巳\JBA遠間雄二\JBA増山繁\JBA酒井浩之\BBOP2005\BBCP.\newblock可読性の向上を目的とした片仮名表記外来語の換言知識獲得.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ88-D-II}(7),\mbox{\BPGS\1237--1245}.\end{thebibliography}\clearpage\begin{biography}\bioauthor{後藤和人}{2008年同志社大学大学院工学研究科博士前期課程修了.同年,日本電信電話株式会社入社.知識情報処理等の研究に従事.電子情報通信学会会員.}\bioauthor{土屋誠司}{2007年同志社大学大学院工学研究科博士後期課程修了.工学博士.2017年同志社大学理工学部教授.意味解釈等の研究に従事.言語処理,人工知能,情報処理,電子情報通信,日本認知科学会各会員.}\bioauthor{渡部広一}{1987年北海道大学大学院工学研究科博士後期課程中途退学.工学博士.2006年同志社大学工学部教授.概念処理等の研究に従事.言語処理,人工知能,情報処理,電子情報通信,システム制御情報,精密工学会各会員.}\end{biography}\biodate\end{document}
| |
V01N01-03 | \section{はじめに}
従来の構文解析法は基本的に句構造文法あるいは格文法をその拠り所としてきた.前者の考え方は局所的統合の繰り返しによって文の構造を認識しようというものである.しかし,実際にそのような方法で文を解析しようとすると,規則の数が非常に多くなり,なおかつ十分な精度の解析結果を得ることが困難であった.また,格文法の場合は格要素を決定するための意味素が必ずしもうまく設定できず,またこの場合も基本的には局所的な解析であるため,十分な精度の解析結果が得られていない.これらの問題を解決するためには,これらの文法的枠組に加えて,局所的記述ではとらえきれない情報を文中の広い範囲を同時的に調べることによって取り出す必要がある.日本語文解析の困難さの原因の一つである並列構造の範囲に関する曖昧性の問題も,このような「広い範囲を同時的に調べる」ことを必要とする問題の一つである.日本語文は,特に長い文になればなるほど多くの並列構造を含んでいる.「〜し,〜し,〜する」のように,いわゆる連用中止法によって複数の文を1文にまとめることができることは日本語文の特徴でもある.それ以外にも,名詞並列,形容詞並列や,連体修飾節の並列などが頻繁に現れる.このような並列構造に対する従来の解析方法は,基本的には次のようなものであった\cite{Nagao1983,Agarwal1992}.例えば「\ldots原言語を解析する\underline{処理と}相手言語を生成する\underline{処理を}\ldots.」という文では,並列構造前部の{\bf主要語}である「\underline{処理(と)}」に対して,それよりも後ろにある名詞の中から最も類似している名詞を探すという方法により後部の主要語を決定していた(この場合「\underline{処理(を)}」が後部の主要語).しかし並列構造においては,主要語間だけではなく,構造内の他の語の間(この例の場合「原言語」と「相手言語」,「解析する」と「生成する」)にも,さらに文節列の並び(「〜を〜する〜と〜を〜する〜」)にも類似性が認められる場合が多く,これらの類似性を考慮することによってより正確に並列構造を認識することができる.そこで我々は,並列構造の存在を示す表現(名詞並列を示す助詞「と」など)の前後における最も類似度の高い文節列の対を,音声認識などで広く使われているダイナミックプログラミングのマッチング法と同様の考え方を用いて発見するという方法を考案し,このことにより並列構造の高精度な検出が可能であることを示した\cite{KurohashiAndNagao1992}.本論文では,このようにして検出した並列構造の情報を利用して構文解析を行なう手法を示す.多くの場合,いったん並列構造が発見されると文の構造は簡単化した形でとらえることができる.その結果,単純な係り受け規則を適用するだけで高精度な構文解析が可能となる.本手法は,たとえば,大規模なテキストを解析して,そこから新しい情報を取り出そうとするような場合に特に有用である.対象テキスト中の専門用語や専門的に使われている述語について,それらの相互間の関係はそこで始めて提示された概念であるかもしれない.その場合には,そのような概念の相互関係は辞書に記述されておらず,辞書中の意味記述に頼った解析は不成功となる.また,大規模なテキストを扱うのに十分であるような複雑な文法規則や詳細な格記述を用意することは,実際には非常に困難である.新しい概念は用語相互間のシンタックスによって示されるのであるから,シンタックスを尊重した解析が重要である.また,本手法でうまく扱えない問題を整理することによって,構文解析における本質的問題を明らかにすることも重要な問題である.これまでの,構文解析における曖昧性の議論では,人間にとっても曖昧であるような表現を取り上げたものが多かった.しかし,従来の構文解析法が十分でないという印象を人間に与えるのは,そのような点ではなく,人間であれば絶対にしないような部分に不必要な曖昧性を認識するためである.その原因がどこにあるかを調べるためには,本手法のように高精度でかつ決定論的に動作する道具立てが必要である.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(90,70)\put(5,5){\framebox(80,60){ps/examp1.new.ps1}}\end{picture}\end{center}\caption{並列構造の推定の例(例文1)}\label{fig:suitei_rei}\end{figure}}
\section{並列構造の検出と文の簡単化}
\subsection{並列構造の検出の概要}\label{subsec:heiretu_kenshutu}1文中の並列する部分は何らかの意味において類似していると考えることが出来る.そこで,類似性という観点から並列構造を検出する方法を図\ref{fig:suitei_rei}を用いて説明する(詳細は文献\cite{KurohashiAndNagao1992}参照).並列構造の存在を機械的に認識することは比較的容易である.{\bf名詞並列}は,名詞の直後の読点や助詞「と」・「や」などによって認識でき,{\bf述語並列}は,述語自身が連用形であることや述語が助詞「が」などを伴うことによって認識できる(このように並列構造の存在を示す文節を{\bf並列のキー}とよぶことにする).問題となるのは,そういった表現がある場合にその前後のどこまでが並列構造の範囲であるかということである.そこでまず,文節間\footnote{前処理として入力日本語文を形態素解析し,自立語とそれに続く付属語を文節にまとめている.}の類似度を品詞の一致,文字列の一致,シソーラスによる意味的な近さ,などによって定義し,全ての文節間についてこの値を計算した.図\ref{fig:suitei_rei}の三角行列では,対角要素は文節を,(i,j)要素はi番目の文節とj番目の文節の類似度を示している.次にいくつかの連続した文節,すなわち文節列相互間の類似度を考える.そのために以下の用語を定義する.\begin{description}\item[部分行列]並列のキーの右上部分の行列(図\ref{fig:suitei_rei}では点線で囲まれた部分).\item[パス]部分行列の中の1番下の行の0以外のある要素から1番左の列のある要素までの左上方向への要素の並び.\item[パスのスコア]パスに含まれる要素の値の総和.パス内の要素の並びが真左上方向からずれる場合にはペナルティとして値を小さくする.\end{description}パスに含まれる各要素の値は並列のキーの前後にある2つの文節間の類似度を示しているので,それらの値の総和であるパスのスコアはパスの左側の文節列と下側の文節列の間の類似度を示している.パスの方向のずれに対してペナルティを与えるのは,それによって文節数が同じぐらいの文節列間の類似度を相対的に高くするためである.このように考えると,文節列間の類似度をパスのスコアという形で計算することができるようになる.そこで,ダイナミックプログラミングの手法によって並列のキーに対する最大スコアのパスを求め,そのパスによって示される最も類似度の高い文節列を並列構造の範囲と考えることにする.図\ref{fig:suitei_rei}の例では,実線で囲まれた要素の並びが最大スコアのパスとして求まり,このパスによって正しい並列構造の範囲が検出される.実験として30文字〜50文字,50文字〜80文字,80文字以上の各60文,合計180文の日本語文に対してこの手法を適用したところ,82\%の並列のキーに対して正しい並列構造を検出することができた.これは文献\cite{KurohashiAndNagao1992}で既に発表した.この方法によって求まった並列構造の範囲は{\bf前部}と{\bf後部}からなり,前部の最初の文節を{\bf起点文節},後部の最後の文節を{\bf終点文節}とよぶことにする(以降本論文では,{\bf前部},{\bf後部}という用語は,並列構造を構成する文節列を示すものとする).終点文節は前部と後部を分かつ並列のキー(前部の最後の文節)と対応する文節であり,パスの定義からわかるようにこれら2つの文節は類似度をもったものが選ばれる.一方,並列構造の前部と後部にはそれぞれ並列のキーと終点文節を修飾している文節列があり,起点文節は前部の修飾部分がどこまでであるかを示している.しかし,前部と後部の修飾部分には正確な対応関係があるわけではなく,起点文節は主にバランス(文節数の同じ文節列の類似度が高い)という観点から決定される.そのため,起点文節は並列構造の始まりの位置を必ずしも正確に示しているわけではない.その最終決定は係り受け解析の段階で処理する(\ref{subsec:enchou}節).なお,検出された並列構造のうち次の二つの条件を満たす,とくに類似度の高いものを{\bf強並列}とよぶことにする.\begin{itemize}\item前部の文節数(n1)と後部の文節数(n2)がほぼ等しい.\item並列構造を与えるパスのスコアが高い.\footnote{文献\cite{KurohashiAndNagao1992}で示したスコア計算のパラメータに対しては,30文の学習サンプル(岩波情報科学辞典のテキスト)の調査の結果,具体的な条件を次のように与えた(前部の文節数をn1,後部の文節数をn2とする).\begin{quote}{\bf文節数}:$\frac{4}{5}\leq\frac{n1}{n2}\leq\frac{5}{4}$を満たす.{\bfスコア}:(n1$+$n2)$\times$4点以上である.\end{quote}}\end{itemize}たとえば,次の文の下線部分は強並列である.\begin{quote}例文2:「もちろん、問題の大部分は、ある現象を調べるのにどんなアルゴリズムが必要かを正確に見定めることであるが、コンピューターのアーキテクチャがその開発の\underline{助けになることもあれば、}\underline{妨げになることもある。}」\end{quote}強並列は,以降の処理において他の並列構造と若干異なった扱いをする.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(120,110)\put(5,5){\framebox(110,100){ps/kankei.ps}}\end{picture}\end{center}\caption{並列構造間の関係}\label{fig:kankei}\end{figure}}{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(150,55)\put(5,5){\framebox(140,45){ps/kankei\_rei.new.ps}}\end{picture}\end{center}\caption{並列構造間の関係の例}\label{fig:kankei_rei}\end{figure}}\subsection{並列構造間の関係の整理による文の簡単化}前節の処理で得られた並列構造の範囲に関する情報をまとめることによって,文の大まかな構造を把握することができる.この処理は,まず二つの並列構造間の関係を明らかにし,それをもとに1文内の全ての並列構造間の関係を整理することによって行う.並列構造の範囲は,\{起点文節の位置,並列のキーの位置,終点文節の位置\}の3組値で表すことができる.1文内に2つの並列構造が存在するとき,図\ref{fig:kankei}に示すように,前方の並列構造Xの範囲を\{x1,x2,x3\},後方の並列構造Yの範囲を\{y1,y2,y3\}とする.並列構造間の関係が問題となるのは,その範囲が重なる場合,すなわちy1$\leq$x3の場合である.このときy1とx1,x2,およびx3とy2,y3の関係によって2つの並列構造間の位置関係を図\ref{fig:kankei}のように分類できる.この16の位置関係は次の3つの関係に分類することができ,そのそれぞれに対して次のような処理を行う.\begin{description}\item[兄弟関係]---F\\前節の処理では,3つ以上の部分からなる並列構造は,Fの位置関係にある複数の並列構造の組合せとして検出される.そこでFの位置関係にある並列構造は1つの並列構造にまとめる(図\ref{fig:kankei_rei}(a)).\item[親子関係]---A,B,C,D,E,G,H,M,N\\ある並列構造の中にさらに並列構造が含まれる入れ子構造の場合である.このうちA,B,C,Gの位置関係の場合は並列構造Yの前部を並列構造Xを含むように延長する(図\ref{fig:kankei_rei}(b)).逆にEの場合は並列構造Xの後部を並列構造Yを含むように延長する(図\ref{fig:kankei_rei}(c)).\item[違反関係]---I,J,K,L,O,P\\これらの位置関係は,正しい並列構造の重なりではなく,並列構造の検出の誤りによって生じたものであると考えられる.このような関係にある並列構造については次節で示す方法によって並列構造の再検出を行う.なお,I,Jの位置関係は親子関係としたC,Gと左右対称であるが,並列構造の後部については前節の処理で正確な範囲が求まっており後方へ延長することはないので,違反関係とする(Eの親子関係の場合は特別,図\ref{fig:kankei_rei}(c)と図\ref{fig:kankei_rei}(d)参照).\end{description}なお,並列構造の類似度が高い強並列では,その中の文節がそれぞれ強く対応しており,意味的に強い\.{ま}\.{と}\.{ま}\.{り}をなしていると考えられる.そのため,外部の並列構造(並列のキーが強並列の範囲の外にあるもの)の境界が強並列の内部にある場合は違反関係とする.すなわち,後の並列構造が強並列である場合に,A,Eの位置関係を違反関係とする.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(110,40)\put(5,5){\framebox(100,30){ps/kantan.new.ps}}\end{picture}\end{center}\caption{文の簡単化(例文3)}\label{fig:heiretu_tree}\end{figure}}これらの処理の具体例を図\ref{fig:kankei_rei}(a)の例文(以後,例文3とよぶ)について示す.この例文の場合,前節の処理で次の3つの並列構造が検出される.\begin{itemize}\itemCS1$[$表題,$]$-$[$著者,$]$\itemCS2$[$著者,$]$-$[$主題などの$]$\itemCS3$[$主題などの〜再編成し,$]$-$[$索引の〜記録しておく.$]$\\end{itemize}このうちCS1とCS2は兄弟関係にあるので,これらを3つの部分からなる1つの並列構造CS'($[$表題,$]$-$[$著者,$]$-$[$主題などの$]$)にまとめる.さらに,CS2とCS3,すなわちCS'とCS3が親子関係にあるので,CS3の前部を「表題,著者,」の部分を含むように延長する.これらの処理の結果,図\ref{fig:heiretu_tree}に示すように,文の大まかな構造を得ることができる.\subsection{違反関係にある並列構造の修正}文内に違反関係の並列構造がある場合には,並列構造の検出のやり直しを行なう.違反関係にある2つの並列構造のうち,スコアの高い方の並列構造の範囲を基準とし,その範囲に対して違反関係にならないような並列構造をもう一方の並列のキーについて再検出する.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(120,80)\put(5,5){\framebox(110,70){ps/kankei\_shuusei.ps}}\end{picture}\end{center}\caption{並列構造間の違反関係による並列構造の再検出}\label{fig:kankei_shuusei}\end{figure}}たとえば,前方の並列構造Xの再検出を行なう場合には,x2,y1,y2,y3の値に対して図\ref{fig:kankei}の関係式によって正しい位置関係を与えるようなx1,x3の値の範囲を求める.並列構造の再検出では,並列構造の起点文節と終点文節の位置をこのようにして求まった範囲内に制限し,その中でもっとも類似度の高い並列構造を求める.図\ref{fig:kankei_shuusei}に並列構造の再検出の例を示す.図の中に示した表は,並列構造$[$プログラム,データだけでなく,$]$-$[$ファイル,データベースをも$]$を基準として並列のキー「ファイル,」に対する並列構造を再検出する場合,起点文節が6番目の文節「ファイル,」であり,終点文節が7番目の文節「データベースをも」である並列構造だけが制限を満たすことを示している.すなわち,この例文の場合,再検出される並列構造の範囲は起点文節と終点文節に対する制限によって一意に決まることになる.違反関係にある並列構造の組が1文内に複数ある場合には,スコアの差が最も大きい組について再検出の処理を行なう.そして一つの並列構造の再検出を行うたびに全体の並列構造間の関係を調べ直し,違反関係がなくなるまでこの処理を繰り返す.
\section{係り受け解析}
前章で説明したように,文内の並列構造が決定されると文の大まかな構造がとらえられたことになり,文を簡単化した形で扱うことが可能となる.この結果,簡単化された各部分に対して単純な係り受け解析をするだけで,従来の構文解析よりも頑強な,すなわち長い文に対しても有効な構文解析を行なうことができる.\subsection{係り受け解析の概要}係り受け解析の目的は,文節間の係り受け関係を明らかにし,その関係を{\bf依存構造木}によって表現することである\cite{Kodama1987}.依存構造木では,木の節点には{\bf受け}の文節を,その子の節点には{\bf係り}の文節を配置する.日本語の場合,各文節はそれよりも後ろの文節に係るので,最終的には文末の文節を根節点とする依存構造木が得られる.係り受け解析は,まず並列構造に関する部分について行なう.複数の並列構造が入れ子構造(親子関係)をなしている場合は,その中の最も深いレベルにある並列構造から順に解析していく.そして,最後に文全体の解析を行なう.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(85,40)\put(5,5){\framebox(75,30){ps/examp3.new.ps}}\end{picture}\end{center}\caption{係り受け解析の例(例文3)}\label{fig:kakari_rei}\end{figure}}並列構造の前部と後部はそれぞれ意味的なまとまりをなしており,それぞれを1つの依存構造木にまとめることができる.そこで,並列構造を表すためにその2つの依存構造木の根節点(依存構造木の表示では``$<$P$>$''を付加)を子の節点とする新たな節点(依存構造木の表示では``PARA''と表記,{\bf並列節点}とよぶことにする)を作り,その上のレベル(親の並列構造,それがない場合には文全体)の係り受け解析では,この並列節点のみが扱われるようにする.並列節点は,係りの文節となる場合には終点文節の内容を継承し,受けの文節となる場合には並列のキーと終点文節の内容を継承する.こうすることによって,並列構造中の並列のキーと終点文節以外の文節は並列構造の外の文節の係り先にはならないことになる.3つ以上の部分からなる並列構造の場合は,並列節点の子の節点,すなわち並列構造内でまとめられる依存構造木の数が増えるだけで,その他の処理は全く同じである.たとえば図\ref{fig:heiretu_tree}に挙げた例文3では,まず並列構造[表題,著者,主題などの]の各部分が処理対象となる.この各部分は1文節なので係り受け解析の必要はなく,単にそれらをまとめた並列節点が作られる(図\ref{fig:kakari_rei}(a)).次に,並列構造[表題,〜記憶しておく.]の前部と後部を係り受け解析してそれぞれを依存構造木にまとめ,さらに並列節点を作る(図\ref{fig:kakari_rei}(b)).そして最後に文全体を係り受け解析し,文全体の依存構造木を得る(図\ref{fig:kakari_rei}).\subsection{一定範囲内の文節列の係り受け解析}並列構造を1つのものと見ることによる文の簡単化がうまくいったとして,次にその各部分をどのような規則で係り受け解析するかということが問題となる.我々はまず,次のような優先規則によって決定論的に動作する解析を考えた.\begin{itemize}\item解析すべき範囲について後ろから順に各文節の係り先を決定する.\item各文節の係り先は,係り受け関係が相互に交差しない条件(非交差条件)をみたし,かつ\.{係}\.{り}\.{得}\.{る}文節のうち最も近い文節とする\cite{Maruyama1992}\footnote{各文節の係り先は1つの文節であるとする.提題助詞を伴う文節(「〜は」)などが意味的に複数の文節に係っている場合の問題は,本手法では扱わない.そのような問題は本手法の解析結果に対する次のレベルの処理で扱うことを考えている.}.\item係り得る関係は次のものである\footnote{文法用語は基本的に益岡・田窪文法\cite{Masuoka1989}に従った.以降の説明のためにいわゆる学校文法との相違点を簡単に示す.\\判定詞--名詞と結合して述語を作る活用語「だ」・「である」・「です」,\\イ形容詞--形容詞,ナ形容詞--形容動詞,\\基本形--終止形,タ形--連用形+助動詞「た」.}.ただし,助詞「が」・「を」を伴う文節は,それぞれ同じ述語に2つ以上は係り得ない.\begin{itemize}\item{\bf名詞}に係り得る:\連体詞,助詞「の」,活用語の基本形・タ形\item{\bf動詞}に係り得る:活用語の連用形,副詞,助詞\item{\bf述語のイ形容詞・ナ形容詞}に係り得る:\活用語の連用形,副詞,助詞(「を」・「へ」以外)\item{\bf連体形のイ形容詞}に係り得る:\副詞,助詞「が」・「の」・「に」・「より」\item{\bf連体形のナ形容詞}に係り得る:\副詞,助詞「が」・「に」・「より」\item{\bf連用形のイ形容詞・ナ形容詞}に係り得る:副詞\item{\bf名詞+判定詞}に係り得る:\活用語の連用形,副詞,助詞(「を」以外).\end{itemize}\end{itemize}{\bf述語のイ形容詞・ナ形容詞}とは,読点を伴うもの,文末のもの,「〜という」などの表現を伴うものをさす.それ以外の場合の連体形,連用形の形容詞については,その係り先の体言,用言の方が意味的に強いと考え,上記のようにそれらの形容詞に係り得る文節を制限した.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(90,25)\put(5,5){\framebox(80,15){ps/kakari\_gairyaku.ps}}\end{picture}\end{center}\caption{係り受け解析の進め方}\label{fig:kakari_gairyaku}\end{figure}}図\ref{fig:kakari_gairyaku}の例では,文節2,文節3,\ldotsの順に係り先を決定していき,文節6の係り先を調べる段階では,非交差条件によって文節4,文節3は対象外となり,文節5,文節2,文節1の順で係り得る文節を探す.このような方法で30文の学習サンプル(岩波情報科学辞典のテキスト)に対して係り受け解析を行なったところ,幾つかの問題点が明らかになった.そのうち,語彙に依存した問題ではなく,一般性をもった問題を解決するために次の3つのタイプの文節に対する規則を新たに加えた.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(90,35)\put(5,5){\framebox(80,25){ps/HA.ps}}\end{picture}\end{center}\caption{助詞「は」を伴う文節の係り先}\label{fig:HA}\end{figure}}\begin{description}\item[区切り文節に対する規則]\\並列構造の検出では主従関係にある述語の接続は対象としていない.これは,主節と従属節の間には類似性が存在するとはいえないためである.そのため,文を簡単化した各部分の中には主従関係の述語の接続が含まれている.実際に文を解析した結果をみてみると,これらのうち条件を示す述語(「〜すれば,」など)と因果関係を示す述語(「〜するので,」など)が読点を伴っている場合,非常に意味的な区切りが強いことが分かった.そこで,この種の述語を{\bf区切り文節}とし,その係り先は係り得る最も近い文節ではなく最も遠い文節とする.\item[読点を伴う文節に対する規則]\\文が読点で区切られるのは,そこに意味的な区切りが存在することを示すためであり,それを伴った文節が少し離れた文節に係っていくことを示していると考えられる.そこで読点を伴う文節は,係り得る最初の文節を飛び越して2番目の文節に係るとする.ただし,次の場合にはこの規則は適用しない.\begin{itemize}\item係り得る最初の文節が上述の区切り文節である場合.\item「$\cdots$\underline{〜する}ことが多い.」,「$\cdots$\underline{〜である}と考える.」などの表現で下線部分が係り得る最初の文節である場合.このような表現では,下線部分の述語までが意味的なまとまりをなしており,文末の述語は付随的であると考えられるため,下線部分の述語を飛び越して文末の述語に係るとはしない.この下線部分の述語も,受けの文節としては区切り文節であるとする.\item係り得る最初の文節が並列構造をまとめた並列節点の文節である場合.並列構造外の文節が並列節点(並列のキー文節と終点文節)に係る場合には,かなり離れた文節に係ることになるため.\item係り得る文節が解析対象範囲内に1つしかない場合.\end{itemize}\item[助詞「は」を伴う文節に対する規則]\\助詞「は」は文(あるいは文を簡単化したときのある部分)の主題を示すので,これを伴う文節\footnote{助詞「は」単独ではなく「で+は」・「として+は」・「について+は」・「において+は」・「のために+は」を伴う文節についても主題を示す働きがあると考え,この規則の対象とした.これに対して,「より+は」などの場合は,ある事項を取り上げる働きがあるが主題を示しているとは考えられないので対象外とした.}に対しては係り得る最も近い文節に係るという規則は当てはまらない.その係り先は区切り文節との相対的関係で微妙であるが,実際の文解析の結果から次のような規則を用いることにした.なお,係り受け解析の対象範囲内の最後の述語も区切り文節とする.\begin{itemize}\item助詞「は」を伴い読点を伴わない場合:\\最も近い区切り文節に係るとする(図\ref{fig:HA}(a)).\item助詞「は」と読点を伴う場合:\\最も遠い区切り文節に係るとする(図\ref{fig:HA}(b)).ただし,その文節に付属語が全て同じである文節が係っていて,かつ,その前にも区切り文節が存在する場合には前の区切り文節に係るとする(図\ref{fig:HA}(c)).\end{itemize}\end{description}{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(90,55)\put(5,5){\framebox(80,45){ps/examp5.ps}}\end{picture}\end{center}\caption{係り受け解析の例(例文4)}\label{fig:kakari_rei5}\end{figure}}{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(95,75)\put(5,5){\framebox(85,65){ps/examp6.ps}}\end{picture}\end{center}\caption{係り受け解析の例(例文5)}\label{fig:kakari_rei6}\end{figure}}例えば,例文4(図\ref{fig:kakari_rei5})の場合,「ミハイロフらが,」は読点を伴うために,係り得る最初の文節「追究する」ではなく2番目の「与えた」に係る.また,「用語は」は助詞「は」を伴うので係り先として区切り文節を探し,その結果,文末の文節「言葉である.」に係ることになる.例文5(図\ref{fig:kakari_rei6})の場合は,文節「とらえられるので,」が区切り文節であるため,助詞「は」を伴う文節「内容は」はこの区切り文節に係り,この区切り文節自身は係り得る最も遠い文節である「分野である.」に係る.これらの規則でうまく扱うことができない問題については\ref{sec:evaluation}章で議論する.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(80,45)\put(5,5){\framebox(70,35){ps/examp1.ps2}}\end{picture}\end{center}\caption{係り受け解析の例(例文1)}\label{fig:kakari_rei1}\end{figure}}\subsection{並列構造の範囲の延長}\label{subsec:enchou}前節で述べた並列構造の検出方法ではその前部がどこから始まるかについて正確な情報が得られないので,係り受け解析の段階でこれを明らかにする必要がある.そこで,``検出した並列構造の起点文節より前の文節であっても,その並列構造内の文節に係ることが\.{妥}\.{当}\.{で}\.{あ}\.{る}文節は並列構造に含まれるとみなす''という考え方で並列構造の範囲の延長を行なう.延長を行なうのは,述語を含む並列構造,すなわち述語並列の場合と連体修飾節を含む名詞並列の場合である\footnote{述語を含まない並列構造の場合は,その前にある修飾語句が並列構造の前部のみを修飾することは非常に少なく,ほとんどの場合,並列構造全体を修飾している(並列のキーと終点文節が係り先になる).}.そのような並列構造の場合,その前部の係り受け解析を,並列構造として検出された範囲内だけでなくさらにその前の部分に対しても延長して行なう.ただし,延長の解析は次のように行なう.\begin{itemize}\item解析対象の文節が読点あるいは助詞「は」を伴う場合は,延長の処理を終了する.そのような文節は,並列構造との間に意味的な区切りがあり,並列構造内部の文節に係るのではなく,並列構造全体,あるいはさらに後ろの文節に係ると考えられるからである.\item並列のキーを係り先の対象から外して係り受け解析を行ない,係り先がない場合には,延長の処理を終了する.並列のキーを係り先の対象から外すのは,もし並列のキーに係るのであれば,それと対応している終点文節にも係ると考えられ,そのような係り受け関係はその上のレベルの係り受け解析において並列節点との関係として扱うからである.\end{itemize}たとえば,図\ref{fig:suitei_rei}で示した例文1では,起点文節の前の「その」は「可能性を」に係ると考えて並列構造に含まれるとし,助詞「は」および読点を伴う「解消するためには,」のところで延長の処理を終了する.最終的に得られる依存構造木を図\ref{fig:kakari_rei1}に示す.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(95,85)\put(5,5){\framebox(85,75){ps/examp2.new.ps}}\end{picture}\end{center}\caption{係り受け解析の例(例文2)}\label{fig:kakari_rei2}\end{figure}}なお,延長を考える並列構造が強並列の場合は,並列構造内の前部と後部の各文節が強く対応しているので,延長する部分の文節が上述のように前部の文節だけに係ると考えるのではなく,前部と後部の対応する文節の対に係ると考える.この処理は,並列構造後部において省略された修飾語を補間する処理であるとみなすこともできる.たとえば,\ref{subsec:heiretu_kenshutu}節で示した例文2では,「その開発の」は「助け」と「妨げ」の両方に,「コンピューターのアーキテクチャが」は「(助けに)なる」と「(妨げに)なる」の両方に係るとする(図\ref{fig:kakari_rei2}).{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(150,150)\put(5,5){\framebox(140,140){ps/incomplete.new.ps}}\end{picture}\end{center}\caption{部分並列の解析}\label{fig:incom_new}\end{figure}}{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(80,65)\put(5,5){\framebox(70,55){ps/examp4.new.ps}}\end{picture}\end{center}\caption{係り受け解析の例(例文6)}\label{fig:kakari_rei4}\end{figure}}\subsection{係り受け解析を失敗した場合}これまで説明してきた規則によって並列構造の各部分を係り受け解析すると,ある文節に対してその係り得る文節がなくなり,解析が失敗するということがある.このような失敗は,もともと1つの依存構造木にまとめることができない不完全な部分が並列している場合(このような並列構造を{\bf部分並列}とよぶことにする)と,検出された並列構造の範囲が誤りである場合に起こる.部分並列は,前部と後部の述語が等しい述語並列において前部の述語が省略された構造である(図\ref{fig:incom_new}(a)(b)).そこで,次の2つの条件をみたす場合にその並列構造を部分並列とみなす(図\ref{fig:incom_new}(c)).\begin{itemize}\item並列構造の前部と後部の両方で(3つ以上の部分からなる並列構造ではその各部分で)係り受け解析が失敗する.\item係り先がない文節の付属語がすべて等しい.\end{itemize}たとえば,次の文の下線部分は部分並列である.\begin{quote}例文6:「図に示すように,\underline{電流源にpnpトランジスター,}\underline{スイッチングにnpn}\\\underline{トランジスターを}使用し,\ldots」\end{quote}部分並列の場合は,並列のキー,終点文節に加えて,係り先のない文節もいったん並列節点の子節点とする(図\ref{fig:incom_new}(d)).そして,次のレベルの解析において並列節点の係り先が明らかになった段階で,その係り先の文節を前部に対して補うことによって述語並列への変換を行う(図\ref{fig:incom_new}(e)).さらに,部分並列の並列のキー文節の助詞が省略されている場合は,終点文節の助詞によってそれを補間する.例文6の場合,助詞「を」と述語「使用し」が補われる(図\ref{fig:kakari_rei4}).係り受け解析が失敗し,上記の条件が成り立たない場合には,並列構造の検出が誤っていたと考え,並列構造の検出のやり直しを行なう.係り受け解析の失敗が起こらないような並列構造を検出するために,その起点文節と終点文節の位置について次のような制限を与える.\begin{itemize}\item並列のキーから文の先頭までを対象範囲として係り受け解析が可能かどうかを調べる.ある位置で解析が失敗する場合は,並列構造の前部がそれよりも広い範囲になると必ず解析が失敗するので,起点文節の位置はその失敗した位置よりも後ろであるとする.\item並列構造の後部として考えられるすべての範囲についてその中の係り受け解析が可能であるかどうかを調べ,可能でない場合はその範囲の末尾の文節が終点文節となることを禁止する.\end{itemize}並列構造の再検出を行なった場合は,並列構造間の関係を求める処理まで戻って解析をやり直す.{\unitlength=1mm\begin{figure}[hbt]\begin{center}\begin{picture}(120,80)\put(5,5){\framebox(110,70){ps/kakari\_shuusei.new.ps}}\end{picture}\end{center}\caption{係り受け解析の失敗による並列構造の再検出}\vspace*{-0.5cm}\label{fig:kakari_shuusei}\end{figure}}図\ref{fig:kakari_shuusei}に並列構造の再検出の例を示す.図の中に示した表は,再検出する並列構造が係り受け解析可能であるためには,起点文節に対する制限はないが,終点文節は5番目の文節「文書処理とともに」か10番目の文節「なす.」に限られることを示している.
\section{文解析の結果とその評価}
\label{sec:evaluation}本手法による文解析の実験をテストサンプルの150文に対して行なった\footnote{岩波情報科学辞典,日本科学技術情報センタ(JICST)発行の抄録文,科学雑誌サイエンスから収集.}.テストサンプルは,文字数が30〜50文字,50〜80文字,80文字以上のものをそれぞれ50文づつランダムに収集した.\begin{table}\caption{解析結果の評価(文節単位)}\label{tab:hyouka}\begin{center}\begin{tabular}[c]{l|r|r|r|r}\hline&出現数&正解&誤り&正解率\\\hline\hline並列のキー&215&185&30&86\%\\\hline用言に係る文節&971&941&30&97\%\\\hline体言に係る文節&765&744&21&97\%\\\hline\hline合計&1951&1870&81&96\%\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{解析結果の評価(文単位)}\label{tab:hyouka2}\begin{center}\begin{tabular}[c]{l||c|c|c||c}\hline\hline{\small文字数}&30--50&50--80&80--149&合計\\\hline\hline\multicolumn{5}{l}{本手法}\\\hline並列構造なし&25/--/29&5/--/10&3/--/4&33/--/43\\並列構造あり&14/15/21&30/34/40&20/37/46&64/86/107\\\hline合計&39/--/50&35/--/50&23/--/50&97/--/150\\\hline\hline\multicolumn{5}{l}{比較実験}\\\hline並列構造なし&25/--/29&5/--/10&3/--/4&33/--/43\\並列構造あり&12/14/21&22/27/40&7/19/46&41/60/107\\\hline合計&37/--/50&27/--/50&10/--/50&74/--/150\\\hline\end{tabular}\\\vspace{0.5cm}\begin{tabular}{ll}\multicolumn{2}{l}{各欄のa/b/cの値は次のものをさす.}\\a:&文全体の依存構造が正しく求まった文の数.\\b:&文全体の並列構造が正しく求まった文の数.\\c:&その欄にあてはまる文の数.\\\end{tabular}\end{center}\end{table}\subsection{定量的評価}\subsubsection*{係り受け解析全体について}150文の解析結果について人手で評価を行なった.まず文節を並列のキー,用言に係る文節,体言に係る文節の3タイプに分類し,並列のキーについては正しい終点文節が検出されているか,用言に係る文節,体言に係る文節については正しい係り先が求まっているかを調べた(表\ref{tab:hyouka}).また,各文をその長さと並列構造の有無によって分類し,文中の全ての並列構造が正しく求まっているか(文の簡単化が正しく行なわれたかどうか),さらに文全体の依存構造が正しく求まっているかどうかを調べた(表\ref{tab:hyouka2}上部).次に,本手法の有効性,特に並列構造の検出による文の簡単化の有効性を調べるために比較実験を行なった.この比較実験では,並列のキーに対してダイナミックプログラミングによる並列構造の範囲推定を行なわずに,単にそれを最も類似する文節に対応付けるという規則を用いた(2.1節の文節間類似度の計算を用いた).この規則と本論文で示した係り受けの優先規則によって,文末の文節から順にその係り先あるいは対応先を決定するという形で文解析を行なった.この方法による解析結果を表\ref{tab:hyouka2}下部に示す.この実験で対象としたのはかなり長い文であり,1文当たりの文節数も多い(平均14.3).各文節に対して係り先の候補が多数あるため解析の誤りが起こる可能性が高く,また1文の解析結果(依存構造木)の中に誤りが含まれる可能性も高くなる.このように文が長くなった場合,文の簡単化を行なわなければ表\ref{tab:hyouka2}に示したように解析成功率は極端に低下する.このような条件を考えれば,本手法の文単位の解析成功率65\%(97/150)は決して低くないと考えられる.また表\ref{tab:hyouka}に示す通り文節単位の解析成功率は十分に高いので,解析誤りを一部に含む場合でも文のおおまかな構造は多くの場合正しく求まっており,そこからなんらかの情報を取り出すことは十分可能である.\subsubsection*{並列構造の再検出について}215個の並列のキーについては,1度目の並列構造の検出で正しい終点文節が求まったものは175個であったが,並列構造間の違反関係によって再検出の対象となった5個の並列のキーについてすべて正しい終点文節が求まり,さらに,並列構造内の係り受け解析の失敗によって再検出の対象となった8個の並列のキーのうち5個について正しい終点文節が求まった.なお再検出の対象になった並列のキーは,すべて,最初の検出で誤った並列構造が検出されたものであった.\subsubsection*{係り受け解析の優先規則について}例文中には,区切り文節は20個(係り受け解析の対象範囲の最後の述語であるために区切り文節としたものは除く),読点を伴う文節は274個(並列のキー,助詞「は」を伴う文節を除く),助詞「は」を伴う文節は115個存在したが,それらを扱うために追加した係り受け規則はすべて有効に働き,解析に悪影響を与えた例はなかった.たとえば,読点を伴う文節の係り先は2番目の係り得る文節としたが,実際には3番目の文節に係ることが正解であるために誤りとなる例はあったが,1番目の文節に係ることが正解であり読点に対する追加規則のためにそれが正しく取り出せないという例はなかった.\subsection{関連研究}構文解析システムを,実際にテキストを処理する{\bfツール}として考えた場合,並列構造と依存構造(または句構造/格構造)に対する優先規則を持つことは必要不可欠である.しかし,日本語文解析において,そのような規則を備えたシステムとその評価結果を示した研究は非常に少ない.実用的機械翻訳システムであるMuシステム\cite{Nagao1985}の日本語解析部では,並列構造,依存構造に対する優先規則による処理を行っているが,その評価は翻訳結果に対して行われており,日本語解析部に対する評価の報告はない\cite{Nagao1985b}.しかし,Muシステムにおける並列構造解析は基本的に1章で述べた「並列する主要語間の類似度を調べる」方法であり,また,本手法のように並列構造の再検出を起動するような枠組も示されていない.稲垣らは,並列構造に対する優先規則,読点を伴う文節に対する優先規則に加えて,用例とシソーラスを用いた優先規則を備えた日本語文解析システムを提案している\cite{Inagaki1988}.このシステムは,解析対象テキスト中の一意に決定される係り受け関係を用例として利用することにより残りの部分の曖昧性を解消する,というシステムであり,特許請求範囲文10篇に対する文節単位の解析成功率は97\%であると報告されている.しかし,このシステムの場合も並列構造解析の方法については上述のMuシステムと同様の問題がある.\begin{table}\caption{係り受け解析の誤りの例}\label{tab:ayamari}\begin{center}\begin{tabular}[c]{p{14.0cm}}\hline\hline誤り例1:\ldots自然言語理解システムの\underline{構築には,}『システムに必要な各種の知識を蓄積した知識ベースの構築が\underline{\.{必}\.{要}\.{で},}そのために既存の英英辞典のデータを逐次型推論マシンPSIに移植して\underline{データベース化した。}』\\\hline誤り例2:つながっているように\underline{みえるのは}\.{錯}\.{覚}\.{で}、これは天空に見える銀河の位置のしわざに\underline{すぎないので}\underline{ある。}\\\hline誤り例3:\ldots高価な\underline{共用資源に}\.{つ}\.{き}\.{も}\.{の}\.{の}管理上の負担と時間割り当ての問題を\underline{避ける}ことができる。\\\hline誤り例4:\underline{単純な}\underline{引力による}\.{説}\.{明}\.{が}退けられた理由は、純粋な重力の相互作用では、\ldots\\\hline\end{tabular}\end{center}\end{table}{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(105,50)\put(5,5){\framebox(95,40){ps/hei\_ayamari.ps}}\end{picture}\end{center}\caption{並列構造の検出の失敗}\label{fig:hei_ayamari}\end{figure}}\subsection{解析の誤り}本手法における係り受け解析誤りの根本的原因を分類し,それらを具体例とともに説明する(表\ref{tab:ayamari}:下線部分は誤った係り先を求めた文節とその誤った係り先の文節,傍点はその正しい係り先の文節を示している).並列のキーに対する終点文節の検出の誤りについては文献\cite{KurohashiAndNagao1992}で論じたので,ここでは用言に係る文節と体言に係る文節の係り先の誤りに的を絞る.\begin{itemize}\item並列構造の前部の範囲と関連するもの\\並列構造の検出では,文節数が同じぐらいの文節列同士が並列することが自然であるということを1つの尺度にしている.このため,後部の文節数が非常に多い並列構造では後部の範囲が正しく求まらない可能性があり(図\ref{fig:hei_ayamari}(a)),この場合は並列のキーに対して終点文節の検出を誤ったということになる.これに対して,前部の文節数が非常に多い並列構造では前部の範囲が正しく求まらない可能性がある(図\ref{fig:hei_ayamari}(b)).この問題の大部分は\ref{subsec:enchou}節で示した方針によって並列構造の前部の延長を行なうことで解決できるが,なかにはその方法で扱えない場合もある.誤り例1では,並列のキー「必要で,」に対する並列構造として``『'',``』''で囲まれた部分が検出され,その前の「構築には,」は助詞「は」と読点を伴うので並列構造の延長は行なわれない.そのため,「構築には,」の正しい係り先は「必要で,」であるのに,本手法では文全体を解析する段階で並列節点,すなわち「必要で,」と「データベース化した。」の両方が係り先であると解釈されてしまう.このような原因による解析の誤りは用言に係る文節の解析の場合が圧倒的に多い.\item述語的働きをする「で」・「の」に関連するもの\\名詞に続く「で」・「の」は助詞である場合と判定詞の活用形である場合がある.判定詞である場合,「で」は「であり」に,「の」は「である」に言いかえることができる(誤り例2:「錯覚で,」,誤り例3:「つきものの」).これらの区別は困難であるので,本手法では今のところ圧倒的に頻度の高い助詞としての解釈を優先している.そのため,それらが判定詞である場合その文節(「名詞+判定詞」)に係るはずの文節の解析は失敗してしまう.\item連体修飾(「〜の」を含む)の連続する部分での誤り\\体言に係る文節の係り先の解析の失敗は,ほとんど連体修飾の連続する部分で起こっている(誤り例4).\end{itemize}150文に対する実験では誤りの絶対数が少ないので,誤りを上のように分類することはできるが,それらの解決方法の考察まで行なうことは難しい.解決方法を考えるためには,誤りの原因となっているような表現を大量に収集して調査することが必要である.
\section{おわりに}
従来方式の構文解析では長い文の中に多く存在する並列構造を正しく認識することが困難であり,そのことが長い文を解析する上での大きな問題であった.本論文では,まず文内の並列構造の範囲を文節列同士の類似性を発見するという考え方によって検出し,次に並列構造の情報を利用しながら簡単な係り受け解析を行なうという方法によって,長い文に対しても有効であり,かつ高精度な構文解析が実現できることを示した.次のステップでは,構文解析によって求まった依存構造木において依存関係にある文節間の格関係の推定を行ない,同時にその過程で省略語句の復元や指示詞の指示対象の同定を行なうことを考えている.このレベルの処理が実現されて,始めて文からある種の意味が取り出せることになる.\bibliographystyle{jtheapa}\bibliography{main}\begin{biography}\biotitle{略歴}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程修了.同年,京都大学工学部助手,現在に至る.自然言語処理,知識情報処理の研究に従事.1994年4月より1年間Pennsylvania大学客員研究員.}\bioauthor{長尾眞}{1959年京都大学工学部電子工学科卒業.工学博士.京都大学工学部助手,助教授を経て,1973年より京都大学工学部教授.1976年より国立民族学博物館教授を兼任.京都大学大型計算機センター長(1986.4--1990.3),日本認知科学会会長(1989.1--1990.12),パターン認識国際学会副会長(1982--1984),日本機械翻訳協会初代会長(1991.3--),機械翻訳国際連盟初代会長(1991.7--1993.7).電子情報通信学会副会長(1993.5).計算機にどこまで人間的なことをやらせられるかに興味を持ち,この分野に入った.パターン認識,画像処理,機械翻訳等の分野を並行して研究.機械翻訳の国家プロジェクトを率いて,本格的な日英,英日翻訳システムを完成した.またアナロジーの概念に基づく翻訳(用例を用いた翻訳)を提唱.今日その重要性が世界的に認識されるようになって来ている.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V24N03-05 | \section{はじめに}
法律文書や技術文書等の専門文書は,その文種に特有の表現を持っていることから,サブ言語を形成していると考えることができる.サブ言語を対象とした翻訳に関する従来の研究では,サブ言語の翻訳品質を向上させるには,対象のサブ言語に特徴的に表れる文構造を適切に捉え,対象言語の文構造に変換することが不可欠であることが指摘されている\cite{DBLP:conf/coling/BuchmannWS84,DBLP:conf/eacl/Luckhardt91,DBLP:conf/anlp/MarcuCW00}.図\ref{fig:ex-sents}は,特許抄録のサブ言語に特有な2対の対訳文である.いずれの文対でも,適切な訳文を得るためには,原言語文におけるABCという文構造を目的言語においてCBAに変換しなければならない.このようなサブ言語に特徴的な文では,文構造を適切に捉えられなければその後の処理でも良い翻訳に結びつく可能性が低いため,初期段階での正確な文構造の把握が極めて重要である.\begin{figure}[b]\begin{center}\includegraphics{24-3ia0f1.eps}\end{center}\hangcaption{大域的な並べ替えが必要な,特許抄録のサブ言語に特徴的な対訳文の例.A,B,Cは,文の大域的構造を構成する構造部品を表す.}\label{fig:ex-sents}\end{figure}\leavevmode\hboxto357pt{この課題に対して様々な研究が行われてきた.骨格構造を用いた機械翻訳}\cite{Mellebeek06asyntactic,DBLP:conf/acl/XiaoZZ14}では,構文解析器を用いて入力文から{\bf骨格構造},つまり文の大域的な構造を抽出し,従来の統計的機械翻訳を用いて大域的な構造の学習を行って翻訳文を生成する.しかしながらこの方法は,構文解析の精度の影響を受けるため,解析精度が低い場面では結果的に翻訳の精度も低くなるという問題がある.もう一つの手法としては,文構造変換のための同時文脈自由文法の規則を人手で構築し,これを用いて入力文の文構造を出力側言語の構造に変換する手法が提案されている\cite{Fuji:2015,Fuji2016claim}.こちらの手法は,新規のサブ言語に対して人手で規則を作成しなければならないという問題がある.これらの手法では,構文解析精度による制約の問題があったり,人手による規則作成の問題があるなど,新たなサブ言語に対して柔軟に適用できる翻訳を実現することができていない.本論文では,サブ言語に特有な大域的な文構造を捉えるための,大域的な並べ替え手法を提案する.提案手法は,構文解析を用いることなく,アノテートされていない平文テキストデータから大域的並べ替えモデルを学習し,このモデルを用いて新規の入力文に対する大域的な並べ替えを行う.本手法は構文解析器を用いないため,構文解析器の解析精度の影響を受けることはなく,また新規のサブ言語にも容易に適用できる.特許抄録のサブ言語を対象にした日英および英日翻訳実験を行って本手法の評価を行ったところ,大域的な並べ替えと従来型の構文解析に基づく並べ替えを併用することによって,翻訳品質が向上することがわかった.本論文の貢献は次のとおりである.\begin{itemize}\item構文解析を用いることなく,アノテートされていない平文テキストデータから大域的並べ替えモデルを学習できる手法を提案する.\item大域的な並べ替えと構文解析に基づく並べ替えを併用したときに翻訳品質が向上することが確認できた.\item特に特許抄録文では,サブ言語に特有な文構造を持った入力文に対して,日英・英日双方向において翻訳精度が向上した.\end{itemize}
\section{関連研究}
翻訳処理の一環として,入力文中の単語の並べ替えを行うことは翻訳品質の向上において有効であることが示されており,様々な手法が提案されてきた.\subsection{階層的フレーズベース機械翻訳}階層的フレーズベース機械翻訳\cite{Chiang:2005:HPM:1219840.1219873}における並べ替え手法は,統計的機械翻訳研究の初期の頃に提案され,並べ替えを必要とする言語対にとって現在も有効な手法となっている.この並べ替え手法では,統計的機械翻訳の学習段階において,アノテートされていない平文学習データから並べ替え規則が自動的に学習され,翻訳実行時にはこの並べ替え規則を用いた翻訳が行われる.構文解析を用いないことと,平文テキストデータから自動的に規則を学習することから,新規のサブ言語への適用は容易である.しかしながら,本手法では,長距離の単語間の関係を捉えにくいという問題が指摘されており\cite{dyer},また文の大域的な構造を捉えるための手段は設けられていない.\subsection{Tree-to-String翻訳およびString-to-Tree翻訳}これらの手法では,原言語か目的言語かのいずれかの言語のための構文解析が利用可能なときに,その構文解析を用いて言語対の翻訳精度を向上させるものである\cite{yamada:2001syntax,ambati:2007cross}.片方の言語における言語リソースが限られている場合でも,もう片方の言語の構文情報によって翻訳精度を向上させられるという特長がある.しかしながら,これら手法も構文解析の解析精度に影響されるという問題がある.\subsection{骨格構造を用いた機械翻訳}本手法は,文の大域的な構造を捉えることを主眼においた研究である\cite{Mellebeek06asyntactic,DBLP:conf/acl/XiaoZZ14}.手法では,入力文に対して構文解析器を用いて解析を行い,骨格構造と言われる,文の大域的な構造を抽出し,これに対して従来の統計的機械翻訳を適用して翻訳を行う.本手法も,構文解析器を用いているため解析精度の影響を受ける.なお,関連した研究としては述語項構造による手法も提案されている\cite{komachi2006phrase}.\subsection{構文解析による事前並べ替え翻訳}構文解析を用いた事前並べ替え翻訳に関する研究は幅広く行われてきた\cite{Isozaki:2010:HFS:1868850.1868886,Goto:2015:PUT:2791399.2699925,nnpreohlt15,hoshino-EtAl:2015:ACL-IJCNLP}.現状,実用面と精度の面からもっとも使われている手法である.本手法は,構文解析器を用いるため解析精度の影響を受けるという問題がある.また,新規分野に適用させるためには,人手によってアノテートした対象分野の対訳コーパスが大量に必要となるという問題がある.なお,本論文の提案する大域的並べ替え手法は,この従来型の構文解析による事前並べ替え手法の前処理として動作することにより,従来手法のこれら欠点を補うものである.
\section{大域的並べ替え手法}
本論文で我々は,入力文に対してサブ言語に特有な大域的な文構造を把握して並べ替えるための手法を提案する.サブ言語に特有な大域的な文構造は,対象文書を読みやすくするために,特徴的な表層的手掛かりを使いながら記述される傾向にある\cite{DBLP:conf/coling/BuchmannWS84}.このため,本手法では,対象サブ言語において頻出する表層的な手掛かり表現を取り出し,この手掛かりをもとに文構造の認識および並べ替えを行う.表層的な手掛かり表現は,単語Nグラムとして取り出す.大域的な並べ替えを含む学習文からNグラムを取り出し,新たに入力された文に対してこのNグラムを照合することによって,大域的な並べ替えの有無を検知し,必要な場合に並べ替えを行う.例えば,図\ref{fig:ex-sents}は,特許抄録文のサブ言語に属する学習データ中に表れる,大域的な並べ替えを必要とする2文の例文である.本論文では以降,大域的な並べ替えにおける並び替え単位となる文字列を{\bf構造部品}と呼ぶ.この例文では,入力文の大域的構造をABCという3つの構造部品で表しているが,訳文では大域的な並べ替えを行って構造部品をCBAの順番で出力することによって訳文として自然な文を得る.ここで,これら学習データにおいて,入力文を構成する構造部品の境界の左右からユニグラムを抽出するとユニグラムが得られる.ここで``\textbar''は構造部品の境界位置を表す.\vspace{0.5\Cvs}\begin{center}\small\begin{tabular}{c}\{{\itprovide},\textbar,{\ita}\}\\\{{\itapparatus},\textbar,{\itcapable}\}\\*\end{tabular}\end{center}\vspace{0.5\Cvs}新たな文``Toprovideaheatingapparatuscapableofmaintainingthetemperature."が入力されると,上記ユニグラムとの照合が行われ,``Toprovide\textbar\aheatingapparatus\textbar\capableofmaintainingthetemperature"のように構造部品の境界がマーキングされた文が得られる.ここで,ピリオドは並べ替え処理の対象外としており,一通りの並べ替えおよび翻訳処理が完了してから最後にピリオドに相当する句点等を訳文に戻す.入力文において認識されたこれら構造部品は大域的に並べ替えられて,``Capableofmaintainingthetemperature\textbar\heatingapparatus\textbar\toprovide"が得られる.さらに,各構造部品について従来型の並べ替えを行うことによって,``Thetemperaturemaintainingofcapable\textbar\heatingappratus\textbar\provideto''という文が得られる.これは,目的言語である日本語の文構造および単語順を持った文となっており,図\ref{fig:sent-glob-conv}に示すように,統計的機械翻訳を用いて容易に翻訳することができるようになる.\begin{figure}[t]\begin{center}\includegraphics{24-3ia0f2.eps}\end{center}\caption{大域的な並べ替えと従来の並べ替えの両方を適用した後の入力文}\label{fig:sent-glob-conv}\end{figure}本手法は,2つの手順から構成される.手順1では,大域的な並べ替えを必要とする文対を学習データから抽出する.この抽出した文対の原文側文は,構造部品の境界位置を付与して格納されるが,このコーパスを以降,{\bf大域的並べ替えコーパス}と呼ぶ.手順2では,大域的並べ替えコーパスからNグラム等の文の素性を抽出してモデルを学習し,新規入力文に対してこのモデルを用いて構造部品の推定を行う.推定した入力文中の構造部品を大域的に並べ替えることにより,大域的な並べ替えが完了する.本論文では,手順2の実現方法として,ヒューリスティックな方法と機械学習による方法の両者を試した.次節では,手順1と手順2について説明する.\subsection{大域的な並べ替えを必要とする文対の抽出}以下では,統計的機械翻訳用の学習コーパスを対象に大域的な並べ替えが必要な文対を抽出するためのアルゴリズムについて説明する.大域的な並べ替えを必要とする文対とは,単語アラインメントされた文対において,文を2つもしくは3つの構造部品に区切ったときに,これら構造部品が原文と訳文の間で,フレーズ単位(phrase-based)でswapの位置関係\cite{Galley:2008:SEH:1613715.1613824}にある文対,と定義する.なお,3つの構造部品に区切った場合には,隣接する2つの構造部品同士がそれぞれswapの関係にある場合に条件が適用される.例えば図\ref{fig:ex-segs}は,3つの構造部品から構成される英日対訳文の例であり,隣接する2つの構造部品の組み合わせがすべて原文側と訳文側でswapの関係に配置されているため,大域的な並べ替えの対象となる.\begin{figure}[b]\begin{center}\includegraphics{24-3ia0f3.eps}\end{center}\caption{英日対訳文において,構造部品$\phi_1$,$\phi_2$,$\phi_3$がswapの位置関係に配置された例}\label{fig:ex-segs}\end{figure}なお提案手法は,理論上は4つ以上の構造部品に区切っても適用できるが,人手による分析から,2つもしくは3つの構造部品に区切ったときに境界位置に特徴的なNグラムが現れやすいことから,2つもしくは3つとしている.さらに,区切る数が多くなると,構文的な単位と差がなくなって効果が出にくくなることもあげられる.大域的な並べ替えを必要とする文対を対訳コーパスから抽出するための手順を以下に順を追って述べる.\begin{enumerate}\item原文・訳文それぞれについて,すべての隣接する2単語間位置が構造部品の境界になり得るとみなし,すべての原文境界位置に対するすべての訳文境界候補を作成する.ここで,文長$F$の原文$f$では単語間位置の個数は$F-1$であり,文長$E$の訳文$e$では単語間位置の数が$E-1$あることから,$(F-1)\times(E-1)$個の単語間位置の組み合せを候補として作成する.\item上記各々の組み合わせ候補の中から,境界で区切ることで得られた構造部品が原文と訳文の間でswapの位置関係にある候補を抽出する.ここで,原文中の$k$番目の構造部品が$\phi_k$であり,$K$個の構造部品から構成される文が$(\phi_1,\phi_2\cdots\phi_K)$であり,原文中の$k$番目の構造部品が訳文中の$\alpha_k$番目の構造部品と対応するときに,$\alpha_k=\alpha_{k+1}+1$が成り立つ構造部品の組み合わせがswapの関係にある構造部品であるが,このようなswapの位置関係にある構造部品から構成される文対をすべて抽出する.なお,上述の「大域的な並べ替えを必要とする文対」の定義で述べたとおり,本実験では$K$は2もしくは3である.\item前記の手順で候補を選択した結果,複数個の候補が残った場合には,原文言語が主辞先行型か主辞終端型かによって,候補を一つに絞り込む.我々の分析から,主辞先行型言語では,もっとも重要な構造部品が文頭の近くに表れる傾向があるのに対して,主辞終端型では文末の近くに表れる,という特徴を用いる.実験では,主辞先行型言語の場合には,文頭に近い構造部品が最短である候補を選択し,主辞終端型言語の場合には,文末に近い構造部品が最短である候補を選択する.図\ref{fig:select-segs}は,3つの構造部品から構成される英語文で,複数(2つ)の候補が存在する場合の例を示す.ここで英語は主辞先行型言語のため,文頭に近い構造部品である$\phi_1$と$\phi_2$の長さ(単語数)の合計が短い方を選択する.候補1の$\phi_1$と$\phi_2$の単語数の合計は$2+5=7$であり,候補2の$\phi_1$と$\phi_2$の単語数の合計は$2+2=4$であるため,この合計値がより短い候補2を選択する.\end{enumerate}\begin{figure}[t]\begin{center}\includegraphics{24-3ia0f4.eps}\end{center}\caption{入力言語の主辞位置による候補の選択の例}\label{fig:select-segs}\end{figure}\subsection{大域的な並べ替えの学習と推定}\label{sec:train-glob}前項で抽出した大域的並べ替えコーパスを用いて大域的並べ替えモデルを学習し,翻訳実行時には,大域的並べ替えモデルを用いて入力文を大域的に並べ替えるためのアルゴリズムを以下に説明する.大域的並べ替えコーパスの各例文から単語Nグラムを抽出し,これを用いて大域的並べ替えモデルを学習させる.大域的な並べ替えの学習と推定を実現する手段として,以下に,ヒューリスティックに基づく手法と機械学習に基づく手法について説明する.\subsubsection{ヒューリスティックに基づく手法}ヒューリスティックに基づく手法では,大域的な並べ替えの学習と推定において,Nグラム照合の手順や推定候補の推定など各々の手順をヒューリスティックに基づいて決める.\begin{description}\item[Nグラム抽出]構造部品$\phi_k$と$\phi_{k+1}$の境界の左右両方からNグラムを抽出する.ヒューリスティックに基づく方法では,構造部品の境界の左右で異なるNグラムのNを持つことができるようにしている.ここで,$B$が$\phi_{k+1}$中の1番目の単語位置,$f$が原言語文,$f_B$が原言語文における位置$B$の単語,$n_L$が左側から抽出するNグラムのNだとすると,$f_B$の左側から抽出するNグラムは式(\ref{eq:ngram-left})の通りとなる.\begin{equation}(f_{B-n_L},f_{B-n_L+1}\cdotsf_{B-1})\label{eq:ngram-left}\end{equation}同様にして,境界の右側から抽出するNグラムのNを$n_R$とすると,$f_B$の右側から抽出するNグラムは式(\ref{eq:ngram-right})の通りとなる.\begin{equation}(f_B\cdotsf_{B+n_R-2},f_{B+n_R-1})\label{eq:ngram-right}\end{equation}\item[デコード]前項で抽出したNグラムを用いた,新規入力文に対する大域的並べ替えの推定方法について以下に説明する.大域的な並べ替えの推定は,入力文に対するNグラム照合によって行う.ここでは,(a)候補に対するNグラム合致長が長いほど,およびまたは,(b)候補のNグラム頻度が高いほどその候補の信頼性が高い,という仮説に基づいて計算する.具体的には,$len$が候補に対するNグラム合致長であり,$freq$が候補のNグラム頻度だとしたとき,仮説に基づき信頼性を式(\ref{eq:heuristic-score})で計算する.\begin{equation}{\log(freq)}\timeslen\label{eq:heuristic-score}\end{equation}\end{description}以下では,具体例を用いて,2つの構造部品を含む大域的な並べ替えと,3つの構造部品を含む大域的な並べ替えによるデコードについてそれぞれ説明する.なお照合の結果,2つの構造部品を持つ並べ替えと3つの構造部品を持つ並べ替えの両方に合致した場合は,照合箇所が多いほうがより信頼度が高いという仮説から,3つの構造部品を持つ並べ替えのほうを採用する.表\ref{tab:matching-2segs}は,2つの構造部品を含む場合,つまり$K=2$の場合の大域的な並べ替えの例である.構造部品が2つの場合,隣接する構造部品の間の境界の数は1つである.M2:1からM2:4の候補は,入力文``Topreventimperfectcoatingandpainting.''が入力されたときに合致したNグラムであり,``\textbar''は境界位置を表す.ここで,構造部品境界に関わる合致長は,境界左側のNグラムである$n_L$と右側Nグラムである$n_R$を足し合わせた$len$である.例えば候補M2:3では,$len=n_L+n_R=2+1=3$であり,この候補の出現頻度である$freq$の値は表\ref{tab:matching-2segs}から120として与えられている.入力文について,全候補の評価値を式(\ref{eq:heuristic-score})に基づいて計算し,すべての候補の評価値が計算できたところで評価値順に候補をソートして最高点を得た候補を出力する.\begin{table}[b]\caption{2つの構造部品から構成される入力文に対する照合の例}\label{tab:matching-2segs}\input{11table01.txt}\end{table}表\ref{tab:matching-3segs}は,3つの構造部品を含む場合,つまり$K=3$の場合の大域的な並べ替えの例である.構造部品が3つの場合,隣接する構造部品の間の境界の数は2つである.M3:1からM3:5の候補は,入力文``Toprovideahouseholdheatingdevicecapableofmaintainingtheroomtemperature.''が入力されたときに合致したNグラムであり,``\textbar''は境界位置を表す.ここで,合致長$len$は,1番目の境界の左右のNグラムと,2番目の境界の左右のNグラムを足したものである.例えば候補M3:3では,$len=2+1+1+1=5$となる.そしてこの候補の出現頻度は112として与えられている.2つの構成部品を含む場合と同様に,入力文について,全候補の評価値を式(\ref{eq:heuristic-score})に基づいて計算し,すべての候補の評価値が計算できたところで評価値順に候補をソートして最高点を得た候補を出力する.\begin{table}[t]\caption{3つの構造部品から構成される入力文に対する照合の例}\label{tab:matching-3segs}\input{11table02.txt}\end{table}\subsubsection{機械学習に基づく手法}\label{sec:svm-method}ヒューリスティックに基づく手法では直観に基づいて計算方法などを決める場面が発生するため,他ドメインへの適応において画一的な方法でチューニングすることが困難である.このことから,機械学習を導入することによって画一的な最適化を可能にする.ここでは,境界推定を2値分類問題として位置づけ,機械学習器としてサポートベクターマシン(SVM)を導入する.入力文の各単語について,その次の単語との間の位置が構造部品境界であるか否かの2値判定ができるように,当該単語の周辺の素性を与えてSVMモデルを学習させる.実験では,以下の2種類の素性を用いて,学習および判定を行った.\begin{description}\item[Nグラム]SVMに与える素性として,学習・推定対象の単語の左右のNグラムを用いる.ヒューリスティックに基づく手法とは異なり,単純化のために,単語の左側と右側で同じNのNグラムを用いる.学習・推定に利用するNグラムは式\ref{eq:ngram-svm}の通りとなる.\begin{equation}(f_{i-n+1},f_{i-n+2}\cdotsf_i\cdotsf_{i+n-1},f_{i+n})\label{eq:ngram-svm}\end{equation}\item[文中の単語出現位置]学習・推定対象の各単語について,文中におけるその単語の出現位置を素性として与える.この素性は,Nグラム素性が同一の単語が複数個存在する場合に,適切な境界位置を学習・推定するために導入した.素性の与え方としては,当該単語の文頭からの位置を文長で割った数値を用いている.$i$が学習・推定対象の単語の文頭からの位置であり,$F$が文長であるとして,文中単語出現位置の素性は式(\ref{eq:feat-pos})に示すとおりに計算する.\begin{equation}\frac{i}{F}\label{eq:feat-pos}\end{equation}\end{description}新規入力文に対する推定の段階では,各単語位置について素性を抽出して学習されたSVMモデルに渡して,境界か否かの推定を繰り返す.全単語に対してこの処理を繰り返すことによって,入力文$f$の各単語位置$i$に境界であるか否かのマークが付与された状態になる.なお本手法では,学習時において構造部品の個数についての制約をかけないため,新規入力文に対する推定においても,不特定数の構造部品が得られることがある.学習データ中には構造部品が2つと3つの文しか入っていないため,出力において4つ以上の構造部品が出力された場合には選択を行って3つになるようにする.選択は,入力言語の主辞方向性を基に行う.具体的には,英語のような主辞先行型言語ではもっとも文頭に近い構造部品区切り2つを採用し,日本語のような主辞終端型言語ではもっとも文末に近い構造部品区切り2つを採用する.
\section{評価実験}
大域的並べ替え手法の導入による効果を評価するための実験をついて以下に述べる.最初に,大域的並べ替え手法をベースラインや他の並べ替え手法と比較するための設定について説明する.そして,大域的並べ替え実験のための準備について説明し,次に翻訳実験における各種設定について説明する.\subsection{比較対象の設定}大域的並べ替え手法の効果を評価するために,以下の4つの評価対象構成を設定し,それぞれに対して評価を行った.\begin{itemize}\item[\textbf{T1}]並べ替えを行わない,ベースラインの統計的機械翻訳.\item[\textbf{T2}]T1に加えて,大域的並べ替え手法のみを適用した場合.入力文は構造部品に分解され,大域的な並べ替えが行われる.各構造部品はベースライン統計的機械翻訳によって目的言語に翻訳され,結合されて出力文が作成される.\item[\textbf{T3}]T1に加えて,従来型の構文に基づく並べ替えを行った場合.入力文の単語は,そのまま構文に基づく従来型の並べ替えによって並べ替えられ,単語が並べ替えられた文が統計的機械翻訳で目的言語に翻訳される.\item[\textbf{T4}]T1に加えて,大域的並べ替え手法と,従来型の構文に基づく並べ替えの双方が適用された場合.入力文は構造部品に分解され,構造部品は目的言語の並びになるように並べ替えられる.そして,各構造部品に対して構文に基づく並べ替えが実行され,最後にこれらの翻訳された構造部品を結合することによって出力文を作成する.なお,これまで述べてきたように,大域的並べ替え手法は,構文による並べ替えと併用することによって精度向上につながることを想定している.\end{itemize}\subsection{大域的な並べ替えの構築}\ref{sec:train-glob}節で述べたように本実験では,大域的な並べ替えの学習において,ヒューリスティックに基づく手法と機械学習に基づく手法の両者を用いている.ヒューリスティックに基づく手法では,出力を見ながら直観に基づいて計算式等を決めており,大域的な並べ替え単体についての,各パラメータを変化させての定量的な測定は行っていない.これに対して機械学習に基づく手法では,構成を変化させながら機械学習器の推定機能を使って定量評価を行い,実験に先立って最適な構成を決めている.以下では,機械学習に基づく手法における最適化について述べる.\ref{sec:svm-method}節で説明したように,機械学習に基づく手法では,Nグラムと,文中単語出現位置の両者を素性として用いる.このうちNグラムについては,学習条件を変化させることで推定精度が変化するため,実験に先立って最適な推定精度が得られる学習条件を見つけるための予備実験を行った.具体的には,Nグラム抽出対象の文数と,NグラムのNを変化させて,推定精度の変化を測定した.機械学習の学習器としては,学習・推定ともに,liblinear1.94\cite{DBLP:journals/jmlr/FanCHWL08}を用いた.liblinearの実行に先立って,ツールキットに同梱されたsvm-scaleによるスケール調整,およびgrid.pyによるグリッド探索によるパラメータ調整を試みたがデフォルトと比較して改善が得られなかったため,デフォルト設定のまま学習を行った.\begin{figure}[b]\begin{center}\includegraphics{24-3ia0f5.eps}\end{center}\hangcaption{SVMモデルを用いた日本語入力文における構造部品境界の推定精度について,NグラムのNと大域的並べ替えコーパスの文数を変化させることによる変化.右側の凡例は,大域的並べ替えコーパスの文数を表す.}\label{fig:svm-ja}\end{figure}図\ref{fig:svm-ja}は,大域的並べ替えコーパスの文数とNグラムのNを変化させたときの,日本語入力文に対する推定精度の変化であり,図\ref{fig:svm-en}は英語入力文に対して同様の測定を行った結果である.ここで精度とは,10分割による交差確認による,入力文における構造部品境界の推定精度である.なお図中,大域的並べ替えコーパスの文数が10万文(「100~k」)のときにNを増やすに連れて逆に精度が下がるという現象がみられるが,これは過学習によることが考えられる.\begin{figure}[t]\begin{center}\includegraphics{24-3ia0f6.eps}\end{center}\hangcaption{SVMモデルを用いた英語入力文における構造部品境界の推定精度について,NグラムのNと大域的並べ替えコーパスの文数を変化させることによる変化.右側の凡例は,大域的並べ替えコーパスの文数を表す.}\label{fig:svm-en}\end{figure}この測定から,推定精度が最大となる学習条件を選択した.具体的には,日本語入力と英語入力の双方において,NグラムのNとして5を選択し,大域的並べ替えコーパスの文数としては100~k,つまり100,000文を選択した.\subsection{翻訳評価実験の設定}\label{sec:exper-conf}\begin{description}\item[データ]翻訳評価実験の評価データとしては,日本特許抄録の英語訳である,公開特許公報英文抄録(PatentAbstractsofJapan,以下PAJ)\footnote{特許庁公開特許公報英文抄録(PatentAbstractsofJapan)\\https://www.jpo.go.jp/shiryou/toushin/kenkyukai/pdf/riyousuisin\_siryou.pdf}を用いた.PAJおよびPAJの元となった日本語抄録文の間で自動対応付けを行い,日英対訳文の自動抽出を行った\cite{Utiyama:2007}.自動対応付けした対訳文から,1,000,000文を学習データ,1,000文を開発データ,1,000文を評価データとして無作為抽出した.評価データ1,000文のうち,Nグラムとの合致があった300文を対象として評価実験を行った.なお,この翻訳実験用の学習データは,前述のように,大域的並べ替え手法の学習データとしても用いた.\\翻訳評価実験では,学習の一環として,1,000,000文の学習データに対する単語対応付けを行った.現時点では,大域的な並べ替えの必要な文対を判定するためのソフトウェアプログラムの速度性能に問題があるため,翻訳用にアラインメントされた1,000,000の対訳文のうち,100,000文対を対象に大域的な並べ替えの必要な文対を抽出した.抽出の結果,38.194文対が得られ,この対訳文の原文を大域的並べ替えコーパスに格納して後段の実験に用いた.ヒューリスティックに基づく手法では,上記で作成した大域的並べ替えコーパスから2〜5グラムを抽出したところ,381,311個が得られた.\item[ベースライン統計的機械翻訳]翻訳評価実験のベースラインとしては,統計的機械翻訳のツールキットであるMosesphrase-basedSMT\cite{Koehn:2007:MOS:1557769.1557821}を用い,歪み範囲としては,システムのデフォルト値である6を使用した.単語クラスの学習にはmkcls\footnote{mkcls:trainingofwordclasses\https://www-i6.informatik.rwth-aachen.de/web/Software/mkcls.html}\cite{och1999efficient}を用い,単語クラス数としてはデフォルトの50個を用いた.言語モデルの学習には,KenLM\cite{heafield2013scalable}を用い,単語アラインメントにはSyMGIZA++\cite{DBLP:conf/imcsit/Junczys-DowmuntS10}を使用した.モデルの重みづけでは,BLEU値\cite{Papineni:2002:BMA:1073083.1073135}を指標としてn-bestbatchMIRA\cite{Cherry:2012:BTS:2382029.2382089}によるチューニングを行った.各評価実験において,重み付けチューニングを3回繰り返し,開発セットにおいて最大のBLEU値を獲得した重み設定を採用した.ベースラインの変形として,フレーズベース統計的機械翻訳における歪み範囲として20をした場合と,階層的フレーズベースの実装であるMoseshierarchicalphrase-baseSMT\cite{Chiang:2005:HPM:1219840.1219873}を使用した場合についても併せて評価を行った.また,Tree-to-String方式の統計的機械翻訳であるTravatar\footnote{Travatar\http://www.phontron.com/travatar/}\cite{neubig13travatar}についても評価を行った.Travatarの学習では,入力言語文の解析においてTravatar推奨の構文解析器であるCkylark\footnote{Ckylark\http://odaemon.com/?page=tools\_ckylark}\cite{oda-EtAl:2015:demos}を用いた.\item[従来型の構文解析に基づく並べ替え]本評価実験では,構文解析器としてBerkeleyParser\cite{Petrov:2006:LAC:1220175.1220230}を用いて,提案手法によって分割された各構造部品に対して事前並べ替えを行った.この基本的な構成は,日英・英日方向いずれも同じである.BerkeleyParserのドメイン適用では自己学習の手法を用いた.具体的には最初に,初期モデルを用いて200,000文の特許文の解析を行い,次に,得られた自動解析結果から構文解析モデルを学習することにより,特許文に適応した解析モデルを構築した.英語の初期モデルについては,PennTreebank\footnote{ThePennTreebankProject\https://www.cis.upenn.edu/{\textasciitilde}treebank/}の文,および我々が人手で木構造を記述した3,000文の特許文を用いて学習した.日本語の初期モデルについては,EDRTreebank\footnote{国立研究開発法人情報通信研究機構,EDRコーパス\\https://www2.nict.go.jp/out-promotion/techtransfer/EDR/index.html}の200,000文を用いて学習させた.日本語の初期モデル学習では特許文は用いていない.\\並べ替えモデルの学習では,内製の大規模な特許文対訳コーパスを用いて次の手順によって事前並べ替えモデルを学習させた(\cite{Goto:2015:PUT:2791399.2699925}の4.5節).\begin{enumerate}\item対訳コーパスの原言語文を構文解析する\item対訳コーパスに対して単語アラインメントを行う\item原言語文と目的言語文の間でケンドールの順位相関係数$\tau$が最大化されるような原言語文に対する並べ替えを行う.このようにして各2分ノードは,子ノードの入れ替えを行うことを表すSWAPと,入れ替えを行わないことを表すSTRAIGHTに分類される.\item上記のデータを用いて,各ノードのSWAP,STRAIGHTを判定するためのニューラルネットワーク分類器を学習する.\end{enumerate}なお,従来型の並べ替えの変形として,top-downbracketingtransducergrammar(TDBTG)ベースの並べ替え\footnote{topdown-btg-reordering\https://github.com/google/topdown-btg-preordering}\cite{nakagawa:2015:ACL-IJCNLP}の結果を併記した.TDBTGベースの並べ替えでは,ベースラインの統計的機械翻訳の学習の過程で得られたmkclsの出力およびSyMGIZA++の出力を用いて並べ替えの学習を行った.\item[大域的並べ替えモジュール]大域的並べ替えモジュールは,入力文に対する構造部品の推定と,推定した構造部品の大域的な並べ替えから構成される.大域的な並べ替えの学習および推定ではヒューリスティックに基づく手法と機械学習に基づく手法の両方の手法を用いて実験を行ったが,双方に対しての評価を行った.\item[評価尺度]各システムは,BLEU\cite{Papineni:2002:BMA:1073083.1073135}とRIBES\cite{Isozaki:2010:AET:1870658.1870750}の2種類の評価指標を用いて評価した.これは,Nグラムベースの評価手法であるBLEUのみでは長距離の関係を十分に評価することができず,本研究が目標としている構造レベルの改善を十分に測定できないと考えたからである.RIBESは順位相関係数に基づく自動評価手法であり,評価対象の機械翻訳出力文中の語順と,参照訳中の語順の比較を行う.RIBESのこのような特性によって,語順の大きく異なる言語間で頻繁に発生する,構造部品の入れ替えを評価できると考えられる.なお,RIBESは,NTCIR-10ワークショップの特許翻訳タスク(PatentMT)\cite{DBLP:conf/ntcir/GotoCLST13}や2ndWorkshoponAsianTranslation(WAT)\cite{Nakazawa:2015,isozaki-kouchi:2015:WMT}等においても,英日・日英の翻訳方向において,人間評価との高い相関性が報告されている.\\なお,実験で得られた各BLEU値とRIBES値は,MTEvalToolkit\footnote{MTEvalToolkit\https://github.com/odashi/mteval}を用いた反復数1,000回の100分割ブートストラップ法による両側検定を行って,各設定での最高値との有意差を調べた.\end{description}
\section{実験結果}
\begin{table}[b]\caption{日英翻訳の翻訳評価結果}\label{tab:trans-je}\input{11table03.txt}\end{table}\begin{table}[b]\caption{英日翻訳の評価結果}\label{tab:trans-ej}\input{11table04.txt}\end{table}表\ref{tab:trans-je}は日英翻訳,表\ref{tab:trans-ej}は英日翻訳の実験結果であり,ともに4つの比較対象におけるBLEU値およびRIBES値を掲載している.カッコ内の数字は,ベースライン翻訳システム(歪み範囲6の場合)を基準としたときの向上の差分を表している.太字で表した数値は,各列における最高値に対してブートストラップ法に基づく片側有意差検定を行い,5\%水準で有意差が認められない,つまり最高値と同等とみなされる値を示す\protect\cite{DBLP:conf/emnlp/Koehn04}.実験結果から,日英翻訳・英日翻訳ともに,大域的な並べ替えと構文解析に基づく並べ替えを併用したときに,ベースラインと比較してRIBES値が20ポイント以上と大幅に向上していることがわかる.BLEU値は,構文解析に基づく並べ替えのみの構成であるT3と比較しても有意な差が出ていないが,これは,BLEU値が大域的な変換を捉えにくいということに起因している可能性もある.このようにして,RIBES値とBLEU値で異なった傾向が得られたため,次節の考察では,さらに訳文中の文構造の正しさ,および人手評価を行った.
\section{考察}
本手法の目的は適切な文構造を持った訳文を出力するための大域的な並べ替えを行うことであるが,本手法の適用によって,どのくらいの訳文が文構造的に正しく出力されているかの評価を行った.これまでにも述べてきているとおり,サブ言語の翻訳では,まずは文構造を正しく出力できなければそもそも全体の訳文を適切に出力することができないことから,本評価は重要であると考えている.評価文としては,\ref{sec:exper-conf}節の「データ」項において,無作為抽出して作成した翻訳評価用文1,000文のうちNグラムに合致した300文について述べているが,本評価ではこの300文の先頭100文を用いている.本評価では,評価対象訳文が以下の条件を満たしている場合に,文構造が正しく翻訳されているとみなした.なお,各構造部品の内部の訳は評価していない.\begin{itemize}\item出力文において,入力文中のすべての構造部品が過不足なく訳出されていること.\item出力文において,入力文中のすべての構造部品が適切な順番で訳出されていること.\item入力文中で一続きで現れる構造部品が,出力文中でも一続きの構造部品として訳出されていること.\end{itemize}表\ref{tab:struct-je}は,100文の日英翻訳中で文構造が正しく出力された文の文数を表す.表\ref{tab:struct-ej}は,100文の英日翻訳中で文構造が正しく出力された文の文数を表す.太字で表した数値は,各列における最高値に対して比率検定に基づく片側有意差検定を行い,5\%水準で有意差が認められない,つまり最高値と同等とみなされる値を示す.いずれの表においても,大域的な並べ替えと構文的並べ替えを併用したT4は,T1およびT2と比較して文構造の正解率が有意に改善していることがわかる.さらにいずれの表でも,T2とT4を比較するとT4のほうが有意に改善している.これは,T2で構造部品の並べ替えのみを行うと構造部品の境界での単語並びが不自然になり結果として訳文中の構造部品境界が不適切になる場合があったのが,T4でさらに構文的並べ替えを行うことでこの問題が解消する場合があることに起因すると考えられる.日英翻訳では,従来の並べ替えであるT3のみと比較してT4の正解率が有意に改善していることがわかる.これに対して英日翻訳では,従来の構文解析に基づく並べ替えの精度がすでに高いため,T3からT4への精度向上はそれほど顕著ではない.なお,表\ref{tab:trans-je}および表\ref{tab:trans-ej}においてHPBのBLEU値がベースラインと比べて大きく上がっていたが,表\ref{tab:struct-je}および表\ref{tab:struct-ej}ではそれほど大きな改善とはなっていない.このことから,HPBによる改善は比較的局所的なために,BLEU値には反映されやすいが,文構造の変換にはそれほど寄与していないと考えられる.\begin{table}[t]\caption{日英翻訳における文構造が正しく出力された文数(100文中)}\label{tab:struct-je}\input{11table05.txt}\end{table}\begin{table}[t]\caption{英日翻訳における文構造が正しく出力された文数(100文中)}\label{tab:struct-ej}\input{11table06.txt}\end{table}\begin{table}[b]\caption{日英翻訳に対する人手評価(100文中)}\label{tab:human-je}\input{11table07.txt}\end{table}\begin{table}[b]\caption{英日翻訳に対する人手評価(100文中)}\label{tab:human-ej}\input{11table08.txt}\vspace{-1\Cvs}\end{table}次に,各翻訳結果に対する人手評価を行った.評価文としては,上述の文構造評価で用いた100文を用いた.これは,表\ref{tab:trans-je}および表\ref{tab:trans-ej}において,RIBES値による傾向とBLEU値による傾向に異なりが見られるため,より人手に近い評価結果を見極めるためである.特に,BLEU値で比較すると,例えば表\ref{tab:trans-je}では,T4の値はT1およびT3と比較して有意差が見られないという結果になるが,RIBES値で比較すると,有意差があるという結果になる.人手評価には手間がかかるため,T1およびT2ではそれぞれ,表\ref{tab:trans-je}および表\ref{tab:trans-ej}においてもっと高い値となった設定について評価を行った.T3とT4については,設定によって大きな異なりが見られなかったため,すべての設定について評価を行った.評価は,対象文書である特許文書の技術内容に精通した1名の評価者が行った.評価文はシャッフルし,評価者にはT1,T2,T3,T4のいずれの文であるかがわからないようにして評価作業を行った.評価尺度は,S(Nativelevel),A(Good),B(Fair),C(Acceptable),D(Nonsense)の5段階として,評価者が直観的に付与した.従来の人手評価では正確さと流暢さの2つに分けて評価する場合も多い\cite{denkowski2010choosing}が,正確さと流暢さは相関性が高く実際の場面では分離困難なことも多い\cite{callison2007meta}ため上記の1つの指標を用いた.表\ref{tab:human-je}に日英翻訳の人手評価結果を,表\ref{tab:human-ej}に英日翻訳の人手評価結果を示す.\pagebreak太字で表した数値は,各列における最高値に対して比率検定に基づく片側有意差検定を行い,5\%水準で有意差が認められない,つまり最高値と同等とみなされる値を示す.結果として,表\ref{tab:human-je}の日英翻訳では,T4はT1,T2,T3のいずれと比べても有意に評価値が向上しており,このことから,表\ref{tab:trans-je}のRIBES値とBLEU値では,RIBESのほうが人手評価に傾向が似ていると考えられる.表\ref{tab:human-ej}の英日翻訳では,T4はT1,T2,と比べて有意に評価値が向上しており,T3との比較では,用いた並べ替え手法によって比較結果が異なっている.英日翻訳でも,RIBESのほうが人手評価に傾向が似ていると考えられる.\begin{table}[b]\caption{日英翻訳における典型的な翻訳例}\label{tab:typical-trans}\input{11table09.txt}\end{table}表\ref{tab:typical-trans}は,参照訳,および4つの比較構成であるT1,T2,T3,T4のそれぞれについて,典型的な翻訳結果を載せたものである.\begin{itemize}\item[\textbf{T1}]ベースラインであるT1では,参照訳と比較すると,原文の構造部品Cに相当する部分が訳文から欠落しており,また構造部品Aと構造部品Bが適切な順番で出力されていない.さらに,T1の訳文では,構造部品内での単語も適切な順番で訳出されていない.\item[\textbf{T2}]ベースラインに対して大域的な並べ替えのみを行ったT2では,すべての構造部品が訳文中に出力されているとともに,これら構造部品が目標言語として適切な順番で出力されている.しかしながら,各構造部品内の単語は適切でないため,構造部品単位での訳質はベースラインと比べて向上していない.\item[\textbf{T3}]ベースラインに対して従来型の構文解析ベース並べ替えのみを行ったT3では,各構造部品内での単語の並びが目的言語としてより適切になっている.しかしながら,構造部品は適切な順番で出力されていない.\item[\textbf{T4}]ベースラインに対して大域的な並べ替えと従来型の構文解析に基づく並べ替えの両者を用いたT4では,構造部品が目的言語として適切な順番で並べられ,かつ各構造部品内の単語もより目的言語にふさわしい順番で出力されて翻訳品質が向上している.\end{itemize}\begin{table}[b]\vspace{-0.5\Cvs}\caption{日英翻訳の翻訳失敗例とその中間結果}\label{tab:error-trans}\input{11table10.txt}\end{table}なお人手評価では,T4であっても評価C以上の評価となる文が日英で65\%,英日で55\%とそれほど高くないため,翻訳失敗文の目視分析を行った.まず,最初の段階の構造部品の認識が誤った場合は,そこから適切な訳文を生成することは困難となり,人手評価はほぼDとなる.次に,構造部品の認識および大域的な並べ替えが正しくても,訳文として不適切となり人手評価が低くなる場合がある.このような翻訳失敗の典型例およびその中間処理結果を表\ref{tab:error-trans}に示す.ここでは,大域的な並べ替えまでは適切に処理されているが,各構造部品に対する構造解析に基づく並べ替えにおいて,3つめの構造部品に対する並べ替えが適切に行われていない.具体的には,「うる」のトークンが構文解析に基づく並べ替えによって構造部品の先頭にくるべきところが,先頭から5番目のトークンとして誤って並び替えられ,代わりに「中心部」が構造部品の先頭にきている.これによってSMT適用後の訳文において,「光学投影装置」に対応する``anopticalprojectiondevice''の後に,本来くるべき``whichcan...''ではなく,「中心部」に対応する``centerpart''が来てしまい,読み手には``anopticalprojectiondevicecenterpart''のような一続きの文字列として認識されてしまう.結果として,読み手は訳文において構造部品,ひいては文の構造を認識することができず,低い評価結果となってしまう.原因としては,現在の実験構成では,構文解析に基づく並べ替えを,文単位での入力を前提として訓練しているが,実験には構造部品を対象に並べ替えていることが考えられる.
\section{おわりに}
本論文では,大域的な並べ替えを行うことによって従来型の構文解析に基づく並べ替えを補い,対象サブ言語の翻訳精度を向上させるための手法を提案した.提案手法は,大域的な並べ替えモデルを,構文解析を行うことなく,平文対訳テキストから抽出する.本手法を対象とした評価実験を行ったところ,日英・英日双方向の翻訳において,大域的な並べ替えと従来型の構文解析に基づく並べ替えを併用することによって,従来の手法による翻訳精度を向上させられることが確認できた.特に日英翻訳では,RIBESによる自動評価,文構造評価,人手評価のいずれにおいても,提案手法が従来の手法より有意に訳質を向上させることがわかった.\acknowledgment本論文の内容の一部は,The3rdWorkshoponAsianTranslation(WAT2016)\cite{Fuji2016GlobalPF}で発表したものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ambati\BBA\Chen}{Ambati\BBA\Chen}{2007}]{ambati:2007cross}Ambati,V.\BBACOMMA\\BBA\Chen,W.\BBOP2007\BBCP.\newblock{\BemCrossLingualSyntaxProjectionforResource-PoorLanguages}.\newblockCMU.\bibitem[\protect\BCAY{Buchmann,Warwick-Armstrong,\BBA\Shane}{Buchmannet~al.}{1984}]{DBLP:conf/coling/BuchmannWS84}Buchmann,B.,Warwick-Armstrong,S.,\BBA\Shane,P.\BBOP1984\BBCP.\newblock\BBOQDesignofAMachineTranslationSystemforaSublanguage.\BBCQ\\newblockIn{\Bem10thInternationalConferenceonComputationalLinguisticsand22ndAnnualMeetingoftheAssociationforComputationalLinguistics,ProceedingsofCOLING'84,July2--6,1984,StanfordUniversity,California,USA},\mbox{\BPGS\334--337}.\bibitem[\protect\BCAY{Callison-Burch,Fordyce,Koehn,Monz,\BBA\Schroeder}{Callison-Burchet~al.}{2007}]{callison2007meta}Callison-Burch,C.,Fordyce,C.,Koehn,P.,Monz,C.,\BBA\Schroeder,J.\BBOP2007\BBCP.\newblock\BBOQ(Meta-)EvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2ndWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\136--158}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Cherry\BBA\Foster}{Cherry\BBA\Foster}{2012}]{Cherry:2012:BTS:2382029.2382089}Cherry,C.\BBACOMMA\\BBA\Foster,G.\BBOP2012\BBCP.\newblock\BBOQBatchTuningStrategiesforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2012ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},NAACLHLT'12,\mbox{\BPGS\427--436},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Chiang}{Chiang}{2005}]{Chiang:2005:HPM:1219840.1219873}Chiang,D.\BBOP2005\BBCP.\newblock\BBOQAHierarchicalPhrase-basedModelforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingonAssociationforComputationalLinguistics},ACL'05,\mbox{\BPGS\263--270},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{de~Gispert,Iglesias,\BBA\Byrne}{de~Gispertet~al.}{2015}]{nnpreohlt15}de~Gispert,A.,Iglesias,G.,\BBA\Byrne,W.\BBOP2015\BBCP.\newblock\BBOQFastandAccuratePreorderingforSMTusingNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics-HumanLanguageTechnologies(NAACLHLT2015)}.\bibitem[\protect\BCAY{Denkowski\BBA\Lavie}{Denkowski\BBA\Lavie}{2010}]{denkowski2010choosing}Denkowski,M.\BBACOMMA\\BBA\Lavie,A.\BBOP2010\BBCP.\newblock\BBOQChoosingtheRightEvaluationforMachineTranslation:AnExaminationofAnnotatorandAutomaticMetricPerformanceonHumanJudgmentTasks.\BBCQ\\newblockIn{\BemProceedingsofthe9thConferenceoftheAssociationforMachineTranslationintheAmericas}.AMTA.\bibitem[\protect\BCAY{Dyer,Gimpel,Clark,\BBA\Smith}{Dyeret~al.}{2011}]{dyer}Dyer,C.,Gimpel,K.,Clark,J.~H.,\BBA\Smith,N.~A.\BBOP2011\BBCP.\newblock\BBOQTheCMU-ARKGerman-EnglishTranslationSystem-Research.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\337--343}.\bibitem[\protect\BCAY{Fan,Chang,Hsieh,Wang,\BBA\Lin}{Fanet~al.}{2008}]{DBLP:journals/jmlr/FanCHWL08}Fan,R.-E.,Chang,K.-W.,Hsieh,C.-J.,Wang,X.-R.,\BBA\Lin,C.-J.\BBOP2008\BBCP.\newblock\BBOQLIBLINEAR:ALibraryforLargeLinearClassification.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf9},\mbox{\BPGS\1871--1874}.\bibitem[\protect\BCAY{富士\JBA藤田\JBA内山\JBA隅田\JBA松本}{富士\Jetal}{2016}]{Fuji2016claim}富士秀\JBA藤田篤\JBA内山将夫\JBA隅田英一郎\JBA松本裕治\BBOP2016\BBCP.\newblock特許請求項に特有の文構造に基づく英中日特許請求項翻訳.\\newblock\Jem{自然言語処理},{\Bbf23}(5),\mbox{\BPGS\407--435}.\bibitem[\protect\BCAY{Fuji,Fujita,Utiyama,Sumita,\BBA\Matsumoto}{Fujiet~al.}{2015}]{Fuji:2015}Fuji,M.,Fujita,A.,Utiyama,M.,Sumita,E.,\BBA\Matsumoto,Y.\BBOP2015\BBCP.\newblock\BBOQPatentClaimTranslationbasedonSublanguage-specificSentenceStructure.\BBCQ\\newblockIn{\BemProceedingsofthe15thMachineTranslationSummit},\mbox{\BPGS\1--16}.\bibitem[\protect\BCAY{Fuji,Utiyama,\BBA\Sumita}{Fujiet~al.}{2016}]{Fuji2016GlobalPF}Fuji,M.,Utiyama,M.,\BBA\Sumita,E.\BBOP2016\BBCP.\newblock\BBOQGlobalPre-orderingforImprovingSublanguageTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe3rdWorkshoponAsianTranslation(WAT2016)},\mbox{\BPGS\84--93}.\bibitem[\protect\BCAY{Galley\BBA\Manning}{Galley\BBA\Manning}{2008}]{Galley:2008:SEH:1613715.1613824}Galley,M.\BBACOMMA\\BBA\Manning,C.~D.\BBOP2008\BBCP.\newblock\BBOQASimpleandEffectiveHierarchicalPhraseReorderingModel.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},EMNLP'08,\mbox{\BPGS\848--856},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Goto,Chow,Lu,Sumita,\BBA\Tsou}{Gotoet~al.}{2013}]{DBLP:conf/ntcir/GotoCLST13}Goto,I.,Chow,K.-P.,Lu,B.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2013\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskattheNTCIR-10Workshop.\BBCQ\\newblockIn{\BemProceedingsofthe10thNTCIRConferenceonEvaluationofInformationAccessTechnologies,NTCIR-10,NationalCenterofSciences,Tokyo,Japan,June18--21,2013},\mbox{\BPGS\260--286}.\bibitem[\protect\BCAY{Goto,Utiyama,Sumita,\BBA\Kurohashi}{Gotoet~al.}{2015}]{Goto:2015:PUT:2791399.2699925}Goto,I.,Utiyama,M.,Sumita,E.,\BBA\Kurohashi,S.\BBOP2015\BBCP.\newblock\BBOQPreorderingUsingaTarget-LanguageParserviaCross-LanguageSyntacticProjectionforStatisticalMachineTranslation.\BBCQ\\newblock{\BemACMTransactiononAsianandLow-ResourceLanguageInformationProcessing},{\Bbf14}(3),\mbox{\BPGS\13:1--13:23}.\bibitem[\protect\BCAY{Heafield,Pouzyrevsky,Clark,\BBA\Koehn}{Heafieldet~al.}{2013}]{heafield2013scalable}Heafield,K.,Pouzyrevsky,I.,Clark,J.~H.,\BBA\Koehn,P.\BBOP2013\BBCP.\newblock\BBOQScalableModifiedKneser-NeyLanguageModelEstimation.\BBCQ\\newblockIn{\BemACL(2)},\mbox{\BPGS\690--696}.\bibitem[\protect\BCAY{Hoshino,Miyao,Sudoh,Hayashi,\BBA\Nagata}{Hoshinoet~al.}{2015}]{hoshino-EtAl:2015:ACL-IJCNLP}Hoshino,S.,Miyao,Y.,Sudoh,K.,Hayashi,K.,\BBA\Nagata,M.\BBOP2015\BBCP.\newblock\BBOQDiscriminativePreorderingMeetsKendall's$\tau$Maximization.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume2:ShortPapers)},\mbox{\BPGS\139--144},Beijing,China.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Isozaki,Hirao,Duh,Sudoh,\BBA\Tsukada}{Isozakiet~al.}{2010}]{Isozaki:2010:AET:1870658.1870750}Isozaki,H.,Hirao,T.,Duh,K.,Sudoh,K.,\BBA\Tsukada,H.\BBOP2010\BBCP.\newblock\BBOQAutomaticEvaluationofTranslationQualityforDistantLanguagePairs.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},EMNLP'10,\mbox{\BPGS\944--952},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Isozaki\BBA\Kouchi}{Isozaki\BBA\Kouchi}{2015}]{isozaki-kouchi:2015:WMT}Isozaki,H.\BBACOMMA\\BBA\Kouchi,N.\BBOP2015\BBCP.\newblock\BBOQDependencyAnalysisofScrambledReferencesforBetterEvaluationofJapaneseTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe10thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\450--456},Lisbon,Portugal.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Isozaki,Sudoh,Tsukada,\BBA\Duh}{Isozakiet~al.}{2010}]{Isozaki:2010:HFS:1868850.1868886}Isozaki,H.,Sudoh,K.,Tsukada,H.,\BBA\Duh,K.\BBOP2010\BBCP.\newblock\BBOQHeadFinalization:ASimpleReorderingRuleforSOVLanguages.\BBCQ\\newblockIn{\BemProceedingsoftheJoint5thWorkshoponStatisticalMachineTranslationandMetricsMATR},WMT'10,\mbox{\BPGS\244--251},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Junczys-Dowmunt\BBA\Szal}{Junczys-Dowmunt\BBA\Szal}{2010}]{DBLP:conf/imcsit/Junczys-DowmuntS10}Junczys-Dowmunt,M.\BBACOMMA\\BBA\Szal,A.\BBOP2010\BBCP.\newblock\BBOQSyMGiza++:AToolforParallelComputationofSymmetrizedWordAlignmentModels.\BBCQ\\newblockIn{\BemInternationalMulticonferenceonComputerScienceandInformationTechnology-IMCSIT2010,Wisla,Poland,18--20October2010,Proceedings},\mbox{\BPGS\397--401}.\bibitem[\protect\BCAY{Koehn}{Koehn}{2004}]{DBLP:conf/emnlp/Koehn04}Koehn,P.\BBOP2004\BBCP.\newblock\BBOQStatisticalSignificanceTestsforMachineTranslationEvaluation.\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing,EMNLP2004,AMeetingofSIGDAT,aSpecialInterestGroupoftheACL,heldinConjunctionwithACL2004,25--26July2004,Barcelona,Spain},\mbox{\BPGS\388--395}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{Koehn:2007:MOS:1557769.1557821}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheACLonInteractivePosterandDemonstrationSessions},ACL'07,\mbox{\BPGS\177--180},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Komachi,Matsumoto,\BBA\Nagata}{Komachiet~al.}{2006}]{komachi2006phrase}Komachi,M.,Matsumoto,Y.,\BBA\Nagata,M.\BBOP2006\BBCP.\newblock\BBOQPhraseReorderingforStatisticalMachineTranslationbasedonPredicate-argumentStructure.\BBCQ\\newblockIn{\BemIWSLT},\mbox{\BPGS\77--82}.Citeseer.\bibitem[\protect\BCAY{Luckhardt}{Luckhardt}{1991}]{DBLP:conf/eacl/Luckhardt91}Luckhardt,H.-D.\BBOP1991\BBCP.\newblock\BBOQSublanguagesInMachineTranslation.\BBCQ\\newblockIn{\BemEACL1991,5thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics,April9--11,1991,CongressHall,Alexanderplatz,Berlin,Germany},\mbox{\BPGS\306--308}.\bibitem[\protect\BCAY{Marcu,Carlson,\BBA\Watanabe}{Marcuet~al.}{2000}]{DBLP:conf/anlp/MarcuCW00}Marcu,D.,Carlson,L.,\BBA\Watanabe,M.\BBOP2000\BBCP.\newblock\BBOQTheAutomaticTranslationofDiscourseStructures.\BBCQ\\newblockIn{\BemANLP},\mbox{\BPGS\9--17}.\bibitem[\protect\BCAY{Mellebeek,Owczarzak,Groves,Genabith,\BBA\Way}{Mellebeeket~al.}{2006}]{Mellebeek06asyntactic}Mellebeek,B.,Owczarzak,K.,Groves,D.,Genabith,J.~V.,\BBA\Way,A.\BBOP2006\BBCP.\newblock\BBOQASyntacticSkeletonforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe11thConferenceoftheEuropeanAssociationforMachineTranslation},\mbox{\BPGS\195--202}.\bibitem[\protect\BCAY{Nakagawa}{Nakagawa}{2015}]{nakagawa:2015:ACL-IJCNLP}Nakagawa,T.\BBOP2015\BBCP.\newblock\BBOQEfficientTop-DownBTGParsingforMachineTranslationPreordering.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\208--218},Beijing,China.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Nakazawa,Mino,Goto,Neubig,Kurohashi,\BBA\Sumita}{Nakazawaet~al.}{2015}]{Nakazawa:2015}Nakazawa,T.,Mino,H.,Goto,I.,Neubig,G.,Kurohashi,S.,\BBA\Sumita,E.\BBOP2015\BBCP.\newblock\BBOQOverviewofthe2ndWorkshoponAsianTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2ndWorkshoponAsianTranslation},\mbox{\BPGS\1--28}.\bibitem[\protect\BCAY{Neubig}{Neubig}{2013}]{neubig13travatar}Neubig,G.\BBOP2013\BBCP.\newblock\BBOQTravatar:AForest-to-StringMachineTranslationEnginebasedonTreeTransducers.\BBCQ\\newblockIn{\BemProceedingsoftheACLDemonstrationTrack},\mbox{\BPGS\91--96},Sofia,Bulgaria.\bibitem[\protect\BCAY{Och}{Och}{1999}]{och1999efficient}Och,F.~J.\BBOP1999\BBCP.\newblock\BBOQAnefficientmethodfordeterminingbilingualwordclasses.\BBCQ\\newblockIn{\BemProceedingsofthe9thConferenceonEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\71--76}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Oda,Neubig,Sakti,Toda,\BBA\Nakamura}{Odaet~al.}{2015}]{oda-EtAl:2015:demos}Oda,Y.,Neubig,G.,Sakti,S.,Toda,T.,\BBA\Nakamura,S.\BBOP2015\BBCP.\newblock\BBOQCkylark:AMoreRobustPCFG-LAParser.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:Demonstrations},\mbox{\BPGS\41--45},Denver,Colorado.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{Papineni:2002:BMA:1073083.1073135}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingonAssociationforComputationalLinguistics},ACL'02,\mbox{\BPGS\311--318},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Petrov,Barrett,Thibaux,\BBA\Klein}{Petrovet~al.}{2006}]{Petrov:2006:LAC:1220175.1220230}Petrov,S.,Barrett,L.,Thibaux,R.,\BBA\Klein,D.\BBOP2006\BBCP.\newblock\BBOQLearningAccurate,Compact,andInterpretableTreeAnnotation.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsandthe44thAnnualMeetingoftheAssociationforComputationalLinguistics},ACL-44,\mbox{\BPGS\433--440},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Utiyama\BBA\Isahara}{Utiyama\BBA\Isahara}{2007}]{Utiyama:2007}Utiyama,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2007\BBCP.\newblock\BBOQAJapanese-EnglishPatentParallelCorpus.\BBCQ\\newblockIn{\BemProceedingsoftheEleventhMachineTranslationSummit},\mbox{\BPGS\475--482}.\bibitem[\protect\BCAY{Xiao,Zhu,\BBA\Zhang}{Xiaoet~al.}{2014}]{DBLP:conf/acl/XiaoZZ14}Xiao,T.,Zhu,J.,\BBA\Zhang,C.\BBOP2014\BBCP.\newblock\BBOQAHybridApproachtoSkeleton-basedTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics,ACL2014,June22--27,2014,Baltimore,MD,USA,Volume2:ShortPapers},\mbox{\BPGS\563--568}.\bibitem[\protect\BCAY{Yamada\BBA\Knight}{Yamada\BBA\Knight}{2001}]{yamada:2001syntax}Yamada,K.\BBACOMMA\\BBA\Knight,K.\BBOP2001\BBCP.\newblock\BBOQASyntax-basedStatisticalTranslationModel.\BBCQ\\newblockIn{\BemProceedingsofthe39thAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\523--530}.AssociationforComputationalLinguistics.\end{thebibliography}\begin{biography}\bioauthor{富士秀}{1987年英国王立ロンドン大学キングス校工学部卒業.1988年より株式会社富士通研究所研究員,シニアリサーチャー.2014〜2017年国立研究開発法人情報通信研究機構に出向.2017年奈良先端科学技術大学院大学博士後期課程終了.博士(工学).2017年より富士通研究所主任研究員.機械翻訳の研究に従事.情報処理学会,言語処理学会,AAMT,日本言語類型論学会等各会員.}\bioauthor{内山将夫}{1992年筑波大学卒業.1997年同大学院工学研究科修了.博士(工学).現在,国立研究開発法人情報通信研究機構研究マネージャー.主な研究分野は機械翻訳.情報処理学会,言語処理学会等各会員.}\bioauthor{隅田英一郎}{1982年電気通信大学大学院修士課程修了.1999年京都大学大学院博士(工学)取得.1982年〜1991年(株)日本アイ・ビー・エム東京基礎研究所研究員.1992年〜2009年国際電気通信基礎技術研究所研究員,主幹研究員,室長.2007年〜現在国立研究開発法人情報通信研究機構(NICT)先進的音声翻訳研究開発推進センター(ASTREC)副センター長.2016年NICTフェロー.機械翻訳の研究に従事.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜1987年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.専門は自然言語処理.情報処理学会,人工知能学会,AAAI,ACL,ACM各会員.情報処理学会フェロー.ACLFellow.}\end{biography}\biodate\end{document}
| |
V14N03-15 | \section{はじめに}
近年,Webが爆発的に普及し,掲示板等のコミュニティにおいて誰もが容易に情報交換をすることが可能になった.このようなコミュニティには様々な人の多様な評判情報(意見)が多く存在している.これらの情報は企業のマーケティングや個人が商品を購入する際の意思決定などに利用されている.このため,このような製品などに対する評判情報を,Web上に存在するレビューあるいはブログなどから,自動的に収集・解析する技術への期待が高まっている.このため,従来このような評判情報の抽出に関して研究されてきた\cite{morinaga,iida,dave,kaji,yano,suzuki}.これらの研究では,製品などに関する評価文書から自然言語処理技術を用いて評判情報を抽出する.また,評判情報を含む評価文書を,ポジティヴ(おすすめ)とネガティヴ(おすすめしない)という2つの極性値に分類し,その結果をユーザに提示する.提示された情報を基にユーザは様々な意思決定を行う.評価文書を2つの極性値に分類する手法に関して,これまで多くの研究が行われてきた.\cite{turney}では,フレーズの極性値に基づく教師なし学習によって評価文書を分類している.\cite{chaovalit}では,映画のレビューを対象に教師なし学習\cite{turney}と教師あり学習を比較している.ここでは,教師あり学習としてN-gramを用いている.実験の結果,分類精度は教師あり学習の方が高かったと報告している.教師あり学習を用いたものとして\cite{dave}では,ナイーブベイズを用いて評判情報の分類学習を行っている.これらの研究では,文書中に含まれている単語や評判情報をすべて同等に扱っている.しかし,評価文書には,全体評判情報と部分評判情報という2つのレベルの評判情報が含まれていると考えられる.全体評判情報とは,評価文書の対象全般に関わる評価表現のことを指す.例えば,映画のレビューにおいて「この映画はおもしろい」という評価表現は対象全般に関わる評価表現であり,この表現がある場合はその極性値が評価文書の極値にほぼ一致する.一方,部分評判情報とは,対象の一属性に関わる評価表現のことを指す.例えば,映画のレビューにおいて「映像がきれい」という評価表現は映画の一属性である映像に関する評価表現であり,この表現があったとしてもその極性値が評価文書の極性値と一致するわけではない.したがって,これら2つのレベルを考慮することで評価文書の分類精度の向上が期待できる.そこで本論文では,評判情報を全体評判情報と部分評判情報という2つのレベルに分け,その極性値を基に評価文書を分類する手法を提案する.本手法では,まず評価文書から全体評判情報を抽出し,その極性値を判定する.この極性値は評価文書の極性値とほぼ一致するため,この極性値を評価文書の極性値とする.評価文書に全体評判情報が含まれない場合は,部分評判情報の極性値の割合から評価文書の極性値を決定する.さらに,この2つのレベルの評判情報を用いて,評判情報の信頼性を評価するための一手法を提案する.評判情報は主観的な情報のため,信頼性が低いという問題点がある.このため,その信頼性を評価できれば有益な情報となる.信頼性を評価する手法は多くのことが考えられるが,ここではその1つとして,評価文書の極値と異なる極性値を持つ部分評判情報は信頼性の高い情報と捉えることを提案する.例えば,「すごく面白い映画だった.映像も素晴らしかった」と「はっきりいって最低の映画でした.でも映像だけは良かったです」という評価文書があるとする.前者のように,映画全体をポジティブに評価している人が映像に関してもポジティブに評価することはあまり情報としての価値はない.悪意のある見方をすると宣伝ともとれる.一方,後者は映画全体としてはネガティブな評価であるが,映像に関してはポジティブに評価している.このような評価は客観的でフェアである可能性が高いため,信頼性が高い評価情報であるとする.このような信頼性は,評判情報の2つのレベルを用いることで評価できる.
\section{評判情報}
評判情報と評価文書を定義し,その表現法について述べる.また,全体評判情報と部分評判情報という評判情報の2つのレベルに関して述べる.\subsection{評判情報と評価文書}Web上ではブログや掲示板あるいはレビュー等で映画の感想やある製品に関する評価が多く存在する.例えば「映像に迫力がなかった」というような文がある.このような評価を含む情報を本研究では評判情報と呼ぶ.また,評判情報を含む文書を評価文書と呼ぶ.レビューで考えれば,1投稿が1つの評価文書に対応する(図\ref{fig:2.1}).\begin{figure}[t]\begin{center}\includegraphics{14-3ia15f1.eps}\caption{評価文書と評判情報}\label{fig:2.1}\end{center}\end{figure}また,「こんにちは,私は原作は見てないので比較はできませんが,この映画はとても面白かったです.」という文章では,評判に関わる部分は「この映画は面白い」ということである.必要な部分だけを抽出すると,評判情報は(対象,属性,評価表現)という3つ組の形で表すことができる\cite{iida,tateishi}.対象とは評価対象の名前や評価対象全体を表す言葉である.属性とは評価対象の一部分を表す言葉であり,評価表現とはその評価対象や属性の評価である.映画を例にした評判情報の表現として,(映画,映像,迫力—ない),($\phi$,演技,すごい),(映画,$\phi$,面白い)などが挙げられる.$\phi$は,実際のデータでは対象や属性が必要ない場合や,文章中で省略されている場合を表す.本研究では,この3つ組みは文単位で抽出する.評判情報には,大別して全体評判情報と部分評判情報という2つのレベルが存在すると考えられる.全体評判情報とは評価対象全般に関する評価表現であり,部分評判情報とは評価対象の一属性に関する評価表現である.例えば,(映画,$\phi$,おもしろい)は評価対象全般である映画に関する評価表現であるため,全体評判情報である.一方,($\phi$,映像,きれい)は映画の一部である映像に関する評価であるため,部分評判情報である.また,(映画,映像,きれい)のようなすべての属性がある場合でも,映像に関する評判情報であるため,部分評判情報と捉える.全体評判情報は対象全般に関する評価であるため,その極性値は評価文書の極性値と一致すると考えられる.一方,部分評判情報は一属性に関する評価であるため,その極性値は評価文書の極性値と一致するとは限らない.したがって,全体評判情報を重視して評価文書を分類すると,その分類精度の向上が期待できる.本研究において上記の3つ組の表現を用いることで全体評判情報と部分評判情報を明確に区別することが可能となる.また,本研究では,レビュー内のテキスト情報以外の情報は用いていない.例えば,投稿者の情報や投稿の返信関係,文を超えた範囲からの抽出などは行っていない.これらの情報を考慮することで評価文書の分類精度が上がることが期待できるが,本論文では評判情報の2つのレベルに焦点をあてているため,これらの情報を考慮しなかった.
\section{評価文書の分類}
ここでは,評価文書をポジティブとネガティブに分類する手法を説明する.\pagebreakまず,本手法での基本モデルとして用いるナイーブベイズ(NB)モデルついて述べる\cite{dave}.次に,2つのレベルの評判情報を用いた評価文書の分類手法を提案する.\subsection{ナイーブベイズモデル}文書分類では単語の順序は必ずしも必要ではなく,文書中にどのような単語がどのような頻度で出現するかの情報で十分な場合が多い.そこで,単語の順序を無視し,文書を単語の集合として捉えるBOW(bag-of--words)モデルが用いられる.BOWモデルでは,1つの文書は形態素解析によって抜き出された単語リスト$d\{w_1,w_2,\cdots,w_M\}$と表現され,単語リスト$d$は文書と同一視される.$w_m$は文書に含まれる単語で,各々は異なる単語とは限らない.この考えに基づき,分類する文書(実際には単語リスト)を$d$とし,分類するための手がかりとなる学習コーパス(N個の学習用文書)$D=\{d_1,\cdots,d_N\}$から形態素解析等の処理によって得られる単語リストを単語集合Wとする.単語集合は$W=\{t_1,t_2,\cdots,t_V\}$と表現する.$t_i$は第$i$番目の単語でVは単語の総数を表す.NBモデルではBOWモデルに従う.NBでは,あるトピック$c$を持つ文書$d$の各単語$w_m$の生起を統計的に独立と仮定しているため,独立性の定義から次の式が成り立つ,\begin{equation}p(d|c)=P(w_1,\cdots,w_m|c)=\Pi_{m=1}^MP(w_m|c)\end{equation}これはあるクラスを与えたときに文書$d$が生成される確率は,$w_M\inW$の生成確率である$P(w_m|c)$の乗算で算出できることを意味する.次に単語頻度ベクトル$x=(x_1,\cdots,x_V)$を導入する.$x_i$は$t_i\inW$が文書$d$に出現する回数を表す.単語$t_i$ごとに整理すると,$P(w_1|c)\times\cdots\timesP(w_M|c)=P(t_1|c)^{x_1}\times\cdots\timesP(t_V|c)^{x_V}$が成り立つため,$P(t_i|c)=\theta_iとすると,$式(1)は次のようになる.\begin{equation}p(d|c)=\Pi_{i=1}^V\theta_i^{x_i}\end{equation}これがBOWモデルに基づく,文書のNBモデルである.$\theta=(\theta_1,\cdots,\theta_V)$は未知のパラメータであるために学習する必要がある.本研究では,NBのパラメータ学習に,事後分布最大化学習(MAP学習)を用いる.MAP学習では,与えられた学習用コーパス$D$に対して,$\theta$の事後分布$p(\theta|D)$を最大化するパラメータを最適としている.MAP学習による$\theta$の推定値は次の式で表現できる.\begin{equation}\hat{\theta}=\frac{\sum_{n=1}^Nx_{n,i}+\alpha-1}{\sum_{i=1}^V\sum_{n=1}^Nx_{n,i}+V(\alpha-1)}\end{equation}ここで,$x_{n,i}$は$t_i$が$D_i$中に出現する頻度ベクトルである.推定パラメータ$\alpha$は一種の平滑化(スムージング)パラメータである.$\hat{\theta_i}$はW中の全ての単語が$D$中に出現する総回数に対する,$t_i$が$D$中に出現する数の割合となっている(図\ref{fig:3.2}).\begin{figure}[t]\begin{center}\includegraphics{14-3ia15f2.eps}\caption{ナイーブベイズモデル}\label{fig:3.2}\end{center}\end{figure}NBモデルを用いて文書をポジティブとネガティブの2つのクラス$(c_1=P,c_2=N)$に分類する.各クラス毎に学習データ$D$から式(3)を利用して$P(d|c_1)とP(d|c_2)$が得られる.クラスが未知の文書$d*$に対して,クラス事後確率$P(c_i|d*)$を最大化するクラス$c_i$がベイズ誤り確率最小化の観点で最適なクラス分類となる.ここで,$P(c_i|d*)\proptoP(c_i)P(d*|c_i)$なので,$P(c_i)P(d*|c_i)$の最大化となる.\subsection{NB分類器の作成}単語素性のNB分類器は次の手順で作られる.\begin{enumerate}\item学習データから評価表現候補単語リストの作成\itemNBモデルの作成\end{enumerate}学習データ$D$には,極性値がラベル付けされたレビュー集合を用いる.$D$から,評価表現の単語リストを抽出する.このとき,評価表現候補は,形容詞—自立,動詞—自立,名詞—形容動詞語幹,名詞—サ変接続,副詞—一般,副詞—助詞類接続という品詞で絞り込んだ単語集合を抽出する.これは評価表現をこれらの品詞にほぼ限定できるためである.この段階では明らかに評価表現でない名詞を多く含んでいる.そこで,評価対象を特徴づける対象名や属性名(映画ならば“映画”や“映像”など)と助詞—連体化や助詞—並立助詞,つまり“の”や“と”で繋がる名詞を$D$から抽出し,評価表現ではない可能性が高いので評価表現候補からは除外する(図\ref{fig:3.3}).また,明らかに評価表現にならない動詞も候補から外す.これには“する”などのstop-wordと呼ばれるものが含まれる.次に,評価表現候補をTF-IDFで得点づけする.TF-IDFは単語を得点づけするアルゴリズムで,ポジティブである評価文書だけに頻出するような単語はTF-IDF値が大きくなる.逆に,ポジティブにもネガティブにも出現するような評判情報はTF-IDF値が押さえられる.この段階で,ポジティブとネガティブそれぞれに対して特徴的な語が数値として得られる(表\ref{fig:3.4}).ポジティブ,ネガティブそれぞれに特徴的な語を数値順でソートしたものの中で上位の単語だけを用いる.これは,あまり数値が低いものは特徴的な単語でない可能性があるためである.また,候補数に差があると,分類に偏りが出易くなるので,ポジティブとネガティブ,それぞれの候補数を合わせる.本研究では,ポジティブとネガティブで候補数が少ない方の数に合わせた.このようにして単語集合$W$が完成する.さらに単語集合Wの$D$中における頻度ベクトル$X$を作成し,式(3)に基づき$P(d|N)$と$P(d|P)$を作成する.\begin{figure}[t]\begin{center}\includegraphics{14-3ia15f3.eps}\caption{属性と属性評価表現の抽出}\label{fig:3.3}\end{center}\end{figure}\begin{table}[t]\caption{TF-IDFによるスコアリング}\label{fig:3.4}\begin{center}\begin{tabular}{|c|r|c|r|}\hlinePositiveword&tf-idf&Negativeword&tf-idf\\\hline楽しめる&963&悪い&786\\\hline最高&920&良い&634\\\hline面白い&873&ない&617\\\hline楽しい&845&面白い&377\\\hlineいい&625&飽きる&371\\\hline良い&598&面白い—ない&361\\\hlineとても&563&つまらない&332\\\hlineすごい&484&感じる&318\\\hlineない&435&もっと&302\\\hlineすき&434&拾う&300\\\hlineおもしろい&433&ちょっと&298\\\hlineよい&387&わかる—ない&298\\\hline演技&345&好き&258\\\hline監督&345&がっかり&251\\\hline笑う&344&無い&248\\\hline感じる&326&どう&243\\\hline楽しむ&323&正直&242\\\hlineちょっと&310&変&236\\\hlineもう一度&300&残念&223\\\hline\end{tabular}\end{center}\end{table}\subsection{評価文書分類の提案モデル}ここでは,評価文書を分類するための提案モデルについて述べる.NBモデルによる分類には,分類対象を評価文書にした場合には以下のような問題点がある.問題点の1つは係り受けを扱えないことである.例えば,「車がはやい」と「電池切れがはやい」のように,評価表現だけでなく,対象と評価表現,あるいは属性と評価表現の組でなければ,ポジティブとネガティブに正確に分類できない.このため,係り受けを扱うことで分類精度が高められると期待できる.もう1つの問題点は,全体評判情報と部分評判情報を同等に扱っていることである.単なる多数決ではなく,レベルの違いを利用した分類手法が必要である.例えば,(映画,$\phi$,おもしろい)が1回,($\phi$,映像,荒い)が2回出現するような評価文書は一般的にはポジティブに分類される.なぜならば,全体評判情報の極性値は評価文書の極性値とほぼ一致するため,これを重視すると,この評価文書の極性値はポジティブであると予想されるからである.しかし,評判情報の単純な多数決ではこの評価文書はネガティブに分類される.したがって,全体評判情報を重視すれば,評価文書の分類精度は向上すると期待できる.評価文書を分類するための提案モデルには次の2つの新しい点がある.\begin{itemize}\item全体評判情報と部分評判情報に分けて文書分類すること\item係り受けの関係を扱うこと\end{itemize}提案モデルでは,次の2つの分類器を作成する.1つは全体評判情報の分類器,もう1つはNB分類器である.最初に全体評判情報分類器で分類を試みる.この分類器では全体評判情報を抽出し,その極性値を求める.全体評判情報の極性値は評価文書の極性値とほぼ一致するため,評価文書を全体評判情報の極性値に基づき分類する.全体評判情報を含まない評価文書はこの分類噐では分類不可能であるため,このような評価文書は,単語素性のNB分類器を用いて分類する.この手順により本手法では優先的に全体評判情報を用いて評価文書を分類する.実際に全体評判情報として使われる素性は評判情報の3つ組の種類のうち(対象,$\phi$,評価表現)となる.\subsection{2つのレベルを考慮した評価文書の分類手法}全体評判情報の分類器の作成手順を以下に示す.\begin{enumerate}\item学習データ$D$から対象候補単語リストの作成\\対象候補単語はその対象の特徴的な言葉に限定し,人手で設定する.例えば,映画ならば``映画'',``作品''を用いる.\item$D$から評価表現候補単語リストの作成\\単語素性に基づくNB分類器の評価候補単語リストの作成と同様に行う.\item$D$から対象候補と評価表現候補の組み合わせとのマッチングによる全体評判情報候補を作成\\$D$から係り受けの関係にある2文節をすべて抽出し,対象候補と評価表現候補の組み合わせとマッチングしていく.このようにして抜き出されたものを同じ組み合わせであるもの毎に集めて単語集合Wと単語集合の頻度ベクトルXを得る(図\ref{fig:3.5}).\itemNBモデルの作成\\$W$と$X$と式(3)から$P(d|N)$と$P(d|P)$を作成する.\end{enumerate}\begin{figure}[t]\begin{center}\includegraphics{14-3ia15f4.eps}\caption{属性と評価表現の抽出}\label{fig:3.5}\end{center}\end{figure}
\section{評価情報の信頼性評価}
ここでは,評価情報の信頼性を評価する一手法について述べる.評判情報は主観的な意見であるために,その客観性は乏しく信頼性は低いという問題点がある.このような信頼性の低い情報の中から比較的信頼性の高い情報を抽出できれば有益な情報となる.人間は主に2つの信頼性評価方法を用いていると考えられる.1つは,サイト名などの情報発信者や組織名などの情報を用いる方法である.このような情報を元に情報の信頼性を評価する研究\cite{mui,takehara}があるが,サイトの信頼性が低いからといって全ての評判情報の信頼性が低いわけではない.また,投稿者情報を用いることは匿名性の高さのために困難であることが多い.もう1つの信頼性評価手法は,複数の情報の整合性から評価するものである.これを利用した研究は単純に多数決をとることで客観性を与えるということ\cite{tateishi}しかなされていない.本論文では,信頼性評価の一要素として評価文書と評判情報の極性値に基づく手法を提案する.ここでは,評価文書の極性値とその中の部分評判情報の極性値が異なる場合にその部分評判情報は信頼性が高いと評価する.例えば,「すごく面白い映画だった.映像も素晴らしかった」と「はっきりいって最低の映画でした.でも映像だけは良かったです」という評価文書について考える.前者のように,ポジティブな極性値を持つ評価文書において,ポジティブな部分評判情報はあまり情報としての価値はない.悪意のある見方をすれば,前者の評判情報は映画の宣伝とも捉えられる.しかし,後者は映画そのものはネガティブと捉えているが,映像に関してはポジティブに評価しているため,客観的でフェアな評判情報と考えられる.このように,評価文書の極性値とは逆の評価を持つ部分評判情報は,他のものよりもフェアであると考えられる.この理由は以下の通りである.\begin{itemize}\item対象全般に対する評価と属性に対する評価が同じになることが一般的であるが,あえて異なる極性値を持つ評価情報を書き込むことは情報としての価値が高い.\item対象に関してポジティブな面とネガティブな面の両方が評価できているため,客観性が高い.\item宣伝や熱狂的なファン,アンチファンの投稿は信頼性が低いが,このような情報を排除できる.\end{itemize}本論文では,このような情報をフェアな評判情報と呼ぶ.このフェアな評判情報を抽出するためには,評価文書と評判情報の極性値も調べることが必要である.つまり,評価文書を分類するタスクと,評価文書から評判情報を抜き出した後,各評判情報を分類するタスクの2つのタスクが必要である(図\ref{fig:3.1}).\begin{figure}[t]\begin{center}\includegraphics{14-3ia15f5.eps}\caption{信頼性評価手法の概要}\label{fig:3.1}\end{center}\end{figure}この2つのタスクの結果,部分評判情報は以下の4種類に分類される.\begin{itemize}\item評価文書としてはポジティブ,部分評判情報としてはポジティブなもの(Pp)\item評価文書としてはポジティブ,部分評判情報としてはネガティブなもの(Pn)\item評価文書としてはネガティブ,部分評判情報としてはポジティブなもの(Np)\item評価文書としてはネガティブ,部分評判情報としてはネガティブなもの(Nn)\end{itemize}フェアな評判情報はPnとNpということになる.本論文では,このように評価文書を分類し,その中の評判情報を分類することでフェアな評判情報とそれ以外の評判情報を区別する.このようにしてフェアな評判情報を抽出する.\subsection{フェアな評判情報の抽出}本節では,フェアな評判情報の抽出法について述べる.フェアな評判情報を抽出するためには,評価文書の分類と,それに含まれている評判情報の抽出およびその分類が必要である.評価文書の分類に関しては,前章で提案した手法を用いる.以下では評判情報の抽出とその分類について述べる\cite{iida}.このタスクにおける評判情報とは部分評判情報を指すため,($\phi$,属性,評価表現)を抽出し,分類するタスクである.このタスクのために,まず,評判情報辞書を作成する.基本的な考え方は辞書にマッチする評判情報候補は評判情報であるというものである.この手法を用いる理由は,既存の研究では様々な条件付けで評判情報候補を絞ることはできても,それが実際に評判情報であるかという分類は難しいとされているためである.辞書の作成には,まず学習データ$D$から属性候補と評価表現候補を抽出することから始める.属性候補に関しては,初期値として属性であると考えられる単語を10程度与える.学習データ$D$中でそれらと助詞—連体化や助詞—並立助詞,つまり「の」や「と」で繋がる名詞を抽出する.このように抜き出された名詞は,対象の属性である可能性が高いため初期値にこれを加え属性候補とする.評価表現候補は,形容詞—自立,動詞—自立,名詞—形容動詞語幹,名詞—サ変接続,副詞—一般,副詞—助詞類接続という品詞で絞り込めるため,これらの品詞を候補とする.このように抽出された属性候補と評価集合の全組み合わせに対して手動でポジティブとネガティブをラベル付けして,正事例として辞書に加える.評価表現でないと判断した組み合わせは負事例として学習していく.このように作成された評判情報辞書を用いることで,分類対象の評価文書から評判情報を抜き出す.\subsection{フェアな評判情報の利用}本手法によって得られた部分評判情報を評価対象毎,カテゴリ毎,ラベル(PpやNn)毎にカウントすることによって,表\ref{class}のような分類結果が得られる.カテゴリとは属性のグループであり,映画のカテゴリでは映像・音楽・ストーリなどである.このカテゴリと属性を一対多で対応させることで,カテゴリ毎,ラベル毎に集計する.この表をユーザに提示することで評判情報が評価できる.例えば,この表でのカテゴリ1,カテゴリ2はともに単なるポジティブとネガティブの多数決をとると,それぞれ100対100と145対145で同じとなる.しかし,フェアな評判情報であるPnとNpを考慮することで,カテゴリ1はポジティブが優勢であり,カテゴリ2はネガティブが優勢であると判断できる.\begin{table}[t]\caption{評判情報の分類}\label{class}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline&Pp&Pn&Np&Nn\\\hlineカテゴリ1&14&0&86&100\\\hlineカテゴリ2&145&22&0&123\\\hline\end{tabular}\end{center}\end{table}
\section{評価実験}
評価文書分類においてNBモデルと提案手法の比較実験を行った.また,抽出されたフェアな評判情報の有用性について評価する.\subsection{実験設定}実験に用いたデータはポータルサイト``YahooJapan''の``YahooMovie''から収集した.収集したデータは,最近公開されたメジャーな10タイトルにおいてそれぞれ最新の1000レビューを収集したものであり,合計10000レビューである.これらのタイトルを選択したのは,レビュー数が十分であることと,実際に本手法を用いる際には比較的新しい情報を対象とすることが多いと考えたためである.``YahooMovie''のレビューには,投稿者によって点数が5段階で付与されている.本実験では得点が5点あるいは4点のレビューをポジティブとし,2点あるいは1点のものをネガティブとした.3点または“得点なし”は中立とした.表\ref{train}にデータの詳細な内訳を示す.10回交差検定でNBモデルと提案手法の結果を比較した.データの中から,1000レビュー,つまり1タイトル毎に評価データとし,残りのデータである9000レビューを訓練データとした.比較の指標には精度と再現率を用いた.また,評判情報に関する語は自立語に絞られるため,両手法共に素性には自立語のみを利用した.また,否定語である“ない”に関しては,“自立語—ない”の形で扱っている.全体評判情報の最初の対象候補単語リストとしては,映画,作品,ムービーを用いた.部分評判情報の最初の候補単語リストは,映像,CG,画面,音楽,ミュージック,曲,演出,ステージング,脚色,配役,キャスティング,キャスト,物語,ストーリー,話を用いた.\begin{table}[t]\caption{実験データ}\label{train}\begin{center}\begin{tabular}{|c|c|c|c|}\hlineデータ&ポジティブ&ネガティブ&合計\\\hlineタイトル1&647&242&889\\\hlineタイトル2&426&356&782\\\hlineタイトル3&592&207&799\\\hlineタイトル4&750&149&899\\\hlineタイトル5&812&122&934\\\hlineタイトル6&790&131&921\\\hlineタイトル7&547&261&808\\\hlineタイトル8&426&396&822\\\hlineタイトル9&654&283&937\\\hlineタイトル10&542&298&840\\\hline合計&6186&2445&8631\\\hline\end{tabular}\end{center}\end{table}\subsection{全体評判情報による分類評価}ここでは,全体評判情報が実際に評価文書分類に有用であるかの評価のために,全体評判情報を人手で抽出し,全体評判情報と評価文書の評価がどの程度一致するかを調べた.ここでの人手による全体評判情報の抽出は,「良かった」,「最悪」などの一単語で明確に評価が分かるものに限定し,「ちょっと...」,「心に残る」などの分かりにくい表現は抽出に用いなかった.500のレビューを人手で評価した結果,全体評判情報は178のレビューに含まれており,そのうち162のレビューでは全体評判情報と評価文書の極性値が一致した.また,一致しなかった16のレビューに関しても,評価文書の評価値はすべて3点となっており,中立の評価となった.したがって,全体評判情報によって逆の極性値を取るものはなかった.全体評判情報が含まれている文書は全体の1/3以上であり,全体評判情報が一般的な情報であることがわかった.以上のことから,全体評判情報が評価文書分類に有用であることが示唆された.更に,提案手法において全体評判情報がNBよりも高い精度で抽出できれば評価文書の分類精度が向上することが予測される.\subsection{評価文書分類の実験結果}評価文書分類の実験結果を表\ref{result}に示す.値は10回交差検定の平均値である.P精度,P再現率とは,それぞれポジティブな評価文書に対する精度,再現率を表しており,N精度,N再現率,全体精度,全体再現率はそれぞれネガティブな評価文書と全評価文書に対する精度と再現率を表す.人間がこの分類を行った場合,9割強の精度で分類できるが,完全には分類できないと思われる.この理由は内容に関して述べているだけで評価につながる表現がないレビューやポジティブとネガティブの両方の評価が書いてあるが,結局全体としてどちらに評価したのかがわからない場合が挙げられる.\begin{table}[b]\caption{評価文書の分類結果}\label{result}\begin{center}\begin{tabular}{|c|c|c|c|c||c|c|}\hline&P精度&P再現率&N精度&N再現率&全体精度&全体再現率\\\hlineNBモデル&0.832&0.7943&0.538&0.578&0.741&0.733\\\hline提案モデル&0.848&0.799&0.570&0.639&0.771&0.760\\\hline\end{tabular}\end{center}\end{table}実験結果としては,提案モデルがNBモデルをすべての精度,再現率において上回った.これは全体評判情報を用いて分類したためと考えられる.本手法の方が正確に分類した例として「先日,見てきました.とても面白かったです.ですが,レンのお腹….あれはないかと….ちょっと失笑してしまいました.もう少し役作りして欲しかったです.」というレビューがある.このレビューでは,「とても面白かった」という全体評判情報によってポジティブな投稿であると本手法では判定しているが,NBモデルでは,それ以外の単語も考慮しているため,この影響でネガティブに分類された.しかしながら,全体の精度と再現率に関してはNBモデルと提案手法のt検定による有意差はなかった.この原因は,明らかに全体情報でない候補に対して強い特徴づけをしていることが主として挙げられる.本手法による全体評判情報の抽出精度は82\%であり,全体評判情報をさらに高い精度で抽出する必要がある.全体評判情報の抽出精度を上げるには辞書の拡充があげられるが,人手によるコストが大きくなる.また,ネガティブな評価文書に関する性能の低さは,ポジティブと比べて,学習データが少ないことが原因として考えられる.これは,学習データ数を揃えることで解決できそうであるが,ネガティブな評価文書数は表\ref{train}からもわかるように少なく,揃えることが容易ではない.また,日本人の特徴である“否定的な事ははっきり言わない”ということを考えると,数を揃えるだけでは対処できない場合もある.例えば「ちょっと…」のような表現がある.分類誤りは,Yahooの得点とは逆の内容を書いている,ということを除けば以下のような例がある.\begin{itemize}\item全体評判情報の候補リストに誤っているものが含まれている場合\\例えば,(映画,$\phi$,聞く)(映画,$\phi$,感じる)などがネガティブな候補として上位となった.これらの全体評判情報は極性値を決定するものではないが,分布の偏りによってはこのように全体評判情報の候補となる.このリストを基に分類器を作成するため,分類精度を下げることになった.\item他人のレビューを引用して否定している場合\\``「最高の映画」なんて書いている人がいるけど''のように逆の見地をとる投稿者の評判情報部分を引用していることがある.この問題に対処するためには,引用部分を見分ける必要がある.\end{itemize}\subsection{フェアな評判情報の評価}ここでは,フェアな評判情報を評価する.映画の評判を多数決を用いて評価した場合とフェアな評判情報のみを用いて多数決を用いて評価した場合を比較し,どちらが世間的な評価に近いかを確認する.世間的な評価を完全に把握することは困難であるが,ここでは著者の1名が多くのレビューを読むことで世間的な評価を判断した.\begin{table}[b]\begin{minipage}{0.45\textwidth}\caption{NANAの評判情報の分類結果}\label{result2}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline&Pp&Pn&Np&Nn\\\hline映像&9&0&0&0\\\hline音楽&98&2&24&2\\\hlineキャスト&143&15&25&34\\\hlineストーリ&163&72&61&42\\\hline\end{tabular}\end{center}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\caption{オペラ座の怪人の評判情報の分類結果}\label{result3}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hlineオペラ座の怪人&Pp&Pn&Np&Nn\\\hline映像&65&1&7&0\\\hline音楽&172&7&25&10\\\hlineキャスト&71&8&11&7\\\hlineストーリ&147&3&18&2\\\hline\end{tabular}\end{center}\end{minipage}\end{table}実際のデータに対して本手法を適用し,評判情報を分類した.評価データとしてどのように世間的に評価されているかがよく知られているため,``NANA''と``オペラ座の怪人''の2つの映画のレビューを用いた.表\ref{result2},表\ref{result3}にその分類結果を示す.表中の数値はデータ中に含まれていたそれぞれのカテゴリの評判情報の数である.NANAの分類結果を見てみると,音楽カテゴリにおいてPnに対してNpが多く,ポジティブである可能性が高いと考えられる.オペラ座の怪人の音楽カテゴリにおいても同様のことが言える.実際にこの両作品に関しては音楽的な評価が高かったと考えられるため,世間的な評価と一致している.しかし,これらの結果は単純な多数決でも同様の結果が得られる.NANAのストーリに注目すると,単純な多数決をとった場合,224対114となりポジティブの方が多い.しかし,フェアな評判情報であるPnとNpを比較すると61対72となりネガティブの方が多くなる.NANAのストーリは世間的には原作とのギャップから評価が低かったことを考えると,ネガティブとする方が妥当である.これはフェアな評判情報のみを用いた場合と一致している.このようにフェアな評判情報を用いることで,世間的な評価を抽出できる可能性を示唆した.このように評判情報の分類結果を用いることで,評判情報の多様な解析が可能となる.
\section{おわりに}
本論文では,評判情報の2つのレベルを考慮した評価文書の分類手法を提案した.全体評判情報を用いて評価文書を分類し,その後に部分評判情報を用いて分類することによって,分類精度の向上を試みた.映画のレビューを用いた実験の結果,ナイーブベイズによる手法よりも分類精度が向上することを確認した.また,評価文書の極性値と評判情報の極性値を利用することで,信頼性の高い情報を抽出するための一手法を提案した.評価文書の極性値とその中の評判情報の極値が異なる場合,その評判情報をフェアな評判情報であるとし,信頼性の高い情報とした.実験により,フェアな評判情報が評判情報を評価する際に1つの指標となる可能性を示した.今後の課題としては,フェアな評判情報および,評判情報の分類結果から読み取れる情報の利用法があげられる.\bibliographystyle{jnlpbbl_1.2}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chaovalit}{Chaovalit}{2005}]{chaovalit}Chaovalit,P.andZhou,L.\BBOP2005\BBCP.\newblock\BBOQMovieReviewMining:aComparisonbetweenSupervisedandUnsupervisedClassificationApproaches\BBCQ\\newblockIn{\BemProceedingsofthe38thHawaiiInternatioanlConferenceonSystemSciences}.\bibitem[\protect\BCAY{Dave,Lawrence,Pennock}{Dave\Jetal}{2003}]{dave}Dave,K.,Lawrence,S.,andPennock,D.M.\BBOP2003\BBCP.\newblock\BBOQMiningthepeanutgallery:Opinionextractionandsemanticclassificationofproductrevews\BBCQ\\newblockIn{\BemProceedingsofWWW},\BPGS\519--528.\bibitem[\protect\BCAY{飯田,小林,乾,松本,立石,福島}{飯田\Jetal}{2005}]{iida}飯田龍,小林のぞみ,乾健太郎,松本裕治,立石健二,福島俊一\BBOP2005\BBCP.\newblock\JBOQ意見抽出を目的とした機械学習による属性—評価値の同定\JBCQ\\newblock自然言語処理研究会,情報処理学会,\textbf{165},\BPGS\21--28.\bibitem[\protect\BCAY{鍛冶,喜連川}{鍛冶\JBA喜連川}{2005}]{kaji}鍛冶伸裕,喜連川優\BBOP2005\BBCP.\newblock\JBOQ依存構造を考慮した評価文書の分類\JBCQ\\newblock自然言語処理研究会,情報処理学会,\textbf{170},\BPGS\15--20.\bibitem[\protect\BCAY{Morinaga}{Morinaga\Jetal}{2002}]{morinaga}Morinaga,S.,Ymamanishi,K.,Tateishi,K.,andFukushima,T.,\BBOP2002\BBCP.\newblock\BBOQMiningProductReputationsontheWeb\BBCQ\\newblockIn{\BemProceedingsofSIGKDD02}.\bibitem[\protect\BCAY{Mui}{Mui}{2002}]{mui}Mui,L.,Halberstadt,A.,andMohtashemi,M.\BBOP2002\BBCP.\newblock\BBOQAComputationalModelofTrustandReputaion\BBCQ\\newblockIn{\BemProceedingsofthe35thHawaiiInternatioanlConferenceonSystemSciences}.\bibitem[\protect\BCAY{鈴木,高村,奥村}{鈴木\Jetal}{2004}]{suzuki}鈴木泰裕,高村大也,奥村学\BBOP2004\BBCP.\newblock\JBOQWeblogを対象とした評価表現抽出\JBCQ\\newblock人工知能学会,SIGSW\&ONT-A401-2.\bibitem[\protect\BCAY{竹原,中島,角谷,田中}{竹原\Jetal}{2004}]{takehara}竹原幹人,中島伸介,角谷和俊,田中克己\BBOP2004\BBCP.\newblock\JBOQWeb情報検索の為のBlog情報に基づくトラスト値の算出方法\JBCQ\\newblock日本データベース学会Letters,\textbf{3}(1),\BPGS\101--104.\bibitem[\protect\BCAY{立石,石黒,福島}{立石\Jetal}{2001}]{tateishi}立石健二,石黒義英,福島俊一\BBOP2001\BBCP.\newblock\JBOQインターネットからの評判情報検索\JBCQ\\newblock自然言語処理研究会,情報処理学会,\textbf{144},\BPGS\75--82.\bibitem[\protect\BCAY{Turney}{Turney}{2002}]{turney}Turney,P.D.\BBOP2002\BBCP.\newblock\BBOQThumbsUporThumbsDown?SemanticOrientationAppliedtoUnsupervisedClassificationofReviews\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\417--424.\bibitem[\protect\BCAY{矢野,目良,相沢}{矢野\Jetal}{2004}]{yano}矢野宏実,目良和也,相沢輝昭\BBOP2004\BBCP.\newblock\JBOQ趣向を考慮した評判情報検索手法\JBCQ\\newblock自然言語処理研究会,情報処理学会,\textbf{164},\BPGS\165--170.\end{thebibliography}\begin{biography}\bioauthor{安村禎明}{1993年大阪大学基礎工学部卒業.1998年同大学院基礎工学研究科博士後期課程修了.同年東京工業大学大学院助手.2004年神戸大学工学部助教授.現在,同大学大学院工学研究科准教授.博士(工学).機械学習,テキストマイニング,エージェントに関する研究に従事.人工知能学会,電子情報通信学会,情報処理学会,IEEE各会員.}\bioauthor{坂野大作}{2004年岡山県立大学情報工学部卒業.2006年神戸大学大学院自然科学研究科情報知能工学専攻修了.現在,NTTコミュニケーションズ株式会社に勤務.在学中,テキストマイニングの研究に従事.}\bioauthor{上原邦昭}{1978年大阪大学基礎工学部情報工学科卒業.1983年同大学院博士後期課程単位取得退学.大阪大学産業科学研究所助手,講師,神戸大学工学部情報知能工学科助教授,同都市安全研究センター教授,同大学大学院自然科学研究科教授を経て,同大学院工学研究科教授.工学博士.人工知能,特に機械学習,マルチメディア処理の研究に従事.情報処理学会,人工知能学会,電子情報通信学会,計量国語学会,日本ソフトウェア科学会,AAAI各会員.}\end{biography}\biodate\end{document}
| |
V18N04-01 | \section{はじめに}
\subsection{背景と目的}我々が記述や発話によって伝える情報は客観的な事柄のみではない.事柄が真なのか偽なのか,事柄が望ましいか望ましくないか,といった心的態度も併せて伝達する.言語学,日本語学にはこのような心的態度に対応する概念として「モダリティ」または「様相」と呼ばれるものが存在する.モダリティは,文を構成する主要な要素として規定されている概念である.モダリティ論では「文は,客観的な事柄内容である『命題』と話し手の発話時現在の心的態度(命題に対する捉え方や伝達態度)である『モダリティ』からな」るという規定が多くの学者に受け入れられてきた\cite{Book_01}\footnote{以後,修飾語句なしに「心的態度」と記述するときは書き手の発話時現在の命題に対する捉え方や伝達態度のことを指す.}.そして,活用形と「べき(だ)」「だろう」「か」といった助動詞や終助詞および,それらの相当語句がモダリティに属する文法形式とされている.これらの文法形式はコーパスに心的態度の情報をアノテーションする上で有効な指標になると考えられる.ただし,前述の文法形式をアノテーションするだけでは心的態度を網羅することはできない.「ことを確信している」「と非常に良さそうだ」等,文法形式以外にも心的態度を表す表現は存在する.そのことは心的態度のアノテーションを目的とする既存研究で指摘されており,それらの研究では「拡張モダリティ」\cite{Article_01}「確実性判断」\cite{Article_02}といった文法形式以外も含む新たな概念が提案されている.しかし,このように対象を拡張すると,モダリティの持つアノテーションに有利な特徴が失われてしまう.モダリティであれば,文ごとに特定の文法形式の有無を目安にしてアノテーションの判定をすればよい.対して,拡張モダリティや確実性判断にはこのような明確な判断基準がない.よって,作業者によって基準がぶれてアノテーションが安定しない可能性がある.これに対し本論文では,「階層意味論」で規定される「モダリティ」の概念を用いることで,母語話者の判断による一貫したアノテーションが可能であると考える.階層意味論とは,言語普遍的な意味構造を規定する意味論上の概念であり,この意味構造によって従来の文法論では解釈が困難な複数の言語現象に自然な解釈を与えることができる.この階層意味論で規定される「モダリティ」は文法論上の概念ではない.拡張モダリティや確実性判断と同じく文法形式ではない心的態度も対象とするため,心的態度の網羅という目的に適う概念といえる.ただし,階層意味論の研究は主に英語の事例を扱っており,日本語の事例研究は限定的である.そのため日本語における普遍性が実証的に確かめられているとは言い難い.そこで,4名の母語話者に新聞の社説記事から「モダリティ」を読み取ってもらう調査を行い,母語話者間での回答の一致度を見る.本論文では「階層意味論の『モダリティ』が普遍性のある概念であれば母語話者間で『モダリティ』に対する認識の仕方に違いは出ない」という前提のもと,母語話者間の一致度を通して普遍性を評価する.以下,2節で,自然言語処理,言語学,日本語学それぞれにおける「モダリティ」の扱いを概観し,その違いが心的態度のアノテーションに及ぼし得る問題点を論じる.次に3節で,本論文で検討する階層意味論について説明する.そして4節で,日本語の母語話者を対象に,新聞の社説記事から階層意味論に基づき規定された心的態度を読み取ってもらう調査を行い,その判断に対する母語話者間の一致度を示すとともに不一致を引き起こす要因について論じる.最後に,5節でまとめと今後の課題について述べる.\vspace{-0.5\baselineskip}\subsection{用語に関する注意事項}「文」「命題」「モダリティ」といった用語は,特定の言語形式を指す場合と,その形式で表現される意味内容を指す場合とがある.文法論,意味論と自然言語処理との間で横断的な議論を行う場合は,どちらの用法で用いているのか明記しないと混乱を招く恐れがある.そこで,本論文における各用語の便宜的な用法をここで示す.まず,文については「書き言葉において句点\footnote{文体によっては改行や句点以外の記号で代用されることもある.}で区切られる統語上の言語単位」を指すことにする.話し言葉は本論文では取り上げない.次に,モダリティは「文法論でモダリティとして扱われている表現の集合\footnote{この集合を厳密に定義する既存研究はないが,日本語のモダリティについては,日本語学でモダリティを体系的に論じた書籍である宮崎他(2002)と日本語記述文法研究会(2003)のいずれかでモダリティとして扱われているかどうかを基準とする.}」を指すことにする.文法論では「モダリティ」が文法形式を指す場合とその機能を指す場合とがあるが,本論文ではもっぱら前者として用いる.この規定は心的態度とモダリティを明確に区別することを意図している.本論文では,心的態度はアノテーションすべき対象なのに対し,モダリティはあくまでアノテーションの目安となる統語上の特徴の1つということになる.そして,命題は「補足語+述語」\inhibitglue\footnote{述語とは「動詞,形容詞,形容動詞または『名詞+助動詞「だ」』(+ヴォイス)(+テンス)(+アスペクト)」を指す.},「補足語+述語+形式名詞」および「補足語+述語+形式名詞」に言い換え可能な「(連体修飾語+)名詞」を指す\footnote{形式名詞の規定は\cite{Book_25}に従う.}.例えば「彼が渋谷まで買い物に行った」「A銀行の破たん」といった表現が挙げられる\footnote{名詞の言い換えは文脈に依存するため,ここで「A銀行の破たん」の言い換えを一意に定めることはできないが,文脈さえ定まれば母語話者は困難なく言い換えることができると考える.具体的には4.2の手順2で論ずる.}.ただし,階層意味論で「命題」や「モダリティ」と呼ばれているものは意味構造を記述するための概念であり,ここで述べた用法とは異なる.そこで「命題’」「モダリティ’」と,「’」をつけて区別する.
\section{自然言語処理とモダリティ論との相違点}
\subsection{自然言語処理でのモダリティと心的態度}自然言語処理の分野では,拡張モダリティや確実性判断の概念が出てくる前から,大規模コーパスに対しモダリティのアノテーションが行われてきた.英語コーパスに品詞と統語構造の情報を付与したPennTreebank\cite{Article_03}では,品詞のタグにModalVerbというカテゴリを設け,法助動詞に対しそのタグを付与している\cite{Inproc_03}.また,日本語の京都大学テキストコーパス\footnote{http://www-lab25.kuee.kyoto-u.ac.jp/nl-resource/corpus.html}では,形態素,構文タグとは別にメモ書きとしてモダリティのタグが存在する.ただし,タグの対象となっている表現は「こと」「もの」「ところ」「わけ(だ)」「ほど(だ)」という形式名詞を含む表現が述語に後接しているものに限られる.そのことから,実質,形式名詞が助動詞に近い働きをしていることを示すタグとなっている.このように既存の大規模コーパスにはモダリティタグが存在するが,これらのモダリティタグは文法形式に限定されており心的態度を網羅するものではない.1節で述べたように,心的態度を網羅することを目的とした研究では拡張モダリティや確実性判断といった新たな概念が提示されている.拡張モダリティでは,「てほしい」に言い換え可能な表現を文法形式かどうかに関わらず全て対象としている\cite{Article_01}.また確実性判断では,命題に対する書き手,話し手の確信度の度合いを読み取るための指標として,モダリティのみならず叙実述語や仮定表現も対象としている\cite{Article_02}.さらに,モダリティ論によるモダリティの細分類に基づいて心的態度のカテゴリを定め,それらを「拡張モダリティ」と呼んでアノテーションする研究も存在する\cite{Inproc_04}.モダリティ論を参考にはしているが,こちらの「拡張モダリティ」でも文法形式に限定せずにアノテーションを行っている.以上,既存の大規模コーパスにモダリティタグがある一方で,心的態度を解析するために新たなアプローチでのアノテーションが行われているのが現状と言えよう.\subsection{言語学,日本語学のモダリティ論}現在の言語学,特に文法論におけるモダリティは,文を構成する要素のうち命題とは異質なものを命題と区別するための概念であり,心的態度または``speaker(orwriter)'sattitude''という規定はモダリティが持つべき前提条件というわけではない.ただし,日本語学では90年代まで心的態度という規定が基本的な位置付けにあったのも事実である.その背景には,日本語学のモダリティ論が一般言語学とは異なる独自の発展をしたことがある.以下,モダリティ論が形成された経緯を日本語学を中心に概観する.一般言語学で文が命題とモダリティからなるという規定が広まったのは,Fillmoreが示した``$sentence\rightarrowproposition+modality$''というモデル\cite{Inbook_01}の影響が大きいと思われる.ただし,Fillmore自身は``modality''に高い関心はなく,文からテンス,アスペクト,ムードを分離した上で命題のみに対象を絞って議論するためにこのようなモデルを提示している.そのため,``modality''の詳細については論じておらず,テンス,アスペクトを含む雑多なものと見なしている.一方,Fillmoreのモデルを採用しつつモダリティの方に焦点を当てる研究も行われてきた.それらの研究の関心は,主に英語の法助動詞や法助動詞に類する他言語の文法形式にある.それらの研究では認識(epistemic),当為(deontic)といったモダリティの細分類を規定し,その分類に基づいて文法形式の機能を整理している(例えばPalmer1986,2001).この傾向は日本語学でも同様で,モダリティの細分類を通して1節で挙げた助動詞,終助詞といった文法形式の特徴を論じている(例えば益岡1991).ただし,日本語学のモダリティ論の場合,陳述論の影響により文の成立要件に関する論考も展開しているという特徴がある.陳述論とは,言語表現が文として成立するために必要な機能を山田孝雄が「陳述」と呼んだことに端を発する.そして,時枝誠記,渡辺実へと引き継がれた議論がモダリティ論に影響を与えたとされている\cite{Book_06}.以下,時枝以降の論考の流れを簡単に述べる.時枝は,文の構造を記述するモデルとして客体的な内容である「詞」を主体的な作用である「辞」が包むという入れ子構造を提案している\cite{Book_19}.詞に属する表現には「山」「運動会」などの名詞や「彼が買い物へ行く」「本が安い」などの命題が,辞に属する表現には「(山)が」「(安い)よ」などの助詞全般や「だろう」などの助動詞といった機能語が挙げられる.その上で,助動詞,終助詞などの「文末辞」が陳述の役割を果たし,述語とその補足語で構成される詞を包むことで文が成立するという考えを示している.それに対し渡辺は,詞と辞の入れ子構造だけでは文の成立条件を適切に記述できないことを指摘している\cite{Book_23,Book_18}.例えば「命題+助動詞」という構造は,時枝のモデルでは助動詞が辞として陳述の働きをすると解釈される.しかし,実際には文だけではなく従属節も同様の構造を持ち得る.陳述の機能を助動詞に求めている限り,文と従属節との違いを解釈することはできない.そこで,渡辺は辞の概念を見直し,事柄を描き上げる機能を「叙述」と呼んで文を完結させる機能の陳述と区別している.そして,これらの陳述論は日本語文が統語的な階層構造を持つという主張へと展開する.渡辺は,助動詞や終助詞の相互承接には規則性があり,叙述の機能を持つものが前,陳述の機能を持つものが後ろに来ると述べている.また南不二夫は,渡辺を含めた語順に関する研究を総括し,4段階の階層構造にまとめている\cite{Book_20,Book_10}.南によると,この階層性は主観性という指標で捉える事ができる.具体的には,述語に近い位置に現れる表現は客観的,遠い位置の表現は主観的という傾向があるとしている.助動詞,終助詞で見ると,「れる」「ない」「た」などは客観的表現,「だろう」「か」などは主観的表現に分類される.以上,Fillmoreのモデルおよび日本語学の陳述論と階層構造について概観した.日本語のモダリティ論で提示されている文構造のモデルは詞と辞の概念や南の階層構造と類似している.実際,モダリティとして扱われる文法形式の多くは,辞や陳述,主観的表現として扱われる文法形式と一致する.一般言語学では必ずしも重視されてこなかった心的態度という規定も,日本語学では陳述論の流れを引き継ぐことで長く受け入れられたものと考えられる.\subsection{モダリティと心的態度との関連性}モダリティ論では前述の通り文法形式を対象とする研究が主流である.一方,心的態度は文法形式に限らず様々な言語表現によって表現され得る.このことから,心的態度という概念をモダリティの規定として採用すべきではないという主張がされている\cite{Book_06,Article_04}.この問題を回避するためのアプローチは大きく2つ存在する.ひとつは一般言語学,日本語学の両方で見られるもので,心的態度という規定自体を見直すというものである.心的態度の代わりに採用される規定の代表的なものとしては,非現実(irrealis)\footnote{irrealisは伝統的にはunrealを指す概念であり非現実と訳されるのが一般的なため本論文でも非現実と訳すが,non-assertiveに近い概念と考える研究者もおり\cite{Book_07},検討の余地が残る.}が挙げられる\cite{Book_07,Book_06,Article_04}.例えば,「昨今の学生は勤勉だ。」と記述した場合,書き手は「昨今の学生が勤勉である」ことを真だと断言しているが,「昨今の学生は勤勉かもしれない。」や「昨今の学生は勤勉でなければいけない。」では,「学生が勤勉である」ことを断言しているとは言い切れない.「昨今の学生は勤勉かもしれないが,そうでないかもしれない。」「昨今の学生は勤勉ではないが,勤勉でなければならない。」といった言明が可能なことがそれを裏付けている.このように,「かもしれない」「なければならない」といったモダリティの文法形式は非現実と対応した表現であるといえる.この非現実の規定を採用すると,例えば日本語の場合,感嘆詞,間投詞,係助詞,敬語に関わる表現などがモダリティに含まれないことが明確となり,対象を大幅に絞り込むことができるため,心的態度の規定と比べ形式上の雑多さは大幅に解消される.もうひとつは日本語学で見られるもので,心的態度という意味論上の規定だけではなく統語論上の条件も規定に加えるというものである.例えば,心的態度を表す複合形式をモダリティと見なす基準として文法化しているかどうかを挙げる研究が存在する\cite{Article_05}.また,モダリティの基本的性格として主観性を挙げた代表的な研究者の1人である益岡隆志は,これまでのモダリティ論では主観的な表現が全てモダリティであるかのような誤解を招いているとした上で,モダリティかどうかの判断には文構成における位置付けも考慮する必要があると指摘している\cite{Book_08}.以上,あくまで形式と意味との相関を明らかにすることが主眼の言語学,日本語学では,形式との高い相関が見出せない場合は規定自体を見直すということが行われる.規定が文法形式を定めるという一方的な関係ではなく,図1のように適切な関係性が得られるよう規定と形式が相互に影響し合う関係だといえよう.\begin{figure}[t]\begin{center}\includegraphics{18-4ia911f1.eps}\end{center}\caption{言語学,日本語学における規定と形式との相互依存関係}\label{fig:one}\end{figure}\subsection{2つの相違点}以上,自然言語処理とモダリティ論それぞれにおけるモダリティと心的態度に対する態度を見てきた.心的態度のアノテーションを考える上で考慮すべき相違点を整理すると次の2点を挙げることができる.\begin{itemize}\item自然言語処理では命題を解析単位としているのに対し,モダリティ論,特に日本語学のモダリティ論では文が主な考察単位となる.\item心的態度は,自然言語処理ではアノテーションすべき対象であるのに対し,モダリティ論では形式との相関を見る中で放棄され得る規定である.\end{itemize}自然言語処理の応用研究のうち,拡張モダリティなどの新たな概念を立ててそのアノテーションを試みている研究は,命題で表される事柄に対する書き手,話し手の真偽判断や価値判断の情報を特定することを目的としている.そのため,アノテーションの単位は命題となる.近年,盛んに行われている医学,生物学系テキストに対する確実性判断のアノテーションでも,当初は文がアノテーションの単位だったが\cite{Inproc_01},その後,心的態度を表す表現とそのスコープとなる命題へのアノテーションが提案されている\cite{Inproc_02}.対して,モダリティ論では原則,Fillmoreのモデルに象徴されるように文が分析単位となる.特に日本語学のモダリティ論は,陳述論の影響により文のあり方を論じるという文脈で語られることが多い.加えて,日本語の従属節にはモダリティとされる文法形式の出現に制限があるため\cite{Book_10},文以外の単位はそもそも議論の対象になりにくい.この結果,心的態度を表すにもかかわらずモダリティ論では取り上げられない表現が数多く出てくる.例えば,「主観述語」\cite{Article_06}や``mentalstatepredicates''\cite{Book_11}と呼ばれる心的態度を表す用言が挙げられる.以下に例を示す.\begin{enumerate}\item今回の洪水で予想以上の被害を受けたのは\underline{事実だ}。\item東京での開催が決定したことを\underline{歓迎する}。\item予定通りに到着することが\underline{望ましい}。\end{enumerate}その他にも前提,仮定,反実仮想,目的など従属節の種類に対応する心的態度もモダリティとは見なされない.加えて,2.3で見たように,モダリティ論には心的態度という規定自体が適切ではないという意見もある.実際,モダリティ論で提示されている法則や傾向が,心的態度と形式との普遍的な関係を表すものとは限らない.例えば,力動的モダリティ(dynamicmodality)と呼ばれる可能性や能力,性向を表すカテゴリ\cite{Book_07,Book_12}は心的態度の範疇に入るとは考え難い.英語のcanやmayなどは力動的モダリティとして機能することもあるため\cite{Book_12},「英語の法助動詞は心的態度を表す」という一般化は成り立たないことになる.以上のことから,拡張モダリティ,確実性判断といった概念とモダリティとでは,対象となる表現の範囲が異なるというだけではなく,分析単位および概念自体に相違点があるといえる.
\section{階層意味論に基づく心的態度の規定}
\subsection{階層意味論の概要}前節で論じた自然言語処理とモダリティ論との相違点は,モダリティ論の成果をアノテーションに応用することや,アノテーションの結果をモダリティ論によって評価する上での障害となる.ただし,モダリティ論には,数は少ないながらも意味論の立場から「モダリティ」(以後,1.2で述べたように「モダリティ’」と記述する)を論じている研究がある.意味論であれば議論の対象が文法形式に限定されるという制約は生じない.その中でも,階層意味論\cite{Book_13}は「話し手(本論文では書き手)の発話時点での心的態度」を典型的なモダリティ’の厳密な定義としている.階層意味論での命題’も同様に,述語と補足語そのものではなく述語と補足語によって表現可能な意味全般(以後,「事柄」と呼ぶ)となる.そこで本論文では,階層意味論で規定されるモダリティ’に着目し,心的態度をアノテーションする基準にモダリティ’の細分類を用いることを検討する.以下,この節では階層意味論について説明する.中右は,文が命題’とモダリティ’との対立を軸とした一定普遍の意味構造を持つという階層意味論モデルを提唱している(図2).図2は,自然言語において枝分かれの左側の要素を出力するには右側の要素が必須であることを示している.このモデルに従うと,自然言語で談話モダリティ’を表現するときは必ず構文意味を伴い,文内モダリティ’を表現するときは必ず全体命題’を伴う.そして,発話意味は談話モダリティと構文意味から構成され,構文意味は文内モダリティ’と全体命題’から構成されるということも表している.なお,図2のモデルは2節で言及したモダリティ論の階層性\cite{Book_01,Book_04}とは明確に区別する必要がある.モダリティ論の階層性は文法形式の統語的な特徴,言い換えると語順に関する記述である.一方,階層意味論モデルは特定の言語の文法に捉われない普遍的な意味構造を記述するもので,本質的に異なるモデルと言えよう\footnote{\cite{Book_01}では,階層意味論モデルが仁田や益岡の想定する意味構造と同様であると論じている.しかし,仁田や益岡のモデルはあくまでも日本語の文法を記述することが目的である.言語普遍的な特徴も視野に入れているとはいえ,細分類の典型例が必ず文法形式によって与えられる点で階層意味論モデルとは大きく異なる.本稿では,文法論の立場から記述される階層性と階層意味論モデルは明確に区別されるべきだと考える.}.\begin{figure}[t]\begin{center}\includegraphics{18-4ia911f2.eps}\end{center}\caption{階層意味論モデル(中右のモデルから一部抜粋)}\label{fig:two}\end{figure}\subsection{階層意味論と本論文との違い}本論文では心的態度のアノテーション方法を原則,中右の階層意味論に基づいて定めるが,次の2点は階層意味論と異なる.\begin{itemize}\item対象を文ではなく事柄(命題’)とする.\item瞬間的現在と持続的現在とを区別せず,発話時点であれば典型的と考える.\end{itemize}中右は文論の立場から階層意味論を論じており,観察している事例は文に限定されている.それに対し本論文では,コーパス内に現れる全ての事柄に対する心的態度を明らかにするためにアノテーションは事柄単位で行う\footnote{中右は統語上の文しかM(S)を表し得ないと述べているが,本論文での「文」は中右の言う「典型的な文」に対応する.中右の用法に従うと,文論は「典型的な文を扱うもの」,本論文のアプローチは「典型的ではない文まで対象に含めるもの」ということになる.}.次に,中右はIthinkを瞬間的現在,Iamthinkingを持続的現在とみなし,同じ心的態度でも前者の方がモダリティ’として典型的だとしているが,この区別は用言以外で表されている心的態度には適用が難しい.そこで本研究では,心的態度が発話時点のものであれば瞬間的かどうかに関わらず典型性が高いと考える.なお,中右は(1)Johnmoved,(2)Johnagreed,(3)Johnagrees,(4)Iagreed,(5)Iagreeという5つの表現を用いて,(5)が最もモダリティとして典型性が高く,(4)から(1)へと典型性が下がっていくとしている.この段階的な典型性の中でどこまでをアノテーションすべきかは,アノテーション目的や難易度と照らし合わせて検討する必要がある.本稿では(5)に持続的現在を加えたものをアノテーションの対象とするが,今回の結果も含めデータが蓄積された後に,典型性の程度がアノテーションに与える影響を検討することが求められよう.\subsection{階層意味論に基づいた心的態度の細分類}図2にあるように,階層意味論ではモダリティ’を文内モダリティ’と談話モダリティ’とに分類している.前者は命題に対する書き手や話し手の認識を表し,後者は文をどのような形で伝えるかという書き手や話し手の発話態度や伝達様式を表す.本論文では,事柄に関する情報を取り出すという目的を踏まえ,事柄に対する心的態度である文内モダリティ’をアノテーションの対象とする.階層意味論では,事柄に対する心的態度は文内モダリティ’の細分類によって包括できると考えられている\footnote{中右(1994,p.~54)では,文内モダリティ’の細分類によって「目下のところ」包括できる見通しがあると述べられており,網羅性に確信があるわけではないことが伺える.とはいえ,文法形式の分類に用いられるモダリティの細分類とは異なり,意味論の立場から事柄に対する心的態度を網羅するよう配慮されて提示された細分類であり,高い網羅性を持つことが期待される.}.そして図2のモデルから,文章,談話中に現れる全ての命題’は,a)何もモダリティ’を伴わない,b)文内モダリティ’のみを伴う,c)文内モダリティ’と談話モダリティ’を伴う,のいずれかである.よって概念上は,事柄に対する心的態度を網羅するためには「命題’+文内モダリティ’」という組み合わせを全てアノテーションできれば十分ということになる.以下,文内モダリティ’の細分類を示す.\begin{itemize}\item真偽判断のモダリティ’(modalityoftruthjudgment)\item判断保留のモダリティ’(modalityofjudgmentwithholding)\item是非判断のモダリティ’(modalityof(dis)approval)\item価値判断のモダリティ’(modalityofvaluejudgment)\item拘束判断のモダリティ’(modalityofdeonticjudgment)\end{itemize}それでは各分類の規定を述べる.「真偽判断のモダリティ’」は,事柄の真理値について肯定的あるいは否定的に断定,推定する心的態度を指す.「判断保留のモダリティ’」は,事柄の真理値について判断を保留し中立的な立場を表明,含意する心的態度である.典型的なものとしては疑問,質問態度があるが,中右は伝聞判断もここに加えている.「是非判断のモダリティ’」は,真理値を評価しているという点は真偽判断と一緒だが,事柄が既定的(pre-established)である点が異なる.既定的とはその情報が既に談話の世界に提示済みであるということである.以上の3つは全て命題で表される事柄の真偽に対する態度であり,以下,本論文では3つをまとめて「真偽判断系」の心的態度と呼ぶ.次に「価値判断のモダリティ’」は,事柄に対する情緒的な反応や評価を指す.この心的態度は命題が叙実的(factive)であることが前提とされている.最後に「拘束判断のモダリティ’」は,事柄が指し示す未来の行為を拘束することに関する書き手,話し手の立場を表す.中右はdeonticを拘束判断と訳しているが,2節でモダリティの細分類として挙げた当為(deontic)に近い概念と言える.\subsection{階層意味論のアノテーションへの応用}以上,階層意味論の概要を見てきた.文法論によるモダリティの細分類と異なり,モダリティ’の細分類は書き手の事柄に対する発話時点での心的態度を分類するものである.そのため,アノテーションの基準として規定を大幅に変えることなく利用できることが期待される.ただし,大規模コーパスにアノテーションすることを想定すると,次の2点が問題になると思われる.この2点については,アノテーションの簡単化のために便宜的な対処を行う.\begin{itemize}\item既定的かどうかは語用論的な情報である\item未来でも叙実的でもない事柄に対する評価は価値判断にも拘束判断にも含まれない\end{itemize}前述の通り,「既定的」とは既に談話の中で取り上げられていることを指す.これは明らかに文脈,状況に依存する性質であろう.``Idoubt(that)...''や``Iadmit(that)...''のようにthat以下が既定的であることを表す表現もあるが,既定的であるときは必ずこのような表現を伴わなければならないわけではない.全く同じ表現でも既定的かどうかは文脈,状況に応じて変わり得るだろう.本論文では,語用論的な側面を考慮するとアノテーションの労力が大きくなり過ぎると考え,既定的かどうかは判断せず,真偽判断と是非判断を区別しないこととする.そして,未来の行為でも叙実的でもない事柄に対する評価はどのカテゴリにも属さないという問題もある.これについては,未来以外の事柄に対する評価は全て価値判断に属するものとして対処する.
\section{アノテーションの不一致を引き起こす要因と対策}
\subsection{アノテーションの一致度による階層意味論の評価}階層意味論は,語彙,統語的な特徴が十分に明らかになっていない意味論上の概念であるため,アノテーションは母語話者による判断に頼る必要がある.階層意味論では,母語話者間で共通した性質を出発点に議論するという,チョムスキーがSyntacticStructures\cite{Book_22}で提示したアプローチを採用している\cite{Book_13}.図2で示したモデルは,母語話者の普遍的な言語理解を表すものであり,階層意味論による心的態度の細分類も母語話者間で普遍的であることが期待される.普遍性が成立するのであれば,階層意味論のアノテーションは母語話者によって行われることで妥当性が保障される.ただし,階層意味論を前提とした日本語の事例研究は多くなく,普遍的という仮説が十分に実証されているとは言い難い.そこで,本論文では4名の母語話者に対してアノテーションの一致度を測る調査を行うことでモダリティ’の細分類の普遍性を評価する.一致度が高ければ,階層意味論の細分類が母語話者間で普遍的な概念であるという仮説が裏付けられ,この細分類が心的態度をアノテーションするための基準として適切と言える.対して一致度が低い場合,アノテーションの基準としてだけでなく,普遍性が求められる階層意味論の概念としても不適切ということになる.\subsection{調査概要}\begin{table}[b]\caption{調査概要}\input{01table01.txt}\end{table}では,一致度を評価するために行った調査の概要を示す.まず,被調査者,調査に用いるテキストおよび調査手順を表1に示す.被調査者は,理系,文系によって傾向に違いが生じる可能性を考慮して東京工業大学と一橋大学から5名ずつ募った\footnote{東京工業大学の社会工学科は学際領域だが,大学受験で求められる能力及び学部で学ぶ講義の内容から理系に該当すると見なして差し支えないと判断した.}.調査に用いるテキストは,文脈による結果への影響を考えると幅広い文体のテキストおよび談話が望ましいが,膨大な量のアノテーションを行うためには多くの予算と時間を要する.大規模なアノテーションの実施は階層意味論の有効性がある程度確認されて信頼できるデータが得られる目途が立ってから行うべきだと考える.今回は有効性を確認する作業の一環として,効率よく全ての細分類に対するアノテーションを得るために新聞の社説記事を用いた.社説記事は,主題に関する事実関係を記述しつつ書き手の意見を述べる構成になっているため,真偽判断系,価値判断,拘束判断の心的態度がバランスよく現れる傾向がある.かつ,文筆を仕事とする人によって書かれているため,語彙,文法上のミスが少ないことが期待できる.それでは,調査手順の詳細を説明する.\begin{description}\item[手順1]\gt調査者が社説記事から,次のいずれかの条件を満たすものを命題として全て取りだす.\begin{itemize}\item必須格を伴っている動詞,形容詞,形容動詞,名詞+助動詞「だ」\item必須格を伴っている動詞,形容詞,形容動詞,名詞+助動詞「だ」に書き換え可能な名詞(書き換え可能かどうかは調査者が判断)\end{itemize}\end{description}手順1で取り出される命題の形式は,主節と従属節,名詞の3種類である.そのうち従属節は,大きく副詞節,名詞節と連体節に分けることができる.以下にそれぞれの例を示す\footnote{今後このように例文を示す際,下線部は全て着目している命題を表す.}.\begin{enumerate}\setcounter{enumi}{3}\item\underline{銀行が腐った資産を抱えたまま}では、貸し出し機能が正常化しないためである。(2009/3/30毎日新聞)\item\underline{パチンコ店などの風俗営業法が適用される施設は、禁煙か分煙にする}ことが努力義務となった。(2009/3/30朝日新聞)\item\underline{膨大な準備が必要となる}大学側の「評価疲れ」が指摘される。(2009/3/31読売新聞)\end{enumerate}ここで,主節,従属節,名詞の全てのタイプの命題を含む(6)を用いて手順1の具体例を示す.この文から取り出される命題は\begin{itemize}\item膨大な準備\item膨大な準備が必要となる\item評価疲れ\item膨大な準備が必要となる大学側の「評価疲れ」が指摘される\end{itemize}の4つとなる.\begin{figure}[t]\begin{center}\includegraphics{18-4ia911f3.eps}\end{center}\caption{回答画面}\label{fig:three}\end{figure}\begin{description}\item[手順2]\gt取り出した表現を調査者が人手で文の形に書き直す.書き直した文は,手順3において原文とともに図3のような形で被調査者に提示する.書き直す手順は\begin{enumerate}\item[1.]命題が名詞の場合は必須格と述語の形に書き直す.\item[2.]テンス,アスペクトがない場合はそれらを補ってモダリティの文法形式と接続助詞を取り除いた上で終止形とする.\item[3.]省略されている必須格を補う.ただし,テキスト内で明示されておらず,かつ補わなくても文として理解できる必須格は補わない.この作業は原文に対しても行う.\end{enumerate}\end{description}ここで命題が名詞の例を以下に示す.名詞を命題(補足語+述語+形式名詞)で書き換えるとき,どのように書き換わるかは文章,談話の上でないと決定できない.例えば,下の(7),(8)の例は,この文だけでは「アップ」「勝利」の主語を特定することはできない.また,「アップ」や「勝利」が「する」なのか「した」なのかも定まらない.その一方で文章,談話の中で現れる場合,文章,談話の書き手,話し手がその言語の母語話者であり誠実に情報を伝えようとしている限り,それを読んだり聞いたりした母語話者が主語やテンスが何かで迷うことはまずない.(7),(8)を文章の中でみると「アップする」のは介護保険制度の改正に携わる人物で\footnote{社説内ではこの人物が誰かははっきりしない.しかし,社説内で法案の可否が話題となる場合,主語が何かは必ずしも重要でない.本稿では,主語が明確にならなくても母語話者は(7)を命題として理解するものと考える.},「勝利する」の主語は民主党推薦の候補であることがわかる.同時に,「アップ」は未来の出来事なので「アップする」,民主党の候補は実際には知事選に勝利していないので「勝利したこと」では不自然となり「勝利すること」が選ばれる.このように,名詞の書き換えは調査者が母語話者として文章を読んだときの理解に基づいて行われる.\begin{enumerate}\setcounter{enumi}{6}\item\underline{報酬アップ}は介護人材の確保と処遇改善が狙いだ。(2009/3/31毎日新聞)\itemしかし、民主党は\underline{千葉県知事選での勝利}を「政権交代への第一歩」にしたいと考えていた。(2009/3/30産経新聞)\end{enumerate}具体的には,下線部の名詞は手順2によって,それぞれ「介護報酬をアップする(こと)」「民主党推薦の候補が千葉県知事選で勝利する(こと)」と書き直される.\begin{description}\item[手順3]\gt被調査者に集まってもらい,各命題に対する心的態度を選択肢形式で回答してもらう.\end{description}以下,手順3の詳細を述べる.調査は,被調査者とのスケジュールを調整し,4回に分けて実施した.各作業では,被調査者2人もしくは3人に1つの部屋に集まってもらい,各人に1台ずつノートパソコンを割り当てる.次に,調査の主旨と回答の手順を書いた紙を配布し,それを調査者が15分かけて音読する.その内容を簡単に整理すると\begin{itemize}\item日本語文で表される情報には,事実情報以外にも書き手や話し手の希望,または書き手や話し手が何も判断,態度を示していない情報が存在することを解説する.\item各質問を例を用いて説明する.この際,書き手に関することは何もわからないという前提で回答するよう指示する(新聞の社説記事だということも伝えない).\item回答するのはあくまで書き手の心的態度であり,被調査者自身の知識や価値観に惑わされないよう注意を促す.\item各質問で書き手の心的態度を読み取ることができないときは最後の「わからない」に相当する選択肢を選ぶよう強調する.\item普段,新聞や雑誌を読むときと同じ感覚で文を読み,直観的に回答するようお願いする.\end{itemize}となる\footnote{配布した紙と回答画面の例をhttp://www.soc.titech.ac.jp/~sakano/modality/に掲載している.}.音読が終わった後,被調査者はパソコン画面に表示される質問(図3)に答える.画面には社説記事に載っている元の文とその中の命題を調査者が文の形に書き直したもの,そして質問が表示される.最初の質問に答えて「次へ」を押すと次の質問が表示され,再び回答するという作業の繰り返しとなる.被調査者は最初1時間回答した後,5分休憩を挟み,続けて40分回答する.回答中と休憩中に被調査者間で質問に関する情報のやり取りをすることは禁止した.以下,表2に各質問を掲載する.1つの命題に対する回答の流れは次のようになる.まず,質問1では,命題が発話時以前のものなら「事実かどうか」,後なら「将来事実となるかどうか」に対する書き手の事実認識を答える\footnote{発話時以前かどうかは調査者が事前に人手で分類している.}.回答が得られた271個の命題のうち,発話時以前のものは191個,発話時より後のものは80個である.質問1で4と回答された場合は質問2に進み,1と回答された場合は質問3に進む.質問2は質問1を補足する質問となっている.本来,判断保留なら質問1で3が選ばれるべきだが,伝聞の場合,問1で3が回答されない可能性が高いと考え,別途,質問2を用意した.質問3は既定的かどうかの区別を意図した質問だが,前述の通り本論文では考察の対象としない.\begin{table}[t]\caption{各質問の説明}\input{01table02.txt}\end{table}そして最後に,発話時点以前の命題であれば質問4,後であれば質問5に進む.ここでは,発話時以前なら叙実的なものとして価値判断の対象になり,発話時以後なら未来の命題として拘束判断の対象になるという前提を置いている.\subsection{一致度の評価方法}本論文では一致度の評価は,一致度によるアノテーションの評価をFleissの$\kappa$係数\cite{Article_08}によって行う.以下,Fleissの$\kappa$係数の前身であるCohenの$\kappa$係数\cite{Article_07}を概説した後,Fleissの$\kappa$係数について簡潔に述べる.Cohenの$\kappa$係数とは,同じ対象に対し同じ名義尺度で測定した2つのデータ間の一致度を,偶然による一致の可能性を排除して評価する指標である\cite{Article_07}.データが実際に一致した割合を$P(A)$,2つのデータが独立だった場合に偶然一致する割合を$P(E)$としたとき,Cohenの$\kappa$係数は次式で表される.\[\kappa=\frac{P(A)-P(E)}{1-P(E)}\]このP(E)によって偶然による一致の分が修正される.例として,同一の有権者の集合に対し,内閣を支持するかしないかの2択で,去年と今年の2回に渡り調査した状況を想定する.調査の結果,去年,今年とも全員から回答が得られ,去年の内閣支持率が0.8,今年の内閣支持率が0.7,去年と同じ回答をした人の割合が0.62だったとする.このとき,$P(A)$が0.62と6割以上であるにもかかわらず,P(E)の値も$0.8\times0.7+0.2\times0.3=0.62$であるためCohenの$\kappa$係数は0となる.Cohenの$\kappa$係数は$-1$から1の値を取り,0であれば2つのデータ間には偶然による一致しかないということになる.そして,Fleissの$\kappa$係数は,$\frac{P(A)-P(E)}{1-P(E)}$という計算式は変わらず,データが3つ以上の場合でも計算できるように$P(A)$と$P(E)$の計算方法を拡張したものである.P(E)を計算する際,データ間が独立という仮定に加え,データ間の等質性(本論文では被調査者間の等質性)の仮定も置いているのが特徴である.これら$\kappa$係数を評価する基準としては,$0\le\kappa\le0.2$が低い一致(pooragreement),$0.2<\kappa\le0.4$が軽度の一致(fair),$0.4<\kappa\le0.6$が中程度の一致(moderate),$0.6<\kappa\le0.8$が相当な一致(substantial),$0.8<\kappa\le1$がほとんど完全な一致(almostperfect)という目安が提示されているが\cite{Article_09,Book_24},この目安に客観的な根拠があるわけではない.あくまで参考程度に,0.2,0.4,0.6,0.8を1つの評価ラインとして考える.また,心的態度のアノテーションを行っている既存研究での$\kappa$係数も参考になると思われる.前述の「てほしい」に相当する拡張モダリティ\cite{Article_01}では,工学部の学生3名に対して調査を行い,学生間の一致度をCohenの$\kappa$係数で評価したところ,0.48,0.64,0.47\footnote{Cohenの$\kappa$係数は2名間の一致度しか測ることができないため,A,B,Cの3名の結果から,AB,AC,BCの3通り計算している.}という結果が得られている.また,モダリティ論に基づいてカテゴリを定めた方の拡張モダリティ\cite{Inproc_04}では,2名の専門家によるマニュアルに従った判断の$\kappa$係数(書かれていないがCohenと思われる)を全カテゴリで求めた平均が0.71となっている.\subsection{調査結果}最初に各細分類で実際に一致した数と割合{$P(A)$}を表3に示す.真偽判断系と拘束判断は3名以上一致する割合が80\%を超えており高い一致度のように見えるが,4.3で述べたように偶然一致する確率が考慮されていない.そこで,質問1と2を合わせた\footnote{質問1の選択肢で4が選ばれた場合,それを質問2の回答に置き換えている.}真偽判断系,質問4の価値判断,質問5の拘束判断についてFleissの$\kappa$係数\cite{Book_15}を表4に示す.最初に,表4の2者間の一致度において学校の違いの影響を見る.6パターンのうち学校が同じ者同士の$\kappa$係数は,真偽判断系では4,5番目,価値判断では1,6番目,拘束判断では3,5番目の大きさとなっており,学校が異なる回答者間の係数と比べ順位が高い傾向にあるとは言えない.よって,以後,学校間の違いは考慮せず,4名における$\kappa$係数のみを考察する.\begin{table}[t]\begin{minipage}[t]{.5\textwidth}\caption{回答が一致した命題数(括弧内は\%)}\input{01table03.txt}\end{minipage}\hfill\begin{minipage}[t]{.45\textwidth}\caption{モダリティの一致度(Fleissの$\kappa$係数)}\input{01table04.txt}\end{minipage}\end{table}4名の$\kappa$係数を見ると拘束判断が約0.70で既存研究\cite{Inproc_04}で示された0.71に近い値を示しているが,真偽判断系は約0.49,価値判断は約0.28と,0.71を大幅に下回っている.単純な比較はできないが\footnote{この0.71という値はモダリティ’ではなくモダリティの概念に基づいたアノテーションであり,かつ詳細なマニュアルに基づいたものなので単純比較はできない.現段階では,今後,意味論のモデルに基づいた他のアノテーションが行われた際に比較できるよう,階層意味論に基づいた調査結果の一致度を提示すること自体に意義があると考える.},真偽判断系と価値判断についてはもう1つの既存研究\cite{Article_01}の一致度と比較しても高いとは言えず,普遍性があると見なすことは難しい.以下,この点について考察する.真偽判断系については4.5で詳述するため,ここでは価値判断について論じる.本論文では,価値判断は本質的に母語話者にとって判断が難しい概念であると考える.そのことを示唆するものに選択肢3が挙げられる.3は,中右が例示している「不思議に思う」「奇異に感ずる」「おもしろいことに」「驚いたことに」といった,肯定的か否定的かがはっきりしない価値判断を想定して設けた選択肢だが,これが一致度を下げる要因となっている.4名の回答者のうち1人以上が3を選んでいる命題を除外して$\kappa$係数を求めると0.45と,0.28から大幅に上昇する.このことから,選択肢3で雑多な価値判断をまとめて処理しようとしたことが一致度を下げている一因になっており,少なくとも中右本来の規定のままではアノテーションの基準として適切とは言えないことが予想される.一致度を上げるために,価値判断を「正しさ」「面白さ」といった判断基準ごとに更に細分類しアノテーションする必要があると思われる.\subsection{真偽判断系で不一致を引き起こす要因と対策}真偽判断系は,価値判断と異なりその判断基準が真偽に限られるにもかかわらず$\kappa$係数が拘束判断と比べて低い.前述の医学,生物学系テキストへのアノテーションでも扱われているように,真偽判断系は自然言語処理の分野で需要の高い情報である.もしアノテーションが難しいのであれば階層意味論の基準としての妥当性が疑われることになる.そこで,この節では不一致の要因とそれを解消するための方法について検討する.まずは,13の「懸念も消えない」や14の「いけない」のような,述語が書き手もしくは他者の心的態度を表す事例が一致度を下げていると考えられる.書き手や他者の心的態度を表す述語の例を表5に示す.\begin{enumerate}\setcounter{enumi}{12}\item\underline{西松建設の違法献金事件が自民党議員側に波及する{\gt懸念も消えない}}。(2009/3/30読売新聞)\item\underline{\mbox{AIGや金融界に対する批判が{\gtいけない}}}というのではない。(2009/3/30毎日新聞)\end{enumerate}全271個の命題を,述語が書き手や他者の心的態度を表す52個と,残りの219個とに分けて$\kappa$係数を計算すると,前者が0.26,後者が0.53と大きな差がみられる.\begin{table}[b]\caption{心的態度を表す述語}\input{01table05.txt}\end{table}4.2の手順2では品詞のみで述語を決定するため,述語が心的態度を表しているかどうかに関係なく13,14の下線部も命題として取り出される.しかし,論理学の観点からは,これらの真偽を問うことができるのかどうかは非常に難しい問題である.心的態度を適切に扱うための体系が様相論理の分野でいくつか提案されているが\cite{Book_17},まだ標準的な体系が確立されたとは言い難い.論理学者にとっても扱いが難しい問題に対し,母語話者間で一貫した回答が得られることは期待できないだろう.よって,13,14の下線部のように述語が心的態度を表す場合,真偽判断のアノテーションの対象から外すことが適当だと考える.2つ目に取り上げるのは,命題に後続する表現が他者の心的態度または条件\footnote{ここでは,従属節が主節の命題が真であるための条件を表す場合のみならず,主節が従属節の命題が真であるための条件を表す場合も含む.}を表す事例である.15,16の「考えを示した」「歴史的課題だ」は他者の心的態度,17,18の「れば」「には」は条件の例となる.\begin{itemize}\item他者の心的態度\begin{enumerate}\setcounter{enumi}{14}\item鳩山氏は\underline{衆院の解散直前に党独自で行う選挙情勢調査を見極めて最終判断する}{\gt考えを示した}。(2009/3/31毎日新聞)\item\underline{出先機関改革}は中央省庁再編で積み残された{\gt歴史的課題だ}。(2009/3/31読売新聞)\end{enumerate}\item条件\begin{enumerate}\setcounter{enumi}{16}\item\underline{政治への国民の信頼がなけ}{\gtれば}、今の経済状況は乗り切れない。(2009/3/31毎日新聞)\item\underline{年末の改革大綱で具体的な成果を上げる}{\gtには}、政府は早い段階から、周到に調整を進める必要がある。(2009/3/31読売新聞)\end{enumerate}\end{itemize}他者の心的態度や条件自体は確実性判断の既存研究でも扱われているが\cite{Article_02,Article_06},今回の調査結果は,これらの表現が真偽判断系の一致度を下げることを示している.271個の命題のうち,これらの表現が後続する38個では$\kappa$係数が0.27,残りの233個では0.50となる.他者の心的態度や条件が後続する場合,書き手の心的態度が明示的に表されていない.そのため,本来であれば選択肢4が選ばれるべきところだが,実際には書き手の事実認識を類推してしまう場合があると思われる.同様に「と言われている」のような伝聞を表す表現が後続する場合も一致度が下がる.先ほどの38個の命題に伝聞も加えた52個では$\kappa$係数が0.26,残りの219個では0.54となる.伝聞情報でも書き手の心的態度が明示されていないという点では共通し,同様の結果を引き起こすと思われる.以上をまとめると,4.2の手順2で特定された命題のうち\begin{itemize}\item述語が書き手または他者の心的態度を表すもの\item後続する表現が他者の心的態度や条件,伝聞を表すもの\end{itemize}については真偽判断をアノテーションする対象から外すべきと考える.両方を外した残りの命題175個で$\kappa$係数を求めると,0.58と,中程度の一致と相当の一致の境界となる0.6に近い値を示す.\subsection{意味論上の規定を用いることの一致度への影響}階層意味論のような意味論上の規定をアノテーションの基準に採用する狙いとして,モダリティや主観述語といった客観的な指標が明示されない心的態度も母語話者の判断によって特定することが挙げられる.このとき,客観的な指標がないと高い一致度が得られないのであれば,この狙いを達成することはできない.そこで,4.2の手順2で特定した命題を「(a)『主節』および『後続する表現が語彙的に心的態度を表す命題』」と「(b)それ以外の命題」とに分け,真偽判断系,価値判断,拘束判断の$\kappa$係数を求め比較する\footnote{語彙的に心的態度を表す表現とは,表5で示すような表現のことを指す.このとき,各カテゴリの$\kappa$係数を求めるときはそのカテゴリに該当する表現のみを(a)に含める.例えば,真偽判断系の$\kappa$係数を求めるときに係り先が拘束判断を表していても(a)ではなく(b)とする.}.なお,真偽判断系に関しては4.5で絞り込んだ175個の命題を対象に計算する.結果を表6に示す.真偽判断系と価値判断では(a)と(b)で一致度にほとんど差が見られない一方で,拘束判断では(a)の0.89の方が(b)の0.53と比べて極めて高い値を示している.このことから拘束判断が他の判断と比べて一致度が高いのは,モダリティや主観述語が示されている場合の一致度が極めて高いためだと考えられる.その一方で,(b)でも真偽判断系,拘束判断の両方で0.5以上と中程度の一致度を示している.モダリティや主観述語で明示的に心的態度が示されていなくても,母語話者は一定の割合で一致した理解を得ていることが伺える.\begin{table}[b]\vspace{-0.5\baselineskip}\caption{形式上の特徴の有無に応じた一致度の違い(Fleissの$\kappa$係数,括弧内は該当命題数)}\input{01table06.txt}\vspace{-0.5\baselineskip}\end{table}ここで,(b)のうち4名全員の回答が一致しているもの(真偽判断系105個中80個,価値判断110個中35個,拘束判断47個中24個)の観察を通して,モダリティや主観述語が存在しなくても一致する要因について検討する.まず真偽判断系だが,最も多い事例として,主節のモダリティの統語的な作用域に従属節の命題が含まれているものを取り上げる.この事例は29個存在する.例として19を示す.\begin{enumerate}\setcounter{enumi}{18}\itemところが、\underline{閣僚折衝さえ開かれず}、中身の乏しい工程表になってしまった。(2009/3/31読売新聞)\end{enumerate}日本語学では,主節のモダリティの作用域に含まれるかどうかは従属節の種類に依存するとされている\cite{Article_10}.例えば,19のような連用節は独立度が低く作用域に含まれるが,ガ節は独立度が高く主節からの影響を受けない.従属節の独立度には,従属節の内部に補足語や付加語,モダリティの文法形式といった成分を取り得るかによって3種類(主節を加えると4種類)の分類が存在する\cite{Book_10}.19のような事例の心的態度を解析する場合,連用節,ガ節といった従属節の種類,または南(1993)による4分類が素性の1つとして有効だと考えられる.次に,命題が文の前提(presupposition)\cite{Book_07}を表す事例が19個存在する.前提となる命題は読み手に真として受け取られる傾向があると思われる.既存研究で取り上げているのは20のように命題が従属節のものだが,今回のデータでは,19個のうち16個が21のように命題が名詞の例だった.今後,母語話者が名詞の命題を前提だと認識する条件を明らかにすることが求められる.\begin{enumerate}\setcounter{enumi}{19}\item朝日新聞の世論調査で、\underline{\mbox{86%}もの人が小沢氏の説明では「不十分だ」と答えた}のは当然のことだろう。(2009/3/31朝日新聞)\item\underline{森田氏の大量得票}は政党全体への不信感の裏返しといってもいいのだ。(2009/3/31毎日新聞)\end{enumerate}以上,真偽判断系の事例は「従属節の独立度」や「前提」のように文法論の概念で解釈可能なものが多く見られる.対して価値判断と真偽判断の(b)は原則,語用論的な側面を考慮する必要があると考えられる.最初に取り上げるのは,語彙的には心的態度ではないが,語用論的側面まで考慮すると後続する表現が心的態度を表す事例である.この事例は,価値判断では4個,拘束判断では8個存在する.22に価値判断,23と24に拘束判断の例を示す.22の「役立たない」や24の「言行不一致が問われよう」は,客観的な事実を述べつつ,否定的な印象を与える表現である.このとき心的態度としての側面が強調されるかどうかは文脈に大きく左右される.一方,23の「結びつけたい」は,「テストの結果を比較する」ことが「教育施策や学習指導の改善」に繋がることを望んでいることからの推論で,「改善」を望んでいるという帰結が得られると思われる.ただし,「テストの結果を比較する」以外の方法では「改善」を望んでいない可能性もあり,あくまで文脈に左右される解釈と言える.\begin{enumerate}\setcounter{enumi}{21}\item公開が原則の国立公文書館という組織はあっても、\underline{そこへ移される文書が極めて少ない}から、あまり{\gt役立たない}。(2009/3/31朝日新聞)\itemテストの結果を比較し、\underline{教育施策や学習指導の改善}に{\gt結びつけたい}。(2009/3/30読売新聞)\item\underline{与党が出先機関改革をすべて衆院選後に先送りする}ようでは、{\gt言行不一致が問われよう}。(2009/3/31読売新聞)\end{enumerate}また,価値判断では選択肢4の「読み取ることはできない」での一致が26個,拘束判断では後者では選択肢3の「わからない」での一致が15個と,それぞれ半数以上を占めている.直感的には,価値判断や拘束判断を表す表現がまったくないときに「わからない」と判断すると思われる.ただし,価値判断や拘束判断を表し得る表現の有無は,モダリティ,主観述語の他に22〜24のような語用論的側面も考慮しなければならない.よって,「わからない」と判断するための基準も語彙,文法上の特徴だけにはとどまらないと思われる.以上,今回の調査によって,(b)でも真偽判断系,拘束判断については,ある程度,一貫性のあるアノテーションが可能なことが示された.とはいえ,アノテーションの過程はできる限りマニュアル化できた方が望ましい.これまでの文法論では扱われていない新たな語彙,統語的な特徴を明らかにし客観性を高めることも求められよう.今後,(b)の事例を数多く含んだ大規模なタグ付きコーパスを作成し,多変量解析によって語彙,統語的な特徴を推定,検証することが望まれる.
\section{おわりに}
本論文では,まず,モダリティ論と自然言語処理とではモダリティと心的態度の扱いに相違点があることを指摘した.前者は心的態度という規定が必ずしも前提ではなく,文論の枠内で形式と意味との相関を捉えることが主旨である一方,後者は命題に対する心的態度を特定することが目的となる.その上で本論文では,心的態度をアノテーションする基準として階層意味論で提示されているモダリティ’の細分類を用いることを検討した.階層意味論のモダリティ’は書き手の発話時点の心的態度であると定義されており,対象が文法形式に限定されない.よって,心的態度をアノテーションするという目的に適う概念と言える.ただし,階層意味論では日本語の事例を用いた研究が少なく普遍性の実証が十分ではない.そこで本論文では,日本語を母語とする大学の学部生に命題に対する書き手の心的態度を回答してもらい母語話者間の一致度を調査することで普遍性を評価した.その結果,拘束判断は0.70と高い$\kappa$係数を示し,真偽判断系は,i)述語が心的態度を表す場合と,ii)後続表現が他者の心的態度や条件節,伝聞である場合,アノテーションの対象から外すことで0.58の値を示した.一方,価値判断は0.28と相対的に低い.中右が規定する価値判断には「面白さ」「奇妙さ」など複数の判断基準が混在しており,概念を判断基準ごとに細分化する必要性があると考えられる.また,階層意味論に基づくアノテーションでは,語彙,文法形式によって明示的に心的態度が表されない命題も対象となる.このとき明示的な指標がない事例に対して一貫性のあるアノテーションできないのであれば階層意味論を用いる意義が損なわれる.そこで明示的な指標がない事例に限定したときの一致度についても検討を行った.その結果,明示されていない事例でも真偽判断系と拘束判断については0.5以上の$\kappa$係数を示し,母語話者は明示的な指標がない事例でも一定の一致度を持ってアノテーションできることが確認された.なお,今回の調査は10個の社説記事から命題を抜き出したため,回答者が同じテキスト内の命題に触れる頻度が多く,ランダムに並び替えたとはいえ,文脈の情報を排除しきれたとは言い難いものとなってしまった.さらに社説の内容も日本の政治に関わるもので,被調査者が少なからず知識を持っていると予想されるため,被調査者間の知識の共通点や相違点が回答に影響を与えた可能性もある.今後,さらなる調査を行う際には,語用論的な側面のコントロールをより徹底して行うことが求められる.\acknowledgment数多くの有益な助言を頂いた査読者様,調査に協力して頂いた東京工業大学と一橋大学の学生10名,およびプレ調査に協力して頂いた坂野研究室の後輩2名に感謝を申し上げます.\nocite{*}\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chomsky}{Chomsky}{1957}]{Book_22}Chomsky,N.\BBOP1957\BBCP.\newblock{\BemSyntacticStructures}.\newblockMouton.\bibitem[\protect\BCAY{Cohen}{Cohen}{1960}]{Article_07}Cohen,J.\BBOP1960\BBCP.\newblock\BBOQAcoefficientofagreementfornominalscales.\BBCQ\\newblock{\BemEducationalandPsychologicalMeasurement},{\Bbf20}(1),\mbox{\BPGS\37--46}.\bibitem[\protect\BCAY{江口\JBA松吉\JBA佐尾\JBA乾\JBA松本}{江口\Jetal}{2010}]{Inproc_04}江口萌\JBA松吉俊\JBA佐尾ちとせ\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblockモダリティ,真偽情報,価値情報を統合した拡張モダリティ解析.\\newblock\Jem{言語処理学会第16回年次大会論文集},\mbox{\BPGS\852--855}.\bibitem[\protect\BCAY{Fillmore}{Fillmore}{1968}]{Inbook_01}Fillmore,C.~J.\BBOP1968\BBCP.\newblock{\BemUniversalsinLinguisticTheory},\BCH\Thecaseforcase,\mbox{\BPGS\1--88}.\newblockHolt,Rinehart\&WinstonofCanadaLtd.\bibitem[\protect\BCAY{Fleiss}{Fleiss}{1971}]{Article_08}Fleiss,J.~L.\BBOP1971\BBCP.\newblock\BBOQMeasuringnominalscaleagreementamongmanyraters.\BBCQ\\newblock{\BemPsychologicalBulletin},{\Bbf76}(5),\mbox{\BPGS\378--382}.\bibitem[\protect\BCAY{花園}{花園}{1999}]{Article_05}花園悟\BBOP1999\BBCP.\newblock条件形複合用言形式の認定.\\newblock\Jem{國語學},{\Bbf197}(1),\mbox{\BPGS\39--53}.\bibitem[\protect\BCAY{乾\JBA井佐原}{乾\JBA井佐原}{2002}]{Article_01}乾裕子\JBA井佐原均\BBOP2002\BBCP.\newblock拡張モダリティの提案−自由回答から回答者の意図を判定するために−.\\newblock\Jem{電子情報通信学会技術研究報告.NLC,言語理解とコミュニケーション},{\Bbf102}(414),\mbox{\BPGS\31--36}.\bibitem[\protect\BCAY{川添\JBA齊藤\JBA片岡\JBA戸次}{川添\Jetal}{2009}]{Article_02}川添愛\JBA齊藤学\JBA片岡喜代子\JBA戸次大介\BBOP2009\BBCP.\newblock確実性判断に関わる意味的文脈アノテーションの試み.\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf2009}(2),\mbox{\BPGS\77--84}.\bibitem[\protect\BCAY{Landis\BBA\Koch}{Landis\BBA\Koch}{1977}]{Article_09}Landis,J.~R.\BBACOMMA\\BBA\Koch,G.~G.\BBOP1977\BBCP.\newblock\BBOQThemeasurementofobserveragreementforcategoricaldata.\BBCQ\\newblock{\BemBiometrics},{\Bbf33},\mbox{\BPGS\159--174}.\bibitem[\protect\BCAY{Light,Qiu,\BBA\Srinivasan}{Lightet~al.}{2004}]{Inproc_01}Light,M.,Qiu,X.~Y.,\BBA\Srinivasan,P.\BBOP2004\BBCP.\newblock\BBOQTheLanguageofBioscience:FactsandSpeculationsandandStatementsinBetween.\BBCQ\\newblockIn{\BemHLT-NAACL2004Workshop:BioLINK2004andLinkingBiologicalLiteratureandOntologiesandDatabases},\mbox{\BPGS\17--24}.\bibitem[\protect\BCAY{牧野}{牧野}{2009}]{Article_06}牧野武則\BBOP2009\BBCP.\newblock日本語の主観表現の機能的構造:客観文と主観文(日本語処理・文法).\\newblock\Jem{情報処理学会研究報告.自然言語処理研究会報告},{\Bbf2009}(36),\mbox{\BPGS\7--14}.\bibitem[\protect\BCAY{Marcus,Santorini,\BBA\Marcinkiewicz}{Marcuset~al.}{1993}]{Article_03}Marcus,M.~P.,Santorini,B.,\BBA\Marcinkiewicz,M.~A.\BBOP1993\BBCP.\newblock\BBOQBuildingalargeannotatedcorpusofEnglish:ThePennTreebank.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\313--330}.\bibitem[\protect\BCAY{益岡}{益岡}{1991}]{Book_05}益岡隆志\BBOP1991\BBCP.\newblock\Jem{モダリティの文法}.\newblockくろしお出版.\bibitem[\protect\BCAY{益岡}{益岡}{2007}]{Book_08}益岡隆志\BBOP2007\BBCP.\newblock\Jem{日本語モダリティ探究}.\newblockくろしお出版.\bibitem[\protect\BCAY{益岡\JBA田窪}{益岡\JBA田窪}{1992}]{Book_25}益岡隆志\JBA田窪行則\BBOP1992\BBCP.\newblock\Jem{基礎日本語文法—改訂版—}.\newblockくろしお出版.\bibitem[\protect\BCAY{南}{南}{1974}]{Book_20}南不二男\BBOP1974\BBCP.\newblock\Jem{現代日本語の構造}.\newblock大修館書店.\bibitem[\protect\BCAY{南}{南}{1993}]{Book_10}南不二男\BBOP1993\BBCP.\newblock\Jem{現代日本語文法の輪郭}.\newblock大修館書店.\bibitem[\protect\BCAY{宮崎\JBA安達\JBA野田\JBA高梨}{宮崎\Jetal}{2002}]{Book_01}宮崎和人\JBA安達太郎\JBA野田晴美\JBA高梨信夫\BBOP2002\BBCP.\newblock\Jem{新日本語文法選書4モダリティ}.\newblockくろしお出版.\bibitem[\protect\BCAY{中右}{中右}{1994}]{Book_13}中右実\BBOP1994\BBCP.\newblock\Jem{認知意味論の原理}.\newblock大修館書店.\bibitem[\protect\BCAY{Narrog}{Narrog}{2005}]{Article_04}Narrog,H.\BBOP2005\BBCP.\newblock\BBOQOndefiningmodalityagain.\BBCQ\\newblock{\BemLanguageSciences},{\Bbf27}(2),\mbox{\BPGS\165--192}.\bibitem[\protect\BCAY{Narrog}{Narrog}{2009}]{Book_11}Narrog,H.\BBOP2009\BBCP.\newblock{\BemModalityinJapanese:TheLayeredStructureoftheClauseandHierarchiesofFunctionalCategories(StudiesinLanguageCompanionSeries)}.\newblockJohnBenjaminsPublishingCompany.\bibitem[\protect\BCAY{日本語記述文法研究会}{日本語記述文法研究会}{2003}]{Book_04}日本語記述文法研究会(編集)\BBOP2003\BBCP.\newblock\Jem{現代日本語文法〈4〉第8部・モダリティ}.\newblockくろしお出版.\bibitem[\protect\BCAY{尾上}{尾上}{2001}]{Book_06}尾上圭介\BBOP2001\BBCP.\newblock\Jem{文法と意味I}.\newblockくろしお出版.\bibitem[\protect\BCAY{Palmer}{Palmer}{1986}]{Book_21}Palmer,F.\BBOP1986\BBCP.\newblock{\BemMoodandModality}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Palmer}{Palmer}{2001}]{Book_07}Palmer,F.\BBOP2001\BBCP.\newblock{\BemMoodandModalitySecondedition}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Portner}{Portner}{2009}]{Book_17}Portner,P.\BBOP2009\BBCP.\newblock{\BemModality}.\newblockOxfordUniversityPress.\bibitem[\protect\BCAY{Rietveld\BBA\vanHout}{Rietveld\BBA\vanHout}{1993}]{Book_24}Rietveld,T.\BBACOMMA\\BBA\vanHout,R.\BBOP1993\BBCP.\newblock{\BemStatisticalTechniquesfortheStudyofLanguageandLanguageBehaviour}.\newblockMoutondeGruyter.\bibitem[\protect\BCAY{Santorini}{Santorini}{1990}]{Inproc_03}Santorini,B.\BBOP1990\BBCP.\newblock\BBOQPart-of-SpeechTaggingGuidelinesforthePennTreebankProject(3rdRevision).\BBCQ\\newblockIn{\BemUniversityofPennsylvaniaDepartmentofComputerandInformationScienceTechnicalReportNo.MS-CIS-90-47}.\bibitem[\protect\BCAY{澤田}{澤田}{2006}]{Book_12}澤田治美\BBOP2006\BBCP.\newblock\Jem{モダリティ}.\newblock開拓社.\bibitem[\protect\BCAY{Siegel\BBA\Jr.}{Siegel\BBA\Jr.}{1988}]{Book_15}Siegel,S.\BBACOMMA\\BBA\Jr.,N.J.~C.\BBOP1988\BBCP.\newblock{\BemNonparametricStatisticsforTheBehavioralSciences,Seconded.}\newblockMcGraw-HillBookCo.\bibitem[\protect\BCAY{Szarvas,Vincze,Farkas,\BBA\Csirik}{Szarvaset~al.}{2008}]{Inproc_02}Szarvas,G.,Vincze,V.,Farkas,R.,\BBA\Csirik,J.\BBOP2008\BBCP.\newblock\BBOQTheBioScopeCorpus:AnnotationforNegationandUncertaintyandTheirScopeinBiomedicalTexts.\BBCQ\\newblockIn{\BemtheWorkshoponCurrentTrendsinBiomedicalNaturalLanguageProcessing},\mbox{\BPGS\38--45}.\bibitem[\protect\BCAY{田窪}{田窪}{1987}]{Article_10}田窪行則\BBOP1987\BBCP.\newblock統語構造と文脈情報.\\newblock\Jem{日本語学},{\Bbf6}(5),\mbox{\BPGS\37--48}.\bibitem[\protect\BCAY{時枝}{時枝}{1941}]{Book_19}時枝誠記\BBOP1941\BBCP.\newblock\Jem{國語學原論}.\newblock岩波書店.\bibitem[\protect\BCAY{渡辺}{渡辺}{1974}]{Book_23}渡辺実\BBOP1974\BBCP.\newblock\Jem{国語文法論}.\newblock笠間書院.\bibitem[\protect\BCAY{渡辺}{渡辺}{1996}]{Book_18}渡辺実\BBOP1996\BBCP.\newblock\Jem{日本語概説}.\newblock岩波書店.\end{thebibliography}\section*{付録:調査で得られた回答の集計データ}調査して得られた4つのデータのクロス集計表を示す.表の項目にあるx-yは回答者xが選択肢yを選んだことを示す.回答者1,2は東工大生,3,4は一橋大生の回答である.命題ごとに同じ大学の5人のうち2人がランダムに選ばれているため,実際には「各回答者x」の回答には複数の被調査者の回答が混在している.なお,真偽判断系については,質問1で選択肢4を選んだもののうち質問2で1を選んだ場合は4,2を選んだ場合は5としている.また,合計が0の行と列は省略している.\begin{table}[b]\caption{真偽判断系のクロス表}\input{01table07.txt}\vspace{1\baselineskip}\end{table}\begin{table}[b]\caption{真偽判断系のクロス表(4.5で絞り込んだ命題)}\input{01table08.txt}\end{table}\clearpage\begin{table}[t]\caption{価値判断のクロス表}\input{01table09.txt}\vspace{1\baselineskip}\end{table}\begin{table}[t]\caption{拘束判断のクロス表}\input{01table10.txt}\end{table}\begin{biography}\bioauthor{小橋洋平}{2005年東京工業大学大学院社会理工学研究科博士前期課程修了.同大学博士後期課程を満期退学後,筑波大学人文社会科学研究科非常勤研究員.現在に至る.修士(工学).心的態度に着目した文章解析および談話分析への応用に関心がある.日本語文法学会,日本計画行政学会各会員.}\pagebreak\bioauthor{坂野達郎}{1987年東京工業大学総合理工学研究科博士課程修了.博士(工学).同理工学研究科社会工学科助手,日本社会事業大学助教授を経て,1996年より東京工業大学社会理工学研究科准教授.現在に至る.専門は公共システムデザイン.日本計画行政学会,産業組織心理学会,都市計画学会各会員.}\end{biography}\biodate\end{document}
| |
V17N04-07 | \section{はじめに}
\label{sect_intro}計算機の急速な普及に伴い,様々な自然言語処理システムが一般に用いられるようになっている.中でも,日本語の仮名漢字変換は最も多く利用されるシステムの1つである.仮名漢字変換の使いやすさは変換精度に大きく依存するため,常に高精度で変換を行うことが求められる.近年では,変換精度の向上とシステム保守の効率化を両立させるために,確率的言語モデルに基づく変換方式である統計的仮名漢字変換\cite{確率的モデルによる仮名漢字変換}が広まりつつある.変換精度を向上させる上で問題となるのは,多くの言語処理システムと同様,未知語の取り扱いである.統計的仮名漢字変換では,文脈情報を反映するための単語$n$-gramモデル,入力である読みと出力である単語表記の対応を取るための仮名漢字モデルの2つのモデルによって出力文候補の生成確率を計算し,候補を確率の降順に提示するが,未知語(単語$n$-gramモデルの語彙に含まれない単語)を含む候補の生成はできない.この問題に対処して変換精度を向上させる一般的な方法は,仮名漢字変換の利用対象分野における未知語の読み・文脈情報を用いたモデルの改善である.仮名漢字変換の利用対象となる分野は多岐に渡っており,未知語の読み・文脈情報を含む対象分野の学習コーパスがあらかじめ利用可能であるという状況は少ない.このため,情報の付与されていない対象分野のテキストに必要な情報を付与して学習コーパスを新たに作成するということが行われる.しかしながら,未知語の中には,読みや単語境界をテキストの表層情報から推定することが困難な単語が少なからず存在する.このような場合には,対象分野の学習コーパスを作成するためにその分野についての知識を有する作業者が必要となるなど,コストの面で問題が多い.上記の問題を解決するために,本論文では,テキストと内容の類似した音声を認識することで未知語の読み・文脈情報を単語とその読みの組として自動獲得し,統計的仮名漢字変換の精度を向上させる手法を提案する.以下に手法の概略を述べる.まず,情報の付与されていない対象分野のテキストから,未知語の出現を考慮した単語分割コーパスである疑似確率的単語分割コーパスを作成し,未知語候補の抽出を行う.次に,疑似確率的単語分割コーパスから音声認識のための言語モデルを構築するとともに,未知語候補の読みを複数推定・列挙し,発音辞書を作成する.その後,言語モデルと発音辞書を用いて対象分野の音声を認識し,音声認識結果から単語と読みの組の列を獲得する.最後に,獲得した単語と読みの組の列を統計的仮名漢字変換の学習コーパスに追加して言語モデルと仮名漢字モデルを更新する.実験では,統計的仮名漢字変換のモデル構築に用いる一般分野のコーパスに,獲得した未知語の読み・文脈情報を追加し,モデルを再構築することで変換精度が向上することを確認した.本論文で提案する枠組みは,対象分野のテキストと音声の自動収集が可能であるという前提のもとで,未知語に対して頑健なモデルを構築することができるため,統計的仮名漢字変換の効率的かつ継続的な精度向上に有効である.
\section{単語$n$-gramモデルとその応用}
\label{sect2_LM}確率的言語モデルとは,任意の記号列\footnote{ここで述べる「記号」は処理単位としての記号であり,文字や単語,品詞など様々なものを考えることができる.}に対して,その記号列がある自然言語から生成された確率を計算する枠組みを与えるためのモデルである\cite{確率的言語モデル}.本節では,最も一般的な確率的言語モデルの1つである単語$n$-gramモデルとその応用について述べる.\subsection{単語$n$-gramモデル}\label{subsect:W-ngram}本項では,確率的言語モデルとして広く用いられる単語$n$-gramモデルならびにモデルパラメータの推定について述べる.単語$n$-gramモデルは,文を単語列$\Bdma{w}=\Conc{w}{h}$とみなし,単語の生起を($n-1$)重マルコフ過程で近似したモデルである.すなわち,単語$n$-gramモデルにおいて,ある時点での単語$w_{i}$の生起は直前の$(n-1)$単語に依存する.ここで,単語列$\Bdma{w}$の生成確率$M_{w,n}(\Bdma{w})$は以下の式で与えられる.\[M_{w,n}(\Bdma{w})=\displaystyle{\prod_{i=1}^{h+1}P(w_{i}|\Bdma{w}_{i-n+1}^{i-1})}\]この式で,$w_{i}\;(i\leq0)$と$w_{h+1}$はそれぞれ文頭と文末を表す特別な記号である.言語モデル構築の際には,学習コーパス内で観測されたデータの生じる確率を最大にするように最尤推定法でモデルパラメータを決定することが一般的である.最尤推定で単語$n$-gramモデルのパラメータ推定を行う場合は,あらかじめ単語分割されているコーパス内に出現する単語$n$-gramの頻度を計数し,以下の式によって単語$n$-gramの確率を求める.\begin{align}\label{equation:para1}&\qquad\qquad&P(w_i)&=\cfrac{f(w_i)}{f(\cdot)}&(\text{if}\quadn=1)&\qquad\qquad&\\\label{equation:para2}&&P(w_{i}|\Bdma{w}_{i-n+1}^{i-1})&=\cfrac{f(\Bdma{w}_{i-n+1}^i)}{f(\Bdma{w}_{i-n+1}^{i-1})}&(\text{if}\quadn>1)&&\end{align}式(\ref{equation:para1})において,$f(w_i)$はコーパス内の単語$w_i$の出現頻度(1-gram頻度)を表し,$f(\cdot)$はコーパス内における全ての単語の出現頻度(0-gram頻度)を表す.式(\ref{equation:para2})において,$f(\Bdma{w}_{i-n+1}^i)$はコーパス内における連続する$n$単語の組の出現頻度($n$-gram頻度)を表す.ここで,未知語を含む単語列の生成確率を単語$n$-gramモデルで計算する場合を考える.未知語を含む単語列の生成確率が0となることを防ぐため,未知語を表す特別な記号$\UW$を用意して,モデル構築の際に他の語彙エントリと同様に0より大きい確率を与えておく.未知語を予測するには,まず単語$n$-gramモデルにより$\UW$を予測し,さらにその表記(文字列)$\Bdma{x}$を以下の文字$n$-gramモデルにより予測する.\[M_{x,n}(\Bdma{x})=\prod_{i=1}^{h'+1}P(x_{i}|\Bdma{x}_{i-n+1}^{i-1})\]ここで$x_{i}\;(i\leq0)$と$x_{h'+1}$は,それぞれ語頭と語末を表す特別な記号である.本項で述べた$n$-gramモデルの応用として,文献\cite{統計的言語モデルとN-best探索を用いた日本語形態素解析法}では日本語や中国語のように分かち書きされない言語に対する形態素解析器を提案している.また,文献\cite{N-gramモデルを用いた音声合成のための読み及びアクセントの同時推定}では,文献\cite{統計的言語モデルとN-best探索を用いた日本語形態素解析法}で提案された手法の拡張として,式(\ref{equation:para1})(\ref{equation:para2})における$w_i$を単語,読み,アクセント,品詞の4つ組に置き換えた$n$-gramモデルによってテキストの読みとアクセントの推定を行うシステムを提案している.\subsection{統計的仮名漢字変換}\label{subsect:KKC}本項では,\cite{確率的モデルによる仮名漢字変換}で提案されている確率的モデルを用いた統計的仮名漢字変換について述べる.日本語の仮名漢字変換システムは,計算機のキーボードからの入力記号列\footnote{入力記号列の記号とは,キーボードから入力可能なラテン文字,記号,仮名文字を表す.}$\Bdma{z}$を仮名漢字混じり文である文字列$\Bdma{x}$に変換する.ここでは,出力を文字列$\Bdma{x}$とする代わりに単語列$\Bdma{w}$とし,入力記号列$\Bdma{z}$に対応する候補$\Bdma{w}$を以下に示す事後確率$P(\Bdma{w}|\Bdma{z})$が大きいものから順に列挙する.\begin{equation}P(\Bdma{w}|\Bdma{z})=\cfrac{P(\Bdma{z}|\Bdma{w})P(\Bdma{w})}{P(\Bdma{z})}\end{equation}最尤の変換結果$\hat{\Bdma{w}}$は,$P(\Bdma{w}|\Bdma{z})$をベイズの定理により以下のように変形することで求めることができる.\begin{equation}\label{equation:KKC}\hat{\Bdma{w}}=\argmax_{\Bdma{w}}P(\Bdma{z}|\Bdma{w})P(\Bdma{w})\end{equation}式(\ref{equation:KKC})において,後半の$P(\Bdma{w})$は言語モデルであり,\ref{subsect:W-ngram}節で述べた単語$n$-gramモデルを用いることができる.前半の$P(\Bdma{z}|\Bdma{w})$は確率的仮名漢字モデルと呼ばれ,単語列$\Bdma{w}$が与えられた際の入力記号列の生成確率を表す.ここで述べている変換モデルでは出力を文字列$\Bdma{x}$ではなく単語列$\Bdma{w}$とみなしているため,単語と入力記号列との対応関係がそれぞれ独立であると仮定することで$P(\Bdma{z}|\Bdma{w})$は以下の式で表される.\begin{equation}\label{equation:PMg}P(\Bdma{z}|\Bdma{w})=\prod_{i=1}^{h}P(z_{i}|w_{i})\end{equation}ここで,部分入力記号列$z_{i}$は単語$w_{i}$に対応する入力記号列であり,全体の入力記号列は$\Bdma{z}=\Conc{z}{h}$となる.仮名漢字モデルのパラメータ推定には,単語ごとに入力記号列が付与されたコーパスを用い,式(\ref{equation:PMg})における確率$P(z_{i}|w_{i})$の値は,以下の式によって計算される.\begin{equation}\label{equ_param_PM}P(z_{i}|w_{i})=\frac{f(z_{i},\;w_{i})}{f(w_{i})}\end{equation}ここで$f(z_{i},\;w_{i})$は単語と読みの組の出現頻度であり,$f(w_{i})$は単語出現頻度である.\subsection{確率的単語分割コーパス}\label{subsection:SSC}$n$-gramモデルの性能はパラメータ学習のためのコーパスに大きく依存する.しかし,決定的な単語分割を行うコーパスを単語$n$-gramモデルのパラメータ推定に用いる場合,分割誤りによって未知語の出現頻度が0となっている可能性がある.このようなコーパスから構築される単語$n$-gramモデルは未知語に対する頑健性に欠けるため,本項では,確率的単語分割コーパス並びにその近似である疑似確率的単語分割コーパス\cite{擬似確率的単語分割コーパスによる言語モデルの改良}の枠組みを用いてこの問題に対処する方法を述べる.\subsubsection{確率的単語分割コーパスを用いた$n$-gram確率の推定}\label{subsubsect:WBP}日本語の単語分割は,入力文における各文字間に単語境界があるかどうかを決定する問題とみなせる.入力となるコーパスを長さ$n_r$の文字列$\Bdma{x}_1^{n_r}=\Conc{x}{n_r}$としたとき,確率的単語分割コーパスは隣接する2文字$x_{i}$と$x_{i+1}$の間に単語境界確率$P_{i}$を与えたものとして定義される.ここでは,確率的単語分割コーパスを作成するために最大エントロピーモデルを用いて単語境界確率の推定を行う\cite{擬似確率的単語分割コーパスによる言語モデルの改良}.単語境界をある文字列境界が単語境界であるか否かを決めるための素性として,単語境界の周辺$x_{i-2}^{i+2}$の範囲の文字$n$-gram($n=1,2,3$)と文字種の情報を用いる.ここで,確率的単語分割コーパス内での単語の扱いについて述べる.決定的に単語分割されたコーパスにおいて,単語0-gram頻度はコーパス中の全単語数,単語1-gram頻度はそれぞれの単語の出現頻度である.確率的単語分割コーパスにおいては,単語0-gram頻度$f(\cdot)$はコーパス中に現れる全ての部分文字列の期待頻度として,以下の式で定義される.\[f(\cdot)=1+\sum_{i=1}^{n_{r}-1}P_{i}\]また,確率的単語分割コーパス中のある1箇所に現れる単語$w$の期待頻度$f(w)$は,文字列$x_{i+1}x_{i+2}\cdotsx_{i+k}$が単語$w$である確率を以下に示す式から計算することで得られる.\[f(w)=P_{i}\left[\prod_{j=1}^{k-1}(1-P_{i+j})\right]P_{i+k}\]これは$x_{i+1}$の左側($i$番目の文字列境界)が単語境界,$x_{i+1}x_{i+2}\cdotsx_{i+k}$の間にある文字列境界が単語境界ではない,$x_{i+k}$の右側が単語境界である,というときに文字列$x_{i+1}x_{i+2}\cdotsx_{i+k}$が単語$w$である確率を示している.確率的単語分割コーパス中における単語$w$とその期待頻度の扱いを図\ref{figure_sect2_SSC_freq}に示す.$f(w)$は1箇所の$w$に対する期待頻度なので,単語1-gram期待頻度はコーパス中の全ての出現にわたる期待頻度の合計となる.単語$n$-gram期待頻度($n\geq2$)についても,単語境界である確率$P_i$と単語境界ではない確率($1-P_i$)から同様に期待頻度の計算を行う.単語$n$-gram確率は,式(\ref{equation:para1})(\ref{equation:para2})における$n$-gram頻度を$n$-gram期待頻度として推定する.以上に述べた確率的単語分割コーパスから構築される単語$n$-gramモデルは,テキスト中に出現する全ての部分文字列が語彙となるため,未知語に対して頑健なモデルとなる.\begin{figure}[t]\begin{center}\includegraphics{17-4ia8f1.eps}\end{center}\caption{確率的単語分割コーパスにおける期待頻度}\label{figure_sect2_SSC_freq}\end{figure}\subsubsection{疑似確率的単語分割コーパス}\label{subsubsection:P-SSC}上述の確率的単語分割コーパスを用いて$n$-gram確率の推定を行う場合,単語の出現頻度を計算するために多くの計算時間が必要となる.本節では,この問題に対処するために提案されている疑似確率的単語分割コーパス\cite{擬似確率的単語分割コーパスによる言語モデルの改良}の枠組みについて述べる.これにより,決定的に単語分割されたコーパスを用いて確率的単語分割コーパスに近い$n$-gram確率を推定することができ,かつ未知語に対する頑健性を保持することができる.疑似確率的単語分割コーパスは,確率的単語分割コーパスに対して以下の処理を最初の文字から最後の文字まで($1\leqi\leqn_{r}$)行うことで得られる.\begin{enumerate}\item文字$x_{i}$を出力する.\item乱数$r_{i}(0\leqr_{i}<1)$を発生させ$P_{i}$と比較する.$r_{i}<P_{i}$の場合には単語境界記号(空白)を出力し,そうでない場合には何も出力しない.\end{enumerate}これにより,確率的単語分割コーパスの特徴をある程度反映し,かつ決定的に単語分割されたコーパスを得ることができる.この処理を1回行って得られるコーパスにおいて,文字列としての出現頻度が低い単語$n$-gramの頻度は,確率的単語分割コーパスから期待頻度を計算した場合と大きく異なる可能性がある.近似による誤差を減らすためには,上記の手続きを$M$回行って得られる単語分割コーパス全てを単語$n$-gram頻度の計数の対象とすればよい.このコーパスを疑似確率的単語分割コーパスと呼び,$M$をその倍率と呼ぶ.
\section{未知語とその読み・文脈情報の自動獲得}
\label{sect3_Ext}本節では,仮名漢字変換の対象となる分野のテキストと音声を用いて未知語の読み・文脈情報を自動獲得し,統計的仮名漢字変換で用いられる言語モデルならびに仮名漢字モデルの性能を改善させる手法について述べる.\subsection{提案手法の概略}\label{subsect:ext_overview}\begin{figure}[b]\begin{center}\includegraphics{17-4ia8f2.eps}\end{center}\caption{提案手法の概要図}\label{figure_sect4_overview}\end{figure}本項では提案手法の概略について述べる.図\ref{figure_sect4_overview}に提案手法全体の概要を示す.本研究では,人手によって読みと単語境界が付与されている一般分野のコーパス$C_b$があらかじめ用意されているものとする.また,以下では一般分野のコーパスから読みを取り除いたコーパスを一般分野の単語分割コーパスと記述し,その中に存在する単語を既知語,それ以外の単語を未知語と定義する.提案手法では,以下に示す4段階の処理により,未知語の読み・文脈情報を未知語を含む単語と読みの組の列として音声認識結果から獲得\footnote{音声認識には大語彙音声認識システムJulius\cite{Julius.--.An.Open.Source.Real-Time.Large.Vocabulary.Recognition.Engine}を用いる.}し,統計的仮名漢字変換のモデルを更新する.\begin{enumerate}\item情報の付与されていない対象分野のテキストから疑似確率的単語分割コーパスを作成し,未知語の候補となる単語(以下,未知語候補と記述する)の抽出を行う(3.2項を参照).\item疑似確率的単語分割コーパスを用いて音声認識のための言語モデルを構築する.また,未知語候補の読みを複数推定し,音声認識のための発音辞書を作成する(3.3項参照).\item準備した言語モデル,発音辞書,音響モデルを用いて対象分野の音声を認識し,音声認識結果から単語と読みの組の列を獲得する(3.4項を参照).\item獲得した単語と読みの組の列を統計的仮名漢字変換の学習コーパスに追加して言語モデルと仮名漢字モデルを更新する(3.5項を参照).\end{enumerate}以下では,これらの処理について詳細を述べる.\subsection{疑似確率的単語分割コーパスを用いた未知語候補の抽出}\label{subsect:ext_unk}まず,獲得対象となる未知語候補を単語境界の付与されていない対象分野のテキストから抽出する.本項では,\ref{subsection:SSC}項で述べた疑似確率的単語分割コーパスを用いた未知語候補の抽出について述べる.疑似確率的単語分割コーパスは決定的に単語分割されたコーパスの集合であるが,全く同様の文であっても単語境界に揺れが存在するため,未知語の分割誤りを抑制可能である.しかしながら,テキスト中に出現する全ての部分文字列が単語になり得るという疑似確率的単語分割コーパスの性質上,低頻度の文字列は単語として適切ではないものが多い.このため,出現頻度閾値を設定して適切な未知語候補を抽出する.以下では,未知語候補「守屋」を抽出する場合を例にとり,その手続きを示す.\begin{enumerate}\item一般分野の単語分割コーパスから単語境界確率を推定するためのモデル(\ref{subsubsection:P-SSC}項を参照)を構築し,対象分野のテキストに単語境界確率を付与する.{\tabcolsep=1.5pt\vspace{10pt}\begin{center}\begin{tabular}{|ccccccccccccccccccccc|}\hline$\cdots$&&昨&&日&&、&&\underline{守}&&\underline{屋}&&前&&次&&官&&が&&$\cdots$\\$\cdots$&0.8&&0.1&&0.9&&0.9&&0.4&&0.7&&0.8&&0.3&&0.8&&0.8&$\cdots$\\\hline\end{tabular}\end{center}\vspace{10pt}}\item単語境界確率と乱数の比較を行い,倍率$M$の疑似確率的単語分割コーパスを作成する.\vspace{10pt}\begin{center}\begin{tabular}{|c|c|}\hline(試行1)&$\cdots$昨日、\underline{守屋}前次官が$\cdots$\\(試行2)&$\cdots$昨日、\underline{守屋}前次官が$\cdots$\\(試行3)&$\cdots$昨日、守屋前次官が$\cdots$\\$\vdots$&$\vdots$\\(試行$M$)&$\cdots$昨日、\underline{守屋}前次官が$\cdots$\\\hline\end{tabular}\end{center}\vspace{10pt}\item作成した疑似確率的単語分割コーパス内に出現する単語のうち,頻度$F_{th}$以上の未知語(一般分野のコーパスに出現しない単語)を未知語候補として抽出する.\end{enumerate}次項では,未知語候補の音声認識を行うための言語モデルと発音辞書について述べる.\subsection{未知語候補を含む言語モデルと発音辞書の作成}\label{subsect:ucest}音声認識システムを用いて未知語候補を正しい読みとともに認識するためには,未知語候補が語彙に含まれる言語モデルと発音辞書が必要である.本項では,未知語候補を考慮した言語モデルならびに発音辞書の作成方法について述べる.まず,音声認識のための言語モデルを構築する.大語彙連続音声認識システムを用いる場合には,対象分野のコーパスと一般分野のコーパスを用いて対象分野に適合した言語モデルの構築を行うことが一般的である\cite{Task.adaptation.in.stochastic.language.models.for.continuous.speech.recognition}\cite{N-gram出現回数の混合によるタスク適応の性能解析}.本研究では,\ref{subsect:ext_unk}項で作成した疑似確率的単語分割コーパスを一般分野の単語分割コーパスに追加し,言語モデルを構築する.次に,未知語候補の読みを複数推定し,既知語から作成された発音辞書に追加する.読みの推定は,\ref{subsect:W-ngram}項の$n$-gramモデルにおける単語$w$を文字とその読みの組に置き換えた$n$-gramモデルによって行う.以下では,未知語候補「守屋」を例にとって説明する.\begin{enumerate}\item単語を1文字ごとに分割し,それぞれの文字について単漢字辞書から得られる読みを列挙する.\vspace{10pt}\begin{center}\begin{tabular}{|ll|}\hline守:&マモ,シュ,モリ\\屋:&ヤ,オク\\\hline\end{tabular}\end{center}\vspace{10pt}\item各文字の読みを組み合わせ,可能性のある単語の読みを列挙する.\vspace{10pt}\cfbox{マモヤ,マモオク,シュヤ,シュオク,モリヤ,モリオク}\vspace{10pt}\item文字と読みの組を単位とする$n$-gramモデルにより,単語表記からの読みの生成確率を計算する.\vspace{10pt}\begin{center}\begin{tabular}{|rcr|}\hline$P(マモヤ|守屋)$&$=$&$0.53$\\$P(モリヤ|守屋)$&$=$&$0.22$\\$P(シュオク|守屋)$&$=$&$0.05$\\\multicolumn{3}{|c|}{$\vdots$}\\\hline\end{tabular}\end{center}\vspace{10pt}\item読みが付与されている一般分野のコーパスから発音辞書を作成し,(3)で推定した未知語候補と読みの組の中から,確率の上位$L$個を追加する.この際,$L$個の未知語候補と読みの組の生成確率を反映させるため,単語の読みごとの確率を発音辞書に記述する\footnote{上位$L$個の確率の合計が1となるように正規化を行う.}.\vspace{10pt}\begin{center}\begin{tabular}{|rrr|rrr|}\hline\multicolumn{3}{|c|}{既知語}&\multicolumn{3}{c|}{未知語候補}\\\hline\multicolumn{3}{|c|}{$\vdots$}&\multicolumn{3}{c|}{$\vdots$}\\国会&1.00&コッカイ&\underline{守屋}&0.53&マモヤ\\前&0.50&ゼン&\underline{守屋}&0.22&モリヤ\\前&0.50&マエ&\underline{守屋}&0.05&シュオク\\\multicolumn{3}{|c|}{$\vdots$}&\multicolumn{3}{c|}{$\vdots$}\\\hline\end{tabular}\end{center}\vspace{10pt}\end{enumerate}上記の例における「守屋」の正しい読みは「モリヤ」であるが,(3)で述べた$n$-gramモデルによって与えられる確率$P(モリヤ|守屋)$は最大とならないため,確率の比較による正しい読みの選択は難しい.次項では,本項で作成した言語モデルと発音辞書を用いた音声認識によって未知語候補の正しい読みを選択する方法について述べる.\subsection{未知語の読み・文脈情報の獲得}\label{subsect:ASR}前項の処理で発音辞書中に列挙される未知語候補の読みの中に正しい読みが含まれている場合には,音声認識によって未知語候補を含む単語と読みの組の列が得られる.しかし,前項の処理で推定した読みの多くは誤った読みであるため,音声認識の際に似た発音の単語を取り違え,誤った読みの未知語候補を出力する可能性がある.この問題に対処するため,ここでは言語モデルならびに音響モデルの尤度を反映した事後確率から計算される信頼度\cite{Confidence.measures.for.large.vocabulary.continuous.speech.recognition}\footnote{ある単語を含む全ての単語列候補(音声認識結果)の相対的な尤度の比率を,その単語の信頼度として表す.なお,本研究で用いる音声認識システムJuliusに実装されている単語信頼度は,信頼度計算の対象となる単語を含む最尤パスの確率で全体の確率の和を近似することによって計算される\cite{2パス探索アルゴリズムにおける高速な単語事後確率に基づく信頼度算出法}.}を用いて,認識結果における単語の文脈上の妥当性を判定する.ある単語の信頼度$CM$は0から1の間の値で与えられ,大きい値であるほど信頼性が高いとみなされる.以下では,音声認識を用いて未知語の読み・文脈情報を単語とその読みの列として獲得する手順を示す.\begin{enumerate}\item対象分野のテキストと同様の話題を扱った音声と,その音声に適合した音声認識用の音響モデルを用意する.\item(1)の音響モデルと,\ref{subsect:ucest}項の処理によって得られた言語モデルならびに発音辞書を用いて(1)の音声に対し音声認識を行い,単語,読み,単語信頼度の3つ組の列を出力する.\vspace{-5pt}\begin{center}\begin{tabular}{|c|}\hline$\cdots$\underline{\mbox{守屋/モリヤ/0.7}}前/ゼン/0.8事務/ジム/0.8次官/ジカン/0.9$\cdots$\\$\cdots$全体/ゼンタイ/0.4の/ノ/0.7守屋/シュヤ/0.05が/ガ/0.8狭/セマ/0.9い/イ/0.9$\cdots$\\\hline\end{tabular}\end{center}\vspace{10pt}\item音声認識結果のうち,単語信頼度が$CM_{th}$以上の単語を抽出し,連続する単語とその読みの組の列を作成する.なお,単語信頼度が$CM_{th}$より小さい単語は抽出せず,それまでに抽出された単語とその読みの列を独立した文とみなす.\vspace{10pt}\begin{center}\begin{tabular}{|c|}\hline$\cdots$\underline{\mbox{守屋/モリヤ}}前/ゼン事務/ジム次官/ジカン$\cdots$\\$\cdots$全体/ゼンタイの/ノ\\が/ガ狭/セマい/イ$\cdots$\\\hline\end{tabular}\end{center}\vspace{10pt}\end{enumerate}\subsection{統計的仮名漢字変換のためのモデル構築}\label{subsect:mkmodel}仮名漢字変換のモデル性能を改善するには,対象分野の学習コーパスを大量に用意することが重要である.人手によって十分な量のコーパスを作成することはコストの面で実用的ではないため,まずテキストの読み推定を行うことによって対象分野のテキストに単語境界と読みを自動的に付与する.ここでは,\ref{subsect:W-ngram}項の式(1)(2)において単語$w$を単語と読みの組に置き換え,読み推定のための$n$-gramモデルを一般分野のコーパス$C_b$から構築する.この結果得られるコーパスを$C_n$とする.一般的には,情報の付与されていない対象分野のテキストのみを大量に入手可能である,という状況が多いため,上述の読み推定システムや形態素解析器の利用によって大規模なコーパス$C_n$を作成し,$C_b$と$C_n$からモデルを構築することによって変換精度を向上させることが可能である.しかしながら$C_n$は一般分野のコーパス$C_b$から構築されるモデルを用いたシステムによって単語境界や読みを付与されるため,$C_b$の内部に出現しない未知語の情報をモデルに反映させることは難しい.この問題を解決するため,提案手法では\ref{subsect:ASR}項の処理によって獲得される,未知語を含む単語と読みの列をコーパス$C_r$とみなし,$C_r$によって未知語の読み・文脈情報をモデルに反映させ,未知語の変換精度の向上を図る.
\section{評価}
\label{sect:eval}本節では,\ref{sect3_Ext}節で述べた提案手法の評価実験について述べる.まず,\ref{subsect:ext_unk}項〜\ref{subsect:ASR}項で述べた手法に従って,未知語の読み・文脈情報を単語とその読みの組の列として獲得した.その後,\ref{subsect:mkmodel}項で示した学習コーパスから統計的仮名漢字変換の言語モデルならびに仮名漢字モデルを構築して精度評価を行い,提案手法の有効性を検証した.\subsection{実験で利用するテキストと音声}\label{subsect:text_pre}本項では,実験を行う際にあらかじめ準備するデータ,ならびに実験の過程で利用するデータについて述べる.\subsubsection{テキスト}本実験において利用するテキストコーパスを以下に示す.一般分野のコーパス$C_b$には現代日本語書き言葉均衡コーパス(BalancedCorpusofContemporaryWrittenJapanese;BCCWJ)\cite{『現代日本語書き言葉均衡コーパス』形態論情報規程集}を用いた.BCCWJはあらかじめ単語分割がされており,各単語に読みが付与されている\footnote{本研究では,人手による修正が入ったコアデータのみを使用し,さらに活用語を語幹と語尾に分割する等の変更を加えている.}.ここで,BCCWJの内部に出現する全ての単語が既知語となる.対象分野のテキストとして,2007年11月2日から2008年1月8日のうち68日間のウェブニュースを自動収集したものを用いた.このウェブニューステキストには情報が付与されていないため,このテキストに対して\ref{subsect:mkmodel}項で示した手法を適用することで,単語分割と読みの付与を自動的に行い,コーパス$C_n$を作成した.また,ウェブニュースのテキストは\ref{subsect:ext_unk}項で述べた疑似確率的単語分割コーパスの作成に用いた.後述する\ref{subsect:ex_ext}項の実験により,音声認識結果$C_r$として単語と読みの組の列が獲得される.$C_r$は,$C_n$と同様に仮名漢字変換のためのモデル構築に用いた.テストセット$C_t$として,2008年1月9日,2008年1月10日の2日間のウェブニュースを単語分割し,読みを付与したものを用いた.\begin{table}[b]\caption{コーパスの一覧}\input{08table01.txt}\label{table_corpus_suff}\end{table}以上に述べたテキストコーパスの文数,単語数,文字数を表\ref{table_corpus_suff}に示す.なお,表\ref{table_corpus_suff}において,対象分野のテキストに対する自動読み推定結果,ならびに音声認識結果の単語数は,各システムの出力結果から単語数を計数したものである.また,音声認識結果の出力から文境界を同定することは困難であるため,単語数と文字数のみを示す.表\ref{table_unkr_test}に,テストセットにおける未知の1-gram率(未知語率),未知の2-gram率を,単語を単位とする場合と単語と読みの組を単位とする場合のそれぞれについて示す.\begin{table}[t]\caption{テストセット$C_t$の未知$n$-gram率(\%)}\input{08table02.txt}\label{table_unkr_test}\end{table}\subsubsection{音声}読みを選択するために用いる音声として,収集したウェブニュース記事と同時期に当たる2007年12月5日から2008年1月8日の間に放送された30分のニュース番組の合計17時間の音声を用いた.ここで,対象分野のテキストと音声の類似度として,音声の一部の書き起こし(2008年1月7日,8日の2日分)に対するパープレキシティを示す.後述する対象分野の疑似確率的単語分割コーパスから単語3-gramモデルを構築し,書き起こしに対するパープレキシティを求めたところ,58.5となった.これは,本実験で用いる疑似確率的単語分割コーパスから構築される音声認識用言語モデルは認識対象となる音声に対して十分な単語予測性能を持っている(対象分野の音声と対象分野のテキストが十分に似ている)ことを示している.\subsection{未知語とその読み・文脈情報の自動獲得}\label{subsect:ex_ext}本項では,対象分野のテキストと対象分野の音声を用いた未知語とその読み・文脈情報の自動獲得について述べる.また,処理の途中段階で獲得した未知語とテストセット中の未知語を比較し,各処理における未知語の検出精度を示す.\subsubsection{未知語候補の抽出}まず,\ref{subsect:ext_unk}項で述べた手法に従って対象分野のテキストから疑似確率的単語分割コーパスを作成し,未知語候補の抽出を行った.ここで,疑似確率的単語分割コーパスの倍率は$M=10$とした.また,未知語候補を決定する際の閾値は,$F_{th}=50$とした.また,対象分野のテキストの規模と最終的に獲得可能な未知語の数との関係として,表\ref{table_cov_cond}に,未知語候補のテストセット$C_t$中の未知語に対する再現率を示す.表\ref{table_cov_cond}では,利用するウェブニュースの日数と疑似確率的単語分割コーパスの倍率$M$を変えることでテキストの規模を調節し,それぞれについて再現率を示した.また,確率的単語分割コーパスを作成せず,決定的に単語分割を行った場合の再現率についても,併せて表\ref{table_cov_cond}に示した.$C_t$内の未知語の集合を$UW_t$,疑似確率的単語分割コーパス内の未知語候補の集合を$UW_c$とし,コーパス$C$における単語$w$の出現頻度を$f(C,w)$とすると,再現率は\[\cfrac{\displaystyle\sum_{w\inUW_t\capUW_c}f(C_t,w)}{\displaystyle\sum_{w\inUW_t}f(C_t,w)}\]で表される.ここで,$\sum_{w\inUW_t}f(C_t,w)=2,772$である(表\ref{table_unkr_test}参照).\begin{table}[t]\caption{対象分野のテキストから抽出した未知語候補の再現率(\%)}\input{08table03.txt}\label{table_cov_cond}\end{table}表\ref{table_cov_cond}から,未知語の抽出を行う場合には,決定的な単語分割を行ったコーパスではなく,疑似確率的単語分割コーパスを利用することが有効であることがわかる.\subsubsection{未知語候補を含む言語モデルと発音辞書の作成}\ref{subsect:ucest}項で述べた手法を用いて音声認識用の言語モデルと発音辞書を作成した.本実験で用いる音声認識システムJuliusは言語モデルとして順向き2-gramモデル,逆向き3-gramモデルを必要とする.ここでは,一般分野の単語分割コーパス(BCCWJ)と対象分野の疑似確率的単語分割コーパス(ウェブニュース)から単語表記を単位とする順向き2-gramモデルならびに逆向き3-gramモデルを構築した.次に,抽出した未知語候補の読みを,文字と読みの組を単位とする2-gramモデルによって推定し,生成確率の上位$L$個の単語と読みの組を既知語から作成される発音辞書に追加した.本実験では$L=5$とした.作成した発音辞書の詳細を表\ref{table_pron-dict}に示す\footnote{片仮名のように文字ごとの読み候補が少ない場合,もしくは単語長が短い場合など,5個まで読みの列挙を行うことができない未知語候補が存在する.このため,未知語候補のエントリ数は単語数の5倍未満になることがあり得る.}.言語モデルにおける語彙の総数は表\ref{table_pron-dict}における既知語と未知語候補の単語数を合計した数である20,712,発音辞書のエントリ(単語と読みの組)の総数は26,880となった.ここで,$L$の値の妥当性を検証するため,$L$を変えた場合に得られる未知語候補と読みの組の,テストセット$C_t$内の未知語と読みの組に対する再現率を表\ref{table_cov_prondict}に示す.コーパス$C$における単語と読みの組$u$の出現頻度を$f(C,u)$,未知語候補と推定された読みの組の集合を$UU_e$,テストセット$C_t$内の未知語と読みの組の集合を$UU_t$とすると,再現率は\[\cfrac{\displaystyle{\sum_{u\inUU_t\capUU_e}f(C_t,u)}}{\displaystyle{\sum_{u\inUU_t}f(C_t,u)}}\]で表される.ここで,$\sum_{u\inUU_t}f(C_t,u)=2,925$である(表\ref{table_unkr_test}参照).表\ref{table_cov_prondict}より,$L\geq5$では再現率に大きな変化が見られないことから,$L$の値を単純に大きくしても最終的に獲得可能な未知語と読みの組の量は変わらないことが予想される.また,$L$を大きくするに従って,誤った読みを持つエントリがより多く発音辞書に登録され,認識誤りが増加する.本実験では以上の2点を考慮し,$L=5$とした.\begin{table}[t]\caption{音声認識用の発音辞書}\input{08table04.txt}\label{table_pron-dict}\end{table}\begin{table}[t]\caption{発音辞書に列挙された未知語候補と読みの組の再現率(\%)}\input{08table05.txt}\label{table_cov_prondict}\end{table}\subsubsection{未知語の読み・文脈情報の獲得}作成した言語モデルと発音辞書を利用し,音声認識によって読みを選択し,音声認識結果から未知語を含む単語と読みの組の列を獲得した.音声認識システムには,Julius3.5.3を用いた.なお,Juliusの動作に必要となる音響モデルは,連続音声認識コンソーシアム2003年度版ソフトウェア\footnote{http://www.lang.astem.or.jp/CSRC/}に同梱されている,新聞記事読み上げ音声コーパス(JNAS)から学習された3,000状態,64混合のPTMtriphoneモデル\cite{Phonetic.Tied-Mixture.モデルを用いた大語彙連続音声認識}を用いた.音声認識結果のうち,単語信頼度が$CM_{th}$を超えている単語のみを抽出し,単語と読みの組の列を単語境界と読みの付与されたコーパス($C_r$)の形で獲得した.この際,単語信頼度の閾値は$CM_{th}=0.1$とした.また,獲得頻度の少ない未知語候補には音声認識誤りと考えられるものが多かったため,上記の閾値による制限に加えて2回以上認識した未知語候補のみを獲得した\footnote{アナウンサーの発話のように,音声が明瞭である部分の認識精度は80\%程度,記者発表のように,背景に雑音が多く含まれる部分の認識精度は30\%程度であった.}.$C_r$の単語数ならびに文字数は表\ref{table_corpus_suff}で示した通りである.また,表\ref{table_unkr_rec}に音声認識結果$C_r$の未知語率を示す.ここでは,テストセット$C_t$の未知語率(表\ref{table_unkr_test}参照)と同様に,単語ならびに単語と読みの組を単位とした場合の未知$n$-gram率を示す.なお,最終的に獲得された未知語候補と読みの組(異なり数)は872となった.最後に,対象分野の音声の規模と獲得した未知語と読みの組の数との関係を調べるため,使用するニュースの日数を変更した場合の$C_t$に対する再現率を表\ref{table_cov_rec}に示す.$C_r$内の未知語と読みの組の集合を$UU_{r}$とすると,再現率は\[\cfrac{\displaystyle{\sum_{u\inUU_t\capUU_{r}}f(C_t,u)}}{\displaystyle{\sum_{u\inUU_t}f(C_t,u)}}\]で表される.\begin{table}[t]\caption{音声認識結果$C_r$の未知$n$-gram率(\%)}\input{08table06.txt}\label{table_unkr_rec}\end{table}\begin{table}[t]\caption{音声認識結果内の未知語候補と読みの組の再現率(\%)}\input{08table07.txt}\label{table_cov_rec}\end{table}\subsubsection{獲得した未知語と読み・文脈情報の再現率と適合率}本実験の目的は,後述する仮名漢字変換の精度評価において,音声認識結果$C_r$から獲得した未知語とその読み・文脈情報を利用してテストセット$C_t$を対象とした仮名漢字変換の変換精度を向上させることにある.$C_r$を用いて仮名漢字変換のモデルを構築する場合,$C_t$と$C_r$に共通して出現する未知語と読みの組,または単語を単位とする未知の2-gramが多いほど仮名漢字変換の精度が向上する\footnote{前者は\ref{subsect:KKC}項で述べた仮名漢字モデルの性能に影響し,後者は言語モデルの性能に影響する.}.以下では,それぞれの再現率ならびに適合率を示す.まず,$C_r$から獲得した未知語と読みの組の再現率,適合率を示す.再現率ならびに適合率はそれぞれ\[再現率=\cfrac{\displaystyle{\sum_{u\inUU_t\capUU_{r}}f(C_t,u)}}{\displaystyle{\sum_{u\inUU_t}f(C_t,u)}}\quad,\qquad適合率=\cfrac{\displaystyle{\sum_{u\inUU_t\capUU_{r}}f(C_r,u)}}{\displaystyle{\sum_{u\inUU_t}f(C_r,u)}}\]で表される.計算の結果,再現率は31.6\%,適合率は38.2\%となった.次に,未知の2-gramの再現率,適合率を示す.コーパス$C$における単語2-gram($w_{i-1}^i$)の出現頻度を$f(C,w_{i-1}^i)$,テストセット$C_t$内の未知の単語2-gramの集合を$UB_t$,音声認識結果$C_r$内の未知の単語2-gramの集合を$UB_r$とすると,再現率ならびに適合率は\[再現率=\cfrac{\displaystyle{\sum_{w_{i-1}^i\inUB_t\capUB_{r}}f(C_t,w_{i-1}^i)}}{\displaystyle{\sum_{w_{i-1}^i\inUB_t}f(C_t,w_{i-1}^i)}}\quad,\qquad適合率=\cfrac{\displaystyle{\sum_{w_{i-1}^i\inUB_t\capUB_{r}}f(C_r,w_{i-1}^i)}}{\displaystyle{\sum_{w_{i-1}^i\inUB_t}f(C_r,w_{i-1}^i)}}\]で表される.計算の結果,再現率は31.9\%,適合率は25.5\%となった.\subsection{統計的仮名漢字変換による精度評価}\label{subsect:eval_KKC}本項では,\ref{subsect:mkmodel}項で挙げた学習コーパスを用いて統計的仮名漢字変換の精度評価を行い,提案手法の有効性を検証する.\subsubsection{実験の条件}本実験では,一般分野のコーパス$C_b$,対象分野のテキストの自動読み推定結果$C_n$,音声認識結果$C_r$を用いて統計的仮名漢字変換のためのモデルを構築した.各コーパスの規模は\ref{subsect:text_pre}の表\ref{table_corpus_suff}に示した通りである.本実験では,3種類のコーパスを以下のように組み合わせて学習コーパスとし,言語モデル(単語2-gramモデル)ならびに仮名漢字モデルを構築した.\begin{enumerate}\item$C_b$:ベースライン\item$C_b+C_n$:テキストのみを用いた手法(既存手法)\item$C_b+C_n+C_r$:テキストと音声に共通して現れる未知語の読み・単語文脈を反映させる手法(提案手法)\end{enumerate}統計的仮名漢字変換システム全体の精度を評価する基準として,文字単位の再現率と適合率を計算し,(1)--(3)について比較を行った.\pagebreakまた,提案手法において未知語の読みと単語文脈を共に利用することの有効性を検証するため,(2)を基準として,$C_r$から言語モデル(LM)のみを更新した場合\footnote{$C_b+C_n+C_r$から言語モデルを構築し,$C_b+C_n$から仮名漢字モデルを構築する.}と,仮名漢字モデル(PM)のみを更新した場合\footnote{$C_b+C_n$から言語モデルを構築し,$C_b+C_n+C_r$から仮名漢字モデルを構築する.}についても変換精度の評価を行った.本実験における評価指標として,文字単位の再現率と適合率を用いる.それぞれの定義を以下に示す.\begin{align*}\mbox{再現率}&=\cfrac{\mbox{正解文字数}}{\mbox{テストセット中の文字数}}\\\mbox{適合率}&=\cfrac{\mbox{正解文字数}}{\mbox{システムの出力した文字数}}\\\end{align*}\subsubsection{実験結果と考察}(1)--(3)で示した学習コーパスから構築されるモデルによる再現率,適合率を表\ref{table_result}に示す.\begin{table}[b]\caption{統計的仮名漢字変換による評価(\%)}\input{08table08.txt}\label{table_result}\end{table}$C_b$を用いる場合(ベースライン)の変換精度と$C_b,C_n$を用いる場合(既存手法)の変換精度を比較した結果,再現率で8.94\%,適合率で11.68\%の精度向上が確認された.ここで$C_n$と$C_t$は同分野のコーパスであり,$C_b$は$C_n$に比較すると小規模なコーパスであるため,この精度向上は単純に学習データの量を増やしたことに起因すると考えられる.次に,$C_b,C_n$を用いる場合(既存手法)の変換精度と$C_b,C_n,C_r$を用いる場合(提案手法)の変換精度を比較した結果,仮名漢字変換の精度は再現率で0.36\%,適合率で0.48\%の改善が見られた.既存手法において,コーパス$C_n$は対象分野の未知語を考慮しない手法で読みを付与されているため,未知語の正しい分割と読みの付与が行われず,$C_b$と$C_n$のみを用いて構築されるモデルでは未知語の誤変換が発生する.しかし,提案手法では\ref{subsect:ex_ext}項の実験で得られた$C_rを用いて$未知語の読み・文脈情報をモデルに反映させることが可能である.上記の精度増加は,\ref{subsect:ex_ext}項で示した未知語の読み・文脈情報の獲得の実験で獲得した未知語と読みの組,未知の2-gramの量に対応しており,より多くの未知語を獲得するほど変換精度が向上すると考えられる.また,$C_r$を追加することによる精度向上の要因を明らかにするため,$C_b$と$C_n$から構築したモデルによる変換精度を基準に,$C_r$を利用して言語モデルと仮名漢字モデルを独立に更新して精度を比較した.言語モデルのみを更新した場合は,再現率,適合率ともに0.03\%の改善となり,仮名漢字モデルのみを更新した場合は,再現率で0.17\%,適合率で0.27\%の改善となった.言語モデルのみを更新する場合,未知語と読み(仮名漢字変換における入力記号列)との対応付けを行うことが不可能であるため,未知語周辺の文脈が変換精度の向上にほとんど寄与しない.この際,変換精度の向上に寄与する要素は$C_r$に現れる既知語周辺の文脈情報のみであり,かつ$C_n$に比較して$C_r$の規模は非常に小さいために,精度がほぼ変化していないと考えられる.仮名漢字モデルのみを更新する場合については,一定の精度向上が観察された.しかしながら,ある読みを持つ未知語に対し,同じ読みを持つ既知語,もしくは結合の結果同じ読みとなる既知語の連続が存在するという状況では,未知語を含む変換候補の言語モデル確率は既知語を含む変換候補の確率に比較して小さくなる.言語モデルと仮名漢字モデルの両方を更新する場合(提案手法)との精度の差は,上述の言語モデル確率の差に起因する.最後に,提案手法を用いることで未知語の変換誤りが改善した例を示す.\vspace{10pt}\begin{center}\begin{tabular}{|rl|}\hline$C_b+C_n$:&前事務次官の森やタケマサ\\$C_b+C_n+C_r$:&前事務次官の守屋武昌\\\hline\end{tabular}\end{center}\vspace{10pt}\ref{subsect:ext_unk}〜\ref{subsect:ASR}項において例として示した未知語(守屋)は,本実験において実際に獲得された未知語の例であり,音声認識結果$C_r$を用いることによって未知語の誤変換が改善されることを確認した.以上の結果より,テキストと音声から獲得される未知語の読み・文脈情報は統計的仮名漢字変換システムの精度向上に有効であることが確認された.
\section{関連研究}
\label{sect5_rwork}第\ref{sect_intro}節で述べた通り,人手によって任意の分野における未知語の情報を収集することはコストの面で現実的ではない.このため,未知語に関する情報を自動獲得する研究が多く行われている.まず,形態素解析など,自動単語分割を行うシステムにおいて単語辞書に未知語を追加することを目的とした研究について述べる.文献\cite{未知語の確率モデルと単語の出現頻度の期待値に基づくテキストからの語彙獲得}では,ある文の自動単語分割候補における$N$-bestの相対確率を,それぞれの候補において出現する未知語の出現頻度の期待値として与える.その後,出現した未知語の中から一定の閾値より大きい出現頻度の期待値を持つ未知語を獲得している.また,単語分割の際には,未知語を構成する字種によって9種類の未知語タイプを定義し,それぞれのタイプにおける単語長の分布を考慮した未知語モデルを用いることで,未知語モデルの性能向上を図っている.形態素解析のため,品詞を考慮して未知語を獲得する研究として,文献\cite{Word.Extraction.from.Corpora.and.Its.Part-of-Speech.Estimation.Using.Distributional.Analysis}では,コーパス中に出現する任意の部分文字列$\alpha$に注目し,$\alpha$の前後の文字から,$\alpha$が未知語として出現する可能性の高い品詞に属する確率を推定している.その後,出現頻度が一定値以上かつ2文字以上の文字列$\alpha$を単語として抽出しておき,形態素解析器にかけた結果に辞書未登録語が含まれている文字列$\alpha$を未知語として獲得している.日本語は分かち書きを行わない言語であるため,自動単語分割器や形態素解析器において必須となる未知語の情報は正しい単語単位である.このため,形態素解析器のための未知語獲得を行う研究では未知語の読みには言及しないことが多い.しかしながら,本研究では統計的仮名漢字変換の精度向上を目的としているため,未知語の表記ならびにその読みに関する情報を同時に獲得することが望ましい.文献\cite{自動未知語獲得による仮名漢字変換システムの精度向上}では,仮名漢字変換を用いる際の入力とその変換結果から未知語の獲得と言語モデルの更新を行う手法を提案している.また,言語モデルの更新を繰り返すことで,仮名漢字変換システムの精度が徐々に向上すると報告している.ただし,ここで行われている実験はユーザによるシステムの利用を想定したシミュレーションであり,本論文で扱う自動獲得とは性質が異なる.音声認識の分野においては,未知語を原因とする認識誤りの影響を抑制するため,単語より小さい単位の語彙であるサブワードを擬似的な単語とし,未知語をサブワードの連続として認識する手法が提案されている\cite{単語N-gram言語モデルを用いた音声認識システムにおける未知語・冗長語の処理}\cite{Open.Vocabulary.Speech.Recognition.with.Flat.Hybrid.Models}\cite{New.Word.Acquisition.Using.Subword.Modeling}.しかしながら,日本語の音声認識においてサブワードは基本的に仮名文字列から構成されるため,サブワードをそのまま未知語獲得に用いても仮名漢字変換への寄与は低いと考えられる.文献\cite{音声とテキストを用いた認識単語辞書の自動構築}では,規則を用いてテキストから未知語の候補を抽出,音声認識を用いて読みを自動的に獲得し,発音辞書に追加する手法が提案されている.この手法は,テキストと音声から未知語と読みの情報を獲得する点で本研究と共通しているが,未知語候補の抽出方法と獲得する情報の粒度が本研究と異なる.本研究では,疑似確率的単語分割コーパスを用いることにより,一貫した単語単位で言語モデルと発音辞書を作成する.また,音声認識結果から未知語の読みだけではなく文脈情報を獲得し,統計的仮名漢字変換で利用する確率的言語モデル全体の性能向上を図っている.
\section{結論}
\label{sect6_conc}本論文では,類似した話題を扱っているテキストと音声から未知語の読み・文脈情報を単語と読みの組の列として自動獲得し,統計的仮名漢字変換の精度向上に利用する手法を提案した.自動的に収集可能なニュース記事とニュース音声を用いた実験の結果,音声認識結果から得られる単語と読みの組の列を学習コーパスとして統計的仮名漢字変換のモデルを学習することにより,システム全体の精度が向上することを確認した.以上の結果から,テキストと音声を用いることにより,仮名漢字変換システムの効率的かつ継続的な精度向上を行うことが可能であることが示された.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bisani\BBA\Ney}{Bisani\BBA\Ney}{2005}]{Open.Vocabulary.Speech.Recognition.with.Flat.Hybrid.Models}Bisani,M.\BBACOMMA\\BBA\Ney,H.\BBOP2005\BBCP.\newblock\BBOQOpenVocabularySpeechRecognitionwithFlatHybridModels.\BBCQ\\newblockIn{\BemProceedingsoftheInterspeech2005},\mbox{\BPGS\725--728}.\bibitem[\protect\BCAY{Choueiter,Seneff,\BBA\Glass}{Choueiteret~al.}{2007}]{New.Word.Acquisition.Using.Subword.Modeling}Choueiter,F.~G.,Seneff,S.,\BBA\Glass,J.\BBOP2007\BBCP.\newblock\BBOQNewWordAcquisitionUsingSubwordModeling.\BBCQ\\newblockIn{\BemProceedingsoftheInterspeech2007},\mbox{\BPGS\1765--1768}.\bibitem[\protect\BCAY{伊藤\JBA好田}{伊藤\JBA好田}{2000}]{N-gram出現回数の混合によるタスク適応の性能解析}伊藤彰則\JBA好田正紀\BBOP2000\BBCP.\newblockN-gram出現回数の混合によるタスク適応の性能解析.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ83-D-II}(11),\mbox{\BPGS\2418--2427}.\bibitem[\protect\BCAY{甲斐\JBA廣瀬\JBA中川}{甲斐\Jetal}{1999}]{単語N-gram言語モデルを用いた音声認識システムにおける未知語・冗長語の処理}甲斐充彦\JBA廣瀬良文\JBA中川聖一\BBOP1999\BBCP.\newblock単語N-gram言語モデルを用いた音声認識システムにおける未知語$\cdot$冗長語の処理.\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(4),\mbox{\BPGS\1383--1394}.\bibitem[\protect\BCAY{北}{北}{1999}]{確率的言語モデル}北研二\BBOP1999\BBCP.\newblock\Jem{確率的言語モデル}.\newblock言語と計算4巻.東京大学出版会.\bibitem[\protect\BCAY{倉田\JBA森\JBA伊東\JBA西村}{倉田\Jetal}{2008}]{音声とテキストを用いた認識単語辞書の自動構築}倉田岳人\JBA森信介\JBA伊東伸泰\JBA西村雅史\BBOP2008\BBCP.\newblock音声とテキストを用いた認識単語辞書の自動構築.\\newblock\Jem{情報処理学会論文誌},{\Bbf49}(8),\mbox{\BPGS\2900--2909}.\bibitem[\protect\BCAY{Lee,Kawahara,\BBA\Shikano}{Leeet~al.}{2001}]{Julius.--.An.Open.Source.Real-Time.Large.Vocabulary.Recognition.Engine}Lee,A.,Kawahara,T.,\BBA\Shikano,K.\BBOP2001\BBCP.\newblock\BBOQJulius---anopensourcereal-timelargevocabularyrecognitionengine.\BBCQ\\newblockIn{\BemProceedingsoftheEurospeech2001},\mbox{\BPGS\1691--1694}.\bibitem[\protect\BCAY{李\JBA河原\JBA武田\JBA鹿野}{李\Jetal}{2000}]{Phonetic.Tied-Mixture.モデルを用いた大語彙連続音声認識}李晃伸\JBA河原達也\JBA武田一哉\JBA鹿野清宏\BBOP2000\BBCP.\newblockPhoneticTied-Mixtureモデルを用いた大語彙連続音声認識.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ83-D-II}(12),\mbox{\BPGS\2517--2525}.\bibitem[\protect\BCAY{李\JBA河原\JBA鹿野}{李\Jetal}{2003}]{2パス探索アルゴリズムにおける高速な単語事後確率に基づく信頼度算出法}李晃伸\JBA河原達也\JBA鹿野清宏\BBOP2003\BBCP.\newblock2パス探索アルゴリズムにおける高速な単語事後確率に基づく信頼度算出法.\\newblock\Jem{情報処理学会研究報告},2003-SLP-49-48,\mbox{\BPGS\281--286}.\bibitem[\protect\BCAY{Matsunaga,Yamada,\BBA\Shikano}{Matsunagaet~al.}{1992}]{Task.adaptation.in.stochastic.language.models.for.continuous.speech.recognition}Matsunaga,S.,Yamada,T.,\BBA\Shikano,K.\BBOP1992\BBCP.\newblock\BBOQTaskadaptationinstochasticlanguagemodelsforcontinuousspeechrecognition.\BBCQ\\newblockIn{\BemProceedingsoftheICASSP1992},\lowercase{\BVOL}~1,\mbox{\BPGS\165--168}.\bibitem[\protect\BCAY{森\JBA土屋\JBA山地\JBA長尾}{森\Jetal}{1999}]{確率的モデルによる仮名漢字変換}森信介\JBA土屋雅稔\JBA山地治\JBA長尾真\BBOP1999\BBCP.\newblock確率的モデルによる仮名漢字変換.\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(7),\mbox{\BPGS\2946--2953}.\bibitem[\protect\BCAY{森\JBA小田}{森\JBA小田}{2007}]{自動未知語獲得による仮名漢字変換システムの精度向上}森信介\JBA小田裕樹\BBOP2007\BBCP.\newblock自動未知語獲得による仮名漢字変換システムの精度向上.\\newblock\Jem{言語処理学会第13回年次大会発表論文集},\mbox{\BPGS\340--343}.\bibitem[\protect\BCAY{森\JBA小田}{森\JBA小田}{2009}]{擬似確率的単語分割コーパスによる言語モデルの改良}森信介\JBA小田裕樹\BBOP2009\BBCP.\newblock擬似確率的単語分割コーパスによる言語モデルの改良.\\newblock\Jem{自然言語処理},{\Bbf16}(5),\mbox{\BPGS\7--21}.\bibitem[\protect\BCAY{Mori\BBA\Nagao}{Mori\BBA\Nagao}{1996}]{Word.Extraction.from.Corpora.and.Its.Part-of-Speech.Estimation.Using.Distributional.Analysis}Mori,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1996\BBCP.\newblock\BBOQWordExtractionfromCorporaandItsPart-of-SpeechEstimationUsingDistributionalAnalysis.\BBCQ\\newblockIn{\BemProceedingsoftheCOLING1996},\mbox{\BPGS\1119--1122}.\bibitem[\protect\BCAY{長野\JBA森\JBA西村}{長野\Jetal}{2006}]{N-gramモデルを用いた音声合成のための読み及びアクセントの同時推定}長野徹\JBA森信介\JBA西村雅史\BBOP2006\BBCP.\newblockN-gramモデルを用いた音声合成のための読み及びアクセントの同時推定.\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(6),\mbox{\BPGS\1793--1801}.\bibitem[\protect\BCAY{永田}{永田}{1999a}]{統計的言語モデルとN-best探索を用いた日本語形態素解析法}永田昌明\BBOP1999a\BBCP.\newblock統計的言語モデルとN-best探索を用いた日本語形態素解析法.\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(9),\mbox{\BPGS\3420--3431}.\bibitem[\protect\BCAY{永田}{永田}{1999b}]{未知語の確率モデルと単語の出現頻度の期待値に基づくテキストからの語彙獲得}永田昌明\BBOP1999b\BBCP.\newblock未知語の$\!\!\!$確率モデルと単語の出現頻度の期待値に基づくテキストからの語彙獲得.\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(9),\mbox{\BPGS\3373--3386}.\bibitem[\protect\BCAY{小椋\JBA小磯\JBA冨士池\JBA原}{小椋\Jetal}{2008}]{『現代日本語書き言葉均衡コーパス』形態論情報規程集}小椋秀樹\JBA小磯花絵\JBA冨士池優美\JBA原裕\BBOP2008\BBCP.\newblock\Jem{『現代日本語書き言葉均衡コーパス』形態論情報規程集}.\bibitem[\protect\BCAY{Wessel,Schl{\"u}ter,\BBA\Ney}{Wesselet~al.}{2001}]{Confidence.measures.for.large.vocabulary.continuous.speech.recognition}Wessel,F.,Schl{\"u}ter,R.,\BBA\Ney,H.\BBOP2001\BBCP.\newblock\BBOQConfidenceMeasuresforLargeVocabularyContinuousSpeechRecognition.\BBCQ\\newblock{\BemIEEETransactionsonSpeechandAudioProcessing},{\Bbf9}(3),\mbox{\BPGS\288--298}.\end{thebibliography}\begin{biography}\bioauthor{笹田鉄郎}{2007年京都大学工学部電気電子工学科卒業.2009年同大学院情報学研究科修士課程修了.同年,同大学院博士後期課程に入学,現在に至る.}\bioauthor{森信介}{1993年京都大学工学部電気工学第二学科卒業.1995年京都大学大学院工学研究科電気工学第二専攻修士課程修了.1998年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了.工学博士.同年日本アイ・ビー・エム(株)入社.2007年日本アイ・ビー・エム(株)退社.同年より京都大学学術情報メディアセンター准教授.現在に至る.自然言語処理ならびに音声言語処理,特に確率的言語モデルに関する研究に従事.1997年情報処理学会山下記念研究賞受賞.2010年情報処理学会論文賞受賞.}\bioauthor{河原達也}{1987年京都大学工学部情報工学科卒業.1989年同大学院修士課程修了.1990年同博士後期課程退学.博士(工学).同年京都大学工学部助手.1995年同助教授.1998年同大学情報学研究科助教授.2003年同大学学術情報メディアセンター教授.現在に至る.この間,1995年から1996年まで米国・ベル研究所客員研究員.1998年から2006年までATR客員研究員.1999年から2004年まで国立国語研究所非常勤研究員.2001年から2005年まで科学技術振興事業団さきがけ研究21研究者.2006年から情報通信研究機構短時間研究員.音声言語処理,特に音声認識及び対話システムに関する研究に従事.1997年度日本音響学会粟屋潔学術奨励賞受賞.2000年度情報処理学会坂井記念特別賞受賞.情報処理学会連続音声認識コンソーシアム代表,IEEESPSSpeechTC委員,IEEEASRU2007GeneralChair,言語処理学会理事,を歴任.情報処理学会音声言語情報処理研究会主査.日本音響学会,情報処理学会各代議員.電子情報通信学会,人工知能学会,言語処理学会,IEEE各会員.}\end{biography}\biodate\end{document}
| |
V14N05-08 | \section{はじめに}
\label{sec:intro}\subsection{背景と動機}参照結束性(referentialcoherence)とは,主題の連続性や代名詞化によってもたらされる,談話の局所的な繋がりの滑らかさである.本研究の目的は,参照結束性を引き起こすメカニズムの定量的モデル化である.この問題を扱う動機を以下に示す.\begin{itemize}\item[1.]{\bf認知言語学的動機:}談話参与者(発話者,受話者;筆者,読者)が高い参照結束性で繋がる表現/解釈を選択するのは,どのような行動選択メカニズムによるものだろうか?~参照結束性の標準的理論であるセンタリング理論\shortcite{grosz1983,grosz1995}は,この行動選択メカニズムをモデル化していないという課題を残している.上記の問いに対する仮説として,Hasidaetal.\citeyear{hasida1995}はゲーム理論\shortcite{osbone1994,neumann1944}に基づく定式化を提案した.この仮説を{\bf意味ゲーム(MeaningGame)}と呼ぶ.意味ゲーム仮説は日本語コーパスで検証された\shortcite{siramatu2005nlp}が,日本語以外の言語では未検証である.近年,語用論や談話現象などの言語現象をゲーム理論で説明しようとする研究が増えている\shortcite{parikh2001,rooij2004,benz2006}ことからも,意味ゲーム仮説が言語をまたぐ一般性を有するか否かを実データ上で検証することは重要な課題である.\item[2.]{\bf工学的動機:}対話システムや自動要約処理では,参照結束性が高い順序で発話や文を並べ,理解しやすい談話構造を出力することが重要である.そのためには,発話$U_i$までの先行文脈$[U_1,\cdots,U_i]$と後続発話$U_{i+1}$との間の参照結束性のモデル化が不可欠である.工学的に,$U_{i+1}$の候補群から1つの候補を選択する基準として用いるためには,参照結束性の高い候補を選択するためのメカニズムを定量的にモデル化し,そのモデルによって参照結束性の高さを定量的な値として推定できることが望ましい.つまり,本研究が目指す処理の出力は,{\bf先行文脈$[U_1,\cdots,U_i]$と後続発話$U_{i+1}$との間の参照結束性を表す定量的な値}である.これを,様々な言語の談話処理システムから利用可能にすることを目指す.\end{itemize}本研究が扱う参照結束性という談話現象は,談話参与者の認知的な負荷削減と密接に関連する.もし,談話参与者の負荷を削減しようとする発話行動が,様々な言語で参照結束性を引き起こす基本原理となっているのならば,その原理を定式化することで,言語をまたぐ一般性を備えた参照結束性のモデルを構築できるはずである.われわれは,意味ゲーム仮説に基づいてセンタリング理論を一般化するというアプローチを踏襲することで,そのような言語一般性を備えたモデルを構築できると考える.これにより,ゲーム理論に基づく定量的・体系的な参照結束性の分析が,様々な言語で可能になると期待される.\subsection{目的と課題}本研究の目的は,(1)「参照結束性はゲーム理論の期待効用原理で説明できる」という仮説\shortcite{hasida1996,siramatu2005nlp}を,性質の異なる様々な言語の実データを用いて検証し,(2)それによって言語一般性を備えた参照結束性の定量的モデルを構築することである\footnote{本研究の目的は照応解析の精度向上ではない.また,機械学習を用いた照応解析研究\shortcite{ng2004,strube2003,iida2004}は,参照結束性を引き起こす行動選択メカニズムの解明を目指してはいないので,本研究とは目的が異なる.}.\begin{figure}[b]\begin{center}\includegraphics{14-5ia8f1.eps}\caption{2つの課題}\label{fig:issues}\vspace{-\normalbaselineskip}\end{center}\end{figure}本研究の目的のために重要な2つの課題を,図\ref{fig:issues}および以下に示す.\begin{itemize}\item[1.]{\bf言語独立な行動選択原理のモデル化:}談話参与者は,コミュニケーションを阻害しない程度に知覚的負荷の軽減が見込まれる表現と解釈を選択する.この行動選択原理から,様々な言語の上での参照結束性のメカニズムを説明できるとわれわれは予想する.この原理を意味ゲームのフレームワークに基づいて定式化することで,参照結束性の選好を談話参与者の知覚的な因子(談話中で参照される実体に向ける注意や,参照表現を用いる際の知覚的なコスト)からボトムアップにモデル化する.そのモデルが参照結束性を説明できるか否かを,様々な言語の実データで確かめる.\item[2.]{\bf言語依存な特性を統計的に獲得可能なモデル化:}原理的には言語に独立な行動選択機構があるにしても,表層表現の知覚においては各言語の特性に依存する言語的因子があると考えられる.具体的には,談話参与者が実体に向ける注意の度合(顕現性;salience)や,参照表現を用いる際の知覚的なコストは,各言語に特有な言語表現に影響されるはずである.言語毎の手作業の設計を避け,より精緻に当該言語に適応させるためには,当該言語のコーパスからその特性を自動獲得可能なモデルが望ましい.そのためには,顕現性や知覚コストを統計的に定式化する必要がある.\end{itemize}\subsection{アプローチ}本稿では,上で述べた2つの課題に対して以下のアプローチをとる.\begin{itemize}\item[1.]{\bf参照結束性を引き起こす行動選択原理の言語をまたぐ一般性を検証:}Hasida\citeyear{hasida1995},白松他\citeyear{siramatu2005nlp}の仮説(ゲーム理論に基づく参照結束性の定式化)が,言語をまたぐ一般性を有するか否かを検証する.具体的には,性質が異なる2つの言語である日本語と英語のコーパスを用いて検証実験を行う.\item[2.]{\bf言語依存な知覚的要因を表すパラメタを統計的に設計:}参照結束性に影響する知覚的な要因(実体の顕現性,参照表現を使う際の知覚コスト)は,言語毎に特有な表現に影響されると考えられるので,これらをコーパスに基づく統計的なパラメタとして設計する.具体的には,言語特有の表現に依存するパラメタ分布を,日本語と英語のコーパスから獲得する実験を行う.これにより,統計的定義の妥当性を検証する.\end{itemize}以下,\ref{sec:issues}章で従来研究の概要と問題点を説明し,\ref{sec:ut}章では白松他\citeyear{siramatu2005nlp}のモデルを多言語に適用する際の問題点を解決する.\ref{sec:verification}章では,性質が異なる大きく異なる2つの言語である日本語と英語のコーパスを用い,モデルの言語一般性を検証する.\ref{sec:discussion}章では,参照結束性の尺度としての期待効用の性質,および,代名詞化の傾向に関する日本語と英語の違いを考察する.最後に,\ref{sec:conc}章で結論を述べる.
\section{従来研究の概要と問題点}
\label{sec:issues}以下では,まずセンタリング理論による非定量的なモデル化の概要と問題点を述べる.次に,その定量的な一般化である白松他\citeyear{siramatu2005nlp}のモデルの概要と,言語一般性に関する問題点,および,多言語への適用のために解決する必要のある問題点を述べる.\subsection{センタリング理論}\paragraph{センタリング理論の概要}センタリング理論\shortcite{grosz1983,grosz1995}は,参照結束性に関する標準的理論である.センタリング理論では,局所的に共同注意の焦点になっている実体を{\bf中心(center)}と呼ぶ.実体に対する共同注意の度合,すなわち実体の目立ち具合を{\bf顕現性(salience)}と呼ぶ.顕現性の順に文法役割を順序付けするヒューリスティクスは,{\bfCf-ranking}と呼ばれる\shortcite{walker1994}.Cf-rankingには言語によって違いがあり,日本語と英語では以下のように定義される.\\\hspace{2mm}日本語:主題(助詞ハ)$\succ$主語(助詞ガ)$\succ$間接目的語(助詞ニ)$\succ$目的語(助詞ヲ)$\succ$その他\\\hspace{2mm}英語:~~~主語$\succ$目的語$\succ$間接目的語$\succ$補語$\succ$その他\\ただし${\itgram}_1\succ{\itgram}_2$は,${\itgram}_1$の顕現性が${\itgram}_2$より高いことを表す.談話[U$_1$,U$_2$,$\cdots$,U$_n$]における各発話単位$U_i$の中心は,Cf-rankingの顕現性順序に基づき以下の3つの制約によって定義される.\begin{itemize}\item{\bf制約1:}発話単位$U_i$は1つの{\bf後向き中心(backward-lookingcenter)}Cb($U_i$)を持つ.\item{\bf制約2:}{\bf前向き中心(forward-lookingcenters)}Cf($U_i$)の全要素は$U_i$で参照される.\item{\bf制約3:}Cb($U_i$)は,$U_i$で参照される実体のうちでCf($U_{i-1}$)における顕現性順序が最も高い.\end{itemize}なお,Cf($U_i$)の要素のうち最も顕現性順序が高い実体Cp($U_i$)は{\bf優先中心(preferredcenter)}と呼ばれ,後続発話のCb$(U_{i+1})$の予測であると解釈される.これらの制約に基づき,参照結束性は以下の2つのルールで形式化される.\begin{itemize}\item{\bfルール1:}Cf($U_i$)の要素のうち1つでも代名詞化されるなら,Cb($U_i$)は代名詞化される.\item{\bfルール2:}隣接する発話単位対では,以下のように中心の連続性が高い遷移ほど好まれる.\\~~~~~~~{\bfContinue}(Cb($U_i$)$=$Cb($U_{i+1}$),Cb($U_{i+1}$)$=$Cp($U_{i+1}$))\\~~~~$\succ${\bfRetain}~~~~(Cb($U_i$)$=$Cb($U_{i+1}$),Cb($U_{i+1}$)$\neq$Cp($U_{i+1}$))\\~~~~$\succ${\bfSmooth-Shift}(Cb($U_i$)$\neq$Cb($U_{i+1}$),Cb($U_{i+1}$)$=$Cp($U_{i+1}$))\\~~~~$\succ${\bfRough-Shift}~~(Cb($U_i$)$\neq$Cb($U_{i+1}$),Cb($U_{i+1}$)$\neq$Cp($U_{i+1}$))\end{itemize}ただし${\ittrans}_1\succ{\ittrans}_2$は,遷移タイプ${\ittrans}_1$が${\ittrans}_2$よりも好まれることを表す.ルール1は「後向き中心Cbは代名詞化されやすい」という傾向を意味し,ルール2は「中心は連続しやすい」という傾向を意味する.図\ref{fig:coherence}に,ルール1,2に従う例,すなわち参照結束性の高い例と,ルール1,2に従わない例,すなわち参照結束性の低い例を示す.\begin{figure}[t]\begin{center}\includegraphics{14-5ia8f2.eps}\caption{参照結束性が高い繋がり,低い繋がりの例}\label{fig:coherence}\end{center}\end{figure}\paragraph{センタリング理論の問題点}センタリング理論を構成する制約やルールについては,研究者ごとに様々なバリエーションが提案されている\shortcite{poesio2004}.それらの試みは理論の改良を意図したものだが,「なぜルール1,2を満たす表現が選択されるのか」という行動選択原理の形式化が不十分という点においては改善されていない.このことから,原理を欠いたまま,際限なくヒューリスティクスのバリエーションが提案されていくという状況が危惧される.これに対してわれわれは,参照結束性を引き起こす行動選択機構の,よりシンプルな定量的モデルが必要であると考える.言い換えると,センタリング理論は,談話参与者の行動選択原理から参照結束性のメカニズムを説明するモデルによって一般化されるべきである.この一般化により,定量的な観点からの,より体系的な分析が可能になると期待される.また,Cf-rankingは言語依存な因子の一例であるが,これを各言語特有の文法役割の上で設定するには人手が必要である上,その定義には統計的根拠を欠く.たとえば,Walkerら\citeyear{walker1994}の日本語Cf-rankingにおける目的語と間接目的語の順序は,根拠が明らかでない.\subsection{意味ゲームに基づくセンタリングモデル}\label{sec:mgcm}\paragraph{意味ゲームの概要}{\bf意味ゲーム(MeaningGame)}\shortcite{hasida1995,hasida1996}とは,自然言語による意図的コミュニケーションを複数のプレイヤーによるゲームと見なし,ゲーム理論\shortcite{neumann1944,osbone1994}によって数理的にモデル化する枠組である.発話者を$S$,受話者を$R$,意味内容の集合を$C$,表現(メッセージ)の集合を$M$,発話者が意図した内容$c_S$,発話した表現$m$,受話者が解釈した内容$c_R$の三つ組$\langlec_S,m,c_R\rangle$の集合を$O=C\timesM\timesC$とおき,$S$と$R$が$o=\langlec_S,m,c_R\rangle$を選択する確率をPr$(o)$,談話参与者$X$にとっての$o$の効用($o$が選ばれることによって$X$が得る利得)をUt$(o,X)$とすると,$X$にとっての{\bf期待効用}(効用の期待値)は$$\sum_{o\inO}{\rmPr}(o){\rmUt}(X,o)$$と表され,$X$は期待効用が大きくなるような$o$を選択しやすい.この行動選択原理は{\bf期待効用原理}と呼ばれ,ゲーム理論や意思決定理論で一般的な仮説である.また以下の仮定を置くと,期待効用を最大化する$o$がPareto最適解\footnote{どのプレーヤについても単独で戦略を変えることによって自分の利得が高くならないようなプレーヤ達の戦略の組合せを(Nash)均衡と言い,全プレーヤにとってより望ましい均衡がないような均衡をPareto最適であると言う.}となる.\begin{itemize}\item{\bf確率Prに関する仮定:}${\rmPr}(o)$は,$S$と$R$の共有信念から定まる.また,${\rmPr}(o)$の分布自体が$S$と$R$の共有信念に含まれる.\item{\bf効用Utに関する仮定:}${\rmUt}(S,o)$と${\rmUt}(R,o)$の分布に相関がある.すなわち,${\rmUt}(S,o_1)>{\rmUt}(S,o_2)ならば{\rmUt}(R,o_1)>{\rmUt}(R,o_2)$が成り立つ.\item{\bfコミュニケーション成立に関する仮定:}常に$c_S=c_R$である.すなわち,意味内容の伝達が必ず成功する.\end{itemize}\noindentHasida\citeyear{hasida1996}は,この枠組に基づいて$S$による照応詞選択,および,$R$による照応解消を定式化することにより,センタリング理論のルール1が導けることを示した.\paragraph{意味ゲームに基づくセンタリングモデルの概要}白松他\citeyear{siramatu2005nlp}は,ルール1の導出に関するHasidaの議論を以下のように定式化することでセンタリング理論を一般化し,その仮説を日本語の大規模コーパスを用いて検証した.ただし,以下では発話単位$U_i$までの先行文脈$[U_1,\cdots,U_i]$を${\rmpre}(U_i)$と表記する.\begin{itemize}\item{\bf参照確率Prに関する仮定:}発話者$S$と受話者$R$が先行文脈${\rmpre}(U_i)$を共有し,これを手がかりにして後続発話$U_{i+1}$で参照される実体$e_1,e_2,\cdots$を決定するとき,後続発話$U_{i+1}$で実体$e$が参照される確率${\rmPr}(e|{\rmpre}(U_i))$も,$S$と$R$の共有信念に含まれる.この確率を{\bf参照確率(referenceprobability)}と呼び,実体$e$の顕現性を表す量と見なせる.センタリング理論のCf-rankingに対応する.\item{\bf知覚効用Utに関する仮定:}後続発話$U_{i+1}$に含まれる参照表現$w$を$S$が言う(書く)知覚的なコストと,$R$が聞く(読む)知覚的なコストを考えると,$S,R$双方にとって代名詞の方が非代名詞よりも低コストなので,$S$,$R$双方にとっての$w$の効用として共通の値Ut($w$)を用い,$w$が代名詞のとき${\rmUt}(w)=2$,$w$が非代名詞のとき${\rmUt}(w)=1$と仮定する.この効用を{\bf知覚効用(perceptualutility)}と呼び,参照表現$w$の簡略性を表す量と見なせる.センタリング理論のルール1における代名詞/非代名詞の区別に対応する.\item{\bfコミュニケーション成立に関する仮定:}後続発話$U_{i+1}$に含まれる参照表現$w_1,w_2,\cdots$と実体$e_1,e_2,\cdots$との参照関係$\langlew_1,e_1\rangle,\langlew_2,e_2\rangle,\cdots$について,$S$の意図と$R$の解釈とが必ず一致する.\end{itemize}\noindentこれら3つの仮定の下で,発話$U_{i+1}$の{\bf期待効用}${\rmEU}(U_{i+1})$は以下のように表される\footnote{「$w_1$が$e_1$を参照する」という事象と「$w_2$が$e_2$を参照する」という事象は互いに排反ではないので,${\rmEU}(U_{i+1})$の定義は厳密な意味での期待効用とは異なる.しかし,「大きな期待効用を持つ表現/解釈が好まれる」という期待効用原理においては,複数の候補を期待効用の大小に基づいて選択できることが重要である.${\rmEU}(U_{i+1})$がこの性質を満たすことはHasidaetal.\citeyear{hasida1995}に例示されているので,本稿では省略する.}.$${\rmEU}(U_{i+1})=\hspace{-1mm}\sum_{w\mbox{refersto}e\mbox{in}U_{i+1}}\hspace{-4mm}{\rmPr}(e|{\rmpre}(U_i)){\rmUt}(w)$$この期待効用${\rmEU}(U_{i+1})$を最大化するような参照関係$\langlew,e\rangle$から成る$U_{i+1}$がPareto最適解となるので,$U_{i+1}$の表現/解釈の選択メカニズムは単純な期待効用原理に帰着できる.その期待効用原理から,センタリング理論ルール1,2の一般化である以下の選好1a,1b,2が導かれる.\begin{itemize}\item{\bf選好1a:}1つの発話単位$U_{i+1}$が複数の参照表現を含む場合,その中から${\rmUt}(w_1)>{\rmUt}(w_2)$であるような参照表現のペア$w_1,w_2$を選び,それぞれ指示対象との組が$\langlew_1,e_1\rangle,\langlew_2,e_2\rangle$であるとき,実体$e_1,e_2$の参照確率の大小関係は${\rmPr}(e_1|{\rmpre}(U_i))>{\rmPr}(e_2|{\rmpre}(U_i))$になりやすい.すなわち,知覚効用が高い参照表現$w_1$の方が,参照確率が高い実体$e_1$を参照しやすい(図\ref{fig:crossed_or_uncrossed}).\item{\bf選好1b:}照応詞$w$の効用{\itUt$(w)$}とその指示対象$e$の参照確率Pr$(e|{\rmpre}(U_i))$の間には正の相関がある.\item{\bf選好2:}より大きな期待効用EU($U_{i+1}$)を持つ$U_{i+1}$が選ばれやすい.\end{itemize}\begin{figure}[b]\begin{center}\includegraphics{14-5ia8f3.eps}\caption{期待効用原理から導かれる選好1a,1b}\label{fig:crossed_or_uncrossed}\end{center}\vspace{-\normalbaselineskip}\end{figure}選好1aは,期待効用原理から導かれ,センタリング理論のルール1の一般化になっている.図\ref{fig:crossed_or_uncrossed}に示すように,実体$e$をPrの降順に,参照表現$w$をUtの降順に並べたときに,交差しない参照関係(A)に伴う期待効用${\rmEU_A}(U_{i+1})$の方が,交差する(B)に伴う${\rmEU_B}(U_{i+1})$よりも常に大きくなる.よって期待効用原理より,(A)の方が(B)よりも選ばれやすい.このとき,実体$e$がCbならば参照確率が高くなり,参照表現$w$が代名詞ならば知覚効用が高くなることから,(A)はセンタリング理論のルール1を満たしており,よって選好1aはルール1の一般化であることがわかる.ただし,(A)と(B)の期待効用の差${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})$が小さいと選好1aは弱く働き,差が大きいと選好1aは強く働くと予想される.選好1bは,選好1aから導かれ,選好1aの更なる一般化になっている.図\ref{fig:crossed_or_uncrossed}の(A)が選ばれやすいならば,高い参照確率Prを有する(目立っている)実体$e$は,高い知覚効用Utを有する(簡略化された)参照表現$w$によって参照されやすいはずであり,${\rmPr}(e|{\rmpre}(U_i))$と${\rmUt}(w)$には正の相関があると予想される.選好2は,期待効用原理そのものであると同時に,センタリング理論のルール2の一般化になっている.センタリング理論のルール2における条件式Cb($U_i$)$=$Cb($U_{i+1}$)が成り立つとき,Cbの参照確率が高くなると同時に,選好1bの予測からCbを参照する照応詞の効用も高くなると考えられ,したがって現在の発話の期待効用が増すからである.また条件式Cb(U$_{i+1}$)$=$Cp(U$_{i+1})$が成り立つときも,やはりCbの参照確率と効用が高くなり,期待効用が高くなると考えられる.さらに,RetainとSmooth-Shiftは共に一方の条件式のみが成り立つ遷移タイプであるが,Cbは既に観測されたセンターであるのに対し,Cpは次のセンターの予測に過ぎないので,Cb($U_i$)$=$Cb($U_{i+1}$)が成り立つRetainの方が,Cb(U$_{i+1}$)$=$Cp(U$_{i+1})$が成り立つSmooth-Shiftよりも期待効用が大きくなると予想される.この白松他\citeyear{siramatu2005nlp}のモデルを,本稿では{\bfMGCM(Meaning-Game-basedCentering\linebreakModel)}と呼ぶ.MGCMにおける期待効用を構成する2つのパラメタ,すなわち参照確率と知覚効用について,以下に定義と算出方法を述べる.\noindent\hangafter=1\hangindent=1zw\textbf{参照確率(ReferenceProbability)の定義}\\発話単位$U_i$までの先行文脈${\rmpre}(U_i)$における実体$e$の素性ベクトルが与えられた下で,実体$e$が後続する発話単位$U_{i+1}$で参照される条件付き確率Pr($e|{\rmpre}(U_i)$)で参照確率を定義する.この確率は,$U_i$における実体$e$の顕現性を表す.\noindent\hangafter=1\hangindent=1zw\textbf{参照確率の算出方法}\\実体$e$の顕現性は,先行文脈${\rmpre}(U_i)$において$e$がどのように参照されているかに影響される.白松他\citeyear{siramatu2005nlp}が用いた表\ref{tab:features}の3つの素性{\itdist,gram,chain}は,顕現性に影響すると考えられる素性である.{\itdist}は,$e$が最後に参照された発話単位から,発話単位$U_{i+1}$への距離を表す.{\itgram}は,$e$の最後に参照された発話単位における文法役割を表す.文法役割の種類ごとの実数値としては,まずコーパス中の当該文法役割の名詞句を全て抽出し,そのうち次の発話で参照されている割合Pr({\itgram})を用いる.{\itchain}は,$U_i$までに$e$が参照された回数を表す.{\itdistやchain}の設計で$\log$を用いているのは,ウェーバー・フェヒナーの法則\shortcite{fechner1860}として知られる人間の知覚の対数関数的性質を反映させるためである.本稿でも,これら3つの素性から成る素性ベクトルを用いて参照確率を算出する.\begin{table}[t]\begin{center}\caption{Pr$(e|{\rmpre}(U_i))$の計算で用いる素性}\label{tab:features}\input{08t01.txt}\end{center}\end{table}図\ref{fig:pr}は,参照確率算出の基本的アイディアを表している.コーパス中のサンプルが3次元の素性空間上で充分に密に分布しているような理想的な場合に限り,図\ref{fig:pr}のような単純な計算方法で参照確率を計算することができる.以下では,まず最初に図\ref{fig:pr}の基本的アイディアを説明し,次に現実的な算出手法であるロジスティック回帰分析を用いる計算手法を説明する.\begin{figure}[b]\begin{center}\includegraphics{14-5ia8f4.eps}\caption{Pr($e|{\rmpre}(U_i)$)計算の基本的アイディア}\label{fig:pr}\end{center}\end{figure}\begin{itemize}\item{\bf基本的アイディア:}仮に,図\ref{fig:pr}の左側の発話$U_i$における``Tom''の参照確率\linebreakPr(``Tom''$|$pre($U_i$))を求めたいとする.このときの,対象事例(``Tom'',pre($U_i$))の素性は以下のようになる.\begin{itemize}\item[・]{\itdist=}$\log$(2+1)(``Tom''が最後に参照された$U_{i-2}$から$U_{i+1}$までの間の発話数が2)\item[・]{\itgram=}Pr(subject)(``Tom''が最後に参照された$U_{i-2}$での``Tom''の文法役割がsubject)\item[・]{\itchain}=$\log$(2+1)(``Tom''が$U_i$までに参照された回数が2)\end{itemize}この素性ベクトル[{\itdist=}$\log$(2+1),{\itgram=}Pr(subject),{\itchain}=$\log$(2+1)]と同じ素性ベクトルを持つサンプル($e$,pre($U_j$))の集合を,コーパスから抽出する.そのうち,$e$が$U_{j+1}$で参照されているサンプルの割合が,対象事例における``Tom''が$U_{i+1}$で参照される確率の近似値となる.\item{\bfロジスティック回帰による参照確率の算出:}実際には対象事例と全く同じ素性ベクトルを持つサンプルがコーパス中に充分にあるとは限らない.よって,何らかの内挿・外挿法を用いてデータスパースネスに対応する必要がある.そのため本稿では白松他\citeyear{siramatu2005nlp}と同様に,ロジスティック回帰によって参照確率を算出する.具体的には,サンプル($e$,pre($U_j$))の素性{\itdist,gram,chain}を説明変数として用い,$e$が$U_{j+1}$で参照されるか否か(参照されるとき1,参照されないとき0)を被説明変数として用いる.ロジスティック回帰では,被説明変数が1になる確率${\rmPr}(e|{\rmpre}(U_j))$のロジット$\log({\rmPr}/(1-{\rmPr}))$を,以下のような説明変数の線形結合で表す.$$\log\frac{{\rmPr}(e|{\rmpre}(U_j))}{1-{\rmPr}(e|{\rmpre}(U_j))}=b_0+b_1{\itdist}+b_2{\itgram}+b_3{\itchain}$$ロジスティック回帰モデルの事前学習では,コーパス中のサンプル($e$,pre($U_j$))で観測された説明変数・被説明変数の値を学習データとして与え,最尤法によって回帰重み$b_0,b_1,b_2,b_3$を求める.また,事前学習したロジスティック回帰モデルを用いて新たな事例($e$,pre($U_i$))の参照確率${\rmPr}(e|{\rmpre}(U_i))$を計算するには,素性{\itdist,gram,chain}の観測値を以下の回帰式に代入すればよい.$${\rmPr}(e|{\rmpre}(U_i))=(1+{\rmexp}(-(b_0+b_1{\itdist}+b_2{\itgram}+b_3{\itchain})))^{-1}$$\end{itemize}\par\noindent\hangafter=1\hangindent=1zw\textbf{知覚効用(PerceptualUtility)の定義}\\参照表現$w$が発話者から受話者へ伝達される際の知覚的な負荷低減の度合Ut($w$)を知覚効用として定義する.ただし,照応解消などの意味的解釈に伴う認知的負荷は含まず,表層的な記号伝達処理(発話,聞き取り;筆記,読み取り)に伴う知覚的な負荷のみを対象とする.\par\noindent\hangafter=1\hangindent=1zw\textbf{知覚効用の算出方法}\\白松他\citeyear{siramatu2005nlp}は,$w$が代名詞のとき${\rmUt}(w)=2$,$w$が非代名詞のとき${\rmUt}(w)=1$という先験的な仮定を置いているので,このままでは知覚効用をコーパスから測定することはできない.\noindent認知的負荷を排除して知覚的負荷のみを用いて効用を設計する意図は,図\ref{fig:issues}に示したように,表層の知覚(実体の顕現性と名詞句使用の知覚的コスト)からボトムアップに決定される行動選択原理(期待効用EU($U_{i+1}$)に基づく行動選択)により,発話者の照応詞選択および受話者の照応解消の過程をモデル化するためである\footnote{なお,センタリング理論やMGCMが表現する参照結束性の選好は,照応処理過程において述語項構造や参照表現自身の選択制限によって上書きされる.よって,参照結束性の選好だけを用いて照応解析しようとするアプローチは現実的でなく,それは本研究の目的(参照結束性の定量的モデル化)の範疇外である.}.表\ref{tab:corresp}は,参照確率,知覚効用,期待効用がそれぞれセンタリング理論のどのルールに対応しているのかを示している.参照確率は顕現性の尺度なので,センタリング理論におけるCf-rankingに対応する.知覚効用は参照表現伝達時の負荷低減の尺度なので,センタリング理論のルール1における代名詞化に対応する.期待効用は参照結束性の尺度なので,センタリング理論のルール2における遷移のランキングに対応する.\begin{table}[t]\begin{center}\caption{センタリング理論とMGCMの対応}\label{tab:corresp}\input{08t02.txt}\end{center}\end{table}MGCMにおける期待効用は,$U_{i+1}$が発話者$S$から受話者$R$へ伝達される際に,「その両者にとって,参照関係の処理(発話者による出力と受話者による予測)にかかる負荷削減がどれだけ見込めるか」という期待値を表す.例えば,顕現性の高い(参照確率の高い)実体が,後続発話単位において知覚コストの低い(知覚効用の高い)表現によって参照される場合,その後続発話単位の期待効用は高くなる.つまり,そのような後続発話は認知的に低負荷であると期待されるので,選択されやすい\footnote{ただし,意味ゲームではコミュニケーションの成立(意味内容伝達の成功)を仮定しているので,「伝えるべき意味内容があるのに何も発話しない」という行動は選択されない.}.言い換えると,期待効用が大きくなるような$U_{i+1}$を選択することによって,${\rmpre}(U_i)$と$U_{i+1}$の間の高い参照結束性が実現されていると予想される.また対偶をとって,${\rmpre}(U_i)$と$U_{i+1}$の間の参照結束性が低い場合には,期待効用が小さな$U_{i+1}$が選択されてしまっていると予想される.この期待効用原理は理論的には各言語に独立なので,様々な言語において参照結束性が高い談話構造が好まれる理由を説明できると予想される.また工学的には,期待効用${\rmEU}(U_{i+1})$は${\rmpre}(U_i)$と$U_{i+1}$の間の参照結束性を表す尺度として,様々な言語の上での談話処理において,$U_{i+1}$の選択基準として使えると期待される.\paragraph{意味ゲームに基づくセンタリングモデルの問題点}従来のMGCM\shortcite{siramatu2005nlp}には,以下の課題が残されている.\begin{itemize}\item[1.]{\bf行動選択原理の言語一般性が未検証:}行動選択のメカニズムとしての期待効用原理は言語一般に関して成り立つと予想されるが,従来,MGCMは日本語のコーパスでしか検証されていなかった.「期待効用原理が,参照結束性の背後にある言語非依存な原理である」という仮説を実際のデータで裏付けるために,複数の言語のコーパスで検証する必要がある.\item[2.]{\bf先験的な知覚効用の設計:}従来のMGCMでは,参照確率$w$の知覚効用Ut($w$)は単純かつ先験的な仮定に基づいて定義されていた(Ut(代名詞)=2,Ut(非代名詞)=1).このような先験的な設計では,言語毎の参照表現の違いに対応できない.また,代名詞/非代名詞という参照表現の分類は粗すぎると考えられる.各言語に適応させるためにも,より細かい粒度に対応可能な統計的定義が必要である.\end{itemize}\noindent上記2における代名詞/非代名詞という分類の粗さの問題を,以下の例で説明する.\newenvironment{fminipage}{}{}\vspace{1\baselineskip}\begin{fminipage}{39zw}\noindent自民党は十一日,次期衆院選に向けた選挙対策本部(本部長・\underline{河野洋平総裁})の会合を開いた.\\\underline{河野氏}は「新制度の下で戦い,政権奪還を目指すのが基本的な考え」と強調.\\しかし,$\left\{\begin{array}{lc}{\rm(a)}&(\underline{φ}ハ)\\{\rm(b)}&\underline{彼}は\\{\rm(c)}&\underline{河野氏}は\\{\rm(d)}&\underline{河野洋平総裁}は\\\end{array}\right\}$「いつ行われても不思議ではない衆院選」とも述べ,...\\\end{fminipage}\vspace{\baselineskip}下線部は全て「河野洋平総裁」を参照している.(a)〜(d)は参照表現を変化させた例であり,原文では(a)のゼロ代名詞が使用されている.従来のMGCMの知覚効用の定義や,センタリング理論のルール1においては,(a),(b)の区別と,(c),(d)の区別が無かった.しかし本来ならば,(a)が最も知覚効用が高い(知覚コストが低い)参照表現であり,(b),(c),(d)と知覚効用が低くなると考えられる.モデルをより現実に近づけるには,より詳細な知覚効用の定義が必要である.
\section{改良MGCM:知覚効用の統計的な定義}
\label{sec:ut}以下では,知覚効用を様々な言語のコーパスから統計的に獲得できるように定義する.この新たな定義を用いたMGCMを,本稿では{\bf改良MGCM}と呼ぶ.\subsection{知覚効用とは}参照表現の知覚効用とは,前述したように,その表現を発話者・受話者間で伝達する際の処理(発話,聞き取り;筆記,読み取り)にかかる知覚的負荷の低さを表す.つまり,慣れなどの要因によって少ない知覚コストで処理できる参照表現ほど,高い知覚効用を持つ.ただし,ここでの知覚コストとは表層的なシンボルの伝達にかかる負荷のみを指し,照応解消などの意味理解に伴う負荷は含まない.何故なら,言語特有の表現に依存する知覚的処理を2つのパラメタ(参照確率と知覚効用)に割り当て,そこからボトムアップに構成される期待効用原理から,言語独立な表現/解釈の選択メカニズムをモデル化することを意図しているからである(\ref{sec:intro}章の図\ref{fig:issues}参照).この知覚効用を,白松ら\citeyear{siramatu2005nlp}は「代名詞の効用は非代名詞の効用よりも高い」という単純な仮定のみによって定義していた.\subsection{知覚コストの統計的定義}われわれは,参照表現の知覚コストはその表現の頻度に基づいて計算できると考える.何故なら,頻繁に使用される参照表現ほど,発話者・受話者はその表層的伝達処理に慣れてゆくため,知覚コストが低くなるためである.また,発話者・受話者が一旦その参照表現に慣れてしまうと,その表現の使用が知覚コストの削減に繋がるので,更に頻繁に使用されるようになる,とも考えられる.よって参照表現$w$の知覚コストは,コーパスの各発話単位で$w$が照応詞として使用される確率$p(w)$に基づいて定義できる.具体的には,「感覚量は物理量の対数に比例する」というウェーバー・フェヒナーの法則\shortcite{fechner1860}に従い,以下のように$p(w)$の対数を用いて$w$の知覚コストI($w$)を定義する.\begin{align*}{\rmI}(w)&=-\logp(w)\\&=-\log\frac{\#照応詞としてのw}{\#\rm全発話単位}~[{\rmnat}].\end{align*}つまり,知覚コストI($w$)を,当該発話単位で$w$が使用されるという事象の自己情報量として定義する.ただし$[{\rmnat}]$は自然対数を用いたときの情報量の単位であり,$1~[{\rmnat}]$=$\log_2e~[{\rmbit}]$である.\subsection{知覚効用の統計的定義}\label{subsec:utdef}$w$の知覚効用${\rmUt}(w)$を,知覚コスト${\rmI}(w)$の削減の度合として定義する.知覚効用${\rmUt}(w)$は,非負の値をとる尺度として設計する必要がある.その理由を以下に示す.MGCMでは,期待効用EU($U_{i+1}$)を参照結束性の尺度として設計する.参照結束性が強くなるのは,参照確率(顕現性)の高い実体$e$が,知覚効用の高い(知覚コストの低い代名詞などの)参照表現$w$によって参照されるときである.期待効用EU($U_{i+1}$)は,参照確率${\rmPr}(e|{\rmpre}(U_i))$と知覚効用${\rmUt}(w)$の積和なので,EU($U_{i+1}$)を参照結束性の尺度として設計するためには,\begin{align*}&{\rmPr}(e_1|{\rmpre}(U_i))>{\rmPr}(e_2|{\rmpre}(U_i)),{\rmUt}(w_1)>{\rmUt}(w_2)\\&\Rightarrow{\rmPr}(e_1|{\rmpre}(U_i)){\rmUt}(w_1)>{\rmPr}(e_2|{\rmpre}(U_i)){\rmUt}(w_2)\end{align*}という条件が常に満たされるように${\rmUt}(w)$を設計する必要がある.知覚効用を非負の尺度として設計した場合,${\rmPr}(e_1|{\rmpre}(U_i))>{\rmPr}(e_2|{\rmpre}(U_i))\ge0,{\rmUt}(w_1)>{\rmUt}(w_2)\ge0$のとき,常に${\rmPr}(e_1|{\rmpre}(U_i)){\rmUt}(w_1)>{\rmPr}(e_2|{\rmpre}(U_i)){\rmUt}(w_2)$が成り立つ.一方,知覚効用を負の値として設計した場合,${\rmPr}(e_1|{\rmpre}(U_i))>{\rmPr}(e_2|{\rmpre}(U_i))\ge0,0>{\rmUt}(w_1)>{\rmUt}(w_2)$のとき,${\rmPr}(e_1|{\rmpre}(U_i)){\rmUt}(w_1)>{\rmPr}(e_2|{\rmpre}(U_i)){\rmUt}(w_2)$が成り立つとは限らない.以上の考察より,知覚効用${\rmUt}(w)$を非負の値をとる尺度として設計する.具体的には,知覚コスト${\rmI}(w)$を逆転させた非負の尺度として以下のように定義する.\[{\rmUt}(w)={\itUt}_0-{\rmI}(w).\]基準値${\itUt}_0$は,${\rmUt}(w)\ge0$を保証するための${\rmmax}~{\rmI}(w)$以上の定数である.上記の議論より,この条件${\itUt}_0\ge{\rmmax}~{\rmI}(w)$さえ満たされていればEU($U_{i+1}$)は参照結束性を表す尺度になると予想される.ただし,この条件は選好2とセンタリング理論のルール2との整合性を保つためには必要だが,選好1a,1bには影響しない.何故なら,選好2とルール2が整合するのは条件${\itUt}_0\ge{\rmmax}~{\rmI}(w)$が成立するときのみであると(上記の議論から)予想されるのに対し,選好1a,1bの成立/不成立を決める参照表現ペア$w_1,w_2$の知覚効用の差${\rmUt}(w_1)-{\rmUt}(w_2)={\rmI}(w_2)-{\rmI}(w_1)$は,${\itUt}_0$の値に依存しないからである.よって,${\itUt}_0$の値は,選好2とルール2の整合性を基準として決定すればよい.具体的に本稿では,センタリング理論のルール2における遷移タイプ順序(Continue$\succ$Retain$\succ$Smooth-Shift$\succ$Rough-Shift)と期待効用EU($U_{i+1}$)とのスピアマン順位相関係数が最大になるように,コーパスから基準値${\itUt}_0$を決定する.このように決定した${\itUt}_0$の値は,${\itUt}_0\ge{\rmmax}~{\rmI}(w)$を満たしていると予想される.また,仮に${\itUt}_0\ge{\rmmax}~{\rmI}(w)$を満たす範囲で${\itUt}_0$の値を動かしたとしても,選好2とルール2の整合性は保たれると予想される.以上の統計的な定式化によって,言語特有の表現に依存した知覚効用の分布を,対象言語のコーパスから獲得可能にした.
\section{日本語・英語の大規模コーパスによる検証}
\label{sec:verification}\paragraph{検証実験の位置づけ}改良MGCMにおける各言語の特性の統計的獲得と,期待効用原理に基づく行動選択機構の言語一般性を,大きく性格の異なる2つの言語,日本語と英語のコーパスで検証する.日本語コーパスとして毎日新聞の記事を,英語コーパスとしてWallStreetJournal(WSJ)の記事を用いる.表\ref{tab:verification}に,本節で行う検証実験の位置づけを示す.特に新規性のある実験は,英語コーパス上での検証実験と,統計的に定義された知覚効用${\rmUt}(w)$の獲得に関する検証実験である.\begin{table}[b]\begin{center}\caption{本稿の改良MGCM検証実験の位置づけ}\label{tab:verification}\input{08t03.txt}\end{center}\end{table}\paragraph{前提となるコーパスの仕様}毎日新聞コーパスは1,356記事,63,562述語節,16,728照応詞から成る.WSJコーパスは2,412記事,135,278述語節,95,677照応詞から成る.どちらのコーパスにも,形態素,品詞,係り受け構造,照応の情報を表すGDA(GlobalDocumentAnnotation)\shortcite{hasida1998gda}のタグが付与されている.形態素,品詞,係り受け構造に関しては,自動的な解析結果を人手で修正したタグが付与されている.照応に関しては,完全に人手によるタグが付与されている.以下は毎日新聞の記事に対するアノテーション例である.ただし見やすくするため,形態素・品詞・細かい係り受けを表すタグは省いてある.\vspace{1\baselineskip}{\small\tt\noindent~<susyn="f">\\~~~<adpopr="topic.fit.agt">自民党は</adp>\\~~~<adp>十一日</adp>,\\~~~<adpopr="obj">\\~~~~~<np>\\~~~~~~~<adp>\\~~~~~~~~~<n>次期衆院選に向けた選挙対策本部</n>\\~~~~~~~~~<np>(本部長・<np\underline{id="KonoYohei"}>河野洋平総裁</np>)</np>の\hfill…\textcircled{\small1}\\~~~~~~~</adp>\\~~~~~~~<n>会合</n>\\~~~~~</np>を</adp>\\~~~<v>開い</v>た.</su>\\\\~<susyn="f">\\~~~<adpopr="topic.fit.agt"><np\underline{eq="KonoYohei"}>河野氏</np>は</adp>\hfill…\textcircled{\small2}\\~~~<adpopr="cnt">「新制度の下で戦い,政権奪還を目指すのが基本的な考え」と</adp>\\~~~<v>強調</v>.</su>\\\\~<susyn="f">\\~~~<adp>しかし</adp>,\\~~~<vp>\\~~~~~<adpopr="cnt">「いつ行われても不思議ではない衆院選」とも</adp>\\~~~~~<v\underline{agt="KonoYohei"}>述べ</v>,\hfill…\textcircled{\small3}\\~~~</vp>\\~~~<adpopr="obj">現行制度での準備も怠らない構えを</adp>\\~~~<v\underline{agt="KonoYohei"}>示し</v>た.</su>\hfill…\textcircled{\small4}}\vspace{1\baselineskip}上記の例の照応タグについて説明する.まず,先行詞のエレメント\textcircled{\small1}には,id属性({\ttid={\linebreak}"KonoYohei"})が付与されている.省略以外の照応詞を表すために,照応詞のエレメント\textcircled{\small2}にeq属性({\tteq="KonoYohei"})が付与されている.ゼロ代名詞などの省略を表すために,省略を受けるエレメント\textcircled{\small3},\textcircled{\small4}に省略の格を表す関係属性({\ttagt="KonoYohei"},この場合は主格)が付与されている.WallStreetJournalの記事に対しても,同様の照応タグが付与されている.\vspace{\baselineskip}{\small\tt\noindent~<susyn="b">\\~~~<qopr="cnt">``Wehavenousefulinformationonwhetherusersareatrisk,''</q>\\~~~<v>\\~~~~~<v>said</v>\\~~~~~<npopr="agt">\\~~~~~~~<persnamep\underline{id="DrTalcott"}>JamesA.Talcott</persnamep>\\~~~~~~~<adp>ofBoston'sDana-FarberCancerInstitute</adp>\\~~~~~</np></v>.</su>\\\\~<susyn="b">\\~~~<persnamep\underline{eq="DrTalcott"}opr="agt">Dr.Talcott</persnamep>\\~~~<v>\\~~~~~<v>led</v>\\~~~~~<npopr="obj">\\~~~~~~~<n>ateamofresearchers</n>\\~~~~~~~<adp>fromtheNationalCancerInstitute</adp>\\~~~~~</np></v>.</su>}\vspace{\baselineskip}\subsection{検証実験の準備}検証実験の準備として,サンプルの抽出と,参照確率のロジスティック回帰モデル(2.2節ロジスティック回帰式の回帰重み$b_0,b_1,b_2,b_3$)の事前学習を行う.ロジスティック回帰モデルの事前学習には,統計ソフトウェアR\shortcite{Rsite,funao2005}を用いる.このとき,上記の人手で付与された照応タグを手がかりとして用いる.ただしKameyama\citeyear{kameyama1998}に従い,時制節・述語節を発話単位と見なす.\\\paragraph{サンプルの抽出}まず,発話単位列$[U_1,\cdots,U_n]$の各$U_i$に対し,先行文脈${\rmpre}(U_i)=$\linebreak$[U_1,\cdots,U_i]$で参照されている実体を全て抽出する.このとき,実体$e$と先行文脈${\rmpre}(U_i)$の組,すなわち($e,{\rmpre}(U_i)$)を1サンプルと見なす.サンプル($e,{\rmpre}(U_i)$)において実体$e$が発話$U_{i+1}$で参照されている場合,そのサンプルをここでは「正例」と呼ぶ.$e$が$U_{i+1}$で参照されていない場合,そのサンプルをここでは「負例」と呼ぶ.表\ref{tab:samples}に,毎日新聞とWSJから抽出されたサンプル数を示す.参照確率のロジスティック回帰分析のためには,正例と負例を用いる.後述する選好1a,1b,2の検証には,正例のみを用いる.\begin{table}[b]\caption{抽出されたサンプル数}\label{tab:samples}\input{08t04.txt}\end{table}\paragraph{参照パターンの抽出}参照確率のロジスティック回帰のため,各サンプル($e$,${\rmpre}(U_i)$)の参照パターンを抽出する.本研究では,表\ref{tab:features}に示した素性(特徴量)によって参照パターンを表す.\subsection{参照確率の言語依存特性の獲得実験}\label{sec:verify_salience}\paragraph{回帰モデルの事前学習}参照確率Prの計算のためには,2つの準備が必要である.まず,\ref{sec:mgcm}節で示した参照確率のロジスティック回帰式$${\rmPr}(e|{\rmpre}(U_i))=(1+{\rmexp}(-(b_0+b_1{\itdist}+b_2{\itgram}+b_3{\itchain})))^{-1}$$における{\itgram}に割り当てる値として,文法役割ごとの参照確率の平均値Pr({\itgram})を求める.Pr({\itgram})は,ロジスティック回帰は使わずにコーパス中のサンプルを数えるだけで計算できる.具体的には,まずコーパス中の当該文法役割の名詞句を全て抽出し,そのうち次の発話で参照されている割合をPr({\itgram})とする.回帰モデルを用いる必要がないのは,各言語でよく使用される文法役割は十数種類に限定できるので,データスパースネスが生じないためである.表\ref{tab:sal_jpn},\ref{tab:sal_eng}にその結果を示す.\begin{table}[b]\caption{文法役割ごとの参照確率の平均値Pr({\itgram})(毎日新聞)}\label{tab:sal_jpn}\input{08t05.txt}\end{table}\begin{table}[t]\caption{文法役割ごとの参照確率の平均値Pr({\itgram})(WSJ)}\label{tab:sal_eng}\input{08t06.txt}\end{table}次に,ロジスティック回帰分析における重み$b_i$をコーパスから獲得する.処理時間が膨大になるのを避けるため,表\ref{tab:samples}の全サンプルを使うのではなく,12,000サンプルをサブサンプリングして回帰重みを事前学習した.その結果を,表\ref{tab:weights_jpn},\ref{tab:weights_eng}に示す.\begin{table}[t]\begin{minipage}[t]{.5\textwidth}\caption{ロジスティック回帰分析の回帰重み(毎日新聞)}\label{tab:weights_jpn}\input{08t07.txt}\end{minipage}\hfill\begin{minipage}[t]{.47\textwidth}\caption{ロジスティック回帰分析の回帰重み(WSJ)}\label{tab:weights_eng}\input{08t08.txt}\end{minipage}\end{table}以下,表\ref{tab:sal_jpn},\ref{tab:sal_eng},\ref{tab:weights_jpn},\ref{tab:weights_eng}が示す事前学習結果の妥当性を検証する.\paragraph{言語依存性の確認}日本語と英語には,それぞれに特有の文法役割がある.このことは表\ref{tab:sal_jpn},\ref{tab:sal_eng}にも明らかであり,たとえば日本語における主題(係助詞の「ハ」)のような文法役割は,英語には無い.よって必然的に,日本語と英語では文法役割毎の参照確率の分布も異なるはずである.実際に表\ref{tab:sal_jpn}と表\ref{tab:sal_eng}では,参照確率の分布(文法役割間の比)における各言語の特性が観察された.このことは,参照確率の測定における言語依存特性の獲得の必要性を示している.\paragraph{英語コーパスから獲得した参照確率の検証}表\ref{tab:sal_eng}の文法役割順序は,従来のセンタリング理論のCf-rankingとの整合性を示している.すなわちWSJコーパスにおける主語,目的語,補語の間の順序が,センタリング理論におけるCf-rankingと一致した.この結果は,参照確率による顕現性定義の,英語における妥当性を示している.よって,表\ref{tab:sal_eng}の値を回帰分析に用いることで,文法役割における顕現性の英語特性を獲得できると考えられる.次に,図\ref{fig:dist_chain_refpr_wsj}に,WSJコーパスから得られたロジスティック回帰モデルを用いた参照確率の推定値を示す.文法役割{\itgram}を主語に固定し,距離{\itdist}と参照回数{\itchain}を変動させた場合の参照確率の推定値をプロットした.また,表\ref{tab:weights_eng}は,WSJコーパスから得られたロジスティック回帰モデルの回帰重みを表している.表\ref{tab:weights_eng}の,素性{\itdist}(最近参照された箇所からの距離)の回帰重み$b_1$は負の値であった.これは,「最近参照された実体ほど注意が向かいやすい」という知見と整合し,図\ref{fig:dist_chain_refpr_wsj}にもその傾向が現れている.素性{\itgram}(最近参照された箇所の文法役割)の回帰重み$b_2$は正の値であった.これは,上述したCf-rankingとの整合性からしても妥当である.素性{\itchain}(共参照連鎖の長さ)の回帰重み$b_3$は正の値であった.これは,「多く参照された実体ほど注意が向かいやすい」という知見と整合し,図\ref{fig:dist_chain_refpr_wsj}にもその傾向が現れている.これらの結果は,WSJコーパスから統計的に獲得された英語の参照確率分布の妥当性を示している.\begin{figure}[t]\begin{center}\includegraphics{14-5ia8f5.eps}\caption{{\itdist},{\itchain}による参照確率の推定結果(毎日新聞)}\label{fig:dist_chain_refpr_mainiti}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{14-5ia8f6.eps}\caption{{\itdist},{\itchain}による参照確率の推定結果(WSJ)}\label{fig:dist_chain_refpr_wsj}\end{center}\end{figure}\paragraph{日本語コーパスから獲得した参照確率の検証}白松ら\citeyear{siramatu2005nlp}の結果と同様に,表\ref{tab:sal_jpn}の文法役割順序はセンタリング理論におけるCf-rankingと一致した.また,表\ref{tab:weights_jpn}に示す回帰重みと,図\ref{fig:dist_chain_refpr_mainiti}に示す参照確率の推定結果も,顕現性に関する従来の知見と整合していた.これらの結果は,毎日新聞コーパスから統計的に獲得された日本語の参照確率分布の妥当性を示している.\subsection{知覚効用の言語依存特性の獲得実験}\label{sec:verify_cost}\paragraph{基準値${\itUt}_0$のコーパスに基づく決定}\ref{subsec:utdef}節で述べた議論から,知覚効用${\rmUt}(w)={\itUt}_0-{\rmI}(w)$は非負の値として設計する必要がある.そのためには,条件${\itUt}_0\ge{\rmmax}~{\rmI}(w)$を満たすように基準値${\itUt}_0$を設定する必要があるが,この条件さえ満たされていれば,期待効用EU($U_{i+1}$)は参照結束性を表す尺度となると予想される.本稿では,センタリング理論との整合性が最大になるように基準値${\itUt}_0$を定める.\ref{subsec:utdef}節で述べたように,${\itUt}_0$の値に依存するのは改良MGCMの選好2とセンタリング理論のルール2との整合性であり,選好1a,1bは${\itUt}_0$の値に影響されない.よって,選好2とルール2の整合性,すなわち期待効用EU($U_{i+1}$)とルール2の遷移タイプ順序(Continue$\succ$Retain$\succ$Smooth-Shift$\succ$Rough-Shift)とのスピアマン順位相関係数が最大になるように,基準値${\itUt}_0$を定める.\begin{figure}[b]\begin{center}\includegraphics{14-5ia8f7.eps}\caption{知覚効用Utの基準値${\itUt}_0$のコーパスに基づく決定}\label{fig:imax}\end{center}\end{figure}図\ref{fig:imax}は,基準値${\itUt}_0$を変動させてEU($U_{i+1}$)と遷移タイプ順序のスピアマン相関係数を計測した結果である.毎日新聞コーパスでは${\itUt}_0=15.1$,WSJコーパスでは${\itUt}_0=12.6$のとき,それぞれ最大のスピアマン順位相関係数を観測した.よって,ここでは基準値${\itUt}_0$をこれらの値に定める.これらの値は\ref{subsec:utdef}節の予想どおり,条件${\itUt}_0\ge{\rmmax}~{\rmI}(w)$(毎日新聞では${\rmmax}~{\rmI}(w)=11.06$,WSJでは${\rmmax}~{\rmI}(w)=11.82$)を満たしている.また,図\ref{fig:imax}の${\itUt}_0\ge{\rmmax}~{\rmI}(w)$の領域においては,スピアマン相関係数はほぼ平坦になっている.この観測結果は,「条件${\itUt}_0\ge{\rmmax}~{\rmI}(w)$さえ満たされていれば期待効用EU($U_{i+1}$)が参照結束性を表す尺度になるはずである」という\ref{subsec:utdef}節の予想と合致する.\begin{table}[b]\caption{参照表現ごとの知覚効用(毎日新聞)}\label{tab:cost_jpn}\input{08t09.txt}\end{table}\begin{table}[t]\caption{参照表現ごとの知覚効用(WSJ)}\label{tab:cost_eng}\input{08t10.txt}\end{table}\paragraph{知覚効用の事前測定}毎日新聞コーパスとWSJコーパスに出現する全ての参照表現$w$について,その知覚効用を計測した.ただし複数の形態素から成る参照表現については,その主辞である形態素の出現確率を用いて知覚効用を計算した.表\ref{tab:cost_jpn},\ref{tab:cost_eng}は,それぞれ毎日新聞とWSJにおいて知覚効用が上位ランクであった参照表現を示している.ただし,日本語のゼロ代名詞,英語の空範疇(emptycategory)はともに省略された文法要素を指す用語である.空範疇は生成文法の用語であり,NP痕跡,pro(定形節の音形を持たない主語代名詞),PRO(不定形節や動名詞の音形を持たない主語代名詞),wh痕跡の4つのタイプがあるとされる\shortcite{jeita2005}.以下,表\ref{tab:cost_jpn},\ref{tab:cost_eng}が示す知覚効用の測定結果の妥当性を検証する.\paragraph{言語依存性の確認}日本語と英語には,それぞれに特有の参照表現がある.このことは,表\ref{tab:cost_jpn}と表\ref{tab:cost_eng}にも明らかである.よって必然的に,参照表現毎の知覚効用の分布も異なるはずである.実際に表\ref{tab:cost_jpn}と表\ref{tab:cost_eng}では,知覚効用の分布(参照表現間の比)における各言語の特性が観察された.このことは,知覚効用の測定における言語依存特性の獲得の必要性を示唆している.\paragraph{日本語コーパスから獲得した知覚効用の検証}表\ref{tab:cost_jpn}が示すように,毎日新聞コーパスではゼロ代名詞(省略)の知覚コストが最も低く,したがって知覚効用が高かった.また,「私」「その」などの指示詞・代名詞がランク上位を占め,大部分の非代名詞は指示詞・代名詞よりも低い知覚効用であった.表\ref{tab:cost_jpn}の下部3行が示すとおり,ゼロ代名詞,指示詞・代名詞,非代名詞というカテゴリ毎の知覚効用の平均は,\[\text{ゼロ代名詞}>\text{指示詞・代名詞}>\text{非代名詞}\]となった.この順序は,直感的な負荷低減の順序と一致しており,妥当である.つまり,毎日新聞コーパスで計測された日本語の知覚効用の妥当性を示している.\paragraph{英語コーパスから獲得した知覚効用の検証}表\ref{tab:cost_eng}が示すように,WSJコーパスでは空範疇(省略)の知覚コストが最も低く,したがって知覚効用が高かった.また,``it'',``he''などの代名詞がランク上位を占め,大部分の非代名詞は代名詞よりも低い知覚効用であった.表\ref{tab:cost_eng}の下部3行が示すとおり,空範疇,代名詞,非代名詞というカテゴリ毎の知覚効用の平均は,\[\text{空範疇}>\text{代名詞}>\text{非代名詞}\]となった.この順序は,直感的な負荷低減の順序と一致しており,妥当である.つまり,WSJコーパスで計測された英語の知覚効用の妥当性を示している.\vspace{\baselineskip}以上により,毎日新聞,WSJの両コーパスから,言語特有の表現に依存した知覚効用(知覚コスト低減)の分布を,統計的に獲得できることが示された.\paragraph{知覚効用の統計的定義の効果}従来の単純かつ先験的な知覚効用の定義(Ut(代名詞)=2,Ut(非代名詞)=1)は,参照表現の分類が粗過ぎることが問題であった.例えば\ref{sec:mgcm}節で示した例文では,(a)ゼロ代名詞(φ)と(b)代名詞「彼」,(c)「河野氏」と(d)「河野洋平総裁」の区別ができなかった.表\ref{tab:ut_example}は,改良MGCMにおける知覚効用の定義に基づき毎日新聞コーパスから統計的に獲得した知覚効用Ut$(w)$の値である.これにより,(a)と(b),(c)と(d)の知覚効用の違いが扱えることが示された.\begin{table}[t]\caption{従来の知覚効用の定義との比較}\label{tab:ut_example}\input{08t11.txt}\end{table}\subsection{改良MGCMの検証}\label{sec:verify_coherence}MGCMは,センタリング理論のルール1,2の一般化である選好1a,1b,2を含んでいる.以下では,期待効用原理から導出された選好1a,1b,2を日本語と英語のコーパスを用いて統計的に検証することにより,期待効用原理が言語をまたいで成り立つ原理であるかを検証する.各選好の検証では,正規分布が仮定できないパラメタ同士の相関や,センタリング理論における選好順序との相関をとるのに適している,スピアマン順位相関係数を用いる.何故なら,スピアマン順位相関係数は分布を仮定しないノンパラメトリックな推定により求まるからである.また参考のために,一般的に用いられるピアソン積率相関係数も観測する.\paragraph{選好1aの検証}選好1aはセンタリング理論のルール1の一般化であり,期待効用原理から導かれる.図\ref{fig:crossed_or_uncrossed}において,常に${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})>0$が成り立つので,(A)の方が(B)より選ばれやすい,というのが選好1aである.ただし,(A)の選ばれやすさは${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})$の大きさに影響されるはずである.つまり,期待効用原理から以下の予想が導かれる.\vspace{\baselineskip}{\setlength{\leftskip}{1zw}\noindent選好1aの(A)と(B)の期待効用の差${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})$が大きい参照表現ペアの場合,(A)が好まれるという選好が強く働き,選好1a合致率が100\%に近づくと予想される.一方,(A)と(B)の期待効用の差がほどんど無い参照表現ペアの場合は,(A),(B)どちらの候補を選んでも参照結束性に差が無いので,(A)が好まれるという選好が弱くしか働かず,選好1a合致率が50\%に近づくと予想される.\par}\vspace{\baselineskip}\noindent以下では,この予想を裏付ける観測結果が得られるかどうかにより,選好1aを検証する.まず,検証の準備として,図\ref{fig:crossed_or_uncrossed}における($w_1$,$w_2$)のような同一発話単位内の参照表現ペアをコーパスから抽出する.次に,コーパスから抽出した参照表現ペアから(A)と(B)の期待効用の差${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})$を計算し,その差の大きさと,実際の選好1a合致率((A)が選ばれている率)の関係を観測する.\begin{figure}[b]\begin{center}\includegraphics{14-5ia8f8.eps}\caption{選好1a:${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})$と選好適合率(毎日新聞)}\label{fig:pref1a_eu_mainiti}\end{center}\end{figure}図\ref{fig:pref1a_eu_mainiti},\ref{fig:pref1a_eu_wsj}に,実際の観測結果を示す.(A)と(B)の期待効用の差が3以上の参照表現ペアのみに限定すると,選好1a合致率は毎日新聞で0.825,WSJで0.822となり,(A)が選ばれる選好が強い.それに対し,(A)と(B)の期待効用の差が0.5未満の参照表現ペアのみに限定すると,選好1aの合致率は毎日新聞で0.564,WSJで0.529となり,(A)が選ばれる選好は非常に弱くなる.この結果は,期待効用原理から導かれた上記の予想と合致する.また,表\ref{tab:pref1a_mainiti},\ref{tab:pref1a_wsj}は,(A)と(B)の期待効用の差と,選好1a合致率との相関係数を計算したものである.スピアマン順位相関係数の観測結果では,毎日新聞では0.833,WSJでは0.981という強い相関を示している.これは,「参照結束性は期待効用原理によって引き起こされる」という仮説の妥当性を強く支持する結果である.\begin{figure}[t]\begin{center}\includegraphics{14-5ia8f9.eps}\caption{選好1a:${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})$と選好適合率(WSJ)}\label{fig:pref1a_eu_wsj}\end{center}\end{figure}\begin{table}[t]\caption{${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})$と選好1a合致率との相関(毎日新聞)}\label{tab:pref1a_mainiti}\input{08t12.txt}\end{table}\begin{table}[t]\caption{${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})$と選好1a合致率との相関(WSJ)}\label{tab:pref1a_wsj}\input{08t13.txt}\end{table}\paragraph{選好1bの検証}選好1bは,期待効用原理から導かれた選好1aの更なる一般化である.もし選好1aの予想どおり,図\ref{fig:crossed_or_uncrossed}の(A)の方が(B)より選ばれやすいのならば,{\rmPr$(e|{\rmpre}(U_i))$}と{\rmUt$(w)$}に正の相関があるはずである.これが選好1bであり,定性的には顕現性の高い実体$e$ほど,知覚的に簡単な参照表現$w$で参照されやすいという傾向を表す.ここで,{\rmPr$(e|{\rmpre}(U_i))$}と{\rmUt$(w)$}のスピアマン順位相関係数を\begin{itemize}\item選好1aの(A)が選ばれた参照表現ペアに限定して計測した相関係数$\rho_A$\item(B)が選ばれた参照表現ペアに限定して計測した相関係数$\rho_B$\item全てのサンプルで計測した相関係数$\rho$\end{itemize}の3つに分けて計測すると,図\ref{fig:crossed_or_uncrossed}より,明らかに$\rho_A$は正,$\rho_B$は負になるはずである.このとき,もしコーパス中のデータで選好1bが成り立つのならば,$$|\rho_A|>|\rho_B|,~\rho>0$$が観測されると予想される.一方,もし選好1bが成り立たないのならば,$$|\rho_A|\simeq|\rho_B|,~\rho\simeq0$$が観測されると予想される.以下では,選好1bが成り立つ場合の予想に合致する観測結果が得られるか否かにより,選好1bを検証する.\begin{table}[b]\caption{選好1b:${\rmPr}(e|{\rmpre}(U_i))$と${\rmUt}(w)$の相関(毎日新聞)}\label{tab:pref1b_mainiti}\input{08t14.txt}\end{table}\begin{table}[b]\caption{選好1b:${\rmPr}(e|{\rmpre}(U_i))$と${\rmUt}(w)$の相関(WSJ)}\label{tab:pref1b_wsj}\input{08t15.txt}\end{table}表\ref{tab:pref1b_mainiti},\ref{tab:pref1b_wsj}は,実際に$\rho_A,\rho_B,\rho$を観測した結果である.毎日新聞での観測結果は,$\rho_A=0.540$,$\rho_B=-0.086$,$\rho=0.377$であった.WSJでの観測結果は,$\rho_A=0.454,\rho_B=-0.120,\rho=0.237$であった.この結果は,コーパス中のデータで選好1bが成り立たない場合の予想とは合致せず,選好1bが成り立つ場合の予想と合致していた.また,表の95\%信頼区間が示すとおり,この値は統計的に有意である.よって,この結果は選好1bの妥当性を裏付けるものである.次に,従来のMGCMにおける単純な知覚効用(Ut(代名詞)=2,Ut(非代名詞)=1)との比較のため,従来の単純なUtとPrとのスピアマン順位相関係数を計測した結果,毎日新聞で0.358,WSJで0.236であった.一方,本稿で統計的に設計されたUtの場合,Prとのスピアマン順位相関係数が毎日新聞で0.377,WSJで0.237であった(表\ref{tab:pref1b_mainiti},\ref{tab:pref1b_wsj}).よって,本稿で示した知覚効用の統計的設計を用いることにより,「顕現性の高い実体$e$ほど,知覚的に簡単な参照表現$w$で参照されやすい」という傾向を,人手による先験的な設計とほぼ同程度以上に表現できることが確認できた.なお,順位相関係数$\rho_A,\rho_B,\rho$の値の意味については,\ref{sec:scale_validity}節で考察する.また,毎日新聞コーパスの方がWSJコーパスよりも相関係数が大きかった理由については,\ref{sec:pron_ratio}節で考察する.\paragraph{選好2の検証}センタリング理論のルール2は,4つの遷移タイプの選好順序で表される.ここでは,ルール2の選好順序に対する選好2(EU$(U_{i+1})$が高い$U_{i+1}$が好まれる)の整合性を検証した.その検定の手順を以下に示す.\begin{itemize}\item[1.]センタリング理論のCb($U_i$),Cb($U_{i+1}$),Cp($U_{i+1}$)を決定する.Cb,Cpの定義については2.1節を参照のこと.ただし,以下のようにCf-rankingの代わりに参照確率を用いる.\\Cb($U_i$):$\bigcup_{k=1}^i{\rmCf}(U_k)$の要素のうち,Pr($e|{\rmpre}(U_{i-1})$)が最も大きい実体\\Cb($U_{i+1}$):$\bigcup_{k=1}^{i+1}{\rmCf}(U_k)$の要素のうち,Pr($e|{\rmpre}(U_i)$)が最も大きい実体\\Cp($U_{i+1}$):$\bigcup_{k=1}^{i+1}{\rmCf}(U_k)$の要素のうち,Pr($e|{\rmpre}(U_{i+1})$)が最も大きい実体\item[2.]1に基づいて,センタリング理論のルール2と同じ方法で遷移タイプ(Continue,Retain,Smooth-Shift,Rough-Shift)を決定する.遷移タイプの定義については2.1節を参照のこと.\item[3.]2で決定した4つの遷移タイプごとに期待効用EU($U_{i+1}$)の平均を計算する.\item[4.]Wilcoxonの順序和検定により,「ルール2の遷移タイプ間のEU($U_{i+1}$)平均の順序が,ルール2の順序(Continue$\succ$Retain$\succ$Smooth-Shift$\succ$Rough-Shift)と一致する」という整合性の統計的有意性を検証する.これにより,MGCMの選好2とセンタリング理論のルール2の整合性を検証する.\item[5.]4つの遷移タイプに,ルール2の順序を表す値(Continue:4,Retain:3,Smooth-Shift:2,Rough-Shift:1)を割り当てた上で,EU($U_{i+1}$)との相関係数を計算する.この相関係数が高いほど,MGCMの選好2とセンタリング理論のルール2とが整合すると言える.\end{itemize}表\ref{tab:tran_jpn},\ref{tab:tran_eng}と図\ref{fig:tran_eu_mainiti},\ref{fig:tran_eu_wsj}に,手順3で計算した4つの遷移タイプごとの期待効用EU($U_{i+1}$)の平均を示す.また図\ref{fig:tran_eu_mainiti},\ref{fig:tran_eu_wsj}には,EU($U_{i+1}$)の平均だけでなく分布も示してある.このEU($U_{i+1}$)平均値の順序は,毎日新聞,WSJの両コーパスにおいて,ルール2の遷移タイプ順序と一致した\footnote{なお,サンプル数がContinueとSmooth-Shiftに偏っているのは,各サンプルにおいて4種類の遷移がすべて選択可能とは限らないためである\shortcite{kibble2001,siramatu2005nlp}.他のセンタリング理論の研究においても,ルール2の遷移タイプ順序とサンプル数の多さの順序は一致しない\shortcite{iida1996,takei2000}}.また,手順4のWilcoxonの順序和検定の結果,有意水準$2.2\times10^{-16}$未満で遷移タイプ順序とEU($U_{i+1}$)の平均順序は整合していた.更に,手順5での遷移タイプ順序と期待効用EU($U_{i+1}$)との相関係数の測定結果(95\%信頼区間)を表\ref{tab:pref2_mainiti},\ref{tab:pref2_wsj}に示す.これにより,毎日新聞で0.639,WSJで0.482のスピアマン順位相関係数が観測された.表の95\%信頼区間が示すように,両コーパスで観測された正の相関は統計的に有意である.\begin{table}[t]\caption{選好2:遷移タイプごとの期待効用EU($U_{i+1}$)の平均(毎日新聞)}\label{tab:tran_jpn}\input{08t16.txt}\end{table}\begin{table}[t]\caption{選好2:遷移タイプごとの期待効用EU($U_{i+1}$)の平均(WSJ)}\label{tab:tran_eng}\input{08t17.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{14-5ia8f10.eps}\caption{選好2:遷移タイプと${\rmEU}(U_{i+1})$の分布(毎日新聞)}\label{fig:tran_eu_mainiti}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{14-5ia8f11.eps}\caption{選好2:遷移タイプと${\rmEU}(U_{i+1})$の分布(WSJ)}\label{fig:tran_eu_wsj}\end{center}\end{figure}また,従来のMGCMにおける先験的な知覚効用の設計(Ut(代名詞)=2,Ut(非代名詞)=1)と本稿における統計的な設計を比較するために,従来の知覚効用を用いてスピアマン順位相関係数を測定し,毎日新聞で0.640,WSJで0.479という結果を得た.この値は,本稿の知覚効用を用いた場合の値とほぼ等しい.よって,統計的設計によって獲得した知覚効用を用いた場合に,参照結束性の尺度としての期待効用が,従来の人手による設計とほぼ同程度の表現能力を持つことが確認できた.つまり,参照結束性の尺度としてのEU($U_{i+1}$)の妥当性が,日本語・英語の両コーパスにおいて示された.\begin{table}[t]\caption{選好2:遷移タイプ順序と期待効用${\rmEU}(U_{i+1})$との相関係数(毎日新聞)}\label{tab:pref2_mainiti}\input{08t18.txt}\end{table}\begin{table}[t]\caption{選好2:遷移タイプ順序と期待効用${\rmEU}(U_{i+1})$との相関係数(WSJ)}\label{tab:pref2_wsj}\input{08t19.txt}\end{table}以上より,両コーパスにおいて,改良MGCMの選好2と,センタリング理論のルール2との整合性を確認できた.これは,期待効用EU($U_{i+1}$)に基づく表現/解釈の選択原理が,両言語で参照結束性を引き起こす行動選択原理となっていることを示唆する.
\section{考察}
\label{sec:discussion}\subsection{参照結束性の尺度としての期待効用}\label{sec:scale_validity}本節では,期待効用が参照結束性を表す尺度としての性質を満たすか否か,および,期待効用原理が後続発話$U_{i+1}$の表現/解釈の選択基準になっているか否かを考察する.\paragraph{選好1aの検証結果からの考察}選好1aは,期待効用原理から導かれる参照結束性の選好である.\ref{sec:verify_coherence}節の図\ref{fig:pref1a_eu_mainiti},\ref{fig:pref1a_eu_wsj}では,「図\ref{fig:crossed_or_uncrossed}の(A)と(B)の期待効用の差が大きいほど,(A)を選ぶ選考が強くなる」という,期待効用原理から導かれた予想を裏付ける検証結果が得られた.具体的には,${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})$と選好1a合致率のスピアマン順位相関係数が,毎日新聞で0.833,WSJで0.981と,非常に強い相関を示した.${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})\ge3$の場合,選好1a合致率が毎日新聞で0.825,WSJで0.822となり,${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})<0.5$の場合,選好1a合致率が毎日新聞で0.564,WSJで0.529となっていた.この結果は,期待効用の差が$U_{i+1}$の選択基準としての性質を持ち,参照結束性の差を表すという仮説と整合する.ここで,参照表現ペア全体で選好1aの合致率を計算すると,毎日新聞で0.622,WSJで0.605であった.つまり,(B)が選ばれている事例も全体の40\%ほど存在した.これは(A)と(B)の期待効用の差がわずかな参照表現ペア\footnote{参照表現ペア全体のうち,${\rmEU_A}(U_{i+1})-{\rmEU_B}(U_{i+1})<0.5$のサンプルの割合は,毎日新聞で65.0\%,WSJで45.8\%である.}もあわせて計算しているためであり,期待効用の差が0.5以上に限ると合致率が毎日新聞で0.729,WSJで0.670となり,(B)が選ばれる事例が約30\%に減少した.また2以上に限ると合致率が毎日新聞で0.808,WSJで0.772となり,(B)が選ばれる事例が約20\%に減少した.(A)と(B)の期待効用の差がわずかな参照表現ペアでは,(A),(B)どちらを選んでも,見込める知覚コスト削減量に差が無いため,選好1aが弱くなると考えられる.白松他\citeyear{siramatu2005nlp}は,述語項構造の選択制限によって選好1aが上書きされる事例を示したが,\ref{sec:verify_coherence}節の検証結果を踏まえると,(A)と(B)の期待効用の差がわずかな場合ほど高頻度で選択制限による上書きが起こっていると考えられる.この考察は,期待効用の差がわずかな候補間の選択においては,期待効用原理よりも選択制限の方が行動選択原理として強いことを示唆するが,期待効用の差が参照結束性の差を表すという仮説とは矛盾しない.では,(A)と(B)の期待効用の差が大きいにもかかわらず(B)が選択されているのは,どのような事例であろうか.われわれは,段落の変わり目や話題の転換点においては,(B)のような期待効用が低い(参照結束性が低い)遷移が起こりやすいと予想する.何故なら話題の転換点においては,顕現性が高い実体ではなく,新たな実体がトピックとして参照される可能性が高いからである.そのように文脈が切り替わる箇所では,文脈を利用した知覚コストの削減ができないため,参照結束性が低くなると予想される.以下に示す毎日新聞コーパスの投書記事における$U_{i+1}$は,(A)と(B)の期待効用の差が大きいにもかかわらず,(B)が選択されていた事例である.\vspace{\baselineskip}\begin{fminipage}{39zw}\noindent$U_{i-5}:$私のクラスに,足に障害のある生徒がいます.\\$U_{i-4}:$(φガ)学校を一日も休むことなく,\\$U_{i-3}:$(φガ)勉学に励んでいます.\\$U_{i-2}:$彼を送り迎えするのは,お母さんですが,\\$U_{i-1}:$(φガ)最近体の調子を崩し,\\$U_{i\phantom{-0}}:$彼はタクシーで帰宅することが多いのです.\\$U_{i+1}:$先日,(φガ)彼の家の最寄り駅まで送迎しました.\end{fminipage}\vspace{\baselineskip}\noindentこの例では,$U_{i+1}$に含まれる参照表現ペア$(w_1={\bfφ},w_2={\bf彼})$と,その指示対象候補$(e_1={\bf生徒},e_2={\bf私})$に対し,${\rmPr}({\bf生徒}|{\rmpre}(U_i))>{\rmPr}({\bf私}|{\rmpre}(U_i))$,${\rmUt}({\bfφ})>{\rmUt}({\bf彼})$が観測され,(A)・(B)の期待効用の差は4.31と大きかった.それにもかかわらず,(A)ではなく(B),すなわち$\langlew_1={\bfφ},e_2={\bf私}\rangle$,$\langlew_2={\bf彼},e_1={\bf生徒}\rangle$の参照関係が選択されていた.実はこの記事では$U_i$と$U_{i+1}$の間で段落が変わっているので,ここが話題の転換点であると見なせる.「日本語では一人称がゼロ代名詞φで参照されることが多い」という性質の影響も無視できないが,そうだとしても,話題の転換点で期待効用の低い(参照結束性の低い)表現が選択された事例である.つまり,「(A)と(B)の期待効用の差が大きいにもかかわらず(B)が選ばれているのは話題の転換点であろう」という予想に合致する事例である.この考察は,期待効用が参照結束性の尺度であるという仮説とは矛盾しない.しかし,話題の転換点や段落の変わり目においては,期待効用原理(および,参照結束性の選好)は表現/解釈の選択基準になっていないということを示唆している.このことから,工学的に,期待効用が小さい隣接発話の間を話題の転換点と見なせる可能性がある.\paragraph{選好1bの検証結果からの考察}選好1bは,期待効用原理から導かれる選好1aの更なる一般化であり,定性的には「目立っている実体は低コストな参照表現で参照できる」という,文脈を利用した知覚コスト低減の傾向を表す.\ref{sec:verify_coherence}節の表\ref{tab:pref1b_mainiti},\ref{tab:pref1b_wsj}が示す選好1bの検証結果によると,(A)が選ばれた参照表現ペアに限定した場合の${\rmPr}(e|{\rmpre}(U_i))$と${\rmUt}(w)$のスピアマン相関係数$\rho_A$は,毎日新聞で0.540,WSJで0.454と,中程度の正の相関を示した.(B)に限定した場合の$\rho_B$は,毎日新聞で$-$0.086,WSJで$-$0.120と,ほぼ無相関と言えるほど弱い負の相関を示した.全ての照応詞における$\rho$は,毎日新聞で0.377,WSJで0.237と,弱い正の相関を示した.この,$|\rho_A|>|\rho_B|,~\rho>0$という結果は,「目立っている実体は低コストな参照表現で参照できる」という,文脈を利用した知覚コスト低減傾向を表現できていると考えられる.また,期待効用原理(選好1a)に従って(A)を選択した場合,文脈を利用したコスト低減傾向が強く($\rho_A>0$),期待効用原理に従わず(B)を選択した場合は,文脈を利用したコスト低減傾向が無かった($\rho_B\le0$)とも解釈できる.この解釈は,期待効用が参照結束性を表す尺度であるという仮説と矛盾しない.\\ここで,全体の正の相関$\rho$が弱かった原因と,期待効用原理に従わない場合のわずかな負の相関$\rho_B$の原因について考察する.これも,表現/解釈の候補間で期待効用の差がわずかな場合に,選好1bが述語項構造の選択制限などによって上書きされた影響と考えられる.これにより,$\rho_B$のわずかな負の相関が生まれ,全体での$\rho$の正の相関が弱まったと考えられる.しかし,期待効用原理に従った場合の正の相関$\rho_A$(毎日新聞で0.540,WSJで0.454)に比べると,期待効用原理に従わない場合の負の相関$\rho_B$(毎日新聞で$-$0.086,WSJで$-$0.120)の絶対値は非常に小さなものであった.この結果は,選好1bの妥当性を示唆していると考える.\paragraph{選好2の検証結果からの考察}選好2は,期待効用原理そのものである.\ref{sec:verify_coherence}節では,センタリング理論のルール2との整合性を検証するため,ルール2の遷移タイプ順序(Continue$\succ$Retain$\succ$Smooth-Shift$\succ$Rough-Shift)と期待効用${\rmEU}(U_{i+1})$とのスピアマン順位相関計数を求めた.その結果,毎日新聞で0.639,WSJで0.482の正の相関を観測した.この観測結果は,期待効用が参照結束性の尺度であるという仮説を裏付けるものであると考える.ただし\ref{sec:verify_coherence}節の図\ref{fig:tran_eu_mainiti},\ref{fig:tran_eu_wsj}によると,確かに遷移タイプ毎の${\rmEU}(U_{i+1})$平均の順序はルール2における遷移タイプ順序と合致するが,${\rmEU}(U_{i+1})$が0に近い領域にも,Continueが分布することが見てとれる.これは,ContinueのサンプルとRough-Shiftのサンプルの間で${\rmEU}(U_{i+1})$の大小関係が逆転するケースも0ではない,ということを意味する.このことと,選好1aの検証結果を併せて考察すると,以下の予想が導かれる.\vspace{1\baselineskip}{\setlength{\leftskip}{1zw}\noindentある先行文脈${\rmpre}(U_{i+1})$を有するひとつの発話$U_{i+1}$における表現/解釈の候補同士を比べる場合には,期待効用${\rmEU}(U_{i+1})$は${\rmpre}(U_i)$と$U_{i+1}$の間の参照結束性の尺度として有効である.しかし,先行文脈が異なる発話同士を比べる場合は,文脈に応じて期待効用${\rmEU}(U_{i+1})$に何らかの正規化を加えた方が,より参照結束性の尺度に適した値になる可能性がある.\par}\vspace{1\baselineskip}文脈に応じてどのような正規化を期待効用の値に加えるべきかは,今後の課題とする.ただし本稿で目指すのは,定まった先行文脈を有するひとつの後続発話$U_{i+1}$における表現/解釈の候補同士からの選択である.その目的のためには正規化は必要なく,本稿の期待効用は参照結束性の尺度としての性質を充分に備えていると考える.\subsection{文脈を利用した知覚コスト低減傾向に関する日本語と英語の比較}\label{sec:pron_ratio}選好1bの検証の結果,参照確率が高い実体ほど,知覚効用が高い表現(代名詞など)で参照されやすいという正の相関が確認された.言い換えると,「顕現性が高く目立っている実体ほどコストが低い表現で参照できる」という相関であり,文脈を利用した知覚コストの低減傾向を表していると考えられる.具体的には,毎日新聞では0.377,WSJでは0.237のスピアマン順位相関係数(表\ref{tab:pref1b_mainiti},\ref{tab:pref1b_wsj})が観測され,毎日新聞の方がWSJよりも文脈を利用したコスト低減傾向が高かった.その理由は,図\ref{fig:pron_ratio}に示されている.図\ref{fig:pron_ratio}は,参照確率の変化により,代名詞化される実体の割合がどう変化するかをプロットしたグラフである.これによると,顕現性が低い範囲(${\rmPr}<0.75$)では毎日新聞とWSJの違いは顕著ではない.この範囲では,参照確率が上がるにつれて代名詞化率も上がっていたことが両コーパスで確認できる.一方,顕現性が高い範囲(${\rmPr}\ge0.75$)においては,両コーパスの代名詞化傾向に大きな違いがあることがわかる.毎日新聞では参照確率が上がるにつれて代名詞化率が上がっていたが,WSJでは代名詞化率は横ばいとなっていた.\begin{figure}[t]\begin{center}\includegraphics{14-5ia8f12.eps}\caption{参照確率による代名詞化率の変化}\label{fig:pron_ratio}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{14-5ia8f13.eps}\caption{参照確率と知覚効用の散布図(毎日新聞)}\label{fig:salutil_scatter_mainiti}\end{center}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{14-5ia8f14.eps}\caption{参照確率と知覚効用の散布図(WSJ)}\label{fig:salutil_scatter_wsj}\end{center}\end{figure}次に,この選好1bが示す現象(実体の顕現性と,参照表現の簡単さとの相関)の性質を更に詳細に調べるため,参照確率{\rmPr$(e|{\rmpre}(U_i))$}と知覚効用{\rmUt$(w)$}の散布図を描く.各コーパスに含まれる約3,000照応詞を無作為抽出して描いた散布図が,図\ref{fig:salutil_scatter_mainiti},\ref{fig:salutil_scatter_wsj}である.毎日新聞,WSJの双方に共通して観察できるのは,省略(ゼロ代名詞と空範疇)がPrの値域全域に渡って分布しているのに対し,省略以外の名詞句はPr$<$0.2に偏って分布しているという現象である.ただし,省略以外のPr$<$0.2への偏りは,WSJよりも毎日新聞の方がより顕著である.一方,WSJ(図\ref{fig:salutil_scatter_wsj})のみに見られる現象としては,Pr$>$0.9付近に非代名詞(Utが3から5程度)が集まっているのが見てとれる.これは,図\ref{fig:pron_ratio}のPr$>$0.75における代名詞化率の横ばい傾向と整合する.そこで,顕現性が高い範囲(Pr$>$0.75)において代名詞化されていない実体の割合を調べると,毎日新聞では17.6\%,WSJでは55.3\%(11,367例)であった.さらに詳しく調べると,WSJの11,367例のうちの41.7\%(4,735例)は固有名詞であった.具体的には以下のような事例である.\vspace{\baselineskip}\begin{fminipage}{39zw}\noindent``Wehavenousefulinformationonwhetherusersareatrisk,''said\underline{JamesA.Talcott}ofBoston'sDana-FarberCancerInstitute.\underline{Dr.Talcott}ledateamofresearchersfrom...\end{fminipage}\vspace{\baselineskip}この例のように,英語の新聞においては代名詞``he''などで参照可能な顕現性が高い実体であっても,``Dr.Talcott''のような略称で参照されることも多い.また,この顕現性が高い範囲において,WSJでは定冠詞句による参照も多く観察された.これらの事例が,図\ref{fig:salutil_scatter_wsj}のPr$>$0.9に分布する非代名詞サンプルの正体であり,図\ref{fig:pron_ratio}の${\rmPr}\ge0.75$の範囲における日本語と英語の代名詞化傾向の違いとなって現れたと考えられる.この結果は,「日本語の新聞では,英語の新聞よりも文脈を利用した知覚的な労力削減が行われやすい」ということを示しており,日本語の談話構造における文脈依存性の高さを示唆している.なお,本節で議論した言語間の定量的比較を可能にしたのは,MGCMにおける定量的な定式化である.つまり,このような定量的な議論ができること自体が,定量的なモデル化の効果の一つである.\subsection{パラメタ設計における今後の課題}\ref{sec:scale_validity}節,\ref{sec:pron_ratio}節の議論を踏まえて,MGCMのパラメタ設計において残されている課題を述べる.\begin{itemize}\item{\bf知覚コストの定義において残された課題:}本稿の知覚コストの定義では,英語の``Dr.Talcott''のような略称の知覚コストは高く評価されてしまうが,本来ならば略称の使用も負荷削減を引き起こしているはずである.よって,モデルの更なる改良のためには,固有名詞の略称化や名詞句の指示性を考慮したI($w$)の測定方法が必要であると考えられる.これにより,英語だけでなく日本語の上でのモデル表現能力も向上すると予想される.\item{\bf参照確率の計測方法において残された課題:}本稿では,参照確率の推定に用いる素性として,白松他\citeyear{siramatu2005nlp}のものを踏襲して用いた.モデルの更なる改良のためには,他の素性設計(例えば,対数$\log$を用いない等)も検討し,比較する必要がある.更に,本稿の測定方法では,\ref{sec:scale_validity}節で議論したような話題の転換点(低い参照結束性で繋がる隣接発話)を考慮していない.話題の転換点の後では,談話参与者が注目する実体が大きく変化する可能性がある.参照確率は実体の顕現性を表すので,話題の転換点の前と後で参照確率の値も変化すると考えられる.よって今後は,先行文脈における話題の転換点を考慮した素性設計も検討する予定である.\end{itemize}
\section{まとめ}
\label{sec:conc}本稿では,意味ゲーム仮説に基づく参照結束性のモデルMGCMを多言語化するため,改良MGCMを設計した.また,日本語と英語の大規模新聞記事コーパスを用いて改良MGCMを検証し,言語をまたぐ一般性を備えていることを示した.これにより,日本語と英語という性質の大きく異なる言語において,参照結束性のメカニズムがゲーム理論で説明できるという証拠を示した.同時に,期待効用が,参照結束性の尺度としての性質(すなわち,先行文脈が与えられた上で後続発話の表現/解釈を選択する基準としての性質)を備えていることを,両言語のコーパス上で示した.\\まず従来のMGCMには,(1)日本語のコーパスでしか検証されていない,(2)参照表現の知覚効用${\rmUt}(w)$を統計的に計測できない,という2つの課題が残されていた.様々な言語にモデルを適用するためにも,言語依存特性をコーパスから獲得可能なパラメタ設計が課題であった.本稿では,参照表現の知覚効用を統計的に再設計することにより,多言語に適用可能な改良MGCMを構築した.この統計的パラメタ設計に基づき,日本語と英語のコーパスからパラメタ(参照確率と知覚効用)の値の分布を獲得できることを示した(\ref{sec:verification}章の表\ref{tab:sal_jpn},\ref{tab:sal_eng},\ref{tab:cost_jpn},\ref{tab:cost_eng}).この結果から,以下の2つの知見が得られた.\begin{itemize}\item2つのコーパスの間には,確かに各言語に特有な言語表現と,その上でのパラメタ分布の違いが見られた.よって,コーパスからの統計的獲得が必要である.\item一方,2つのコーパスから獲得されたパラメタ分布は,言語間の違いを吸収し,従来の知見との整合性を示した.よって,各言語に特有な表現に適応したパラメタ分布が獲得できたと考えられる.\end{itemize}この改良MGCMの設計により多言語への適用が可能になったので,日本語,英語という性質が大きく異なる2つの言語の大規模コーパスを用い,MGCMの統計的な検証実験を行った.具体的には,期待効用原理から導かれた選好1a,1b,2を,両言語のコーパスの上で検証した.選好1aの検証(\ref{sec:verification}章の図\ref{fig:pref1a_eu_mainiti},図\ref{fig:pref1a_eu_wsj})では,2つの候補の期待効用の差と,選好1a合致率とのスピアマン順位相関係数が,日本語コーパス上で0.833,英語コーパス上で0.981となり,非常に強い正の相関を示した.これは,両言語において「参照結束性は期待効用原理によって引き起こされる」という仮説を強く支持する結果である.同時にこの結果から,候補間の期待効用の差が,参照結束性の差を表現しているという知見を得た.選好1bの検証,つまり「目立っている実体ほど,知覚的に低コストな参照表現で参照されやすい」という傾向の検証(\ref{sec:verification}章の表\ref{tab:pref1b_mainiti},\ref{tab:pref1b_wsj})では,選好1aに従う事例に限定した場合の参照確率と知覚効用とのスピアマン順位相関係数が,日本語コーパス上で0.540,英語コーパス上で0.454となり,中程度の正の相関を示した.このことから,期待効用原理に従って表現/解釈を選択した場合,確かに文脈を利用して知覚コストの低減を図る傾向がある,という知見を得た.また,選好1bに従わない事例に限定した場合は,日本語コーパス上で$-$0.086,英語コーパス上で$-$0.120となり,ほぼ無相関と言えるほど弱い負の相関を示した.このことから,期待効用原理に従わずに表現/解釈を選択した場合,文脈を利用した知覚コストの低減がなされないという知見を得た.さらに全ての事例では,日本語コーパス上で0.377,英語コーパス上で0.237となり,弱い正の相関を示した.このことから,文脈を利用して知覚コストを低減する傾向が弱いながらも存在し,その傾向は英語コーパスより日本語コーパスの方が強いという知見を得た.これらの結果は,両言語において「参照結束性は期待効用原理によって引き起こされる」という仮説と矛盾しない.選好2の検証(\ref{sec:verification}章の図\ref{fig:tran_eu_mainiti},\ref{fig:tran_eu_wsj})では,選好2とセンタリング理論のルール2との整合性を検証した.期待効用と,ルール2における遷移タイプ順序とのスピアマン順位相関係数が,日本語コーパス上で0.639,英語コーパス上で0.482となり,中程度からやや強い正の相関を示した.これは,両言語において「参照結束性は期待効用原理によって引き起こされる」という仮説を支持する結果である.以上の検証結果から,日本語と英語の両言語において,参照結束性は期待効用原理によって引き起こされているという経験的な証拠を得た.同時に両言語において,期待効用原理に従えば参照結束性の高い表現/解釈を選択できるという知見を得た.さらに本稿では,英語と日本語のコスト低減化傾向を比較するために両コーパスにおける参照確率と知覚効用の相関関係を比較した(\ref{sec:discussion}章の図\ref{fig:pron_ratio},\ref{fig:salutil_scatter_mainiti},\ref{fig:salutil_scatter_wsj}).その結果,参照確率が高い実体を参照するためには日本語の方が英語よりも低いコストの表現が選ばれやすく,期待効用原理がより強く働いていることを発見した.このような定量的分析が可能になったこと自体が,MGCMにおける定量的なモデル化の効果の一つである.今後,更に多くの言語でも改良MGCMを検証できれば,ゲーム理論から導かれた行動選択原理が参照結束性の認知機構として言語に独立に成り立っていることを確認できるであろう.このゲーム理論に基づく一般化により,従来のセンタリング理論に含まれていなかった原理的観点からの,体系的かつ定量的な分析が可能になると期待される.\acknowledgment本研究を進めるにあたって有意義なコメントや励ましの言葉を戴いた奥乃研究室の学生諸君と,丁寧な御指摘を戴いた匿名のレフェリーに深謝致します.また,日本語新聞記事GDAコーパスの研究利用を許諾して下さった三菱電機株式会社と,調整の労をお取り下さったGSK(言語資源協会)に感謝致します.本研究は,科研費(特別研究員奨励費,19・91)の助成を受けたものです.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Benz,Jager,\BBA\vanRooij}{Benzet~al.}{2006}]{benz2006}Benz,A.,Jager,G.,\BBA\vanRooij,R.\BBOP2006\BBCP.\newblock{\Bem{GameTheoryandPragmatics}}.\newblockPalgraveMacmillan,Basingstoke.\bibitem[\protect\BCAY{Fechner}{Fechner}{1860}]{fechner1860}Fechner,G.\BBOP1860\BBCP.\newblock{\Bem{ElementederPsychophysik{\rm,translatedto}ElementsofPsychopysics{\rm,translatedbyH.E.Adler,1966}}}.\newblockHolt,RinehartandWinston,NewYork.\bibitem[\protect\BCAY{Grosz,Joshi,\BBA\Weinstein}{Groszet~al.}{1983}]{grosz1983}Grosz,B.,Joshi,A.,\BBA\Weinstein,S.\BBOP1983\BBCP.\newblock\BBOQ{ProvidingaUnifiedAccountofDefiniteNounPhraseinDiscourse}\BBCQ\\newblockIn{\BemProceedingsofthe21stACL},\mbox{\BPGS\44--50}.\bibitem[\protect\BCAY{Grosz,Joshi,\BBA\Weinstein}{Groszet~al.}{1995}]{grosz1995}Grosz,B.,Joshi,A.,\BBA\Weinstein,S.\BBOP1995\BBCP.\newblock\BBOQ{Centering:AFrameworkforModelingtheLocalCoherenceofDiscourse}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf21}(2),\mbox{\BPGS\203--225}.\bibitem[\protect\BCAY{Hasida}{Hasida}{1996}]{hasida1996}Hasida,K.\BBOP1996\BBCP.\newblock\BBOQ{IssuesinCommunicationGame}\BBCQ\\newblockIn{\BemProceedingsofCOLING'96},\mbox{\BPGS\531--536}.\bibitem[\protect\BCAY{Hasida,Nagao,\BBA\Miyata}{Hasidaet~al.}{1995}]{hasida1995}Hasida,K.,Nagao,K.,\BBA\Miyata,T.\BBOP1995\BBCP.\newblock\BBOQ{AGame-TheoreticAccountofCollaborationinCommunication}\BBCQ\\newblockIn{\BemProceedingsoftheFirstInternationalConferenceonMulti-AgentSystems},\mbox{\BPGS\140--147}.\bibitem[\protect\BCAY{Iida}{Iida}{1997}]{iida1996}Iida,M.\BBOP1997\BBCP.\newblock\BBOQDiscourseCoherenceandShiftingCentersinJapaneseTexts\BBCQ\\newblockInWalker,M.,Joshi,A.,\BBA\Prince,E.\BEDS,{\BemCenteringTheoryinDiscourse},\mbox{\BPGS\161--180}.OxfordUniversityPress.\bibitem[\protect\BCAY{Kameyama}{Kameyama}{1998}]{kameyama1998}Kameyama,M.\BBOP1998\BBCP.\newblock\BBOQ{IntrasententialCentering:ACaseStudy}\BBCQ\\newblockInWalker,M.,Joshi,A.,\BBA\Prince,E.\BEDS,{\BemCenteringTheoryinDiscourse},\mbox{\BPGS\89--112}.OxfordUniversityPress.\bibitem[\protect\BCAY{Kibble}{Kibble}{2001}]{kibble2001}Kibble,R.\BBOP2001\BBCP.\newblock\BBOQ{AReformulationofRule2ofCenteringTheory}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf27}(4).\bibitem[\protect\BCAY{Ng}{Ng}{2004}]{ng2004}Ng,V.\BBOP2004\BBCP.\newblock\BBOQ{Learningnounphraseanaphoricitytoimprovecoreferenceresolution:Issuesinrepresentationandoptimization}\BBCQ\\newblockIn{\BemProceedingsofthe42ndACL},\mbox{\BPGS\152--159}.\bibitem[\protect\BCAY{Osborne\BBA\Rubinstein}{Osborne\BBA\Rubinstein}{1994}]{osbone1994}Osborne,M.\BBACOMMA\\BBA\Rubinstein,A.\BBOP1994\BBCP.\newblock{\Bem{ACourseinGameTheory}}.\newblockTheMITPress,Cambridge,Massachusetts.\bibitem[\protect\BCAY{Parikh}{Parikh}{2001}]{parikh2001}Parikh,P.\BBOP2001\BBCP.\newblock{\Bem{TheUseofLanguage}}.\newblockCSLIPublications,Stanford,California.\bibitem[\protect\BCAY{Poesio,Stevenson,Eugenio,\BBA\Vieira}{Poesioet~al.}{2004}]{poesio2004}Poesio,M.,Stevenson,R.,Eugenio,B.~D.,\BBA\Vieira,R.\BBOP2004\BBCP.\newblock\BBOQ{Centering:Aparametrictheoryanditsinstantiations}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf30}(3),\mbox{\BPGS\309--363}.\bibitem[\protect\BCAY{R-Foundation}{R-Foundation}{2003}]{Rsite}R-Foundation\BBOP2003\BBCP.\newblock\BBOQ{TheRProjectforStatisticalComputing}\BBCQ\\newblockhttp:{\slash}{\slash}www.{R}-project.org{\slash}.\bibitem[\protect\BCAY{Strube\BBA\Muller}{Strube\BBA\Muller}{2003}]{strube2003}Strube,M.\BBACOMMA\\BBA\Muller,C.\BBOP2003\BBCP.\newblock\BBOQ{Amachinelearningapproachtopronounresolutioninspokendialogue}\BBCQ\\newblockIn{\BemProceedingsofthe41stACL},\mbox{\BPGS\168--175}.\bibitem[\protect\BCAY{vanRooij}{vanRooij}{2004}]{rooij2004}vanRooij,R.\BBOP2004\BBCP.\newblock\BBOQSignalinggamesselectHornstrategies\BBCQ\\newblock{\BemLinguisticsandPhilosophy},{\Bbf27},\mbox{\BPGS\493--527}.\bibitem[\protect\BCAY{vonNeumann\BBA\Morgenstern}{vonNeumann\BBA\Morgenstern}{1944}]{neumann1944}vonNeumann,J.\BBACOMMA\\BBA\Morgenstern,O.\BBOP1944\BBCP.\newblock{\Bem{TheoryofGamesandEconomicBehavior}}.\newblockPrincetonUniversityPress,Princeton.\bibitem[\protect\BCAY{Walker,,Iida,\BBA\Cote}{Walkeret~al.}{1994}]{walker1994}Walker,M.,,Iida,M.,\BBA\Cote,S.\BBOP1994\BBCP.\newblock\BBOQ{JapaneseDiscourseandtheProcessofCentering}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf20}(2),\mbox{\BPGS\193--232}.\bibitem[\protect\BCAY{Yamura-Takei,Takada,\BBA\Aizawa}{Yamura-Takeiet~al.}{2000}]{takei2000}Yamura-Takei,M.,Takada,M.,\BBA\Aizawa,T.\BBOP2000\BBCP.\newblock\BBOQ{TheRoleofGlobalTopicinJapaneseZeroAnaphoraResolution(inJapanese)}\BBCQ\\newblock{\BemTechnicalReportofIPSJ},{\Bbf135}(10),\mbox{\BPGS\71--78}.\bibitem[\protect\BCAY{橋田}{橋田}{1998}]{hasida1998gda}橋田浩一\BBOP1998\BBCP.\newblock\JBOQGDA:意味的修飾に基づく多用途の知的コンテンツ\JBCQ\\newblock\Jem{人工知能学会誌},{\Bbf13}(4),\mbox{\BPGS\528--535}.\bibitem[\protect\BCAY{白松\JBA宮田\JBA奥乃\JBA橋田}{白松\Jetal}{2005}]{siramatu2005nlp}白松俊\JBA宮田高志\JBA奥乃博\JBA橋田浩一\BBOP2005\BBCP.\newblock\JBOQゲーム理論による中心化理論の解体と実言語データに基づく検証\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(3),\mbox{\BPGS\91--110}.\bibitem[\protect\BCAY{舟尾}{舟尾}{2005}]{funao2005}舟尾暢男\BBOP2005\BBCP.\newblock{\Bem{TheRTips}}.\newblock九天社.\bibitem[\protect\BCAY{電子情報技術産業協会}{電子情報技術産業協会}{2005}]{jeita2005}電子情報技術産業協会\BBOP2005\BBCP.\newblock\JBOQ言語情報処理用語集(in言語情報処理ポータル)\JBCQ\\newblockhttp:{\slash}{\slash}nlp.kuee.kyoto-u.ac.jp{\slash}{NLP\_{}Portal}{\slash}glossary{\slash}index.html.\bibitem[\protect\BCAY{飯田\JBA乾\JBA松本}{飯田\Jetal}{2004}]{iida2004}飯田龍\JBA乾健太郎\JBA松本裕治\BBOP2004\BBCP.\newblock\JBOQ文脈的手がかりを考慮した機械学習による日本語ゼロ代名詞の先行詞同定\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf45}(3),\mbox{\BPGS\906--918}.\end{thebibliography}\begin{biography}\bioauthor{白松俊(学生会員){\unskip}}{2000年東京理科大学理工学部情報科学科卒業.2003年同大学院修士課程修了,JSTCREST研究補助員を経て,現在京都大学大学院情報学研究科博士後期課程在学中.談話文脈研究に従事.2007年よりJSPS特別研究員(DC2).}\bioauthor{駒谷和範(正会員){\unskip}}{1998年京都大学工学部情報工学科卒業.2002年同大学院情報学研究科博士後期課程修了.博士(情報学).現在,同大学院情報学研究科助教.音声対話システムの研究に従事.情報処理学会平成16年度山下記念研究賞等を受賞.}\bioauthor{橋田浩一(正会員){\unskip}}{1981年東京大学理学部情報科学科卒業.1986年同大学大学院理学系研究科博士課程修了.理学博士.同年,電子技術総合研究所入所.現在,産業技術総合研究所情報技術研究部門長.日本認知科学会優秀論文賞等を受賞.}\bioauthor{尾形哲也(非会員){\unskip}}{1993年早稲田大学理工学部機械工学科卒業.博士(工学).2003年京都大学大学院情報学研究科講師,現在同准教授.ロボット模倣,神経回路モデル等の研究に従事.情報処理学会,日本ロボット学会,IEEEなどの会員.}\bioauthor{奥乃博(非会員){\unskip}}{1972年東京大学教養学部基礎科学科卒業.博士(工学).2001年より京都大学大学院情報学研究科教授.音環境理解,ロボット聴覚の研究に従事.情報処理学会,人工知能学会,ロボット学会,ACM,IEEE等会員.}\end{biography}\biodate\end{document}
| |
V16N04-02 | \section{はじめに}
近年,コロケーションの研究は自然言語処理及びコーパス言語学において盛んになっている.このコロケーションの一種である遠隔共起\footnote{本稿では,あるテクストにおいて,語と他の言語的要素が同時に出現する現象を「共起」と呼ぶ.情報処理およびコーパス言語学において,同じような意味で「コロケーション」という用語も利用される.文末モダリティ形式との共起は語と文法範疇の共起とも考えられ,そのような語と文法範疇の共起は「コリゲーション」という用語を使用することがある.それに対して,語と語の共起は「コロケーション」と呼ばれる\cite{IshikawaBook}.本章では,両方の現象を「共起」という用語で扱う.「遠隔共起」というのは離れた位置に出現する共起である.}は,頻繁に現れる言語現象であるにも関わらず,研究としては取り上げられていない.日本語における遠隔共起の一つとして推量副詞と文末モダリティ形式\footnote{たとえば,「\textgt{\underline{たぶん}}最初は発表のスタイルもばらばらで声もあまり出ない\textgt{\underline{だろう}}」の例には,「たぶん」は推量副詞,「だろう」は文末モダリティ形式である.推量副詞および文末モダリティは,両方とも,話し手の確信の度合いを表している.}との共起関係があげられ,日本語教育においても重要な問題の一つである.このような共起はモダリティを二重に表現していることにより,テクストにおける重要な語用論的な指標となっている\cite{Bekes}.\shortciteA{Srdanovic2008a}では,工藤\citeyear{Kudou}が示した確率論的性格を有する推量副詞と文末モダリティの「共起」の振る舞いが,複数のコーパスの分析の結果においても確認された.さらに,推量副詞と文末モダリティ形式の共起はテクストの種類によって著しく異なっていることが示され,日本語コーパス資料の分類の可能性が明らかにされた.日本語においてモダリティ形式とそのバリエーションが非常に多いにもかかわらず,そのリストが存在しないため,現在の形態素解析ツールにおいては複数の形態素の連なりからなる様々なモダリティ形式の認識が不可能である.このことから,本研究ではコーパス検索ツールSketchEngine(SkE)\shortcite{Srdanovic2008b,Srdanovic2008d}において日本語の推量副詞とモダリティ形式の遠隔共起が検索可能になるように機能の拡張を試みる.実現方法としては,複数のコーパス分析の結果に基づいて,モダリティ形式とそのバリエーションのリストを作成し,ChaSenで認識できるようにした上で,語の文法・共起情報を提示するために推量副詞と文末モダリティ形式との遠隔共起が容易に抽出できるようにする.この抽出結果によって,日本語の学習者,研究者,教師が推量副詞と文末モダリティ形式の共起表現を簡単に調べられ,学習辞書や教科書などの作成に効率的に応用できるようになると考えられる.
\section{先行研究}
\subsection{言語学と日本語教育の分野における研究}南\citeyear{Minami1,Minami2}は日本語の文の階層構造を体系的に究明した.文において,接続形式と述部の要素,および接続形式と述部以外の要素の共起制約から,四階層の入れ子構造を確認している.以下の例(1)では,A層は述語「いる」1語,B層は「この町にも五人ぐらいはいる」という核の文があり,C層では副詞「どうやら」と文末モダリティ表現「〜らしい」が呼応している.\vspace{0.5\baselineskip}\begin{description}\item{(1)}$\{$どうやら$[$この町にも五人ぐらいは(い)$_A$$]_B$らしい$\}_C$\hspace{4zw}\cite{Bekes}\end{description}\vspace{0.5\baselineskip}南\citeyear{Minami1}は,内省ではなく,コーパスにおける共起の頻度を統計的に検証した結果に基づいて,副詞と特定のモダリティ形式の共起の可能性を明確に示している.工藤\citeyear{Kudou}も,南と同様にコーパスを利用している.副詞と文末モダリティの呼応の関係を検討しながら,それぞれの副詞と特定のモダリティ形式との共起の結びつきの強弱の程度を明らかにし,結びつきの強いものを呼応・共起関係とみなした.推量副詞は対象面から言えば事態実現の確実さ,作用面から言えば話し手の確信の度合いを表している\cite[p.~204,5]{Kudou}.この副詞群は「確信」「推測」「推定」「不確定」という四つに区分され,「確信,推測,推定,不確実」の順で,事態実現の確実さおよび話者の確信の度合いが低くなることを連続的な関係で示すものである.推量副詞と共起するモダリティ形式は四つのモダリティタイプ,即ち「に違いない」「はずだ」のような確信(NEC,necessity),「だろう」「と思う」のような推測(EXP,expectation),「らしい」「みたい」のような推定(CON,conjecture),「かもしれない」「かな」のような不確定(POSS,possibility)に分けられている\cite[p.~203]{Kudou}.例えば,「多分」は「だろう」「のだろうか」「と思う」「のではないか」などの推測(EXP)タイプに属するモダリティ形式と強く呼応する.推量副詞と文末モダリティの呼応の関係は,コーパスにおける共起の統計的な傾向として捉えることができる.工藤のデータについては,3.6で詳述する.Beke\v{s}\citeyear{Bekes}は,会話コーパスにおける推量副詞と文末モダリティの呼応を分析し,会話における副詞とモダリティの呼応関係の振る舞いを明らかにした.Srdanovi\'{c}etal.\citeyear{Srdanovic2008a}およびSrdanovi\'{c}etal.\citeyear{Srdanovic2008c}は,推量副詞とモダリティ形式の共起の傾向を複数のコーパスを対象に分析している.コーパスの種類によって推量副詞の分布は異なっており,この副詞と共起する文末モダリティ形式およびモダリティタイプの頻度の傾向にも違いが見られることを明らかにした.また,コロケーション・コリゲーションの研究において語句と語句との共起および語句と文型との共起関係はしばしば研究されるが,遠隔共起関係についての認識はあまりないことから,日本語における推量副詞と文末モダリティ形式の共起を一つの例として取り上げ,遠隔共起関係の重要性を指摘した.日本語教育の面から,個別の副詞に関して,研究や教育への示唆がいくつかあるが\cite{Sunakawa},コーパスに基づいた様々なモダリティ形式の整理及び複数のコーパスによる推量副詞とそのモダリティ形式との共起関係の振る舞いについての研究は見られない.また日本語教科書においての扱いも不十分であることから,本研究では,日本語学習辞典の編纂への提案も考慮に入れる.\subsection{自然言語処理における研究}自然言語処理においては,モダリティ形式が機能表現および長単位の研究において部分的に扱われているのが現状であり,日本語のモダリティ形式を中心に扱っている研究はほとんど見られない.先行研究を概観するに際して,推量副詞とモダリティ形式の呼応の研究とモダリティ形式を記載する電子化辞書などの自然言語処理のための言語資源に分け,その研究と自然言語処理の汎用ツールを使用する上での未解決の問題点を述べる.自然言語処理の汎用ツールを使用する際,意味的にはひとつのまとまりとなっている「かも知れない」「に違いない」などのモダリティ形式が複数の形態素または文節に分割されてしまう問題がある.また,「かもしれない」「かも知れません」「かも」のように,モダリティ形式の表記が文体,丁寧さ,形態素の数などの様々な要素によって異なってくることがある.この場合,モダリティ形式を記載している言語資源を使用すれば,モダリティ形式の自動抽出あるいは認識が可能になる.松吉他\citeyear{Matsuyoshi}によって編纂された階層構造を用いた機能表現辞書「つつじ」\footnote{http://kotoba.nuee.nagoya-u.ac.jp/tsutsuji/から配布されている.}はその言語資源の一つで,機能表現の一種とも考えられるモダリティ形式がその中にある程度収録されている.また,富士池他\citeyear{Fujiike}は文節を基にした複合辞と連語を含む「長単位」という言語単位を提唱し,「かもしれません」「わけではない」などを1長単位として規定している.しかし,前者は機能表現辞書の作成,後者は「長単位」という形態論の研究であり,いずれもモダリティ形式に特化したものではないため,本稿で扱っているモダリティ形式をすべて含んでいるわけではない.例えば,機能表現辞書「つつじ」には,「といえない」「といえる」「と思う」「と考える」「のか」「ように思う」「気がする」「気がしない」のモダリティ形式が含まれていない.また,「長単位」で認められるのは,助動詞相当として扱われている「かもしれない」「てはいけない」「てはならない」「なければならない」「のだ」「のではない」「わけだ」「わけではない」「わけにはいかない」のみである\footnote{本稿で扱っているモダリティ形式は3.3節を参照されたい.}.木田他\citeyear{Kida}は副詞とそれと共起する表現をまとめて呼応表現と呼び,文中に副詞が現れると,その後に呼応する表現が来ることが予測できることに焦点をあてた.そのため,人手作業による副詞とモダリティの呼応関係を含むタグ付きコーパスを作成し,モダリティ階層関係に基づく呼応関係辞書を編纂した.しかし,人手作業のため,モダリティ形式を自動認識できる言語資源およびシステムは提供していない.SkEで推量副詞とモダリティ形式の共起関係を抽出するためには,網羅的なモダリティ形式のリストおよび表記のゆれなどを認識できるような言語資源やツールが必要である.そこで,先行研究を参考にしつつ,3.3節に述べる方法でモダリティ形式およびそのバリエーションのリストを作成し,見出し語と品詞の認定およびその再付与を行うことで,多様なモダリティ形式と推量副詞の関係をSkE上で検索可能にすることを目指すことにする.
\section{SkEでの推量副詞とモダリティ遠隔共起の抽出}
\subsection{SkEとその主な機能}SkEはコーパス検索システムであり,コンコーダンス機能以外に,語に付随する文法とコロケーション情報を表示する機能WordSketchや,シソーラス情報や意味的に類似する語の共通点と差異を示す機能(ThesaurusとSketchDifference)も備えている.SkEは現在,複数の言語に対応しており\shortcite{Kilgarriff2},その一つに日本語版がある\cite{Srdanovic2008b}.日本語版は,JpWaCという4億語の大規模Webコーパスを形態素解析ツールChaSenで解析したデータと,日本語の「文法関係ファイル」から成る.このファイルは,様々な文法関係・共起関係を22項目にまとめ,ChaSenの品詞体系を用いた正規表現で定義している.SkEの検索の結果において,WordSketch機能は名詞,形容詞,形容動詞,動詞などと共起する要素を表示する.図1はその1例として,「単語」という語との共起の一部の結果を示している.ここに見られる共起関係は形容詞(modifier\underline{}Ai),形容動詞(modifier\underline{}Ana),動詞(をverb,がverb)などとの共起である.それぞれの欄に表示されている2列の数字は,1列目がコーパスの中の共起頻度を示し,2列目がその共起の統計的な顕著性(salience)\footnote{共起関係はダイス係数の統計値に基づいて抽出されている.}を示している.表中の1列目の数字をクリックすると,例文がコンコーダンスの中で表示される.\begin{figure}[t]\begin{center}\includegraphics{16-5ia2f1.eps}\end{center}\caption{WordSketchでの「単語」の検索例}\end{figure}SkEに搭載されている大規模ウェブコーパスJpWaCは4億語からなり,均衡コーパスを目指して慎重な抽出方法により構築されたものである\shortcite{Erjavec,Srdanovic2008b}.最近の研究によると,ウェブコーパスはバランスの取れたデータの傾向を有していることが明らかになっている\cite{Ueyama,Sharoff}.Srdanovi\'{c}etal.\citeyear{Srdanovic2008c}およびSrdanovi\'{c}etal.\citeyear{Srdanovic2009}では,13種の日本語のコーパスにおいても推量副詞を分析した結果,JpWaCは,均衡コーパスとして設計されたBCCWJ(BalancedCorpusofContemporaryWrittenJapanese)の中の書籍コーパス\cite{Yamazaki}ともっとも類似した結果を示している.石川\citeyear{Ishikawa}はBCCWJと各種のウェブコーパスにおける基本語頻度のデータを比較し,ウェブコーパスは信頼性と有用性を持つことを実証的に示した.SkEの応用の可能性は,日本語学習辞書,日本語学研究,日本語教育などにおいて考えられる\cite{Srdanovic2008d}.モダリティ形式の多くは形態素の単位が連なった形となっており,ChaSenにおいては直接認識されていない.そのため,本稿ではSkE日本語版において形態素が連なったモダリティ形式をひとつの単位として抽出可能にし,その結果から日本語教育への応用を検討する.\subsection{推量副詞との遠隔共起の抽出}SkEの日本語版においてWordSketch機能で副詞と他の語との隣接共起関係が見られる.しかしながら,副詞と離れた場所において共起する語をみるためには,遠隔共起検索機能を追加しなければならない.その方法として,ChaSenの品詞で識別できる要素ならば,SkEの「文法関係ファイル」に単純に追加するだけでWordSketchで表示できる.ここで副詞と遠隔共起するものとして,1)副詞と(遠隔)共起する動詞(modifies\underline{}V),2)副詞と(遠隔)共起する形容詞・形容動詞(modifies\underline{}Adj),3)副詞と終助詞(particle\underline{}fin)の三つの共起関係が挙げられる.図2は,一例として推量副詞の「たぶん」と共起する最も高頻度の動詞,形容詞,終助詞を示しており,この頻度は遠隔共起も含んでいる.\begin{figure}[t]\begin{center}\includegraphics{16-5ia2f2.eps}\caption{WordSketchで「たぶん」との共起の抽出}(終助詞,形容詞・形容動詞,動詞の場合)\end{center}\end{figure}しかしながら,副詞と文末モダリティ形式との共起については,SkEの設計を変更するだけでは,抽出できない.その理由は,文末モダリティ形式は形態素解析ツールChaSenで認識されていないこと,および日本語のモダリティ形式とそのバリエーションのリストが存在しないためである.次節では,SkEに推量副詞と文末モダリティとの遠隔共起の表示を可能にする方法を検討する.\subsection{モダリティ形式の抽出方法}本論文では,\cite{Srdanovic2008a}の同様の調査に,さらにデータを追加したものを分析する.まずJpWaCコーパスから形態素数2千万のサンプルコーパスを作成し,そのコーパスから推量副詞を含む文を抽出し,モダリティ形式がどのように現れているかを調査した.さらにこの調査を基に,モダリティ形式のリストの作成,複数の形態素に分割されたモダリティ形式および推量副詞のタグの再付与,SkEへの適用をする.SkE用のコーパスのフォーマットとして,各単語に対し,出現形,見出し語,品詞の三つのタグを用い,ChaSenの出力結果からそれらのみを使用する.また,2.2節で述べたようにモダリティ形式の多くが複数の形態素から構成されるが,SkEでは1語がChaSenの1形態素に相当するので,モダリティ形式を一つの語にまとめ,コーパスにそれを再付与する必要がある.サンプルコーパスの調査結果から,モダリティ形式の出現には活用・スタイル・表記などの多数のバリエーションがあることが明らかになった.このため,「だろう」「でしょう」「であろう」「だろ」などの同意のモダリティ形式は一つの代表的なモダリティ形式にまとめ,見出し語を31語に統一した.その31項目のモダリティ形式を表1に示す.さらに,モダリティ形式をより網羅的に認識するために,モダリティ形式が他のモダリティ形式やモダリティ形式以外の語と連なって現れる場合も検討した.下記の文例は,実際にコーパス中に見られたものである.\begin{description}\item[]目の前の仕事が新鮮にうつることに\textgt{きっと}驚く\textgt{でしょう.}(例3.3.1)\item[]\textgt{きっと}素晴らしいセミナーをなさる\textgt{ことでしょう!}(例3.3.2)\item[]\textgt{きっと}皆さんもそう\textgt{であろうと思います.}(例3.3.3)\end{description}\begin{table}[b]\caption{JpWaCサンプルコーパスに出現するモダリティ形式の見出し語}\input{02table01.txt}\end{table}モダリティ形式ではない一定の語および形態素がモダリティ形式に接続する傾向が見られた.例えば,例3.3.1のモダリティ形式の「でしょう」に形式名詞「こと」が前接する例として3.3.2の「ことでしょう」がある.このように,あるモダリティ形式が,単独で現れる場合と,他の語・形態素と結合して,定型的な組み合わせの語句として現れる場合とで,意味が異なることがある.このことから,モダリティ形式と語・形態素による組み合わせからなる定型的な表現を新しいモダリティ形式として扱うことにした.表1に示したモダリティ形式に接続できる12個の語群を表2に示す.\begin{table}[b]\caption{モダリティ形式と接続可能な語・形態素の見出し}\begin{center}\input{02table02.txt}\end{table}また,例3.3.3のように,モダリティ形式が連続して現れる傾向が明らかになった.あるモダリティ形式が,単独で現れる場合と,他のモダリティ形式と接続して現れる場合があり,その語句の出現の様相で意味が異なることがある.本稿では,例3.3.3の「であろうと思います」のようなモダリティ形式を複合的なモダリティ形式,「であろう」のようなモダリティ形式を単独モダリティ形式と呼ぶことにする.SkEでは,複合的なモダリティ形式を別々に扱うのではなく,一つの新しいモダリティ形式としてまとめて扱うことにした.例3.3.3のモダリティ形式は「だろうと思う」になり,連続している形態素をまとめてSkEの1単語とする.表3と表4からわかるように,同じ意味・機能の表現であるにもかかわらず,ChaSenによる見出し語が漢字とひらがなで区別されてしまう場合や,品詞タグが異なっている場合がある.これはモダリティ形式に限らない.「必ずしも」や「ひょっとしたら」などの複数の形態素から構成される副詞も同じ問題を含んでいる.そこで,すべてのモダリティ形式と推量副詞が見出し語と品詞のレベルで統一されるようにコーパス中のモダリティ形式および推量副詞の見出し語と品詞を再付与した\footnote{そのために,SkEで検索する際に,統一した表現で検索する必要がある.例えば,すべての副詞は漢字ではなく,ひらがなで記入して検索することである(多分→たぶん).}.ここで,モダリティ形式の品詞タグはすべて「Mod」という新しいカテゴリに書き換えた.これにより,モダリティ形式と推量副詞の表記が文章のスタイルおよびChaSenの誤解析によって異なる場合でも,網羅的にそれらをSkEで検索したり,違いを見たりすることが可能になる.\begin{table}[t]\caption{JpWaCコーパスにおいてChaSenによる見出し語が異なる場合の処理}\input{02table03.txt}\end{table}\begin{table}[t]\caption{JpWaCコーパスにおいてChaSenによる品詞タグが異なる場合の処理}\input{02table04.txt}\end{table}以上の方法によって得られたモダリティ形式の数は,代表的なモダリティ形式は31個,組み合わせで現れるモダリティ形式は596個,その出現形のバリエーションは2,641個である.以上の点を考慮し,抽出する様々な共起関係を定めるSkEの「文法関係ファイル」に表5の副詞とモダリティ形式の関係を定める規則を追加する.\begin{table}[t]\caption{副詞とモダリティ形式の関係を定める規則}\input{02table05.txt}\end{table}この規則は,SkEにおいて実装されている正規表現と品詞及び単語に基づいた,「corpusquerysyntax(コーパス検索シンタクス)」を適用している.「DUAL」は副詞とモダリティ形式の関係を両方向から検索できる規則である.「Adv」と「modality」はそれぞれ「副詞」と「モダリティ形式」を意味する.この規則では,副詞に続いて最初に現れるモダリティ形式のみとの関係を抽出することではなく,文末まで現れる他のモダリティ形式との共起が多くあることから,すべてのモダリティ形式との可能性をみることとした.また,この規則で得られる推量副詞とモダリティ形式の共起は構文を考慮していない.そこで係り受け解析器CaboChaを使用した共起の抽出方法も考えられるが,本手法と比べていくつかの利用上の欠点がある.一つは,モダリティ形式が係り受けの単位となる文節の境界を越えることがある.他の一つは,CaboChaが学習したドメインとは異なるJpWaCのようなウェブ文章における遠隔共起の正確な係り受け解析が難しいと考えられることである.\subsection{抽出結果}JpWaCの2千万語サンプルコーパス中に見られる複数のモダリティ形式とそのバリエーションにモダリティタグを付け,新しい共起関係をSkEの「文法関係ファイル」に組み込んだことで,推量副詞と文末モダリティの共起がSkEのWordSketchの機能の中で表示できるようになった\footnote{現時点で通常の使用では出来ないが,ユーザからの要請により,SkEのウェブページでJpWaCのサンプルコーパスにおいて副詞とモダリティの共起を検索することができる.}.\begin{figure}[b]\begin{center}\includegraphics{16-5ia2f3.eps}\caption{WordSketchにおける推量副詞とモダリティ形式の共起表現検索結果}(「たぶん」,「どうやら」,「もしかしたら」,「かならずしも」とモダリティ形式との例)\end{center}\end{figure}例として,「たぶん」「どうやら」「もしかしたら」「かならずしも」とそのモダリティ形式との共起の表示結果を図3に示す.それぞれの推量副詞が多様なモダリティ形式と共起していること,結びつくモダリティ形式のうち代表的なものがそれぞれの副詞で異なっていることが分かる.「たぶん」は「のだろう」「だろう」「と思う」「のだと思う」などの推測(EXP)のモダリティタイプとよく共起する傾向がある.「どうやら」は推定(CON)の「らしい」「ようだ」「のようだ」「みたいだ」など,「もしかしたら」は不確定(POSS)の「かもしれない」「のかもしれない」「のかな」など,「必ずしも」は確信(NEC)の「とはかぎらない」「わけではない」「ものではない」などとよく共起する傾向がある.表6では,コーパスにおける推量副詞の分布とそれぞれの副詞と顕著性計指数が高い項目の順に5つのモダリティ形式が並んでいる.まず,推量副詞の分布から見ると,高頻度の副詞は「たぶん」「かならず」「おそらく」「きっと」「ぜったい」などである.推量副詞とモダリティ形式の共起関係を見ると,「のだろう」「だろう」「と思う」などの「推測」を表すモダリティ形式および「はず」「のだ」「に違いない」などの「確信」を表すモダリティ形式がもっとも高頻度の共起関係として出現することがわかる.ある副詞が「推測」のモダリティ形式と共起する傾向があれば,その副詞の共起の中では,「確信」のモダリティ形式もよく見られる.たとえば,「きっと」と「おそらく」と共起する「に違いない」などである.逆に,副詞が「確信」のモダリティ形式と共起する場合,その副詞は「推測」のモダリティ形式とも共起する.たとえば,「かならず」「ぜったい」と,「だろう」「と思う」という「推測」の文末形式が共起する場合である.\begin{table}[t]\caption{JpWaCのサンプルにおける高頻度の推量副詞と文末モダリティ形式の共起関係}\input{02table06.txt}\end{table}JpWaCのサンプルデータと均衡コーパスであるBCCWJの中の書籍のコーパスにおける推量副詞の分布と推量副詞と文末モダリティの共起を比較した結果,類似した分布及び共起関係の傾向を示していることが明らかになった\cite{Srdanovic2009}.SkEの中にあるWordSketch機能だけでなく,コンコーダンス,SketchDifference,シソーラスなどの機能においても推量副詞とモダリティ形式について検索できる.たとえば,類似している二つの語の間の共起の傾向における共通点と差異が閲覧できるSketchDifferenceという機能では,「たぶん」と「きっと」を比較する際,「きっと」は「のだろう」「に違いない」「ことだろう」「はず」との共起が多く,確信のモダリティタイプに近い性質が見られる.一方,「たぶん」のほうは推測を表す「と思う」「のだと思う」「のではないかと」「と思うのだ」とよく共起することから,「きっと」より推量の度合いが低いと考えられる.\subsection{SkEで抽出された推量副詞と文末モダリティ形式の共起の評価}本節では,WordSketchによる推量副詞と文末モダリティ形式との共起の判定の精度を評価する.推量副詞と共起する代表的なモダリティタイプが四つあり\cite{Kudou,Srdanovic2008a},それぞれのタイプから一つの高頻度の副詞を評価のために選択する.また,それぞれの副詞と共起するモダリティの検索結果から,四つのモダリティ形式を選び(WordSketchに表示するモダリティ形式のリストの最初から四番目までの四項目),コンコーダンス機能から選んだこの副詞と共起するモダリティ形式の10例文をランダムに取り出す.従って,合計160の例文を評価することとする.選択した例文について日本語教育専門家二名(A,B),自然言語処理専門家一名(C)から評価を受ける.選択肢は「(正)副詞とモダリティ形式の共起は正しい」,「(?)副詞とモダリティ形式の共起は部分的に正しい」,「(誤)副詞とモダリティ形式の共起は正しくない」であり,コメントを記入できる欄もある.\begin{table}[t]\caption{評価の結果}\input{02table07.txt}\end{table}表7に見られるように「(正)副詞とモダリティ形式の共起は正しい」の回答から,精度は高く評価されていることがわかる.正しく評価されていない例文と評価者のコメントを見ると以下のようなことがわかる.\begin{itemize}\item[1)]モダリティ部分とみなす部分に誤解析となる例文がある.\item[2)]日本語として正しくない例文がある.\item[3)]コーパスには重複する例文がある.\item[4)]副詞とモダリティ形式が共起していない例文がある.\item[5)]表示されているものとは異なる他のモダリティ形式と共起している例文がある.\end{itemize}1),2),3)は比較的修正が容易である.1)については,部分的に抽出したモダリティ形式をバリエーションリストに追加すること,タグの付け方の改善で解決できる.また,2),3)については,正しくない文および重複している文の排除を行うことで処理できる.4)と5)の原因は,形態素解析の誤りに起因する複数の文がコーパスに入っている場合と,構文が複雑なため副詞が自動的に指定されたモダリティ形式と共起しない場合が考えられる.今後の課題として,構文中の呼応関係を示すための構文解析プログラムを改善する必要がある.\subsection{工藤データとの比較}前節では共起項目検索結果の精度が高いと評価されたことを述べたが,さらにこの結果を日本語研究における推量副詞と文末モダリティ形式の呼応関係についてよく精査された研究\cite{Kudou}と比較する.工藤によると副詞とモダリティ形式との呼応は程度の問題だと考えられ,それぞれの副詞は特定のモダリティタイプに属するモダリティ形式とよく共起する傾向があるとしている(図4).たとえば,「きっと」は確信のモダリティタイプに属する「する・のだ」「に違いない」などの形式と最も共起する.「おそらく」は推測の「だろう・まい」「と思われる」「のではないだろうか」と多く共起する.「どうやら」は確定の「らしい」など,「もしかしたら」は不確定の「かもしれない」などと多く共起する傾向が見られる.\begin{figure}[t]\begin{center}\includegraphics{16-5ia2f4.eps}\end{center}\caption{工藤による推量副詞と文末モダリティのコーパス分析結果}\end{figure}本研究で抽出されたデータにも,工藤のデータと同様に推量副詞と共起する四つのモダリティタイプが見られる.このデータにも,推測と確信のモダリティタイプとの共起は最も多く見られる.工藤のデータに見られる様々なモダリティ形式はJpWaCにも表れる.しかし副詞の頻度の順序,およびそれぞれの副詞の共起傾向には差異も見られる.「きっと」との共起は確信のモダリティタイプより,推測のモダリティタイプの方が多く現れる.工藤のデータにはやや古い用語も現れ,例えば,「さぞ」の頻度は,JpWaCより頻度がかなり高い.この差異の理由は,Srdanovi\'{c}etal.\citeyear{Srdanovic2008c}に複数のコーパスの分類結果で指摘されているように,コーパスの種類が異なるためである.
\section{日本語教育への応用}
SkEは既に多数の言語において語学教育,辞書作成などに利用されており\shortcite{Smrz,Smith,Kilgarriff1},日本語版も日本語教育などのために役立つシステムになると考えられる\cite{Srdanovic2008d}.本研究で抽出できるようになった推量副詞とモダリティ形式の共起に関する結果は,日本語学習のシラバス,教科書,学習辞典などの学習資源を作成するために利用できる.また,抽出された共起関係は学習者や教師が授業中に参照したり,授業の準備をしたりするためにも利用できる.さらに,整理したモダリティ形式とモダリティ形式のバリエーションのリストが日本語教育のための言語処理の資源など様々の目的のために利用できる.検索方法の面からみるとSkEで推量副詞とモダリティ形式の共起に関して,いくつかのメリットが見られる.(1)ウェブ上で推量副詞と文末モダリティの共起が瞬時に効率的に抽出できる.(2)共起に関しての高頻度の情報と統計的に重要な共起情報が得られ,学習項目に優先順位を付けることができる.(3)SketchDifferenceの機能において,類似している副詞の共起関係の傾向における差異を簡単に把握できる.(4)コンコーダンス機能で,例文を細かく考察でき,複雑な遠隔共起も検索でき,様々なコンコーダンスオプションも利用できる.一つの応用の例として,日本語の学習辞典の編集・改善案を具体的に検討する.抽出できるようになった推量副詞と文末モダリティ形式の共起関係の結果を3種の日本語学習辞典と比較する.学習者によく利用されている和英辞典2種(『ジーニアス和英辞典』,『ニューセンチュリー和英辞典』)と,中級レベル以上の日本語学習者にとって問題となる文型を網羅的に集めた辞典(『日本語文型辞典』)を対象とする.表8は,これらの辞典においてどの推量副詞の項目がカバーされているか,また記載されている各副詞の項目の中で,その例文中にどのモダリティ形式が現れているかを示している.\begin{table}[t]\caption{日本語辞書における推量副詞と文末モダリティ形式との共起}\input{02table08.txt}\par\vspace{4pt}\small△副詞は辞書にあるが,共起するモダリティ形式は記載されていない\\▲モダリティ形式が例文にある\\●モダリティ形式が他の表現として言及されている\end{table}推量副詞の分布から見ると,和英辞典2種には対象となるすべての推量副詞が現われている.「文型辞典」には,現われない副詞もある.「あんがい」「おおかた」「ことによる」のような最も低頻度の副詞以外に,コーパス中にかなり出現している「ぜったい」「ぜったいに」が現われていない.本研究で抽出した結果によると,この二つの副詞はかなり出現することから,中級以上の日本語学習辞典にも含めることを考慮する必要がある\footnote{\shortciteA{Srdanovic2009}の研究によると,この副詞はインフォーマルの会話コーパスでは非常に高頻度で,均衡コーパスの書籍とJpWaC,新聞コーパス,知恵袋のウェブコーパス,フォーマルな会話コーパスでもかなり頻度が高い.}.反対に,「さぞ」「たいがい」はJpWaCのコーパスにはあまり現れない.特に「さぞ」はやや古い表現だと考えられる\footnote{この副詞は教科書系のコーパスでは頻度が非常に高いが,均衡コーパスの書籍では,頻度が非常に低い.}.推量副詞と共起するモダリティ形式については,和英辞典2種の例文中にモダリティ形式が多く現れている.しかし,それぞれの辞典で例文に現れるモダリティ形式は異なっており,特定の副詞と共起する代表的なモダリティ形式が足りない場合もかなりある.たとえば,「たぶん」には,「かもしれない」「ものだ」の代わりに,「のだろう」「と思う」を入れた方がよい.また,「おそらく」には,「と思う」「に違いない」も追加したほうが良いと考えられる.「文型辞典」では,推量副詞のすべての項目に網羅的にモダリティ形式が現れていることが評価できる.しかし,この辞典においても,コーパス中に高い頻度および高い顕著性で現れるモダリティ形式のデータを導入することについて検討の余地がある.たとえば,「おそらく」という副詞に関し,「ものと思われる」のかわりに,「のだろう」「ことだろう」「と思う」のモダリティ形式を載せたほうがよい.「かならず」の項目では推量のモダリティ形式が現われていないので,「はずだ」「のだ」「だろう」「に違いない」を追加した方がよい\footnote{JpWaCにおける最も高頻度の副詞とモダリティ形式の共起関係は均衡コーパスの書籍と類似した結果が見られる.}.以上の指摘は,均衡コーパスに基づく調査結果によるものであり,一般的な日本語習得を目的とした辞典の作成のためのものである.しかし,コーパスの種類によって代表的なモダリティ形式が異なるので\cite{Srdanovic2008a,Srdanovic2008c},学習辞典にもこの調査結果を学習目的に合わせて反映させることが望ましい.一つの例として,理系教科書,自然言語処理の論文集のような理系の特定コーパスの調査において,均衡コーパスとは異なり,「必ずしも」が他の推量副詞より頻度が非常に高いことがわかった.このような結果を反映させることで,辞典に特定目的の学習をカバーすることが可能となる.
\section{まとめと今後の課題}
本稿では,推量副詞と文末モダリティに関連する先行研究を調査した結果から,代表的なモダリティ形式に関する実証的な情報と網羅的に作成されたモダリティ形式のリストが欠如していることを明らかにした.次に,コーパス検索システムSkEの主な機能を紹介し,SkEに推量副詞と文末モダリティ形式などの遠隔共起関係の機能の追加を,次の1)〜4)までの手順で行った.\begin{itemize}\item[1)]モダリティ形式とそのバリエーションのリストの作成,\item[2)]ChaSenによるモダリティ形式の形態素解析の検定とモダリティ形式のタグの作成,\item[3)]ChaSenで形態素解析されたコーパスへのタグの再付与(モダリティ形式のタグの追加),\item[4)]「文法関係ファイル」に副詞とモダリティ形式の共起関係を定める規則の追加.\end{itemize}次に,SkE中のWordSketchで抽出が可能になった推量副詞と文末モダリティ形式の共起の評価を行い,抽出された共起項目が高く評価されたことを示した.さらに,得られた結果を推量副詞についての工藤の日本語研究と比較し,共通点と差異を明らかにした.最後に,SkEのWordSketch機能で推量副詞とモダリティ形式の遠隔共起をどのように日本語教育に応用できるかを検討した.具体的な例として,日本語学習辞典における推量副詞と文末モダリティ形式の共起の扱いを検討した.今後の課題として,モダリティ形式とそのバリエーションのリストをxml形式で作成,ウェブコーパス以外のデータに基づいてさらに改善することを目指す.また,様々なコーパスを利用することで,推量副詞と文末モダリティ形式の共起のデータをジャンル別に比較することで,日本語教育における目的別の学習への活用を考える.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Beke\v{s}}{Beke\v{s}}{2008}]{Bekes}Beke\v{s},A.\BBOP2008\BBCP.\newblock\BBOQJapanesesuppositionaladverbs:probabilityandstructureinspeaker-hearerinteraction.\BBCQ\\newblock{\BemLinguistica},{\Bbf48},\mbox{\BPGS\277--292}.\bibitem[\protect\BCAY{Erjavec,Srdanovi\'{c},\BBA\Kilgarriff}{Erjavecet~al.}{2007}]{Erjavec}Erjavec,T.,Srdanovi\'{c},I.,\BBA\Kilgarriff,A.\BBOP2007\BBCP.\newblock\BBOQAlargepublic-accessJapanesecorpusanditsquerytool.\BBCQ\\newblockIn{\BemCoJaS2007}.\bibitem[\protect\BCAY{富士池\Jetal}{富士池\Jetal}{2008}]{Fujiike}富士池優美\Jetal\BBOP2008\BBCP.\newblock『現代日本語書き言葉均衡コーパス』における長単位の概要.\\newblock\Jem{科学研究費補助金特定領域研究「日本語コーパス」平成19年度公開ワークショップ(研究成果報告会)予稿集},\mbox{\BPGS\51--58}.\bibitem[\protect\BCAY{石川}{石川}{2008}]{IshikawaBook}石川慎一郎\BBOP2008\BBCP.\newblock\Jem{英語コーパスと言語教育}.\newblock大修館書店.\bibitem[\protect\BCAY{石川}{石川}{2009}]{Ishikawa}石川慎一郎\BBOP2009\BBCP.\newblock日本語基礎研究における非統制型・統制型・媒介型WebasCorpusの可能性—言語コーパスにおける基本語頻度の安定性について.\\newblock\Jem{特定領域研究「日本語コーパス」平成20年度公開ワークショップサテライトセッション予稿集},\mbox{\BPGS\29--38}.\bibitem[\protect\BCAY{木田\JBA高梨\JBA乾\JBA井佐原}{木田\Jetal}{2002}]{Kida}木田敦子\JBA高梨克也\JBA乾裕子\JBA井佐原均\BBOP2002\BBCP.\newblock文構造の漸進的予測を可能にする日本語の諸特徴の分析.\\newblock\Jem{言語処理学会第8回年次大会発表論文集},\mbox{\BPGS\65--68}.\bibitem[\protect\BCAY{Kilgarriff\BBA\Rundell}{Kilgarriff\BBA\Rundell}{2002}]{Kilgarriff1}Kilgarriff,A.\BBACOMMA\\BBA\Rundell,M.\BBOP2002\BBCP.\newblock\BBOQLexicalProfilingSoftwareanditsLexicographicApplications---aCaseStudy.\BBCQ\\newblockIn{\BemEURALEX2002Proceedings},\mbox{\BPGS\807--818}.\bibitem[\protect\BCAY{Kilgarriff,Rychly,Smr\v{z},\BBA\Tugwell}{Kilgarriffet~al.}{2004}]{Kilgarriff2}Kilgarriff,A.,Rychly,P.,Smr\v{z},P.,\BBA\Tugwell,D.\BBOP2004\BBCP.\newblock\BBOQTheSketchEngine.\BBCQ\\newblockIn{\BemProc.Euralex},\mbox{\BPGS\105--116}.\bibitem[\protect\BCAY{工藤}{工藤}{2000}]{Kudou}工藤浩\BBOP2000\BBCP.\newblock副詞と文の陳述のタイプ.\\newblock森山卓郎\JBA仁田義雄\JBA工藤浩\JEDS,\Jem{日本語の文法3モダリティ},\mbox{\BPGS\161--234}.岩波書店.\bibitem[\protect\BCAY{松吉\JBA佐藤}{松吉\JBA佐藤}{2007}]{Matsuyoshi}松吉俊\JBA佐藤理史\BBOP2007\BBCP.\newblock体系的機能表現辞書に基づく日本語機能表現の言い換え.\\newblock\Jem{言語処理学会第13回年次大会発表論文集},\mbox{\BPGS\899--902}.\bibitem[\protect\BCAY{南}{南}{1974}]{Minami2}南不二男\BBOP1974\BBCP.\newblock\Jem{現代日本語の構造}.\newblock大修館書店.\bibitem[\protect\BCAY{南}{南}{1993}]{Minami1}南不二男\BBOP1993\BBCP.\newblock\Jem{現代日本語文法の輪郭}.\newblock大修館書店.\bibitem[\protect\BCAY{Sharoff}{Sharoff}{2006}]{Sharoff}Sharoff,S.\BBOP2006\BBCP.\newblock\BBOQOpen-sourcecorpora:usingthenettofishforlinguisticdata.\BBCQ\\newblock{\BemInternationalJournalofCorpusLinguistics},{\Bbf11}(4),\mbox{\BPGS\435--462}.\bibitem[\protect\BCAY{Smith,Chen,\BBA\Kilgarriff}{Smithet~al.}{2007}]{Smith}Smith,S.,Chen,A.,\BBA\Kilgarriff,A.\BBOP2007\BBCP.\newblock\BBOQAcorpusquerytoolforSLA:learningMandarinwiththehelpofSketchEngine.\BBCQ\\newblockIn{\BemPracticalApplicationsinLanguageandComputers---PALC2007}.\bibitem[\protect\BCAY{Smr\v{z}}{Smr\v{z}}{2004}]{Smrz}Smr\v{z},P.\BBOP2004\BBCP.\newblock\BBOQIntegratingNaturalLanguageProcessingintoE-learning---ACaseofCzech.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponeLearningforComputationalLinguisticsandComputationalLinguisticsforeLearning,COLING2004},\mbox{\BPGS\106--111}.\bibitem[\protect\BCAY{Srdanovi\'{c},Beke\v{s},\BBA\Nishina}{Srdanovi\'{c}et~al.}{2008a}]{Srdanovic2008a}Srdanovi\'{c},I.,Beke\v{s},A.,\BBA\Nishina,K.\BBOP2008a\BBCP.\newblock\BBOQDistantCollocationsbetweenSuppositionalAdverbsandClause-FinalModalityFormsinJapaneseLanguageCorpora.\BBCQ\\newblockInTokunaga,T.\BBACOMMA\\BBA\Ortega,A.\BEDS,{\BemLKR2008,LNAI4938},\mbox{\BPGS\252--266}.Springer-VerlagBerlinHeidelberg.\bibitem[\protect\BCAY{Srdanovi\'{c},Erjavec,\BBA\Kilgarriff}{Srdanovi\'{c}et~al.}{2008b}]{Srdanovic2008b}Srdanovi\'{c},I.,Erjavec,T.,\BBA\Kilgarriff,A.\BBOP2008b\BBCP.\newblock\BBOQAwebcorpusandword-sketchesforJapanese.\BBCQ\\newblock\Jem{自然言語処理},{\Bbf15}(2),\mbox{\BPGS\137--159}.\bibitem[\protect\BCAY{Srdanovi\'{c}\BBA\Nishina}{Srdanovi\'{c}\BBA\Nishina}{2008}]{Srdanovic2008d}Srdanovi\'{c},I.\BBACOMMA\\BBA\Nishina,K.\BBOP2008\BBCP.\newblockコーパス検索システムSketchEngineの日本語版とその利用方法.\\newblock\Jem{日本語科学},{\Bbf23},\mbox{\BPGS\59--80}.\bibitem[\protect\BCAY{Srdanovi\'{c},Beke\v{s},\BBA\Nishina}{Srdanovi\'{c}et~al.}{2008}]{Srdanovic2008c}Srdanovi\'{c},I.,Beke\v{s},A.,\BBA\Nishina,K.\BBOP2008\BBCP.\newblock複数のコーパスに見られる副詞と文末モダリティの遠隔共起関係.\\newblock\Jem{科学研究費補助金特定領域研究,「日本語コーパス」平成19年度公開ワークショップ(研究成果発表会)予稿集},\mbox{\BPGS\223--230}.\bibitem[\protect\BCAY{Srdanovi\'{c},Beke\v{s},\BBA\Nishina}{Srdanovi\'{c}et~al.}{2009}]{Srdanovic2009}Srdanovi\'{c},I.,Beke\v{s},A.,\BBA\Nishina,K.\BBOP2009\BBCP.\newblockBCCWJにおける推量副詞とモダリティ形式の共起.\\newblock\Jem{科学研究費補助金特定領域研究「日本語コーパス」平成20年度公開ワークショップ(研究成果報告会)予稿集},\mbox{\BPGS\237--244}.\bibitem[\protect\BCAY{砂川}{砂川}{2007}]{Sunakawa}砂川有里子\BBOP2007\BBCP.\newblock機能語のコロケーション(1)副詞との共起について.\\newblock\JTR,科学研究費補助金特定領域研究日本語教育班第2回公開会議.\bibitem[\protect\BCAY{Ueyama\BBA\Baroni}{Ueyama\BBA\Baroni}{2005}]{Ueyama}Ueyama,M.\BBACOMMA\\BBA\Baroni,M.\BBOP2005\BBCP.\newblock\BBOQAutomatedconstructionandevaluationofaJapaneseweb-basedreferencecorpus.\BBCQ\\newblockIn{\BemProceedingsofCorpusLinguistics}.\bibitem[\protect\BCAY{山崎}{山崎}{2006}]{Yamazaki}山崎誠\BBOP2006\BBCP.\newblock代表性を有する現代日本語書き言葉コーパスの設計.\\newblock\Jem{国立国語研究所(2006)所載},\mbox{\BPGS\63--70}.\end{thebibliography}\begin{biography}\bioauthor[:]{Srdanovi\'{c}Irena}{1997年ベオグラード大学文学部日本語学科卒業.2006年リュブリャーナ大学文学部一般言語学・比較言語学研究科修士課程修了.2009年9月東京工業大学大学院社会理工学研究科人間行動システム専攻博士課程終了.博士(学術).言語処理学会,日本語教育学会会員.}\bioauthor[:]{Hodo\v{s}\v{c}ekBor}{2007年米国メリーランド大学カレッジパーク校人文学部日本語学学科卒業.同年リュブリャーナ大学文学部一般言語学・比較言語学研究科修士課程入学.2008年東京工業大学大学院社会理工学研究科人間行動システム専攻修士課程入学,現在に至る.言語処理学会会員}\bioauthor[:]{Beke\v{s}Andrej}{1971年リュブリャーナ大学理学部数学学科卒業.1975年大阪大学大学院理学研究科数学専攻修士課程修了.1981年筑波大学大学院人文社会科学研究科文芸・言語専攻入学.1986年同課程修了.1988年リュブリャーナ大学社会学部専任講師.2002年同大学文学部正教授(日本学),現在に至る.文学博士.日本語教育学会会員.}\bioauthor{仁科喜久子}{1969年東京女子大学・文理学部卒業.1977年同大学大学院文学研究科修士課程修了.1986年埼玉大学専任講師,1988年東京工業大学助教授を経て,1996年同大学留学生センター教授(社会理工学研究科兼任),現在に至る.博士(学術).言語処理学会,日本語教育学会,教育工学会会員.}\end{biography}\biodate\end{document}\jauthor{\affiref{tit}\affiref{lju}\and\affiref{tit}\affiref{lju}\and\\\affiref{lju}\and仁科喜久子\affiref{tit}}
| |
V09N05-02 | \section{はじめに}
機械翻訳では,統計ベースの翻訳システムのようにコーパスを直接使用するものを除き,変換規則などの翻訳知識は依然として人手による作成を必要としている.これを自動化することは,翻訳知識作成コストの削減や,多様な分野への適応時の作業効率化などに有効である.本稿では,機械翻訳,特に対話翻訳用の知識自動獲得を目的とした,対訳文間の階層的句アライメントを提案する.ここで言う句アライメントとは,2言語の対訳文が存在するとき,その1言語の連続領域がもう1言語のどの連続領域に対応するか,自動的に求めることである.連続領域は単語にとどまらず,名詞句,動詞句などの句,関係節などの範囲に及ぶため,まとめて句アライメントと呼んでいる.ここでは対象言語として,英語と日本語について考える.たとえば,\begin{itemize}\parskip=0mm\itemindent=20pt\item[E:]{\emIhavejustarrivedinNewYork.}\item[J:]{ニューヨークに着いたばかりです.}\end{itemize}\noindentという対訳文があった場合,ここから\begin{itemize}\itemindent=20pt\parskip=0mm\item{\eminNewYork}$\leftrightarrow${ニューヨークに}\item{\emarrivedinNewYork}$\leftrightarrow${ニューヨークに着い}\item{\emhavejustarrivedinNewYork}$\leftrightarrow${ニューヨークに着いたばかりです}\end{itemize}\noindentなどの対応部分を階層的に抽出することを目的とする.これを本稿では同等句と呼ぶ.同等句は2言語間の対応する表現を表しているため,用例ベースの翻訳システムの用例とすることができる.また,同等句同士は階層的関係を持つため,これをパターン化することにより,文をそのまま保持する場合に比べ,用例を圧縮することもできる.従来,このような句アライメント方法として,\shortciteA{Kaji:PhraseAlignment1992,Matsumoto:PhraseAlignment1993,Kitamura:PhraseAlignment1997j,Watanabe:PhraseAlignment2000,Meyers:PhraseAlignment1996}などが提案されてきた.これらに共通することは,\begin{enumerate}\labelwidth=25pt\itemsep=0mm\item構文解析(句構造解析または依存構造解析)と,単語アライメントを使用する\item構文解析器が最終的に出力した結果を元に句の対応を取る\item単語同士の対応は,内容語を対象とする\end{enumerate}\noindent点である.しかし,構文解析器が出力した結果のみを使用すると,句アライメントの結果が構文解析器の精度に直接影響を受ける.特に,従来提案されてきた方式は,構文解析が失敗するような文に関して,対策が取られていない.すなわち,本稿で念頭においている話し言葉のような,崩れた文が多く現れるものを対象とするには不適切であると考えられる.本稿では,構文解析と融合した階層的句アライメント方法を提案する.具体的には,構文解析失敗時においても部分解析結果を組み合わせることにより,部分的な句の対応を出力するよう,拡張する.また,内容語のみでなく,機能語の対応を取ることにより,句アライメント精度そのものの向上を目指す.以下,第\ref{sec-phrase-alignment}章では,句アライメントの基本手法について述べ,第\ref{sec-parsing-for-pa}章では,構文解析との融合を行う.第\ref{sec-word-alignment-for-pa}章では,本提案方式に適合した単語アライメントの機能について述べ,第\ref{sec-eval-alignment}章で提案方式と他の方式との比較などの評価を行う.なお,本稿は,\shortcite{Imamura:PhraseAlignment2001-2}を基に,加筆修正したものである.
\section{階層的句アライメントの基本方式}
\label{sec-phrase-alignment}対訳文,特に原言語を翻訳して対訳を作成した場合,別語族の言語であっても同じ種類の句に翻訳されることが多いと考えられる.たとえば,動詞句``{\emarriveinNewYork}''は,日本語も「ニューヨークに着く」という動詞句に翻訳される場合が多い.このような性質を踏まえ,我々は「対訳文の連続領域が同じ情報を持ち,かつ句の種類が同じであれば,それは同等な句と見なせる」と仮定する.これを処理可能な表現で置き換える必要があるため,ここでは,\begin{conditionlist}\item「同じ情報を持つ」→「2文間で,対応づけられている単語に過不足がない」\label{cond-same-information}\item「句の種類が同じ」→「構文カテゴリが同じ」\label{cond-same-category}\end{conditionlist}\noindentと解釈することとする.上記2条件を満たす句を抽出するには,以下の処理手順となる(図\ref{fig-proc}).\begin{figure}\begin{center}\epsfile{file=fig/fig-proc.eps,scale=0.812802}\caption{階層的句アライメントの処理フロー}\label{fig-proc}\end{center}\end{figure}\begin{enumerate}\labelwidth=25pt\itemまず,日本語文,英語文ともに形態素解析,構文解析を行う.\item次に,単語アライメントを行い,文間の単語レベルの対応をとる.ここでは,$W$個の単語対(これを単語リンクと呼び,$WL(\mbox{英語単語},\mbox{日本語単語})$と表現する)が抽出されたとする.単語アライメント方法は,特に統計ベースの方法が多数提案されているため\footnote{たとえば,\shortciteA{Melamed:WordAlignment2000,Sumita:WordAlignment2000}などを参照のこと.},その方式については本稿では特に議論しない.\item次に,単語リンクのうち,$i$個のリンク($1<i\leqW$)を選択し,それらをすべて含み,それ以外をまったく含まない構文解析木のノードをすべて取得する.\label{num-get-node}\item入力文1のノードと入力文2のノードを比較し,構文カテゴリが同じである場合,それを同等な句と見なす.ただし,文または助動詞を含んだ動詞句が複数取得された場合は最大範囲を示すものを,それ以外の場合で同じ種類の句が複数取得された場合は最小範囲を示すものを取得する.\label{num-combination}\item処理\ref{num-get-node},\ref{num-combination}を,すべての単語リンクの組み合わせについて試験する.\end{enumerate}\paragraph{処理例(1)}たとえば,英語``{\emIhavejustarrivedinNewYork.}''と,その日本語訳「{ニューヨークに着いたばかりです.}」があったとする.単語リンクが$WL(\mbox{\emNewYork},\mbox{ニューヨーク})$,$WL(\mbox{\emarrive},\mbox{着く})$の2つあり,構文木が図\ref{fig-example1}のようであったとすると,以下のとおり句の対応が取られる.\begin{figure}\begin{center}\epsfile{file=fig/fig-ex1.eps,scale=0.858984}\caption{英語と日本語の句の対応例}(上段が英語,下段が日本語を,言語間の実線は単語リンクを表す.以下同様)\label{fig-example1}\end{center}\end{figure}\begin{enumerate}\labelwidth=25pt\item葉に$WL(\mbox{\emNewYork},\mbox{ニューヨーク})$のみを含む(つまり,$WL(\mbox{\emarrive},\mbox{着く})$を含まない)英語構文木上のノードと,日本語構文木のノードを比較し,同じ種類のノードがある場合,それを同等句とする.この例では,{\ttNP(1)}同士,{\ttVMP(2)}同士のノードがそれに該当する.\item同様に,葉に$WL(\mbox{\emarrive},\mbox{着く})$のみを含む英語ノードと日本語ノードを比較し,同じ種類のノードを同等句とする.この例では,{\ttVP(3)}同士のノードがそれに該当する.\item次に,$WL(\mbox{\emNewYork},\mbox{ニューヨーク})$と$WL(\mbox{\emarrive},\mbox{着く})$の両方を含むノードを比較し,同じ種類のノードを同等句とする.この例では,{\ttVP(4)}同士,{\ttAUXVP(5)}同士,{\ttS(6)}同士が該当する.\end{enumerate}従って,最終的に表\ref{tbl-alignment-result}に示す6つの同等句が得られる.\begin{table*}\begin{center}\caption{句アライメント結果例}\label{tbl-alignment-result}{\smalltable\begin{tabular}{c|ll}\hline\hline構文カテゴリ&英語句&日本語句\\\hline{\ttNP}&{\emNewYork}&{ニューヨーク}\\{\ttVMP}&{\eminNewYork}&{ニューヨークに}\\{\ttVP}&{\emarrive}&{着く}\\{\ttVP}&{\emarriveinNewYork}&{ニューヨークに着く}\\{\ttAUXVP}&{\emhavejustarrivedinNewYork}&{ニューヨークに着いたばかりです}\\{\ttS}&{\emIhavejustarrivedinNewYork}&{ニューヨークに着いたばかりです}\\\hline\hline\end{tabular}}\end{center}\end{table*}本例は,2つの単語リンクが存在する場合であるが,3単語の場合はリンク1を含みリンク2,3を含まない句,リンク1,2を含みリンク3を含まない句,リンク1,2,3をすべて含む句のように,組み合わせ的に句を取得する.これにより,同等句が階層的に得られる.なお,英語と日本語では,当然,構文カテゴリは異なるが,今回は両者の構文カテゴリを言語共通と考えられる表\ref{tab-phrase-type}に示すような7種類に分類した.このような抽象化を行うことにより,異なる言語の構文カテゴリの比較が可能となる.\begin{table}\begin{center}\caption{構文カテゴリの分類}\label{tab-phrase-type}{\smalltable\begin{tabular}{ccl}\hline\hline句の種類&記号&\multicolumn{1}{c}{備考}\\\hline名詞句&{\ttNP}&\\動詞句&{\ttVP}&\\助動詞付動詞句&{\ttAUXVP}&助動詞を含んだ動詞句\\連用修飾句&{\ttVMP}&用言を修飾する句.\\連体修飾句&{\ttNMP}&体言を修飾する句.\\独立句&{\ttINDP}&感動詞等\\文&{\ttS}&\\\hlineその他&&言語依存の句.比較対象外\\\hline\hline\end{tabular}}\end{center}\end{table}\paragraph{処理例(2)}言語が異なると,単語同士が1対1に対応できたとしても,品詞が異なることも多い.そのような句を構文カテゴリによる制約なしで対応づけると,不自然に短い単位となり,対訳として不適切になると考えられる.しかし,本稿で述べる方式では,句の種類が同じもののみを同等句として取得するため,同等句が不自然に短くならない.\begin{figure}\begin{center}\epsfile{file=fig/fig-ex2.eps,scale=0.91073}\caption{品詞が異なる場合の対応例}\label{fig-example2}\end{center}\end{figure}たとえば,英語``{\emBusinessclassisfullybooked.}''と日本語「{ビジネスクラスは予約で一杯です}」から同等句を抽出することを考える(図\ref{fig-example2}).単語アライメントで$WL(\mbox{{\emfully}/ADV},\mbox{一杯/名詞})$,$WL(\mbox{{\embook}/V},\mbox{予約/名詞})$の単語リンクが得られたとしても,どちらか一方の単語リンクのみを含んで構文カテゴリが同じノードはない.しかし,両者を同時に含み,同じ構文カテゴリを持つノードとしては{\ttVP(2)}があるので,``{\embefullybooked}''と「{予約で一杯です}」が同等句として最初に抽出される.\paragraph{処理例(3)}意訳の例を図\ref{fig-example3}に示す.この例では,英語``{\emfly}''を日本語「{飛行機で行く}」と訳しているため,両者は単語アライメントで対応づけられていないにも関わらず,最終的な出力では英語``{\emflytoNewYorktomorrow}''と日本語「{ニューヨークに明日飛行機で行く}」が対応づけられている.つまり,間接的に``{\emfly}''と``{飛行機で行く}''が対応づけられる.このように,本方式では,単語アライメントで対応が取れないような意味的な翻訳がされた句(言い換えると,単語の直訳でない句)もある程度対応づけることができる.\begin{figure}\begin{center}\epsfile{file=fig/fig-ex3.eps,scale=0.92316}\caption{意訳の場合の対応例}\label{fig-example3}\end{center}\end{figure}単語リンク不足のときの句アライメントについては,\ref{sec-wa-accuracy}で詳細を述べる.\newpage
\section{句アライメントと構文解析の融合}
\label{sec-parsing-for-pa}\ref{sec-phrase-alignment}章で述べた方法は,構文解析結果が一意に決まったと仮定している.しかし,構文解析結果を一意に決定した後に句アライメント処理を行うと,句アライメント結果が構文解析結果に直接影響される.たとえば,構文解析器が解析出来ない文は,句アライメント処理を行えない.また,誤った構文解析結果を元に句アライメント処理を行えば,句アライメント結果も誤る可能性が高い.構文解析エラーは大きく以下の2種類に分類することができる.\begin{itemize}\itemsep=0mm\item曖昧性の問題\\構文解析結果の候補が複数あり,それを選択ミスする場合.この場合,構文解析結果が誤ったものになる.\item解析木作成失敗\\文法(書き換え規則)が不足しており,文全体をカバーする解析木の作成に失敗する場合.この場合は通常,構文解析器からの出力がない.\end{itemize}このうち,曖昧性は単言語の構文解析では必ず発生する問題である.一方,解析木作成失敗は,稠密な文法を用意すれば解決可能である.しかし,対話翻訳をターゲットにする場合,文法的な崩れの多い話し言葉を扱わなければならないという問題がある.また,機械翻訳のように複数の言語を扱う場合,言語によってツール・コーパス等の整備状況が異なっているため,すべての言語において失敗のない構文解析器を用意できる可能性は低い.もし,用意できない場合は文法を人手で作成するしかなく,解析木作成失敗は必ず起こりうる問題となる.本提案方式では,以下の特徴および手法を利用して句アライメント処理と構文解析を融合させることにより,曖昧性の問題,解析木作成失敗の解決を図る.\subsection{言語間の構造の類似性を利用した曖昧性解消}\label{sec-disambiguation}個々の言語の構文解析で発生した曖昧性は,2言語を対応づけることにより,ある程度解消することができる.これは2言語間の構造の類似性を利用するものである\cite{Kaji:PhraseAlignment1992,Matsumoto:PhraseAlignment1993}.たとえば,英語におけるPPアタッチメントの曖昧性は,対応する日本語の構造が一意に決まると解消することができる.図\ref{fig-pp}での`{\emforbreakfast}'は,点線の構文木のように`{\emneed}'と組み合わさってVPを形成することもできるし,実線の構文木のように`{\emroomservice}'と組み合わせてNPを形成することもできる.しかし,日本語の構造を解析すると,`{朝食}'は`{ルームサービス}'とともにNPを形成しているため,英語についても同様に,``{\emroomserviceforbreakfast}''で名詞句を構成していると考えるのが妥当である.\begin{figure}\begin{center}\epsfile{file=fig/fig-pp.eps,scale=0.893807}\caption{PPアタッチメントの曖昧性解消例}\label{fig-pp}\end{center}\end{figure}この現象は,言語によって曖昧性が発生しやすい条件が異なっているため,それら条件のANDを求めることにより,曖昧性を解消できる場合があることを示している.このように,2言語の構造が類似した時に高いスコアを出す評価関数を設定することにより,曖昧性を評価・解消することができる.今回は,英語,日本語の全ノード(非終端記号)について,対応づけを行い,その対応づけられたノード数と単語リンク数の和を評価値として,最大スコアを持つ構造を採用することとした.これを本稿では,{\bf句対応スコア}と呼ぶ.図\ref{fig-pp}では,実線の構造では{\tt(1)NMP},{\tt(2)NP},{\tt(3)VP}同士が同等句と判定されるが,点線の構造では,同じ範囲の同等句は{\ttVP(1)}のみである.したがって,実線の構造の句対応スコアは2だけ大きくなり,こちらの構造が採用される.なお,今回は単語アライメントの結果は一意に決定しているが,もし,たとえば同じ単語が複数回出現するなど,単語アライメント結果自体に曖昧性がある場合も,句対応スコアが最大となる単語リンクの組み合わせを探索することにより,上記評価尺度である程度解消することができる.\subsection{部分解析結果の組み合わせによる解析失敗への対応}\label{sec-partial}本稿で述べる句アライメントは,構文解析器としてチャートパーザを用いている.このパーザは,文法(書き換え規則)が不足して,解析木の作成に失敗する場合,通常何も出力することはないが,パーサ内のアジェンダに部分解析結果を残している.つまり,部分的ではあるが,正しい句の候補がアジェンダ内にあるということである.これらを適切に組み合わせて用いることができれば,文法不足による解析失敗に対応できる.この方法は,特に文法的な崩れが多い話し言葉で有効である\cite{Takezawa:Parsing1996j}.組み合わせを行う際は,その部分木が適切かどうか検査する必要があるが,その評価基準に\ref{sec-disambiguation}節で述べた句対応スコアが利用できる.もちろん,解析が成功した場合(すなわち,文全体が1つの木で表現できた場合)は,その解析結果を優先しなければならないため,トータルの部分木数が少ない組み合わせを優先するよう,\ref{sec-disambiguation}節の評価尺度を修正した.最終的な評価尺度は以下のとおりとなる.\begin{enumerate}\labelwidth=25pt\item2つの入力文の句を比較し,句対応スコアが最大の句を対応する候補として取り出す.\item文全体について,句の対応ノード数の総和をとり,最大となる句の列を解析結果として採用する\item同点の句列が複数存在する場合は,句の数が最小のものを解析結果とする.\end{enumerate}しかし,すべての部分解析結果の組み合わせを試した場合,組み合わせ数は指数的に増大する.この問題を回避するため,今回,形態素解析で使われている2パスの探索手法である前向きDP後ろ向き$A^{*}$アルゴリズム\cite{Nageta:ForwardDPBackwardAStar1994}を使用した.\begin{figure*}\begin{center}\epsfile{file=fig/fig-search.eps,scale=0.893444}\caption{部分解析結果組み合わせ探索例}\label{fig-search}(三角は構文解析の部分結果,三角内の数字は句対応スコア,\\網掛けは最終的に探索された句を表す.)\end{center}\end{figure*}本探索手法を用いた部分解析結果組み合わせ法について説明する.(図\ref{fig-search}.説明上,片言語の句のみを示す).なお,ここで各部分木の句対応スコアは予め算出されているものとする\footnote{現在のインプリメンテーションでは,2言語のすべての部分木同士について句対応スコアを算出し,その後に探索を行っている.したがって,句対応スコア算出には$\mbox{英語部分木数}*\mbox{日本語部分木数}$に比例した時間がかかる.句対応スコアは,部分木の下位ノードの句対応スコアを再帰的に加算したものであるので,下位ノードから(ボトムアップに)算出し,重複ノードの再計算を避けている.}.まず,片言語(ここでは英語とする)のすべての部分木をラティス構造に配置する.前向き探索時には,動的計画法を用いて始点からエッジ$i(0\leqi\leq\mbox{形態素数}N)$までの句対応スコアの最大値を算出する.これを便宜上見積スコアと呼ぶ.この時,どの経路を通過したかは記録しない.見積スコアは,始点からエッジ$i$まで,このスコアで至る組み合わせが存在することを示している.次に後ろ向き探索では,$A*$探索を用いて最適な組み合わせを探索する.このとき,$A*$アルゴリズムのヒューリスティック関数値として,見積スコアを用いる.見積スコアは最も精度のよいヒューリスティック関数値であるので,無駄な経路をほとんど展開することなく,最適経路を探索する.このように,本探索手法を用いると,ビーム探索のように枝刈りをする必要がなく,形態素数にほぼ比例した時間で最適な英語句の列を得ることができ,それに対応する日本語句の列も得られる.しかし,1つの英語句に対応する日本語句は複数の候補があるため,一部,日本語句同士が重なる場合がある.そのため,後ろ向き探索の経路展開時に日本語句列の範囲をチェックし,重なりがある経路を展開しないという処理が必要となる.その場合,展開中の経路が無効になる可能性があるが,$A*$探索は,展開中経路が無効となっても,次点の経路を展開するため,探索結果は,句対応スコアの総和が最大で,かつ日本語句の列に重なりがない最適解となる.
\section{単語アライメントに要求される機能}
\label{sec-word-alignment-for-pa}\subsection{機能語間,機能語--内容語対応}\label{sec-func-word}機能語は様相,法などを表しているため,文の表現のバラエティを表すことが多い.これを無視してむやみに句の対応をとると,意味的には問題がないが,表現上,対訳として不適切なものが同等句として抽出されることがある.特に,日本語では,時制などまでが機能語で表されるため,これを扱うことは重要である.たとえば,図\ref{fig-func-word}の例では,$WL(\mbox{\emafter},\mbox{以降})$の対応がない場合,$WL(\mbox{\emthree},\mbox{三時})$のみを使って,``{\emthree}''と``{三時以降}''という{\ttNP(1)}を対応づけてしまう.しかし,$WL(\mbox{\emafter},\mbox{以降})$がある場合,{\ttNP(1)}ノードは単語リンクに過不足があるため,対応づけられない.このように,機能語間,または機能語--内容語間対応を追加して,\ref{sec-phrase-alignment}章で述べた条件\ref{cond-same-information}の制約を強くすることにより,誤った同等句を抽出しにくくなり,精度を向上させることができる.\begin{figure}\begin{center}\epsfile{file=fig/fig-func.eps,scale=0.928378}\caption{機能語--内容語対応文の例}\label{fig-func-word}\end{center}\end{figure}\subsection{単語アライメントの精度と句アライメントの関係}\label{sec-wa-accuracy}現在のところ,単語アライメントの適合率,再現率共に100\%の方式は提案されていない.すると,本方式を実際に用いる場合は,単語アライメント誤り,または不足が含まれていると考えるのが妥当である.では,本方式にとっては,適合率と再現率のどちらが重要であるのか?単語アライメントの適合率が低下すると言うことは(再現率を100\%に保っていると仮定すると),不要な単語リンクが含まれているということである.\ref{sec-func-word}節でも述べたが,本方式は単語リンクが増加すると,条件\ref{cond-same-information}の制約が強くなり,抽出されるべき同等句が抽出されなくなる.しかし,これはあくまで制約が強くなっているため,誤った同等句の抽出は起こりにくい.一方,単語アライメントの再現率が低下した場合(言い換えると,本来あるべき単語リンクが不足した場合)は,条件\ref{cond-same-information}の制約が緩くなる.そのため,\ref{sec-disambiguation}節で述べたPPアタッチメントの曖昧性解消や,動詞の有効範囲に曖昧性が生じるため,誤った同等句を抽出しやすくなる.このように,本方式に適合する単語アライメントは,再現率を重視したもの,言い換えると,少々不要な単語リンクが含まれていても,必要な単語リンクがほとんど含まれているものであることが望ましい.
\section{実験・評価}
\label{sec-eval-alignment}\subsection{実験条件}旅行会話に関する基本表現例文300文をランダムに取り出し,句アライメント実験を行った.この基本表現例文集は,話し言葉を意識して人間が作成したものである.そのため,完全な話し言葉とはなっていないが,書き言葉に比べると崩れた文体になっている.たとえば,``{\emYou'reverywelcome,sir,pleaseletmeknowifyouhaveanyproblems,I'llbehappytohelp}''のように,感動詞や単文が接続詞・接続助詞なしで並んでいる文や,格助詞が抜けた文などが混じっている.そのため,準話し言葉コーパスとして本テストセットを使用した.テストセットの1文あたりの平均形態素数は,英語8.95,日本語8.81と,比較的短い.その他の実験条件は以下のとおりである.\begin{itemize}\item形態素解析は,機械タグ付け後,人手で修正したものを使用した.\item単語アライメントは,内容語に関しては人手で単語リンクを作成し,機能語に関しては予め作成した対訳辞書を用いて行った.\item構文解析器は,基本的なボトムアップチャートパーサを用いた.使用した書き換え規則は文脈自由文法で,英語286,日本語254規則である.用いた構文解析器の本テストセット上での解析精度を表\ref{tbl-parsing-accuracy}に示す.\footnote{ここでは,\shortciteA{Collins:StatisticalParsing1997,Sekine:ApplePie1995,Charniak:StatisticalParsing2000}等の指標を用いた.\begin{eqnarray*}\mbox{ラベル適合率}&=&\frac{\mbox{構文解析結果の正しいノード数}}{\mbox{構文解析結果の総ノード数}}\\\\\mbox{ラベル再現率}&=&\frac{\mbox{構文解析結果の正しいノード数}}{\mbox{正解構文木の総ノード数}}\\\\\mbox{交差括弧数}&=&構成素(部分木)の境界が,構文解析結果と正解構文木の間で異なった数\end{eqnarray*}\vspace*{-10pt}}\footnote{文法を言語別に開発したが,結果的に解析出力数が英語・日本語ともに200文となった.}英語構文解析器の一つである,\shortciteA{Charniak:StatisticalParsing2000}\footnote{\ttftp://ftp.cs.brown.edu/pub/nlparser/}の場合,40単語以下の文でラベル適合率90.1\%,ラベル再現率90.1\%と報告されており,それに比べると,本解析器の精度はラベル再現率が低い(すなわち,解析失敗が多い).これは,前述の崩れた文を解析したためと,文法を人手で作成しているため,すべての言語現象をカバーできなかったためである.\item句アライメント結果の第1候補について,抽出された句をランダムに300句選択し,その正しさを,文字列として評価者が判定した.評価者は,英語に堪能な日本語ネイティブ,日本語に堪能な英語ネイティブ各1名で,その平均を算出した.評価は,以下の3段階で行った.\begin{itemize}\itemsep=0mm\item[A:]正解.英語から日本語への翻訳,日本語から英語への翻訳どちらから見ても可能な訳である.\item[B:]間違いではないが,文脈に依存するもの.この文に限った場合,英語から日本語への翻訳,または日本語から英語への翻訳のどちらかが可能な訳であるもの.\item[C:]不正解.英語から日本語への翻訳,日本語から英語への翻訳どちらも誤り.\end{itemize}\end{itemize}\begin{table*}\begin{center}\caption{実験に使用した構文解析器の単体性能}\label{tbl-parsing-accuracy}{\smalltable\begin{tabular}{ccc}\hline\hline&英語&日本語\\\hline文数&300&300\\解析出力数&200(67\%)&200(67\%)\\候補総数(1出力あたり)&836(4.18)&394(1.97)\\ラベル適合率&90.5\%&93.1\%\\ラベル再現率&50.8\%&52.6\%\\1出力あたりの平均交差括弧数&0.487&0.447\\交差括弧なし文数&144(48\%)&160(53\%)\\\hline\hline\end{tabular}}\end{center}\end{table*}\subsection{句アライメント用構文解析の効果}\paragraph{各機能組み込み時の性能の差異}まず,以下の3方式で,句アライメントの性能を測定した結果を,表\ref{tbl-accuracy}に示す.同表中の句数は,評価者がそのランクと判定した同等句数を評価者毎にカウントしたもので,適合率は,評価対象同等句(300句*2名)のうちの該当ランクの同等句の割合を表す.\caselist{{\bf(提案方式)}構文解析中に,アジェンダから候補を取り出し,句対応スコアの総和が最も高くなる組み合わせを探索した場合.}\label{case-part}\caselist{構文解析器が全体を解析できた文のみに対して,第1候補を選択し,句アライメントを行った場合.すなわち,曖昧性の問題,解析木作成失敗に対して,何も対処しない場合.}\label{case-one}\caselist{構文解析器が全体を解析できた文のみに対して,すべての候補の組み合わせで句アライメントを行い,句対応スコアが最も高い結果を選択した場合.すなわち,句対応スコアを用いて曖昧性解消を行った場合に相当する.Case\ref{case-one}と比較することにより,句対応スコアの効果を測ることができる.また,Case\ref{case-part}と比較することにより,部分解析の効果を測ることができる.}\label{case-pscore}\begin{table*}\begin{center}\caption{各機能組み込み時の同等句抽出数,その精度比較}\label{tbl-accuracy}{\smalltable\footnotesize\begin{tabular}{l|l|ccc|ccc}\hline\hline&&文数&解析出力数&抽出同等句数&\multicolumn{3}{|c}{同等句精度}\\\cline{6-8}&&&&(1出力あたり)&ランク&句数&適合率\\\hline提案方式&Case\ref{case-part}&300&296&1,676(5.66)&A&248+269&86.2\%\\&&&&&B&30+5&5.8\%\\&&&&&C&22+26&8.0\%\\\hline句アライメン&Case\ref{case-one}&300&176&726(4.13)&A&249+270&86.5\%\\ト方法を変え&&&&&B&30+8&6.3\%\\た場合&&&&&C&21+21&7.0\%\\\cline{2-8}&Case\ref{case-pscore}&300&177&822(4.64)&A&264+267&88.5\%\\&&&&&B&18+3&3.5\%\\&&&&&C&18+30&8.0\%\\\hline単語アライメ&Case\ref{case-content}&300&295&1,703(5.77)&A&240+258&83.0\%\\ント結果を変&&&&&B&31+4&5.8\%\\化させた場合&&&&&C&29+36&10.8\%\\\cline{2-8}&Case\ref{case-func-precision}&300&276&1,018(3.69)&A&245+266&85.2\%\\&WA適合率50\%&&&&B&17+0&2.8\%\\&WA再現率100\%&&&&C&38+31&11.5\%\\\cline{2-8}&Case\ref{case-func-recall}&300&272&1,147(4.22)&A&209+230&73.2\%\\&WA適合率100\%&&&&B&21+4&4.2\%\\&WA再現率50\%&&&&C&70+66&22.7\%\\\hline\end{tabular}}\end{center}\end{table*}まず,Case\ref{case-part}について,抽出された同等句の精度(ランクAのみ)を見ると約86.2\%と,比較的高い精度で同等句を抽出している.Case\ref{case-one}とCase\ref{case-pscore}を比較すると,Case\ref{case-pscore}で抽出同等句数が増加している.句対応スコアは,構造が異なる候補がある場合,できる限り句対応が多い候補を選択するため,抽出同等句数が増加する.しかし,同等句の精度を見ると,Aランクでは若干向上した程度である.精度がほぼ同じ理由は,本方式は本質的に誤った抽出を行いにくく,Case\ref{case-one}における誤った構文解析木のノードが無視されたためと考えられる.また,Case\ref{case-one}・Case\ref{case-pscore}とCase\ref{case-part}の比較では,Case\ref{case-part}はほとんどすべての文に対して何らかの結果を出力している.そのため,抽出同等句数も約2倍と増加しているが,精度はCase\ref{case-one}と同程度である.したがって,句対応スコアは部分解析結果の組み合わせ処理においても,効果を表しているといえる.部分解析は,非文法的な文に対して特に有効であるため,話し言葉で効果を発揮する.\subsection{単語アライメント精度の影響}単語アライメント精度が,句アライメントにおよぼす影響を調べるため,単語リンクを変えて実験を行った.なお,句アライメント方法はすべてCase\ref{case-part}を使用している.結果を表\ref{tbl-accuracy}に示す.\caselist{単語リンクを内容語のみに限った場合.Case\ref{case-part}と比較することにより,機能語・内容語間対応の影響を測ることができる.}\label{case-content}\caselist{Case\ref{case-part}で用いた単語リンクを正解(適合率,再現率双方ともに100\%)と見なし,単語アライメントの適合率のみを50\%〜100\%に低下させた場合.つまり,不要な単語リンクが含まれている場合の影響を測ることができる.不要な単語リンクは,ランダムに単語対を選択し,正解単語リンクに含まれていないものを追加した.単語アライメント適合率(WA適合率)および再現率(WA再現率)は以下の式で表す.}\label{case-func-precision}\vspace*{-10pt}\begin{eqnarray*}\mbox{WA適合率}&=&\frac{\mbox{正解単語リンク数}}{\mbox{正解単語リンク数}+\mbox{不要な単語リンク数}}\\\\\mbox{WA再現率}&=&\frac{\mbox{正解単語リンク数}-\mbox{削除リンク数}}{\mbox{正解単語リンク数}}\end{eqnarray*}\vspace*{3pt}\caselist{単語アライメントの適合率を固定にし,再現率のみを50\%〜100\%に低下させた場合.つまり,単語リンクが不足している場合の影響を測ることが出来る.削除リンクは,正解単語リンクからランダムに選択した.}\label{case-func-recall}\paragraph{機能語対応の効果}Case\ref{case-part}とCase\ref{case-content}の結果を比較すると,内容語の単語リンクに限った場合,抽出同等句数が若干増加するが,精度は若干低下する.念のため,Case\ref{case-part}とCase\ref{case-content}で異なった句アライメント結果が得られたもの321同等句から,Case\ref{case-part}のみに現れた50句,Case\ref{case-content}のみに現れた50句を取り出し,日本語ネイティブ1名で再評価したところ,A評価となったものは,Case\ref{case-part}では36句(72\%),Case\ref{case-content}では14句(28\%)と,明らかな相違が現れた.したがって,機能語対応を含めることにより,句アライメント精度が向上することは確認された.\paragraph{単語アライメント精度の影響}Case\ref{case-func-precision}とCase\ref{case-func-recall}の抽出同等句数の変化を図\ref{fig-variable-word-accuracy}に示す.適合率を変化させた場合,再現率を変化させた場合のどちらも,単語アライメント精度が低下すると,同じように抽出同等句数が減少するが,WA適合率が低下した方が,抽出句数の低下が若干大きい.\begin{figure}\begin{center}\epsfile{file=fig/fig-prec-recall.eps,scale=0.629921}\caption{単語アライメント精度を変化させたときの抽出同等句数}\label{fig-variable-word-accuracy}\end{center}\end{figure}一方,表\ref{tbl-accuracy}を見ると,WA適合率を低下させても同等句の精度はほとんど変化がなく,WA再現率を低下させた場合は明らかに句アライメント精度も低下している.したがって,\ref{sec-wa-accuracy}節で述べたように,本提案方式は,単語アライメントの適合率より再現率の方が句アライメントの精度に影響をおよぼしやすいと言える.つまり,本方式に適合した単語アライメントは,少々誤りを含んでいても,できるだけ多くの単語リンクを与える方が句アライメントの精度を向上させやすい.\subsection{同等句抽出例}本提案方式による同等句抽出例を表\ref{tbl-proposed-examples}に示す.\begin{table*}\begin{center}\caption{提案方式の句アライメント結果}\label{tbl-proposed-examples}{\smalltable\begin{tabular}{c|c|ll}\multicolumn{4}{c}{\bf(A)単文・感動詞の連続}\\\multicolumn{4}{l}{英語:Allright,Iunderstand,hereisyourpassportandticket.}\\\multicolumn{4}{l}{日本語:オーケー,わかりました,はい,あなたのパスポートと航空券です.}\\\hline\hlineNo.&構文カテゴリ&英語句&日本語句\\\hline1&{\ttS}&{\emIunderstand}&{わかりました}\\2&{\ttAUXVP}&{\emunderstand}&{わかりました}\\3&{\ttVP}&{\emunderstand}&{わかる}\\4&{\ttS}&{\emhereisyourpassportandticket}&{あなたのパスポートと航空券です}\\5&{\ttAUXVP}&{\emisyourpassportandticket}&{あなたのパスポートと航空券です}\\6&{\ttVP}&{\embeyourpassportandticket}&{あなたのパスポートと航空券です}\\7&{\ttNP}&{\emyourpassport}&{あなたのパスポート}\\8&{\ttNP}&{\emticket}&{航空券}\\\hline\hline\multicolumn{4}{c}{}\\\multicolumn{4}{c}{}\\\multicolumn{4}{c}{\bf(B)格助詞欠落の文}\\\multicolumn{4}{l}{英語:Pleaseretrievemycoat.}\\\multicolumn{4}{l}{日本語:預けたコート,出してください}\\\hline\hlineNo.&構文カテゴリ&英語句&日本語句\\\hline1&{\ttS}&{\empleaseretrieve}&{出してください}\\2&{\ttVP}&{\emretrieve}&{出す}\\3&{\ttNP}&{\emmycoat}&{コート}\\\hline\hline\end{tabular}}\end{center}\end{table*}例(A)は,単文,感動詞が接続詞,接続助詞なしで連続しているため,英語・日本語ともに構文解析が失敗した例である.しかし,本方式を用いると,単文として対応づけられる部分については,その下位構造も含めて同等句として抽出される.なお,本来の英語構造は``[{\emyour}[{\empassportandticket}]]''となるべきところ,``[[{\emyourpassport}]{\emand}[{\emticket}]]''と,並列句の解析が誤っているため,No.7および8の同等句が抽出されている.並列句は,日本語・英語ともに構造が曖昧な場合が多く,両者の構造を比較しても曖昧性が解消できないことが多い.例(B)は,日本語の格助詞が欠落した文である.この場合,日本語の構文解析だけが失敗するが,部分的な3つの同等句を抽出する.No.1の同等句が{\ttS}として抽出されるのは,日本語の構文解析木がそれ以上の大きな構造を作成できないためである.しかし,「預けたコート」が呼び掛けの意図で用いられていると解釈した場合,例(A)と同じように,``pleaseretrieve''と``出してください''で対応づけられていても誤りではない.このように,本方式を用いると,部分的な同等句を出力することができる.
\section{関連研究}
2言語間の構造同士の対応を取ることにより,句レベルの対応を階層的に取得する方法としては,先行研究では以下のものが発表されている.まず,句構造を基本とする研究としては,\shortciteA{Kaji:PhraseAlignment1992}の方法がある.単語レベルの対応を基に,句構造のノード間の対応を取るもので,筆者の研究の基となったものである.しかし,構文カテゴリ制約を使用していないため,単語リンクの両端が異なる品詞を持つ場合,不当に短い単位で同等句を抽出する.依存構造を基本とする研究としては,\shortciteA{Matsumoto:PhraseAlignment1993,Kitamura:PhraseAlignment1997j,Yamamoto:PhraseAlignment2001j,Watanabe:PhraseAlignment2000,Meyers:PhraseAlignment1996}が挙げられる.依存構造を基にする場合,ノードそのものが最小単位の名詞句,動詞句,副詞句等を表しているため,構文カテゴリ情報を用いなくともある程度の句レベル対応を取ることができる.しかし,\shortciteA{Kaji:PhraseAlignment1992}の手法と同様の問題があると考えられる.\shortciteA{Wu:SimultaneousGrammar1995}は,構文解析後に構造の対応を取るのではなく,予め2言語間で対応づけられた構文解析規則を用意しておき,2言語同時に解析を行うことにより,構文解析と句レベルの対応づけを同時に行う手法を提案している.この方法で予め用意する必要があるのは,1単語同士の対応規則(終端記号同士の対応)である.言い換えると,単語アライメントのみを必要とする.しかし,単語同士の対応が十分つくような直訳文では機能するが,構文制約が弱いため,意訳等を含む一般的な対訳文,特に本稿で目指している話し言葉には向かないと考える.また,いずれの方法も,構文解析に失敗する文の救済策については述べられていない.構文解析は,文法設計者が意図したドメインでの性能は高いが,別ドメインに移行した場合,精度が落ちるものが多い.本手法は,文法のカバレッジが低いパーザであっても,部分解析結果を組み合わせることにより同等句を抽出しているため,話し言葉以外でも同等句抽出数という点で有利である.単語アライメントの使用方法という観点で上記研究を俯瞰すると,\shortciteA{Kaji:PhraseAlignment1992,Watanabe:PhraseAlignment2000}は,単語アライメントを決定的に行っている.一方,\shortciteA{Matsumoto:PhraseAlignment1993,Kitamura:PhraseAlignment1997j,Meyers:PhraseAlignment1996}は,単語類似度を導入し,構造比較時のスコアとしている.\shortciteA{Yamamoto:PhraseAlignment2001j}の研究は,単語アライメントを必要としないという点が特徴的である.これは,句レベルの対応候補を作成し,重み付きダイス係数という統計量を用いて,最良優先に対応を決定して行くものである.我々の提案手法は,統計量をまったく用いていないので,これと類似の統計量を後処理的に導入することにより,同等句の精度はさらに向上できるだろうと推測される.
\section{まとめ}
本稿では,構文構造の類似性を用いた曖昧性解消,部分解析結果の組み合わせを用い,構文解析と融合した階層的句アライメント方法を提案し,その有効性を示した.特に提案方式では,比較的精度の低い構文解析器を用いたにも関わらず,構文解析を独立させた場合に比べ,実験では約2倍の同等句を抽出することができた.そのときの適合率は86\%程度で,構文解析独立方式と比べても精度の低下はほとんどない.また,機能語対応を追加することにより,句アライメント精度が向上することを示した.本稿で提案した句アライメント方法は,単語アライメントの適合率より再現率が同等句の精度に影響をおよぼしやすいため,再現率重視の自動単語アライメント方法と組み合わせる方が,質のよい同等句を抽出することができる.今後は,本方式で抽出された同等句から翻訳知識を作成し,用例ベースの翻訳システムに適用する予定である.\acknowledgment本研究を進めるにあたって有意義なコメントを戴いた隅田英一郎主任研究員,白井諭前第三研究室長をはじめ,ATR音声言語コミュニケーション研究所第三研究室の皆様に感謝いたします.なお,本研究は通信・放送機構の研究委託「大規模コーパスベース音声対話翻訳技術の研究開発」により実施したものです.\bibliographystyle{jnlpbbl}\bibliography{368.bbl}\begin{biography}\biotitle{略歴}\bioauthor{今村賢治}{1985年千葉大学工学部電気工学科卒業.同年日本電信電話株式会社入社.2000年より,ATR音声言語通信研究所主任研究員,現在に至る.主として自然言語処理の研究・開発に従事.情報処理学会,電子情報通信学会各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V10N02-01 | \section{はじめに}
人間は言語表現から各事象間の時間関係を推定し全体的な時間関係を把握する.しかしながら言語表現上には事象間の関係を明示する情報は希薄である.このため事象間の時間構造を理解するには,各事象の時間的な局面を手がかりにする必要がある.動作が保持する時間的な情報に対し,それが動きであるのか状態であるのかなどをカテゴリー分けしたものを動詞の持つアスペクトクラスという.各事象のアスペクトクラスを決定するには,構文上の文法形態といった統語論的な情報を手がかりにすることが考えられる.しかし日本語の助詞「た」や「〜ている」などの情報だけからアスペクトクラスの決定をすることは困難であり,事象が持つ時間的な情報を考察する意味論的な手法に頼る必要がある.本稿では固有の言語に依存せず,すべての事象に共通に存在すると仮定される時間構造を考え,この時間構造のどの部位に着目したかによりアスペクトを決定する.一般にはアスペクトクラスから事象間の時間関係を特定するのは困難とされている.そこで本研究では解析するターゲットの文章を料理のレシピ文とし,レシピ文に特化したアスペクトクラスを定義することにより,事象の時間関係の特定を期待する.レシピ文は機械的に読んだだけでは効率的な調理手順を正しく理解することが困難であること,また料理分野特有の表現や料理動作特有の時間的な特徴を持つという性質があげられる.このような問題を解決するためには,各料理動作が保持している時間的な情報の特定や,複数の料理動作の関係を明確にする必要があると考える.型の分類により進行や完了の関係を見い出し,並行動作関係,終了時や開始時の前後関係,さらに背後に仮定される明に記述されていない事象の発見,導入をめざす.解析結果をタイムマップとして表示し,事象群の進行を二次元的に表示する自動生成システムの構築を目標とする.本稿は本章を含め5章で構成される.次章では,アスペクト理論と料理分野における先行研究を示す.3章では,料理レシピ文における言語表現の分析を行う.この分析より,従来研究によるアスペクトクラス分類の問題点を指摘し,日本語の料理レシピ文に特化したアスペクトクラスを定義する.また隣接する事象間に対して,アスペクトクラス間の関係を分析する.さらにレシピ文の言語省略表現について言及し,省略動作の導入処理を提案する.4章では我々が構築した自動生成システムとその考察を示す.最後に5章では,本研究のまとめと今後の課題について述べる.
\section{アスペクト理論}
アスペクトとはある一つの事象に対する時間的側面を述べたものである\cite{kudo,tojo11,tojo2}.アスペクトクラスとは,各々の事象内部の時間構造およびその意味を示すものである.アスペクトは事象の時間的側面を進行形や完了形等といった構文上の形態によって解析することができる.このような事象の統語論的な研究として,Vendlerは英語のアスペクト分類に`state',`activity',`achievement',`accomplishment'といった4種類の特徴を与えた.ここで`state'は状態を表し,例えば「座る」「夢中になっている」などの動詞が分類される.`activity'は動的な活動でありながら始点・終点が明示されない事象を表し「歩く」「カートを押す」等があげられる.`achievement'は瞬時的な出来事を表し「見つける」「閃く」等があげられる.`accomplishment'は「円を描く」「100\,m走る」といったようなある時間ののち,その作業の到達点が明確に定義されているような出来事を表す\cite{vendler1,vendler2}.また日本語においては,特に動詞句の特徴を四つに分類し表面的な文法形態(ル形,タ形,テイル形,テイタ形)によりアスペクトの分類をしている\cite{kindaiti,kusanagi,matida}.\cite{moriyama}は,動詞句の時間的な特徴を5つの素性に分類し,それらの組合せによって6種類のカテゴリーに分け,アスペクト的な意味を与えている.また\cite{ooisi}は,動詞のカテゴリーを決定するために,格成分,副詞,アスペクト形式の関係から動詞のカテゴリーを絞り込んでいる.中でも副詞は動きのある部分に焦点を当て,その部分をより詳細に述べる働きをするとし,副詞の分類について言及している.一方,事象を意味論的に解析することによりアスペクトを決定しようとする研究も行われている.このようなアスペクト理論研究では,すべての事象に共通に存在すると仮定する{\bf時間構造(イベント構造)}を考える.イベント構造とはアスペクトなど特定の視点を導入する以前の原始的な事象である.このイベント構造のどの部位に着目したかという{\bf着目点(レファランス)}を与えたものがアスペクトであるという立場をとる\cite{kamp,moens,tojo1,tojo11,tojo2}.\cite{tojo2}はこの立場の研究として,イベント構造を1つの点と3種類の区間に分割している.このイベント構造の関係を図\ref{ibento}に示す.ただし横軸は時間,縦軸は状態変化の度合いを表す.さらに,アスペクトとイベント構造内のレファランスについては,表\ref{asibe}にまとめる.本稿は日本語における料理レシピ文を対象とする為,最終的には構文上の特徴を用いる.しかし料理動作がどのレファランスに重きを置くかの考察に対しては言語に依存しないイベント構造の概念を用いて行う.\begin{figure}[h]\begin{center}\epsfile{file=figure/ontology.eps,scale=0.75}\caption{イベント構造}\label{ibento}\end{center}\end{figure}\begin{table}[ht]\caption{アスペクトとイベント構造内のレファランス}\label{asibe}\begin{center}\begin{tabular}{|l|l|l|l|}\hlineアスペクト&対応する動詞のアスペクトクラス&レファランスの位置\\\hline完結相(perfective)&activity,event&なし\\非完結相(imperfective)&&動作区間全体\\静止相(static)&state&維持区間内\\完成相(telic)&accomplishment&動作区間+達成点\\達成相(culmination)&achievement&達成点\\進行相(progressive)&process&動作区間内(達成点を含まない)\\完了相(perfect)&&結果区間内(達成点を含まない)\\\hline\end{tabular}\end{center}\vspace{2mm}\begin{center}\caption{各アスペクトクラスに分類される料理動作数と共起する副詞句数}\label{tab:1}\begin{tabular}{|c|c|c|}\hlineアスペクトクラス&動作数&副詞句数\\\hline\hlineCulminatedProcess&380&98\\\hlineProcess&191&68\\\hlineCulmination&7&1\\\hlinePoint&0&0\\\hline\hlineその他(動作完了)&47&0\\\hline\end{tabular}\end{center}\end{table}料理分野を扱う研究としては,Karlin\cite{karlin}や植松\cite{uematu}が料理レシピ文を入力とする調理画像システムについて言及している.Karlinは料理分野を扱ったコンピュータアニメーション生成の研究において,9冊の料理本から約110個のレシピ文の分析をし,Moensら\cite{moens}のアスペクト分類に従い料理分野に特化したアスペクトクラスについて言及している.Moensらのアスペクトは`CulminatedProcess',`Culmination',`Point',`Process'の4つに分類される.Karlinによれば,`CulminatedProcess'は,同じテンポで状態が続き,状態変化が起きる達成点が存在するとしている.この達成点が状態を変える誘因となる.また料理動作においてはどんな料理タスクも有限のプロセスが存在する為,必ず達成点をもつという特徴がある.したがって大抵の料理動作が`CulminatedProcess'に分類されるとしている.また,`Culmination'とは,話し手が新しい状態変化に伴ったと見なすことのできるイベントである.つまり時間の拡張を考えないプロセスであり,達成点のプロセスである.例えば「ポットにふたをする」等が挙げられる.さらに終点を含まない動詞は`Process'に分類され,この場合多くは副詞句によって動作期間が具体化されると論じている.例えば「かき回す」という料理動作はかき回し終わる情報がないため`Process'に分類される.ただし「10分間」といった副詞句が伴えばプロセスの終点が明確になる.このため`Process'に分類される多くは副詞句を伴うとしている.そこで本稿では,Karlinのアスペクト分類に従い料理動作を分析した.日本語料理レシピ本6冊,53個のレシピ文を対象にアスペクト分類を試みた結果を表\ref{tab:1}に示す.調査結果から大抵のアスペクトクラスはKarlinの仮説どおり`CulminatedProcess'に分類されることは明らかであるが,`Process'に分類される料理動作は多くが副詞句を伴うとは言い難い.また料理動作の特徴として,動詞自体は終点を含まなくてもすべての料理動作は必ず終点を持つ.したがって動詞が終点をもたないからといって`Process'に分類してしまうと,終点をもつ`Process'の意味と終点を含まない動作進行中の意味の2つを同一のアスペクトクラスとして扱うこととなる.これら2つの事象は時間的な内部構造が異なるため,同じアスペクトクラスとして分類するのは問題がある.さらに完了の意味をもつ料理動作は,4つのアスペクトクラスに含めることができない.そこで本稿ではアスペクトクラスに対して次章に示すようなアスペクトの分類を定義する.
\section{日本語レシピ文における時間的関係構造の提案モデル}
\subsection{イベント構造を用いたアスペクトクラス}本稿ではイベント構造の概念を用いて料理分野に特化したアスペクトクラスを定義する.\cite{tojo11,tojo2}のアスペクトクラスの定義に基づき,料理動作におけるアスペクトを{\bf完成相},{\bf達成相},{\bf進行相},{\bf完了相}の4つに分類する.表\ref{asibe}に示した通り,完成相のレファランスの位置は動作区間および達成点である.また料理動作は有限プロセスであるため必ず終点をもつことから,動詞が終点を含まなくてもすべて完成相に分類する.達成相は達成点にレファランスが置かれる事象をさす.すなわち調理者が達成したと見なす動作プロセスであり,時間の拡張がないプロセスを指す.達成相は動作によって状態が成立しすぐに完了する.達成相に分類される動作は完成相に比べ大変少ない.また副詞句を伴うことが少ない特徴もある.進行相のレファランスの位置は動作区間のみであり達成点は含まれない.本稿では動作進行の意味と動作プロセスの意味を別の相で扱うこととし,進行相に分類される事象は前者の意味の動作をさす.進行相の特徴は直後に位置する動作と並行動作関係が成立する.また終点が含まれないため,動作進行の終了点は動作完了の表現によって示される.最後に完了相は動作の結果区間を表す事象が分類される.既に料理動作が完了している事象が完了相となる.しかし,完了相は動作の完了を表す動詞と状態の完了を表す動詞に分類することができる.本稿では前者を{\bf動作完了相},後者を{\bf状態完了相}とする.動作完了相としては「熱した,煮込んだ」などがあげられ,状態完了相としては「香りが立ったら,透き通るまで」などがあげられる.動作完了相と状態完了相は,直後に位置する動作と前後関係が成立する.また状態完了相は,副詞句として動詞を修飾し動作期間を具体化する働きがあるとしている\cite{karlin,uematu}が,本稿では期間を表す副詞句としては取り扱わず状態に関する1つの事象として動作完了相同様に扱う.本稿では前章で利用したものと同じレシピ文53個を用いて,料理動作をここで提案するアスペクトクラスに基づき分類した.これを表\ref{tab:2}に示す.\begin{table}[t]\begin{center}\caption{(東条~2000)によるアスペクトクラスに分類した料理動作数}\label{tab:2}\begin{tabular}{|c||c|c|c|c|c|}\hlineアスペクトクラス&完成相&達成相&進行相&完了相&合計\\\hline動作数&567&7&4&47&625\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:2}においてはほとんどの事象が完成相に分類されることがわかる.したがって本稿では,各事象のアスペクトクラスに詳細な特徴を持たせることにより,事象の隣接関係が明確になることを期待し完成相の細分化を試みた.ここでは細分化に際し,動詞の素性と料理動作毎の調理者の注目度を用いる.\subsection{完成相の細分化を反映したアスペクトクラス}\cite{moriyama}によれば完成相に分類される動詞の素性とそのカテゴリーの特徴をみると2種類の分類が可能となる.1つは動作性,持続性,終結性,進展性の素性を持つ{\bf変化+結果持続動詞},もう1つは動作性,持続性,終結性のみの{\bf過程+結果持続動詞}である.変化+結果持続動詞とは,変化によってある状態が成立し,その結果が持続されるという意味の動詞をさす.このクラスに分けられる動詞は過程性がないので動作の展開や変化の過程を取り上げてはいない.また過程+結果持続動詞とは,過程によって主体あるいは客体に変化が生じ,その結果が持続されるという動詞である.また料理動作には,調理者が常に注意を払う必要のある動作,常に注意を払う必要はなく時折注目すれば他の動作を行っても構わない動作の2つが存在する.こうした分類は本来のアスペクトクラスとは無関係のものである.しかしながら本研究の目的は時間関係の導出であり,本来のアスペクト情報を補助する情報を定義できれば,それによってより良い分析結果を得られる可能性がある.したがって本稿では,{\bf主眼をおく動作},{\bf主眼をおかない動作}を区別し,完成相の分類に加えることとする.主眼をおく動作としては「切る,加える,揚げる」などがあげられ,主眼をおかない動作としては「ゆでる,加熱する,冷やす」などがあげられる.動詞の素性と調理者の注目度を考慮することにより,完成相の細分化を試みた.完成相の分類結果を表\ref{tab:5}に示す.完成相を細分化することにより,完成相Cは並行動作を示唆する可能性があるという結果が得られた.\begin{table}[hb]\begin{center}\caption{本稿で取り入れる完成相}\label{tab:5}\begin{tabular}{|c|c|c|c|l|}\hline細分化された完成相&素性による分類&調理者の注目度&料理動作例\\\hline\hline完成相A&変化+結果持続&主眼をおく&切る,加える\\\hline完成相B&過程+結果持続&主眼をおく&焼く,揚げる\\\hline完成相C&過程+結果持続&主眼をおかない&煮る,茹でる\\\hline\end{tabular}\end{center}\end{table}事象の時間的な情報を詳細に考察することによって,効果的なアスペクトクラスを定義することができた.アスペクトクラスと特徴,料理動作例を表\ref{tab:8}にまとめる.本稿で提案するアスペクトクラスはイベント構造の概念により分類されている.すなわち構文上の形態を考慮する必要はないが,日本語を対象とした自動生成システムの作成も目的としているため,語尾形式に対しても同時に注目した.\begin{table}[ht]\begin{center}\caption{提案するアスペクトクラスと承接する語尾形式の特徴}\label{tab:8}\begin{tabular}{|c|c|l|l|}\hlineアスペクトクラス&動作の特徴&語尾形式&例\\\hline\hline完成相A&変化により結果が持続&ル形&切る,加える\\完成相B&過程による結果が持続&ル形&炒める,揚げる\\完成相C&過程による結果が持続&ル形&ゆでる,煮る\\\hline達成相&材料とは関係ない動作&ル形&ふたをする\\\hline進行相&後に位置する動作と&テイル形&加熱している\\&並行動作をする&&茹でている\\\hline動作完了相&動作の完了を表す&タ形,タ系条件形&熱した,煮た\\状態完了相&材料の状態変化を表す&タ形,タ系条件形,マデ&キツネ色になるまで\\\hline\end{tabular}\end{center}\end{table}\subsection{アスペクトクラスの隣接関係}この節では前節で提案した事象のアスペクトクラス間にどのような隣接関係が導きうるかを\cite{yoav}の研究を参考に分析する.\paragraph{前後関係}~~動作完了相に分類される事象および状態完了相に分類される事象で「タ」「タラ」を承接する場合,動作完了相,状態完了相の終了点と直後に位置する完成相および達成相の開始点が一致する前後関係が成立する.事象関係の例を図\ref{fig:2}に示す.\paragraph{終点同一関係}~~状態完了相に分類される事象で「マデ」を承接する場合,状態完了相の終了点と直後に位置する完成相および達成相の終了点は同一である関係が成立する.またある事象(状態)が起っている場合,必ずそれよりも広い時間帯である別の事象が起っており並行関係も成立する.事象関係の例を図\ref{fig:3}に示す.\paragraph{並行動作関係}~~進行相とその後ろに位置する事象には並行動作関係が成立する.ただし調理者の動作と材料の形状状態に並行関係が存在する場合と調理者が並行して動作をしているという場合がある.事象間の各関係には依存関係があり明確な境界が存在するわけではなく,複数の関係をもつ事象が存在する.事象関係の例を図\ref{fig:4}に示す.\begin{figure}[htbp]\begin{center}\begin{minipage}{0.32\textwidth}\begin{center}\epsfile{file=figure/zengo.eps,scale=0.8}\caption{前後関係}\label{fig:2}\end{center}\end{minipage}\begin{minipage}{0.32\textwidth}\begin{center}\epsfile{file=figure/shuuten.eps,scale=0.8}\caption{終点同一関係}\label{fig:3}\end{center}\end{minipage}\begin{minipage}{0.33\textwidth}\begin{center}\epsfile{file=figure/heikou.eps,scale=0.8}\caption{並行動作関係}\label{fig:4}\end{center}\end{minipage}\end{center}\end{figure}\subsection{アスペクトを補助する情報の処理}本稿では事象の時間的な意味を詳細に考察することによりアスペクトクラスを定義し,それらの隣接関係を分析した.しかし料理分野における隣接関係をアスペクトクラスだけで決定するのは困難であり,アスペクトを補助する情報として副詞句,省略動作,並行動作について注目してみた.\paragraph{副詞句}料理動作は,動詞を修飾する副詞句によって具体的に状態や期間が特定される.本節ではこれらの副詞句について特徴を分類し,アスペクトクラスとの関係を考察した.本稿では植松\cite{uematu}の研究にならい状態に関する副詞句と期間に関する副詞句に分けた.ただし本稿では,材料の形状を表す表現も1つの動きと見なし事象として取扱う.本稿で提案するアスペクトクラスと副詞句の共起関係についての調査結果を表\ref{tab:9}に示す.用いた料理レシピ文は前章同様のものを対象としている.\begin{table}[b]\begin{center}\caption{副詞句とアスペクトクラスの共起関係}\label{tab:9}\begin{tabular}{|c|c|c|c|c|}\hlineアスペクト&動作数&状態の副詞句&期間の副詞句&副詞無し\\\hline\hline完成相A&380&78(21$\,\%$)&2(1$\,\%$)&300(78$\,\%$)\\\hline完成相B&145&13(9$\,\%$)&26(18$\,\%$)&106(73$\,\%$)\\\hline完成相C&42&5(12$\,\%$)&16(38$\,\%$)&21(50$\,\%$)\\\hline達成相&7&0&0&7\\\hline進行相&4&0&0&4\\\hline動作完了相&20&0&0&20\\\hline状態完了相&27&0&0&27\\\hline\hline合計&625&96&44&485\\\hline\end{tabular}\end{center}\end{table}この調査結果を基に副詞句によるアスペクトクラスの変化について考察した.その結果,完成相Bと完成相Cに対してアスペクトクラスが変化する場合が一部で存在していた.具体的には「さっと,手早く,すばやく」といったような時間の短い期間を表す表現の副詞句を伴った場合である.このような場合,アスペクトクラスが完成相Cから完成相Bへと変化する.例えば「ゆでる」は完成相Cに分類されるが「さっとゆでる」は完成相Bに分類される.\paragraph{省略動作}料理のレシピ文は動作全体を包括して指し示していることが多い.1つの表現の中に省略された複数の事象が存在する場合を本稿では{\bf動作のパッケージ化}とよぶ.例えば「茹でる」という動作には「鍋に水を入れる」「火にかける」「材料を鍋に入れる」といった動作が省略されている.我々は予めパッケージ化される動作の知識をシステムに保持させることとした.また完成相もしくは達成相としての動作がレシピ文中に書かれること無く,それらの意味を含め動作完了相によって事象の存在を表している場合がある.例えば「刻んだ葱を入れる」という表現だけがある時「入れる」前に「刻む」処理が必要であることを明示する必要がある.すなわち動作完了相の事象が存在する時点で既に動作は完了しておく必要がある.そこで本稿では,この表現されていない動作を発見し料理動作として導入する.導入箇所については動作完了相の直前に導入することとした.\paragraph{並行動作}レシピ文の中には並行的に調理を行うことを表す表現や,レシピ文中に並行動作が表現されていないけれども,実際には並行動作が可能である場合がある.並行動作を表す表現としては,語尾形式がテイル形である進行相が存在する場合,完成相Cに分類される動詞が存在する場合,電子レンジやオーブントースターといった一部の料理道具を利用する動作が存在する場合があげられる.
\section{時間構造の自動生成システム}
本稿で分析した料理レシピ文の言語表現の特徴に基づき,時間構造の自動生成システムを構築した.まず入力文である料理レシピ文からタイムマップ生成に必要な情報を抽出する.本稿ではこの抽出した情報を保持したものを中間表現とよぶ.次に中間表現に含まれている情報を基に各事象にふさわしいイベント構造を呼び出しタイムマップを生成する.そして最終出力画面としてタイムマップ表示の他にレシピ本文,材料分量表,完成写真,料理動作の説明等の付加情報を添付しブラウザ上に表示する.システムの処理過程を図\ref{fig:6}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=figure/system_nagare.eps,scale=0.85}\caption{システム処理の流れ}\label{fig:6}\end{center}\end{figure}\vspace*{-10mm}\subsection{料理レシピ文から中間表現の生成}中間表現の生成は最終出力画面の基盤となる.最終出力画面を生成するにあたり必要となる情報は「材料,料理道具,料理動作,副詞句,助詞,料理動作のアスペクトクラス,調理者の注目する箇所,省略されている動作」である.材料,料理道具,料理動作,料理動作,副詞句,助詞は,料理レシピ文から直接取り出すことが可能である.それに対し各料理動作のアスペクトクラス,調理者の注目する箇所,省略されている動作に関する情報は料理レシピ文内に言語表現されていない為,直接抽出することはできない.抽出可能な情報に対しては入力文である料理レシピ文に対して,日本語形態素解析システムJUMANと日本語構文解析システムKNPにより解析を行う.解析結果から,品詞(名詞,動詞,副詞,助詞),見出し語,接尾辞の情報を取り出す.接尾辞は承接する語尾形式情報として利用する.抽出された各文節はシステム内に保持される品詞辞書と照合し「材料」「料理道具」「料理動作」「副詞句」を特定する.次に抽出不可能な情報に対しては,各事象に対し動詞と承接する語尾形式(アスペクト形式)の特徴からアスペクトクラスを特定する.その特定アルゴリズムを図\ref{fig:11}に示す.図\ref{fig:11}に示される処理1,2,3,4は予め料理動作の辞書として保持する.それに対し進行相や完了相を表す事象は辞書内に含まれていないため,処理5,6,7で示すとおり承接する語尾形式情報を基に各事象のアスペクトクラスを特定する.\begin{figure}[ht]\begin{center}\vspace*{-5mm}\epsfile{file=figure/aspect_algo.eps,scale=0.55}~\\~\\{\small\begin{tabular}{|c|l|}\hline処理番号&処理内容\\\hline\hline1&動詞が調理者の動作を表す\\\hline2&瞬時に状態が変化する動詞を表す\\\hline3&動作は変化により結果が継続されている\\\hline4&動作は過程により結果が継続されており調理者の主眼をおく動作\\\hline5&語尾形式が「テイル形」\\\hline6&語尾形式が「タ形」,「タ系条件形」\\\hline7&語尾形式が「タ系条件形」,「マデ」\\\hline\end{tabular}}\caption{アスペクトクラス決定アルゴリズム}\label{fig:11}\end{center}\vspace{2mm}\begin{center}\epsfile{file=figure/aspect_katati.eps,scale=0.7}\caption{アスペクトクラスによる出力構造}\label{fig:13}\end{center}\end{figure}\subsection{中間表現からタイムマップ生成までの処理}タイムマップは中間表現の情報に基づいて生成される.中間表現から料理動作,形状変化を取り出しアスペクトクラスの型にあった構造をタイムマップに出力する.出力する二次元表示のタイムマップはx軸が「調理者の注目箇所」y軸が「時間」である.各事象は実線で表示され事象の進行を示す.出力する形態はアスペクトクラスの型によって出力表示が異なる.各々のアスペクトクラスの型による出力構造を図\ref{fig:13}に示す.またタイムマップ上ではレシピ文に書かれる事象ばかりでなく,隣接する事象のアスペクト関係や省略されている動作に関しても表示する.{\bf事象の前後関係}~~状態完了相「〜たら」は動作の始点を示す条件である.状態完了相を表すイベント構造の終点部分と状態完了相で修飾されている動作のイベント構造の始点部分点線で結び表示する.{\bf事象の終点同一関係}~~状態完了相「〜まで」は動作の終点を示す条件である.状態完了相を表すイベント構造の終点部分と状態完了相で修飾されている動作のイベント構造の終点部分を点線で結び表示する.{\bf並行動作関係}~~進行相は後ろに位置する事象と並行関係をもつ.並行動作を表す為には,複数の動作の出力構造の動作進行部分が重なる必要がある.{\bf省略動作の導入}~~完了相のみの表現で動作を導入する場合,導入される動作は修飾されている動作の直前に位置している.しかし実際には動作完了相よりも前に位置していれば問題は無い.そこで導入された動作はイベント構造の色を変えて表示する.\subsection{最終出力画面について}ユーザーフレンドリーなタイムマップ生成を目標に,料理する上での基本情報,各料理動作における詳細な情報なども同時にブラウザ上に表示することとした.各料理動作における詳細な情報の項目はタイムマップと隣接する別のウィンドウによって表示する.タイムマップの任意のイベント構造にマウスカーソルを移動すると,隣接したウィンドウの表示が変化するようにする.以下のレシピ文に対する最終出力画面を図\ref{lastoutput}に示す.\\{\bf選定した料理レシピ文}\\(1)スパゲティーはお湯でゆでる.\\(2)ゆでている間に,ニンニクは薄くスライスする.\\(3)熱したフライパンにオリーブオイルを入れ,ニンニクのスライスと唐辛子を入れる.\\\hspace*{6mm}ニンニクがキツネ色になるまで炒める.\\(4)スパゲティーがゆであがったら,すばやくお湯をきる.\\(5)フライパンにスパゲティーを入れ,軽く炒めて,塩,こしょうで味を調えてできあがり.\begin{figure}[htbp]\begin{center}\epsfile{file=figure/timemap_output.eps,scale=0.7}\caption{最終出力画面}\label{lastoutput}\end{center}\end{figure}\begin{table}\begin{center}\caption{アスペクトアルゴリズムの分析結果}\label{bunseki}\begin{tabular}{|c|c|c|c|c|c|}\hline&人間による&プログラム&判断が一致&再現率&正解率\\&判断(a)&の出力(b)&したもの(c)&c/a($\%$)&c/b($\%$)\\\hline\hline完成相A&380&386&380&100&98\\\hline完成相B&145&147&145&100&99\\\hline完成相C&42&41&41&98&100\\\hline達成相&7&7&7&100&100\\\hline進行相&4&4&4&100&100\\\hline動作完了相&20&15&15&75&100\\\hline状態完了相&27&27&27&100&100\\\hline合計&625&627&619&99&98\\\hline\end{tabular}\end{center}\end{table}\subsection{提案アルゴリズムの妥当性}本稿で提案するアスペクトクラスに対する分析結果を表\ref{bunseki}に示す.表\ref{bunseki}によると全体の再現率,正解率は高い.これは料理レシピ文の承接するパターンが少なく,かつ動作の進行や完了の表現が限定された特徴を持つということに起因している.しかし本稿が提案したモデルにより取り出せないアスペクトクラスも存在する.この原因は料理特有の表現をもつ動詞と材料の状態を表すものに大別される.料理特有の表現をもつ動詞とは,例えば「炒め合わせる,溶き入れる,戻し入れる」などの動詞をさす.本来ならばこれは1つの動作であると考えられるが,形態素解析を行う上で2つの事象として取り上げられてしまう.したがって「回し炒める」ならば「回す」「炒める」と解析される.そこで,このような料理特有の表現をもつ動詞においては修正処理を行い2つの事象として取り出された動詞を1つの事象に修正し解決している.また材料の状態を表すものが動作完了相の再現率に影響している.例えば「ぬれたままの,丸く重ねた状態で」などの状態表現では「ぬれる」「重ねる」が動詞として取り上げられ,また「タ」形を含むため,動作完了相として誤認識してしまっている.これに関しても上記と同様,修正処理により解決をした.結果として本システムは料理レシピ本の著者による言語表現形態や形態素解析,構文解析システムの解析結果に大きく依存する性質が見られた.
\section{おわりに}
本稿では自然言語文から各事象の内部的な時間構造を解析し,各事象の時間的側面や事象間の時間的関係構造の分析を行った.自然言語文として料理のレシピ文を対象とし,事象間の時間的構造を可視化したタイムマップの自動生成システムを実装した.まず料理レシピ文を分析し,料理分野における事象の型を達成相,完成相,進行相,完了相の4つに分類し完成相,完了相をさらに細分化させた.この提案したアスペクトの型から隣接する事象のアスペクト関係を分析し,事象間の前後動作関係,終点同一関係,並行動作関係を導き出した.他の文章との時間関係は表面的な情報から容易に解析できないとされているが,1つの事象を特定し隣接する事象とのアスペクト関係を分析することによって,事象間の時間的な意味を限定させる可能性が見られる.またこれらの分析に基づいて言語情報から二次元のタイムマップを自動生成した.タイムマップの生成に必要となる情報を分析し材料,料理道具,料理動作,副詞句,アスペクトクラス,注目箇所,省略動作について明示した.材料,料理道具,料理動作,副詞句といったレシピ文から抽出できる情報はシステムが保持する辞書を参照し詳細な情報をシステムに認識させた.またアスペクトクラスは,承接する語尾形式と動作の辞書内のアスペクト情報を基に決定アルゴリズムを提案した.注目箇所に関しては材料もしくは道具と承接する助詞により調理者が注目しているところを特定させた.省略動作の発見導入に関しては,3つの場合に分けることができ各々の場合に分けた導入処理を行った.これらの情報を中間表現としてまとめタイムマップを生成した.さらにユーザーを考慮したインターフェース構築として,タイムマップの他に材料分量表や料理完成写真,料理特有動作説明等の詳細な情報を付加した最終出力画面を生成した.しかし本システムは料理レシピ本の著者による言語表現形態や形態素解析,構文解析システムの解析結果に大きく依存するものとなっている.今後の課題としては,各事象の複雑な時間関係の表示に対応できるようなシステム構築である.本稿が取り上げた関係は実世界における事象関係の一部分にしかすぎないため,隣接する事象関係の分析や文脈に依存する事象関係の分析をすることにより始点や終点の曖昧性を解消する必要がある.また本稿では,タイムマップ内に表示される事象の出力形態をアスペクトの型により決定しているため事象固有の時間構造の出力を考慮する必要がある.さらに汎用性のあるシステム構築を目指すために,多くのレシピ文を分析し出力画面にアニメーションを含めるなど効果的なインターフェース構築が課題としてあげられる.\bibliographystyle{jnlpbbl}\bibliography{386}\begin{biography}\biotitle{略歴}\bioauthor{林絵梨}{2002年北陸先端科学技術大学院大学情報科学研究科修了,同年日本鋼管(株)入社.修士(情報科学).在学中は自然言語意味論の研究に従事.}\bioauthor{吉岡卓}{2001年北陸先端科学技術大学院大学情報科学研究科修了,同年同大学同学科博士課程.修士(情報科学).自然言語意味論,知識表現に興味を持ち,現在オーダーソート論理,状況意味論,論理的視覚言語の研究に従事.電子情報通信学会,人工知能学会各会員.}\bioauthor{東条敏}{1981年東京大学工学部計数工学科卒業,1983年東京大学大学院工学系研究科修了.同年三菱総合研究所入社.1986--1988年,米国カーネギー・メロン大学機械翻訳センター客員研究員.1995年北陸先端科学技術大学院大学情報科学研究所助教授,2000年同教授.1997--1998年ドイツ・シュトゥットガルト大学客員研究員.博士(工学).自然言語意味論,オーダーソート論理,マルチエージェントの研究に従事,その他人工知能一般に興味を持つ.情報処理学会,人工知能学会,ソフトウェア科学会,言語処理学会,認知学会,ACL,Folli各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V15N02-03 | \section{はじめに}
\label{Introduction}初期の機械翻訳の研究では,翻訳のルールを人手により書き下して翻訳するルールベース翻訳(RBMT)が用いられていた.計算機性能の問題もあり,しばらくはRBMTによる研究が進められてきたが,多様な言語現象を全て人手で書き下すことは事実上不可能であるし,他の言語対への汎用性が乏しいなどの欠点がある.そこで次に考案されたのが,あらかじめ与えられた対訳コーパスから翻訳知識を自動で学習し,その知識を用いて翻訳を行うコーパスベースの手法である.コーパスベースの手法で最も重要なのが,翻訳で使う知識を対訳コーパスから学習するアラインメントと呼ばれるステップである.アラインメント精度は翻訳精度を大きく左右するため,現在までにアラインメントに関する研究が数多くなされてきた.アラインメント研究の多くは,対訳文を1次元の単語列として扱うものであり,その最も基本的なモデルとして,単語レベルでのアラインメントを統計的に行うIBMモデル\cite{Brown93}が広く利用されている.IBMモデルでは原言語と目的言語の単語同士の対応確率モデル(lexicon)や,語順に関するモデル(distortion),語数を合わせるためのモデル(fertility,nullgeneration)などを統計的に学習する.この単語列アラインメント手法を基礎として,アラインメント結果からより高度な翻訳知識を学習する手法がいくつか提案されている.IBMモデルは1単語ごとでのアラインメントを行うが,Koehnら\cite{koehn-och-marcu:2003:HLTNAACL}はIBMモデルによるアラインメント結果をベースとして,そこから句に相当する部分を抽出する手法を考案し,翻訳の精度をより高めた.ここでいう句とは,単語列を便宜上,句と呼んでいるだけであり,意味のまとまりを表しているわけではなく,また句の階層的関係を扱うものでもない.またChiang\cite{chiang:2005:ACL}は単語列ではなく,同期文脈自由文法に基づいた広い範囲の翻訳パターンを学習する手法を提案した.Chiangの手法はKoehnらの手法による句対応結果からの学習を行うため,そのベースにはやはりIBMモデルがある.このような発展的な翻訳知識学習の手法は,翻訳においてある程度の文の構造を用いることにつながるが,そのベースとなるアラインメント手法であるIBMモデルは,文の構造情報は一切用いていない.このように単語列として文を扱う手法は,英語とヨーロッパ言語など言語構造に大きな違いがない言語対では精度よいアラインメント結果が得られるが,日英などのように言語構造が大きく異なる言語対に対しては不十分である.つまり言語構造が大きく異なる言語対において高精度なアラインメントを実現するためには,アラインメントにおいても各言語での文の構造を利用する必要がある.アラインメントにおいて言語構造を扱う研究は,古くは佐藤と長尾\cite{sato:1990:COLING}やSadlerとVendelmans\cite{sadler:1990:COLING},松本ら\cite{matsumoto:1993:ACL}によって提案されたが,当時は枠組を提案し,短い文での実証を行ったのみで,長い文,複雑な文への適用実験などは行われなかった.しかしその枠組自体は現在でも十分有効なものである.また渡辺ら\cite{watanabe:2000:COLING}やMenezesとRichardson\cite{Menezes01}も構造を用いたアラインメント手法を提案している.これらの研究では,比較的長く,複雑な文のアラインメントを行っている.文が長くなると,対応関係の曖昧性が必然的に増加し,これが問題となる.渡辺らは,曖昧性のない語からの木構造上での距離を尺度として曖昧性の解消を行い,MenezesとRichardsonは確率的な辞書の情報を利用し,最も確率の高い単語から順に対応付けることにより,曖昧性解消を行ったが,いずれもヒューリスティックなルールに基づいた手法であり,木構造全体を整合的に対応付けることはしていない.両言語の木構造を確率的に対応づける研究もある.このような手法は,原言語文の木構造を組み換えることにより,目的言語文の木構造を再現しようとするものであるが,構造を用いることの制約が強すぎるため,この制約をいかに緩めるかが議論の対象となる.Gildea\cite{Gildea03}は原言語の任意の部分木を複製し,目的言語の木構造を再現する手法を提案し,韓国語と英語を対象とした実験でアラインメントエラーレート(AER)\cite{och00comparison}で0.32という高い精度を達成しており,言語構造を用いたアラインメントの有効性を示している.しかし我々は,木構造に対してこのような操作を行う必要はなく,木構造をそのままアラインメントすれば良いと考えた.我々の手法は,佐藤と長尾などによって提案された手法を踏まえつつ,ヒューリスティックなルールではなく,木構造全体を整合的に対応付けることを目的とする.本論文では,係り受け距離と距離—スコア関数を利用した,構造的木構造アラインメント手法を提案する.本手法は依存構造木を利用しているため言語構造の違いを克服することができ,さらに木構造上の距離に基づいたアラインメント全体の整合性を,言語対に独立に測ることができる.さらに構造情報を崩すことなく利用するため,豊富な翻訳知識の獲得も望める.次章では我々の機械翻訳システムのアラインメントモジュールの基本的な部分について簡単に紹介する.\ref{proposed}章では我々が提案する手法を説明する.\ref{result}章では提案手法の有効性を示すために行った実験の結果と結果の考察を述べ,最後に結論と今後の課題を述べる.
\section{構造的句アラインメント}
我々の機械翻訳システムは主に日英を対象としている.アラインメントは日本語,英語の構文解析器や対訳辞書などを用いて,以下のステップにより達成される.\subsection{依存構造解析}日本語文は形態素解析器JUMAN\cite{JUMAN}と構文解析器KNP\cite{KNP}を用いて依存構造木に変換される.依存構造木の各ノードにはただ1つの内容語が含まれており,それに付随する助動詞や接尾辞などの機能語は同じノードに含まれる.英語文については,まずCharniakらのnlparser\cite{Charniak}を用いて構文解析し,さらにヘッドを定義するルールにより依存構造木に変換する.日本語の場合と同様,各ノードは1つの内容語とそれに付随する機能語とからなる.図\ref{fig:Amb}に木構造の例を示す.木構造のルートノードは一番左に配置されており,それぞれの句は上から下に語順どおりに配置されている.\begin{figure}[t]\begin{center}\includegraphics{15-2ia3f1.eps}\caption{アラインメントの例}\label{fig:Amb}\end{center}\end{figure}\subsection{単語/句対応の探索}\label{alignment}日英間の単語/句対応の候補探索には,対訳辞書,Transliteration,数字のマッチング,部分文字列アラインメントなどいくつかの手がかりを利用する.\subsubsection{対訳辞書}日本語の単語と英語の単語の全ての組み合わせを対訳辞書から探し,対応候補を見つける.このとき,1語ずつではなく複合名詞などの複数語の探索も行う.また現時点では対訳辞書には確率的な情報は含まれていない.\subsubsection{Transliteration}日本語で形態素解析器によって人名や地名などの固有名詞と判定された語や,一般的に外来語に用いられることの多いカタカナ語に対して,英語へのtransliteration候補を自動的に生成し,これら候補と英語文に現れる単語との類似度を計算する.類似度は編集距離を元にして計算され,類似度が閾値を越える組み合わせがあった場合,それらを対応候補とする.例えば以下の例は対訳辞書では対応候補として得られないが,transliterationにより対応候補とされる.\begin{quote}新宿$\rightarrow$Shinjuku$\leftrightarrow$Shinjuku(類似度:1.0)\\ローズワイン$\rightarrow$rosuwain$\leftrightarrow$rosewine(類似度:0.78)\end{quote}\subsubsection{数字のマッチング}それぞれの言語において異なる数字表現を算用数字に汎化することにより,対応候補を得る.例えば日本語の「二百六十万」と英語の``2.6million''は共に同じ数字``2600000''を表しているため,それぞれ汎化することにより対応候補とすることができる.\subsubsection{部分文字列アラインメント}\label{Fabien}対訳文の中には特別な言い回しや辞書に載っていない専門用語などを含んだもの,文の内容に過不足があるものなどが存在する.これまで挙げた手がかりだけでは,このような対訳文を正確にアラインメントするのに十分な対応候補を見つけることができない場合がある.このため,言語資源に依存しない統計的なアラインメント手法も併用することが必要となる.統計的手法として,我々はCromieresの手法\cite{Fabien06}を利用した.この手法は,対訳コーパス中の各言語の任意の部分文字列(分かち書きされている場合は単語列)の共起頻度を元にして対訳文のアラインメントを行う手法である.任意の部分文字列についてアラインメントするため形態素解析が不要な点,またSuffixArrayを用いて高速にアラインメントできる点で優れている.例えば以下の対訳文を考える.\begin{quote}Source:参院選での社会党の大敗は必至と言われる.\\Target:ItissaidthattheSocialDemocraticPartywillsufferamajorlossattheHouseofCouncillorselection.\end{quote}対訳辞書情報から得られる対訳候補は``言われる$\leftrightarrow$saidthat''のみであり,不十分だが,Cromieresの手法を用いることにより``参院$\leftrightarrow$theHouseofCouncillors'',``選$\leftrightarrow$election'',``の社会$\leftrightarrow$thesocial'',\makebox{``党の$\leftrightarrow$DemocraticParty''}の各対応が得られる.\subsection{適切な対応候補の選択}\label{topic}前章で得られた対応候補の中には,曖昧性を持つ候補や,曖昧ではないが文脈上不適切な候補が含まれることがある.例えば図\ref{fig:Amb}において,日本語の``保険''と英語の``insurance''はそれぞれ2度ずつ出現しており,組み合わせで4つの対応候補が得られることになり,曖昧性が生じる.さらに``申し立て''の訳語として``file''と``claim''の2つがみつかり,ここでも曖昧性が生じる.このため,見つかった対応候補の中から適切な候補のみを選び出す基準が必要となる.これについての詳細は\ref{proposed}章で述べる.\subsection{未対応ノードの処理}ここまでの処理により対訳文間にいくつかの対応が見つかったが,いくつかのノードが対応付けられずに残る場合がある.これらのノードは簡単なルールにより他の対応に併合する.まず日本語,英語ともに名詞句内で未対応部分があれば名詞句内の他の対応に併合し,それ以外の未対応ノードはすべて親ノードの対応に併合する.ただし,節の区切りなどの大きな区切りを越えての併合は行わない.
\section{整合性尺度に基づく構造的句アラインメント}
\label{proposed}対訳文全体として整合的なアラインメントを行うために,任意の1組の対応に対して{\bf整合性スコア}を定義する.最も整合的なアラインメントは整合性スコアの平均を最大とするような対応候補の組み合わせとして得られる.\begin{equation}\argmax_{alignment}\frac{\sum^{n}_{i=1}\sum^{n}_{j=i+1}整合性スコア(a_i,a_j)}{n(n-1)/2}\label{eq:sum}\end{equation}上式で$a_i$と$a_j$は互いに異なる任意の対応候補であり,整合性スコアは対応候補のペアに対して定義される.整合性スコアの定義については次章以降で詳しく述べる.\subsection{アラインメントの整合性}アラインメントの精度を左右するのは,曖昧な対応や誤った対応が含まれるたくさんの対応候補の中から,いかに正しいものを選択するかである.これを実現するために,対訳文全体を整合的に対応付けられるロバストな手法が必要である.英語とヨーロッパ言語のように言語構造の似た言語対ならば,広く研究されている統計的な手法でも高精度にアラインメントすることが可能であるが,日本語と英語では言語構造が大きくことなるため,統計的な手法での高精度なアラインメントは難しい.しかし我々のMTシステムは依存構造木をベースとした深い言語処理を行っているため,リッチな情報を利用して言語構造の違いを吸収できるようなアラインメントが可能である.我々の提案する手法を説明する前に,アラインメントの整合性とは何かを考えてみよう.図\ref{fig:consistency}において,それぞれの三角形は各言語の木構造上の節を表しており,2つの木構造にまたがって引かれた直線の1つ1つが対応候補を表している.すべての対応候補のうちで,×印が記された候補が全体の整合性を低下させていることが見て取れる.このような不整合は視覚的には明らかである.この不整合さを定量的に評価するために,我々は一組の対応候補の木構造上での{\bf距離}に注目する.図\ref{fig:consistency}の例で×印が記された候補と他の1つの候補とに注目すると,原言語側での2つの直線の距離は遠いのに対して,目的言語側では非常に近い.句の依存情報を元にした木構造上で議論すると,このようなことが起こることは稀である.つまり,一方の言語で構造的に近い句同士が他方の言語では遠くなるようなことはほぼありえないということである.このように,あらゆる対応候補のペアの距離を適切に扱うことにより,全体的に整合的なアラインメントを得ることができると考えられる.この距離を扱うために,我々は次章で説明する{\bf整合性スコア}を提案する.\begin{figure}[t]\begin{center}\includegraphics{15-2ia3f2.eps}\caption{整合性の例}\label{fig:consistency}\end{center}\end{figure}\subsection{整合性スコア}整合的なアラインメントを得るために,依存構造木上で整合性スコアを定義する.整合性スコアは2つ1組の対応候補に対して計算され,対応候補ペアの距離の関係が適切ならばプラス,そうでなければマイナスのスコアとなる.まず,任意の対応候補ペア$a_i$($p_{Si}$,$p_{Ti}$)と$a_j$($p_{Sj}$,$p_{Tj}$)に注目する.$p_{Si}$と$p_{Ti}$はそれぞれ対応候補$a_i$によって対応づけられている原言語,目的言語の句を表しており,$p_{Sj}$と$p_{Tj}$も同様である.原言語側の係り受け距離$d_S(a_i,a_j)$は,$p_{Si}$と$p_{Sj}$の間の木構造上での距離として定義され,目的言語側についても同様に$d_T(a_i,a_j)$が定義される.この距離を用いて整合性スコアは以下のように計算される.\begin{equation}整合性スコア(a_i,a_j)=f(d_S,d_T)\end{equation}ここで$d_S$は$d_S(a_i,a_j)$を省略して表記したもので,$d_T$も同様である.$f(d_S,d_T)$は原言語側と目的言語側の距離のペアをスコアに変換する関数であり,{\bf距離—スコア関数}と呼ぶ.係り受け距離と距離スコア関数については次章で詳しく述べる.対訳文全体のアラインメントの整合性は,式\ref{eq:sum}に表されるように,あらゆる組み合わせの対応候補ペアの整合性スコアの和として定義される.正しい対応候補は,その近くにある対応候補により支持され,プラスのスコアが与えられ,さらに全体のアラインメントの整合性に寄与する.ここで,近くにある対応候補とは,原言語側,目的言語側ともに,距離が小さい対応候補ということである.\subsection{係り受け距離}この章では,係り受け距離$d_S$や$d_T$の計算方法を説明する.最も単純な設定としては,すべての枝の距離を1とし,係り受け距離はあるノードから別のノードまでに通る枝の数とすることが考えられる.しかしながら,高度な言語処理技術により得られる知識を利用し,より精度の高いシステムの構築を目指すことは自然である.日本語依存構造解析器KNPおよび英語のCharniakのnlparserはそれぞれ係り受けタイプの情報を出力する.これらの情報を利用して,係り受けタイプスコアを定義する.このスコアは係り受けの強さ,つまり枝の距離を表しており,係り受けの強さが強い(区切りが弱い)ほど小さく,係り受けの強さが弱い(区切りが強い)ほど大きくなるように設定する.例えば複号名詞内の形態素の区切りなどは係り受けが強いのでスコアは小さく,逆に節の区切りなどは係り受けが弱いのでスコアは大きくなる.係り受けタイプは高々30種類程度しかないため,係り受けタイプスコアは人手により設定する.図\ref{fig:dep_dist}にその一部を示す.日本語の係り受けタイプは南による分類\cite{Minami}に基づいて,構文解析器KNP\cite{KNP}が出力するものである.スコアの値は主観的に定義したものであり,正確に言語現象を反映した値ではない可能性がある.この値を自動学習により設定することは,今後の課題である.\begin{figure}[b]\begin{center}\input{03figure3.txt}\end{center}\caption{係り受け距離の定義の例}\label{fig:dep_dist}\end{figure}係り受けタイプスコアを実際の対訳文に適用した例を図\ref{fig:exgood}に示す.図\ref{fig:exgood}で各枝上のラベルが係り受けタイプを示しており,その上の数字が係り受けタイプスコアである.\begin{figure}[t]\begin{center}\includegraphics{15-2ia3f4.eps}\caption{係り受け距離とスコアの例}\label{fig:exgood}\end{center}\end{figure}係り受け距離$d_S$や$d_T$は,あるノードから別のノードまで最短ルートでたどるときに通る枝の係り受けタイプスコアの和と定義する.例えば図\ref{fig:exgood}でペア1の距離は,日本語側($d_S$)は``保険$\rightarrow$請求の''の枝を通るので,$d_S=1$となり,英語側($d_T$)は``insurance$\rightarrow$anclaim''の枝を通るので,$d_T=1$となるため,$(d_S,d_T)=(1,1)$となる(図で丸で囲まれた数字のある枝を通る).同様にペア2の距離は,日本語側はペア1と同じで$d_S=1$だが,英語側は``insurance$\rightarrow$withtheoffice'',``withtheoffice$\rightarrow$willhavetofile'',``anclaim$\rightarrow$willhavetofile''の3つの枝を通るので,枝の距離を合計して$d_T=7$となるため,$(d_S,d_T)=(1,7)$となる(図で四角で囲まれた数字のある枝を通る).木構造を用いずに単純な単語列として見た場合,2つの``insurance''はどちらも``claim''から近いと判断されてしまうため,正しい曖昧性解消ができなくなる.このようなことは他の例でもしばしば起こりうることであり,木構造を用いることの利点がここで示される.\subsection{距離—スコア関数}\label{function}距離スコア関数$f(d_S,d_T)$は2つの距離の組$(d_S,d_T)$に対して,それらの関係が適切かどうかを反映するスコアを与える.この関数を設定するために,まず実際のデータにおける現象を観測した.正解のアラインメントが付与された4万文の新聞記事対訳コーパス\cite{Uchimoto04}を用いて,距離の組の出現頻度を係数した.図\ref{fig:learn}に観測結果を示す(状況がとらえやすいように,別角度からの図を2つ示す).縦軸が頻度の対数であり,2つの横軸は2つの距離にそれぞれ対応する.結果を見ると,距離が等しいペアの頻度は高く,逆に距離に差があるペアの頻度が著しく低下することがわかる.この観測結果を踏まえて,距離—スコア関数$f(d_S,d_T)$を人手で設定した.このとき,以下の条件を満たすようにする:\begin{itemize}\item$d_S$と$d_T$が共に小さい場合は,注目した対応候補の関係が適切であると判断できるので,プラスのスコアを与える\item$d_S$と$d_T$が共に大きい場合(距離10以上)は,対応候補は互いに関係性を持たないと判断し,0とする.\item$d_S$と$d_T$の差が大きい場合は,対応候補の関係が不適切であると判断できるので,マイナスのスコアを与える.\end{itemize}\begin{figure}[t]\begin{center}\includegraphics{15-2ia3f5.eps}\caption{観測された距離の組の頻度分布}\label{fig:learn}\end{center}\end{figure}例えば図\ref{fig:exgood}において,ペア1$(d_S,d_T)=(1,1)$にはプラスのスコアを与えるが,ペア2$(d_S,d_T)=(1,7)$に対してはマイナスのスコアを与える.\subsection{最適なアラインメントの探索}\label{new_align}アラインメントの整合性は式\ref{eq:sum}に示したように,全ての対応候補ペアの$f(d_S,d_T)$の和として定義される.また最適なアラインメントは,この和を最大とするアラインメントである.しかしながら,考えうる全てのアラインメントのパターンをチェックしようとすると,組み合わせ爆発を起こすので,最適なアラインメントの探索は近似的に行う.まず,ある1つの対応候補$a_i$に対するスコアを以下のように定義する:\begin{equation}score(a_i)=\sum^{}_{j\neqi}整合性スコア(a_i,a_j)\\\label{eq:individual}\end{equation}これにより,全ての対応候補の1つ1つに個別にスコアが計算される.ここで,最も高いスコアとなった対応候補は正しい対応であると判断し,採用する.同時に,採用された対応と衝突している対応候補は棄却する.そして各対応候補のスコアを再計算し,採用・棄却を繰り返す.これをすべての対応候補が採用か棄却されるまで繰り返すことにより,近似的に最適なアラインメントが得られる.
\section{実験と考察}
\label{result}\subsection{アラインメント実験}正解のアラインメントが付与されている新聞記事の対訳コーパス\cite{Uchimoto04}からランダムに500文を選び,これを用いて日英対訳文のアラインメント実験を行なった.アラインメントの評価単位は,日本語は文字単位,英語は単語単位とした.日本語の評価単位を単語単位としなかった理由は2つある.1つは我々の出力と正解データとで形態素解析のずれがある場合があることである.もう1つは,我々の出力も正解データもアラインメントの単位は句なのだが,そもそも何を句とするかの定義が定まっていないため,句の区切りにずれがあることである.これらの理由から,評価を単純に,わかりやすくするために,日本語では文字単位で評価した.なお我々の予備実験により,評価単位を文字単位としても大きな副作用はないことが示されている.対訳辞書として,研究社の和英辞書(見出し語数36\,K,抽出した対訳数214\,K)と,同英和辞書(見出し語数50\,K,抽出した対訳数303\,K)を用いた.評価は適合率,再現率,F値により算出し,さらにAER\cite{och00comparison}も求めた.なお,正解データにはSure($S$)アラインメントのみが付与されており,Possible($P$)アラインメントはない\cite{Och03}\footnote{Possible($P$)アラインメントがない場合,$\mathrm{AER}=1\text{-}F-measure$として計算される.}.実験結果を表\ref{tab:result_a}に示す.``baseline''はすべての枝の距離を1とし,さらに整合性スコア$f=1/d_S+1/d_T$として実験したものである.``uniformdist.''は枝の距離はすべて1だが,整合性スコアを\ref{function}章で定義した関数により計算した場合の結果である.``proposed''は``uniformdist.''の枝の距離を係り受け距離に変更した結果である.\begin{table}[b]\begin{center}\caption{アラインメント実験結果}\label{tab:result_a}\input{03table1.txt}\end{center}\end{table}比較実験として,統計翻訳のフリーツールであり,その精度に定評のある``Moses''\cite{Moses}を利用したアラインメント実験も行なった.トレーニングデータとして,毎日新聞4万対訳文と読売新聞25万文を利用し,日本語文については形態素解析器JUMANで形態素に分割した.また\ref{alignment}章で述べた部分文字列アラインメントのみでのアラインメント精度を``sub-string''に示した.ここでのトレーニングデータは,Mosesと同じものを用いた(ただし,日本語の形態素分割は行っていない).``manual''は,我々の出力を人手により修正したものであり,アラインメントの上限値と見ることができる.上限値が100にならないのは,我々の出力と正解データとのアラインメントの単位にズレがあることや,正解データ自体に誤りが含まれていることがあるためである.\subsection{考察}表\ref{tab:result_a}より,距離スコア関数を改善することによりF値で2.7ポイントの精度向上が見られる.実際の言語現象を観測し,それを反映する関数の定義を用いることの妥当性と,その効果の高さがこの結果から示された.係り受けスコアを用いることにより,さらに約1.5ポイント精度向上したが,距離スコア改善による向上に比べると差が小さく,係り受けスコアを用いることの利点はそれほどないように見える.現在は係り受け距離は人手により設定されているが,この設定が実際の言語の特徴を十分に反映しているかどうかという点で疑問が残る.今後係り受け距離を自動学習などにより適切に設定することにより,係り受け距離を利用する効果がより顕著に表れるものと思われる.\begin{figure}[b]\begin{center}\includegraphics{15-2ia3f6.eps}\caption{アラインメントの改善例}\label{fig:result_ex}\end{center}\end{figure}距離スコア関数の改善と,係り受けスコアの利用により,baselineより4.22ポイントの精度向上を達成した.図\ref{fig:result_ex}に改善例を示す.例では日本語の``司法''に対して,英語では``judicial''が二度出現しており,曖昧性が発生している.baselineではこの曖昧性解消に失敗しており,アラインメントが不適切だが,proposedでは正しく曖昧性解消が行われ,正しいアラインメントを得ることができた.しかしながら,日本語で``司法''という語が一度しか出てきていないため,正確には英語の``ourjudicialsystem''は未対応とするのが適切である.このような省略は逆の場合を含め,しばしば起こることであるため,適切に扱う必要がある.これについては今後検討する.我々の提案手法では依存構造を用いており,その情報に強く頼っている部分が大きい.このことは今まで述べたとおり非常に有効な手段であるが,一方で依存構造解析の失敗が容易にアラインメントの失敗につながってしまう.日本語については形態素解析(JUMAN)の精度が99\%,構文解析(KNP)の精度が90\%であり,高精度ではあるが失敗も10\%程度は含まれることになる.英語ではこれよりさらに精度は低くなり,特に並列構造などでの解析失敗が目立つ.このため,我々が提案する整合性尺度を利用して,依存構造木自体の修正を可能にする枠組を考案する必要がある.これにより,アラインメントの精度向上が見込めるだけでなく,基礎技術である構文解析技術へのフィードバックを図ることも可能となる.``Moses''の結果は我々の結果に比べてかなり低い.これは\ref{Introduction}章で述べたように,統計的な手法が言語構造の異なる言語対に対してはあまり効果が発揮できないことの表れといえる.日本語と英語では言語構造に大きな違いがあり,例えば日本語ではSOVの語順で文が構成されるが,英語ではSVOの語順で文が構成される.このような言語対に対しては,我々の手法のように言語処理リソースを用いた深い文解析が必要であると言える.``sub-string''の結果は``Moses''の結果とほぼ同じであるが,``sub-string''では形態素解析を行っていないという点を考慮すると,十分によい結果であると言える.特に適合率を見るとMosesよりも良い結果であり,このことは我々のアラインメントで利用するときには有効である.\begin{table}[b]\begin{center}\caption{他言語対でのアラインメント精度(AER)}\label{tab:result_b}\input{03table2.txt}\end{center}\end{table}表\ref{tab:result_b}に,関連研究で示された,日英以外の言語対におけるアラインメント精度を示す.HLT-NAACL2003\cite{mihalcea-pedersen:2003:Partext}(英語—フランス語と英語—ロシア語)とACL2005\cite{martin-mihalcea-pedersen:2005:WPT}(英語—ロシア語)はそれぞれアラインメントに関するワークショップでの結果であり,それぞれのワークショップでの最も良い精度を記録した研究の値である.\cite{Gildea03}は英語と韓国語でのアラインメント精度の向上を目指したものである.また最も基本的な統計的単語アラインメントツールであるGIZA++\cite{rodriguez-garciavarea-gamez:2006:WMT}を用いてそれぞれの言語対でアラインメントした結果も示す.すべての値はAERである.表\ref{tab:result_b}より,英語—フランス語対でのアラインメントは最も容易であり,英語—韓国語で最も難しいといえる.これは言語構造の違いが英仏では小さいが,英韓では大きいことからくると思われる.韓国語は日本語に近いといわれており,日英と同様,アラインメントが難しい.我々の日英アラインメントの結果をこれらの他言語対での結果と比較しても,十分高精度であると言える.
\section{結論と今後の課題}
本論文では構造的句アラインメントの精度向上を目的とし,係り受け距離と距離—スコア関数$f(d_S,d_T)$を用いた新しいアラインメント手法を提案した.また対訳文全体のアラインメントの整合性を全ての対応ペアのスコア$f(d_S,d_T)$の和として定義し,整合性を定量的に評価する枠組を提案した.これにより,構造的句アラインメントの精度向上を達成し,基本的な統計的手法に比べておよそ30ポイント高いアラインメント精度を実現した.実験結果から,言語構造の異なる言語対であっても我々の手法は十分に高精度なアラインメントを行うことができ,関連研究での他の言語対での結果と比較しても遜色ない結果をあげた.今後我々の手法を日英以外の言語対に対しても適用し,その有効性を検証したい.また係り受け距離と距離—スコア関数は現在は人手により設定されているが,実際の言語の特徴をよりよく反映するモデルを構築し,さらに他言語において人手により設定するコストを抑えるために,単言語コーパスからパラメータを自動的に学習する手法を考案する必要がある.アラインメントの失敗例の多くは構文解析誤りによるものである.現在の枠組では構文解析結果を完全に信頼して整合性を測っているが,我々の手法が十分に洗練されたものになれば,整合性尺度に基づいて構文を修正できるような,構文解析とアラインメントが互いに柔軟に影響しあい,互いの精度向上を行えるような柔軟な枠組を作ることが今後の課題である.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Brown,Pietra,Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{Brown93}Brown,P.~F.,Pietra,S.A.~D.,Pietra,V.J.~D.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofStatisticalMachineTranslation:ParameterEstimation\BBCQ\\newblock{\BemAssociationforComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\263--312}.\bibitem[\protect\BCAY{Charniak\BBA\Johnson}{Charniak\BBA\Johnson}{2005}]{Charniak}Charniak,E.\BBACOMMA\\BBA\Johnson,M.\BBOP2005\BBCP.\newblock\BBOQCoarse-to-Finen-BestParsingandMaxEntDiscriminativeReranking\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics(ACL'05)},\mbox{\BPGS\173--180}\AnnArbor,Michigan.\bibitem[\protect\BCAY{Chiang}{Chiang}{2005}]{chiang:2005:ACL}Chiang,D.\BBOP2005\BBCP.\newblock\BBOQAHierarchicalPhrase-BasedModelforStatisticalMachineTranslation\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics(ACL'05)},\mbox{\BPGS\263--270}\AnnArbor,Michigan.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Cromieres}{Cromieres}{2006}]{Fabien06}Cromieres,F.\BBOP2006\BBCP.\newblock\BBOQSub-SententialAlignmentUsingSubstringCo-OccurrenceCounts\BBCQ\\newblockIn{\BemProceedingsofthe44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\13--18}.\bibitem[\protect\BCAY{Gildea}{Gildea}{2003}]{Gildea03}Gildea,D.\BBOP2003\BBCP.\newblock\BBOQLooselyTree-basedAlignmentforMachineTranslation\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\80--87}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{Moses}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation\BBCQ\\newblockIn{\BemAnnualMeetingoftheAssociationforComputationalLinguistics(ACL),demonstrationsession}.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{koehn-och-marcu:2003:HLTNAACL}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-BasedTranslation\BBCQ\\newblockInHearst,M.\BBACOMMA\\BBA\Ostendorf,M.\BEDS,{\BemHLT-NAACL2003:MainProceedings},\mbox{\BPGS\127--133}\Edmonton,Alberta,Canada.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1994}]{KNP}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQASyntacticAnalysisMethodofLong{J}apaneseSentencesBasedontheDetectionofConjunctiveStructures\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf20}(4),\mbox{\BPGS\507--534}.\bibitem[\protect\BCAY{Kurohashi,Nakamura,Matsumoto,\BBA\Nagao}{Kurohashiet~al.}{1994}]{JUMAN}Kurohashi,S.,Nakamura,T.,Matsumoto,Y.,\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQImprovementsof{J}apaneseMorphologicalAnalyzer{JUMAN}\BBCQ\\newblockIn{\BemProceedingsofTheInternationalWorkshoponSharableNaturalLanguage},\mbox{\BPGS\22--28}.\bibitem[\protect\BCAY{Martin,Mihalcea,\BBA\Pedersen}{Martinet~al.}{2005}]{martin-mihalcea-pedersen:2005:WPT}Martin,J.,Mihalcea,R.,\BBA\Pedersen,T.\BBOP2005\BBCP.\newblock\BBOQWordAlignmentforLanguageswithScarceResources\BBCQ\\newblockIn{\BemProceedingsoftheACLWorkshoponBuildingandUsingParallelTexts},\mbox{\BPGS\65--74}\AnnArbor,Michigan.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Matsumoto,Ishimoto,\BBA\Utsuro}{Matsumotoet~al.}{1993}]{matsumoto:1993:ACL}Matsumoto,Y.,Ishimoto,H.,\BBA\Utsuro,T.\BBOP1993\BBCP.\newblock\BBOQStructuralMatchingofParallelTexts\BBCQ\\newblockIn{\BemProceedingsofthe31stAnnualMeetingoftheAssociationofComputationalLinguistics},\mbox{\BPGS\23--30}.\bibitem[\protect\BCAY{Menezes\BBA\Richardson}{Menezes\BBA\Richardson}{2001}]{Menezes01}Menezes,A.\BBACOMMA\\BBA\Richardson,S.~D.\BBOP2001\BBCP.\newblock\BBOQABest-firstAlignmentAlgorithmforAutomaticExtractionofTransferMappingsfromBilingualCorpora\BBCQ\\newblockIn{\BemProceedingsofthe39thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)WorkshoponData-DrivenMachineTranslation},\mbox{\BPGS\39--46}.\bibitem[\protect\BCAY{Mihalcea\BBA\Pedersen}{Mihalcea\BBA\Pedersen}{2003}]{mihalcea-pedersen:2003:Partext}Mihalcea,R.\BBACOMMA\\BBA\Pedersen,T.\BBOP2003\BBCP.\newblock\BBOQAnEvaluationExerciseforWordAlignment\BBCQ\\newblockInMihalcea,R.\BBACOMMA\\BBA\Pedersen,T.\BEDS,{\BemHLT-NAACL2003Workshop:BuildingandUsingParallelTexts:DataDrivenMachineTranslationandBeyond},\mbox{\BPGS\1--10}\Edmonton,Alberta,Canada.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2000}]{och00comparison}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2000\BBCP.\newblock\BBOQAComparisonofAlignmentModelsforStatisticalMachineTranslation\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1086--1090}\Saarbrucken,Germany.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2003}]{Och03}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQASystematicComparisonofVariousStatisticalAlignmentModels\BBCQ\\newblock{\BemAssociationforComputationalLinguistics},{\Bbf29}(1),\mbox{\BPGS\19--51}.\bibitem[\protect\BCAY{Rodr\'{i}guez,Garc\'{i}a-Varea,\BBA\G\'{a}mez}{Rodr\'{i}guezet~al.}{2006}]{rodriguez-garciavarea-gamez:2006:WMT}Rodr\'{i}guez,L.,Garc\'{i}a-Varea,I.,\BBA\G\'{a}mez,J.~A.\BBOP2006\BBCP.\newblock\BBOQSearchingforalignmentsinSMT.AnovelapproachbasedonanEstimationofDistributionAlgorithm\BBCQ\\newblockIn{\BemProceedingsontheWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\47--54}\NewYorkCity.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Sadler\BBA\Vendelmans}{Sadler\BBA\Vendelmans}{1990}]{sadler:1990:COLING}Sadler,V.\BBACOMMA\\BBA\Vendelmans,R.\BBOP1990\BBCP.\newblock\BBOQPilotImplementationofaBilingualKnowledgeBank\BBCQ\\newblockIn{\BemPaperspresentedtothe13thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\449--451}.\bibitem[\protect\BCAY{Sato\BBA\Nagao}{Sato\BBA\Nagao}{1990}]{sato:1990:COLING}Sato,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1990\BBCP.\newblock\BBOQTowardMemory-basedTranslation\BBCQ\\newblockIn{\BemPaperspresentedtothe13thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\247--252}.\bibitem[\protect\BCAY{Uchimoto,Zhang,Sudo,Murata,Sekine,\BBA\Isahara}{Uchimotoet~al.}{2004}]{Uchimoto04}Uchimoto,K.,Zhang,Y.,Sudo,K.,Murata,M.,Sekine,S.,\BBA\Isahara,H.\BBOP2004\BBCP.\newblock\BBOQ{MultilingualAlignedParallelTreebankCorpusReflectingContextualInformationandItsApplications}\BBCQ\\newblockIn{\BemProceedingsoftheMLR2004:PostCOLINGWorkshoponMultilingualLinguisticResources},\mbox{\BPGS\63--70}.\bibitem[\protect\BCAY{Watanabe,Kurohashi,\BBA\Aramaki}{Watanabeet~al.}{2000}]{watanabe:2000:COLING}Watanabe,H.,Kurohashi,S.,\BBA\Aramaki,E.\BBOP2000\BBCP.\newblock\BBOQFindingStructuralCorrespondencesfromBilingualParsedCorpusforCorpus-basedTranslation\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\906--912}.\bibitem[\protect\BCAY{南}{南}{1993}]{Minami}南不二男\BBOP1993\BBCP.\newblock\Jem{現代日本語文法の輪郭}.\newblock大修館書店.\end{thebibliography}\begin{biography}\bioauthor{中澤敏明}{2005年東京大学工学部電子情報工学科卒業.2007年同大学院修士課程修了.2007年京都大学大学院博士後期課程入学.機械翻訳の研究に従事.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程修了.京都大学工学部助手,京都大学大学院情報学研究科講師,東京大学大学院情報理工学系研究科助教授を経て,2006年京都大学大学院情報学研究科教授,現在に至る.自然言語処理,知識情報処理の研究に従事.}\end{biography}\biodate\end{document}
| |
V03N03-01 | \section{はじめに}
自然言語処理技術は,単一文の解析等に関しては一定の水準に到達し,文の生成技術を統合して幾つかの機械翻訳システムが商用化されて久しい.このような段階に達した現在においては,従来,問題とされてきた形態素解析や構文解析とは異なる以下のような課題が現れてきている.自然言語処理システムは求められる分析性能が向上するにつれて,そのシステムで用いる言語知識ベース(文法規則や辞書データ)も次第に複雑化,巨大化してきた.ひとたび実働したシステムも,利用者が使い込むことによって既存の分析性能では扱えない言語現象への対応に迫られる.利用者が増えるに従って新たな分析性能が要求される.一方,自然言語処理システムを用いる応用分野はますます多様化することが予想され,応用分野ごとにも新たな分析性能が要求される.言語知識ベースにおいても機能の更新が求められ,追加と修正の作業が発生する.しかし,一般に言語知識ベースの開発には多数の人員と多くの時間を必要とするため,その再構築にも手間を要する.応用分野に適合するシステムを効率的に開発するためには,融通性を持ち容易に修正できる文法規則や辞書データの作成技法と,作成された言語知識ベースの保守性の向上を図る必要がある.この課題は,応用分野の多様化に伴う需要と規模が増大する中でますます重要となっている.言語知識をコンピュータへ実装する過程での技術的な課題を論じた研究~\cite{吉村,神岡,奥}がある.しかし,文法規則の記述の方法やノウハウの開示が見られない.どのようにして規則が見つけだされたのかという言語知識の構成過程の研究は少なかった.前述のように,適用分野の多様化に応じて,文法規則の追加や修正を整然と実現するには,文法規則の開発手続きを整理することから取り組むべきである.具体的には個々の文法規則がどのような言語現象に着目して作成されたのか,そして,その記述の手段,すなわちどのような手続きで規則化されたのかのノウハウを方法論的に明らかにすることである.本稿では,この課題への一解決策として,文法規則の系統だった記述の方法を提案する.さらに,我々が提案した方法に従って作成した文法規則について説明する.まず,形態素と表層形態の概念区分をした上で,日本語の持つ階層構造に注目した.形態素の述部階層位置との関係から,表層での形態の現れ方を構文構造に結び付ける形態構文論的な文法作成のアプローチを採用し,文法規則の開発手続きを確立した.この文法規則は機械処理に適合した文法体系の一つとなっている.その特徴は,(1)系統だった記述法に則り作成されたものであること,(2)そのため,工学上,文法規則の開発作業手順に一般性が備わり,誰がどのように文法規則を作成するにせよ,ある条件を満たすだけの言語の分析能力を持った文法規則を記述することができる.なお,もう一方の言語知識である辞書データについても,その知識構成過程の把握が必要であるが,本稿では,特に文法規則についてのみ着目する.以下の第\ref{文法規則の体系だった記述法}章では,文法体系と文法規則の具体化の方法について述べ,文法規則を体系的に記述してゆくための記述指針を提案する.第\ref{文法規則の記述の手順}章では,提案した手続きに従って記述した文法規則例を示す.新聞テキストを用いた分析実験を通して,文法規則の記述の手続きの一貫性を評価した.第\ref{記述手続きの評価}章では,その詳細を報告する.
\section{文法規則の体系だった記述法}
\label{文法規則の体系だった記述法}\subsection{文について}文法規則は,言葉に内在すると見られる表現と解釈のためのきまりである.現実に,我々が日々接する言語事実は,多種多様で加えて複雑であるので,言葉のきまりを包括的に且つ網羅的に説明する文法論は現在のところ存在しない.そこでまず取り扱う文の範囲を設定する.{\dg文}は,記述する叙述内容を表す部分とその叙述内容に対する話し手の判断部分が表層の表現形式に現れている言語表現とする.従って,「うそ.」,「文法規則の体系だった記述法」,「そんなこと!」といった例に見るように叙述部分がなく,述語を含まない言語表現は,本稿では文の範中\\に含めない.「彼,そこ行った!(``彼がそこへ行ったのだ''の意味)」,「改革の流れ徐々に.(``改革の流れが徐々に(Φ)''Φがどのような述語をとるのかは文脈からしか判断できない)」のように不完全な叙述表現であるものも除外する\footnote{文章表現は,一般に,描写文,物語文,説明文,説得文に分類することができる.文章内容に基づいた分類である.文の叙述の仕方の見方に立つと,文の形式の整え方で区分できる.この区分によると本稿の扱う{\dg文}以外の種類には,メモ,伝言,掲示,広告,宣伝文などがある.論文などの専門的説明文に限ると,タイトル部分,図表などへの注釈,章立てのための表現,参考文献の記載部分を除いた部分は文字数にして,その9割は本稿で扱う文である.}.\vspace*{-0.5mm}\subsection{文法記述のアプローチ}\vspace*{-0.2mm}文法規則の記述には,背景となる文法論(文法の考え方)が必要である.文法論を,文の構成要素が持つ外形とその結び付きの有様を探究するものであるとした時,その構成法には,二つのアプローチがあるといわれている\cite{森岡2}.一つには,文法論で扱う構文的な機能を単語の語形にまで言及し体系を立てる方法(方法1),もう一つは,単語の語形とはそれほど密な関係を持ち込まずに体系を立てる方法(方法2)である.こうしたアプローチの違いと語のとらえ方の視点によって,その体系がどのような品詞を認め,どのような単語を認定するのかに違いが生じる.品詞の種類や単語の認定基準は文法体系の単語観に依存している.文法規則には,このようなアプローチの違いに関する知識が関与しており,暗黙の知識として働いている.構成法の違いは文法規則の記述法の違いになって現れる.例えば,外国人向けの日本語教育の文法(例えば\cite{吉岡})は,方法1に沿って作られたものである.日本語を母国語とする初学者向けの文法(例えば\cite{渡辺1})は,概ね方法2に沿っている例として挙げることができる.外国人向けの日本語教育の文法\cite{吉岡}では,日常会話の手段として日本語の構造を説明することを主な目的とする.こうした文法体系の特徴は,話し手の意志伝達や応答の仕方に注目していることである.すなわち文体\footnote{叙述の中心となる述語が文法カテゴリーに応じてその形を変えること.例えば,「だ」から「です」「ます」に見られるような通常態から丁寧態への変化,あるいは「〜する」から「〜しない」へのような肯定から否定への変化を指す.}に応じて,どのように文の構成要素が外形と結びつくのか(文体に応じた構文的機能)を重視する.例えば,表\ref{文体による活用形の組織化の例}のような動詞の活用形設定が可能となり,「ます」あるいは「た」といった語は助動詞ではなく動詞の活用形の一部となる.表現上の機能対立が「〜る」「〜た」のような表層の形の現れ方にまで及んでいる.このように日常会話としての機能対立が顕在化している文型を網羅的に調べてゆくことで,文法規則を体系的に記述してゆくことが可能である.\vspace*{-0.3mm}\btb{文体による活用形の組織化の例}\small\bt{|l|l|l|}\hline\mltclm{1}{中核単位}&\mltclm{1}{活用形}&\mltclm{1}{日常会話上の機能}\\\hline食べ&(食べ)\,--\,る&主体の現在の意思表示の通常体\\\cline{2-3}&(食べ)\,--\,ます&主体の現在の意思表示の丁寧体\\\cline{2-3}&(食べ)\,--\,た&主体が確認した意思表示の通常体\\\cline{2-3}&(食べ)\,--\,ました&主体が確認した意思表示の丁寧体\\\hline\et\etb\vspace*{-0.3mm}日本語を母国語とする初学者に対する文法\cite{渡辺1}では,表層の形には比較的無関心に,抽象化した構文単位(例えば文節)を設定して,その要素間の性質に基づいて文としての結び付きを調べる.活用形の組織化(表\ref{助動詞との接続の基準による活用形の組織化の例}を参照)を見ると,語形変化と構文的な機能との関連があまりない.\btb{助動詞との接続の基準による活用形の組織化の例}\small\bt{|l|l|l|}\hline\mltclm{1}{中核単位}&\mltclm{1}{活用形}&\mltclm{1}{助動詞との接続のし方}\\\hline食&(食)\,--\,べ&「ない」「う」「よう」に連なる\\\cline{2-3}&(食)\,--\,べ&「ます」「た」に連なる\\\cline{2-3}&(食)\,--\,べる&言い切るかたち\\\cline{2-3}&(食)\,--\,べる&体言に連なるかたち\\\hline\et\etbこのように,個々の文法論がそれぞれの立場を持ち,その立場の見方によって言葉を分析することから,分析の対象となる言語を一つに限っても幾つかの文法論が存在する.すなわち文法規則の構成過程は文法論の構成法に依存していると考えられる.機械処理を考えた時,高度な推論機構や語彙の意味に,できるだけ依存しないように文法体系を構成することが望ましい.表層の形の違いができるだけ構文に則する方法を採る.日本語では,(1)殊に述部にあって形態素の序列関係と文法属性に関連があること,(2)いわゆる学校文法でいう活用の活用語尾に,「う」「よう」「まい」などの無活用の助動詞を組み入れて再構成すれば,述部末尾の語形変化を構文的な機能に結び付けることができることから,本稿では方法1の作成法を採る.次節では,方法1に従って機械処理に適した文法規則記述のアプローチについて述べる.\subsection{文法規則の形態構文論的な作成法}\label{文法規則の形態構文論的な作成法}次に挙げる点に適うよう文法体系を構成する.\smallskip\begin{itemize}\baselineskip1.2em\item文の内容記述に関連する要素を外形に現れた形態素でとらえる\item叙述の時空間的な位置関係を外形に現れた形態素の中に見つける\item書き手の叙述の意図を形態素でとらえる\end{itemize}\smallskip{\noindent形態素はそれ自身で意味を担うことのできる最小の単位\cite{森岡1}のことであり,語を構成する基本単位となっている.}我々は,この形態素の表層での現れ方を重視し,単語の語形にまで文法規則を関与させる立場で文法体系を構成する.本稿では,この構成法を{\dg形態構文論}と呼ぶ.文の意味を近似する上記三点の特徴が,構文構造に関してどのように具体化されているのかに着目するのである.一般に,文の一部分が,着目する表現内容を維持しながら別の文形に変わる場合,その変化した部分が,文法規則化の対象となる文型特徴を担っている.従って,変化形態に対する形態素と構文構造の直接的な関係の発見と,文型特徴である文法上の働きを抽象化する過程が文法規則の作成過程となる.この章では,以下に,構文構造に関与する形態素について述べたのち,文法記述の手続きを整理するための作成法の詳細を述べる.\subsubsection{形態素の分類}\label{形態素}まず構文的意味を有する単位としての形態素を分類する必要がある.森岡\cite{森岡1}は,語の構成単位を形態素として子細にその語構成法を観察している.我々は,森岡の形態素分類に従いながら,文の意味を近似する上述の三点の特徴について構文構造と形態素の関係を調べた.そして森岡\cite{森岡1}の基本の分類に基づき,鈴木\cite{鈴木}を参考にして言語現象の抽象化に機能的に働く形態素をまとめた.付録の図\ref{形態素の分類一覧}に形態素の基本分類を示し,付録の表\ref{言語現象の抽象化の手段に対応する形態素}に言語現象の抽象化の手段に対応する形態素を示す.\subsubsection{文構造の階層性とその利用}\label{階層}構文構造と形態素の直接的な関係から文法規則の構成上の情報を得ることを基本とする.しかし,文の構成を担う手がかりを,表層の形態特徴ばかりに求められないことが下記の例からわかる.\smallskip\begin{description}\baselineskip1.2em\item[(1)]「学生は英語教育を求めていない」\item[(2)]「学生は英語教育を求めている」\item[(3)]「学生は英語教育を求められている」\item[(4)]「学生は英語教育を求めている」\end{description}\smallskip{\noindent否定文(1)に対応する肯定文(2)と,受動文(3)に対応する能動文(4)のうち(2)と(4)は同じ文形である.}肯定文と能動文の形態上の弁別ができない.次に,(1),(2),(4)例の「学生は」の「は」は格表示機能を有し,主格の語を現している.一方,(3)例の「学生は」では,「(Aが)学生{\dgに}英語教育を求めている」{\noindentという意味で「学生」が対格を示すために,「は」が利用されている.}このように構文的機能を有する形態素は文法機能に関し一対多の対応関係を持つことで多価値となっている.我々は,文法体系の作成に意味知識や推論機構を前提しないことを既に述べている.「求める」「英語教育」「学生」といった語彙毎に意味知識を持ち込まずに,「は」を伴う語が主格になるか,もしくは対格になるのかを表現し分けなければならない.多価値の形態素を,言語現象の抽象化に応じて構文機能に正しく結び付けるには,何らかの表示デバイスが必要になる.その働きは構文構造と形態素の直接的{\dgでない}関係を補完することにある.その対策として,我々は,現代日本語文法の研究成果~\cite{日本語1,日本,渡辺,芳賀,寺村1,山口,南,佐伯}から得られている文の段階性(階層)を利用する.文の段階(層)構造を本稿での文の定義に従って変更した.図\ref{述部の階層構造(分析に用いる構造)}に文の段階(層)構造を示す.\bfg\vspace*{0mm}\epsfile{file=kaisou.eps}\vspace*{-0.1mm}\CAPLA{述部の階層構造(分析に用いる構造)}\vspace*{3mm}\vspace*{-0.3mm}\parbox{100mm}{\small日本語の述部には,図に示す層状構造があるとされる.格の階層は,文の叙述に論理的な関係を設定した際に,その論理関係の関与する要素が含まれる階層である.例えば,「AガBヲ食べ(ル)」という述語があるとする.この場合,「食べる」という述部が中心語となり,「Aが」と「Bを」という2つの格要素が認められる.これらの要素は中心語に依存する.ヴォイスの層は,論理関係として関与する格要素が,どのような見方によって叙述されているかを示す.上の例では,Bに焦点を当てることで「Bが(Aに)食べ{\dgられ}る」という外形の特徴が現れる.依存関係は格関係と変わりはないが,述部の形が形態素によって変わるので特徴抽出が可能となる.アスペクトの層は,叙述の時間の捉え方に関わる部分である.叙述全体を記述するのか,あるいは叙述の時間的な変化のある部分を捉えて記述するのかを表現仕分ける層である.ムードの層は,叙述の時間表現に関わる部分であって,その叙述が完了したことなのか,あるいは未完了の出来事かを表現仕分ける.モダリティの階層は話し手の叙述の意図が示される.}\end{figure}\vspace*{-1mm}\subsubsection{形態素と形態}\label{形態素と形態}\vspace*{-2mm}図\ref{述部の階層構造(分析に用いる構造)}に示す階層で不整合なく文法機能の働きが形態との対応で明示できるように,我々は,層内にあって構文的機能を有する形態素の働きを決めることとした.テンスとかアスペクトなどの構文機能は,抽象的なものであるから常に表層文の形が対応するとは限らない.そこで,構文機能を有する形態素が表層に現れない場合には,形態素のインスタンスとして働くことのできる形態という単位を導入する.形態を持った,表層には直接現れない形態素を認識的な形態素と称する.形態を介して形態素と構文機能を直接的に結び付ける.我々は,必ずしも形態素が表層上に現れなくとも文を形態素連鎖として扱うことができると仮定している.文の意味を近似する構文的意味に結びついて,階層内で配置される位置に応じた文法機能があるものと考え,同じ形態素が複数の構文機能を担うことはないものとした.例文(2)は階層構造表示をすると次の構造となる.\vspace*{-1.5mm}\begin{center}\epsfile{file=rei.eps}\vspace*{-2.5mm}\figcap{例文の階層構造}{例文の階層構造}\end{center}図2において,(る)は,アスペクト表現の(ル:未完了)とムード表現の(ル:叙述)のふたつの構文機能を担っている.表層形態の「る」は,本稿の分析では,一般にいわれる形態素ではなく形態である.多価値とされる従来の形態素は,構文機能を担う認識的な形態素(この例では,アスペクト形態素とムード形態素)が構文機能を実現するために生じた表層の現れ,つまり形態\footnote{例えば,{\emgo}に対してテンス形態素が機能的に働くとその表層の形態は,{\emwent}となる.形態素解析とは表層の文字列を単語に区切るだけはない.構文機能を実現する形態素を見つけることにあり,それが認識的なものであった場合には,形態を見つけることにある.}であるとみる.構文機能が同じであるにもかかわらず形態が違っている場合がある.このように違う形態が,同じ文の階層に属する時,それらは異形態\footnote{形は違うが同じ意味を持つ形態.「食べた」と「読んだ」における「た」と「だ」は異形態と呼ばれる.形は違っていても,動詞で示される叙述内容が同じ過去・完了であるという意味を表している.文の表層の文字の並びは単なる形態素の連鎖ではなく,形態素と形態,もしくは,周りの言語環境によって形態が変動した異形態の並びからなる.}であるという見方をとる.こうした分析により従来,多価値とされた形態素の文内での働きを正しく捉えることができる.この形態構文論的な作成法により,言語現象の抽象化に機能的に働く形態素に曖昧性がなくなり,構文構造と形態素の間に直接的な関係を設定することが可能となる.この直接的な関係の一覧が文法枠組に対応する.線状に並ぶ形態素の,形の違いと相互連鎖の仕方にだけ注目すると曖昧となる言語現象も,文に階層構造を仮定することで,それを分析するための文法規則を作成できる.本章では,構文構造と形態素の直接的な関係を抽象化する構文形態論的な文法の考え方について述べた.次に,この枠組に基づいた文法規則の記述の方法について述べる.
\section{文法規則の記述の手順}
\label{文法規則の記述の手順}一般に文法規則の記述では,文中で意味を担う形態素に結びついて繰り返し現れる機能形態素を利用する.形態構文論的な作成法では,文法規則を記述する作業は,文に内在するとみられる階層のそれぞれの位置に,言語現象を抽象化するために文に繰り返し現れる形態素を配置することである.我々は,この手続きを整理することで体系的な文法記述の手順を得た.\subsubsection*{構文的機能を有する形態素の認定(P1)}語彙には実質的な内容面と文法的な機能面が備わっている.意味が似通っている語彙の語形の変化の様子を調べる.その様子から内容面が変化しても繰り返し起こる形に着眼する.その形を,集めた語彙に共通する文法面の機能を担う形態素とする.\subsubsection*{文の階層性の利用(P2)}共通する文法面の機能が複数(形態素が多義)の場合には,文の階層構造を利用する.出現する階層の違いに文法機能の違いを対応させることによって同じ形態に異なる文法規則を割り当てる\footnote{例えば,動詞の終止形である「る」は,テンスを表現するとも,もしくはアスペクトを示す機能を有しているともいわれている.P2の手続きはこのような現象に対処するものである.この例では,テンスを示す形態素とアスペクトを担う形態素がそれぞれあり,表層上,不可避的に同じ形態を共有しているとみなす.構文的には両者は違う階層で機能するものとして文法規則を作成する.}.\subsubsection*{認識的な構文的機能を有する形態素の認定(P3)}文法機能上,外形や階層に共通する形態特徴が現れない場合には,文の表層での現れが{\dg見えない}形態素を設ける.次に,この形態素に構文機能を割り当てる.この構文機能は言語現象の抽象化に対応する必要がある.形態素と表層の形態との対応をみいだす.周りの言語環境によって形態が変化した異形態があればそれを見つける.\subsubsection*{依存関係を定める(P4)}依存関係とは,文の構成要素が文階層のどのレベルで,語彙の実質的な内容面と結びついているかによって表現する.基本的に,修飾要素は,被修飾要素に依存する場合,修飾要素の最も外郭の階層と同じ階層位置に依存する.係り受け関係に相当する.例えば,「ので」「のに」などの接続助詞は,アスペクト層までを含む述語の語形変化の中で繰り返し現れる形の形態素である.連用修飾句として,主節に依存する場合,主節のアスペクト層部分に依存する.これを模式的に表したものが図\ref{依存関係の模式図1}$\sim$\ref{依存関係の模式図2}である.\bfg\epsfile{file=izon1.eps}\vspace{0.5mm}\efg{依存関係の模式図1}述語は,それが表現する動きを成り立たせる上で,構文上選択的に必要としている要素がある\cite{仁田}.図\ref{依存関係の模式図1}に示す例では「AガBヲ求め(ル)」である.図\ref{依存関係の模式図1}(a)の名詞句「英語教育を」は,機能形態素「を」でマークされているから,述部の階層構造(図\ref{述部の階層構造(分析に用いる構造)})の格要素を含む階層と依存関係を構成する(図\ref{依存関係の模式図1}の(b)).こうした用言に内在する論理的な関係構成に関わる要素は,叙述に用いる語彙の性質によって決まる.同時にその要素が語形としてどのような形態素を取り得るのかも語彙に依存して決まる.この語彙性質は,予め辞書に記載しておかなければならない.\bfg\epsfile{file=izon2.eps}\vspace{0.3mm}\vspace*{-0.5mm}\efg{依存関係の模式図2}図\ref{依存関係の模式図2}は用言に後接する「い(る)」の依存先を示している.図\ref{依存関係の模式図2}(a)において,「英語教育を求めている」の機能形態素「い(る)」は,用言で示される出来事の時間的な継続状態を示す(表\ref{言語現象の抽象化の手段に対応する形態素}).この形態素は,動詞が示す動作の一局面を表現し,アスペクトという文法機能を表現する形態素である.従って,述部の階層構造(図\ref{述部の階層構造(分析に用いる構造)})のアスペクト部分に依存し,図\ref{依存関係の模式図2}の(b)に示す依存関係が成立する.依存関係は機能形態素に前接する形態素(語基)と文階層の性質から決まる.図\ref{文法規則の記述の流れ}は,上記P1$\sim$P4の手順の,適用する順序と条件を,記述手続きの流れとして示したものである.次節では文法規則の作成例を挙げて記述手順を具体的に説明する.\bfg\vspace{0.3mm}\epsfile{file=flow.eps}\vspace{0.7mm}\vspace{1mm}\efg{文法規則の記述の流れ}\subsection{文法規則の組み立て}\label{文法規則の組み立て}本節では,前節で示した文法規則の記述方法に従って,実際に文法規則を作成した例を示す.\vspace*{-4mm}\subsubsection{文の分析のための規則}\vspace*{-1mm}{\dg文}分析のための規則を作成する.日本語は,主要素が文末に置かれる性質があるので,文末の形態素もしくは形態に着目してみる.\begin{enumerate}\item構文と直接関係を有する形態素を探す(P1)話し手の判断にあたる部分を,文法機能として話し手の意図とする.ヴォイス・アスペクト・ムードなどの文法機能と同様に扱い,意図は文の記述の内容に無関係に,様相の階層で働く構文機能とする.次に様相に対する形態素を設定する.「与える」を言語資料とし,語形変化の様子を調べるため,文末での終止の形を例に挙げる\footnote{上段は比較的話し手の強い意図表現が示される語形で,下段はそれ以外の語形を集めた.}.\vspace{-2mm}\btb{用言の文末終止の型の例}\small\bt{ll|l|l}&(1)&(2)&(3)\\&与える&与えるのだ&与えてほしい\\(上)&与えた&与えたのだ&与えてほしかった\\&与えるだろう&与えるはずだ&与えるべきだ\\&与えただろう&与えたはずだ&与えておくべきだ\\\hline&与えよう&与えますか&与えなさい\\(下)&与えまい&与えましたか&与えねばならない\\&与えろ&与えるのか&与えようじゃないか\\&与えるな&与えたのか&与えるだろうねぇ\\\et\vspace{-0.5mm}\etb様相という構文機能に対応する形態素は,話し手の判断であるので,肯定や否定,過去の認定や推量といった中立的な判断の意味を表すと考える.願望とか疑問,ある根拠に基づくことを示唆する命令調の判断や意志といった意味を示す形態素は,様相に応じないので文の終止の形として認められない.表\ref{用言の文末終止の型の例}で,中立的な判断の意味を表すのは(1)列上段であり,「〜る」「〜るだろう」のような話し手の意図が比較的中立かあるいは根拠の曖昧な推量の表現である.こうした意図表示の希薄な表現は基本の文型としてよいだろう.(2)列は,文内容の叙述に対する話し手の態度が形態に如実に現れていることが分かる.「のだ」「はずだ」といった話し手の強い認定態度を表現した推量と「ますか」「のか」のような意図表示が強固な疑念の表出となっている.(3)列は,直接的な話し手の意志や願望が示されている.(1)の下段の表現は意図の表現と依頼の表現である.その表す意味を見ると記述事態の時間的な把握,意図表現や依頼表現が対で並んでいる.同じ意味を表す他の言い替え表現がないことから,(1)の下段は意図表示の表現の基本の形である.結局,(1)列を基本的な文終止の文型であるとする.\item形態素の働きは?規則記述の手順を示す図\ref{文法規則の記述の流れ}のP1の手続きによって様相という文法機能に対する形態素を仮定した.表の(1)列に挙がる一連の形態は文の終止機能(構文機能との直接関係)を有するものの,「与え」を除いては共通する形態素がみつからない.手順P3に進む.\item認識的な形態素を仮定する(P3)様相を示す形態素を$\varphi$様相(**)\footnote{$\varphi$は``見えない''形態素であることを示し,``**''は,形態素に対する構文機能が未定であることを示す.例えば,テンスが{\dg過去}とか{\dg現在}といった具体的な構文機能を持っているように,構文と直接関係を有する形態素には機能に見合った値を与えることができる.}として,表層文字列との対応をとる(図\ref{様相の分析手順}(a)).\bfg\epsfile{file=izon3.eps}\CAPLA{様相の分析手順}\vspace*{3mm}\parbox{100mm}{\small(a)図は,認識的な形態素を仮定した段階であり,構文機能は未定である.形態との結びつきが明確でない.(b)図は,構文機能を定め,表層の形態との対応をとった状態を示している.}\end{figure}\item構文と直接関係を有する形態素を探す(P1)(1)列で,[与え](述語自身が表現する叙述内容)を除くと,「る(た)」,「るだろう(ただろう)」,「よう(まい)」,「ろ(るな)」が話し手の判断を示す形態である.そこで様相に具体的な構文機能を与える.様相を示す形態素に,それぞれ$\varphi$様相(平叙),$\varphi$様相(推量),$\varphi$様相(意志),$\varphi$様相(依頼)という文法機能を示す値を割り当てる.「た」は「る」の異形態とし,「ただろう」,「まい」,「るな」についても同様とする.\item形態素の働きは?文終止の様相に対する構文機能と形態素を結び付けることができた(図\ref{様相の分析手順}(b)).\item依存関係を求める(P4)階層関係を基に依存構造を求める.様相は階層構造では外郭にあるから文という最上位の階層との直接依存関係を構成することになる.\end{enumerate}図\ref{文法規則の記述の流れ}のP1--P3--P1--P4の手順で文法規則を作成することができる\footnote{簡便のため,様相に関する文法規則の作成事例を挙げた.話し手の意図に関する$\varphi$様相(平叙)形態素は,「る」と「た」という形態に対応している.このいずれの形態も文を終止する要件は満たしているものの,「る」,「た」はテンスを示しているともされ,様相以外の文法機能をこの形態が表している.そこで,文の階層構造である図\ref{述部の階層構造(分析に用いる構造)}を当てはめてみる.その結果,「る」,「た」の形態はムードの文法機能を担って形態として現れていることが分かる.また,ほかの形態,例えば,依頼を示す形態「ろ」,「るな」は,意志否定(認め方)の文法機能も同時に担っている.最終的には,P1--P3--P1--P2--P4の手順に沿って文法規則を作成することになる.その結果を次の図に示す.\begin{center}\epsfile{file=izon4.eps,height=60mm,width=90mm}\end{center}}.\begin{figure}[p]\input{fig2.tex}\bigskip\caption{文法体系構図}\label{文法体系構図}\end{figure}\vspace*{-0.5mm}\subsubsection{文法規則}\vspace*{-0.2mm}紙面の都合上,一例を挙げるに止めるが,我々はすでに中規模の文法規則を作成している.この文法体系の全体構図を図\ref{文法体系構図}に示す.個々の規則を逐一挙げることも紙面の関係から不可能なので,文の階層図を用いて示している.文の階層のそれぞれの位置にどのような構文要素が依存するのかを示した.前章までに示した手続きによって作成された規則は,DCG\cite{fernando}を用いて記述されており,約700余りある.付録の表\ref{文法規則の種類と数(1)},表\ref{文法規則の種類と数(2)}には,文法規則の種類とその数の一覧を示す.実規則の一例として,例で挙げた文分析の規則を付録の図\ref{文法規則例}に示す.文を分析すると構文構造が得られるが,この構造は述部の階層構造を基本として,文の構成要素が文階層のどの位置に属するのか(依存構造)を示す.形態素によって決まる構文機能を依存関係として利用することで係り受け関係と見なすこともできる.構文的な性質のうち述語自身が選択的に要求する要素に関する(格の階層に属する)情報は,語彙ごとに違うので予め辞書に記載しておく必要がある.用言を中心とした規則の他に,体言を中心とした連体句,副詞を扱う連用句に関する規則がある.
\section{記述手続きの評価}
\label{記述手続きの評価}本章では,文法規則記述の手続きの一貫性を評価する実験とその結果について述べる.\subsection{方法}まず,前章において作成した文法規則を第一版とし,その分析能力について実際の新聞の論説文を用いて分析を行なう\footnote{分析対象の文章は,平成4年11月10日から21日までの朝日新聞社説,ならびにコラム「窓」からそれぞれ8編ずつを選んだ.}.分析できなかった事例を収集し言語現象ごとに分類を試みる.その中からあるカテゴリーを選び,これを仮に応用分野で求められる分析性能の向上要求と定める.次に,この要求を満たすよう,本稿で提案した記述の手続きを用いて文法規則を追加した.これを第二版とし,再び同じテキストを用いて分析を行い規則作成手順の有効性を検討した.\subsection{第一版の文法規則による分析}分析において次の条件を与えた.(1)辞書項目は全て与えられているものとし,(2)曖昧性を考慮せず句点や記号等を含む全文字列を文の構成要素とする,(3)複数の名詞連続からなる複合語はないものとし一つの単語とみなすことで,複合語の分析を文法規則の守備範囲から外した.表\ref{実験結果(1)}の分析実験の結果を得た.\btb{実験結果(1)}\small\bt{|r||r|r|r|r|}\hline&\mltclm{2}{コラム「窓」}&\mltclm{2}{社説}\\\hline文章&\multicolumn{1}{c|}{文数}&解析率(\%)&\multicolumn{1}{c|}{文数}&解析率(\%)\\\hline1&16(17)&6.3&29(29)&24.1\\2&17(19)&41.2&39(40)&43.6\\3&17(22)&41.2&26(28)&26.9\\4&11(15)&45.5&31(32)&29.0\\5&19(21)&47.4&14(18)&14.3\\6&10(13)&10.0&30(31)&30.0\\7&19(27)&57.9&34(34)&32.4\\8&13(14)&15.3&24(27)&29.2\\\hline平均&15.3(18.5)&33.1&28.4(29.9)&28.7\\\hline\et\etb表\ref{実験結果(1)}は,社説とコラムについて,文章中に含まれる文数と解析率を一覧にしたものである.解析率は,曖昧性を考慮しないで解析に成功した文の全文章に対する比率である.なお,我々が定義した文の範囲外にある言語現象を含む文は予め分析対象から外した(表\ref{分析対象外言語現象}).文数を示す欄の括弧内が元の文数である.除外した言語現象として,名詞や記号が連接する説明文章特有の記述,記号の組合せによる慣例的な表現,あるいは簡易表現による指示表示がある.コラム文章では体言止め,副詞句止めなどの修辞用法が使われている.\btb{分析対象外言語現象}\small\bt{|l|r|l|}\hline\mltclm{1}{言語現象}&\mltclm{1}{事例数}&\mltclm{1}{用例}\\\hline形態連接&25&「$\cdots$」「$\cdots$」,「$\cdots$」($\cdots$)\\体言止め&11&``教科書倉庫.'',\\副詞句止め&1&``温泉旅行に.''\\その他&4&``$\cdot\cdot\cdot$.''\\\hline\et\etb8つのコラム文章について解析できない用例を表\ref{第一段階で分析できない言語現象}に示す.事例数は8つの文章を対象とした分析不可の原因数である.一般には一文の中に複数の原因が存在する.引用が高い頻度で現れている.鍵括弧で囲まれた文字列全体(複数文の場合もある)が引用されている例もある.「の」による名詞化現象では,名詞句全体が助詞を伴う場合が25例(「の」による名詞化1)と多い.形式名詞による補文化の例は4件(形式名詞を使う名詞化1)と少ない.逆に形式名詞で名詞化されたものがモダリティ機能を兼ねて働くこと(形式名詞を使う名詞化2)が多いことが特徴となっている.連用化は「ように」「ために」「ほど」などの形式名詞が従属節部分で機能する言語現象である.第一版の文法規則では接続詞を扱っておらず,この規則を欠くことによる解析率の低下も大きい.\btb{第一段階で分析できない言語現象}\small\bt{|l|r|l|}\hline\mltclm{1}{言語現象}&\mltclm{1}{事例数}&\mltclm{1}{用例}\\\hline文の引用&40&告訴すると,「$\cdots$」などと\\名詞句の引用&5&``肝心,という'',\\「の」による名詞化1&25&開いたのが,実現させたのを\\「の」による名詞化2&6&``$\cdots$のだろう'',\\形式名詞を使う名詞化1&4&認めさせたことも,存在するかもしれぬことを\\形式名詞を使う名詞化2&20&薄くなるばかりだ,いうほかない\\連用化&20&指摘したように,住んだ挙げ句\\文末のモダリティ&11&してはならない,``$\cdots$ではいられない''\\接続詞&13&だが,それにしても,しかし\\活用変形&7&あわず,飽きたらず\\述部内派生現象&1&して\underline{もら}う\\[1mm]\hline\et\etb\subsection{適用分野への模擬的拡張}前節で示した幾つかの言語現象を取り上げ,その言語現象を,あるアプリケーションが要求する拡張仕様と見なす.その仕様を満たすように文法規則を拡張する.第\ref{文法規則の記述の手順}章で提案した手順に従って文法規則化を進める.表\ref{第一段階で分析できない言語現象}を参考にすると,「の」による名詞化1と形式名詞の名詞化2,ならびに文末のモダリティに関する文法規則を新たに作成することで分析範囲が広がることが予想される.具体的には,(a)書き手の意図表現と,(b)「の」による名詞化された表現に対応できるように拡張する\footnote{失敗の事例数の点からは「文の引用」の解析規則を追加することで,効率良く解析率を向上させることができる.本節では,本稿が主眼とする文法規則の作成手順(図\ref{文法規則の記述の流れ})の説明の点から,幾分意図的であるが上記2例を取り上げた.}.\subsubsection{文法規則の拡張1}\label{文法規則の拡張1}(a)について文法規則の作成手順(図\ref{文法規則の記述の流れ})を適用してみる.「してはならない」「である」「わけだ」のように,モダリティ\footnote{この場合,叙述内容に対する書き手の判断様相.様相と同じモダリティの階層に属する.}を示す形態が雑多である.そこで認識的な構文機能を有する形態素($\varphi$判断様相(**)\footnote{(**)は判断様相という形態素に対応する具体的な文法機能の名前である.例えば,「である」だと`断定'である.}とする)を仮定する.「わけ」「ばかり」「の」などの形態が,文末のモダリティ表現のみならず,名詞化にも関わっていることから,形態素の多価値の問題を解消する必要がある.そこで文の階層構造を利用し,形態素($\varphi$判断様相)が属する階層をモダリティの階層に設定する.図\ref{文法規則の記述の流れ}のP1--P3--P1--P2--P4の流れに従うことで,$\varphi$判断様相(**)という形態素の出現位置ならびに,文に現れた異形態と構文機能を特定する文法規則が出来上がる.追加される文法規則は,扱おうとする文末の判断様相に関わるモダリティ表現の数に等しい.ここでは,表\ref{第一段階で分析できない言語現象}の文末のモダリティの項目に現れた形式的な名詞の分析をカバーするだけの規則数を追加する(規則数13).\subsubsection{文法規則の拡張2}\label{文法規則の拡張2}(b)については,「の」を形式的な体言に所属する助辞と考え,先に挙げた図\ref{文法体系構図}の中の述部からなる連体修飾句に関する文法規則を応用することで拡張が可能である.図\ref{文法規則の記述の流れ}における,(3)の場合に相当する.名詞化という文法機能は「の」だけでなく「こと」によっても実現されることから,名詞化を担う単一の形態素が見あたらない.$\varphi$名詞化(**)という認識的な構文機能に応じる形態素\footnote{この形態素は階層図ではアスペクトの層に属する.}を設定し,表層で具現した形態を「の」とする.そしてその異形態を「こと」とする.図\ref{文法規則の記述の流れ}においてP1--P3--P1--P4の手順で規則を作ることができる.文法規則は,述部からなる連体修飾句と$\varphi$名詞化(**)の依存関係,実質的には「の」,「こと」との依存関係から構成できる(規則数11).\subsection{第二版の文法規則による分析}\subsubsection{分析の結果}上述の手続きで作成した文法規則を加えた拡張版を第二版の文法規則とし,この文法規則を使って,再び同じ資料に対して分析を行った.その結果を表\ref{実験結果(2)}に示す.表\ref{第一段階で分析できない言語現象}で示した項目の「の」による名詞化1と形式名詞の名詞化2,ならびに文末のモダリティ表現に関わる言語現象の分析が可能になった.それぞれの分析対象の資料について,「拡張後の解析率」が示すように解析率が向上している.第二版の文法規則の分析能力が向上していることを確認した.一連の実験から適用分野の要求仕様に応じて,図\ref{文法規則の記述の流れ}で示した文法規則作成の手続きが繰り返し適用可能であることを確認した.\btb{実験結果(2)}\small\bt{|r||r|r|r|r|}\hline&\mltclm{2}{コラム「窓」}&\mltclm{2}{社説}\\\hline文章&\mltclm{1}{拡張後の}&解析率(\%)&\mltclm{1}{拡張後の}&解析率(\%)\\&解析率(\%)&&解析率(\%)&\\\hline1&18.8&6.3&38.0&24.1\\2&52.9&41.2&56.4&43.6\\3&58.8&41.2&46.2&26.9\\4&54.5&45.5&48.4&29.0\\5&68.4&47.4&42.9&14.3\\6&20.0&10.0&53.3&30.0\\7&57.9&57.9&55.9&32.4\\8&38.5&15.3&45.8&29.2\\\hline平均&46.2&33.1&48.4&28.7\\\hline\et\etb\vspace*{-2mm}形式名詞を使って叙述内容を書き手の判断の様相で締めくくる文章スタイルが論説文の特徴であることから,社説を対象とした資料で解析率の向上が著しいことがわかる.同機能の文法規則を追加しても,文章の性質によって解析率の向上に違いがみられた.このことは分析対象となる文章に対して,その表現上の性質の違いに応じて文法規則を選択的に適用することが,効率的な分析の実現につながることを示唆している.文法規則の分析能力は背景となる文法論に依存している.取り分け拡張の可能性については,分析対象とする文を,文法論がどのように定義するのかにかかわる.また,文法規則を拡張する時,その分析能力の漸増性が問題になる.一般に,文の一部分が,着目する表現内容を維持しながら別の文形に変わる場合,その変化した部分が,文法規則化の対象となる文型特徴を担っている.たとえば,例文(5),(6)は,「それを食べる」という表現内容を維持しつつ,それぞれ違った意味を担っている.「わけ」に導かれて文形が変化している.\begin{itemize}\baselineskip1.2em\item[(5)]「君がそれを食べるわけなのだ」\item[(6)]「君がそれを食べるわけがわかった」\end{itemize}ここで,仮に「わけ」を形態素として,構文構造と形態素の直接的な関係に基づいた抽象化を行い文法規則を作成する.\smallskip\begin{description}\baselineskip1.2em\item[規則]連体修飾構造の主名詞部分に「わけ」は位置する.この場合,「わけ」は,・「…という次第」,・「理由・事情」の意味がある.そして連体修飾構造を構成する述語部分と依存関係を持つ.\end{description}\smallskip{\noindent上記文法規則によれば,形態素「わけ」に対応する構文機能が2つ(それぞれ,・叙述に対する判断,・「わけ」による名詞化)あるので,例文(5)(あるいは例文(6))を解析すると2つの解析候補が得られる.}この曖昧さは,「わけ」によって表される言語現象の抽象化が不十分なために生じたものである.一般に曖昧さの解消は意味解析に委ねられることになるが,構文解析の段階で精度を上げようとして,一方の言語現象に適合させて分析能力を調整すれば,上記規則は基本的に2つの言語現象を分析対象にするから,必然的に他方の言語現象の分析に調整の影響が及ぶ.この意味で他と干渉する文法規則となっている.我々が提案する形態構文論的な作成法では次に示す手続きで規則化する.例文(5)の「わけ」が持つ意味「という次第」が示す構文機能は書き手の意図であることから,前節(\ref{文法規則の拡張1}節)で示した文法規則の拡張にあるように,$\varphi$判断様相という形態素を認め,この形態素と構文機能に直接の関係を持たせる.この言語現象の抽象化に機能的に働いている形態素が具体化した表層の形態は「わけ」となり,その異形態として「ばかり」「はず」がある.形態素($\varphi$判断様相)はモダリティの階層に属するから,例文(5)の「わけ」に前接する「それが食べた」は様相表現までの文法要素を含まなければならない(図\ref{連体修飾構造を構成する文法要素}の(a)).これに対して,例文(6)の「わけ」が持つ意味「理由・事情」が示す構文機能は名詞化であって,\ref{文法規則の拡張2}節で示した規則と同様である.この場合の認識的な形態素($\varphi$名詞化)は,アスペクトの階層にあるので,例文(6)の「わけ」に前接する「それで食べた」はアスペクト表現までの文法要素を含む(図\ref{連体修飾構造を構成する文法要素}の(b)).それぞれの形態素は所属する階層が違い,従って,形態素が機能する時の周囲の文法環境に違いが生じる.この違いがその形態素と直接的な関係を持つ構文構造を解析する規則の適用制限となって,例えば,例文(5)を解析する文法規則は,例文(6)の解析には失敗する.逆の場合も同様である.本作成法では,認識的な形態素の選定の妥当性を支持する表示デバイスに述部の階層構造を利用することで,互いに相反したり矛盾することのない文法規則を作る手続きを確立した.それは構文機能に結び付く形態素が正しく判断できていることが条件である.手続きでは,形態素の選択が正しい判断のもとに行なわれたか否かの指針を与えることはできていない.図\ref{文法規則の記述の流れ}の破線の四角で示す例外処理があるのはこのためである.\bfg\vspace{0.5mm}\epsfile{file=kisoku.eps}\vspace{0.5mm}\CAPLA{連体修飾構造を構成する文法要素}\vspace*{3mm}\parbox{100mm}{\small(a)図は,「君がそれを食べるわけなの(だ)」に対応する階層構造図である.破線は連体修飾句が含む文法要素に関連する階層を示している.(b)図は,同様に「君がそれを食べるわけが(分かった)に対応する階層構造図である.}\end{figure}線状に並ぶ形態素の,形の違いと相互連鎖の仕方にだけ注目すると曖昧となる言語現象も,文に階層構造を仮定することで,それを分析するための文法規則を作成できる.但し,形態素の曖昧性がこれだけに尽きるのではなく,修飾-被修飾の関係や音調の違い等をも基礎にして曖昧さを解消しているようである.個々の言語現象の曖昧性がそれぞれ何に起因しているのかを隅無く押えてゆくことが必要だろう.
\section{おわりに}
この稿では,文法規則の体系的な記述方法を提示した.まず,形態素と表層形態の概念区分をした上で,日本語の持つ階層構造に注目した.形態素の述部階層位置との関係から,表層での形態の現れ方を構文構造に結び付ける形態構文論的な文法作成のアプローチを採用し,文法規則の開発手続きを確立した.融通性を持ち容易に修正できることを例証するため,試作した文法規則を新聞の論説文の分析に適用し,分析の出来なかった言語現象を検討した.そして,その言語現象を取り上げて,これを新たな分析性能を満たす要求仕様と見なし,同じ手続きを用いて文法規則を拡張した.この結果,拡張した文法規則の分析性能が漸増していることを確認した.これまでにも何らかの設計の指針を使って文法規則の開発は行われてきた.しかし,それは,基本的な文法の枠組みがあるとしても,実際に文法規則を書くものの経験に基づく勘であったり,あるいは,言語現象ごとに規則を演繹する場合も,この言語現象についてはこのような文法規則の書き方,ある言語現象についてはこの規則に類似させる,というような体系性に欠けるものであった.こうした経験的な方法や,言語現象に依存する方法は,手順が明確でなくとも文法規則を記述してゆくことができるという意味で役に立つが,新しい言語現象に対応する文法を記述してゆく一般的な方法とはいい難い.文法規則を記述する際に,経験的な方法や言語現象に依存する方法を使って,適用分野の変化に応じてその都度文法規則を開発してゆくことは,コスト的にも,加えて文法規則の分析能力の不安定さの点からも避けることが望ましい.言葉は,分析対象が認識的なものであるために分析のために客観的な方法論が適用されにくく,アプリケーションの多様化に対応する客観的な文法規則の記述の手続きを求めることは困難な課題である.本稿では一アプローチとして\,(1)\,文法規則の開発手続きを手順化することによって展望を見いだそうとした.さらに,\,(2)\,その手順に従った文法規則の作成の試み,\,(3)\,計算機上への文法規則の実装による動作確認と文法規則の適用実験によって有効であることを確認した.これまで言語データは大学や企業内において収集が進められ,蓄積も進んでいる.国家的なプロジェクトとしてデータの蓄積を進める試みもある\cite{EDR}.しかしながら,そうした資料の資源保全についての取り組みは具体例をみない.ニーズの多様化に伴い,他の分野での言語データベースの有効活用を進めるためには,言語データベースを再利用する技術の開発を推進する必要がある.最後に,本稿で試作した中規模の文法規則は,そのすべてが公開されている.個々の文法規則はDCG\cite{fernando}記述のため,Prologの実行メカニズムをパージングの処理過程とすることができ,機械の種類に依存することがなく,Prologの動作するいかなる計算機においても利用が可能である.DCGについてもLangLAB\cite{徳永}ならびにSAX\cite{松本}といった無償公開ソフトウェアを利用することができる.そのためにパーサーを作る必要はない.\acknowledgment本稿に対してコメントをいただいた査読者に感謝する.\bibliographystyle{jnlpbbl}\newcounter{ichi}\newcounter{ni}\setcounter{ichi}{1}\setcounter{ni}{2}\begin{thebibliography}{[1]}\bibitem[\protect\BCAY{吉村,武内,津田,首藤}{吉村\Jetal}{1989}]{吉村}吉村賢治,武内美津乃,津田健蔵,首藤公昭\BBOP1989\BBCP.\newblock\JBOQ未登録語を含む日本語文の形態素解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf30}(3).\bibitem[\protect\BCAY{神岡,土屋,安西}{神岡\Jetal}{1989}]{神岡}神岡太郎,土屋孝文,安西祐一郎\BBOP1989\BBCP.\newblock\JBOQ述語複合体の生成と表現\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf30}(4).\bibitem[\protect\BCAY{奥}{奥}{1990}]{奥}奥雅博\BBOP1990\BBCP.\newblock\JBOQ日本文解析における述語相当の慣用表現の扱い\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf31}(12).\bibitem[\protect\BCAY{森岡}{森岡}{1984}]{森岡2}森岡健二\BBOP1984\BBCP.\newblock\JBOQ文法論の構想\JBCQ\\newblock「国語学」,136集.\bibitem[\protect\BCAY{吉岡}{吉岡}{1989}]{吉岡}吉岡武時\BBOP1989\BBCP.\newblock日本語文法入門.アルク.\bibitem[\protect\BCAY{渡辺}{渡辺}{1983}]{渡辺1}渡辺正数\BBOP1983\BBCP.\newblock教師のための口語文法.右文書院.\bibitem[\protect\BCAY{森岡}{森岡}{1987}]{森岡1}森岡健二\BBOP1987\BBCP.\newblock語彙の形成.明治書院.\bibitem[\protect\BCAY{鈴木}{鈴木}{1972}]{鈴木}鈴木重幸\BBOP1972\BBCP.\newblock日本語文法・形態論.むぎ書房.\bibitem[\protect\BCAY{宮地}{宮地}{1983}]{日本語1}宮地裕(編)\BBOP1983\BBCP.\newblock\JBOQ特集\意味と構文\JBCQ\\newblock日本語学,12月号,VOL.2,明治書院.\bibitem[\protect\BCAY{北原}{北原}{1981}]{日本}北原保雄(編)\BBOP1981\BBCP.\newblock日本文法事典.有精堂出版株式会社.\bibitem[\protect\BCAY{渡辺}{渡辺}{1974}]{渡辺}渡辺実\BBOP1974\BBCP.\newblock国語文法論.笠間書店.\bibitem[\protect\BCAY{芳賀}{芳賀}{1979}]{芳賀}芳賀やすし\BBOP1979\BBCP.\newblock日本文法教室.教育出版,東京.\bibitem[\protect\BCAY{寺村}{寺村}{1984}]{寺村1}寺村秀夫\BBOP1984\BBCP.\newblock日本語のシンタクスと意味第\Roman{ichi}巻.\newblockpp.202--321,くろしお出版,東京.\bibitem[\protect\BCAY{山口}{山口}{1987}]{山口}山口明穂編集\BBOP1987\BBCP.\newblock国文法講座\6\\時代と文法--現代語.明治書院.\bibitem[\protect\BCAY{南}{南}{1974}]{南}南不二男\BBOP1974\BBCP.\newblock現代日本語の構造.大修館書店.\bibitem[\protect\BCAY{佐伯}{佐伯}{1983}]{佐伯}佐伯哲\BBOP1983\BBCP.\newblock\JBOQ語順と意味\JBCQ\\newblock日本語学,12月号,VOL2.\bibitem[\protect\BCAY{仁田}{仁田}{1988}]{仁田}仁田義雄\BBOP1988\BBCP.\newblock\JBOQ「文の構造」\JBCQ\\newblock講座\日本語と日本語教育\第4巻,pp.25--52,明治書院.\bibitem[\protect\BCAY{EDR}{EDR}{1993}]{EDR}EDR電子化辞書仕様説明書\BBOP1993\BBCP.\newblock(株)日本電子化辞書研究所.\bibitem[\protect\BCAY{Fernando,Pereira,David,Warren}{Fernandoet~al.}{1980}]{fernando}Fernando,C.,Pereira,N.,DavidH.,and\Warren,D.\BBOP1980\BBCP.\newblock\JBOQDefiniteclauseGrammarsforLanguageAnalysis--ASurveyoftheFormalismandaComparisonwithAugmentedTransitionNetworks\JBCQ\\newblockArtificialIntelligence13(3)pp.231--278.\bibitem[\protect\BCAY{徳永}{徳永}{1988}]{徳永}徳永健伸\BBOP1988\BBCP.\newblock\JBOQLangLAB\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf7},(29).\bibitem[\protect\BCAY{松本・杉村}{松本\Jetal}{1986}]{松本}松本・杉村\BBOP1986\BBCP.\newblock\JBOQ論理型言語に基づく構文解析システムSAX\JBCQ\\newblock\Jem{コンピュータソフトウェア},Vol.3,No.4,pp.308--315.\end{thebibliography}\setcounter{figure}{0}\setcounter{table}{0}\appendix\small\subsection*{形態素の分類一覧}\bfg\epsfile{file=goki.eps,height=50mm,width=70mm}\efg{形態素の分類一覧}\subsection*{言語現象の抽象化の手段に対応する形態素}左の欄に代表的な形態素を挙げて,右欄には形態素が担う機能に対する言語現象の説明を簡略に挙げている.他にもいくつかの助辞とその助辞に対応する言語現象がある.\btb{言語現象の抽象化の手段に対応する形態素}\footnotesize\bt{|p{55mm}|p{75mm}|}\hline\mltclm{1}{形態素(助辞)}&\mltclm{1}{言語現象との対応}\\\hlineが,を,に&用言に内在する論理関係の構成に関与する要素を表示する\\\hlineへ,と,で,より,から,によって,にとって,$\cdots$&用言が示す事柄を,制限的に修飾する要素を表示する\\\hlineは&提題要素を表示し,用言が示す事柄を非制限的に修飾する要素を表示する\\\hlineも,こそ,さえ,でも,しか,$\cdots$&対比的な要素を表示し,用言が示す事柄を非制限的に修飾する\\\hlineほど,くらい,ばかり,$\cdots$&前接する体言を制限的に修飾する\\\hlineる,た,るだろう,ただろう,よう,まい,$\cdots$&叙述する表現内容が現在,未来の出来事であるのか,過去,完了の出来事であるのかを区分する.話し手の叙述の内容の確からしさを示す度合いを表示する\\\hlineて,れば,たら,と,ても,たって,だって,$\cdots$&用言で示される出来事間の因果関係を表示する\\\hlineれ(る),させ(る)&用言に内在する論理関係の構成に関わる要素を替える\\\hlineい(る),あ(る),つつあ(る),てやが(る),$\cdots$&用言で示される出来事の時間的な継続状態を示す\\\hlineはじめ(る),おわ(る),つづけ(る),$\cdots$&用言で示される出来事の時間的な変化状態を示す\\\hlineい(く),く(る),み(る),$\cdots$&用言で示される出来事への話し手の関与状態を示す\\\hlineい,かった,いだろう,かっただろう,$\cdots$&叙述する表現内容が現在,未来に認められる属性であるのか,過去,完了に認められる属性であるのかを区分する.話し手の叙述の内容の確からしさを示す度合いを表示する\\\hlineく,しければ,いかったら,と,くても,$\cdots$&用言で示される属性間の関係を表示する\\\hlineだ,だった,だろう,だっただろう,$\cdots$&叙述する表現内容が現在,未来に認められる状態であるのか,過去,完了に認められる状態であるのかを区分する.話し手の叙述の内容の確からしさを示す度合いを表示する\\\hlineな(い),ず,ん&否定的な叙述を構成する\\\hlineま(す),で(す),くださる,なさる,$\cdots$&叙述の表現の文体を変える\\\hlineる,た,い,かった,だった,な,$\cdots$&後接する体言を制限的に修飾する\\\hline\et\etb\subsection*{文法規則の種類とその数}\btb{文法規則の種類と数(1)}\footnotesize\bt{|p{100mm}|p{10mm}|}\hline\mltclm{1}{文法規則のタイプ}&\mltclm{1}{規則数}\\\hline文の認可規則&1\\遂行形式の認可規則-1-&4\\「提題--叙述」構造の分析規則-1-&108\\文境界規則&2\\文法機能の規定値付与規則&41\\事態構造の認可規則&2\\述部構造の構成規則&3\\語基から語への構成規則&1\\「提題--叙述」構造の分析規則-2-&4\\「提題--叙述」構造の分析規則-3-&4\\ムード値付与規則&29\\文境界規則&6\\基本否定辞分析規則&17\\基本アスペクト辞分析規則&2\\二次アスペクト辞分析規則&10\\基本アスペクトの二次相の分析規則&33\\「提題--叙述」構造の分析規則-3-&11\\「提題--叙述」構造の分析規則-4-&4\\文体変化分析規則-1-&8\\意志否定辞分析規則&6\\文体変化分析規則-2-&8\\文体変化派生規則&33\\動作性の体言からの用言構成規則&6\\「提題--叙述」構造の分析規則-5-&8\\一般体言句の構成規則&3\\「格補語--述部」依存構造の分析規則&5\\「提題句--述部」依存構造の分析規則&3\\体言からの述部構成規則&3\\態変化分析規則&22\\状態変化述語「にする」「になる」の構成&10\\接尾辞の付与による体言句構成規則&3\\\hline\et\etb\btb{文法規則の種類と数(2)}\footnotesize\bt{|p{100mm}|p{10mm}|}\hline\mltclm{1}{文法規則のタイプ}&\mltclm{1}{規則数}\\\hline連体修飾句の依存構造の分析規則&7\\連体句の構成規則&53\\連体句の依存関係&7\\「一般補語--述部」依存構造の分析規則&3\\副詞句の述部への依存構造の分析規則&4\\連用修飾句の構成規則&10\\付帯状況を示す連用句の述部への依存構造の分析規則&65\\体言からの連用句の構成規則&1\\「取り立て句--叙述」依存構造の分析規則&3\\「並列句--述部」依存構造の分析規則&6\\「従属句--述部」依存構造の分析規則&36\\「接続助辞でマークされる従属句--述部」の依存構造の分析規則&6\\「条件形の従属句--述部」依存構造の分析規則&49\\「仮定形の従属句--述部」依存構造の分析規則&43\\「並立形の従属句--述部」依存構造の分析規則&24\\「並列形(属性)従属句--述部」依存構造の分析規則&7\\「接続句--述部」依存構造の分析規則&3\\遂行形式の認可規則-2-&6\\\hline\et\etb\bfg{\footnotesize\begin{verbatim}(1)sentence(..,[態度(X,P)|REL],..)-->用言_5(..,[態度(X,P)|REL],..).(2)用言_5(..,[態度(X,中立),様相(X,平叙)|REL],..)-->用言_5(..,[様相(X,平叙)|REL],..).(3)用言_5(..,[態度(X,中立),様相(X,推量)|REL],..)-->用言_5(..,[様相(X,推量)|REL],..).(4)用言_5(..,[態度(X,表明),様相(X,意志)|REL],..)-->用言_5(..,[様相(X,意志)|REL],..).(5)用言_5(..,[態度(X,表明),様相(X,依頼)|REL],..)-->用言_5(..,[様相(X,依頼)|REL],..).(6)用言_5(..,[様相(Y,平叙),認め方(Y,肯定),content(..,[ムード(X,未完了)|REL],..),..)-->用言_4(..,[ムード(X,未完了)|REL],..).(7)用言_5(..,[様相(Y,平叙),認め方(Y,肯定),content(..,[ムード(X,完了)|REL],..),..)-->用言_4(..,[ムード(X,完了)|REL],..).(8)用言_5(..,[様相(Y,推量),認め方(Y,肯定),content(..,[ムード(X,未完了)|REL],..),..)-->用言_4(..,[ムード(X,未完了推量)|REL],..).(9)用言_5(..,[様相(Y,推量),認め方(Y,肯定),content(..,[ムード(X,完了)|REL],..),..)-->用言_4(..,[ムード(X,完了推量)|REL],..).(``様相''は,文法機能を示し,``平叙'',``推量''は認識的な形態素を示す``content''は文の叙述部分の構文情報と依存構造が含まれる.``REL''はいわゆるProlog変数で,情報が単一化されることを表している.)(10)用言_4(..,[ムード(X,未完了)|REL],..)-->用言_4(..,[ムード(X,-)|REL],..),[る].(11)用言_4(..,[ムード(X,完了)|REL],..)-->用言_4(..,[ムード(X,-)|REL],..),[た].(12)用言_4(..,[ムード(X,未完了推量)|REL],..)-->用言_4(..,[ムード(X,-)|REL],..),[るだろう].(13)用言_4(..,[ムード(X,完了推量)|REL],F,PRO)-->用言_4(..,[ムード(X,-)|REL],..),[ただろう].(14)用言_5(..,[様相(Y,意志),認め方(Y,肯定),content(..,[ムード(X,未完了)|REL],..),..)-->用言_4(..,[ムード(X,-)|REL],..),[よう].(15)用言_5(..,[様相(Y,意志),認め方(Y,否定),content(..,[ムード(X,未完了)|REL],..),..)-->用言_4(..,[ムード(X,-)|REL],..),[まい].(16)用言_5(..,[様相(Y,依頼),認め方(Y,肯定),content(..,[ムード(X,未完了)|REL],..),..)-->用言_4(..,[ムード(X,-)|REL],..),[ろ].(17)用言_5(..,[様相(Y,依頼),認め方(Y,否定),content(..,[ムード(X,未完了)|REL],..),..)-->用言_4(..,[ムード(X,-)|REL],..),[るな].\end{verbatim}}\CAPLA{文法規則例}\vspace*{3mm}\parbox{100mm}{\smallこの文法規則の例は,文の分析に対応する.説明のために規則の番号を書き入れている.さらに説明に関係しない部分は省略(``..'')してある.様相形態素を認識する規則は,(6)$\sim$(9)である.(10)$\sim$(13)は,「る」「た」「るだろう」「ただろう」の形態を処理する規則で,ムード形態素が示す文法特徴を反映している.(14)$\sim$(17)は「よう」$\sim$「るな」の形態に対する分析規則である.(1)は文の認可規則で,話し手の判断が現れている述部を文として認可している.なお,規則名(用言\_5,用言\_4など)に見られる添え字は,階層位置を数字で示している.}\end{figure}\normalsize\begin{figure}[tb]\begin{biography}\biotitle{略歴}\bioauthor{佐野洋}{1985年豊橋技術科学大学大学院情報工学専攻修了.同年(株)東芝入社.総合研究所に勤務.1988年6月より(財)新世代コンピュータ技術開発機構へ出向.1992年10月より(株)東芝関西研究所に勤務.1996年4月より東京外国語大学外国語学部人文系講師,現在に至る.自然言語処理の研究に従事.情報処理学会会員.}\bioauthor{福本文代}{1986年学習院大学理学部数学科卒業.同年沖電気工業(株)入社.総合システム研究所に勤務.1988年10月より(財)新世代コンピュータ技術開発機構へ出向.1992年よりマンチェスタ工科大学計算言語学部修士課程入学,翌年終了.同大学客員研究員を経て,1994年4月より山梨大学工学部電子情報工学科助手,現在に至る.自然言語処理の研究に従事.情報処理学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\vspace*{130mm}\end{figure}\end{document}
| |
V15N04-01 | \section{はじめに}
本研究の目的は,歴史資料(史料)から歴史情報を自動抽出する方式を確立すること,および歴史知識を構造化するためにその抽出結果を歴史オントロジーとして構築し,提供することにある.歴史研究は史料内容の解読から始まる.そのために史料の収集・翻刻(楷書化)・解読の作業が伴う.ただし,史料の形態・記述は多様であり,翻刻・解読には相当の知識と経験を必要とする.国内には未解読の史料が未だ多数存在する.一方,これまでに解読された結果についても電子化されていない,あるいは機関・個人など個別に存在するために各史料を共用できないという問題があり,歴史事象の関連性の解明,すなわち歴史研究の推進そのものに支障をきたしている.この種の問題解決のために,すなわち歴史知識の構造化のために歴史オントロジーの提供が求められている.われわれは,歴史研究のより一層の推進を目的として「歴史オントロジー構築プロジェクト」を実施している.本プロジェクトは,史料を電子化する,史料に記載されている情報を抽出,構造化して歴史オントロジーを構築する,歴史オントロジーを利用した検索・参照システムを構築するという3つの手順によって構成されている.本プロジェクトを具現化するための史料として『明治前日本科学史』(日本学士院編・刊行,全28巻)を対象に歴史オントロジーを構築する.当刊行史料は,明治前日本科学史の編纂を目的に昭和15年に帝国学士院において企図され,昭和35年に最初の巻が出版され,昭和57年に28巻目の刊行によって現在,完結している.本史料をより有効に活用するため,全巻の電子化および研究目的の利用・提供に関して日本学士院の許諾を得て,電子化に着手した.本史料は公的性が高く,歴史研究の推進という本研究の目的に適合するものである.本史料から日本の科学技術を創成してきた明治前の人物に関する情報を抽出,構造化することにより歴史オントロジーを構築する.本研究では,プロジェクトの第一歩として,『明治前日本科学史』のうちの1巻『明治前日本科学史総説・年表』の本文を電子化したテキストから,人物の属性として人名とそれに対する役職名と地名,人物の業績として人名とそれに対する書名を抽出する.機械学習に基づく情報抽出によって十分な精度を得るには大量の正解データを作成する必要があり,多大な時間がかかることから,本研究ではルールベースの手法によって人物に関する情報を抽出する.本稿では,2章で歴史オントロジー構築プロジェクトの全体像を示す.3章で人物に関する情報を抽出する手法について説明し,4章で実際に評価実験を行い,その結果を考察する.最後に5章で本研究の結論を示す.
\section{歴史オントロジー構築プロジェクト}
歴史研究において,史料はその手がかりとなる重要な資源であるにも関わらず,多くの史料が電子化されておらず,また電子化されていたとしても利用しやすい形で提供されていない場合が多いという問題がある.東京大学史料編纂所では史料をデータベース化し,キーワードなどの条件で検索可能なシステムを提供する取り組みを進めており,これまでにその一部が「東京大学史料編纂所データベースSHIPS」\cite{ships}として公開されている.このシステムで提供されているデータベースには,史料中の文や図が掲載されている箇所(巻やページなど),記述された出来事の日付,図に描かれた人物の名前などのメタデータが付与されているものもある.しかし,これらのメタデータのほとんどを人手で付与しているため,データベースの構築に多大な時間を費やしている.また,上記以外のメタデータ,たとえば出来事が発生した場所,人物の役職や著作といった情報はほとんど付与されていないため,「ある人物が執筆した著作の年代順一覧」などのように,検索条件や出力内容に様々な種類の情報を指定した複雑かつ柔軟な検索を行うことができない.われわれは歴史研究のより一層の推進を目的として,史料に記載されている多様な情報をより効率的に抽出,構造化して歴史オントロジーを構築することにより,広範な歴史情報を様々な形で利用可能とするためのプロジェクト「歴史オントロジー構築プロジェクト」を進めている.本章では,本プロジェクトの全体構成,および本プロジェクトにおける歴史オントロジーの詳細について説明する.\subsection{プロジェクトの全体構成}本プロジェクトは,史料の電子化,電子化されたデータからの歴史オントロジーの構築,歴史オントロジーを利用した史料の検索・参照システムの構築という3つの手順によって構成されている(図\ref{fig:arch}).まず,史料を電子化する.対象となる史料は印刷物として刊行されている『明治前日本科学史』全28巻である.史料の電子化においては,その利用目的に応じた電子化方式を確立する必要がある.たとえば,史料の見た目をそのまま復元すればよいのであれば高い解像度でスキャンした画像を蓄積すればよいが,それだけではキーワードによる検索ができない.また,史料中の文を単にテキスト化するだけでは,年代や人名などの情報を利用した検索や図の参照ができない.複雑かつ柔軟な検索を実現するには,史料に記述された文や掲載されている表や図について,できるだけ論理的な構造を保持したままXMLなどの構造化文書の形式で電子化する必要がある.たとえば文については,文字のテキスト化における外字の表現や,文のテキスト化における章や節,箇条書きなどの論理構造の表現といった課題がある.また,表や図については,表構造の表現,タイトルや説明文との関係付け,文中で参照している箇所との関係付けなどが検討課題となる.\begin{figure}[t]\begin{center}\includegraphics{15-4ia1f1.eps}\caption{歴史オントロジー構築プロジェクトの全体構成}\label{fig:arch}\end{center}\end{figure}次に,電子化されたデータから歴史情報を抽出し,構造化することにより歴史オントロジーを構築する.歴史オントロジーの内容と構築手順については次節以降で述べる.最後に,歴史オントロジーを利用した史料の検索・参照システムを構築する.歴史オントロジーがもつ情報を最大限に活用し,歴史研究に必要とされる様々な観点での検索の実現,利用者が必要とする情報を分かりやすく表示する検索結果の可視化,使いやすいユーザインタフェースなどが検討課題としてあげられる.また,検索・参照機能を提供するだけではなく,歴史オントロジーそのものをRDFなどの形式で公開し,利用者が自由に利用できるようにすることも計画している.\subsection{歴史オントロジーの定義}本プロジェクトの対象となる史料『明治前日本科学史』には,主に明治よりも前の時代における日本の科学・技術の成果に関する史実(歴史的事実)が,図や表とともに各事項について時系列で記述されている.史実としては,各時代の科学・技術の推移やその内容,および科学者の業績などの人物に関する情報(以下,人物情報)が大部分を占める.特に人物情報は歴史研究におけるニーズが高く,人物情報を検索・参照可能とすることは歴史研究への貢献度が高いと考える.そこで,人物情報を可能な限り漏れなく抽出することを本プロジェクトの目標のひとつとする.ただし,史料中には一部史実でない記述,たとえば推測,疑問,感想などが記述されており,これらは抽出対象外とする.『明治前日本科学史総説・年表』における科学者の業績に関する記述部分の抜粋を図\ref{fig:desc}に示す.\begin{figure}[t]\begin{center}\includegraphics{15-4ia1f2.eps}\caption{『明治前日本科学史総説・年表』における科学者の業績に関する記述部分の抜粋}\label{fig:desc}\end{center}\end{figure}抽出した情報を様々な形で利用可能とするためは,資料中の文や図などをそのまま抽出して,キーワードで検索できるようにしたり一覧表示したりするだけでは不十分であり,人名で検索したり書名を一覧表示したりといった,様々な種類の概念に基づく検索や参照が必要となる.この要件を実現するため,各種の概念を史料から抽出し,それらを構造化してオントロジーとして蓄積する.以降,史料から抽出した人物情報を格納したオントロジーを「歴史オントロジー」とよぶ.オントロジーについては,哲学をはじめとした様々な観点からの定義が提案されている\cite{mizoguchi1997}が,人工知能分野においては「概念間の関係を記述することによって知識を体系化したもの」と定義づけられることが多い.たとえばStandardUpperOntologyWorkingGroup\cite{suo}では,オントロジーは概念(concepts),関係(relations),公理(axioms)の3つの要素によって構成されており,これらの構成要素によって,ある分野に関する事物や構造を記述できるとしている.本稿では,この説明に基づいて歴史オントロジーを定義する.歴史オントロジーで対象とする分野は日本の科学史である.「概念」は,人物情報を構成する各要素である.人物情報は,人物自体を指す情報,人物の属性,人物の業績の3種類に大きく分類される.人物自体を指す情報としては人名,写真,似顔絵などが,人物の属性としては役職,出身地,生没年,家族関係などが,業績としては著作,建造物,訪問先などがあげられる.したがって,歴史オントロジーにおける「概念」,すなわち人物情報の構成要素としては,人物,写真,役職,年代,書籍,建造物,場所などがあり,概念どうしを結ぶ関係としてはたとえば以下のものがあげられる.\begin{itemize}\item人物から写真への「写真」という関係\item人物から年代への「生年」という関係\item人物から書籍への「著作」という関係\item書籍から年代への「発行年」という関係\end{itemize}本プロジェクトで抽出対象とする歴史オントロジーの概念や関係の全体像については現在検討中であるが,これまでに候補としてあがっている概念どうしを結ぶ関係の一部を表\ref{table:ontology}に示す.なお,表\ref{table:ontology}において概念間の階層関係はない.\begin{table}[t]\caption{歴史オントロジーにおける,概念どうしを結ぶ関係(一部)}\label{table:ontology}\begin{center}\input{01table01.txt}\end{center}\end{table}本プロジェクトでは基本的に各概念のインスタンスをその名前で表し,写真などの画像データは「人物」という概念とは別の概念として「写真」などの関係で結ぶ.したがって,人物情報のうち,人名は「人物」という概念のインスタンスとして,それ以外の情報は概念のインスタンスどうしを結ぶ関係として表現される.「公理」は概念や関係が満たす制約条件であり,概念間の階層関係や,ある概念がもつ各関係の数(たとえば「一人の人物は生年を一つだけもつ」)などがあげられる.\subsection{歴史オントロジーの構築手順}歴史オントロジー構築の最終目標は,『明治前日本科学史』全28巻を電子化し,そこから人物情報を高精度に抽出することである.しかし,以下のような問題があるため,それを一度に実施するのは膨大な時間がかかる上に非効率的である.\begin{itemize}\item人物情報には様々なものがあり,抽出すべき情報を決めるのには時間がかかる.\item全28巻の電子化,特に写真や図表などの画像を電子化するのには時間がかかる.\item高精度な抽出方式を確立するには,仮説と検証を繰り返す必要があり時間がかかる.\end{itemize}そこで,以下の手順で段階的に歴史オントロジーを構築する.\begin{enumerate}\item数巻程度の本文をテキスト形式で電子化する.\item電子化されたテキストを対象として,人物情報のうち特に歴史研究に必要とされる情報を高精度に抽出する方式を確立する.\item全巻について,テキストと画像の両方を電子化する.\item全巻の電子化データを対象として,(2)と同様に人物情報のうち特に歴史研究に必要とされる情報を抽出する.\item抽出する人物情報を拡大し,全巻を対象として様々な人物情報を高精度に抽出する方式を確立する.\end{enumerate}われわれは現在,上記の手順のうち(1),(2)について取り組みを進めている.また(3)のうち,画像の電子化方法について検討中である.
\section{人物情報の抽出}
本研究では,『明治前日本科学史』全28巻のうちの1巻『明治前日本科学史総説・年表』を対象として,人名,人物の属性として人名とそれに対する役職名と地名,および人物の業績として人名とそれに対する書名を抽出する.これらは基本的かつ重要な情報であり,また史料中の記述量も多いため評価実験で多くの知見が得られる見込みが高い.役職名には,「将軍」のような官職(役人の職業)の名前と「医師」のような一般の職業名の2種類がある.地名には,その人物の出身地,所属する組織の地域,国籍などがあり,歴史研究への活用のためにはそれらが区別されている方が好ましいが,本研究では区別せず,すべて地名として抽出する.ある人物の役職名や地名は時間の経過にしたがって変化する場合があるため,一人に対し複数の役職名や地名が抽出されることがある.したがって,人物の役職名と地名の抽出結果は,〈人名,役職名〉,〈人名,地名〉のいずれかの組の列として表現される.書名についても,一人が複数の書籍を書く場合があるため,人物が書いた書籍の抽出結果は,〈人名,書名〉の組の列として表現される.人名のような固有表現を抽出する方法については,大きく分けてルールベースの手法\cite{rau1991}と機械学習に基づく手法\cite{asahara2003,maccallum2003}の2種類が提案されている.機械学習に基づく手法は,学習のための正解データが必要となる.史料には人名の索引が掲載されているが,科学者のみが掲載の対象となっており政治家の人名は含まれない.また,史料の文中には姓や名のみが出現する場合がある.索引の人名は姓名(フルネーム)のみであるため,姓や名を人名として抽出するのは困難である.したがって,史料の正解データを作成するのには膨大な時間を必要とする.IREX\cite{sekine2000}の公開データなどの人名タグ付きコーパスを正解データとして利用する方法もある.しかし,上記のコーパスは1994年から1995年の新聞記事を対象としている.一方,史料中の人名は主に明治よりも前の時代のものであり,人名を構成する文字や形態素が大きく異なるため,高い抽出精度の実現を期待できない.そこで,本研究では,ルールベースの手法により人名を抽出する.また,人物に対する役職名のような関係を抽出する情報抽出についても,ルールベースの手法と機械学習に基づく手法\cite{sudo2003,greenwood2005}の2種類があるが,上記の固有表現抽出と同様の理由で,ルールベースの手法により人物の属性や業績を抽出する.人名の抽出手順としては,人手で作成した形態素列の抽出パターンを利用したパターンマッチングによって人名を抽出したあと,大域的情報を利用してさらなる人名の抽出と名寄せを行う.また,人物の属性と業績もパターンマッチングによって抽出する.これらの手法について以下に説明する.\subsection{形態素列のパターンマッチングによる情報抽出}\begin{figure}[b]\begin{center}\includegraphics{15-4ia1f3.eps}\caption{形態素列のパターンマッチングによる情報抽出手順}\label{fig:matching}\end{center}\end{figure}図\ref{fig:matching}に示す手順で形態素列のパターンマッチングによる情報抽出を実行する.まず,史料中の文に対して形態素解析を実施する.その結果に対して,各形態素の出現形,基本形,品詞,字種などの情報を用いて,正規表現に似た形式で形態素列を表現したパターンにマッチする形態素列を抽出する.このとき,形態素列のパターンがパターンマッチング処理に埋め込まれていると,パターンの修正にともなうパターンマッチング処理の修正に時間がかかる.そこで,形態素列のパターンとパターンマッチング処理を分離し,パターンのみを修正すれば,それに応じたパターンマッチング処理が実行できるようにした.たとえば,図\ref{fig:matching}の抽出パターンの1行目は,「名詞—固有名詞—地域」の品詞をもつ形態素と基本形が「都」「府」「県」のいずれかの形態素からなる形態素列(たとえば「岩手県」),あるいは基本形が「北海道」である形態素のいずれかにマッチし,\|PREF|というタグを付与することを意味する.人物の属性や業績のように,固有表現どうしの関係を抽出する際は,固有表現(人名,役職名,地名,書名)を抽出するパターンとそれらをまとめあげるパターンを作成し,固有表現を抽出した後でそれらをまとめあげるという二段階の処理を行う.パターンマッチングによる情報抽出については,情報抽出に関する評価型会議であるMUC\cite{grishman1996}をはじめとして様々な手法が提案されている.たとえば,\cite{nishino1998}では本稿と同様に人名とその職業名を抽出しており,その際,職業名のリストや人名の直後に出現する「さん」といった語句を手がかり句を利用している.われわれの抽出パターンでは,このような手がかり句に加えて,人名などの固有表現を構成する形態素の特徴も利用している.固有表現を抽出するパターンに利用した主な特徴を表\ref{table:feature}に示す.なお,「パターンの例」は実際のパターンを分かりやすいように一部書き換えてある.たとえば,表\ref{table:feature}の上から2番目のパターンの例では,構成する形態素の字種を利用することにより,「ウィリアム・アダムズ」のようなカタカナを含む人名を抽出できる.また,『明治前日本科学史』には古い時代の人名が数多く出現し,形態素解析誤りが頻繁に発生する.たとえば,「桂川甫周」を形態素解析すると,「桂川」は品詞が「人名—姓」の形態素となるが,「甫」と「周」はそれぞれ別の形態素に分割されてしまう.このような場合,表\ref{table:feature}の上から3番目のパターンの例のように,形態素の文字数を指定することにより,「桂川甫周」を人名として正しく抽出できる.\begin{table}[b]\caption{形態素列のパターンに利用した主な特徴}\label{table:feature}\begin{center}\input{01table02.txt}\end{center}\end{table}固有表現をまとめあげるパターンについては,固有表現と固有表現の間やその前後に出現する形態素の特徴をもとにパターンを作成した.人名と地名をまとめあげるパターンとそれにマッチする形態素列の例を表\ref{table:pattern}に示す.パターンの例において,\|$PERSON|,\|$PLACE|はそれぞれすでに抽出された人名,地名の形態素列を表す.固有表現を抽出するパターンとそれらをまとめあげるパターンをあわせ,全部で約90個の抽出パターンを作成した.\subsection{大域的な情報を利用した情報抽出と名寄せ}人手で作成した形態素列のパターンを利用したパターンマッチングによって人名を抽出する場合,すべての人名を抽出するためのパターンを網羅的に記述することは困難であり,多くの抽出漏れが発生してしまう.そこで,パターンマッチングによる抽出結果に対し,大域的な情報を利用して抽出漏れを削減する.\begin{table}[b]\caption{人名と地名をまとめあげるパターンの例}\label{table:pattern}\begin{center}\input{01table03.txt}\end{center}\end{table}\begin{figure}[b]\begin{center}\includegraphics{15-4ia1f4.eps}\caption{大域的な情報を利用した情報抽出と名寄せの例}\label{fig:global}\end{center}\end{figure}史料中に出現する人名は,初出時は姓名(フルネーム)で出現し,その後方で同一人物を表す人名が姓名,姓,名のいずれかの形で出現することが多い.そこで,形態素列のパターンマッチングによる人名の抽出結果に対し,さらに追加で人名の候補となる形態素列をパターンマッチングにより抽出し,その中で人名となる形態素を判定する.人名の候補となる形態素列として,漢字のみで構成される形態素が連続する形態素列,およびカタカナのみで構成される形態素列と「・」(ナカグロ)が交互に出現する形態素列を抽出する.抽出された人名の候補のうち,以下のいずれかの条件を満たすものを人名と判定する.\begin{description}\item[条件a]任意の箇所に出現する人名と同じ文字列の形態素列\item[条件b]ある箇所に出現する人名よりも後ろに出現し,かつその人名の先頭または末尾の部分文字列となっている形態素列\end{description}条件bに合致する形態素については,その前に出現する(フルネームの)人名と同一人物であるという判定(名寄せ)も同時に行う.大域的な情報を利用した情報抽出と名寄せの例を図\ref{fig:global}に示す.条件aにより,一番上の「藤林普山」が人名と判定される.また条件bにより,「良沢」と「藤林」が人名と判定され,さらに「良沢」は「前野良沢」と,「藤林」は「藤林普山」とそれぞれ同一人物であると判定される.
\section{評価実験}
史料からの人名,人物の属性,人物の業績の抽出精度を評価する実験を行った.\subsection{実験条件}評価用データとして『明治前日本科学史総説・年表』の本文(5096文,約21万8千字)を使用し,人名,人物の属性(人名とそれに対する役職名と地名),人物の業績(人名とそれに対する書名)の抽出精度を評価した.評価のための正解作成にあたっては,システムが抽出した誤りや漏れを人手で修正することにより,すべての情報を人手で抽出するのと比べて短時間で正解を作成することができた.人名については,パターンマッチングのみを行った場合と,パターンマッチングのあと大域的な情報を使って抽出漏れを削減した場合の精度を評価した.また,現代の文書を対象に機械学習を行う手法として,CaboCha\footnote{http://chasen.org/\~{}taku/software/cabocha/}の固有表現抽出機能において,CaboChaに付属する,毎日新聞記事のタグ付きコーパスで学習したモデルを使って人名を抽出した場合との精度を比較した\footnote{CaboChaの固有表現抽出機能は地名も抽出可能だが,今回は比較対象としなかった.今後の課題としたい.}.パターンマッチング,CaboChaとも形態素解析にはChaSen\footnote{http://chasen.naist.jp/hiki/ChaSen/}を利用した.人物の属性と人物の業績については,パターンマッチングのみを行った場合の精度を評価した.人物の属性については,人名とそれに対する役職名として〈人名,役職名〉の組を,人名とそれに対する地名として〈人名,地名〉の組を抽出し,その抽出精度を評価した.また人物の業績については,人名とそれに対する書名として〈人名,書名〉の組の抽出精度を評価した.評価尺度として,以下の式で算出される再現率,適合率,F値を測定した.\[再現率R=\frac{一致件数}{正解件数},\hspace{1em}適合率P=\frac{一致件数}{出力件数},\hspace{1em}F値=\frac{2PR}{P+R}\]上記の件数の算出にあたっては,人名については出現箇所を区別し,人物の属性と人物の業績については出現箇所を区別せず算出した.たとえば人名の正解については,同じ人名が複数の箇所に出現する場合はそれぞれ別のものとして正解件数をカウントした.また,出力された人名を正解と比較し,同じ人名が同じ箇所に出現する場合にのみ一致するとして,一致件数を算出した.逆に人物の業績については,同じ〈人名,書名〉の組が複数の箇所から抽出された場合,それらをまとめて1とカウントした.\subsection{実験結果}人名の抽出結果について,パターンマッチングのみを行った場合,パターンマッチングのあと大域的な情報を利用した場合,およびCaboChaを使った場合の結果を表\ref{table:result_person}に示す.もっとも精度の高いものを太文字の数字で表している.また,役職名,地名,書名の抽出結果について,パターンマッチングのみを行った場合の結果を表\ref{table:result_other}に示す.\begin{table}[b]\caption{人名の抽出結果の比較}\label{table:result_person}\begin{center}\input{01table04.txt}\end{center}\end{table}\begin{table}[b]\caption{役職名,地名,書名の抽出結果(パターンマッチングのみ)}\label{table:result_other}\begin{center}\input{01table05.txt}\end{center}\end{table}\subsection{考察}人名の抽出精度については,パターンマッチングのあと大域的な情報を使った場合がもっとも高い精度であった.パターンマッチングのみの場合の精度と比較すると,適合率が若干下がったものの,再現率が大幅に向上しており,大域的な情報を利用することによって抽出漏れを削減できたことが分かる.CaboChaを使った場合のF値は0.702であった.現代の日本語の文書を対象として機械学習を行った場合の人名の抽出精度は0.87前後と報告されている\cite{asahara2003}.本実験の抽出対象文書である史料に出現する人名は,現代の人名と比べて人名を構成する文字や形態素が大きく異なることが,CaboChaを使った場合の抽出精度が低かった原因と考える.\begin{table}[t]\caption{役職名の抽出漏れの例}\label{table:loss_position}\begin{center}\input{01table06.txt}\end{center}\end{table}\begin{table}[t]\caption{地名の抽出漏れの例}\label{table:loss_place}\begin{center}\input{01table07.txt}\end{center}\end{table}\begin{table}[t]\caption{書名の抽出漏れの例}\label{table:loss_book}\begin{center}\input{01table08.txt}\end{center}\end{table}役職名,地名,書名の抽出精度はいずれも,適合率に比べて再現率が低かった.役職名,地名,書名それぞれの抽出漏れの例を表\ref{table:loss_position},\ref{table:loss_place},\ref{table:loss_book}に示す.「抽出漏れの箇所」欄において,太字部分が抽出された人名を表し,[](カギ括弧)で囲まれた語句が抽出できなかった(つまり抽出漏れの)役職名,地名,書名を表している.「解決方法」欄には抽出するための方法の案を示した.役職名,地名,書名とも,形態素列の抽出パターンの追加で抽出可能となる抽出漏れだけでなく,係り受け解析や照応解析など,形態素解析以外の自然言語処理が必要とされる抽出漏れもあることが分かる.たとえば係り受け解析については,パターン中に形態素間の係り受け関係も記述できるようにし,形態素列のパターンにマッチする形態素列を求めたあと,それらが係り受け関係にあるものを求めるという方法がある.表\ref{table:loss_book}の上から3番目の例の場合,「\|<人名>"は"|」と「\|<書名>"を書いた"|」という形態素列のパターンにマッチする形態素列として「松永良弼は」と「『円理乾坤之巻』を書いた」をそれぞれ抽出したあと,前者の形態素列「松永良弼は」が後者の形態素列の先頭の文節「『円理乾坤之巻』を」に係ることから,松永良弼の著書として『円理乾坤之巻』を抽出できる.役職名,地名,書名それぞれの抽出精度を比較すると,書名の再現率が役職名,地名に比べて低かった.それぞれの抽出漏れを分析したところ,役職名,地名と比較して,書名は人名と離れた位置に出現する場合が多いことが分かった.このような抽出漏れは,形態素列のパターンでは正しく抽出することができず,係り受け解析や照応解析が必要となるものが多いことが,書名の再現率が低かった原因だと考える.
\section{おわりに}
歴史資料を対象として歴史オントロジーを構築するシステムを開発するための第一歩として,『明治前日本科学史』の一部を電子化し,史料中の科学技術者に関する属性および業績の情報を抽出することにより,前近代日本の人物情報データベースの構築を試みた.人名とそれに対する役職名,地名,書名をルールベースの手法によって抽出する方法を提案し,『明治前日本科学史総説・年表』を対象とした精度評価を行った結果,人名,人名とそれに対する役職名,人名とそれに対する地名についてはF値で0.8を超える結果が得られた.今後の課題としては,抽出精度を向上させるために,機械学習によって情報抽出を行うこと,係り受け解析や照応解析の結果を形態素列の抽出パターンや機械学習に利用することを考えている.また,人物の属性や業績として抽出する情報を拡大するとともに,抽出対象データについても『明治前日本科学史総説・年表』以外の巻を対象とした抽出と評価を行う予定である.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Asahara\BBA\Matsumoto}{Asahara\BBA\Matsumoto}{2003}]{asahara2003}Asahara,M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQJapaneseNamedEntityExtractionwithRedundantMorphologicalAnalysis\BBCQ\\newblockIn{\BemProceedingsofthe2003ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsonHumanLanguageTechnology(HLT-NAACL)},\mbox{\BPGS\8--15}.\bibitem[\protect\BCAY{Greenwood,Stevenson,Guo,Harkema,\BBA\Roberts}{Greenwoodet~al.}{2005}]{greenwood2005}Greenwood,M.~A.,Stevenson,M.,Guo,Y.,Harkema,H.,\BBA\Roberts,A.\BBOP2005\BBCP.\newblock\BBOQAutomaticallyAcquiringaLinguisticallyMotivatedGenicInteractionExtractionSystem\BBCQ\\newblockIn{\BemProceedingsofthe4thLearningLanguageinLogicWorkshop(LLL05)},\mbox{\BPGS\46--52}.\bibitem[\protect\BCAY{Grishman\BBA\Sundheim}{Grishman\BBA\Sundheim}{1996}]{grishman1996}Grishman,R.\BBACOMMA\\BBA\Sundheim,B.\BBOP1996\BBCP.\newblock\BBOQMessageUnderstandingConference-6:ABriefHistory\BBCQ\\newblockIn{\BemProceedingsofthe16thConferenceonComputationalLinguistics(COLING-96)},\mbox{\BPGS\466--471}.\bibitem[\protect\BCAY{IEEE}{IEEE}{2003}]{suo}IEEE.\newblock\BBOQIEEEP1600.1StandardUpperOntologyWorkingGroup(SUOWG)\BBCQ,\Turl{http://suo.ieee.org/}.\bibitem[\protect\BCAY{McCallum\BBA\Li}{McCallum\BBA\Li}{2003}]{maccallum2003}McCallum,A.\BBACOMMA\\BBA\Li,W.\BBOP2003\BBCP.\newblock\BBOQEarlyResultsforNamedEntityRecognitionwithConditionalRandomFields,FeatureInductionandWeb-EnhancedLexicons\BBCQ\\newblockIn{\BemProceedingsofTheSeventhConferenceonNaturalLanguageLearning(CoNLL-2003),{\upshape\textbf{4}}},\mbox{\BPGS\188--191}.\bibitem[\protect\BCAY{Mizoguchi\BBA\Ikeda}{Mizoguchi\BBA\Ikeda}{1997}]{mizoguchi1997}Mizoguchi,R.\BBACOMMA\\BBA\Ikeda,M.\BBOP1997\BBCP.\newblock\BBOQTowardsOntologyEngineering\BBCQ\\newblockIn{\BemProceedingsofJointPacificAsianConferenceonExpertSystems/SingaporeInternationalConferenceonIntelligentSystems(PACES/SPICIS'97)},\mbox{\BPGS\259--266}.\bibitem[\protect\BCAY{西野\JBA落谷}{西野\JBA落谷}{1998}]{nishino1998}西野文人\JBA落谷亮\BBOP1998\BBCP.\newblock\JBOQ新聞記事からの人物・企業情報の抽出\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会(NL-127)},\mbox{\BPGS\125--132}.\bibitem[\protect\BCAY{Rau}{Rau}{1991}]{rau1991}Rau,L.~F.\BBOP1991\BBCP.\newblock\BBOQExtractingCompanyNamesfromText\BBCQ\\newblockIn{\BemProceedingsofSeventhIEEEConferenceonArtificialIntelligenceApplications},\mbox{\BPGS\29--32}.\bibitem[\protect\BCAY{Sekine\BBA\Isahara}{Sekine\BBA\Isahara}{2000}]{sekine2000}Sekine,S.\BBACOMMA\\BBA\Isahara,H.\BBOP2000\BBCP.\newblock\BBOQIREX:IRandIEEvaluationProjectinJapanese\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalConferenceonLanguageResourcesandEvaluation(LREC-2000)},\mbox{\BPGS\1475--1480}.\bibitem[\protect\BCAY{Sudo,Sekine,\BBA\Grishman}{Sudoet~al.}{2003}]{sudo2003}Sudo,K.,Sekine,S.,\BBA\Grishman,R.\BBOP2003\BBCP.\newblock\BBOQAnImprovedExtractionPatternRepresentationModelforAutomaticIEPatternAcquisition\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\224--231}.\bibitem[\protect\BCAY{東京大学史料編纂所}{東京大学史料編纂所}{2006}]{ships}東京大学史料編纂所.\newblock\JBOQ東京大学史料編纂所データベースSHIPS\JBCQ,\Turl{http://www.hi.u-tokyo.{\linebreak}ac.jp/ships/}.\end{thebibliography}\begin{biography}\bioauthor{石川徹也}{1971年慶応義塾大学大学院修士課程修了.富士フイルム(株)足柄研究所,図書館短期大学,図書館情報大学,文部省在外研究員(UCLA,IU),筑波大学等を経て,現在,東京大学史料編纂所前近代日本史情報国際センター特任教授(研究開発主査).歴史知識学の創成研究に従事.工学博士(早稲田大学),筑波大学名誉教授,筑波大学大学院図書館情報メディア研究科共同研究員.情報文化学会学会賞(2005年8月),言語処理学会優秀発表賞(2006年3月),E\"{u}genWusterSpecialPrize(UNESCO,2006年7月).}\bioauthor{北内啓}{1998年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年,NTTデータ通信(株)入社.現在,(株)NTTデータ技術開発本部において自然言語処理の研究開発に従事.言語処理学会,情報処理学会各会員.}\bioauthor{城塚音也}{1988年東京大学文学部言語学科卒業.同年日本電信電話株式会社入社,音声言語,知識処理技術の研究開発に従事.現在,(株)NTTデータ技術開発本部において自然言語処理の研究開発を担当.}\end{biography}\biodate\end{document}
| |
V10N03-06 | \section{はじめに}
\label{sec:introduction}単語の多義性解消は自然言語処理の重要な基本技術のひとつとして認識されている.単語の多義性というのは,例えば,「買う」という単語について「本を買う」と「反感を買う」とでは意味が違うというように,同じ単語でも文脈によって意味の違いがあるという性質のことを言う.そして,その意味の違いのことを単語の多義と言う.単語の多義は細かく定義すればきりがない.したがって,多義をどこまで区別するべきかはタスクの目的に依存して決めることになる.機械翻訳の問題では,適切な翻訳(訳語/訳句)が選択できればよく,単語の多義はその翻訳の異なりとして定義できる.機械翻訳における単語の多義性解消の方法,つまり,訳語選択の方法は,これまでにも数多く提案されてきた.それらの方法を,利用している言語資源という観点から分類すると,対訳コーパスを用いるもの\cite{Nagao81,Sato90,Brown:90,Brown:93,berger:cl96,Sumita:2000,Baldwin:2001},対訳単語辞書と目的言語の単言語コーパスを用いるもの\cite{Dagan:cl94,Kikui:98},対訳単語辞書と,原言語と目的言語の間で互いに対応関係がない各単言語コーパスを用いるもの\cite{Kikui:99,Koehn:2000},原言語と目的言語の間で互いに対応関係がない各単言語コーパスを用いるもの\cite{Tanaka:96}に大別できる.我々は,多様な情報を用いれば用いるほど良い結果が得られると考え,対訳単語辞書,対訳コーパス,および,原言語と目的言語の間で互いに対応関係がない各単言語コーパスを用いる.対訳コーパスには大きくパラレルコーパスとコンパラブルコーパスの二種類があり,我々はそのうちパラレルコーパスを用いる.さらに,文対応をとる際の誤りを軽減するために,パラレルコーパスとして,対訳用例(句/文)集合(翻訳メモリ,トランスレーション・メモリー,以下TM)を用いる.我々のシステムは,入力文と対象単語が与えられると,その対象単語に関して入力文と対訳用例集合との類似度を求め,類似度が最大となる用例集合を用いて対象単語の訳語選択を行なう.類似度は,用例に基づく手法と機械学習モデルを用いて計算される.類似度の計算には,文字列の類似性,入力文における対象単語の前後の数単語,入力文中の内容語とその訳語候補のコーパスにおける出現頻度などを考慮する.このシステムで用いた訳語選択のためのモデルは次のような特徴を持つ.\begin{itemize}\item各対訳用例内の単語対応をとり,同じ対訳単語ペアを持つ対訳用例をまとめてひとつの用例集合とする.そして,そのペアの原言語(対象単語と同じ言語)の単語が同じである用例集合をまとめ,そのまとまりごとにモデルを作成する.以降で,各用例集合内で共通する対訳単語ペアを見出し語と呼ぶ.そして,そのペアの各単語をそれぞれ原言語見出し語,目的言語見出し語と呼ぶ(原言語が日本語,目的言語が英語の場合,それぞれ日本語見出し語,英語見出し語と呼ぶ).\item対象単語に関して入力文と表層的にほぼ同じ用例が用例に基づく手法により見つかった場合にはその用例を優先的に翻訳に使う.見つからなかった場合には,機械学習モデルに基づく手法により対象単語に関して入力文と最も類似した用例集合を選択して翻訳に使う.\item言語資源としては,対訳単語辞書,対訳コーパス,および,原言語と目的言語の間で互いに対応関係がない各単言語コーパスを用いる.\end{itemize}2001年の春,単語の多義性解消のコンテスト第2回{\scSenseval}が開催された\cite{senseval2:homepage}.このコンテストは1998年に,英語と二つのヨーロッパ言語(イタリア語とフランス語)を対象として始まったものである.2001年には新たに他のいくつかの言語に関するタスクが追加された.我々はそのうち日本語に関して追加された翻訳タスクに参加した.本論文では,そのコンテストでの結果をもとに,我々が本論文で提案する手法の有効性および精度向上にどのような情報が有効であったかについて述べる.
\section{{\scSenseval}日本語翻訳タスク}
このタスクでは,単語の多義は翻訳(訳語/訳句)として定義された.コンテストでは,予め日英のTMが訓練データとして配布された.具体的には,TMでは,日本語見出し語に対して,それを含む日本語表現とその英語翻訳のペア(以下これを用例と呼ぶ)の集合が与えられた.図~\ref{fig:tm_example}がそのTMのサンプルである.\begin{figure*}[htbp]\begin{center}\begin{tabular}[c]{l}$<$entryid=``1''headword=``遠慮''$>$\\\q$<$senseid=``1-1''$>$\\\q\q$<$jexpression$>$母に遠慮する$<$/jexpression$>$\\\q\q$<$eexpression$>$tofeelconstrainedforone'smother$<$/eexpression$>$\\\q$<$/sense$>$\\\q$<$senseid=``1-2''$>$\\\q\q$<$jexpression$>$母への遠慮$<$/jexpression$>$\\\q\q$<$eexpression$>$constrainttowardone'smother$<$/eexpression$>$\\\q\q$<$transmemo$>$UC$<$/transmemo$>$\\\q$<$/sense$>$\\\q$<$senseid=``1-3''$>$\\\q\q$<$jexpression$>$献金を遠慮してもらう$<$/jexpression$>$\\\q\q$<$eexpression$>$torequesttorefrainfromdonation$<$/eexpression$>$\\\q$<$/sense$>$\\\q......\\$<$/entry$>$\\\end{tabular}\caption{TMの例}\label{fig:tm_example}\end{center}\end{figure*}コンテストのテストでは,対象単語にマークのついたテスト文章が配布された.参加者には,対象単語に対して,その翻訳に利用できるTMの用例番号,または,翻訳そのものを提出することが求められた.翻訳の場合は,その語単独の翻訳でも,前後の適当な範囲の翻訳でも,文全体の翻訳でもよいものとされた.テストの各対象単語には正解が用意された.正解は必ずしもひとつではなく,複数の場合もある.評価は,システムの出力のうち正しく推定できたものの割合(精度)により行なわれた.システムの出力がTMの用例番号の場合は,その出力が正解のいずれかと一致するとき,正しく推定できたものと見なされた.システムの出力が翻訳の場合は,すべての可能な翻訳を用意することは難しいため,その出力が正しいかどうかは人間の判断に委ねられた.
\section{訳語選択モデル}
\label{sec:model}入力文と対象単語が与えられたとき,対象単語の適切な訳語を選択するタスクを考える.そして,このタスクで,対象単語に関して入力文との類似度が最大となる用例あるいは用例集合を用いて対象単語の訳語を選択するモデルを考える.本論文ではこのモデルを訳語選択モデルと呼ぶことにする.以降では,原言語として日本語を,翻訳の目的言語として英語を仮定して説明する.入力文と用例との類似度は次の二つの方法により求める.\begin{enumerate}\item文字列の類似性に基づく方法(手法1)類似度は,入力文と日本語用例との間で一致した文字列に基づいて計算する.\item機械学習モデルに基づく方法(手法2)類似度は,対象単語の各訳語候補に対して機械学習モデルにより求められる確率値あるいは確信度と定義する.\end{enumerate}入力文と対象単語が与えられたとき,まず手法1で対象単語に関して入力文との類似度が閾値以上となる用例があるかどうかを調べ,ある場合はその類似度が最大となる用例の番号あるいはその用例の英語見出し語を出力し,ない場合は,手法2で対象単語に関して入力文と最も類似した用例集合を選択し,その英語見出し語を出力する.以降で,各方法について詳細に述べる.\subsection{文字列の類似性に基づく方法(手法1)}\label{sec:metho1}対象単語に関して入力文との類似度が高い日本語用例があれば,TMを信頼しその用例の番号あるいはその英語見出し語を出力する.入力文と一致する割合を調べる際,日本語用例には文末処理(句末の場合も含む)を施しておく.文末処理としては,機能語,動詞や形容詞の活用部分,サ変動詞をすべて削除するということを行なった.例えば,図~\ref{fig:tm_example}の用例にこの文末処理を施すとそれぞれ,「母に遠慮」「母への遠慮」「献金を遠慮」となる.入力文との一致する割合は,動的計画法により入力文と日本語用例を文字単位で比較して差異を求め,一致した文字列の割合として求める.実験では,この差異をUNIXのdiffコマンドを用いて求めた\footnote{文献\cite{murata2002_mdiff}には,差異の抽出にdiffコマンドが利用できるような自然言語処理の例がいくつかあげられている.}.類似度は以下の式により求める.\begin{eqnarray}\label{eq:sim1}類似度&=&\frac{入力文との{\rmdiff}をとったときに一致した文字数}{文末処理を施した日本語用例の文字数}\end{eqnarray}このとき,用例が複数の部分に分割されて一致する場合があり,類似度が大きくても多くの部分に分割されてしまう場合は類似用例としてふさわしくない場合が多い.そこで,分割数に閾値を設け,閾値より分割数が多い用例は選択対象外とする.類似度が最大となる用例が複数ある場合には,最長の日本語用例を持つ用例の番号を返す.ただし,一致した部分が日本語見出し語の長さより長い場合に限る.しかしながら,TMに全ての可能な用例を登録することは難しく,常に入力文と表層的にほぼ同じものがあることは期待できないため,類似度が最大となる用例が常に訳語選択に最適な用例であるとは限らない.そこで,類似度に閾値を設け,閾値以上の類似度を持つ用例がない場合は次節に述べる方法を用いる.\subsection{機械学習モデルに基づく方法(手法2)}\label{sec:method2}入力文と表層的にほぼ同じ用例がない場合,より多様な情報を用いて類似度を求める必要があると考えられるが,そのために複雑な規則を作成するのは避けたいため,類似度の計算には機械学習モデルを用いることにした.機械学習モデルによって分類するクラスは対象単語の訳語/訳句候補とした.訳語選択モデルは,\ref{sec:introduction}節でも述べたように,同じ日英対訳単語ペアを持つ対訳用例をまとめてひとつの用例集合とし,そのペアの日本語単語が同じである用例集合をまとめ,そのまとまりごとに作成する.したがって,各モデルでは,同じ見出し語を持つ用例は同じクラスとなり,入力文に対しすべて同じ類似度となる.そして,日英の見出し語つまり各用例集合内で共通する対訳単語ペアのうち,日本語見出し語は共通で,英語見出し語が訳語/訳句候補となるため,各用例集合の英語見出し語がモデルにより分類するクラスとなる.TMでは見出し語は予め人手で与える.例えば,図~\ref{fig:tm_example}の場合,日本語見出し語は「遠慮」であり,英語見出し語はそれぞれ,「feelconstrained」,「constraint」,「refrain」となる.これらを$<$ehead$>$$<$/ehead$>$のタグで明示すると図~\ref{fig:tm_example2}のようになる.英語見出し語が動詞の場合はすべての語尾変化形を基本形で代表させる.さらに,TMの各日本語見出し語を対訳辞書で索き,TMになかった訳語/訳句候補が見つかれば,それらも新たなクラスとして追加する.\begin{figure*}[htbp]\begin{center}\begin{tabular}[c]{l}$<$entryid=``1''headword=``遠慮''$>$\\\q$<$senseid=``1-1''$>$\\\q\q$<$jexpression$>$母に遠慮する$<$/jexpression$>$\\\q\q$<$eexpression$>$to$<$eheadbasic=``feelconstrained''$>$\\\q\qfeelconstrained$<$/ehead$>$forone'smother$<$/eexpression$>$\\\q$<$/sense$>$\\\q$<$senseid=``1-2''$>$\\\q\q$<$jexpression$>$母への遠慮$<$/jexpression$>$\\\q\q$<$eexpression$>$$<$eheadbasic=``constraint''$>$constraint$<$/ehead$>$\\\q\qtowardone'smother$<$/eexpression$>$\\\q\q$<$transmemo$>$UC$<$/transmemo$>$\\\q$<$/sense$>$\\\q$<$senseid=``1-3''$>$\\\q\q$<$jexpression$>$献金を遠慮してもらう$<$/jexpression$>$\\\q\q$<$eexpression$>$torequestto$<$eheadbasic=``refrain''$>$refrain$<$/ehead$>$\\\q\qfromdonation$<$/eexpression$>$\\\q$<$/sense$>$\\\q......\\$<$/entry$>$\\\end{tabular}\caption{TMの例}\label{fig:tm_example2}\end{center}\end{figure*}学習には,TMの用例だけでなく,他の対訳辞書あるいは対訳コーパスから抽出した用例も用いる.抽出する用例は,TMの各用例集合と同じ日英見出し語を含む対訳用例とし,抽出した用例はTMの各用例集合に追加する.以降で,用例数および学習文数は,ともに各日本語見出し語に対しその語を含む用例の数を意味するものとし,TMに最初に含まれていた用例の総数を用例数,他の言語資源から抽出して追加した後の用例の総数を学習文数と呼んで区別する.また,クラス数とは各日本語見出し語に対するクラスの数つまり,訳語/訳句候補の種類の数を意味するものとする.機械学習モデルとしてはSVM(SupportVectorMachine),ME(MaximumEntropy),DL(DecisionList),SB(SimpleBayes)を用いる.日本語見出し語ごとに,各モデルを用いて学習データでクロスバリデーションを行ない,平均精度が最も高いモデルをテストに用いる.各クラスの確率値あるいは確信度は基本的に,文脈の集合を$B$,クラスの集合を$A$とするとき,文脈$b(\in$$B)$でクラス$a(\in$$A)$となる事象$(a,b)$の確率分布$p(a,b)$として求められる.SVMではこのような確率分布は得られないが,便宜的に最適のクラスに対して確信度を1,その他のクラスに対して0とする.次に,各機械学習モデルの説明,各種パラメータ等の設定について述べる\footnote{基本的に文献\cite{Murata2001a}の方法に準ずる.}.\subsubsection{シンプルベイズ}このモデルでは,ベイズの定理に基づき,文脈$b$のときにクラス$a$が生起する確率を推定する.そして,確率値が最も大きいクラスを最適なクラスとする.文脈$b$のときにクラス$a$が生起する確率は次の式で与えられる.{\begin{eqnarray}p(a|b)&=&\frac{p(a)}{p(b)}p(b|a)\\\label{eq:simple_bayes}&\simeq&\frac{\tilde{p}(a)}{p(b)}\prod_i\tilde{p}(f_i|a)\end{eqnarray}}ここで文脈$b$は,予め設定しておいた素性$f_j(\inF,1\leqj\leqk)$の集合である.$p(b)$は,文脈$b$の生起確率で,今回の場合,クラス$a$には依存せず定数のため計算しない.$\tilde{p}(a)$と$\tilde{p}(f_i|a)$は,ともに学習データから推定される確率で,それぞれ,クラス$a$の出現の確率,クラス$a$のときに素性$f_i$を持つ確率を意味する.最尤推定により求めた$\tilde{p}(f_i|a)$の値は0になることが多く,式(\ref{eq:simple_bayes})の値が0になり本来求めるべきクラスが正しく求まらない場合が多い.このため,本論文では次の式によりスムージングを行なう.{\begin{eqnarray}\label{eq:simple_bayes2}\tilde{p}(f_i|a)=\frac{freq(f_i,a)+\epsilon*freq(a)}{freq(a)+\epsilon*freq(a)}\end{eqnarray}}ここで,$freq(f_i,a)$と$freq(a)$は,それぞれ,素性$f_i$を持ちかつクラスが$a$である事例の個数,クラスが$a$である事例の個数を意味する.$\epsilon$は実験で定める定数であり,実験では0.0001に固定した.\subsubsection{決定リスト}このモデルでは,素性$f_i$とクラス$a$の組を規則として,予め定めた優先順序でリストに蓄えておき,リストで優先順位の高いところから,入力と素性が一致する規則を適用してクラスを求める\cite{Yarowsky:ACL94}.本論文では優先順序として次の式で表わされるものを用いる.{\begin{eqnarray}\label{eq:decision_list_order}\tilde{p}(a|f_i)\end{eqnarray}}これは,ある文脈$b$でクラス$a$を出力する確率$p(a|b)$がもっとも高いクラス$a$を解とすることと等価であり,本論文では次の式を用いて最適なクラスを特定する.{\begin{eqnarray}\label{eq:decision_list}p(a|b)=\tilde{p}(a|f_{max})\end{eqnarray}}ここで,$f_{max}$は次の式によって与えられる.{\begin{eqnarray}\label{eq:decision_list2}f_{max}=argmax_{f_j\inF}\max_{a_i\inA}\\tilde{p}(a_i|f_j)\end{eqnarray}}また,$\tilde{p}(a_i|f_j)$は学習データで素性$f_j$を文脈とするクラス$a_i$の出現の割合である.\subsubsection{最大エントロピーモデル}このモデルでは,素性$f_j(1\leqj\leqk)$の集合を$F$とするとき,式(\ref{eq:constraint})を制約とし,式(\ref{eq:entropy})で表わされる目的関数つまりエントロピーを最大にするような確率分布$p(a,b)$を求め,その確率分布にしたがって求まる各クラスの確率のうち,最も大きい確率値を持つクラスを最適なクラスとする\cite{berger:cl96,ristad97,ristad98}.{\begin{eqnarray}\label{eq:constraint}\sum_{a\inA,b\inB}p(a,b)g_{j}(a,b)\=\sum_{a\inA,b\inB}\tilde{p}(a,b)g_{j}(a,b)\\\for\\forallf_{j}\(1\leqj\leqk)\nonumber\end{eqnarray}}{\begin{eqnarray}\label{eq:entropy}H(p)&=&-\sum_{a\inA,b\inB}p(a,b)\log\left(p(a,b)\right)\end{eqnarray}}ただし,$A,B$はそれぞれクラスと文脈の集合を意味し,$g_{j}(a,b)$は文脈$b$に素性$f_j$があってかつクラスが$a$の場合1となりそれ以外で0となる二値関数である.また,$\tilde{p}(a,b)$は,既知データでの$(a,b)$の出現の割合を意味する.\subsubsection{サポートベクトルマシン}サポートベクトルマシンとは,空間を超平面で分割することにより2つのクラスからなるデータを分類する二値分類器のことである.2つのクラスを正例,負例とすると,学習データにおける正例と負例の間隔(マージン)を最大にする超平面を求めそれを用いて分類を行なう.通常は,学習データにおいてマージンの内部領域に少数の事例が含まれてもよいとする拡張(ソフトマージン)や,超平面の線形の部分を非線型とする拡張(カーネル関数の導入)などがなされたものが用いられる.これらの拡張によりクラスを判別することは,以下の識別関数の出力値が正か負かによってクラスを判別することと等価である\cite{SVM,kudoh_svm}.{\begin{eqnarray}\label{eq:svm1}f({\bfx})&=&sgn\left(\sum^{l}_{i=1}\alpha_iy_iK({\bfx}_i,{\bfx})+b\right)\\b&=&-\frac{max_{i,y_i=-1}b_i+min_{i,y_i=1}b_i}{2}\nonumber\\b_i&=&\sum^l_{j=1}\alpha_jy_jK({\bfx}_j,{\bfx}_i)\nonumber\end{eqnarray}}ここで${\bfx}$は識別したい事例の文脈(素性の集合)を,${\bfx}_{i}$と$y_i(i=1,...,l,y_i\in\{1,-1\})$は学習データの文脈とクラスを意味する.また,関数$sgn(x)$は,$x\geq0$のときに1,$x<0$のときに$-1$となる二値関数であり,各$\alpha_i$は式(\ref{eq:svm5})と式(\ref{eq:svm6})の制約のもと式(\ref{eq:svm4})の$L(\alpha)$を最大にするものである.{\begin{eqnarray}\label{eq:svm4}L({\alpha})&=&\sum^l_{i=1}\alpha_i-\frac{1}{2}\sum^l_{i,j=1}\alpha_i\alpha_jy_iy_jK({\bfx_i},{\bfx_j})\end{eqnarray}}{\begin{eqnarray}\label{eq:svm5}0\leq\alpha_i\leqC\,\,(i=1,...,l)\end{eqnarray}}{\begin{eqnarray}\label{eq:svm6}\sum^l_{i=1}\alpha_iy_i=0\end{eqnarray}}また,関数$K$はカーネル関数と呼ばれ様々なものが提案されているが,本論文では次の式で表わされる多項式カーネルを用いる.{\begin{eqnarray}\label{eq:svm3}K({\bfx},{\bfy})&=({\bfx}\cdot{\bfy}+1)^d\end{eqnarray}}ここで,$C,d$は実験的に設定される定数である.本論文では$C$,$d$はそれぞれ1と2に固定した.サポートベクトルマシンは二値分類器であるため,クラスの数が2であるデータしか扱えないが,これにペアワイズ手法を組み合わせることにより,クラスの数が3以上のデータを扱えるようになる\cite{kudoh_chunk_nl2000}.ペアワイズ手法とは,N個のクラスを持つデータの場合,異なる二つのクラスのあらゆるペア(N(N-1)/2個)を作り,各ペアごとにどちらがよいかをサポートベクトルマシンなどの二値分類器で求め,最終的にN(N-1)/2個の二値分類器のクラスの多数決により,最適なクラスを求める方法である.実験では,サポートベクトルマシン(TinySVM\cite{kudoh_svm}を利用)とペアワイズ手法を組み合わせて用いた.\subsubsection{素性}上述のように文脈$b$は素性の集合で表わされる.実験に用いた素性は以下のものである.\begin{enumerate}\item形態素情報(素性集合1)入力文における対象単語の前後三形態素ずつについての文字列,基本形,品詞(大分類,細分類),活用型,活用形.\item最大一致となる用例に関する情報(素性集合2)入力文の文字列と連続して一致する部分が最大となる用例を調べ,その用例の英語見出し語および一致した長さをそれぞれ素性として用いる.\item内容語とその訳語候補の出現頻度(素性集合3)まず,各英語見出し語(各クラス)ごとに次の六種類の文集合を定義する.\begin{enumerate}\item文集合1:該当する英語見出し語を含む用例において日本語用例を取り出した集合\item文集合2:該当する英語見出し語を含む用例において英語用例を取り出した集合\item文集合3:文集合1の類似文の集合.類似文は日本語の単言語コーパスから抽出する.\item文集合4:文集合2の類似文の集合.類似文は英語の単言語コーパスから抽出する.\item文集合5:文集合1と文集合3の和集合\item文集合6:文集合2と文集合4の和集合\end{enumerate}ある用例の類似文とは,その用例の見出し語とその単語のまわりの文脈の一部を含む文とする.入力文における各内容語とその訳語候補について,上記の各文集合における出現頻度を調べ,それぞれ素性として用いる.内容語は入力文を形態素解析したときに得られる単語のうち,その品詞が名詞,動詞,形容詞,副詞,連体詞であるものとする.ただし,対象単語は除く.内容語の訳語候補は内容語を対訳辞書で索いたときに候補としてあがる単語とする.この素性は文集合,英語見出し語,内容語の出現頻度の和,の組み合せによって表わされ,頻度の和がn回の場合,頻度1からnまでの素性値をもつ素性がすべて観測されたと仮定する.頻度は1以上のもののみ考慮する.例えば,入力文に見出し語以外の内容語がひとつあり,その内容語がクラス「buy」の文集合1に3回出現した場合には,「文集合1:buy:1」,「文集合1:buy:2」,「文集合1:buy:3」の素性が観測されたとする.この素性により,日英の各コーパスにおいて見出し語と共起する単語の頻度を訳語選択の手がかりとして考慮する.\end{enumerate}
\section{実験と考察}
\label{sec:experiment}\subsection{実験の条件}\label{sec:test}入力,評価は{\scSenseval-2}日本語翻訳タスクのものに従った.TMは320語のもの(1見出し語に対する用例数は約20)が2001年3月中旬に配布された.この中から40語(名詞20語,動詞20語)がコンテストの対象単語として選択され,それぞれについて30語(30出現)ずつテストデータが用意された.対象単語ののべ数は1,200語であった.対訳単語辞書および対訳コーパスとしてはニフティで利用可能な英辞郎を用いた.ここから対訳用例を抽出する際,日英見出し語が対応関係にないものを抽出してしまった場合でも,抽出の際に検索語として用いた日英見出し語が正しい対応関係にあると仮定して学習に用いた.単言語コーパスとしては毎日新聞(1991年から2000年),日経新聞(1995年から1999年),産経新聞(1994年から1999年),LDCデータ(1994年,1995年のデータでWallStreetJournalやAP通信,ニューヨークタイムズなど数年分の新聞記事が含まれる)を用いた.コンテストでは,手法1で類似度最大として選択された用例についてはその用例番号を,手法2で類似度最大として選択された用例集合についてはその英語見出し語を出力して提出した.以下にその際の条件について述べる.手法1における類似度の閾値は1.0,分割数の閾値は0とした.手法2の形態素解析にはJUMAN\cite{JUMAN3.61}を用いた.手法2における類似文としては,日本語用例に対しては,文末処理を施して得られる文字列を含む文を,英語用例に対しては,英語見出し語を含む文を抽出した.機械学習モデルについては,時間の制約があったため,単語によっては学習が終了しない場合があり,クロスバリデーションにより最適なモデルを選択することはできなかった.コンテストで最終的に選択したモデルの内訳は以下の通りであった.\begin{itemize}\itemSVM:23単語(名詞12,動詞11)\itemDL:12単語(名詞8,動詞4)\itemSB:5単語(動詞5)\end{itemize}\subsection{実験結果}\label{sec:results}コンテストの結果を表~\ref{tab:result}にあげる.我々のシステムの精度は63.4\,\%であった.単語ごとの精度と用例数,学習文数,クラス数との関係は表~\ref{tab:result2}の通りである.\begin{table}[htbp]\begin{center}\caption{コンテストの結果}\label{tab:result}\begin{tabular}[c]{|l|l|}\hline参加システム&精度\\\hlineAnonymX&79.1\,\%(949/1,200)\\AnonymY1&73.4\,\%(881/1,200)\\{\bfCRL-NYU}&{\bf63.4\,\%(761/1,200)}\\Ibaraki&62.6\,\%(751/1,200)\\Stanford-Titech1&49.1\,\%(589/1,200)\\AnonymY2&47.6\,\%(571/1,200)\\ATR&45.8\,\%(549/1,200)\\Kyoto&42.4\,\%(509/1,200)\\Stanford-Titech2&41.2\,\%(494/1,200)\\Baseline(Random)&36.8\,\%\\\hline\end{tabular}\end{center}\end{table}\begin{table*}[htbp]\footnotesize\begin{center}\caption{単語ごとの精度(コンテストの結果)}\label{tab:result2}\begin{tabular}[c]{|l@{}l@{}|@{}r@{}|@{}r@{}|@{}r@{}|@{}r@{}|@{}r@{}|r@{}r@{}|r@{}r@{}|r@{}r@{}|}\hline単語&(読み)&\用例&\学習文&\クラス&\学習文数&学習&精度&(手法&精度&(手法1)&精度&(手法2)\\&&数&数&数&/クラス&\モデル&&1+2)&&&&\\\hline一般&(ippan)&33&760&16&47.5&SVM&56.7\,\%&(17/30)&66.7\,\%&(2/3)&55.6\,\%&(15/27)\\一方&(ippou)&14&172&19&9.1&DL&23.3\,\%&(7/30)&---&&23.3\,\%&(7/30)\\今&(ima)&15&433&15&28.9&DL&63.3\,\%&(19/30)&---&&63.3\,\%&(19/30)\\意味&(imi)&22&419&18&23.3&SVM&66.7\,\%&(20/30)&100\,\%&(1/1)&65.5\,\%&(19/29)\\核&(kaku\_n)&8&1,007&8&125.9&SVM&80.0\,\%&(24/30)&100\,\%&(3/3)&77.8\,\%&(21/27)\\記録&(kiroku)&18&608&11&55.3&SVM&80.0\,\%&(24/30)&100\,\%&(1/1)&79.3\,\%&(23/29)\\国内&(kokunai)&14&346&6&57.7&SVM&83.3\,\%&(25/30)&75.0\,\%&(3/4)&84.6\,\%&(22/26)\\言葉&(kotoba)&35&925&28&33.0&DL&80.0\,\%&(24/30)&0\,\%&(0/1)&82.8\,\%&(24/29)\\市民&(shimin)&23&187&8&23.4&DL&50.0\,\%&(15/30)&100\,\%&(5/5)&40.0\,\%&(10/25)\\事業&(jigyou)&17&854&14&61.0&SVM&63.3\,\%&(19/30)&100\,\%&(7/7)&52.2\,\%&(12/23)\\時代&(jidai)&39&621&10&62.1&DL&83.3\,\%&(25/30)&100\,\%&(4/4)&80.8\,\%&(21/26)\\姿&(sugata)&28&139&19&7.3&SVM&46.7\,\%&(14/30)&80.0\,\%&(4/5)&40.0\,\%&(10/25)\\近く&(chikaku)&15&123&11&11.2&SVM&73.3\,\%&(22/30)&---&&73.3\,\%&(22/30)\\中心&(chushin)&15&392&16&24.5&SVM&56.7\,\%&(17/30)&---&&56.7\,\%&(17/30)\\花&(hana)&27&677&20&33.9&SVM&83.3\,\%&(25/30)&100\,\%&(2/2)&82.1\,\%&(23/28)\\反対&(hantai)&26&480&17&28.2&SVM&93.3\,\%&(28/30)&71.4\,\%&(5/7)&100\,\%&(23/23)\\場合&(baai)&23&1,167&16&72.9&DL&86.7\,\%&(26/30)&---&&86.7\,\%&(26/30)\\前&(mae)&25&1,968&26&75.7&DL&63.3\,\%&(19/30)&---&&63.3\,\%&(19/30)\\胸&(mune)&30&368&26&14.2&DL&53.3\,\%&(16/30)&100\,\%&(3/3)&48.1\,\%&(13/27)\\問題&(mondai)&32&1,795&10&179.5&SVM&100\,\%&(30/30)&100\,\%&(2/2)&100\,\%&(28/28)\\\hline全名詞&&459&13,441&304&44.2&&69.3\,\%&($\frac{416}{600}$)&87.5\,\%&($\frac{42}{48}$)&67.8\,\%&($\frac{374}{552}$)\\\hline与える&(ataeru)&36&808&34&23.8&SVM&70.0\,\%&(21/30)&100\,\%&(3/3)&66.7\,\%&(18/27)\\言う&(iu)&32&2,248&21&107.0&DL&73.3\,\%&(22/30)&50.0\,\%&(1/2)&75.0\,\%&(21/28)\\受ける&(ukeru)&22&5,143&25&205.7&SB&20.0\,\%&(6/30)&50.0\,\%&(1/2)&17.9\,\%&(5/28)\\描く&(egaku)&12&271&14&19.4&SVM&76.7\,\%&(23/30)&100\,\%&(1/1)&75.9\,\%&(22/29)\\買う&(kau)&31&1,117&19&58.8&SVM&86.7\,\%&(26/30)&100\,\%&(3/3)&85.2\,\%&(23/27)\\書く&(kaku\_v)&15&795&4&198.8&SVM&76.7\,\%&(23/30)&80.0\,\%&(4/5)&76.0\,\%&(19/25)\\聞く&(kiku)&25&536&14&38.3&SVM&66.7\,\%&(20/30)&100\,\%&(3/3)&63.0\,\%&(17/27)\\超える&(koeru)&14&109&10&10.9&SVM&63.3\,\%&(19/30)&---&&63.3\,\%&(19/30)\\使う&(tsukau)&19&1,139&14&81.4&SVM&56.7\,\%&(17/30)&100\,\%&(1/1)&55.2\,\%&(16/29)\\作る&(tsukuru)&19&834&17&49.1&SB&10.0\,\%&(3/30)&100\,\%&(2/2)&3.6\,\%&(1/28)\\伝える&(tsutaeru)&19&155&15&10.3&DL&80.0\,\%&(24/30)&100\,\%&(3/3)&77.8\,\%&(21/27)\\出る&(deru)&30&4,705&26&181.0&SB&3.3\,\%&(1/30)&100\,\%&(1/1)&0\,\%&(0/29)\\乗る&(noru)&23&712&17&41.9&DL&53.3\,\%&(16/30)&100\,\%&(8/8)&36.4\,\%&(8/22)\\図る&(hakaru)&17&3,184&17&187.3&SB&2.7\,\%&(8/30)&100\,\%&(8/8)&0\,\%&(0/22)\\待つ&(matsu)&23&618&15&41.2&SVM&93.3\,\%&(28/30)&100\,\%&(1/1)&93.1\,\%&(27/29)\\守る&(mamoru)&16&522&19&27.5&SVM&46.7\,\%&(14/30)&100\,\%&(3/3)&40.7\,\%&(11/27)\\見せる&(miseru)&20&285&12&23.8&SVM&90.0\,\%&(27/30)&100\,\%&(1/1)&89.7\,\%&(26/29)\\認める&(mitomeru)&10&929&13&71.5&DL&66.7\,\%&(20/30)&100\,\%&(1/1)&65.5\,\%&(19/29)\\持つ&(motsu)&59&1,835&23&79.8&SB&46.7\,\%&(14/30)&100\,\%&(3/3)&40.7\,\%&(11/27)\\求める&(motomeru)&10&481&22&21.9&SVM&43.3\,\%&(13/30)&100\,\%&(1/1)&41.4\,\%&(12/29)\\\hline全動詞&&452&26,426&351&75.3&&57.5\,\%&($\frac{345}{600}$)&94.2\,\%&($\frac{49}{52}$)&54.0\,\%&($\frac{296}{548}$)\\\hline合計&&911&39,867&655&60.9&&63.4\,\%&($\frac{761}{1,200}$)&91.0\,\%&($\frac{91}{100}$)&60.9\,\%&($\frac{670}{1,100}$)\\\hline\end{tabular}\end{center}\end{table*}正解は各対象単語ごとにひとつあるいは複数与えられ,各正解には,対象単語の翻訳に適切であるかどうかを考慮した複数段階による評価が付与されている.正解は以下の基準で◎,○,△の各段階に分けられた.\begin{enumerate}\item正解がTMの用例の場合\begin{itemize}\item◎:翻訳に利用できる用例の場合.日本語用例の品詞,時制,単複,微妙なニュアンス等は必ずしも一致しない.\item○:評価単語のみに着目すれば妥当な訳語であるが,翻訳用例として使うことは望ましくない用例.\item△:評価単語のみに着目すれば妥当な訳語であるが,翻訳用例として直接は使えない用例.\end{itemize}\item正解が翻訳の場合\begin{itemize}\item◎:翻訳に利用できる場合.品詞,時制,単複,微妙なニュアンス等は必ずしも一致しない.\item○:評価単語のみに着目すれば妥当な訳語であるが,翻訳に使うことは望ましくない場合.\end{itemize}\end{enumerate}コンテストの結果は一番緩い評価基準で評価したものである.一番緩い評価基準とは,正解をゆるくとる(上記の基準で,TMの◎,○,△,翻訳の◎,○をすべて正解とする)場合,一番厳しい評価基準とは,正解を厳しくとる(◎のみ)場合を意味する.一番厳しい評価基準で我々のシステムの出力を評価した場合,全体の精度が50.6\,\%(607/1,200),その内訳は,手法1の精度が82.0\,\%(82/100),手法2が47.7\,\%(525/1,100)であった.表~\ref{tab:result}から,一番緩い評価基準で全体の精度を比べると,上位の二システムとは10\,\%程度以上の差があるが,一番厳しい評価基準では,我々のシステムの精度は50.6\,\%(607/1,200)で,AnonymY1システムの精度50.2\,\%(602/1,200)とほぼ同等であった.また,一番緩い基準でも,名詞全体に対する精度は,我々のシステムの精度は69.3\,\%(416/600)で,AnonymY1システムの精度66.8\,\%(401/600)と同等以上の結果が得られている.最も良かったAnonymXシステムの精度59.0\,\%(708/1,200)には遠く及ばなかったが,後の\ref{sec:models_and_accuracy}節に示すように,追加実験により我々の手法で62.4\,\%(749/1,200)の精度が得られ,潜在的には66.0\,\%(792/1,200)の精度が得られる可能性があることが分かったため,結果のみから判断すると,我々のシステムはAnonymXシステムと同程度以上の性能であるとも考えられる.手法そのものについては,AnonymX,AnonymY1については具体的な方法が明かされていないため,現時点での比較はできない.表~\ref{tab:result2}から,クラス当たりの学習文数の少ない名詞と,クラス当たりの学習文数の非常に多い動詞の訳語選択精度が悪いといった傾向が見られる.前者は学習データの不足が原因であると考えられる.後者については,クラスの数が多く,日本語用例は似ているが異なるクラスに分類されているという場合もあり,また学習データが特定のクラスに偏っているということもなかったため,ベースラインの精度そのものが低い難しい問題であったと考えられる.実際,すべての入力に対し対象単語ごとに常に学習データで最も学習文数の多いクラスを出力するシステムを作成して実験したところ,これらの単語に対する精度は低いことが分かった.\subsection{手法1と精度}\label{sec:method1_and_acc}手法1はTMを最も単純に利用した方法であり,この手法による精度は高いことが望ましい.実験(コンテスト)では手法1による精度は91.0\,\%(91/100)であった.この手法により誤った例(正解と一致しなかった例)を表~\ref{tab:error1}にあげる.誤ったのは,入力文と日本語用例との類似性だけから推定することが困難だったためである.類似度はすべて1であり\footnote{例えば,入力文「お天気情報の大切さを一般の人に理解していただくことが,僕の使命と思っています.」とTMの日本語用例「一般の人」のdiffをとると用例の全ての文字列が入力文と一致し,一致した文字数は4となる.日本語用例の文字数も4であるため,式(\ref{eq:sim1})より,類似度は1となる.},日本語用例そのものは類似していると思われるが,英語用例はそれぞれひとつずつしか与えられておらず,文脈からそれらの用例を翻訳として用いるのは不適切であると判断されたものと思われる.手法1はTMの日本語用例の文字列情報のみを用いる方法であるため,このような場合,他の用例を適切に選択することはできない.\begin{table*}[htbp]\footnotesize\begin{center}\caption{手法1で誤った例}\label{tab:error1}\begin{tabular}[c]{|p{4.5cm}|l|l|}\hline入力文(<>内は対象単語)&システムにより選択された用例&正解用例の\\&&英語見出し語\\\hlineお天気情報の大切さを<一般>の人に理解していただくことが,僕の使命と思っています.&一般の人:ordinarypepople&general\\\hlineこれは,「特」,「上」,「中」などに分けられる<国内>産米の分類が,「特」の場合,「一類米(最上級米)のブレンド率が八〇%以上」などと定められているのに準じた.&国内産:domestic&inthiscountry\\\hline昨年暮れ,欧州から一時帰国したわが社の特派員が新聞コラムに「言葉がなく生気もない」と久しぶりに見た日本の印象をつづり,「言葉を<失った>のは街角にひしめく自動販売機のせい」と進行する失語社会を嘆いていた.&言葉を失う:toloseone'sabilitytospeak&language\\\hline休日で,子供に無残な<姿>を見せなくてすんだことがせめてもの救い.&姿を見せる:toappear&look\\\hline当面,パリ大会,ハンガリー大会などの招待試合が予定されており,日本は国際試合への不参加という形で<反対>の立場を強くアピールすることになる.&反対の立場:contraryposition&opposition\\\hlineこれに対してフランスは核抑止力維持の立場から,現時点での核実験の無条件禁止には以前から<反対>の立場を表明し,特に中国が昨年十月に実験を行ったこともあって,NPT延長と交渉期限をリンクさせることには強く反発.&反対の立場:contraryposition&opposition\\\hline「米国にも言うべきことはっきり<言う>日本に」&はっきり言って:franklyspeaking&say\\\hline教職員や学生ら約六百人から盛大な歓迎を<受けた>首相は,「本当に母校というものはありがたいものです」と大いに気を良くしていた.&歓迎を受ける:tobewelcomed&receive\\\hline私は自分の周りで起きたほのぼのとした出来事を見つけては,原稿用紙に<書いて>いろいろなところに送るのが大好きだ.&紙に書く:towriteonpaper&write\\\hline\end{tabular}\end{center}\end{table*}次に,手法1が適用された100対象単語に対し手法2を適用したときの精度を調べた.結果は49.3\,\%(34/69)であった.ただし,100語のうち31語は,TMの用例に含まれる英語見出し語ではなく対訳辞書を索いて得られた英語見出し語を選択したため評価していない.仮にこれらがすべて正解だったとしても精度は65\,\%(65/100)となる.したがって,手法1では,適用された語に対してはかなり良い精度が得られることが分かる.手法1で正しく手法2で訳語選択を誤ったものは30語であり,それらの語を含む入力文には慣用的な表現が多く見られた.そのうち,手法1によって適用された用例には次のようなものがあった.以下で,<>内は見出し語を表わす.\begin{itemize}\item<胸>を張る:to<lookproud>\item話に<花>が咲く:toengagein<animated>conversation\item一役<買う>:to<offer>tohelp\item調子に<乗る>:tobe<carriedaway>\end{itemize}上記のような慣用的な対訳用例を含む用例集合は,その集合に含まれる用例数が少ないため学習データが不足し,手法2で適切に選択することは難しい.このように予め学習データが少ないと分かったクラスつまり訳語/訳句候補は,慣用表現である可能性が高いと考え,個別にTMに用例を追加するなどしてTMを充実させるのが効果的である可能性が高い.この場合,TMに用例を追加するだけでなく,表~\ref{tab:error1}にあげたような手法1による誤りもなくす必要があるため,現状のTMを次の手順で変更する必要があると考えている.\begin{enumerate}\item各日本語用例の翻訳として可能なものはすべて登録する.\item日本語用例が同一の用例が複数ありかつその用例を含む用例集合内の用例数が少ない場合は,日本語用例間に違いが出るまでそれぞれの用例の前後の文脈を伸ばす.\end{enumerate}このようにTMの用例を変更することにより,表~\ref{tab:error1}の誤りもほぼなくなると考えている.\subsection{手法2と精度}\label{sec:method2_and_acc}手法2ではTMの用例だけでなく他の言語資源から抽出した用例も用いる.もしTMの用例しか用いなければ,1クラスあたりの学習文数は平均1.4となる.これでは機械学習をするにはデータが少な過ぎ,強力な学習モデルを用いても高い精度は期待できない.ちなみに,コンテストに参加したシステムのうち,上位の4システム以外は,配布されたTM用例のみを用いていた.最高のもので50\,\%程度の精度であり,他の言語資源を用いたことによる効果は10\,\%以上と考えられる.我々の手法でもTM用例のみを用いた場合と他の言語資源を用いた場合の結果を比較したところ,他の言語資源を用いた場合の方が6\,\%から7\,\%程度良くなることが分かった.他の言語資源を用いることの有効性については,詳しくは\ref{sec:data_and_accuracy}節で述べる.補強した学習データでは,1クラスあたりの学習文数の平均は全体で60.9文(名詞44.2文,動詞75.3文)であった.基本的に学習データが少ない語に対しては,さらに他の言語資源を利用してデータを追加すればよいと考えられる.しかし,学習文数が平均より多いにもかかわらず精度が平均より悪かったものは,それぞれ名詞が3語(そのうちSVMが2語,DLが1語),動詞が5語(そのうちSVMが1語,SBが4語)であり,この結果は,単純に学習データを増やしても精度が良くならない場合があることを示している.1クラスあたりの学習データが多いにもかかわらず精度が良くなかった原因としては,以下のことが考えられる.\begin{enumerate}\itemSBモデルと素性集合の相性(4例)SBモデルによる精度はすべて悪かった.これは実験に用いた素性集合と,すべての素性を独立と仮定して扱うSBモデルの性質が合わなかったためであると考えられる.\item追加した学習データの質(4例)学習データの多くは他の言語資源から抽出したものである.コンテストでは,他の言語資源から対訳用例を抽出する際に,日英の見出し語が出現しているかどうかだけを手がかりにしていた.そのため,日英見出し語が対応関係にないものも抽出していた.例えば,haveやtake,lookなど一般に出現頻度が高く,日本語に訳したときその訳語に曖昧性のある単語が英語見出し語である場合には,見出し語間に対応関係がない対訳用例も多く抽出してしまう.この単語対応を考慮していなかったことによる影響は,学習の際に顕著に現われる.学習モデルにおけるクラスは英語見出し語で表わされる.そのため,日英の見出し語間に対応がとられていないと,ひとつの用例に見出し語となり得る語が複数種類現われるとき,その用例の見出し語が特定できず曖昧になる.その結果,同じ用例が複数のクラスの正例として用いられることになり,この用例を用いて学習したモデルでは,正しくクラスを分類できなくなる.今回の実験で,SVMなどで学習が終了しなかったのは,このような例が多くあったことがひとつの原因であると考えている.\end{enumerate}以上のような問題を解消し,精度を改善するには,次のような対策を講じる必要がある.\begin{itemize}\itemモデル,素性の選択方法を工夫する.\item学習データを補強する際,他の言語資源から抽出した対訳用例における単語対応をとり,日英見出し語が対応関係にあるものだけを選択するようにする.\end{itemize}モデルの選択方法については,当初クロスバリデーションによるモデル選択を採用する予定であったが,コンテストの際には時間的な制約のため実現できなかった.そこで,学習データでクロスバリデーションを行ない,平均精度が最大となるモデルを最適なモデルとして選択するようにし再実験を行なった.クラスである英語見出し語は,評価,比較が容易になるようにTMの用例のみから選択した.評価は次の二種類の評価方法で行なった.\begin{description}\item[評価方法1:]見出し語による評価正解の用例から日英見出し語を取り出し,これを用例番号の代わりに正解として用いて評価する.コンテストの評価で,正解が翻訳のみからなると仮定した場合の評価方法に相当する.例えば,図~\ref{fig:tm_example2}において「senseid」で表される用例番号の代わりに「headword」で表される日本語見出し語と$<$ehead$>$$<$/ehead$>$で囲まれた英語見出し語のペアを正解として用いる.\item[評価方法2:]用例番号による評価システムの出力を見出し語とする用例集合からランダムに用例を選び,その用例番号の正否で評価する.コンテストの評価で,正解がTMの用例のみからなると仮定した場合の評価方法に相当する.例えば,システムの入力が図~\ref{fig:tm_example2}の「headword」で表される日本語見出しであり,出力が$<$ehead$>$$<$/ehead$>$で囲まれた英語見出し語の場合に,この見出し語の代わりに「senseid」で表される用例番号をシステムの出力とする.同じ見出し語を持つ用例が複数ある場合はランダムに選ぶ.\end{description}学習データの数は21,650,クラスの数は平均で11.0(441/40)であった.学習データを先頭から順番に10個置きに同じ集合に含まれるよう分割し,各単語ごとに10分割のクロスバリデーションをして平均精度が最大となるモデルを選択した結果,選択されたモデルの内訳は次の通りであった.\begin{itemize}\itemME:21単語(名詞14,動詞7)\itemSVM:12単語(名詞4,動詞8)\itemDL:7単語(名詞2,動詞5)\end{itemize}結果は表~\ref{tab:exp:cross_valid}の通りであった.手法1での類似度および分割数の閾値としては,学習データに対する精度が最大になったときの値つまり1.0と0,および,テストデータに対して最大の精度が得られたときの値つまり0.8と1の二種類をあげた.閾値が1.0と0のときの,単語ごとの精度と学習文数,クラス数との関係は表~\ref{tab:result3}の通りである\footnote{コンテストの時に比べて,主辞単語の定義を変更したり,追加用例を抽出した対訳辞書のバージョンがあがったりしたため,表~\ref{tab:result2}に比べて,クラス数や学習文数が増えている場合がある.}.\begin{table}[htbp]\begin{center}\caption{クロスバリデーションによりモデル選択を行なったときの精度}\label{tab:exp:cross_valid}\begin{tabular}[c]{|c|c|c|r|r|}\hline手法&\multicolumn{2}{c|}{閾値}&\multicolumn{2}{c|}{精度}\\\cline{2-5}&類似度&分割数&\multicolumn{1}{c|}{評価方法1}&\multicolumn{1}{c|}{評価方法2}\\\hline2&-&-&65.2\,\%(782/1,200)&61.1\,\%(733/1,200)\\1+2&1.0&0&65.8\,\%(789/1,200)&61.8\,\%(741/1,200)\\1+2&0.8&1&65.9\,\%(791/1,200)&62.0\,\%(744/1,200)\\\hline\end{tabular}\end{center}\end{table}\begin{table*}[htbp]\footnotesize\begin{center}\caption{単語ごとの精度(クロスバリデーションによるモデル選択時)}\label{tab:result3}\begin{tabular}[c]{|l@{}l|r|r|r|r|@{}r@{}r|@{}r@{}r|}\hline単語&(読み)&学習文&クラス&学習文数&学習&\multicolumn{2}{c|}{手法1+2}&\multicolumn{2}{c|}{手法2}\\\cline{7-10}&&数&数&/クラス&モデル&評価1&評価2&評価1&評価2\\\hline一般&(ippan)&778&16&48.6&ME&15/30&12/30&16/30&13/30\\一方&(ippou)&135&10&13.5&SVM&4/30&4/30&4/30&4/30\\今&(ima)&413&11&37.5&ME&29/30&29/30&29/30&29/30\\意味&(imi)&298&9&33.1&ME&22/30&21/30&21/30&20/30\\核&(kaku\_n)&742&4&185.5&SVM&16/30&16/30&14/30&14/30\\記録&(kiroku)&489&6&81.5&DL&29/30&24/30&29/30&24/30\\国内&(kokunai)&255&5&51.0&ME&19/30&19/30&19/30&19/30\\言葉&(kotoba)&675&19&35.5&ME&30/30&30/30&30/30&30/30\\市民&(shimin)&166&6&27.7&ME&25/30&21/30&25/30&21/30\\事業&(jigyou)&581&5&116.2&ME&21/30&21/30&18/30&18/30\\時代&(jidai)&613&12&51.1&ME&20/30&20/30&20/30&20/30\\姿&(sugata)&137&20&6.9&ME&9/30&9/30&10/30&10/30\\近く&(chikaku)&105&8&13.1&ME&15/30&14/30&15/30&14/30\\中心&(chushin)&326&9&36.2&ME&17/30&17/30&17/30&17/30\\花&(hana)&543&15&36.2&ME&23/30&23/30&23/30&23/30\\反対&(hantai)&457&11&41.5&ME&25/30&23/30&26/30&24/30\\場合&(baai)&383&7&54.7&DL&22/30&16/30&22/30&16/30\\前&(mae)&824&15&54.9&SVM&10/30&10/30&10/30&10/30\\胸&(mune)&269&12&22.4&ME&17/30&17/30&17/30&17/30\\問題&(mondai)&1,848&9&205.3&SVM&22/30&21/30&21/30&20/30\\\hline全名詞&&10,037&209&48.0&-&390/600&367/600&386/600&363/600\\\hline与える&(ataeru)&565&18&31.4&DL&23/30&23/30&23/30&23/30\\言う&(iu)&1,276&19&67.2&DL&23/30&15/30&24/30&16/30\\受ける&(ukeru)&1,331&18&73.9&DL&11/30&11/30&12/30&12/30\\描く&(egaku)&189&6&31.5&SVM&17/30&17/30&17/30&17/30\\買う&(kau)&798&12&66.5&ME&25/30&25/30&24/30&24/30\\書く&(kaku\_v)&796&2&398&ME&29/30&21/30&29/30&20/30\\聞く&(kiku)&453&9&50.3&ME&19/30&18/30&19/30&18/30\\超える&(koeru)&57&8&71.25&ME&24/30&24/30&24/30&24/30\\使う&(tsukau)&1,320&11&120.0&DL&28/30&26/30&27/30&25/30\\作る&(tsukuru)&702&14&50.1&SVM&20/30&20/30&20/30&20/30\\伝える&(tsutaeru)&143&13&14.2&SVM&8/30&8/30&7/30&7/30\\出る&(deru)&608&22&27.6&SVM&5/30&5/30&5/30&5/30\\乗る&(noru)&611&12&41.9&ME&15/30&15/30&15/30&15/30\\図る&(hakaru)&127&8&50.9&ME&28/30&28/30&28/30&28/30\\待つ&(matsu)&523&6&87.2&ME&29/30&23/30&29/30&23/30\\守る&(mamoru)&313&7&44.7&SVM&15/30&15/30&13/30&13/30\\見せる&(miseru)&189&7&27.0&SVM&28/30&28/30&28/30&28/30\\認める&(mitomeru)&114&4&28.5&SVM&11/30&11/30&11/30&11/30\\持つ&(motsu)&1,320&30&44.0&DL&19/30&19/30&19/30&19/30\\求める&(motomeru)&178&6&29.7&SVM&22/30&22/30&22/30&22/30\\\hline全動詞&&11,613&232&50.1&-&399/600&374/600&396/600&370/600\\\hline合計&&21,650&441&49.1&-&789/1,200&741/1,200&782/1,200&733/1,200\\\hline\end{tabular}\end{center}\end{table*}クラスである英語見出し語は,上述のようにTMの用例のみから選択しているため,表~\ref{tab:result2}と表~\ref{tab:result3}を単純に比較することはできない.しかし,今回の追加実験で用いたクラスはコンテストのときに用いたクラスに包含されるため,コンテストの出力のうち追加実験で用いたクラスを出力したもののみを対象として評価した.ここで対象となった単語は861語であり,コンテストのときの精度は評価方法1で61.8\,\%(532/861),評価方法2で58.0\,\%(500/861)であり,追加実験での精度は評価方法1で68.4\,\%(589/861),評価方法2で63.5\,\%(547/861)であった.コンテストでモデル選択を行えていたら,5\,\%程度精度が良かった可能性がある.二つの評価基準により精度が4\,\%程度異なるのは,コンテストで正解とされた用例における見出し語と同じものを含む用例が必ずしもすべて正解に含まれているとは限らないためである.つまり,評価方法1より評価方法2の方が厳しい基準となっているためである.例えば,「わがままを言わず,全力で頑張りたい」という入力文で対象単語が「言う」のとき,\begin{itemize}\item<言う>までもない:tobeneedlessto<say>\end{itemize}という用例は正解に含まれていたが,\begin{itemize}\item<言い>たいことを言う:tohaveone's<say>\end{itemize}という用例は同じ見出し語「言う」と「say」を持つにも関わらず正解には含まれていなかった.このような場合,評価方法1では「say」と回答しても正しいと評価されるが,評価方法2では,さらに用例を正しく選択して回答できないと正しいとは評価されない.このような見出し語と正解用例とのずれが確認されたのは14単語についてであり,残りの26単語については見出し語を含む用例はすべて正解に含まれていた.ずれがあった単語の内訳は,表~\ref{tab:discrepancy}の通りである.\begin{table}[htbp]\begin{center}\caption{見出し語と正解用例とのずれ}\label{tab:discrepancy}\begin{tabular}[c]{|ll|r|}\hline日本語見出し語&(読み)&ずれがあったもの\\\hline乗る&(noru)&1\\書く&(kaku\_v)&17\\一般&(ippan)&13\\記録&(kiroku)&15\\問題&(mondai)&4\\守る&(mamoru)&6\\近く&(chikaku)&1\\反対&(hantai)&3\\今&(ima)&2\\市民&(shimin)&7\\使う&(tsukau)&2\\意味&(imi)&1\\言う&(iu)&19\\待つ&(matsu)&20\\\hline合計&&111\\\hline\end{tabular}\end{center}\end{table}この表で,「ずれがあったもの」とは,テストの対象単語30出現のうち,正解用例の見出し語と同じものを含む用例がひとつでも正解に含まれなかった場合の数のことである.このずれは,見出し語が同じでも文脈によって意味が違う場合があることを示している.対象単語の翻訳に使える用例を選択するというタスクでは,訳語選択以上の意味的な曖昧性解消を要求していると言えるだろう.\subsection{素性と精度}\label{sec:feature_sets_and_accuracy}この節では,各素性集合と精度との関係について述べる.表~\ref{table:exp:feature}に,実験に用いた素性集合の種類とそのときに得られた精度をあげる.「機械翻訳モデル」の欄にはクロスバリデーションによって選択された機械学習モデルの数を表わす.手法1での類似度および分割数の閾値はそれぞれ,学習データに対する精度が最大になったときの値つまり1.0,0とした.括弧内の数字は,素性集合をすべて用いたときに得られた精度からの増減を表わす.表~\ref{table:exp:feature}から素性集合1は精度向上に貢献していることが分かるが,素性集合2と素性集合3は精度を下げる結果となっていたことが分かる.これは,学習データの文数が平均49.1文(21,650/441)と少なく,過学習に陥ったためと考えられる.\begin{table}[htbp]\begin{center}\caption{各素性集合を削除したときの実験結果}\label{table:exp:feature}\begin{tabular}[c]{|l|c|l|l|c|c|c|c|}\hline\multicolumn{1}{|c|}{素性集合}&手法&\multicolumn{2}{c|}{精度}&\multicolumn{4}{c|}{機械学習モデル}\\\cline{3-8}&&\multicolumn{1}{c|}{評価方法1}&\multicolumn{1}{c|}{評価方法2}&SVM&ME&DL&SB\\\hlineすべて&2&65.2\,\%&61.1\,\%&12&21&7&0\\すべて&1+2&65.8\,\%&61.8\,\%&12&21&7&0\\1+2&2&66.8\,\%($+$1.6)&62.1\,\%($+$1.0)&20&15&5&0\\1+2&1+2&67.4\,\%($+$1.6)&63.1\,\%($+$1.3)&20&15&5&0\\1+3&2&63.1\,\%($-$2.1)&58.5\,\%($-$2.6)&3&22&15&0\\1+3&1+2&64.0\,\%($-$1.8)&59.7\,\%($-$2.1)&3&22&15&0\\2+3&2&62.8\,\%($-$2.4)&56.9\,\%($-$4.2)&0&26&14&0\\2+3&1+2&64.1\,\%($-$1.7)&58.6\,\%($-$3.2)&0&26&14&0\\1&2&68.2\,\%($+$3.0)&62.9\,\%($+$1.8)&15&10&14&1\\1&1+2&69.2\,\%($+$3.4)&64.3\,\%($+$2.5)&15&10&14&1\\2&2&65.4\,\%($+$0.2)&60.4\,\%($-$0.7)&0&35&3&2\\2&1+2&65.9\,\%($+$0.1)&61.3\,\%($-$0.5)&0&35&3&2\\3&2&57.5\,\%($-$7.7)&52.5\,\%($-$8.6)&1&24&12&3\\3&1+2&59.4\,\%($-$6.4)&54.9\,\%($-$6.9)&1&24&12&3\\\hline\end{tabular}\\\vspace*{1em}(手法1での閾値:類似度=1.0,分割数=0)\end{center}\end{table}\subsection{モデルと精度}\label{sec:models_and_accuracy}この節では,複数の機械学習モデルから最適なモデルを選択した場合と,単独の機械学習モデルを用いた場合との違いについて述べる.これまでの実験では,個々の単語に対し,複数の機械学習モデルからクロスバリデーションによりモデルを選択していたが,すべて単一の機械学習モデルを用いた場合との精度の違いが明らかではなかった.そこで,手法2で各々の機械学習モデルをそれぞれ単独で用いた場合の実験を行なった.素性としては,前節で最も良い精度が得られた素性集合1を用いた.手法1における類似度と分割数の閾値は学習データで最適値となった1.0と0に設定した.一番緩い基準と厳しい基準で評価した結果を表~\ref{tab:exp:each_model1}と表~\ref{tab:exp:each_model2}にあげる.この表で,混合とは複数の機械学習モデルから最適なモデルを選択した場合を意味する.混合(上限値)の行にあげた精度は,個々の単語ごとに,複数の機械学習モデルからテストデータで最も良い精度が得られるモデルを選択した場合の精度であり,複数のモデルを用いる場合の潜在的な上限値を意味している.また,最頻とは常に学習データで最も学習文数の多いクラスを出力するモデルを意味する.\begin{table}[htbp]\begin{center}\caption{機械学習モデル単独での精度とモデル選択による上限値(一番緩い基準)}\label{tab:exp:each_model1}\begin{tabular}[c]{|c|c|r|r|}\hlineモデル&手法&\multicolumn{2}{c|}{精度}\\\cline{2-4}&&\multicolumn{1}{c|}{評価方法1}&\multicolumn{1}{c|}{評価方法2}\\\hlineSVM&2&70.3\,\%(843/1,200)&64.8\,\%(778/1,200)\\SVM&1+2&71.1\,\%(853/1,200)&66.0\,\%(792/1,200)\\ME&2&68.4\,\%(821/1,200)&63.4\,\%(761/1,200)\\ME&1+2&69.0\,\%(828/1,200)&64.2\,\%(771/1,200)\\SB&2&67.8\,\%(813/1,200)&63.7\,\%(764/1,200)\\SB&1+2&68.6\,\%(823/1,200)&64.8\,\%(778/1,200)\\DL&2&68.6\,\%(823/1,200)&63.4\,\%(761/1,200)\\DL&1+2&69.7\,\%(836/1,200)&64.8\,\%(778/1,200)\\混合&2&68.2\,\%(818/1,200)&62.9\,\%(755/1,200)\\混合&1+2&69.2\,\%(830/1,200)&64.3\,\%(771/1,200)\\最頻&-&64.0\,\%(768/1,200)&59.0\,\%(708/1,200)\\\hline混合(上限値)&1+2&74.8\,\%(898/1,200)&70.2\,\%(842/1,200)\\\hline\end{tabular}\end{center}\begin{center}\caption{機械学習モデル単独での精度とモデル選択による上限値(一番厳しい基準)}\label{tab:exp:each_model2}\begin{tabular}[c]{|c|c|r|r|}\hlineモデル&手法&\multicolumn{2}{c|}{精度}\\\cline{2-4}&&\multicolumn{1}{c|}{評価方法1}&\multicolumn{1}{c|}{評価方法2}\\\hlineSVM&2&61.6\,\%(739/1,200)&56.0\,\%(672/1,200)\\SVM&1+2&{\bf62.4\,\%(749/1,200)}&{\bf57.3\,\%(687/1,200)}\\ME&2&59.8\,\%(718/1,200)&54.8\,\%(657/1,200)\\ME&1+2&60.6\,\%(727/1,200)&55.7\,\%(668/1,200)\\SB&2&60.0\,\%(720/1,200)&55.8\,\%(670/1,200)\\SB&1+2&60.8\,\%(730/1,200)&56.9\,\%(683/1,200)\\DL&2&59.4\,\%(713/1,200)&54.1\,\%(649/1,200)\\DL&1+2&60.5\,\%(726/1,200)&55.5\,\%(666/1,200)\\混合&2&59.6\,\%(715/1,200)&54.2\,\%(650/1,200)\\混合&1+2&60.7\,\%(728/1,200)&55.7\,\%(668/1,200)\\最頻&-&53.3\,\%(640/1,200)&48.1\,\%(577/1,200)\\\hline混合(上限値)&1+2&66.0\,\%(792/1,200)&61.2\,\%(735/1,200)\\\hline\end{tabular}\end{center}\end{table}これらの結果から,これまでの実験で用いてきたクロスバリデーションによるモデル選択の方法は単独の学習モデル(SVM)を用いる方法に比べて劣ること,しかし,潜在的には複数のモデルを組み合わせることにより,より良い精度(5\,\%程度良い精度)が得られることが分かる.\subsection{学習データと精度}\label{sec:data_and_accuracy}この節では,他の言語資源から対訳用例を自動抽出して用いた場合の効果について述べる.学習に,それぞれ,TM用例のみを用いた場合,他の言語資源から自動抽出した対訳用例のみを用いた場合,すべて用いた場合の三種類の比較実験を行なった.訳語選択モデルとしては,これまでの実験で最も精度の良かった組み合わせのモデル,つまり,手法1(類似度と分割数の閾値はそれぞれ1.0と0に設定)とSVMの組み合わせに素性集合1を用いた場合のものを用いた.結果を表~\ref{table:exp:data}にあげる.評価は一番緩い基準で行なった.\begin{table}[htbp]\begin{center}\caption{学習データを変更したときの実験結果}\label{table:exp:data}\begin{tabular}[c]{|l|l|l|}\hline学習データ&\multicolumn{2}{c|}{精度}\\\cline{2-3}&\multicolumn{1}{c|}{評価方法1}&\multicolumn{1}{c|}{評価方法2}\\\hlineTMのみ&64.0\,\%(768/1,200)&57.4\,\%(689/1,200)\\追加用例のみ&64.4\,\%(773/1,200)&57.8\,\%(693/1,200)\\TMと追加用例&71.1\,\%(853/1,200)&66.0\,\%(792/1,200)\\\hline\end{tabular}\\\vspace*{1em}(手法1での閾値:類似度=1.0,分割数=0)\end{center}\end{table}表~\ref{table:exp:data}より,TM用例だけでなく,他の言語資源から自動抽出した対訳用例も用いた場合に,より精度が良くなることが分かる.他の言語資源から対訳用例を抽出する際には,日英の見出し語が出現しているかどうかだけを手がかりにしていたため,日英見出し語が対応関係にないものも抽出してしまっていたが,現段階ではこの単語対応を考慮していなかったことによる悪影響よりも自動抽出した用例が精度向上へ貢献する度合いの方が顕著に勝っていると言えそうである.今回用いたTMは新聞記事から抽出した語句を元に人手で作成されたものであり,コンテストの対象である新聞記事と同じ,特化したドメインの知識と考えられる.一方,自動抽出した用例は一般的な対訳辞書の用例であり,一般的なドメインの知識であると考えれる.表~\ref{table:exp:data}の結果は,一般的なドメインの知識と特化したドメインの知識が相補的に影響した結果であるとも言えるだろう.
\section{関連研究}
\label{sec:related_works}これまでに,対訳コーパスを用いた統計的なあるいは機械学習モデルに基づく訳語選択の手法が数多く提案されてきた(例えば,\cite{Brown:93,Hussein:94,HTanaka:94,berger:cl96}など)\footnote{テンスやアスペクト,モダリティの翻訳に機械学習モデルに基づく手法を用いた研究には文献\cite{Murata2001d}のものがある.}.我々も同様に機械学習モデルに基づく手法を用いている.これまでに提案されてきた手法との主な違いは,SVMなど複数の機械学習モデルを利用している点と,それらの機械学習モデルと用例に基づく手法とを組み合わせて利用している点,さらに,これまでの方法がすべての単語に対し同じ機械学習モデルを用いているのに対して,我々は単語ごと(原言語見出し語ごと)に異なるモデルを作成し,その中から最適な機械学習モデルを選択している点にある.実験では,クロスバリデーションによる選択は単独の学習モデル(SVM)より劣ることが分かったが,潜在的には複数のモデルを組み合わせることによりより良い精度(5\,\%程度良い精度)が得られることも示した.用例に基づく手法として我々が用いたものはSato\cite{Sato92}が提案した手法に類似している.我々の手法との主な違いは,類似度を計算する際に課す制約である.Satoの手法では特に制約は課していないが,我々の場合は,入力文と用例とがいくつかの部分に分割されて一致する場合にその分割数を制限する,対象単語と同じ見出し語を持つ用例に限定する,などの制約を課している.実験により,前者の制約を課すことによって良い結果が得られることが分かった.Satoの手法では,文字列の並びの順序が異なる場合でも一致したと見なす柔軟さがある.その柔軟性を我々の手法にも採り入れたい.本論文で述べたTMあるいはそれと同様の対訳用例を訳語選択に用いた研究としては,Baldwin\cite{Baldwin:2001}やSumita\cite{Sumita:2000}の研究がある.Baldwinは原言語用例の情報を用いてTMから訳語選択に最も適した用例を選択する方法を提案した.彼はbigramなどの文字列情報のみを用いたときが最も精度良く類似した用例を選択できると報告している.我々の方法でもbigramなどの文字列情報を素性として利用するようにすれば,精度向上が期待できると考えている.SumitaはTMの利用方法という点で我々と類似した方法を提案している.彼の方法では,我々の手法と同様に,TMの用例を目的言語見出し語ごとに用例集合としてまとめて利用している.そして,入力文と用例集合をそれぞれ検索質問文,文書と考え,情報検索でよく用いられるベクトル空間モデルを用いて入力文と最も類似した用例集合を選択する.この手法では学習は行なわれないが,我々の手法では学習により,入力文と対象単語に関して最も類似した用例集合を選択する.また,本論文では,対訳用例の訳語選択への利用方法に関する知見として,今回用いたTMのように一見出し語あたり30個程度の例があれば,それをもとに自動抽出した対訳用例と併せて学習に用いることで精度が向上することを示した.機械翻訳では,Marcu\cite{Marcu:2001}が用例に基づく手法と統計的機械翻訳モデルを組み合わせて一文全体を翻訳する手法を提案した.統計的機械翻訳モデルを用いて入力文の最適な翻訳を探索する際に,必ずしも最適解を探索するのではなく,入力文と一致するTM用例があればそれを優先する,という制約を課すことにより翻訳精度が向上したと報告している.我々の手法では,用例に基づく手法と機械学習モデルを組み合わせて,一文全体の翻訳ではなく,各単語の訳語選択を行なう.また,Marcuは完全一致となる用例のみを用いているが,我々はいくつかの部分に分かれて一致する用例や部分一致となる用例も用いている.実験ではこのような用例も用いた場合に精度が向上したことから,一文全体の翻訳の際にも部分一致となる用例を用いるとより良い結果が得られる可能性が高いと考えている.今後,我々の手法が一文全体の翻訳の精度にどれだけ貢献するかを調べたい.
\section{まとめ}
\label{sec:conclusion}本論文では,機械翻訳における訳語選択の手法について述べた.我々のシステムは,入力文と対象単語が与えられたとき,対象単語に関して入力文と用例(あるいは用例集合)との類似度を求め,類似度が最大となる用例(あるいは用例集合)を用いて対象単語の訳語選択を行なう.類似度は,入力文,対象単語,用例に関する様々な情報を手がかりとして考慮し,用例に基づく手法と機械学習モデルに基づく手法を組み合わせて求める.学習には,TMの用例だけでなく,他の対訳辞書あるいは対訳コーパスから抽出した用例を用い,学習の際には,原言語と目的言語の間で互いに対応関係がない各単言語コーパスから抽出した頻度情報なども考慮する.コンテストでの結果および,追加実験の結果を分析して分かったことは以下の通りである.\begin{itemize}\item文字列の類似性に基づく方法(手法1)は慣用的な表現を含む文などに対して精度が良かった.\item対訳用例を自動的に収集して学習データに追加することにより,より良い精度が得られることが分かった.\item文字列の類似性に基づく方法(手法1)と機械学習モデルに基づく方法(手法2)を組み合わせたときに最も良い精度が得られた.\end{itemize}今後の課題としては,以下のことを考えている.\begin{itemize}\item学習データの質の改善.他の言語資源から追加した対訳用例の英語見出し語が,日本語に訳したときその訳語に曖昧性のある場合には,データの質が精度に悪影響を及ぼす場合があった.今後,対訳用例における単語対応をとり,見出し語間に対応関係があるもののみ選択するようにし,学習データの質を改善したい.\item最適な機械学習モデルの選択方法の模索.本論文では,個々の単語に対して最適な機械学習モデルを選択するために,学習データにおいてクロスバリデーションを行ない,平均精度が最大となるモデルを最適なモデルとして採用したが,単独のモデル(SVM)に劣ることが分かった.今後,最適なモデルの選択を学習モデルにより決定するstacking法などを適用するなど,最適なモデルの選択方法を模索したい.\item新たな素性の導入と選択.見出し語とそのまわりに出現する単語の実データにおける分布をできるだけ反映させたモデルを作るために,単言語コーパスから抽出した単語の頻度情報を素性として利用した.しかし,過学習に陥り精度を下げる結果となった.今後,単言語コーパスに関する情報で何が訳語選択に貢献する有用な情報であるかを模索したい.\end{itemize}\begin{flushleft}{\bf謝辞}\end{flushleft}本研究を進めるにあたって,データを利用させて頂いた毎日新聞社,日経新聞社,産経新聞社,ニフティ,LDCの各社に感謝する.また,貴重なコメントを下さった査読者,ならびに,本特集号編集委員長である東京大学の黒橋禎夫先生に感謝の意を表したい.\bibliographystyle{jnlpbbl}\bibliography{6}\begin{biography}\biotitle{略歴}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所.現在,独立行政法人通信総合研究所研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{関根聡}{1987年東京工業大学応用物理学科卒.同年松下電器東京研究所入社.1990-1992年UMIST,CCL,VisitingResearcher.1992年MSc.1994年からNewYorkUniversity,ComputerScienceDepartment,AssistantResearchScientist.1998年PhD.同年からAssistantResearchProfessor.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL会員.}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.現在,独立行政法人通信総合研究所主任研究員.自然言語処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,ACL,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所.現在,独立行政法人通信総合研究所けいはんな情報通信融合研究センター自然言語グループリーダー.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V03N02-04 | \section{はじめに}
日本語の理解において省略された部分の指示対象を同定することは必須である.特に,日本語においては主語が頻繁に省略されるため,省略された主語の指示対象同定が重要である.省略された述語の必須格をゼロ代名詞と呼ぶ.主語は多くの場合,述語の必須格であるから,ここでは省略された主語をゼロ主語と呼ぶことにする.ここでは特に,日本語の複文におけるゼロ主語の指示対象同定の問題を扱う.日本語の談話における省略現象については久野の分析\cite{久野:日本文法研究,久野78}以来,言語学や自然言語処理の分野で様々な提案がなされている.この中でも実際の計算モデルという点では,centeringに関連するもの\cite{Kameyama88,WIC90}が重要である.しかし,これらは主として談話についての分析やモデルである.したがって,複文に固有のゼロ主語の指示対象同定という観点からすればきめの粗い点もある\cite{中川動機95,中川ので95}.したがって,本論文では主としてノデ,カラで接続される順接複文について,複文のゼロ主語に固有の問題について扱う.ノデ文については,既に\cite{中川動機95,中川ので95}において,構文的ないしは語用論的な観点から分析している.そこで,ここでは意味論的観点からの分析について述べる.複文は従属節と主節からなるので,主節主語と従属節主語がある.複文の理解に不可欠なゼロ主語の指示対象同定の問題は,2段階に分けて考えるべきである.第一の段階では,主節主語と従属節主語が同じ指示対象を持つかどうか,すなわち共参照関係にあるかどうかの分析である.第二の段階では,第一段階で得られた共参照関係を利用して,実際のゼロ主語の指示対象同定を行なう.このうち,第一の共参照関係の有無は,複文のゼロ主語の扱いにおいて固有の問題であり,本論文ではこの問題について考察していく.さて,主語という概念は一見極めて構文的なものであるが,久野の視点論\cite{久野78}で述べられているように実は語用論的に強い制限を受けるものである.例えば,授受補助動詞ヤル,クレルや,受身文における主語などは視点に関する制約を受けている.このような制約が複文とりわけノデ文においてどのように影響するかについては\cite{中川動機95}で詳しく述べている.ここでは,見方を変えて,意味論的な観点から分析するので,ゼロ主語の問題のうち視点に係わる部分を排除しなければならない.そこで,能動文においては直接主語を扱うが,受身文においては対応する能動文の主語を考察対象とする.また,授受補助動詞の影響については,ここでの意味論的分析と抵触する場合については例外として扱うことにする.なお,ここでの意味論的分析の結果は必ずしも構文的制約のように例外を許さない固いものではない.文脈などの影響により覆されうるものであり,その意味ではデフォールト規則である.ただし,その場合でも文の第一の読みの候補を与える点では実質的に役立つものであろう.さて,この論文での分析の対象とする文は,主として小説に現れる順接複文(一部,週刊誌から採取)である.具体的には以下の週刊誌,小説に記載されていた全ての順接複文を対象とした.\noindent週間朝日1994年6月17日号,6月24日号,7月1日号\noindent三島由紀夫,鹿鳴館,新潮文庫,1984\noindent星新一,ようこそ地球さん,新潮文庫,1992\noindent夏目漱石,三四郎,角川文庫,1951\noindent吉本ばなな,うたかた,福武文庫,1991\noindentカフカ/高橋義孝訳,変身,新潮文庫,1952\noindent宗田理,殺人コンテクスト,角川文庫,1985\noindent宮本輝,優駿(上),新潮文庫,1988\bigskipこのような対象を選んだ理由は,物理的な世界の記述を行なう文ばかりでなく,人間の心理などを記述した文をも分析の対象としたいからである.実際週刊誌よりは小説の方が人間の心理を表現した文が多い傾向がある.ただし,週刊誌においても人間心理を記述した文もあるし,逆に小説でも物理的世界の因果関係を記述した文も多い.次に,分析の方法論について述べる.分析の方法の一方の極は,全て論文著者の言語的直観に基づいて作例を主体にして考察する方法である.ただし,この場合非文性の判断や指示対象に関して客観的なデータであるかどうか疑問が残ってしまう可能性もないではない.もう一方の極は,大規模なコーパスに対して人間の言語的直観に頼らず統計的処理の方法で統計的性質を抽出するものである.後者の方法はいろいろな分野に関する十分な量のデータがあればある程度の結果を出すことは可能であろう.ただし,通常,文は対象領域や(小説,新聞,論文,技術文書などという)ジャンルによって性質を異にする.そこで,コーパスから得られた結果はそのコーパスの採取元になるジャンルに依存した結果になる.これらの問題点に加え,単なる統計的結果だけでは,その結果の応用範囲の可能性や,結果の拡張性などについては何も分からない.そこでここでは,両極の中間を採る.すなわち,まず第一に筆者らが収録した小規模なコーパスに対してその分布状況を調べることにより何らかの傾向を見い出す.次に,このようにして得られた傾向に対して言語学的な説明を試みる.これによって,見い出された傾向の妥当性,応用や拡張の可能性が推測できる.具体的には,従属節と主節の述語の性質を基礎に,主節主語と従属節主語の一致,不一致という共参照関係を調べる.このような述語の性質として,動詞に関しては,IPAL動詞辞書~\cite{IPALverb}にある意味的分類,ヴォイスによる分類,ムード(意志性)による分類を利用する.形容詞,形容動詞に関してはIPAL形容詞辞書~\cite{IPALadj}にある分類,とりわけIPAL形容詞辞書~\cite{IPALadj}にある意味分類のうち心理,感情,感覚を表すものに関しては快不快の素性を,属性の評価に関しては良否の素性を利用する.例えば,\enumsentence{淋しいので,電話をかける.}という文では,従属節に「感情-不快」という性質を与え,主節に「意志的な能動の動詞」という性質を与える.また,主節主語と従属節主語の一致,不一致については人手で判断する.このようにして与える従属節と主節の性質および主語の一致不一致の組合せが実例文においてどのように分布するかを調べ,そこに何か特徴的な分布が見い出されれば,その原因について考察するという方法を採る.
\section{順接複文の性質}
label{node-kara}本節では,この論文で対象としている順接複文すなわちノデ文,カラ文の意味論的性質についてまとめておく.第一に順接複文は因果性を記述しており,その従属節は原因,理由を示している.しかし,ノデ文とカラ文で微妙な差があり\cite{日本語の複文構造,カラノデ},それが主節主語と従属節主語の共参照関係に影響を与える可能性がある.以下で,ノデ文とカラ文の意味について説明する.\bigskip\noindent{\dgノデ文:}従属節と主節とも話し手の主観的評価を離れて事実とみなしている.よって,因果性は記述された世界の中に内在する.つまり,因果性は,主節の主語が従属節の事態を評価した結果何らかの動作をしたり状態になったりするという形で現れるものである.\noindent{\dgカラ文:}主節の内容も従属節の内容も基本的には話し手が外部から評価したものである.したがってカラ文の場合,因果性はむしろ話し手によって認識されたものであるといえる.もちろん,ノデ文と同じく因果性がカラ文で記述された世界に内在している場合も多い.\bigskip後の節で述べることを先取りすると,実際の例文を調べて得られる観察の妥当性や拡張性の検討に当たって,これらのノデとカラの意味は中心的役割を果たす.ただし,目下のところ,主節主語と従属節主語の共参照関係に関しては,次のような考察ができる.すなわち,ノデ文では主として主節主語,またカラ文では主として話し手という差はあるものの,いずれも従属節で記述されている事態を観察ないしは感覚し評価する人物がいる.また,カラ文の話し手が主節主語になっている場合も多く,ノデ文と同じように記述された世界に内在する因果性を記述することも多い.よって順接複文であるノデ文全ておよびカラ文のかなりの部分の性質として次のことがいえる.\bigskip\noindent{\bf1.}従属節に記述されている事態を外部から観察可能なら,主節主語と従属節主語は不一致でもよい.\noindent{\bf2.}従属節に記述されている事態を外部から観察不可能なら,主節主語と従属節主語は一致しなければならない.\bigskipなお,\cite{中川動機95,中川ので95}では,この性質を利用してノデ文の共参照関係を語用論的に分析している.この論文では,外部からの観察可能性と述語の意味との関連に着目することになる.
\section{IPALの述語の素性}
label{section3}ここでは,IPALの動詞辞書\cite{IPALverb}および形容詞辞書\cite{IPALadj}に記載されている述語の素性のうち,本論文で利用しているものについてまとめておく.まず,動詞の意味素性としては主として次の2点に着目する.\begin{enumerate}\itemヴォイスによる以下の4分類.能動(例:殺す),相互(例:並ぶ),中動(例:走る),受動(例:習う).\\注意すべき点は,能動では,主語から発する行為が他に及ぶ点である.したがって,能動の場合は外部からの観察可能性が高い.一方,中動の場合は,主語の行為が他には及ばないから外部からの観察可能性は低い.また,受動の場合は,主語自身は原則的にはなんの行為もしていないわけで,同じく外部からの観察可能性はさらに低いといえる.実際,収録した例文の中に受動詞が使われているものはなかった.\item意味的分類.大きくは状態と動作に二分され,さらに存在,所有,移動などに細分される.30種類近い細分類があるので,ここでは適当にまとめた分類を用いた.\bigskip\hspace*{-3zw}\hspace*{-1mm}ただし,部分的には次の意志性に関する性質も利用している.\item意志性による以下の分類.1:命令形なし(例:そびえる).2:願望のみを表す(例:咲く).以上のふたつは常に無意志である.3a:命令をも表す(例:落す).基本的には意志性があるが,無意志の用法もある.3b:命令を表し,意志性の用法だけである(例:探す).1,2,3bのタイプは意志性の有無については表層的な語彙からだけで判断できる.しかし,3aはその判断は文脈などに依存するため意志性の有無を人手で判断しなければならない.そこで,本論文では3aタイプに関しては,意志性の判断を人手で行なった.\itemこの他に各項(ガ格,ヲ格,ニ格)の意味素性などの情報も記載されているが,これは対応する名詞の素性などとも関連してくるから,ここでは利用しなかった.\end{enumerate}\bigskip形容詞,形容動詞に関しては,次のような素性に着目する.\begin{enumerate}\item評価.属性の語義の形容詞は好ましい状態を表す場合は「良」,好ましくない状態を表す場合は「否」と書く.どちらでもない場合は単に「評価」と書くことにする.\item快・不快.感覚や感情を表す場合,話し手が快と感じるものなら「快」,不快に感じるものなら「不快」と書く.どちらともいえない場合は「心理」と書くことにする.\end{enumerate}なお,名詞\hspace{-0.3mm}$+$\hspace*{-1mm}ダは状態とする.形容動詞かどうかは,副詞「非常に」をつけられるかどうかでテストする.
\section{例文の分析}
この節ではノデ文とカラ文を,主節主語と従属節主語が一致,不一致の各々の場合について,従属節の述語の性質と主節の述語の性質を表にした結果を示し,そこから観察される傾向について検討する.\subsection{従属節が形容詞,形容動詞である場合の分布}まず,動詞は,能動,中動,相互,受動(実際は例なし)に粗く分類し,形容詞,形容動詞に関しては前節で述べたように快不快心理,良否評価に細分類した分布表を示す.また,以下では紛らわしくない場合は,主節主語と従属節主語が一致する場合を単に「主語の一致」,不一致の場合を単に「主語の不一致」と書くことにする.なお,以下の各表の各データにおいて数字1/数字2という記述は,数字1がノデ文の個数,数字2がカラ文の個数を意味する.表のデータが空欄であるのは0/0すなわちノデ,カラ文とも0個であることを表す.また,例文数はノデ文が187例,カラ文が440例である.また,主語が一致するのは,ノデ文が72例,カラ文が142例,主語が不一致なのはノデ文が115例,カラ文が298例で,全体としてはノデ文とカラ文は同じような傾向である.\begin{center}\frame{\parbox{5mm}{\centering\shortstack{従\\属\\節}}\begin{tabular}{|l||c|c|c|c|c|c|c|c|c|c|c|c|}&\multicolumn{12}{c}{主節}\\\hline&能動&中動&相互&授受&使役&快&心理&不快&良&評価&否&状態\\\hline\hline能動&0/4&5/10&&&&&&&&0/2&0/1&0/3\\\hline中動&3/8&33/37&1/0&2/2&1/0&&0/1&2/2&&2/1&0/1&0/4\\\hline相互&&1/0&&&&&&&&&&\\\hline授受&&2/1&&&&&&&&&&\\\hline使役&&&&&&&&&&&&\\\hline快&&&&&&&&&&&&\\\hline心理&1/5&0/2&&0/1&&&0/2&&&0/2&&\\\hline不快&0/2&5/4&&0/1&&&&&&0/1&&\\\hline良&&1/1&0/1&&&&&&&&&\\\hline評価&1/2&6/7&&&&&&1/0&&&&0/1\\\hline否&1/0&1/1&&&&&&&&&&\\\hline状態&1/6&1/13&1/2&&&&0/2&&&0/5&0/1&0/3\\%\hlinerevisedbyshirai\end{tabular}}\\ノデ文の合計72例/カラ文の合計142例\\表1.形容(動)詞の性質を細分した分布(主語が一致の場合)\\\end{center}\vspace{1zh}\begin{center}\frame{\parbox{5mm}{\centering\shortstack{従\\属\\節}}\begin{tabular}{|l||c|c|c|c|c|c|c|c|c|c|c|c|}&\multicolumn{12}{c}{主節}\\\hline&能動&中動&相互&授受&使役&快&心理&不快&良&評価&否&状態\\\hline\hline能動&0/7&7/24&1/0&0/3&&&0/1&&0/1&0/12&&0/2\\\hline中動&9/31&48/62&&1/8&0/1&1/1&0/2&1/1&2/3&3/20&0/1&0/13\\\hline相互&&1/0&&&&&&&&&1/0&\\\hline授受&0/1&1/2&&0/1&&&&&&&&\\\hline使役&&&&&&&&&&0/1&&\\\hline快&&1/0&&&&&&&&&&\\\hline心理&0/3&1/0&0/1&0/1&0/1&&&&&0/1&&\\\hline不快&&3/1&&&&&&&&&&\\\hline良&&0/2&&&&1/0&&&&&&\\\hline評価&0/11&6/10&&&&&1/3&1/0&&0/2&0/1&0/2\\\hline否&4/2&3/4&&&&&&&&1/1&&\\\hline状態&3/9&8/26&&2/2&&&0/2&0/1&2/1&1/5&&1/7\\%\hlinerevisedbyshirai\end{tabular}}\\ノデ文合計115例/カラ文合計298例\\表2.形容(動)詞の性質を細分した分布(主語が不一致の場合)\\\end{center}以下ではこれらの表から得られる観察およびそれに対する言語学的な考察を行なう.これらの表によると,まずノデ文では,従属節が能動の動詞の場合,主節に形容詞,形容動詞,状態を表す動詞がこない.しかし,この現象についてもう少し深く考察してみる.まず,主節と従属節の主語が一致する場合について考えてみよう.この場合,従属節で記述される自分の意志的な動作が原因となって自分が持つに至った感情や感覚を主節として表現することはおかしい.なぜなら,その動作自体が主節の主語の意志的なものであり,その動作の結果をある程度予想しているはずだからである.例えば,\enumsentence{\label{1}$?$人を殺したので,恐ろしい.}は主語が一致とすると解釈すると若干違和感がある.ただし,不一致なら,おかしくない.これは次の文を見ればより明らかであろう.\enumsentence{\label{2}おとなしそうに見えた隣人が人を殺したので,私は恐ろしい.}では,なぜ不一致ではおかしくないか.他人の動作であれば,意志的な動作であっても,その動作に対する自分の感情や感覚を表す形容(動)詞で表現することは極ありふれたことだからである.ところで,自分の動作の結果に対する感情や感覚であっても,それが予想外に湧き上がってきた場合,すなわち状態の変化を表す場合は,不自然ではない.つまり,主節が動詞であれば許容できる表現となるであろう.例えば,\enumsentence{\label{3}人を殺したので,恐ろしくなった.}なら,主語が一致でも不一致でもおかしくない.さて,このような考察は従属節の動詞の意志性だけを利用して導いている.したがって,従属節の述語が能動の動詞のみならず中動の動詞であっても,意志性のものであれば同じ制約があるはずである.実際,例文を調べてみると,ノデ文では中動の動詞の場合でも,意志性がある場合は主語が一致する例はない.\begin{obs}\label{5}{\dgノデ文の場合:}従属節の動詞が意志性であり,主節の述語が感情ないし感覚形容(動)詞の場合は,主語が一致しない.ただし,主節の述語が動詞なら,感情や感覚を表す場合でも主語が一致しうる.\end{obs}カラ文では,表1,2から分かるように,従属節が能動の動詞あるいは中動の動詞で主節が形容(動)詞の例が多数ある.例えば,次のような一致および不一致の例である.\enumsentence{\label{k1}赤ん坊は乳母になついたから,大丈夫だ.}\enumsentence{\label{k2}何度追い払ってもついて来るから,嫌だ.}\ref{node-kara}節で述べたようにカラ文は従属節,主節ともその話し手の立場から評価されたものである.つまり,主語にとってはあずかり知らない二つの事象を話し手が原因と結果と認識して発話してよいわけである.例えば,(\ref{k1})では,主語である赤ん坊自身が大丈夫かどうか関知していることはこの文で言いたいことではない.あくまで,原因と結果という認識は話し手がしたものである.したがって,形容(動)詞で記述するような静的な状態が主節で記述されかつ,主語が一致してもよくなるわけである.しかし,表1,2を見ると,従属節が能動の動詞あるいは中動の動詞で主節が形容(動)詞の場合,主語が一致の場合8例に対し不一致の場合42例と不一致が圧倒的に多い.自分自身が何かの動作をしたことが理由になって,自分自身を評価したり感情を持ったりするという状態は考えにくいということは一般的にいえる.一方,自分自身の動作でなければ,それを評価したり,それに対して何らかの感情などを持つことはなんら不自然ではない.よって,カラ文が話し手の視点から因果性を認識するといっても,主語は一致しにくくなるのであろう.\begin{obs}\label{5k}{\dgカラ文の場合:}従属節が能動の動詞あるいは中動の動詞であり,主節が形容{\rm(}動{\rm)}詞だと,主語は一致しにくい.\end{obs}次の観察は表1,2から直接得られたものである.\begin{obs}\label{01}カラ文では,従属節が心理を表す形容{\rm(}動{\em)}詞の場合は主語が一致しやすい.\end{obs}心理は本来,主観的であり,主節の主語が他人の心理を読んで何かをするという事態は考えにくいという制限があると考えられる.したがって,ノデ文の場合は主語の一致は当然予測されることであるが,話し手から因果関係を認識するカラ文においても同様の制限が働いているのであろう.例えば,\enumsentence{\label{02}会いたいので/から,会いに出かけた.}のような文である.表1,2より次の観察も得られる.\begin{obs}\label{10}ノデ文の場合,従属節が不快あるいは否だと,主節は能動あるいは中動の動詞である場合が一致,不一致のいずれの場合も多い.\end{obs}例えば,次のような例である.\enumsentence{\label{20}苦しいので,薬を飲む.}この例のように不快な状態からの脱出するための意志的動作をする場合に対応している場合が多い.ただし,従属節が主節の主語に不快を与えて,その結果,主節が「怒る」などの無意志的な動作を記述する場合もある.実際ここで集めた例文を調べてみると,主節が意志的な動詞の場合は一致,無意志的動詞の場合は不一致という結果である.したがって,観察~\ref{10}を一歩進め,次の考察が得られる.\begin{kousatu}\label{30}ノデ文では従属節が不快の場合,主節が意志的な動詞なら主語は一致し,主節が無意志的な動詞なら主語は不一致である.\end{kousatu}主語が一致の場合は(\ref{20})が例文になるが,不一致の場合は次のような例である.\enumsentence{\label{31}相手がひどく横柄なので,ぼくはむっとした.}一方,従属節が快あるいは良の場合は,その状態から脱出しようという意志は働かないので,主節に意志性の動詞は来にくいと考えられる.事実,表1,2ではこのような組合せの例はない.ただし,全く不可能かといえばそうとも言い切れない.例えば,\enumsentence{\label{40}その宿を好きだったので,もう一度泊りに出かけた.}のように,快あるいは良の状態を続けよう,ないしは繰り返そうという場合がありうる.次に従属節,主節とも述語が形容(動)詞のノデ文について考えてみる.表1,2においてはこのようなケースは稀である.一般的に形容(動)詞は属性や状態を表す.ある属性や状態が原因になって何らの変化もなしに別の属性や状態になることはない.したがって,従属節と主節の双方において属性や状態が記述されることは考えにくいわけである.しかし,全く不可能というわけではなく,主語が一致と不一致の例として各々,\enumsentence{\label{50}私はその手の話には興味がないので,うんざりだ.}\enumsentence{\label{60}電車があまりに混雑しているので,気分が悪い.}のような例は可能である.実際,実例でこのタイプの文はこのような例であった.ただし,これで全て尽きているというわけではなく,主語が一致の場合と不一致の場合についてもう少し細かい分類を見て考察してみる必要がある.まず,一致の場合だが,同一の主語が矛盾する感情や評価を同時に持つことはありえない.よって次の考察が得られる.\begin{kousatu}\label{70}ノデ文では主語が一致する場合,従属節が快あるいは良,かつ主節が不快あるいは否という組合せはありない.同様に従属節が不快あるいは否,かつ主節が快あるいは良という組合せはありえない.\end{kousatu}\vspace{-0.3mm}このような組合せは収集した例文にも存在しない.ただし,主語が不一致だと,ある人にとっての不快は別人(例えば敵)にとっての快という場合もあるから,考察~\ref{70}のような組合せは矛盾ではなく,文として可能である.例えば,\enumsentence{\label{80}同僚のガールフレンドがあまりに美しいので,私はねたましかった.}などという文が可能である.一方,カラ文では従属節が形容(動)詞によって不快や否を表す例自体がほとんどない.感情,感覚などを表す心理的な述語は,そもそも主観的であり当事者(意味役割としては経験者)自身の立場からしか記述できないとされている.カラ文が外部の話し手の立場で記述していることを考えれば,従属節が主観的な快・不快を表す場合が少ないことは納得できる.ところで,従属節が形容(動)詞で評価の場合,主語の性質を調べると次のような観察が得られた.\begin{obs}\label{90}ノデ文,カラ文とも従属節が形容{\rm(}動{\rm)}詞で評価だと,従属節主語が無情物だと主語が不一致である.\end{obs}例えば,\enumsentence{\label{92}紛争地域の出張が多いから,家族が心配する.}である.従属節主語が無情物とくになにかの状況だったりすると,その結果を被るのは,その無情物そのものではなく,周りにいる人物や別の物である.なぜなら,無情物は意志的に動作しないから,無情物の評価が同一の無情物への別の評価なり状態変化なりを生むとは考えにくい.よって,観察~\ref{90}になると考えられる.この観察を少し拡張して考えると,従属節の主語が有情物とくに人間であっても,その動作なり様子なりが主節の主語ないしは話し手から観察されたような場合はやはり主語が一致しない.例えば,\enumsentence{\label{91}あまりに参加者が多いので,驚いた.}のような例はかなり多い.このような例は従属節だけを見て主語の一致,不一致を予想することは難しいが,主節の動詞が感情を表す場合はあてはまる場合が多い.よって,次のようになる.\begin{kousatu}\label{94}従属節の主語が有情物であっても,主節が感情を表す述語の場合は,主語は一致しない場合がある.\end{kousatu}実際の例文では,ノデ文主語が一致しない傾向が強いことが確かめられたが,カラ文では次のような一致の例も多く,必ずしもその傾向は見られない.\enumsentence{\label{95}自分のやり方に自信を持っているから,他人の非難は気にならない.}これもやはりノデとカラの意味の差によると考えられる.つまり,ノデ文では主節主語が従属節の事態を観察して主節に記述される感情を持つわけだから主語は一致しにくい.一方,カラ文では,従属節と主節の因果関係は話し手の認識による.したがって,主節の主語がある感情を持ったことが,実は主節の主語が従属節の事態を観察したこと以外の経験から得られたものでも,話し手が両者を因果関係にあると認識しさえすればよい.よって,主語が一致しても不都合はない.なお,これらの表には現れていないが,実際の例文においてノデ文には無意志の能動の動詞(IPALの意志性による分類の1および2)は現れない.しかし,実際には次のような例が可能であろう.\enumsentence{前回の試合で勝ったので,敵を侮ってしまった.}この例は主語が一致しているが,不一致の例も容易に作れる.よって,能動の動詞の無意志性は今のところ決定的な要因とは言えない.\subsection{主節および従属節の述語が動詞の場合}前節の表1,2から,主節,従属節とも動詞の場合が非常に多いことが分かる.そこでこの節では,主節,従属節とも述語が動詞の場合について検討する.動詞の分類は第~\ref{section3}節で述べた意味的分類を利用する.また,意志性に係わる観察については適宜説明していく.以下の表3,4に例文の分布を示す.\begin{center}\frame{\parbox{5mm}{\centering\shortstack{従\\属\\節}}\begin{tabular}{|l||c|c|c|c|c|c|c|c|c|}&\multicolumn{9}{c}{主節}\\\hline&\makebox[7mm]{存在}&\makebox[7mm]{関係}&\makebox[7mm]{単純}&\makebox[7mm]{抽象}&\makebox[7mm]{動き}&\makebox[7mm]{生理}&\makebox[7mm]{知覚}&\makebox[7mm]{言語}&\makebox[7mm]{他}\\\hline\hline存在所有&&&&1/0&1/3&&1/2&&1/0\\\hline関係認定&&&&&1/0&&&&\\\hline単純状態&&&0/1&1/0&1/1&&1/0&&\\\hline抽象的関係&&&&1/0&0/2&&2/0&&\\\hline動き&&&&&5/14&1/2&1/8&0/2&\\\hline生理&&&&&0/1&&1/0&1/0&\\\hline知覚心理&&&&&6/4&2/0&7/6&2/1&\\\hline言語活動&&&&&&&&&\\\hlineその他&1/0&&&&2/2&&1/0&1/0&0/1\\\end{tabular}}\\ノデ文合計42例/カラ文合計52例\\表3主節,従属節とも動詞であり,主語が一致する場合の分布\\\end{center}\vspace{2zh}\begin{center}\frame{\parbox{5mm}{\centering\shortstack{従\\属\\節}}\begin{tabular}{|l||c|c|c|c|c|c|c|c|c|}&\multicolumn{9}{c}{主節}\\\hline&\makebox[7mm]{存在}&\makebox[7mm]{関係}&\makebox[7mm]{単純}&\makebox[7mm]{抽象}&\makebox[7mm]{動き}&\makebox[7mm]{生理}&\makebox[7mm]{知覚}&\makebox[7mm]{言語}&\makebox[7mm]{他}\\\hline\hline存在所有&&&1/2&0/1&3/9&&4/5&0/2&0/3\\\hline関係認定&&&&0/1&0/1&&&&\\\hline単純状態&1/0&&&&&&1/1&&\\\hline抽象的関係&0/1&0/1&&&1/2&&4/2&2/2&\\\hline動き&0/2&1/0&1/2&4/1&8/31&&8/7&1/6&4/3\\\hline生理&&&&&&&1/0&&\\\hline知覚心理&0/1&&0/1&0/1&1/2&0/1&0/3&0/1&1/1\\\hline言語活動&&&&&5/1&2/0&4/5&2/1&0/1\\\hlineその他&1/0&&&0/1&3/8&&1/1&0/3&0/2\\\end{tabular}}\\ノデ文合計65例/カラ文合計120例\\表4主節,従属節とも動詞であり,主語が不一致の場合の分布\\\end{center}なお,表3,4で「動き」という欄は,意味素性が,移動,とりわけ出発帰着,出現発生,設置,離脱,着脱,接触,加力,および,消滅,生産,もようがえ,の全部をまとめたものである.また,「知覚心理」は知覚および心理という意味素性をまとめたものである.まず,従属節が存在所有の場合について説明する.表3,4には直接現れていないが,ノデ文の不一致の場合8例すべておよびカラ文の不一致の場合22例中21例は「ある」「いる」という動詞である.例えば,次のような例である.\enumsentence{\label{1001}会議があるので,出かけた.}\enumsentence{\label{1002}先客がいるので,ぼくは外で待っていた.}(アスペクト辞である「ている」「てある」ではなく,本動詞の「いる」「ある」である.)一方,ノデ文では一致の場合は「ある」「いる」は全く現れず,「持つ」などの意志性を持ち得る動詞である.また,カラ文では一致の5例中4例が「ある」,1例が「持つ」であった.この結果について少し考察してみる.「ある」の場合,通常,主語は有情物特に人間にはならない.したがって主節主語が人間なら明らかに主語は不一致になる.ただし,例外として「子供がある」のような表現がある.しかし,この場合も下記の「いる」の場合と同じ理由で主語は一致しない.では,主節,従属節とも同じ無情物でありうるかどうかについて考えてみる.石や本などの無情物がある場所にあることが原因になって,それ自体の状態変化を引き起こせるかどうか,という問題である.これは実際には可能であって,例えば,\enumsentence{\label{100}その食物は長い間冷蔵庫の外にあったので,腐った.}などは可能である.したがって,不一致は主節の主語が有情物の場合に限られるであろう.次に,「いる」だが,これは明らかに有情物しか主語にならない.主節の主語が無情物なら明らかに主語は不一致だから,主節の主語も有情物の場合について考察すればよい.主節の主語がその複文が記述する状況に身を置くのは自明である.したがって,もし主語が一致し,従属節で「いる」が使われると,上記の記述された状況に身を置くという自明のことをわざわざ従属節で述べ立てることになり,明らかに冗長であるのみならず原因を示す従属節はなんの情報も与えていないことになる.よって,主語は一致しないという結論が得られる.上記の考察をまとめた次の考察は有用であろう.\begin{kousatu}\label{110}~\\1.従属節の動詞が「ある」の場合,主節が有情物なら主語は一致しない.\\2.従属節の動詞が「いる」の場合,主語は一致しない.\end{kousatu}表から明らかに読みとれるノデ文における観察として次のものがある.\begin{obs}\label{120}ノデ文の場合,従属節が知覚思考あるいは心理を表す動詞だと,主語が一致しやすい.\end{obs}例えば,次のような例がありうる.\enumsentence{\label{121}ぼくは,そのことを知らなかったので,びっくりした.}知覚,思考,心理などは本来主語の内的な状態であり,それを外部から観察する特殊な状況がなければ,知覚,思考,心理などの中動の動詞で表される状態を経験した人自身が,それを理由に何らかの動作なりをするというのが普通であろう.したがって,観察~\ref{120}は一般的に成立すると考えても良い.ただし,知覚などを外部から観察可能とする言語的表現としては,「そうだ」などの様相の助動詞があり,このような場合は観察~\ref{120}の例外となる.例えば,\enumsentence{\label{125}じっくり考えているそうなので,我々ももう少し待とう.}また,知覚の場合,主語が知覚の主体でない「見える」「聞こえる」のような動詞があり,この場合も主語の一致という点からは例外である.例えば,\enumsentence{\label{122}ぼくはあこがれの大陸が見えたので,感激した.}ただし,文法的なガ格でなく,知覚の主体を問題にするなら観察~\ref{120}に類似の傾向が成立する.したがって,より洗練すると次の方がよい.\begin{kousatu}\label{123}従属節が知覚思考あるいは心理を表す動詞だと,従属節における知覚,思考などの心理状態の主体{\rm(}意味役割としては経験者格{\rm)}が主節の主語に一致する.\end{kousatu}この観察については\cite{中川ので95}に詳しく述べられている.なお,カラ文の場合は観察~\ref{120}自体がノデ文の場合ほど明確に成立しない.つまり,従属節の文法的ガ格が知覚・思考の主体でない(\ref{122})のタイプの例が多い.もちろん,従属節の経験者格に注目した考察~\ref{123}には多くの例が当てはまるが,カラ文の場合この考察にも反する次のような例が存在する.\enumsentence{\label{k121}彼らがやらないから,私がやった.}これらのことは,ノデ文に比べて,カラ文のほうが従属節の事態を話し手の立場からより客観的に記述していることの現れであろう.つまり,本来主観的な知覚などの心理的経験をより客観的に記述した場合はカラ文を使うということであろう.一方,従属節が言語活動の場合は次のような観察が得られる.\begin{obs}\label{130}ノデ文,カラ文の双方において,従属節が言語活動を表す動詞だと,主語は不一致である.\end{obs}例えば,\enumsentence{\label{131}知らないと言ったので,それ以上追求しなかった.}本来,言語活動は外部に現れる事象であり,かつ他人を意識したものだから,外部からの観察可能性が高く,不一致となる.ただし,例外的ケースとして,自分の発言を後から振り返るような場合は,一致することもできる.例えば,\enumsentence{\label{132}まずいことを言ったので,後悔している.}では,主語が一致している.また,将来の発言を予想しての文,\enumsentence{\label{150}明日は長い時間しゃべるので,今日は早めに休む.}でも,主語が一致しており,これらは観察~\ref{130}の例外である.次に従属節で,移動などを含む「動き」が記述されている場合について検討する.この場合も,言語活動と同じように考えられる.つまり,「動き」も動作であることからして外部に現れる事象であり,外部からの観察可能性が高いので,言語活動と同じような傾向を示すと予想される.ただし,「動き」の場合,言語活動と異なるのは必ずしも他人を意識した動作だけではない点である.したがって,主語の一致は言語活動ほど強い制約ではないと考えられる.ただしノデ文に限っては集めた例文では,主語が一致する場合5例は全て従属節がタ形であり,主節と従属節の時刻が異なる.よって,次のような観察となる.\begin{obs}\label{140}ノデ文では従属節が動きを表す動詞で主語は一致だと,過去形{\rm(}タ形{\rm)}である.\end{obs}例えば次のような例がありうる.\enumsentence{\label{141}朝早く出発したので,昼のうちに到着した.}ただし,不一致も全く不可能というわけではなく,\enumsentence{\label{142}あまりにたくさんの人が来たので,驚いた.}のような例も作例できる.カラ文では主語が不一致の場合の過去形15例,非過去形33例,主語が一致の場合の過去形10例,非過去形15例で,特段の傾向は見られない.したがって,このような現象に関してはノデ文との差が際だっている.次に,観察~\ref{140}に関して,従属節が動作動詞の場合の時制の影響について考察してみる.主節の主語が従属節の表す事態を知覚,あるいは感覚し評価してから,それに対応する行動を起こす.したがって,主節主語と従属節主語が一致している場合は,従属節で記述された自分の自身の動作を評価する時間が必要である.よって,従属節の参照時刻は主節の参照時刻より以前になる.日本語では,従属節のタ形は主節の時刻より以前であることを示す.よって,従属節はタ形になるのが一般的である.しかし,次のような例文もある.\enumsentence{アメリカへ留学するので/から,英語の勉強をした.}この場合でも,留学が決まったのは,英語の勉強をするより以前である.カラ文で従属節が非過去形で主語が一致するのは,このようなタイプの文が多い.この文のように主節と従属節の時刻の差は表層だけからは分からないから,上記の時制の影響の分析を機械的に利用することは困難である.もちろん,不一致なら主節と従属節の時刻について特に制約はない.
\section{おわりに}
以上,この論文では実例文の調査から得られた観察に言語学的考察を加えるという方法で,順接複文の主節と従属節の主語の共参照関係に関するいくつかの観察を提案した.この観察は計算機上へ日本語理解システムを作る際に,複文の省略された主語の指示対象を同定する場合に直接役立つ言語学的知識である.ただし,このような応用を考えるに当たっては,考慮すべき問題点がいくつかあるので,ここではそれについて述べる.最後に,ここまで述べてきたような研究をするにあたって,IPALの辞書を利用する場合の問題点について述べる.動詞の意志性を利用した分析を行ない,これはかなり有力であることが分かった.しかし,意志性の有無は,1,2,3bタイプなら表層の語彙から機械的に判断できるが,多数存在する3aタイプは意志,無意志両方の可能性があるので,人手で判断しなければならなかった.意志性は文脈依存的である部分も多く,自動的な判定が難しい.よって機械的な処理においては大きな問題になる.次に問題であったのは多数存在するサ変動詞の意味分類をどのように扱うかである.動詞性接尾辞スルだけでは意味分類を決定できないので,ここではサ変動詞を構成する名詞の意味分類によって人手で判断した.これは,名詞の意味分類を記述した辞書が整備されれば,機械的にできるようになるであろう.なお,今回の分析では動詞句を構成しうる様相助動詞,クレル,ヤルなどの視点に関する表現,については考慮しなかった.これらについては\cite{中川動機95}において,主語の共参照関係にどのように影響するかについて分析しているが,今回の述語の意味に基づく分析とどのように関係するか,また共参照関係の決定への寄与がどちらがどの程度の割合かなどを検討する必要がある.このような検討を経て順接複文の理解システムの基本的設計を行なっていくことが今後の課題として重要である.\vspace*{7mm}\acknowledgment例文の収集および統計処理に尽力してくれた横浜国立大学の木村啓一君,俵正樹君,山本恵理子さんに感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{中川裕志}{1953年生.1975年東京大学工学部卒業.1980年東京大学大学院博士課程修了.工学博士.現在横浜国立大学工学部電子情報工学科教授.自然言語処理,日本語の意味論・語用論などの研究に従事.日本認知科学会,人工知能学会などの会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V26N01-01 | \section{はじめに}
\label{sec:intro}Universal\Dependencies\(UD)\\cite{mcdonald:2013}は,言語間で共通のアノテーション方式を用いて多言語の構文構造コーパス(ツリーバンク)を開発する国際プロジェクトである.多言語の構文構造コーパスを構築する試みはこれまでにも行われているが,言語ごとに独自のアノテーション方式(アノテーション対象,タグ,ラベルなど)が定義されていた\cite{hajivc-EtAl:2009:CoNLL-2009-ST}.UDは全ての言語で共通のアノテーション方式を用いるため,異なる言語間の構文的対応関係が明示的に記述される.したがって,多言語構文解析器の開発,構文解析器を用いた多言語アプリケーションの処理の共通化\cite{udpipe:2017},コーパスを用いた言語間比較\cite{noji:2015}などさまざまな研究開発に利用されており,さらに2017年と2018年には国際会議において構文解析のsharedtaskが行われた\cite{zeman2017conll,udst2018:overview}.2018年6月現在,約60の言語で100以上のコーパスが開発・公開されており,国際的には構文解析研究においてもっとも重要なプロジェクトの一つと認識されている.日本語構文解析やその応用の研究を国際的な研究の俎上に載せ,国際的な研究の流れに取り残されないようにするためには,UDに基づく日本語コーパスの整備が必須である.UDでは,品詞(UniversalPOSTags;以降はUPOSと表記する)\cite{petrov:2012:lrec}や依存関係ラベル(UniversalTypedDependencyRelation)があらかじめ定義されており,全ての言語のコーパスはこれに従ったアノテーションを行うことが求められる.しかし,\ref{sec:japanese}節以降で示すように,UDの仕様を各言語に適用する際にタグやラベルが一意に決定できない事象が多数存在し,UPOSや依存関係ラベルで各言語の実際のテキストデータをどのようにアノテートすべきかは自明でない.日本語も例外ではなく,現在のUDの定義を適用するためには,日本語の構文構造の特性や他の言語との対応関係を考慮しながら,日本語用のアノテーション仕様を定義する必要がある.著者らは,UDにおいて日本語コーパスを開発することを目指して,品詞および依存関係ラベルの仕様を策定し,UDへの自動変換に必要な言語資源を整備し,既存の日本語コーパスをUDに準拠したコーパスに変換するプログラムの開発を進め,UDとしての正解データの構築に努めてきた.このような努力にもかかわらず,現在までに開発してきたデータは,仕様の策定・変換元の言語資源の整備・変換プログラムのいずれかに問題があるために,UDの仕様に完全に則したものに至っていない.残された問題については定量的に評価することは困難であるが,発見次第,仕様の変更・必要な言語資源の整備・変換プログラムの修正を行いながら,随時改善を行っている.本稿では,これまでに策定した日本語UDの定義と,それに至るまでの主要な論点を紹介し,特に問題となる並列構造の扱いについて議論しながら,今後の日本語UDあるいはUD全体の改善について展望を述べる.まず,\ref{sec:ud}節でUDの概要について解説する.\ref{sec:japanese}節では,UDに基づいた日本語の構文アノテーションを行うための,語の単位,品詞体系,依存構造ラベルの定義について述べる.しかしながら,UD本体の仕様が言語横断的に必ずしも整合していないために,日本語に適応する上で様々な問題がある.本稿で述べる定義に至るまでに主として議論されてきた点を\ref{sec:discussion}節にて列挙しながら,既存の言語資源やツールに情報が足りないものや,UDの基準を日本語に適用する際に問題が起きる事象について定義を与えていく.なお,未解決の問題について網羅的に言及することは困難であるため,コーパスにおける頻度が大きい代表的な問題についてのみ触れる.\ref{sec:coord}節では,依存構造木で本質的にそのスコープを表現できない並列構造の扱いについて議論する.以上の定義に従って開発されたUD日本語版の言語リソースや,その構築の手順や公開の状況を\ref{sec:resources}節にて紹介する.\ref{sec:related}節で本稿に散在する先行研究をまとめる.\ref{sec:summary}節で今後の展望について述べる.
\section{UniversalDependencies}
\label{sec:ud}UniversalDependencies(UD)\cite{mcdonald:2013}は,言語間で共通した構文構造アノテーションを用いた多言語コーパスの開発を目指している.データ構造やアノテーション作業を単純化するため,またくだけた文や特殊な構造に対して頑健にするために,句構造(phrasestructure)ではなく,すべての構文構造を語の間の依存関係と関係ラベルで表現する方針(lexicalism)を採用している.語の品詞体系はGoogleUniversalPart-of-speechTags\cite{petrov:2012:lrec}を,語の素性はIntersetinterlinguaformorphosyntactictagsets\cite{Zeman2008}を,依存関係ラベルはUniversalStanfordDependencies\cite{demarneffe:2014:LREC}を基とし,言語横断性を高めるためにタグ・ラベルの統廃合が行われている.なお,全言語で共通の品詞や依存関係ラベルは固定されているが,言語固有の現象(例えば格標識など)を記述するための拡張が認められており,言語横断的な情報を保ちながら言語固有の詳細なアノテーションが可能となっている.品詞タグや依存関係ラベルの設計は必ずしも言語類型論などの言語学に基づいてはおらず,アノテーションのしやすさやアプリケーションでの利用しやすさを考えてボトムアップに策定されている.UDの基本理念を表すものとして,以下の6つの項目が示されている\cite{UDgithub}.\renewcommand{\labelenumi}{}\begin{enumerate}\itemUDneedstobesatisfactoryonlinguisticanalysisgroundsforindividuallanguages.\itemUDneedstobegoodforlinguistictypology,i.e.,providingasuitablebasisforbringingoutcross-linguisticparallelismacrosslanguagesandlanguagefamilies.\itemUDmustbesuitableforrapid,consistentannotationbyahumanannotator.\itemUDmustbesuitableforcomputerparsingwithhighaccuracy.\itemUDmustbeeasilycomprehendedandusedbyanon-linguist,whetheralanguagelearneroranengineerwithprosaicneedsforlanguageprocessing.Werefertothisasseekingahabitabledesign,anditleadsustofavortraditionalgrammarnotionsandterminology.\itemUDmustsupportwelldownstreamlanguageunderstandingtasks(relationextraction,readingcomprehension,machinetranslation,…).\end{enumerate}[1],[2]は言語学的知見を重視するものであるが,[3]--[6]は工学的あるいは応用的視点からの要請である.各項目はそれぞれ妥当な主張であるが,トレードオフの関係にあり,これら全てを完全に満たすのは現実的ではない.実際にUDに基づく各言語のコーパスを開発する際には,UDのアノテーション方式を各言語に適用するための仕様を個別に策定する必要があり,その際にさまざまなトレードオフが存在する.日本語コーパスを開発してきた過程でも多くの言語現象について問題点が見つかっており,\ref{sec:discussion}節以降ではこれらの問題点を重点的に議論する.UDの開発はコミュニティ駆動方式が採られており,各コーパスの開発はボランティアに委ねられている.アノテーション方式やコーパス開発方法に関する議論は主にGitHub\cite{UDgithub}で行われており,アノテーション仕様や開発されたコーパス,さまざまな議論はすべてGitHub上で公開されている.UDのアノテーション方式やプロジェクトの進め方は現在も発展途上であり,活発な議論が続けられている.以下では,UDで定義されている語,品詞体系,依存関係ラベルについて解説する.なお,UDには複数のバージョンが存在するが,本稿では2017年以降の標準であるUniversalDependenciesversion2について紹介する.\subsection{語と品詞体系}\label{subsec:pos}UDでは構文構造を表すために単語間の依存関係を用いるため,アノテーションの単位は「語」となる.UDのアノテーション仕様では,アノテーション対象は\emph{構文的な語}(syntacticword)とすることが定められており,分かち書きにより示される\emph{正書法的な語}(orthographicword)とは必ずしも一致しない.例えば音韻的に融合したトークン(フランス語の`au'など)は構文的な語(`\`a'`le')に分解することが求められている.ただし,構文的な語の定義は述べられておらず,日本語のように語境界が明示されない言語における定義は自明でない.この問題については,\ref{sec:japanese}節で詳述する.\begin{table}[t]\caption{UniversalPOSTagsversion2の17種の品詞タグセット}\label{tab:pos}\input{01table01.tex}\end{table}全言語の品詞を集約するための体系として,表~\ref{tab:pos}に示す17種の品詞(UniversalPOSTagsversion2;UPOS)が定義されている.英語の場合,PennTreebankのタグとの対応付けをもって品詞タグの定義としており,例えば\utag{ADJ}は,PennTreebankにおける\utag{JJ}(形容詞),\utag{JJR}(比較級形容詞),\utag{JJS}(最上級形容詞)と定義されている.表~\ref{tab:pos}のほとんどは直感的に理解できるが,以下のものは注意を要する.\begin{description}\item[\utag{ADP}]PennTreebankの\utag{IN}(前置詞等)のうち従属接続詞を除いたもの,\utag{TO}(to)のうち前置詞となるもの.\item[\utag{PART}]所有格の`'s',否定の`n't',不定詞の`to'のみ.\item[\utag{CCONJ}]`and',`or'などの等位接続詞.\item[\utag{SCONJ}]`when',`since'など副詞的に使われる従属接続詞,`that'などの補文標識と,関係代名詞の`that'.\item[\utag{AUX}]`can'などのモダリティの助動詞やbe動詞および,受動態を示す`get'.\end{description}UPOSはPennTreebankの品詞体系などと比べるとかなり粗い分類であるが,これは全言語で弁別が観察されるカテゴリに限定したためと考えられる.実際には,各言語で品詞の細分類や性・数・時制・格などの文法的属性が必要となるが,これらは素性(feature)として別途アノテーションすることができるようになっている.素性も共通化されたリストが定義されているが,全ての言語の全ての素性が網羅されているわけではないため,言語ごとに拡張することが認められている.素性は現在のところ日本語コーパスでは利用していないため,説明は省略する.\subsection{依存関係とラベル}\label{subsec:label}UDでは,上記の品詞タグが付与された2語の間に方向を持った依存関係を付与して,構文構造を記述する.文の主辞({\sfroot})以外の語はいずれか1語を修飾する形とするため,文全体は木構造となる.\begin{table}[p]\caption{UniversalDependenciesversion2の37種の依存関係ラベルセット}\label{tab:dependency_types}\input{01table02.tex}\end{table}表~\ref{tab:dependency_types}に,UniversalDependenciesversion2で定義されている依存関係ラベル37種を示す.読みやすさのために,全ラベルを大きく3つのカテゴリに分けた.「節レベルの依存関係」は,主語や目的語など,述語の項や修飾語を表す依存関係であり,「名詞句レベルの依存関係」は,名詞句を構成する修飾語や機能語を表す依存関係である.それ以外のものは,「その他の依存関係」にまとめた.\begin{exe}\ex\label{sent:copula}\atcenter{\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]He\&is\&a\&good\&teacher\&.\\\utag{PRON}\&\utag{AUX}\&\utag{DET}\&\utag{ADJ}\&\utag{NOUN}\&\utag{PUNCT}\\\end{deptext}\depedge{5}{1}{nsubj}\depedge{5}{2}{cop}\depedge{5}{3}{det}\depedge{5}{4}{amod}\deproot[edgeunitdistance=4ex]{5}{root}\depedge{5}{6}{punct}\end{dependency}}\end{exe}\begin{exe}\ex\label{sent:copula_ja}\atcenter{\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]彼\&は\&良い\&先生\&です\&。\\\utag{PRON}\&\utag{ADP}\&\utag{ADJ}\&\utag{NOUN}\&\utag{AUX}\&\utag{PUNCT}\\\end{deptext}\depedge[edgeunitdistance=1.7ex]{4}{1}{nsubj}\depedge{4}{5}{cop}\depedge{1}{2}{case}\depedge{4}{3}{acl}\deproot{4}{root}\depedge{4}{6}{punct}\end{dependency}}\end{exe}\begin{exe}\ex\label{sent:copula_ru}\atcenter{\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]Он\&хороший\&учитель\&.\\``He''\&``good''\&``teacher''\&.\\\utag{PRON}\&\utag{ADJ}\&\utag{NOUN}\&\utag{PUNCT}\\\end{deptext}\depedge{3}{1}{nsubj}\depedge{3}{2}{amod}\deproot{3}{root}\depedge{3}{4}{punct}\end{dependency}}\end{exe}UDの特徴の一つとして,機能語ではなく内容語を主辞とすることが挙げられる.したがって,依存関係は内容語どうし,あるいは内容語から機能語の間に限られ,原則として機能語間や機能語から内容語への依存関係は存在しない\footnote{例外として,\dt{flat}や\dt{goeswith}など非統語的関係を表す際に,機能語間に依存関係を張ることがある.}.伝統的な統語論では機能語を主辞とする理論が主流であるためこのアノテーション方式には批判もあるが,これにより格を明示する言語としない言語でほぼ同じ依存構造木で記述される,述語項関係が直接の依存関係で記述される,といった利点があり,言語横断性や工学的利点を重視した選択であると言える.典型的な例として,コピュラ文の依存構造を(\ref{sent:copula}),(\ref{sent:copula_ja}),(\ref{sent:copula_ru})に示す.英語UDの例(\ref{sent:copula})では,`teacher'を主辞(\dt{root})とし,`he'と`teacher'の間に直接の依存関係を付与する.be動詞を主辞,`he'と`teacher'はそれぞれbeの主語と補語と捉える従来の考え方と異なるが,これにより,日本語(\ref{sent:copula_ja})や,コピュラを持たないロシア語(\ref{sent:copula_ru})などと内容語の依存構造を共通化できる.例(\ref{sent:auxiliary})では,`Ivan'は助動詞`will'ではなく本動詞`give'の主語として\dt{nsubj}が付与されている.前置詞`to'を伴う`Anna'は\dt{obl}で直接`give'を修飾し,`to'は`Anna'の子となる.これにより,述語との位置関係で格を表現する英語,後置詞で格を示す日本語(\ref{sent:auxiliary_ja})\footnote{ニ格の扱いについては,\ref{sub:issue_case}節に示す.},名詞が格変化するロシア語(\ref{sent:auxiliary_ru})の間で,内容語間の依存関係が同一のアノテーションとなる\footnote{但し,英語のtoAnnaは前置詞を伴うため斜格(\dt{obl})となるなど,言語間で完全な一致が取れるとは限らない.}.\begin{exe}\ex\label{sent:auxiliary}\atcenter{\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]Ivan\&will\&give\&a\&book\&to\&Anna\\\utag{PROPN}\&\utag{AUX}\&\utag{VERB}\&\utag{DET}\&\utag{NOUN}\&\utag{ADP}\&\utag{PROPN}\\\end{deptext}\depedge{3}{1}{nsubj}\depedge{3}{2}{aux}\deproot{3}{root}\depedge{5}{4}{det}\depedge{3}{5}{obj}\depedge[edgeunitdistance=1.9ex]{3}{7}{obl}\depedge{7}{6}{case}\end{dependency}}\end{exe}\begin{exe}\ex\label{sent:auxiliary_ja}\atcenter{\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]イヴァン\&は\&本\&を\&アンナ\&に\&あげる\&だろう\\\utag{PROPN}\&\utag{ADP}\&\utag{NOUN}\&\utag{ADP}\&\utag{PROPN}\&\utag{ADP}\&\utag{VERB}\&\utag{AUX}\\\end{deptext}\depedge[edgeunitdistance=2ex]{7}{1}{nsubj}\depedge{1}{2}{case}\depedge[edgeunitdistance=2ex]{7}{3}{obj}\depedge{3}{4}{case}\depedge{7}{5}{iobj/obl}\depedge{5}{6}{case}\deproot[edgeunitdistance=3.5ex]{7}{root}\depedge{7}{8}{aux}\end{dependency}}\end{exe}\begin{exe}\ex\label{sent:auxiliary_ru}\atcenter{\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]Иван\&будут\&дать\&книгу\&Анне\\``Ivan''-NOM\&-FUT\&``give''\&``book''-ACC\&``Anna''-DAT\\\utag{PROPN}\&\utag{AUX}\&\utag{VERB}\&\utag{NOUN}\&\utag{PROPN}\\\end{deptext}\depedge{3}{1}{nsubj}\depedge{3}{2}{aux}\depedge{3}{4}{obj}\depedge{3}{5}{iobj}\deproot{3}{root}\end{dependency}}\end{exe}
\section{日本語UDの定義}
\label{sec:japanese}本節では,UDの基準を日本語に適用し,どのように既存の言語資源やツールから変換するかについての原則を定義する.具体的には以下のような方針で日本語UDアノテーションの定義を与える:\begin{itemize}\item既存の言語資源から,変換規則に基づいて生成する\item語の単位は国語研短単位(後述)を基本とする\itemUDの品詞ラベルはUniDic品詞体系からの変換により定義する\item依存関係ラベルは既存の言語資源に含まれる情報から一意に決められる範囲で規定する\end{itemize}UDは言語横断で共通のアノテーション方式であることから,各言語の伝統的なアノテーションとは異なる部分が多い.各言語の伝統的なアノテーションにおいて複数のラベルで識別される言語現象が,UDにおいて1つのラベルに割り当てられる場合,UDのアノテーションでは隠蔽されてしまう可能性がある.また,アノテーションの基準に慣れていない初期の段階では,人手によるUDのアノテーションでは一貫性を保つことが困難になると予想される.さらに,UD本体のアノテーション仕様にたびたび修正が行われるために,ある特定の言語のUDのアノテーションを一から行うことは困難であると考えられる.このような理由から,日本語UDの言語資源を構築するにあたっては,工数をかけて人手により直接アノテーションを行う\footnote{大規模なツリーバンクの構築には多大な年数を要する.例えば,BCCWJ-DepPara\cite{Asahara-2016-ALR12}は構築には9年を要した.}よりも,既存のコーパスの構文構造を活用して,UDのアノテーション方式に適合するように変換することが現実的である.日本語UDのデータの整備においては,既存の言語資源やツールの出力からの変換が可能であること,一貫性を保持することを意識しながら,語の単位の問題,品詞体系,依存構造ラベルの設計を進めた.これらは,頻度・慣習・事後の扱いやすさに基づいて決定したものであり,UD本体の基準が曖昧なもの・既存の言語資源やツールの出力において情報が足りないもの・変換プログラムの不整合による問題点を有する.これらの一部については4節・5節で言及する.\subsection{語の定義}\label{sub:issue_word}日本語は空白による明示的な語の境界を持たないため,{\bf語}(word)の区切りはUDのアノテーションを作成する上で非常に重要である.日本語UDを考えるにあたって,そもそも語とは何であるかといった議論を避けるとともに,既存の辞書やコーパスをUDの形式に自動変換できることを目指し,UniDic\cite{den:2008:lrec,ogura:2011:book}の語彙項目,すなわち『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{Maekawa-2014-LRE}の国語研短単位を単語とする方針とした.現在のところ,全ての日本語UDの言語資源は,国語研短単位に基づいたものになっている.語の単位として検討されたものを知るために,BCCWJで規定されている,国語研短単位(\ref{sent:SUW})・長単位(\ref{sent:LUW})・文節単位(\ref{sent:BUNSETSU})の違いを,UDのアノテーションに基づいて付与した依存構造とともに示す.例文中,単語を囲む角丸四角は文節単位を表す.\begin{exe}\ex\label{sent:SUW}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]中国\&・\&北京\&大\&に\&留学\&し\&、\&帰国\&後\&に\&出産\\\utag{PROPN}\&\utag{PUNCT}\&\utag{PROPN}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\&\utag{AUX}\&\utag{PUNCT}\&\utag{VERB}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\\\end{deptext}\deproot[edgeunitdistance=5ex]{12}{root}\wordgroup{1}{1}{5}{*}\wordgroup{1}{6}{8}{*}\wordgroup{1}{9}{11}{*}\wordgroup{1}{12}{12}{*}\depedge{4}{1}{compound}\depedge{4}{2}{punct}\depedge{4}{3}{compound}\depedge{4}{5}{case}\depedge{6}{4}{iobj}\depedge{6}{7}{aux}\depedge{6}{8}{punct}\depedge[edgeunitdistance=3.0ex]{12}{6}{advcl}\depedge{10}{9}{compound}\depedge{12}{10}{obl}\depedge{10}{11}{case}\end{dependency}\end{scriptsize}}\\\hfill【国語研短単位(SUW):BCCWJ:PN1c\_00001を一部改変】\end{exe}\begin{exe}\ex\label{sent:LUW}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]中国・北京大\&に\&留学し\&、\&帰国後\&に\&出産\\\utag{PROPN}\&\utag{ADP}\&\utag{VERB}\&\utag{PUNCT}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\\\end{deptext}\deproot[edgeunitdistance=5ex]{7}{root}\wordgroup{1}{1}{2}{*}\wordgroup{1}{3}{4}{*}\wordgroup{1}{5}{6}{*}\wordgroup{1}{7}{7}{*}\depedge{3}{1}{iobj}\depedge{1}{2}{case}\depedge{3}{4}{punct}\depedge[edgeunitdistance=3.0ex]{7}{3}{advcl}\depedge{7}{5}{obl}\depedge{5}{6}{case}\end{dependency}\end{scriptsize}}\\\hfill【国語研長単位(LUW):BCCWJ:PN1c\_00001を一部改変】\end{exe}\begin{exe}\ex\label{sent:BUNSETSU}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]中国・北京大に\&留学し、\&帰国後に\&出産\\\utag{PROPN}\&\utag{VERB}\&\utag{NOUN}\&\utag{VERB}\\\end{deptext}\deproot[edgeunitdistance=3ex]{4}{root}\wordgroup{1}{1}{1}{*}\wordgroup{1}{2}{2}{*}\wordgroup{1}{3}{3}{*}\wordgroup{1}{4}{4}{*}\depedge{2}{1}{iobj}\depedge{4}{2}{advcl}\depedge{4}{3}{obl}\end{dependency}\end{scriptsize}}\\\hfill【国語研文節単位:BCCWJ:PN1c\_00001を一部改変】\end{exe}\ref{sec:ud}~節で示した通り,UDの仕様ではアノテーションの単位は{\bf構文的な語}(syntacticword)に基づくとされている.統語的に独立し音韻的に他の語に依存する接語(clitic)までを語として扱うとしているが,実務上は統語的にも音韻的にも他の語に依存する接辞(affix,語の一部)との区別が問題となる.空白による分かち書きがされず,語が単位が確立していない日本語においては,UDの立場に則る形で形態と音韻と統語の境界を規定することは難しい.国語研の単位認定においては,「日本国語大辞典」を典拠とし,国語研最小単位の同ラベルの1回までの結合による国語研短単位を規定している.他に,音韻的な単位として国語研中単位を,文節相当を構成する単位として国語研長単位を規定している.国語研短単位は,斉一性を担保のため,単語よりも短い形態素を解析の単位とするが,接語と接辞の区別は,活用形として扱うか助動詞として扱うかとしてのみ規定している.例えば,国語研短単位は,意志を表す「う」「よう」は活用形としている.国語学や日本語を対象とする言語学では,辞書の編纂そのものが語の単位認定に相当し,語の単位について研究論文として言及しているものは少ない.構造主義的観点から日本語の構文的な語を規定した事例\cite{Hattori:1960fuzoku,Miyaoka:2015go}があり,また,グレゴリー・プリングルによるブログ記事\footnote{www.cjvlang.com/Spicks/udjapanese.html}は,日本語UDにとって適切な単位について詳細に議論している.しかしながら,これらの語の規定は特定の解析器や言語資源に基づいたものではなく,規定もないために実データを構成するためには非現実的な議論である.言語類型論のHaspelmath\cite{Haspelmath:FLin2011}は斉一な単位を言語横断的に規定することは難しいとしている.さまざまな議論はあるが,理想的な語の単位を,辞書により表現するか,規則により表現するか,その双方をどう組み合わせて表現するかについての方法論は確立できていない.その中で我々は,国語研短単位をUDにおける語と定め,UDの依存構造ラベルに規定されていない形態論的な依存構造ラベルについて検討を重ねてきた.\subsection{日本語の品詞体系}\label{subsec:pos_j}英語版のUniversalPoSをPennTreebankの品詞体系との写像をもって定義しているのにならい,日本語版はUniDic品詞体系(Denetal.2008;小椋他2011)\nocite{den:2008:lrec,ogura:2011:book}との対応をもとに品詞を定義する.日本語の自然言語処理で使われている品詞体系として,IPADIC,JUMAN,UniDic品詞体系がある.IPADICの品詞体系はIPA品詞体系をマルコフモデルに基づき形態素解析器に実装するために適応したものである.また,JUMANの品詞体系は益岡・田窪の定義した体系に基づいている\cite{masuokatakubo}.UniDicは短単位・長単位の2層の単位に対して異なる品詞体系を持っている.一つの立場は,文脈によらず語彙自体がとりうる全ての品詞を表示する立場で,国語研短単位がこれに相当する.例えば,サ変名詞「勉強」には,`名詞-普通名詞-サ変可能'という品詞が与えられる.もう一つの立場は,文脈に基づいて統語的な曖昧性を解消する立場で,国語研長単位がこれに相当する.UDのアノテーションにおいては,前後文脈や係り先の品詞を見ながら,国語研短単位に対して品詞の曖昧性解消を行う変換規則に基づき,UD品詞への写像を実現する.\ref{sub:issue_pos}~節で示す通り,文脈に応じて,サ変名詞や形状詞語幹を動詞や形容詞と判定する.これらの操作を工学的に実現するために,形態素解析用辞書UniDicと形態素解析器MeCabにより短単位を認定し,長単位解析器Comainuなどにより長単位を認定する二重形態素解析を行っている.以下では,日本語のUD品詞タグの定義を例とともに示す.\begin{description}\item[\utag{ADJ}]形容詞(例:`大きい'),但し非自立となるものを除く.形状詞\footnote{形容動詞・ナ形容詞などとも呼ばれる.}(例:`\underline{豊か}だ').連体詞(例:`大きな'),但し\utag{DET}となるものを除く.\item[\utag{ADV}]副詞(例:`ゆっくり').UniDic品詞における「副詞」に加えて,「名詞-普通名詞-副詞可能」「名詞-普通名詞-(サ変)形状詞可能」が副詞的に用いられる場合.\item[\utag{INTJ}]感動詞(例:`あっ').\item[\utag{NOUN}]UniDic品詞における「名詞-普通名詞」「接尾辞-名詞的」など(例:`パン'),但し\utag{VERB},\utag{ADJ}として使われるものを除く.\item[\utag{PROPN}]UniDic品詞における「名詞-固有名詞」(例:`北海道').\item[\utag{VERB}]動詞(例:`食べ'),但し非自立となるものを除く・「名詞-サ変可能」で動詞の語尾が付いたもの(例:`\underline{食事}する').\item[\utag{ADP}]格助詞(例:`が')・副助詞(例:`しか')・係助詞(例:`こそ').\item[\utag{AUX}]助動詞(例:`た')・動詞/形容詞のうち非自立のもの(例:`して\underline{いる}',`食べ\underline{にくい}').\item[\utag{CCONJ}]接続詞(例:`また')\item[\utag{DET}]UniDicにおける「連体詞」の一部(例:`この'`その'`あんな'`どんな').\item[\utag{NUM}]数詞(例:`5').\item[\utag{PART}]「助詞-終助詞」(例:`か')・「接尾辞」(例:`衝撃\underline{的}だ').\item[\utag{PRON}]代名詞(例:`私').\item[\utag{SCONJ}]「助詞-接続助詞」(例:`て')・「準体助詞」(例:`行く\underline{の}が').\item[\utag{PUNCT}]「補助記号-句点/読点/括弧開/括弧閉」.\item[\utag{SYM}]UniDicにおいて記号・補助記号のうち\utag{PUNCT}・\utag{X}以外のもの.\item[\utag{X}]UniDicにおいては空白.\end{description}これらの品詞タグはUniDicの品詞に加えて,BCCWJ長単位の用法・係り先品詞などの情報に基づいた変換規則により決定する.\subsection{日本語の依存構造とラベル}\label{subsec:dep_j}\ref{subsec:pos_j}~節で示した品詞と同様に,UDのラベルに基づいて,対応する日本語の現象と例を記述していく.\begin{exe}\ex\label{sent:nsubj}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]誰\&が\&あなた\&に\&出張\&を\&命じ\&た\&の\&です\&か\\\utag{PRON}\&\utag{ADP}\&\utag{PRON}\&\utag{ADP}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\&\utag{AUX}\&\utag{SCONJ}\&\utag{AUX}\&\utag{PART}\\\end{deptext}\depedge{1}{2}{case}\depedge[edgeunitdistance=2.5ex]{7}{1}{nsubj}\depedge{3}{4}{case}\depedge{7}{3}{iobj}\depedge{5}{6}{case}\depedge{7}{5}{obj}\deproot[edgeunitdistance=4ex]{7}{root}\depedge{7}{8}{aux}\depedge{7}{9}{mark}\depedge{7}{10}{aux}\depedge{7}{11}{aux}\wordgroup{1}{1}{2}{*}\wordgroup{1}{3}{4}{*}\wordgroup{1}{5}{6}{*}\wordgroup{1}{7}{11}{*}\end{dependency}\end{scriptsize}}\\\hfill【基礎日本語文法p.~80】\end{exe}文節内においては文節内の自立語主辞と他の構成要素との関係を定義する.文節間においては文節間係り受けを各文節間の自立語主辞に代表させる.(\ref{sent:nsubj})において,\dt{nsubj}は主格で係る名詞句主辞と述語の関係を表す.\dt{case}は名詞と格助詞の関係を表す.\dt{obj}は「を」で係る名詞句主辞と述語の関係を表す.\dt{iobj}は「に」で係る名詞句主辞と述語の関係を表す.\dt{aux}は自立語に係る助動詞の関係を表す.\dt{mark}は節標識を表し,この例では形式名詞「の」が節標識になる.\dt{root}は係り受け木の根を示す.なお,「に」については,\ref{sub:issue_case}~節で述べる通り,間接目的格相当の\dt{iobj}を割り当てるのか,斜格相当の\dt{obl}を割り当てるのかという問題がある.\begin{exe}\ex\label{sent:nmod}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]教科\&書\&の\&指示\&の\&とおり\\\utag{NOUN}\&\utag{NOUN}\&\utag{ADP}\&\utag{NOUN}\&\utag{ADP}\&\utag{NOUN}\\\end{deptext}\depedge{4}{2}{nmod}\depedge{2}{1}{compound}\depedge{2}{3}{case}\depedge{6}{4}{nmod}\depedge{4}{5}{case}\deproot{6}{root}\wordgroup{1}{1}{3}{*}\wordgroup{1}{4}{5}{*}\wordgroup{1}{6}{6}{*}\end{dependency}\end{scriptsize}}\\\hfill【基礎日本語文法p.~36】\end{exe}(\ref{sent:nmod})において,\dt{nmod}は名詞句主辞から名詞句主辞への修飾関係を表す.この例では,属格の格助詞「の」を介して\dt{nmod}の関係を結んでいる.\dt{compound}は複合語の内部構造の関係を表す.\begin{exe}\ex\label{sent:csubj}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]高津\&さん\&は\&朝\&早く\&起きる\&の\&が\&苦手\&だ\\\utag{PROPN}\&\utag{NOUN}\&\utag{ADP}\&\utag{ADV}\&\utag{ADV}\&\utag{VERB}\&\utag{SCONJ}\&\utag{ADP}\&\utag{ADJ}\&\utag{AUX}\\\end{deptext}\depedge{2}{1}{flat}\depedge[edgeunitdistance=2.0ex]{9}{2}{dislocated}\depedge{2}{3}{case}\depedge{5}{4}{advmod}\depedge{6}{5}{advmod}\deproot[edgeunitdistance=3.0ex]{9}{root}\depedge{6}{7}{mark}\depedge{6}{8}{case}\depedge{9}{6}{csubj}\depedge{9}{10}{aux}\wordgroup{1}{1}{3}{*}\wordgroup{1}{4}{8}{*}\wordgroup{1}{9}{10}{*}\end{dependency}\end{scriptsize}}\\\hfill【基礎日本語文法p.~182】\end{exe}(\ref{sent:csubj})において,\dt{dislocated}は主題を表す「は」が述語に係る場合に付与するが,「は」の扱いについては\ref{sub:issue_case}節においてあらためて議論する.\dt{advmod}は連用修飾句に付与する.なお,連用修飾節の場合には\dt{advcl}を付与する.\dt{csubj}は節主語に付与するが,基本的には形式名詞「の」のみとして,それ以外の形式名詞(「こと」「つもり」「わけ」「はず」「よう」「もの」)などは節主語とみなさず内容語として扱い,\dt{nsubj}を付与する.この構造については,\ref{sub:issue_case}~節と\ref{sub:issue_clause}節で詳しく述べる.\begin{exe}\ex\label{sent:obl}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]鈴木\&さん\&は\&かばん\&から\&書類\&を\&取り出し\&た\\\utag{PROPN}\&\utag{NOUN}\&\utag{ADP}\&\utag{NOUN}\&\utag{ADP}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\&\utag{AUX}\\\end{deptext}\depedge[edgeunitdistance=2.2ex]{8}{2}{nsubj}\depedge{2}{1}{flat}\depedge{2}{3}{case}\depedge[edgeunitdistance=1.9ex]{8}{4}{obl}\depedge{4}{5}{case}\depedge{8}{6}{obj}\depedge{6}{7}{case}\deproot[edgeunitdistance=3.2ex]{8}{root}\depedge{8}{9}{aux}\wordgroup{1}{1}{3}{*}\wordgroup{1}{4}{5}{*}\wordgroup{1}{6}{7}{*}\wordgroup{1}{8}{9}{*}\end{dependency}\end{scriptsize}}\\\hfill【基礎日本語文法p.~17】\end{exe}(\ref{sent:obl})において,\dt{obl}は主語・目的語以外の格要素と述語の関係に付与する.\begin{exe}\ex\label{sent:ccomp}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]私\&の\&家\&に\&来る\&と\&言っ\&た\\\utag{PRON}\&\utag{ADP}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\&\utag{ADP}\&\utag{VERB}\&\utag{AUX}\\\end{deptext}\depedge{1}{2}{case}\depedge{3}{1}{nmod}\depedge{3}{4}{case}\depedge{5}{3}{iobj}\depedge{7}{5}{ccomp}\depedge{5}{6}{case}\deproot{7}{root}\depedge{8}{7}{aux}\wordgroup{1}{1}{2}{*}\wordgroup{1}{3}{4}{*}\wordgroup{1}{5}{6}{*}\wordgroup{1}{7}{8}{*}\end{dependency}\end{scriptsize}}\\\hfill【基礎日本語文法p.~185】\end{exe}(\ref{sent:ccomp})において,\dt{ccomp}は補文を表す.\begin{exe}\ex\label{sent:amod}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]小さな\&力士\&が\&大きな\&力士\&を\&つりだし\&た\\\utag{ADJ}\&\utag{NOUN}\&\utag{ADP}\&\utag{ADJ}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\&\utag{AUX}\&\\\end{deptext}\depedge{2}{1}{amod}\depedge{2}{3}{case}\depedge[edgeunitdistance=1.7ex]{7}{2}{nsubj}\depedge{7}{5}{obj}\depedge[edgeunitdistance=1.9ex]{5}{4}{amod}\depedge{5}{6}{case}\deproot[edgeunitdistance=3ex]{7}{root}\depedge{7}{8}{aux}\wordgroup{1}{1}{3}{*}\wordgroup{1}{4}{6}{*}\wordgroup{1}{7}{8}{*}\end{dependency}\end{scriptsize}}\\\hfill【基礎日本語文法p.~99一部修正】\end{exe}(\ref{sent:amod})において,\dt{amod}は連体詞による連体修飾を表す.連体詞は\dt{amod}を付与するが,形容詞は形容詞節を表す\dt{acl}を付与する.詳しくは\ref{sub:issue_clause}節で述べる.\pagebreak\begin{exe}\ex\label{sent:fixed}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]私\&に\&とっ\&て\&大きな\&励み\&と\&なっ\&た\\\utag{PRON}\&\utag{ADP}\&\utag{VERB}\&\utag{SCONJ}\&\utag{ADJ}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\&{AUX}\\\end{deptext}\depedge{8}{6}{obl}\depedge[edgeunitdistance=1.6ex]{8}{1}{obl}\depedge{2}{3}{fixed}\depedge{2}{4}{fixed}\depedge{1}{2}{case}\depedge{6}{7}{case}\depedge{6}{5}{amod}\deproot{8}{root}\depedge{8}{9}{aux}\wordgroup{1}{1}{4}{*}\wordgroup{1}{5}{7}{*}\wordgroup{1}{8}{9}{*}\end{dependency}\end{scriptsize}}\\\hfill【基礎日本語文法p.~81】\end{exe}(\ref{sent:fixed})において,\dt{fixed}は複単語機能表現を表す.\begin{exe}\ex\label{sent:appos}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]米国\&の\&全国\&紙\&「\&USA\&TODAY\&」\\\utag{PROPN}\&\utag{ADP}\&\utag{NOUN}\&\utag{NOUN}\&\utag{PUNCT}\&\utag{PROPN}\&\utag{PROPN}\&\utag{PUNCT}\\\end{deptext}\depedge{1}{2}{case}\depedge{4}{1}{nmod}\depedge{4}{3}{compound}\depedge{4}{7}{appos}\depedge{7}{6}{compound}\depedge{7}{5}{punct}\depedge{7}{8}{punct}\deproot{4}{root}\wordgroup{1}{1}{4}{*}\wordgroup{1}{5}{8}{*}\end{dependency}\end{scriptsize}}\\\hfill【BCCWJ:PN1d\_00005】\end{exe}(\ref{sent:appos})において,\dt{appos}は同格を表す.句読点のほか,括弧などにも\dt{punct}を用いる.並列に関連するラベル\dt{conj},\dt{cc}については\ref{sec:coord}節で述べる.\dt{goeswith},\dt{vocative},\dt{list},\dt{parataxis},\dt{dep},\dt{clf},\dt{nummod},\dt{orphan}などについては割愛する.その他,日本語で用いていないラベルとして\dt{xcomp},\dt{expl}がある.
\section{日本語特有の論点}
\label{sec:discussion}\ref{sec:japanese}~節で述べた日本語の品詞タグや依存関係ラベルを定義するにあたって,UDの基準を日本語の言語現象に対して適用する際に問題となった日本語特有の論点について本節で示す.まず,品詞タグ付与における例外処理について,\ref{sub:issue_pos}節で述べる.次に,\ref{sub:issue_case}~節では,英語等の言語と異なり構文上での区別が難しい「格」に関連する,依存関係ラベルの付与の方法について述べる.\ref{sub:issue_clause}節では,同様に依存関係ラベルの決定のために重要となる「節」と「句」の区別に関する議論をまとめる.なお,本節で議論する言語現象はUD本体では明確な定義が与えられておらず,他言語での仕様を網羅的に調査することも現実的でないため,言語横断的な一貫性を保証する定義を与えるものではない.変換元データの情報,日本語コーパス内での一貫性,応用での使いやすさを基準に決められた定義と言える.将来課題として,同じ問題を持つ他の言語との対照を進め,言語間の一貫性を高めるように定義を修正していきたい.\subsection{品詞タグの例外処理}\label{sub:issue_pos}UDにおける品詞タグは,構文の中での用法よりも語彙に基づく傾向があり,例えば英語の動詞がto不定詞や動名詞の形で名詞として振る舞う場合には\utag{NOUN}でなく\utag{VERB}が用いられる.これと同様に,形容詞を名詞化する「さ」や名詞を形容詞化する「っぽい」などの品詞を変換する接尾辞を伴う場合も,(\ref{sent:sa})の例に示す通り,内容語の品詞タグをそのまま用いることとする.\begin{exe}\ex\label{sent:sa}\begin{xlist}\ex\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]かわい\&さ\\\utag{ADJ}\&\utag{PART}\\\end{deptext}\depedge{1}{2}{mark}\wordgroup{1}{1}{2}{*}\end{dependency}\end{scriptsize}}\ex\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]動物\&っぽい\\\utag{NOUN}\&\utag{PART}\\\end{deptext}\depedge{1}{2}{mark}\wordgroup{1}{1}{2}{*}\end{dependency}\end{scriptsize}}\end{xlist}\end{exe}この方針により,国語研短単位の品詞の分類をUDの品詞タグに変換するのが原則となるが,その際に例外的に考慮することとなった事象を以下に示す.\subsubsection{サ変動詞と形状詞}UniDic短単位の品詞体系では,サ変動詞の語幹は「名詞-サ変可能」,形状詞の語幹は「名詞-形状詞可能」という品詞になっており,それらが名詞として扱われる場合と同一である.これらをすべて名詞として扱うことは,用言を核とした情報抽出や構文解析,また他の言語とのマッピングの際に支障となると考え,日本語UDの品詞タグでは,これらが用言として振る舞う場合にはそれぞれ\utag{VERB},\utag{ADJ}のタグを付与し,(\ref{sent:suru})のような構造とした.\begin{exe}\ex\label{sent:suru}\begin{xlist}\ex\label{sent:surua}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]勉強\&する\\\utag{VERB}\&\utag{AUX}\\\end{deptext}\depedge{1}{2}{aux}\\\wordgroup{1}{1}{2}{*}\end{dependency}\end{scriptsize}}\ex\label{sent:surub}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]綺麗\&だ\\\utag{ADJ}\&\utag{AUX}\\\end{deptext}\depedge{1}{2}{aux}\\\wordgroup{1}{1}{2}{*}\end{dependency}\end{scriptsize}}\end{xlist}\end{exe}サ変動詞は,格要素や副詞などの要素を子に持つように,当然ながら用言としての振る舞いをするため,「勉強する」を一語の\utag{VERB}としたいところである.しかし,語の単位を国語研短単位で統一するという原則を重視して,内容語である「勉強」の部分が\utag{VERB}となる(\ref{sent:surua})の構造を採用するに至った.形状詞についても同様に,(\ref{sent:surub})のようになる.\subsubsection{補助用言}「走って\underline{いる}」「来て\underline{ほしい}」の下線部のように,一般に独立の文節を構成しない補助用言がある.これらはUniDicにおいて,それぞれ「動詞-非自立可能」「形容詞-非自立可能」といった品詞が割り当てられており,短単位の品詞としては「私が\underline{いる}」「飲み物が\underline{ほしい}」のような本動詞の場合との区別がない.日本語UDにおいては,依存構造を単純にするためにも,補助用言は子要素を持たない機能語とみなしたい.そのために,\ref{subsec:pos_j}~節で示した二重形態素解析の結果を参照し,自立語でないとみなされた用言には,「た」「れる」などの助動詞と同じ品詞タグ\utag{AUX}を割り当てた.(\ref{sent:iru})の例では,「いる」を機能語\utag{AUX}とみなし,「ずっと」の係り先が「いる」である(係り受けに交差が生じる)という可能性を排除した.\begin{exe}\ex\label{sent:iru}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]ずっと\&パン\&を\&食べ\&て\&いる\\\utag{ADV}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\&\utag{SCONJ}\&\utag{AUX}\\\end{deptext}\depedge{4}{1}{advmod}\depedge{4}{2}{obj}\depedge{2}{3}{case}\depedge{4}{5}{mark}\depedge{4}{6}{aux}\deproot{4}{root}\wordgroup{1}{1}{1}{*}\wordgroup{1}{2}{3}{*}\wordgroup{1}{4}{6}{*}\end{dependency}\end{scriptsize}}\\\hfill【作例】\end{exe}\subsection{格のラベルと助詞の分類}\label{sub:issue_case}日本語の句構造木に基づくツリーバンク\cite{Tanaka-2013}は,格関係や節構造などUDに必要な統語関係の情報を含んでいる.しかしながら,日本語の文節に基づく係り受けツリーバンクの多くは,格関係などの統語関係の情報を含んでいない.以下では,その制約の下で,一貫性を持つ依存関係ラベルを割り当てるための設計を示す.主語や目的語が語順によって定まる英語と異なり,日本語は語順に自由度があり,格助詞などが格を示唆するものの,係助詞・副助詞が用いられたり,助詞が省略されたりする場合があり,格要素に\dt{nsubj},\dt{obj},\dt{iobj}といった依存関係ラベルを割り当てるのは簡単ではない.UDは構文の情報を付与するものであって,深層格など意味的なものをを示すものではないという立場から,原則として格助詞「が」を持つ名詞句に\dt{nsubj}を付与し,格助詞「を」を持つ名詞句に\dt{obj}を付与する.格助詞「に」の扱いは特に難しい.(\ref{fig:casemarker-4})に示す例のように,時間や場所を表す場合(この例では時間格「朝」)には\dt{obl},その他の場合(例では目標格「学校」)に\dt{iobj}を付与すれば,他の言語とラベルを近づけることができる.しかしながら,文節に基づく係り受けアノテーションから変換する際にはこれらの深層格の情報が不足している.このため,後で述べるUDJapanese-GSDおよびUDJapanese-PUDにおいては,格助詞「に」を持つ名詞句全てに\dt{iobj}を付与し,UDJapanese-BCCWJおよびUDJapanese-Modernにおいては\dt{obl}を付与している.述語項構造アノテーションBCCWJ-PASなどが手に入る場合には,参照して区別する必要があるが,現在は行っていない.\begin{exe}\ex\label{fig:casemarker-4}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]朝\&に\&学校\&に\&行く\\\utag{NOUN}\&\utag{ADP}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\\\end{deptext}\deproot{5}{root}\wordgroup{1}{1}{2}{*}\wordgroup{1}{3}{4}{*}\wordgroup{1}{5}{5}{*}\depedge{1}{2}{case}\depedge{3}{4}{case}\depedge{5}{1}{obl}\depedge{5}{3}{iobj}\depedge[edgebelow,textonlylabel,arcedge,edgestyle={denselydotted}]{5}{3}{GOAL}\depedge[edgebelow,textonlylabel,arcedge,edgestyle={denselydotted}]{5}{1}{TEMPORAL}\end{dependency}\end{scriptsize}}\\\hfill【作例:「に」の曖昧性】\end{exe}UDの格に関する依存関係ラベルは主語優勢言語向けに設計されており,日本語のような主題優勢言語のアノテーションを設計する際には困難が生じている.主題に相当するラベルは設定されておらず,提題の係助詞「は」については扱いが難しい.UDでは,「主題は\dt{disclocated}を付与する.ただし、それが主語でもある場合は\dt{nsubj}を付与する.」と定義されている.これを行うためには「は」の用法を区別する必要があり,構文情報だけからはラベルを決定することができない.そこで,現在は以下のように近似的に「は」のラベルを付与している.(\ref{fig:casemarker-6})のように,「が」が含まれず,「は」が含まれる文に対しては,「は」がつく名詞句を主語相当とし,依存関係ラベル\dt{nsubj}を付与する.(\ref{fig:casemarker-3})のように,一つの文節の中に「に」と「は」が共起する名詞句は,格助詞「に」の用法に基づいて依存関係ラベル\dt{iobj}か\dt{obl}を付与する.(\ref{fig:casemarker-2})のように,「は」と「が」が同じ述語に係り受け関係を持つ場合には,「は」がつく名詞句に依存関係ラベル\dt{dislocated}を付与する.しかし,\dt{dislocated}は,英語において主題を明示する分裂文に用いられるものである.(\ref{fig:casemarker-5})のように,日本語における分裂文には依存関係ラベル\dt{dislocated}が用いられず,節主語を表す\dt{csubj}が用いられる.日本語の「は」は英語等において\dt{dislocated}で表される依存関係とは異なると考えられ,よりよいアノテーション方法は検討課題として残されている.なお,「は」以外の係助詞については\dt{nsubj}との区別が求められていないので,格が明示されている場合(例えば「にも」)はそれに相当する依存関係ラベルを,明示されていない場合には\dt{obl}を付与する.\begin{exe}\ex\label{fig:casemarker-6}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]太郎\&は\&きびしい\\\utag{PROPN}\&\utag{ADP}\&\utag{ADJ}\\\end{deptext}\deproot{3}{root}\wordgroup{1}{1}{2}{*}\wordgroup{1}{3}{3}{*}\depedge{1}{2}{case}\depedge{3}{1}{nsubj}\end{dependency}\end{scriptsize}}\\\hfill【作例:提題の「は」】\end{exe}\begin{exe}\ex\label{fig:casemarker-3}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]太郎\&に\&は\&問題\&が\&やさしい\\\utag{PROPN}\&\utag{ADP}\&\utag{ADP}\&\utag{NOUN}\&\utag{ADP}\&\utag{ADJ}\\\end{deptext}\deproot{6}{root}\wordgroup{1}{1}{3}{*}\wordgroup{1}{4}{5}{*}\wordgroup{1}{6}{6}{*}\depedge{1}{2}{case}\depedge{1}{3}{case}\depedge{4}{5}{case}\depedge{6}{1}{iobj}\depedge{6}{4}{nsubj}\end{dependency}\end{scriptsize}}\\\hfill【作例:「には」】\end{exe}\begin{exe}\ex\label{fig:casemarker-2}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]象\&は\&鼻\&が\&長い\\\utag{NOUN}\&\utag{ADP}\&\utag{NOUN}\&\utag{ADP}\&\utag{ADJ}\\\end{deptext}\deproot{5}{root}\wordgroup{1}{1}{2}{*}\wordgroup{1}{3}{4}{*}\wordgroup{1}{5}{5}{*}\depedge{1}{2}{case}\depedge{3}{4}{case}\depedge{5}{1}{dislocated}\depedge{5}{3}{nsubj}\end{dependency}\end{scriptsize}}\\\hfill【作例:象鼻文】\end{exe}\begin{exe}\ex\label{fig:casemarker-5}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=0.3cm,rowsep=.1ex]鼻\&が\&長い\&の\&は\&象\&だ\\\utag{NOUN}\&\utag{ADP}\&\utag{ADJ}\&\utag{SCONJ}\&\utag{ADP}\&\utag{NOUN}\&\utag{AUX}\\\end{deptext}\depedge{3}{1}{nsubj}\depedge{1}{2}{case}\depedge{3}{4}{mark}\depedge{3}{5}{case}\depedge{6}{3}{csubj}\depedge{6}{7}{aux}\deproot{6}{root}\wordgroup{1}{1}{2}{*}\wordgroup{1}{3}{5}{*}\wordgroup{1}{6}{7}{*}\end{dependency}\end{scriptsize}}\\\hfill【作例:分裂文】\end{exe}\subsection{句と節の区別}\label{sub:issue_clause}UDでは,表\ref{tbl:clause}に示すように,子要素が語・句の場合と節の場合とで異なる依存関係ラベルを付与する設計になっている.\begin{table}[b]\caption{UDの統語関係ラベルにおける語・句と節の区別}\label{tbl:clause}\input{01table03.tex}\end{table}英語においては,形容詞句(名詞修飾句)(\ref{fig:amod_acl_en1})と形容詞節(名詞修飾節)(\ref{fig:amod_acl_en2})と明確に区別できる.形容詞は限定用法に限って\dt{amod}としている.なお,形容詞の叙述用法については\dt{cop}が割り当てられる.\begin{exe}\ex\begin{xlist}\ex\label{fig:amod_acl_en1}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]Sam\&eats\&red\&meat\&.\\\utag{PROPN}\&\utag{VERB}\&\utag{ADJ}\&\utag{NOUN}\&\utag{PUNCT}\\\end{deptext}\depedge{2}{1}{nsubj}\depedge{2}{4}{obj}\depedge{4}{3}{amod}\deproot{2}{root}\depedge{2}{5}{punct}\end{dependency}\end{scriptsize}}\\\hfill【UD:英語での形容詞の限定的用法\dt{amod}】\ex\label{fig:amod_acl_en2}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]I\&have\&a\¶keet\&named\&cookie\&.\\\utag{PRON}\&\utag{VERB}\&\utag{DET}\&\utag{NOUN}\&\utag{VERB}\&\utag{NOUN}\&\utag{PUNCT}\\\end{deptext}\deproot{2}{root}\depedge{2}{1}{nsubj}\depedge{2}{4}{obj}\depedge{4}{5}{acl}\depedge{5}{6}{xcomp}\depedge{4}{3}{det}\depedge{2}{7}{punct}\end{dependency}\end{scriptsize}}\\\hfill【UD:英語での関係節\dt{acl}】\end{xlist}\end{exe}しかしながら,日本語においては,句と節の境界が曖昧であり,明示的に区別して依存関係ラベルを付与することが難しい.例えば,英語での形容詞の限定的用法にはラベル\dt{amod}が用いられるが,対応する日本語の現象は,用言の連体形を用いた体言の修飾である.(\ref{fig:acl})は限定的用法の例ではあるが,(\ref{fig:acl1})は「タイトル」が「長い」という主述の関係があり,述語的用法でもある.一方,(\ref{fig:acl2})は「車」と「長い」の間に主述の関係がないために,述語的用法ではない.\begin{exe}\ex\label{fig:acl}\begin{xlist}\ex\label{fig:acl1}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]タイトル\&の\&長い\&本\\\utag{NOUN}\&\utag{ADP}\&\utag{ADJ}\&\utag{NOUN}\\\end{deptext}\wordgroup{1}{1}{2}{*}\wordgroup{1}{3}{3}{*}\wordgroup{1}{4}{4}{*}\depedge{1}{2}{case}\depedge{3}{1}{obl}\depedge{4}{3}{acl}\deproot{4}{root}\end{dependency}\end{scriptsize}}\\\hfill【作例:連体修飾節\dt{acl}】\ex\label{fig:acl2}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]車\&の\&長い\&列\\\utag{NOUN}\&\utag{ADP}\&\utag{ADJ}\&\utag{NOUN}\\\end{deptext}\wordgroup{1}{1}{2}{*}\wordgroup{1}{3}{3}{*}\wordgroup{1}{4}{4}{*}\depedge{1}{2}{case}\depedge{4}{1}{nmod}\depedge{4}{3}{acl}\deproot{4}{root}\end{dependency}\end{scriptsize}}\\\hfill【作例:連体修飾節\dt{acl}】\end{xlist}\end{exe}このように,日本語において,限定的用法か述語的用法かの二分化が難しく,英語での形容詞の限定的用法(\dt{amod})と関係節(\dt{acl})に相当する連体修飾節との区別が明確でない.アノテーションの揺れを防ぐために,形容詞・形状詞が格を伴わずに名詞を修飾する場合も含めて常に\dt{acl}を用いることとし,\dt{amod}は連体詞による修飾に限定した.日本語の句と節の境界は,述語相当句が項を取りうるか否かの観点から識別することができるが,ゼロ主語の問題もあり「節でない」ことを判定することは困難である.そこで,項を取りうるか否かの観点に基づく句か節かの判定を放棄し,時制を帯びるかどうかの観点\cite{有田2007}に基づき,形容詞・形状詞においては一律に\dt{acl}とし,連体詞においては一律に\dt{amod}とした.同様に,述語の連用形が他の用言を修飾する場合も\dt{advcl}として,\dt{advmod}は副詞による修飾の場合のみに用いた.\begin{exe}\ex\label{fig:csubj}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]太郎\&が\&怒ら\&れる\&の\&は\&いや\&だ\\\utag{PROPN}\&\utag{ADP}\&\utag{VERB}\&\utag{AUX}\&\utag{SCONJ}\&\utag{ADP}\&\utag{ADJ}\&\utag{AUX}\\\end{deptext}\deproot{8}{root}\wordgroup{1}{1}{2}{*}\wordgroup{1}{3}{6}{*}\wordgroup{1}{7}{8}{*}\depedge{1}{2}{case}\depedge{3}{1}{nsubj}\depedge{3}{4}{aux}\depedge{3}{5}{mark}\depedge{3}{6}{case}\depedge{7}{3}{csubj}\depedge{7}{8}{aux}\end{dependency}\end{scriptsize}}\\\hfill【作例:節主語\dt{csubj}】\end{exe}節主語は,形式名詞「の」に対して定義する.(\ref{fig:csubj})のように,形式名詞「の」の品詞タグは\utag{SCONJ}とし,「の」を含む文節の主辞「怒ら」の依存関係ラベルを\dt{csubj}とする.\begin{exe}\ex\label{fig:ccomp}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[columnsep=.3cm,rowsep=.1ex]きれい\&だ\&と\&思う\\\utag{ADJ}\&\utag{AUX}\&\utag{ADP}\&\utag{VERB}\\\end{deptext}\deproot{4}{root}\wordgroup{1}{1}{3}{*}\wordgroup{1}{4}{4}{*}\depedge{1}{2}{aux}\depedge{1}{3}{case}\depedge{4}{1}{ccomp}\end{dependency}\end{scriptsize}}\\\hfill【作例:節主語\dt{ccomp}】\end{exe}節補語は,引用の「と」に対して定義する(\ref{fig:ccomp})のように,引用の「と」には,品詞タグ\utag{ADP}を付与し,「と」を含む文節の主辞「きれい」の依存関係ラベルを\dt{ccomp}とする.\dt{xcomp}は,主語が明示的に出現する言語において,主語はないが,述語性補語や節補語のみが出現する(openclausalcomplement)ような動詞もしくは形容詞に対して定義される.しかし,日本語においては,そもそも主語が明示的に出現しないため,ラベル\dt{xcomp}を用いない.
\section{並列構造}
\label{sec:coord}本節では並列構造の扱いについて議論する.日本語は文節単位に関係を付与した場合には,同格や倒置などの構造を除いて,常に主辞が右に来る構造(主辞後置)になる.しかしながらUDでは,並列構造では常に左側の要素が主辞となると規定している.以下では,名詞句の並列,動詞句の並列について,UDの原則と現在の日本語コーパスにおける構造を比較し,今後の方向性を述べる.\subsection{名詞句の並列}\label{subsec:nominal}UDにおける並列構造のアノテーションは左側が主辞となる.(\ref{sent:cc})は,その原則に忠実に従って他の言語と同様のアノテーションを付与した時の名詞句並列の例である.\begin{exe}\ex\label{sent:cc}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[rowsep=.1ex]かわいい\&犬\&と\&猫\&が\&走る\\\utag{ADJ}\&\utag{NOUN}\&\utag{CCONJ}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\\\end{deptext}\depedge{2}{1}{acl}\depedge{2}{4}{conj}\depedge{4}{3}{cc}\depedge{2}{5}{case}\depedge{6}{2}{nsubj}\wordgroup{1}{1}{1}{kawaii}\wordgroup{1}{2}{3}{inu}\wordgroup{1}{4}{5}{neko}\wordgroup{1}{6}{6}{}\deproot{6}{root}\end{dependency}\end{scriptsize}}\\\hfill【作例:UDの原則に基づく】\end{exe}\dt{conj}は並列構造の構成要素を結ぶ依存関係ラベルである.\dt{cc}は接続表現「と」(品詞\utag{CCONJ})とその右側の構成要素とを結ぶ仕様になっている.このように,(\ref{sent:cc})の構造は日本語学の研究者にとっても,構文解析器を実装する研究者にとっても,非常に扱いにくい構造であると考える.そこで,日本語のUDコーパスを作成するにあたって,「犬と猫」の関係は,並列構造ではなく名詞句の修飾の一形態として取り扱うこととし,(\ref{sent:nmodcc})の形のアノテーションを定めた.ここでは,「と」は名詞句「犬」の\dt{case}とし,「犬」と「猫」は\dt{nmod}で結ぶ.これによって,並列構造の左側を主辞とするUDの規定に起因する問題を回避した.\pagebreak\begin{exe}\ex\label{sent:nmodcc}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[rowsep=.1ex]かわいい\&犬\&と\&猫\&が\&走る\\\utag{ADJ}\&\utag{NOUN}\&\utag{ADP}\&\utag{NOUN}\&\utag{ADP}\&\utag{VERB}\\\end{deptext}\depedge{4}{1}{acl}\depedge{4}{2}{nmod}\depedge{2}{3}{case}\depedge{4}{5}{case}\depedge{6}{4}{nsubj}\wordgroup{1}{1}{1}{kawaii}\wordgroup{1}{2}{3}{inu}\wordgroup{1}{4}{5}{neko}\wordgroup{1}{6}{6}{}\deproot{6}{root}\end{dependency}\end{scriptsize}}\\\hfill【作例(\ref{sent:cc}):現在のコーパスの対処方法】\end{exe}\subsection{動詞句の並列}\label{subsec:verbal}次に動詞句の並列について示す.(\ref{sent:verbalcc})は,「て」で接続する動詞句を,左主辞原則に準じた並列構造として表現したものである.「食べ」と「走る」を並列とみなし,左構成要素を主辞とすると,「食べ」が\dt{acl}により「人」に関連づけられる.結果,連体形でない活用形であるのに名詞を連体修飾する\footnote{連体形であることは,子要素である最右の並列の構成要素を辿らないと把握できない.}という,極めて不自然な構造となる.\begin{exe}\ex\label{sent:verbalcc}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}[rowsep=.1ex]食べ\&て\&走る\&人\\\utag{VERB}\&\utag{SCONJ}\&\utag{VERB}\&\utag{NOUN}\\\end{deptext}\depedge{1}{2}{mark}\depedge{1}{3}{conj}\depedge{4}{1}{acl}\wordgroup{1}{1}{2}{}\wordgroup{1}{3}{3}{}\wordgroup{1}{4}{4}{}\deproot{4}{root}\end{dependency}\end{scriptsize}}\\\hfill【作例:UDの原則】\end{exe}一方,現在公開されている日本語UDのコーパスでは,基本的には,述語間の関係に並列構造を認定しない.(\ref{sent:verbalcc})の例のように,「て」による接続を動詞の並列(\dt{conj})とみなさず,副詞句による修飾(\dt{advcl})としている(\ref{sent:verbalcc3}).この解釈により,左側が主辞となる構造を回避し,より直感的な構造としている.英語の`eatandrun'と異なり,日本語では二つの動詞が文法的に並列ではなく,文法的要素は右側の語だけに付与されるという性質があり,さらに「て」で結ばれる関係は時間的な前後関係などもあり従属接続とみなすのが自然であることからも,この対応は妥当だと考えている.\begin{exe}\ex\label{sent:verbalcc3}\atcenter{\begin{scriptsize}\begin{dependency}[labelstyle={}]\begin{deptext}食べ\&て\&走る\&人\\\utag{VERB}\&\utag{SCONJ}\&\utag{VERB}\&\utag{NOUN}\\\end{deptext}[rowsep=.1ex]\depedge{1}{2}{mark}\depedge{3}{1}{advcl}\depedge{4}{3}{acl}\wordgroup{1}{1}{2}{}\wordgroup{1}{3}{3}{}\wordgroup{1}{4}{4}{}\deproot{4}{root}\end{dependency}\end{scriptsize}}\\\hfill【作例(\ref{sent:verbalcc}):現在のコーパスの対処方法】\end{exe}\subsection{並列構造に対する今後の方向性}以上で見た通り,UDの並列構造の原則に基づいた日本語のアノテーションは,日本語学的にも解析器の観点からも不自然な構造になってしまう.右側の要素を主辞とする並列構造を含むコーパスは,検証器によりUDとして妥当でないとされて,sharedtaskでの利用ができなくなるため,現状で公開している日本語のUDコーパスでは,名詞句の並列は名詞句の修飾(\dt{nmod}),動詞句の並列は従属的な副詞節の修飾(\dt{advcl})であるとみなして,この問題を回避している.しかしながら,言語横断処理や言語対照比較などの際に,他言語と対応する並列構造を\dt{conj}や\dt{cc}により表現をしたいという要望もある.同じ問題が韓国語にも起きていることが指摘されており\cite{Chun-2018},韓国語UDのコーパスが公式のものと右主辞型の非公式なものに分化してしまっている,日本語と韓国語には文法的に類似点が多いにもかかわらずUDコーパスの構造がまったく一致しない,といった問題が起きている.左主辞原則は日本語や韓国語のような主辞後置の言語については適用が困難であるために,並列構造における構造の方向性を言語ごとに定義できるよう,UD本体のコミュニティに働きかけていきたい.
\section{日本語の言語資源と変換}
\label{sec:resources}\subsection{公開中のコーパス}\label{subsec:resources}表~\ref{tab:status}に示すとおり,日本語UDのコーパスとして以下の資源が公開されている.{\bfUDJapanese-BCCWJ}はBCCWJ\cite{Maekawa-2014-LRE}を変換したUDのコーパスである.元のコーパスは約1億語からなり,短単位・長単位・文節の人手のアノテーションが付与されている.さらに,文節単位の並列構造を示すBCCWJ-DepPara\cite{Asahara-2016-ALR12}をUDへの変換の際に使用している.\begin{table}[b]\caption{公開中の日本語UDのコーパス}\label{tab:status}\input{01table04.tex}\end{table}{\bfUDJapanese-KTC}\cite{UD-LREC-2016}はNIIとNTTの共同研究により構築した句構造ツリーバンクをもとに整備されているKaedeTreebank\cite{Tanaka-2013,ttanaka:2014:NLP}を変換したUDのコーパスである.元テキストは京都大学テキストコーパス\cite{KTC}と同じ,毎日新聞の1995年版である.KaedeTreebankは,国語研長単位とUniDic品詞体系による形態論情報が付与されている.2018年5月現在,UDのVersion1の基準に準拠している.今後,UDのVersion2に対応させる予定である.{\bfUDJapanese-GSD}は,Wikipediaの記事からなる.以前はUDJapaneseと呼ばれていたデータで,CoNLL-2017のSharedTask\cite{zeman2017conll}に提供された.UDJapanese-GSDのVersion2.0の単語分かち書きはIBMの単語分割器により自動分割されたもので,頻出する誤りを辞書登録により修正したものである.文節単位の係り受け解析器\cite{Kanayama00}による出力を機能語に対する主辞規則\cite{UD-LREC-2016}により変換したものである.2017年11月に公開されたVersion2.1では,人手によるアノテーションとの重ね合わせを行い,修正を施した.{\bfUDJapanese-PUD}は,UDJapanese-GSDと同様の方法で作成されたもので,他言語との並行コーパスとなっている.{\bfUDJapanese-Modern}\cite{UD-Modern-JADH-2017}は『日本語歴史コーパス明治・大正編I雑誌』(CHJ)\cite{Ogiso-2017}に基づいたデータである.CHJは,BCCWJと同じ基準で形態論情報が付与されている.また,BCCWJ-DepParaと同じ基準で,文節係り受けと並列構造が付与されており,UDJapanese-BCCWJと同じ手法でUD基準に変換される.BCCWJとの違いとして,文語表現に基づく倒置(「曰」など)や述語性連体詞(「所謂」)などがある.\subsection{既存のコーパスからの変換}\label{subsec:conversion}\ref{sec:japanese}~節で述べた通り,UDの日本語コーパスは既存のコーパスからの変換に基づいて構成する.構文構造のコーパスには,BCCWJ\cite{Maekawa-2014-LRE}に文節ごとの係り受け関係を付与したBCCWJ-DepPara~\cite{Asahara-2016-ALR12},国語研短単位による単語の単位で係り受けを付与したコーパス\cite{mori:2014:lrec},句構造のツリーバンク(TanakaandNagata2013;吉本,周,小菅,大友,Butler2013;田中他2014)\nocite{Tanaka-2013,yoshimoto:2013:NLP,ttanaka:2014:NLP}などがある.UD自体は単語単位の係り受け構造であるが,節の単位を考慮して依存関係ラベル(\dt{acl},\dt{advcl},\dt{csubj},\dt{ccomp}など)を付与したり,並列構造のスコープを定めたりする必要がある.また,日本語のUDVersion2では,格関係のラベルは格助詞により表示された表層格で付与する(格助詞「が」=\dt{nsubj},格助詞「を」=\dt{obj}など)が,係助詞「は」「も」などにより格助詞が現れない場合や,格助詞「に」で表示された要素を必須要素として扱うか(\dt{iobj}),随意的要素として扱うか(\dt{obl})などの区別を行う必要があることから,変換元のコーパスに述語項構造の情報が含まれていることが望ましい.また,格関係を含め内容語間の係り受け関係を捉える上では,格助詞や助動詞相当の機能表現の複合語(「に対して」「かもしれない」など)をまとめて扱った方が都合が良く,国語研長単位を導入することによりこれらを一つの機能語として扱うことも有用である.これらの情報を持つコーパスとして句構造ツリーバンクKaedeTreebank\cite{Tanaka-2013,ttanaka:2014:NLP}と,文節係り受けのコーパスBCCWJからの変換によりUDのコーパスが構築されている.表~\ref{tab:ud-conversion}に,変換元としたコーパスとUD変換に必要な情報の取得源を示している.以下に,それぞれの変換の概要について述べる.\begin{table}[b]\caption{既存コーパスとUDへの変換に利用した情報}\label{tab:ud-conversion}\input{01table05.tex}\end{table}\subsubsection{句構造ツリーバンクからの変換}日本語句構造ツリーバンクKaedeTreebankでは,形態素や句構造などのアノテーションを参照することで,日本語UDへの自動変換を行っている.ツリーバンクは2分木で構成されており,左右のラベルを比較して主辞を決定する主辞規則を各分岐に順に適用することで,依存構造に変換することができる.依存構造ラベルも,各分岐ごとに周辺のノードのラベルを参照する変換規則を適用することにより決定することができる.図~\ref{fig:ex-constituent}は,変換元となる句構造の例を示している.図中の品詞ラベルは,元のツリーバンクのものからUPOSに変換した結果となっている.主辞を決定するために各分岐に対して,表\ref{tab:ex-headrule}で示されるような主辞規則を適用していく.例えば,左端の二つのノード「赤い/\utag{ADJ}」「車/\utag{NOUN}」に関して,図中の規則に従うと「\utag{ADJ}」「\utag{NOUN}」の品詞の並びは右側のノード「\utag{NOUN}」が主辞となる.図~\ref{fig:ex-constituent}で,四角で囲まれたノードは各分岐における主辞を示している.\begin{figure}[b]\begin{center}\includegraphics{26-1ia1f1.eps}\end{center}\caption{変換元になる句構造の例}\label{fig:ex-constituent}\end{figure}\begin{table}[b]\caption{主辞規則の例}\label{tab:ex-headrule}\input{01table06.tex}\end{table}依存関係ラベルの決定については,葉ノードにあたる語は全て,何らかの依存関係ラベルを介して,他の語あるいは根ノードを主辞としているので,各葉ノードを起点として行っていく.ある葉ノードをDとすると,DからDの主辞への依存関係ラベルは,Dから根ノードの方向にたどりDが主辞とならない最初のノードC,Cの左の子ノードL,Cの姉妹ノードHのように,それぞれのラベルを参照した規則により決定できる.表\ref{tab:ex-deplabelrule}は,依存関係ラベル変換規則の例を示す.図中の$\ast$は,任意のラベルを表している.例えば,葉ノード「車」と主辞との依存関係ラベルを決定する場合,ノードDは「車/\utag{NOUN}」,Cは「\utag{VP}」,Lは「\utag{PP-OBJ}」,Hは「\utag{SCONJ}」であるので,表\ref{tab:ex-deplabelrule}の3行目のルールから,依存構造ラベルは\dt{obj}に決定される.\begin{table}[b]\caption{依存関係ラベル変換規則の例}\label{tab:ex-deplabelrule}\input{01table07.tex}\end{table}図\ref{fig:ex-converted-results}は,図\ref{fig:ex-constituent}の句構造に,主辞規則,依存関係ラベル変換規則を適用して変換されたUDの例を示す.\begin{figure}[b]\begin{center}\includegraphics{26-1ia1f2.eps}\end{center}\caption{自動変換された依存構造の例}\label{fig:ex-converted-results}\end{figure}\subsubsection{文節係り受けコーパスからの変換}BCCWJにアノテーションされた文節係り受け情報に基づいたUD互換の言語資源を整備した.ここでは,概略を述べるにとどめ,詳細は文献\cite{Omura-WS-2017,Omura-WS-2018}を参照されたい.最初に,BCCWJのUniDic品詞体系から,UPOSへの変換が行われる.UPOSに変換するにあたっては,前述したようにサ変や形状詞のように用法に応じた品詞を必要とする場合があるため,短単位の品詞だけでなく,長単位の品詞も参照して変換する.表\ref{fig:ex-bccwj-segment}の例では,「所持」という短単位について,品詞は「名詞-普通名詞-サ変可能」であり,UPOSでは\utag{NOUN},\utag{VERB}のいずれかに変換される可能性があるが,長単位「所持し」の品詞「動詞-一般」を参照して,\utag{VERB}に変換される.\begin{table}[b]\caption{国語研短単位,長単位,文節による分割とUPOSの例}\label{fig:ex-bccwj-segment}\input{01table08.tex}\end{table}\begin{figure}[b]\begin{center}\includegraphics{26-1ia1f3.eps}\end{center}\caption{文節係り受けと変換されたUDの例.色のついている単語が文節の主辞である.}\label{fig:ex-bunsetsu-dep}\end{figure}単語間の依存構造は,BCCWJ-DepParaが持つ文節間の係り受け情報を変換することにより,構築する.\ref{subsec:dep_j}節で述べたように,文節間係り受けを各文節間の自立語主辞に代表させるため,文節間の係り受けは各文節の主辞となる語の間の依存関係に変換される.図\ref{fig:ex-bunsetsu-dep}では,2つの文節「自動車を」「所持している」間の係り受け関係が,それぞれの文節の主辞である短単位「車」「所持」の間の依存関係に変換されている.また,文節内においては文節内の自立語主辞と他の構成要素との関係を定義するため,原則として,各文節の主辞にそれ以外の語が依存関係をもつ構造に変換される.例えば,図の「所持している」の文節においては,「し」「て」「いる」の各語が,文節の主辞「所持」との依存関係を持つ構造に変換されている.依存関係ラベルは,主辞の品詞タグ,短単位品詞,修飾語の品詞タグ,格助詞の情報などを参照した変換規則により変換される.例えば,主辞「所持」と修飾語「車」の間の依存関係ラベルは,主辞の品詞タグ\utag{VERB},修飾語の品詞タグ\utag{NOUN},述語「所持」に対して項「車」が格助詞「を」と依存関係があることの組み合わせにより\dt{obj}に変換される.以上,自動変換の例について述べたが,ここで挙げたコーパス以外で,UDへの自動変換に必要な全ての情報を網羅した言語資源は,現時点では非常に限定的であると考えられる.既存コーパスのアノテーションを活用した自動変換をベースにしつつ,\ref{sec:discussion}~節で挙げたような課題に対応するため,新たなアノテーションスキームに関するさらなる議論が必要である.\subsection{ライセンスと著作権}UDJapanese-BCCWJはBCCWJコーパスから変換されたもので,アノテーションはオープンライセンスとして提供されている.しかし,原文の入手にはDVDの購入が必要\footnote{https://pj.ninjal.ac.jp/corpus\_center/bccwj/}.UDJapanese-KTCは毎日新聞95年版に基づいているために,利用には,毎日新聞データを購入する必要がある.アノテーション自体はクリエイティブコモンズライセンス(CCBY-SA)で利用可能である\footnote{http://www.nichigai.co.jp/sales/mainichi/mainichi-data.html}.UDJapanese-GSDとUDJapanese-PUDデータは,テキストも含めてオープンデータである.いずれもクリエイティブコモンズライセンス(UDJapanese-GSD:CCBY-NC-SA,UDJapanese-PUD:CCBY-SA)で利用可能である.UDJapanese-Modernは『日本語歴史コーパス』を元データとしており,元テキストの著作権は失効している.テキストも含めてクリエイティブコモンズ(CCBY-NC-ND)で利用可能.
\section{関連研究}
\label{sec:related}本節では,本稿に散在する関連研究について再掲しながらまとめる.既存の日本語の句構造木のツリーバンクとして,国立情報学研究所とNTTの共同研究により構築した句構造ツリーバンクKaedeTreebank\cite{Tanaka-2013,ttanaka:2014:NLP}がある.他にKeyakiTreebank\cite{Horn:2017}や開発中のNINJALParsedCorpusforModernJapanese(長崎,バトラー,ホーン,パルデシ,吉本2018)\nocite{長崎:2018}がある.既存の文節係り受けのツリーバンクとして,京都大学テキストコーパス\cite{KTC}・BCCWJ-DepPara\cite{Asahara-2016-ALR12}・近代語コーパスに対する係り受けアノテーション\cite{浅原:2016}がある.単語単位の係り受けのツリーバンクとして京都大学の日本語係り受けコーパス\cite{mori:2014:lrec}がある.Twitterに対する日本語UDアノテーションの研究も進められている\cite{Iso:2018}.UDのコーパス\cite{UDgithub}に関しては関連研究が多く,日本語に近い言語である韓国語についての研究にとどめる.\cite{Chun-2018}は韓国語のUDの言語資源について解説している.GoogleUDKoreanTreebank\cite{mcdonald:2013}・PennKoreanTreebank\cite{PennKTB}・KAISTTreebank\cite{KAISTTB}からのUD基準への変換について議論している.そのほかKoreanNationalCorpus\cite{KNC}からの変換に関する議論もある\cite{Noh:2018}.しかしながら,韓国語UDコーパスでは文節に相当する単位をUDの語としているなど,日本語のアノテーション仕様とは大きな隔たりがある.これは,言語間でアノテーション仕様をなるべく統一するというUDの目的から外れている状態と言える.実際,並列構造の左主辞に起因する問題など共有している問題もある\cite{kanayama:2018}.今後は4節の日本語特有の問題を共有し,相互に情報を交換しながらアノテーション仕様を合わせていくことが期待される.このほか,各論に対する関連研究については紙面の都合上割愛する.
\section{おわりに}
\label{sec:summary}本稿では,UniversalDependencies日本語版の定義を示した.その際の方針や現在の状況は以下の通りである:\begin{itemize}\itemUD本体の基準の変更に追随するために,基本的に既存のアノテーションデータからの変換によりコーパスを生成する.UD本体の基準に変更があった場合には変換規則の修正により対応する.\item従って,既存のアノテーションデータに含まれる情報から変換が可能な粒度のタグ・ラベルを付与する.\item現在のところ語の単位を国語研短単位で統一している.\item品詞タグはUniDic品詞体系とUD品詞の対応付けに基づいて付与する.サ変動詞・形状詞・補助用言などの一部の可能性に基づく品詞体系に対しては例外的な規定を与える.\item依存関係は,句構造木もしくは文節係り受けからの変換によって認定する.\item依存関係ラベルは,既存のアノテーションデータによって決められない情報(格のラベル・句と節の境界)があるが,変換の可能性・一貫性を重視して規則を与える.\item並列構造は本質的に係り受け木ではそのスコープを決定できない場合がある.またUD本体のほうで左主辞の原則を与えているが,日本語や韓国語などの主辞後置言語に親和性がない構造となっている.この点については,韓国語UDコーパスを整備している研究者とともにUD本体に対して問題点を指摘している.\item様々な言語資源からUD日本語データを構築し,現在のところチェコ語に次いで世界2位の規模のデータを公開している.\end{itemize}このように,UDの原則的定義に従いつつ日本語の既存の言語資源との対応関係を意識している.これまでは日本語の言語資源は独自の基準で研究されてきた面があり,既存の言語資源とUDの定義では対応関係が自明でない点が多い.本稿で示した定義においても一貫性や変換可能性に課題が残っており,今後の議論により日本語の独自性と言語横断性を両立した体系の構築を目指す.この活動により,言語横断的な研究や新たな応用への取り組みが加速されることが期待される.例えば,複数言語のUDコーパスを利用した構文解析器の構築,対訳コーパスに対して付与したアノテーションの比較,UDの言語横断性を利用した機械翻訳,などの応用が考えられる.一方,\ref{sec:discussion}~節で挙げた課題を見ても,UD全体の定義が英語に特化していると思われる点もある.UDを日本語へローカライズすることにとどまらず,他の言語のコミュニティと連携しながらUD全体の発展に向けて情報発信していくことが必要となろう.\acknowledgment研究開始時およびUDコーパス構築・公開に関して植松すみれ氏の多大なる貢献がありました.森信介氏には研究の過程でご助言をいただきました.本研究は,国立国語研究所コーパス開発センター共同研究プロジェクト「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」によるものです.本研究の一部はJSPS科研費JP15K12888,17H00917,18H05521の助成を受けました.本稿はLREC-2016:UniversalDependenciesforJapaneseとLREC-2018:UniversalDependenciesVersion2forJapaneseで発表したものを加筆修正したものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{有田}{有田}{2007}]{有田2007}有田節子\BBOP2007\BBCP.\newblock\Jem{日本語条件文と時制節性}.\newblock日本語研究叢書(フロンティアシリーズ).くろしお出版.\bibitem[\protect\BCAY{Asahara\BBA\Matsumoto}{Asahara\BBA\Matsumoto}{2016}]{Asahara-2016-ALR12}Asahara,M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2016\BBCP.\newblock\BBOQBCCWJ-DepPara:ASyntacticAnnotationTreebankonthe`BalancedCorpusofContemporaryWrittenJapanese'.\BBCQ\\newblockIn{\BemProceedingsofthe12thWorkshoponAsianLanguageResources(ALR12)},\mbox{\BPGS\49--58}.TheCOLING2016OrganizingCommittee.\bibitem[\protect\BCAY{浅原\JBA高橋}{浅原\JBA高橋}{2016}]{浅原:2016}浅原正幸\JBA高橋雄太\BBOP2016\BBCP.\newblock近代語コーパスに対する統語アノテーション基準の検討.\\newblock\Jem{日本語学会2016年度秋季大会}.\bibitem[\protect\BCAY{Choi,Han,Han,\BBA\Kwon}{Choiet~al.}{1994}]{KAISTTB}Choi,J.~D.,Han,Y.~S.,Han,Y.~G.,\BBA\Kwon,O.~W.\BBOP1994\BBCP.\newblock\BBOQKAISTTreeBankProjectforKorean:PresentandFutureDevelopment.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalWorkshoponSharableNaturalLanguageResources},\mbox{\BPGS\7--14}.\bibitem[\protect\BCAY{Chun,Han,Hwang,\BBA\Choi}{Chunet~al.}{2018}]{Chun-2018}Chun,J.,Han,N.-R.,Hwang,J.~D.,\BBA\Choi,J.~D.\BBOP2018\BBCP.\newblock\BBOQBuildingUniversalDependencyTreebanksinKorean.\BBCQ\\newblockIn{\BemProceedingsofthe11thInternationalConferenceonLanguageResourcesandEvaluation(LREC2018)},\mbox{\BPGS\2194--2202}.EuropeanLanguageResourcesAssociation.\bibitem[\protect\BCAY{de~Marneffe,Dozat,Silveira,Haverinen,Ginter,Nivre,\BBA\Manning}{de~Marneffeet~al.}{2014}]{demarneffe:2014:LREC}de~Marneffe,M.-C.,Dozat,T.,Silveira,N.,Haverinen,K.,Ginter,F.,Nivre,J.,\BBA\Manning,C.~D.\BBOP2014\BBCP.\newblock\BBOQUniversalStanfordDependencies:ACross-linguisticTypology.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonLanguageResourcesandEvaluation(LREC2014)},\mbox{\BPGS\4585--4592}.EuropeanLanguageResourcesAssociation.\bibitem[\protect\BCAY{Den,Nakamura,Ogiso,\BBA\Ogura}{Denet~al.}{2008}]{den:2008:lrec}Den,Y.,Nakamura,J.,Ogiso,T.,\BBA\Ogura,H.\BBOP2008\BBCP.\newblock\BBOQAProperApproachtoJapaneseMorphologicalAnalysis:Dictionary,Model,andEvaluation.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalConferenceonLanguageResourcesandEvaluation(LREC2008)},\mbox{\BPGS\1019--1024}.EuropeanLanguageResourcesAssociation.\bibitem[\protect\BCAY{Haji{\v{c}},Ciaramita,Johansson,Kawahara,Mart{\'{\i}},M{\`{a}}rquez,Meyers,Nivre,Pad{\'{o}},{\v{S}}t{\v{e}}p{\'{a}}nek,Stra{\v{n}}{\'{a}}k,Surdeanu,Xue,\BBA\Zhang}{Haji{\v{c}}et~al.}{2009}]{hajivc-EtAl:2009:CoNLL-2009-ST}Haji{\v{c}},J.,Ciaramita,M.,Johansson,R.,Kawahara,D.,Mart{\'{\i}},M.~A.,M{\`{a}}rquez,L.,Meyers,A.,Nivre,J.,Pad{\'{o}},S.,{\v{S}}t{\v{e}}p{\'{a}}nek,J.,Stra{\v{n}}{\'{a}}k,P.,Surdeanu,M.,Xue,N.,\BBA\Zhang,Y.\BBOP2009\BBCP.\newblock\BBOQTheCoNLL-2009SharedTask:SyntacticandSemanticDependenciesinMultipleLanguages.\BBCQ\\newblockIn{\BemProceedingsofthe13thConferenceonComputationalNaturalLanguageLearning(CoNLL2009):SharedTask},\mbox{\BPGS\1--18}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Han,Ryu,Chae,yunYang,Lee,\BBA\Palmer}{Hanet~al.}{2006}]{PennKTB}Han,N.-R.,Ryu,S.,Chae,S.-H.,yunYang,S.,Lee,S.,\BBA\Palmer,M.\BBOP2006\BBCP.\newblock\BBOQKoreanTreebankAnnotationsVersion2.0.\BBCQ\\newblock\texttt{https://catalog.ldc.upenn.edu/LDC2006T09}.\bibitem[\protect\BCAY{Haspelmath}{Haspelmath}{2011}]{Haspelmath:FLin2011}Haspelmath,M.\BBOP2011\BBCP.\newblock\BBOQTheIndeterminacyofWordSegmentationandtheNatureofMorphologyandSyntax.\BBCQ\\newblock{\BemFoliaLinguistica},{\Bbf45}(1),\mbox{\BPGS\31--80}.\bibitem[\protect\BCAY{服部}{服部}{1960}]{Hattori:1960fuzoku}服部四郎\BBOP1960\BBCP.\newblock附属語と附属形式.\\newblock\Jem{言語学の方法},\mbox{\BPGS\461--491}.岩波書店.\bibitem[\protect\BCAY{Horn,Butler,\BBA\Yoshimoto}{Hornet~al.}{2017}]{Horn:2017}Horn,S.~W.,Butler,A.,\BBA\Yoshimoto,K.\BBOP2017\BBCP.\newblock\BBOQKeyakiTreebankSegmentationandPart-of-speechLabelling.\BBCQ\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\417--417}.\bibitem[\protect\BCAY{Iso,Ito,Nagai,Okahisa,\BBA\Aramaki}{Isoet~al.}{2018}]{Iso:2018}Iso,H.,Ito,K.,Nagai,H.,Okahisa,T.,\BBA\Aramaki,E.\BBOP2018\BBCP.\newblock\BBOQParsingJapaneseTweetsintoUniversalDependencies(non-archivalsubmission).\BBCQ\\newblockIn{\BemProceedingsofUniversalDependenciesWorkshop2018(UDW2018)}.\bibitem[\protect\BCAY{Kanayama,Han,Asahara,Hwang,Miyao,Choi,\BBA\Matsumoto}{Kanayamaet~al.}{2018}]{kanayama:2018}Kanayama,H.,Han,N.-R.,Asahara,M.,Hwang,J.~D.,Miyao,Y.,Choi,J.,\BBA\Matsumoto,Y.\BBOP2018\BBCP.\newblock\BBOQCoordinateStructuresinUniversalDependenciesforHead-finalLanguages.\BBCQ\\newblockIn{\BemProceedingsofUniversalDependenciesWorkshop2018(UDW2018)},\mbox{\BPGS\75--84}.\bibitem[\protect\BCAY{Kanayama,Torisawa,Mitsuishi,\BBA\Tsujii}{Kanayamaet~al.}{2000}]{Kanayama00}Kanayama,H.,Torisawa,K.,Mitsuishi,Y.,\BBA\Tsujii,J.\BBOP2000\BBCP.\newblock\BBOQAHybridJapaneseParserwithHand-craftedGrammarandStatistics.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonComputationalLinguistics(COLING2000)},\mbox{\BPGS\411--417}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kim}{Kim}{2006}]{KNC}Kim,H.\BBOP2006\BBCP.\newblock\BBOQKoreanNationalCorpusinthe21stCenturySejongProject.\BBCQ\\newblockIn{\BemProceedingsofthe13thNationalInstituteofJapaneseLiterature(NIJL)InternationalSymposium},\mbox{\BPGS\49--54}.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{2003}]{KTC}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP2003\BBCP.\newblock{\BemBuildingaJapaneseParsedCorpus---whileImprovingtheParsingSystem},\BCH~14,\mbox{\BPGS\249--260}.\newblockTreebanks:BuildingandUsingParsedCorpora.SpringerNetherlands.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Ogiso,Maruyama,Ogura,Kashino,Koiso,Yamaguchi,Tanaka,\BBA\Den}{Maekawaet~al.}{2014}]{Maekawa-2014-LRE}Maekawa,K.,Yamazaki,M.,Ogiso,T.,Maruyama,T.,Ogura,H.,Kashino,W.,Koiso,H.,Yamaguchi,M.,Tanaka,M.,\BBA\Den,Y.\BBOP2014\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf48},\mbox{\BPGS\345--371}.\bibitem[\protect\BCAY{益岡\JBA田窪}{益岡\JBA田窪}{1992}]{masuokatakubo}益岡隆志\JBA田窪行則\BBOP1992\BBCP.\newblock\Jem{基礎日本語文法・改訂版}.\newblockくろしお出版.\bibitem[\protect\BCAY{McDonald,Nivre,Quirmbach-Brundage,Goldberg,Das,Ganchev,Hall,Petrov,Zhang,T{\"{a}}ckstr{\"{o}}m,Bedini,Bertomeu~Castell{\'{o}},\BBA\Lee}{McDonaldet~al.}{2013}]{mcdonald:2013}McDonald,R.,Nivre,J.,Quirmbach-Brundage,Y.,Goldberg,Y.,Das,D.,Ganchev,K.,Hall,K.,Petrov,S.,Zhang,H.,T{\"{a}}ckstr{\"{o}}m,O.,Bedini,C.,Bertomeu~Castell{\'{o}},N.,\BBA\Lee,J.\BBOP2013\BBCP.\newblock\BBOQUniversalDependencyAnnotationforMultilingualParsing.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\92--97},Sofia,Bulgaria.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{宮岡}{宮岡}{2015}]{Miyaoka:2015go}宮岡伯人\BBOP2015\BBCP.\newblock\Jem{「語」とはなにか・再考:日本語文法と「文字の陥穽」}.\newblock三省堂.\bibitem[\protect\BCAY{Mori,Ogura,\BBA\Sasada}{Moriet~al.}{2014}]{mori:2014:lrec}Mori,S.,Ogura,H.,\BBA\Sasada,T.\BBOP2014\BBCP.\newblock\BBOQAJapaneseWordDependencyCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonLanguageResourcesandEvaluation(LREC2014)},\mbox{\BPGS\753--758}.EuropeanLanguageResourcesAssociation.\bibitem[\protect\BCAY{長崎\JBAアラステア・バトラー\JBAスティーブン・ライト・ホーン\JBAプラシャント・パルデシ\JBA吉本}{長崎\Jetal}{2018}]{長崎:2018}長崎郁\JBAアラステア・バトラー\JBAスティーブン・ライト・ホーン\JBAプラシャント・パルデシ\JBA吉本啓\BBOP2018\BBCP.\newblock統語解析情報付きコーパス検索用インタフェースの開発.\\newblock\Jem{言語処理学会第24回年次大会発表論文集},\mbox{\BPGS\1123--1126}.\bibitem[\protect\BCAY{Noh,Han,Oh,\BBA\Kim}{Nohet~al.}{2018}]{Noh:2018}Noh,Y.,Han,J.,Oh,T.,\BBA\Kim,H.\BBOP2018\BBCP.\newblock\BBOQEnhancingUniversalDependenciesforKorean.\BBCQ\\newblockIn{\BemProceedingsofUniversalDependenciesWorkshop2018(UDW2018)},\mbox{\BPGS\108--116}.\bibitem[\protect\BCAY{Noji\BBA\Miyao}{Noji\BBA\Miyao}{2015}]{noji:2015}Noji,H.\BBACOMMA\\BBA\Miyao,Y.\BBOP2015\BBCP.\newblock\BBOQLeft-cornerParsingforDependencyGrammar.\BBCQ\\newblock{\BemJournalofNaturalLanguageProcessing},{\Bbf22}(4),\mbox{\BPGS\251--288}.\bibitem[\protect\BCAY{Ogiso,Kondo,Mabuchi,\BBA\Hattori}{Ogisoet~al.}{2017}]{Ogiso-2017}Ogiso,T.,Kondo,A.,Mabuchi,Y.,\BBA\Hattori,N.\BBOP2017\BBCP.\newblock\BBOQConstructionofthe`CorpusofHistoricalJapanese:Meiji-TaishoSeriesI---Magazines'.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceofDigitalHumanities(DH2017)},\mbox{\BPGS\770--771}.AllianceofDigitalHumanitiesOrganizations.\bibitem[\protect\BCAY{小椋\JBA小磯\JBA冨士池\JBA宮内\JBA小西\JBA原}{小椋\Jetal}{2011}]{ogura:2011:book}小椋秀樹\JBA小磯花絵\JBA冨士池優美\JBA宮内佐夜香\JBA小西光\JBA原裕\BBOP2011\BBCP.\newblock\Jem{『現代日本語書き言葉均衡コーパス』形態論情報規程集第4版(上)(下)}.\newblock人間文化研究機構国立国語研究所.\bibitem[\protect\BCAY{大村\JBA浅原}{大村\JBA浅原}{2017}]{Omura-WS-2017}大村舞\JBA浅原正幸\BBOP2017\BBCP.\newblock現代日本語書き言葉均衡コーパスのUniversalDependencies.\\newblock\Jem{言語資源活用ワークショップ発表論文集},\mbox{\BPGS\132--142}.人間文化研究機構国立国語研究所.\bibitem[\protect\BCAY{大村\JBA浅原}{大村\JBA浅原}{2018}]{Omura-WS-2018}大村舞\JBA浅原正幸\BBOP2018\BBCP.\newblockUDJapanese-BCCWJの構築と分析.\\newblock\Jem{言語資源活用ワークショップ発表論文集},\mbox{\BPGS\161--175}.人間文化研究機構国立国語研究所.\bibitem[\protect\BCAY{Omura,Takahashi,\BBA\Asahara}{Omuraet~al.}{2017}]{UD-Modern-JADH-2017}Omura,M.,Takahashi,Y.,\BBA\Asahara,M.\BBOP2017\BBCP.\newblock\BBOQUniversalDependencyforModernJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe7thConferenceofJapaneseAssociationforDigitalHumanities(JADH2017)},\mbox{\BPGS\34--36}.JapaneseAssociationforDigitalHumanities.\bibitem[\protect\BCAY{Petrov,Das,\BBA\McDonald}{Petrovet~al.}{2012}]{petrov:2012:lrec}Petrov,S.,Das,D.,\BBA\McDonald,R.\BBOP2012\BBCP.\newblock\BBOQAUniversalPart-of-SpeechTagset.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalConferenceonLanguageResourcesandEvaluation(LREC2012)},\mbox{\BPGS\2089--2096}.EuropeanLanguageResourcesAssociation.\bibitem[\protect\BCAY{Straka\BBA\Strakov{\'{a}}}{Straka\BBA\Strakov{\'{a}}}{2017}]{udpipe:2017}Straka,M.\BBACOMMA\\BBA\Strakov{\'{a}},J.\BBOP2017\BBCP.\newblock\BBOQTokenizing,POSTagging,LemmatizingandParsingUD2.0withUDPipe.\BBCQ\\newblockIn{\BemProceedingsoftheCoNLL2017SharedTask:MultilingualParsingfromRawTexttoUniversalDependencies},\mbox{\BPGS\88--99}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{田中\JBA永田\JBA松崎\JBA宮尾\JBA植松}{田中\Jetal}{2014}]{ttanaka:2014:NLP}田中貴秋\JBA永田昌明\JBA松崎拓也\JBA宮尾祐介\JBA植松すみれ\BBOP2014\BBCP.\newblock統語情報と意味情報を統合した日本語句構造ツリーバンクの構築.\\newblock\Jem{言語処理学会第20回年次大会発表論文集},\mbox{\BPGS\737--740}.言語処理学会.\bibitem[\protect\BCAY{Tanaka,Miyao,Asahara,Uematsu,Kanayama,Mori,\BBA\Matsumoto}{Tanakaet~al.}{2016}]{UD-LREC-2016}Tanaka,T.,Miyao,Y.,Asahara,M.,Uematsu,S.,Kanayama,H.,Mori,S.,\BBA\Matsumoto,Y.\BBOP2016\BBCP.\newblock\BBOQUniversalDependenciesforJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonLanguageResourcesandEvaluation(LREC2016)},\mbox{\BPGS\1651--1658}.EuropeanLanguageResourcesAssociation.\bibitem[\protect\BCAY{Tanaka\BBA\Nagata}{Tanaka\BBA\Nagata}{2013}]{Tanaka-2013}Tanaka,T.\BBACOMMA\\BBA\Nagata,M.\BBOP2013\BBCP.\newblock\BBOQConstructingaPracticalConstituentParserfromaJapaneseTreebankwithFunctionLabels.\BBCQ\\newblockIn{\BemProceedingsofthe4thWorkshoponStatisticalParsingofMorphologicallyRichLanguage(SPML2013)},\mbox{\BPGS\108--118}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{{UniversalDependenciescontributors}}{{UniversalDependenciescontributors}}{2014}]{UDgithub}{UniversalDependenciescontributors}\BBOP2014\BBCP.\newblock\BBOQUniversalDependencies.\BBCQ\\newblock{\hfill\hfill\linebreak\ttfamilyhttps://universaldependencies.github.io/docs/}.\bibitem[\protect\BCAY{吉本\JBA周\JBA小菅\JBA大友\JBA{Butler,A.}}{吉本\Jetal}{2013}]{yoshimoto:2013:NLP}吉本啓\JBA周振\JBA小菅智也\JBA大友瑠璃子\JBA{Butler,A.}\BBOP2013\BBCP.\newblock日本語ツリーバンクのアノテーション方針.\\newblock\Jem{言語処理学会第19回年次大会発表論文集},\mbox{\BPGS\924--927}.言語処理学会.\bibitem[\protect\BCAY{Zeman}{Zeman}{2008}]{Zeman2008}Zeman,D.\BBOP2008\BBCP.\newblock\BBOQReusableTagsetConversionUsingTagsetDrivers.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalConferenceonLanguageResourcesandEvaluation(LREC2008)},\mbox{\BPGS\213--218}.EuropeanLanguageResourcesAssociation.\bibitem[\protect\BCAY{Zeman,Haji{\v{c}},Popel,Straka,Ginter,Nivre,\BBA\Petrov}{Zemanet~al.}{2018}]{udst2018:overview}Zeman,D.,Haji{\v{c}},J.,Popel,M.,Straka,M.,Ginter,F.,Nivre,J.,\BBA\Petrov,S.\BBOP2018\BBCP.\newblock\BBOQCoNLL2018SharedTask:MultilingualParsingfromRawTexttoUniversalDependencies.\BBCQ\\newblockIn{\BemProceedingsoftheCoNLL2018SharedTask:MultilingualParsingfromRawTexttoUniversalDependencies},\mbox{\BPGS\1--21}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Zeman,Popel,Straka,Haji{\v{c}},Nivre,Ginter,Luotolahti,Pyysalo,Petrov,Potthast,Tyers,Badmaeva,G{\"{o}}k{\i}rmak,Nedoluzhko,Cinkov{\'{a}},Haji{\v{c}}~Jr.,Hlav{\'{a}}{\v{c}}ov{\'{a}},et~al.}{Zemanet~al.}{2017}]{zeman2017conll}Zeman,D.,Popel,M.,Straka,M.,Haji{\v{c}},J.,Nivre,J.,Ginter,F.,Luotolahti,J.,Pyysalo,S.,Petrov,S.,Potthast,M.,Tyers,F.,Badmaeva,E.,G{\"{o}}k{\i}rmak,M.,Nedoluzhko,A.,Cinkov{\'{a}},S.,Haji{\v{c}}~Jr.,J.,Hlav{\'{a}}{\v{c}}ov{\'{a}},J.,et~al.\BBOP2017\BBCP.\newblock\BBOQCoNLL2017SharedTask:MultilingualParsingfromRawTexttoUniversalDependencies.\BBCQ\\newblockIn{\BemProceedingsoftheCoNLL2017SharedTask:MultilingualParsingfromRawTexttoUniversalDependencies},\mbox{\BPGS\1--19}.\end{thebibliography}\begin{biography}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究博士後期課程修了.2004年より同大学助教.2012年より人間文化研究機構国立国語研究所コーパス開発センター特任准教授.現在同准教授.博士(工学).情報処理学会,言語処理学会,日本言語学会,日本語学会各会員.}\bioauthor{金山博}{2000年東京大学大学院理学系研究科修士課程修了,同年より日本アイ・ビー・エム株式会社東京基礎研究所に所属し,自然言語処理の基盤技術と応用に関する研究に従事.博士(情報理工学).言語処理学会・電子情報通信学会各会員.}\bioauthor{宮尾祐介}{2000年東京大学大学院理学系研究科修士課程修了.2001年より同大学にて助手,2007年より助教.2006年同大学大学院にて博士号(情報理工学)取得.2010年より国立情報学研究所准教授,2018年より東京大学教授.人工知能学会,情報処理学会,言語処理学会各会員.}\bioauthor{田中貴秋}{1996年大阪大学大学院基礎工学研究科修士課程修了.同年,日本電信電話株式会社入社.2007年〜2012年西日本電信電話株式会社研究開発センタ勤務.現在,日本電信電話株式会社NTTコミュニケーション科学基礎研究所にて自然言語処理の研究に従事.言語処理学会,人工知能学会各会員.}\bioauthor{大村舞}{2015年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2017年より人間文化研究機構国立国語研究所コーパス開発センター非常勤研究員.修士(工学).言語処理学会,人工知能学会各会員.}\bioauthor{村脇有吾}{2011年京都大学大学院情報学研究科博士後期課程修了,博士(情報学).同年京都大学学術情報メディアセンター特定助教,2013年九州大学大学院システム情報科学研究院助教,2016年京都大学大学院情報学研究科助教,現在にいたる.テキスト解析および計算言語学に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{松本裕治}{1979年京都大学大学院工学研究科修士課程修了.同年電子技術総合研究所入所.1985〜1987年(財)新世代コンピュータ技術開発機構に出向.1988年京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.2016年9月より理研AIP知識獲得チームPI兼務.工学博士.情報処理学会フェロー.ACLFellow.}\end{biography}\biodate\end{document}
| |
V10N02-05 | \section{はじめに}
言語処理において,宣言的な文法規則に基づく自然言語文解析の研究・開発は不可欠のタスクである.本稿では,LexicalFunctionalGrammar(LFG)に基づいた実用的な日本語文解析システムについて述べる.本システムの第一の特徴は,精緻な日本語文法規則に基づく深い解析を行う点である.第二の特徴は,実文を対象とした評価が可能な高い解析カバー率を達成している点,すなわち,解析対象が口語的・非文法的文であっても解析可能な高い頑健性を持つ点である.本システムの実装により,LFGに基づく日本語解析システムとしては初めて,文法機能(grammaticalfunction)の情報を含めた解析精度の評価実験を行うことが可能となった.さらに第三の特徴として,LFGの解析結果が持つ言語普遍性の特徴を活かすため,他言語のLFG文法と高い整合性・無矛盾性を保っている点を挙げることができる.第一の特徴を実現するために,日本語文法あるいは国文法研究の知見を参考にして,LFGのフォーマリズムに基づく大規模な文法記述を行った.もちろん,言語現象の形式化には様々な選択肢がある.本システムの構築に際しては,上記第二の特徴および第三の特徴を実現するために,(1)一般には非文法的とみなされる文であってもそれを排除する選択肢を採用せず,かつ,(2)他の言語の解析結果との並行性を保持できる選択肢を優先する方針で文法規則の記述を行った.本稿の構成は以下の通りである.2章では,LFGおよび関連研究について述べる.3章では,上記第三の特徴に関係する取り組みとして,我々が属しているParallelGrammarProjectでの活動を概観する.4章で,日本語LFGシステムの構成を説明した後,5章では文法記述について述べる.5.1節および5.2節において,上記(1)(2)の方針で記述した日本語文法規則を説明する.5.3節の冒頭で触れている通り,第一の特徴と第二の特徴を両立することは極めて難しい.5.3節では,OTマークと部分解析の機能を用いて,この両立を実現する手法について述べる.6章では,以上の枠組みで構築した日本語LFGシステムの評価結果を示し,7章に今後の課題を記す.
\section{LexicalFunctionalGrammar}
LFGは自然言語文の解析を行うための文法理論であり,\cite{B1978}によってその概念が提唱された後,\cite{KandB1982}によって現在の形の定式化が完成した.LFGに基づく解析では,解析結果としてc(onstituent)-structureとf(unctional)-structureと呼ばれる2種の構造を出力する.c-structureは自然言語文の構造を,文の形態素を上位のフレーズへと纏め上げることによって木構造として表現するものである.一方,f-structureは,文法機能の概念に基づき,文の格構造,時制,様相,話法等の意味情報を属性-属性値のマトリックス構造で表現するものである.LFG理論では,SUBJ(ect)やOBJ(ect)等の文法機能をいかなる言語の解析においても有効であると考え,第一義の未定義要素としての地位を与えている\cite{S1985}.すなわち,見かけの表現は全く異なっていたとしても,文法機能の概念はあらゆる言語において共通に存在するという立場をとる.この立場は,ArcPairGrammar\cite{JandP1980}やRelationalGrammar\cite{PandP1983},ConstructionGrammar\cite{Kay1998}と共通するものである.言語が異なれば同じ意味内容を表現する文であってもその句構造すなわちc-structureは大きく異なる一方で,文法機能に基づく構造であるf-structureの違いは多くの場合極めて小さいことが知られている\cite{B1999a,D2001}.言語解析システムの出力結果が言語を問わず一定であればあるほど,多言語を対象とする言語処理システムの構築に要するコストは低減すると考えられる.このような工学的観点からみると,f-structureの言語普遍性は,f-structureを中間言語とする機械翻訳システム\cite{F1999}はもとより,質問応答,自然言語によるマンマシンインタフェース,文書集合の内容一貫性保持\cite{E2002}等の自然言語処理アプリケーションを言語の壁を越えて実装する上で重要な特徴であるといえる.1章で述べた通り,本稿で述べる日本語LFG文法では,このf-structureが持つ言語普遍性の特徴を損なわないことを記述方針の一つとしている.これまでも,LFGやHead-drivenPhraseStructureGrammar(HPSG)\cite{PandS1987,PandS1994}等の単一化文法に基づいた日本語の解析に関する研究は数多く行われている.しかし,比較的最近まで,f-structureのような素性構造の単一化は大きな計算量を要する作業であるため,大規模な文法を用いた解析の実行は困難であるとの認識があった\cite{hashida1997}.さらに,単一化文法の枠組みにおいて,日本語の文法事項を網羅的に含み高いカバー率を実現する文法規則を記述することは容易ではないと指摘されている\cite{torisawa1999}.しかしながら,前者の解析効率の問題に関しては,\cite{MandK1993},\cite{NLE2000}等で提案されている解析アルゴリズムの進展によって一定の解決策が得られつつある.また,この前者の問題の解決は,後者の問題とも大きく関係している.単一化に基づく解析を実行するシステムは制約充足問題を解決するシステムである.制約数すなわち文法規則の数が多くなるにしたがって計算量の爆発が生じる.前者の問題が解決されていないこれまでの状況においては,システムの制約上,大規模な文法を記述し試すことが困難であったため,高い解析カバー率を持つ文法の構築に焦点を当てた研究には至らなかった.前者の問題が解決される過程にあり,大規模文法の記述に挑戦できる状態になってきたのが現在の状況であるといえる.例えば,\cite{mitsuishi1998}では,意味表現出力を伴わないものの極めて高い解析カバー率を持つ日本語HPSGシステムの報告がなされている.一方,\cite{otani2000}では,カバー率の問題は残るものの日本語文法の知見に立脚した精緻な解析を行うJapanesePhraseStructureGrammar(JPSG)システムの構成手法が提案されている.
\section{ParallelGrammarProject}
我々は,ParallelGrammar(ParGram)と呼ばれるプロジェクト活動\cite{B1999b,B2002}の中で日本語LFG文法の記述を行っている.ParGramは,LFGを共通の理論基盤として英語,ドイツ語,フランス語,ノルウェー語,ウルドゥー語,デンマーク語そして日本語の各言語を解析するシステムの実現を目標としている.ParGramでは,半年に一度全言語の文法記述担当者が集まってミーティング(ParGramMeeting)を開催し,複数言語間でf-structureの整合性を可能な限り高める,あるいは,矛盾を回避する機会を継続して持つことにしている.すなわち,f-structureの構成から属性・属性値の用法やネーミングコンベンションに至るまでの詳細を議論し,ParGramの標準仕様を決定する作業を行っている.日本語LFG文法における,肯定文,否定文,疑問文,受動文,並置表現等の基本的な構文に対して出力されるf-structureは,このParGram標準仕様\cite{B1999a}に準じている.ただし,この標準仕様は,f-structureの基本的な構成,属性・属性値については全言語でほぼ合意がなされているが,詳細な文法事項に関しては現在も継続的に議論を続けている.例えば,属性のネーミングレベルの仕様に関しては,当初全言語で性別を示す属性として使用していた「GEND」を,英語と日本語のLFG文法では「GEND-SEM」とし,「GEND」と区別するよう変更を行った.英語と日本語の文法では代名詞に対して「GEND」属性を与えていたが,これはドイツ語,フランス語,ノルウェー語,ウルドゥー語の一般名詞が持つ性別の概念とは本質的に異なるためである.\begin{quote}\begin{itemize}\item[(1-a)]ジョンは本をそのテーブルに置いた。\item[(1-b)]Johnputabookonthetable.\end{itemize}\end{quote}\begin{figure}[htbp]\center\epsfxsize=90.59mm\epsfbox{fig/fig2-1jp.eps}\caption{文(1-a)に対応するf-structure}\label{fig2-1jp}\end{figure}\begin{figure}[htbp]\center\epsfxsize=89.32mm\epsfbox{fig/fig2-1eng.eps}\caption{文(1-b)に対応するf-structure}\label{fig2-1eng}\end{figure}\begin{figure}[htbp]\center\epsfxsize=115.35mm\epsfbox{fig/fig2-2jp.eps}\caption{文(1-a)に対応するc-structure}\label{fig2-2jp}\end{figure}\begin{figure}[htbp]\center\epsfxsize=53.97mm\epsfbox{fig/fig2-2eng.eps}\caption{文(1-b)に対応するc-structure}\label{fig2-2eng}\end{figure}図\ref{fig2-1jp}に,文(1-a)に対して日本語LFGシステムが出力するf-structureを示す\footnote{図中の数字は各(部分)f-structureに対して割り振られた識別子であり,数値自体に意味はない.}.SUBJおよびOBJのPRED(icate)に自立語(「ジョン」「本」)が挿入されているのに対して,OBL(ique)のPREDには格助詞(「ニ」)が挿入されている.これは,英語等のParGramが対象とする欧米言語において,SUBJおよびOBJに対応する自立語が前置詞を必要としないのに対して,OBLやADJUNCTは前置詞を伴うことに由来する.日本語内での整合性だけを考えれば,SUBJやOBJのPREDも格助詞とする,あるいは,OBLやADJUNCTのPREDも自立語とする,という文法を記述することが可能である.しかしParGramにおいて他言語との整合性(比較のしやすさ)を重視するという立場から,図\ref{fig2-1jp}に示したf-structureを出力する方針で文法記述を行った.図\ref{fig2-1eng}は,ParGramの英語LFG文法を用いて文(1-a)に対応する英語文(1-b)を解析した結果得られるf-structureである.基本的に図\ref{fig2-1jp}と等しい構造を持っていることが分かる.なおc-structureに関しては,ノード(grammaticalcategory)名に対する緩やかなネーミングコンベンションの取り決めはあるものの,どのような構造を定めるかは各言語の担当者に任されている.図\ref{fig2-2jp},図\ref{fig2-2eng}は,文(1-a)(1-b)を解析した結果得られるc-structureである.両者の構造は全く異なっていることが分かる.
\section{システム構成}
ParGramでは共通のプラットフォームとしてXeroxLinguisticEnvironment(XLE)と呼ばれるLFGの処理系を使用している.XLEはLFG理論の仕様をほぼ完全に実装したparserであると同時に,LFGの文法記述を行う際のデバック環境であり,かつ,f-structureから自然言語文を生成するgeneratorでもある\cite{KandW2000}.XLEが持つ最も重要な特徴はその解析速度である.LFGでは,c-structureを構成するための句構造規則(文脈自由文法規則)と,f-structureを構成するために句構造規則(の右辺の各構成素)に付与する機能的注釈(functionalannotation;functionalschemata)を同時に記述する.XLEは,句構造規則に基づく解析処理を実行した後に,処理が必要な機能的注釈を動的に決定する.すなわち,計算量の大きい機能的注釈の処理を選択的に行うことによって解析速度の向上を実現している\cite{MandK1993}.また,解析結果の排他性・独立性を考慮した単一化手法\cite{MandK1991}も高い解析効率に寄与している.XLEを採用することによって,大規模なLFG文法に基づく解析を実時間で行うことが可能となった.図5は,日本語LFGシステムの構成図である.まず日本語入力文が形態素解析システムに渡され,得られた形態素解析結果から入力文語彙規則を生成する.形態素解析システムには茶筌\cite{chasen}を使用している.語彙規則生成部は,約40種の語彙規則テンプレートを持ち,適切なテンプレートを選択して必要項目を埋めることによって,各形態素の語彙規則を動的に生成する.テンプレートの選択は,各形態素の品詞および前後の形態素の品詞を基に,予め作成したルールによって行う.また,形態素解析処理によって得られた形態素列はXLEへの入力となる.活用語については,終止形をXLEへの入力とし,活用形は「M\_\_」(命令形),「K\_\_」(仮定形),「Y\_\_」(連用形)等の特別な文字列を形態素相当としてXLEへ渡す.なお,連用形を示す文字列は必要に応じてXLEへ渡すことにした.後続する語が自立語ならば,その活用形が句複合を行う結合子など何らかの統語的役割を果たしていると判断し,その目印として文字列を挿入する.一方,後続する語が助動詞などの付属語ならば挿入を行わないことによって,文法規則を簡略化する.\begin{figure}[htbp]\center\epsfxsize=99.48mm\epsfbox{fig/fig2-3.eps}\caption{日本語LFGシステムの構成図}\label{keiyoushi3_1b}\end{figure}XLEによる入力形態素列の解析には,上記の入力文語彙規則に加えて,予め用意した基本語彙規則,動詞語彙規則,形容詞語彙規則,形容動詞語彙規則,および,文法規則を使用する.動詞語彙規則,形容詞語彙規則,形容動詞語彙規則は,IPAL辞書\cite{IPALa,IPALb}の結合価情報をベースに拡張を行い,LFGの規則として必要な記述を追加したものである.現在のところ,動詞語彙規則は2,366の異なり語彙に対して10,387の語彙規則(41,115の機能的注釈)を含んでいる.形容詞語彙規則および形容動詞語彙規則は,それぞれ302および67の異なり語彙に対して810,137の語彙規則(1,891,306の機能的注釈)を含んでいる.基本語彙規則は,助詞,助動詞,代名詞,接続詞等の基本語彙に加え,接続助詞的な働きをする「間」「時」といった名詞等,統語上重要と考えられる語の語彙規則を独自に記述したものである.現状では,407の異なり語彙に対して954の語彙規則(1,233の機能的注釈)を含んでいる.文法規則のサイズは,積和標準形に変換した場合の項の総計が2,353であり,1,223の機能的注釈を含む.文法規則の詳細は次章で説明する.なお,語彙規則の中で,入力文語彙規則の優先順位は他の語彙規則よりも低く設定してある.つまり,入力文語彙規則は,同じ語彙に対する規則が既に存在している場合上書きされることになる.これは,助詞,助動詞などの重要な統語的役割を担う語に関しては,形態素解析結果から動的に生成されるデフォールトの規則よりも精緻な記述が必要となるからである.同時に,形態素解析の品詞付け誤りを吸収するための措置でもある.例えば,格助詞の「デ」と助動詞「ダ」の連用形「デ」の違いを形態素解析レベルの処理で正確に判別することは困難である.そこで,基本語彙規則中の「デ」に対して,格助詞としての振舞いを記述する規則と,「ダ」の連用形としての振舞いを記述する規則の両者を含めておく.形態素解析処理によって付与された品詞の如何にかかわらず,語彙規則としては双方の可能性を残して解析を進める.最終的には,その中から文法規則に従う解析結果のみが残ることになる.
\section{日本語LFG文法記述}
\subsection{基本的な文法規則}日本語の典型的な特徴として,語順の制約が緩い点(freewordorder),主語や目的語といった文の必須構成要素の抜け落ち(ゼロ代名詞)が頻出する点,および,複合述部(complexpredicate)が多用される点を挙げることができる\footnote{もちろん,これらの特徴は日本語のみに見られるものではない.ParGramプロジェクトが対象とする言語の中ではウルドゥー語がこれら3つの特徴を併せ持つ言語の例である.}.本節では,これら日本語の基本的な性質に対応するために我々が記述したLFG文法規則について述べる.\begin{quote}\begin{itemize}\item[(2-a)]私が太郎にその本を借りました。\item[(2-b)]その本を太郎に私が借りました。\item[(3)]東京から太郎が大阪へ行った。\item[(4)]右へその角を次の交差点で曲がって下さい。\end{itemize}\end{quote}日本語がfreewordorderの特徴を持つことは明らかである.ただし,文(2-a)と文(2-b)を比較すると(2-a)がより自然な文であると感じる.すなわち,基本的には各文に最適な語順が存在すると考えられる\cite{shibatani1978}.文(3)および(4)は語順の点で不自然な文であり,最適順序性を考慮してこれらの文を解析対象外とする方針を採ることは可能である.例えば,\cite{otani2000}では語順を強く意識した文法記述を行っている.しかし,文(2-a)と文(2-b)が表現する意味内容に違いがないことから,我々の日本語LFG文法では上記の最適順序性を考慮せず,どちらの文に対しても図\ref{fig4-1}に示すf-structureを出力するよう文法記述を行った.これは1章で述べた高いカバー率を達成する上でも重要な記述方針である.実際には,文(3)や(4)のように語順が不自然な文が現れることは珍しくない.したがって、高い解析カバー率を得るために,最適順序性に依存することのない,以下のような文法規則を日本語LFG文法の基本規則とした.\begin{table}[htbp]\begin{center}\begin{tabular}{llcc}\vspace{-1mm}S\quad&$\longrightarrow$\qquad\qquad\hspace{-9mm}&PP*&\hspace*{-4.5mm}V\\\vspace{-1mm}&&($\uparrow$GF)=$\downarrow$&\hspace*{-4.5mm}$\uparrow$=$\downarrow$\\\vspace{-7mm}\end{tabular}\end{center}\end{table}\begin{quote}S:文,PP:後置詞句,V:述語,GF:文法機能\end{quote}\vspace{3mm}\begin{figure}[htbp]\center\epsfxsize=110.7mm\epsfbox{fig/fig4-1.eps}\caption{文(2-a)(2-b)に対応するf-structure}\label{fig4-1}\end{figure}句構造規則が「文Sは任意個の後置詞句PPとそれに後続する述語Vから構成される」ことを定義し,機能的注釈によって「Vが文全体のPREDを担い,PPがそれに下位範疇化される文法機能を担う」ことが定義されている.なお,以下本稿の文法規則の説明で用いる記号(grammaticalcategory名)は,実際に使用している文法・語彙規則中の記号とは必ずしも一致していない.また,係助詞や副助詞によって格助詞が省略されている場合,文法的に可能性のある解析結果を全て出力するという方針で文法記述を行った.\begin{quote}\begin{itemize}\item[(5)]花子はその本も読んだ。\end{itemize}\end{quote}\begin{quote}\begin{itemize}\item[(6-a)]その本がシェークスピアを誉めていました。\item[(6-b)]シェークスピアがその本を誉めていました。\item[(6-c)]シェークスピアはこの本も誉めていました。\end{itemize}\end{quote}したがって文(5)に対しては,「花子」がSUBJで「本」がOBJの解析結果と,その逆の解析結果の両者を出力する.解析結果を一つに絞り込む機能は重要であり,これを行うために意味素性および選択制限の概念を文法・語彙規則に取り入れる余地はある.しかし,直前の文が(6-a)の場合と(6-b)の場合でSUBJとOBJが逆になる文(6-c)の例から分かるように,文単位の解析では本質的に曖昧性を解消できない場合もある.したがって,現在のところ文法的に誤りのない解析結果は全て出力し,曖昧性の解消は文脈解析等の別処理に委ねるという立場をとっている.もちろんこれは,格助詞・係助詞に関わるいかなる曖昧性の解消も行わないということを意味するものではない.\begin{quote}\begin{itemize}\item[(7-a)]太郎が読んだ本\item[(7-b)]太郎の読んだ本\item[(7-c)]太郎が本を読んだ。\item[(7-d)]太郎は読んだ本を捨てた。\item[(7-e)]太郎の本を読んだ。\end{itemize}\end{quote}例えば,(7-a)の名詞句と(7-c)の文は共に文法に則った表現であり「読む」のSUBJは「太郎」である.しかし,(7-d)の文では「太郎」は「捨てる」に係る.同様に,(7-b)の名詞句と(7-c)の文は共に文法に則った表現であるが,(7-e)の文において「太郎」をSUBJと解釈することはできない.前者は,(I)「関係節内において係助詞「ハ」による主題化は起こらない」\footnote{ここでは対比の「ハ」についての議論は省略する.},後者は,(II)「関係節内においてのみ格助詞「ノ」による主格表示が可能である」という文法規則に一般化できる.我々は,(7-d)および(7-e)の解析結果に曖昧性が生じない(「太郎」が「読む」のSUBJとなる解析結果を生成しない)よう,(I)(II)を実現する文法記述を行った.((7-e)に対しては,「読む」のSUBJはnullであり「太郎」は「本」の連体修飾成分となる解析結果が得られる.)(I)(II)を表現するためのLFG文法規則を以下に示す.\vspace{3mm}\begin{table}[htbp]\begin{center}\begin{tabular}{llccc}Srel\quad&$\longrightarrow$\qquad&\qquad\{PPsubj$|$PPsubj-no\}\qquad&PP*&V\\&&($\uparrow$SUBJ)=$\downarrow$&$\uparrow$GF=$\downarrow$&\hspace{-4.5mm}$\uparrow$=$\downarrow$\\&&($\downarrow$TOPICALIZATION-FORM)$\neq$'は'&&\\\end{tabular}\end{center}\begin{quote}Srel:関係節,PPsubj-no:「ノ」を伴い主格となり得る後置詞句\\PPsubj:主格となり得る後置詞句(PPsubj-noを含まない)\\TOPICALIZATION-FORM:主題化を行う係助詞の表層形\end{quote}\end{table}\vspace{3mm}文の必須構成要素が抜け落ち可能であるというゼロ代名詞の問題に関しては,述語(語彙規則)の結合価情報を利用する.結合価に対応する要素が文中に存在しない場合,省略があると判定する.ただし,このように結合価を埋める要素(下位範疇化すべき要素)がない場合,LFG理論のCompletenessの条件を満たすことができず,したがってf-structureを構成することができない.そこで,省略された要素のPREDに代名詞を示す'pro'を代入しPRON-TYPEの属性にnullを挿入することによって省略を表現し,f-structureを構成する.以上のことを実現する語彙規則を,「読む」を例として以下に示す.\vspace{4mm}{\small\begin{quote}読む\quadV\quad(↑PRED)='読む<(↑SUBJ)(↑OBJ)'>\begin{quote}\vspace{0.4mm}\qquad@(PDSUBJ)\vspace{0.5mm}\qquad@(PDOBJ)\end{quote}\vspace{0.4mm}PD(GF)=@(DEFAULT(↑GFPRED)'pro'(↑GFPRON-TYPE)null)\vspace{0.5mm}DEFAULT(ATTRIBUTE1VALUE1ATTRIBUTE2VALUE2)=\begin{quote}\vspace{0.4mm}\qquadATTRIBUTE1=VALUE1\vspace{0.5mm}\qquadATTRIBUTE2=VALUE2\vspace{0.5mm}\qquadProDrop:OT\end{quote}\end{quote}}「PD」および「DEFAULT」はマクロ定義であり,「@」はマクロの呼び出しを表す.語彙規則に「@(PDSUBJ)」を付加することにより,SUBJのPREDに'pro'が,SUBJのPRON-TYPEにはnullが代入される.「DEFAULT」マクロ中の「ProDrop:OT」は,「ProDrop」という名前のOTマークの定義である.OTマークは規則に対して優先順位を付与する働きを持つ.詳細は5.3.1項で説明する.ProDropには低い優先順位を設定し,それによって,「読む」が下位範疇化すべき要素がない時に限り「@(PDSUBJ)」および「@(PDOBJ)」が機能する.一般に,OTマークを利用することによって,解析結果の曖昧性を言語学的な根拠のもとに減少させることが可能となる\cite{B2001}.この記述手法の導入によって,省略要素を適切に同定することが可能となり,欧米言語では問題になることの少ない必須構成要素の抜け落ち問題を解決することができた.主語や目的語の省略は日本語では極めて頻繁に起こるため,この語彙規則記述は,解析カバー率向上にとって重要な役割を果たすものであるといえる.日本語のcomplexpredicateの取り扱いについても様々な方針が考えられるが,我々は,複数のPREDを立てる解析,すなわち,f-structureの入れ子構造によってcomplexpredicateを表現する解析(multi-clausalな解析)を行わない.複数のpredicate-argument構造の存在が同時に認められる場合(5.2.1項)を除き,mono-clausalな解析を行う.時制,様相等の情報はf-structure中のPRED以外の属性で表現する.\begin{quote}\begin{itemize}\item[(8)]太郎はその本を買いたくなかっただろう。\end{itemize}\end{quote}例として,文(8)のc-structureとf-structureを図\ref{fig4-2c},図\ref{fig4-2f}に示す.日本語のcomplexpredicateの構成は極めて多様であり,口語的・非文法的な文も含めて構成規則を網羅的に記述することは事実上困難である.したがって,高い解析カバー率を実現するために,complexpredicateに対応する規則はこのような緩やかなものとする方針を採っている.\begin{figure}[htbp]\center\epsfxsize=74.90mm\epsfbox{fig/fig4-2c.eps}\caption{文(8)に対応するc-structure}\label{fig4-2c}\end{figure}\begin{figure}[htbp]\center\epsfxsize=121.9mm\epsfbox{fig/fig4-2f.eps}\caption{文(8)に対応するf-structure}\label{fig4-2f}\end{figure}\subsection{特徴的な文法規則}本節では,日本語LFG文法で記述されている文法規則の中から1章で述べた高い解析カバー率および他言語との整合性の実現に関わるものを取り上げ,その記述方針を説明する.\subsubsection{受動文・使役文の取り扱い}前節では,複合述部の取り扱い方針としてmono-clausalな解析を採用すると述べた.しかし,複数のpredicate-argument構造を持つと認められる間接受動文(いわゆる「迷惑の受身」)\cite{masuoka1997}と使役文については,bi-clausalな解析結果を出力するよう文法記述を行った\footnote{日本語のLFG文法において,いかなる言語現象にbi-clausalな解析を適用すべきかについては現在も継続して議論が続けられ,決着がついていない.例えば使役文では\cite{matsumoto1996}と\cite{Yokota2001}とで異なる見解が述べられている.}.\begin{quote}\begin{itemize}\item[(9)]私は雨に降られた。\end{itemize}\end{quote}文(9)は間接受動文の例である.文(9)には,「「私」が「れる」」に加え,「「雨」が「降る」」という2つのpredicate-argument構造が含まれている.これを示すため,bi-clausalな解析を行う文法記述を行った.文(9)のf-structureを図\ref{fig4-3}に示す.\begin{figure}[htb]\center\epsfxsize=122.1mm\epsfbox{fig/fig4-3.eps}\caption{文(9)に対応するf-structure}\label{fig4-3}\end{figure}\begin{quote}\begin{itemize}\item[(10-a)]花子は太郎に次郎を殴らせた。\item[(10-b)]MaryletJohnhitBob.\end{itemize}\end{quote}文(10-a)は使役文の例である.文(10-a)には,「「花子」が「太郎」に「せる」」と,「「太郎」が「次郎」を「殴る」」という2つのpredicate-argument構造が認められるため,同様にbi-clausalな解析を行っている.文(10-a)のf-structureを図\ref{fig4-4}に示す.使役の助動詞「セ」「セル」に準ずるものとして,「頂く」「貰う」等の補助動詞も同様に取り扱っている.この記述方針は他言語のf-structureとの整合性を図る目的に従うものでもある.文(10-a)に対応する英語文(10-b)のf-structureを図\ref{fig4-x}に示す.基本的に図\ref{fig4-4}と等しい構造であることが分かる.\begin{figure}[htbp]\center\epsfxsize=86.36mm\epsfbox{fig/fig4-4.eps}\caption{文(10-a)に対応するf-structure}\label{fig4-4}\end{figure}\begin{figure}[htbp]\center\epsfxsize=95.03mm\epsfbox{fig/fig4-x.eps}\caption{文(10-b)に対応するf-structure}\label{fig4-x}\end{figure}\subsubsection{副助詞の取り扱い}副助詞は文脈情報を担うものであるため,意味情報を扱う解析において極めて重要な形態素であるといえる.さらに日本語文に頻繁に出現するため,副助詞を取り扱う文法規則は高いカバー率を実現する上でも重要なものである.しかしながら,これまでの実システムにおいて副助詞の振る舞いを十分に考慮した文法記述がなされてきたとは言い難い.水谷文法\cite{daitai}では,副助詞を体副形成子として規定する.これは,副助詞が,副詞化可能な体言を形成する働きを持つことを意味する.\begin{quote}\begin{itemize}\item[(11-a)]太郎が来るまでが問題だ。\item[(11-b)]太郎が来るまで辛抱しよう。\end{itemize}\end{quote}\begin{quote}\begin{itemize}\item[(12)]次郎にさえ分からなかった。\end{itemize}\end{quote}例えば文(11-a)(11-b)のように「太郎が来る」が副助詞「まで」を伴うと,名詞的あるいは副詞的働きを持つようになる.本システムでは,このような副助詞の性質を表現する文法の記述を行っている.ただし,文(12)のように副助詞(「さえ」)が格助詞に後続する場合は,\cite{daitai}に倣い格表示の一部とみなして体副形成子とは異なる扱いをする.図\ref{fig4-5a},図\ref{fig4-5b}に文(11-a)(11-b)のf-structureを示す.なお,図\ref{fig4-5b}中の「$\varepsilon_5$」は5.2.3項で述べる助詞の無形表示を示す記号である.\begin{figure}[htbp]\center\epsfxsize=113.9mm\epsfbox{fig/fig4-5a.eps}\caption{文(11-a)に対応するf-structure}\label{fig4-5a}\end{figure}\begin{figure}[htbp]\center\epsfxsize=114.1mm\epsfbox{fig/fig4-5b.eps}\caption{文(11-b)に対応するf-structure}\label{fig4-5b}\end{figure}\subsubsection{助詞・助動詞の無形表示の取り扱い}\begin{quote}\begin{itemize}\item[(13-a)]その女性は子供を優しく育てた。\item[(13-b)]その女性は子供をパイロットに育てた。\item[(13-c)]その女性は子供をはじめて育てた。\item[(13-d)]*その女性は子供を優しくに育てた。\item[(14-a)]Thewomanraisedachildtoakindperson.\item[(14-b)]Thewomanraisedachildkindly.\end{itemize}\end{quote}\cite{daitai}は,形容詞の連用修飾に曖昧性があることを指摘している.例えば文(13-a)は2つの解釈が可能である.1つは「子供が優しくなるように育てる」という意味であり,これは「優しい」が「育てる」という動詞の帰結状態を示している.もう1つは「子供の育て方が優しい」という意味であり,「優しい」は「育てる」の情況を示している.(13-b)との比較から分かるように,(13-a)において帰結状態を示す「優しい」は格助詞「ニ」を伴う後置詞句相当の働きを担っている.しかし,(13-d)が非文であることから分かるように,単なる格助詞「ニ」の省略とはみなせない.\cite{daitai}はこのような無形表示に対して零記号\footnote{零記号の概念は時枝文法\cite{tokieda}で詞と辞による入れ子構造を構築するための道具立てとして提案され,その後,\cite{daitai}によって細分化がなされた.}を導入することによって整合性の高い国文法体系を構築している.\cite{daitai}では帰結状態を表す零記号を「$\varepsilon_4$」と定義する.我々もこれに倣い,以下の文法規則によって,帰結状態を示す無形表示を「$\varepsilon_4$」で表現した\cite{ohkuma}.\begin{table}[htbp]\begin{center}\begin{tabular}{llccc}\vspace{-1mm}PPobl\quad&$\longrightarrow$\qquad&A\qquad&\qquadY\_\_&e\\\vspace{-1mm}&&($\uparrow$OBJ)=$\downarrow$&&$\uparrow$=$\downarrow$\\&&&&($\uparrow$PRED)='$\varepsilon_4$<($\uparrow$OBJ)>'\\\end{tabular}\end{center}\vspace{2mm}\begin{quote}PPobl:斜格となり得る後置詞句,A:形容詞,Y\_\_:連用形を示す記号,e:空記号\end{quote}\end{table}\vspace{6mm}一方,情況を表す「優しい」は情況語(副詞)と定義し,f-structure中ではADJUNCTとして表現する.文(13-a)の帰結状態の解釈に対応するf-structureを図\ref{fig4-7a}に,情況の解釈に対応するf-structureを図\ref{fig4-7b}に示す.また,(13-b)(13-c)に対応するf-structureを図\ref{fig4-8a},図\ref{fig4-8b}に示す.図\ref{fig4-7a}と図\ref{fig4-8a},図\ref{fig4-7b}と図\ref{fig4-8b}がそれぞれ同等の構造を持っていることが分かる.この記述方針も5.2.1項同様,他言語のf-structureとの整合性を図る目的に従うものである.文(13-a)の2つの解釈に対応する英語文(14-a)(14-b)のf-structureを図\ref{kind_person}および図\ref{kindly}に示す.基本的にそれぞれ図\ref{fig4-7a}および図\ref{fig4-7b}と等しい構造であることが分かる.\begin{figure}[htbp]\vspace{-3mm}\center\epsfxsize=72mm\epsfbox{fig/fig4-7a.eps}\caption{文(13-a)の帰結の解釈に対応するf-structure}\label{fig4-7a}\center\epsfxsize=72mm\epsfbox{fig/fig4-7b.eps}\caption{文(13-a)の情況の解釈に対応するf-structure}\label{fig4-7b}\center\epsfxsize=72mm\epsfbox{fig/fig4-8b.eps}\caption{文(13-b)に対応するf-structure}\label{fig4-8a}\end{figure}\begin{figure}[htbp]\center\epsfxsize=75mm\epsfbox{fig/fig4-8a.eps}\caption{文(13-c)に対応するf-structure}\label{fig4-8b}\center\epsfxsize=120mm\epsfbox{fig/kind_person.eps}\caption{文(14-a)に対応するf-structure}\label{kind_person}\center\epsfxsize=75mm\epsfbox{fig/kindly.eps}\caption{文(14-b)に対応するf-structure}\label{kindly}\end{figure}その他,名詞(サ変動詞語幹を除く)で終わる文(新聞見出し等)に対応するため,名詞句に後続する助動詞(「ダ」「デス」等)の省略を零記号「$\varepsilon_1$」で表現している.また,埋め込み句が連用修飾を行う際の助詞の省略を「$\varepsilon_5$」で表現している.\vspace{3mm}以上本節では,言語現象の具体例を通して日本語LFG文法の特徴を示した.表\ref{table1}に,これまでに実装した文法規則の主なものを示す.ただし,\cite{B1999a}に記述されている基本的な文法事項に対する文法規則および本稿で説明済みの文法規則は省略した.\begin{table}[htpb]\caption{LFG文法規則として実装済みの主要な文法規則}\begin{tabular}{ll}\hline\scriptsize「スル」を伴わないサ変動詞語幹への各構造付与規則&\scriptsize接尾辞による名詞のサ変動詞語幹化を行う規則\\\scriptsize「テアル文」の格構造(「本が置いてある。」)に対応する規則&\scriptsize可能動詞の格構造(「本が読める。」等)に対応する規則\\\scriptsize格支配を受けない挿入句に対応する規則&\scriptsize関係節となり得ない節の判定規則\\\scriptsize関係節の係り先となり得ない名詞の語彙規則&\scriptsize助数詞の取り扱い規則\\\scriptsizeフィラー、口語的助詞の取り扱い規則&\scriptsize補文をとるが主語をとらない格構造付与規則\\\scriptsize接続助詞による句並置の取り扱い規則&\scriptsize接続助詞「も」「やら」等による名詞句並置規則\\\scriptsize形容詞・形容動詞の名詞化・副詞化規則&\scriptsize数量詞および時間表現の副詞化規則\\\scriptsize接尾辞を伴う疑問詞の副詞化規則&\scriptsize補助動詞・補助形容詞の取り扱い規則\\\scriptsize待遇表現(「話をされた」「お書きになった」等)の取り扱い&\vspace{-2mm}\scriptsize副詞相当の接続詞(「ただし」「だが」等)に対応する語彙規則\\\scriptsize規則&\\\scriptsize省略を伴う連体語並置(「彼との距離」等)の取り扱い規則&\scriptsize助動詞「そうだ」の伝聞と推量の判定規則\\\scriptsize固有名詞(地名、人名、組織名)属性付与規則&\scriptsize括弧(「、(、『等)を用いた強調/同格表現規則\\\scriptsize関係節、埋め込み節内の格表示の判定規則&\scriptsize句複合中の係助詞による格表示判定規則\\\scriptsize禁止表現(「してはいけない」「してはならない」等)の取り&\scriptsize「は」を伴うことが可能な副詞(「結局」「つまり」等)に対応\\\scriptsize扱い規則&\scriptsizeする語彙規則\\\scriptsize関係節を伴う疑問文の取り扱い規則&\\\hline\end{tabular}\vspace{2mm}\label{table1}\end{table}\normalsize\subsection{例外的な文法に基づく文・非文法的文への対応}高い解析カバー率を達成するためには,例外的な表現を含む文や非文法的な文を解析できなければならない.LFGに基づく解析によってf-structureを得るためには,入力文の構文に対応する句構造規則および機能的注釈が全て宣言的に記述されている必要がある.しかしながら,例外的な事項を網羅的に記述すると,正しい解析結果と同時に不適切な解析結果も多数出力されてしまい,精度を下げることになる.さらに,前節までに述べたような文法記述をどれほど精緻化したとしても,必ず解析不能な文が残るという問題もある.本節では,これらの問題を回避しシステムの頑健性を高めるための手法として,OTマークと部分解析について述べる.\subsubsection{OTマークの利用}日本語LFG文法では,各機能的注釈に対して,OptimalityTheory\cite{B2001}に基づいたマーク(OTマーク)を付与している.OTマークには予め優先順位を設定しておく.優先順位の高いOTマークが付与された機能的注釈に基づいて得られたf-structureを優先的に最終結果に残す.すなわち,各OTマークが固有のコストを持ち,文全体のコストが最小となる解析結果を優先する.5.1節で述べたようにOTマークを付与する本来の目的は言語学的な根拠に基づいて解析結果の曖昧性を減少させることである.我々もこの目的のためにOTマークを使用し,解析結果数の爆発を防いでいる.しかし,我々の文法では,それと同時に,例外的な文法事項を見通しよく記述するためにもOTマークを利用している.現在約40種類のOTマークをLevel1-4の4つのグループに分けて使用している.Level1に属するOTマークが最も優先順位が高く,Level4のOTマークが最も低い.もちろん,解析結果の曖昧性解消の目的で,同じグループに属するOTマークの間にも細かな優先順位の違いを設定している.なお,OTマークが明示的に付与されていない機能的注釈には,Level1に属するOTマークが付与されているとみなして処理を進める.まずLevel1のグループに属するOTマークを持つ機能的注釈のみを用いて解析を行う.f-structureが得られれば解析を終了する.得られなければ,Level1に加えてLevel2に属するOTマークを持つ機能的注釈も用いて再度解析を行う.これを繰り返し,解析結果が得られるまで,優先順位の低いグループに属するOTマークを持つ機能的注釈を順に加えて解析を行う.我々は,文法・語彙規則が例外的なものであるほど,低い優先順位のグループのOTマークを付与している.これによって,例外的な文法・語彙規則が通常の解析結果に悪影響を与えないようにすることができる.\begin{quote}\begin{itemize}\item[(15-a)]*私は歩くが好きです。\item[(15-b)]私は歩くのが好きです。\item[(15-c)]負けるが勝ちだ。\end{itemize}\end{quote}例えば,文(15-a)(15-b)から分かるように通常格助詞が動詞の終止形に直接後続することはない.しかし,文(15-c)のような特に慣用的な表現においては非文法的な表現とは言えない.我々は,動詞の終止形の直後に格助詞が後続することを許す文法規則(機能的注釈)に対してLevel4のOTマークを付与している.2章で述べた通り,LFGに基づく文法・語彙規則は制約の集合である.文法記述が大規模になるにつれ,規則が解析結果にいかに影響するかを網羅的に把握することが困難になり,予期せぬ副作用が生じてしまう可能性が高くなる\cite{gunji2000}.本項で述べたOTマークを利用した多段階の解析手法は,このような文法記述の本質的な困難さを低減し,副作用の影響を受けずに例外的な文法・語彙規則を付加していく上で有効である.\vspace{-2mm}\subsubsection{部分解析機能の導入}前項で述べた手法の狙いは,例外的な文法規則を見通しよく記述することであった.しかし,実際の文,特に口語表現のバリエーションは極めて多彩であり,文法記述を続けることのみによって十分なカバー率を得ることは困難である.\begin{quote}\begin{itemize}\item[(16)]近頃の若いものはだらしがないってさ。\end{itemize}\end{quote}例えば,文(16)のように,接続助詞「テ」の直後に終助詞「サ」が後続する文は自然な文ではあるが,現状のところ文法規則の中で対応する記述は行えていない.このような問題を解決するために,部分解析を実施する文法記述を行った.すなわち,前項までに述べた解析を全て実施してもなお解析結果が得られない場合のために,正規の文法表現とは異なる別の規則体系を用意し,部分的な解析結果のリストを得る.部分解析用の文法規則の例を以下に示す.ただし,OTマークとして定義された「OTmark1」「OTmark2」「OTmark3」はこの順に優先順位が高いものとする.\begin{table}[htbp]\quadFRAGMENTS\qquad$\longrightarrow$\begin{center}\begin{tabular}{cccccccc}$\{$&S&$|$&Srel&$|$&PP&$|$&NP\\&\footnotesize{($\uparrow$FIRST)=$\downarrow$}&&\footnotesize{($\uparrow$FIRST)=$\downarrow$}&&\footnotesize{($\uparrow$FIRST)=$\downarrow$}&&\footnotesize{($\uparrow$FIRST)=$\downarrow$}\\\vspace{2mm}&\footnotesize{OTmark1:OT}&&\footnotesize{OTmark1:OT}&&\footnotesize{OTmark2:OT}&&\footnotesize{OTmark2:OT}\\$|$&V&$|$&P&$\}$&(FRAGMENTS)&&\\&\footnotesize{($\uparrow$FIRST)=$\downarrow$}&&\footnotesize{($\uparrow$FIRST)=$\downarrow$}&&\footnotesize{($\uparrow$REST)=$\downarrow$}&&\\&\footnotesize{OTmark3:OT}&&\footnotesize{OTmark3:OT}&&&&\\\end{tabular}\end{center}\begin{quote}FRAGMENTS:任意の部分構造\\FIRST:部分リスト構造のデータ部,REST:部分リスト構造のポインタ部\end{quote}\end{table}\vspace{6mm}この規則によって,文S,関係節Srel,後置詞句PP,名詞句NP,述部V,助詞Pのいずれかの構造が認められればそれが「FRAGMENTS」となり,c-structureにはFRAFMENTSのリスト構造が生成される.ただし,OTマークの付与によって,SやSrelの構造が認められれば,他の構造に優先してFRAGMENTSとなる.同様にf-structureとして,「FIRST」「REST」から成る部分解析結果のリスト構造が得られることになる.\begin{figure}[htb]\center\epsfxsize=89.11mm\epsfbox{fig/fig4-9.eps}\caption{文(15)に対応するc-structure}\label{fig4-9}\end{figure}上記規則に基づいて得られた,文(16)の部分解析結果(c-structure)を図\ref{fig4-9}に示す.文末の「さ」の部分がFRAGMENTSとして切り離されてはいるものの,「さ」の直前の部分までは完全な解析結果が得られている.日本語では,非文法的・口語的な表現は述部,したがって文末(埋め込み文末)に見られる場合が多く,文の大部分は正常に解析できる傾向にある.すなわち,部分解析結果であっても,前項までに述べた正規の文法記述によって得られる解析結果とほぼ同等の解析結果(f-structure)を得ることができる場合が多い.
\section{システムの評価}
\subsection{評価実験}まず,前章までに述べた日本語LFG文法記述に基づく解析システムのカバー率を測定するために,以下の3種類のテキストを対象に解析実験を行った.\begin{itemize}\item[(A)]日本語文法の教科書\cite{kitagawa1988}中の例文(引用文)460文\item[(B)]コピー機マニュアル文\cite{manual}460文\item[(C)]お客様相談センター(VoiceofCustomer)文10,000文\end{itemize}(A)の460文と(B)の460文は文法に則った文が多い.一方(C)は,富士ゼロックスのお客様相談センターへの電話による問い合わせ内容を比較的忠実に人手でテキスト化したものである.したがって,口語的・非文法的な文が多く含まれている.(A)(B)(C)に含まれる文の例を表2に示す.解析実験の結果得られたカバー率を表3に示す.カバー率は,c-structureだけの出力ではなく,f-structureを伴う解析結果が得られた場合を対象としたものである.(A)の解析で使用した日本語LFG文法は,(A)の460文を予め見た上で記述を行ったものである.(B)のテキストは一見して括弧(「,」)の使用法に特徴があることが分かった.そこで,(B)の解析には,括弧の使用法に関する文法規則を(A)の解析で使用した文法に追加したものを用いた.(C)の解析に用いた日本語LFG文法は,(A)の解析で使用した文法と完全に同じものである.\begin{table}[htbp]\caption{実験対象テキストの例}\begin{tabular}{ll}\hline\footnotesize(A)文法教科書引用文&\scriptsizeこのクラスの中で給食を一番早く食べおわったのが私の娘です。\\&\scriptsize彼は本場でサッカーをやりに、とうとうブラジルまで来てしまった。\\\footnotesize(B)マニュアル文&\vspace{-1.5mm}\scriptsize何度もコピーをとる必要のある文書は、毎回各設定を行って本体でコピーするより、設定内容\\&\scriptsizeを記録して保存された文書をプリントする方が便利です。\\\vspace{-1.5mm}&\scriptsizeコピーを出力しているときに、いったん出力を停止し、出力を中止するか、出力を再開するか\\&\scriptsize選択できます。\\\footnotesize(C)お客様相談センター文&\vspace{-1.5mm}\scriptsize家庭用のFAXに送信した場合、送信できないって事が有るんですが、そういう事って起こる\\&\scriptsizeんですか?\\\vspace{-1.5mm}&\scriptsize本体のモニターに届いたFAXの一部を取り込んで、必要か不必要かを確認してから取り出す\\&\scriptsizeっていうのができるって前にきいたんですが。\\\hline\end{tabular}\label{table2}\end{table}\normalsize\begin{table}[htbp]\caption{解析カバー率測定結果}\begin{tabular}{lcccccc}\hline&&&\scriptsizeカバー率&\scriptsizeカバー率&\scriptsize正規文法による&\\&&&\scriptsize(部分解析結果&\scriptsize(部分解析結果&\scriptsize解析の&\scriptsize部分解析の\\&\hspace*{-2mm}\scriptsize解析文数&\hspace*{-2mm}\scriptsize平均形態素数&\hspace*{-2mm}\scriptsizeを含む)&\hspace*{-2mm}\scriptsizeを含まない)&\hspace*{-2mm}\scriptsize平均解析結果数&\hspace*{-2mm}\scriptsize平均解析結果数\\\hline\scriptsize(A)文法教科書引用文&\scriptsize460&\scriptsize14.2&\scriptsize99.1\,\%&\scriptsize94.3\,\%&\scriptsize4.1&\scriptsize9.6\\\scriptsize(B)マニュアル文&\scriptsize460&\scriptsize21.3&\scriptsize95.2\,\%&\scriptsize91.3\,\%&\scriptsize11.5&\scriptsize11.0\\\scriptsize(C)お客様相談センター文&\scriptsize10,000&\scriptsize16.3&\scriptsize95.0\,\%&\scriptsize86.1\,\%&\scriptsize9.5&\scriptsize58.5\\\hline\end{tabular}\vspace{2mm}\label{table3}\end{table}\normalsize表\ref{table3}から,部分解析結果を含めた場合のカバー率は(B)と(C)で同程度であるのに対して,含めない解析結果(正規の文法によって得られた解析結果)のカバー率は(C)が(B)を大きく下回っていることが分かる.既に述べたように(C)が口語的・非文法的な文を多く含むため,正規の文法で解析できる割合が小さくなったと考えることができる.次に,解析精度を測定するための準備としてf-structureを木構造へ変換した.つまり,f-structure中のPREDの値をノードとし,リンクには文法機能をラベルとして付与することでf-structureから木構造を生成する処理を行った.本実験では,f-structure中のPRED間の依存関係およびPRED間の文法機能に関する解析精度のみを測定し,他の属性・属性値は無視することにした.\begin{quote}\begin{itemize}\item[(17)]アメリカはイランにイラクを攻撃させた。\end{itemize}\end{quote}例として,文(17)のf-structureから得られる木構造を図\ref{fig5}に示す.実際には,f-structureはネットワーク構造である.したがって,異なる親ノードが同一の子ノードを持つ場合がある.このような場合には子ノードを複製し,木構造に変換する処理を行った.図\ref{fig5}中の「イラン」に対応するノードが,複製された例である.また,2章で述べた通り実際のf-structureではOBLのPREDに格助詞が挿入されているが,木構造のノードには自立語を対応させるといった若干の変換処理を行っている.\begin{figure}[htbp]\center\epsfxsize=98.42mm\epsfbox{fig/fig5.eps}\caption{文(17)に対応するf-structureから得られる木構造}\vspace{-3mm}\label{fig5}\end{figure}解析精度の測定は,(B)コピー機マニュアル文460文の中で正規の文法によって解析結果が得られた文の中から100文をランダムに抽出して実験を行った.なお,この100文は,実験に用いた文法を記述する際に参考にしていない.100文に対して人手で正解の木構造を作成し,同じ100文に対して日本語LFGシステムから得られた解析結果(f-structureから得られた木構造)と比較した.比較は,木構造中の親ノード(PREDの値)と子ノード(PREDの値)のペアおよびそれらの間のリンクに付与されたラベル(文法機能)の3つ組に注目し,それらの再現率と適合率を計算した.5.1節で述べた通り,我々の日本語LFG文法では,文単位で文法的に正しいと認められる解析結果を全て出力する記述方針をとっている.これに対して本実験では文単位では本質的に曖昧性が解消できない場合であっても,文脈等から必ず1つの正解木を作成した.\begin{quote}\begin{itemize}\item[(18)]太郎は面白いと言った。\end{itemize}\end{quote}例えば,文(18)のように,「(太郎は面白いと)(誰かが)(言った)」と「(太郎は)(何かが面白いと)(言った)」という2つの解釈が成り立つ場合であっても,どちらかを正解とする.したがって,意図した通り2つの解析結果が得られたとしても,(一方は誤解析であると判定されるため)実験結果として100\,\%の解析精度が得られるとは限らないことに注意されたい.\\\tabcolsep5mm\begin{table}[htbp]\caption{解析精度測定結果}\begin{center}\begin{footnotesize}\begin{tabular}{rccc}\hline&&適合率&再現率\\\hlinePRED-GF-PRED&下限値&71.2\,\%&71.9\,\%\\&平均値&77.5\,\%&78.6\,\%\\&上限値&89.0\,\%&89.5\,\%\\PRED-PRED&下限値&78.6\,\%&79.5\,\%\\&平均値&83.2\,\%&84.3\,\%\\&上限値&92.6\,\%&92.2\,\%\\\hlineKNP&&86.9\,\%&51.4\,\%\\\hlineCabocha&&85.9\,\%&50.6\,\%\\\hlineBASELINE&&45.1\,\%&47.1\,\%\\\hline\end{tabular}\end{footnotesize}\vspace{2mm}\label{table4}\end{center}\end{table}\normalsize得られた実験結果を表\ref{table4}に示す.表中の平均値とは,「1つの文に対して得られる複数のf-structureに対応する各木構造を正解木と比較することにより再現率・適合率を算出して平均をとり,さらに100文の平均をとった値」である.上限値とは,「1つの文に対して得られる複数のf-structureに対応する各木構造の中から再現率あるいは適合率の最も高いものを選択し,100文の平均をとった値」である.上限値は,解析結果の曖昧性が理想的に解消された場合に得ることができる値である.下限値は,同様に「再現率あるいは適合率の最も低いものを選択し,100文の平均をとった値」である.また,PRED-GF-PREDは上記の3つ組のマッチングにより計算した値であり,PRED-PREDは,文法機能のラベルが異なっていても正解とみなして計算した値である.比較対象として,同じ100文をKNP\cite{knp}とCabocha\cite{cabocha}を用いて構文解析した場合の結果を表\ref{table4}に示した.この値は,文節をノードとする依存木を比較対象とするもので,基本的にPRED-PREDに対応するものである.ただし,正解木中のノードは形態素(PREDの値)が単位であるため,ノード間のマッチングは,KNPあるいはCabochaから得られる依存木の各ノード(文節)中に正解木のノード(形態素)が一つでも含まれていればマッチするものとした.BASELINEは,正解木中の各ノードが文の並びの中で全て右隣に係るとした場合のPRED-PRED値である.\subsection{考察}本節では,前節の解析精度の結果をうけての考察を行う.まず,前節の実験で用いた正解木の特徴について述べる.実験で用いた正解木は,一般に構文解析の評価で用いられている文節間の係り受け関係のみを対象とするものとは異なり,文法機能(格構造)の評価を同時に行うものである.自然言語による対話・質問応答やe-mailに対する自動応答などのアプリケーションにおいて格構造を決定するタスクは重要な役割を果たすため,係り受け関係同様,格構造は重要な評価項目であるといえる.また,実検で用いた正解木は,前節で述べた通り,一部のノードが複製されているという特徴を持つ.文(17)(図\ref{fig5})に示した使役文の場合や下記の文(19)のような関係節を含む文の場合に典型的にノードの複製が生じる.\begin{quote}\begin{itemize}\item[(19)]ノーベル文学賞をとった川端は雪国を書いた。\end{itemize}\end{quote}例えば,質問応答のアプリケーションを想定した場合,文(19)において「川端が(SUBJ)ノーベル文学賞を(OBJ)とった」と「川端が(SUBJ)雪国を(OBJ)書いた」という2つの格構造は質問に対する回答を生成する上で同等に重要な情報であると考えられる.同様に,文(18)において,「イラクが(SUBJ)イランを(OBJ)攻撃した」と「アメリカが(SUBJ)イラクに(OBL)イランを攻撃する(XCOMP)(ことを)させた」という2つの格構造は同等に重要な情報であると考えられる.文(18)中の「イラク」や文(19)中の「川端」を複製して正解木に含める理由は,複数の格構造をそれぞれ完全な形で明示することがこのような言語処理アプリケーションにとって有益であると考えられるからである.さらに,正解木のノードにはゼロ代名詞が含まれる.ゼロ代名詞の出現位置,すなわち,省略されている必須構成要素の位置を同定することは,照応解析・文脈解析にとって不可欠の処理であるためである.表\ref{table4}中のBASELINEの値は,\cite{mitsuishi1998}等で報告されているBASELINE値よりも低くなっている.これは,正解木のノードが文節単位ではなく形態素単位であるからである.例えば,「できません」を一つの単位とするのではなく,「できる」と「ぬ」の2つのノードが正解木中に存在することになる.(文節中の「ます」は5.1節で述べた通りPREDとはならず,したがって,ノードとして出現しないものとして正解木を作成した.)この際,LFGでは「ぬ」を「できる」の修飾成分(ADJUNCT,ADJUNCT-TYPE=neg)とする.したがって,この場合「ぬ」は左の位置にある「できる」を修飾することになる.同様に「トナーなど」の場合でも,「など」が「トナー」を修飾する接尾辞(ADJUNCT,ADJUNCT-TYPE=suffix)として左方向への係り受け関係を持つ.BASELINEは単純に右隣に掛ける方式のため,適合率・再現率共に,通常の文節単位の計測結果よりも低い値になる.さらに,文節単位の場合では分割しない「絶縁赤色ワイヤー」のような複合名詞の場合でも,「絶縁」と「赤色」が共に「ワイヤー」に係る解析を正解とするため,右隣に掛けるBASELINEの適合率・再現率を低くする要因となる.一方,KNPおよびCabochaの結果は,適合率と再現率に大きな差がある.これは,文節単位の係り受け関係のみが測定対象であるためである.適合率は,純粋に文節間の係り受け精度が測定されるのに対して,再現率は,上記に述べた複製ノードや,文節内の関係,およびゼロ代名詞に対応するノードを含む関係に全くマッチしないため低い値となる.再現率の値が異なるため,本システムとKNPあるいはCabochaの適合率を直接比較することはできないが,解析結果の内容を人手で比較した結果,文節間の係り受け関係の精度について顕著な差は認められなかった.5.1節で述べたように,本システムは複数の解析結果を出力する仕様となっている.表\ref{table4}に示した上限値に対応する解析結果の場合,KNPおよびCabochaが出力する正しい係り受け関係(PRED-PRED)をほぼ全て含むものとなっていた.以下に,解析結果が異なっていた主要な例を挙げる.\begin{quote}\begin{itemize}\item[(20)]画質を優先して読み取るか速度を優先して読み取るか指定できます。\end{itemize}\end{quote}文(20)は,KNPで正しく解析され,本システムが誤った解析結果を出力した文である.日本語LFG文法では「一つの文節は同じ係り受け関係で二つ以上の文節を受けない」という係り受け関係の非重複性の制約を採用している.文(20)は,2つの埋め込み文が並置構造を成し,共にOBJとして「指定できます。」に係る構成となっている.現在の日本語LFG文法には,この並置構造を扱う文法規則(2つ以上の埋め込み文を1つのOBJに纏め上げる規則)が存在しなかったため,非重複性の制約に従い誤解析を出力する結果になった.今後,このような並置規則の精緻化を実施する必要がある.逆に,以下は既存の構文解析システムと比較して,本システムのような文法規則に基づいた深い解析を行うシステムが有利であると考えられる例である.\begin{quote}\begin{itemize}\item[(21)]次の原稿を読み取る操作については,「コピー」の「次原稿の読み取り」を参照してください。\end{itemize}\end{quote}KNPでは,文(21)中の「「コピー」の」の係り先が「参照してください。」となる.5.1節で述べた通り,「名詞+「ノ」」は関係節中あるいは埋め込み節中以外では連用修飾を行わない(SUBJとならない).したがって,文法規則に基づく解析システムからはこのような誤った解析結果が出力されることはない.特に文(21)のケースは,関係節(Srel)という句構造に関する規則と主語(SUBJ)という文法機能に関する規則を,句構造規則(文脈自由文法規則)に機能的注釈を付与するかたちで関係付けて記述できるLFGのフォーマリズムが,文法を記述する上で有効に機能する例である.\begin{quote}\begin{itemize}\item[(22)]コピーは出力されず、DocumentGate文書の作成と保存のみ行うことができます。\end{itemize}\end{quote}KNP,Cabocha共に,文頭の「名詞+「ハ」」を実際以上に文末の動詞句に掛ける傾向が強く,本システムが出力しない誤解析を出力するケースが見受けられた.例えば,両システム共に文(22)中の「コピーは」の係り先を「できます。」とする解析を行う.実際には,「コピーは」は係助詞「ハ」による格助詞「ガ」の省略であり,「コピー」は「出力される」のSUBJ(「出力する」のOBJ)である.本システムでも,係助詞や副助詞による格助詞の省略を正確に取り扱うための文法記述は十分であるとはいえないが,各述語の結合価とOTマークを利用した文法記述によって比較的良好な解析結果が得られている.今後さらに,\cite{minami}等を参照することによって,「ハ」による主題化現象を扱う文法規則を句構造規則と機能的注釈の組み合わせで精緻化していくことができる点は,LFGに基づく解析システムの有利な点であるといえる.文法機能(格構造)の同定を含めた評価結果(PRED-GF-PRED)は,現在利用可能なシステムが公開されていないため他のシステムと比較しての考察はできない.しかし,今回の実験で,係り受け関係のみの精度と文法機能を含めた場合の精度の間に大きな乖離が見られないことを確認することができた.以上のように本システムは,係り受け関係については既存の構文解析システムと同程度の精度を有し,文法記述の継続によりさらなる精度の向上が期待できる.また,既存の構文解析システムと比較して,ゼロ代名詞,使役,関係節,副助詞,否定表現等をより詳細に解析できる特\break徴を持ち,今回の評価の対象外とした時制,様相,話法等の意味情報を出力することが可能である.これらは,対話や質問応答といったアプリケーションにとって有用な特徴であると共に,否定や副助詞のスコープの同定,ゼロ代名詞の実体特定等の解析処理に繋がるものである.
\section{今後の課題}
本稿で述べた日本語LFG文法は完成したものではなく,文法記述のさらなる精緻化が最も重要な課題である.5.3.1項で述べたOTマークのグループ化の手法を利用することにより,未対応の言語現象や,口語的・非文法的言語現象であっても頻出するものについては規則化を進めていく.これによって,カバー率を高めると共にカバー率全体に対する部分解析結果の占める割合を減じ,解析精度をさらに向上させることが可能であると期待できる.5.1節および前章で述べた通り,本稿で説明した日本語LFG文法は,文単位で文法的に正しいと認められる解析結果を全て出力する方針で記述している.もちろん,文法的に正しい解析結果と認められないf-structureに関しては,それらを減じるよう文法の精緻化と適切なOTマークの設定を継続的に行っている.これにより,表3で示した解析結果数にまでは曖昧性を抑えることが可能となっている.しかしながら,日本語LFG解析システムをアプリケーションに適用することを考えた場合,後工程として,曖昧性を完全に解消するためのシステムが必須である.統計的手法によって生成された格フレーム辞書\cite{kawahara2002}を利用する等の方法で曖昧性解消を実現することが今後の課題である.3章および5章で述べた多言語間でf-structureの整合性を高める活動を継続することによって,等しいアーキテクチャで複数の言語を扱うことが可能な言語処理アプリケーションの構築が可能になると期待できる.しかしながら,異なる言語のf-structureの整合性の度合いを定量的に測定するための方法論は,これまでのところ提案されていない.このような評価手法の確立は今後の課題である.
\section{おわりに}
以上のように本稿では,他言語と高い整合性を持つf-structureを出力し,言語学的に精\break緻であり,かつ,高い解析カバー率を持つ日本語LFG文法およびシステムについて述べた.我々は,日本語に特徴的な言語現象を,過去の言語学的知見を活かして,LFG理論が持つ豊\break富な記述力の下に規則化するという作業を継続して行っている.自然言語の文法記述を完全\breakに体系的・手続き的に進めることは困難であり,我々の文法記述においても経験的なものに\break依存する面は大きい.しかしながら,OTマークを利用して段階的に解析を行う手法によっ\breakて,例外的な文法・語彙規則が解析結果に及ぼす悪影響を減じ,文法の大規模化に伴う記述\breakの見通しの悪さを軽減することが可能となった.さらに,部分解析機能の導入によって,口\break語的・非文法的文への対処が可能となった.また,解析実験を行い,マニュアル文のような\break文法に則った文と,お客様相談センター文のような口語的な文の両者に対して,日本語LFG\breakに基づくシステムとしてはこれまでにない,95\,\%以上の解析カバー率が得られていることを\break確認した.また,小規模な実験ではあるが,マニュアル文を対象に解析精度測定のための実\break験を行い,係り受けの再現率・適合率共に平均値で約84\,\%,上限値で約92\,\%の値が得られ\breakていることが確認できた.また,文法機能の同定を含めた評価でも再現率・適合率共に平均\break値で約78\,\%,上限値で約89\,\%の値が得られ,係り受けの精度と大きな乖離がないことが分かった.\break\acknowledgment{\normalsizeParGramのメンバー,特に日本語LFG文法記述の初期の段階で有益なコメントを頂いたPaloAltoResearchCenterInc.のRonaldKaplan氏,MaryDalrymple氏,TracyHollowayKing氏,MartinKay氏,Konstanz大学MiriamButt氏,Stuttgart大学ChristianRohrer氏,Bergen大学HelgeDyvik氏に感謝致します.また,XLEの開発者であり,日本語システム構築時に実装に関する貴重な助言を頂いたPaloAltoResearchCenterInc.のJohnMaxwell氏,HadarShemtov氏に感謝致します.}\vspace{-0.5cm}\bibliographystyle{nlpbbl}\bibliography{v10n2_05}\begin{biography}\biotitle{略歴}\bioauthor{増市博(正会員)}{1989年京都大学工学部機械工学科卒業.1991年京都大学工学研究科精密工学専攻修士課程修了.同年,富士ゼロックス(株)入社.1998〜2000年米国Stanford大学CSLI客員研究員およびPaloAltoResearchCenterInc.コンサルタント研究員.現在,富士ゼロックス(株)中央研究所に勤務.}\bioauthor{大熊智子(正会員)}{1994年東京女子大学文理学部日本文学科卒業.1996年慶應義塾大学政策メディア研究科修士課程修了.同年,富士ゼロックス(株)入社,現在に至る.計量国語学会,認知科学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V12N05-08 | \section{はじめに}
モンゴル語においては,自立語の語幹に対して格を表す語尾や動詞の活用を表す語尾・接続助詞等が結合したものが句を構成し,ヨーロッパ言語と同様に,空白で区切られた句の列により文を構成する.ここで,モンゴル語の形態素解析の問題について考えると,この問題は,モンゴル語文中の名詞句や動詞句が与えられて,それらの句を名詞あるいは動詞の語幹と語尾とに分解することであると言える.この処理を実現するためには,名詞あるいは動詞の語幹に語尾が接続する際の接続可能性や語変形の規則性を明らかにする必要がある.また,例えば,他の言語からモンゴル語への機械翻訳などにおいては,名詞あるいは動詞の語幹および語尾が与えられると,その語幹・語尾の組に対する語変形や活用の過程を規則化し,名詞句あるいは動詞句を生成する機構を確立する必要がある.ところが,現時点で利用可能なモンゴル語の言語資源としては,数千語程度の規模の単語について語幹情報が登録された電子辞書,および,ウェブ上で収集可能な新聞記事等の電子テキストが存在するにすぎない.また,モンゴル語に関して,名詞あるいは動詞の語幹と語尾の組から名詞句あるいは動詞句を生成するための言語知識や規則なども全く整備されていない.また,そのような句生成のための言語知識・規則を運用すれば,モンゴル語の句の形態素解析を行なうこともできるが,現時点では,モンゴル語文の形態素解析を実用的規模で行なうことも実現されていない.本論文では,現時点で利用可能なモンゴル語の言語資源,特に,名詞・動詞の語幹のリスト,および,名詞・動詞に接続する語尾のリストから,モンゴル語の名詞句・動詞句を生成する手法を提案する.具体的には,名詞・動詞の語幹に語尾が接続する際の音韻論的・形態論的制約を整備し,語幹・語尾の語形変化の規則を作成する.評価実験の結果において,名詞句の場合は98\%程度,動詞句の場合は100\%という性能で,生成された句の中に正しい句候補が含まれるという結果が得られた.さらに,本論文では,この句生成に基づいて,モンゴル語の名詞句・動詞句の形態素解析を行なう手法を提案する.具体的には,まず,既存のモンゴル語辞書から名詞語幹および動詞語幹を人手で抽出する.次に,これらの語幹に対して,モンゴル語名詞句・動詞句生成規則を適用することにより,語幹・語尾の組から句を生成するための語形変化テーブルを作成する.そして,この語形変化テーブルを参照することにより,与えられた名詞句・動詞句を形態素解析して語幹・語尾に分離する.評価実験の結果においては,語形変化テーブルに登録されている句については,形態素解析の結果得られる語幹・語尾の組合せの候補の中に,正しい解析結果が必ず含まれることが確認できた.以下,まず,\ref{sec:mon-gra}~節においては,モンゴル語の文法の概要について述べる.\ref{scn:vowelagreement}~節においては,名詞・動詞の語幹に語尾が接続する際に,名詞・動詞に含まれる母音字と,語尾に含まれる母音字の間で満たされるべき接続制約について述べ,\ref{scn:suffixagreement}~節においては,名詞・動詞の語幹に語尾が接続する際の語形変化規則について述べる.\ref{sec:phrase-gene}~節においては,モンゴル語句生成の評価実験について,\ref{sec:morph-analysis}~節においては,モンゴル語形態素解析の評価実験について,それぞれ述べる.また,\ref{sec:related}~節においては,関連研究について述べる.
\section{モンゴル語の文法}
label{sec:mon-gra}\begin{table}\caption{\label{tbl:noun-suf}名詞に接続する語尾の一覧}\begin{center}\begin{tabular}{|c|c|}\Hline語尾の分類&語尾種類数\\\Hline属格&7\\対格&2\\与位格&3\\奪格&4\\造格&4\\共同格&3\\再帰所属&4\\複数&4\\否定&1\\\Hline合計&32\\\Hline\end{tabular}\end{center}\end{table}\begin{figure}\begin{center}\begin{tabular}{cl}(1)&名詞語幹\\&${х\!\!v\!\!v\!\!х\!\!э\!\!д}$(子供)\\(2)&名詞語幹$+$複数語尾\\&${х\!\!v\!\!v\!\!х\!\!д\!\!v\!\!v\!\!д}$(子供達)\\(3)&名詞語幹$+$複数語尾$+$格語尾\\&${х\!\!v\!\!v\!\!х\!\!д\!\!v\!\!v\!\!д\!\!т\!\!э\!\!й}$(子供達と一緒に)\\(4)&名詞語幹$+$複数語尾$+$格語尾$+$再帰所属語尾\\&${х\!\!v\!\!v\!\!х\!\!д\!\!v\!\!v\!\!д\!\!т\!\!э\!\!й\!\!г\!\!э\!\!э}$(自分の子供達と一緒に)\\(5)&名詞語幹$+$複数語尾$+$否定の語尾$+$格語尾$+$再帰所属語尾\\&${х\!\!v\!\!v\!\!х\!\!д\!\!v\!\!v\!\!д\!\!т\!\!э\!\!й\!\!г\!\!э\!\!э\!\!р\!\!э\!\!э}$(自分の子供達とは別に)\end{tabular}\end{center}\caption{名詞の語形変化の例}\label{fig:noun}\end{figure}\begin{table}\caption{\label{tbl:verb-suf1}動詞の活用語尾の一覧(その1)}\begin{center}\begin{tabular}{|c|c|c|c|}\Hline\multicolumn{2}{|c|}{}&活用の分類&語尾種類数\\\Hline1&&1人称意思1&3\\2&&1人称意思2&2\\3&&2人称命令&0\\4&命令・願望&2人称勧告&4\\5&&2人称催促&4\\6&&2人称懇願&2\\7&&1-3人称願望&4\\8&&1-3人称懸念&2\\\hline9&&現在・未来&4\\10&&単純過去&4\\11&叙述&体験過去&4\\12&&伝聞過去&2\\13&&過去&1\\\hline14&&完了&4\\15&&継続&4\\16&形動詞&予定&1\\17&&習慣&4\\18&&可能性&4\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{\label{tbl:verb-suf2}動詞の活用語尾の一覧(その2)}\begin{center}\begin{tabular}{|c|c|c|c|}\Hline\multicolumn{2}{|c|}{}&活用の分類&語尾種類数\\\Hline19&&連合&1\\20&&並列&2\\21&&分離&4\\22&&条件&8\\23&副動詞&継続&4\\24&&限界&4\\25&&即刻&4\\26&&随伴&4\\27&&付帯1&2\\28&&付帯2&4\\\hline29&&受身&1\\30&その他&使役&2\\31&&否定&2\\32&&完了&1\\\Hline\multicolumn{3}{|c|}{合計}&96\\\Hline\end{tabular}\end{center}\end{table}\begin{figure}\begin{center}\begin{tabular}{cl}(1)&動詞語幹\\&${и\!\!д}$(食べる)\\(2)&動詞語幹$+$受動態語尾\\&${и\!\!д\!\!э\!\!г\!\!д}$(食べられる)\\(3)&動詞語幹$+$使役態語尾\\&${и\!\!д\!\!v\!\!v\!\!л}$(食べさせる)\\(4)&動詞語幹$+$意志の語尾\\&${и\!\!д\!\!ь\!\!е}$(食べよう)\\(5)&動詞語幹$+$単純過去の語尾\\&${и\!\!д\!{\rmc}\!э\!\!н}$(食べた)\\(6)&動詞語幹$+$形動詞・完了の語尾$+$否定の語尾\\&${и\!\!д\!{\rmc}\!э\!\!н\!\!г\!\!v\!\!й}$(食べなかった)\\(7)&動詞語幹$+$従属節(限界)語尾\\&${и\!\!д\!\!т\!\!э\!\!л}$(食べるまで)\\(8)&動詞語幹$+$受動態語尾$+$単純過去の語尾\\&${и\!\!д\!\!э\!\!г\!\!д\!{\rmc}\!э\!\!н}$(食べられた)\end{tabular}\end{center}\caption{\label{fig:verb}動詞の活用の例}\end{figure}現代モンゴル語で使われる文字はキリル文字である.モンゴル語では,自立語の語幹に対して格を表す語尾や動詞の活用を表す語尾・接続助詞等が結合したものが句を構成し,ヨーロッパ言語と同様に,空白で区切られた句の列により文を構成する.モンゴル語の語順は日本語と同じSOVで,動詞が文末に位置し,その他の句の語順は比較的自由である.通常,名詞の語幹には,数を表す語尾,格を表す語尾,再帰所属を表す語尾がこの順に接続する.名詞に接続する語尾の分類,および,各分類ごとの語尾の種類数を表\ref{tbl:noun-suf}に示す.通常,同一の分類に対応する語尾には数種類の可能性があり,一つの名詞に接続する語尾を決定する際には,その複数の可能性の中から,\ref{scn:vowelagreement}~節で述べる母音の接続制約,および,\ref{scn:suffixagreement}~節で述べる語幹・語尾の接続制約を満たす語尾が選ばれる.さらに,\ref{scn:suffixagreement}~節の語形変化規則により,語幹・語尾が語形変化する.名詞の語幹にこれらの語尾が接続した場合の語形変化の例を図\ref{fig:noun}に示す.同様に,動詞の語幹に接続する語尾は,命令・願望類,叙述類,完了・習慣等を表す類,順序関係を表す類,等に分類される.動詞の活用語尾の分類,および,各分類ごとの語尾の種類数を表\ref{tbl:verb-suf1}$\sim$\ref{tbl:verb-suf2}に示す.動詞の場合も,同一の分類に対応する語尾には数種類の可能性があり,一つの動詞に接続する語尾を決定する際には,その複数の可能性の中から,\ref{scn:vowelagreement}~節で述べる母音の接続制約,および,\ref{scn:suffixagreement}~節で述べる語幹・語尾の接続制約を満たす語尾が選ばれる.そして,\ref{scn:suffixagreement}~節の語形変化規則により,語幹・語尾が語形変化する.動詞の語幹にこれらの語尾が接続して動詞が活用する例を図\ref{fig:verb}に示す.なお,名詞・動詞に関して,本論文の執筆段階において実装されていないものとして,派生語がある.派生語とは,名詞語幹あるいは動詞語幹に派生語語尾が接続して語形変化した結果の語であり,名詞語幹から構成される派生動詞,名詞語幹から構成される派生名詞,および,動詞語幹から構成される派生名詞がある.派生語語尾としては,数十種類のものがある.派生語の内部構造を解析するためには,派生語に対して語幹・語尾の語形変化規則を適用して形態素解析を行なう必要があるが,実用的には,既知の派生語を語幹として登録し,形態素解析を行なうという方式が妥当であると考えられる.また,句生成および形態素解析において,名詞と同様の扱いが可能なものとして形容詞がある.モンゴル語の形容詞には,名詞に接続する語尾のうち複数語尾を除く語尾がすべて接続可能であり,語幹・語尾の語形変化の規則についても,名詞句の語形変化で用いている規則がそのまま適用できる.
\section{\label{scn:vowelagreement}モンゴル語の母音字の接続制約}
モンゴル語においては,名詞・動詞の語幹に語尾が接続する際に,名詞・動詞の語幹の末尾および語尾において語形変化・活用が起こる.本章では,この語尾の接続において,名詞・動詞に含まれる母音字と,語尾に含まれる母音字の間で,どのような接続制約が満たされる必要があるかについて述べる.なお,本章および次章で述べる内容は,\cite{Mongol00aj}に基づいており,日本語での用語等は\cite{Kuribayashi92aj}に従っている.\subsection{モンゴル語の母音字と子音字}\begin{table*}\caption{\label{tbl:vowels}モンゴル語の母音}\begin{center}\begin{tabular}{|l|l|}\hline基本母音字&{а,о,У,и,з,Θ,v}\\補助母音字1(子音+母音と見なされる)&{я,е,ё,ю}\\補助母音字2(長母音として扱う)&{ы}\\補助母音字3(基本的に単独では使われない)&{й}\\\hline長母音&${а\!\!а,о\!\!о,У\!\!У,и\!\!й,з\!\!з,Θ\!\!Θ,v\!\!v}$\\二重母音&${а\!\!й,о\!\!й,У\!\!й,з\!\!й,v\!\!й}$\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}\caption{\label{tbl:consonents}モンゴル語の子音字}\begin{center}\begin{tabular}{|l|l|}\hline母音を必ず伴う子音字&{м,н,г,л,б,в,р}\\母音を伴わなくてもよい子音字&{д,т,ч,ж,ц,з,С,Ш,х}\\特殊子音字(外来語に使われる)&{п,ф,Щ,к}\\\hline\end{tabular}\end{center}\end{table*}\begin{table}\caption{\label{tbl:gender}モンゴル語の母音と性の関係}\begin{center}\begin{tabular}{|l|l|}\hline男性母音&{а,о,У,я,ё,ю,ы}\\女性母音&{з,Θ,v,е,ю}\\中性母音&{и}\\\hline\end{tabular}\end{center}\end{table}モンゴル語で用いる文字は全35文字で,母音字13字,子音字20字,記号文字2字から構成される.長母音,二重母音を含めたモンゴル語の母音の一覧を表\ref{tbl:vowels}に,子音の一覧を表\ref{tbl:consonents}に,それぞれ示す.母音字のうち補助母音字1は,多音字であり子音+母音とみなされる.また,補助母音字1に基本母音を一つつけるという形でも使われる.補助母音字2は,単独で長母音として扱われる.補助母音字3は,単独で使われることはなく,他の母音とともに使われ二重母音を構成する.また,モンゴル語の母音は,男性・女性・中性の三つの性を持ち,その内訳は表\ref{tbl:gender}となる.モンゴル語の単語の性は,強勢が置かれる母音の性によって決まる.\begin{table}\caption{\label{tbl:genderagreement}モンゴル語の母音字の接続制約}\begin{center}\begin{tabular}{|l|l|}\Hline\multicolumn{1}{|c|}{語幹の母音字}&\multicolumn{1}{|c|}{語尾の母音}\\\Hline{а,У,я}&{а,я,$а\!\!й$}\\{о,ё}&{о,ё,$о\!\!й$}\\{з,v,и,е,ю}&{з,е,$з\!\!й$}\\{Θ}&{Θ}\\\hline{а,о,У,я,ё,ю,ы}&{У,ы}\\{з,Θ,v,и,е,ю}&{v,$и\!\!й$}\\\Hline\end{tabular}\end{center}\end{table}\begin{table}\caption{\label{tbl:ii}母音字の接続制約の例外:語幹の末尾の文字と語尾の先頭字の接続制約}\begin{center}\begin{tabular}{|l|l|}\hline\multicolumn{1}{|c|}{語幹の末尾の文字}&語尾の先頭字\\\hline{ж,ч,ш,и,г,ь}&{$и\!\!й$}\\\hline\end{tabular}\end{center}\end{table}\subsection{母音字の接続制約}動詞・名詞の語幹と語尾の接続の際に,双方の母音字の間で満たされるべき接続制約をまとめると,表\ref{tbl:genderagreement}となる.この表は,語幹の母音字,および,それに接続可能な語尾の母音の組の一覧となっている.なお,ここで接続可能な母音同士は,表\ref{tbl:gender}で示した性が同一のものとなっている.ただし,この場合,中性母音は女性母音として扱う.また,表\ref{tbl:genderagreement}の母音字の接続制約に対する例外として,名詞・動詞の語幹の末尾の文字と語尾の先頭字の間においては,表\ref{tbl:ii}に示す接続制約が満たされなければならない.ここで,表\ref{tbl:ii}に示す接続制約は,名詞・動詞の語幹の末尾の文字が表\ref{tbl:ii}左側の文字となる場合で,しかも,語尾の候補として,表\ref{tbl:ii}右側の文字を先頭字として持つものが含まれる場合には,必ずその語尾が選ばれなければならない,と解釈される.そして,このときには,表\ref{tbl:genderagreement}の母音の接続制約は必ずも満たされる必要はない.
\section{\label{scn:suffixagreement}モンゴル語の語幹・語尾の語形変化}
通常,同一の分類に対応する語尾には数種類の可能性があり,一つの名詞あるいは動詞に接続する語尾を決定する際には,その複数の可能性の中から,まず,前節で述べた母音の接続制約を満たす語尾が選ばれ,さらに,\ref{subsec:suf-agr}節で述べる語幹・語尾の接続制約を満たす語尾が選ばれる.そして,\ref{subsec:inflect}節の語形変化規則により,語幹・語尾が語形変化する.\subsection{語幹・語尾接続制約}\label{subsec:suf-agr}動詞・名詞の語幹の末尾と語尾の接続において満たされるべき接続制約をまとめると,表\ref{tbl:rule0}となる.この表は,語幹の末尾,および,それに接続可能な語尾の組の一覧となっている.\begin{table*}\caption{\label{tbl:rule0}語幹の末尾と語尾の接続制約}\begin{center}\begin{tabular}{|l|l|}\Hline\multicolumn{1}{|c|}{語幹の末尾}&\multicolumn{1}{|c|}{語尾}\\\Hline{н}&{г}\\{c,х}&{т,ч}\\母音&{л}\\母音を必ず伴う子音字$+$軟音符{ь}&母音を伴わなくてもよい子音字\\子音字$+$軟音符{ь}&{я,ё}\\子音字$+$軟音符{ь}&${г\!\!v\!\!й}$\\母音&{е,я,ё}\\\Hline\end{tabular}\end{center}\end{table*}\subsection{語幹・語尾の語形変化}\label{subsec:inflect}語幹・語尾の接続における語形変化の規則は,以下の四種類である.\begin{enumerate}\item母音字消失の規則(表\ref{tbl:rule1})\item軟音符{ь}が母音字{и}に変化する際の規則(表\ref{tbl:i})\itemつなぎの母音字の挿入規則(表\ref{tbl:newvowel})\item母音以外のつなぎの文字の挿入規則(表\ref{tbl:new})\end{enumerate}語幹・語尾の接続における語形変化の際に,語形変化後の語のアクセントが変化する場合がある.この場合,特に,アクセントが変化して,母音が発音されなくなることがあり,この発音されなくなった母音字が消失する.その際の規則性を記述したものが「母音字消失の規則」である.ただし,以下の場合には,必ずしも母音字が消失しなくてもよい.\begin{enumerate}\item「母音を必ず伴う子音字」に伴っている母音が消失する場合\item{н,г}の直後の母音字\item{ж,ч,ш}以外の子音字の直後の{и}\item固有名詞の母音字\item形動詞予定形の母音字\end{enumerate}語幹・語尾の接続における語形変化の際に,軟音符{ь}が母音字{и}に変化することがある.その際の規則性を記述したものが「軟音符{ь}が母音字{и}に変化する際の規則」である.また,語幹・語尾の接続において子音が連続する場合は,つなぎの母音字を挿入する.その際の規則性を記述したものが「つなぎの母音字の挿入規則」である.その他の場合で,語幹・語尾の接続において,母音以外のつなぎの文字を挿入する場合もある.その際の規則性を記述したものが「母音以外のつなぎの文字の挿入規則」である.\begin{table*}\caption{\label{tbl:rule1}母音字消失の規則}\begin{center}\begin{tabular}{|r|p{1.2in}|p{1.4in}|p{1.4in}|}\Hline&\multicolumn{1}{|c|}{語の末尾}&\multicolumn{1}{|c|}{語尾の先頭}&\multicolumn{1}{|c|}{語形変化後}\\\Hline(i)&{и}以外の母音&長母音&語の最後の母音が消失\\(ii)&母音字$+$子音字&長母音&子音字$+$長母音\\(iii)&母音字$_1+$子音字$_1$&子音字$_2$&子音字$_1+$母音字$_2+$子音字$_2$\\\Hline\end{tabular}\end{center}\end{table*}\begin{table*}\caption{\label{tbl:i}軟音符{ь}が母音字{и}に変化する際の規則}\begin{center}\begin{tabular}{|r|p{1.2in}|p{1.4in}|p{1.4in}|}\Hline&\multicolumn{1}{|c|}{語幹の末尾}&\multicolumn{1}{|c|}{語尾の先頭}&\multicolumn{1}{|c|}{語形変化後}\\\Hline(i)&子音字$+$軟音符{ь}&長母音($х\!\!х$)&子音字$+$$и\!\!х$\\(ii)&子音字$+$軟音符{ь}&母音を必ず伴う子音字&子音字$+${и}$+$母音を必ず伴う子音字\\(iii)&母音を伴わなくてもよい子音字$_1+$軟音符{ь}&母音を伴わなくてもよい子音字$_2$&母音を伴わなくてもよい子音字$_1+${и}$+$母音を伴わなくてもよい子音字$_2$\\(iv)&子音字$+$軟音符{ь}&{х}(形動詞予定形活用語尾)&子音字$+$$и\!\!х$\\\Hline\end{tabular}\end{center}\end{table*}\begin{table*}\caption{\label{tbl:newvowel}つなぎの母音字の挿入規則}\begin{center}\begin{tabular}{|r|p{1.2in}|p{1.5in}|p{1.4in}|}\Hline&\multicolumn{1}{|c|}{語幹の末尾}&\multicolumn{1}{|c|}{語尾}&\multicolumn{1}{|c|}{語形変化後}\\\Hline(i)&母音を伴わなくてもよい子音字&子音字&母音を伴わなくてもよい子音字$+$母音字$+$子音字\\(ii)&母音を必ず伴う子音字$_1$&母音を必ず伴う子音字$_2$&母音を必ず伴う子音字$_1+$母音字$+$母音を必ず伴う子音字$_2$\\(iii)&{c,ш}&{л}&{c,ш}$+${л}$+$母音字\\\Hline\end{tabular}\end{center}\end{table*}\begin{table*}\caption{\label{tbl:new}母音以外のつなぎの文字の挿入規則}\begin{center}\begin{tabular}{|c|l|l|l|}\Hline&\multicolumn{1}{|c|}{語幹の末尾}&\multicolumn{1}{|c|}{語尾の先頭}&\multicolumn{1}{|c|}{語形変化後}\\\Hline(i)&(女性語)子音字&{е}&子音字$+$軟音符{ь}$+${е}\\\hline(ii)&(男性語)子音字&{я,ё}&子音字$+$硬音符{ъ}$+${я,ё}\\\hline(iii)&長母音$_1$&長母音$_2$&長母音$_1+${г}$+$長母音$_2$\\(iv)&長母音$_1$&長母音$_2$&長母音$_1+${$н\!\!х$}$+$長母音$_2$\\\Hline\end{tabular}\end{center}\end{table*}
\section{モンゴル語句生成}
\label{sec:phrase-gene}\subsection{名詞・動詞の語幹リストの作成}\label{subsec:stems}見出し語数約7,500語の日本語・モンゴル語対訳辞書のモンゴル語見出し語から,以下の手順で,名詞・動詞の語幹を抽出した.まず,名詞については,見出し語が名詞の語幹で記述されているので,1,926語を人手で抽出した.一方,動詞については,見出し語が形動詞・予定形で記述されている.そこで,まず,動詞の形動詞・予定形1,254語を人手で抽出し,形動詞・予定形を動詞・語幹と予定形・活用語尾に分離する形態素解析規則を適用した.この形態素解析における語幹の候補語数は,形動詞・予定形一単語あたり,平均で1.365語であり,この中に正しい語幹を含む率は100\%であった.この形態素解析結果に対して,人手で正しい語幹を選択し,動詞の語幹リストを作成した.さらに,形態素解析の実験に用いる句から語幹を人手で抽出したものを追加し,合計で名詞語幹2,048語,動詞語幹1,258語のリストを得た.\subsection{モンゴル語の句が生成されるパターン}\label{subsec:network}モンゴル語の句が語幹からどの順番で生成されるかを図で示す.名詞句の場合を図\ref{fig:nounnet}に,動詞句の場合を図\ref{fig:verbnet}に示す.\begin{figure*}[hbtp]\begin{center}\epsfile{file=FIG/noun-network.eps,width=12cm}\caption{\label{fig:nounnet}名詞語幹に語尾が接続する順序}\end{center}\end{figure*}\begin{figure*}[hbtp]\begin{center}\epsfile{file=FIG/verb-network.eps,width=12cm}\caption{\label{fig:verbnet}動詞語幹に語尾が接続する順序}\end{center}\end{figure*}\subsection{例}\label{subsec:phrase-ex}表\ref{tbl:nounphrase1}$\sim$\ref{tbl:verbnoun1}に,名詞+属格の語形変化の例,名詞+与位格の語形変化の例,動詞の活用「副動詞:並列」の例,動詞の活用「命令・願望:1-3人称懸念」,および,「動詞語幹+形動詞・予定形語尾+与位格語尾+再帰所属語尾」の例をそれぞれ示す.表\ref{tbl:nounphrase1}の名詞+属格の語形変化の例においては,「${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л}$」(教育)という名詞に,「$\sim$の」という意味の属格語尾が接続した場合の語形変化の様子を示す.まず,属格語尾の全候補として六種類の語尾が得られるが,このうち,男性名詞「${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л}$」に接続可能な語尾は三種類に絞られる.さらに,属格固有の語幹・語尾接続制約により,接続可能な語尾は二種類に絞られる.この二種類の語尾が語幹に接続すると,語形変化を伴わず語幹に語尾がそのまま接続した形の句候補が二種類,および,母音字消失規則(ii)が適用された形の句候補が一種類,合計三種類の句候補が生成される.今回の評価実験では行っていないが,人手でこれらの句候補の検証を行なった場合は,一種類の句候補のみが得られる.表\ref{tbl:nounphrase2}の名詞+与位格の語形変化の例においては,「${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л}$」(教育)という名詞に,「$\sim$に」という意味の与位格語尾が接続した場合の語形変化の様子を示す.この場合,与位格語尾の全候補二種類がそのまま接続した形の句候補二種類の他に,与位格固有のつなぎの子音字の挿入,および,つなぎの母音字の挿入が適用され,さらに二種類の句候補が生成される.今回の評価実験では行っていないが,人手でこれらの句候補の検証を行なった場合は,一種類の句候補のみが得られる.\begin{table*}\caption{\label{tbl:nounphrase1}名詞+属格の語形変化の例}\begin{center}\begin{tabular}{|c|p{3.8in}|}\hline語幹&${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л}$\\\hline&{$н\!\!ы$,$ы\!\!н$,ы,$н\!\!и\!\!й$,$и\!\!й$,$и\!\!й\!\!н$}(属格の全語尾候補)\\語尾候補&$\longrightarrow${$н\!\!ы$,$ы\!\!н$,ы}(男性名詞に接続可能な語尾候補)\\&$\longrightarrow${$н\!\!ы$,$ы\!\!н$}(属格固有の接続制約:{ы}は語の末尾が{н}以外には接続不可)\\\hline&(語幹+{$н\!\!ы$})$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!н\!\!ы}$\\語形変化&(語幹+{$ы\!\!н$})$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!ы\!\!н}$\\&(語幹+{$ы\!\!н$})$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!ы\!\!н}$$\longrightarrow$(母音字消失規則(ii))$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!л\!\!ы\!\!н}$\\\hline人手による検証&${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!ы\!\!н}$\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}\caption{\label{tbl:nounphrase2}名詞+与位格の語形変化の例}\begin{center}\begin{tabular}{|c|p{3.8in}|}\hline語幹&${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л}$\\\hline語尾候補&{д,т}\hspace*{2cm}(与位格の全語尾候補)\\\hline&(語幹+{д})$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!д}$\\&(語幹+{д})$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!д}$$\longrightarrow$(与位格固有のつなぎの子音字{н}の挿入)$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!н\!\!д}$$\longrightarrow$(つなぎの母音字の挿入規則(ii))$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!о\!\!н\!\!д}$\\語形変化&(語幹+{т})$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!т}$\\&(語幹+{т})$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!т}$$\longrightarrow$(与位格固有のつなぎの子音字{н}の挿入)$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!н\!\!т}$$\longrightarrow$(つなぎの母音字の挿入規則(ii))$\longrightarrow$${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!о\!\!н\!\!т}$\\\hline人手による検証&${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!д}$\\\hline\end{tabular}\end{center}\end{table*}表\ref{tbl:verbphrase1}の動詞の活用「副動詞:並列」の例においては,「${и\!\!р}$」(来る)という動詞の活用の様子を示す.また,表\ref{tbl:verbphrase2}の動詞の活用「叙述:伝聞過去」の例においては,「${г\!\!а\!\!р}$」(出る)という動詞の活用の様子を示す.表\ref{tbl:verbphrase1}および表\ref{tbl:verbphrase2}のどちらの場合も,全語尾候補二種類がそのまま接続した形の句候補二種類が生成される.いずれの場合も,人手でこれらの句候補の検証を行なった結果においては,文法的に正規の句候補が一種類だけ得られる.ただし,実際には,表\ref{tbl:verbphrase2}の「${г\!\!а\!\!р}$」の活用「叙述:伝聞過去」の場合は,慣習的に表記の揺れが起こっており,誤った句候補の方も用いられることがある.また,活用「副動詞:並列」の場合も,動詞によっては表記の揺れが起こる場合があり,現在の句生成規則は,そのような場合を考慮した設計となっている.表\ref{tbl:verbphrase1}の「${и\!\!р}$」の活用「副動詞:並列」において,誤った句候補が生成されるのは,このことが原因である.表\ref{tbl:verbnoun1}に形動詞・予定形の変化を示す.モンゴル語の動詞の形動詞の中に名詞として変化する一部がある.表\ref{tbl:verbnoun1}にその一例を示す.こういう語形変化済み句を更に語形変化すると一つ前の変化の結果によって,接続される語尾が限られる.本論文では語形変化を複数回すると,一つ前の語尾を考慮している.そのため,表\ref{tbl:verbnoun1}に示す句は一意に生成されている.\begin{table*}\caption{\label{tbl:verbphrase1}動詞の活用「副動詞:並列」の例}\begin{center}\begin{tabular}{|c|p{3.8in}|}\hline語幹&${и\!\!р}$\\\hline語尾候補&{ж,ч}(副動詞:並列の全語尾候補)\\\hline活用&(語幹+{ж})$\longrightarrow$${и\!\!р\!\!ж}$\\&(語幹+{ч})$\longrightarrow$${и\!\!р\!\!ч}$\\\hline人手による検証&${и\!\!р\!\!ж}$\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}\caption{\label{tbl:verbphrase2}動詞の活用「叙述:伝聞過去」の例}\begin{center}\begin{tabular}{|c|p{3.8in}|}\hline語幹&${г\!\!а\!\!р}$\\\hline語尾候補&${ж\!\!э\!\!э}$,${ч\!\!э\!\!э}$(叙述:伝聞過去の全語尾候補)\\\hline活用&(語幹+${ж\!\!э\!\!э}$)$\longrightarrow$${г\!\!а\!\!р\!\!ж\!\!э\!\!э}$\\&(語幹+${ч\!\!э\!\!э}$)$\longrightarrow$${г\!\!а\!\!р\!\!ч\!\!э\!\!э}$\\\hline人手による検証&${г\!\!а\!\!р\!\!ж\!\!э\!\!э}$\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}\caption{\label{tbl:verbnoun1}動詞語幹+形動詞・予定形語尾+与位格語尾+再帰所属語尾の語形変化の例}\begin{center}\begin{tabular}{|c|ll|}\hline動詞語幹&${а\!\!в\!\!а\!\!р}$(救う)&\\\hline&\multicolumn{2}{|l|}{${а\!\!в\!\!а\!\!р}$+{х}(形動詞・予定形語尾)$\longrightarrow$${а\!\!в\!\!р\!\!а\!\!х}$(救うこと)}\\語形変化&\multicolumn{2}{|l|}{${а\!\!в\!\!р\!\!а\!\!х}$+${ы\!\!г}$(与位格語尾)$\longrightarrow$${а\!\!в\!\!р\!\!а\!\!х\!\!ы\!\!г}$(救うことを)}\\&\multicolumn{2}{|r|}{${а\!\!в\!\!р\!\!а\!\!х\!\!ы\!\!г}$+${а\!\!а}$(再帰所属語尾)$\longrightarrow$${а\!\!в\!\!р\!\!а\!\!х\!\!ы\!\!г\!\!а\!\!а}$(自分が救うことを)}\\\hline\end{tabular}\end{center}\end{table*}\subsection{モンゴル語句候補生成の評価}\label{subsec:phrase-result}前節で作成した,名詞語幹2,048語,および,動詞語幹1,258語について,以下の手順で名詞句・動詞句の句候補生成を行ない,その性能を評価した.\begin{enumerate}\item与えられた名詞もしくは動詞の語幹に対して,格や活用の分類に応じた語尾の全候補をまず求める.\item\ref{scn:vowelagreement}~節で述べた母音の接続制約に基づいて,語尾の候補を絞り込む.\item\ref{scn:suffixagreement}~節で述べた語幹・語尾の語形変化の規則を用いて,名詞・動詞の句候補を生成する.\end{enumerate}名詞と動詞の語幹にそれぞれ,表\ref{tbl:noun-suf}と表\ref{tbl:verb-suf1}$\sim$\ref{tbl:verb-suf2}中の語尾を一つだけ接続した句を生成する過程を評価した.評価の詳細な結果は,名詞の結果は,表\ref{tbl:nounresult}に,動詞の結果は,表\ref{tbl:verbresult1}$\sim$\ref{tbl:verbresult2}に示す.評価実験の結果では,名詞については,句候補の平均数が1.60,正しい句を含む率は97.78\%であった.ここで,正しい句を含まない場合の多くを占めるのは外来語であり,外来語が語幹の場合の句生成は,本論文で用いているモンゴル語の句生成規則に従わないことが多いと言える.例えば,${о\!\!п\!\!т\!\!е\!\!р\!\!о\!\!н}$(Opteronマシン)という外来語名詞語幹に造格語尾${о\!\!о\!\!р}$($\sim$で)が接続して語形変化をする場合,句生成規則に従えば,${о\!\!п\!\!т\!\!е\!\!р\!\!\underline{о}\!\!н}$の下線部の母音{\underline{о}}が消失し,句候補${о\!\!п\!\!т\!\!е\!\!р\!\!н\!\!о\!\!о\!\!р}$が生成される.しかし,実際には,消失された母音も発音されるため,正しい句は,${о\!\!п\!\!т\!\!е\!\!р\!\!\underline{о}\!\!н\!\!о\!\!о\!\!р}$となる.このような外来語の句生成に対処する方法としては,外来語に特化した句生成規則を用意することが考えられる.また,動詞については,二種類の変化(形態素解析において表記の揺れに対処するために,二通りの句を生成するように規則が設定されている副動詞:並列(表\ref{tbl:verbphrase1})および叙述:伝聞過去(表\ref{tbl:verbphrase2}))を除いて一意に生成できて(その二種類については句候補の平均数は1.15),句候補の平均数が1.01,正しい句を含む率は100.00\%であった.ただし,句候補の平均数は全ての語幹を対象として算出したが,句生成の精度については,動詞語幹および名詞語幹を100語ずつ無作為に選び,それらに語尾を一つだけ接続した句を対象として算出した.動詞句の場合は,二種類の変化を除いて,生成された句は全て正しい.句候補の平均数が1.15となる二種類の変化についても,形態素解析において表記の揺れに対処するために,二通りの句を生成するように規則が設定されているためであり,これらの変化において句候補の平均数を1.00とすることは容易である.一方,名詞句の場合は,誤った句が生成されており,1語幹につき0.6語の誤った句が生成されている.誤った句は,特に,複数,与位格,属格,奪格の語尾が接続する場合に多い.\begin{table}\caption{\label{tbl:nounresult}名詞の句候補手順の評価}\begin{center}\begin{tabular}{|c|c|c|c|}\Hline&&\multicolumn{2}{|c|}{(一名詞あたり)}\\\cline{3-4}語尾の分類&語尾種類数&句候補数の平均&正しい句候補を含む率(\%)\\\Hline属格&7&2.000&97.0\\対格&2&2.803&99.5\\与位格&3&1.107&97.0\\奪格&4&2.00&97.0\\造格&4&1.107&97.0\\共同格&3&1.000&99.0\\再帰所属&4&1.107&97.0\\複数&4&2.237&97.0\\否定&1&1.000&100.0\\\Hline合計/平均&32&1.596&97.78\\\Hline\end{tabular}\end{center}\end{table}\begin{table*}\caption{\label{tbl:verbresult1}動詞の句候補生成手順の評価(その1)}\begin{center}\begin{tabular}{|c|c|c|c|c|c|}\Hline\multicolumn{2}{|c|}{}&&&\multicolumn{2}{|c|}{(一動詞あたり)}\\\cline{5-6}\multicolumn{2}{|c|}{}&&&&正しい句候補\\\multicolumn{2}{|c|}{}&活用の分類&語尾種類数&句候補数の平均&を含む率(\%)\\\Hline1&&1人称意思1&3&1.000&100.0\\2&&1人称意思2&2&1.000&100.0\\3&&2人称命令&0&1.000&100.0\\4&命令・願望&2人称勧告&4&1.000&100.0\\5&&2人称催促&4&1.000&100.0\\6&&2人称懇願&2&1.000&100.0\\7&&1-3人称願望&4&1.000&100.0\\8&&1-3人称懸念&2&1.000&100.0\\\hline9&&現在・未来&4&1.000&100.0\\10&&単純過去&4&1.000&100.0\\11&叙述&体験過去&4&1.000&100.0\\12&&伝聞過去&2&1.154&100.0\\13&&過去&1&1.000&100.0\\\hline14&&完了&4&1.000&100.0\\15&&継続&4&1.000&100.0\\16&形動詞&予定&1&1.000&100.0\\17&&習慣&4&1.000&100.0\\18&&可能性&4&1.000&100.0\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}\caption{\label{tbl:verbresult2}動詞の句候補生成手順の評価(その2)}\begin{center}\begin{tabular}{|c|c|c|c|c|c|}\Hline\multicolumn{2}{|c|}{}&&&\multicolumn{2}{|c|}{(一動詞あたり)}\\\cline{5-6}\multicolumn{2}{|c|}{}&&&&正しい句候補\\\multicolumn{2}{|c|}{}&活用の分類&語尾種類数&句候補数の平均&を含む率(\%)\\\Hline19&&連合&1&1.000&100.0\\20&&並列&2&1.154&100.0\\21&&分離&4&1.000&100.0\\22&&条件&8&1.000&100.0\\23&副動詞&継続&4&1.000&100.0\\24&&限界&4&1.000&100.0\\25&&即刻&4&1.000&100.0\\26&&随伴&4&1.000&100.0\\27&&付帯1&2&1.000&100.0\\28&&付帯2&4&1.000&100.0\\\hline29&&受身&1&1.000&100.0\\30&その他&使役&2&1.000&100.0\\31&&否定&2&1.000&100.0\\32&&完了&1&1.000&100.0\\\Hline\multicolumn{3}{|c|}{合計/平均}&96&1.010&100.0\\\Hline\end{tabular}\end{center}\end{table*}
\section{\label{sec:morph-analysis}モンゴル語形態素解析}
\subsection{\label{subsec:table}語幹・語尾の語形変化テーブルの作成}\ref{subsec:stems}で述べた名詞語幹2,048語,および,動詞語幹1,258語について,以下の手順で語幹・語尾の語形変化テーブルを作成した.表\ref{tbl:noun-suf}と表\ref{tbl:verb-suf1}$\sim$\ref{tbl:verb-suf2}中の全語尾を文法上の順番で接続して句を生成した.次に,語幹・語尾,および,語形変化後の句の情報を用いて語形変化テーブルを作成した.語形変化テーブルは以下の情報から構成した.\begin{itemize}\item語幹,もしくは,語幹にいくつかの語尾が接続して語形変化した語.および,語幹の品詞.\item新たに接続する語尾の種類,および,語尾.\item語形変化後の語.\end{itemize}語形変化テーブルの例を表\ref{tbl:examplenoun1}$\sim$\ref{tbl:verbexample2}に示す.名詞語幹2,048語,および,動詞語幹1,258語に対して,語形変化テーブルの数は,それぞれ,226,541個,および,2,703,462個となった.これらのテーブル中における句の重複数は,名詞句が7,603個(名詞句の3.36\%),動詞句が126,945個(動詞句の4.70\%),名詞・動詞の両方にわたって重複する句は3548個(全体の0.12\%)であった.なお,語形変化テーブルを用いて句の形態素解析を行なった結果,語幹・語尾の組合せとして複数の候補が得られる場合がある.これらの例を表\ref{tbl:lexambiguity}に示す.一つ目の例においては,``${о\!\!р}$(ベッド,代わり)''あるいは``${о\!\!р\!\!о\!\!н}$(国)''という,異なる二つの名詞語幹に対して,``{$н\!\!ы$}($\sim$の)''あるいは``{ы}($\sim$の)''という異なる属格語尾が接続して語形変化した結果の句が同じ表記になっている.この例の場合は,文の意味を考慮して形態素解析の曖昧性を解消する必要がある.一方,二つ目の例においては,``{$х\!\!а\!\!з$}(噛む)''という動詞語幹に対して,叙述・単純過去形語尾あるいは形動詞・完了形語尾が接続しているが,この二つの語尾が同じ表記となっており,語形変化した結果の句も同じ表記となっている.叙述・単純過去形の場合は,文末等に現れる過去形となり,形動詞・完了形の場合は,連体修飾用法となる.この例の場合は,この句の直後が名詞句かどうかによって,形態素解析の曖昧性を解消することができる.\begin{table}\caption{\label{tbl:examplenoun1}名詞+語尾の語形変化テーブルの例1}\begin{center}\begin{tabular}{|c|c|}\Hline語幹/語幹品詞&${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л}$(教育)/名詞\\\hline語尾/語尾種類&{$н\!\!ы$}($\sim$の)/属格\\\Hline語形変化後の語&${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!н\!\!ы}$(教育の)\\\Hline\end{tabular}\end{center}\end{table}\begin{table}\caption{\label{tbl:examplenoun2}名詞+語尾の語形変化テーブルの例2}\begin{center}\begin{tabular}{|c|c|}\Hline語幹/語幹品詞&${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л}$(教育)/名詞\\\hline語尾/語尾種類&{д}($\sim$に)/与位格\\\Hline語形変化後の語&${б\!\!о\!\!л\!\!о\!\!в\!{\rmc}\!р\!\!о\!\!л\!\!д}$(教育に)\\\Hline\end{tabular}\end{center}\end{table}\begin{table}\caption{\label{tbl:verbexample1}動詞+活用語尾の語形変化テーブルの例1}\begin{center}\begin{tabular}{|c|c|}\Hline語幹/語幹品詞&${а\!\!р\!\!и\!\!л\!\!и\!\!а}$(消す)/動詞\\\hline語尾/語尾種類&{ж}($\sim$して)/副動詞:並列\\\Hline語形変化後の語&${а\!\!р\!\!и\!\!л\!\!и\!\!а\!\!ж}$(消して)\\\Hline\end{tabular}\end{center}\end{table}\begin{table*}\caption{\label{tbl:verbexample2}動詞+活用語尾の語形変化テーブルの例2}\begin{center}\begin{tabular}{|c|c|}\Hline語幹/語幹品詞&${а\!\!р\!\!и\!\!л\!\!и\!\!а}$(消す)/動詞\\\hline語尾/語尾種類&${У\!\!У\!\!з\!\!а\!\!й}$($\sim$するな)/命令・願望:1-3人称懸念\\\Hline語形変化後の語&${а\!\!р\!\!и\!\!л\!\!и\!\!У\!\!У\!\!з\!\!а\!\!й}$(消すな)\\\Hline\end{tabular}\end{center}\end{table*}\subsection{\label{subsec:ma}モンゴル語形態素解析の評価実験}モンゴル語形態素解析の評価実験を行なうために,まず,モンゴル語コーパスを収集した.本稿で用いたモンゴル語コーパスは,ウェブ上のモンゴル語新聞一年半分のテキストを収集してコーパスとしたもの(延べ語数206万,異なり語数11万5千,30MBytes)である.このコーパスから,無作為に680語を収集し,前節で用意した動詞・名詞の語形変化テーブルを用いて各語の形態素解析を行なった.680語のうち,語形変化後の語が語形変化テーブルに含まれる語については,形態素解析の結果得られる語幹・語尾の組合せの候補の中に,正しい解析結果が必ず含まれていた.語形変化テーブルに誤った句が登録されていて,入力された句がそれと一致すると誤った解析結果が得られる.本実験では派生語が入力されて,それが誤った名詞句と一致し,誤った解析となった事例が一つあった.また,名詞句について複数の解析結果が得られたのは11語で,動詞句については41語であった.そして,名詞句かつ動詞句とした重複解析結果が4語であった.名詞句の11語のうち6語が,''対格+再帰''と''再帰''との間の曖昧性の事例であった.動詞の41語のうち32語が表\ref{tbl:lexambiguity}の二つ目の例と同様の動詞・叙述・単純過去形と動詞・形動詞・完了形の間の曖昧性であった.次に,前節で用意した動詞・名詞の語形変化テーブルが,コーパス中のどの程度の範囲の語に対応しているかのカバレージを評価するために,まず,680語を,名詞,動詞,その他の単語に分類し,それぞれのクラスについて,語形変化テーブルに含まれるかどうかを判別し,以下に分類し,表\ref{tbl:morphsInCorpus}に結果を示した.名詞かつ動詞として重複した解析結果が得られた句については「重複」という欄に示した.\begin{itemize}\item「語幹・句とも存在する」\item「語幹のみ存在する」\item「語幹が存在しない」\end{itemize}「語幹・句とも存在する」は,コーパス中の出現形が,そのままの形で,語形変化後の語として語形変化テーブルに含まれるものである.「語幹のみ存在する」は,コーパス中の出現形から判別した語幹は語形変化テーブルに含まれるが,コーパス中の出現形が,そのままの形で,語形変化後の語として語形変化テーブルに含まれてはいない,というものである.これらの語については,\ref{sec:mon-gra}節で述べた語形変化以外の語形変化(具体的には,派生語を生成する語形変化)を実装することにより,形態素解析が可能となる.「語幹が存在しない」は,コーパス中の出現形から判別した語幹が語形変化テーブルに含まれない,というものである.\begin{table*}\caption{\label{tbl:lexambiguity}形態素解析において複数の解析結果が得られる例}\begin{center}\begin{tabular}{|c|c|}\Hline句&\multicolumn{1}{|c|}{形態素解析結果(語幹/語幹品詞+語尾/語尾種類)}\\\Hline${о\!\!р\!\!н\!\!ы}$&\multicolumn{1}{|l|}{${о\!\!р}$(ベッド,代わり)/名詞+{$н\!\!ы$}($\sim$の)/属格}\\&\multicolumn{1}{|l|}{${о\!\!р\!\!о\!\!н}$(国)/名詞+ы($\sim$の)/属格}\\\hline$х\!\!а\!\!з\!{\rmc}\!а\!\!н$&\multicolumn{1}{|l|}{$х\!\!а\!\!з$(噛む)/動詞+{${\rmc}\!а\!\!н$}($\sim$した)/叙述・単純過去\hfill(噛んだ(文末))}\\&\multicolumn{1}{|l|}{$х\!\!а\!\!з$(噛む)/動詞+{${\rmc}\!а\!\!н$}($\sim$した(連体修飾))/形動詞・完了\\\\hfill(噛んだ(犬))}\\\Hline\end{tabular}\end{center}\end{table*}\begin{table*}\caption{\label{tbl:morphsInCorpus}コーパス中の句の内訳(\%(個数))}\begin{center}\begin{tabular}{|l||c|c|c|c||c|}\hline語形変化テーブル中&&&&&\\語幹・句の有無&名詞&動詞&重複&その他&合計\\\hline語幹・句とも&93.5&93.5&100.0&0&86.3\\存在する&(260)&(331)&(4)&(0)&(587)\\\hline語幹のみ&6.5&6.5&0&0&6.0\\存在する&(18)&(23)&(0)&(0)&(41)\\\hline語幹が&0.0&0.0&0.0&7.6&7.6\\存在しない&(0)&(0)&(0)&(52)&(52)\\\hline&40.9&52.1&0.6&7.6&100\\合計&(278)&(354)&(4)&(52)&(680)\\\hline\end{tabular}\end{center}\end{table*}
\section{関連研究}
\label{sec:related}\cite{Ehara04aj}においては,日本語形態素解析システム茶筌を処理系として,モンゴル語文の形態素解析を行なうための文法体系の構築を試みている.茶筌の処理系は,基本的には,活用語・非活用語の品詞体系,および,活用語の活用語尾の語形変化の体系を定義する機能を持つ.また,各形態素,および,二個もしくは三個程度の形態素の連接に対してコストを定義することにより,形態素解析の結果得られる複数の解析結果を絞り込む機能を持つ.\cite{Ehara04aj}においては,茶筌の処理系が持つ機能のうち,活用語の活用語尾の語形変化の体系を定義する機能を利用することにより,名詞・動詞の詳細な活用型・活用形を定義している.また,語尾については,活用語とはせず,変化形をすべて別形態素として登録している.この方式と比較すると,本稿のアプローチは,茶筌辞書のような明示的な文法体系を立てるのではなく,できる限り抽象化したレベルで音韻論的・形態論的特性を整備し,この制約を用いて語幹・語尾の接続制約・語形変化規則を記述するというアプローチであると言える.本稿のアプローチでは,形態素として辞書に登録されるのは,(名詞・動詞の)語幹およびそれらの語幹に接続する語尾(の基本形)のみとなり,語幹や語尾の変化形を別途登録することはしない.そのかわりに,語幹・語尾が語形変化して生成される句については,その全ての可能性を語形変化テーブルに登録することとなる.ここで,日本語文の形態素解析と,モンゴル語における句の形態素解析を比較すると,モンゴル語においては,句が空白により分かち書きされる点が特徴的である.したがって,モンゴル語の句の形態素解析においても,実用的には,語幹に対して高々数個の語尾が連続して接続する可能性を考慮すれば十分である.本稿では,モンゴル語におけるこの特性を考慮して,句の候補をすべてテーブルに登録するアプローチを採用している.\cite{Cucerzan02a}においては,スペイン語およびルーマニア語について,時制・人称・数の活用変化形の生成規則を人手で記述しておき,コーパス中で実際に観測される不規則変化形との間の類似度を計算して,各々の不規則変化形に対して,最も近い規則変化形の時制・人称・数を割り当てるという方法により,各言語での不規則変化形の形態素解析規則を獲得している.
\section{おわりに}
本稿では,現時点で利用可能なモンゴル語の言語資源,特に,名詞・動詞の語幹のリスト,および,名詞・動詞に接続する語尾のリストを用いて,モンゴル語の名詞句・動詞句の形態素解析を行なう手法を提案した.具体的には,名詞・動詞の語幹に語尾が接続する際の音韻論的・形態論的制約を整備し,語幹・語尾の語形変化の規則を作成した.そして,この規則を用いて,語幹・語尾の組とそこから生成される句を対応させる語形変化テーブルを作成し,このテーブルを参照することにより,名詞句・動詞句の形態素解析を行なう手法を提案した.評価実験の結果においては,語形変化テーブルに登録されている句については,形態素解析の結果得られる語幹・語尾の組合せの候補の中に,正しい解析結果が必ず含まれることが確認できた.そして,特に,誤った句候補も含めて,生成された句候補を全て用いて語形変化テーブルを作成し,形態素解析の評価を行った結果では,誤った句の影響による性能の低下はほとんどなかった.\acknowledgment日本語・モンゴル語対訳辞書を提供して頂いた清水幹夫氏に感謝する.また,\cite{Ehara04aj}の辞書データを提供して頂いた諏訪東京理科大学江原暉将先生に感謝する.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Cucerzan\BBA\Yarowsky}{Cucerzan\BBA\Yarowsky}{2002}]{Cucerzan02a}Cucerzan,S.\BBACOMMA\\BBA\Yarowsky,D.\BBOP2002\BBCP.\newblock\BBOQBootstrappingaMultilingualPart-of-speechTaggerinOnePerson-day\BBCQ\\newblockIn{\BemProceedingsofthe6thConferenceonNaturalLanguageLearning},\BPGS\132--138.\bibitem[\protect\BCAY{江原,早田,木村}{江原\Jetal}{2004}]{Ehara04aj}江原暉将,早田清冷,木村展幸\BBOP2004\BBCP.\newblock\JBOQ茶筌を用いたモンゴル語の形態素解析\JBCQ\\newblock\Jem{言語処理学会第10回年次大会論文集},\BPGS\709--712.言語処理学会.\bibitem[\protect\BCAY{$Г\!\!а\!\!н\!\!б\!\!о\!\!л\!\!о\!\!р$\BBA\$Т\!\!У\!\!н\!\!г\!\!а\!\!л\!\!а\!\!г$}{$Г\!\!а\!\!н\!\!б\!\!о\!\!л\!\!о\!\!р$\BBA\$Т\!\!У\!\!н\!\!г\!\!а\!\!л\!\!а\!\!г$}{2000}]{Mongol00aj}$Г\!\!а\!\!н\!\!б\!\!о\!\!л\!\!о\!\!р$,С.\BBACOMMA\\BBA\$Т\!\!У\!\!н\!\!г\!\!а\!\!л\!\!а\!\!г$,Л.\BBOP2000\BBCP.\newblock{\Bem{$З\!\!Θ\!\!в$$б\!\!и\!\!ч\!\!и\!\!х$$д\!\!v\!\!р\!\!м\!\!и\!\!й\!\!н$$т\!\!У\!\!л\!\!г\!\!У\!\!У\!\!р$$д\!\!о\!\!х\!\!и\!\!о$.}}\bibitem[\protect\BCAY{栗林}{栗林}{1992}]{Kuribayashi92aj}栗林均\BBOP1992\BBCP.\newblock\JBOQモンゴル語\JBCQ\\newblock亀井孝,河野六郎,千野栄一\JEDS,\Jem{言語学大辞典,第4巻,世界言語編(下--2)},\BPGS\501--517.三省堂.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{SanduijavENKHBAYAR}{2003年神戸大学工学部情報知能工学科卒業.2005年京都大学情報学研究科修士課程知能情報学専攻修了.現在,日立ソフトウェアエンジニアリング株式会社に勤務.在学中はモンゴル語の自然言語処理に関する研究に従事.}\bioauthor{宇津呂武仁}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学大学院工学研究科博士課程電気工学第二専攻修了.京都大学博士(工学).奈良先端科学技術大学院大学情報科学研究科助手,豊橋技術科学大学工学部情報工学系講師を経て,2003年より京都大学情報学研究科知能情報学専攻講師.自然言語処理の研究に従事.}\bioauthor{佐藤理史}{1983年京都大学工学部電気工学第二学科卒業.1988年同大学院博士課程研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学情報科学研究科助教授,京都大学情報学研究科助教授を経て、2005年より名古屋大学大学院工学研究科教授.工学博士.自然言語処理,情報の自動編集等の研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V09N05-04 | \section{まえがき}
label{intro}比喩とは,ある概念を他の概念によって説明または強調する修辞的手法の一つであり\cite{Lakoff1986,Yoshiga1990j},様々な分野で研究対象として取り上げられている\cite{Shinohara2000j}.自然言語処理の分野においても,比喩表現はしばしば問題となる.例えば,機械翻訳において,現状のシステムでは意訳や再解釈などの深い処理は行われないため,目的言語に翻訳された比喩表現は,意図した内容と異なった出力となってしまう場合がある\cite{Masui1995j}.``水のような価値''という比喩表現は,日本語では「価値が低い」という意味として理解されるが,言語によっては,「非常に価値が高い」ことを意味する場合がある.これは,``水''が持つ特徴が言語間で異なるからであり,この違いを補正するためには,原言語における「価値が低い」という特徴を保持したまま,対象言語において,同様の特徴を持った言葉を選び出す必要がある.しかし,現状の機械翻訳では,このような,言語間の意味の相違を考慮した処理は不可能である.このような場合,その表現が比喩であるかどうかを判断し,``asworthaswater''や``valuelikeaswater''と直訳されることを防ぐだけでも有効であると思われる.また,李\cite{Yoshiga1990j}によれば,新聞記事などの実用文においても,比喩表現は数多く出現し,その割合は小説や雑誌と大差はない.したがって,自然言語処理の対象を一般的な文書へ拡大し,柔軟な処理を行うたためには,比喩表現の処理は重要である.従来,比喩に関する研究は,心理学の分野において発展してきた.Ortony\cite{ortony79}やGentner\cite{gentner94}をはじめ,多くの比喩理解の理論的モデルが,提案されている.楠見\cite{Kusumi1996jb,Kusumi1996ja}は,心理学的実験手法によって,比喩理解に必要な知識を計測し,いくつかの理論的モデルの検証を行っている.しかしながら,上記で述べたような心理学実験は,被験者に対するアンケートやテストによって知識を得る手法であるため,汎用的な大規模知識ベースを構築するという目的に対しては,被験者数の確保や被験者集団の知識の偏り,個人差の是正の困難さやコストの面で大きな制限がある.比喩理解の過程を計算機上で実現するためには,比喩の理解過程を,なんらかの形でモデル化して扱う必要がある.岩山らは,プロトタイプ理論\cite{rosch75}に基づいて概念を生起確率を持った属性値集合として記述し,比喩を構成するときの特徴の移動を定量化する計算モデルを提案しており\cite{Iwayama1991j},内海も同様の計算モデルを用いて,心理学実験データに基づく知識ベースを用いた比喩理解の実験を行い,人間の判断結果と比較している\cite{Utsumi1997j}.彼らのモデルでは,比喩の理解過程は比喩表現として尤も強調される特徴(顕現特徴)が,たとえる概念(source概念)からたとえられる概念(target概念)へ移動するプロセスとして扱われている.しかしながら,楠見ら\cite{Kusumi1996ja,Iwayama1991j}が指摘するように,比喩理解において,比喩性を有する概念間の共有属性値は必ずしも一つとは限らず,複数の顕現特徴を扱う場合については議論の余地がある.また,彼らも,人手によって知識ベースを構築しており,知識の大規模化,汎用化の問題は解消されていない.そこで,本論文では,テキスト中に出現する比喩表現を認識するために,確率的な尺度を用いた比喩性検出手法を提案する.比喩性を検出するための確率的な尺度として,``顕現性落差"と``意外性"を設定する.``顕現性落差''は,概念対を比較したときに,クローズアップされる顕現特徴の強さをはかる尺度であり,概念の組合せが理解可能である否かの判断に用いる.``顕現性落差''は,確率的な概念記述を用いて,概念の共有属性値集合が持つ冗長度の差で定量化する.``意外性''は,概念の組み合わせがどれほど斬新であるかをはかる尺度であり,概念同士が例示関係であるか否かの判断に用いる.``意外性"は,単語間の意味距離を用いて定量化する.二つの尺度を併用することによって,比喩関係を持つ概念対,すなわち,比喩性の判定が可能となる.二つの尺度を計算するために,コーパス中から抽出した語の共起情報を利用して知識ベースを構築する.以下,2章で,比喩性を検出するための尺度として,``顕現性落差''と``意外性''が利用できることを示し,3章で,``顕現性落差''を,確率的概念記述モデルに基づいて定量化する方法と,計算に用いる知識ベースを,コーパス中の共起関係を利用して構築する方法について述べ,4章で,``意外性''を,単語間の意味距離を利用して定量化する方法と,コーパス中の共起情報に基づく知識ベース構築の方法について説明する.5章では,両尺度を併用した単語対の判別実験と評価を行い,6章で,評価結果について考察する.
\section{比喩性の尺度}
本論文では,与えられた表現が比喩であるかを判断する基準として,「クローズアップされる特徴がいかに明確か」という点と,「与えられた表現がどの程度新鮮か」という点が重要であることに着目する.比喩表現の理解とは,概念が持つ,ある特徴を強調することによって,新たな理解を促すものであるから,強調される特徴が明確でなければならない.``顕現性落差"は,クローズアップされる特徴を抽出し,それらの特徴がいかに明確であるかをはかる尺度である.また,比喩表現として対比される概念が新鮮であることは,その表現に強い印象を与え,理解を促すことになる.``意外性"は,対比される概念の組み合わせの新鮮さをはかる尺度である.このような,二つの尺度を設定することで,その表現の比喩らしさ,すなわち,比喩性を検出できると考えられる.以下,``顕現性落差''および``意外性''について,比喩性との関係を説明し,両尺度が,比喩性検出にどのように利用できるかについて述べる.Ortny\cite{ortony79}は,比較される概念間の共有特徴が少ない場合でも,それらの類似性が認識されて比喩性が理解される点や,類似性の非対称性に着目し,相互作用モデルを示した.例えば,``卵のような車''という比喩の場合,たとえる言葉(source概念)``卵''とたとえられる言葉(target概念)``車''の共有特徴$(卵{\cap}車)=\{丸い,白い,小さい,…\}$は,``車''においては顕著な特徴ではないが,``卵''においては,これらの共有特徴は非常に顕著な特徴(顕現特徴)である.したがって,``車''に対して,``卵''のイメージを重ね合わせることによって,``車''における$\{丸い,白い,小さい,…\}$などの特徴を同時に強調し,その結果,``顕現性落差''が生じて,比喩性が検出される.``顕現性落差''からは,類似性の非対称性が生じるので,同じ概念を比較した場合でも,``車のような卵''という表現\footnote{このような表現を反転比喩という.}からは,比喩性は検出されにくい.また,source概念が顕著な特徴を持っていたとしても,対比される概念間に共有特徴が認められない場合は,``顕現性落差''が生じないため,比喩性は認識されない.例えば,``谷底のような車''という表現では,``谷底''と``車''の間には共有特徴が見つけられないので,``顕現性落差''は生じず,比喩性も生じない.``自動車のような車''では,組み合わせ概念が類似概念であるため,両者の顕現特徴もほとんど共通である.この場合も,``顕現性落差''は生じにくく,比喩性もあらわれにくいと考えられる.さらに,比喩とは,意表を突いた言葉(ここでは単語)の組合せによって,伝えたい内容をより鮮明にしたり,強調する働きを持つ.例えば,``スポーツカーのような車''という比喩の場合,``スポーツカー''と``車''の共有特徴($スポーツカー{\cap}車$)=\{速い,格好いい,燃費が悪い…\}は,``車''においては顕著な特徴ではないが,``スポーツカー''において非常に顕著である.したがって,``車''に対して,``スポーツカー''のイメージを重ね合わせることによって,``車''における\{速い,恰好いい,…\}などの特徴を同時に強調するが,比喩性は認識されにくい.この理由は,両概念が上位下位関係を持つために,重複する特徴が多く,かつ,ありふれた組み合わせであるために,表現の新鮮さに欠けるからと考えられる.本論文では,このような単語間の組合せの新鮮さの度合を``意外性''として扱う.一般に,同一話題中に頻出する単語対は,たとえ2章の``顕現性落差''の条件を満たしていても,``意外性''が低い.その結果,比喩としての「新しさ」や「意外さ」が認識されず,比喩性を高める要因とはならない.反対に,めったに同一話題中に現れない単語対は``意外性''が高く,「新鮮」で「意外」であると認識され,比喩性を高める要因となる.\begin{table}[tb]\begin{center}\caption{顕現性落差と意外性に基づく概念対の分類}\label{tbl:relation}\begin{tabular}{|c|c|c|c|c|}\hline&&\multicolumn{3}{|c|}{顕現性落差}\\\hline&&大&小&負\\\hline意&高&比喩&比喩/例示&無意味\\\cline{2-5}外&:&:&:&:\\\cline{2-5}性&小&例示&比喩/例示&無意味?\\\hline\end{tabular}\end{center}\end{table}上記の見地から,``顕現性落差''が大きく,かつ``意外性''も大きい概念対ほど,特徴が明確であり,表現も新鮮に受け取られ,比喩性も大きくなると考えられる.この考え方と,概念対(比喩・例示・無意味)の区別を対応付けると,表\ref{tbl:relation}のような関係が仮定できる.概念対において,``顕現性落差''によって,無意味な概念対(無関係対)と意味のある概念対(比喩関係対・例示関係対)が区別でき,``意外性''によって,例示関係対と非例示の概念対(比喩関係対・無関係対)が区別できる.よって,両者を統合的に利用することで,比喩関係にある概念対が区別できる\footnote{ただし,共有特徴がない場合については,本論文では議論の対象外とする.}.
\section{顕現性落差の定量化}
\subsection{確率的プロトタイプを用いた顕現性落差の計算}2章で述べたような共有特徴の顕現性落差を扱うために,属性値集合を用いた,確率的な概念記述を用いる.確率的な概念記述モデルでは,概念は属性値とその生起確率の集合として記述される\cite{Iwayama1990,Masui1999}.概念$\ast(W)$が属性値$w_i$をもち,その生起確率が$p_i$であるとき,$\ast(W)$は以下のように,確率的な属性値集合として記述できる(式(\ref{exp:collection})).\begin{eqnarray}\label{exp:collection}{\ast}(W)=\{p_1\#w_1,p_2\#w_2,...,p_i\#w_i,...,p_m\#w_m\}\end{eqnarray}このとき,概念の顕現性は,これらの属性値集合の冗長度(ばらつき具合)から予測可能である.(\ref{exp:collection})で示した概念${\ast}(W)$が,$m$種類の属性値から成る属性値集合として記述される場合,その冗長度$r(W)$は,式(\ref{exp:info})を用いて定量化できる\cite{Iwayama1991j}.\begin{eqnarray}\label{exp:info}r(W)=&\left\{\begin{array}{cc}1-\frac{\sum_{i=1}^{m}{p_i}\log{\frac{1}{p_i}}}{\log{m}}&(m{\neq}1)\\{1}&(m=1)\end{array}\right\}\end{eqnarray}\begin{figure}[tb]\begin{center}\epsfile{file=proto2.eps,scale=0.5}\caption{確率的な概念記述における特徴集合の顕現性落差}\label{fig:rep-kage}\end{center}\end{figure}ところで,比喩表現の顕現特徴は,比較される概念間の共有特徴から選ばれるが,同時に,source概念の顕現特徴になっているはずである.よって,source概念の属性値集合から主要な属性値を取り出し,それらと,target概念の属性値との間で共有できるものを取り出すことで,顕現性落差を考えるためにクローズアップされる共有属性値集合が取り出される\footnote{比喩表現を構成する概念の間で共有される属性値は,必ずしも一つではない\cite{Kusumi1996ja}ので,計算対象となる共有属性値は集合でもよい.もちろん,概念が共有する属性値の数が少なければ少ないほど,顕現特徴が特定しやすいため,結果として比喩として理解されやすいといえる.}.取り出された共有属性値集合について,source概念とtarget概念の各々における生起確率を用いて冗長度を計算することで,顕現性落差が予測できる.したがって,source概念${\ast}(W_s)$が,降順で整列した$m$個の属性値から成る属性値集合で記述される場合を考えると,まず,生起確率上位から,閾値$\alpha$までの範囲内に存在する$n$個の属性値(${\sum_{i=1}^{n}{p_i}>{\alpha}}$)を,その概念の主要な属性値集合とみなして取り出し(式(\ref{exp:set})),\begin{eqnarray}\label{exp:set}&{\ast}(W_s)=\{p_1\#w_1,p_2\#w_2,...,p_n\#w_n,...,p_m\#w_m\}\nonumber\\if&(p_1>p_2>...>p_n)\\cap\sum_{i=1}^{n}{p_i}>\alpha\\then&T(W_s)=\{p_1\#w_1,p_2\#w_2,...,p_n\#w_n\}\nonumber\end{eqnarray}次に,取り出した属性値集合$T(W_s)$と,target概念${\ast}(W_t)$との間で共有される属性値を探し,それらを,各々の概念における相対頻度の値とともに取り出す.(\ref{exp:set})に関して,source概念$\ast(W_s)$の主要な属性値集合$T(W_s)$と,target概念${\ast}(W_t)$の間で共有される属性値集合は,$W_{s,(T(W_s)\cap{\ast}(W_t))}$,$W_{t,(T(W_s)\cap{\ast}(W_t))}$であり,それらの主要な共有属性値集合(属性値数$x$個,$y$個)は,式(\ref{exp:set1}),(\ref{exp:set2})のように表せる.さらに,それぞれの共有属性値集合の冗長度,$r(T(W_{s,(T(W_s)\cap{\ast}(W_t))}))$,$r(T(W_{t,(T(W_s)\cap{\ast}(W_t))}))$は,式(\ref{exp:var1}),(\ref{exp:var2})のように計算できる.\begin{eqnarray}\label{exp:set1}&T(W_{s,(T(W_s)\cap{\ast}(W_t))})=\{p_{s,1}\#w_1,p_{s,2}\#w_2,...,p_{s,x}\#w_x\}\\\label{exp:set2}&T(W_{t,(T(W_s)\cap{\ast}(W_t))})=\{p_{t,1}\#w_1,p_{t,2}\#w_2,...,p_{t,y}\#w_y\}\end{eqnarray}ここで,上記の手順で求められた冗長度は,単に属性値のばらつき具合を示しているにすぎない.そのため,source概念における共有属性値集合の冗長度が,target概念のそれより小さい(ばらついている)場合でも,共有属性値の生起確率が概念記述全体に対して占める割合が大きいと,顕現特徴となる場合があり,冗長度の差のみでは,顕現性落差を正確に反映できない.そこで,顕現性落差を反映させるために,対象となる属性値がどの程度主要であるかによって冗長度に重み付けをする.例えば,図\ref{fig:rep-kage}では,属性値$\{幼い\}$の生起確率は,概念$\ast(子供)$において$0.222$であり,概念$\ast(顔)$において$0.003$である.この場合,属性値$\{幼い\}$は,概念$\ast(子供)$において最も主要な属性値であるが,概念$\ast(顔)$においてはそれほど主要ではないといえる.このように,ある属性値集合における属性値が,集合全体に対して,どの程度主要であるかということは,その属性値が集合内において保持する生起確率から把握できる.主要な属性値を用いた冗長度と,主要でない属性値を用いた冗長度を比較した場合,前者が主要であることが,顕現性の強調に影響すると考えられる.よって,各々の冗長度に対して,対象となった共有属性値集合の生起確率の総和を乗じて重み付けをし,比較した結果を顕現性落差として判断する(式(\ref{exp:dif})).比較した結果が正の場合,顕現性落差は比喩性を上げるように働き,負の場合は比喩性を下げるように働く,または生じないとみなす.\begin{eqnarray}\label{exp:var1}r(T(W_{s,(T(W_s)\cap{\ast}(W_t))}))=&\left\{\begin{array}{cc}1-\frac{\sum_{i=1}^{x}{{p_{s,i}}\log{\frac{1}{p_{s,i}}}}}{\log{x}}&(x{\neq}1)\\{1}&(x=1)\end{array}\right\}\\\label{exp:var2}r(T(W_{t,(T(W_s)\cap{\ast}(W_t))}))=&\left\{\begin{array}{cc}1-\frac{\sum_{i=1}^{y}{{p_{t,i}}\log{\frac{1}{p_{t,i}}}}}{\log{y}}&(y{\neq}1)\\{1}&(y=1)\end{array}\right\}\end{eqnarray}\begin{eqnarray}\label{exp:dif}Gap(W_s,W_t)=&r(T(W_{s,(T(W_s)\cap{\ast}(W_t))}))×\sum_{i=1}^{x}{p_{s,i}}\nonumber\\&-r(T(W_{t,(T(W_s)\cap{\ast}(W_t))}))×\sum_{i=1}^{y}{p_{t,i}}\end{eqnarray}\subsubsection*{計算例}以下に,顕現性落差の計算手法についての具体例を示す.``子供のような顔''という比喩表現に関して,二つの構成概念,${\ast}(子供)$と${\ast}(顔)$が図\ref{fig:rep-kage}のように,記述されている.仮に,主要な属性値集合を決める閾値$\alpha$を0.5とした場合,source概念${\ast}(子供)$における上位の属性値集合$T(子供)$は,$\{幼い,小さい,たくましい,可愛い,健康だ,弱い,いたいけだ\}$(合計0.505)となる.さらに,$T(子供)$と${\ast}(顔)$の共有属性値として,$\{幼い,たくましい\}$が得られるので,クローズアップされる属性値集合は以下のように表せ,\begin{eqnarray}\label{exp:int}T(子供_{T((子供)\cap\ast(顔))})=&\{幼い\#0.222,たくましい\#0.030\}\\%$,\label{exp:int2}T(顔_{T((子供)\cap\ast(顔))})=&\{幼い\#0.003,たくましい\#0.005\}\end{eqnarray}それぞれの冗長度は次のように計算できる.\begin{eqnarray}\label{exp:int1-2}r(T(子供_{T((子供)\cap\ast(顔))}))=&1-\frac{{0.222}\log{\frac{1}{0.222}}+{0.030}\log{\frac{1}{0.030}}}{\log{2}}&=0.471\\\label{exp:int2-2}r(T(顔_{T(子供)\cap\ast(顔)}))=&1-\frac{{0.003}\log{\frac{1}{0.003}}+{0.005}\log{\frac{1}{0.005}}}{\log{2}}&=0.082\end{eqnarray}共有属性値の生起確率の総和によって重み付けをして,両者を比較すると,\begin{eqnarray}Gap(子供,顔)=&0.471{\ast}0.253-0.082{\ast}0.008=&0.118\end{eqnarray}$0.118$という``顕現性落差''が得られ,この概念対は,$\{幼い,たくましい\}$という属性値に関して,比喩性を高めるようにはたらくと判断する.\subsection{顕現性落差計算のための知識ベース構築}本節では,顕現性落差の定量化に用いる知識ベースの構築について述べる.前節で説明した顕現性落差を定量化するためには,対象となる単語を表現できる属性値集合に関する知識ベースが必要である.知識ベース構築において,従来のように被験者を用いた心理学的実験に基づいた場合,妥当性の高い知識は期待できるが,同手法によって,数万,数十万と,知識を大規模化することは,極めて困難である.コンピュータを用いた汎用的な比喩性判定を考えた場合,大規模な知識ベースを効率良く構築することも非常に重要である.よって,大規模コーパスを利用した統計的なアプローチも有効な手段の一つである.そこで,我々は,従来の心理学的実験手法を用いず,統計的手法を用いて,テキストコーパスから大規模な知識を自動的に抽出し,知識ベースを構築する.具体的には,対象とするテキストコーパスを形態素解析\footnote{茶筅$version2.02$\cite{Chasen1999j}を用いた.}し,得られた結果から,``修飾語−名詞''の共起関係とその共起頻度を抽出する.抽出された共起情報は,確率的プロトタイプモデルに基づいて,知識ベース化する.\begin{itemize}\item[]例文(1){\em第一日目には,赤い花が一本売れた\cite{Dazai1947j}.}\item[]例文(2){\em二人は白い花のイバラの影から出て,水蓮の咲いている小さい沼の方へ歩いて行きます\cite{Dazai1988jb}.}\end{itemize}例えば,例文(1)を形態素解析した結果から,共起関係``花−赤い''が抽出される.この関係を共起頻度とともに,``$花=\{赤い\#1\}$''のように記録する.同様に,例文(2)を処理すると,共起関係``花−白い''と``沼−小さい''が抽出できる.その結果,知識は,``$花=\{赤い\#0.50,白い\#0.50\},沼=\{小さい\#1.0\}$''に更新される.上記の方法に従って,1年分の新聞記事コーパス\cite{Mainichi1995j}から知識ベースを構築した.知識ベース構築に際して,知識を抽出する共起範囲は1文とした\footnote{抽出される知識は名詞とその名詞にかかる修飾語である.したがって,例え頻度が少なくとも,それは偶然出現したものではなく,名詞の属性を表現するために用いられているため,属性値となる語句の範囲が正しく抽出できれば,頻度に関わりなく,属性値として適切なはずである.また,比喩的関係を考える場合には,通常は思い付きにくい属性値がクローズアップされる可能性があることから,低頻度の属性値を用いることにも意味があると判断し,頻度に対する閾値を設けなかった.}.知識として抽出された共起ペアは79,712組,属性値集合は27,958組であった.属性値集合あたりの属性値数は1〜339,平均は2.5であった.表\ref{tbl:nov-ex0}に知識ベースの例を示す.``山:高い'',``海:青い'',``学生:若い'',など,概念の顕現特徴を示す属性値が概ね上位に位置した.下位の順位においても,``山:険しい'',``海:暗い,神秘的だ'',``学生:無気力だ,忙しい'',のように,概念の特徴として連想可能な属性値を見ることができる.構築した知識ベースから,ランダムに100組を抜きだし,人手による大まかな評価を行った.評価は,(A)見出しの属性値として連想し易い,(B)見出しの属性値として連想することが可能,(C)見出しの属性値として連想不可能,の三段階に分類することで行った.その結果,(A)が85組,(B)が15組,(C)が5組となった.したがって,抽出した属性値のうち,85\%程度は顕現特徴として理解でき,95\%程度は連想可能なものであると考えられる.\begin{table}[tb]\begin{center}\caption{知識ベースの例}\label{tbl:nov-ex0}\begin{tabular}{|c|l|}\hline概念&\multicolumn{1}{|c|}{属性値集合}\\\hline山&高い\#0.111,青い\#0.063,静かだ\#0.048,小高い\#0.048,深い\#0.048,低い\#0.048,\\&なだらかだ\#0.032,丸い\#0.032,巨大だ\#0.032,厳しい\#0.032,いい\#0.016,\\&いろいろだ\#0.016,さびしい\#0.016,のどかだ\#0.016,ふしぎだ\#0.016,\\&険しい\#0.016,悪い\#0.016,遠い\#0.016,楽しい\#0.016,美しい\#0.016,...\\\hline海&青い\#0.228,きれいだ\#0.087,美しい\#0.087,豊かだ\#0.065,真っ青だ\#0.054,\\&新鮮だ\#0.054,静かだ\#0.043,穏やかだ\#0.043浅い\#0.033,暗い\#0.022,\\&黒い\#0.022,真っ暗だ\#0.022,豊富だ\#0.022,遠い\#0.011,輝かしい\#0.011,\\&広い\#0.011,新しい\#0.011,神秘的だ\#0.011,素晴らしい\#0.011,壮大だ\#0.011,...\\\hline学生&若い\#0.176,優秀だ\#0.118,高い\#0.059,困難だ\#0.059,未熟だ\#0.039,いい\#0.039,\\&近い\#0.039,まじめだ\#0.020,よい\#0.020,フレキシブルだ\#0.020,暗い\#0.020,\\&活発だ\#0.020,賢い\#0.020,厳しい\#0.020,素直だ\#0.020,貧乏だ\#0.020,\\&不自由だ\#0.020,無気力だ\#0.020,練習熱心だ\#0.020,忙しい\#0.020...\\\hline子供&幼い\#0.222,小さい\#0.162,弱い\#0.030,たくましい\#0.030,可愛い\#0.030,\\&健康だ\#0.030,いたいけだ\#0.022,愛らしい\#0.022,可愛らしい\#0.022,高い\#0.022,\\&長い\#0.022,必要だ\#0.022,未熟だ\#0.022,あやふやだ\#0.010,いい\#0.010,\\&かわいい\#0.010,ほほえましい\#0.010,やんちゃだ\#0.010,悪い\#0.010,...\\\hline米国&強い\#0.091,多い\#0.091,厳しい\#0.055,高い\#0.055,広大だ\#0.036,重要だ\#0.036,\\&積極的だ\#0.036,薄い\#0.036,必要だ\#0.036,ワイルド\#0.036,いい\#0.018,\\&さまざまだ\#0.018,一般的だ\#0.018,及び腰だ\#0.018,好きだ\#0.018,好調だ\#0.018,\\&広い\#0.018,国際的だ\#0.018,慎重だ\#0.018,新しい\#0.018,敏感だ\#0.018,...\\\hline夢&怖い\#0.061,悪い\#0.061,ささやかだ\#0.051,遠い\#0.051,壮大だ\#0.041,\\&ルナティックだ\#0.031,不思議だ\#0.031,変だ\#0.031,でかい\#0.031,\\&はかない\#0.031,ふさわしい\#0.020,いい\#0.020,こわい\#0.020,むなしい\#0.020,\\&明るい\#0.020,甘い\#0.020,恐ろしい\#0.020,嫌だ\#0.020,長い\#0.020,...\\\hline書類&必要だ\#0.464,いろいろだ\#0.107,膨大だ\#0.107,簡単だ\#0.071,高い\#0.071,\\&さまざまだ\#0.036,形式的だ\#0.036,短い\#0.036,不必要だ\#0.036,分厚い\#0.036,...\\\hlineクリスマス&寂しい\#0.222,よい\#0.111,楽しい\#0.111,巨大だ\#0.111,孤独だ\#0.111,\\&豪華だ\#0.111,神聖だ\#0.111,暖かい\#0.111\\\hlineイチゴ&甘い\#0.333,新鮮だ\#0.333,真っ赤だ\#0.333,\\\hline\end{tabular}\end{center}\end{table}上の評価結果は,個々の属性値が妥当かどうかを測るものであり,評価後の数値がそのまま属性値集合の妥当性を示すものではないが,大規模な知識を,概ね直観に合うレベルで抽出することができたといえる.一方で,以下に述べるような,方式限界の存在も明らかになった.属性値の中には,ほとんどの概念と頻繁に共起するために,概念の特徴を示す属性値とはならないケースが見られた.``よい''や``いい''がその一例である.これらの語は,概念によっては,その特徴を反映していない場合も多く,属性値集合のノイズとなってしまうことがわかった.他にも,``夢''の属性値の例があげられる.文献\cite{GJDict1996}に記載されている``夢''の語義文を参考にして属性値を考えると,``はかない'',``非現実的だ'',``実現困難だ'',``理想的だ''が得られる.上記手法によって構築された知識ベース(表\ref{tbl:nov-ex0})の``夢''の属性値集合をみると,``はかない''以外の属性値が抽出されていないことがわかる.これは,コーパス中において,``非現実的な'',``実現困難な'',``理想的な''などは,非制限的な属性であり,``夢''の属性値としては一般的過ぎるために,修飾語として出現しにくいためと考えられる.上で述べたような問題点は,以降で扱う,比喩性判定の過程に影響を与えることが予想されるが,本論文では,これを本構築手法の限界と考えている\footnote{この問題については,6章でも議論する.}.以上の見地から,本手法によって構築される知識ベースは,強調されやすい属性値の集合によって表現される,確率的な概念記述であるといえ,概念の顕現特徴やそれらの集合を近似することは可能である.したがって,比喩性の判定という目的においては,十分利用可能である.\begin{table}[tb]\begin{center}\caption{``$AのようなB$''におけるAB間の顕現性落差の例}\label{tbl:gap-ex}\begin{tabular}{|c|c|c|c|}\hline分類&A&B&顕現性落差\\\hline比喩&神様&人&0.993\\比喩&粉&骨&0.811\\比喩&影&人物&0.387\\比喩&オウム&宗教&0.231\\比喩&ジャズ&リズム&0.196\\例示&サリン&毒物&0.033\\例示&中国&国&0.008\\例示&フランス&大国&0.000\\無意味&人間&キャラクター&-0.009\\無意味&夢&馬&-0.024\\無意味&キャンペーン&形&-0.042\\例示&米国&リストラ&-0.136\\\hline\end{tabular}\end{center}\end{table}構築した知識ベースを用いて,単語間の顕現性落差を計算した例を表\ref{tbl:gap-ex}に示す.$A,B$の項の単語対は,前述のコーパスから,``$AのようなB$''というパターンで現れる表現の構成単語である.表\ref{tbl:gap-ex}から,顕現性落差が大きい単語対は,比喩または例示の組み合わせが多く,顕現性落差が小さい単語対は,例示や無意味単語対が多いことがわかる.
\section{意外性の定量化}
\subsection{単語間の意味距離を用いた意外性の定量化}2章で述べたように,比喩表現の``意外性''とは,構成概念の組み合わせの新鮮さである.単語同士の組み合わせがいかに新鮮かを決める要因として,それらの単語が,日常的に用いられる文章中でどれほど頻繁に共起するか,という点があげられる.よって,テキストデータ中の単語の共起情報に基づく意味距離を利用すれば,単語組み合わせの``意外性''を定量化できるはずである.大規模なテキストデータから,単語の共起頻度を用いて単語間の意味距離を定量化する手法は,これまでにも数多く提案されている\cite{Salton1989,Church1990,Smaja1993}.本論文では,計算対象となる頻度が小さい場合でも,比較的信頼できる結果が得られるdice係数を利用する.dice係数は,本来,単語間の意味距離を示す値であるため,単語間の結び付きが強い程値が小さな値をとる.これは,``意外性''の定義とは反対の概念であるため,dice係数の逆数を``意外性''の値として用いることにする.したがって,あるテキスト中において出現する二つの単語$W_s$,$W_t$が,それぞれ,$p_s$,$p_t$の頻度で出現しており,そのうち両者が共起する頻度が$p_s・p_t$である場合,``意外性''$Nov(W_s,W_t)$は,式(\ref{exp:novelty})で表される.\begin{eqnarray}\label{exp:novelty}Nov(W_s,W_t)=&\frac{p_s+p_t}{2(p_s・p_t)}\end{eqnarray}この計算方法では,dice係数の値が0となる場合,すなわち,対象とする単語間の共起頻度が0の場合は値が得られない.共起頻度が得られないということは,単語の抽出元であるコーパス中からは,意外性を判断するための基本情報が得られなかったと判断できる.したがって,単語間の共起頻度が0であった場合は,判定不能として扱う.この場合,顕現性落差の計算が可能であったとしても,比喩性の判定は不能となる.\begin{table}[tb]\begin{center}\caption{``$AのようなB$''における$AB$間の意外性の例}\label{tbl:nov-ex}\begin{tabular}{|c|c|c|c|}\hline分類&A&B&意外性\\\hline無意味&人間&キャラクター&2917\\%A比喩&神様&人&1429\\%M無意味&キャンペーン&形&837\\%A比喩&矢&パス&595\\%M比喩&少年&笑顔&308\\%M比喩&夢&存在&226\\%M例示&フランス&主張&131\\%S例示&中国&大国&94\\%S比喩&ジャズ&リズム&39\\%M例示&サリン&物質&14\\%S\hline\end{tabular}\end{center}\end{table}\subsubsection*{計算例}以下,意外性の計算手法について,具体例を示す.``山のような書類''という比喩表現に関して考える.ある新聞記事\cite{Mainichi1995j}では,二つの単語``山''および``書類''の頻度はそれぞれ,2695,1033であり,両者の共起頻度が4である.このとき``意外性''は,\begin{eqnarray}\label{calc:novelty1}Nov(山,書類)=&\frac{2695+1033}{2{\ast}4}=466\end{eqnarray}となる.同様に,``文書のような書類''という表現の場合,二つの単語``文書''および``書類''の頻度はそれぞれ,1898,1633,両者の共起頻度が20なので,``意外性''は,\begin{eqnarray}\label{calc:novelty2}Nov(文書,書類)=&\frac{1898+1633}{2{\ast}20}=88.25\end{eqnarray}となり,``山,書類''と比較して意外性が小さいことがわかる.\subsection{意外性計算のための知識ベース構築}顕現性落差同様,テキストコーパスから,統計的手法を用いて大規模な知識を取り出し,意外性の定量化に用いる知識ベースを構築する.具体的には,対象とするテキストを形態素解析\cite{Chasen1999j}し,得られたその処理結果から,全ての名詞とその出現頻度,および,1文をスコープとした場合の名詞共起とその共起頻度を抽出して構築する.例文(2)には5つの名詞``二人'',``花'',``イバラ'',``影'',``水蓮'',``沼''が存在する.共起範囲を一文として各名詞のペア組合せを考えると,14組の名詞ペアが考えられる.このとき,各名詞の出現頻度と共起頻度,それらに基づいて名詞間の意味距離が計算できる.以上の結果を知識ベースとして,$\{二人,花:29,32,4\}$のように記録する.表\ref{tbl:nov-ex}に,単語間の意外性の例を示す.これらは,1年分の新聞記事コーパス\cite{Mainichi1995j}を利用して構築した知識ベースを用いて,計算した結果である.知識ベース構築のための共起範囲は1文とし,共起頻度5以上のものを対象とした.$A,B$の項の単語対は,前述のコーパスから,``$AのようなB$''というパターンで現れる表現の構成単語である.表\ref{tbl:nov-ex}から,意外性が高い単語対は比喩または無関係の組み合わせが多く,意外性が下位のものは例示の組み合わせが多いことがわかる.
\section{評価}
\subsection{評価方法}3章で用いた新聞記事コーパス1年分約11万記事,436MB\cite{Mainichi1995j}から,二種類の知識ベースを構築した.知識ベース構築のための共起範囲は1文とした.顕現性落差計算用の知識ベースについては全てを,意外性計算用の知識ベースについては,共起頻度5以上のものを対象とした.検証のためのデータとして,以下のような二種類の単語対データ計100組を用意した.\begin{enumerate}\item[データ(1)]知識ベース構築に用いた新聞記事コーパス\cite{Mainichi1995j}中に現れる,``$AのようなB$''というパターンで現れる表現の構成単語のうち,知識ベースから検索可能な単語対$(A,B)$:70組\item[データ(2)]知識ベースとは関係のない新聞記事コーパス\cite{Mainichi1998ja}中に現れる,``$AのようなB$''というパターンで現れる表現の構成単語のうち,知識ベースから検索可能な単語対$(A,B)$:30組\end{enumerate}$(A,B)$の単語対は,比喩指標``ような''を含む文を取り出して形態素解析\cite{Chasen1999j}し,``ような''の両端に,名詞が位置するものを取り出し,さらに,指示語や代名詞,を取り除いて作成した.これらの単語対は,あらかじめ人手で比喩関係対・例示関係対・無意味対,の三種類の区別を行った.区別は,対象の単語対を用いて,`$AのようなB$'という表現を構成した場合に,どのように理解できるかという点を重視し,以下のように行った.\begin{itemize}\item[(a)]比喩表現として理解可能な場合…`比喩関係対',\item[(b)]例示表現として理解可能な場合…`例示関係対',\item[(c)]いずれの表現としても理解不能な場合…`無意味対'\footnote{機械的に抽出したため,複合語を構成する単語が単独で取り出された場合に,無意味な組合せとなる場合がある.},\end{itemize}以上の単語対データに対して,顕現性落差および意外性を計算し,二つの尺度値に基づいて単語対を区別した.主要な共有属性値を決める閾値$\alpha$は,属性値集合全体における過半数を占める属性値を主要であると考えて0.5とし,単語対の区別は表\ref{tbl:relation}に対応させた.分類の基準として閾値を設定した.顕現性落差については,計算結果が0未満($Gap(A,B)<0)$の場合に無意味単語対であると判定した.意外性については,データ(1)の意外性の各計算値において,例示と非例示(比喩,無意味)のカバー範囲を分析して閾値を設定した.例示と非例示の双方を網羅する平均カバー率が,最も広い値(平均カバー率が最も大きい)値は$Nov(A,B)=146$であるので(図\ref{tbl:nov-cover}),意外性の計算結果が146以下の場合($Nov(A,B){\leq}146$)に例示であると判定した.\begin{figure}[tb]\begin{center}\epsfile{file=balance.eps,scale=0.4}\caption{意外性の境界と例示・非例示単語対カバー率}\label{tbl:nov-cover}\end{center}\end{figure}次に,データ(2)に対しても顕現性落差と意外性を計算し,データ(1)で設定した閾値を適用して,その判別性能を調べた.このとき,計算過程において,クローズアップされる共有属性値やその集合が,比喩の顕現特徴として順当なものであるかどうかについては考慮しない.対照実験として,全ての単語組合せを比喩,例示,無意味のいずれか一種類と判断した場合三例の実験と,三種をランダムに判定した実験を行った.\subsection{評価結果}表\ref{tbl:eval1}は,データ(1)における評価結果であり,知識ベースと単語対が関連している可能性がある場合についての検証である.ここで,実際の比喩単語対は48組,提案手法によって比喩単語対と判別された単語対は30組,そのうち正しく判別できた数は25組であった.よって,データ(1)に対する本手法の比喩単語対の判別能力は,適合率$83.3\%$,再現率$52.1\%$となる.同様に,例示単語対の判別能力は,適合率$50.0\%$,再現率$52.2\%$,無意味単語対については,適合率$22.2\%$,再現率$80.0\%$であった.表\ref{tbl:eval2}は,データ(2)における評価結果であり,知識ベースと単語対が全く関連のない場合についての検証である.ここで,実際の比喩単語対は13組,提案手法によって比喩単語対と判別された単語対は11組,そのうち正しく判別できた数は8組であった.よって,データ(2)に対する本手法の比喩単語対の判別能力は,適合率$72.7\%$,再現率$61.5\%$となる.同様に,例示単語対の判別能力は,適合率$75.0\%$,再現率$50.0\%$,無意味単語対については,適合率$57.1\%$,再現率$80.0\%$であった.上記の結果と,四種類の対照実験結果とを比較したものを,表\ref{tbl:eval1b},\ref{tbl:eval2b}に示す.各表中では,各単語対毎の認識結果について,適合率と再現率を示している.総合的な性能\footnote{全ての単語対については結果が得られているので,適合率のみが議論の対象となる.}については,データ(1)では,提案手法の性能は54.3\%,全てを比喩と判定した結果が68.6\%,全て例示と判定した場合は,24.3\%,全て無意味と判定した場合は,7.1\%,ランダムに判定した場合は38.6\%であった.データ(2)では,提案手法の性能が60.0\%,全てを比喩と判定した結果は43.3\%,全て例示と判定した場合は40.0\%,全て無意味と判定した場合は16.7\%,ランダムに判定した場合が26.7\%であった.
\section{考察}
\begin{table}[tb]\begin{center}\caption{顕現性落差と意外性に基づく概念対の判別結果:(データ(1))}\label{tbl:eval1}\begin{tabular}{|c|c|c|c|c||c|}\hline&&&$Gap(A,B){\geq}0$&$Gap(A,B)<0$&\\&{顕現性落差}&{分類}&(比喩単語対&(無意味単語対)&total\\&&&・例示単語対)&&\\\hline\cline{2-6}&$Nov(A,B)>146$&比喩&{\bf25}&11&36\\\cline{3-6}意&(比喩単語対・&例示&4&3&7\\\cline{3-6}外&無意味単語対)&無意味&1&{\bf4}&5\\\cline{2-6}性&$Nov(A,B){\leq}146$&比喩&9&3&12\\\cline{3-6}&(例示単語対)&例示&{\bf9}&1&10\\\cline{3-6}&&無意味&0&0&0\\\hline\hline\multicolumn{2}{|c|}{}&比喩&34&14&48\\\cline{3-6}\multicolumn{2}{|c|}{total}&例示&13&4&17\\\cline{3-6}\multicolumn{2}{|c|}{}&無意味&1&4&5\\\hline\multicolumn{5}{l}{データ:毎日新聞1995年度CD-ROMから抽出(70組)}\\\multicolumn{5}{l}{知識ベース:毎日新聞1995年度CD-ROMから構築(約28,000組)}\\\end{tabular}\end{center}\end{table}\begin{table}[tb]\begin{center}\caption{顕現性落差と意外性に基づく概念対の判別結果(データ(2))}\label{tbl:eval2}\begin{tabular}{|c|c|c|c|c||c|}\hline&&&$Gap(A,B){\geq}0$&$Gap(A,B)<0$&\\&{顕現性落差}&{分類}&(比喩単語対&(無意味単語対)&total\\&&&・例示単語対)&&\\\hline\cline{2-6}&$Nov(A,B)>146$&比喩&{\bf8}&1&9\\\cline{3-6}意&(比喩単語対・&例示&3&2&5\\\cline{3-6}外&無意味単語対)&無意味&0&{\bf4}&4\\\cline{2-6}性&$Nov(A,B){\leq}146$&比喩&2&2&4\\\cline{3-6}&(例示単語対)&例示&{\bf6}&1&7\\\cline{3-6}&&無意味&0&1&1\\\hline\hline\multicolumn{2}{|c|}{}&比喩&10&3&13\\\cline{3-6}\multicolumn{2}{|c|}{total}&例示&9&3&12\\\cline{3-6}\multicolumn{2}{|c|}{}&無意味&0&5&5\\\hline\multicolumn{5}{l}{データ:毎日新聞1998年度(a)CD-ROMから抽出(30組)}\\\multicolumn{5}{l}{知識ベース:毎日新聞1995年度CD-ROMから構築}\\\end{tabular}\end{center}\end{table}まず,総合的な性能について考察する.表\ref{tbl:eval1}では,全てを比喩と判定した場合の性能が提案手法を上回った.これは,全てを一種類に判定する手法の性能については,正解となる単語対データ数が,全体に占める割合を反映する性質を持つことに起因する.したがって,データ(1)では,比喩単語対の割合が多いために,同手法の性能が高くなったが,データ(2)では,は43.3\%と,比喩単語対の判別能力が著しく低下しいる.これに対し,提案手法は,データ(2)においても72.7\%の比喩単語対判別能力を得ており,対照実験と比較して,安定しているといえる.適合率についてみると,表\ref{tbl:eval1b}では,比喩と例示において,表\ref{tbl:eval2b}では全てにおいて,提案手法が最も良い結果であった.再現率については,ランダムの場合との比較のみが意味を持つが,この場合,いずれの種類においても,提案手法が最も良い結果であった.比喩単語対に限って言えば,本手法の評価結果は,概ね$70\%$以上の適合率と$50\%$以上の再現率が得られており,本手法による比喩性検出は有効であると考えられる.例示関係対については,データ(1)よりもデータ(2)の結果の方が良い結果を示した.これは,データ(1)では,(a)意外性が高いと判断された例示単語対が多かったことが再現率を下げ,(b)例示単語対と判断された比喩単語対が多かったことが適合率を下げたためである.無意味単語対についても同様で,データ(2)の方が良い結果であった.再現率はどちらも80.0\%であるから,データ(1)において,他の表現を無意味単語対と誤認識した場合が多かったことが原因であるといえる.表\ref{tbl:eval1}では,比喩単語対を無意味語対とあやまって判定したものが14組(29.2\%),比喩単語対を例示単語対とあやまって判定したものが9組(18.8\%),例示単語対を比喩単語対とあやまって判定したものが4組(23.5\%),例示単語対を無意味単語対とあやまって判定したものが4組(23.5\%),無意味単語対を比喩単語対とあやまって判定したものが1組(20.0\%)あった.表\ref{tbl:eval2}では,比喩単語対を無意味語対とあやまって判定したものが3組(23.1\%),比喩単語対を例示単語対とあやまって判定したものが3組(15.4\%),例示単語対を比喩単語対とあやまって判定したものが3組(25.0\%),例示単語対を無意味単語対とあやまって判定したものが3組(25.0\%),無意味単語対を比喩単語対とあやまって判定したものはなかった.この結果からみると,比喩単語対を無意味対とあやまって判定するケースと,例示単語対を比喩単語対とあやまるケースが多いことがわかる.\begin{table}[tb]\begin{center}\caption{対象実験結果との比較:(データ(1))}\label{tbl:eval1b}\begin{tabular}{|c|c|r|r|r|r|r|}\hline\multicolumn{2}{|c|}{}&本手法&全比喩&全例示&全無意味&ランダム\\\hline比&適合率&{\bf83.3}&68.6&-&-&37.1\\喩&再現率&52.1&{\bf100}&0&0&16.7\\\hline例&適合率&{\bf50.0}&-&24.3&-&20.6\\示&再現率&52.2&0&{\bf100}&0&25.5\\\hline無&適合率&{\bf22.2}&-&-&7.1&9.5\\意味&再現率&80.0&0&0&{\bf100}&40.0\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tb]\begin{center}\caption{対象実験結果との比較:(データ(2))}\label{tbl:eval2b}\begin{tabular}{|c|c|r|r|r|r|r|}\hline\multicolumn{2}{|c|}{}&本手法&全比喩&全例示&全無意味&ランダム\\\hline比&適合率&{\bf72.7}&43.3&-&-&37.1\\喩&再現率&61.5&{\bf100}&0&0&33.3\\\hline例&適合率&{\bf75.0}&-&40.0&-&20.0\\示&再現率&50.0&0&{\bf100}&0&10.7\\\hline無&適合率&{\bf57.1}&-&-&16.7&50.0\\意味&再現率&80.0&0&0&{\bf100}&26.7\\\hline\end{tabular}\end{center}\end{table}以下,評価結果から,正解例および失敗例を,各単語対別に,表\ref{tbl:correct},表\ref{tbl:false}に示し,問題点に関して詳述する.\begin{table}[tb]\begin{center}\caption{判別結果の正解例}\label{tbl:correct}\begin{tabular}{|l|r|r|l|}\hline\multicolumn{1}{|c|}{A,B}&Nov(A,B)&Gap(A,B)&\multicolumn{1}{|c|}{クローズアップされた共有属性値}\\\hline\multicolumn{4}{|c|}{比喩単語対}\\\hline離宮,建物&1363&0.992&美しい\\友達,父&654&0.200&良い\\枝,柱&1017&0.181&黒い\\水,人間&225&0.040&冷たい\\夢,話&158&0.001&悪い,怖い,遠い,不思議だ,変だ,いい,\\&&&こわい,ふさわしい\\\hline\multicolumn{4}{|c|}{例示単語対}\\\hline惑星,星&132&0.622&美しい\\自分,人間&43&0.234&新しい,ダメだ\\インド,国&144&0.018&多い,強い,広い\\米国,国&47&0.010&強い,多い,厳しい,高い,広大だ,重要だ,\\&&&積極的だ,薄い\\米国,社会&88&0.005&多い,厳しい,高い,積極的だ\\\hline\multicolumn{4}{|c|}{無意味単語対}\\\hline青春,心&755&-0.001&ナイーブだ,懐かしい\\ゲーム,いじめ&1877&-0.007&さまざまだ,新しい\\東京,モノ&1314&-0.058&高い\\動物,脳&217&-0.059&さまざまだ\\機械,技術&73&-0.007&古い,特殊だ\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tb]\begin{center}\caption{判別結果の失敗例}\label{tbl:false}\begin{tabular}{|l|r|r|l|}\hline\multicolumn{1}{|c|}{A,B}&Nov(A,B)&Gap(A,B)&\multicolumn{1}{|c|}{クローズアップされた共有属性値}\\\hline\multicolumn{4}{|c|}{比喩単語対以外のものを比喩単語対と誤判定した例}\\\hline睡眠薬,薬&194&0.983&強力だ\\アメリカ,社会&435&0.340&良い\\遺書,地域&1101&0.293&新ただ\\清水,地域&186&0.238&悪い\\田舎,関係&2012&0.127&深い\\\hline\multicolumn{4}{|c|}{例示単語対以外のものを例示単語対と誤判定した例}\\\hline牛刀,刃物&45&0.750&鋭い\\波,流れ&506&0.483&新しい\\影,人物&25&0.118&暗い\\鬼,形相&97&0.133&恐ろしい\\報道,発言&32&0.026&冷静だ,いろいろだ\\\hline\multicolumn{4}{|c|}{無意味単語対以外のものを無意味単語対と誤判定した例}\\\hline夢,世界&94&-0.001&遠い,不思議だ,いい,ふさわしい\\少年,表情&314&-0.008&優しい,げだ\\米国,対応&65&-0.022&厳しい,積極的だ,必要だ\\小説,読み物&246&-0.155&面白い\\日本,戸籍&734&-0.924&新しい\\\hline\end{tabular}\end{center}\end{table}(1)本論文では,比喩性判定処理において,比較される概念間の共有属性値の妥当性は特に考慮していない.しかし,厳密な意味で比喩理解を考えた場合,クローズアップされる共有属性値の尤もらしさも考慮の対象となる.例えば,「枝のような柱」では,``黒い''という共有属性値が,顕現特徴としてクローズアップされている.1章で述べたように,比喩理解が,複数の顕現特徴に基づくと考えれば,``黒い''が,クローズアップされる属性値の一つであると考えることもできる.しかし,厳密には,``細い''や``長い''などの語が,より上位の共有属性値として選ばれた方が,人間の直観に合う.この問題は,2章で述べたように,極めて一般的な属性値が,コーパス中に現れにくく,結果として抽出に失敗するという知識ベース構築手法の方式限界に関連している.問題解消のためには,概念辞書や語義文から属性値を取り出すなどして,属性値を補完する必要がある.(2)総合評価で述べた例示単語対の誤認識において,(a)については,``遺書''と``文書''や``清水''と``地域''のように,上位下位関係にあるが,一方が固有名詞であったり,分野依存性が強い場合には極端な頻度差が生じ,結果として意外性の値が高くなってしまう場合や,``日本のような戸籍''のように,一方の比較対象が単語として現れていない場合であり,比較する単語と,比較する意味にズレが生じ\footnote{この場合は,``日本で採用されている戸籍制度''を``国勢管理手段''の例として取り上げている.},単語の共起を元に計算された意外性の値が,意味的な意外性と食い違ってしまったことが原因と考えられる.前者の問題に対しては,新聞記事以外のコーパスや,複数の分野に関するコーパスを知識源として知識ベースを構築することで対応できそうである.固有名詞については,形態素解析で網羅できない場合もあると思われる.よって,固有表現抽出処理を利用することによって,固有名詞の出現頻度をさらに詳細に網羅することも有効であろうと考えられる.後者については,表層に現れていない比較対象概念を導き出さなければならない.そのためには,表現が現れた箇所の文脈解析や照応解析が必要である.(3)総合評価で述べた例示単語対の誤認識において,(b)については,``ジャズのようなリズム''や,``けん銃のような音''のように,一方の比較対象が単語として現れていない場合が多い.したがって,(2)の場合と同様に,表層に現れていない比較対象概念を導き出す必要がある.この問題への対策として,中村\cite{Nakamura1977}による「比喩関係からみた言語形式の分類」と概念辞書を用いて,他の単語対と区別して処理する方法が考えられる.(4)共有属性値集合の中に,``よい''や``いい''など,ひらがなで表記される形容詞が多く見られた.これは,3章で述べた,知識ベース構築手法の方式限界に関する問題である.これらの語は,通常,様々な名詞への修飾語として数多く出現するため,多くの概念の属性値となり易いと考えられる.その結果,顕現性落差を計算する場合に,共有属性値として抽出される確率も高く,頻度が多くなるために,属性値内の順位も上位となり易い.このような,極端に高頻度であったり,多数の名詞と共起する単語については,属性値候補から削除するというような対策が必要であると思われる.(5)比喩単語対を無意味単語対とあやまって判定したものは,ほとんどが``夢''をsource概念$(A)$とした単語対であった.特にデータ(1)ではこの傾向が顕著で(14組中11組),無意味単語対の適合率低下にも大きく影響している(再現率は80\%だが,適合率が22\%にとどまった).無意味単語対と判定された原因は,``夢''という単語が,共有属性値集合において,他の単語より特徴が少ないということ,様々な単語との意味距離が近いと判断されたためである.すなわち,``夢''という語が様々な特徴を持っており,様々な場面で用いられているということになるのだが,``夢のような計画''や``夢のような世界''は,明らかに比喩であると判定されるべきである.対策として,本来比喩的な性質を持つ語というものを他と区別して定義して扱う,辞書や語義文を用いて,一般的な修飾語としては現れにくい属性値を取り出す,などが考えられる.(6)``新しい'',``あたらしい'',``新ただ''や,``美しい'',``きれいだ''は,概念の特徴としては,同じ意味を示すものであるが,異なる属性値として扱われている.これは,知識ベース構築時における単語の区別を,形態素解析結果をそのまま利用しており,同義性が考慮されていないためである.これらの,意味的に同一または類似である異表記単語を同一のものとしてクラスタリングできれば,知識ベースにおける各属性値集合を意味的な属性値集合として構成でき,各尺度に基づく計算の誤差も小さくなるはずである.そのためには,属性値となる形容詞や形容動詞について,概念辞書や語彙体系などを用いてクラス分類する必要がる.(7)顕現性値の計算結果が0となる場合があった.しかし,実際には,ある概念の特徴が全く思い付かない場合というのはいかにも不自然である.この原因は,知識ベースにおいて,属性値集合の各属性値が全て同じ頻度である場合に,「完全に発散した状態」として計算されるためである.この場合,顕現性落差計算における重み付け効果も無くなるため,正確な比較ができていなかったといえる.上記の問題に対しては,コーパスの規模を拡大することによって,全体的な属性値の頻度を増やす方法や,辞書や語彙体系を利用して,属性値に重みを付ける方法が考えられる.(8)評価結果において,``インドのような国''や,``フランスのような主張''については,単語対の共有属性値としては,$\{多い,広い\}$や,$\{強い\}$などが取り出された.これらは,一般的な概念として考えても,知識源である新聞記事内の意味においても,正しい結果であるといえる.しかし,これらの表現は,``インド''や``フランス''を,ある特徴を示す国の例として取り上げている例示の場合と,他の国を指して,``フランスの主張''や``中国''にそっくりであるとして表現する比喩の場合がある.どちらに決定されるかは,上記の表現を含む文脈に強く依存する.ところが,今回は,単語の知識のみを用いて比喩性を判断しているため,このような場合には対応できない.
\section{むすび}
label{conc}本論文では,一般的な文書に出現する比喩表現を認識するために,確率的な尺度を用いて,単語間の比喩性を検出する手法について述べた.比喩性を検出するための尺度として,比喩構成語が理解可能かどうかに関わる``顕現属性落差''と,語の組合せがどれ程斬新かに関わる``意外性''を定義し,確率的なプロトタイプ概念記述および単語間の意味距離を利用して定量化した.さらに,コーパス中の共起関係に基づいて構築した知識ベースを用いて比喩性判定実験評価を行った結果,提案モデルが有効であることが確認された.今後は,考察で得られた知見に基づいて,単語の同義性を考慮した知識ベースを構築した本手法の精緻化,比喩的な機能を持つ特殊な語の扱い,新聞記事以外のコーパスや概念辞書の利用,を進めていく予定である.また,今回の性能評価では,知識ベース中に共有属性値が存在しなかった場合の顕現性落差や,コーパス中から共起頻度が得られなかった単語対の意外性については,評価対象外とした.これは,それぞれ,``共有属性値が存在しない原因としては,実際に比較対象概念間に共有特徴が存在しない場合と,知識ベース中の属性値集合間に共有属性値が存在しなかった場合が考えられるが,両者の区別は簡単ではない'',``共起頻度が得られない原因としては,コーパス中に単語共起が存在しないという事実が,すなわちそれらの単語対が一般的に共起しないことを証明するものではない''という理由による.しかしながら,``共有属性値がない場合は,無意味対である可能性が高い''ということや,``個々の単語がそれぞれ有意な出現頻度を示していながら,共起が生じない場合は,意外性は非常に高い''ということは,容易に推測できる.したがって,これらの推測過程の妥当性を確認し,本手法へ適用することにより,判別性能を精緻化することを考えている.本研究の具体的な応用事例研究としては,1章で述べた機械翻訳への適用の他に,比喩表現を検索要求として扱える検索システムや,質問応答における比喩表現を用いた応答文生成などを考えている.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\newpage\begin{biography}\biotitle{略歴}\bioauthor{桝井文人}{1990年岡山大学理学部地学科卒業.同年,沖電気工業(株)入社.2000年三重大学工学部情報工学科助手.現在に至る.質問応答システム,情報抽出の研究に従事.電子情報通信学会,人工知能学会,言語処理学会各会員.}\bioauthor{福本淳一}{1984年広島大学工学部第2類卒業.1986年同大学院工学研究科博士前期課程修了.同年沖電気工業株式会社入社.1992〜1994年英国マンチェスター科学技術大学言語学部Ph.D.コース在学.Ph.D.2000年立命館大学理工学部情報学科助教授.現在に至る.質問応答システム,情報抽出,自動要約の研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{椎野努}{1964年名古屋大学工学部電気学科卒業.同年沖電気工業(株)入社.1990年三重大学工学部情報工学科教授.2002年愛知工業大学工学部情報通信工学科教授.現在に至る.自然言語処理,画像処理,感性情報処理の研究に従事.工学博士.電子情報通信学会,人工知能学会,言語処理学会,IEEE各会員.}\bioauthor{河合敦夫}{1980年名古屋大学理学部化学科卒業.1985年同大学大学院工学研究科博士課程修了.工学博士.同年日本電信電話(株)入社.1992年三重大学工学部情報工学科助教授,現在に至る.自然言語処理,色画像理解の研究に従事.情報処理学会,電子情報通信学会,言語処理学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V21N06-05 | \section{はじめに}
\label{SEC::INTRO}テキスト中に出現する述語の格構造を認識する処理は述語項構造解析や格解析などと呼ばれ,計算機によるテキスト理解のための重要な1ステップである.しかし,格構造を表現する際に使用される``格''には,述語の出現形\footnote{本論文では,能動形,受身形,使役形など,述語が実際にテキストにおいて出現した形のことを出現形と呼ぶ.}に対する表層格や,能動形に対する表層格,さらには深層格など複数の表現レベルが存在し,どの表現レベルを用いるべきかは使用するコーパス\footnote{京都大学テキストコーパス\cite{TAG}では出現形の表層格情報,NAISTテキストコーパス\cite{Iida2007}では能動形の表層格情報が付与されている.}やタスクにより異なっている.格構造を表層格で扱う利点としては,表層格はテキスト中に格助詞として明示的に出現することから``格''を定義する必要がないこと,述語ごとに取りうる格をコーパスから自動獲得することが可能なことなどが挙げられる.さらに,出現形に対する表層格で扱う利点としては,能動形では現れない使役文におけるガ格や一部の受身文のガ格を自然に扱えること,先行する述語のガ格の項が後続する述語でもガ格の項となりやすい\cite{Kameyama1986s,Nariyama2002s}などといった談話的な情報が自然に利用できることなどが挙げられる.特に後者はゼロ照応解析において重要な手掛りになることが知られており\cite{Iida2007T,Sasano2011},ゼロ照応の解決も含む述語項構造解析の高精度化のためには,格構造を出現形の表層格で扱うのが望ましいと考えられる.一方,テキストの意味を考える上では,出現形に対する表層格解析では不十分な場合がある.\begin{exe}\ex\label{EX::FRIEND}私が知り合いに誘われた.\ex\label{EX::PARTY}私がパーティーに誘われた.\end{exe}たとえば,(\ref{EX::FRIEND}),(\ref{EX::PARTY})のような文を考えると,出現形の表層格としては(\ref{EX::FRIEND})の「知り合い」と(\ref{EX::PARTY})の「パーティー」は同じニ格となっているが,前者は能動主体を表しており能動形ではガ格となるのに対し,後者は誘致先を表しており能動形においてもニ格となる.このような違いを認識することは情報検索や機械翻訳などといった多くの自然言語処理のアプリケーションにおいて重要となる\cite{Iida2007}.実際に,Google翻訳\footnote{http://translate.google.co.jp/,2014年5月10日実施.}を用いてこれらの文を英訳すると,(\ref{EX::FRIEND}$'$),(\ref{EX::PARTY}$'$)に示すようにいずれの文もニ格が誘致先を表すものとして翻訳される.このうち,(\ref{EX::FRIEND}$'$)に示した翻訳は誤訳であるが,これは(\ref{EX::FRIEND})の文と(\ref{EX::PARTY})の文におけるニ格の表す意味内容の違いを認識できていないため誤って翻訳されたと考えられる.\begin{exe}\exp{EX::FRIEND}Iwasinvitedtoanacquaintance.\label{EXE::FRIEND}\exp{EX::PARTY}Iwasinvitedtotheparty.\label{EXE::PARTY}\end{exe}また,文(\ref{EX::BOTH})は(\ref{EX::FRIEND}),(\ref{EX::PARTY})の2文が表す内容を含意していると考えられるが,出現形に対する表層格解析だけではこれらの含意関係を認識することはできない.このため,含意関係認識や情報検索などのタスクでは,能動形に対する表層格構造や深層格構造といった,より深い格構造を扱うことが望ましいと言える.\begin{exe}\ex知り合いが私をパーティーに誘った.\label{EX::BOTH}\end{exe}そこで,まず出現形における表層格の解析を行い,その結果をより深い格構造に変換することを考える.このような手順を用いることで,談話的な情報を自然に取り入れながら,含意関係認識や情報検索などのタスクにも有用な能動形格構造を扱うことができると考えられる.本研究ではこのうち特に受身形・使役形から能動形への格構造変換に焦点を当てる.受身形・使役形から能動形への格構造変換における格交替パターンの数は限定的であり人手で列挙することは容易である.しかし,文(\ref{EX::FRIEND}),(\ref{EX::PARTY})からも分かるように,述語と格が同じであっても同一の格交替パターンとなるとは限らない.同様に,項とその格が同じであっても同一の格交替パターンとなるとは限らない.たとえば,文(\ref{EX::FRIEND})と(\ref{EX::AWARD})のニ格はいずれも「知り合い」であるが,これらの文を能動形に変換した場合,文(\ref{EX::FRIEND})のニ格はガ格となるのに対し,文(\ref{EX::AWARD})のニ格は能動形においてもニ格のままである.\begin{exe}\ex奨励賞が知り合いに贈られた.\label{EX::AWARD}\end{exe}このため,受身形・使役形から能動形への格構造の変換を高精度に行うためには,述語・項・格の組み合わせごとに,どのような格交替パターンとなるかを記述した大規模な語彙知識が必要となると考えられる.そこで,本研究ではこのような語彙知識を大規模コーパスから自動獲得する手法を提案する.具体的には,格交替のパターンの数が限定的であること,および,対応する受身文・使役文と能動文の格の用例や分布が類似していることに着目し,人手で記述した少数の格交替パターンとWebから自動構築した大規模格フレームを用いることで,受身文・使役文と能動文の表層格の対応付けに関する知識の自動獲得を行う.また,自動獲得した知識を受身文・使役文の能動文への変換における格変換タスクに適用することにより,その有用性を示す.本論文の構成は以下の通りである.まず,2節で関連研究について概観した後,3節で受身・使役形と能動形間の格の交替パターンについて,4節でWebから自動構築した大規模格フレームについてそれぞれまとめる.続いて5節で提案する格フレームの対応付け手法について説明し,6節では実験を通してその有効性を示す.最後に7節で本論文のまとめを記す.
\section{関連研究}
Levin\citeyear{Levin1993}は態の交替現象に着目し,3,000以上の英語の動詞を共有する意味構成と構文的な振る舞いに基づくクラスに分類した.コーパスを用いた英語の動詞の自動分類に関する研究においても態の交替を手掛かりとして利用している研究が数多く存在している\cite{Lapata2004CL,Walde2008,Joanis2008,Li2008,Sun2009,Sun2013}.また,態の交替に関連してコーパスから得られる用例の分布類似度を利用した研究としてBaroniらの研究\cite{Baroni2010}がある.Baroniらはコーパスに基づく意味論の研究において,使役・能動交替を起こす動詞と起こさない動詞の分類にコーパスから得られる用例の分布類似度が有用であることを示している.日本語における受身形・使役形と能動形の格の変換を扱った研究としては,Baldwinらの研究\cite{Baldwin2000},近藤らの研究\cite{Kondo2001},村田らの研究\cite{Murata2002,Murata2008}が挙げられる.Baldwinら\cite{Baldwin2000}は日本語における受身・使役と能動形の交替を含む動詞交替の種類と頻度の定量的な分析を行っている.具体的には人手で記述した格フレーム辞書である日本語語彙大系\cite{NTT}の結合価辞書を解析し,格スロット間の選択制約を比較して動詞交替の検出を行っている.しかし,Baldwinらの研究の目的は動詞交替の定量的な分析であり,受身形・使役形の能動形への変換は行っていない.近藤ら\citeyear{Kondo2001}は単文の言い換えの1タイプとして,受身形から能動形の格の変換,および,使役形から能動形の格の変換を扱っており,動詞のタイプや格パターンなどをもとに作成したそれぞれ7種類,6種類の交替パターンを用いて格の変換を行っている.動詞のタイプとしては,「比較動詞」,「授受動詞」,「対称動詞」,「一般動詞」の4種類を定義しており,IPAL基本動詞辞書\cite{IPAL}をもとに1,564エントリからなる動詞辞書(VDIC辞書)を作成し使用している.また,村田ら\cite{Murata2002,Murata2008}は京都大学テキストコーパス\cite{TAG}の社説を除く約2万文において,受身形・使役形で出現した述語に係る格助詞を対象に,述語を能動形に変換した場合の格を付与した学習データを作成し,SVM\cite{SVM}を用いた機械学習により受身形・使役形と能動形の格を変換する手法を提案している.学習に使用する素性には,関係する動詞や体言,格助詞の出現形や品詞情報などといった情報に加え,IPAL基本動詞辞書やVDIC辞書から得られる情報を使用している.このように日本語文における格交替に関する研究では,人手で整備された大規模な語彙的リソースや人手で作成した大規模な学習データが利用されてきた.しかしながら,文(\ref{EX::FRIEND})と(\ref{EX::PARTY})のように述語と表層格が一致していても能動形における格が異なる場合があることからも分かるように,格の対応は述語ごと,用法ごとに異なっており,網羅的な対応付けに関する知識を人手で記述することは現実的ではないと言える.そこで本研究では格交替に関する大規模な語彙知識の自動獲得に取り組む.また,NAISTテキストコーパス\cite{Iida2007}では能動形の表層格情報が付与されていることから,NAISTコーパスを対象とした述語項構造解析やゼロ照応解析に関する研究\cite{Taira2008s,Iida2009,Imamura2009s,Yoshikawa2010,Hayashibe2014}は,受身・使役形で出現した述語の解析を行う際には格交替の解析も行っているとみなすことができる.しかし,これらの研究では素性の1つとして態に関する情報を考慮しているものの,格交替に関する語彙知識は使用していない.このため,能動形以外の態で出現した述語に対しては相対的に低い解析精度である可能性が高く\footnote{実際に,Iidaらからゼロ照応解析システム\cite{Iida2009}の提供を受け,NAISTテキストコーパスの社説を除く記事に適用した場合の精度(F値)は,\pagebreak能動形で出現した述語に対してはガ格,ヲ格,ニ格で,それぞれ0.358,0.110,0.014であったのに対し,受身・使役形で出現した述語に対しては0.113,0.034,0.021であった.ニ格に対しては後者の方が僅かに高い精度であったものの,全体の80\%以上を占めるガ格に対しては後者の方が大幅に低い精度であり,全体として能動形以外の態で出現した述語に対しては低い解析精度であった.},本研究で獲得を行う格交替に関する知識は有用な情報になると考えられる.
\section{格の交替パターン}
\label{SEC::PATTERN}受身文・使役文における表層格と,対応する能動文の表層格の対応はいくつかのパターンで記述できる.本節では受身文と能動文,使役文と能動文,それぞれの表層格の交替パターンについて述べる.\subsection{受身文と能動文の格の交替パターン}受身文は,何を主語として表現するかによって,直接受身文,間接受身文,持ち主の受身文の3つのタイプに分けられる\cite{GendaiNihongo4}.直接受身文とは,対応する能動文でヲ格やニ格で表される人や物を主語として表現する受身文であり,以下の(\ref{EX::SIRI})〜(\ref{EX::SIMERU})に示すように能動主体は基本的に「に」,「によって」,「から」,「で」のいずれかにより表される.また,直接受身文でガ格として表される名詞は,基本的に能動文のヲ格,または,ニ格のいずれかに対応している\footnote{直接受身文「私が彼に本を取られた.」と能動文「彼が私から本を取った.」のように,直接受身文でガ格として表される名詞が,能動文のカラ格に対応している場合も考えられる.しかし,このような事例は少ないと考えられることから本研究では考慮しない.実際に,本研究における実験で使用したNICT格助詞変換データVersion1.0にはこのような用例は1つも含まれていなかった.}.\begin{exe}\ex{\footnotesize\textbf{[受身形]}\hspace{-0.5zw}:}私\underline{が}知り合い\unc{に}誘われた.\label{EX::SIRI}\sn{\footnotesize\textbf{[能動形]}\hspace{-0.5zw}:}知り合い\unc{が}私\underline{を}誘った.\ex{\footnotesize\textbf{[受身形]}\hspace{-0.5zw}:}原因\underline{が}研究\unc{によって}解明された.\label{EX::SHOUMEI}\sn{\footnotesize\textbf{[能動形]}\hspace{-0.5zw}:}研究\unc{が}原因\underline{を}解明した.\ex{\footnotesize\textbf{[受身形]}\hspace{-0.5zw}:}私\underline{が}彼\unc{から}頼まれた.\label{EX::TANOMI}\sn{\footnotesize\textbf{[能動形]}\hspace{-0.5zw}:}彼\unc{が}私\underline{に}頼んだ.\ex{\footnotesize\textbf{[受身形]}\hspace{-0.5zw}:}大半\underline{が}推進派\unc{で}占められた.\label{EX::SIMERU}\sn{\footnotesize\textbf{[能動形]}\hspace{-0.5zw}:}推進派\unc{が}大半\underline{を}占めた.\end{exe}間接受身文とは,対応する能動文の表す事態には直接的に関わっていない人物を主語とし,その人物が事態から何らかの影響を被っていることを表現する受身文であり,迷惑の受身文とも呼ばれる.(\ref{EX::SAWAGU})に示すように間接受身文の能動主体は基本的に「に」によって表され,間接受身文でガ格として表される名詞は能動文では出現しない.\clearpage\begin{exe}\ex{\footnotesize\textbf{[受身形]}\hspace{-0.5zw}:}太郎\underline{が}雨\unc{に}降られた.\label{EX::SAWAGU}\sn{\footnotesize\textbf{[能動形]}\hspace{-0.5zw}:}雨\unc{が}降った.\end{exe}持ち主の受身文とは,ヲ格やニ格などで表されていた物の持ち主を主語とし,能動文で主語として表されていた名詞を主語でない項として表現する受身文である.(\ref{EX::NUSUMU})に示すように持ち主の受身文の能動主体は基本的に「に」によって表され,持ち主の受身文でガ格として表される名詞は能動文ではヲ格やニ格の名詞句にノ格で係る名詞句として出現する.\begin{exe}\ex{\footnotesize\textbf{[受身形]}\hspace{-0.5zw}:}友人\underline{が}泥棒\unc{に}カードを盗まれた.\label{EX::NUSUMU}\sn{\footnotesize\textbf{[能動形]}\hspace{-0.5zw}:}泥棒\unc{が}友人\underline{の}カードを盗んだ.\end{exe}以上のように,受身文には3つのタイプがあるものの,いずれの場合も格交替が起こるのは能動文においてガ格で表現される要素と受身文においてガ格で表現される要素のたかだか2つである.また,前者は受身文において「に」,「によって」,「から」,「で」のいずれかによって表され,後者は能動文において「を」,「に」,「の」のいずれかによって表されるか出現しないかである.したがって,受身文と能動文の格の対応付けを行う際は,これらの組み合わせからなる格の交替パターンを考えれば十分であると言える.\subsection{使役文と能動文の格の交替パターン}使役文と能動文の格の対応付けも述語と項の組み合わせを考慮して行う必要がある.たとえば,(\ref{EX::STUDENT}),(\ref{EX::SCHOOL})のような文を考えると,出現形の表層形としては(\ref{EX::STUDENT})の「生徒」と(\ref{EX::SCHOOL})の「学校」は同じニ格となっているが,前者は能動主体を表しており能動形ではガ格となるのに対し,後者は目的地を表しており能動形においてもニ格のままである.このため,使役文と能動文の間の格の交替パターンについても,どのような格の交替パターンを考えれば良いか考察を行う.\begin{exe}\ex先生が生徒に行かせた.\label{EX::STUDENT}\ex先生が学校に行かせた.\label{EX::SCHOOL}\end{exe}まず,一般的な使役文では,対応する能動文に含まれていない人や物がガ格となり,能動文の表す事態の成立に影響を与える主体として表現され,能動主体は「を」,または,「に」で表される\cite{GendaiNihongo4}.たとえば,以下の例では,能動文に含まれていない「先生」が,使役文におけるガ格として出現しており,能動主体である「生徒」は使役文ではそれぞれ「を」,「に」によって表されている.\begin{exe}\ex{\footnotesize\textbf{[使役形]}\hspace{-0.5zw}:}先生\underline{が}生徒\unc{を}行かせる.\label{EX::SEITO-WO}\sn{\footnotesize\textbf{[能動形]}\hspace{-0.5zw}:}生徒\unc{が}行く.\ex{\footnotesize\textbf{[使役形]}\hspace{-0.5zw}:}先生\underline{が}生徒\unc{に}行かせる.\label{EX::SEITO-NI}\sn{\footnotesize\textbf{[能動形]}\hspace{-0.5zw}:}生徒\unc{が}行く.\end{exe}ただし,頻度は多くないものの,以下のように感情や思考を表す動詞から使役文が作られる場合には,能動文においてニ格やヲ格で表される原因が使役文でガ格として表現される場合がある.しかし,このような用例は少ない\footnote{本研究における実験で使用したNICT格助詞変換データVersion1.0ではこのような用例は1例のみであった.}ことから,本研究ではこのような対応付けは考慮しない.\begin{exe}\ex{\footnotesize\textbf{[使役形]}\hspace{-0.5zw}:}彼の発言\underline{が}社長\unc{を}喜ばせた.\label{EX::STUDY}\sn{\footnotesize\textbf{[能動形]}\hspace{-0.5zw}:}社長\unc{が}彼の発言\underline{に}喜んだ./社長\unc{が}彼の発言\underline{を}喜んだ.\end{exe}以上のように,使役文と能動文の格の対応付けも複数の格の交替パターンが考えられるが,受身文から能動文の格の対応付けの場合と同様に,格交替が起こるのは能動文においてガ格で表現される要素と使役文においてガ格で表現される要素のたかだか2つである.さらに,能動文でガ格として表される要素は使役文においては「に」,「を」のいずれかによって表され,使役文においてガ格で表現される要素は基本的に能動文には出現しないことから,能動文でガ格として表される要素が使役文において「に」で表されるか「を」で表されるかの曖昧性を考慮するだけで十分であると言える.
\section{Webから自動構築した大規模格フレーム}
\label{SEC::FRAME}本研究では述語ごとの格構造に関する大規模語彙知識として,河原らの手法\cite{Kawahara2005}を用いてWebテキスト69億文から自動構築した格フレームを使用する.このWebテキストは,約10億のWebページから日本語文を抽出し,重複する文を除いた結果得られたものである.河原らの手法では格フレームは述語ごとに,また,能動形,受身形,使役形などの出現形ごとに,さらに用法ごとに別々に構築され,それぞれ取りうる格とその用例,および,各用例の出現回数がまとめられる.この際,河原らは述語の直前の格の用例が同じである場合,多くは同じ用法であることを利用し,用法の曖昧性に対処している.具体的には,まず,「荷物を積む」や「物資を積む」,「経験を積む」などのように述語とその直前の格の用例の組を単位として個別に格フレームを構築し,続いて「荷物を積む」と「物資を積む」のように類似する格フレームをマージすることにより,用法ごとに別々の格フレームを構築している.たとえば「誘われる」という述語・出現形に対しては47個の格フレームが構築されており,その中には(\ref{EX::FRAME1})のようにニ格が能動主体を表す格フレーム\footnote{本論文では格フレームを示す場合,主要な格,用例のみを抜粋して示す.また,用例の後の数字はその用例の出現回数を表す.}と,(\ref{EX::FRAME2})のようにニ格が誘致先を表す格フレームが含まれている\footnote{実際には複数の用法が混ざった格フレームも構築される.たとえば,接尾辞「れる/られる」には受身,尊敬,自発,可能など複数の意味が考えられるが,これら複数の用法が混ざった格フレームも構築されている.}.\begin{exe}\ex{\footnotesize\textbf{「誘われる」の格フレーム1:}}\label{EX::FRAME1}\sn\{私:5,自分:3,母親:2,女性:2,彼氏:2,…\}\textbf{が}\sn\{食事:49,御飯:36,ランチ:21,映画:17,…\}\textbf{を}\sn\{友達:9536,友人:5856,人:2443,先輩:1695,…\}\textbf{に}誘われる\ex{\footnotesize\textbf{「誘われる」の格フレーム2:}}\label{EX::FRAME2}\sn\{俺:10,私:9,友達:7,人:5,彼氏:5,…\}\textbf{が}\sn\{友達:300,人:221,男性:211,友人:168,…\}\textbf{から}\sn\{食事:3710,デート:3180,飲み:3159,パーティー:1948,…\}\textbf{に}誘われる\end{exe}同様に,「誘う」という述語・出現形に対しては(\ref{EX::FRAME3})に示す格フレームを含む9個の格フレームが構築されており,たとえば(\ref{EX::FRAME2})に示した「誘われる」の格フレームのガ格,カラ格,ニ格を,それぞれヲ格,ガ格,ニ格に対応付けることができれば,格構造の変換に有用な知識になると考えられる.\begin{exe}\ex{\footnotesize\textbf{「誘う」の格フレーム1:}}\label{EX::FRAME3}\sn\{私:50,男性:48,彼女:43,セラピスト:43,彼:41,…\}\textbf{が}\sn\{友達:16019,私:8908,人:7898,友人:6622,…\}\textbf{を}\sn\{デート:1325,食事:804,世界:822,遊び:502,…\}\textbf{に}誘う\end{exe}また,格として収集する対象としては格助詞を伴って直接述語に係る要素に加えて,「によって」などの一部の複合辞や,持ち主の受身文のガ格になりうることから,述語の直前項にノ格で係る要素も収集の対象としている.このためこれらの表現も格と同等に扱っており,(\ref{EX::FRAME4}),(\ref{EX::FRAME5})のように,これらの表現に相当する格スロットが生成される.本論文ではこれらの格を便宜上,ニヨッテ格,ノ格と呼ぶ.\begin{exe}\ex{\footnotesize\textbf{「解明される」の格フレーム1:}}\label{EX::FRAME4}\sn\{謎:1998,メカニズム:804,原因:734,…\}\textbf{が}\sn\{研究:29,生物学:27,進歩:15,…\}\textbf{によって}解明される\pagebreak\ex{\footnotesize\textbf{「盗む」の格フレーム3:}}\label{EX::FRAME5}\sn\{子供:23,誰:16,泥棒:8,…\}\textbf{が}\sn\{親:165,人:98,家:58,…\}\textbf{の}\sn\{金:4163,現金:951,金品:681,…\}\textbf{を}盗む\end{exe}
\section{格フレームの対応付け}
\label{SEC::PROPOSED}本研究では,受身形・使役形の格フレームを対応する能動形の格フレームと適切に対応付けることを目的とする.1つの述語に対し複数の格フレームが構築されることから,ある受身形・使役形の格フレームが与えられた場合,複数ある能動形の格フレームから最適な格フレームを選択した上で,それぞれの格フレームに含まれる格同士を適切に対応付ける必要がある.図\ref{FIG::TaskDef}に対応付けの例を示す.図\ref{FIG::TaskDef}の例では,受身形「誘われる」の格フレーム2が入力として与えられた結果,能動形「誘う」の格フレームの中から格フレーム1が選択され,「誘われる」の格フレーム2のガ格,カラ格,ニ格はそれぞれ「誘う」の格フレーム1のヲ格,ガ格,ニ格に対応付けられている.\begin{figure}[b]\begin{center}\includegraphics{21-6ia5f1.eps}\caption{受身形・使役形と能動形格フレームの対応付けの例}\label{FIG::TaskDef}\end{center}\end{figure}\subsection{対応付けアルゴリズム}出現形格フレームが与えられた場合に,それを能動形格フレームに対応付けるアルゴリズムを表\ref{TABLE::ALG}に示す.まず,能動形格フレーム$cf_{active}$と,出現形のガ格が対応付けられる能動形の格$c_{ga\_to}$,能動形のガ格に対応付けられる出現形の格$c_{to\_ga}$の考えうるすべての組み合わせ$A=$\{$cf_{active},c_{ga\_to},c_{to\_ga}$\}を生成し,その中から以下の式で定義されるスコアが最大となる組み合わせ$A$を出力する.この際,$c_{ga\_to}$と$c_{to\_ga}$が事前に作成した格交替パターンを満たすような組み合わせのみを考慮する.また,対応付けられる格がない場合は$c_{ga\_to}$,$c_{to\_ga}$としてNILを与える.\\\\vspace{-5ex}\begin{equation}\mathit{score}=\operatorname{sim}_{_\mathit{SEM}}(A)\times\operatorname{sim}_{_\mathit{DIST}}(A)^\alpha\timesf_{_\mathit{PP}}(A)\label{EQ::SCORE}\end{equation}\begin{table}[t]\caption{能動形格フレームへの対応付けアルゴリズム}\label{TABLE::ALG}\input{05table01.txt}\end{table}式(\ref{EQ::SCORE})において,$\operatorname{sim}_{_\mathit{SEM}}(A)$,$\operatorname{sim}_{_\mathit{DIST}}(A)$,$f_\mathit{pp}(A)$はそれぞれ,対応する格の用例集合間の意味的な類似度,対応する格の出現頻度の分布の類似度,格交替パターンの起こりやすさを表しており,本研究ではこれら3つの手掛かりを利用し格の対応付けを行う.各指標をどのように計算するかについては次節で述べる.$\alpha$は出現頻度の分布の類似度$\operatorname{sim}_{_\mathit{DIST}}(A)$を用例集合間の意味的な類似度$\operatorname{sim}_{_\mathit{SEM}}(A)$に対してどのくらい重視するかを決めるパラメータであり,その値は開発データを用いて決定する.格交替パターンの起こりやすさを表す$f_\mathit{pp}(A)$に関しては同様のパラメータが出現していないのは$f_\mathit{pp}(A)$自体が開発データを用いて決定される重みによって構成される関数であり,他の指標に対してどのくらい$f_\mathit{pp}$を重視するかは既に考慮されているためである.また,計算時間を短縮するため,事前に作成した格交替パターンに含まれないような不適切な格対応の組み合わせはスコア計算前にフィルタリングする(表\ref{TABLE::ALG}のアルゴリズム中の5行目).具体的には,格変換の結果,同一の格が重複してしまう場合や,受身形格フレームにヲ格が存在しない場合に受身形ガ格の変換先としてノ格が選択された場合などはここでフィルタリングされる.さらに,能動形の格フレームは出現頻度順にソートし,頻度の大きいものから順に対応付けを行っていき,全体の80\%をカバーした時点でもっともスコアが大きくなる組み合わせを出力する.対応する格の意味的な類似度$sim_{SEM}$を計算する際も,それぞれの格の用例のうち頻度上位40用例のみから類似度を計算することで計算時間を短縮する.\subsection{対応付けの手掛かり}本節では格フレームの対応付けの手掛かりとして使用する3つの指標について,それらの指標を用いる理由,および,その計算方法を説明する.\subsubsection*{1.対応する格の用例集合間の意味的な類似度:$\boldsymbol{\operatorname{sim}_\mathit{SEM}}$}出現形と能動形格フレームの間で対応する格の用例は類似していると考えられる.そこで,対応する格の用例集合間の意味的な類似度を対応付けの手掛かりの1つとして利用する.まず,格の用例集合$C_1$,$C_2$間の意味的な類似度$\operatorname{sim}_s(C_1,C_2)$を,ある単語と共起する単語の分布の類似度から計算された単語間の分布類似度$\operatorname{sim}(w_1,w_2)$を用い,以下の式により計算する.\begin{gather*}\operatorname{sim}_s(C_1,C_2)=\frac{1}{2}(\operatorname{sim}_a(C_1,C_2)+\operatorname{sim}_a(C_2,C_1))\\\text{ただし}\quad\operatorname{sim}_a(C_1,C_2)=\frac{1}{|C_1|}\sum_{w_1\in{C}_1}\max_{w_2\inC_2}(\operatorname{sim}(w_1,w_2))\end{gather*}本研究では,単語間の分布類似度として,柴田らの手法\cite{Shibata2009}に基づき,格フレーム構築に使用したWebテキスト69億文から計算した類似度を使用した.また,$\operatorname{sim}_a(C_1,C_2)$は,用例集合$C_1$に含まれる用例$w_1$ごとに,用例集合$C_2$中でもっとも類似している用例$w_2$との類似度の平均を表しており\footnote{用例集合$C_1$,$C_2$は単語の種類ではなく単語の各出現を要素としている.したがって類似度$\operatorname{sim}_a(C_1,C_2)$は単語の種類単位で考えると出現頻度で重み付けされていることになる.},引数$C_1$,$C_2$に関して非対称な(asymmetric)式となっている.一方,$\operatorname{sim}_s(C_1,C_2)$は$\operatorname{sim}_a(C_1,C_2)$の引数を入れ替えて,その平均を取ったものであり,引数$C_1$,$C_2$に関して対称な(symmetric)式となっている.続いて,格フレームの対応付け$A=$\{$cf_{active},c_{ga\_to},c_{to\_ga}$\}に対する意味的な類似度$\operatorname{sim}_{SEM}$を,以下に示すように対応付けられた格の用例集合間の類似度の平均として定義する.\[\operatorname{sim}_{SEM}(A)=\frac{1}{N}\sum_{i=1}^{N}\operatorname{sim}_s(C_{1,i},C_{2,a(i)})\]ここで,$C_{1,i}$は対応元格フレームにおける$i$番目の格の用例集合,$C_{2,a(i)}$は$i$番目の格が対応付けられた対応先格フレームの格の用例集合を表している.すなわち,$i$番目の格がガ格である場合は$C_{2,a(i)}$は対応先格フレームの格$c_{ga\_to}$の用例集合,$i$番目の格が$c_{to\_ga}$である場合は$C_{2,a(i)}$は対応先格フレームのガ格の用例集合,それ以外の場合は同一の格が対応先格フレームに存在すればその格の用例集合となる.ただし,$c_{ga\_to}$がNILである場合など,対応する格が対応先格フレームに存在しない場合は,$C_{2,a(i)}$は空集合とし,$\operatorname{sim}_s(C_{1,i},C_{2,a(i)})=0$として計算する.たとえば,図\ref{FIG::TaskDef}に示したような格フレームの対応に対しては,「誘われる」の格フレーム2のガ格,カラ格,ニ格の用例集合に対し,それぞれ「誘う」の格フレーム1のヲ格,ガ格,ニ格の用例集合との$\operatorname{sim}_s$を求め,その平均を$\operatorname{sim}_{SEM}$として使用する.\subsubsection*{2.対応する格の出現頻度の分布の類似度:$\boldsymbol{\operatorname{sim}_\mathit{DIST}}$}類似度$\operatorname{sim}_{DIST}$は対応する格同士の出現頻度の分布は似ているという仮定に基づく指標であり,以下のようにベクトル$(|C_{1,1}|,|C_{1,2}|,\dots,|C_{1,N}|)$とベクトル$(|C_{2,a(1)}|,|C_{2,a(2)}|,\dots,|C_{2,a(N)}|)$の余弦類似度として定義する.\[\operatorname{sim}_{_{DIST}}(A)=\cos((|C_{1,1}|,\dots,|C_{1,N}|),(|C_{2,a(1)}|,\dots,|C_{2,a(N)}|))\]\begin{exe}\ex{\footnotesize\textbf{「選ばれる」の格フレーム1:}}\label{EX::ERABA}\sn\{選手:1119,作品:983,私:232,…\}{\footnotesize[用例数合計:17722]}\textbf{が}\sn\{代表:18295,選手:9661,百選:7024,…\}{\footnotesize[用例数合計:122273]}\textbf{に}\sn\{作品:5,市長:3,選手:2,…\}{\footnotesize[用例数合計:96]}\textbf{を}選ばれる\ex{\footnotesize\textbf{「選ぶ」の格フレーム13:}}\label{EX::ERABU}\sn\{私:22,先生:18,誰:14,…\}{\footnotesize[用例数合計:382]}\textbf{が}\sn\{優秀賞:42,シングル:17,自由曲:17,…\}{\footnotesize[用例数合計:800]}\textbf{に}\sn\{曲:16666,作品:9967,漫画:3820,…\}{\footnotesize[用例数合計:33338]}\textbf{を}選ぶ\end{exe}例として,(\ref{EX::ERABA})に示す「選ばれる」の格フレーム1を(\ref{EX::ERABU})に示す「選ぶ」の格フレーム13に対応付ける場合を考える.対応する格の用例集合間の意味的な類似度$\operatorname{sim}_{SEM}$を計算すると\mbox{\{ガ格$\rightarrow$}ニ格,ニ格$\rightarrow$ガ格,ヲ格$\rightarrow$ヲ格\}という対応付け$A_1$の方が,\{ガ格$\rightarrow$ヲ格,ニ格$\rightarrow$ニ格,ヲ格$\rightarrow$NIL,NIL$\rightarrow$ガ格\}という対応付け$A_2$よりも高いスコアとなる.しかし,対応する格の出現頻度の分布の類似度を計算すると,前者は$(17722,122273,96)$と$(800,382,33338)$の余弦類似度,後者は$(17722,122273,96,0)$と$(33338,800,0,382)$の余弦類似度となり,以下に示すとおり後者の方がはるかに大きな値となることから,$\operatorname{sim}_{SEM}$だけでなく$\operatorname{sim}_{DIST}$も考慮することで,最終的に後者の対応付けの方が優先して選択されるようになる\footnote{ただし,「選ばれる」の格フレーム1のヲ格は尊敬の意味で使用された「選ばれる」の用例から生成されたものであり,「選ぶ」の格フレーム13のヲ格と対応付けることは必ずしも誤りとは言えない.この点については\ref{SEC::EVAL}節で考察する.}.\newpage\begin{gather*}\operatorname{sim}_{_{DIST}}(A_1)=\cos((17722,122273,96)(800,382,33338))\approx0.016\\\operatorname{sim}_{_{DIST}}(A_2)=\cos((17722,122273,96,0),(33338,800,0,382))\approx0.167\end{gather*}\subsubsection*{3.格交替パターンの起こりやすさ:$\boldsymbol{f_{pp}}$}格交替パターンの起こりやすさも重要な手掛りとなると考えられる.たとえば,村田ら\cite{Murata2008}が受身文から能動文への変換における格助詞の変換実験に使用したデータ\footnote{NICT格助詞変換データVersion1.0:http://alaginrc.nict.go.jp/case/src/kaku1.0.tar.gz}では,受身形におけるガ格の96.47\%が能動形ではヲ格となっているのに対し,受身形におけるニ格のうち能動形でガ格となるものは27.38\%となっており,交替パターンにより起こりやすさが異なることが分かる.そこで本研究では,以下の式により定義される格交替パターンの選好$f_{pp}$を対応付けの手掛かりとして考慮する.\begin{equation}f_{_\mathit{PP}}(A)=w(ガ\rightarrowc_\mathit{ga\_to})\timesw(c_\mathit{to\_ga}\rightarrowガ),\label{EQ::SP}\end{equation}ここで,$c_\mathit{ga\_to}$は出現形のガ格が対応付けられる能動形の格,$c_\mathit{to\_ga}$は能動形のガ格に対応付けられる出現形の格を表しており,$w(c_1\rightarrowc_2)$は出現形の$c_1$格が能動形で格が交替し$c_2$格となる度合いを表す.$w(c_1\rightarrowc_2)$は大きいほどその格交替が発生しやすいことを表し,その値は格交替の正解がタグ付けされたデータを開発データとして用い決定する.ここで,出現形のガ格,または,能動形のガ格を含む格交替のみを考慮しているのは,\ref{SEC::PATTERN}節で述べたように,本研究で対象とする受身形・使役形から能動形への格構造変換ではこれら以外の格が交替することは基本的にないためである.
\section{自動獲得した対応付け知識の評価}
\label{SEC::EVAL}本節では実験により提案手法の有効性を確認する.具体的には,提案手法を用いて自動獲得した受身・使役形の格フレームと能動形の格フレームの対応付け知識が,受身・使役文から能動文への変換における格交替を推定するタスクにおいて有用であることを示すことにより,提案手法の有効性を確認する.\subsection{評価方法の概要}\label{SEC::EVA_ABS}\ref{SEC::FRAME}節で述べたように,本研究で使用する大規模格フレームはコーパスから自動構築されたものであるため,同じ用法の格フレームが複数構築されている場合や,複数の用法が混在した格フレームが含まれている場合がある.このため,対応付け知識そのものを定量的に評価するのは難しい.たとえば,(\ref{EX::FRAME6})に示す「誘われる」の格フレーム4のニ格には能動主体を表す用例と招致先を表す用例が混在しているため,仮にこの格フレームのニ格が\ref{SEC::FRAME}節に示した「誘う」の格フレーム1のガ格に対応付けられたとしても,それが正しいかどうかは一概には言えない.同様に,\ref{SEC::PROPOSED}節の(\ref{EX::ERABA})に示した「選ぶ」の格フレーム1のヲ格は,尊敬の意味で使用された「選ばれる」の用例から生成されたものであり,仮にこの格が(\ref{EX::ERABU})に示した「選ぶ」の格フレーム13のヲ格と対応付けられたとしても必ずしも誤りとは言えない.そこで本研究では,格フレームの対応付け結果そのものを評価するのではなく,自動獲得された対応付け知識の実タスクにおける有用性を示すことで,提案手法の有効性を確認する.\begin{exe}\ex{\footnotesize\textbf{「誘われる」の格フレーム4:}}\label{EX::FRAME6}\sn\{私:2,主人公:1,友達:1,妹:1,女の子:1,…\}\textbf{が}\sn\{姉:8,展示会:7,娘:6,説明会:6,皆:6,…\}\textbf{に}誘われる\end{exe}具体的には,受身・使役文から能動文への変換における格交替を推定するタスクを考える.すわなち,たとえば(\ref{EX::TOMO})のような受身文が入力された場合に,受身文におけるガ格,ニ格がそれぞれ能動文ではヲ格,ニ格として表されることを推定するタスクを考え,格フレームの対応付け知識を用いることで推定精度が向上することを示す.\begin{exe}\ex友達\underline{が}食事\underline{に}誘われた.\label{EX::TOMO}\end{exe}\subsection{実験に使用するデータ}\label{SEC::DATA}実験にはNICT格助詞変換データVersion1.0を使用する.このデータは村田ら\cite{Murata2002,Murata2008}が実験に使用したデータであり,京都大学テキストコーパス\cite{TAG}の社説を除く約2万文において,受身形または使役形で出現した述語に係る格助詞を1事例として,述語を能動形に変換した場合の格を人手で付与したデータとなっている.ただし,受身形と能動形の格フレームの対応付け知識,使役形と能動形の格フレームの対応付け知識をそれぞれ適切に評価できるように,以下に述べるような変更・抜粋を行った上で使用する.まず,受身文と能動文の変換実験のデータとしては,基本的にNICT格助詞変換データに含まれる``受身文の能動文への変換における格助詞変換データ''\cite{Murata2008}を使用する.ただし,村田らの実験設定では持ち主の受身文においてガ格で表される名詞の能動文における格としてノ格を認めておらず,カラ格またはヲ格となっているため,持ち主の受身文のガ格と考えられる5事例の変換後の格をノ格に変更した.また,それ以外にも誤っていると考えられる16事例に修正を加えて使用した.本データは,受身文に出現した格助詞をそれぞれ1つの事例とし全部で3,576事例からなっている.村田らはこのデータを1,788個ずつに分け,それぞれクローズドデータ,オープンデータと呼んでいる.本研究でも村田らと同様に分割し,評価の際には2分割交差検定を行う.また,このデータの一部には複数の格が正解として付与されている事例があるが,本研究では正解として付与されている格のうち1つ,または,その両方を出力できれば正解とみなすという評価基準を採用する.これは村田らの論文\cite{Murata2008}における評価Bに相当する.使役文と能動文の変換実験のデータとしては,基本的にNICT格助詞変換データに含まれる\mbox{``使}役文・受身文の能動文への変換における格助詞変換データ''\cite{Murata2002}の全4,671事例から使役文に出現した524事例を抜き出して使用する.ただし,「退学させられた」などの使役受身文については,通常の使役文と格交替の起こり方が異なるため524事例には含めなかった.受身文と能動文の変換実験のデータの場合と同様に,もともと付与されている格が誤っていると考えられる39事例に修正を加え,評価の際には2分割交差検定を行う.\subsection{実験設定}\subsubsection{考慮する格の交替パターン}\ref{SEC::PATTERN}節で行った分析に基づき,受身形格フレームと能動形格フレームの格交替のパターンとしては以下の組み合わせのみを考慮する.\begin{itemize}\item受身形のガ格の対応先の候補:ヲ格,ニ格,ノ格,対応なし(NIL)\item能動形のガ格の対応先の候補:ニ格,ニヨッテ格,カラ格,デ格,対応なし(NIL)\end{itemize}これらの各候補は表\ref{TABLE::ALG}の3行目の$c_\mathit{ga\_to}$,および,4行目の$c_{to\_ga}$の候補となる.ただし,一方の格フレームの複数の格が,もう一方の格フレームの1つの格に対応付けられるような交替パターンは認めない.同様に,使役形格フレームと能動形格フレームの格の交替パターンとしては以下の組み合わせのみを考慮する.\begin{itemize}\item使役形のガ格の対応先の候補:対応なし(NIL)\item能動形のガ格の対応先の候補:ニ格,ヲ格\end{itemize}\subsubsection{正解データの使用方法}正解が付与されたデータを格交替推定時にどのように使用するかについては,正解データを使用しない,開発データとして使用する,開発データ・学習データとして使用する,という3つの設定を用いる.以下ではそれぞれの設定について詳述する.\paragraph{正解データを使用しない}格交替推定に正解データを使用しない場合は,使用できる開発データがないことになるため\ref{SEC::PROPOSED}節の式(\ref{EQ::SCORE})の$\alpha$,および,$f_\mathit{pp}$はいずれも1に固定し,以下の式が最大となる組み合わせを,格フレームの対応付け結果として出力する.\[\mathit{score}=\operatorname{sim}_{_\mathit{SEM}}(A)\times\operatorname{sim}_{_\mathit{DIST}}(A)\]その上で,得られた対応付け知識を用い,以下の手順で能動形における格の推定を行う.\begin{enumerate}\item格フレームに基づく構文・格解析器であるKNP\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP}\hspace{-0.2em}を用いて入力文の格解析を行う\footnote{KNPで使用する格フレームには受身・使役形と能動形の対応付けに用いたものと同一の格フレームを使用した.}.KNPは格解析を行う際,入力文中の各動詞に対し,その出現形の格フレームの集合の中から適切な格フレームを1つ選択し,その動詞に係る項と格スロットの対応付けを行う.\item格フレームの対応付け情報を利用し,受身・使役文の格を能動文における格に変換する.この際,出現格がニ格であった場合でも,格解析の結果,時間格や修飾格に対応付けられている場合は,格変換を行わない.\end{enumerate}本論文ではこのモデルを\textbf{モデル1}と呼ぶ.たとえば,\ref{SEC::EVA_ABS}節に示した文(\ref{EX::TOMO})が入力され,さらに,「誘われた」のガ格,および,ニ格がそれぞれ\ref{SEC::PROPOSED}節の図\ref{FIG::TaskDef}に示した受身形「誘われる」の格フレーム2のガ格,ニ格にそれぞれ割り当てられたとすると,これらの格はそれぞれ能動形「誘う」の格フレーム1のヲ格,ニ格に対応付けられていることから,能動文における格はそれぞれヲ格,ニ格であると出力される.\paragraph{開発データとして使用}続いて\ref{SEC::PROPOSED}節の式(\ref{EQ::SCORE})の$\alpha$,および,$f_{pp}$の値の調整に正解データを使用する場合について説明する.この実験設定では,\ref{SEC::DATA}節で説明したように正解データを2分割し,一方を開発データ,もう一方をテストデータとした実験を,データの役割を入れ替え2度繰り返す.式(\ref{EQ::SP})中の$w(ga\rightarrowc_\mathit{ga\_to})$,$w(c_\mathit{to\_ga}\rightarrowga)$,および,式(\ref{EQ::SCORE})中の$\alpha$は山登り法により決定する.具体的には,たとえば,受身形と能動形の格フレームの対応付けを行う際は,$c_\mathit{ga\_to}$の候補はニ格,ニヨッテ格,カラ格,または,対応なし(NIL),$c_\mathit{to\_ga}$の候補は,ヲ格,ニ格,ノ格,対応なし(NIL)であることから,以下のようなパラメータベクトル$\mathbf{x}$を定義し,表\ref{TABLE::TUNE}に示すアルゴリズムにより値を決定する.\begin{align*}\mathbf{x}&=(w(ガ\rightarrowニ),w(ガ\rightarrowニヨッテ),w(ガ\rightarrowカラ),w(ガ\rightarrowデ),w(ガ\rightarrow\operatorname{NIL}),\\&\quadw(ヲ\rightarrowガ),w(ニ\rightarrowガ),w(ノ\rightarrowガ),w(\operatorname{NIL}\rightarrowガ),\alpha)\end{align*}ここで,表\ref{TABLE::TUNE}中の$f_{accuracy}(\mathbf{x})$は,あるパラメータベクトル$\mathbf{x}$が与えられた場合に,その$\mathbf{x}$の値を用いて格フレームの対応付けを行い,その結果を開発データに適用し得られた格変換の精度を返す関数である.このアルゴリズムはパラメータを1つずつ順に0.1刻みで更新していき,$f_\mathit{accuracy}(\mathbf{x})$が大きくなるようにパラメータを更新していくという手順を,$f_\mathit{accuracy}(\mathbf{x})$の値に変化がなくなるまで繰り返す山登り法に基づくアルゴリズムとなっている.本実験設定では,開発データを利用し最終的に得られたパラメータを用いて格フレームの対応付けを行い,得られた対応付け知識を用いてモデル1と同様の手順で能動形における格の推定を行う.本論文では,このモデルを\textbf{モデル2}と呼ぶ.\begin{table}[b]\caption{パラメータベクトルの調整アルゴリズム}\label{TABLE::TUNE}\input{05table02.txt}\end{table}\paragraph{開発データ・学習データとして使用}開発データとして使用したデータを学習データとしても使用し格交替の推定モデルを生成する.学習の方法は基本的にSVMに基づく村田ら\cite{Murata2002,Murata2008}と同様の方法で行い,モデル2の手法による格の推定結果を新たに素性として追加する.使用した素性の詳細については次節以降で説明する.本論文では,このモデルを\textbf{モデル3}と呼ぶ.\subsection{受身文と能動文の変換実験}\subsubsection{学習データを使用しない場合(モデル1・モデル2)}\begin{table}[b]\caption{受身文から能動文への変換における格交替推定実験の結果(学習データを使用しない場合)}\label{TABLE::RESULT1}\input{05table03.txt}\end{table}正解データを学習データとして使用しない設定における受身文から能動文への変換における格交替推定実験の結果を表\ref{TABLE::RESULT1}に示す.ベースラインとしては村田ら\citeyear{Murata2008}と同様に,各格助詞ごとに最も頻度の高い変換後の格を出力する方法(最頻変換)を使用した.最頻変換の結果が村田らの報告にある0.882より高くなっているが,これはデータに修正を加えたためである.また,対応する格の用例集合の意味的な類似度$\operatorname{sim}_{_\mathit{SEM}}$と,対応する格の出現頻度の分布の類似度$\operatorname{sim}_{_\mathit{DIST}}$,それぞれの効果を確認するため,それぞれ片方だけ使用した場合の実験も行った.表~\ref{TABLE::RESULT1}では,モデル1,モデル2の設定でそれぞれ$\operatorname{sim}_{_\mathit{SEM}}$だけを用いたモデルをモデル1$_S$,モデル2$_S$,$\operatorname{sim}_{_\mathit{DIST}}$だけを用いたモデルをモデル1$_D$,モデル2$_D$として示している.モデル1$_S$,モデル1はいずれも開発データも学習データも使用しないモデルであるが,マクネマー検定\cite{McNemar1947}の結果,最頻変換の精度との間には有意な差\footnote{本論文における実験では特に断りがない限り有意水準として0.01を用いた.}があることが確認できた.一方,モデル1$_S$とモデル1の精度の間には有意な差は確認できず,これらの結果からは対応する格の出現頻度の分布の類似度$\operatorname{sim}_{_\mathit{DIST}}$を対応付けの手掛りとして利用することの有効性は確認できなかった.モデル2$_S$,モデル2$_D$,モデル2はいずれも開発データを用いてパラメータ調整を行うモデルである.モデル1とモデル2の精度の差は有意であり,パラメータ調整を行うことが有効であることが確認できた.また,モデル2$_S$とモデル2,モデル2$_D$とモデル2の差もそれぞれ有意であり,$\operatorname{sim}_{_\mathit{SIM}}$と$\operatorname{sim}_{_\mathit{DIST}}$,いずれの手掛かりも格フレームの対応付けの手掛かりとして有用であることが確認できた.モデル2を用いた場合の$\operatorname{sim}_{_\mathit{SIM}}$と$\operatorname{sim}_{_\mathit{DIST}}$の寄与度を制御するパラメータである$\alpha$の値は2分割交差検定のいずれに対しても0.3であった.\subsubsection{学習データを使用する場合(モデル3)}続いて,正解データを学習データとして使用した場合の格交替推定精度を村田らの手法\cite{Murata2008}を用いた場合の精度とともに表\ref{TABLE::RESULT2}に示す.また,実際に使用した素性を表\ref{TABLE::FEATURES}に示す.F1からF32までは村田らが使用した素性\cite{Murata2008}と同じであり,F33のみが新たに追加した素性である.表\ref{TABLE::RESULT2}に示した結果からモデル2の出力を素性として追加することで格の推定精度が向上することが確認できる.また,検定の結果この差は有意なものであることが確認された.\begin{table}[b]\caption{受身文から能動文への変換における格交替推定実験の結果(学習データを使用する場合)}\label{TABLE::RESULT2}\input{05table04.txt}\end{table}表\ref{TABLE::FEATURES}に示した素性の一部は人手で作成された語彙知識に基づいている.具体的には,F15,F22,F23,F24,F26は近藤ら\cite{Kondo2001}によって作成されたVDIC辞書に基づく素性(以下ではVDIC素性と呼ぶ),F16,F17,F18,F19,F20,F21はIPAL基本動詞辞書\cite{IPAL}に基づく素性(以下ではIPAL素性と呼ぶ),F4,F7,F9,F12は分類語彙表\cite{BGH1964}に基づく素性(以下ではBGH素性と呼ぶ)となっている.本研究で獲得した語彙知識はこれらの語彙知識に相当する知識となっていると考えられることから,これらの素性を除いた場合の精度の調査も行った.結果を表\ref{TABLE::RESULT3}に示す.\begin{table}[t]\caption{受身文から能動文への変換における格交替推定に使用した素性}\label{TABLE::FEATURES}\input{05table05.txt}\end{table}VDIC素性,IPAL素性については,村田らのモデル\cite{Murata2008},対応付け知識に基づくモデル3,いずれのモデルに対しても,使用しないことによる精度の低下は確認できなかった.一方,BGH素性については,村田らのモデル\cite{Murata2008}から除いた場合は精度が低下したのに対し,対応付け知識に基づくモデル3から除いても精度の低下は確認できなかった.このことから,格フレームの対応付けによって得られる語彙知識は分類語彙表から得られる知識をカバーしていると考えられる.以上の分析から,自動獲得した語彙知識が使用できる場合,人手で作成した語彙知識の有用性は限定的であると言える.実際,人手で作成した語彙知識に基づく素性をすべて除いて格交替の推定実験を行ったところ0.960という高い精度が得られた.\begin{table}[b]\caption{人手で作成された語彙知識を用いなかった場合の精度}\label{TABLE::RESULT3}\input{05table06.txt}\end{table}\subsection{使役文と能動文の変換実験}\subsubsection{学習データを使用しない場合(モデル1・モデル2)}正解データを学習データとして使用しない設定における使役文から能動文への変換における格交替推定実験の結果を表\ref{TABLE::RESULTS1}に示す.ベースラインとしては,受身文からの変換の場合と同様に,各格助詞ごとに最も頻度の高い変換後の格を出力する方法(最頻変換)を使用し,対応する格の用例集合の意味的な類似度$\operatorname{sim}_{_\mathit{SEM}}$と,対応する格の出現頻度の分布の類似度$\operatorname{sim}_{_\mathit{DIST}}$,それぞれ片方だけを使用した実験も行った.\begin{table}[b]\caption{使役文から能動文への変換における格交替推定実験の結果(学習データを使用しない場合)}\label{TABLE::RESULTS1}\input{05table07.txt}\end{table}受身文の変換の場合と異なりパラメータ調整を行わなかった場合は最頻変換と同等または低い精度となった.一方,パラメータ調整を行った場合は,モデル2$_S$,モデル2$_D$,モデル2,いずれについても最頻変換より良い精度となった.ただし,マクネマー検定におけるp値がもっとも小さくなった最頻変換とモデル2$_D$の間の差に対しても,有意水準0.05では有意性を確認できたものの,有意水準0.01では有意性を確認できなかった.しかし,受身形の変換の場合とほぼ同様に格交替の推定精度は上昇幅は約0.05であり,有意水準0.01で有意性が確認できなかったのは事例数が少なかったことが主な要因であると考えられる.本実験結果において,受身文の変換の場合と大きく異なる点は,対応する格の用例集合の意味的な類似度$\operatorname{sim}_{_\mathit{SEM}}$を用いることの効果が確認できなかった点である.実際,もっとも高い精度となったのは類似度として$\operatorname{sim}_{_\mathit{DIST}}$のみを用い,パラメータ調整を行ったモデル2$_D$であった.\subsubsection{学習データを使用する場合(モデル3)}続いて,正解データを学習データとして使用する設定における使役文から能動文への変換における格交替推定実験の結果を村田らの手法\cite{Murata2002}を用いた場合の精度とともに表\ref{TABLE::RESULTS2}に示す.また,実際に使用した素性を表\ref{TABLE::FEATURES2}に示す.\begin{table}[b]\caption{使役文から能動文への変換における格交替推定実験の結果(学習データを使用する場合)}\label{TABLE::RESULTS2}\input{05table08.txt}\end{table}\begin{table}[b]\caption{使役文から能動文への変換における格交替推定に使用した素性}\label{TABLE::FEATURES2}\input{05table09.txt}\end{table}本実験では基本的に村田らが使用した素性\cite{Murata2002}を使用し,獲得した語彙知識の有用性を確認するため新たに素性F9を追加している.ただし,受身形の変換の場合に倣い,動詞の単語の分類語彙表の分類番号の1,2,3,4,5,7桁までの数字を素性に追加したところ変換精度が向上したことから,動詞の単語の分類語彙表の分類番号に関する情報だけは新たに素性F3として追加しており\footnote{受身文の変換で使用した他の素性も有効である可能性があるが,本実験の目的は基本的に素性F9の効果を確認することであることから,他の素性が本実験において有効かどうかの確認は行っていない.},表\ref{TABLE::RESULTS2}に示した精度は村田らの手法も含めすべて素性F3を使用した場合の精度である.また,表\ref{TABLE::RESULTS2}中のモデル3$_D$は,学習データを使用しない設定ではモデル2$_D$がもっとも高い精度であったことから,モデル2$_D$の出力結果を素性F9として使用したモデルである.モデル3,モデル3$_D$ともに,自動獲得した語彙知識を用いない村田らのモデルより有意に高い精度を達成しており,使役文から能動文への変換における格交替推定においても,格フレームの対応付けによって得られた語彙知識が有用であることが確認できた.ただし,受身文の変換の場合とは異なり,分類語彙表に基づく素性であるF3,F6を除いた場合,格交替の推定精度は低下した.\subsection{格フレームの対応付けの例と既知の問題点}表\ref{TABLE::NAGURU}に正しく受身形格フレームと能動形格フレームが対応付けられた例を示す.この例では持ち主の受身文から生成されたと考えられる受身形「殴られる」の格フレーム2のニヨッテ格,ガ格,ヲ格,デ格がそれぞれ,能動形「殴る」の格フレーム2のガ格,ノ格,ヲ格,デ格に対応付けられており,この知識を用いることにより,入力テキスト中の「殴られ」のガ格は能動文ではノ格となり,デ格,ヲ格については能動文においてもデ格,ヲ格のままであると解析できるようになる.\begin{table}[b]\caption{受身形格フレームと能動形格フレームの対応付けの例}\label{TABLE::NAGURU}\input{05table10.txt}\end{table}同様に,表\ref{TABLE::HOSSOKU}に正しく使役形格フレームと能動形格フレームが対応付けられた例を示す.この例では能動主体がヲ格となっていると考えられる使役形「発足させる」の格フレーム1のヲ格,ニ格がそれぞれ,能動形「発足する」の格フレーム2のガ格,ニ格に対応付けられ,ガ格は対応なしとなっている.この知識を用いることにより,入力テキスト中の「発足させ」のガ格は能動文では出現せず,ヲ格については能動文においてはガ格となると解析できるようになる.\begin{table}[t]\caption{使役形格フレームと能動形格フレームの対応付けの例}\label{TABLE::HOSSOKU}\input{05table11.txt}\end{table}一方,格フレームの対応付けおよび格交替推定に関する既知の問題点としては以下の4つが挙げられる.まず,格フレーム構築法に関する問題点として,複数のニ格を取る受身形格構造・使役形格構造を考慮していないという点が挙げられる.受身形および使役形の場合,それぞれ(\ref{EX::NINI1}),(\ref{EX::NINI2})のように,能動主体を表すニ格と,能動形ニ格の2つのニ格を取る場合があるが,このような格構造を考慮して格フレームを構築していないため,このような文が入力された場合に適切な解析を行えない.\begin{exe}\ex彼\underline{に}家\underline{に}帰られる.\label{EX::NINI1}\ex彼\underline{に}東京\underline{に}行かせる.\label{EX::NINI2}\end{exe}また,受身形格フレームの構築法に関する問題点として,受身とそれ以外の意味,すなわち,尊敬,自発,可能の意味で使用された「れる/られる」を区別していないという点が挙げられる.その結果,たとえば(\ref{EX::KOKU})のように尊敬の意味で「れる」が使用された文から,本来,ヲ格を持たないはずの「選ばれる」の受身形格フレームにヲ格が生成されてしまい,格フレームの対応付けを行おうとした際に,適切な対応付けが行えなくなってしまう場合がある.\begin{exe}\ex国王がこの作品を選ばれた.\label{EX::KOKU}\end{exe}格フレームの対応付け法の問題点としては,格フレーム中の複数の格スロットが同一の意味内容を表している場合を考慮していないことが挙げられる.たとえば,(\ref{EX::SAIYO})に示すように「採用される」の能動主体はニ格,ニヨッテ格,カラ格の3つの格で表すことができるため,「採用される」の格フレームはこれらの格を持っている.しかし,受身形格フレームの複数の格が能動主体を表す場合であっても,受身形と能動形の格フレームの対応付けを行う際はそれぞれの格フレームの格の1対1の対応付けしか考慮していないため,これらの格すべてを能動形のガ格と対応付けることができない.\begin{exe}\ex福岡県[に/によって/から]採用された.\label{EX::SAIYO}\end{exe}さらに,KNPによる解析において適切な格フレームが選択されなかったために,正しい格交替を推定できない場合がある.たとえば,(\ref{EX::NOMIYA})のような文が入力されると,\ref{SEC::FRAME}節の(\ref{EX::FRAME1})に示した「誘われる」の格フレーム1のようにニ格が能動主体を表している格フレームが選択されるべきであると考えられるが,実際には(\ref{EX::FRAME2})に示した「誘われる」の格フレーム2のようにニ格が誘致先を表す格フレームが選択されてしまうため,本来,能動文においてはガ格となるべき格が,ニ格のままであると出力されてしまう.\begin{exe}\ex花見の席で野宮\underline{に}誘われた.\label{EX::NOMIYA}\end{exe}
\section{おわりに}
本論文では,Webから自動構築した大規模格フレームと,人手で記述した少数の受身形・使役形と能動形の格の交替パターンを組み合わせることで,受身形・使役形と能動形の表層格の対応付けに関する知識を自動獲得する手法を提案した.また,獲得した知識を受身文・使役文の能動文への変換における格交替推定に利用することにより,その有用性を示した.今後の方向性としては,他の対応する格フレーム間,たとえば,授受動詞間や自他動詞間の格フレームの対応付けを行うことが考えられる.本論文で提案した手法は基本的に学習データを必要としないことから,考えうる格の交替パターンさえ記述できれば自動的に対応を取ることが可能である.また,本論文では受身文・使役文において格助詞が明示された項のみを格変換の対象としているが,今後は提題助詞の使用や,被連体修飾要素としての出現,ゼロ代名詞化などにより格が明示されていない場合も解析の対象とすることが考えられる.\acknowledgmentゼロ照応解析システム\cite{Iida2009}を提供していただいた情報通信研究機構の飯田龍氏,格助詞変換データを公開してくださいました鳥取大学の村田真樹氏,情報通信研究機構の鳥澤健太郎氏に感謝いたします.また,本研究の一部はJSPS科研費23800025,25730131の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Baldwin\BBA\Tanaka}{Baldwin\BBA\Tanaka}{2000}]{Baldwin2000}Baldwin,T.\BBACOMMA\\BBA\Tanaka,H.\BBOP2000\BBCP.\newblock\BBOQVerbAlternationsand{J}apanese--How,WhatandWhere?\BBCQ\\newblockIn{\BemProceedingsofPACLIC14},\mbox{\BPGS\3--14}.\bibitem[\protect\BCAY{Baroni\BBA\Lenci}{Baroni\BBA\Lenci}{2010}]{Baroni2010}Baroni,M.\BBACOMMA\\BBA\Lenci,A.\BBOP2010\BBCP.\newblock\BBOQDistributionalMemory:AGeneralFrameworkforCorpus-BasedSemantics.\BBCQ\\newblock{\BemComputationalLinguistic},{\Bbf36}(4),\mbox{\BPGS\673--721}.\bibitem[\protect\BCAY{林部祐太\JBA小町守\JBA松本裕治}{林部祐太\Jetal}{2014}]{Hayashibe2014}林部祐太\JBA小町守\JBA松本裕治\BBOP2014\BBCP.\newblock述語と項の位置関係ごとの候補比較による日本語述語項構造解析.\\newblock\Jem{自然言語処理},{\Bbf21}(1),\mbox{\BPGS\3--26}.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2007a}]{Iida2007T}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007a\BBCP.\newblock\BBOQZero-AnaphoraResolutionbyLearningRichSyntacticPatternFeatures.\BBCQ\\newblock{\BemACMTransactionsonAsianLanguageInformationProcessing(TALIP)},{\Bbf6},\mbox{Article12}.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2009}]{Iida2009}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2009\BBCP.\newblock\BBOQCapturingSaliencewithaTrainableCacheModelforZero-anaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsofACL-IJCNLP'09},\mbox{\BPGS\647--655}.\bibitem[\protect\BCAY{Iida,Komachi,Inui,\BBA\Matsumoto}{Iidaet~al.}{2007b}]{Iida2007}Iida,R.,Komachi,M.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007b\BBCP.\newblock\BBOQAnnotatinga{J}apaneseTextCorpuswithPredicate-ArgumentandCoreferenceRelations.\BBCQ\\newblockIn{\BemProceedingsofACL'07Workshop:LinguisticAnnotationWorkshop},\mbox{\BPGS\132--139}.\bibitem[\protect\BCAY{im~Walde,Hying,Scheible,\BBA\Schmid}{im~Waldeet~al.}{2008}]{Walde2008}im~Walde,S.S.,Hying,C.,Scheible,C.,\BBA\Schmid,H.\BBOP2008\BBCP.\newblock\BBOQCombining{EM}Trainingandthe{MDL}PrincipleforanAutomaticVerbClassificationIncorporatingSelectionalPreferences.\BBCQ\\newblockIn{\BemProceedingsofACL-HLT'08},\mbox{\BPGS\496--504}.\bibitem[\protect\BCAY{Imamura,Saito,\BBA\Izumi}{Imamuraet~al.}{2009}]{Imamura2009s}Imamura,K.,Saito,K.,\BBA\Izumi,T.\BBOP2009\BBCP.\newblock\BBOQDiscriminativeApproachtoPredicate-ArgumentStructureAnalysiswithZero-AnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsofACL-IJCNLP'09},\mbox{\BPGS\85--88}.\bibitem[\protect\BCAY{Joanis,Stevenson,\BBA\James}{Joaniset~al.}{2008}]{Joanis2008}Joanis,E.,Stevenson,S.,\BBA\James,D.\BBOP2008\BBCP.\newblock\BBOQAGeneralFeatureSpaceforAutomaticVerbClassification.\BBCQ\\newblock{\BemNaturalLanguageEngineering},{\Bbf14}(3),\mbox{\BPGS\337--367}.\bibitem[\protect\BCAY{情報処理振興事業協会技術センター}{情報処理振興事業協会技術センター}{1996}]{IPAL}情報処理振興事業協会技術センター\BBOP1996\BBCP.\newblock計算機用日本語基本動詞辞書{IPAL}.\bibitem[\protect\BCAY{Kameyama}{Kameyama}{1986}]{Kameyama1986s}Kameyama,M.\BBOP1986\BBCP.\newblock\BBOQAProperty-sharingConstraintinCentering.\BBCQ\\newblockIn{\BemProceedingsofACL'86},\mbox{\BPGS\200--206}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2005}]{Kawahara2005}河原大輔\JBA黒橋禎夫\BBOP2005\BBCP.\newblock格フレーム辞書の漸次的自動構築.\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\109--131}.\bibitem[\protect\BCAY{河原\JBA笹野\JBA黒橋\JBA橋田}{河原\Jetal}{2005}]{TAG}河原大輔\JBA笹野遼平\JBA黒橋禎夫\JBA橋田浩一\BBOP2005\BBCP.\newblock\Jem{格・省略・共参照タグ付けの基準}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{1964}]{BGH1964}国立国語研究所\BBOP1964\BBCP.\newblock\Jem{分類語彙表}.\newblock秀英出版.\bibitem[\protect\BCAY{近藤\JBA佐藤\JBA奥村}{近藤\Jetal}{2001}]{Kondo2001}近藤恵子\JBA佐藤理史\JBA奥村学\BBOP2001\BBCP.\newblock格変換による単文の言い換え.\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(3),\mbox{\BPGS\465--477}.\bibitem[\protect\BCAY{Lapata\BBA\Brew}{Lapata\BBA\Brew}{2004}]{Lapata2004CL}Lapata,M.\BBACOMMA\\BBA\Brew,C.\BBOP2004\BBCP.\newblock\BBOQVerbClassDisambiguationusingInformativePriors.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf30}(1),\mbox{\BPGS\45--73}.\bibitem[\protect\BCAY{Levin}{Levin}{1993}]{Levin1993}Levin,B.\BBOP1993\BBCP.\newblock{\BemEnglishVerbClassesandAlternations:APreliminaryInvestigation}.\newblockUniversityofChicagoPress.\bibitem[\protect\BCAY{Li\BBA\Brew}{Li\BBA\Brew}{2008}]{Li2008}Li,J.\BBACOMMA\\BBA\Brew,C.\BBOP2008\BBCP.\newblock\BBOQWhichAretheBestFeaturesforAutomaticVerbClassification.\BBCQ\\newblockIn{\BemProceedingsofACL-HLT'08},\mbox{\BPGS\434--442}.\bibitem[\protect\BCAY{McNemar}{McNemar}{1947}]{McNemar1947}McNemar,Q.\BBOP1947\BBCP.\newblock\BBOQNoteontheSamplingErroroftheDifferencebetweenCorrelatedProportionsorPercentages.\BBCQ\\newblock{\BemPsychometrika},{\Bbf12},\mbox{\BPGS\153--157}.\bibitem[\protect\BCAY{村田\JBA井佐原}{村田\JBA井佐原}{2002}]{Murata2002}村田真樹\JBA井佐原均\BBOP2002\BBCP.\newblock受け身/使役文の能動文への変換における機械学習を用いた格助詞の変換.\\newblock\Jem{情報処理学会研究報告,自然言語処理研究会報告2002-NL-149},\mbox{\BPGS\39--44}.\bibitem[\protect\BCAY{村田\JBA金丸\JBA白土\JBA井佐原}{村田\Jetal}{2008}]{Murata2008}村田真樹\JBA金丸敏幸\JBA白土保\JBA井佐原均\BBOP2008\BBCP.\newblock入力文の格助詞ごとに学習データを分割した機械学習による受身文の能動文への変換における格助詞の変換.\\newblock\Jem{システム制御情報学会論文誌},{\Bbf21}(6),\mbox{\BPGS\165--175}.\bibitem[\protect\BCAY{Nariyama}{Nariyama}{2002}]{Nariyama2002s}Nariyama,S.\BBOP2002\BBCP.\newblock\BBOQGrammarforEllipsisResolutioninJapanese.\BBCQ\\newblockIn{\BemProceedingsofTMI'02},\mbox{\BPGS\135--145}.\bibitem[\protect\BCAY{日本語記述文法研究会}{日本語記述文法研究会}{2009}]{GendaiNihongo4}日本語記述文法研究会\JED\\BBOP2009\BBCP.\newblock\Jem{現代日本語文法2,第4部ヴォイス},\mbox{\BPGS\207--298}.\newblockくろしお出版.\bibitem[\protect\BCAY{NTTコミュニケーション科学研究所}{NTTコミュニケーション科学研究所}{1997}]{NTT}NTTコミュニケーション科学研究所\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{笹野\JBA黒橋}{笹野\JBA黒橋}{2011}]{Sasano2011}笹野遼平\JBA黒橋禎夫\BBOP2011\BBCP.\newblock大規模格フレームを用いた識別モデルに基づく日本語ゼロ照応解析.\\newblock\Jem{情報処理学会論文誌},{\Bbf52}(12),\mbox{\BPGS\3328--3337}.\bibitem[\protect\BCAY{柴田\JBA黒橋}{柴田\JBA黒橋}{2009}]{Shibata2009}柴田知秀\JBA黒橋禎夫\BBOP2009\BBCP.\newblock超大規模ウェブコーパスを用いた分布類似度計算.\\newblock\Jem{言語処理学会第15回年次大会発表論文集},\mbox{\BPGS\705--708}.\bibitem[\protect\BCAY{Sun\BBA\Korhonen}{Sun\BBA\Korhonen}{2009}]{Sun2009}Sun,L.\BBACOMMA\\BBA\Korhonen,A.\BBOP2009\BBCP.\newblock\BBOQImprovingVerbClusteringwithAutomaticallyAcquiredSelectionalPreferences.\BBCQ\\newblockIn{\BemProceedingsofEMNLP'09},\mbox{\BPGS\638--647}.\bibitem[\protect\BCAY{Sun,McCarthy,\BBA\Korhonen}{Sunet~al.}{2013}]{Sun2013}Sun,L.,McCarthy,D.,\BBA\Korhonen,A.\BBOP2013\BBCP.\newblock\BBOQDiathesisAlternationApproximationforVerbClustering.\BBCQ\\newblockIn{\BemProceedingsofACL'13},\mbox{\BPGS\736--741}.\bibitem[\protect\BCAY{Taira,Fujita,\BBA\Nagata}{Tairaet~al.}{2008}]{Taira2008s}Taira,H.,Fujita,S.,\BBA\Nagata,M.\BBOP2008\BBCP.\newblock\BBOQA{J}apanesePredicateArgumentStructureAnalysisusingDecisionLists.\BBCQ\\newblockIn{\BemProceedingsofEMNLP'08},\mbox{\BPGS\523--532}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1995}]{SVM}Vapnik,V.\BBOP1995\BBCP.\newblock{\BemTheNatureofStatisticalLearningTheory}.\newblockSpringer.\bibitem[\protect\BCAY{吉川克正\JBA浅原正幸\JBA松本裕治}{吉川克正\Jetal}{2010}]{Yoshikawa2010}吉川克正\JBA浅原正幸\JBA松本裕治\BBOP2010\BBCP.\newblockMarkovLogicによる日本語述語項構造解析.\\newblock\Jem{情報処理学会研究報告,自然言語処理研究会報告2010-NL-199},\mbox{\BPGS\1--7}.\end{thebibliography}\begin{biography}\bioauthor{笹野遼平}{2009年東京大学大学院情報理工学系研究科博士課程修了.博士(情報理工学).京都大学大学院情報学研究科特定研究員を経て2010年より東京工業大学精密工学研究所助教.自然言語処理,特に照応解析,述語項構造解析の研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{河原大輔}{1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.2002年同大学院博士課程単位取得認定退学.東京大学大学院情報理工学系研究科学術研究支援員,独立行政法人情報通信研究機構研究員,同主任研究員を経て,2010年より京都大学大学院情報学研究科准教授.自然言語処理,知識処理の研究に従事.博士(情報学).情報処理学会,言語処理学会,人工知能学会,電子情報通信学会,ACL各会員.}\bioauthor{黒橋禎夫}{1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.言語処理学会10周年記念論文賞,同20周年記念論文賞,第8回船井情報科学振興賞,2009IBMFacultyAward等を受賞.2014年より日本学術会議連携会員.}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会,AAAI,言語処理学会,ACL,認知科学会,計量国語学会各会員.}\end{biography}\biodate\end{document}
| |
V14N05-04 | \section{はじめに}
本論文では,ランダムな初期値を使ってNon-negativeMatrixFactorization(NMF)による文書クラスタリングを複数回行い,それらの結果をアンサンブルすることで,より精度\footnote{本論文において用いる「(クラスタリングの)精度」とは,クラスタリングの正解率(accuracy)と同義である.つまり,ここでは暗にクラスタリングの正解があることを想定しており,得られた結果がどの程度正解に近いかという尺度の意味で「(クラスタリングの)精度」という用語を用いる.}の高い文書クラスタリングの実現を目指す.複数のクラスタリング結果を統合する部分で,従来のハイパーグラフの代わりに重み付きハイパーグラフを用いることが特徴である.文書クラスタリングは,文書の集合に対して,知的な処理を行う基本的な処理であり,その重要性は明らかである.例えばテキストマイニングの分野では,文書クラスタリングは基本的な構成要素であるし\cite{TextMiningBook},情報検索の分野では,検索結果の概観を視覚化するために検索された文書の集合をクラスタリングする研究が盛んに行われている\cite{hearst96reexamining}\cite{leuski01evaluating}\cite{zeng-learning}\cite{kummamuruwww2004}.文書クラスタリングでは,まずデータとなる文書をベクトルで表現する.通常,bagofwordsのモデルを用い,次にTF-IDFなどによって次元の重みを調整する.このようにして作成されたベクトルは高次元かつスパースになるために,文書クラスタリングではクラスタリング処理を行う前に主成分分析や特異値分解などの次元縮約の手法を用いることが行われる\cite{boley99document}\cite{deerwester90indexing}.次元縮約により高次元のベクトルが構造を保った状態で低次元で表現されるため,クラスタリング処理の速度や精度が向上する.NMFは次元縮約の手法を応用したクラスタリング手法である\cite{nmf}.今,クラスタリング対象の\(m\)次元で表現された\(n\)個の文書を\(m\)行\(n\)列の索引語文書行列\(X\)で表す.目的とするクラスタの数が\(k\)である場合,NMFでは\(X\)を以下のような行列\(U\)と\(V^{T}\)に分解する.そして行列\(V\)がクラスタリング結果に対応する.\[X=UV^{T}\]ここで\(U\)は\(m\)行\(k\)列,\(V\)は\(n\)行\(k\)列である.\(V^{T}\)は\(V\)の転置を表す.また\(U\)と\(V\)の要素は非負である.与えられた\(X\)と\(k\)から,ある繰り返し処理により\(U\)と\(V\)を得ることができる\cite{lee00algorithms}.しかしこの繰り返し処理は局所最適解にしか収束しない.つまりNMFでは,与える初期値によって得られるクラスタリング結果が異なるという問題がある.通常は適当な初期値を与える実験を複数回行い,それらから得た複数個のクラスタリング結果の中で\(X\)と\(UV^{T}\)の差\footnote{差は\(||X-UV^{T}||_{F}\)により測定する.}が最小のもの,つまり\(X\)の分解の精度が最も高いものを選ぶ.しかし分解の精度は,直接的にはクラスタリングの精度を意味してはいないため,最も精度の高いクラスタリング結果を選択できる保証がない.ここではNMFの分解の精度を用いて,複数個のクラスタリング結果から最終的なクラスタリング結果を選ぶのではなく,複数個のクラスタリング結果をアンサンブルさせて,より精度の高いクラスタリング結果を導くアンサンブルクラスタリングを試みる.一般にアンサンブルクラスタリングの処理は2段階に分けられる.まず第1段で複数個のクラスタリング結果を生成し,次の第2段でそれらを組み合わせ,最終的なクラスタリング結果を導く.複数個のクラスタリング結果を生成する手法としては,k-meansの初期値を変化させたり\cite{fred02data},ランダムプロジェクションにより利用する特徴を変化させたり\cite{fern_clustensem03},``weakpartition''を生成する研究などがある\cite{topchy03combining}.また複数個のクラスタリング結果を組み合わせる手法としては,データ間の類似度を新たに構築する手法\cite{fred02data}や,データの表すベクトルを新たに構築する手法\cite{strehl02}などがある.ここでは後者の手法を改良して用いる.論文\cite{strehl02}では,データの表すベクトルを新たに構築するために,複数個のクラスタリング結果から,データセットに対するハイパーグラフを作成する.このハイパーグラフは,データセットが表す行列に相当する.このハイパーグラフで表現されたデータに対してクラスタリングを行い,最終的なクラスタリング結果を得る.ただしこのハイパーグラフではエッジの重みが0か1のバイナリ値である.ハイパーグラフが行列に相当すると考えると,エッジの重みの意味は同じクラスタに属する度合いとなり,バイナリ値で表すよりも非負の実数で表す方がより適切と考えられる.そこで本論文ではハイパーグラフのエッジの重みに非負の実数値を与える.具体的には,NMFのクラスタリング結果が行列\(V\)で得られ,同じクラスタに属する度合いが\(V\)から直接求められることを利用する.またここでは,この実数値の重みを付けたハイパーグラフを重み付きハイパーグラフと呼ぶことにする.実験ではk-means,NMF,通常のハイパーグラフを用いたアンサンブル手法および重み付きハイパーグラフを用いたアンサンブル手法(本手法)の各クラスタリング結果を比較し,本手法の有効性を示す.
\section{NMFと初期値の問題}
\subsection{NMFとその特徴}NMFは\(m\timesn\)の索引語文書行列\(X\)を,\(m\timesk\)の行列\(U\)と\(n\timesk\)の行列\(V\)の転置行列\(V^{T}\)の積に分解する\cite{nmf}.ただし\(k\)はクラスタ数である.\[X=UV^{T}\]NMFはクラスタに対応したトピックの次元を\(k\)個想定し,その基底ベクトルの線形和によって,文書ベクトル及び索引語ベクトルを表現することに対応する.つまり基底ベクトルの係数が,そのトピックとの関連度を表しているので,行列\(V\)自体がクラスタリング結果と見なせる.具体的には,\(i\)番目の文書\(d_i\)は,行列\(X\)の第\(i\)列のベクトルで表現され,その次元圧縮された結果が,行列\(V\)の第\(i\)行のベクトルとなる.このとき,\(V\)の第\(i\)行のベクトルは\[(v_{i1},v_{i2},\cdots,v_{ik})\]と表せ,文書\(d_i\)のクラスタの番号は\[\arg\max_{j\in1:k}v_{ij}\]となる.\subsection{NMFのアルゴリズム}与えられた索引語文書行列\(X\)から,\(U\)と\(V\)は以下の繰り返しで得ることができる\cite{lee00algorithms}.\begin{gather}\label{eq:1}u'_{ij}\leftarrowu_{ij}\frac{(XV)_{ij}}{(UV^{T}V)_{ij}}\\\label{eq:2}v'_{ij}\leftarrowv_{ij}\frac{(X^{T}U)_{ij}}{(VU^{T}U)_{ij}}\end{gather}ここで\(u_{ij}\)と\(v_{ij}\)はそれぞれ\(U\)と\(V\)の\(i\)行\(j\)列の要素を表す.また\((X)_{ij}\)により行列\(X\)の\(i\)行\(j\)列の要素を表す.上記の式により,現在の\(U\)と\(V\)から,\(u'_{ij}\)と\(v'_{ij}\)が得られる,つまり新たな\(U'\)と\(V'\)が得られるので,それを\(U\)と\(V\)と見なして,上記の式を繰り返し適用する.また各繰り返しの後に\(U\)を以下のように正規化する.\begin{equation}u'_{ij}\leftarrow\frac{u_{ij}}{\sqrt{\sum_{i}u_{ij}^2}}\end{equation}繰り返しの終了は,繰り返しの最大回数を決めておくか,\(UV^{T}\)と\(X\)との距離\(J\)の変化量から判定する.\begin{equation}\label{eq:3}J=||X-UV^{T}||_{F}\end{equation}\(J\)の値はNMFの分解の精度を表現している.NMFではこの分解の精度がクラスタリングの目的関数となっており,この分解の精度が高い,つまり\(J\)の値が小さいほど,良好なクラスタリングであると推定する.また\(||\cdot||_{F}\)はFrobeniusノルムを表し,\(m\timesn\)の行列\(A\)のFrobeniusノルムは以下で定義される.\[||A||_{F}=\sqrt{\sum_{i=1}^{m}\sum_{j=1}^{n}{a_{ij}}^2}\]\subsection{NMFの解の多様性}通常,行列\(V\)と\(U\)の初期値にはランダムな値を与える.しかし\mbox{式\ref{eq:1}と\ref{eq:2}}による繰り返しは局所最適解にしか収束しないために,\(V\)と\(U\)の初期値の与え方によって,最終的に得られる\(V\)と\(U\)は大きく異なり,結果としてクラスタリングの精度も大きく異なる.例えば,\mbox{図\ref{tr45a}}は本論文の実験で用いた文書データセットtr45に対して,NMFによるクラスタリングの実験を20回行った結果である.ただし各実験でのNMFの初期値にはランダムな値を与えており,各実験の初期値は異なる.\mbox{図\ref{tr45a}}の横軸は実験の番号を示し,縦軸はクラスタリングの精度を表している.\mbox{図\ref{tr45a}}から初期値によって得られる精度が大きく異なることが確認できる.\begin{figure}[t]\begin{center}\includegraphics{14-5ia4f1.eps}\caption{初期値とクラスタリングの精度}\label{tr45a}\end{center}\end{figure}つまり,NMFは初期値によって得られるクラスタリング結果が異なる.通常は適当な初期値を与える実験を複数回行い,それらから得た複数個の解の中で\(X\)の分解の精度が最も高いものを選ぶ.しかし分解の精度は,直接的にはクラスタリングの精度を意味していないため,最も精度の高いクラスタリング結果を選択できる保証がない.ここでは複数個のクラスタリング結果から1つを選択するのではなく,それらをアンサンブルするアンサンブルクラスタリングを試みる.
\section{アンサンブルクラスタリング}
\subsection{ハイパーグラフによるデータの再表現}本手法のアンサンブルクラスタリングでは,NMFの初期値を様々に変化させて,複数個のクラスタリング結果を生成する.次に複数個得られたクラスタリング結果から各データに対するベクトル表現を新たに作成し,その新たにベクトル表現されたデータに対してクラスタリングを行うことで,アンサンブルクラスタリングを実現する.ここでは複数個得られたクラスタリング結果からデータに対する新たなベクトル表現を作る方法を説明する.基本的には論文\cite{strehl02}で提案されたハイパーグラフを用いる.クラスタの数が\(k\)個であり,得られているクラスタリング結果が\(m\)種類の場合,各データは\(km\)次元のベクトルで表現される.データ\(d\)の\(k(i-1)+c\)次元の値は,\(i\)番目のクラスタリング結果として,データ\(d\)がクラスタ番号\(c\)のクラスタに属していれば1を,属していなければ0を与える.この結果,データ\(d\)の\(km\)次元のベクトル表現が得られる.例を示す.\(k=3\),\(m=4\)とする.またデータは\(\{d_1,d_2,\cdots,d_7\}\)の7つとする.4種類のクラスタリング結果が以下のようになっていたとする.第1のクラスタリング結果:\[\{d_1,d_2,d_5\},\{d_3,d_4\},\{d_6,d_7\}\]この結果から目的の行列の1列目から3列目が得られる.\[\begin{array}{c}d_1\\d_2\\d_3\\d_4\\d_5\\d_6\\d_7\\\end{array}\left[\begin{array}{rrr}1&0&0\\1&0&0\\0&1&0\\0&1&0\\1&0&0\\0&0&1\\0&0&1\end{array}\right]\]第2のクラスタリング結果:\[\{d_1,d_5\},\{d_2,d_3\},\{d_4,d_6,d_7\}\]この結果から目的の行列の4列目から6列目が得られる.\[\begin{array}{c}d_1\\d_2\\d_3\\d_4\\d_5\\d_6\\d_7\\\end{array}\left[\begin{array}{rrr}1&0&0\\0&1&0\\0&1&0\\0&0&1\\1&0&0\\0&0&1\\0&0&1\end{array}\right]\]第3のクラスタリング結果:\[\{d_2,d_5\},\{d_1,d_4\},\{d_3,d_6,d_7\}\]この結果から目的の行列の7列目から9列目が得られる.\[\begin{array}{c}d_1\\d_2\\d_3\\d_4\\d_5\\d_6\\d_7\\\end{array}\left[\begin{array}{rrr}0&1&0\\1&0&0\\0&0&1\\0&1&0\\1&0&0\\0&0&1\\0&0&1\end{array}\right]\]第4のクラスタリング結果:\[\{d_1,d_5,d_7\},\{d_3,d_4\},\{d_2,d_6\}\]この結果から目的の行列の10列目から12列目が得られる.\[\begin{array}{c}d_1\\d_2\\d_3\\d_4\\d_5\\d_6\\d_7\\\end{array}\left[\begin{array}{rrr}1&0&0\\0&0&1\\0&1&0\\0&1&0\\1&0&0\\0&0&1\\1&0&0\end{array}\right]\]以上の4つの行列を結合させ,以下の\(7\times12\)の行列を得る.これがハイパーグラフである.このハイパーグラフにおける行ベクトルが,各データ(本論文の場合,文書)の新たなベクトル表現に対応している.このベクトルの類似度に基づいて,データをクラスタリングする.\[\begin{array}{c}d_1\\d_2\\d_3\\d_4\\d_5\\d_6\\d_7\\\end{array}\left[\begin{array}{rrrrrrrrrrrr}1&0&0&1&0&0&0&1&0&1&0&0\\1&0&0&0&1&0&1&0&0&0&0&1\\0&1&0&0&1&0&0&0&1&0&1&0\\0&1&0&0&0&1&0&1&0&0&1&0\\1&0&0&1&0&0&1&0&0&1&0&0\\0&0&1&0&0&1&0&0&1&0&0&1\\0&0&1&0&0&1&0&0&1&1&0&0\end{array}\right]\]\subsection{重み付きハイパーグラフ}ハイパーグラフが表す行列の各要素の値は0か1のバイナリ値である.しかし値の意味を考えれば,その次元に対応するあるクラスタリング結果のあるクラスタに属する度合いと捉えられる.そのため0か1のバイナリ値ではなく,非負の実数値を与える方が適切である.しかもNMFの場合,各クラスタリング結果では各クラスタに属する度合いに対応する値が行列\(V\)に記載されている.そこでここではハイパーグラフの要素が1である部分を,行列\(V\)の値から得ることで,非負の実数値を与えることにした.このようにして作成したハイパーグラフを,ここでは重み付きハイパーグラフと呼ぶ.\mbox{図\ref{ensemble}}に重み付きハイパーグラフの作成例を示す.これは先の第1のクラスタリング結果に対応する部分である.\(d_1\)から\(d_7\)の7個の文書データセットをNMFにより3グループにクラスタリングする.結果は行列\(V\)で表される.次に行列\(V\)を正規化する.\(V\)の各行に注目し,最大値の部分を1に,それ以外を0に変換したものが通常のハイパーグラフである.\(V\)の各行に注目し,最大値の部分はそのままに,それ以外を0に変換したものが本論文で提案する重み付きハイパーグラフである.\begin{figure}[tbp]\begin{center}\includegraphics{14-5ia4f2.eps}\caption{行列Vから作られる重み付きハイパーグラフ}\label{ensemble}\end{center}\end{figure}
\section{実験}
本手法の有効性を示すために,k-means,NMF,通常のハイパーグラフを使うアンサンブル手法および重み付きハイパーグラフを使うアンサンブル手法(本手法)の4種のクラスタリング結果を比較する.利用するデータセットは以下のサイトで提供されている18種類である(\mbox{表\ref{tab:dataset}}).\begin{verbatim}http://glaros.dtc.umn.edu/gkhome/cluto/cluto/download\end{verbatim}データセットは通常の索引語文書行列で表現されており,正規化されていない.ここではTF-IDFによって正規化を行った.\begin{table}[tbp]\input{04t1.txt}\end{table}\begin{table}[tbp]\input{04t2.txt}\end{table}実験結果を\mbox{表\ref{tab:result}}に示す.表の値はクラスタリング結果のエントロピーを表し,低い値ほどクラスタリングが良好であることを意味する.なお,ハイパーグラフのデータからのクラスタリングには,簡単のために,クラスタリングtoolkitのCLUTO\footnote{{\tthttp://glaros.dtc.umn.edu/gkhome/views/cluto}}を利用した.CLUTOはクラスタリング手法や類似度関数を様々に設定できるが,ここではdefaultの設定であるk-wayclusteringと呼ばれる手法とcosineの類似度を用いた.またハイパーグラフのデータからのクラスタリング手法には任意のものが利用可能であり,高機能なクラスタリング手法を用いて,更に高い精度を得ることも可能である.ただしここではアンサンブルすることの効果と,ハイパーグラフに重みを付ける効果を明確に確認するために,簡易なものを用いた.また,エントロピーについても注記しておく.エントロピーはクラスタリング結果を評価するための1つの尺度である.データセットのクラスタリングの正解が\(\{K_h\}_{h=1}^{k}\)であり,得られたクラスタリングが\(\{C_j\}_{j=1}^{k}\)となっているとき,クラスタ\(C_i\)に対するエントロピー\(E_i\)は以下で定義される.\[E_{i}=-\sum_{h=1}^{k}P(K_{h}|C_i)\logP(K_{h}|C_i)\]各クラスタに対して\(E_i\)を求め,クラスタのデータ数による重み付き平均をとることで全体のエントロピーが定義される.すなわち以下の式となる.\[\sum_{i=1}^{k}\frac{|C_i|}{N}E_{i}\]ここで\(N\)は全データ数を表す.また定義中に確率\(P(K_{h}|C_i)\)が出ているが,これは\(K_{h}\)と\(C_i\)に共通に存在するデータの数を\(n_{hi}\)と置き,\(n_{hi}/|C_i|\)によって推定する.またクラスタリングの精度は,クラスタリング結果の各クラスタを正解のクラスタに対応つけ,\(n_{hi}\)の合計を\(N\)で割った値により求まる.つまりエントロピーの値の低さとクラスタリングの精度はほぼ対応していると見なせる.本実験の場合,クラスタリングの精度を求めて,評価を行うことも可能ではあるが,クラスタリングの精度を求めるには,クラスタリング結果の各クラスタを正解のクラスタに対応させなくてはならない.この処理は組み合わせ最適化問題になっているために,単純には最適解が求まらない.そのために,ここではエントロピーによる評価を行っている.NMFの実験では初期値を20個用意し,得られた20個のクラスタリング結果において,NMFの分解の精度(\mbox{式\ref{eq:3}}の値)が最も高いものを選び,それをNMFのクラスタリング結果とした.NMFmeanとあるのは,20個のクラスタリング結果の平均のエントロピーである.表のstandardhypergraphが通常のハイパーグラフを使うアンサンブル手法,weightedhypergraphが重み付きハイパーグラフを使うアンサンブル手法(本手法)を意味する.NMFとNMFmeanを比較すると,NMFの方が若干エントロピーが大きい.つまりクラスタリング結果を評価するのに,\mbox{式\ref{eq:3}}を使うのは最良ではないことがわかる.またNMFmeanとweightedhypergraphを比較すると,18個のデータセット中17個で本手法の方がエントロピーが小さい.つまりこの点からアンサンブルすることの効果が確認できる.またstandardhypergraphとweightedhypergraphを比較すると,18個のデータセット中13個で本手法の方がエントロピーが小さく,ハイパーグラフに重みを与える効果も確認できる.なお18個中13個の改善は,統計的には以下のような観点から有意とみなした.standardhypergraphとweightedhypergraphのパフォーマンスが同程度である場合,standardhypergraphのエントロピーからweightedhypergraphのエントロピーを引いた値(値が大きいほど改善の度合いが高い)は平均0の正規分布と考えられる.そこで有意水準0.05としてt-検定の片側検定を用いると,棄却域は自由度が17であることに注意すると\(1.74\)以上となる.実際の値はstandardhypergraphのエントロピーからweightedhypergraphのエントロピーを引いた値の標本平均が0.03706,標本分散が0.007389なので,\[\frac{0.03706-0}{\sqrt{0.007389/17}}=1.78>1.74\]\noindentとなり,パフォーマンスが同程度という仮説が棄却できる.
\section{考察と関連研究}
一般に複数の解をアンサンブルすると,複数の解の平均よりも良い値が得られると考えられる.本実験でも18個のデータセット中17個でアンサンブルの効果が得られているが,データセットtr23に関しては,本手法のエントロピーの値の方が高い.これは解の分散の影響と考えられる.実験で得られた各データセットに対するNMFによる20個のクラスタリング結果のエントロピーの分散と,\mbox{表\ref{tab:result}}におけるNMFmeanとweightedhypergarphとの差(つまりアンサンブルによる改善の度合い)をプロットした図を\mbox{図\ref{kou}}に示す.図の横軸が分散を示し,縦軸がweightedhypergarphとNMFmeanとの差(改善の度合い)を示している.\begin{figure}[tbp]\begin{center}\includegraphics{14-5ia4f3.eps}\caption{解の分散とアンサンブルによる改善}\label{kou}\end{center}\end{figure}\mbox{図\ref{kou}}をみると,分散が大きい2つ(cranmadとreviews)は,アンサンブルによる改善の度合いも大きいことが分かる.そして3番目に分散が大きなデータセットがtr23である.つまり分散の大きな解をアンサンブルすると,非常に良い結果を得ることもあるが,逆に悪い結果を得ることもあり得ると考えられる.データセットtr23に対するNMFの結果を見ると,1つだけ非常にエントロピーの低いクラスタリング結果が得られていた.この解を取り除いて,19個のクラスタリング結果で本手法によるアンサンブルを試したところ,NMFmeanのエントロピーは0.493,weightedhypergarphのエントロピーは0.492となり,アンサンブルの効果が現れた.また,ここではNMFで複数個のクラスタリング結果を生成する際に,個々のクラスタリング結果のクラスタ数は,最終的なクラスタ数と一致させている.しかしハイパーグラフの考え方を用いれば,生成される個々のクラスタリング結果のクラスタ数は任意でかまわない.実際にk-meansでは少ないクラスタ数に直接クラスタリングするよりも,多数のクラスタに分割してから,目的のクラスタ数にまとめた方が効果があることが経験的にわかっている.論文\cite{fred02data}ではこのヒューリスティクスを利用して,多数のクラスタに分割してから,アンサンブルを行っている.本手法においても,そのような工夫を取り入れることも可能である.本手法ではハイパーグラフの値として,1に当たる部分を行列\(V\)の値を用いることで,実数値に変換した.この効果は実験で確認できている.この工夫を更に進めると,0に当たる部分にも行列\(V\)の値を用いることで,実数値に変換することが考えられる.この場合,ハイパーグラフは単純に各クラスタリング結果に対応する行列\(V\)を結合させたものになる.実際にこのようにして作ったハイパーグラフに対して,クラスタリングを行ってみた.結果を表\ref{tab:vresult}に示す.ここでhypergraphVが行列\(V\)を結合させてハイパーグラフを作成する手法を示す.\begin{table}[tbp]\input{04t3.txt}\end{table}通常のハイパーグラフを使うよりも結果は良好であるが,1に当たる部分だけを精密化する方が効果があることがわかる.また0の値はそのままにしている方が,ハイパーグラフがスパースになり,データ間の類似度が0であるケースが生じやすくなる.そのためグラフスペクトル理論を用いたクラスタリング手法\cite{graph-minmax-cut}なども使えるようになるために好ましい.最後にアンサンブル学習\cite{breiman96bagging}との関連について述べる.アンサンブル学習とアンサンブルクラスタリングの違いは,クラスタにラベルがつくかどうかである.アンサンブル学習ではデータにラベルが付くので,そのラベルをもつデータがラベル付きのクラスタと見なせる.アンサンブルクラスタリングの場合は,クラスタにラベルがついていない.もしもクラスタにラベルをつけることができれば,アンサンブル学習の手法を直接利用できるために,さらなる改良や発展が可能である.クラスタにラベルをつける処理は,クラスタ数が2や3などの小さい場合はそれほど大きな問題ではないので,今後はクラスタにラベルをつけるという戦略で,アンサンブルを行う手法を開発したい.
\section{おわりに}
本論文では,NMFを用いたアンサンブルクラスタリングの手法を提案した.NMFの初期値を変化させて,複数個のクラスタリング結果を得る.次に得られた複数個のクラスタリング結果をハイパーグラフで表現し,それをクラスタリングすることで最終的なクラスタリング結果を得る.ハイパーグラフを作成する際に,NMFより得られた行列\(V\)を利用して,1の部分に実数値の重み付けする工夫を取り入れた.実験では18個のデータセットを用いて,k-means,NMF,通常のハイパーグラフを使うアンサンブル手法および重み付きハイパーグラフを使うアンサンブル手法(本手法)の比較を行った.エントロピーで評価を行い,本手法の有効性を確認できた.個々のクラスタリングで生成させるクラスタ数を変化させること,クラスタ数が小さい場合は,クラスタにラベルを与えて,アンサンブル学習の手法を利用することなどを今後の課題とする.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Boley,Gini,Gross,Han,Hastings,Karypis,Kumar,Mobasher,\BBA\Moore}{Boleyet~al.}{1999}]{boley99document}Boley,D.,Gini,M.~L.,Gross,R.,Han,E.-H.,Hastings,K.,Karypis,G.,Kumar,V.,Mobasher,B.,\BBA\Moore,J.\BBOP1999\BBCP.\newblock\BBOQDocumentCategorizationandQueryGenerationontheWorldWideWebUsingWebACE\BBCQ\\newblock{\BemArtificialIntelligenceReview},{\Bbf13}(5-6),\mbox{\BPGS\365--391}.\bibitem[\protect\BCAY{Breiman}{Breiman}{1996}]{breiman96bagging}Breiman,L.\BBOP1996\BBCP.\newblock\BBOQBaggingPredictors\BBCQ\\newblock{\BemMachineLearning},{\Bbf24}(2),\mbox{\BPGS\123--140}.\bibitem[\protect\BCAY{Deerwester,Dumais,Landauer,Furnas,\BBA\Harshman}{Deerwesteret~al.}{1990}]{deerwester90indexing}Deerwester,S.~C.,Dumais,S.~T.,Landauer,T.~K.,Furnas,G.~W.,\BBA\Harshman,R.~A.\BBOP1990\BBCP.\newblock\BBOQIndexingbyLatentSemanticAnalysis\BBCQ\\newblock{\BemJournaloftheAmericanSocietyofInformationScience},{\Bbf41}(6),\mbox{\BPGS\391--407}.\bibitem[\protect\BCAY{Ding,He,Zha,Gu,\BBA\Simon}{Dinget~al.}{2001}]{graph-minmax-cut}Ding,C.,He,X.,Zha,H.,Gu,M.,\BBA\Simon,H.\BBOP2001\BBCP.\newblock\BBOQ{SpectralMin-maxCutforGraphPartitioningandDataClustering}\BBCQ\\newblockIn{\BemLawrenceBerkeleyNationalLab.Tech.report47848}.\bibitem[\protect\BCAY{Fern\BBA\Brodley}{Fern\BBA\Brodley}{2003}]{fern_clustensem03}Fern,X.~Z.\BBACOMMA\\BBA\Brodley,C.~E.\BBOP2003\BBCP.\newblock\BBOQRandomProjectionforHighDimensionalDataClustering:AClusterEnsembleApproach\BBCQ\\newblockIn{\Bemthe20thInternationalConferenceofMachineLearning(ICML-03)}.\bibitem[\protect\BCAY{Fred\BBA\Jain}{Fred\BBA\Jain}{2002}]{fred02data}Fred,A.~L.\BBACOMMA\\BBA\Jain,A.~K.\BBOP2002\BBCP.\newblock\BBOQ{DataClusteringUsingEvidenceAccumulation}\BBCQ\\newblockIn{\Bemthe16thinternationalconferenceonpatternrecognition},\mbox{\BPGS\276--280}.\bibitem[\protect\BCAY{Hearst\BBA\Pedersen}{Hearst\BBA\Pedersen}{1996}]{hearst96reexamining}Hearst,M.~A.\BBACOMMA\\BBA\Pedersen,J.~O.\BBOP1996\BBCP.\newblock\BBOQ{Reexaminingtheclusterhypothesis:Scatter/gatheronretrievalresults}\BBCQ\\newblockIn{\Bem{ProceedingsofSIGIR-96}},\mbox{\BPGS\76--84}.\bibitem[\protect\BCAY{Kummamuru,Lotlikar,Roy,Singal,\BBA\Krishnapuram}{Kummamuruet~al.}{2004}]{kummamuruwww2004}Kummamuru,K.,Lotlikar,R.,Roy,S.,Singal,K.,\BBA\Krishnapuram,R.\BBOP2004\BBCP.\newblock\BBOQ{AHierarchicalMonotheticDocumentClusteringAlgorithmforSummarizationandBrowsingSearchResults}\BBCQ\\newblockIn{\BemProceedingsofWWW-04},\mbox{\BPGS\658--665}.\bibitem[\protect\BCAY{Lee\BBA\Seung}{Lee\BBA\Seung}{2000}]{lee00algorithms}Lee,D.~D.\BBACOMMA\\BBA\Seung,H.~S.\BBOP2000\BBCP.\newblock\BBOQAlgorithmsforNon-negativeMatrixFactorization\BBCQ\\newblockIn{\Bem{NIPS}},\mbox{\BPGS\556--562}.\bibitem[\protect\BCAY{Leuski}{Leuski}{2001}]{leuski01evaluating}Leuski,A.\BBOP2001\BBCP.\newblock\BBOQ{EvaluatingDocumentClusteringforInteractiveInformationRetrieval}\BBCQ\\newblockIn{\Bem{ProceedingsofCIKM-01}},\mbox{\BPGS\33--40}.\bibitem[\protect\BCAY{{MichaelW.Berry}}{{MichaelW.Berry}}{2003}]{TextMiningBook}{MichaelW.Berry}\BED\\BBOP2003\BBCP.\newblock{\Bem{SurveyofTextMining:Clustering,Classification,andRetrieval}}.\newblockSpringer.\bibitem[\protect\BCAY{Strehl\BBA\Ghosh}{Strehl\BBA\Ghosh}{2002}]{strehl02}Strehl,A.\BBACOMMA\\BBA\Ghosh,J.\BBOP2002\BBCP.\newblock\BBOQ{ClusterEnsembles-AKnowledgeReuseFrameworkforCombiningMultiplePartitions}\BBCQ\\newblockIn{\Bem{ConferenceonArtificialIntelligence(AAAI-2002)}},\mbox{\BPGS\93--98}.\bibitem[\protect\BCAY{Topchy,Jain,\BBA\Punch}{Topchyet~al.}{2003}]{topchy03combining}Topchy,A.,Jain,A.~K.,\BBA\Punch,W.\BBOP2003\BBCP.\newblock\BBOQ{CombiningMultipleWeakClusterings}\BBCQ\\newblockIn{\BemInTheThirdIEEEInternationalConferenceonDataMining(ICDM'03)}.\bibitem[\protect\BCAY{Xu,Liu,\BBA\Gong}{Xuet~al.}{2003}]{nmf}Xu,W.,Liu,X.,\BBA\Gong,Y.\BBOP2003\BBCP.\newblock\BBOQ{Documentclusteringbasedonnon-negativematrixfactorization}\BBCQ\\newblockIn{\Bem{ProceedingsofSIGIR-03}},\mbox{\BPGS\267--273}.\bibitem[\protect\BCAY{Zeng,He,Chen,Ma,\BBA\Ma}{Zenget~al.}{2001}]{zeng-learning}Zeng,H.-J.,He,Q.-C.,Chen,Z.,Ma,W.-Y.,\BBA\Ma,J.\BBOP2001\BBCP.\newblock\BBOQ{LearningtoClusterWebSearchResults}\BBCQ\\newblockIn{\Bem{ProceedingsofSIGIR-04}},\mbox{\BPGS\33--40}.\end{thebibliography}\begin{biography}\bioauthor{新納浩幸}{昭和60年東京工業大学理学部情報科学科卒業.昭和62年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,平成5年4月茨城大学工学部システム工学科助手.平成9年10月同学科講師,平成13年4月同学科助教授,現在,茨城大学工学部情報工学科准教授.博士(工学).機械学習や統計的手法による自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{佐々木稔}{平成8年徳島大学工学部知能情報工学科卒業.平成13年同大学大学院博士後期課程修了.博士(工学).平成13年12月茨城大学工学部情報工学科助手.現在,茨城大学工学部情報工学科講師.機械学習や統計的手法による情報検索,自然言語処理等に関する研究に従事.言語処理学会,情報処理学会各会員.}\end{biography}\biodate\end{document}
| |
V19N02-02 | \section{はじめに}
自然言語処理技術を用いた多様なアプリケーションにおいて,対象ドメインに特化した辞書が必要となる場面は多く存在する.例えば情報検索タスクにおいて,検索クエリとドメイン辞書とを併用することで検索結果をドメイン毎に分類して提示することを可能としたり,特定のドメインに特化した音声認識システムにおいてはそのドメインに応じた認識辞書を用いた方が音声認識精度が高いことが知られている\cite{廣嶋2004}.一方で,特定のドメインに対する要求でなく,ドメイン非依存の場面においても,詳細なクラスに分類した上で体系的な辞書を用いる必要が生じる場合がある.例えば関根らの定義した拡張固有表現\cite{sekine2008extended}は,従来のIREX固有表現クラスが8クラスであったのに対し,200もの細分化されたクラスを持つ.橋本らによって作成された関根の拡張固有表現に基づくラベル付きコーパスにより,機械学習による拡張固有表現抽出器の研究がなされている\cite{橋本08,橋本10}が,コーパスにおいて付与された各クラスの出現数にはばらつきがあり,極端に学習データの少ないクラスも存在する.コーパスから単純な学習により固有表現抽出器を構築した場合,これら低頻度のクラスについて正しく学習できないことが予想されるため,各クラス毎の直接的な辞書の拡充が必要とされる.このようにドメインやクラスに依存した辞書の重要性は高いが,一方で辞書の作成には大きな人的コストがかかってしまうため,可能な限りコストをかけずにドメイン依存の語彙を獲得したいという要求がある.本論文で対象とする語彙獲得タスクは,ドメインやクラスに応じた少量の語彙集合,特に固有表現集合で表される教師データを用いて,新たな固有表現集合を獲得することを目的とする.なお,本論文では固有表現をエンティティ,初期に付与される教師データをシードエンティティと呼ぶこととする.語彙獲得タスクにおいては,教師データを繰り返し処理により増加させることのできる,ブートストラップ法を用いた手法が多く提案されており\cite{pantel2006espresso,bellare2007lightly},本論文でも同様にブートストラップ法に基づいた手法を提案する.ブートストラップ法の適用により,初期に少量のシードエンティティしか存在しない場合であっても,手掛かりとなる情報,すなわち学習データを逐次的に増加させることが可能であるため,大規模なエンティティ獲得に繋がる.しかしブートストラップ法を用いたエンティティ獲得における課題として,獲得されるエンティティの持つ意味が,シードエンティティ集合の元来の意味から次第に外れていくセマンティックドリフトと呼ばれる現象があり,エンティティ獲得精度を悪化させる大きな要因となっている.本論文では,従来用いられてきた局所的文脈情報だけではなく,文書全体から推定されるトピック情報を併用することで,セマンティックドリフトの緩和とエンティティ獲得の精度向上を図る.本論文におけるトピックとは,ある文書において述べられている「政治」や「スポーツ」等のジャンルを指し,統計的トピックモデル(以下トピックモデル)を用いて自動的に推定する.本論文ではエンティティ獲得精度向上のために,トピック情報を3通りに用いた手法を提案する.第一に,識別器を用いたブートストラップ法における素性として利用する.第二に,識別器において必要となる学習用の負例を自動的に生成する尺度として利用する.第三に,教師データ中のエンティティの多義性を解消することで,適した教師データのみを利用する.以下2節で先行研究とその課題,3節でトピック情報を用いた詳細な提案手法,4節で実験結果について報告し,提案手法が少量のシードからのエンティティ獲得において効果があることを示す.
\section{ブートストラップ法を用いた語彙獲得における課題}
\subsection{ブートストラップ法とセマンティックドリフト}本節では,ブートストラップ法によるエンティティ獲得の基本的な処理の流れと,その課題について述べる.はじめに,ブートストラップ法に基づくエンティティと属性の関係獲得法であるEspresso\cite{pantel2006espresso}について述べる.属性とは獲得対象とするエンティティ集合において,複数のエンティティが共通して関係する語(``has-a''や``is-a''等の関係)であるとする.例えばエンティティ「ヤクルト」と「巨人」の属性は,「監督」(has-a)や「球団」(is-a)等となる.関係獲得タスクは語彙獲得タスクを含んだタスクと捉えられるため,両者を比較することに意味はある.Espressoでは,初期に与えられるシードエンティティとシード属性の組から,それらを含んで出現する文脈パターンを手掛かりとして,新たなエンティティ--属性ペアに対し,自己相互情報量(PMI)に基づいて定義されたスコア関数に基づいてスコアを付与する.ここでの文脈パターンの例としては,「NTT」をエンティティ(X),「株価」を属性(Y)とした場合,「X(NTT)/の/Y(株価)/が/反発」といったものがあげられる.Espressoはブートストラップ法の各繰り返しにおいて,スコア関数値を高くするようなエンティティ--属性ペアを新たな正例として獲得するフェーズと,文脈パターンの獲得フェーズを交互に行い,必要なエンティティ--属性ペア数が得られるまで繰り返す.ブートストラップ法を用いることで少量のシードエンティティのみが与えられた場合でも,教師データを増加させつつ新たなエンティティを獲得していくことが可能なため,本稿でもEspressoと同様,ブートストラップ法に基づいた語彙獲得を行っていく.ブートストラップ法によって少量のシードエンティティから新たなエンティティ集合を獲得する際の主な課題として,獲得する対象が本来獲得すべき種類とは異なる対象へと次第に変わっていってしまうという現象があげられる.例えば獲得対象が企業名である場合に,「NTT」と「トヨタ」をシードエンティティとして与え,Espresso等のエンティティ獲得アルゴリズムにより「ヤクルト」が獲得できたとする.しかし「ヤクルト」には企業名以外にも,プロ野球球団名や飲料品名といった多義性が存在するため,次の繰り返しにおいて獲得されるエンティティが「巨人」等の本来獲得対象としていたエンティティではないものに遷移していく場合がある.この現象はセマンティックドリフトと呼ばれ,ブートストラップ法に基づく語彙獲得における精度低下の大きな要因となっている.\subsection{識別モデルに基づくブートストラップ法と課題}\label{sec:problem}先行研究では,新たなエンティティを選択する際のスコア関数を独自に定義することでセマンティックドリフトを抑え,エンティティを精度良く獲得する手法が提案されている\cite{thelen2002bootstrapping,sarmento2007more}.これらのスコア関数は,基本的にはEspressoと同様にシードエンティティの特徴になるべく近い特徴を持つエンティティに対し,高いスコアを与えるように設計されている.スコア関数についての研究とは異なる観点で提案されたのがBellareらの識別モデルに基づくブートストラップ法である\cite{bellare2007lightly}.彼らの方法では識別モデルからのスコアによってスコア関数を構築するため,柔軟な素性設計が可能となる.例えば,「X(NTT)/の/Y(株価)/が/上昇」という文脈を考えた時,素性関数$f$によって$f({\rmsurf.}=``$の$'',{\rmposition}=X+1)=1,\\f({\rmsurf.}=``$上昇$'',{\rmposition}=Y+2)=1$といった素性が構築される.BellareらはEspressoと同様に関係獲得タスクに識別モデルに基づくブートストラップ法を適用しているが,文脈パターンに相当する素性の重みは,識別学習によって自動的に付与される.そのためEspressoにおける文脈パターン獲得フェーズは不要となり,代わりにエンティティ獲得フェーズと属性獲得フェーズとに分けた手法が提案されている.我々はBellareらの手法に若干の変更を加えたものをベースラインとして用いることとした.このベースラインについては\ref{sec:baseline}節で詳しく述べる.Bellareらの手法及び我々のベースラインシステムには3つの課題が残存する.1つ目の課題は,大域的な情報が識別モデルに反映されていないという点である.識別モデルの導入により素性の柔軟な設計が可能になった一方,彼らは局所的な文脈中の単語の表層と品詞のみを素性として用いるのみで,識別モデルの利点を積極的には用いていない.局所的文脈に基づく素性のみでは,エンティティの曖昧性を解消できない場合がしばしばある.例えばエンティティ「ヤクルト」は企業名としても球団名としても存在する.「ヤクルト」に対して「捕手」のような属性を付与することによって,ある程度曖昧性を解消することは可能であるが,属性を付与した場合でもなお曖昧性が残る場合もある.ここで属性として「広報」が与えられ,文書が次のように与えられている場合を考える.「18日の夜,ヤクルトの広報担当者が取材に対してコメントを発表した.18日の試合で途中退場したY選手は,診断の結果軽いねんざと診断された,とコメントは伝えている.」一文目だけを見た場合,このヤクルトは企業名を指すか球団名を指すかは明らかではない.文書全体を読むことで,このエンティティが「球団名」を指していることが明らかになるが,局所的な文脈パターンのみを用いた場合,文書全体からの大域的情報を利用することはできない.我々は文書全体を通して存在するトピックを,エンティティ識別の際の素性として用いる方法を\ref{sec:topicfeature}節において述べる.2つ目の課題は,識別学習における負例の問題である.識別学習では正例と負例が必要になることが一般的である.Bellareらは現在の正例以外全てを負例として扱っているが,この場合も偽負例が混じる可能性が排除できない上,正例と負例の量が大きく乖離するというデータ非平衡の問題もある.一方,Mintzらは複数のクラスに属する正例群を与えた後,別のクラスに属するエンティティと属性を擬似的な負例ペアとすることで負例を生成している\cite{mintz2009distant}.しかし,1つのクラスのみを獲得対象とする場合,このような負のクラスを加えることには人的コストがかかる上,属性を組み合わせたとしても,エンティティ「ヤクルト」に対する多義属性「広報」が存在するように,属性の多義性によって偽負例が生成されてしまう可能性がある.3つ目の課題はシードエンティティの質及び獲得された正例エンティティの多義性についての問題である.少量のシードエンティティのみを手がかりとして行う語彙獲得タスクでは,シードエンティティによる精度への影響は大きい.Pantelらは大規模なWEBに対して,比較的単純なスコアリング関数を用いて効率的なエンティティ獲得手法を提案しており\cite{pantel2009web},10個程度のシードエンティティにより十分な精度でエンティティ集合が得られると報告している.一方でVyasらはシードエンティティの選択によりエンティティ獲得の結果に影響が出ることを示している\cite{vyas2009helping}.特に多義性のあるシードエンティティが混入した場合にセマンティックドリフトが生じやすく,精度の劣化は大きいと考えられるため,Vyasらは精度を落とす可能性の高いシードを除去するアルゴリズムを提案している.この問題はシードエンティティに限らず,獲得された後に教師データとして用いられるエンティティについても同様が生じてしまう.我々はこれら3つの課題に対し,トピック情報を用いて解決する手法を以下で提案する.
\section{トピック情報を用いたブートストラップ法}
\label{sec:propose}\subsection{ベースライン手法}\label{sec:baseline}本節ではBellareらの手法を基としたベースライン手法について述べる.なお,本節ベースライン手法は図\ref{fig:structure}の実線矢印で,次節以降で述べる提案手法は破線矢印で表している.本ベースライン手法がBellareらの手法と異なる点は,獲得対象がエンティティに限られるという点である.そのため,本ベースライン手法ではエンティティ獲得と属性獲得との交互獲得は行わず,初期に正例属性集合として与えた後の属性集合は不変であるとする.新規属性獲得を行うことも可能ではあるが,獲得された属性集合に偽正例が混じることによってセマンティックドリフトが生じるリスクを排除するために,エンティティのみの獲得を行うこととした.\begin{figure}[t]\begin{center}\includegraphics{19-2ia938f1.eps}\end{center}\caption{提案手法のシステム構成図}\label{fig:structure}\end{figure}ベースライン法においては,はじめに人手によって$N_e$個の正例シードエンティティ集合$E_P$が与えられた後,シードエンティティとのPMIの大きい順に各名詞のランキングを行う.ランキングされた名詞のうちスコアの高い方から$N_a$個の正例属性集合($A_p$)を選択する.$N_e$及び$N_a$は事前に調整するパラメータであり,本論文ではいずれも$10$とした.エンティティ--属性ペアとしてのシードは,シードエンティティ集合$E_P$と正例属性集合$A_P$とを組み合わせることで得た.次にこのエンティティ--属性ペアを,正例教師データ用の文書集合を獲得する際の検索クエリとして用いる.検索の結果得られる,あるエンティティ--属性ペア$\{e,a\}$を含む正例文書集合を$D_{e,a}$と表す.1つ1つの文書を個別に教師データとして用いるのではなく,同じエンティティ--属性ペアを含む文書をまとめることにより,過適応の緩和が期待できる.正例文書集合$D_{e,a}$を元に$e,a$の周辺文脈についての素性化を行う一方,学習用の負例についても文書集合全体からランダムに選択した後に素性化を行い,これらを元に識別モデルを学習する.次に識別モデルの適用方法について述べる.新規正例エンティティとなりうる候補エンティティは,正例属性$a\inA_P$の近傍に出現する固有表現$e'$のみに限定する.訓練データの場合と同様,過適応緩和のため,識別対象$e',a$は文書集合$D_{e',a}$としてまとめられ,素性化処理を行った後に識別モデルが適用される.識別モデル適用の結果出力されるスコアを$s(e,a)$とし,正例属性集合$A_p$について$s(e,a)$の和をとったスコア$\sum_{a\inA_P}s(e,a)$の値の高い方から順に,任意の種類数の新規正例エンティティを獲得する.\subsection{トピック素性とトピックモデル}\label{sec:topicfeature}\ref{sec:problem}節で1つ目の課題として述べたように,識別モデルにおける素性としてこれまでは局所的文脈に基づく素性が用いられてきた\cite{bellare2007lightly}.我々は文脈情報に加え,トピック情報を併用することでエンティティの持つ曖昧性を解消し,セマンティックドリフトの影響を緩和する.文書の背景にあるトピックを利用する場合,文書に対して明示的にトピックラベルが付与されているデータであれば,そのラベルを直接トピック情報として用いることができるが,全ての文書にトピックラベルを人手で付与するにはコストがかかる.本稿ではラベル無しの文書集合しか存在しない場合でもトピック情報の取得を可能にするため,文書のトピックと単語との関係をモデル化するトピックモデルを用いる.トピックモデルは,文書のトピックと関連の強い単語に高い確率を付与することで,文書をより緻密に表現できるモデルであり,情報検索等多様なアプリケーションにおいて利用されている\cite{hofmann1999probabilistic}.例えばある文書のトピックがスポーツであるならば,「サッカー」といったスポーツに関する単語が出現しやすく,「国会」といった単語が出現しにくい,といった大域的情報を扱うことができる.本稿ではトピックモデルとして,各文書におけるトピック間の共起関係をディリクレ分布によって表現するLatentDirichletAllocation(LDA)を用いることとする\cite{blei2003latent}.LDAをはじめとするトピックモデルを用いることで,具体的には文書$d$におけるトピック$z$の事後確率$p(z|d)$を計算することが可能となる.LDAを用いた場合,事後確率を解析的に求めることは困難であるが,変分ベイズ法を用いて近似的に事後確率を求めたり\cite{blei2003latent},マルコフ連鎖モンテカルロ法を用いて近似的に事後確率を推定することが可能である\cite{Griffiths2004fst}.例えば,\ref{sec:problem}節の「ヤクルト」の例に関して,トピックモデルはトピック$z=\text{``野球''}$に対して高い事後確率を付与することが期待される\footnote{$z$は離散変数上の確率変数であり,明示的にトピックを表すような単語を値とはとらない.}.この事後確率は文書$d$のトピック$z$らしさを表現していることに他ならないので,識別における大域的素性として直接的に活用できる.我々の手法において,エンティティ--属性ペア$e,a$に対するトピック素性$\phi_t(z,e,a)$は,LDAの事後確率に基づいて以下のように計算される.\[\phi_t(z,e,a)=\frac{\sum_{d\inD_{e,a}}p(z|d)}{\sum_{z^\prime}\sum_{d\inD_{e,a}}p(z^\prime|d)}.\]\subsection{トピック情報に基づく負例生成}\label{sec:negative}正例のみが存在する状況下で識別モデルを利用する際に問題となるのは,学習用の負例をいかに生成するかという点であり,\ref{sec:problem}節において2つ目の課題としていた.例えば初期の正例以外全てを負例として扱う場合や,ランダムに負例を選択する場合,実際には正例である事例を,誤って負例として扱ってしまう偽負例を生じてしまい,識別結果に対しても悪影響を及ぼす可能性がある.我々の目的は偽負例の生成を抑制するというだけでなく,正例と負例の量を平衡に保ちつつ,セマンティックドリフトを緩和するために幅広いジャンルから負例としてふさわしいものを獲得することである.本節ではトピックモデルを用いることでこのような要求を満たす負例を自動的に獲得する手法について述べる.負例生成問題は,正例とラベルなしデータのみが存在する場合における主要な問題と捉えられている\cite{liu2002partially,li2010negative}.しかし先行研究における手法はある程度大きな規模の正例データを想定しており,我々が用いる非常に少量の正例データについては有効に機能しないと考えられる.そこで,前節で用いたトピックモデルの尺度において,正例からできるだけ遠い事例を負例として選択する手法を提案する.トピックの分布は単語の分布と比べ比較的密であり,少量の正例データからでも正のトピックが推定可能である.各異なり単語を独立次元とするベクトル表現では,例えば「プリウス」と「キャディラック」では全く異なる次元に存在するが,トピックを独立次元とするベクトル表現で捉えると,これらの単語を含む文書は同じトピック次元上に存在する可能性が高く,逆に言えば,負例はそれ以外のトピック次元中に存在しやすい.トピックに基づくこの尺度をトピック$z$に対する``正のトピックスコア''$PT(z)$と呼び,本スコアを元に負例にふさわしい文書を選択していく.正のトピックスコア$PT(z)$を,以下のように正例文書集合$D_{e,a}$中の各文書が与えられた時の事後確率の和として定義する.\begin{equation}PT(z)=\frac{\sum_{d\in{D_{e,a}}}p(z|d)}{|D_{e,a}|}.\end{equation}$PT(z)$の低い方から$50\%$のトピックを負のトピックとし,負のトピック各々において同数ずつ,総数が正例文書数と等しくなるように文書を選択した.この際の文書の選択基準としては,負のトピックに対する事後確率が高く,かつエンティティ候補となり得る固有表現と属性に相当する名詞が,任意のウインドウサイズ内に現れる文書であるとした.本実験に用いたウインドウサイズは3単語である.\subsection{トピック情報による正例の多義性解消}\label{sec:tpc_sel}本節では\ref{sec:problem}節で挙げた3つ目の課題,正例の教師データに多義性が含まれ得るという課題を解決する手法を提案する.正例の中には多義性を持つものも存在するため,その正例が出現する全ての文書を正例の抽出対象として用いることはセマンティックドリフトを引き起こす要因となる(例えば\ref{sec:problem}節の「ヤクルト」の例があげられる).従来研究ではこのようなセマンティックドリフトを引き起こす要因となるシードエンティティを除外する手法が提案されている\cite{vyas2009helping}.これに対し,我々はトピックを用いることにより,エンティティを無条件に除外するのではなく,ドメインに合ったトピックでは活かし,ドメインから外れたトピックでは除外するといったような,細かな処理を可能とする手法を提案する.「ヤクルト,広報」というエンティティ--属性の二つ組に加え,「ヤクルト,広報,$z=\text{``野球''}$」のような三つ組の形とすることで,より確実性の高い正例集合を作ることができる.具体的には,前節で述べた正のトピックスコア$PT(z)$をここでも利用する.まず,任意の閾値$th$において,$PT(z)>th$を満たすトピック$z$を正のトピックとする.もしも条件を満たす$z$が1つもない場合は,最も$PT(z)$の高い$z$を正のトピックとする.そして正例文書集合の中から,正のトピックに含まれる全てのトピック$z^\prime$に対し,$p(z^\prime|d)\leth$となるような文書$d$を正例文書集合から除外する.なお,シードエンティティが与えられているか否かに関わらず,文書単位のトピック事後確率は事前に全て計算しておくことが可能であるため,本手法の適用は比較的高速に行うことが可能である.本節で述べた手法は,\ref{sec:topicfeature}節のトピック素性をハード制約として用いた場合と捉えることができる.
\section{実験}
\subsection{実験条件}本節では提案手法の有効性を示すために,少量のシードエンティティからの新規エンティティ獲得精度を比較し,その結果についての考察を行う.実験には2008年5月の日本語ブログ約3000万記事を用いた.単語及び固有表現を処理単位として素性に変換しており(以後簡単のため固有表現を含めて単語と呼ぶ),形態素解析にはJTAG\cite{Fuchi98}を,IREX定義に基づく固有表現抽出器には最小誤り分類基準に基づくCRFを用いた\cite{suzuki2006training}.素性を獲得する素性テンプレートとしては``(head)\textit{entity}(mid.)\textit{attribute}(tail)''を用いた.head,mid.tailに位置する各単語は表層,品詞,固有表現ラベルに対し,その位置情報を付加した上で素性に変換する.文脈のウインドウサイズ($|head|,|mid|,|tail|$)はそれぞれ最大で2単語とし,素性は正例,負例を通じて最低5回以上出現しているものを用いた.\begin{table}[b]\caption{シードエンティティ及び正例属性}\label{table:seed}\input{03table01.txt}\end{table}本節では「車名」「番組名」「スポーツ組織名」の3つのドメインを対象に実験を行う.一回の繰り返しで獲得するエンティティ種類数は$100$種類とし,合計10回の繰り返しを経て,最終的に1000種類の新規エンティティを獲得する.シードとしたエンティティと属性を表\ref{table:seed}に示す.正例属性はシードエンティティとのPMIの高いものから順に10個を選択したが,番組名においては,属性として明らかにふさわしくないと判断したものを主観的に除去した(「この間」と「さっき」).識別器には$SVM^{light}$\cite{joachims1999making}の2次多項式カーネルを用いた.トピックモデルの学習と適応にはMessagePassingInterface(MPI)でLDAを利用できるParallelLDAを用い\cite{liu2011plda},トピック数100のLDAを学習,適応した.トピックモデルの学習コーパスは,本実験で用いる2008年5月のブログコーパス31日分のうち,14日分の記事約1400万記事を用いた.予備実験の検討より,学習におけるマルコフ連鎖モンテカルロ法のサンプリング回数は200回とし,うち50回を初期値への依存を弱めるためのburn-inとして用いた.実験条件として以下の4条件に基づいて実験を行った.\begin{itemize}\item{1.ベースライン:\ref{sec:baseline}節で述べたものに相当する}\item{2.ベースラインにトピック素性を追加した手法}\item{3.2.に対し負例生成法を追加した手法}\item{4.3.に対し正例の多義性解消法を追加した手法(図\ref{fig:structure}の全破線矢印部に一致)}\end{itemize}システムが獲得した1000個のエンティティについて,2人の評価者が商用検索エンジンを用いて検索し,エンティティと各ドメイン名のAND検索の検索結果上位40件中に,シードエンティティと同じ使い方をされているものが存在するか否かという観点で,正解または不正解のラベルを付与した.また獲得された単語のうち,固有表現抽出器が誤って獲得した固有表現以外の単語(例えば「番組名」における「月9」等)については不正解とした.評価者間の$\kappa$値は$0.895$であった.2人の評価者間で評価が異なった場合,第3の評価者が評価を行い,その評価を正しい評価として用いた.\subsection{実験結果と考察}表\ref{table:result}に各ドメイン毎の実験結果を示す.表中の値は精度と有意差を表している.トピック素性を用いた手法2.においては,車名とスポーツ組織名のドメインにおいて改善を示している.\begin{table}[b]\hangcaption{3ドメインにおける各手法による評価.太字で示している数値は直前行の結果と二項検定を行い,$5\%$の有意差水準において有意に差があったものを示している.斜体は同$10\%$での有意差水準の場合}\label{table:result}\input{03table02.txt}\end{table}また負例生成法は車名と番組名のドメインにおいて改善を示している.これは,負例生成法が偽負例を選択するリスクを低減させたことが要因の1つと考えられる.同様に正例の多義性解消法においても車名と番組名において精度の改善を示している.スポーツ組織名のドメインにおいてはトピック素性を追加した場合に明らかな改善が見られたものの,ある程度の改善がなされてしまったために,他の2つの手法による改善は見られなかった.車名における精度が他のドメインより低いのは,「バイク名」のような比較的近い意味のエンティティが獲得されたことに起因する.これら似たドメインというのは,文脈的特徴が似ているだけでなく,トピックによる特徴も近くなったためと考える.\begin{table}[b]\hangcaption{$z_h$,$z_l$,$z_e$の3トピックに属する特徴的な単語.獲得対象となるドメインに対し,$z_h$は最も近い($PT(z)$が最も高い)トピック,$z_l$は最も遠い($PT(z)$が最も低い)トピックを表す.$z_e$は負例生成で選ばれる負のトピックの1つを表しており,ベースラインを用いた場合の結果に見られるエンティティのセマンティックドリフト(3行目)を抑えることに効果があったことを示している}\label{table:real_topic}\input{03table03.txt}\end{table}提案手法が有効に機能した結果,ベースラインにおいて生じていたセマンティックドリフトが軽減されたということを示すため,ターゲットドメインに近いトピックと遠いトピックに属する単語を表\ref{table:real_topic}に挙げる.表\ref{table:real_topic}は以下に定義される正のトピック$z_h$と負のトピック$z_l$,$z_e$に属する特徴的な単語を示している.\begin{itemize}\item{$z_h$(2行目)$PT(z)$が最大となるトピックであり,正のトピックとして用いられる.}\item{$z_e$(4行目)ベースラインにおいて観察されるエンティティのセマンティックドリフトを抑えるのに効果があったトピック.$PT(z)$の大きい順にソートした際に下位半分に現れる負のトピックの1つから選択したトピック.}\item{$z_l$(5行目)$PT(z)$を最小とするトピックであり,負のトピックとして用いられる.}\end{itemize}各トピックにおける特徴単語として,スコア$p(v|z)/p(v)$が最も高くなる3単語を選択した.ここで$p(v|z)$はLDAにおけるモデルパラメータ,$p(v)$は単語$v$のユニグラム確率であり,コーパス全体からの単純な最尤推定で求められる.正例の多義性解消法が有効に機能するためには,正のトピック$z_h$が対象ドメインに近い必要がある.反対に負例生成法が有効に機能するためには,下位半分のトピックに含まれるトピック$z_l$,$z_e$が対象ドメインから遠い必要がある.表\ref{table:real_topic}を見ると,このいずれもを満たしていることが確認できる.例えば表中「車名」において,最も近いトピックには「車検」という単語等を含み,最も遠いトピックには「内科」という単語を含んでいるため,対象ドメインに対しそれぞれ近い単語,遠い単語が選ばれていると言える.さらに効果的な負のトピックとして,電子機器のトピックが選ばれているために,ベースラインにおいて獲得された「iPod」等の単語が提案手法では獲得されなかった.この傾向は「車名」以外のドメインにおいても確認でき,提案手法の語彙獲得精度の向上に繋がった要因であると考えられる.
\section{関連研究}
先行研究においては,文書/文レベルの全ての単語を素性とした分布類似度を用いたアプローチ(distributionalapproach)が提案されている\cite{pantel2009web}.これらの手法は大域的情報を用いた手法とみなすことができるが,単語の素性空間は非常に多次元かつ疎な空間であり,データ量が増えた場合においてもこの問題を完全に解消することはできない.我々の手法はトピック情報という中間的な単位に落とし込むことでこれらの問題を解消する.我々が用いたトピックモデルは一種の確率的クラスタリングモデルであるので,エンティティ獲得にクラスタリング情報を用いた先行研究としてPa\c{s}caらの研究を挙げて比較する\cite{pasca2008weakly}.Pa\c{s}caらはエンティティの獲得だけでなく,周辺文脈をクラスタリングし,その中からクラスを代表するにふさわしい単語を選択してクラス名として定義する.さらに検索クエリログを用いて,当該クラス内のエンティティと共に用いられるクエリを当該クラスの属性であるとする,「クラス,エンティティ,属性」の3つ組を取得する手法を提案している.Pa\c{s}caらの手法ではクラスタリングを用いているものの,クラスタリング対象範囲は周辺の文脈にとどまる.これに対し我々の手法は文書全体からトピックを推定する点で,より広域な情報を取り入れることができる.また提案手法は語彙獲得の目的に特化させるため,Pa\c{s}caらで用いられていたクラス名を,エンティティの候補が対象クラスに属するか否かを判定するための属性の1つ(``is-a''の属性)として扱う.属性をクラス名のみに絞った方が適合率は高くなると考えられるが,局所的な文脈中にはクラス名が存在しない場合も多い.例えば書籍の場合,書籍タイトルの前後に「本」や「書籍」といったクラスを表わす単語が共起することは少ない.このため,他の属性と併用することで,より高精度かつ網羅的なエンティティ獲得が可能となる.トピックモデルを用いた関連研究として,selectionalpreferencesをモデル化するために,LDAを拡張した生成モデルを利用したRitterらの研究が挙げられる\cite{ritter2010}.Ritterらの手法は我々の手法に最も近いものと言えるが,生成モデルであるか識別モデルであるかの違いがあり,局所的文脈素性と柔軟に統合できるという点で我々のモデルには優位性がある.\ref{sec:negative}節で述べた負例生成は,正例とラベルなしデータのみが存在する場合においての主要な問題と捉えられている\cite{liu2002partially,li2010negative}.しかし先行研究における手法はある程度の規模の正例データを想定しており,非常に少量な正例データについては有効に機能しないと考えられる.これに対し,本稿では少量の正例データからでも適切に負例を生成可能な手法を提案した.一方McIntoshは,複数クラスの語彙獲得タスクにおいて獲得されたエンティティが,シードエンティティよりもそれ以降のイテレーションに得られたエンティティ集合に近い場合に負例であると自動的に判定し,さらに負例のクラスタリングと拡張を行うことで,適切な負例集合を得る手法を提案している\cite{mcintosh2010unsupervised}.またKisoらは単語の共起関係をグラフ上で表現し,HITSスコアの高い単語が正例に該当しない場合はそれらをストップリストとして用いることで,セマンティックドリフトを抑える手法を提案している\cite{kiso2011hits}.McIntoshやKisoらの手法が,セマンティックドリフトを生じやすい単語を直接的に負例として捉えることを主眼としているのに対し,我々はセマンティックドリフトが生じる先のトピックに制約を設ける目的で負例を捉えるという点で異なる.特にMcIntoshの手法では,セマンティックドリフトを抑える効果の高い負例を抽出できる可能性が高い反面,本来の正例が負例になってしまう偽負例を生じる可能性がある.本稿ではセマンティックドリフトを生じやすい単語,言いかえると正例・負例両方の多義性が存在する単語の場合,\ref{sec:tpc_sel}節のトピック情報による多義性解消を併用することで,負例として当該単語が用いられている事例では,正例としても負例としても用いないという判断を行っている.一方正例として当該単語が用いられている事例では,正例学習データとして用いることで,学習データを可能な限り増やしていくというブートストラップ法の観点に見合った手法となっている.本稿ではリソースとして文書集合を用いたが,一方でクエリログを用いたエンティティ獲得の研究も進められている.小町らはクエリログ中に共起する単語をエンティティ及び属性とみなし,ブートストラップ法に基づくエンティティ獲得法の提案を行っている\cite{小町08}.クエリログを使った他の手法としては,他にもSekineらの研究\cite{sekine2007acquiring}やPa\c{s}caらの研究\cite{pasca2008weakly}が挙げられる.しかし,クエリログ単独ではトピックのような大域的な文脈を考慮することができず,また,非公開で一般的に入手が困難なリソースであるという現実的な側面もある.我々はこれらの観点から文書をリソースとして用いることとした.
\section{まとめと今後の課題}
本稿ではトピック情報を用いた3通りの手法により,エンティティ獲得精度を改善できることを示した.従来の識別モデルを用いたブートストラップ法の課題であった,大域的情報を取り込んだ素性の設計,教師データにおける負例の生成,正例教師データにおける多義性を持ったエンティティの存在といった諸問題を,トピックモデルから得られるトピック情報を用いることで解消した.今後のさらなる獲得精度向上のためには,トピックモデルの粒度を目的のドメインに合わせていくことが必要である.このためにはトピックモデルに対する能動学習が有効であると考える\cite{Hu2011}.また関連研究の1つとして挙げた分布類似度を用いたアプローチ\cite{pantel2009web}との比較や統合についても検証する必要もある.別の観点としては,ブートストラップ法のグラフ理論的な拡張があげられる.小町らはエンティティ獲得のアルゴリズムをグラフ理論に基づいて解釈し,グラフカーネルの一種であるラプラシアンカーネルを導入することで性能を改善している\cite{小町10}.トピックモデルを扱えるグラフ理論に基づく枠組みとしては,Cohnら提案したPHITSがあり\cite{cohn2000learning},彼らの考えを導入することができれば,より高い精度のエンティティ獲得法を構築できると考える.\acknowledgment本研究の一部は,\textit{the49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies}で発表したものである\cite{sadamitsu2011}.本論文に関して,非常に有益なコメントを頂いた査読者の方々に感謝の意を表する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bellare,Talukdar,Kumaran,Pereira,Liberman,McCallum,\BBA\Dredze}{Bellareet~al.}{2006}]{bellare2007lightly}Bellare,K.,Talukdar,P.~P.,Kumaran,G.,Pereira,F.,Liberman,M.,McCallum,A.,\BBA\Dredze,M.\BBOP2006\BBCP.\newblock\BBOQ{Lightly-supervisedattributeextraction}.\BBCQ\\newblockIn{\BemProceedingsoftheAdvancesinNeuralInformationProcessingSystemsWorkshoponMachineLearningforWebSearch}.\bibitem[\protect\BCAY{Blei,Ng,\BBA\Jordan}{Bleiet~al.}{2003}]{blei2003latent}Blei,D.~M.,Ng,A.~Y.,\BBA\Jordan,M.~I.\BBOP2003\BBCP.\newblock\BBOQ{Latentdirichletallocation}.\BBCQ\\newblock{\BemTheJournalofMachineLearningResearch},{\Bbf3},\mbox{\BPGS\993--1022}.\bibitem[\protect\BCAY{Cohn\BBA\Chang}{Cohn\BBA\Chang}{2000}]{cohn2000learning}Cohn,D.\BBACOMMA\\BBA\Chang,H.\BBOP2000\BBCP.\newblock\BBOQ{Learningtoprobabilisticallyidentifyauthoritativedocuments}.\BBCQ\\newblockIn{\BemProceedingsofthe17thInternationalConferenceonMachineLearning},\mbox{\BPGS\167--174}.\bibitem[\protect\BCAY{Fuchi\BBA\Takagi}{Fuchi\BBA\Takagi}{1998}]{Fuchi98}Fuchi,T.\BBACOMMA\\BBA\Takagi,S.\BBOP1998\BBCP.\newblock\BBOQ{Japanesemorphologicalanalyzerusingwordco-occurrence-JTAG}.\BBCQ\\newblockIn{\BemProceedingsofthe36thAnnualMeetingoftheAssociationforComputationalLinguisticsand17thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\409--413}.\bibitem[\protect\BCAY{Griffiths\BBA\Steyvers}{Griffiths\BBA\Steyvers}{2004}]{Griffiths2004fst}Griffiths,T.~L.\BBACOMMA\\BBA\Steyvers,M.\BBOP2004\BBCP.\newblock\BBOQ{Findingscientifictopics}.\BBCQ\\newblock{\BemProceedingsoftheNationalAcademyofSciencesoftheUnitedStatesofAmerica},{\Bbf101Suppl}(Suppl1),\mbox{\BPGS\5228--5235}.\bibitem[\protect\BCAY{Hofmann}{Hofmann}{1999}]{hofmann1999probabilistic}Hofmann,T.\BBOP1999\BBCP.\newblock\BBOQ{Probabilisticlatentsemanticindexing}.\BBCQ\\newblockIn{\BemProceedingsofthe22ndannualinternationalACMSIGIRconferenceonResearchanddevelopmentininformationretrieval},\mbox{\BPGS\50--57}.\bibitem[\protect\BCAY{Hu\BBA\Boyd-graber}{Hu\BBA\Boyd-graber}{2011}]{Hu2011}Hu,Y.\BBACOMMA\\BBA\Boyd-graber,J.\BBOP2011\BBCP.\newblock\BBOQ{Interactivetopicmodeling}.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\248--257}.\bibitem[\protect\BCAY{Joachims}{Joachims}{1999}]{joachims1999making}Joachims,T.\BBOP1999\BBCP.\newblock{\Bem{Makinglarge-ScaleSVMLearningPractical.AdvancesinKernelMethods---SupportVectorLearning}}.\newblockSoftwareavailableathttp://svmlight.joachims.org/.\bibitem[\protect\BCAY{Kiso,Shimbo,Komachi,\BBA\Matsumoto}{Kisoet~al.}{2011}]{kiso2011hits}Kiso,T.,Shimbo,M.,Komachi,M.,\BBA\Matsumoto,Y.\BBOP2011\BBCP.\newblock\BBOQ{HITS-basedseedselectionandstoplistconstructionforbootstrapping}.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\30--36}.\bibitem[\protect\BCAY{Li,Liu,\BBA\Ng}{Liet~al.}{2010}]{li2010negative}Li,X.-L.,Liu,B.,\BBA\Ng,S.-K.\BBOP2010\BBCP.\newblock\BBOQ{Negativetrainingdatacanbeharmfultotextclassification}.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\218--228}.\bibitem[\protect\BCAY{Liu,Lee,Yu,\BBA\Li}{Liuet~al.}{2002}]{liu2002partially}Liu,B.,Lee,W.~S.,Yu,P.~S.,\BBA\Li,X.\BBOP2002\BBCP.\newblock\BBOQ{Partiallysupervisedclassificationoftextdocuments}.\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonMachineLearning},\mbox{\BPGS\387--394}.\bibitem[\protect\BCAY{Liu,Zhang,Chang,\BBA\Sun}{Liuet~al.}{2011}]{liu2011plda}Liu,Z.,Zhang,Y.,Chang,E.~Y.,\BBA\Sun,M.\BBOP2011\BBCP.\newblock\BBOQ{PLDA}+:ParallelLatentDirichletAllocationwithDataPlacementandPipelineProcessing.\BBCQ\{\itshapeACMTransactionsonIntelligentSystemsandTechnology,specialissueonLargeScaleMachineLearning}.Softwareavailableathttp://code.google.com/p/plda.\bibitem[\protect\BCAY{McIntosh}{McIntosh}{2010}]{mcintosh2010unsupervised}McIntosh,T.\BBOP2010\BBCP.\newblock\BBOQ{Unsuperviseddiscoveryofnegativecategoriesinlexiconbootstrapping}.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\356--365}.\bibitem[\protect\BCAY{Mintz,Bills,Snow,\BBA\Jurafsky}{Mintzet~al.}{2009}]{mintz2009distant}Mintz,M.,Bills,S.,Snow,R.,\BBA\Jurafsky,D.\BBOP2009\BBCP.\newblock\BBOQ{Distantsupervisionforrelationextractionwithoutlabeleddata}.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAsianFederationofNaturalLanguageProcessing},\mbox{\BPGS\1003--1011}.\bibitem[\protect\BCAY{Pa\c{s}ca\BBA\Durme}{Pa\c{s}ca\BBA\Durme}{2008}]{pasca2008weakly}Pa\c{s}ca,M.\BBACOMMA\\BBA\Durme,B.~V.\BBOP2008\BBCP.\newblock\BBOQ{Weakly-supervisedacquisitionofopen-domainclassesandclassattributesfromwebdocumentsandquerylogs}.\BBCQ\\newblockIn{\BemProceedingsofthe46thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\19--27}.\bibitem[\protect\BCAY{Pantel,Crestan,Borkovsky,Popescu,\BBA\Vyas}{Pantelet~al.}{2009}]{pantel2009web}Pantel,P.,Crestan,E.,Borkovsky,A.,Popescu,A.-M.,\BBA\Vyas,V.\BBOP2009\BBCP.\newblock\BBOQ{Web-scaledistributionalsimilarityandentitysetexpansion}.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\938--947}.\bibitem[\protect\BCAY{Pantel\BBA\Pennacchiotti}{Pantel\BBA\Pennacchiotti}{2006}]{pantel2006espresso}Pantel,P.\BBACOMMA\\BBA\Pennacchiotti,M.\BBOP2006\BBCP.\newblock\BBOQ{Espresso:Leveraginggenericpatternsforautomaticallyharvestingsemanticrelations}.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsandthe44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\113--120}.\bibitem[\protect\BCAY{Ritter\BBA\Etzioni}{Ritter\BBA\Etzioni}{2010}]{ritter2010}Ritter,A.\BBACOMMA\\BBA\Etzioni,O.\BBOP2010\BBCP.\newblock\BBOQ{ALatentdirichletallocationmethodforselectionalpreferences}.\BBCQ\\newblockIn{\BemProceedingsofthe48thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\424--434}.\bibitem[\protect\BCAY{Sadamitsu,Saito,Imamura,\BBA\Kikui}{Sadamitsuet~al.}{2011}]{sadamitsu2011}Sadamitsu,K.,Saito,K.,Imamura,K.,\BBA\Kikui,G.\BBOP2011\BBCP.\newblock\BBOQ{Entitysetexpansionusingtopicinformation}.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\726--731}.\bibitem[\protect\BCAY{Sarmento,Jijkuon,Rijke,\BBA\Oliveira}{Sarmentoet~al.}{2007}]{sarmento2007more}Sarmento,L.,Jijkuon,V.,Rijke,M.~D.,\BBA\Oliveira,E.\BBOP2007\BBCP.\newblock\BBOQ{Morelikethese:growingentityclassesfromseeds}.\BBCQ\\newblockIn{\BemProceedingsofthe16thACMConferenceonInformationandKnowledgeManagement},\mbox{\BPGS\959--962}.\bibitem[\protect\BCAY{Sekine}{Sekine}{2008}]{sekine2008extended}Sekine,S.\BBOP2008\BBCP.\newblock\BBOQ{Extendednamedentityontologywithattributeinformation}.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalLanguageResourcesandEvaluation}.\bibitem[\protect\BCAY{Sekine\BBA\Suzuki}{Sekine\BBA\Suzuki}{2007}]{sekine2007acquiring}Sekine,S.\BBACOMMA\\BBA\Suzuki,H.\BBOP2007\BBCP.\newblock\BBOQ{Acquiringontologicalknowledgefromquerylogs}.\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalConferenceonWorldWideWeb},\mbox{\BPGS\1223--1224}.\bibitem[\protect\BCAY{Suzuki,McDermott,\BBA\Isozaki}{Suzukiet~al.}{2006}]{suzuki2006training}Suzuki,J.,McDermott,E.,\BBA\Isozaki,H.\BBOP2006\BBCP.\newblock\BBOQ{Trainingconditionalrandomfieldswithmultivariateevaluationmeasures}.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsandthe44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\217--224}.\bibitem[\protect\BCAY{Thelen\BBA\Riloff}{Thelen\BBA\Riloff}{2002}]{thelen2002bootstrapping}Thelen,M.\BBACOMMA\\BBA\Riloff,E.\BBOP2002\BBCP.\newblock\BBOQ{Abootstrappingmethodforlearningsemanticlexiconsusingextractionpatterncontexts}.\BBCQ\\newblockIn{\BemProceedingsofthe2002ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\214--221}.\bibitem[\protect\BCAY{Vyas,Pantel,\BBA\Crestan}{Vyaset~al.}{2009}]{vyas2009helping}Vyas,V.,Pantel,P.,\BBA\Crestan,E.\BBOP2009\BBCP.\newblock\BBOQ{Helpingeditorschoosebetterseedsetsforentitysetexpansion}.\BBCQ\\newblockIn{\BemProceedingofthe18thACMConferenceonInformationandKnowledgeManagement},\mbox{\BPGS\225--234}.\bibitem[\protect\BCAY{小町\JBA鈴木}{小町\JBA鈴木}{2008}]{小町08}小町守\JBA鈴木久美\BBOP2008\BBCP.\newblock{検索ログからの半教師あり意味知識獲得の改善}.\\newblock\Jem{人工知能学会論文誌},{\Bbf23}(3),\mbox{\BPGS\217--225}.\bibitem[\protect\BCAY{小町\JBA工藤\JBA新保\JBA松本}{小町\Jetal}{2010}]{小町10}小町守\JBA工藤拓\JBA新保仁\JBA松本裕治\BBOP2010\BBCP.\newblock{Espresso型ブートストラッピング法における意味ドリフトのグラフ理論に基づく分析}.\\newblock\Jem{人工知能学会論文誌},{\Bbf25}(2),\mbox{\BPGS\233--242}.\bibitem[\protect\BCAY{廣嶋\JBA大附\JBA林}{廣嶋\Jetal}{2004}]{廣嶋2004}廣嶋伸章\JBA大附克年\JBA林良彦\BBOP2004\BBCP.\newblock関連語彙獲得に基づく認識辞書のオフライン教師なし適応.\\newblock\Jem{情報処理学会研究報告(SIG-SLP),74号},\mbox{\BPGS\107--114}.\bibitem[\protect\BCAY{橋本\JBA乾\JBA村上}{橋本\Jetal}{2008}]{橋本08}橋本泰一\JBA乾孝司\JBA村上浩司\BBOP2008\BBCP.\newblock{拡張固有表現タグ付きコーパスの構築}.\\newblock\Jem{情報処理学会研究報告(SIG-NLP),113号},\mbox{\BPGS\113--120}.\bibitem[\protect\BCAY{橋本\JBA中村}{橋本\JBA中村}{2010}]{橋本10}橋本泰一\JBA中村俊一\BBOP2010\BBCP.\newblock{拡張固有表現タグ付きコーパスの構築—白書,書籍,Yahoo!知恵袋コアデータ}.\\newblock\Jem{言語処理学会第16回年次大会},\mbox{\BPGS\916--919}.\end{thebibliography}\begin{biography}\bioauthor{貞光九月}{2004年筑波大学第三学群情報学類卒業.2009年同大学大学院博士課程修了.同年日本電子電話株式会社入社.現在,NTTサイバースペース研究所研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会各会員}\bioauthor{齋藤邦子}{1996年東京大学理学部化学科卒業.1998年同大学院修士課程修了.同年日本電信電話株式会社入社.現在,NTTサイバースペース研究所主任研究員.自然言語処理研究開発に従事.言語処理学会,情報処理学会各会員.}\bioauthor{今村賢治}{1985年千葉大学工学部電気工学科卒業.同年日本電信電話株式会社入社.1995年--1998年NTTソフトウェア株式会社.2000年--2006年ATR音声言語コミュニケーション研究所.2006年よりNTTサイバースペース研究所主任研究員.現在に至る.主として自然言語処理の研究・開発に従事.博士(工学).電子情報通信学会,情報処理学会,言語処理学会,ISCA各会員.}\bioauthor{松尾義博}{1988年大阪大学理学部物理学科卒.1990年同大大学院研究科博士前期課程修了.同年日本電信電話(株)入社.機械翻訳,自然言語処理の研究に従事.情報処理学会,言語処理学会,各会員.}\bioauthor{菊井玄一郎}{1984年京都大学工学部電気工学科卒.1986年同大学大学院工学研究科修士課程電気工学第二専攻修了.同年日本電信電話(NTT)入社.1990--1994(株)国際電気通信基礎技術研究所(ATR).2001年ATR音声言語コミュニケーション研究所研究室長.2006年NTTサイバースペース研究所音声・言語基盤技術グループリーダ.2011年岡山県立大学情報工学部情報システム工学科教授.現在に至る.博士(情報学).言語処理学会,情報処理学会,音響学会各会員.}\end{biography}\biodate\end{document}
| |
V24N01-06 | \section{はじめに}
社会学においては,職業や産業データは性別や年齢などと同様に重要な属性であり,正確を期する必要がある.このため,国勢調査でも行われているように,自由回答で収集したものを研究者自身が職業・産業分類コードに変換する場合が多い\cite{Hara84}.この作業は「職業・産業コーディング」とよばれるが,国内の社会学において標準的に用いられる職業コード(SSM職業小分類コード)は約200個,産業コード(SSM産業大分類コード)は約20個あり\cite{SSM95},分類すべきクラスの数が非常に多く,コード化のルールも複雑なことから,特に大規模調査の場合は多大な労力や時間を要するという深刻な問題を抱えている\cite{Seiyama04}.また,多人数で長期間にわたる作業となるため,コーディング結果における一貫性の問題も指摘されている\cite{Todoroki_et_al13}.そこで,これらの問題を軽減する目的で,職業・産業コーディングを自動化するシステムの開発を行ってきた.最初に開発したシステムは,SSM職業・産業分類コードを決定するルールを生成し,これに基づいて自動コーディングを行った結果をCSV形式のファイルにするもので\cite{Takahashi00},主として大規模調査に利用された\cite{Takahashi02b,Takahashi03,Takahashi_et_al05b}.その後,自動コーディングの精度向上のため,自動化のアルゴリズムを,文書分類において分類性能の高さで評価されている機械学習のサポートベクターマシン(SVM)\cite{Joachims98,Sebastiani02}とルールベース手法を組み合わせた手法に改良した\cite{Takahashi_et_al05a,Takahashi_et_al05c}.また,社会学を取り巻く環境の変化に対応するために,ILOにより定められた国際標準コードに変換するシステムも開発した\cite{Takahashi08,Takahashi11}.さらに,いずれのシステムにも,自動コーディングの結果に対してシステムの確信度を付与する機能を追加した\cite{Takahashi_et_al13a}.この結果,自動化システムは職業・産業コーディングにおける前述の2つの問題解決に大きく貢献するものとして,社会調査分野において評価を得た\cite{Hara13}.自動化システムはまた,職業・産業コーディングの実施方法も変えた.以前は,コーダは調査票を見ながらコーディングを行い,その結果を調査票に書き入れていた.しかし,システムの開発以降,依頼者が作成したデータファイルを開発者が事前に処理し,コーダはその結果付きのファイルを画面に表示してコーディングを行い,結果を入力するようになった.この方法は,自動化システムを利用する場合の標準的な方法となった.現在,自動化システムは整理統合され,東京大学社会科学研究所附属社会調査・データアーカイブ研究センター(CSRDA)から,Webを通じた利用サービスとして試行提供されている\footnote{http://csrda.iss.u-tokyo.ac.jp/joint/autocode/}\cite{Takahashi_et_al14}.利用希望者は,自動コーディングを希望するコードの種類を明記した書類をCSRDAに申請し,受理されれば,所定の形式の入力ファイルを指定された場所にアップロードすることができ,その場所から,CSRDAのシステム運用担当者が処理した結果をダウンロードできる仕組みとなっている.これにより,一般の研究者や研究グループが開発者を通すことなく,自由にシステムを利用することができるようになった.海外においても職業・産業コーディングは実施されており,負担の大きい作業であるとの認識から,コンピュータによる支援方法が検討されている.しかし,単なる単語のマッチング以外のものは,韓国と米国における2例のみである.いずれもルールベース手法が中心で,機械学習は適用されていない.また,以上に述べた自動化システムと大きく異なるのは,職業や産業コードそのものを重要な変数として分析に用いる社会学の研究を支援するものではない点である.本稿では,現在公開中の自動化システム(以下,本システムと略す)について報告する.本システムにおける新規性は次の3つである.\begin{itemize}\item分類精度向上のために,ルールベース手法と機械学習の組み合わせ手法の適用\itemコーダの作業負担軽減のため,第1位に予測された候補に対する確信度を付与\item国内標準コードだけでなく,近年利用が高まっている国際標準コードにも対応\end{itemize}本システムは,CSRDAに置かれたのを機に,だれもが容易に操作することができるように,ユーザーインターフェイスを改良した.これは,システムの運用担当者が社会学研究者であることと,短期間で交代する状況を考慮したためである.以下では,最初に自動化システムのこれまでの変遷について補足説明を行った後,本システムについて述べる.そこでは,実際に本システムを利用する社会学研究者による評価も報告する.また,CSRDAにおける本システムの利用方法についても述べる.
\section{自動化システムの変遷}
1節で述べたように,自動化システムは開発当初とはアルゴリズムを変え,国際標準コードへの変換も行うようになった.国際標準の職業コードは,ISCO(InternationalStandardClassificationofOccupations)\footnote{http://laborsta.ilo.org/applv8/data/isco88e.html},産業コードはISIC(InternationalStandardIndustrialClassificationofAllEconomicActivities)\footnote{http://laborsta.ilo.org/applv8/data/isic3e.html}で,いずれもSSMコードとはコード体系が異なり,4桁の階層構造で,SSMコードより分類クラスの個数が多い.新規にシステムを開発した理由は,SSMコードはもともと1968年版の国際標準コードを源とするが,1988年の国際標準コードの大幅な改訂により両者の対応関係が複雑化し,変換表の作成が困難であると判断したためである\cite{Tanabe06}.これにより,個々に独立したシステムではあるが,国内標準コードと国際標準コードに対する自動コーディングが可能となった.自動化システムを利用すれば,コーダは提示されたコードを参考にコーディングを行うことができる.このため,特に初心者のコーダに対する有効性が評価され,国内の代表的な社会調査において利用が広がった.例えば,我が国初の二次分析のための大規模調査JGSS(JapaneseGeneralSocialSurveys;日本版総合的社会調査)\footnote{http://jgss.daishodai.ac.jp/surveys/sur\_top.html}においては,初回の2000年以降,毎回利用されてきた\cite{Takahashi02b,Takahashi03,Takahashi_et_al05b,Takahashi11}.また,10年ごとに実施されるSSM(SocialStratificationandsocilaMobility)調査(社会階層と社会移動全国調査)においても,2005年調査に引き続き\cite{Takahashi08},2015年調査\footnote{http://www.l.u-tokyo.ac.jp/2015SSM-PJ/index.html}でも利用されている\footnote{SSM調査は大規模である上に,社会学の中でも職業や産業データがとりわけ重要な役割を果たす階層移動研究の調査で,本人の初職から現職にいたるまでの職業や産業の履歴に加え,配偶者,父親,母親についても収集されるため,作業量の問題は重大である.例えば2015SSM調査の場合,コーディングを行う事例は約60,000にのぼっている.}.自動化システムの利用によりコーダの作業は楽になったが,熟練コーダがすべてのコーディング結果に対して再チェックを行って最終コード(正解)を決定する状況は変わらなかった.そこで,熟練コーダの作業量についても軽減できるように,自動コーディングの結果に対して,人手によるコーディングが必要かどうかを示す目安として,3段階(A:不要,B:できれば行う方がよい,C:必要)の確信度を付与する機能の追加を行った\cite{Takahashi_et_al13a}.この確信度は,一般のコーダが自動コーディングの結果を参考にする場合の判断基準としても有用であると考えられる.自動化システムは開発以来,大規模調査での利用が多かった.しかし,近年は,一般の研究者や研究グループからも利用の要請が増えてきたため,Webを通じてだれもが自由に利用できる仕組みの検討を始めた\cite{Takahashi_et_al13b}.その際,利用者の多くが文系の研究者であることや,システムの稼働環境がやや複雑であることから,利用者自身がシステムをダウンロードして用いるのではなく,入力データのファイルをアップロードしたものをシステム運用担当者が処理する方法を想定した.また,システムの運用業務についても,開発者以外のだれもが担当できるように改良する必要があると判断した.これらの課題を解決し,CSRDAから公開されているものが本システムである.
\section{職業・産業コーディング自動化システム}
\subsection{職業・産業コーディング}最初に,職業・産業コーディングが対象とする質問と回答について具体的に説明する.職業・産業コーディングは,自由回答である「仕事の内容」(職業の場合)または「従業先の事業内容」(産業)を中心に,選択回答である「従業上の地位・役職」,「従業先の事業規模」から構成される質問群により収集される回答に対して実施される\cite{SSM96}.質問文は調査により多少異なるが,JGSSにおける質問文と回答の形式を表~\ref{table0}に示す\cite{JGSS05}\footnote{JGSSでは一つの質問としている「従業上の地位・役職」を,「地位」と「役職」の2つに分けて尋ねる調査も多い.}.表~\ref{table0}における選択回答の選択肢は注に示す通りである\footnote{選択肢も調査により異なるが,ここでは本システムで用いるJGSS-2003調査における配偶者職のものを示す\cite{JGSS05}.「地位・役職」は,「1:経営者・役員,2:常時雇用の一般従事者役職なし,3:同左職長、班長、組長,4:同左係長、班長、組長,5:同左課長、課長相当職,6:同左部長、部長相当職,7:同左役職はわからない,8:臨時雇用・パート・アルバイト,9:派遣社員,10:自営業主・自由業者,11:家族従業者,12:内職,14:わからない(選択肢13なし)」である.「従業先の事業規模」は,「1:1人,2:2〜4人,3:5〜9人,4:10〜29人,5:30〜99人,6:100〜299人,7:300〜499人,8:500〜999人,9:1,000〜1,999人,10:2,000〜9,999人,11:1万人以上,12:官公庁,13:わからない」である.本システムを利用する場合は,この選択肢に適宜合わせる必要がある.}.\begin{table}[t]\caption{質問文の例と回答の形式(JGSSの場合)}\label{table0}\input{04table01.txt}\end{table}職業・産業コーディングの例として,「仕事の内容」が「配車等を手配」,「従業先の事業内容」が「荷物をつみおろす業務等」,「従業上の地位・役職」が「2」,「従業先の事業規模」が「8」であるようなデータの場合,SSM職業コードは「563」(運輸事務員)が付与され\cite{Takahashi_et_al05c},SSM産業コードは「80」(運輸業)が付与される.なお,社会学においては職業と産業の両方をコーディングする場合が多いが,産業のデータ(「従業先の事業内容」「従業先の事業規模」)が収集されず,職業コーディングのみ実施される場合もある.このような場合,本システムは,それぞれを「無回答」「13」とした入力ファイルにより処理を行う.\subsection{変換を行うコードの種類}職業・産業コーディングにおいて本システムが変換するコードは,表~\ref{table1}に示す4種類で,いずれも現在の社会学で必要性が高いものである\footnote{社会学においては職業の方が産業より重要であるために,産業より細かい分類を行う.}.特に,SSM職業コードは,初回の1955年SSM調査以来,社会学における標準的なコードとして用いられている.表~\ref{table1}に示す小分類コードの上位には16の大分類がある(表~\ref{table22}参照).社会学の研究では,この大分類または4.2節で述べる別の種類の大分類レベルに小分類コードを統合して分析する場合が多い.\begin{table}[b]\caption{変換するコードの種類と個数}\label{table1}\input{04table02.txt}\end{table}\begin{table}[b]\caption{SSM職業コードにおける大分類と小分類の対応}\label{table22}\input{04table03.txt}\end{table}SSMコードは1995年に改定されて以来,コード体系は変えていないが,職業や産業を取り巻く環境の変化を反映するために,新規のコードが追加されている.例えば,SSM職業コードは,1995年調査で用いられた189個(表~\ref{table22}参照)が基本であるが,2005年SSM調査では既存のコードから700番台のコードを分化させ\footnote{「599」(会計事務員)から「701」(レジ・キャッシャー),「679」(大工、左官、とび職)から「702」(大工)を分化させた他に,これまでは情報不足のために「999」(不明)としていた中から,得られた情報を少しでも活かすために,「703」(どこで教えているかはわからないが教員)や「704」(何の製品かはわからないが製品製造作業者)なども分化させた.},2015SSM調査では800番台のコードを分化させた\footnote{「578」(女中、家政婦、家事サービス職業従事者)から「801(介護員、ヘルパー),「592」(その他のサービス職業従事者)から「802」(その他の医療福祉サービス職従事者)などを分化させた.}.国内の社会学ではSSM調査やJGSSで用いられるコードに倣うことが多いため,本システムでも2005SSM調査に合わせ,表~\ref{table22}に示したコードに700番台のコードを追加した193個のコードに分類する.コードの分化はSSM産業コードにおいても行われている\footnote{「90」(卸売・小売業、飲食店)から「91」(卸売)「92」(小売)「93」(飲食店)を分化させた他,「130」(情報・通信サービス業)や「170」(その他のサービス業)からも分化させたコードがある.}.\subsection{入力ファイルと結果ファイルの形式}入力データは,A列からF列までの各列がこの順に,「ID」「学歴」「従業上の地位・役職」「従業先の事業内容」「仕事の内容」「従業先の事業規模」であるCSV形式のファイルである(表~\ref{table2}参照).学歴は選択肢で収集される\footnote{学歴についても.本システムで用いるJGSS-2003調査における選択肢を示す\cite{JGSS05}.「1:旧制尋常小学校(国民学校を含む),2:旧制高等小学校,3:旧制中学校・高等女学校,4:旧制実業学校,5:旧制師範学校,6:旧制高校・旧制専門学校・高等師範学校,7:旧制大学・旧制大学院,8:新制中学校,9:新制高校,10:新制短大・高専,11:新制大学,12:新制大学院,13:わからない」である.}.\begin{table}[b]\caption{入力ファイルの例}\label{table2}\input{04table04.txt}\end{table}利用者は,この形式のファイルを用意すれば,表~\ref{table1}に示す4種類のコードのうち希望するコードを最大4種類まで自由に選択できる.入力ファイルの作成方法については,CSRDAのWebサイト\footnote{http://csrda.iss.u-tokyo.ac.jp/autocode-form.pdf}に詳細な説明が掲載されている.本システムでは,過去の調査等ですでにSSMコードが付与された事例に対し,このコードを利用して新たにISCOやISICを付与することも可能である.このため,表~\ref{table2}に示した入力ファイルの右列に「付与ずみのSSMコード」を追加したものも受け付ける.例えば,ISCOを希望する場合はG列にSSM職業コード,ISICを希望する場合はH列にSSM産業コードを入力すれば,3.7節で述べるように,システムはこのSSMコードを利用して処理を行う.本システムでは,結果ファイルとして,第3位までに予測したコードを提示したCSV形式のファイルをコードの種類ごとに出力する(表~\ref{table3}参照).表\ref{table3}において,rank1,rank2,rank3はそれぞれ「第1位に予測されたコード」「第2位に予測されたコード」「第3位に予測されたコード」を意味する.また,確信度は,システムが第1位に予測したコードに対する信頼度で,本システムでは,「A:人手によるコーディングは不要,B:できれば人手によるコーディングを行う方がよい,C:人手によるコーディングが必要」の3段階を出力する.確信度については3.8節で説明する.\begin{table}[t]\caption{結果ファイルの例(SSM職業コードの場合)}\label{table3}\input{04table05.txt}\end{table}\subsection{操作用の画面}図~\ref{fg2}は,本システムを稼働させたときに最初に表示される操作用画面である.実行を開始するには,この画面上で入力ファイルを指定し,変換を希望するコードのチェックボックスをクリックした後,Runボタンを押せばよい.図~\ref{fg3}は,SSM職業コードとISCOを選択した場合の例である.\begin{figure}[t]\noindent\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{24-1ia4f1.eps}\caption{操作画面(開始時)}\label{fg2}\end{center}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{24-1ia4f2.eps}\caption{操作画面(入力ファイルとコードを指定)}\label{fg3}\end{center}\end{minipage}\vspace{1\Cvs}\end{figure}本システムは,図~\ref{fg3}に示すように,実行開始までは人間が操作するが,これ以降は結果ファイルを出力するまですべて人手を介さずにコンピュータが自動的に処理をする.結果ファイルは,SSM職業コード,ISCO,SSM産業コード,ISICの順に作成する.例えば,図~\ref{fg3}の場合は,SSM職業コードの結果ファイルを作成後,ISCOの結果ファイルを作成して処理を完了する.途中の処理状況は画面に表示される.その一部を図~\ref{fg5},図~\ref{fg6}に示す.\begin{figure}[t]\noindent\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{24-1ia4f3.eps}\caption{処理状況の表示(ISCO処理中)}\label{fg5}\end{center}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{24-1ia4f4.eps}\caption{処理状況の表示(処理完了)}\label{fg6}\end{center}\end{minipage}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{24-1ia4f5.eps}\end{center}\caption{システム構成図}\label{fg1}\end{figure}\subsection{システム構成図と自動化の手法}本システムの構成を図~\ref{fg1}に示す.図~\ref{fg1}より明らかなように,本システムでは,すべてのコードに対して,直接または間接的にルールベース手法とSVMを組み合わせた手法を適用する.直接的にルールベース手法とSVMを組み合わせる手法はSSMコードに適用するもので,ルールベース手法により決定されたコードを直接,SVMの素性として利用する.ISCOとISICにはルールベース手法がないためにこの手法は適用せず,SVMの素性として,ルールベース手法とSVMを組み合わせた手法により予測されたSSMコードを利用する.このため,ISCOやISICも間接的にルールベース手法とSVMを組み合わせた手法を適用している.ただし,例外として図~\ref{fg1}には示していないが,過去の調査等ですでにSSMコードが付与された事例にISCOやISICを付与する場合はこのコードを利用するため,ルールベース手法の適用は行わない.自動化の手法について,次節でルールベース手法\cite{Takahashi00}について述べた後,3.7節でこれをSVMに組み合わせる方法\cite{Takahashi_et_al05c}について述べる.\subsection{ルールベース手法}\subsubsection{格フレームの概念による職業・産業データの理解}職業・産業コーディングにおいて最も重要な情報は,自由回答の記述内容である.職業コードや産業コードの定義\cite{SSM95}から,職業データは個人,産業データは従業先の事業という違いはあるが,いずれも基本的には動作の違いにより大きく分かれ,さらに,その動作が何を対象とするのか,どこで行われるのかにより細かく分類されると解釈できる.したがって,本システムでは自由回答に記述された内容すべてを解析せず,分類に必要なものとして,「格フレーム」の概念に基づく情報のみを抽出する.最初に,入力ファイル中の自由回答に対して形態素解析\cite{Kurohashi98}を行う.その結果から,職業・産業コーディングにおいて不要であると判断できる語を削除する.具体的には,品詞が「形容詞」,「副詞」,「接頭辞」,「接尾辞」である語および原形が「等」,「他」,「関係」,「仕事」,「作業」などの語(118種類)である.次に,動作を表す語(本稿ではこれを「述語」とよぶ)を抽出するが,本システムでは構文解析を行わずに,単純に回答の末尾にある語を述語とする.このため,本システムでは,動詞だけでなく,サ変名詞や普通名詞も述語として扱われる\footnote{1995SSM調査データにおいて無作為抽出した1,000サンプルの場合,「仕事の内容」における末尾の語の品詞は,動詞($6\%$),サ変名詞($51\%$),普通名詞($39\%$)であった.普通名詞は,例えば,「医師」,「薬剤師」のように職業名が多いが,「米」,「野菜」のように生産物の場合もある\cite{Takahashi00}.}.以下では,職業を例に述べる.述語には,述語だけでSSM職業コードが決定できるものと,述語が必要とする格とその格が取る語(本稿ではこれを「名詞」とよぶ)が必要なものがある.前者の例は,「薬剤師」や「栄養士」のような職業名が多く,述語のみでSSM職業コード「510」(薬剤師)や「513」(栄養士)が付与される.後者の例は,「製造」や「教える」で,それぞれ「何を」や「どこで」の内容によりSSM職業コードが異なるため,格と名詞が必要となる.この場合,述語の前に助詞(「を」や「で」)があれば,これを手がかりにして名詞を抽出し,<述語,格,名詞>の三つ組を生成する.例えば,述語が「製造」の場合,述語の前に助詞「を」があればこれを抽出した後,「を」の直前にある名詞も抽出する.同様に,「教える」の場合は,述語の前に助詞「で」があればこれを抽出し,「で」の直前にある名詞も抽出する.本システムでは,前者の場合も,格と名詞を抽出する必要のない三つ組として扱う.本システムは,回答から複数の述語が抽出されたり,回答の途中に「。」があると,複数の文(単語のみの場合もある)が存在すると判断し,各文に対してそれぞれ三つ組を生成する.例えば,「仕事の内容」が「野菜の生産と販売」や「野菜を生産する。販売もする」である場合,いずれも,最初の文からは<生産,ヲ,野菜>,2つめの文からは<販売>なる三つ組を生成する.また,1文であっても,「米や野菜を作っている」のように,複数の名詞が並列で表現されている場合には,<作る,ヲ,野菜>,<作る,ヲ,米>のように複数の三つ組を生成する.最後に,このようにして生成された三つ組に対し,あらかじめ三つ組と職業コードのペアにより構築しておいたルールセットを探し,マッチするものがあれば該当するSSM職業コードを付与し,なければ不明を意味する「999」を付与する.三つ組が複数ある場合には,その各々に対してこの処理を行う.このルールを本稿ではルール$\alpha$とよぶ.ルール$\alpha$は次の形式で表現されるが,左辺において,格と名詞が省略される場合もある.また,実際には,ルール$\alpha$では,述語ではなく,3.6.2節で述べる述語コードを用いるが,説明の都合上,ここでは述語を用いて表現した.\vspace{1\Cvs}ルール$\alpha$:<述語,格,名詞>$\Rightarrow$<SSM職業コード>\vspace{1\Cvs}例えば,「仕事の内容」が「アルバイトでケーキを作っている」の場合,<作る,ヲ,ケーキ>を抽出し,ルール$\alpha$<製造,ヲ,菓子>$\Rightarrow$<644>により,SSM職業コード「644」(パン・菓子・めん類・豆腐製造工)を付与する.このとき,「作る」を「製造」,「ケーキ」を「菓子」とみなすことができるのは,次節で述べる「述語シソーラス」や「名詞シソーラス」を利用するためである.同様に,「仕事の内容」が「大学で哲学を教えている」であれば,<教える,デ,大学>を抽出し,ルール$\alpha$<教える,デ,大学>$\Rightarrow$<524>により,SSM職業コード「524」(大学教員)を付与する.ルール$\alpha$は,文献\cite{SSM95}に記載された定義や例に基づいて人手で生成した.その後,自動化システムが処理した事例から得られた情報を追加した.その際,ルール$\alpha$の右辺に2つ以上のコードを記述したものも生成した.例えば,「仕事の内容」に「営業」としか記述されていない場合,内勤の営業事務(「557」)であるのか外回りの営業(「573」)であるのかは判断できないが,どちらかである可能性が非常に高い.そこで,少しでもコーダの参考となるように,実際には存在しないが,「5570573」(営業・販売事務員または外交員(保険・不動産を除く))なるコードを生成した\footnote{同様の理由により,複数のコードから構成されるものとして,「5030507」(機械・電気・化学技術者またはその他の技師・技術者)や「6070686」(自動車運転者または運搬労働者)など計10個を生成した.}.「従業先の事業内容」からSSM産業コードを決定するためのルール(産業ルール)もルール$\alpha$と同様の形式であり,ルール$\alpha$と同様の手続きにより生成した.現在,ルール$\alpha$は4,224個.産業ルールは948個存在する.\subsubsection{シソーラスによる語の拡張}社会の変化に伴い,「仕事の内容」や「従業先の事業内容」には多様な語が記述される.そこで,本システムでは,ルール$\alpha$は,出現するすべての語ではなく代表的な語により生成し,ルール$\alpha$で用いた述語や名詞に対してそれぞれシソーラスを構築することで対応することとした.述語シソーラスは,語や品詞が異なっていても,職業や産業コードに分類する観点からは同一視できる語同士に同一の述語コードを付けてグループ化したものである.例えば,「製造」(サ変名詞),「製作」(サ変名詞),「作る」(動詞)にはすべて同一の述語コード「3861」を付ける.3.6.1節の例において,「作る」を「製造」と同一視できたのはこのためである.現在,述語シソーラスの述語コードは2,880個,異なり語は10,871個であり,1つの述語コードは平均4個の異なり語をもつ.名詞シソーラスは,ルール$\alpha$で用いた名詞を見出し語とし,職業や産業コードに分類する観点からはこの見出し語と同一視できる語とともにグループ化したものである.見出し語は,「自動車1」や「電気機械器具」のように,複数の形態素に切り出される語であってもよいが,見出し語以外の語は,回答とのマッチングを行うために,形態素が1個である必要がある.1つのグループにk個の語が含まれる場合,名詞シソーラスは次の形式で表現される($1<i<k$).\vspace{1\Cvs}(見出し語\quad語1\quad・・・\quad語i\quad・・・\quad語k)\vspace{1\Cvs}3.6.1節の例で,「ケーキ」を「菓子」とみなすことができたのは,「ケーキ」が見出し語「菓子」のグループに含まれるためである.名詞シソーラスでは,同じ語が別のグループに出現する場合もある.例えば,「菓子」は先の例では見出し語であったが,見出し語「小売店」のグループにおいては,見出し語以外の語としても出現する.現在,名詞シソーラスのグループは331個,見出し語以外の語は延べで3,994個であり,1つのグループに平均12個の語が含まれる.2つのシソーラスによりルール$\alpha$で用いられた語が拡張され,ルール$\alpha$の適用範囲が広がる.例えば,「コンピュータの製造」と「テレビを作る」は,いずれも述語コードが「3861」で,名詞である「コンピュータ」と「テレビ」のいずれも名詞シソーラスにおける見出し語「電気機械器具」のグループに含まれるため,どちらにも<3861,ヲ,電気機械器具>$\Rightarrow$<634>なるルール$\alpha$がマッチし,同一のSSM職業コード「634」(電気機械器具組立工)が付与される.以上に述べたルール$\alpha$におけるシソーラスによる語の拡張は,産業ルールにおいても同様に適用される.\subsubsection{職業コードの修正}職業コーディングにおいては「仕事の内容」の記述内容が重要であるが,選択回答である「従業先の事業規模」や「地位・役職」,さらには「従業先の事業内容」の情報も用いて総合的に判断される.したがって,ルール$\alpha$によって付与されたコードの中で,これらの情報により影響を受けるものに対しては,ルール$\alpha$の適用後にチェックを行って最終的なコードを決める必要がある.このチェックのためのルールを,本稿ではルール$\beta$とよぶ.ルール$\beta$を必要とするコードは,管理職,自営業,建設関係に多い.以下では,SSM職業コードを区別するために,ルール$\alpha$によって付与されたものを「SSM職業コード(ルール$\alpha$)」,ルール$\beta$のチェックを受け,ルールベース手法として最終的に決定されたものを「SSM職業コード(ルールベース)」とよび,「SSM職業コード」とよぶのは本システムにより最終的に決定されたものとする.SSM産業コードにおいても同様に,産業ルールにより決定されたものを「SSM産業コード(産業ルール)」とよぶが,SSM産業コードではルール$\beta$に該当するものがないため,これがそのまま「SSM産業コード(ルールベース)」となる.ルール$\beta$は次の形式で表現される.左辺の条件のすべてが必要ではない場合もある.\vspace{1\Cvs}ルール$\beta$:<SSM職業コード(ルール$\alpha$),従業上の地位・役職,従業先の事業規模,\\\qquad\qquad\qquad\qquad\quad従業先の事業内容,SSM産業コード(産業ルール)>\\\qquad\qquad\qquad\qquad\quad$\Rightarrow$<SSM職業コード(ルールベース)>\vspace{1\Cvs}ルール$\beta$の適用例として,管理職(「545」〜「553」)の場合を示す.管理職は,「従業上の地位・役職が常時雇用の課長以上」かつ「従業先の事業規模が30人以上」を条件とするため\cite{SSM96},SSM職業コード(ルール$\alpha$)により管理職が付与されたコードに対してはルール$\beta$によるチェックを行う.条件を満たさない場合は,SSM産業コードを参照して変更する\footnote{例えば,産業コードが「92」(小売業)であれば「566」(小売店主),「130」(情報・通信サービス業)であれば「506」(情報処理技術者)に変更する.もしルール$\beta$におけるいずれの産業コードともマッチしない場合は,「554」(総務・企画事務員)に変更する.}.これとは逆に,ルール$\alpha$ではコードが特定できずに「999」とされた場合に,ルール$\beta$により管理職の条件がチェックされて,該当する管理職コードが付与される場合もある.ルール$\beta$は文献\cite{SSM96}にしたがって人手で生成した.ルール$\beta$は43個で,その内訳は,管理職14個,自営9個,建設関係7個,その他13個である.ルール$\beta$の限界は,形式化できるものしか扱えないことである.実際には,コードの決定にあたっては,回答者の性別や学歴,本人の場合はこれまでの職歴,さらに父職,配偶者職などのように回答者以外の職業や産業の情報を含め,収集されたあらゆる情報を利用する場合が多く,これらをすべて反映したルール$\beta$を生成することは非常に困難である.また,調査によりルール$\beta$を重視する程度に違いがある場合もある\footnote{例えば,2005SSM調査では,できる限り管理職以外のコードを付与するという方針があり,管理職に関してはルール$\beta$による修正を適用しない場合も多かった.}.これにより,熟練コーダや調査が異なる場合は,最終的なコードを決定するためのルールに一貫性が欠如し,最終コードに揺れが生じる可能性がある.\subsection{ルールベース手法とSVMの組み合わせ手法}本システムにおけるルールベース手法では,自由回答の内容を格フレームで表現してコードを決定するルールが必要になるが,回答の中にはこの形式で表現できないものも存在する\footnote{1995SSM調査データにおいて無作為抽出した1,000サンプルの場合,約$20\%$がこれに該当した\cite{Takahashi00}.}.例えば,「仕事の内容」に商品名や生産物のみが記述された場合,本システムでは述語として扱われるが,動作を表すものではない.また,コードの修正方法もルールとして表現することが困難な場合があった.これらはシステムの性能を低下させる要因になると考えられる.さらに,自由回答に出現する用語や変換するコードは時代とともに変化するため,ルールベース手法においては,シソーラスやルールのメンテナンスを随時行わなければならないが,これを開発者以外の人間が長期間継続することは,時間的にも労力的にも負担となることが予想される.以上の理由により,ルールベース手法以外の方法を適用する必要があると考えた.SVMを選択した理由は,文書分類において分類性能の高さで評価が高かった\cite{Joachims98,Sebastiani02}ためである.本システムが対象とする自由回答は,文書分類が対象とする文書に比較すると非常に短いという懸念はあったが\footnote{JGSS-2000,JGSS-2001,JGSS-2002データセットにおける「仕事の内容」と「従業先の事業内容」の語数は,平均で約2〜3語である.また,文字数も,通常のテキスト分類で対象とされる新聞記事は,CD-毎日新聞2000データ集の場合,1記事平均550文字であるのに対し,前述のデータセットにおける「仕事の内容」は,平均で15文字程度である\cite{Takahashi_et_al05c}.},職業・産業コーディングは調査が完了するたびに実施されてコードが決定されるため,これを正解とみなすことで,今後も訓練事例の蓄積が容易であるという利点を考慮した.なお,職業・産業コーディングは多値分類のタスクであるため,2値分類器であるSVMをone-versus-rest法\cite{kressel99}により多値分類器に拡張した.SSM職業コードを対象に,SVMによる方法をルールベース手法と比較し,さらに,ルールベース手法とSVMを組み合わせた手法(ルールベース手法により得られた結果をSVMの素性として活用する方法)とも比較した結果,ルールベース手法とSVMを組み合わせた手法,SVMによる手法,ルールベース手法の順に分類精度が高かったため\cite{Takahashi_et_al05c},本システムでもこの組み合わせ手法を適用する.SSM産業コードについては実験を行っていないが,SSM職業コードと同様の効果が得られると考え,同様の組み合わせ手法を適用する.表~\ref{table4}にコードごとの自動化の手法とSVMで用いる素性を示す.本稿では,「仕事の内容」「従業先の事業内容」「地位・役職」を基本素性とよぶ.「仕事の内容」と「従業先の事業内容」はいずれも自由回答であるために,形態素解析により分割された形態素を素性とするが,品詞付き単語と素性番号を対にして生成した素性辞書により素性番号に変換したものを用いる.素性辞書は現在,15,069語から構成されるため,素性番号の最大値は15069である.回答に出現した単語が素性辞書に存在しない場合の素性番号は20000にする.また,素性として用いる語が「仕事の内容」と「従業先の事業内容」のどちらに出現したかを区別するために,「仕事の内容」に出現したものは素性番号をそのまま用いるが,「従業先の事業内容」に出現したものは素性番号に200,000をプラスした番号を用いる.\begin{table}[t]\caption{自動化の手法とSVMで用いる素性}\label{table4}\input{04table06.txt}\vspace{4pt}\hangafter=1\hangindent=1zw\leavevmode\hboxto1zw{*}過去の調査等ですでにSSMコードが付与されている場合は,本システムにより予測されたコードではなく付与ずみのコードを用いる.\end{table}ISCOやISICにおいて,SVMの素性として用いるSSMコードはルールベース手法とSVMの組み合わせ手法により第1位に予測されたコードである.これは,ISCOにおいてSSMコードを利用する方法として,第1位から第3位までに予測されたコードをさまざまに用いた実験を行った結果,この方法がもっとも正解率が高かったためである\cite{Takahashi08}.ただし,前述したように,もし過去の調査等ですでに付与されたSSMコードが入力されていれば,予測されたコードではなくこのコードをSVMの素性として用いる.ISICについては実験を行っていないが,ISCOの場合と同様の効果が得られるものと考え,ISCOと同様の方法を適用する.ISCOでは,SVMの素性として「学歴」も用いる.この理由は,ISCOではコードの決定時に,職業の遂行に必要なスキルレベル(=教育・職業資格)が用いられるが,我が国ではこれがデータとして収集されないため,スキルレベルが国際標準教育分類(ISCED)と対応することや学歴を判断基準とする点\cite{Tanabe08}に注目し,学歴で代用可能であると判断したためである.本システムにおいて4種類のコードすべてに変換する場合は,STEP1〜STEP6の順に連続処理を行う.また,SSM職業コードのみに変換する場合はSTEP1,STEP2,STEP3,SSM産業コードのみの場合はSTEP1,STEP2,STEP5,ISCOのみの場合はSTEP1,STEP2,STEP3,STEP4,ISICのみの場合はSTEP1,STEP2,STEP5,STEP6の順に実行する.ただし,ISCO(またはISIC)のみに変換する場合に,すでに付与されたSSMコードが入力されている場合は,STEP2とSTEP3(またはSTEP2とSTEP5)は省略し,STEP4(またはSTEP6)ではこのSSMコードを用いる.\vspace{1\Cvs}\hangafter=1\hangindent=5zw\noindent\hboxto5zw{STEP1\hss}職業・産業データに対する形態素解析\hangafter=1\hangindent=5zw\noindent\hboxto5zw{STEP2\hss}ルールベース手法の適用により,SSM職業コード(ルールベース)とSSM産業コード(ルールベース)を決定\hangafter=1\hangindent=5zw\noindent\hboxto5zw{STEP3\hss}基本素性に,STEP2により決定されたSSM職業コード(ルールベース)を追加してSVMを適用し,SSM職業コードを第1位から第3位まで決定\hangafter=1\hangindent=5zw\noindent\hboxto5zw{STEP4\hss}基本素性に,学歴とSTEP3により決定されたSSM職業コード(第1位のみ)を追加してSVMを適用し,ISCOを第1位から第3位まで決定\hangafter=1\hangindent=5zw\noindent\hboxto5zw{STEP5\hss}基本素性に,STEP2により決定されたSSM産業コード(ルールベース)を追加してSVMを適用し,SSM産業コードを第1位から第3位まで決定\hangafter=1\hangindent=5zw\noindent\hboxto5zw{STEP6\hss}基本素性に,STEP5により決定されたSSM産業コード(第1位のみ)を追加してSVMを適用し,ISICを第1位から第3位まで決定\subsection{確信度の付与}SVMは,予測したコードとともにスコア(分離平面からの距離)も出力するため,これを利用して,予測したコードのクラス所属確率を推定することが可能である\cite{Takahashi_et_al08}.そこで,この推定値を予測したコードに対する信頼度として利用することを考えた.ただし,本システムでは厳密な確率値までは必要としないため,文献\cite{Takahashi_et_al08}における提案手法を特徴づける考え方である「複数のスコア利用」に基づく簡便な方法を提案し,3段階の確信度として付与することとした\cite{Takahashi_et_al13a}.各確信度の決定条件は次の通りである.ただし,$rank1$,$rank2$は,それぞれSVMにより第1位,第2位に予測されたコードにともなって出力されるスコアを示す.$\alpha$は閾値で,$rank1$と$rank2$の差を示す.$\alpha$を大きく設定するほど予測されたコードのクラス所属確率が高まるため\cite{Takahashi_et_al08},確信度Aの信頼性は$\alpha$を大きく設定するほど向上することになる.\vspace{1\Cvs}A:$rank1>0$かつ$rank2<=0$,$rank1-rank2>\alpha$B:$rank1>0$かつ$rank2<=0$,$rank1-rank2<=\alpha$C:A,B以外の場合\vspace{1\Cvs}2節で述べたように,確信度付与の目的は,コーディング結果のすべてに対して再チェックを行う熟練コーダの作業量を削減するためである.したがって,特に,人手によるコーディングを不要とする確信度Aに注目する必要があり,確信度Aが付与された事例のカバー率(確信度が付与された評価事例数を評価事例数で割った値)が高いことが望ましい.しかし,この場合の正解率(正解した評価事例数を評価事例数で割った値\cite{Takamura10})も,熟練コーダが作業不要であることを納得する程度に高い値である必要がある.このように,確信度Aにおいては,正解率とカバー率はいずれも高い値である必要があるが,両者はトレードオフの関係がある.本システムでは,職業・産業コーディングの目的が研究のための基礎データを提供するものであることから,カバー率を考慮しながらも正解率を優先し,その値を熟練コーダの要望にしたがって$95\%$以上とした.なお,本稿では,「正解」を最終的に決定されたコードとするため,本稿における正解率は最終コードとの一致率である.閾値$\alpha$を決定するために,SSM職業コードについて2005SSM調査データセット(16,083事例)を用いた3分割交差検定による実験を行った.図~\ref{fg7}は,閾値$\alpha$を1から4まで変化させたときの確信度Aにおける正解率とカバー率の状況を示したものである\cite{Takahashi_et_al14}.X軸が$\alpha$,Y軸が正解率とカバー率を示す.図~\ref{fg7}より,正解率が$95\%$以上であるのは,$\alpha=3$と$\alpha=4$の場合である.両者を比較すると,$\alpha=4$の方が正解率が$97.5\%$と高いが,カバー率が約$10\%$と低く,$\alpha=3$では,$\alpha=4$の場合より正解率は1.7ポイント劣るが,カバー率は18.2ポイント向上して$28.9\%$となる.これより,本システムでは最適な閾値として$\alpha=3$を選択した.\begin{figure}[t]\begin{center}\includegraphics{24-1ia4f6.eps}\end{center}\caption{閾値$\alpha$の変化による確信度Aが付与された事例の正解率とカバー率}\label{fg7}\end{figure}実際には,確信度は上記の目的だけでなく,一般コーダが自動コーディングの結果を参考にする際の判断基準としても利用されるようになったため,確信度Aだけでなく,確信度Bや確信度Cについても,妥当性を調査しておく必要が生じた.確信度を一般コーダの判断基準として用いるためには,カバー率ではなく正解率に注目する必要がある.前述の実験において閾値$\alpha=3$とした場合,確信度Bの正解率は$71.9\%$(カバー率は$47.8\%$),確信度Cの正解率は$35.8\%$(カバー率$23.3\%$)であった.これより,$\alpha=3$は,確信度B,確信度Cに対しても妥当な閾値であると判断した.
\section{システムの評価}
一般コーダの正解率は,コーダやデータの違いにより差があるが,記録が残されている6つの調査(SSM職業コード)においては$68.8\%$から$80.0\%$で,平均は約$75\%$であった\cite{Takahashi02a}.コーダに対する有効な支援を行うにはこの値を上回る必要があるため,本システムにおける正解率の目標を,いずれのコードも$80\%$に設定する\footnote{経験上,ISCOやISICはSSMコードより困難なタスクであると認識されているが,目標値は高めに設定した.}.また,確信度ごとの正解率は,確信度Aでは$95\%$,確信度Bでは一般コーダの平均値$75\%$を目標とする.システムの評価実験では,まず,コードの種類ごとの正解率と確信度付与の有効性を報告した後,処理時間についても報告する(実験1).次に,視点を変え,実際に本システムを利用する社会階層分野の研究者による評価について簡単に報告する(実験2).\subsection{実験1}実験は現実の場面を想定し,交差検定ではなく,評価事例を訓練事例より新しいデータセットや別の調査により収集されたものを用いた(表~\ref{table5}参照)\footnote{ISCOやISICは2005年SSMデータセット以降に用いられるようになり,JGSS-2005以前のデータセットには付与されていないため,2005年SSMデータセットを訓練事例とし,JGSS-2006データセットを評価事例とした.}.その際,4種類のコード間における結果を比較するため,すべてのコードが付与された「本人現職」を用いた.「本人現職」は社会学においてもっともよく用いられる変数であるが,新しい仕事内容が新しい用語により表現されるケースが多いため,他の場合(「本人初職」や「父職」など)より正解率が低い傾向がある.\subsubsection{正解率}コードの種類別の正解率(第3位に予測されたコードまで含む)を表~\ref{table6}に示す.表中,ISCO*とISIC*は,SVMの素性としてルールベース手法による結果ではなく,過去の調査等ですでに付与されたSSMコードを用いた場合を表す(以下,同様である).\begin{table}[b]\caption{コードの種類別訓練事例と評価事例}\label{table5}\input{04table07.txt}\end{table}\begin{table}[b]\caption{正解率(第3位に予測されたコードまで含む)}\label{table6}\input{04table08.txt}\end{table}SSMコードでは,2種類の評価事例のいずれにおいても,職業コードは約$80\%$,産業コードは約$90\%$で目標値に達しており,安定している.ISCOやISICは,SSM職業コードやSSM産業コードよりそれぞれ約8ポイント,約10ポイント低いが,ISICは目標値に達している.また,ISCOやISICにおいてすでに付与されたSSMコードを利用した場合は,いずれもこの値より約5ポイントずつ高く,付与ずみのSSMコードを利用することは有効である.ただし,ISCOはこの場合も目標値に達しておらず,SSM職業コードより約4ポイント低い.ISCOやISICの正解率ががSSMコードより低い理由としては,分類クラスの数が多く困難なタスクであることと,訓練事例として用いられるデータの蓄積が不足していることが考えられる.\subsubsection*{SSM職業コードの状況}社会学でもっとも関心の高いSSM職業コードについて,JGSS-2006データセットを用いてより詳細に調査する.このとき,正解とされるコードごとの正解率は,再現率(注目した正解コードの事例数のうち,システムが正解した事例が占める割合)を計算していることになる.本システムで用いるSSM職業コードは全部で193個であるが,正解として本データセットに出現したコードは150個($77.7\%$)であった.この中で,正解率が$100\%$のコードは39個($26\%$)で,表~\ref{table22}に示す大分類では専門・技術が多く,$0\%$のコードは12個($8\%$)で製造が多かった.ただし,これらはいずれもコードの出現度数が非常に少なく,特に正解率が$100\%$のコードはすべて頻度15以下,$0\%$のコードもすべて頻度7以下で,合計しても178($8\%$)で,全体に与える影響は大きくない.そこで,以下では,正解コードの度数が全体の$1\%$(頻度22)以上の31個のコードについて調査する.これらは出現したコードの$21\%$を占め,累積度数は1,499($68\%$)である.\begin{table}[b]\caption{SSM職業コードにおける正解率のベスト10とワースト10(第3位に予測されたコードまで含む)}\label{table17}\input{04table09.txt}\end{table}まず,表~\ref{table17}に正解率のベスト10とワースト10を示す.正解率が高いものはサービス,農林,専門・技術,販売,低いものは労務や建設が多いことがわかる.次に,本システムが間違えた状況を調査する.間違い方には,正解がコードXであるのに本システムがX以外のコードを付与する場合と,正解がX以外のコードであるのに本システムが間違えてコードXを付与する場合がある.前者の結果を表~\ref{table15},後者の結果を表~\ref{table16}に示す.ただし,全体に及ぼす影響を考慮し,間違えた事例数が全体の1割(頻度22)以上のコードに限定した.いずれの表においても,コードの後に,本システムが間違えた事例数をカッコ内に示す.また,最右欄においてコード名を示していないものは,間違えた事例数が1のコードである.\begin{table}[b]\caption{正解コードからみた不正解の状況(SSM職業コード)}\label{table15}\input{04table10.txt}\end{table}\begin{table}[b]\caption{本システムのコード付与からみた不正解の状況(SSM職業コード)}\label{table16}\input{04table11.txt}\end{table}不正解がもっとも多かったのは,正解である「554」を他のコードに間違えたり(表~\ref{table15}参照),他のコードを「554」に間違える(表~\ref{table16}参照)場合である.具体的には,「554」を販売や管理に間違えたり,「554」と同じ事務の「556」「557」「559」や専門・技術や製造を「554」に間違えている.次に多いのは,「557」と「573」を相互に間違える場合である.さらに,事務を「569」(販売店員)や「550」(会社・団体等の管理職員)に間違える場合も多い.事務は,表~\ref{table17}によると,「557」以外は特に正解率が低いわけではないが,事務同士や販売または管理との間で間違うケースが多い.ここで,不正解であった全467事例を調査した結果,誤りの原因は次の9種類に分類できた.\begin{itemize}\item入力データに誤りがある(誤字や脱字など)(A)\item文末の語を述語とする方法も含め,格フレームの形式では有効な情報を抽出できない(B)\itemルール$\alpha$が不十分である(C)\itemルール$\beta$が不十分である(「従業先の事業内容」を参照していないなど)(D)\itemシソーラスが不十分である(E)\item正解がルール$\beta$を適用していない(F)\item回答に複数の職業内容が記述された場合に,本システムが正解が異なるものに決定(G)\item回答の情報が不足している(正解が曖昧)(H)\item正解が誤っている可能性がある(I)\end{itemize}\begin{table}[b]\caption{誤りの原因別の回答例と決定されたコード(SSM職業コード)}\label{table18}\input{04table12.txt}\end{table}1つの事例に誤りの原因が複数含まれるものもあるが,表~\ref{table18}に誤りの原因別に回答例を示し,誤りの原因について順に分析する.原因Aは,人間であれば理解可能でも,コンピュータは正しい処理が行えない.本システムの場合も最初の形態素解析で失敗してしまうため,後の処理が正しく行えない.例では,もっとも重要な述語「評価」が「表価」と誤入力または調査票に誤記入されたため,マッチするルールが見つからず,また,SVMにおける素性としても「評価」がないために,不正解となった.社会調査においては,メイキング防止のため,調査票の記入通りに入力を行う.したがって,調査員による誤記入が予想できる場合でもそのまま入力されるため,入力ミス以外に調査票における誤字や脱字も正解率を低下させる.調査票記入における別の問題として,調査員が,単語の一部またはすべてをひらかなやカタカナで記入する場合も多い(例えば,「き械」「キカイ」など)\footnote{この原因により形態素解析を失敗するケースを減らすため,本システムでは,1,481語から構成される置換表(CSV形式)を用意し,形態素解析の前にこの表を参照した置換を自動的に行っている.これにより,例えば,「事ム」は「事務」に,「アツエン機」は「圧延機」に置換されるが,すべての表現をカバーすることはできない.}.原因Aは人手によるコーディングでは大きな問題とはならないために,社会学研究者からの理解が得にくいが,コンピュータによる自動処理を行う本システムにとっては大きな問題であり,今後,この問題に取り組む必要がある.原因Bの最初の例では,<組み立て,ヲ,部品>なる三つ組を生成するが,この名詞が意味する範囲が広く,職業の特定ができない.もし,「部品」の前に位置する「電化製品」が抽出できれば,ルールベース手法の段階でコードが決定でき,SVMの素性として有効に作用することが期待できる.このように,名詞が「部品」や「製品」のような場合には,その前の語を抽出する必要がある.二番目の例では3個の三つ組を生成するが,いずれも「999」のため,SVMの素性として有効ではない.このように,複雑な構成の文に対しては,単純に文末の語を述語とする三つ組を生成する方法では,有効な情報の抽出ができない場合がある.逆に,三番目の例は非常に単純で1個の単語から構成される文であるが,この語が動作を表すものではないために述語コードを付与できず,この場合も文末の語を述語とする方法では対応できない.原因Cの例では,<検査,ヲ,パン>なる三つ組を生成するが,これを「644(パン・菓子・めん類・豆腐製造工)」に結びつけるルール$\alpha$が存在しないため,「999」となり,不正解につながった.原因Dの例はいずれも,「仕事の内容」からは「554」でよいが,正解では「従業先の事業内容」を参照し,より妥当なコードに修正されている\footnote{正解は順に,「559」(会計事務員),「556」(出荷・受荷事務員),「574」(保険代理人・外交員)である.}.ルール$\beta$に,SSM職業コード(ルール$\alpha$)が「554」の場合も追加する必要がある.原因Eの例では,形態素解析により切り出された結果,述語が「上絵」,名詞が「紋章」となるが,どちらもシソーラスにないために「999」となり,不正解につながった.原因C,D,Eについては,ルール$\alpha$,ルール$\beta$,述語シソーラス,名詞シソーラスの改善が有効である.原因Fの最初の例は,ルール$\alpha$により管理とされたが,ルール$\beta$\footnote{表~\ref{table18}に示していないが,「従業先の事業規模」が「2人〜4人」のためにルール$\beta$による修正が必要と判断され,「従業先の事業内容」が「事務所」であることが参照された.}により「554」と修正され,SVMによる結果も「554」となった.正解でも,「従業先の事業規模」により修正が必要とされたが,「従業先の事業内容」ではカッコ内の「電子機器の部品を作る会社」に注目して「503」(機械・電気・化学技術者)としたため,不正解となった.二番目の例は,ルール$\alpha$により管理(「548」(会社役員))とされ,ルール$\beta$における管理の条件を満たすために修正されず,SVMによる結果も「548」であった.しかし,正解ではルール$\beta$を適用せず,「従業先の事業内容」が「建設住宅コンサルタント会社」であることに注目して「541」(経営コンサルタント)とされた.このように,正解においては,特に管理の場合にルール$\beta$を適用する場合としない場合があり\footnote{文献\cite{SSM95}に,ルール$\beta$は原則であるとの説明がある.},コーダの間でも混乱が生じている.人間にとってもコンピュータにとっても,管理コードの付与方針を整理しておく必要がある.原因Gはしばしば起きるもので,今回も全不正解事例のうち125事例($27\%$)が該当した.ただし,複数の内容を記述した全384事例($17\%$)においては正解が259事例で,不正解の事例の2倍である.複数の内容が記述された場合,どれを正解とするかについては,重要なものから記述されるとの考えから,先に記述されたものを正解とすることが多いが,本システムは記述された順番の情報を用いていないため,結果が正解と異なる場合もあり得る.また,「2つ以上の勤務先で異なる仕事に従事している場合には,就業時間の長い仕事,収入の多い仕事の順であり,1つの勤務先で異なる仕事に従事している場合には,就業時間の長い仕事,生産・製造作業,主要工程または最終工程という順に決定する.」なるルール\cite{SSM95}が適用されることもあり,この中では,「生産・製造作業が他より優先される」はルール化が可能である.原因Hは,コンピュータだけでなく人間においても誤りの原因となる.これは,回答者も調査員も,職業分類の決め手となる情報についての知識が不足するために生じる場合(二番目,三番目,四番目の例)と,回答者が情報を開示したくない場合(最初と最後の例)がある.原因Hの場合,コーディング現場において可能な限り「999」や「689」(分類不能の職業)を付与しない方針が強く要請されると,正解を誤ってしまう危険性がある.回答における情報不足の問題については,原因Aの問題とも併せ,データの質向上というより一般的な観点から,新たな課題として取り組む予定である.原因Iは,現職までの職歴データや他の情報も考慮された結果,このような正解となった可能性も否定できないが,「本人現職」からは正解が誤っており,本システムの結果が不正解であるとは言い切れない.正解が誤っているという状況は,新しい職業が登場した当初に解釈が分かれ,その時点で正解としたものが後に定められるコード(新規に生成される場合もある)と異なる場合にも生じる.このため,訓練事例は適宜見直し,必要に応じて正解を更新する必要がある.ところで,表~\ref{table18}における例では,本システムの結果がルールベース手法による結果と一致する場合が多かった.そこで,全事例における両者の一致率を調査した結果,約$80\%$(1,811事例)であった.両者における正解・不正解の関連を表~\ref{table8}に示す.カッコ内の数値は全体に占める割合である.ここで正解としたのは,ルールベース手法では複数のコードが付与された場合はその中に,本システムでは第3位までのコードの中にそれぞれ正解が含まれる場合である.\begin{table}[t]\caption{ルールベース手法のみと本システムの正解・不正解事例数(SSM職業コード)}\label{table8}\input{04table13.txt}\end{table}表~\ref{table8}より,ルールベース手法の正解率は$60.7\%$であるが,ルールベース手法で不正解となった事例の半数がSVMの適用により正解となり,特に,ルールベース手法でコードが決定できなかった事例の約7割が正解となったため,本システムの正解率は18ポイント上昇した.これより,両手法を組み合わせる手法の有効性が再確認できた.一方で,ルールベース手法で正解であった事例のうち,SVMの適用により不正解となったものは約$2\%$しかなく,ルールベース手法の正解率を向上させることは,本システムの正解率向上に有効であると考えられる.\subsubsection*{ISCOにおける追加実験}ISCOにおける正解率の向上を目的に,ISCOのコード体系が階層構造であることを利用した追加実験を行った.まず大分類(10個)を学習させた後に,大分類ごとに小分類を学習する方法の有効性を実験した.第1位に予測されたコードについて,階層構造を利用した方法の有効性を調査した結果,効果あり5個,効果なし3個,変化なし1個であった\footnote{ただし,大分類が「0(Armedforces)」の場合は小分類が存在しないため除いた.}.次に,大分類ごとに,この方法と本システムにおける手法(直接,小分類を学習する)のうち正解率の高い方を選択して全体の正解率を算出したが,本システムにおける手法より0.5ポイントしか向上せず,両者を組み合わせた方法の有効性も認められなかった.ISCOやISICは,今後,国際標準コードが普及するにつれ,正解付きの事例が蓄積されていく.実験によれば,訓練事例のサイズが大きいほど正解率が向上するため\cite{Takahashi_et_al05c},今後,この正解付きの事例を既存の訓練事例に追加していくことで,正解率の向上が見込める.このためには,訓練事例の追加処理を容易に行うことができる必要がある.\subsubsection{確信度の有効性}表~\ref{table7}に,確信度別の正解率とカバー率(カッコ内)をコードの種類ごとに示す.確信度は第1位に予測されたコードに対するものである.表~\ref{table7}において,SSMコードの値は2種類の評価事例の平均である.\begin{table}[t]\caption{確信度別の正解率とカバー率}\label{table7}\input{04table14.txt}\end{table}表~\ref{table7}より,確信度Aが付与された事例の正解率は,ISIC($94\%$)を除くすべてのコードで目標値($95\%$)を上回っているため,有効であると判断できる.特にISCOでは,第1位の正解率は$60\%$未満で,第3位までを含めても$70\%$(表~\ref{table6}参照)と低いが,確信度Aが付与された事例については$96\%$と高い値であった.一方,カバー率は,SSMコードは約$30\%$であるのに対し,ISCOは$5\%$,ISICも$1\%$と非常に低く,有用性の点で問題がある.今後,ISCOとISICは訓練サイズの増大による正解率の向上が期待できるが,カバー率についても向上させる必要がある.確信度Bと確信度Cにおける正解率は,それぞれ$70\%$から$97\%$と$28\%$から$67\%$で,確信度Aに比較するといずれもバラツキが大きい.確信度Bは,国内・国際職業コードのいずれも目標値($75\%$)をやや下回ったが,一般コーダの正解率の範囲内である.確信度Bがもっとも高いISIC($92\%$)は,確信度Aがもっとも低く,両者の差が$2\%$しかない上に,確信度Cにおける正解率も比較的高い.これはSSM産業コードにおいても同様の傾向である.職業コードでは,確信度A,確信度B,確信度Cがそれぞれ$95\%$,$70\%$台,$30\%$で安定していることと対照的である\footnote{この原因として,産業コードは分類クラスが少ないために正解率が高いことと,閾値$\alpha$はSSM職業コードを用いた実験により決定したことが考えられる.}.いずれにしても,すべてのコードにおいて,任意の確信度の最低値は下位の確信度の最高値より高く,3つの確信度は信頼性の程度を明確に区別する.以上より,本システムにおける確信度は,自動コーディング後の人手の要・不要の程度を表す指標として有効であるといえる.最後に,表~\ref{table8}の状況を確信度別に調査した結果を,表~\ref{table9}(確信度A),表~\ref{table10}(確信度B),表~\ref{table11}(確信度C)に示す.カッコ内の数値は全体に占める割合である.表~\ref{table9},表~\ref{table10},表~\ref{table11}より,本システムで正解であった事例について,ルールベース手法における正解・不正解の比率を調査すると,確信度Aでは約80倍でもっとも高く,確信度Bで約2.7倍,確信度Cで約0.7倍と,確信度のレベルが下がるにつれて大きく低下した.また,ルールベース手法で正解であった事例が本システムにおいても正解となる割合を確信度別に調査すると,それぞれ約$100\%$,$98\%$,$91\%$で,確信度のレベルが高いほど高かった.\begin{table}[t]\caption{ルールベース手法のみと本システムの正解・不正解事例数(確信度A)(SSM職業コード)}\label{table9}\input{04table15.txt}\end{table}\begin{table}[t]\caption{ルールベース手法のみと本システムの正解・不正解事例数(確信度B)(SSM職業コード)}\label{table10}\input{04table16.txt}\end{table}\begin{table}[t]\caption{ルールベース手法のみと本システムの正解・不正解事例数(確信度C)(SSM職業コード)}\label{table11}\input{04table17.txt}\end{table}\subsubsection{処理時間}処理時間は,PCの性能\footnote{実験には,IntelCorei52500KQuad-CoreProcessor3.3~GHzを使用した.}や訓練事例,評価事例のサイズにより異なるが,評価事例がJGSS-2006データセットの場合,STEP1からSTEP6にそれぞれ0分,7分,34分,7分,13分,2分(計63分)を要した.1事例当たり,約1.7秒かかる計算となる.本システムで1度に処理できる事例数は最大5,000であり,これより大きなサイズのデータセットの場合は数回に分けて処理する必要がある.5,000事例の場合,1回の処理時間は約2時間半弱である.\subsection{実験2}SSM調査のような大規模プロジェクトによる調査では,自動コーディングの結果が得られても,従来通り一般コーダによるコーディングを実施し,その後に熟練コーダによる再チェックを行うことが可能である.しかし,多くの調査では,コーディング作業にこのような労力や時間ををかけることは困難である.また,実際の分析においては,研究の目的に応じ,類似した性質をもつ小分類コードは大分類にまとめて扱う場合が多いため,この大分類レベルで正解であれば問題はない.例えば,本システムの利用が多い社会階層分野でも,職業威信スコアを用いる研究\footnote{職業威信スコアは個人および職業の社会的地位を示す重要な指標で,回答者により小分類コードごとに評定される.}を除くと,大分類にまとめたものを分析する場合が多い.このため,自動コーディングの性能が高まるにつれ,この結果をそのまま利用できるのではないかと考える研究者も出てきた.そこで,本システムの利用者である社会階層分野の研究者の立場から,自動コーディングの結果をそのまま利用した場合の有効性と問題点についての検討を開始した\cite{Takahashi_et_al16}.本稿では,SSM職業コードを対象に,第1位に予測されたコードの正解率や確信度について報告する.実験2では,実験1で用いた訓練事例(表~\ref{table5}参照)に,JGSS-2006,JGSS-2008,JGSS-2010データセットを加えた計49,795事例を訓練事例とした\footnote{これは,新規に追加された700番台や800番台のコードにも対応する.}.評価事例は,東京大学社会科学研究所が実施する「働き方とライフスタイルの変化に関する全国調査」(若年・壮年パネル調査;\linebreakJLPS)\footnote{http://csrda.iss.u-tokyo.ac.jp/panel/JLPSYM/}の第1波のうち,本システムを利用するための項目を満たす3,619事例を用いた.前述したように,職業威信研究では小分類コードを用いることと,実験2における訓練事例と評価事例はいずれも実験1と異なるため,まず小分類コードの結果を報告し,次に,大分類にまとめた場合の結果を報告する.以下では,すべて第1位に予測されたコードを対象とする.\subsubsection{小分類コードにおける正解率と確信度}正解率は$67.1\%$で,表~\ref{table7}に示した実験1の結果($70.2\%$)と比較すると,訓練事例のサイズが増大したにもかかわらず約3ポイント低かった.この理由として,実験2は実験1と異なり,評価事例が訓練事例とは性質が大きく異なる調査により収集されたデータセットであることと,パネル調査のため,第2波以降に得られた情報により正解が修正された可能性があることが考えられる.ただし,第3位に予測されたコードまで含むと,正解率は$79.0\%$となり,実験1の結果($78.8\%$)をやや上回っており,本システムの頑強性が確認できた.\begin{table}[b]\caption{正解率が50\%以下の小分類コード(SSM職業コード)}\label{table20}\input{04table18.txt}\end{table}表~\ref{table20}に,正解コードの出現度数が全体の$1\%$(頻度35)以上であるコードのうち,正解率が$50\%$以下のものを示す.「557」や労務が含まれる点は,実験1の結果(表~\ref{table17}参照\footnote{ただし,表~\ref{table17}は第3位までに予測されたコードの結果である.})と類似する.全体に及ぼす影響の大きさから,不正解の事例数が多いコードを調査した.10位までのコードを表~\ref{table21}に示す.実験2においても実験1(表~\ref{table15}参照)と同様,「554」や「557」を他のコードに間違う場合が多い\footnote{「554」を「559」に,「557」を「573」「554」「569」に間違える場合が多いことも実験1と同様である.大分類にまとめて分析を行う場合には,「573」「569」は事務ではなく販売であるため,問題となる.}.\begin{table}[b]\caption{不正解事例数が多い小分類コード(SSM職業コード)}\label{table21}\input{04table19.txt}\end{table}\begin{table}[b]\caption{確信度別の正解率とカバー率(SSM職業コード)}\label{table12}\input{04table20.txt}\end{table}次に,確信度ごとの正解率とカバー率(カッコ内)を表~\ref{table12}に示す.いずれの確信度も実験1の結果(表~\ref{table7}参照)を上回っている.特に,確信度Aが付与された事例では正解率が$97.8\%$に達しており,ここでも確信度Aの有効性が確認された.これより,「確信度Aが付与された場合は人手によるコーディングは不要」と主張することに一定の説得力があるといえる.ただし,確信度Aが付与された事例が全体の$14\%$と低いことは,有効性の点からは問題である.確信度Bの正解率は$76.4\%$で,一般コーダの平均を約1.5ポイント上回っている.このため,確信度AまたはBが付与された事例については,自動コーディングの結果をそのまま利用しても大きな支障はないと考えられる.この場合のカバー率は合計で約$66\%$となる.確信度Cの正解率は$40.2\%$と低いため,そのまま利用することは危険で,人手によるチェックが必要である.\subsubsection{大分類に合併後の正解率と確信度}国内の階層研究において実際に分析が行われる場合,\pagebreak表~\ref{table22}に示す大分類が用いられることはほとんどなく,表~\ref{table19}に示すものが用いられることが多い\footnote{表~\ref{table19}におけるSSM総合職業分類(簡略版9分類)は,表には掲載していないが,SSM総合職業分類(12分類)の「中小企業ホワイト(事務)」と「中小企業ホワイト(販売・サービス)」を「中小企業ホワイト」,「大企業ブルー(熟練)」と「大企業ブルー(半熟練・非熟練)」を「大企業ブルー」,「中小企業ブルー(事務)」と「中小企業ブルー(販売・サービス)」を「中小企業ブルー」にそれぞれまとめたものである.}.また,分析の目的によっては,小分類コードを表~\ref{table22}に示す大分類に変換し,さらに表~\ref{table19}に近い8つのカテゴリ(「専門・技術職」「管理職」「事務職」「販売職」「サービス職」「生産現場・技能職」「運輸・保安職」「農林」)に合併することもしばしばある.このカテゴリは小分類コードと自然な対応関係にあり,両者の比較がもっとも容易に行えるため,ここでは,これを大分類として扱う.\begin{table}[b]\caption{階層研究で用いられる大分類と分類の単位}\label{table19}\input{04table21.txt}\end{table}\begin{table}[b]\caption{分類レベルの違いによる正解率の比較と確信度Aのカバー率(SSM職業コード)}\label{table13}\input{04table22.txt}\vspace{-0.5\Cvs}\end{table}表~\ref{table13}に,小分類コードの正解率を大分類別に平均した値と,大分類に合併したときの正解率を比較した結果を示す.表中,確信度Aのカバー率の平均とは,注目する正解コードにおいて確信度Aが付与された事例がその正解コードの全事例に占める割合を大分類別に平均した値である.大分類に合併すると,正解率の平均は$67.1\%$から$79.9\%$に上昇し,特に「生産現場・技能職」の上昇幅は約24ポイントと大きい.「運輸・保安職」の上昇幅は約4ポイントであるが,確信度Aのカバー率は$34\%$と高い.逆に,「管理職」では小分類でも大分類合併後でも$60\%$未満で低く,また確信度Aのカバー率も$0\%$である.これより,「管理職」が付与されたコードをそのまま用いるのは危険であり,コーダも十分に注意する必要がある.ただし,管理職の出現率は$0.8\%$で,全体に及ぼす影響は大きくない\footnote{正解コードの出現度数は,「事務職」(933事例),「生産現場・技能職」(802事例),「専門・技術職」(788事例),「販売職」(503事例),「サービス職」(378事例),「運輸・保安職」(140事例),「農林」(32事例),「管理職」(28事例)の順である.}.また,「事務職」と「販売職」も小分類での正解率が$70\%$未満と低く,大分類合併後も$80\%$に達していない.これら3つに共通する特徴として,職務が明確に限定されていない職業を多く含むことが挙げられる.これは,資格との対応や必要な技能および職務が明確な「専門・技術職」の正解率が小分類でも高く,大分類合併後にもっとも高くなることと対照的である.表~\ref{table14}に,大分類に合併後の正解率を確信度ごとに示す.小分類レベル(表~\ref{table12}参照)と比較すると,大分類合併後は,いずれの確信度も正解率が上昇し,特に確信度Bでは10ポイント,確信度Cでは20ポイント以上上昇する.大分類に合併すると,確信度AまたはBが付与された事例の正解率は十分に高い値となるため,自動コーディングの結果をそのまま利用することが可能である.\begin{table}[t]\caption{大分類に合併後の確信度別の正解率}\label{table14}\input{04table23.txt}\end{table}
\section{システムの利用方法}
最後に,本システムの利用方法について述べる.利用者は,3.3節で述べた所定の形式の入力ファイルを準備し,CSRDAのWebサイトを通じて図~\ref{fg4}に示す(1)〜(4)の手続きを行えば,自動コーディングの結果を得ることができる.\begin{figure}[t]\begin{center}\includegraphics{24-1ia4f7.eps}\end{center}\caption{Web公開版システム(試行提供中)の利用手順}\label{fg4}\end{figure}図~\ref{fg4}において,[CSRDA]自動化システムによる処理とは,運用担当者が行う次の2つである.\begin{itemize}\itemシステムを稼働させて図~\ref{fg2}に示す操作画面を表示させ,図~\ref{fg3}に示すように,指定場所に置かれた入力データファイルと利用者から希望のあったコードを指定する\item本システムが出力した結果ファイルを指定場所に置く\end{itemize}なお,CSRDAでは,セキュリティの点から,システム運用担当者は利用者からの入力ファイルをe-mail等では受けとらず,オンラインストレージ構築パッケージ(Proself)\footnote{https://www.proself.jp/}を介する仕組みとしている.
\section{関連研究}
\label{sec:kanren}ここでは,韓国と米国における自動化システムについて述べる.本システムとの大きな違いは,いずれも社会学の研究支援が目的ではなく,職業や産業コードそれ自体が分析に用いられる変数ではないこと,また,自動化のアルゴリズムに機械学習を適用していないことである.韓国では,2008年に大韓民国統計庁においてWeb-basedAIOCS(AWeb-basedAutomatedSystemforIndustryandOccupationCoding)が開発された\cite{Jung_et_al08}.Web-basedAIOCSは,ISCOやISICに由来する韓国独自の職業コード(442個)や産業コード(450個)への変換を行う.自動化のアルゴリズムは,文献\cite{Takahashi00,Takahashi_et_al05a}を参考にしながらも,処理時間の問題からSVMは用いずに,ルールベース手法,最大エントロピー法(MEM),情報検索技術(IRT)の3種類を単独または後の2つをルールベース手法と組み合わせた計6種類が提案されている.この中で正解率が最も高いのは,ルールベース手法,MEM,IRTをこの順に実行する方法で$76\%$である.利用方法は一問一答方式で,Webサイト上に,会社名(自由回答),ビジネスカテゴリ,部門,役職,仕事の内容(自由回答)を入力すると,同一画面に結果が表示される.Web-basedAIOCSにおける入力データは本システムと類似するが,ファイルによる入出力については不明で\footnote{ファイルによる入出力も可能であるとの記述があるのみで,説明がない.},利用も統計庁内部に限定され,一般に公開されていない.米国では,これまでCDC(CentersforDiseaseControlandPrevention;米国疾病予防管理センター)のWebサイト上に,単語のマッチングを主とするSOIC(StandardizedOccupation\&IndustryCoding)システム\footnote{http://www.cdc.gov/niosh/soic/SOIC.About.html}を公開し,利用者自身がソフトウェアをダウンロードして処理を行っていた.SOICは1990年のセンサス・コードに変換するもので,正解率は,職業コード$75\%$,産業コード$76\%$で,職業コードと産業コードの両方では$63\%$であった.CDCでは,2000年以降のセンサス・コードに対応するため,2013年にSOICを含むNIOCCS(TheNIOSHIndustry\&OccupationComputerizedCodingSystem)を構築した\footnote{http://wwwn.cdc.gov/niosh-nioccs/}.NIOCCSにおける入力データは,職業や産業を記述したテキストのみで,これは本システムにおける自由回答部分に該当する.自動化のアルゴリズムはルールベース手法で,単語だけでなく知識についてもデータベース化したものとのマッチングを行う.知識の表現形式についての説明はないが,本システムにおけるルール$\alpha$による処理に該当すると考えられる.ただし,本システムではルール$\alpha$で決定されたコードをチェックするルール$\beta$が存在するのに対し,NIOCCSにはこれに該当するものがないため,「従業上の地位」や「役職」「従業先の事業規模」も参照して総合的かつ慎重な判断を必要とする社会学研究のためには厳密さに欠ける.NIOCCSにおいても,本システムにおける確信度と同様に,自動コーディングの結果に3段階(High,Medium,Low)の信頼度を付与するが,機械学習を適用しないため,その算出方法が本システムと異なることは明らかである\footnote{信頼度を算出するための根拠が不明で,FrequentlyAskedQuestionsmの回答として,Highが$90\%$以上,Mediumが$70\%$以上との説明があるだけである.カバー率も示されていない.}.NIOCCSでは一問一答方式とファイルによる入出力が可能である.SOICと異なり,利用者はシステムをダウンロードせずに,NIOCCSのアカウントを取得した上で処理を依頼する点は本システムと共通するが,マッチングを行うデータベースを2000年,2002年,2010年の中から選択できる機能は本システムにはないものである.本システムでは,同一コード体系内におけるさまざまな版(例えば,SSM職業コードにおいて700番台や800番台のコードを含む/含まないなど)に対応するルールや訓練事例を複数種類用意し,利用者の希望に応じて版を選択できる機能の追加を予定している.
\section{おわりに}
本稿では,社会学で活用されている職業・産業コーディング自動化システムについて,現在,CSRDAのWebから試行提供されているシステムを中心に,運用・利用方法も含めて述べた.本システムは,国内/国際標準の計4種類の職業・産業コードへの変換を行うが,社会学において重要な職業コードの正解率は,第3位に予測されたものまで含め,国内標準コードで約$80\%$,国際標準では$70\%$〜$75\%$であり,正解率の向上が今後の大きな課題である.このため,もっとも利用の多い国内標準コードについて,誤り分析の結果に基づき,ルールベース手法におけるルールやシソーラスの見直しを行っている.また,SVMで用いられる訓練事例の正解の見直しも開始した.さらに,訓練事例のサイズを拡大するため,2015SSM調査における職業コーディングの最終結果が決定された時点で,これを正解付き事例として追加する予定である.正解率は全体では満足できる程度に高くないが,確信度Aが付与された場合は,職業・産業のすべてのコードにおいて,評価事例に関係なく$94\%$以上(平均$97\%$)で,確信度Aを付与する有効性が確認できた.ただし,この場合のカバー率は$1\%$〜$32\%$と低いため,カバー率の向上が今後の課題である.確信度Bや確信度Cが付与された場合の正解率はそれぞれ$70\%$〜$97\%$(平均$79\%$),$28\%$〜$67\%$(平均$42\%$)で,国内・国際に関係なく産業コードは職業コードを上回った.社会学研究者がもっともよく利用するSSM職業コードについて,実際の利用状況を想定した大分類レベルに合併すると,正解率は第1位に予測されたもので約$80\%$となり,確信度Aが付与された場合は$99\%$となった.また,確信度B,確信度Cが付与された場合の正解率もそれぞれ$87\%$,$62\%$となった.これより,確信度Cが付与されない事例は,本システムの結果をそのまま利用できる可能性がある.今後は,別の種類の大分類に合併した場合についても同様の調査を行った後,より高度な分析として多変量解析に利用された場合についても調査する予定である.国内の社会学において用いられる職業・産業コードは,今後の社会変動に伴い,さらなる改変が予想される.これは,個々のコードレベルにとどまらず,コード体系が変更される可能性もある.実際,SSM職業コードでは,すでにISCOに倣った4桁の階層的なコード体系が提案されている\cite{Miwa11}.また,SSM産業コードも,2015SSM調査では,ISICとの関係を重視し,これまでの大分類コードから中分類コードに変更された.さらに,ISCOについても,近い将来,本システムで用いたISCO-88(1988年版)からISCO-08(2008年版)に移行することが予想され,この動きはISICにおいても同様であると思われる.このような状況の中で,新規のコードまたはコード体系が現行のものと単純な対応関係にある場合は問題ないが,そうでない場合には次のような対応を行う予定である.まず,コード体系が変更されずに新規のコードが追加される場合は,必要に応じてコードを決定するルールや訓練事例の正解を修正する.その際,どの新規コードを用いるかが調査により異なる可能性がある場合には,さまざまな版を用意し,利用者の希望に応じて選択できる機能が必要である.本機能は,現在開発中である.次に,コード体系が新しく変更される場合は,これに対応する正解付きの事例を蓄積し,新規の訓練事例を生成する必要がある\cite{Takahashi16}.職業・産業コーディングは,大規模調査が終了するたびに正解付きの事例が大量に得られるという利点があるため,この事例から訓練事例を容易に生成することができる機能があれば,迅速な対応が可能になる.本機能はほぼ完成しており,本システムへの追加を予定している.\acknowledgment日本版GeneralSocialSurveys(JGSS)は,大阪商業大学JGSS研究センター(文部科学大臣認定日本版総合的社会調査共同研究拠点)が,東京大学社会科学研究所の協力を受けて実施した研究プロジェクトである.2005年SSM調査データの利用に関して,2015年SSM調査研究会の許可を得た.東大社研パネル調査プロジェクトにおける職業・産業コーディングの精度向上を目的として,職業・産業の自由記述データの提供を受けた.本研究はJSPS科研費25380640の助成を受けた.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{1995年SSM調査研究会}{1995年SSM調査研究会}{1995}]{SSM95}1995年SSM調査研究会\BBOP1995\BBCP.\newblock\Jem{SSM産業分類・産業分類(95年版)}.\bibitem[\protect\BCAY{1995年SSM調査研究会}{1995年SSM調査研究会}{1996}]{SSM96}1995年SSM調査研究会\BBOP1996\BBCP.\newblock\Jem{1995年SSM調査コード・ブック}.\bibitem[\protect\BCAY{原}{原}{1984}]{Hara84}原純輔\BBOP1984\BBCP.\newblock\Jem{社会調査演習}.\newblock東京大学出版会.\bibitem[\protect\BCAY{原}{原}{2013}]{Hara13}原純輔\BBOP2013\BBCP.\newblock職業自動コーディング.\\newblock\Jem{社会と調査},{\Bbf11},p.3.\bibitem[\protect\BCAY{Joachims}{Joachims}{1998}]{Joachims98}Joachims,T.\BBOP1998\BBCP.\newblock\BBOQTextCategorizationwithSupportVectorMachines:LearningwithManyRelevantFeatures.\BBCQ\\newblockIn{\BemProceedingsoftheEuropeanConferenceonMachineLearning},\mbox{\BPGS\137--142}.\bibitem[\protect\BCAY{Jung,Yoo,Myaeng,\BBA\Han}{Junget~al.}{2008}]{Jung_et_al08}Jung,Y.,Yoo,J.,Myaeng,S.-H.,\BBA\Han,D.-C.\BBOP2008\BBCP.\newblock\BBOQAWeb-basedAutomatedSystemforIndustryandOccupationCoding.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonWebInformationSystemsEngineering(WISE-08)},\lowercase{\BVOL}\3518,\mbox{\BPGS\443--457}.\bibitem[\protect\BCAY{Kressel}{Kressel}{1999}]{kressel99}Kressel,U.\BBOP1999\BBCP.\newblock\BBOQPairwiseClassificationandSupportVectorMachines.\BBCQ\\newblockInSch{\"o}lkopf,B.,Burgesa,C.J.~C.,\BBA\Smola,A.~J.\BEDS,{\BemAdvancesinKernelMethods*SupportVectorLearning},\mbox{\BPGS\255--268}.TheMITPress.\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1998}]{Kurohashi98}黒橋禎夫\JBA長尾真\BBOP1998\BBCP.\newblock日本語形態素解析システムJUMANversion3.61.\\newblock\JTR,京都大学大学院情報学研究科.\bibitem[\protect\BCAY{三輪}{三輪}{2011}]{Miwa11}三輪哲(編)\BBOP2011\BBCP.\newblock\Jem{SSM職業分類・産業分類の改定に向けて(科学研究費補助金基盤研究A「現代日本の階層状況の解明—ミクロ--マクロ連結からのアプローチ」研究成果報告書別冊)}.\bibitem[\protect\BCAY{大阪商業大学比較地域研究所・東京大学社会科学研究所}{大阪商業大学比較地域研究所・東京大学社会科学研究所}{2005}]{JGSS05}大阪商業大学比較地域研究所・東京大学社会科学研究所\BBOP2005\BBCP.\newblock\Jem{日本版GeneralSocialSurveys基礎集計表・コードブックJGSS-2003}.\bibitem[\protect\BCAY{Sebastiani}{Sebastiani}{2002}]{Sebastiani02}Sebastiani,F.\BBOP2002\BBCP.\newblock\BBOQMachineLearningAutomatedTextCategorization.\BBCQ\\newblock{\BemACMComputingSurveys},{\Bbf34}(1),\mbox{\BPGS\1--47}.\bibitem[\protect\BCAY{盛山}{盛山}{2004}]{Seiyama04}盛山和夫\BBOP2004\BBCP.\newblock\Jem{社会調査法入門}.\newblock有斐閣.\bibitem[\protect\BCAY{高橋}{高橋}{2000}]{Takahashi00}高橋和子\BBOP2000\BBCP.\newblock自由回答のコーディング支援について—格フレームによるSSM職業コーディング自動化システム—.\\newblock\Jem{理論と方法},{\Bbf15}(1),\mbox{\BPGS\149--164}.\bibitem[\protect\BCAY{高橋}{高橋}{2002a}]{Takahashi02a}高橋和子\BBOP2002a\BBCP.\newblock職業・産業コーディング自動化システムの活用.\\newblock\Jem{言語処理学会第8回年次大会論文集},\mbox{\BPGS\491--494}.\bibitem[\protect\BCAY{高橋}{高橋}{2002b}]{Takahashi02b}高橋和子\BBOP2002b\BBCP.\newblockJGSS-2000における職業・産業コーディング自動化システムの適用.\\newblock\Jem{日本版GeneralSocialSurveys研究論文集JGSSで見た日本人の意識と行動[東京大学社会科学研究所資料第20集]},{\Bbf1},\mbox{\BPGS\171--184}.\bibitem[\protect\BCAY{高橋}{高橋}{2003}]{Takahashi03}高橋和子\BBOP2003\BBCP.\newblockJGSS-2001における職業・産業コーディング自動化システムの適用.\\newblock\Jem{日本版GeneralSocialSurveys研究論文集[2]JGSSで見た日本人の意識と行動[東京大学社会科学研究所資料第21集]},{\Bbf2},\mbox{\BPGS\179--191}.\bibitem[\protect\BCAY{高橋}{高橋}{2008}]{Takahashi08}高橋和子\BBOP2008\BBCP.\newblock機械学習によるISCO自動コーディング.\\newblock\Jem{2005年SSM調査シリーズ12社会調査における測定と分析をめぐる諸問題},{\Bbf12},\mbox{\BPGS\53--78}.\bibitem[\protect\BCAY{高橋}{高橋}{2011}]{Takahashi11}高橋和子\BBOP2011\BBCP.\newblockISCO自動コーディングシステムの分類精度向上に向けて—SSMおよびJGSSデータセットによる実験の結果—.\\newblock\Jem{JGSSResearchSeriesNo.8:日本版総合的社会調査共同研究拠点研究論文集[11]},{\Bbf11},\mbox{\BPGS\193--205}.\bibitem[\protect\BCAY{高橋}{高橋}{2016}]{Takahashi16}高橋和子\BBOP2016\BBCP.\newblock\Jem{職業・産業コーディング自動化システム(平成25〜27年度科学研究費補助金基板研究(C)「社会調査の基盤を提供する自動コーディグシステムのWeb提供:その国際化と汎用化」)}.\bibitem[\protect\BCAY{高橋\JBA須山\JBA村山\JBA高村\JBA奥村}{高橋\Jetal}{2005a}]{Takahashi_et_al05b}高橋和子\JBA須山敦\JBA村山紀文\JBA高村大也\JBA奥村学\BBOP2005a\BBCP.\newblock職業コーディング支援システム(NANACO)の開発とJGSS-2003における適用.\\newblock\Jem{日本版GeneralSocialSurveys研究論文集[4]JGSSで見た日本人の意識と行動},{\Bbf4},\mbox{\BPGS\225--242}.\bibitem[\protect\BCAY{高橋\JBA高村\JBA奥村}{高橋\Jetal}{2005b}]{Takahashi_et_al05c}高橋和子\JBA高村大也\JBA奥村学\BBOP2005b\BBCP.\newblock機械学習とルールベース手法の組み合わせによる自動職業コーディング.\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\3--24}.\bibitem[\protect\BCAY{Takahashi,Takamura,\BBA\Okumura}{Takahashiet~al.}{2005}]{Takahashi_et_al05a}Takahashi,K.,Takamura,H.,\BBA\Okumura,M.\BBOP2005\BBCP.\newblock\BBOQAutomaticOccupationCodingwithCombinationofMachineLearningandHand-CraftedRules.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonPacific-AsiaKnowledgeDiscoveryandDataMining(PAKDD'05)},\lowercase{\BVOL}\3518,\mbox{\BPGS\269--279}.\bibitem[\protect\BCAY{Takahashi,Takamura,\BBA\Okumura}{Takahashiet~al.}{2008}]{Takahashi_et_al08}Takahashi,K.,Takamura,H.,\BBA\Okumura,M.\BBOP2008\BBCP.\newblock\BBOQDirectEstimationofClassMembershipProbabilitiesforMulticlassClassificationusingMultipleScores.\BBCQ\\newblock{\BemKnowledgeandInformationSystems},{\Bbf19}(2),\mbox{\BPGS\185--210}.\bibitem[\protect\BCAY{高橋\JBA田辺\JBA吉田\JBA魏\JBA李}{高橋\Jetal}{2013a}]{Takahashi_et_al13a}高橋和子\JBA田辺俊介\JBA吉田崇\JBA魏大比\JBA李偉\BBOP2013a\BBCP.\newblock確信度付き職業・産業コーディング自動化システムの開発と公開.\\newblock\Jem{数理社会学会第55回大会報告要旨集},\mbox{\BPGS\38--41}.\bibitem[\protect\BCAY{高橋\JBA田辺\JBA吉田\JBA魏\JBA李}{高橋\Jetal}{2013b}]{Takahashi_et_al13b}高橋和子\JBA田辺俊介\JBA吉田崇\JBA魏大比\JBA李偉\BBOP2013b\BBCP.\newblockWeb版職業・産業コーディング自動化システムの開発.\\newblock\Jem{言語処理学会第19回年次大会論文集},\mbox{\BPGS\769--772}.\bibitem[\protect\BCAY{高橋\JBA多喜\JBA田辺}{高橋\Jetal}{2016}]{Takahashi_et_al16}高橋和子\JBA多喜弘文\JBA田辺俊介\BBOP2016\BBCP.\newblock職業コーディング自動化システム利用に関する評価—社会階層研究を事例に—.\\newblock\Jem{数理社会学会第61回大会報告要旨集},\mbox{\BPGS\31--36}.\bibitem[\protect\BCAY{Takahashi,Taki,Tanabe,\BBA\Li}{Takahashiet~al.}{2014}]{Takahashi_et_al14}Takahashi,K.,Taki,H.,Tanabe,S.,\BBA\Li,W.\BBOP2014\BBCP.\newblock\BBOQAnAutomaticCodingSystemwithaThree-GradeConfidenceLevelCorrespondingtotheNational/InternationalOccupationandIndustryStandard:OpentothePublicontheWeb.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalConferenceonKnowledgeEngineeringandOntologyDevelopment(KEOD2014)},\mbox{\BPGS\369--375}.\bibitem[\protect\BCAY{高村}{高村}{2010}]{Takamura10}高村大也\BBOP2010\BBCP.\newblock\Jem{自然言語処理シリーズ1言語処理のための機械学習入門}.\newblockコロナ社.\bibitem[\protect\BCAY{田辺}{田辺}{2006}]{Tanabe06}田辺俊介\BBOP2006\BBCP.\newblockISCOとSSM職業分類の相違点の検討—国際比較調査における職業データに関する研究ノート—.\\newblock\Jem{社会学論考},{\Bbf27},\mbox{\BPGS\47--68}.\bibitem[\protect\BCAY{田辺}{田辺}{2008}]{Tanabe08}田辺俊介\BBOP2008\BBCP.\newblockSSM職業分類とISCO-88の比較分析.\\newblock\Jem{2005年SSM調査シリーズ12005年SSM日本調査の基礎分析—構造・趨勢・方法—},{\Bbf1},\mbox{\BPGS\31--45}.\bibitem[\protect\BCAY{轟\JBA杉野}{轟\JBA杉野}{2013}]{Todoroki_et_al13}轟亮\JBA杉野勇\BBOP2013\BBCP.\newblock\Jem{入門社会調査法}.\newblock法律文化社.\end{thebibliography}\begin{biography}\bioauthor{高橋和子}{東京女子大学文理学部数理学科卒.2007年東京工業大学大学院総合理工学研究科博士課程修了.1993年千葉敬愛短期大学専任講師,1997年敬愛大学国際学部専任講師,2001年同助教授,2008年より同教授.博士(工学).言語処理学会,数理社会学会,情報処理学会,人工知能学会各会員.\\}\vspace{-0.5\Cvs}\bioauthor{多喜弘文}{2005年同志社大学文学部社会学科卒(社会学専攻).2011年同大学大学院社会学研究科社会学科博士後期課程修了.2012年東京大学社会学研究所助教.2014年法政大学社会学部社会学科専任講師,2016年より同准教授.博士(社会学).日本社会学会,国際社会学会,日本教育社会学会,数理社会学会各会員.\\}\vspace{-0.5\Cvs}\bioauthor{田辺俊介}{1999年東京都立大学人文学部卒(社会学専攻).2005年同大学大学院社会科学研究科社会学専攻博士課程単位取得退学.2007年東京大学社会科学研究所助教,2009年同准教授.2013年より早稲田大学文学学術院准教授.博士(社会学).日本社会学会,数理社会学会,アメリカ社会学会各会員.\\}\vspace{-0.5\Cvs}\bioauthor{李偉}{2015年東京工業大学大学院理工学研究科博士課程単位取得退学.2016年株式会社シービーエージャパン入社.\\}\end{biography}\biodate\end{document}
| |
V06N04-01 | \section{はじめに}
照応関係の理解は,統語的・意味的レベルの問題であるとともに,談話レベルの問題でもあり,照応表現とその先行詞をどのように同定するかは,言語理論にとっても~\cite{sag}~\cite{tsujimura:1996}~\cite{imanishi:1990},工学的な談話理解システムを構築する上でも重要な課題である~\cite{nakaiwa:1996}~\cite{murata:1997a}~\cite{tanaka:1979}.本稿では,日本語の照応表現について,発見的ストラテジー(heuristicstrategy)が照応関係理解のプロセスでどのように関与するのかについて心理言語学的実験を通して考察する.
\section{人間の照応関係理解}
\subsection{照応理解モデル}英語の照応関係理解に関して行われてきているさまざまな実験結果に基づいて,~\cite{abe:1994}は照応関係理解過程のモデル化を試みている.彼らは,代名詞および名詞句による照応,ゼロ代名詞に対するモデルを提案しているが,それらに共通したプロセスは,概ね,次の図~\ref{fig:process}に示す通りである.\begin{figure}[t]\begin{center}\epsfile{file=5.eps,height=88mm}\end{center}\caption{照応関係理解のプロセス}\label{fig:process}\end{figure}彼らは,現在のモデルはまだまだ不十分であるとしているが,筆者は,こうしたモデルをさらに精緻化するという意味で,特に次のような問題を解決する必要があると考える.\begin{itemize}\item制約条件の設定がどのようなメカニズムで行われるのか.\\先行文脈(照応表現を取り巻く文脈)から得られる統語的情報や意味的情報が,照応理解のプロセスにおいて,いつどのように利用されるのか,また,先行文脈が照応関係の候補決定および照応解決に対して,いつ,どのような影響を及ぼすのかについて,さらに調査する必要がある.\item照応関係の決定がいつ行われるのか.\\指示対象があいまいな照応表現が認定された時点で,即時的に指示対象が仮に決定されるのか,文末(あるいは以後の処理)まで留保されて決定が遅れるのかを明らかにする必要がある.\item指示候補の選択はどのようなメカニズムで行われるのか.\\照応表現の指示対象候補が複数ある場合,その候補からの選択に働く原理を明確にする必要がある.\end{itemize}\footnotetext[1]{ここでいう「意味処理」とは,照応表現をとりまく文脈の意味処理を指す.}\subsection{研究課題}本稿では,照応表現の指示対象候補が複数ある場合に,上記モデルの「制約条件の設定」および「指示候補の選択」がどのようなメカニズムで展開するのかに焦点を当てて,以下の点について考察する.\begin{itemize}\item文脈によって規定される「主題」(topic)という概念が,指示対象の候補絞り込みに,どのような影響を及ぼすのか.\item日本語の代名詞の指示対象を同定するプロセスにおいても,英語に対して提案されている発見的ストラテジーである「主語割当方略」(SubjectAssignmentStrategy)や「平行機能方略」(ParallelFunctionStrategy)が用いられるのか.\end{itemize}
\section{主題割当方略(TopicAssignmentStrategy)}
\subsection{英語の照応関係における「主題」の役割}代名詞の照応表現に関して,文文法レベルにおける統語的制約だけでは,代名詞とその指示対象(先行詞)との間にある照応関係を説明するのに十分ではない.そこで,主題などの機能構文論的な概念を導入した説明がなされることがある.理論的にも照応関係を決定する一つの要因として,主題という概念が大きな役割を果たしていることが主張されている~\cite{takami:1997}~\cite{takami:1987}~\cite{kanzaki:1994}.例えば,~\cite{takami:1997}は,主題の概念を用いて,次のような文の適格性を説明することができるとしている.\vspace{3mm}\begin{tabular}{cl}(1)&a.John$i$tookoutMarytodinnerwhenhe$i$wenttoBoston.\\&b.$*$He$i$tookoutMarytodinnerwhenJohn$i$wenttoBoston.\\(2)&a.Whenhe$i$wenttoBoston,John$i$tookoutMarytodinner.\\&b.WhenJohn$i$wenttoBoston,he$i$tookoutMarytodinner.\\\end{tabular}\vspace{-2mm}\begin{flushright}\cite{takami:1997}\end{flushright}(1a)が適格であるのは,主節の主語であるJohnが同時に主題であるからである.それに対して,(1b)では主節の主語が主題ではあるが,代名詞になっているため不適格となる.言い換えると,主節が従属節に先行する場合,代名詞が主節の主語になることはできない.ところが,(2b)が適格であるのは,従属節と主節が意味上,独立した等位節として解釈され,Johnが意味上,この文全体の主題として解釈されるためであるとしている.\subsection{日本語の照応関係における「主題」の役割}言語類型論的な観点から見ると,英語などの言語は「主語卓立言語」(subjectprominentlanguage)であり,中国語などは「主題卓立言語」(topicprominentlanguage)であり,日本語はどちらの要素も多く持っていると言われている~\cite{huang:1984}~\cite{li:1976}~\cite{kanzaki:1994}.日本語には,主題を示す標識である助詞「は」があり,もし,助詞の情報が利用されるとすれば,日本語などの主題卓立の要素をもった言語には,(3)に示す「主題割当方略」とでも言うべきストラテジーが利用されると仮定することができる.\vspace{3mm}\begin{tabular}{cl}(3)&主題割当方略(TopicAssignmentStrategy;TAS)\\&代名詞には,先行する文脈の中で「主題」である指示対象を割り当てよ.\\\end{tabular}\vspace{3mm}次の例文を見られたい.\vspace{3mm}\begin{tabular}{cl}(4)&a.太郎が先週の金曜日健太を殴り,そして彼は慌てて逃げた.\\&b.太郎は先週の金曜日健太を殴り,そして彼は慌てて逃げた.\\\end{tabular}\vspace{3mm}日本語では,格助詞「が」は主語を表すのに対して,「は」は主題を表すと言われている.(4a)では,文頭名詞句「太郎」に「が」が付与されていることから,主語であることが示され,後続の「彼」と同一指示的となっている.また,(4b)では,文頭名詞句「太郎」に主題を示す「は」が付与されており,後続の「彼」と照応が可能である.このような現象などから,\cite{kanzaki:1994}は,(5)のような一般化を行っている.\vspace{3mm}\begin{tabular}{cl}(5)&1文中の代名詞の照応\\&代名詞は話題\footnotemark[2]になっている句(節)の中の同一名詞句と照応が可能である.\end{tabular}\vspace{3mm}\footnotetext[2]{「主題」,「話題」とは,\cite{halliday:1985}の定義に従えば,主題が文頭にくる要素であるのに対して,話題は必ずしも文頭にある必要はない.したがって,主題は話題の一部とみなすことができ,この点を除いてはほぼ同義と考えることができる.しかし,特にここでは厳密な区別は必要ないので,本稿では,「主題」という用語を用いることにする.}主要部後置型言語(head-finallanguage)である日本語では,文理解プロセスにおいて「助詞」が重要な役割を果たし,それが担う情報が利用されている.人間の文理解プロセスにおいては,主題を示す標識である「は」と主語を示す「が」の相違が影響を及ぼすと考えられる.また,ゼロ代名詞の照応関係についても,主題という概念が重要な役割を果たしていると考えられる.\cite{takami:1997}は(6a)と(6b)に見られる文の適格性の違いを,主題という概念を用いて説明している.\vspace{3mm}\begin{tabular}{cl}(6)&a.$\phii$会社から帰ったとき,父$i$は青い顔をしていた.\\&b.$*\phii$会社から帰ったとき,父$i$が青い顔をしていた.\\\end{tabular}\vspace{3mm}(6a)が適格であるのは,「父」が主題を表す「は」でマークされているため,従属節のゼロ代名詞の先行詞とも解釈されるからである.それに対して,(6b)は,「父」が中立叙述を表す「が」でマークされており,この文には主題が明示されていない.このような場合,従属節のゼロ代名詞の先行詞は,通例,話し手と解釈される.\subsection{Nagata(1991,1995)の実験}日本語の照応理解に関する心理言語学的実験はそれほど多くないが,ここでは日本語の照応関係理解の「主語の優位性」を主張している~\cite{nagata:1991}~\cite{nagata:1995}を取り上げ,その成果と問題点について簡単に述べることにする.~\cite{nagata:1991}では,日本語の再帰代名詞「自分」が,主語名詞句と間接目的語のいずれも先行詞としうる統語的曖昧文を用いて,ProbeRecognitionTaskを行った.プローブ語は,再帰代名詞の直後か文末で呈示される.\vspace{3mm}\begin{tabular}{cl}(7)&太郎$i$は花子$j$に自分$i/j$の家族の話ばかりされた.\\\end{tabular}\vspace{3mm}(7)では,統語的には「自分」は主語の「太郎」も目的語の「花子」も先行詞としてとり得る.しかし,プローブ語を呈示する位置に関係なく,文の主語名詞句が呈示された場合の方が間接目的語を呈示した場合よりも判断時間が短いことから,主語の優位性を主張している.さらに,~\cite{nagata:1995}では,日本語の再帰代名詞「自分」が,主節主語と従属節主語のいずれも先行詞としうる統語的曖昧文を作成し,どちらを先行詞とするかについて,(8)のようなlogophoric文とnon-logophoric文を用いて,同様の実験を行った.(8a)では,主節の動詞は,個人の視点や思考,感情,意識の状態を反映する動詞であり,再帰代名詞の指示対象は曖昧である.このようなタイプの束縛特性を含む文はlogophoric文と呼ばれる.それに対して,(8b)では指示対象の曖昧さは見られない.このような文はnon-logophoric文と呼ばれる.\vspace{3mm}\begin{tabular}{cl}(8)&a.先生$i$は生徒$j$が自分$i/j$の誤りを見つけたとすぐに察した.\\&b.先生$i$は生徒$j$が自分$*i/j$の誤りを見つけたときすぐにほめた.\\\end{tabular}\vspace{3mm}このような文を用いた場合は,プローブ語を呈示する位置に関係なく,従属節主語よりも主節主語が呈示された場合の方が,判断時間が速い傾向が見られた.この傾向は,(8b)のように主節主語が先行詞として不適切な場合にも見られたことから,主節主語の優位性を主張した.このように,英語における先行研究で指摘された「主語の優位性」が,日本語でも確認されたと主張されているが,~\cite{nagata:1991}~\cite{nagata:1995}で用いられた実験刺激文は,主語名詞句が「は」でマークされており,指示対象候補を設定する段階で「主題の優位性」が影響している可能性がある.そこで,主語の優位性と主題の優位性とを区別する実験を行った.\subsection{心理言語学実験}本稿の以下の節では,次に示すような心理言語学実験の結果を報告する.\vspace{-4mm}\subsubsection{被験者}日本語を母語とする大学生18名.\vspace{-4mm}\subsubsection{実験方法}\vspace{-2mm}実験課題は,以下に述べるSelf-PacedReadingTaskおよびProbeRecognitionTaskの2種類を用意した.被験者は,実験の目的についての説明を受けた後,Self-PacedReadingTaskの練習(3試行)を行った後,テスト問題を行い,続いてProbeRecognitionTaskの練習(3試行)を行った後,テスト問題をそれぞれ行った.以下にそれぞれのTaskについて詳述する.\begin{itemize}\itemSelf-PacedReadingTask\\実験文および内容理解を確認するQ\&Aはすべてコンピュータの画面上に文節ごとに呈示した.最初に実験手順を説明した後,実験に慣れるための練習を行った.実験では,初期画面には「準備ができたら何かキーを押して下さい」という指示が数秒出ており,被験者がスペース・キーを押すと,画面中央に*****マークが数秒間呈示され,この位置に実験文が呈示されることを示す.実験文はすべて文節ごとに呈示され,被験者の自己のペースで読み進めるにつれて,前の文節は消えていく.1文の呈示が終わると,内容理解を確認するQ\&Aが現れ,被験者は選択肢の数字キー(1または2)を押し,最後にリターン・キーを押すと1つの試行が終了する.Q\&Aは照応表現の先行詞を尋ねる問題で,たとえば,「〜したのは誰ですか?1)太郎2)健太」というような形式になっている.被験者はなるべく速く,正確に読むように,かつ内容を理解することがもっとも大切であると言われた.コンピュータには,各被験者の文節ごとの読解時間,Q\&Aの選択した解答および反応時間が自動的に記録された.\itemProbeRecognitionTask\\実験文の呈示方法は,Self-PacedReadingTaskと同じく,文節ごとに自己のペースで読み進めるが,文の途中で(本実験では,代名詞の直後)同じ画面にプローブ語(ターゲットへの手がかり)が呈示され,その語が文中に存在していたかどうかを判断する.プローブ語は,代名詞が指示対象とする人名である.心理学実験における反応結果(ここではプローブ語の判断時間)の一方がもう一方に比べて速い場合,速い方の人名が脳内で活性化されているのではないかと解釈することができる~\cite{abe:1994}.\end{itemize}\subsection{実験1:照応理解における主題割当方略}本実験では,3.2節の(3)に示した「主題割当方略」という発見的ストラテジーが,日本語の照応理解のプロセスで用いられるのかどうかについて検証する.\subsubsection{実験刺激文}表\ref{table:exam1s}に実験1で用いられる刺激文の例を示した.それぞれ(a)の文は,主語名詞句に助詞「が」が付与されており,(b)の文は,主語名詞句に助詞「は」が付与されている.このような基準で6セット作成した.なお,文中の▲はProbeRecognitionTaskにおけるプローブ語の現れる位置を表す.\begin{table}[htbp]\begin{center}\caption{実験1で用いる刺激文}\label{table:exam1s}\begin{tabular}{cl}\hline(9)&a.太郎$i$が花子に[健太$j$が自分$i/j$を▲批判した]と言った.\\&b.太郎$i$は花子に[健太$j$が自分$i/j$を▲批判した]と言った.\\(10)&a.太郎$i$が花子に[健太$j$が自分自身$i/j$を▲批判した]と言った.\\&b.太郎$i$は花子に[健太$j$が自分自身$i/j$を▲批判した]と言った.\\(11)&a.太郎$i$が[健太$j$が自分$i/j$の車で▲東京へ行った]と思っている.\\&b.太郎$i$は[健太$j$が自分$i/j$の車で▲東京へ行った]と思っている.\\(12)&a.太郎$i$が[健太$j$が自分自身$i/j$の車で▲東京へ行った]と思っている.\\&b.太郎$i$は[健太$j$が自分自身$i/j$の車で▲東京へ行った]と思っている.\\(13)&a.太郎$i$が先週の金曜日健太$j$を殴り,そして彼$i/j$は▲次郎を殴った.\\&b.太郎$i$は先週の金曜日健太$j$を殴り,そして彼$i/j$は▲次郎を殴った.\\(14)&a.太郎$i$が先週の金曜日健太$j$を殴り,そして次郎は彼$i/j$を▲殴った.\\&b.太郎$i$は先週の金曜日健太$j$を殴り,そして次郎は彼$i/j$を▲殴った.\\\hline\end{tabular}\end{center}\end{table}\subsubsection{結果の予測}それぞれの刺激文において,「が」を用いた(a)の文よりも「は」を用いた(b)の文で,Q\&A反応において「太郎」を照応表現の先行詞として割り当てる反応が多ければ,TASが用いられていることになる.また,「が」を用いた(a)の文よりも「は」を用いた(b)の文で,ProbeRecognitionの判断時間が短かければ,TASが用いられていることになる.\subsubsection{結果と考察}表\ref{table:exam1r}にSelf-PacedReadingTaskにおける読解時間・Q\&A反応結果,およびProbeRecognitionTaskにおける判断時間(ms)(PRT反応と略記)を示す.\begin{itemize}\itemSelf-PacedReadingTask\\照応表現の先行詞を判断するQ\&Aでは,「は」が付与された場合,その反応率が増加する傾向が見られた.特に,(10)のように先行詞として同一節内の名詞句をとる傾向の強い「自分自身」に対しても「は」による逆転が見られた.ただ,(12)においてはむしろ「太郎(は)」を先行詞とする反応が減少したが,これは「自分自身」がさらに深く名詞句の中にある(「自分自身の車」)ことが影響した可能性がある.「が」が付与された名詞句よりも「は」が付与された名詞句で読解時間がかかる傾向が見られ,分散分析を行った結果,それぞれの刺激文において両者の間に有意差が見られた((10a-b):$F(1,17)=11.214,p<0.05$;(11a-b):$F(1,17)=14.461,p<0.01$;(12a-b):$F(1,17)=143.831,p<0.01$;(13a-b):$F(1,17)=17.235,p<0.01$;(14a-b):$F(1,17)=5.612,p<0.05$).この傾向は,助詞「は」のもつ情報が利用されていることを示していると考えられる.\itemProbeRecognitionTask\\「が」を含む(a)の文では,文によってばらつきが見られ,「健太」の方が判断時間が速い場合もある.それに対して,(a)の文に比べて「は」を含む(b)の文では一貫して,プローブ語として「太郎」が呈示された場合の方が判断時間が速かった.これらの結果は,主題を表す「は」の情報が利用され,照応理解のプロセスでTASが利用されていることを示している.\end{itemize}\begin{table}\begin{center}\caption{実験1の結果}\label{table:exam1r}\begin{tabular}{|rl|r|r|r|r|r|r|}\hline\multicolumn{2}{|c|}{}&\multicolumn{2}{c|}{読解時間}&\multicolumn{2}{c|}{Q\&A反応}&\multicolumn{2}{c|}{PRT反応(ms)}\\\hline\multicolumn{2}{|c|}{実験文}&太郎が/は&照応表現&太郎&健太&太郎&健太\\\hline(9)a&太郎が\ldots自分を\ldots&14.77&21.60&13&5&1507&2272\\b&太郎は\ldots自分を\ldots&17.37&17.15&17&1&1372&1547\\(10)a&太郎が\ldots自分自身を\ldots&13.23&16.07&7&11&1598&1488\\b&太郎は\ldots自分自身を\ldots&17.77&21.89&10&8&1367&1482\\(11)a&太郎が\ldots自分の\ldots&13.07&28.65&3&15&1477&1488\\b&太郎は\ldots自分の\ldots&17.07&19.65&8&10&1303&1627\\(12)a&太郎が\ldots自分自身の\ldots&14.43&18.68&5&13&1513&1528\\b&太郎は\ldots自分自身の\ldots&19.15&22.38&4&14&1340&1485\\(13)a&太郎が\ldots彼は\ldots&13.36&12.48&12&6&1397&1888\\b&太郎は\ldots彼は\ldots&17.34&12.19&13&5&1360&1400\\(14)a&太郎が\ldots彼を\ldots&12.84&10.98&11&7&1445&1817\\b&太郎は\ldots彼を\ldots&15.21&14.66&14&4&1323&1898\\\hline\end{tabular}\end{center}\end{table}
\section{主語割当方略および平行機能方略}
実験1では照応表現の解釈に主題の効果があることを見た.次に,英語における心理言語学的実験に基づいて提案されている他の発見的ストラテジーが日本語の照応関係理解のプロセスで利用されるかどうかについて考察する.\subsection{照応理解における主語割当方略および平行機能方略}英語における心理言語学的実験で「発見的ストラテジー」として提案されているものに,主語割当方略(SubjectAssignmentStrategy)と平行機能方略(ParallelFunctionStrategy)と呼ばれるものがある.これらのストラテジーは概略次のようなものである.\vspace{3mm}\begin{tabular}{cl}(15)&主語割当方略(SubjectAssignmentStrategy;SAS)\\&代名詞がいかなる文法的位置にあっても,それには,\\&先行する節中の主語位置にある名詞句の解釈を付与\\&せよ.\\(16)&平行機能方略(ParallelFunctionStrategy;PFS)\\&代名詞には,先行する節中で代名詞と同じ文法的位\\&置にある名詞句の解釈を付与せよ.\\\end{tabular}\vspace{3mm}これらのストラテジーをめぐって様々な心理言語学的実験が行われてきている~\cite{crawly:1990}.Crawlyらは,SASとPFSのどちらが利用されているかについて実験を行った.\vspace{3mm}\begin{tabular}{cl}(17)&a.JohnhitBillandheranaway.\\&b.JohnhitBillandMarykickedhim.\\\end{tabular}\vspace{3mm}彼らは,(17a)の代名詞のみならず,(17b)のような文においても,目的語代名詞には前節の主語名詞句を割り当てるという結果から,SASを支持する結果が得られたとした.また,性別の手がかりがある場合には,両者のストラテジー間には差が見られないことから,発見的ストラテジーの使用は他に決定的な手がかりが存在しない場合に限られるとした.一方,~\cite{smyth:1994}は,parallelな統語構造を持っている文では,PFSの使用が促進され,それ以外の構造においては,SASが促進されることを示した.また,これらのストラテジーは他の手がかりが存在しないときに活用されることも示した.このように,英語に関する先行研究では矛盾する結果が得られているので,日本語の場合について実験を行うことにした.\subsection{実験2}本実験では,指示対象が曖昧な代名詞を用いて,日本語の照応理解のプロセスで,SASあるいはPFSといったストラテジーが用いられるのか,また用いられるとしたらSASか,それともPFSなのかについて調査する.\subsubsection{実験刺激文}表\ref{table:exam2as}に実験2で用いられる刺激文を示した.実験文には,等位接続詞「そして」によって接続された第2節の主語が代名詞の場合(主語代名詞条件)と目的語が代名詞の場合(目的語代名詞条件)を設定した.第1節には同姓の2人の人物が登場し,第2節中の代名詞は2人の人物のいずれも指示することが可能である.なお,文中の▲はProbeRecognitionTaskにおけるプローブ語の現れる位置を表す.\vspace{-3mm}\begin{table}[htbp]\begin{center}\caption{実験2で用いる刺激文}\label{table:exam2as}\begin{tabular}{cl}\hline(18)&「が」:主語代名詞\\&a.太郎が健太を殴りそして彼は▲次郎を殴った.\\&「が」:目的語代名詞\\&b.太郎が健太を殴りそして次郎は彼を▲殴った.\\\hline\end{tabular}\end{center}\end{table}\vspace{-3mm}\subsubsection{結果の予測}いずれのストラテジーが用いられても,(18a)の「彼」は先行節の「太郎」が指示対象として優先されることが予測される.それに対して,(18b)では,SASが用いられれば「太郎」が,PFSが用いられば「健太」を指示対象として選択することが予測される.これらは,Self-PacedReadingTaskのQ\&A反応およびProbeRecognitionTaskの反応時間から判断することができる.PRT反応では,(18a)ではいずれのストラテジーを用いた場合でも,「太郎」の方が「健太」に比べて反応時間が速いはずである.しかし,(18b)ではSASが用いられれば,プローブ語として「太郎」が呈示された方が,PFSが用いられれば「健太」が呈示された方が反応時間が速いことが予測される.\subsubsection{結果と考察}表\ref{table:exam2ar}に,Self-PacedReadingTaskにおける読解時間(Q\&A反応結果,およびProbeRecognitionTaskにおける判断時間(ms)(PRT反応)を示す.\begin{itemize}\itemSelf-PacedReadingTask\\刺激文(18a-b)では,前節の主語を先行詞とする傾向が見られた.この傾向は,主語代名詞の場合だけでなく,目的語代名詞の場合にも見られたことから,SASを支持する結果が得られた.\itemProbeRecognitionTask\\まず,(18a)では,「健太」(1032ms)よりも「太郎」(930ms)がプローブ語として呈示された場合の方が判断時間が速く,両者の間には有意差が見られた($F(1,17)=5.318,p<0.05$).しかし,(18b)では,これとは逆の傾向が見られ,「太郎」(770ms)よりも「健太」(684ms)がプローブ語として呈示された場合の方が判断時間が速く,両者の間には有意差が見られた($F(1,17)=16.878,p<0.01$).\end{itemize}\begin{table}\begin{center}\caption{実験2の結果}\label{table:exam2ar}\begin{tabular}{|rl|r|r|r|r|r|r|}\hline\multicolumn{2}{|c|}{}&\multicolumn{2}{c|}{読解時間}&\multicolumn{2}{c|}{Q\&A反応}&\multicolumn{2}{c|}{PRT反応(ms)}\\\hline\multicolumn{2}{|c|}{実験文}&太郎が/は&照応表現&太郎&健太&太郎&健太\\\hline(18)a&太郎が\ldots彼は\ldots&13.58&12.71&15&3&930&1032\\b&太郎が\ldots彼を\ldots&12.71&12.83&17&1&770&684\\\hline\end{tabular}\end{center}\end{table}以上のことをまとめると,まず,Self-PacedReadingTaskにおけるQ\&A反応では,照応表現の先行詞を前節の主語とする反応が多いことから,SASを利用しているものと考えられる.しかし,(18b)については,実験課題による結果の相違が見られた.Self-PacedReadingTaskにおけるQ\&A反応では,「太郎」を先行詞とする反応が多いが,ProbeRecognitionTaskでは,「太郎」に比べて「健太」の方が判断時間が速く,照応表現が現れた時点では,被験者の脳内で「健太」が活性化され,「健太」を先行詞としていることが分かる.つまり,後者の実験課題では,PFSを支持する結果が得られた.こうした不一致は,次のような理由によるものと考えられる.Self-PacedReadingTaskにおけるQ\&Aは一文を読み終えた後に行われるため,文末以降の文処理を反映しており,意味処理や文脈処理が行われた結果が反映していると考えることができる.したがって,Self-PacedReadingTaskの結果からは,つねにSASが使用されると断定することはできず,提示される文の意味内容によってはPFSを支持する結果が得られる可能性もあるため,どちらのストラテジーが用いられるかを決定するのに有効な実験課題ではなかった.一方,ProbeRecognitionTaskは,照応表現が現れた時点で先行詞として何が活性化されているかというリアルタイムでの処理を反映している.そうすると,照応表現の位置では,(18b)のような目的語代名詞の場合には,前節の目的語が暫定的に先行詞として割り当てられていると考えることができ,オンラインではPFSが用いられていることになる.
\section{発見的ストラテジー間の相互関係}
実験1では,日本語の照応理解プロセスで「主題役割方略」が用いられることを,また実験2では,parallelな構造をもつ文では「平行機能方略」が用いられることを示す結果が得られた.しかし,両者のストラテジーの関係は明らかになっていない.つまり,この2つのストラテジーが競合する場合,どちらか一方が優先的に利用されるということがあるのだろうか.また,これまで得られた結果について,他のストラテジーが関与している可能性はないのだろうか.\subsection{その他の発見的ストラテジー}英語の照応理解では,前節で触れた「主語割当方略」,「平行機能方略」以外にも,さまざまなストラテジーが提案されている.例えば次のような,いわゆる知覚上のストラテジーがある.\vspace{3mm}\begin{flushleft}\begin{tabular}{cl}(19)&ファーストメンション効果(firstmentioneffect;FM)\\&文の最初に言及された人物を代名詞の指示対象として割り当てよ.\end{tabular}\end{flushleft}\begin{flushright}\vspace{-2mm}~\cite{gernsbacher:1988}\end{flushright}\vspace{-2mm}\begin{flushleft}\begin{tabular}{cl}(20)&近接効果(recencyeffect;RE)\\&代名詞に最も近い位置に現れた人物をその代名詞の指示対象として割り当てよ.\\\end{tabular}\end{flushleft}\vspace{3mm}これまでの実験で,主題を表す「は」でマークされた語が代名詞の先行詞として解釈される場合は,(19)のストラテジーが利用されて,最初に言及した人物を割り当てているとも考えられる.また,parallelな構造をもつ文で目的語代名詞の場合には,先行する節の目的語が代名詞の先行詞として解釈される現象は,(20)のストラテジーが利用されている可能性もある.日本語の照応理解においても以上のようなストラテジーが働く可能性があるので,これらの知覚上のストラテジーとの関係について検討する必要がある.\subsection{予備実験}複数のストラテジーが競合する場合,利用されるストラテジーに優先度があるのかどうかについて詳細に調査する前に予備実験を行った.\subsubsection{実験刺激文}実験2で取り上げた刺激文(18)は,第1節には主語を示す「が」を用いた文であったが,それを主題を表す「は」に置き換えた刺激文(19)を用いて比較実験を行った.予備実験で用いた例文を表\ref{table:exam2bs}に示す.なお,参照の煩雑さを避けるため,刺激文(18)を再度掲載する.\vspace{-3mm}\begin{table}[htbp]\begin{center}\caption{実験2で用いる刺激文}\label{table:exam2bs}\vspace{-2mm}\begin{tabular}{cl}\hline(18)&「が」:主語代名詞\\&a.太郎が健太を殴り,そして彼は▲次郎を殴った.\\&「が」:目的語代名詞\\&b.太郎が健太を殴り,そして次郎は彼を▲殴った.\\(19)&「は」:主語代名詞\\&a.太郎は健太を殴り,そして彼は▲次郎を殴った.\\&「が」:目的語代名詞\\&b.太郎は健太を殴り,そして次郎は彼を▲殴った.\\\hline\end{tabular}\end{center}\end{table}\vspace{-3mm}\subsubsection{結果の予測}刺激文(18)では,PRT反応時間を測定した結果,主語代名詞の場合には第1節の主語を,目的語代名詞の場合には第1節の目的語を提示した方が反応時間が速かったことから,オンラインではPFSが利用されていることが分かった.これに対して,刺激文(19)では次のような予測が成り立つ.主語代名詞の(19a)では,PFSが用いられてもTASが用いられても,プローブ語として提示される「健太」に比べて「太郎」の反応時間が速いことが予測される.しかし,目的語代名詞の(19b)では,「健太」の反応時間が速ければPFSが用いられたことになり,「太郎」の反応時間が速ければTASが用いられたことになる.\subsubsection{結果と考察}実験結果を表~\ref{table:exam2br}に示す.主題を示す「は」を用いた刺激文(19a)では,「健太」(1192ms)よりも「太郎」(747ms)がプローブ語として呈示された場合の方が判断時間が速く,両者の間には有意差が見られた($F(1,17)=18.635,p<0.01$).また,(19b)でも同様の傾向が見られ,(18b)とは逆に,「健太」(1062ms)よりも「太郎」(888ms)がプローブ語として呈示された場合の方が判断時間が速く,両者の間には有意差が見られた($F(1,17)=6.231,p<0.05$).すなわち,(18a-b)と(19a-b)の間には利用されるストラテジーに違いが見られたが,これはPFSとTASが競合する場合,TASが優先的に利用されたと考えられる.予備実験の結果,いくつかのストラテジーが競合する場合,いずれかのストラテジーが優先して利用される可能性があることが分かった.\begin{table}\begin{center}\caption{実験2の結果}\label{table:exam2br}\begin{tabular}{|rl|r|r|r|r|r|r|}\hline\multicolumn{2}{|c|}{}&\multicolumn{2}{c|}{読解時間}&\multicolumn{2}{c|}{Q\&A反応}&\multicolumn{2}{c|}{PRT反応(ms)}\\\hline\multicolumn{2}{|c|}{実験文}&太郎が/は&照応表現&太郎&健太&太郎&健太\\\hline(18)a&太郎が\ldots彼は\ldots&13.58&12.71&15&3&930&1032\\b&太郎が\ldots彼を\ldots&12.71&12.83&17&1&770&684\\(19)a&太郎は\ldots彼は\ldots&12.42&17.24&16&2&747&1192\\b&太郎は\ldots彼を\ldots&12.82&15.00&18&1&888&1062\\\hline\end{tabular}\end{center}\end{table}\subsection{実験3}実験3では,SASあるいはPFSとTASが競合する場合,どれが優先的に利用されるかついて,人間の知覚上のストラテジーであるFM,REの影響とあわせて調査する.\subsubsection{実験刺激文}表\ref{table:exam3s}に実験3で用いられる刺激文を示した.前節と後節がパラレルな構造をもつように実験文を作成した.(a)を基本形として,語順のかき混ぜ(scrambling)によって文法項の位置を操作し,前節の目的語を前置した文(b),さらに,前置した目的語を主題化した文(c)を作成した(実験文(22),(23)).さらに,(22a-b),(22a-b)の「が」を「は」に置き換えて,(24a-b),(25a-b)を作成した.なお,文中の▲はProbeRecognitionTaskにおけるプローブ語の現れる位置を表す.\begin{table}[htbp]\caption{実験3で用いる刺激文}\label{table:exam3s}\begin{center}\begin{tabular}{cl}\hline(22)&主語代名詞\\&a.太郎が健太を殴った.そして彼は▲逃げていった.\\&主語代名詞:目的語前置\\&b.健太を太郎が殴った.そして彼は▲逃げていった.\\&目的語前置:主題化\\&c.健太は太郎が殴った.そして彼は▲逃げていった.\\(23)&目的語代名詞\\&a.太郎が健太を殴った.そして次郎は彼を▲殴った.\\&目的語代名詞:目的語前置\\&b.健太を太郎が殴った.そして次郎は彼を▲殴った.\\&目的語前置:主題化\\&c.健太は太が殴った.そして次郎は彼を▲殴った.\\(24)&主語代名詞\\&a.太郎は健太を殴った.そして彼は▲逃げていった.\\&主語代名詞:目的語前置\\&b.健太を太郎は殴った.そして彼は▲逃げていった.\\(25)&目的語代名詞\\&a.太郎は健太を殴った.そして次郎は彼を▲殴った.\\&目的語代名詞:目的語前置\\&b.健太を太郎は殴った.そして次郎は彼を▲殴った.\\\hline\end{tabular}\end{center}\end{table}\subsubsection{結果の予測}主語代名詞を含む(22)では,SASに従えばいずれの場合も代名詞の直後では「健太」に比べて「太郎」の反応時間が速いことが予測される.しかし,TASに従えば(22b),(22c)では「太郎」に比べて「健太」の反応時間が速くなることが予測される.目的語代名詞を含む(23)では,SASに従えばいずれの場合も代名詞の直後では「健太」に比べて「太郎」の反応時間が速いことが予測されるが,PFSに従えば,(21a-b)では「健太」の反応時間が速いことが予測される.しかし,(22a)と(23b),(24a)と(25b)の間にそれぞれ反応時間の差が見られないはずである.\subsubsection{結果と考察}表\ref{table:exam3r}にSelf-PacedReadingTaskにおける読解時間・Q\&A反応結果,およびProbeRecognitionTaskにおける判断時間(msec)(PRT反応)を示す.\vspace{0.5cm}\begin{itemize}\itemSelf-PacedReadingTask\\「が」を用いた文のうち,主語代名詞の刺激文(22)では,(22a-c)のいずれの場合にも代名詞には「太郎」を割り当てる傾向が見られた.目的語代名詞の刺激文(23)でも,同様の傾向が見られ,(23a-c)のいずれの場合にも代名詞には「太郎」を割り当てる傾向が見られた.また,「は」に置き換えた文(24),(25)でも同様の傾向が見られた.このことは,SASを支持する結果といえる.\itemProbeRecognitionTask\\しかし,ProbeRecognitionTaskの結果では,(22a)ではプローブ語として「太郎」(940ms)が呈示された場合の方が「健太」(981ms)が呈示された場合よりも判断時間が速いが,(22b)ではプローブ語として「健太」(945ms)が呈示された場合の方が「太郎」(1063ms)が呈示された場合よりも判断時間が速く,(22c)でも同様の傾向が見られた.目的語代名詞の(23)の場合,(23a)ではプローブ語として「健太」(1094ms)が呈示された場合の方が「太郎」(1238ms)が呈示された場合よりも判断時間が速く,(23b),(23c)でも同様の傾向が見られた.(23a)に見られた傾向から,照応表現が現れた位置ではPFSが利用されている可能性がある.\end{itemize}\begin{table}\vspace{-6mm}\begin{center}\caption{実験3の結果}\label{table:exam3r}\begin{tabular}{|rl|r|r|r|r|r|r|}\hline\multicolumn{2}{|c|}{}&\multicolumn{2}{c|}{読解時間}&\multicolumn{2}{c|}{Q\&A反応}&\multicolumn{2}{c|}{PRT反応(ms)}\\\hline\multicolumn{2}{|c|}{実験文}&太郎が/は&照応表現&太郎&健太&太郎&健太\\\hline(22)a&太郎が健太を\ldots彼は&15.17&19.87&12&6&940&981\\b&健太を太郎が\ldots彼は&12.08&24.24&11&7&1630&945\\c&健太は太郎が\ldots彼は&12.62&16.48&11&7&1234&840\\(23)a&太郎が健太を\ldots彼を&17.04&24.51&14&4&1238&1094\\b&健太を太郎が\ldots彼を&14.22&13.75&16&2&1448&1280\\c&健太は太郎が\ldots彼を&18.55&16.65&18&0&1020&727\\(24)a&太郎は健太を\ldots彼は&15.34&15.78&18&0&990&1006\\b&健太を太郎は\ldots彼は&14.05&15.30&15&3&1030&1417\\(25)a&太郎は健太を\ldots彼を&17.58&16.46&16&2&1013&1188\\b&健太を太郎は\ldots彼を&15.57&15.10&18&0&904&1106\\\hline\end{tabular}\end{center}\end{table}\vspace{0.5cm}TASの影響やRE,FMの影響などの関係について,さらに詳細に比較検討をおこなう.表9〜表14には,比較検討する文のそれぞれについて,PRT反応(ms)およびそれぞれの差が示されている.なお,PRT反応の下に示したストラテジーは,当該の反応時間がもう一方に比べて速い場合に,そのストラテジーが機能していると考えられることを示している.\vspace{-0.3cm}\begin{itemize}\itemREとSASが競合する場合\\まず,REとSASのいずれのストラテジーが用いらるか検討する.REは,(22a)でも(24a)でもより近い位置にある「健太」の反応時間が速いことを」予測するが,SASは,いずれの場合も「太郎」の反応時間が速いことを予測する.表\ref{table:ptr}にその結果を示した.PRT反応時間(ms)を比較した結果,(22a)では「健太」よりも「太郎」の判断時間が速く,REよりもSASが優位であることを示している.(24a)でも同様の傾向が見られたが,「太郎は」は主語でもあり主題でもあるので,REよりもSAS,TASが優位であることを示している.全体としては,SASがREよりも優位なストラテジーであると言える.\end{itemize}\begin{table}\begin{center}\caption{ProbeRecognitionTaskにおける平均判断時間}\label{table:ptr}\begin{tabular}{|r|l|c|c|c|}\hline\multicolumn{2}{|c|}{}&\multicolumn{2}{c|}{PRT反応(ms)}&\\\hline&実験文&太郎&健太&差\\\hline(22)a&太郎が健太を\ldots彼は&940&981&+41\\&&SAS&RE&\\\hline(24)a&太郎は健太を\ldots彼は&990&1006&+16\\&&SAS,TAS&RE&\\\hline\end{tabular}\end{center}\end{table}\begin{itemize}\itemFMとTASが競合する場合\\次にFMとTASが競合する場合について検討しよう.「健太を」を文頭に移動した文については,(22b)では「太郎」よりも「健太」の判断時間が速く,SASよりもFM効果が優位であることを示している(表\ref{table:fmtas}).同様の語順で「太郎は」に置き換えた(22b)では,逆に「健太」よりも「太郎」の判断時間が速くなったことから,FMよりもSAS,TASが優位であると考えられる.これらの間にはそれぞれ有意差が見られた((22b):$F(1,17)=209.503,p<0.01;(22b):F(1,17)=35.338,p<0.01$).(22b)と(22b)を比較すると,「太郎」と「健太」の判断時間に逆転現象が見られたことから,TASがFMよりも優位なストラテジーであると言える.(22b)と(22b)の間には「太郎」および「健太」の判断時間に有意差が見られた(「太郎」:$F(1,17)=108.532,p<0.01;$「健太」:$F(1,17)=70.503,p<0.01$).\end{itemize}\begin{table}\vspace{-5mm}\begin{center}\caption{ProbeRecognitionTaskにおける平均判断時間}\label{table:fmtas}\begin{tabular}{|r|l|c|c|c|}\hline\multicolumn{2}{|c|}{}&\multicolumn{2}{c|}{PRT反応(ms)}&\\\hline&実験文&太郎&健太&差\\\hline(22)b&健太を太郎が\ldots彼は&1630&945&-685\\&&SAS&FM&\\\hline(22)b&健太を太郎は\ldots彼は&1030&1417&+38\\&&SAS,TAS&FM&\\\hline差&&-600&+472&+1072\\\hline\end{tabular}\end{center}\end{table}\begin{itemize}\itemPFSとTASが競合する場合\\次に目的語が代名詞となっている場合の「が」と「は」を比較する(表~\ref{table:pfstas}).「が」を用いた(23a)では,「太郎」に比べて「健太」の方が判断時間が速く,SASよりもPFSが用いられている可能性がある.両者の間には有意差が見られた($F(1,17)=6.801,p<0.01$).しかし,同様の語順で「太郎は」に置き換えた(25a)では,逆に「健太」よりも「太郎」の方が判断時間が速くなったことから,PFSよりもTASが優位であると考えられる.両者の間には有意差が見られた($F(1,17)=5.389,p<0.01$).\end{itemize}\begin{table}\begin{center}\caption{ProbeRecognitionTaskにおける平均判断時間}\label{table:pfstas}\begin{tabular}{|r|l|c|c|c|}\hline\multicolumn{2}{|c|}{}&\multicolumn{2}{c|}{PRT反応(ms)}&\\\hline&実験文&太郎&健太&差\\\hline(23)a&太郎が健太を\ldots彼を&1238&1094&-168\\&&SAS&PFS&\\\hline(23)a&太郎は健太を\ldots彼を&1013&1188&+175\\&&SAS,TAS&PFS&\\\hline差&&-225&+94&+319\\\hline\end{tabular}\end{center}\end{table}\begin{itemize}\itemPFS・SASとTASが競合する場合\\(23b)では,「太郎」よりも「健太」の判断時間が速く,SASよりもPFSが優位である可能性がある(表\ref{table:pfssastas}).ただし,「健太」は文法機能(目的語)においては「彼」とparallelであるが,語順はparallelではないので,純粋なPFSが働いているかどうかは検討の余地がある.「太郎は」に置き換えた(23b)では,「健太」よりも「太郎」の判断時間が速くなったことから,PFSよりもSAS,TASが優位であると考えられる.(23b)では,「太郎」と「健太」の判断時間の間に有意差が見られた($F(1,17)=11.611,p<0.01$).(23b)に比べて(25b)では,プローブ語が「太郎」と「健太」のいずれの場合にも判断時間が速くなる傾向が見られたことから,TASが影響していると言える.(25b)と(25b)の間では,「太郎」の判断時間に有意差が見られた($F(1,17)=34.414,p<0.01$).\end{itemize}\begin{table}\begin{center}\caption{ProbeRecognitionTaskにおける平均判断時間}\label{table:pfssastas}\begin{tabular}{|r|l|c|c|c|}\hline\multicolumn{2}{|c|}{}&\multicolumn{2}{c|}{PRT反応(ms)}&\\\hline&実験文&太郎&健太&差\\\hline(23)a&健太を太郎が\ldots彼を&1448&1280&-168\\&&SAS&PFS?&\\\hline(25)a&健太を太郎は\ldots彼を&904&1106&+202\\&&SAS,TAS&PFS?&\\\hline差&&-544&-174&+370\\\hline\end{tabular}\end{center}\end{table}\begin{itemize}\itemFMとTASが競合する場合\\目的語「健太を」を文頭に移動した(22b)は,上述した通り,SAS効果よりもFMが優位であることを示す結果が得られた.さらに主題化して「健太は」とした(22c)でも同様の傾向が見られたことから,SASよりもFM,TASが優位であると考えられる.(22c)では,「太郎」と「健太」の判断時間の間に有意差が見られた($F(1,17)=12.191,p<0.01$).プローブ語が「健太」の場合,(22b)よりも(22c)の方で判断時間が短くなったことから,TASがその差を縮めたと言える(表~\ref{table:fmtas2}).\end{itemize}\begin{table}\begin{center}\caption{ProbeRecognitionTaskにおける平均判断時間}\label{table:fmtas2}\begin{tabular}{|r|l|c|c|c|}\hline\multicolumn{2}{|c|}{}&\multicolumn{2}{c|}{PRT反応(ms)}&\\\hline&実験文&太郎&健太&差\\\hline(22)b&健太を太郎が\ldots彼は&1630&945&-685\\&&SAS&FM&\\\hline(22)c&健太は太郎が\ldots彼は&1234&840&-396\\&&SAS&FM,TAS&\\\hline差&&-396&-105&+289\\\hline\end{tabular}\end{center}\end{table}\begin{itemize}\itemFMとPFSとTASが競合する場合\\最後に,(23b)では,上述した通り,SASよりもPFSが優位である可能性を示す結果が得られた.(23c)でも同様の傾向が見られ,このことは,SASよりもFM,PFS,TASが優位であることを示している(表\ref{table:fmpfstas}).(23c)では「太郎」と「健太」の判断時間の間に有意差が見られた($F(1,17)=9.592,p<0.01$).プローブ語が「健太」の場合,(23b)よりも(23c)の方で判断時間が短くなったことから,TASがその差を縮めたと言える.これらの間には有意差が見られた($F(1,17)=41.179,p<0.01$)\end{itemize}\begin{table}\begin{center}\caption{ProbeRecognitionTaskにおける平均判断時間}\label{table:fmpfstas}\begin{tabular}{|r|l|c|c|c|}\hline\multicolumn{2}{|c|}{}&\multicolumn{2}{c|}{PRT反応(ms)}&\\\hline&実験文&太郎&健太&差\\\hline(23)b&健太を太郎が\ldots彼を&1448&1280&-168\\&&SAS&FM,PFS&\\\hline(25)c&太郎は健太が\ldots彼を&1020&727&-293\\&&SAS&FM,TAS&\\\hline差&&-428&-553&-125\\\hline\end{tabular}\end{center}\end{table}以上の結果から,これらの結果から,SAS,PFSなどのストラテジーとTASが競合する場合,TASが優先的に利用されると言える.また,知覚上のストラテジーであるREやFMなどの効果よりもTASが優位なストラテジーであると言える.
\section{まとめと今後の課題}
本稿では,日本語の照応理解のプロセスにおいて,いくつかの発見的ストラテジーが関与していることを見てきた.日本語の実験では,parallelな構造を持つ文では,PFSが利用されることが分かった.また,英語のような「主語卓立言語」とは異なり,日本語では,SASあるいはPFSとTASが競合する場合,むしろTASが利用されることが明らかになった.つまり,このことは,TASが他の発見的ストラテジーよりもより優位な立場にあるストラテジーであることを示唆するものである.これは,日本語が「主題卓立言語」の性質をもっていることを示している.今後は,文脈情報との相互作用など照応関係の理解に影響を及ぼすと思われる要因を考慮し,TASの優位性をさらに調査したい.また,統語的制約,意味的制約と発見的ストラテジーとの相互関係についても考察したい.\acknowledgment本稿の執筆にあたり,多くの貴重なご助言を賜った本稿査読者および,大阪大学の郡司隆男教授(現在,神戸松蔭女子学院大学),三藤博助教授に深謝いたします.また,有益なコメントを下さった大阪大学大学院言語文化研究科の言語工学研究会の諸氏にも感謝いたします.なお,本稿に残る誤植や間違いはすべて筆者の責任である.\bibliographystyle{jnlpbbl}\bibliography{v06n4_01}\begin{biography}\biotitle{略歴}\bioauthor{横川博一}{1994年京都教育大学大学院教育学研究科修士課程修了,1996年大阪大学大学院言語文化研究科博士前期課程修了,1999年同大学院言語文化研究科博士後期課程単位取得満期退学.現在,京都教育大学,京都外国語大学非常勤講師.心理言語学,応用言語学の研究に従事.関西英語教育学会事務局長,全国英語教育学会理事.言語処理学会,日本認知科学会,語学ラボラトリー学会,大学英語教育学会,日本児童英語教育学会などの会員.}\bioreceived{受付}\vspace{-2mm}\biorevised{再受付}\vspace{-2mm}\bioaccepted{採録}\end{biography}\end{document}
| |
V16N04-05 | \section{はじめに}
近年の科学技術の進展にともない,工学知は幾何級数的に増大したが,その一方で,工学教育の現場においては,学生が自分の興味に合わせて講義・演習を選ぶことが非常に困難な状況になっている.例えば,東京大学工学部では約900の講義が開講されており,学科の枠を越えた講義の履修が可能であるが,講義の選択に対する十分な知識が得られる状況とは言い難い.学生にとっては,a)自分の興味がどの講義によって教授されるか(講義の検索),b)その講義を受けるために習得すべき講義は何か(講義間関連の同定),等を得ることが望ましい.また,教員も同様に,講義全体の効率化のために,講義内容の重複や講義の抜けを知る必要があり,総じて講義の全体像を俯瞰し,各講義間の関連性を知ることが非常に重要となる.こうした問題に対し,我々は先より,異なる分野における知識を効率的に抽出し,かつ得られた知識間の関連性から浮かび上がる新たな知の活用を支援する「知の構造化」に関する研究開発を進めてきた\cite{Inproc_Mima_2006a,Article_Mima_2006b,Inproc_Yoshida_2007}.「知の構造化」の主たる目的は,知識を分析し可視化技術により知の内容を明瞭にすることで,i)知識全体の構造を明らかにし,ii)知識の関連から隠れた知識や,新たな知識を発見する,iii)知識の集中と抜けを発見する,さらには,これらによる知識の活用と再利用性を促すことにある.以上のような知の構造化の工学教育分野における実践として,以下の目標を達成するために,工学知およびカリキュラムの構造化と可視化に取り組んでいる.\noindent\textgt{・セルフオリエンテーション可能なシステムの構築}カリキュラムの全体像を構造化し,可視化することによって,学生が学ぶことの相対的位置付けを理解し,進むべき道を自ら指向できるようにする.\noindent\textgt{・テーラーメイド教育の実現}様々な異なるキャリアの学生に対して,多様なコース中から,個々の目的に応じた最適なカリキュラムを効果的に提示する.これらの目標を達成するために,1)キーワード検索によるアプローチ,および,2)課題志向によるアプローチ,という二つのアプローチでこの問題に対する取り組みを進め,既に学生へのサービス提供を行っている.通常,キーワード検索によるアプローチは,有用性が高く強力な検索能力を提供可能であるが,専門的知識の乏しい初学者にとっては,適切な検索キーワードを見つけだすことが難しいという問題がある.その一方,Yahoo!等のインターネット検索サイトでのディレクトリ検索に相当する課題志向によるアプローチでは,あらかじめ「環境」,「エネルギー」等の,(学科の枠に捕らわれない)課題に即して講義を(階層的に)分類し,それらの取捨選択により最終的な講義の選別が可能となるため,個別の科目に関する知識をそれほど必要とせずに,各学生の興味のある課題にあわせて講義を検索することができるという利点がある.双方共に一長一短があるが,教養課程から専門課程に渡る学生の多様なニーズに応えるためにも,キーワード入力と課題志向の両面から,講義を構造化・可視化することが,学生へのサービス提供という点からも重要である.キーワード入力からのアプローチとして,東京大学工学部では,MIMASearchシラバス構造化システムとして既に学生に向けサービスを提供している.本システムの特徴は,講義内容(以下,シラバス)のテキストを自然言語処理技術により自動的に構造化し,可視化技術を利用することで学生との柔軟なインタフェースを提供することにある.学部学生,大学院生を対象とした過去3年に渡るアンケート調査の結果や,年々のアクセス数の伸び等を始めとし,検索の効率化等に対する良好な評価を得ている.なお,MIMASearchに関する詳細は\cite{Inproc_Mima_2006a,Web_MIMA_Search}にあるため,本稿では割愛する.一方,課題志向によるアプローチに関しても,従来,人手により課題別にシラバスを分類し,構造化,可視化を行うことで,同様のサービスを提供しており,先と同様,学生からの良好な評価を得ている.しかしながら,課題志向によるアプローチでは,従来の学科や進学コース単位での,言わば,分野内でのシラバス分類と異なり,多くの場合に分野の枠を越えたシラバスの分類が要求される.特に,近年急速に発展しつつある「バイオテクノロジー」,「ナノテクノロジー」,「環境」,「エネルギー」等の分野では,学際的,複合的,融合的な方法で研究開発が行なわれており,これらの分類に関しては,より広範囲の知識を必要とする.さらには,「地球温暖化」,「環境資源の枯渇」,「持続可能な社会」等,学科のみならず,学部の枠組みを超えた講義や知識のつながりをとらえることが必要な課題も存在する.その一方で,近年の工学知の増大と細分化により,講義を受け持つ各教員が俯瞰的な視点から自身の講義を位置付けることが困難な状況にあるといえる.例えば,東京大学工学部の2008年度シラバスにおいて,「事前履修」,「並行履修」,「事後履修」という関連講義を記述する項目があるが,入力された関連講義のうち約34\%の記述に誤りがあり,関連講義をたどることできない状態にある.これらの多くは,カリキュラムの再編によって既に開講されていない講義名を参照していたり,曖昧な記述のままとなっていることが原因と見られるが,各教員が講義の全体像を把握し,シラバス間の関連を記述することが必ずしも容易ではないことを示していると思われる.以上のように,学際的な研究が増加し課題志向別にシラバスを俯瞰する必要性が高まっている一方で,各教員は学問分野の増大・細分化により俯瞰的な視点からシラバスを記述することが困難な状況にある.したがって,客観的・俯瞰的に課題志向別にシラバスを構造化するためには,工学知を俯瞰し,分類することができる専門の人員が必要となる.そこで,東京大学大学院工学系研究科では,現在数名の専門の教員が人手によりシラバスを精査し分類作業を行っている\cite{Web_Kadaisikou}.しかし,年度毎に更新されるシラバスに対して,人手による分類を毎年続けていくことは,大きなコストと時間を要する.よって,この作業を可能な限り自動化し,効率的な手法を開発することが非常に重要な課題となる.そこで,本研究では,課題志向によるシラバス構造化のアプローチに関し,シラバス分類を(半)自動化するシステムを提案する.本システムの特徴は,従来,全ての工程を人手による手作業で行っていたシラバス分類に対し,その一部を言語処理による特徴抽出,及び機械学習による自動分類を利用することで,全体の作業工程を短縮することにある.以下,本稿では,これら課題志向によるシラバス構造化アプローチとして,我々のグループで取り組んでいる課題志向別シラバス分類,構造化システムについて,システム構成,実装,及びテストデータを利用した実験評価を交えて解説する.
\section{関連研究}
近年,大学における活動状況を内外へ周知する目的でWebを利用した情報公開が進んでおり,InformationCommunicationTechnology(ICT)を活用した教育の一環として,シラバスの電子化と公開が多くの大学で取り組まれている.さらに,シラバスの公開から一歩すすんで,MITをはじめとする主要大学にて,OpenCourseWare(OCW)という,講義とその関連資料をインターネット上に公開する取り組みもはじまっている\citeC{Web_OCW,Web_JOCW}.また,一部の大学では,シラバスを可視化するシステムに関する研究・開発が行われている\cite{Article_Miyoshi_2006}.これらのシステムでは,講義間の関連性を可視化することによって,学生が自ら履修計画を立てたり,多様なコース中から最適なキャリアパスを自ら指向することを目指しているが,現段階では,比較的単純な可視化という段階にとどまっており,より深くシラバスを分析し構造化することが求められている.シラバスの分類支援に関する研究\cite{Article_Miyazaki_2005}では,ユーザ支援のためには,分類の根拠となった素性(用語)を含めた形でユーザへ情報提示することが重要であると指摘されており,通常の文書分類において一般的に利用されているサポートベクターマシン(SVM)や確率モデルがユーザ支援には向かないことが議論されている.現時点では,分類の判定根拠を明確にする目的においては,SVMに比べて決定木\cite{Inproc_Lewis_1994}等の手法のほうが有望であると考えられるが,近年の研究では,SVMにおいても判定根拠の説明を行おうとする試みが行われている\cite{Inproc_Itabashi_2008}.尚,本システムでは,分類精度の観点からSVMを分類器として選択したが,分類の根拠を明示する目的において,可視化時に素性(用語)を提示する等の工夫を行っており,修正作業者からは,修正に有益な情報であるとの評価を得ている.しかしながら,より大規模の対象に対する分類・修正の場合は,\cite{Inproc_Itabashi_2008}と同様の手法の導入も検討する必要があろう.一方,システム上は,分類器を変更できるようモジュラリティを確保して設計を行っており,今後の研究の進展および技術発展等を検討しつつ,他の分類手法へ変更に柔軟に対応できるように実装を行っている.また,本研究のようにあらかじめ課題を設定して分類しようとするトップダウン型ではなく,ボトムアップ型の分類手法として,文書クラスタリングによりシラバスを分類する研究も行われている\cite{Article_Nozawa_2005}.文書クラスタリングは,分析の切り口が定まっていない状況での分類や,新たなカテゴリの発見には有用であり,東京大学工学部においても,MIMASearchシラバス分類システム\cite{Inproc_Mima_2006a,Web_MIMA_Search}を開発し,学生に向けたサービスを提供している.また,学生を主体としたボトムアップ型アプローチとして,フォークソノミーを用いた講義選択知識の抽出の試みも行われている\cite{Inproc_Nishijima_2008}.ただし,学生の観点からの分類が,学生への教育にとって必ずしも適当とは限らないこと(例えば,単位取得の容易さによる分類等)や,実際にサービスを行う際には,学生へのインセンティブ付与の問題や,不適切な内容の削除に必要なコスト等,検討すべき課題は多い.一方,高等教育機関における,教育内容・方法等の改善のための組織的な取り組み(ファカルティディベロップメント,FD)の制度化が近年急速に進展しており,教員の教育力向上のためにICTを活用したFDの実施が求められている\cite{Techrep_NIME_2008}.この点からも,シラバスを構造化し全体を俯瞰することによって,講義内容の重複や抜けを発見しFDの実施に資することが期待されている.ただ,ICT活用教育の導入の際のデメリットとして,「システムやコンテンツを作成,維持するための人員が不足していること」が最も高いと報告されているように\cite{Techrep_NIME_2008},シラバスを構造化するためには,通常,人手によりあらかじめシラバスを分析・分類・整理する必要があり,これは大きな人的コストと時間を必要とする.したがって,この作業を可能な限り自動化し,効率的な手法を開発することが非常に重要な課題となる.
\section{システム構成}
図\ref{fig:system_overview}に本システムの構成を示す.本システムでは,あらかじめ分類されたシラバスの情報をもとに,未分類のシラバスを(半)自動的に各カテゴリに分類することを目的とする.以下に各コンポーネントの概要を述べる.\noindent\textgt{・特徴抽出(自動用語認識)}入力されたシラバスに対して,形態素解析および自動用語認識を行い,シラバス中から特徴を抽出する.なお,本システムでは,シラバス中の「科目名」,「講義の目的」,「理解すべき事項」,「前提事項」,「応用先」,「事前履修」,「並行履修」,「事後履修」を対象として名詞および用語の抽出を行うこととした.関連研究で取り上げた文献\cite{Article_Miyazaki_2005}で報告されているように,ユーザ支援を目的とした分類システムでは,分類の根拠となった用語を含めた形でユーザへ情報提示することが重要である.本システムでも同様の理由により,分類の根拠をユーザに明確にする目的で,シラバス中に含まれる用語を次項で述べるC/NC-value用語認識を利用して抽出を行い,可視化の際に利用することで,可能な限りユーザに提示する.\begin{figure}[t]\begin{center}\includegraphics{16-5ia4f1.eps}\end{center}\caption{課題志向別シラバス分類システムの構成}\label{fig:system_overview}\end{figure}\noindent\textgt{・C/NC-value用語抽出}本システムでは,機械学習・分類のための素性の一部としてC/NC-value用語認識技術\cite{Article_Mima_2000}を基にした用語の自動認識を利用している.C/NC-value手法は,テキストを入力とし,言語的な知識と統計的な解析の両者を複合的に利用することで,複数の語からなる用語を自動抽出する手法である.まず,C-value手法では,形態素のパターンと用語の対象ドメインにおける出現頻度,さらには,用語のネスティングに関する性質に注目し,スコア付けを行うことで用語の高精度な自動認識を行う.ここで,ネスティングとは,「乱数系列」と「疑似乱数系列」の関係のような,ある用語がさらに長いまとまりの用語に含まれている状態(包含関係)を示す.具体的な手順としては,まず,対象テキストを形態素解析し,以下のようなパターンによってフィルタリングを行う.\clearpage\begin{quote}\begin{verbatim}[Filter1]Noun{2,}例:疑似乱数系列,仮想関数[Filter2](Prefix|Adv)(Noun|Adj|Suffix)+Noun+例:全二重接続,非同期通信[Filter3]PrefixNoun+Suffix例:未定義型,再初期化\end{verbatim}\end{quote}上記のフィルターによって対象テキスト中から文字列を切り出し,これを用語の候補とする.次に,用語の候補それぞれの対象テキスト中における出現頻度を計算し,さらにこの出現頻度から,単語のネスティングに関する性質を利用して,以下の式によりC-valueを算出する.\[C-value(a)=\begin{cases}\log_{2}|a|\cdotf(a)&\text{$a$がネストしていない場合}\\\log_{2}|a|\Bigl(f(a)-\frac{1}{P(T_a)}\sum_{b\inT_a}f(b)\Bigr)&\text{$a$がネストしている場合}\end{cases}\]ここで,\begin{quote}$a$は用語の候補$|a|$は用語の候補$a$の長さ(形態素の個数)$f(.)$は対象テキスト中の出現頻度$T_a$は$a$を含む抽出された用語の候補の集合$P(T_a)$は上記集合の要素数\end{quote}である.また,NC-value手法では,候補となる用語の実際の文章上でのコンテキスト(前後の文脈)中にある語彙との共起の情報を用いて,用語としての確からしさ(termhood)の指標を求め,求まった指標を基に候補となる用語の再順序づけを行う.本手法は日英両言語のテキストに対して用語抽出の実験評価が行われており,両言語共に高い精度の認識が行える言語非依存性や,異なる分野に対しても同手法で比較的高精度な用語抽出が可能なドメイン非依存性を持つことを特徴とする.この性質は,本稿で提案する,分野を越えて関連する講義を抽出するという目的には有効だと思われる.実際に,AI分野の論文を用いた評価実験の結果,90\%以上の用語認識精度が得られており,他の手法と比較して高いドメイン非依存性があると報告されている\cite{Article_Mima_2000}.なお,抽出した用語の例として,2006年度の東京大学工学部シラバスから抽出した用語のうちスコア上位5件は,「基礎知識」,「線形代数」,「統計力学」,「固体物理」,「ベクトル解析」であった.\noindent\textgt{・サポートベクターマシン(SVM)}SVMは,あらかじめ学習させたパターンに基づき,未知の入力パターンの分類を行う強力なパターンマッチング手法であり,機械学習理論の構造的リスク最小化原理に基づいている\cite{Book_Vapnik_1995,Article_Cortes_1995}.本システムでは高精度のテキスト分類を実現するためにSVMを分類器として採用した.なお,SVMによるテキスト分類についての研究は既に報告されており,決定木等の他の手法に比べてSVMが非常に高い分類能力を持つことが示されている\cite{Inproc_Dumais_1998,Inproc_Joachims_1998}.本システムでは,あらかじめいくつかのカテゴリに分類されたシラバス群をSVM分類器に学習させておき,未分類のシラバスを自動的に各カテゴリに分類するためにSVMを利用している.なお,本コンポーネントでは,カテゴリ数と同数のSVM分類器を用意し,1つのシラバスを複数のカテゴリに分類することが可能である.本システムでは,SVMソフトウェアのTinySVM0.09\citeC{Web_TinySVM}を利用した.また,SVMを利用したテキスト分類において,素性をどのように選択するかが重要であると報告されている\cite{Inproc_Taira_1999}.文献\cite{Inproc_Moschitti_2004}では,n-gram,形態素,および複合名詞を含む種々の素性を用いたテキスト分類について議論されており,英語の新聞記事に対するSVMを用いた分類実験では,形態素に複合名詞を加えたものを素性として用いた際に,10個の分類カテゴリのうち8個のカテゴリにおいては若干の分類精度向上が見られることが示されている.総合的に見た場合には,bagofwords以外(フレーズ,語義情報等)の素性を利用しても精度向上は微々たるものであり,計算量とのトレードオフも含め,必ずしも質の向上に寄与するとは言えない面もあるとの報告もあるが,カテゴリの専門性の高さ(専門用語の特徴量としての尤もらしさ)に対する素性の最適化や素性の組み合わせ方式等,未だ議論の余地はある.例えば,情報検索分野において,従来,素性の単位をn-gramか形態素にするかの議論が成されていたが,今日の検索システムにおいては,両者の融合による検索精度の向上が既に実現されている.以上の観点より,システムの設計にあたり,事前に学習データのクロスバリデーションによる実験,及び日本語の新聞記事を使った予備実験を行い,名詞と用語を素性に採用した際の分類精度への影響を調査した.まず,SVMによるテキスト分類の素性として,1)名詞のみ,2)用語のみ,3)名詞および用語,の3つを準備し,tf・idf\cite{Article_Salton_1991}によりスコア付けを行い,それぞれの場合について新聞記事を対象とした分類実験を行った.その結果,実験全体のF値(適合率と再現率の調和平均)は,1)名詞のみF=0.6390,2)用語のみF=0.5462,3)名詞および用語F=0.6560となり,3)の名詞および用語を素性とした場合に最も精度よく分類出来ることを確認した.特に,新聞記事での軍事や国際関係等の専門性の高いと考えられるカテゴリにおいて,より多くの精度向上が見られた.一般に,シラバスの記述内容は専門用語を多く含んでいるため,名詞および用語を素性とすることでより高精度の分類を行うことが期待できる.以上の理由から本システムではSVM分類の素性として,名詞および用語を素性として採用した.\noindent\textgt{・機械学習}「特徴抽出」部によって抽出された素性(名詞および専門用語)を基に,tf・idfによりスコア付けを行い,訓練データとなるシラバスを正規化された多次元ベクトルに変換する.さらに,訓練データをもとにSVM分類器を学習させ,分類知識を生成する.\noindent\textgt{・自動分類}「特徴抽出」部によって抽出された素性(名詞および専門用語)を基に,テストデータとなるシラバスを多次元ベクトルに変換し,SVM分類器により未分類のシラバスを分類する.\noindent\textgt{・シラバス分類可視化エンジン}「自動分類」部によって分類されたシラバスから,HTMLドキュメントを自動生成しブラウザに表示する(図\ref{fig:kadai_kankyou}参照).なお,実装についてはアプリケーションエンジンの一つであるApacheTomcat4.1.32をベースに,Java言語によりHTMLを生成するServletを作成した.また,シラバスデータを保存するためのデータベースエンジンとしてPostgreSQL7.1.3を利用し,JDBCを介したデータベースコネクションによりモジュラリティの高い構成を採用している.\noindent\textgt{・インタラクティブ修正インタフェース}「自動分類」部によって生成されたシラバス分類結果を見ながら,インタラクティブに分類間違いを修正する.まず,図\ref{fig:syllabus_list}に示した分類結果一覧画面を見ながら分類間違いを探し,「修正」ボタンを押すことによって個別シラバスの修正画面に移行し,図\ref{fig:syllabus_detail}に示した個別シラバス修正画面にてシラバス内の各項目を修正する.実装については「シラバス分類可視化エンジン」部と同様にApacheTomcat4.1.32上にJava言語によりServletを作成した.なお,可視化システム,および上記インタラクティブ修正インタフェース等,本システムのすべてのユーザインタフェースをWebベースとすることで,一般のWebブラウザを介した操作のみで,シラバス閲覧等のすべての作業を行うことが可能となっている.\begin{figure}[b]\begin{minipage}[b]{0.45\textwidth}\begin{center}\includegraphics{16-5ia4f2.eps}\end{center}\caption{環境分野における課題志向別科目構造}\label{fig:kadai_kankyou}\end{minipage}\hfill\begin{minipage}[b]{0.45\textwidth}\begin{center}\includegraphics{16-5ia4f3.eps}\end{center}\caption{課題志向別シラバス分類結果一覧画面}\label{fig:syllabus_list}\end{minipage}\end{figure}図\ref{fig:kadai_kankyou}は,環境分野に関連する科目について,課題志向型構造(ある課題に着目した場合の関係構造)を相対的な関係で描き出したものである.「環境大事典」(工業調査会)のセクションあるいはテーマで全体の枠組みを作り,その中に工学部で履修できる環境関連科目を当てはめた.図\ref{fig:kadai_kankyou}中において,亀甲状のタイルによりある課題の全体構造を示し,六角形の各領域がそれぞれの下位の課題に対応している.下位の課題の部分をクリックすることにより,その下位の構造全体の可視化画面に遷移する.色の濃淡は科目数に対応しており,科目ごとの相対的な関係が見えると同時に,工学部の講義の中では技術的なことはよく扱われている反面,法的枠組みのような社会科学的視点や,人文科学的枠組みである心理的問題などが,工学部の講義の中だけでは必ずしも履修できないことが見えてくる.\begin{figure}[t]\begin{center}\includegraphics{16-5ia4f4.eps}\end{center}\caption{個別シラバス修正画面}\label{fig:syllabus_detail}\end{figure}以上のように,分類結果を可視化することで,学生にとっては,学問分野を俯瞰しながら自分の興味のある講義を探し,さらにその講義に関連する講義を知り,履修しようとする講義の相対的位置付けや,キャリアパスに応じた履修計画の支援に役立てることがきる.また,教員にとっては,可視化によって,講義の全体像を俯瞰し各講義間の関連性を知ることによって,講義内容の重複や講義の抜けを知ることができ,カリキュラムの改善に役立てることができる.
\section{評価実験}
SVMによる自動分類システムの有用性を評価するために精度評価実験を行った.実験データとして,東京大学工学部の2003年度(総科目数862)および2006年度(総科目数855)のシラバスを対象とした.このシラバスには,あらかじめ数名の専門の教員が人手により分類を行い,表\ref{table:category_data}に示すように,約450科目に情報工学分野および環境分野のカテゴリが付与されている.本実験では,2003年度の人手による分類結果を訓練データとして分類器を学習させ,2006年度のシラバスをテストデータとして分類を行い,人手による分類と分類器による結果を比較することにより,その適合率と再現率を求めた.訓練データとテストデータそれぞれの詳細を表\ref{table:category_data}に示す.また,機械学習システムとして,SVMソフトウェアのTinySVM0.09\citeC{Web_TinySVM}をデフォルトの状態で利用した.\begin{table}[t]\caption{分類実験の対象としたシラバスのカテゴリとデータ数}\label{table:category_data}\begin{center}\includegraphics{16-5ia4t1.eps}\end{center}\end{table}実験結果を図\ref{fig:svm_result}に示す.適合率(precision)は,分類器により求められたカテゴリのうち,正しく分類できたカテゴリの割合である.再現率(recall)は,正しく分類されるべきシラバスのうち,どれだけ分類器が正しく分類できたかの割合である.なお,F値(適合率と再現率の調和平均)の平均値はF=0.5685であった.さらに,予備実験にて,SVMによるテキスト分類の素性として,1)名詞のみ,2)用語のみ,3)名詞および用語,を素性とした場合の分類精度を比較したが,本実験においても同様に分類実験を行い,その結果F値の平均値は1)名詞のみF=0.5352,2)用語のみF=0.5038,3)名詞および用語F=0.5685となり,3)の名詞および用語を素性とした場合に最も精度よく分類出来ることを本実験においても確認した.また,全科目に対する分類誤り率は0.84\%である.つまり,システムで分類した結果のうち,一つのカテゴリにつき平均7.2件程度の分類誤りがあり,これらを人手により修正することが必要となる.図\ref{fig:svm_result}より,再現率についてはカテゴリによってばらつきがあるものの,概ね全てのカテゴリにおいて90\%以上の適合率を得た.また,訓練データ数が極端に少ないカテゴリでは,適合率・再現率ともに低く,自動で分類することは難しいことがわかる.ただし,訓練データ数が極端に少ないカテゴリに関しては,他のカテゴリと同数程度まで訓練データを毎年蓄積することで改善可能であると考えられる.また,カリキュラムの再編で科目数が大幅に増減しているカテゴリでは,他のカテゴリに比べて再現率が低下していることから,これらのカテゴリにおいては自動分類後に人手により修正する必要があることがわかる.\begin{figure}[t]\begin{center}\includegraphics{16-5ia4f5.eps}\end{center}\caption{分類実験の適合率(precision)—再現率(recall)結果}\label{fig:svm_result}\end{figure}以上の実験結果から,本手法が実用的な課題志向別シラバス分類の自動化に有効であることを確認した.
\section{考察}
まず,本システムの導入による作業量の変化について考察する.図\ref{fig:work_flow}に本システム導入前後の分類作業フローの比較を示す.A1の作業では,それぞれの課題に関連するキーワード選定を行うが,このキーワードの選定は課題への十分な理解が必要であり,多少の主観が入ることは否めない.また,人手によりキーワード選定を行った場合,必ずしもその課題を特徴付けるキーワードが全て網羅できるとは限らない.それに対して,B1の自動分類システムでは,自動特徴抽出およびtf・idfによってスコア付けを行うことによって,客観的基準により課題の特徴を抽出することが期待できる.加えて,課題志向のような分野が多岐に渡る場合,例え人手によるものであっても,作業者の専門分野との関連の度合いにより,精度にばらつきが生じる.よって,A4に与えられるカテゴリ候補は,適合率,再現率共に十分とは言えず,やはり事後の精査による修正が必要となる.実際に,今回の実験では,A1〜A3の作業によって得られたカテゴリの候補と,B1によって自動で得られたカテゴリの候補の精度は同程度であった.従来,A1〜A3までの作業は3〜4週間程度必要としていたが,本システムの導入によって,A1〜A3までの作業をB1の作業に置き換えることが可能となり,数日間の作業に短縮することができた.A4〜A5の作業については,通常2〜3週間程度の作業を必要とし,現段階ではB2〜B3の作業も同程度の作業を必要とする.しかし,今後,分類システムの精度を向上させることによってさらなる短縮が期待できる.\begin{figure}[t]\begin{center}\includegraphics{16-5ia4f6.eps}\end{center}\caption{システム導入以前(左)以後(右)の分類作業フローの比較}\label{fig:work_flow}\end{figure}次に,本システムを運用する上で想定される問題点として,課題の構造(カテゴリ)をどのように整備・修正するかということがあげられる.現在は,例えば情報の分野では,岩波書店刊「情報科学事典」をもとに課題のカテゴリを作成しているが,今後,科学技術の発展に伴い,課題の構造(カテゴリ)が年々変化することが考えられる.現在のシステムでは,新たな課題を追加する際は,人手により全シラバスを吟味し,個別の講義(シラバス)を一つ一つ新たなカテゴリに追加する必要がある.この作業の負担を減らすためには,前述のMIMASearchを組み合わせて,個別のシラバスをキーワード検索し,その結果をドラッグアンドドロップ等の簡便な方法でシームレスにカテゴリに追加出来るようシステムを拡張する必要がある.また,MIMASearchのクラスタリング機能を利用して新たなカテゴリを発見し,本システムのカテゴリへ反映することも考えられる.一方,近年のコーパスベース言語処理研究の発展により,コーパスを利用したシソーラスやオントロジーの自動構築研究\cite{Inproc_Mima_2002,Inproc_Shinzato_2004}も進展しつつある.実用に至るには未だ課題は多いが,今後の研究の進展によりこのような課題の構造を自動で構築することも可能となると期待される.また,評価実験の章で述べたように,カリキュラムの再編により,年度毎にカテゴリに属する講義(シラバス)に大幅な増減があった場合は,分類精度が低下し人手の作業が必要となる.この場合は,分類結果を可視化する際に色を分けて表示するなど,作業者に対して注意を促すような仕組みを追加し,作業者自身の負担を軽減することが必要である.
\section{結論}
本稿では,課題志向別シラバス分類システムの開発,というアプローチによって,i)カリキュラムの全体像の俯瞰,ii)各講義間の関連性の可視化,および,iii)講義の集中と抜けを可視化するシステムを示した.また,本システムによって,大量のシラバスデータの自動分類,および,分類間違いのインタラクティブ修正を可能にし,大幅に人的コストと時間を短縮することが期待できる.ドッグイヤーと呼ばれるように,近年の高度情報化による社会の発展のスピードは著しく,グローバル経済の発達等により社会の変化も激しいのが現状である.社会の変化に迅速に対応した教育を行うことは大学の使命であるが,カリキュラム再編のみならず,学科の再編等,教育にも常に変化が求められる現状において,教育環境構築の負担は今後も常に増大するものと思われる.その意味でも,本システムのような学生へのサービス向上とその効率的運用を目的としたシステムに対する期待は今後も非常に大きくなると思われる.なお,本システムは,現在は2003年度から2008年度のデータを元に実験運用を行なっているが,2009年度より実運用を開始し,実際に学生に向けてサービスを提供する予定である.本サービス開始と共に,学生へのアンケート調査等を通じ,ユーザビリティの改善を進める予定である.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{CIEE}{CIEE}{a}]{Web_MIMA_Search}CIEE東京大学大学院工学系研究科工学教育推進機構.\newblockMIMASearchシラバス検索システム.\\newblock\Turl{http://ciee.t.u-tokyo.ac.jp/snavi/index.html}.\bibitem[\protect\BCAY{CIEE}{CIEE}{b}]{Web_Kadaisikou}CIEE東京大学大学院工学系研究科工学教育推進機構.\newblock課題志向別の科目分類.\\newblock\Turl{http://ciee.t.u-tokyo.ac.jp/ciee/kozoka/kadai.html}.\bibitem[\protect\BCAY{Cortes\BBA\Vapnik}{Cortes\BBA\Vapnik}{1995}]{Article_Cortes_1995}Cortes,C.\BBACOMMA\\BBA\Vapnik,V.\BBOP1995\BBCP.\newblock\BBOQSupport-VectorNetworks.\BBCQ\\newblock{\BemMachineLearning},{\Bbf20},\mbox{\BPGS\273--297}.\bibitem[\protect\BCAY{Dumais,Platt,Heckerman,\BBA\Sahami}{Dumaiset~al.}{1998}]{Inproc_Dumais_1998}Dumais,S.,Platt,J.,Heckerman,D.,\BBA\Sahami,M.\BBOP1998\BBCP.\newblock\BBOQInductiveLearningAlgorithmsandRepresentationsforTextCategorization.\BBCQ\\newblockIn{\BemProc.7thInternationalConferenceonInformationandKnowledgeManagement},\mbox{\BPGS\273--297}.\bibitem[\protect\BCAY{板橋\JBA松井\JBA大和田}{板橋\Jetal}{2008}]{Inproc_Itabashi_2008}板橋広和\JBA松井藤五朗\JBA大和田勇人\BBOP2008\BBCP.\newblockテキスト分類における重みつき類似度を用いたSVM判別モデルの説明.\\newblock\Jem{2008年度人工知能学会全国大会(第22回)3B2-04}.\bibitem[\protect\BCAY{Joachims}{Joachims}{1998}]{Inproc_Joachims_1998}Joachims,T.\BBOP1998\BBCP.\newblock\BBOQTextCategorizationwithSupportVectorMachines:LearningwithManyRelevantFeatures.\BBCQ\\newblockIn{\BemProc.EuropeanConferenceonMachineLearning},\mbox{\BPGS\137--142}.\bibitem[\protect\BCAY{JOCW}{JOCW}{}]{Web_JOCW}JOCW日本オープンコースウェア・コンソーシアム.\newblock\BBOQJapanOpencoursewareConsortium(JOCW)OfficialSite.\BBCQ\\newblock\Turl{http://www.jocw.jp/}.\bibitem[\protect\BCAY{Kudoh}{Kudoh}{}]{Web_TinySVM}Kudoh,T.\newblock\BBOQTinySVM.\BBCQ\\newblock\Turl{http://www.chasen.org/{\textasciitilde}taku/software/TinySVM/}.\bibitem[\protect\BCAY{Lewis\BBA\Ringuette}{Lewis\BBA\Ringuette}{1994}]{Inproc_Lewis_1994}Lewis,D.~D.\BBACOMMA\\BBA\Ringuette,M.\BBOP1994\BBCP.\newblock\BBOQAComparisonofTwoLearningAlgorithmsforTextCategorization.\BBCQ\\newblockIn{\BemProc.3rdAnnualSymposiumonDocumentAnalysisandInformationRetrieval},\mbox{\BPGS\81--93}.\bibitem[\protect\BCAY{Mima}{Mima}{2006}]{Inproc_Mima_2006a}Mima,H.\BBOP2006\BBCP.\newblock\BBOQStructuringandVisualizingtheCurriculawithMIMASearch.\BBCQ\\newblockIn{\BemProc.7thAPRUDistanceLearningandtheInternetConference2006}.\bibitem[\protect\BCAY{Mima\BBA\Ananiadou}{Mima\BBA\Ananiadou}{2000}]{Article_Mima_2000}Mima,H.\BBACOMMA\\BBA\Ananiadou,S.\BBOP2000\BBCP.\newblock\BBOQAnapplicationandevaluationoftheC/NC-valueapproachfortheautomatictermrecognitionofmulti-wordunitsinJapanese.\BBCQ\\newblock{\BemInternationalJournalonTerminology},{\Bbf6}(2),\mbox{\BPGS\175--194}.\bibitem[\protect\BCAY{Mima,Ananiadou,\BBA\Matsushima}{Mimaet~al.}{2006}]{Article_Mima_2006b}Mima,H.,Ananiadou,S.,\BBA\Matsushima,K.\BBOP2006\BBCP.\newblock\BBOQTerminology-basedKnowledgeMiningforNewKnowledgeDiscovery.\BBCQ\\newblock{\BemACMTransactionsonAsianLanguageInformationProcessing(TALIP)},{\Bbf5}(1),\mbox{\BPGS\74--88}.\bibitem[\protect\BCAY{Mima,Ananiadou,Nenadic,\BBA\Tsujii}{Mimaet~al.}{2002}]{Inproc_Mima_2002}Mima,H.,Ananiadou,S.,Nenadic,G.,\BBA\Tsujii,J.\BBOP2002\BBCP.\newblock\BBOQAMethodologyforTerminology-basedKnowledgeAcquisitionandIntegration.\BBCQ\\newblockIn{\BemProc.19thInternationalConferenceonComputationalLinguistics(COLING2002)},\mbox{\BPGS\667--673}.\bibitem[\protect\BCAY{宮崎\JBA井田\JBA芳鐘\JBA野澤\JBA喜多}{宮崎\Jetal}{2005}]{Article_Miyazaki_2005}宮崎和光\JBA井田正明\JBA芳鐘冬樹\JBA野澤孝之\JBA喜多一\BBOP2005\BBCP.\newblock分類候補数の能動的調整を可能にした学位授与事業のための科目分類支援システムの提案と評価.\\newblock\Jem{知能と情報(日本知能情報ファジィ学会誌)\inhibitglue},{\Bbf17}(5),\mbox{\BPGS\558--568}.\bibitem[\protect\BCAY{三好\JBA大家\JBA上田\JBA廣友\JBA矢野\JBA川上}{三好\Jetal}{2006}]{Article_Miyoshi_2006}三好康夫\JBA大家隆弘\JBA上田哲史\JBA廣友雅徳\JBA矢野米雄\JBA川上博\BBOP2006\BBCP.\newblockEDBを利用した学習経路探索を支援するeシラバスシステムの構築.\\newblock\Jem{大学教育研究ジャーナル(徳島大学)\inhibitglue},{\Bbf3},\mbox{\BPGS\1--9}.\bibitem[\protect\BCAY{Moschitti\BBA\Basili}{Moschitti\BBA\Basili}{2004}]{Inproc_Moschitti_2004}Moschitti,A.\BBACOMMA\\BBA\Basili,R.\BBOP2004\BBCP.\newblock\BBOQComplexLinguisticFeaturesforTextClassification:acomprehensivestudy.\BBCQ\\newblockIn{\BemProc.26thEuropeanConferenceonInformationRetrievalResearch(ECIR2004)}.\bibitem[\protect\BCAY{NIME}{NIME}{2008}]{Techrep_NIME_2008}NIME独立行政法人~メディア教育開発センター\BBOP2008\BBCP.\newblockeラーニング等のICTを活用した教育に関する調査報告書(2007年度).\\newblock\JTR,独立行政法人メディア教育開発センター.\bibitem[\protect\BCAY{西島\JBA荒井\JBA檜垣\JBA土屋}{西島\Jetal}{2008}]{Inproc_Nishijima_2008}西島寛\JBA荒井幸代\JBA檜垣泰彦\JBA土屋俊\BBOP2008\BBCP.\newblockフォークソノミーを用いた講義選択知識の抽出.\\newblock\Jem{電子情報通信学会技術研究報告OIS2008-14},{\Bbf108}(53),\mbox{\BPGS\79--84}.\bibitem[\protect\BCAY{野澤\JBA井田\JBA芳鐘\JBA宮崎\JBA喜多}{野澤\Jetal}{2005}]{Article_Nozawa_2005}野澤孝之\JBA井田正明\JBA芳鐘冬樹\JBA宮崎和光\JBA喜多一\BBOP2005\BBCP.\newblockシラバスの文書クラスタリングに基づくカリキュラム分析システムの構築.\\newblock\Jem{情報処理学会論文誌},{\Bbf46}(1),\mbox{\BPGS\289--300}.\bibitem[\protect\BCAY{{Open~Course~Ware}}{{Open~Course~Ware}}{}]{Web_OCW}{Open~Course~Ware}.\newblock\BBOQMITOpenCourseWare.\BBCQ\\newblock\Turl{http://ocw.mit.edu/}.\bibitem[\protect\BCAY{Salton}{Salton}{1991}]{Article_Salton_1991}Salton,G.\BBOP1991\BBCP.\newblock\BBOQDevelopmentsinautomatictextretrieval.\BBCQ\\newblock{\BemScience},{\Bbf253},\mbox{\BPGS\974--980}.\bibitem[\protect\BCAY{Shinzato\BBA\Torisawa}{Shinzato\BBA\Torisawa}{2004}]{Inproc_Shinzato_2004}Shinzato,K.\BBACOMMA\\BBA\Torisawa,K.\BBOP2004\BBCP.\newblock\BBOQAcquiringHyponymyRelationsfromWebDocuments.\BBCQ\\newblockIn{\BemProc.HLT-NAACL}.\bibitem[\protect\BCAY{Taira\BBA\Haruno}{Taira\BBA\Haruno}{1999}]{Inproc_Taira_1999}Taira,H.\BBACOMMA\\BBA\Haruno,M.\BBOP1999\BBCP.\newblock\BBOQFeatureSelectioninSVMTextCategorization.\BBCQ\\newblockIn{\BemProc.FifthInternationalConferenceonArtificialIntelligence(AAAI-99)},\mbox{\BPGS\480--486}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1995}]{Book_Vapnik_1995}Vapnik,V.\BBOP1995\BBCP.\newblock{\BemTheNatureofStatisticalLearningTheory}.\newblockNewYork:Springer-Verlag.\bibitem[\protect\BCAY{Yoshida}{Yoshida}{2007}]{Inproc_Yoshida_2007}Yoshida,M.\BBOP2007\BBCP.\newblock\BBOQStructuringandVisualisingtheEngineeringKnowledge---BasicPrinciples,methodsandtheapplicationtotheUT'sEngineeringCurriculum.\BBCQ\\newblockIn{\BemProc.8thAPRUDistanceLearningandtheInternetConference2007}.\end{thebibliography}\begin{biography}\bioauthor{太田晋}{2001年東京大学大学院工学系研究科金属工学専攻修士課程修了.同年コグニティブリサーチラボ(株)入社.2005年科学技術振興機構社会技術研究開発センター研究員,2007年より東京大学大学院工学系研究科工学教育推進機構特任研究員.自然言語処理の研究に従事.言語処理学会会員.}\bioauthor{美馬秀樹}{1996年徳島大学工学研究科システム工学専攻博士課程修了.工学博士.(株)ジャストシステム研究員,ATR音声翻訳通信研究所研究員,英国マンチェスターメトロポリタン大学講師(Lecturer),東京大学大学院理学系研究科研究員,同大学工学系研究科助手を経て,2005年より東京大学大学院工学系研究科工学教育推進機構/知の構造化センター特任准教授.自然言語処理の研究に従事.言語処理学会,可視化情報学会各会員.}\end{biography}\biodate\end{document}
| |
V06N02-03 | \section{はじめに}
近年,連続音声認識において,N-gram言語モデルによる言語制約を用いた手法が幅広く用いられている.N-gramは,大規模なテキストデータを統計的に解析し,直前の{\itN-1}個の単語から次の単語への遷移を確率的に与える非常に単純な言語モデルである.しかし,その構築・実装の容易さ,統計的音響モデルとの相性の良さ,認識率向上や計算時間の短縮の効果が大きい等の理由から,連続音声認識にはでは盛んに用いられている\cite{Bahl}\cite{Woodland}.N-gramは当初,英語の連続音声認識に対して適用され,その有効性が示された.英語の文章は,単語がスペースで区切られており,テキストデータから単語を単位としたN-gramが容易に構築できる.しかし,日本語の文章は文字が連続しており単語の境界が明らかではなく,テキストデータのみでは単語N-gramを構築することはできない.このため,我々は日本語の連続音声認識の認識単位として形態素を用いているが,その有効性について2章で明らかにしている.形態素を単位としたN-gramを構築する場合,テキストデータに形態素を付与する,いわゆる形態素解析を行う必要がある.しかし,N-gramを構築するのに必要な,大量のテキストデータを全て人手で形態素解析を行うには多大な労力と時間が必要であり,また,かなりの経験がある人が作業を行わなければ,付与された形態素の揺れも大きくなると考えられる.従って,大量のデータをより正確に形態素解析を行うためには,自動的に形態素解析する手法が望ましい.自動形態素解析は,従来人手で作成したルールにより解析を行う方法が主流であったが,ルールの作成の作業は相当の知識・経験が必要であり,また,話し言葉等のより自然な文を全てカバーできかつ矛盾のないルールを作成するのは困難であると考えられる.これに対し,本論文ではN-gram統計に基づく形態素解析手法を考える.N-gramを構築するためには,事前に形態素体系の構築や定義を行う必要はあるが,従来の形態素解析で必要であった形態素間の接続ルールの作成・重みの変更等の作業に代わり,ある程度の量の形態素データを収集するという比較的単純な作業で構築できる利点がある.また,より自然な発話文に対しても,データさえ収集できれば容易に適用可能である.3章では,N-gramを用いた形態素解析の原理を説明する.統計的モデルにより形態素解析を行うためには,通常は統計モデルの学習用として形態素解析済みの言語コーパスが整備されていることが前提となる.このため,山本らは\cite{Yamamoto}辞書と接続コストのみを用いて文コーパスから形態素ネットワークを生成し,生成された形態素ネットワークから隠れマルコフモデルを学習し形態素解析を行うことにより,形態素解析された言語コーパスが存在しない場合でも形態素解析が可能な手法を提案している.しかしこの方法では,形態素解析にかかるコストは非常に小さいという長所はあるが,形態素解析の結果はモデル化能力の低いとされる品詞Bigramと大きくは変わらず,形態素解析の正解率の適合率が93.5\%程度と報告されており,正しい形態素データを学習しない方法には精度に限度があると考えられる.形態素解析の精度は連続音声認識の精度にも大きく影響すると考えられるため,我々は高い精度でかつできるだけコストを抑えた形態素解析の手法を考える.このため,本論文では,形態素解析のためのN-gram言語モデルとして,より少ない量の形態素解析された言語コーパスから精度の高い予測精度の言語モデルを得るため,品詞と可変長形態素列の複合N-gram\cite{Masataki}を用いることを提案する.複合N-gramは,基本的には品詞を単位としたN-gramであるが,言語モデルとしての精度を高めるため,特定の形態素は品詞クラスから分離させ独立して扱い,さらに特定の形態素列を結合させて新たな単位として扱うモデルである.このため,品詞という単位では表現できない形態素独自の特徴を表現でき,かつ長い範囲の形態素間の連接関係を効率良く表現することができるモデルである.4章では,品詞と可変長形態素列の複合N-gramについて解説する.通常連続音声認識では,辞書に登録されている語いを対象とした認識が行われている.しかし形態素解析では,大量のテキストデータをまとめて処理するため,辞書に登録されていない未知語が含まれている場合も多く存在する.このため,形態素解析においては,未知語を含む文に対しても正確に処理が行えることが重要であると考える.本論文では,品詞から未知語が出現確率する確率を考えることにより,未知語の形態素解析も行えるよう,5章で定式化を行った.本論文で使用した複合N-gramは,品詞を基本単位としたN-gramであるため,このような未知語処理が容易である.第6章では,形態素解析実験により,形態素N-gramや品詞N-gramに対する複合N-gramの有効性を示し,最後の7章で本論文の結論を述べる.
\section{日本語連続音声認識のための形態素解析}
英語等の言語では,単語を認識単位とした連続音声認識システムが構成されている.しかし,日本語の文は連続した文字列から構成されているため,単語の定義が明らかでなく,適切な認識単位が定かではない.連続音声認識の適切な単位として,以下の条件を満たすが重要であると考えられる.\begin{itemize}\item認識単位から読みの対応が明確であること\\日本語の場合,漢字の読みや,助詞の「は」「へ」など,その文字だけでは読みが決定できない場合が多い.できる限りヴァリエーションの少ない読みが決定できる認識単位を選択することが,連続音声認識の探索空間の削減のために有効である.\itemポーズ(無音区間)の挿入位置が限定できること\\連続音声といっても,発声文にはポーズが挿入される.連続音声認識では,認識単位間にはポーズの挿入が可能であるとして認識を行うため,連続音声認識の探索空間の削減および認識率の向上のためには,認識単位をできるだけ長くしてポーズが挿入される個所を少なくし,かつ認識単位中にはポーズは挿入されないように決定するのが好ましい.\item言語理解システムとの整合性が良いこと\\音声認識のアプリケーションとして,機械翻訳等の言語理解と結合した音声理解システムが考えられる.言語理解には形態素解析・構文解析等の処理が必要である.このため,認識誤りにより認識結果の解析が不能に陥ることが少ない単位が望まれる.\end{itemize}以上の条件をよく満たす単位として,形態素が挙げられる.しかし,形態素を単位としてN-gramを構築する場合,テキストデータから形態素を切り出す必要があり,この作業をすべて手作業で行うにはかなりのコストが必要となり,N-gram構築上の大きな問題となる.このため,形態素切り出し作業を省くことを目的として,文字あるいは文字列を単位とした手法が提案されているが\cite{Yamada1}\cite{Yamada2}\cite{Itoh},上記3条件には適合せず,連続音声認識にとって好ましい単位とは言えない.従って,テキストデータから大量の形態素データを得るためには,自動で形態素解析を行う必要があると考えられる.\vspace{3mm}また,音声認識の対象となる文は基本的に話し言葉であり,文章の読み上げなどの場合を除いては,通常の発話において書き言葉を喋ることはまずありえない.このため,連続音声認識用の言語モデル構築のためには,話し言葉のテキストデータに対して形態素解析が可能でなければならない.現在形態素解析の手法としては,形態素間の接続ルールや重み付けを人手で作成するルールベースの手法が広く用いられているが,接続ルールは通常書き言葉を対象に作成されており,音声認識で必要な話し言葉に対して,十分な性能が得られない可能性がある.このため,本論文では,統計的な言語モデルを用いた形態素解析の手法を採用した.統計的モデルは,データから自動的に構築できるため,接続ルールや重み付けを手作業で行うことと比較して,話し言葉に対しても適用が容易であると考えられる.また,統計的言語モデルは,連続音声認識の言語モデルとしても盛んに使用されているため,形態素解析にも統計的モデルを用いることにより,認識用言語モデルに適した形態素解析結果が得られると考えられる.
\section{N-gram言語モデルによる形態素解析}
日本語の形態素解析は,文の文字列$L$から,それに対応する形態素列$W_L$を獲得することである.統計的手法では,$L$に対して最も高い確率を与える形態素列$W_L$\mbox{を探索することにより}形態素解析を実現する.これは,以下の式で与えられる.\begin{equation}W_L~=~\arg\max_{W}P(W|L)\end{equation}ベイズ則により本式は下式のように変形される.\begin{equation}W_L~=~\arg\max_W\frac{P(L|W)P(W)}{P(L)}\label{eqn:Bayes1}\end{equation}本式において,$P(L)$は右式の最大値を与えるためには無関係な量である.従って,式\ref{eqn:Bayes1}は下式と等価となる.\begin{equation}W_L~=~\arg\max_WP(L|W)P(W)\end{equation}右辺の確率$P(L|W)$は形態素から文字列を与える確率であるが,これは,形態素の表記と文字列が一致する場合は必ず$1$であり,一致しない場合は$0$である.また,確率$P(W)$は,形態素列$W$の生成確率である.従って,統計的手法による形態素解析は,与えられた文字列と一致する全ての形態素列の中から,生成確率が最も高くなる形態素列を探索することによって実現できる.形態素列$W$を$w_1,w_2,\ldotsw_m$とすると,その生成確率$P(W)$は次のように表される.\begin{equation}P(W)~=~\prod_{t=1}^mP(w_t|w_1^{t-1})\end{equation}本式において,$w_x^y$は$x$番目$y$から番目までの形態素列を表す.\mbox{右辺の確率を直接求めるのは困}難であるから,各形態素は,直前のN-1形態素から確率的に予測できると近似する.これが,形態素N-gramである.N-gramを用いると,上式の形態素列$W$の遷移確率は次のように近似される.\begin{equation}P(W)~=~\prod_{i=1}^mP(w_i|w_{i-N+1}^{i-1})\end{equation}N-gramは,Nが大きくなるほど,パラメータ数が飛躍的に増大するため,通常は直前の形態素から次の形態素を予測するBigram(2-gram),および直前の2形態素から次の形態素を予測するTrigram(3-gram)程度がよく使用される.
\section{品詞と可変長形態素列の複合N-gram}
\subsection{品詞N-gram・可変長形態素列N-gram}形態素N-gramのパラメータ数,すなわち形態素遷移の組合せは$V^N$($V$は語い)であり,{\itN}を大きくするとパラメータ数が格段に多くなるため,それぞれの値の推定が困難になる.例えば,語いが10,000語の時,Trigramのパラメータ数は$10,000^3=10^{12}(=1兆)$となり,それぞれのパラメータを推定するためには,数兆語からなるテキストデータが必要となるが,これほどの大規模のデータを収集することは事実上不可能に近い.実際には,平滑化\cite{Jelinek}\cite{Katz}の手法を用いてデータ上に出現しない形態素遷移に対しても,確率を与えることができるが,その結果,実際には有り得ない形態素の遷移に対しても比較的高い確率を与える可能性がある.この問題を解決するため,品詞を単位としたN-gramが使用される場合がある\cite{Nagata}.これは,形態素の代りに品詞間の遷移を考えることによりパラメータ数を削減し,推定量の信頼性を高めるものである.$m$形態素からなる文の生成確率は一般に下式で表される.\begin{equation}P(w_1^m)=\prod_{t=1}^mP(w_t|c_t)\cdotP(c_t|c_{t-N+1}^{t-1})\end{equation}($c_t$は$w_t$の属する品詞を,$c_x^y$は$x$番目から$y$番目の形態素列に対応する品詞列を表す)上式で,$P(c_t|c_{t-N+1}^{t-1})$は直前の{\itN-1}形態素列に対応する品詞列から次の形態素の属する品詞への遷移確率を表し,$P(w_t|c_t)$は,次品詞から次形態素が出現する確率を表す.品詞数を100とした時,Trigramの全ての品詞間の遷移の組は$100^3=10^6(=100万)$であるから,形態素N-gramに比べてパラメータ数は極めて少なく,比較的信頼できる遷移確率が求めることができる.しかし,品詞単位でのモデルでは,それぞれの形態素特有の接続関係を表現することができないため,言語モデルとしての性能は劣ると考えられる.また,N-gramの単位を結合させ部分的に長くする手法も提案されている\cite{Giachin}.日本語の場合は特定の形態素列を結合させてN-gramの単位として扱い,固定長のN-gramと比較して,局所的にNを大きくさせる効果があり,パラメータ数の増大を抑えながら,より長い範囲の形態素間の関係を表現するものである.$m$形態素からなる文の生成確率は一般に下式で表される.\begin{equation}P(w_1^m)=\prod_{t=1}^{\hat{m}}P(ws_t|ws_{t-N+1}^{t-1})\end{equation}但し,$ws_t$は文章の$t$番目の形態素列(単独の形態素も含める)を意味する.また,$\hat{m}$は形態素列に分割した際の形態素列の個数を表し,$\hat{m}\leqm$である.可変長形態素列N-gramは,長い範囲の形態素間の連接関係を表現するのには有効であるが,パラメータ数が同じNの形態素N-gramより多くなり,少量の学習データから,信頼性の高いパラメータ推定を行うのは困難である.\subsection{品詞と可変長形態素列の複合N-gram}本論文では,形態素解析のための言語モデルとして,品詞と可変長形態素列の複合N-gramを使用することを提案する.品詞と可変長形態素列の複合N-gramは,品詞N-gramを基本としたN-gramであるが,品詞全体の性質とは異なった性質を呈する特殊な形態素はその品詞から分離させ独立して扱う.さらに,結合させることにより,言語モデルの精度を向上させる特定の形態素列は結合させた単位として扱う.従って,品詞と可変長形態素列の複合N-gramは,前節で示した品詞N-gramと可変長形態素列N-gramとのそれぞれの長所を生かしながら,それぞれの短所を補い合うことにより,少ないパラメータで高い予測精度が得ることを可能とした言語モデルである.N=2の場合,すなわちBigramを例にして,形態素N-gram,品詞N-gram,可変長形態素列N-gram,複合N-gramとの比較を図\ref{fig:probabilitycomparison}に示す.複合N-gramは,品詞クラス,形態素,形態素列を同時に扱うため複雑なモデルとなるが,本論文では,表現を簡単にするため,複合N-gramを次の3種類のクラス間のN-gramとして表現する.\begin{description}\item[A)]品詞クラス\item[B)]独立した1形態素のみで構成されるクラス\item[C)]1形態素列で構成されるクラス\end{description}\def\probability_FIG{}\probability_FIGこのクラス分類を用いると,複合N-gramによる文の生成確率は,下式のクラスN-gramの形で与えることができる.\begin{equation}P(w_1^m)=\prod_{t=1}^{\hat{m}}P(ws_t|c_t)\cdotP(c_t|c_{t-N+1}^{t-1})\end{equation}但し,\(ws_t\)は文章を上記のクラス分類を用いた場合の,t番目の形態素列(単独の形態素も含める)を意味する.また,$\hat{m}$は文章の形態素列の個数を表し,$\hat{m}\leqm$である.例として,次の文章(5形態素)を考える.\begin{center}「わたくし-橋本-と-言い-ます」\end{center}「橋本」は出現頻度が高くないため.固有名詞クラスとして扱う方が適切であると考えられる.「わたくし」および「と」は日本語の文章で頻繁に出現する形態素であるため.品詞クラスより分離して単独で扱う.また,「言い-ます」は日本語で頻繁に用いられるフレーズであるため.結合させて一単位として扱う方が効果的であると考えられる.従って,この文章の生成確率は,次の式で与えられる.\begin{eqnarray*}&P(w_1^m)&=P(わたくし|\{わたくし\})\cdotP(\{わたくし\})\nonumber\\&\cdot&P(橋本|\langle固有名詞\rangle)\cdotP(\langle固有名詞\rangle|\{わたくし\})\nonumber\\&\cdot&P(と|\{と\})\cdotP(\{と\}|\langle固有名詞\rangle)\nonumber\\&\cdot&P(言います|[言います])\cdotP([言います]|\{と\})\end{eqnarray*}但し,\(\langle\rangle\{\}[]\)はそれぞれ,クラスA)B)C)に属していることを表す.B)およびC)のクラスは,形態素(列)とクラスの出現頻度は等しいため(\(P(w_t)=P(c_t)\)),上式は次のように変形することができ,複合N-gramと等価であることがわかる.\begin{eqnarray*}&P(w_1^m)&=P(わたくし)\\&\cdot&P(橋本|\langle固有名詞\rangle)\cdotP(\langle固有名詞\rangle|わたくし)\\&\cdot&P(と|\langle固有名詞\rangle)\\&\cdot&P(言います|と)\end{eqnarray*}\subsection{複合N-gramの生成方法}より少ないパラメータで次形態素予測精度の高い効率的な複合N-gramを得るためには,初期クラスから独立させる形態素,および結合させる形態素列を適切に選択する必要がある.本論文では,品詞クラスを初期クラスとし,初期クラスからの形態素独立によるクラス分離,および形態素列結合によるクラス分離の2種類のクラス分離を逐次的に行うことによって,複合N-gramのためのクラス分類を決定する方法を提案する.形態素独立,および形態素列結合候補の決定は,式\ref{eqn:entropy}により求められるエントロピーを最小にさせる候補を1つのみ選択する.\begin{eqnarray}\label{eqn:entropy}&H&(\{c_i\})=-\sum_iP(c_i)\nonumber\\&&\sum_kP(ws_k|c_j)\cdotP(c_j|c_i)\log_2\{P(ws_k|c_j)\cdotP(c_j|c_i)\}\nonumber\\&&where~ws_k\inc_j\end{eqnarray}エントロピーはあいまいさを表す尺度であり,また,エントロピーを$H$としたときパープレキシティは$2^H$で与えられる.すなわち,エントロピーが小さいことはあいまいさが小さく,また,次形態素予測の分岐も少なく,言語モデルの精度が高いことを意味する.従って,クラス分離を行う際に,常にエントロピーを最小にする候補を選択する本手法は,より少ないパラメータで精度の高い複合N-gramを生成するために適した手法であると考えられる.なお,本手法において,エントロピーの減少は常に正になることが保証されており,クラス分離によって,学習データに関してエントロピーは単調に減少する.\begin{figure}[tb]\setlength{\unitlength}{1mm}\footnotesize\begin{center}\begin{picture}(60,65)(0,0)\put(10,55){\framebox(40,7){形態素→品詞の分類}}\put(10,45){\framebox(40,7){\shortstack{分離クラス候補の\\リストアップ}}}\put(10,35){\framebox(40,7){\shortstack{各候補に対する\\エントロピー減少量の算出}}}\put(10,25){\framebox(40,7){\shortstack{エントロピー減少量最大候補の\\クラス分離実行}}}\put(10,17){\line(4,1){20}}\put(10,17){\line(4,-1){20}}\put(50,17){\line(-4,1){20}}\put(50,17){\line(-4,-1){20}}\put(12,13){\makebox(40,7){所定の分離クラス数?}}\put(50,10){\makebox(10,7){{\bfNo}}}\put(30,7){\makebox(10,7){{\bfYes}}}\put(10,2){\makebox(40,7){終了}}\multiput(30,55)(0,-10){4}{\vector(0,-1){3}}\put(30,12){\vector(0,-1){3}}\put(50,17){\line(1,0){5}}\put(55,17){\line(0,1){36.5}}\put(55,53.5){\vector(-1,0){25}}\end{picture}\end{center}\normalsize\caption{複合N-gramの生成アルゴリズム}\label{fig:generationalgorithm}\end{figure}
\section{未知語を含んだ文の形態素解析}
本論文では,未知語の形態素解析を行うために,品詞クラス$c_{\xi}$に対して,同一品詞の未知語のためのクラス$\hat{c_{\xi}}$を導入する.クラス$\hat{c_{\xi}}$は,任意の文字を1次を出力するクラスであり,同一\break未知語クラス$\hat{c_{\xi}}$が連続した場合は,それらをまとめて一つの未知語とみなす.図\ref{fig:UnknownWord}に,\mbox{「政瀧」と}\breakいう未知語を含んだ文の品詞Bigramを使用した形態素解析の処理例を示す.以下に,$\hat{c_{\xi}}$に関する確率の導出を行う.\def\unknown_FIG{}\unknown_FIGTuring推定によると,データ上に$r$回出現する形態素は,次式の$r^*$回と推定される.\begin{equation}r^*~=~(r+1)\frac{n_{r+1}}{n_r}\end{equation}ただし,$n_r$はデータ上に$r$回出現した形態素の種類数を表す.\mbox{従って,$r$回出現する形態素$w$の}品詞からの出現確率$P(w|c_{\xi})$は,\begin{equation}P(w|c_{\xi})~=~\frac{r^*}{N(c_{\xi})}\end{equation}となる.これを,クラス$c_{\xi}$に属する全ての形態素について計算し,$1$から引いた残りが品詞$c_{\xi}$から未知語出現する確率$P(\hat{c_{\xi}})$である.\begin{equation}P(\hat{c_{\xi}})~=~1-\sum_{w\inc_{\xi}}P(w|c_{\xi})\end{equation}品詞$c_{\xi}$の未知語の文字$l$の出現する確率$P(l|\hat{c_{\xi}})$は,本来文字毎に与えられるべきであるが,固有名詞等では,学習データにも出現しない文字が出現する可能性もあり文字毎に正確な確率を与えるのは困難であるため,全ての文字が等しい確率で出現するとし,未知語出現確率$P(\hat{c_{\xi}})$から均等に割り当てる.\begin{equation}P(l|\hat{c_{\xi}})~=~\frac{P(\hat{c_{\xi}})}{V}\end{equation}ただし,$V$は文字の種類数とする.また,$P(\hat{c_{\xi}}|\hat{c_{\xi}})$は,未知語が連続する確率である.本モデルにより生成される未知語の長さは二項分布に従うため,実際の未知語の長さも二項分布に従うという仮定を設けると,その品詞に属する語$w$の文字列$len(w)$より$P(\hat{c_{\xi}}|\hat{c_{\xi}})$は下式により求められる.\begin{equation}P(\hat{c_{\xi}}|\hat{c_{\xi}})~=~\sum_{w(\inc_{\xi})}\frac{len(w)-1}{len(w)}\end{equation}
\section{評価実験}
\subsection{各種N-gramモデルの形態素解析性能評価}自然発話旅行会話データベース\cite{Morimoto}を用いて形態素解析の評価実験を行った.本データベースには,間投詞や感動詞のほか,ら抜き表現,助詞落ち等の自然発話特有の言語現象が頻出する.また,本データベースは旅行会話という限定された内容の言語データであるが,実際のアプリケーションを想定した連続音声認識システムとしては,情報案内システム\cite{Tsutsumi}・予約システム\cite{Kawahara}等用途を限定し音声認識の精度を向上させている例が多く,このような内容の限定されたデータで評価を行うことは適切であると考えられる.データベースは,1,334対話,44,091文,559,711形態素から成り,語いは7,724語である.このうち,約4分の1(334対話,11,321文,137,691形態素)を評価用データとし,残り(1,000対話,32,770文,402,020形態素)を言語モデル学習に使用した.形態素解析精度の比較対象として,複合N-gramと形態素N-gram,および品詞N-gramを構築した.複合N-gramは,活用形,および活用型を含めた234品詞を初期状態とし,最大2,000クラスまで分離を行い,500分離おきにデータを採取した.また,形態素N-gram,品詞N-gram,複合N-gramともに,形態素および品詞クラスの遷移確率をback-offSmoothing\cite{Katz}により学習データに出現しない形態素および品詞クラス遷移に対して$0$でない確率を与えた.また,本節の実験では,辞書には学習データ,評価データに出現する全ての形態素が登録されており,未知語は存在しない.ただし,学習データに出現しない形態素に対する遷移確率は,全てのモデルにおいて1/(100*語数)という確率を与えた.これは,他に候補が無い場合はこの形態素を割り当てるために,0でない小さい値を与えることを目的としている.形態素の正解率の評価には,音声認識で広く用いられている単語正解率(Accuracy)にならい形態素Accuracyを用いた.形態素Accuracy(\%)は下式で表される.\begin{equation}100\times\frac{W-S-D-I}{W}\end{equation}ただし,W:正解の形態素数,S:置換誤り形態素数,D:削除誤り形態素数,I:挿入誤り形態素数を表す.\begin{table}[tb]\begin{center}\caption{各種言語モデルの形態素解析性能比較(品詞のみの評価)}\label{tbl:ModelComparison1}\begin{tabular}{|l||c|c|c|c|c|c|}\hline\lw{}&\lw{形態素N-gram}&\lw{品詞N-gram}&\multicolumn{4}{c|}{複合N-gram(分離クラス数)}\\\cline{4-7}&&&~~500~~&~~1000~~&~1500~&2000\\\hline\hlineBigram&98.90&98.56&\underline{99.13}&99.07&99.02&99.01\\\hlineTrigram&98.95&98.94&\underline{99.17}&99.08&99.01&99.03\\\hline\end{tabular}\end{center}\end{table}通常,形態素解析では,形態素の分割が正しく,かつ付与された品詞が正しければ,正解とみなされれる.この場合の形態素Accuracy(\%)を表\ref{tbl:ModelComparison1}に示す.また,形態素解析結果を音声認識に用いることを考えると,同一品詞の形態素でも読みが異なるものは,別単位として扱うことが好ましい.形態素に読みまで考慮した場合のた場合の形態素Accuracy(\%)を表\ref{tbl:ModelComparison2}に示す.ただし,読みの推定は,表記が同一の形態素でも読みが異なるものは別の形態素として扱い,異なる単位としてN-gramを構築し形態素解析を行うことにより実現している.\begin{table}[tb]\begin{center}\caption{各種言語モデルの形態素解析性能比較(品詞と読みを含めた評価)}\label{tbl:ModelComparison2}\begin{tabular}{|l||c|c|c|c|c|c|}\hline\lw{}&\lw{形態素N-gram}&\lw{品詞N-gram}&\multicolumn{4}{c|}{複合N-gram(分離クラス数)}\\\cline{4-7}&&&~~500~~&~~1000~~&~~1500~~&2000\\\hline\hlineBigram&98.54&96.78&98.62&\underline{98.64}&98.62&98.63\\\hlineTrigram&98.64&97.12&\underline{98.68}&\underline{98.68}&98.61&98.66\\\hline\end{tabular}\end{center}\end{table}表中で下線を付した値が,その次数の複合N-gramの最高の形態素正解率を示す.表\ref{tbl:ModelComparison1}および\ref{tbl:ModelComparison2}より,いずれの評価の場合も,複合N-gramの最も高い形態素正解率は,同次数の形態素N-gramおよび品詞N-gramよりも高い正解率を得ることができ,複合N-gramの他のモデルに対する優位性が実験的に示された.形態素正解率最高の値を与える分離クラス数は,品詞のみの評価の場合は分離クラス数500,読みも含めた評価の場合は分離クラス1000であり,それ以上増やしても逆に形態素正解率は低下する傾向にある.これは,クラス数が増加すると共に,パラメータ数も増加するため,各パラメータの確率推定が正しく行われないことに起因すると考えられる.このため,適切なクラス数を決定する必要があるが,これは,ニューラルネットワークの学習回数の決定等で用いられるCrossValidationの手法を用いることにより,適切なクラス数を実験的に求めることができる.以下に手順を示す.\begin{enumerate}\item学習データの一部を仮想的なテストデータとする\itemクラス数を徐々に増加させながらN-gramを学習する\item仮想的なテストデータに対し形態素解析を行い,形態素解析の性能が頭打ちになる所をクラス数とする\end{enumerate}3種類のモデルを比較すると,品詞N-gramは読みを含めた評価の場合に他のモデルと比較して形態素正解率が著しく低下している.これは,ある形態素の読みはその前後の形態素の読みに影響されると考えられるが,品詞という枠組みでは,前後の読みの関係が表現できないためと考えられる.形態素N-gramと複合N-gramでは,読みまで含めた形態素を単位として扱うことができるため,このような大きな低下は見られない.また,複合N-gramと形態素N-gramとの正解率の差は大きくはないが,5章で示した未知語処理の容易さとを考えると,複合N-gramが有利である.また,山本らの手法\cite{Yamamoto}では,タグなしコーパスから形態素ネットワークを生成する際に,ノイズを調整するための信頼性係数なるパラメータを変化させると,隠れマルコフモデルと品詞BigramおよびTrigramの形態素解析の精度は同等であると報告されている.しかし本実験の結果では,品詞Bigram,品詞Trigram,形態素Bigram,形態素Trigramの順に精度が向上しており,正解形態素列を学習させることにより,モデル化能力が形態素解析の正解率に反映されていると考えられる.また,複合N-gramは,複合Bigramでさえ隠れマルコフモデルよりもモデル化能力が高いとされる品詞Trigramよりも形態素の精度が高くなっている.従って,山本らの手法と比較し,正解形態素列を与えること,および複合N-gramを使用することにより,精度の高い形態素解析が可能であることが示せた.\subsection{学習データ量と形態素解析率との関係}前節の実験で,約40万語のデータより構築した複合N-gramモデルは,読みまで考慮した形態素解析率が98\%以上の,高い解析率が得られることが分かった.しかし,40万語の形態素データを集めることはそれほど容易ではなく,連続音声認識に使用するN-gramを学習するための,大量の形態素データを容易に集めるという本研究の目的と矛盾する.従って,データ量が少ない時にどの程度の形態素解析率が得られるかは,本論文の趣旨において重要なことである.これを調査するため,前節の実験で用いたデータを量を1/2,1/4から最小1/64とした時の形態素正解率を調べた.言語モデルには,複合Bigramの分離クラス数500と1000を用い,形態素正解率は読みも含めた場合の形態素Accuracyで評価した.実験結果を\ref{tbl:DataAmount}に示す.\begin{table}[tb]\begin{center}\caption{複合N-gramの学習データ量と形態素解析性能の関係}\label{tbl:DataAmount}\begin{tabular}{|l||c|c|c|c|c|c|c|}\hline&\multicolumn{7}{c|}{データ量}\\\hline全学習データに対する割合&1/64&1/32&1/16&1/8&1/4&1/2&1/1\\\hline学習形態素数&6,306&14,293&25,931&50,794&101,227&200,105&402,020\\\hline\hline複合Bigram(500)&94.45&95.87&96.97&97.53&98.02&98.45&98.62\\\hline複合Bigram(1000)&94.27&95.66&96.85&97.50&97.98&98.41&98.64\\\hline\end{tabular}\end{center}\end{table}表\ref{tbl:DataAmount}より,データ量が減少するに比例して,形態素正解率は低下することが分かる.しかし,データ量が全体の1/64の場合は,形態素数がわずか6,306であるが,このような非常に少ない量の学習データから構築したモデルでも,94\%程度の比較的高い正解率が得られる.94\%の形態素正解率は自動で形態素解析を行うには高い精度とは言えないが,自動形態素解析の結果を見て,人手で誤り個所を修正するような,半自動の形態素解析としては,使用に耐える性能であると考える.全学習データを使用した場合は,複合Bigramの分離クラス数1000の場合が分離クラス数500の場合よりも正解率が高いが,データ量が減少するにつれて,正解率は逆転している.これは,パラメータ数の多い分離クラス1000のモデルでは,データ量が少ない場合では,正確なパラメータ値を推定することが困難になることが原因であると考えられる.以上より,大量の形態素データを得るためには,まず,数千形態素程度のデータを人手で作成し,クラス数の少ない複合N-gramを構築して半自動の形態素解析を行い,数十万形態素程度のデータが集まった段階で,クラス数の大きい複合N-gramを構築し,その後は自動で形態素解析を行う,というのが効果的な手段であると考えられる.以下に,この作業に必要なコストについて検討した.まず,最初のN-gram学習用の形態素データを作成する必要があるが,これは,1形態素のデータ作成に1分あれば十分であるとして,6,000形態素のデータ作成にかかる時間は,1分×6,000=6000分=100時間である.これを基にして作成した複合N-gramで95\%程度の正解率が得られるため,形態素解析したデータの修正には,1形態素あたりでは形態素データ作成時の1/20の3秒程度で可能であると考えられる.40万形態素のデータを作成するためには,40万×3秒=120万秒=2万分=約333時間となる.一日8時間労働としても,2ヶ月程度で正解率98\%以上の形態素解析システムの構築が可能であることになる.また,修正を行うだけなら比較的単純な作業であり,多数の人間で平行して行うことができるため,さらにシステム構築の期間を短縮することが可能である.なお,以上の議論では文章データ収集のためのコストを無視している.しかし,英語・日本語に限らず音声認識システムを構築するためには文章データを収集することは必須の作業であり,この部分のコストに関してし議論するのは無意味である.このため形態素解析の作業量のみを議論した.\subsection{ルールベースの形態素解析との比較}形態素解析システムJUMAN\cite{Kurohashi}(Version3.5)との比較により,従来のルールベースの形態素解析に対する有効性を示す.ただし,我々の形態素解析とJUMANとでは,用いている形態素の体系や辞書に登録されている形態素の語数等が異なるため,できるだけ公平になるよう次のような方法で比較を行った.\begin{itemize}\item辞書サイズの均等化\\辞書サイズが,本論文の実験では約7千語であるのに対しJUMANでは約58万語あり,さらに,本論文の実験では評価データの全ての形態素が登録されている等,条件はJUMANが圧倒的に不利である.このため,名詞,動詞,形容詞等の自立語の語彙を我々のシステムと同一にした.ただし,「えー」「あのー」等の語は我々のシステムでは間投詞としているが,JUMANには間投詞という品詞は存在しないため感動詞とした.\item評価方法\\我々のシステムとJUMANとでは形態素の体系が異なり,評価データに対してJUMANの形態素体系の正解は存在しない.このため,提案方法よびJUMAN共に,形態素解析結果を目視して正誤の判定を行った.ただし,形態素の切り分けや品詞の判断は専門家でも困難な部分もあるため,明らかに誤りであると判断できる個所のみを誤りと判断している.また,評価データ約1万文を,目視により全て検査するのは時間を要するため,最初の200文のみを評価の対象とした.\end{itemize}6.1節の実験で,最も正解率の高かった複合Trigram(クラス数1000)とJUMANに関し,形態素数と形態素解析の品詞付与および読み付与正解率とで比較した結果を表\ref{tbl:RuleComparison}に示す.表より,形態素数はほぼ同じであり,両システムの形態素体系はは同程度の長さであることがわかる.形態素解析の精度に関しては,品詞付与で約4\%,読み付与で約5\%と本論文の提案手法の方が優れている.JUMANの誤り個所を調べると,大部分は感動詞と,数字の読みに関する誤りである.以下に代表例を示す.\begin{itemize}\item「たぶんえー大丈夫だと思います」\\→「たぶん(副詞)え(動詞)ー(記号)大丈夫だ(形容詞)と(助詞)思い(動詞)ます(接尾辞)」\item「九月十一日ご一泊」→「きゅうつきじゅういちにちごいちはく」\end{itemize}\begin{table}[h]\begin{center}\caption{ルールベースの形態素解析との比較}\label{tbl:RuleComparison}\begin{tabular}{|l||c|c|c|}\hline&~~形態素数~~&品詞付与正解率(\%)&読み付与正解率(\%)\\\hline\hlineJUMAN&2,158&95.83&94.21\\\hline提案法&2,129&99.91&99.91\\\hline\end{tabular}\end{center}\end{table}\newpageこれらの誤りの大部分は,接続ルールや重みを変更することで対応できると考えられる.しかし,そのためには,相当数のルールの追加・変更が必要になると考えられる.このような,修正を行うためには,試験的に形態素解析を行って形態素解析の誤り個所を見つけ,誤りの個所が修正でき,かつ正解個所の解析結果は変化しないように接続ルールや重みを変更する必要があると予想される.この作業を行うためにはルールの作成において相応の経験・知識を持つ人が,相当な時間をかける必要があると考えられる.これに対してN-gramでは,前節の実験でデータ量が増えるに比例して形態素解析率は向上していることから,形態素解析の誤り部分を修正するだけで形態素解析精度が向上でき,日本語において多少の文法的知識を持つ人なら容易に作業が可能であり,ルールベースの方法より精度の改善が容易であると考えられる.\subsection{未知語を含む文の形態素解析結果}次に,未知語を含む文の形態素解析実験を行った.学習・評価には,6.1節の実験と同一データを使用した.ただし,辞書には学習データに出現した形態素しか登録しておらず,評価データのみにしか出現しない形態素が未知語となる.このような未知語は632語存在し,評価データ中の137,691形態素中の859形態素(約0.6\%)を占める.ただし,形態素N-gramは,この処理は行えないため,品詞N-gramと複合N-gramのみで比較実験を行った.ただし,処理時間の都合上,両モデル共にBigramのみを用いた.形態素解析の評価は,品詞付与の形態素Accuracy(\%)のみで評価した.これは,現在の我々の形態素解析システムでは,未知語に対し読みを付与する機能がないためである.未知語に読みを付与するためには漢字毎の読みの情報があることが最低条件となるが,現在そのようなデータを持ちあわせていないことがその理由である.また,未知語,特に固有名詞の読みは人間でも間違う場合が多く,これを自動で行うのは技術的にも困難であると考えられる.表\ref{tbl:UnknownWord}に結果を示す.未知語処理を行った場合でも,複合Bigramが品詞Bigramよりも高い正解率を得た.辞書に全語いが登録されている6.1節の実験では正解率が99.13\%であったから,0.8\%程度低下はしているものの,98\%以上の比較的高い正解率が得られた.また,未知語の形態素解析誤りを分析したところ,「防音」が「防」と「音」のように,1形態素が複数の形態素に分割された例が多数見られた.これは,「音」という形態素が辞書に登録されているため「防」という文字のみが未知語として解析された結果生じた現象である.「防」も「音」も両方普通名詞であるから,これらの語を結合させることにより,誤りを低減することが可能であると考え\begin{table}[h]\begin{center}\caption{未知語を含む文の形態素解析性能}\label{tbl:UnknownWord}\begin{tabular}{|c||c|c|c|c|}\hline\lw{品詞Bigram}&\multicolumn{4}{c|}{複合Bigram(分離クラス数)}\\\cline{2-5}&~~500~~&~~1000~~&~1500~&2000\\\hline\hline97.66&\underline{98.31}&98.26&98.24&98.26\\\hline\end{tabular}\end{center}\end{table}\newpageられる.
\section{むすび}
本論文では,連続音声認識用のN-gram言語モデルを構築するのに必要な形態素データを大量に収集することを目的として,品詞と可変長形態素列の複合N-gramを用い,テキストデータから自動で形態素解析を行う方法を提案した.形態素解析実験の結果,最高99.17\%の精度であり,読みまで考慮した結果でも最高98.68\%の精度を得ることができた.これは,従来のルールベースの手法よりも高い精度であり,提案手法の有効性が示された.また,実験により,6千語程度の少ない学習データから学習したモデルでも94\%程度の精度が得られることを確認した.さらに,品詞から未知語の出現確率を考えることにより未知語を含む文の形態素解析が行えるよう改良を行い,実験の結果,未知語が登録されている場合と比較して形態素解析精度の低下は0.8\%程度であることを確認した.今後の課題としては,形態素解析に最適な複合N-gramの分離クラス数を自動決定することが重要と考える.また,未知語に関しては,同一品詞の未知語と既知語とを結合させ,新たな未知語と考えること等により形態素解析率を向上させ,さらに,音声認識に直接活用できるよう,未知語に対して読みを自動的に付与する手法の開発も行いたい.\bibliographystyle{jnlpbbl}\bibliography{v06n2_03}\begin{biography}\biotitle{略歴}\bioauthor{政瀧浩和}{1989年京都大・工・電子工卒.1991年同大大学院工学研究科修士課程修了.同年住友金属工業株式会社システムエンジニアリング事業本部入社.1995年よりATR音声翻訳通信研究所に出向.自然言語処理,音声認識の研究に従事.電子情報通信学会,日本音響学会各会員.}\bioauthor{匂坂芳典}{1973年早大・理工・物理卒.1975年同大大学院修士課程修了.同年日本電信電話公社(現,NTT)武蔵野電気通信研究所入社.1986年より国際電気通信基礎技術研究所(ATR)に出向.現在,ATR音声翻訳通信研究所,第1研究室室長.工博.音声合成・音声認識を中心とした,音声情報処理,言語情報処理の研究に従事.電子情報通信学会,日本音響学会,IEEE,米国音響学会各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V20N03-03 | \section{はじめに}
\label{Introduction}2011年3月11日に起こった東日本大震災では,テレビ,ラジオなどの既存メディアが伝えきれなかった局所的な情報を,Twitterなどの個人が情報発信できるソーシャルメディアが補完する可能性を改めて知ることとなった.一方で,Twitter等で発信された大量の情報を効率的に把握する手段がなかったために,被災地からの切実な要望や貴重な情報が,政府,地方自治体,NPOなどの救援団体に必ずしも届かず,救援活動や復興支援が最大限の効率で進展しなかったという可能性も高い.我々が震災時のTwitterへの書き込み(tweet)を調査したところ,少なくとも救援者が何らかの対応をしたことを示すtweetが存在しない要請tweetも非常に多く存在した.さらには大量に飛び交うデマを含む情報に振り回された人も多く出た.こうした状況に対応するため,自然言語処理を用いてTwitter上の安否情報を整理することを目指した「ANPI\_NLP」の取り組みが行われたが,開発の速度や多数のボランティアを組織化するには課題があったことが報告されている\cite{Neubig2011}.実際に災害が発生してから,新たにTwitter等のソーシャルメディアに自然言語処理を適用し,情報を整理する技術を開発するのは非常に困難であろう.我々は,将来起きる災害に備えて,事前にそうした技術を開発しておくことが極めて重要であると考えている.また,我々が被災地で行ったヒアリングでは,現地からの要望とその支援とのミスマッチも明らかになっている.例えば,テレビや新聞などのマスメディアで伝えられた「被災地で防寒着が不足している」という情報に呼応して,多くの善意の人から防寒着の上着が大量に現地に送られたが,津波被害にあい泥水の中で復旧作業をする必要のあった人々がより切実に求めていたのは,防寒のズボンであった.別の例では,全国から支援物資として届けられた多くの衣類はどれも通常サイズのものばかりで,4Lサイズなどの大きな衣類が必要な人が一月以上も被災時の衣類を着続ける必要があった.これらは,大規模災害発生時に生じる被災者の要望の広範さや事前にそうした要望を予測しておくことの困難を示す事例と言えよう.さらに,本論文で提案するシステムで実際にtweetを分析したところ,被災地で不足しているものとして,「透析用器具」「向精神薬」「手話通訳」など平時ではなかなか予想が困難な物資が実際に不足している物品としてtweetされていることも判明している.こうしたいわば想定外の要望を拾い上げることができなれば,再度要望と支援のミスマッチを招くこととなる.以上が示唆することは,次回の大規模災害に備えて,ソーシャルメディア上の大量の情報を整理し,上述した想定外の要望も含めて,必要な情報を必要な人に把握が容易なフォーマットで届ける技術の開発を災害発生以前に行っておくことの重要性である.また,我々が備えるべき次の災害が,今回の震災と類似している保証はない.以上のような点に鑑みて,我々は想定外の質問も含め,多様な質問に対して,ソーシャルメディア上に書き込まれた膨大な情報から抽出された回答のリストを提示し,状況の俯瞰的把握を助けることができる質問応答システムが,災害時に有効であると考えている.ここで言う俯瞰的把握とは,災害時に発生する様々な事象に関して,それらを地理的,時間的,意味的観点から分類した上でそれらの全体像を把握することを言う.別の言い方をすれば,その事象がどのような地理的,時間的位置において発生しているのか,あるいはそもそもその事象がどのような事象であるのか,つまりどのような意味を持つ事象であるのか,等々の観点でそれら事象を分類し,また,それらを可能な限り網羅的,全体的に眺めわたし,把握するということである.このような俯瞰的把握によって,救援者サイドは,例えば,重大な被害が生じているにもかかわらず,炊き出し,救援物資の送付等が行われていないように見える地点を割り出し,なんらかの齟齬の確認や,救援チームの優先的割当を行うことが可能になる.あるいは各地において不足している物資を,例えば医薬品,衣類,食料といった観点で整理して,救援物資のロジスティクスを最適化するなどの処置も可能になる.さらに,こうした俯瞰的把握によって,上で述べたような想定外の事象の発見も可能になり,また,それらへの対処も容易になろう.逆に言えば,誰かがこうした俯瞰的把握をしていない限り,各種の救援活動は泥縄にならざるを得ず,また,想定外の事象に対してはシステマティックな対応をすることも困難となる.また,被災者自身も現在自分がいる地点の周辺で何がおきているか,あるいは周辺にどのようなリソースが存在し,また,存在しないかを全体として把握することにより,現地点にとどまるべきか,それとも思い切って遠くまで避難するかの判断が容易になる.避難に至るほど深刻な状況でなかったとしても,周辺地域での物資,サービスの提供の様子を全体として把握することで,物資,サービスを求めて短期的な探索を行うか否かの決断も容易になろう.我々の最終的な目標は,多様な質問に回答できるような質問応答システムを開発することによって,災害時に発生するtweet等のテキストデータが人手での処理が不可能な量となっても,そこに現れる多様で大量の事象を意味的観点から分類,抽出可能にし,さらに回答の地図上への表示や,回答に時間的な制約をかけることのできるインターフェースも合わせて提供することにより,以上のような俯瞰的把握を容易にすることである.本論文では,以上のような考察に基づき,質問応答を利用して,災害時に個人から発信される大量の情報,特に救援者や被災者が欲している情報をtweetから取得し,それらの人々の状況の俯瞰的把握を助ける対災害情報分析システムを提案する.将来的には本システムを一般公開し,被災地の状況や救援状況を俯瞰的に把握し,被災地からの想定外の要望をも取得し,効率的な救援活動につなげることを目指す.本論文では提案したシステムを実際に東日本大震災時に発信されたtweetに適用した評価実験の結果を示すが,この評価においては以上のような被災状況の俯瞰的把握を助ける能力を評価するため,質問応答の再現率に重点をおいた評価を行う.逆に言えば,いたずらに回答の上位の適合率を追うことはせず,再現率の比較的高いところでの評価に集中する.また,本システムを拡張することで,被災者と救援者の間でより適切な双方向のコミュニケーションが実現可能であることも示す.こうした双方向のコミュニケーションはより適切かつ効率的な救援活動のために極めて重要であると考えている.本論文で提案するようなシステムは非常に多くのモジュールからなり,その新規性を簡潔にまとめることは難しいが,本論文においては以下の手法・技術に関して我々のタスクにおける評価,検証を行った.特にCについては,新規な技術であると考えている.\begin{description}\item[A]固有表現認識(NER)の有効性\item[B]教師有り学習を用いた回答のランキング\item[C]含意関係認識における活性・不活性極性\cite{Hashimoto2012}の有用性\end{description}ここで,A,Bに関しては本論文における実験の目標ならびに設定では有効性は認められず,最終的なシステムではこれらの技術を採用しなかった.これらに関して現時点での我々の結論は以下の通りである.NERはそれ単体では,我々のタスクでは有効ではなく,その後の処理やそこで用いられる辞書等との整合性がとれて初めて有効になる可能性がある.また,回答のランキングは,我々の目標,つまり,少数の回答だけではなく,想定外も含めた回答を可能な限り網羅的に高精度で抽出することには少なくとも現状利用可能な量の学習データ,素性等では有効ではなかった.一方で,含意関係認識において活性・不活性極性を利用した場合,再現率が50%程度のレベルにおいて,適合率が7%程度上昇し,顕著な性能向上が見られたことから,提案手法にこれを含めている.本論文の構成は以下の通りである.まず,\ref{Disaster}節において本論文で提案する対災害情報分析システムの構成とその中で使われている質問応答技術について述べる.\ref{Experiments}節では,人手で作成した質問応答の正解データを用いたシステムの評価について報告する.\ref{Prospects}節にて上述した双方向のコミュニケーションの実現も含めて今後の本研究の展望を示す.さらに\ref{Related_work}節にて関連研究をまとめ,最後に\ref{Conclusion}節にて本論文の結論を述べる.
\section{質問応答に基づく対災害情報分析システム}
\label{Disaster}\subsection{システム構成}本システムは,「宮城県で孤立しているのはどこですか」,「福島県で何が不足しているか」など,自然言語の質問を入力とし,大規模なtweetコーパスからその回答と思われる表現を抽出し,ユーザに提示する.(なお,現在,システムはTwitterを主たる情報源としているが,掲示板や一般のWeb文書などにももちろん適用可能である.)図\ref{overview_fig}に示すように,システムはtweetから構文パターンを抽出しインデックスを作成する回答インデックス作成モジュールと,回答検索時に使用する含意パターンデータベースを作成する含意パターン獲得モジュール,作成されたインデックスを用いて回答を抽出する質問応答モジュール,ユーザから入力された質問に対する大量の回答を効果的に提示する入出力モジュールから成る.\begin{figure}[b]\begin{center}\includegraphics{20-3ia3f1.eps}\end{center}\caption{対災害情報分析システムの概要}\label{overview_fig}\end{figure}各モジュールの動作の概要は次の通りである.回答インデックス作成モジュールでは,まずtweetを文単位で形態素解析,構文解析し,地名補完モジュールにて処理された構文解析結果から,詳細については後述するパターンや周辺名詞句を抽出し,これを回答インデックスに含める.含意パターン獲得モジュールは,大規模なWebコーパスを形態素解析,構文解析したデータから,含意関係にあるパターン(例えば,「XからYまで歩く」は「XからYまで移動する」を含意する)を自動的に抽出し,含意パターンデータベースを作成する.質問応答モジュールは,ユーザから入力された質問をインデックス作成モジュールと同様に形態素解析,構文解析を行い,質問文からパターンや周辺名詞句を取得する.次に,質問文に含まれるパターンを用いて,含意パターンデータベースを参照し,最大で数千個程度の含意パターンに拡張する.拡張されたパターンや周辺名詞句を用いて回答インデックスを検索し,回答を得る.入出力モジュールは,2種類ある表示モードの選択,質問文の入力フォームなどを備え,ユーザーから入力があるとそれを質問応答モジュールに渡す.質問応答モジュールから回答を受けとると,表示モードに応じてユーザに回答を表示する.以下では,これらのモジュールの各々について説明する.\subsection{回答インデックス作成モジュール}\label{making_index}回答インデックス作成モジュールは,大規模なtweetのデータを対象に,高速に質問応答を行うためのインデックスを作成するモジュールである.回答インデックスの作成には,ApacheJakartaProjectのもとで開発が進められているLucene\footnote{http://lucene.apache.org/core/}を利用する.以下ではこのインデックスを回答インデックスと呼び,その役割と作成手順,作成に際して注意が必要な地名の補完処理について説明する.\subsubsection{回答インデックスの作成}回答インデックスは,ユーザーから入力された質問文から生成したクエリを用いて高速に回答を取得するためのインデックスである.回答インデックスには,構文情報が充分に存在する文から抽出される情報を格納する回答インデックス1と構文情報が充分にない文から抽出される情報も格納の対象とする回答インデックス2の2種類がある.回答インデックスの作成手順として,まず,対象(tweet)を文単位で形態素解析,構文解析処理を行う.形態素解析にはMeCab\footnote{http://mecab.googlecode.com/svn/trunk/mecab/doc/index.html辞書はJUMAN体系のものを使用.},構文解析には日本語係り受け解析器J.DepP\footnote{http://www.tkl.iis.u-tokyo.ac.jp/{\textasciitilde}ynaga/jdepp}を使用する.次に,回答インデックス1に格納するデータを作成するために構文解析結果における任意の名詞句2つとそれらをつなぐ文節係り受けのパスを構成する表層上の連鎖を取得する.例えば,「[宮城県の][炊き出し]」からは,「宮城県」と「炊き出し」という名詞句に係り受けのパスがあるので「宮城県の炊き出し」が取得される.一方,「[宮城県で][炊き出しが][行われる]」という結果からは,「宮城県」と「炊き出し」という名詞句の間に「行われる」という文節で媒介されるパスが存在するので「宮城県で炊き出しが行われる」が取得される.このパスを構成する2つの名詞句それぞれを変数で置き換えたものを構文パターン,あるいはパターンと呼び,また構文パターンとそれに含まれる変数に対応する名詞句2つの三つ組みをパターントリプルと呼ぶ.上記の「宮城県で炊き出しが行われる」という文からは,構文パターンとして「XでYが行われる」,変数X,Yに対応する2つの名詞句として「宮城県」と「炊き出し」の三つ組みがこの文から抽出されるパターントリプルとなる.またパターントリプルを含むtweet内の名詞句を全てを周辺名詞句として取得する.最終的に,回答インデックス1には,パターンとして「XでYが行われる」,変数に対応する名詞句としてそれぞれ「宮城県」「炊き出し」がキーに登録され,その値には変数に対応する名詞句と当該tweetのIDが格納される.回答インデックス2は,回答インデックス1に比べて,構文情報が不十分な文も対象とするために用いる.したがってこのインデックスを用いた回答の信頼性は高くないが,より広範な回答を得るために使用する.このインデックスでは構文パターンのかわりに部分パターンと呼ばれるパターンとその周辺名詞句をキーとする.構文パターンは,構文解析結果において二つの名詞句をつなぐパスから作られたが,部分パターンは名詞句一つと動詞,名詞,形容詞のいずれかへの係り受け関係から作られる.例えば,「宮城県です.透析用器具が足りません.」といったtweetからは任意の名詞句2つの間に係り受けが存在しないため,構文パターンを抽出することはできない.したがって,「透析用器具が足りない」という情報は回答インデックス1には反映されない.そこで,構文解析結果において「透析用器具」が助詞「が」を介して「足りません」へ係っているので,係り元の名詞句を変数として部分パターンを抽出する.この場合は「X(=透析用器具)が足りません」が抽出され,それと回答インデックス1同様に周辺名詞句である「宮城県」「状況」「透析用器具」とをキーとして,変数に対応する名詞句,すなわち「透析用器具」とtweetのIDとを値として回答インデックス2に登録する.以上2種類の回答インデックスのキーと値を表\ref{answer_index}にまとめる.回答インデックス1は上述したパターントリプルを用いて作成したインデックスであり,回答インデックス2は,パターントリプルが取得できないtweetにも対応することで,更に幅広い回答を取得するためのインデックスである.以下に,回答インデックスを用いて,どのように回答を取得するかを説明する.\begin{table}[b]\caption{回答インデックス}\label{answer_index}\input{03table01.txt}\end{table}回答インデックス1では,例えば,「震災後,宮城県で透析用器具が不足しています」というtweetからは,パターンとして「XでYが不足しています」,名詞句対(名詞句1,名詞句2)としてそれぞれ「宮城県」「透析用器具」,周辺名詞句として「震災後」「宮城県」「透析用器具」「不足」がキーに登録され,その値には変数に対応する名詞句と当該tweetのIDが格納される.このようなエントリは,例えば「宮城県で何が不足していますか?」といった質問の回答を取得する際に使われる.この場合,インデックス検索時のクエリは「XでYが不足しています」というパターンと,「宮城県」という名詞句1であり,検索の結果,上述したtweetの例から生成されるインデックスのエントリに値として登録されている名詞句2の「透析用器具」が回答として,tweetのIDとともに出力される.また,「どこで透析器具が不足していますか?」という質問であった場合には,「XでYが不足しています」というパターンと「透析用器具」という名詞句2を持つクエリが生成され,値に登録されている名詞句1の「宮城県」が回答として,tweetのIDとともに出力される.なお,上では周辺名詞句がキーとして登録されると説明したが,Luceneのインデックスのメカニズムでは,キーの一部を省略することが可能であり,例えば,上の質問の例では,パターントリプルを抽出してきたtweetにあった「震災後」という名詞句はクエリ中のキーとして現れないが,適切に検索が行われる.一方,回答インデックス2のエントリは,例えば,「宮城県で何が足りませんか?」という質問に対する回答を得るためにも使うことができる.質問中では,「宮城県」は「足りません」という動詞にかかっているが,この宮城県を周辺名詞句としてとらえ直し(回答が含まれるtweetとして「宮城県です.〜が足りません」のようなものもあると想定する),「何が足りませんか」という質問中の部分から「Xが足りません」という部分パターンを作成すると回答インデックス2を検索できる.本来であれば,先のtweetの解析時に照応解析等を行い,「透析器具が足りません」という文には「宮城県で」という表現が省略されていることを認識した上で処理を進めるべきであるが,そもそも照応解析等の精度が高くない現状に鑑み,照応,省略表現を一括して周辺名詞句として扱うことで柔軟な回答の抽出を狙っていることになる.なお,いずれのインデックスの作成時においても,retweetが入力として与えられた場合には,同一内容のretweetがあるかをチェックし,もし存在すれば1つのretweetのみを登録し,これと同一内容の複数あるretweetはインデックスには登録しない.一方ですべてのretweetのIDのリストは別途保存しておく.これはretweetの処理によって質問応答の処理時間がのびるのを防ぐための処理である.\subsubsection{地名補完モジュール}\label{Augment_place}地名補完モジュールは,回答インデックスの作成の際に,tweetなどのソーシャルメディアへの書き込みで省略されがちな地名や場所名を補完するモジュールである.地名補完モジュールでは大きく分けて次の二つの処理を行う.(1)まず,構文解析結果をその入力とし,地名補完の対象となるエンティティを認識する.(2)認識されたエンティティの詳細な住所情報を取得し,元のエンティティの周辺情報に基づいて後述する場所の包含性や,場所の非明示性の問題に対処する補完処理を行い構文木に適宜補完要素を挿入する.災害に関する情報では,効率的な救援活動などのため,位置情報や地名が極めて重要である.Twitterでは,携帯端末等GPS情報を付加できる装置からの書き込みの場合,位置情報の開示設定がされていれば,そのtweetが書き込まれた場所を特定できる.しかしながら,多くのユーザは,プライバシー等の問題から該当機能を有効にはしていない.災害時の要望等については,この機能を有効とすべきであるが,かならずしもすべての情報に位置情報が記述されている訳ではない.さらに,通信が不可能なほど壊滅的な被害が発生した場所から,通信が可能な地域に移動し,当該地域についてtweetする場合など,tweetがなされる位置とそのtweetが言及している位置が,一致しない場合もある.そのため,tweet内の地名を特定し,適切に処理することが重要である.しかしながら,地名の処理には以下のような問題があり,極めて難しい課題となっている.\begin{description}\item[場所の非明示性:]Twitterなどへの書き込みには,明示的に県や市の名称が書かれていないことが多い.さらには,tweetに限らず,一般的に,イベントが起きた場所を指す名詞句がイベントを表す動詞等に明示的には係らないことも多く,動詞で表されたイベントと地名を結びつけることはそれほど容易ではない.\item[場所の包含性:]場所には包含性がある.例えば,仙台市が宮城県の中にあることを正しく認識しても,それを処理する手だてがなければ,たとえ文中に「仙台市」と記述されていても,「宮城県で」と問う質問には回答できないということが起きる.\item[場所の曖昧性:]一部の地名は非常に大きな曖昧性を持ち,上記の包含性を扱おうとする場合に,特に問題となる.例えば,「福島」という地名は日本全国に50以上もあり,そこから正しい一つを選ぶ必要がある.\end{description}地名補完モジュールにて解決したい問題とほぼ同一の問題に取り組んでいるプロジェクトとしてGeoNLP\footnote{http://agora.ex.nii.ac.jp/GeoNLP/}がある.また,地名をはじめとする固有表現の認識という点では,近年Twitter等のソーシャルメディアに対する固有表現認識の難しさや,問題点が広く知られ,報告も多くなりつつある\cite{Liu2013,Ritter2011,Cheng2010}.Liuらはtweetを対象としてK-NearestNeighborsとConditionalRandomFieldsを組み合わせた新しい固有表現認識器を提案している.RitterらはLabledLDAにdistantsupervisionを適用することで高い性能を持つ固有表現認識器を実現している.また,Chengらは,tweetのみならずWebコーパスを用いた教師なし学習による固有表現認識器を提案している.前述した問題に完全に対応することは難しいが,現在のシステムは以下の手続きによって,地名とイベントとを対応付けている.具体的には,まず,現在入手可能なデータから大規模な地名・場所名辞書を自動生成し,さらに,地名等の包含性,曖昧性の一部をヒューリスティックスによって対処しつつ,回答インデックスに地名の情報を取り込んでいる.以下ではこの各々のステップについて説明する.\subsubsection{地名・場所名辞書の作成}地名補完の対象となるエンティティを特定するため,日本郵便が公開している郵便番号データとWikipediaに基づく上位下位関係\cite{Yamada2009}を利用して,地名・場所名辞書を作成した.まず,日本郵便が公開している郵便番号データを用いて地名辞書を作成した.郵便番号データからは,「都道府県/市区町村/町域」で表される住所の情報から,用いられる可能性がある地名文字列とその詳細な住所との対応を取り出す.地名文字列は「山元」のように断片的なものである場合が多いが,こうした対応づけを用いて,断片的な文字列から「宮城県亘理郡山元町」のようなより詳細な住所が入手可能となる.さらに,「都道府県/市区町村/町域」という住所の階層性は,先に挙げた場所の包含性に対処するための情報源となる.このようにして,2,486,545のエントリを持つ辞書(地名辞書)を作成した(地名文字列—住所の対の数は5,129,162).そのうち,84,633エントリが曖昧性をもつ地名であった.また,Twitterなどへの書き込みでは,住所のような地名の他に学校や施設,ランドマーク的名称の正式名称から通称までが幅広く用いられる.そこで,Wikipediaから抽出した上位下位関係\cite{Yamada2009}から,上位語として自治体をとり,「(自治体名)の(*X)」(Xは「施設」「学校」など)というパターンにマッチする下位語を取り出して利用した.例えば,「名取市の増田小学校」などである.これは,「学校」などの,郵便番号データには載っていないような場所にもその詳細な住所を対応づけるためである.上位語中の自治体名を,地名辞書で検索して下位語に住所を付与する.最終的に,255,273エントリを持つ場所辞書を作成した.地名辞書と場所辞書をマージすることで,2,741,818エントリを持つ辞書が得られる.地名辞書も場所辞書もほぼ全自動で作成しているため,それをそのまま文字列マッチによる単純な地名検出手法とともに適用した場合には,問題となる場合がある.例えば,「枝野官房長官」の名字と同じ「枝野」が宮城県の地名として使われている場合があるなど,地名には人名と同じものが多くあり周辺の情報から適切に処理される必要がある.また,高頻出な普通名詞をいずれかの辞書のエントリとして含んでおり,誤って地名処理される場合もある.そこで,このような問題となるエントリを可能な限りマージした辞書から人手で取り除いた.その結果,2,726,944エントリを持つ地名・場所名辞書が得られた.地名・場所名辞書は,地名補完モジュールの性能を決定する極めて重要な知識である.人工物に対する固有表現ほど新規エントリや,変更があるとは考えていないが継続的にメンテナンスされる必要がある.このような知識は,ひとたび整備されれば,その多くは長期にわたって利用可能であるためコストをかけ整備する価値があると考える.\subsubsection{地名・場所名特定}回答インデックスを作成するために形態素解析,構文解析がされた解析結果の各文節に対し,形態素をその単位として最長の名詞句を抽出し,地名・場所名辞書を用いて地名・場所名を特定し,当該名詞句に詳細な住所候補を付与する.その際,名詞句全体がマッチしない場合でも,その範囲内で最左のマッチを選び,できるだけ住所を付与する.なお,1文字の地名・場所名は誤ったマッチである可能性が大きいため,無視する.現在のシステムの地名・場所名の特定方法は,形態素を単位とする表層文字列が地名・場所名辞書に存在するか否かによって行うため,一般名詞等を誤って地名・場所名として扱う場合がある.そこで,地名・場所名の特定に関して,通常の固有表現認識器を用いることが考えられる.風間らの報告(風間,De~Saeger,鳥澤,後藤,Varga2012)\nocite{Kazama2012b}では,固有表現認識器の有効性が確認されておらず,我々の実験においてもその有効性を確認できなかったため,現在のシステムでは,固有表現認識器を用いていない.実験の詳細については,\ref{Experiments}節にて述べる.上記の問題以外にも,本システムでは,情報が無ければ最も広範囲な地域を表す住所,直前に曖昧性解消された住所がある場合には,それと最も整合性のある住所を選ぶルールに基づく曖昧性の解消を行っている.候補のうち,県・郡・市(郡部の場合は町)部分がtweet中の文字列と一致すれば,より広い地域レベルで文字列と一致しているものを優先する.例えば,「福島」の場合には,「福島県:福島市」,「大阪府:大阪市:福島区」等数多くの曖昧性があるが,最も広範囲な「福島県」が選択される.\subsubsection{地名補完処理と回答インデックスへの反映}本システムでは,「イベントの場所は文中で直前に出現した地名・場所である」という仮定を置き,元の文の構文解析結果を操作し,直前の地名・場所(tweetが複数文の場合は前方の文も考慮する)に場所を表す助詞「で」を加えたものを,イベントを表す動詞等に係るように付け加えた新たな構文解析(補完構文解析)結果を生成する.例えば,「気仙沼中学校へ避難しています」という文があった場合,「避難」イベントの場所は,直前の場所である「気仙沼中学校」と認識され,さらに地名・場所辞書により「気仙沼中学校→宮城県/気仙沼市」であると分かっているとすると,「宮城県で」,「気仙沼市で」などの助詞「で」で終わる複数の文節が元の構文木に挿入される.こうしてできた補完構文解析結果を利用することで,補完された場所に関連する質問に対応したインデックスが生成される.これにより,例えば,元の文には「宮城県」という表現が含まれていないにもかかわらず「宮城県でどこへ避難していますか」という質問に対し回答(=気仙沼中学校)できる.\subsection{含意パターン獲得モジュール}\label{extract_entailment}含意パターン獲得モジュールでは,大規模なコーパスから含意パターンを獲得し,それをデータベース化する.含意パターンとは,簡単に言うと,あるパターン「XからYまで移動する」を含意する「XからYまで歩く」のようなパターンのことであるが,含意が成立するための名詞句X,Yにある制約等を考慮するといくつか種類が考えられる.ここでは,クラス依存のパターン,クラス非依存のパターンと部分パターンという三種類の構文パターンの含意パターン獲得及びそのデータベース化について説明する.\subsubsection{クラス依存のパターン}クラス依存パターンとは,パターン中の変数に対応する名詞の意味クラスに制約を掛けた構文パターンである.構文パターンにクラス制約を掛けることでパターンの多義性が解消できる.例えば,「YのためのX」という構文パターンは「Y\underline{\mbox{:病名}}のためのX\underline{\mbox{:薬品}}」のように,Yが病名,Xが薬品の意味クラスの単語の場合は,XとYの治療関係とでも呼べる関係を表し,上記のパターン「X\underline{\mbox{:薬品}}でY\underline{\mbox{:病名}}が治る」の含意パターンとみなせるであろう.一方,「X\underline{\mbox{:作業}}のためのY\underline{\mbox{:道具}}」の場合は手段または道具という意味的関係を表現する.このようにして構文パターンと共起する単語を特定の意味クラスに限定することで,構文パターンの曖昧性が大きく減らされ,高頻度で曖昧なパターンが活用可能になり,より大量の回答を獲得できる\cite{De_Saeger2009}.意味クラスは,Kazamaら\cite{Kazama2008}が提案した単語クラスタリング法によって自動獲得する.この手法では大規模Webコーパスから得られる名詞と動詞の係り受け関係の統計データを用いて,名詞の隠れクラスへの事後確率の分布を求める.ある名詞の所属確率が0.2以上の隠れクラスを,その名詞の意味クラスとする.現状では名詞100万個を500クラスに分類したクラスタリングデータを用いる.クラス依存の含意パターンの認識にはKloetzerらが提案したクラス依存パターン間の教師付きの含意獲得手法\cite{Kloetzer2012}を用いる.詳細については\cite{Kloetzer2012}を参照されたいが,含意パターンを認識するSVM分類器は主に次の3種類の手がかりを用いる.\begin{enumerate}\itemパターンの表層的素性(表層/構造を考慮した素性).これらの素性は,表層上似ているパターンは含意関係にある可能性が高いという前提で,パターンに含まれる形態素,内容語,構文木の部分木などのbagofwords表現を基に計算した様々な類似尺度から成る.\item分布類似度に基づいた素性.ある構文パターンとその含意パターンの候補に関しては,6億ページの日本語Web文書からパターンの変数に当てはまる名詞句対を検出し,それらの名詞句対の相対的なオーバーラップを計算する.例えば,「XでYを提供」と「XでYを配っている」という2つのパターンはXとYの変数に頻出する共通の単語対(例えば,「石巻市,救援物資」)が多ければ多いほど,これらの構文パターンがお互いの言い換え表現となっている可能性が高いと考えられる.似た文脈に出現する語は似た意味をもつというのは,分布仮説\cite{Harris1954}と呼ばれる言語学におけるよく知られた仮説である.これらの素性はクラス依存のパターンの意味クラスに属する単語対に基づいて計算した類似尺度から成る.\item言語資源に基づいた素性.これらの素性は高度言語融合フォーラムALAGINで公開された動詞含意関係データベース(ALAGINリソースA-2),日本語異表記対データベース(ALAGINリソースA-7),基本的意味関係の事例ベース(ALAGINリソースA-9)と日本語形態素解析器JUMANの辞書から得られた異表記と反対語データを言語資源として参照し,両パターンに含まれる内容語が同義語あるいは異表記である場合,または含意関係や対義関係にある場合など,これらの言語資源に含まれる意味的関係にある時にその情報を素性に加える.更に,Hashimotoらが提案した「活性・不活性テンプレート」\cite{Hashimoto2012}も素性として用いる.この活性・不活性テンプレートについては後述する.\end{enumerate}学習データは51,900サンプルであり,SVMでの学習には2次の多項式カーネルを用いた.図\ref{entailment_recog}は,学習データとは異なる5,338の評価セットを用いて評価した本分類器から得られるクラス依存パターン含意の認識精度である.\begin{figure}[b]\begin{center}\includegraphics{20-3ia3f2.eps}\end{center}\caption{構文パターン間の含意認識の適合率}\label{entailment_recog}\end{figure}図\ref{entailment_recog}から分かるように,上述した条件ではこの手法の上位1億対(データサンプル数49)では約85%の適合率を示し,上位2.37億にて約70%の適合率を保持している.本論文のシステムで利用される含意パターンデータベースは,後述する方法により質問文から得られる可能性のある構文パターンの含意パターンをSVMスコアが高いものにしぼって格納しているので,回答検索に用いる含意パターンの適合率は図\ref{entailment_recog}に示される上位の適合率に相当するものと考えられる.本システムで利用する含意パターンデータベースを構築するため,まず,\cite{Kloetzer2012}と同様に,500意味クラスの任意のペアのうちで,同じ名詞句対を異なり数で3つ以上共有するパターン対すべてを考える.こうしたパターン対の総数は108億個存在するが,そのすべてに対して,分類器を適用してSVMスコアを求める.ついで,SVMスコアが計算されたパターン対の内,以下の手続きで最終的な含意パターンデータベースを構築する.まず,上述のパターン対に含まれるパターンを「含意されるパターン」Pとして一つ選択し,SVMスコアが0以上のパターンを「含意するパターン」Qとしてスコア上位から順に取得する.「含意するパターン」Qが500個を超えた場合は,スコア上位500個のみを「含意されるパターン」Pと対にしてデータベースに格納する.この操作を108億個のパターン対に含まれるパターン各々を「含意されるパターン」Pと仮定して繰り返す.なお,上位500個という数値は決定的なものではなく,システムのパラメータのひとつであるが,求める性能と応答速度のトレードオフによって決まる.現在の500という数値は,さまざまな質問をシステムに投入し,経験的に決めたものである.\subsubsection{クラス非依存パターン}クラス依存のパターンでは,特定の意味クラスの組み合わせにふさわしい含意表現を発見しやすい.一方,なるべく広い文脈で含意表現として通用するパターンも回答抽出に利用したい.そのために,入力パターンとそのクラス依存の言い換えパターンの集合をクラス非依存の含意パターン,つまり名詞句に何らの意味的制約が加えられていないパターンで補完する.多くの意味クラス対で含意パターンとして通用するものは恐らく非常にロバストで一般的な言い換え表現であるという前提を基に,クラス依存パターン間の各意味クラス対でのSVMスコアを平均したパターン対のデータベースを用意する.あるパターンのクラス非依存の含意パターンは上記のクラス依存のケースと同様のアルゴリズムで選別する.例外処理として1つの意味クラス対としか共起しないパターンを除外する.さらに,「QがPを含意する」という関係におけるパターンQとパターンPにおいて,通常の「QがPを含意する」場合のスコアと,逆向きの「PがQを含意する」場合のスコアが両方向ともに0以上のパターン対のみに限定する.これは確かに片方向の論理的含意関係が成立しているものの,あまりに意味的にかけ離れているパターン対で回答を認識するのを防ぐためである.こうして集められた「含意するパターン」Qは,スコア上位500までの「含意されるパターン」Pと共にデータベースに格納される.得られたQが500個未満の場合には,その時点までに登録されたすべてのQと同じ内容語(動詞,名詞または形容詞)を持つPをスコアの高いものから順に取得し,データベースに登録する.\subsubsection{部分パターン}ソーシャルメディアから得られるテキストはインフォーマルな書き方で知られている.特にTwitterの場合では,tweetが140文字以内という制限があるので,必要最低限の情報しか含まないtweetが多い.そのため,二つの名詞句の存在を前提とするクラス依存パターンやクラス非依存パターンがうまく適用できない場合が非常に多い.この問題に対処するために上記のクラス非依存のパターンを一つの名詞句の存在を前提とする部分パターンに分割する.例えば,「XがYで孤立する」という構文パターンはそれを構成する係り受け関係「Xが孤立する」と「Yで孤立する」に分割される.部分パターンの含意パターンデータベースを次のように用意する.既に説明したクラス非依存パターンの含意データベースを入力とし,それらのパターン対を分割し,変数毎に部分含意パターンの候補ペアを生成する.例えば,(「XがYで孤立する」,「YではXに連絡できない」)というクラス非依存パターン対から(「Xが孤立する」,「Xに連絡できない」)と(「Yで孤立する」,「Yでは連絡できない」)という2つの部分パターン対を含意候補として生成する.この部分パターン対の含意スコアはクラス非依存の含意パターンと同様に,その生成元のクラス非依存の全含意パターン対のスコアの平均とする.ただし,生成元の含意パターン対が1つしかない部分含意パターンは一般性に欠けていると考え,除外する.さらに,クラス非依存パターンと同様に,「QがPを含意する」と「PがQを含意する」の両方向のスコアが0以上のパターン対のみをデータベースに登録する.\subsubsection{部分パターン対のクリーニング}以上の方法で作成した部分パターン対は,それがもたらされたクラス非依存パターン対のスコアを平均した値をスコアとして持っているが,パターンに含まれる用言相当表現と変数との関係を全く考慮していないため,信頼性を欠く場合がある.そこで,次の2つの方法で,部分パターン対をクリーニングする.\begin{itemize}\item活性・不活性極性\cite{Hashimoto2012}を用いて部分パターン対を構成する2つのパターンの極性が異なる部分パターン対は削除する.\item部分パターン対(P-Q)においてパターンを構成する動詞がPとQにおいて同一であるが,変数とその動詞を媒介する助詞が異なる部分パターン対は削除する.例えば,「Xが不足する」と「Xに不足する」などの部分パターン対である.ただし,助詞「は」と「が」の組み合わせは許容し,削除しない.\end{itemize}ここで,活性・不活性極性とは,Hashimotoらが提案した新しい意味極性であり,助詞と動詞の組,すなわち本論文で言うところの部分パターンに対して活性,不活性,中立の3つの極性が付与されている.活性極性が付与された部分パターンはそれを埋める名詞の主たる機能,効果,目的,役割,影響が準備あるいは活性化することを意味し,その典型例としては「Xを引き起こす」「Xを使う」「Xを買う」が挙げられる.不活性の部分パターンは逆にそれを埋める名詞の主たる機能,効果,目的,役割,影響が抑制あるいは不活性化されることを意味し,典型例は「Xを防ぐ」「Xが不足する」「Xを破壊する」などが挙げられる.中立の部分パターンは活性,不活性のいずれも付与できない意味的性質を持つものである.本研究で含意関係を持つものとして生成された部分パターン対には「Xが不足する」「Xが足りる」のように意味的には真逆であり,含意が成立していないものが多数含まれた.これは含意パターン認識で使われている分布類似度がこうした意味的差をとらえられないためであると考えられる.一方で,活性・不活性極性に従えば,「Xが不足する」は不活性,「Xが足りる」は活性であり,それらの差を見ることによって,意味的差異をとらえることができる.我々は,活性部分パターンを11,276個,不活性部分パターンを2,764個,中立部分パターン7,523個を人手でアノテーションしており,このデータを用いて,部分パターン対で極性が異なるものを削除した.以上のクリーニングによって,当初9,192,475個の部分パターン対から1,819,651個のパターン対が削除され,最終的に8,033,759個の部分パターン対がデータベースに格納された.なお,このうち,活性・不活性極性によるフィルタリングの結果除かれた部分パターン対は1,158,716個であった.\subsection{質問応答モジュール}質問応答モジュールは,ユーザが入力した質問文から回答集合を出力するまでの一連のモジュールで構成される.具体的には,質問文から構文パターンを抽出する質問文解析モジュールと,インデックスから回答を検索する回答検索モジュールから構成される.以下に各々の説明を述べる.\subsubsection{質問文解析モジュール}質問文解析モジュールでは,自然言語で入力された質問文の格助詞の変更や疑問代名詞の位置の入れ替えなどをルールベースで行う.これは,複数の質問構文パターンを用いてより多くの含意パターンを獲得し,幅広い回答を取得するための処理である.次に,ルールベースで言い換えられた質問文の構文解析結果から疑問代名詞以外の名詞句一つと疑問代名詞を特定し,その間の係り受け関係パス上にある表現から構文パターンを取得する.例えば,「宮城県で何が不足していますか」という質問が入力された場合,「X(=宮城県)でY(=何)が不足している」という基本的な構文パターンに加え,「YがXで不足している」(格要素の入れ替え),「YはXで不足している」「YがXでは不足している」「XでYは不足している」「XではYが不足している」(助詞の変換),「Xで不足しているY」(ガ格疑問代名詞の被連体修飾化)などの構文パターンが得られる.このようにして得られた構文パターンを用いて,後述する回答検索モジュールで回答インデックスを検索するクエリが生成される.例えば,「X(=宮城県)でY(=何)が不足している」からは,パターンに「XでYが不足している」,Xに対応する名詞句1に「宮城県」を指定したクエリと,部分パターンとして「Yが不足している」,周辺名詞に「宮城県」を指定したクエリが得られる.疑問代名詞以外に2つ以上の名詞句が含まれる場合は,疑問代名詞と名詞句一つとそれをつなぐ文節で表される複数のパターンを抽出する.例えば,「宮城県ではどこで携帯が充電できますか」が入力された場合,「X(=宮城県)ではY(=どこ)で充電できる」,「Y(=どこ)でX(=携帯)が充電できる」の構文パターンが取得される.この結果から,パターンに「XではYで充電できる」,Xに対応する名詞句1に「宮城県」,周辺名詞句に「携帯」が指定されたクエリと,パターンに「YでXが充電できる」,名詞句1に「携帯」,周辺名詞句に「宮城県」が指定されたクエリが生成される.同時に,部分パターンとして「Yで充電できる」,周辺名詞句に「宮城県」「携帯」が指定されたクエリも生成される.なお,クエリで指定される周辺名詞句は,質問文に含まれる全名詞句から,パターンや名詞句1に含まれる名詞句を除外し作成される.質問文解析モジュールでは,質問構文パターンの獲得のほか,疑問代名詞に助詞「は」とともに直接係る名詞がある場合,その名詞を主題語として取得する.例えば,「被災地で不足している食べ物は何ですか」という質問が入力された場合,名詞「食べ物」を主題語として取得する.この主題語は,得られた回答との分布類似度\cite{Kazama2008}により,回答候補を選別するための情報として利用される.例えば,「食べ物」に対して分布類似度が高い上位の名詞には,「お菓子」,「酒」,「魚」,「肉」,「ワイン」,「チョコレート」などの食べ物が含まれている.逆に食べ物と関連性の薄い「タオル」や「電化製品」の分布類似度は非常に低い.このように,主題語と回答候補との分布類似度は,質問の回答として相応しくない回答候補を除外する特徴として利用できる.\subsubsection{回答検索モジュール}最終的な回答の取得に際しては,質問文解析モジュールによって得られた複数の質問構文パターンから,\ref{extract_entailment}節で説明した含意パターンデータベースを引くことで質問構文パターンを含意する含意パターン集合が取得される.ついで,質問構文パターンと質問文中で共起する疑問代名詞以外の名詞句と含意パターン,質問文中の周辺名詞句などをキーとして回答インデックスが引かれ,回答と回答が抽出されたtweetのIDが得られる.より具体的に述べると,一つの質問から得られる複数個の質問構文パターンの各々につき,最大で1,500個の質問構文パターンの含意パターンが生成される.その内訳はそれぞれデータベースに格納されているクラス依存パターンが最大で500個,クラス非依存パターンが最大で500個,部分パターンが最大で500個となる.これらのパターンは質問文中に出現する名詞句と組み合わせて回答インデックスの検索に使われる.また,各々の回答インデックスは本論文の実験では数千万件レベルの大量のtweetをカバーしているため,如何にこの回答インデックスを引く操作を高速化するかが重要になる.現在のシステムでは,BloomFilter\cite{Bloom1970}を利用して,回答インデックスに共起がないパターンと名詞句の組み合わせから成るパターントリプルをメモリー上の操作のみで近似的に検出し,ディスクアクセスを伴う回答インデックスの検索回数を劇的に減らしており,これにより実用的な速度を得ている.これまでにも述べたとおり,二つの名詞句をつなぐ構文パターンと周辺名詞句をキーとする回答インデックス1は,質問文からパターントリプルが取得できた際に検索される.部分パターンをキーとする回答インデックス2は,二つの名詞句をつなぐ構文パターンが質問文から抽出されたときも含め,部分パターンが得られる場合すべてにおいて使用される.さらに,回答インデックス2に対して,パターンやその内容語を周辺名詞句として検索することで,パターンに直接係り受けがない回答も取得できる.また,部分パターンに含まれる内容語のみをとりだし,それを周辺名詞句として検索することも行う.これは例えば「何が不足しているか?」という質問に対して,「不足」のみを周辺名詞句として検索することに相当する.なお,抽出された回答にはストップワードフィルター,場所名フィルター,非場所名フィルターが適用される.ストップワードフィルターは,あらかじめ用意したストップワードリストに回答が含まれる場合にそれを回答リストから削除するものである.ここで使用しているストップワードリストは含意パターンデータベース構築の際に用いた6億ページのWeb文書から形態素態素解析器を使って自動的に認識された名詞句(複合語および単語)のうちで,明らかに解析ミスであり語として認められないものや非常に漠然としており明確な概念を指しているとは言えないもの(例:「皆さん」「双子以上」「その他」),さらには主として機能語的に利用される語(例:「理由」「モノ」)を人手で集めたものである.これは現在164,064個の名詞句を含んでいる.場所名フィルターは,疑問代名詞「どこ」を含む質問に関して,前述した地名・場所名辞書にある語を含む回答,前述した単語クラスタリングの結果から場所名をさす語を多く含む48クラスに含まれる語を含む回答,あらかじめ用意した`.*ホテル',`.*センター'などの場所名のためのパターン113個に合致する回答のいずれでもないものを回答リストから削除する.一方で疑問代名詞「何」を含む質問に関しては,非場所名フィルターを適用する.これは場所名フィルターを逆に用いて地名フィルターでは削除される回答のみを最終的な回答リストに含めるフィルターである.なお,回答が一文字の場合には,そもそも誤答である可能性が高く,また,後述する再現率の計算において問題になるため,そもそも回答リストに含めないこととした.\subsection{入出力モジュール}\label{input_output}入出力モジュールは,ユーザーから入力される質問を質問文解析モジュールに送信し,回答検索モジュールから出力される質問に対する複数の回答を提示する.本モジュールはWebブラウザーを用いたインターフェースを備えており,一連の操作はWebブラウザー上で操作できる.また,回答検索モジュールから出力される大量の回答の俯瞰的な把握を可能にするために,次に述べる2種類のモードで結果を表示する.ひとつは,回答結果を単語の意味クラス毎にまとめて表示するモードであり,もう一方は,場所を尋ねる質問に適した結果の表示方法として,地図上に回答を表示するモードである.以下で,それぞれについて説明する.\subsubsection{意味クラスを利用した回答表示モード(意味マップモード)}\begin{figure}[b]\begin{center}\includegraphics{20-3ia3f3.eps}\end{center}\caption{意味マップモードでの実行例}\label{sem_map}\end{figure}意味クラスを利用した回答表示モードでの実行例を図\ref{sem_map}に示す.この回答表示モードでは,回答が意味クラスごとにまとめられ,異なる色で表示される.色には意味はなく,異なる意味クラスクラスタであることを示すのみである.意味クラスは\cite{Kazama2008}で計算されたものを用いるが,意味クラスの計算対象外であるような長い名詞句に対しては,部分マッチを適用するなどして対応する.この表示方法によって,回答を俯瞰的に把握することが可能となる.回答の文字列をクリックすると,回答を抽出してきた情報源(tweet)へのリンク,もしくは回答を抽出してきたtweetそのもの表示するウィンドウがポップアップし,回答が抽出されたtweetの内容を確認できる.また,画面下部にあるスライダーによって,情報抽出源のテキストの発信時刻による回答の限定が可能である.回答が抽出されたテキストの発信時刻は,一般のWebページを対象とする場合は特定が困難であるが,TwitterやSNS(SocialNetworkingService)であれば,その情報を発信した時刻を容易に特定できる.スライダーによって時間帯を指定すると,その時間帯に発信されたテキストから抽出された回答のみが表示される.特定の期間に発信されたテキストからの回答が欲しい場合や,古くなった情報を非表示にしたい場合などには,この機能を用いて必要とする期間に回答をフィルタリングできる.\subsubsection{地図上へ回答を表示するモード(googleマップモード)}回答を地図上へ表示するモードでの実行例を図\ref{google_map}に示す.この表示方法では,質問の回答となる場所の位置が地図上で表示される.例えば,「宮城県のどこで炊き出しをしていますか」という質問に対して,炊き出しが行われている地点が容易に把握できるようになる.この表示モードにおいて,質問応答サーバーから受け取る情報は,意味マップモードの場合と同一である.このモードでは,地図上に回答を表示するために,次のことを行う.\begin{enumerate}\item質問が場所を尋ねる質問(〜はどこですか,どこで〜できますかなど)の場合,回答は地名・場所名であることから,回答に対応する詳細な記述を後述する地名・場所名辞書から得る.\item(1)で得られた記述を使って,geocoding\footnote{https://developers.google.com/maps/documentation/geocoding/}を用いて住所やランドマーク名から緯度経度の獲得を行いgoogleマップに表示する.\item場所を尋ねる質問以外の場合,回答の情報抽出源一つ一つに対し,\ref{Augment_place}節で述べた地名補完処理で取得した地名の詳細な記述を得る.\item(3)で得られた記述を使ってgeocodingを行い,地図上に表示する.\end{enumerate}\begin{figure}[t]\begin{center}\includegraphics{20-3ia3f4.eps}\end{center}\caption{googleマップモードでの実行例}\label{google_map}\end{figure}地図上に配置されたマーカーをクリックすると,対応する回答と,その回答が抽出されたtweetへのリンクが表示される.意味マップモード同様に,googleマップモードもスライダーによって情報抽出源の発信時刻による回答の限定が可能である.
\section{システムの評価実験}
\label{Experiments}本節では,ここまでで述べた方法を実装したシステムを評価する実験について述べる.システムが実際に運用される場面を想定したシステムの性能を評価することが望ましいが,本論文で提案するシステムは非常に多くのモジュールから構成され,その複雑性や,開発途上にあることを考慮して,システムの基本機能,すなわち質問応答に関して評価を行った.したがって,本論文での実験では入出力モジュールは,直接的にもシステムに組み込まれた形でも評価されていない.システムを評価するために用いたのは,2011年3月9日から同年4月4日までのtweetデータ(約2億2千万tweet,(株)ホットリンク提供)である.ただし,実験では,災害に関連する345個のキーワードによりフィルターした約5,400万のtweetを用いた.この全tweetから,システムが回答を取得するためのインデックスとして,約1億2千万エントリを持つ回答インデックス1と,約7億6千万エントリの回答インデックス2(部分パターン用)が生成された.また,提案システムの評価に加え,次の項目について実験を行った.(1)含意関係認識における活性・不活性極性の有用性を確認する実験.(2)固有表現認識器(NER)の有効性を確認する実験.(3)教師有り学習を用いた回答のランキングの有効性を確認する実験.このそれぞれについても本節で報告する.\subsection{実験の条件}災害時における膨大な情報を整理・分析し,全体的な把握を可能とする本システムでは,入力された質問に対して対象データにおいて目立った回答だけではなく,想定外も含めたロングテール部分に存在する被災者の要望や事実を回答として網羅的に取得する必要がある.そのため,その再現率が重要な評価指標である.本システムの性能を評価するためにこれまで我々が大規模に作成してきた評価セットを用いる\cite{Kawada2013}.この評価セットは,6名で予め作成した質問300問の各々について,質問に関連するキーワードでシステムが対象とするtweetを全文検索した結果をランダムに1,000件を取得し,その結果から人手で回答を抽出することができた192問とその正しい回答(以下,正答と呼び,その数は17,524個である)のセットである.評価セットの正答には質問とは表層的に大きく異なる表現で記載された表現から抽出されたものも多数含まれる.我々が用意した質問は回答が一意に求まるものではなく,ひとつの質問に対して複数の正解が存在する.また,この評価セットは単に質問と正答,つまり名詞句のペアをデータベース化しただけではなく,正答が抽出されたtweetも含んでいる.実験では,この評価セットを用いた.再現率は,評価セットに含まれる正答のうちいくつシステムが回答できたかで評価する.当然ながら,評価セットに含まれていないが,正解と判定される回答をシステムが出力することが考えられるが,それを考慮して再現率を計算すると,新たな正解が見つかる度に再現率がかわるため,評価セットに含まれる正答のみ考慮して再現率を求めた.一方,適合率は,システムの回答をランダムサンプルし,正解かどうかを人間が判定して求めた.表\ref{Q_example}に実験に利用した質問の一部を示す.\begin{table}[t]\caption{実験に利用した質問例}\label{Q_example}\input{03table02.txt}\end{table}\subsection{システムの質問応答性能}\label{Eval_QA}評価では,再現率を計算する際に,システムの回答が正答を部分文字列として含んでいるか,システムの回答が正答に部分文字列として含まれているいずれかの場合を正解とした.その結果,再現率0.519(9,099/17,524)が得られた.この部分文字列による照合では,正答かシステムの回答が一文字である場合に,多数の回答にマッチし,評価の精度が問題になる可能性があるが,前述したように提案システムは一文字からなる単語を回答として出力しない.また,評価セットの正答で一文字のものは全部で106個あったが,システムの出力でそれらにマッチしたものは67個であった.これはシステムの回答の4\%程度に相当する.しかし,これらすべてを回答から除外した場合の再現率は,0.519($=(9,099-67)/(17,524-106)$)と変わらず,この影響は小さいと考える.また,192の質問ごとに再現率を求め,その平均をとると0.428であった.これは,もともとの正答数が小さい質問において,再現率が0となってしまう場合が多い(192問中41問,そのうち回答数が0のものは32問)ためであり,このことから,逆に質問の正解が得られた場合の再現率は,この数値よりも大きい場合が多いことを期待できる.適合率に関しては,全回答から質問と回答のペア250個をランダムサンプルし3名の評価者で正解かどうかを調べ,その多数決により正解を決めた.評価者間の一致度合はKappa値\cite{Fleiss1971}が0.507であった.回答の評価に際しては,回答が抽出された元のtweetが非常に大量の場合があるが,ランダムに選択した最大3個のtweetから正解かどうかを判断した.評価の結果,250問の適合率は,0.608(152/250)となった.例えば,構文パターンを利用した質問では,「どこで風評被害が起きていますか」という質問の回答では,「YでX(=風評被害)が出ている」「X(=風評被害)がYで発生している」「Yで起きているX(=風評被害)」「X(=風評被害)がYで起こる」「X(=風評被害)がYで起きている」などのパターンにより回答を取得している.また,部分パターンを利用した質問では,「なにが汚染していますか」という質問で「Yが汚染されてしまう」「Yが汚染される」「Yの汚染」などのほか,「Yから検出される」「Yからは検出される」などの部分パターンが含意パターンデータベースから取得され利用された.これにより「4号機,正門,ヘリ」などのtweetに「汚染」を含んでいない回答も得ることができている.再現率を下げている要因の一つとしては,回答がまったく取得できない質問が32問あることがある.これらの多くは,質問文を構成する名詞句がtweetにおいて非常に低頻度であり,手掛かりとして役に立たない場合である.例えば,「専門職ボランティア」,「被災者相談窓口」,「被ばく相談」,「被災者就労支援」などの複合名詞や,「津波肺」「クラッシュ症候群」「誤嚥性肺炎」などの固有名である.これらは,該当する複合名詞や固有名が回答インデックスに存在しないか登録されていても非常に少数であった.対応策としては,「被災者相談窓口」を「被災者の相談窓口」とするなどの複合語の分割が有効であり,さらにサ変名詞を語尾にもつ「被ばく相談」「就学支援」のように複合名詞が「行う」「できる」「実施する」などに係る場合は,「被ばくを相談する」,「就学を支援する」などのより汎用的な表現に変換することが必要である.今後,複合語の構造解析手法などを取り入れ,より幅広い質問にも対応できるようにする予定である.また,適合率を評価した回答250についてより詳細に分析した.これらの回答がどういった処理によって抽出されるかを見るとまず,クラス依存,クラス非依存をふくめて「XがYで不足している」のように二つの変数を含むパターンによって得られた回答は全体の6\%(15個)であり,その適合率は0.933であった.また,「Yが不足している」のような部分パターンで抽出された回答は72%(180個)を占め,適合率は0.656であった.さらに部分パターンの内容語を抽出して得られた回答は22%(55個)であり適合率は0.364であった.期待されるように制約の強いパターンで取得されている回答は適合率が高いものの,変数を二つ含む複雑なパターンの適用例はきわめて少なかった.これは「どこが渋滞していますか?」のようなそもそも二つの変数を含むパターンが抽出できない比較的簡単な質問が我々の評価セットに多かったことも理由である.今後「宮城県のどこで渋滞していますか?」のようなより複雑な質問を評価セットに加えると,この制約が強いパターンが適用される割合も増加するものと考える.誤った回答が抽出された要因を見ていくと,もちろん,パターン間の含意の認識誤りも含まれてはいるが,むしろ目立つのは「水は不足していますか?」「水が不足したりして」「水は不足していません」などのように単純な肯定文以外の文から「Xが(は)不足する」のようなパターンが抽出されている場合である.これらの文をムード等の分析ルーチンを導入することによって除くことで最大で10%以上の適合率改善ができると予想している.一方で,「水は不足していますか?」のような質問や要望,「水が不足していたとしたら」のような仮定も,災害時において非常に有用な情報であり,個別に認識することは重要な課題だと考えている.また,地名補完処理の誤りによって,パターンやその内容語から離れた位置に出現する場所名が誤って回答として抽出されるケースがあった.これらは今後,省略,照応解析を導入することで改善していく予定である.\subsection{部分パターン対のクリーニングの効果}\ref{extract_entailment}節で述べた部分パターン間の含意関係のクリーニングが質問応答全体に及ぼす影響について評価を行った.部分パターン間の含意関係とは,例えば「Xが崩落する」「Xが崩壊する」の間に成立する含意関係である.\ref{extract_entailment}節で述べたように,このクリーニングにおいては,活性・不活性極性を用いたクリーニング(活性・不活性クリーニング),ならびに同一の動詞を含む部分パターン間で助詞のみが異なるものを削除するクリーニング(助詞クリーニング)の二種類を行った.まず,提案システムの再現率は0.519,適合率は0.608であったが,部分パターン間の含意関係に対して助詞クリーニングのみ適用し,活性・不活性クリーニングを適用しなかった場合の回答を,提案システムと同様に回答250サンプル(評価者3名による評価)を抽出し,評価したところ,表\ref{cleaning_effect}に示すとおり,再現率0.524,適合率が0.536となった.つまり,再現率は0.005とわずかに向上したが,適合率が0.072と大きく低下したことになる.さらに,活性・不活性クリーニング,助詞クリーニングの両方を適用しなかったときの性能は,再現率が0.533,適合率が0.448となり,やはり再現率がわずかに向上したものの適合率の大幅な低下が見られた.最終的にいっさいクリーニングを行わなかった場合と提案手法を比べると,再現率が0.014程度向上するのに対して,適合率は0.160と大幅に低下している.まとめると,部分パターン対のクリーニングは最終的な回答の質において非常に重要であるということが分かった.特に,一見含意関係とは関係の薄い,活性・不活性という意味極性がそのクリーニングにおいて重要な役割を果たすことが確認できた.\begin{table}[b]\caption{部分パターン対のクリーニングの効果}\label{cleaning_effect}\input{03table03.txt}\end{table}\subsection{固有表現認識器の効果}本研究での提案システムは地名補完モジュールにNERを使用しなかったが,それは以下の実験結果により,NERの有用性が本システムにおいて認められなかったからである.まず,IREX固有表現コーパス\cite{Sekine2000}においてLOCATIONタグのみを残し,これをNER学習データ1とした.次に,TwitterAPIを使用して,実験で用いるtweetとは異なる期間のtweet22万5千件を取得し,これに対し,災害関連のキーワード345個のいずれかを含む11万tweetに対して学習データ1から作成した既存のNERを適用し,LOCATIONタグを付与した.この結果のうち4万文を人手で修正し,これをNER学習データ2とした.これらのNER学習データ1ならびに2をあわせてNER構成用学習データとし,CRF++\footnote{http://crfpp.googlecode.com/svn/trunk/doc/index.html}を用いて形態素単位のNERを構成した.素性テンプレートはCRF++パッケージのサンプルとして含まれているものをそのまま利用した.このNERを評価するために,我々が対象としている5,400万のtweetから1,000tweet(3,017文)をランダムサンプルし,構成したNERを適用した.その結果を人手で修正し,評価用テストセットを作成した.この評価用テストセットの形態素数は約33,000であり,LOCATIONとされる名詞句は,521(866形態素)存在する.これを用いて構成したNERを評価したところ適合率は0.930,再現率は0.839であった.次に我々の質問応答システムで,地名補完モジュールにおける処理対象の特定にNERを組み入れた場合と,形態素単位の文字列によって直接辞書引きすることで特定する場合との違いがシステム全体の質問応答性能に与える影響を調べた.実験に使用したのは,部分パターン対のクリーニングを行う前のシステムであるが,NERの効果を調べるには問題がないと考える.表\ref{NER_effect}に示すとおり,実験結果は,NERを用いない場合が再現率0.533,適合率0.448であり,NERを用いた場合には再現率0.516,適合率0.392と再現率,適合率ともに低下した.この結果から,あるエンティティが地名・場所名辞書に存在しているにもかかわらず,NERがそれを特定できなかった場合や,逆にNERが地名補完モジュールでの処理対象を特定できても地名・場所名辞書に登録されていない場合などがあり,地名・場所名辞書を直接辞書引きしたほうが,より高い性能を発揮できたと考える.\begin{table}[b]\caption{固有表現認識器(NER)の効果}\label{NER_effect}\input{03table04.txt}\end{table}より具体的に,NERで特定されたものがどれだけ地名・場所名辞書を用いて地名補完処理されたかを見てみると次のようになった.NERはテストセットに521あるエンティティのうち,437(再現率0.839)相当を正しく特定できているが,このうち,地名補完処理の対象となったのは,わずか157個である.この数字が小さい理由は,現在の地名補完処理はシステムの持つ地名・場所名辞書にあるエントリしか処理対象としないからであり,さらにはNERの認識結果と地名・場所名辞書との食い違いが大きいからである.一方,地名補完モジュールにて行っている処理では,214個の地名・場所名を特定し,地名補完処理がなされた.もちろん,この地名補完処理がなされた地名・場所名には誤ったものも多数含まれていよう.もともとNERを導入した動機は,NERによって一般名詞や人名等を地名として誤認識することを防げるかもしれないということであった.つまり,地名補完処理対象認識の適合率の向上をねらったということである.おそらく,地名・場所名の誤認識がNERによって防がれたケースもあったものと推測されるが,そもそも地名補完処理が起動されないことのデメリットの方が大きく,最終的な質問回答の性能が低下したものと考える.もちろん,今後NERの認識結果を地名・場所名辞書に追加していくことによって,性能向上を見ることは可能かもしれない.しかしながら,そこで障害となるのはエンティティの基準と,地名補完処理において処理対象とするエンティティ,すなわち地名・場所名辞書のエントリの認定基準とが異なっていることである.例えば,NERの認識結果には外国の地名などあきらかに本タスクでは不要と思われるものも多数存在するし,複合名詞中,例えば「富士スピードウェイ」の「富士」が地名として認識されるといった問題も存在する.また,地名・場所名辞書では地名間の包含関係が情報として含まれているが,NERの認識結果にはそうしたものは含まれない.これらの問題をどう解決していくかが,今後の課題の一つとなる.まとめると,風間ら(風間他2012)の報告と同様に提案システムにおけるNERの効果は確認出来なかった.これをうけて,我々の提案システムではNERを使用していない.この理由は,現状の地名補完処理では,固有表現特定後に地名・場所名辞書にて詳細な地名情報を取得する必要があり,この辞書の網羅性等が性能に影響するためである.さらには,地元でだけ用いられる通称など考慮しなければならない点もあり,これらの問題点をいかに低コストで解決していくかも重要な点であると考えている.今後,自治体などの協力を得て,そうした通称や未登録の避難所をリストアップしていくなどの作業も必要であろう.したがって,システムの性能を向上させるためには,NERの認定基準と本タスクで必要とされる地名・場所名の認定基準との擦り合わせ,さらには地名・場所名辞書との整合性をとる自明でない作業が必要となる.\subsection{回答のランキング}本論文におけるシステムでは,ロングテールに存在する回答についてもすべて出力するという目的から,再現率を重視し,今まで述べてきた手法で発見できたすべての回答を出力している.一方で,自明な拡張は回答にランキングメカニズムを導入し,さらなる拡張を図ることである.本来,再現率を重視しつつ,ランキングを導入し,提案手法よりも高い性能を達成するためには,提案手法よりも公汎な回答を出力し,ランキングに基づいて回答の足切りを行うべきであるが,現状はそこまでの実験は行えていない.代わりに,提案システムが出力する回答全部を教師あり学習に基づいてランキングした結果について報告する.今回行った実験で使ったランキング手法は,回答とパターンに関する素性をもとに学習したSVMのスコアによりランキングを行うものである.表\ref{feature}に,SVMの学習に利用した素性を示す.\begin{table}[b]\caption{回答のランキングに使用する素性一覧}\label{feature}\input{03table05.txt}\end{table}まず,パターンの属性に基づく素性として,質問構文パターン,クラス依存パターン,クラス非依存パターン,部分パターンからのいずれのパターンで回答が得られたか,あるいは部分パターンと部分パターンの内容語によるキーワード検索を用いたかを示す2値の素性を用いる.これに加え,クラス依存パターン,クラス非依存パターン,部分パターンの各スコアを用いる.ある回答が複数の異なるパターンから得られた場合には,その全パターン数,パターンが回答を連体修飾していないどうか,全パターン数と回答を連体修飾していないパターンとの比率を利用する.また回答を抽出した含意パターンや部分パターンが,質問構文パターンと共通の漢字を持つかどうかも利用する.回答の属性に基づく素性では,まず,様々なパターンから得られた同じ回答の個数,その文字数及び形態素数を用いる.次に,回答の意味的な情報として,回答の意味クラス,その意味クラスを特定する際に部分文字列を用いたか,回答のクラスが未特定かどうかの2値の素性を用いる.また,回答を獲得したパターントリプルの構文パターンと2つの名詞句の意味クラスのPMI(相互情報量:Point-wiseMutualInformation),質問構文パターンと質問文中の名詞に基づく回答の意味クラスの尤度\cite{De_Saeger2009}を利用する.また質問文から得られる疑問代名詞と主題語を利用した素性として,疑問代名詞タイプ,回答が疑問代名詞の対応するクラスに属するかどうか,回答と主題語との分布類似度,回答が主題語の下位概念となるかどうか,回答の末尾に主題語を含むかどうかを用いる.上記の素性を用いて,線形,多項式(二次),放射基底関数(RBF,比例定数1)の各カーネルを用いてSVMの学習を行い,いずれのカーネル関数を用いるべきか検討した.学習データは,災害に関連の深い質問60問(これまでの評価で利用した質問とは別である)と,システムが出力した回答のペア合計5,044個に対して正解/不正解のラベルを付与したデータである.なお,このデータは提案システムの古いバージョン,つまり,場所名フィルターや部分パターン含意データベースのクリーニングを行っていないシステムの出力を含んでおり,現在の提案システムでは出力できない回答も含まれている.10分割交叉検定の結果,線形カーネルでF値0.642(適合率0.681,再現率0.607),多項式カーネルでF値0.631(適合率0.626,再現率0.634),RBFカーネルでF値0.529(適合率0.719,再現率0.419)が得られた.本システムではF値が最も高かった線形カーネルにより学習された分類器の出力するスコアを利用することを検討した.\begin{figure}[b]\begin{center}\includegraphics{20-3ia3f5.eps}\end{center}\caption{回答のランキング結果}\label{recall_prec_pic}\end{figure}\ref{Eval_QA}節の実験にて利用した250個の回答サンプル(適合率0.608)を以上の分類器のスコアでランキングした結果が図\ref{recall_prec_pic}である.グラフの再現率は提案システムの出力すべてをSVMのスコアにしきい値をもうけて足切りを行い,足切りを生き延びた回答集合を17,254件の正解データに照らし合わせて計算されたものである.これによると,再現率が0.1前後のところでは適合率が0.90前後でており,きわめて高いものとなっている一方,システムの全回答の再現率0.508に近いところ,例えば,再現率0.4前後のところでは提案手法の適合率に比して,わずかな適合率の向上(0.05前後)しか見られず,また,もうすこし離れたデータポイント(例えば,再現率0.3前後のデータポイント)までの適合率の改善具合もきわめてなだらかである.この評価はあくまで現状のシステムの出力結果のみをランキングしているため,確定的なことは言えないが,前述したように学習データは現在のシステムが出力できない回答に関するものも含まれていないことも考え合わせると,仮に現在のシステムをより大量の回答を出力するように改変し,ランキングによる足切りをおこなったとしても,例えば,再現率0.5前後の部分での適合率向上はきわめて小さなものになる可能性が高いと考えられる.これは再現率を重視するという我々の立場とは相容れないものであり,提案システムにはランキング手法は導入しなかった.一つ今後システムを改善できる可能性があるとすれば,今後さらに学習データを増やしていくことが重要であるが,現在でも約5,000件という少なくない量の学習データを利用していること,また,次回の災害はおそらく東日本大震災とは大きく異なることが予想され,東日本大震災に特化した学習データを作ることは望ましくないと考えられることから,少なくともランキング手法の導入については慎重に検討する必要があると考えている.実際に大規模な災害が発生した後,アノテーションをクラウドソーシングなどで行い,質問応答の精度を高めるといったシナリオは魅力的に見えるかもしれない.しかし,そうしたシナリオを実現するためには,NERの場合と同様にシステム全体としての最適化の枠組みなどが必要だということかもしれず,これも慎重に検討する必要があると考えている.
\section{さらに行き届いた被災情報の活用を目指して}
\label{Prospects}本システムはインターネット経由で得られる情報を収集・分析し,ユーザからの質問に備える.図\ref{practicalimage}は,本システムを災害時にどのように運用するかを示したイメージ図である.各種救援団体,例えば,炊き出しを行うボランティア団体などは,自らの炊き出し実施場所を決めるためにどこで炊き出しを行っているかをシステムに質問し,そのすべての回答を地図上に表示することで,炊き出しが行われていないエリアを確認できる.一方,被災者など個人レベルで本システムを利用する場合には,自分の周辺の状況を把握し,意思決定の助けとするような使い方や,また把握した状況に基づき,自らの周辺状況や救援要請を発信するなどの使い方を考えている.このように,本システムは災害時において,ソーシャルメディア等に溢れる情報を整理し,救援団体や,自治体,被災者らに対して被災状況の全体的把握を容易にする情報をわかりやすく提示することで,被災者の救援・支援に有効である.\begin{figure}[t]\begin{center}\includegraphics{20-3ia3f6.eps}\end{center}\caption{災害時における提案システム運用イメージ}\label{practicalimage}\end{figure}一方で,災害時においては,通信状況等様々な制約から,回答のすべてを確認することが困難な状況も考えられる.そこで,重要と考えられる回答の一部を表示するために,結果をランキングできることが望ましいが,質問に対する一般的な回答の適切さのみならず,過去5分以内に挙げられた情報を求める場合のように情報の新鮮さを重視する場合や,回答の利用目的(見落としているかもしれないものにはやく気づきたい)などによっていくつかの基準が考えられる.時刻による限定は,現在機能として有しているが,ランキングの基準とあわせて今後利用者にとってさらに使いやすくすべきである.さらに,インターネット経由でつぎつぎに情報(テキスト)が流れ込んでくる状況においては,システムが大規模コーパスから獲得して利用している知識,例えば,意味クラス辞書や,含意パターンデータベースを拡張可能かもしれない.しかしながら,これらのデータベースは,一度,大規模なコーパスから獲得してしまえば,大部分のものは長く使えるものである.特に含意パターンデータベースは,名詞句が変数となっており,その経時的変化は非常にゆるやかであると考える.災害発生後にそれまで使っていたパターンとは全く異なるパターンで情報発信することは考えにくい.したがって,事前に大規模なコーパスから獲得した知識を用いていることによって損なわれる有用性は非常に限定されると考える.もちろん,オンライン学習等によって常時知識が更新されつづけるようシステムに拡張すべきであることは言うまでもない.本論文の冒頭で示唆したように,今回の震災時には被災者からのtweetが必ずしも救援者へ届いていないという問題があったようである.本システムは,被災地からの情報を全体的俯瞰的に把握することを可能とする.しかしながら,一度質問した内容でも,対応する情報は被災地の各地から質問後も不定期に投稿される可能性が高く,その情報は常に更新される.比較的落ち着いた時期になれば,定期的に分析システムを利用すればよいが,災害時に様々な対応が必要な自治体などの支援者側は思うようには反応することができないことが予想される.また,情報発信を行っている被災者サイドでも発信した情報が適切な救援者に届いているか否かが不明な状況では,例えばさらに遠くへ避難するか,それとも救助を待つかといった切迫した判断を行えないといった問題が生じえる.\begin{figure}[b]\begin{center}\includegraphics{20-3ia3f7.eps}\end{center}\caption{被災者と救援者の双方向のコミュニケーション}\label{two-way-communication}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{20-3ia3f8.eps}\end{center}\caption{掲示板上での動作例}\label{BBS-example}\end{figure}そこで,我々は,図\ref{two-way-communication}に示すように,本システムの回答インデックス作成モジュールを拡張し,予め救援者がシステムに登録した質問に対しては,以後のtweetや指定したBBS,掲示板に情報が発信された場合に,システムがその内容が登録済みの質問の回答となるかをリアルタイムで判断し,救援者サイドの情報のアップデートを行うとともに,情報提供者にも,質問を登録した救援者にその情報が届いたことが通知される枠組みを開発している.この処理により,図\ref{BBS-example}のように,情報提供者,被災者は自らの発信した情報が救援者に届いたことがわかりその後の意思決定が容易になるとともに,救援者側は欲している情報をリアルタイムで定常的に取得することができ,支援のスピードアップにつながると考えられる.こうした一連の操作は,一言で言えば,現状のマイクロブログ,SNS,掲示板等のいわば一方通行の情報提供から,被災者サイドと支援団体等救援者サイドの双方向のコミュニケーションを担保することとも言え,こうした操作によってよりスピーディかつ適切な救援,避難等が実現できるのではないかと考えている.こうした処理は,これまでに説明した質問応答の処理の方向を大幅に変更することなく実現できる.通常の質問応答処理では,パターントリプルもしくは部分パターンの形式でインデックスに登録されたtweetからの情報を,質問から取得したパターントリプル等を含むクエリにより検索するが,ここでは,あらかじめ登録された質問に対して,含意パターンなどの獲得を事前にやっておき,含意パターンも含むようなパターントリプル等をキー,質問を値とする別種のいわば質問のインデックスを作成しておく.例えば,「宮城県で不足しているのは何ですか?」といった質問が登録されているとするならば,「Xで足りないY」といった含意パターンや,「宮城県」といった名詞句を含むパターントリプルをキーとし,「宮城県で不足しているのは何ですか」という質問を値とするような質問のインデックスが作成される.掲示板等の記事やtweetが新規にシステムに渡されると,将来問われる質問にそなえてこれまでに説明してきた回答インデックスが作成されるが,その際,生成されるパターントリプルをキーとして,過去に登録された質問のインデックスを検索する.もしこの質問のインデックスの検索がヒットすれば,値となっている登録済み質問の回答をアップデートするとともに,対応する新規のtweet,記事等の作者に対して,登録された質問への回答として提供された情報が認識されたことを通知する.現状は,こうした枠組みをサーバー一台の上で動作させることができており,今後,大規模な計算機クラスタ上等で想定されるような大量の情報がやってきたときでもリアルタイムの処理が可能なシステムを開発していく予定である.\begin{figure}[t]\begin{center}\includegraphics{20-3ia3f9.eps}\end{center}\caption{「放射能に効くのは何ですか」という質問に対するシステム出力}\label{radiation_example}\end{figure}本システムのもう一つの応用としては,ソーシャルメディア上で流通している様々なデマの早期発見とエキスパートによる反論を支援するものが考えられる.例えば,図\ref{radiation_example}で「放射能に効くのは何ですか」という質問に対してのシステム出力を示す,「イソジン」,「わかめ」,「活性炭」など,デマと思われるものが大量に含まれる.このような質問も予めにシステムに登録することで,信頼性が低い情報あるいは有害情報が爆発的に拡散される前に,書き込まれた時点に認識され,デマが大量に拡散する以前にエキスパートによってデマを打ち消す情報をスピーディに発信することが可能となると考えられる.また,本システムが提示する回答にはそもそも大量のデマが含まれている可能性があるが,我々は本システムを東北大学で開発されている言論マップ(水野,Nicoles,渡邉,村上,松吉,大木,乾,松本2011)\nocite{Mizuno2011}と組み合わせることで回答を閲覧したユーザが回答のデマ性についてより適切な判断を下すことができるようになると考えており,実際に言論マップとの統合を計画している.現在の言論マップでは,例えば「イソジンは放射能に効く」という情報に対して,それを肯定している情報と否定している情報をソーシャルメディア上の情報から発見して提示することが可能である.こうした肯定的情報,否定的情報は通常のソーシャルメディアの閲覧環境では簡単に見つけることは難しいが,本システムに言論マップを組み合わせることで,回答には常に肯定的情報,否定的情報をあわせて表示することが可能となり,ユーザは疑わしい情報に関しては,こうした情報を参考にしつつその真偽を判断する材料とすることができる.
\section{関連研究}
\label{Related_work}近年では,検索エンジンや質問応答システムなど,情報へのアクセス手段の進歩が目覚ましい.例えば,質問応答システムとしてはIBM社のWatson\cite{Ferrucci2010}がクイズ番組の人間のチャンピオンに圧勝し一躍有名になった.Watsonは,Wikipediaを含む辞書,辞典や台本などJeopardyというクイズ番組の分野に関連する確かな知識を予め選別し,データベース化している.少なくとも我々の知る限り,情報のリアルタイム更新については想定していないため,逐次更新される災害時の情報などには対応していない.また,災害時に必要なのは,多数の情報を俯瞰的に閲覧することであるが,すくなくともJeopadyにおいて質問はその回答が一意に定まるものに限られており,Watsonが現状すぐに災害時の情報などに適用できるかどうかは不明確である.また,日本においても,「しゃべってコンシェル」\cite{Yoshimura2012}と呼ばれる携帯電話のサービスが注目を浴びている.このシステムは,携帯電話を用いて質問応答を行うものであり,Webの更新データに対応している.このサービスでの質問応答では,「ハリーポッターの監督は誰」のようなある対象物(ハリーポッター)の属性(監督)を聞くタイプの質問は,回答が一意に定まる知識についてWatsonと同じように予め知識のデータベース化を行っている.また,天気やニュースなどについては専用のサービスの結果を返し,それ以外の質問は,キーワード検索と固有表現による質問応答手法を利用している.それでも見つからない場合はキーワードによる検索結果を出力する.我々のシステムは,上記のシステムとは異なり,これまでの含意獲得の研究をもとに,質問文からの含意パターンや部分パターンを取り出し,そのパターンを元に回答を求めている.そのため,質問文から何らかのパターンが獲得できれば,高い精度で回答が可能である.また,固有表現でない一般名詞が回答の場合や,これまでの固有表現\cite{Sekine2000,Sekine2008}では対象としていない表現についても,回答を出力できる.固有表現は,特定の質問に対しては重要な要素であることは間違いないため,今後,回答のランキングに固有表現に関する素性を取り入れて行く予定である.また,災害時の質問にも,一意に定まる質問がされる可能性はあるため,Wikipediaなどの知識を利用した手法\cite{Buscaldi2006}もシステムも取り入れて行く.
\section{おわりに}
\label{Conclusion}本論文では,想定外のものもふくめて,災害時の情報を俯瞰的に把握するために開発した,質問応答に基づく情報分析システムについて述べ,また,東日本大震災時のtweetデータを利用した性能評価について報告した.さらに,本システムを拡張することによって,比較的実現容易な形で,リアルタイムで被災者と救援者が双方向のコミュニケーションを行うことを可能とし,より効率的な救援活動やより適切な避難行動等を支援する枠組みについても提案した.また,東北大学で開発されている言論マップ技術との統合や,リアルタイムでの回答の更新によって,東日本大震災時に問題となったデマに対処する枠組みも提案した.様々な質問に対して回答を提示できるようにするために,本システムでは,質問応答処理において構文パターンの言い換えに基づく質問文の拡張を行い,さらに場所や地名の補完処理を加えることで,幅広い質問に対応した.また,得られた回答を意味クラスごとにまとめるインターフェースと回答を地図上に表示するインターフェースを用意することで被災地の状況や救援状況の俯瞰的把握を可能とした.人手で作成した質問を基にした評価実験では,複合語処理の問題や要望,疑問,仮定を含むtweetの特定の必要性が明らかになった.必要な情報を必要な人に行き渡らせるためには,たとえその回答を必要としている人が一人であっても,回答を提示することが望ましい.こうした点に鑑み,ロングテール部分に存在する被災者の要望にも応えることができる情報分析システムの構築を今後も進めていく予定である.より具体的には,現在5万件以上からなる災害に関連の深い含意パターンの学習データを人手で構築しつつあり,さらに,その他の言語資源も構築中である.今後,こうしたリソースを活用しつつ,また,新規のアルゴリズムを導入することによって性能向上を図っていく予定である.\acknowledgment本研究で利用しているデータは,株式会社ホットリンク様よりご提供頂きました.ここに記して感謝致します.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bloom}{Bloom}{1970}]{Bloom1970}Bloom,B.\BBOP1970\BBCP.\newblock\BBOQSpace/timeTrade-offsinHashCodingwithAllowableErrors.\BBCQ\\newblock{\BemCommunicationsoftheACM},{\Bbf13}(7),\mbox{\BPGS\422--426}.\bibitem[\protect\BCAY{Buscaldi\BBA\Rosso}{Buscaldi\BBA\Rosso}{2006}]{Buscaldi2006}Buscaldi,D.\BBACOMMA\\BBA\Rosso,P.\BBOP2006\BBCP.\newblock\BBOQMiningKnowledgefromWikipediafortheQuestionAnsweringTask.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\727--730}.\bibitem[\protect\BCAY{Cheng,Caverlee,\BBA\Lee}{Chenget~al.}{2010}]{Cheng2010}Cheng,Z.,Caverlee,J.,\BBA\Lee,K.\BBOP2010\BBCP.\newblock\BBOQYouAreWhereYouTweet:AContent-BasedApproachtoGeo-locatingTwitterUsers.\BBCQ\\newblockIn{\BemProceedingsofthe19thACMInternationalConferenceonInformationandKnowledgeManagement(CIKM)},\mbox{\BPGS\759--768}.\bibitem[\protect\BCAY{De~Saeger,Torisawa,Kazama,Kuroda,\BBA\Murata}{De~Saegeret~al.}{2009}]{De_Saeger2009}De~Saeger,S.,Torisawa,K.,Kazama,J.,Kuroda,K.,\BBA\Murata,M.\BBOP2009\BBCP.\newblock\BBOQLargeScaleRelationAcquisitionusingClassDependentPatterns.\BBCQ\\newblockIn{\BemProceedingsoftheIEEEInternationalConferenceonDataMining(ICDM)},\mbox{\BPGS\764--769}.\bibitem[\protect\BCAY{Ferrucci,Brown,Chu-Carroll,Fan,Gondek,Kalyanpur,Lally,Murdock,Nyberg,Prager,Schlaefer,\BBA\Welty}{Ferrucciet~al.}{2010}]{Ferrucci2010}Ferrucci,D.,Brown,E.,Chu-Carroll,J.,Fan,J.,Gondek,D.,Kalyanpur,A.~A.,Lally,A.,Murdock,J.~W.,Nyberg,E.,Prager,J.,Schlaefer,N.,\BBA\Welty,C.\BBOP2010\BBCP.\newblock\BBOQBuildingWatson:AnOverviewofthe{DeepQA}Project.\BBCQ\\newblock{\Bem{AI}Magazine},{\Bbf31}(3),\mbox{\BPGS\59--79}.\bibitem[\protect\BCAY{Fleiss}{Fleiss}{1971}]{Fleiss1971}Fleiss,J.\BBOP1971\BBCP.\newblock\BBOQMeasuringNominalScaleAgreementamongManyRaters.\BBCQ\\newblock{\BemPsychologicalBulletin},{\Bbf76}(5),\mbox{\BPGS\378--382}.\bibitem[\protect\BCAY{Harris}{Harris}{1954}]{Harris1954}Harris,Z.\BBOP1954\BBCP.\newblock\BBOQDistributionalStructure.\BBCQ\\newblock{\BemWord},{\Bbf10}(23),\mbox{\BPGS\142--146}.\bibitem[\protect\BCAY{Hashimoto,Torisawa,De~Saeger,Oh,\BBA\Kazama}{Hashimotoet~al.}{2012}]{Hashimoto2012}Hashimoto,C.,Torisawa,K.,De~Saeger,S.,Oh,J.,\BBA\Kazama,J.\BBOP2012\BBCP.\newblock\BBOQExcitatoryorInhibitory:ANewSemanticOrientationExtractsContradictionandCausalityfromtheWeb.\BBCQ\\newblockIn{\BemProceedingsofthe2012JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL)},\mbox{\BPGS\619--630}.\bibitem[\protect\BCAY{川田\JBA大竹\JBA後藤\JBA鳥澤}{川田\Jetal}{2013}]{Kawada2013}川田拓也\JBA大竹清敬\JBA後藤淳\JBA鳥澤健太郎\BBOP2013\BBCP.\newblock災害対応質問応答システム構築に向けた質問・回答コーパスの構築.\\newblock\Jem{言語処理学会第19回年次大会発表論文集},\mbox{\BPGS\480--483}.\bibitem[\protect\BCAY{風間\JBA{De~Saeger,~S.}\JBA鳥澤\JBA後藤\JBA{Varga,~I.}}{風間\Jetal}{2012}]{Kazama2012b}風間淳一\JBA{De~Saeger,~S.}\JBA鳥澤健太郎\JBA後藤淳\JBA{Varga,~I.}\BBOP2012\BBCP.\newblock災害時情報への質問応答システムの適用の試み.\\newblock\Jem{言語処理学会第18回年次大会講演論文集},\mbox{\BPGS\903--906}.\bibitem[\protect\BCAY{Kazama\BBA\Torisawa}{Kazama\BBA\Torisawa}{2008}]{Kazama2008}Kazama,J.\BBACOMMA\\BBA\Torisawa,K.\BBOP2008\BBCP.\newblock\BBOQInducingGazetteersforNamedEntityRecognitionbyLarge-ScaleClusteringofDependencyRelations.\BBCQ\\newblockIn{\BemProceedingsofthe46thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies(ACL-08:HLT)},\mbox{\BPGS\407--415}.\bibitem[\protect\BCAY{Kloetzer,De~Saeger,Torisawa,Sano,Goto,Hashimoto,\BBA\Oh}{Kloetzeret~al.}{2012}]{Kloetzer2012}Kloetzer,J.,De~Saeger,S.,Torisawa,K.,Sano,M.,Goto,J.,Hashimoto,C.,\BBA\Oh,J.\BBOP2012\BBCP.\newblock\BBOQSupervisedRecognitionofEntailmentbetweenPatterns.\BBCQ\\newblock\Jem{言語処理学会第18回年次大会講演論文集},\mbox{\BPGS\431--434}.\bibitem[\protect\BCAY{Liu,Wei,Zhang,\BBA\Zhou}{Liuet~al.}{2013}]{Liu2013}Liu,X.,Wei,F.,Zhang,S.,\BBA\Zhou,M.\BBOP2013\BBCP.\newblock\BBOQNamedEntityRecognitionforTweets.\BBCQ\\newblock{\BemACMTransactionsonIntelligentSystemsandTechnology},{\Bbf4}(1),\mbox{\BPGS\1--15}.\bibitem[\protect\BCAY{水野\JBA{Nicoles,~E.}\JBA渡邉\JBA村上\JBA松吉\JBA大木\JBA乾\JBA松本}{水野\Jetal}{2011}]{Mizuno2011}水野淳太\JBA{Nicoles,~E.}\JBA渡邉陽太郎\JBA村上浩司\JBA松吉俊\JBA大木環美\JBA乾健太郎\JBA松本裕治\BBOP2011\BBCP.\newblock言論マップ生成技術の現状と課題.\\newblock\Jem{言語処理学会第17回年次大会講演論文集},\mbox{\BPGS\49--52}.\bibitem[\protect\BCAY{Neubig,Matsubayashi,Hagiwara,\BBA\Murakami}{Neubiget~al.}{2011}]{Neubig2011}Neubig,G.,Matsubayashi,Y.,Hagiwara,M.,\BBA\Murakami,K.\BBOP2011\BBCP.\newblock\BBOQSafetyInformationMining---WhatCan{NLP}DoinaDisaster---.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP)},\mbox{\BPGS\965--973}.\bibitem[\protect\BCAY{Ritter,Clark,Mausam,\BBA\Etzioni}{Ritteret~al.}{2011}]{Ritter2011}Ritter,A.,Clark,S.,Mausam,\BBA\Etzioni,O.\BBOP2011\BBCP.\newblock\BBOQNamedEntityRecognitioninTweets:AnExperimentalStudy.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1524--1534}.\bibitem[\protect\BCAY{Sekine}{Sekine}{2008}]{Sekine2008}Sekine,S.\BBOP2008\BBCP.\newblock\BBOQExtendedNamedEntityOntologywithAttributeInformation.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonLanguageResourcesandEvaluation(LREC)}.\bibitem[\protect\BCAY{Sekine\BBA\Isahara}{Sekine\BBA\Isahara}{2000}]{Sekine2000}Sekine,S.\BBACOMMA\\BBA\Isahara,H.\BBOP2000\BBCP.\newblock\BBOQ{IREX}:{IR}and{IE}EvaluationProjectin{J}apanese.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\1475--1480}.\bibitem[\protect\BCAY{Yamada,Torisawa,Kazama,Kuroda,Murata,De~Saeger,Bond,\BBA\Sumida}{Yamadaet~al.}{2009}]{Yamada2009}Yamada,I.,Torisawa,K.,Kazama,J.,Kuroda,K.,Murata,M.,De~Saeger,S.,Bond,F.,\BBA\Sumida,A.\BBOP2009\BBCP.\newblock\BBOQHypernymDiscoveryBasedonDistributionalSimilarityandHierarchicalStructures.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1172--1181}.\bibitem[\protect\BCAY{吉村}{吉村}{2012}]{Yoshimura2012}吉村健\BBOP2012\BBCP.\newblockしゃべってコンシェルと言語処理.\\newblock{\BemIPSJSIGTechnicalReportVol.{\upshape\textbf{2012-SLP-93}(4)}},\mbox{\BPGS\1--6}.\end{thebibliography}\begin{biography}\bioauthor{後藤淳}{1993年徳島大学大学院工学研究科修士課程修了.同年日本放送協会入局.2011年より独立行政法人情報通信研究機構専門研究員.現在,総合研究大学院大学博士課程在学.}\bioauthor{大竹清敬}{2001年豊橋技術科学大学大学院博士後期課程修了.博士(工学).同年より株式会社ATR音声言語コミュニケーション研究所.2006年より独立行政法人情報通信研究機構.音声言語処理,自然言語処理の研究に従事.}\bioauthor[:]{StijnDeSaeger}{2006年北陸先端科学技術大学院大学博士課程修了.博士(知識科学).独立行政法人情報通信研究機構専攻研究員を経て,現在同機構主任研究員.知識の自動獲得の研究に従事.言語処理学会第16回年次大会優秀発表賞等受賞.}\bioauthor{橋本力}{2005年京都大学研究員,2007年山形大学助教,2009年独立行政法人情報通信研究機構専攻研究員.現在,同機構主任研究員.博士(言語科学,情報学).情報処理学会論文賞,言語処理学会論文賞,同学会優秀発表賞等受賞.}\bioauthor[:]{JulienKloetzer}{2006年パリ第6大学卒業,2010年北陸先端科学技術大学院大学博士課程修了.博士(情報科学).2011年独立行政法人情報通信研究機構入所.現在,同機構情報分析研究室研究員.}\bioauthor{川田拓也}{2003年国際基督教大学教養学部卒業.2010年京都大学大学院文学研究科博士後期課程修了.博士(文学).現在,独立行政法人情報通信研究機構情報分析研究室研究員.言語資源の設計と構築に従事.}\bioauthor{鳥澤健太郎}{1995年東京大学大学院理学系研究科中退.同年同専攻助手.北陸先端科学技術大学院大学助教授を経て,現在,独立行政法人情報通信研究機構・情報分析研究室室長及び情報配信基盤研究室室長.博士(理学).日本学術振興会賞など受賞.}\end{biography}\biodate\end{document}
| |
V17N05-03 | \section{まえがき}
本研究では,子供の書き言葉コーパスの収集の取組みとその活用方法の可能性について述べる.自然言語データに関する情報が詳しくまとめられている奈良先端科学技術大学院大学松本裕治研究室\cite[\texttt{http://cl.aist-nara.ac.jp/index.php}]{Web_NAIST}で情報提供されている公開ツール・データによると,現在共有されている国内の言語資源には,国立国語研究所により作成された分類語彙表,小学校・中学校・高校教科書の語彙調査データ,現代雑誌九十種の用語用字全語彙,日本経済新聞や毎日新聞・朝日新聞などの新聞記事データ,国立国語研究所で作成された現代雑誌九十種の用語用字全語彙,IPALなど各種辞書の文例集,源氏物語・徒然草や青空文庫など著作権の消滅した古い文学作品データなどが挙げられる.全て列挙することはできないものの,いずれも調査対象が教科書や新聞,雑誌,辞書,文学作品などに偏っているコーパスが多い.子供の発話資料を共有する取組みであるCHILDESには日本も参加しているものの,日本語を使う子供のコーパスは非常に少ない.子供の言葉コーパスの現状として,海外には主に\begin{enumerate}\itemChildLanguageDataExchangeSystem(CHILDES)(英語をはじめ29ヶ国語の発話データが収められている大規模コーパス)\itemVocabularyofFirst-GradeChildren(MOE)(延べ286,108語,異語数6,412語の小学1年生(5歳から8歳)329名の話し言葉のデータ)\itemThePolytechnicofWalesCorpus(PoW)(6歳から12歳の児童120名より収集された約65,000語の話し言葉コーパス)\itemTheBergenCorpusofLondonTeenagerLanguage(COLT)(ロンドンの13歳から17歳の少年少女の自然な会話を録音した約50万語のコーパス)\end{enumerate}\noindentがある.(1)〜(4)のコーパスはどれも話し言葉コーパスであり,子供の書き言葉コーパスはほとんど存在しない.また子供の発話資料を共有する取組みであるCHILDESには日本も参加しているものの,日本においては,子供の話し言葉コーパス,書き言葉コーパスどちらもほとんど存在しない.電子コーパスの作成においては,コンピュータに機械的にテキストを収集させる方法が一般的である.特定の年齢で使用される書き言葉の電子コーパスを作成するためには,どの年齢の人が書いたテキストなのか判断する必要があるが,コンピュータではその判断が困難である.そのため手作業によって集めざるをえず,多大な手間と労力を必要とする.これが子供の書き言葉電子コーパスがほとんど存在しない理由のひとつであると考えられる.また,研究者が収集した子供の書き言葉資料に基づく研究結果を事例研究の域を越えて普遍的なものにするためには,その資料を共有できるようにすること,特に電子化された言語資源として公開することが必要と考えられるが,その際に立ちはだかる問題の一つとして著作権の保護がある.本研究では,Web上に公開されている作文を収集することによって子供の書き言葉コーパスの作成を行った.しかし,Web上で用例を探して見るだけでなく,その元になった文章を自分のPCにダウンロードし,ダウンロードした本人が使用するだけでなく,その資料を研究グループで複製して共有する場合は問題になる.そのため,著作権処理が必要になる.このように子供の書き言葉コーパスの収集と利用には多大な労力と注意すべき問題があるが,日本の子供の書き言葉コーパスが言語資源として共有されれば,日本語の使用実態の年齢別推移の分析や,子供の言葉に特徴的に現れる言語形式の分析など,国語教育や日本語研究での利用はもちろんのこと,認知発達,社会学など関連分野への貢献など,さまざまな応用の可能性がある.そこで本研究では,子供の書き言葉コーパスとしてWeb上に公開されている小学生の作文データを収集し,書き言葉コーパスとしてまとめたプロセスと結果の報告を行い,そのコーパスの実用例について述べる.
\section{小学生の作文データの収集}
\vspace{-0.5\baselineskip}\subsection{収集手順}収集は2004年〜2005年にかけて行った.調査対象となる全国4,950校の小学校のWebサイトをひとつひとつ訪れ,それぞれのテキストが子供の書いたテキストかどうかを目で判断した.Web上でのキーワード(作文,テキストなど)検索や文部科学省のサイトの利用なども検討したが,多くの小学校が登録している点とサイトの内容により,「Yahoo!きっず」(\texttt{http://kids.yahoo.co.jp/})の小学校カテゴリを調査対象とすることにした.「Yahoo!きっず」とは,株式会社Yahoo!Japanが運営している子供向けポータルサイトである.トップページから小学校カテゴリを選択すると,登録している全国の小学校のWebサイトに進むことができる.これらをひとつひとつ訪れ,小学校が公開している児童の作文を総当りで収集した.各作文が実際に児童の書いたテキストかどうか,何年生が書いたテキストかについては,目で判断した.(1)は収集したテキストの例である(下線は著者によるものである):\vspace{0.5\baselineskip}\begin{quote}(1)3月6日に、\underline{ぼくたちのために\mbox{「6年生を送る会」}を下級生が開いてくれました。}体育館へ入場する時、「地上の星」の音楽がかかる中、\underline{一〜五年生が拍手をして迎えてくれました。}ぼくたちが主役なので、かなりドキドキしました。ぼくは、「去年の6年生もこんなにドキドキしよったんやなー。」と思いながら、みんなの前に6年生が並びました。最初にゲームをしました。ゲームは校内ウォークラリーです。1〜6年生の縦割り班で、校内に隠れている5年生を見つけてゲームをクリアし、シールと言葉の書いたカードをもらいます。カードをならべて文章にするゲームです。ぼくは1回も1位になったことがないので今日こそ1位になるぞと思いました。ゲームがスタートしました。みんないっきにスタートしました。ぼくは自分の班に「卓球室に行こう。」と言いました。さっそく5年生はカーテンにかくれていました。ここではボーリングをしました。みんな上手に転がして残り一個になりました。最後はぼくの投げる番できんちょうしました。ゆっくり転がすと全部当たって「よっしゃー!」とみんな大喜びしました。シールを一つゲットしてカードをもらいました。他にも次々とクリアしていきました。ゲームの内容は、校内のすな時計と鏡の数を当てるとか、つみ木を十個積み上げるとかです。全部クリアして体育館にいくと、ぼくらが一位でした。僕たちの班みんな大喜びでした。班で記念写真をとってもらいました。会の最後に在校生から贈る言葉をもらいました。卒業生のそれぞれの良いところを1〜5年生に言ってもらいました。とてもうれしくて、心に残る会になりました。(URL:\texttt{http://www.kochinet.ed.jp/osaki-e/02/6/0306okurukai/newpage9.htm})\\\end{quote}このテキストでは,下線部の文脈のつながりから,6年生が書いた文章であることがわかる.このような文脈,もしくは「この作文は3年生によって書かれたものです」といったような明確な提示によって判断し,テキストをひとつずつ収集した.様々な観点からの解析の可能性を考え,Webに掲載されているデータにはあえて特別な処理は施さずにコーパスとして登録した.作成したコーパスの情報は以下の通りである.テキストのファイル形式はプレーンテキスト(\texttt{.txt}),使用文字コードはShiftJIS,使用改行コードはCR-LFである.本文格納情報は表\ref{tbl:corpus_form}の形式によりWebページで確認された項目のみ掲載した:量的情報は表\ref{tbl:corpus_stats_1}および表\ref{tbl:corpus_stats_2}の通りである:\begin{table}[p]\caption{コーパスの本文格納情報}\label{tbl:corpus_form}\input{04table01.txt}\end{table}\begin{table}[p]\caption{コーパスの量的情報(1)}\label{tbl:corpus_stats_1}\input{04table02.txt}\end{table}\begin{table}[p]\caption{コーパスの量的情報(2)}\label{tbl:corpus_stats_2}\input{04table03.txt}\end{table}なお,形態素数の算出においては全テキストに対して形態素解析を行い,全形態素数を集計した.形態素解析には日本語形態素解析システムである茶筌(ChaSen)version2.1forWindowsであるWinChaを使用した.収録語数123万語を超える本コーパスは,子供の言葉コーパスとして代表的なCOLTの約50万語と比較しても,教育研究利用価値の高いコーパスと言える.さらに,収集されたテキストは学年別にフォルダに分類するとともに,県別にもフォルダに分類している.県別のテキスト数は表\ref{tbl:corpus_prf_num}の通りである.以上より,国語教育・日本語研究との関係で語や文法の学年別使用実態の推移の分析のみなならず,県別データによる方言研究や性別による比較分析を行うことができる.さらに,タイトルごとに作文を分類すれば,子供が家族や未来,環境問題など社会のことについてどのように考えているかといったことについて調査するなど,さまざまな応用的研究にも役立つ可能性がある.\begin{table}[t]\caption{コーパスの県別テキスト数}\label{tbl:corpus_prf_num}\input{04table04.txt}\end{table}\subsection{著作権処理}収集したデータを上述のような教育研究のために広く役立てることができるようにするために,著作権法上の問題を処理するよう取り組んだ.著者が所属している大学の知的財産部と「文化庁発行の著作権標準テキスト」によれば,収集した作文データの利用法については次の可能性がある.まず,何も著作権処理を行わない場合,収集した作文を分析することは著作権法上問題なく,作文の引用も一定の要件(文化庁発行の著作権標準テキスト「8.著作物などの例外的な無断利用ができる場合」記載)を満たせば侵害しないとされる.しかし,作文の複製については,授業の教材としての複製などを除いては著作権(複製権)を侵害する,とされる.本研究で収集したデータはWeb上に公開されている作文であるため,出典を明記すれば本研究論文中に引用することは問題ないと考えられる.しかし,収集した作文データを上述のような教育研究のために広く役立てるには,複製権の問題を解消する必要がある.作文の著作権者は原則作文を書いた児童本人であり,未成年者の場合その保護者に帰属する.しかし,作文をWebサイトに公開する段階で,小学校側が保護者に許可を得て,小学校長に権利が移行している可能性があると考えられた.作文を書いた児童の保護者全員と直接連絡を取ることは困難であるため,小学校長に連絡をとることを試みた.著者が所属している大学の知的財産部門と相談の上作成した文書を,作文をWeb上に公開している小学校の校長宛に郵送し,作文文章をデータベースに採録し公開及び解析に用いることを許可するかどうか,その際学校名の公開をするかどうかについての可否を尋ね,学校長名のサインを頂戴し,一部を学校に保管し一部を返送してもらった.本来作文の著作権は作文を書いた児童ないしは保護者に帰属するため,児童によって書かれた文章をホームページに公開する段階で小学校の方で保護者の同意を得ていない場合には,保護者の許可を得ていただけるよう便宜を図ってもらえるように依頼した.コーパスに収録した10,006テキストの公開元となっている全265校の小学校長宛に上述の内容の文書を郵送した.その結果,129校から返信があり,74校からデータベースへの掲載と公開の許諾を得ることができた.掲載・公開が許可された作文を格納しているファイル数は3,706であるが,今後協力的な小学校のホームページの作文が掲載されているページを随時閲覧し,更新された作文があれば追加収集し,再度許可を得るなどのプロセスを経てより大きい言語資源としてゆく可能性があると思われる.以下では,本コーパスを実際に使用して分析を行った実用例について述べる.
\section{言語学的利用:子供のオノマトペ学年別使用実態の推移}
\subsection{日本語のオノマトペ}オノマトペとは,仏語の``onomatop\'{e}e'',もしくは英語の``onomatopoeia''に相当する.田守ら(田守,スコウラップ1999)\nocite{Bk_TamAl}によると,オノマトペはさまざまに定義されており,その定義は実に多様であるが,それらに共通している考え方は,オノマトペと考えられている語彙の形態と意味の関係が恣意的ではなく,何らかの形で音象徴的に結びついているということである.例えば「がたん」という語は,一般に現実の音を真似たものであると考えられている.「げらげら」「びりっ」「ひらひら」などの語は,それぞれ擬声語・擬音語・擬態語と呼ばれる.田守らが指摘するように,これらの概念が日本語においてオノマトペという言語範疇と実際に対応するかどうかは本来検討が必要であるが,本研究では,擬声語・擬音語・擬態語をまとめて便宜的にオノマトペと呼ぶ.飛田ら\cite{Bk_HidAl}は,外界の物音や人間・動物の声を表現する方法はいろいろあるが,\break具象的な現実から抽象的な言葉に至るまでには,(1)類似の音・声で対象の音・声を模倣する,(2)音・声による対象の音・声の表現,(3)「映像」による対象の音・声の表現,(4)文字による対象の音・声の表現,(5)擬音語というような5つの段階を踏んでいるとしている.本研究では,これらの5つのうち,(5)にあたるものを擬音語とする.また,本研究では物音と人間・動物の声を分けずに,実際に音が出ているものの表現という観点でひとまとめにし,音の出ていない表現である擬態語と対をなすものとして,擬声語を区別せずに擬音語として扱うことにした.飛田らは,擬態語に関しても,音や声の表現とまったく同様に,外界の様子や心情の表現に,(1)類似の様子で対象の様子を模倣する,(2)音・声による対象の様子の表現,(3)「映像」による対象の様子の表現,(4)文字による対象の様子の表現,(5)擬態語という5つの段階があるとしている.本研究では,これらの5つのうち(5)にあたるものを擬態語とした.擬音語は外界の物音や人間・動物の声を表し,擬態語は外界の様子や心情を表すと述べてきたが,その区別はそう簡単ではない.「雨がザーザー降っているよ」という発話において,話者が軒下にいれば,確かにザーザーで表現される現実音は聞こえてくるため,擬音語ということができる.一方,建物の中からガラス窓越しに見るときなどは,ザーザーという音は聞こえなくとも,話者は激しく降る雨の様子が見えれば,「ザーザー降っている」と表現するだろう.この場合,この「ザーザー」は雨が激しく降る様子を表す擬態語ということになる.このように,元は外界の音を表す表現だったものが,その様子をも表す表現になったとき,擬音語と擬態語を区別することは容易でないばかりか,あまり意味のないことにもなる.以上のことを踏まえ,本研究では『現代擬音語擬態語用法辞典』\cite{Bk_HidAl}を参考にし,擬音語,擬態語,また擬音語とも擬態語ともとることができる語,の3つのパターンに分類し,調査・分析を行った.\subsection{オノマトペ使用の学年別推移調査手順}作成した小学生の作文コーパスには,各学年のテキスト数に大きな差が見られるため,オノマトペ使用の学年別推移を観察するにあたり,オノマトペの出現絶対数ではなく,出現率による比較を行った.その出現率算出の際の母数には,10,006テキストの形態素の数を用いることにした.そこで,各学年の全テキストに対して形態素解析を行い,形態素に分け,その数を集計した.形態素解析には日本語形態素解析システムである茶筌(ChaSen)の,version2.1forWindowsであるWinChaを使用した.解析例を以下に示す:\\\begin{quote}(2)\textbf{原文}時間がたつにつれてひじきは、ぐんぐんへっていきます。ひじきの太さも細くなっていきます。(URL:\texttt{http://www4.i-younet.ne.jp/\~{}smihama/hijiki/hijiki10.html})\textbf{形態素に分けた文}時間/が/たつ/につれて/ひじき/は/、/ぐんぐん/へっ/て/いき/ます/。/ひじき/の/太/さ/も/細く/なっ/て/いき/ます/。\textbf{形態素数}:24語\\\end{quote}オノマトペを集計するにあたり,集計の対象となるオノマトペの電子データ化を行った.オノマトペには,『現代擬音語擬態語用法辞典』\cite{Bk_HidAl}の見出し語1,064語を用い,それらを手作業で打ち込んだ.またその際,擬音語をオノマトペ1,擬態語をオノマトペ2,擬音語とも擬態語ともとれる語をオノマトペ3という3つの分類情報も付加し,オノマトペ辞書を作成した.飛田らは,元は外界の音を表す表現だったものがその様子をも表わす表現になったとき,擬音語と擬態語を区別することは容易でないし意味がないとし,このような語は「〜の音や様子を表す」という記述の仕方で統一するとしている.また,音や声のみを表現する擬音語は「〜の音(声)を表す」とし,様子や心情のみを表現する擬態語は「〜の様子を表す」としている.本研究でもこれらの記述を参照し,下例のように各表現を分類した:\begin{quote}\textbf{オノマトペ1}:擬音語(きーん,ぱん,ぶーん)\textbf{オノマトペ2}:擬態語(するする,ころころ,どきどき)\textbf{オノマトペ3}:擬音語+擬態語(がーん,どんどん,ばしばし)\end{quote}作成したオノマトペ辞書を用いて,コーパスからオノマトペを抽出し,出現数と種類数の集計を学年別に行った.オノマトペは,ひらがなとカタカナで表現されるが,その二つの表現方法に違いが見られなかったため,同じオノマトペであれば,ひらがなとカタカナを区別せずに集計を行った.また,集計の方法としてはPerlを使用した.集計の際,1文字から4文字のものに関しては,(3)や(4)のように,オノマトペでないものが抽出される可能性があった.そのため,コーパスから抽出されたオノマトペのうち,4文字以下のものについては一つ一つ目視で確認を行い,誤って抽出されたものを除去していった.\\\begin{quote}(3)\textbf{誤抽出例}抽出すべき語:ぱく私は谷口君の所へ行った時に、梅干作り用の塩がすっごくしょっ\underline{ぱく}て大粒だった。(URL:\texttt{http://www.agri.gr.jp/kids/sakubun/2000/sakubun17.html})\end{quote}\vspace{1\baselineskip}\begin{quote}(4)\textbf{誤抽出例}抽出すべき語:ガー例えば、ぼくが大好きなハンバー\underline{ガー}は、パンの材料の小麦の八九%、牛肉は六四%を輸入している。(URL:\texttt{http://kids.yahoo.co.jp/docs/event/sakubun2004/contest/sakubun}\\\texttt{03.html})\end{quote}\subsection{結果}\begin{table}[b]\caption{オノマトペの集計結果}\label{tbl:ono_count}\input{04table05.txt}\end{table}子供の作文コーパスから抽出されたオノマトペの出現数と種類を表\ref{tbl:ono_count}に示す.ここでオノマトペの出現数,種類数とは,Aというオノマトペが4つ,Bというオノマトペが3つ抽出された場合,出現数は7,種類の数は2となる:以上の結果から,出現数と種類の数を全形態素数で割り,それぞれ表\ref{tbl:ono_freq}に示されるように出現率を求め,図\ref{fig:ono_freq_change}から図\ref{fig:ono_freq_class}のようにグラフ化した.グラフの横軸は学年を,縦軸は出現率を表している.ただし,種類の数は,学年が上がるに従い上昇する全形態素数と比例しないため,種類の数を用いた出現率については参考程度として記載する.図\ref{fig:ono_freq_change}より,出現数は3年生まで増え,それ以降は減少していることがわかる.また4年生以降は変化が少ない.\begin{table}[b]\caption{オノマトペの出現率[\%]}\label{tbl:ono_freq}\input{04table06.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{17-5ia4f1.eps}\caption{オノマトペ全体の学年推移}\label{fig:ono_freq_change}\end{center}\end{figure}オノマトペの分類別での出現率をグラフ化した図\ref{fig:ono_freq_change}から顕著であるのは,擬音語としての用法(オノマトペ1)は学年を通して少なく,擬態語としての用法(オノマトペ2)が多いということである.\begin{figure}[t]\begin{center}\includegraphics{17-5ia4f2.eps}\caption{オノマトペの分類別学年推移(出現数のみ)}\label{fig:ono_freq_class}\end{center}\end{figure}\subsection{考察}オノマトペ使用の学年別推移を観察していくにあたり,オノマトペの出現率の変化要因として,オノマトペで表されていたことが,意味の類似するオノマトペ以外の表現で表わされるようになることがあるのではないかと考えた.そのため,以下の手順により,相互に意味が類似するオノマトペと形容詞の出現率を学年別に比較することを試みた.五感を表す形容詞34語(楠見,1995)のうち,意味が類似するオノマトペが存在する「明るい」「うるさい」「臭い」「柔らかい」など20語を抽出対象とする形容詞とした.それぞれの形容詞と意味が類似するオノマトペは,例えば「明るい」を『日本語大シソーラス』の索引で検索し,そのカテゴリ内にあるオノマトペ(「きらきら」「ぎらっ」「ぎらぎら」)とした.各形容詞に対応するオノマトペが数多く見られたため,各形容詞とのAND検索によりGoogle検索エンジンにかけ,検索件数が多い順にオノマトペを3個選定した.検索は2009年10月12〜20日にかけて行った.その結果,形容詞20個につき3個のオノマトペ,合計60個のオノマトペが抽出対象となった.選定された形容詞とオノマトペについては,それぞれの学年別の出現数とともに付録1に記載する.これらの形容詞とオノマトペを学年別に分類されたコーパスから抽出し,各々の出現数を集計した.抽出にはgrepコマンドを使用した.また,表記ゆれ・品詞活用などに対応するために正規表現を用いて抽出した(例えば,/$(明る|あかる)(かろ|かっ|く|い|けれ|かれ)$/).得られた出力結果について目視で確認し,誤抽出・誤検索を除去しつつ集計した.その後,形容詞とオノマトペのそれぞれについて学年別に集計された総出現数を形態素数で割り,学年ごとの出現率を得た.結果は表\ref{tbl:adj_ono_freq}と図\ref{fig:adj_ono_change}に示す.\begin{table}[b]\caption{形容詞とオノマトペの出現率[\%]}\label{tbl:adj_ono_freq}\input{04table07.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{17-5ia4f3.eps}\caption{形容詞とオノマトペの出現率推移}\label{fig:adj_ono_change}\end{center}\end{figure}オノマトペの出現率が3年生を境に減少する原因として,オノマトペで表されていたことが,意味の類似するオノマトペ以外の表現で表わされるようになることがあるのではないかと考え,意味が類似する形容詞の出現率との比較を行った.しかし,形容詞の出現率もオノマトペと同様の推移を示し,予想通りの結果とはならなかった.そこで次に,オノマトペの出現率の変化要因を探るため,千葉大学大学院安部朋世準教授による小学校の教科書にみられるオノマトペに関する調査報告\cite[\texttt{http://www.u-gakugei.ac.jp/}\break\texttt{\~{}taiken/houkoku013.pdf}]{Web_Abe}をもとに考察する.安部は,オノマトペが小学校(及び中学校)の国語教科書にどのように現れるかを調査している.平成16年度の小・中学校国語教科書全て(各5種類)を対象として調査した結果,各学年のオノマトペ総数において,最も多いのが中学1年の1,041で,小学2年は582であることから,小学2年の出現数の多さが特徴的であるとしている.安部によれば,小学2年で各教科書が「音をあらわすことば」や「かたかなで書くことば」を学習することによるものである.平成10年告示の小学校学習指導要領における国語では,第1学年・第2学年の〔言語事項〕「イ文字に関する事項」(ア)に「平仮名及び片仮名を読み、書くこと。また、片仮名で書く語を文や文章の中で使うこと。」とあるとのことである.また,『小学校学習指導要領解説国語編』には,その項目の解説として「指導に当たっては、擬声語や擬態語、外国の地名や人名、外来語などについて、文や文章の中での実際の用例に数多く触れながら、片仮名で書く語が一定の種類の語に限られることに気付くようにする。」とあるということから,各教科書でオノマトペを扱う学習が展開されていると考えられるとしている.本研究による小学生の作文にみられるオノマトペの出現率が2年生で顕著に高いという結果は,この小学生の教科書についての調査結果と整合性がある.さらに,安部は,教科書においては,物事を描写する際に小学校低学年から中学年頃までは「オノマトペを使用して描写するもの」あるいは「オノマトペを使って描写することが望ましい」と認識されており,高学年以降になると,次第に「オノマトペ以外の方法で描写するもの」あるいは「オノマトペ以外の方法で描写するのが望ましいもの」として認識されているとしている.この調査結果についても,小学生の作文においてオノマトペの出現率が高学年で減少しているという本研究の解析結果は整合性がある.本研究による作文にみられるオノマトペの出現率の解析結果は,教科書による学習指導の成果あるいは子供の書き言葉への影響を定量的に示しているといえる.以上より,本コーパスを用いることにより小学生が使用する言語表現の学年別使用実態の推移を分析することができ,国語の学習指導の効果指標として,言語習得や国語教育へ貢献できることが示された.また,本コーパスを用いてオノマトペと共感覚比喩の一方向性仮説の関係性について言語学的観点からより詳細な分析を行った研究として,坂本\cite{Art_Sak}があり,本コーパスの有効性はすでに示されつつある.
\section{社会学的利用の可能性}
\subsection{調査対象と手順}作文には小学生が考えていることが反映されていることから,本コーパスは何らかの社会学的テーマについて小学生が考えていることを調査するためにも利用できるのではないかと考え,現代の小学生が家族についてどのような捉え方をしているのかをコーパスから探ってみることにした.本コーパスの幅広い応用の可能性を示唆したい.2.1節に記載したが,男子が書いた全作文数は2,642,女子が書いた全作文数は3,023,男女の別の記載がない作文数が4,341の合計10,006作文である.性別(男・女・記載なし)に分類されたコーパスに対して家族に関する単語(家族語)を抽出し各々の出現数を集計した.単語の抽出にはgrepコマンドを使用した.表記ゆれの対応のため検索パターンにそれぞれ表\ref{tbl:search_pat}中の検索パターンとして記載している正規表現を用いた.得られる出力結果には,「母」から「酵母」「外反母趾」,「パパ」から「パパイヤ」,「はは」から「見るのははじめて」や「わははは」など,抽出対象とする家族語と関連のない語が抽出される場合がある.このような例は,目視で確認し出力結果からは除外して集計した.\begin{table}[t]\caption{検索パターン}\label{tbl:search_pat}\input{04table08.txt}\end{table}ただし,このようなテキストの抽出方法では,記述された文章が作文を書いた本人の家族について述べている文なのかどうかが判別できない.実際(5)や(6)の例のように,自分の家族以外の人を指しているものも多く見られたため,目視によりこのような文章を削除した.該当部分に下線を引いた.\\\begin{quote}(5)私は、ミニトマトを植えました。土がぐにゃぐにゃで足がつかなかったけどついたとこもあったよ。\underline{創麻君のお母さん}とか、\underline{勇人君のお母さん}が優しく教えてくれてとっても嬉しかったです。(URL:\texttt{http://www.agri.gr.jp/kids/sakubun/2000/sakubun13.html})\end{quote}\vspace{1\baselineskip}\begin{quote}(6)帰るとき、ある家族にあって、ふくろをもっていたので「何につかうんだ?」とわたしのお父さんがききました。答えたのは、\underline{むこうのお母さん}でした。「これにホタルをつかまえてかうんだよ」と言ったので、お父さんは、どなってしまいました。(URL:\texttt{http://www.nagano-ngn.ed.jp/higashjs/activities.html})\\\end{quote}以上の手続きの結果,作文を書いた本人の家族に関して書かれたと明確に判別できた作文を格納したファイル数(以下,作文ファイル数)および男女別の内訳は,表\ref{tbl:corpus_file_num}の通りとなった.家族について書かれている全作文中で,父母について言及されている作文とそれ以外の家族について言及されている作文との比率の差の検定を行ったところ1\%水準で有意差がみられた($\chi^2=(1,N=5,665)=46.650,p<.001$).このことから子供にとって両親の影響が大きいことわかる.\begin{table}[t]\caption{家族に関する作文ファイル数内訳}\label{tbl:corpus_file_num}\input{04table09.txt}\end{table}男女ともに母親について言及している作文が最も多く,次に父親について言及している作文が多いことがわかる.男子が書いた作文に占める母親について記述した作文と父親について記述した作文の比率の差の検定を行ったところ,1\%水準で有意差がみられた($\chi^2=(1,N=1,374)=7.166,p<.001$).同様に,女子が書いた作文に占める母親について記述した作文と父親について記述した作文の比率の差の検定を行ったところ,1\%水準で有意差がみられた($\chi^2=(1,N=1,374)=18.576,p<.001$).また,父について記述した作文における男女の比率も,母について記述した作文における男女の比率も比較したが,5\%水準で有意差はなかった.このことから,男子と女子のどちらの方がより母親について記述しやすいかといった傾向はみられなかった.\subsection{分析}亀口\cite{Bk_Kam}は,小学生の標準的な家族のイメージを研究するにあたり,兄弟姉妹や祖父母などが同居しているかどうかに関わらず,親子の関係に限定して研究を行っている.前節で述べたように,作文コーパス中でも,父親と母親に関する記述を含む作文ファイル数が顕著に多い.本研究では,家族のイメージを探る上で,子供が父親や母親とのかかわりをどのように捉えているかという点に着目した.コーパスから抽出された自分の父母について記述している作文を格納しているファイルについて,男女どちらが記述しているものか,父母と何らかのやりとりをしているかどうか,そのやりとりの相手ややりとり自体に対する自分の何らかの感情・評価や行動を記述しているかどうかという観点から分類を行った.\begin{figure}[b]\begin{center}\includegraphics{17-5ia4f4.eps}\caption{父親との関係性}\label{fig:rel_father}\end{center}\end{figure}分類したファイルについて,父親と母親それぞれとのやりとりと,子供の感情・評価や行動の共起関係を比較してみた.そして,父親と母親とのやりとりとそれに対する子供の感情・評価や行動についての関係性の視覚化を試みた.手順としては,まず,抽出された母親と父親についての記述からやりとりと子供の感情・評価や行動に関する部分を抜き出し,やりとりと子供の感情・評価や行動の要素の頻度とそれぞれの要素間の共起頻度を集計した.結果は付録2に示す.ここで,やりとりもしくは子供の感情・評価や行動の要素が記述されていなかった場合は0とした.抽出されたやりとりと子供の感情・評価や行動の関係で,一度しか出てこない事例は削除し,頻度2以上のものを視覚化する対象要素とした.ただし,例えば図\ref{fig:rel_father}において,父親が子供を「怒る」というやりとりにおいては,子供の「怖い」という感情・評価との共起頻度と「好き」という感情・評価との共起頻度はそれぞれ1であるが,「怒る」との関係から出ている矢印は2本となるため,このような場合は視覚化している.視覚化においては,まず,父親と母親それぞれとのやりとりを矢印の線でつないだ.また,やりとりは実線の円で表現した.次に,やりとりと共起関係にある子供の感情・評価や行動を同じように矢印でつないだ.子供の感情・評価や行動は点線の円で示した.やりとりに関する記述がなかった子供の感情・評価や行動については,父親や母親と直接矢印でつないだ.矢印と共起頻度の値の関係性は,図中に凡例として示した.父親との関係性の視覚化結果を図\ref{fig:rel_father},母親との関係性の視覚化結果を図\ref{fig:rel_mother}に示す.父親と母親両者との関係で共通して重要なやりとりは,「言う」であることがわかる.ただし,後でも考察するが,母親の場合の方がより強い結びつきが示されている.\begin{figure}[t]\begin{center}\includegraphics{17-5ia4f5.eps}\caption{母親との関係性}\label{fig:rel_mother}\end{center}\end{figure}まず,父親との関係性の視覚化結果を中心に考察する.父親との関係において興味深いこととしては,母親とのやりとりでは挙げられていない「遊ぶ」というやりとりの要素について,「楽しい」,「嬉しい」,「おもしろい」という子供の感情が結びついていることがわかる.父親と遊ぶことは子供にとって重要なコミュニケーションであることがうかがえる.亀口\cite{Bk_Kam}も,父母ともに子供との絆の形成にはスキンシップが重要であることを述べており,中でも父親においては,やや乱暴に子供を宙に投げて受け止め,肩車をするなど,子供を興奮させて喜ばせる類の筋肉を使う身体接触が大切であるとしている.母親の場合には,「しゃべる」,「聞く」といった言語的なやりとりに対して「楽しい」という感情が結びついているのに対し,父親の場合には,「言う」,「教える」といった言語的なやりとりに対しては「楽しい」という感情が結びついていない.また,「遊ぶ」というやりとりは,「ビデオに撮ってもらう」といった「楽しい」という感情と結びついているその他のやりとりよりも強く「楽しい」という感情と結びついている.このような本研究の分析結果は,亀口の考察を裏付けるものといえる.次に,図\ref{fig:rel_mother}に示す母親との関係性の視覚化結果をもとに考察する.全体として,母親とのやりとりは多様であり,その多様なやりとりから子供が何らかの反応を示していることがわかる.特に,母親の「言う」という行為は子供の作文に非常に多くみられ,数値的にも,「言う」は子供と母親とのやりとり全体の約25\%を占めている.このことは,子供にとって母親の発言が大きな影響力をもっていることを示唆している.さらに,この「言う」という母親とのやりとりに対して,「うれしい」という子供の感情が非常に強く結びついている.「言う」は他の様々な子供の感情,評価,行動とも関係性があることも確認され,子供にとって母親との会話が重要であることが示された.また,「嬉しい」という子供の感情は,母親とのやりとりの様々な行為と結びついていることもわかる.父親との関係性と母親との関係性を比較してみると,やりとりの多様性は母親の場合の方が多く,父親が16種類であるのに対し,母親では25種類ある.また,各やりとりから子供の感情,評価,行動が喚起されている場合も,父親より母親の場合の方が多く,父親では11種類なのに対し,母親では21種類に上り,ほぼ全ての母親とのやりとりに対して何らかの反応が示されている.特に,母親とのやりとりから「うれしい」という感情に結びついている場合が非常に多く,母親が何かを「言う」と「うれしい」という感情が喚起されている.このように視覚化し,全体像を比較しやすくすることにより,各要素の数や広がりが母親の方が大きく,子供との関係性の強さと多様性が大きいことを確認できた.以上の分析結果から,小学生の作文コーパスを分析することによって,なかなか把握しにくい子供と子供をとりまく様々なもの,社会との関係,子供の心の中を垣間見ることもできることを示した.
\section{むすび}
日本の子供の書き言葉コーパスは非常に少ないという現状に着目し,本研究では,全国4,950校の小学校のWebサイトを訪問し,公開されている作文について,各テキストが子供の書いたテキストであることや学年などの情報を確認の上,作文データの収集を行った.また,2.2節で述べた著作権処理によって,収集したコーパスが教育研究のために広く利用されるようにするための取り組みを行った.収集したコーパスの利用の可能性は多岐にわたると期待されるが,本研究では大人よりも子供の言語使用において豊富で多様な使用が観察されると予想されるオノマトペに着目し,その学年別の使用実態の推移について調査した.その結果,オノマトペの出現率は2年生が最も高く,その後は学年が上がるにつれ減少していくことが確認できた.本研究による作文にみられるオノマトペの出現率の解析結果は,教科書で用いられるオノマトペに関する先行研究による調査結果と整合性があり,小学校での国語学習指導の成果を定量的に示しているといえる.さらに,コーパスの社会学的応用の可能性を示唆するため,子供と父母との関係性について調査し,父母とのやりとりとそれに対する子供の反応との関係性が,母親の場合の方が強いことなどを示した.日本の子供の書き言葉を収集し分析した本研究が,言語学,教育学的研究はもちろんのこと,社会学など関連分野へ幅広く貢献できることを願う.\acknowledgment本稿に対して有益なご意見,ご指摘をいただきました査読者の方に感謝いたします.また,本研究の開始時に助言くださった古牧久典氏と,著者の研究室に所属し,本コーパスの収集編纂に協力してくれた児玉公人君(2004年度所属),佐々木大君(2005年度所属),水越寛太君(2007年度所属),小野正理君と清水祐一郎君(2010年度現在所属)に感謝いたします.なお,本コーパスについてのお問い合わせは,\texttt{http://www.sakamoto-lab.hc.uec.ac.jp/}をご参照下さい.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{安部}{安部}{\protect\unskip}]{Web_Abe}安部朋世.\newblock安部朋世「体験活動と言語教育」第2章小・中学校国語教科書にみられるオノマトペ.\\newblock\Turl{http://www.u-gakugei.ac.jp/{\textasciitilde}taiken/houkoku013.pdf}.\bibitem[\protect\BCAY{亀口}{亀口}{2003}]{Bk_Kam}亀口憲治\BBOP2003\BBCP.\newblock\Jem{家族のイメージ}.\newblock河出書房新社.\bibitem[\protect\BCAY{松本}{松本}{}]{Web_NAIST}松本裕治.\newblock自然言語処理学講座奈良先端科学技術大学院大学松本裕治研究室.\\newblock\Turl{http://cl.aist-nara.ac.jp/index.php}.\bibitem[\protect\BCAY{坂本}{坂本}{2009}]{Art_Sak}坂本真樹\BBOP2009\BBCP.\newblock小学生の作文にみられるオノマトペ分析による共感覚比喩一方向性仮説再考.\\newblock\Jem{日本認知言語学会第10回大会発表論文集},\mbox{\BPGS\155--158}.\bibitem[\protect\BCAY{田守\JBAローレンス・スコウラップ}{田守\JBAローレンス・スコウラップ}{1999}]{Bk_TamAl}田守育啓\JBAローレンス・スコウラップ\BBOP1999\BBCP.\newblock\Jem{オノマトペ—形態と意味—}.\newblockくろしお出版.\bibitem[\protect\BCAY{飛田\JBA浅田}{飛田\JBA浅田}{2001}]{Bk_HidAl}飛田良文\JBA浅田秀子\BBOP2001\BBCP.\newblock\Jem{現代擬音語擬態語用法辞典}.\newblock東京堂出版.\end{thebibliography}\clearpage\makeatletter\setcounter{section}{0}\setcounter{subsection}{0}\renewcommand{\thesection}{}\makeatother
\section{付録}
\subsection{オノマトペの集計結果}3.4節の考察で用いた,五感形容詞とオノマトペの集計結果を表\ref{tbl:adj_ono_num}に示す.\subsection{視覚化のためのやりとりと子供の感情,評価,行動の分類結果}4.2節の分析で図\ref{fig:rel_father}および図\ref{fig:rel_mother}を視覚化するための,父親ないし母親とのやりとりと子供の感情・評価や行動に関する集計結果を表\ref{tbl:rel_father}および表\ref{tbl:rel_mother}に示す.\vspace{1\baselineskip}\input{04table10.txt}\clearpage\begin{table}[t]\begin{flushright}\hfill\begin{minipage}{95pt}\caption{父親の分類結果}\label{tbl:rel_father}\end{minipage}\par\scalebox{0.78}{\input{04table11-1.txt}}\end{flushright}\vspace*{20pt}\hfill\begin{minipage}{95pt}\caption{母親の分類結果}\label{tbl:rel_mother}\end{minipage}\scalebox{0.78}{\input{04table12-1.txt}}\end{table}\clearpage\begin{table}[t]\vspace{18pt}\scalebox{0.78}{\input{04table11-2.txt}}\vspace*{20pt}\vspace{18pt}\scalebox{0.78}{\input{04table12-2.txt}}\end{table}\clearpage\begin{biography}\bioauthor{坂本真樹(正会員)}{1998年東京大学大学院総合文化研究科言語情報科学専攻博士課程修了.博士(学術).同年,同専攻助手に着任.2000年電気通信大学電気通信学部講師,2004年同学科助教授を経て,2010年より同大学大学院情報理工学研究科総合情報学専攻准教授.日本認知言語学会,日本認知科学会,電子情報通信学会,CognitiveScienceSociety等各会員.}\end{biography}\biodate\end{document}
| |
V09N01-05 | \section{はじめに}
\label{sec:intro}機械翻訳などの多言語間システムの構築において対訳辞書は必要不可欠であり,その品質がシステム全体の性能を左右する.これらに用いられる対訳辞書は現在,人手によって作成されることが多い.しかし,人手による作成には限界があり,品質を向上するためには膨大な労力が必要であること,辞書の記述の一貫性を保つことが困難であることが問題となる.このことからコーパスから自動的に対訳辞書を作成しようとする研究が近年盛んに行われている\cite{gale_91,kaji_96,kitamura_96,fung_97,melamed_97}.本論文では,最大エントロピー法を用いて対訳コーパス上に対訳単語対の確率モデルを推定し,自動的に対訳単語対を抽出する手法を提案する.本論文では対訳関係にある単語の組を対訳単語対と呼ぶ.最大エントロピー法は,与えられた制約の中でエントロピーを最大化するようなモデルを推定するという最大エントロピー原理に基づいており,未知データに対しても確率値をなるべく一様に配分するため,自然言語処理においてしばしば問題となるデータスパースネスに比較的強いという特徴を持っている.このため,構文解析\cite{ratnaparkhi_97,wojciech_98,uchimoto_99},文境界の同定\cite{reynar_97},動詞の下位範疇化モデル\cite{utsuro_97b}などに応用されている.また我々の手法は,既存の対訳辞書を必要とせず,文対応の付いた対訳コーパスさえあれば,対訳コーパスの分野を限定することなく対訳単語対を抽出できるという特徴を持つ.本論文の構成は以下の通りである.\ref{sec:ME_method}節では最大エントロピー法について説明し,\ref{sec:MEdict}節では最大エントロピー法を用いて対訳単語対を抽出する手法を述べる.\ref{sec:experiment_discussion}節では我々が提案した手法の有効性を示すために行った実験の結果とそれに対する考察を述べ,関連研究との比較を行う.\ref{sec:future}節でまとめを述べる.
\section{最大エントロピー法}
\label{sec:ME_method}一般に確率モデルは,履歴とその時の出力の関係を既知のデータから推定される確率分布によって表す.この際,履歴の種類を多くすればより正確に出力を予測することができるが,履歴の種類を多くしすぎるとそれぞれの履歴における既知データの数が少なくなり,データスパースネスに陥ってしまう.最大エントロピー法では履歴と出力の関係を素性関数で表し,それぞれの素性関数に関して既知データにおける確率分布の期待値と推定すべき確率分布の期待値が等しくなるという制約のもとで,確率分布のエントロピーが最大となるようなモデルを推定する.この操作は,既知データにおいて出現しなかったもの,あるいは稀であったものに対しても一様分布に近づいていくということを意味しており,このため最大エントロピー法はデータスパースネスに対して比較的強いとされている.この性質は,言語モデルのように既知データにおいて全ての事象を扱うことが難しい現象を扱うのに適したものであると言える.最大エントロピー法では,以下のように確率分布を推定する.$X$を履歴の集合,$Y$を出力の集合とする時,既知データの集合$\{(x_i,y_i)\|\x_i\inX,y_i\inY\}$から確率分布$P(y|x)$を推定することを考える.まず,求めたい確率モデルの統計的特性(素性)によって集合$X\timesY$を二つの集合に分割する2値関数$f:X\timesY\rightarrow\{0,1\}$を定義する.このような関数は素性関数と呼ばれる.この時,既知データにおける確率分布$\tilde{P}(x,y)$に関する$f$の期待値と推定すべき確率分布$P(y|x)$に関する$f$の期待値が等しくなるという制約を与える.\begin{equation}\label{eq:constraint}\sum_{x,y}\tilde{P}(x,y)f(x,y)=\sum_{x,y}P(x)P(y|x)f(x,y)\end{equation}計算量の観点から右辺の$P(x)$の代わりに$\tilde{P}(x)$で近似することが多い.ここで,$\tilde{P}(x,y)$,$\tilde{P}(x)$は既知データにおける$(x,y)$,$x$の出現頻度$c(x,y)$,$c(x)$から得られる相対頻度を用いる.\[\tilde{P}(x,y)=\frac{c(x,y)}{\sum_{v,w}c(v,w)}\]\[\tilde{P}(x)=\frac{c(x)}{\sum_vc(v)}\]モデル化の過程において重要であると思われる$n$個の素性関数$f_i$がある時,すべての$f_i$について式(\ref{eq:constraint})を満たすような確率分布は一般的には複数存在するため,これらの中から最も一様な確率分布を選択するのが自然である.条件付き確率分布$P(y|x)$の一様性の数学的な尺度としては条件付きエントロピーがよく用いられ,これを最大とする確率分布が求めるべき確率分布となる.\begin{equation}\label{eq:cond_entropy}H(P)=-\sum_{x,y}\tilde{P}(x)P(y|x)\logP(y|x)\end{equation}このような確率分布は唯一存在し,以下のような$\lambda_i$をパラメータとする形式で表すことができる.\begin{eqnarray}\label{eq:gibbs}P_\lambda(y|x)=\frac{1}{Z_\lambda(x)}\exp\left(\sum_i\lambda_if_i(x,y)\right)\\Z_\lambda(x)=\sum_y\exp\left(\sum_i\lambda_if_i(x,y)\right)\nonumber\end{eqnarray}パラメータ$\lambda_i$の推定にはImprovedIterativeScalingアルゴリズム\cite{berger_96}などが用いられる.
\section{最大エントロピー法による対訳単語対の抽出}
\label{sec:MEdict}本節では,最大エントロピー法を対訳単語対の抽出に適用する手法を述べる.まず,確率分布の事象の定義を行い,次に対訳単語対の確率分布を推定する際に用いる素性関数を定義する.最後に,得られた確率分布を用いて対訳単語対を抽出する手法を述べる.\subsection{事象の定義}\label{sec:problem_setting}原言語のコーパス$X$,目的言語のコーパス$Y$が対訳となっており,それらの間で単語間の対訳関係が観測されたとする.この時,観測値から得られる同時出現確率は以下の式で表される.\begin{equation}\label{eq:em_joint}\tilde{P}(x,y)=\frac{c(x,y)}{\sum_{v\inX,w\inY}c(v,w)}\end{equation}ここで$c(x,y)$は単語$x$と$y$が対訳関係で出現した回数である.しかし実際には対訳コーパスから単語間の対訳関係を計数することは膨大な労力が必要であるため,文対応があらかじめ付いている対訳コーパスを用いた場合は対訳文の単語数に応じて出現回数を均等に割り振り,式(\ref{eq:article_joint})のように出現回数を近似する.\begin{equation}\label{eq:article_joint}c(x,y)=\sum_i\frac{c'_i(x,y)}{|X_i||Y_i|}\end{equation}ここで,$X_i$は原言語のコーパス$X$の$i$番目の文,$Y_i$は目的言語のコーパス$Y$の$i$番目の文を表す.すなわち$X_i$と$Y_i$は対訳関係にあるものとする.また,$|X_i|$,$|Y_i|$はそれぞれ$X_i$,$Y_i$の文中に含まれる単語数を表し,$c'_i(x,y)$は$i$番目の文において$x$と$y$が出現した回数である.このようにして観測値から得られた$\tilde{P}(x,y)$から,原言語の中に$x$が出現した時に目的言語において$x$が$y$に翻訳される確率$P(y|x)$を推定する.\subsection{素性関数の定義}\label{sec:def_feature}どのような素性関数を定義するかという問題は最大エントロピー法によるモデル化において最も重要である.本論文では以下の4種類のモデルの素性関数を定義した.\subsubsection{対訳文中に現れる単語対の情報を用いた素性関数(素性タイプ1)}\label{sec:model1}対訳コーパスにおいて対応する文で出現したことのある単語対$x,y$は対訳関係にある可能性がある.これを確率モデルに反映させるために以下のような素性関数を定義する.\begin{equation}\label{eq:model1}f_x(x,y)=\left\{\begin{array}{ll}1&\left(\parbox{4.5cm}{\begin{flushleft}$x\inX_i$,$y\inY_i$\\を満たすような$i$が存在する\end{flushleft}}\right)\\0&{\rm(それ以外)}\end{array}\right.\end{equation}\subsubsection{原言語における共起情報を用いた素性関数(素性タイプ2)}\label{sec:model2}一般に,単語はそれと共起する単語によってある程度意味を限定することができる.このことを利用し,原言語のコーパス$X$における単語の共起情報を用いて素性関数を定義する.\begin{equation}\label{eq:model2}f_w(x,y)=\left\{\begin{array}{ll}1&\left(\parbox{5cm}{\begin{flushleft}$x,w\inX_i$,$y\inY_i$,$x\inW(d,w)$\\を満たすような$i$が存在する\end{flushleft}}\right)\\0&{\rm(それ以外)}\end{array}\right.\end{equation}ただし$W(d,w)$はコーパス中で$w\inX$から$d$語以内に出現する単語の集合である.今回の実験では$d=5$とした.$f_w(x,y)$は$x$が$y$に翻訳されることに対して$x$と共起関係にある$w$が予測力を持っているかどうかということを表す(図\ref{fig:cooccurance}).\begin{figure}[htbp]\begin{center}\atari(88,37)\caption{原言語における共起情報を用いた素性関数}\label{fig:cooccurance}\end{center}\end{figure}\subsubsection{原言語と目的言語における共起情報を用いた素性関数(素性タイプ3)}\label{sec:model3}\ref{sec:model2}節で述べた素性関数に目的言語のコーパス$Y$における共起情報を付け加えたものを定義する.\begin{equation}\label{eq:model3}f_{w,v}(x,y)=\left\{\begin{array}{ll}1&\left(\parbox{7.2cm}{\begin{flushleft}$x,w\inX_i$,$y,v\inY_i$,$x\inW(d,w)$,$y\inW(d,v)$\\を満たすような$i$が存在する\end{flushleft}}\right)\\0&{\rm(それ以外)}\end{array}\right.\end{equation}$f_{w,v}(x,y)$は$x$が$y$に翻訳されることに対して$x$と共起関係にある$w$と$y$と共起関係にある$v$が予測力を持っているかどうかということを表す(図\ref{fig:cooccurance2}).\begin{figure}[htbp]\begin{center}\atari(89,37)\caption{原言語と目的言語における共起情報を用いた素性関数}\label{fig:cooccurance2}\end{center}\end{figure}\subsubsection{品詞情報を用いた素性関数(素性タイプ4)}\label{sec:model4}対訳文において対訳関係にある単語同士は同じような形態素的意味を持つ品詞であることが望ましい.しかし,それぞれの言語における形態素解析器の品詞タグセットが全く同じであることは稀である.そこで本論文では各言語の形態素解析器が出力する品詞タグ情報をそのまま使用し,その組み合わせで素性関数を定義する.\begin{equation}\label{eq:model4}f_{t,s}(x,y)=\left\{\begin{array}{ll}1&\left(\parbox{6.5cm}{\begin{flushleft}$x\inX_i,y\inY_i$,$POS(x)=t$,$POS(y)=s$\\を満たすような$i$が存在する\end{flushleft}}\right)\\0&{\rm(それ以外)}\end{array}\right.\end{equation}ここで$POS(x)$は言語$X$における単語$x$の品詞タグ,$POS(y)$は言語$Y$における単語$y$の品詞タグである.$f_{t,s}(x,y)$は$x$が$y$に翻訳されることに対して$x$に割り当てられた品詞$t$と$y$に割り当てられた品詞$s$が予測力を持っているかどうかということを表す(図\ref{fig:morphological}).\begin{figure}[htbp]\begin{center}\atari(88,42)\caption{品詞情報を用いた素性関数}\label{fig:morphological}\end{center}\end{figure}\subsection{対訳単語対の抽出アルゴリズム}\label{sec:extracting}本節では,前節までに述べた手法によって得られた確率モデルを用いて対訳単語対を抽出する手法を述べる.本手法では1単語対1単語の対訳関係を仮定し,CompetitiveLinkingAlgorithm\cite{melamed_97}と類似した抽出アルゴリズム\footnote{CompetitiveLinkingAlgorithmとは対訳単語対の対応度の計算方法が異なる点を除き,本質的には同じアルゴリズムである.}を採用する.\begin{enumerate}\item[1.]閾値$th\in[0,1]$を決める.\item[2.]すべての$(x,y)\inX\timesY$について$P(y|x)$を計算し,$P(y|x)\geqth$となる$(x,y)$をリストに保持する.\item[3.]リストを$P(y|x)$について降順にソートする.\item[4.]\label{enum:rep}$P(y|x)$が最大となる(すなわちリストの先頭にある)$(x',y')$を対訳単語対として抽出する.\item[5.]本手法では1単語対1単語の対訳関係を仮定しているので,$x'$や$y'$を含む単語対は二度と抽出されない.したがって$\left\{(x',v)|v\inY\right\}$や$\left\{(w,y')|w\inX\right\}$に含まれるような単語対をリストから削除する.\item[6.]抽出すべき単語対がまだ存在すれば4.へ戻る.\end{enumerate}
\section{実験と考察}
\label{sec:experiment_discussion}本節では本論文で述べた手法による実験結果を示し,それに対する考察を述べる.最後に関連研究との比較を行う.\subsection{実験結果}\label{sec:result}本論文でここまで述べた手法を用いて英語$\cdot$日本語間の対訳単語対を抽出する実験を行った.今回の実験では対訳コーパスとして通産省電子技術総合研究所\footnote{現在は独立行政法人産業技術総合研究所}において電子化された講談社和英辞典に含まれる例文のうち30,287文を用い,原言語のコーパス$X$として英語文,目的言語のコーパス$Y$として日本語文を使用した.そのうち,学習コーパスとして27,258文,テストコーパスとして3,029文を用いた.日英対訳例文に対して日本語文は茶筌\footnote{{\tthttp://chasen.aist-nara.ac.jp/}}\cite{chasen20},英語文はBrillTagger\footnote{{\tthttp://www.cs.jhu.edu/$\sim$brill/code.html}}\cite{brill_94}を用いて形態素解析を行った.助詞,助動詞などの機能語,出現回数が極めて多い単語(出現回数1,000回以上),出現回数が極めて少ない単語(出現回数3回以下)を推定から除外した.その結果今回の実験の対象となる単語の語彙数は表\ref{tab:corpus}の通りとなった.\begin{table}[htbp]\centering\caption{コーパスの語彙数}\label{tab:corpus}\begin{tabular}{l|r|r|r}\hline&\multicolumn{1}{c|}{文数}&\multicolumn{1}{c|}{英語語彙数}&\multicolumn{1}{c}{日本語語彙数}\\\hline学習コーパス&27,258&4,664&6,796\\テストコーパス&3,029&3,540&5,753\\\hline\end{tabular}\end{table}学習コーパス中で観測された素性の総数はおよそ4,350万個であった.そのうち確率モデルの推定には学習コーパスで5回以上観測された素性12,368個を用いた.表\ref{tab:feature}にその内訳を示す.\begin{table}[htbp]\centering\caption{学習に使用した素性}\label{tab:feature}\begin{tabular}{c|l|r}\hline\multicolumn{1}{c|}{素性タイプ}&\multicolumn{1}{c|}{素性の種類}&\multicolumn{1}{c}{個数}\\\hline1&対訳文中に現れる単語対(\ref{sec:model1}節)&4,086\\2&原言語における共起情報(\ref{sec:model2}節)&3,112\\3&両言語における共起情報(\ref{sec:model3}節)&5,011\\4&品詞情報(\ref{sec:model4}節)&159\\\hline\end{tabular}\end{table}これらの素性を用いて最大エントロピー法により対訳単語対の確率分布の推定を行った.その際のパラメータ推定にはImprovedIterativeScalingを採用し,その反復回数は400回に設定した.表\ref{tab:ME_result}に本手法による対訳単語対抽出の実験結果を示す.対訳単語対の抽出の際に用いる閾値$th$は$0.5$からはじめ,$0.1$刻みに$0.1$まで下げた.閾値の段階別に対訳単語対として抽出された総抽出数,そのうちの正解数,精度($=\rm{正解数}/\rm{総抽出数}$),再現率($=\rm{正解数}/\rm{日本語語彙数}$)を記す.対訳単語対が正解であるかどうかは既存の辞書を用いて人手により判定した.表の左側は学習コーパスにおける抽出結果である.右側は学習コーパスで学習したパラメータを使用してテストコーパスに対して抽出アルゴリズムを適用したときの結果である.\begin{table}[htbp]\begin{center}\caption{最大エントロピー法による抽出結果}\label{tab:ME_result}\begin{tabular}{r|rr|rr||rr|rr}\hline&\multicolumn{4}{c||}{学習コーパス}&\multicolumn{4}{c}{テストコーパス}\\\hline\multicolumn{1}{c|}{閾値}&\multicolumn{1}{c}{正解数}&\multicolumn{1}{c|}{総抽出数}&\multicolumn{1}{c}{精度(\%)}&\multicolumn{1}{c||}{再現率(\%)}&\multicolumn{1}{c}{正解数}&\multicolumn{1}{c|}{総抽出数}&\multicolumn{1}{c}{精度(\%)}&\multicolumn{1}{c}{再現率(\%)}\\\hline0.5&4&5&80.00&0.06&33&51&64.71&0.57\\0.4&24&29&82.76&0.35&55&90&61.11&0.96\\0.3&154&181&85.08&2.27&252&387&65.12&4.38\\0.2&486&604&80.46&7.15&759&1,224&62.01&13.19\\0.1&1,481&2,011&73.64&21.79&1,397&2,329&59.98&24.28\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:correct}に本手法による対訳単語対抽出の実験によって抽出された対訳単語対の正解例を示す.\begin{table}[htbp]\centering\caption{本手法で抽出した対訳単語対の正解例}\label{tab:correct}\begin{tabular}{l|l|l||l|l|l}\hline\multicolumn{1}{c|}{英語$x$}&\multicolumn{1}{c|}{日本語$y$}&\multicolumn{1}{c||}{$P(y|x)$}&\multicolumn{1}{c|}{英語$x$}&\multicolumn{1}{c|}{日本語$y$}&\multicolumn{1}{c}{$P(y|x)$}\\\hlinesturdy&たくましい&0.6194&hat&帽子&0.4400\\snore&ねむれる&0.5128&chair&いす&0.4304\\trouser&ズボン&0.4907&ambassador&大使&0.4236\\battery&バッテリー&0.4808&library&図書館&0.4211\\negotiation&交渉&0.4634&explanation&説明&0.4209\\taxi&タクシー&0.4599&film&映画&0.4197\\fish&魚&0.4515&pneumonia&肺炎&0.4195\\rally&たちなおる&0.4195&baseball&野球&0.4068\\dog&犬&0.4134&music&音楽&0.4035\\criminal&犯人&0.4100&fuel&燃料&0.4028\\pistol&ピストル&0.4087&toy&おもちゃ&0.3975\\\hline\end{tabular}\end{table}\vspace{1em}\subsection{未知語と解析精度}\label{sec:unknown}本論文で提案した手法によるテストコーパスにおける抽出実験において,テストコーパスにのみ現れた未知の日本語単語と学習コーパスにも現れた日本語単語に分けて精度と再現率を計算した結果を表\ref{tab:test_corpus}に示す.抽出アルゴリズムにおける閾値$th$は$0.1$を用いた.未知語の場合でも,既知の単語とほぼ同等の精度と再現率が得られることが分かる.最大エントロピー法では履歴と出力の関係を素性で表すため,学習データにおいて現れなかった事象でも素性さえ観測できれば確率値を計算することができる.したがって,学習コーパスに特化しない素性を用いてパラメータ推定を行い,その結果を使って対訳単語対の抽出を行えばテストコーパスにおいてもほぼ同等の抽出結果を得ることができるということをこの結果は示している.\begin{table}[tbp]\centering\caption{テストコーパスにおける抽出結果の内訳}\label{tab:test_corpus}\begin{tabular}{l|r|rr|rr}\hline&\multicolumn{1}{c|}{\small{語彙数}}&\multicolumn{1}{c}{\small{正解数}}&\multicolumn{1}{c|}{\small{総抽出数}}&\multicolumn{1}{c}{\small{精度(\%)}}&\multicolumn{1}{c}{\small{再現率(\%)}}\\\hlineテストコーパスのみ現れた単語&2,536&595&1,010&58.91&23.46\\学習コーパスにも現れた単語&3,217&802&1,319&60.80&24.93\\\hline合計&5,737&1,397&2,329&59.98&24.28\\\hline\end{tabular}\end{table}\subsection{抽出誤りについて}\label{sec:correspondance_j_e}学習コーパスでの対訳単語対の抽出結果において誤りとなったものから無作為に100個を選び,それぞれについて誤りとなった原因を調べた.抽出アルゴリズムにおける閾値$th$は$0.1$を用いた.以下は誤った単語対の英単語側に着目した時の誤った原因の内訳である.\begin{enumerate}\item[1.]訳語が抽出対象コーパスに一回も出現しない$\cdots$10個\item[2.]訳語が抽出対象コーパスには存在するが,抽出対象には含まれない$\cdots$49個\item[3.]形態素の区切りが異なる$\cdots$15個\item[4.]形態素解析誤り$\cdots$4個\item[5.]その他$\cdots$22個\end{enumerate}1.はある英単語に対応する日本語単語が抽出対象コーパス中に一回も出現していない場合である.対訳文を見ると,以下のようないわゆる「意訳」に近いものであったり慣用句的な表現であった.\begin{flushleft}\begin{quote}$\left\{\begin{array}{l}${\rmThetaxidriverdemandedanunreasonablefare.}$\\\rm{タクシーに乗ったら法外な料金をとられた.}\\\end{array}\right.$\end{quote}\end{flushleft}この例の場合では``driver''の訳として``運転手''あるいは``ドライバー''を推定するためには意味解析などのより高度な解析が必要になることから,現時点ではこのような対訳文だけから正しい対訳単語対を抽出することは難しいと思われる.2.はある英単語に対応する日本語単語が抽出対象コーパス中には出現するが,出現回数の制限により抽出対象である$6,796$語に含まれない場合である.対訳文を見ると,日本語単語の表記の揺れにより出現回数が分散してしまうことが原因であった.例えば``solemnly''の訳語候補として``厳粛に'',``粛々と'',``荘厳に''のように複数の正しい訳語が対訳文中に現れているが,出現回数がそれぞれに分散し出現回数の閾値の下限を下回り実験対象に含まれない.これに対しては,日本語のシソーラスを利用して複数の訳語を同一視することで抽出が可能になると思われる.3.は英単語と日本語単語の形態素の区切りが異なる場合である.``shoulder''に対する訳語は``肩''となるべきであるが,日本語コーパスの形態素解析の結果には``肩''という単語は含まれていなかったため,``右肩''という単語が出力される結果となった.本手法が1単語対1単語の対訳関係を仮定していることが原因であると考えられる.\cite{kumiko_SIGNL97,yamamoto_00}では統計情報から得られる連語や係り受け解析結果から得られる文節を単位として対訳関係を推定することにより精度を上げており,統計的$\cdot$意味的にまとまりのある単位で対応付けを行う方が良いことを示している.対訳文においては,形態素単位では対応が取れない場合であっても統計的$\cdot$意味的にまとまりのある単位では対応が取れることが多いと考えられる.したがって本手法でも,単語単位でなく連語や文節を単位として推定を行うことで精度が向上すると思われる.\subsection{素性と解析精度}\label{sec:feature_accuracy}表\ref{tab:feature2}に,それぞれの素性を削除したことによる精度と再現率の増減を示した.括弧内は素性一個あたりの増減である.抽出アルゴリズムにおける閾値$th$は$0.1$を用いた.\begin{table}[htbp]\centering\caption{素性を削除したときの精度と再現率の増減}\label{tab:feature2}\begin{tabular}{c|r|rr|rr}\hline\multicolumn{1}{c|}{素性タイプ}&\multicolumn{1}{c|}{個数}&\multicolumn{2}{c|}{精度(\%)}&\multicolumn{2}{c}{再現率(\%)}\\\hline1&4,086&$-1.55$&$(-3.79\times10^{-4})$&$-0.85$&$(-2.08\times10^{-4})$\\2&3,112&$-5.03$&$(-1.62\times10^{-3})$&$-7.93$&$(-2.54\times10^{-3})$\\3&5,011&$-4.66$&$(-9.30\times10^{-4})$&$-16.23$&$(-3.24\times10^{-3})$\\4&159&$-0.50$&$(-3.14\times10^{-3})$&$-3.15$&$(-1.98\times10^{-2})$\\\hline\end{tabular}\end{table}素性一個あたりでもっとも抽出結果に影響していると考えられるのは,品詞情報を用いた素性関数(素性タイプ4)であることがこの表からわかる.このことは翻訳候補を選択する際には品詞情報が重要であるという直感的な判断と合致する.逆にもっとも影響していないと考えられるのは,対訳文中に現れる単語対のみを用いた素性(素性タイプ1)である.他の素性は共起情報や品詞情報によって単語対に対して制約を与えているのに対して,タイプ1の素性は対訳文中に現れたことがあるかどうかということのみを扱うため,翻訳候補を選択するには制約が弱いと考えられる.このことから,係り受け情報やシソーラスの情報などによる制約を素性として表し,それらを加えていくことにより抽出結果の改善を期待することができる.ただし,必要以上に素性を増やしていくことは過学習の危険があるので注意が必要である.\subsection{関連研究との比較}\label{sec:related}本手法と同様に対訳文の文対応が既に付いていることを前提にしている研究には\cite{gale_91,kitamura_96,melamed_97}があげられる.\cite{gale_91}は単語対の対応度として$\phi^2$統計を用い,相互情報量より有用であることを示している.\cite{kitamura_96}はDice係数\cite{kay_93}に対して単語対の出現頻度の対数で重み付けする重み付きDice係数を提案し,これを単語対の対応度として採用した.\cite{melamed_97}はCompetitiveLinkingAlgorithmと2つのパラメータに対する山登り法を組み合わせて単語対の対応度を求める手法を提案した.これらの研究に共通する特徴は,単語対の対応度の計算手法において単語対の共起頻度がベースになっているために未知語に弱いということである.学習コーパスと異なるコーパスでは未知語が出現するために単語対の対応度を計算することは不可能となり,対訳単語対を抽出するためには新たに学習しなおさなければならない.これに対して本論文で提案している手法では\ref{sec:unknown}節で述べたように,注目している単語対の前後の文脈や品詞情報を用いた素性を用いているため,未知語の場合にも既知の単語と同様に対応度の計算を行うことができる.本手法と異なり,対訳文の文対応が付いていることを前提としない代わりに,既存の対訳辞書を用いている研究には\cite{kaji_96,fung_97}があげられる.これらの手法は一方の言語で共起する単語の訳語は他方の言語でも共起することを仮定している.\cite{kaji_96}では既存の辞書に含まれる単語との共起集合間の共通部分の大きさで対応度を計算している.\cite{fung_97}では既存の辞書に含まれる単語との重み付き相互情報量を要素とするベクトルを計算し,その内積を対応度として採用している.現状では文対応の付いた対訳コーパスはあまり多くないため,文対応を前提としないこれらの手法は適用できる範囲は広いが,文対応が付いたコーパスを用いた手法よりも精度が劣る.一方,本手法の前提となっている文対応済の対訳コーパスは,原文に忠実に翻訳した対訳コーパスであれば,\cite{kay_93,utsuro_94,sukehiro_95}で提案されている手法により作成することができる.対応する文がなかったり,1つの文が複数の文に対応している場合には人手による後編集が必要になるが,その労力は全て人手による対応付けに比べて比較にならないほど少ないと考えられる.学習コーパスを用いて相対頻度\footnote{相対頻度は学習コーパス中における対訳単語対の出現頻度(式(\ref{eq:article_joint}))から\[\tilde{P}(y|x)=\frac{c(x,y)}{\sum_{v\inY}c(x,v)}\]と計算し,抽出アルゴリズムにおいて$P(y|x)$の代わりに$\tilde{P}(y|x)$を使用して対訳単語対の抽出を行った.}と重み付きDice係数\footnote{重み付きDice係数は以下のように計算される.\[sim(x,y)=\left(\log_2f(x,y)\right)\frac{2f(x,y)}{f_X(x)+f_Y(y)}\]ここで$f(x,y)$は$x$と$y$が対訳文中に出現した回数,$f_X(x)$,$f_Y(y)$はそれぞれコーパス$X$,$Y$内で$x$,$y$が出現した回数である.抽出アルゴリズムにおいて$P(y|x)$の代わりに$sim(x,y)$を使用して対訳単語対の抽出を行った.\cite{kitamura_96}で使用されている対訳単語対抽出アルゴリズムは本論文で示した手法とは異なるが,比較のために本論文で示した手法と同じ抽出アルゴリズムを用いた.}による比較実験を行った.図\ref{fig:compare}\begin{figure}[tbp]\begin{center}\begin{tabular}{cc}\framebox(160,115){}&\framebox(160,115){}\vspace*{1em}\end{tabular}\caption{各手法における抽出結果の比較}\label{fig:compare}\end{center}\end{figure}は,抽出アルゴリズムの閾値を徐々に下げていきながら対訳単語対を抽出した時の,抽出された対訳単語対100個ごとの精度(左)と再現率(右)を示したグラフである.重み付きDice係数は単語対の共起回数が2回以下の場合は対応度が0になってしまうため,2,700個までしか抽出することができなかった.このグラフを見ると大体の場合において本手法がもっとも良い結果となっていることがわかる.相対頻度による抽出は本手法や重み付きDice係数に比べて悪い結果となっている.対訳単語対$(x,y)$について考えた時,$x$とよく共起する単語$x'$が存在すると$(x',y)$の対応度も高くなり$(x',y)$が抽出されてしまう誤りが多く見られ,これが原因であると考えられる.この問題に対して,重み付きDice係数による抽出では単語対の出現回数の対数によって重み付けし,$(x,y)$と$(x',y)$の対応度の差をより広げることによって対処している.本論文で提案した手法では,共起情報や品詞情報を素性として用いてより多くの制約を与えることによりこの問題による誤りを減少させていると考えられる.
\section{おわりに}
\label{sec:future}本論文では,最大エントロピー法を用いて対訳コーパス上の対訳単語対の確率モデルを推定し,自動的にこれを抽出する手法を提案した.素性関数として共起情報を用いるモデルと品詞情報を用いるモデルを定義した.本手法の有効性を示すために日英対訳コーパスを用いた対訳単語対の抽出実験を行い,本論文で提案した手法が相対頻度や重み付きDice係数による手法よりも精度・再現率において優れた結果となった.また,テストコーパスによる実験では学習コーパスに出現しなかった単語対に関しても学習データに現れたものとほぼ同等の精度・再現率で抽出できることが分かった.しかし,対訳コーパス中に現れる意訳,単語の表記の揺れ,2言語間の形態素の分かち方の違いに対しては有効ではない.これらを克服するために,連語や係り受け解析結果から得られる文節を単位としたりシソーラスを利用して対訳関係を抽出することが今後の課題である.\acknowledgment元慶應義塾大学教授の故中西正和先生に深く感謝致します.電子化された講談社和英辞典の研究使用を許諾してくださった旧通産省電子技術総合研究所に感謝致します.\normalsize\bibliographystyle{jnlpbbl}\bibliography{jpaper}\nocite{satoken_Coling98}\newpage\normalsize\begin{biography}\biotitle{略歴}\bioauthor{佐藤健吾}{平成7年慶應義塾大学理工学部数理科学科卒業.平成9年同大学大学院理工学研究科修士課程計算機科学専攻修了.現在,同大学大学院理工学研究科後期博士課程計算機科学専攻に在学中.自然言語処理,確率的言語モデルなどに興味を持つ.情報処理学会,言語処理学会各会員.}\bioauthor{斎藤博昭}{昭和58年慶應義塾大学工学部数理工学科卒業.現在同大理工学部情報工学科専任講師.工学博士.昭和59年よりカーネギーメロン大学に訪問研究員として滞在し,機械翻訳および音声認識の研究に従事.情報処理学会,言語処理学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V14N01-01 | \section{はじめに}
構文解析において,精度と同様,計算効率も,自然言語処理の重要な問題の一つである.構文解析の研究では,精度に議論の重点を置くことが多いが,効率についての研究もまた重要である.特に実用的な自然言語処理のアプリケーションにとっては,そうである.精度を落とすことなく効率を改善することは,とても大きな課題である.本研究の目的は,日本語の係り受け解析(依存構造解析)を行なう効率のよいアルゴリズムを提案し,その効率の良さを理論的,実験的の両面から示すことである.本論文では,日本語係り受け解析の線形時間アルゴリズムを示す.このアルゴリズムの形式的な記述を示し,その時間計算量(timecomplexity)を理論的に論じる.加えて,その効率と精度を京大コーパスVersion2\cite{Kurohashi1998}を使って実験的に評価する.本論文の構成は以下の通りである.第~2節では,日本語の構文的な特徴と典型的な日本語文の解析処理について述べる.第~3節では,英語や日本語の依存構造解析の従来研究について簡単に述べる.その後,第~4節で我々の提案手法を述べる.次に,第~5節で,二つの文節の依存関係を推定するための改良したモデルを述べる.第~6節では実験結果とその考察を記す.最後に,第~7節で本論文での我々の貢献をまとめる.
\section{日本語文の解析}
本節では,日本語の構文的特徴と典型的な日本語文の解析の手順について整理する.\subsection{日本語の構文的特徴}\label{sec:prop}日本語は基本的にはSOV言語である.語順は比較的自由である.英語では,文中の語の構文的機能は語順で表される.一方,日本語では,後置詞(postpositions)によって表される.この点では,名詞の後に置かれる日本語の格助詞はドイツ語名詞の格変化と類似の役割を持っている.ドイツ語名詞は格変化することによって,文法的な格を表している.文節の概念\footnote{韓国語の{\emeojeol}も日本語の文節と似た概念である\cite{Yoon1999}.文献\cite{Abney1991}で定義される英語のチャンク(chunk)も文節に近いといえる.}は上記の日本語の性質と親和性があり,日本語文を構文的に分析するときに使われてきた.{\em文節}は,1~個以上の内容語(contentwords)とそれに続く0~個以上の機能語(functionwords)から構成される.文節をこのように定義することによって,ドイツ語のような屈折言語において文中の語の文法的役割を分析するときと似た手法を日本語文を分析するときにも使うことができる.それゆえ,厳密なことを言えば,日本語の場合,語順が自由なのではなく,文節の順序が自由である.ただし,文の主動詞を含む文節は文の末尾に置かれなければならない.例えば,以下の2文は同じ意味を持つ:(1)健が彼女に本をあげた.(2)健が本を彼女にあげた.この2例文で,最も右の文節「あげた」(動詞の語幹と,過去や完了を表すマーカで構成されている)は文の末尾に置かれていることに注意されたい.ここで,上に述べたものも含めて,通常の書き言葉の日本語で仮定される係り受けの制約条件をまとめておく.\begin{description}\item[C1.]最も右の文節を除いて,全ての文節は必ず一つの\TermHead{}を持つ.\item[C2.]\TermHead{}となる文節は,必ず係り元の文節の右側に位置する.\item[C3.]係り関係は交差しない\footnote{「これが僕は正しいと思う」という例文のようにこの制約条件が成立しないこともあるが,書き言葉では殆どの場合成り立つ\cite[187ページ]{Nagao1996}.}.\end{description}これらの特徴は,基本的には韓国語やモンゴル語でも共通である.\subsection{日本語文解析の典型的な手順}日本語には前節のような特徴があるので,日本語文の解析では次のような手順が非常に一般的である:\begin{enumerate}\item文を形態素に分割する(つまり形態素解析する)\itemそれらを文節にまとめ上げる\item文節間の係り関係を解析する\itemそれぞれの係り関係にagent,object,locationなどの意味的役割のラベルを付ける\end{enumerate}我々は(3)における係り受け解析に焦点を置く.
\section{関連研究}
ここでは,主に時間計算量に重点を置いて関連研究を述べる.日本語はもちろん英語でも依存構造解析(dependencyanalysis)は研究されている\cite{Lafferty1992,Collins1996,Eisner1996}.これらの論文の解析アルゴリズムでは,$O(n^{3})$の時間がかかる.ここで$n$は単語数である\footnote{Nivre\shortcite{Nivre2003}は,projectivedependencyparsingの決定的なアルゴリズムを提案している.このアルゴリズムの時間計算量の上限は$O(n)$である.このアルゴリズムをスウェーデン語のテキストで評価している.}$^{,}$\footnote{Ratnaparkhiは実際の処理時間が$O(n)$となる句構造を返す英語のパーザについて述べている\cite{Ratnaparkhi1997}.これは依存構造解析について述べたものではない.このアルゴリズムでは,解析途中の各ノードに対して,いくつかの手続きを行ない,その中で確率値の高い$K$個の導出(derivation)を残して解析を進める(幅優先探索).そのため,時間計算量の上限は$O(n^2)$と考えられる.}.日本語の係り受け解析では,文中の二つの文節の係り受けの確率を使うことが非常に多かった.Harunoら\shortcite{Haruno1998}は,決定木を用いて係り受けの確率を推定した.FujioとMatsumoto\shortcite{Fujio1998}はCollinsのモデル\cite{Collins1996}の修正版を日本語の係り受け解析に適用した.Harunoらと,FujioとMatsumotoの両グループともCYK法を用いている.これは$O(n^{3})$の時間がかかる.ここで$n$は文の長さ,つまり文節数を表している.Sekineら\shortcite{Sekine2000Backward}は最大エントロピー法(MaximumEntropyModeling;ME)を係り受けの確率の推定に使い,後方ビームサーチ(文末から文頭に向かうビームサーチ)で最もよい解析結果を見つける.このビームサーチのアルゴリズムは$O(n^{2})$の時間がかかる.KudoとMatsumoto\shortcite{Kudo2000Japanese}らも同じ後方ビームサーチをMEではなくサポートベクタマシン(SVMs)とともに用いている\footnote{彼らは,係り先候補間の係りやすさの相対的な大小関係をモデル化する手法も報告している\cite{Kudo2005}.係り受けのモデルは異なるが,同じく後方ビームサーチを用いている.}.二つの文節間の係り受けの確率を使わない統計的手法も少ないながらある.一つはSekineの決定的有限状態変換器を用いる手法\cite{Sekine2000Japanese}である.Sekineは,\TermHead{}の場所の97\%は文中の五つの候補でカバーされると報告している.似た現象はMaruyamaとOgino\cite{Maruyama1992}も観測している.これらの調査にもとづき,Sekineは,決定的有限状態変換器を用いる効率のよい解析アルゴリズムを提案している.このアルゴリズムは,考慮する係り先の文節数を制限することでしらみつぶしに探索することを避け,$O(n)$の時間計算量となっている.しかしながら,彼のパーザは京大コーパスに対して77.97\%の係り受け正解率(定義は第~\ref{subsec:results}節で述べる)しか得られていない.これは,89\%を超える現在の最高精度よりもかなり低い.2文節間の係り受けの確率を用いない別の興味深い手法は,KudoとMatsumoto\shortcite{Kudo2002}によるCascadedChunkingModelである.このモデルは\cite{Abney1991,Ratnaparkhi1997}のアイデアにもとづく.彼らはこのモデルとSVMsを用いて,89.29\%を得ている.彼らの手法では,解析時に評価される係り関係の数はCYK法や後方ビームサーチよりも相当少ないが,それでも時間計算量の上限は$O(n^2)$である.以上見たように,高い精度を保ちつつ線形時間の処理を保証して,どのように日本語係り受け解析を行なうかは,まだ解決されていない問題である.以下に記述するアルゴリズムがこの問題に対する答えとなろう.
\section{アルゴリズム}
label{sec:algo}本節では,提案アルゴリズムを解析時に使うものと,学習時に使うものとに分けて記す.解析時のアルゴリズム,その時間計算量,学習時のアルゴリズムを順に述べ,最後に提案アルゴリズムの特徴のまとめと関連研究との理論的な比較を述べる.\subsection{文を解析するアルゴリズム}\begin{figure}[t]//入力:N:一文中の文節の数\\//\hspace*{1em}w[]:処理対象の文の文節列を保持する配列\\//出力:outdep[]:解析結果,つまり文節間の係り関係を格納する整数の配列.\\//\hspace*{1em}例えば,j番目の文節の係り先IDは{\rmoutdep[j]}で表現される.\\//\\//stack:係り元文節のIDを保持する.もし空なら,このスタックに対する\\//\hspace*{1em}popメソッドは,{\rmEMPTY}($-1$)を返す.\\//functionestimate\_dependency(j,i,w[]):\\//\hspace*{1em}{\rmj}番目の文節が{\rmi}番目の文節に係ると判断するとき,非ゼロを返す.\\//\hspace*{1em}それ以外のとき,ゼロを返す.\\functionanalyze(w[],N,outdep[])\\stack.push(0);\hspace*{1em}//ID0をスタックに積む.\\for(inti=1;i$<$N;i++)\{\hspace*{1em}//変数iは係り先文節,変数jは係り元文節を指すのに使う.\\\hspace*{1em}intj=stack.pop();\hspace*{1em}//スタックから値を降ろし,変数jにセットする.\\\hspace*{1em}while(j!=EMPTY\&\&(i==N$-$1$||$estimate\_dependency(j,i,w)))\{\\\hspace*{2em}outdep[j]=i;\hspace*{1em}//j番目の文節がi番目の文節に係る.\\\hspace*{2em}j=stack.pop();\hspace*{1em}//次にチェックすべき係り元文節のIDをスタックから降ろす.\\\hspace*{1em}\}\\\hspace*{1em}if(j!=EMPTY)\\\hspace*{2em}stack.push(j);\\\hspace*{1em}stack.push(i);\\\}\par\vspace{8pt}\caption{提案手法の擬似コード(解析時).ここで``i==N-1''はi番目の文節が文末の文節であることを\hspace*{27pt}意味している.}\label{code:analysis}\end{figure}\begin{figure}[t]//indep[]:訓練事例から与えられる正しい係り受け関係を保持する整数の配列.\\//\\//functionestimate\_dependency(j,i,w[],indep[]):\\//\hspace*{1em}indep[j]==iが満たされるとき,非ゼロを返す.それ以外のとき,ゼロを返す.\\//\hspace*{1em}同時に,j番目の文節がi番目の文節に係るか係らないかに応じて,1あるいは-1の\\//\hspace*{1em}ラベル付きで,素性ベクタ(エンコードされた事例)を出力する.\\functiongenerate\_examples(w[],N,indep[])\\stack.push(0);\\for(inti=1;i$<$N;i++)\{\\\hspace*{1em}intj=stack.pop();\\\hspace*{1em}while(j!=EMPTY\&\&(i==N$-$1$||$estimate\_dependency(j,i,w,indep)))\{\\\hspace*{2em}j=stack.pop();\\\hspace*{1em}\}\\\hspace*{1em}if(j!=EMPTY)\\\hspace*{2em}stack.push(j);\\\hspace*{1em}stack.push(i);\\\}\par\vspace{8pt}\caption{訓練事例を作るための擬似コード.変数w[],Nとstackは図~\ref{code:analysis}のものと同じである.}\label{code:generate}\end{figure}我々の提案する係り受け解析のアルゴリズムの擬似コードを図~\ref{code:analysis}に示す.このアルゴリズムは,ある文節が別の文節に係るかどうかを決定する推定器(estimator)とともに用いる.推定器の典型的なものとして,SVMや決定木などの訓練できる分類器が考えられる.ここでは,文中の二つの文節の係り関係を推定できる,つまり係るか否かを決定できる何らかの分類器があり,その分類器の時間計算量は文の長さに影響されないと仮定しておく.係り関係の推定器を別にすれば,このアルゴリズムで使うデータ構造はわずか二つである.一つは入力に関するもので,もう一つは出力に関するものである.前者は,チェックすべき係り元の文節のIDを保持するためのスタックである.後者は,既に解析された係り先文節のIDを保持する整数の配列である.\begin{figure}[t]\begin{center}\begin{tabular}{llllll}&健が&彼女に&あの&本を&あげた.\\文節ID&0&1&2&3&4\\係り先&4&4&3&4&-\end{tabular}\end{center}\vspace{8pt}\caption{例文}\label{sample-parsing}\end{figure}以下では,例を使いながら先に示したアルゴリズムの動作を説明する.図~\ref{code:analysis}の擬似コードに沿って,図~\ref{sample-parsing}にある例文を解析してみよう.説明のため,図~\ref{code:analysis}の{\itestimate\_dependency}()として完璧な分類器があるとする.この分類器は図~\ref{sample-parsing}の例文に対して必ず正しい結果を返すとする.まず始めに0(健が)をスタックに積む.0は文の先頭の文節のIDである.この初期化の後,{\rmfor}ループの各繰り返し(iteration)の中で解析がどのように進むかを見る.最初のiterationでは,0番目の文節と1番目の文節(彼女に)の係り関係をチェックする.0番目の文節は1番目の文節に係らないから,0をスタックに積み,次に1を積む.ここで,スタックの底は0であって1ではないことに注意されたい.より小さいIDが必ずスタックの底のほうに保持される.この性質のおかげで,非交差の制約(第~\ref{sec:prop}のC3)を破らずに解析を進めることができる.2回目のiterationでは,1をスタックから降ろし,1番目の文節と2番目の文節(あの)の係り関係をチェックする.1番目の文節は2番目には係らないので,再び1と2をスタックに積む.3回目のiterationでは,2をスタックから降ろし,2番目の文節と3番目の文節(本を)の係り関係をチェックする.2番目の文節は3番目に係るので,その関係を{\itoutdep}[]に格納する.{\itoutdep}[$j$]の値は,第~$j$番目の文節の係り先を表す.例えば{\itoutdep}[$2$]$=3$は2番目の文節の係り先は3番目の文節であることを意味している.次に,1をスタックから降ろし,1番目の文節と3番目の文節の係り関係をチェックする.1番目の文節は3番目に係らないので1を再びスタックに積む.その後,3をスタックに積む.この段階で,スタックには頭から底に向けて3,1,0が格納されている.3回目のiterationでは,3をスタックから降ろす.3番目の文節と4番目の係り関係はチェックする必要がない.4番目の文節は文中の最も末尾の文節であり,3番目の文節は必ず4番目にかかるからである.そこで{\itoutdep}[$3$]$=4$とする.次に1をスタックから降ろす.この場合も,1番目の文節と4番目との係り関係のチェックはする必要がない.同様に,0番目の文節も4番目に係る.結果として{\itoutdep}[$1$]$=4$と{\itoutdep}[$0$]$=4$となる.この時点でスタックは空となり,この解析の関数{\itanalyze}()は終了する.解析結果である係り受け関係は,配列\linebreak{\itoutdep}[]に得られている.\subsection{時間計算量}\label{subsec:time}一見したところ,提案したアルゴリズムの時間計算量の上限は,2重ループを含むため$O(n^{2})$と思える.しかしそうではない.時間計算量の上限が$O(n)$であることを,図~\ref{code:analysis}における{\rmwhile}ループの条件部が何回実行されるかを考えることによって示す.条件部が失敗する回数と成功する回数とに分けて考える.{\rmwhile}ループの条件部は$N-2$回失敗する.何故なら外側の{\rmfor}ループが1から$N-1$へ,つまり$N-2$回実行されるからである.もちろん,{\rmwhile}ループが無限ループになることはない.{\rmwhile}ループの内部でstackに値を新たに積むことなく降ろしているので,いつか$j=={\rmEMPTY}$になる.つまり$j\!={\rmEMPTY}$を満たさず,{\rmwhile}ループを抜けることになる.一方,この条件部は$N-1$回成功する.何故なら{\itoutdep}[$j$]$=i$が$N-1$回実行されるからである.文節$j$それぞれについて,{\itoutdep}[$j$]$=i$は必ず一度だけ実行される.{\itj=stack.pop}()を実行すると,$j$に格納されている値は失われ,その値は二度と再びスタックに積まれることはないからである.つまり,{\rmwhile}ループは,高々$N-1$回実行される.これは末尾の文節を除く文節数に等しい.結局,{\rmwhile}ループの条件部の実行回数は,失敗回数$N-2$と成功回数$N-1$を合計し$2N-3$となる.これは時間計算量の上限が$O(n)$となることを意味している.\subsection{訓練事例を作り出すアルゴリズム}前節のアルゴリズムで用いる分類器のための訓練事例を作り出すには,図~\ref{code:generate}に示すアルゴリズムを使う.図~\ref{code:analysis}にある解析用のアルゴリズムと殆ど同じである.違いは,{\itindep}[]を使って{\itestimate\_dependency}()が正しい係り関係の判定を返す点と,{\itoutdep}[]に係り先のIDを格納する必要がない点である.\subsection{特徴のまとめと関連研究との理論的な比較}\label{comp:theory}我々の提案アルゴリズムは次のような特徴を持つ:\begin{itemize}\item[F1.]特定の機械学習の方法に依存しない.訓練できる分類器ならどれでも使える.\item[F2.]左から右へ文を一度だけスキャンする.\item[F3.]時間計算量の上限は$O(n)$である.アルゴリズム中,最も時間を消費する部分である分類器の呼び出しの回数は,高々$2N-3$回である.\item[F4.]アルゴリズムの流れとデータ構造は非常に簡単である.そのため,実装も易しい.\end{itemize}我々のアルゴリズムと最も関連が深いモデルの一つは,\cite{Kudo2002}の\linebreakCascadedChunkingModelである.彼らのモデルと我々のアルゴリズムはF1を始め多くの共通点がある\footnote{文献\cite{Uchimoto1999}に代表される2文節間の係り受け確率を考える確率モデルと,CascadedChunkingModelとの比較は文献\cite{Kudo2002}で詳細になされている.ほぼ全ての議論が確率モデルと我々の提案手法との比較にも当てはまる.}.彼らのモデルと我々のアルゴリズムの大きな違いは,入力文を何回スキャンするかにある(F2).彼らのモデルでは,入力文を何回かスキャンする必要があり,これは計算上の非効率につながっている.最悪の場合では$O(n^{2})$の計算が必要になる.我々の解析アルゴリズムは,左から右に一度だけしかスキャンせず,実時間の音声認識などのような実用的なアプリケーションに対しても,より好適であろう.それに加えて,アルゴリズムの流れと利用するデータ構造は,CascadedChunkingModelで使われるものよりもずっと簡単である(F4).彼らのモデルでは,チャンクタグを保持する配列が必要となり,入力文を何度もスキャンする間,この配列は正しく更新されなければならない.NivreによるProjectiveDependencyParsingの手法\cite{Nivre2003}も,我々のアルゴリズムと深い関係がある\footnote{Nivreのいう``projective''とは,依存関係(係り関係)が交差しないことと同じである.}.彼のアルゴリズムも,スタックを用いており,時間計算量の上限も$O(n)$である.ただし,我々のアルゴリズムが日本語を対象とし,係り先が必ず右にあることを前提にしているのに対し,Nivreのアルゴリズムは依存関係の向きはどちらでもよい.その点では,彼のアルゴリズムは我々の手法をより一般的にしたものと考えることができる.一方,\cite{Nivre2003}では,単語間の依存関係を決めるルールを用意しておき,ある一定の優先度で選ぶとしている\footnote{スウェーデン語を対象に126のルールを人手で記述している.ルールを,「右向きに係る」「左向きに係る」「対象語をスタックから降ろす」「対象語をスタックに積む」の四つのタイプに分け(詳細はここでは略す),タイプ間の優先度は,事前に人手で決める場合のみ実験で検証されている.ここでいう対象語とは,アルゴリズム中で係り関係をチェックする対象となっている語を指す.}.我々は,依存関係が一方向である日本語に対して,機械学習を用いる方法を提示し,実際に検証している.我々の解析アルゴリズムは,shift-reduce法の最も簡単な形の一つと考えられる.典型的なshift-reduce法との違いは,アクションの型を複数持つ必要がなく,スタックの先頭のみ調べればよいという点である.これらの簡潔さの理由は,日本語が制約C2(第~\ref{sec:prop}節参照)を仮定できること,文脈自由文法の解析ではなく,係り受け関係のみの解析であることの二つによる.
\section{係り関係を推定するためのモデル}
label{sec:models}2文節間の係り関係を推定するために,2文節に関係する形態的,文法的情報を素性のベクタとして表現し,それを入力として分類器に係るか否かを判断させる.その分類器として,サポートベクタマシン(SVMs)\cite{Vapnik1995}を用いた.SVMsは優れた特徴を持っている.その一つは,多項式カーネルを用いると,ある事例の持つ素性の組合せが自動的に考慮される点である.現在まで多数の分類タスクに対して,非常に優れた性能が報告されている.SVMsの形式的な記述については,文献\cite{Vapnik1995}を参照されたい.素性として,第~\ref{subsec:stfe}節以降で述べるものを用いた.実際には2文節間の係り関係の推定の処理は,図~\ref{code:analysis}の{\itestimate\_dependency}()の中で行なう.推定しようとする2文節の形態的,文法的情報を素性のベクタとして表現し,SVMsに係るか否かを判定させることになる.以下では,まず基本となる標準素性を述べ,次にそれに追加して用いる付加的な素性について述べる.\subsection{標準素性}\label{subsec:stfe}ここで「標準素性」といっているものは,\cite{Uchimoto1999,Sekine2000Backward,Kudo2000Japanese,Kudo2002}でほぼ共通に使われている素性セットを指す.それぞれの文節について以下の素性を使った:\begin{enumerate}\item主辞品詞,主辞品詞細分類,主辞活用型,主辞活用形,主辞表層形\item語形品詞,語形品詞細分類,語形活用型,語形活用形,語形表層形\item句読点\item開き括弧,閉じ括弧\item位置—文の先頭か文の末尾か\end{enumerate}ここで主辞とは,概ね文節内の最も右の内容語に相当する.品詞が特殊,助詞,接尾辞を除き,最も文末に近い形態素を指す.語形とは,概ね文節内の最も右の機能語に相当する.品詞が特殊となるものを除き,最も文末に近い形態素を指す.これらに加えて,2文節間のギャップに関する素性も用いた.距離(1,2--5,6以上)と,助詞,括弧,句読点である.\subsection{注目文節の前後の文節}\label{subsec:loc}注目している係り元文節,係り先文節の前後の文節も有用である.それらが固定的な表現や格フレーム,その他の連語を表すことがあるからである.第~$j$番目の文節が係り元文節で,第~$i$番目の文節が係り先文節の候補だとする.$j$番目の文節と$i$番目の文節の前後にある文節のうち,次の三つを素性として考慮する:$j-1$番目の文節($j$に係るときのみ)と,$i-1$番目の文節,$i+1$番目の文節の三つである.我々のアルゴリズムでは,$j<i-1$を満たし$j$番目の文節が$i$番目の文節に係るかチェックしているとき,$i-1$番目の文節は必ず$i$番目の文節に係っていることに注意されたい.提案手法におけるデータ構造を簡単にしておくために,$j$番目,$i$番目の文節からさらに遠い文節については考慮しなかった.なお,$j-1$番目の文節が$j$番目の文節に係るかどうかは{\itoutdep}[]を見れば簡単にチェックできる.注目している文節の前後を使うのは,\cite{Kudo2002}における動的素性\footnote{Kudoらのモデルは,以下の三つから動的素性を作る:$j$番目の文節に係るもの(タイプB),$i$番目の文節に係るもの(タイプA),$i$番目の文節の係り先(タイプC).我々の提案手法では解析が左から右に進むので,タイプCの素性を取り入れるためには,スタッキング\cite{Wolpert1992}やその他の手法を用いる必要がある.}と似ている.\subsection{文節内の追加素性}「標準素性」では,文節内に二つ以上の機能語を含むとき格助詞の情報を見落とすことがある.ある文節が格助詞と提題助詞\footnote{提題助詞とは,主題を提示する助詞である\cite[page50]{Masuoka1992}.代表的な提題助詞は「は」である.}を持つとする.このとき格助詞の後ろに提題助詞が来る.それゆえ,格助詞の情報を見落としてしまう.「標準素性」では文節内の最も右の機能語しか素性として扱われないからである\footnote{例えば,係り元文節が「本-に-は」の場合,第~\ref{subsec:stfe}の語形の素性として「は」に関する素性が採用される.「に」に関する素性は使われない.}.こういった情報を見落とさないように,文節内の全ての格助詞を素性として扱う.「標準素性」で見落とされる重要な情報は他にもある.それは,係り先候補の文節の最も左の語の情報である.この語は係り元の文節の最も右の語と慣用表現のような強い相関関係を持つことも多い.これに加えて,係り先候補文節の直後の文節の表層形も素性として使う.これは,第~\ref{subsec:loc}節の素性とともに用いる.\subsection{並列句のための素性}並列構造を正しく認識することは,長い文を正しく解析する際に最も難しいことの一つである.KurohashiとNagaoは,二つの文節列の類似度を計算することによって並列句を認識する手法を提案している\cite{Kurohashi1994}.現在までのところ,機械学習を使うシステムの中で並列構造を認識するための素性はあまり研究されていない.我々は最初のステップとして,並列構造を認識するための基本的な二つの素性を試した.注目している文節が{\emキー文節}({\itdistinctivekeybunsetsu})\cite[page510]{Kurohashi1994}であるとき,この二つの素性は使われる.一つ目の素性は,係り元文節がキー文節であるときアクティブになるものである.もう一つの素性は,係り元文節がキー文節で,その係り元文節と係り先候補の文節の主辞表層形が一致していればアクティブになるものである.単純さを保つため,対象とする主辞品詞は名詞のみとした.
\section{実験と考察}
提案アルゴリズムを利用したパーザをC++で実装し,その時間計算量の振る舞いや解析精度を実験的に評価した.\subsection{コーパス}提案アルゴリズムを評価するために,京大コーパスVersion2\cite{Kurohashi1998}を使った.新聞記事の1月1日から1月8日分(7,958文)を訓練事例とし,1月9日分(1,246文)をテスト事例とした.1月10日分を開発用に用いた.これらの記事の使い方は\cite{Uchimoto1999,Sekine2000Backward,Kudo2002}と同じである.\subsection{SVMの設定}独自にC++で実装したSVMsのツールを用いた.カーネルとして,3次の多項式カーネルを用いた.特に記述がない限り誤分類のコストは1に設定した.\subsection{実験結果}\label{subsec:results}\begin{table}[b]\caption{テスト事例に対する精度}\label{tbl:acc}\begin{center}\begin{tabular}{lcc}\hline\hline&係り受け正解率(\%)&文正解率(\%)\\\hline標準素性&88.72&45.88\\全て&89.56&48.35\\前後文節素性(5.2~節)なし&88.91&46.33\\文節内追加素性(5.3~節)なし&89.19&47.05\\並列句素性(5.4~節)なし&89.41&47.86\\\hline\end{tabular}\end{center}\end{table}{\bf解析精度}\hspace{0.4em}テスト事例に対する我々のパーザの性能を表~\ref{tbl:acc}に示す.従来研究との比較のために,性能評価には京大コーパスで標準的に使われる尺度である係り受け正解率と文正解率の二つを用いる.係り受け正解率とは,正しく解析された係り受けの割合であり(他の多くの文献と同様,文末の一文節を除く),文正解率とは,全ての係り関係が正しく解析された文の割合である.「標準素性」を用いた場合の精度は比較的よい.実際,この係り受け正解率は動的素性を用いないときのCascadedChunkingModel\cite{Kudo2002}とほぼ同じである.第~\ref{sec:models}節で述べた全ての素性を用いた場合,我々のパーザは89.56\%の係り受け正解率を得た.これは京大コーパスVersion2に対して公表されている精度の中で最もよいものである.\begin{figure}[t]\begin{center}\includegraphics[scale=1.2]{speed-j02.eps}\end{center}\caption{一文あたりの処理時間}\label{speed}\end{figure}{\bf時間計算量の漸近的な振る舞い}\hspace{0.4em}図~\ref{speed}に,我々のパーザのテスト事例に対する実行時間を示す.これはワークステーション(UltraSPARCII450MHz,1GBメモリ)を用いて計測した.図~\ref{speed}より実行時間の上限が文の長さに比例しているのが分かる.これは,第~\ref{subsec:time}節で行なった理論的な分析と一致している.この実験結果を見て,確かに従来研究よりも時間計算量の上限は低く抑えられているが,我々のパーザの実際の処理時間はそれほど速くないと思われるかもしれない.パーザのこの遅さの主たる原因は,SVMsにおけるカーネル評価での膨大な計算のせいである.我々の実験では,SVMの分類器は4万個以上のサポートベクタを持っている.それゆえ,係り関係を判定するたびに膨大な内積計算が必要となる.幸い,この問題に対する解決策は既にKudoとMatsumoto\shortcite{Kudo2003}によって与えられている.彼らは高次の多項式カーネルを線形カーネルに変換する手法を提案し,変換された線形カーネルでは,精度を保ったまま元の多項式カーネルよりもおよそ30から300倍高速だったと報告している.彼らの手法を我々のパーザに適用すれば,処理時間も十分高速化されるだろう.彼らの手法を用いればどのくらい我々のパーザの速度が改善されるか粗く見積もるために,線形カーネルを用い,同じテスト事例に対してパーザを走らせてみた.図~\ref{speed:lin}に,線形カーネルを用いたパーザの処理時間を示す.なお計測には多項式カーネルを用いた場合と同じマシンを使った.3次の多項式カーネルを使う場合に比べて相当に高速である.非常に長い文であっても0.02秒以内で解析が行なえている.加えて,このパーザのスピードばかりでなく精度も我々が期待した以上だった.係り受け正解率は87.36\%,文正解率は40.60\%に達した.これらの精度は,素性の組合せを人手で選択して追加しているパーザ\cite{Uchimoto1999}よりもわずかに良い.\begin{figure}[t]\begin{center}\includegraphics[scale=1.2]{speed-lin-j02.eps}\end{center}\caption{線形カーネルを使った場合の一文あたりの処理時間.誤分類のコストは0.0056.}\label{speed:lin}\end{figure}\subsection{関連研究との比較}\label{sec:relatedwork}我々のパーザと関連研究におけるパーザとを時間計算量と精度の点から比較する.比較のサマリを表~\ref{tbl:comp}に示す.我々のアルゴリズムとSVMsと組み合わせたものが時間計算量の点から優れた性質を持ち,加えてトップレベルの精度が得られている.\begin{table}[t]\caption{関連研究との性能の比較.KM02=KudoandMatsumoto2002,KM00=KudoandMatsumoto\hspace*{27pt}2000,USI99=Uchimotoetal.1999,andSeki00=Sekine2000.提案アルゴリズムをStack\hspace*{27pt}DependencyAnalysisと記述.}\label{tbl:comp}\begin{center}\begin{tabular}{l|l|c|c}\hline\hline&アルゴリズム/モデル&\multicolumn{1}{c|}{時間計算量}&係り受け正解率(\%)\\\hline本論文&StackDependencyAnalysis(SVMs)&$n$&89.56\\&StackDependencyAnalysis(linearSVMs)&$n$&87.36\\\hlineKM02&CascadedChunkingModel(SVMs)&$n^2$&89.29\\KM00&後方ビームサーチ(SVMs)&$n^2$&89.09\\USI99&後方ビームサーチ(ME)&$n^2$&87.14\\Seki00&決定的有限状態変換器&$n$&77.97\\\hline\end{tabular}\end{center}\end{table}文献\cite{Kudo2002}との比較は,第~\ref{comp:theory}の記述にゆずる.Uchimotoら\shortcite{Uchimoto1999}は最大エントロピー法と後方ビームサーチを用いている.文献\cite{Sekine2000Backward}によれば,解析時間は$n^{2}$に比例するとのことである.これに対し,我々のパーザは線形時間で文を解析し,精度もよい.工藤と松本\cite{Kudo2005}の「相対モデル」のパーザ\footnote{京大コーパスVersion2に対する精度が不明なため,表~\ref{tbl:comp}にはあげていない.}も,後方ビームサーチを用いているので,時間計算量という点ではUchimotoらのパーザと同様である.文献\cite{Kudo2005}では,「相対モデル」のパーザは,京大コーパスVersion3.0に対して,係り受け正解率91.37\%を得,CascadedChunkingModelは91.23\%を得たと報告されている.我々のパーザは,京大コーパスVersion2において,CascadedChunkingModelの精度を0.27ポイント上回っていることを考えると,我々のパーザと「相対モデル」パーザとの差も大きなものではないと判断できる\footnote{「相対モデル」がCascadedChunkingModelよりも,長距離の文節間の係り受けF値が上回っている\cite{Kudo2005}ことは注目に値する.我々の提案手法もCascadedChunkingModelと同様,直後に係りやすいという性質を利用しているため,「相対モデル」のほうが提案手法よりも長距離の文節間の係り受けF値がよい可能性が高い.}.また,我々と同様Sekine\shortcite{Sekine2000Japanese}も線形時間で処理が進む非常に高速なパーザを提案している.彼の手法は,後方から係り先を決定していく.係り元の文節の語形の情報と,係り先候補(5つまで)の主辞の情報から,係り先を一つに決める決定的有限状態変換器を用いている.係り元の語形や5つの係り先候補の主辞の情報を細かく区別すると,状態(state)の数が多くなりすぎ,大量のメモリを消費するため,係り元の語形の状態を40に,係り先の主辞の状態を18に限定している.品詞や活用形の情報のみ利用している.このため,精度が大きく犠牲になっている.
\section{おわりに}
我々は線形時間で処理を行なう日本語係り受け解析のアルゴリズムを提案した.京大コーパスVersion2に対して実験を行ない,時間計算量と解析精度を調べた.時間計算量の上限は$O(n)$であることが確認でき,解析精度も従来報告されているものを上回った.精度の差は従来研究で報告されているものと大きくないため,精度面からの優位性は結論できないが,本研究で(1)提案アルゴリズムが理論的にも実験的にも時間計算量の上限が$O(n)$で抑えられていることと,(2)時間計算量を抑え,左から右へ一度しかスキャンしないにも関わらずトップレベルの精度が得られることの二つを示せた意義は大きいと考える.後方の文節を直接考慮しない提案アルゴリズムに一定の限界があることは明らかであるが,係り先として考慮する文節の数を増やしても精度が向上するとは限らず,その解決は単純ではない.我々はスタッキングにより精度が向上しないか検討したいと考えている.また,並列構造の認識についてもよりよいモデルを提案したい.\bibliographystyle{jnlpbbl_1.1}\begin{thebibliography}{}\bibitem[\protect\BCAY{Abney}{Abney}{1991}]{Abney1991}Abney,S.~P.\BBOP1991\BBCP.\newblock\BBOQParsingbyChunks\BBCQ\\newblockInBerwick,R.~C.,Abney,S.~P.,\BBA\Tenny,C.\BEDS,{\BemPrinciple-BasedParsing:ComputationandPsycholinguistics},\mbox{\BPGS\257--278}.KluwerAcademicPublishers.\bibitem[\protect\BCAY{Collins}{Collins}{1996}]{Collins1996}Collins,M.\BBOP1996\BBCP.\newblock\BBOQANewStatisticalParserBasedonBigramLexicalDependencies\BBCQ\\newblockIn{\BemProc.ofACL-96},\mbox{\BPGS\184--191}.\bibitem[\protect\BCAY{Eisner}{Eisner}{1996}]{Eisner1996}Eisner,J.~M.\BBOP1996\BBCP.\newblock\BBOQThreeNewProbabilisticModelsforDependencyParsing:AnExploration\BBCQ\\newblockIn{\BemProc.ofCOLING-96},\mbox{\BPGS\340--345}.\bibitem[\protect\BCAY{Fujio\BBA\Matsumoto}{Fujio\BBA\Matsumoto}{1998}]{Fujio1998}Fujio,M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP1998\BBCP.\newblock\BBOQJapaneseDependencyStructureAnalysisbasedonLexicalizedStatistics\BBCQ\\newblockIn{\BemProc.ofEMNLP-1998},\mbox{\BPGS\88--96}.\bibitem[\protect\BCAY{Haruno,Shirai,\BBA\Ooyama}{Harunoet~al.}{1998}]{Haruno1998}Haruno,M.,Shirai,S.,\BBA\Ooyama,Y.\BBOP1998\BBCP.\newblock\BBOQUsingDecisionTreestoConstructaPracticalParser\BBCQ\\newblockIn{\BemProc.ofCOLING/ACL-98},\mbox{\BPGS\505--511}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2000}]{Kudo2000Japanese}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2000\BBCP.\newblock\BBOQJapaneseDependencyStructureAnalysisBasedonSupportVectorMachines\BBCQ\\newblockIn{\BemProc.ofEMNLP/VLC2000},\mbox{\BPGS\18--25}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{Kudo2002}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQJapaneseDependencyAnalysisusingCascadedChunking\BBCQ\\newblockIn{\BemProc.ofCoNLL-2002},\mbox{\BPGS\63--69}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2003}]{Kudo2003}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQFastMethodsforKernel-basedTextAnalysis\BBCQ\\newblockIn{\BemProc.ofACL-03},\mbox{\BPGS\24--31}.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2005}]{Kudo2005}工藤拓\JBA松本裕治\BBOP2005\BBCP.\newblock\JBOQ相対的な係りやすさを考慮した日本語係り受け解析モデル\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf46}(4),\mbox{\BPGS\1082--1092}.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1994}]{Kurohashi1994}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQASyntacticAnalysisMethodofLong{J}apaneseSentencesBasedontheDetectionofConjunctiveStructures\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf20}(4),\mbox{\BPGS\507--534}.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1998}]{Kurohashi1998}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1998\BBCP.\newblock\BBOQBuildinga{J}apaneseParsedCorpuswhileImprovingtheParsingSystem\BBCQ\\newblockIn{\BemProc.ofthe1stLREC},\mbox{\BPGS\719--724}.\bibitem[\protect\BCAY{Lafferty,Sleator,\BBA\Temperley}{Laffertyet~al.}{1992}]{Lafferty1992}Lafferty,J.,Sleator,D.,\BBA\Temperley,D.\BBOP1992\BBCP.\newblock\BBOQGrammaticalTrigrams:AProbabilisticModelofLinkGrammar\BBCQ\\newblockIn{\BemProc.oftheAAAIFallSymp.onProbabilisticApproachestoNaturalLanguage},\mbox{\BPGS\89--97}.\bibitem[\protect\BCAY{Maruyama\BBA\Ogino}{Maruyama\BBA\Ogino}{1992}]{Maruyama1992}Maruyama,H.\BBACOMMA\\BBA\Ogino,S.\BBOP1992\BBCP.\newblock\BBOQAStatisticalPropertyof{J}apanesePhrase-to-PhraseModifications\BBCQ\\newblock{\BemMathematicalLinguistics},{\Bbf18}(7),\mbox{\BPGS\348--352}.\bibitem[\protect\BCAY{益岡隆志\JBA田窪行則}{益岡隆志\JBA田窪行則}{1992}]{Masuoka1992}益岡隆志\JBA田窪行則\BBOP1992\BBCP.\newblock\Jem{基礎日本語文法---改訂版---}.\newblockくろしお出版.\bibitem[\protect\BCAY{長尾真\JBA佐藤理史\JBA黒橋禎夫\JBA角田達彦}{長尾真\Jetal}{1996}]{Nagao1996}長尾真\JBA佐藤理史\JBA黒橋禎夫\JBA角田達彦\BBOP1996\BBCP.\newblock\Jem{自然言語処理}.\newblock岩波書店.\bibitem[\protect\BCAY{Nivre}{Nivre}{2003}]{Nivre2003}Nivre,J.\BBOP2003\BBCP.\newblock\BBOQAnEfficientAlgorithmforProjectiveDependencyParsing\BBCQ\\newblockIn{\BemProc.ofIWPT-03},\mbox{\BPGS\149--160}.\bibitem[\protect\BCAY{Ratnaparkhi}{Ratnaparkhi}{1997}]{Ratnaparkhi1997}Ratnaparkhi,A.\BBOP1997\BBCP.\newblock\BBOQALinearObservedTimeStatisticalParserBasedonMaximumEntropyModels\BBCQ\\newblockIn{\BemProc.ofEMNLP-1997},\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{Sekine}{Sekine}{2000}]{Sekine2000Japanese}Sekine,S.\BBOP2000\BBCP.\newblock\BBOQJapaneseDependencyAnalysisusingaDeterministicFiniteStateTransducer\BBCQ\\newblockIn{\BemProc.ofCOLING-00},\mbox{\BPGS\761--767}.\bibitem[\protect\BCAY{Sekine,Uchimoto,\BBA\Isahara}{Sekineet~al.}{2000}]{Sekine2000Backward}Sekine,S.,Uchimoto,K.,\BBA\Isahara,H.\BBOP2000\BBCP.\newblock\BBOQBackwardBeamSearchAlgorithmforDependencyAnalysisof{J}apanese\BBCQ\\newblockIn{\BemProc.ofCOLING-00},\mbox{\BPGS\754--760}.\bibitem[\protect\BCAY{Uchimoto,Sekine,\BBA\Isahara}{Uchimotoet~al.}{1999}]{Uchimoto1999}Uchimoto,K.,Sekine,S.,\BBA\Isahara,H.\BBOP1999\BBCP.\newblock\BBOQJapaneseDependencyStructureAnalysisBasedonMaximumEntropyModels\BBCQ\\newblockIn{\BemProc.ofEACL-99},\mbox{\BPGS\196--203}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1995}]{Vapnik1995}Vapnik,V.~N.\BBOP1995\BBCP.\newblock{\BemTheNatureofStatisticalLearningTheory}.\newblockSpringer-Verlag.\bibitem[\protect\BCAY{Wolpert}{Wolpert}{1992}]{Wolpert1992}Wolpert,D.~H.\BBOP1992\BBCP.\newblock\BBOQStackedGeneralization\BBCQ\\newblock{\BemNeuralNetworks},{\Bbf5},\mbox{\BPGS\241--259}.\bibitem[\protect\BCAY{Yoon,Choi,\BBA\Song}{Yoonet~al.}{1999}]{Yoon1999}Yoon,J.,Choi,K.,\BBA\Song,M.\BBOP1999\BBCP.\newblock\BBOQThreeTypesofChunkingin{K}oreanandDependencyAnalysisBasedonLexicalAssociation\BBCQ\\newblockIn{\BemProc.ofthe18thInt.Conf.onComputerProcessingofOrientalLanguages},\mbox{\BPGS\59--65}.\end{thebibliography}\begin{biography}\bioauthor{颯々野学}{1991年京都大学工学部電気工学第二学科卒業.同年より富士通研究所研究員.1999年9月より1年間,米国ジョンズ・ホプキンス大学客員研究員.2006年3月よりヤフー株式会社勤務.自然言語処理の研究に従事.2006年10月より京都大学大学院情報学研究科知能情報学専攻博士後期課程在学.言語処理学会,情報処理学会,ACL各会員.}\end{biography}\biodate\end{document}
| |
V20N01-01 | \section{はじめに}
\label{sec:intro}近年のWebの発展は目覚ましいものがあり,Blogや掲示板のように,個人が気軽に自分の意見や感想を書き込める場が増えている.特に,商品購入サイトやオークションサイトなどでは,実際に商品を購入したり,サービス提供を受けたユーザが感想を書き込めるユーザレビュー用ページを提供している場合も多く,レビューは,商品やサービスの潜在的購入者にとって,貴重な情報源のひとつになっている.レビューの件数が増加すれば,それだけ多くの感想を読む機会を得ることになるが,商品やサービスによっては何百件から何千件もレビューが存在することもある.この場合,レビューの内容をすべて把握することは困難であるが,このような問題に対して従来からレビューを自動的に分類したり,意見を集約する研究が盛んに行われている\cite{sa2}.意見の集約に関する研究の例として,例えば,Huら\cite{hu}は,評価視点(opinionfeatures)という概念に基づいてレビュー集合内の意見を集約する手法を提案している.ここで,評価視点とは,評価対象(すなわち商品やサービス)の部分や属性のことであり,例えば,評価対象としてデジタルカメラの特定の商品(「デジタルカメラ$X$」)があったとすると,「画質」や「解像度」などがその評価視点となる.Huらは,レビュー集合からユーザ評価が肯定または否定となる評価視点を自動抽出し,\begin{itemize}\itemデジタルカメラ$X$\begin{itemize}\item画質肯定:253/否定:6\item解像度肯定:134/否定:10\item...\end{itemize}\end{itemize}のような集約結果を生成する手法を提案した.ここで,集約結果内の数値は頻度を表しており,デジタルカメラ$X$の画質に対しては253件の肯定評価を示すレビューがあったことを意味する.このような評価視点の(半)自動抽出に基づく研究は他にも,小林ら\cite{kobayashi}や,Liuら\cite{liu},Jakobら\cite{jakob}等がある.しかしながら,これらの先行研究では,基本的に評価視点を漏れなく列挙することが目的となっているため,結果として,数多くの評価視点が出力され,どの評価視点が評価対象にとって重要であるかがわからないという問題がある.また,実際に集約結果としてユーザに評価視点を提示することを考えた場合にも,重要度に応じて提示する評価視点に順序を与えたり,取捨選択できることが望ましい.本論文では,このような背景に基いて,上記の先行研究など,何らかの方法によって得られた多数ある評価視点に対し,それらをある重要度に従ってランキングする課題を新たに考え,ランキングに適した手法について検討する(\sec{uniq_aspect_ranking}).重要度の考え方にはいろいろ考えられるが,本論文では,ユーザは商品購入の際に複数の競合商品を横並びで比較することが多い事を踏まえ,次のように考える.すなわち,競合する複数の評価対象に対して,これらの中で,他の評価対象からある特定の評価対象を差別化できるような評価視点ほど重要であると考え,そのような評価視点に高い重要度を割り当てることを考える.以降,本論文では,このような評価視点のことを特徴的評価視点と呼ぶ.例えば,あるユーザが出張の際に利用する宿泊施設を探しており,幾つか探し当てたとする(宿泊施設$X$,$Y$,$Z$).しかし,どの施設も値段や立地条件が似たり寄ったりであり,どれを選ぶか悩んでいる.このような状況において,提案手法を用いて各施設のレビューから特徴的評価視点を見つけ出し,施設$X$は特に宿泊利用者の間で「朝食バイキング」が人気であり,施設$Z$だけが「まくら」にこだわっていることを自動抽出することができれば,こういった情報を優先的にユーザに提示する手段を提供することができると考えている.なお,\sec{experiment}の評価実験では,実験データとして宿泊施設予約サイトから得られた宿泊施設についてのレビューデータを用いている.そのため,以降においても提案手法の説明に例を用いる場合は宿泊施設を評価対象とする例を用いる.また,レビューはその数だけ書き手が存在することから評価視点の異表記が生じやすい.そこで,本研究では,評価視点のランキングに際して,クラスタリングによって異表記の影響を考慮したランキングの補正手法を提案し,ランキングとクラスタリングを併用することで評価視点の構造化をおこなう(\sec{cl}).本論文の貢献をまとめると,以下のようになる.\begin{itemize}\item[(1)]従来手法によって多数抽出される評価視点を構造化して提示する際,その構造化として,特定の評価対象を他から差別化できるような評価視点が重要であると考え,その重要度に従ってランキングすることを提案している点.\item[(2)]上記ランキング課題に利用できる具体的な尺度として,\sec{uniq_aspect_ranking}で説明する対数尤度比に従った尺度を適用し,その有効性を実験的に検証している点.\item[(3)]また,上記ランキング課題では異表記問題が発生するため,その解決策として評価視点をクラスタリングすることの提案,および具体的なクラスタリング手法を用いて,その有効性を実験的に検証している点.\end{itemize}本論文の構成は以下の通りである.まず,\sec{relation}で関連研究について述べ,続く,\sec{uniq_aspect_ranking}と\sec{cl}で評価視点をランキングするための提案手法について述べる.\sec{experiment}で評価実験について述べた後,\sec{owarini}で本論文をまとめる.
\section{関連研究}
\label{sec:relation}本論文と関連する,レビューを処理対象とする研究課題を時系列順に追って概観する.関連研究としてまず取り組まれた課題は,レビューをその内容に従って肯定か否定かに分類する課題である\cite{turney,pang,mullen}.しかし,文書単位(レビュー単位)で分類するだけでは「何がどう良いか?」がわからない点が問題とされた.そこで,この問題を解決するために,文書内で具体的に評価されている事柄(すなわち,評価視点)を特定する研究が行われるようになった\cite{hu,liu,kobayashi2,jakob}.しかし,前節でも述べたように,これら手法では評価視点が多量に出力されることから,出力される評価視点群を何らかの方法で構造化することに関心が集まるようになった.具体的な構造化の手法として,これまで,評価視点群をグルーピングする手法やランキングする手法が提案されている\cite{zhai,yu}.グルーピングする手法では,「butterypower」と「butterylife」といった同一あるいは類似の評価視点を同じグループに所属させて合わせてユーザに提示することで,ユーザの可読性を向上させることを狙う.このような手法として,例えば,Zhaiら\cite{zhai}は,事前に人手で定義した評価視点クラスに各評価視点を自動分類する手法を提案している.より具体的には,Nigamら\cite{nigam2000a}によって提案された半教師あり学習手法に,「同じ語を含む評価視点は同じ評価視点クラスになりやすい」といった情報を制約として取り込む手法を提案している.この手法のように評価視点を分類して構造化する場合,あらかじめ定義した通りの構造化ができる利点がある一方で,想定していない評価視点のクラスが必要になった場合の対応にかかる負荷が高いという欠点がある.次に,評価視点をランキングする手法では,事前に定めたある観点に従って各評価視点にスコアを付け,スコアの大きさに基いて評価視点を順番に並べてユーザに提示することを考える.これによって,ユーザは観点に合致する評価視点のみを選択的にすばやく確認することが可能になる.このような研究として,Yuら\cite{yu}の研究がある.Yuらは,まず,レビューには評価対象に対する総合的な評価点(rating)が書き手によって与えられていることを前提とする.そして,このようなレビューの中で,ユーザから多く言及されており,かつ総合的な評価点の決定にもっとも影響を与える評価視点が重要な評価視点であると仮定し,そのような評価視点をランキングする手法を提案している.論文中では重要な評価視点の例として評価対象が「iPhone3GS」である場合,「moisturesensor」という評価視点よりも「battery」や「speed」などの評価視点がより重要であると述べている.評価視点をランキングするという点で見た場合,本研究は上述のYuらの研究と似ている.しかし,Yuらの手法では,レビューに付与された総合的な評価点を説明付ける評価視点に関心がある.そのため,評価対象ごとに独立に評価視点のランキングをおこない,評価対象間を比較することは念頭にない.一方,本研究では,複数の評価対象に対して,評価対象間の違いを明確に表すことができる評価視点に関心があり,Yuらとは目的が異なっている.
\section{提案手法}
\label{sec:uniq_aspect_ranking}\subsection{評価視点}提案手法の説明の前に,ここで,評価視点という用語について整理しておく.本論文における評価視点は,基本的には,Huら\cite{hu}や小林ら\cite{kobayashi,siten}の定義に従っている.後述する評価実験では,評価対象が宿泊施設であるので,そのことを踏まえると,本論文における評価視点は,\begin{itemize}\item宿泊施設に対する意見の焦点となる宿泊施設の構成物や属性,あるいは,宿泊施設への宿泊という経験から生じる宿泊施設に対する意見の焦点となるもの\end{itemize}であると言い表せる.例えば,宿泊施設の立地情報(「駅前」,「海沿い」)や施設が提供する設備に関する情報(「風呂」,「加湿器」),施設のサービス(「バイキング」,「接客態度」)等が具体的な評価視点となる.また,評価視点の表現形式は,単一単語(「バイキング」)だけでなく,複合語(「朝食バイキング」)や句(「朝食のバイキング」)などの場合もある.本研究では以上の形式は評価視点として認めているが,処理の都合上,以下に示すように,連体修飾節を伴う場合は修飾部を除外して扱った.下記例の場合,下線部は評価視点として認めたが,どちらの例でも「メニューが新しくなった」は評価視点には含めていない.なお,表現形式の特定は以下のようにおこなった.単語の特定には形態素解析器MeCab\footnote{\url{http://mecab.sourceforge.net/}}を使用した.複合語については,MeCabで解析後,名詞が連続している箇所を複合語として特定している.句については,現在は「名詞の名詞」というパターンで特定しており,他の形は想定していない.ただし,上記パターンの名詞は名詞連続に置換可能とした.\begin{itemize}\itemメニューが新しくなった\underline{朝食バイキング}が良かった.\itemメニューが新しくなった\underline{朝食のバイキング}が良かった.\end{itemize}\subsection{評価視点ランキング}\label{sec:llr}提案手法について述べる.まず,使用する記号,および,評価視点のランキング課題を以下のように定義する.評価対象の集合を$\mathcal{O}=\{o_1,o_2,...,o_{|\mathcal{O}|}\}$とする.全ての評価対象に対する全てのレビューの集合を$\mathcal{R}$とし,$\mathcal{R}$の要素であるレビューの中に書かれた評価視点(token)の系列を$\mathcal{V}=\langlev_1,v_2,...,v_n\rangle$,$\mathcal{V}$の異なり要素(type)の集合を$\mathcal{U}=\{u_1,u_2,...,u_m\}$($m\len$)とする.例えば,以下のような,それぞれ1文と2文からなる短い2つのレビューを要素とする集合$\mathcal{R}$があり,各文の下線部が評価視点であったとすると,系列$\mathcal{V}$と集合$\mathcal{U}$は次のようになる.\begin{itemize}\item$\mathcal{R}=\big\{\text{``このホテルは\underline{\mbox{朝食$_{1}$}}と\underline{風呂}が良い.'',``\underline{\mbox{朝食$_{2}$}}が美味しい.また来たいです.''}\big\}$\item$\mathcal{V}=\bigl\langle\text{朝食$_{1}$,風呂,朝食$_{2}$}\bigr\rangle$\item$\mathcal{U}=\big\{\text{朝食,風呂}\big\}$\end{itemize}この時,ある評価対象$o_k$に関して評価視点をランキングするアルゴリズムを次の\algo{alg1}とする.このアルゴリズムが示している通り,$\mathcal{U}$の要素$u_j$がランキングの対象である.本論文では曖昧性を排除するために,以降,$u_j$のことを単に評価視点と呼び,評価視点$u_j$が$\mathcal{R}$内で出現したものを評価視点トークンと呼ぶ.\begin{algorithm}[h]\caption{評価視点ランキング}\label{algo:alg1}\begin{algorithmic}\STATE{INPUT~~~$o_k\in\mathcal{O}$:評価対象\\~~~~~~~~~~~~~~~$\mathcal{U}$:評価視点集合}\end{algorithmic}\begin{algorithmic}[1]\FOR{$u_j\in\cal{U}$}\STATE$s[u_j]=score(o_k,u_j)$\ENDFOR\RETURN$\mathcal{U}の各要素u_jをs[u_j]の降順に整列$\end{algorithmic}\end{algorithm}上記の\algo{alg1}で自明でない部分は,評価対象$o_k$における評価視点$u_j$の重要度を決定するスコア関数$\mathit{score}(o_k,u_j)$のみである.本研究では,このスコア関数として,以下のような対数尤度比(\textit{Log-LikelihoodRatio,LLR})に基づく尺度を提案する.これは内山ら\cite{uchiyama}が特定分野における単語の特徴度を測る尺度として提案したものを評価視点ランキング課題に適用したものである.以下,内山ら\cite{uchiyama}を参考にしながら,上記尺度の詳細について述べる.まず始めに,ある評価対象$o_k$と評価視点$u_j$が与えられた際,レビュー中で観測された評価視点トークン$v$に関する確率変数$W_j$と$T_k$を以下のように定義する:\begin{align}W_j&=\begin{cases}1&vは評価視点u_jのレビュー内での出現である\\0&otherwise\end{cases}\label{eq:w}\\T_k&=\begin{cases}1&vが観測されたのは評価対象o_kのレビュー内である\\0&otherwise\end{cases}\end{align}ここで,評価視点トークン$v_i$($1\lei\len$)に対応する確率変数$W_j$,$T_k$の値をそれぞれ$w^i_j$,$t^i_k$とすると,$\mathcal{V}$から次のような確率変数の値の組みで表された系列$\mathcal{V}_{jk}=\bigl\langle\langlew^1_j,t^1_k\rangle,\langlew^2_j,t^2_k\rangle,...,\langlew^n_j,t^n_k\rangle\bigr\rangle$が新たに得られる.この時,それぞれの評価視点トークンが確率的に独立であると仮定すると,$\mathcal{V}_{jk}$の生起確率は次式で表される:\begin{equation}Pr(\mathcal{V}_{jk})=\prod_{i=1}^{n}Pr(W_j=w^i_j,T_k=t^i_k)\end{equation}\begin{table}[b]\vspace{-1\Cvs}\caption{トークン集合の集計表}\input{01table01.txt}\end{table}また,各トークンを変数$W_j$,$T_k$の値ごとに出現頻度を集計\pagebreakすることを考え,各頻度を\tab{kankei}のように,それぞれ$a$,$b$,$c$,$d$で表すことにする.ここで,$a+b+c+d=n$である.以上の準備のもと,次の対数尤度比を考える:{\allowdisplaybreaks\begin{align}LLR_0(o_k,u_j)&=\log\frac{Pr(\mathcal{V}_{jk};H_{dep})}{Pr(\mathcal{V}_{jk};H_{indep})}\nonumber\\&=\sum_{i=1}^{n}\log\frac{Pr(W_j=w^{i}_j,T_k=t^{i}_k;H_{\mathit{dep}})}{Pr(W_j=w^{i}_j,T_k=t^{i}_k;H_{\mathit{indep}})}\label{eq:llr0}\end{align}}ここで,$H_\mathit{dep}$および$H_\mathit{indep}$は,以下のような,確率変数に関する仮説である.\begin{itemize}\item$H_\mathit{dep}$:確率変数$W_j$と$T_k$とは互いに依存している.\item$H_\mathit{indep}$:確率変数$W_j$と$T_k$とは互いに独立である.\end{itemize}\eq{llr0}において,$H_\mathit{indep}$の下では,\[Pr(W_j=w^i_j,T_k=t^i_k;H_\mathit{indep})=Pr(W_j=w^i_j)Pr(T_k=t^i_k)\]が成り立つ.また,各種の確率は,\begin{align*}Pr(W_j=1,T_k=1;H_\mathit{dep})&=\frac{a}{n},\quadPr(W_j=1,T_k=0;H_\mathit{dep})=\frac{b}{n}\\Pr(W_j=0,T_k=1;H_\mathit{dep})&=\frac{c}{n},\quadPr(W_j=0,T_k=0;H_{dep})=\frac{d}{n}\\Pr(W_j=1)&=\frac{a+b}{n},\quadPr(W_j=0)=\frac{c+d}{n}\\Pr(T_k=1)&=\frac{a+c}{n},\quadPr(T_k=0)=\frac{b+d}{n}\end{align*}で推定する.この尺度は,2つの確率変数$W_j$と$T_k$とが依存しているという条件,および,独立であるという条件の下で,データが観測される確率の比の対数を表しており,$W_j$と$T_k$の依存性が高い程,大きな値をとる.もし,ある評価視点がどの評価対象にも共通するような一般的な視点であれば,評価視点トークンは,どの評価対象のレビュー中にも同じように出現すると考えられる.すなわち,$W_j$と$T_k$とは互いに独立であると考えられ,上記尺度は小さな値をとる.一方で,ある評価視点が特定の評価対象にのみ特徴的な出現を示すようであれば,$W_j$と$T_k$とは依存しており,上記尺度は大きな値をとる.つまり,この尺度をスコア関数とすることで,特定の評価対象に特徴的な評価視点に対して大きなスコアを割り振ることができる.ただし,上記尺度は,ある評価視点が特定の評価対象に対して特徴的に言及される場合と特徴的に言及されない場合を区別できない.そのため,どちらの状況であっても大きな値をとってしまう.そこで,言及される場合とされない場合を区別できるよう,実際には以下のように補正して利用する.\pagebreak\begin{equation}LLR(o_k,u_j)=sign(ad-bc)LLR_{0}(o_k,u_j)\label{eq:finalrank}\end{equation}ただし,\begin{equation}sign(z)=\begin{cases}+1&z>0\\-1&\mathit{otherwise}\\\end{cases}\end{equation}である.
\section{異表記問題への対応}
\label{sec:cl}\subsection{異表記問題}\label{sec:clustering_summary}レビューではユーザの数だけ書き手が存在しており,同じ概念が述べられていたとしても,ユーザによって異なる単語が使われることがしばしばある.例えば,価格について何かを述べたいときに,あるユーザは「価格」と表記したが,別ユーザは「料金」や「値段」等,別の単語を使うことがある.また,レビューは,評価対象という自明な文脈をもつ文書であるため,同じ評価対象のもとでユーザが共有しているであろう情報がしばしば省略表記される傾向があり,例えば,最寄り駅の「東京駅」を単に「駅」と表記するユーザ等,その表記はユーザによってさまざまに変化する.一般的に,このような異表記の問題や表記揺れの問題(以下,単に異表記の問題と呼ぶ)はよく知られているが,評価視点のランキング課題に対しても悪影響を与えていると考えられる.前節で述べた提案尺度では評価視点の出現頻度の情報を用いているが,異表記が考えられる評価視点については,異表記の数だけ頻度が分散してカウントされてしまい,その結果,それらの評価を誤ってしまう.以下では,この異表記問題の影響を回避する手法について述べる.本手法は,評価視点をクラスタリングすることによって,同じ意味あるいは類似した意味の評価視点をクラスタにまとめ上げ,クラスタ情報に基いてランキングを補正する.手法は,クラスタ情報をランキングに反映させる方法によって,事前処理法と事後処理法の2つに分かれる(\fig{clustering}).以下ではまず,2つの手法について述べ,その後,各手法の中で用いるクラスタリング手法について述べる.\subsection{事前処理法と事後処理法}事前処理法(\fig{clustering}の(b))では,ランキングの前に評価視点のクラスタリングを実施し,同一の意味あるいは類似した意味の評価視点をクラスタにまとめ上げる.そして,同じクラスタとなる視点群をひとつの評価視点であるように扱い出現頻度を数えることで対数尤度比を計算し,ランキングをおこなう.\begin{figure}[t]\begin{center}\includegraphics{20-1ia960f1.eps}\end{center}\caption{ランキングの補正手法の概略}\label{fig:clustering}\end{figure}具体的には,\sec{llr}で導入した\eq{w}の評価視点トークンに関する確率変数$W_j$を次の\eq{w2}のように再定義してスコア関数を計算することで,クラスタ情報をランキングに反映させる.ただし,下記の式中の$v$と$u_j$は\eq{w}と同様,評価視点トークンと評価視点をそれぞれ意味する.\begin{equation}W_j=\begin{cases}1&\text{$v$は評価視点$u_j$のレビュー内での出現である}\\1&\text{$v$は$u_j$と同じクラスタに属する評価視点のレビュー内での出現である}\\0&\mathit{otherwise}\end{cases}\label{eq:w2}\end{equation}事後処理法(\fig{clustering}の(c))では,ランキングを先に行い,その後,クラスタリングによって得られたクラスタ情報に従ってランキング結果を補正する.具体的には,ある評価視点$u_j$がクラスタ$C(u_j)$に所属する場合を考えると,ランキングに使用するスコア関数\eq{finalrank}で得られた値に対して,次の\eq{finalrank2}を計算する.\begin{equation}\mathit{LLR}\_\mathit{cluster}(o_k,u_j)=\frac{1}{|C(u_j)|}\sum_{u_l\inC(u_j)}\mathit{LLR}(o_k,u_l)\label{eq:finalrank2}\end{equation}\eq{finalrank2}が示すように,事後処理法では,元の重要度をクラスタ内で平均化した値を重要度として採用する.\subsection{評価視点クラスタリング}\label{sec:clustering_mothod}次に,上記の補正手法で用いるクラスタリングについて述べる.クラスタリングのアルゴリズムは,以下に示す標準的なアルゴリズム\cite{clustering}を採用する.ただし,アルゴリズム内で利用される評価視点間の類似度尺度については,以下で述べるシソーラスに基づく類似度において,ユーザレビューの特性を踏まえて拡張を施した尺度を新たに採用する.なお,クラスタリングの議論をおこなう場合,一般には距離や非類似度を定義することが多いが,説明の便宜上,ここでは類似度を定義している点に注意されたい.以下,クラスタリング・アルゴリズムについて概要を述べた後,評価視点間の類似度尺度について述べる.クラスタリングには,以下に示す3つのアルゴリズムを採用した.いずれも,凝集型の手法であり,もっともクラスタ間類似度の高い2つのクラスタをボトムアップに再帰的に併合しながらクラスタリングを進める点が共通しているが,クラスタ間類似度の定義が異なる.単連結法(\textit{singlelinkagemethod})は,クラスタ$C_i$と$C_j$の要素間の類似度$\mathit{wsim}(k,s)$の中で,最大の類似度をクラスタ間の類似度$\mathit{csim}(C_i,C_j)$とする:\begin{equation}\label{eq:single}\mathit{csim}(C_i,C_j)=\max_{k\inC_i,s\inC_j}\mathit{wsim}(k,s)\end{equation}完全連結法(\textit{completelinkagemethod})は,クラスタ$C_i$と$C_j$の要素間の類似度の中で,最小の類似度をクラスタ間の類似度とする:\begin{equation}\label{eq:complete}\mathit{csim}(C_i,C_j)=\min_{k\inC_i,s\inC_j}\mathit{wsim}(k,s)\end{equation}また,群平均法(\textit{groupaveragemethod})は,クラスタ$C_i$と$C_j$の各要素間の平均類似度をクラスタ間の類似度とする:\begin{equation}\label{eq:group}\mathit{csim}(C_i,C_j)=\frac{1}{|C_i||C_j|}\sum_{k\inC_i}\sum_{s\inC_j}\mathit{wsim}(k,s)\end{equation}次に,評価視点間の類似度$\mathit{wsim}(k,s)$について説明する.評価視点間の類似度には,以下で述べる3種類の類似度尺度を併用した.なお,どの類似度も0以上1以下の値をとり,同じ評価視点が入力となった場合に対して最大値$1$を返す($\mathit{wsim}(k,k)=1$).\subsubsection{シソーラスに基づく類似度}2つの単語$k$と$s$の類似度を求める手法として,シソーラスに基づく類似度がある.これは次式のように定義される\cite{nagao}:\begin{equation}\label{eq:thesaurus}\mathit{wsim}'_\mathit{the}(k,s)=\begin{cases}\frac{2×d_\mathit{share}(k,s)}{d(k)+d(s)}&(k,s\inT)\\0&(\mathit{otherwise})\\\end{cases}\end{equation}ここで,$d(k)$と$d(s)$は階層構造をなすシソーラス中での当該単語の位置する深さをあらわし,$d_\mathit{share}(k,s)$は階層構造における単語$k$と単語$s$の共通祖先ノードが位置する深さの最大値をあらわす.また,$T$はシソーラスに含まれる見出し語の集合である.一般に,シソーラスは人手により構築されていることから,シソーラスの見出し語に含まれる単語間の類似度を測るにはこの尺度は有用と言える.しかし,今回対象としている評価視点には「施設管理」といったシソーラスには登録されにくい複合語なども含まれているため,上記尺度そのままでは多数の評価視点間の類似度が$0$となってしまう問題がある.そこで,本論文では類似度が求められる評価視点ペアの被覆率を上げるために,以下のように拡張した類似度を採用する:\begin{equation}\label{eq:thesaurus_k}wsim_{the}(k,s)=\begin{cases}\mathit{wsim}'_\mathit{the}(k,s)&(k,s\inT)\\\frac{1}{|k|}\sum_{i=1}^{|k|}\mathit{wsim}'_\mathit{the}(k_i,s)&(k\notinT,s\inT)\\\frac{1}{|s|}\sum_{j=1}^{|s|}\mathit{wsim}'_\mathit{the}(k,s_j)&(k\inT,s\notinT)\\\frac{1}{|k||s|}\sum_{i=1}^{|k|}\sum_{j=1}^{|s|}\mathit{wsim}'_\mathit{the}(k_i,s_j)&(k\notinT,s\notinT)\end{cases}\end{equation}ここで,形態素解析によって各評価視点を形態素に分割したものをそれぞれ$k_1,\ldots,k_{|k|}$,$s_1,\ldots,s_{|s|}$で表しており,拡張版では,従来の式で類似度が求められない場合は対象を分割して類似度を求めていることがわかる.例えば,引数$k$が「施設管理」である例を考える.ここで,「施設管理」はシソーラスに含まれておらず,またもう一方の引数$s$はシソーラスに含まれる何らかの単語であるとする.この場合の類似度計算は\eq{thesaurus_k}の2行目によっておこなわれ,「施設管理」を「施設」と「管理」に分割させた後,それぞれの形態素に対して\eq{thesaurus}の$\mathit{wsim}'_\mathit{the}()$へ問合せを実行し,個別に$s$との類似度を求める.そして,問合せ結果の平均を「施設管理」と$s$との間の類似度であるとする.\eq{thesaurus_k}では,分割操作によって,シソーラスのエントリとの照合率が改善され,類似度が求められない事例数を削減させる効果が期待できる.\subsubsection{表層文字列に基づく類似度}次に,上記のシソーラスに基づく類似度尺度を補完するために,評価視点の表層文字列に基づく類似度を考える.本研究では,最長共通部分文字列\textit{LCS}(\textit{longestcommonsubsequence})\cite{hirschberg}に基づく以下の類似度尺度を採用する:\begin{equation}\mathit{wsim}_\mathit{lcs}(k,s)=\frac{2\times\mathit{LCS}(k,s)}{|k|+|s|}\label{eq:lcs}\end{equation}ここで,$\mathit{LCS}(k,s)$は$k$と$s$の最長共通部分文字列の長さであり,上式は,その値を$k$,$s$それぞれの文字列の長さを基に正規化している.表層文字列に基づく類似度は,「焼きたてパン」と「焼き立てパン」のような部分的な漢字表記とひらがな表記の違いや,「バイキング」と「朝食バイキング」のような文字数の比較的多いカタカナ列からなる評価視点の類似性を測る際に特に効果的であると期待できる.例えば,6文字で構成される「焼きたてパン」と「焼き立てパン」がそれぞれ$k$と$s$である例を考える.両者の違いは,ひらがな「た」と漢字「立」の1文字だけであり,その他は各文字の順序等すべて同じである.この場合,$\mathit{LCS}(k,s)=5$で,$\mathit{wsim}_\mathit{lcs}(k,s)=10/12$となり,高い類似度が得られる.LCSの代わりに,不連続になる部分文字列の影響を考慮した文字列カーネル\cite{lodhi}を用いた予備実験も行ったが,LCSとほぼ同様の実験結果を得た.そのため,\sec{experiment}の実験ではLCSを用いた結果のみ報告する.\subsubsection{文脈情報に基づく類似度}類似度を補完するもう一つの方法として,評価視点が現れる文脈の情報に基づく類似度を考える.これは一般に,似た意味をもつ単語は似た文脈に現れやすいと言われており,この性質に従って,単語が現れる周辺文脈を基に類似度を求める手法である.本研究では,代表的な手法の一つである,次式のコサイン類似度を採用する\cite{lin}:\begin{equation}\label{eq:context}\mathit{wsim}_\mathit{cos}(k,s)=\frac{\boldsymbol{v}_{k}\cdot\boldsymbol{v}_{s}}{||\boldsymbol{v}_{k}||||\boldsymbol{v}_{s}||}\end{equation}ここで,$\boldsymbol{v}_k$と$\boldsymbol{v}_s$は,それぞれ$k$と$s$の文脈に現れる単語から構成される単語頻度ベクトルである.また,ここでは,当該の評価視点に対応するすべての評価視点トークンから文脈情報を獲得し,それらの情報からひとつのベクトルを作成する.文脈情報に基づく類似度は,「東京駅」と「駅」や「最寄り駅」のような,文脈に依存した評価視点の類似性を測る際に特に効果的であると期待できる.\subsubsection{各種類似度の統合}ここまで述べたように各類似度尺度は,それぞれ異なる情報に基いており,互いに相補関係にあると言える.そこで,クラスタリングの際は,各類似度尺度を単独で用いるのではなく,次式のように統合して用いる事とする:\begin{equation}\mathit{wsim}(k,s)=\max\{\mathit{wsim}_\mathit{the}(k,s),\\mathit{wsim}_\mathit{lcs}(k,s),\\mathit{wsim}_\mathit{cos}(k,s)\}\label{eq:sim_mix}\end{equation}
\section{評価実験}
\label{sec:experiment}\subsection{実験条件}実験には,代表的な宿泊施設予約サイトのひとつである楽天トラベル\footnote{\url{http://travel.rakuten.co.jp/}}に書き込まれた\pagebreakレビューを用いた.楽天トラベルに登録されている宿泊施設のうち,都内近辺に立地している11施設を対象とし,各施設ごとに100レビューを実験に使用した.また,上記レビュー群から人手で評価視点を抽出して実験の入力データとして用いることにし,さらにそこから特徴的評価視点を人手で選び出し,評価用データとして用いた.この作業によって得られた評価視点は施設あたり平均101個であり,得られた特徴的評価視点は施設あたり平均12.1個である.データの信頼性を検証するために2名の作業者($A$と$B$)によってデータ作成をおこない,特徴的評価視点と判定する際の一致度を以下の計算式で求めた.\begin{equation}\mathit{agreement}(X,Y)=\frac{\text{$X$と$Y$が共に特徴的であると判定した評価視点の数}}{\text{$X$が特徴的であると判定した評価視点の数}}\end{equation}判定の一致度は,$\mathit{agreement}(A,B)=0.72$と$\mathit{agreement}(B,A)=0.77$となり,この結果から,作業者間の判定はある程度一致していることが確認できる.また,事例分析から,以下のような事例において判定が一致しない傾向があることが確認できた.\begin{itemize}\item評価視点に異表記がある場合:作業者が共に特徴的であると判定した評価視点に異表記がある場合,作業者による異表記の認定不足から,一部の評価視点が特徴的であると判定されない.\item連続量を伴う評価視点の場合:例えば「駅前で良かった」や「駅に近く良かった」のような最寄り駅からの近さについての言及があった場合,どの程度の距離であれば特徴的な評価視点であると判定するかについては作業者の主観に拠る部分が多い.\end{itemize}なお,一致度の測定に$\kappa$値を用いることも考えられる.しかし,次の理由から今回は実態を把握するのに適していないと考え,$\kappa$値の採用を見送った.すなわち,本実験で用いたデータは,特徴的でない評価視点が全体の9割程度を占めているが,$\kappa$値ではこれらに対して作業者が共に特徴的でないと判定した場合も一致度に反映されるためである.シソーラスに基づく類似度を計算するためのシソーラスには,分類語彙表\cite{bunrui}を用いた.また,文脈情報に基づく類似度では,予備実験の結果から経験的に窓枠を5と定め,対象の前後5単語を文脈情報として利用した.ただし,単語情報はMeCabによって文脈を形態素解析することで獲得し,その際,品詞が「助詞」,「助動詞」,「記号」である場合は窓枠のカウント対象から除外した.実験において,スコア関数として対数尤度比を実際に計算する際は,ラプラススムージング\cite{map}を適用した.スコア関数のベースラインとして,\textit{TF}および\textit{TF-IDF}\cite{map}に基づく関数を用いた.一般に,\textit{TF},\textit{TF-IDF}は,文書ごとに単語へ重み付けする際に利用される.しかし,ここでは文書ごとの差異ではなく施設ごとの差異に注目したいため,次式のように,ある施設に対する全レビューをひとつの文書として扱う.\subsubsection{TF法}\vspace{-1\abovedisplayskip}\begin{equation}\mathit{TF}(o_k,u_j)=\text{施設$o_k$の全レビューにおける評価視点}u_jの出現頻度\label{eq:tf}\end{equation}これは,言い換えると,\tab{kankei}の$a$のみをスコア関数として考慮することに等しい.\subsubsection{TF-IDF法}\vspace{-1\abovedisplayskip}\begin{equation}\mathit{TF-IDF}(o_k,u_j)=\mathit{TF}(o_k,u_j)×\log(\frac{|D|}{DF(u_j)}+1)\label{eq:tfidf}\end{equation}$|D|$は一般的な定義では文書数であるが,上記で述べたように今回は施設数に等しい.$DF(u_j)$はレビューに評価視点$u_j$が現れた施設数である.評価尺度には,情報検索のランキング課題の評価によく利用される\textit{MeanAveragePrecision}(\textit{MAP})を用いた.\textit{MAP}は次式で定義される\cite{map}.\begin{equation}\mathit{MAP}=\frac{1}{|\mathcal{O}|}\sum_{o_k\in\mathcal{O}}\frac{1}{|\mathcal{A}_k|}\sum_{\hat{u}_j\in\mathcal{A}_k}\mathit{Precision}(\mathit{rank}(o_k,\hat{u}_j))\label{eq:map}\end{equation}ここで,$\mathcal{O}$は評価対象の集合であり,$\mathcal{A}_k$は評価対象$o_k$のレビューから人手によって得られた特徴的評価視点の集合である.$\mathit{rank}(o_k,\hat{u}_j)$は$o_k$中のある特徴的評価視点$\hat{u}_j$が,何らかのランキング手法によって与えられた順位を示しており,$\mathit{Precision}(\mathit{rank}(o_k,\hat{u}_j))$は,その順位までの出力結果における適合率である.つまり,ここでは,ひとつの評価対象が情報検索におけるひとつの検索課題に相当するものと見なされて評価される.\subsection{実験結果}\label{sec:experiment1}\begin{table}[b]\caption{実験結果(異表記を考慮しない場合)}\label{tab:ranking_result}\input{01table02.txt}\end{table}まず,異表記問題への対応を考慮しない場合の結果について述べる.この結果を\tab{ranking_result}に示す.\tab{ranking_result}から提案手法\textit{LLR}がベースライン手法(\textit{TF}および\textit{TF-IDF})よりも性能が向上することが確認できた.\textit{TF}では,\eq{tf}からもわかるように,比較すべき他施設の評価視点に関する情報を全く考慮していない.そのため,もっとも低い性能になったと考えられる.次に,\textit{TF-IDF}では,$\mathit{DF}(u_j)$によって他施設の情報をある程度考慮することができるが,その情報は出現の有無のみである.一方の\textit{LLR}では,評価視点の他施設での出現頻度に関する情報も反映できており,この差が\tab{ranking_result}の結果に繋がったと考えられる.\tab{ranking_result}の結果に対して,「手法間の\textit{AveragePrecision}に差がない」という帰無仮説を立て,対応のある両側$t$検定を実施した.その結果,\textit{LLR}法と\textit{TF}法,および\textit{LLR}法と\textit{TF-IDF}法のどちらとの間でも,有意水準$1\%$で統計的有意差が確認できた.\begin{table}[b]\caption{評価視点ランキングの結果例(異表記を考慮しない場合)}\label{tab:ranking_top}\input{01table03.txt}\end{table}\tab{ranking_top}に,実験データ中の3つの宿泊施設におけるランキング結果の例を示す.下線にボールド体の評価視点が正しい特徴的評価視点をあらわす.また,括弧内は出現頻度(\textit{TF}値)である.評価視点の右に``*''印があるものについては,その評価視点が含まれていた文脈(の一部)を例として\tab{ranking_top_example}に示す.\tab{ranking_top}の事例の観察から,\textit{TF}では「部屋」や「立地」,「対応」など一般的で出現頻度が高くなりやすい語が上位を占めており,それらの一部が誤りとなっていた.その一方で,\textit{LLR}では「武道館」などの出現頻度は決して高くないが対象施設に固有な評価視点の順位がベースラインよりも上がっており,提案手法では他施設との比較がうまく機能していたことがわかる.しかし,\tab{ranking_top}の観察によると,「パン」と「朝食のパン」のように,宿泊者から見れば同一の事物と考えられるものが異なる順位として現れており,また,\tab{ranking_top}から外れた下位の評価視点に目を向けると,12位に「クロワッサン」,50位には「焼き立てパン」などが含まれており,異表記が生じていることも同時に確認できた.\begin{table}[t]\caption{評価視点を含む文脈の例}\label{tab:ranking_top_example}\input{01table04.txt}\end{table}そこで次に,\sec{cl}で述べた補正手法によって異表記問題に対応した場合の結果について述べる.3つのランキング手法(\textit{TF},\textit{TF-IDF},および,\textit{LLR})に対して補正手法を適用した実験をおこなったが,\textit{TF},\textit{TF-IDF}が\textit{LLR}を上回ることがなかったため,以下では,\textit{LLR}に対して補正手法を適用する場合の結果を中心に述べる.補正手法を適用した結果を\fig{ranking_result_be}と\fig{ranking_result_af}に示す.\fig{ranking_result_be}が事前処理法の結果であり,\fig{ranking_result_af}が事後処理法の結果である.各図において,縦軸は\textit{MAP}を示し,横軸は以下で述べる類似度への閾値を示している.凝集型クラスタリングでは,デンドログラムと呼ばれるクラスタをノードとする木を生成するが,各クラスタにはその子ノードの情報から計算される類似度が付随している.本実験では,この類似度に閾値を設け,類似度が閾値以下になったときに併合を停止させてクラスタリング結果を得ることにし,閾値を変化させながら,それぞれの\textit{MAP}を計測した.今回の場合,類似度の値が$1.0$となる事例が存在していなかったため,横軸左端の結果は,クラスタリングを行わない場合の結果(\tab{ranking_result}の$0.574$)と同一となっている.\begin{figure}[t]\begin{center}\includegraphics{20-1ia960f2.eps}\end{center}\caption{実験結果(異表記を考慮する場合:事前処理法)}\label{fig:ranking_result_be}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{20-1ia960f3.eps}\end{center}\caption{実験結果(異表記を考慮する場合:事後処理法)}\label{fig:ranking_result_af}\end{figure}\fig{ranking_result_be},\fig{ranking_result_af}共に,全体的な傾向として,類似度の閾値を$1.0$から下げるに従い\textit{MAP}が上昇していくことから,クラスタリングを施すことに一定の効果があることが確認できるが,ある類似度を契機に下降に転ずることがわかる.このような結果は次の理由によると考えられる.すなわち,もともと全ての評価視点において異表記が存在するわけではないため,クラスタリングすべき評価視点も部分的となる.今回のようにボトムアップにクラスタリングを進めた時,ある点でクラスタリングすべき評価視点のまとめ上げが終了し,この時点が最適なクラスタ数となり最良の\textit{MAP}値を得る.しかし,それ以降は本来クラスタリングすべき評価視点に対するまとめ上げではなくなるため本来の目的とは逆に過併合が生じることになり,性能が悪化すると考えられる.\textit{MAP}値が下降するタイミングがクラスタリング手法によって大幅に異なるが,この違いはクラスタリング手法に起因して必然的に生じる結果であると考えられる.すなわち,単連結法(\eq{single})は類似度の最大値に基いて併合を進めるため,ノードに付随する類似度が3手法の中で最も速く大きくなり,\textit{MAP}値も最も速く下降していく.完全連結法(\eq{complete})は,逆に,類似度の最小値に基いているため,\textit{MAP}値の下降が最も遅い.また,類似度の平均値に基づく群平均法(\eq{group})は,上記両者の中間に位置していると言える.\begin{table}[b]\caption{評価視点ランキングの結果例(異表記を考慮した場合)}\label{tab:ranking_top2}\input{01table05.txt}\end{table}クラスタリングを施した場合のランキング結果の例を\tab{ranking_top2}に示す.例示している宿泊施設は\tab{ranking_top}と同じであり,\tab{ranking_top2}において,下線にボールド体の評価視点が正しい特徴的評価視点をあらわす.また,各表の右列がクラスタ情報である.表の観察から,クラスタリングによって異表記がまとめ上げられていることが確認できる.また,宿泊施設Aのように,クラスタリング前は「パン」,「朝食のパン」という情報しかわからなかった状態において,「クロワッサン」のように,詳細な情報を補う効果も事例によって期待できることがわかった.同様の観点で\tab{ranking_top2}以外の事例を観察してみると,クラスタリング前は「野菜」という評価視点のみが上位にランクされていたが,クラスタリングによって野菜が「春野菜」であることが補えたり,クラスタリング前は「壁」のみであったものが,クラスタリングによって「防音」の壁であることが補える例が存在していた.\begin{figure}[b]\begin{center}\includegraphics{20-1ia960f4.eps}\end{center}\caption{類似度尺度ごとの性能}\label{fig:ranking_sim}\end{figure}\begin{table}[b]\caption{クラスタリングによって構成された評価視点の異表記クラスタの例}\label{tab:cluster}\input{01table06.txt}\end{table}最後に,3種類の類似度を統合した効果を確認する.\fig{ranking_sim}に3種類の類似度尺度を単独で用いた場合の結果および類似度を統合した場合の結果を示す.類似度尺度以外の実験設定は先程の結果で最良の$MAP$値となった設定,すなわち,群平均法でクラスタリングし,事後処理法でランキングを補正する手法を適用した.また,クラスタリングによって構成されたクラスタの例を\tab{cluster}に示す.表の各行において,そのクラスタを構成した類似度尺度に「◯」印を付けている.また,2つ以上の類似度尺度で同じクラスタが構成されていた場合は類似度の値が最も高い類似度尺度に「◯」印を付けている.\fig{ranking_sim}から,どの類似度尺度も統合結果の最良値を上回ることはなく,このことから,類似度を統合することの効果が確認できた.ただし,今回使用したデータに対して人手でクラスタリングを施した結果を用いてランキングを補正したところ,\textit{MAP}値は$0.713$まで向上した.つまり,クラスタリング手法および統合手法に対する改善の余地が残されていることが示唆される.
\section{おわりに}
\label{sec:owarini}本論文では,レビュー集合から得られる多数の評価視点を重要度に従ってランキングする課題を考え,対数尤度比の考え方に基づく,意見集約のための重要度を提案した.また,クラスタリングをおこなう事で,評価視点の異表記の問題に対処する手法を提案し,それらの有効性を評価実験を通して検証した.その結果,単純な出現頻度に基づく\textit{TF}法や,\textit{TF}法に出現文書数の情報を加えた\textit{TF-IDF}法よりも,対数尤度比に基づく提案手法を用いた方がランキング性能が向上すること,また,クラスタリングによって評価視点の異表記の問題を改善することができることを確認した.今後の課題として,以下の項目が挙げられる.まず,本論文では意見集約のための重要度として,対数尤度比の考え方に従った尺度についてその有効性を検証した.しかし,単語の重み付け尺度は本論文で議論した3つの尺度以外にも従来から提案されているため,それらの尺度についても,今後,意見集約に適した尺度であるかどうか検討していきたい.本論文の冒頭で紹介したHuらの研究\cite{hu}のように,一般に,レビューから抽出された評価視点には,その視点に対するユーザの評価(肯定評価か否定評価)が付随しているが,現在の提案手法では評価情報は無視している.そこで,評価視点への評価情報を重要度に反映させる手法を検討することが考えられる.例えば,評価対象間における肯定評価と否定評価の分布の異なり方に応じて重要度を修正することなどが考えられる.\sec{experiment}の評価実験では,提案した補正手法によって評価視点の異表記の問題に対処することでランキングの性能が改善できることを確認した.しかし,評価視点の異表記を発見する手法に関しては,今後,他手法も含めたさらに詳細な検討が必要である.他手法としては,例えば,分類語彙表のかわりに日本語WordNet\cite{isahara2008a}を用いた手法や,また,シソーラス等の既存の言語知識に頼らない教師あり学習に基づく類義語検出法\cite{mauge2012a}の検討などが考えられる.また,異表記とは逆に,多義の評価視点に対する対応も今後必要であると考えられる.例えば,評価実験の際に使用した宿泊施設のレビューの中には,宿泊施設への送迎に利用される乗り物としての「バス(bus)」と,部屋にある入浴設備としての「バス(bath)」があるが,現在これらは「送迎バス」というように明示的な修飾を伴わない限り,区別して扱われていない.今後は異表記と同様に多義語への対応についても検討したい.\acknowledgment本研究の一部は科学研究費補助金(課題番号23300053)のもとで実施された.また,実験にあたり,楽天トラベル株式会社から施設レビューデータを提供して頂いた.ここに記して感謝の意を表します.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Hastie,Tibshirani,\BBA\Friedman}{Hastieet~al.}{2001}]{clustering}Hastie,T.,Tibshirani,R.,\BBA\Friedman,J.\BBOP2001\BBCP.\newblock{\BemTheElementsofStatisticalLearning}.\newblockSpringer.\bibitem[\protect\BCAY{Hirschberg}{Hirschberg}{1977}]{hirschberg}Hirschberg,D.~S.\BBOP1977\BBCP.\newblock\BBOQAlgorithmsforthelongestcommonsubsequenceproblem.\BBCQ\\newblock{\BemJournaloftheAssoclauonforComputingMachinery},{\Bbf24}(4),\mbox{\BPGS\664--675}.\bibitem[\protect\BCAY{Hu\BBA\Liu}{Hu\BBA\Liu}{2004}]{hu}Hu,M.\BBACOMMA\\BBA\Liu,B.\BBOP2004\BBCP.\newblock\BBOQMiningOpinionFeaturesinCustomerReviews.\BBCQ\\newblockIn{\BemProceedingsofthe19thNationalConferenceonArticialIntelligence},\mbox{\BPGS\755--760}.\bibitem[\protect\BCAY{Isahara,Bond,Uchimoto,Utiyama,\BBA\Kanzaki}{Isaharaet~al.}{2008}]{isahara2008a}Isahara,H.,Bond,F.,Uchimoto,K.,Utiyama,M.,\BBA\Kanzaki,K.\BBOP2008\BBCP.\newblock\BBOQDevelopmentofJapaneseWordNet.\BBCQ\\newblockIn{\BemProceedingsof6thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\2420--2423}.\bibitem[\protect\BCAY{Jakob\BBA\Gurevych}{Jakob\BBA\Gurevych}{2010}]{jakob}Jakob,N.\BBACOMMA\\BBA\Gurevych,I.\BBOP2010\BBCP.\newblock\BBOQExtractingopiniontargetsinasingle-andcross-domainsettingwithconditionalrandomfields.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1035--1045}.\bibitem[\protect\BCAY{小林}{小林}{2007}]{kobayashi2}小林のぞみ\BBOP2007\BBCP.\newblock{\BemOpinionminingfromWebDocuments:ExtractionandStructurization}.\newblockPh.D.\thesis,奈良先端科学技術大学院大学情報科学研究科.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本}{小林\Jetal}{2006}]{siten}小林のぞみ\JBA乾健太郎\JBA松本裕治\BBOP2006\BBCP.\newblock意見情報の抽出/構造化のタスク仕様に関する考察.\\newblock\Jem{情報処理学会研究報告(NL171-18)},\mbox{\BPGS\111--118}.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本\JBA立石\JBA福島}{小林\Jetal}{2005}]{kobayashi}小林のぞみ\JBA乾健太郎\JBA松本裕治\JBA立石健二\JBA福島俊一\BBOP2005\BBCP.\newblock意見抽出のための評価表現の収集.\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\203--222}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2004}]{bunrui}国立国語研究所\BBOP2004\BBCP.\newblock\Jem{分類語彙表—増補改訂版—}.\newblock大日本図書.\bibitem[\protect\BCAY{Lin}{Lin}{1998}]{lin}Lin,D.\BBOP1998\BBCP.\newblock\BBOQAutomaticretrievalandclusteringofsimilarwords.\BBCQ\\newblockIn{\BemProceedingofthe{COLING}-{ACL}},\mbox{\BPGS\768--774}.\bibitem[\protect\BCAY{Liu,Hu,\BBA\Cheng}{Liuet~al.}{2005}]{liu}Liu,B.,Hu,M.,\BBA\Cheng,J.\BBOP2005\BBCP.\newblock\BBOQOpinionObserver:AnalyzingandComparingOpinionsontheWeb.\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalWorldWideWebConference},\mbox{\BPGS\342--351}.\bibitem[\protect\BCAY{Lodhi,Saunders,Shawe-Taylor,Cristianini,\BBA\Watkins}{Lodhiet~al.}{2002}]{lodhi}Lodhi,H.,Saunders,C.,Shawe-Taylor,J.,Cristianini,N.,\BBA\Watkins,C.\BBOP2002\BBCP.\newblock\BBOQTextClassificationusingStringKernels.\BBCQ\\newblock{\BemTheJournalofMachineLearningResearch},{\Bbf2},\mbox{\BPGS\419--444}.\bibitem[\protect\BCAY{Manning,Raghavan,\BBA\Schutze}{Manninget~al.}{2008}]{map}Manning,C.~D.,Raghavan,P.,\BBA\Schutze,H.\BBOP2008\BBCP.\newblock{\BemIntroductiontoInformationRetrieval}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Mauge,Rohanimanesh,\BBA\Ruvini}{Maugeet~al.}{2012}]{mauge2012a}Mauge,K.,Rohanimanesh,K.,\BBA\Ruvini,J.-D.\BBOP2012\BBCP.\newblock\BBOQStructuringE-CommerceInventory.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\805--814}.\bibitem[\protect\BCAY{Mullen\BBA\Collier}{Mullen\BBA\Collier}{2004}]{mullen}Mullen,T.\BBACOMMA\\BBA\Collier,N.\BBOP2004\BBCP.\newblock\BBOQSentimentAnalysisusingSupportVectorMachineswithDiverseInformationSources.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing}.\bibitem[\protect\BCAY{長尾}{長尾}{1996}]{nagao}長尾真(編)\BBOP1996\BBCP.\newblock\Jem{自然言語処理}.\newblock岩波書店.\bibitem[\protect\BCAY{Nigam,McCallum,Thrun,\BBA\Mitchell}{Nigamet~al.}{2000}]{nigam2000a}Nigam,K.,McCallum,A.~K.,Thrun,S.,\BBA\Mitchell,T.~M.\BBOP2000\BBCP.\newblock\BBOQTextClassificationfromLabeledandUnlabeledDocumentsusing{EM}.\BBCQ\\newblock{\BemMachineLearning},{\Bbf39}(2/3),\mbox{\BPGS\103--134}.\bibitem[\protect\BCAY{Pang\BBA\Lee}{Pang\BBA\Lee}{2002}]{pang}Pang,B.\BBACOMMA\\BBA\Lee,L.\BBOP2002\BBCP.\newblock\BBOQThumbsup?SentimentClassificationusingMachineLearningTechniques.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\76--86}.\bibitem[\protect\BCAY{Pang\BBA\Lee}{Pang\BBA\Lee}{2008}]{sa2}Pang,B.\BBACOMMA\\BBA\Lee,L.\BBOP2008\BBCP.\newblock{\BemOpinionMiningandSentimentAnalysis-FoundationsandTrendsinInformationRetrievalVol.2,Issue1-2}.\newblockNowPublishersInc.\bibitem[\protect\BCAY{Turney\BBA\Littman}{Turney\BBA\Littman}{2002}]{turney}Turney,P.~D.\BBACOMMA\\BBA\Littman,M.~L.\BBOP2002\BBCP.\newblock\BBOQUnsupervisedLearningofSemanticOrientationfromaHundred-Billion-WordCorpus.\BBCQ\\newblock\BTR,TechnicalReportERB-1094,NationalResearchCouncilCanada.\bibitem[\protect\BCAY{内山\JBA中條\JBA山本\JBA井佐原}{内山\Jetal}{2004}]{uchiyama}内山将夫\JBA中條清美\JBA山本英子\JBA井佐原均\BBOP2004\BBCP.\newblock英語教育のための分野特徴単語の選定尺度の比較.\\newblock\Jem{自然言語処理},{\Bbf11}(3),\mbox{\BPGS\165--197}.\bibitem[\protect\BCAY{Yu,Zha,Wang,\BBA\Chua}{Yuet~al.}{2011}]{yu}Yu,J.,Zha,Z.-J.,Wang,M.,\BBA\Chua,T.-S.\BBOP2011\BBCP.\newblock\BBOQAspectRanking:IdentifyingImportantProductAspectsfromOnlineConsumerReviews.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1496--1505}.\bibitem[\protect\BCAY{Zhai,Liu,Xu,\BBA\Jia}{Zhaiet~al.}{2010}]{zhai}Zhai,Z.,Liu,B.,Xu,H.,\BBA\Jia,P.\BBOP2010\BBCP.\newblock\BBOQGroupingProductFeaturesUsingSemi-SupervisedLearningwithSoft-Constraints.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1272--1280}.\end{thebibliography}\begin{biography}\bioauthor{乾孝司}{2004年奈良先端科学技術大学院大学情報科学研究科博士課程修了.日本学術振興会特別研究員,東京工業大学統合研究院特任助教等を経て,2009年筑波大学システム情報工学研究科助教.現在に至る.博士(工学).近年はCGMテキストに対する評判分析に興味をもつ.}\bioauthor{板谷悠人}{2010年筑波大学第三学群情報学類卒業.2012年筑波大学大学院システム情報工学研究科コンピュータサイエンス専攻修了.同年4月から株式会社ミクシィ.在学中は自然言語処理の研究に従事.}\bioauthor{山本幹雄}{1986年豊橋技術科学大学大学院修士課程了.同年株式会社沖テクノシステムズラボラトリ研究開発員.1988年豊橋技術科学大学情報工学系教務職員.1991年同助手.1995年筑波大学電子・情報工学系講師.1998年同助教授.2008年筑波大学システム情報工学研究科教授.博士(工学).自然言語処理の研究に従事.}\bioauthor{新里圭司}{2006年北陸先端科学技術大学院大学情報科学研究科博士後期課程修了.京都大学大学院情報学研究科特任助教,特定研究員を経て,2011年から楽天技術研究所.博士(情報科学).言語知識獲得,情報抽出,情報検索,テキストマイニングに興味をもつ.}\bioauthor{平手勇宇}{2008年早稲田大学大学院理工学研究科博士課程修了.早稲田大学メディアネットワークセンター助手を経て,2009年から楽天株式会社楽天技術研究所.博士(工学).近年は大規模データに対するデータマイニングに興味を持つ.}\bioauthor{山田薫}{2002年名古屋大学大学院国際言語文化研究科博士前期課程修了.ヤフー株式会社検索事業部等を経て,2010年から楽天株式会社楽天技術研究所.現在は同社ビッグデータ部にて商品検索システムの開発・運用に従事.}\end{biography}\biodate\end{document}
| |
V19N05-02 | \section{はじめに}
日本語学習者の作文の誤り訂正は,教育の一環としてだけでなく,近年はビジネス上の必要性も生じてきている.たとえば,オフショア開発(システム開発の外国への外部発注)では,中国,インドなどへの発注が増加している.外国に発注する場合,日本との意思疎通は英語または日本語で行われるが,日本語学習者の多い中国北部では,日本語が使われることも多い.しかし,中国語を母語とするものにとって日本語は外国語であり,メールなどの作文には誤りを含み,意思疎通に問題となるため,それらを自動検出・訂正する技術が望まれている\shortcite{Ohki:ParticleError2011j,Suenaga:ErrorCorrection2012j}.そこで本稿では,日本語学習者作文の誤り自動訂正法を提案する.外国人にとって,助詞はもっとも誤りやすい語であるため,本稿では助詞の用法を訂正対象とする.日本語の助詞誤り訂正タスクは,英語では前置詞誤りの訂正に相当する.英語の前置詞・冠詞誤りの訂正では,分類器を用いて適切な前置詞を選択するアプローチが多い\shortcite{gamon:2010:NAACLHLT,HAN10.821,rozovskaya-roth:2011:ACL-HLT2011}.これらは,誤りの種別を限定することにより,分類器による訂正を可能としている.一方,\shortciteA{mizumoto-EtAl:2011:IJCNLP-2011}は,日本語学習者の誤りの種別を限定せず,翻訳器を利用した誤り訂正を行った.この方法は,誤りを含む学習者作文を正しい文に変換することにより,あらゆる種類の誤りを訂正することを狙ったものである.本稿の訂正対象は助詞誤りであるが,今後の拡張性を考慮して,翻訳器と同様な機能を持つ識別的系列変換\shortcite{Imamura:MorphTrans2011}をベースとした誤り訂正を行う.翻訳の考え方を使った場合,モデル学習のために,誤りを含む学習者作文とそれを訂正した修正文のペア(以下,単にペア文とも呼ぶ)が大量に必要である.しかし,実際の学習者作文を大規模に収集し,さらに母語話者が修正するのはコストが高く難しい場合が多い.この問題に対し,本稿では以下の2つの提案を行う.\begin{enumerate}\item日本語平文コーパスの利用(言語モデル確率と二値素性の混在)学習者作文・修正文ペアのうち,修正文側は正しい日本語であるため,既存の日本語平文コーパスなどから容易に入手可能である.そこで,比較的大規模な日本語平文コーパスを日本語修正文とみなして,変換器のモデルとして組み込む.組み込む際には,日本語平文コーパスは言語モデル確率の算出に利用し,学習者作文・日本語修正文ペアから獲得した二値素性と共に,識別モデルの枠組みで全体最適化を行う.学習者作文・修正文ペアに出現しないものであっても,言語モデル確率によって日本語の正しさが測られるため,誤り訂正の網羅性の向上が期待できる.\item疑似誤り文によるペア文の拡張(とドメイン適応の利用)学習者作文は容易に入手できないため,正しい文から誤りパターンに従って誤らせることにより,自動的に学習者作文を模した疑似誤り文を作成する.この疑似誤り文と元にした日本語文をペアにして,訓練コーパスに追加する.ただし,自動作成した疑似誤り文は,実際の学習者作文の誤り分布を正確には反映していない.そのため,疑似誤りをソースドメイン,実誤りをターゲットドメインとみなして,ターゲットドメインへの適応を行う.疑似誤りの分布が実際の誤りと少々異なっていても,安定して精度向上ができると期待される.\end{enumerate}以下,第\ref{sec-particle-errors}章では,我々が収集した日本語学習者作文の誤り傾向について述べる.第\ref{sec-conversion}章では,本稿のベースとなる誤り訂正法と,日本語平文コーパスの利用法について説明する.第\ref{sec-pseudo-sentences}章では,疑似誤り文によるペア文の拡張法について説明し,第\ref{sec-experiments}章では実験で精度変換を確認する.第\ref{sec-related-work}章では関連研究を紹介し,第\ref{sec-conclusion}章でまとめる.
\section{日本語学習者の誤り傾向}
\label{sec-particle-errors}まず,実際に外国人がどのような日本語書き誤りをしてしまうのか,日本語を学んでいる中国語母語話者を対象に誤り例を収集した.被験者は日本語の学習歴があり,日本の技術系大学に在籍する,もしくは卒業した背景をもつ37名である.日本滞在歴は半年から6年程度である.各被験者に技術系文書(Linuxマニュアル等80文)の英文と24個の図(のべ104課題)を提示し,キーボード入力による日本語作文を実施した(これを学習者作文と呼ぶ).最終的には2,770文の学習者作文データを収集し,各作文を日本語母語話者が推敲した(以下,単に修正文と呼ぶ).誤りを訂正する際には,文意を変更せず,文法的に正しい日本語とするための最小限の訂正を行うよう留意した\footnote{ただし,用語の選択誤りは訂正した.}.言い換えると,この推敲で訂正された誤りは,訂正しないと正しい日本語にはならないものである.\subsection{誤りの分類と出現分布}誤り傾向の分析にあたり,まずは大分類として,文法誤り,語彙誤り,表記誤りの3種類を設定し,さらに小分類を設定した(表\ref{tbl-error-class}).収集した2,770文の分析を実施したところ,訂正が可能であったものは2,171文であった.訂正が出来なかったものは,全く誤りがない日本語文559文,および文として不完全な断片40文である.これ以降の分析は,訂正が可能であった2,171文に対して行った.まず,誤り訂正の発生箇所は4,916箇所であり,1文あたり平均2.26箇所であった.また各誤りの種別について,誤り大分類での出現分布をみると,文法誤りが54\%と最も多く,続いて語彙誤り28\%,表記誤りが16\%であった.これ以外は複数の誤りが混在する複合型誤りである.さらに小分類での出現分布をみると,最も多く発生していたのは助詞・助動詞誤り33\%,続いてカタカナ語誤り11\%,単語選択(類義語)の誤り10\%であった.\begin{table}[t]\caption{誤りの分類と誤り例}\label{tbl-error-class}\input{02table01.txt}\end{table}\subsection{誤り傾向}今回の誤り傾向であるが,助詞誤りおよびカタカナ誤りは中国語母語話者に限らず広く外国人に共通して出現するものであると推測される.助詞は日本語特有の文法であり,多くの非日本語母語話者にとっては習得が難しいものである.そのため,中国語母語話者に限らず外国人の学習者作文の誤りに対する訂正対象を助詞とすることは,発生率から考えても効果的である.助詞の種類によって誤り発生のしやすさは異なっているはずであり,全ての助詞が一律に誤りとはならない.今回の作文データにおける助詞誤りについて,さらに詳細に内訳を分析をしたところ,まず,誤りタイプとしては置換誤りが74\%,助詞の抜けが17\%,余分な助詞の出現が9\%であった.特に置換誤りの発生が高い.また余分な助詞の出現が9\%と非常に低く,訂正のために助詞の削除操作が必要となるケースは少ないことがわかる.個別の助詞誤り発生回数上位10件は表\ref{tbl-particle-errors}のとおりである.このうち,「は→が」への置換訂正については,1文中に2回,「は/係助詞」が出現し,片方を「が/格助詞」に置換しなければならなかったものである(たとえば,「問題\underline{は}あるときは...」).「の」の助詞抜けとしては,「2つファイル」のように,数量表現に後続する名詞の直前の「の」が欠けている誤りがよく見られた.また,余分な助詞「の」としては,「やったの人」「小さいの絵」など,連体修飾で使用された動詞や形容詞に後続して「の」が余分に存在している誤りが多い.以上の分析から,本稿では,誤りの出現頻度の高い助詞誤りを訂正対象とした.また,助詞の置換,挿入,削除が現れていることから,原文(入力文)を置換,挿入,削除操作することにより,誤り訂正を行う.\begin{table}[t]\caption{頻出した助詞誤り}\label{tbl-particle-errors}\input{02table02.txt}\end{table}
\section{識別的系列変換}
\label{sec-conversion}本章では,ベースとなる識別的系列変換を用いた誤り訂正方式について述べる.本稿の誤り訂正は,学習者作文および修正文をあらかじめ形態素解析し,単語列から単語列へ変換することで行う.本方式は,基本的には識別モデルを用いた句に基づく統計翻訳器と同等であるが,挿入,削除操作への拡張と,言語モデル確率を扱う拡張を行っている.分類器を用いる誤り訂正方法と異なり,1文中の複数の誤りを一度に訂正し,助詞以外の誤りにも拡張が可能な方式である.\subsection{基本方式}本稿では,音声認識結果を言語処理用単語列に変換する形態素変換器\shortcite{Imamura:MorphTrans2011}をベースにし,以下の手順で入力文の誤りを訂正する.\begin{itemize}\itemまず,入力単語列でフレーズテーブルを検索し,入力側にマッチするフレーズを得る.フレーズテーブルは,助詞誤りとその訂正候補を対にして格納したものである.これは誤り訂正タスクにおけるConfusionSet\shortcite{rozovskaya-roth:2010:EMNLP}と同じもので,表\ref{tbl-particle-errors}をテーブル化したものである\footnote{表\ref{tbl-particle-errors}はフレーズテーブルの一部である.\ref{sec-experimental-settings}節で述べるように,実際にはipadic-2.7.0の最上位品詞が「助詞」であるすべての単語間の誤りを対象とした.}.フレーズテーブルと照合することにより,すべての訂正候補が得られる.また,無修正の場合を考慮し,入力単語を出力単語にコピーしたフレーズを作成し,両者をまとめてラティス構造にパックする(図\ref{fig-lattice}).これをフレーズラティスと呼ぶ.\itemフレーズラティスから,条件付き確率場(ConditionalRandomFields;CRF)\shortcite{Lafferty:CRF2001}に基づき,最尤フレーズ列を探索する.本稿の誤り訂正では語順の変更を行わないため,探索にはViterbiアルゴリズムを用いる.フレーズラティスには,非文法的系列(たとえば,図\ref{fig-lattice}では,格助詞「を」が連続する系列も候補として存在)も含まれるが,枝刈りなどは行わず,モデルに従い最尤探索を行う.\item学習時には,学習者作文と修正文に対して,DPマッチによる単語アライメントを行い,正解のフレーズ列を作成する.この正解から,助詞誤りだけを取得してフレーズテーブルを作成するほか,正解を教師データとしてCRFを学習する\footnote{本稿では,CRF学習のための最適化プログラムとして岡崎のlibLBFGSを用い,実装した.\\http://www.chokkan.org/software/liblbfgs/}.\end{itemize}\begin{figure}[t]\begin{center}\includegraphics{19-5ia2f1.eps}\end{center}\caption{フレーズラティスの例(太線は正解系列を表す)}\label{fig-lattice}\end{figure}\subsection{挿入・削除操作}一般的に句に基づく翻訳器は置換操作のみで翻訳を行うが,本稿で実施する誤り訂正は,助詞の置換操作のほかに,挿入,削除操作も対象となる.挿入操作は,空単語からある単語への置換,削除操作は,ある単語から空単語への置換とみなせるため,両者も基本的には置換操作と同等に扱い,モデルの学習・適用を行う.しかし,挿入操作は,全単語間に挿入される可能性があるため,ラティス構築時にサイズが爆発するなど,非常に計算コストの高い操作である.挿入箇所をある程度絞ることが望ましいため,本稿では,名詞直後に後続する助詞のみ,挿入を許可するという制約をかける.挿入は1箇所1単語のみとする.この制約により,一部訂正不可能な誤りも生じる(たとえば,格助詞「に」の直後に係助詞「は」を挿入し,「に」を「には」に訂正するのは不可能となる).なお,置換操作は,挿入操作と削除操作の連続でも表現できる.本稿では,挿入と削除操作が連続していた場合は,置換操作になるように正解データを作成し,モデルを学習する.誤り訂正時には,フレーズラティス内に置換操作の候補と,挿入と削除操作が連続する候補が混在するが,誤り訂正モデルに従い最尤探索すると,ほとんどすべての場合,置換操作が選ばれる.\subsection{素性}\begin{figure}[b]\begin{center}\includegraphics{19-5ia2f2.eps}\end{center}\caption{マッピング素性とリンク素性}\label{fig-features}\end{figure}\begin{table}[b]\caption{素性テンプレート}\label{tbl-templates}\input{02table03.txt}\end{table}本手法では2種類の素性を用いる.一つは翻訳モデルに相当する入力と出力のフレーズ対応度を測るためのマッピング素性,もう一つは言語モデルに相当する出力単語列の日本語としてのもっともらしさを測るためのリンク素性である.マッピング素性とリンク素性の概要を図\ref{fig-features}に,素性テンプレートの一覧を表\ref{tbl-templates}に示す.固有表現抽出など,識別モデルを用いるタスクでは,タグを付与すべき単語のほかに,その周辺単語を素性として用いる場合が多く,今回も同様な考え方をする.具体的には,当該フレーズの入力側前後2単語をウィンドウとして,1〜3-gramと当該フレーズの出力単語の対を,二値のマッピング素性として使用する.リンク素性に関しては,次節で詳細に述べる.\subsection{日本語平文コーパスの利用とリンク素性への組み込み}誤り訂正タスクにおいては,「正しい日本語」を出力する必要があるため,リンク素性は重要であると考えられる.この「正しい日本語」は,既存の日本語平文コーパスから容易に入手可能である.そこで以下の2種類のリンク素性を併用し,識別学習を通じて全体最適化を行う.識別モデルを用いる本稿の方式は,相互に依存する素性を混在できるという特徴を利用している.\begin{itemize}\itemn-gram二値素性:出力単語の1〜3-gramを二値素性として使用する.最適化用の訓練コーパス(学習者作文・修正文などのペア文)からしか獲得できない.個々のn-gramの素性重みは,マッピング素性を含む他の素性との兼ね合いを考慮しながら最適化されるため,きめ細かい最適化ができ,訓練コーパスにおける精度は高い.言い換えると,未知テキスト中に訓練コーパスと同じパターンの誤りが出現した場合,非常に高い精度で訂正ができる.\item言語モデル確率:出力単語列のn-gram確率(実際にはトライグラム確率)の対数値を実数素性として使用する.素性重みは1つしか付与されないが,言語モデルは日本語平文コーパスから学習できるため,訓練コーパスに限らず,大量の文から構築できる.訓練コーパスに出現した/しないにかかわらず,日本語としての適切さをスコアとして与えることができる.\end{itemize}識別学習における二値素性と実数素性の混在は,半教師あり学習における補助モデル\shortcite{suzuki-EtAl:2009:EMNLP,Suzuki:SemiSupervised2010j}と同じ考え方であり,訓練コーパス上での精度を保ちながら,未知テキストに対して頑健な訂正が行えるという利点がある.
\section{疑似誤り文を用いたペア文の拡張}
\label{sec-pseudo-sentences}第\ref{sec-conversion}章で述べた誤り訂正器には,学習のため,翻訳における対訳文に相当する学習者作文・修正文ペアが必要である.しかし,実際の誤り事例を大量に収集するのは困難であるため,自動生成した疑似誤り文を用いてペア文を拡張する.本章では,まず疑似誤り文生成方法について説明し,ドメイン適応を利用した疑似誤り文の適用方式について説明する.\subsection{疑似誤り生成}前述のとおり,学習者作文・日本語修正文ペアのうちの日本語修正文に関しては,日本語平文コーパスなどから文を適当に選択することにより,容易に入手できる.よって,収集した文を,学習者作文のように誤らせることができれば,ペア文として扱うことができる.本稿では,\shortciteA{rozovskaya-roth:2010:NAACLHLT}と同様の生成方法を取る.具体的には,フレーズテーブルには,すでに誤った助詞とその訂正候補が記録されているので,これを逆に適用し,訂正候補助詞が出現したら,正しい助詞を誤らせる.誤りはある確率で発生させるが,発生確率には,実誤りコーパス(学習者作文と日本語修正文ペア)上での正解助詞$e$とその誤り助詞$f$の相対頻度を使用する.すなわち,\begin{equation}P_{error}(f|e)=\frac{C(f,e)}{C(e)},\end{equation}ただし,$P_{error}(f|e)$は誤り発生確率,$C(f,e)$は,実誤りコーパス上での正解助詞$e$とその誤り助詞$f$の共起頻度,$C(e)$は同コーパス上での正解助詞$e$の出現頻度である.このように生成した疑似誤り文を訓練コーパスに加えることにより,誤り訂正モデルを学習する.\subsection{素性空間拡張法によるドメイン適応}\label{sec-domain-adaptation}自動で作成した疑似誤り文の問題点は,実際の誤りの確率分布を反映している保証がない点である.より正確に実誤りに近づけるため,本稿ではドメイン適応の技術を用いる.すなわち疑似誤り文コーパスをソースドメイン,実際の学習者作文コーパスをターゲットドメインとみなし,ターゲットドメインに適応させた誤り訂正モデルを学習する.本稿では,ドメイン適応法に\shortciteA{daumeiii:2007:ACLMain}の素性空間拡張法(FeatureAugmentation)を用いる.これは,素性空間を拡張することによりドメイン適応を行うもので,ソースドメインに関するモデルを事前分布と考えることに相当する.また,学習方法(学習器)を変更する必要がないという特徴がある.素性空間拡張法を簡単に説明する.素性選択によって構築された素性は,共通,ソース,ターゲットの素性空間に拡張して配備される.この際,ソースドメインから作成された素性($D_s$)は共通およびソースに,ターゲットドメインから作成された素性($D_t$)は共通およびターゲットの素性空間に配備する.つまり,素性空間が3倍に拡張される(図\ref{fig-augment}).パラメータ推定は,上記素性空間上で通常どおり推定される.その結果,ソースドメイン,ターゲットドメインで共通に用いられる素性(つまり,ソース,ターゲットで矛盾しない素性)に関しては,共通空間の重みが大きくなり,両者で矛盾する素性に関しては,ソースまたはターゲット空間の素性が重くなる.どちらか片方にしか出現しない素性については,共通空間とドメイン依存空間の素性が重くなる.図\ref{fig-augment}には,素性空間拡張法の適用例も示した.ここでは,格助詞「が」を「を」に置換するか,無修正にするかという問題に単純化する.いま,ソースドメインデータ,ターゲットドメインデータから,以下の3種類の素性が得られたとする(表{\ref{tbl-templates}}の素性No.~11を想定).\begin{itemize}\item「機能:が:利用」は,ソースドメイン,ターゲットドメイン双方に現れ,どちらも「を」に訂正している.\item「データ:が:変更」は,ソース,ターゲット双方に現れているが,ソースドメインでは無修正,ターゲットドメインでは「を」に置換されている.\item「関数:が:実行」は,ソースドメインのみに現れている.\end{itemize}この素性空間上でパラメータ推定を行うと,「機能:が:利用」は,ドメイン間で矛盾しないので,共通空間の重みが特に大きくなる.一方,「データ:が:変更」は,ソース・ターゲットで矛盾しているので,共通空間の重みが0になり,ソースまたはターゲット空間で,訂正先に依存した重みが重くなる.また,「関数:が:実行」は,共通空間とソース空間の重みが大きくなっている.\begin{figure}[t]\begin{center}\includegraphics{19-5ia2f3.eps}\end{center}\caption{素性空間の拡張}\label{fig-augment}\end{figure}誤り訂正時には,共通とターゲット空間の素性のみを利用してデコードが行われる.ターゲットドメインに最適化されているため,実際の誤り出現分布に近くなる.また,ターゲットドメインの訓練データに現れない素性に関しても,ソースドメインデータから学習された共通空間の素性が利用できるため,ターゲットドメインのみを利用するときより,未知の入力に頑健になる.図\ref{fig-augment}の例では,ソースドメインのみに出現した「関数:が:実行」も利用して訂正ができる.
\section{誤り訂正実験}
\label{sec-experiments}\subsection{実験設定}\label{sec-experimental-settings}\paragraph{訂正対象助詞:}本稿で誤り訂正の対象とする助詞は,ipadic-2.7.0の最上位品詞が助詞であるものすべてである.これには,格助詞,係助詞のほか,副助詞,接続助詞,終助詞,並立助詞なども含まれ,のべ236種類あるが,後述する学習者作文コーパスに出現しない,もしくは誤りがない助詞は訂正対象にならないため,実際の訂正対象助詞は38種類である\footnote{\shortciteA{suzuki-toutanova:2006:COLACL}が対象とした格助詞10種+係助詞「は」と比べると,本稿では「ヘ」が対象外,「より」は単独では出現せず,連語「により」が訂正対象となっている.また,上記論文では,「に/は」のように,格助詞と「は」の連続も1語扱いで訂正対象としているが,本稿では連続した置換,挿入,削除操作を用いて訂正している.}.\paragraph{学習者作文コーパス(実誤りコーパス):}実験に使用したコーパスは,\ref{sec-particle-errors}章で述べた2,770文(104課題)である.ここから助詞誤りのみを残し,それ以外の部分は日本語修正文の単語を埋め込んだ文を作成,コーパスとした.つまり,実験に使用したペア文は,助詞誤りのみを含んだものである.ただし,助詞の表記が学習者作文,日本語修正文で一致している場合は誤りとはみなさず,日本語修正文の品詞を学習者作文にコピーして利用した.誤り総数は,助詞13,534個中1,087箇所(8.0\%)である.また,誤り助詞と訂正助詞を対にした異なり数は,132種類(置換修正95種類,挿入14種類,削除23種類)である.なお,実験に使用したすべての文は,MeCab\footnote{http://mecab.sourceforge.net/}(辞書はipadic-2.7.0を使用)によって形態素解析し,その表記と品詞を単語情報とした.\paragraph{言語モデル:}言語モデルは,Wikipediaのコンピュータ関連記事と,CentOS5の日本語マニュアルから,のべ527,151文を取得し,SRILM\shortcite{Stolcke:SRILM2011}でトライグラムを学習して使用した.バックオフ推定には,ModifiedKneser-Neyディスカウントと補間推定を併用し,未知ユニグラムを疑似単語\texttt{<unk>}として残す設定で学習した.\paragraph{疑似誤りコーパス:}疑似誤り文は,言語モデル作成用コーパスから,ランダムに10,000文を取得して生成した.誤り発生確率は,実誤りコーパス上での相対頻度を倍率1.0として,倍率0.0(つまり誤りなし)〜2.0まで変化させて実験を行った.\paragraph{評価法:}評価は,コーパスを課題単位に分割し,5分割交差検定で行った.評価基準は2種類使用した.\begin{enumerate}\item正解の単語列とシステム出力の単語列の表記を比較し,誤り訂正の再現率,適合率,F値を算出した.\item本タスクは,訂正すべき助詞数に比べ,訂正不要な助詞が圧倒的に多く,システムによって訂正不要な助詞を過剰に訂正してしまう懸念がある.そのため,訂正によって文の品質が向上した助詞数(訂正が必要な助詞をシステムが正しく訂正した数)と悪化した助詞数(訂正不要な助詞を過剰に訂正した数)の差を相対向上数として評価基準とした.この基準では,まったく修正を行わなかった場合に$\pm0$となる.\end{enumerate}\subsection{実験結果1:日本語平文コーパスの利用}まず,日本語平文コーパスを言語モデル確率として利用することの効果を測るため,以下の3手法について精度測定を行った.\begin{itemize}\item\textbf{提案手法:}リンク素性にn-gram二値素性,言語モデル確率を併用した場合.\item\textbf{n-gram二値素性のみ:}リンク素性にn-gram二値素性のみを用い,言語モデル確率を使用しない場合.\item\textbf{言語モデル確率のみ:}リンク素性に言語モデル確率のみを用い,n-gram二値素性を使用しない場合.\end{itemize}実験結果を表\ref{tbl-exp-results}に示す.表中の\mbox{\dag}は提案手法とn-gram二値素性のみの間で有意差があったもの,\mbox{\S}は提案手法と言語モデル確率のみの間で有意差があったものを表す({$p<0.05$})\footnote{適合率・再現率には比率の$\chi^2$検定を使用し,相対向上数には文単位の$t$検定を使用した.}.\begin{table}[b]\caption{リンク素性を変えたときの誤り訂正結果}\label{tbl-exp-results}\input{02table04.txt}\end{table}まず適合率について,使用したリンク素性を比較すると,提案手法とn-gram二値素性のみが同じ精度で,言語モデル確率のみの適合率が低めとなった.再現率は,提案方式が他の2つの方法に比べて大幅に向上(9.9\%,11.2\%→18.9\%)し,その結果,F値も高い値を示した.n-gram二値素性のみと言語モデル確率のみを比較すると,言語モデル確率のみの方が若干再現率が高い.その結果,F値は提案手法(両者併用),言語モデル確率のみ,n-gram二値素性のみの順で精度が高くなった.しかし,相対向上数をみると,言語モデル確率のみは若干悪化しており(つまり過剰訂正が多い),再現率の向上が,誤り訂正の精度に直結していないことがわかる.これは,約92\%の助詞を無訂正にすべきという本タスクの特徴に由来するもので,安易な再現率向上は過剰訂正を引き起こすことを示している.提案手法は,相対向上数でも他の2方式に勝っている.ただし,提案手法とn-gram二値素性のみの間では有意差はなかった.これは,n-gram二値素性は確実な誤りに集中して訂正する効果があるためで,相対向上数からみると有利に働いたためと考えられる.提案方式は,n-gram二値素性,言語モデル確率の併用によって,適合率を保持したまま再現率を向上させており,誤り訂正精度の向上に有効である.\subsection{実験結果2:疑似誤り文によるペア文の拡張}次に,疑似誤り文の導入効果を測定する.リンク素性を提案方法に限定し,疑似誤り文の使用方法のみを変えて実験を行う.図\ref{fig-graph1}は,訓練に用いるコーパスと訓練法を以下の4通りに変えて,再現率/適合率カーブを測定した結果である.なお,図\ref{fig-graph1}は,誤り訂正器が出力するスコアが高い方から,ある再現率を達成するための訂正助詞を取得,適合率を算出したものである.\begin{figure}[b]\begin{center}\includegraphics{19-5ia2f4.eps}\end{center}\caption{再現率/適合率カーブ(誤り発生確率は倍率1.0のとき)}\label{fig-graph1}\end{figure}\begin{itemize}\item\textbf{TRG:}実誤りコーパスだけを用いて誤り訂正モデルを作成した場合(ベースライン).\item\textbf{SRC:}疑似誤りコーパスだけを用いて誤り訂正モデルを作成した場合.\item\textbf{ALL:}実誤りコーパスに疑似誤りコーパスを単純追加してモデルを作成した場合.\item\textbf{AUG:}提案方法.疑似誤りコーパスをソースドメイン,実誤りコーパスをターゲットドメインとして素性空間拡張法によるドメイン適応を行った場合.\end{itemize}TRGをベースラインと考えると,疑似誤り文のみ(SRC)ではTRGの精度に達していない.そのため,疑似誤り文を追加したALLでも適合率は再現率が高いところでようやくTRGと同等の適合率である.提案法であるAUGは,再現率が高くなるに従い,TRGより高い適合率で誤りが訂正できている.再現率18\%では,TRGの適合率が50.5\%に対して,AUGの適合率は55.4\%となった(ただし,$p=0.16$で有意差はない).なお,再現率18\%でのSRCの適合率は35.6\%で,ランダムに訂正するのに比べると適合率は高い.図\ref{fig-graph2}は,誤り発生確率毎の各方式の相対向上数をプロットしたものである.この実験では,誤り発生確率が低い方が全体的に精度がよく,誤り発生なし(倍率0.0)から0.6まではALL方式もTRGを上回っている.しかし,SRCは倍率を高くするに従って相対向上数が低下しており,誤り発生確率を適切に制御しないと,疑似誤り文が効果的に作用しない.一方AUGは,誤り発生確率を変えても,安定した精度向上を果たした.誤り発生倍率が1.0のときの相対向上数は,TRGが+28に対してAUGは+59と,有意に向上しており,疑似誤り文を使用するときは,ドメイン適応を併用することが望ましい.\begin{figure}[t]\begin{center}\includegraphics{19-5ia2f5.eps}\end{center}\caption{誤り発生確率(倍率)毎の相対向上数}\label{fig-graph2}\end{figure}\subsection{誤り訂正例}実験2において,誤り発生倍率1.0のとき,提案方式(AUG)の適合率は54.8\%(210/383),再現率は19.3\%(210/1087)であった.約55\%の適合率は,45\%程度の修正箇所を再修正しないと正しい文にならないという意味で,実用上は決して高いとは言えない.助詞の用法には,意味的・文法的に明らかな誤用と,許容可能なものがあるため,人手評価を行った.何らかの修正操作を出力したが,正解と異なった部分173箇所に関して,1名の評価者によって主観評価した.なお,そのうち151箇所は,正解では無修正だった部分を過剰に修正したものである.評価観点は,システム修正を許容可能か(正解と比較して,意味的・文法的に異なっていないか)である.結果,173箇所のうち103箇所は許容可能であった.つまり,許容可能という観点での適合率は,$(210+103)/383=81.7\%$となった.表\ref{tbl-correct-examples}は,システムによる誤り訂正例である.置換,挿入,削除操作により誤り訂正が成功したもののほか,人手評価によって許容可能と判断されたものには,係助詞「は」と格助詞「が」の置換(No.~4)や,複合名詞が正しい格助詞を補完して分割されたもの(No.~5)があった.許容不可として残ったものの中には,No.~7のように慣用句を過剰訂正したもの,受動態をとらえられず,能動態の格助詞に置換したもの(No.~8),Linuxのfreeコマンドの内容を知らないと訂正ができないもの(No.~10)があった.No.~9は「は」と「が」の置換であるが,「私たち」と「あなた」が呼応する表現であるため,許容不可と判断された.本稿で用いた素性は訂正対象助詞の局所文脈のみであるため,大域的素性を導入しないと正しい訂正は困難なものもある.\begin{table}[t]\caption{システムによる誤り訂正例(訂正部分周辺のみ)}\label{tbl-correct-examples}\input{02table05.txt}\end{table}
\section{関連研究}
\label{sec-related-work}日本語学習者の助詞誤り検出・訂正は従来より研究されてきた.{\kern-0.5zw}近年では,\shortciteA{suzuki-toutanova:2006:COLACL}が,最大エントロピー法(ME)による分類器を用いて,助詞(主に格助詞)が欠落した文からの復元を行っている.この入力文は形態素・構文解析済みであり,基本的に誤り箇所が既に分かっているとき,挿入操作だけで修正を行う.\shortciteA{Ohki:ParticleError2011j}は,形態素・構文解析済みの入力文(誤りを含む)に対して,周辺の形態素や係り先を素性として,SVMで助詞の誤用検出する方法を提案している.ここでは,助詞の欠落も対象としている.検出を行うのみで修正までは行わない.英語の前置詞・冠詞誤り訂正では,\shortciteA{HAN10.821}が,前置詞周辺単語や構文解析の主辞などを素性としたME分類器を用いて,前置詞の誤り訂正を行った.\shortciteA{gamon:2010:NAACLHLT}は前置詞と冠詞誤りを対象に,ME分類器による誤り検出,決定木による誤り訂正を行った.また,\shortciteA{rozovskaya-roth:2010:EMNLP}は平均化パーセプトロンに基づく分類器で前置詞の誤り訂正を行っている.これらの研究は,いずれも誤りの種類を助詞や前置詞・冠詞に限定することで,分類器による誤り訂正を可能としている.一方,\shortciteA{mizumoto-EtAl:2011:IJCNLP-2011}は,誤りを助詞に限定せず,すべての誤りを対象とした自動訂正法を提案した.ここでは,対訳文に相当する学習者作文と日本人による修正文のペアを大量にSNSから収集し,句に基づく統計翻訳の仕組みを利用して訂正を行う.誤りを含む入力の形態素解析は行わず,文字単位で翻訳を行う.本稿で使用した系列変換は,基本的には統計翻訳と同等な手法である.そのため,誤りの種類を助詞に限定する必要がなく,他の誤りにも拡張できる.しかし,本稿の方式はあらかじめ学習者作文が単語に分割されていることを前提としている.誤りを含む文を形態素解析,構文解析した場合の精度は,一般的には日本語母語話者が記述した文の解析精度より落ちると考えられるため,単語分割法も併せて検討する必要がある\shortcite{Fujino:ErrorMorphAnalysis2012j}.母語話者の記述したテキスト(日本語修正文相当)のモデル化という観点で上記研究を俯瞰すると,\shortciteA{suzuki-toutanova:2006:COLACL,Ohki:ParticleError2011j,HAN10.821,rozovskaya-roth:2010:EMNLP}はn-gram二値素性として利用している.\shortciteA{gamon:2010:NAACLHLT,mizumoto-EtAl:2011:IJCNLP-2011}は,n-gram確率という形でモデル化している.本稿では,識別モデルの枠組みで両者を併用し,マッピング素性を含んで全体最適化を行うことにより,再現率を向上することができた.学習者作文の利用という観点で俯瞰すると,いずれの研究も,学習者の誤り傾向をモデルとして組み込むことにより,母語話者の記述したテキストのみを用いて誤り訂正を行う場合に比べ,訂正精度が向上したと報告している\shortcite{HAN10.821,gamon:2010:NAACLHLT,rozovskaya-roth:2010:EMNLP,Kasahara:CaseParticleCorrection2012j}.本稿の方式は,マッピング素性という形で学習者の誤り傾向をモデル化しており,従来研究の成果を取り込んでいる.学習者作文を模した擬似誤り文に関しては,\shortciteA{rozovskaya-roth:2010:NAACLHLT}が提案を行っている.そこでは,学習者の実誤りと同じ分布を持つ擬似誤り文を追加することにより,精度が向上したと報告している.ただ,データ(論文では学習者の母語別)によって最適な擬似誤り生成方法が異なっており,擬似誤り生成を制御する必要がある.本稿では,擬似誤りと実誤りのずれをドメイン適応技術を用いて修正することで安定した精度向上ができた.さまざまな種類の誤りの同時訂正は,\shortciteA{dahlmeier-ng:2012:EMNLP-CoNLL}も行い,前置詞・冠詞誤りだけでなく,スペルミス,句読点,名詞の数の誤りも含めて訂正を行っている.誤りの種別ごとに分類器やルールを用いて訂正仮説を生成し,山登り的に書き換えを繰り返すことで1文中の複数の誤りを訂正する.彼らは,複数の仮説を保持することで,山登り時に局所解に陥る可能性を軽減しているが,本稿の方式はすべての仮説をフレーズラティスに持ち,Viterbiアルゴリズムで最適な組み合わせを探索しているので,モデル上は最適な訂正結果であることが保証されている.本タスクは,訂正すべき助詞に比べ訂正不要な助詞が圧倒的に多く,安易な再現率の向上は誤り訂正精度(相対向上数)の改善に直結しないと述べた.これはデータ不平衡問題(ImbalancedDataProblem)と呼ばれ,機械学習を実タスクに適用するときの主要な問題の一つと認識されている(たとえば,サーベイ論文\shortcite{He:Imbalanced2009}を参照).この問題の解決方法には,少数派と多数派のデータを増減させることで平衡させる方法(サンプリング法)や,少数派の分類誤り(本タスクの場合,訂正誤り)と多数派の分類誤りに異なるコストを与えて学習する方法(ベイズリスク最小法)など,さまざまなものが提案されており,本タスクに適用できるか検討する必要がある.なお,本稿で提案した疑似誤り文は,実誤りの分布を変えないようにデータを増やすのが目的であるので,少数派データを増やすover-sampling法とは異なる位置づけである.
\section{おわりに}
\label{sec-conclusion}本稿では,中国語母語話者の日本語作文における,助詞誤り訂正法を提案した.誤り訂正タスクで難しいのは,誤りを含む実際の学習者作文とその修正文を入手することである.この問題に対して,本稿では,まず日本語平文コーパスを利用して,言語モデル確率とペア文から獲得した二値素性を識別モデルの枠組みで併用し,誤り訂正の再現率を向上させた.また,学習者作文を模した疑似誤り文を自動生成し,学習コーパスに追加した.ドメイン適応を併用することにより,誤り発生確率によらず,安定した精度向上ができることを示した.本稿で用いた識別的系列変換は,助詞誤りに限定せず,すべての誤りを対象とすることができる.今後は,他の種類の誤り訂正にも拡張するのが課題である.\acknowledgment本研究の一部は,\textit{the50thAnnualMeetingoftheAssociationforComputationalLinguistics}で発表したものである\shortcite{imamura-EtAl:2012:ACL2012short}.本論文に関して,非常に有益なコメントをいただいた査読者の方々に感謝する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Dahlmeier\BBA\Ng}{Dahlmeier\BBA\Ng}{2012}]{dahlmeier-ng:2012:EMNLP-CoNLL}Dahlmeier,D.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2012\BBCP.\newblock\BBOQABeam-SearchDecoderforGrammaticalErrorCorrection.\BBCQ\\newblockIn{\BemProceedingsofthe2012JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL2012)},\mbox{\BPGS\568--578},JejuIsland,Korea.\bibitem[\protect\BCAY{Daume~III}{Daume~III}{2007}]{daumeiii:2007:ACLMain}Daume~III,H.\BBOP2007\BBCP.\newblock\BBOQFrustratinglyEasyDomainAdaptation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics(ACL-2007)},\mbox{\BPGS\256--263},Prague,CzechRepublic.\bibitem[\protect\BCAY{藤野\JBA水本\JBA小町\JBA永田\JBA松本}{藤野\Jetal}{2012}]{Fujino:ErrorMorphAnalysis2012j}藤野拓也\JBA水本智也\JBA小町守\JBA永田昌明\JBA松本裕治\BBOP2012\BBCP.\newblock日本語学習者の作文の誤り訂正に向けた単語分割.\\newblock\Jem{言語処理学会第18回年次大会},\mbox{\BPGS\26--29}.\bibitem[\protect\BCAY{Gamon}{Gamon}{2010}]{gamon:2010:NAACLHLT}Gamon,M.\BBOP2010\BBCP.\newblock\BBOQUsingMostlyNativeDatatoCorrectErrorsinLearners'Writing.\BBCQ\\newblockIn{\BemHumanLanguageTechnologies:The2010AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(HLT-ACL2010)},\mbox{\BPGS\163--171},LosAngeles,California.\bibitem[\protect\BCAY{Han,Tetreault,Lee,\BBA\Ha}{Hanet~al.}{2010}]{HAN10.821}Han,N.-R.,Tetreault,J.,Lee,S.-H.,\BBA\Ha,J.-Y.\BBOP2010\BBCP.\newblock\BBOQUsinganError-AnnotatedLearnerCorpustoDevelopan{ESL/EFL}ErrorCorrectionSystem.\BBCQ\\newblockIn{\BemProceedingsoftheSeventhInternationalConferenceonLanguageResourcesandEvaluation(LREC'10)},Valletta,Malta.\bibitem[\protect\BCAY{He\BBA\Garcia}{He\BBA\Garcia}{2009}]{He:Imbalanced2009}He,H.\BBACOMMA\\BBA\Garcia,E.~A.\BBOP2009\BBCP.\newblock\BBOQLearningfromImbalancedData.\BBCQ\\newblock{\BemIEEETransactionsonKnowledgeandDataEngineering},{\Bbf21}(9),\mbox{\BPGS\1263--1284}.\bibitem[\protect\BCAY{Imamura,Izumi,Sadamitsu,Saito,Kobashikawa,\BBA\Masataki}{Imamuraet~al.}{2011}]{Imamura:MorphTrans2011}Imamura,K.,Izumi,T.,Sadamitsu,K.,Saito,K.,Kobashikawa,S.,\BBA\Masataki,H.\BBOP2011\BBCP.\newblock\BBOQMorphemeConversionforConnectingSpeechRecognizerandLanguageAnalyzersinUnsegmentedLanguages.\BBCQ\\newblockIn{\BemProceedingsofInterspeech2011},\mbox{\BPGS\1405--1408},Florence,Italy.\bibitem[\protect\BCAY{Imamura,Saito,Sadamitsu,\BBA\Nishikawa}{Imamuraet~al.}{2012}]{imamura-EtAl:2012:ACL2012short}Imamura,K.,Saito,K.,Sadamitsu,K.,\BBA\Nishikawa,H.\BBOP2012\BBCP.\newblock\BBOQGrammarErrorCorrectionUsingPseudo-ErrorSentencesandDomainAdaptation.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2012)Volume2:ShortPapers},\mbox{\BPGS\388--392},JejuIsland,Korea.\bibitem[\protect\BCAY{笠原\JBA藤野\JBA小町\JBA永田\JBA松本}{笠原\Jetal}{2012}]{Kasahara:CaseParticleCorrection2012j}笠原誠司\JBA藤野拓也\JBA小町守\JBA永田昌明\JBA松本裕治\BBOP2012\BBCP.\newblock日本語学習者の誤り傾向を反映した格助詞訂正.\\newblock\Jem{言語処理学会第18回年次大会},\mbox{\BPGS\14--17}.\bibitem[\protect\BCAY{Lafferty,McCallum,\BBA\Pereira}{Laffertyet~al.}{2001}]{Lafferty:CRF2001}Lafferty,J.,McCallum,A.,\BBA\Pereira,F.\BBOP2001\BBCP.\newblock\BBOQConditionalRandomFields:ProbabilisticModelsforSegmentingandLabelingSequenceData.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonMachineLearning(ICML-2001)},\mbox{\BPGS\282--289},Williamstown,Massachusetts.\bibitem[\protect\BCAY{Mizumoto,Komachi,Nagata,\BBA\Matsumoto}{Mizumotoet~al.}{2011}]{mizumoto-EtAl:2011:IJCNLP-2011}Mizumoto,T.,Komachi,M.,Nagata,M.,\BBA\Matsumoto,Y.\BBOP2011\BBCP.\newblock\BBOQMiningRevisionLogofLanguageLearning{SNS}forAutomated{Japanese}ErrorCorrectionofSecondLanguageLearners.\BBCQ\\newblockIn{\BemProceedingsof5thInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP-2011)},\mbox{\BPGS\147--155},ChiangMai,Thailand.\bibitem[\protect\BCAY{大木\JBA大山\JBA北内\JBA末永\JBA松本}{大木\Jetal}{2011}]{Ohki:ParticleError2011j}大木環美\JBA大山浩美\JBA北内啓\JBA末永高志\JBA松本裕治\BBOP2011\BBCP.\newblock非日本語母国語話者の作成するシステム開発文書を対象とした助詞の誤用判定.\\newblock\Jem{言語処理学会第17回年次大会発表論文集},\mbox{\BPGS\1047--1050}.\bibitem[\protect\BCAY{Rozovskaya\BBA\Roth}{Rozovskaya\BBA\Roth}{2010a}]{rozovskaya-roth:2010:EMNLP}Rozovskaya,A.\BBACOMMA\\BBA\Roth,D.\BBOP2010a\BBCP.\newblock\BBOQGeneratingConfusionSetsforContext-SensitiveErrorCorrection.\BBCQ\\newblockIn{\BemProceedingsofthe2010ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2010)},\mbox{\BPGS\961--970},Cambridge,Massachusetts.\bibitem[\protect\BCAY{Rozovskaya\BBA\Roth}{Rozovskaya\BBA\Roth}{2010b}]{rozovskaya-roth:2010:NAACLHLT}Rozovskaya,A.\BBACOMMA\\BBA\Roth,D.\BBOP2010b\BBCP.\newblock\BBOQTrainingParadigmsforCorrectingErrorsinGrammarandUsage.\BBCQ\\newblockIn{\BemHumanLanguageTechnologies:The2010AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(HLT-ACL2010)},\mbox{\BPGS\154--162},LosAngeles,California.\bibitem[\protect\BCAY{Rozovskaya\BBA\Roth}{Rozovskaya\BBA\Roth}{2011}]{rozovskaya-roth:2011:ACL-HLT2011}Rozovskaya,A.\BBACOMMA\\BBA\Roth,D.\BBOP2011\BBCP.\newblock\BBOQAlgorithmSelectionandModelAdaptationfor{ESL}CorrectionTasks.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechologies(ACL-HLT2011)},\mbox{\BPGS\924--933},Portland,Oregon.\bibitem[\protect\BCAY{Stolcke,Zheng,Wang,\BBA\Abrash}{Stolckeet~al.}{2011}]{Stolcke:SRILM2011}Stolcke,A.,Zheng,J.,Wang,W.,\BBA\Abrash,V.\BBOP2011\BBCP.\newblock\BBOQ{SRILM}atSixteen:UpdateandOutlook.\BBCQ\\newblockIn{\BemProceedingsofIEEEAutomaticSpeechRecognitionandUnderstandingWorkshop(ASRU2011)},Waikoloa,Hawaii.\bibitem[\protect\BCAY{末永\JBA松嶋}{末永\JBA松嶋}{2012}]{Suenaga:ErrorCorrection2012j}末永高志\JBA松嶋敏泰\BBOP2012\BBCP.\newblockベイズ決定理論にもとづく階層Nグラムを用いた最適予測法と日本語入力支援技術への応用.\\newblock\Jem{言語処理学会第18回年次大会},\mbox{\BPGS\6--9}.\bibitem[\protect\BCAY{Suzuki\BBA\Toutanova}{Suzuki\BBA\Toutanova}{2006}]{suzuki-toutanova:2006:COLACL}Suzuki,H.\BBACOMMA\\BBA\Toutanova,K.\BBOP2006\BBCP.\newblock\BBOQLearningtoPredictCaseMarkersinJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics(COLING-ACL2006)},\mbox{\BPGS\1049--1056},Sydney,Australia.\bibitem[\protect\BCAY{鈴木\JBA磯崎}{鈴木\JBA磯崎}{2010}]{Suzuki:SemiSupervised2010j}鈴木潤\JBA磯崎秀樹\BBOP2010\BBCP.\newblock大規模ラベルなしデータを利用した係り受け解析の性能検証.\\newblock\Jem{言語処理学会第16回年次大会発表論文集},\mbox{\BPGS\19--22}.\bibitem[\protect\BCAY{Suzuki,Isozaki,Carreras,\BBA\Collins}{Suzukiet~al.}{2009}]{suzuki-EtAl:2009:EMNLP}Suzuki,J.,Isozaki,H.,Carreras,X.,\BBA\Collins,M.\BBOP2009\BBCP.\newblock\BBOQAnEmpiricalStudyofSemi-supervisedStructuredConditionalModelsforDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2009)},\mbox{\BPGS\551--560},Singapore.\end{thebibliography}\begin{biography}\bioauthor{今村賢治}{1985年千葉大学工学部電気工学科卒業.同年日本電信電話株式会社入社.1995年〜1998年NTTソフトウェア株式会社.2000年〜2006年ATR音声言語コミュニケーション研究所.2006年よりNTTサイバースペース研究所(現NTTメディアインテリジェンス研究所)主任研究員.現在に至る.主として自然言語処理の研究・開発に従事.博士(工学).電子情報通信学会,情報処理学会,言語処理学会,ACL各会員.}\bioauthor{齋藤邦子}{1996年東京大学理学部化学科卒業.1998年同大学院修士課程修了.同年日本電信電話株式会社入社.現在,NTTメディアインテリジェンス研究所主任研究員.自然言語処理の研究・開発に従事.言語処理学会,情報処理学会各会員.}\bioauthor{貞光九月}{2004年筑波大学第三学群情報学類卒業.2009年筑波大学大学院システム情報工学研究科コンピュータサイエンス専攻修了.同年,日本電信電話株式会社入社.以来,自然言語処理の研究開発に従事.現在,NTTメディアインテリジェンス研究所音声言語メディアプロジェクト研究員.情報処理学会,言語処理学会各会員.}\bioauthor{西川仁}{2006年慶應義塾大学総合政策学部卒業.2008年同大学大学院政策・メディア研究科修士課程修了.同年日本電信電話株式会社入社.現在NTTメディアインテリジェンス研究所にて自然言語処理技術の研究開発に従事.奈良先端科学技術大学院大学博士後期課程在学中.言語処理学会,人工知能学会,情報処理学会各会員.}\end{biography}\biodate\end{document}
| |
V26N02-09 | \section{はじめに}
ゼロ照応解析とは,テキスト中の述語の省略された項(ゼロ代名詞)を検出し,項として埋めるべき格要素を同定するタスクである.格要素は先行詞としてテキスト中で言及されている場合もあれば,言及されていない場合もある.前者の場合,先行詞は述語と同じ文中にある(文内ゼロ照応)か,先行する文中にある(文間ゼロ照応)\footnote{この研究では後方照応は扱わない.}.後者(外界ゼロ照応)の例として,テキストの著者である主語が明示的に言及されない場合などがある.\begin{quote}$(1)大岡山商店街でも(\phiガ)お洒落な建物を\underline{見かける}ようになった.カフェテリアが特に多くて,今月も新しく(\phiガ)(\phiニ)\underline{オープンしてる}.$\end{quote}例~(1)では「見かける」のガ格と「オープンしてる」のガ格,ニ格が省略されている.「オープンしてる」のガ格の格要素は同文中に言及されている「カフェテリア」であり(文内ゼロ照応),ニ格の格要素は前文で言及されている「大岡山商店街」である(文間ゼロ照応).一方,「見かける」のガ格の格要素はテキスト中では明示的に言及されていない「著者」である(外界ゼロ照応).本論文では特に日本語のゼロ照応解析を取り扱うが,項の省略が起こるpro-drop言語は日本語だけではなく,他に中国語,イタリア語,スペイン語などがあり,各言語で日本語ゼロ照応解析と類似したタスクに取り組む研究が数多くある\cite{Chen-Chinese-2016,Yin-Chinese-2017,Yin-Zero-2018,Yin-Deep-2018,Iida-A-2011,Rello-Elliphant-2012}.また英語では意味役割付与タスクがゼロ照応解析に似た研究として挙げられる\cite{Zhou-End-2015,He-Deep-2017}.日本語ゼロ照応解析は,日本語述語項構造解析の部分問題であり,自動要約\cite{Yamada_Designing_2017}や情報抽出\cite{Sudo_Automatic_2001},機械翻訳\cite{Kudo_A_2014}など様々な自然言語処理アプリケーションの精度改善にとって重要であるため,緊急に解決されるべき課題として盛んに研究されている\cite{Sasano-A-2011,Hangyo-Japanese-2013,Ouchi-Neural-2017,Matsubayashi-Revisiting-2017,Matsubayashi2018,Shibata2018,Kurita2018}.本研究の貢献は大きく二つに分けられる.第一に大規模均衡コーパス上で日本語ゼロ照応解析を行い評価したことと,第二にこの大規模均衡コーパス上で文内・文間ゼロ照応解析を可能にするための解候補削減手法を提案したことの二点である,従来のゼロ照応解析研究は,新聞記事のみからなる『NAISTテキストコーパス』(NTC)\cite{Iida-Annotating-2007}で評価を行うものが多かった.従って,それらの評価ではテキストドメインの違いによる影響が考慮されていない.ゼロ照応解析結果の応用を考えた時,複数ドメインの文書に対しても頑健なゼロ照応解析手法の有用性は高い.我々は『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{Maekawa-2014aa}を評価実験に使用した.BCCWJは13ドメインにまたがって構築された約一億語からなる日本語均衡コーパスである.このうちの約100分の2にあたる約二百万語からなるコアデータに対しては,人手による述語項構造と照応関係の付与がされている.また,BCCWJは新聞,雑誌,書籍,白書,Yahoo!知恵袋,Yahoo!ブログの6ドメインにまたがったテキストを含んでいる.ドメインによるゼロ照応解析の性能の違いを調べるために,我々はBCCWJを使用した.表~\ref{tab:distance-distribution}はBCCWJコアデータセットの述語と格ごとの格要素の距離の分布を示している.ここでの距離は述語と格要素の間の文数である.距離0は文内照応を示しており,距離1以上は文間ゼロ照応を示している.この表から,文中に格要素の出現するゼロ照応のうち,半数以上のゼロ照応が文間ゼロ照応であることがわかる.表~\ref{tab:genre-distribution}はテキストドメインごとに分類した述語とガ格の格要素との距離の分布を示している.この表から,文内,文間ゼロ照応のドメインごとの違いが確認できる.OW(白書)のガ格には文内ゼロが多く出現している一方で,PM(雑誌),OC(QA)のガ格には文内ゼロ比率が少なく,5文前までの文間ゼロが多く出現している.また,PM(雑誌),OY(ブログ)のガ格は7文以上前の文間ゼロが他のドメインと比較して多く出現しており,このようなドメインごとの述語と格要素間の距離の違いが文間ゼロ照応解析の精度に影響を及ぼす原因だと予測できる.これらの観察から,異なるタイプのテキスト上で評価実験を行うことの重要性が示唆される.\begin{table}[b]\begin{minipage}[t]{189pt}\caption{格要素と述語の距離の分布}\label{tab:distance-distribution}\input{09table01.tex}\end{minipage}\hfill\begin{minipage}[t]{210pt}\caption{文書ドメインごとのガ格ゼロ照応の分布(\%)}\label{tab:genre-distribution}\input{09table02.tex}\end{minipage}\end{table}表~\ref{tab:distance-distribution}に示すとおり現実の文書には文間ゼロ照応が頻出するが,従来のゼロ照応解析研究の多くは,文内ゼロ照応のみに焦点を絞っている\cite{Iida-Intra-2015,Shibata-Neural-2016,Ouchi-Neural-2017,Matsubayashi-Revisiting-2017,Matsubayashi2018,Kurita2018}.\citeA{Ouchi-Neural-2017}は,文内ゼロ照応のみを取り扱う理由として,探索範囲の問題を指摘している.文間ゼロ照応では,格要素候補をテキスト全体から探す必要があるため,文内ゼロ照応解析に比べて探索範囲が拡大する.\citeA{Matsubayashi-Revisiting-2017,Matsubayashi2018}と\citeA{Kurita2018}は解析に際して文脈素性を取り入れるために,リカレントニューラルネットワーク(RNN)を導入し,格要素候補と述語が含まれる文を読み込ませている.しかしこれと同じ手法を文間ゼロ照応解析において適用しようとすると,テキスト全体をRNNに入力として与える必要がある.長距離の文脈を記憶する仕組みを持つLSTMやGRUを使用しても,システムがテキスト全体における長距離の依存関係を十分に学習できるとは限らない.また,テキスト全体を記憶しなくても,選択的に抽出された文脈情報のみで解析できる可能性がある.先述の研究と異なり,\citeA{Sasano-A-2011}と\citeA{Hangyo-Japanese-2013},\citeA{Shibata2018}は,文内・文間ゼロ照応解析手法を提案している.しかし,彼らは新聞コーパスとWebコーパスを用いて評価実験を行っており,複数ドメインコーパスを用いた評価実験は行っていない.また,\citeA{Shibata2018}は各entityごとにembeddingを割り当て,現在解析対象としている述語より文書の前方におけるRNNの解析結果を用いて,それぞれのembeddingを逐次更新することで文脈情報を使用している.これら2つの問題に対して,本研究では様々なドメインの文書への対応を可能とするために大規模格フレームを利用し,述語が取りうる複数の格要素の組合せから最適なものを選ぶ.大規模コーパスから得られた述語の格フレームに関する統計的情報を使用することで,特定のドメインにのみ出現する事例数の少ない格フレームに対しても対処できるようになると考えられる.解候補となる格要素の組合せが膨大になる問題に対しては,格フレームを使用した解候補削減手法を取り入れることで,より汎用性の高い文内・文間ゼロ照応解析モデルを提案する.ひとつのモデルで文内・文間のゼロ照応解析を同時に行う際,各格に対してそれぞれ独立に解析を行うより,他の格の情報を利用して複数格を同時に解析する方がより良い精度が得られると考えられる.\citeA{2010C-994}はCoNLL-2009SharedTaskデータを用いた述語項構造解析において,述語項構造の大域的な情報を取り扱う因子を素性として取り入れることで,日本語を含む7種類すべての言語の精度が改善することを確認している.しかし複数格を同時に解析する際には,先行詞の広大な探索範囲の問題に対処する必要がある.特に機械学習を適用する際,正解の候補となる名詞の組合せが大幅に増加する.BCCWJの場合では,格フレーム候補が平均20個,ガヲニ格の格要素候補が平均10個出現するため,組合せは$20\times10\times10\times10=\text{約20,000}$通り考えられ,このうち正しい格フレームと格要素の組合せは一つのみである.結果としてデータ中の正例と負例の比率が約1対20,000と著しく不均衡となる.このような偏った訓練データは不必要に計算量を増幅させ,かつモデルの汎化を妨げる要因となる.我々は,学習に不要な負例を削減するために,解析対象述語に対応する格フレームを用いた効率的な解候補削減手法を提案する.この提案手法により,正解を候補に残しつつ,約1,000分の1にまで解候補を削減することに成功した.また,我々はRNNにローカルアテンション機構\cite{Luong-Effective-2015}を導入することで,前文中のどの部分に注意を向けて解析するかをシステムに学習させた.本研究の提案手法は二つの構成要素からなり,一つは格フレーム内の単語分散表現を使用した解候補削減アルゴリズムで,もう一つは解候補削減に使用した分散表現を利用するニューラルネットゼロ照応解析モデルである\footnote{https:\slash\slash{}github.com\slash{}yamashiros\slash{}Japanese\_zero\_anaphora}.なお,BCCWJを訓練・テストに用いた文内・文間のガヲニ格を対象とするゼロ照応解析は.本研究が初の試みである.\begin{table}[b]\caption{関連研究}\label{tab:related-work}\input{09table03.tex}\end{table}
\section{関連研究}
\subsection{日本語ゼロ照応解析}表~\ref{tab:related-work}は,タスクの種類,使用しているコーパスのドメイン,コーパスのサイズ,手法の観点から関連研究をまとめたものである.解候補の列はガヲニ格をそれぞれ独立の解析器で解析しているのか,一つの解析機を用いて組合せで解析しているのかを示している.\citeA{Hangyo-Japanese-2013}はランキングSVMを用いて,Webコーパスに対して文内,文間,外界のゼロ照応解析を同時に行っている.このWebコーパスは1,000文書からなり,それぞれWebページの冒頭3文を抜き出したものである\cite{Hangyo-Building-2012}.\citeA{Shibata2018}はフィードフォワードニューラルネットワーク(FNN)とリカレントニューラルネットワーク(RNN)を組合せて用い,Webコーパス\cite{Hangyo-Building-2012}と新聞コーパスに対して直接の係り受け関係と文内・文間・外界のゼロ照応解析を同時に行っている.\citeA{Matsubayashi2018}はFNNとRNNを組合せて用いることで,NTCに対して直接の係り受け関係と文内のゼロ照応解析を同時に行い,直接の係り受け関係と文内ゼロ照応解析のstate-of-the-artを達成した.\citeA{Sasano-A-2011}は対数線形モデルを用いて,979文からなるWebコーパスとNTCに対して文内と文間のゼロ照応解析を同時に行い,NTCにおける文内・文間ゼロ照応解析のstate-of-the-artを達成した.これらに対して我々は,ランキングSVM\footnote{https:\slash\slash{}www.cs.cornell.edu\slash{}people\slash{}tj\slash{}svm\_light\slash{}svm\_rank.html}\cite{of-the-international-Training-2006}モデルとFNNとRNNの組合せモデルを用いて,『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{Maekawa-2014aa}に対して,文内・文間のゼロ照応解析を同時に行う.\subsection{大規模格フレーム}格フレームとは述語とその述語が取りうる格要素を述語の格パターンごと,格ごとに整理した共起情報である.表~\ref{tab:eg-case-frame}のように格パターンに基づいて格フレームを分けることで,述語と格要素間の語彙的選好の知識を照応解析に利用することができる\cite{Sasano-A-2008,Sasano-A-2011,Hangyo-Japanese-2013}.\begin{table}[b]\caption{「オープンしてる」の格フレーム例}\label{tab:eg-case-frame}\input{09table04.tex}\end{table}格フレームの構築に関しては\citeA{kawahara05}がWebテキストから格フレームを自動構築する手法を提案している.\citeA{hayasibe15}は格の出現の仕方を考慮したクラスタリングを行うことで格パターンを抽出し,述語に対してより頑健に格フレームを割り当てることに成功している.これら手法を用いて約100億文の大規模Webコーパスから取得,整理された格フレーム知識は京大格フレーム\footnote{http://www.gsk.or.jp/catalog/gsk2018-b/}として公開されており,我々はこれを使用した.日本語ゼロ照応解析において,格フレームは解析の手がかりとして広く使用されている\cite{Sasano-A-2011,Matsubayashi2014}.しかし,我々が調べたところ,BCCWJ中の動詞の正解述語項構造に対する京大格フレームのカバレッジは約27\%と十分ではない.この問題に対して,\citeA{Sasano-A-2011,Matsubayashi2014}は意味クラスを用いて格フレーム中の用例の汎化を行うことで対処している.我々は分散表現とcosine距離を用いることでカバレッジの問題に対処している.また,我々はそれぞれの述語と格フレームに対して事例の分散表現の平均ベクトルを導入することで,格フレーム中の統計情報を汎化し,解候補削減にも使用している.\subsection{解候補削減}文間ゼロ照応に際して,いくつかの先行研究ではそれぞれに解候補削減の基準を設定している.\citeA{Sasano-A-2011,Hangyo-Japanese-2013}は述語の複数の格を同時に推定しており,述語が含まれる文より3文前までに出現する格要素の先行詞候補をすべて含めている.3文より前の文にも先行詞は出現しうるが,\citeA{Hangyo-Japanese-2013}はNTCの述語に対する格要素のうち82.9\%が3文中に出現すると報告した.\citeA{imamura09}は述語の複数の格をそれぞれ独立に推定しており,一文前までに現れる述語の格要素として選ばれた名詞のみを解析の対象としている.この制限によって,NTC中,何も制限のない状態では平均102.2語の名詞を解候補としなければならなかったところを平均3.2語まで抑え,ゼロ代名詞の格要素のうち62.5\%をカバー出来たと彼らは報告している.
\section{モデルと素性}
\label{baseline}\subsection{モデル}\label{feature}解析対象述語$p$が含まれる文を$S_0$とし,入力文書$t$に含まれる$S_0$から$h$文前までの文をそれぞれ$S_{-1},S_{-2},\cdots,S_{-h}$とする.$S_0$から$S_{-h}$までに含まれるすべての名詞の集合を$E_{p}=\{e_{1},e_{2},\cdots,e_{n}\}$とする.これらに加えて『照応なし』または『外界照応』を意味する$e_{none}$を$E_{p}$に追加する.述語$p$に対応する京大格フレーム中の格フレーム群を$CF_{p}=\{cf^{p}_{1},cf^{p}_{2},\cdots,cf^{p}_{m}\}$とする.1つの格フレーム$cf^{p}_{l}$には,それぞれの格$c\in\{ガ格,ヲ格,ニ格\}$に対応する3つの格スロットがあり,$E_{p}$中に含まれるいずれかの名詞がそれぞれの格スロットに対応する格要素である.格スロットと格要素の対応付けを$a=\langleガ格:e_{i},ヲ格:e_{j},ニ格:e_{k}\rangle$とする.述語項構造候補を$(cf^{p}_{l},a)$とし,これを表現する素性ベクトルを$\boldsymbol{f}(cf^{p}_{l},a,t)$とする.このモデルの出力は以下の式(\ref{eq:arg})で表せる.訓練時にはパラメータ$\boldsymbol{w}$が正例のスコアが負例のスコアよりも大きくなるように学習され,テスト時には最適な格フレームと格要素の組合せを選択するために用いられる.このモデルは,\citeA{Hangyo-Japanese-2013}のモデルをベースとしている.\begin{equation}\label{eq:arg}{cf^{p}_{l}}^{*},a^{*}=\argmax\limits_{cf^{p}_{l},a}\boldsymbol{w}\cdot\boldsymbol{f}(cf^{p}_{l},a,t)\end{equation}\subsection{素性}素性ベクトル$\boldsymbol{f}(cf^{p}_{l},a,t)$は以下5タイプの素性の組合せからなる:{\bfベースモデル素性},{\bf格要素分散表現},{\bf述語分散表現},{\bf格フレーム内平均ベクトル}(MVC),{\bf文脈ベクトル}.我々はランキングSVMとFNNを比較するが,ランキングSVMはベースモデル素性のみを使用し,その他の素性はFNNでのみ用いる.\paragraph{ベースモデル素性}ベースモデル素性$\phi_{BMF}$の各要素は実数かバイナリ値である.ベースモデル素性$\phi_{BMF}$は\citeA{Sasano-A-2008}の確率的格解析モデルから得られる表層の係り受けの確率と\citeA{Hangyo-Japanese-2013}が提案する素性群からなる.\citeA{Hangyo-Japanese-2013}の素性は格フレーム素性,述語素性,文脈素性の3種類からなる.例えば,ある格要素がその格フレームの格スロットに埋まるかどうかの確率は格フレーム素性の一つである.付録{~\ref{chap:appFeatures}}に{\citeA{Hangyo-Japanese-2013}}の素性の一覧を示す.\paragraph{格要素分散表現}\label{proposal}格要素分散表現${\phi}_{e}$は各格$c$の格要素$e_c$に対応する3つの分散表現から構成される.語の分散表現を生成するモデルとしてはword2vec\cite{Mikolov-Efficient-2013}を使用した\footnote{日本語wikipedia(2016-09-20)の本文全文から取得した約100万記事に対して,次元数を500,windowを15として学習させることで得られたモデルを使用した.}.\paragraph{述語分散表現}述語分散表現はword2vecを使って生成された解析対象述語の単語分散表現である.\paragraph{格フレーム内平均ベクトル(MVC)}\label{sec:case-vector}表~\ref{tab:eg-case-frame}に示すように京大格フレーム内では,述語$p$に対するそれぞれの格フレーム$cf^p_l$は各格$c$に対応する単語リストから構成される.例えば,「オープンしてる:動1」のガ格には『店』,『カフェ』,『レストラン』などが格納されている.$W_{cf^p_l(c)}$を格フレーム$cf^p_l$と格$c$に対応して京大格フレーム中に出現する格要素の全体とする.例えば$W_{\textrm{オープンしてる:動}_1(ガ)}$の要素は前述の『店』,『カフェ』,『レストラン』などである.$\phi_{w}$を語$w\inW_{cf^p_l(c)}$の分散表現ベクトル,$\textrm{count}(cf^p_l,c,w)$を語$w$が格フレーム$cf^p_l$の格$c$の格要素として出現する回数とする.この時,格フレーム内平均ベクトル(MVC)$\overline{\phi}_{cf^p_l(c)}$は,格フレーム$cf^p_l$中の各格$c$の分散表現ベクトル$W_{cf^p_l(c)}$の重み付き平均として計算される.\begin{equation}\label{eq:case-vector}\overline{\phi}_{cf^p_l(c)}=\frac{\sum_{w\inW_{cf^p_l(c)}}^{}\textrm{count}(cf^p_l,c,w)\cdot\phi_{w}}{\sum_{w\inW_{cf^p_l(c)}}^{}\textrm{count}(cf^p_l,c,w)}\end{equation}例えば表~\ref{tab:eg-case-frame}において,格フレーム「オープンしてる:動1」はガ格に『店』を129回取っているので,$\overline{\phi}_{\textrm{オープンしてる:動}_1(ガ)}$は以下のように計算される.\begin{equation}\label{eq:case-vector-eg}\overline{\phi}_{\textrm{オープンしてる:動}_1(ガ)}=\frac{129\cdot\phi_{店}+38\cdot\phi_{カフェ}+14\cdot\phi_{レストラン}+\cdots}{129+38+14+\cdots}.\end{equation}$\overline{\phi}_{cf^p_l(ガ)}$,$\overline{\phi}_{cf^p_l(ヲ)}$,$\overline{\phi}_{cf^p_l(ニ)}$を結合して$\overline{\phi}_{cf^p_l}$を生成する.$\overline{\phi}_{cf^p_l}$を使って,$a$と$cf^p_l$の関連(選択選好)を測り,尤もらしい組合せを探索する.なお我々は,MVCを照応解析,解候補削減の両方で使用する.\paragraph{文脈ベクトル}文脈ベクトル$c_{cf^{p}_{l},a,t}$はローカルアテンション機構付きRNNの出力である.\pagebreakこのRNNは解析対象述語を含んだ文とその前方$h$文を受け取り,対象述語に対する文脈をモデリングする.図{~\ref{pic:解析モデル}}の左下部分がこれに該当する.{$\textrm{Enc}(s_i)$}を,{$S_{-h:0}$}中の{$i$}番目の語{$s_i$}を入力として与えられた時のRNNエンコーダの出力する隠れ状態とする.この隠れ状態はRNNが読み込んだ文中の語と同じ数だけ存在し,各語と一対一に対応するRNNの出力である.{$a_t(\cdot)$}は一般的なアテンション重みを表し,{$\textrm{score}(\cdot)$}には訓練データから学習される複数の重みパラメータを使用した.{$\textrm{Local}(\cdot)$}はローカル重みを表し,これを導入することで文全体を散漫と注視するのを防ぎ,局所的な一部分のみに着目させる.{$\textrm{Len}(S_{-h:0})$}は入力文{$S_{-h:0}$}中の語数を表し,{$\boldsymbol{v_p}$},{$\boldsymbol{W_p}$}は訓練データから学習されるパラメータである.\begin{figure}[b]\begin{center}\includegraphics{26-2ia9f1.eps}\end{center}\caption{アテンション付きRNN追加FNNモデルのネットワーク構造(モデルF3)}\label{pic:解析モデル}\end{figure}我々のアテンション機構モデルは他の素性ベクトルの連結を手がかりとしてアライメント重みベクトルを推論する.この重みベクトルはアテンション機構が文中のどの語へと注意を向けるかという情報に対応する.図~\ref{pic:解析モデル}の左上部分がこれに該当する.文脈ベクトル$c_{cf^{p}_{l},a,t}$はこのアライメント重みベクトルに基づくエンコーダの出力$\textrm{Enc}(S_{-h:0})$の重み平均として計算する.図~\ref{pic:解析モデル}右側のContextembeddingがこれに該当する.\begin{align}\label{eq:cont-vector}c_{cf^{p}_{l},a,t}&=\sum_{s_i\inS_{-h:0}}a_t(s_i)\textrm{Local}(s_i)\textrm{Enc}(s_i)\\a_t(s_i)&=\frac{\exp(\textrm{score}([\phi_{BMF};\phi_{e};\overline{\phi}_{cf^{p}_{l}}],\textrm{Enc}(s_i)))}{\sum_{s_j}\exp(\textrm{score}([\phi_{BMF};\phi_{e};\overline{\phi}_{cf^{p}_{l}}],\textrm{Enc}(s_j)))}\\\textrm{Local}(s_i)&=\exp(-\frac{(i-\textrm{Len}(S_{-h:0})\cdotp)^2}{2\sigma^2})\\p&=\textrm{sigmoid}(\boldsymbol{v_p}^{\mathrm{T}}\textrm{tanh}(\boldsymbol{W_p}[\phi_{BMF};\phi_{e};\overline{\phi}_{cf^{p}_{l}}]))\end{align}直感的には,この機構は我々のモデルがアライメントベクトルを介して述語から離れた長文脈中の語を格要素として識別することを可能にしている.格フレームがその述語から離れた名詞を格要素として取るようなケースに対して,我々はこのメカニズムが直接的にその現象をモデル化することを期待している.
\section{格フレーム中の分散表現を利用した解候補削減}
\label{candidate_reduction}ゼロ代名詞となる項の先行詞候補を網羅的に探索すれば,列挙される述語項構造候補$(cf^p_l,a)$の集合は爆発的な規模となり,探索範囲は非実用的なものとなる.我々は\citeA{Sasano-A-2011}の基準を参考に,ゼロ代名詞となる項の先行詞候補は述語が含まれる文より3文前までのみを範囲として解候補削減を行っている.つまり~\ref{feature}節の$h$を$3$とした.BCCWJ中の格要素の分布は表~\ref{tab:distance-distribution}のようになっているため,この制限によってゼロ代名詞の89.16\%をカバーできることがわかる.$n$と$m$をそれぞれ$E_p$中の名詞句数,対象述語の格フレーム数とすると,この制限を用いてもなお,候補の数は$O(n^3m)$となり,BCCWJ中の各動詞に対して約20,000個の述語項構造候補が出現する.\subsection{述語内平均ベクトル(MVP)}\label{MVP}我々は,格フレーム候補と格要素候補の組合せについて~\ref{sec:case-vector}で提案したMVCと,{\bf述語内平均ベクトル}(MVP)$\overline{\phi}_{p(c)}$の二種類の平均ベクトルを使用した効率的な解候補削減手法を提案する.MVPは各格$c$について述語$p$に対応するすべての格フレームに渡ってMVC$\overline{\phi}_{cf^p_l(c)}$の重み平均を取ったベクトルである.重みは京大格フレーム中の各格フレームの頻度に基づく.我々の解候補削減手法は\citeA{Ouchi-Joint-2015}の山登り法を参考に,格フレーム候補と格要素候補の組合せ数を削減する.この解候補削減は計算効率のみを目的とするのではなく,訓練データ中の正例・負例のデータ数の非対称性の解消も目的とする.我々のケースでは,1つの正例に対して20,000の負例が生じるため,これに対処している.前述したように,我々は訓練データ中のほとんどの負例は訓練に貢献しないと考え,解候補削減を行う.\subsection{アルゴリズム}我々の提案する解候補削減手法をアルゴリズム~\ref{alg:candidate_reduction}に示す.ある述語$p$には,文脈に対するその語義の曖昧性を反映した複数の格フレーム$CF_p$が存在する.それぞれの格フレーム$cf^p_l$に対応する格フレーム内平均ベクトル$\bar{\phi}_{cf^p_l(c)}$はその格フレームの選択選好を反映しているため,これと格要素候補ベクトル${\phi}_{e}$の距離が近いほど,その格要素候補$e$は対象格フレーム$cf^p_l$の格スロット$c$に埋まりやすいと言える.このアルゴリズムは与えられた述語に対して,二つのベクトル間の距離が最も近くなる格フレームと格要素候補の組合せを探索する.しかしながら,京大格フレームは自動的手法で構築されているので,本来別々の格フレームが一つの格フレームとしてまとめられてしまっている,あるいは同じ一つの格フレームが別々に分断されてしまっている可能性がある.この問題に対処するために,我々は提案する解候補削減手法に二種類の平均ベクトルを導入した.MVCはある述語に対する格フレームの違いを区別し,MVPは格フレームの違いを考慮せず述語のみを考慮する.\begin{algorithm}[t]\input{09algo01.tex}\end{algorithm}まず初期値として各格$c\inC$に埋まりうる格要素$e^{(0)}_{c}$を仮に定める(行1--3).MVP$\overline{\phi}_{p(c)}$と格要素候補の分散表現$\phi_{e}$とのコサイン距離を求め,これが最小となる,すなわち対象述語に埋まる格要素群に最も近い格要素を初期格要素とする.この段階では,MVPを使用することで特定の格フレームではなく述語のみを考慮している.格フレーム候補と初期格要素の組合せを入力とした\textsc{Pseudo-Score}(行17--26)の返すスコアに基づいて,これらの初期格要素に対して最適な格フレーム$cf^{(0)}$を格フレームの初期値とする(行5).\textsc{Pseudo-Score}については\citeA{Sasano-A-2008}を参考に,我々は以下の3つの要素を考慮した.(1)京大格フレームに基づく(述語,格フレーム,深層格,格要素)の組合せの出現確率,(2)格フレーム内平均ベクトル(MVC)と格要素候補の間のコサイン類似度,および(3)述語と格要素候補の間の文数,である.このスコアの係数は経験的に定めた.以降,格フレーム$cf^{(t)}$を固定して格要素$e^{(t+1)}_{c}$を探索するフェーズ(行8--10)と格要素$e^{(t+1)}_{c}$を固定して格フレーム$cf^{(t+1)}$を探索するフェーズ(行12)を繰り返し,格フレームと格要素が更新されなくなればループを抜ける(行6--15).このアルゴリズムでは返り値として最もスコアの高い格フレームと格要素の組合せを返すが,実際にはループ中の毎回の探索過程で計算した格要素候補のうち3ベストまでを候補として保存する.最終的な出力は探索の過程で保存されたすべての格フレームと格要素の組合せである.提案した解候補削減手法により,約70\%の正解を候補に残しつつ,約1,000分の1まで解候補を削減することができた.
\section{評価実験}
\label{experiment}\subsection{ゼロ照応解析手法}\label{zero}学習手法にはランキングSVMとFNNを使用しそれぞれ比較した.先行研究\cite{Sasano-A-2011,Hangyo-Japanese-2013}と同様に,まず文書全体に対して形態素解析,固有表現抽出,構文解析を行う.これにはJUMANVer.7.01\footnote{http:\slash\slash{}nlp.ist.i.kyoto-u.ac.jp\slash{}index.php?JUMAN},KNPVer.4.16\footnote{http:\slash\slash{}nlp.ist.i.kyoto-u.ac.jp\slash{}index.php?KNP},CaboChaVer.0.69\footnote{https:\slash\slash{}taku910.github.io\slash{}cabocha\slash{}}を用いた.\paragraph{S0}\label{s0}提案する解候補削減を行い,ベースモデル素性を使用してSVMモデルを実装した.ランキング学習にはSVM$^{rank}$\cite{of-the-international-Training-2006}を使用した.カーネルは線形である.このモデルは正例と負例から識別関数を学習し,この識別関数が最も高い解候補を一つ出力する.\paragraph{S0\_each}\label{S0each}提案する解候補削減手法の効果を評価するためには,解候補削減を用いないモデルと比較することが自然である.しかしながら,前方3文までに先行詞候補の探索範囲を制限しても,述語一つあたりに対して20,000の述語項構造候補が出現するため,訓練時の計算複雑性は現実的ではない.これは複数の格を同時推定するために,格要素候補同士の組合せを考慮していることが原因である.そこで我々は,それぞれの格を独立に解析することで,解候補削減が必要ない単一格解析手法を用意した.この手法では,3つの格に対してそれぞれ別のSVMモデルを用意し,これらを独立に学習させて,評価の際は各格に対応するモデルのそれぞれの出力を組合せて最終的な出力とした.この時,述語一つあたりに対して,各格約200の格フレームと格要素の組合せが出現し,我々の提案手法に比べて計算量は膨大ではあるものの,計算可能な範囲である.この各格に対して独立のSVMを用いて学習を行ったモデルをS0\_eachとする.\paragraph{S0$'$}\label{S0$'$}複数格の同時推定のために我々は単純な解候補削減手法を用意した.この手法では,解析対象述語に近い方から先行する$n$個の名詞のみを格要素候補として選ぶ.この時の各格に対する格要素候補数は,提案手法と同程度の格要素の組み合わせ数となるよう調整した値であり,今回は$n=5$とした.この単純な解候補削減手法を適用した上でSVMを用いて学習を行ったモデルをS0$'$とする.\paragraph{F0}\label{f0}ベースモデル素性を使用してFNNモデルを実装した.FNNの設計に際しては\citeA{Matsubayashi-Revisiting-2017}を参考に,誤差関数にはソフトマックスクロスエントロピーを用い,各隠れ層にはbatch正則化とReLU活性化関数を使用した.\paragraph{F1}\label{f1}格要素候補の分散表現と解析対象述語の分散表現を素性に追加することで,F0を拡張した.\paragraph{F2}\label{f2}F1の述語分散表現を格フレーム内平均ベクトル(MVC)に置き換えた.\paragraph{F3}\label{f3}F2に文脈ベクトルとしてRNNの出力を追加した.RNNにはGRUを使用した.図~\ref{pic:解析モデル}にF3の全容を示す.\noindent表{~\ref{tb:素性の組合せ}}にそれぞれの素性組合せを示す.なお,MVPは入力素性として使用していない.\begin{table}[t]\caption{候補削減・素性の組合せ}\label{tb:素性の組合せ}\input{09table05.tex}\end{table}\subsection{データセット}実験データとして,『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{Maekawa-2014aa}のコアデータ\footnote{http:\slash\slash{}pj.ninjal.ac.jp\slash{}corpus\_center\slash{}bccwj\slash{}}を使用した.BCCWJのコアデータ約2,000文書に対しては,人手による述語項構造と照応関係が付与されており,これは新聞,雑誌,書籍,白書,Yahoo!知恵袋,Yahoo!ブログの6ドメインにまたがっている.ドメインの偏りに注意し,全体の約4/5を訓練用データ,約1/20を開発用データとし,残りを評価用データとして使用した.複数の格要素が同じ対象を指示している場合(共参照),本研究ではコーパスに付与された共参照情報をもとに出力を評価し,正しい照応先と共参照関係にある先行詞のいずれかを対応付けることが出来ていたならば正解とした.本研究で対象とした述語は動詞のみで,形容詞,事態性名詞は扱っていない.この理由として,動詞のゼロ照応解析において必要とされる手がかりと,形容詞や事態性名詞のゼロ照応解析において必要とされる手がかり,格要素と述語の出現傾向が異なるという点が挙げられる.{\citeA{Matsubayashi15projectnext}}が示しているように,例えば,形容詞はニ格やヲ格をほとんど取らない.また,事態性名詞は他の述語を項に取る場合があり,格要素候補には名詞以外の品詞も含めて解析を行う必要がある.このため,述語の種類を考慮しない単純な拡張による同時解析は解析精度の低下を招くと考えた.
\section{結果と議論}
\subsection{結果}\paragraph{複数格同時推定の効果}表~\ref{tb:result}はBCCWJにおけるゼロ照応解析の実験結果である.S0\_eachとS0を比較すると,多くの列において,S0がS0\_eachより高い精度を示していることがわかる.ただし文間ガ格,全体ガ格の列においては,S0\_eachがS0より高い精度を示している.これは単格の推定では,比較的精度の高いガ格の推定が他の格における誤りから影響を受けないため,複数格同時推定の時より値が良くなっているのだと考えられる.一方で,ニ格,ヲ格については,S0\_eachは他の格の情報が使えないため比較的精度が低く,全体としての精度も,複数格同時推定を行っているS0に劣っている.我々はこの結果に対して有意水準0.1\%でMcNemar検定を行い,統計的有意差を確認した.また,候補削減を行わない単一格解析のFNNモデルも用意し同条件で訓練し,テストを行ったものの学習が収束せず,極めて低い精度を示した.このことからも,候補削減の重要性が示唆される.\paragraph{解候補削減の効果}表~\ref{tb:result}で,S0$'$とS0を比較すると,すべての列において,S0がS0$'$より精度が高い.我々はこの結果に対して有意水準0.1\%でMcNemar検定を行い,統計的有意差を確認した.このことから我々の提案した解候補削減手法がうまく機能しているといえる.\begin{table}[b]\caption{BCCWJにおける結果(F値)}\label{tb:result}\input{09table06.tex}\end{table}\paragraph{分散表現とMVCの効果}ベースラインモデル(F0)に格要素と述語の分散表現を導入すると(F1),全体の精度が低下した.しかしながら,述語の分散表現をMVCに置き換えることで(F2)精度は上がり,F0を上回っている.これは述語の情報(F1)の代わりに,格フレーム情報を使う(F2)方がより効果的であることを示している.\paragraph{文脈ベクトルの効果}ローカルアテンション付きRNNモデルを使用し文脈情報を導入することで(F3),F2に比べて文内・文間ともに改善が見られた.これは,モデルが前方文脈情報を効率的に学習できていることを示唆している.F3は全体の精度においてはS0に劣っているが,文間照応においては様々な素性を入力としたことにより,S0より高い精度を示している.\paragraph{優先度学習の有効性}様々な素性を使用したFNNモデルと比較して,ランキングSVMを用いたS0のほうが全体では最も良い精度を示している.{\citeA{Isozaki2006,Hangyo2014}}は日本語ゼロ照応解析に際して,優先度学習を用いることは精度向上に効果があると指摘している.これは一般にゼロ照応解析がマルチインスタンス学習の枠組みで設定されていることによる.マルチインスタンス学習では,一つの実体が複数のインスタンス(素性ベクトル)を持ち,各実体が少なくとも一つの正例インスタンスを持つか否かはわかるがどのインスタンスが正例かはわからないという設定で学習を行う.マルチインスタンス学習のタスクに対して普通の二値分類を行った場合,比較的解きやすい実体に含まれる正負インスタンスと解きにくい実体に含まれる正負インスタンスを区別なく同時に学習することになってしまい,精度の悪化を招くと考えられる.我々は{\citeA{Hangyo-Japanese-2013,Hangyo2014}}同様,ランキングSVMを用いることでS0には優先度学習を取り入れているが,今回使用したFNNモデルにはこれに類する複雑な処理を取り入れておらず,述語すべてのそれぞれの組合せ候補に対して区別なく二値分類の学習を行っている.その結果,比較的解きやすい述語の多い文内においてはS0が高い精度を示し,比較的解きにくい述語の多い文間においてはより多くの素性が与えられたFNNモデルが高い精度を示している.そのため,BCCWJにおいては文間ゼロ照応より文内ゼロ照応の事例数のほうが多いことから,全体の精度としてはS0が上回っている.これは,より多くの素性を与えられたFNNモデルがより難しい述語に適合しようとして簡単な述語に対する精度を下げてしまった可能性がある.対策として,FNNモデルにもRankNetなどの優先度学習を取り入れることで文内の精度が改善される可能性がある.\subsection{議論}\paragraph{候補削減の成功例}\label{AppendixSucCandidate}候補削減の成功例としてBCCWJのQA文書である『00020\_A\_OC08\_00002』の2行目に出現する「知ってたら」を解析対象述語とした際の候補リストを表{~\ref{tb:SucCandidate}}に示す.\vspace{1\Cvs}\begin{center}\fbox{\vbox{\hbox{{\bf電動}{\bf歯}{\bfブラシ}の{\bf替え}{\bfブラシ}って高い!ですよね!?}\hbox{{\bf家計}に苦しいので{\bf復活}&{\bf長持ち}する{\bf方法}\underline{知ってたら}教えて下さい!}}}\end{center}\vspace{1\Cvs}\begin{table}[t]\caption{候補削減の成功例}\label{tb:SucCandidate}\input{09table07.tex}\end{table}ガ,ヲ,ニ格に埋まる格要素のうち「知ってたら」と直接係り受け関係にある名詞はない.一見すると「方法」が「知ってたら」に係っているように思えるが,BCCWJによれば,「方法」は「教えて下さい!」に係っている.従ってここではガ格,ヲ格にゼロ代名詞が存在し,ガ格の格要素は外界二人称,ヲ格は「方法」,ニ格の格要素は照応なしであると定める.京大格フレームには動詞「知る/しる{\~{}}テ形+る/る」の格フレームが32種類ある.解析対象述語「知ってたら」を含む文から3文前まで(実際には2行目の述語なので,1文前まで)に含まれる名詞は「電動」,「歯」,「ブラシ」,「替え」,「ブラシ」,「家計」,「復活」,「長持ち」,「方法」の9個あり,これらが格要素候補となる.これらの名詞9個に加えて,「外界照応or照応なし」を示す「None」を含む10個が実際の候補削減の対象となる格要素候補となる.これらの組合せは,$32\times(10\times9\times8+3\times9+1)=\text{23,936}$候補となる(「None」は重複を許容するため).これに対して我々の提案した候補削減を施し,23個まで削減した結果が表{~\ref{tb:SucCandidate}}である.表{~\ref{tb:SucCandidate}}は正解の組合せ(「知る/しる{\~{}}テ形+る/る:動13」,「None」,「方法」,「None」)を含むので上手く候補削減ができている.成功の理由を考察する.京大格フレーム中の「知る/しる{\~{}}テ形+る/る:動13」のヲ格の行で最も出現数が多い語は,「方法」が715回,「術」が207回,「使い方」が144回,「コツ」が111回,「仕方」が88回である.これらに対して正解のヲ格である「方法」はMVCとのcosine距離,出現確率によって高いスコアを割り当てられている.「知る/しる{\~{}}テ形+る/る:動13」のガ格の行で最も出現数が多い語は,「方」が2回,「司祭」が2回,「人」が2回,他22種の語が1回となっていて,不正解のガ格である「歯」,「復活」,「家計」,「方法」は候補リスト中に出現してはいるものの,比較的低いスコアを割り当てられている.\paragraph{候補削減の失敗例}\label{AppendixMissCandidate}候補削減の失敗例としてBCCWJの雑誌文書である『00016\_A\_PM12\_00020』の3行目に出現する「入ってくる」を解析対象述語とした際の候補リストを表{~\ref{tb:MissCandidate}}に示す.\vspace{1\Cvs}\begin{center}\fbox{\vbox{\hbox{{\bf17}}\hbox{{\bf創}は倒れている{\bf棚倉}を見ても、{\bf顔色}を変えなかった。}\hbox{{\bf生死}を冷静に{\bf確認}するように{\bf観察}してから、{\bf礼拝}{\bf堂}の{\bf中}に\underline{入ってくる}。}}}\end{center}\vspace{1\Cvs}\begin{table}[b]\caption{候補削減の失敗例}\label{tb:MissCandidate}\input{09table08.tex}\end{table}ガ,ヲ,ニ格に埋まる格要素のうち「中」は「入ってくる」と直接係り受け関係にある.従って,本来であればニ格には「中」以外埋まらないものと制限して候補削減を行う.しかし,BCCWJのアノテーションによれば,「入ってくる」は「入って」と「くる」に分割され,「中に」は「くる」に係っているため,「入って」とは直接係り受け関係にないとされ,ゼロ代名詞とされている.ここではBCCWJのアノテーションに従って,ガ格,ニ格にゼロ代名詞が存在し,ガ格の格要素は「創」,ヲ格は照応なし,ニ格の格要素は「中」であると定める.京大格フレームには動詞「入る/はいる{\~{}}テ形+くる/くる」の格フレームが24種類ある.解析対象述語「入ってくる」を含む文から3文前まで(実際には3行目の述語なので,2文前まで)に含まれる名詞は「17」,「創」,「棚倉」,「顔色」,「生死」,「確認」,「観察」,「礼拝」,「堂」,「中」の10個あり,これらが格要素候補となる.これらの名詞10個に加えて,「外界照応or照応なし」を示す「None」を含む11個が実際の候補削減の対象となる格要素候補となる.これらの組合せは,$24\times(11\times10\times9+3\times10+1)=\text{24,504}$候補となる(「None」は重複を許容するため).これに対して我々の提案した候補削減を施し,18個まで削減された結果が表{~\ref{tb:MissCandidate}}である.表{~\ref{tb:MissCandidate}}は正解の組合せ(「入る/はいる{\~{}}テ形+くる/くる:動3」,「創」,「None」,「中」)を含まないため,候補削減としては失敗の例である.\begin{table}[b]\vspace{-0.5\Cvs}\caption{BCCWJのドメインごとの実験結果のF値}\label{tb:resultGenre}\input{09table09.tex}\end{table}京大格フレーム中の「入る/はいる{\~{}}テ形+くる/くる:動3」のガ格の行で最も出現数が多い語は,「手」が205回,「男」が61回,「誰」が55回,「蜂」が30回,「彼」が28回である.これらに対して正解のガ格である「創」は我々の解析においては「創造」,「創作」などに近い一般名詞として捉えられてしまい,人名としての分散表現が与えられず,候補削減アルゴリズム中で低いスコアが割り当てられて,候補リストから漏れてしまっている.この候補削減失敗への対策としては,「創」を人名と判定し,人の意味を含む分散ベクトルを割り当てるということが考えられる.「入る/はいる{\~{}}テ形+くる/くる:動3」のニ格の行で最も出現数が多い語は,「中」が17,328回,「間」が650回,「内」が361回,「下」が154回,「奥」が154回となっていて,正解のニ格である「中」は比較的高いスコアを割り当てられて,候補リスト中にも出現が確認できる.\paragraph{ドメイン別のゼロ照応解析の精度}\label{AppendixGenre}我々は複数ドメインコーパスであるBCCWJ上で評価を行っている.テスト事例に対する解析結果をドメインごとに表{~\ref{tb:resultGenre}}に示す.OW(白書),PN(新聞)は一文の語数が多く,格要素候補の名詞も多数出現するため,組合せ候補数が増加する傾向にある.専門的な語や他のドメインでは出現頻度の低い述語が出現しやすい.しかし文法的には比較的正しい書き方がなされており,文意が取れないほどの省略は少なく,直接係り受け関係にある格要素が多く存在する.また,表{~\ref{tab:genre-distribution}}に示した通り,ガ格ゼロ照応のうちOWは72\%,PNは51\%が文内ゼロであり,直接係り受け関係にある格要素も比較的多く存在する.そのため,我々の組合せを用いる解析手法では,他の格の直接係り受け関係にある格要素を格フレーム選択の手がかりとすることで,他のドメインにおける精度と比較して全体で高いスコアを示している.また,多量の格要素候補に対しても提案候補削減が上手く機能し精度の向上に貢献している.PB(書籍),PM(雑誌)は一文が短く,文法的に砕けた文が多く見られ,一読しただけでは文意が捉えきれないような省略が散見される.倒置表現や,表{~\ref{tab:genre-distribution}}に示した通り3文より前に格要素が出現することも多い.そのため,他のドメインに比べて文間の精度は高いものの,全体の精度は低い.特にPB,PMに関しては文書ごとに取り扱う題材や書き手に多様性があるため,ドメイン適応の手法を用いても精度の改善につながらない.我々の手法では格要素候補として述語を含む文から3文前までの文中に出現する名詞のみを収集しているが,これをより広範囲に広げることが対策として考えられる.また,使用する大規模格フレームを現在はWebコーパスのみから構築しているが,より多くのドメインから構築することで,多様な述語に対して適切な格フレームを選択することができると考えられる.その際,爆発的に増加する格要素候補と格フレーム候補の組合せに対して,我々の提案する候補削減手法はより有効に働くものと予想される.OC(QA)は文内,文間のガ格において高い精度が出ている.これは,QAにおけるガ格の多くが一人称か二人称であり,他のドメインに比べて簡単なタスクとなっているためだと思われる.一方,表{~\ref{tab:genre-distribution}}に示した通りOCは文間ゼロの比率が最も高く,3文より前に格要素が出現することも多いため,全体の精度は最も低い.OCに出現する文はPB,PM以上に文法的に砕けた文が多く見られ,一読しただけでは文意が捉えきれないような省略が散見される.このドメインにおけるゼロ照応解析の精度を上げるためには,書き手の交代や質問文であるか否かのOCに特有の素性や,文書全体の構造を手がかりとすることが必要だと考えられる.OY(ブログ)はタイトルや箇条書き,メールアドレス,URL,日時,空白記号が多く出現し,書かれている内容も日記,政治ニュースに関する意見,技術的な説明文など様々である.我々の手法はより細分化された大規模格フレームを組合せで用いているため,出現述語の表記ゆれや助動詞の変化にも頑健で,他のドメインと比較して文内の全体において最も高いスコアが出ている.\paragraph{係り受け関係とゼロ照応解析の適合率の関係}\label{AppendixAccPred}我々の提案するモデルは複数の異なる格要素を同時に同定する.その効果を見るために,我々はどの格がすでに係り受け解析によって埋まっているかに基づいてテスト事例を分類した.表~\ref{tb:error-rate}はそれぞれの組合せにおける適合率である.列はすでに直接係り受け関係で埋められた格を示し,行はシステムによって埋められるべき格を示す.例えば,『ガ格』行,『ヲ格』列の数字は,係り受け解析によって『ヲ格』の格要素が与えられた上で,『ガ格』の格要素を同定した適合率である.\begin{table}[b]\caption{係り受け関係とゼロ照応解析の関係}\label{tb:error-rate}\input{09table10.tex}\end{table}直感的には,すでに直接係り受け関係で埋められた格が多いほど適合率は上がるものと予想されるが,『ガ格』の行で特に顕著なように,すでに直接係り受け関係で埋められた格が多いほど適合率が下がる傾向が見られる場合もある.これは,今回使用している京大格フレームがWeb上の文における直接係り受け関係の情報のみを収集していて,ゼロ照応の情報はほとんど考慮していないため,我々がゼロ照応解析を行うに際しては,その偏りの影響を受けているのだと考えられる.例えば,実際の日本語文においては,ガヲニ格を取りうる述語であっても,『ガとヲのみ直接係り受け関係で格要素が存在し,ニ格が省略されている文』と『ガヲニすべて直接係り受け関係で格要素が存在する文』では,前者のほうが多く出現し京大格フレーム中の用例が充実している可能性がある.この時,前者の文の出現によって京大格フレームに収録されるのはガ格とヲ格のみが出現する格パターンの用例であり,後者の文の出現によって収録されるのはガ格とヲ格とニ格が出現する格パターンの用例であるため,後者の格パターンが比較的スパースになる.そのような偏りを持つ京大格フレームを解析に用いた結果,『ガ格』行『ヲ格』列は,京大格フレーム中の豊富な用例を用いることができるため比較的適合率が高く,一方で,『ガ格』行『ヲ格,ニ格』列は,用例がスパースであるため比較的適合率が低くなる,と考えられる.従って,解析に際して直接係り受け関係の格要素のみでなくゼロ照応の格要素も考慮した格フレームを用いたならば,直感に反せず,すでに直接係り受け関係で埋められた格が多いほど適合率は上がるものと予想される.また,特に下線付きのセルが事例数が多いにも関わらず適合率が低いため,これらの下線付きセルの述語に関するパフォーマンスを改善することが,ゼロ照応解析全体の精度を上昇させることに対して重要である.\paragraph{NAISTテキストコーパス(NTC)による実験}\label{AppendixNAIST}表{~\ref{tab:related-work}}に示した通り,日本語文間ゼロ照応を取り扱う研究としては\citeA{imamura09,Sasano-A-2011,Hangyo-Japanese-2013,Shibata2018}が挙げられる.このうち我々が対象とする文内・文間のゼロ照応を行っているのは{\citeA{Sasano-A-2011}}のみであり,かつ彼らはNTC上の評価実験で文内・文間のstate-of-the-artを達成している.我々はNTCを用いて評価実験を行うことで,本稿の提案手法を{\citeA{Sasano-A-2011}}と比較した.表{~\ref{tb:resultNTC}}はその実験結果を示す.{\citeA{Sasano-A-2011}}の設定と揃えるために,ここで対象とした述語は動詞と形容詞とする.\begin{table}[b]\vspace{-0.5\Cvs}\caption{NTCを用いた実験結果のF値}\label{tb:resultNTC}\input{09table11.tex}\end{table}我々の提案手法は比較的精度が出にくい文内のヲ格,ニ格において{\citeA{Sasano-A-2011}}より高い精度を示している.これは我々が使用する京大格フレームが{\citeA{Sasano-A-2011}}の使用した版より巨大かつ細分化されているため,解析対象述語の語彙により適した格フレームを選ぶことで,適切な格要素を同定できているのだと考えられる.一方で,文内,文間のガ格においては{\citeA{Sasano-A-2011}}より低い精度を示している.これは{\citeA{Sasano-A-2011}}が格要素候補に対して,100万の名詞を2,000個の意味クラスに分類した結果を使用し,汎化することで格フレームのカバレッジを補っている効果によるものと思われる.我々の手法はword2vecを使用した分散表現同士のcosine距離を使用することで京大格フレームの汎化を行っているが,格要素の詳細な分類が述語に対してより重要な意味を持つガ格のゼロ照応解析においては,{\citeA{Sasano-A-2011}}の手法のほうが優れていると考えられる.ただしこれらの手法は排他的でなく,同時に使用することも可能であるため,双方を候補削減,ゼロ照応解析の素性として格ごとに使い分けることでさらなる精度の向上が期待できる.\begin{table}[t]\caption{『ProjectNEXT述語項構造タスク』の指定するBCCWJ文書を用いた実験結果のF値}\label{tb:resultNext}\input{09table12.tex}\end{table}\paragraph{『ProjectNEXT述語項構造タスク』との比較}\label{AppendixNext}{\citeA{Matsubayashi15projectnext}}は複数の述語項構造解析器の評価をBCCWJ上で行っている.ただし彼らはNTC上で解析器の訓練を行い,BCCWJの一部データにおいてテストをしているため,我々の提案手法との厳密な比較はできない.しかしできる限り条件を揃えて,彼らのスコアとS0を比較した.表{~\ref{tb:resultNext}}にその結果をまとめる.{\citeA{Matsubayashi15projectnext}}はBCCWJの以下22文書1,625文をテストデータとして使用している.\begin{itemize}\itemOW:OW6X\_00000OW6X\_00010の2記事\itemOY:OY01\_00082OY04\_00001OY04\_00017OY04\_00027OY10\_00067OY12\_00005の6記事\itemPB:PB12\_00001PB2n\_00003PB40\_00003PB42\_00003PB50\_00003PB59\_00001の6記事\itemPM:PM12\_00006PM24\_00003PM25\_00001PM26\_00004の4記事\itemPN:PN1b\_00002PN1c\_00001PN1d\_00001PN3b\_00001の4記事\end{itemize}S0の訓練にはこれらを除くすべてのBCCWJデータを使用した.{\citeA{Matsubayashi15projectnext}}が取り上げている解析器は{\citeA{Matsubayashi2014}}の解析器,{\citeA{Yoshino2013}}の解析器,KNP{\cite{KNP2013}}の3種類で,これらを様々な条件下で比較している.ここではBCCWJにおいて述語項構造をアノテーションされているすべて動詞から「れる」,「せる」,「できる/出来る/可能」,「てある」を伴うものを除き,{\citeA{Yoshino2013}}の解析器には係り受け情報を与え,KNPには-anaphoraモードでベストアラインメントを用いて解析を行った結果のスコアである.具体的には{\citeA{Matsubayashi15projectnext}}中の表50,表138,表295の数字をここでは引用している.ただし,我々の提案手法では京大格フレームとの整合性を保つために,BCCWJのアノテーションに基づいて,補助動詞「てあげる,てもらう,など」,可能「できる,れる,られる」,受け身「れる,られる」,使役「せる,させる」,願望「たい」を伴う動詞を除いている.そのため,{\citeA{Matsubayashi15projectnext}}の示す各格の事例数とは少し数字が異なる.表{~\ref{tb:resultNext}}中の数字は我々の基準における例数である.また,{\citeA{Matsubayashi2014}}の解析器,{\citeA{Yoshino2013}}の解析器,KNPは直接係り受け関係にある格要素の解析も同時に行っている.KNPは述語位置の判定も行っていて,一部の動詞については述語位置を誤って判定しているため,その分だけ精度が下がっている.結果を比較すると,文内において我々の提案手法は他の解析器に大きく差を付けて高い精度を示している.この理由として,提案手法においては直接係り受け関係にある格要素の情報を使用しているため,より正確に格フレームを選べている点が挙げられる.一方で,文間のガ格で{\citeA{Yoshino2013}}の解析器のほうが精度が高いのは,彼らの解析器は格ごとに解析を行っているため,S0\_each同様,他の格の解析エラーの影響を受けないためであると思われる.また,文間のガ格でKNPの精度が高いのはKNPが{\citeA{Sasano-A-2011}}と同様に意味クラスを使用した文間照応を行っている効果によるものだと思われる.
\section{結論}
本論文では分散表現で平均化した格フレームによる解候補削減を用いた日本語文内・文間ゼロ照応モデルを提案した.提案した解候補削減アルゴリズムによって大規模な複数ドメインコーパスによる効率的な訓練を可能とした.また,ローカルアテンション機構付きRNNとFNNを組合せて使用し様々な素性を取り入れることで,文間ゼロ照応解析においてより高い精度が出ることを確認した.我々の今後の課題はタスクの対象を形容詞,事態性名詞にまで拡張し,より実用的なモデルを構築することである.また,対象格要素候補の名詞が先行文脈中の述語にどの格の格要素として取られたかの情報を,我々の提案した解候補削減アルゴリズムに取り入れることで,より良い解候補削減が行えるよう改善する予定である.また,解候補削減を行わない場合,提案FNNモデルの学習が発散することから,本研究で提案したニューラルネットを用いた解析アーキテクチャそのものに改善の余地があると考えられる.\acknowledgment\citeA{Hangyo-Japanese-2013}に関して詳細な情報をご教示くださった萩行正嗣氏,\citeA{Ouchi-Neural-2017}の全体像についてご教示くださった大内啓樹氏に厚く御礼申し上げます.本論文の内容の一部は,The32ndPacificAsiaConferenceonLanguage,InformationandComputation,第5回自然言語処理シンポジウム(第238回自然言語処理研究発表会)で発表したものである\cite{Yamashiro-en,Yamashiro-ja}.TheauthorswouldliketothankEnago(www.enago.jp)fortheEnglishlanguagereview.\bibliographystyle{jnlpbbl_1.5}\input{09refs_bbl.tex}\appendix
\section{素性詳細}
label{chap:appFeatures}\centerline{\small\textbf{表13}ベースモデル素性一覧}\par\input{09table13.tex}\vspace*{-1\Cvs}\begin{biography}\bioauthor{山城颯太}{2017年東京工業大学工学部情報工学科卒業.2019年同大学情報理工学院情報工学系修了.同年,ヤフー株式会社入社.}\bioauthor{西川仁}{2006年慶應義塾大学総合政策学部卒業.2008年同大学大学院政策・メディア研究科修士課程修了.同年,日本電信電話株式会社入社.2013年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.NTTメディアインテリジェンス研究所研究員を経て,2015年より東京工業大学情報理工学院助教.2017年IE経営大学院修士課程修了.博士(工学).自然言語処理,特に自動要約,自然言語生成の研究に従事.TheAssociationforComputationalLinguistics,言語処理学会,人工知能学会,情報処理学会各会員.}\bioauthor{徳永健伸}{1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,東京工業大学情報理工学院教授.博士(工学).専門は自然言語処理,計算言語学.情報処理学会,人工知能学会,言語処理学会,計量国語学会,AssociationforComputationalLinguistics,ACMSIGIR,CognitiveScienceSociety,InternationalCognitiveLinguisticsAssociation各会員.}\end{biography}\biodate\end{document}
| |
V21N02-06 | \section{はじめに}
ここ数年,Webなどの大量の電子化テキストに現れる他者が発信した意見情報を抽出し,集約や可視化を行うことで,世論調査や評判分析といった応用を実現する研究が進んでいる\cite{pang2008,liu2010,otsuka2007,inui2006}.これらの研究を総称して,意見分析({\itSentimentAnalysis})あるいは意見マイニング({\itOpinionMining})と呼ぶ\cite{pang2008}.対象となる文書ジャンルは,報道機関が配信するニュース,Web上のレビューサイト,個人が自身の体験や意見を記述するブログやマイクロブログなどであり,政策や選挙のための情報分析,世論調査,商品や映画やレストラン・ホテルなどのサービスの評判分析,トレンド分析,などについて実用化が進められている.現在の意見分析の研究は,技術は洗練され,応用範囲は広がりつつあるものの,ここ数年,従来のやり方を大きく変えるような提案は著者の知る限りではあまり見当たらない.その結果,意見質問応答や,ドメインを横断した意見分析といった難易度の高い応用は,技術の壁にぶつかっている印象を持っている.意見質問応答は,factoid型,すなわち従来の質問応答技術に比べて,回答が長くなる傾向があり,また,質問に対する正答は,1つだけではなく,複数の意見を集約したほうが適切である場合が多い.初期の研究\cite{stoyanov2005emnlp}では,文や節などの単位を主観性などの情報に基づきフィルタリングすることで,回答が得られる可能性が増すことが指摘されていた.その後の研究\cite{balahur2010ecai}によると,評価型会議TAC(TextAnalysisConference)で提供されたブログからの意見質問応答・要約のデータセット\cite{dang2008tac}\footnote{http://www.nist.gov/tac/data/past/2008/OpSummQA08.html}を用いた実験では,ブログを対象として,特定の事柄に対する意見を問い合わせ,回答を得るというタスクについて,質問,回答を同一の極性や話題によりフィルタリングすることが有効であり,また複数の連続する文を抽出することが効果的であるが,意味役割付与などに基づくフィルタリングは必ずしも有効な結果が得られていない.さらに,さまざまな識者や組織により表明されている意見を話題別に集約するタスク\cite{stoy2011ranlp}などの提案もある.本研究では,複数の個人的な意見や体験が含まれる情報を集約して,回答として適切に構成するためには,従来の意見の属性,主観性,極性,意見保有者などにとどまらず,意見の詳細なタイプをアノテートし,質問と回答の構造について分析を進める必要があると考える.これにより,複数の個人的な意見や体験を,詳細なタイプに基づき,適切な順序で配置することにより,文章として自然な回答を提供できると考えている.また,質問と回答を含む文書ジャンルとして,Yahoo!知恵袋\footnote{http://chiebukuro.yahoo.co.jp/}などのコミュニティQAサイトがあり,意見質問の判別のために利用されている.具体的には,質問について主観性を判別するためには,質問と回答中の手がかりを区別して利用することが有効という研究\cite{li2008sigir}や,主観を伴う回答を求める質問を厳密に定義し,そのような質問は人間に対して回答を求めるという応用を目指している研究が存在する\cite{aikawa2011tod}.これらの研究は,主観性を判別する特徴が,質問と回答との間で明確ではないが関連があることと,意見を問う質問が判別できたとしても,適切な回答を自動的に構成することが難しいことを示唆している.一般に,質問に対する回答を検索するためには,質問に出現しやすい語彙と回答に出現しやすい語彙とのギャップを解消するために,その対応関係をコーパスから学習することにより,解決するための研究が行われている\cite{abe2011yans,berger2000sigir}.一方で,意見分析の研究は,文書ジャンル\footnote{文書ジャンルとは,文書の書き手と読み手との間で,読む行為を通じたコミュニケーションの共通パタンを想定できる文書群を指す概念と位置づけることができる\cite{bazerman2004}.}に応じて要求されるタスクが異なり,文書に現れる意見の性質も異なる.したがって,意見分析の研究にはコーパスが欠かせないが,現状では,ニュース,レビュー,ブログなどの文書ジャンルが主な対象となっている\cite{seki2013tod}.本研究では,従来の研究とは異なり,質問と回答を含む対話型の文書ジャンル,具体的には,国立国語研究所の『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{maekawa2011bccwj,yamasaki2011bccwj,bccwj2012}\footnote{http://www.ninjal.ac.jp/corpus\_center/bccwj/}中のYahoo!知恵袋\footnote{http://chiebukuro.yahoo.co.jp/}を対象として,質問とそれに対する回答に詳細な意見情報のアノテーションを行うことにより,質問と回答中の意見の構造やその対応関係を明らかにするための,基盤となるコーパスの提供を目指している.ただし,一口に意見といっても,その特徴はさまざまである.意見の定義の範囲は広く,主観性などの広い概念を対象とした場合,評価,感情,意見,態度,推測などの何を対象とするかを決定することも重要である\cite{wiebe2005lre,koba2006signl}.本研究では,態度の詳細分類であるアプレイザル理論\cite{martin2005}を参考に,詳細な分類体系に基づく意見情報をアノテートすることにより,質問に対する回答として出現する意見の傾向を,意見の性質の違いから明らかにすることを目指す.一方で,従来の意見分析では,単一のドメインを対象として研究がなされてきた.それは,ドメインに応じて,主観性,極性を判別したり,意見の対象やそのアスペクトを抽出するための教師あり学習に用いる素性が異なるからである.しかし,現実社会では,複数のドメインを横断して,意見分析を行うことが求められる場面が少なくない.この課題に向けた解決のための研究として,複数のドメインを対象とした意見分析に関する研究\cite{blit2007acl,pono2012emnlp,he2011acl,bolle2011acl,li2012acl}がある.これは,複数ドメインにおいて共通に出現する意見表現や,意見表現間あるいは意見の対象間の類似性を手がかりとして,訓練データと評価データとの不整合を緩和させようという試みである.英語については,Amazonレビューを対象としたコーパス\footnote{http://www.cs.jhu.edu/$\sim$mdredze/datasets/sentiment/}が公開されており,一連の関連研究ではこのコーパスを使用した研究が行われているが,日本語で同様のコーパスは流通していない\cite{seki2013tod}.したがって,こうした研究を促進するためには,日本語で同様のコーパスを開発する必要がある.また,レビューにとどまらない広い範囲のドメインを対象とした意見の違いなども明らかにする必要がある.本研究が対象とするコミュニティQAは,ブログなどと比較して,カテゴリに対して投稿内容が適合しているという特徴がある.具体的には,コミュニティQAサービスにおいて,ユーザは,適切な回答を得る必要性から,提供している質問カテゴリ\footnote{http://list.chiebukuro.yahoo.co.jp/dir/dir\_list.php?fr=common-navi}に対して適合した投稿を行う.これは,さまざまな話題を投稿するため,必ずしも事前に設定したカテゴリにはそぐわない話題を投稿する傾向のあるブログとの大きな違いである.また,ニュースやレビューと比べると,生活に密着した多様な話題が投稿される.これらを踏まえ,Yahoo!知恵袋の複数の質問カテゴリを対象としたコーパスを開発し,詳細な分類体系に基づく意見情報を重ね合わせて分析することにより,ドメインごとの意見の傾向の違いを明らかにすることを目指す.本論文の構成は以下のとおりである.\ref{sec:related}節では,関連研究を紹介する.\ref{sec:corpus}節では,コミュニティQAを対象とした意見分析のためのアノテーションの方針について述べる.\ref{sec:communityQA_annotation}節では,コミュニティQAを対象とした意見情報のアノテーション作業の特徴について議論する.\ref{sec:analysis}節では,Yahoo!知恵袋を対象として構築した意見分析コーパスを使用して,質問と回答や,ドメインあるいはコミュニケーションの目的に応じて出現する意見の性質の違いを明らかにする.最後に,\ref{sec:conclusion}節で結論をまとめる.
\section{関連研究}
\label{sec:related}本節では,まず,対話型の文書ジャンルを対象とした意見分析についての関連研究を紹介する.次に,複数のドメインを対象としたコーパスとその関連研究について紹介する.最後に,意見分析のアノテーションに関する関連研究を紹介する.\subsection{対話型の文書ジャンルを対象とした意見分析}\label{subsec:dialogue}\citeA{soma2007icwsm}は,Web掲示板やニュースからの質問応答において,質問と回答の態度を詳細に分類してフィルタリングすることが有効だという仮説を立て,実際に分類可能なタイプとして,意見(sentiment)に加えて議論(arguing)を設定し,その有効性を示した.ただ,この概念はかなり広いものであり,より詳細なカテゴリを設定しないと,質問と回答の関係は必ずしも明らかにならない.また,質問と回答が同一のタイプであることを仮定しているが,意見と議論が明確に区別できず,相互に混在する場合も避けきれないことから,平均的な回答精度の向上は見られても,完成度の高い戦略とはなりにくい.本研究では,より詳細な分類体系に基づき,質問と回答の関係について分析を行う.また,彼らはその後,議論のタイプを利用して,政治や宗教などのイデオロギー的な討論\cite{soma2010naacl}や,製品の比較\cite{soma2009acl}を対象として,スタンス(賛成,反対)\footnote{肯定(positive),否定(negative)とはそのまま必ずしも対応しない.}の判別に取り組んでいる.彼らの知見で重要な点は2つあり,ひとつは,イデオロギー的な討論と,製品の比較とで,スタンスの判別に有用な意見のタイプが異なること,もうひとつは,スタンスの判別には,``議論''や``意見''がそれ単体では有効ではなく,その対象となる単語と組み合わせることが,有効なことを示している点にある.本研究では,これらの知見を踏まえ,詳細な意見タイプと,意見対象のタイプとの組合せに基づき,コーパスの分析を進める.一方で,コミュニティQAを対象とした意見分析の研究も行われている\cite{kucu2012wsdm}.この論文では,質問カテゴリ間の意見の性質の差,性差,年齢差,時間帯の差,経験による差,ベストアンサーにおける差など,コミュニティQAの分析に研究の重点が行われているが,意見分析自体は,汎用的なシステムを利用しており,極性(肯定・否定)の判別のみに重点が置かれている.また,コミュニティQAでは,質問カテゴリごとに,情報や知識を求めるものや,広くみんなの意見や体験を聞きたいもの,など,質問のタイプの出現傾向が異なることが知られている\cite{kuriyama2009fi}.本研究では,より詳細な意見タイプを人手でアノテートすることにより,各カテゴリにおいてどのような意見の差異があるかをより明確なかたちで述べる.本研究では,意見の詳細タイプとして,より一般化されたアプレイザル理論\cite{martin2005}に着目する.アプレイザル理論の関連研究として,\citeA{arg2009lang}は,11の態度評価の下位タイプの自動分類に取り組んでおり,精度は高くないものの,将来的な発展が見込める.\citeA{sano2010a,sano2010b}は,ブログを対象としてアプレイザル理論に基づく評価語彙と評価対象の関係などの分析を進めている.本研究では,質問と回答を含む対話型の文書ジャンルとして,Yahoo!知恵袋を対象として,アプレイザル理論を参照した詳細な意見タイプをアノテートすることで,質問カテゴリ間の意見の差異と,質問と回答間の意見の関係を明らかにすることを目指す.\citeA{kabutoya2008dbsj}は,日本語のコミュニティQAサービスにおけるコミュニケーションのタイプとして,\citeA{adamic2008www}を踏まえて,「知識交換」「相談」「議論」の3つを設定し,質問カテゴリと相関があることを示している.本研究では,これらのタイプと質問カテゴリを組み合わせることにより,意見の詳細タイプの出現傾向を明らかにする.\subsection{ドメインを横断した意見分析}\label{subsec:domain}各ドメインごとに文書中で使用される概念や語彙の傾向は異なることから,あらゆるドメインに対応した意見分析システムを構築するのは手間である.そこで,ドメインに適応する技術(domainadaptation)\cite{soggard2013domain}を用いて,意見分析を実現する研究\cite{pono2012emnlp,he2011acl,bolle2011acl,li2012acl}が進められている.たとえば,あるドメインの少数の訓練データに基づき,別のドメインの大量のデータから類似度により重み付けをして選別・拡張する方法\cite{pono2012emnlp}が用いられている.また,学習にあたっての素性を,対象データに適合したものになるように拡張するアプローチ\cite{he2011acl,bolle2011acl}も研究されている.素性の拡張に当たっては,元のドメインと対象ドメインで共通する特徴に着目する必要があり,トピックと極性を共有する単語\cite{pono2012emnlp},周辺語と極性を共有する単語\cite{bolle2011acl}などが用いられる.また,ドメインごとに意見の対象となる表現を抽出するためには,一般的な意見表現を利用することが行われる\cite{li2012acl}.以上のように,ドメインを横断した意見分析の研究では,ドメインごとの意見表現と,ドメインを横断した意見表現を識別することが重要となる.上記の研究は,{\itAmazon}レビューの複数のドメインを対象としたデータセット\footnote{http://www.cs.jhu.edu/$\sim$mdredze/datasets/sentiment/}を用いている\cite{blit2007acl}.このデータセットでは,書籍,DVD,電気製品,台所用品の4つのドメインに関する製品データを取り扱っている.それぞれのドメインでは,1,000の肯定・否定のラベルが付いたレビュー文書と,ラベルの付いていない,より多くのレビュー文書が含まれている.本研究では,Yahoo!知恵袋の質問カテゴリのうち,質問数の多い主要7カテゴリを,質問者の情報要求を反映したドメインとみなし,意見分析コーパスを構築する.また,各ドメインにおいて,意見とその対象となる単語としてどのような組合せが現れるかを,意見の詳細タイプをアノテートしたコーパスを用いて分析することにより明らかにする.\subsection{意見分析のためのアノテーション}\label{subsec:mpqa}次に,意見分析のためのアノテーションを行った代表的な意見分析コーパスとして,{\itMPQA}({\itMulti-PerspectiveQuestionAnswering})意見コーパス\footnote{http://www.cs.pitt.edu/mpqa/}を紹介する.本コーパスは,2002年に,従来の質問応答システムとは異なる多観点の質問応答を対象としたコーパスを開発したことに端を発する\cite{wiebe2002mpqa}.具体的なタスクとしては,政府機関で働く情報分析者が行う作業を自動化することを目的としており,ニュース記事から意見の断片をあらわすテキストを抽出し構造化することで,米国の京都議定書への対応に対して日本人が同意しているか,などの意見(見方)を問う質問に対する回答を提供できるような応用を検討していた.この時点で,8つのトピック(のちに,10トピック)に関連する{\itWorldNewsConnection}(\textit{WNC})\footnote{http://wnc.fedworld.gov/}の575の記事(Ver1.2で,535記事に選別)を対象としたコーパスが作成された.このコーパスは,Version2.0で,692文書に拡張されている.ただし,文書数で見ると,元のWorldNewsConnectionの記事数が535文書なのに対して,{\itWallStreetJournal}の記事が85文書,{\itAmericanNationalCorpus}(旅行ガイド,話し言葉の書き起こし,9/11レポートなど)が48文書,{\itULA言語理解サブコーパス}({\itEnron}社破たんに関する社員の電子メール,アラブ言語の翻訳などの文書)から24文書と,文書ジャンルは多岐に渡るもののそのバランスは悪く,ニュース記事が圧倒的に多い.本研究では,コミュニティQA以外にも,現代日本語書き言葉均衡コーパス(BCCWJ)などを活用することにより,各文書ジャンルのバランスを考慮した意見分析コーパスを開発する.この研究の貢献の一つは,意見情報のアノーテションのフレームワークを,多数の判定者による実験を通して厳密に定めた点にある\cite{wiebe2005lre}.アノテーションの方針については,サンプルを使ってアノテータを訓練することにより,方針を自分だけではなく他人とも一貫させるように訓練することを重視している.アノテータ間の一貫性の判定には,$\kappa$係数\cite{cohen1960}を用いている.これらの方針は,本研究の意見分析コーパスの構築の際にも,参考にする.
\section{コミュニティQAデータを対象とした意見情報のアノテーション}
\label{sec:corpus}本節では,Yahoo!知恵袋を利用した意見分析コーパスの作成の取り組みについて紹介する.\subsection{対象コーパスの概要}\label{subsec:corpus}本研究では,国立国語研究所の『現代日本語書き言葉均衡コーパス』(以降,BCCWJ)\cite{maekawa2011bccwj,yamasaki2011bccwj,bccwj2012}\footnote{http://www.ninjal.ac.jp/corpus\_center/bccwj/}の中からYahoo!知恵袋を対象として,意見分析コーパスを作成した.データの選択は,複数の研究機関が異なるアノテーションを提供している共通の文書群である{\bfコアデータ}を対象として,その中から質問数の多い主要7カテゴリを対象とした.これらのカテゴリ中の文書は,BCCWJにおいて提供されるYahoo!知恵袋のデータ全体に対しては,28.3\%の文書を,コアデータに対しては,26.8\%の文書をカバーしている.他の研究機関が提供するアノテーションのうち,一部のデータは,\ref{subsec:targettype}節で後述するように利用し,アノテーションの重ね合わせを行った.また,データの仕様上,質問とベストアンサー\footnote{質問者の選択あるいはYahoo!知恵袋のユーザの投票に基づく最良の回答.}とのペアを1文書としている.文書のデータサイズを表\ref{table:yahoo_opinioncorpus}に示す.また,比較のために,新聞記事,BCCWJのYahoo!ブログ,国会会議録についても意見分析コーパスを作成した.新聞記事は,{\itNTCIR-6,7}意見分析コーパス\footnote{http://research.nii.ac.jp/ntcir/data/data-ja.html}を,Yahoo!ブログと国会会議録は,BCCWJのコアデータに含まれるものを利用している.対象となる文書の統計量を表\ref{table:other_opinioncorpus}に示す.また,\ref{subsec:annotation_methodology}節で説明するように,アノテータ間の判定の一致度を調査するために,これらのデータからサンプリングを行っている.サンプルデータのサイズを,表\ref{table:sample}に示す.Yahoo!知恵袋のサンプルは,各質問カテゴリについて10文書ずつ選択しており,他の文書ジャンルについても,話題のバランスを考慮してサンプルの文書を選択している.なお,本節以降において表に示す結果は,サンプルデータを用いている表\ref{table:kappa_communication}と表\ref{table:kappa}を除き,意見分析コーパスの全データを対象としている点に注意されたい.\begin{table}[t]\caption{Yahoo!知恵袋を対象として作成した意見分析コーパスのサイズ}\label{table:yahoo_opinioncorpus}\input{ca10table01.txt}\end{table}\begin{table}[t]\caption{新聞記事,Yahoo!ブログ,国会会議録を対象として作成した意見分析コーパスのサイズ}\label{table:other_opinioncorpus}\input{ca10table02.txt}\end{table}\begin{table}[t]\caption{判定一致度の計算に用いるサンプルデータのサイズ}\label{table:sample}\input{ca10table03.txt}\end{table}\subsection{アノテーションの基本属性}\label{subsec:basic}本研究の目的は,コミュニティQAという質問と回答を含む対話型の文書ジャンルへのアノテーションを通して,対話中に出現する意見情報の傾向を明らかにして,複数ドメインの意見分析ならびに意見質問応答の研究に応用できる日本語コーパスを開発することにある.具体的な応用としては,ドメインやコミュニケーションの目的に応じた情報要求や回答の傾向を明らかにすることによる,ドメインを横断した意見分析や,コミュニケーションの目的に適したかたちで意見を集約する意見質問応答を考える.意見分析コーパスの作成では,一般に,文やフレーズを単位として,意見性(主観性),極性(ポジネガ),意見保有者(誰がその意見を表明あるいは保有しているか),意見対象(何についての意見か)などの情報をアノテートする\cite{wiebe2005lre,seki2010ntcirov}.本稿でも,これらの研究の方針に従い,意見性(あり,なし),極性(肯定,否定,中立),意見保有者(文字列),意見対象(文字列)を意見の基本属性としてアノテートする.アノテーションの単位は,知恵袋中の1文が短いことから,基本を1文単位として,1文中の別々の節に異なる意見が含まれる場合には,節を分割してアノテーションを行う.節の分割は\ref{subsec:annotationtool}節で述べるアノテーションツールを使用して行う.一方,自らの悩みや問題を解消するために,回答者に問い合わせるという目的のコミュニティQAサービスでは,個人的な情報として体験情報あるいは経験情報\cite{inui2008nlp,kurashima2008dews,seki2008wi2}も,対話型のコミュニケーションにおいて重要な役割を果たす.本研究では,\citeA{seki2008wi2}を参考にして,体験性(あり,なし),体験主(著者,著者の家族,著者の友人,その他),体験タイプ(最近の体験,過去の体験,近い未来の確実な予定,その他)についてもアノテーションを行う.また,\ref{subsec:dialogue}節でも述べたコミュニケーションタイプ\cite{adamic2008www,kabutoya2008dbsj}(``相談'',``議論'',``知識交換'')を,1つの文書(質問と回答(ベストアンサー)とのペア)を単位としてアノテートし,質問カテゴリと組み合わせて,意見・体験情報の質問・回答間における出現傾向や,ドメインごとの差異について,詳細な分析を行う.ただし,この3つのタイプに含まれない雑談などを目的としたコミュニケーションについては,``その他''のタイプとする.このほかに,意見の詳細タイプ,意見対象のタイプについてアノテーションを行うが,これらの属性については,\ref{subsec:opiniontype}節,\ref{subsec:targettype}節で,後述する.\subsection{意見の詳細タイプの定義}\label{subsec:opiniontype}大量のソーシャルメディアにおけるデータを対象とした,時系列・地域あるいは何らかのカテゴリごとの意見の出現傾向の変化は,極性分類(肯定,否定,中立)により分析を行うことがあるが,対話における意見の役割の違いを分析する上では,この分類は粒度が粗すぎて,必ずしも傾向が明らかとならない.また,極性の判定はドメインごとに傾向が変化するため,自動的にアノテートして傾向を分析\cite{kucu2012wsdm}しても,その傾向の信頼性は必ずしも保障できない.本研究では,以上の問題点を意識し,意見の詳細タイプを定義し,人手でアノテートすることで,質問カテゴリごと,あるいは質問と回答とを関係づける意見の傾向を分析することを試みる.意見は,大きく分けて,(1)肯定,否定的なニュアンスを含む態度と,(2)提案などの言語行為や推測などの話者の認識をあらわす中立的な意見に分類される.本研究では,前者については,アプレイザル理論\cite{martin2005}に基づき定義を行った.アプレイザル理論は,システミック文法の対人メタ機能(interpersonalmeta-function)を,談話意味論(discoursesemantics)の観点から整理した体系である.\citeA{martin2005}は,テキスト中に現れる対人メタ機能の意味は,仮想的な読者(putativereader)に対する感情や対話であるという信念に基づき,appraisal,negotiation,involvementの3つのシステムから構成されるものとした.また,appraisalは,態度評価(attitude),形勢・やり取り(engagement),程度評価(graduation)の3つのシステムから構成されるものとした.このうち態度評価は,感情(emotion),倫理(ethics),美学(aesthetics)の区別に基づき,以下に記述する通り,自発的な感情の表明(affect),人間や組織の振舞や行為の判断や批評(judgment),事物や事象に対する評価(appreciation)の3つに分類される.本研究では,\citeA{martin2005}の中で定義されている,14の下位タイプを意見の詳細タイプ({\bf態度タイプ})としてアノテートする.以下では,それぞれのタイプについて,本研究におけるアノテーションのための定義と例について述べる.\begin{enumerate}\item自発的な感情の表明(affect)\\感情の表明は,心理状態を記述する動詞,属性形容詞,叙述形容詞,形容詞に関連した副詞や名詞(恐怖,嫌悪等)などで表現され,感情を表明する人に焦点を当てる.また,主体の感情を記述するほか,感情を誘発する体験(痛み,恋愛),感情を示唆する振舞(涙,笑い,感謝等),対象に対する心情(好き,誇り,トラウマ)の記述も含まれる.下位タイプとして,肯定・否定の両面から,以下に要素と具体例を示す.\begin{itemize}\item切望・敬遠(未事実的):要求,切望する,〜たい/用心深い,震える,恐れ(て…しない)\item幸せ・不幸(好悪自発感情的):うれしい,笑う,愛する/泣く,かなしい,嫌悪する\item安心・不安(生態環境・精神安定的):信頼,任せる,保証/驚く,心配する,不安定な\item満足・不満(目標活動・欲求充足的):報いる,充実,うれしい/怒る,陳腐,あきあきした\end{itemize}\item人間や組織の振舞や行為の判断や批評(judgment)\\人間や組織の振舞,行為,信念,性格に焦点を当て,規範,規則,社会的期待,価値体系に基づく(提案的なニュアンスの)批評や賞賛を分類する.これらは,副詞(正直に),属性形容詞(腐敗した政治家),叙述形容詞(残酷な),名詞(暴君,嘘つき),動詞(だます)で表される.批評を誘発する具体的な振舞や行為の記述も含む.モダリティ助動詞(可能,義務,意思)や副詞(確率,程度)は,批評を強調する.肯定・否定の両面から,以下の下位タイプを指定する.\begin{enumerate}\item世評に基づく尊敬・軽蔑(比較しやすい)\begin{itemize}\item通常・特別(特殊性):精通した,自然な,ラッキー/奇妙,風変わり,独特な\item有能・無能(有能さ):強力な,健全な,成熟した/弱い,愚かな,鈍い\item頑強・軽薄(信頼性):勇敢,信頼に足る,忠実/軽率,せっかちな,臆病な\end{itemize}\item道徳に基づく是非((a).より対象に固有で比較されていない)\begin{itemize}\item真実・不実(誠実さ):正直,信憑性ある,率直/だます,嘘つき,ひねくれた\item倫理(親切・謙虚等)・邪悪(我侭・高慢等)(倫理的是非):寛容,親切,礼儀正しい/邪悪,残酷な,わがままな\end{itemize}\end{enumerate}\item事物や事象に対する評価(appreciation)\\事物(自然物,人工物,芸術作品,建造物,構造,人間(ハンサム,ブ男)等)や抽象物(計画,政策等)に焦点を当て,美的感覚,社会的な意義に基づく評価を,客観化(あるいは一般化)された事物の属性や命題のように表現する.この意見は,商品の評判分析などで重要な役割を果たす.肯定・否定の判断基準と用語の選択は,ドメインに依存する.抽象物を対象とした場合は,(2)判断や批評とあいまいになる場合があるが,文脈で判断する.肯定・否定の両面から,以下の下位タイプを指定する.\begin{enumerate}\item対象に対する主体の反応\begin{itemize}\item衝撃・退屈(感想・反応):目立つ,刺激的,強烈な/うんざり,単調な,あきあきする\item魅力・嫌悪(質感・反応):華麗,美しい,魅惑的/不愉快な,グロテスクな,むかつく\end{itemize}\item対象の構成・構造に対する形状的・観念的美醜\begin{itemize}\item調和・混乱(構成・構造):均整のとれた,一貫/むらのある,矛盾,ずさん\item明瞭・複雑(構成・構造):純粋,わかりやすい/飾り立て,仰々しい,わかりにくい\end{itemize}\item対象の価値評価\begin{itemize}\item有用・無用や有害(社会的意義を反映した観念の認識,ドメインや文化に依存):鋭い,革新的な,タイムリーな/つまらない,従来の,浅はかな,有害な\end{itemize}\end{enumerate}\end{enumerate}また,上記では含まれない認識や言語行為を表す中立的な意見のタイプを,新たな意見の詳細タイプ({\bf認識・行為タイプ})として定義した.このタイプは,態度タイプを付与できないが意見を含んでいると考えられる文について,アノテータから提案されたタイプを検討することで定義した.以下に8つの下位タイプを示す.\begin{itemize}\item推測:〜ではないか/〜だと思う等.個人的な見通しを述べている.\item提起:〜しよう(誘い)/〜すべきだ・すべきではないか.\item賛否:そうですね/そうではないと思う.\item感謝:感謝します/ありがとうございます.\item謝罪:申し訳ないです/すみません.\item同情:可哀想だ/大変ですね.\item疑問:そうでしょうか.\item同意要求:〜ですよね/〜するほうがいいでしょうか.\end{itemize}\subsection{意見対象タイプの定義と既存アノテーションの活用}\label{subsec:targettype}\ref{subsec:dialogue}節でも述べたように,対話型の文書ジャンルにおいて意見を分析する上では,意見の詳細タイプだけではなく,意見対象と組み合わせて分析を行うことが重要となる.意見対象,すなわち何についての意見かという情報は,\ref{subsec:basic}節で述べたように,本コーパスでは文字列単位でアノテートをしている.ただ,意見情報を詳細に分析し,質問や回答やドメインに応じた意見の傾向を分析しようと考えた場合,文字列をそのまま使用するのではなく,分類体系に基づく抽象化が必要となる.このような情報を利用できるリソースとして,BCCWJのコアデータを対象として,拡張固有表現\cite{sekine2007ene}をアノテートして公開されたコーパス\cite{hasimoto2009nl}がある.拡張固有表現の表現体系は,3階層の200のカテゴリから構成されているが,意見対象をタイプ分類する上では,詳細すぎない体系が良いと考え,第1階層の26のタイプ(人名,組織名,製品名,自然物名など)を意見対象タイプの分類体系として採用する.また,意見対象のタイプは,拡張固有表現の分類体系と必ずしも対応しておらず,一般名詞が反映する概念も重要である場合があることから,新たに,抽象概念(例,措置,耕作放棄地,善悪,正義),行為概念(例,発言,マデシ政権の要求,片付け,散歩),人間属性概念(例,体重,健康,血圧)の3つのタイプを追加した.以上を踏まえ,意見対象タイプは,拡張固有表現を参考にし,以下の手順でアノテーションを行った.\begin{enumerate}\item本研究でアノテートした意見対象の文字列と,拡張固有表現コーパスの同一文書中のアノテートされた文字列とを比較し,完全一致の場合には,そのまま拡張固有表現のタイプを意見対象タイプとして採用した.\item完全に一致する文字列がない場合には,文字列間の編集距離が近い順に候補を提示し,その中からアノテータが選択することにより,半自動的にアノテートした.\item1と2の作業が終了した後で,一般名詞などの文字列で表現される意見対象について,アノテーションを追加した.\end{enumerate}\subsection{アノテーションツール}\label{subsec:annotationtool}\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA10f1.eps}\end{center}\caption{使用したアノテーションツール}\label{fig:annotationtool}\end{figure}本研究では,ウェブブラウザでアクセスできるアノテーションツール\footnote{本ツールは,他の意見分析タスク\cite{seki2010ntcirov}でも使用されている.}をアノテータに公開して使用させ,コーパスを構築した.アノテーションツールを図\ref{fig:annotationtool}に示す.本ツールでは,右フレームに作業対象全文が示されており,文の区切りを修正することができる(修正した文については,他のアノテータと区切りを共有する).そのうちの1つの文を対象として,左フレームで各属性についてアノテーションを行う.必要なアノテーションを行ったら,結果の保存ボタンを押す.この段階で,アノテーションが必要な属性についてチェックが行われていない場合には,そのことを注意するウィンドウがポップアップする.必要な属性をすべてアノテートし,結果の保存に成功すると,次の文のアノテーションが行えるようになる.一度保存された結果は,次にツールにアクセスするときには,読み込まれてチェックボックスがチェックされた状態で,以前にアノテートした属性を確認あるいは修正できる.複数のアノテータ同士では,各文の区切り方のみ情報が共有されており,各アノテータによるアノテーション情報は,別々に保存されている.各アノテータは,ツールにアクセスするときに自分のアノテータIDでログインすることにより,自らがアノテートした以前の情報にアクセスできる.\subsection{アノテータについて}アノテータは,Yahoo!知恵袋を日常的に閲覧する社会人(情報収集を日常業務とする職種)を対象として,2名のアノテータ(男女1名ずつ)を雇用した.これとは別に,新聞記事に同様の意見情報を付与するアノテータを2名雇用し,両文書ジャンルのアノテーション方針の調整役を1名,全体の取りまとめ役を1名雇用した.新聞記事のアノテーションを並行して行ったのは,従来の意見分析コーパスの文書ジャンルとの共通性ならびに違いを明らかにする目的で行った.また,これらのアノテーションが終わった後に,Yahoo!ブログと国会会議録を対象として,同様にアノテータを2名ずつと取りまとめ役を1名雇用して,アノテーションを行った.\subsection{アノテーションの手順}\label{subsec:annotation_methodology}意見分析の代表的なコーパスのひとつに,\ref{subsec:mpqa}節でも紹介した,{\itMPQA}({\itMulti-PerspectiveQuestionAnswering})意見コーパス\footnote{http://www.cs.pitt.edu/mpqa/}があり,意見情報のアノテーションのフレームワークを,多数のアノテータによる実験を通して厳密に定めている\cite{wiebe2005lre}.アノテーションの方針としては,(1)文脈を考慮して判定する(2)方針を一貫させる,などがあり,サンプルを使ってアノテータを訓練することにより,アノテーションの方針を自分だけではなく他人とも一貫させるように訓練することにより,方針のずれを修正することを重視している.以上を踏まえ,本研究のアノテーションの手順は,以下のとおりとした.\begin{enumerate}\itemアノテータは遠隔で判定作業を行った後で,疑問に思った点などを書き出す.\itemアノテータ全員と直接対面することで,不明確な方針について議論を行い,方針を固めた後で,アノテーションマニュアルを作成する.\itemマニュアルに基づき,サンプルデータについてアノテータ同士の判定の一致度を調査し,判定が一致してきたことを確認した後,すべてのデータについて判定を行う.\end{enumerate}作業は,アノテータを決定した後,\ref{subsec:corpus}節で紹介したサンプルデータ(70文書,各質問カテゴリ10文書)を対象として,20日間にわたりアノテーションを行い,疑問点などを洗い出した後,著者を含む7名が直接対面し,方針について議論セッションを行った.これに伴い,一部アノテーション属性などについて修正を行った後,2週間ほどかけて著者と取りまとめ役との間で調整を行い,アノテーションのガイドラインを取りまとめた.このアノテーションガイドラインに基づき,約1ヶ月をかけて残りの文書についてアノテーションを行った.作業に要した時間は,サンプルデータのアノテーションが12時間,議論セッションが約4時間,残りのアノテーションの時間が46時間であった.
\section{コミュニティQAを対象とした意見情報のアノテーション作業の特徴}
\label{sec:communityQA_annotation}コミュニティQAのような対話的な文書は,新聞記事のようなモノローグ的な文書と比べると,対話相手に(できるだけ早い段階の)反応を喚起するような言い回しを積極的に活用する点に特徴がある.コミュニティQAにおいては,質問者は,一般には,そのスタンス,あるいは立場や価値観を,短い文書を通じて共有してもらいつつ回答を促す.回答者は,同様に,質問者に回答を通じて回答者のスタンス,立場,価値観を共有,あるいは覆すよう働きかける.こうした分析のために,本研究では,\ref{sec:corpus}節で導入した態度タイプ\cite{martin2005}や認識・行為タイプなどの意見の詳細タイプを採用することにより,質問者や回答者,あるいはその他のスタンスを区別することが可能となると考える.コーパスを用いた分析については,\ref{sec:analysis}節で述べる.本節では,最初に意見・体験情報の基本属性の分布を示した後で,意見の詳細タイプをアノテートする上での課題や解決策について議論する.\subsection{コミュニティQAにおける意見情報アノテーションの分布}\label{subsec:distribution}まず,Yahoo!知恵袋コーパスにおける意見・体験情報の基本属性の分布を,全体ならびにコミュニケーションタイプ\cite{adamic2008www,kabutoya2008dbsj}別に表\ref{table:yahoo_distribution}に示す.\begin{table}[b]\caption{Yahoo!知恵袋コーパス中の意見・体験情報の分布}\label{table:yahoo_distribution}\input{ca10table04.txt}\end{table}全体の分布から,Yahoo!知恵袋においては,質問・回答ともに意見情報が多く現れているが,特に回答に多く現れている\footnote{t-検定(有意水準1\%,両側検定)で,各カテゴリの質問中の意見に対する有意差あり.}こと,それに対して体験情報は,質問にやや多く現れている\footnote{t-検定(有意水準5\%,両側検定)で,各カテゴリの回答中の体験に対する有意差あり.}ことがわかる.また,肯定意見は質問において特に少ない\footnote{Dunnettの多重比較検定(有意水準5\%)で,各カテゴリの質問中の否定意見,中立意見の構成比に対する有意差あり.}.これは,何らかの悩みを持ったユーザが,コミュニティQAサイトにおいて質問をしていることを考えれば自然な結果である.また,回答においては,特に中立的な回答が多い\footnote{Dunnettの多重比較検定(有意水準5\%)で,各カテゴリの回答中の肯定意見,否定意見の構成比に対する有意差あり.}.これは,ベストアンサーにおいては,中立的な意見が好まれる傾向があることを反映していると考えられる.コミュニケーションタイプについては,``知識交換''タイプでは,``相談''や``議論''に比べて意見情報が少ない傾向が見られる.また,``議論''タイプの質問では,体験情報が少ない傾向が見られる.さらに,従来の意見分析の文書ジャンルである新聞記事,ブログと,コミュニティQAの間で,意見の詳細タイプの構成比を比較した結果を表\ref{table:attitude_rate},表\ref{table:act_rate}に示す\footnote{なお,Yahoo!知恵袋とYahoo!ブログについて,表3,表4の構成比の合計値が100\%を超えているのは,態度タイプと認識・行為タイプとの重複付与を許していることによる.}.構成比は,意見の総数を分母とし,該当する意見タイプに分類された頻度を分子とした100分率を求めてから,すべての質問カテゴリ(またはトピック)に対するマクロ平均を計算した.これらの表から,コミュニティQAに対する意見のアノテーションは,認識・行為タイプが3分の1以上の意見に対して付与されているのに対して,他の文書ジャンルは20\%弱,5\%強となっており,特に,``提起''のような,質問者や回答者に働きかけを行う意見が多く出現する傾向が見られる.\begin{table}[b]\caption{各文書ジャンルの意見の態度タイプの構成比(\%)}\label{table:attitude_rate}\input{ca10table05.txt}\end{table}\begin{table}[b]\caption{各文書ジャンルの意見の認識・行為タイプの構成比(\%)}\label{table:act_rate}\input{ca10table06.txt}\end{table}\subsection{コミュニケーションタイプごとのアノテーションの課題}\label{subsec:communication_annotation}アノテータ間の判定の一致度は,$\kappa$係数\cite{cohen1960}を用いて計算した.サンプルは,\ref{subsec:corpus}節でサンプルデータとして紹介した70文書を選択した.2名のアノテータ間での判定一致度($\kappa$係数)を確認した結果を表\ref{table:kappa_communication}に示す.なお,片方のアノテータが意見性がないと判定した場合などは,片方の意見者の値は空値となるため,空値をタイプの1つとみなして$\kappa$係数を計算していることに注意されたい.また,\ref{subsec:basic}節で述べた意見を分割する場合についてであるが,この点については,取りまとめ役の第3者を通して,事前に区切る場所のみアノテータ同士で協議一致させた上で,値を計算している\footnote{ただし,Yahoo!知恵袋については,1文を区切って複数の意見をアノテートするケースはさほど多くない.}.表\ref{table:kappa_communication}の結果から,意見性,極性については,almostperfect/ほとんど一致,あるいは,substantial/かなりの一致\cite{landis1977}という結果になったが,その他の属性については,moderate/中程度の一致となった.\begin{table}[t]\caption{サンプルデータを用いた各コミュニケーションタイプのアノテータ間判定一致度($\kappa$係数)}\label{table:kappa_communication}\input{ca10table07.txt}\end{table}また,2名のアノテータによるコミュニケーションタイプのアノテーションが一致した結果により,アノテーションを分類した結果についても,一致度を計算した.この結果と\ref{subsec:distribution}節の表\ref{table:yahoo_distribution}の結果を比較することで,そのコミュニケーションタイプにおいて少ない傾向が見られた,``知識交換タイプ''の``態度''と``認識・行為''や,``議論タイプ''における``体験情報''などの一致度が低いことが分かる.この結果から,コミュニケーションの目的から直感的に連想されにくい情報のアノテーションは,判定がゆれる傾向が見られる.たとえば,質問カテゴリ「インターネット」における,以下のような回答を考える.\begin{itemize}\item「POWERMANAGEMENTの項目で設定ができます。」\item「具体的には、PCをがばっと広げて、メモリーと呼ばれる板っ切れを、ぶすっと突き刺せば、OKです。」(一部抜粋)\end{itemize}このような文は,質問に対する手続き的な回答を示していると考えれば,意見性はないと判断することもできる一方で,機能の有用性を示す意見,提起を示す意見と判断される場合もある.\subsection{アノテーションが一致しない事例とその解決策}態度タイプについて,不一致の多い意見タイプを調査したところ,``頑強・軽薄(信頼性)''と``真実・不実(誠実さ)''に不一致があることがわかった.この点については,前者は,世評に基づく尊敬・軽蔑であり,後者は,道徳に基づく是非であることをアノテーションマニュアル中に強調した.その他の問題点としては,\ref{subsec:communication_annotation}節の例にも関連するが,片方のアノテータが,別のアノテータの付与した属性を,付与していないケースが散見された.これは多属性のアノテーションにおいては避けがたい問題であるが,認識・行為タイプと,態度タイプについては,共に付与する場合と,片方だけ付与する場合がある.これについては,以下のような記述をアノテーションマニュアル中に用意し,アノテータに教示することで改善を試みた.\begin{enumerate}\item態度タイプに該当するものがなく,認識・行為タイプのみを選択する例.\begin{itemize}\itemかつて海南市内にも町内に一軒位の割合でお好み焼き屋さんがあったように思う.\\\hfill(推測)\item米国,日本のファンの後押しには感謝しています.\hfill(感謝)\item私は,ハイレベル委員会の指摘に基本的に賛成です.\hfill(賛否)\itemそれはショックですよね.\hfill(同情)\item落札する前に聞いたほうがいいですよね?\hfill(同意要求)\end{itemize}\item態度タイプを分類しながら,認識・行為タイプにも該当するものがある場合の例.\begin{itemize}\itemみんなで周辺に空いている土地を探そう.\hfill(態度タイプ(切望・敬遠)+提起)\item多数の職員において民間金融機関等との間に公務員としての節度を欠いた関係があったことはまことに遺憾であり,改めて国民の皆様に深くおわび申し上げます.\\\hfill(謝罪+態度タイプ(幸せ・不幸))\itemところで皆さんは福田総理を信用できますか?\hfill(疑問+態度タイプ(頑強・軽薄))\itemこれは,明らかに異常な状況だが,今の内務大臣の解決能力を超える事態であるのかもしれない.\hfill(態度タイプ「調和・混乱」,認識・行為「推測」)\end{itemize}\end{enumerate}BCCWJ中の別の文書ジャンルである国会会議録やブログについては,これらの知見を踏まえた上でアノテーションを行い,\ref{subsec:corpus}節で説明したサンプルデータを用いて,$\kappa$値を計算しており,表\ref{table:kappa}に示すとおり一致度は改善した.\begin{table}[t]\caption{サンプルデータを用いた各文書ジャンルのアノテータ間判定一致度($\kappa$係数)}\label{table:kappa}\input{ca10table08.txt}\end{table}
\section{Yahoo!知恵袋コーパスを用いた意見・体験情報の分析}
\label{sec:analysis}本節では,\ref{sec:corpus}節で作成したYahoo!知恵袋を対象としたコーパスを用いて,以下の3つの分析を行う.\begin{enumerate}\item質問,回答に出現する意見・体験情報の傾向の分析.\item質問,回答に出現する意見・体験情報の対応関係の分析.\item質問,回答に出現する意見・体験情報の構造の分析.\end{enumerate}\ref{subsec:dialogue}節で紹介した関連研究によると,意見と意見の対象との関係は,著者のスタンスを反映している.この考えに基づき,本研究では,\ref{subsec:opiniontype}節と\ref{subsec:targettype}節で定義した,意見の詳細タイプと意見対象タイプのペアを基本単位として,質問と回答を含む対話型の文書ジャンルであるコミュニティQAにおける意見の特徴について分析する.また,\ref{subsec:domain}節でも議論した,意見のドメインあるいはコミュニケーションの目的に応じた差異を明らかにするために,各ドメイン(Yahoo!知恵袋の質問カテゴリ\footnote{http://list.chiebukuro.yahoo.co.jp/dir/dir\_list.php?fr=common-navi})ならびにコミュニケーションタイプ\cite{adamic2008www,kabutoya2008dbsj}ごとに分析を行い,それぞれの質問カテゴリやコミュニケーションタイプに応じた意見・体験情報の特徴を明らかにする.これにより,特定のドメインやコミュニケーションの目的において意見を求める情報要求に応じて,トピックを表す語彙の分布を考慮するだけではなく,意見の詳細タイプに基づき,適切な回答を構成する応用を実現するための知見を提供する.\subsection{質問,回答に出現する意見・体験情報の傾向の分析}\label{subsec:analysis1}まず,質問カテゴリとコミュニケーションタイプとの対応関係を表\ref{table:yahoo_correspondance}に示す.各カテゴリには,コミュニケーションタイプに対する偏りがあることが明らかであり,\citeA{kabutoya2008dbsj}の主張とも合致する.\begin{table}[p]\caption{Yahoo!知恵袋の質問カテゴリとコミュニケーションタイプの対応}\label{table:yahoo_correspondance}\input{ca10table09.txt}\end{table}これを踏まえて,意見の詳細タイプ(態度タイプ,認識・行為タイプ)と意見対象タイプの組合せ,ならびに体験主と体験タイプの組合せのうち,特定のコミュニケーションタイプを反映したカテゴリの質問あるいは回答として,コーパス中に3件以上出現する組合せを,表\ref{table:yahoo_consult},表\ref{table:yahoo_discussion},表\ref{table:yahoo_knowledge}に示す.なお,意見情報については``意見の詳細タイプ—意見対象タイプ'',体験情報については,``体験主:体験タイプ''といった表記をしている.意見の詳細タイプについては,\ref{subsec:opiniontype}節の表記に従う.なお,表中に掲載されていない質問カテゴリは,3件以上出現する組合せがなかったことを意味する.以上の点は,これ以降の表でも同じ表記を採用する.\begin{table}[t]\caption{相談タイプの質問・回答に頻出する意見・体験情報}\label{table:yahoo_consult}\input{ca10table10.txt}\end{table}表\ref{table:yahoo_consult}から,全般に,``相談''タイプの質問においては,``最近の体験''が多い傾向が見られる.また,同じ``相談''を対象とした意見でも,質問カテゴリごと,あるいは質問と回答ごとに傾向が異なる.もっとも顕著な傾向が出ているのは``恋愛相談,人間関係の悩み''のカテゴリで,\\``人間'',``行為''に関係する``魅力・嫌悪''などの評価や,``不安''などが出現している.また,回答は,質問と比べて肯定・否定のバランスが取れてきていると同時に,``行為の提起''などの中立意見が増えている.``病気,症状,ヘルスケア''も同様の傾向が見られるが,対象に``病気''や\\``自然物名''(体の一部)が含まれる点が異なる.``Yahoo!オークション''については,``有用・無用''に関わる意見が含まれたり,``製品名''が対象となっている点が異なる.表\ref{table:yahoo_discussion}からは,``議論''タイプについては,``政治,社会問題'',``テレビ,ラジオ''などのカテゴリが増えていることがわかる.``政治,社会問題''については,``組織名''を対象として,``軽薄''あるいは``倫理''的に問題があるといった意見が出現している.``テレビ,ラジオ''については,\\``製品名''(番組名)の``魅力''について議論している.``恋愛相談,人間関係の悩み''については,``相談''の場合と比較して大きくは異ならないが,回答に肯定的な意見が少ない傾向が見られる.また,全般に体験の情報は,``相談''タイプと比べて少ない傾向が見られる.表\ref{table:yahoo_knowledge}からは,``知識交換''をするための意見は,回答のあいまい性の少ない知識に関係した質問カテゴリに出現することがわかる.``最近の体験''は,``相談''と同じく全般に質問中によく出現する傾向が見られる.``パソコン,周辺機器''のカテゴリにおいては,質問には,``製品名''を対象とした``切望''や``不満''などの意見が多い傾向が見られるのに対して,回答には,``製品名''を``提起''するなどの意見が見られる.``病気,症状,ヘルスケア''や``Yahoo!オークション''などのカテゴリにおいても,回答については,``病気名''や``製品名''(薬品名)あるいは``行為''について,``提起''あるいは``推測''するといった傾向が見られる.\begin{table}[t]\caption{議論タイプの質問・回答に頻出する意見・体験情報}\label{table:yahoo_discussion}\input{ca10table11.txt}\end{table}\begin{table}[t]\caption{知識交換タイプの質問・回答に頻出する意見・体験情報}\label{table:yahoo_knowledge}\input{ca10table12.txt}\end{table}\subsection{質問,回答に出現する意見・体験情報の対応関係の分析}\label{subsec:analysis2}次に,質問と回答の対応関係について分析を行う.\ref{subsec:analysis1}節と同様に,今度は質問と回答(ベストアンサー)とのペアについて,出現する意見・体験情報の対応がつくもののうち,出現頻度が3を超えるものを表\ref{table:yahoo_qaseq_consult}と表\ref{table:yahoo_qaseq_knowledge}に示す.なお,``議論''タイプについては,質問と回答のペアで出現頻度が3を越えるものがなかったため,提示していない.表\ref{table:yahoo_qaseq_consult}から,``相談''タイプにおいては,3つのカテゴリにおいて質問・回答の対応が見られる.``恋愛相談,人間の悩み''では,質問者の``最近の体験''に対して,何らかの``行為''の``提起''が返答される傾向が見られる.また,何らかの``敬遠''すべきあるいは``不安''を覚える\\``行為''について質問した場合,同じく``行為''の``提起''が回答される傾向が見られる.これに対して,``Yahoo!オークション''では,``製品''あるいは``行為''についての``疑問''に対して,\\``製品''や``行為''を``提起''するといった回答がある.また,質問者の``最近の体験''に対して,\\``行為''の``有用・無用''について回答をする場合もある.``病気,症状,ヘルスケア''では,回答に``病気名''を``提起''したり,``安心''感を与えるようなことを中立的に回答することがある.\begin{table}[t]\caption{相談タイプの質問と回答のペアに頻出する意見・体験情報}\label{table:yahoo_qaseq_consult}\input{ca10table13.txt}\end{table}\begin{table}[t]\caption{知識交換タイプの質問と回答のペアに頻出する意見・体験情報}\label{table:yahoo_qaseq_knowledge}\input{ca10table14.txt}\end{table}表\ref{table:yahoo_qaseq_knowledge}から,``知識交換''タイプにおいては,``パソコン,周辺機器''のカテゴリでは,質問者の``最近の体験''に基づき質問をすると,``製品名''を``提起''したりその``有用''性を回答する傾向が見られる.また,``製品''の``不満''を訴える質問に対しても,``製品名''を``提起''する回答がある.その他,``病気,症状,ヘルスケア''や``Yahoo!オークション''のカテゴリでは,質問者の``最近の体験''に対して,``製品名''や``病気名''を``提起''したり,``著者の過去の体験''に基づき明確な知識を回答する場合がある.\subsection{質問,回答に出現する意見・体験情報の構造の分析}最後に,質問,回答における意見・体験情報の構造を分析するために,前節と同様に,意見情報あるいは体験情報の前後に続く組合せのうち,出現頻度が3を超えるものを対象として分析を行った.その結果,Yahoo!知恵袋の質問または回答では,コミュニケーションタイプに関わらず,同じタイプの意見・体験情報を続けることが多い傾向が見られた.また,``パソコン,周辺機器''のカテゴリにおいて``知識交換''をする場合には,``製品''に対する``満足・不満''と質問者の``最近の体験''が連続する場合があることもわかった.
\section{おわりに}
\label{sec:conclusion}本稿では,従来,ニュース,レビュー,ブログなどが対象となって構築されていた意見分析コーパスについて,質問と回答を含む対話型の文書ジャンル,具体的にはBCCWJのYahoo!知恵袋を対象として意見分析コーパスを構築した.意見分析コーパスの構築にあたっては,従来の意見分析では行われてこなかった詳細な分析を目指し,態度タイプ\cite{martin2005}や,アノテータとの協議を通じて定義した認識・行為タイプといった意見の詳細タイプのアノテーションを行った.また,多数の属性の判定にあたり,一貫したアノテーションを実現するための課題や工夫点を紹介した.さらに,コミュニケーションタイプ\cite{kabutoya2008dbsj}や体験情報\cite{seki2008wi2}をアノテートし,意見対象タイプを拡張固有表現コーパス\cite{hasimoto2009nl}を利用してアノテートすることにより,意見の詳細タイプや質問カテゴリと重ね合わせることで,従来の極性分類に基づくコミュニティQAを対象とした意見分析\cite{kucu2012wsdm}では明らかにできなかった,質問カテゴリやコミュニケーションタイプごとの詳細な意見の傾向の違いや,質問と回答間の意見・体験情報の関係を明らかにした.今後の課題は,これら多数の属性を自動的にアノテーションすることにより,より大規模なデータを対象とした傾向を分析することにある.態度タイプなどの自動アノテーションに関する研究は,\citeA{arg2009lang}など,あまり数多くないが,態度評価辞書\footnote{http://www.gsk.or.jp/catalog/gsk2011-c/}の公開なども進んでおり,引き続き取り組んでいきたい.また,多属性のデータは,個別の属性の教師データが十分に得られないという課題があるが,この点は半教師ありトピックモデル\cite{kim2012icml}などの知見を活用することを検討している.{\addtolength{\baselineskip}{-1pt}\acknowledgment『現代日本語書き言葉コーパス(BCCWJ)』は,国立国語研究所により提供されたものを利用した.ここに深く感謝する.本研究の一部は,科学研究費補助金基盤研究C(課題番号24500291),基盤研究B(課題番号25280110),萌芽研究(課題番号25540159),ならびに筑波大学図書館情報メディア系プロジェクト研究による助成に基づき遂行された.\par}\vspace{-0.5\Cvs}\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{{阿部}\JBA{古宮}\JBA{小谷}}{{阿部}\Jetal}{2011}]{abe2011yans}{阿部}裕司\JBA{古宮}嘉那子\JBA{小谷}善行\BBOP2011\BBCP.\newblock相互情報量を用いた質問応答システムのためのクエリ拡張.\\newblock\Jem{NLP若手の会第6回シンポジウム}.\bibitem[\protect\BCAY{{Adamic},{Zhang},{Bakshy},\BBA\{Ackerman}}{{Adamic}et~al.}{2008}]{adamic2008www}{Adamic},L.~A.,{Zhang},J.,{Bakshy},E.,\BBA\{Ackerman},M.~S.\BBOP2008\BBCP.\newblock\BBOQKnowledgeSharingandYahooAnswers:EveryoneKnowsSomething.\BBCQ\\newblockIn{\BemProceedingsofthe17thInternationalConferenceonWorldWideWeb(WWW2008)},\mbox{\BPGS\665--674},Beijing,China.\bibitem[\protect\BCAY{{Aikawa},{Sakai},\BBA\{Yamana}}{{Aikawa}et~al.}{2011}]{aikawa2011tod}{Aikawa},N.,{Sakai},T.,\BBA\{Yamana},H.\BBOP2011\BBCP.\newblock\BBOQCommunityQAQuestionClassification:IstheAskerLookingforSubjectiveAnswersorNot?\BBCQ\\newblock{\Bem{IPSJTransactionsonDatabases}},{\Bbf4}(2),\mbox{\BPGS\1--9}.\bibitem[\protect\BCAY{Argamon,Bloom,Esuli,\BBA\Sebastiani}{Argamonet~al.}{2009}]{arg2009lang}Argamon,S.,Bloom,K.,Esuli,A.,\BBA\Sebastiani,F.\BBOP2009\BBCP.\newblock\BBOQ{AutomaticallyDeterminingAttitudeTypeandForceforSentimentAnalysis}.\BBCQ\\newblockIn{\Bem{HumanLanguageTechnology.ChallengesoftheInformationSociety}},\lowercase{\BVOL}\5603of{\BemLectureNotesinComputerScience},\mbox{\BPGS\218--231},Poznan,Poland.\bibitem[\protect\BCAY{Balahur,Boldrini,Montoyo,\BBA\Martinez-Barco}{Balahuret~al.}{2010}]{balahur2010ecai}Balahur,A.,Boldrini,E.,Montoyo,A.,\BBA\Martinez-Barco,P.\BBOP2010\BBCP.\newblock\BBOQ{OpinionQuestionAnswering:TowardsaUnifiedApproach}.\BBCQ\\newblockIn{\Bem{ProceedingsofEuropeanConferenceonArtificialIntelligence(ECAI)}},\mbox{\BPGS\511--516}.IOSPress.\bibitem[\protect\BCAY{{Bazerman}\BBA\{Prior}}{{Bazerman}\BBA\{Prior}}{2004}]{bazerman2004}{Bazerman},C.\BBACOMMA\\BBA\{Prior},P.\BBOP2004\BBCP.\newblock{\Bem{WhatWritingDoesandHowItDoesIt}}.\newblockLawrenceErlbaumAssociates.\bibitem[\protect\BCAY{{Berger},{Caruana},{Cohn},{Freitag},\BBA\{Mittal}}{{Berger}et~al.}{2000}]{berger2000sigir}{Berger},A.,{Caruana},R.,{Cohn},D.,{Freitag},D.,\BBA\{Mittal},V.\BBOP2000\BBCP.\newblock\BBOQ{BridgingtheLexicalChasm:StatisticalApproachestoAnswer-finding}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe23rdAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval}},\mbox{\BPGS\192--199},{Athens,Greece}.\bibitem[\protect\BCAY{{Blitzer},{Dredze},\BBA\{Pereira}}{{Blitzer}et~al.}{2007}]{blit2007acl}{Blitzer},J.,{Dredze},M.,\BBA\{Pereira},F.\BBOP2007\BBCP.\newblock\BBOQ{Biographies,Bollywood,Boom-boxesandBlenders:DomainAdaptationforSentimentClassification}.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics(ACL2007)},\mbox{\BPGS\440--447},Prague,CzechRepublic.\bibitem[\protect\BCAY{{Bollegala},{Weir},\BBA\{Carroll}}{{Bollegala}et~al.}{2011}]{bolle2011acl}{Bollegala},D.,{Weir},D.,\BBA\{Carroll},J.\BBOP2011\BBCP.\newblock\BBOQ{UsingMultipleSourcestoConstructaSentimentSensitiveThesaurusforCross-DomainSentimentClassification}.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2011)},\mbox{\BPGS\132--141},Portland,Oregon.\bibitem[\protect\BCAY{{Cohen}}{{Cohen}}{1960}]{cohen1960}{Cohen},J.\BBOP1960\BBCP.\newblock\BBOQ{ACoefficientofAgreementforNominalScales}.\BBCQ\\newblock{\Bem{EducationalandPsychologicalMeasurement}},{\Bbf20}(1),\mbox{\BPGS\37--46}.\bibitem[\protect\BCAY{{Dang}}{{Dang}}{2008}]{dang2008tac}{Dang},H.~T.\BBOP2008\BBCP.\newblock\BBOQ{OverviewoftheTAC2008OpinionQuestionAnsweringandSummarizationTasks}.\BBCQ\\newblockIn{\Bem{ProceedingsofTextAnalysisConferences2008(TAC2008)}},\mbox{\BPGS\24--35}.\bibitem[\protect\BCAY{{橋本}\JBA{乾}\JBA{村上}}{{橋本}\Jetal}{2009}]{hasimoto2009nl}{橋本}泰一\JBA{乾}孝司\JBA{村上}浩司\BBOP2009\BBCP.\newblock拡張固有表現タグ付きコーパスの構築.\\newblock\Jem{情報処理学会第188回自然言語処理研究会},\mbox{\BPGS\113--120}.\bibitem[\protect\BCAY{{He},{Lin},\BBA\{Alani}}{{He}et~al.}{2011}]{he2011acl}{He},Y.,{Lin},C.,\BBA\{Alani},H.\BBOP2011\BBCP.\newblock\BBOQ{AutomaticallyExtractingPolarity-BearingTopicsforCross-DomainSentimentClassification}.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2011)},\mbox{\BPGS\123--131},Portland,Oregon.\bibitem[\protect\BCAY{乾\JBA原}{乾\JBA原}{2008}]{inui2008nlp}乾{健太郎}\JBA原{一夫}\BBOP2008\BBCP.\newblock{経験マイニング:Webテキストからの個人の経験の抽出と分類}.\\newblock\Jem{{言語処理学会第14回年次大会発表論文集}},\mbox{\BPGS\1077--1080},東京大学.\bibitem[\protect\BCAY{{乾}\JBA{奥村}}{{乾}\JBA{奥村}}{2006}]{inui2006}{乾}孝司\JBA{奥村}学\BBOP2006\BBCP.\newblock{テキストを対象とした評価情報の分析に関する研究動向}.\\newblock\Jem{自然言語処理},{\Bbf13}(3),\mbox{\BPGS\201--241}.\bibitem[\protect\BCAY{{甲谷}\JBA{川島}\JBA{藤村}\JBA{奥}}{{甲谷}\Jetal}{2008}]{kabutoya2008dbsj}{甲谷}優\JBA{川島}晴美\JBA{藤村}考\JBA{奥}雅博\BBOP2008\BBCP.\newblockQAサイトにおける質問応答グラフの成長パターン分析.\\newblock{\Bem{DBSJJournal}},{\Bbf7}(3),\mbox{\BPGS\61--66}.\bibitem[\protect\BCAY{{Kim},{Kim},\BBA\{Oh}}{{Kim}et~al.}{2012}]{kim2012icml}{Kim},D.,{Kim},S.,\BBA\{Oh},A.\BBOP2012\BBCP.\newblock\BBOQ{DirichletProcesswithMixedRandomMeasures:ANonparametricTopicModelforLabeledData}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe29thInternationalConferenceonMachineLearning(ICML2012)}},\mbox{\BPGS\727--734},{Edinburgh,Scotland,UK}.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本}{小林\Jetal}{2006}]{koba2006signl}小林のぞみ\JBA乾健太郎\JBA松本裕治\BBOP2006\BBCP.\newblock意見情報の抽出/構造化のタスク使用に関する考察.\\newblock\Jem{情報処理学会,第171回自然言語処理研究会},\mbox{\BPGS\111--118}.\bibitem[\protect\BCAY{{Kucuktunc},{Cambazoglu},{Weber},\BBA\{Ferhatosmanoglu}}{{Kucuktunc}et~al.}{2012}]{kucu2012wsdm}{Kucuktunc},O.,{Cambazoglu},B.~B.,{Weber},I.,\BBA\{Ferhatosmanoglu},H.\BBOP2012\BBCP.\newblock\BBOQ{ALarge-ScaleSentimentAnalysisforYahoo!Answers}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe5thInternationalConferenceonWebSearchandWebDataMining(WSDM2012)}},\mbox{\BPGS\633--642},Seattle,WA,USA.\bibitem[\protect\BCAY{{倉島}\JBA{藤村}\JBA奥田}{{倉島}\Jetal}{2008}]{kurashima2008dews}{倉島}健\JBA{藤村}考\JBA奥田{英範}\BBOP2008\BBCP.\newblock{大規模テキストからの経験マイニング}.\\newblock\Jem{{電子情報通信学会第19回データ工学ワークショップ(DEWS2008)}},\mbox{\BPGS\A1--4}.\bibitem[\protect\BCAY{{栗山}\JBA{神門}}{{栗山}\JBA{神門}}{2009}]{kuriyama2009fi}{栗山}和子\JBA{神門}典子\BBOP2009\BBCP.\newblock{Q\&Aサイトにおける質問と回答の分析}.\\newblock\Jem{情報処理学会研究報告情報学基礎研究会報告},95\JVOL.\bibitem[\protect\BCAY{{Landis}\BBA\{Koch}}{{Landis}\BBA\{Koch}}{1977}]{landis1977}{Landis},J.~R.\BBACOMMA\\BBA\{Koch},G.~G.\BBOP1977\BBCP.\newblock\BBOQ{TheMeasurementofObserverAgreementforCategoricalData}.\BBCQ\\newblock{\BemBiometrics},{\Bbf33},\mbox{\BPGS\159--174}.\bibitem[\protect\BCAY{{Li},{Liu},{Ram},{Garcia},\BBA\{Agichtein}}{{Li}et~al.}{2008}]{li2008sigir}{Li},B.,{Liu},Y.,{Ram},A.,{Garcia},E.~V.,\BBA\{Agichtein},E.\BBOP2008\BBCP.\newblock\BBOQ{ExploringQuestionSubjectivityPredictioninCommunityQA}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe31stACMSIGIRConference}},\mbox{\BPGS\735--736},Singapore.\bibitem[\protect\BCAY{{Li},{Pan},{Jin},{Yang},\BBA\{Zhu}}{{Li}et~al.}{2012}]{li2012acl}{Li},F.,{Pan},S.~J.,{Jin},O.,{Yang},Q.,\BBA\{Zhu},X.\BBOP2012\BBCP.\newblock\BBOQ{Cross-DomainCo-ExtractionofSentimentandTopicLexicons}.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2012)},\mbox{\BPGS\410--419},Jeju,Korea.\bibitem[\protect\BCAY{{Liu}}{{Liu}}{2010}]{liu2010}{Liu},B.\BBOP2010\BBCP.\newblock\BBOQSentimentAnalysisandSubjectivity.\BBCQ\\newblockIn{Indurkhya},N.\BBACOMMA\\BBA\{Damerau},F.~J.\BEDS,{\BemHandbookofNaturalLanguageProcessing},\mbox{\BPGS\627--664}.CRCPress.\bibitem[\protect\BCAY{{前川}}{{前川}}{2011}]{maekawa2011bccwj}{前川}喜久雄\BBOP2011\BBCP.\newblock特定領域研究「日本語コーパス」と『現代日本語書き言葉均衡コーパス』.\\newblock\Jem{『現代日本語書き言葉均衡コーパス』完成記念講演会予稿集},\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{{Martin}\BBA\{White}}{{Martin}\BBA\{White}}{2005}]{martin2005}{Martin},J.~R.\BBACOMMA\\BBA\{White},P.R.~R.\BBOP2005\BBCP.\newblock{\BemTheLanguageofEvaluation:AppraisalinEnglish}.\newblockPalgraveMacmillan.\bibitem[\protect\BCAY{{大塚}\JBA{乾}\JBA{奥村}}{{大塚}\Jetal}{2007}]{otsuka2007}{大塚}裕子\JBA{乾}孝司\JBA{奥村}学\BBOP2007\BBCP.\newblock\Jem{意見分析エンジン}.\newblockコロナ社.\bibitem[\protect\BCAY{{Pang}\BBA\{Lee}}{{Pang}\BBA\{Lee}}{2008}]{pang2008}{Pang},B.\BBACOMMA\\BBA\{Lee},L.\BBOP2008\BBCP.\newblock{\BemOpinionMiningandSentimentAnalysis}.\newblockNowPublishersInc.\bibitem[\protect\BCAY{{Ponomareva}\BBA\{Thelwall}}{{Ponomareva}\BBA\{Thelwall}}{2012}]{pono2012emnlp}{Ponomareva},N.\BBACOMMA\\BBA\{Thelwall},M.\BBOP2012\BBCP.\newblock\BBOQDoNeighboursHelp?AnExplorationofGraph-basedAlgorithmsforCross-domainSentimentClassification.\BBCQ\\newblockIn{\BemProceedingsofConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2012)},\mbox{\BPGS\655--665},Jeju,Korea.\bibitem[\protect\BCAY{{佐野}}{{佐野}}{2010a}]{sano2010a}{佐野}大樹\BBOP2010a\BBCP.\newblock{ブログにおける評価情報の分類と体系化〜アプレイザル理論を用いて〜}.\\newblock\Jem{{電子情報通信学会第1回集合知シンポジウム}}.\bibitem[\protect\BCAY{{佐野}}{{佐野}}{2010b}]{sano2010b}{佐野}大樹\BBOP2010b\BBCP.\newblock{評価表現に基づくブログ分類の試み〜アプレイザル理論を用いて〜}.\\newblock\Jem{{言語処理学会第16回年次大会}}.\bibitem[\protect\BCAY{{関}\JBA{稲垣}}{{関}\JBA{稲垣}}{2008}]{seki2008wi2}{関}洋平\JBA{稲垣}陽一\BBOP2008\BBCP.\newblock日常的な体験を記述したブログ文書におけるライフイベントの判定.\\newblock\Jem{電子情報通信学会第2種研究会資料WI2-2008-20}.\bibitem[\protect\BCAY{{関}}{{関}}{2013}]{seki2013tod}{関}洋平\BBOP2013\BBCP.\newblock意見分析コーパスの現状と課題.\\newblock\Jem{{情報処理学会論文誌データベース}},{\Bbf6}(4),\mbox{\BPGS\85--103}.\bibitem[\protect\BCAY{{Seki},{Ku},{Sun},{Chen},\BBA\{Kando}}{{Seki}et~al.}{2010}]{seki2010ntcirov}{Seki},Y.,{Ku},L.~W.,{Sun},L.,{Chen},H.~H.,\BBA\{Kando},N.\BBOP2010\BBCP.\newblock\BBOQ{OverviewofMultilingualOpinionAnalysisTaskatNTCIR-8-AStepTowardCrossLingualOpinionAnalysis}.\BBCQ\\newblockIn{\Bem{ProceedingsoftheEighthNTCIRWorkshopMeeting}},\mbox{\BPGS\209--220},{NII,Japan}.\bibitem[\protect\BCAY{{関根}\JBA{竹内}}{{関根}\JBA{竹内}}{2007}]{sekine2007ene}{関根}聡\JBA{竹内}康介\BBOP2007\BBCP.\newblock{拡張固有表現オントロジー}.\\newblock\Jem{{言語処理学会第13回年次大会ワークショップ「言語的オントロジーの構築・連携・利用」}},\mbox{\BPGS\23--26}.\bibitem[\protect\BCAY{{Sogaard}}{{Sogaard}}{2013}]{soggard2013domain}{Sogaard},A.\BBOP2013\BBCP.\newblock{\Bem{Semi-SupervisedLearningandDomainAdaptationinNaturalLanguageProcessing}}.\newblock{SynthesisLecturesonHumanLanguageTechnologies}.Morgan\&Claypool.\bibitem[\protect\BCAY{{Somasundaran}\BBA\{Wiebe}}{{Somasundaran}\BBA\{Wiebe}}{2009}]{soma2009acl}{Somasundaran},S.\BBACOMMA\\BBA\{Wiebe},J.\BBOP2009\BBCP.\newblock\BBOQ{RecognizingStancesinOnlineDebates}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe47thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAsianFederationofNaturalLanguageProcessing}},\mbox{\BPGS\226--234},Suntec,Singapore.\bibitem[\protect\BCAY{{Somasundaran}\BBA\{Wiebe}}{{Somasundaran}\BBA\{Wiebe}}{2010}]{soma2010naacl}{Somasundaran},S.\BBACOMMA\\BBA\{Wiebe},J.\BBOP2010\BBCP.\newblock\BBOQ{RecognizingStancesinIdeologicalOn-lineDebates}.\BBCQ\\newblockIn{\Bem{ProceedingsoftheNAACLHLT2010WorkshoponComputationalApproachestoAnalysisandGenerationofEmotioninText}},\mbox{\BPGS\116--124},LosAngeles,CA.\bibitem[\protect\BCAY{{Somasundaran},{Wilson},{Wiebe},\BBA\{Stoyanov}}{{Somasundaran}et~al.}{2007}]{soma2007icwsm}{Somasundaran},S.,{Wilson},T.,{Wiebe},J.,\BBA\{Stoyanov},V.\BBOP2007\BBCP.\newblock\BBOQ{QAwithAttitude:ExploitingOpinionTypeAnalysisforImprovingQuestionAnsweringinOnlineDiscussionsandtheNews}.\BBCQ\\newblockIn{\Bem{ProceedingsofInternationalConferenceonWeblogsandSocial(ICWSM)}},Boulder,Colorado,USA.\bibitem[\protect\BCAY{{Stoyanov}\BBA\{Cardie}}{{Stoyanov}\BBA\{Cardie}}{2011}]{stoy2011ranlp}{Stoyanov},V.\BBACOMMA\\BBA\{Cardie},C.\BBOP2011\BBCP.\newblock\BBOQ{AutomaticallyCreatingGeneral-PurposeOpinionSummariesfromText}.\BBCQ\\newblockIn{\BemProceedingsofRecentAdvancesinNaturalLanguageProcessing(RANLP2011)},\mbox{\BPGS\202--209},Hissar,Bulgaria.\bibitem[\protect\BCAY{{Stoyanov},{Cardie},\BBA\{Wiebe}}{{Stoyanov}et~al.}{2005}]{stoyanov2005emnlp}{Stoyanov},V.,{Cardie},C.,\BBA\{Wiebe},J.\BBOP2005\BBCP.\newblock\BBOQMulti-PerspectiveQuestionAnsweringUsingtheOpQACorpus.\BBCQ\\newblockIn{\Bem{ProceedingsoftheConferenceonHumanLanguageTechnologyandEmpiricalMethodsinNaturalLanguageProcessing}},\mbox{\BPGS\923--930},{Vancouver,BritishColumbia,Canada}.\bibitem[\protect\BCAY{{Wiebe},{Wilson},\BBA\{Cardie}}{{Wiebe}et~al.}{2005}]{wiebe2005lre}{Wiebe},J.,{Wilson},T.,\BBA\{Cardie},C.\BBOP2005\BBCP.\newblock\BBOQ{AnnotatingExpressionsofOpinionsandEmotionsinLanguage}.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf39}(2-3),\mbox{\BPGS\165--210}.\bibitem[\protect\BCAY{{Wiebe},{Breck},{Buckley},{Cardie},{Davis},{Fraser},{Litman},{Pierce},{Riloff},\BBA\{Wilson}}{{Wiebe}et~al.}{2002}]{wiebe2002mpqa}{Wiebe},J.,{Breck},E.,{Buckley},C.,{Cardie},C.,{Davis},P.,{Fraser},B.,{Litman},D.,{Pierce},D.,{Riloff},E.,\BBA\{Wilson},T.\BBOP2002\BBCP.\newblock\BBOQ{NRRCSummerWorkshoponMultiple-PerspectiveQuestionAnsweringFinalReport}.\BBCQ.\bibitem[\protect\BCAY{{山崎}}{{山崎}}{2011}]{yamasaki2011bccwj}{山崎}誠\BBOP2011\BBCP.\newblock『現代日本語書き言葉均衡コーパス』の構築と活用.\\newblock\Jem{『現代日本語書き言葉均衡コーパス』完成記念講演会予稿集},\mbox{\BPGS\11--20}.\bibitem[\protect\BCAY{{山崎}}{{山崎}}{2012}]{bccwj2012}{山崎}誠\BBOP2012\BBCP.\newblock『現代日本語書き言葉均衡コーパス』による日本語研究の展開.\\newblock\Jem{{言語処理学会第18回年次大会チュートリアル資料}}.\end{thebibliography}\begin{biography}\bioauthor{関洋平}{1996年慶應義塾大学大学院理工学研究科計算機科学専攻修士課程修了.2005年総合研究大学院大学情報学専攻博士後期課程修了.博士(情報学).同年豊橋技術科学大学工学部情報工学系助手.2008年コロンビア大学コンピュータサイエンス学科客員研究員.2010年筑波大学図書館情報メディア系助教,現在に至る.自然言語処理,意見分析,情報アクセスの研究に従事.ACM,ACL,情報処理学会,電子情報通信学会,言語処理学会,日本データベース学会,人工知能学会各会員.}\end{biography}\biodate\end{document}
| |
V19N01-01 | \section{はじめに}
上位下位関係は自然言語処理の様々なタスクにおいて最も重要な意味的関係の一つであり,それゆえ盛んに研究されてきた\cite{hearst92,hovy09,oh09,ponzetto07,隅田:吉永:鳥澤:2009,suchanek07,nastase08,snow05}.これらの過去の研究では,上位下位関係を,「AはBの一種あるいはインスタンスであるAとBの関係」と定義している.本論文の上位下位関係もこの定義に従う.ただし,「概念」の詳細な表現を可能にするために,単一の語だけでなく,\xmp{黒澤明の映画作品}のような句や複合語も考慮する.このように制限を緩めることで,上位概念をより詳細に表現することが可能となる.上記の定義によれば,次のペアはいずれも上位下位関係にあると考えられる\footnote{本稿では上位下位関係を\isa{A}{B}のように表す.\xmp{A}が上位概念で\xmp{B}が下位概念である.}.\begin{enumerate}\item\isa{黒澤明の映画作品}{七人の侍}\label{enum:Kurosawa}\item\isa{映画作品}{七人の侍}\item\isa{作品}{七人の侍}\label{enum:work}\end{enumerate}質問応答等のアプリケーションを考えた場合,これらの上位下位関係の有用性は異なると考えられる.例えば,「``七人の侍''とは何ですか?」という質問に対して,上の3つの上位下位関係の上位概念のうち,答えとして適切なのは最も詳細な上位概念である(\ref{enum:Kurosawa})の「黒澤明の映画作品」と考えられる.一方,(\ref{enum:work})の上位概念「作品」は,「何の作品であるか」という必要な情報が欠落しているため「黒澤明の映画作品」という答えに比べて適切ではない.本論文では,以下の2つの条件を満たす場合に「下位概念Cに対して,AはBより詳細な上位概念」と呼ぶ.\begin{itemize}\itemAとBは同じ下位概念Cを持つ\itemBはAの上位概念である\end{itemize}上記の例では,全ての上位概念が「七人の侍」という同じ下位概念を持ち,かつ,上位概念間には,それぞれ上位下位関係が成り立つ.「黒澤明の映画作品」の上位概念は「映画作品」,または「作品」,さらに「映画作品」の上位概念は「作品」と考えられる.従って,下位概念「七人の侍」に対して「黒澤明の映画作品」は「映画作品」や「作品」より詳細な上位概念であり,「映画作品」は「作品」より詳細な上位概念と言うことができる.また,ある上位概念をより詳細な上位概念に置き換える処理を「上位概念の詳細化」と呼ぶ.本研究では,自動獲得した上位下位関係の上位概念と下位概念の間に,より具体的な上位概念を中間ノードとして追加することで,元の上位下位関係を詳細化する.中間ノードとして追加されるより具体的な上位概念は,元の上位下位関係が記述されているWikipedia記事のタイトルと元の上位概念を「AのB」の形式で連結することで自動獲得する.例として\isa{作品}{七人の侍}を挙げる.この上位下位関係は,タイトルが「黒澤明」のWikipedia記事の中に現れる.具体的には,当該記事の\xmp{作品}というセクションに\xmp{七人の侍}が記載されている.本手法では,この情報から,\xmp{七人の侍}は黒澤明の\xmp{作品}であると推測し,\isa{黒澤明の作品}{七人の侍}を新たに獲得する.さらに,\xmp{黒澤明}の上位概念が\xmp{映画監督}であることが獲得済みの上位下位関係から判明すれば,\isa{映画監督の作品}{七人の侍}も獲得できる.最終的に,元の\isa{作品}{七人の侍}から,\isaFour{作品}{映画監督の作品}{黒澤明の作品}{七人の侍}を得ることができる.本稿ではさらに,本手法により獲得した上位下位関係(例えば\isa{黒澤明の作品}{七人の侍})が\attval{対象}{属性}{属性値}関係(例えば\attval{黒澤明}{作品}{七人の侍})として解釈できることについて議論する.この解釈では,Wikipedia記事のタイトルが対象に,上位概念が属性に,下位概念が属性値に対応づけられる.実験で生成した上位下位関係2,719,441ペアは,94.0\%の適合率で,\attval{対象}{属性}{属性値}関係として解釈可能であることを確認した.以下,\ref{sec:hh-problems}節では,既存の手法で獲得された上位概念の問題点を例とともに述べる.\ref{sec:Base-hh}節では,Wikipediaからの上位下位関係獲得手法\cite{隅田:吉永:鳥澤:2009}について説明する.\ref{sec:proposed-method}節では,我々が開発した,Wikipediaを用いた詳細な上位下位関係の獲得手法について説明する.\ref{sec:evaluation}節では,提案手法の評価とエラー分析の結果について述べる.\ref{sec:discussion}節では,提案手法により獲得した詳細な上位概念をより簡潔に言い換える試みと,詳細な上位下位関係の\attval{対象}{属性}{属性値}関係としての解釈について議論する.\ref{sec:related-word}節で関連研究について述べる.最後に\ref{sec:conclusion}節で結論を述べる.
\section{自動獲得された上位概念の問題\label{sec:hh-problems}}
本節では,隅田ら\cite{隅田:吉永:鳥澤:2009}の手法の出力を例に,自動獲得された上位概念に見られがちな問題点について述べる.自動獲得された上位概念の中には,一般的なシソーラスにおいてルートノードの近くに位置して広範囲な下位概念をカバーするものや,意味的に曖昧なものが存在するという問題が見られる.例えば\isa{作品}{七人の侍}における上位概念は\xmp{作品}だが,世の中には\xmp{作品}と呼べる物が数多く存在する.さらに極端な例として,上位概念が\xmp{物}や\xmp{事}になっている上位下位関係も,自動で獲得されてしまう可能性がある.このような上位概念を質問応答などの自然言語処理のアプリケーションで利用すると,より詳細な上位概念と比較してその有用性が低いことが多い.例えば1節の例で言及したように「``七人の侍''とは何ですか?」という質問に対しては,より詳細な上位概念である「黒澤明の映画作品」のほうが「作品」より適切な回答と考えられる.また,「黒澤明の作品には何がありますか?」といったリスト形式の回答を求めるような質問に対して,上位下位関係を回答の知識源として使うことによって,上位概念「黒澤明の作品」の下位概念をリスト形式で回答できる\footnote{リスト形式の質問応答を行うタスクは,評価型ワークショップであるTRECQAtask\cite{Dang2006,Dang2007}で実施された.例えば「チューインガムの名前は?」といった質問に対して,そのインスタンスをすべて回答する.}.一方,上位概念「作品」は他の映画作品や小説作品,音楽作品などの下位概念を持つため,「作品」が上位概念として含まれる上位下位関係のみを知識源として利用しても,このような質問に回答することは難しい.表\ref{tab:hh-problems}に,隅田らの手法で獲得された上位下位関係で頻出した上位概念を挙げる.例えば,\xmp{アルバム}は,写真のアルバムなのか音楽が収録されているアルバムなのか分からず,曖昧である.一方,\xmp{出演者}は,これだけでは何に出演したのか分からない.この表から,自動獲得した上位下位関係の上位概念には,曖昧,または広範囲な下位概念をカバーする語が頻出していることがわかる.\begin{table}[b]\caption{隅田らの手法で獲得された上位下位関係中の上位概念(出現頻度の降順上位20語)}\label{tab:hh-problems}\input{02table01.txt}\end{table}このような問題点は,隅田らの手法に限らず発生すると考えられる.「AなどのB」といった上位下位関係を明示する構文パターンから抽出する手法\cite{hearst92}においても,例えば「七人の侍などの作品」というフレーズからは,「七人の侍」の上位概念として「作品」が抽出される.つまり,他の多くの上位下位関係獲得手法についても当てはまる.
\section{Wikipediaを用いた上位下位関係の獲得\label{sec:Base-hh}}
本節では,隅田らが提案したWikipediaを用いた上位下位関係の獲得手法\cite{隅田:吉永:鳥澤:2009}について述べる.この手法により獲得した上位下位関係が,\ref{sec:proposed-method}節で説明する詳細な上位下位関係獲得の処理対象となる.\begin{figure}[b]\begin{center}\includegraphics{19-1ia2f1.eps}\end{center}\caption{Wikipedia記事の例:アップルインコーポレイテッド}\label{fig:wikip-article}\end{figure}この手法では,Wikipedia記事の階層的なレイアウト構造を利用して上位下位関係を獲得する.図\ref{fig:wikip-article}に,Wikipedia記事の例として\xmp{アップルインコーポレイテッド}の記事を挙げる.この記事は\xmp{Appleショップ}や\xmp{製品}という節があり,\xmp{Appleショップ}の下位には\xmp{北海道地方},\xmp{製品}の下位には\xmp{コンピュータ},\xmp{iPod},\xmp{iPhone}などの小節がある.さらに小節の中には,\xmp{Macmini}や\xmp{MacBook},\xmp{MacBookAir}といった項目が存在する.以後,これらの節見出し,小節タイトル,項目名をtermと呼ぶことにする.\begin{figure}[b]\begin{center}\includegraphics{19-1ia2f2.eps}\end{center}\caption{MediaWikiソースコードの例:アップルインコーポレイテッド}\label{fig:mediawiki}\end{figure}図\ref{fig:wikip-article}に示すWikipedia記事から上位下位関係候補を抽出する処理では,Wikipediaがデータベースのダンプデータとして提供しているMediaWikiソースコード(図\ref{fig:mediawiki})を利用する.MediaWikiソースコードでは,節見出し,小節タイトル,項目名を表現するために特殊な修飾記号が用いられる.例えば節見出しでは「==製品==」,項目名では「***Macmini」などの記号が用いられ,その修飾記号の種類,繰り返し数により,レイアウト構造上の上下関係が決定する.隅田らの手法では,まず,記事のレイアウト構造上の上下関係(節タイトルは小節タイトルより上位にあり,小節タイトルは項目名より上位にある)を守りながら,2つのtermから1つの上位下位関係候補を獲得する.例えば図\ref{fig:wikip-article}の場合,\isa{製品}{コンピュータ}や\isa{コンピュータ}{Macmini},\isa{製品}{Macmini}などが獲得される.次に,SVM\cite{Vapnik:1995}を用いて,獲得された上位下位関係候補を正しそうなものとそうでないものに分類する.素性として,以下に示す特徴を上位概念候補,下位概念候補から抽出して利用する.\begin{itemize}\item上位概念候補,下位概念候補の品詞.\item上位概念候補,下位概念候補に含まれる形態素.\item上位概念候補,下位概念候補の表層文字列.\item上位概念候補,下位概念候補が属性語Xに一致するか否か.(属性語として,各記事の根ノード以外のノードに出現する単語を利用.)\item上位概念候補,下位概念候補の修飾記号(``='',``*''など).\item上位概念候補と下位概念候補間のレイアウト構造上の距離.\item上位概念候補が「主な〜」,「〜のリスト」などの上位概念を表現する典型的なパターンに一致するか.\item上位概念候補と下位概念候補の末尾の1文字が一致するか.\end{itemize}訓練データは,隅田らが実験で用いたデータと同じものを使用した\footnote{この訓練データにより学習されたモデルファイルと上位下位関係獲得ツールはhttp://\linebreak[2]alaginrc.nict.go.jp/\linebreak[2]hyponymy/\linebreak[2]index.htmlで公開されている.}.このデータは,Wikipediaから獲得した上位下位関係候補から29,900対を抽出し,人手により上位下位関係か否かを判定することにより作成している.この処理を2009-09-27版のWikipediaに適用することにより,1,925,676ペアの上位下位関係を適合率90\%で獲得した.この上位下位関係をベース上位下位関係(図\ref{fig:whole-procedure}(a))と呼び,\ref{sec:proposed-method}節で説明する詳細な上位下位関係獲得の処理対象とする.階層的なレイアウトを利用する手法とは別に,隅田らは,Wikipedia記事の定義文(記事の第一文に該当)を用いた手法と,記事下部にあるカテゴリ情報を用いた手法も提案している.これらの手法では記事タイトルが下位概念として使われるため,我々が提案する記事タイトルによる上位下位関係の詳細化が適用できない.そこで,これら2つの手法により得られた上位下位関係はベース上位下位関係として用いず,\ghype{}の生成の際に用いる(\ref{sec:G-hh}節).この処理により,2009-09-27版のWikipediaからは,522,709個の記事タイトルに対して1,472,035個の上位概念を適合率90\%で獲得した.
\section{詳細な上位下位関係の獲得手法\label{sec:proposed-method}}
\begin{figure}[b]\begin{center}\includegraphics{19-1ia2f3.eps}\end{center}\caption{提案手法の処理の流れ}\label{fig:whole-procedure}\end{figure}\ref{sec:hh-problems}節で述べた通り,ベース上位下位関係の上位概念の中には広範囲な下位概念をカバーするものや意味的に曖昧なものが存在する.そこで本節では,ベース上位下位関係を処理対象とした詳細な上位下位関係の獲得手法について述べる.図\ref{fig:whole-procedure}に,提案手法の処理の流れの全体像を示す.まず,ベース上位下位関係の各上位概念をWikipedia記事のタイトルで詳細化し,詳細化された上位概念を元の上位概念と下位概念の間に中間ノードとして挿入する(\ref{sec:T-hh}節).以降では,Wikipedia記事のタイトルで詳細化された上位概念を\thype{}と呼ぶ.また,\thype{}を中間ノードとして挿入された上位下位関係をT-上位下位関係と呼ぶ(図\ref{fig:whole-procedure}(b)).次に,\thype{}中の記事タイトル箇所をその上位概念で抽象化する事で,元の上位概念よりは詳細だが\thype{}よりは抽象的な新たな上位概念を得る.以降では,この上位概念を\ghype{}と呼ぶ.\ghype{}は,T-上位下位関係の上から二番目,つまり元の上位概念の直下に挿入される(\ref{sec:G-hh}節).\thype{}に加え\ghype{}が挿入された上位下位関係を,これ以降,G-上位下位関係と呼ぶ(図\ref{fig:whole-procedure}(c)).なお本手法では,上位概念に関わらず,全てのベース上位下位関係を本提案手法により詳細化する.以下,各処理手順を詳しく説明する.\subsection{T-上位下位関係の獲得\label{sec:T-hh}}Wikipediaの記事に出現する節タイトル,小節タイトル,項目名などは,その記事のタイトルによって情報を補足できると考えられる.ベース上位下位関係の上位概念は,Wikipediaの記事に出現する節タイトル,小節タイトル,項目名などに対応するため,T-上位下位関係の獲得処理では,ベース上位下位関係の上位概念をWikipedia記事タイトルで情報を補い,\thype{}を生成する.上位概念を補う記事タイトルは,その上位概念と下位概念の抽出元の記事から取得する.\thype{}は,元の上位概念とWikipedia記事タイトルを,助詞「の」によって連結して生成する.例えば,上位概念\xmp{作品}と記事タイトル\xmp{黒澤明}は,助詞「の」によって連結されて\xmp{黒澤明の作品}という\thype{}になる.生成した\thype{}は,元の上位概念と下位概念の中間に挿入する.この結果,\isaThree{作品}{黒澤明の作品}{七人の侍}のように,三階層のT-上位下位関係が生成される(図\ref{fig:whole-procedure}(b)).\subsection{G-上位下位関係の獲得\label{sec:G-hh}}\thype{}は,Wikipedia記事タイトルとベース上位概念を「の」で連結して生成した.次に,\thype{}の中のWikipedia記事タイトルの箇所を,その上位概念で置き換えることによって,さらなる上位概念となる\ghype{}を生成する.例えば\xmp{黒澤明の作品}という\thype{}の場合,そのWikipedia記事タイトルの箇所である\xmp{黒澤明}を上位概念である\xmp{映画監督}で置き換えて,\xmp{映画監督の作品}という\ghype{}を生成する.\ghype{}の生成では,Wikipedia記事タイトルの上位概念が必要になる.Wikipedia記事タイトルの上位概念は,隅田らの手法のうち,\ref{sec:Base-hh}節の最後で述べた,Wikipedia記事の第一文を用いる手法と,記事下部のカテゴリ情報を用いる手法によって獲得する.例えば図\ref{fig:wikip-article}の場合,記事タイトルである\xmp{アップルインコーポレイテッド}の上位概念の候補がその第一文(「アップル社は,アメリカ合衆国...製造する多国籍企業である.」)と記事下部にあるカテゴリ情報(カリフォルニアの企業,多国籍企業,携帯電話メーカー,$\ldots$)に記載されている.これらの上位概念候補は,\ref{sec:Base-hh}節で述べたSVM分類器によって上位概念か否か判定される.生成した\ghype{}を,T-上位下位関係の中の元の上位概念と\thype{}の間に挿入し,G-上位下位関係を生成する.G-上位下位関係は,例えば\isaFour{作品}{映画監督の作品}{黒澤明の作品}{七人の侍}のように,四階層の上位下位関係となる.
\section{評価実験\label{sec:evaluation}}
提案手法を評価するため,2009-09-27版の日本語Wikipediaダンプデータを対象として,提案手法によりG-上位下位関係を獲得した.表\ref{tab:ex-acquired-G-hh}に,獲得したG-上位下位関係の例を挙げる.\begin{table}[b]\caption{評価実験で獲得されたG-上位下位関係の例}\label{tab:ex-acquired-G-hh}\input{02table02.txt}\end{table}生成したG-上位下位関係から以下の三種類の上位下位関係ペアを抽出し,各ペアが上位下位関係として妥当か評価を行った(図\ref{fig:hh-kinds}).\begin{description}\item[ベース上位下位関係:]隅田らの手法により獲得した上位下位関係(例えば\isa{作品}{七人の侍})\item[\ghype{}ペア:]\ghype{}とベース上位下位関係の下位概念(例えば\isa{映画監督の作品}{七人の侍})\item[\thype{}ペア:]\thype{}とベース上位下位関係の下位概念(例えば\isa{黒澤明の作品}{七人の侍})\end{description}\begin{figure}[htb]\begin{center}\includegraphics{19-1ia2f4.eps}\end{center}\caption{評価対象の三種類の上位下位関係ペア}\label{fig:hh-kinds}\end{figure}Wikipediaダンプデータを解析した結果,1,925,676個のベース上位下位関係,6,347,472個の\ghype{}ペア,そして,2,719,441個の\thype{}ペアを獲得した.ベース上位下位関係は二記事以上に出現することがあるため,出現した記事タイトルを補うことにより生成される\thype{}ペアの数はベース上位下位関係の数より多くなる.また,2,719,441個の\thype{}ペアのうち2,113,040ペアに対しては,一つのWikipedia記事タイトルに2つ以上の上位概念が獲得されたため,\ghype{}ペアの数は\thype{}ペアの数より多い.一方,\thype{}ペアのうち342,884ペアに対しては,上位概念(Wikipedia記事タイトル)が獲得できなかったため,それらに対応する\ghype{}ペアが得られなかった.獲得したG-上位下位関係から200サンプルを評価対象として抽出し,それら200サンプルからベース上位下位関係,\thype{}ペア,\ghype{}ペアを取得した.サンプリングしたG-上位下位関係の中で,22個の\thype{}に対する上位概念が自動獲得できなかったため,これらは対応する\ghype{}ペアが得られなかった.最終的に,ベース上位下位関係として200ペア,\thype{}ペアとして200ペア,そして,\ghype{}ペアとして,サンプリングしたG-上位下位関係から抽出可能な178ペアを評価した.いずれも筆者ではない被験者三名により,これらのペアが上位下位関係として正しいかどうか評価を行った.被験者は次の三種類の評価ラベルを評価サンプルの各ペアに付与した.\begin{description}\item[Good:]上位下位関係として正しい.\item[Lessgood:]上位下位関係としては正しいが,「``下位概念''とは何?」といった質問の回答として相応しくない上位概念\item[Bad:]上位下位関係として間違っている.あるいは,上位概念または下位概念が意味不明である.\end{description}評価サンプルの各ペアに対して,被験者二名以上が選択したラベルを最終的な評価ラベルとした.被験者が三名とも異なる判断をした場合は,著者の一人によって最終的な評価ラベルを判断した\footnote{578ペアの評価サンプルのうち9ペアがこのケースに該当した.}.被験者三名による評価アノテーションのKappa値は0.58であった.これは,本評価実験の評価アノテーションにまずまずの安定性があることを示している.評価の指標として,\pagebreak次のように定義される重み付き適合率を用いた.\begin{equation}重み付き適合率=\frac{\#Good\times1+\#Less\good\times0.5+\#Bad\times0}{\#Good+\#Less\good+\#Bad}\label{formula:precision}\end{equation}ここで,$\#Good$,$\#Less\good$,$\#Bad$は,それぞれのラベル数を示す.本評価実験における重み付き適合率の計算式では,Goodラベルを1つの正解サンプルとしてカウントし,Badラベルを正解サンプルとしてはカウントしない.この点は通常の適合率の計算と同じだが,Lessgoodラベル1つにつき,0.5を正解サンプル数に追加する点が通常と異なる.この重み付き適合率の計算方法はPasca\cite{pasca2007,pasca2009}も採用している.また,Goodラベルのみを正解とした適合率の計算も行った.表\ref{tab:result-hyp}に評価結果を挙げる.この表の重み付き適合率のコラムを見ると,ベース上位下位関係,\ghype{}ペア,\thype{}ペアと,獲得される上位概念が詳細なほど重み付き適合率とGoodラベルのみを正解とした適合率が高くなっていることが読み取れる.\begin{table}[t]\caption{上位下位関係の評価結果}\label{tab:result-hyp}\input{02table03.txt}\end{table}次に,本実験におけるSVM分類器の効果について考察する.隅田らは,SVMによるフィルタリング処理を行わない場合,Wikipedia記事の階層的なレイアウト構造から獲得した上位下位関係候補の適合率は0.284であると報告している\cite{隅田:吉永:鳥澤:2009}\footnote{本実験における上位下位関係候補の獲得処理は,隅田らの手法と同じアルゴリズムを用いているため,この値が大きく変わることは無いと考えられる.}.つまり,SVMによるフィルタリング処理を行わない場合のベース上位下位関係ではGoodとLessGoodを合わせても全体の0.284しか無く,残りの候補が上位下位関係では無いと判断される.また,SVMによるフィルタリング処理を行わない場合,定義文から獲得した上位下位関係候補は0.894,カテゴリ情報からは0.705の適合率であると報告している.本提案手法でも\ghype{}を生成する際に,定義文とカテゴリ情報からフィルタリング処理を行い獲得した上位概念を使用している.このSVMによるフィルタリングの効果を明確にするため,表\ref{tab:result-hyp}と同じ実験対象に対してフィルタリング処理を行わずに\ghype{}を生成し,被験者三名による評価実験を行った.結果を表\ref{tab:result-hyp2}に示す.SVMによるフィルタリングを用いない結果(表\ref{tab:result-hyp2})は,フィルタリングを用いる結果(表\ref{tab:result-hyp})と比較して,重み付き適合率が0.157低く,SVMによるフィルタリングが効果的であることがわかる.\begin{table}[t]\caption{上位下位関係の評価結果(SVMによりフィルタリング処理を行わない場合)}\label{tab:result-hyp2}\input{02table04.txt}\end{table}表\ref{tab:result-hyp}の結果では,GoodとLessgood,Badのコラムからは,ベース上位下位関係,\ghype{}ペア,\thype{}ペアと,獲得される上位概念が詳細なペアほどLessgoodと判定されるペアが減少し,GoodあるいはBadと判定されるペアが増加する傾向にあることが読み取れる.つまり,獲得される上位概念が詳細なペアほど,詳細で正しい上位概念だけでなく,詳細だが間違っている上位概念も増加する傾向にある.詳細で正しい上位概念が増加することは,本研究の当初の狙い通りのポジティブな側面であるが,間違っている上位概念が増加するのは予期しなかったネガティブな側面である.そこで,\thype{}ペアに焦点を当てて,本提案手法による誤りの原因を次の三種類に分類した.\begin{description}\item[エラータイプ1:]ベース上位下位関係の誤りが原因となり,間違いと判定された.エラー全体の27.6\%を占める.\\例)\isa{リンチバーグのヘリテイジ高校}{ペリーモン小学校}\item[エラータイプ2:]助詞「の」が元の上位概念とWikipedia記事タイトルを連結する表現として不適切であり,その結果生成された\thype{}が意味不明なため,間違いと判定された.エラー全体の3.4\%を占める.\\例)\isa{原山理一郎のアナウンサー}{小林豊}\item[エラータイプ3:]Wikipedia記事タイトルによる詳細化によって上位概念が下位概念を包含する概念ではなくなったため(上位下位関係ではなくなったため),間違いと判定された.エラー全体の69.0\%を占める.\\例)\isa{大垣市の公共施設}{図書館}\end{description}\textbf{エラータイプ1}の例\isa{リンチバーグのヘリテイジ高校}{ペリーモン小学校}におけるベース上位下位関係は\isa{ヘリテイジ高校}{ペリーモン小学校}であるが,これは上位下位関係として間違いである.\ref{sec:Base-hh}節で述べた通り,ベース上位下位関係は隅田らの手法で獲得されるものであり,本提案手法は隅田らの手法のwrapperとして機能するため,隅田らの手法のエラーはそのまま本提案手法に引き継がれる.つまり,エラータイプ1は提案手法を原因とはしていない.\textbf{エラータイプ2}の例\isa{原山理一郎のアナウンサー}{小林豊}におけるベース上位下位関係は\isa{アナウンサー}{小林豊}であり,上位下位関係として正しい.しかし,本提案手法により,\isa{アナウンサー}{小林豊}を獲得したWikipedia記事のタイトル\xmp{原山理一郎}を元の上位概念\xmp{アナウンサー}に助詞「の」によって連結したため,\xmp{原山理一郎のアナウンサー}という意味不明な上位概念が生成された.この意味不明な上位概念が本来意味するところは\xmp{原山理一郎と同期入社のアナウンサー}である.つまり,元の上位概念とWikipedia記事タイトルを一様に助詞「の」で連結するというナイーブな手法がこのタイプのエラーの原因となっている.\textbf{エラータイプ3}の例\isa{大垣市の公共施設}{図書館}におけるベース上位下位関係は\isa{公共施設}{図書館}であり,これは上位下位関係として正しい.このベース上位下位関係を獲得したWikipedia記事のタイトルが\xmp{大垣市}である.そのため,本提案手法により\isa{大垣市の公共施設}{図書館}というT-上位下位関係が獲得された.しかし,\xmp{大垣市の公共施設}という概念は,元の上位概念である\xmp{公共施設}より詳細になってはいるが,\xmp{図書館}という概念を包含していない(大垣市の図書館以外にも図書館は存在する)ので,\isa{大垣市の公共施設}{図書館}は上位下位関係としては間違いとなる.本提案手法の間違いの中でエラータイプ3に属するものが69.0\%と多数を占める.エラータイプ3に属する不適切な上位下位関係ペアの多くは,下位概念が普通名詞によって表されるものであり,正解と判定された上位下位関係ペアは,下位概念が固有名詞によって表されるものがほとんどであった.つまり,下位概念が普通名詞で表されている上位下位関係ペアを出力から除外することでエラータイプ3に属する間違いを減らすことができると考えられる.そこで,次の条件のいずれかに合致するtermは普通名詞である可能性が高いと仮定し,下位概念が普通名詞である上位下位関係ペアを,評価サンプルのベース上位下位関係,\thype{}ペア,\ghype{}ペアから除外した.\begin{itemize}\itemWikipedia記事の節タイトル,あるいは小節タイトルとして使われているterm\item一定記事数(実験では30記事)以上に出現したterm\end{itemize}\begin{table}[b]\caption{普通名詞で表される下位概念を持つ上位下位関係を除外した場合の評価結果}\label{tab:result-hyp-filtering}\input{02table05.txt}\end{table}表\ref{tab:result-hyp}と同じ処理対象に対して,下位概念が普通名詞と判断された上位下位関係を除外した場合の評価結果を表\ref{tab:result-hyp-filtering}に示す.下位概念が普通名詞と判断された上位下位関係を除外したため,ベース上位下位関係と\thype{}では処理対象数が200ペアから150ペアに,\ghype{}では178ペアから129ペアに減少している.表\ref{tab:result-hyp}の結果と比べると,\ghype{}ペアの重み付き適合率が6.7\%,\thype{}ペアの重み付き適合率が8.4\%向上していることがわかる.しかし,全処理対象に対する獲得ペア数は,\thype{}ペアが2,719,441ペアから1,958,117ペアへ,\ghype{}ペアが6,347,472ペアから4,960,751ペアへと減少した.獲得ペア数を保ちながら重み付き適合率を向上させる手法の開発は今後の課題とする.
\section{応用\label{sec:discussion}}
本節では,\ghype{}をより簡潔に言い換える手法と,T-上位概念ペアの\attval{対象}{属性}{属性値}関係としての解釈について議論する.\subsection{\ghype{}のより簡潔な表現への言い換え}\ghype{}のいくつかはより簡潔な表現に言い換えることができる.この言い換え処理が自動化できれば,本提案手法で獲得した上位下位関係を既存のシソーラスと関連づけることが可能になる.例えば,\ghype{}として生成された\xmp{映画監督の作品}は\xmp{映画}に言い換えても問題ないと考えられる\footnote{「映画監督の作品」には「小説」などの可能性もあるが,ここでは主となる言い換え対象のみを扱う.}.この言い換えにより,本提案手法で獲得した\xmp{映画監督の作品}の下位概念(映画のタイトルなどのインスタンスを含む)を既存のシソーラスの\xmp{映画}の位置に追加することができる.\begin{table}[b]\caption{\ghype{}の簡潔な言い換え表現の例}\label{tab:paraphrase-rules}\input{02table06.txt}\end{table}そこで予備実験として,本提案手法で獲得した\ghype{}のうち最頻出の20概念に対して簡潔な言い換え表現を手作業で作成し,それらによって上位概念が言い換えられたG-上位下位関係の適合率を評価した.表\ref{tab:paraphrase-rules}に,\ghype{}とその言い換え表現の例を挙げる.言い換え対象の20の\ghype{}を含む\ghype{}ペアは全部で59,890ペア,この\ghype{}に含まれる下位概念の異なり数は54,981個であった.その中から200ペアをサンプリングし,言い換え後の上位概念と下位概念のペアが上位下位関係であるか判定する実験を行った.実験では,筆者を含まない三名の被験者により判定を行い,二名以上が支持した結果を最終的な判定として使用した.三名の被験者の一致率を示すKappa値は0.674で,十分な一致率であると考えられる.実験の結果,言い換え後の上位概念と下位概念のペアが上位下位関係として正しいと判定された適合率は78.0\%であった.言い換え後の上位概念は既存のシソーラスに存在する単語を利用しているため,言い換え表現を20表現用意するだけで,異なり数54,981個の下位概念を適合率78.0\%で既存のシソーラスに追加できることがわかる.全ベース上位下位関係における下位概念異なり数は1,199,826個であり,わずか20個の言い換え表現で,下位概念全体の4.6\%をカバーしていることがわかる.今後,重複する下位概念などの情報を利用することによりこの言い換え表現を自動獲得し,カバー率を向上させることが課題となる.\subsection{T-上位概念ペアの\attval{対象}{属性}{属性値}関係としての解釈}T-上位概念ペアは,Wikipedia記事から獲得したベース上位下位関係と,そのWikipedia記事のタイトルから構成される.このWikipedia記事のタイトルとベース上位下位関係の上位概念,下位概念は,対象とその属性,属性値という3つ組として解釈することができる.例として\isa{黒澤明の作品}{七人の侍}というT-上位概念ペアを挙げる.このT-上位概念ペアでは,\xmp{黒澤明}がWikipedia記事のタイトルで,\isa{作品}{七人の侍}がその記事から獲得された元のベース上位下位関係である.この場合,\xmp{作品}と\xmp{七人の侍}を\xmp{黒澤明}という対象の属性,属性値と解釈することができる.同様に,\isa{シリコングラフィックスの製品}{IRISCrimson}というT-上位概念ペアの場合も,\xmp{製品}と\xmp{IRISCrimson}を\xmp{シリコングラフィックス}という対象の属性,属性値と解釈することができる.\ref{sec:evaluation}節にある通り本提案手法による上位概念の詳細化は高い性能を示しているが,このことは,T-上位概念ペアが\attval{対象}{属性}{属性値}関係として解釈可能であるという上記の観察結果によって,次のように説明できる.一般的に,属性は,それがどの対象の属性かを明示することで詳細化できると言える.本提案手法は,属性と上位概念のterm,対象とWikipedia記事タイトルを対応づけた上でこの一般論に倣い,上位概念のtermがどのタイトルのWikipedia記事から得られたtermかを明示することで上位概念を詳細化している.従って,どの対象かを明示することで属性を詳細化できるという一般論が正しい限りにおいて,本提案手法は正しく上位概念を詳細化できる.T-上位概念ペアが\attval{対象}{属性}{属性値}関係として解釈できるという仮説が正しいかどうかを明らかにするために,T-上位概念ペアを\attval{対象}{属性}{属性値}関係として評価した.まず,\ref{sec:evaluation}節の評価実験で使用したG-上位下位関係200サンプル(普通名詞で表される下位概念を持つ上位下位関係も含む)から,ベース上位下位関係に対応する元の上位概念と下位概念,\thype{}のWikipedia記事タイトル箇所を取り出し,\attval{Wikipedia記事タイトル}{上位概念}{下位概念}の3つ組を200個用意した.この評価データを「T-上位概念セット」と呼ぶ.これらとは別に,比較のため,隅田らの手法の処理途中で得られる上位下位関係候補(SVMで分類される前のベース上位下位関係の候補.\ref{sec:Base-hh}節を参照)と,それらの出所であるWikipedia記事のタイトルによって,\attval{Wikipedia記事タイトル}{上位概念候補}{下位概念候補}の3つ組を200個用意した.この評価データを「上位下位候補セット」と呼ぶ.2つの評価データの違いは,上位下位候補セットには上位下位関係としては不適切な上位概念と下位概念がより多く含まれているという点にある.次に,3名の被験者(いずれも著者ではない)によって,これらの3つ組が\attval{対象}{属性}{属性値}として正しいかを評価する実験を行った.評価サンプルは,T-上位概念セットの200と上位下位候補セットの200の計400である.これら400サンプルはシャッフルした上で被験者に提示した.評価の際は,次の3種類の評価ラベルを使用した.\begin{description}\item[Vital:]\attval{対象}{属性}{属性値}として適切.\item[Okay:]\attval{対象}{属性}{属性値}として適切だが,その対象にとって当該の属性,属性値は本質的なものとは言えない.\item[Wrong:]\attval{対象}{属性}{属性値}として不適切.\end{description}\ref{sec:evaluation}節の評価実験と同様,2名以上の被験者が付与したラベルを各3つ組の最終的な評価ラベルとした.もし3名の被験者が皆異なる判断をした場合,著者の一人が最終的な評価ラベルを決定した\footnote{著者の一人が評価ラベルを決めたケースは400サンプル中9サンプルであった.}.被験者3名による評価ラベリングのKappa値は0.51であり,本実験の評価ラベリングにまずまずの安定性があることを示している.重み付き適合率は,\ref{sec:evaluation}節の評価実験で使用した,式(\ref{formula:precision})と同様に,ラベルがVitalであるものを1.0,Okeyを0.5,Wrongを0として正解サンプル数をカウントして算出した\cite{pasca2007,pasca2009}.評価結果を表\ref{tab:result-attval}に示す.\begin{table}[b]\caption{T-上位概念ペアの\attval{対象}{属性}{属性値}としての評価結果}\label{tab:result-attval}\input{02table07.txt}\end{table}T-上位概念セットの\attval{対象}{属性}{属性値}関係としての重み付き適合率が94.0\%であることから,T-上位概念ペアが\attval{対象}{属性}{属性値}関係として解釈できるという仮説は正しいと考えられる.この重み付き適合率は,表\ref{tab:result-hyp}におけるT-上位下位概念ペアの重み付き適合率より高い.これは,\ref{sec:evaluation}節で述べたエラータイプ3のものが,\attval{対象}{属性}{属性値}関係としては,正しい関係と判定されることに起因する.例えば,エラータイプ3の例\attval{大垣市}{公共施設}{図書館}は,\attval{対象}{属性}{属性値}関係としては正しい.一方,上位下位候補セットの\attval{対象}{属性}{属性値}関係としての適合率は53.5\%と低い.このことは,Wikipedia記事タイトルとその記事から取り出した2つのterm(節タイトル,小節タイトル,項目名)ならどんなものでも\attval{対象}{属性}{属性値}関係として解釈できるわけではない,ということを示唆している.つまり,2つのtermが上位下位関係として適切な場合にのみ,\attval{Wikipedia記事タイトル}{上位概念のterm}{下位概念のterm}が\attval{対象}{属性}{属性値}関係として解釈できる,ということを意味している.
\section{関連研究\label{sec:related-word}}
大量文書からの上位下位関係の獲得手法はこれまでに数多く提案されてきた.これらは言語表現パターンを用いるもの\cite{hearst92,ando04},クラスタリングに基づくもの\cite{pantel04,etzioni05},HTML文書の構造を利用するもの\cite{shinzato04},Wikipediaの構造を利用するもの\cite{隅田:吉永:鳥澤:2009,oh09,Yamada:EMNLP:2009}に大きく分類することができる.上位下位関係を構成する概念の詳細さの問題に取り組んだ研究は我々の知る限りHovyらの研究\cite{hovy09}のみである.Hovyらは,Doubly-AnchoredPatternと呼ばれる語彙統語パターンを用いたbootstrap手法によって,``people/Shakespeare''といった上位下位関係に中間語writersを挿入する手法を提案した.しかし彼らの手法では,あらかじめ決めた``animals''と``people''という2種類のルートコンセプトのみを対象としている.一方,本提案手法では,処理対象に制限はなく,あらゆる上位概念を扱うことができる.本提案手法ではWikipediaを知識獲得源として利用しているが,Wikipediaからの知識獲得研究は近年活発化している\cite{kazama07,ponzetto07,suchanek07,nastase08,隅田:吉永:鳥澤:2009,oh09,Yamada:EMNLP:2009}.Wikipediaからの知識獲得という文脈における本研究の新規性は,Wikipediaの百科事典としての性質を利用することで,上位下位関係としてだけではなく,\attval{対象}{属性}{属性値}関係としても解釈可能な知識を獲得する手法を開発した点にある.一般的に,\attval{対象}{属性}{属性値}関係における属性と属性値のペアは,上位下位関係と解釈できないものも多数存在する.提案手法により獲得できる\attval{対象}{属性}{属性値}関係は,その属性と属性値が上位下位関係を持つものに限定しているが,\attval{対象}{属性}{属性値}関係を大量かつ高精度に獲得している.
\section{おわりに\label{sec:conclusion}}
本稿では,自動獲得した上位下位関係の上位概念を,Wikipediaの情報を利用することで,より詳細にする手法を提案した.本手法により,2,719,441個の\thype{}ペアを重み付き適合率85.3\%で,6,347,472個の\ghype{}ペアを重み付き適合率78.6\%で獲得することができた.さらに,下位概念が普通名詞である上位下位関係ペアを除く処理を行うことにより,1,958,117個の\thype{}ペアに対する重み付き適合率を93.7\%,4,960,751個の\ghype{}ペアの重み付き適合率を85.3\%に向上できることを確認した.この結果は,ベースとしている上位下位関係獲得手法\cite{隅田:吉永:鳥澤:2009}における適合率(1,925,676ペアに対して90.0\%)と比較して十分な精度であると考えられる.また,\ghype{}をより簡潔に言い換える(例えば\xmp{映画監督の作品}を\xmp{映画}に言い換える)実験を行い,わずか20個の\ghype{}の言い換え表現を作成することで,59,890個の下位概念を適合率78.0\%で既存のシソーラスに追加できる可能性があることを明らかにした.最後に,本手法で獲得した上位下位関係が,\attval{黒澤明}{作品}{七人の侍}などのように,\attval{対象}{属性}{属性値}として解釈できることについて示した.提案手法により生成した詳細な上位下位関係を使用することによって,質問応答におけるより適切な回答の生成や,「黒澤明の作品」の一覧といった「対象—属性」に対する属性値の検索が可能となる.この「対象—属性」に対する属性値の検索結果は,リスト形式の回答を求めるような質問応答のタスク\cite{Dang2006,Dang2007}でも有用となる.さらに提案手法は,上位概念を詳細化して既存のシソーラスを拡張する手法としても利用可能と考えられる.提案手法では\thype{}を生成する際,元の上位概念とWikipediaの記事タイトルを助詞「の」によって連結した.助詞「の」は多様な意味で用いることができるので,我々が実験した範囲では,この単純な方法がほとんどの場合に成功する.しかし,助詞「の」以外に,上位概念とWikipedia記事タイトルを結ぶより適切な表現が存在することもある.例えば\xmp{作品}と\xmp{黒澤明}の場合,「の」よりも「による」で連結した方が,日本語表現として適切な\thype{}を生成できる.Torisawa\cite{torisawa01}は与えられた2つの名詞を連結する最も適切な表現を選択する手法を開発した.Torisawaの手法により我々の提案手法がさらに洗練されたものになる可能性が高いが,これは今後の課題とする.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ando,Sekine,\BBA\Ishizaki}{Andoet~al.}{2004}]{ando04}Ando,M.,Sekine,S.,\BBA\Ishizaki,S.\BBOP2004\BBCP.\newblock\BBOQAutomaticExtractionofHyponymsfrom{J}apaneseNewspaperUsingLexico-syntacticPatterns.\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\387--390}.\bibitem[\protect\BCAY{Dang,Lin,\BBA\Kelly}{Danget~al.}{2006}]{Dang2006}Dang,H.,Lin,J.,\BBA\Kelly,D.\BBOP2006\BBCP.\newblock\BBOQOverviewoftheTREC2006QuestionAnsweringTrack.\BBCQ\\newblockIn{\BemProceedingsoftheFifteenthTextREtrievalConference}.\bibitem[\protect\BCAY{Dang,Lin,\BBA\Kelly}{Danget~al.}{2007}]{Dang2007}Dang,H.,Lin,J.,\BBA\Kelly,D.\BBOP2007\BBCP.\newblock\BBOQOverviewoftheTREC2007QuestionAnsweringTrack.\BBCQ\\newblockIn{\BemProceedingsoftheSixteenthTextREtrievalConference}.\bibitem[\protect\BCAY{Etzioni,Cafarella,Downey,Popescu,Shaked,Soderland,Weld,\BBA\Yates}{Etzioniet~al.}{2005}]{etzioni05}Etzioni,O.,Cafarella,M.,Downey,D.,Popescu,A.-M.,Shaked,T.,Soderland,S.,Weld,D.~S.,\BBA\Yates,A.\BBOP2005\BBCP.\newblock\BBOQUnsupervisednamed-entityextractionfromtheweb:Anexperimentalstudy.\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf165}(1),\mbox{\BPGS\91--134}.\bibitem[\protect\BCAY{Hearst}{Hearst}{1992}]{hearst92}Hearst,M.~A.\BBOP1992\BBCP.\newblock\BBOQAutomaticAcquisitionofHyponymsfromLargeTextCorpora.\BBCQ\\newblockIn{\BemProceedingsofthe14thconferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\539--545}.\bibitem[\protect\BCAY{Hovy,Kozareva,\BBA\Riloff}{Hovyet~al.}{2009}]{hovy09}Hovy,E.,Kozareva,Z.,\BBA\Riloff,E.\BBOP2009\BBCP.\newblock\BBOQTowardCompletenessinConceptExtractionandClassification.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\948--957}.\bibitem[\protect\BCAY{Kazama\BBA\Torisawa}{Kazama\BBA\Torisawa}{2007}]{kazama07}Kazama,J.\BBACOMMA\\BBA\Torisawa,K.\BBOP2007\BBCP.\newblock\BBOQExploiting{W}ikipediaasExternalKnowledgeforNamedEntityRecognition.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL)},\mbox{\BPGS\698--707}.\bibitem[\protect\BCAY{Nastase\BBA\Strube}{Nastase\BBA\Strube}{2008}]{nastase08}Nastase,V.\BBACOMMA\\BBA\Strube,M.\BBOP2008\BBCP.\newblock\BBOQDecoding{W}ikipediaCategoriesforKnowledgeAcquisition.\BBCQ\\newblockIn{\BemProceedingsofthe23rdAAAIConferenceonArtificialIntelligence(AAAI)},\mbox{\BPGS\1219--1224}.\bibitem[\protect\BCAY{Oh,Uchimoto,\BBA\Torisawa}{Ohet~al.}{2009}]{oh09}Oh,J.-H.,Uchimoto,K.,\BBA\Torisawa,K.\BBOP2009\BBCP.\newblock\BBOQBilingualCo-TrainingforMonolingualHyponymy-RelationAcquisition.\BBCQ\\newblockIn{\BemProceedingsofACL-09:IJCNLP},\mbox{\BPGS\432--440}.\bibitem[\protect\BCAY{Pantel\BBA\Ravichandran}{Pantel\BBA\Ravichandran}{2004}]{pantel04}Pantel,P.\BBACOMMA\\BBA\Ravichandran,D.\BBOP2004\BBCP.\newblock\BBOQAutomaticallyLabelingSemanticClasses.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyandNorthAmericanCapteroftheAssociationforComputationalLinguisticsCoference(HLT-NAACL)},\mbox{\BPGS\321--328}.\bibitem[\protect\BCAY{Pasca}{Pasca}{2007}]{pasca2007}Pasca,M.\BBOP2007\BBCP.\newblock\BBOQOrganizingandSearchingtheWorldWideWebofFacts---StepTwo:HarnessingtheWisdomoftheCrowds.\BBCQ\\newblockIn{\BemProceedingsofthe16thWorldWideWebConference(WWW)},\mbox{\BPGS\101--110}.\bibitem[\protect\BCAY{Pasca}{Pasca}{2009}]{pasca2009}Pasca,M.\BBOP2009\BBCP.\newblock\BBOQOutclassingWikipediainOpen-DomainInformationExtraction:Weakly-SupervisedAcquisitionofAttributesoverConceptualHierarchies.\BBCQ\\newblockIn{\BemProceedingsofthe12thConferenceofEuropianChapteroftheAssociationofComputationalLinguistics(EACL)},\mbox{\BPGS\639--647}.\bibitem[\protect\BCAY{Ponzetto\BBA\Strube}{Ponzetto\BBA\Strube}{2007}]{ponzetto07}Ponzetto,S.~P.\BBACOMMA\\BBA\Strube,M.\BBOP2007\BBCP.\newblock\BBOQDerivingaLarge-ScaleTaxonomyfromWikipedia.\BBCQ\\newblockIn{\BemProceedingofthe22ndConferenceontheAdvancementofArtificialIntelligence(AAAI)},\mbox{\BPGS\1440--1445}.\bibitem[\protect\BCAY{Shinzato\BBA\Torisawa}{Shinzato\BBA\Torisawa}{2004}]{shinzato04}Shinzato,K.\BBACOMMA\\BBA\Torisawa,K.\BBOP2004\BBCP.\newblock\BBOQExtractingHyponymsofPrespecifiedHypernymsfromItemizationsandHeadingsinWebDocuments.\BBCQ\\newblockIn{\BemProceedingsofthe20thConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\938--944}.\bibitem[\protect\BCAY{Snow,Jurafsky,\BBA\Ng}{Snowet~al.}{2005}]{snow05}Snow,R.,Jurafsky,D.,\BBA\Ng,A.~Y.\BBOP2005\BBCP.\newblock\BBOQLearningSyntacticPatternsforAutomaticHypernymDiscovery.\BBCQ\\newblockIn{\BemProceedingsoftheNeuralInformationProcessingSystems(NIPS)}.\bibitem[\protect\BCAY{Suchanek,Kasneci,\BBA\Weikum}{Suchaneket~al.}{2007}]{suchanek07}Suchanek,F.~M.,Kasneci,G.,\BBA\Weikum,G.\BBOP2007\BBCP.\newblock\BBOQ{Yago:ACoreofSemanticKnowledge}.\BBCQ\\newblockIn{\BemProceedingsofthe16thWorldWideWebConference(WWW)},\mbox{\BPGS\{697--706}}.\bibitem[\protect\BCAY{Torisawa}{Torisawa}{2001}]{torisawa01}Torisawa,K.\BBOP2001\BBCP.\newblock\BBOQAnUnsuperveisedMethodforCanonicalizationof{J}apanesePostpositions.\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium(NLPRS)},\mbox{\BPGS\211--218}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1995}]{Vapnik:1995}Vapnik,V.~N.\BBOP1995\BBCP.\newblock{\BemTheNatureofStatisticalLearningTheory}.\newblockSpringer-VerlagNewYork,Inc.,NewYork,USA.\bibitem[\protect\BCAY{Yamada,Torisawa,Kazama,Kuroda,Murata,De~Saeger,Bond,\BBA\Sumida}{Yamadaet~al.}{2009}]{Yamada:EMNLP:2009}Yamada,I.,Torisawa,K.,Kazama,J.,Kuroda,K.,Murata,M.,De~Saeger,S.,Bond,F.,\BBA\Sumida,A.\BBOP2009\BBCP.\newblock\BBOQHypernymDiscoveryBasedonDistributionalSimilarityandHierarchicalStructures.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\929--937}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{隅田\JBA吉永\JBA鳥澤}{隅田\Jetal}{2009}]{隅田:吉永:鳥澤:2009}隅田飛鳥\JBA吉永直樹\JBA鳥澤健太郎\BBOP2009\BBCP.\newblockWikipediaの記事構造からの上位下位関係抽出.\\newblock\Jem{自然言語処理},{\Bbf16}(3),\mbox{\BPGS\3--24}.\end{thebibliography}\begin{biography}\bioauthor{山田一郎}{1993年名古屋大学大学院修士課程修了.同年NHK入局.2008から2011年(独)情報通信研究機構出向.現在NHK放送技術研究所主任研究員.博士(情報科学)}\bioauthor{橋本力}{2005年京都大学情報学研究科産学官連携研究員を経て,2007年山形大学大学院理工学研究科助教,2009年より独立行政法人情報通信研究機構専攻研究員.博士(言語科学,情報学).}\bioauthor{呉鍾勲}{2005年KAIST(韓国科学技術院)電子電算学科電算学専攻博士課程卒業.同年KAIST研究員を経て,(独)情報通信研究機構に専攻研究員として着任.博士(工学).自然言語処理の研究に従事.}\bioauthor{鳥澤健太郎}{1995年東京大学大学大学院博士課程中退.同年同大学院助手.北陸先端科学技術大学院大学助教授を経て,現在,(独)情報通信研究機構情報分析研究室室長.博士(理学).日本学術振興会賞など受賞.}\bioauthor{黒田航}{現京都大学・京都工芸繊維大学(非常勤講師),早稲田大学情報教育研究所(招聘研究員).元(独)情報通信研究機構知識創成コミュニケーション研究センター言語基盤グループ研究員.京都大学から人間・環境学博士を取得.言語学の認知科学と自然言語処理と言語教育を融合する研究に従事.}\bioauthor[:]{StijnDeSaeger}{2006年北陸先端科学技術大学院大学知識科学研究科博士課程修了.博士(知識科学).北陸先端科学技術大学院大学研究員を経て,2007年に情報通信研究機構に入所.2008年にNICTMASTARプロジェクト言語基盤グループに専攻研究員として着任.自然言語処理を用いた知識獲得の研究に従事.}\bioauthor{土田正明}{2005年東京理科大学大学院修士課程修了.同年4月よりNECに入社.2009年4月から2011年3月まで(独)情報通信研究機構に出向し,現在はNECに復帰.2008年人工知能学会大会優秀賞を受賞.}\bioauthor{風間淳一}{2004年東京大学大学院情報理工学系研究科博士課程修了.博士(情報理工学).同年北陸先端科学技術大学院大学助手.2008年より情報通信研究機構.現在,情報分析研究室主任研究員.}\end{biography}\biodate\end{document}
| |
V25N05-04 | \section{序論}
文法誤り訂正(GrammaticalErrorCorrection:GEC)は,言語学習者の書いた文の文法的な誤りを訂正するタスクである.GECは本質的には機械翻訳や自動要約などと同様に生成タスクであるため,与えられた入力に対する出力の正解が1つだけとは限らずその自動評価は難しい.そのため,GECの自動評価は重要な課題であり自動評価尺度に関する研究が多く行われてきた.GECシステムの性能評価には,システムの出力を正解データ(参照文)と比較することにより評価する手法(参照有り手法)が一般的に用いられている.この参照有り手法では,訂正が正しくても参照文に無ければ減点されるため,正確な評価のためには可能な訂正を網羅する必要がある.しかし参照文の作成は人手で行う必要があるためコストが高く,可能な訂正を全て網羅することは現実的ではない.この問題に対処するため,\citeA{Napoles2016}は参照文を使わず訂正文の文法性に基づき訂正を評価する手法を提案した.しかし参照有り手法であるGLEU\cite{Sakaguchi2016}を上回る性能での評価は実現できなかった.そこで本論文では\citeA{Napoles2016}の参照無し手法を拡張し,その評価性能を調べる.具体的には,\citeA{Napoles2016}が用いた文法性の観点に加え,流暢性と意味保存性の3観点を考慮する組み合わせ手法を提案する.流暢性はGECシステムの出力が英文としてどの程度自然であるかという観点であり,意味保存性は訂正前後で文意がどの程度保たれているかという観点である.各評価手法により訂正システムの性能の評価を行ったところ,提案手法が参照有り手法であるGLEUよりも人手評価と高い相関を示した.これに加えて,各自動評価尺度の文単位での評価性能を調べる実験も行った.文単位での評価が適切にできれば,GECシステムの人手による誤り分析に有用であるが文法誤り訂正の自動評価において文単位の性能を調べた研究はこれまでない.そこで,文単位評価の性能を調べる実験を行ったところ,提案した参照無し手法が参照有り手法より高い性能を示した.この結果を受けて,参照無し手法のもうの可能性も調査した.参照無し手法は正解を使わずに与えられた文を評価できるため,複数の訂正候補の中から最も良い訂正文を選択するために本手法が使えると考えられる.このことを実験的に確かめるために複数のGECシステムの出力を参照無しで評価し,最も良いものを採用するアンサンブル手法の誤り訂正性能を調べたところ,アンサンブル前のシステムの性能を上回った.
\section{自動評価尺度の評価方法}
\label{sec:eval4metrics}自動評価尺度に求められる性質のうち最も重要なものは,人手評価との相関が高いことであるとされている\cite{banerjee-lavie:2005:MTSumm}.このため,評価尺度の良さは人手との相関係数で評価されるのが一般的である.機械翻訳の評価尺度のsharedtaskであるWMT2017MetricsSharedTask\cite{bojar-graham-kamran:2017:WMT}においても自動評価尺度は人手評価との相関によって比較されている.このタスクにおいて評価尺度のメタ評価には,翻訳システム単位と文単位で評価が行われている.システム単位のメタ評価では,人手評価によるシステムに対する評価と自動評価尺度によるシステムに対する評価を比べることで評価する.文単位のメタ評価では,システムの翻訳ごとに人手で優劣が付けられており,自動評価尺度によってその優劣を識別できるかで評価する.システム単位の評価尺度に対してはピアソンの相関係数やスピアマンの順位相関係数,文単位の評価尺度に対してはケンドールの順位相関係数\footnote{WMT2017MetricsSharedTaskでは人手評価で同順とされた文対を除外する計算法が使用された.}が用いられた.文法誤り訂正の分野においても自動評価尺度の性能は,訂正システムに対する人手評価スコアと自動評価スコアの相関によって検証されてきた\cite{Grundkiewicz2015,Sakaguchi2016,Napoles2016}.一方で,我々の知る限り,自動評価尺度の文単位での性能は検証されていない.そこで本研究では,提案手法と従来手法の自動評価尺度を先行研究に従ってシステム単位で比較するとともに,機械翻訳タスクで行われているように各評価尺度の文単位評価における性能も調査する.システム単位評価,文単位評価に関しては\ref{sec:exp1_setting}節,\ref{subsubsec:meta_eval4sent}節でそれぞれ詳述する.
\section{既存の評価尺度}
\label{sec:pre_eval_metircs}機械翻訳の分野では,BLEU\cite{papineni-EtAl:2002:ACL}などの自動評価尺度によって翻訳システムが比較できるようになり,研究が発展してきた.文法誤り訂正の分野においても自動評価尺度は重要である.これまでの文法誤り訂正の研究では,機械翻訳と同様に参照有り手法による自動評価が用いられてきた.そこで本節では参照有り評価尺度の代表的な手法について述べ,その後参照無し評価尺度の手法について述べる.\subsection{参照有り手法}\label{subsec:refbase}訂正システムの評価では,学習者の書いた文に対する訂正の正解データ(参照文)を使うことが一般的である.この参照有り評価はM$^2$\cite{Dahlmeier:12:NAACL},I-measure\cite{Felice2015},GLEU\cite{Napoles:15:ACL,Sakaguchi2016}が考案されている.参照有り手法では正確な評価のために,各入力文に対する参照文を1個だけでなく複数個用いることができる.参照文を複数用いる場合,各文の評価はM$^2$およびI-measureでは最大値が採用され,GLEUは平均値が採用される.\begin{description}\item[M$^2$]文法誤り訂正の初期の研究では,訂正システムが行った編集操作がどの程度正解の編集と一致しているかをF値で評価していた\cite{dale-kilgarriff:2011:ENLG,dale-anisimoff-narroway:2012:BEA}.しかし,長いフレーズの編集が必要な場合などに訂正システムを過小評価してしまうという問題があった.この問題を解決するためにM$^2$は``editlattice''を用いることにより,システムが行った編集操作を正解と最大一致するように同定する.M$^2$によって算出されたF$_{0.5}$値がCoNLL2014SharedTaskonGECで採用されて以降,文法誤り訂正の評価尺度として最も用いられている.\item[I-measure]上述のM$^2$の問題点として,訂正を全く行わないシステムと誤った訂正をしたシステムに対するスコアがどちらも0となる点が挙げられる.そこで,入力文が改善されれば正の値,悪化すれば負の値をとる尺度であるI-measureが提案された.I-measureは入力文,訂正文,参照文に対してトークンレベルでアライメントを行い,精度(accuracy)に基づきスコアを計算する.\item[GLEU]機械翻訳の標準的な評価尺度であるBLEU\cite{papineni-EtAl:2002:ACL}をGECのために改善した評価尺度である.GLEUは訂正文($H$)と参照文($R$)で一致するn-gram数から,原文($S$)に現れるが参照文に現れないn-gram数を減算することによって計算される.形式的には次式で表される.\begin{gather}{\rmGLEU+}={\rmBP}\cdot\exp\left(\sum_{n=1}^{4}\frac{1}{n}\log(p_n\prime)\right)\\p_n\prime=\frac{N(H,R)-[N(H,S)-N(H,S,R)]}{N(H)}\end{gather}ただし,$N(A,B,C,\ldots)$は集合間でのn-gram重なり数を表し,BPはBLEUと同様のbravepenaltyを表す.bravepenaltyは入力文に対して出力文が短い場合にn-gram適合率を減点する項である.これまでに提案された参照有り手法の中では最も人手評価との相関が高い\cite{Napoles2016}.\end{description}\subsection{参照無し手法}機械翻訳の分野では,参照文を用いずに翻訳の品質を評価する品質推定(QualityEstimation)と呼ばれるタスクも行われており,近年はsharedtaskも開催されている\cite{bojar-EtAl:2016:WMT1,bojar-EtAl:2017:WMT1}.機械翻訳の品質推定タスクでは,翻訳システムの出力の良さを測るために,Human-targetdTranslationErrorRate(HTER)\cite{hter}と呼ばれる,人間の翻訳とシステムの翻訳の編集距離がどの程度近いかを計算する指標が用いられる.機械翻訳の品質推定の手法では,各システムの出力に対してHTERが付与された大量のデータを用いてシステムを学習する.文法誤り訂正の参照無し評価用のデータセットには,一部の少量の文に対してのみ人手の評価が付与されているため,品質推定の手法を文法誤り訂正の参照無し評価に応用することは難しい.文法誤り訂正の分野では,参照文を用いずに訂正の品質を評価する手法を\citeA{Napoles2016}が初めて提案した.文法誤り訂正では訂正システムの入出力文に対して訂正の品質が付与されたデータが十分にないため,訳文品質推定の標準的な手法を用いることができない.そこで\citeA{Napoles2016}は,訂正システムの出力文の文法性を評価する3つの手法を提案した.1つ目はe-rater${}^\text{\textregistered}$による文法誤り検出数に基づく評価,2つ目はLanguageTool\cite{Milkowski:10:SPE}による文法誤り検出数に基づく評価,3つ目は\citeA{Heilman2014}の言語学的な素性に基づく文法性予測モデルを用いた評価である.実験の結果,e-rater${}^\text{\textregistered}$を用いる手法が最も優れており,参照有り手法であるGLEUと同等の性能であることが示された.しかし,e-rater${}^\text{\textregistered}$は通常,自然言語処理の研究目的でオープンに利用することはできない\footnote{e-rater${}^\text{\textregistered}$はEnglishTestingService(ETS)の作文評価サービスCriterionの1機能として提供されており,Criterionは教育機関向けの有償サービスであるため.}.そこで,本研究ではe-rater${}^\text{\textregistered}$を用いず,LanguageToolおよび\citeA{Heilman2014}のモデルなどを組み合わせることで性能向上を図る.
\section{提案手法}
\label{subsec:refless}人手評価に近い参照無し評価を実現するために,\citeA{Napoles2016}の文法性に基づく参照無し評価を拡張する.人手による訂正の傾向を捉えるために,文法性,流暢性,意味保存性の3つの観点を考慮した参照無し評価手法(各観点,意味保存性(Meaningpreservation),流暢性(Fluency),文法性(Grammaticality)の頭文字を取って\textbf{MFG}と呼ぶ.)を提案する.\citeA{Napoles2017}が参照文作成の際に用いたガイドラインでは,自然な文にすること,文法的な誤りは訂正すること,文意は保存することが指示されており,人手による訂正では一般的にこのような観点に基づいて訂正されることが多い.文法性は,GECシステムの出力に標準英語上の文法誤りがあるかどうかという観点であり,先行研究でも用いられた\cite{Napoles2016}.流暢性は,GECシステムの出力がどの程度自然な英文であるかという観点である.この観点は先行研究\cite{Sakaguchi2016}において文法性と区別され,重要性が示された.意味保存性は,訂正の前後で文意が変わっていないかという観点である.提案手法は,参照文を使わずにこれら3つの観点に基づきGECシステムを評価する.本稿では,ある入力文$s$に対する訂正文が$h$であったとき($s,h$)に対するスコアを,文法性のスコア$S_G$,流暢性のスコア$S_F$,意味保存性のスコア$S_M$の重み付き和によって求める.\begin{equation}\mathrm{Score}(h,s)=\alpha\mathrm{S}_\mathrm{G}(h)+\beta\mathrm{S}_\mathrm{F}(h)+\gamma\mathrm{S}_\mathrm{M}(h,s),\label{eq:score}\end{equation}ただし${\rmS_G}$,${\rmS_F}$,${\rmS_M}$の値域は[0,1]であり,$\alpha+\beta+\gamma=1$である.システムのスコアは各$\rm{Score(h,s)}$の平均を用いる.各観点は参照文を用いずに以下の手法によりモデル化する.\subsection{文法性}\citeA{Napoles2016}が参照無し評価に用いたモデルのうち,\citeA{Heilman2014}の言語学的な素性に基いたモデルを行う手法をベースに用いる.具体的には,文法性のスコア${\rmS_G}(h)$は言語学的な素性に基づくロジスティック回帰により求める.素性については,\citeA{Heilman2014}が用いたスペルミス数,n-gram言語モデルスコア,out-of-vocabulary数,PCFGおよびリンク文法に基づく素性に加え,依存構造解析に基づく数の不一致素性とLanguageTool\footnote{https://languagetool.org}による誤り検出数を素性として用いた.モデルの学習はGUGデータセット\cite{Heilman2014}に対して\citeA{Napoles2016}の実装\footnote{https://github.com/cnap/grammaticality-metrics/tree/master/heilman-et-al}を用いた.さらに,言語モデルの学習のためにGigaword\cite{GIGAWORD}とTOEFL11\cite{TOEFL}を用いた.GUGデータセットのテストセットにおいて文法性2値予測タスクを行ったところ,元々の\citeA{Napoles2016}実装の正解率が77.2\%だったのに対し,我々が修正を加えたモデルの正解率は78.9\%であった.\subsection{流暢性}文法誤り訂正における流暢性の重要性は\cite{Sakaguchi2016,Napoles2017}において示されたが,流暢性を考慮する参照無し評価手法はこれまでに提案されていない.流暢性は言語モデルによってとらえることができる\cite{Lau2015}.具体的には,訂正文$h$に対し,流暢性${\rmS_F}(h)$を次のように求める\footnote{$S_N$は多くの場合0以上1未満であるが,0未満のとき$S_N=0$,1以上のとき$S_N=1$とする}.\begin{equation}{\rmS_F}(h)=\frac{\logP_m(h)-\logP_n(h)}{\lverth\rvert}\end{equation}$\lverth\rvert$は文長,$P_m$は言語モデルによる生成確率,$P_n$はユニグラム生成確率である.本研究では,言語モデルにはRecurrentNeuralNetwork(RNN)言語モデル\cite{mikolov2012statistical}を採用し,実装はfaster-rnnlm\footnote{https://github.com/yandex/faster-rnnlm}を用いた.学習にはBritishNationalCorpus\cite{BNcorpus}およびWikipediaの1,000万文を用いた.作成したモデルは\citeA{Lau2015}のテストデータにおいて,人間の容認性判断に対するピアソンの相関係数が0.395であった.\subsection{意味保存性}文法誤り訂正においては原文の意味が訂正後も保存されていることは重要である.例えば,以下の文(\ref{mean:origin})が文(\ref{mean:wrong})に訂正される事例を考える.\eenumsentence{\item\textit{Itisunfairtoreleasealawonlypointtothegeneticdisorder.}(original)\label{mean:origin}\item\textit{Itisunfairtopassalaw.}(revised)\label{mean:wrong}}文(\ref{mean:wrong})は文法的であるが,文(\ref{mean:origin})の意味が保存されていないため,文(\ref{mean:wrong})は不適切な訂正である.意味がどの程度保存されているかを測る単純な方法は,原文の単語が訂正後の文でも出現する割合を計算する方法である.このような目的のために機械翻訳の評価尺度を用いる方法が考えられる.本研究では,METEOR\cite{Denkowski2014}を訂正前後の文に適用することで,どの程度文意が保存されているかを評価する.METEORはBLEUなどの評価尺度と比べて意味的な類似度を重視した評価尺度である.本稿では入力文$s$と訂正文$h$に対する意味保存性のスコア${\rmS_M}(h,s)$を次式により求める.\begin{align}P&=\frac{m(h_c)}{\lverth_c\rvert}\\R&=\frac{m(s_c)}{\lverts_c\rvert}\\\rm{S_M}(h,s)&=\frac{P\cdotR}{t\cdotP+(1-t)\cdotR}\end{align}$h_c$はGECシステムの出力中の内容語,$s_c$は原文中の内容語である.$m(h_c)$は出力中の内容語のうちマッチングされた単語数,$m(s_c)$は原文中の内容語でマッチングされた単語数を表す.$t$の値はデフォルト値である$0.85$を用いた.METEORの単語マッチングでは表層だけでなく,活用形,類義語,パラフレーズも考慮される.これに加え,本稿ではスペルミスが訂正されてもマッチングされるよう,スペルチェッカを用いてMETEORを拡張した.
\section{実験}
\ref{sec:eval4metrics}節で述べたように,本研究ではシステム単位と文単位で評価尺度のメタ評価を行うことで参照無し評価の有効性を確かめる.\subsection{自動評価尺度による訂正システム単位評価}\label{subsec:correlation}本節では,提案手法および従来手法による自動評価がシステム単位の評価でどの程度人間に近いかを調べるための実験について述べる.\subsubsection{実験設定}\label{sec:exp1_setting}\citeA{Napoles2016}と同様に,各自動評価手法で訂正システムの出力文を評価し,各文に対するスコアの平均を訂正システムに対するスコアとし,図\ref{fig:system_eval}のように人手評価と比較することで評価尺度のよさを調査した.人手評価との近さを測るためにピアソンの相関係数とスピアマンの順位相関係数を用いた.各相関係数は\cite{Grundkiewicz2015}のTable3cの人手評価を用いて計算した.\begin{figure}[b]\begin{center}\includegraphics{25-5ia4f1.eps}\end{center}\caption{自動評価尺度のシステム単位評価}\label{fig:system_eval}\end{figure}この実験では,CoNLL2014SharedTask\cite{Ng:14:CoNLL}のデータセット,およびそれに対して\citeA{Grundkiewicz2015}が作成した人手評価を用いた.このデータセットは,テストデータ1,312文と,それに対する参加12システムの訂正結果を含む.このデータに対し,\citeA{Grundkiewicz2015}は人手で文ごとに評価した少量のデータを使い,レーティングアルゴリズムであるTrueSkill\cite{NIPS2006_3079}を用いて訂正システム単位の人手評価スコアを算出した.また,このテストデータに対しては多くの参照文が作成されている.公式の参照文が2個,\citeA{Bryant2015}による参照文が8個,\citeA{Sakaguchi2016}による参照文が8個作成されている.本実験では,従来の参照有り手法の性能を最大にするためにこれら18個全ての参照文を用いた.提案手法であるMFGの重み$\alpha,\beta,\gamma$の選択はJFLEGデータセットを用いて行った.これはCoNLLデータセットをdevデータとtestデータに分割することができないためである.また,実際にMFGを使ってシステムを評価する際にも,全く同じシステムの集合に対して人手順位評価がついているデータセットが事前に手に入ることは期待できないため,システム単位の評価ではdevデータとtestデータに分割して重みを決めることは適切ではない.GECの評価尺度の性能評価に使えるデータセットは現在CoNLLとJFLEGの2つしかないため,本研究ではJFLEGデータセットで重みを調整した.ただし,このデータセットはCoNLLデータセットとは次の2点において性質が大きく異なる.(1)訂正システムの数が異なる.CoNLLデータセットには12システムが含まれているのに対し,JFLEGデータセットには4システムしか含まれていない.(2)各システムの編集率の分散が小さい.CoNLLデータセットにおいて各システムが訂正した文の割合は3.7\%〜77\%なのに対し,JFLEGでは56\%〜74\%である.このように性質の大きく異なるデータセットを使った場合にも一方で調整した$\alpha,\beta,\gamma$が他方でもうまく働くとすれば,将来においても$\alpha,\beta,\gamma$の調整はそれほど困難にならない可能性がでてくると考えられる.\begin{figure}[b]\begin{center}\includegraphics{25-5ia4f2.eps}\end{center}\hangcaption{JFLEGデータセットとCoNLLデータセットにおけるピアソン相関係数.$x$軸は$\gamma$,$y$軸は$\beta$,$z$軸はピアソンの相関係数を表す.}\label{fig:jfleg_conll_pearson}\end{figure}そこで,性質の大きく異なるデータセットで重みの調整が可能かを調査するために,実際に,CoNLLとJFLEGの2つのデータセットにおいて重みの値を0.01刻みでグリッドサーチし,ピアソンの相関係数を計算し各データセットの傾向を調査した.図\ref{fig:jfleg_conll_pearson}に結果を示す.どちらのデータセットにおいても概ね同じ傾向が見られた.いずれのデータセットにおいても,$\alpha,\beta,\gamma$の値の広い領域で安定的に高い性能を示しており,またその領域は2つのデータセットで概ね一致している.このことは,一方のデータセットで調整した$\alpha,\beta,\gamma$がもう一方のデータセットでも有効に働くことを意味している.そこで,JFLEGデータセットを使って適当な$\alpha,\beta,\gamma$を選択し,その重みがCoNLLデータセットにおいても有効であるかを実験する.具体的には,JFLEGデータセットにおいて相関が0.9以上となっている$\alpha,\beta,\gamma$の領域(図\ref{fig:jfleg_conll_pearson}をz軸から見た図\ref{fig:jfleg_pearson_from_above})の中心の点の重み,およびその周辺4点の重みを用いた.中心の重みは$(\alpha,\beta,\gamma)=(0.35,0.35,0.3)$,周辺の4点の重みはそれぞれ$(\alpha,\beta,\gamma)=(0.25,0.35,0.4),(0.25,0.45,0.3),(0.45,0.25,0.3),(0.45,0.35,0.2)$を使用した.\begin{figure}[b]\begin{center}\includegraphics{25-5ia4f3.eps}\end{center}\caption{図\ref{fig:jfleg_conll_pearson}左をz軸方向から見た図}\label{fig:jfleg_pearson_from_above}\end{figure}\begin{table}[b]\caption{自動評価による訂正システムのランキングと人手評価間の相関係数}\label{tbl:exp}\input{04table01.tex}\end{table}\subsubsection{実験結果}表\ref{tbl:exp}に各手法の人手との相関を示す.3つの観点を用いる提案手法は,中心点の重みを使った場合とその周辺の点4つの内,最も高い相関だった点と最も低い相関だった点の結果を示す.文法性のみ,流暢性のみの評価尺度ではM$^2$を上回ったがGLEUには及ばなかった.意味保存性のみの評価は人手評価との相関が弱いという結果になった.しかし,意味保存性に流暢性を組み合わせることにより性能が改善し,GLEUを上回った.意味保存性,すなわちMETEORは,表層の類似度に基づく評価となっているため,あまり訂正を行わないシステムに対し高い評価を与えてしまう.それにもかかわらず,流暢性と組み合わせたときに重要な役割を果たしていると考えられる.また,3観点を全て組み合わせるとさらに性能が向上($\rho=0.885$)した.この結果の意義は,参照無しでも参照有り手法であるGLEUよりも人手に近い評価ができる可能性を初めて示したことである.また,我々の知る限りこの値は参照無し手法の最高性能である.また,中心点の周辺の点の重みで実験した結果,相関が最も高い点では$\rho=0.912$となり,相関が最も低い点で$\rho=0.851$となった.相関が最も低い点でもGLEUとほぼ同等の性能であり,ピアソンの相関係数ではGLEUを上回った.この結果は特定の2つのデータセットから得られた結果であり,全く新しいデータセットに必ずしも一般化して適応できるわけではないが,性質の異なるデータセットを開発データとして用いたとしても,参照無し手法で参照有り手法を越える可能性があることを実験的に明らかにしたことに意義がある.一方,本実験では文法性の必要性は示されなかった.本実験では3観点から文法性を除いたときの方が高性能($\rho=0.929$)となったことからも,文法性は$\alpha,\beta,\gamma$の調整次第ではかえって悪影響を与える場合があるといえる.本実験で流暢性モデルとして用いたRNN言語モデルでは文構造を完全には捉えられないと言われているが\cite{TACL972},学習者の文の大半は単純な構造であることと,一般に流暢な文は文法的であることが多いことから,流暢性モデルが文法性モデルを包含している部分があり,文法性モデルを用いなくても十分正確な評価ができたと考えられる.流暢性を除いた場合の相関が$\rho=0.786$,意味保存性をのぞいた場合の相関が$\rho=0.863$となり,3つの観点を使った場合よりも低い相関になっていることから,流暢性・意味保存性は参照無し評価において重要であると言える.\subsection{文単位評価の性能調査}\label{sec:sent-level}\ref{subsec:correlation}節の実験で,GLEUおよび提案手法はシステム単位では人手評価と強く相関していることを示した.しかし,システム単位評価が適切であるからといって,それぞれの文に対して正しくスコアがつけられているとは限らない.例えば,図~\ref{fig:yans}のような例を考える.この例の人手評価では,システムAがBよりもよいと判断している.システム単位の評価を見ると,自動評価尺度もAに対して0.8,Bに対して0.6をつけている.これは人手評価と同じ結果であり,システム単位では正しく評価ができている.文単位で見ると3文中2つがシステムAがよいと言っているが,自動評価尺度の結果は真逆になっている(図~\ref{fig:yans}の右).このように文単位のスコアを見たとき,自動評価による優劣判定が人手評価と異なっている文があれば,その自動評価尺度は文単位では訂正文を正しく評価できていないことになる.そこで本研究では,これまで提案された自動評価尺度であるM$^2$,I-measure,GLEUおよび参照無し評価尺度が文単位でどの程度正確に評価できるかを調査する.\begin{figure}[b]\begin{center}\includegraphics{25-5ia4f4.eps}\end{center}\caption{文単位評価が不適切な例}\label{fig:yans}\end{figure}\subsubsection{文単位評価の実験設定}文単位評価の性能調査のためには,訂正システムの出力それぞれに対して人手評価が付与されているデータが必要である.本研究では前節で用いたデータ,すなわち\citeA{Grundkiewicz2015}によって作られたデータを使用する.このデータはシステム単位の人手評価のために作られたものではあるが,訂正システムの各出力に対して人手評価が付与されているため,その情報を用いる.具体的には表~\ref{tbl:evaluation}のように,1つの入力文に対して複数システムの出力が与えられており,それらに対して人手評価が5段階の相対評価で与えられている.\begin{table}[b]\caption{入力文$s$に対する複数の訂正システムの出力$h$と人手評価}\label{tbl:evaluation}\input{04table02.tex}\end{table}文単位評価の場合,あるテストセットに対する複数システムの出力が得られた時,そのごく一部を人手で評価し,残りを自動評価尺度で評価することは,必ずしも不自然な設定ではない.そこで,本実験ではCoNLLデータセットをdevデータとtestデータに分割することで提案手法であるMFGの重み$\alpha,\beta,\gamma$を調整した.今回はCoNLLデータセットをおよそ1:9の割合でdevセットとtestセットに分割し,devセット上で後述の正解率が最大となる重みを0.01刻みのグリッドサーチにより調整した.調整の結果,$(\alpha,\beta,\gamma)=(0.03,0.51,0.46)$の重みとなった.\subsubsection{文単位評価のメタ評価方法}\label{subsubsec:meta_eval4sent}文法誤り訂正の評価尺度のシステム単位での性能を検証する場合には相関係数を用いた.しかしながら通常の相関係数は複数システムの出力に対する人手評価が全て同じ,もしくは自動評価が全て同じ値の場合に定義することができない.文単位の場合,自動評価尺度によっては訂正が異なっていても全て同じスコアになる場合があるため,相関係数では適切に評価できない.また,人手評価が同じ訂正に関しては自動評価尺度で近いスコアが付くことが望ましいと考えられる.そこで,本研究では任意の2つの訂正に対する人手評価が異なる場合と同じ場合に分けて評価した.人手評価が異なるペアに対しては,自動評価尺度が人手評価で優れている方に高いスコアが与えられていれば正答とみなし,正解率(Accuracy)により評価した.\begin{equation}Accuracy=\frac{\mbox{大小関係を適切に評価できたペア数}}{\mbox{人手評価の順位が異なるペア数}}\end{equation}例えば,表\ref{tbl:evaluation}の例では,$(h_1,h_2)$,$(h_1,h_3)$,$(h_1,h_4)$,$(h_2,h_3)$,$(h_2,h_4)$の5つの組み合わせが人手評価の異なるペアである.自動評価尺度がこのうち2つのペアの大小関係を適切に評価できた場合,$Accuracy=2/5$になる.また,\ref{sec:eval4metrics}節で述べた,WMT17MetricsSharedTaskで使用されたケンドールの順位相関係数$\tau$による評価も行った.\begin{equation}\tau=\frac{\mbox{大小関係を適切に評価できたペア数}-\mbox{大小関係を逆順に評価したペア数}}{\mbox{人手評価の順位が異なるペア数}}\end{equation}この$\tau$は,Accuracyと比べると,人手評価の順位が異なっているにもかかわらず,自動評価で同じ値がつく事例を軽視している.この評価を優劣判定調査と呼ぶ.人手評価が同じペアは自動評価スコアもできるだけ近い値になるのが望ましい.そのため自動評価スコア同士の平均絶対誤差(MeanAbsoluteError:MAE)で評価した.\begin{equation}MAE=\frac{\sum{\lvertscore_1-score_2\rvert}}{\mbox{人手評価が同順のペア数}}\end{equation}例えば表\ref{tbl:evaluation}における$(h_3,h_4)$は人手評価が同じペアであり,この2つに対して自動評価尺度で付けたスコアからMAEを計算する.ただし,もともとスコアの分散が小さい評価尺度が有利になるのを防ぐため,各評価尺度のスコアは平均が0,分散が1になるよう標準化した.この評価を類似性判定調査と呼ぶ.テストデータとして用いる\citeA{Grundkiewicz2015}の人手評価は,8人の評価者がそれぞれCoNLL2014SharedTaskのデータからサンプリングされた入力文および訂正文に対してランキングを付与することによって作成された.このため,一部の(入力文,訂正文)の組については複数人のランキングが付与されているが,本実験ではそれらを別インスタンスと見なして評価した.テストデータにおいて,優劣判定調査の対象は14,822組,類似性判定調査の対象は5,964組存在した.\subsubsection{結果}\label{subsec:res}\noindent\textbf{優劣判定調査の結果}人手評価が異なる2文に対する優劣判定の性能を表\ref{tbl:accuracy}に示す.提案手法であるMFGは参照有り手法と比べて高い正解率を示した.参照有り手法の中ではGLEUがM$^2$やI-measureよりも正解率が高かった.MFGとGLEUの正解率の差についてマクネマー検定を行ったところ,5\%水準で統計的に有意であった.ケンドールの順位相関係数においても提案手法は参照有り手法よりも高い性能を示した.参照有り手法の中ではI-measureが最も高い$\tau$値を示した.提案手法とI-measureの$\tau$値の差についてブートストラップ検定を行ったところ,5\%水準で統計的に有意であった.\begin{table}[b]\caption{人手評価が異なる2文に対する優劣判定の性能}\label{tbl:accuracy}\input{04table03.tex}\end{table}\noindent\textbf{類似性判定調査の結果}人手評価が同じ2文に対するスコアの平均絶対誤差を表\ref{tbl:mae}に示す.MFGの平均絶対誤差が小さく,人手評価が同じ2文に対して最も近いスコアを与えることができている.参照有り評価手法の中では,GLEUが最も良い結果となっており,優劣判定調査・類似性判定調査の両方で優れている.\begin{table}[b]\caption{人手評価が同じ2文に対するスコアの平均絶対誤差}\label{tbl:mae}\input{04table04.tex}\end{table}システム単位評価の結果と文単位評価の結果を比較すると,各評価尺度の性能の序列は文単位でも同じとなっている.しかし,システム単位評価ではI-measureとGLEUの間に差があるが,優劣判定能力においては差は認められない.一方,類似性判定調査の結果ではGLEUがI-measureを上回っている.これらの結果からI-measureは優劣判定はできるが,その評価スコア自体は適切につけられていないことが示唆される.\subsubsection{事例分析}参照無し手法が人手評価の異なる訂正を適切に評価できていた例を示す.表\ref{tbl:exp1_example}の例で訂正Aは文法的であるが訂正Bは主語と述語の数が一致していないため文法的ではない.この例で参照無し手法はAの方を高く評価できたが,参照有り手法はBの方を高く評価した.これは訂正Bの表層が参照文と似ているからであるが,参照有り手法は訂正と参照文が異なっている箇所の重大性を考慮せずに評価するからであると考えられる.\begin{table}[b]\caption{リファレンスベース手法の優劣判定の誤り例}\label{tbl:exp1_example}\input{04table05.tex}\end{table}\begin{table}[b]\caption{リファレンスレス手法の優劣判定の誤り例}\label{tbl:exp1_example2}\input{04table06.tex}\end{table}一方,参照無し手法は失敗したが従来手法は正答できたものとしては,冠詞だけが異なっている事例が多く見られた.例えば,表~\ref{tbl:exp1_example2}における訂正Aには冠詞誤りが2箇所存在しており,参照無し評価尺度では人手評価が高い方に低いスコアをつけてしまっている.これは適切な冠詞選択のためには文脈情報が必要なことが多く,参照無し手法は文脈情報を一切用いないのに対し,従来手法は文脈を考慮して作成された参照文と訂正を比較しているからであると考えられる.人手評価が同じ訂正に対し,参照有り手法の絶対誤差が大きかった例を表~\ref{tbl:exp2_example}に示す.訂正AとBは人手評価に影響を与えるほどの差異は無い.しかし訂正Aは参照文に無く,訂正Bは参照文と完全に一致している.このためM$^2$およびI-measureは人手評価が同じにも関わらず大きく異なる評価を行っている.GLEUは比較的近い値をつけている.理由としては,GLEUはn-gram適合率に基づく評価である点や,参照文が複数あるときにその平均値を採用している点が考えられる.しかし,標準化を行うとその差は0.674となる.一方,参照無し手法は標準化を行ってもその差は0.109に収まっており,人間に近い評価ができている.\begin{table}[t]\caption{人手評価が同じ文に対するリファレンスベース手法の誤り例}\label{tbl:exp2_example}\input{04table07.tex}\end{table}\subsection{参照無し評価の文法誤り訂正への応用可能性の調査}\ref{sec:sent-level}節の実験より,提案手法が文単位においても参照有り手法を上回る可能性があることが明らかになった.それを受け,本節では参照無し評価尺度のもうの可能性を調査する.参照無し評価尺度は正解データを必要としないため,正解データのない文に対しても評価スコアを与えることができる.つまり,参照無し評価尺度を使えば,GECシステムの出力した訂正文の候補の中から最もよい訂正文を選択することで誤り訂正の精度を改善できる可能性がある.そこで本節では,複数の訂正候補から最もよい訂正を選択する訂正システムを想定したときに実際に訂正性能が向上するかどうかを調べた.以下,この手法をアンサンブルシステムと呼ぶ.\subsubsection{実験設定}図~\ref{fig:ensemble}のように,各入力文に対する複数のGEC訂正システムの出力を参照無し手法で評価し,最もスコアの高い訂正を選択するシステムを構築した.評価用のデータとしてCoNLL2014SharedTaskonGECのテストセットを使用した.アンサンブルするシステムとしては,CoNLL2014SharedTaskonGEC参加12システムの訂正結果を使用する\footnote{http://www.comp.nus.edu.sg/{\textasciitilde}nlp/conll14st/official\_submissions.tar.gz}.\begin{figure}[b]\begin{center}\includegraphics{25-5ia4f5.eps}\end{center}\hangcaption{アンサンブルシステムの概要.各システムの訂正を参照無し手法によって評価し,最善の文を出力する.}\label{fig:ensemble}\end{figure}\subsubsection{評価方法}アンサンブルによりGECシステムの性能が向上するかどうかを調べるために,\citeA{Grundkiewicz2015}や\citeA{Napoles2017}がシステム単位の人手評価値を求めるために使った方法を使用する.彼らと同様に,システム単位の人手評価をGrundkiewiczらのデータセットを用いて各システムに対する人手評価をTrueSkill\cite{NIPS2006_3079}により再計算することにより求めた.ただし,人手評価は一部の入力文(1,312文中663文)に対する一部の訂正にしか与えられていないため,人手評価が与えられている文のみを使用した.また,全入力文に対する訂正を評価するために,参照有り手法による評価も行った.評価尺度としてはM$^2$とGLEUを用いた.GECの先行研究と直接比較することができるようにM$^2$は,GECシステムの評価で最も一般的な方法に従い計算した.\ref{subsec:correlation}節,\ref{sec:sent-level}節で用いたM$^2$と異なるのは,参照文には公式の2セットのみを用いる点,システム単位のスコアがmacro-F$_{0.5}$値によって算出される点である.GLEUについては\ref{subsec:correlation}節,\ref{sec:sent-level}節と同様,正確な評価のために参照文に18セット全てを用い,システム単位のスコアは文単位のスコアの平均によって算出した.\subsubsection{結果}アンサンブルシステムによる文法誤り訂正の実験結果を表\ref{tbl:ensemble}に示す.いずれの評価尺度でも参照無し手法で訂正を選択することにより訂正性能が向上した.TrueSkillのスコアが約2倍になっていることは訂正が2倍改善したことを意味するものでは無いが,明らかな性能向上を示している.M$^2$スコアやGLEU+についても性能が改善することが確かめられた.\begin{table}[t]\caption{訂正システムに対するスコア}\label{tbl:ensemble}\input{04table08.tex}\vspace{4pt}\smallトップシステムはCoNLL2014参加システムで各スコアが最良のシステムを意味し,括弧内にシステム名を示した.\par\end{table}この実験結果から参照無し評価手法は,文法誤り訂正の性能向上に有用であると言える.また,本研究で行ったアンサンブル手法ではなく,参照無し評価手法のコンポーネントである文法性,流暢性,意味保存性の尺度を直接GECシステムの中に取り込んだモデルを作ることも考えることができる.アンサンブル手法は従来モデルの訂正候補から最良のものを選択するのに対し,そうしたモデルは3観点を考慮した訂正を出力できるため,さらなる性能向上が期待できる.
\section{結論}
本研究では,GECシステムを自動で評価するための参照無し手法を提案し,文法性,流暢性,意味保存性の観点を組み合わせることにより,GECシステムの自動評価を従来手法よりも正確に行える可能性があることを実験的に示した.また,文単位での評価性能を調べる実験を行ったところ,提案した参照無し手法が従来手法より高い性能を示した.さらに,参照無し評価を使ったアンサンブル手法による誤り訂正の性能を調査し,参照無し評価尺度を使うことで文法誤り訂正の性能を向上させることができることを明らかにした.今後の展望としては,大量のデータを活用し,各観点の評価方法をより精緻な手法にすることで性能の向上を図ることが考えられる.例えば,誤り訂正の対訳コーパスから,ニューラルネットワークを用いて文法性を学習する手法が考えられる.また,3観点の組み合わせ方を線形和ではなく,意味保存性のスコアが減点項として働くような組み合わせ方に変更することが考えられる.\acknowledgment本論文の査読にあたり,著者の不十分な記述などに対してご意見・ご指摘をくださった査読者の方々へ感謝します.本論文の内容の一部は,情報処理学会第4回自然言語処理シンポジウム・第234回自然言語処理研究会\cite{weko_185026_1}およびThe8thInternationalJointConferenceonNaturalLanguageProcessing\cite{asano-mizumoto-inui:2017:I17-2}で発表したものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Asano,Mizumoto,\BBA\Inui}{Asanoet~al.}{2017}]{asano-mizumoto-inui:2017:I17-2}Asano,H.,Mizumoto,T.,\BBA\Inui,K.\BBOP2017\BBCP.\newblock\BBOQReference-basedMetricscanbeReplacedwithReference-lessMetricsinEvaluatingGrammaticalErrorCorrectionSystems.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalJointConferenceonNaturalLanguageProcessing(Volume2:ShortPapers)},\mbox{\BPGS\343--348}.AsianFederationofNaturalLanguageProcessing.\bibitem[\protect\BCAY{浅野\JBA水本\JBA松林\JBA乾}{浅野\Jetal}{2017}]{weko_185026_1}浅野広樹\JBA水本智也\JBA松林優一郎\JBA乾健太郎\BBOP2017\BBCP.\newblock文法誤り訂正の文単位評価におけるリファレンスレス手法の評価性能.\\newblock\Jem{情報処理学会第4回自然言語処理シンポジウム・第234回自然言語処理研究会}.\bibitem[\protect\BCAY{Banerjee\BBA\Lavie}{Banerjee\BBA\Lavie}{2005}]{banerjee-lavie:2005:MTSumm}Banerjee,S.\BBACOMMA\\BBA\Lavie,A.\BBOP2005\BBCP.\newblock\BBOQMETEOR:AnAutomaticMetricforMTEvaluationwithImprovedCorrelationwithHumanJudgments.\BBCQ\\newblockIn{\BemProceedingsoftheACLWorkshoponIntrinsicandExtrinsicEvaluationMeasuresforMachineTranslationand/orSummarization},\mbox{\BPGS\65--72}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Blanchard,Tetreault,Higgins,Cahill,\BBA\Chodorow}{Blanchardet~al.}{2013}]{TOEFL}Blanchard,D.,Tetreault,J.,Higgins,D.,Cahill,A.,\BBA\Chodorow,M.\BBOP2013\BBCP.\newblock{\BemTOEFL11:ACorpusofNon-NativeEnglish}.\newblockTechnicalreport,EducationalTestingService.\bibitem[\protect\BCAY{{BNCConsortium}}{{BNCConsortium}}{2007}]{BNcorpus}{BNCConsortium}\BBOP2007\BBCP.\newblock{\BemTheBritishNationalCorpus}.\newblockversion3(BNCXMLEdition).DistributedbyOxfordUniversityComputingServicesonbehalfoftheBNCConsortium.\bibitem[\protect\BCAY{Bojar,\mbox{Chatterjee},\mbox{Federmann},Graham,Haddow,Huang,Huck,Koehn,Liu,Logacheva,Monz,\mbox{Negri},Post,Rubino,Specia,\BBA\Turchi}{Bojaret~al.}{2017}]{bojar-EtAl:2017:WMT1}Bojar,O.,\mbox{Chatterjee},R.,\mbox{Federmann},C.,Graham,Y.,Haddow,B.,Huang,S.,Huck,M.,Koehn,P.,Liu,Q.,Logacheva,V.,Monz,C.,\mbox{Negri},M.,Post,M.,Rubino,R.,Specia,L.,\BBA\Turchi,M.\BBOP2017\BBCP.\newblock\BBOQFindingsofthe2017ConferenceonMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2ndConferenceonMachineTranslation},\mbox{\BPGS\169--214}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Bojar,\mbox{Chatterjee},\mbox{Federmann},Graham,Haddow,Huck,Jimeno~Yepes,Koehn,Logacheva,Monz,Negri,Neveol,Neves,Popel,Post,Rubino,Scarton,Specia,Turchi,Verspoor,\BBA\Zampieri}{Bojaret~al.}{2016}]{bojar-EtAl:2016:WMT1}Bojar,O.,\mbox{Chatterjee},R.,\mbox{Federmann},C.,Graham,Y.,Haddow,B.,Huck,M.,Jimeno~Yepes,A.,Koehn,P.,Logacheva,V.,Monz,C.,Negri,M.,Neveol,A.,Neves,M.,Popel,M.,Post,M.,Rubino,R.,Scarton,C.,Specia,L.,Turchi,M.,Verspoor,K.,\BBA\Zampieri,M.\BBOP2016\BBCP.\newblock\BBOQFindingsofthe2016ConferenceonMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe1stConferenceonMachineTranslation},\mbox{\BPGS\131--198}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Bojar,\mbox{Graham},\BBA\Kamran}{Bojaret~al.}{2017}]{bojar-graham-kamran:2017:WMT}Bojar,O.,\mbox{Graham},Y.,\BBA\Kamran,A.\BBOP2017\BBCP.\newblock\BBOQResultsoftheWMT17MetricsSharedTask.\BBCQ\\newblockIn{\BemProceedingsofthe2ndConferenceonMachineTranslation},\mbox{\BPGS\489--513}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Bryant\BBA\Ng}{Bryant\BBA\Ng}{2015}]{Bryant2015}Bryant,C.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2015\BBCP.\newblock\BBOQHowFarareWefromFullyAutomaticHighQualityGrammaticalErrorCorrection?\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\697--707}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Dahlmeier\BBA\Ng}{Dahlmeier\BBA\Ng}{2012}]{Dahlmeier:12:NAACL}Dahlmeier,D.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2012\BBCP.\newblock\BBOQBetterEvaluationforGrammaticalErrorCorrection.\BBCQ\\newblockIn{\BemProceedingsofthe2012ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\568--572}.\bibitem[\protect\BCAY{Dale,Anisimoff,\BBA\Narroway}{Daleet~al.}{2012}]{dale-anisimoff-narroway:2012:BEA}Dale,R.,Anisimoff,I.,\BBA\Narroway,G.\BBOP2012\BBCP.\newblock\BBOQHOO2012:AReportonthePrepositionandDeterminerErrorCorrectionSharedTask.\BBCQ\\newblockIn{\BemProceedingsofthe7thWorkshoponBuildingEducationalApplicationsUsingNLP},\mbox{\BPGS\54--62}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Dale\BBA\Kilgarriff}{Dale\BBA\Kilgarriff}{2011}]{dale-kilgarriff:2011:ENLG}Dale,R.\BBACOMMA\\BBA\Kilgarriff,A.\BBOP2011\BBCP.\newblock\BBOQHelpingOurOwn:TheHOO2011PilotSharedTask.\BBCQ\\newblockIn{\BemProceedingsoftheGenerationChallengesSessionatthe13thEuropeanWorkshoponNaturalLanguageGeneration},\mbox{\BPGS\242--249}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Denkowski\BBA\Lavie}{Denkowski\BBA\Lavie}{2014}]{Denkowski2014}Denkowski,M.\BBACOMMA\\BBA\Lavie,A.\BBOP2014\BBCP.\newblock\BBOQMeteorUniversal:LanguageSpecificTranslationEvaluationforAnyTargetLanguage.\BBCQ\\newblockIn{\BemProceedingsofthe9thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\376--380}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Felice\BBA\Briscoe}{Felice\BBA\Briscoe}{2015}]{Felice2015}Felice,M.\BBACOMMA\\BBA\Briscoe,T.\BBOP2015\BBCP.\newblock\BBOQTowardsaStandardEvaluationMethodforGrammaticalErrorDetectionandCorrection.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\578--587}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Grundkiewicz,Junczys-Dowmunt,\BBA\Gillian}{Grundkiewiczet~al.}{2015}]{Grundkiewicz2015}Grundkiewicz,R.,Junczys-Dowmunt,M.,\BBA\Gillian,E.\BBOP2015\BBCP.\newblock\BBOQHumanEvaluationofGrammaticalErrorCorrectionSystems.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\461--470}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Heilman,Cahill,Madnani,Lopez,Mulholland,\BBA\Tetreault}{Heilmanet~al.}{2014}]{Heilman2014}Heilman,M.,Cahill,A.,Madnani,N.,Lopez,M.,Mulholland,M.,\BBA\Tetreault,J.\BBOP2014\BBCP.\newblock\BBOQPredictingGrammaticalityonanOrdinalScale.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\174--180}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Herbrich,Minka,\BBA\Graepel}{Herbrichet~al.}{2007}]{NIPS2006_3079}Herbrich,R.,Minka,T.,\BBA\Graepel,T.\BBOP2007\BBCP.\newblock\BBOQTrueSkill\texttrademark:ABayesianSkillRatingSystem.\BBCQ\\newblockInSch{\"{o}}lkopf,B.,Platt,J.~C.,\BBA\Hoffman,T.\BEDS,{\BemAdvancesinNeuralInformationProcessingSystems19},\mbox{\BPGS\569--576}.MITPress.\bibitem[\protect\BCAY{Lau,Clark,\BBA\Lappin}{Lauet~al.}{2015}]{Lau2015}Lau,J.~H.,Clark,A.,\BBA\Lappin,S.\BBOP2015\BBCP.\newblock\BBOQUnsupervisedPredictionofAcceptabilityJudgements.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume1:LongPapers)},\mbox{\BPGS\1618--1628}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Linzen,Dupoux,\BBA\Goldberg}{Linzenet~al.}{2016}]{TACL972}Linzen,T.,Dupoux,E.,\BBA\Goldberg,Y.\BBOP2016\BBCP.\newblock\BBOQAssessingtheAbilityofLSTMstoLearnSyntax-SensitiveDependencies.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf4},\mbox{\BPGS\521--535}.\bibitem[\protect\BCAY{Mikolov}{Mikolov}{2012}]{mikolov2012statistical}Mikolov,T.\BBOP2012\BBCP.\newblock\BBOQStatisticalLanguageModelsBasedonNeuralNetworks.\BBCQ\\newblock{\BemPresentationatGoogle,MountainView,2ndApril}.\bibitem[\protect\BCAY{Mi{\l}kowski}{Mi{\l}kowski}{2010}]{Milkowski:10:SPE}Mi{\l}kowski,M.\BBOP2010\BBCP.\newblock\BBOQDevelopinganOpen-source,Rule-basedProofreadingTool.\BBCQ\\newblock{\BemSoftware:PracticeandExperience},{\Bbf40}(7),\mbox{\BPGS\543--566}.\bibitem[\protect\BCAY{Napoles,Sakaguchi,Post,\BBA\Tetreault}{Napoleset~al.}{2015}]{Napoles:15:ACL}Napoles,C.,Sakaguchi,K.,Post,M.,\BBA\Tetreault,J.\BBOP2015\BBCP.\newblock\BBOQGroundTruthforGrammaticalErrorCorrectionMetrics.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing(Volume2:ShortPapers)},\mbox{\BPGS\588--593}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Napoles,Sakaguchi,\BBA\Tetreault}{Napoleset~al.}{2016}]{Napoles2016}Napoles,C.,Sakaguchi,K.,\BBA\Tetreault,J.\BBOP2016\BBCP.\newblock\BBOQThere'sNoComparison:Reference-lessEvaluationMetricsinGrammaticalErrorCorrection.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\2109--2115}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Napoles,Sakaguchi,\BBA\Tetreault}{Napoleset~al.}{2017}]{Napoles2017}Napoles,C.,Sakaguchi,K.,\BBA\Tetreault,J.\BBOP2017\BBCP.\newblock\BBOQJFLEG:AFluencyCorpusandBenchmarkforGrammaticalErrorCorrection.\BBCQ\\newblockIn{\BemProceedingsofthe15thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics:Volume2,ShortPapers},\mbox{\BPGS\229--234}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Ng,Wu,Briscoe,Hadiwinoto,Susanto,\BBA\Bryant}{Nget~al.}{2014}]{Ng:14:CoNLL}Ng,H.~T.,Wu,S.~M.,Briscoe,T.,Hadiwinoto,C.,Susanto,R.~H.,\BBA\Bryant,C.\BBOP2014\BBCP.\newblock\BBOQTheCoNLL-2014SharedTaskonGrammaticalErrorCorrection.\BBCQ\\newblockIn{\BemProceedingsofthe18thConferenceonComputationalNaturalLanguageLearning:SharedTask},\mbox{\BPGS\1--14}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni-EtAl:2002:ACL}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:aMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsof40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Parker,Graff,Kong,Chen,\BBA\Maeda}{Parkeret~al.}{2011}]{GIGAWORD}Parker,R.,Graff,D.,Kong,J.,Chen,K.,\BBA\Maeda,K.\BBOP2011\BBCP.\newblock{\BemEnglishGigaword5thEditionLDC2011T07}.\newblockPhiladelphia:LinguisticDataConsortium.\bibitem[\protect\BCAY{Sakaguchi,Napoles,Post,\BBA\Tetreault}{Sakaguchiet~al.}{2016}]{Sakaguchi2016}Sakaguchi,K.,Napoles,C.,Post,M.,\BBA\Tetreault,J.\BBOP2016\BBCP.\newblock\BBOQReassessingtheGoalsofGrammaticalErrorCorrection:FluencyInsteadofGrammaticality.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf4},\mbox{\BPGS\169--182}.\bibitem[\protect\BCAY{Snover,Dorr,Schwartz,Micciulla,\BBA\Makhoul}{Snoveret~al.}{2006}]{hter}Snover,M.,Dorr,B.,Schwartz,R.,Micciulla,L.,\BBA\Makhoul,J.\BBOP2006\BBCP.\newblock\BBOQAstudyoftranslationeditratewithtargetedhumanannotation.\BBCQ\\newblockIn{\BemProceedingsofAssociationforMachineTranslationintheAmericas},\mbox{\BPGS\223--231}.\end{thebibliography}\begin{biography}\bioauthor{浅野広樹}{1993年生.2017年東北大学工学部情報科学研究科卒業.同年,同大学大学院情報科学研究科修士課程システム情報科学専攻に進学.現在に至る.自然言語処理の研究に従事.}\bioauthor{水本智也}{2015年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(工学).同年より東北大学情報科学研究科特任助教を経て2017年より理化学研究所革新知能統合研究センター特別研究員.文法誤り訂正や記述式答案の自動採点など自然言語処理による言語学習/教育支援に関心がある.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{乾健太郎}{東北大学大学院情報科学研究科教授.1995年東京工業大学大学院情報理工学研究科博士課程修了.同大学助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より現職.2016年より理化学研究所AIPセンター自然言語理解チームリーダー兼任.情報処理学会論文誌編集委員長,同会自然言語処理研究会主査等を歴任,2018年より言語処理学会論文誌編集委員長.}\end{biography}\biodate\end{document}
| |
V11N05-08 | \section{はじめに}
\label{sec:introduction}\numexs{hodonai}{\item\emph{旧友}と飲む酒\emph{ほど}楽しいものは\emph{ない}.\item\emph{昔の友達}と飲む酒が\emph{一番}楽しい.}\numexs{kousan}{\item内戦状態に\emph{再突入する公算が大きい}.\item\emph{再び}内戦状態に\emph{なる}\emph{可能性が高い}.}この例のように,言語には同じ情報を伝える表現がいくつも用意されている.意味が近似的に等価な言語表現の異形を言い換え(paraphrase)と言う.言い換えを指す用語には他に,言い替え,換言,書き換え,パラフレーズといった語も使われるが,統一のため本論文では一貫して「言い換え」という用語を使う.これまでの言語処理研究の中心的課題は,曖昧性の問題,すなわち同じ言語表現が文脈によって異なる意味を持つ問題をどう解決するかにあった.これに対し,言い換えの問題,すなわち同じ意味内容を伝達する言語表現がいくつも存在するという問題も同様に重要である.与えられた言語表現からさまざまな言い換えを自動生成することができれば,たとえば,所与の文章を読み手の読解能力に合わせて平易な表現に変換したり,音声合成の前編集として聴き取りやすい表現に変換したりすることができる.あるいは,機械翻訳の前編集として翻訳しやすい表現に変換するといったことも可能になるだろう.また,与えられた2つの言語表現が言い換えであるかどうかを自動判定することができれば,情報検索や質問応答,複数文書要約といったタスクにおける重要な問題の一つが解決する.近年,こうした問題に関心を持つ研究者が増え,言い換えというキーワードが目立つようになってきた.本学会年次大会でも,2001年に言い換えのセッションが設置されて以来,4件(2001年),9件(2002年),10件(2003年),7件(2004年)と投稿を集めた.また2001年,2003年には言い換えに関する国際ワークショップが開かれ,それぞれ8件,14件の発表,活発な議論が行なわれた\cite{NLPRSWS:01,IWP:03}.本論文では,言い換えに関する工学的研究を中心に,近年の動向を紹介する.以下,まず,\sec{definition}で,言語学的研究および意味論研究における言い換えに関連の深い話題を取り上げ,言い換えの定義について考察する.次に,\sec{applications}で言い換え技術の応用可能性について論じた後,\sec{models}で構造変換による言い換え生成,質問応答・複数文書要約のための言い換え認識に関する研究を概観する.最後に\sec{knowledge}で言い換え知識の自動獲得に関する最新の研究動向を紹介する.
\section{言い換えとは?}
\label{sec:definition}そもそも言い換えとはどのようなものか?どのような種類があるのか?直感的なイメージをつかむには,末尾の\app{taxonomy}に目を通されるのがよいかもしれない.日本語の言い換え現象を構文的特徴に基づいて整理してある.では,こうした言い換えはどのように定義されるか?英語学習辞典COBUILDによると,「言い換え」=``paraphrase''は次のように説明されている.\begin{quote}Ifyou\emph{paraphrase}somethingwrittenorspoken,orthepersonwhosaidit,yougiveits\textbf{meaning}usingdifferentwords.\end{quote}明らかなのは,言い換えを定義するには,``meaning''が何を指すか,つまり言葉の「意味」とは何かという問題に深く立ち入らなければならないということである.言語の意味論が多くの議論を要する,形式化が困難な問題であることは読者の良く知るところであろう.しかも,意味論研究の成果と自然言語処理技術の現状には依然として深いギャップがある.ここでは言語学研究および意味論研究における言い換えに関連の深い話題をいくつか紹介し,言い換えとは何かを考える材料を提供する.\subsection{言語学から見た言い換え}\label{ssec:ling_pov}\subsubsection{変形文法}\label{sssec:trans}理論言語学における言い換えの扱いは初期の変形文法まで遡る.変形文法における変形は,表層構造(統語構造)に対する統語的操作で,たとえば,能動文から受動文に変形する操作は次のように記述される.\smallskip\begin{center}\begin{tabular}{cccccc}\hline能動文:&\featbox{1}~:~NP&\featbox{2}~:~[$+$V,$+$AUX]&&\featbox{3}~:~[$+$V,$-$AUX]&\featbox{4}~:~NP\\受動文:&\featbox{4}&\featbox{2}&BE\+EN&\featbox{3}&BY\featbox{1}\\\hline\end{tabular}\end{center}\smallskipこうした操作は,表す意味を保存したまま統語構造を変えるという意味で構造的な言い換えと見なすことができる.\cite{harris:81}には,文から文への変形,名詞句から文へ変形といった具合に対象の粒度によって変形規則を約20種類に分類したものが掲載されている(ただし,これらの変換規則が構文的言い換えをどの程度カバーするかは明らかでない).こうした研究の成果は言い換えの工学的実現にも有益であろう.変形規則のもう一つの問題は,変形の語彙依存性をうまく扱えていないことである.ある変形の適用が可能となる条件は単語に依存する場合が少なくない.たとえば,上の受動化の例をとってみても,他動詞であれば常に受動化できるわけではなく,「``resemble''のような動詞の場合は適用できない」といったきめの細かい条件指定が必要になる.これは個々の語の特性に立ち入る必要があることを意味しているが,変形文法のような伝統的文法理論ではそれらを明らかにする活発な研究は見られなかった.\subsubsection{Meaning-TextTheory}\label{sssec:MTT}変形の語彙依存性の記述を試みた例として,\citeauthor{melcuk:96}らが発展させたMeaning-TextTheory(以下,MTT)があげられる\cite{melcuk:87,iordanskaja:91,wanner:94,melcuk:96,iordanskaja:96}.MTTでは,意味構造から深層統語構造,表層統語構造を経て音韻構造にいたるまで7層の表現レベルを用意し,次の2種類の規則で言い換えを説明する.\begin{itemize}\item\emph{変形規則:}各レベル間の対応を変形規則として記述する.同じ意味構造に対して異なる変形規則を適用すると異なる文が得られる.これらの文は互いに言い換えの関係にある.\item\emph{言い換え規則:}同じレベルの表現どうしの間で起こる変形を言い換え規則として記述する.言い換え規則を適用すると言い換えが得られる.\end{itemize}変形規則と言い換え規則の語彙依存性の記述には語彙関数(lexicalfunction)を用いる.語彙関数とは,語の共起関係を記述するための道具で,たとえばある動詞$X$に対してその名詞形を返す$S_{0}(X)$と,ある動詞の名詞形$Y$に対して元の動詞形の主語を同じく主語とするような機能動詞を返す$Oper_{1}(Y)$という2つの語彙関数を組み合わせると,\refex{MTTrule}のような深層統語構造の言い換え規則によって,\refex{MTTex}のような言い換えを記述することができる.\begin{figure}[t]\begin{center}\leavevmode\includegraphics*[scale=.4]{clip000.eps}\caption{MTTにおける言い換え規則の例\cite{iordanskaja:96}}\label{fig:MTTrule}\end{center}\end{figure}\numex{MTTrule}{$X_{verb}$\quad{\lra}\quad$S_{0}(X)+Oper_{1}(S_{0}(X))$(\fig{MTTrule}のような構造を仮定)\\($S_{0}(\emph{decrease}_{verb})=\emph{decrease}_{noun}$,$Oper_{1}(\emph{decrease}_{noun})=\emph{show}$)}\numexs{MTTex}{\item[s.]Employment\emph{decreasedsharply}inOctober.\item[t.]Employment\emph{showedasharpdecrease}inOctober.}\citeA{melcuk:96}によると,言語の記述に必要な語の共起関係は60種類の言語独立な語彙関数でカバーできるとしており,それらの関数を組み合わせて表現する\fig{MTTrule}のような言い換え規則もまた言語に依存しない一般的な規則で記述する.ただし,実際には個々の言語の語彙について語彙関数の大規模な辞書が必要となるが,残念ながらそうした辞書はいまだ存在しない.\subsubsection{言い換えの構成性}変形文法やMTTにおける言い換えの扱いでもう一つ重要な原理は言い換えの構成性である.たとえば,次の\refex{synonym+casealt}の言い換えは,\emph{purchase}{\ra}\emph{buy}という語彙的な言い換えと,\emph{$X$beVERB-\textsc{pp}by$Y$}{\ra}\emph{$Y$VERB$X$}のような一般的な態交替の規則を組み合わせによって記述できる.\numexs{synonym+casealt}{\item[s.]Thiscar\emph{waspurchasedby}him.\item[t.]He\emph{bought}thiscar.}明らかに,言い換えをよりプリミティブな変形に分解して記述するアプローチは,分解せずに記述するアプローチに比べると理論的にも工学的にも理にかなっている.ただし,前者を採用することにしても,それ以上分解できないプリミティブな言い換えにはどのような種類があるのか,それらは網羅的に数えあげられるのか,また,そもそも分解の可否を判断する基準を明確に規定できるか,という問題が残る.たとえば,MTTの研究者らはこれらを究明すべき中心的な問題の一部と考え,前述のように言い換え規則や語彙関数としてその成果を形にしてきた.しかし,語彙関数の定義が厳密性を欠くなど,不十分な点も多く,大規模な評価も試みられていないのが現状である.\subsubsection{言い換えの言語横断性}言い換えの言語横断的共通性の解明も注目すべき言語学的知見の一つである.MTTでは,フランス語や英語など,複数の言語の言い換えを対比させることによって,言語に依存しない言い換え規則を規定しようとしてきた.\citeA{melcuk:96}によると,すべての言語の言い換えは60種類の語彙関数を組み合わせた言い換え規則で記述できるとされる.こうした成果が本当に正しいかどうかは十分な経験的評価による証明を待たねばならないが,少なくとも言い換えのモデル化に関して有益な知見を提供していることは間違いない.経験的方法と組み合わせた大規模な調査も報告されている.たとえば,\citeA{kageura:04:b}は,日本語と英語の各々で同じ言い換え現象,とくに複合語を中心とした専門用語の言い換えを取り上げ,\refex{compound-parallel}のような日英各々の言い換え規則集合\cite{jacquemin:97,yoshikane:03}を用いて,両言語における言い換え可能性の共通性を調査している\footnote{\refex{compound-parallel}の言い換え規則において,$N_{i}$は名詞,$V_{i}$は動詞,$X_{i}$は任意の内容語,$V(N_{i})$は名詞$N_{i}$の動詞形を表す.}.\numexs{compound-parallel}{\item[j.]概念学習{\ra}概念を学習する($X_{1}$$N_{2}${\ra}$X_{1}$``を''$N_{2}$する)\item[e.]wordcategory{\ra}categorizewords($N_{1}$$N_{2}${\ra}$V(N_{2})$$N_{1}$)}彼らは,事例から演繹的に50〜60個の変換規則を作成し,これを用いて,ある技術用語集の6割強の複合専門用語に対する両言語同時の言い換えを可能にしている.ほかにも,\refex{cleft-parallel}のような分裂文の言い換え\cite{sunagawa:95,dras:99:a}や\refex{lvc-parallel}のような機能動詞結合の言い換え\cite{muraki:91,iordanskaja:91,dras:99:a,fujita:04:d}なども,さまざまな言語に共通の言い換え現象である.\numexs{cleft-parallel}{\item[j.]\emph{収録されているのは}約千人の人物\emph{だ}.\\{\ra}約千人の人物\emph{が収録されている}.\item[e.]\emph{Itwashisbestsuitthat}Johnworetothedancelastnight.\\{\ra}Johnwore\emph{hisbestsuit}tothedancelastnight.}\numexs{lvc-parallel}{\item[j.]\emph{住民の強い要請を受け},廃棄物処理場の建設を中止した.\\{\lra}\emph{住民に(から)強く要請され},廃棄物処理場の建設を中止した.\item[e.]Employment\emph{showedasharpdecrease}inOctober.\\{\lra}Employment\emph{decreasedsharply}inOctober.}言い換えの定式化・類型化にはこうした言語横断的視点からの分析が欠かせない.\subsubsection{言い換えの機能論的説明}人間は言い換える.それはなぜだろうか?この疑問に対する答えはいくつか考えられる.\citeA{walker:93}は,言い換えによって意思の疎通をはかっていると指摘している.また,\citeA{takatsuka:99}は,テクニカルコミュニケーションの立場から,第二言語学習者にとって有用な語彙的言い換えに着目し,言い換えの機能として次のような項目をあげている.\begin{itemize}\item第二言語の学習者が自らの言語能力を補う.\item相手の理解を促進させるために自分の先行発話を言い換える.\item意味を確認するために相手の発話を言い換える.\end{itemize}上の例のようなコミュニケーションの促進という機能の他にも,言い換えは,社会的関係を保持する道具として用いられる.\citeA{kunihiro:00}は,会話の相手のメンツを傷つけることを避ける婉曲表現,仲間との連体性を保つ集団語として言い換えが用いられると述べている.自治体,企業のサービス窓口やアナウンサー向けのマニュアルにも社会的に不適切な表現の使用を避けるような項目が設けられており,代替表現(言い換え)が提示されていることもある.\subsection{意味が同じであるとは?}\label{ssec:equivalence}\subsubsection{真理値意味論的意味の同一性}変形文法やMTTを含む多くの現代文法理論では,意味構造(深層構造)が同一であれば同義であり言い換えであると仮定しており,これが言い換えの定義になっている.ここで言う意味とは,語あるいは言語表現の内包的な意味(intension)を指す.本論文では,内包的意味の同一性に基づく言い換えを,以下で述べる参照的言い換えや語用論的言い換えと区別するために,\emph{語彙・構文的言い換え}(lexicalandstructuralparaphrase)と呼ぶ.内包的意味が同一かどうかの判断は,真理値意味論(モデル論的意味論)を仮定すると考えやすい場合が少なくない.真理値意味論では,意味を真理値への写像と見なして定式化する.たとえば,「本」の意味は,個体$x$が本であれば真,本でなければ偽を返す真理関数`本'$(x)$で与えられる.これによると,二つの表現があるとき,それぞれの真理関数において任意の個体の写像先の真理値がつねに同じであれば,またそのときに限り,それらの意味は同一である.「書籍」の関数`書籍'$(x)$を真にする個体の集合,すなわち書籍という概念の外延(extension)が「本」のそれと同じであれば,「書籍」と「本」は意味が同じといえる.よく知られるように,こうした見方は,「太郎が本を読む」のような命題を表す表現にも拡張できる.ただし,こうした真理値意味論が言葉の意味を表現するのに十分でないことは明らかであり,真理値意味論の問題に関する議論は枚挙にいとまがない.以下,言い換えの定義に深く関連する問題について論じる.\subsubsection{言外の意味}変形文法では,前述のように能動文と受動文の対は同じ意味構造を持つと仮定した.誰が何をどうしたかという命題部分の意味は同じと考えて良いだろう.こうした仮定はたとえばより最近の主辞駆動句構造文法(Head-drivenPhraseStructureGrammar;HPSG)にも受け継がれている.しかし,能動文と受動文は,話者の視点が違っていたり,どの情報を強調するか,あるいはどの情報が新情報かといった情報構造の違いがあるので,文脈によっては置換できない.現在の文法理論が仮定する意味表現は,こうした意味の違いを十分に扱えていない.こうした問題は,最も基本的なものに見える単語間の言い換えにも見られる.たとえば,前述のように「書籍」と「本」は真理値意味論的意味,すなわち指示的意味(denotation)はほぼ同じだが,厳密にはフォーマリティなどの暗示的意味(connotation,いわゆるニュアンスあるいは言外の意味)の違いがあり,いつでも置き換えられるわけではない.言語は同義語を嫌う\cite{clark:92}.同じ意味を持つ語があったとしても,語用論的な力が作用して,次第に違う意味,とくに違うニュアンスを帯びるようになる.したがって,実際には完全に意味が同じで常に置換可能な同義語はまれである.言い換えと認められる表現対の多くになんらかの意味の違いがあるとすれば,ただちに,言い換え対の意味の差にはどのような種類があり,どのように記述すればよいかという問題が出てくる.これについては,すでに多くの言語学的蓄積\cite{halliday:94,miyajima:95:a,miyajima:95:b,kageyama:01}があるものの,全貌はまだ遠く見えない.さらに,こうした言い換え対が所与の文脈で置換可能であるためには,意味の差がその文脈で無視できるものなくてはならない.したがって,言い換えの理論化には,言い換え対の意味の差分が所与の文脈に照らして無視できるかどうかを判別する機構の説明が必要である.\subsubsection{参照の同一性}語の意味に関する哲学的考察のなかで古くから論じられてきたように,言語表現の内包的意味が同じであることは,その表現の参照対象が同一であることと必ずしも一致しない.たとえば,Fregeの「宵の明星」「明けの明星」の例は有名である.「宵の明星」と「明けの明星」は同じ参照対象を持つが,明らかに内包的意味は異なる.両者が言い換え可能(置換可能)となる文脈を考えるのは容易でない.このように,参照対象が同一であることは言い換え可能であるための十分な条件にはならない.ただし,内包的意味が違っていても,参照の同一性に基づいて言い換えることができる場合がある.典型的なのは,次の例のような参照表現の言い換えである\cite{sato:99}.\numexs{semantic_paraphrase1}{\item[s.]去年の出来事\item[t.]1998年の出来事}\numexs{semantic_paraphrase2}{\item[s.]筆者の考え\item[t.]佐藤の考え}こうした言い換えは特定の大域的文脈,談話の状況でのみ成り立つもので,内包的意味の同一性に基づく言い換えとは区別するべきである.本論文では,この種の言い換えを\emph{参照的言い換え}(referentialparaphrase)と呼ぶ.\subsubsection{語用論的効果の同一性}先に意味の同一性を真理値意味論的に捉えた場合を議論したが,真理値意味論の欠陥を踏まえて状況論的意味論や言語行為理論が登場した経緯から容易に推測されるように,真理値意味論に基づいて言い換えを論じるのには限界がある.その一つが,語用論的効果の同一性に基づく言い換えである.言葉の語用論的効果とは,話者がそれを発することによって達成できると期待するコミュニケーションの目的である.次の例のように同じ語用論的効果を持つ発話は言い換え可能である\cite{sato:99,kawamura:00}.\numexs{pragmatic_paraphrase1}{\item[s.]どなたかgccのソースのありかをご存知ないでしょうか.\item[t.]gccのソースが置いてあるftpサイトを教えてください.}\numexs{pragmatic_paraphrase2}{\item[s.]Willyoubreakthisbill?\item[t.]Iwanttousethatvendingmachine.}これらの言い換えは,仮に内包的意味が真理値意味論的に与えられたとしても,同じではない.\citeA{sato:99}はこうした言い換えを語用論的言い換えと呼んでいる.本論文でもこれに倣い,語用論的効果の同一性に基づく言い換えを\emph{語用論的言い換え}(pragmaticparaphrase)と呼ぶ.\bigskip以上の議論をまとめると,言い換えには少なくとも,語彙・構文的言い換え,参照的言い換え,語用論的言い換えの3種類がある.参照的言い換えは言葉が発せられた文脈や談話の状況を参照する必要がある.また,語用論的言い換えは明らかに,代表的な現代文法理論で仮定している意味論を超えるものである.このうち工学的実現が最も容易に見えるのは語彙・構文的言い換えである.実際,言い換えに関する工学的研究のほとんどが対象をこの語彙・構文的言い換えに限定している.以下,本論文でも語彙・構文的言い換えに話題をしぼる.
\section{言い換え技術の使い方}
\label{sec:applications}言い換え技術の用途は広い.言い換えの実現方法に話をすすめる前に,さまざまな言い換えが自動化できるようになるとどのような使い方ができるかを整理してみよう.\subsection{人間のために言い換える}電子化文書データの爆発的な増加を背景に,そうした文書を利用者や利用形態に適した形に自動編集する技術の必要性が説かれるようになって久しい.冒頭の例のように,高齢者や子供,外国人,障害者など,利用者の言語能力にあわせて読みやすい平易な文面になおすタスク\cite{carroll:98:a,canning:99:a,inui:01:a,higashinaka:02,inui:03:a}はそのような編集の一例である.また,ニュース原稿から字幕を生成したり,Webの文書を携帯端末に表示したり,ニュースを街頭や新幹線の電光掲示板に表示したい場合は,1行当たりの字数を考慮してコンパクトな表現に言い換える技術が必要になる\cite{robin:96,kondo:97:a,fukushima:99,mikami:99,ehara:00,kataoka:00,masuda:01:a,SatoDai:04:a,ikeda:04}.言い換え技術は,人間が文書を書く現場でも有用である.読みやすい文書を書く,スタイルを統一する,規定の語彙と構文を使って(制限言語文書を)書く,といった作業を支援する推敲支援でも,読みにくい文や制限言語に合わない文を自動的に適切な文に言い換える技術が必要とされている\cite{hayashi:91,takahashi:91:a,takeishi:92,dras:99:a,mitamura:01}.同様のことは,機械翻訳や要約など,機械が文章を生成する場合にもいえる.機械が出力した文章をチェックし,適格でない表現があれば自動的に修正するといった後編集\cite{knight:94:a,mani:99:a,nanba:00:a}が実現するとありがたい.また,人間が要約する場合は,原文にはない表現をうまく使って内容をまとめることができるが,これなども言い換えの一種といえ,そのような言い換えをいかに自動化するかが自動要約の重要な課題になっている\cite{kondo:97:a,okumura:99:a,kataoka:00,okumura:02:a}.\subsection{言語の機械処理のために言い換える}\label{ssec:for_machine}言い換えた結果を消費するのは人間ばかりとは限らない.言い換えは入出力が同一言語であることから,さまざまな言語処理アプリケーションの中に部分タスクとして組み込むことができる.機械翻訳では,前編集段階で機械処理に適した言語表現にあらかじめ書き換えておくと訳質が上がる\cite{shirai:95:a,kato:97:a,yoshimi:00:b}.この前編集を自動化する試みがすでに多数報告されている\cite{kim:94:a,shirai:95:a,chandrasekar:96:a,nyberg:00,yoshimi:00:a,yoshimi:00:b,imamura:01,YamamotoKazuhide:02:c}.機械翻訳の他にも,手話への翻訳のための前編集(手話に変換しやすい表現に言い換える)\cite{adachi:92:a,tokuda:98}や音声合成のための前編集(耳で聴きとりやすい表現に言い換える)など,前編集としての言い換え技術の潜在的応用範囲は広い.言語には同じ内容を指す表現がいくつも用意されている.\cite{sato:01:a}の例を引こう.\numexs{お名前}{\itemお名前をお願いしたいのですが.\\{\ra}Couldyoutellmeyourname,please?\itemお名前を頂戴することはできますか.\\{\ra}Couldyoutellmeyourname,please?}\refexs{お名前}{a}と\refexs{お名前}{b}はだいたい同じ意味の発話で,同じ訳文を当てることができる.したがって,(a)を翻訳できる人なら,(b)も翻訳できるだろう.しかし,翻訳システムが(a)と(b)の同義性を理解できず,それぞれ別々に翻訳しようとすると,(a)は翻訳できるが,(b)は翻訳できないといったことになりかねない.その場合でも,仮に前編集段階で(b)を(a)に言い換えることができれば,翻訳システムも対応できることになる.前編集が機械翻訳に効果的と考えられるのは,言語が持つこのような表現の多様性を前編集段階で吸収できることが期待されるためである.言語表現の多様性が機械処理を難しくしている例は翻訳にとどまらない.文書集合に対する情報検索や質問応答では,検索要求や質問に使われる言語表現とそれに該当する記述の言語表現が異なれば,単純なキーワード照合ではうまく応答できない.これに対し,たとえば,\numexs{verification}{\item《著作名》の著者は《人名》だ.\item《人名》が《著作名》を発表する.}という2つの言い回しが広い意味での言い換えの関係になっていることを認識できれば,「『坊ちゃん』の著者は誰ですか?」のような質問の答えを,情報源となる文書中の「夏目漱石が『坊ちゃん』を発表した明治39年は,$\ldots$」のような記述から探し出すことができる.検索質問拡張(termexpansion)は,その近似的な解決策の一つであるが,より洗練された同義性判定,すなわち言い換えの認識の仕組みが必要であることは明かであり,すでにさまざまな試みが報告されている\cite{jacquemin:97,hikasa:99:a,anick:99:a,hirata:00:a,shiraki:00:a,tomuro:01:a,ravichandran:02,hermjakob:02,sasaki:02,duclaye:03,moldovan:03,takahashi:03:c,yoshikane:03}.また,情報抽出において多様な言い換え表現から同じ情報を抽出する問題\cite{sekine:01,shinyama:02,shinyama:03}や,複数文書要約において個々の文書から抽出したパッセージの中に同じ情報を冗長に伝える記述がないかどうかを判定する問題\cite{mckeown:99,barzilay:99,ueda:00,narimatsu:02,barzilay:03:c}なども,同様に言い換え認識の問題といえる.\subsection{言い換えを研究の道具として使う}\label{ssec:as_tools}言い換え技術は言語処理研究の道具としても使える可能性がある.直接的な使用例の一つに,機械翻訳システムの評価用正解翻訳例の自動生成がある.機械翻訳の研究では,評価用の各原文に対して複数の正解翻訳例を用意し,システムの出力を評価するのが一般的になってきた.たとえば,BLEU~\cite{papineni:02:b}と呼ばれる自動評価手法では,豊富な正解例を用意することが評価結果の信頼性を確保するのに必要なことが分かっている.しかしながら,いくつもの正解翻訳例を人手で作るのはコストが高い.こうした背景から,代表的な正解例からその他の翻訳例を言い換え生成によって自動的に入手する試みがいくつか報告されている\cite{pang:03,kanayama:03}.\clearpage
\section{言い換えの実現方法}
\label{sec:models}\sec{applications}で述べたように,言い換えの工学的な処理は大きく生成と認識の2種類に分けられる.言い換え生成は,与えられた言語表現からその言い換えを生成する作業であり,\sec{applications}で述べたように機械翻訳の前編集や後編集,文章読解の支援など,さまざまな応用がある.言い換え生成は,言語表現を入力とする生成という意味で,テキストからのテキスト生成(text-to-textgeneration)の一種と言うことができる.これに対し,自然言語生成の文脈では,同一の意味構造からさまざまな言い換えを生成する作業を指して「言い換え生成」と呼ぶことがある.両者は相互に深く関係しあう問題であり,独立な問題として考えるべきではないが,混乱を避けるため,本論文ではもっぱらテキストからのテキスト生成の意味で言い換え生成という用語を使う.言い換え生成は,意味を保存しながらある言語表現を別の意味表現に変換するという意味で,同一言語内の翻訳と見なすことができる.逆に言い換えの方を広く捉えて,翻訳は異なる言語間をまたぐ言い換えであると言ってもよい.本節では,まず\ssec{MT}で言い換え生成の研究を歴史の長い機械翻訳研究と対比させながら紹介し,\ssec{vsMT}で機械翻訳研究では顕在化しなかった新しい問題を論じる.以下,「言い換え生成」と「(機械)翻訳」を区別するため,それぞれを狭い意味で用いる.すなわち,「言い換え生成」は意味を保存したまま同一言語内の別の表現に変換する作業,「(機械)翻訳」は意味を保存したまま他の言語の表現に変換する作業を指す.一方,言い換え認識は,2つの異なる言語表現が言い換えかどうかを判別する作業であり,情報検索や質問応答,複数文書要約などの応用がある.この問題は,一方から言い換えを生成して他方に到達できるかを調べる問題と見なせるので,言い換え生成と裏表の関係にあるといえる.\ssec{recognition}ではこの点を論じる.\subsection{同一言語内翻訳としての言い換え生成}\label{ssec:MT}\subsubsection{機械翻訳と言い換え生成}言い換え生成の研究が機械翻訳研究の長い歴史から学べることは多い.たとえば,統語構造変換と意味構造変換の長所短所,用例ベース翻訳や統計的翻訳などの経験的手法の有効性,対訳コーパスからの翻訳知識獲得の可能性といった議論は,言い換えにもほとんどそのまま当てはまる.実際,言い換え生成の実現方法に関するこれまでの提案や試みの多くは,こうした既存の機械翻訳技術からのアナロジーに基づいている.むしろ,処理方式などの方法論的議論に関するかぎり,言い換え生成の研究はこれまでのところ機械翻訳技術の後追いの域をほとんど出ていないとさえいえる.\begin{figure}[t]\begin{center}\leavevmode\includegraphics*[scale=.4]{clip001.eps}\caption{MTTに基づく翻訳と言い換えの統合モデル\cite{lavoie:00}}\label{fig:lavoie}\end{center}\end{figure}言い換えと翻訳の共通性をうまく切り取って形にした例として,\citeA{lavoie:00}の翻訳と言い換えの統合モデル(\fig{lavoie})は象徴的である.このモデルでは,MTT(\sssec{MTT}を参照)に基づいて,まず入力文から深層の依存構造表現(深層統語構造表現;DSyntS)を生成する.この中間表現を他言語の中間表現に構造変換(トランスファ)してから生成すると翻訳になり,同言語内の別の中間表現に変換して生成すると言い換えになる.中間表現には言語に依存しない共通の表現形式を用いるので,言い換えにせよ翻訳にせよ同じエンジンを使って構造変換することができる.言い換えと翻訳の違いは,構造変換に用いる変換知識(変換パターン)が違うだけである.\subsubsection{構造変換(トランスファ)方式}\label{sssec:transfer}既存の言い換えの実現方法の多くは機械翻訳のトランスファ方式に対応する.ただし,機械翻訳と異なって入力文の全体を変換する必要はないため,対象とする言い換えの種類ごとに,その現象を捉えるのに都合の良い変換レベルを設定していて実現可能性を調査するというスタイルの研究が多い.たとえば,言い換えの対象が語や句のような比較的局所的な場合は,表層レベルでの局所的な置換によって言い換えを生成できる可能性があるが,埋め込み文を主節から切り離したり,主辞が交替するような言い換えを実現するためには,少なくとも依存構造や句構造などの統語レベルのトランスファが必要になる.\begin{description}\item[表層レベル]単語を同義語に言い換える場合や,慣用表現のような,要素が省略されにくく,語の間に別の語が割り込まない表現を言い換える場合,単純な文字列置換でも言い換えを生成できる.このレベルの言い換えには完全に語彙化された表現対が用いられる.実現例としては,単語から単語への置き換え\cite{edmonds:99,fujita:01,lapata:01:b,pearce:01},数語の単語列から同じく数語の単語列への言い換え\cite{barzilay:01,barzilay:02,pang:03,shimohata:03:c,quirk:04},慣用表現の言い換え\cite{fujita:03:c}などがあげられる.\item[統語レベル]言い換え生成モデルの中には依存構造を前提としているものも多い.統語レベルのトランスファでは,\app{taxonomy}に示すようなさまざまな種類の言い換えが実現可能になる.たとえば,\citeA{kurohashi:99:b},\citeA{kaji:01}のモデルでは,文節レベルの係り受け構造を用いている.そして,「AのB」{\lra}連体節\cite{kurohashi:99:b},内容語の言い換え\cite{kaji:03:b},機能動詞結合の言い換え\cite{kaji:04:a}などを実現している.一方,\citeA{takahashi:01:c}は,言い換えの対象が文節以上の単位であっても,その影響が文節よりも小さなレベルに及ぶことに着目し,形態素レベルの依存構造を採用している.また,機能語列や係り受けの順序などを表現するための記述言語を提供し,依存構造レベルのトランスファ規則の作成を支援している.\item[意味レベル]\sssec{MTT}で紹介したMTTの深層統語構造レベルでの言い換えは,項の順序を区別して語彙関数を定義するなど,依存構造や句構造から意味的なレベルに一歩踏み込んだ構造変換を仮定している.その他,動詞の格役割,格要素間の関係を捉えるためにより意味に踏み込んだ例として,語彙概念構造(LexicalConceptualStructure;LCS)を用いた複合動詞の言い換え\cite{takeuchi:02},機能動詞結合の言い換え\cite{fujita:04:d}があげられる.\end{description}\subsubsection{ピボット方式}\label{sssec:pivot}機械翻訳のピボット方式相当のアプローチも見られる\cite{meteer:88,huang:96,brun:03}.この方式では,対象領域や捕らえるべき情報を限定して専用の意味構造を定義し,対象テキストをその構造に当てはめることで言い換えを生成する.こうした研究では,情報抽出の技術を用いて入力から意味構造の要素を抽出する技術や,意味構造から表層表現を生成する技術が各々独立に論じられている.たとえば,\citeA{brun:03}は,薬品データベースの分析に基づいて7種類の述語--項構造を定義し,\refex{brun1}の例のようにこの領域専用の意味表現として用いている.\numexs{brun1}{\itemAcetoneisamanufacturedchemicalthatisalsofoundnaturallyintheenvironment.\item\texttt{SUBSTANCE(acetone).PHYS\_FORM(acetone,chemical).\\ORIGIN(acetone,natural,theenvironment,in).\\ORIGIN(acetone,man-made,NONE,NONE).}}機械翻訳の場合と同様,ピボット方式では中間意味表現の設計と管理が問題になるため,領域を十分に限定して,過度に複雑な意味の問題をうまく避ける必要がある.\subsubsection{言い換え知識の表現方法}\label{sssec:representation}言い換え知識の表現方法については,言い換え関係にある表現対を表層の単語列または構文木の対として表現する場合が多い.\sssec{trans}で紹介した変形文法の操作は統語レベルの言い換え知識とみなせるし,\sssec{MTT}で紹介したMTTにおける言い換え規則も依存構造の対からなる.文法を用いて言い換えを表現している例もある.\citeA{dras:99:a}は,木接合による同期文法(SynchronousTreeAdjoiningGrammar;STAG)\cite{abeille:90,shieber:90}を用いて言い換え知識を表現している.同期文法の枠組みでは,入力文の解析と同時に,解析に用いられる文法のそれぞれに対応(同期)する文法が組み合わさり,解析終了と同時に出力が得られる.\begin{figure}[t]\begin{center}\leavevmode\includegraphics*[scale=.4]{clip002.eps}\caption{複数単語列アラインメントによって生成される単語ラティス\cite{pang:03}}\label{fig:lattice}\end{center}\end{figure}その他,言い換えの関係にある複数の文を,複数単語列アラインメント(Multi-SequenceAlignment;MSA)というアルゴリズムを用いて\fig{lattice}のような1つの単語ラティスで表現する試みもある\cite{barzilay:02,barzilay:03:a,pang:03}.これは,英語のように語順の制約が比較的強い言語ならではのアプローチである.\subsection{機械翻訳と何が違うのか?}\label{ssec:vsMT}\subsubsection{応用横断的技術としての言い換え}翻訳が異言語間の同義表現であるのに対し,言い換えは同一言語内の同義表現である.このことのおかげで,言い換え生成・認識技術は,単一言語を対象とするさまざまな言語処理アプリケーションへの利用が期待できる.別の言い方をすれば,言い換え技術は形態素・統語解析のような要素技術をさまざまな応用につながる応用横断的なミドルウェアであると考えてもよい.\ssec{for_machine}の例\refex{お名前}をもう一度考えよう.機械翻訳の前編集で「お名前を頂戴することはできますか」を「お名前をお願いしたいのですが」に言い換えることが有益なのは,翻訳システムが前者を正しく処理できず,後者を正しく処理できる場合である.しかし,この議論には少し誤魔化しがある.この議論が成り立つためには,言い換えシステムが「お名前を頂戴することはできますか」という文を正しく解析し,正しく言い換える能力を持っていなければならない.しかし,上で述べたように翻訳と言い換え生成は本質的には同じ問題を扱う技術なので,もし「お名前を頂戴することはできますか」の言い換えが技術的に可能なのであれば,その技術を翻訳システムに組み込んで,両方の入力を正しく翻訳するシステムを作ることも原理的には可能なはずである.逆に,翻訳システムにとって解析が困難な文は言い換えもやはり困難なはずであり,翻訳の問題の一部を前編集に移したとしても,問題の難しさは変わらない.それでも翻訳の前編集に言い換え技術を使う試みが合理的に見えるのは,複雑な既存の翻訳システムの中身を触らずに済むといった短期的な利益のためばかりでなく,この技術が広く応用横断的でだからである.翻訳という一つの応用技術から言い換えという応用横断技術を切り出す試みと言ってもよい.このように,言い換え技術が応用横断的であることは,従来の機械翻訳研究では見過ごされてきた重要な特徴である.これまでの言い換えの研究では,特定の応用/言語/言い換えを想定して知識が構築されてきた.しかし,今後は,知識やシステムのポータビリティを考慮し,\begin{itemize}\item言い換えのための知識をどのように整理し,分割し,記述しておけば応用横断的な再利用性が高くなるかを検討し,\itemその成果にもとづいて実際に言い換えの処理や知識を実現し,\itemそれらの部品を組み合わせて新しい用途に対応できる仕組みを作る\end{itemize}という努力を重ねる必要がある.\subsubsection{問題解決型タスクとしての言い換え}\label{sssec:problem_solving}言い換え生成では,言い換えるべき対象を選択しなければならないという問題もある.翻訳では,原文のすべての構成要素を目的言語に変換するという暗黙の前提があった\cite{verbmobil:00,EBMT:03}.一方,言い換えは,「なんらかの目的を満たす表現への変換」\cite{YamamotoKazuhide:01}であるため,「原文のどの部分を言い換えるべきか」を目的に照らして判断し,その部分だけを選択的に変換する必要がでてくる.たとえば,原文を平易な表現に言い換えて文章の読解を支援するといった用途の場合,原文のままでユーザが理解できる部分は言い換える必要がないし,むしろ言い換えない方がよい\cite{dras:99:a,inui:01:a,inui:03:a}.\sec{definition}で述べたように,言い換えは多くの場合原文の意味を厳密には保存できないため,不必要な言い換えは原文の情報を過度にねじまげてしまう恐れがあるからである.\citeauthor{dras:99:a}は,原文を言い換えるたびに,話し手が伝えたい情報や微妙なニュアンスなど原文のなんらかの情報がかならず損われるため,人間の書いたテキストを言い換える際は目的を満たす範囲で言い換えの程度を最小限に抑えるべきだと指摘している.そして,そのような言い換えを「外部から与えられた制約を満たすために仕方なくやる言い換え」という意味で``reluctantparaphrasing''と呼んでいる.これをもう少し一般化すると,言い換え生成は,「なんらかのテキストの評価基準が与えられたとき,原文から基準を満たさない言語表現を抽出し,満たす表現に言い換える」という問題解決型のタスクと見なせる.評価基準は言い換えの目的によって異なるだろう.読解支援の場合は「人間(外国人,子供,障害者,特定のユーザなど)にとってのテキストの読みやすさ」が基準になる\cite{carroll:98:a,canning:99:a,inui:01:a,higashinaka:02,inui:03:a}が,機械翻訳の前編集では「解析・翻訳の容易性」\cite{shirai:95:a,kato:97:a,yoshimi:00:b},音声合成(text-to-speechsysthesis)の前編集では「聴覚理解の容易性」ということになる.また,特定の語彙と構文を基準として与えると制限言語への言い換え\cite{mitamura:01}というタスクになり,書き言葉から話し言葉への変換\cite{kaji:04:c}などの応用例がある.以上から,言い換え生成技術は,次の2つの部分技術に集約できることがわかる.\begin{itemize}\item\emph{言い換え候補生成}与えられた言語表現に対して,言語的に適格な種々の言い換えを網羅的に生成する技術\item\emph{テキスト評価}与えられた評価基準に基づいてテキストを評価する技術\end{itemize}言い換え候補生成が通常の意味での機械翻訳にほぼ相当するとすれば,テキスト評価は言い換えになって初めて顕在化される問題であるといえる.\begin{figure}[t]\begin{center}\leavevmode\includegraphics*[scale=.4]{clip003.eps}\caption{言い換え候補生成とテキスト評価}\label{fig:gen-and-eval}\end{center}\end{figure}テキスト評価の必要性は,すでに何人もの研究者が指摘するところである.\citeA{YamamotoKazuhide:01}は,「対象特定」「仮説生成」「仮説選択」,\citeA{murata:01:c}は,「変換(transformation)」「評価(evaluation)」と呼んでいる.また,\citeA{mitamura:01}も制限言語への言い換えを「checking」「rewriting」に分けている.これらはいずれもほぼ同じ分け方と見てよい.両者の組み合わせ方にはいろいろ考えられる.最も単純には,次のような3段階のカスケード型のモデルが考えられる(\fig{gen-and-eval}).\begin{itemize}\item[1.]テキストを評価し,言い換えの対象を選択する\item[2.]選択された対象から可能な言い換えを網羅的に生成する\item[3.]生成された候補を評価し,最適解を出力する\end{itemize}もちろん,そのような単純な`generateandtest'方式に計算量的な問題がある場合は,評価基準に対する原文の「違反の仕方」に応じて言い換えの種類を絞り込むといった,いわば「言い換えプランニング」のような機構を検討してもよい.\citeA{dras:99:a}が試みたように,制約下での最適化問題として定式化する方向も考えられる.言語生成のセンテンスプランニングを制約充足問題として定式化した\citeA{beale:98}のアプローチも参考になると思われる.また,読解支援などの場合,評価基準にユーザの読解能力の個人差(ユーザモデル)を反映することができれば,ユーザに適応的な支援も可能になるだろう.いずれにせよ,テキスト評価と言い換え候補生成を切り離した設計は,テキストの評価基準を取り替えることによってさまざまな用途の違いを吸収でき,より汎用的な枠組みを提供することができる点で有利である.\subsection{言い換えの認識}\label{ssec:recognition}言い換えの認識は,質問応答や情報検索の中心的な部分問題の一つである\cite{shiraki:00:a,kurohashi:01,lin:01,ravichandran:02,sasaki:02,hermjakob:02,duclaye:03,moldovan:03,takahashi:03:c,takahashi:04:a}.\citeA{takahashi:04:a}は,NTCIRQACトラック\cite{fukumoto:02}で用いられた質問文と,人手で作成した質問の合計約400問とそれに対する解答文書の関係を分析している.それによると,質問と解答を結び付ける変換操作の約85\%が含意・前提条件などの推論を含む広義の言い換えと見なせる.また,複数文書要約では,イベント間の関係を把握したり冗長な要約を避けたりするために,異なる文書中で同じ内容を指す部分(類似部分)を同定する必要がある.\citeA{barzilay:99}は,TopicDetectionandTrackingコーパス\cite{allan:98}中の同じ内容を示す文の対200組を分析し,語彙・構文的言い換えによって約85\%の文対を結び付けることができると述べている.この文脈でも,言い換えの認識に関するいくつかの手法が提案されている\cite{mckeown:99,barzilay:99,ueda:00,narimatsu:02,barzilay:03:c}.言い換えの認識のアプローチは大きく2種類に分けられる.1つ目は,語彙・構文的変換の到達可能性を調べるアプローチで,与えられた2つの言語表現のうち,一方を語彙・構文的に言い換えて,他方に到達できるか否かを判別する.2つ目は,意味レベルの照合を明示的に扱うアプローチで,2つの言語表現の各々をピボット的な意味表現に変換し,それらが一致するか否かを判別する.以下,それぞれの代表的な研究を紹介する.\subsubsection{語彙・構文的変換に基づく言い換えの認識}語彙・構文的変換に基づく方法の例は\citeA{ueda:00}の複数文書要約アルゴリズムに見ることができる.彼らの方法では,複数の入力文書を依存構造の部分木の集合として表現し,その中から入力文書に共通に出現する部分木を取り出すことで複数文書要約を生成する.ただし,文書によっては同じ情報が別の表現で言語化されている可能性があるので,同義な(すなわち言い換えの関係にある)部分木どうしも共通の部分木として扱う必要がある.彼らが扱った言い換えは,\refex{ueda1}のような類義語,上位語への言い換え,および\refex{ueda2},\refex{ueda3}のような構文的な交替などである.\numexs{ueda1}{\item[s1.]\emph{ホウレンソウ}からダイオキシンが検出された.\item[s2.]\emph{白菜}からダイオキシンが検出された.\item[t.]\emph{野菜}からダイオキシンが検出された.}\numexs{ueda2}{\item[s.]軽量の携帯\emph{電話が}\emph{フーバー社によって}\emph{発売される}.\item[t.]\emph{フーバー社が}軽量の携帯\emph{電話を}\emph{発売する}.}\numexs{ueda3}{\item[s.]全角\emph{スペースが}シンタックス\emph{エラーを}\emph{起こす}.\item[t.]全角\emph{スペースで}シンタックス\emph{エラーが}\emph{起きる}.}彼らのアプローチは,\citeA{mckeown:99,barzilay:99}の手法と次の点で共通する.\begin{itemize}\item従来のbag-of-words的な手法に替えて部分構文構造を導入し,類似度をより正確に見積もる\cite{mckeown:99},\itemWordNet~\cite{WN:90}のsynsetや動詞のクラス\cite{levin:93}を用いて,部分構造間の同義性を判定する\cite{mckeown:99,barzilay:99},\item各種交替などの構文的な言い換えを規則として実装し,表現の多様性を吸収する\cite{barzilay:99}.\end{itemize}\citeauthor{ueda:00}は,語彙・構文的変換によって生成された部分木にペナルティを課すことで,変換によって生じる元文との情報のずれを考慮している.そして,変換によるペナルティと文書間での共通性から各部分木の重要度を計算し,上位数個の部分木を要約生成に用いている.このアルゴリズムは,入力となる$n$文の各々について可能なすべての言い換えを生成することで,複数の文書間で共通に出現し,かつ言い換え回数が少ない表現を効率良く選択している.こうした語彙・構文的変換に基づく方式では,入力表現の言い換え方が組み合わせ的な数に膨らむ可能性があるので,変換の種類に制限を加える,あるいは効率的な探索法を導入するといったなんらかの対策が必要になる.たとえば,\citeA{takahashi:03:c}は,質問応答の文脈で,山登り法探索を実現する枠組みを提案している.彼らのアルゴリズムでは,質問と解答候補文書の両方に言い換えを適用し,最も類似度が高い$\langle$質問,解答候補$\rangle$の組を優先して繰り返し言い換える.また,\citeauthor{ueda:00}のように,語彙・構文的変換にペナルティを課す場合はそれによって探索空間が抑えられる.\subsubsection{意味表現に基づく言い換えの認識}ある表現の含意や前提条件などの推論は,統語構造上よりも意味表現上で扱う方が,知識記述や変形操作の実現という点で都合が良い.しかし,意味表現に基づいて言い換えを認識するには,やはり意味表現の設計が問題になる.ここでは,質問応答の文脈でのアプローチをいくつか紹介する.\citeA{ravichandran:02}は,質問応答では多くの場合,質問に対して特有の表現パターンが解答になるということに着目している.たとえば,\refexs{ravi1}{a}と\refexs{ravi1}{b}は``Mozart''の誕生年を示す異なる表現だが,\refexs{ravi2}{a},\refexs{ravi2}{b}のように固有表現を抽象化すると,どちらも「ある人物の誕生年」に関する\refex{ravi3}のような意味表現に対する表現のパターンと見なすことができる.\numexs{ravi1}{\itemMozartwasbornin1756.\itemMozart(1756-1791)$\ldots$}\numexs{ravi2}{\item$\langle$\emph{name}$\rangle$wasbornin$\langle$\emph{birthdate}$\rangle$\item$\langle$\emph{name}$\rangle$($\langle$\emph{birthdate}$\rangle$-}\numex{ravi3}{\textsc{birthdate}~(\emph{name},\emph{birthdate})}彼らは,TREC2001~\cite{voorhees:01}における質問の分析によって上の誕生年に関する質問を含む6つの質問タイプを選択し,それぞれを表すような典型的な表現パターンをWebから自動収集している.質問に対する解答としては,単純に上のような表現パターン中の,質問対象の固有表現のスロットに対応する表現が出力される.たとえば,``WhenwasMozartborn?''という質問は,\refex{ravi3}の意味表現に対応付けられ,同時に$\langle$\emph{birthdate}$\rangle$が解答を示す固有表現スロットだと同定される.質問文中の固有表現``Mozart''を用いて検索した文書中に,\refexs{ravi1}{a}のような,\refex{ravi2}中の表現パターンに対応する表現が見つかれば,その文書と質問は\refex{ravi3}という意味表現において等価だと認識され,``1756''が解答として取り出される.\citeA{sasaki:02,moldovan:03}は,質問と解答候補文書を論理形式(LogicalForm)を意味表現とすることで,言い換えの関係にある文間の統語レベルの違いを捨象し,質問と解答候補文書の対応付けを可能にしている.\refexs{sasaki1}{\textsc{lf}}は,\citeauthor{sasaki:02}の質問応答システム,SAIQA-Isに\refexs{sasaki1}{q}という質問文を入力したときに得られる論理形式である.\numexs{sasaki1}{\item[q.]WhereisthecapicalcityofJapan?\item[\textsc{lf}.]\texttt{COUNTRY(Y1:'Japan'),R(Y1,Y2),'city'(Y2:'capitalcity'),\\LOCATION(Y3:Z);ORGANIZATION(Y3:Z),R(Y2,Y3)}}SAIQA-Isでは,さらに,解答が得られなかったときのみ``\emph{WorldCup}''{\ra}``\emph{W-Cup}''のような同義語レベルの言い換えを適用し,解答を再度探索する.一方,\citeauthor{moldovan:03}のシステム,LogicProverは,WordNet~\cite{WN:90}を用いて論理形式中の一部の語を同義語・上位語に置き換えるだけでなく,論理形式レベルで推論に関する書き換え処理を施して,質問と解答候補文書の照合を試みる.
\section{言い換え知識の獲得}
\label{sec:knowledge}言い換えの生成や認識を実用規模で実現するには,言い換えに関する知識を既存の資源から効率的に獲得する手段の開発が必須である.本節では,言い換え知識の獲得に関するこれまでの試みを翻訳や情報抽出のための知識獲得技術に照らして紹介する.\subsection{既存の語彙資源を言い換えに利用する}\label{ssec:existent}\subsubsection{シソーラスを使って同概念語に言い換える}言い換えに利用できる語彙資源と言うと,まず思い浮ぶのはシソーラスである.たとえば,WordNet~\cite{WN:90}\footnote{\uri{http://www.cogsci.princeton.edu/\~{}wn/}}やEDR日本語単語辞書\cite{EDR:95}\footnote{\uri{http://www2.crl.go.jp/kk/e416/EDR/J\_index.html}}には,非常に細かい意味分類に基づく単語間の同義関係が与えられているので,それを用いれば,入力中の単語を同義語に置換する語彙的言い換えを実現できるように思える.しかし,実際には同義語といえども意味や用法になんらかの差がある場合がほとんどで,無条件で置換できる語のペアは必ずしも多くない\cite{edmonds:99,fujita:01,lapata:01:b,pearce:01,okamoto:03:b,inkpen:03:b}.たとえば,「随所」と「各地」はEDR日本語単語辞書によると同概念に属する(同概念語)が厳密には意味が異なる.このため,互いに言い換え可能かどうかは,\refex{zuisho}のように,その差が周囲の文脈に照らして無視できるかどうかに依存する.\numexs{zuisho}{\item\emph{随所}({\ra}\emph{各地})でがれきの山が生まれ,火災も発生し,死傷者も多数,確認されている.\item片仮名交じりの文語体,しかも難解な言葉が\emph{随所}({\ra}{\badex}\emph{各地})にあり,法学専攻の学生をすら悩ます現行刑法の法文が現代用語に書き換えられる.}\subsubsection{語釈文に言い換える}国語辞典の語釈文は見出し語の言い換え表現と見なせるので,国語辞典から$\langle$見出し語,語釈文$\rangle$の対を取り出せば,そのまま大規模な語彙的言い換え知識として使える.たとえば,「廃材」は「いらなくなった木材(岩波国語辞典)」という語釈文を持つので,\refex{haizai}のような言い換えができる.\numexs{haizai}{\item[s.]がれきや\emph{廃材}の仮置き場\item[t.]がれきや\emph{いらなくなった木材}の仮置き場}しかし,いつも語釈文に置き換えるだけで正しい言い換えが作れるわけではない.たとえば,次の例\refexs{ainori}{s}の「相乗り(する)」を語釈文「乗り物に一緒に乗る」にそのまま置き換えようとすると,\refexs{ainori}{t1}のような不適格な文になってしまう.正しくは,原文中の「タクシーに」と語釈文中の「乗り物に」の重複を検出して,\refexs{ainori}{t2}のように「乗り物に」を削除する必要がある.\numexs{ainori}{\item[s.]タクシーに\emph{相乗りする}\item[t1.]{\badex}タクシーに\emph{\underline{乗り物に}一緒に乗る}\item[t2.]タクシーに\emph{一緒に乗る}}語釈文への言い換えでおこる上の問題に注目した\citeA{kurohashi:01,kaji:01}は,言い換え対象語の周囲の文脈と語釈文の要素と重なり(上の例では「タクシー」と「乗り物」)を自動的に検出し,重複をうまく取り除いた適格な言い換えを生成する手法を提案している.彼らのアプローチは,(a)国語辞典という既存の語彙資源を使うため,カバレッジの広い多様な語について語彙的言い換えを実現できる,(b)自然言語で書かれた語釈文を知識源とするので,知識の拡張・保守が容易であるなどの利点があり,大きな可能性を秘めている.\subsubsection{語釈文から言い換えを見つける}さらに,慣用表現など,内容語の特別な用法について,語釈文にヒントが隠されている場合がある.たとえば,岩波国語辞典\cite{RWC:98}の「はこぶ」の語釈文には,\refex{RWC:98:はこぶ}のように,慣用表現とそれに対応する表現の対が記述されている.ただし,こうした記述は網羅的なものではないため,この方法で十分なカバレージを確保することは難しい.また,運用の際には多義性も考慮する必要がある.\numex{RWC:98:はこぶ}{\emph{はこ‐ぶ【運ぶ】}〈1〉((五他))何かのために,ものを他の所に進め移す.〈ア〉物を持ったり車に積んだりして,他の場所まで動かす.「机を別の部屋に—」「恋人の所へせっせと金を—(=みつぐ)」\emph{「筆を—」(文章を書き進める)}\emph{「足を—」(行く.通う)}「ようこそお—・び(=おいで)くださいました」}\subsubsection{対訳辞書から言い換えを見つける}対訳辞書を利用するという手も考えられる.たとえば,日本語語彙大系\cite{NTT:97}の構文体系には\refex{NTT:97:surrender}のような記述があり,そこから\refexs{NTT:97:combi}{r}のような言い換え知識を獲得することができる.\numexs{NTT:97:surrender}{\itemN1(名詞のクラス:主体)がN2(名詞のクラス:主体)の軍門に下る\\{\lra}N1surrendertoN2\itemN1(名詞のクラス:主体)がN2(名詞のクラス:主体)に降伏する\\{\lra}N1surrendertoN2}\numexs{NTT:97:combi}{\item[r.]N1(名詞のクラス:主体)がN2(名詞のクラス:主体)の軍門に下る\\{\ra}N1がN2に降伏する.\item[s.]英国を含む\emph{欧州がヒトラーの軍門に下る}のを黙って見ているわけにはいかない.\item[t.]英国を含む\emph{欧州がヒトラーに降伏する}のを黙って見ているわけにはいかない.}\subsubsection{意味の同一性を考えて言い換えを獲得する}\label{sssec:distinction}より厳密に同義表現を獲得するためには,言い換え前後の表現対の共通の意味や意味の差を捉え,\ssec{equivalence}で述べたさまざまなレベルにおける同一性の問題に踏み込む必要がある.ここでは,最もプリミティブなレベル,すなわち類義語間の意味の差と捉えようとする試みをいくつか紹介する.\begin{figure}[t]\begin{center}\leavevmode\includegraphics*[scale=.4]{clip006.eps}\caption{語の指示的意味と言外の意味を示すクラスタモデル\cite[p.97]{edmonds:99}}\label{fig:cluster}\end{center}\end{figure}\citeA{edmonds:99}は,類義語(near-synonym)の意味を記述するオントロジを開発し,自然言語生成の語選択に用いている.\fig{cluster}では,類義語``brunder''と``error''の意味が,それらを含む語のクラスの指示的意味,および一部の言外の意味のリンクによって示されている.この図からは,この2語が,(i)非難の激しさの程度(criticism→severity),(ii)誤りがばかげているか否か(stupidity),(iii)具体性(concreteness),(iv)軽蔑的か否か(pejorative),という4つの点で異なっていることが分かる.語の意味を記述する意味素の粒度について,\citeauthor{edmonds:99}は,複数の言語を対象として上のような異なりを表現できているためある程度妥当であると評価している.意味記述に替わる語彙知識のリソースとして国語辞典の語釈文を用いた研究がいくつかある.\citeA{tsuchiya:00}は,国語辞典中の各語の語釈文を統語解析器を用いてグラフに変換し,MDS原理に基づいて,辞書全体にわたる部分グラフの抽象化および辞書の圧縮を施している.結果として得られる辞書からは,任意の2語$w_{1}$と$w_{2}$の共通の意味と個別の付加的意味を容易に取り出すことができる.\citeA{fujita:01}は,\citeauthor{tsuchiya:00}の手法を各々の$w_{1}$と$w_{2}$の対に対して適用し,語釈文間の重なりの大きさに基づいて言い換えの適格性を判定している.\refex{zuisho}の例では,「随所」の語釈が「限定されないどの場所にも.方々.」,「各所」の語釈が「ある範囲内のところどころ.」(いずれも角川類語新辞典\cite{kadokawa:81})と完全に異なる.\citeauthor{fujita:01}の手法では,語釈文の差分と文脈における制約を独立にしか捉えていないため,文脈に関わらず常に(例\refexs{zuisho}{a}の言い換えも)適格でないと判断されるという問題がある.\citeA{okamoto:03:b}は,ある語が持つ指示的意味とその語が文脈中の他の語句の選択に与える制約(語彙的制約)を語釈文から取り出している.具体的には,語釈文中のすべての内容語を,その意味クラスとコーパス中の共起頻度を用いて指示的意味,語彙的制約に分類している.彼らの手法では,語釈文の比較などを要さずに単語そのものを表現できるため,\citeA{edmonds:99}のモデルにおける知識獲得につながる可能性がある.しかし,\citeA{fujita:01,okamoto:03:b}の実験結果を見るかぎり,語釈文の情報を用いて同概念語間の可換性を判断するためには,かなり深い言語理解を必要とするように見える場合も多く,越えるべきハードルは高い.言外の意味(フォーマリティや親密度など)をいかにして獲得するか,という課題もある.この課題に対する試みとして\citeA{inkpen:03:b}の研究を紹介する.彼女はまず,\citeA{edmonds:99}のオントロジに基づいて,類義語の意味を表現するための知識を,指示的意味(denotation),姿勢・態度(attitude),スタイル(style)の3クラスの知識に分類・形式化している.それぞれの知識は次のような組で表現される.\medskip\begin{description}\item[指示的意味]$\langle$語,頻度(sometimes,usually,always),強さ(low,medium,high),指示の間接性(\textsc{suggestion},\textsc{implication},\textsc{denotation}),周辺的概念(不定形)$\rangle$\item[姿勢・態度]$\langle$語,頻度,強さ,姿勢・態度の種類(\textsc{favorable},\textsc{neutral},\textsc{pejorative})$\rangle$\item[スタイル]$\langle$語,強さ,スタイルの種類(\textsc{formality},\textsc{concreteness},\textsc{floridity}など)$\rangle$\end{description}\medskip\fig{cluster}で示されている言外の意味のうち,軽蔑的か否か(pejorative)は姿勢・態度の,具体性(concreteness)はスタイルの下位クラスとして定義されており,それぞれ種類の項の値となる.\citeauthor{inkpen:03:b}は次に,これらの知識を類義語の使い分け辞典から抽出する手法を提案している.この手法では,たとえば,\refexs{inkpen}{a}の文章から\refexs{inkpen}{b}に示す3つの語彙知識を獲得できる.\refexs{inkpen}{b}の1つ目は動詞``absorb''のスタイルに関する知識であり,残りは指示的意味に関する知識である.指示的意味における周辺的概念だけは不定形であり,\refexs{inkpen}{a}の文章中の句で表現される.\numexs{inkpen}{\item\textbf{Absorb}isslightlymoreinformalthantheothersandhas,perhaps,thewidestrangeofuses.Initsmostrestrictedsenseitsuggeststhetakinginorsoakingupspecificallyofliquids:theliquid\emph{absorbed}bythesponge.Inmoregeneraluses\emph{absorb}mayimplythethoroughnessoftheaction:notmerelytoreadthechapter,butto\emph{absorb}itsmeaning.\item\texttt{$\langle$absorb,low,\textsc{formality}$\rangle$\\$\langle$absorb,usually,medium,\textsc{suggestion},thetakinginofliquids$\rangle$\\$\langle$absorb,sometimes,medium,\textsc{implication},thethoroughnessoftheaction$\rangle$}}\subsection{パラレルコーパスから言い換え知識を獲得する}\label{sssec:extraction}機械翻訳では,対訳コーパスから翻訳知識を自動獲得する試みが多数報告されており\cite{meyers:98,watanabe:00,melamed:01,YamamotoKaoru:01:b,imamura:02},大規模なパラレルコーパスまたはコンパラブルコーパスがあれば,そこから翻訳知識を獲得できることがわかっている.一方,言い換えの場合,大量の言い換え事例の入手は翻訳の場合ほど容易でない.日本語の新聞記事や書籍,ホームページが英語や他の言語に翻訳されることはあっても,わざわざ「外国人日本語学習者にもわかる日本語」や「朗読して聴きとりやすい日本語」に言い換えられることはほとんどない.パラレル/コンパラブルコーパスを収集するためになんらかの工夫をするか,パラレルでないコーパスからの知識獲得を考える必要がでてくる.\subsubsection{同じ原文に対する複数の翻訳文を集める}同じ原文に対して複数の翻訳がある場合,それらは言い換えと見なすことができる.機械翻訳では,システムの評価方法として,1つの原文に対して例\refex{shirai2}のような複数の正解翻訳例を用意するのが一般的になってきており,そうした複数の翻訳例を含む対訳コーパスもいくつか整備されつつある\cite{shirai:01:c,shimohata:04:b}.\numexs{shirai2}{\item[J0]競技場は大勢の観客で\emph{膨れ上がった}.\item[J1]競技場は大勢の観客で\emph{身動きができなかった}.\item[E0]Theathleticfieldwasswampedwithspectators.}\cite{shirai:01:c}では,既存の対訳コーパスに対して多様な別訳を作る作業をどうやってうまく制御し効率化するかといった問題も検討されており,今後も研究者間で共有できる資源が増えるものと思われる.対訳コーパスからの翻訳知識獲得では,一対一の翻訳対を対象に句や節の対応を計算するという問題が一般的であった.一方,言い換えの場合は,互いに言い換え関係にある複数の表現を含む集合を用意することができるので,一般には3つ以上の要素間のアラインメントをとるという新しい問題が出てくる.もっとも単純なアプローチは,集合内の各要素対ごとにアラインメントをとる方法である.たとえば,\citeA{imamura:01}は,集合内の各言い換え対について構文木に基づく階層的アラインメントによって句や節レベルの言い換え対を獲得する方法を提案している.これに対し,\citeA{pang:03}の方法では,構文木に基づく複数単語列アラインメントによって3つ以上の言い換え間の対応関係を1つの単語ラティスで表現する(\sssec{representation}を参照).一方,既存の翻訳を集めてくるという手もある.\citeA{barzilay:01}は,『海底二万里\footnote{JulesVerne(1869).\emph{Vingtmillelieuessouslesmers/TwoThousandLeaguesUndertheSea}.}』のように同じ原著から何冊もの訳本がでている作品があることに着目し,そうした訳本から言い換え事例を大量に獲得しようと試みている.彼女らによると,複数の翻訳本から得られるパラレルコーパスはノイズが多く,また従来扱ってきた対訳コーパスに比べるときれいに言い換えの対応がとれる箇所は必ずしも多くない.さらに,獲得できた事例は\emph{King'sson}{\lra}\emph{sonoftheking}や\emph{countless}{\lra}\emph{lotsof}のような局所的な語句の言い換えが多く,\ssec{existent}で述べたような既存の資源から得られそうなものも少なくない.一方,\citeA{ohtake:03:b}が同様の実験を旅行対話に関する対訳コーパスで行ったところ,領域に特化した\refex{ohtake}のような言い換えが多数獲得できた.\numexs{ohtake}{\item[s.]それ以上は安くなりませんか.\item[t.]それが最終的な値段ですか.}機械翻訳の場合と同じように,パラレルコーパス→アラインメント→言い換え知識の獲得,というシナリオが現実的に描けるか,難しいとすればどのような工夫が必要かなど,興味深い問題が課題として残されている.\subsubsection{同じ物事に対する複数の説明文を集める}同じ事件を報道している複数の違った新聞社の記事をコンパラブルコーパスと見なせば,そこから言い換え表現を発見できる可能性がある.厳密なパラレルコーパスと違って,記事は日々生産されるので大規模なコーパスを入手できるという利点がある.ただし,各記事がまったく同じ情報を同じ順序で過不足なく伝えている保証はないため,文単位,句単位の順番で厳密にアラインメントをとるという従来の翻訳知識獲得の方法を単純に適用するわけにはいかない.\begin{figure}[t]\begin{center}\leavevmode\includegraphics*[scale=.4]{clip004.eps}\caption{コンパラブルな文の対からの言い換え対の抽出\cite{shinyama:03}}\label{fig:extraction}\end{center}\end{figure}この問題に対し,\citeA{shinyama:02,shinyama:03}の方法では,まず記事対応をとった後,出現単語の類似度に基づいて文対応を同定する.次に,句単位のアラインメントをとる代わりに,次の条件をより良く満たす依存構造の部分木の対だけを言い換え対として獲得する(\fig{extraction}).\begin{itemize}\item[(a)]各部分依存構造木の根は用言である.\item[(b)]対となる部分依存構造木が共通の固有表現を含んでいる.\item[(c)]各用言が要求する格が部分依存構造木に過不足なく含まれている.\end{itemize}一方,\citeA{barzilay:03:a}は,まずコーパスに含まれる各文を単語n-gramに基づく類似度でクラスタリングし,各クラスタ内に含まれる類似文から複数単語列アラインメントによって単語ラティス(\fig{lattice})を生成する.単語ラティスを見れば,クラスタ内の各類似文のどの箇所が共通でどの箇所が文ごとに異なるかが分かるので,共通部分を定型表現,それ以外を変数とする定型パターンが作れる.この方法を各新聞社の記事集合に適用し,\citeA{shinyama:03}と同様の方法で記事集合間の対応をとれば,定型パターン間の言い換え関係を同定できる可能性がある.句単位のアライメントがとれない場合に問題となるのは,与えられた文の対のどの部分を言い換え対として抽出すれば良いかの判断が難しいことである.たとえば,\fig{extraction}の例で言うと,右側の木に対応する言い換えは``havedied''を根とする左側の木の一部であって,``hasannounced''を根とする木全体でない.しかし,そうだと判断するに足る手がかりは,この文の対を見ているだけでは得られない.このとき,有用な手がかりとなるのは,言い換え関係に立つ表現の「表現らしさ」である.\citeA{shinyama:03}は,上の条件(c)を追加することによってこの「表現らしさ」を考慮しようとしている.また,\citeA{barzilay:03:a}が複数単語列アラインメントによって定型パターンを事前に収集したのも,そのねらいは同じである.\subsection{パラレルでないコーパスを使う}\subsubsection{文脈の類似性を測る}パラレルでないコーパス(ノンパラレルコーパス)から同義表現を獲得する場合に基本となるのは,\begin{quote}与えられた入力表現と(a)似た文脈で出現する表現,あるいは(b)内部構造が似ている表現がコーパス中に存在すれば,それは入力の言い換えである可能性が高い\end{quote}という仮定である.とくに,(a)の出現文脈の類似性に基づいて推定される言語表現の類似度は分布類似度(distributionalsimilarity)と呼ばれ,単語間の類似度の推定に効果的であることが知られている\cite{pereira:93,lin:98:a}.言い換えの獲得は同義語の獲得を一般化した問題と見なせるので,単語間の分布類似度の推定方法をうまく拡張すれば,より多様な構造の言い換えを獲得できる可能性がある.\begin{figure}[t]\begin{center}\leavevmode\includegraphics*[scale=.4]{clip005.eps}\caption{分布類似度に基づく部分依存構造木間の同義性の判定\cite{lin:01}}\label{fig:dirt}\end{center}\end{figure}代表的なのは\citeA{lin:01}の手法である.DIRTと呼ばれる彼らのアルゴリズムは,\cite{lin:98:a}で提案した単語間分布類似度の推定方法を一般化したもので,\fig{dirt}のような依存構造の部分木間の類似度を推定する.ここで対象とする部分木は,両端を名詞の変数スロットとする枝分かれなしのパスである.図の例のように,2つのパスの両端のスロット$X$,$Y$に現れる単語の分布が互いに十分に似ていれば,それらのパスは言い換えと同定される.また,\citeA{torisawa:02:a}の手法は,「アメリカの車」のような入力に対して「アメリカで生産する車」のような言い換えをコーパスから獲得する.二つの名詞(「アメリカ」と「車」)を出現文脈とし,与えられた文脈と確率的に良く共起する表現を選択する点は同じで,違うのは,共起の強さを測る方法と獲得の対象を動詞格構造(「で生産する」)に限定している点である.また,\cite{torisawa:02:b}では,同様の方法が\cite{kondo:99}と同様の動詞格構造間の言い換えにも適用できることが報告されている.コンパラブルコーパスに比べると,ノンパラレルコーパスははるかに容易に入手できるので,これと分布類似度の組み合わせは良い解決策であるように見える.ただし,分布類似度にも問題がある.まず,分布類似度を推定するには参照する文脈のスコープを固定する必要があるため,予め固定したパターンの言い換えしか獲得できないという制限がつきまとう.たとえば,\citeA{lin:01}の手法では,両端を名詞の変数スロットとする枝分かれなしのパスに対象が限定されており,3つ以上の変数スロットを持つ部分構文木を同時に扱うことはできない.分布類似度に基づく方法にはもう一つ,文脈の分布の偏りが大きい表現の言い換えしか獲得できないという欠点もある.たとえば,「$X$が$Y$を告訴する」の言い換えを同様の方法で獲得しようとしても,スロット$X$,$Y$に出現する人間や組織の間でなされる行為は「告訴」だけではないので,これだけの情報で正しい言い換えを選別するのは困難である.\subsubsection{内部構造の類似性を測る}内部構造の類似に基づく方法には次のような例がある.\citeA{kimura:01:a,tokunaga:03}の手法では,同義表現を探し出す手段として,漢字インデックスによる情報検索を利用する.同じ漢字をより多く共有する2つ名詞句は意味が似ている可能性が高い.漢字をインデックスとすることによって多様な表現の間の類似性が計算できるので,次のように単語の置換だけでは抽出できない言い換えも生成できる.\numexs{kanji-index1}{\item[s.]収益の減少\item[t.]減収減益}\numexs{kanji-index2}{\item[s.]倍額の増資\item[t.]出資額倍増}また,\citeA{terada:01}は,略語をもとの単語に復元する\refex{terada}のような言い換えをとりあげ,言い換えの候補を文脈に応じて候補選択するモデルを略語の多いコーパスと略語の少いコーパスから獲得する手法を提案している.\numexs{terada}{\item[s.]TWR\item[t.]tower/toward}彼らの手法では,文字ベースの類似性と単語が出現する文脈の類似性の両方を考慮して,略語と同義な単語をコーパス中から探す.入力と「似ている」表現をコーパスから探し出すという点で,やはり上述のアプローチと同様の方向性を持っている.\citeA{jacquemin:97,yoshikane:03}は,文書検索の文脈で,索引語(ここではとくに複合専門用語,multi-wordterm;MWT)の表現の多様性を吸収する言い換え規則を単言語コーパスから発見する手法を提案している.\numexs{Jac}{\item構文的変形:techniqueforperformingvolumetricmeasurements\\{\qquad\qquad\qquad}{\ra}measurementtechnique\item形態的変形:electrophoresedonaneutralpolyacrylamidegel{\ra}gelelectrophoresis}彼らの手法では,まず,専門用語辞書中の複合専門用語(以下,単に複合語)を種にして,その言い換えをコーパスから抽出する.ここでは,所与の複合語を構成する内容語がコーパス中で有意に共起しているパターンを,この複合語の言い換えパターンとして取り出す.次に,さまざまな複合語について得られた言い換えパターンを人手で類型化し,大きく6種類(\citeauthor{yoshikane:03}は7種類)の言い換え規則集合を作成している.両研究とも,作成した言い換え規則集合によって生成される複合語の言い換えがどれだけ正しいか,情報検索の精度向上にどれだけ寄与するかの2段階で評価している.\subsection{言い換えの適格性を判定するための知識}\label{ssec:correctness}言い換えた後の表現が言語的に適格か否かを判定する必要がある.言い換え生成はテキストの一部に関する操作であるため,適格性の判定も,文や文章全体の良さではなく,その操作を受けた部分と文脈がうまくあうかどうかだけを評価すればよさそうに思える.ただし,言い換えの言語的適格性に関わる要因には,形態素・構文レベルから意味レベル,談話レベルまで性質が異なるさまざまなものがあり,言い換えの種類によって共通性は見られるものの,その傾向は異なっている\cite{fujita:03:c}.これらをまとめて捉えるようなモデルは現状では存在しないので,それぞれの適格性に関わる要因を個別に捉えて整理・モデル化し,うまく融合させる必要がある.自然言語生成の分野では,近年,出力テキストの候補を複数生成し,最後にランキングして候補を1つに絞る方式が有力になってきた\cite{knight:95,langkilde:98,bangalore:00}.これにならったランキング方式のモデルの一例として,単語の共起の是非を判定する研究\cite{pearce:01,lapata:01:b,fujita:04:c}を取り上げる.例\refexs{zuisho}{b}では,「言葉が(法文の)\emph{各地}にある」という表現について,「法文の」と「各地」が共起しない(修飾関係にならない)ことがわかれば,適格ではないと判定できる.しかし,「随所」とは共起するが,同概念語の「各地」とは共起しないといった粒度の細かい共起制約を必要とするということは,「意味クラスに基づく共起データの抽象化」という常套手段が通用しないことを意味するので,問題は見た目ほど単純ではない.この共起の是非を判定するためには,厳密には個々の語に関する詳細な知識や共起に関する知識が必要になるが,個々の単語を区別する統計モデルを洗練するだけでも比較的良い成果をあげている.\citeA{pearce:01,lapata:01:b}は,WordNet~\cite{WN:90}を用いて名詞を修飾する形容詞を言い換えたときの単語の共起の是非を判定し,単語間の分布類似度が人間の判断と相関を持っていることを示した.一方,\citeA{fujita:04:c}は,態の交替や内容語の言い換えなど,さまざまな言い換えの際に頻繁に不適格になる,動詞とその名詞格要素の共起を対象としている.\citeauthor{fujita:04:c}は,大規模な生コーパスから得られる共起用例の分布クラスタリング\cite{pereira:93}によって単語間の潜在的な類似性を考慮するとともに,人手で収集した不適格な共起用例(負例)を組み合わせて,共起の適格性を判定するモデルを構築している.その他,言い換えの適格性判定の研究としては,談話構造や結束性を対象とした研究\cite{inui:01:c,nogami:02,siddharthan:03:a}がある.さらに,言語的適格性を超えたレベルでも評価が必要になる場合がある.言語生成の分野では,ユーザの知識に合わせて表現を変える\cite{cawsey:92}.語用論的効果を考慮する\cite{hovy:88}.丁寧さや性別などを考慮する\cite{kaneko:96,uchimoto:96}など,さまざまな試みが報告されている\cite{inui:99:b}.
\section{おわりに}
\label{sec:issues}本論文では,近年研究者間で関心が高まってきた言い換え技術について,最近の研究動向を紹介した.言い換え技術は言い換え生成と言い換え認識に大きく分けて考えることができる.言い換え生成は,ある言語表現を意味を保存しながら別の言語表現に変換する作業であり,機械翻訳の前編集や読解支援のための文章簡単化など,さまざまな応用に利用できる.変換の方式,曖昧性解消,言語生成,知識の表現方法と自動獲得など,個別の部分問題に関する限り,言い換え生成に必要な技術は機械翻訳技術と重なるところが大きい.一方,言い換え認識は,2つの異なる言語表現が言い換えかどうかを判別する作業であり,情報検索や質問応答,複数文書要約などの応用がある.この問題は,一方から言い換えを生成して他方に到達できるかを調べる問題と見なせるので,言い換え生成と裏表の関係にある.こうした技術は,これまで,それぞれの応用で別々に必要性が論じられ,個別に研究されてきた.しかし,それらの間には必要な技術や蓄積すべき言語知識に共通する部分も多い.今後はこれら個別の試みを統合し,応用横断的なミドルウェア技術に発展させていくことが重要である.最大の技術的関心は知識獲得である.言い換えのパラレルコーパスは,翻訳の場合よりさらに入手が難しいので,大規模なコンパラブルコーパスを収集するためになんらかの新しい工夫をするか,ノンパラレルコーパスから言い換え知識を獲得する方法を考える必要がある.コンパラブルコーパスの収集については,同じ事件を報道した複数の新聞記事を集める方法や,同じ原著に対する複数の翻訳を集める方法を紹介したが,ノイズの多いコンパラブルコーパス上で高精度な知識獲得を実現するには克服すべき課題も多い.一方,ノンパラレルコーパスからの知識獲得も,分布類似度に代表される従来の単語間類似度の推定手法を拡張・一般化する方向で発展してきたが,実際の応用に耐える実用規模の知識獲得に至った例はほとんどない.目指すべき方向性の一つは,コーパスから獲得した言い換え知識と既知の言い換え知識を組み合わせて知識の洗練をはかるアプローチであろう.これまでに報告された知識獲得の研究は,同義語の知識以外は既知の言い換え知識を仮定せず,スクラッチから言い換え知識を獲得しようとする試みがほとんどである.しかし,\ssec{ling_pov}で見た言語学的研究が示すように,我々はかなり多くの言い換えをすでに知っている.また,\citeA{asaoka:04,fujita:04:d}の試みに見られるように,規則化がある程度可能なタイプの言い換えも少なくない(\app{taxonomy}).安易にすべてを知識獲得技術に頼るのではなく,まずはこうした人手による管理が可能な言い換え知識を収集・蓄積し,コーパスからの知識獲得に積極的に活用する姿勢が必要なように思われる.そのためにはまず,言い換えにはどのような種類があるのか,どのタイプの言い換えの知識を人手で書くのが合理的なのか,自動獲得に頼るべき言い換え知識はどのようなものかを明らかにしていく必要がある.言い換え技術をさらに発展させるためには,多様な言い換え現象を包括的に調査・分類し,それに基づいて言い換えコーパスや言い換え知識などの言語資源を共有可能な形に設計・蓄積する努力が必要である.しかし,言い換えが言語表現の同義性に立脚する概念である以上,これに厳密な定義や分類を与えるには,意味とは何か,意味が同じとはどういうことかといった深い意味論の問題に立ち入らなければならない.本論文では,語彙・構文的言い換え,参照的言い換え,語用論的言い換えを混同すべきでないことに言及したが,これは議論の出発点の一つに過ぎない.こうした意味に深く根ざす問題にどうやって工学的にアプローチするか.統計的言語処理技術がある程度成熟を見た今,再度じっくり議論してよいテーマである.言い換え技術が現在の言語処理技術をより深い意味処理に一歩近づけるための良い例題になると期待したい.\section*{謝辞}本論文に対する,佐藤理史氏(京都大学),山本和英氏(長岡技術科学大学),難波英嗣氏(広島市立大学),高橋哲朗氏(奈良先端科学技術大学院大学)の有益なコメントに感謝する.\bibliographystyle{jnlpbbl}\newcommand{\noopsort}[1]{}\begin{thebibliography}{}\bibitem[\protect\BCAY{Abeille,Schabes,\BBA\Joshi}{Abeilleet~al.}{1990}]{abeille:90}Abeille,A.,Schabes,Y.,\BBA\Joshi,A.~K.\BBOP1990\BBCP.\newblock\BBOQUsinglexicalized{TAG}sformachinetranslation\BBCQ\\newblockIn{\BemProceedingsofthe13thInternationalConferenceonComputationalLinguistics{\rm(}COLING\/{\rm)},Vol.3},\BPGS\1--6.\bibitem[\protect\BCAY{安達}{安達}{1992}]{adachi:92:a}安達久博\BBOP1992\BBCP.\newblock\JBOQ手話通訳のためのニュース文の話しコトバへの変換処理\JBCQ\\newblock\Jem{電子情報通信学会技術研究報告,NLC92-47}.\bibitem[\protect\BCAY{Allan,Carbonell,Doddington,Yamron,\BBA\Yang}{Allanet~al.}{1998}]{allan:98}Allan,J.,Carbonell,J.,Doddington,G.,Yamron,J.,\BBA\Yang,Y.\BBOP1998\BBCP.\newblock\BBOQTopicdetectionandtrackingpilotstudy:finalreport\BBCQ\\newblockIn{\BemProceedingsoftheBroadcastNewsUnderstandingandTranscriptionWorkshop},\BPGS\194--218.\bibitem[\protect\BCAY{Anick\BBA\Tipirneni}{Anick\BBA\Tipirneni}{1999}]{anick:99:a}Anick,P.~G.\,\BBA\Tipirneni,S.\BBOP1999\BBCP.\newblock\BBOQTheparaphrasesearchassistant:terminologicalfeedbackforiterativeinformationseeking\BBCQ\\newblockIn{\BemProceedingsofthe22ndAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval{\rm(}SIGIR\/{\rm)}WorkshoponCustomisedInformationDelivery},\BPGS\153--159.\bibitem[\protect\BCAY{麻岡,佐藤,宇津呂}{麻岡\Jetal}{2004}]{asaoka:04}麻岡正洋,佐藤理史,宇津呂武仁\BBOP2004\BBCP.\newblock\JBOQ語構成を利用した言い換え表現の自動生成\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\BPGS\488--491.\bibitem[\protect\BCAY{Bangalore\BBA\Ranbow}{Bangalore\BBA\Ranbow}{2000}]{bangalore:00}Bangalore,S.\,\BBA\Ranbow,O.\BBOP2000\BBCP.\newblock\BBOQCorpus-basedlexicalchoiceinnaturallanguagegeneration\BBCQ\\newblockIn{\BemProceedingsofthe38thAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\464--471.\bibitem[\protect\BCAY{Barzilay,McKeown,\BBA\Elhadad}{Barzilayet~al.}{1999}]{barzilay:99}Barzilay,R.,McKeown,K.~R.,\BBA\Elhadad,M.\BBOP1999\BBCP.\newblock\BBOQInformationfusioninthecontextofmulti-documentsummarization\BBCQ\\newblockIn{\BemProceedingsofthe37thAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\550--557.\bibitem[\protect\BCAY{Barzilay\BBA\McKeown}{Barzilay\BBA\McKeown}{2001}]{barzilay:01}Barzilay,R.\,\BBA\McKeown,K.~R.\BBOP2001\BBCP.\newblock\BBOQExtractingparaphrasesfromaparallelcorpus\BBCQ\\newblockIn{\BemProceedingsofthe39thAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\50--57.\bibitem[\protect\BCAY{Barzilay\BBA\Lee}{Barzilay\BBA\Lee}{2002}]{barzilay:02}Barzilay,R.\,\BBA\Lee,L.\BBOP2002\BBCP.\newblock\BBOQBootstrappinglexicalchoiceviamultiple-sequencealignment\BBCQ\\newblockIn{\BemProceedingsofthe2002ConferenceonEmpiricalMethodsinNaturalLanguageProcessing{\rm(}EMNLP\/{\rm)}},\BPGS\164--171.\bibitem[\protect\BCAY{Barzilay\BBA\Lee}{Barzilay\BBA\Lee}{2003}]{barzilay:03:a}Barzilay,R.\,\BBA\Lee,L.\BBOP2003\BBCP.\newblock\BBOQLearningtoparaphrase:anunsupervisedapproachusingmultiple-sequencealignment\BBCQ\\newblockIn{\BemProceedingsofthe2003HumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics{\rm(}HLT-NAACL\/{\rm)}},\BPGS\16--23.\bibitem[\protect\BCAY{Barzilay}{Barzilay}{2003}]{barzilay:03:c}Barzilay,R.\BBOP2003\BBCP.\newblock{\BemInformationfusionformultidocumentsummarization:paraphrasingandgeneration}.\newblockPh.D.\thesis,ColumbiaUniversity.\bibitem[\protect\BCAY{Beale,Nirenburg,Viegas,\BBA\Wanner}{Bealeet~al.}{1998}]{beale:98}Beale,S.,Nirenburg,S.,Viegas,E.,\BBA\Wanner,L.\BBOP1998\BBCP.\newblock\BBOQDe-constrainingtextgeneration\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalWorkshoponNaturalLanguageGeneration{\rm(}INLG\/{\rm)}},\BPGS\48--57.\bibitem[\protect\BCAY{Brun\BBA\Hag\`{e}ge}{Brun\BBA\Hag\`{e}ge}{2003}]{brun:03}Brun,C.\,\BBA\Hag\`{e}ge,C.\BBOP2003\BBCP.\newblock\BBOQNormalizationandparaphrasingusingsymbolicmethods\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications{\rm(}IWP\/{\rm)}},\BPGS\41--48.\bibitem[\protect\BCAY{Canning\BBA\Tait}{Canning\BBA\Tait}{1999}]{canning:99:a}Canning,Y.\,\BBA\Tait,J.\BBOP1999\BBCP.\newblock\BBOQSyntacticsimplificationofnewspapertextforaphasicreaders\BBCQ\\newblockIn{\BemProceedingsofthe22ndAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval{\rm(}SIGIR\/{\rm)}WorkshoponCustomisedInformationDelivery},\BPGS\6--11.\bibitem[\protect\BCAY{Carl\BBA\Way}{Carl\BBA\Way}{2003}]{EBMT:03}Carl,M.\,\BBA\Way,A.\BEDS\\BBOP2003\BBCP.\newblock{\BemRecentadvancesinexample-basedmachinetranslation}.\newblockKluwerAcademicPublishers.\bibitem[\protect\BCAY{Carroll,Minnen,Canning,Devlin,\BBA\Tait}{Carrollet~al.}{1998}]{carroll:98:a}Carroll,J.,Minnen,G.,Canning,Y.,Devlin,S.,\BBA\Tait,J.\BBOP1998\BBCP.\newblock\BBOQPracticalsimplificationofEnglishnewspapertexttoassistaphasicreaders\BBCQ\\newblockIn{\BemProceedingsofthe15thNationalConferenceonArtificialIntelligenceand10thConferenceonInnovativeApplicationsofArtificialIntelligence{\rm(}AAAI-IAAI\/{\rm)}WorkshoponIntegratingArtificialIntelligenceandAssistiveTechnology}.\bibitem[\protect\BCAY{Cawsey}{Cawsey}{1992}]{cawsey:92}Cawsey,A.\BBOP1992\BBCP.\newblock{\BemExplanationandinteraction}.\newblockTheMITPress.\bibitem[\protect\BCAY{Chandrasekar,Doran,\BBA\Srinivas}{Chandrasekaret~al.}{1996}]{chandrasekar:96:a}Chandrasekar,R.,Doran,C.,\BBA\Srinivas,B.\BBOP1996\BBCP.\newblock\BBOQMotivationsandmethodsfortextsimplification\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalConferenceonComputationalLinguistics{\rm(}COLING\/{\rm)}},\BPGS\1041--1044.\bibitem[\protect\BCAY{Clark}{Clark}{1992}]{clark:92}Clark,E.~V.\BBOP1992\BBCP.\newblock\BBOQConventionalityandcontrast:pragmaticprincipleswithlexicalconsequences\BBCQ\\newblockIn{\BemKittayandLehrer{\rm(}Eds.{\rm)},Frames,fields,andcontrasts:Newessaysinsemanticandlexicalorganization},\BPGS\171--188.LawrenceErlbaumAssociates.\bibitem[\protect\BCAY{Dras}{Dras}{1999}]{dras:99:a}Dras,M.\BBOP1999\BBCP.\newblock{\BemTreeadjoininggrammarandthereluctantparaphrasingoftext}.\newblockPh.D.\thesis,DepartmentofComputing,MacquarieUniversity.\bibitem[\protect\BCAY{Duclaye,Yvon,\BBA\Collin}{Duclayeet~al.}{2003}]{duclaye:03}Duclaye,F.,Yvon,F.,\BBA\Collin,O.\BBOP2003\BBCP.\newblock\BBOQLearningparaphrasestoimproveaquestion-answeringsystem\BBCQ\\newblockIn{\BemProceedingsofthe10thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics{\rm(}EACL\/{\rm)}WorkshoponNaturalLanguageProcessingforQuestion-Answering},\BPGS\35--41.\bibitem[\protect\BCAY{Edmonds}{Edmonds}{1999}]{edmonds:99}Edmonds,P.\BBOP1999\BBCP.\newblock{\BemSemanticrepresentationsofnear-synonymsforautomaticlexicalchoice}.\newblockPh.D.\thesis,CSRI-399,DepartmentofComputerScience,UniversityofToronto.\bibitem[\protect\BCAY{江原,福島,和田,白井}{江原\Jetal}{2000}]{ehara:00}江原暉将,福島孝博,和田裕二,白井克彦\BBOP2000\BBCP.\newblock\JBOQ聴覚障害者向け字幕放送のためのニュース文自動短文分割\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-138-3},\BPGS\17--22.\bibitem[\protect\BCAY{藤田乾}{藤田\JBA乾}{2001}]{fujita:01}藤田篤,乾健太郎\BBOP2001\BBCP.\newblock\JBOQ語釈文を利用した普通名詞の同概念語への言い換え\JBCQ\\newblock\Jem{言語処理学会第7回年次大会発表論文集},\BPGS\331--334.\bibitem[\protect\BCAY{藤田乾}{藤田\JBA乾}{2003}]{fujita:03:c}藤田篤,乾健太郎\BBOP2003\BBCP.\newblock\JBOQ語彙・構文的言い換えにおける変換誤りの分析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf44}(11),\BPGS\2826--2838.\bibitem[\protect\BCAY{藤田,乾,松本}{藤田\Jetal}{2004}]{fujita:04:c}藤田篤,乾健太郎,松本裕治\BBOP2004\BBCP.\newblock\JBOQ自動生成された言い換え文における不適格な動詞格構造の検出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf45}(4),\BPGS\1176--1187.\bibitem[\protect\BCAY{Fujita,Furihata,Inui,Matsumoto,\BBA\Takeuchi}{Fujitaet~al.}{2004}]{fujita:04:d}Fujita,A.,Furihata,K.,Inui,K.,Matsumoto,Y.,\BBA\Takeuchi,K.\BBOP2004\BBCP.\newblock\BBOQParaphrasingof{J}apaneselight-verbconstructionsbasedonlexicalconceptualstructure\BBCQ\\newblockIn{\BemProceedingsofthe42thAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}WorkshoponMultiwordExpressions:IntegratingProcessing},\BPGS\9--16.\bibitem[\protect\BCAY{Fukumoto,Kato,\BBA\Masui}{Fukumotoet~al.}{2002}]{fukumoto:02}Fukumoto,J.,Kato,T.,\BBA\Masui,F.\BBOP2002\BBCP.\newblock\BBOQQuestionansweringchallenge({QAC}):questionansweringevaluationat{NTCIR}workshop3\BBCQ\\newblockIn{\BemWorkingNotesofthe3rdNTCIRWorkshopMeeting:QAC1},\BPGS\1--10.\bibitem[\protect\BCAY{福島,江原,白井}{福島\Jetal}{1999}]{fukushima:99}福島孝博,江原暉将,白井克彦\BBOP1999\BBCP.\newblock\JBOQ短文分割の自動要約への効果\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(6),\BPGS\131--147.\bibitem[\protect\BCAY{Halliday}{Halliday}{1994}]{halliday:94}Halliday,M.A.~K.\BBOP1994\BBCP.\newblock{\BemAnintroductiontofunctionalgrammar(secondedition)}.\newblockEdwardArnold.\bibitem[\protect\BCAY{Harris}{Harris}{1981}]{harris:81}Harris,Z.\BBOP1981\BBCP.\newblock\BBOQCo-occurrenceandtransformationinlinguisticstructure\BBCQ\\newblockIn{\BemHiz{\rm(}Ed.{\rm)}PapersonSyntax},\BPGS\143--210.D.ReidelPublishingCompany.\bibitem[\protect\BCAY{林菊井}{林\JBA菊井}{1991}]{hayashi:91}林良彦,菊井玄一郎\BBOP1991\BBCP.\newblock\JBOQ日本文推敲支援システムにおける書換え支援機能の実現方式\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf32}(8),\BPGS\962--970.\bibitem[\protect\BCAY{Hermjakob,Echibahi,\BBA\Marcu}{Hermjakobet~al.}{2002}]{hermjakob:02}Hermjakob,U.,Echibahi,A.,\BBA\Marcu,D.\BBOP2002\BBCP.\newblock\BBOQNaturallanguagebasedreformulationresourceandwebexploitationforquestionanswering\BBCQ\\newblockIn{\BemProceedingsofthe11thTextRetrievalConference{\rm(}TREC2002\/{\rm)}}.\bibitem[\protect\BCAY{日笠,藤井,黒橋}{日笠\Jetal}{1999}]{hikasa:99:a}日笠亘,藤井綱貴,黒橋禎夫\BBOP1999\BBCP.\newblock\JBOQ入力質問と知識表現の柔軟なマッチングによる対話的ヘルプシステムの構築\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-134-14},\BPGS\101--108.\bibitem[\protect\BCAY{Higashinaka\BBA\Nagao}{Higashinaka\BBA\Nagao}{2002}]{higashinaka:02}Higashinaka,R.\,\BBA\Nagao,K.\BBOP2002\BBCP.\newblock\BBOQInteractiveparaphrasingbasedonlinguisticannotation\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonComputationalLinguistics{\rm(}COLING\/{\rm)}},\BPGS\1218--1222.\bibitem[\protect\BCAY{平田,日笠,藤井,黒橋}{平田\Jetal}{2000}]{hirata:00:a}平田大志,日笠亘,藤井綱貴,黒橋禎夫\BBOP2000\BBCP.\newblock\JBOQ図書館の自動リファレンス・サービス・システムの構築\JBCQ\\newblock\Jem{言語処理学会第6回年次大会発表論文集},\BPGS\463--466.\bibitem[\protect\BCAY{Hovy}{Hovy}{1988}]{hovy:88}Hovy,E.~H.\BBOP1988\BBCP.\newblock{\BemGeneratingnaturallanguageunderpragmaticconstraints}.\newblockLawrenceErlbaumAssociates.\bibitem[\protect\BCAY{Huang\BBA\Fiedler}{Huang\BBA\Fiedler}{1996}]{huang:96}Huang,X.\,\BBA\Fiedler,A.\BBOP1996\BBCP.\newblock\BBOQParaphrasingandaggregatingargumentativetextusingtextstructure\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalWorkshoponNaturalLanguageGeneration{\rm(}INLG\/{\rm)}},\BPGS\21--30.\bibitem[\protect\BCAY{飯田,徳永,乾,衛藤}{飯田\Jetal}{2001}]{iida:01}飯田龍,徳永泰浩,乾健太郎,衛藤純司\BBOP2001\BBCP.\newblock\JBOQ言い換えエンジン\textsc{Kura}を用いた節内構造および機能語相当表現レベルの言い換え\JBCQ\\newblock\Jem{第63回情報処理学会全国大会予稿集第二分冊},\BPGS\5--6.\bibitem[\protect\BCAY{池田,大橋,山本}{池田\Jetal}{2004}]{ikeda:04}池田諭史,大橋一輝,山本和英\BBOP2004\BBCP.\newblock\JBOQ「新幹線要約」のための文末の整形\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-163-22}.\bibitem[\protect\BCAY{池原,宮崎,白井,横尾,中岩,小倉,大山,林}{池原\Jetal}{1997}]{NTT:97}池原悟,宮崎正弘,白井諭,横尾昭男,中岩浩巳,小倉健太郎,大山芳史,林良彦\JEDS\\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系:CD-ROM版}.\newblock岩波書店.\bibitem[\protect\BCAY{今村,秋葉,隅田}{今村\Jetal}{2001}]{imamura:01}今村賢治,秋葉泰弘,隅田英一郎\BBOP2001\BBCP.\newblock\JBOQ階層的句アライメントを用いた日本語翻訳文の換言\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集},\BPGS\15--20.\bibitem[\protect\BCAY{今村}{今村}{2002}]{imamura:02}今村賢治\BBOP2002\BBCP.\newblock\JBOQ構文解析と融合した階層的句アライメント\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(5),\BPGS\23--42.\bibitem[\protect\BCAY{Inkpen}{Inkpen}{2003}]{inkpen:03:b}Inkpen,D.~Z.\BBOP2003\BBCP.\newblock{\BemBuildingalexicalknowledge-baseofnear-synonymdifferences}.\newblockPh.D.\thesis,DepartmentofComputerScience,UniversityofToronto.\bibitem[\protect\BCAY{乾,山本,野上,藤田,乾}{乾\Jetal}{1999}]{inui:99:a}乾健太郎,山本聡美,野上優,藤田篤,乾裕子\BBOP1999\BBCP.\newblock\JBOQ聾者向け文章読解支援における構文的言い換えの効果について\JBCQ\\newblock\Jem{電子情報通信学会技術研究報告,WIT1999-2},\BPGS\9--14.\bibitem[\protect\BCAY{乾}{乾}{1999}]{inui:99:b}乾健太郎\BBOP1999\BBCP.\newblock\JBOQ文章生成\JBCQ\\newblock\Jem{自然言語処理---基礎と応用---},\BPGS\116--158.電子情報通信学会.\bibitem[\protect\BCAY{乾}{乾}{2001}]{inui:01:a}乾健太郎\BBOP2001\BBCP.\newblock\JBOQコミュニケーション支援のための言い換え\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集},\BPGS\71--76.\bibitem[\protect\BCAY{Inui\BBA\Nogami}{Inui\BBA\Nogami}{2001}]{inui:01:c}Inui,K.\,\BBA\Nogami,M.\BBOP2001\BBCP.\newblock\BBOQAparaphrase-basedexplorationofcohesivenesscriteria\BBCQ\\newblockIn{\BemProceedingsofthe8thEuropeanWorkshoponNatulalLanguageGeneration{\rm(}EWNLG\/{\rm)}},\BPGS\101--110.\bibitem[\protect\BCAY{Inui\BBA\Hermjekob}{Inui\BBA\Hermjekob}{2003}]{IWP:03}Inui,K.\,\BBA\Hermjekob,U.\BEDS\\BBOP2003\BBCP.\newblock{\BemThe2ndInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications{\rm(}IWP\/{\rm)}}.\newblockACL-2003Workshop.\bibitem[\protect\BCAY{Inui,Fujita,Takahashi,Iida,\BBA\Iwakura}{Inuiet~al.}{2003}]{inui:03:a}Inui,K.,Fujita,A.,Takahashi,T.,Iida,R.,\BBA\Iwakura,T.\BBOP2003\BBCP.\newblock\BBOQTextsimplificationforreadingassistance:aprojectnote\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications{\rm(}IWP\/{\rm)}},\BPGS\9--16.\bibitem[\protect\BCAY{Iordanskaja,Kittredge,\BBA\Polgu\`{e}re}{Iordanskajaet~al.}{1991}]{iordanskaja:91}Iordanskaja,L.,Kittredge,R.,\BBA\Polgu\`{e}re,A.\BBOP1991\BBCP.\newblock\BBOQLexicalselectionandparaphraseinameaning-textgenerationmodel\BBCQ\\newblockIn{\BemParisetal.{\rm(}Eds.{\rm)}NaturalLanguageGenerationinArtificialIntelligenceandComputationalLinguistics},\BPGS\293--312.KluwerAcademicPublishers.\bibitem[\protect\BCAY{Iordanskaja,Kim,\BBA\Polgu\`{e}re}{Iordanskajaet~al.}{1996}]{iordanskaja:96}Iordanskaja,L.,Kim,M.,\BBA\Polgu\`{e}re,A.\BBOP1996\BBCP.\newblock\BBOQSomeproceduralproblemsintheimplementationoflexicalfunctionsfortextgeneration\BBCQ\\newblockIn{\BemWanner{\rm(}Ed.{\rm)}LexicalFunctionsinLexicographyandNaturalLanguageProcessing},\BPGS\279--297.JohnBenjaminPublishingCompany.\bibitem[\protect\BCAY{Jacquemin,Klavans,\BBA\Tzoukermann}{Jacqueminet~al.}{1997}]{jacquemin:97}Jacquemin,C.,Klavans,J.~L.,\BBA\Tzoukermann,E.\BBOP1997\BBCP.\newblock\BBOQExpansionofmulti-wordtermsforindexingandretrievalusingmorphologyandsyntax\BBCQ\\newblockIn{\BemProceedingsofthe35thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe8thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics{\rm(}ACL-EACL\/{\rm)}},\BPGS\24--31.\bibitem[\protect\BCAY{Kageura,Yoshikane,\BBA\Nozawa}{Kageuraet~al.}{2004}]{kageura:04:b}Kageura,K.,Yoshikane,F.,\BBA\Nozawa,T.\BBOP2004\BBCP.\newblock\BBOQParallelbilingualparaphraserulefornouncompounds:conceptsandrulesforexploringweblanguageresources\BBCQ\\newblockIn{\BemProceedingsofthe4thWorkshoponAsianLanguageResources{\rm(}ALR\/{\rm)}},\BPGS\54--61.\bibitem[\protect\BCAY{影山}{影山}{2001}]{kageyama:01}影山太郎\JED\\BBOP2001\BBCP.\newblock\Jem{日英対照動詞の意味と構文}.\newblock大修館書店.\bibitem[\protect\BCAY{鍜治,黒橋,佐藤}{鍜治\Jetal}{2001}]{kaji:01}鍜治伸裕,黒橋禎夫,佐藤理史\BBOP2001\BBCP.\newblock\JBOQ国語辞典に基づく平易文へのパラフレーズ\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-144-23},\BPGS\167--174.\bibitem[\protect\BCAY{鍜治,河原,黒橋,佐藤}{鍜治\Jetal}{2003}]{kaji:03:b}鍜治伸裕,河原大輔,黒橋禎夫,佐藤理史\BBOP2003\BBCP.\newblock\JBOQ格フレームの対応付けに基づく用言の言い換え\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(4),\BPGS\65--81.\bibitem[\protect\BCAY{鍜治黒橋}{鍜治\JBA黒橋}{2004}]{kaji:04:a}鍜治伸裕,黒橋禎夫\BBOP2004\BBCP.\newblock\JBOQ迂言表現と重複表現の認識と言い換え\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(1),\BPGS\81--106.\bibitem[\protect\BCAY{Kaji,Okamoto,\BBA\Kurohashi}{Kajiet~al.}{2004}]{kaji:04:c}Kaji,N.,Okamoto,M.,\BBA\Kurohashi,S.\BBOP2004\BBCP.\newblock\BBOQParaphrasingpredicatesfromwrittenlanguagetospokenlanguageusingthe{W}eb\BBCQ\\newblockIn{\BemProceedingsofthe2004HumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics{\rm(}HLT-NAACL\/{\rm)}}.\bibitem[\protect\BCAY{Kanayama}{Kanayama}{2003}]{kanayama:03}Kanayama,H.\BBOP2003\BBCP.\newblock\BBOQParaphrasingrulesforautomaticevaluationoftranslationinto{J}apanese\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications{\rm(}IWP\/{\rm)}},\BPGS\88--93.\bibitem[\protect\BCAY{金子,八木沢,藤田}{金子\Jetal}{1996}]{kaneko:96}金子和恵,八木沢津義,藤田稔\BBOP1996\BBCP.\newblock\JBOQ話し手の性別・年齢を反映する文生成システム\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-116-19},\BPGS\129--136.\bibitem[\protect\BCAY{片岡,増山,山本}{片岡\Jetal}{2000}]{kataoka:00}片岡明,増山繁,山本和英\BBOP2000\BBCP.\newblock\JBOQ動詞型連体修飾表現の{"N1のN2"}への言い換え\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(4),\BPGS\79--98.\bibitem[\protect\BCAY{加藤,小川,佐良木}{加藤\Jetal}{1997}]{kato:97:a}加藤輝政,小川清,佐良木昌\BBOP1997\BBCP.\newblock\JBOQ英語構文の構文解析と編集、その論理と方法\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-120-10},\BPGS\65--70.\bibitem[\protect\BCAY{川村}{川村}{2000}]{kawamura:00}川村珠巨\BBOP2000\BBCP.\newblock\JBOQ言語生成プロセスの一視点---命題を言い換えるというコミュニケーション方略について---\JBCQ\\newblock\Jem{大阪府立工業高等専門学校研究紀要,Vol.34},\BPGS\77--82.\bibitem[\protect\BCAY{金江原}{金\JBA江原}{1994}]{kim:94:a}金淵培,江原暉将\BBOP1994\BBCP.\newblock\JBOQ日英機械翻訳のための日本語長文自動短文分割と主語の補完\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf35}(6),\BPGS\1018--1028.\bibitem[\protect\BCAY{木村,徳永,田中}{木村\Jetal}{2001}]{kimura:01:a}木村健司,徳永健伸,田中穂積\BBOP2001\BBCP.\newblock\JBOQ漢字インデックスを利用したパラフレーズの抽出\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-146-7},\BPGS\39--45.\bibitem[\protect\BCAY{木村,徳永,田中}{木村\Jetal}{2002}]{kimura:02}木村健司,徳永健伸,田中穂積\BBOP2002\BBCP.\newblock\JBOQ日本語名詞句に対するパラフレーズ事例の自動抽出に関する研究\JBCQ\\newblock\Jem{言語処理学会第8回年次大会発表論文集},\BPGS\327--330.\bibitem[\protect\BCAY{金水,工藤,沼田}{金水\Jetal}{2000}]{kinsui:00}金水敏,工藤真由美,沼田善子\BBOP2000\BBCP.\newblock\Jem{時・否定と取り立て}.\newblock岩波書店.\bibitem[\protect\BCAY{Knight\BBA\Chander}{Knight\BBA\Chander}{1994}]{knight:94:a}Knight,K.\,\BBA\Chander,I.\BBOP1994\BBCP.\newblock\BBOQAutomatedposteditingofdocuments\BBCQ\\newblockIn{\BemProceedingsofthe12thNationalConferenceonArtificialIntelligence{\rm(}AAAI\/{\rm)}},\BPGS\779--784.\bibitem[\protect\BCAY{Knight\BBA\Hatzivassiloglou}{Knight\BBA\Hatzivassiloglou}{1995}]{knight:95}Knight,K.\,\BBA\Hatzivassiloglou,V.\BBOP1995\BBCP.\newblock\BBOQTwo-level,many-pathsgeneration\BBCQ\\newblockIn{\BemProceedingsofthe33rdAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\252--260.\bibitem[\protect\BCAY{Kondo\BBA\Okumura}{Kondo\BBA\Okumura}{1997}]{kondo:97:a}Kondo,K.\,\BBA\Okumura,M.\BBOP1997\BBCP.\newblock\BBOQSummarizationwithdictionary-basedparaphrasing\BBCQ\\newblockIn{\BemProceedingsofthe4thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}},\BPGS\649--652.\bibitem[\protect\BCAY{近藤,佐藤,奥村}{近藤\Jetal}{1999}]{kondo:99}近藤恵子,佐藤理史,奥村学\BBOP1999\BBCP.\newblock\JBOQ「サ変名詞+する」から動詞相当句への言い換え\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(11),\BPGS\4064--4074.\bibitem[\protect\BCAY{近藤,佐藤,奥村}{近藤\Jetal}{2001}]{kondo:01}近藤恵子,佐藤理史,奥村学\BBOP2001\BBCP.\newblock\JBOQ格変換による単文の言い換え\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(3),\BPGS\465--477.\bibitem[\protect\BCAY{神田,藤田,乾}{神田\Jetal}{2001}]{kouda:01}神田慎哉,藤田篤,乾健太郎\BBOP2001\BBCP.\newblock\JBOQ連用節主節化に関する規則の追試と洗練\JBCQ\\newblock\Jem{第15回人工知能学会全国大会,1A1-06}.\bibitem[\protect\BCAY{国広}{国広}{2000}]{kunihiro:00}国広哲弥\BBOP2000\BBCP.\newblock\JBOQ人はなぜ言葉を言い換えるか\JBCQ\\newblock\Jem{言語},{\Bbf29}(10),\BPGS\20--25.\bibitem[\protect\BCAY{Kurohashi\BBA\Sakai}{Kurohashi\BBA\Sakai}{1999}]{kurohashi:99:b}Kurohashi,S.\,\BBA\Sakai,Y.\BBOP1999\BBCP.\newblock\BBOQSemanticanalysisof{J}apanesenounphrases:anewapproachtodictionary-basedunderstanding\BBCQ\\newblockIn{\BemProceedingsofthe37thAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\481--488.\bibitem[\protect\BCAY{黒橋酒井}{黒橋\JBA酒井}{2001}]{kurohashi:01}黒橋禎夫,酒井康行\BBOP2001\BBCP.\newblock\JBOQ日本語の柔軟な照合\JBCQ\\newblock\Jem{言語処理学会第7回年次大会発表論文集},\BPGS\343--346.\bibitem[\protect\BCAY{黒川}{黒川}{2003}]{kurokawa:03:master}黒川和也\BBOP2003\BBCP.\newblock\JBOQ日本語機能表現の正用・誤用の判別および日本語学習支援における利用に関する研究\JBCQ\\newblock豊橋技術科学大学大学院工学研究科修士論文.\bibitem[\protect\BCAY{Langkilde\BBA\Knight}{Langkilde\BBA\Knight}{1998}]{langkilde:98}Langkilde,I.\,\BBA\Knight,K.\BBOP1998\BBCP.\newblock\BBOQGenerationthatexploitscorpus-basedstatisticalknowledge\BBCQ\\newblockIn{\BemProceedingsofthe36thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe17thInternationalConferenceonComputationalLinguistics{\rm(}COLING-ACL\/{\rm)}},\BPGS\704--710.\bibitem[\protect\BCAY{Lapata,Keller,\BBA\McDonald}{Lapataet~al.}{2001}]{lapata:01:b}Lapata,M.,Keller,F.,\BBA\McDonald,S.\BBOP2001\BBCP.\newblock\BBOQEvaluatingsmoothingalgorithmsagainstplausibilityjudgements\BBCQ\\newblockIn{\BemProceedingsofthe39thAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\346--353.\bibitem[\protect\BCAY{Lavoie,Kittredge,Korelsky,\BBA\Rambow}{Lavoieet~al.}{2000}]{lavoie:00}Lavoie,B.,Kittredge,R.,Korelsky,T.,\BBA\Rambow,O.\BBOP2000\BBCP.\newblock\BBOQAframeworkfor{MT}andmultilingual{NLG}systemsbasedonuniformlexico-structuralprocessing\BBCQ\\newblockIn{\BemProceedingsofthe6thAppliedNaturalLanguageProcessingConferenceandthe1stMeetingoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics{\rm(}ANLP-NAACL\/{\rm)}},\BPGS\60--67.\bibitem[\protect\BCAY{Levin}{Levin}{1993}]{levin:93}Levin,B.\BBOP1993\BBCP.\newblock{\BemEnglishverbclassesandalternations:apreliminaryinvestigation}.\newblockChicagoPress.\bibitem[\protect\BCAY{Lin}{Lin}{1998}]{lin:98:a}Lin,D.\BBOP1998\BBCP.\newblock\BBOQExtractingcollocationsfromtextcorpora\BBCQ\\newblockIn{\BemProceedingsofthe1stInternationalWorkshoponComputationalTerminology{\rm(}CompuTerm\/{\rm)}},\BPGS\57--63.\bibitem[\protect\BCAY{Lin\BBA\Pantel}{Lin\BBA\Pantel}{2001}]{lin:01}Lin,D.\,\BBA\Pantel,P.\BBOP2001\BBCP.\newblock\BBOQDiscoveryofinferencerulesforquestionanswering\BBCQ\\newblock{\BemNaturalLanguageEngineering},{\Bbf7}(4),\BPGS\343--360.\bibitem[\protect\BCAY{Mani,Gates,\BBA\Bloedorn}{Maniet~al.}{1999}]{mani:99:a}Mani,I.,Gates,B.,\BBA\Bloedorn,E.\BBOP1999\BBCP.\newblock\BBOQImprovingsummariesbyrevisingthem\BBCQ\\newblockIn{\BemProceedingsofthe37thAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\558--565.\bibitem[\protect\BCAY{Masuda,Yasutomi,\BBA\Nakagawa}{Masudaet~al.}{2001}]{masuda:01:a}Masuda,H.,Yasutomi,D.,\BBA\Nakagawa,H.\BBOP2001\BBCP.\newblock\BBOQHowtotransformtablesin{HTML}fordisplayingonmobileterminals\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}WorkshoponAutomaticParaphrasing:TheoriesandApplications},\BPGS\29--36.\bibitem[\protect\BCAY{益岡田窪}{益岡\JBA田窪}{1994}]{masuoka:94}益岡隆志,田窪行則\BBOP1994\BBCP.\newblock\Jem{基礎日本語文法(改訂版)}.\newblockくろしお出版.\bibitem[\protect\BCAY{松吉,佐藤,宇津呂}{松吉\Jetal}{2004}]{matsuyoshi:04:a}松吉俊,佐藤理史,宇津呂武仁\BBOP2004\BBCP.\newblock\JBOQ機能表現「なら」の機械翻訳のための言い換え\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-159-28},\BPGS\201--208.\bibitem[\protect\BCAY{McKeown,Klavans,Hatzivassiloglou,Barzilay,\BBA\Eskin}{McKeownet~al.}{1999}]{mckeown:99}McKeown,K.~R.,Klavans,J.~L.,Hatzivassiloglou,V.,Barzilay,R.,\BBA\Eskin,E.\BBOP1999\BBCP.\newblock\BBOQTowardsmultidocumentsummarizationbyreformulation:progressandprospects\BBCQ\\newblockIn{\BemProceedingsofthe16thNationalConferenceonArtificialIntelligenceand11thConferenceonInnovativeApplicationsofArtificialIntelligence{\rm(}AAAI-IAAI\/{\rm)}},\BPGS\453--460.\bibitem[\protect\BCAY{Melamed}{Melamed}{2001}]{melamed:01}Melamed,I.~D.\BBOP2001\BBCP.\newblock{\BemEmpiricalmethodsforexploitingparalleltexts}.\newblockTheMITPress.\bibitem[\protect\BCAY{Mel'\v{c}uk\BBA\Polgu\`{e}re}{Mel'\v{c}uk\BBA\Polgu\`{e}re}{1987}]{melcuk:87}Mel'\v{c}uk,I.\,\BBA\Polgu\`{e}re,A.\BBOP1987\BBCP.\newblock\BBOQAformallexiconinmeaning-texttheory(orhowtodolexicawithwords)\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf13}(3-4),\BPGS\261--275.\bibitem[\protect\BCAY{Mel'\v{c}uk}{Mel'\v{c}uk}{1996}]{melcuk:96}Mel'\v{c}uk,I.\BBOP1996\BBCP.\newblock\BBOQLexicalfunctions:atoolforthedescriptionoflexicalrelationsinalexicon\BBCQ\\newblockIn{\BemWanner{\rm(}Ed.{\rm)}LexicalFunctionsinLexicographyandNaturalLanguageProcessing},\BPGS\37--102.JohnBenjaminPublishingCompany.\bibitem[\protect\BCAY{Meteer\BBA\Shaked}{Meteer\BBA\Shaked}{1988}]{meteer:88}Meteer,~M.\,\BBA\Shaked,~V.\BBOP1988\BBCP.\newblock\BBOQStrategiesforeffectiveparaphrasing\BBCQ\\newblockIn{\BemProceedingsofthe12thInternationalConferenceonComputationalLinguistics{\rm(}COLING\/{\rm)}},\BPGS\431--436.\bibitem[\protect\BCAY{Meyers,Yangarber,\BBA\Grishman}{Meyerset~al.}{1998}]{meyers:98}Meyers,A.,Yangarber,R.,\BBA\Grishman,R.\BBOP1998\BBCP.\newblock\BBOQDerivingtransferrulesfromdominance-preservingalignments\BBCQ\\newblockIn{\BemProceedingsofthe36thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe17thInternationalConferenceonComputationalLinguistics{\rm(}COLING-ACL\/{\rm)}},\BPGS\843--847.\bibitem[\protect\BCAY{三上,増山,中川}{三上\Jetal}{1999}]{mikami:99}三上真,増山繁,中川聖一\BBOP1999\BBCP.\newblock\JBOQニュース番組における字幕生成のための文内短縮による要約\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(6),\BPGS\65--81.\bibitem[\protect\BCAY{Miller,Beckwith,Fellbaum,Gross,\BBA\Miller}{Milleret~al.}{1990}]{WN:90}Miller,G.~A.,Beckwith,R.,Fellbaum,C.,Gross,D.,\BBA\Miller,K.~J.\BBOP1990\BBCP.\newblock\BBOQIntroductionto{W}ord{N}et:anon-linelexicaldatabase\BBCQ\\newblock{\BemInternationalJournalofLexicography},{\Bbf3}(4),\BPGS\235--244.\bibitem[\protect\BCAY{Mitamura\BBA\Nyberg}{Mitamura\BBA\Nyberg}{2001}]{mitamura:01}Mitamura,T.\,\BBA\Nyberg,E.\BBOP2001\BBCP.\newblock\BBOQAutomaticrewritingforcontrolledlanguagetranslation\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}WorkshoponAutomaticParaphrasing:TheoriesandApplications},\BPGS\1--12.\bibitem[\protect\BCAY{宮島仁田}{宮島\JBA仁田}{1995a}]{miyajima:95:a}宮島達夫,仁田義雄\JEDS\\BBOP1995a\BBCP.\newblock\Jem{日本語類義表現の文法(上)単文編}.\newblockくろしお出版.\bibitem[\protect\BCAY{宮島仁田}{宮島\JBA仁田}{1995b}]{miyajima:95:b}宮島達夫,仁田義雄\JEDS\\BBOP1995b\BBCP.\newblock\Jem{日本語類義表現の文法(下)複文・連文編}.\newblockくろしお出版.\bibitem[\protect\BCAY{Moldovan,Clark,Harabagiu,\BBA\Maiorano}{Moldovanet~al.}{2003}]{moldovan:03}Moldovan,D.,Clark,C.,Harabagiu,S.,\BBA\Maiorano,S.\BBOP2003\BBCP.\newblock\BBOQ{COGEX}:alogicproverforquestionanswering\BBCQ\\newblockIn{\BemProceedingsofthe2003HumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics{\rm(}HLT-NAACL\/{\rm)}},\BPGS\87--93.\bibitem[\protect\BCAY{森田松木}{森田\JBA松木}{1989}]{morita:89}森田良行,松木正恵\BBOP1989\BBCP.\newblock\Jem{日本語表現文型---用例中心・複合辞の意味と用法}.\newblockアルク.\bibitem[\protect\BCAY{森田}{森田}{1994}]{morita:94}森田良行\BBOP1994\BBCP.\newblock\Jem{動詞の意味論的文法研究}.\newblock明治書院.\bibitem[\protect\BCAY{村木}{村木}{1991}]{muraki:91}村木新次郎\BBOP1991\BBCP.\newblock\Jem{日本語動詞の諸相}.\newblockひつじ書房.\bibitem[\protect\BCAY{Murata\BBA\Isahara}{Murata\BBA\Isahara}{2001}]{murata:01:c}Murata,M.\,\BBA\Isahara,H.\BBOP2001\BBCP.\newblock\BBOQUniversalmodelforparaphrasing---usingtransformationbasedonadefinedcriteria---\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}WorkshoponAutomaticParaphrasing:TheoriesandApplications},\BPGS\47--54.\bibitem[\protect\BCAY{村田井佐原}{村田\JBA井佐原}{2002}]{murata:02}村田真樹,井佐原均\BBOP2002\BBCP.\newblock\JBOQ受け身/使役文の能動文への変換における機械学習を用いた格助詞の変換\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-149-6},\BPGS\39--44.\bibitem[\protect\BCAY{Nanba\BBA\Okumura}{Nanba\BBA\Okumura}{2000}]{nanba:00:a}Nanba,H.\,\BBA\Okumura,M.\BBOP2000\BBCP.\newblock\BBOQProducingmorereadableextractsbyrevisingthem\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonComputationalLinguistics{\rm(}COLING\/{\rm)}},\BPGS\1071--1075.\bibitem[\protect\BCAY{成松,河原,黒橋,西田}{成松\Jetal}{2002}]{narimatsu:02}成松深,河原大輔,黒橋禎夫,西田豊明\BBOP2002\BBCP.\newblock\JBOQ格関係の比較を用いた複数テキスト間の重複・差分の検出\JBCQ\\newblock\Jem{言語処理学会第8回年次大会発表論文集},\BPGS\535--538.\bibitem[\protect\BCAY{日本電子化辞書研究所}{日本電子化辞書研究所}{1995}]{EDR:95}日本電子化辞書研究所\BBOP1995\BBCP.\newblock\Jem{EDR電子化辞書仕様説明書}.\bibitem[\protect\BCAY{野上乾}{野上\JBA乾}{2001}]{nogami:01}野上優,乾健太郎\BBOP2001\BBCP.\newblock\JBOQ結束性を考慮した連体修飾節の言い換え\JBCQ\\newblock\Jem{言語処理学会第7回年次大会発表論文集},\BPGS\339--342.\bibitem[\protect\BCAY{野上乾}{野上\JBA乾}{2002}]{nogami:02}野上優,乾健太郎\BBOP2002\BBCP.\newblock\JBOQ言い換えを用いた結束性評価基準の構築\JBCQ\\newblock\Jem{言語処理学会第8回年次大会発表論文集},\BPGS\335--338.\bibitem[\protect\BCAY{Nyberg\BBA\Mitamura}{Nyberg\BBA\Mitamura}{2000}]{nyberg:00}Nyberg,E.\,\BBA\Mitamura,T.\BBOP2000\BBCP.\newblock\BBOQThe{KANTOO}machinetranslationenvironment\BBCQ\\newblockIn{\BemProceedingsofAMTA2000Conference},\BPGS\192--195.\bibitem[\protect\BCAY{小川石崎}{小川\JBA石崎}{2004}]{ogawa:04}小川修太,石崎俊\BBOP2004\BBCP.\newblock\JBOQ概念辞書における深層格の相互作用について---壁塗り構文を例として---\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\BPGS\572--575.\bibitem[\protect\BCAY{大橋山本}{大橋\JBA山本}{2004}]{ohashi:04}大橋一輝,山本和英\BBOP2004\BBCP.\newblock\JBOQ「サ変動詞+名詞」の複合名詞への換言\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\BPGS\693--696.\bibitem[\protect\BCAY{大野,横山,西原}{大野\Jetal}{2003}]{ohno:03}大野満,横山晶一,西原典孝\BBOP2003\BBCP.\newblock\JBOQ日本語敬語表現の変換・解析システム\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集},\BPGS\218--222.\bibitem[\protect\BCAY{Ohtake\BBA\Yamamoto}{Ohtake\BBA\Yamamoto}{2001}]{ohtake:01:b}Ohtake,K.\,\BBA\Yamamoto,K.\BBOP2001\BBCP.\newblock\BBOQParaphrasinghonorifics\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}WorkshoponAutomaticParaphrasing:TheoriesandApplications},\BPGS\13--20.\bibitem[\protect\BCAY{Ohtake\BBA\Yamamoto}{Ohtake\BBA\Yamamoto}{2003}]{ohtake:03:b}Ohtake,K.\,\BBA\Yamamoto,K.\BBOP2003\BBCP.\newblock\BBOQApplicabilityanalysisofcorpus-derivedparaphrasestowardexample-basedparaphrasing\BBCQ\\newblockIn{\BemProceedingsofthe17thPacificAsiaConferenceonLanguage,InformationandComputation{\rm(}PACLIC\/{\rm)}},\BPGS\380--391.\bibitem[\protect\BCAY{大泉,鍜治,河原,岡本,黒橋,西田}{大泉\Jetal}{2003}]{oizumi:03}大泉敏貴,鍜治伸裕,河原大輔,岡本雅史,黒橋禎夫,西田豊明\BBOP2003\BBCP.\newblock\JBOQ書きことばから話しことばへの変換\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集},\BPGS\93--96.\bibitem[\protect\BCAY{Okamoto,Sato,\BBA\Saito}{Okamotoet~al.}{2003}]{okamoto:03:b}Okamoto,H.,Sato,K.,\BBA\Saito,H.\BBOP2003\BBCP.\newblock\BBOQPreferentialpresentationof{J}apanesenear-synonymsusingdefinitionstatements\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications{\rm(}IWP\/{\rm)}},\BPGS\17--24.\bibitem[\protect\BCAY{奥}{奥}{1990}]{oku:90}奥雅博\BBOP1990\BBCP.\newblock\JBOQ日本文解析における述語相当の慣用的表現の扱い\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf31}(12),\BPGS\1727--1734.\bibitem[\protect\BCAY{奥村難波}{奥村\JBA難波}{1999}]{okumura:99:a}奥村学,難波英嗣\BBOP1999\BBCP.\JBOQテキスト自動要約に関する研究動向\JBCQ\\Jem{自然言語処理},{\Bbf6}(6),\BPGS\1--26.\bibitem[\protect\BCAY{奥村難波}{奥村\JBA難波}{2002}]{okumura:02:a}奥村学,難波英嗣\BBOP2002\BBCP.\newblock\JBOQテキスト自動要約に関する最近の話題\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(4),\BPGS\97--116.\bibitem[\protect\BCAY{大野浜西}{大野\JBA浜西}{1981}]{kadokawa:81}大野晋,浜西正人\BBOP1981\BBCP.\newblock\Jem{角川類語新辞典}.\newblock角川書店.\bibitem[\protect\BCAY{Pang,Knight,\BBA\Marcu}{Panget~al.}{2003}]{pang:03}Pang,B.,Knight,K.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQSyntax-basedalignmentofmultipletranslations:extractingparaphrasesandgeneratingnewsentences\BBCQ\\newblockIn{\BemProceedingsofthe2003HumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics{\rm(}HLT-NAACL\/{\rm)}},\BPGS\102--109.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni:02:b}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQ\textsc{BLEU}:amethodforautomaticevaluationofmachinetranslation\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\311--318.\bibitem[\protect\BCAY{Pearce}{Pearce}{2001}]{pearce:01}Pearce,D.\BBOP2001\BBCP.\newblock\BBOQSynonymyincollocationextraction\BBCQ\\newblockIn{\BemProceedingsofthe2ndMeetingoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics{\rm(}NAACL\/{\rm)}WorkshoponWordNetandOtherLexicalResources:Applications,ExtensionsandCustomizations},\BPGS\41--46.\bibitem[\protect\BCAY{Pereira,Tishby,\BBA\Lee}{Pereiraet~al.}{1993}]{pereira:93}Pereira,F.,Tishby,N.,\BBA\Lee,L.\BBOP1993\BBCP.\newblock\BBOQDistributionalclusteringof{E}nglishwords\BBCQ\\newblockIn{\BemProceedingsofthe31stAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\183--190.\bibitem[\protect\BCAY{Quirk,Brockett,\BBA\Dolan}{Quirket~al.}{2004}]{quirk:04}Quirk,C.,Brockett,C.,\BBA\Dolan,W.\BBOP2004\BBCP.\newblock\BBOQMonolingualmachinetranslationforparaphrasegeneration\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing{\rm(}EMNLP\/{\rm)}},\BPGS\142--149.\bibitem[\protect\BCAY{Ravichandran\BBA\Hovy}{Ravichandran\BBA\Hovy}{2002}]{ravichandran:02}Ravichandran,D.\,\BBA\Hovy,E.\BBOP2002\BBCP.\newblock\BBOQLearningsurfacetextpatternsforaquestionansweringsystem\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics{\rm(}ACL\/{\rm)}},\BPGS\215--222.\bibitem[\protect\BCAY{Robin\BBA\McKeown}{Robin\BBA\McKeown}{1996}]{robin:96}Robin,J.\,\BBA\McKeown,K.\BBOP1996\BBCP.\newblock\BBOQEmpiricallydesigningandevaluatinganewrevision-basedmodelforsummarygeneration\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf85}(1-2),\BPGS\135--179.\bibitem[\protect\BCAY{RWC}{RWC}{1998}]{RWC:98}RWC\BBOP1998\BBCP.\newblock\Jem{RWCテキストデータベース第2版,岩波国語辞典タグ付き/形態素解析データ第5版}.\bibitem[\protect\BCAY{斉藤,池原,村上}{斉藤\Jetal}{2002}]{saito:02:b}斉藤健太郎,池原悟,村上仁一\BBOP2002\BBCP.\newblock\JBOQ日英文型パターンの意味的対応方式\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集},\BPGS\295--298.\bibitem[\protect\BCAY{酒井増山}{酒井\JBA増山}{2003}]{sakai:03}酒井浩之,増山繁\BBOP2003\BBCP.\newblock\JBOQコーパスからの名詞と略語の対応関係の自動獲得\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集},\BPGS\226--229.\bibitem[\protect\BCAY{Sasaki,Isozaki,Kokuryou,Hirao,,\BBA\Maeda}{Sasakiet~al.}{2002}]{sasaki:02}Sasaki,Y.,Isozaki,H.,Kokuryou,K.,Hirao,T.,,\BBA\Maeda,E.\BBOP2002\BBCP.\newblock\BBOQ{NTT}'s{QA}Systemsfor{NTCIR}{QAC-1}\BBCQ\\newblockIn{\BemNTCIRWorkshop3QuestionAnsweringChallenge{\rm(}QAC\/{\rm)}}.\bibitem[\protect\BCAY{佐藤,岩越,増田,中川}{佐藤\Jetal}{2004}]{SatoDai:04:a}佐藤大,岩越守孝,増田英孝,中川裕志\BBOP2004\BBCP.\newblock\JBOQWebと携帯端末向けの新聞記事の対応コーパスからの言い換え抽出\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-159-27},\BPGS\193--200.\bibitem[\protect\BCAY{佐藤}{佐藤}{1999}]{sato:99}佐藤理史\BBOP1999\BBCP.\newblock\JBOQ論文表題を言い換える\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(7),\BPGS\2937--2945.\bibitem[\protect\BCAY{佐藤}{佐藤}{2001}]{sato:01:a}佐藤理史\BBOP2001\BBCP.\newblock\JBOQなぜ言い換え/パラフレーズを研究するのか\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集},\BPGS\1--2.\bibitem[\protect\BCAY{Sato\BBA\Nakagawa}{Sato\BBA\Nakagawa}{2001}]{NLPRSWS:01}Sato,S.\,\BBA\Nakagawa,H.\BEDS\\BBOP2001\BBCP.\newblock{\BemWorkshoponAutomaticParaphrasing:TheoriesandApplications}.\newblockNLPRS-2001Workshop.\bibitem[\protect\BCAY{関根}{関根}{2001}]{sekine:01}関根聡\BBOP2001\BBCP.\newblock\JBOQ複数の新聞を使用した言い替え表現の自動抽出\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集},\BPGS\9--14.\bibitem[\protect\BCAY{Shieber\BBA\Schabes}{Shieber\BBA\Schabes}{1990}]{shieber:90}Shieber,S.~M.\,\BBA\Schabes,Y.\BBOP1990\BBCP.\newblock\BBOQSynchronoustree-adjoininggrammars\BBCQ\\newblockIn{\BemProceedingsofthe13thInternationalConferenceonComputationalLinguistics{\rm(}COLING\/{\rm)},Vol.3},\BPGS\253--258.\bibitem[\protect\BCAY{下畑,渡辺,隅田,松本}{下畑\Jetal}{2003}]{shimohata:03:c}下畑光夫,渡辺太郎,隅田英一郎,松本裕治\BBOP2003\BBCP.\newblock\JBOQパラレルコーパスからの機械翻訳向け同義表現抽出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf44}(11),\BPGS\2854--2863.\bibitem[\protect\BCAY{Shimohata,Sumita,\BBA\Matsumoto}{Shimohataet~al.}{2004}]{shimohata:04:b}Shimohata,M.,Sumita,E.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQBuildingaparaphrasecorpusforspeechtranslation\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonLanguageResourcesandEvaluation{\rm(}LREC\/{\rm)}},\BPGS\1407--1410.\bibitem[\protect\BCAY{Shinyama,Sekine,Sudo,\BBA\Grishman}{Shinyamaet~al.}{2002}]{shinyama:02}Shinyama,Y.,Sekine,S.,Sudo,K.,\BBA\Grishman,R.\BBOP2002\BBCP.\newblock\BBOQAutomaticparaphraseacquisitionfromnewsarticles\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConference{\rm(}HLT\/{\rm)}}.\bibitem[\protect\BCAY{Shinyama\BBA\Sekine}{Shinyama\BBA\Sekine}{2003}]{shinyama:03}Shinyama,Y.\,\BBA\Sekine,S.\BBOP2003\BBCP.\newblock\BBOQParaphraseacquisitionforinformationextraction\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications{\rm(}IWP\/{\rm)}},\BPGS\65--71.\bibitem[\protect\BCAY{白井,池原,河岡,中村}{白井\Jetal}{1995}]{shirai:95:a}白井諭,池原悟,河岡司,中村行宏\BBOP1995\BBCP.\newblock\JBOQ日英機械翻訳における原文自動書き換え型翻訳方式とその効果\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf36}(1),\BPGS\12--21.\bibitem[\protect\BCAY{Shirai,Yamamoto,\BBA\Bond}{Shiraiet~al.}{2001}]{shirai:01:c}Shirai,S.,Yamamoto,K.,\BBA\Bond,F.\BBOP2001\BBCP.\newblock\BBOQJapanese-{E}nglishparaphrasecorpus\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}WorkshoponLanguageResourcesinAsia},\BPGS\23--30.\bibitem[\protect\BCAY{白木黒橋}{白木\JBA黒橋}{2000}]{shiraki:00:a}白木伸征,黒橋禎夫\BBOP2000\BBCP.\newblock\JBOQ自然言語入力と目次との柔軟な照合による図書検索システム\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf41}(4),\BPGS\1162--1170.\bibitem[\protect\BCAY{首藤,田辺,吉村}{首藤\Jetal}{2001}]{shuto:01}首藤公昭,田辺利文,吉村賢治\BBOP2001\BBCP.\newblock\JBOQ日本語モダリティ表現とその言い換え\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集},\BPGS\47--50.\bibitem[\protect\BCAY{Siddharthan}{Siddharthan}{2003}]{siddharthan:03:a}Siddharthan,A.\BBOP2003\BBCP.\newblock\BBOQPreservingdiscoursestructurewhensimplifyingtext\BBCQ\\newblockIn{\BemProceedingsofthe9thEuropeanWorkshoponNatulalLanguageGeneration{\rm(}EWNLG\/{\rm)}},\BPGS\103--110.\bibitem[\protect\BCAY{砂川}{砂川}{1995}]{sunagawa:95}砂川有里子\BBOP1995\BBCP.\newblock\JBOQ日本語における分裂文の機能と語順の原理\JBCQ\\newblock\Jem{複文の研究(下),仁田義雄(編)},\BPGS\353--388.くろしお出版.\bibitem[\protect\BCAY{Takahashi,Iwakura,Iida,Fujita,\BBA\Inui}{Takahashiet~al.}{2001}]{takahashi:01:c}Takahashi,T.,Iwakura,T.,Iida,R.,Fujita,A.,\BBA\Inui,K.\BBOP2001\BBCP.\newblock\BBOQ\textsc{Kura}:atransfer-basedlexico-structuralparaphrasingengine\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}WorkshoponAutomaticParaphrasing:TheoriesandApplications},\BPGS\37--46.\bibitem[\protect\BCAY{Takahashi,Nawata,Inui,\BBA\Matsumoto}{Takahashiet~al.}{2003}]{takahashi:03:c}Takahashi,T.,Nawata,K.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQEffectsofstructuralmatchingandparaphrasinginquestionanswering\BBCQ\\newblock{\BemIEICETransactionsonInformationandSystems},{\BbfE86-D}(9),\BPGS\1677--1685.\bibitem[\protect\BCAY{高橋,乾,関根,松本}{高橋\Jetal}{2004}]{takahashi:04:a}高橋哲朗,乾健太郎,関根聡,松本裕治\BBOP2004\BBCP.\newblock\JBOQ質問応答に必要な言い換えの分析\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\BPGS\309--312.\bibitem[\protect\BCAY{高橋牛島}{高橋\JBA牛島}{1991}]{takahashi:91:a}高橋善文,牛島和夫\BBOP1991\BBCP.\newblock\JBOQ計算機マニュアルのわかりやすさの定量的評価方法\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf32}(4),\BPGS\460--469.\bibitem[\protect\BCAY{高塚}{高塚}{1999}]{takatsuka:99}高塚成信\BBOP1999\BBCP.\newblock\JBOQコミュニケーション方略としての「言い換え」---その指導内容と方法に関する基礎的研究---\JBCQ\\newblock\Jem{岡山大学教育学部研究集録,第10号},\BPGS\1--12.\bibitem[\protect\BCAY{武石林}{武石\JBA林}{1992}]{takeishi:92}武石英二,林良彦\BBOP1992\BBCP.\newblock\JBOQ接続構造解析に基づく日本語複文の分割\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf33}(5),\BPGS\652--663.\bibitem[\protect\BCAY{竹内,内山,吉岡,影浦,小山}{竹内\Jetal}{2002}]{takeuchi:02}竹内孔一,内山清子,吉岡真治,影浦峡,小山照夫\BBOP2002\BBCP.\newblock\JBOQ語彙概念構造を利用した複合名詞内の係り関係の解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(5),\BPGS\1446--1456.\bibitem[\protect\BCAY{Terada\BBA\Tokunaga}{Terada\BBA\Tokunaga}{2001}]{terada:01}Terada,A.\,\BBA\Tokunaga,T.\BBOP2001\BBCP.\newblock\BBOQAutomaticdisabbreviationbyusingcontextinformation\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}WorkshoponAutomaticParaphrasing:TheoriesandApplications},\BPGS\21--28.\bibitem[\protect\BCAY{徳田奥村}{徳田\JBA奥村}{1998}]{tokuda:98}徳田昌晃,奥村学\BBOP1998\BBCP.\newblock\JBOQ日本語から手話への機械翻訳における手話単語辞書の補完方法について\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(3),\BPGS\542--550.\bibitem[\protect\BCAY{Tokunaga,Tanaka,\BBA\Kimura}{Tokunagaet~al.}{2003}]{tokunaga:03}Tokunaga,T.,Tanaka,H.,\BBA\Kimura,K.\BBOP2003\BBCP.\newblock\BBOQParaphrasingJapanesenounphrasesusingcharacter-basedindexing\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponParaphrasing:ParaphraseAcquisitionandApplications{\rm(}IWP\/{\rm)}},\BPGS\80--87.\bibitem[\protect\BCAY{徳永}{徳永}{2002}]{tokunaga:02:bachelor}徳永泰浩\BBOP2002\BBCP.\newblock\JBOQ取り立て詞に着目した否定表現の言い換えと意味解析\JBCQ\\newblock九州工業大学情報工学部知能情報工学科卒業論文.\bibitem[\protect\BCAY{Tomuro\BBA\Lytinen}{Tomuro\BBA\Lytinen}{2001}]{tomuro:01:a}Tomuro,N.\,\BBA\Lytinen,S.~L.\BBOP2001\BBCP.\newblock\BBOQSelectingfeaturesforparaphrasingquestionsentences\BBCQ\\newblockIn{\BemProceedingsofthe6thNaturalLanguageProcessingPacificRimSymposium{\rm(}NLPRS\/{\rm)}WorkshoponAutomaticParaphrasing:TheoriesandApplications},\BPGS\55--62.\bibitem[\protect\BCAY{鳥澤}{鳥澤}{2002}]{torisawa:02:a}鳥澤健太郎\BBOP2002\BBCP.\newblock\JBOQ教師無し学習による名詞句の言い換え\JBCQ\\newblock\Jem{言語処理学会第8回年次大会発表論文集},\BPGS\323--326.\bibitem[\protect\BCAY{Torisawa}{Torisawa}{2002}]{torisawa:02:b}Torisawa,K.\BBOP2002\BBCP.\newblock\BBOQAnunsupervisedlearningmethodforassociativerelationshipsbetweenverbphrases\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonComputationalLinguistics{\rm(}COLING\/{\rm)}},\BPGS\1009--1015.\bibitem[\protect\BCAY{土屋黒橋}{土屋\JBA黒橋}{2000}]{tsuchiya:00}土屋雅稔,黒橋禎夫\BBOP2000\BBCP.\newblock\JBOQMDL原理に基づく辞書定義文の圧縮と共通性の発見\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-140-7},\BPGS\47--54.\bibitem[\protect\BCAY{土屋,佐藤,宇津呂}{土屋\Jetal}{2004}]{tsuchiya:04}土屋雅稔,佐藤理史,宇津呂武仁\BBOP2004\BBCP.\newblock\JBOQ機能表現言い換えデータからの言い換え規則の自動生成\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\BPGS\492--495.\bibitem[\protect\BCAY{内元,黒橋,長尾}{内元\Jetal}{1996}]{uchimoto:96}内元清貴,黒橋禎夫,長尾眞\BBOP1996\BBCP.\newblock\JBOQ日本語文生成における語彙選択に必要な要因とその性質\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-116-21},\BPGS\143--150.\bibitem[\protect\BCAY{内山石崎}{内山\JBA石崎}{2003}]{uchiyama:03}内山清子,石崎俊\BBOP2003\BBCP.\newblock\JBOQ複合動詞の多義性解消のための意味解析法\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集},\BPGS\163--166.\bibitem[\protect\BCAY{内山Baldwin}{内山\JBABaldwin}{2004}]{uchiyama:04}内山清子,Baldwin,T.\BBOP2004\BBCP.\newblock\JBOQ機械学習を用いた複合動詞の多義性解消\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\BPGS\741--744.\bibitem[\protect\BCAY{上田小山}{上田\JBA小山}{2000}]{ueda:00}上田良寛,小山剛弘\BBOP2000\BBCP.\newblock\JBOQ共通意味断片の抽出による複数文書要約\JBCQ\\newblock\Jem{言語処理学会第6回年次大会発表論文集},\BPGS\360--363.\bibitem[\protect\BCAY{Voorhees}{Voorhees}{2001}]{voorhees:01}Voorhees,E.~M.\BBOP2001\BBCP.\newblock\BBOQOverviewofthe{TREC}2001questionansweringtrack\BBCQ\\newblockIn{\BemProceedingsofthe10thTextRetrievalConference{\rm(}TREC2001\/{\rm)}},\BPGS\42--51.\bibitem[\protect\BCAY{Wahlster}{Wahlster}{2000}]{verbmobil:00}Wahlster,W.\BED\\BBOP2000\BBCP.\newblock{\BemVerbmobil:foundationsofspeech-to-speechtranslation}.\newblockSpringer.\bibitem[\protect\BCAY{若尾,江原,白井}{若尾\Jetal}{1997}]{wakao:97}若尾孝博,江原暉将,白井克彦\BBOP1997\BBCP.\newblock\JBOQテレビニュース番組の字幕に見られる要約の手法\JBCQ\\newblock\Jem{情報処理学会研究報告,NL-122-13},\BPGS\83--89.\bibitem[\protect\BCAY{Walker}{Walker}{1993}]{walker:93}Walker,M.~A.\BBOP1993\BBCP.\newblock\BBOQWhengiveninformationisaccented:repetition,paraphraseandinferenceindialogue\BBCQ\\newblockIn{\BemProceedingsofLinguisticsSocietyofAmericaAnnualMeeting}.\bibitem[\protect\BCAY{Wanner}{Wanner}{1994}]{wanner:94}Wanner,L.\BBOP1994\BBCP.\newblock{\BemCurrentissuesin{M}eaning-{T}ext{T}heory}.\newblockPinterPublishers.\bibitem[\protect\BCAY{Watanabe,Kurohashi,\BBA\Aramaki}{Watanabeet~al.}{2000}]{watanabe:00}Watanabe,H.,Kurohashi,S.,\BBA\Aramaki,E.\BBOP2000\BBCP.\newblock\BBOQFindingstructuralcorrespondencesfrombilingualparsedcorpusforcorpus-basedtranslation\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonComputationalLinguistics{\rm(}COLING\/{\rm)}},\BPGS\933--939.\bibitem[\protect\BCAY{山口,乾,小谷,西村}{山口\Jetal}{1998}]{yamaguchi:98}山口昌也,乾伸雄,小谷善行,西村恕彦\BBOP1998\BBCP.\newblock\JBOQ前編集結果を利用した前編集自動化規則の獲得\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(1),\BPGS\17--28.\bibitem[\protect\BCAY{山本松本}{山本\JBA松本}{2001}]{YamamotoKaoru:01:b}山本薫,松本裕治\BBOP2001\BBCP.\newblock\JBOQ統計的係り受け結果を用いた対訳表現抽出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(9),\BPGS\2239--2247.\bibitem[\protect\BCAY{山本}{山本}{2001}]{YamamotoKazuhide:01}山本和英\BBOP2001\BBCP.\newblock\JBOQ換言処理の現状と課題\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集},\BPGS\93--96.\bibitem[\protect\BCAY{Yamamoto}{Yamamoto}{2002a}]{YamamotoKazuhide:02:c}Yamamoto,K.\BBOP2002a\BBCP.\newblock\BBOQMachinetranslationbyinteractionbetweenparaphraserandtransfer\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonComputationalLinguistics{\rm(}COLING\/{\rm)}},\BPGS\1107--1113.\bibitem[\protect\BCAY{Yamamoto}{Yamamoto}{2002b}]{YamamotoKazuhide:02:d}Yamamoto,K.\BBOP2002b\BBCP.\newblock\BBOQAcquisitionoflexicalparaphrasesfromtexts\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponComputationalTerminology{\rm(}CompuTerm\/{\rm)}},\BPGS\22--28.\bibitem[\protect\BCAY{Yoshikane,Tsuji,Kageura,\BBA\Jacquemin}{Yoshikaneet~al.}{2003}]{yoshikane:03}Yoshikane,F.,Tsuji,K.,Kageura,K.,\BBA\Jacquemin,C.\BBOP2003\BBCP.\newblock\BBOQMorpho-syntacticrulesfordetectingJapanesetermvariation:establishmentandevaluation\BBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(4),\BPGS\3--32.\bibitem[\protect\BCAY{吉見佐田}{吉見\JBA佐田}{2000}]{yoshimi:00:a}吉見毅彦,佐田いち子\BBOP2000\BBCP.\newblock\JBOQ英字新聞記事見出し翻訳の自動前編集による改良\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(2),\BPGS\27--43.\bibitem[\protect\BCAY{吉見,佐田,福持}{吉見\Jetal}{2000}]{yoshimi:00:b}吉見毅彦,佐田いち子,福持陽士\BBOP2000\BBCP.\newblock\JBOQ頑健な英日機械翻訳システム実現のための原文自動前編集\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(4),\BPGS\99--117.\end{thebibliography}\appendix
\section{語彙・構文的言い換えの分類}
\label{app:taxonomy}これまでの事例研究の中で扱われてきたさまざまな種類の言い換えや,言語学の分野で示されてきた交替現象,表現の使い分けなどの分析結果を集めた.さらに,それぞれの言い換えを実現するための課題を考察し,(a)言い換えのスコープ,(b)内容表現か機能表現か,(c)必要な語彙知識の種類,という観点から分類した.\subsection{節間の言い換え}\label{ssec:category1}2つ以上の節にまたがる言い換えである.\refex{dc2mc},\refex{cleft}のような言い換えでは,主題が変更するため,それにともなって対応する名詞述語表現が必要になる.一方,\refex{adv_clause},\refex{conjunction}のような言い換えでは,節間の修辞的関係を表す接続詞を改めて選択しなければならない.このように,節間の言い換えでは,節間の順序や関係が変化するため,結束性の評価が必要になる.\numexs{dc2mc}{\item[]\hspace{-6mm}\emph{連体節主節化}~\cite{chandrasekar:96:a,dras:99:a,nogami:01}\item[s.]昨年,区制施行70周年という大きな節目を\emph{迎えた本区}は,新たな10年に向けて順調な区政運営をスタートいたしました.\item[t.]昨年,\emph{本区は}区制施行70周年という大きな節目を\emph{迎えました.そして,}新たな10年に向けて順調な区政運営をスタートいたしました.}\numexs{cleft}{\item[]\hspace{-6mm}\emph{分裂文から非分裂文への言い換え}~\cite{sunagawa:95,dras:99:a}\item[s.]今週当選した\emph{のは},奈良県の男性\emph{でした}.\item[t.]今週\emph{は},奈良県の男性\emph{が}当選し\emph{ました}.}\numexs{adv_clause}{\item[]\hspace{-6mm}\emph{連用節・並列節の分割}~\cite{takeishi:92,kouda:01,mitamura:01}\item[s.]情報化に向けての前向きな意見が多くを占めています\emph{が},情報格差などの不安もみられます.\item[t.]情報化に向けての前向きな意見が多くを占めています.\emph{しかし},情報格差などの不安もみられます.}\numexs{conjunction}{\item[]\hspace{-6mm}\emph{接続表現の言い換え}~\cite{miyajima:95:b}\item[s.]用紙は各事務所に置いてあります\emph{から},どしどし意見をお寄せください.\item[t.]用紙は各事務所に置いてあります\emph{ので},どしどし意見をお寄せください.}\subsection{節内の言い換え}\label{ssec:category2}\refex{comparison}の主題交替や,\refex{voice_alternation}の格交替など,操作の対象が節内で閉じている言い換えである.変換パターンのバリエーションはそれほど多くなく,人手で書き尽くせる程度のように見えるが,変換パターンによっては適用の可否が語に依存するため,その判断に必要な語彙知識をいかにして発見・構築するかが課題となる.また,視点のような対人関係的意味や主題/陳述構造のような文脈レベルの意味が変化するため,これを捉えるモデルを形式化する必要もある.\numexs{negation}{\item[]\hspace{-6mm}\emph{否定表現の言い換え}~\cite{hayashi:91,kondo:01,iida:01,tokunaga:02:bachelor}\item[s.]返信\emph{しない}と,申込みは取り消され\emph{ます}.\item[t.]返信\emph{する}と,申込みは取り消され\emph{ません}.}\numexs{comparison}{\item[]\hspace{-6mm}\emph{比較表現の言い換え}~\cite{kondo:01,saito:02:b}\item[s.]\emph{隣町は我が町より}山林資源が\emph{乏しい}.\item[t.]\emph{我が町は隣町より}山林資源が\emph{豊かだ}.}\numexs{voice_alternation}{\item[]\hspace{-6mm}\emph{態・使役の交替}~\cite{yamaguchi:98,kondo:01,murata:02}\item[s.]今年は湾岸などの都市基盤の\emph{整備が}\emph{行われました}.\item[t.]今年は湾岸などの都市基盤の\emph{整備を}\emph{行いました}.}\numexs{transitivity_alternation}{\item[]\hspace{-6mm}\emph{動詞交替(自他)}~\cite{levin:93,kageyama:01,kondo:01}\item[s.]無制限な個人情報の収集に一定の\emph{制限を}\emph{加える}.\item[t.]無制限な個人情報の収集に一定の\emph{制限が}\emph{加わる}.}\numexs{locative_alternation}{\item[]\hspace{-6mm}\emph{動詞交替(壁塗り/場所格)}~\cite{levin:93,kageyama:01,ogawa:04}\item[s.]課長は\emph{大きな杯に}\emph{日本酒を}満たした.\item[t.]課長は\emph{大きな杯を}\emph{日本酒で}満たした.}\numexs{lightverb}{\item[]\hspace{-6mm}\emph{機能動詞結合の言い換え}~\cite{oku:90,muraki:91,iordanskaja:91,morita:94,dras:99:a,kaji:04:a,fujita:04:d}\item[s.]\emph{住民の熱心な要請を受け},工事を中止した.\item[t.]\emph{住民に熱心に要請され},工事を中止した.}\numexs{donatory}{\item[]\hspace{-6mm}\emph{授受の構文の言い換え}~\cite{masuoka:94,inui:99:a}\item[s.]区民の健康保持の立場から,清掃活動を\emph{頑張ってくれている}.\item[t.]区民の健康保持の立場から,清掃活動を\emph{頑張っている}.}\numexs{enable_verb}{\item[]\hspace{-6mm}\emph{可能動詞の言い換え}~\cite{miyajima:95:a,inui:99:a}\item[s.]電車は込んでいたけど吊革に\emph{掴まれた}.\item[t.]電車は込んでいたけど吊革に\emph{掴まることができた}.}\numexs{mod_alternation}{\item[]\hspace{-6mm}\emph{修飾要素の交替}~\cite{miyajima:95:b}\item[s.]ブロック,レンガなど\emph{大きくて}重いものは,ひも掛けをしてそのまま出してください.\item[t.]ブロック,レンガなど\emph{大きく}重いものは,ひも掛けをしてそのまま出してください.}\numexs{quantity}{\item[]\hspace{-6mm}\emph{数量詞の遊離}~\cite{muraki:91}\item[s.]\emph{一件の}開示請求がありました.\item[t.]開示請求が\emph{一件}ありました.}\subsection{内容語の複合表現の言い換え}\label{ssec:category3}複数の内容語が複合表現を形成する場合,接続詞や格助詞,共通の動詞などの関係は明示的には現れない.この隠れている関係を明示的に示すように言い換えれば(下記s{\ra}t),読解支援という目的に対しては有効だと考えられる.一方,要約のような応用には,複合表現への言い換え(下記t{\ra}s)の方が有効である.これらの言い換えの可否は,構成素となる内容語からそれらの関係(複合表現における結び付き方)が容易に連想できるかどうかにも依存する.\numexs{compound_word}{\item[]\hspace{-6mm}\emph{複合名詞の分解・構成}~\cite{sato:99,kimura:02,takeuchi:02,ohashi:04}\item[s.]\emph{区政施行70周年}という大きな節目を迎えました.\item[t.]\emph{区の行政が施行されてから70周年}という大きな節目を迎えました.}\numexs{relative_clause}{\item[]\hspace{-6mm}\emph{「AのB」{\lra}連体節}~\cite{kurohashi:99:b,kataoka:00,torisawa:02:a}\item[s.]奈良県知事選への\emph{出馬の挨拶}を行った.\item[t.]奈良県知事選への\emph{出馬を表明する挨拶}を行った.}\numexs{compound_verb}{\item[]\hspace{-6mm}\emph{複合動詞の分解・構成}~\cite{uchiyama:03,uchiyama:04}\item[s1.]人に\emph{頷きかける}.\item[t1.]人に\emph{向かって頷く}.\item[s2.]夕飯を\emph{食べ過ぎた}.\item[t2.]夕飯を\emph{必要以上に食べた}.}\subsection{機能語/モダリティの言い換え}\label{ssec:category4}機能語相当表現(助詞・助動詞)やモダリティのレベルの言い換えは,上で示した言い換えに比べて語彙的な性格が強く,局所的な情報を参照するだけで言い換えられるものも多い.このレベルの言い換えを実現するには,同義の機能語/モダリティ表現をグループ化して辞書を整備するとともに,個々の言い換えで生じる意味差分をどのように計算するかが課題となる.\numexs{functional_expression}{\item[]\hspace{-6mm}\emph{機能語相当表現の言い換え}~\cite{morita:89,iida:01,kurokawa:03:master,matsuyoshi:04:a,tsuchiya:04}\item[s.]\emph{市民はもとより}全国に誇れるものにしていきたい.\item[t.]\emph{市民だけでなく}全国に誇れるものにしていきたい.}\numexs{move_emphasis}{\item[]\hspace{-6mm}\emph{取り立て助詞の移動}~\cite{kinsui:00,tokunaga:02:bachelor}\item[s.]ご飯は食べずに,辛いおかずを\emph{食べてばかり}いた.\item[t.]ご飯は食べずに,辛い\emph{おかずばかりを}食べていた.}\numexs{delete_emphasis}{\item[]\hspace{-6mm}\emph{助詞による特徴づけの削除}~\cite{morita:94}\item[s.]人口は一時10万人を\emph{超えこそしたが},今は7万人まで減少している.\item[t.]人口は一時10万人を\emph{超えたが},今は7万人まで減少している.}\numexs{modality}{\item[]\hspace{-6mm}\emph{伝達のモダリティ}~\cite{miyajima:95:a,inui:99:a,shuto:01}\item[s.]秋には紅葉を見に多くの人が\emph{集まるという}.\item[t.]秋には紅葉を見に多くの人が\emph{集まるそうだ}.}\numexs{honorifics}{\item[]\hspace{-6mm}\emph{敬語表現の言い換え}~\cite{ohtake:01:b,ohno:03}\item[s.]お支払いの方は\emph{いかがなさいますか}.\item[t.]お支払いの方は\emph{どうなさいますか}.}\numexs{changing_style}{\item[]\hspace{-6mm}\emph{文体の変換}~\cite{oizumi:03,kaji:04:c}\item[s.]不本意\emph{だが}仕方\emph{ない}.\item[t.]不本意\emph{ですが}仕方\emph{ありません}.}\subsection{内容語句の言い換え}\label{ssec:category5}内容語の言い換え表現は個々の単語ごとに記述する必要があるため,パラレルコーパスのアラインメント,シソーラス中の同概念語,国語辞典の語釈文などの既存の資源から機械的に収集する手段が検討されている(\sec{knowledge}).\numexs{oneword_noun}{\item[]\hspace{-6mm}\emph{名詞の言い換え}~\cite{fujita:01,pearce:01,YamamotoKazuhide:02:d,okamoto:03:b}\item[s.]太平洋を一望する桂浜公園の\emph{丘陵}に完成.\item[t.]太平洋を一望する桂浜公園の\emph{高台}に完成.}\numexs{oneword_verb}{\item[]\hspace{-6mm}\emph{動詞の言い換え}~\cite{kondo:97:a,kondo:99,kaji:01,torisawa:02:b,kaji:03:b}\item[s.]警官が犯人を\emph{逮捕する}.\item[t.]警官が犯人を\emph{捕まえる}.}\subsection{慣用表現の言い換え}\label{ssec:category6}構成語の変形では生成できない特有の言い回しの言い換えは,言い換え表現対を辞書に蓄える必要がある.\numexs{idiom}{\item[]\hspace{-6mm}\emph{慣用句}~\cite{morita:94,mitamura:01}\item[s.]「ひかり都市」として\emph{脚光を浴びる}こととなりました.\item[t.]「ひかり都市」として\emph{注目される}こととなりました.}\numexs{acronym}{\item[]\hspace{-6mm}\emph{表記のゆれ/略語}~\cite{wakao:97,terada:01,sakai:03}\item[s.]多くの市民が\emph{原発}の建設に反対している.\item[t.]多くの市民が\emph{原子力発電所}の建設に反対している.}\numexs{metonymy}{\item[]\hspace{-6mm}\emph{換喩}\item[s.]\emph{シェイクスピアを}読む.\item[t.]\emph{シェイクスピアが書いた本を}読む}\newcommand{\email}[1]{}\begin{biography}\biotitle{略歴}\bioauthor{乾健太郎}{1967年生.1995年東京工業大学大学院情報理工学研究科博士課程修了.同年より同研究科助手.1998年より九州工業大学情報工学部助教授.1998年〜2001年科学技術振興事業団さきがけ研究21研究員を兼任.2001年より奈良先端科学技術大学院大学情報科学研究科助教授.現在にいたる.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL各会員.\email{inui@is.naist.jp}.}\bioauthor{藤田篤}{1977年生.2000年九州工業大学情報工学部卒業.2002年同大学大学院情報工学研究科博士前期課程修了.同年,奈良先端科学技術大学院大学情報科学研究科博士課程入学.現在にいたる.自然言語処理,特にテキストの自動言い換えの研究に従事.情報処理学会,ACL各学生会員.\email{atsush-f@is.naist.jp}.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V01N01-01 | \section{はじめに}
テキストや談話を理解するためには,{\bf文章構造}の理解,すなわち各文が他のどの文とどのような関係({\bf結束関係})でつながっているかを知る必要がある.文章構造に関する従来の多くの研究\cite[など]{GroszAndSidner1986,Hobbs1979,Hobbs1985,ZadroznyAndJensen1991}では,文章構造の認識に必要となる知識,またそれらの知識に基づく推論の問題に重点がおかれていた.しかしそのような知識からのアプローチには次のような問題があると考えられる.\begin{itemize}\item辞書やコーパスからの知識の自動獲得,あるいは人手による知識ベース構築の現状をみれば,量的/質的に十分な計算機用の知識が作成されることはしばらくの間期待できない.\item一方,オンラインテキストの急増にともない,文章処理の技術は非常に重要になってきている\cite{MUC-41992}.そのため,現在利用可能な知識の範囲でどのような処理が可能であるかをまず明らかにする必要がある.\item現在の自然言語処理のターゲットの中心である科学技術文では,文章構造理解の手がかりとなる情報が表層表現中に明示的に示されていることが多い.科学技術の専門的内容を伝えるためにはそのように明示的表現を用いることが必然的に必要であるといえる.\end{itemize}このような観点から,本論文では,表層表現中の種々の情報を用いることにより科学技術文の文章構造を自動的に推定する方法を示す.文章構造抽出のための重要な情報の一つは,多くの研究者が指摘しているように「なぜなら」,「たとえば」などの{\bf手がかり語}である\cite[など]{Cohen1984,GroszAndSidner1986,Reichman1985,Ono1989,Yamamoto1991}.しかし,それらだけで文章全体の構造を推定することは不可能であることから,我々はさらに2つの情報を取り出すことを考えた.そのひとつは同一/同義の語/句の出現であり,これによって{\bf主題連鎖}/{\bf焦点-主題連鎖}の関係\cite{PolanyiAndScha1984}を推定することができる.もうひとつは2文間の類似性で,類似性の高い2文を見つけることによってそれらの間の{\bf並列/対比}の関係を推定することができる.これらの3つの情報を組み合わせて利用することにより科学技術文の文章構造のかなりの部分が自動推定可能であることを示す.\begin{table}\caption{結束関係}\vspace{0.5cm}\begin{center}\begin{tabular}{lp{11cm}}\hline\hline{\bf並列}&{\ttSi}と{\ttSj}が同一または同様の事象,状態などについて述べられている(例:付録\ref{sec:text}のS4-3とS4-6).\\{\bf対比}&{\ttSi}と{\ttSj}が対比関係にある事象,状態などについて述べられている(例:付録\ref{sec:text}のS3-3とS3-4).\\{\bf主題連鎖}&{\ttSi}と{\ttSj}が同一の主題について述べられている(例:付録\ref{sec:text}のS1-13とS1-19).\\{\bf焦点-主題連鎖}&{\ttSi}中の主題以外の要素(焦点要素)がSjにおいて主題となっている(例:付録\ref{sec:text}のS1-12とS1-13).\\{\bf詳細化}&{\ttSi}で述べられた事象,状態,またはその要素についての詳しい内容が{\ttSj}で述べられている(例:付録\ref{sec:text}のS1-16とS1-17).\\{\bf理由}&{\ttSi}の理由が{\ttSj}で述べられている(例:付録\ref{sec:text}のS1-13とS1-14).\\{\bf原因-結果}&{\ttSi}の結果{\ttSj}となる(例:付録\ref{sec:text}のS1-17とS1-18).\\{\bf変化}&{\ttSi}の状態が{\ttSj}のものに(通常時間経過に伴い)変化する(例:付録\ref{sec:text}のS1-11とS1-12).\\{\bf例提示}&{\ttSi}で述べられた事象,状態の具体例の項目が{\ttSj}で提示される(例:付録\ref{sec:text}のS1-13とS1-16).\\{\bf例説明}&{\ttSi}で述べられた事象,状態の具体例の説明が{\ttSj}で行なわれる,\\{\bf質問-応答}&{\ttSi}の質問に対して{\ttSj}で答が示される(例:付録\ref{sec:text}のS4-1とS4-2).\\\hline\end{tabular}\\({\ttSi}はある結束関係で接続される2文のうちの前の文,{\ttSj}は後ろの文を指す)\end{center}\label{tab:CRelations}\end{table}{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(140,120)\put(5,5){\framebox(130,110){ps/ds.ps}}\end{picture}\end{center}\caption{文章構造の一例}\label{fig:DSExam}\end{figure}}
\section{文章構造のモデルと結束関係}
従来,文章構造のモデルとしてはその基本単位の結束関係(2項関係)を再帰的に組み合わせることによる木構造(文章構造木)が一般的に用いられてきた\cite[など]{Cohen1984,Dalgren1988,GroszAndSidner1986,HallidayAndHassan1976,Hobbs1979,Hobbs1985,LockmanAndKlappholz1980,Mann1984,PolanyiAndScha1984,Reichman1985,ZadroznyAndJensen1991}.しかし,何をその基本単位とするか,また基本単位間にどのような結束関係を考えるかについては研究者ごとに独自の定義が与えられてきた.本論文では,文章構造の自動抽出の可能性を示すことを第一義的に考え,句点で区切られた文を基本単位とするもっとも単純な文章構造モデルを採用する\footnote{複文内の節の間にもある種の結束関係が存在すると考えられるが,その問題については本手法の発展させるかたちで別の機会に扱う.}.一方,結束関係としてどれだけのものを考えればよいかという問題は,対象とするテキストの種類に大きく依存する\cite{Reichman1985}.たとえば,物語文などでは過去の事象間の時系列の関係が中心となるが,科学技術文や論説文などではそのような関係はほとんどみられない.本論文では,従来の研究で扱われてきた種々の結束関係のうち,対象とする科学技術文の構造を説明するために必要なものとして表\ref{tab:CRelations}に示すものを考える(付録\ref{sec:text}に示した実験文の文章構造を図\ref{fig:DSExam}に示す\footnote{図\ref{fig:DSExam}中,初期節点とは文章構造の初期状態として与えられるもので,実際の文には対応しない.初期化関係はこの初期節点との間の特別の関係である.これらの詳細は3.1節で述べる.}).{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(120,75)\put(5,5){\framebox(110,65){ps/assump.ps}}\end{picture}\end{center}\caption{文章構造モデルに対する仮定}\label{fig:Assump}\end{figure}}さらに,文章構造モデルに対して以下の仮定を行なうことにする.\begin{quote}{\bf新たな文(入力文)は,それまでの文章構造木の右端の節点に対応する文のいずれかに接続される.}\end{quote}これは,「新しい主題が導入された後は,古い主題に関する詳しい説明は参照されない」ということを意味する(図\ref{fig:Assump}).計算量の点で有効であり,また科学技術文の場合直観的に妥当であると考えられたことからこの仮定を採用した\footnote{\begin{tabular}[t]{@{}cc@{}}\begin{tabular}[t]{@{}p{8cm}@{}}S1とS2が並列/対比以外の結束関係(Rs)を持ち,S2とS3が並列あるいは対比の関係(Rc)を持つ場合,S1とS3が関係Rsを持つことが推論できる.この時その次の文のS4は,S1とS3だけでなくS2との間に何らかの結束関係を持つことも考えられる.前に示した文章構造モデルに対する仮定のもとでこのS2への接続を許すようにするため,S3はRsの関係によってS1に接続する(図a)のではなく,単にRcの関係でS2に接続する(図b)ことにする.\\\end{tabular}&\begin{tabular}[t]{@{}c@{}}\null\\[-12pt]{\unitlength=1mm\begin{picture}(60,35)\put(5,5){\framebox(50,25){ps/footnote.ps}}\end{picture}}\end{tabular}\end{tabular}}.なお,本論文で扱う実験テキスト(約200文)の各章(9章)についてはこの仮定のもとでそれぞれに適当な文章構造木を考えることが可能であった.以下ではある入力文に対してそれが接続される文を{\bf接続文},また,接続文になり得る文章構造木の右端の節点に対応する文を{\bf接続候補文}とよぶことにする.
\section{文章構造の自動抽出}
{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(140,85)\put(5,5){\framebox(130,75){ps/ns\_cs.ps}}\end{picture}\end{center}\caption{3つの表層情報による接続候補文への結束関係の得点付け}\label{fig:NS_CS}\end{figure}}\subsection{概要}前節で示したモデルに基づくと文章構造の解析は,入力文章を前から1文づつ順に処理し,各文(入力文)に対して適切な接続文と適切な結束関係を決定するという問題になる.この処理を行うために,表層表現中の次の3つの情報に着目する.\begin{itemize}\item種々の結束関係を示す手がかり表現\item主題連鎖または焦点-主題連鎖関係における同一/同義の語/句の出現\item並列/対比関係にある2文の間の類似性\end{itemize}以降に示す方法によって,入力文と接続候補文に対してこれらの情報を自動的に抽出し,対応する結束関係への確信度に変換することができる.この処理によって入力文と各接続候補文との間のすべての結束関係に対する確信度を計算し,最終的に最大の確信度をもつ接続候補文と結束関係を選択する(図\ref{fig:NS_CS}).文章構造には初期状態として{\bf初期節点}(文には対応しない)を与え,この初期節点と入力文の間の{\bf初期化}関係に一定の確信度を与えておく(入力文と初期節点の組については上で述べた情報の抽出処理は行なわない).いずれの接続候補文に対してもこの値よりも大きな確信度を持つ結束関係が存在しない場合には,その入力文は初期節点に接続されるとする.これはその入力文が新しい段落の始まりの文であるような場合に対応する.以下,各情報に対してそれらを抽出し結束関係への確信度に変換する方法を説明する.{\unitlength=1mm\begin{table}\caption{手がかり表現に対するルール}\label{tab:HR}\begin{center}\begin{picture}(130,140)\put(5,5){\framebox(120,130){table1}}\end{picture}\end{center}\end{table}}\subsection{手がかり表現の抽出}種々の結束関係を示す手がかり表現を取り出しその関係への確信度を得るために,ヒューリスティック・ルールを用意した.ルールは以下のものからなる.\begin{itemize}\item{\bfルールの適用条件}:\begin{itemize}\item{\bfルールの適用範囲}(どれだけ離れた接続候補文までルールを適用するか)\item{\bf接続候補文とその接続文との結束関係}\footnote{ある入力文に対する処理を行なう時点では,それより前の部分の文章構造はすでに決定されている.そこで,接続候補文がどのような結束関係でそれ以前の文(接続候補文の接続文)と接続されているかということをルールの適応条件とすることができる.}\item{\bf接続候補文の依存構造のパターン}\item{\bf入力文の依存構造のパターン}\end{itemize}\item{\bf対応する結束関係と確信度}\end{itemize}接続候補文と入力文のパターンはそれぞれの文の依存構造解析結果に対して適用される\cite{KurohashiAndNagao1994}.この処理は依存構造木に対する柔軟なパターン照合機能を用いて実現した.そこでは,依存構造木とその構成要素である文節(単語の並び)に対するパターンが,正規表現,論理和,論理積,否定などによって指定できる\cite{MurataAndNagao1993}.ルールは各接続候補文と入力文の組に対して適用され,条件部が満たされれば対応する結束関係に指定された確信度の得点が与えられる(複数のルールがマッチした場合確信度の得点は加算されていく).ルールの一例を表\ref{tab:HR}に示す(すべてのルールを付録\ref{sec:rule}に示す).たとえば,ルールa(表\ref{tab:HR})は入力文が「なぜなら」で始まる場合,その入力文と直前の接続候補文の間の理由関係に得点を与える(ルールの適用範囲が1であるので,直前の接続候補文との間の関係に対してのみ得点が与えられる).ルールb(表\ref{tab:HR})の場合は,条件部で同一の語の出現を指定しており,直前の接続候補文だけでなく他の接続候補文に対しても適用される.ルールc(表\ref{tab:HR})では,条件として「接続候補文とその接続文との結束関係」を指定している.このルールは,「例提示関係によって具体例が導入されれば,次にその例の説明が続く場合がある」ことを表現している.ルールd(表\ref{tab:HR})は時制の変化を手がかりとして文章構造の区切れを検出するためのルールで,連続する2文の時制が現在から過去に移行する場合,その間の全ての結束関係の確信度を指定された値だけ減少させる.このペナルティの値によって入力文が直前の文以外の接続候補文へ接続されることが優先される.{\unitlength=1mm\begin{figure}\begin{center}\begin{picture}(130,65)\put(5,5){\framebox(120,55){ps/tf.ps}}\end{picture}\end{center}\caption{主題連鎖関係,焦点-主題連鎖関係の確信度}\label{fig:TF}\end{figure}}{\unitlength=1mm\begin{table}\begin{center}\caption{主題部分,非主題部分,語/句の一致に対するルール}\label{tab:TDCRule}\begin{picture}(140,155)\put(5,5){\framebox(130,145){table2}}\end{picture}\end{center}\end{table}}\subsection{語連鎖の抽出}一般に文は主題を示す部分(主題部分)とそれ以外の部分(非主題部分)に分けることができる.2つの文が同じ主題について述べられている場合,それら2文は主題連鎖関係にあるとする.この関係は2つの文の主題部分に同一/同義の語/句(以下これを{\bf語連鎖}とよぶ)が現れていることで発見できる.一方,ある文の主題以外の要素がその後の文の主題となるような結束関係を焦点-主題連鎖関係とよぶことにする(この時,後の文で主題となる要素は前の文において焦点要素であると考えられるため).この関係は2文間の主題部分から非主題部分への語連鎖を調べることで発見できる.しかし,多くの場合一つの入力文に対して各接続候補文との種々の関係を支持する複数の情報が存在する.そのため,単に語連鎖を発見するだけでなく,その連鎖の強さに応じて主題連鎖関係あるいは焦点-主題連鎖関係に確信度を与えることが必要となる.そこで,主題部分,非主題部分の各語に対して,文中での重要度に応じた得点を与え,また同一/同義の語/句の照合に対してもその一致度に応じた得点を定義した.その上で,連鎖する2語/句のそれぞれの文での重要度の得点とその一致度の得点の総和を語連鎖の得点とし,これを主題連鎖関係あるいは焦点-主題連鎖関係に確信度として与えるということを行った(図\ref{fig:TF}).これらの処理は,依存構造に対するパターンと得点からなるルールを適用するという形で実現した(ルールの一例を表\ref{tab:TDCRule}に示す).ルールa,b(表\ref{tab:TDCRule})は主題を示す助詞「は」を伴う語とその修飾語/句に,ルールc,d(表\ref{tab:TDCRule})は条件節内の語に,主題部分としての得点を与える.ここでは,主題部分の中でもっとも重要であると考えられる,助詞「は」を直接ともなう語に最大の得点を与えている.ルールe(表\ref{tab:TDCRule})は「〜Aがある」という文のAに対して非主題部分の要素として高い得点を与える.このような文体ではAが重要な新情報であり,この語が以降の文で主題として取り上げられる(焦点-主題連鎖関係が存在する)場合が多い.ルールf,g,h(表\ref{tab:TDCRule})は語/句の一致に対して得点を与えるルールである.ここでは「XのY」のような句の一致(ルールg)に対しては単なる語の一致(ルールf)よりも高い得点を与える.語連鎖の検出における最大の問題は,著者が,単に同一の語/句を繰り返すのではなく,微妙に異なった表現によってそのような連鎖を示す傾向にあるという問題である.シソーラスの利用,ルールh(表\ref{tab:TDCRule})などによってそのような表現の一部は検出可能であるが,検出できない微妙な表現は多数存在する.それらの取扱いについては本論文の範囲外とした.\subsection{2文間の類似度の計算}並列/対比の結束関係にある2文の間にはある種の類似性が認められる.しかしそれらは文全体についての類似性であるため,これまでに示したような文中の比較的狭い部分を調べるルールを適用することでは検出できない.そこで,1文内の並列構造の範囲を調べるために開発したダイナミックプログラミングによる類似性検出の方法\cite{KurohashiAndNagao1992b}を拡張するということを行った.この方法では任意の長さの文節列間の類似度を計算することが可能である.そこでは,まず文節間の類似度を,品詞の一致,語の一致,シソーラス辞書中での語の近さなどによって計算し,その上でそれらの文節間の類似度を組み合わせることによって文節列間の類似度を計算する.この手法は並列構造の構成要素を決定するために1文内の句/節間の類似度を計算するものとして開発した.これを2文間(入力文と接続候補文)の類似度を計算するように拡張することは,その2文を連結しそれらが仮想的に並列構造を構成すると見なすことによって簡単に実現することができる.このことにより,その仮想的並列構造の構成要素である2文間の類似度をまったく同じ枠組みで計算することができるからである.最終的には,この方法によってえられた類似度を2文の長さの和によって正規化した値を,それらの間の並列関係と対比関係の確信度に加算する.
\section{実験と考察}
\subsection{実験方法と結果}実験には科学雑誌サイエンスのテキスト,「科学技術のためのコンピューター」(Vol.17,No.12)を用いた(付録\ref{sec:text}にその一部を示す).実験文はあらかじめ章ごとに分割し(全9章,1章は平均24文),文章構造の推定は章単位で行なった.実験は以下の手順で行なった.まずはじめの3章に対して.主題部分/非主題部分の重要度のルール,語/句の照合ルール,手がかり表現のルールを作成し,できるだけ正しい文章構造が求まるようにそれらの得点を人手で調整した\footnote{これまでに表,付録等で示したルールの得点はこの調整後のものである.また,あらかじめ初期節点との初期化関係に与えておく確信度は10点とした.}.2文間の類似度の計算については,単に並列構造検出のシステムを用いただけで,得点付けの調整/変更は行なわなかった.次に,残りの6章に対して手がかり表現のルールだけを追加し,その新しいルールセットによって残り6章に対する解析実験を行なった.これらの実験結果を表\ref{tab:Experiment}に示す.ここでは,各入力文に対して正しい接続文と正しい結束関係,また結束関係が主題連鎖または焦点-主題連鎖の場合はその正しい語連鎖が求まった場合を正解とした.結束関係ごとの解析結果の集計では,解析失敗のものについてはその正しい結束関係の欄に分類した.なお,残りの6章に対するルールを追加した新しいルールセットでもとの3章を解析したところ,解析結果は全く同じであった.\begin{table}\caption{実験結果}\begin{center}\begin{tabular}{l|rr|rr}\hline\hline&\multicolumn{2}{c|}{学習サンプル}&\multicolumn{2}{c}{テストサンプル}\\結束関係&\multicolumn{2}{c|}{(はじめの3章)}&\multicolumn{2}{c}{(残りの6章)}\\\cline{2-5}&正解&誤り&正解&誤り\\\hline初期化&7&1&6&2\\並列&10&1&15&2\\対比&6&1&2&2\\主題連鎖&13&1&21&5\\焦点-主題連鎖&10&4&37&14\\詳細化&9&1&9&1\\理由&3&0&1&0\\原因-結果&2&0&6&0\\変化&3&0&0&0\\例提示&1&0&0&0\\例説明&3&0&2&0\\質問-応答&1&0&1&0\\\hline合計&68&9&100&26\\&\multicolumn{2}{c|}{(正解率88\%)}&\multicolumn{2}{c}{(正解率79\%)}\\\hline\end{tabular}\\\vspace{5pt}(各章のはじめの文は必ず初期化関係となるのでこの表からは除外した)\end{center}\label{tab:Experiment}\end{table}これらの結果から,科学技術文の場合,表層表現中の情報をうまく取り出すことができればその文章構造のかなりの部分が自動的に推定可能であることがわかる.手がかり表現についての汎用性のあるルールセットを用意するためには,かなりの規模のテキストを対象としたルール作成作業が必要であると思われる.しかし,手がかり表現に関するルールの多くは排他的なものとして記述することができるので,本実験においてそうであったように,新しく追加したルールがもとのルールと競合して副作用を起こすということは非常に少ないと予想される.\subsection{解析例と考察}まず,文章構造推定の経緯の具体例を示す.付録のS1-11からS1-20までの文章は以下に示す情報によって図\ref{fig:DSExam}-aに示す構造に変換された.\begin{description}\item[S1-11--初期化$\rightarrow$初期節点]---S1-10との関係に対するペナルティ(付録\ref{sec:rule}ルール1).他の接続候補文との間に大きな確信度をもつ結束関係がないため,初期節点に接続される.\item[S1-12--変化$\rightarrow$S1-11]---過去から現在への時制の変化と,手がかり語「しかし」(ルール40).\item[S1-13--焦点-主題連鎖$\rightarrow$S1-12]---「合成による分析」と「合成法」の連鎖.\item[S1-14--理由$\rightarrow$S1-13]---手がかり表現「からである」(ルール34).\item[S1-15--詳細化$\rightarrow$S1-14]---手がかり表現「わけである」(ルール20).\item[S1-16--例提示$\rightarrow$S1-13]---手がかり表現「〜の例として」(ルール41).\item[S1-17--詳細化$\rightarrow$S1-16]---直前の例提示関係(ルール26).\item[S1-18--原因-結果$\rightarrow$S1-17]---手がかり表現「その結果は」(ルール36).\item[S1-19--主題連鎖$\rightarrow$S1-13]---「合成法」の連鎖.\item[S1-20--変化$\rightarrow$S1-19]---S1-12と同様.\end{description}また付録のS4-1からS4-7までの文章は以下の手順で図\ref{fig:DSExam}-bに示す構造に変換された.\begin{description}\item[S4-2--質問-応答$\rightarrow$S4-1]---手がかり表現「〜か」(ルール43).\item[S4-3--焦点-主題連鎖$\rightarrow$S4-2]---「連星」の連鎖.\item[S4-4--焦点-主題連鎖$\rightarrow$S4-3]---「温めることがある」と「この過程」の連鎖(ルール19).\item[S4-5--焦点-主題連鎖$\rightarrow$S4-4]---「核融合」の連鎖.\item[S4-6--並列$\rightarrow$S4-3]---s4-3との類似度と手がかり表現「また」(ルール5).\item[S4-7--並列$\rightarrow$S4-6]---類似度による得点が高いため誤ってS4-6との並列関係が推定された.正解はS4-6との焦点-主題関係である.\end{description}接続詞「しかし」は,S1-12,S1-20のように変化関係を示す手がかり語であるだけでなく,S3-4のように対比関係を示す場合もある.この区別は,この手がかり語と他の情報を組み合わせて調べることによって可能となる.すなわち,S1-12,S1-20の場合は過去から現在への時制の変化を見ることによって変化関係を推定することができる.一方,S3-3とS3-4の間には高い類似度(得点23)があるため,これと手がかり語「しかし」によって対比関係が推定できる(これに対して,S1-11とS1-12の類似度は0,S1-19とS1-20の類似度は3である).連続する2文間の結束関係だけでなく,離れた2文間の関係も,種々の情報によって正しく推定することが可能である.例えば,S1-16,S1-12間の例提示関係は表層表現中の手がかり語によって,S1-19,S1-13間の主題連鎖関係は語連鎖によって,またS4-6とS4-3の並列関係は2文間の類似度によってそれぞれ正しく推定されている.S4-7については正しい結束関係が推定できなかった,ここではS4-6の「温度が上昇する」ことによって生じる「熱」がS4-7で主題となっている.すなわち,推論を介した焦点-主題連鎖関係が存在している.このように結束関係の推定に推論を必要とするような問題は本論文では対象としなかった.このような問題を含めて,実験テキストの解析誤りの原因は次のように分類できる.なお,学習サンプル,テストサンプルともに解析誤りの原因の種類は同じものであった.\begin{enumerate}\item語連鎖の抽出について\\3.3節でも述べたように,主題連鎖/焦点-主題連鎖関係を示す語連鎖にはシソーラスやある種のパターン(表\ref{tab:TDCRule}のルールhなど)を用いるだけでは検出不可能なものがある.上記のS4-7はその一例である.また逆に,主題連鎖/焦点-主題連鎖関係を示すものではない同一語句の出現に対して得点が与えられ,それが他の正しい関係の推定の妨げとなる場合がある.\item2文間の類似度の計算について\\たとえば,\begin{quote}「銀河の中には、互いに近接していて、橋がかかっているように見えるものがある。しかし大多数の銀河は、ほぼ対称的な渦巻き形、あるいは単純な円形または楕円形をしている。」\end{quote}という対比関係の2文では,同一/同義の単語も少なく構造(品詞の並び)的にも似ていないため我々の方法では高い類似度が与えられない.このような場合並列/対比関係が正しく推定されないということになる.また逆に,並列/対比関係にない2文でも同一の語を多数含んでいるような場合高い類似度が与えられ,誤ってそれら2文間の並列/対比関係が推定されてしまう場合がある.\item詳細化関係について\\詳細化関係ではたとえば次の例のように手がかり表現といえるものが存在しない場合がある.\begin{quote}「こうした終局的な型は、初期条件に左右される。遭遇時の速度や傾きの角度を少し変えるだけで、複雑な3体の動きは大幅に変わる。」\end{quote}このような2文間の詳細化関係は本手法では正しく推定できない.\end{enumerate}表\ref{tab:Experiment}に示すとおり解析誤りの大部分は並列/対比関係,主題連鎖/焦点-主題連鎖関係についての誤りで,これらの多くは上の1,2の原因が組み合わさって生じたものである.たとえば,微妙な表現の語連鎖が抽出できない場合に,別の不適当な文との間の高い類似度によって並列/対比関係が推定されてしまったというような場合である.なお,本論文では同一著者のテキストを学習サンプル,テストサンプルとして実験を行なった.種々のテキストに対して本手法の有効性を検証することは今後の課題である.しかし,科学技術文の本質的目的がその内容を正確に伝えることであるということを考えれば,著者・テキストによって文体に差があるとしても,それは本手法の精度に大きな影響を与えるほどのものではないと考えられる.
\section{結論}
本論文では,手がかり表現,語連鎖,文間の類似性,という表層表現中の3つ情報に基づいて文章構造を自動的に推定する手法を示した.科学技術文の場合,これら3つの表層的情報を組み合わせて利用することにより,知識に基づく文理解という処理を行なわなくても,文章構造のかなりの部分が推定できることがわかった.微妙な表現による語連鎖の扱い,手がかり表現についての汎用性のあるルールセットの作成などの問題を克服すれば,大規模なテキストに対して文単位でなく文章単位の処理を実現することが可能となるだろう.\bibliographystyle{jtheapa}\bibliography{main}\appendix{
\section{実験テキスト}
label{sec:text}\noindent{\bf「科学技術のためのコンピューター」}(サイエンス,Vol.17,No.12)\\(以下,Si-jのiは章番号,jは文番号を示す)\vspace{0.5cm}\noindent{\bfS1-1}:コンピューターによる高速計算は科学研究の方法を、劇的に変えつつある。\begin{center}$\vdots$\end{center}{\bfS1-10}:たとえば、重力に関するニュートンの法則はすでによく理解されており、太陽系の正確な計算モデルが存在することから、計算機実験によって、火星がなければ地球の軌道がどう変わるか、といった問題を解くこともできる。\\{\bfS1-11}:これまでの理論家は、近似的な結果を計算して、現実の世界と比較できるようにするために、極端な単純化を強いられることが多かった。\\{\bfS1-12}:しかし科学者が利用できる計算機の能力が増大した1つの結果として、研究方法は従来の近似法から“合成による分析”へと移行しつつある。\\{\bfS1-13}:合成法は、「あるシステムの各部分の間の相互作用の基本過程はわかっているが、当のシステムの細かな構成はわからない」という場合に使われる。\\{\bfS1-14}:それにより、未知の構成を合成によって決定したり、可能な構成を考えて、その結果を試してみることも可能だからである。\\{\bfS1-15}:そうした結果を実験から得られる細かなデータとつき合わせてみれば、観察の結果を最もよく説明できる構成を選ぶことができるわけである。\\{\bfS1-16}:19世紀以来の合成法の有名な例として、天王星の軌道に見られる不可解な摂動を理解しようとした試みをあげることができる。\\{\bfS1-17}:研究者たちは太陽系に仮想の惑星を加え、満足のいく摂動が得られるまで、その軌道のパラメーターを変化させていった。\\{\bfS1-18}:その結果は、予想された位置の近くでの海王星の発見という成果に直接結びついたのである。\\{\bfS1-19}:この合成法が適用できるのは、過去には、比較的単純な場合に限られていた。\\{\bfS1-20}:しかし、高速計算機の登場により、合成法は、伝統的な近似解析に次ぐ地位を確実に占めようとしている。\begin{center}$\vdots$\end{center}{\bfS3-3}:2つの恒星あるいは惑星間に働く重力の相互作用は、紙と鉛筆で容易に計算することができる。\\{\bfS3-4}:しかし、3個の物体間の相互作用(すなわち3体問題)となると、その運動方程式は手におえないものになってしまう。\begin{center}$\vdots$\end{center}{\bfS4-1}:天文学者はこの種の衝突になぜ興味をもつのだろうか。\\{\bfS4-2}:その答えは、“熱”を発生させるのに連星が演じている役割にある。\\{\bfS4-3}:連星と単星が衝突する際、連星は縮んで小さくなり、単星にエネルギーを与え、その周囲の星の集団を温めることがある。\\{\bfS4-4}:この過程は、原子核が衝突して融合し、より重い原子核になる際、エネルギーを放出する核融合とよく似ている。\\{\bfS4-5}:核融合は、太陽を含む恒星を光らせるメカニズムである。\\{\bfS4-6}:また、遭遇によって連星の軌道が縮小し、そのために高密度の星団の中核の温度が上昇することも考えられる。\\{\bfS4-7}:この熱は、星が絶えず沸騰している星団の表面における熱損失と釣り合うことのできるものである。\\
\section{手がかり表現のルール}
label{sec:rule}\noindentA欄:Oははじめの3章に対して作成したルール,Nは残りの6章に対して作成したルール.\\適用範囲:$\ast$は制限なし.\\パターン:\{a$|$b\}は「aまたはb」を示す.\vspace{5pt}\noindent\begin{tabular}{@{}r|c|lr|p{9cm}@{}}\hline\hlineNo.&A&結束関係&確信度&適用範囲:$\langle$接続可能文の結束関係・パターン$\rangle$$\langle$入力文のパターン$\rangle$\\\hline1&O&$\ast$&$-$15&1:$\langle$〜(用言:現在形)$\rangle$$\langle$〜(用言:過去形)$\rangle$\\2&O&$\ast$&$-$20&1:$\langle$〜$\rangle$$\langle$〜(副助詞「は」なし)〜だ(判定詞)$\rangle$\\3&O&$\ast$&$-$20&1:$\langle$〜$\rangle$$\langle$〜がある$\rangle$\\4&O&並列&10&$\ast$:$\langle$〜$\rangle$$\langle$〜さらに〜$\rangle$\\5&O&並列&15&$\ast$:$\langle$〜$\rangle$$\langle$〜また〜$\rangle$\\6&O&並列&40&$\ast$:$\langle$[並列関係]$\rangle$$\langle$〜さらに〜$\rangle$\\7&N&並列&5&1:$\langle$〜$\rangle$$\langle$そして〜$\rangle$\\8&N&並列&15&1:$\langle$〜$\rangle$$\langle$しかも〜$\rangle$\\9&N&並列&30&$\ast$:$\langle$第〜$\rangle$$\langle$第〜$\rangle$\\\hline\end{tabular}\noindent\begin{tabular}{@{}r|c|lr|p{9cm}@{}}\hline\hlineNo.&A&結束関係&確信度&適用範囲:$\langle$接続可能文の結束関係・パターン$\rangle$$\langle$入力文のパターン$\rangle$\\\hline\vspace*{-1mm}10&N&並列&40&$\ast$:$\langle$[並列関係]$\rangle$$\langle$〜最後に〜$\rangle$\\\vspace*{-1mm}11&O&対比&15&$\ast$:$\langle$〜$\rangle$$\langle$〜一方〜$\rangle$\\\vspace*{-1mm}12&O&対比&15&1:$\langle$〜$\rangle$$\langle$〜しかし〜$\rangle$\\\vspace*{-1mm}13&O&対比&15&1:$\langle$〜$\rangle$$\langle$〜その代わり〜$\rangle$\\\vspace*{-1mm}14&O&対比&30&1:$\langle$[対比関係]$\rangle$$\langle$〜さらに〜$\rangle$\\\vspace*{-1mm}15&N&対比&15&$\ast$:$\langle$〜$\rangle$$\langle$〜対照的に〜$\rangle$\\\vspace*{-1mm}16&N&対比&30&1:$\langle$〜$\rangle$$\langle$むしろ〜$\rangle$\\\vspace*{-1mm}17&N&対比&40&$\ast$:$\langle$[対比関係]$\rangle$$\langle$〜最後に〜$\rangle$\\\vspace*{-1mm}18&O&焦点-主題連鎖&30&1:$\langle$〜(動詞)\{ことがある$|$ことができる$|$(文末)\}$\rangle$$\langle$(名詞修飾形態指示詞)\{方法$|$成果\}〜$\rangle$\\\vspace*{-1mm}19&N&焦点-主題連鎖&30&1:$\langle$〜(動詞)\{ことがある$|$ことができる$|$(文末)\}$\rangle$$\langle$(名詞修飾形態指示詞)\{技法$|$段階$|$過程$|$サービス$|$扱い\}〜$\rangle$\\\vspace*{-1mm}20&O&詳細化&20&1:$\langle$〜$\rangle$$\langle$〜わけだ$\rangle$\\\vspace*{-1mm}21&O&詳細化&20&1:$\langle$〜(数詞)〜分類\{できる$|$される\}$\rangle$$\langle$〜$\rangle$\\\vspace*{-1mm}22&O&詳細化&30&1:$\langle$〜$\rangle$$\langle$\{すなわち$|$つまり$|$いずれにせよ\}〜$\rangle$\\\vspace*{-1mm}23&O&詳細化&30&1:$\langle$〜$\rangle$$\langle$この場合〜$\rangle$\\\vspace*{-1mm}24&O&詳細化&30&1:$\langle$〜$\rangle$$\langle$〜とする$\rangle$\\\vspace*{-1mm}25&O&詳細化&30&1:$\langle$〜$\rangle$$\langle$実際〜$\rangle$\\\vspace*{-1mm}26&O&詳細化&40&1:$\langle$[例提示関係]$\rangle$$\langle$〜$\rangle$\\\vspace*{-1mm}27&N&詳細化&20&1:$\langle$〜$\rangle$$\langle$まず〜$\rangle$\\\vspace*{-1mm}28&N&詳細化&20&1:$\langle$〜$\rangle$$\langle$第一〜$\rangle$\\\vspace*{-1mm}29&N&詳細化&20&1:$\langle$〜$\rangle$$\langle$最初の〜$\rangle$\\\vspace*{-1mm}30&N&詳細化&30&1:$\langle$〜$\rangle$$\langle$事実〜$\rangle$\\\vspace*{-1mm}31&N&詳細化&30&1:$\langle$〜$\rangle$$\langle$ここで〜\{は$|$が\}〜だ$\rangle$\\\vspace*{-1mm}32&N&詳細化&30&1:$\langle$〜$\rangle$$\langle$ここで〜(用言:条件形)〜$\rangle$\\\vspace*{-1mm}33&O&理由&30&1:$\langle$〜$\rangle$$\langle$なぜなら〜$\rangle$\\\vspace*{-1mm}34&O&理由&30&1:$\langle$〜$\rangle$$\langle$〜からだ$\rangle$\\\vspace*{-1mm}35&N&理由&30&1:$\langle$〜$\rangle$$\langle$〜\{に$|$にも\}よる$\rangle$\\\vspace*{-1mm}36&O&原因-結果&30&1:$\langle$〜$\rangle$$\langle$その\{結果$|$結果は\}〜$\rangle$\\\vspace*{-1mm}37&N&原因-結果&30&1:$\langle$〜$\rangle$$\langle$\{したがって$|$このため$|$そのため$|$こうすることによって$|$そうすることによって\}〜$\rangle$\\38&N&原因-結果&30&1:$\langle$〜$\rangle$$\langle$\{こう$|$そう\}して〜ことにより〜$\rangle$\\\hline\end{tabular}\noindent\begin{tabular}{@{}r|c|lr|p{9cm}@{}}\hline\hlineNo.&A&結束関係&確信度&適用範囲:$\langle$接続可能文の結束関係・パターン$\rangle$$\langle$入力文のパターン$\rangle$\\\hline39&N&原因-結果&30&1:$\langle$〜$\rangle$$\langle$\{こう$|$そう\}して〜(用言:条件形)〜$\rangle$\\40&O&変化&30&1:$\langle$〜\{いた(接尾辞)$|$(形容詞過去形)\}$\rangle$$\langle$\{しかし$|$ところが\}〜$\rangle$\\41&O&例提示&30&1:$\langle$〜X〜$\rangle$$\langle$〜Xの例として〜\{ある$|$あげる\}$\rangle$\\42&O&例説明&30&1:$\langle$〜$\rangle$$\langle$たとえば〜$\rangle$\\43&O&質問-応答&30&1:$\langle$〜か$\rangle$$\langle$〜$\rangle$\\\hline\end{tabular}}\begin{biography}\biotitle{略歴}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程修了.同年,京都大学工学部助手,現在に至る.自然言語処理,知識情報処理の研究に従事.1994年4月より1年間Pennsylvania大学客員研究員.}\bioauthor{長尾眞}{1959年京都大学工学部電子工学科卒業.工学博士.京都大学工学部助手,助教授を経て,1973年より京都大学工学部教授.1976年より国立民族学博物館教授を兼任.京都大学大型計算機センター長(1986.4--1990.3),日本認知科学会会長(1989.1--1990.12),パターン認識国際学会副会長(1982--1984),日本機械翻訳協会初代会長(1991.3--),機械翻訳国際連盟初代会長(1991.7--1993.7).電子情報通信学会副会長(1993.5).計算機にどこまで人間的なことをやらせられるかに興味を持ち,この分野に入った.パターン認識,画像処理,機械翻訳等の分野を並行して研究.機械翻訳の国家プロジェクトを率いて,本格的な日英,英日翻訳システムを完成した.またアナロジーの概念に基づく翻訳(用例を用いた翻訳)を提唱.今日その重要性が世界的に認識されるようになって来ている.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V24N03-07 | \section{はじめに}
\label{sec:intro}統計的機械翻訳(StatisticalMachineTranslation:SMT\cite{brown93smt})で高い翻訳精度\footnote{SMTシステムの性能を評価する場合,評価用原言語コーパスの翻訳結果が目標となる正解訳にどの程度近いかを示す自動評価尺度を翻訳精度の指標とすることが多く,本稿では最も代表的な自動評価尺度と考えられるBLEUスコア\cite{papineni02}を用いて評価する.}を達成するには,学習に用いる対訳コーパスの質と量が不可欠である.特に,質の高い対訳データを得るためには,専門家による人手翻訳が必要となるが,時間と予算の面で高いコストを要するため,翻訳対象は厳選しなければならない.このように,正解データを得るための人手作業を抑えつつ高い精度を達成する手法として,能動学習(ActiveLearning)が知られている.SMTにおいても,能動学習を用いることで人手翻訳のコストを抑えつつ高精度な翻訳モデルを学習可能である\cite{eck05,turchi08,haffari09naacl,haffari09acl,ananthakrishnan10,bloodgood10,gonzalezrubio12,green14}.SMTや,その他の自然言語処理タスクにおける多くの能動学習手法は,膨大な文書データの中からどの\textbf{文}をアノテータに示すか,という点に注目している.これらの手法は一般的に,幾つかの基準に照らし合わせて,SMTシステムに有益な情報を多く含んでいると考えられる文に優先順位を割り当てる.単言語データに高頻度で出現し,既存の対訳データには出現しないような\textbf{フレーズ}\footnote{本稿では,フレーズとは特定の文中に出現する任意の長さの部分単語列を表すものとし,文全体や単語もフレーズの一種として扱う.また,後述する句構造文法における句とは区別して扱うこととする.}を多く含む文を選択する手法\cite{eck05},現在のSMTシステムにおいて信頼度の低いフレーズを多く含む文を選択する手法\cite{haffari09naacl},あるいは翻訳結果から推定されるSMTシステムの品質が低くなるような文を選択する手法\cite{ananthakrishnan10}などが代表的である.これらの手法で選択される文は,機械学習を行う上で有益な情報を含んでいると考えられるが,その反面,既存システムに既にカバーされているフレーズも多く含んでいる可能性が高く,余分な翻訳コストを要する欠点がある.\begin{figure}[b]\begin{center}\includegraphics{24-3ia7f1.eps}\end{center}\caption{フレーズ選択手法の例,および従来手法と提案手法の比較}\label{fig:select-methods}\end{figure}このように文全体を選択することで過剰なコストを要する問題に対処するため,自然言語処理タスクにおいては短いフレーズからなる\textbf{文の部分的アノテーション}を行うための手法も提案されている\cite{settles08,tomanek09,bloodgood10,sperber14}.特にSMTにおいては,文の選択手法では翻訳済みフレーズを冗長に含んでしまう問題に対処するため,原言語コーパスの単語$n$-gram頻度に基づき,対訳コーパスにカバーされていない原言語コーパス中で最高頻度の$n$-gram自体を翻訳対象のフレーズとして選択する手法が提案されている\cite{bloodgood10}.この手法では,選択されたフレーズ全体が必ず翻訳モデルの\textbf{$n$-gramカバレッジ}\footnote{\label{note:coverage}入力されるデータに対して,その構成要素がどの程度モデルに含まれているかという指標をカバレッジ(被覆率)と呼ぶ.本稿では,原言語コーパス中の$n$-gramが翻訳モデル中に含まれる割合に着目する.}向上に寄与し,余分な単語を選択しないため,文選択手法よりも少ない単語数の人手翻訳で翻訳精度を向上させやすく,費用対効果に優れている.しかし,この手法には2つの問題点が挙げられる.先ず,図\ref{fig:select-methods}(a)に示すように,$n$-gram頻度に基づくフレーズの選択手法では複数のフレーズ間で共有部分が多いため冗長な翻訳作業が発生し,単語あたりの精度向上率を損なう問題がある(\textbf{フレーズ間の重複問題}).また,最大フレーズ長が$n=4$などに制限されるため,``oneofthepreceding''のように句範疇の一部がたびたび不完全な形で翻訳者に提示されて人手翻訳が困難になる問題もある(\textbf{句範疇の断片化問題}).本研究では,前述の2つの問題に対処するために2種類の手法を提案し,部分アノテーション型の\textbf{能動学習効率}\footnote{人手翻訳に要した一定のコストに対する翻訳精度の上昇値を本稿における学習効率とし,作業時間あたりの精度向上と必要予算あたりの精度向上に注目する.}と翻訳結果に対する\textbf{自信度}の向上を目指す(\ref{sec:proposed}節).フレーズ間の重複問題に対しては,図\ref{fig:select-methods}(b)に示すように包含関係を持つフレーズを統合して,より少ないフレーズでカバレッジを保つことで学習効率の向上が可能と考えられる(\textbf{極大フレーズ選択手法},\ref{sec:maxsubst-freq}節).重複を取り除き,なるべく長いフレーズを抽出する基準として,本研究では\textbf{極大部分文字列}\cite{yamamoto01,okanohara09}の定義を単語列に適用し,極大長\footnoteref{note:maximality}となるフレーズの頻度を素性に用いる.句範疇の断片化問題に対しては,図\ref{fig:select-methods}(c)に示すように,原言語コーパスの句構造解析を行い,部分木をなすようなフレーズを\textbf{統語的に整ったフレーズ}とみなして選択することで,人手翻訳が容易になると考えられる(\textbf{部分構文木選択手法},\ref{sec:struct-freq}節).また,これら2つの手法を組み合わせ,フレーズの極大性と構文木を同時に考慮する手法についても提案する(\ref{sec:struct-freq}節).本研究で提案するフレーズ選択手法による能動学習効率への影響を調査するため,先ず英仏翻訳および英日翻訳において逐次的にフレーズ対の追加・モデル更新・評価を行うシミュレーション実験(\ref{sec:simulation}節)を実施し,その結果,2つの提案手法を組み合わせることで従来より少ない追加単語数でカバレッジの向上や翻訳精度の向上を達成することができた.次に,部分構文木選択手法が人手翻訳に与える影響を調査するため,専門の翻訳者に翻訳作業と主観評価を依頼し,述べ120時間におよぶ作業時間で収集された対訳データを用いて実験と分析を行った結果(\ref{sec:manual-trans}節),同様に高い能動学習効率が示された.また,翻訳者は構文木に基づくフレーズ選択手法において,より長い翻訳時間を要するが,より高い自信度の翻訳結果が得られるという傾向も得られた\footnote{本稿の内容は(三浦,Neubig,Paul,中村2015,2016)および\cite{miura16naacl}で報告されている.}.\nocite{miura15nl12,miura16nlp}
\section{機械翻訳のための能動学習}
\label{sec:activemt}本節では,機械翻訳のための能動学習手法について述べる.翻訳対象の候補となるフレーズを含む原言語コーパスから,逐次的に新しい原言語フレーズを選択し翻訳,学習用データとして対訳コーパスに加える手順をまとめるとAlgorithm1のように一般化できる.1行目から4行目でデータの定義,初期化を行う.$SrcPool$は原言語コーパスの各行を要素とする集合である.$Translated$は翻訳済みの原言語フレーズと目的言語フレーズの対を要素とする集合であり,初期状態は空でもよいが,既に対訳データが与えられている場合には,$Translated$を設定することで効率的に追加フレーズの選択を行うことができる.$Oracle$は任意の入力フレーズに対して正解訳を与えることができるオラクルであり,人手翻訳を模したモデルである.\begin{algorithm}[t]\caption{機械翻訳のための能動学習手法}\begin{algorithmic}[1]\STATE\textbf{Init:}\STATE~~$SrcPool\leftarrow$翻訳候補の原言語コーパス\STATE~~$Translated\leftarrow$翻訳済みの対訳コーパス\STATE~~$Oracle\leftarrow$入力フレーズの正解訳を与えるオラクル\STATE\textbf{LoopUntil停止条件:}\STATE~~$TM\leftarrowTrainTranslationModel(Translated)$\STATE~~$NewSrc\leftarrowSelectNextPhrase(SrcPool,Translated,TM)$\STATE~~$NewTrg\leftarrowGetTranslation(Oracle,NewSrc)$\STATE~~$Translated\leftarrowTranslated~\bigcup~\{\left<NewSrc,NewTrg\right>\}$\end{algorithmic}\end{algorithm}5行目から9行目で翻訳モデルの逐次的な学習を行う.5行目の停止条件には,任意の終了タイミングを設定できるが,実際の利用場面では一定の翻訳精度に達成した時点や,予算の許容する単語数を翻訳し終えた時点などで能動学習を打ち切ることになるだろう.6行目では,その時点で保持している対訳コーパス$Translated$を用いて翻訳モデルの学習を行う.また,実験的評価においては,翻訳モデルの学習直後に翻訳精度の評価を行う.7行目では$SrcPool$,$Translated$,$TM$を判断材料として,次に翻訳対象となる原言語フレーズを選択する.ここでフレーズ選択時に基準となる要素として,学習済みモデルにおける各フレーズ対の信頼度,コーパス中に出現する各フレーズの代表性,翻訳候補のフレーズから正解訳を得るためのコストなどが考えられる.次節からは,先述のアルゴリズム7行目で述べたフレーズ選択基準に用いられる具体的な手法として,既存のフレーズ選択手法(\ref{sec:baseline}節)および本研究の提案手法(\ref{sec:proposed}節)について述べる.
\section{単語$n$-gram頻度に基づく文・フレーズ選択手法}
\label{sec:baseline}本節では,従来手法である単語$n$-gram頻度に基づく文選択手法とフレーズ選択手法について紹介する.\subsection{単語$n$-gram頻度に基づく文選択手法}\label{sec:sent-by-4gram-freq}単語$n$-gram頻度に基づく文選択手法では,原言語コーパスに含まれる単語数が$n$以下の全フレーズのうち,翻訳済みの原言語データに出現せず,かつ頻度が最大となるようなものを含む文を選択する.逐次的に文を追加していき,翻訳済みのデータが原言語コーパスの全$n$-gramフレーズをカバーした時点で能動学習を停止する.この手法によって最頻出の$n$-gramフレーズを効率的にカバー可能であり,翻訳コストを抑えつつ高い精度を達成できる.Bloodgoodらは,$n=4$の$n$-gram頻度に基づく文選択手法を用いた能動学習のシミュレーション実験によって,原言語データ全てを翻訳する場合に比べて,80\%未満の文数で同等のBLEUスコア\cite{papineni02}を達成できたと報告している\cite{bloodgood10}.しかし,1節で述べたように,この手法は文全体を選択するため,翻訳済みのデータに既にカバーされているフレーズも多く含んでおり,重複部分の単語数だけ余分な翻訳コストがかかると考えられる.そのため,文全体ではなく高頻出のフレーズのみを選択する手法を\ref{sec:4gram-freq}節から紹介する.\subsection{単語$n$-gram頻度に基づくフレーズ選択手法}\label{sec:4gram-freq}単語$n$-gram頻度に基づくフレーズ選択手法では,\ref{sec:sent-by-4gram-freq}節の文選択手法とは異なり,原言語コーパス中で翻訳済みデータにカバーされていない単語数$n$以下のフレーズそのものを頻度順に選択する.この手法では,文全体の選択を行うよりも少ない単語数の追加で$n$-gramカバレッジを高めることができるため,翻訳コストの低減によって高い能動学習効率が期待できる.Bloodgoodらは,ベースとなる対訳データを元に,追加の原言語データ中の高頻度の未カバー$n$-gramフレーズを順次選択し,アウトソーシングサイトを用いた人手翻訳実験により,少ない追加単語数と短い翻訳時間でベースシステムよりも大幅にBLEUスコアの向上を確認できたと報告している\cite{bloodgood10}.ただし,このフレーズ選択手法では,1節で述べたようにフレーズ長が$n=4$などに制限されるため,選択されるフレーズどうしの重複が多い問題や,句範疇の断片が選択される問題があり,また長いフレーズ対応を学習できないことも機械翻訳を行う上で不利である.$n=5$などの,より長いフレーズ長を設定することは根本的な解決にならないばかりか,さらに多くのフレーズ間の重複が発生して逆効果となり得る.
\section{極大フレーズ選択手法と部分構文木選択手法}
\label{sec:proposed}本節では,提案手法である極大フレーズ選択手法と,部分構文木選択手法,また,それらの組み合わせ手法について説明する.\subsection{極大フレーズ選択手法}\label{sec:maxsubst-freq}本節では,単語$n$-gram頻度に基づくフレーズ選択手法でフレーズ長の制限によって発生する,フレーズ間の重複問題を解消するために,\textit{極大部分文字列}\cite{yamamoto01,okanohara09}の定義を利用したフレーズ選択手法を提案する.極大部分文字列は効率的に文書分類器を学習するために提案された素性であり,形式的には\textbf{「その部分文字列を常に包含するような,より長い部分文字列が存在しない」}という性質を持った部分文字列として定義される.この極大部分文字列の定義は,文字列を任意の要素列に読み替えて,極大部分要素列とすることができる.極大部分要素列は下記のような半順序関係の定義を用いて示すことができる.\begin{equation}s_1\preceqs_2\Leftrightarrow\exists\alpha,\beta:~s_2=\alphas_1\beta\wedgeocc(s_1)=occ(s_2)\label{eqn:maxsubst}\end{equation}ここで$s_1,~s_2,~\alpha,~\beta$は長さ0以上の要素列であり,$occ(\cdot)$は文書中の要素列の出現回数である.例えば,\begin{align*}&p_1=\mbox{``oneofthepreceding''},&occ(p_1)=200,000\\&p_2=\mbox{``oneoftheprecedingclaims''},&occ(p_2)=200,000\\&p_3=\mbox{``anyoneoftheprecedingclaims''},&occ(p_3)=190,000\end{align*}のようなフレーズが原言語コーパス中に出現している場合,$p_2=\alphap_1\beta$,$\alpha=$``'',$\beta=$``claims''が成り立ち,すなわち$p_1$は$p_2$の部分単語列であり,同様に$p_2$は$p_3$の部分単語列である.$p_1$は$p_2$の部分単語列であり,コーパス中の出現頻度について$occ(p_1)=occ(p_2)=200,000$が成り立つため,式(\ref{eqn:maxsubst})により$p_1\preceqp_2$が成り立つ.一方,$p_2$は$p_3$の部分単語列であるが,$occ(p_2)=200,000\neq190,000=occ(p_3)$であるため,$p_2\preceqp_3$とはならない.式(\ref{eqn:maxsubst})で定義される半順序$\preceq$を用いて,単語列$p$について$p\preceqq$となるような$q$が$p$自体を除いて存在しない場合に,$p$は\textbf{極大性}\footnote{\label{note:maximality}極大性(maximality)とは,代数学の用語であり,半順序関係$\preceq$と集合$S$とその元$x\inS$について,$x\preceqy$となるような$y\inS,y\neqx$が存在しない場合に,$x$は$S$の極大元であると言う.}を有し,本稿では\textbf{極大フレーズ}と呼ぶこととする.先述の例では,$p_1\preceqp_2$であるため$p_1$は極大フレーズではなく,$p_2\preceqq$となるような$q$は$p_2$自体を除いて存在しないため$p_2$は極大フレーズである.原言語コーパス中のすべての極大フレーズは拡張接尾辞配列\cite{kasai01}を用いて原言語コーパスの単語数$N$に対して線形時間$O(N)$で効率的に列挙可能であるが,出現頻度を同時に得るためには二分探索のためにそれぞれ$O(logN)$回の文字列比較が必要なため,合計$(NlogN$)回の文字列比較が必要となる\cite{okanohara09}.列挙されうる極大フレーズの数は高々$N-1$個であるが,頻度で降順に列挙するためには$O(NlogN)$のソートアルゴリズムを用いることができる.ただし,本提案手法では,極大フレーズが改行文字を含む場合は分割し,また,出現回数が2以上のものを列挙するようにしている.これは,原言語コーパス中のほとんどの文を含めた膨大な部分単語列が出現頻度1の極大フレーズとして選択されることを防止するためである.極大フレーズのみを人手翻訳の対象とし,翻訳済みデータに出現していない最高頻度の極大フレーズを順次選択する手法を\textbf{極大フレーズ選択手法}として提案する.本提案手法には2つの利点があると考えられる.1つ目の利点は,互いに重複するような複数のフレーズを1つの極大フレーズにまとめ上げて翻訳対象とすることで,1度の人手翻訳で複数の高頻度フレーズを同時にカバーすることが可能となり,翻訳コスト減少による能動学習効率の向上が見込めることである.2つ目の利点は,既存手法でフレーズ長が4単語などの固定長に制限される問題を解消できることである.ただし,先述の例で述べたが,$p_2$は$p_3$の一部であり,二者の出現頻度も近いが一致はしておらず,そのため二者とも極大フレーズとなる.実際の用途を考慮すると,このように出現頻度が完全に一致していなくてもほとんどの場合に重複して出現するフレーズは統合することが望ましいが,すべての極大フレーズをそのまま翻訳候補とする実装では重複を取り除けない場合がある.そこで,式(\ref{eqn:maxsubst})の制約をパラメータ$\lambda$で緩和して,より一般化した半順序関係を下記のように定義する.\begin{equation}s_1\overset{*}{\preceq}s_2\Leftrightarrow\exists\alpha,\beta:~s_2=\alphas_1\beta\wedge\lambda\cdotocc(s_1)<occ(s_2)\label{eqn:semi-maxsubst}\end{equation}ここで,$\lambda$は0から1の間の実数値を取る.この半順序$\overset{*}{\preceq}$を用いた場合にも極大性を定義可能であり,通常の極大フレーズ(以下,\textbf{標準極大フレーズ}とする)と区別するため\textbf{$\lambda$-極大フレーズ}と呼ぶことにし,このような特徴を持つフレーズを列挙し,未カバーフレーズを頻度順に追加する手法を\textbf{$\lambda$-極大フレーズ選択手法}として併せて提案する.$\lambda$-極大フレーズ選択手法のパラメータ$\lambda$を1より小さく設定することで,2つの重複するフレーズの一致条件を取り除き,近似する出現頻度を許容するようになる.特殊な場合として$\lambda=1-\epsilon$のときには標準極大フレーズ選択手法と同一であり($\epsilon$は正の極小値),$\lambda=0$のときには部分的アノテーションを行わない,文の乱択手法となる.両者の利点を両立できる可能性を考慮して,本研究では特に中間の値となる$\lambda=0.5$を用いた際の影響を他の手法と比較に用いている.$\lambda<1$における$\lambda$-極大フレーズは,常に標準極大フレーズの条件を満たすため,原言語コーパス中の$\lambda$-極大フレーズの候補は,すべての標準極大フレーズの中から探せばよい.標準極大フレーズは$O(N)$時間で列挙可能であることは先に述べた通りであるが,これは接尾辞配列に対応する接尾辞木の内部ノードをたどりながら列挙する.この時に,極大フレーズ$p$に対応するノードから祖先ノードをたどっていき,対応する祖先ノードのフレーズ$p_1$が$\lambda\cdotocc(p_1)<occ(p)$である場合,$p_1$は$\lambda$-極大フレーズの条件を満たさないため除外できる.接尾辞木のすべての内部ノードについて,このような処理を行うことで,除外されなかったフレーズは$\lambda$-極大であり,高々$N-1$個の内部ノードに対し,$O(logN)$回の文字列比較で出現頻度比較を行い,根ノードから帰りがけ順で処理を行えば$O(NlogN)$回の文字列比較で$\lambda$-極大フレーズを列挙できる.また,標準極大フレーズと同様に,$\lambda$-極大フレーズとその出現頻度は,$O(NlogN)$時間で頻度順に列挙可能である.\subsection{部分構文木選択手法}\label{sec:struct-freq}本節では\ref{sec:maxsubst-freq}節で述べた提案手法とは別に,原言語コーパスの句構造解析結果に基くフレーズ選択手法を提案する.本手法では,図\ref{fig:struct-freq}に示すように,翻訳候補となる原言語コーパスの全文を句構造解析器で処理し,得られた構文木の全部分木をたどりながらフレーズを数え上げ,その後にフレーズを頻度順に選択する.これにより,木をまたがるようなフレーズ選択は行われないため,句範疇が分断されるような問題は発生せず,選択されるフレーズは構文的にまとまった意味を持つと考えられる.本研究では選択されるフレーズが能動学習効率に与える影響の調査を目的とするため,他の手法と比較しやすいように構文木をフレーズ抽出のみに用いており,そのため異なる構造の部分木であっても単語列が一致している場合には同一のものとしてカウントする.\begin{figure}[b]\begin{center}\includegraphics{24-3ia7f2.eps}\end{center}\caption{\small構文木に基づく手法のフレーズカウント条件}\label{fig:struct-freq}\end{figure}本手法で選択された翻訳候補のフレーズは,統語情報を用いない他の手法と比べて,人手翻訳を行う際に有用で,同じ追加単語数でも質の高い正解データが得られるものと期待できる.$n$-gram頻度や極大フレーズの選択手法では,表層的な単語列を数え上げるため,``twomethodsareproposed''というフレーズがあると,その一部である``areproposed''も頻度に加えるが,構文木に基づく場合,図\ref{fig:struct-freq}(b)に示すように``areproposedanddiscussed''の一部である``areproposed''は部分木をまたがるために頻度に加えない.このため,構文木に基づくフレーズ選択手法では,フレーズの頻度が他の手法による表層的な数え上げよりも小さくなる傾向があり,結果として2単語以上からなるフレーズを選択する優先順位が低くなりやすい.この手法では,全部分木のフレーズを数え上げるため,単語$n$-gram頻度に基づくフレーズ選択手法と同様に,フレーズの重複により追加単語数あたりの能動学習効率に悪影響を及ぼす可能性がある.従って,\ref{sec:maxsubst-freq}節で提案した$\lambda$-極大フレーズと併用することで,重複を取り除き,選択するフレーズを絞り込む手法も同時に提案する(\textbf{$\lambda$-極大部分構文木選択手法}).
\section{シミュレーション実験}
\label{sec:simulation}\subsection{実験設定}\label{sec:setup}\ref{sec:proposed}節で提案したフレーズ選択手法が,機械学習のための能動学習にどのような影響を与えるかを調査するため,本研究では先ず,逐次的にフレーズの対訳を追加して翻訳モデルを更新するシミュレーション実験を実施し,各ステップにおける翻訳精度の比較評価を行った.本実験では,高精度な句構造解析器を利用可能な英語を原言語とし,目的言語にはフランス語と日本語を選択した.対訳コーパスが全く存在しない状態から能動学習を用いることも可能であるが,より現実的な利用方法を考慮し,一般分野の対訳コーパスが存在している状態に,専門分野の追加コーパスからフレーズを選択し,翻訳モデルの高精度化を目指す.英仏翻訳には,WMT2014\footnote{http://statmt.org/wmt14/}の翻訳タスクで用いられた欧州議会議事録のEuroparlコーパス\footnote{http://www.statmt.org/europarl/}\cite{koehn05europarl}をベースとし,医療翻訳タスクで用いられたデータのうちEMEA\footnote{http://opus.lingfil.uu.se/EMEA.php}\cite{tiedemann09},PatTR\footnote{http://www.cl.uni-heidelberg.de/statnlpgroup/pattr/}\cite{waeschle12},Wikipediaタイトルを合わせて追加コーパスとした.英日翻訳には,日常的な英語表現を広くカバーする英辞郎例文データ\footnote{http://eijiro.jp}をベースの対訳コーパスとし,科学論文の概要を元に抽出されたASPEC\footnote{http://lotus.kuee.kyoto-u.ac.jp/ASPEC/}\cite{nakazawa16lrec}を追加の対訳コーパスとして用いた.前処理として,日本語コーパスの単語分割にはKyTea\cite{neubig11-kytea}を用いており,句構造解析と単語アラインメント推定の精度を確保するため,学習用対訳コーパスのうち,単語数が60を超える文の対訳は取り除いた.前処理後の対訳データの内訳を表\ref{tab:dataset}にまとめる.本実験では,逐次的なデータの追加とモデルの再学習を行うものの,各ステップで1フレーズずつ追加するのでは数十万フレーズ以上ある翻訳候補すべての影響を現実的な時間で評価できないと判断したため,ステップ毎の追加フレーズ数は次式に従い可変とした\footnote{例として,追加された累積フレーズ数は能動学習開始から0,1,2,…,9,10,12,14,…,20,23,…と変化する.}.\begin{equation}\mbox{\#additional\_phrases}={\left\lfloor\frac{\mbox{\#accmulated\_additional\_phrases}}{10}\right\rfloor}+1\label{eqn:step}\end{equation}\begin{table}[t]\caption{対訳コーパスのデータ内訳(有効数字3桁)}\label{tab:dataset}\input{07table01.txt}\end{table}翻訳の枠組みには,フレーズベース機械翻訳\cite{koehn03pbmt}を用い,Mosesツールキット\footnote{http://www.statmt.org/moses}\cite{koehn07moses}を利用して翻訳モデルの学習やデコードを行った.ただし,少量の対訳を追加して単語アラインメントの再学習およびフレーズテーブルの再構築を行うには計算コストが非常に大きい.そのため,単語アラインメントにはGIZA++\cite{och03alignment}を逐次学習に対応させたinc-giza-pp\footnote{https://github.com/akivajp/inc-giza-pp/}を用いており,翻訳モデルの学習にはMosesのMMSAPT(Memory-mappedDynamicSuffixArrayPhraseTables\cite{germann14dynamic})機能を利用して,フレーズ抽出を行わずに接尾辞配列による動的なフレーズテーブルの構築を行った.言語モデルの学習にはKenLM\cite{heafield11}を用いて,ベースコーパスと追加コーパスの全学習用データから$n=5$の$n$-gram言語モデルを学習した.デコード時のパラメータ調整にはMERT\cite{och03mert}を用いたが,フレーズ追加の度に最適化を行うのは時間的に現実的でないため,ベースコーパス全文で学習した翻訳モデルに対して,追加コーパス用の開発データセットで自動評価尺度のBLEUスコア\cite{papineni02}が最大となるよう学習を行い,その後はパラメータを固定し能動学習を行った.能動学習に用いるフレーズ選択手法には従来手法と提案手法を含め,以下のように8つのタスクを設定した.\begin{description}\item[文の乱択(sent-rand):]\mbox{}\\追加コーパスの順序をシャッフルし,順次選択\item[フレーズの乱択(4gram-rand):]\mbox{}\\ベースコーパス中に含まれない追加コーパス中の単語数4以下のフレーズを列挙後にシャッフルし,順次選択\item[4-gram頻度に基づく文選択(sent-by-4gram-freq):]\mbox{}\\翻訳済みデータに含まれず,単語数4以下で最高頻度のフレーズを含む文を順次選択(ベースライン,\ref{sec:sent-by-4gram-freq}節)\item[4-gram頻度に基づくフレーズ選択(4gram-freq):]\mbox{}\\翻訳済みデータに含まれず,単語数4以下で最高頻度のフレーズを順次選択(ベースライン,\ref{sec:4gram-freq}節)\item[標準極大フレーズ選択手法(maxsubst-freq):]\mbox{}\\翻訳済みデータに含まれず,追加コーパス中で最高頻度の標準極大フレーズを順次選択(提案手法,\ref{sec:maxsubst-freq}節)\item[$\lambda$-極大フレーズ選択手法(reduced-maxsubst-freq):]\mbox{}\\翻訳済みデータに含まれず,追加コーパス中で最高頻度の$\lambda$-極大フレーズ($\lambda=0.5$)を順次選択(提案手法,\ref{sec:maxsubst-freq}節)\item[部分構文木選択手法(struct-freq):]\mbox{}\\追加コーパスの句構造解析結果を元に,部分木を成すようなフレーズの中から翻訳済みデータに含まれず最高頻度のものを順次追加(提案手法,\ref{sec:struct-freq}節)\item[$\lambda$-極大部分構文木選択手法(reduced-struct-freq):]\mbox{}\\追加コーパスの句構造解析結果を元に,部分木を成すような$\lambda$-極大フレーズの中から翻訳済みデータに含まれない最高頻度のものを順次追加(提案手法,\ref{sec:maxsubst-freq}節,\ref{sec:struct-freq}節)\end{description}それぞれの手法で選択されたフレーズの正解訳を得るために,文の選択に対しては対応する対訳文をそのまま選択,フレーズの選択に対してはベースコーパスと追加コーパスの全文を用いて学習した翻訳モデルをオラクルとして,翻訳結果を対訳フレーズとした.構文木に基づく手法では,句構造解析を行うためにCkylark\footnote{https://github.com/odashi/Ckylark}\cite{oda15ckylark}を使用した\footnote{本実験では専門分野のコーパスに対して句構造解析を行ったため,科学用語などの多くは句構造解析モデル中に含まれていないが,Ckylarkは単語の並びから未知語に対しても何らかの品詞を推定できるため,本研究では未知語による解析の失敗などは特に考慮していない.}.maxsubst-freqやreduced-maxsubst-freqでは出現頻度1のものを取り除くことを\ref{sec:maxsubst-freq}節で述べたが,文を含まないフレーズの出現頻度を扱う他の全ての手法においても条件を揃えるために,出現頻度1のフレーズは除外した\footnote{予備実験により,頻度1のフレーズを含めた場合と取り除いた場合のフレーズ数を比較したが,頻度1の異なるフレーズは頻度2以上のフレーズの等倍以上,maxsubst-freqなどでは10倍以上列挙された.これら頻度1のフレーズは計算資源を圧迫し,カバレッジへの影響も非常に小さいため除外して実験を行うこととした.}.\subsection{実験結果}\label{sec:results}\textbf{能動学習効率の比較:}シミュレーション実験により得られた結果から,追加単語なし,1万単語追加直後,10万単語追加直後,100万単語追加直後,全フレーズ追加時点における各手法のBLEUスコアの推移を表\ref{tab:bleu-scores}に示す\footnote{英日翻訳におけるベースシステムのBLEUスコアが10を下回る低い値から開始しているが,専門分野の対訳が極端に不足しているためである.先行研究\cite{haffari09naacl,bloodgood10,ananthakrishnan10,ananthakrishnan10emnlp}においても,対訳不足の状態から能動学習によって分野適応する際に共通してBLEUスコアを用いているため,本研究でも同様の評価を行った.}.全フレーズ追加時点でのスコアは,各手法で選択されうるフレーズの全対訳を用いて学習した翻訳精度であるため,各手法の性能限界と考えられるが,追加される単語数が大きく異なるため能動学習効率という観点では単純比較ができない.\begin{table}[b]\hangcaption{各手法におけるBLEUスコアの推移(100万単語追加直後までの各時点において下線は乱択手法とベースライン手法の中でスコア最大であることを示し,このスコアを上回る提案手法のスコアをボールド体で示す.また,全手法でスコア最大のものには短剣符$\dagger$を付記した.)}\label{tab:bleu-scores}\input{07table02.txt}\end{table}この表から,2つの乱択手法と2つのベースライン手法と比較した場合,10万単語追加直後までは安定して4gram-freqでの精度の伸びが良く,文全体ではなく高頻度のフレーズのみを選択することによる利点を確認できる.ただし,英仏翻訳における100万単語追加時点では,4gram-freqのスコアがsent-by-4gram-freqを下回っており,また,両言語対における全フレーズ追加時点では4gram-freqのスコアがsent-by-4gram-freqやsent-randを下回っていることから,一定量以上の単語数を追加する場合には4gram-freqでは文選択手法より能動学習効率が低下し,性能限界も高くないことが分かる.これは,\ref{sec:4gram-freq}節でも述べたように,4gram-freqでは選択されるフレーズの最大長が4単語までに制限されており,より長いフレーズの対応を学習できないことが翻訳する上で不利であるためと考えられる.次に,提案手法とベースライン手法との比較を行う.提案手法の中では,reduced-maxsubst-freqはmaxsubst-freqよりほぼ常に高スコアであり,reduced-struct-freqはstruct-freqよりほぼ常に高スコアであったため,$\lambda$-極大性を利用して長いフレーズを優先することで,結果的に少ない単語数でカバレッジが向上したと考えられる.このため,$\lambda$-極大性を利用する2つの提案手法と2つのベースライン手法との,より詳細な比較を行いたい.\begin{figure}[b]\begin{center}\includegraphics{24-3ia7f3.eps}\end{center}\hangcaption{追加単語数あたりのBLEUスコア(左上:10万単語まで追加の英仏翻訳,右上:100万単語まで追加の英仏翻訳,左下:10万単語まで追加の英日翻訳,右下:100万単語まで追加の英日翻訳)}\label{fig:simulation}\end{figure}図\ref{fig:simulation}には,それぞれの言語対で10万単語まで追加した場合と100万単語まで追加した場合の追加単語数と翻訳精度の変化を示す.また,ベースコーパスと追加コーパスの全対訳データを用いて学習・評価したスコアをオラクルスコアとして,右側の100万単語追加までのグラフに併せて示す.reduced-maxsubst-freqは,英日翻訳ではベースライン手法よりも安定して高いスコアであったが,英仏翻訳では100万単語追加時点まで4gram-freqとほぼ同程度のスコアとなった.ただし,両言語対において全フレーズ追加時点でのスコアは4gram-freqや4gram-randを大きく上回っているため性能限界は高く,提案手法では先述のような最大フレーズ長制限の問題が発生しないことが大きな原因と考えられる.また,英仏翻訳においてreduced-maxsubst-freqと4gram-freqで大きな差が見られなかった原因として,両手法で選択された高頻度フレーズを見たところ,最高頻度順に``accordingtoclaim''(1,502,455回),``claim1''(1,133,243回),``characterizedinthat''(858,404回)などと共通のフレーズが選択されており,\ref{sec:intro}節で述べたような,フレーズ間の重複はあまり発生しておらず,句範疇の断片化の方が目立っていた.複数の高頻度な4-gramフレーズが共通の部分単語列を多く有するという状態は,特に高頻度の$n>4$単語からなる長い未カバーフレーズが出現する場合であり,本実験で用いた医療文書コーパス中の高頻度の長いフレーズは,専門的な表現をあまり含んでいないために一般分野の大規模コーパス中に既に含まれていたことが原因と考えられる.一方,英日翻訳では,4gram-freqで選択された高頻度フレーズは``resultssuggestthat''(6,352回),``theseresultssuggest''(5,115回),``theseresultssuggestthat''(4,791回)などのように多くの重複が見られ,reduced-maxsubst-freqでは,こういったフレーズを1つにまとめられたことが大きいと考えられる.特に,英日翻訳で用いた一般分野のコーパスは訳40万文と比較的小規模であり,日常表現をまとめたものであるため長いフレーズはあまりカバーされていなかったことの影響もあるだろう.reduced-struct-freqは,両言語対においてほぼ安定して最高スコアのフレーズ選択手法であった.英日翻訳における10万単語追加時点のみ,reduced-maxsubst-freqが最大スコアとなっているが僅差であり,学習曲線の振れ幅も大きいため誤差の範囲であろう\footnote{ブートストラップ・リサンプリング法\cite{koehn04bootstrap}で統計的有意差を検定したところ,$p<0.1$の有意さも見られなかった}.特に英仏翻訳シミュレーション結果では,最初からreduced-struct-freqやstruct-freqでの精度の伸びが良く,他の手法よりも精度が大きく上回り,100万単語追加時点でも差はほとんど縮まらなかった.一方で,英日翻訳の追加単語数が少ないうちはreduced-maxsubst-freqや4gram-freqとあまり大きな差は見られなかったが,約4万単語追加時点から他の手法よりも精度が高くなっており,約50万単語追加時点からはフレーズ選択手法の精度がほぼ横這いとなった.\textbf{選択されたフレーズ長の傾向:}手法毎に翻訳対象のフレーズ選択基準が異なるため,フレーズ長制限の有無や重複の削減方法の違いによって,翻訳対象を選び尽くした場合のフレーズ数等に大きな差が出ることになる.フレーズ頻度に基づくそれぞれの手法によって選択されるフレーズの傾向を調べるため,翻訳候補を全て追加し終えた時点および約1万単語のみ追加した時点でのフレーズ数,単語数,平均フレーズ長を表\ref{tab:selected-data}にまとめる.全翻訳対象を翻訳し終えた時点でカバレッジが収束するため,翻訳対象の単語数が少ないほどカバレッジの収束が速く,翻訳精度が向上しやすいと考えられる.一方,一度に追加するフレーズが長いほど,同時に複数の$n$-gramをカバーできるため,平均フレーズ長が大きいほど4-gramカバレッジ等を向上させる上で有利と考えられる.提案手法によって選択されたフレーズの平均フレーズ長が英日翻訳で3.03〜3.58単語,英仏翻訳で5.30〜6.68単語と大きく差が開いているが,これは原言語側のベースコーパスと追加コーパスの組み合わせのみに依存しており,目的言語には当然依存しない.また,表\ref{tab:selected-data}のフレーズ頻度に基づく手法において,全フレーズ追加時の平均フレーズ長に比べ,1万単語追加時の平均フレーズ長が短いことを確認できる.短いフレーズほど高頻度となりやすく優先的に選択されるため当然であるが,構文木に基づく手法では1万単語追加時点の平均フレーズ長が極端に小さくなっており,長いフレーズの頻度が大幅に下がりやすい傾向が見られる.\begin{table}[t]\caption{手法ごとに選択されるフレーズ内訳(有効数字3桁)}\label{tab:selected-data}\input{07table03.txt}\end{table}\textbf{カバレッジの影響:}また,各手法によって,翻訳済みのデータが実際に評価データをどの程度カバーしているかを調査する.各手法でフレーズを1つずつ選択していき,追加単語数が1万,10万,100万にそれぞれ達する時点での評価データの1-gramカバレッジおよび4-gramカバレッジを表\ref{tab:coverage}にまとめる.この結果から,reduced-struct-freqではどの場合でも最も1-gramカバレッジが向上していることが分かり,効率的に未知語がカバーされることになる.struct-freqや,reduced-struct-freqにおいて,他の手法よりも高い1-gramカバレッジを得られた理由としては,\ref{sec:struct-freq}節で述べたように木構造に基づくフレーズ選択手法では,表層的な単語列の出現回数ではなく特定の部分木の句範疇をなすフレーズとして出現頻度を数え上げるため,2単語以上からなるフレーズの頻度は大きく低下し,優先的に高頻度の未カバー1-gramを選択したことの影響が大きいと考えられる.一方で,4-gramカバレッジに関しては,3単語以下のフレーズを追加しても全く影響が出ないため,長いフレーズを追加する方が有利であることは明らかであり,sent-by-4gram-freqで最も効率的に向上が見られる.英仏翻訳では,1万単語追加時点で4-gramカバレッジの上4桁に変化が見られなかった.このように,フレーズ選択時に長いフレーズを選ぶか,短いフレーズを選ぶかは,カバレッジの影響を考える際にトレードオフの関係が生じるが,$\lambda$-極大性に基いて重複を取り除くことによって,1-gramカバレッジと4-gramカバレッジを両立して向上させられることが確認できた.\begin{table}[b]\hangcaption{各フレーズ選択手法がカバレッジに与える影響(小数点第三位を四捨五入),ボールド体は一定の単語数追加時点でのカバレッジ最大値を示す}\label{tab:coverage}\input{07table04.txt}\end{table}\begin{table}[b]\caption{4gram-freqで重複して選択されるフレーズの提案手法による削減量}\label{tab:reduced-words}\input{07table05.txt}\end{table}\textbf{削減された単語数:}\ref{sec:4gram-freq}節では,4gram-freqの問題として,選択されるフレーズ間で重複して出現する共通の部分単語列が多いことを挙げ,この問題に対処するために\ref{sec:maxsubst-freq}節で$\lambda$-極大フレーズ選択手法を提案した.表\ref{tab:reduced-words}に,4gram-freqで1万単語追加直後,10万単語追加直後,100万単語追加直後の各時点で選択されたフレーズが,maxsubst-freqやreduced-maxsubst-freqでより長いフレーズに統合されて削減された単語数と割合をまとめる.表から,英仏翻訳においても英日翻訳においても,maxsubst-freqでは1\%から4\%程の少量の単語数しか削減できていないが,これは\ref{sec:maxsubst-freq}節で述べたように,標準極大フレーズでは包含関係にあるフレーズの出現頻度が完全一致するという厳しい制約があるため,多くのフレーズが極大フレーズとなったことに起因する.一方,両言語対において,reduced-maxsubst-freqでは24.70\%以上,最大で50.79\%の単語が削減された.この結果からも,フレーズの出現頻度の一致条件を緩めることで,包含されたフレーズを効果的により多く削減することができると言えるだろう.
\section{人手翻訳実験}
\label{sec:manual-trans}\subsection{実験設定}\label{sec:manual-setting}前節のシミュレーション実験で得られた結果が,現実の人手翻訳による能動学習を行う際にも有効と言えるかどうかを調査するため,外部委託機関を通じて翻訳作業を依頼し,それによって得られた結果を用いて従来手法との比較評価を行った.特に,翻訳に要した実作業時間や,得られる対訳の自信度評価も能動学習の効果を比較する上で重要である.\begin{figure}[b]\begin{center}\includegraphics{24-3ia7f4.eps}\end{center}\caption{人手翻訳ユーザーインターフェイスのイメージ}\label{fig:manual-trans}\end{figure}人手翻訳の依頼を行うため,図\ref{fig:manual-trans}に示すような作業用ユーザーインターフェイスを持つWebページを作成した.翻訳対象のフレーズのみ提示されても翻訳が困難であったり多くの時間が必要となる可能性があるため,Bloodgoodらの実験手法\cite{bloodgood10}に従い,翻訳候補のフレーズを含むような文を表示して文脈を明らかにした上で,ハイライトされたフレーズのみを翻訳するよう依頼した.フレーズを含む文は複数存在し得るが,本実験では単純に最も短い文を選択して表示した.各フレーズの翻訳後には,翻訳者がその翻訳結果にどの程度確証を持てるかという主観的な自信度を3段階で評価するよう併せて依頼した.翻訳時の自信度評価は表\ref{tab:guideline}に掲載した翻訳作業ガイドラインを基準とし,翻訳が困難で自信度評価が1の場合のみ,翻訳のスキップを許容した.また,翻訳候補が表示されてから対訳が送信されるまでの時間の記録も行った.\begin{table}[t]\caption{\small翻訳作業ガイドライン}\label{tab:guideline}\input{07table06.txt}\end{table}比較評価に用いたフレーズ選択手法には,ベースラインとして従来手法の$n=4$における単語$n$-gram頻度に基づく文選択手法(sent-by-4gram-freq)および単語$n$-gram頻度に基づくフレーズ選択手法(4gram-freq)の2つを,提案手法として,前節のシミュレーション実験で最も高い能動学習効率を示した$\lambda$-極大部分構文木選択手法(reduced-struct-freq)を用いて比較評価を行った.翻訳作業を行ったのは専門の翻訳者3名であり,それぞれの手法で1万単語以上のフレーズに対する翻訳が得られるよう発注を行った.翻訳者毎の能力や評価の偏りによる影響を小さくするため,毎回異なる手法からフレーズを選択して新しい翻訳対象の表示を行った.実験に用いたデータやツールは,英日翻訳のシミュレーション実験で用いたものと同一である(\ref{sec:simulation}節).しかし,人手翻訳によって収集した対訳データは,ベースシステムの学習に用いた対訳データと比較して非常に小規模であり,追加されたフレーズ対が与える影響が非常に小さくなってしまう可能性があるため,フレーズ対を追加する度に,ベースシステムの対訳データと収集した追加データで個別に5-gram言語モデルを学習し,開発用データセットにおけるパープレキシティが最小となるようSRILM\cite{stolcke02}を用いて二者を線形補間で合成して用いた\footnote{言語モデル$L$における文$e$の生起確率を$P_{L}(e)$とすると,2つの言語モデル$L_1$,$L_2$を線形補間で合成したモデル$L_{1+2}$の生起確率は$P_{L_{1+2}}(e)=\alphaP_{L_1}(e)+(1-\alpha)P_{L_2}(e)$となる.$\alpha$は0から1の間を取る補完係数であり,開発用データ$E_{dev}$に対して,$PPL(E_{dev})=exp\left(\frac{\sum_{e\inE_{dev}}-logP_{L_{1+2}}(e)}{|E_{dev}|}\right)$が最小となるように調整される.}.\subsection{実験結果}\label{sec:manual-result}\textbf{能動学習効率:}図\ref{fig:manual-transition}のグラフは,本実験で収集した対訳データを用いて翻訳モデルを学習した際の翻訳精度の推移を表している.翻訳者が翻訳をスキップしたフレーズに関しては,追加単語数には含めず,累計作業時間には含めているが,実際にスキップされたフレーズ数は極少数であったため,この影響は小さい.左のグラフから,reduced-struct-freqで,従来手法よりも急激に翻訳精度が向上している様子が分かる.クラウドソーシングのような形で翻訳作業を委託する際には,文章量,特に単語数に応じた予算が必要となることから\cite{bloodgood10},こういった状況では提案手法で高い費用対効果を発揮できることになる.一方,右のグラフから,作業時間あたりの能動学習効率は,4gram-freqを上回ることはなかった.これは,前節でテーブル\ref{tab:coverage}をもとに議論したように,部分構文木選択手法では,未カバーの1-gram,即ち未知語を優先的にカバーする傾向があるため,本実験タスクでは科学分野の専門用語が多く,翻訳に多くの時間を要したものと考えられるため,後の議論で詳細な分析を行う.\begin{figure}[b]\begin{center}\includegraphics{24-3ia7f5.eps}\end{center}\hangcaption{各手法における追加単語数あたりのBLEUスコア推移(左)と累計作業時間あたりのBLEUスコア推移(右)}\label{fig:manual-transition}\end{figure}\textbf{作業時間と自信度評価:}表\ref{tab:workload}に,各手法で1万単語をすべて翻訳し終えるのに要した時間と,3段階で主観評価を行った自信度評価の統計値をまとめる.表\ref{tab:phrases}は,各手法で選択されたフレーズ数の内訳である.提案手法では,合計作業時間が他の手法の倍近い値になっているが,提案手法では先述のように専門用語を重点的に選択する傾向が確認されており,表\ref{tab:phrases}からは,4gram-freqと比較していて4倍近い数の未知語が選択され,全体的なフレーズ数も多いことが大きな要因であろう.一方で,選択されたフレーズの翻訳作業に対する自信度評価は提案手法が最大で,全体の約79\%のフレーズ翻訳作業で最大評価の3が選択されており,質の高い対訳を得られたと考えられる.この結果は,句構造を保つようなフレーズが選択されることで,構文的に対応の取れた翻訳を行えた点が大きく影響していると考えられる.\begin{table}[b]\caption{合計実作業時間と自信度評価の統計}\label{tab:workload}\input{07table07.txt}\end{table}\begin{table}[b]\caption{各手法で選択されたフレーズ数の内訳}\label{tab:phrases}\input{07table08.txt}\end{table}\begin{table}[b]\caption{各手法におけるフレーズの翻訳に要した平均時間}\label{tab:duration}\input{07table09.txt}\end{table}表\ref{tab:duration}には,各手法で選択されたフレーズの翻訳に要した平均時間の傾向を示す.手法の内外で翻訳候補のフレーズ長に大きく差があり,単純な比較を行うことができないため,フレーズ長に応じて個別に平均作業時間を求めて比較を行うことにした.この表から,1単語の翻訳作業に要した平均時間は,2〜4単語からなるフレーズの翻訳よりも長くなるという現象が見られるが,未カバーの単語はほとんどが専門用語であるため,辞書やオンライン検索で慎重に意味を調べる必要性を考えれば納得できる.また,これらは1フレーズの翻訳に要した平均時間であるため,1単語の翻訳に要する時間コストとして換算した場合,1単語フレーズの翻訳時間は2単語フレーズの単語翻訳時間の倍以上であり,専門用語の翻訳に要するコストがいかに大きいかが分かる.各手法におけるフレーズ長ごとの平均自信度評価を表\ref{tab:confidence}に示す.この表から,提案手法では1単語の翻訳時の平均自信度はベースライン手法よりも低くなっているのが分かるが,ベースライン手法では1単語のみ選択されることが少なく,提案手法では多くの専門用語が選択されたことが原因と考えられる.一方で,従来手法ではフレーズ長が長くなるほど劇的に自信度が下がる傾向が見られるが,提案手法においては長いフレーズに対しても安定して高い自信度が得られており,構文的に整ったフレーズを選択する手法の有効性が如実に現れている.専門用語の対訳を得るには時間がかかるが,調べれば対応する訳語を得られる可能性も高いため,対訳の自信度が高くなる傾向も見られた.\begin{table}[b]\caption{各手法におけるフレーズ長ごとの平均自信度評価}\label{tab:confidence}\input{07table10.txt}\end{table}\begin{table}[b]\caption{保証値以上の自信度を持つフレーズ対のみを学習に用いた場合の翻訳精度}\label{tab:confidence-filter}\input{07table11.txt}\end{table}\textbf{自信度帯による翻訳精度:}各手法によって得られたフレーズ対をすべて学習に用いた場合の翻訳精度を表\ref{tab:confidence-filter}に示す.また,それぞれのフレーズ対に自信度評価が記録されているため,最低保証値を定めて全フレーズ対のうち自信度が2以上や3のフレーズ対のみを学習に用いた翻訳モデルの評価も行った.その結果,どの手法においても自信度1の対訳を除去して2以上のフレーズ対のみを用いた場合の方が,全フレーズ対を用いる場合よりも翻訳精度の向上が見られた.一方,自信度3の対訳のみを用いる場合は精度がかえって減少したが,これは大幅に対訳データを削ってしまうことによる悪影響であろう.追加データ無しのベースシステムではBLEUスコアが約9.37\%であったが,提案手法によって収集した1万単語分の追加データのうち自信度2以上のものを用いて翻訳モデルを学習することで,BLEUスコアは約10.72\%となり,約1.35ポイントの翻訳精度向上を達成することができた.
\section{まとめ}
\label{seq:conclusion}本研究では,機械翻訳のための能動学習における,新しいフレーズ選択手法として,フレーズの極大性を導入し,それをパラメータ$\lambda$で一般化して頻度順に追加する$\lambda$-極大フレーズ選択手法と,句構造解析結果から部分木のみを頻度順に選択する部分構文木選択手法,およびそれらの組み合わせである$\lambda$-極大部分構文木選択手法を提案した.提案手法の有効性を調査するため,先ず,人手翻訳によるアノテーション作業を擬似的にSMTで行うシミュレーション実験を実施したところ,冗長に選択されるフレーズを$\lambda$-極大性に基づいて削減することで,従来より少ない追加単語数で精度向上を達成することができた.また,$\lambda$-極大部分構文木選択手法が実際の人手翻訳に与える影響を調査するため,人手翻訳実験を実施したところ,翻訳精度と翻訳者の自信度評価のどちらにおいても従来手法より高い結果が得られた.しかし,今回用いた手法では専門用語が重点的に選択されるため,従来のフレーズ選択手法よりも長い翻訳時間を要することも示された.そのため,翻訳時間を短縮しつつ,有効にモデルを高度化させられるような能動学習手法を考案することが今後の課題である.具体的には,未知語の獲得手法\cite{daume11domain}や,時間効率を最適化するフレーズ選択手法\cite{sperber14}が改善の手がかりとなり得る.また,フレーズ中の部分フレーズを``oneoftheprecedingX''のように変数でテンプレート化する手法\cite{chiang07hiero}を用いて能動学習に利用する手法の検討も興味深いと考えている.\acknowledgment本研究は,(株)ATR-Trekの助成を受け実施されたものです.また,(株)バオバブには人手翻訳実験のための翻訳作業を支援して頂きました.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ananthakrishnan,Prasad,Stallard,\BBA\Natarajan}{Ananthakrishnanet~al.}{2010a}]{ananthakrishnan10}Ananthakrishnan,S.,Prasad,R.,Stallard,D.,\BBA\Natarajan,P.\BBOP2010a\BBCP.\newblock\BBOQASemi-SupervisedBatch-ModeActiveLearningStrategyforImprovedStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofCoNLL},\mbox{\BPGS\126--134}.\bibitem[\protect\BCAY{Ananthakrishnan,Prasad,Stallard,\BBA\Natarajan}{Ananthakrishnanet~al.}{2010b}]{ananthakrishnan10emnlp}Ananthakrishnan,S.,Prasad,R.,Stallard,D.,\BBA\Natarajan,P.\BBOP2010b\BBCP.\newblock\BBOQDiscriminativeSampleSelectionforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\626--635}.\bibitem[\protect\BCAY{Bloodgood\BBA\Callison-Burch}{Bloodgood\BBA\Callison-Burch}{2010}]{bloodgood10}Bloodgood,M.\BBACOMMA\\BBA\Callison-Burch,C.\BBOP2010\BBCP.\newblock\BBOQBuckingtheTrend:Large-ScaleCost-FocusedActiveLearningforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\854--864}.\bibitem[\protect\BCAY{Brown,Pietra,Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{brown93smt}Brown,P.~F.,Pietra,V.~J.,Pietra,S.A.~D.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofStatisticalMachineTranslation:ParameterEstimation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19},\mbox{\BPGS\263--312}.\bibitem[\protect\BCAY{Chiang}{Chiang}{2007}]{chiang07hiero}Chiang,D.\BBOP2007\BBCP.\newblock\BBOQHierarchicalPhrase-BasedTranslation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf33}(2),\mbox{\BPGS\201--228}.\bibitem[\protect\BCAY{Daum{\'{e}}~III\BBA\Jagarlamudi}{Daum{\'{e}}~III\BBA\Jagarlamudi}{2011}]{daume11domain}Daum{\'{e}}~III,H.\BBACOMMA\\BBA\Jagarlamudi,J.\BBOP2011\BBCP.\newblock\BBOQDomainAdaptationforMachineTranslationbyMiningUnseenWords.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\407--412}.\bibitem[\protect\BCAY{Eck,Vogel,\BBA\Waibel}{Ecket~al.}{2005}]{eck05}Eck,M.,Vogel,S.,\BBA\Waibel,A.\BBOP2005\BBCP.\newblock\BBOQLowCostPortabilityforStatisticalMachineTranslationbasedinN-gramFrequencyandTF-IDF.\BBCQ\\newblockIn{\BemProceedingsofIWSLT},\mbox{\BPGS\61--67}.\bibitem[\protect\BCAY{Germann}{Germann}{2014}]{germann14dynamic}Germann,U.\BBOP2014\BBCP.\newblock\BBOQDynamicPhraseTablesforMachineTranslationinanInteractivePost-editingScenario.\BBCQ\\newblockIn{\BemProceedingsofAMTA2014WorkshoponInteractiveandAdaptiveMachineTranslation},\mbox{\BPGS\20--31}.\bibitem[\protect\BCAY{Gonz{\'{a}}lez-Rubio,Ortiz-Mart{\'{i}}nez,\BBA\Casacuberta}{Gonz{\'{a}}lez-Rubioet~al.}{2012}]{gonzalezrubio12}Gonz{\'{a}}lez-Rubio,J.,Ortiz-Mart{\'{i}}nez,D.,\BBA\Casacuberta,F.\BBOP2012\BBCP.\newblock\BBOQActiveLearningforInteractiveMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofEACL},\mbox{\BPGS\245--254}.\bibitem[\protect\BCAY{Green,Wang,Chuang,Heer,Schuster,\BBA\Manning}{Greenet~al.}{2014}]{green14}Green,S.,Wang,S.~I.,Chuang,J.,Heer,J.,Schuster,S.,\BBA\Manning,C.~D.\BBOP2014\BBCP.\newblock\BBOQHumanEffortandMachineLearnabilityinComputerAidedTranslation.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\1225--1236}.\bibitem[\protect\BCAY{Haffari,Roy,\BBA\Sarkar}{Haffariet~al.}{2009}]{haffari09naacl}Haffari,G.,Roy,M.,\BBA\Sarkar,A.\BBOP2009\BBCP.\newblock\BBOQActiveLearningforStatisticalPhrase-basedMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofNAACL},\mbox{\BPGS\415--423}.\bibitem[\protect\BCAY{Haffari\BBA\Sarkar}{Haffari\BBA\Sarkar}{2009}]{haffari09acl}Haffari,G.\BBACOMMA\\BBA\Sarkar,A.\BBOP2009\BBCP.\newblock\BBOQActiveLearningforMultilingualStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\181--189}.\bibitem[\protect\BCAY{Heafield}{Heafield}{2011}]{heafield11}Heafield,K.\BBOP2011\BBCP.\newblock\BBOQKenLM:FasterandSmallerLanguageModelQueries.\BBCQ\\newblockIn{\BemProceedingsofWMT},\mbox{\BPGS\187--197}.\bibitem[\protect\BCAY{Kasai,Lee,Arimura,Arikawa,\BBA\Park}{Kasaiet~al.}{2001}]{kasai01}Kasai,T.,Lee,G.,Arimura,H.,Arikawa,S.,\BBA\Park,K.\BBOP2001\BBCP.\newblock\BBOQLinear-TimeLongest-Common-PrefixComputationinSuffixArraysandItsApplications.\BBCQ\\newblockIn{\BemProceedingsofCPM},\mbox{\BPGS\181--192}.\bibitem[\protect\BCAY{Koehn}{Koehn}{2004}]{koehn04bootstrap}Koehn,P.\BBOP2004\BBCP.\newblock\BBOQStatisticalSignificanceTestsforMachineTranslationEvaluation.\BBCQ\\newblockInLin,D.\BBACOMMA\\BBA\Wu,D.\BEDS,{\BemProceedingsofEMNLP},\mbox{\BPGS\388--395}.\bibitem[\protect\BCAY{Koehn}{Koehn}{2005}]{koehn05europarl}Koehn,P.\BBOP2005\BBCP.\newblock\BBOQEuroparl:AParallelCorpusforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemMTSummit},\lowercase{\BVOL}~5,\mbox{\BPGS\79--86}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{koehn07moses}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{koehn03pbmt}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-BasedTranslation.\BBCQ\\newblockIn{\BemProceedingsofNAACL},\mbox{\BPGS\48--54}.\bibitem[\protect\BCAY{三浦\JBA{GrahamNeubig}\JBA{MichaelPaul}\JBA中村}{三浦\Jetal}{2015}]{miura15nl12}三浦明波\JBA{GrahamNeubig}\JBA{MichaelPaul}\JBA中村哲\BBOP2015\BBCP.\newblock構文木と句の極大性に基づく機械翻訳のための能動学習.\\newblock\Jem{情報処理学会第224回自然言語処理研究会(SIG-NL)},19\JNUM,\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{三浦\JBA{GrahamNeubig}\JBA{MichaelPaul}\JBA中村}{三浦\Jetal}{2016}]{miura16nlp}三浦明波\JBA{GrahamNeubig}\JBA{MichaelPaul}\JBA中村哲\BBOP2016\BBCP.\newblock構文情報に基づく機械翻訳のための能動学習手法と人手翻訳による評価.\\newblock\Jem{言語処理学会第22回年次大会(NLP2016)},\mbox{\BPGS\605--608}.\bibitem[\protect\BCAY{Miura,Neubig,Paul,\BBA\Nakamura}{Miuraet~al.}{2016}]{miura16naacl}Miura,A.,Neubig,G.,Paul,M.,\BBA\Nakamura,S.\BBOP2016\BBCP.\newblock\BBOQSelectingSyntactic,Non-redundantSegmentsinActiveLearningforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofNAACL},\mbox{\BPGS\20--29}.\bibitem[\protect\BCAY{Nakazawa,Yaguchi,Uchimoto,Utiyama,Sumita,Kurohashi,\BBA\Isahara}{Nakazawaet~al.}{2016}]{nakazawa16lrec}Nakazawa,T.,Yaguchi,M.,Uchimoto,K.,Utiyama,M.,Sumita,E.,Kurohashi,S.,\BBA\Isahara,H.\BBOP2016\BBCP.\newblock\BBOQASPEC:AsianScientificPaperExcerptCorpus.\BBCQ\\newblockIn{\BemProceedingsofLREC},\mbox{\BPGS\2204--2208}.\bibitem[\protect\BCAY{Neubig,Nakata,\BBA\Mori}{Neubiget~al.}{2011}]{neubig11-kytea}Neubig,G.,Nakata,Y.,\BBA\Mori,S.\BBOP2011\BBCP.\newblock\BBOQPointwisePredictionforRobust,AdaptableJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\529--533}.\bibitem[\protect\BCAY{Och}{Och}{2003}]{och03mert}Och,F.~J.\BBOP2003\BBCP.\newblock\BBOQMinimumErrorRateTraininginStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\160--167}.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2003}]{och03alignment}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQASystematicComparisonofVariousStatisticalAlignmentModels.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf29}(1),\mbox{\BPGS\19--51}.\bibitem[\protect\BCAY{Oda,Neubig,Sakti,Toda,\BBA\Nakamura}{Odaet~al.}{2015}]{oda15ckylark}Oda,Y.,Neubig,G.,Sakti,S.,Toda,T.,\BBA\Nakamura,S.\BBOP2015\BBCP.\newblock\BBOQCkylark:AMoreRobustPCFG-LAParser.\BBCQ\\newblockIn{\BemProceedingsofNAACL},\mbox{\BPGS\41--45}.\bibitem[\protect\BCAY{Okanohara\BBA\Tsujii}{Okanohara\BBA\Tsujii}{2009}]{okanohara09}Okanohara,D.\BBACOMMA\\BBA\Tsujii,J.\BBOP2009\BBCP.\newblock\BBOQTextCategorizationwithAllSubstringFeatures.\BBCQ\\newblockIn{\BemProceedingsofSDM},\mbox{\BPGS\838--846}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni02}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Settles\BBA\Craven}{Settles\BBA\Craven}{2008}]{settles08}Settles,B.\BBACOMMA\\BBA\Craven,M.\BBOP2008\BBCP.\newblock\BBOQAnAnalysisofActiveLearningStrategiesforSequenceLabelingTasks.\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\mbox{\BPGS\1070--1079}.\bibitem[\protect\BCAY{Sperber,Simantzik,Neubig,Nakamura,\BBA\Waibel}{Sperberet~al.}{2014}]{sperber14}Sperber,M.,Simantzik,M.,Neubig,G.,Nakamura,S.,\BBA\Waibel,A.\BBOP2014\BBCP.\newblock\BBOQSegmentationforEfficientSupervisedLanguageAnnotationwithanExplicitCost-UtilityTradeoff.\BBCQ\\newblock{\BemTACL},{\Bbf2},\mbox{\BPGS\169--180}.\bibitem[\protect\BCAY{Stolcke}{Stolcke}{2002}]{stolcke02}Stolcke,A.\BBOP2002\BBCP.\newblock\BBOQSRILM---AnExtensibleLanguageModelingToolkit.\BBCQ\\newblockIn{\BemProceedingsofICSLP},\mbox{\BPGS\901--904}.\bibitem[\protect\BCAY{Tiedemann}{Tiedemann}{2009}]{tiedemann09}Tiedemann,J.\BBOP2009\BBCP.\newblock\BBOQNewsfromOPUS-ACollectionofMultilingualParallelCorporawithToolsandInterfaces.\BBCQ\\newblockIn{\BemProceedingsofRANLP},\lowercase{\BVOL}~5,\mbox{\BPGS\237--248}.\bibitem[\protect\BCAY{Tomanek\BBA\Hahn}{Tomanek\BBA\Hahn}{2009}]{tomanek09}Tomanek,K.\BBACOMMA\\BBA\Hahn,U.\BBOP2009\BBCP.\newblock\BBOQSemi-SupervisedActiveLearningforSequenceLabeling.\BBCQ\\newblockIn{\BemProceedingsofACL},\mbox{\BPGS\1039--1047}.\bibitem[\protect\BCAY{Turchi,De~Bie,\BBA\Cristianini}{Turchiet~al.}{2008}]{turchi08}Turchi,M.,De~Bie,T.,\BBA\Cristianini,N.\BBOP2008\BBCP.\newblock\BBOQLearningPerformanceofaMachineTranslationSystem:AStatisticalandComputationalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofWMT},\mbox{\BPGS\35--43}.\bibitem[\protect\BCAY{W{\"{a}}schle\BBA\Riezler}{W{\"{a}}schle\BBA\Riezler}{2012}]{waeschle12}W{\"{a}}schle,K.\BBACOMMA\\BBA\Riezler,S.\BBOP2012\BBCP.\newblock\BBOQAnalyzingParallelismandDomainSimilaritiesintheMARECPatentCorpus.\BBCQ\\newblock{\BemMultidisciplinaryInformationRetrieval},\mbox{\BPGS\12--27}.\bibitem[\protect\BCAY{Yamamoto\BBA\Church}{Yamamoto\BBA\Church}{2001}]{yamamoto01}Yamamoto,M.\BBACOMMA\\BBA\Church,K.~W.\BBOP2001\BBCP.\newblock\BBOQUsingSuffixArraystoComputeTermFrequencyandDocumentFrequencyforAllSubstringsinaCorpus.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf27}(1),\mbox{\BPGS\1--30}.\end{thebibliography}\begin{biography}\bioauthor{三浦明波}{2013年イスラエル国テクニオン・イスラエル工科大学コンピュータ・サイエンス専攻卒業.2016年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.現在,同大学院博士後期課程在学.機械翻訳,自然言語処理に関する研究に従事.情報処理学会,言語処理学会,ACL各会員.}\bioauthor[:]{GrahamNeubig}{2005年米国イリノイ大学アーバナ・シャンペーン校工学部コンピュータ・サイエンス専攻卒業.2010年京都大学大学院情報学研究科修士課程修了.2012年同大学院博士後期課程修了.2012〜2016年奈良先端科学技術大学院大学助教.現在,カーネギーメロン大学言語技術研究所助教,奈良先端科学技術大学院大学客員准教授.機械翻訳,自然言語処理に関する研究に従事.}\bioauthor[:]{MichaelPaul}{1988年ドイツサーランド大学コンピュータ・サイエンス専攻卒業.2006年神戸大学工学博士.1995年ATR音声翻訳通信研究所研究員,2000年ATR音声言語コミュニケーション研究所主任研究員,2006年(独)情報通信研究機構研究センター主任研究員.2013年株式会社ATR-Trek.音声翻訳,自然言語処理に関する研究・ビジネスソリューション開発に従事.第58回前島密賞受賞,アジア太平洋機械翻訳協会(AAMT)長尾賞受賞.}\bioauthor{中村哲}{1981年京都工芸繊維大学工芸学部電子工学科卒業.京都大学工学博士.シャープ株式会社.奈良先端科学技術大学院大学助教授,2000年ATR音声言語コミュニケーション研究所室長,所長,2006年(独)情報通信研究機構研究センター長,けいはんな研究所長などを経て,現在,奈良先端科学技術大学院大学教授.ATRフェロー.カールスルーエ大学客員教授.音声翻訳,音声対話,自然言語処理の研究に従事.情報処理学会喜安記念業績賞,総務大臣表彰,文部科学大臣表彰,AntonioZampoli賞受賞.ISCA理事,IEEESLTC委員,IEEEフェロー.}\end{biography}\biodate\end{document}
| |
V24N03-06 | \section{はじめに}
近年,インターネットなどからテキストとそれに紐づけられた非テキスト情報を大量に得ることができ,画像とそのキャプションや経済の解説記事とその株価チャートなどはwebなどから比較的容易に入手することができる.しかし,テキストと非テキスト情報を対応させる研究の多くは,画像から自然言語を出力する手法\cite{Farhadi:2010:PTS:1888089.1888092,Yang:2011:CSG:2145432.2145484,rohrbach13iccv}のように非テキスト情報から自然言語を出力することを目的としている.Kirosらは非テキスト情報を用いることにより言語モデルの性能向上を示した\cite{icml2014c2_kiros14}.本稿では,非テキスト情報を用いた自動単語分割について述べる.本稿では,日本語の単語分割を題材とする.単語分割は単語の境界が曖昧な言語においてよく用いられる最初の処理であり,英語では品詞推定と同等に重要な処理である.情報源として非テキスト情報とテキストが対応したデータが大量に必要になるため,本研究では将棋のプロの試合から作られた将棋の局面と将棋解説文がペアになったデータ\cite{A.Japanese.Chess.Commentary.Corpus}を用いて実験を行う.似た局面からは類似した解説文が生成されると仮定し,非テキスト情報である将棋の局面からその局面に対応した解説文の部分文字列をニューラルネットワークモデルを用いて予測し,その局面から生成されやすい単語を列挙する.列挙された単語を辞書に追加することで単語分割の精度を向上させる.\begin{figure}[b]\begin{center}\includegraphics{24-3ia6f1.eps}\end{center}\caption{提案手法の概観}\label{fig-overview}\end{figure}本手法は3つのステップから構成される(図\ref{fig-overview}).まず,将棋の局面と単語候補を対応させるために生テキストから単語候補を生成する.単語候補は将棋解説文を擬似確率的分割コーパスを用いて部分単語列に分割することで得られる.次に,生成した単語候補と将棋の局面をニューラルネットワークを用いて対応させることでシンボルグラウンディングを行う.最後にシンボルグラウンディングの結果を用いて将棋解説文専用の辞書を生成し,自動単語分割の手法に取り入れる.本稿の構成は以下の通りである.まず2章で単語の候補を取り出すために確率的単語分割コーパスを用いる手法について述べる.3章で将棋解説文と局面が対応しているデータセットのゲーム解説コーパスについて触れ,シンボルグラウンディングとして単語候補と将棋局面を対応させる手法の説明を行う.4章ではベースラインとなる自動単語分割器について述べたあと,非テキスト情報を用いた単語分割として,シンボルグラウンディングの結果を用いて辞書を生成し,単語分割器を構築する手法を述べる.5章で実験設定と実験結果の評価と考察を行い,6章で本手法と他の単語分割の手法を比較する.最後に7章で本稿をまとめる.
\section{確率的単語分割コーパス}
本研究では将棋の局面とその言語表現をシンボルグラウンディングの対象とし,将棋解説文専用の辞書を獲得する.本章では,辞書獲得のために用いる確率的単語分割コーパス\cite{DBLP:conf/interspeech/MoriT04}について説明する.確率的単語分割コーパスは文字列の分割境界が確率的に与えられたコーパスであり,確率的単語分割コーパスを用いることでコーパスに出現する各単語の期待頻度を計算することができる.しかし,辞書に追加するための単語候補を確率的単語分割コーパスから選択するためには,コーパスに出現するほとんどすべての文字列を単語候補として期待頻度を計算する必要があり,語彙サイズが非常に大きくなり,高い計算コストを要する.そのため,本研究では擬似的な確率的単語分割コーパス\cite{stocha_seg_corpus}を用いる.\subsection{確率的単語分割コーパス}確率的単語分割コーパスは生テキストコーパス$C_r$(以下,文字列$x^{n_r}_1$として表す)と境界の分割確率$P_i$の組み合わせで定義される.ここで$P_i$はある文字$x_i$と$x_{i+1}$の間に分割境界が存在する確率である.この分割確率は$x_i$と$x_{i+1}$の周辺の文字列を参照したロジスティック回帰モデル\cite{Fan:2008:LLL:1390681.1442794}により推定される.ただし,ここで用いるロジスティック回帰モデルは人手で単語分割したコーパスを用いて学習される.コーパスの最初の文字の前と最後の文字の後は分割確率を1とする($P_0=P_{n_r}=1$).確率的単語分割コーパスで推定される単語の期待頻度$f_r(\mbox{\boldmath$w$})$は以下で計算される.\begin{align}f_r(\mbox{\boldmath$w$})&=\sum_{i\inO}{P_i\left\{\prod^{k-1}_{j=1}{(1-P_{i+j})}\right\}P_{i+k}}\\O&=\{i\|\x^{i+k}_{i+1}=\mbox{\boldmath$w$}\}\nonumber\end{align}ここで,$O$はテキストの単語候補となりうる部分文字列$x^{i+k}_{i+1}$における$i$の集合である.\subsection{擬似確率的単語分割コーパス}確率的単語分割コーパスを用いた単語の期待頻度の推定は非常に高い時間的・空間的計算コストを要する.そのため,本研究では,確率的単語分割コーパスから直接単語の期待頻度を推定するのではなく,擬似確率的単語分割コーパス\cite{stocha_seg_corpus}と呼ばれる具体的に単語分割が付与されたコーパスを用いて単語の期待頻度を推定する.疑似確率的単語分割コーパスは,確率的単語分割コーパスにより定義される確率分布に従って単語分割を行うことにより得られる.具体的には,確率的単語分割コーパスの各文に対し,その文に与えられた確率分布に従って単語分割を行うことで,単語分割文の生成を行う.ただし,同じ文に対して1度だけ単語分割文を生成するのではなく,複数回単語分割を行い,複数の単語分割文を生成する.この手法はサンプリングの一種であり,より多くの単語分割文を生成することで,より良く確率的単語分割コーパスを近似する.生成された疑似確率的単語分割コーパスは陽に単語分割がされているため容易に各単語の期待頻度を推定することができる.次の手続きは,確率的単語分割コーパスから擬似確率的単語分割コーパスを生成する具体的な手続きを表す.\begin{itemize}\itemFor$i$=1to$n_r-1$\begin{enumerate}\item$x_i$を出力\item$0<p<1$となる$p$をランダムに生成\itemif$p<P_i$:単語境界を出力\\otherwise:何も出力しない\end{enumerate}\end{itemize}上記のプロセスを$m$回繰り返し,$x_i$と$x_{i+1}$の分割境界の数を$m$で割ることで$P_i$の推定値を得ることができる.ここで$m\to\infty$とすると,大数の法則より$P_i$と$P_i$の推定値の誤差が0になることが保証される.
\section{シンボルグラウンディング}
本稿では,将棋の局面とその言語表現をシンボルグラウンディングの対象とする.後述する実験では,ゲーム解説コーパス\cite{A.Japanese.Chess.Commentary.Corpus}を用いる.本研究の手法は素性設計を除いて分野特有ではないので,画像とその説明文の組み合わせ\cite{regneri13tacl}など他の種類のデータにも適用可能である.\subsection{ゲーム解説コーパス}将棋は2人で行うボードゲームで,お互いに自分の駒を動かしながら相手の玉の駒を取ることを目的とする.将棋の大きな特徴として,取った相手の駒は自分の持ち駒として使うことができることや一部の駒は相手の敵陣に入るなど特定の条件を満たした場合に駒を裏返して別の動きに変えることができることが挙げられる.多くのプロ棋士間での対局は,他のプロ棋士により指し手の評価やその局面の状況,次の指し手の予想などが解説されている.ゲーム解説コーパスの各解説文には,対象とする局面が対応しており,ほとんどの解説文は局面に対するコメントをしているが局面に関係のないコメント(対局者に関する情報など)が少量含まれる.\subsection{グラウンディング}将棋局面$S_i$$(i=1,\ldots,n)$とその解説文$C_i$の大量のペアを学習セットとし,将棋局面$S_i$は素性ベクトル$f(S_i)$に変換して用いる.ここで$n$は学習セットに含まれる局面の数である.まず,$C_i$から擬似確率的単語分割コーパス$C'_i$を生成する.$C'_i$は$m$個のコーパス$C'_{ij}$$(j=1,\ldots,m)$を含んでおり,それぞれのコーパスは同じ解説文から成るが,異なる単語分割が与えられている(本実験では$m=4$とした).次に将棋局面の素性ベクトル$f(S_i)$を入力として用いて$C'_{i}$の単語を予測するモデルを3層のフィードフォワードニューラルネットワークで構築する.隠れ層の次元数は100とし,活性化関数には標準シグモイド関数を用いる.出力は$d$次元の実数値ベクトル($d$は単語候補の総数)であり,実数値ベクトルのそれぞれの要素はある特定の単語候補に対応しており,解説文にその単語候補が含まれている確率を出力する.学習の際には解説文にその単語候補が含まれていれば$1$,含まれていなければ$0$とし,損失関数として2乗誤差を用いる.つまり,将棋局面からその解説文の単語候補のBag-of-Wordsを3層のニューラルネットワーク用いて予測することでグラウンディングを行う.将棋局面の素性はコンピュータ将棋プログラムの激指\cite{Tsuruoka02game-treesearch}によるゲーム木探索の素性や結果,評価の一部を用いた.本実験では以下の素性を用いた.\begin{description}\item[\a:]将棋の駒の位置\item[\b:]持ち駒\item[\c:]{\bfa}と{\bfb}の組み合わせ\item[\d:]その他ヒューリスティックな素性\end{description}{\bfc}は,2駒関係(ある2つの駒の位置関係)や3駒関係などであり,{\bfd}のヒューリスティックな素性の例として,駒の価値に関する素性や玉の危険度に関する素性などがある.将棋局面の素性の多くは{\bfa},{\bfb},{\bfc}であり,次元数では$94.7\%$,発火数では$87.9\%$を占めている.一般のシンボルグラウンディングとは違い,解説文から作られた擬似確率的単語分割コーパスに出現する単語の候補は,正しい単語文字列と正しく分割されていない文字列が含まれる.それらの正しく分割されていない文字列は正しい単語文字列よりも出現する確率が低いと推測できる.似た局面からは同じ文字列が出現しやすいと仮定すると,ニューラルネットワークを用いたモデルでは,それらの局面と正しく分割されていない文字列は強い関係を結ぶことができず,出力する値は正しい単語文字列よりも小さくなると推測される.
\section{シンボルグラウンディングの結果を用いた単語分割}
\label{sec:WS_SG}この章ではベースラインとなる自動単語分割とシンボルグラウンディングの結果を用いた単語分割について述べる.\subsection{ベースラインとなる単語分割}さまざまな日本語の単語分割手法や形態素解析手法があるが,品詞情報なしで新しい単語を追加することができる唯一の単語分割手法である点予測に基づく手法\cite{Neubig:2011:PPR:2002736.2002841}を採用する.点予測による単語分割の入力は分割されてない文字列$x=x_1,\ldots,x_{n_r}$である.この単語分割器はサポートベクターマシン\cite{Fan:2008:LLL:1390681.1442794}を用いて単語境界があれば$P_i=1$なければ$P_i=0$として境界を推定する.このときの素性は周辺の6文字から文字$n$-gramと文字種$n$-gram($n=1,2,3$)を用いる.また,もし周辺の文字$n$-gramが辞書の文字列と一致した場合にはそれも素性として用いる.\subsection{非テキスト情報を用いた自動単語分割器の学習}非テキスト情報を自動単語分割に用いる最初の試みとして,非テキスト情報と関連性の高い単語候補を加えた辞書を生成する手法を提案する.非テキスト情報から単語候補を予測するニューラルネットワークを構築することでシンボルグラウンディングを行う.構築されたニューラルネットワークを用いることで非テキスト情報と関連する単語候補を取得できる.例えば将棋の場合,局面と局面から生成される解説文の単語は強い関連があり,似た局面からは同じ単語が生成される可能性が高いと考える.つまり,非テキスト情報と強い関連の単語候補を選ぶことで良い辞書を作ることができる.辞書生成のために,シンボルグラウンディングの結果として将棋局面$S_i$から$d$次元の実数値ベクトルを計算し単語候補のスコアを得る.本稿では,単語候補のスコアから以下の3つの方法で辞書を生成する.\begin{description}\item[sum]すべての局面の$d$次元の実数値ベクトルの和をとり,上位$R\%$の単語を辞書に追加する.\item[max]すべての局面の$d$次元の実数値ベクトルの要素の最大値を取り,上位$R\%$の単語を辞書に追加する.\item[each]各局面の$d$次元の実数値ベクトルの上位$R\%$の単語を辞書に追加する.\end{description}例えば,以下のように局面$S_1,S_2$から計算される単語候補[四間,間,間飛,飛,飛車]の$5$次元の実数値ベクトルがあり,その上位$40\%$の単語候補を辞書に加えるとする.\begin{itemize}\item$S_1$から計算される単語候補のベクトル$[1.4,1.5,0.2,0.5,3.8]$\item$S_2$から計算される単語候補のベクトル$[4.9,0.8,0.1,0.9,3.2]$\end{itemize}{\bfsum}では$S_1,S_2$から計算される単語候補のベクトルの要素を足しあわせた$[6.3,2.3,0.3,1.4,7.0]$について上位$40\%$の単語候補である「四間」と「飛車」を辞書に加える.{\bfmax}ではそれぞれの要素の最大値からなるベクトル$[4.9,1.5,0.2,0.9,3.8]$から「四間」と「飛車」を辞書に加える.{\bfeach}では$[1.4,1.5,0.2,0.5,3.8]$と$[4.9,0.8,0.1,0.9,3.2]$のそれぞれの上位$40\%$の単語候補「間」「飛車」と「四間」「飛車」を辞書に追加する.この時すでに辞書に登録されている単語候補(この場合は「飛車」)は二重に登録しない.最後に,それぞれの方法で生成された辞書を用いて自動単語分割器の再学習を行う.
\section{評価}
\ref{sec:WS_SG}章で述べた提案手法の効果を検証するために自動単語分割の実験を行った.提案手法の効果を検証するために,シンボルグラウンディングにより獲得された辞書を用いる場合(提案手法)と用いない場合を比較した.\subsection{コーパス}\begin{table}[b]\caption{コーパスの概要}\label{tab_Corpus}\input{06table01.txt}\end{table}表\ref{tab_Corpus}は今回の実験で用いたコーパスの詳細を示している.コーパスは,シンボルグラウンディングのためのコーパス(シンボルグラウンディング用コーパス)と自動単語分割のための訓練/開発/テストコーパスから成る.シンボルグラウンディング用コーパスは,33,151組の将棋局面と将棋解説文から成る.ただし,シンボルグラウンディング用コーパスの将棋解説文には単語分割が付与されていない.この将棋解説文から疑似確率的単語分割コーパスを生成し,シンボルグラウンディングの学習(ニューラルネットワークの学習)を行った.自動単語分割のための訓練コーパスには,現代日本語書き言葉均衡コーパス(BCCWJ)\cite{Balanced.corpus.of.contemporary.written.Japanese}と,日経新聞(1990--2000)の一部からなる新聞記事のコーパス,英語表現辞典からなる日常会話文のコーパスを用いた.BCCWJの一部は学習には用いず,テストコーパスとして用いた.将棋解説文からランダムに抽出した5,041文を人手で単語分割し,これを開発コーパス(253文),局面なしテストコーパス(3,000文),局面ありテストコーパス(1,788文)の3つに分けた\footnote{シンボルグラウンディング用コーパスと自動単語分割のための開発/テストコーパスはそれぞれ異なる将棋解説文から抽出して作成した.}.将棋解説文のための辞書は,局面ありテストコーパスに対し提案手法を適用することで獲得する.局面なしテストコーパスは局面の情報を持たない将棋解説文だけから成るコーパスであり,局面ありテストコーパスから得られた辞書の汎用性を評価するために用意した.実験では,局面ありテストコーパスから得られた辞書を用いて,局面なしテストコーパスの単語分割精度を評価した.\subsection{単語分割システム}本実験では以下の2つの単語分割モデルを用いてその精度を評価した.\begin{description}\item[ベースライン:]単語分割のための訓練コーパスとUniDic(234,652単語)\footnote{http://pj.ninjal.ac.jp/corpus\_center/unidic/}を用いて学習されたモデル.\item[+擬似確率的単語分割辞書:]ベースラインで用いた言語資源に加え,擬似確率的単語コーパスから出現頻度の高い単語候補を加えた辞書を用いて学習されたモデル.\item[+シンボルグラウンディング:]ベースラインで用いた言語資源に加え,シンボルグラウンディングにより獲得された辞書を用いて学習されたモデル.\end{description}ベースラインおよび提案手法のいずれにおいてもUniDicを辞書として用いた.提案手法ではUniDicに加えて,シンボルグラウンディング用コーパスから獲得される辞書を用いる.ベースラインの単語分割モデル構築と辞書獲得のために必要となる擬似確率的単語分割コーパスの生成にはロジスティック回帰を用いており,表\ref{tab_Corpus}に示した自動単語分割のための訓練コーパスを学習用に用いた.ロジスティック回帰は単語境界の確率値$P_i$を出力し,ベースラインではこの$P_i$が0.5以上なら分割境界があるとし,擬似確率的単語分割コーパスには$P_i$の出力値をそのまま用いて生成した.このとき$m=4$とし,擬似確率的単語分割コーパスを$4$つ生成した.シンボルグラウンディングの手法を評価するために,擬似確率単語分割コーパスの単語を頻度順に並べ,その上位$R'\%$を追加した辞書を生成し,モデルを構築した.辞書獲得において,シンボルグラウンディングの辞書生成の手法({\bfsum},{\bfmax},{\bfeach})と$R'$,$R$の値には開発セットの単語分割精度(F値)を用いて最も高くなるパラメータを採用した.擬似確率的単語分割辞書では$R'=0.074$のときに最も精度が高くなり,辞書には110単語が追加された.提案手法では,手法{\bfeach}で$R=0.074$のときに最も精度が高くなり,辞書には110単語が追加された.\subsection{結果と考察}単語分割精度の評価尺度には以下で表される,適合率と再現率,F値を用いた.\begin{align*}適合率&=\frac{正解単語数}{システムの出力文の単語数}\\[1zh]再現率&=\frac{正解数単語数}{正解文の単語数}\\[1zh]{\rmF}値&=\frac{2\cdot適合率\cdot再現率}{適合率+再現率}\end{align*}表\ref{tab_result_BCCWJ}はBCCWJに対する単語分割の精度を示しており,表\ref{tab_result_Shogi}は局面なしの将棋解説文に対する単語分割精度と局面ありの将棋解説文に対する単語分割の精度を示している.このときの辞書は局面ありの解説文のみを用いて生成された.BCCWJに対する単語分割精度(表\ref{tab_result_BCCWJ})と将棋解説文に対するの単語分割精度(表\ref{tab_result_Shogi})を比較すると,将棋解説文の単語分割は一般ドメインの単語分割より難しいことが分かる.将棋解説文には将棋特有の単語や表現が大量に含まれるため単語分割の精度が低くなったことが考えられる.\begin{table}[b]\caption{BCCWJ(6,025文)の単語分割結果}\label{tab_result_BCCWJ}\input{06table02.txt}\end{table}\begin{table}[b]\caption{将棋解説文(4,788文)の単語分割結果}\label{tab_result_Shogi}\input{06table03.txt}\end{table}表\ref{tab_result_Shogi}において,提案手法はベースラインや擬似確率的単語辞書を追加した手法に比べて精度が向上しており,再現率についてはマクネマー検定で$1\%$の統計的有意差があった.本手法における辞書獲得は教師なし学習にもかかわらず自然注釈による手法\cite{liu-EtAl:2014:EMNLP}と同程度のエラー削減率を実現できた.この結果よりシンボルグラウンディングによる単語分割は注釈付けと同様に有用であると言える.表\ref{tab_result_Shogi}において,ベースラインと辞書を追加した手法の適合率と再現率を詳しくみると,再現率は適合率よりも大きく向上していることが分かる.この結果より,正しい単語と少量の間違った単語を学習していることが分かる.実際に,擬似確率的単語分割辞書とシンボルグラウンディングによる辞書の両方には「飛車」や「同歩」,「先手」などの将棋解説文に出現する頻度が高い単語が登録されていた.シンボルグラウンディングによる辞書には「休憩」や「成」など擬似確率的単語分割辞書には無い単語が追加されており,擬似確率的単語分割辞書には「.」や「・」などのシンボルグラウンディングによる辞書には存在しなかった単語が追加されていた.また,表\ref{tab_result_BCCWJ}より本手法は一般のドメインに深刻な精度低下をもたらさないことが分かる.表\ref{tab_result_Shogi_NoState}と表\ref{tab_result_Shogi_State}は局面なしの将棋解説文と局面ありの将棋解説文の単語分割精度を示している.表\ref{tab_result_Shogi_NoState}より,辞書を追加する2つの手法において,局面なしの将棋解説文の単語分割の精度が向上しており,生成された辞書が将棋解説文の分野に対して有効であることがわかる.この精度向上は高頻度で出現する将棋用語によるものと考えられる.局面なしの将棋解説文では,擬似確率的単語分割辞書を追加する手法が最も精度が高かった.しかし,局面ありの将棋解説文において,シンボルグラウンディングによる辞書を追加した手法が最も精度が高かった(表\ref{tab_result_Shogi_State}).また,局面なしの将棋解説文よりも局面ありの将棋解説文の方が精度向上の割合が大きい.以上より,本稿で提案する手法は局面に対応した単語を効果的に学習できていると結論できる.\begin{table}[b]\caption{局面なしの将棋解説文(3,000文)の単語分割結果}\label{tab_result_Shogi_NoState}\input{06table04.txt}\end{table}\begin{table}[b]\caption{局面ありの将棋解説文(1,788文)の単語分割結果}\label{tab_result_Shogi_State}\input{06table05.txt}\end{table}最後に,ニューラルネットワークを用いて将棋局面と解説文をグラウンディングする際のデータサイズを変更し,その学習曲線を図\ref{fig-curve}に示す.横軸が学習に用いる局面数であり,縦軸が将棋解説文(4,788文)における単語分割の精度(F値)を表している.局面数が12,000程度で学習が収束している.\begin{figure}[t]\begin{center}\includegraphics{24-3ia6f2.eps}\end{center}\caption{学習のデータサイズを変更したときの学習曲線}\label{fig-curve}\end{figure}
\section{関連研究}
本稿では日本語の単語分割を行った.単語分割の代表的な手法は隠れマルコフモデル\cite{Nagata:1994:SJM:991886.991920}である.また,Sproatらは類似した手法で中国語の単語分割を行った\cite{Sproat:1996:SFW:239895.239900}.これらの手法は単語をモデルの単位として扱っている.近年,Neubigらはそれぞれの文字の間に単語分割があるかどうかを点予測によって判定する手法\cite{Neubig:2011:PPR:2002736.2002841}を提案しており,タグの制約のない,文字へのBIタグのタグ付けとして解くことができる.中国語の単語分割ではBIESタグをタグ付けし系列ラベリング問題\cite{xue2003}として解く手法がある.BIESはそれぞれ単語の始まり,その続き,単語の終わり,1文字の単語を表している.我々の予備的な実験で日本語の単語分割ではBIタグを用いたサポートベクターマシンはBIESタグを用いたCRFよりもわずかに精度が高かった.これが本稿で点予測を用いた理由の1つである.しかし,本手法はBIESタグとCRFの単語分割にも適用可能である.本稿で述べた提案手法は教師なし学習でハイパーパラメーターを調整するための少量の注釈付きデータを必要とした.この観点では,この手法は自然注釈\cite{yang-vozila:2014:EMNLP2014,jiang-EtAl:2013:ACL2013,liu-EtAl:2014:EMNLP}に類似している.しかし,これらの研究ではハイパーテキストのタグは部分的な注釈と見なし,部分的な注釈を含むデータを用いて学習されたCRFで単語分割の性能を向上させた.また,Tsuboiらは大量の生のテキストから新しい単語を抽出する手法を提案し\cite{tsuboi-EtAl:2008:PAPERS},Moriらは類似した設定でのオンライン手法を提案した\cite{Mori96wordextraction}.グラウンディングに基づく教師なし単語分割には\cite{Roy2002113,Nguyen:2010:NWS:1873781.1873873}がある.Royらは音声情報と画像情報をグラウンディングすることにより,音声情報から単語を獲得する手法を提案した.これは,音声信号と画像の物体の類似性を用いて,物体とその名前を連続音声から獲得する.Nguyenらは機械翻訳のための教師なし単語分割を提案した.分かち書きされている翻訳先の言語の単語と対応するように翻訳元の言語をノンパラメトリックな手法で単語分割した.これらの研究に対して,本稿では言語以外のモダリティを扱い,単一言語内でテキストの単語分割を行う最初の試みとして将棋局面を用いた.
\section{終わりに}
本稿では非テキスト情報を用いた教師なし学習により辞書を生成し,それを用いることによる自動単語分割の精度向上について述べた.単語候補を生テキストから取り出すために,まず確率的に文を分割し,単語の候補と元の解説文に対応する将棋局面をニューラルネットワークを用いて結びつけてシンボルグラウンディングを行った.最後にシンボルグラウンディングの結果を参照しスコアの高い単語の候補を辞書に追加した.実験結果より非テキスト情報を用いた手法はテキスト情報のみを用いた手法よりも精度が高く,非テキスト情報を用いる手法の有効性が確認できた.今後は,この手法を他の深層学習のモデルに適用することやシンボルグラウンディングの結果を分散表現として単語分割の手法\cite{Ma2015AccurateLC}に適用,及び画像などの他の非テキスト情報を用いることが課題としてあげられる.\acknowledgment本研究はJSPS科研費26540190及び16K00293,25280084の助成を受けたものである.ここに敬意を表する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Fan,Chang,Hsieh,Wang,\BBA\Lin}{Fanet~al.}{2008}]{Fan:2008:LLL:1390681.1442794}Fan,R.-E.,Chang,K.-W.,Hsieh,C.-J.,Wang,X.-R.,\BBA\Lin,C.-J.\BBOP2008\BBCP.\newblock\BBOQLIBLINEAR:ALibraryforLargeLinearClassification.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf9},\mbox{\BPGS\1871--1874}.\bibitem[\protect\BCAY{Farhadi,Hejrati,Sadeghi,Young,Rashtchian,Hockenmaier,\BBA\Forsyth}{Farhadiet~al.}{2010}]{Farhadi:2010:PTS:1888089.1888092}Farhadi,A.,Hejrati,M.,Sadeghi,M.~A.,Young,P.,Rashtchian,C.,Hockenmaier,J.,\BBA\Forsyth,D.\BBOP2010\BBCP.\newblock\BBOQEveryPictureTellsaStory:GeneratingSentencesfromImages.\BBCQ\\newblockIn{\BemProceedingsofthe11thEuropeanConferenceonComputerVision},\mbox{\BPGS\15--29}.\bibitem[\protect\BCAY{Jiang,Sun,L{\"{u}},Yang,\BBA\Liu}{Jianget~al.}{2013}]{jiang-EtAl:2013:ACL2013}Jiang,W.,Sun,M.,L{\"{u}},Y.,Yang,Y.,\BBA\Liu,Q.\BBOP2013\BBCP.\newblock\BBOQDiscriminativeLearningwithNaturalAnnotations:WordSegmentationasaCaseStudy.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\761--769}.\bibitem[\protect\BCAY{Kiros,Salakhutdinov,\BBA\Zemel}{Kiroset~al.}{2014}]{icml2014c2_kiros14}Kiros,R.,Salakhutdinov,R.,\BBA\Zemel,R.\BBOP2014\BBCP.\newblock\BBOQMultimodalNeuralLanguageModels.\BBCQ\\newblockIn{\BemProceedingsofthe31stInternationalConferenceonMachineLearning},\mbox{\BPGS\595--603}.\bibitem[\protect\BCAY{Liu,Zhang,Che,Liu,\BBA\Wu}{Liuet~al.}{2014}]{liu-EtAl:2014:EMNLP}Liu,Y.,Zhang,Y.,Che,W.,Liu,T.,\BBA\Wu,F.\BBOP2014\BBCP.\newblock\BBOQDomainAdaptationforCRF-basedChineseWordSegmentationusingFreeAnnotations.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\864--874}.\bibitem[\protect\BCAY{Ma\BBA\Hinrichs}{Ma\BBA\Hinrichs}{2015}]{Ma2015AccurateLC}Ma,J.\BBACOMMA\\BBA\Hinrichs,E.~W.\BBOP2015\BBCP.\newblock\BBOQAccurateLinear-TimeChineseWordSegmentationviaEmbeddingMatching.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1733--1743}.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Ogiso,Maruyama,Ogura,Kashino,Koiso,Yamaguchi,Tanaka,\BBA\Den}{Maekawaet~al.}{2014}]{Balanced.corpus.of.contemporary.written.Japanese}Maekawa,K.,Yamazaki,M.,Ogiso,T.,Maruyama,T.,Ogura,H.,Kashino,W.,Koiso,H.,Yamaguchi,M.,Tanaka,M.,\BBA\Den,Y.\BBOP2014\BBCP.\newblock\BBOQBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf48},\mbox{\BPGS\345--371}.\bibitem[\protect\BCAY{森\JBA小田}{森\JBA小田}{2009}]{stocha_seg_corpus}森信介\JBA小田裕樹\BBOP2009\BBCP.\newblock擬似確率的単語分割コーパスによる言語モデルの改良.\\newblock\Jem{自然言語処理},{\Bbf16}(5),\mbox{\BPGS\7--21}.\bibitem[\protect\BCAY{Mori\BBA\Nagao}{Mori\BBA\Nagao}{1996}]{Mori96wordextraction}Mori,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1996\BBCP.\newblock\BBOQWordExtractionfromCorporaandItsPart-of-SpeechEstimationUsingDistributionalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1119--1122}.\bibitem[\protect\BCAY{Mori,Richardson,Ushiku,Sasada,Kameko,\BBA\Tsuruoka}{Moriet~al.}{2016}]{A.Japanese.Chess.Commentary.Corpus}Mori,S.,Richardson,J.,Ushiku,A.,Sasada,T.,Kameko,H.,\BBA\Tsuruoka,Y.\BBOP2016\BBCP.\newblock\BBOQAJapaneseChessCommentaryCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\1415--1420}.\bibitem[\protect\BCAY{Mori\BBA\Takuma}{Mori\BBA\Takuma}{2004}]{DBLP:conf/interspeech/MoriT04}Mori,S.\BBACOMMA\\BBA\Takuma,D.\BBOP2004\BBCP.\newblock\BBOQWordn-gramprobabilityestimationfromaJapaneserawcorpus.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalConferenceonSpeechandLanguageProcessing},\mbox{\BPGS\1037--1040}.\bibitem[\protect\BCAY{Nagata}{Nagata}{1994}]{Nagata:1994:SJM:991886.991920}Nagata,M.\BBOP1994\BBCP.\newblock\BBOQAStochasticJapaneseMorphologicalAnalyzerUsingaforward-DPbackward-A*N-bestSearchAlgorithm.\BBCQ\\newblockIn{\BemProceedingsofthe15thConferenceonComputationalLinguistics},\mbox{\BPGS\201--207}.\bibitem[\protect\BCAY{Neubig,Nakata,\BBA\Mori}{Neubiget~al.}{2011}]{Neubig:2011:PPR:2002736.2002841}Neubig,G.,Nakata,Y.,\BBA\Mori,S.\BBOP2011\BBCP.\newblock\BBOQPointwisePredictionforRobust,AdaptableJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\529--533}.\bibitem[\protect\BCAY{Nguyen,Vogel,\BBA\Smith}{Nguyenet~al.}{2010}]{Nguyen:2010:NWS:1873781.1873873}Nguyen,T.,Vogel,S.,\BBA\Smith,N.~A.\BBOP2010\BBCP.\newblock\BBOQNonparametricWordSegmentationforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\815--823}.\bibitem[\protect\BCAY{Regneri,Rohrbach,Wetzel,Thater,Schiele,\BBA\Pinkal}{Regneriet~al.}{2013}]{regneri13tacl}Regneri,M.,Rohrbach,M.,Wetzel,D.,Thater,S.,Schiele,B.,\BBA\Pinkal,M.\BBOP2013\BBCP.\newblock\BBOQGroundingActionDescriptionsinVideos.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf1}(Mar),\mbox{\BPGS\25--36}.\bibitem[\protect\BCAY{Rohrbach,Qiu,Titov,Thater,Pinkal,\BBA\Schiele}{Rohrbachet~al.}{2013}]{rohrbach13iccv}Rohrbach,M.,Qiu,W.,Titov,I.,Thater,S.,Pinkal,M.,\BBA\Schiele,B.\BBOP2013\BBCP.\newblock\BBOQTranslatingVideoContenttoNaturalLanguageDescriptions.\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalConferenceonComputerVision},\mbox{\BPGS\433--440}.\bibitem[\protect\BCAY{Roy\BBA\Pentland}{Roy\BBA\Pentland}{2002}]{Roy2002113}Roy,D.~K.\BBACOMMA\\BBA\Pentland,A.~P.\BBOP2002\BBCP.\newblock\BBOQLearningWordsfromSightsandSounds:AComputationalModel.\BBCQ\\newblock{\BemCognitiveScience},{\Bbf26}(1),\mbox{\BPGS\113--146}.\bibitem[\protect\BCAY{Sproat,Gale,Shih,\BBA\Chang}{Sproatet~al.}{1996}]{Sproat:1996:SFW:239895.239900}Sproat,R.,Gale,W.,Shih,C.,\BBA\Chang,N.\BBOP1996\BBCP.\newblock\BBOQAStochasticFinite-stateWord-segmentationAlgorithmforChinese.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf22}(3),\mbox{\BPGS\377--404}.\bibitem[\protect\BCAY{Tsuboi,Kashima,Mori,Oda,\BBA\Matsumoto}{Tsuboiet~al.}{2008}]{tsuboi-EtAl:2008:PAPERS}Tsuboi,Y.,Kashima,H.,Mori,S.,Oda,H.,\BBA\Matsumoto,Y.\BBOP2008\BBCP.\newblock\BBOQTrainingConditionalRandomFieldsUsingIncompleteAnnotations.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\897--904}.\bibitem[\protect\BCAY{Tsuruoka,Yokoyama,\BBA\Chikayama}{Tsuruokaet~al.}{2002}]{Tsuruoka02game-treesearch}Tsuruoka,Y.,Yokoyama,D.,\BBA\Chikayama,T.\BBOP2002\BBCP.\newblock\BBOQGame-TreeSearchAlgorithmBasedOnRealizationProbability.\BBCQ\\newblock{\BemJournaloftheInternationalComputerGamesAssociation},{\Bbf25},\mbox{\BPG\2002}.\bibitem[\protect\BCAY{Xue}{Xue}{2003}]{xue2003}Xue,N.\BBOP2003\BBCP.\newblock\BBOQChineseWordSegmentationasCharacterTagging.\BBCQ\\newblock{\BemTheAssociationforComputationalLinguisticsandChineseLanguageProcessing},{\Bbf8},\mbox{\BPGS\29--48}.\bibitem[\protect\BCAY{Yang\BBA\Vozila}{Yang\BBA\Vozila}{2014}]{yang-vozila:2014:EMNLP2014}Yang,F.\BBACOMMA\\BBA\Vozila,P.\BBOP2014\BBCP.\newblock\BBOQSemi-SupervisedChineseWordSegmentationUsingPartial-LabelLearningWithConditionalRandomFields.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\90--98}.\bibitem[\protect\BCAY{Yang,Teo,Daum{\'{e}},\BBA\Aloimonos}{Yanget~al.}{2011}]{Yang:2011:CSG:2145432.2145484}Yang,Y.,Teo,C.~L.,Daum{\'{e}},III,H.,\BBA\Aloimonos,Y.\BBOP2011\BBCP.\newblock\BBOQCorpus-guidedSentenceGenerationofNaturalImages.\BBCQ\\newblockIn{\BemProceedingsof2011theConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\444--454}.\end{thebibliography}\begin{biography}\bioauthor{友利涼}{2016年愛媛大学工学部卒業.同年より京都大学大学院情報学研究科修士課程在学.}\bioauthor{亀甲博貴}{2015年東京大学大学院工学系研究科修士課程卒業.同年より同大学院博士課程在学.}\bioauthor{二宮崇}{2001年東京大学大学院理学系研究科情報科学専攻博士課程修了.同年より科学技術振興事業団研究員.2006年より東京大学情報基盤センター講師.2010年より愛媛大学大学院理工学研究科准教授,2017年同教授.東京大学博士(理学).言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,日本データベース学会,ACL,ACM各会員.}\bioauthor{森信介}{1998年京都大学大学院工学研究科電子通信工学専攻博士後期課程修了.同年,日本アイ・ビー・エム株式会社入社.2007年より京都大学学術情報メディアセンター准教授,2016年同教授.京都大学博士(工学).1997年情報処理学会山下記念研究賞受賞.2010年,2013年情報処理学会論文賞受賞.2010年第58回電気科学技術奨励賞受賞.言語処理学会,情報処理学会,日本データベース学会,ACL各会員.}\bioauthor{鶴岡慶雅}{2002年東京大学大学院工学系研究科博士課程修了.同年より科学技術振興事業団研究員.2005年マンチェスター大学研究員.2009年北陸先端科学技術大学院大学准教授.2011年より東京大学大学院准教授.東京大学博士(工学).言語処理学会,情報処理学会,人工知能学会,各会員.}\end{biography}\biodate\end{document}
| |
V16N01-04 | \section{はじめに}
label{Chapter:introduction}近年,文書情報に対するアクセス技術として,質問応答が注目されている.質問応答は,利用者が与えた自然言語の質問文に対し,その答を知識源となる大量の文書集合から見つける技術である.利用者が,ある疑問に対する解を知るために質問応答システムを単体で利用する場合には,各解候補のスコアに基づき,解候補群を順序づけて上位から提示することが多い.本稿では,この処理を優先順位型質問応答と呼ぶことにする.この場合は解答として採用するか否かは,利用者の判断に委ねられている.一方,質問応答技術は他の文書処理技術の中で活用されることも期待されている.質問応答の出力を他の文書処理技術の入力として容易に利用可能とするためには,優先順位型質問応答において利用者が行なっていた上記判断を自動的に行なう必要がある.また,「日本三景は何と何と何か」といったように複数の正解が存在する質問が存在することも考慮すべきである.これらのことより,決められた知識源の中から過不足なく与えられた質問の解を見つけ列挙する能力も重要であると考えられる.優先順位型質問応答の用件に加え,この能力を持つ仕組みをリスト型質問応答と呼ぶ\cite{Fukumoto:QAC1}\cite{加藤:リスト型質問応答の特徴付けと評価指標}.本稿では,上記の背景の下,リスト型質問応答を行なうための一手法を提案する.本手法では,優先順位型質問応答により得られた解候補の集合のスコアを基にいくつかのクラスタに分離することを考える.それぞれのクラスタを一つの確率分布とし,各確率分布のパラメタをEMアルゴリズムにより推定し,いくつかの分布に分離する.最後に,それぞれの分布を正解集合のスコアの分布と不正解集合のスコア分布のどちらであるかを判定し,各解候補がいずれの分布に由来するものなのかを推定し,最終的な正解集合を求める.質問応答システムには一般に精度が低くなりがちな質問(以下,「不得意な質問」と記す)が質問の型等に依存して存在するが\footnote{例えば,質問応答システムが採用している固有表現抽出器等のサブシステムの精度に依存する.固有表現抽出において一般に製品名は,人名や地名に比較して抽出精度が低い.},本手法では,複数の分布のパラメタを比較することにより,優先順位型質問応答により正解が適切に見つけられているか否かを判断することも可能である.ここで,正解が適切に見つけられているとは,優先順位型質問応答により正しい解が求められており,その解が上位にある(複数の場合は上位に集まっている)場合を指すこととする.
\section{関連研究}
リスト型質問応答については,米国における大規模検索実験プロジェクトである,TREC(TextREtrievalConference)における,QusetionAnsweringTrack(以下,TRECQAと記述)で議論されている.TRECQAでリスト型質問応答のタスクが始まったのは,2001年からである.2001年\linebreak\cite{TRECoverview01}と2002年\cite{TRECoverview02}のリスト型質問応答のタスクでは,正解の個数は質問文中に示されており,システムは示された個数の解候補を出力し,その精度で評価された.2003年\cite{TRECoverview03}では,リスト型質問応答はメインタスクに含まれる質問のうちの一種類になった.2003年からは正解数が陽に示されることはなくなり,システムは正解の個数を判定しなければならなくなった.システムの評価はF値で行なわれる.2004〜2006年\cite{TRECoverview04}\cite{TRECoverview05}\cite{TRECoverview06}のTRECQAのメインタスクの質問セットは,シリーズ型質問の集合になっている.シリーズ型質問には,初めにそのシリーズの話題が示されており,その次に何問かのfactoid質問,list質問があり,最後にother質問がある.factoid質問とlist質問では,どちらも事実を問う質問であり,要求される解の種類は同じである.factoid質問とlist質問の違いは正解の数で,正解数が一つの質問はfactoid質問,正解数が複数の質問はlist質問という様に分けられている.factoid質問ではシステムはただ一つの回答を出力し,list質問ではリスト形式で回答を出力する.other質問は,質問文は与えられておらず,そのシリーズの話題に関連することを出力することが要求される.ただし,factoid質問とlist質問で問われていないことのみを出力しなければならない.各質問がfactoid,list,otherのどれであるかは質問文と共に与えられている.list質問では,システムは与えられた質問の正解を過不足無く出力することが要求される.正解の数は明記されておらず,システム自身が判定する必要がある.2006年の質問セットでは,全質問の正解の平均数は10個であり,最小のものは2個,最大のものでは50個ある.factoid質問とlist質問は要求される回答数が違うだけであるので,参加したほとんどのチームは,そのチーム自身のfactoid質問に対するシステムと同じものを用い,出力する回答数のみを変えていた.以下に,具体例を紹介する.F値のみではリスト型処理の善し悪しが分からないため,factoid質問に対する精度(Accuracy)も併記する.Harabagiuetal\cite{Harabagiu:AnswerMiningbyCombiningExtractionTechniqueswithAbductiveReasoning}は,一位の解候補と二位以下の各解候補の間の類似度を求め,類似度に閾値を設けて回答選択をする手法を提案している.閾値は一位の解候補と最下位の解候補の類似度を基に求められる.類似度が閾値以上になる解候補のうち,最下位に順位づけされているものまでを回答リストに加えている.このシステムのlist型質問に対する精度は,F値で0.433であった.また,このシステムの基になったfactoid質問に対するシステムの精度は,0.578であった.Bos\cite{Bos:TheLaSapienzaQuestionAnsweringsystematTREC2006}は,質問文から正解の個数が推定できる場合には,上位からその個数を回答とし,それ以外の場合にはあらかじめ決められた個数の解候補を回答とする手法を用いていた.このシステムのlist型質問に対する精度は,F値で0.127であった.また,このシステムの基になったfactoid質問に対するシステムの精度は,0.15であった.Burger\cite{Burger:MITREsQandaatTREC15}は,期待されるF値を求め,それを最大化するように回答の個数を決める手法を提案している.このシステムのlist型質問に対する精度は,F値で0.208であった.また,このシステムの基になったfactoid質問に対するシステムの精度は,0.087であった.また,国立情報学研究所主催の質問応答に関する一連の評価型ワークショップであるNTCIRQACにおいても同様にリスト型質問応答について議論されている.NTCIR4QAC2のsubtask1では,システムは与えられた質問に対して,順位付けされた5つの回答を出力することが求められる.システムの精度にはMRR(MeanReciprocalRank.正解順位の逆数の各質問平均)が用いられる.正解が複数存在する質問に対しては,システムはそのうちの一つを出力できれば良いとされている.NTCIR4QAC2のsubtask2(リスト型タスク)\cite{Fukumoto:QAC2Subtask12}でもTRECQAのlist質問と同様に,システムは与えられた質問の正解を過不足無く出力することが要求される.全質問の解の平均数は3.2個であり,最小のものは1個,最大のもので15個あり,TRECQAに比べると少なくなっている.各質問に対する正解の数が与えられていないこともTRECQAと同様であるが,TRECQAでは正解数が1個のfactoid質問と2個以上のlist質問が分けられていたのに対し,NTCIR4QAC2のリスト型タスクでは分けられていないという違いがある.システムの精度には,修正F値(MF値)の全質問平均である,MMF値が用いられる.修正F値の詳しい説明は,\ref{Chapter:exp-eval}節で述べる.NTCIR4QAC2に参加したシステムはTRECQAに参加したシステムと同様に,factoid質問に対するシステムを基にしており,各解候補に付けられたスコアの値を基に上位何件を回答するかの線引きを行なっている.以下に具体例を説明する.MMF値のみでは順位付けの善し悪しが分からないため,QAC2subtask1に対する精度(MRR)も併記する.秋葉ら\cite{秋葉:質問応答における常識的な解の選択と期待効用に基づく回答群の決定}は期待効用最大化原理に基づく回答群選択手法を提案している.これは,リスト型質問応答の評価指標であるF値に着目し,その期待値を求め,期待値を最大化するように回答数を求める手法である.また,リスト内の解候補の重複を避けるために,複数の解候補が同じ内容を指していると判断される時には,スコアの高いものを残して削除するということをしている.このシステムの,QAC2subtask2のテストセットに対する精度は,MMFで0.318であった.また,このシステムの基になったfactoid質問に対するシステムの,QAC2subtask1のテストセットに対する精度は,MRRで0.495であった.福本ら\cite{Fukumoto:Rits-QA}は,スコアの差が最も開いているところよりも上位のものを回答とする手法を提案している.さらに,質問文の表層表現から解の個数を判別している(「誰と誰」なら二つ,など).このシステムのQAC2subtask2のテストセットに対する精度は,MMFで0.164であった.また,このシステムの基になったfactoid質問に対するシステムの,QAC2subtask1のテストセットに対する精度は,MRRで0.311であった.村田ら\cite{Murata:JapaneseQAsystemUsingDecreasedAddingwithMultipleAnswers}は最大スコアに対する比率に閾値を設けて回答を選択する手法を採用しており,QAC2subtask2のテストセットに対する精度は,MMFで0.321であった.また,このシステムの基になったfactoid質問に対するシステムの,QAC2subtask1のテストセットに対する精度は,MRRで0.566であった.高木ら\cite{Takaki:NTTDATA-QAatNTCIRQAC2}はn番目の解候補のスコアとn+1番目の解候補のスコアの比率を求め,それが閾値以上ならばn番目までの解候補を回答とするという手法を用いている.このシステムのQAC2subtask2のテストセットに対する精度は,MMFで0.229であった.また,このシステムの基になったfactoid質問に対するシステムの,QAC2subtask1のテストセットに対する精度は,MRRで0.335であった.上記の各手法と本論文で提案する手法でとでは,スコアの並びを見て動的に回答の数を変えるという点で類似している.しかし,スコアが複数の混合分布から生成されると仮定することにより,スコア分布のパラメタより解候補が適切に見つかっているかどうかを判定できるという付加機能を有する点において,我々の提案手法は新しい.また,精度についても他の単純な手法に対して比べて精度が高いという結果となった.
\section{優先順位型質問応答システム}
\subsection{システムの概要}本節では,本研究で使用している質問応答システム\cite{Mori:NTCIR4WN:JapaneseQASystemUsingA*SearchAndItsImprovement}の概要を説明する.この質問応答システムでは,利用者が自然言語で質問文を入力すると,各解候補のスコアに基づき,解候補群を順序付けて上位から利用者が指定した数だけ提示する.各解候補のスコアは,知識源の文書中の,各解候補と質問文中に含まれるキーワードとの近さなどを基にしている.本稿ではこれを優先順位型質問応答システムと呼ぶことにする.本研究で使用している質問応答システムの全体の構成を図\ref{fig:Ranking-type-QA}に示す.本システムは主に四つのモジュール,すなわち,質問文解析モジュール,文書検索モジュール,パッセージ検索モジュール,そして解抽出モジュールから構成されている.解抽出モジュールの中には,解を整形するサブモジュールもある.\begin{figure}[t]\begin{center}\includegraphics{16-1ia4f1.eps}\end{center}\caption{質問応答システム概要}\label{fig:Ranking-type-QA}\end{figure}\subsubsection{質問文解析モジュール}利用者が入力した質問文から質問応答に有用な情報を抽出するのが質問文解析モジュールの役割である.解析により得られる情報を次に示す.\begin{itemize}\item形態素解析および構文解析の結果\itemキーワード(質問文中の内容語)\item人名,地名など質問の求める回答の種類を表す質問型\item疑問詞に対応する数量表現(質問型が数量表現であった場合)\end{itemize}\subsubsection{文書検索モジュール}本モジュールは質問文解析により得られたキーワードを元に,文書検索を行う.検索エンジンには,TFIDFによる語の重みづけとベクトル空間法による類似度尺度を用いて,与えられたキーワード集合と各文書の類似度を求めるものを採用している.\subsubsection{パッセージ検索モジュール}文書検索で得られた関連文書の中でも,質問の解となる情報が書かれているのはその一部だけである.文書全体から解抽出を行なうことは計算量の面で非効率的なので,正解に関わる文脈を小さなコストで先に切り出しておいたほうがよい.これを行うのがパッセージ検索モジュールである.パッセージとは,文章における連続した一部分のことであり,パッセージ検索は文書集合から正解を含む可能性の高いパッセージを取り出すために行う.本システムのパッセージ検索では,一パッセージを三文として抽出を行なっている.パッセージを三文とした時の有効性は,村田ら\cite{Murata:DcreasedAddingJapaneseQusetionAnswering}により考察されている.それぞれのパッセージには,パッセージ中に出現するキーワードの異なり数などを基にしたスコアが付けられ,スコアが大きいパッセージが次の解抽出モジュールに渡される.\subsubsection{解抽出モジュール}\label{subsec:解生成}解抽出は,パッセージ検索までの処理で得られたパッセージから,質問の解を抜き出す処理である.パッセージを文単位に分割し,それぞれの文(これを検索文と呼ぶ)と質問文とを照合することにより,解となる形態素を決定する.スコアが高い形態素が得られたら,その形態素を中心にして最終的な解候補を生成する.本システムの文照合は2-gram照合,キーワード照合,係り受け照合,質問型照合の四種の照合からなる.それぞれの照合において照合の一致の度合に応じて検索文の文字または形態素にスコアが与えられ,全てのスコアの和がその形態素のスコアとなる.そしてスコアの高い形態素から順に解候補が生成される.2-gram照合とキーワード照合では,解を含む可能性の高い文の中で,ある形態素を解と仮定した時の質問文との照合の良さを,2-gramとキーワードの観点から測定する.一方,質問型照合は,質問型と一致する形態素にスコアを与えるために行なわれる.質問タイプには,人名,地名,組織名,その他数量表現などがある.係り受け照合では,質問文と検索文との構造の一致の度合を見る.本システムの係り受け照合では,一文対一文の照合を基本としているが,質問文の内容が検索文の二文以上にわかれて出現している場合もある.そこで,このような場合には前文の最後の文節を次文の提題の文節に仮想的に係り受けさせるという手法で複数文を連結し,仮想的に一文であるとみなして質問文との照合を行なっている.形態素$mor$の最終スコアは,2gram,キーワード,係り受け,質問型の各照合によって与えられたスコアの和$S(mor,L_i)$で表され,スコアの和の高い形態素$mor$から,解を整形するサブモジュールを用いて解が作成される.ここで,$L_i$は検索文である.\begin{gather}S(mor,L_i)=Sb(mor,L_i)+Sk(mor,L_i)+Sd(mor,L_i)+St(mor,L_i)\\\begin{split}Sb(mor,L_i)&=2gram照合でのスコア\\Sk(mor,L_i)&=キーワード照合でのスコア\\Sd(mor,L_i)&=係り受け照合でのスコア\\St(mor,L_i)&=質問型照合でのスコア\end{split}\nonumber\end{gather}解を整形するモジュールで作られた解候補$AC$のスコア$S(AC,L_i)$は,解を形成している形態素のうち,スコア$S(mor,L_i)$が最大のものとなる.複数の異なる検索文から見つかった同じ解候補に対してより高いスコアを付与する,疑似的な多数決方式がこのシステムでは採用されている.さまざまな質問応答システムにおいて,解候補の冗長性を解の選定に役立てることが有効であることが示されている\cite{Clarke:Exploitingredundancyinquestionanswering}\cite{Xu:TREC2003QAatBBN:Answeringdefinitionalquestions}.多数決方式はその一つである.一方で,我々のシステムでは,探索制御が行なわれており指定される数の解が見つかった時点で残りの解候補を調べることはせずに探索を打ち切る.そのため,探索の過程において,通常の多数決方式は採用できない.しかし,指定された求める解の数は異なり数である.そのため,指定された数になるまでにすでに求められている解と同じものが改めて見つかる可能性がある.そこで,その時にはその解のスコアを出現回数に応じて高くしている.以下では,複数回同じ解が求められた場合,その解に複数投票が入った,と表現することにする.多数決方式を用いたときのある解候補$AC$の最終スコア$score_{raw}(AC)$は,以下の式で与えられる.\begin{equation}score_{raw}(AC)=\{1+\log_{10}frec(AC,AnsList)\}\cdot\max_{L_i}S(AC,L_i)\label{Eq:多数決}\end{equation}ここで,$AnsList$は解候補のリストであり,$frec(x,L)$は$L$中の$x$の頻度である.式(\ref{Eq:多数決})に示される通り,多数決方式のスコアは単純に頻度を最大のスコアに乗じるのではなく,頻度の対数値を乗じることにより頻度に対するスコアの上がり具合が穏やかになるように調整されている.このような,頻度に対するスコアの上がり具合を調整する多数決方式の有効性は,村田ら\cite{Murata:DcreasedAddingJapaneseQusetionAnswering}により考察がなされており,この手法は,高精度の他の多数決手法と同等程度の性能を持つことが示されている.\newcommand{\InH}[1]{}
\section{解スコア分布に基づくリスト型質問応答}
label{Chapter:list-qa}質問応答の基本的な仕組みは,先に述べたように,\par\InH{段階1}知識源となる文書集合の中から,与えられた質問に対する解候補群を見つけること,\InH{段階2}各解候補に対し,その質問に対する答としての「良さ」を与える数値,すなわち,スコアを付与すること\noindentからなる.リスト型質問応答の基本は,上記の二段階に加え,\par\InH{段階3}優先順位型質問応答システムの出力,すなわち,スコア付きの解候補群を正解(と思しき)集合(最終的な回答群)と不正解(と思しき)集合の二つに分割する\noindentことである.これは,スコアの値に基づき,上位何件の解候補を正解と判断するかを決定することに等しい.我々はその為の手法として,解候補の集合を,そのスコアを基にいくつかのクラスタに分離することを考える.そこで,本手法では,まず,確率密度分布に基づくクラスタリングで用いられる混合分布モデルと同様に\par\InH{仮説1}あるクラスタ中の解候補のスコアの値密度分布が,ある一つの確率分布に従っており,異なるクラスタは異なるパラメタの確率分布に由来すること,そして,\InH{仮説2}解候補群全体のスコアの密度分布はこの複数の確率分布の混合分布に従っていること\noindentを仮定する.次に,各確率分布のパラメタをEMアルゴリズムにより推定し,いくつかの分布に分離する.最後に,それぞれの分布を正解集合のスコアの分布と不正解集合のスコア分布のどちらであるかを判定し,各解候補がいずれの分布に由来するものなのかを推定し,最終的な正解集合を求める.ここで,上記クラスタ数はいくつの群に分けて分析をするかを表す一種のパラメタであり,何らかの手法で決める必要がある.正解集合には何らかの共通点があり1〜2程度の少数のクラスタから構成されることが期待されるが,不正解集合にこのような性質があるとは限らない.しかし本論文では,手法の分析のしやすさから,2〜3程度のクラスタに分ける場合について検討を行なう.一方,基本となる優先順位型質問応答において,システムの求める解析精度が十分でないこともある.例えば,我々の利用しているシステム\cite{Mori:NTCIR4WN:JapaneseQASystemUsingA*SearchAndItsImprovement}では,順位づけにおいても未だ満足のいくものではない.同システムでは,MRR値が0.5程度であり,平均すると2位に正解を見つけることができるという評価であるが,実際のところは1/3程度の問題について1位に正解を返し,2〜5位に正解を返すのが1/3程度,残りの問題については全く正解を得ることが出来ていない.つまり,システムにとって得意な問題と不得意な問題が存在している.我々は,不得意な問題の場合は,各解候補に対するスコア付けがうまくいっておらず,上述の仮説1,仮説2が成立していないと考えた.そこで,推定した確率分布のパラメタに基づき,複数に分割された分布それぞれが正解集合の分布であるか,不正解集合のそれかを判定し,正解集合の分布と不正解集合の分布とが明確に分割できるか否かを調べる.これにより,正解が適切に見つかっているか否かを判断することがある程度可能であると考える.解候補のスコア分布が正解集合の分布と不正解集合の分布とに分けられるとしている本提案手法では,全ての質問対し,一つ以上の正解があることを前提としており,最低でも一つの回答を出力する.正解が全くない質問については,正解が適切に見つかっていないと判定された質問の一部ととらえることができるが,現在対応できていない.\subsection{解候補スコアの分布の計算}\label{sec:分布の計算}優先順位型質問応答システムの出力は解候補とそのスコアの組のリストであり,スコアを数直線上に示すと,図\ref{fig:ScoreDensity}(上)の様になる.それを視覚的に分かりやすくするために,一定区間で区切ってヒストグラムにしたものが,図\ref{fig:ScoreDensity}(中)である.これは説明の為に示した図であり,実際の処理ではヒストグラムは求めていない.本研究では平滑化した確率密度関数を求めるための手法として,スコア分布をいくつかの正規分布の混合分布とみなし,各分布のパラメタを求めるのにEMアルゴリズムを用いている.\begin{figure}[t]\begin{center}\includegraphics{16-1ia4f2.eps}\end{center}\caption{スコア分布の計算}\label{fig:ScoreDensity}\vspace{-1\baselineskip}\end{figure}本提案手法では,複雑な要因(本手法では,\ref{subsec:解生成}節に示す,解候補のスコア)が重なりあってできるばらつきは正規分布に近付くという,統計学における中心極限定理を基にして,仮定する分布を正規分布とした.解候補のスコアの分布が,正解集合が成すいくつかの分布と不正解集合のそれとの混合分布であること,並びにそれらの分布がいずれも正規分布であることを仮定すると,混合分布は式(\ref{Eq:MixtureDist})で与えられる.なお,本稿では,各解候補のスコアは全て,各問について各解候補のスコアを最大値で除し,[0,1]の範囲となるように正規化したものを用いる.\begin{equation}p_s(x)=\sum_{i=1}^n\xi_i\phi_i(x:\mu_i,\sigma_i^2)\label{Eq:MixtureDist}\end{equation}ここで,$x$はスコアの値に対応する確率変数,$n$は仮定する分布数,$\phi_i(x:\mu_i,\sigma_i^2)$は平均値$\mu_i$,分散$\sigma_i^2$の正規分布,$\xi_i$はそれぞれの確率分布の混合比を決めるパラメタである.解のスコア付けが正しく行なわれ,スコア分布が混合分布であるという仮説が成り立つのであれば,スコアの平均値が大きい分布が正解集合がなす分布となる.以降では,スコアの平均値の大きい方の分布から順に番号をつけ$\phi_1,\phi_2\ldots$とする.解候補スコアの観測値の集合が与えられた場合,式(\ref{Eq:MixtureDist})における各パラメタの推定は,EMアルゴリズムにより行なうことができる.これらの分布のパラメタから次節で述べる手法により正解集合の分布と不正解集合の分布とが明確に分割できると判定できる場合には,スコアにより回答候補群を正解の群と不正解の群に分けられると判断する.また,使用している優先順位型質問応答システムには,\ref{subsec:解生成}節に示すように,スコア付けに,多数決方式が採用されている.この多数決スコアがスコアの分布に大きな影響を及ぼしていると考えられる(図\ref{fig:WeightedScore}).複数回出現した解候補のスコアはその出現回数に応じて高くなり,複数回出現した解候補のグループが,スコアの高い分布を形成しやすくなり,分布が別れやすくなる.このことについては\ref{sec:問題判定}節において実験,考察する.\begin{figure}[t]\small\begin{center}\includegraphics{16-1ia4f3a.eps}\\(a)多数決方式を用いない場合(同じ表現の解候補はスコアが高いものだけを使用)\\[1\baselineskip]\includegraphics{16-1ia4f3b.eps}\\(b)多数決方式を用いた場合(出現回数が2以上の解候補のスコアが多数決方式により上昇)\\\end{center}\caption{多数決方式によるスコアの変化}\label{fig:WeightedScore}\end{figure}\subsection{解候補スコアの分布の分割の明確さの判定}\label{sec:分布の判定}スコアの降順で解候補が並んでおり,$i$番目の解候補を$AC_i$,その最終スコア$score_{raw}(AC_i)$を正規化したスコアを$score(AC_i)$とする.解候補のスコアが明確に分割できるかどうかの判定は,隣接した正規分布の平均値の差の値の最大値($\max_j\{\mu_j-\mu_{j+1}\}$),隣接解候補のスコアの差の最大値($\max_k\{score(AC_k)-score(AC_{k+1})\}$)に基づいて行なう.これは,解候補を二群に分けるという観点において,隣接した正規分布の平均値の差の値の最大値($\max_j\{\mu_j-\mu_{j+1}\}$)が大きいほど,スコア分布が大きく二つのグループに分離できると考えられるからである.また,解の分布の如何によらず,解候補をスコアにしたがって二群に分けることを考えると,最も素朴な手法は,隣接する解候補のスコアの差が最も大きい箇所で分離するものであろう.この時,その差の最大値が大きい時ほどスコアの分布が明確に二つに分かれると考えられる.本稿では,以上の二つの指標,すなわち\begin{description}\item[分離指標1]$\max_j{\mu_j-\mu_{j+1}}\geqTh_{\mu_{\mathit{diff}}}$\item[分離指標2]$\max_k\{score(AC_k)-score(AC_{k+1})\}\geqTh_{\mathit{diff}}$\end{description}を採用することとし,上記分離指標のいずれかを満たす場合を,スコアの分布が明確に分かれていると判断した.ここで,$Th_{\mu_{\mathit{diff}}}$,$Th_{\mathit{diff}}$はそれぞれスコア分布が明確に分離できると判断する閾値である.図\ref{fig:RealScore}は実際に質問応答システムが出力した解候補のスコア分布の例である.上位30件を採用した.それぞれの質問文は,図\ref{fig:RealScore}(a)では「サッカーのワールドカップフランス大会で日本が対戦した国はどこですか。」(QAC2subtask2のテストセット中の質問.IDはQAC2-20055-01)であり,知識源は毎日新聞,読売新聞それぞれの98年と99年の2年分の記事である.図\ref{fig:RealScore}(b)では「小沢征爾はいつからボストン交響楽団の音楽監督を務めていましたか。」(QAC1のテストセット中の質問.IDはQAC1-1047-01)であり,知識源は毎日新聞の98年と99年の2年分の記事である.棒グラフが実際の解の分布(ヒストグラム)を示しており,実線がEMアルゴリズムにより推定された複数の分布,破線がその混合分布である.図\ref{fig:RealScore}(a)は上位の解候補に正解が含まれている場合,図\ref{fig:RealScore}(b)は上位の解候補に正解が含まれていない場合であり,正解の位置はそれぞれの図に矢印で示してある.\begin{figure}[t]\small\begin{center}\includegraphics{16-1ia4f4a.eps}\\(a)正解が上位に含まれているもの\\[1\baselineskip]\includegraphics{16-1ia4f4b.eps}\\(b)正解が上位に含まれていないもの\\\end{center}\caption{実際のスコアの分布}\label{fig:RealScore}\vspace{-0.5\baselineskip}\end{figure}上位に正解が含まれている場合(図\ref{fig:RealScore}(a))では隣接した分布同士の平均値の差が,最大の所で0.16と大きく,いくつかの分布が独立しているように見え,スコアの大きい分布と小さい分布とに明確に分けられそうである.それに対して,上位の解候補に正解が含まれていない場合(図\ref{fig:RealScore}(b))では隣接した分布同士の平均値の差が最大の所でも0.05と小さくなっており,全体で大きな一つの分布であるかように観察される.このことから,大きく二つの分布に分けられるときには上位に正解があり,そうでないときには上位に正解が含まれていないということが期待される.\subsection{分割する分布の数の決定}\label{sec:分布数判定}分割する分布の数(以下,分布数と表記)は,スコアを正解集合と不正解集合に分けると言う観点では二つと考えられるが,二つの分布に分けた時にうまくいかない例が存在するため,二つ以上のクラスタに分けることを考える.二つの分布で分離した時にうまくいかない例を図\ref{fig:DistNum}に示す.棒グラフが実際の解の分布(ヒストグラム)を示しており,実線がEMアルゴリズムにより推定された二つ,もしくは三つの分布である.図中の破線は,スコアが一番大きい分布を正解集合の分布と考えた場合の正解分布と不正解分布の境界となるスコアの値であり,これより大きいスコアを持つ解候補が回答として選ばれる.二つの分布で分離した場合(図\ref{fig:DistNum}(a))を見ると,スコアが小さいところで一つの大きな分布が計算されており,もう一つの分布はそれ以外の部分を被覆するように,分散が大きな分布が計算されている.二つの分布で分離し,スコアの高い方の分布を正解分布として回答選択をすると,正解以外の解候補も多数回答に含まれてしまい,回答の精度が悪くなってしまう.一方,三つの分布で分離した場合(図\ref{fig:DistNum}(b))を見ると,二つの場合と比べ,スコアが大きい分布が新たに計算されている.三つの分布で分離し,スコアの最も高い分布を正解分布として回答選択をすると,余計なものを含まずに正解を精度良く回答することが可能になる.パラメタ調整用に用いた質問セット200問(QAC1の1〜50問目と101〜150問目及びQAC2の51〜150問目)では,実際に上位に正解があるかどうかに関わらず,分布の形として図\ref{fig:DistNum}と同様の傾向を持つ質問が約40問あった.この様な例は,最上位の解候補のスコアと,最下位の解候補のスコアの差が大きい時によく見られた.最上位の解候補のスコアが,他の解候補よりも格段に高いスコアであった場合,それが正解である可能性が高いと考えられる.そのため,図\ref{fig:DistNum}(a)の様に,二分布に分けた結果を用いて,多数の解候補を回答とするのは望ましくない.図\ref{fig:DistNum}の例だけでなく,パラメタ調整用の質問セット中の同様の質問においても,図\ref{fig:DistNum}(b)の様に分布数を三つにすることで,回答の数が不適当に多くなってしまうことをある程度解消できることが分かった.\begin{figure}[t]\small\begin{center}\includegraphics{16-1ia4f5a.eps}\\(a)二つの分布で分離した場合\\[1\baselineskip]\includegraphics{16-1ia4f5b.eps}\\(b)三つの分布で分離した場合\\\end{center}\caption{分離する分布の数の違い}\label{fig:DistNum}\end{figure}このため,我々は二つに分けてうまくいかない例は三つにすればカバーできると考え,混合分布の数は二つか三つに限定した.あるスコア群を二つの分布に分けるのか,三つの分布に分けるかの決定法には以下のものが考えられる.指標2,3は,EMアルゴリズムを用いて求められた分布と実際のスコアの並びを観察した結果得られたものである.\begin{description}\item[分布数決定指標1]MDL(minimumdescriptionlength)\cite{MDL}を用いて最適な分布数を決定する.MDLはパラメタで記述されたモデルのクラスからモデルを選択する基準である.MDLの値が小さくなる方の分布を適切な分布とする.MDLの値は以下のように計算する.\begin{gather}MDL=-\log\mathit{\mathit{fit}}_m+\frac{3m-1}{2}\logN\\\mathit{fit}_m=\sum^{N}_{i=1}p_s(score(AC_i))\nonumber\end{gather}ここで,$m$は仮定する分布の数,$\mathit{fit}_m$は仮定した分布の数が$m$個のときの実際のスコア分布との適合度の度合であり,Nは優先順位型質問応答システムが出力した解候補の数である.2項目の$3m-1$は,パラメタ数を表している.各分布には,混合比,平均値,分散という3つのパラメタがあるが,混合比は合計値が1と決まっているために,一つの分布については求める必要がない.そのため,パラメタ数は$3m-1$となる.MDLの値が小さい方の分布数を採用する.\item[分布数決定指標2]スコア分布を二つの分布の混合分布と仮定した時,スコアが大きい分布の分散と,小さい分布の分散の比率が閾値$Th_q$以上なら分布の数を三つに増やす.すなわち,スコア分布を二つの分布の混合分布とした時,$\sigma_1^2/\sigma_2^2\geTh_q$ならば,分布の数を三つにする.これは,図\ref{fig:DistNum}の例にあるように,二分布で分離した時にスコアの大きな分布が回答を多くとりすぎてしまう場合,スコアの小さいところで一つの大きな分布ができ,スコアの大きい方の分布はその他の部分を被覆するために,分散が大きな分布になっているという観察結果を基にしている.\item[分布数決定指標3]スコア分布を二つの分布の混合分布と仮定した時,二分布の平均値の差が閾値$Th_{\mu_r}$以上の時は,分布の数を三つにする.すなわち,スコア分布を二つの分布の混合分布とした時,$\mu_1-\mu_2\geTh_{\mu_r}$ならば,分布の数を三つにする.これは二分布の平均値の差の値が極近い分布では,全解候補中に正解があっても上位に位置していない場合が多いため,回答数が多くなる傾向にある二分布で正解判定をすると言う考えである.\end{description}\subsection{解候補の正解判定}\label{sec:回答判定}解候補の正解判断では,まず,複数に分割した分布それぞれが正解集合の分布(以下,正解分布と呼ぶ)であるか,不正解集合のそれ(以下,不正解分布と呼ぶ)であるかを判定する.その後,正解分布に含まれる解候補を回答とする.そのために,式(\ref{Eq:square})で定義される閾値$Th_s$を設け,閾値以上のスコアを持つ解候補を回答とする.\begin{gather}Th_s=\argmax_t\{S_{correct}(t)-S_{incorrect}(t)\}\label{Eq:square}\\\begin{split}{}&S_{correct}(t)=\sum_{i\inD_{correct}}\int^{\infty}_{t}\phi_i(x)dx\\{}&S_{incorrect}(t)=\sum_{j\inD_{incorrect}}\int^{\infty}_{t}\phi_j(x)dx\\{}&D_{correct}=正解分布と判定された分布の番号の集合\\{}&D_{incorrest}=不正解分布と判定された分布の番号の集合\nonumber\end{split}\end{gather}また,正解分布は以下のように決める.正解分布と判定されなかった分布は不正解分布とする.\begin{description}\item[分布数が二つの時]スコアの大きい方の分布を正解分布とする.\item[分布数が三つの時]以下のものが考えられる.\begin{itemize}\itemスコアの大きい方からいくつめの分布までを正解分布とするかあらかじめ決めておく\item隣接分布間の距離が大きいところで正解分布と不正解分布とに分ける($j=\linebreak\argmax_j\{\mu_j-\mu_{j+1}\}$となるとき,$j$番目の分布までを正解分布とする).\end{itemize}\end{description}なお,この閾値を設けて回答を決める手法は,Murataetal\cite{Murata:JapaneseQAsystemUsingDecreasedAddingwithMultipleAnswers}などで用いられている,スコアの閾値に基づく手法に似ているが,確率分布の上で閾値を設定している点が異なる.\vspace{-0.5\baselineskip}
\section{実験及び評価}
label{Chapter:exp-eval}NTCIR3QAC1\cite{Fukumoto:QAC1}及びNTCIR4QAC2のtask2(リスト型タスク)\cite{Fukumoto:QAC2Subtask12}のテストコレクションを用いて実験を行なった.知識源は,QAC1の質問に対しては,毎日新聞の98年と99年の2年分の記事を用い,QAC2の問いに対しては,読売新聞と毎日新聞の98年と99年の2年分の記事を用いている.また,優先順位型質問応答システムからの出力は上位10件を採用している.リスト型質問の評価は一問あたりのF値の全質問平均の平均MF値(MeanModifiedF-measure,MMF値)を用いる.なお,ここでのF値は加藤らが提案する修正F値である\cite{加藤:リスト型質問応答の特徴付けと評価指標}.すなわち,同じ解答もしくは同じものを表現する異なる表現を複数リストに含めた場合は,そのうちひとつだけを正解とし,それ以外は誤答とする.また,正解のない質問には空リストを返した時にのみ1.0が与えられ,それ以外の場合はすべて0.0とする.本節の構成は以下の通りである.\ref{sec:問題判定}節では正解が適切に見つかっている質問の判定に対する分離指標の有効性を調べる.特に,\ref{subsec:多数決}節では,多数決方式の違いによる結果の違いを見る.多数決方式の有無やその方法により,スコアの分布が違ってくることが考えられ,それにより正解が適切に見つかっている質問の判定をしたときの結果が違ってくることが考えられる.多数決方式を変えて\ref{sec:分離指標の有効性}節と同様の実験をし,その結果の違いを調べた.\ref{subsec:他のスコア付け}節では,\ref{subsec:解生成}節に示したスコア付け手法以外の手法でも,分離指標が有効かどうかを調べた.また,多数決方式の有無による結果の違いが\ref{subsec:多数決}節での結果と同様のものになるかどうかも実験した.\ref{sec:相関}節では,用いた分離指標の妥当性を見るために,スコアの分布が二つに明確に分割できると判断するための各尺度と精度であるF値との相関関係を求めた.\ref{sec:正解判断指標の有効性}節では,\ref{sec:回答判定}節に示した正解判断のための閾値決定法及び\ref{sec:分布数判定}節に示した分布数判定指標の有効性を調べるために実験を行なった.\ref{sec:問題判定}節〜\ref{sec:正解判断指標の有効性}節では,スコアの分布として正規分布を仮定して実験を行なっているが,\ref{sec:他の分布}節では,正規分布以外の分布としてポアソン分布を仮定し,\ref{sec:問題判定}節〜\ref{sec:正解判断指標の有効性}節の実験と同様の実験をし,その結果が正規分布を用いた時と同じような傾向になるかどうかを調べた.\subsection{正解が適切に見つかっている質問の判定}\label{sec:問題判定}本節では,NTCIR3QAC1\cite{Fukumoto:QAC1}及びNTCIR4QAC2のtask2(リスト型タスク)\cite{Fukumoto:QAC2Subtask12}のテストコレクションを平均正解数が同じになるように,二つの組に分け,一方をパラメタ調整用,もう一方を評価用とした.パラメタ調整用の質問は,QAC1の1〜50問目と101〜150問目及びQAC2の51〜150問目の計200問である.評価用の質問は,QAC1の51〜100問目と151〜200問目及びQAC2の1〜50問目と151〜200問目であり,うち一問が不適切な質問とされているため,計199問である.パラメタ調整用のセットの平均正解数は2.31個,評価用のセットの平均正解数は2.33個である.\subsubsection{分離指標の有効性}\label{sec:分離指標の有効性}まず,分布の分割の明確さを判定することの有効性を見るために,スコアの分布の分離が明確な場合とそうでない場合とに分割し,それぞれの場合について\ref{sec:回答判定}節の手法で解候補の正解判定を行なった.回答選択の手法は,分布数の判定を行なわない手法を用いた.\ref{sec:正解判断指標の有効性}節において,分布数の推定を行なっているが,推定が失敗する可能性を考慮にいれて,分布数は固定とした.ここでは,分布数の判定を行なわない手法の中で最もMMFが高い,すべての質問において三つの分布の混合分布であると仮定し,三つの分布のうち正解分布はスコアが一番大きい分布のみとした手法を用いている.また,スコアの分布の分離が明確かどうかの判定には,\ref{sec:分布の判定}節で述べた分離指標を用い,次のいずれかを満たすものをスコアの分布の分離が明確であると判断している.以下で示している各パラメタは予備実験の結果に基づきその値を決定した.予備実験ではパラメタ調整用の質問セットを用い,それぞれの閾値を0.01単位で動かした時に,正解が適切に求められている質問(解候補中に正解があり,かつそれらが上位に順位づけされている)とそうでない質問とを有効に分けられるかどうかの結果を基に決定した.\begin{align}Th_{\mu_{\mathit{diff}}}&=0.25\\Th_{\mathit{diff}}&=0.2\end{align}評価用の質問セットについて上記閾値に基づき\ref{sec:分布の判定}節の分離指標により,スコアの分布の分離が明確な場合とそうでない場合とに分割した時の平均回答数とMMFを表\ref{tab:分布の分割の違い}に示す.表\ref{tab:分布の分割の違い}によると,分布の分割が明確な場合と不明確な場合とでMMFに明確な差がでている.また,分布の分割が明確な場合,平均回答数を見ると正解の平均数よりも少ない傾向にあるが,MMFが高く,選んだ回答群の精度が良いことが窺える.分布の分割が不明確な場合には平均回答数が多くなっており,平均正解数に近い値ではあるが,MMFは低く,回答の精度が低いことが分かる.\begin{table}[b]\caption{スコアの分布の分離の明確さの違いによる平均回答数とMMFの違い}\label{tab:分布の分割の違い}\begin{center}\input{04table01.txt}\end{center}\end{table}このことから,提案手法により正解が見つかっており,かつそれが上位に順位づけされている質問のみを抽出することがある程度可能であることが分かる.\subsubsection{多数決方式の違いによる精度の違い}\label{subsec:多数決}多数決方式による解候補のスコア付けは,解候補のスコア分布に大きな影響を与えていると考えられる.多数決方式を用いた場合,複数投票が入った解候補はスコアが高くなり,回答として選ばれやすくなる.まず,複数投票が入った解候補の有無(多数決方式によるスコアの変化の有無)という観点で質問文を分けた時の精度の違いを求めた.結果を表\ref{tab:複数投票}に示す.\begin{table}[b]\caption{複数投票が入った解候補がある質問と無い質問とでの平均回答数とMMF}\label{tab:複数投票}\begin{center}\input{04table02.txt}\end{center}\end{table}表\ref{tab:複数投票}より,複数投票が入った解候補がある場合と無い場合とで,精度に大きな差があるのが分かる.このことより,解候補が適切に見つかっているかどうかの判定に,複数投票が入った解候補のある,なしという情報も使えるということが分かる.表\ref{tab:分布の分割の違い}と比べると,スコアの分布の分割が明確な場合と,複数投票が入った解候補がある場合とではスコアの分布の分割が明確な場合の方がMMFが高く,より正解が適切に見つかっている質問を抽出できている.スコアの分布の分割が不明確な場合と,複数投票が入った解候補がない場合とでは複数投票が入った解候補がない場合の方がMMFが低く,より正解が見つかっていない質問を抽出できると考えられる.また,多数決方式を利用したスコアの分布と多数決方式を利用しない場合のスコア分布の違いを見るために,分離指標を用いた以下の実験も行なった.多数決方式によってスコアが変化するのは,複数投票が入った質問のみであるので,表\ref{tab:複数投票}において,複数投票が入った解候補があった121問に対して,優先順位型質問応答システムの解スコアを利用してリスト型質問応答を実行した.\ref{subsec:解生成}節に示した頻度に対する上がり具合を調整する多数決方式(以後,最大値乗算方式と呼ぶ)の他に,複数投票があった場合,その解候補のスコアを単純に加算する多数決方式(以後,単純加算方式と呼ぶ)を用いた場合及び,多数決方式を用いない場合,それぞれについて,分布の分割が明確かどうかを分けたときの,平均回答数とMMFを求めた.\ref{sec:分布の判定}節で述べた,分布が明確に分離できるかどうかの各分離指標のパラメタは,\ref{sec:分離指標の有効性}節と同様の予備実験を行ない,以下のように決定した.この時に使用した質問は,質問セット中の,複数投票が入った質問のみである.\begin{itemize}\item最大値乗算方式の多数決方式を用いた場合\begin{align}Th_{\mu_{\mathit{diff}}}&=0.3\\Th_{\mathit{diff}}&=0.25\end{align}\item単純加算方式の多数決方式を用いた場合\begin{align}Th_{\mu_{\mathit{diff}}}&=0.5\\Th_{\mathit{diff}}&=0.5\end{align}\item多数決方式を用いない場合\vspace{-0.5\baselineskip}\begin{align}Th_{\mu_{\mathit{diff}}}&=0.15\\Th_{\mathit{diff}}&=0.1\end{align}\end{itemize}結果を表\ref{tab:多数決方式による結果の違い}に示す.表\ref{tab:多数決方式による結果の違い}より,どの手法においても分布の分割が明確な場合と不明確な場合で,MMFに大きく差が出ている.このことから,多数決方式の違いに関わらず,分布の分割の明確さをみることで,正解が適切に見つかっている質問を抽出することが,ある程度可能であることが分かる.また,表\ref{tab:多数決方式による結果の違い}での,121問全体のMMFの違いを見てみると,\ref{subsec:解生成}節に示した頻度に対する上がり具合を調整する最大値乗算方式を用いた場合で0.446と最も高い値となっている.最大値乗算方式を用いた場合のMF値と単純加算方式や多数決方式を用いない場合でのMF値との間に統計的有意差があるか,表\ref{tab:多数決方式による結果の違い}で用いた121問でウィルコクソンの符合付順位和検定(両側検定)によって求めた.その結果,最大値乗算方式と単純加算方式との間で有意水準5\%で統計的有意差があったが($p=0.033<0.05$),最大値乗算方式と多数決方式を用いない場合との間では,統計的有意差は認められない($p=0.23$)ということが分かった.\begin{table}[t]\caption{多数決方式の違いによる結果の違い}\label{tab:多数決方式による結果の違い}\begin{center}\input{04table03.txt}\end{center}\end{table}\subsubsection{スコア付け手法の違いによる精度の違い}\label{subsec:他のスコア付け}\ref{subsec:解生成}節で示した以外の解候補のスコア付け手法でも分離指標が有効に働くかどうかを調べるために,質問文中のキーワードと解候補との距離に基づいた単純なスコア付け方法を用いて同様の実験を行なった.この距離に基づいたスコア付け手法は,構文解析を用いずに解候補のスコアを決定する素朴な手法である.この手法では,全てのキーワードからの距離が近い解候補ほど大きなスコアが与えられる.このスコア$S_{dist}(mor)$は,式(\ref{Eq:distance})によって与えられる.ここで,$K_n$は質問文中の$n$番目のキーワードである.\begin{gather}S_{dist}(mor)=\sum_n\frac{1}{\logdist(mor,K_n)+1}\label{Eq:distance}\\\begin{split}{}&dist(mor,K_n)\\&\qquad=解候補となる形態素morとキーワードK_nとの間の距離を形態素単位で計ったもの\end{split}\nonumber\end{gather}この手法でも,探索制御において,同じ解が複数回求められた場合には\ref{subsec:解生成}節で示した多数決方式を用いて最終的なスコアを求めている.スコアの分布が明確に分離できるかどうかの各パラメタは,パラメタ調整用質問セットを用いた予備実験の結果以下のように決定した.\begin{align}Th_{\mu_{\mathit{diff}}}&=0.25\\Th_{\mathit{diff}}&=0.2\end{align}解候補のスコア分布は,\ref{sec:分離指標の有効性}節と同じく三つの分布の混合分布であると仮定し,三つの分布のうち正解分布はスコアが一番大きい分布のみとしている.スコア分布が明確に分割できる質問とそうでない質問とに分けた時の平均回答数とMMFを表\ref{tab:距離スコアでの分割},複数投票が入った解候補がある場合とない場合とで分けた時の同様の結果を表\ref{tab:距離スコアで複数投票}に示す.\begin{table}[b]\vspace{-1\baselineskip}\hangcaption{距離に基づいたスコアを使った時の,スコアの分布の分割の度合の違いによる平均回答数とMMFの違い}\label{tab:距離スコアでの分割}\begin{center}\input{04table04.txt}\end{center}\end{table}\begin{table}[b]\hangcaption{距離に基づいたスコアを使った時の,複数投票が入った解候補がある質問とない質問との結果の違い}\label{tab:距離スコアで複数投票}\begin{center}\input{04table05.txt}\end{center}\end{table}表\ref{tab:距離スコアでの分割},表\ref{tab:距離スコアで複数投票}より,分布の分割が明確な場合とそうでない場合,また複数投票が入った解候補がある場合とない場合とでMMFに明確な差がでているのが分かり,\ref{subsec:解生成}節で示した解候補のスコア付け法を用いた場合と同様の結果が得られた.分布の分割が明確な場合は正解が適切に見つかっている質問を抽出でき,複数投票が入った解候補がない場合では正解が適切に見つかっていない質問を抽出できるという傾向も同じである.距離に基づいたスコア付け方法でも\ref{subsec:多数決}節と同様に,多数決方式を利用したスコア分布と多数決方式を利用しない場合のスコア分布の違いを見るための,分離指標を用いた実験を行なった.表\ref{tab:距離スコアで複数投票}において複数投票が入った解候補があった125問に対して,リスト型質問応答を実行した.分布の分割が明確かどうかの判断のためのパラメタは,予備実験の結果,以下のように決定した.その結果を表\ref{tab:距離スコアで多数決}に示す.\begin{table}[b]\caption{距離に基づいたスコアを使った時の,多数決方式のあるなしによる精度の違い}\label{tab:距離スコアで多数決}\vspace{-0.5\baselineskip}\input{04table06.txt}\end{table}\pagebreak\begin{itemize}\item最大値乗算方式の多数決方式を用いた場合\begin{align}Th_{\mu_{\mathit{diff}}}&=0.25\\Th_{\mathit{diff}}&=0.2\end{align}\item多数決方式を用いない場合\begin{align}Th_{\mu_{\mathit{diff}}}&=0.1\\Th_{\mathit{diff}}&=0.1\end{align}\end{itemize}表\ref{tab:距離スコアで多数決}より,いずれの場合でも,ある程度正解が適切に見つかっている質問を分けることができた.また多数決方式を用いた場合とそうでない場合とではMF値について,125問全体を対象にした時のMF値にも差が出ているが,統計的有意差は認められない(ウィルコクソンの符合付順位和検定(両側検定)で,$p=0.31$).距離に基づいたスコア付け手法を利用した際にも分離指標が有効であること,複数投票が入った解候補がある質問とない質問で精度に大きく差がでることなどから本論文で提案した解候補の分割の指標及び解候補の選択手法は解候補に対するスコア付け手法が単純なものであっても,有効であると考えられる.\subsection{スコアの分布が二つに分離できると判断するための各尺度の間の相関関係}\label{sec:相関}\begin{table}[b]\vspace{-0.5\baselineskip}\caption{スコアの分布が二つに分離できると判断するための各尺度の相関関係}\label{tab:正規分布の各尺度の相関係数}\begin{center}\input{04table07.txt}\end{center}\end{table}分離指標としていた尺度の妥当性の検証のために,スコアの分布の分離指標として用いていた各尺度と回答精度であるMF値との相関関係を調べた.ここで用いた質問は,QAC1の51〜100問目と151〜200問目及びQAC2の1〜50問目と151〜200問目(うち一問が不適切な質問とされている)の計199問である.相関を求める際,MF値は質問毎に,優先順位型質問応答システムの出力のうち上位n件に対する解候補のF値をnを変化させて求め,その最大値(以後最大F値と表す)を用いている.相関を求めた結果を表\ref{tab:正規分布の各尺度の相関係数}に示す.表中の値はピアソンの相関係数である.$\mu_{\mathit{diff}}(2)$は,スコア分布を二つの分布の混合分布としたときの,二つの正規分布の平均値の差,$\mu_{\mathit{diff}}(3)$は,スコア分布を三つの分布の混合分布したときの,隣接した正規分布の平均値の差の大きい方,$max_{\mathit{diff}}$は隣接スコアの差の最大値($max_{\mathit{diff}}=\max_j\{score(AC_j)-score(AC_{j+1})\}$),を表している.以上の値に注目したのは,$\mu_{\mathit{diff}}$と$max_{\mathit{diff}}$はその値が大きいほどスコア分布は分布は明確に分離できると期待できるためである.表\ref{tab:正規分布の各尺度の相関係数}より,各尺度間には非常に強い相関があることがわかる.また,各尺度と最大MF値にも相関があることが示されている.最大F値が高い質問は上位に正解が集まっている質問といえる.各尺度と最大MF値との間に相関関係があるということから,各尺度が,正解が上位に順位付けされている質問を抽出するための分離指標として,利用可能である考えられる.\subsection{正解判断指標の有効性}\label{sec:正解判断指標の有効性}\ref{sec:回答判定}節で提案した回答選択手法の有効性を調べるために,実験を行なった.提案手法では,「分布数の決定法」ならびに「分布数が三つの場合の正解分布の決め方」に各々数種類ずつ選択肢がある.また,比較対象であるベースラインとなる手法についても様々な観点からいくつかの候補がある.そのため,QAC1及びQAC2のテストコレクションをパラメタ調整セット,開発セット,評価用セットの三つに分けた.まず,パラメタ調整セットにより各パラメタを調整する.そして,開発セットによって,有効なベースライン手法及び,提案手法における各選択肢の有効な組合せを決定した後,テストセットによって,ベースライン手法と提案手法の精度の比較を行なう.パラメタ調整用の質問セットは,QAC1の34〜66問目,167〜200問目及びQAC2の1〜33問目,134〜166問目(計133問,平均正解数2.32個),開発用の質問セットは,QAC1の67〜133問目及びQAC2の34〜66問目,167〜200問目であり,うち一問が不適切な質問とされている(計133問,平均正解数2.34個).評価用の質問セットは,QAC1の1〜33問目,134〜166問目及びQAC2の67〜133問目(計133問,平均正解数2.29個)である.\subsubsection{ベースライン手法の決定}\label{subsubsec:ベースライン}ベースライン手法の候補として,先行研究を考慮し以下のものを検討する.\begin{itemize}\itemスコアの値の上位から決まった個数の解候補を回答とする手法.\itemスコアの値に単純な閾値を設ける手法.$score(AC_i)\geTh_r$なる$AC_i$のリストを回答とする.ただし,提案手法が式(\ref{Eq:square})で求める値と違い,$Th_r$は全問に共通の一定の値である.また,$score(AC_i)$は最大値が1になるように正規化されていることに注意されたい.\item秋葉ら\cite{秋葉:質問応答における常識的な解の選択と期待効用に基づく回答群の決定}の手法を用いて回答する手法.\end{itemize}質問の正解数の平均は約2.3個であるため,決まった個数の解候補を回答とする手法では,回答とする解候補の数を1〜3個の場合それぞれについて結果を求めた.スコアの値に単純な閾値を設ける手法での閾値$Th_r$は,値を0.5から0.99まで0.01刻みで変えていき,パラメタ調整用の質問セットで最もMMFが高かった以下の値を採用した.\begin{equation}Th_r=0.78\end{equation}開発セットにおけるベースライン手法の各候補の精度を,\pagebreak表\ref{tab:ベースライン手法,開発セット}に示す.表中の再現率,適合率はそれぞれ,再現率=全質問に対する正答数/全質問の正解数の合計,適合率=全質問に対する正答数/全回答数,\\と計算した.ここで,正答数とは,回答中に現れた正解の数であり,全回答数は,全質問に対する回答数である.表中のMMFは上記の再現率,適合率から求めた値ではなく,それぞれの質問のMF値の全質問平均であることに注意されたい.\begin{table}[t]\caption{開発セットにおけるベースライン手法の精度}\label{tab:ベースライン手法,開発セット}\begin{center}\input{04table08.txt}\end{center}\end{table}表\ref{tab:ベースライン手法,開発セット}より,MMF値が最も高い秋葉らの手法を,提案手法と比較するベースライン手法として採用する.\subsubsection{提案手法における,「分布数の決定法」及び,「分布数が三つの場合の正解分布の決定法」の組合せの決定}\label{subsubsec:提案手法}提案手法では回答は\ref{sec:回答判定}節の式(\ref{Eq:square})で求められる閾値以上のスコアを持つ解候補を回答とする.ここで,「分割する分布数の決定法」及び,「分割されたいくつかの分布のうち,どこまでを正解分布とするかの決定法」についてそれぞれいくつかの候補が存在する.本節では,開発セットを用いて,「分布数の決め方」と「分布数が三つの場合の正解分布の決め方」の最も良い組合せを選ぶ.分布数が二つの時は,スコアの大きい方の分布が正解分布となる.分布数が三つの時の正解分布の決め方として,以下の三種類を検討する.\begin{description}\item[固定(1)]最もスコアが大きい分布を正解分布とする.\item[固定(2)]スコアが大きい方から二つ目の分布までを正解分布とする.\item[可変]隣接分布の平均値の差が大きいところで正解分布と不正解分布とに分ける($j=\linebreak\argmax_j\{\mu_j-\mu_{j+1}\}$となるとき,$j$番目の分布までを正解分布とする)).\end{description}また,分布数の決定法は以下の場合を検討する.\begin{itemize}\item分布数をあらかじめ決定しておく.\item\ref{sec:分布数判定}節の分布数決定指標1を用いて分布数を決定する.\item\ref{sec:分布数判定}節の分布数決定指標2を用いて分布数を決定する.\item\ref{sec:分布数判定}節の分布数決定指標3を用いて分布数を決定する.\item\ref{sec:分布数判定}節の分布数決定指標2と3の両方を用いて分布数を決定する.分布数決定指標2と同3の両方で分布数が三つと判定された質問だけを分布数が三であると仮定し,それ以外は分布数を二と仮定する.\end{itemize}各候補の組合せを表\ref{tab:設定組合せ}に示す.表\ref{tab:設定組合せ}では,それぞれの設定において,パラメタ調整用のセットで調整する必要があるパラメタ名を併せて示している.\begin{table}[b]\hangcaption{提案手法の「分布数の決定法」と「分布数が三つの場合の正解分布の決定法」のそれぞれの候補の設定の組合せ}\label{tab:設定組合せ}\begin{center}\input{04table09.txt}\end{center}\end{table}分布数決定指標2のパラメタ$Th_q$はパラメタ調整用の質問セットを用いて,値を1から10まで0.5刻みで変えて実験した結果,式(\ref{Eq:Th_q})の通りに決定した.また,分布数決定指標3のパラメタ$Th_{\mu_r}$はパラメタ調整用の質問セットを用いて,値を0.01から0.2まで0.01刻みで変えて実験した結果,式(\ref{Eq:Th_mu_r})の通りに決定した.\begin{align}Th_q&=2.5\label{Eq:Th_q}\\Th_{\mu_r}&=0.15\label{Eq:Th_mu_r}\end{align}「分布数の決定法」と「分布数が三つの場合の正解分布の決定法」のそれぞれの候補の組合せにおける求解精度を表\ref{tab:提案手法,開発セット}に示す.\begin{table}[b]\hangcaption{開発セットにおける,「分布数の決定法」と「分布数が三つの時の正解分布の決定法」のそれぞれの候補の組合せにおける求解精度}\label{tab:提案手法,開発セット}\begin{center}\input{04table10.txt}\end{center}\end{table}表\ref{tab:提案手法,開発セット}より,最もMMF値が高い,「分布数決定指標2で分布数を決定し,分布数が三つの場合には最もスコアが高い分布のみを正解分布とする手法」を最終的な提案手法とする.\subsubsection{提案手法とベースライン手法の精度比較}評価用の質問セットを用いて,\ref{subsubsec:ベースライン}節及び\ref{subsubsec:提案手法}節で\pagebreak選んだベースライン手法と提案手法の精度の比較を行なった.ベースライン手法は秋葉らの手法\cite{秋葉:質問応答における常識的な解の選択と期待効用に基づく回答群の決定}である.提案手法は,\ref{sec:分布数判定}節の分布数決定指標2で分布数を決定し,分布数が三つの場合には最もスコアが高い分布のみを正解分布とし,\ref{sec:回答判定}節の式(\ref{Eq:square})で求められる閾値以上のスコアを持つ解候補を回答とする手法である.分布数決定指標2のパラメタ$Th_q$の値は2.5である.結果を表\ref{tab:提案手法vsベースライン}に示す.\begin{table}[b]\caption{評価用セットにおける,提案手法とベースライン手法の精度比較}\label{tab:提案手法vsベースライン}\begin{center}\input{04table11.txt}\end{center}\end{table}表\ref{tab:提案手法vsベースライン}より,提案手法のMMF値がベースライン手法を若干上回っていることが分かる.ただし,この差に統計的有意差は無く(ウィルコクソンの符合付順位和検定(両側検定)でのp値=0.453),同等の精度であるといえる.一方で,再現率と適合率を見ると,再現率には大きな差がないのに対し,適合率は提案手法の方が大きく勝っている.再現率を下げずに平均回答数を少なくすることに成功していることが分かる.\subsection{スコアの分布に正規分布以外の分布を使った時の求解精度}\label{sec:他の分布}本研究では,スコアの分布として,正規分布を仮定して分布を求めていた.これは,統計学における中心極限定理に根拠をおいている.しかしながら,正規分布による近似が最適であるという保証はない.一方,言語処理において,単語の出現頻度の確率分布は,ポアソン分布に近似できるといわれている.ポアソン分布は,一定の期間や一定の大きさの空間において,ごく稀に起こる現象の確率分布であるそこで本節では,スコアの確率分布をモデル化する正規分布以外の分布として,ポアソン分布を仮定し,正規分布の場合と同様の求解手順により求められた解の精度を調べることとする.ポアソン分布は二項分布の特殊例で,二項分布の期待値と分散が等しい場合となる.ポアソン分布の式は以下のように表される.\begin{equation}p(x)=\frac{e^{-\lambda}\cdot\lambda^{x}}{x!}\hspace{20pt}x=0,1,2\cdots\end{equation}ここで,$\lambda$は平均値で,0以上の値をとる.解候補スコアの分布をポアソン分布と仮定して,同じようにEMアルゴリズムで分離した.ポアソン分布は離散分布であるので,解候補のスコアを非負の整数で表現する必要がある.そこで,最大値を100とするために正規化スコアを100倍し,小数点以下は四捨五入したものを用いた.\subsubsection{仮定する分布の違いによるスコア分布の違い}図\ref{fig:Poisson}(a)は優先順位型質問応答システムが出力した,上位30件の正規化した解候補スコアのヒストグラム(ヒストグラムのデータ区間は0.04毎)であり,実線はハニング窓関数を用いてスコアの密度分布を求めたものである(ハニング窓関数の窓幅は0.02).図\ref{fig:Poisson}(b)は正規分布,ポアソン分布それぞれの混合分布でスコア分布を近似したものである.ハニング窓関数を用いて求めた密度分布がだいたい三つの分布から成り立っているように観察できるため,分布数は三つとしている.正規分布の混合分布とポアソン分布の混合分布を比べると,ポアソン分布の混合分布の方が,なだらかに変化しており,分布の切れ目が判断しづらい.図\ref{fig:Poisson}(a)のハニング窓関数を用いて平滑化したものと図\ref{fig:Poisson}(b)の各分布を比べてみると,正規分布で近似したもののほうが類似しているのが見てとれる.このことから,正規分布の方がより正確に近似できていると言えそうである.この違いは,ポアソン分布のパラメタ数と正規分布のパラメタ数の差から来ている.ポアソン分布ではパラメタが平均値$\lambda$のみであるのに対し,正規分布では平均値$\mu$と分散$\sigma^2$があるため,実際のスコア分布に対する近似はパラメタ数の多い正規分布の方が優れていると考えられる.\begin{figure}[t]\small\begin{center}\includegraphics{16-1ia4f6a.eps}\\(a)スコアのヒストグラム\\[1\baselineskip]\includegraphics{16-1ia4f6b.eps}\\(b)混合分布\\\end{center}\caption{仮定するスコアの分布による混合分布の違い}\label{fig:Poisson}\end{figure}\subsubsection{ポアソン分布を仮定した場合のリスト型質問応答}\label{subsec:ポアソンでの精度}解候補スコアの分布として正規分布を仮定した場合とポアソン分布を仮定した場合の違いを比較する.用いた質問の内訳は\ref{sec:問題判定}節と同様で,パラメタ調整用の質問は,QAC1の1〜50問目と101〜150問目及びQAC2の51〜150問目の計200問(平均正解数2.31個)である.評価用の質問は,QAC1の51〜100問目と151〜200問目及びQAC2の1〜50問目と151〜200問目(うち一問が不適切な質問とされている)の計199問(平均正解数2.33個)である.まず,\ref{sec:分布の判定}節の分離指標を用いて,回答が適切に見つかっている質問の判定ができるかどうか実験を行なった.分離指標に関する各パラメタは予備実験の結果,以下のように決定した.予備実験ではパラメタ調整用の質問セットを用い,それぞれの閾値を0.01単位で動かした時に,正解が適切に求められている質問(解候補中に正解があり,かつそれらが上位に順位づけされている)とそうでない質問とを有効に分けられるかどうかの結果を基に決定した.\begin{align}Th_{\mu_{\mathit{diff}}}&=0.2\\Th_{\mathit{diff}}&=0.2\end{align}ここでは,すべての質問において,解候補のスコア分布は,三つの分布の混合分布であるとし,三つの分布のうち正解分布はスコアが一番大きい分布のみとしている.結果を表\ref{tab:分布の分割の違いポアソン}に示す.\begin{table}[b]\caption{ポアソン分布を仮定した時のスコアの分布の分割の度合の違いによる平均回答数とMMFの違い}\label{tab:分布の分割の違いポアソン}\begin{center}\input{04table12.txt}\end{center}\end{table}表\ref{tab:分布の分割の違いポアソン}より,分布の分割が明確な場合と不明確な場合とでMMFに差がでており,ポアソン分布を仮定した場合にも,正解が適切に見つかっている質問を判定するのに分離指標は有効であるといえる.ただし,この結果は表\ref{tab:分布の分割の違い}とは少し違い,分布の分割が不明確な質問のMMFがかなり低く,どちらかといえば,正解が適切に見つかっていない質問の判定に適しているといえる.次に,解候補スコアの分布として正規分布を仮定した場合とポアソン分布を仮定した場合の,リスト型質問応答としての精度の違いを比較する.ここでは,すべての質問において,解候補のスコア分布は,三つの分布の混合分布であるとし,三つの分布のうち正解分布はスコアが一番大きい分布のみとしている.結果を表\ref{tab:ポアソン分布を用いた場合}に示す.表中の再現率と適合率の値については\ref{sec:正解判断指標の有効性}節でのものと計算法は同じである.\begin{table}[b]\caption{スコアの分布とリスト型質問応答の精度の違い}\label{tab:ポアソン分布を用いた場合}\begin{center}\input{04table13.txt}\end{center}\end{table}表\ref{tab:ポアソン分布を用いた場合}より,MMFにやや差がでており,正規分布を仮定した場合の方が精度が良くなっている.ただし,ポアソン分布を仮定した場合と正規分布を仮定した場合とでは,MF値について,ウィルコクソンの符合付順位和検定(両側検定)を行った結果,統計的有意差は認められなかった($p=0.089$).また,ポアソン分布を仮定した場合と正規分布を仮定した場合の平均回答数は,ポアソンを仮定した場合の方が少なめである.再現率と適合率を見ても,平均回答数が少なめのポアソン分布の方は適合率が高くなっており,平均回答数が多めの正規分布ではポアソン分布を仮定した場合と比べ,再現率が高く,適合率が低くなっており,傾向が違っているのが観察される.\subsubsection{ポアソン分布を仮定した際のスコアの分布が二つに分離できると判断するための各尺度の相関関係}\ref{sec:相関}節と同様に,ポアソン分布を仮定した際のスコアの分布が二つに分離できると判断するための各尺度と最大MF値の相関係数を求めた.用いた質問は,\ref{sec:相関}節と同様,QAC1の51〜100問目と151〜200問目及びQAC2の1〜50問目と151〜200問目(うち一問が不適切な質問とされている)の計199問である.\begin{table}[t]\hangcaption{ポアソン分布を仮定した際の,スコアの分布が二つに分離できると判断するための各尺度の相関関係}\label{tab:ポアソン分布の各尺度の相関係数}\begin{center}\input{04table14.txt}\end{center}\end{table}その結果を表\ref{tab:ポアソン分布の各尺度の相関係数}に示す.表中の値はピアソンの相関係数である.$\mu_{\mathit{diff}}(2)$は,スコア分布を二つの分布の混合分布としたときの,二つの正規分布の平均値の差,$\mu_{\mathit{diff}}(3)$は,スコア分布を三つの分布の混合分布したときの,隣接した正規分布の平均値の差の大きい方,$max_{\mathit{diff}}$は隣接スコアの差の最大値($max_{\mathit{diff}}=\max_j\{score(AC_j)-score(AC_{j+1})\}$),を表している.表\ref{tab:ポアソン分布の各尺度の相関係数}より,\ref{sec:相関}節での結果と同様の傾向を持つ結果となっているのが分かる.この結果より,スコア分布を二つの分布の混合分布としたときの,二つの正規分布の平均値の差や,スコア分布を三つの分布の混合分布したときの,隣接した正規分布の平均値の差の大きい方,という尺度は,ポアソン分布,正規分布のいずれの分布を仮定した時でも有効な指標であると考えられる.
\section{考察}
label{Chapter:discussion}\subsection{スコアの分布の分割の有効性}\ref{sec:問題判定}節から\ref{sec:正解判断指標の有効性}節の結果より,提案手法は,ベースライン手法の候補の中で最も優れていた秋葉らの手法\cite{秋葉:質問応答における常識的な解の選択と期待効用に基づく回答群の決定}と同等以上の精度があることが分かった.さらに秋葉らの手法に対し,スコアの分布を求めることにより,正解が適切に見つかっている質問を判定できるという点で,本手法は優れている.\ref{sec:分布の判定}節で提案した分離指標を用いてスコアの分布が明確に分離できるかどうか判断し,正解が適切に見つかっているか否かの判断をすることは可能であるということが分かった.しかし,正解が適切に見つかっている質問を全て抽出できているわけではない.例えば,1位に正解があるような例でも適切に判断できないこともある.これは,解候補のスコアの分布が明確だと判断する条件をある程度厳しくしている為だと考えられる.条件を厳しくしているのは確実な質問についてのみ求解を行なうためである.判断の基準を変えることによって,より確実な質問に重点をおくのか,正解を見つけられていない質問を見つけることに重点をおくのかなどの調整は可能である.さらに,\ref{sec:分布数判定}節に示した分布数決定指標のうち,経験則である分布数決定指標2を用いた手法が最も有効であることが分かった.しかし,MDLを用いた分布数決定法は有効でないことが分かった.この理由の一つとして,MDLの計算に用いるパラメタ数がある.一つの分布につきパラメタは,混合比,平均値,分散と三つあるため,分布が一つ増えただけでパラメタ数の増大が大きく,MDL値が大きくなりやすくなるため多くの質問のスコア分布が二つと判定されてしまったと考えられる.しかし,それ以外の,精度が良くない原因については現在調査中であり,今後の課題としたい.\subsection{スコアの分布として仮定した確率分布の違いによる結果}スコアの分布としてポアソン分布として仮定した場合,正規分布を仮定した場合と比べて\ref{sec:他の分布}節の結果より以下のことが言える.\begin{enumerate}\item正規分布を仮定したときと同様に,\ref{sec:分布の判定}節で提案した分離指標を用いて,正解が適切に見つかっている質問を判定することが可能である.\item正解が適切に見つかっていると判断された質問については,正規分布を仮定した場合と同等のMMFである.\item正解が適切に見つかっていないと判断された質問については,MMFはとても低い.\item全体として,ポアソン分布を用いてリスト型質問応答を行ったときと,正規分布を用いた時では,ポアソン分布を仮定した時の方が平均回答数が少なく,MMFがやや悪くなっている.\end{enumerate}
\section{おわりに}
label{Chapter:conclusion}本稿では,リスト型質問応答処理にスコアの分布を用いる手法を提案した.リスト型の回答を作る際に,解候補のスコアの分布を求めることにより正解が適切に見つかっている質問の判定をする手法も提案した.我々は,優先順位型質問応答システムの出力する解候補群のスコアをまずいくつかのクラスタに分けることを考え,それぞれのクラスタを一つの確率分布と考えた.さらに,正解集合のスコア分布と不正解集合のスコア分布に明確に分割できる場合には,その質問の回答が適切に見つかっていると判断できると考えた.この考えを基に,正解集合に含まれる解候補を回答とするための正解判定法と,二つの分布が明確に分割できるかどうか判断するための分離指標を用いる手法を提案した.これらの手法は解候補の頻度情報を用いた,頻度によるスコアの上がり具合を調整する多数決方式を用いたスコアの分布に有効であることが分かった.また,スコアの分布を用いた正解判断指標は他の単純な指標に比べて精度が高かった.正解判断の指標をスコアの分布により使い分けることも有効であるということも分かったが,使い分けるための有効な手法を検討する必要がある.今後は,正解が存在しない質問への対応が課題である.また,本手法で正解が適切に求められていないと判定された質問に対して,解候補の最順位づけなどを行なうことによって,精度の向上が期待できる.Pargeretal\cite{Prager:ImprovingQAAccuracybyQuestionInversion}は,解候補を用いて質問文中のキーワードを解答とする新たな質問文を作り,解候補の検証を行なうことによって,解候補候補の再順位づけ及び正解無しの判定を行なう手法を提案している.本手法で正解が適切に求められていないと判定された質問に対して,このような手法が有効であるか検討したい.\bibliographystyle{jnlpbbl_1.3}\newcommand{\nop}[1]{}\makeatletter\@ifundefined{nop}{\def\nop#1{}}{}\makeatother\begin{thebibliography}{}\bibitem[\protect\BCAY{Bos}{Bos}{2006}]{Bos:TheLaSapienzaQuestionAnsweringsystematTREC2006}Bos,J.\BBOP2006\BBCP.\newblock\JBOQ{The“LaSapienza”QuestionAnsweringsystematTREC-2006}\JBCQ\\newblockIn{\Bem{TheFifteenthTextREtrievalConferenceProceedings}}.\bibitem[\protect\BCAY{Burger}{Burger}{2006}]{Burger:MITREsQandaatTREC15}Burger,J.~D.\BBOP2006\BBCP.\newblock\JBOQ{MITRE’sQandaatTREC-15}\JBCQ\\newblockIn{\Bem{TheFifteenthTextREtrievalConferenceProceedings}}.\bibitem[\protect\BCAY{Clarke,Cormack,\BBA\Lynam}{Clarkeet~al.}{2001}]{Clarke:Exploitingredundancyinquestionanswering}Clarke,C.~L.,Cormack,G.~V.,\BBA\Lynam,T.~R.\BBOP2001\BBCP.\newblock\BBOQ{Exploitingredundancyinquestionanswering}\BBCQ\\newblock\Jem{{ProceedingofSIGIR’01:the24thAnnualInternationalACMSIGIRConfersnceonReserchandDevelopmentinInformationRetrival}}.\bibitem[\protect\BCAY{Dong,Lin,\BBA\Kelly}{Donget~al.}{2006}]{TRECoverview06}Dong,H.~T.,Lin,J.,\BBA\Kelly,D.\BBOP2006\BBCP.\newblock\BBOQ{OverviewoftheTREC2006QuestionAnsweringTrack}\BBCQ\\newblockIn{\Bem{TheFifteenthTextREtrievalConferenceProceedings}}.\bibitem[\protect\BCAY{Fukumoto,Kato,\BBA\Masui}{Fukumotoet~al.}{2002}]{Fukumoto:QAC1}Fukumoto,J.,Kato,T.,\BBA\Masui,F.\BBOP2002\BBCP.\newblock\BBOQ{QuestionAnsweringChallenge(QAC-1)---QuestionansweringevaluationatNTCIRWorkshop3---}\BBCQ\\newblockIn{\BemProceedingsoftheThirdNTCIRWorkshopMeeting},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Fukumoto,Kato,\BBA\Masui}{Fukumotoet~al.}{2004a}]{Fukumoto:QAC2Subtask12}Fukumoto,J.,Kato,T.,\BBA\Masui,F.\BBOP2004a\BBCP.\newblock\BBOQ{QuestionAnsweringChallengeforFiveRankedAnswersandListAnswers-OverviewofNTCIR4QAC2Subtask1and2}\BBCQ\\newblockIn{\Bem{ProceedingsoftheFourthNTCIRWorkshopMeeting}}.\bibitem[\protect\BCAY{Fukumoto,Niwa,Itogawa,\BBA\Matsuda}{Fukumotoet~al.}{2004b}]{Fukumoto:Rits-QA}Fukumoto,J.,Niwa,T.,Itogawa,M.,\BBA\Matsuda,M.\BBOP2004b\BBCP.\newblock\BBOQ{Rits-QA:ListAnswerDetectionandContextTaskwithZeroAnaphoraHandling}\BBCQ\\newblockIn{\Bem{ProceedingsoftheFourthNTCIRWorkshopMeeting}}.\bibitem[\protect\BCAY{Harabagiu,Moldovan,Clark,Bowden,Williams,\BBA\Mensly}{Harabagiuet~al.}{2003}]{Harabagiu:AnswerMiningbyCombiningExtractionTechniqueswithAbductiveReasoning}Harabagiu,S.,Moldovan,D.,Clark,C.,Bowden,M.,Williams,J.,\BBA\Mensly,J.\BBOP2003\BBCP.\newblock\BBOQ{AnswerMiningbyCombiningExtractionTechniqueswithAbductiveReasoning}\BBCQ\\newblockIn{\Bem{TheTewlfthTextREtrievalConferenceProceedings}}.\bibitem[\protect\BCAY{Mori}{Mori}{2004}]{Mori:NTCIR4WN:JapaneseQASystemUsingA*SearchAndItsImprovement}Mori,T.\BBOP2004\BBCP.\newblock\BBOQ{JapaneseQ/ASystemusingA$^*$SearchandItsImprovement:YokohamaNationalUniversityatQAC2}\BBCQ\\newblockIn{\Bem{ProceedingsoftheFourthNTCIRWorkshopMeeting}}.\bibitem[\protect\BCAY{Murata,Utiyama,\BBA\Isahara}{Murataet~al.}{2004}]{Murata:JapaneseQAsystemUsingDecreasedAddingwithMultipleAnswers}Murata,M.,Utiyama,M.,\BBA\Isahara,H.\BBOP2004\BBCP.\newblock\BBOQ{JapaneseQuestion-AnsweringSystemUsingDecreasedAddingwithMultipleAnswers}\BBCQ\\newblockIn{\Bem{ProceedingsoftheFourthNTCIRWorkshopMeeting}}.\bibitem[\protect\BCAY{Murata,Utiyama,\BBA\Isahara}{Murataet~al.}{2005}]{Murata:DcreasedAddingJapaneseQusetionAnswering}Murata,M.,Utiyama,M.,\BBA\Isahara,H.\BBOP2005\BBCP.\newblock\BBOQ{UseofMultipleDocumentsasEvidencewithDcreasedAddinginaJapaneseQusetionAnswering}\BBCQ\\newblockIn{\Bem{JournalofNaturalLanguageProcessingVolume12Number2}}.\bibitem[\protect\BCAY{M.Voorhees}{M.Voorhees}{2001}]{TRECoverview01}M.Voorhees,E.\BBOP2001\BBCP.\newblock\BBOQ{OverviewoftheTREC2001QuestionAnsweringTrack}\BBCQ\\newblockIn{\Bem{TheTenthTextREtrievalConferenceProceedings}}.\bibitem[\protect\BCAY{M.Voorhees}{M.Voorhees}{2002}]{TRECoverview02}M.Voorhees,E.\BBOP2002\BBCP.\newblock\BBOQ{OverviewoftheTREC2002QuestionAnsweringTrack}\BBCQ\\newblockIn{\Bem{TheEleventhTextREtrievalConferenceProceedings}}.\bibitem[\protect\BCAY{M.Voorhees}{M.Voorhees}{2003}]{TRECoverview03}M.Voorhees,E.\BBOP2003\BBCP.\newblock\BBOQ{OverviewoftheTREC2003QuestionAnsweringTrack}\BBCQ\\newblockIn{\Bem{TheTewlfthTextREtrievalConferenceProceedings}}.\bibitem[\protect\BCAY{M.Voorhees}{M.Voorhees}{2004}]{TRECoverview04}M.Voorhees,E.\BBOP2004\BBCP.\newblock\BBOQ{OverviewoftheTREC2004QuestionAnsweringTrack}\BBCQ\\newblockIn{\Bem{TheThirteenthTextREtrievalConferenceProceedings}}.\bibitem[\protect\BCAY{M.Voorhees\BBA\Dong}{M.Voorhees\BBA\Dong}{2005}]{TRECoverview05}M.Voorhees,E.\BBACOMMA\\BBA\Dong,H.~T.\BBOP2005\BBCP.\newblock\BBOQ{OverviewoftheTREC2005QuestionAnsweringTrack}\BBCQ\\newblockIn{\Bem{TheFourteenthTextREtrievalConferenceProceedings}}.\bibitem[\protect\BCAY{Prager,Duboue,\BBA\Chu-Carroll}{Prageret~al.}{2006}]{Prager:ImprovingQAAccuracybyQuestionInversion}Prager,J.,Duboue,P.,\BBA\Chu-Carroll,J.\BBOP2006\BBCP.\newblock\BBOQ{ImprovingQAAccuracybyQuestionInversion}\BBCQ\\newblockIn{\Bem{Proceedingofthe21stInternationalConferenceonComoutationalLinguisticsand44thAnnualMeetingoftheACL}}.\bibitem[\protect\BCAY{Rissanen}{Rissanen}{1999}]{MDL}Rissanen,J.\BBOP1999\BBCP.\newblock\BBOQ{MDLDenoising}\BBCQ\\newblockIn{\Bem{IEEETrans.InformationTheory}}.\bibitem[\protect\BCAY{Takaki}{Takaki}{2004}]{Takaki:NTTDATA-QAatNTCIRQAC2}Takaki,T.\BBOP2004\BBCP.\newblock\BBOQ{NTTDATAQuestion-AnsweringExperimentattheNTCIR-4QAC2}\BBCQ\\newblockIn{\Bem{ProceedingsoftheFourthNTCIRWorkshopMeeting}}.\bibitem[\protect\BCAY{Xu,Licuanan,\BBA\Weischendel}{Xuet~al.}{2003}]{Xu:TREC2003QAatBBN:Answeringdefinitionalquestions}Xu,J.,Licuanan,A.,\BBA\Weischendel,R.\BBOP2003\BBCP.\newblock\BBOQ{TREC2003QAatBBN:Answeringdefinitionalquestions}\BBCQ\\newblockIn{\Bem{TheTewlfthTextREtrievalConferenceProceedings}}.\bibitem[\protect\BCAY{加藤\JBA桝井\JBA福本\JBA神門}{加藤\Jetal}{2004}]{加藤:リスト型質問応答の特徴付けと評価指標}加藤恒昭\JBA桝井文人\JBA福本淳一\JBA神門典子\BBOP2004\BBCP.\newblock\JBOQリスト型質問応答の特徴付けと評価指標\JBCQ\\newblock自然言語処理研究会報告\2004-NL-163,情報処理学会.\bibitem[\protect\BCAY{秋葉\JBA伊藤\JBA藤井}{秋葉\Jetal}{2004}]{秋葉:質問応答における常識的な解の選択と期待効用に基づく回答群の決定}秋葉友良\JBA伊藤克亘\JBA藤井敦\BBOP2004\BBCP.\newblock\JBOQ質問応答における常識的な解の選択と期待効用に基づく回答群の決定\JBCQ\\newblock自然言語処理研究会報告\2004-NL-163,情報処理学会.\end{thebibliography}\begin{biography}\bioauthor{石下円香}{2006年横浜国立大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了.同年同専攻博士課程後期進学,現在に至る.自然言語処理に関する研究に従事.}\bioauthor{森辰則}{1986年横浜国立大学工学部情報工学科卒業.1991年同大学大学院工学研究科博士課程後期修了.工学博士.同年,同大学工学部助手着任.同講師、同助教授を経て,現在,同大学大学院環境情報研究院教授.この間,1998年2月より11月までStanford大学CSLI客員研究員.自然言語処理,情報検索,情報抽出などの研究に従事.言語処理学会,情報処理学会,人工知能学会,ACM各会員.}\end{biography}\biodate\end{document}
| |
V17N05-02 | \section{はじめに}
日常の自然言語文には構成性(compositionality)に基づいて意味を扱う事が難しいイディオムや相当数のイディオム的な複数単語からなる表現,また,語の強い結合によって成り立つ決まり文句や決まり文句的な表現が数多く使われている.しかし,現在の自然言語処理(NaturalLanguageProcessing:NLP)ではこれらには必ずしも十分な対応が出来ていない\footnote{イディオム「目を回す」,「水に流す」,決まり文句的表現「引くに引けない」,「何とは無しに」を市販の良く知られた日英翻訳ソフト2種に翻訳させた結果を以下に示す.結果からいずれもこれらの表現を正しく認識していないことが推定される.\begin{tabbing}\hspace{30pt}\=123456789012345678901234567890\=\kill\>彼はそれを聞いて目を回した\>A社;Heturnedhiseyeshearingit.\\\>\>B社;Hehearditandturnedeyes.\\\>私は過去を水に流す\>A社;Ithrowthepastintowater.\\\>\>B社;Ipassthepastinwater.\\\>彼は引くに引けない\>A社;He..pull..isnotclosed.\\\>\>B社;Hecannotpulltopull.\\\>私は何とは無しにそれを見た\>A社;Iregardeditaswhatnothing.\\\>\>B社;..itwas.wasseenverymuch..me..\\\end{tabbing}}.近年,このような特異性のある複数単語からなる表現を複単語表現(Multi-WordExpression:MWE)と名付け,英語の機械処理の立場からその全体像を俯瞰し,対応を考察した論文(Sagetal.2002)が端緒となって,NLPにおけるMWE処理の重要性が広く認識されるようになった.これを受け,(国際)計算言語学会(AssociationforComputationalLinguistics:ACL)は2003年以降,MWEに関するワークショップをほぼ毎年開催しており,活発な議論が行われている.しかし,これまでの研究にはなお,以下の様な基本的な問題点が残っている.\begin{enumerate}[1.]\item複合名詞(NounCompound:NC),動詞・不変化詞構文(Verb-ParticleConstruction:VPC),動詞・名詞構文(VerbNounConstruction:VNC),イディオム(Idiom)など,限られた構文,意味の表現だけを対象とする研究が多い.\item典型的なイディオム,典型的な決まり文句などを対象とする研究が多く,意味的非構成性や要素語の共起に特異性を持つと認められるそれ以外の表現が顧みられていない.\itemコーパスからMWEを自動抽出する研究において,基準となる表現集合が不備なために再現率を的確に検証することが難しい.\end{enumerate}筆者らは,機械翻訳研究(首藤1973)の経験からフレーズベースの訳出が必要であること,一般のNLPにも複数単語からなる特異的な表現を総括的に資源化しておくことが不可欠であることを認識し,現代日本語におけるそれらの候補を収録した辞書の構築を目指してきた.本論文ではその初版の概要を報告する.以後,この辞書をJDMWE(JapaneseDictionaryofMulti-WordExpressions)と呼ぶ.本辞書は上記の問題を解消し,日本語の特異的複単語表現の基準レキシコンを与えることを目標に,主として人の内省によって編纂されている.編纂においては以下の点に留意した.\begin{enumerate}\itemNLPに有効と思われる,出来るだけ広範なMWE候補を体系的に整理・提示すること\footnote{ただし,固有表現(namedentity),頭字語(acronym),混成語(blend),会話調表現,尊敬・丁寧・謙譲表現には現時点では原則として対応していない.他の辞書類やルールによる自動生成等でカバーされることを想定している.}具体的には,イディオム(慣用句),決まり文句(常套句),慣用的な比喩表現,機能動詞結合(一部),支援動詞構文(一部),クランベリー表現,四字熟語,格言,諺,擬音・擬声・擬態語表現,複合語(一部),呼びかけ表現,応答表現等を対象とする.以後,これらの表現および外国語でこれらに相当する表現をMWE(Multi-WordExpression)と総称する.\item異表記,派生形をできるだけ網羅すること\item各MWEに機能情報のほか,構文構造情報を与えることにより,MWEを単語と見なした処理だけではなく,構文的柔軟性(内部修飾可能性)にも対応できるようにすること\end{enumerate}現在の収録MWEは基本形で約104,000表現,記載した異表記,派生形情報をすべて適用して見出しを生成すれば750,000表現程度をカバーしていることになる.本辞書はMWEごとにスロット付きの依存(木)構造を与えた一種のツリーバンク,あるいは,語の組み合わせに特異性があると同時に纏まった意味・談話上の機能を持つ,構造付きn-グラム$(2\leqq\mathrm{n}\leqq18)$データセット(syntacticallyannotatedn-gramdataset)と見なすことが出来る.以下,2.で関連研究を概観し,本研究の位置付けを明らかにする.3.で本辞書に収録した表現について詳しく述べる.4.で辞書形式を簡単に説明し,辞書内容として異表記に関する情報,機能に関する情報,構造に関する情報について順に述べ,例を用いて構造情報と内部修飾句との関係を説明する.5.では既存の大規模日本語n-グラム頻度データとの比較等によって収録表現の統計的性質に基づいた考察を行う.6.で総括と今後の課題を述べてむすびとする.
\section{関連研究}
(Gross1986)は,フランス語の複合副詞(compoundadverb),複合動詞(compoundverb)の種類が単独の副詞,動詞の,それぞれ,3.3倍,1.7倍程度存在することを指摘した.また,(Jackendoff1997)は,英語の日常使用者の持つMWEレキシコンは単語レキシコンと同数規模だと推定されること,(Sagetal.2002)はWordNet1.7(Fellbaum1999)のエントリーの41\%がMWEであることを指摘した.日本語でも$[\text{動詞}+\text{動詞}]$型の複合動詞が動詞の種類の44\%を占めることが(Uchiyamaetal.2003)で示されている.この様に日常の自然言語には意外に多種類の複単語表現が使用されており,充実したMWEレキシコンを整備することが重要であることが認識されている.本論文で述べるMWE辞書,JDMWEの基本見出し数は104,000表現であり,(Jackendoff1997)の指摘した英語におけるMWEの分布も日本語における分布と大差ない事が推定される.(Sagetal.2002)は,さらに,英語のMWE全体を俯瞰し,語彙的に纏められる句(lexicalizedphrase)を形態・構文的な柔軟性の度合いによって,固定表現(fixedexpression),半固定表現(semi-fixedexpression),構文的に柔軟な表現(syntacticallyflexibleexpression)に分け,慣習的に使われる句(institutionalizedphrase)と合わせて,それぞれのNLPにおける取り扱い方を論じた.具体的には複合名詞(compoundnominal:CN),固有名詞(propername:PN),動詞・不変化詞構文(verb-particleconstruction:VPC),軽動詞構文(lightverbconstruction:LVC),分解可能イディオム(decomposableidiom),分解不能イディオム(non-decomposableidiom)などの種類ごとに,単語的な扱い(wordswithspacesapproach,holisticapproach)と形態,構文,意味上の構成的な扱い(compositionalapproach)の是非について論じた.(Sagetal.2002)の指摘の本質は,MWE現象が広範に亘る事,MWEを単語として扱うだけでなく,多様な形態・構文的柔軟性に応じた取り扱いをしなければならないという事であり,その後のMWE研究に多くの示唆を与えた.(Sagetal.2002)の枠組みによる日本語MWEに関する考察には(Baldwinetal.2003a)がある.(Villavicencio2004)は(Sagetal.2002)の分類に基づき,英語イディオムと動詞・不変化詞構文を例に,従来の単語辞書をいくつかの表で拡張する形でMWEをデータ化する方法を論じた.本論文のJDMWEも一般の単語辞書や構文解析機との併用を想定しており,内容的に(Villavicencio2004)の要請の多くを満たしているが,対象とする表現がより広範である点,辞書としての独立性がより強い点,意味と細かな形態・構文的変化に関する情報は未記載であるが,各表現に対して内部修飾(internalmodification)の可能性を記載している点,日本語特有の異表記に対応している点などに違いがある\footnote{形態・構文的変化形,例えば,活用,助詞の交替・挿入・脱落,受動態化や語順の入れ替えによる名詞化の可否等の情報記載については(安武他1997)で報告した.}.NLP用のMWE辞書を作成したという報告には限られた形態の表現のみを対象とするものや採録表現数が比較的少ないものが多い.例えば,フランス語の22種の構文構造を持つ動詞型MWE,12,000個を辞書化した(Gross1986),13,000個の英語のイディオムを構文構造付きでデータベース化した(Kuiperetal.2003),ポルトガル語の10種の構文構造を持つ動詞型MWE,3,500個を辞書化した(Baptistaetal.2004),オランダ語の一般的MWE,5,000個に構文構造を与えて辞書化した(Gr\'egoire2007),フランス語の15種の構文構造を持つ副詞性MWE,6,800個を辞書化した(Laporteetal.2008)などが見られる.そのほか,英語とドイツ語のクランベリー表現をそれぞれ77個と444個収集した(Trawi\'nskietal.2008)の報告がある\footnote{例えば,「cranberry」の「cran」,「おだをあげる」の「おだ」の様な不明語(クランベリー語)を含む表現はクランベリー表現(cranberryexpression)と呼ばれる.}.日本語MWEのNLP向け辞書化に関する研究としては,古くは日本語の機能語性MWE,2,500種を組み込んだ文節構造モデルを提唱した(首藤他1979;Shudoetal.1980)や,約20,000個の概念語性MWE集を作成した(首藤1989)がある.また,機能語性MWEの異表記,派生表記を生成する階層的な手法を考案し,これによって16,771表現(341見出し)の辞書を編纂した(松吉他2007)の研究がある.日本語イディオムに関しては,市販の数種の慣用句辞典から3,600個の慣用句を収集してNLPの立場から考察を加えた(佐藤2007)がある.イディオム,準イディオムに対して形態的・構文的変化への制約や格要素等,修飾句への制約がどこまで意味の曖昧さ解消に利用できるかは今後の重要な課題である.この点を考慮して辞書構築を試みる研究に(Hashimotoetal.2006)があり,今後の成果が注目される.本論文の日本語概念語性MWEを対象とするJDMWEは,収録表現の構文・意味機能が26種類にのぼり,上記の各辞書化研究に比べてより広範囲のMWEを対象としていること,特に,イディオム,決まり文句以外に準イディオム,準決まり文句と言える表現候補を多数収録していること,取り扱う構文構造の種類が多彩で,例えば動詞型MWEの場合,80種以上の依存パタンを持つ表現が収録されていること,異表記に対応していることなど,従来の研究に見られない特徴がある.MWE候補をコーパスから自動抽出する研究が近年盛んであり,例えば,日本語,英語のコロケーション検出を統計的手法と一種のコスト評価で試みた(Kitaetal.1994)の研究,中国語複合名詞の抽出を統計的手法で試みた(Panteletal.2001),既存の意味的タグ付けシステムを統計的手法で補強することによって英語のMWE候補抽出を試みた(Piaoetal.2005),形態・構文的柔軟性の少なさを統計的に検出して英語の$[\text{動詞}+\text{名詞}]$型イディオム候補抽出を試みた(Fazlyetal.2006;Bannard2007)の研究など数多い.この種の研究では相互情報量(mutualinformation,pointwisemutualinformation),$\chi^{2}$(chi-squared),対数尤度(loglikelihood),KL情報量(KullbackLeiblerdivergence)などが相関尺度(associationmeasure)としてよく用いられるが,自動抽出における相関尺度とMWEとの適合性を比較検討した研究に(Pecina2008;Hoangetal.2009)がある.MWEとその要素語のコーパス中でのコンテクストの違いを検出してMWEを認定する研究に(Baldwinetal.2003b)がある.また,最近は対訳コーパスを利用してMWE候補を抽出する試み,例えば,英語—ポルトガル語で行った(Caselietal.2009),ドイツ語—英語で行った(Zarre{\ss}etal.2009)などが見られる.一定の概念が言語Aでは単語で表現され,言語Bでは複数単語の列で表現されるということはしばしば起こる.このとき,言語Bの単語列はMWEである可能性がある.この種の現象を対訳コーパスから検出しようというのがこれらの研究の基本的な考えである\footnote{本辞書でも英語への訳出を参考にして選定した表現が多数含まれている.}.コーパス中のMWEデータはスパースな場合が多く,統計的手法によるMWE捕捉では十分な再現率(recall)の達成が難しい.また,基準となる表現集合も明確でないため,MWE自動抽出の再現率評価自体が難しいという問題がある.人の利用を目的としたイディオム辞典類は古くから編纂されてきており,日本語に関しても慣用句を対象とした(白石(編)1977),(宮地裕(編)1982),(米川他(編)2005),故事ことわざ慣用句を対象とした(尾上(監修)1993;田島2002),四字熟語を対象とした(竹田1990),擬声語・擬態語慣用句を対象とした(白石(編)1992)等々,数多くの成果が出版されているが,これらには典型的表現しか収録されていない場合や,表現の機能,内部構造,異表記,変化形,用法に関する体系的な記述が見られない場合が多く,そのままではNLPにおける基準集合とはなりにくい.これらの問題点を緩和するのにJDMWEが役立つことが期待される.NLPにおける言語資源の評価は,応用システムの性能向上にどれだけ貢献したかで行うのが現実的であるが,MWEを対象としてそこまで行った研究はまだ多くないようである.この種の研究には,日本語MWEの主に文字面の情報を使って市販日本語ワープロの仮名漢字変換初回正解率を向上させた(Koyamaetal.1998)の研究,日本語の機能語的MWEを検出して用いれば,より正しい係り受け解析が実現出来ることを示した(注連他2007)の研究などがある.その他の日本語MWE処理に関する近年の研究には,複合動詞の多義選択法を考察した(Uchiyamaetal.2003),複合名詞の機械翻訳方式を考察した(Tanakaetal.2003)などがある.
\section{採録表現}
新聞記事,雑誌記事,小説,随筆,事典・辞書類などの広範な文書から,語の共起に何らかの特異性が認められ,構文・意味・談話上の一定の働きを持つMWEを,主として編者の内省によって収集・整理した\footnote{概念語的な働きをする表現を対象とし,「によって」,「かもしれない」などの機能語的働きをするMWEは対象外である.}.共起の特異性は,基本的なものとして次の2種に注目した\footnote{MWEはこれらの特異性の少なくとも一方を持つ3種に分けられるが,辞書中にその種別を明記するには至っていない.特異性の程度は連続的に分布しているため,表現の採否の判断が難しい場合がある.本辞書では,規則・処理系の負担を最小限にするいっぽう,レキシコンを出来るだけ充実させることを念頭に再現率を重視する立場をとった.}.\begin{enumerate}[1.]\item非構成(イディオム)性\item要素語間の強い共起性\end{enumerate}\subsection{非構成性MWE}要素単語の標準的な機能から表現全体の構造・意味を規則で導くことが難しい,即ち形態・構文・意味上の非構成性(non-compositionality)を持つ表現,あるいは構成性は成立しているが適用すると過生成(overgeneration)をもたらすと思われる表現を収録した.細かくは次の様な種類がある\footnote{(1)--(7)は必ずしも互いに排他的な概念ではない.}.\begin{enumerate}\item意味上の非構成性を持つ表現通常,イディオム(慣用句)と呼ばれている表現で,例えば,「赤の他人」,「耳を貸す」,「手を抜く」,「足が出る」,「首が回らない」,「顔を売る」,「気を取り直して」,「気が利く」等々である.これら,典型的表現以外にも非構成性には次のような種々のレベルが存在する.\item形態・構文上の構成性が不備,あるいは不明瞭な表現例えば,文頭で連結詞(文脈接続詞,discourseconnective)として使われる「とはいえ」,「にもかかわらず」,「といった訳で」など,挨拶表現の「ありがとう」,「こんにちは」など,サ変名詞性の「見える化」,形容動詞性の「いわずもがな」,副詞性の「しょっちゅう」,掛け声「どっこいしょ」など,また,動詞性の「身につまされる」,連体詞性の「名うての」のようなクランベリー表現,その他,構成的な扱いが過生成を招く表現には,連体詞性の「確たる」,「切なる」,「良からぬ」などがある.\item一部の支援動詞構文(SupportVerbConstruction:SVC)例えば,「批判を加える」,「磨きを掛ける」,「計画を立てる」,「旅行に行く」,「顔をする」,「思いをする」,「ウロウロする」,「心待ちにする」など\footnote{「研究-する」のように全体の意味が規則で求められると思われる表現は対象外とする.}.\item一部の複合語例えば,「練り歩く」,「打ち拉がれる」,「積み立てる」,「膝小僧」,「袋叩き」など\footnote{「食べ-始める」のように全体の意味が規則で得られると思われる表現は対象外とする.}.\item四字熟語「支離滅裂」,「雲散霧消」,「一心不乱」,「乱離骨灰」,「多事多端」,「危機一髪」,「百鬼夜行」など\footnote{四字熟語の機能・用法を本辞書では4.で述べる枠組みで体系化している.}.\item慣用的な比喩表現例えば,「火ダルマになって」,「命の限り」,「死ぬ程」,「黒山の人だかり」,「血の雨が降る」,「眼を皿にして」,「霧の中にある」など.\itemその他,意味の構成性に問題が有ると思われる表現通常イディオムとは呼ばれないが,機械処理において構成性に問題が生じる可能性のある準イディオムと呼ぶべき表現も日常の文書には頻繁に出現する.これらの候補も出来るだけ収録した.例えば,「伝票を切る」,「辞書を引く」,「要求を呑む」,「大学を出る」,「頭が良い」,「風邪を引く」,「思いが熱い」,「命の洗濯」,「約束を反古にする」,「元気が良い」,「扇風機を回す」,「車を転がす」,「カメラを回す」,「だからといって」,「足が速い」等々である.\end{enumerate}以上のMWEは,纏まった構文・意味・談話における一定の機能を持つ単語列であり,いずれかの要素単語を同意語,類似語あるいは下位概念の語で置き換えたとき,同じ(類似の)意味にならないか,意味をなさなくなるか,あるいは不自然になるという性質を持つ.例えば,「赤の他人」を「真紅の他人」,「耳を貸さない」を「耳を貸与しない」,「手を抜く」を「手を引き抜く」,「一票を投じる」を「一票を投げる」,「要求を呑む」を「要求を飲用する」などと言い換えたとき,少なくとも元の意味は保存されない.表現の採否は基本的にこの性質に準拠している.\subsection{単語間共起性の強いMWE}語の共起性の強い表現は,構文・意味解析において係り先を優先的に決定して解析の曖昧さを低減する処理や語の出現を予測する種々の処理に有効である.ここでの表現には以下のものが含まれる\footnote{(1)--(5)は必ずしも互いに排他的な概念ではない.}.\begin{enumerate}\item共起性の特に強い表現決まり文句的表現で「風前の灯」,「付きっ切り」,「矢継ぎ早」,「禍転じて福となす」,「雲一つ無い」,「時は金なり」,「願ったり叶ったり」,「手をこまぬく」,「程度の差こそ有れ」,「眼にも止まらぬ早技」,「右肩上がりに」,「不倶載天の敵」,「灯火親しむ候」など.\item格言,諺,故事成句の類「急がば回れ」,「一寸の虫にも五分の魂」,「ペンは剣より強し」,「柳に風折れ無し」,「一寸の光陰軽んず可からず」,「初心忘る可からず」,「大海は芥を択ばず」,「石の上にも三年」,「人の振り見て我が振り直せ」,「羹に懲りて鱠を吹く」,「蛍雪の功」など\footnote{(1),(2)は(Sagetal.2002)の分類における固定表現(fixedexpression)に近い.}.\item擬声,擬音,擬態語を伴う表現擬声,擬音,擬態語は共起する用言に強い制約のある場合が多い.例えば,「ノロノロと歩く」,「ユルユルと動く」,「グラグラ揺れる」,「グッスリ眠る」,「クルクル回る」,「ポッカリと空く」など.\itemその他,共起性が比較的強いと思われる表現「肩の荷を下ろす」,「警鐘を鳴らす」,「景気が上向く」,「烙印を押す」,「悪口を言う」,「メリハリの利いた」,「面子の丸潰れ」,「妄想が膨らむ」など.\item概念に固有の固定的言い回し特定概念を表現するとき強い単語間の排他的共起性を持つ表現で「情報検索」,「文句を言う」,「女流作家」,「疑惑を生む」,「機械翻訳」,「静寂を破る」等々である\footnote{(Sagetal.2002)の分類における慣習的に使われる句(institutionalizedphrase)に近い.}.\end{enumerate}(1)--(4)は,纏まった構文・意味・談話上の機能を持つ単語列$w_{1}w_{2}w_{3}\cdotsw_{n}$で,いずれかの要素単語$w_{i}$について,条件付後方出現確率$p_{f}(w_{i}|w_{1}\cdotsw_{i-1})$あるいは条件付前方出現確率$p_{b}(w_{i}|w_{i+1}\cdotsw_{n})$が相対的に高いという確率的な特異性(probabilisticidiosyncrasy)を持つと思われる表現である.例えば,$p_{f}(灯|風前の)$,$p_{f}(無し|柳に風折れ)$,$p_{f}(三年|石の上にも)$,\linebreak$p_{f}(押す|烙印を)$,$p_{f}(言う|悪口を)$,$p_{f}(鳴らす|警鐘を)$,$p_{f}(眠る|グッスリ)$,$p_{b}(手|をこまぬく)$,$p_{b}(時|は金なり)$,$p_{b}(面子|の丸潰れ)$,$p_{b}(初心|忘る可からず)$,$p_{b}(景気|が上向く)$,などは比較的大きいと判断した.(5)は特定概念を表現するという条件のもとで高い単語間共起確率を持つもので,例えば,$p_{b}(女流|作家)$,$p_{f}(生む|疑惑を)$,$p_{f}(破る|静寂を)$は,それぞれ,$p_{b}(女性|作家)$,$p_{f}(起こす|疑惑を)$,$p_{f}(壊す|静寂を)$などよりかなり大きいと想像できる.\subsection{表現の長さ}本辞書に収録した表現のグラム数と収録数の関係を表1に示す.基本的には市販の国語辞典類の単語・接辞を単位としたグラム数である.2〜5グラムの表現が全体の90\%を超える\footnote{1グラムデータは,後述する派生情報によってMWEに変化するため,例外的に見出しに加えた表現である.最長の18グラム表現には「天は人の上に人を創らず人の下に人を創らず」がある.}.
\section{記載情報}
本辞書の形式を表2に示す.現在,約104,000行,9列(A欄〜I欄)からなっている.以下,各表現に与えた情報について説明する.\begin{table}[t]\caption{表現の長さと採録表現数の関係}\input{03table01.txt}\end{table}\begin{table}[t]\caption{辞書の形式}\input{03table02.txt}\vspace{1\baselineskip}\end{table}\subsection{表記に関する情報}\subsubsection{平仮名見出し(A欄)}見出しは平仮名の音表記に基づいている.例えば,「良い」は「よい」と「いい」に,「得る」は「える」,「うる」に,「言う」は「いう」,「ゆう」に適宜読み分けて別見出しとする.また,「はんでぃーたいぷ」,「はんでぃたいぷ」など,外来(カタカナ)語の揺れによる異表記も原則として別見出しとする.見出し総数は約104,000件である.\subsubsection{字種,表記の揺れ情報(B,C欄)}B欄のハイフンおよびドットは語境界を示し,C欄は字種情報と表記の揺れ情報を与える.例えば,C欄,「組(み)-合(わ)せ」などの括弧は送り仮名などの文字の任意性を,「(有/在)る」,「(良/好/善)い」などの括弧と斜線の組み合わせは文字の選択肢を与える.B欄,C欄を組み合わせれば,殆ど全ての異表記を簡単に生成できる\footnote{例えば,B欄「き-の-いい-やつ」,C欄「気-の-(良/好/善)い-(奴/ヤツ)」から,次の24種の表記が得られる.「きのいいやつ」,「きのいい奴」,「きのいいヤツ」,「きの良いやつ」,…,「気のいい奴」,「気のいいヤツ」,「気の良いやつ」,「気の良い奴」,「気の良いヤツ」,「気の好いやつ」,「気の好い奴」,「気の好いヤツ」,「気の善いやつ」,「気の善い奴」,「気の善いヤツ」.}.\subsection{機能に関する情報\protect\normalsize{(D欄)}}D欄には表現の文法的機能,あるいは意味的,談話的種別をコード化して記載する.これらの種類とその表現の概数,表現例を表3,表4に示す.コードは各表現の構文木におけるルートノードのラベルに相当する.表3の連結詞性表現(C),副詞性表現(D),連体詞性表現(T)のコードに付した添え字v,a,kは表現がそれぞれ動詞,形容詞,形容動詞を含むことを示す.また,サ変以外の動的名詞性表現(Md)とは,「する」ではなく「をする」が後接して動詞化する表現である.様態名詞性表現(Mk)とは,名詞の性質と物事の広義の様態を表す性質とを併せ持つ形容動詞的な名詞表現である.これに対し,形容動詞,準形容動詞性表現(Yk)は,物事の広義の様態を表すが,名詞性が弱く,格助詞の後接等が出来ない表現である.擬声・擬音・擬態語(Yo)は,主としてG欄でMWEを派生させる目的で便宜上MWEの見出し表現に加えている.格言,諺,故事成句(\_P)は,その構造によってさらに13種に下位分類されているが,煩雑のため,ここでは説明を省く.\_Self,\_Call,\_Grt,\_Resの表現には状況によって意味合いが変わるものがあり,これらのクラスは互いに素ではない.例えば,ねぎらいの呼びかけ表現「お疲れ様です」は,近年,単なる軽い挨拶としてもよく用いられる.\begin{table}[p]\caption{収録表現の文法的機能と表現例}\input{03table03.txt}\end{table}\begin{table}[t]\caption{収録表現の意味的,談話的種別と表現例}\input{03table04.txt}\end{table}\begin{table}[t]\caption{構造パタンと表現の例(Adv:副詞,N:名詞,p:助詞,Y:用言)}\input{03table05.txt}\vspace{-0.5\baselineskip}\end{table}\subsection{構文構造に関する情報}\subsubsection{構成単語間の境界(B欄)}B欄のハイフンおよびドットは語境界を示すが,ドットは,その直後の単語の独立性が比較的強く,内部修飾句(列)を取り得る事を示す.表現の単位切りは基本的には市販の国語辞典類の単語単位とするが,異表記を簡潔に表現するため,字種が変化する可能性のある所には区切りを入れた\footnote{接頭・接尾語,助数詞および造語性の強い使われ方をしている一漢字造語成分は単語と見なして切り離した.\\また,活用語尾は原則として語幹から切り離さないが,形容動詞の連用形語尾「に」,「と」,連体形語尾「な」は格助詞との機能・用法上の類似性から助詞相当と見なして切り離した.形容動詞語幹に続く「だ」,「たり」,「なり」は助動詞扱いとした.}.\subsubsection{述語の支配構造(E欄)}収録表現のうち用言を用いた述語性表現(Yv,Ya,Yk)約57,800とこれらが連体,連用化した様態表現(Tv,Ta,Tk,Dv,Da,Dk)約19,700は表3の例に示した様に格要素等からなる依存構造を備えている場合が多い.E欄はこれらの依存(木)構造,約80パタンをva1,aa5,ve7のように記号化して与える.表5にYv,Ya,Ykの場合の依存(木)構造パタンと表現の例を示す.\clearpage\subsubsection{末尾の構造情報(F欄)}MWEに用言とその支配構造が含まれる場合,F欄には一般形で($\alpha$-)*$\beta$*と正規表現される英字列を記載する.ここで,$\alpha$はE欄に補うべき係り要素がある時にこれを表す.$\beta$は述部が他を修飾していたり,複合動詞であったり,助動詞,助詞等を含んでいることなどの情報を与える.例えば,「目玉が飛び出る程」では,全体として名詞性様態表現であることがD欄でMkと記され,「目玉が飛び出る」の部分の依存(格)構造がE欄でva2,すなわち[[Nが]V]型と与えられ,さらに,「飛び出る程」の構造がF欄で[VV]hodoと与えられる.これらの動詞部を一体化すれば,全体の依存(木)構造が[[[目玉が]飛び出る]程]が得られる.本辞書は対象とする表現の構造が多岐に亘るため,辞書の作成・管理上の便宜性を考慮して,構造を分割して記載するこのような方式を採った.述部が単一の用言の場合は$\beta$*は空とする.MWEが用言を含まない場合や含んでいても支配構造を有しない場合,F欄は,自立語の品詞および接辞を表す大文字と機能語性表現をローマ字表記した小文字列とからなる英字列で構造記述を行う.例えば,「酒は百薬の長」にはMha[MnoM]と記す\footnote{$[\cdots[[A_{1}]A_{2}]\cdotsA_{n}]$型以外の場合のみ括弧[]で句表示を行う.}.品詞記号は,M:名詞,V:動詞,K:形容動詞,D:副詞,T:連体詞,P:接辞とする.\subsubsection{構文的柔軟性(内部修飾可能性)}一般に形態・構文的な柔軟性と意味的非構成性とは相反する関係にあるが,この関係を一律に規定することは難しい.例えば,比較的固いイディオムであっても構文的な柔軟性を持つ場合がある.例を挙げれば,イディオム「油を売る」,「気の置けない」は,それぞれ内部修飾句を取って「油を何時も売る」,「気の全く置けない」と使われることがある.従来のNLPでは,イディオムに対して内部修飾句を許さない取扱いが数多く見られる\footnote{市販の日英翻訳ソフト2種にイディオムを翻訳させた結果を以下に示す.結果(1),(2),(5),(6)から「油を売る」,「気の置けない」はイディオムとして認識されていることが判るが,「油を何時も売る」,「気の全く置けない奴」に対する訳(3),(7),(8)ではこれらのイディオム性が捉えられていない.\begin{tabbing}\hspace{30pt}\=1234567890123456789012345\=123456789012345678901234567890123456789012345\=\kill\>彼は油を売る\>A社;Heloafs.\>(1)\\\>\>B社;Heidlesawayhistime.\>(2)\\\>彼は油を何時も売る\>A社;Healwayssellsoil.\>(3)\\\>\>B社;Healwaysidlesawayhistime.\>(4)\\\>気の置けない奴\>A社;Intimatefellow\>(5)\\\>\>B社;Afelloweasytogetalongwith\>(6)\\\>気の全く置けない奴\>A社;Fellowwhocannotputnatureatall\>(7)\\\>\>B社;Thefellowwhocannotplacemindatall\>(8)\end{tabbing}}.本辞書ではD,E,F欄にMWEの骨格構造を与え,B欄のドットでこの直後の単語が内部修飾を受ける可能性がある事を示す.図1,2,3,4に例を示す.図1は動詞性イディオム「手が回る」の例である.D,E欄の情報,Yv,va2から表現の骨格となる構造が図の太線の如く与えられ,B欄のドットによって「手」,「回る」がそれぞれ修飾句(列)を取り得ることが示されている.このことから「警察の手が回る」,「警察の手が遂に回る」のような変化形への柔軟な対応が可能になる.\begin{figure}[t]\begin{center}\includegraphics{17-5ia3f1.eps}\end{center}\caption{「手が回る」に与えたスロット付き依存(木)構造}\label{fig1}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{17-5ia3f2.eps}\end{center}\caption{「気の良い奴」に与えたスロット付き依存(木)構造}\label{fig2}\end{figure}図2は名詞性MWE「気のいい奴」の例である.D,E,F欄から太線の骨格が与えられ,B欄から「いい」,「奴」がそれぞれ修飾句(列)を取り得ることがわかる.これらから,「いつも気のとてもいい明るい奴」などの派生的表現にも対応可能となる\footnote{E欄のaa25は,「が格」支配の形容詞句が「の格」支配の連体修飾型に変化していることを表す.}.F欄に記されているAMは表現末尾が形容詞述語による連体修飾構造であることを表し,全体の構造はEの構造をFの構造の形容詞部に埋め込むことで得られる.図3は,副詞(連用修飾)性MWE,「先に述べた様に」に与えられている構文情報である.ここでもB欄のドットによって「先に詳しく述べた様に」,「理由を先に詳しく述べた様に」などへの対応が可能となる.\begin{figure}[t]\begin{center}\includegraphics{17-5ia3f3.eps}\end{center}\caption{「先に述べた様に」に与えたスロット付き依存(木)構造}\label{fig3}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{17-5ia3f4.eps}\end{center}\caption{「とは言うものの」に与えた依存(木)構造}\label{fig4}\end{figure}図4は文頭で用いられる連結詞性のMWE「とは言うものの」の例である.この表現は構成語間の結合の特に強い表現であるため,B欄にドットが記されていない.図の(不完全な)依存(木)構造はD,F欄から導くことが出来る.この表現は文頭に位置しなければならないことがH欄に記されている.以上の様に,JDMWEは表現ごとに修飾句スロット付き木構造を明記した表現集となっている.\subsection{派生情報\protect\normalsize{(G欄)}}形容動詞や形容動詞性名詞,副詞,連体詞など,物事の広義の様態を述べる表現をここでは様態表現と総称する.様態表現は連体,連用,動詞化に関しては用法が様々で,十分な整理を行っておく必要がある\footnote{その他の用法は相当品詞単語の用法に準じるものとする.}.本辞書では様態表現(D,Mk,\_P,Yk,Yo)に対してG欄に〈連体修飾形〉,〈連体修飾形〉\<-\<〈連用修飾形〉あるいは〈連体修飾形〉\<-\<〈連用修飾形〉\<-\<〈動詞形〉\noindentの形式で派生の仕方を記載する.例えば,「我関せず」という表現では,「我関せず-の」,「我関せず-という」,「我関せず-といった」で連体修飾,「我関せず-と」,「我関せず-で」と連用修飾句が派生することを〈no,toiu,toitta〉\<-\<〈to,de〉\noindentと記載する.また,「目玉が飛び出る程」では,「目玉が飛び出る程-の」で連体修飾,「目玉が飛び出る程」あるいは「目玉が飛び出る程-に」で連用修飾,「目玉が飛び出る程-になる」と動詞化することを〈no〉\<-\<〈$\varepsilon$,ni〉\<-\<〈ninaru〉\noindentと記す.同様に,擬態語「フラフラ」に対しては,「フラフラ-の」,「フラフラ-した」,「フラフラ-とした」で連体修飾,「フラフラ」,「フラフラ-と」,「フラフラ-して」,「フラフラ-として」で連用修飾,「フラフラ-する」,「フラフラ-とする」と動詞化することを〈no,sita,tosita〉\<-\<〈$\varepsilon$,to,site,tosite〉\<-\<〈suru,tosuru〉\noindentと記す.同じ擬態語でも「グングン」では連用句としての「グングン」,「グングン-と」しか有り得ないので,$\phi$-\<〈to,$\varepsilon$〉\noindentと表わされる\footnote{$\varepsilon$,$\phi$,は,それぞれ,空列,用法なしを意味する.}.これら$\phi$-\<〈to,$\varepsilon$〉などの派生パタンは約300種である.この種の派生形を別見出しとすれば,見出し数は約130,000件程度に膨らむ.\subsection{コンテクスト情報}\subsubsection{文頭側情報(H欄)}表現がMWEとして存立するための制約条件として文頭側コンテクストを指定する.例えば,「顔をする」は単独では用いられず,「嬉しそうな-顔をする」のような連体修飾句が必要であることを〈連体修飾〉と記す.また,「割れになる」は「元本-割れになる」のように,文頭側に連接した名詞による修飾が必要であることを〈名詞連接〉と記す,等々である.この種の条件は約30種定めている.\subsubsection{文末側情報(I欄)}H欄と同様に文末側コンテクストを指定する.\pagebreak例えば,「如何とも」は文末側に「難い」などの困難性を表す表現を要求することを〈困難性〉と記載する.同様に,「どの程度まで」に対しては〈疑問〉と記される,等々である.この種の条件は約70種定めている.
\section{考察}
収録表現群の統計的性質の一端を探るため,(工藤2007)のGoogleNグラムデータ(以降,GNGあるいはGNGデータと略記する.)との照合を試みた.これは200億文からなる日本語WEBコーパスにおける単語1〜7グラムの出現頻度を求めた大規模データである.対象とした表現は$[\text{名詞}w_{1}+\text{格助詞}w_{2}+\text{動詞}w_{3}]$型の動詞性表現(Yv)で,格助詞$w_{2}$を「を」,「が」,「に」に,動詞部$w_{3}$を単独の動詞,$[\text{動詞}+\text{動詞}]$型複合動詞,あるいは$[\text{サ変名詞}+\text{する}]$型動詞のそれぞれ終止形に限定した.これらの見出し数は29,389個であり,辞書中のB,C欄の情報で展開した対象表記数は82,125個である.これらの$w_{1}w_{2}$部分の表記数は13,806個で,その内12,120個がGNGにおける2,3グラムデータに一致した\footnote{$w_{1}$が2グラムの場合を含む.}.これらの表記を前部分列とするGNGの3,4,5グラムデータ中で格助詞の直後に上記の種類の動詞(終止形)が出現するものは1,194,293個であった.これらの前部分列$w_{1}w_{2}$ごとに,各動詞の出現頻度をGNGで求めた結果\footnote{GNGデータ上の品詞判定には(浅原2003)のIPADIC動詞辞書(verb.dic)およびサ変名詞辞書(noun.verbal.dic)を用いた.},本辞書データの動詞がGNGで出現頻度第1位である場合が5,787件であり,対象とした前部分列表記$w_{1}w_{2}$の$47.74\%=(5,787/12,120)\times100$に対して3.2で述べた$p_{f}(w_{3}|w_{1}w_{2})$が最大の動詞部$w_{3}$が選ばれていると推定できた.「ちょっかいを出す」,「熱戦を繰り広げる」,「アクションを起こす」などはこれらに該当する.同様に,第2位の場合は1,699件で14.02\%,3位は877件で7.24\%,4位は482件で3.98\%,等々であった.20位までの結果をグラフ化して図5(a)に示す.収録表現は高い条件付き確率のものほど多いというこの結果は3.2で述べたMWE採録の目標から見て妥当なものと思われる.図5(a)を累積の比率に改めたグラフを図5(b)に示す.これから,例えば,本辞書では,対象とする前部分列$w_{1}w_{2}$の約80\%に対して頻度8位までの動詞$w_{3}$が選ばれ,$w_{1}w_{2}$の約86\%に20位までの動詞$w_{3}$が選ばれていることなどが分る.GNGデータで高い頻度順位の動詞であるのに本辞書で選ばれていないのは,動詞の出現確率に偏りが少なく,絞り込みが効果的に行えないと判断されたためと思われる.また,図5(b)を外挿すれば,前部分列の10\%強に対して,後接する動詞がGNGでは同環境に現れていないことが推定できる.例えば,本辞書に在る「才知に長ける」,「轢き逃げを働く」はGNGに存在しない.このことは,200億文規模のWEBコーパスであっても,かなりの表現が捕捉出来ない可能性を示唆しており,Zipfの法則におけるロングテール部に対する表現収集の難しさを示すものと考えられる.\begin{figure}[t]\begin{center}\includegraphics{17-5ia3f5.eps}\end{center}\hangcaption{$[\text{名詞}+\text{格助詞}+\text{動詞}]$型表現のGoogleNグラムにおける動詞の出現頻度順位別の動詞採録率(a)と順位別の動詞採録累積比率(b)(格助詞を「を」,「が」,「に」に限定)}\label{fig5}\vspace{-1\baselineskip}\end{figure}上記1,194,293表現の出現頻度の合計は1,389,568,825であるのに対し,本辞書データ82,125個の出現頻度の合計は374,718,334であり,本辞書の表現はGNGの出現数の26.97\%をカバーしている.いっぽう,動詞のバリエーションはGNGで平均$98.54=1,194,293/12,120$個であるのに対し,本辞書データでは平均$5.95=82,125/13,806$個にすぎない.すなわち,6.04\%というコンパクトな動詞の種類でGNGにおける同環境での出現数の約27\%をカバーしていることが分る.以上の結果は,限られた形式の表現に対する条件付後方出現確率のみに関するものであるが,採録基準は全体に共通しており,条件付前方出現確率に関しても,また,その他の形式の表現に関しても類似した結果が得られるのではないかと推測している.本辞書の収録表現が一般の新聞紙上でどの程度使われているかの調査も随時行ってきた.無作為に取った5日分の日本経済新聞朝刊第1面と最終面における本辞書採録表現の出現比率を表6に示す.新聞の100文当り本辞書の73表現程度が日常的に現れていると推測される.以上のように,日常の文書ではイディオム性あるいは強い共起性を持つ,比較的少ない種類のMWEが相当高頻度で用いられていることが推測される.イディオム性データの再現率は,本辞書を利用するシステムの意味構成ルールが明確でない現時点で正しく検証することは難しいが,本辞書データが市販の慣用句辞典類に収録されている表現をほとんど網羅していることは確認済みであり\footnote{例えば,(佐藤2007)が参考にした(宮地(編)1982),(米川他(編)2005),(金田一他(監修)2005),(金田一(監修)2005)の慣用句は本辞書に網羅されており,それらの異表記,変化形も相当数収録されている.},また,数々の机上実験から弱いイディオム性表現もかなり網羅されていると考えている\footnote{ただし,人の内省によってもこの種の表現集合を完全な形で一挙に提示することは難しい.現在,日刊紙の100文中に1件〜数件程度の新造語その他,登録すべきであろうと判断される表現が出現する.}.\begin{table}[t]\caption{新聞紙上における1文当りの採録表現出現比率(B/A)}\input{03table06.txt}\end{table}
\section{おわりに}
本辞書は日本語の日常使用者が持っていると思われる言語モデルを「語の慣用」という視点に絞って提示する試みである.表現の選定等は基本的に編者の内省に基づいているため,ある程度の恣意性が入ることは免れない.しかし,5.で見た様に,確率的側面に関しては,大局的には表現の選定に大きな瑕疵は無いものと考えている.表現の選定に際しては再現率を重視したため,構成性が認められそうな表現や共起の排他性がそれ程高くない表現が採録されている可能性がある.しかし,その様な表現に対しても辞書中に構文構造と内部修飾(分離)可能性を記載しており,それは入力文の通常の構文解析結果を部分的に先取りした情報となっている.この意味で本データは表現レベルの係り受けデータとなっており,これらの表現が機械処理上,障害あるいは無駄になることは少ないと考えている.本辞書の想定する基本的な応用領域はコンピュータによる日本語の構文・意味・文脈解析であるが,日本語学,日本語語彙・語句論,辞書学,日本語教育等の領域にも参考データを提供できる可能性がある.NLPシステムとしては,\begin{enumerate}[1.]\itemフレーズベース仮名漢字変換\itemフレーズベース機械(音声)翻訳\itemフレーズベース音声認識\item日本語による検索エンジン\item日本語による対話システム\item日本語読み上げ,仮名振りシステム\item日本語教育システム\end{enumerate}など,多岐に亘る貢献が期待される.辞書内容の更なる充実策として以下の点が挙げられる.\begin{enumerate}[a.]\item並列,反復,対照など,依存以外の構造記載\item要素語に対する活用形の記載\item形態・構文的変化形,例えば,助詞の交替・挿入・脱落,受動態化や語順の入れ替えによる体言化などへの制約の記載\item格要素等,修飾句への構文的,意味的制約の記載\item意味上の曖昧さの有無情報の記載\item標準的な表現への言い換え情報(含,分解可能性情報)の記載\itemコンテクスト条件として選好(preference)条件の記載\item「です」,「ます」調,会話調表現の充実\item古語,現代語の区別情報の記載\item異表記間の優先度情報の記載\item条件付き確率,条件付きエントロピー推定値の記載\end{enumerate}今後,これらの補強を行って完成度をさらに高めて行く事が望まれる\footnote{本辞書は若干の修正および補強(a,b)の後に日本語のMWE解説書と併せてリリース予定である.}.\nocite{*}\acknowledgment本研究の端緒を与えて下さった故栗原俊彦元九州大学教授,その後,研究上のお世話になった故吉田将元九州芸術工科大学長,長尾真元京都大学総長現国立国会図書館長,ご鞭撻を賜った大野克郎九州大学名誉教授に深甚の謝意を表します.また,有益な助言を頂いた島津明北陸先端科学技術大学院大学教授,翻訳の立場から貴重な意見を頂いた倉骨彰氏,データの収集作業に協力頂いた武内美津乃氏,高丘満佐子氏をはじめとする方々に心から感謝いたします.本論文で検証に用いたIPADIC,GoogleNグラムデータの関係者の皆様にも深く感謝いたします.\bibliographystyle{jnlpbbl_1.5}\def\BED{}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原\JBA松本}{浅原\JBA松本}{2003}]{asahara_matsumoto_IPADIC}浅原正幸\JBA松本裕治\BBOP2003\BBCP.\newblock\Jem{IPADICversion2.7.0ユーザーズマニュアル}.\newblock奈良先端科学技術大学院大学情報科学研究科.\bibitem[\protect\BCAY{Baldwin,Bannard,Tanaka,\BBA\Widdows}{Baldwinet~al.}{2003b}]{baldwin_2003b}Baldwin,T.,Bannard,C.,Tanaka,T.,\BBA\Widdows,D.\BBOP2003b\BBCP.\newblock\BBOQAnEmpiricalModelofMultiwordExpressionDecomposability.\BBCQ\\newblockIn{\BemProceedingsofACL2003WorkshoponMultiwordExpressions:Analysis,AcquisitionandTreatment},\mbox{\BPGS\89--96}.\bibitem[\protect\BCAY{Baldwin\BBA\Bond}{Baldwin\BBA\Bond}{2003a}]{baldwin_2003a}Baldwin,T.\BBACOMMA\\BBA\Bond,F.\BBOP2003a\BBCP.\newblock\BBOQMultiwordExpressions:SomeProblemsforJapaneseNLP.\BBCQ\\newblockIn{\BemProceedingsofthe8thAnnualMeetingoftheAssociationforNaturalLanguageProcessing(Japan)},\mbox{\BPGS\379--382}.\bibitem[\protect\BCAY{Bannard}{Bannard}{2007}]{bannard_2007}Bannard,C.\BBOP2007\BBCP.\newblock\BBOQAMeasureofSyntacticFlexibilityforAutomaticallyIdentifyingMultiwordExpressionsinCorpora.\BBCQ\\newblockIn{\BemProceedingsofABroaderPerspectiveonMultiwordExpressions,WorkshopattheACL2007Conference},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Baptista,Correia,\BBA\Fernandes}{Baptistaet~al.}{2004}]{baptista_2004}Baptista,J.,Correia,A.,\BBA\Fernandes,G.\BBOP2004\BBCP.\newblock\BBOQFrozenSentencesofPortuguese:FormalDescriptionsforNLP.\BBCQ\\newblockIn{\BemProceedingsofACL2004WorkshoponMultiwordExpressions:IntegratingProcessing},\mbox{\BPGS\72--79}.\bibitem[\protect\BCAY{Caseli,Villavicencio,Machado,\BBA\Finatto}{Caseliet~al.}{2009}]{caseli_2009}Caseli,H.~M.,Villavicencio,A.,Machado,A.,\BBA\Finatto,M.~J.\BBOP2009\BBCP.\newblock\BBOQStatistically-DrivenAlignment-BasedMultiwordExpressionIdentificationforTechnicalDomains.\BBCQ\\newblockIn{\BemProceedingsof2009WorkshoponMultiwordExpressions:Identification,Interpretation,Disambiguation,Applications(ACL-IJCNLP2009)},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Fazly\BBA\Stevenson}{Fazly\BBA\Stevenson}{2006}]{fazly_2006}Fazly,A.\BBACOMMA\\BBA\Stevenson,S.\BBOP2006\BBCP.\newblock\BBOQAutomaticallyConstructingaLexiconofVerbPhraseIdiomaticCombinations.\BBCQ\\newblockIn{\BemProceedingsofthe11thConferenceoftheEuropeanChanpteroftheACL},\mbox{\BPGS\337--344}.\bibitem[\protect\BCAY{Fellbaum}{Fellbaum}{1999}]{fellbaum_1999}Fellbaum,C.\BED\\BBOP1999\BBCP.\newblock{\BemWordNet:AnElectronicLexicalDatabase}.\newblockCambridge,MA:MITPress.\bibitem[\protect\BCAY{Gr{\'e}goire}{Gr{\'e}goire}{2007}]{gregoire_2007}Gr{\'e}goire,N.\BBOP2007\BBCP.\newblock\BBOQDesignandImplementationofaLexiconofDutchMultiwordExpressions.\BBCQ\\newblockIn{\BemProceedingsofABroaderPerspectiveonMultiwordExpressions,WorkshopattheACL2007Conference},\mbox{\BPGS\17--24}.\bibitem[\protect\BCAY{Gross}{Gross}{1986}]{gross_1986}Gross,M.\BBOP1986\BBCP.\newblock\BBOQLexicon-Grammar.TheRepresentationofCompoundWords.\BBCQ\\newblockIn{\BemProceedingsofthe11thInternationalConferenceonComputationalLinguistics,COLING86},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Hashimoto,Sato,\BBA\Utsuro}{Hashimotoet~al.}{2006}]{hashimoto_2006}Hashimoto,C.,Sato,S.,\BBA\Utsuro,T.\BBOP2006\BBCP.\newblock\BBOQDetectingJapaneseidiomswithalinguisticallyrichdictionary.\BBCQ\\newblockIn{\BemLanguageResourceandEvaluation,40-3},\mbox{\BPGS\243--252}.\bibitem[\protect\BCAY{Hoang,Kim,\BBA\Kan}{Hoanget~al.}{2009}]{hoang_2009}Hoang,H.~H.,Kim,S.~N.,\BBA\Kan,M.\BBOP2009\BBCP.\newblock\BBOQARe-examinationofLexicalAssociationMeasures.\BBCQ\\newblockIn{\BemProceedingsof2009WorkshoponMultiwordExpressions:Identification,Interpretation,Disambiguation,Applications(ACL-IJCNLP2009)},\mbox{\BPGS\31--39}.\bibitem[\protect\BCAY{Jackendoff}{Jackendoff}{1997}]{jackendoff_1997}Jackendoff,R.\BBOP1997\BBCP.\newblock{\BemTheArchitectureofLanguageFaculty}.\newblockCambridge,MA:MITPress.\bibitem[\protect\BCAY{金田一}{金田一}{2005}]{kindaichi_2005a}金田一秀穂(監修)\BBOP2005\BBCP.\newblock\Jem{小学生のまんが慣用句辞典}.\newblock学研.\bibitem[\protect\BCAY{金田一\JBA金田一}{金田一\JBA金田一}{2005}]{kindaichi_2005b}金田一春彦\JBA金田一秀穂(監修)\BBOP2005\BBCP.\newblock\Jem{新レインボー小学国語辞典改訂第3版}.\newblock学研.\bibitem[\protect\BCAY{Kita,Kato,Omoto,\BBA\Yano}{Kitaet~al.}{1994}]{kita_1994}Kita,K.,Kato,Y.,Omoto,T.,\BBA\Yano,Y.\BBOP1994\BBCP.\newblock\BBOQAComparativeStudyofAutomaticExtractionofCollocationsfromCorpora:MutualInformationVS.CostCriteria.\BBCQ\\newblockIn{\BemJournalofNaturalLanguageProcessing,1-1},\mbox{\BPGS\21--33}.\bibitem[\protect\BCAY{Koyama,Yasutake,Yoshimura,\BBA\Shudo}{Koyamaet~al.}{1998}]{koyama_1998}Koyama,Y.,Yasutake,M.,Yoshimura,K.,\BBA\Shudo,K.\BBOP1998\BBCP.\newblock\BBOQLargeScaleCollocationDataandTheirApplicationtoJapaneseWordProcessorTechnology.\BBCQ\\newblockIn{\BemProceedingsofthe17thInternationalConferenceonComputationalLinguistics,COLING98},\mbox{\BPGS\694--698}.\bibitem[\protect\BCAY{工藤\JBA賀沢}{工藤\JBA賀沢}{2007}]{kudo_2007}工藤拓\JBA賀沢秀人\BBOP2007\BBCP.\newblock\Jem{Web日本語Nグラム第1版}.\newblock言語資源協会.\bibitem[\protect\BCAY{Kuiper,McCan,Quinn,Aitchison,\BBA\{VanderVeer}}{Kuiperet~al.}{2003}]{kuiper_2003}Kuiper,K.,McCan,H.,Quinn,H.,Aitchison,T.,\BBA\{VanderVeer},K.\BBOP2003\BBCP.\newblock\BBOQSAID:ASyntacticallyAnnotatedIdiomDataset.\BBCQ\{\itshapeLinguisticDataConsortium2003T10}.\bibitem[\protect\BCAY{Laporte\BBA\Voyatzi}{Laporte\BBA\Voyatzi}{2008}]{laporte_2008}Laporte,{\'E}.\BBACOMMA\\BBA\Voyatzi,S.\BBOP2008\BBCP.\newblock\BBOQAnElectronicDictionaryofFrenchMultiwordAdverbs.\BBCQ\\newblockIn{\BemProceedingsoftheLRECWorkshoptowardsaSharedTaskforMultiwordExpressions(MWE2008)},\mbox{\BPGS\31--34}.\bibitem[\protect\BCAY{松吉\JBA佐藤\JBA宇津呂}{松吉\Jetal}{2007}]{matsuyoshi_2007}松吉俊\JBA佐藤理史\JBA宇津呂武仁\BBOP2007\BBCP.\newblock日本語機能表現辞書の編纂.\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\123--146}.\bibitem[\protect\BCAY{宮地}{宮地}{1982}]{miyaji_1982}宮地裕(編)\BBOP1982\BBCP.\newblock\Jem{慣用句の意味と用法}.\newblock明治書院.\bibitem[\protect\BCAY{尾上}{尾上}{1993}]{onoue1993}尾上兼英(監修)\BBOP1993\BBCP.\newblock\Jem{成語林—故事ことわざ慣用句}.\newblock旺文社.\bibitem[\protect\BCAY{Pantel\BBA\Lin}{Pantel\BBA\Lin}{2001}]{pantel_2001}Pantel,P.\BBACOMMA\\BBA\Lin,D.\BBOP2001\BBCP.\newblock\BBOQAStatisticalCorpus-BasedTermExtractor.\BBCQ\\newblockIn{\BemProceedingsofthe14thBiennialConferenceoftheCanadianSocietyonComputationalStudiesofIntelligence,Springer-Verlag},\mbox{\BPGS\36--46}.\bibitem[\protect\BCAY{Pecina}{Pecina}{2008}]{pecina_2008}Pecina,P.\BBOP2008\BBCP.\newblock\BBOQAMachineLearningApproachtoMultiwordExpressionExtraction.\BBCQ\\newblockIn{\BemProceedingsoftheLRECWorkshoptowardsaSharedTaskforMultiwordExpressions(MWE2008)},\mbox{\BPGS\54--57}.\bibitem[\protect\BCAY{Piao,Rayson,Archer,\BBA\McEnery}{Piaoet~al.}{2005}]{piao_2005}Piao,S.,Rayson,P.,Archer,D.,\BBA\McEnery,T.\BBOP2005\BBCP.\newblock\BBOQComparingandcombiningasemantictaggerandastatisticaltoolforMWEextraction.\BBCQ\{\itshapeComputerSpeechandLanguage},Elsevier,pp.~378--397.\bibitem[\protect\BCAY{Sag,Baldwin,Bond,Copestake,\BBA\Flickinger}{Saget~al.}{2002}]{sag_2002}Sag,I.~A.,Baldwin,T.,Bond,F.,Copestake,A.,\BBA\Flickinger,D.\BBOP2002\BBCP.\newblock\BBOQMultiwordExpressions:APainintheNeckforNLP.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonIntelligentTextProcessingandComputationalLinguistics,CICLING2002},\mbox{\BPGS\1--15}.\bibitem[\protect\BCAY{佐藤}{佐藤}{2007}]{sato_2007}佐藤理史\BBOP2007\BBCP.\newblock基本慣用句五種対照表の作成.\\newblock\Jem{情報処理学会研究報告,07-NL-178},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{首藤}{首藤}{1973}]{shudo_1973}首藤公昭\BBOP1973\BBCP.\newblock専門分野を対象とした日英機械翻訳について.\\newblock\Jem{情報処理},{\Bbf14}(9),\mbox{\BPGS\661--668}.\bibitem[\protect\BCAY{首藤\JBA楢原\JBA吉田}{首藤\Jetal}{1979}]{shudo_1979}首藤公昭\JBA楢原斗志子\JBA吉田将\BBOP1979\BBCP.\newblock日本語の機械処理のための文節構造モデル.\\newblock\Jem{電子通信学会論文誌,D62-D-12},\mbox{\BPGS\872--879}.\bibitem[\protect\BCAY{Shudo}{Shudo}{1980}]{shudo_1980}Shudo,K.\BBOP1980\BBCP.\newblock\BBOQMorphologicalAspectofJapaneseLanguageProcessing.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalConferenceonComputationalLinguistics,COLING80},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{首藤}{首藤}{1989}]{shudo_1989}首藤公昭\BBOP1989\BBCP.\newblock\Jem{日本語における固定的複合表現}.\newblock昭和63年度文部省科学研究費特定研究(I)「情報ドクメンテーションのための言語の研究」,63101005,報告書.\bibitem[\protect\BCAY{注連\JBA土屋\JBA松吉\JBA宇津呂\JBA佐藤}{注連\Jetal}{2007}]{shime_2007}注連隆夫\JBA土屋雅稔\JBA松吉俊\JBA宇津呂武仁\JBA佐藤理史\BBOP2007\BBCP.\newblock日本語機能表現の自動検出と統計的係り受け解析への応用.\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\167--197}.\bibitem[\protect\BCAY{白石}{白石}{1977}]{shiraishi_1977}白石大二(編)\BBOP1977\BBCP.\newblock\Jem{国語慣用句大辞典}.\newblock東京堂出版.\bibitem[\protect\BCAY{白石}{白石}{1992}]{shiraishi_1992}白石大二(編)\BBOP1992\BBCP.\newblock\Jem{擬声語擬態語慣用句辞典}.\newblock東京堂出版.\bibitem[\protect\BCAY{田島}{田島}{2002}]{tajima_2002}田島諸介\BBOP2002\BBCP.\newblock\Jem{ことわざ故事・成語慣用句辞典}.\newblock梧桐書院.\bibitem[\protect\BCAY{竹田}{竹田}{1990}]{takeda_1990}竹田晃\BBOP1990\BBCP.\newblock\Jem{四字熟語・成句辞典}.\newblock講談社.\bibitem[\protect\BCAY{Tanaka\BBA\Baldwin}{Tanaka\BBA\Baldwin}{2003}]{tanaka_2003}Tanaka,T.\BBACOMMA\\BBA\Baldwin,T.\BBOP2003\BBCP.\newblock\BBOQNoun-NounCompoundMachineTranslation:AFeasibilityStudyonShallowProcessing.\BBCQ\\newblockIn{\BemProceedingsofACL2003WorkshoponMultiwordExpressions:Analysis,AcquisitionandTreatment},\mbox{\BPGS\17--24}.\bibitem[\protect\BCAY{Trawi\'nski,Sailer,Soehn,Lemnitzer,\BBA\Richter}{Trawi\'nskiet~al.}{2008}]{trawinski_2008}Trawi\'nski,B.,Sailer,M.,Soehn,J.,Lemnitzer,L.,\BBA\Richter,F.\BBOP2008\BBCP.\newblock\BBOQCranberryExpressionsinFrenchandinGerman.\BBCQ\\newblockIn{\BemProceedingsoftheLRECWorkshoptowardsaSharedTaskforMultiwordExpressions(MWE2008)},\mbox{\BPGS\35--38}.\bibitem[\protect\BCAY{Uchiyama\BBA\Ishizaki}{Uchiyama\BBA\Ishizaki}{2003}]{uchiyama_2003}Uchiyama,K.\BBACOMMA\\BBA\Ishizaki,S.\BBOP2003\BBCP.\newblock\BBOQADisambiguationMethodforJapaneseCompoundVerbs.\BBCQ\\newblockIn{\BemProceedingsofACL2003WorkshoponMultiwordExpressions:Analysis,AcquisitionandTreatment},\mbox{\BPGS\81--88}.\bibitem[\protect\BCAY{Villavicencio}{Villavicencio}{2004}]{villavicencio_2004}Villavicencio,A.\BBOP2004\BBCP.\newblock\BBOQLexicalEncodingofMWEs.\BBCQ\\newblockIn{\BemProceedingsofACL2004WorkshoponMultiwordExpressions:IntegratingProcessing},\mbox{\BPGS\80--87}.\bibitem[\protect\BCAY{安武\JBA小山\JBA吉村\JBA首藤}{安武\Jetal}{1997}]{yasutake_1997}安武満佐子\JBA小山泰男\JBA吉村賢治\JBA首藤公昭\BBOP1997\BBCP.\newblock固定的共起表現とその変化形.\\newblock\Jem{言語処理学会第3回年次大会発表論文集},\mbox{\BPGS\449--452}.\bibitem[\protect\BCAY{米川\JBA大谷}{米川\JBA大谷}{2005}]{yonekawa_2005}米川明彦\JBA大谷伊都子(編)\BBOP2005\BBCP.\newblock\Jem{日本語慣用句辞典}.\newblock東京堂出版.\bibitem[\protect\BCAY{Zarre{\ss}\BBA\Kuhn}{Zarre{\ss}\BBA\Kuhn}{2009}]{zarres_2009}Zarre{\ss},S.\BBACOMMA\\BBA\Kuhn,J.\BBOP2009\BBCP.\newblock\BBOQExploitingTranslationalCorrespondencesforPattern-IndependentMWEIdentification.\BBCQ\\newblockIn{\BemProceedingsof2009WorkshoponMultiwordExpressions:Identification,Interpretation,Disambiguation,Applications(ACL-IJCNLP2009)},\mbox{\BPGS\23--30}.\end{thebibliography}\begin{biography}\bioauthor{首藤公昭}{1965年九州大学工学部電子工学科卒業.1970年九州大学大学院工学研究科電子工学専攻博士課程満退.工学博士.同年,福岡大学工学部電子工学科講師.現在,同電子情報工学科教授.機械翻訳,自然言語処理,特に日本語処理に関する諸研究に従事.ACL,情報処理学会各会員.}\bioauthor{田辺利文}{1993年九州大学工学部情報工学科卒業.2000年九州大学大学院システム情報科学研究科知能システム学専攻博士課程修了.博士(工学).同年,福岡大学工学部電子情報工学科助手.現在,同学科助教.自然言語処理の研究に従事,人間の気持ちを理解できるシステムをつくることが当面の目標.ACL,情報処理学会,電子情報通信学会,人工知能学会各会員.}\end{biography}\biodate\end{document}
| |
V08N04-04 | \section{はじめに}
\label{sec:intro}英語と日本語は,英語が名詞文体であり日本語が動詞文体であると言われるように,言語的特徴が著しく異なる言語である.このため,英語の名詞句をそのまま日本語の名詞句に直訳すると,違和感を感じることが少なくない.例えば,文(E\ref{SENT:buying})を実用に供されているある英日機械翻訳システムで処理すると,文(J\ref{SENT:buying})のような翻訳が出力される.\begin{SENT}\sentETheBOJ'sbuyingofnewgovernmentbondsisbannedunderfiscallaw.\sentJ新しい国債のBOJの購入は,会計法の下で禁止される.\label{SENT:buying}\end{SENT}文(E\ref{SENT:buying})において名詞句``TheBOJ'sbuyingofnewgovernmentbonds''が伝える命題的な内容は,「BOJが新しい国債を購入すること」であるが,日本語の名詞句「新しい国債のBOJの購入」をこの意味に理解することは,訳文を注意深く読まなければ難しい.このような問題を解決するためには,英語と日本語の言語的特徴の違いを考慮に入れ,日本語として自然な表現が得られる処理を実現することが重要となる.しかしながら,従来の機械翻訳研究では,主に原文解析の正しさに焦点が当てられており\cite{Narita00},訳文の自然さについてはあまり議論されてこなかった\cite{Yoshimura95,Yamamoto99}.訳文の自然さに関する研究としては,文献\cite{Nagao85,Somers88,Matsuo95}などがある.これらの文献に示されている方法では,直訳すると日本語として不自然になる英語の名詞句を適切に翻訳するための処理が原言語から目的言語への変換過程で行なわれる.ところで,人間による翻訳では,文が表わす命題内容を含む名詞句を日本語に直訳した場合の違和感を解消するために,英語の名詞句を日本語に翻訳する前に,文またはそれに近い形式に言い換えるという処置がとられることがある\cite{Nida73,Anzai83}.本研究では,人間のこの翻訳技法を機械的に模倣し,このような名詞句を前編集の段階で文に近い形式に自動的に書き換えることによって自然な訳文を生成することを試みる.日本語として自然な表現を得るための処理を変換過程で行なう方法に比べて,前編集の段階で行なう方法の利点は,前編集系は特定のシステムの内部に組み込まれていないため,システムへの依存性が低く,実践上の適用範囲が広いことである.実際,対象名詞句が現れる英文を提案手法によって書き換えて既存システムで翻訳し,元の英文の翻訳と比較する実験を行なったところ,我々のシステムだけでなく,市販されている他のシステムにおいても,より自然な翻訳が得られることが確認された.このことは,提案手法が様々なシステムの前編集系として利用可能であることを示している.
\section{書き換えの分類}
\label{sec:classify}本節ではまず,書き換え前の表現(名詞的表現)が文中で果たす構文的機能と,書き換え後の表現の構文的機能が同じであるか異なるかという観点から書き換えを二種類に分類する.本稿では,書き換え前後の表現の構文的機能が変化しない書き換えを扱うが,名詞的表現の中でも動詞的性質を持つもの(後述)を書き換え対象とする.このため,次に,動詞的性質の強さの度合いに着目した名詞的表現の分類を示す.\subsection{書き換え前後の表現の構文的機能に着目した分類}\label{sec:classify:syn-func}書き換え前後の表現が文中で果たす構文的機能が異なる書き換えには,名詞句として機能している表現を副詞的に機能する表現に書き換えるものなどがある.例えば文(E\ref{ESENT:diff-func})のような無生物主語他動詞構文における主語の名詞句を,文(E\ref{ESENT:diff-func}')のように,接続詞asで導かれ理由を表わす副詞的従属節に書き換えることができる\cite{Bekku75,Anzai83}.このような書き換えを行なうためには,構文構造を大きく変更する必要がある.\begin{ESENT}\sentEHisthreeyear'sstayinLondonbroughthimagreatprogressinEnglishconversation.\sentRewEAshehadstayedinLondonforthreeyears,hemadeagreatprogressinEnglishconversation.\label{ESENT:diff-func}\end{ESENT}書き換え前後の表現の構文的機能が変化しない書き換えでは,書き換え後の表現も名詞的に機能する.例えば文(E\ref{EJSENT2:same-func})における名詞句``hisabsencefromtheparty''は,文(E\ref{EJSENT2:same-func}')のように動名詞節``hisbeingabsentfromtheparty''に書き換えることや,文(E\ref{EJSENT2:same-func}'')のように名詞的従属節``thathewasabsentfromtheparty''に書き換えることができる\footnote{一般には,元の名詞句の解釈と,書き換え後の動名詞節やthat節の解釈とが一致しないことがあり\cite{Chomsky70,Thomason85,Siegel97},常に書き換え可能であるとは限らない.}.\begin{EJSENT2}\sentEWeweredisappointedathisabsencefromtheparty.\sentJ我々は,パーティからの彼の不在に失望した.\sentRewEWeweredisappointedathisbeingabsentfromtheparty.\sentRewJ我々は,彼がパーティを欠席していることに失望した.\sentYAEWeweredisappointedthathewasabsentfromtheparty.\sentYAJ我々は,彼がパーティを欠席していることに失望した.\label{EJSENT2:same-func}\end{EJSENT2}本研究では,書き換え前後で構文的機能が変化しない書き換えだけを扱う.もちろん,このような制限を設けないほうが望ましいが,構文的機能が変化しない書き換えは,構文構造を大きく変える必要がないため,機械的な前編集による実現が容易である.また,名詞的表現への比較的簡単な書き換えを行なった上で処理するだけでも,書き換え前の文の翻訳に比べてより自然な翻訳が得られる例も少なくない.実際,文(J\ref{EJSENT2:same-func}')と文(J\ref{EJSENT2:same-func}'')は,書き換え後の文を我々のシステムで実際に処理して得られた翻訳であるが,書き換え前の文の訳文(J\ref{EJSENT2:same-func})に比べてより自然な翻訳になっている.具体的にどの程度の文において翻訳品質の改善効果が期待できるかについては\ref{sec:rewrite:prospect}\,節で述べる.\subsection{名詞化の階層}\label{sec:classify:depred}名詞的表現の中には,文が表わす命題内容を含むものがある.そのような名詞的表現と文の間には,動詞的性質の強さ(名詞的性質の弱さ)に応じて,名詞化の階層をいくつか設定することができる\cite{Jelinek66,Lees68}.ここでは,Jelinekの分類に準じて,文から動詞由来名詞句までに次のような五段階の表現形式が可能であるものとする.文が最終的に動詞由来名詞を主辞とする名詞句に縮退していく過程で,動詞的性質は徐々に弱まり,逆に名詞的性質が徐々に強まっていく(時制や相,態,法などの動詞的範疇に対する制限が強くなっていく).本研究は,以下に挙げる表現間での書き換えを実現することを目的とする.\begin{DEPRED}\depred\label{depred:sent}縮退度\ref{depred:sent}\,の表現形式である文では,時制や相,態,法などのあらゆる動詞的範疇が明示される.\begin{DEPEX}\depexampleHerefusedourinvitationtoaparty.\end{DEPEX}\depred\label{depred:subord}縮退度\ref{depred:subord}\,の表現は,接続詞thatなどで導かれる名詞的従属節である.従属節は時制や法などの選択肢が制限された形式であり,時制の区別は時制一致の法則に従う.\begin{DEPEX}\depexampleWeweredisappointed{\itthatherefusedourinvitationtoaparty}.\end{DEPEX}\depred\label{depred:verb-gerund}縮退度\ref{depred:verb-gerund}\,の表現を動詞的動名詞節と呼ぶ\cite{Yasui82,Declerck94}.動詞的動名詞は,次のような構文的性質を持つ.(a)冠詞や限定詞を伴うことができず(ただし属格は可能),(b)副詞による修飾が可能であるが形容詞による修飾は不可能であり,(c)意味上の主語や目的語が前置詞ofで導かれず,(d)時制の区別が可能であり,(e)複数形が存在しない\cite{Inui54,Ota74,Yasui82,Declerck94}.\begin{DEPEX}\depexampleWeweredisappointedat{\ithishavingrefusedourinvitationtoaparty}.\end{DEPEX}\depred\label{depred:noun-gerund}この縮退度の表現は名詞的動名詞句と呼ばれる.名詞的動名詞句は,動詞的動名詞節の構文的性質(a)ないし(e)とすべての点で逆の性質を示す.\begin{DEPEX}\depexampleWeweredisappointedat{\ithisrefusingofourinvitationtoaparty}.\end{DEPEX}\depred\label{depred:nominal}縮退度\ref{depred:nominal}\,は,接尾辞\,-ionや\,-mentなどを伴う動詞由来名詞を主辞とする名詞句である.また,接尾辞-nessなどを伴う形容詞由来名詞を主辞とする名詞句もこの縮退度の表現に分類される.\begin{DEPEX}\depexampleWeweredisappointedat{\ithisrefusalofourinvitationtoaparty}.\end{DEPEX}\end{DEPRED}
\section{名詞句の書き換え}
\label{sec:rewrite}機械翻訳システムの前編集でどの縮退度の表現をどの縮退度の表現に書き換えるべきかは,書き換え結果を入力として受け取るシステムに依存する\footnote{しかし,\ref{sec:experiment:trans}\,節で示すように,本稿の書き換えは我々のシステムだけでなく他のいくつかの市販システムの前編集系としても有効である.}.以下,我々が実験に利用したシステムにおいて必要な書き換えについて述べる.\subsection{書き換え対象}\label{sec:rewrite:source}我々のシステムでは,動詞的動名詞節(縮退度\ref{depred:verb-gerund})の翻訳には問題はないが,名詞的動名詞句(縮退度\ref{depred:noun-gerund})と動詞由来名詞句(縮退度\ref{depred:nominal})は直訳されて不自然な翻訳となることが多い.このため,本研究では名詞的動名詞句と動詞由来名詞句を書き換え対象候補とする.さらに,訳文の不自然さの度合い(後述)を考慮して形式(\ref{eq:source-np1})に適合する名詞句に候補を限定する.この候補の中から実際に書き換える名詞句を選択するための条件については,\ref{sec:rewrite:cond}\,節で述べる.\begin{equation}[\\mbox{NP}_1\mbox{'s}\\mbox{ADJ}^?\\mbox{NOM}\\mbox{of}\\mbox{NP}_2\]\label{eq:source-np1}\end{equation}形式(\ref{eq:source-np1})の名詞句は,NOMを主辞とする名詞句である.NOMは,動名詞または動詞由来名詞を表わす.\NPpreは,属格名詞句または限定的所有代名詞である.形容詞ADJに付されている上付き記号?は一回以下の出現を意味する.形式(\ref{eq:source-np1})の名詞句を含む文の例と,我々のシステムによる翻訳を以下に挙げる.各文において,斜字体の部分が書き換えるべき名詞句であり,ボールド体の部分がそれに対応する翻訳である.文(E\ref{SENT:Ving})には名詞的動名詞句が含まれ,文(E\ref{SENT:VN})には動詞由来名詞句が含まれている.文(E\ref{SENT:ADJ-VN})の動詞由来名詞句では動詞由来名詞を修飾する形容詞が存在する.\begin{SENT}\sentERelocationoftheFutenmaair-baseistotallyunrelatedto{\itOkinawa'shostingofthe2000GroupofEightSummit}.\sentJFutenma空軍基地の再配置は,{\bf沖縄の2000年先進8ヶ国サミットのホスティング}に完全に無関係である.\label{SENT:Ving}\end{SENT}\begin{SENT}\sentE{\itYourfulfillmentofthisobligation}willbeimportanttotherenewalofourdealershipagreementwithyou.\sentJ{\bfこの義務のあなたの達成}は,あなたとの我々の販売権合意の更新にとって重要であろう.\label{SENT:VN}\end{SENT}\begin{SENT}\sentE{\itYournegativeconsiderationofourposition}willnotfacilitatemutuallyrewardingmarketingefforts.\sentJ{\bf我々のポジションのあなたの負の考慮}は,相互に報いるマーケティング努力を促進しないであろう.\label{SENT:ADJ-VN}\end{SENT}書き換えは,名詞的動名詞あるいは動詞由来名詞NOMを主辞とする名詞句のすべてに対して行なう必要はなく,日本語に直訳した場合の問題が大きい名詞句に対してだけ行なえばよい.このため,次のような理由から主な書き換え対象を形式(\ref{eq:source-np1})の名詞句とした.形式(\ref{eq:source-np1})は,属格名詞句とof前置詞句の二つの句が主辞NOMに結合した名詞句を表わしている.NOMを主辞とする名詞句のうち形式(\ref{eq:source-np1})以外の名詞句としては,(a)``fulfillmentofthisobligation''や単に``fulfillment''のように,NOMに結合する句が一つ以下である名詞句や,(b)``thecity'sdestructionbytheenemy''や``destructionofthecitybytheenemy''のように,NOMに結合する句が二つであってもそれらが属格名詞句とof前置詞句の組み合わせでない名詞句などがある.形式(\ref{eq:source-np1})の名詞句の翻訳は,次のようなことが原因で(a)や(b)の名詞句の翻訳よりさらに読みにくい.(a)や(b)の名詞句では,助詞「の」によってNOMに結び付けられる句は高々一つしか存在しない.例えば,(a)の``fulfillmentofthisobligation''の翻訳は「この義務の達成」となり,(b)の``thecity'sdestructionbytheenemy''と``destructionofthecitybytheenemy''の翻訳は共に「敵による都市の破壊」となる.これに対して,文(J\ref{SENT:Ving})ないし文(J\ref{SENT:ADJ-VN})に示したように,従来システムで形式(\ref{eq:source-np1})の名詞句を処理した場合には,「\NPの\NPpostのNOM」と翻訳され,\NPとNOMの関係及び\NPpostとNOMの関係は共に助詞「の」で示される.形式(\ref{eq:source-np1})の名詞句では,\NPがNOMの意味上の主語,\NPpostが目的語であることが多い\footnote{\ref{sec:rewrite:cond}\,節で述べるように,NOMが活動の結果などを表わす場合はこの限りではない.}が,このように翻訳されると,\NPと\NPpostのどちらが主語でどちらが目的語であるのかが認識しにくくなる.従って,形式(\ref{eq:source-np1})のように,動詞由来名詞NOMに属格名詞句とof前置詞句の両方が結合している場合は,NOMを動詞に書き換えて,日本語として自然な翻訳にする必要性が高い.なお,本稿の主な書き換え対象候補は形式(\ref{eq:source-np1})の名詞句であるが,この他に形式(\ref{eq:source-np2})の名詞句も扱う.\begin{equation}[\\mbox{NP}_1\mbox{'s}\\mbox{ADJ}^?\\mbox{NOM}\\mbox{to}\\mbox{ADV}^?\\mbox{VERB}\]\label{eq:source-np2}\end{equation}形式(\ref{eq:source-np2})におけるNOMは,to不定詞を支配する動詞由来名詞,例えばattemptやfailure,requestなどである.形式(\ref{eq:source-np2})の名詞句を含む例を文(E\ref{SENT:failure})に示す.\begin{SENT}\sentE{\itThemanager'sfailuretoproperlysupervisePalmer'sdealings}causedthelosses.\sentJ{\bfPalmerの取引を適切に監督することに関するマネージャの不履行}は,損失を引き起こした.\label{SENT:failure}\end{SENT}\subsection{動詞的動名詞節への書き換え}\label{sec:rewrite:action}書き換えの目的は,形式(\ref{eq:source-np1})の名詞句において\NPがNOMの意味上の主語であり\NPpostが目的語であることが機械翻訳システムに認識できるような構造に書き換えることである.このためには,我々のシステムでは,動詞的動名詞節に書き換えればよい.形式(\ref{eq:source-np1})の名詞的動名詞句を動詞的動名詞節に書き換えるには,名詞的動名詞NOMの直後のofを削除し,形容詞が存在する場合にはそれを副詞化する.例えば,文(E\ref{SENT:Ving})に現れる名詞句``Okinawa'shostingofthe2000GroupofEightSummit''は,``Okinawa'shostingthe2000GroupofEightSummit''に書き換える.このように書き換えた文(E\ref{SENT:Ving}')からは,文(J\ref{SENT:Ving}')のように,文(J\ref{SENT:Ving})よりも自然な翻訳が得られる.\begin{list}{}{\setlength{\leftmargin}{6em}\setlength{\labelsep}{1em}\setlength{\labelwidth}{\leftmargin}\addtolength{\labelwidth}{-\labelsep}\setlength{\itemsep}{0ex}}\item[(E\ref{SENT:Ving}')\hspace*{1mm}]RelocationoftheFutenmaair-baseistotallyunrelatedto{\itOkinawa'shostingthe2000GroupofEightSummit}.\item[(J\ref{SENT:Ving}')\hspace*{1mm}]Futenma空軍基地の再配置は,{\bf沖縄が2000年先進8ヶ国サミットを主催すること}に完全に無関係である.\end{list}形式(\ref{eq:source-np1})の動詞由来名詞句を書き換えるには,ofの削除と形容詞の副詞化を行なう他に,動詞由来名詞をそれに対応する動名詞に書き換える.例えば,文(E\ref{SENT:VN})に現れる名詞句``yourfulfillmentofthisobligation''は,``yourfulfillingthisobligation''に書き換える.このように書き換えた文(E\ref{SENT:VN}')から得られる文(J\ref{SENT:VN}')は,文(J\ref{SENT:VN})より自然な翻訳である.\begin{list}{}{\setlength{\leftmargin}{6em}\setlength{\labelsep}{1em}\setlength{\labelwidth}{\leftmargin}\addtolength{\labelwidth}{-\labelsep}\setlength{\itemsep}{0ex}}\item[(E\ref{SENT:VN}')\hspace*{1mm}]{\itYourfulfillingthisobligation}willbeimportanttotherenewalofourdealershipagreementwithyou.\item[(J\ref{SENT:VN}')\hspace*{1mm}]{\bfあなたがこの義務を果たすこと}は,あなたとの我々の販売権合意の更新にとって重要であろう.\end{list}形式(\ref{eq:source-np2})の名詞句についても,動詞由来名詞の動名詞への書き換えによって文(J\ref{SENT:failure}')のようなより自然な翻訳が得られるようになる.\begin{list}{}{\setlength{\leftmargin}{6em}\setlength{\labelsep}{1em}\setlength{\labelwidth}{\leftmargin}\addtolength{\labelwidth}{-\labelsep}\setlength{\itemsep}{0ex}}\item[(E\ref{SENT:failure}')\hspace*{1mm}]{\itThemanager'sfailingtoproperlysupervisePalmer'sdealings}causedthelosses.\item[(J\ref{SENT:failure}')\hspace*{1mm}]{\bfマネージャがPalmerの取引を適切に監督することができないこと}は,損失を引き起こした.\end{list}\subsection{期待される改善度}\label{sec:rewrite:prospect}名詞的動名詞句や動詞由来名詞句を動詞的動名詞節に書き換えることによって,どの程度の翻訳品質(訳文の自然さ)の向上が期待できるのかをあらかじめ確認しておくために,訓練文集を作成し,形式(\ref{eq:source-np1})または(\ref{eq:source-np2})の名詞句を人手で動詞的動名詞節に書き換えた文を我々の実験システムで処理して,書き換え前の文の翻訳と比較した.評価値は品質の向上,低下,同等の三値とした.評価の実施は第三者一名に依頼した.訓練文集の作成は,単語列$[X\Y^?\Z\(of|to)]$を含む文を文字列照合によって新聞記事から抽出することによって行なった.$X$は,アポストロフィ$s$で終わる単語(属格名詞と想定)またはmyなどの単語(限定的所有代名詞)と適合する.$Y$は形容詞であることを想定している.$Z$は\,-al,\,-ance,\,-ing,\,-ion,\,-ment,\,-sisで終わる単語,または,予備調査において比較的高い頻度で出現した語attempt,failure,pledge,requestのいずれかである.この単語列に適合し,かつ品詞の条件を満たす($Z$が動名詞あるいは動詞由来名詞であり,もし$Y$が存在するならば形容詞である)表現を含む文として,218文が抽出された.このうち30文は,書き換え前の文の翻訳品質が翻訳の自然さを比較するのに適切ではなかったため,除外した.残りの188文のうち構文的,意味的に書き換え可能であるものは95文であった.95文についての評価結果を表\ref{tab:prospect}\,に示す.95文の57.9\%に当たる55文において,より自然な翻訳が得られている.このことから,動詞的動名詞節への書き換えを正しく行なうことができれば,その効果は高いと考えられる.なお,31文の翻訳品質が低下しているが,この原因は,動詞由来名詞句や名詞的動名詞句を動詞的動名詞節に書き換えると,構文構造がシステムにとって複雑になりすぎ,正しく認識できなかったことにある.\begin{table}[htbp]\caption{書き換えによって期待される翻訳品質の改善度}\label{tab:prospect}\begin{center}\begin{tabular}{|r@{}r|r@{}r|r@{}r|}\hline\multicolumn{2}{|c}{向上}&\multicolumn{2}{|c}{同等}&\multicolumn{2}{|c|}{低下}\\\hline\hline57.9\%&(55/95)&9.5\%&(9/95)&32.6\%&(31/95)\\\hline\end{tabular}\end{center}\end{table}\subsection{書き換え条件}\label{sec:rewrite:cond}\ref{sec:rewrite:action}\,節で述べた書き換え操作の適用条件は,以下で述べるように,書き換え対象名詞句の文中での構文的機能に関する制約と,動詞由来名詞の意味に関する制約から主に構成される.\subsubsection{名詞句の構文的機能に関する制約}\label{sec:rewrite:cond:syn}名詞的動名詞句と動詞由来名詞句は,主語,補語,動詞・前置詞の目的語として機能する.これに対して,動詞的動名詞節は,主語,補語としては動詞の種類によらず機能するが,動詞・前置詞の目的語になれるかどうかは動詞や前置詞の種類に依存する\footnote{この動詞的動名詞節は,形式(\ref{eq:source-np1})の名詞句を書き換えたものであるので,意味上の主語\NPを伴う.主語付き動詞的動名詞節はafterやbeforeなど時間を表わす前置詞の目的語にはならない\cite{Quirk85}.\label{foot:prep}}.このため,書き換えが構文的に可能であるかどうかを判定しなければならない.このような判定を厳密に行なうためには構文解析が必要であるが,ここでは次のように近似的に判定する.\begin{enumerate}\item\label{enum:step1}書き換え対象名詞句の直前にbe動詞以外の動詞が存在すれば,それが主語付き動詞的動名詞節を目的語として支配しうる場合に限り,動詞的動名詞節に書き換える.\item\label{enum:step2}書き換え対象名詞句の直前にbe動詞か前置詞が存在すれば,対象名詞句をそれぞれbe動詞の補語,前置詞の目的語とみなして動詞的動名詞節に書き換える.\item\label{enum:step3}書き換え対象名詞句の前方3語以内に動詞が存在しなければ,対象名詞句を主語とみなして書き換える.\end{enumerate}判定手続き(\ref{enum:step1})において,動詞が主語付き動詞的動名詞節を支配できるかどうかは,Hornbyの分類\cite{Hornby77}を拡張した動詞型に基づいて判断する.書き換え対象名詞句の直前が前置詞である場合,前置詞の種類による制約を考慮せずに書き換えを行なう.前置詞の種類を考慮しないと,英語の適格性に問題が生じることがあるが,本研究では適格な英語表現に書き換えることは二次的な目的であり,主な目的は書き換え結果を入力として受け取る機械翻訳システムによって自然な日本語表現が生成されるように英語表現を書き換えることである.実験に用いたシステムでは,動詞的動名詞節が前置詞の目的語になりうる位置に出現した場合,前置詞の種類によらず,動詞的動名詞節は前置詞の目的語と解釈されるため,構文解析に失敗しない.このため,システムのこの性質を利用して,前置詞の種類によらず動詞的動名詞節への書き換えを行なうことにする.\subsubsection{動詞由来名詞の意味に関する制約}\label{sec:rewrite:cond:sem}文は\ref{sec:classify:depred}\,節で述べた過程を経て動詞由来名詞句(縮退度\ref{depred:nominal})に縮退しうる.名詞的動名詞句(縮退度\ref{depred:noun-gerund})までの段階では,動詞的特徴を残して出来事や活動,行為を表わすが,動詞由来名詞句になると,この他に,行為の結果や場所,原因など様々な具体的あるいは抽象的なモノを表わすようになる\cite{Grimshaw90,Kageyama99}.例えば,organizationには「組織すること」の他に「協会」の意味があり,decorationには「飾ること」か「勲章」かという曖昧性があり,destructionには「破壊の原因」という意味も含まれる.ここで,文献\cite{Kageyama99}に倣い,動詞由来名詞が出来事や行為を表わす場合をデキゴト名詞と呼び,具体的あるいは抽象的なモノを表わす場合をモノ名詞と呼ぶことにする.動詞由来名詞が動詞的意味を表すデキゴト名詞である場合は,動詞由来名詞句を動詞的動名詞節に書き換えることができるが,モノ名詞である場合にはできない.このため,動詞由来名詞がデキゴト名詞であるかモノ名詞であるかを判定する必要がある.この判定に利用できる手がかりとしては,動詞由来名詞句の内部から得られるものと,外部から得られるものがある.名詞句内部からの手がかりを利用する方法\cite{Hull96}では,動詞由来名詞に対応する動詞の格パターンの各スロットに記述されている共起制約を主語\NPと目的語\NPpostが満たせばデキゴト名詞であると判定され,満たさなければモノ名詞であると判定される.他方,外部からの手がかりとしては,動詞由来名詞と,それを支配する動詞やその動詞に支配されている他の格要素との意味的な関係がある\cite{Vendler67}.しかし,本研究のように前編集の段階では,このような手がかりを正確に得ることは容易ではない.また,動詞と動詞由来名詞との意味的な対応関係は体系的なものではなく,単語ごとに個別的である\cite{Ota74}.このため,次のような素朴な方法でモノ名詞かデキゴト名詞かを区別する.すなわち,動詞由来名詞が形式(\ref{eq:source-np1})の名詞句の主辞になっている場合に,動詞由来名詞の解釈として,(a)文脈によらずデキゴト名詞が優勢か,(b)文脈によらずモノ名詞が優勢か,(c)どちらの解釈かが文脈により決定されるかを主観的に判断する.(a)に該当する動詞由来名詞は書き換え対象候補とし,(b)の動詞由来名詞は対象外とする.(c)については,書き換え漏れを減らすことよりも不適切な書き換えを抑えることを重視するという方針の下で実験を繰り返して経験的に書き換え対象候補に追加していく.このような方針に基づいて,接尾辞\,-al,\,-ance,\,-ion,\,-ment,\,-sisを伴う動詞由来名詞に,訓練文集において比較的高い頻度で出現した語attempt,failure,pledge,requestを加えて,786語を書き換え対象候補とした.\subsubsection{その他の制約}\label{sec:rewrite:cond:etc}\ref{sec:rewrite:action}\,節の書き換えは,形式(\ref{eq:source-np1})の名詞句において\NPがNOMの意味上の主語であると解釈できると仮定して行なうものであるが,\NPが時間を表わす場合,この仮定が成り立たないことがある.例えば``lastweek'srevivalofSuper301''という名詞句では,``lastweek''は``revive''の主語とは解釈できない.一般には,時間名詞でもNOMの主語と解釈し,書き換えるべき場合もありうるので,\NPがNOMの主語になりうるかどうかは,\NPとNOMに対応する動詞との共起的意味解析などによって決定する必要がある.しかし,ここでは,ごく簡単な処理によって不適切な書き換えが抑えられればよいという立場から,時間名詞は書き換えないことにする.\NPが時間名詞であるかどうかの判定は,辞書に記述されている意味標識に基づいて行なう.また,書き換え対象候補の名詞句が連語や慣用句のように固定的な表現を構成する場合にも書き換えない.
\section{実験と考察}
\label{sec:experiment}提案手法の有効性を検証するために,訓練文集の場合と同じ方法(\ref{sec:rewrite:prospect}\,節)で選別した227文を対象として実験を行なった.このうち書き換え可能な文は93文である.書き換えの評価は,次の二点について行なう.\begin{LIST}\item[\bf単体精度]提案手法自体の精度であり,英語の適格性の観点から,書き換えるべき表現がどれだけ書き換えられ,書き換えるべきでない表現がどれだけそのまま残されたかを表わす.\item[\bf実用精度]提案手法と機械翻訳システムを組み合わせた場合の精度であり,英日翻訳の観点から,書き換えられた文のうちどれだけの文において翻訳品質が実際に向上したかを表わす.\end{LIST}英語の適格性の観点からの評価は英国人一名に依頼した.英日翻訳の観点からの評価では,\ref{sec:rewrite:prospect}\,節での事前評価者を主評価者とし,副評価者を二名加えた(いずれも日本人).\subsection{書き換えの妥当性の評価}\label{sec:experiment:preedit}提案手法自体の評価結果を表\ref{tab:preedit}\,に示す.表\ref{tab:preedit}\,によれば,71.8\%の精度が得られており,ほぼ妥当な書き換えが行なえていると考えられる.\begin{table}[htbp]\caption{提案手法自体の精度}\label{tab:preedit}\begin{center}\begin{tabular}{|l||r@{}r|r@{}r|r|}\hline正解と&\multicolumn{4}{|c|}{提案手法}&\\\cline{2-5}の比較&\multicolumn{2}{|c|}{書き換えた}&\multicolumn{2}{|c|}{書き換えず}&\multicolumn{1}{|c|}{\raisebox{1.5ex}[0pt]{精度}}\\\hline\hline一致&17.2\%&(39/227)&54.6\%&(124/227)&71.8\%\\\hline不一致&4.4\%&(10/227)&23.8\%&(54/227)&28.2\%\\\hline\end{tabular}\end{center}\end{table}書き換えるべきでない表現が誤って書き換えられた10文について,その原因を分析した.10文のうち8文は,書き換え対象名詞句の直前が前置詞である場合に前置詞の種類による制約(脚注\ref{foot:prep}\,参照)を考慮していないために,不適格な英文となっていた.しかし,この書き換えは,\ref{sec:rewrite:cond:syn}\,節で述べたように意図的に行なっている処理であるので,適格な英語表現に書き換えることに主眼を置くならば,抑えることができる.前置詞の種類による制約を加えれば,精度は75.3\%にまで上がる.残りの2文は,動詞的動名詞節に書き換えると構文構造が複雑になりすぎるため,書き換えない方がよいと考えられるものであった.このような場合に書き換えを行なわないようにするためには,まず構文的複雑さを測る尺度を明確にする必要がある.しかし,たとえそのような尺度が定められたとしても,それを前編集の段階で利用することは容易ではないため,この問題は提案手法の限界を越えている.\subsection{翻訳品質改善度の評価}\label{sec:experiment:trans}提案手法によって書き換えられた文を機械翻訳システムで処理した場合,書き換えを行なわない場合に比べて翻訳品質がどの程度向上するかを検証する.提案手法によって書き換えられた文のうち\ref{sec:experiment:preedit}\,節の評価で英語の適格性に問題があるとされた文は前置詞の問題と構文的複雑さの問題であったが,これらの問題は機械翻訳システムでは問題にならないこともあるので,これらの文を評価対象から除外はしないことにする.\subsubsection{我々のシステムでの改善度}\label{sec:experiment:trans:ours}我々の実験システムでの翻訳品質の評価結果を表\ref{tab:trans}\,に示す.表\ref{tab:trans}\,によれば,33文(67.3\%)で品質改善が見られ,比較的簡単な書き換えでほぼ有効な結果が得られている.なお,評価値は評価者三名の多数決によるものである.ただし,判定が三つに分かれ多数決で決まらない場合は,主評価者の評価値を採用した\footnote{49文のうち,評価者全員の判定が一致したものが32文,多数決により決定されたものが15文,三名の判定が分かれたものが2文であった.}.\begin{table}[htbp]\caption{機械翻訳としての精度}\label{tab:trans}\begin{center}\begin{tabular}{|r@{}r|r@{}r|r@{}r|}\hline\multicolumn{2}{|c}{向上}&\multicolumn{2}{|c}{同等}&\multicolumn{2}{|c|}{低下}\\\hline\hline67.3\%&(33/49)&8.2\%&(4/49)&24.5\%&(12/49)\\\hline\end{tabular}\end{center}\end{table}\ref{sec:experiment:preedit}\,節の表\ref{tab:preedit}\,より,書き換えるべき表現が書き換えられなかった書き換え漏れは,54文存在した.このうちもし書き換えられていれば翻訳品質が向上したのは27文であった.この27文について,書き換え漏れの原因を分析した結果を表\ref{tab:leak}\,に示す.\begin{table}[htbp]\caption{書き換え漏れの原因}\label{tab:leak}\begin{center}\begin{tabular}{|l|r|r|}\hline\multicolumn{1}{|c}{原因}&\multicolumn{1}{|c|}{文数}\\\hline\hline構文的制約&13\\意味的制約&9\\その他の制約&5\\\hline\end{tabular}\end{center}\end{table}構文的制約による書き換え漏れは,\ref{sec:rewrite:cond:syn}\,節で述べた処理の不備によるものである.最も多かった原因は,書き換え対象名詞句の直前に存在する語(着目語)がfollowingやincludingのように動詞か前置詞かの曖昧性を持つが対象文中では前置詞として機能していることを正しく認識できなかったことにある.\ref{sec:rewrite:cond:syn}\,節の処理では,着目語が動詞か前置詞かの曖昧性をもつ場合を適切に考慮していないため,followingなどが実際には前置詞として機能している場合でも,主語付き動詞的動名詞節を目的語として支配できないものとして手続き(\ref{enum:step1})で書き換えが行なわれなくなる.意味的制約による書き換え漏れは,動詞由来名詞が\ref{sec:rewrite:cond:sem}\,節で選別した書き換え対象候補に加えられていなかったことによる.書き換え漏れの件数は,慎重な方針で書き換え対象候補を選んだわりには予想外に少なかった.この一因として,訓練文集と試験文集が,同じ種類のコーパス(共に新聞記事)から作成したものであることが挙げられる.今後,他の種類のテキストを対象として実験を行い,書き換え対象候補の検討を行なう必要がある.また,書き換え対象候補の動詞由来名詞をあらかじめ固定しておくのではなく動的に選択する方法などについても検討が必要である.\subsubsection{他の市販システムでの改善度}\label{sec:experiment:trans:others}前編集の段階で原文を書き換える方法は,特定のシステムにあまり依存しないため,我々のシステムに限らず他のシステムにおいても品質改善効果があると予想される.この点を確認するために,提案手法を,市販されている三つのシステムの前編集系として利用した場合としない場合で品質がどのように変化するかを調べた.我々のシステムを評価した際の評価基準と同じ基準で主評価者により評価された結果を表\ref{tab:others}\,に示す.表\ref{tab:others}\,によると,システムCでは書き換えによって品質が極端に悪化している\footnote{システムCで悪化した39文で見られた現象の主な内訳は,(a)例えば``Ieyasu'sestablishmentoftheTokugawashogunate''という名詞句を書き換えた動名詞節``Ieyasu'sestablishingtheTokugawashogunate''が「徳川の将軍職を確立するIeyasu」と訳されるなど,形式(\ref{eq:source-np1})または(\ref{eq:source-np2})の名詞句を書き換えると,\NPが書き換え後の表現の主辞と解釈されているものが21文(53.8\%),(b)書き換え対象名詞句自体の翻訳品質には問題ないが,書き換えの影響で他の部分の品質が悪化しているために,文全体としては「低下」となったものが7文(17.9\%)などである.}が,システムAとBでは書き換えによる品質改善の効果が見られる.特にシステムAでは我々のシステムの場合に近い効果が出ている.このことから,提案手法は特定のシステムへの依存性が低く,複数のシステムの前編集系として利用可能であるといえる.\begin{table}[htbp]\caption{他の市販システムでの翻訳改善度}\label{tab:others}\begin{center}\begin{tabular}{|c||r@{}r|r@{}r|r@{}r|}\hline&\multicolumn{2}{c}{向上}&\multicolumn{2}{|c|}{同等}&\multicolumn{2}{|c|}{低下}\\\hline\hlineシステムA&63.3\%&(31/49)&12.2\%&(6/49)&24.5\%&(12/49)\\システムB&51.0\%&(25/49)&16.3\%&(8/49)&32.7\%&(16/49)\\システムC&12.2\%&(6/49)&8.2\%&(4/49)&79.6\%&(39/49)\\\hline\end{tabular}\end{center}\end{table}
\section{関連研究}
\label{sec:related-work}動詞由来名詞句に関する工学的研究としては,文献\cite{Hobbs76,Dahl87,Somers88,Hull96,Macleod98}などがある.このうち,本研究と同様に英日機械翻訳の立場からの研究はSomersらの研究である.Somersらは,動詞由来名詞句を自然な日本語表現に翻訳するための方法として,英日両言語から中立な内部表現を利用する方法と,変換過程での明示的な構造変換による方法を検討している.これらはいずれも必要な処理をシステム内部で行なうものである.このような方法に比べて,本稿のような前編集による方法は,後編集による方法\cite{Knight94,Yamamoto99,Ozaki01}と同様に,システムからの独立性が高いため,様々なシステムで利用可能であり,実際にシステムと組み合わせる際にシステムの既存部分を修正する必要はほとんどない.Hullらは,動詞由来名詞が動詞的意味を表すデキゴト名詞であるか,非動詞的意味を表すモノ名詞であるかの判定を行い,さらに,デキゴト名詞であると判定された場合,動詞由来名詞の語義(対応する動詞の格パターン)を決定する方法を示している.これに対して,本稿では,デキゴト名詞かモノ名詞かの判定は行なう(デキゴト名詞かモノ名詞かをあらかじめ区別しておく)が,動詞由来名詞に対応する動詞の語義を決定することは機械翻訳システム本体に委ねるという方針を採っている.Macleodらは,動詞由来名詞と動詞の対応情報を記述した辞書を構築している.この辞書には,動詞の補足語が動詞由来名詞句では属格となるのかあるいはどのような前置詞を伴うのかなどが記述されている.本稿では書き換え対象を形式(\ref{eq:source-np1})に限定したが,この形式以外の表現では,(a)動詞由来名詞がデキゴト名詞かモノ名詞かの曖昧性や,(b)動詞由来名詞とその補足語との結合関係の曖昧性,(c)動詞由来名詞の後方に存在する前置詞句の付加の曖昧性などが生じやすい.Macleodらの辞書を利用すればこのような問題にある程度対処できるので,書き換え対象を拡げることも可能であろう.
\section{おわりに}
本稿では,直訳すると不自然な日本語表現になる英語の名詞的表現を文に近い表現形式に書き換えることによって翻訳品質を改善する方法を示した.小規模ではあるが実験を行なったところ,簡単な書き換えによって比較的良好な結果が得られ,提案した方法の有効性が確認された.また,提案手法は特定のシステムに依存せず,複数のシステムの前編集系としても有効に機能することが実験的に確かめられた.今回の実験では形式(\ref{eq:source-np1})または(\ref{eq:source-np2})の名詞句を動詞的動名詞節へ書き換える処理を扱ったが,今後は書き換え対象名詞句の拡張や動詞的動名詞節以外の表現形式への書き換えも行なっていく.さらに,名詞的表現を副詞的表現に書き換えるなどのより大きな構造変換を伴う書き換えを前編集の段階でどの程度実現できるかを検討していく必要もある.\acknowledgment議論に参加頂いた英日機械翻訳グループの諸氏に感謝します.また,本稿の改善に非常に有益なコメントを頂いた査読者の方に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{304}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.同年よりシャープ(株)にて機械翻訳システムの研究開発に従事.1999年神戸大学大学院自然科学研究科博士課程修了.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
| |
V23N01-01 | \section{はじめに}
自動要約の入出力は特徴的である.多くの場合,自動要約の入出力はいずれも,自然言語で書かれた,複数の文からなる文章である.自動要約と同様に入出力がともに自然言語である自然言語処理課題として機械翻訳や対話,質問応答が挙げられる.機械翻訳や対話の入出力が基本的にはいずれも文であるのに対して,自動要約や一部の質問応答は基本的には入出力がいずれも文章である点が特徴的である.また形態素解析や係り受け解析などの自然言語解析課題においては,入力は文であるが,これらの出力は品詞列や係り受け構造などの中間表現であり,自然言語ではない.談話構造解析は文章を入力として想定するものの,やはり出力は自然言語ではない.この特徴的な入出力が原因となり,自動要約の誤り分析は容易ではない.自動要約研究の題材として広く用いられるコーパスの多くは数十から数百の入力文書と参照要約\footnote{本稿では,ある文書に対する正しい要約を「参照要約」と呼ぶ.}の組からなるが,入出力が文章であるがために,詳しくは\ref{sc:誤り分析の枠組み}節で述べるが,自動要約の誤りの分析においては考慮しなければならない要素が多い.そのため,数十の入力文書と参照要約の組といった入出力の規模でも,分析には多大な時間を要することになる.人手による詳細な分析を必要としない簡便な自動要約の評価方法としてROUGE\cite{lin04}があるが,ROUGEによる評価では取りこぼされる現象が自動要約課題に存在することも事実であり,詳細な分析が十分になされているとはいいがたい.そのため,何らかの誤りを含むと思われる要約をどのように分析すればよいのかという体系的な方法論は存在せず,したがって自動要約分野の研究者が各々の方法論をもって分析を行っているのが現状と思われる.この状況を鑑み,本稿では,自動要約における誤り分析の枠組みを提案する.まず,要約システムが作成する要約が満たすべき3つの要件を提案する.また,要約システムがこれらの要件を満たせない原因を5つ提案する.3つの要件と5つの原因から,15種類の具体的な誤りが定義され,本稿では,自動要約における誤りはこれらのいずれかに分類される.本稿の構成は以下の通りである.\ref{sc:基本的な前提}節では本稿が置く基本的な前提について説明し,本稿での議論の範囲を明らかにする.\ref{sc:誤り分析の枠組み}節では誤り分析の枠組みを提案し,自動要約の誤りが提案する15種類の誤りのいずれかに分類できることを示す.\ref{sc:分析の実践}節では実際の要約例に含まれる誤りを提案した枠組みに基づいて分析した結果を示す.\ref{sc:分析に基づく要約システムの改良}節では\ref{sc:分析の実践}節で得られた分析の結果に基づいて要約システムを改良し,要約の品質が改善することを示す.\ref{sc:関連研究}節では関連研究について述べる.\ref{sc:おわりに}節では本稿をまとめ,今後の展望について述べる.
\section{基本的な前提}
\label{sc:基本的な前提}一般に,誤りといえば,本来得られるべき何らかの正しい結果があるものの,それとは異なる,すなわち正しくない別の結果が得られた際にそれを指していうものである.文書分類であれば与えられた文書を正しい分類先に分類できなかった際にそれを誤りということができる.そのため,何らかの正しい結果,すなわち正解が定まらなければ誤りも定めることができない.自動要約においては,この正解,すなわち参照要約\footnote{なお,詳しくは\ref{sc:自動要約の誤りの種類}節で述べるが,本稿の提案する要約の誤り分析の枠組みにおいて,参照要約が必要となるのは\ref{sc:自動要約の誤りの種類}節で述べる「重要部同定の失敗」を評価するときのみである.}をいささか一意に定めづらい\footnote{正解が一意に定まらないという問題は,自動要約に限らず,自然言語生成を目標とする課題に共通して存在する.}.自動要約課題において,複数の作業者に参照要約の作成を依頼したとき,作業者に与える指示にもよるものの,まったく同一の参照要約が作成されるということはまずない.そのため,ある参照要約を基準とした際には誤りとなる要約が,別の要約を基準とした際には誤りとならないことがある.本稿では,この問題は脇に置く.すなわち,ある1つの参照要約が存在するとき,それと要約システムが作成した要約(以下,便宜的にこれをシステム要約と呼ぶ)とを比較し,その差分を誤りとする.すなわち,何か差分があれば誤りを含むし,そうでなければ誤りを含まない.誤りについては次節にて述べる.この単純化は以下の理由に基づく:\begin{itemize}\item単一の参照要約の誤り分析の枠組みが存在しない状況において,複数の参照要約の誤り分析の枠組みを設定するのは困難であること.\item単一の参照要約の誤り分析の枠組みを設定できれば,それに基づいて複数の参照要約が存在する場合を検討することができること.\end{itemize}これらの点から,本稿でのこの単純化は,問題の過度な単純化ではなく,合理的な問題の分割であると考える.また,自動要約課題には,入力文書が単一である場合と複数である場合,要約システムが特に焦点を当てて出力するべき情報がクエリなどを通じて与えられる場合と与えられない場合などの下位分類が存在する.また,テキスト以外にも映像などの自動要約を考えることもできる.本稿では,対象はテキストに限定することとし,また自動要約課題の最も単純な形態である,単一文書が入力として与えられ,特にクエリなどは別途与えられない状況を仮定することとする.さらに,要約の対象となるテキストの種類についても新聞記事\cite{luhn58,aone99},技術文献\cite{luhn58,edmundson69,pollock75},メール\cite{muresan01,sandu10},マイクロブログ\cite{sharifi10,takamura11}など様々なテキストを考えることができるが,本稿ではこれまで単一文書要約課題において広く研究されてきた新聞記事を特に分析の対象として扱う.参照要約に関する仮定とそれに伴う単純化と同様に,本稿では,まず自動要約課題の最も単純な形態の誤り分析を扱うことによって,自動要約の基本的な誤り分析の枠組みを検討する.より複雑な自動要約課題の誤り分析については将来の課題とする.これらの点を踏まえて,本稿が示す自動要約の誤り分析の枠組みの限界を述べておく.\begin{itemize}\item上で述べたように,本稿が提案する自動要約の誤り分析の枠組みは多くの仮定に基づいており,それらの仮定が成り立たない状況においては必ずしも有効に働くものではない.\itemまた,提案する誤り分析の枠組みに基づいて,本稿において行われる分析は,ある単一の要約システムを利用し,またある単一の入力文書を用いて行われるため,その結果が一般的なものであるとは必ずしもいうことはできない.\item本稿で示す分析の枠組みに基づいて行われた分析は,枠組みを提案した著者による分析であり,そのため複数の異なる分析者間での結果の一致については議論されていない.\end{itemize}上に示すように,本稿で示す自動要約の誤り分析の枠組みは完全なものでは決してない.本稿の目的は,あくまで,自動要約の基本的な誤り分析の枠組みを提案することにあり,より広範な自動要約課題への適用や,異なる複数の分析者による分析結果の一致に関する議論などは将来の課題である.
\section{誤り分析の枠組み}
\label{sc:誤り分析の枠組み}ここではまず,自動要約が最低限満たすべき原則を3つ述べ,それが満たされないときに誤りが生じることを説明する.次に,誤りの原因を5つ取り上げる.最後に,これらの組み合わせから要約の誤りが15種類に分類されることをみる.\subsection{自動要約の誤りの種類}\label{sc:自動要約の誤りの種類}本稿で扱う自動要約課題は入力および出力がいずれもテキストである.また,少なくとも人間がそのテキストを読解することを想定している\footnote{人間の読解が必要でなく,単に情報をより少ない容量で保管しようとするのであれば,それはいわゆるデータ圧縮であると思われる.}.そのため,要約システムが出力するテキスト,すなわち要約は,まず何よりも人間が読解可能である必要があろう.すなわち,想定される読者が読み取れるような言語で記述されていることや,非文法的な文などが含まれていないことが必要であろう.次に,要約は,入力されたテキストから読み取れる情報のうちのいずれかのみを選択して出力するものである.そのため,当然のこととして,要約システムは入力されたテキストから読み取れることのみが含まれる要約を出力する必要がある.すなわち,入力されたテキストと矛盾する内容や,入力されたテキストが含意しない内容を含む要約を出力することは許されないであろう.最後に,要約は,字義通り,入力されたテキストから読み取れる情報のうち,重要だと思われる情報のみを含んでいる必要がある.これらの点をまとめると,要約システムによって生成される要約は,以下の3つの原則を満たすべきと考えられる:\begin{enumerate}\item出力から情報を読み取れること.情報を読み取れないような文章が出力されていないこと.情報を読み取れないような文が出力された場合には,以下の3つのケースが考えられる.\begin{enumerate}\item要約がユーザの要求とは異なる言語で出力されている場合や,要約システムがその内部処理において利用している制御記号などが出力されており,要約から文意を読み取れない場合.何らかの理由により要約が出力されない場合も含む.\item文法的でない文(非文)が要約を構成しており,要約の文意が取れない場合.\item個別の文は文法的であるが,要約を構成する文同士の論理関係などが明らかでなく,全体として文意が取れない文章が要約となっている場合.\end{enumerate}本稿ではこれら3点をまとめて,内容を適切に読み取ることのできない要約を便宜的に「非文章」と呼ぶ.\item読み取れる情報が,入力と矛盾せず,入力が出力を含意すること.読み手が入力を読んだ際と出力を読んだ際に異なる結論に至らないこと.\item出力から読み取れる情報が,入力および読み手の希望を鑑みて,重要であると思われること.重要でない,枝葉末節の情報が出力に含まれないこと.\end{enumerate}これらの原則が満たされない場合を誤りとして,自動要約の誤りの分析における3つの観点が導出できる:\begin{enumerate}\item{\bf非文章の出力}:要約システムが出力した文章から文意が読み取れない場合,それは誤りとなる.この観点は自動要約の言語的品質の評価\cite{nist07,nenkova11}と概ね対応する.この観点の誤りはシステム要約のみで検出することができる.\item{\bf文意の歪曲}:要約から読み取れる情報が,入力文書に記載されている情報と矛盾する場合,それは誤りとなる.この観点を評価するためには入力文書とシステム要約が必要となる.この観点はこれまで自動要約において大きく取り上げられてこなかった.これには2つの理由が考えられる.第1に,現時点では,この観点に関してシステム要約を評価するためには人手での丁寧な読解が不可欠であり,そのため非常に費用がかかり実施しづらいということが挙げられる.上で述べた(1)については出力されたシステム要約のみを人手で確認すればよく,また次に述べる(3)については参照要約とシステム要約の機械的な比較によって人手をかけずに一定の評価が可能である.これらに対して,(2)を評価するためには入力文書とシステム要約の両方を評価者が読解した上で,内容の無矛盾を確認しなければならず,その費用は多大なものとなる.第2に,文の書き換えなどを行わずに単に重要文を選択するだけの手法などで要約を作成した場合,文意の歪曲はさほど頻繁には生じず\footnote{なお,本節にて示す例のように,重要文抽出に基づく抽出型の要約においても文意の歪曲は生じうる.},そのため誤りとしてこれまで重要視されてこなかったということも考えられる.文意の歪曲の例を表\ref{tb:文書番号981225042のシステム要約}および表\ref{tb:文書番号981225042のテキスト}に示す.表\ref{tb:文書番号981225042のシステム要約}はTSC-2のデータ\footnote{本稿で分析の対象として用いるデータについては\ref{sc:データ}節で述べる.}に含まれる文書番号981225042のテキストから要約システム\footnote{利用した要約システムについては\ref{sc:要約システム}節で述べる.}によって作成されたシステム要約であり,\mbox{表\ref{tb:文書番号981225042のテキスト}}は元のテキストである.表\ref{tb:文書番号981225042のシステム要約}に示すシステム要約の4文めの冒頭には,「このため」とあり,「輸出に過度に依存しない国内生産体制が急務」である原因が前の文で述べられていることが示唆されている.システム要約を読むと,「トヨタ自動車が検討し始めた生産能力の削減」およびそれに伴う「雇用や地域経済への影響」がこの原因であるように読解できる.一方,表\ref{tb:文書番号981225042のテキスト}に示す元の入力文書を読むと,11文めの「輸出に過度に依存しない国内生産体制が急務」の原因は,「国内販売は、保有期間の長期化もあり新車需要の大きな伸びは期待できない」であることがわかる.この例では,システム要約と入力文書とで,読解した際に別の読みが可能になっており,そのためシステム要約が,入力文書で述べられている本来の文意を歪曲している.\item{\bf重要部同定の失敗}:要約から読み取れる情報の中に入力文書および読み手の希望を鑑みて重要でないものが混ざっているとき,それは誤りとなる.同様に,入力文書および読み手の希望を鑑みて重要であると思われる情報が要約に含まれていない場合もそれは誤りとなる.この観点は内容性の評価に概ね対応する\cite{nenkova11}.この観点を評価するためには参照要約とシステム要約が必要となる.\end{enumerate}\begin{table}[b]\caption{文書番号981225042のシステム要約}\label{tb:文書番号981225042のシステム要約}\input{01table01.txt}\end{table}\begin{table}[t]\caption{文書番号981225042のテキスト}\label{tb:文書番号981225042のテキスト}\input{01table02.txt}\end{table}この3つの観点が,要約システムの誤りを考える際に,最初の分類としてあらわれるものと思われる.\subsection{要約システムの誤りの原因}\label{要約システムの誤りの原因}近年の要約システムの多くはMulti-CandidateReductionFramework\cite{zajic07,jurafsky08}に従っているとみなせる.これは,入力された文書を,文分割などによって文\footnote{ここでの「文」は,厳密には文に相当するような言語単位であり,通常の文とは限らない.節などより細かい言語単位を考えることもできる.本稿では読みやすさのため「文」の語を用いることにする.}に分割する機構\cite{gillick09a},得られた文を文短縮\cite{jing00,knight02}などによって別の表現に書き換え元の入力のある種の亜種を生成する機構,そののちにそれらの中から要約長などの要件を満たすものを選択し要約を生成する機構からなる\cite{filatova04,mcdonald07}.最後の要約を生成する機構はさらに,文の組み合わせの中から要約として適切なものに高いスコアを与える機構と高いスコアを持つものを探索する機構に分割できる.さらに,文の組み合わせの中から要約として適切なものに高いスコアを与える際には,典型的には機械学習が用いられるため,学習が正しくなされているか否かと,適切な特徴量が設定されているかの2点を考慮する必要がある.これらのことから,文分割に関する問題は要約以前の前処理の問題として脇に置くと,近年の要約システムは以下の構成要素からなる.\begin{enumerate}\item入力された文などの言語単位を別の表現に書き換える機構.\item要約としてふさわしい文などの単位に高いスコアを与えるための機械学習に関する機構.\item文などの単位に特徴量を与える機構.\item要約としてふさわしい文などを探索する機構.\end{enumerate}典型的な要約システムを構成する上述の要素を踏まえると,要約システムが前節の原則を満たせず,誤りを生じさせる原因には以下の観点が考えられる:\begin{enumerate}\item{\bf操作の不足}:要約システムが,人間の作業者がテキストに対して施す操作と同等の機構を保持してないことに伴って生じる誤り.言い換えなどの操作ができないために入力された文を短縮することができず,人間と同等の情報量を要約に含めることができない場合や,要約システムが入力された文において省略されているゼロ代名詞を復元できず,要約の文意を損なう場合が含まれる.\item{\bf特徴量の不足}:特徴量が不足している場合.この場合は2つにわけることができる.\begin{enumerate}\item{\bf特徴量の設定不足}:要約システムにおいて設定されていない特徴量が要約の作成において重要な役割を果たすと思われる場合.段落に関する情報を入力文書から得ることができ,かつその情報が要約の作成において重要な役割を果たすと目されるのにもかかわらず,要約システムはそれを特徴量として認識できない場合など.\item{\bf言語解析の失敗}:解析器が誤り,特徴量として設定されている情報が正しく取得できなかった場合.固有表現認識器が固有表現を認識し損ね,要約システムがそれを特徴量として利用できなかった場合など.\end{enumerate}\item{\bfパラメタの誤り}:訓練事例の不足,不適切な学習手法の利用などによって,推定されたパラメタが精度よく推定されていない場合.\item{\bf探索の誤り}:探索誤りのために誤った要約を生成した場合.重要文集合の選択において,本来はより良好な文の組み合わせがあるにもかかわらず,探索誤りによって不適切な文の集合を出力として選択した場合など.\item{\bf情報の不足}:そもそも要約システムに対して入力された情報だけでは参照要約まで到達できない場合.人間の要約作成者が入力以外の情報源を利用して要約を作成した場合など.\end{enumerate}\ref{sc:関連研究}節で述べるが,これらの誤りの原因はより詳細化することが可能である.一方,自動要約には単一文書要約と複数文書要約といういささか風合いの異なる2つの下位課題が存在し,また文短縮なども独立した課題として扱いうる.そのため,個々の要約システムの設計の詳細は様々であり,誤りの原因の詳細は分析の対象とする要約システムの設計の詳細に依存する.このことを鑑み,本稿ではより詳細な誤りの原因には踏み込まず,多くの要約システムにおいて共通する機構に基づき,誤りの原因として上の5種類の原因を定義する\footnote{なお,これら以外にも,要約システムに含まれる実装上のバグ,要約システムが動作する計算機の不具合,要約システムの使用法の誤り,またユーザが要約システムに誤った文書を入力したことによって意図しないシステム要約が出力された場合など,要約プログラムの実装や運用が原因となって誤ったシステム要約が出力される場合を考えることができる.本稿ではこれら実装や運用が原因となって誤った要約が出力されている場合は考慮せず,あくまで要約システムの設計上の問題が原因となってシステム要約に誤りが含まれる場合のみを想定する.}.\subsection{自動要約の誤り分析の枠組み}\ref{sc:自動要約の誤りの種類}節で述べた3種類の誤りの種類と,\ref{要約システムの誤りの原因}節で述べた5種類の誤りの原因から,自動要約における誤りは15種類のいずれかに分類できると期待できる.これをまとめたものを表\ref{tb:error_framework}に示す.なお,これらとは別に,参照要約作成者の読みが誤っていると思われる場合など,そもそも参照要約が信頼できないと思われる場合がありうるが,ここではそれは除外し,あくまで参照要約が正しく,機械はそれを模倣することのみを考えればよいという場合を想定した.次に,分析の枠組みを自動要約の結果に適用する際の具体的な方法を表\ref{tb:error_analysis_implementation}に示す.表\ref{tb:error_analysis_implementation}は,ある誤りの種類がある誤りの原因によって生じる際に,どのようにそれを同定できるかをまとめたものである.\begin{table}[p]\caption{自動要約の誤り分析の枠組み}\label{tb:error_framework}\addtolength{\normalbaselineskip}{-1pt}\input{01table03.txt}\end{table}\begin{table}[t]\caption{自動要約の誤り分析の枠組みの適用方法}\label{tb:error_analysis_implementation}\input{01table04.txt}\end{table}\subsection{誤り分析の手続き}\label{sc:誤り分析の手続き}本稿で提案する枠組みに基づく誤りの分析は,一例として,以下の手続きで行うことができる.\begin{enumerate}\item{\bf非文章の出力}:まず,要約システムが出力したシステム要約を読解し,非文章が出力されていないか確認する.主語や述語などが存在しない非文が存在しないか,また談話構造が不明瞭で文章全体から意味が取れなくなっていないかを確認する.非文章が生じていた場合は,その原因を特定する.例えば,主語が存在しない文が存在し,文脈からもその主語を読み取ることができず,そのためその文の文意を正しくとることができない場合,そのような文が生じた原因を特定する.このとき,入力文書とシステム要約でその文が異なる場合,すなわちその文をシステムが書き換えたか否かを確認する必要がある.仮に書き換えたのであれば,なぜその書き換えが発生したかを特定する.\item{\bf文意の歪曲}:次に,入力文書の文意がシステム要約において歪曲されていないかを確認する.この作業には,入力文書の読解と,システム要約の読解の両方が必要である.システム要約から,入力文書に含まれていない情報や,あるいは入力文書と矛盾する情報が読み取れる場合は,要約システムによって入力文書の文意が歪曲されていることになる.文意が歪曲されている場合は,なぜ歪曲が生じたのか確認する.抽出型の要約システムにおいてこの誤りが生じる状況の1つは,主語が省略されている文がシステム要約において誤った文脈におかれることで,読者が,入力文書での本来の主語とは異なる主語を文にあてはめてしまい,その結果として誤った解釈に至る状況である.他にも,談話標識が入力文書と異なる文脈におかれることで,前後の文から異なる解釈を得ることできる場合もある.\ref{sc:自動要約の誤りの種類}節で示した例はこの場合である.書き換えまで行う要約システムであれば,入力文書と異なる表現が用いられることで文意が変化していないか確認する.このような文意の歪曲が生じている場合は,どのような修正をシステム要約に加えることで,正しい文意を得ることができるか確認する.上の例では,省略された主語を復元する機構の追加,談話標識を除去,あるいは修正する機構の追加などが考えられ,これらを要約システムが備えていないために誤りが生じたと考えられる場合は「操作の不足」が原因となろう.一方,これらの機構が存在しているにもかかわらず文意の歪曲が生じた場合は,パラメタの誤りや特徴量の不足を調査する必要がある.\item{\bf重要部同定の失敗}:最後に,参照要約とシステム要約を比較し,参照要約に含まれているがシステム要約には含まれていない情報がないか確認する.この確認にはROUGE\cite{lin04},BasicElement\cite{hovy06}などを援用することが可能であろう.参照要約に含まれている重要な情報がシステム要約に含まれていない場合には,その情報がシステム要約に含まれなかった理由を調査する.特に,パラメタが正しく学習されているか,またそのような情報を重要な情報であると特定するための特徴量が設定されているかを確認する必要があろう.\end{enumerate}
\section{分析の実践}
\label{sc:分析の実践}本節では前節で提示した分析の枠組みを,本稿で分析の対象とした文書に対して適用する.まず,分析の枠組みを適用するシステム要約を作成する.次に,それらに対して人手による分析を行い,その後分析の結果を提案した分析の枠組みに基づいて整理する.\subsection{実験設定}\label{sc:実験設定}\subsubsection{データ}\label{sc:データ}実験には,自動要約の評価型プロジェクトであるTSC-2\footnote{http://lr-www.pi.titech.ac.jp/tsc/tsc2.html}のデータを用いた.TSC-2のデータは60記事からなり,各文書に対して3人の作業者が参照要約を付与している.また,各文書に対して長い参照要約と短い参照要約の2種類が付与されている.今回は特に分析の対象として文書番号990305053のテキストを用いた.参照要約には,作成者1による長い参照要約を用いた.文書番号990305053のテキストの長い参照要約の長さは495文字であり,要約システムを動作させる際には495文字以内の要約を作成するようにした.\subsubsection{要約システム}\label{sc:要約システム}要約システムについては,西川らによる単一文書要約システム\cite{nishikawa14b}を利用した.西川らの要約システムは,入力として単一文書を想定しており,特に単一の新聞記事を入力として想定している.また,クエリの入力は想定していない.要約の手法はMulti-CandidateReductionFramework\cite{zajic07,jurafsky08}に基づいており,まず入力された各文の亜種を文短縮を利用して生成し,その後に元の文とそれらの文の亜種からなる文の集合の中で,文の重要度と文間の結束性が最も高くなる文の系列のうち,要約長の制限を満たすものを選び出すものである.文短縮を利用することもできるものの,西川らの要約システムは文短縮が行われた文が要約に選択されることがあまり多くないため,今回は文短縮を用いずに要約を出力させた.\subsection{結果}表\ref{tb:input_document}に入力文書(文書番号990305053)を示す.太字は入力文書と参照要約とで文アライメントを取り,対応づけが取れた文同士において共通の単語である.下線は要約システムによって重要文と認定された文である.表\ref{tb:reference}に参照要約を示す.分析の対象となると思われる点については下線を加え,どのような現象が生じているか下線の後に上付き文字で示した.表\ref{tb:summary}にシステム要約を示す.太字は参照要約とシステム要約とで文アライメントを取り,対応づけが取れた文同士において共通の単語である.表\ref{tb:reference}と同様に分析の対象となると思われる点について下線を加え,どのような現象が生じているか下線で示された部分の後に加筆した.表\ref{tb:statistics}に入力文書および参照要約,システム要約の統計量を示しておく.\begin{table}[b]\caption{入力文書および参照要約,システム要約の統計量.}\label{tb:statistics}\input{01table05.txt}\end{table}\begin{table}[p]\caption{文書番号990305053のテキスト}\label{tb:input_document}\input{01table06.txt}\end{table}\begin{table}[p]\caption{文書番号990305053の参照要約}\label{tb:reference}\input{01table07.txt}\end{table}\begin{table}[p]\caption{文書番号990305053のシステム要約}\label{tb:summary}\input{01table08.txt}\end{table}\subsection{誤り分析}\label{sc:誤り分析}\subsubsection{重要部の同定の失敗}\label{sc:重要部の同定の失敗}まず,ROUGE-1\cite{lin04}の値は0.385であった\footnote{ROUGE-1は抽出的な要約手法に基づく要約システムを評価する際に広く用いられている指標であり,また新聞記事においては人手による評価と強い相関があることが知られている\cite{lin04}.そのため,まずこれを用いて,要約システムが出力した要約の品質を大まかに把握することにした.}.文単位でみると,システム要約に含まれる文のうち,完全に参照要約に含まれない文は2文めと11文のみであり,11文中2文にとどまっている.このことから,要約システムの精度(適合率)は$\frac{9}{11}$に達しており,要約システムは高精度に重要文を同定していることがわかる.一方,再現率の観点から見ると,参照要約は入力文書33文のうち15文を要約として採用しており\footnote{2つの文を1つの文としてまとめているケースがあり,そのため参照要約は13文から構成されている.詳しくは文融合の節にて詳述.},再現率は$\frac{9}{15}$に留まっている.再現率はまだ大きく改善の余地が残されているため,文と単語という差異はあるが,同様に再現率を評価するROUGE-1の値についても改善の余地があると思われる.次に,重要部同定の失敗の原因を探る.表\ref{tb:input_document}を見ると,要約システムは特に後半の文を選択できていない.これは,要約システムが入力文書における話題の遷移を捕捉できていないためであると思われる.入力文書において,どのように話題が遷移しているかを表\ref{tb:入力文書に含まれる話題の遷移}に示す.全人代が開催されるということ(話題1)と中国の改革とその行く末が危ぶまれるということ(話題2--4)と,その具体的な例(話題5--6)が並び,最後の文は入力文書のまとめとなっている.参照要約を見ると,参照要約の作成者はできる限りこれらの情報を網羅的に要約に含めることを狙っていることが読み取れる.要約システムが後半の文を選択できなかったのはこのような話題の構造を理解することができなかったためで,この構造を要約システムに理解させることは重要部の同定に決定的に重要である\footnote{西川らの要約システムはこのような話題の遷移を文書中の段落情報を通じて認識できるが,今回はこれを利用しなかった.TSC-2のデータは毎日新聞コーパスに付与されているタグの一種であるT2を段落とみなしているものの,毎日新聞コーパスの仕様においては,T2を,西川らの要約システムが想定する段落と同じものとは必ずしもみなすことができないためである.なお,\ref{sc:分析に基づく要約システムの改良}節では,入力文書に対して人手で段落情報を付与し,この効果をみる.}.\begin{table}[b]\caption{入力文書に含まれる話題の遷移}\label{tb:入力文書に含まれる話題の遷移}\input{01table09.txt}\end{table}\subsubsection{括弧の除去}表\ref{tb:input_document}の例において頻繁に行われている操作の1つは括弧の除去である.括弧を通じて提供されている補足的な情報は全て要約から除去されていることがわかる.これによって文を短くし文字数を減らすことができるため,要約システムもこの操作を実行できるようにする必要がある.\subsubsection{文短縮・言い換え}表\ref{tb:input_document}を見ると,文書全体にわたって文の書き換えが行われていることがわかる.不要な修飾節などを除去し文を短く書き換える操作は文短縮あるいは文圧縮と呼ばれており\cite{nenkova11},この表\ref{tb:input_document}の例でも文1,文10などで典型的に行われている.文短縮は,典型的には係り受け木の枝刈りを通じて行われるが,参照要約に含まれる文のうち係り受け木の枝刈りによって実現できるものは少数であり,参照要約作成者はより洗練された,言い換えなどの操作を通じて参照要約を作成していることがわかる.\subsubsection{文融合}異なる複数の文から1つの文を作成することは文融合と呼ばれている\cite{barzilay05b}.参照要約を見ると,この文融合が行われていることがわかる.表\ref{tb:文融合の例1}から\ref{tb:文融合の例4}にその例を示す.参照要約の中では4回この操作が行われており,入力文書における表現と比べ情報量を維持したまま文字数の削減が行われている.これらの操作によって削減された文字数を利用して参照要約作成者はさらに情報を要約に詰め込んでおり,この操作を行う機構を持たない要約システムは再現率において劣後せざるを得ない.\begin{table}[b]\caption{文融合の例1}\label{tb:文融合の例1}\input{01table10.txt}\end{table}\begin{table}[b]\caption{文融合の例2}\label{tb:文融合の例2}\input{01table11.txt}\end{table}\begin{table}[b]\caption{文融合の例3}\label{tb:文融合の例3}\input{01table12.txt}\end{table}\subsubsection{省略}便宜的に「省略」としたが,「この」や「など」の表現を用いて,入力文書における情報を除去している箇所がある.表\ref{tb:省略の例1}に示す参照要約の文3では,朱首相の「三つの実行」のうち金融機構改革が失われており,これが「など」として表現されている.また表\ref{tb:省略の例2}に示す参照要約の文6では,「改革と安定追求のジレンマ」を「この」で表現しており,同様に文字数を節約している.\begin{table}[b]\vspace{-0.3\Cvs}\caption{文融合の例4}\label{tb:文融合の例4}\input{01table13.txt}\end{table}\begin{table}[b]\vspace{-0.3\Cvs}\caption{省略の例1}\label{tb:省略の例1}\input{01table14.txt}\end{table}\begin{table}[b]\vspace{-0.3\Cvs}\caption{省略の例2}\label{tb:省略の例2}\input{01table15.txt}\end{table}\subsubsection{参照要約の信頼性}一方,参照要約の品質が疑われる部分もある.入力文書の文14と文15とは並列の関係にはないと思われるため,参照要約の文9先頭の接続詞「また」は要約作成者の読みの誤りを示唆している.\subsection{誤り分析の枠組みの適用}ここまでの分析を,本稿で提案した誤り分析の枠組みに適用した結果を表\ref{tb:自動要約の誤り分析の一例}に示す.表\ref{tb:自動要約の誤り分析の一例}に示されているように,今回は文短縮などの書き換え機構を利用していないため,非文が出力されることはなかった.一方で,文を短く書き換える操作を行えないため,情報の被覆において参照要約に大きく劣後しており,これが低い再現率の直接の原因となっている.\begin{table}[t]\caption{自動要約の誤り分析の一例.}\label{tb:自動要約の誤り分析の一例}\input{01table16.txt}\end{table}
\section{分析に基づく要約システムの改良}
\label{sc:分析に基づく要約システムの改良}本節では,\ref{sc:分析の実践}節で述べた分析に基づいて実際に要約システムを改良した結果について述べる.\ref{sc:文の書き換え操作の追加}節では要約システムに文の書き換え操作を追加する.\ref{sc:特徴量の追加}節では要約システムに特徴量を追加する.\ref{sc:パラメタの調整}節ではパラメタの調整を行う.\ref{sc:結果と考察}節ではこれらの改良によってなされた要約の改善について議論する.\ref{sc:他の文書に対する適用}節では,改良したシステムを文書番号990305053以外のテキストに適用し,本節で行った改良の効果をみる.なお,本節での改良が要約システムを真に改良としたと言うことは難しい.要約システムが真に改良されたと言うためには,少なくとも,ある特定の分野における複数の異なる入力文書を用意し,これらから生成される要約の品質が,改良前の要約システムのそれと比べて改善されていることを検証する必要がある.この点を踏まえ,本稿における本節の意義は以下の2点にある:\begin{itemize}\item\ref{sc:分析の実践}節で述べた分析に基づいて行うことができる要約システムの改良方法について具体的に述べること.\item本稿で提案している分析が,少なくとも,ある入力文書の要約システムによる要約結果を人手で分析し,それに基づいて要約システムの改良を行うことによって,その入力文書を要約する限りにおいては,よりよい要約を出力するために役立つということを示すこと.\end{itemize}\subsection{文の書き換え操作の追加}\label{sc:文の書き換え操作の追加}表\ref{tb:自動要約の誤り分析の一例}に示したように,今回の事例において操作の不足は深刻な問題である.そのため,参照要約において行われている書き換え操作の一部を要約システムも行えるようにした.\subsubsection{括弧の除去}西川らの要約システムは括弧を除去する機能を持つ\footnote{正確には,文選択の際に,入力文書に含まれる元の文とは別に,括弧を除去した新しい文を生成し,それも選択の候補に含められるようになっている.}ため,この機能を動作させるようにした.\subsubsection{文短縮}同様に,文短縮機能も動作させるようにした.\subsubsection{文融合}西川らの要約システムは文融合の機能を持たないため,表\ref{tb:文融合の例1}から\ref{tb:文融合の例4}に示した文融合が行われた文を人手で作成し,要約システムが選択可能な文集合に加えた.\subsubsection{省略}文融合と同様に,省略が行われている文についても人手で参照要約と同様の文を作成し,それを要約システムが選択可能な文集合に加えた.具体的には,表\ref{tb:省略の例1}および\ref{tb:省略の例2}の参照要約の文を入力文書の文の書き換え後の文として要約システムに追加した.\subsection{特徴量の追加}\label{sc:特徴量の追加}表\ref{tb:自動要約の誤り分析の一例}に示したように,一部の特徴量を要約システムが認識できないことは要約の作成に悪影響を与えている.そのため,分析の結果として重要と思われた特徴量を追加した.\subsubsection{段落情報に関する特徴量}\label{段落情報に関する特徴量}\ref{sc:重要部の同定の失敗}節で述べたように,重要文の同定に失敗した主因の1つは入力文書の話題の遷移を捉えることができないためであった.西川らの要約システムは段落に関する情報を特徴量として利用することができるため,入力文書に表\ref{tb:入力文書に含まれる話題の遷移}に基づいて段落情報を付与した.具体的には,同一の話題番号に属する文は同一の段落に属するものとした.西川らの要約システムは段落の先頭の文を重要文として選択する傾向があるため,これによって各話題の先頭の文を重要文として選択できると期待できる.\subsubsection{最後の文に関する特徴量}\label{最後の文に関する特徴量}表\ref{tb:reference}の参照要約を見ると,入力文書の最後の文を入力文書におけるある種のまとめとして重要文とみなしていることがわかる.この点を鑑み,最後の文にはその文が最後の文であるとわかる特徴量を追加した.\subsection{パラメタの調整}\label{sc:パラメタの調整}最後に,パラメタの調整を人手で行った.パラメタの調整は,調整後に要約システムが生成する要約が参照要約に近づくように人手で各特徴量の重みを調整することで行った.具体的に行ったのは以下の調整である:\begin{itemize}\item括弧が含まれる文の重要度を下げるようにした.参照要約においては入力文書に含まれる括弧は全て除去されているため,これが除去されるようにした.\item冒頭の段落に含まれる文の重要度を下げるようにした.通常,新聞記事は逆三角形と呼ばれる構造をなしており\cite{kyodo10},冒頭の段落がほぼ当該記事の要約をなしている.そのため,西川らの要約システムは冒頭の段落に含まれる文に大きな重みを与えている.しかし,今回分析の対象とした入力文書はいささか散文的であり,その点を鑑みてか参照要約の作成者は記事の冒頭以外からも多く文を選択している.このことから,冒頭の段落に含まれる文の重みを小さくし,文書全体から文が選ばれるようにした.\item長い文が選ばれづらくなるようにした.参照要約は長い文をあまり含んでおらず,文短縮や文融合,省略が施された短い文を含んでいる.そのため,それらの文が選ばれやすくなるように文の長さに対して負の重みを与えた.\item百分率の固有表現を含む文が選ばれやすくした.参照要約には中国の経済成長に関する具体的な百分率が含まれており,これらの情報が要約に含まれるように百分率の固有表現の重みを大きくした.\item類似する文が選ばれづらくした.西川らの要約システムは文同士の類似度を特徴量として設定しており,類似した文が要約に選択されやすくなっている.しかし,今回分析の対象とした入力文書の参照要約を見る限り,参照要約の作成者はできるだけ幅広い話題を入力文書において網羅しようとしているように観察される.そのため,むしろ類似する文は要約に含まれないようにした方がよいと思われたため,類似する文が選ばれづらくなるようにした.\item段落の先頭の文の重みを大きくした.\ref{段落情報に関する特徴量}節で述べたように,参照要約の作成者は入力文書に含まれる様々な話題を網羅するように要約を作成したように思われる.特に,各話題に関する段落の先頭の文を参照要約の作成者は参照要約に含ませているように観察されるため,これらが要約に含まれやすくなるようにした.\item最後の文の重みに大きな値を与えた.\ref{最後の文に関する特徴量}節で述べた特徴量は新しく追加したものであるため,当該特徴量に対する重みがパラメタ集合内には存在しない.そのため,最後の文が選ばれるように最後の文であることを示す特徴量に大きな重みを与えた.\end{itemize}\subsection{結果と考察}\label{sc:結果と考察}書き換え操作を追加したのちのシステム要約を表\ref{tb:書き換え操作を追加したのちの文書番号990305053のシステム要約}に示す.書き換え操作および特徴量を追加したのちのシステム要約を表\ref{tb:書き換え操作および特徴量を追加したのちの文書番号990305053のシステム要約}に示す.書き換え操作,特徴量およびパラメタ調整を追加したのちのシステム要約を表\ref{tb:書き換え操作,特徴量およびパラメタ調整を追加したのちの文書番号990305053のシステム要約}に示す.これらの要約システムの改良によるROUGEの変化を表\ref{tb:要約システムの改良によるROUGEの変化}に示す.Rwは書き換え操作が追加された要約の評価,$\text{Rw}+\text{Ft}$は書き換え操作および特徴量が追加された要約の評価,$\text{Rw}+\text{Ft}+\text{Pm}$は書き換え操作,特徴量,およびパラメタ調整が追加された要約の評価である.$\Delta$で示した数値はある改良によってどの程度ROUGE-1の値が改善したかを示す.なお,本節の目的は,書き換え操作の追加,特徴量の追加,パラメタ調整それぞれのROUGEへの影響を見ることそのものにはなく,各改良によってどのような変化がシステム要約に生じるかを見ることにある.また,これらの改良は,後で述べるように3つ全てを合わせたときにこそ大きく要約に影響を及ぼすものであるため,個別の改良の影響に必ずしも注目するものではないことに注意されたい.\begin{table}[p]\caption{書き換え操作を追加したのちの文書番号990305053のシステム要約}\label{tb:書き換え操作を追加したのちの文書番号990305053のシステム要約}\input{01table17.txt}\end{table}\begin{table}[p]\caption{書き換え操作および特徴量を追加したのちの文書番号990305053のシステム要約}\label{tb:書き換え操作および特徴量を追加したのちの文書番号990305053のシステム要約}\input{01table18.txt}\end{table}\begin{table}[t]\caption{書き換え操作,特徴量およびパラメタ調整を追加したのちの文書番号990305053のシステム要約}\label{tb:書き換え操作,特徴量およびパラメタ調整を追加したのちの文書番号990305053のシステム要約}\input{01table19.txt}\end{table}\begin{table}[t]\caption{要約システムの改良によるROUGEの変化}\label{tb:要約システムの改良によるROUGEの変化}\input{01table20.txt}\end{table}書き換え操作の追加によっていくらかROUGEが改善されたものの,表\ref{tb:書き換え操作を追加したのちの文書番号990305053のシステム要約}が示すように,書き換え後の文の一部は要約システムによって選択されておらず,その効果が十分に発揮されていない.そのため,ROUGEの改善も必ずしも大きなものではない.このことから,単に書き換え操作を追加するだけではなく,書き換え後の文が重要文として選択されるように特徴量およびパラメタを調整しないといけないことがわかる.次に,特徴量の追加による影響についてみる.表\ref{tb:要約システムの改良によるROUGEの変化}が示すように,特徴量の追加により,大きくROUGEが改善されていることがわかる.これは全て段落情報に関する特徴量の影響である.最後の文に関する特徴量は新しく追加したものであるため,この時点では生成される要約に対して影響を与えない.参照要約の作成者は入力文書に含まれる各話題からそれらに対応する文を選択しているため,段落情報を通じてこの情報を要約システムが利用できるようになった影響は大きい.最後に,パラメタの調整による影響をみる.表\ref{tb:要約システムの改良によるROUGEの変化}が示すように,パラメタの調整によりROUGEが劇的に改善されていることがわかる.表\ref{tb:書き換え操作,特徴量およびパラメタ調整を追加したのちの文書番号990305053のシステム要約}に示す要約には参照要約に含まれていない文が1つだけ含まれているものの(文12),参照要約にかなり類似した要約を生成することに成功している.このことから,適切な書き換え操作と特徴量を追加した上で適切なパラメタを得ることができれば,参照要約に近い要約を生成できることがわかる.ROUGEとは別に,表\ref{tb:システム要約から読み取ることができる参照要約中の言明}に各システム要約から読み取れる参照要約中に含まれる言明を示す.参照要約は20の言明からなる.パラメタの調整まで加えた最良のものでも16個の言明を含むに留まっており,4個の言明を取りこぼしている.特に13番目の言明についてはいずれのシステム要約も選択することができておらず,これを選択するためにはより詳細な特徴量を設定するなどの工夫が必要であろう.\begin{table}[b]\caption{システム要約から読み取ることができる参照要約中の言明}\label{tb:システム要約から読み取ることができる参照要約中の言明}\input{01table21.txt}\end{table}\subsection{他の文書に対する適用}\label{sc:他の文書に対する適用}最後に,改良前の要約システムによるシステム要約と,改良を加えた要約システムによるシステム要約を比較した.TSC-2のデータに含まれる残りの59文書を入力とし,改良前後の要約システムで要約を作成した.\ref{sc:分析の実践}節と同様に,長い方の参照要約を参照要約とし,要約システムが各文書の要約を作成する際には参照要約の長さ以内の要約を作成するようにした.ROUGE-1で評価を行った結果を表\ref{tb:文書番号990305053以外の文書を入力とした場合のROUGEによる評価結果}に示す.\begin{table}[t]\caption{文書番号990305053以外の文書を入力とした場合のROUGEによる評価結果}\label{tb:文書番号990305053以外の文書を入力とした場合のROUGEによる評価結果}\input{01table22.txt}\end{table}有意水準$\alpha$は0.05としてウィルコクソンの符号順位検定\cite{wilcoxon45}を用いて検定を行ったところ,改良前後でのROUGE-1の変化は有意であった.要約システムに加えた改良はあくまで文書番号990305053に特化したものとなっているため,改善は大きくないものの,文書番号990305053に基づいて行った改良が他の文書に対しても有効に働いたことがわかる.ある特定の文書ではなく,あるコーパスを構成する全ての文書に対するシステム要約の品質を全体的に向上させようとする際には,例えば,そのコーパスを構成する文書の中から代表性を持つ文書を特定し,そのような文書を集中的に分析し要約システムを改良するといった手段が考えられる.
\section{関連研究}
\label{sc:関連研究}\subsection{自動要約の誤り分析}要約システムから出力された要約を評価する方法は大きく2つにわけられる\cite{sparck-jones07}.1つは内的な評価で,要約そのものの品質を評価するものである.もう1つは外的な評価で,要約の品質を他の課題を通じて評価するものである.後者は,例えば,異なる要約システムから出力された要約を用いて同一の情報検索課題を解き,より良好な検索結果が得られた要約システムをよい要約システムとするものである\cite{nomoto97}.本稿は特に要約そのものの品質を扱うため,ここでは前者に焦点を当てる.要約そのものの品質は2つの観点から評価されてきた\cite{nenkova11}.1つは要約の内容性であり,入力文書に含まれる重要な情報がシステム要約にも含まれているか評価するものである.もう1つは要約の言語的品質であり,システム要約が読みやすいものになっているかを評価するものである.これらはそれぞれ,前者については本稿における「重要部同定の失敗」,後者については「非文章の出力」と対応している.要約の内容性については,人間の作業者が重要文として認定した文を要約システムが重要文として認定できた割合に基づいて評価するもの\cite{okumura05},システム要約と参照要約の,n-gram頻度分布の類似度に基づいて評価するもの\cite{lin04},人手によって複数の参照要約に頻繁に出現する情報を特定し,それが要約に含まれる数に基づいて評価するもの\cite{nenkova07}などの評価方法がある.要約の内容性を改善するための網羅的な分析として,Paiceによる分析がある\cite{paice90}.Paiceは,文を選択する際の特徴量である,手がかり語の有無や文の位置,入力文書のタイトルに含まれる語の有無などの効果を論じた.Paiceのこの分析は,「重要部同定の失敗」に関する「特徴量の設定不足」に該当する分析といえる.Hiraoらは,機械学習を用いて重要文同定を行った際のパラメタについて分析している\cite{hirao02}.機械学習を通じて得られたパラメタの傾向を観察することで,有効に働く特徴量を簡便に分析することができる.Hiraoらのこの分析は,Paiceの分析と同様に,「重要部同定の失敗」に関する「特徴量の設定不足」に該当する分析といえる.要約の言語的品質については,一般に,要約の言語的品質を測定するためのテスト\cite{nist07}を通じて評価される.言語的品質に関する分析としては,Vanderwendeらが文の書き換えが引き起こす問題を\cite{vanderwende07},Nenkovaが照応詞が引き起こす問題を指摘している\cite{nenkova08}.Vanderwendeらは,要約の内容性を改善するために,入力文書に含まれる不要な節や句を除去することを提案した\cite{vanderwende07}.この方法によってより要約の内容性が改善されることをVanderwendeらは示したが,その一方で文の書き換えによって非文法的な文が生成され,これが要約に含まれることで要約の言語的品質が低下することも指摘した.特に,文の書き換えの結果,コンマ,ピリオドが誤った位置に置かれることが頻繁に問題となることを示した.Vanderwendeらのこの分析は,「操作の不足」が「非文章の出力」を招くことを指摘するものといえる.Nenkovaは,要約に含まれる照応詞が問題を引き起こすことを指摘した\cite{nenkova08}.特に,言語的品質の観点において,先行詞が不明瞭な照応詞が出現することで,要約の品質が低下することを指摘した.Nenkovaは実際に,要約を構成する文の名詞句を書き換える要約システムと,単に文を選択するだけの要約システムの,それぞれから出力された要約の言語的品質を比較した.Nenkovaは,前者が出力した要約は,書き換えに伴い統語的に正しくない文が生成されることがあること,また同一の名詞句が過剰に繰り返されることがあることから,後者に比べて著しくその言語的品質が悪化することを報告している.Nenkovaのこの分析は,Vanderwendeらと同様に,「操作の不足」が「非文章の出力」を招くことを指摘するものといえる.照応詞の問題はPaice\cite{paice90}やNanbaら\cite{nanba00}も指摘している.Paice\cite{paice90}とNenkova\cite{nenkova08}の研究の間には約20年の時間の経過があるが,依然として照応詞の問題は自動要約における難題である.最後に,上で述べた,これまで自動要約において行われてきた分析と,本稿で提案する分析の枠組みを比較しておく.まず,「文意の歪曲」という観点がこれまでの自動要約研究では指摘されてこなかった.この点については,\ref{sc:自動要約の誤りの種類}節で述べたように,分析に要する費用の大きさが原因となって,あまり指摘されてこなかったものと思われる.加えて,これまで行われてきた分析は,本稿におけるある特定の観点の誤りがある特定の原因によってもたらされるといった,いわば局所的なものであったのに対して,本稿で提案する誤り分析の枠組みは,これまで行われてきた分析を系統的に包含する点に特徴がある.\subsection{他の自然言語処理課題における誤り分析}ここでは,自動要約と同様に自然言語を生成する課題として機械翻訳を,また自動要約とは異なり自然言語を解析する課題として語義曖昧性解消を取り上げ,それぞれ本稿で取り扱った自動要約の誤り分析と比較する.まず,赤部らによる機械翻訳の誤り分析(赤部,Neubig,工藤,Richardson,中澤,星野2015)を取り上げる.\nocite{akabe15}機械翻訳は自動要約と同様にテキストを入力としてテキストを出力する課題であり,誤り分析の形態も似通ったものになると考えられる.赤部らは誤り分析を2種類に分類している\footnote{この分類は機械翻訳の分野において広く知られている(Olive,Christianson,andMcCary2011;渡辺,今村,賀沢,Graham,中澤2014).\nocite{olive11,watanabe14}}.1つはブラックボックス分析であり,システムの出力にのみ着目して誤りを分析するものである.もう1つはグラスボックス分析であり,システム内部の性質に着目して誤りを分析するものである.本稿で扱った誤り分析は要約システム内部の構成要素に着目しているため,グラスボックス分析に相当する.本稿の\ref{sc:自動要約の誤りの種類}節で提案した誤りの種類のみに注目して誤り分析を行うのであればこれはブラックボックス分析になる.赤部らの提案しているブラックボックス分析の誤り体系は,出力のみを分析するものであり,その点において本稿の\ref{sc:自動要約の誤りの種類}節と概ね対応している.本稿の提案した要約の誤りの種類は赤部らのブラックボックス分析の誤り体系を抽象化したものになっている.例えば,自動要約の誤りの種類の2つめ「入力が出力を含意しない」の原因の1つとして赤部らのブラックボックス分析の誤り体系の「モダリティ」を考えることができる.自動要約の満たすべき要件を敷衍し機械翻訳の誤りを考えると,「出力から(目標言語で)情報が読み取れること」「(言語は異なるものの)入出力が意味的に等価であること」の2点を要件として考えることができ,その点において赤部らの提案したブラックボックス分析の誤り体系の一部は自動要約の誤り分析のより具体的な誤りの分類として考えることもできよう.本稿の提案した要約の誤りの種類と赤部らのブラックボックス分析の誤りの体系を比較すると,自動要約と機械翻訳には2つの違いがあることがわかる.1つは非文章の存在である.自動要約の出力は多くの場合,文ではなくて文章であるため,文としては解釈できても文章としては適切に解釈できない場合が生じる.一方,現在の機械翻訳は基本的には文単位の処理を行っている\footnote{もちろん,文を越えた単位での翻訳の試みも存在する\cite{christian12,xiong13}.}.もう1つは,自動要約の満たすべき要件の3つめ「入力および読み手の希望を鑑みて重要な情報のみが出力に含まれること」という点である.自動要約はその名の通り,重要な情報のみを読み手に提示することが目標であるが,機械翻訳は入力を目標の言語に入力と意味的に等価に変換することが目標であり,重要な情報を選別するという要件が存在しない.\begin{table}[b]\caption{自動要約の誤りの原因と機械翻訳のグラスボックス分析の誤り体系との対応}\label{tb:自動要約の誤りの原因と機械翻訳のグラスボックス分析の誤り体系との対応}\input{01table23.txt}\end{table}赤部らが提案したもう1つの誤り体系である,グラスボックス分析の誤り体系は本稿の\ref{要約システムの誤りの原因}節で提案した要約の誤りの原因にほぼ直接対応している.対応を表\ref{tb:自動要約の誤りの原因と機械翻訳のグラスボックス分析の誤り体系との対応}に示す.表\ref{tb:自動要約の誤りの原因と機械翻訳のグラスボックス分析の誤り体系との対応}に示すように,自動要約の誤りの原因と赤部らのグラスボックス分析の誤り体系はほぼ直接対応している.これは,現在の自動要約システムも機械翻訳システムも,自然言語の入力に形態素解析器などの基本的な解析器を用いて適切な解析を加える機構,入力を入力とは異なる表現に変換する機構,変換された表現の中で正しいと思われるものに高いスコアを与える機構,高いスコアが与えられる表現を探索する機構の4点をその基盤としているためである.次に,自然言語の解析を目的とする課題として語義曖昧性解消課題の誤り解析を取り上げる.新納らは7名の分析者による誤り分析の結果を統合し,語義曖昧性解消課題において生じる誤りの原因を9種類に分類している\cite{shinnou15}.語義曖昧性課題における誤りは正しい語義に単語を分類することができないがために生じるものであり,その点において本稿で提案した自動要約の誤りの種類や赤部らのブラックボックス分析の誤りの体系のように複数の誤りの種類は存在せず,単に誤分類のみが誤りとなっている.\begin{table}[t]\caption{自動要約の誤りの原因と語義曖昧性解消の誤りの原因の対応}\label{tb:自動要約の誤りの原因と語義曖昧性解消の誤りの原因との対応}\input{01table24.txt}\end{table}新納らの提案した9種類の誤り原因は,本稿で提案した5種類の誤りの原因の一部を詳細化したものとみなせる.対応を表\ref{tb:自動要約の誤りの原因と語義曖昧性解消の誤りの原因との対応}に示す.語義曖昧性解消課題は自然言語の生成を行わないため,当然,書き換え操作の不足に対応する誤りは存在しない.\pagebreak同様に,候補となる語義のいずれかに単語を分類する問題であるため,複雑な探索も行う必要がなく,そのため探索の誤りも存在しない.
\section{おわりに}
\label{sc:おわりに}本稿では,自動要約の誤り分析を扱った.自動要約の誤りの分類を提案し,それを利用して1つの文書の分析結果を分類した.また,どのような誤りが生じているかを調査するための具体的な方法についても提案した.それらを用いて,ある文書をある要約システムを用いて要約したとき,内部でどのような誤りが生じているか分析した.さらに,分析の結果を踏まえて要約システムに改良を施し,その結果を報告した.本稿で提案した枠組みについては,今後,提案した分類をより精緻化し,個別の分析事例を蓄積していく予定である.特に,今後,重要となるであろう分析は「操作の不足」と「文意の歪曲」の点にあると思われる.「文意の歪曲」についてはこれまで十分にその問題点が指摘されていないが,要約システムが出力する要約を,入力文書と矛盾したものにしてしまうという点において,要約システムの致命的な問題になりうる.そのため,このような問題のあるシステム要約を少ない費用で検出する仕組みが必要になるだろう.また,「文意の歪曲」を防ぐには洗練された書き換え操作が必要であり,「文意の歪曲」を防ぐ機構の分析も重要である.\acknowledgment本稿は自然言語処理における誤り分析プロジェクトProjectNext\footnote{https://sites.google.com/site/projectnextnlp/}の一環として行われた研究に基づくものである.その過程において,国立国語研究所浅原正幸准教授,東京工業大学奥村学教授,東京工業大学菊池悠太氏,早稲田大学酒井哲也教授,九州工業大学嶋田和孝准教授,ニューヨーク大学関根聡研究准教授,東京工業大学高村大也准教授,日本電信電話株式会社平尾努研究主任,および京都大学森田一研究員よりご助言を頂戴した.記して感謝する.また,論文の採録に際しては担当編集委員および2名の査読者の方々より様々なご助言を頂戴した.記して感謝する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{赤部\JBA{Neubig~Graham}\JBA工藤\JBA{Richardson~John}\JBA中澤\JBA星野}{赤部\Jetal}{2015}]{akabe15}赤部晃一\JBA{Neubig~Graham}\JBA工藤拓\JBA{Richardson~John}\JBA中澤敏明\JBA星野翔\BBOP2015\BBCP.\newblockProjectNextにおける機械翻訳の誤り分析.\\newblock\Jem{言語処理学会第19回年次大会ワークショップ「自然言語処理におけるエラー分析」発表論文集}.\bibitem[\protect\BCAY{Aone,Okurowski,Gorlinsky,\BBA\Larsen}{Aoneet~al.}{1999}]{aone99}Aone,C.,Okurowski,M.~E.,Gorlinsky,J.,\BBA\Larsen,B.\BBOP1999\BBCP.\newblock\BBOQATrainableSummarizerwithKnowledgeAcquiredfromRobustNLPTechniques.\BBCQ\\newblockInMani,I.\BBACOMMA\\BBA\Maybury,M.~T.\BEDS,{\BemAdvancesinAutomaticTextSummarization},\mbox{\BPGS\71--80}.MITPress.\bibitem[\protect\BCAY{Barzilay\BBA\McKeown}{Barzilay\BBA\McKeown}{2005}]{barzilay05b}Barzilay,R.\BBACOMMA\\BBA\McKeown,K.~R.\BBOP2005\BBCP.\newblock\BBOQSentenceFusionforMultidocumentNewsSummarization.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf31}(3),\mbox{\BPGS\297--328}.\bibitem[\protect\BCAY{Edmundson}{Edmundson}{1969}]{edmundson69}Edmundson,H.~P.\BBOP1969\BBCP.\newblock\BBOQNewMethodsinAutomaticExtracting.\BBCQ\\newblock{\BemJournalofACM},{\Bbf16}(2),\mbox{\BPGS\264--285}.\bibitem[\protect\BCAY{Filatova\BBA\Hatzivassiloglou}{Filatova\BBA\Hatzivassiloglou}{2004}]{filatova04}Filatova,E.\BBACOMMA\\BBA\Hatzivassiloglou,V.\BBOP2004\BBCP.\newblock\BBOQAFormalModelforInformationSelectioninMulti-SentenceTextExtraction.\BBCQ\\newblockIn{\BemProceedingsofColing2004},\mbox{\BPGS\397--403}.\bibitem[\protect\BCAY{Gillick}{Gillick}{2009}]{gillick09a}Gillick,D.\BBOP2009\BBCP.\newblock\BBOQSentenceBoundaryDetectionandtheProblemwiththeU.S.\BBCQ\\newblockIn{\BemProceedingsofNAACLHLT2009:ShortPapers},\mbox{\BPGS\241--244}.\bibitem[\protect\BCAY{Hardmeier,Nivre,\BBA\Tiedemann}{Hardmeieret~al.}{2012}]{christian12}Hardmeier,C.,Nivre,J.,\BBA\Tiedemann,J.\BBOP2012\BBCP.\newblock\BBOQDocument-WideDecodingforPhrase-BasedStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2012JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL)},\mbox{\BPGS\1179--1190}.\bibitem[\protect\BCAY{Hirao,Isozaki,Maeda,\BBA\Matsumoto}{Hiraoet~al.}{2002}]{hirao02}Hirao,T.,Isozaki,H.,Maeda,E.,\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQExtractingImportantSentenceswithSupportVectorMachines.\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\342--348}.\bibitem[\protect\BCAY{Hovy,Lin,Zhou,\BBA\Fukumoto}{Hovyet~al.}{2006}]{hovy06}Hovy,E.,Lin,C.-Y.,Zhou,L.,\BBA\Fukumoto,J.\BBOP2006\BBCP.\newblock\BBOQAutomatedSummarizationEvaluationwithBasicElements.\BBCQ\\newblockIn{\BemProceedingsofthe5thConferenceonLanguageResourcesandEvaluation(LREC)},\mbox{\BPGS\604--611}.\bibitem[\protect\BCAY{Jing}{Jing}{2000}]{jing00}Jing,H.\BBOP2000\BBCP.\newblock\BBOQSentenceReductionforAutomaticTextSummarization.\BBCQ\\newblockIn{\BemProceedingsofthe6thConferenceonAppliedNaturalLanguageProcessing(ANLP)},\mbox{\BPGS\310--315}.\bibitem[\protect\BCAY{Jurafsky\BBA\Martin}{Jurafsky\BBA\Martin}{2008}]{jurafsky08}Jurafsky,D.\BBACOMMA\\BBA\Martin,J.~H.\BBOP2008\BBCP.\newblock{\BemSpeechandLanguageProcessing(2ndEdition)}.\newblockPrenticeHall.\bibitem[\protect\BCAY{Knight\BBA\Marcu}{Knight\BBA\Marcu}{2002}]{knight02}Knight,K.\BBACOMMA\\BBA\Marcu,D.\BBOP2002\BBCP.\newblock\BBOQSummarizationbeyondSentenceExtraction:AProbabilisticApproachtoSentenceCompression.\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf1}(139),\mbox{\BPGS\91--107}.\bibitem[\protect\BCAY{一般社団法人共同通信社}{一般社団法人共同通信社}{2010}]{kyodo10}一般社団法人共同通信社\BBOP2010\BBCP.\newblock\Jem{記者ハンドブック新聞用字用語集}(第12\JEd).\newblock共同通信社.\bibitem[\protect\BCAY{Lin}{Lin}{2004}]{lin04}Lin,C.-Y.\BBOP2004\BBCP.\newblock\BBOQROUGE:APackageforAutomaticEvaluationofSummaries.\BBCQ\\newblockIn{\BemProceedingsofACLWorkshopTextSummarizationBranchesOut},\mbox{\BPGS\74--81}.\bibitem[\protect\BCAY{Luhn}{Luhn}{1958}]{luhn58}Luhn,H.~P.\BBOP1958\BBCP.\newblock\BBOQTheAutomaticCreationofLiteratureAbstracts.\BBCQ\\newblock{\BemIBMJournalofResearchandDevelopment},{\Bbf22}(2),\mbox{\BPGS\159--165}.\bibitem[\protect\BCAY{McDonald}{McDonald}{2007}]{mcdonald07}McDonald,R.\BBOP2007\BBCP.\newblock\BBOQAStudyofGlobalInferenceAlgorithmsinMulti-documentSummarization.\BBCQ\\newblockIn{\BemProceedingsofthe29thEuropeanConferenceonInformationRetrieval(ECIR)},\mbox{\BPGS\557--564}.\bibitem[\protect\BCAY{Muresan,Tzoukermann,\BBA\Klavans}{Muresanet~al.}{2001}]{muresan01}Muresan,S.,Tzoukermann,E.,\BBA\Klavans,J.\BBOP2001\BBCP.\newblock\BBOQCombiningLinguisticandMachineLearningTechniquesforEmailSummarization.\BBCQ\\newblockIn{\BemProceedingsofCoNLL2001WorkshopatACL/EACL2001Conference},\mbox{\BPGS\152--159}.\bibitem[\protect\BCAY{Nanba\BBA\Okumura}{Nanba\BBA\Okumura}{2000}]{nanba00}Nanba,H.\BBACOMMA\\BBA\Okumura,M.\BBOP2000\BBCP.\newblock\BBOQProducingMoreReadableExtractsbyRevisingThem.\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\1071--1075}.\bibitem[\protect\BCAY{{NationalInstituteofStandardsandTechnology}}{{NationalInstituteofStandardsandTechnology}}{2007}]{nist07}{NationalInstituteofStandardsandTechnology}\BBOP2007\BBCP.\newblock\BBOQTheLinguisticQualityQuestions.\BBCQ\\url{http://www-nlpir.nist.gov/projects/duc/duc2007/quality-questions.txt}.\bibitem[\protect\BCAY{Nenkova}{Nenkova}{2008}]{nenkova08}Nenkova,A.\BBOP2008\BBCP.\newblock\BBOQEntity-drivenRewriteforMulti-documentSummarization.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonNaturalLanguageProcessing(IJNLP)},\mbox{\BPGS\118--125}.\bibitem[\protect\BCAY{Nenkova\BBA\McKeown}{Nenkova\BBA\McKeown}{2011}]{nenkova11}Nenkova,A.\BBACOMMA\\BBA\McKeown,K.\BBOP2011\BBCP.\newblock{\BemAutomaticSummarization}.\newblockNowPublishers.\bibitem[\protect\BCAY{Nenkova,Passonneau,\BBA\McKeown}{Nenkovaet~al.}{2007}]{nenkova07}Nenkova,A.,Passonneau,R.,\BBA\McKeown,K.\BBOP2007\BBCP.\newblock\BBOQThePyramidMethod:IncorporatingHumanContentSelectionVariationinSummarizationEvaluation.\BBCQ\\newblock{\BemACMTransactionsonSpeechandLanguageProcessing},{\Bbf4}(2),\mbox{\BPGS\1--23}.\bibitem[\protect\BCAY{Nishikawa,Arita,Tanaka,Hirao,Makino,\BBA\Matsuo}{Nishikawaet~al.}{2014}]{nishikawa14b}Nishikawa,H.,Arita,K.,Tanaka,K.,Hirao,T.,Makino,T.,\BBA\Matsuo,Y.\BBOP2014\BBCP.\newblock\BBOQLearningtoGenerateCoherentSummarywithDiscriminativeHiddenSemi-MarkovModel.\BBCQ\\newblockIn{\BemProceedingsofthe25thInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\1648--1659}.\bibitem[\protect\BCAY{Nomoto\BBA\Matsumoto}{Nomoto\BBA\Matsumoto}{1997}]{nomoto97}Nomoto,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP1997\BBCP.\newblock\BBOQANewApproachtoUnsupervisedTextSummarization.\BBCQ\\newblockIn{\BemProceedingsofthe24thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\26--34}.\bibitem[\protect\BCAY{奥村\JBA難波}{奥村\JBA難波}{2005}]{okumura05}奥村学\JBA難波英嗣\BBOP2005\BBCP.\newblock\Jem{テキスト自動要約}.\newblockオーム社.\bibitem[\protect\BCAY{Olive,Christianson,\BBA\McCary}{Oliveet~al.}{2011}]{olive11}Olive,J.,Christianson,C.,\BBA\McCary,J.\BEDS\\BBOP2011\BBCP.\newblock{\BemHandbookofNaturalLanguageProcessingandMachineTranslation}.\newblockSpringerNewYork.\bibitem[\protect\BCAY{Paice}{Paice}{1990}]{paice90}Paice,C.~D.\BBOP1990\BBCP.\newblock\BBOQConstructingLiteratureAbstractsbyComputer:TechniquesandProspects.\BBCQ\\newblock{\BemInformationProcessing\&Management},{\Bbf26}(1),\mbox{\BPGS\171--186}.\bibitem[\protect\BCAY{Pollock\BBA\Zamora}{Pollock\BBA\Zamora}{1975}]{pollock75}Pollock,J.~J.\BBACOMMA\\BBA\Zamora,A.\BBOP1975\BBCP.\newblock\BBOQAutomaticAbstractingResearchatChemicalAbstractsService.\BBCQ\\newblock{\BemJournalofChemicalInformationandComputerSciences},{\Bbf15}(4),\mbox{\BPGS\226--232}.\bibitem[\protect\BCAY{Sandu,Carenini,Murray,\BBA\Ng}{Sanduet~al.}{2010}]{sandu10}Sandu,O.,Carenini,G.,Murray,G.,\BBA\Ng,R.\BBOP2010\BBCP.\newblock\BBOQDomainAdaptationtoSummarizeHumanConversations.\BBCQ\\newblockIn{\BemProceedingsofACLWorkshoponDomainAdaptationinNLP},\mbox{\BPGS\16--22}.\bibitem[\protect\BCAY{Sharifi,Hutton,\BBA\Kalita}{Sharifiet~al.}{2010}]{sharifi10}Sharifi,B.,Hutton,M.-A.,\BBA\Kalita,J.\BBOP2010\BBCP.\newblock\BBOQSummarizingMicroblogsAutomatically.\BBCQ\\newblockIn{\BemHumanLanguageTechnologies:The2010AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\685--688}.\bibitem[\protect\BCAY{新納\JBA白井\JBA村田\JBA福本\JBA藤田\JBA佐々木\JBA古宮\JBA乾}{新納\Jetal}{2015}]{shinnou15}新納浩幸\JBA白井清昭\JBA村田真樹\JBA福本文代\JBA藤田早苗\JBA佐々木稔\JBA古宮嘉那子\JBA乾孝司\BBOP2015\BBCP.\newblock語義曖昧性解消の誤り分析.\\newblock\Jem{言語処理学会第19回年次大会ワークショップ「自然言語処理におけるエラー分析」発表論文集}.\bibitem[\protect\BCAY{Sp{\"a}rck~Jones}{Sp{\"a}rck~Jones}{2007}]{sparck-jones07}Sp{\"a}rck~Jones,K.\BBOP2007\BBCP.\newblock\BBOQAutomaticSummarising:TheStateoftheArt.\BBCQ\\newblock{\BemInformationProcessing\&Management},{\Bbf43},\mbox{\BPGS\1449--1481}.\bibitem[\protect\BCAY{Takamura,Yokono,\BBA\Okumura}{Takamuraet~al.}{2011}]{takamura11}Takamura,H.,Yokono,H.,\BBA\Okumura,M.\BBOP2011\BBCP.\newblock\BBOQSummarizingaDocumentStream.\BBCQ\\newblockIn{\BemProceedingsofthe33rdEuropeanConferenceonInformationRetrieval(ECIR)},\mbox{\BPGS\177--188}.\bibitem[\protect\BCAY{Vanderwende,Suzuki,Brockett,\BBA\Nenkova}{Vanderwendeet~al.}{2007}]{vanderwende07}Vanderwende,L.,Suzuki,H.,Brockett,C.,\BBA\Nenkova,A.\BBOP2007\BBCP.\newblock\BBOQBeyondSumBasic:Task-focusedSummarizationwithSentenceSimplificationandLexicalExpansion.\BBCQ\\newblock{\BemInformationProcessing\&Management},{\Bbf43}(6),\mbox{\BPGS\1606--1618}.\bibitem[\protect\BCAY{渡辺\JBA今村\JBA賀沢\JBA{Neubig~Graham}\JBA中澤}{渡辺\Jetal}{2014}]{watanabe14}渡辺太郎\JBA今村賢治\JBA賀沢秀人\JBA{Neubig~Graham}\JBA中澤敏明\BBOP2014\BBCP.\newblock\Jem{機械翻訳}.\newblockコロナ社.\bibitem[\protect\BCAY{Wilcoxon}{Wilcoxon}{1945}]{wilcoxon45}Wilcoxon,F.\BBOP1945\BBCP.\newblock\BBOQIndividualComparisonsbyRankingMethods.\BBCQ\\newblock{\BemBiometricsBulletin},{\Bbf1}(6),\mbox{\BPGS\80--83}.\bibitem[\protect\BCAY{Xiong,Ding,Zhang,\BBA\Tan}{Xionget~al.}{2013}]{xiong13}Xiong,D.,Ding,Y.,Zhang,M.,\BBA\Tan,L.~C.\BBOP2013\BBCP.\newblock\BBOQLexicalChainBasedCohesionModelsforDocument-LevelStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1563--1573}.\bibitem[\protect\BCAY{Zajic,Dorr,Lin,\BBA\Richard}{Zajicet~al.}{2007}]{zajic07}Zajic,D.~M.,Dorr,B.~J.,Lin,J.,\BBA\Richard,S.\BBOP2007\BBCP.\newblock\BBOQMulti-CandidateReduction:SentenceCompressionasaToolforDocumentSummarizationTasks.\BBCQ\\newblock{\BemInformationProcessing\&Management},{\Bbf43},\mbox{\BPGS\1549--1570}.\end{thebibliography}\begin{biography}\bioauthor{西川仁}{2006年慶應義塾大学総合政策学部卒業.2008年同大学大学院政策・メディア研究科修士課程修了.同年日本電信電話株式会社入社.2013年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(工学).NTTメディアインテリジェンス研究所研究員を経て,2015年より東京工業大学大学院情報理工学研究科計算工学専攻助教.自然言語処理,特に自動要約の研究に従事.TheAssociationforComputationalLinguistics,人工知能学会,情報処理学会,各会員.}\end{biography}\biodate\end{document}
| |
V17N04-01 | \section{はじめに}
近年,様々な言語処理タスクにおいて,大量の正解データから学習した統計的言語モデルを解析に用いる教師あり機械学習のアプローチが広く普及している.このアプローチでは,言語の文法的な知識を統計的な特徴量として捉えることができ,形態素解析や固有表現抽出,機械翻訳などの自然言語処理で広く活用されている.本稿では固有表現抽出タスクに焦点をあてる.固有表現抽出は,形態素解析済みの各単語に対して,「どの種類の固有表現か」というタグを付与することにより実現されている.近年では,条件付確率場(ConditionalRandomFields;CRF)\cite{Lafferty:CRF2001,suzuki-mcdermott-isozaki:2006:COLACL}に基づく系列ラベリングが好成績を収めている.しかし,これらの教師あり機械学習に基づく言語処理では,モデルを学習するための正解データを構築するコストが極めて高いことが常に課題となっている.一方,情報検索や情報抽出の分野では,近年ブログなどのConsumerGeneratedMedia(CGM)を対象とした研究も多くなってきている.CGMは,テキストそのものが日々変化してゆくため,新しい語や話題が常に出現するという特徴がある.このような日々変化するテキストにモデルを適応させる確実な方法は,正解の追加データを作成することである.しかし,人手コスト問題のため,迅速に対応させるのは困難であった.これらの人手コストを削減するための従来研究として,能動学習\cite{shen-EtAl:2004:ACL,laws-schutze:2008:PAPERS},半教師あり機械学習\cite{suzuki-isozaki:2008:ACLMain},ブートストラップ型学習\cite{Etzioni2005}などが提案されてきた.能動学習は,膨大なプレーンテキスト集から学習効果の高いデータを取捨選択し,正解は選択されたデータのみに対して人手で付与する手法であり,人手コストを効果的に集中させることに着眼している.そのため,能動学習では学習効果の高いデータ(文)を選択するという,データセレクションが最も重要なポイントとなる\footnote{本来の能動学習では,少ないデータ量で統計モデルの精度を向上させるため,データの取捨選択を行っているが,目的の一つは,大規模正解データで学習したモデルと同等の精度を,少ない作業量で達成するためである.そのため,本稿では,人手作業コストを削減するデータセレクション→人手修正→モデル再学習の一連の手順を能動学習と呼ぶ.}.ここでのデータセレクションの単位は常に文である.一方,もしシステムの解析結果をそのまま正解データとして利用できれば,人手コストは大幅に削減可能である.しかし,現実には解析結果には解析誤りが存在するため,その解析誤りを一つ一つ人手で確認修正する作業が必要である.データセレクションの単位が文である限り,どこに解析誤りが存在するか明白ではないため,全てのタグをチェックする必要がある.しかし,実際には大部分のタグが正解であることが多いため,文全体の全てのタグを確認するコストは無駄が多い.本稿では,タグ単位の事後確率に基づいて算出したタグ信頼度を導入する.この手法では,文単位の信頼度ではなく,各単語に付与されうる全てのタグについてのタグ信頼度を計算する.そしてタグ信頼度に基づいて解析誤りタグを自動的に検出する.自動的に検出された解析誤り箇所だけを人手チェック・修正の対象とすれば,能動学習の学習効率は更に高まる.更に,もし検出された解析誤りを自動的に正解に修正できれば,更に学習コストを削減できる.本稿では,シードとなる正解固有表現リストを利用してブートストラップ的に正解データを収集する半自動自己更新型固有表現抽出を提案する.この手法では,予め人手でシードを準備するだけで,膨大なテキストからシードに存在する固有表現を含む正解データ\footnote{本稿では「正解データ」と呼ぶが,自動で固有表現を認識しているため,実際には少量の誤りも含んだ擬似正解データである.}を自動的に収集し,モデル更新をすることが可能となる.\begin{figure}[b]\begin{center}\includegraphics{17-4ia2f1.eps}\end{center}\caption{本稿で提案する学習手法の模式図}\label{fig-overall}\end{figure}本稿で提案する2つの学習手法の模式図を図\ref{fig-overall}に示す.タグ信頼度に基づいて大規模平文データからシステム解析誤りを自動検出し,誤りタグの有無でデータセレクションを実施する.誤りタグを人手で修正する能動学習(\ref{sec-active-learning}章)と,半自動で修正する自己更新型固有表現抽出UpdateNER(\ref{sec-bootstrapping}章)を本稿では提案する.以下,第\ref{sec-ner}章では固有表現抽出タスクについて述べ,第\ref{sec-confidence-measure}章では,今回提案するタグ信頼度について説明する.第\ref{sec-active-learning}章では,タグ信頼度を能動学習に適応したときの効果を示し,第\ref{sec-bootstrapping}章では半自動自己更新型固有表現抽出について説明する.第\ref{sec-related-works}章で関連研究について述べ,第\ref{sec-conclusion}章でまとめる.
\section{固有表現抽出}
\label{sec-ner}固有表現抽出とは,テキストに含まれる人名,地名,組織名などの固有表現を抽出するタスクである.本稿では,表\ref{tbl-irex-tags}に示すとおり,IREX\cite{IREX1999}で定義される8種の固有表現を抽出対象とし,IOB2方式\cite{Sang:IOB1999}に基づいて17種類のタグを使用する.\begin{table}[b]\caption{固有表現タイプとタグ}\label{tbl-irex-tags}\input{02table01.txt}\end{table}例えば,``東京/都/に''という文は次のようにタグ付けされる:\begin{center}``東京/B-$<$LOC$>$都/I-$<$LOC$>$に/O''\end{center}このタスクは単語列$W=w_1\ldotsw_n$に対して固有表現の種類を表す固有表現タグ列$T=t_1\ldotst_n$を付与する系列ラベリング問題として考えることができる.近年,系列ラベリング問題ではCRF\cite{Lafferty:CRF2001,suzuki-mcdermott-isozaki:2006:COLACL}などの識別モデルが成功を収めている.本稿ではlinear-chainCRFを利用し,固有表現タグ列の事後確率を以下の式で算出する.\begin{align}P(T|W)&=\frac{1}{Z(W)}\exp\left\{\sum_{i=1}^{n}\left(\sum_{a}\lambda_{a}\cdotf_{a}(t_i,w_i)+\sum_{b}\lambda_{b}\cdotf_{b}(t_{i-1},t_{i})\right)\right\}\label{eqn-sentence-prob}\\Z(W)&=\sum_{T}\exp\left\{\sum_{i=1}^{n}\left(\sum_{a}\lambda_{a}\cdotf_{a}(t_i,w_i)+\sum_{b}\lambda_{b}\cdotf_{b}(t_{i-1},t_{i})\right)\right\}\end{align}$w_i$と$t_i$は位置$i$に置ける単語(周辺単語を含む)と固有表現タグ,$f_{a}(t_i,w_i)$,$f_{b}(t_{i-1},t_{i})$は当該単語及び固有表現タグがある条件を満たす時に1となる素性関数\footnote{本稿では素性として,windowサイズ5単語での表記と品詞に関するnグラム(n=1,2,3)と,固有表現タグの2グラムを利用する.}である.$\lambda_{a}$,$\lambda_{b}$は素性関数の重みであり,正解データから推定される.$Z(W)$は正規化項である.(\ref{eqn-sentence-prob})式を最大化するタグ列が最尤タグ列であり,Viterbiアルゴリズムを利用して求められる.
\section{タグ信頼度に基づく解析誤り検出}
\label{sec-confidence-measure}\subsection{タグ事後確率}(\ref{eqn-sentence-prob})式から,文全体の事後確率をタグ列全体の信頼度として利用することは自然であり,従来の能動学習では,通常,文全体の事後確率からデータ選択のための信頼度を算出していた.本稿では,文ではなくタグ単位の事後確率に着目し,この値をタグ自体の信頼度とみなす.そしてタグ信頼度の値を利用して解析誤りであるタグを自動的に判定する.\begin{figure}[b]\begin{center}\includegraphics{17-4ia2f2.eps}\end{center}\caption{タグ信頼度計算の模式図}\label{fig-confidence-measure}\end{figure}図\ref{fig-confidence-measure}はタグ信頼度計算の模式図である.単語$w_i$のタグ候補$t_{i,j}$についての信頼度は,次式のように計算される.\begin{equation}P(t_{i,j}|W)=\sum_{T}P(t_{i,j},T|W)\label{eqn-tag-prob}\end{equation}ここで$\sum_{T}P(t_{i,j},T|W)$はタグ候補$t_{i,j}$を通る全てのタグ列の事後確率を総和したものであり,周辺確率(marginalprobability)とも呼ばれる.なお,$j=1,\ldots,k$は表\ref{tbl-irex-tags}に示す固有表現タグの全種類に対応するものであり,本稿では$k=17$である.タグ候補の信頼度は,前向きおよび後向きアルゴリズム\cite{FSNLP1999}により以下のように効率的に算出することができる.\begin{equation}P(t_{i,j}|W)=\frac{1}{Z(W)}\alpha_{i,j}\cdot\beta_{i,j}\end{equation}ここで{\allowdisplaybreaks\begin{align}\alpha_{i,j}&=\sum_{k}\left\{\alpha_{i-1,k}\cdot\exp\left(\sum_{a}\lambda_{a}\cdotf_{a}(t_i,w_i)+\sum_{b}\lambda_{b}\cdotf_{b}(t_{i-1},t_{i})\right)\right\}\\\beta_{i,j}&=\sum_{k}\left\{\beta_{i+1,k}\cdot\exp\left(\sum_{a}\lambda_{a}\cdotf_{a}(t_{i+1},w_{i+1})+\sum_{b}\lambda_{b}\cdotf_{b}(t_{i},t_{i+1})\right)\right\}\\\alpha_{0,j}&=1\\\beta_{n+1,j}&=1\end{align}}以上のようにして,文中の各単語に付与されうる全てのタグに関して信頼度が得られる.\subsection{リジェクター}\label{sec-rejector}リジェクターは,タグ信頼度を参照し,システム出力の解析誤りを自動で検出する.各単語において,デコーダが出力した最尤タグ$t_d$と信頼度1位タグ$t_1$を参照し,以下のような手順で各固有表現タグが正解か不正解かを判定する.なお,最尤タグ$t_d$は,(\ref{eqn-sentence-prob})式を最大化するタグであり,信頼度1位タグ$t_1$は(\ref{eqn-tag-prob})式を最大化するタグである.\begin{stepenumerate}\item最尤タグ$t_d$が信頼度1位タグ$t_1$と不一致ならば,最尤タグ$t_d$を解析誤りとしてリジェクトする\footnote{最尤タグ$t_d$は稀に信頼度1位タグ$t_1$と一致しない.これはCRFの特徴に由来する.}\label{step-reject1}\item{[\ref{step-reject1}]}でアクセプトされた場合,信頼度1位タグ$t_1$の信頼度$cs_1$が閾値$\theta$以下ならば最尤タグ$t_d$を解析誤りとしてリジェクトする\itemそれ以外であれば最尤タグ$t_d$を正解としてアクセプトする\end{stepenumerate}閾値が高ければリジェクトされるタグ数が増え,人手のチェック・修正コストが増加する.実際の運用では,開発データにてリジェクト・アクセプトの判定誤り率が最小となるような閾値を設定すればよい.このようにして,タグ信頼度を利用することにより,タグを単位として解析誤りを検出することが可能となる.
\section{能動学習}
\label{sec-active-learning}タグ単位での誤り検出は能動学習のデータセレクションに有効である.もし,文中にリジェクトタグが1つでも含まれれば,その文は,現在のモデル(ベースモデル)が確信を持って解析できない,何か新しい事象が存在していることを意味する.すなわち,このような文を優先的にモデル学習の対象とすることで高い学習効果を期待できる.そこでここでの能動学習では,文中にリジェクトタグを含むか否かに基づいたデータセレクションを採用する.また,選別された文について,全てのタグを人手でチェック・修正する必要は無く,リジェクトされたタグのみを対象としてチェック・修正すればよい.図\ref{fig-active-learning}は本稿で提案する能動学習のスキームを示したものである.固有表現抽出デコーダでは,初期正解データから学習したベースモデルに基づいて最尤タグが出力される.続いて\ref{sec-confidence-measure}章で示した手順で最尤タグの解析誤りを検出する.このステップでは,同じベースモデルを利用してタグ信頼度を計算し,その結果を参照してリジェクターで誤り検出を実行する.データセレクションにて少なくとも1つ以上のリジェクトタグを含む文のみを選別し,検出された誤りタグ(リジェクトタグ)のみを人手でチェック・修正する.最終的に,人手修正済みデータを初期正解データに追加し,モデルを再学習して更新する.\begin{figure}[b]\begin{center}\includegraphics{17-4ia2f3.eps}\end{center}\caption{提案する能動学習スキーム}\label{fig-active-learning}\end{figure}\subsection{評価実験}\begin{table}[b]\caption{能動学習でのデータ構成}\label{tbl-al-corpus}\input{02table02.txt}\end{table}今回,本稿で提案する能動学習の効果を学習コストの面から評価した.実験用にブログデータ(45,694文)をWebから収集し,表\ref{tbl-al-corpus}に示すとおり4つのセグメントに分割した.全データに対して予め人手で正解となる固有表現タグを付与したが,追加平文データに関しては,これらの正解タグは隠しておき,プレーンテキストとして扱う.そして人手修正を模する際にこの正解タグの情報を利用する.開発データは\ref{sec-rejector}節で述べたリジェクター判定に利用する閾値を最適化する際に利用した.学習コストは人手でタグをチェック・修正した単語の割合(WCR:WordCheckRate)とみなした.WCRは,追加平文データに含まれる総単語数に対するチェックされた単語数の割合であり,次式で表される.\begin{displaymath}WCR=チェックした単語数/総単語数\end{displaymath}本方式は,リジェクターの閾値に依存して,検出されるリジェクトタグ数が変化するため,閾値を0.1から1.0の範囲で0.1ずつ段階的に変更し,リジェクトタグを含む文のみをデータセレクションで選別して,誤り検出済みデータとした.それぞれの閾値で得られた誤り検出済みデータのうち,リジェクトタグだけを予め付与していた正解タグと変換した.この手順は,人手修正を模したものである.修正後のデータを初期正解データに追加し,ベースモデルを再学習する.この能動学習と比較するため,タグ単位ではなく文単位の信頼度に基づくデータセレクションによる能動学習と比較した.文全体の事後確率を信頼度とみなし,低信頼度の文を優先的に選択する能動学習である.本稿で提案するタグ単位の信頼度に基づく能動学習と異なり,文単位の信頼度の能動学習では,選択された文は全ての単語についてタグのチェックが必要であるとみなされる.以上,2つの能動学習について,再学習したモデルの精度と学習コスト(WCR)の関係を評価した.モデルの精度は評価データにおけるF値を利用した.\begin{equation}F=\frac{2\timesrecall\timesprecision}{recall+precision}\end{equation}\subsection{結果と考察}\subsubsection{学習曲線と精度:}図\ref{fig-learning-curve}に提案手法でのタグ単位のデータセレクションによる能動学習と,文単位のデータセレクションによる能動学習での学習曲線を示す.再学習後のモデルの精度がF値で0.76となるために,文単位での能動学習では全データの60\%を人手でチェックするコストが必要だが,タグ単位での能動学習では,わずか20\%で済む.言い換えると,タグ単位の能動学習は従来の文単位の能動学習と比較して学習コストを1/3に低減したことを意味する.また,図\ref{fig-learning-curve}に,追加平文データのタグをまったく修正しないで,モデルを再学習して測定した精度も併せて示す.ベースモデルではF値0.612であったものが,タグ修正なしの追加平文データをすべて加えた場合はF値0.602に若干低下した.タグ修正なしデータには誤りタグが多く残存しており,そのためF値が低下したと考えられる.このように,ベースモデルによるデコード結果を単純に加えただけでは,学習データ量が増えても精度向上には寄与せず,悪化する場合もある.\begin{figure}[b]\begin{center}\includegraphics{17-4ia2f4.eps}\end{center}\caption{能動学習の学習曲線}\label{fig-learning-curve}\end{figure}\subsubsection{タグ修正内容の分析:}更にタグ単位の能動学習の効果を調べるために,リジェクトタグに対して実施されたタグ修正の内容を以下の4タイプに分類して内訳を分析した.\begin{itemize}\item{\bfNoChange:}リジェクトタグが修正不要\item{\bfOtoBI:}リジェクトタグがOタグであり,B-又はI-タグに置換\item{\bfBItoO:}リジェクトタグがB-又はI-タグであり,Oタグに置換\item{\bfBItoBI:}リジェクトタグがB-又はI-タグであり,別のB-又はI-タグに置換\end{itemize}\begin{table}[b]\caption{リジェクトタグの置換タイプ分布}\label{tbl-rejected-tags}\input{02table03.txt}\end{table}表\ref{tbl-rejected-tags}はリジェクター閾値が0.5の時のリジェクトタグについて,上記4タイプの分類の分布を示している.この閾値は開発データで,リジェクターの判定誤り率が最低となる値である.表からわかるとおり,{\bfNoChange}タイプの割合が最も多い.これはリジェクターが本来修正の必要の無いタグまで過剰にリジェクトしていることを意味する.この結果は,更新するモデルの精度そのものには悪影響を及ぼさないが,学習コストの面では無駄が含まれていることを示している.続いて{\bfOtoBI}タイプが2番目に割合が多く,全体の1/3を占める.実質的な変化のなかった{\bfNoChange}タイプを除き,何かしらの修正が加わった3つのタイプ({\bfOtoBI},{\bfBItoO},{\bfBItoBI})だけを考慮すると,{\bfOtoBI}タイプは全修正の約60\%を占める.つまり,ベースモデルでは固有表現として認識できなかったものが,固有表現に修正されたケースが最も多い.このことは,誤り検出済みデータ中には,初期正解データにはない,新しい固有表現が多く含まれていることを示唆している.
\section{ブートストラップ型固有表現抽出}
\label{sec-bootstrapping}\ref{sec-active-learning}章で述べた通り,実際の修正では約60\%がOタグをB-またはI-タグに変更する必要がある.この事実は固有表現抽出タスクの特徴に由来するものと推察される.つまり,固有表現抽出タスクでは,全コーパスの殆どはOタグで占められている.実際,\ref{sec-active-learning}章で我々が整備した追加平文データにおいても,91\%がOタグであった.そのため固有表現の新語が文中に出現すると,ベースモデルではOタグが付与されてしまうことが多い.\begin{table}[b]\caption{上位2位のタグ精度}\label{tbl-second-accuracy}\input{02table04.txt}\end{table}このようにOタグが支配的であるという傾向があるならば,OタグではないB-またはI-タグの候補の可能性を考慮することが必要である.即ち,Oタグがリジェクトされたときに,次に信頼度の高いタグは何かを調べることは意味があると考えられる.そこで,閾値0.5の時のタグ信頼度が上位2位までのタグについて,その精度を分析したものを表\ref{tbl-second-accuracy}に示す.信頼度1位のタグ(1位タグ)がアクセプトとされた時,その精度は94\%と高い.一方,1位タグがリジェクトされた時,1位タグの精度はわずか43\%であった.しかし,信頼度2位のタグ(2位タグ)の精度は29\%であり,1位タグと2位タグをどちらも考慮すると,いずれかに正解タグが存在する可能性が72\%まで高まる.このことから,上位2位のタグまでを考慮することにより,システム出力のリジェクト箇所を自動的に修正できる可能性があることがわかる.図\ref{fig-tag-graph}に,閾値0.5で1位タグがリジェクトされる場合は2位タグまで考慮するときのタグの状況を示す.以後,本稿ではこのラティス構造をタググラフと呼ぶ.``3丁目の夕日''という映画タイトル(固有物名ART)を1位タグだけでは正しく固有表現として認識できていない.しかし,2位タグまで考慮すると,正しいタグ列が存在していることがわかる.もしこの正解のタグ列を自動的にシステムが発見できれば,この正しいタグ列情報を人手修正した正解データと同等のものとして利用できる.\begin{figure}[t]\begin{center}\includegraphics{17-4ia2f5.eps}\end{center}\caption{タググラフ}\label{fig-tag-graph}\end{figure}\subsection{半自動自己更新型固有表現抽出}以上の考察をふまえ,新しい学習スキームである半自動自己更新型固有表現抽出(UpdateNER)を提案する.これは,予め用意する固有表現リストをシードとし,そのシードを利用してタググラフから正解のタグ列を発見する方式であり,シードを利用して新しいインスタンスを取得するブートストラップ型の学習に類似している.図\ref{fig-update-ner}にUpdateNERの概要を示す.リジェクターでは,タグ信頼度に基づいてリジェクト/アクセプト判定をした後,適宜2位までのタグを考慮したタググラフを出力する.ここでリジェクターは\ref{sec-active-learning}章で述べた処理手続きを以下のように変更して動作する.\begin{stepenumerate}\item1位タグの信頼度スコア$cs_1$が閾値以上であれば,1位タグ$t_1$のみをアクセプトする.それ以外は[\ref{step-second-accept}]の処理へ進む\item$cs_1$が閾値より小さければ,1位タグ$t_1$と更に2位タグ$t_2$をアクセプトする\label{step-second-accept}\end{stepenumerate}後続のデータセレクションでは,2位までのタグ候補を有するタググラフ構造を持つ文を抽出する.そして,コンテキスト抽出にて以下の手順で正解タグ列が存在するかを調べ,該当するタグ列が存在すればそのタグ列を抽出する.\begin{stepenumerate}\itemタググラフ内で最長となる固有表現が成立するタグ列を選択する\label{step-longest-match}\item該固有表現が別途準備するシードリストである固有表現リストに存在していれば文全体のタグ列を正解タグ列として抽出する\label{step-seed-comparison}\end{stepenumerate}\begin{figure}[t]\begin{center}\includegraphics{17-4ia2f6.eps}\end{center}\caption{UpdateNERの概要}\label{fig-update-ner}\end{figure}ステップ[\ref{step-longest-match}]では,タググラフの中から最も有望と思われるタグ列を選ぶことを意図して,最長となる固有表現が成立するルートを選択する.例えば,図\ref{fig-tag-graph}で示すタググラフの場合,``3'',``丁目'',``の'',``夕日''の4単語が2位タグまでの候補を有しているため,16通りのタグ列が存在する.例えば,``BIII'',``BIIO'',``BIOO'',``OOOI'',``OOOO''などである.しかし,ここでは``BIII''のタグ列で最長の固有表現(``3丁目の夕日''で固有物名ART)が構成できるため,このタグ列を選択する.他の部分文字列からなる固有表現,例えば,``3'',``3丁目'',``3丁目の''でいずれも固有物名ARTとなるようなタグ列は全て無視される.ステップ[\ref{step-seed-comparison}]では,ステップ[\ref{step-longest-match}]で選択した有望なタグ列が本当に正解であるとみなしてよいかを判定する.タグ列の確からしさを判定するための手がかりが必要となるので,ここではシードとなる固有表現リストを準備し,表記と対応する固有表現タイプを記載しておく.このリストは,人手で必要な固有表現を登録しても良いし,辞書のような外部DBを利用して自動的に構築しても良い.もし同じ固有表現がステップ[\ref{step-longest-match}]で選択されたタグ列および固有表現リストに存在していれば,このタグ列は正解であると判断されて正解データとして抽出される.そして,このようにして抽出されたデータを初期正解データに追加し,モデルを再学習する.以上のようにUpdateNERでは,シードを与えるだけで学習データの収集・構築を実行できるため,日々増大する固有表現にモデルを追随させることが可能となる枠組みを備えている.\subsection{評価実験}UpdateNERで1週間分のブログテキストからどの程度効果的にモデル更新ができるか評価した.表\ref{tbl-update-corpus}に実験でのデータ内訳を示す.モデルの性能評価を行う評価データは2006年12月のブログを利用する.また,ベースモデルの学習に利用する初期正解データは評価データより半年以上古いものである.そのため,評価データにはベースモデルでは未知の固有表現が存在することが予想される.評価データと同時期の2006年12月から1週間分のブログを収集して追加平文データとし,ここからシードを使ってブートストラップ的に正解データを収集する.なお,評価データのうち,追加平文データと重複するものは予め削除してある.\begin{table}[b]\caption{UpdateNER評価実験でのデータ内訳}\label{tbl-update-corpus}\input{02table05.txt}\end{table}リジェクターの閾値を0.5に設定し,追加平文データから2位までのタググラフを含む文を選別した.シードとなる固有表現リストは日本語Wikipediaのエントリから自動的に収集した.Wikipediaには,世間で注目される人や固有物が次々とエントリに登場するため,話題語や新語を獲得する上では貴重な言語資源であると言える.本実験では,Wikipediaの記事タイトルを表記とし,固有表現タイプは各記事のカテゴリー情報から予め設定したルールにより自動的に推定した.最終的に104,296エントリの固有表現リストを得た.UpdateNERではこのシードを利用して,ブログ記事からシードの固有表現を含むタグ列を自動的に探索する.もし同じ固有表現を発見したら,そのタグ列を正解データとして抽出する.このようにして自動修正したデータを初期正解データに追加し,モデルの再学習を行う.なお,タググラフ探索時には,5.1節で述べた最長固有表現列を採用したが,異なるタイプの固有表現列に展開可能な場合は,複数の候補を別の文として扱い,追加データとした.今回,比較のために,シードそのものの効果を調査した.ここでは,シードと同じ単語列を文中に発見したら必ず固有表現と認識するような固有表現抽出システムを想定する.なお他の単語列の部分はベースモデルに基づいて確率的に固有表現を抽出する.このシステムは,ベースモデルの他に,ユーザが固有表現として認識したいリストをユーザ辞書(シード)として装備したシステムと捉えることができるため,以後,ユーザ辞書システム(userdic.)と呼ぶ.更新後のモデルの精度を再現率(rec.)と適合率(prec.)で評価した.\subsection{結果}実験の結果,のべ2,100文が追加データとして抽出された.このデータのうち,6,125タグが誤りと推定されたリジェクトタグで,その中で2,038個は信頼度2位のタグが採用された.タググラフ付きデータが73,563文あったことを考えると,得られた文数は少ない.表\ref{tbl-update-results}に,人名(PSN),地名(LOC),組織名(ORG),固有物名(ART)での解析精度について,ベースモデル,ユーザ辞書システム(userdic.),UpdateNERの結果をそれぞれ示す.\begin{table}[b]\caption{解析精度}\label{tbl-update-results}\input{02table06.txt}\end{table}シードをユーザ辞書として扱う場合,再現率は向上するが,適合率は殆ど変化しないか,むしろARTでは0.667から0.620へと低下している.これはユーザ辞書を単に追加するだけでは固有表現抽出システムの性能を向上するには十分ではないことを示唆している.ユーザ辞書の枠組みでは,周囲のコンテキストを利用せず単に同一の単語列(表記)を発見すれば一意に固有表現と認定してしまうため,過剰に固有表現を抽出する危険があるからである.一方,UpdateNERでは再現率と適合率ともに向上している.例えば,ARTでは再現率が0.321から0.370,適合率が0.667から0.698へと向上している.この結果から,シードに存在する固有表現だけでなく,その固有表現の周囲の文全体のタグ列の情報がモデルの再学習には必須であると解釈できる.UpdateNERでは,シードの固有表現が出現する文全体でのタグ列,即ち,固有表現とそのコンテキストのうち,有望で確からしいものを自動的に発見して抽出すると言う点で優れている.シードを準備するには多少の人手コストが必要ではあるが,そのコストは正解データそのものを作成するコストと比較すれば極めて小さい.そのため,このUpdateNERの学習スキームは,実際に固有表現抽出システムを運用する場面においては学習コストを抑える1つの有望な手法であると考える.表\ref{tbl-update-results}で示す通り,ユーザ辞書システムもUpdateNERもORGに対しては効果が見られなかった.これはシードに含まれる固有表現の分布によるものと考えられる.Wikipediaから自動作成したシードでは,PSNの固有表現が74\%と最も多かった.一方ORGはわずか11\%しか存在せず,UpdateNERではORGについての正解データを抽出する機会が十分になかったものと考えられる.また,同じ表記でもORGとPSNの曖昧性が生じるケースはもともと多いため,PSNが支配的なシードを利用したUpdateNERではORGをPSNに過剰に学習してしまっている可能性もある.今後,シードの分布とその学習効果への影響は検討を進めたい.なお,UpdateNERでは,初期正解データへの追加データには誤りが含まれる可能性があることを指摘しておく.実験では,追加したデータにどの程度の誤りが含まれていたかは調査できていない.ただし,第\ref{sec-active-learning}章の実験では誤りタグを含むデータを追加して再学習することは精度を若干低下させることが示されていることと,本実験において精度の低下があまり見られないことを考え合わせると,本手法で追加するデータには,モデルの性能に悪影響を与えるような誤りはほとんど含まれないと推察される.\subsection{考察}従来の機械学習の手法と比較して,UpdateNERの一番の特徴は1位タグが信頼できない時に2位タグまで考慮する点にある.これにより特に固有表現抽出タスクのようにベースモデルではOタグであると認識されたとき,次点の候補が何であるかを考慮することが可能となった.しかしUpdateNERには,2つの大きな制約がある.1つは2位タグまでに正解が存在しなければ自動的に正解データとして抽出することができない,という点である.もう1つはその固有表現がシードにも存在していなければならない,という点である.これらの2つの制約があるため,UpdateNERが自動的に収集・修正できる正解データの範囲は狭いと考えられる.この弱点を克服するには,実運用にてUpdateNERとタグ単位でのデータセレクションによる能動学習を組み合わせる手法が有望であると考えている.能動学習の場合,2位までに正解が存在しなければならないという制約はないため,単純に解析誤りを人手で優先的に修正して学習対象とすることが可能である.即ち,能動学習ではベースモデルが解析誤りをするデータ全般を学習対象とすることとなり,その学習範囲はUpdateNERよりも広い.そのため,能動学習ではベースモデルの精度を底上げするような学習に向いていると考えられる.一方,UpdateNERは日々増大する膨大なテキストから半自動で正解データを収集できるという利点があり,新語への追随学習には向いていると言える.そこで,例えば,短期的にはUpdateNERで毎週モデルの新語追随学習を実行し,中期的には1ヵ月或いは半年といった間隔で能動学習を行ってベースモデルの底上げをする,というような運用形態が考えられる.今後,実際のシステム運用上での本手法の効果について,評価を実施したい.
\section{関連研究}
\label{sec-related-works}能動学習は固有表現抽出タスクへの適応\cite{shen-EtAl:2004:ACL,laws-schutze:2008:PAPERS}に限らず,様々な自然言語処理タスクへの適応が研究されており,品詞タグ付け\cite{argamonengelson99committeebased},テキスト分類\cite{Lewis94heterogeneousuncertainty},構文解析\cite{Hwa:ActiveLearning2000},単語選択での曖昧性解消\cite{banko_ACL_2001}など数多くの関連研究がある.いずれの場合も信頼度や情報量といった何かしらの指標に基づいて学習効果の高いデータを選択することが重要であり,その指標の算出やデータセレクションの単位は基本的に文,もしくは一定の語数以上の単語列であった.今回我々が提案する能動学習では,モデル出力の信頼度を指標とするが,その算出単位は文単位ではなく,タグ単位である点が従来研究とは異なる.更にデータセレクションも文単位ではなく,タグ単位でリジェクト/アクセプトを決定し,リジェクトタグのみを修正箇所対象として絞っているため,更なる学習コストの削減に繋がった.なお,\cite{tomanek-hahn:2009:ACLIJCNLP}では,本稿と同様にタグ単位の信頼度に基づいた能動学習を英語の固有表現抽出タスクで評価しており,本稿と同程度のコスト削減効果を報告している.今回,我々は更にタグ単位の信頼度を利用して半自動で誤り修正を行うUpdateNERの提案および評価を実施した点が新しい.一方,特に機械学習の分野において,正解データだけでなく膨大な量のプレーンテキストを利用する半教師あり学習の研究も進められている.自然言語処理タスクでは,語義曖昧性解消\cite{Yarowsky:WSD1995},テキスト分類\cite{Fujino:SemiSupervised2008},チャンキング・固有表現抽出\cite{suzuki-isozaki:2008:ACLMain}などへも適応されている.特に近年は,GigaWord単位のプレーンテキストも入手可能になってきたため,このデータを正解データと組み合わせてモデル学習することにより従来技術の性能限界を超える可能性が示唆されている.ただし,今回我々がターゲットとしているのは,日々語彙や話題の変化が激しいブログなどのCGMドメインにおいて,モデルを低コストで再学習するタスクであり,このような状況を反映するようなGigaWord単位のプレーンテキストを入手するのは困難であると考えられる.そのため,膨大な量のプレーンテキストを利用する半教師あり学習をそのまま適応することは現実的ではない.プレーンテキストを利用するという点で半教師あり学習と類似する手法にブートストラップ学習の研究がある\cite{Etzioni2005,pantel-pennacchiotti:2006:COLACL}.これは,少量のシードを準備して,シードと同じカテゴリに属する新しいインスタンスをプレーンテキストから自動獲得する学習法である.本稿のUpdateNERはシードを準備するだけで,データセレクションとその修正・抽出までを自動的に実行するブートストラップ学習とみなすことができる.しかし,従来のブートストラップは新しいインスタンスを獲得して辞書(シソーラス)を構築することを目的としているのに対し,本手法では,固有表現単体ではなく,固有表現を含むタグ列,即ちコンテキスト全体を獲得している点が異なる.モデルの再学習のためには固有表現辞書だけではなく,固有表現を含むコンテキストそのものが必要である.UpdateNERではブートストラップ学習を適用して最終的には教師あり学習の枠組みでモデル更新を実現するという点が新しい.この学習コストはシードを準備する部分のみのため,能動学習と比較しても極めて低く抑えられるという利点もあり,本手法は有効である.
\section{おわりに}
\label{sec-conclusion}本稿では,タグ単位の事後確率から算出したタグ信頼度を利用してモデルの学習コストを削減する2つの手法を提案した.本手法ではタグ信頼度から解析誤りタグを自動的に判定することが可能である.そしてタグ単位でデータセレクションを行うことでベースモデルが学習対象とすべき箇所を効果的に発見でき,かつ,人手のコストを解析誤り箇所のみに集中させることが可能となった.まず始めに,本手法を能動学習に適応して評価した結果,従来の文単位でデータセレクション・修正する能動学習と比較して,学習コストを1/3まで低減できた.能動学習はベースモデルが解析誤りするデータ全般を学習対象とできるため,モデル全体の精度向上を狙った学習に効果があると考えられる.次に,本手法を利用して半自動自己更新型固有表現抽出(UpdateNER)を提案した.この手法はシードと2位までのタグ候補を利用してブートストラップ的に正解データを自動生成するものである.この手法では,予めシードを準備するだけで膨大なテキストから正解データを自動的に収集・構築することが可能となった.この学習では,日々増大する膨大なテキストを利用してモデルを新語追随させることを狙った学習に効果がある.能動学習とUpdateNERを組み合わせることでモデル更新の学習コストを抑えた固有表現抽出システムの運用が可能となる.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Argamon-Engelson\BBA\Dagan}{Argamon-Engelson\BBA\Dagan}{1999}]{argamonengelson99committeebased}Argamon-Engelson,S.\BBACOMMA\\BBA\Dagan,I.\BBOP1999\BBCP.\newblock\BBOQCommittee-basedsampleselectionforprobabilisticclassifiers.\BBCQ\\newblock{\BemJournalofArtificialIntelligenceResearch},{\Bbf11},\mbox{\BPGS\335--360}.\bibitem[\protect\BCAY{Banko\BBA\Brill}{Banko\BBA\Brill}{2001}]{banko_ACL_2001}Banko,M.\BBACOMMA\\BBA\Brill,E.\BBOP2001\BBCP.\newblock\BBOQScalingtoVeryVeryLargeCorporaforNaturalLanguageDisambiguation.\BBCQ\\newblockIn{\BemProceedingsof39thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\26--33}.\bibitem[\protect\BCAY{Etzioni,Cafarella,Downey,Popescu,Shaked,Soderland,Weld,\BBA\Yates}{Etzioniet~al.}{2005}]{Etzioni2005}Etzioni,O.,Cafarella,M.,Downey,D.,Popescu,A.-M.,Shaked,T.,Soderland,S.,Weld,D.~S.,\BBA\Yates,A.\BBOP2005\BBCP.\newblock\BBOQUnsupervisednamed-entityextractionfromtheweb:anexperimentalstudy.\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf165}(1),\mbox{\BPGS\91--134}.\bibitem[\protect\BCAY{Fujino,Ueda,\BBA\Saito}{Fujinoet~al.}{2008}]{Fujino:SemiSupervised2008}Fujino,A.,Ueda,N.,\BBA\Saito,K.\BBOP2008\BBCP.\newblock\BBOQSemisupervisedlearningforahybridgenerative/discriminativeclassifierbasedonthemaximumentropyprinciple.\BBCQ\\newblock{\BemIEEETransactionsonPatternAnalysisandMachineIntelligence(TPAMI)},{\Bbf30}(3),\mbox{\BPGS\424--437}.\bibitem[\protect\BCAY{Hwa}{Hwa}{2000}]{Hwa:ActiveLearning2000}Hwa,R.\BBOP2000\BBCP.\newblock\BBOQSampleSelectionforStatisticalGrammarInduction.\BBCQ\\newblockIn{\BemProceedings5${}^{th}$EMNLP/VLC},\mbox{\BPGS\45--52}.\bibitem[\protect\BCAY{{IREXCommittee}}{{IREXCommittee}}{1999}]{IREX1999}{IREXCommittee}\BBOP1999\BBCP.\newblock\BBOQTheIREXworkshop.\BBCQ\http://nlp.cs.nyu.edu/irex/.\bibitem[\protect\BCAY{Lafferty,McCallum,\BBA\Pereira}{Laffertyet~al.}{2001}]{Lafferty:CRF2001}Lafferty,J.,McCallum,A.,\BBA\Pereira,F.\BBOP2001\BBCP.\newblock\BBOQConditionalRandomFields:ProbabilisticModelsforSegmentingandLabelingSequenceData.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonMachineLearning(ICML-2001)},\mbox{\BPGS\282--289}.\bibitem[\protect\BCAY{Laws\BBA\Sch\"{u}tze}{Laws\BBA\Sch\"{u}tze}{2008}]{laws-schutze:2008:PAPERS}Laws,F.\BBACOMMA\\BBA\Sch\"{u}tze,H.\BBOP2008\BBCP.\newblock\BBOQStoppingCriteriaforActiveLearningofNamedEntityRecognition.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics(Coling2008)},\mbox{\BPGS\465--472},Manchester,UK.Coling2008OrganizingCommittee.\bibitem[\protect\BCAY{Lewis\BBA\Catlett}{Lewis\BBA\Catlett}{1994}]{Lewis94heterogeneousuncertainty}Lewis,D.~D.\BBACOMMA\\BBA\Catlett,J.\BBOP1994\BBCP.\newblock\BBOQHeterogeneousUncertaintySamplingforSupervisedLearning.\BBCQ\\newblockIn{\BemInProceedingsoftheEleventhInternationalConferenceonMachineLearning},\mbox{\BPGS\148--156}.MorganKaufmann.\bibitem[\protect\BCAY{Manning\BBA\Sch\"{u}tze}{Manning\BBA\Sch\"{u}tze}{1999}]{FSNLP1999}Manning,C.~D.\BBACOMMA\\BBA\Sch\"{u}tze,H.\BBOP1999\BBCP.\newblock{\BemFoundationsofStatisticalNaturalLanguageProcessing}.\newblockTheMITPress,Cambridge,Massachusetts.\bibitem[\protect\BCAY{Pantel\BBA\Pennacchiotti}{Pantel\BBA\Pennacchiotti}{2006}]{pantel-pennacchiotti:2006:COLACL}Pantel,P.\BBACOMMA\\BBA\Pennacchiotti,M.\BBOP2006\BBCP.\newblock\BBOQEspresso:LeveragingGenericPatternsforAutomaticallyHarvestingSemanticRelations.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\113--120},Sydney,Australia.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Sang\BBA\Veenstra}{Sang\BBA\Veenstra}{1999}]{Sang:IOB1999}Sang,E.F.T.~K.\BBACOMMA\\BBA\Veenstra,J.\BBOP1999\BBCP.\newblock\BBOQRepresentingTextChunks.\BBCQ\\newblockIn{\BemProceedingsoftheNinthConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL'99)},\mbox{\BPGS\173--179},Bergen,Norway.\bibitem[\protect\BCAY{Shen,Zhang,Su,Zhou,\BBA\Tan}{Shenet~al.}{2004}]{shen-EtAl:2004:ACL}Shen,D.,Zhang,J.,Su,J.,Zhou,G.,\BBA\Tan,C.-L.\BBOP2004\BBCP.\newblock\BBOQMulti-Criteria-basedActiveLearningforNamedEntityRecognition.\BBCQ\\newblockIn{\BemProceedingsofthe42ndMeetingoftheAssociationforComputationalLinguistics(ACL'04),MainVolume},\mbox{\BPGS\589--596},Barcelona,Spain.\bibitem[\protect\BCAY{Suzuki\BBA\Isozaki}{Suzuki\BBA\Isozaki}{2008}]{suzuki-isozaki:2008:ACLMain}Suzuki,J.\BBACOMMA\\BBA\Isozaki,H.\BBOP2008\BBCP.\newblock\BBOQSemi-SupervisedSequentialLabelingandSegmentationUsingGiga-WordScaleUnlabeledData.\BBCQ\\newblockIn{\BemProceedingsofACL-08:HLT},\mbox{\BPGS\665--673},Columbus,Ohio.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Suzuki,McDermott,\BBA\Isozaki}{Suzukiet~al.}{2006}]{suzuki-mcdermott-isozaki:2006:COLACL}Suzuki,J.,McDermott,E.,\BBA\Isozaki,H.\BBOP2006\BBCP.\newblock\BBOQTrainingConditionalRandomFieldswithMultivariateEvaluationMeasures.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\217--224},Sydney,Australia.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Tomanek\BBA\Hahn}{Tomanek\BBA\Hahn}{2009}]{tomanek-hahn:2009:ACLIJCNLP}Tomanek,K.\BBACOMMA\\BBA\Hahn,U.\BBOP2009\BBCP.\newblock\BBOQSemi-SupervisedActiveLearningforSequenceLabeling.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheACLandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP},\mbox{\BPGS\1039--1047},Suntec,Singapore.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Yarowsky}{Yarowsky}{1995}]{Yarowsky:WSD1995}Yarowsky,D.\BBOP1995\BBCP.\newblock\BBOQUnsupervisedWordSenseDisambiguationRivalingSupervisedMethods.\BBCQ\\newblockIn{\BemProceedingsofthe33rdAnnualMeetingoftheAssociationforComputationalLinguistics(ACL1995)},\mbox{\BPGS\189--196}.\end{thebibliography}\begin{biography}\bioauthor{齋藤邦子}{1996年東京大学理学部化学科卒業.1998年同大学院修士課程修了.同年日本電信電話株式会社入社.現在,NTTサイバースペース研究所研究主任.自然言語処理の研究・開発に従事.言語処理学会,情報処理学会,ACL各会員.}\bioauthor{今村賢治}{1985年千葉大学工学部電気工学科卒業.博士(工学).同年日本電信電話株式会社入社.2000年〜2006年ATR音声言語コミュニケーション研究所.2006年よりNTTサイバースペース研究所主任研究員.現在に至る.主として自然言語処理の研究・開発に従事.電子情報通信学会,情報処理学会,ACL各会員.}\end{biography}\biodate\end{document}
| |
V05N04-07 | \section{はじめに}
連続音声認識において,N-gramと呼ばれる統計的手法に基づいた言語モデルが広く使用されており(Bahl,JelinekandMercer1983),限られた探索空間上で認識精度を向上させるためには,信頼できる単語連鎖統計値を得るための大量のデ−タを用いて,大きなN値に設定されたN-gramを用いるのが効果的である.しかし,大量のデータを用意することは非現実的であり,実際には小さいN値であるbi-gramやtri-gramなどを用い,2単語や3単語など局所的な単語連鎖にのみ制約を与えて使用している.従って,単語N-gramモデルを用いた認識誤りには,N単語以上,実際には3から4単語以上からなる長い単語連鎖部分から判断すれば不自然なものが多い.音声対話や音声翻訳システムを実現するためには,上記のような認識誤りの特徴を考慮した上で,認識誤り文を解析できる手段が必要となる.従来,文脈自由文法に則って非文法的な文を解析する手法が提案されており(SaitouandTomita1988;Mellish1989),一部の音声認識誤り文の解析にも有効であることが確認されている.また,それを音声翻訳システムに導入した例も紹介されている(Lavie,Gates,Gavalda,Mayfield,WaibelandLevin1996a).これらは,入力文中に解析できない部分があったとき,その部分を削除,あるいは他の単語を挿入,置換しながら解析を続行することにより,音声認識誤り文の解析を可能にしている.しかしこの方法は,基本的には,誤認識さえなければ文全体を文法で記述することが可能であることを前提としている.実際の自然発話文に頻繁に出現すると思われる文法記述が困難な文を十分に解析できないのが問題となる.一方,文全体を文法で記述することが困難であると思われる自然発声文の解析を可能とするために,発声の際のポーズで区切られた単位を1部分として,文全体を部分毎に分け,各々の部分文を部分木で記述し,この部分木を列挙したもので文全体を記述する方法も提案されている(竹沢,森元1996b).この方法は自由発話文の解析を可能とする上で効果的な方法である.しかし,上記部分木もN-gramモデルと同様に,局所的な一部分文の範囲で解析を行なうものであり,認識処理で不足している「長い単語連鎖からなる大局的な言語的制約」を補うものではない.従って,局所的には既に制御されている認識誤り文を誤りであると判断できず,誤ったまま解析してしまうという問題がある.さらに,これら従来の解析方法は文脈自由文法による文法的制約を基本としているが,意味的な整合性を判断した解析ではないため,文の「不自然さ」を判断するには不十分であると考えられる.我々は,自由発話文の音声認識誤り文を解析するためには,文法以外の制約を積極的に用いて,認識誤り文から正しく認識された部分を特定するしくみを新たに導入し,特定された部分のみを対象として,または特定されなかった部分を修復しながら,文を解析することが必要であると考えている.そこで本論では,その第1歩として,単語N-gramのNの範囲を越えた大局的な部分を対象に,その意味的な自然性を判断することにより,認識結果文から正しく認識された部分のみを特定する方法を提案する.以下2章ではこの正解部分特定法について述べ,3章では日英翻訳システムを用いた正解部分特定法の評価結果について報告する.
\section{正解部分特定法}
\subsection{ConstituentBoundaryを用いた自由発話文の解析}自由発話文の翻訳をめざして,変換主導型機械翻訳(TransferDrivenMachineTranslation以下TDMTと記述する)と呼ぶ音声翻訳手法が提案されている(古瀬,隅田,飯田1994a).TDMTでは,自由発話文に頻繁に出てくる文法記述の困難な言い回しを取り扱うために,実際の自由発話文に現われる種々の単語間の依存関係を表現パターンとして記述し,これらの表現パターンとその対訳とを蓄積しておく.実際の翻訳の際には,入力された文に類似した表現パターンを選択し,その対訳パターンを用いて翻訳を行う.この表現パターンには次の特徴がある.\vspace{0.5cm}\begin{itemize}\item[特徴1:]表現パターンは表現を決定するマーカーと変数から構成されており,マーカーは機能語,変数は内容語である場合が多い.たとえば「京都のホテル」という学習文における表現パターンは「XのY」となり,この際のマーカーは「の」,変数X及びYは「京都」と「ホテル」となる.このように多くの表現パターンは,変数に相当する内容語間の依存関係を,マーカーに相当する機能語で表していることになる.\item[特徴2:]表現パターンの単位は,話し言葉の意味を理解する上での最小単位であることを基本とするため,パターンの長さは単語から句,文まで様々である.この単位をconstituentboundary(CB)と呼ぶ.\end{itemize}\vspace{0.5cm}入力文に類似した表現パターン候補は複数選択されることがある.その中から最も適切な学習パターンを選択するために,学習された表現パターンの変数に相当する単語と入力文の単語間との意味的な類似性を調べ,入力文に含まれる単語と最も類似した単語を含んでいる表現を選択している(隅田,古瀬,飯田1994b).この意味的距離は意味シソーラス辞書に従って算出される.この最適表現パターンの探索は,left-to-rightのボトムアップ探索処理にて行なわれる.従って,もし文全体に相当する表現パターンが探索できなくても,部分文に相当する表現パターンは探索可能である(FuruseandIida1996c).\subsection{正解部分の特定法}上記のCBによる解析法で用いた表現パターンと解析結果を用いて,認識結果文から正しく認識された部分のみを特定する方法を提案する.正解部分の特定に上記解析法を用いる長所を以下に述べる.\vspace{0.5cm}\begin{itemize}\item[(a)]文脈自由文法に基づいた文法規則では,話し言葉も音声認識誤りも同様に解析が困難であるため,両者の区別がつかない場合が多かったが,上記解析法では実際の話し言葉の表現を学習することにより,解析できない部分を音声認識誤りと判断できる可能性がある.\item[(b)]上記解析法で扱う表現パタ−ンは,N-gramのN個以上の単語からなるものも多くある.この表現パターン単位で文の自然性を判断することで,N-gramよりさらに大局的な部分を評価できる枠組である.\item[(c)]解析をボトムアップに行っているため,文全体が解析できなくても,部分的な解析が可能である.\end{itemize}\vspace{0.5cm}音声認識の際に考慮されていない「大局的な部分」からの「意味的な不自然さ」を判断するために,具体的には,「入力文と学習文との単語は意味的類似性」と「1つの表現パタ−ンの形態素長」に注目して正解部分を特定する.正解部分特定条件は次の2つである.\vspace{0.5cm}\begin{quote}\begin{itemize}\item[条件1:]ある入力文中の表現パターンが音声認識誤りを含んでいる場合には,学習パターン内の単語との意味距離値は大きくなると予想される.意味距離値が一定値より小さい表現パタ−ンを正解部分とする.\item[条件2:]単語N-gramにより制御された認識結果は,N個以下の単語からなる部分については既に制御されており,結果が正解であるか誤りであるかに無関係に「自然」な系列である場合が多い.従って,N+1個以上からなる範囲から判断して「自然」である場合のみ,正解部分とする.\end{itemize}\end{quote}\vspace{0.5cm}\begin{figure}\begin{center}\epsfile{file=example.ps,width=80mm}\end{center}\vspace{-4mm}\caption{正解部分特定例}\label{fig:example}\end{figure}\subsection{正解部分の特定手順}なるべく大局的な部分から優先して正解部分の特定を行なうために,ボトムアップに行なわれた解析結果を,トップダウンに判断しながら特定していく.具体的には,次の手順で正解部分の特定を行なう.\vspace{0.5cm}\begin{itemize}\item[手順1:]長い語句の範囲の表現パターンから順にその意味的距離を判断し,意味的距離が閾値より小さい場合は,その範囲に含まれる全ての部分を正解部分とする.\item[手順2:]もし意味的距離が閾値より大きい場合には,その部分のどこかに誤りが含まれているとみなして,より小さい部分の表現パターンについて(手順1)の処理を繰り返す.\item[手順3:]この処理が繰り返され,非常に短い語句の範囲での局所的な語句からなる表現パターンを扱うに至る場合は,対象となる短い部分は,他の部分と依存関係がなく文全体から見て不自然な部分であると判断する.そこで,解析範囲に含まれている形態素数に下限閾値を設け,解析範囲が細分化されてその形態素数が閾値に達した場合には,意味的距離がたとえ小さくでも,その部分を誤り部分と判断する.\end{itemize}\vspace{0.5cm}図\ref{fig:example}に正解部分特定例を示す.これは単語bi-gramを用いた音声認識結果文を解析した例である.まず音声認識結果に対しボトムアップな解析を行なうことで,いくつかの部分文に対し表現パターンが適応され,結果として,図\ref{fig:example}に示したような構造と意味的距離値が得られたとする.ここでたとえば,形態素数の下限閾値をbi-gramのNより1つ大きい3,意味的距離の上限閾値を0.2とすると,この結果は次のように処理される.この結果では,「料金」が「料決ま」と誤認識しているため,文全体としての解析は失敗している.そこで,解析できた部分で最も大きい表現パターンである「エエそれぞれおいくらなんですか」の意味的距離0.4を閾値と比較する.この場合は閾値を上回っているので,この範囲のどこかに誤りがあるとみなし,一段階小さな表現パターン「それぞれおいくらなんですか」を処理する.この部分の意味的距離0.005は閾値より小さいので,この部分は全て正解部分と特定する.まだ,判断していない残りの「料決ま」の部分の意味的距離は閾値より小さいものの,この範囲に含まれる形態素数2が,形態素数閾値の3未満であるので,この部分は誤った部分と判断する.
\section{評価}
\begin{figure}\begin{center}\hspace{10mm}\epsfile{file=struct_fine.ps,width=100mm}\end{center}\caption{音声翻訳システム概要}\label{fig:struct}\vspace{-2mm}\end{figure}実際の音声翻訳システムTDMTに上記の正解部分特定法を導入し,特定された部分のみの部分翻訳が可能な音声翻訳システムを構築した.図\ref{fig:struct}にシステムの概要を示す.音声認識結果文はまず原言語解析部に入力され,解析部は文全体,または部分文の構造と意味距離値を出力する.これらを用いて正解部分を特定し,特定された部分文のみを目的言語変換部に入力し翻訳を行なう.このシステムを用いて,本正解部分特定法にて特定された部分文やその翻訳結果文を出力し,これらを以下の観点から評価した.(1)正解部分特定率.(2)特定された部分のみを提示した場合の全体文に対する文理解率(3)特定された部分のみを翻訳した場合の翻訳文理解率音声認識手法として,音素HMMと単語bi-gram言語モデルを使ったマルチパス探索でワードグラフを出力する連続音声認識方式(Shimizu1996d)を用いた.データベースには旅行会話データベース(Morimoto1994c)の中の9会話分(9話者119文)を用いた.本方法は正解部分をトップダウンに特定するため,正しい文が入力され文全体が従来の解析にて成功した場合には,従来と同様,文全体を出力する.特定された部分のみを出力することの効果を評価するため,ここでは,この119文を用いて音声認識実験を行ない,誤認識した70文のみを評価に使用した.\subsection{正解部分特定率}\begin{figure}\begin{center}\epsfile{file=eval_rate1.ps,width=80mm}\end{center}\vspace{-3mm}\caption{形態素数の閾値と正解部分特定率との関係}\label{fig:rate1}\end{figure}\begin{figure}\begin{center}\epsfile{file=eval_rate2_fine.ps,width=80mm}\end{center}\caption{意味的距離の閾値と正解部分特定率との関係}\label{fig:rate2}\end{figure}本方法の正解部分の特定性能を確認するために,正解であると特定した部分に含まれる正解単語の再現率及び適合率を調べ,正解部分の特定を行う前の音声認識結果文の再現率及び適合率と比較した.\[{\rm再現率}=\frac{\mbox{結果文に含まれる正解単語数}}{\mbox{正解文の総単語数}}\]\[{\rm適合率}=\frac{\mbox{結果文に含まれる正解単語数}}{\mbox{結果文の総単語数}}\]正解部分の特定に使用した意味的距離の閾値と1つの表現パターンに含まれる形態素数の下限閾値とを様々に変えた場合の性能の違いも合わせて評価した.図\ref{fig:rate1},図\ref{fig:rate2}に示された再現率,適合率より,次の結果を得た.\vspace*{0.5cm}\begin{itemize}\item[結果1-1:]どのような閾値の条件下でも,正解単語適合率は92\%を上回っており,特定する前の認識結果と比較しても約15\%前後向上している.特定した部分が正解である信頼性は高い.\item[結果1-2:]正解単語再現率は20\%前後低下しており,本方法が特定しきれない正解部分も多い.\item[結果1-3:]形態素数の閾値については,閾値が大きくなるほど適合率は向上する.特に閾値が3以上の場合は,閾値が2の場合と比べて適合率は大きく向上している.本実験では音声認識時に単語bi-gramを用いており,たとえ誤った単語であっても2単語連鎖間だけを取り上げると自然なものが多い.閾値が2の場合は誤った2単語連鎖を正解部分と特定してしまったことが,3以上の場合に比べて適合率が低かった原因である.\item[結果1-4:]形態素数の閾値が4以上になると再現率が極端に低下する.\item[結果1-5:]意味的距離の閾値については,その値が小さくなるほど再現率は高く適合率が低くなる傾向がある.しかし,閾値の違いによる性能の違いは,形態素数の閾値を変化させた時に比べて少ない.\item[結果1-6:]意味的距離の閾値が0.2以下になると適合率は徐々に低下する.\end{itemize}\newpage本方法は,学習された表現パターンに基づく解析結果から正解部分を特定ため,たとえ正しく認識された単語であっても,表現パターンと適合しなければ正解部分と特定されず,再現率は低くなっている.しかし,本方法による適合率は高く,これは特定された部分が実際に正解単語である信頼性は高いことを示している.従って,単語N-gramにより制約された認識結果から正解部分を特定するために,学習パターン及び入力パターンに出現する単語間の意味的類似性を用いる本方法は,高い信頼度で正解部分を特定するのに有効であると考えられる.また,正解部分特定性能は形態素数閾値の変動に対しては敏感であり,たとえば,音声認識時の言語モデルの制約範囲より小さい値に閾値を設定すると適合率は低下する.言語モデルの制約範囲を越えた形態素数閾値を用いることが必要である.\vspace{-3mm}\subsection{特定部分文からの文理解率}\vspace{-1mm}\begin{table}\caption{正解部分特定前後の文理解率の違い}\label{tab:eval_under}\begin{center}\begin{tabular}{|c||c|c|c|c|c|}\hlineレベル&(L1)&(L2)&(L3)&(L4)&(L5)\\\hline\hline特定前&19.6\%&22.0\%&23.0\%&35.5\%&0.0\%\\\hline特定後&20.3\%&22.6\%&36.8\%&15.2\%&5.4\%\\\hline\end{tabular}\end{center}\end{table}本正解部分特定法が,文の意味を理解する上で有効かどうかを確認する.ここでは,音声認識誤り部分を含んだ文全体を提示した場合(特定前)と,本正解部分特定法により特定された部分のみを提示した場合(特定後)との,各々の文理解度を評価した.形態素数および意味距離値の閾値は,前章の実験での最適値(3と0.2)を設定した.評価方法は,特定前及び特定後の各々の結果文とそれに相当する正解文を比較して,次の5段階の評価レベルを結果文に与えるものである.評価は日本人5名で行なった.5段階の評価レベル内容を以下に示す.\begin{itemize}\item[(L1)]正解と比べて同じ意味であると理解できる.\vspace*{-2mm}\item[(L2)]少し不自然だが,意味は理解できる.\vspace*{-2mm}\item[(L3)]全体の意味はわからないが,部分的には理解できる.\vspace*{-2mm}\item[(L4)]間違えた意味にとってしまう.\vspace*{-2mm}\item[(L5)]正解部分がない.\end{itemize}各レベルにおける5名の平均回答数を評価結果を表\ref{tab:eval_under}に示す.次のことがわかった.\begin{itemize}\item[結果2-1:]本方法にて特定された部分のみ提示することで,誤った意味に解釈される文が半分以上減少した.((L4)が35.5\%→15.2\%)\item[結果2-2:]本方法にて特定された部分のみ提示することで,正しく意味が伝えられた文は増加したが,その割合は僅かである.((L1)と(L2)の和が41.6\%→42.9\%)\end{itemize}本正解部分特定法により特定された部分のみを提示することは,認識誤り文がそのまま誤った意味に解釈されてしまう問題を軽減する効果があった.しかし,より正しい意味を伝えるための効果は僅かであった.これは,正しい部分のみ提示しなくても,評価者が誤った文を自ら訂正しながら読むことで,正しい意味を理解できることを示している.\subsection{翻訳正解率に対する効果}次に,本正解部分特定法が,翻訳結果に及ぼす影響を確認する.ここでは,音声認識誤り部分を含んだ文全体を翻訳した場合(特定前)と,本正解部分特定法により特定された部分のみを翻訳した場合(特定後)との,各々の翻訳文理解度を評価した.閾値の条件は前章と同様に設定した.評価方法は,特定前及び特定後の各々の結果文の翻訳結果文とそれに相当する正解文をに対する翻訳結果文とを比較して,次の5段階の評価レベルを翻訳結果文に与えるものである.評価は英会話能力の高い日本人3名で行なった.評価レベルを以下に示す.(L1)から(L4)までは,前章の文理解率を評価する評価基準と同じである.(L5)は,特定された部分がない,または翻訳過程で処理が失敗するという理由で,翻訳結果が出なかったときに相当する.\begin{itemize}\item[(L1)]正解と比べて同じ意味であると理解できる.\vspace*{-2mm}\item[(L2)]少し不自然だが,意味は理解できる.\vspace*{-2mm}\item[(L3)]全体の意味はわからないが,部分的には理解できる.\vspace*{-2mm}\item[(L4)]間違えた意味にとってしまう.\vspace*{-2mm}\item[(L5)]翻訳ができない.\end{itemize}\begin{table}\caption{正解部分特定前後の翻訳率の違い}\label{tab:eval_trans}\center\begin{tabular}{|c||c|c|c|c|c|}\hlineレベル&(L1)&(L2)&(L3)&(L4)&(L5)\\\hline\hline特定前&11.9\%&0\%&0\%&2.4\%&85.7\%\\\hline特定後&25.7\%&16.7\%&26.6\%&21.0\%&10.0\%\\\hline\end{tabular}\end{table}各評価レベルにおける回答数の3名の平均値を評価結果を表\ref{tab:eval_trans}に示す.次の結果が得られた.\begin{itemize}\item[結果3-1:]従来11.9\%であった翻訳正解率が,本特定法の導入後は約2倍の25.7\%に向上している.\item[結果3-2:]本正解部分特定法の導入前は,85.2\%の文が翻訳できなかったが,本特定法の導入後は,69\%((L1)25.7\%+(L2)16.7\%+(L3)26.6\%)の文に対し,正しいかもしくは部分的にも理解できる翻訳文を出力できた.\item[結果3-3:]本正解部分特定法の導入前は,誤った意味に翻訳されることはほとんどなかったが,本特定法の導入後は,誤訳文が21\%に増加した.\end{itemize}以上の結果は,本正解部分特定法が翻訳結果に及ぼす効果は大きく,従来ほとんど翻訳できなかった誤認識文の約7割に対し,部分的にも意味を理解できる翻訳文を出力可能であることを示している.また,文全体を翻訳できなくても,内容の理解に必要な語が認識されていれば,その部分のみを翻訳することで,ほぼ正しく理解できる翻訳結果が出力できていた.この結果は,特定されなかった部分の修復を検討する際には,特定されない部分を全て修復する必要ななく,必要な単語のみの修復で十分であり,場合によっては,修復の必要がないものも多いことをを示唆している.先に述べたように,本正解部分特定法による特定部分の適合率は高く,特定された部分はほとんどが実際に正解部分である.しかし部分翻訳結果は,特定された原言語部分の順序で相当する部分翻訳結果を並べて提示しているため,各部分文は適切に翻訳されていたとしても,部分文系列から判断すると誤った意味に翻訳される場合があり,誤訳文が増加している原因はここにある.このような誤訳に関しては,今後解決していく必要がある.最後に次章にて,上記の翻訳結果の分析を通して,本正解部分特定法の音声翻訳に及ぼす効果と悪影響について考察する.\vspace{-2mm}
\section{考察}
\vspace{-2mm}従来の翻訳でも,誤認識文の11.9\%に対しては正しく翻訳することができている.これは使用した翻訳システムTDMTが,話し言葉に対応するために助詞や一部の文末表現が欠落した言い回しを学習しており,認識誤りがこれらの脱落誤りであった場合にでも正しく解析できたためである.しかし,実際の話し言葉には存在しないような言い回しに誤認識した場合には,翻訳することができなかった.本正解部分特定法の導入により,効果が見られた誤認識文の特徴は,主に以下のものである.\begin{itemize}\item[(a)]表現パターン間の挿入誤り\item[(b)]文末の言い回しの誤り\item[(c)]N個以上の単語からなる不自然な表現への誤り\item[(d)]学習データに稀な表現への誤り\end{itemize}また,誤認識ではないが,従来翻訳できなかった文が,本方法にて翻訳可能になったものに,次ののもがある.\begin{itemize}\item[(e)]複数文からなる発話\end{itemize}また逆に,本正解部分特定法を導入することで誤訳してしまった文の主な特徴は,次のものである.\begin{itemize}\item[(f)]文末の,人称,立場,肯定文か否定文か,などを決定する表現の誤り\end{itemize}以下に,上記の各々の項目を実際の例を用いて説明する.\subsection{表現パターン間の挿入誤り}\begin{table}\caption{挿入誤りに対する部分翻訳結果例}\label{tab:ex_error1}\center\begin{tabular}{|l|l|}\hline入力文&電話番号は五二七九です\\&(Thetelephonenumberisfivetwosevennine)\\\hline認識結果&電話番号は\underline{っお}五二七\underline{あっ}九です\\\hline正解部分特定結果&電話番号は....五二七......\\\hline部分翻訳結果&Thetelephonenumber....fivetwoseven......\\\hline\end{tabular}\end{table}自由発話文では,「ええ」や「あ」や「ん」などの冗長語が多く話されるため,音声認識では,これらの単語を認識単語として登録している場合が多い.ところが,日本語の冗長語は,短音素で構成されているものが多く,認識時には,他の単語の一部が,度々,冗長語と誤って認識されてしまう傾向がある.さらに,冗長語は文全体のどこで話されるかが予測しにくく,単語N-gramの枠組では制御しにくい性質がある.これらの理由で,音声認識結果では,この冗長語の挿入誤りが頻繁に起こる.表\ref{tab:ex_error1}は冗長語の挿入誤りのために,従来の翻訳処理では翻訳できなかった認識誤り文の例である.正解部分を特定して翻訳することで,「電話番号は」や「五二七」などの翻訳結果を出力することができている.ただし,「九です」は,冗長語「あっ」の挿入のために,他の部分とは独立している2形態素の局所的な部分であるとみなされ,正解部分と特定することができなかった.\subsection{文末表現の誤り}\begin{table}\caption{文末での置換誤りに対する部分翻訳結果例}\label{tab:ex_error2}\center\begin{tabular}{|l|l|}\hline入力文&部屋の予約をお願いしたいんですけれども.\\&(Iwouldliketoreservetheroom.)\\\hline認識結果&部屋の予約をお願いしたい\underline{ねすとも}\\\hline正解部分特定結果&部屋の予約をお願いしたい......\\\hline部分翻訳結果&......wouldliketoreservetheroom\\\hline\end{tabular}\end{table}間接的な表現や丁寧な表現が文末で話されることが頻繁にあり,文末の発声が不明瞭な場合は,この部分で認識誤りが起こることも多い.しかし,これらの表現が聞き取れなくても問題なく文の内容が理解できることも多く,そのような場合には,文末に至るまでの部分のみを翻訳することで,ほぼ意味が理解できる翻訳文を出力することができる.表\ref{tab:ex_error2}は文末での丁寧な表現の部分で音声認識誤りを起こした例である.前半部のみを特定し翻訳することで,意味の理解できる翻訳結果を出力することができている.ただしこの例の場合は,文末表現が人称を決定しているため,主語の「I」を翻訳することはできなかった.\subsection{N個以上の単語からなる不自然な表現への誤り}\begin{table}\caption{大局的にみて不自然な表現に対する部分翻訳結果例}\label{tab:ex_error3}\center\begin{tabular}{|l|l|}\hline入力文&お部屋のご希望はございますか?\\&(Doyouhaveanypreferencefortheroom)\\\hline認識結果&\underline{親子}のご希望はございますか?\\\hline正解部分特定結果&..gokibouwagozaimasuka\\\hline部分翻訳結果&Doyouhaveanypreference..?\\\hline\end{tabular}\end{table}単語N-gramにおけるN個の単語を越えた大局的な範囲で判断した時に,不自然であると思われる認識誤りは,認識時には発見されない.本方法で正解部分を特定することにより,このような誤りを発見できる利点がある.表\ref{tab:ex_error3}は,入力文の「お部屋」を「親子」と誤って認識した例である.しかしこの例では,単語bi-gramで制御されている単語の2連鎖間の関係には不自然さはなく,文頭に「親子」と話すことも,「親子」+「の」の連鎖で話すことも不自然ではない.しかし,「親子」+「の」+「ご希望」の3連鎖でみると,その内容は少し不自然である.本正解部分特定法を用いると,「親子のご希望」の意味的距離値が閾値を越えることから,「親子の」が除去され「ご希望はございますか」のみ翻訳することができる.\subsection{学習データに稀な表現への誤り}\begin{table*}\caption{学習データに稀な表現に対する部分翻訳結果例}\label{tab:ex_error4}\center\begin{tabular}{|l|l|}\hline入力文&鈴木直子と言います\\&(IamNaokoSuzuki)\\\hline認識結果&鈴木直子と\underline{い}ます\\&(IstaywithNaokoSuzuki)\\\hline正解部分特定結果&鈴木直子と....\\\hline部分翻訳結果&....NaokoSuzuki\\\hline\end{tabular}\end{table*}本翻訳システムは用例主導型のアプローチを採用しており,一般に構造的または意味的に曖昧性を含む文が入力されても,既に学習された表現パターン採用することで,その曖昧性を解消することができる.そのために,認識誤りの結果,学習データには存在しないが一般には不自然ではない文に誤ってしまった場合でも,誤ったまま翻訳は行なわず,正解部分を特定して部分的にのみ翻訳することができる.表\ref{tab:ex_error4}は,入力文中の「言い」が「い」と誤認識した例である.しかし,認識結果の「鈴木直子といます」は,一般的には自然な文であり,誤りを判断することは難しい.しかし,本旅行案内タスクの学習データには稀な文であるため,意味距離値が閾値を越えてしまい,「鈴木直子と」の部分のみを翻訳することができた.\subsection{複数文からなる発話文の翻訳}音声認識結果に誤りがなくても,一発話に複数の文が含まれている場合には,従来の翻訳システムでは文の境界を解析できないため,翻訳結果を出力できなかった.本方法を用いることで,各文を独立に翻訳することが可能となるため,結果的には,文境界を検出して各文を翻訳した場合と同じ結果を出力することが可能となる.たとえば一発話として「わかりました,ありがとうございました」と発声した場合,従来の翻訳システムでは,結果を出力できなかったが,本部分翻訳を行なうことで,「Isee,thankyouverymuch」と翻訳することができた.\subsection{正解部分のみを翻訳することによる誤訳}\begin{table*}\caption{文末表現の認識誤りに対する部分翻訳の誤訳例}\label{tab:ex_error5}\center\begin{tabular}{|l|l|}\hline入力文&都合で泊まれなくなった\\&(Ican'tstayforsomereason)\\\hline認識結果&都合で泊まれ__なった\\\hline正解部分特定結果&都合で泊まれ..\\\hline部分翻訳結果&..canstayforsomereason\\\hline\end{tabular}\end{table*}文末での,肯定文か否定文か,あるいは,平叙文か疑問文か,を決定する表現が認識誤りを起こした場合,本方法で特定された部分文のみ翻訳することで,違った意味に解釈される翻訳文を出力してしまうことがある.表\ref{tab:ex_error5}の例は,入力文中の「なく」という否定を表す助動詞が,認識されず欠落してしまった例である.結果的に,「都合で泊まれ」のみが特定され,正しくは,「cannot」と否定文として翻訳されるべきものが,「can」と肯定文となり,逆の意味に翻訳されてしまった.
\section{まとめ}
自由発話文における音声認識誤り文を解析するために,予め学習された話し言葉の表現パターンと入力文における表現パターンとの意味的類似性を用いて,認識結果文から正しく認識された部分を特定する手法を提案した.さらに,本正解部分特定機能を音声翻訳システムに導入し,音声認識結果の正解部分のみを部分翻訳するシステムを構築した.本正解部分特定率の評価は,本方法が特定した部分の96\%が実際に正解部分であり,高い信頼度で正解部分を特定できることを示していた.また,本正解部分特定法が文の意味の理解に及ぼす効果を評価した.認識結果から特定された部分のみを提示することは,誤りを含んだ認識結果をそのまま提示するよりも誤った意味に理解してしまう割合を半分以上軽減する効果があった.さらに,特定した正解部分のみを部分翻訳することで,従来翻訳できなかった誤り文の約7割に対して,正しいか部分的にも正しい意味が理解できる翻訳文を出力できる効果が示された.このことは,音声認識誤り文に対して誤り部分を全て修復しなくても,必要な部分のみの修復,場合によっては修復を行なわなくても,意味の通じる音声翻訳が可能であることを示唆している.今後は,音声認識誤り文に対する高品質な翻訳をめざして,十分に意味が理解できなかったり,誤った翻訳結果を出力した翻訳結果に対して,特定できなかった部分の修復対策を検討する予定である.\begin{thebibliography}{}\bibitem[]{}Bahl,L.R.,Jelinek,F.,andMercer,R.L.(1983).``AMaximumLikelihoodApproachtoContinuousSpeechRecognition,''{\itIEEETrans.onPatternAnalysisandMachineIntelligence},179-199.\bibitem[]{}Furuse,O.andIida,H.(1996c).``IncrementalTranslationUtilizingConstituentBoundaryPatterns''{\itproc.ofCOLING'96},412-417.\bibitem[]{}古瀬蔵,隅田英一郎,飯田仁(1994a).``経験的知識を活用する変換主導型機械翻訳''情報処理学会論文誌,Vol.35(3),414-425.\bibitem[]{}Lavie,A.,Gates,D.,Gavalda,M.,Mayfield,L.,Waibel,A.andLevin,L.(1996a).``MultilingualTranslationofSpontaneouslySpokenLanguageinaLimitedDomain''.{\itProc.of16thICCL},442-447.\bibitem[]{}Mellish,C.S.(1989).``Somechart-basedtechniquesforparsingill-formedinput.''{\itproc.oftheAnnualMeetingoftheACL},102-109.\bibitem[]{}Morimoto,T.,etal.(1994c).``ASpeechandlanguagedatabaseforspeechtranslationresearch''{\itProc.ofICSLP'94},1791-1794.\bibitem[]{}Saitou,H.andTomita,M.(1988).``Parsingnoisysentences,''{\itproc.ofCOLING'88},561-566.\bibitem[]{}Shimizu,T.,Yamamoto,H.,Masataki,H.,Matsunaga,S.andSagisaka,Y.(1996d).``Spon\-taneousDialogueSpeechRecognitionusingCross-wordContextConstrainedWordGraphs''{\itproc.ofICASSP'96},145-148.``\bibitem[]{}隅田英一郎,古瀬蔵,飯田仁(1994b).``英語前置詞句係り先の用例主導あいまい性解消''電子通信学会論文誌D-II,Vol.J77-D-II(3),557-565.\bibitem[]{}竹沢寿幸,森元逞(1996b).``部分木に基づく構文規則と前終端記号バイグラムを併用する対話音声認識手法''電子通信学会論文誌D-II,Vol.J79-D-II(12),2078-2085.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{脇田由実(非会員)}{1982年,九州芸術工科大学音響設計学科卒業.同年,松下電器(株)入社.松下電器音響研究所,中央研究所を経て94年より,(株)エイ・ティ・アール音声翻訳通信研究所に出向.音声認識処理,音声翻訳処理の研究に従事.98年より,松下電器(株)中央研究所に戻り,現在,音声言語処理関連の研究開発に従事.日本音響学会,電子通信学会,各会員.}\bioauthor{飯田仁(正会員)}{1972年,早稲田大学理工学部数学科卒業.74年同大学院修士課程(数学専攻)修了.同年.日本電信電話公社武蔵野電気通信研究所入社.日本電信電話株式会社基礎研究所を経て86年よりエイ・ティ・アール自動翻訳電話研究所に出向.同研究所終了に伴い93年よりエイ・ティ・アール音声翻訳通信研究所に再出向.現在,音声対話の理解・翻訳の研究に従事.95年度科学技術庁長官賞受賞.96年度科学技術情報センター賞受賞.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,日本認知科学会,ACL各会員.}\bioauthor{河井淳(非会員)}{1991年,大阪市立大学理学部物理学科卒業.同年,(株)東洋情報システム入社.93年より,(株)ATR音声翻訳通信研究所に出向.3年半の出向期間を終え,現在は(株)東洋情報システムに勤務.自然言語処理,音声認識処理関連の研究開発に従事.現在,機械翻訳システムの開発などに従事.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.