id
stringlengths
9
9
text
stringlengths
10.2k
92.7k
title
stringclasses
1 value
V14N04-02
\section{はじめに} 技術のグローバル化が進み,特許情報とその翻訳の重要性が広く認識されてきている.日米欧の特許庁では,情報共有,審査の迅速化の観点から,特許文書の相互利用を目指して三極間の協力が推し進められている.国内においても,人手による翻訳で公開特許公報の英文抄録(PAJ:PatentAbstractsofJapan)が作成されているほか,高度産業財産ネットワーク(AIPN:AdvancedIndustrialPropertyNetwork)が開発され,海外の特許庁において包袋書類(出願人が日本国特許庁に提出した明細書等の書類,及び,拒絶理由通知書等の特許出願の審査に係る書類等)が機械翻訳で英訳された形で提供されるようになった.特許は高度に専門的な文書で,新語や専門用語が多く含まれ,かつ,その内容が多岐にわたっている.「翻訳」という観点から見た場合,特許の文章には以下のような特徴がある.\begin{itemize}\item文が長い\\一般に特許文は,文章が長くなる傾向がある.例えば,遺伝子分野(IPC:C12N)の2004年出願の全データ11,781件から抄録部分の形態素数を集計したところ,日本語では一文が平均57形態素(105文字),英語では平均44形態素であった.日本語における読みやすい文の長さの目安がおよそ50文字以内といわれていることからも,特許の文が長くて理解しにくいものであることが分かる.文の長さとも関連して,特許文では並列構造が多く,係り受け関係が複雑であるという特徴もある.\item専門用語が多い\\特許では分野が細分化されており,分野ごとに多くの新語や専門用語が出現する.これらの語は,分野によって概念が違っていたり,単語の組み合わせで個々の単語とはまったく異なる概念を表したりすることがある.また,専門性の高い用語の中には用語辞書や対訳辞書に登録されていないものも多い.\end{itemize}このような特徴を持つ文書を翻訳するには,人手であれ,機械であれ,分野に特化した専門用語の対訳辞書が不可欠である.特に,機械翻訳などの言語処理においては,未知語や専門用語を正確に認識することが,翻訳品質だけでなく,構文解析の曖昧性解消や翻訳速度の向上にも大きく寄与することがわかっている\cite{Shimohata05}.しかしながら,専門性が高くなればなるほど,市販の辞書を入手することは困難になる.また,人手で辞書を構築する場合にも膨大な時間とコストがかかってしまう.一方で,特許にはIPC(InternationalPatentClassification)と呼ばれる体系的な分類コードが付与された大量な文書の蓄積がある.またその一部には,PAJや外国出願特許のように,翻訳されたテキストが存在する.そこで我々は,特許コーパスを用いて,専門用語およびその対訳を自動的に抽出することが可能であると考えた.ここで,本論文で用いる言葉の定義をする.本論文では,言語学的な単位として,1つの形態素からなる語を単語,複数の形態素からなる語を単語列と呼ぶ.また,術語学的な単位として,特定の分野においてある概念を表す単語及び単語列を専門用語,あるいは単に用語と呼ぶ. \section{コーパスを利用した対訳辞書構築の要素技術} コーパスから専門用語の対訳辞書を構築するには,2つのフェーズがある.第1フェーズは単言語コーパスから専門用語を抽出するフェーズ,第2フェーズは抽出された2言語の専門用語を対応付けるフェーズである.以下では,それぞれのフェーズについて,従来技術を説明する.\subsection{専門用語の抽出}コーパスから専門用語を抽出する場合には,コーパス中に出現する用語候補を切り出し,その用語候補の言語単位としての妥当性(ユニット性)と分野における専門性(ターム性)を測定して専門用語と認められるかどうかを判定する方法が一般的である.用語候補は,基本的に単語N-gramである\footnote{日本語や中国語のように単語境界のない言語では,文字N-gramを用いる場合もある.}.ただし,単語N-gramを単純に頻度順に抽出するだけでは断片的な単語列が多数含まれるので,いかにユニット性とターム性を計測し,不要な単語列を抑制するかが重要になる.\cite{Shimohata97}は,隣接する単語のばらつきの度合いによって単語列のユニット性を測る手法を提案した.\cite{Ananiadou94},\cite{Frantzi_and_Ananiadou99}は入れ子構造を持つコロケーションからユニット性の高い要素に高いスコアをつけるC-valueと呼ばれる手法を提案している.また,\cite{Nakagawa03}は,名詞のbigramから得られる統計量を利用して,複合名詞のスコア付けを行なう方法を提案している.その他にも,形態素解析や構文解析を行って,特定の構成要素をもつ単語列(例えば名詞句)を抽出するという方法が考えられる.いずれの手法においても,専門用語としての妥当性を数値化することは難しく,専門用語の抽出は各手法の指標に基づいてスコア付けした用語候補から,対象となるコーパスの量や獲得語数の条件などに応じて行うのが一般的である.また,\cite{Ananiadou94},\cite{Frantzi_and_Ananiadou99},\cite{Nakagawa03}の手法では,複合語,特に複合名詞を対象としており,名詞以外の語句や1語からなる専門用語の抽出は行わない.\subsection{専門用語の訳語推定}2言語のコーパスから対訳辞書を抽出する研究は,大きく2つに分類される.1つは,パラレルコーパスを用いる方法,もう1つはコンパラブルコーパスを用いる方法である\footnote{ここでパラレルコーパスとは文単位で対応づけられた対訳テキストの集合を,コンパラブルコーパスとは文書単位で内容が類似した対訳テキストの集合を指す.}.パラレルコーパスを用いる方法では,基本的に1対1の文対応を前提にしており,対応する行における単語および単語列の同時出現確率の対数尤度を利用する.2言語間で候補語どうしの同時出現確率を計算し,その値が高いものを翻訳対として抽出する方法が一般的に行われている(\cite{Kupiec93};\cite{Dagan_and_Church94};\cite{Smadja93};\cite{Kitamura_and_Matsumoto04}).これらの方法では,80\%〜90\%の高い精度を達成しているが,1対1の文対応がついたコーパスは非常に少なく,現実には類似度の高いコーパスに段落対段落レベルの粗い対応付けを利用したり,文対応付け手法(\cite{Gale_and_Church93};\cite{Utiyama_and_Isahara03})を用いて擬似的に文対応をつけたりする処理が必要である.それに対して,コンパラブルコーパスは比較的容易に入手可能である.コンパラブルコーパスの場合には,パラレルコーパスのように単語の同時出現確率を直接測ることができないので,既知の単語対を介して,対象とする2言語の候補語における共起語ベクトルの類似度を計算し,類似度の高い用語対を対訳として抽出する(\cite{Fung_and_McKeown97};\cite{Fung_and_Yee98};\cite{Rapp99}).\cite{Rapp99}は,2言語のテキストで出現する単語の共起マトリックスを作成し,その類似度を最大化する方法を提案した.英独の基本的な語による実験では,訳語候補を辞書登録語に限定し,1位正解率72\%,10位以内正解率89\%を得ている.また,\cite{Fung_and_McKeown97}は,既に対応づけられた対訳語(seedwordと呼ぶ)のリストを用いて,各言語における未知語とseedwordlistの単語とのコーパス中での共起を調べ,その共起ベクトルの類似度を測って,類似度の高い単語ペアを対訳語として抽出する方法を提案した.日英経済紙による実験では,訳語候補の1位正解率約30\%,20位以内正解率76\%を得ている.また,\cite{Fung_and_Yee98}では,seedwordに重みづけをすることで\cite{Fung_and_McKeown97}の対応付け精度を改良している.さらに最近では,Webから得られた文書を用いて訳語推定を行なう研究も提案されている(\cite{Utsuro05}\cite{Cao_and_Li02}).\cite{Utsuro05}は言語横断検索によって対応付けられた日英関連記事からパラレルコーパスの手法,および,コンパラブルコーパスの手法によって訳語対応を推定している.また,\cite{Cao_and_Li02}では基本語対訳時書中の訳語の組み合わせを訳語候補としてWebを検索し,訳語対応を推定している.コンパラブルコーパスを用いる手法は,パラレルコーパスを用いる手法に比べて訳語推定の精度が低い.また実験も小規模で,実用化を想定した設定になっていないことが多い.精度が低い原因は対象となるコーパスの性質によるものが大きいが,類似度を測るベクトルの要素が,用語の文脈を特徴付けられていないことも重要な問題である.本論文では,特許文書を対象に,コンパラブルコーパスの手法を用いて専門用語の対訳を抽出する.特許文書は文が長く,多数の専門用語が含まれているという特徴がある.この特徴を利用して,両言語コーパスに頻出し,かつ,その出現傾向が類似する専門用語をseedwordとすることにより,コンパラブルコーパスにおける語訳対応付けの精度向上を目指す.コンパラブルコーパスの手法を採用する理由は,柔軟性が高く,あらゆる対応度の対訳コーパスに適用可能だからである.特許文書は,PAJのようにほぼ1対1の対訳があるものから,国内出願と外国出願した特許のように文書単位の対訳があるもの,単言語でしか存在しないものまで様々である\footnote{PAJは,基本的にはアブストラクト単位の対訳であるが,文レベルで対応しているものも多い.構成文数を見ると,遺伝子分野のPAJ1年分11,781件中,両言語で文数が一致しているものは4,608件(39.1\%),一致していないものが7,173件(60.9\%)であった.}.対応度の高い対訳コーパスについては,文対応付け手法によって擬似的にパラレルコーパスを作成し,パラレルコーパスの手法を適用することも可能であるが,PAJ以外の特許文書については文レベルの対応をとることは現実的ではない.それに対して,コンパラブルコーパスの手法は,文対応を考慮しなければパラレルコーパスに対しても適用することが可能である.以下,第3章では提案手法の詳細について説明し,第4章以降では提案手法に基づいて行なった実験の結果について報告する.さらに,提案手法とパラレルコーパスを用いる手法や他のコンパラブルコーパスを用いる手法との比較も行なう. \section{アルゴリズム} 本論文の専門用語およびその対訳の獲得プロセスを図1に示す.本手法は,1.専門用語の抽出,2.seedwordリストの作成,3.seedwordを用いた専門用語の訳語推定という3つのステップから構成される.第1のステップでは,日英特許コーパスより専門用語を抽出し,第2のステップでは,日英特許コーパスと対訳辞書を使ってseedwordリストを作成する.そして第3のステップでは,抽出された専門用語とseedwordリストとの共起ベクトルを求め,共起ベクトルの類似度の高い用語どうしを対訳として抽出する.以下では,それぞれのステップについて順に説明していく.\begin{figure}[t]\label{fig:outline}\begin{center}\includegraphics{14-4ia2f1.eps}\caption{専門用語および対訳獲得のプロセス}\end{center}\end{figure}\subsection{専門用語の抽出}\label{sec:extractTerm}専門用語候補の抽出には,隣接文字(単語)の分散の度合いに基づく専門用語抽出手法\cite{Shimohata97}を用いる.この手法は,「文字列(単語列)が意味のあるまとまりである場合,その前後には様々な文字(単語)が出現する」という考えに基づき,隣接文字の分散の度合いによって単語列のユニット性を測るものである.ただし,この手法では単語列の専門性の高さは考慮していないので,上記手法による抽出結果の頻度および$\mathit{tf}\bullet\mathit{idf}$を求め,各単語列のターム性を計測する.具体的な手順は以下の通りである.\begin{enumerate}\itemコーパスを形態素解析し,句読点を含まない,単語列の最初と最後が自立語であるなどの条件の下で,n-gram単語列$T_{l}=\{t_{1},t_{2},...t_{n}\}$を抽出する.\item$t_{i}$の前に出現する単語群$W^{i}_{L}=\{w^{i}_{1},w^{i}_{2},…w^{i}_{m}\}$から,$t_{i}$の前に出現する単語のばらつきの度合$H(t_{i},W^{i}_{L})$を求める.ここで,$\mathit{freq}(t_{i})$は単語列$t_{i}$の出現する回数,$\mathit{freq}(t_{i},w^{i}_{j})$は単語列$t_{i}$と単語$w^{i}_{j}$が連続して出現する回数である.\begin{gather}H(t_{i},W^{i}_{L})=-\sum^{m}_{j=1}P(t_{i},w^{i}_{j})\bullet\logP(t_{i},w^{i}_{j})\\P(t_{i},w^{i}_{j})=\frac{\mathit{freq}(t_{i},w^{i}_{j})}{\mathit{freq}(t_{i})}\end{gather}\item(2)と同様に,$t_{i}$の後ろに出現する単語群$W^{i}_{R}=\{w^{i}_{1},w^{i}_{2},…w^{i}_{m}\}$から,$t_{i}$の後ろに出現する単語のばらつきの度合$H(t_{i},W^{i}_{R})$を求める.\item$\mathit{tf}\bullet\mathit{idf}(t_{i})$によって$t_{i}$のターム性を求める.\begin{gather}\mathit{tf}\bullet\mathit{idf}(t_{i})=\mathit{freq}(t_{i})\bullet\log(\frac{N}{\mathit{df}(t_{i})})\\N=全文書数\nonumber\\\mathit{df}(t_{i})=t_{i}が出現する文書数\nonumber\end{gather}\item(2)〜(4)で得られた$H(t_{i},W^{i}_{L})$,$H(t_{i},W^{i}_{R})$,$tf\bullet\mathit{idf}(t_{i})$,および,$\mathit{freq}(t_{i})$が,それぞれ,閾値$\mathit{varMin}$,$\mathit{tfidfMin}$,$\mathit{freqMin}$を超える単語列$t_{i}$を専門用語として抽出する.\pagebreak\begin{gather*}H(t_{i},W^{i}_{L})\geq\mathit{varMin}\\H(t_{i},W^{i}_{R})\geq\mathit{varMin}\\\mathit{tf}\bullet\mathit{idf}(t_{i})\geq\mathit{tfidfMin}\\\mathit{freq}(t_{i})\geq\mathit{freqMin}\end{gather*}\end{enumerate}\subsection{seedwordリストの作成}\label{sec-SeedWord}\cite{Fung_and_McKeown97}では,「文書Tにおいて用語Aと用語Bの関連度が高い場合,別の言語の文書T$'$において用語Aの訳語であるA$'$と用語Bの訳語であるB$'$も関連度が高い」という仮説に基づき,seedwordリストと呼ばれる既知の翻訳対と,対応付け候補の各用語との対象コーパスにおける関連度を測り,関連度の高い用語どうしを対応付けている.ここで,用語の関連度とは,一定の範囲内(例えば,文,パラグラフなど)における出現文脈の類似度である.つまり,単言語コーパス内でのseedwordリストの単語と用語との共起を調べ,2言語間で各用語の共起パターンの類似度を測って,類似度の高いものを翻訳対として抽出する.seedwordには,対象コーパスに一定回数以上出現する辞書登録語で,かつ一対一に対応のつく翻訳対を用いている.提案手法も上記の手法を踏襲するが,seedword獲得時にも翻訳対獲得時と同様にseedword候補語どうしの共起を調べ,出現文脈が類似している翻訳対のみをseedwordとして採用する.つまり,対象コーパスにおいて有効なseedwordのみを利用することにより,候補語の対応付けにおける精度の向上を計る.具体的な,seedwordリスト作成プロセスは以下の通りである.\begin{enumerate}\item言語$J$と$E$の対訳辞書$D_{\mathit{JE}}$より,コーパス$C_{J}$および$C_{E}$に出現頻度の閾値$\mathit{freqMin}$を超えて出現する辞書登録語の集合$D_{\mathit{JE}}=\{\langled^{J}_{i},d^{E}_{i}|\mathit{freq}(d^{J}_{i})\geq\mathit{fregMin};\mathit{freq}(d^{E}_{i})\geq\mathit{freqMin}\rangle\}$を抽出する.ここで$C_{L}$は言語$L$のコーパスを,$d^{L_{1}}_{i}$は$D_{L_{1},L_{2}}$における言語$L_{1}$の$i$番目の単語を表す.また,$d^{L2}_{i}$は$d^{L1}_{i}$と対訳関係にある言語$L_{2}$の単語である.\item言語$L$の$i$番目の単語$d^{L}_{i}$に対して,$d^{L}_{i}$と$\{d^{L}_{1},d^{L}_{2},...d^{L}_{n}\}$との,コーパスにおける一定の範囲内(例えば,一定語数内,一文内,パラグラフ内など)での共起頻度の列ベクトル$\mathit{Cmat}(d^{L}_{i}\equiv[c(d^{L}_{i},d^{L}_{1}),c(d^{L}_{i},d^{L}_{2}),...c(d^{L}_{i},d^{L}_{n})]^{T})$を求める.$c(x,y)$は,単語$x$と単語$y$の共起回数である.\item対訳関係にある$d^{J}_{i}$と$d^{E}_{i}$の共起ベクトルの類似度$\mathit{Sim}(d^{J}_{i},d^{E}_{i})$を求め,類似度が閾値を超えるデータの対をseedwordリスト$SW_{\mathit{JE}}$として抽出する.ここで,\[\mathit{SW}_{\mathit{JE}}=\{\langled_{J},d_{E}\rangle|\mathit{Sim}(d^{J}_{i},d^{E}_{i})\geq\mathit{simMin}\}\]とし,類似度$\mathit{Sim}(d^{J}_{i},d^{E}_{i})$は,以下の式によって得る.\pagebreak\begin{equation}\mathit{Sim}(d^{J}_{i},d^{E}_{i})=\sqrt{\sum_{1\leqj\leqn}(\frac{c(d^{J}_{i},d^{J}_{j})}{C_{J}の総文数}-\frac{c(d^{E}_{i},d^{E}_{j})}{C_{E}の総文数})^2}\end{equation}\end{enumerate}\subsection{専門用語の訳語推定}訳語対応づけは,\ref{sec-SeedWord}で述べたseedword作成と同様のプロセスによって行なう.\begin{enumerate}\item両言語のコーパスから抽出された専門用語の集合$T_{J}$および$T_{E}$の各用語$t^{L}_{i}$と,seedwordリスト$\mathit{SW}_{\mathit{JE}}$の各要素$d^{L}_{k}$との各コーパスにおける共起頻度を計数し,共起ベクトル$\mathit{Cmat}(t^{L}_{i})$を作成する.\item$T_{J}$と$T_{E}$のすべての用語の組み合わせにおける共起マトリクスの類似度$\mathit{Sim}(t^{J}_{i},t^{E}_{j})$を求め,類似度の高いデータの対を対訳として抽出する.\end{enumerate} \section{実験と評価} \subsection{実験データ}日英特許抄録(PAJ)および米国特許抄録(USP:UnitedStatesPatents)を用いて,図1に示す専門用語の抽出,seedwordリストの作成,専門用語の訳語推定の実験を行なった.実験に使用したデータは以下の通りである.\begin{itemize}\itemコーパス\begin{tabbing}日本語\=特許抄録\=(C12N:遺伝子分野)\=11,781件\\\>日本語\>38,481文(1,694,362単語)\\\>英語\>35,343文(1,778,663単語)\\米国特\>許抄録\>(C12N:遺伝子分野)\>12,534件\\\>英語\>51,201文(1,259,299単語)\end{tabbing}\item対訳辞書\begin{tabbing}EDICT173,000件\end{tabbing}\item参照用の専門用語対訳辞書\begin{tabbing}Japio辞書(C12N:遺伝子分野)4,789件\end{tabbing}\end{itemize}テストコーパスとして用いるPAJは,遺伝子分野(IPCコード:C12N)の日本語特許抄録およびその翻訳の1年分である.実験では,日本語と英語で記述された「発明の名称」および「要約」を用いた.また,USPについても同様に,遺伝子分野のタイトルと要約1年分を用いた.評価は人手による主観評価および同分野のJapio辞書との比較により行った.Japio辞書は,PAJ作成の補助に用いられている専門用語の対訳辞書で,人手により構築されたものである.実験にPAJの日本語と英語,および,PAJの日本語とUSPの2種類を用いたのは,訳語対応付けの精度が1)コーパスの対応度の違いによってどの程度変化するか,2)対応付け手法の違いによってどの程度違うかを検証するためである.\subsection{専門用語の抽出}\label{sec:experimentTerm}\ref{sec:extractTerm}で示した方法に基づき,対象コーパスから専門用語を抽出した.日本語の形態素解析には茶筌\footnote{http://chasen.naist.jp/hiki/ChaSen/}を,英語の形態素解析にはTreeTagger\footnote{http://www.ims.uni-stuttgart.de/projekte/corplex/TreeTagger/DecisionTreeTagger.html}を用いた.その結果,日本語で61,735件,英語で50,519件の用語が抽出された.抽出された用語の例を表\ref{tab:extractTerm}に示す.日英ともに名詞句が中心で,``aminoacid''のようによく使われる専門用語だけでなく,``acid''や``aminoacidsequence''のように用語の構成要素となる単語や,用語を含む複合語までが幅広く抽出されている.また,今回は品詞によるフィルタリングなどを行わなかったため,名詞句以外の用語,特に動詞を含む専門的な表現も多かった.\begin{table}[t]\input{table1.txt}\end{table}一方で,「本発明」や「該発現」,``comprise'',``related''のように,特許文書にはよく出現するが遺伝子分野の専門用語とはいえない用語も散見された.これらの用語は文書集合全体に出現し,値が高くなることから,抽出が抑制されると予想していたが,対象コーパスにおいて特に高頻出な用語や専門用語との組み合わせで抽出されたものは$\mathit{tf}\bullet\mathit{idf}$値が高くなり,抽出される結果となった.抽出された用語をJapio辞書と照合したところ,日本語で767件,英語で1,096件の重複があった.表\ref{tab:gene}に「遺伝子」を含む抽出結果(抜粋)およびJapio辞書の登録語を示す.「遺伝子」を含む用語は,Japio辞書では19件が登録されているが,抽出結果にはそのうちの7件が含まれていた.抽出されなかった12件の登録語のうち11件はコーパス内での出現がなく,もう1件も出現頻度が2と少なかった.また,この7件より頻度の高い用語は10件,この7件の最低頻度と同じ頻度5の用語は78件が抽出された.これらの用語はいずれも専門性が高く,本手法によって専門用語辞書作成に有効な用語が,頻度の大きさに関わらず網羅的に抽出されることが分かった.次に,パラメータの値を,$\mathit{varMin}=1.0$,$\mathit{tfidfMin}=100$\footnote{ここで,$\mathit{tf}\\mathit{idfMin}$の計算に用いた文書集合はPAJおよびUSPの1年分抄録数である.}かつ$\mathit{freqMin}=100$と設定した場合の用語を抽出し,精度を調べた.$\mathit{varMin}$,$\mathit{tfidfMin}$は,抽出結果を値ごとにソートし,サンプルによる抽出精度が50\%になるポイントを用いた.その結果,日本語1,013件,英語1,034件が抽出され,それぞれ909件(90\%),965件(93\%)の専門用語が含まれていることが分かった.Japio辞書に登録され,かつ,コーパスに100回以上出現した用語は日本語で142件,英語で228件存在するが,提案手法では,そのうち日本語127件,英語192件を抽出することができており,再現率はそれぞれ,84.2\%,89.4\%となった.また,Japio辞書登録の対訳で,日本語,英語とも100回以上コーパスに出現する用語対は74対あるが,そのうち日英両見出しとも抽出されたものは59対(80\%)であった.74対のうち抽出されなかった日本語7件,英語9件を表\ref{tab:notExtracted}に示す.このうち,「疾病」以外の語は,ユニット性は基準値を超えたものの,ターム性において評価値が低く抽出されなかった.「疾病」については,「〜の疾病」という形での出現が多かったため,「疾病」単独でのユニット性が低く,抽出に至らなかった.\begin{table}[p]\input{table2.txt}\par\vspace{\baselineskip}\input{table3.txt}\end{table}\subsection{seedwordリストの作成}\label{sec:experimentSeedWord}実験では,対訳辞書として日英オンライン辞書EDICT\footnote{http://www.csse.monash.edu.au/~jwb/edict.html}を用いた.対象コーパスに100回以上出現する用語対は195組あったが,その中から,見出し語と訳語の類似度$\mathit{Sim}(\mathit{Cmat}(t^{J}_{i}),\mathit{Cmat}(t^{E}_{i}))$が見出し語と訳語以外のすべての用語の類似度より高い値となる129組の用語対を抽出し,seedwordリストを作成した.129組のうち,少なくとも日英いずれかの方向に複数訳語を持つ用語対は111組,両方向に複数訳語を持つ用語対は55組あった.また,反対に,1対1の対応関係にある用語対でも抽出されなかったものが20組あった.表\ref{tab:pluralTranslations}はEDICT中に複数訳語を持つseedwordの例である.これらの用語は複数の訳語候補を持つものの,遺伝子分野においては,ほぼ一意に対応付けられる用語のペアである.提案手法では,このような語を掬い上げ,seedwordとして有効に利用することが可能になる.\begin{table}[b]\input{table4.txt}\end{table}\subsection{日英PAJコーパスを用いた専門用語の訳語推定}\label{sec:experimentPAJ-PAJ}次に,日英PAJコーパスと\ref{sec:experimentTerm},\ref{sec:experimentSeedWord}で得られた用語およびseedwordを用いて,訳語推定実験を行った.対象となる用語は,日英とも専門用語として抽出されたJapio辞書見出し59対を含む日本語1,013件と英語1,034件である.対応付け結果の例を表\ref{tab:alignTerm}に示す.各日本語の候補語に対して,英語の候補語を類似度の順に表示している.太字がJapio辞書における正解訳語である.\begin{table}[t]\input{table5.txt}\end{table}\begin{table}[t]\input{table6.txt}\end{table}日英(JE)および英日(EJ)方向に訳語対応付けを行った結果を表\ref{tab:PAJ-PAJ}に示す.Japio辞書見出し59件に対して3人の翻訳者による評価(HC)\footnote{3人の評価者が個別に評価を行い,3人で一致したものを正解とした.}を行ったところ,第1候補が正解となったものは日英で31件(53\%),英日で39件(66\%)であった.また,10位以内に正解があったものは日英49件(83\%),英日53件(90\%)となった.さらにJapio辞書訳語と比較したところ,HCによる正解訳語がJapio辞書訳語より上位に来たものは,日英12件,英日15件あった.\begin{table}[t]\input{table7.txt}\end{table}\begin{table}[t]\input{table8.txt}\end{table}Japio辞書訳語と翻訳者による評価(HC)で評価が異なった訳語を表\ref{tab:JapioHC_EJ}および表\ref{tab:JapioHC_JE}に示す.Japio辞書訳語,人手評価による正解訳語ともに訳語として妥当であるが,後者の方がコーパスでの使われ方を反映したものになっている.例えば``mammalian''の訳語として,Japio辞書訳語の「哺乳類」が19位で抽出されているのに対して,「哺乳動物」は1位で抽出されているが,テストコーパスでの出現頻度を見ると「哺乳類」141回,「哺乳動物」360回と「哺乳動物」の方が多かった.また,日英の対応付けでは,「付着」``adhere'',「突然変異」``mutate''のように日本語のサ変名詞に対して英語の動詞が対応付けられる例が多かった.これは,日本語では名詞連続が多用されるのに対して英語では文で記述されることが多いという,日英の特性からくるものと考えられる.正しい対応づけができなかった原因は大きく2つに分類される.\begin{enumerate}\item正解訳語と包含関係にある用語が抽出される\item正解訳語の関連語が抽出される\item用語の概念範囲が広く,複数の訳語候補が存在する\end{enumerate}(1)の例としては,「哺乳類」に対して``mammaliancell''が2位に抽出されたケースがある(正解の``mammalian''は207位).今回の実験ではすべての用語を同等に扱ったが,正解訳語と包含関係にある用語の抽出を抑制するためには,用語が部分文字列として出現した場合と単独で出現した場合とでカウント方法を変えるなど,構成要素に着目した評価値を導入する必要がある.また,共通する単語(列)を持つ用語は,訳語どうしも共通する単語(列)を持っていることが多いので,対応付けに有効な情報として利用していきたい.(2)の例としては,「成長」と``hormone'',「発現」と``gene''などがある.反義語や類義語,主語と述語のように,対訳ではないが同じ文脈に頻繁に出現する用語が抽出されている.このような現象は,提案手法が用語とseedwordとの共起の類似度を用いて訳語を推定していることから,必然的に起こりうるものである.しかしながら,対応付ける品詞の組を制限したり,他の用語の訳語推定結果を利用したりすることによって,関連語の抽出をある程度抑制できるのではないかと考えている.(3)の例としては,``template'',``variety'',「適用」「要素」「移動」などがある.これらの用語は,用語が広い概念を持ち,用いられる文脈によって訳語が変化するため,訳語の同定は困難である.こうした用語については日英,英日両方向での訳語対応付けを行い,その結果を総合的に判断するなどの方法を検討したい.\subsection{PAJとUSPを用いた専門用語の訳語推定}\label{sec:experimentPAJ-USP}PAJの日本語抄録と同分野のUSPを用いて,訳語の対応付け実験を行った.まず,4.2と同様の条件でUSPから用語抽出を行ったところ,885件の用語が抽出された.PAJ日本語抄録の1,013件とこの885件の組み合わせで,Japio辞書との重複は58件であった.次に,PAJ,USP両コーパスで専門用語として抽出された58件を含む日本語1,013件と英語885件の対応付けを行った.結果を表\ref{tab:PAJ-USP}に示す.いずれの値も,PAJどうしでの対応付けと比べて精度が低下している.これは,PAJがアブストラクト単位で内容が一致しているコンパラブルコーパスであるのに対して,PAJとUSPでは分野が一致するのみで,用語の出現する文脈の類似度が下がるためである.不正解の原因はPAJどうしの場合と同様であるが,「1.正解訳語と包含関係にある用語が抽出される」に分類されるものがやや多かった.\begin{table}[b]\input{table9.txt}\end{table}\subsection{関連手法との比較}提案手法の妥当性を検証するために,\ref{sec:experimentPAJ-PAJ}および\ref{sec:experimentPAJ-USP}のデータセットに対して,以下の4種類の手法を用いて訳語対応付けの実験を行った.\begin{itemize}\itemSW1:提案手法により獲得されたseedwordを用いる.\itemSW2:SW1のseedwordのうち,上位X件(SW3と同数)を用いる.\itemSW3:\cite{Fung_and_McKeown97}の手法により獲得されたseedwordを用いる.\itemP:PAJの文対応をとり,dice係数を用いて用語ペアの同時出現確率を求める(\cite{Smadja96}).\end{itemize}SW1は提案手法,SW3はコンパラブルコーパスを用いた訳語対応付けの代表的な手法である\cite{Fung_and_McKeown97}の手法である.SW3では,コーパス中に規定回数以上出現する対訳辞書データのうち,日英両方向(あるいは,少なくともどちらか一方向)に一意に決まる用語対のみをseedwordとして抽出していることから,獲得されるseedword数が少なくなる傾向がある.そこで,SW1で獲得されたseedword群からSW3と同数のseedwordを抽出したSW2も加えてseedwordの効果を比較した.また,PAJは比較的対応の取れたコーパスであることから,簡単な文対応付けを行い,パラレルコーパスの手法を用いた用語対応付けも行った(P).今回の実験では,SW3で獲得されたseedword数はPAJどうしで38対,PAJとUSPでは33対となった.38対のseedwordを比較したところ,SW2とSW3の重なりは13件にとどまり,SW3では複合語が多いことが分かった.例えばSW2ではともに複数訳語を持つ``cancer''--\linebreak[4]「癌」{\kern-0.5zw}\footnote{EDICTでは``cancer''には「癌」のほかに「蟹座」「キャンサー」の訳があり,「癌」には``cancer''のほかに``curse''の訳がある.}が抽出されるのに対して,SW3では日英両方向に曖昧性のない``cancercell''--{\kern-0.5zw}「癌細胞」が抽出される.しかしながら,特許のように分野が細分化されている場合,辞書では複数訳語が存在しても,特定の分野では一意に訳語が決定できる場合が少なくない.実際に,遺伝子分野のコーパスで``cancer''を「癌」以外に訳すことはまれであり,結果として``cancer''--{\kern-0.5zw}「癌」は``cancercell''--{\kern-0.5zw}「癌細胞」と同様に曖昧性がなく,かつ``cancercell''--{\kern-0.5zw}「癌細胞」よりも出現数が多いseedwordであるということになる.\begin{table}[b]\input{table10.txt}\end{table}\begin{table}[b]\input{table11.txt}\vspace{-1\baselineskip}\end{table}PAJどうしでの対応付けの結果を表\ref{tab:compPAJ-PAJ}に,PAJ日本語とUSPでの対応付けの結果を表\ref{tab:compPAJ-USP}に示す.どちらの場合も,第1候補の正解率はSW1が最も高く,ついで,SW2,SW3となった.第10候補までの正解率も同様である.以上のことから,対象コーパスでの振る舞いによってseedwordを選択することは訳語の抽出精度に効果があることが確認できた.それに対してSW1とPとの比較ではPの正解率が高く,PAJのように対応度の高いコーパスではパラレルコーパスの手法が有効であることが分かった.提案手法においても第10候補内に83〜90%の正解訳語を含んでいることから,人間の辞書作成を支援するツールとしては十分に効果があると考えるが,実際の辞書構築では,コーパスの対応度に応じて適用する手法を選択していくことが重要であろう. \section{まとめ} 本論文では,日英特許コーパスから専門用語を抽出し,訳語を推定する方法を提案した.提案手法の専門用語の抽出は,隣接文字(単語)の分散によって単語列のユニット性を,$\mathit{tf}\bullet\mathit{idf}$によってターム性を数値化し,評価値の高い単語列を専門用語として抽出する.専門用語の訳語対応付けは,seedwordと専門用語との単言語内での共起ベクトルを作成し,共起ベクトルの類似度が高い用語どうしを対応付ける.seedwordに両言語のコーパスにおける出現傾向が類似している用語対だけを利用することにより,類似性評価の信頼性を高めている点が特徴である.遺伝子分野の特許抄録1年分を用いた実験では,一連の対訳辞書作成プロセスにおいて提案手法が有効であることを示した.一方で,今回の実験では頻度100以上の用語を対象としたが,実際に翻訳などの処理に十分な量の対訳辞書を作成するには,さらに低頻度の用語にまで対象を拡げていく必要がある.専門用語抽出においては,低頻度の用語であっても抽出可能であることが確認されたが,訳語対応付けでは,seedwordとの共起ベクトルを作成することから,ある程度の出現頻度がなければ実用的な推定精度を出すことは難しい.抽出対象の拡大に際しては,精度低下を最小限に抑える工夫が必要になる.具体的には,高頻度の用語どうしの対応付けにより抽出された用語対を対訳辞書に追加し,そこから再帰的にseedwordを獲得して,出現頻度の閾値を段階的に下げた用語に対して訳語対応付けを行っていく方法が考えられる.訳語対応付けの場合,順位付けられた訳語候補の中から人間が適切な訳語を選択することになるので,このような方法でも辞書作成の効率化には十分効果があると考えている.さらに,特許のように新しい文書が次から次へと蓄積されていく分野では,元になるテキストに一定期間蓄積したテキストを随時追加し,用語抽出,および,対応付けを繰り返し行うことにより,次々に出現する新語や1年分のテキストでは抽出対象とならなかった用語を獲得することが可能になる.今後は,専門用語抽出及び訳語対応付けの精度向上を図るとともに,1)専門用語対訳辞書の増強,2)seedwordの品質向上,3)訳語対応付け精度向上,というサイクルを確立し,本格的な専門用語対訳辞書の構築支援に取り組んでいきたい.\acknowledgment本研究を進めるにあたり,データをご提供頂いた財団法人日本特許情報機構(Japio)殿,有益な議論をして頂いたアジア太平洋翻訳協会AAMT/Japio研究会のメンバー,情報通信機構(NICT)けいはんな情報通信融合研究センター自然言語グループのメンバーに感謝する.また,本研究は情報通信機構(NICT)平成14年度基板技術研究促進制度に係る研究開発課題「多言語標準文書処理システムの研究開発」の一環として行なわれたものである.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ananiadou}{Ananiadou}{1994}]{Ananiadou94}Ananiadou,S.\BBOP1994\BBCP.\newblock\BBOQAMethodologyforAutomaticTermRecognition\BBCQ\\newblockIn{\BemProceedingsofthe15thInternationalConferenceonComputationalLinguistics(COLING94)}.\bibitem[\protect\BCAY{Cao\BBA\Li}{Cao\BBA\Li}{2002}]{Cao_and_Li02}Cao,Y.\BBACOMMA\\BBA\Li,H.\BBOP2002\BBCP.\newblock\BBOQBaseNounPhraseTranslationUsingWebDataandtheEMAlgorithm\BBCQ\\newblockIn{\BemProceedingsofthe19thCOLING}.\bibitem[\protect\BCAY{Dagan\BBA\Church}{Dagan\BBA\Church}{1994}]{Dagan_and_Church94}Dagan,I.\BBACOMMA\\BBA\Church,K.~W.\BBOP1994\BBCP.\newblock\BBOQTermight:IdentifyingandTranslatingTechnicalTerminology\BBCQ\\newblockIn{\BemProceedingsofthe4thConferenceonAppliedNaturalLanguageProcessing}.\bibitem[\protect\BCAY{Frantzi\BBA\Ananiadou}{Frantzi\BBA\Ananiadou}{1999}]{Frantzi_and_Ananiadou99}Frantzi,K.\BBACOMMA\\BBA\Ananiadou,S.\BBOP1999\BBCP.\newblock\BBOQTheC-value/NC-valueMethodforATR\BBCQ\\newblock{\BemJournalofNLP},{\Bbf6}(3),\mbox{\BPGS\145--179}.\bibitem[\protect\BCAY{Fung\BBA\McKeown}{Fung\BBA\McKeown}{1997}]{Fung_and_McKeown97}Fung,P.\BBACOMMA\\BBA\McKeown,K.\BBOP1997\BBCP.\newblock\BBOQFindingTerminologyTranslationsfromNon-parallelCorpora\BBCQ\\newblockIn{\BemProceedingsoftheFifthWorkshoponVeryLargeCorpora}.\bibitem[\protect\BCAY{Fung\BBA\Yee}{Fung\BBA\Yee}{1998}]{Fung_and_Yee98}Fung,P.\BBACOMMA\\BBA\Yee,L.~Y.\BBOP1998\BBCP.\newblock\BBOQAnIRApproachforTranslatingNewWordsfromNonparallel,ComparableTexts\BBCQ\\newblockIn{\BemProceedingsofthe36thconferenceonAssociationforComputationalLinguistics}.\bibitem[\protect\BCAY{Gale\BBA\Church}{Gale\BBA\Church}{1993}]{Gale_and_Church93}Gale,W.~A.\BBACOMMA\\BBA\Church,K.~W.\BBOP1993\BBCP.\newblock\BBOQAProgramforAligningSentencesinBilingualCorpora\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(1),\mbox{\BPGS\75--102}.\bibitem[\protect\BCAY{Kitamura\BBA\Matsumoto}{Kitamura\BBA\Matsumoto}{2004}]{Kitamura_and_Matsumoto04}Kitamura,M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQPracticalTranslationPatternAcquisitionfromCombinedLanguageResources\BBCQ\\newblockIn{\BemProceedingsofTheFirstInternationalJointConferenceonNaturalLanguageProcessing}.\bibitem[\protect\BCAY{Kupiec}{Kupiec}{1993}]{Kupiec93}Kupiec,J.\BBOP1993\BBCP.\newblock\BBOQAnAlgorithmforFindingNounPhraseCorrespondencesinBilingualCorpora\BBCQ\\newblockIn{\Bemproceedingsofthe31stAnnualConferenceoftheAssociationforComputationalLinguistics}.\bibitem[\protect\BCAY{Rapp}{Rapp}{1999}]{Rapp99}Rapp,R.\BBOP1999\BBCP.\newblock\BBOQAutomaticIdentificationofWordTranslationsfromUnrelatedEnglishandGermanCorpora\BBCQ\\newblockIn{\BemProceedingsof37thAnnualMeetingoftheAssociationforComputationalLinguistics}.\bibitem[\protect\BCAY{Shimohata,Sugio,\BBA\Nagata}{Shimohataet~al.}{1997}]{Shimohata97}Shimohata,S.,Sugio,T.,\BBA\Nagata,J.\BBOP1997\BBCP.\newblock\BBOQRetrievingCollocationsbyCo-occurrencesandWordOrderConstraints\BBCQ\\newblockIn{\BemProceedingsof35thAnnualMeetingoftheAssociationforComputationalLinguistics}.\bibitem[\protect\BCAY{Smadja}{Smadja}{1993}]{Smadja93}Smadja,F.\BBOP1993\BBCP.\newblock\BBOQRetrievingCollocationsfromText:Xtract\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(1),\mbox{\BPGS\143--177}.\bibitem[\protect\BCAY{Smadja\BBA\Hatzivassiloglou}{Smadja\BBA\Hatzivassiloglou}{1996}]{Smadja96}Smadja,F.\BBACOMMA\\BBA\Hatzivassiloglou,V.\BBOP1996\BBCP.\newblock\BBOQTranslatingCollocationsforBilingualLexicons:AStatisticalApproach\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf22}(1),\mbox{\BPGS\1--38}.\bibitem[\protect\BCAY{Utiyama\BBA\Isahara}{Utiyama\BBA\Isahara}{2003}]{Utiyama_and_Isahara03}Utiyama,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2003\BBCP.\newblock\BBOQReliableMeasuresforAligningJapanese-EnglishNewsArticlesandSentences\BBCQ\\newblockIn{\BemProceedingsof41stAnnualMeetingoftheAssociationforComputationalLinguistics}.\bibitem[\protect\BCAY{下畑}{下畑}{2005}]{Shimohata05}下畑さより\BBOP2005\BBCP.\newblock\JBOQ特許翻訳における専門用語辞書構築\JBCQ\\newblock\Jem{言語処理学会第11回年次大会論文集}.\bibitem[\protect\BCAY{宇津呂\Jetal}{宇津呂\Jetal}{2005}]{Utsuro05}宇津呂武仁\Jetal\BBOP2005\BBCP.\newblock\JBOQ日英関連報道記事を用いた訳語対応推定\JBCQ\\newblock\Jem{言語処理学会論文誌},{\Bbf12}(5),\mbox{\BPGS\43--69}.\bibitem[\protect\BCAY{中川\JBA湯本\JBA森}{中川\Jetal}{2003}]{Nakagawa03}中川裕志\JBA湯本紘彰\JBA森辰則\BBOP2003\BBCP.\newblock\JBOQ出現頻度と連接頻度に基づく専門用語抽出\JBCQ\\newblock\Jem{言語処理学会論文誌},{\Bbf10}(1),\mbox{\BPGS\27--45}.\end{thebibliography}\begin{biography}\bioauthor{下畑さより}{1988年同志社大学文学部英文学科卒業.2007年3月神戸大学大学院自然科学研究課博士後期過程単位取得後満期退学.現在,沖電気工業株式会社ユビキタスサービスプラットフォームカンパニー所属.機械翻訳を中心とする自然言語処理の研究開発に従事.言語処理学会,情報処理学会,人工知能学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部卒業,1980年同大学院修士課程終了.同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.現在,独立行政法人情報通信研究機構(旧通信総合研究所)けいはんな情報通信融合研究センター自然言語処理グループリーダー.博士(工学).自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,日本認知科学会,各会員.}\end{biography}\biodate\end{document}
V09N03-04
\section{はじめに} \label{sec:introduction}自然言語解析では,形態素解析,構文解析,意味解析,文脈解析などの一連の処理を通して,入力テキストを目的に応じた構造に変換する.これらの処理のうち,形態素・構文解析は一定の成果を収めている.また,意味解析に関しても言語資源が整ってきており,多義性解消などの研究が活発に行なわれている\cite{kilgarriff98}.しかし,文脈解析は依然として未解決の問題が多い.文脈解析の課題の一つに,代名詞などの{\bf照応詞}に対する指示対象を特定する処理がある.自然言語では,自明の対象への言及や冗長な繰り返しを避けるために照応表現が用いられる.日本語では,聞き手や読み手が容易に推測できる対象(主語など)は,代名詞すら使用されず頻繁に省略される.このような省略のうち,格要素の省略を{\bfゼロ代名詞}と呼ぶ.そして,(ゼロ)代名詞が照応する実体や対象を特定する処理を{\bf照応解析}と呼ぶ.照応解析は,文間の結束性や談話構造を解析する上で重要であり,また自然言語処理の応用分野は照応解析によって処理の高度化が期待できる.例えば,日英機械翻訳の場合,日本語では主語が頻繁に省略されるのに対し,英語では主語の訳出が必須であるため,照応解析によってゼロ代名詞を適切に補完しなければならない\cite{naka93}.照応詞の指示対象は文脈内に存在する場合とそうでない場合があり,それぞれを{\bf文脈照応}(endophora),{\bf外界照応}(exophora)と呼ぶ.外界照応の解析には,話者の推定や周囲の状況の把握,常識による推論などが必要となる.文脈照応は,照応詞と指示対象の文章内における位置関係によって,さらに二つに分けられる.指示対象が照応詞に先行する場合を{\bf前方照応}(anaphora),照応詞が指示対象に先行する場合を{\bf後方照応}(cataphora)と呼ぶ.以上の分類を図~\ref{fig:ana_kinds}にまとめる\cite{halliday76}.ただしanaphoraはendophoraと同義的に用いられることもある.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/class-anaphora.eps,scale=1.0}\caption{照応の分類}\label{fig:ana_kinds}\end{center}\end{figure}照応解析に関する先行研究の多くは前方照応を対象にしている.これらは人手規則に基づく手法と統計的手法に大別できる.人手規則に基づく手法は,照応詞と指示対象候補の性・数の一致や文法的役割などに着目した規則を人手で作成し,照応解析に利用する\cite{bren87,hobbs78,kame86,mitk98,okum96,stru96,walk94,naka93,mura97}.これらの手法では,人間の内省に基づいて規則を作成するため,コーパスに現れないような例外的な言語事象への対処が容易である.その反面,恣意性が生じやすく,また,規則数が増えるにつれて規則間の整合性を保つことが困難になる.これに対して,1990年代には,コーパスに基づく統計的な照応解析手法が数多く提案された\cite{aone95,ge98,soon99,ehar96,yama99}.これらの手法は,照応関係(照応詞と指示対象の対応関係)が付与されたコーパスを用いて確率モデルや決定木などを学習し,照応解析に利用する.統計的手法ではパラメータ値や規則の優先度などを実データに基づいて決定するため,人手規則に基づく手法に比べて恣意性が少ない.しかし,モデルが複雑になるほど推定すべきパラメータ数が増え,データスパースネスが生じやすい.本研究は日本語のゼロ代名詞を対象に,確率モデルを用いた統計的な照応解析手法を提案する.本手法は,統語的・意味的な属性を分割して確率パラメータの推定を効率的に行なう点,照応関係が付与されていないコーパスを学習に併用してデータスパースネス問題に対処する点に特長がある.なお,本研究は日本語に多く現れる前方照応(図~\ref{fig:ana_kinds}参照)を対象とする.以下,\ref{sec:houhou}~章において本研究で提案するゼロ代名詞の照応解析法について述べ,\ref{sec:jikken}~章で評価実験の結果について考察し,\ref{sec:hikaku}~章で関連研究との比較を行なう. \section{本研究で提案するゼロ代名詞の照応解析手法} \label{sec:houhou}\subsection{システムの概要}\label{sec:gaiyou}本研究で提案するゼロ代名詞照応解析システムの構成を\mbox{図\ref{fig:system}}に示す.以下,この図に沿って処理の流れを説明する.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/overview-jp.eps,scale=0.99}\caption{ゼロ代名詞照応解析システムの構成}\label{fig:system}\end{center}\end{figure}まず,システムは入力テキストを形態素・構文解析し,述語を中心とした係り受け情報を抽出する.本システムでは,形態素解析にJUMAN~\cite{juman98},構文解析にKNP~\cite{knp98}を用いる.次に,入力テキスト中の全てのゼロ代名詞を特定する.ここでは,省略されている必須格要素をゼロ代名詞として検出する.具体的には,入力テキスト中の係り受け情報と動詞の格フレームを照合し,入力テキスト中で充足されていない必須格をゼロ代名詞と見なす.続いて,ゼロ代名詞の指示対象を特定する.検出された各ゼロ代名詞について,テキストにおける前方の文脈から(複合)名詞を指示対象の候補として抽出する.原理的には,ゼロ代名詞の出現箇所以前の全文脈が探索範囲となりうる.しかし,一般的にゼロ代名詞は文章の論理的な構造を無視して極端に離れた対象を照応することは少ない.そこで本手法では,段落が文章の論理構造に関連することに着目し,ゼロ代名詞の出現箇所から前段落の先頭文までを指示対象候補の探索範囲とする.最後に,各ゼロ代名詞に対する複数の指示対象候補を尤度に基づいて順位付けし,出力する.本手法では,候補$a_i$がゼロ代名詞$\phi$の指示対象である確率$P(a_i|\phi)$を計算し,その値によって順位付けを行なう.しかし,$P(a_i|\phi)$を表層的な情報だけを用いて推定することは困難なので,$a_i$や$\phi$を抽象的な属性で表現する必要がある.以下,\ref{sec:detection}節でゼロ代名詞の特定方法について述べ,\ref{sec:sosei}節でゼロ代名詞${\it\phi}$と指示対象候補$a_i$を表現するための属性について説明する.\ref{sec:kakuritu}節以降で提案する確率モデルの詳細とその推定方法について説明する.\subsection{ゼロ代名詞の特定法}\label{sec:detection}本手法では,動詞に関する係り受け情報と格フレームを比較することで,充足していない必須格をゼロ代名詞として検出する.ここでは,格フレーム辞書としてIPALの基本動詞辞書\cite{ipal87}とサ変動詞辞書を利用する.IPAL基本動詞辞書は,和語動詞861語を意味的・統語的特性から下位範疇化した3,379のサブエントリからなり,動詞あたり平均3.9個のサブエントリがある.また,サ変動詞辞書はサ変動詞50語に関する94のサブエントリからなり,動詞あたり平均1.9個のサブエントリがある.以降,両者を合わせて「IPAL動詞辞書」と呼ぶ.図\ref{fig:nozomu}に,動詞「臨む」の格フレームを例示する.ここで「HUM」や「ORG」などは,それぞれ「人間」や「組織」などの名詞意味素性を表す.\begin{figure}[htbp]\def\baselinestretch{}\begin{center}\small\begin{tabular}{|c||l|l|l|}\hline\multicolumn{1}{|c||}{フィールド名}&\multicolumn{1}{|c|}{サブエントリ1}&\multicolumn{1}{|c|}{サブエントリ2}&\multicolumn{1}{|c|}{サブエントリ3}\\\hline見出し語&のぞむ&のぞむ&のぞむ\\表記&臨む&臨む&臨む\\意味記述&集会などに出席する&ある重要な場面に出会う&ある所がどこかに面している\\格形式1&ガ&ガ&ガ\\意味素性1&HUM/ORG&HUM/ORG&LOC\\格形式2&ニ&ニ&ニ\\意味素性2&ACT&ABS&LOC\\類義語&臨席する,出る&直面する,際する&面する,向く\\‥‥&‥‥&‥‥&‥‥\\\hline\end{tabular}\caption{IPAL動詞辞書に記述された動詞「臨む」のサブエントリ(抜粋)}\label{fig:nozomu}\end{center}\end{figure}IPAL動詞辞書の検索は次のように行う.まず,システムはテキスト中に現れる全ての動詞について辞書を「表記」で検索し,適合する全ての格フレームを取得する.「表記」で適合する格フレームがない場合は,「見出し語」(読み)で動詞辞書を検索する.「見出し語」でも格フレームが得られない場合は,さらに「類義語」で検索を行なう.これは,類義の動詞は同一の格フレームを持ちやすいという知見に基づく.また,IPAL動詞辞書に記載された「類義語」は,同一の文脈でサブエントリの動詞と置き換え可能な表現かどうかなどの基準で選定されているため,多くの類義語はサブエントリの動詞と格フレームが一致する.例えば,図\ref{fig:nozomu}のサブエントリ1の場合,「臨席する」「出る」はいずれも「HUM/ORGガACTニ」という格フレームを取り得る.このように「類義語」情報を利用することにより,IPAL動詞辞書未採録の2,038語の動詞(3,150のサブエントリ)についても,事実上,格フレームの利用が可能となる.なお,「表記」「見出し語」「類義語」のいずれの検索でも格フレームが得られない場合は,ゼロ代名詞特定の再現率を上げるため,意味素性「不明」のガ格のみを必須格と仮定する.よって,本システムでは対象とする動詞に制限はない.一方,格フレームに記述された意味素性との照合のため,入力テキスト中の名詞に対しても意味素性を付与する必要がある.ここで,名詞辞書としてIPAL基本名詞辞書\cite{ipal96}などを利用することが考えられる.しかし,当該辞書は登録語数が1,081語と少ないため,本システムでは分類語彙表\cite{koku64}を用いる.分類語彙表には87,743語が登録されており,そのうち名詞が55,443語含まれる.各登録語には分類番号(意味クラス)が5桁の数値で与えられており,名詞の場合,544種類の意味クラスがある.分類語彙表の構造を図\ref{fig:bunruigoihyou}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/bunruigoihyou.eps,scale=0.99}\caption{分類語彙表の構造}\label{fig:bunruigoihyou}\end{center}\end{figure}なお,一つの名詞が複数の意味クラスに対応する場合,その名詞はいずれの意味クラスにも対応するものとして扱う.また,名詞シソーラスに登録されていない名詞には,一律に「未知語クラス」を与える.IPAL動詞辞書の意味素性と分類語彙表の意味クラスとの対応付けは,村田と長尾\citeyear{mura97}の作成した対応表(表\ref{tab:taiou})を用いた.この表において,例えば「120」は上位3桁が「120」である意味クラス全てに対応する.なお,「未知語クラス」の名詞は格フレームの選択に有効な情報を与えないため,いずれの意味素性にも対応しないものとする.\begin{table}[htbp]\def\baselinestretch{}\begin{center}\caption{意味素性と意味クラスの対応}\label{tab:taiou}\smallskip\footnotesize\begin{tabular}{l@{}ll}\hline\hline\multicolumn{2}{l}{IPAL基本動詞辞書の意味素性}&\multicolumn{1}{l}{分類語彙表の意味クラス(上位3桁)}\\\hlineANI&(動物)&156\\HUM&(人間)&120,121,122,123,124\\ORG&(組織・機関)&125,126,127,128\\PLA&(植物)&155\\PAR&(生物の部分)&157\\NAT&(自然物)&152\\PRO&(生産物・道具)&14\\LOC&(空間・方角)&117,125,126\\PHE&(現象名詞)&150,151\\ACT&(動作・作用)&133,134,135,136,137,138\\MEN&(精神)&130\\CHA&(性質)&112,113,114,115,158\\REL&(関係)&111\\LIN&(言語作品)&131,132\\TIM&(時間)&116\\QUA&(数量)&119\\CON&(具体物)&11,125,126,13,158\\ABS&(抽象物)&12,14,152,155,156,157\\DIV&(制限緩やか)&1\\\hline\end{tabular}\end{center}\end{table}次の例を用いて,ゼロ代名詞の特定処理を説明する.\begin{flushleft}\begin{quote}\begin{itemize}\item[(例1)]会談に\underline{臨む}ことは党内に強い異論のある並立制受け入れとなるため,激しい反発を呼ぶのは必至である.\end{itemize}\end{quote}\end{flushleft}\noindent下線部「臨む」には図\ref{fig:nozomu}に示す3通りの格フレームが対応する.そこで,最適な格フレームを選択するために,ニ格の「会談」をそれぞれの格フレームのニ格と比較する.ここで,「会談」は図\ref{fig:bunruigoihyou}より意味クラス「13133」「13531」に対応するので,表\ref{tab:taiou}より意味素性「ACT」に対応する.よって,図\ref{fig:nozomu}のサブエントリ1が選択される.その結果,例1中でガ格が省略されていることが分かるので,ガ格をゼロ代名詞として検出する.なお,一つの名詞が複数の意味クラスに対応する場合,その名詞はそれぞれの意味クラスが対応する意味素性全てに対応するものとして扱う.また,充足格を利用しても複数の格フレームが候補として残る場合は,残った候補のうちIPAL基本動詞辞書で先に記載されている格フレームを選択する.本来ならば,動詞の多義性解消などによって最適な格フレームを選択すべきである.しかし,多義性解消はそれ自身で非常に難しい研究課題であるので,本研究では扱わなかった.\subsection{ゼロ代名詞と指示対象候補を表現する属性}\label{sec:sosei}日本語ゼロ代名詞の照応解析に関する先行研究では,指示対象候補に後接する助詞や指示対象候補とゼロ代名詞間のテキスト内での距離などの属性によってゼロ代名詞や指示対象が表現されている.特に,助詞は焦点(話題の中心)の推移をモデル化するセンタリング理論\cite{gros95}に基づく照応解析手法において中心的な役割を果たす\cite{kame86,walk94}.他にも,指示対象候補とゼロ代名詞間の意味的な整合性や語の頻度などが属性として利用されている.本研究では,コーパスに基づく予備調査を通して照応解析に有効な属性について検討し,以下に示す6つの属性を用いてゼロ代名詞${\it\phi}$と指示対象候補$a_i$を表現する.\begin{itemize}\itemゼロ代名詞$\phi$に関する属性\begin{description}\item[格($c$):]本研究では,日本語に多く現れる「ガ」「ヲ」「ニ」格のゼロ代名詞を扱う.よって,格$c$として取り得る値は「ガ」「ヲ」「ニ」のいずれかであり,それぞれどの格が省略されたのかを表す.この値は,ゼロ代名詞の特定処理時に格フレーム辞書に基づいて決定される(\mbox{\ref{sec:detection}節}参照).\item[意味素性($s$):]ゼロ代名詞,すなわち省略された格要素に対応する意味素性を表す.本手法では,IPAL動詞辞書で定義される19種類の意味素性を用いる(表\ref{tab:taiou}参照).上記の「格」属性と同様に,ゼロ代名詞の特定処理において格フレーム辞書を参照することで決定される.\end{description}\item指示対象候補$a_i$に関する属性\begin{description}\item[助詞($p_i$):]候補$a_i$に後接する助詞を表し,可能な値は形態素解析で助詞と品詞付けられた語の全てである.助詞は従来の手法でも照応解析の有効な手がかりとして用いられている.\item[文間距離($d_i$):]ゼロ代名詞と候補$a_i$間の文数を表す.両者が同一文中にあれば$0$,指示対象候補がゼロ代名詞より$n$文前にあれば$n~(n>0)$とする.一般に,ゼロ代名詞からの距離が遠い候補ほど,指示対象になりにくい.なお,距離を計る単位としてゼロ代名詞と候補$a_i$間の語数や文節数なども考えられる.しかし,日本語は語順が比較的自由であり,また副詞句や形容詞句など様々な挿入句が可能であるため,文間距離を用いて大まかな距離を示し,より詳細には助詞$p_i$で区別する方法を採用する.\item[連体節に関する制約($r_i$):]候補$a_i$が連体修飾節に含まれるかどうかを表す.含まれれば真,含まれなければ偽の2値を取る.連体節に含まれる名詞句は照応されにくいという知見\cite{ehar96}を利用するために導入する.\item[意味クラス($n_i$):]候補$a_i$の意味素性を表す.本手法では,分類語彙表\cite{koku64}で定義される544種類の分類番号を利用する.\end{description}\end{itemize}\subsection{確率モデル}\label{sec:kakuritu}ゼロ代名詞$\phi$が候補$a_i$を照応する確率を$P(a_i|\phi)$と定義する.ここで,$a_i$と$\phi$を\ref{sec:sosei}節で述べた属性で表現すると式(\ref{eq:pcz1})が成り立つ.\begin{eqnarray}\label{eq:pcz1}P(a_i|\phi)=P(p_i,d_i,r_i,n_i|c,s)\end{eqnarray}\noindent式(\ref{eq:pcz1})は推定すべきパラメータ数が膨大であり,大量の学習データを必要とする.しかし,照応関係を付与したコーパスの作成は高価であり,学習に十分な大きさのコーパスを作成するのは現実的ではない.そこで,モデルの妥当性を保持しつつ確率値の推定を容易にするため,以下の近似を行なう.コーパス分析に基づく我々の予備調査によると,候補$a_i$に関する属性のうち,文間距離$d_i$,連体節に関する制約$r_i$は,それ以外の属性との関連が比較的低い.そこで,$d_i$と$r_i$の独立性を仮定すると,式(\ref{eq:pcz2})が得られる.\begin{eqnarray}\label{eq:pcz2}P(a_i|\phi)\approxP(p_i,n_i|c,s)\cdotP(d_i)\cdotP(r_i)\end{eqnarray}\noindent$P(p_i,n_i|c,s)$において,助詞$p_i$と格$c$はそれぞれ指示対象候補とゼロ代名詞の統語属性であり,意味クラス$n_i$と意味素性$s$はそれぞれ指示対象候補とゼロ代名詞の意味属性である.そこで,統語属性と意味属性間の独立性を仮定すると,式(\ref{eq:pcz})が得られる.\begin{eqnarray}\label{eq:pcz}P(a_i|\phi)\approxP(p_i|c)\cdotP(n_i|s)\cdotP(d_i)\cdotP(r_i)\end{eqnarray}\noindent式(\ref{eq:pcz})の右辺において,統語属性だけからなる要素$P(p_i|c)\cdotP(d_i)\cdotP(r_i)$を{\bf統語モデル},意味属性だけからなる要素$P(n_i|s)$を{\bf意味モデル}と呼ぶことにする.式(\ref{eq:pcz})のそれぞれのパラメータは,照応関係が付与されたコーパスから得られる頻度情報を用いて,式(\ref{eq:ppc})によって計算できる.ここで,$F(x)$はコーパスにおける事象$x$の出現頻度を示す.\begin{eqnarray}\label{eq:ppc}\begin{array}{rcl}P(p_i|c)&=&\displaystyle\frac{F(p_i,c)}{\sum_{j}F(p_j,c)}\\\label{eq:pns}P(n_i|s)&=&\displaystyle\frac{F(n_i,s)}{\sum_{j}F(n_j,s)}\\\label{eq:pd}P(d_i)&=&\displaystyle\frac{F(d_i)}{\sum_{j}F(d_j)}\\\label{eq:pm}P(r_i)&=&\displaystyle\frac{F(r_i)}{\sum_{j}F(m_j)}\end{array}\end{eqnarray}\noindentただし,意味モデル$P(n_i|s)$の推定については,\ref{sec:imimodel}節において照応関係が付与されていないコーパスの利用を検討する.\subsection{照応関係付きコーパスを必要としない意味モデルの推定法}\label{sec:imimodel}データスパースネス問題を避けるため,\ref{sec:kakuritu}節で式(\ref{eq:pcz1})の確率モデルを統語モデルと意味モデルに分解した.しかし,式(\ref{eq:ppc})において,意味クラス$n_i$と意味素性$s$の全ての組み合わせに対して意味モデル$P(n_i|s)$を正しく推定するには,なお大量の学習データが必要であり,データスパースネスを生じやすい.そこで本研究では,照応関係が付与されていないコーパスを利用して意味モデルを推定する手法を提案する.格要素(名詞)の意味素性$s$は,動詞の語義とゼロ代名詞の格によって一意に決まることが多い.これは名詞がゼロ代名詞化されている場合も同様である.しかし,動詞の語義を付与したコーパスは高価であるため,ここではさらに次の近似を行なう.すなわち,動詞に多義性がなく,重複する格が係らないと仮定する.すると,意味素性$s$は動詞$v$とゼロ代名詞の格$c$の組み合わせで表現することができ,式(\ref{eq:pns2})が成り立つ.\begin{eqnarray}\label{eq:pns2}\begin{array}{rcl}P(n_i|s)\approxP(n_i|v,c)\end{array}\end{eqnarray}\noindent$P(n_i|v,c)$は,動詞$v$の格$c$がゼロ代名詞化しているとき,その指示対象の意味クラスが$n_i$である確率を表す.しかし,ゼロ代名詞は省略された格要素であるため,動詞$v$の格$c$に本来埋まるべき名詞とゼロ代名詞の指示対象は同じ意味素性に対応すると考えてよい.そこで,$P(n_i|v,c)$は$\langlen_i$,$v$,$c\rangle$という係り受け(共起関係)を用いて推定することができる.すなわち,本手法は照応関係を付与していないコーパスを学習に利用することができる.なお,照応関係を付与していないコーパスの利用可能性は村田と長尾\citeyear{murata98}も指摘している.意味モデルの学習は次のように行う.まず,照応関係などの付加情報が与えられていない未解析のコーパスを形態素・構文解析し,その結果得られる係り受け関係に基づいて動詞と格要素の共起を自動的に抽出する.続いて,名詞シソーラス(分類語彙表)を利用して格要素を意味クラスに汎化し,意味クラス・動詞・格の共起関係$\langlen_i$,$v$,$c\rangle$を収集する.最後に,共起関係の頻度に基づいて意味モデルを生成する.なお,意味モデルのパラメータ値$P(n_i|\,v,c)$の推定にはデータスパースネス問題を避けるため,線形ディスカウンティング法(lineardiscounting)~\cite{ney94}を用いる.ただし,動詞$v$の格$c$に関して何ら共起情報が得られない場合,および候補$a_i$が名詞シソーラスに未登録で「未知語クラス」が与えられている場合は,全ての意味クラス(544種類)に関して等確率を与える.式(\ref{eq:pns3})に意味モデルの計算式を示す.ここで$\alpha$は比例定数(ディスカウント係数)である.また,$N_0$は動詞$v$,格$c$が与えられたときに,$F(v,c)>0$かつ$F(n_i,v,c)=0$であるような意味クラス$n_i$の総数を表す.\begin{eqnarray}\label{eq:pns3}\begin{array}{rcl}P(n_i|v,c)=\left\{\begin{array}{ll}\vspace*{2mm}\displaystyle\alpha\cdot\frac{F(n_i,v,c)}{F(v,c)}&if\F(n_i,v,c)>0\\\vspace*{2mm}\displaystyle\frac{(1-\alpha)}{N_0}&else\if\F(v,c)>0\かつF(n_i,v,c)=0\\\displaystyle\frac{1}{544}&else\if\F(v,c)=0\またはn_i=\mbox{未知語クラス}\end{array}\right.\end{array}\end{eqnarray}候補$a_i$に複数の意味クラスが与えられている場合は,候補$a_i$と各意味クラスが等確率に対応すると仮定する.すなわち,全ての意味クラスについて意味モデルのパラメータ値を計算し,その平均を候補$a_i$の意味モデルのパラメータ値とする.以上の操作によってモデルを構築することができたものの,動詞の多義性を無視することは言語学的には必ずしも妥当ではない.しかし,\mbox{\ref{sec:jikken}章}の評価実験において,本手法は照応関係を付与したコーパスを用いた場合よりも,ゼロ代名詞の照応解析において有効であることを示す.\subsection{照応解析に関する確信度}\label{sec:certainty}照応解析の結果を機械翻訳など他の処理に応用する場合,照応関係の特定を誤ると後続の処理にも悪影響を及ぼす.このような場合,テキスト中の全てのゼロ代名詞を処理することよりも,誤りを犯さないように確実な結果だけを出力することが重要である.言い換えれば,照応解析の被覆率(coverage)よりも精度(accuracy)が重視される場合がある.照応解析処理の精度を向上させるためには,解析結果が正解である確信が高いゼロ代名詞だけを出力すればよい.そこで,確信度を定量化し,その値が一定の閾値よりも大きい場合だけ結果を出力する(原理的に被覆率は低下する).具体的には,式(\ref{eq:pcz})で定義される確率スコア$P(a_i|\phi)$を利用し,以下の特性(a)と(b)に基づいて確信度を計算する.なお,$P_j(\phi)$は$j$番目に大きい確率スコアとする.\begin{flushleft}\begin{itemize}\item[(a)]$P_1(\phi)$~$(=\max_iP(a_i|\phi))$が大きいほど確信度が高い\item[(b)]$P_1(\phi)$と$P_2(\phi)$の差が大きいほど確信度が高い\end{itemize}\end{flushleft}\noindent式(\ref{eq:certainty})に確信度$C(\phi)$の計算式を示す.\begin{eqnarray}\label{eq:certainty}C(\phi)=t\cdotP_1(\phi)+(1-t)(P_1(\phi)-P_2(\phi))\end{eqnarray}\noindentここで,右辺の第1,2項はそれぞれ上記(a)~(b)に対応し,$t$は両者の影響を制御する定数である. \section{評価実験} \label{sec:jikken}\subsection{実験方法}\label{sec:data}\ref{sec:houhou}章で提案した照応解析手法の有効性を実験によって評価した.実験には,京都大学テキストコーパスver.2.0~\cite{kuro98}を利用した.当コーパスは,毎日新聞1995年版の報道記事と社説記事を各1万文ずつJUMANとKNP(本システムで用いた形態素・構文解析器)で解析し,その結果を人手で修正したものである.図\ref{fig:kd-corpus}に京都大学テキストコーパスの一部を示す.\mbox{図\ref{fig:kd-corpus}}において,第1行目は文IDであり,「{\tt*}」で始まる行が文節の先頭,行末の「{\tt3D}」は文節「{\tt3}」に係ることを示している.それ以外の行は文節に含まれる形態素情報である.\begin{figure}[htbp]\begin{center}\fbox{\epsfile{file=eps/kd-corpus.eps,scale=1}}\caption{京都大学テキストコーパスの一部}\label{fig:kd-corpus}\end{center}\end{figure}\noindent当該コーパスから社説記事30件,報道記事30件を無作為抽出し,ゼロ代名詞の照応関係を人手で付与し,正解セットを作成した.なお,社説と報道記事は文体等の違いにより照応関係にも顕著な差があると考え,両者を区別して実験に用いた.実験に用いたコーパスの特徴を表\ref{tab:statistics}に示す.\begin{table}[htbp]\def\baselinestretch{}\begin{center}\caption{照応の種類ごとのゼロ代名詞数}\label{tab:statistics}\medskip\small\begin{tabular}{ccr@{\\\\\}crrcr}\hline\hline&&&\multicolumn{5}{c}{ゼロ代名詞数(割合[\%])}\\\cline{4-8}記事種&記事数&\multicolumn{1}{c}{文数}&外界&\multicolumn{1}{c}{後方}&\multicolumn{2}{c}{前方照応}&\multicolumn{1}{c}{計}\\\cline{6-7}&&&照応&\multicolumn{1}{c}{照応}&\multicolumn{1}{c}{名詞}&文や節&\\\hline社説&30&867&371(33.5)&48(4.3)&627(56.6)&62(5.6)&1,108\\報道&30&423&157(25.0)&7(1.1)&449(71.6)&14(2.2)&627\\\hline計&60&1,290&528(30.4)&55(3.2)&1076(62.0)&76(4.4)&1,735\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:statistics}に示されるように,新聞記事には記事種によらず前方照応のゼロ代名詞が最も多く現われた.特に,報道記事では7割以上の照応が名詞を指す前方照応であった.一方,社説記事では照応の種類ごとのゼロ代名詞数が比較的分散しており,文章外や後方に対しても報道記事より多くの照応表現が用いられていることが分かる.照応関係を付与したコーパスに対して,\ref{sec:detection}節で述べた方法によりゼロ代名詞特定処理を行なった.結果を表\ref{tab:identResult}に示す.\begin{table}[htbp]\def\baselinestretch{}\begin{center}\caption{ゼロ代名詞特定処理の結果}\label{tab:identResult}\small\medskip\begin{tabular}{ccccccc}\hline\hline記事種&\begin{tabular}{c}全てのゼロ\\代名詞(a)\end{tabular}&特定数(b)&特定成功数(c)&再現率(c/a)&適合率(c/b)&評価対象数\\\hline社説&1,108&2,141&\\968&87.4\%&45.2\%&498\\報道&\\627&1,130&\\553&88.2\%&48.9\%&355\\\hline計&1,735&3,271&1,521&87.7\%&46.5\%&853\\\hline\end{tabular}\end{center}\end{table}人手で特定した全てのゼロ代名詞に関して,全体で87.7\%のゼロ代名詞がシステムによって特定された.しかし,特定に成功したゼロ代名詞数(c)に比べ,システムが特定したゼロ代名詞数(b)が倍以上あり,適合率は全体で46.5\%とやや低い.ゼロ代名詞特定処理の精密化は,今後の課題である.本実験の焦点は,ゼロ代名詞の出現箇所特定ではなく照応解析にある.そこで以下の実験では,システムが特定に成功したゼロ代名詞のうち前方の名詞を照応するゼロ代名詞853箇所だけを評価の対象とする.すなわち,照応解析処理はゼロ代名詞特定処理と区別して評価する.評価実験には次のような交差確認法を用いた.すなわち,社説記事・報道記事のそれぞれについて,29記事を確率モデルの学習,残り1記事を評価用の入力テキストとして利用し,入力テキストを変えながら同様の試行を30回繰り返し,その結果を平均した.意味モデルの推定に用いる動詞と格要素の共起情報の抽出には,1994〜1999年の毎日新聞6年分に含まれる約480万文を用いた.動詞と格要素の共起情報は,新聞記事をJUMANで形態素解析し,(複合)名詞を後方最近傍の動詞に係ると仮定して抽出した.ただし,使役・可能・受身文は格の交替が起きるので共起関係の抽出には用いなかった.ここでは,動詞の活用形が未然形であるか語尾が「〜できる」という表層パターンに一致する動詞を使役・可能・受身のいずれかであると見なし,共起関係の抽出から除外した.また,(複合)名詞に読点が続くと係り先が必ずしも最近傍でないことが多いので,これらも抽出対象から除外した.この結果,25,640の動詞について,合計約255万組の共起関係$\langlen_i,c,v\rangle$(\ref{sec:imimodel}節参照)が抽出された.照応解析の評価尺度として,式(\ref{eq:accuracy})に示す正解率と被覆率を用いた.\begin{eqnarray}\label{eq:accuracy}\begin{array}{rcl}\vspace*{2mm}正解率&=&\displaystyle\frac{正しく照応解析されたゼロ代名詞数}{結果を出力したゼロ代名詞数}\\被覆率&=&\displaystyle\frac{結果を出力したゼロ代名詞数}{評価の対象としたゼロ代名詞数}\end{array}\end{eqnarray}\noindentここで,「評価の対象としたゼロ代名詞数」は自動検出に成功した前方照応のゼロ代名詞数を指す.また,「結果を出力したゼロ代名詞数」は通常「評価の対象としたゼロ代名詞数」と同一であり,\ref{sec:certainty}節で述べた確信度を用いてシステム出力を制限した場合だけ減少する.\subsection{実験結果}\label{sec:result}本研究で提案する確率モデルの有効性を示すため,以下の異なる手法(モデル)を比較評価した.なお「組合せ2」が本研究の提案手法に相当する.\begin{itemize}\item統語モデルのみ利用(「統語」)\item式(\ref{eq:pns})による意味モデルのみ利用(「意味1」)\\ここでは学習用の29記事から意味モデルを生成し,照応解析に利用した.\item式(\ref{eq:pns2})による共起情報を用いた意味モデルのみ利用(「意味2」)\\ここでは上記29記事は利用せず,毎日新聞から抽出した共起情報$\langlen_i,c,v\rangle$のみを照応解析に利用した.\item統語モデルと意味モデル1の組合せを利用(「組合せ1」)\item意味モデルと統語モデル2の組合せを利用(「組合せ2」)\item人手規則に基づくモデルを利用(「規則」)\end{itemize}評価のベースラインとして,人手規則に基づくモデル(上記「規則」)を用意した.これは,京都大学テキストコーパスから抽出した社説記事10記事を訓練データとして,約2人月で人手作成したモデルであり,主に,a)指示対象候補に後接する助詞,b)ゼロ代名詞と指示対象候補間の距離(文数),c)ゼロ代名詞と指示対象候補間の意味的整合性に関する規則を利用し,ゼロ代名詞の照応解析を行なう.各モデルの照応解析結果を表\ref{tab:riyousosei}に示す.ここで「1位」「1-2位」「1-3位」は,確率スコア$P(a_i|\phi)$の値に基づいて該当する上位の結果だけを出力した場合の正解数(正解率)である.例えば,「1-3位」の場合,上位3位中に正解の指示対象が含まれれば「正解」と判定した.また,「正解の平均順位」は入力テキストから抽出された指示対象候補中での正解候補の平均順位を表す.ここで,抽出候補数はモデルによらず社説記事で平均25.1個,報道記事で平均27.3個であるため,無作為に選択すると正解の平均順位はそれぞれ12.5位,13.6位となる.また,太字の数字は最も正解率の高かったモデルを記事種ごとに示している.以下,表\ref{tab:riyousosei}の結果について検討する.\begin{table}[htbp]\def\baselinestretch{}\begin{center}\caption{照応解析の実験結果}\label{tab:riyousosei}\small\smallskip\begin{tabular}{cclcccc}\hline\hline&&&\multicolumn{3}{c}{正解数(正解率(\%))}&正解の\\\cline{4-6}記事種&&モデル&1位&1-2位&1-3位&平均順位\\\hline&&統語&173(34.7)&247(49.6)&300(60.2)&4.8\\\cline{3-7}&&意味1&124(24.9)&195(39.2)&248(49.8)&7.2\\社説&&意味2&145(29.1)&214(43.0)&250(50.2)&6.0\\\cline{3-7}&&組合せ1&186(37.3)&260(52.2)&307(61.6)&4.6\\&&組合せ2&{\bf198(39.8)}&\bf{274(55.2)}&\bf{311(62.4)}&{\bf4.5}\\\cline{3-7}&&規則&180(36.1)&259(52.0)&295(59.2)&5.1\\\hline&&統語&187(52.7)&222(62.5)&248(69.9)&4.1\\\cline{3-7}&&意味1&93(26.2)&145(40.8)&186(52.4)&6.3\\報道&&意味2&114(32.1)&186(52.4)&221(62.3)&5.0\\\cline{3-7}&&組合せ1&173(48.7)&226(63.7)&252(71.0)&4.0\\&&組合せ2&\bf{192(54.0)}&{\bf235(66.2)}&{\bf268(75.5)}&{\bf3.2}\\\cline{3-7}&&規則&131(36.9)&185(52.1)&222(62.5)&5.0\\\hline\end{tabular}\end{center}\end{table}まず,照応関係を付与したコーパスを用いて推定を行なう「意味1」と,動詞と格要素の共起情報に基づく「意味2」の結果を比較すると,記事種によらず後者が良い結果を示した.この理由として次の三点が考えられる.\begin{enumerate}\item[(a)]大規模なコーパスを学習に用いたことで,データスパースネスを解消することができた.\item[(b)]動詞と格の組合せで意味素性を表すことにより,IPAL動詞辞書における意味素性分類の粒度の粗さを補うことができた.\item[(c)]「意味1」では,IPAL動詞辞書を用いて格フレームを取得できない動詞に関してゼロ代名詞の意味素性を決定できない.これに対して,「意味2」は動詞$v$と格$c$に基づく意味素性$s$の近似によって意味モデル$P(n_i|s)$を推定できる.\end{enumerate}\noindentここで(c)は,IPAL動詞辞書から格フレームを得ることができない場合にだけ影響する.よって,IPAL動詞辞書から格フレームを得ることができた場合だけを対象に照応解析実験を行なえば,上記(a)~(b)に挙げた理由を裏付けることができる(ただし,それぞれの寄与の程度は測定できない).この実験を行なって「意味1」と「意味2」の結果を比較したところ,1位の正解率が社説記事で24.8\%から30.5\%に,報道記事で27.2\%から33.2\%にそれぞれ向上した.すなわち,ゼロ代名詞に意味素性が与えられている場合だけを対象としても「意味2」は「\mbox{意味1}」より高い精度が得られ,上記の理由(a)~(b)の正当性が示された.一方,「統語」モデルは「意味2」と比較してさらに5〜20ポイント程度高い正解率が得られた.この結果から,本手法で利用した意味的属性に比べ,助詞や距離などの統語的属性が照応関係の特定により有効であることが分かる.さらに,両属性を組み合わせた場合(組合せ1,組合せ2)は,統語的・意味的属性をそれぞれ単独で用いるよりもほとんどの場合に正解率が向上した.唯一「組合せ1」を用いて報道記事を照応解析した場合,1位の正解率が52.7\%から48.7\%に低下しているものの,正しい指示対象の「平均順位」は4.1位から4.0位に向上しており,全体としては正しい指示対象が候補群の中で上位に移動している.一方,共起情報を用いた意味モデルと統語モデルを組み合わせた場合(組合せ2),社説記事,報道記事とも唯一解の正解率がそれぞれ,39.8\%,54.0\%で最大となった.これらの結果から,統語的・意味的属性が相補的に機能し,両属性を複合的に利用することがゼロ代名詞の照応解析に有効であることが分かる.続いて「組合せ2」と人手規則によるモデル「規則」の結果を比較すると,前者の方が社説記事で約2〜3ポイント,報道記事では10ポイント以上高い正解率が得られた.報道記事に関する正解率の向上がより大きいのは,照応解析規則作成時の訓練データとして社説記事を利用したため,作成した規則やその適用順序が報道記事ではうまく機能しなかったためである.このように「組合せ2」を用いた場合は,両記事種において「規則」以上の性能を示し,本手法が処理対象テキストの分野の変化に対しても頑健であることが分かる.照応関係を付与したコーパスは一般に高価であるため,統計的手法では学習データ量と正解率の関係が重要である.本手法は統語モデルの推定に人手で作成したコーパスを利用しているため,まず統語モデルの推定に用いる学習データ量と照応解析の正解率の関係を調査した.\mbox{図\ref{fig:shasetu}}は,モデル「組合せ2」において学習データ量を0〜29記事まで変化させたときの1位の正解率の変化を示したものである.学習データ量が0記事の場合は,共起情報を用いた意味モデルのみで照応解析を行なう(「意味2」に相当).\begin{figure}[htbp]\begin{center}\epsfile{file=eps/training.eps,scale=0.8}\caption{統語モデルの学習データ量と正解率の関係(「組合せ2」の結果)}\label{fig:shasetu}\end{center}\end{figure}図\ref{fig:shasetu}を見ると,記事種によらずに学習データ量の増加とともに正解率が向上し,特に0〜10記事程度の学習データを用いた場合の立ち上がりが顕著であった.続いて,「組合せ2」において統語モデルの学習データ量を29記事に固定し,意味モデルの推定に用いる新聞記事の量を1〜6年分まで変化させた場合の正解率の変化を図\ref{fig:shasetu.k}に示す.社説記事,報道記事ともに,共起情報の獲得に利用する新聞記事の量とともに緩やかに正解率が向上した.新聞記事5〜6年を使った場合でも正解率が微増していることから,さらに新聞記事の量を増やすことで正解率の向上が期待できる.なお,意味モデルの学習に利用する新聞記事には形態素・構文情報や照応関係を人手で与える必要がないため,学習データの追加に伴うコストは低い点に注意を要する.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/kyouki.eps,scale=0.8}\caption{意味モデルの学習データ量と正解率の関係(「組合せ2」の結果)}\label{fig:shasetu.k}\end{center}\end{figure}最後に,確信度$C(\phi)$に関する評価実験を行なった(\ref{sec:certainty}節参照).すなわち,各ゼロ代名詞について確信度が閾値以上の場合だけ結果を出力し,閾値を変化させながら照応解析の被覆率と正解率の関係を調査した.その結果を図\ref{fig:sikii}に示す.なお,式(\ref{eq:certainty})中の定数$t$は,本実験では経験的に$0.5$とした.記事種によらず,被覆率の低下にともなって正解率が向上し,被覆率10\%以下で共に70\%以上の正解率が得られた.この傾向は報道記事の場合,特に顕著だった.この結果より,本研究で提案した確信度が照応解析処理の正解率向上に有効であることが確かめられた.\begin{figure}[htbp]\begin{center}\epsfile{file=eps/coverage-accuracy.eps,scale=0.8}\caption{確信度に関する閾値を変化させた場合の被覆率と正解率の関係}\label{fig:sikii}\end{center}\end{figure}\subsection{考察}\label{sec:kousatsu}本手法で提案した確率モデルでは,動詞に多義性がないと仮定し,ゼロ代名詞の意味素性$s$を動詞$v$と格$c$で近似することで意味モデルを推定している(\ref{sec:imimodel}~節参照).また,\ref{sec:result}~節の評価実験では,動詞と格要素の共起情報を用いた意味モデル(「意味2」)は共起情報を用いないモデル(「意味1」)よりも正解率が高いものの,統語モデルと比べると一貫して正解率が低かった.そこで本節では,動詞と格による意味素性の近似が照応解析に与える影響を調査するため,意味モデルのパラメータ値に注目して照応解析の誤り例を分析した.提案手法(「組合せ2」)を用いて照応解析を行なった場合に,正しい指示対象(以下,正解候補と呼ぶ)が最上位に順位付けられたゼロ代名詞は,社説記事と報道記事を合わせて390件であった(表\ref{tab:riyousosei}参照).ここでは,それ以外の463~($=853-390$)件を誤りと見なし,そこから無作為に抽出した40件について誤りの原因を調べた.結果を表\ref{tab:causes}に示す.\begin{table}[htbp]\def\baselinestretch{}\begin{center}\caption{照応解析誤りの内訳}\label{tab:causes}\small\smallskip\begin{tabular}{lr@{~}r}\hline\hline\multicolumn{1}{c}{誤りの原因}&\multicolumn{2}{c}{件数}\\\hline正解候補が動詞の格要素として意味的に整合するのに共起頻度が低い&19&(47.5\%)\\動詞の格要素として意味的に整合する指示対象候補が複数ある&13&(32.5\%)\\多義動詞(語義の弁別が必要)&3&(7.5\%)\\正解候補の意味クラスがない(分類語彙表に記載されていない)&3&(7.5\%)\\正解候補が動詞の格要素として意味的に整合しない&2&(5.0\%)\\\hline\multicolumn{1}{c}{計}&40\\\hline\end{tabular}\end{center}\end{table}分析の結果,照応解析を誤る主要な原因は次の二点にあり,両者を合わせて分析した事例の80\%を占めた.一つは,正解候補が動詞の格要素として意味的に整合するにもかかわらず,学習データ中での両者の共起頻度が比較的少ないために,意味モデルのパラメータ値が期待される値よりも低くなる場合である.もう一つは,正解候補以外にも意味的整合性が同程度の候補が存在し,かつそれらの候補の統語モデルのパラメータ値が正解候補の統語モデルのパラメータ値よりも大きいために,正解候補の最終的な確率スコア$P(a_i|\phi)$が相対的に小さくなる場合である.これに対して,動詞の多義性を考慮しなかったために照応関係の特定を誤った例,すなわち語義の弁別を必要とした例は40件中3件(7.5\%)であった.このように,動詞の多義性を無視したことによる悪影響は比較的少なく,動詞と格による意味素性の近似が日本語ゼロ代名詞の照応解析に有効に働くことが実験的に示された.ゼロ代名詞の照応解析処理精度をさらに向上させるためには,前述の照応解析を誤る主要な二つの原因への対処が重要である.以下,それぞれの原因による誤り例を示す.なお,ゼロ代名詞の出現位置を「$\phi$」,ゼロ代名詞を含む動詞を下線,誤って特定された指示対象(誤)と正解候補(正)を太字で示す.\begin{flushleft}\begin{quote}\begin{itemize}\item[(例2)]$\cdots$だが、いつかやって来る地震に備えて、さまざまな手を打つことができる。例えば要注意の活断層の近くでは、新たな開発の規制や建築物の補強、耐震基準の強化などを行うことが重要な課題になる。{\bf自治体}$_{(誤)}$が詳細な活断層地図を公表し、だれもが自分の家や会社の置かれた状況を理解できるようにすべきではないか。米国カリフォルニア州では活断層周辺の開発を規制し、成果を上げている。世界一の地震国である日本も見習うべきだろう。これまで地震予知や活断層、構造物の安全性などの{\bf専門家}$_{(正)}$がそれぞれ別々に研究を進めてきた。($\phi$~ガ)お互いにデータを\underline{公開し}合うことも少なかった。$\cdots$\end{itemize}\end{quote}\end{flushleft}\noindent例2は,指示対象が意味的に整合するにもかかわらず意味モデルのパラメータ値が低くなる例である.このゼロ代名詞の正しい指示対象は「専門家」であるのに対し,確率スコア$P(a_i|\phi)$を最大化する候補は「自治体」であった.これは,いずれの語も意味的に容認できるにもかかわらず,「専門家(意味クラス$n=12340$)」の意味モデルのパラメータ値(0.0002)が「自治体($n=12700$)」のパラメータ値(0.0373)より著しく小さいことに原因がある.これは,今回の実験に用いた学習データにおいては,\mbox{~$\langle12340,ガ,公開する\rangle$~}の出現頻度が\mbox{~$\langle12700,ガ,公開する\rangle$~}の頻度と比べて極端に低かったことを示している.このように,学習に用いたコーパス中の出現頻度が必ずしも直観的な正しさを表さないという現象は,コーパスを用いた統計的な手法における典型的な問題であり,今後さらに検討しなければならない.なお,人手作成の規則に基づく手法(「規則」)を用いた場合も,例2の指示対象は正しく特定できなかった.これは,「公開し」(基本形:公開する)がIPAL動詞辞書に未記載で意味素性を取得できず,正しい指示対象「専門家」との意味的な整合性を判定できなかったためである.次に,正しい指示対象以外にも同程度の意味的整合性を持つ候補が存在し,照応解析を誤る例を示す.\begin{flushleft}\begin{quote}\begin{itemize}\item[(例3)]$\cdots${\bf英国}$_{(誤)}$はこの間、調整に遅れたため、重化学工業の発展は、ドイツ、米国に先を越され、七つの海を支配した大英帝国の没落に直結するのだ。{\bf日本}$_{(正)}$も大戦略を立てねば、二十一世紀には、($\phi$~ガ)繁栄を\underline{見ないまま}没落する。$\cdots$\end{itemize}\end{quote}\end{flushleft}\noindent例3では,正解候補「日本」に対して「英国」が指示対象として誤って特定される.それぞれの候補の意味モデルのパラメータ値は,「日本」「英国」とも0.0142である.また直観的にも,動詞「見ないまま」の格要素としての意味的整合性だけで両者を区別することはできない.このように,意味モデルによって正解を識別することができない場合は,統語モデルの貢献によって高い確率スコアを与える必要がある.しかし,統語モデルのパラメータ値は「日本」が0.0056,「英国」が0.0134であり,現在のモデルで利用している属性のみで正解候補「日本」に高い確率スコアを与えることは難しい.新たな属性として,例えば重文の接続助詞(例3では「(〜立てね)ば」)\cite{naka96},前後の動詞の意味的な関連性(例:Aが戦略を立てない$\rightarrow$Aが繁栄を見ない)\cite{naka93}なども検討する必要がある.なお「規則」に基づく手法を用いた場合も,例3の指示対象を正しく特定することはできなかった.これは,「見ない」(基本形:見る)のガ格の意味素性として,IPAL動詞辞書の格フレームに「ORG」が含まれておらず,正しい指示対象「日本」と適合しなかったことが原因である. \section{関連研究との比較} \label{sec:hikaku}江原と金\citeyear{ehar96}は,日英機械翻訳の前編集において,日本語の原文(長文)を短文に分割した際に発生する主格の欠落をゼロ主語(ガ格のゼロ代名詞)と見なし,確率モデルを用いて補完する手法を提案した.彼らは,ニュース原稿108文を対象に評価実験を行ない,オープンテストで80.6\%の正解率を得ている.しかし,この手法は同一文内に指示対象がある場合のみが対象であり,それ以前の文脈に指示対象が現れる状況を考慮していない.ゼロ主語の照応先は同文内とは限らず,照応先としてゼロ主語以前の文脈を考慮するほど指示対象候補が増えて照応解析が難しくなる.事実,彼らの実験においてゼロ主語ごとの指示対象候補は平均3.9個であり,本研究に比べると極端に少ない(\ref{sec:result}~節参照).AoneとBennett~\citeyear{aone95}は,ゼロ代名詞とそれ以外の照応詞(固有名詞,限定詞)を対象に,決定木を用いた照応解析手法を提案した.彼らは,合弁事業に関する新聞記事を用いて評価実験を行ない,ゼロ代名詞に関して,オープンテストで80\%前後の正解率を得ている.しかし,この実験で対象となったゼロ代名詞は,会社名等の組織を照応するものに限定されている.よって,指示対象候補として会社名等のみを考慮すればよく,この制約により大幅に候補を絞り込める.以上二つの先行研究と比較して,本研究は前方照応のゼロ代名詞全般を対象にしており,適用範囲が広い.また,以上の研究が学習データとして人手で照応関係を付与したコーパスを必要とするのに対し,本提案手法は,照応関係が付与されていないコーパスを併用することで,大規模なコーパスを容易に学習に利用できる.また本手法では,確信度を利用することで正解の確信が高いゼロ代名詞のみ選択的に結果を出力し,利用目的に応じて照応解析の正解率を向上させることができる. \section{おわりに} \label{sec:conclusion}本論文は,確率モデルを用いて日本語ゼロ代名詞の前方照応解析を行なう手法を提案し,評価実験を通してその有効性を示した.本手法は,ゼロ代名詞と指示対象に関する属性間の依存関係に基づいて確率モデルを意味モデルと統語モデルに分解し,パラメータ推定を効率化する.統語モデルの推定には,照応関係が付与されたコーパスを学習データとして用い,意味モデルに関しては,動詞と格要素の共起関係を利用することで,照応関係が付与されていないコーパスからの学習を可能にする.また,照応解析の精度向上のために確信度を定量化する手法を提案した.新聞記事コーパスを用いて統語モデルと意味モデルを個別に評価したところ,統語モデルは意味モデルよりも5〜20ポイント程度高い正解率を示した.この結果から,本手法で利用した属性のうち,ゼロ代名詞と指示対象間の統語的な属性が照応解析の手がかりとしてより有効であることが分かった.両モデルを組み合わせて用いる提案手法では,さらに正解率が向上し,統語属性と意味属性が相補的に機能することが分かった.また,人手規則による手法と比べると,提案手法は報道・社説記事のいずれにおいても良い結果を示した.さらに,確信度を用いて選択的に指示対象を出力したところ,正解率のさらなる向上を確認できた.今後の研究課題として以下の点が残されている.確信度を用いて照応解析を行なった場合,(確信度を用いない)通常の手法と比較して正解率は向上するものの,高い正解率を得るためには被覆率の低下も大きい.よって,ゼロ代名詞の照応解析をより実用的な処理とするには,高い正解率を保持しつつ被覆率をさらに向上させる必要がある.また,そもそもゼロ代名詞の照応解析を行なうためには,ゼロ代名詞の出現箇所を正確に検出する必要がある.ゼロ代名詞出現箇所の特定には,連体修飾節と係り先の名詞の格関係の解析,述語と格要素の係り受け・格解析などを高精度で実現し,加えて大規模な格フレーム辞書を整備する必要がある.\bibliographystyle{jnlpbbl}\bibliography{reference}\begin{biography}\biotitle{略歴}\bioauthor{関和広}{2000年3月図書館情報大学卒業.2002年3月,図書館情報大学大学院情報メディア研究科博士前期課程修了.2002年4月産業技術総合研究所情報処理研究部門非常勤研究員.2002年9月からIndianaUniversity,SchoolofLibraryandInformationScience,DoctoralProgramに進学予定.自然言語処理に興味を持つ.}\bioauthor{藤井敦}{1993年3月東京工業大学工学部情報工学科卒業.1998年3月同大学大学院博士課程修了.1998年図書館情報大学助手,現在に至る.博士(工学).自然言語処理,情報検索,音声言語処理の研究に従事.情報処理学会,人工知能学会,電子情報通信学会,AssociationforComputationalLinguistics各会員.}\bioauthor{石川徹也}{1977年3月慶應義塾大学大学院修士課程(図書館情報学)修了.富士写真フイルム(株)足柄研究所入社,図書館短期大学を経て現在,図書館情報大学教授.工学博士.情報管理システムの高度化の研究に従事.情報処理学会,人工知能学会,ACM等各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V06N04-06
\section{はじめに} 我々が日常行っているような自由な対話では,人はどのようにして対話を進めているのだろうか.人に物を尋ねる,仕事を依頼するなどの明確な目標がある場合には,対話の方針(対話戦略)は比較的たてやすいと思われる.しかしながら,職場や学校での食事やお茶の時間,家庭での団らんの時などのおしゃべり,また様々な相談(合意形成,説得から悩みごと相談まで)では,どのようなが対話戦略が可能なのだろうか.そもそも,そのような対話に「対話戦略」と呼べるようなものは存在し得るのだろうか.このような対話では,個々の参加者が対話の流れを意図的に制御しようとしても,なかなかうまく行かないことが多い.むしろ我々は,対話の流れの中で次々と心に浮かんでくる言葉の断片を発話により共有化して,参加者全員で対話を作り上げているように見える.一見,成り行きに任せてしまっているようにみえるこの特徴こそが,実は対話の本質ではないだろうか.我々は,以下の二つの特徴を対話の見逃してはならない重要な側面と考える.\begin{description}\item[対話の即興性]対話は,相手とのインタラクションの場の中で生まれる営みであり,それぞれの場で要求される行動を採りつつ,自己の目的を実現するという高度の戦略が必要とされる.単純に予め立てておいたプランに従って進行させようとしても,対話は決してうまくいかない.\item[対話の創造性]お互いの持っている情報を交換するだけでは,対話の本来の価値は発揮できない.対話をすることで,1+1から2以上のものを生み出すこと,相手の発話に触発されて新しい考えが浮かび上がり,またそれを相手に伝えることで,今度は相手の思考を触発すること,このような正のフィードバックが重要である.\end{description}\hspace*{-0.5cm}我々は,対話のこの二つの側面,「即興性」と「創造性」をあわせて,{\bf対話の創発性}と呼ぶことにする.一見効率がよいように思えるパック旅行では新しい経験は生まれない.きちっとした計画のない自由な旅行でこそ,新しい経験が生まれ,新しい世界が見えてくるといわれる.対話においても,明確な対話戦略のあるようなタスクでは,なかなか対話の創発性は現れてこないものである.そこで,我々は対話の創発性が観測されるような対話を収集することを狙いとして,単純な対話戦略ではうまく機能しない状況を設定して,そこで行われる対話を調べてみることとした.以下2章では,これまでに作られてきた対話コーパスとの比較で,我々の目的としている対話の特徴を述べる.3章では,我々が行った協調作業実験の詳細を述べる.4章では収録対話のデータ構造と基礎的統計データについて述べる.5章では収録されたデータの予備的な分析として,共話と同意表現の使われ方について述べる.最後に,6章で考察を行う.\vspace{-10mm}\newpage \section{従来研究との比較} 発話音声を記録し分析することは,音声情報処理や自然言語処理の分野では以前から様々な機関で行われている\cite{TakezawaAndSuematsu1995}.課題遂行を目的として教示した状況での対話データの収集に関しては,地図課題\cite[など]{Anderson.etal.1991,Koiso.etal.1996a},ポンプ組み立て課題\cite{Grosz1977,Chapanis.etal.1977,Cohen1984},分割クロスワード問題\cite{Nakazato.etal.1995}など様々な研究が行われており,それぞれの課題の分類が\cite{Ishizaki.etal.1995}らによって試みられている.\cite{Ishizaki.etal.1995}にも記述されているように,従来の対話収集に用いられた課題では,\begin{itemize}\item環境C\item環境を認識する能力R\item環境を評価する能力E\item実行可能な行為A\end{itemize}の4点のうち,少なくとも1点以上の差が生じるよう実験の設定がなされている.また,それぞれの差が課題を遂行する上での発話の動機を与え,自然な役割分担を規定している.地図課題では,二人の話者がそれぞれ異なる地図を持ち,それぞれに情報提供者と情報追随者の役割が与えられる.ここでの課題は,情報提供者は自分の地図に記入されたルートを情報追随者に伝達し,相手の地図上のルートとして再現することである.この課題では,与えられた地図が異なっているという環境の違いから,両者に認識の差が生じている.また,情報追随者は再現したルートの正しさを評価できず,情報提供者は相手の地図に直接ルートを再現することができない.両者はこれらの差を,対話により解消しようと努力する.一方,「専門家」「初心者」二人の対面で行われるポンプ組み立て課題では,話者に与える作業環境,話者の認識能力は等しく,両者の間に差はない.しかしながら,この課題では,組み立てが適切に行われているかどうかという作業目標に対する評価は「専門家」の方のみが,また実際の組み立て作業は「初心者」の方のみが行い,対話はこの不均衡により誘発されることになる.また,分割クロスワード問題では,作業目標に対する評価,作業目標を達成するための行為は両者とも行うことができる.しかし,この課題では,クロスワード表は共通であるが,それを解くためのキー情報が分割されている.そこで,与えられた環境の差から,それぞれのキー情報の交換のための会話が行われる.以上のように従来の対話収集用課題では,対話を引き出すためにそれぞれの話者間に何らかの非対称的な制約を意図的に埋め込むことで,話者間に知識の差を生じさせている.このような状況では,被験者は実験者によって予め期待されている知識の差異に起因する対話を行うことになる.したがって,被験者には対話の戦略を選択するという余地はあまりなく,多くの発話は必然的に質疑応答形式や教示助言形式になってしまう.もちろん,このことが対話コーパスの均質性を保証し,制限された条件での対話モデルの構築を容易にする.しかしながら,1.で述べたようなもう少し自由な対話,我々が日常行っている対話の創発的側面を調べてみようとすると,これまでのような対話ではうまく行かない.そこで,単純な対話戦略ではうまく解決できないような課題を用いて,そこで行われる対話を収集する対話収録実験を行った\cite{YanoAndIto1996a,YanoAndIto1996b,YanoAndIto1996c}.これまでの検討から明らかなように,環境や,能力が非対称な場合,知識の差異が生じ,それを元にして自然な役割分担が決まり,また対話戦略もそれに応じて決まってしまうことが予想される.従って,我々は二人の参加者に知識の差異を生じさせる要素を持ち込まずに,対等な立場で対話を行えるような状況を設定した.また,解くべき課題についても,もし単純な解法が容易に見い出されるような課題であれば,それに従った対話となってしまうことが予想される(例えば\cite{Sato1996}).そこで我々が採用した課題は,単純な解法が存在せず,ある意味ではいくら考えても正解が出るとは思えないような心理的な問題を,参加者二人が相談して解き,一つの回答を行うというものであった.このような状況では,参加者は与えられた問題を解くことと並行して,うまく相手の意見を聞出し,相手と合意形成をしていく必要がある.そのためには,相手の立場を尊重した発話を行い,相手発話を直接否定したり,一方的に自分の意見を表明したりするような表現は避けること,一方では適切な表現を用いて自分の意見を表明し,相手の反応をもとにその評価を知ることなど,高度な戦略が観測されるのではないかと予想される.以下では,このような予想のもとに行った協調作業対話の収集実験と,そこで取得された対話コーパスの特徴を報告する. \section{協調作業対話実験の方法} 対話コーパス構築のための協調作業対話実験の方法について述べる.我々の目的は,協調的,創発的な対話の特徴は何か,また人はそのような対話を実現するためにどのような対話戦略をとっているのか,を調べることである.したがって,様々な実験条件の選択は,その目的に沿うように選択された.\subsection{被験者}\begin{itemize}\item被験者としては,お互いに初対面の女子大学生と,30歳〜50歳の主婦とを一組として行う\end{itemize}我々は,良く知っている相手との意思疏通に比べて,あまり良く知らない相手との意思疏通に困難を感じることが多い.よく知っている者同士では,互いに事前に持っている相手のモデルを利用することで,相手の発話や非言語情報から,それなりに相手の意図を推測することができる.これに対して,あまりよく知らない相手の場合には,相手の言動から相手のモデルを作ることと,それを用いて相手の意図を推測することを並行して行わなければならない.しかしながら,これでは相手の意図を推測するためには相手モデルが必要であり,相手モデルを推測するためには相手の発話の意図を正しく理解する必要があるという,鶏と卵のジレンマに陥ってしまう.例えば,良く知っている対話相手が「そうですねえ」という発話をした場合,それが単なる相槌なのか,またそれが同意の表現だとしてどのくらいの強さの同意なのかを知るためには,自分の持っている相手のモデルが極めて有用である.しかしながら,適切なモデルが欠如している良く知らない相手の場合には,そのような相手モデルは利用できず,相手の意図を正しく推測するためにも,また自分の言動が誤解されないようにする為にも,様々な対話戦略が必要であると思われる.我々は,良く知っている相手同士の組よりもそうでない組の方が,相手のモデル作りのために行う様々な対話戦略を明示的に実行するはずだと考えた.というのも,非明示的な対話戦略は,良く知らない相手に対しては,それ自体が誤解を引き起す恐れがあるからである.従って,初対面の組合わせを採用することにより,様々な対話戦略が観察されると考えた.以上のことから,我々の実験では,まったくの初対面同士を被験者の組とすることにした.また,たとえ被験者が初対面であっても,同世代の相手に対してはある程度のモデルをもっていることが予想される.ペアを構成する被験者を女子大学生と30歳〜50歳の主婦とすることで,モデル作りに努力がいる環境を設定した.被験者は38組76人(2人で1組)で重複はなく,実験後にお互いに知り合いでないことを確認した.\subsection{協調作業課題}協調作業課題は,二人で相談して一つの問題を解くことである.我々は,以下の性質に留意して問題を選択した.\begin{itemize}\item正解に導く手順,正解かどうかを判定する手順が存在しない問題であること\end{itemize}地図課題のように正解に導く手順が比較的容易に見い出せる問題では,どちらか一方が主導権を取り,その手順を実行するのが効率の良い戦略となる.またそうでなくてもパズルのように一旦正解が見つかれば容易にその正しさが合意できる問題では,正解を発見した被験者が相手の被験者に説明を行えばよい.このときの対話は,正解を発見した側が対話の主導権を取る教示形式となりやすく,情報も主として一方向に流れていくことが多い.このような一方向の情報の流れでは,それほど複雑な相手モデルを必要とする対話は生じないと思われる.なぜなら,発話者の目的が自分の方からの情報伝達だけであれば,相手が誤解しないような十分な情報を提供することで,自分だけで問題を解決できるからである.\begin{itemize}\item協調の効果が現れやすい問題とすること\end{itemize}二人で問題を解くという課題では,それぞれが個別に考えて見つけ出した回答から,どちらか1つの正解を選ぶという戦略と,最初から協調して正解を考えていくという戦略との二つが考えられる.もし,協調の効果が現れにくい問題を採用すると,発話に際して心的障壁の大きい初対面の相手に対しては,なるべく発話量の少なくなるような戦略,すなわち個別に見つけ出した正解からその1つを選ぶ戦略をとる可能性が高くなる.そこで本実験では,被験者間で協調的対話を奨励するために,協調の効果が表れやすい問題を選んだ.以上の2つの性質を考慮して,本実験では,「ボディーランゲージ解読法\cite{Archer1980}」の中から適当に選んだ問題10問を二人で協力して解くことを課題とした.これらは,写真中の人物の表情や仕草から正解を推測する問題である.問題に対する着眼点は写真中にいくつか存在し,被験者はこれらの着眼点を議論する形で対話を進めていくと考えられる.図1に我々の実験で用いた問題の一つ(第8問)の写真と問題文,回答選択肢を示す.\begin{figure}\epsfile{file=Q27h.eps,width=140mm}\begin{quote}\hspace{2.5cm}二枚の写真の右側の男性は,誰の父親だろうか\\\hspace*{3.5cm}a.少女の父親である.\\\hspace*{3.5cm}b.少年の父親である.\end{quote}\caption{第8問の写真と問題文\cite{Archer1980}}\end{figure}実際に図1の写真からも,「子供の抱き方」,「子供の表情」,「子供と顔が似ているか」などの着眼点を注意深い読者は発見できるであろう.正解は2択または3択の回答群から選ぶが,図1の回答選択肢からも解るように,いくら考えても回答を一意に絞り込むことは不可能である.しかし,着眼点の発見とその情報を交換することで,お互いに不明確・不確実だった状況が少しづつ明確になり,多様な視点から問題をとらえることができるようになる.このように,本問題は協力してじっくり考えれば正解率があがる問題であると考えられる.\subsection{実験環境}一般に,人と人との対面対話では様々なチャネルを通して膨大な量の言語,非言語情報が相互に一度に流れている.したがって,対面対話環境で収録された対話データの分析には相当の困難が伴う.そこで我々は,計算機を通した対話環境で実験を行うことで,情報の流れを制限することとした.実験では,被験者はお互いに相手に会わないようにして別々の部屋に入り,それぞれの部屋の計算機(SunSS5)を通して相手の被験者と対話を行う.協調作業時の対話環境を図2に示す.計算機のディスプレイには相手の顔画像,自分の顔画像,問題の写真,問題文,回答選択肢が表示される.被験者の顔画像は計算機の上に置いたビデオカメラにより撮影され,LANを介して相手の計算機ディスプレイ上に表示される.それぞれの顔画像の表示サイズは,横約6.5cm×縦約4.5cm(240dots×180dots),表示速度は約6フレーム/秒である.対話中の計算機画面の例を図3に示す.なお本実験では,ビデオカメラの位置と相手の顔画像表示の位置がずれているため,被験者同士で視線の一致をとることは出来ない.図3から分るように,ディスプレイ上には相手の顔画像だけでなく,被験者自身の顔画像も表示することとした.これは,自分自身の顔画像をみることで,\begin{itemize}\item自分が相手にどのように見えているかがわかり,安心して自然に発話できる\item自分の画像が常に見られていることを意識させることで,「対面」感を生み出す\end{itemize}ことができると考えたからである.また,被験者同士の顔画像表示場所と,問題の写真,問題文の表示場所がディスプレイ上で対角側に位置し,かなり離されている.これは,この2つを離すことで,被験者の顔画像,問題間の視線の移動を検知し易くするためである.顔画像はデータ圧縮の後,FDDI-LANを介して相手側計算機に伝送される.一方音声は,マイクロフォンで収集され直接(計算機を経由しない形で)相手側のイヤフォンに伝送される.\begin{figure}\vspace{-4.5mm}\begin{center}\epsfile{file=Fig2.eps,width=120mm}\end{center}\vspace{-5mm}\caption{協調作業時の対話環境}\end{figure}なお,対話環境の違いによる対話の比較を行うために,与えられた環境すべてを使う「画像と音声を用いた対話」条件と,自分と相手の顔画像が表示されない「音声だけの対話」条件の2つの条件で実験は行われた.実験は38組中29組が「画像と音声を用いた対話」条件,9組が「音声だけの対話」条件である.この環境で被験者達の発話および動作をビデオ(Hi8)に収録した.また,実験を行っている二人の被験者を同時にTVモニターに表示し,その画面と音声をS-VHSビデオテープに記録した.\subsection{実験手順}実験は1995年の2ヶ月間にわたって,郵政省通信総合研究所関西支所内の実験室で行われた.被験者二人の実験室は隔離されており,お互いの声はマイクロフォンを通してしか聞こえない構造になっている.同じ組の二人の被験者はそれぞれ別々の場所に集合し,オペレータに引率されてそれぞれの実験室に入る.被験者は互いに顔を合わせることが無いように配慮されている.被験者は,それぞれの実験室内で実験説明用ビデオにより実験内容を知らされる.ビデオは「画像と音声を用いた対話」用(約7分),「音声だけの対話」用(約5分)の2種類あり,「音声だけの対話」用は「画像と音声を用いた対話」用から互いの顔画像を見て対話できるという部分の説明を削除したものである.説明ビデオにおいて,この実験の目的は「計算機に相手の顔画像を表示した対話システムの有効性を調べるもの」であること,課題遂行にあたって「二人で十分に議論し協力して正解を見つけ,一致した回答を返すこと」と教示している.実験説明用ビデオによる説明終了後,実験オペレータが「二人で十分に議論し協力して正解を見つけ,一致した回答を返すこと」を再度確認した.最後に,被験者に互いにイヤフォンを着けてもらい,互いの音声が聞こえることを確認した後で,実験を開始した.各被験者は,10問の問題を1問づつ相談しながら解いていく.1問を解き終わり,各自が回答用紙に回答を記述する度に,回答への各自の自信度(0〜100\%)を,各自が独立に(相手に相談することなく)回答用紙に記入する.被験者の対話はオペレータにより常にモニタリングされており,被験者間で一致した回答が得られた段階で,次の問題が画面上に表示される.被験者はやり直したくても,問題を後戻りさせることはできない.被験者は協力して10問すべて解き終わった後に,本実験の本当の目的を告げられ,収録データの書き起しと,その学術目的での利用の許可の確認がとられた.その後,同じ文献から選ばれた別の10問の問題を,それぞれ別々の実験室で単独に回答した.このときも協調作業時と同様に,各自の回答への自信度を記述した.以下単独で解いた10問を問題群1,協調で解いた10問を問題群2と呼ぶ.なお,38組すべての対話実験終了後,単独で解いた問題群1と協調して解いた問題群2の成績の相関と問題の難易度を調べるために,上記対話収録実験を行っていない30〜50歳の主婦14人に対して,単独で2つの問題群を回答する実験を行った.以後これを比較実験と呼ぶ.\begin{figure}\begin{center}\epsfile{file=Fig3.eps,width=120mm}\end{center}\caption{対話中の計算機画面}\end{figure} \section{収録データ} \subsection{収録データの形式}対話データの書き起しは,実験終了後に被験者ペアの一方である女子大学生により,自分達の行った対話を書き起こすという形で行なわれた.その後,被験者となった女子大学生のうち3人により,すべての書き起こし文のチェックが行われた.さらにその後,実験に参加していない主婦により再度のチェックが行われた.書き起された対話データは,漢字仮名混じり文である.S-VHSテープに収録された音声データは16kHzでサンプリングされて,Unix上のraw形式の音声データファイルとして保存されている.また,収録対話について発話音声波形と書き起こしテキストを対応付ける作業を行い,得られたテキスト付き音声波形データを用いて対話を解析するツールとして,音声対話解析用ブラウザが整備された.図4に音声対話解析用ブラウザの表示画面と,割り付けられた書き起こしテキストの書式を示す.この音声対話解析用ブラウザでは,被験者A,Bの音声波形が別々のウィンドウに表示され,視覚的インターフェースで書き起こしテキストを音声波形に対応づけていくことができる.その結果は,時間情報付きの書き起こしテキストとして保存され,対話コーパスの一部を構成する.時間情報付きの書き起こしテキストのフォーマットは以下のようである.\\\hspace*{1.0cm}(発話開始時間\hspace{0.75cm}発話終了時間\hspace{0.75cm}発話片)\\\hspace*{1.0cm}(pause開始時間\hspace{0.5cm}pause終了時間\hspace{0.5cm}pause)\\一つの発話片が文以上の長さになった場合には,発話の弱くなっているところで10msecのpause区間を入れて文を強制的に分割する.また,二人の発話片が同じ意味を持ち,かつ時間的に重複している場合には,先行発話者の発話重複部分の先頭に強制的に5msecのpause区間を挿入して,重複部分の重なりを調べやすくしている.現段階では,うなずきや笑いなどの非言語情報,韻律情報を表示するためのタグ付けは行っていない.しかし,現在\cite{Araki.1997}にならってこれらのタグ付けを行うことを検討している.また,将来音声対話解析用ブラウザを含めて本対話デーベースの書き起し文,音声データを公開する予定である.\vspace{-3mm}\subsection{基礎的統計データ}本実験により,38組,約11時間の対話データが収集された.そのうち,「画像と音声を用いた対話」(以下「画像音声対話」)は29組約9時間,「音声だけの対話」(以下「音声対話」)は9組約2時間である.収録された対話コーパスの課題達成時間と総発話文字数を表1に示す.各組が協力して解いた問題群2の平均課題達成時間は,「画像音声対話」1144.3秒,「音声対話」739.7秒であり,画像音声対話の方が1.5倍長い.標準偏差は,「画像音声対話」は601.6秒とかなりばらつきが大きいのに対して,「音声対話」は154.7秒と小さい.同様に,被験者ペア毎の平均総発話文字数は「画像音声対話」が3989.3文字,「音声対話」2426.8文字と,「画像音声対話」のほうが「音声対話」に比べて1.6倍大きい.標準偏差もやはり「画像音声対話」の方が大きい.また,本実験では主婦の方が学生よりも発話量が多いことがわかる.なお,この総発話文字数は,書き起した漢字仮名混じり文をすべて仮名書きに直したものをカウントしている.\begin{figure}\begin{center}\epsfile{file=Fig5.eps,width=120mm}\end{center}\vspace{-1mm}\caption{収録対話のデータ構造}\end{figure}\begin{table}\vspace{3mm}\epsfile{file=Table1.eps}\caption{収録対話での課題達成時間と総発話文字数}\end{table}「画像音声対話」,「音声対話」の二つの協調作業実験と,比較実験での成績(正解数)と自信度を表2に示す.問題群2の成績に関しては,「音声対話」(平均5.5点),単独で解いた比較実験(平均5.5点)と比べて,「画像音声対話」(平均6.2点)の方が少し上昇している.標準偏差は「画像音声対話」の方が,「音声対話」,比較実験と比べて小さくなっている.また,問題群1\begin{minipage}{\textwidth}と2の成績に弱い相関がみられる.自信度については,単独で解いた比較実験(51.7\%)と比べて,協調した場合は「画像音声対話」(主婦76.2\%,学生76.4\%),「音声対話」(主婦75.7\%,学生76.8\%)と,共にかなり高くなっている.「画像音声対話」,「音声対話」の間,また学生と主婦の間での自信度の平均の差はほとんど無いが,標準偏差は成績と同様に,「画像音声対話」の方が,他と比べて学生,主婦共に小さくなっている.\end{minipage}\clearpage \section{収録対話の特徴} \vspace{-1mm}\subsection{共話}\vspace{-2mm}水谷によれば\cite{Mizutani1984,Mizutani1988},日本人の対話には,対話参加者が共同で一つの文,一つの話を作っていく{\bf共話}という現象がよく観測されるという.共話では,対話者は明確な発話権の交替の手続きにしたがって整然と対話を進めていくのとは違って,相手の発話に自分の発話を重ねる,合いの手として頻繁に相槌を挿入する,一つの文の途中で発話権を譲り渡すなど,これまでの対話管理モデルでは捉えきれないものを含んでいる.水谷も「話し手の自己主張よりも話し手と聞き手の良き人間関係を重んじるという立場に立てば,相槌は重要かつ不可欠のものとなる」\cite{Mizutani1988}と述べているように,共話は話し手と聞き手の良き関係を維持する機能を持っているようである.\begin{table}\epsfile{file=Table2.eps}\caption{収録対話での成績と自信度}\end{table}これまでの対話研究でこのような共話が見逃されてきたのは,「目的指向対話」では「相手との良き人間関係」などに配慮しなくとも,それなりの対話の目的が達成できると考えられてきたからであった.しかしながら,我々が対象としている創発的対話では,参加者皆が積極的に対話に参加するという雰囲気が重要であり,そのためには「相手との良き人間関係」への配慮は不可欠である.そこで,我々の実験ではこのような共話現象が多く観測されると期待されるが,実験の結果はそのような予測を裏付けるものであった.対話1では,発話者Bの発話「おとこのこ」に見られるように,相手の発話を単語レベルで反復することで,相手発話の確認をおこなっている発話を観察することができる.\hspace*{-0.5cm}{\bf対話1}\hspace{0.33cm}単語の反復(音声対話38-8)\footnote[1]{各対話には対話1の(音声対話33-8)のように番号がつけられている,ハイフンの前の数字は組番号(画像音声対話では1〜29,音声対話では31〜39)ハイフンの後の数字は問題番号(1〜10)を表す.},\footnote[2]{各対話はA,Bの2行1組で各行左から右へ時間が経過しており,空白部分(対話1ではAが「うーんおとこのこ」と言っている間のB)は発話していないことを表す.}\\A:うーん\underline{おとこのこ}\\B:\hspace{2.9cm}\underline{おとこのこ}\\\hspace*{-0.5cm}しかし,対話2,3のように,重複する部分が単なる単語ではなく,句になる場合がある.\hspace*{-0.5cm}{\bf対話2}\hspace{0.33cm}同一句の反復(画像音声対話23-8)\\A:なんかしょうねんとのほうが\underline{しぜんなかんじが}おちついているっていうか\\B:\hspace{4.6cm}\underline{しぜんなかんじが}しますね\\\hspace*{-0.5cm}{\bf対話3}\hspace{0.33cm}同意味句の反復(画像音声対話22-1)\\A:かなりなんか\hspace{0.18cm}\underline{としくって\hspace{0.18cm}そーーーーーーですよねー}\\B:\hspace{3.6cm}\underline{ねんぱいみたいですよねーーー}\\\vspace{-3mm}これらの2つの対話では,後発の発話者BはAの発話権を奪って発話しようとする意図をもっていない.BはAの発話を聞いて,創発してきたものを発話した結果として,相手発話に自分の発話が重なってしまったのである.この発話の重複で,後発発話者は相手への確認と同時に,相手への同意を表しており,先発発話者は,これにより相手が自分に同意していることを確認することができる.対話2,3のように同じ内容を表す二人の発話が重なる共話現象を{\bf合話}\cite{Ito1996}と呼ぶ.対話2では自然に二人の発話が重なっているのに対して,対話3では互いに長音を入れて調整することで発話の終了を合わせようとしていることがわかる.合話では,この様に「同じことを同期して発話する」ことが意図されているようである.対話4のように,Aの発話「なれてないかんじが」が,100msec程でBの発話「しますね」に滑らかにつながっていく共話現象である{\bf連話}\cite{Ito1996}も観察された.\hspace*{-0.5cm}{\bf対話4}\hspace{0.33cm}連話(画像音声対話23-8)\\A:なんてゆうか\hspace{2.7cm}\underline{なれてないかんじが}\hspace{1.3cm}するんでうーん\\B:\hspace{1.0cm}ひとのこやからだいじに\hspace{3.0cm}\underline{しますね}\\この対話では,Aが「なれてないかんじが」を発話した後に,Bに発話権を委譲し,Bが「しますね」と発話をつないで文を完結させており,これは共話の1つである.このように,連話では一方の話者が発話を完結せず,相手に発話権を委譲し,相手側が発話を完結する形で対話が進行する.本実験での課題のように,正解が明確でなく解き方も良くわからない問題では,発話者は自分の発話内容に自信がもてない場合がある.この時には,発話者は自分の意見を明言することを避け,相手に発話を委ねることができる.そして,相手の発話内容によって,相手の意見が自分の意見に合致しているかを判断できる.また,相手側は発話権をもらってその後を続けることで,単に自分だけで完全な文を発話するよりも,自分の意見の主張という色彩が弱まる.対話5のように連話をつくって相手と同意見を主張しようとしていたのに,結果的に相手の意見が自分と違っていて,連話が失敗した発話も観察された.\hspace*{-0.5cm}{\bf対話5}\hspace{0.33cm}連話の失敗例(画像音声対話21-5)\\A:おたがいをよくりしあっているという\hspace{0.17cm}\underline{そういうーーーーー}ふ\hspace{0.17cm}ふんいきは\hspace{0.17cm}うん\\B:\hspace{3.7cm}は\hspace{0.17cm}い\hspace{1.33cm}はい\hspace{0.83cm}\underline{ふんいきはしますよー}\hspace{0.17cm}ねぇー\\\vspace{-0.3cm}\\A:あっ\hspace{0.17cm}そうですか\hspace{0.33cm}\underline{あんまりしないなぁとおもって}\hspace{0.33cm}ははは\\B:\hspace{4.0cm}はぁ\hspace{1.33cm}あっ\hspace{0.75cm}そやちょっと\hspace{0.17cm}うーんなんか\\Aが「おたがいをよくしりあっているという」と発話した後で,Bは問題の中の人物が良く知り合っていると思い,またAも同じ意見を持っているだろうと思い,「ふんいきはしますよー」と連話の形で発話した.しかしながら,AはBと反対の意見を持っており「あんまりしないなー」とBの意見に同意をしておらず,ここで,AとBの同期が一時的に崩れている.このように,発話のタイミングとしては二人で一つの対話を作っているにもかかわらず,BがAの心を読み誤ることによって連話は失敗している.しかしながら,この一連の対話により,AはBの考えを引き出していることは重要である.Aが完全な文を発話することでBの反対意見を封じる可能性と比べて,この「失敗した連話」により良い関係が維持できたのではないかと思われる.このように共話は微妙な同期を必要とする.しかしながら,音声対話ではこのような同期が「画像音声対話」に比べて難しいようであった.たとえば,対話6の「でこの...」,「おとこ」に見られるように,二人の発話の開始が同時になり一方が中断することも観察された.これは,相手の顔画像が見えないために発話の同期がとりにくいことが原因であると思われる.\hspace*{-0.5cm}{\bf対話6}\hspace{0.33cm}発話の衝突(音声対話38-8)\\A:あにてるかもしれない\hspace{1.9cm}\underline{でこの}おとこのこはひだりのひとのこども\\B:\hspace{3.4cm}うんうん\hspace{0.6cm}\underline{おとこ}\\また,対話7のAの発話「どうどうですか」に見られるように,相手に発話権を陽に委譲して,直前の自分の発話(この例では「なんとなくおんなのこいやがってそうでしょ」)に対しての相手意見の確認をするための発話が観察された.\hspace*{-0.5cm}{\bf対話7}\hspace{0.33cm}相手への確認要求(音声対話38-8)\\A:おとこのこ\hspace{1.9cm}なんとなくおんなのこいやがってそうでしょ\\B:\hspace{1.6cm}おとこのこ\hspace{6.8cm}ふふ\\\vspace{-0.3cm}\\A:\underline{どう\hspace{0.3cm}どうですか}\\B:\hspace{2.9cm}おとこのこ\\これは,相手の顔画像を見ることができる画像音声対話では,自分の発話に対する相手の反応を見ることができるのに対し,音声対話ではそれができないためであろう.この対話についても,BがAの「いやがってそうでしょ」の部分に対して合話,連話などを用いて適切に対話を継続していれば,次のAの「どうどうですか」は出てこなかったと思われる.\subsection{同意表現}本実験では,相手と合意形成をしながら課題を遂行しなければならないために,対話中には相手への同意・不同意を表す様々な表現が観測される.そのなかで,主に使われているのは,相槌を用いるもの(対話8),相手発話を反復して合話の形で同意を表す同意共話\cite{YanoAndIto1997}(対話9)である.\hspace*{-0.5cm}{\bf対話8}\hspace{0.33cm}相槌での同意(画像音声対話22-8)\\A:ひだりがわのおとこのひとのようにみえますねえ\\B:\hspace{7.4cm}\underline{はい}\\\hspace*{-0.5cm}{\bf対話9}\hspace{0.33cm}同意共話(画像音声対話12-8)\\A:\hspace{1.65cm}\underline{おんなのこのほうがにてる}\\B:\underline{おんなのこのほうがにてるわねー}\\相槌や同意共話には,同意以外にも確認などの意味を持たせることができる.また,これらは韻律を変えることでその意図の強さだけでなく,複数の意図を含ませることができる.本実験では,初対面の相手との関係を課題遂行中にうまく保っていくために,相槌や同意共話が使われたと考えられる.一方,通常は同意に解釈される言葉でも,暗に不同意を表していると思われる例も観察された.「なんとなく」(対話10),「そうか」(対話11),「そうですねえ」(対話12)などは,同意と解釈することも可能であるが,表層データだけでは本当に同意しているのかどうか分らない.発話者はこれを逆に利用して,表層では同意を表すが,韻律を操作することで,自分の意図が不同意であることを暗に伝えることができる.\hspace*{-0.5cm}{\bf対話10}\hspace{0.33cm}同意にも不同意にも解釈できる「なんとなく」(画像音声対話10-8)\\A:\\B:かおもおんなのこだっこしてるときのほうが\\\vspace{-0.3cm}\\A:ああ\hspace{0.17cm}\underline{なんとなく}\hspace{0.83cm}うーーーん\\B:\hspace{1.66cm}なんとなくやわらかいかんじがするんですけどー\\\hspace*{-0.5cm}{\bf対話11}\hspace{0.33cm}曖昧な同意を表す「そうか」(画像音声対話2-3)\\A:\hspace{2.7cm}はは\hspace{4.05cm}ははっ\\B:こんどはぜんぜんたにんどうしかなとおもうんですけど\\\vspace{-0.3cm}\\A:あぁそっ\hspace{0.66cm}\underline{そうか}\hspace{0.17cm}でもすっ\hspace{0.17cm}\underline{そうか}\hspace{0.17cm}たにん\\B:\hspace{1.82cm}はーあ\\\vspace{-0.3cm}\\A:\hspace{1.83cm}ともだちっぽいかなとおもったんですけど\\B:っとうーん\hspace{4.53cm}うーんうんうん\\\hspace*{-0.5cm}{\bf対話12}\hspace{0.33cm}「そうですねえ」での検討中(画像音声対話1-8)\\A:なんか\hspace{0.33cm}だかれてりらっくすしてるかんじもせん\hspace{0.17cm}でもないかなっ\hspace{0.17cm}ていう\\B:\hspace{7.23cm}うーん\hspace{1.0cm}うんうんうん\\\vspace{-0.3cm}\\A:きも\hspace{4.66cm}どうだろう\\B:\hspace{0.66cm}\underline{そうですねえ}\hspace{1.0cm}うーん\hspace{1.33cm}どうかなあむずかしいなあ\\相手の発話に同意できない,またはしたくない場合に,この方法で発話すれば,「私はそうは思いません」や「それはちがうと思います」の様な明確に不同意を表す発話よりも,相手との関係を上手く保つことができる.また,「そうですねえ」,「そうだなあ」を用いた場合は,同意だけでなく自分の意見がまとまってなく,検討中であることを表すこともできる. \section{考察} \subsection{顔画像の有効性}協調作業実験では「画像音声対話」,「音声対話」の二つの条件で実験を行ったが,図3に示されているように表示される互いの顔画像が小さいため,当初は「画像音声対話」と「音声対話」では成績,自信度ともにほとんど差がでないのではないかと心配していた.しかしながら,被験者の自主申告した自信度はそれほど変わらないものの,成績は「画像音声対話」の方が,「音声対話」条件や単独回答条件よりも高いという結果になった.このことから,本タスクではうまく協調すれば成績は上がり得ること,また協調のために顔画像が一定の役割を果たしていることが分かった.一方,課題達成時間と発話文字数は共に「画像音声対話」の方がかなり大きくなり,著者の予想に反した.これは,被験者が実験終了後のアンケートで「画面が小さく相手の表情がわからない」,「相手と目線を合わせられない」と述べている程度の顔画像でも,被験者の対話行動にそれなりの影響を与えていることが分かる.対話時間,発話量が顔画像があると大きくなることは一見不思議に見えるが,これについては他の対話実験でも観測されており,普遍的な現象のようである\cite{Young1994}.これは,おそらく顔画像の存在により対話に対する精神的プレッシャーが少なくなり,対話が長続きするのではないかと思われる.また,顔画像表示画面が小さかったことも「画像音声対話」の発話の促進に良い影響を与えたと思われる.我々が対面対話をするときには相手を見ながら話すが,必ずしも常に相手の顔や目を見ながら話しているわけではない.自分の意見や重要な事を話すときには相手を見ながら話すが,それ以外の時にはそれほど相手のことを直接見ることはない.実際に互いに相手をずっと見ながら対話をすることは,心理的に非常に疲れる行為である.これは,相手からの視線をずっと意識することでうっとうしくなり,対話を継続しようとする意識が希薄になるからだと考えられる.我々の実験では,顔画像が小さかったことと,問題表示部分と顔画像表示部分が離れていることで,対話参加者が必要なときには相手を見ることができ,そうでないときには視線をはずして問題を見ることで,対面対話に近い対話が実現されたと思う.これは,今後のテレビ電話の利用方法に一つのヒントを与えてくれるものと思われる.\subsection{共話}従来の対話収録実験では,話者の目的は与えられた課題を協力して遂行することであり,その時に話者に必要なことは「自分に必要な情報を適切に相手から得て,相手に必要な情報を適切に与える」ことであると考えられてきた.したがって,この課題遂行中の話者の間には,話題展開のための情報の提供が互いに行われている.喜多はこれを「{\bf本質的に非対称的な行動の流れ}\cite{Kita1996}」と呼んだ.これに対して,喜多は日本人の対面コミュニケーション中には,話者間に良い関係を作っていくための{\bf本質的に対称的な行動の流れ}が存在し,それは言語のチャンネルにおいて主に交代のリズムとして現れるとも述べている.解き方が良く分からず,互いに意見を出し合いながら課題を遂行する場合には,情報の提供,取得という本質的に非対称的な行動だけでは,心を持たない機械同士の対話のようになってしまう恐れがあり,互いに協調しようとする気持を殺いでしまうことにもなりかねない.うまく作業を進めるためには,本質的に対称な行動である交代のリズム作りをうまく行い,相手との良い協調関係を作っていくことが不可欠である.創発的対話における共話は,この様な交代のリズムを作るための道具であり,良い関係を作っていくために有効である.実際に,対話4では話者は意図的に細切れに発話することで,発話途中にポーズが入り交代のリズムを作っている.また,対話3,5では発話の最後を長音化することで相手に発話のタイミングを与え,交代のリズムを作りやすくしている.これらの方法を用いて対話のリズムを話者が互いにうまく作ることで,互いの良い関係を維持していると思われる.また,このような形で,同期の取れた対話ができた時には,互いにうまく合意できたという一体感も得られるものと思われる.\subsection{同意表現にあらわれる相手への配慮}地図課題対話では小磯等が重複発話の中で日本語の対話に特有に現れるものを2つに分類して,相手の発話に同調しているかのように発話を重ねる{\bf同調型}と,相手の発話を繰り返す{\bf反復型}があることを述べている\cite{Koiso.etal.1996b}.そこでは,これらの発話を{\bf確認行為}として位置づけている.本実験でも,対話1の話者Bの発話「おとこのこ」に見られるように,相手の発話を単語レベルで反復することで,相手発話の確認をおこなっている発話を観察することができる.しかし,「画像音声対話」では対話2〜4,9のように合話や連話を使って,相手発話への同意を行っており,重複発話も単なる確認行為以上の役割を果たしている.目的指向の対話では,課題遂行のために明確な同意表現が使われ,発話相手にもそれが要求される.しかし,本実験のように相手と良い関係を作って合意形成を行わなければならない課題では,明確かつ断定的な同意表現の多用は,独断的で協調して問題を一緒に解いていこうとする意思が弱いと判断される.例えば,対話2でBがAの発話後に「私もそう思います」と言い切ってしまった場合には,その時点で「少年との方が自然である」ことに関する話題は終わってしまう.このとき,Aがそのことを確信して発話したのであれば,ここで話題が終わってしまってもAにとっては何の問題も生じない.しかし,Aは「少年との方が自然」かもしれないが自信はなく,Bと相談をしようとして発話した場合には,Aはその目的を達成できず,AB間の良い関係を維持することができない.そこで,Bは合話の形でAへの同意を表したと考えられる.また,対話4ではBが連話の形で同意を表すことで,共話の持つ交代のリズムをうまく作り,相手との良い関係を作ろうとしている.一方,対話8では相槌を使って同意を表している.このときの相槌「はい」は,相手への同意を表す以外にも,交代のリズムを作ることで相手への発話の継続を促しているとも考えられる.相槌も同意共話と同様に,同意を表すことに加えて,交代のリズムを作り出すことで相手との良い関係を作り出すことができると考えることができる.したがって,収録対話中に被験者たちは相手との良い関係を崩すこと無く同意を表すために,相槌と同意共話を使ったと考えられる. \section{おわりに} 我々は,対話における重要な2つの側面「即興性」「創造性」に注目し,その2つが満たされている,創発的な対話の収録を行った.対話の創発性が観測されるように,事前に正解を導く手順が存在しない問題を初対面同士で解くという,対話戦略を立てるのが困難な状況を設定し,そこでの協調作業実験対話を収録した.また,収録対話を収録音声波形と対応付け,対話分析用のコーパスとして整備した.得られた対話コーパスでは,発話権を上手く操作することで二人で一つの発話文を完成させる共話,合話・連話,相手への同意を表すための相槌,同意共話など,相手との良い関係を維持するための行為が観察された.これらの行為の特徴をさらに分析し,対話システムに実装することで,合意形成のように話者間の良い関係を必要とする対話が,システムと人との間で可能になるだろう.今回の対話収録実験では被験者を年齢層の異なる初対面の女性同士に限定した.合意形成においては互いの年齢層の違い,親密度等により発話形態がかなり変わってくると考えられ,異った条件での対話の収録とその分析も興味ある課題である.\bibliographystyle{jnlpbbl}\bibliography{v06n4_06}\begin{biography}\biotitle{略歴}\bioauthor{矢野博之}{1986年東北大学工学部通信工学科卒業.1992年同大学院工学研究科博士課程単位取得退学.同年,郵政省通信総合研究所入所,現在,同所関西支所知識処理研究室主任研究官.博士(工学).発話の認知モデル,自然言語処理の研究に興味を持つ.日本認知科学会,人工知能学会等の各会員.}\bioauthor{伊藤昭}{1972年京都大学理学部物理学科卒業.1979年同大学院理学研究科博士課程終了.理学博士.同年,郵政省電波研究所(現通信総合研究所)入所,同関西支所知識処理研究室長,研究調整官をへて,現在山形大学工学部電子情報工学科教授.知識処理,対話システム,ヒューマン・インターフェース,エージェントモデル,コミュニケーションの認知機構などの研究に従事.人工知能学会,電子情報通信学会,情報処理学会,日本ソフトウェア科学会,ACM,AAAI各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V27N01-01
\section{はじめに} 機械学習に基づく言語処理システムは,一般に,訓練に用いたテキストドメインと,実際に運用ないし評価を行うテキストドメインが異なる場合に精度が低下する.この,訓練時と運用・評価時のテキストドメインの異なりによる精度低下を防ぐという課題を,ドメイン適応問題と呼ぶ.以下では,訓練に用いるデータのテキストドメインを適応元ドメイン,運用ないし評価を行うデータのテキストドメインを適応先ドメインと呼ぶ.ドメイン適応が必要になる理由は,端的にいえば,訓練データと評価データが同一分布からのサンプルであるという統計的機械学習の基本的な前提が破られていることにある.このため,最も基本的なドメイン適応手段は,適応先ドメインのアノテーション付きコーパスを訓練データに追加してモデルを訓練しなおすこと,すなわち,いわゆる追加訓練によって,訓練データと評価データの分布を近づけることである.このように,追加訓練という明らかな解決法が存在するドメイン適応問題を,ことさら問題として取り上げるのには主に2つの理由がある.ひとつは工学的あるいは経済的な理由である.我々が言語処理技術を適用したいテキストドメインが多様であるのに対して,既に存在するアノテーション付きデータのドメインは限られており,かつ,ターゲットとなるドメインごとに新たにアノテーションを行うことには大きなコストが必要となる.また,単純な追加訓練を超えるドメイン適応技法の中には,大量に存在する適応先ドメインの生テキストを活用することでアノテーションのコストを抑えることを狙うものもあるが,本稿で取り上げる適応先ドメインの一つである教科書テキストのように,そもそも,生テキストですら大量に存在する訳ではないドメインもある.このため,既存のアノテーション付きデータに比べ相対的に少量しか存在しない適応先ドメインデータをどのように活用するかは,重要な技術課題となる.ドメイン適応問題が重要である2つ目の理由は,単一言語のデータには,明らかにテキストドメインを超えた共通性が存在するという点にある.例えば,教科書テキストを解析したい場合でも,モデルを新聞テキストで訓練することには,当然ある程度の有効性がある.簡単にいえば,「どちらも日本語だから」そのようなことが可能になるわけであり,およそ全てのドメイン適応技術はこの前提に基づいているが,しかし我々は「日本語とは何か」ということの数理的・統計的な表現を知った上でこれを行っている訳では当然ない.逆に言えば,ドメイン適応課題とは,あるタスクの精度向上という目的を通じた間接的な形であれ,「日本語とは何か・日本語テキストに共通するものは何か」の理解に近づくための一つの試みであるといえる.以上の2つの理由のいずれからも,最も基本的なドメイン適応手段である追加訓練が,どのような例に対して有効で,どのような例に対してそうでないのかを知ることには大きな意義がある.それを知るための基本的な方法は,追加訓練によって改善された誤りとそうでないものを一つ一つ観察し分類してゆくことだが,これを通じて,追加訓練によって全体として何が起こっているのかを把握することは必ずしも容易でない.そこで本稿では,追加訓練の効果を俯瞰的に観察・分析するための一手法を提示し,日本語係り受け解析タスクにおける追加訓練を例として,その効果の分析を行った結果を報告する.本研究における分析手法は,追加訓練前後の係り受け誤り例の収集・係り受け誤りの埋め込み・埋め込みのクラスタリングの3つのステップに分けられる.係り受け誤りの埋め込みは,クラスタリングを行うための前処理のステップであり,ニューラルネットに基づく係り受け解析器の内部状態を用いて,係り受け誤りを密な実数ベクトルで表現する.解析器の内部状態を用いることで,データにもとづいて導出された,係り受け解析タスクにおいて重要な特徴を抽出した表現に基づくクラスタリングを行うことができ,いわば,「解析器の視点」からの追加訓練の効果の分析が行えると期待できる.次に,こうして得られた埋め込みをクラスタリングすることで追加訓練の効果を俯瞰的に観察・分析する.具体的には,クラスタリング結果に対していくつかの統計的・定量的分析を行い,高次元の空間の点として表現された誤りの分布と,追加訓練による誤りの解消・発生の様子を観察する.さらに,適応先ドメインごとに,追加訓練の効果が特徴的に表れているクラスタや,効果が見られないクラスタに着目してその内容を観察することで,追加訓練の効果に関わるドメインごとの特徴を分析する.この際,一つ一つの誤り例だけでなく,まずクラスタとしてまとめて観察することで,追加訓練によって改善しやすい誤りや,ドメインごとに発生しやすい誤りを見出すことが容易になると考えられる.さらに,追加訓練の効果やドメイン間の差について,クラスタに含まれる誤りの観察をもとに仮説を立て,コーパス上の統計量にもとづきそれを検証することで,ドメイン適応の有効性に関わるテキストドメインの特徴を把握し,よりよい追加訓練手法のための基礎的な知見を得ることが期待できる.本稿では,適応元ドメインとして新聞記事,適応先ドメインとして理科教科書および特許文書を用いて上記の分析を行った結果を報告する.追加訓練の効果が特に強く認められたクラスタの誤りを詳細に分析した結果,「{$X$}は+{$V_1$}スル+{$N$}は/が/を+{$V_2$}スル」「{$X$}は+{$V_1$}スルと+{$V_2$}スル」(「{$V_k$}スル」は用言,{$N$}は体言)など,どのドメインにも出現する文型に対して,正しい構造の分布がドメイン間で異なることが学習されたためであると分かった.追加訓練が効果を上げる理由としては,大きく分けて,(a)適応元ドメインでは稀な構文が新たに学習されること,および,(b)表層的には類似した文型に対する正しい構文構造(の分布)が,適応元ドメインと適応先ドメインで異なることが学習されることの2つが考えられる.本研究の分析の結果からは,後者が追加訓練の主要な効果であることが示唆される.なお,本研究における分析手法は追加訓練と誤りの収集が可能な解析器であればニューラル解析器に限らず適用することができる.例えば,{\cite{weko_192738_1}}では\eijiSVM\Eijiを用いた解析器である\eijiCaboCha\Eiji{\cite{cabocha}}に対する追加訓練の影響を,ニューラル解析器から得られる埋め込み表現とクラスタリングを用いて分析している.ただし,本稿では誤り収集と埋め込み表現の作成は同じ解析器で行った.以下,\ref{sec:related_works}節で関連研究についてまとめ,\ref{sec:teian}節で分析手法について詳述する.\ref{sec:zikken}節で実験結果を述べ,\ref{sec:owarini}節でまとめと今後の展望を述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2 \section{関連研究\label{sec:related_works}} ドメイン適応問題に対する研究は数多くあるが,それらは大きく分けると2つのアプローチに分けられる.一つ目のアプローチは効果的な学習法に関するものである.このアプローチは少量しかない適応先ドメインデータの情報をより強く反映し,正しく解析を行うため,一般的な機械学習のプロセスの一部を変更するものである.例えばDaum\'{e}IIIら\cite{daume2006domain}は学習時の適応先ドメインデータの重みを適応元ドメインデータと変える方法を提案した.Daum\'{e}III\cite{daume2009frustratingly}は両方のドメインに共通の情報と固有の情報とを素性表現を使って工夫して学習する方法を提案した.McCloskyら\cite{mcclosky2010automatic}は複数の適応元ドメインの重みつき和によって適応先ドメインを表現する手法を提案した.Wangら\cite{wang-etal-2017-sentence}は適応先ドメインに類似した適応元ドメインデータだけをモデルの内部表現を用いて選択,訓練に用いる手法を提案した.Satoら\cite{sato-etal-2017-adversarial}は両方のドメイン共通の情報と固有の情報を敵対的学習を用いて分離し,訓練を行った.二つ目のアプローチは効率的な適応先データの収集法に関するものである.アノテーションされた適応先データは少ないが,生の適応先データは大量に利用できるという場合に利用できる手法で,生の適応先データのうち最も精度上昇に寄与するデータを選択し,そのデータを訓練データに追加するというものである.この手法はアクティブラーニングと呼ばれ,この手法を用いても適応先ドメインのアノテーションコストを減少できると期待できる(例えば{\cite{marcheggiani2014experimental,li2016active}など).}また,本研究はニューラルモデルの挙動について,特に追加訓練の効果に焦点を当てて説明しようとする研究とも位置付けられるが,複雑なニューラルモデルの挙動を様々な側面から理解しようとする試みは近年注目を集めている.例えば,Kohら\cite{influence}は損失関数の微分を用いて特定の訓練例や特定の素性が出力に与える影響を調べた.Tenneyら\cite{tenney-etal-2019-bert}は最終的な決定に対して\eijiBidirectional\Eiji\eijiEncoder\Eiji\eijiRepresentations\Eiji\eijifrom\Eiji\eijiTransformers\Eiji\eiji(BERT)\Eiji\cite{devlin-etal-2019-bert}の各層がもたらす寄与と,各層を追加することによる精度上昇量をもとにBERTの各層の振る舞いを調べた.本研究では特に追加訓練の効果を理解することを目的として係り受け誤りの分類・分析を行うが,より一般に,係り受け誤りの分類・分析を通した性能の改善に関しては先行研究が存在する.例えば,金山{\cite{weko_48179_1}}は,係り受け誤りについての調査から誤りの共通点を見出し,正解と誤りを区別する素性を追加することで誤りを減少させた.河原ら{\cite{ws_pnn03_parsing}}は,係り受け誤りをいくつかのパターンに分類し,それぞれのパターンについての対処法を述べ,さらに現在の性能評価の問題点や後続のタスクへの影響についても議論した.これらの先行研究は主として特定のドメインにおける係り受け誤りの改善を目的としているが,本研究ではドメインごとの差から生じる誤りや,追加訓練による誤り傾向の変化の分析を目的とする点でこれらと異なる.また,先行研究では誤りを人手で分類しているが,本研究は解析器の内部状態を用いて自動的に分類している.これによって,人手での分類が困難なほど多数の係り受け誤りを俯瞰的に観察することが可能になる.さらに,人の目を通して把握した文型や言語現象の類似性ではなく,解析器の内部状態を基に誤りを自動分類することで,データからの学習の効果と結びつけやすい形で誤りが分類できると期待できる.以上のように,ドメイン適応問題に関する研究やニューラルモデルの挙動について説明する研究,および誤り分析に関する研究は多く存在するが,ドメイン適応問題において追加訓練が解析結果にもたらす影響について,単なる精度の向上ではなく,その内実を理解することを目的とした研究は少ない.本研究は,これを目的として誤り傾向の変化を定性的・定量的に分析したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{27-1ia1f1.eps}\end{center}\caption{分析の流れのブロック図}\label{fig:zentaizou}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3 \section{分析手法\label{sec:teian}} 本節では分析手法について述べる.図\ref{fig:zentaizou}に分析の流れのブロック図を示す.以降ではそれぞれのブロックについて詳しく述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3.1\subsection{係り受け解析器\label{subsec:parser}}はじめに,本研究で用いる係り受け解析器について述べる.これは図\ref{fig:zentaizou}の誤り収集・誤り埋め込みブロックで用いられる.本研究で用いるモデルは,松野ら\cite{neuralgraph}のものをベースとしている.松野らのモデルとの相違点については本項の最後にまとめる.本研究で用いる係り受け解析器を図\ref{fig:parser}に示す.この解析器は大きく文節埋め込み層(図下側)とスコア計算層(図上側)に分けられる.さらに文節埋め込み層は以下の3ステップに分けられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{27-1ia1f2.eps}\end{center}\caption{解析器の構成}\label{fig:parser}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{1.形態素層}形態素の素性表現ベクトル列$\bm{x}^{word}_i$に対しBi-directionalLong-ShortTermMemory(BiLSTM)を適用することで,各形態素を文脈を考慮した埋め込み表現$(\overleftarrow{\bm{y}}^{word}_i,\overrightarrow{\bm{y}}^{word}_i)$に変換する.\begin{align}(\overleftarrow{\bm{y}}^{word}_i,\overrightarrow{\bm{y}}^{word}_i)={\rmBiLSTM}^{word}(\bm{x}^{word}_i)\end{align}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{2.差分層}$\overleftarrow{\bm{y}}^{word}=(\overleftarrow{\bm{y}}^{word}_0,\dots,\overleftarrow{\bm{y}}^{word}_{M+1}),\overrightarrow{\bm{y}}^{word}=(\overrightarrow{\bm{y}}^{word}_0,\dots,\overrightarrow{\bm{y}}^{word}_{M+1})$($M$は形態素数)に対し,文節に属する形態素の情報が入力される前の情報と全ての情報が入力された後の情報の差分を取ることで文節を表す表現$\bm{x}^{chunk}=(\bm{x}^{chunk}_1,\dots,\bm{x}^{chunk}_C)$($C$は文節数)を求める.$t$番目の文節が$i$番目の形態素から$j$番目の形態素で構成されているとき,$\bm{x}^{chunk}$は以下のように計算される.ただし,{$\oplus$はベクトルの結合を表す.}\pagebreak\begin{align}\overleftarrow{\bm{x}}_t^{chunk}&=\overleftarrow{\bm{y}}_i^{word}-\overleftarrow{\bm{y}}_{j+1}^{word}\\\overrightarrow{\bm{x}}_t^{chunk}&=\overrightarrow{\bm{y}}_{j}^{word}-\overrightarrow{\bm{y}}_{i-1}^{word}\\\bm{x}_t^{chunk}&=\overleftarrow{\bm{x}}_t^{chunk}\oplus\overrightarrow{\bm{x}}_t^{chunk}\end{align}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{3.文節層}$\bm{x}^{chunk}$をBiLSTMに通すことで周辺の文脈も含んだ文節の情報を表す表現\\$\bm{y}^{chunk}=(\bm{y}^{chunk}_0,\dots,\bm{y}^{chunk}_{C+1})$(以降,文節埋め込み表現)にする.\begin{align}(\overleftarrow{\bm{y}}_t^{chunk},\overrightarrow{\bm{y}}_t^{chunk})&={\rmBiLSTM}^{chunk}(\bm{x}^{chunk}_t)\\\bm{y}_t^{chunk}&=\overleftarrow{\bm{y}}_t^{chunk}\oplus\overrightarrow{\bm{y}}_t^{chunk}\end{align}スコア計算層では{$t$番目の文節と{$u$}番目の文節}$(t<u)$について,それらの文節埋め込み表現$\bm{y}_t^{chunk},$$\bm{y}_u^{chunk}$を多層パーセプトロンに入力することで,2文節間の係り受け関係スコアを計算する.$t$番目の文節が$u$番目の文節に係る時の係り受け関係スコア$s_{t,u}$は以下のように計算される.\begin{align}s_{t,u}&={\rmMLP}(\bm{y}_t^{chunk}\oplus\bm{y}_u^{chunk}\oplus[\:{\rmI}(u-t=1),{\rmI}(u-t\le5)\:])\\{\rmI}(x)&=\begin{cases}1&(x\:{\rmis}\:{\rmtrue})\\0&(x\:{\rmis}\:{\rmfalse})\end{cases}\end{align}$\mathrm{I}(u-t=1)$は文節間距離が1であるかという素性を,{${\rmI}(u-t\le5)$}は文節間距離が5以下であるかという素性を表す.文節間距離素性は係り受け解析において大きな役割を果たすため,精度を向上させる目的でこのタイミングで明示的に導入する.文節間距離素性の境界値の設定(1,2〜5,6以上)は\eijiCaboCha\Eijiの実装に従ったものである.このスコア計算モデルと,遷移ベース係り受け解析アルゴリズムである内元ら\cite{maximumentropy}のアルゴリズムを用いて係り受け解析を行う.内元らのアルゴリズムは,ある係り文節に対し受け文節となりうる全ての文節\footnote{1.係り文節より後ろに存在すること,2.非交差条件を満たすこと,の2つを満たす文節.}について係り受け関係スコアを計算し,最もスコアが高い文節を受け文節と決めるということを後ろの文節から順に繰り返すことで構文木を構築する.正しい係り受け文節ペアを入力した時のスコアが他のペアを入力した時のスコアより高くなるようにするため,損失関数${\rmloss}$を以下のように定義し,訓練を行った.\begin{align}{\rmloss}=-\sum_{u'\in\mathcal{C}_t}\log\frac{\exp(s_{t,u})}{\exp(s_{t,u})+\exp(s_{t,u'})}\end{align}ただし,$t$は係り文節,$u$は正しい受け文節,$\mathcal{C}_t$は受け文節の候補集合を表す.係り受け解析器の追加訓練を行う際は,適応元ドメインのデータで訓練したパラメータを初期値とし,適応先ドメインのデータによる訓練を行った.本研究における分析では,追加訓練前後の誤り傾向の変化を,文節埋め込みの空間内でどの領域に配置される誤りが減少あるいは増加したか,という観点から捉える.また,この観察を複数の適応先ドメインに渡って行う.各適応先ドメインでの追加訓練の前後で文節埋め込み自体が変化すると,そのような形で誤りの変化を観察することはできない.そのため,文節埋め込み層のパラメータは固定し,スコア計算層のパラメータのみ学習するようにした.本研究で用いるモデルと松野らのモデルでは,係り受け関係スコアの計算法および解析アルゴリズムが異なる.松野らは文節埋め込み表現に対し,係り文節/受け文節専用の多層パーセプトロンを適用したあとでBiaffine変換を用いることで,係り受け関係スコアを計算している.\eijiBiaffine\Eiji変換は最大で2つの要素の組み合わせ素性を用いた回帰を行えるが,隠れ層1層の多層パーセプトロンでも,隠れ層のユニット数が十分であれば実質的に同じように組み合わせ素性を用いて回帰を行うことができる{\cite{Cybenko1989}}.そのため,表現力は同等(以上)であると考えられる.そこで本研究では多層パーセプトロンを用いた図\ref{fig:parser}の構成で解析を行った.また解析アルゴリズムとして松野らはグラフベース解析アルゴリズムを使っている.グラフベース解析アルゴリズムの典型例は,係り受けが非交差という条件の下で2文節間の係り受けスコアの和を最大化する構文木を求めるものである.このような手法では,非交差制約によって,ある2つの文節間の係り受けスコアの変化が構文木全体の形状に影響する場合がある.このため,係り受け関係スコアと構文木上で生じる誤りの関係が遷移ベースの解析法ほど明確でない.そこで本研究では遷移ベースのアルゴリズムを用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3.2\subsection{係り受け誤りの収集・埋め込み}\label{subsec:syusyu}この項では,図\ref{fig:zentaizou}の誤り収集・誤り埋め込みブロックについて述べる.本研究の目的は追加訓練の前後における係り受けの誤り方の変化の分析である.そのために,表\ref{tab:syusyubunrui}に示す3種類の係り受け誤りの例を収集する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\caption{係り受け誤りの分類}\label{tab:syusyubunrui}\input{01table01.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{a.適応元ドメインにおける誤りの収集}適応元ドメインのデータを訓練データと評価データが1:1になるように分割し,訓練データを用いてモデルを訓練する.得られたモデルを用いて評価データを解析した際の誤りを用いる.適応元ドメインはデータ量が多く,かつ,標準的な日本語をある程度代表するテキストドメインだと仮定しているため,この誤りをクラスタリングした結果を分析({\ref{subsec:clustering}}項)における誤りタイプの基準として用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{b.追加訓練前の適応先ドメイン誤りの収集}追加訓練前の適応先ドメインの解析誤りとして,aで得られたモデルを用いて,適応先ドメインのデータ全てを解析した際の誤りを用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{c.追加訓練後の適応先ドメイン誤りの収集}追加訓練後の適応先ドメインの解析誤りとして,aで得られたモデルを4分割交差検証の要領で追加訓練・評価する.つまり適応先ドメインのデータを4つに分割し,そのうちの3つを用いて追加訓練によりモデルを作成,残り1つのデータを解析する,というプロセスを,評価に用いるデータを順番に入れ替えながら4回行い,得られた誤りを用いる.これらの誤りのうち,bを追加訓練前誤り,cを追加訓練後誤りと呼ぶ.なお,追加訓練後の解析器を用いて適応元ドメインのデータを解析した際の誤りは使用しない.その理由は,本研究の対象が追加訓練前後における適応先ドメインの解析誤りの変化であり,適応元ドメインの解析誤りの変化には興味がないためである.上のようにして得られた係り受け誤りはそのままでは数値的な取り扱いが難しい.そのため,数値表現に変換する.係り受け誤りには係り文節$b_1$,本来$b_1$が係るべき正しい受け文節$b_2$,解析器が誤って出力した受け文節$b'_2$という3つの主たる要素がある.本研究では係り受け誤り埋め込み表現を$b_1,b_2,b'_2$それぞれの文節の文節埋め込み表現(\ref{subsec:parser}項)と距離素性を結合したものと定義する.距離素性は係り文節が文の先頭から$a$番目に,正しい受け文節が$b$番目に,誤って選択した受け文節が$c$番目に存在するときの,${\rmI}(b-a=1),{\rmI}(b-a\le5),{\rmI}(c-a=1),{\rmI}(c-a\le5)$の値を結合させたベクトルである.係り受け誤り埋め込み表現はベクトルなので,数値的な取り扱いが容易になり,次項のクラスタリングを行えるようになる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3.3\subsection{クラスタリング・定量的分析}\label{subsec:clustering}この項では図\ref{fig:zentaizou}のクラスタリング・分析ブロックについて述べる.係り受け誤りは一つ一つ見ることである程度誤りの原因が推測できるものの,そのような分析のみでは全体としての傾向は掴みにくい.そこで俯瞰的に分析するためにクラスタリングを行う.クラスタリングアルゴリズムとしてはデータ件数の多さを考慮し,k-means法を用いる.k-means法では,データのみならず初期値によっても結果が変化するため,追加訓練前誤りと追加訓練後誤りを独立してクラスタリングしてしまうと,得られるクラスタ集合の間で一対一の対応関係が自然に見いだせるとは限らない.その場合,追加訓練前後の比較が難しくなるため,それを防ぐために以下のようにクラスタリングを行う.\begin{enumerate}\item適応元ドメイン誤り(表\ref{tab:syusyubunrui}のa)のみを用いてk-means法でクラスタリングする.\item適応先ドメイン誤り(表\ref{tab:syusyubunrui}のb,c)のそれぞれの埋め込み表現を,手順1で得られたクラスタのうち,最もクラスタ重心が近いものに割り当てる.\end{enumerate}以上の手順は,まず数の多い適応元ドメインにおける誤りを,クラスタリングを通じてグループ化することで誤りタイプを定め,次に追加訓練前後それぞれの適応先ドメイン誤りを,近い誤りタイプに分類していくことを意図している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4 \section{実験} \label{sec:zikken}\ref{sec:teian}節で述べた分析手法に基づき,追加訓練の効果を調べる実験を行った.本節ではその詳細と分析結果について述べる.以下,\ref{subsec:data}項で利用したデータ,\ref{subsec:syusyukekka}項で係り受け誤りの収集結果について述べ,\ref{subsec:bunnseki}項で係り受け誤りのクラスタリング結果に基づく定量的分析についてまとめ,\ref{subsec:saranarubunnseki}項で,いくつかのクラスタの観察を通じて,追加訓練におけるドメインごとの特徴を分析した結果について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\caption{適応元ドメイン・適応先ドメインの統計}\label{tab:toukei}\input{01table02.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.1\subsection{利用データ}\label{subsec:data}追加訓練の効果を調べるためのデータとして以下の3種類の係り受けアノテーション付きコーパスを用いた.\begin{itemize}\item京都大学テキストコーパス\cite{kyotocorpus}(以下,新聞記事)\\1995年1月1日から17日までの毎日新聞の記事にアノテーションを付与したもの.\item東京書籍「新編新しい科学(中学1年生,中学2年生)」(以下,理科教科書)\\中学1年生向け,中学2年生向けの理科の教科書にアノテーションを付与したもの.\item特許文書\\高分子化合物に関する特許の実施例の箇所にアノテーションを付与したもの.\end{itemize}これらのうち,新聞記事を適応元ドメイン,理科教科書および特許文書を適応先ドメインとして扱う.それぞれのコーパスの統計情報を表\ref{tab:toukei}に示す.表からわかるように,適応先ドメインの量は適応元ドメインよりも少量(10\%未満)である.また新聞記事や理科教科書と比べると,特許文書の方が文が長いということがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.2\subsection{係り受け誤りの収集結果}\label{subsec:syusyukekka}\ref{subsec:parser}項で述べた解析器を,以下のようにハイパーパラメータを設定して訓練した.入力は形態素の品詞(4レベル)・活用形・活用タイプのそれぞれを20次元の埋め込み層に通したものと,形態素の基本形\footnote{訓練データにおいて出現回数1回以下の基本形はUNKトークンに置き換えた.}を200次元の埋め込み層に通したものを結合した320次元のベクトルの系列とした.形態素層・文節層のBiLSTMは隠れ層が1層300次元のものを用いた.訓練アルゴリズムは学習係数0.01のAdaGradで,ミニバッチサイズは32文,重み減衰係数は$10^{-5}$とした.訓練中の勾配爆発を抑えるため,勾配のノルムは5に制限した.エポック数は最大32エポックだが,各エポックの結果のうちで評価データにおける損失が最も少ないものを最終結果とした.実装にはChainer\cite{tokui2015chainer}を用いた.なお,訓練および誤りの収集いずれにおいても,単語区切り・品詞・文節区切りは正解データのものを用いた.追加訓練では\ref{subsec:syusyu}項で述べたように4分割交差検証の要領で訓練を行ったが,理科教科書と特許文書では分割の方法を変えて訓練した.具体的には理科教科書(および新聞記事の訓練・評価データ)の分割は文単位で行い,特許文書は文書単位で行った.その理由は,同じ特許文書内では,物質の生成手順をパラメータを変えて繰り返す記述など,極めて類似した文が連続することが多く,それらが訓練データと評価データに分かれると正しく汎化性能を評価できないと考えたためである.追加訓練前後の解析器の精度および収集できた係り受け誤りの数を表\ref{tab:syusyukekka}に示す\footnote{表の「文節単位精度」の計算において文末文節は対象外とし,文末から1つ前の文節は対象とした.また「文単位精度」の計算において文節数が1の文は対象外とした.}.理科教科書・特許文書それぞれについて追加訓練の前後を比較すると,文節単位精度が3ポイント以上向上していることから,追加訓練には効果があることが確認できる.また,追加訓練前の理科教科書の文節単位精度と比べて特許文書の文節単位精度は2.5ポイントほど低いことから,特許文書の解析には新聞記事での訓練だけでは不足することが多いと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\vspace{-0.5\Cvs}\caption{解析器の精度および収集できた係り受け誤りの数}\label{tab:syusyukekka}\input{01table03.tex}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.3\subsection{係り受け誤りのクラスタリングと分析}\label{subsec:bunnseki}前項で収集した係り受け誤りを\ref{subsec:syusyu}項で述べた手法で埋め込み表現に変換した.\pagebreakそれらをクラスタ数30として\ref{subsec:clustering}項で述べた手法を用いてクラスタリングした.係り受け誤りをクラスタリングしたものを主成分分析を用いて平面上にプロットした結果を図\ref{fig:news}から図\ref{fig:patent}に示す\footnote{図では見やすさのためクラスタ数10としてクラスタリングした時の分布を示す.小さい点が係り受け誤りを,大きい丸がクラスタ重心を表す.}.以降では,得られたクラスタを用いて定量的分析を行っていく.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3and4\begin{figure}[b]\setlength{\captionwidth}{198pt}\begin{tabular}{cc}\begin{minipage}{198pt}\begin{center}\includegraphics{27-1ia1f3.eps}\end{center}\hangcaption{新聞記事の係り受け誤り埋め込み表現を平面にプロットした図}\label{fig:news}\end{minipage}&\begin{minipage}{198pt}\begin{center}\includegraphics{27-1ia1f4.eps}\end{center}\hangcaption{図\ref{fig:news}のクラスタ集合を3つのまとまりに分割した図}\label{fig:news_app}\end{minipage}\end{tabular}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5and6\begin{figure}[b]\setlength{\captionwidth}{198pt}\begin{tabular}{cc}\begin{minipage}{198pt}\begin{center}\includegraphics{27-1ia1f5.eps}\end{center}\hangcaption{理科教科書(追加訓練前)の係り受け誤り埋め込み表現を平面にプロットした図}\label{fig:notext}\end{minipage}&\begin{minipage}{198pt}\begin{center}\includegraphics{27-1ia1f6.eps}\end{center}\hangcaption{理科教科書(追加訓練後)の係り受け誤り埋め込み表現を平面にプロットした図}\label{fig:text}\end{minipage}\end{tabular}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7and8\begin{figure}[b]\setlength{\captionwidth}{198pt}\begin{tabular}{cc}\begin{minipage}{198pt}\begin{center}\includegraphics{27-1ia1f7.eps}\end{center}\hangcaption{特許文書(追加訓練前)の係り受け誤り埋め込み表現を平面にプロットした図}\label{fig:nopatent}\end{minipage}&\begin{minipage}{198pt}\begin{center}\includegraphics{27-1ia1f8.eps}\end{center}\hangcaption{特許文書(追加訓練後)の係り受け誤り埋め込み表現を平面にプロットした図}\label{fig:patent}\end{minipage}\end{tabular}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[b]\begin{center}\includegraphics{27-1ia1f9.eps}\end{center}\caption{図\ref{fig:news_app}のそれぞれのまとまりに属する各誤りを構成する3つの文節の品詞の組の分布}\label{fig:error_pattern}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.3.1\subsubsection{クラスタ集合の傾向の分析}図\ref{fig:news}を観察すると,図\ref{fig:news_app}のようにいくつかのクラスタをまとめることで,大きく3つの誤りタイプに分割できそうである.以降では左のまとまり(赤)を\mr,中央のまとまり(緑)を\mg,右のまとまり(青)を\mbと呼ぶ.このように3つに分割した群が係り受け誤りの特徴をどのように反映しているか調べるため,それぞれの群の係り受け誤りに対して,<係り文節の最後の単語\footnote{記号は除く.}の品詞,正しい受け文節の最初の単語\footnote{記号,接頭詞は除く.誤って選択した受け文節も同じ.}の品詞,誤って選択した受け文節の最初の単語の品詞>の3つ組を作成し,分布を調べた.その結果を図\ref{fig:error_pattern}に示す\footnote{スペースの都合上,どのまとまりにおいてもまとまり全体の1\%未満しか含まれていなかった3つ組はまとめて「その他」とした.}.\mbは\mr,\mgと大きく異なっており,正しい受け文節と誤った受け文節がともに名詞であるパターンが多かった.\mrと\mgについては似た分布となっているが,\mrは3つ組のうち2つが動詞である誤りが\mgよりも相対的に多くなり,それ以外では\mgより少なくなっているという特徴があった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.10\begin{figure}[b]\begin{center}\includegraphics{27-1ia1f10.eps}\end{center}\caption{図\ref{fig:news_app}のそれぞれのまとまりに属する各誤りを構成する文節の読点の有無の分布}\label{fig:error_touten}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.11\begin{figure}[b]\begin{center}\includegraphics{27-1ia1f11.eps}\end{center}\hangcaption{図\ref{fig:news_app}のそれぞれのまとまりに属する各誤りの係り文節〜正しい受け文節/係り文節〜誤った受け文節間距離の分布.ただし,$=1$は距離が1であることを,$\le5$は距離が2--5であることを,$\ge6$は距離が6以上であることを表す.}\label{fig:error_bunsetu_distance}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%他にも係り受け関係に影響を与える要素である読点の有無と文節間距離を調べるため,図\ref{fig:news_app}のそれぞれのまとまりに属する誤りに対し,係り文節/正しい受け文節/誤った受け文節が読点を含んでいるかどうかの3つ組の分布(図\ref{fig:error_touten})および<係り文節から正しい受け文節までの文節間距離,係り文節から誤った受け文節までの文節間距離>の2つ組の分布(図\ref{fig:error_bunsetu_distance})を調べた.\mbは全ての文節に読点が無いパターンが相対的に多く,距離が短い係り受け関係に偏っていた.\mrは\mgと比べると係り文節に読点があるパターンが相対的に多く,距離が6以上の係り受け関係に偏っていた.以上で調べた品詞,読点の有無,および文節間の距離は係り受け誤り埋め込みの分布と完全に対応しているわけではないものの,それらと係り受け誤りの空間内でのまとまりに関連性があったことから,埋め込み表現は係り受け誤りの構文的な特徴をある程度捉えていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.12\begin{figure}[b]\begin{center}\includegraphics{27-1ia1f12.eps}\end{center}\caption{新聞記事・理科教科書・特許文書のそれぞれの誤りについての正規化距離の分布}\label{fig:distance}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.3.2\subsubsection{正規化距離による分析}図\ref{fig:news}から図\ref{fig:patent}を見ると,少なくとも第1,第2主成分のなす平面上では,新聞記事誤りの分布から大きく離れた位置には適応先ドメイン誤りが存在しないことがわかる.理科教科書と特許文書の誤りについて,新聞記事誤りの分布との違いをより詳しく見るため,誤りからそれが属するクラスタの重心までの正規化距離のヒストグラムを作成した.ここでいう誤り$e$の正規化距離とは,誤り$e$の所属するクラスタを$C$,$C$の重心を$c$,$C$に属する新聞記事誤りの集合を$N$として以下のように計算される値である.\begin{align}\frac{||e-c||}{\sqrt{\frac{\sum_{n\inN}||n-c||^2}{|N|}}}\end{align}すなわち誤りから最寄りのクラスタ重心までの距離を,クラスタを等方的正規分布からの標本と見たときの分散の平方根で正規化したものである.その結果を図\ref{fig:distance}に示す.また,それぞれのドメインについての正規化距離の平均を表\ref{tab:distance}に示す.この図や表から新聞記事誤りと比べて理科教科書誤りは重心に近い傾向が,特許文書誤りは重心から遠い位置($\ge1.2$)にも存在する傾向があり,ドメインごとに特徴があることが確認できる.また追加訓練前後を比較すると,理科教科書誤りは訓練によってより重心に近い側に偏る傾向があり,特許文書誤りは訓練によってより重心から遠い側に偏る傾向があることがわかる.しかし,どちらの適応先ドメインでも,かつ,追加訓練の前後いずれにおいても,誤りからクラスタ重心までの距離は新聞記事誤りに比べて極端に遠いものが多い訳ではないことが分かる.このことから,適応先ドメインにおける誤りは,解析器の内部状態が新聞記事上では起こらなかったような状態(いわば解析器にとって「未知の内部状態」)になったために起こったわけではなく,新聞テキストと適応先ドメインのテキストは,解析器内の中間表現としては類似しているが,解析器が取るべき正しいアクションが異なっているために誤りが生じていることが示唆される.よって,新聞記事誤りを基準として適応先ドメイン誤りを分類することで,おおまかには構造的に類似した誤りのクラスタが得られると予想される.さらに詳細には,「解析器の視点」からは類似しているように見えるものの,本来は新聞と適応先ドメインで異なる特徴をもつ誤りのグループが見いだせる場合があると予想される.実際に\S\ref{subsubsec:cluster13}でそのような例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\caption{新聞記事・理科教科書・特許文書のそれぞれの正規化距離の平均}\label{tab:distance}\input{01table04.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.3.3\subsubsection{適応先ドメイン比による分析}理科教科書・特許文書の各クラスタを定量的に分析するための指標として,適応先ドメイン誤り比を定義する.これはそれぞれのクラスタに対し式(\ref{eq:tekiousakiwariai})で定義される値で,この値が大きいほど適応先ドメインに固有の誤りタイプだと考えられる.適応元ドメイン誤りの数で割る理由は,どのドメインにも大量に存在する誤りタイプではなく,適応先ドメインに特徴的に多い誤りタイプを見るためには基準となるドメイン(適応元ドメイン)で正規化したほうが良いためである.\begin{align}適応先ドメイン比=\frac{\#適応先ドメインから得られた誤り}{\#適応元ドメインから得られた誤り}\label{eq:tekiousakiwariai}\end{align}理科教科書・特許文書それぞれについての適応先ドメイン比を図\ref{fig:text_property},図\ref{fig:patent_property}に示す.追加訓練前後の適応先ドメイン比を比べると,ほとんどすべてのドメインで追加訓練を行うことで減少していることがわかる.しかし減少量はクラスタごとに異なるので,改善しやすい係り受け誤りと改善しにくい係り受け誤りがあることも確認できる.また理科教科書と特許文書で適応先ドメイン比が高いクラスタが異なっていることからは,ドメインごとに誤りの分布に特徴があることが確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.13\begin{figure}[t]\begin{center}\includegraphics{27-1ia1f13.eps}\end{center}\caption{理科教科書解析誤りの各クラスタにおける適応先ドメイン比}\label{fig:text_property}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.14\begin{figure}[t]\begin{center}\includegraphics{27-1ia1f14.eps}\end{center}\caption{特許文書解析誤りの各クラスタにおける適応先ドメイン比}\label{fig:patent_property}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.3.4\subsubsection{追加訓練の前後における各クラスタに属する誤りの数の比較}最後に理科教科書,特許文書の各クラスタについて追加訓練で変化しなかった/解消された/新たに発生した誤りの数を表\ref{tab:error_move}に示す\footnote{(追加訓練前の誤り数)=(変化しなかった誤り数)+(解消された誤り数),(追加訓練後の誤り数)=(変化しなかった誤り数)+(新たに発生した誤り数)と計算できる.}.新たに発生した誤りの数と変化しなかった誤りの数の比はどちらのドメインにおいてもほぼ{$1:2$}であるが,新たに発生した誤りの数と解消された誤りの数の比はドメインごとに異なっていることがわかる(理科教科書{$\rightarrow1:2.37$},特許文書{$\rightarrow1:1.85$})\footnote{この差は,ドメインの性質の違いと追加訓練に用いたデータ量の違いの効果が混合して生ずるものと考えられる.それぞれの効果の内訳を調べることは今後の課題とする.}.表中で特に多くの誤りが解消されたクラスタ13に属する理科教科書誤りどうしは,互いの類似性が高く,頻出する構文だと予想される.これは一般に機械学習は似通っていて,かつ大量に存在する誤りをより積極的に解消する傾向があるためである.実際にそうであるかは\S\ref{subsubsec:cluster13}で検討する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\caption{追加訓練による各クラスタに属する誤りの数の変化}\label{tab:error_move}\input{01table05.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.4\subsection{クラスタリング結果に基づくエラー分析}\label{subsec:saranarubunnseki}この項では前項で作成したクラスタのうち,クラスタ5,10,13,24についてさらに詳しく分析を行う.これらのクラスタを選択した理由は,クラスタ5やクラスタ13は理科教科書において適応先ドメイン比が大きく減少するという特徴を,クラスタ10は理科教科書と特許文書のいずれにおいても適応先ドメイン比があまり減少しないという特徴を,クラスタ24はどちらのドメインにおいても適応先ドメイン比が減少するという特徴を持っていたためである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.4.1\subsubsection{クラスタ5(理科教科書で大きくエラーが減少)}クラスタ5について,その誤り例を以下に示す.ただし\dbun{…}は係り文節を,\chbun{…}は正しい受け文節を,\whbun{…}はシステムが誤って選択した受け文節を表す.\vspace{0.5\Cvs}\stringquote{新聞記事-5:\\この/ため/ポストが/見つかるまでの/\dbun{間、}/研究生などと/して/\\大学に/\chbun{残る}/人が/\whbun{少なくない。}\\理科教科書-5:\\また,/震度の/\dbun{分布も,}/震央を/中心に/した/同心円状に/\whbun{なる}/ことが/\chbun{多い。}\\特許文書-5:\\表1〜/表3から、/実施例/1〜6の/\dbun{熱可塑性樹脂組成物は、}/\\長期にわたって/優れた/耐加水分解性および/耐熱性を/\chbun{有する}/ことが/\whbun{分かった。}}\vspace{0.5\Cvs}\noindentクラスタ5に属する誤りは,正しい受け文節と誤った受け文節がともに用言で,文中で先に出現する文節が連体修飾節であるものが多く見られた.この場合,係り文節の意味的に係る範囲が連体修飾節内で収まっているならば連体修飾節の末尾文節を受け文節とすべきだが,収まっていないならばより後ろの文節を受け文節とする必要がある.クラスタ5に属する誤りの多くはその判定を誤った結果発生したものだと考えられる.例えば理科教科書では,「…/こと+助詞(が,は等)/(わかる|多い|ある|できる)」という形の文が2,460文中274文と頻出する.この文型では文中で前方に出現するガ格文節が「こと」の直前の連体修飾節と文末文節のどちらに係るのか,一般には文脈や語彙の情報から判定する必要がある.一方,理科教科書の文であるという前提があれば,「Xは/…/Vスル/ことが/わかる」のように文末の用言によって正しい受け文節(「わかる」)がほぼ決まるものもある.この「…/こと+助詞/用言」という文型において判定を誤ったパターンは追加訓練前は43個であったが,22個解消し5個新たに発生することにより追加訓練後は26個になった.表\ref{tab:error_move}からわかるように,理科教科書で追加訓練によって解消されたクラスタ5の誤りは計123個あり,上記の「…/こと+助詞/用言」という文型以外のものも含まれる.他の誤りも同様に,一般的には文脈や語彙の情報を必要とする連体修飾節と後続の用言の間での受け文節の選択において,被修飾体言(上記の文型における「こと」)と後続の用言の組合せなどを手掛かりに,ドメイン特有の傾向が学習されたものと考えられる.また,他の要因の可能性として受け文節の曖昧さの問題も挙げられる.例えば,クラスタ5に属する誤りの中には以下のようにアノテーションエラーあるいは本質的に判断が難しいと思われる例も存在した.\vspace{0.5\Cvs}\stringquote{A.\\これに対して,/光を/当てた/\dbun{ときに}/植物に/\whbun{とりこまれる}/気体も/\chbun{ある。}\\B.\\その/\dbun{ほかに}/体外へ/\whbun{排出される}/物の/ひとつとして/尿が/\chbun{ある。}}\vspace{0.5\Cvs}\noindentこのような場合に,理科教科書のアノテーションでは後方の用言が受け文節として選ばれる傾向が見受けられ,これが追加訓練の結果に影響を及ぼしている可能性もある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.4.2\subsubsection{クラスタ10(理科教科書・特許文書ともに誤りが減少しない)}クラスタ10について,その例を以下に示す.\vspace{0.5\Cvs}\stringquote{新聞記事-10:\\それに/より/貸手、/借り手および/\dbun{天下り経営者や}/\chbun{行政の}/\whbun{責任が}/明確になり、/\\二度と/失敗しない/ための/数々の/教訓が/国民全体に/共有されるはずだ。\\理科教科書-10:\\ある/\dbun{温度の}/\whbun{1m$^3$の}/\chbun{空気に}/ふくまれる/水蒸気の/質量が,/\\その/温度での/飽和水蒸気量に対して/どれくらいの/割合かを/百分率で/表す。\\特許文書-10:\\上記の/粉体/100mgを/内径/\dbun{10.00mmの}/\chbun{円形の}/\whbun{ダイスに}/充填し、/\\ダイス内部の/気圧を/減圧した/上で、/5t/cm$^2$の/荷重を/かけ、/\\圧着温度/140℃で/1分間/圧着した。}\vspace{0.5\Cvs}\noindentクラスタ10に属する誤りは,係り文節が体言に接続する句であり,正しい受け文節と誤った受け文節が「AのB」のように両方とも体言句かつそれらが係り受け関係になっているという特徴を持つものが多かった.このタイプはさらに(a)並列関係の接続先の判断誤りと(b)連体の「の」の接続先の判断誤りに分けられる.例えば,新聞記事-10は(a)の誤りで,「天下り経営者や」と「責任が」は語句の意味を考えなければ接続できるが,常識的には並列関係にならないと考えられる.理科教科書-10は(b)の誤りで,「温度」と「1m$^3$」はどちらも空気の属性であり,いずれも「空気」を修飾しうるという知識があれば正しく判定できる.しかし特許文書-10において「10.00mm」は「円形」と「ダイス」どちらの属性としても考えられるので,文脈に依存する判定を行う必要もある.いずれのタイプの判断も意味的あるいは語彙レベルの知識を要し,少量の追加訓練データからはそのような知識は得られなかったため,誤りは大きくは改善しなかったと考えられる.特許文書におけるクラスタ10の誤りが理科教科書より多かった理由は,このタイプの構文の出現回数が多かったためだと推測される.この構文は一文に多くの内容を含めることができる一方,使いすぎると文の読みにくさにつながると考えられる.理科教科書では対象読者を考慮し「AのBのC」のような連体修飾の連続を控えているが,特許文書では一文で多くのことを表すために連体修飾句を多用したと考えられる.この仮説を検証するため,新聞記事・理科教科書・特許文書を正しく解析するときに,受け文節が体言句\footnote{サ変接続以外の名詞で始まる文節とする.}かつ受け文節候補の中に体言句が2つ以上存在するという状況(係り$\rightarrow$体言vs体言)の回数をカウントした.その結果を表\ref{tab:taigencount}に示す.この結果から,特許文書では複数の体言句の中から正しい受け文節を選択しなければならない場合が多く,その結果誤りも増えたと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\caption{(係り$\rightarrow$体言vs体言)状態での判定の回数と全判定回数}\label{tab:taigencount}\input{01table06.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.4.3\subsubsection{クラスタ13(理科教科書で大きくエラーが減少)}\label{subsubsec:cluster13}クラスタ13について,その例を以下に示す.\vspace{0.5\Cvs}\stringquote{新聞記事-13:\\立証負担が/軽く、/証拠も/そろえやすい/\dbun{ことから}/東京地検は/\\「製造の/企て」に/\chbun{絞り込んだと}/\whbun{聞く。}\\理科教科書-13:\\ドルトンは,/19世紀の/\dbun{初めごろ,}/物質は/それ以上/分割する/ことの/できない/\\小さな/粒子で/\whbun{できていると}/\chbun{考えた。}}\vspace{0.5\Cvs}\noindentクラスタ13に属する誤りは正しい受け文節と誤った受け文節の一方が引用の助詞を含む「〜と」という形の文節で,他方がそれに後続する用言である場合が多かった.評価データにおけるこのパターンの出現数を,正しい受け文節が(a)引用の「と」を含む文節であるか,(b)用言文節かに分類しつつ集計した.その結果を表\ref{tab:cluster13plus}に示す.新聞記事では正しい受け文節が引用の「と」を含む文節である回数が用言文節である回数の2倍弱であるが,理科教科書では8割以上の場合に正しい受け文節が用言文節となっている.これは,理科教科書には用語の定義を行う「Xを/Xは+Yと+いう」などの形の文が多く含まれるためであり,「Xを/Xは」の受け文節が用言文節に大きく偏っていることを追加訓練で学習した結果,図\ref{fig:text_property}のように係り受け誤りが大きく減少したと考えられる.また特許文書においてはそもそもこの文型の出現数が少なかったことが,図\ref{fig:patent_property}のクラスタ13の適応先ドメイン比が小さい理由だということがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\hangcaption{評価データにおける「…/係り文節/…/…と/用言」という文型を含む文の数(出現数)と正しい受け文節}\label{tab:cluster13plus}\input{01table07.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.4.4\subsubsection{クラスタ24(理科教科書,特許文書ともにエラーが減少)}クラスタ24について,その例を以下に示す.\vspace{0.5\Cvs}\stringquote{新聞記事-24:\\ところが/阪神大震災では/一番/重要な/情報収集が/\dbun{遅れ、}/自衛隊の/初動問題に/\\\whbun{代表されるように}/首相官邸だけでなく/政府全体の/対応が/後手に/\chbun{回った。}\\理科教科書-24:\\炭酸水素ナトリウムを/加熱すると,/3種類の/物質に/\dbun{分かれ,}/\\酸化銀を/\whbun{加熱すると,}/2種類の/物質に/\chbun{分かれた。}\\特許文書-24:\\次いで、/圧力を/常圧から/13.3kPaに/\dbun{し、}/加熱槽温度を/190℃まで/1時間で/\\\chbun{上昇させながら、}/発生する/フェノールを/反応容器外へ/\whbun{抜き出した。}}\vspace{0.5\Cvs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.15\begin{figure}[b]\begin{center}\includegraphics{27-1ia1f15.eps}\end{center}\caption{3つの節が並んでいるときの係り受け解析の誤り方}\label{fig:cluster24plus}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%クラスタ24に属する誤りは係り文節・正しい受け文節・誤った受け文節のすべてが節の末尾の用言文節であるというパターンが多かった.3つの節が並んでいるとき,係り受け誤りの構造には図\ref{fig:cluster24plus}の(a),(b)の2種類が存在する.(a)の構造は本来は単純に並列された構造を出力すべきだが,階層的な構造を出力したことを表し,(b)の構造は先頭の節が後ろの2つの節の両方と意味的に関係を持つため階層的な構造を出力すべきだが,単純に並列された構造を出力したことを表す\footnote{複数の文節に意味的に係る場合はその中で最も右側の文節を受け文節とすることが京都大学テキストコーパスのアノテーション基準に記述されており,理科教科書および特許文書のアノテーションでもこれに従っている.}.(a),(b)のような誤りを回避するには,本来であれば節同士の関係性を認識する必要がある.節同士の関係を認識することは意味的な判断を要する比較的難しいタスクだと考えられるが,今回使用した理科教科書・特許文書のどちらも係り受け誤りが減少している.その理由はドメインごとの構文の出現分布の偏りにあると推測できる.そこで実際にクラスタ24に属する係り受け誤りについて誤り方で分類し,その出現数を調べた.その結果を表\ref{tab:cluster24plus}に示す.ただし誤り方が「並列構造認識失敗」とは図{\ref{fig:cluster24plus}における}(a)のタイプの誤り方を表し,「階層構造認識失敗」は(b)のタイプの誤り方を表す.理科教科書・特許文書の共通点として,一方のパターンに偏っていた係り受け誤りが追加訓練を行うことで改善されているということが挙げられる.このことから,追加訓練の主な効果の一つは,このような誤り方の偏りを減らすことであると示唆される.ところで,理科教科書と特許文書では偏り方が反対になっている.追加訓練前において理科教科書は誤り方が「階層構造認識失敗」である誤り(例:理科教科書-24)が多い.その理由は,理科教科書は複数の関連したことを述べるために階層的な並列構造を取ることが多いが,階層的と認識できなかったことが多かったからだと考えられる.それとは対照的に追加訓練前において特許文書は誤り方が「並列構造認識失敗」である誤り(例:特許文書-24)が多い.その理由は,特許文書は物質の生成手順など手続きを述べた文が多く,単純に並列接続した構文が多いが,並列的と認識できなかったことが多かったからだと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\caption{クラスタ24に属する係り受け誤りにおける誤り方の分布}\label{tab:cluster24plus}\input{01table08.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.4.5\subsubsection{共通点を見出すことができなかったクラスタ}クラスタ2に属する誤りの例を以下に示す.\vspace{0.5\Cvs}\stringquote{新聞記事-2\\FRBは/「穏やかな/調整」と/しているが、/金融政策の/基調は、/一年以上/続いた/\\予防的引き締めから/\dbun{緩和へ}/\whbun{大きく}/舵が/\chbun{切り替えられたと}/いえよう。\\\newpage理科教科書-2\\これまでに,/分解や/化合,/酸化や/還元などの/化学変化について/学習したが,/\\化学変化の/なかには/加熱したり,/電流を/流したりしなくても,/\\\dbun{図1のように,}/溶液を/\whbun{混ぜ合わせる}/ことで,/反応が/\chbun{起こる}/ものも/ある。\\特許文書-2\\また、/40mlビーカーに/酸化チタン/(TiO$_2$)と/酸化セリウム/(CeO$_2$)と/\\ジクロロメタン/20ml/入れて、/\\酸化チタンが/ポリブタジエンに対して/20wt%に/なると共に/\\酸化セリウムを/\dbun{ポリブタジエンに対して}/\whbun{50wt%に}/\chbun{なるように}/調製した。}\vspace{0.5\Cvs}\noindentクラスタ2は理科教科書・特許文書の両方について適応先ドメイン比が減少しないという特徴を持っているが,このクラスタに属する誤りの共通点を見出すことはできなかった.そもそも追加訓練が効果をもたらさないクラスタには少なくとも2種類あると考えられる.ひとつはクラスタ10の「AのBのC」の構造のようなタイプで,意味を考えないとどうしても正しくできない例が一定数残り,追加訓練の効果が小さい場合である.もう一つはこのクラスタ2のように,おそらく,そもそも類似の例が少なく,様々な誤りが埋め込み上は近くなってしまっている場合である.前者は人間が見れば共通点を見出すことができるが,後者は人間が見ても共通点を見出すことができない.後者のように,低頻度かつ多種の誤りが混じっている場合には,本研究でのクラスタリングに基づく分析手法を通じて誤りの特徴を捉えることは難しいと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5 \section{おわりに} \label{sec:owarini}ドメイン適応問題は現実の様々な場面に出現するもので,機械学習に基づく言語処理技術の実用において重要な課題である.ドメイン適応問題の解決法の一つに追加訓練があるが,「なぜ」うまくいくのか,その理由を調べた研究は少なく明確には解明されていなかった.本研究では日本語係り受け解析に焦点を当て,追加訓練の影響の俯瞰的な調査を通して,ドメイン適応問題に対する知見を得るための分析を行った.本研究における分析手法の特徴は二つあり,一つは解析器の内部状態を用いることで「解析器の視点から」分析を行えること,もう一つはドメインの特徴を探す際に,クラスタリングを用いることで,詳細に調べるべき誤りの集合を発見しやすくなり,効率的に分析を行えることである.本研究では,新聞記事を適応元ドメイン,理科教科書・特許文書を適応先ドメインとする実験を行った.まず,得られたクラスタに対し正規化距離や適応先ドメイン比などの指標を用いた定量的分析を行うことで,クラスタが係り受け誤りの構造をある程度反映していること,ドメインごとに誤りが固有の分布を持つこと,およびクラスタによって追加訓練の効果に差があることなどがわかった.これらによって,クラスタに基づく分析が,適応先ドメインの異なりによる精度低下の理由の違いや,分野適応の効果を誤りの構造に即して理解するための手段として妥当であることの前提が確認できた.次に,いくつかのクラスタについてそのクラスタを構成する誤りを観察したところ,クラスタ10,13などのように誤りの共通点を見出すことができたクラスタがあった.そのようなクラスタについて仮説を立て検証を行うことで,追加訓練による適応先ドメイン比の変化などの特徴を説明することができた.さらに,本来は意味を考慮しなければ正しく解析できない文型でも,構造の出現頻度に偏りがあれば学習されること,および出現頻度に偏りが生まれる原因には,ドメインに頻出する定型句(クラスタ13:「〜を〜という」)や,ドメインごとの文体の異なり(クラスタ24:並列的vs階層的)などがあることがわかった.これらの分析結果から,ドメインが異なることによって引き起こされる精度低下は,解析器の視点では似た形に見える文型でも,ドメインによって正解となる構造の出現頻度の偏り方が異なることが大きな原因であることが示唆される.適応元ドメインデータをいくら増やしても,同じドメインである限り正解の構造の頻度の偏り方は変化しないため,上で述べたような適応先ドメインに特徴的な構文は同じように誤り続ける.したがって適応元ドメインのデータのみで訓練された解析器が,適応先ドメインに特徴的な構文を全て正しく解析することは難しいことがわかる.逆に言えば,適応先ドメインデータを用いた追加訓練の主要な効果は,このドメイン固有の頻度の偏り方を学習することにあると考えられる.その意味では適応先ドメインを何らかの手法で近似して訓練を行う手法は,適応先ドメイン固有の構文の頻度を相対的に増やしている点で正しいアプローチと言える.しかし,適応元ドメインと適応先ドメインで正しい構造の分布が大きく異なる文型に対しては,訓練例の重みを変えるなどの手法によるドメイン適応技術には限界があるものと考えられる.今回用いた手法は,ドメイン適応技術の限界となりうる,表層的には類似しているがドメインごとに固有な構造の分布を持つ文型を見つける手がかりを得るためにも有用だと考えられる.さらに,今後の展望として機械で自動的にクラスタの特徴を発見できれば,クラスタを用いたアクティブラーニングへの応用が考えられる.一方で,本研究における分析手法を用いても,類似例が少なく解析器自体がうまく埋め込むことができない誤りが集まったと思しきクラスタなど,共通点を見出すことができず分析を行えなかったクラスタも存在していた.頻度が小さい多種の誤りから共通点を見つけ出すことは本研究の今後の課題である.その他,誤りではなく正しかった例も用いた調査・分析や,得られた知見を基にしたドメイン適応技術の開発が今後の課題として挙げられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究では,JSPS科研費16H01819で開発された教科書アノテーションデータの提供を受けた.ここに記して謝意を表する.また本研究はJST,さきがけ,JPMJPR175Aの支援を受けたものであり,特許文書に関する分析は名古屋大学と富士通研究所の共同研究の成果である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliography{01refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{原拓也}{%2018年名古屋大学工学部電気電子・情報工学科卒業.同年,名古屋大学工学研究科博士前期課程に進学.}\bioauthor{松崎拓也}{%2002年東京大学工学部システム創成学科卒業.2007年同大大学院情報理工学系研究科にて博士号(情報理工学)取得.同大学助教,国立情報学研究所特任准教授,名古屋大学准教授を経て,2019年より東京理科大学理学部准教授.言語処理学会,人工知能学会,情報処理学会各会員.}\bioauthor{横野光}{%2003年岡山大学工学部情報工学科卒業.2008年同大大学院自然科学研究科産業創成工学専攻単位取得退学.東京工業大学精密工学研究所研究員,国立情報学研究所特任研究員,同研究所特任助教を経て,2016年より株式会社富士通研究所研究員.博士(工学).意味解析の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{佐藤理史}{%1988年京都大学大学院工学研究科博士後期課程電気工学第二専攻研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学助教授,京都大学大学院情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科教授.工学博士.言語処理学会,人工知能学会,情報処理学会,日本認知科学会,ACM各会員.}\end{biography}\biodate\end{document}
V03N01-01
\section{まえがき} 文の意味を効率よく適切に理解するためには語義の曖昧性を文脈によって早期に絞り込むことが必要である.通常のボトムアップな手法による意味・構文解析方法では解の探索空間の広がりにより処理の爆発の問題が生じる.また局所的制約のみでは解を絞り切れず,誤った解を出力する問題もある.例としてしばしば引用される次の文\cite{Waltz85}について考えてみる.\begin{eqnarray}`John~shot~some~bucks.'\nonumber\end{eqnarray}shotとbucksの品詞および意味の曖昧性が各々数十通りあるため,数百通りの意味の組合せがあるとされている.しかし,Hunting(狩猟)やGamble(ギャンブル)などの文脈が与えられるとそれぞれ即座に意味が求まり,前者では「ジョンは牡鹿を銃で撃った.」という解釈がなされ,また後者では「ジョンは何ドルか賭けてすってしまった.」という解釈がなされる.文脈情報がないと効率的に解が得られないばかりか,正しい意味に収束さえしない可能性が大きい.近年この文脈依存性に関する二つの問題を解決するため,談話中の前後の脈絡としての一貫性,すなわち文脈を形成する知識の重要性が着目されつつある.それは文の表層から得られる文法的知識などの言語内知識,および一般常識や世界知識などの言語外知識に分けることができる.また意味が談話内の状況により制約を受けるか,発話された環境により制約を受けるかによって文脈情報を分けることもできる.たとえば,「昨日東京で雨が降った.」という発話がなされたとする.前者の「談話内の状況」は言及されている状況すなわち「昨日東京で」を指している.しかし,この発話が正直者によってなされたか,実際にはいつどこでなされたのか,緊急事態の発生の説明なのかなど,発話された時点の外界の状況が問題になる場合もある.このような「発話された環境による制約」は談話内の状況に加わり作用するもので重要ではあるものの,今後研究される部分としここでは扱わないという立場をとる.本研究ではテキストに絞り,特に物語を解釈する場合に限り,外界の状況によらない談話内の言語外知識による文脈情報の,曖昧性解消の処理効率への効果について絞り議論を行なう.言語外の知識に基づく文脈情報に依存したテキスト解釈の手法はいくつか提案されている.それらは知識の表現とそれにともなう処理方法の違いによって,文脈を記号的な知識として明示的に与える方法と,ネットワーク上の活性伝搬に基づくパターン的相互作用により文脈を非明示的に表現し曖昧性解消を効率的に実現する方法とに大きく分けることができる.前者の代表例としては,物語の一般的構成を文法規則として表す物語文法\cite{Rumelhart75}や,Schankらの文脈理解の研究\cite{Schank77,Schank81,Schank82}などがあげられる.特にSchankらは動詞を中心とした概念依存構造によって意味を表現し,文脈として場面に関する知識を予め持つスクリプトや,意図・目的と行動に関する知識としてのゴールとプラン,そして知識構造を抽象化し階層化して効率良く持つMOPsなどの重要性を論じている.また後者に関しては文ごとにネットワークを組み活性伝搬させる方法\cite{Waltz85,Tamura87},曖昧性を要素の意味内容や要素間の関係に内在させ表現上の組合せ爆発を抑える方法\cite{Hirst88,Okumura89,Kojima91},連想記憶による解の絞り込みと記号処理に基づく矛盾検出による曖昧性解消の効率化\cite{Tsunoda93}などが手法としてあげられる.これらの研究の問題点は,実際に知識を何から獲得し与えるかが不明確であること,実際のテキストにおける評価や問題点に対する考察がなされていないこと,そして他の手法との組合せに対する問題点,限界点が未整理であることである.これに対し,コーパスを利用し,多義性のある単語の周辺語の統計情報からシソーラス上のカテゴリのBayes確率を求め,意味を決定する方法\cite{Yarowsky92}がある.この研究では百科事典の中から知識を獲得し,百科事典の文中の単語に対する評価を行なっているが,一般のさまざまな種類のテキストに対してどの程度有用であるかは調査の余地がある.またトピックの入れ子の問題などの言語の複雑な事象に対応するためには,言語現象に応じて知識を分類し,適切な知識源を明らかにすることと,このような統計的手法を同時に研究することは意味があると思われる.したがって現在必要なことは,処理する知識の性質を想定した細分化,およびそれぞれの知識を用いた際の実際の文に対する効果の調査である.本論文では談話内の言語外知識をさらに連想処理の観点から分類し,その一部として場面知識を視覚辞書から構成し利用した場合の多義性解消の効率化に対する効果の評価および検討を行なう.視覚辞書は物の名前を,出てくる場面や対象物の形から引くことを目的に出版されている辞書である.日常生活に出てくる場面を網羅的に絵に描き,その中に登場する物の名前を対応づけて欄外に列挙してある.視覚辞書は数冊出版されているが,ここではOXFORD-DUDENのPictorialEnglishDictionaryを用いる.多義性解消機構の実装に際しては構文解析と意味解析は通常の記号処理手法を用いることを想定する.その中の意味辞書から語義を取り出す順番を決める方法の一つを提案する.場面を一つに固定した場合にそのような情報を使わない場合に比べ,正しい解にたどり着くまでの語義の検索回数(試行回数と定義する)がどの程度減少するかを物語文にて評価する.すなわち,各単語に意味が複数あったり,とりうる構文木が複数ある場合には,そのすべての組合せの数だけの解が候補となりうる.これらの組合せから解が一つずつ生成され,すべての制約条件を満たすかどうかが検証される.このため構文的曖昧性も考慮する必要があるが,他の方法あるいは本手法と他の方法を組み合わせることによって解決するものとして考え,ここでは陽には扱わないこととする.ここでは語の意味の選択の部分のみに着目し,一つの単語の複数の意味の中で,人間が正解と判断する解を出力するまでに検索された語義の数をここでの試行回数と定義する.実際の機械翻訳などのシステムでは,他に解を制約する知識によってシステム内部で検証を行なう場合に,前処理として尤もらしい語義を優先づけして出力するモジュールを目的としている.通常のパーザでは文脈情報が何もない場合には,各単語の意味はランダムに,あるいは静的に割り当てられている順番で辞書からとり出され検証される.これに対し,場面情報があれば,この取り出しの仕方を変え,場面の中でありそうな意味を先に取り出し,全体の処理の効率化をはかることができる.多義性解消などで文脈,特に場面情報の効果および問題点について調べた例は見当たらないようである.ここでは背景としての役割の部分に絞った場面の知識の構成方法を提案し,実験と考察を行なう.上のような語義検索の試行回数を減少させるということに対し,場面情報がどの位有効であるかを,物語文「赤毛のアン」の英語原作の中の台所の場面の中から抽出した単語に対して評価を行なう.以下,{\bf2.}では視覚辞書とシソーラスによる場面情報の構築方法について,{\bf3.}では場面情報を利用した多義語の優先順位づけの方法について,また{\bf4.}では例題にて試行回数の計算方法を示した後に実文中の単語にて有効性の評価を行なう.{\bf5.}では成功例,失敗例の原因についての考察を行なう. \section{文脈としての場面情報の構築} \subsection{文脈情報の分類}言語外知識に基づく文脈は,(1)発話のおかれた状況,(2)領域知識,(3)注意状態,(4)発話者の信念・心的状態,の4つに大きく分類することができる\cite{Katagiri89}.このうち(2)の領域知識は,一般的常識から特定専門分野に属するものまで幅広い知識を指し,言葉で語られる内容に関する何らかの知識である.前章での例題`Johnshotsomebucks.'では,狩猟の場面では牡鹿が登場することが多いこと,動物を撃つことが普通であることなど,またギャンブルの場面ではお金を賭けること,儲けたり損をしてみたりすることがあることなど,領域知識の一般的常識を用いて,ほとんど瞬間的に多義性を解消していることがわかる.一般の情報伝達はこれらの知識を共有していることを前提として行なわれるため,共有知識の部分を省いた簡潔な言語表現をとることができる.このような言語の効率性(efficiency)とトレードオフにあるものが自然言語の持つ曖昧性(ambiguity)であり,同音異義性(homonymy)や多義性(polysemy)としてテキスト表層に現れる\cite{Kojima91}.他にも,言語を効率的に伝達する手段として省略(ellipsis)や照応(anaphora)もあげられるが,一方で受け手がこれらの欠落した情報を補うことが必要であることが問題になる.話者や著者が伝達しようとした正しい意味を復元するためには,適切な知識と処理方法をあわせて見つける必要がある.さらにこのような処理を機械に実装する場合には,知識の入手のしやすさや処理の効率性も重視しなくてはならない.これらの要請を満たすものを見い出すためには,自然言語は人間の用いるコミュニケーションの道具なので,まずは人間の行なっている処理や知識に着目するのが良い方法の一つであると思われる.ここでは多義性解消に絞り,処理を次の二つに分けることを考える\cite{Tsunoda93}.\begin{itemize}\item意味の決定のための制約処理(constraintprocessing)\item処理の効率化のための選好処理(preferenceprocessing)\end{itemize}前者は構文解析や格(意味)の整合性などの評価部であり,矛盾が発生すると処理がバックトラックする.後者は過去の記憶に基づき連想処理を行なって解探索の優先順位づけをし,処理を効率化する.本研究では文脈によって後者の選好処理を行なう方法を考える.ある文脈に固定したとき,過去の記憶に基づく連想処理はデータの性質によって(1)空間的連想(spatial),(2)時間的連想(temporal),(3)類似(similar),(4)反対(contrary),に分けることができる\cite{Kohonen93}.文脈はさらにこれらの関係を組み合わせたものとして考えることができる\cite{Tsunoda93}.この中の(1)の空間的連想に着目してみると,例えばナイフやフォーク,スプーンのように,人間が一目見て関係があると思われるものもある.それは一緒に扱われることが多いからである.しかし,それらに対しては例えば台所の中ではとくに物を食べるための道具として共通の機能を持っているために,意味のつながりをより強く主張することができる.逆に例えば「登山」や「強盗」,「鉛筆を削る」などの状況ではナイフとフォーク,スプーンどうしの直接の意味的つながりは薄い.このように,機能が同じなど,何らかの状況に応じて意味のつながりを持って想起される場合に,空間的連想の特長を積極的に処理に利用することができると思われる.その共通性をとらえるための土台の一つとして,対象物が現れる背景としての場面をとりあげる.これはSchankらのスクリプト\cite{Schank77}のLocationheaderにほぼ等しく,例えばRestaurantscriptのRestaurantが対応している.`Johnshotsomebucks.'の例題では狩猟の場面では`Hunting'に,そしてギャンブルの場面では`Gamble(roulette)'に対応する.「場面」は何らかの行為が行なわれる場や,何らかの目的が達成される場,あるいは自然に物が集まる場などに,登場する対象物の集まりを加えることによって定義される.ただし頑健性を考慮するため,個々の対象物が現れる必然性を陽に記述することなく,対象物の集合によって表現する空間的情報であるとする.したがってここでは他の共起関係や行為による制約を補完する知識であるという立場をとる.この研究ではそのような場面情報の第一近似としてOXFORD-DUDENの辞書PictorialEnglishDictionaryを利用しているが,将来の画像処理・認識技術の発展による言語処理との統合が実現されれば,より詳細なデータが得られることを仮定する.さらに(3)の類似の部分をRoget5thed.InternationalThesaurusの上位−下位関係と概念どうしのまとまりを用いることによって実現し,場面に登録されていない語に対しての頑健性を実現している.\subsection{場面情報源としてのPictorialDictionary}前述のように場面情報の第一近似としてOXFORD-DUDENのPictorialEnglishDictionary(OPED)を用いる.これは日常生活に出てくる場面を絵に描き,さらに登場する物の名前を対応づけて欄外に列挙してある辞書であり,もともと物の名前を出てくる場面と対象物の形から引くのが目的のものであるので,言語では明示的には通常扱われない常識の一部を含んでいると考えることができる.辞書はManandhisSocialEnvironmentなどの11クラスに大きく分かれており,さらにKitchenなどの384カテゴリに小さく分かれている.このカテゴリごとに絵が付与されており,この絵を空間的情報としての場面の近似であるとして扱うことにする.辞書に登録されている単語数は約27,500語であり,一つの場面に登録されている単語は重複する場合も数えて平均約184語である.例えばKitchenの場面の冒頭を列挙してみる.{\baselineskip=16pt\begin{verbatim}1housewife2refrigerator(fridge,Am.icebox)3regrigeratorshelf4saladdrawer5frozenfoodcompartment\end{verbatim}}この中で主体となる語は被修飾語の名詞である.修飾語の名詞も付随して場面に登場する可能性が非常に高いので,被修飾語と同様に場面情報として扱う.またfrozenなど動詞が変化して修飾している場合も,行為を表すものとして場面の意味の分布に入れることにする.他の形容詞や注釈語(上記のAm.=米語)などは全て省いている.\subsection{シソーラスによる意味の定義}意味解析を行なう場合に問題になることは意味の定義である.意味は構文情報などとは異なり,一意に定義することが難しく,統一がとれていない.ここではよく用いられているシソーラスによる意味の分類\cite{Yarowsky92}に従い,RogetのInternationalThesaurusの第五版を用いた.\begin{figure}\begin{center}\epsfile{file=fig1.eps,width=70mm}\end{center}\caption{RogetInternationalThesaurusの概要}\label{thesaurus}\end{figure}図~\ref{thesaurus}に示すように,概念は全部で1073カテゴリにトップダウンに分類され,さらに各カテゴリは品詞ごとにより細かい項目に分類されている.buckには複数の概念があるが,そのうちの一つの概念を図~\ref{thesaurus}に例として示してある.それは「牡鹿」という意味を持ち,カテゴリ311の`Animal,Insects'の中の項目311.5の`hoofedanimal'の中に分類されている.単語はその用法に従って分類されるため,多義語は複数のカテゴリや項目に含まれることになる.したがって,カテゴリや項目が特定されれば多義性が解消されたことにほぼ等しくなる.\subsection{PictorialDictionaryとシソーラスによる場面情報}OXFORD-DUDENPictorialEnglishDictionary(OPED)の各場面とRoget5thed.InternationalThesaurus(以下シソーラスとする)を組合せ,場面情報を構築する.場面情報の表現として(a)出現単語とその意味をテーブルとして持つ方法と,(b)場面に現れる意味分類の出現頻度の分布として持つ方法とがある.(a)はOPEDに出てくる単語に対応する意味を人間がシソーラスの最も細かい分類である項目レベルの分類の中から手で選び,その語の意味として登録する(図\ref{construct}左下参照).\begin{figure}\begin{center}\epsfile{file=fig2.eps,width=68mm}\end{center}\caption{場面情報の構築}\label{construct}\end{figure}(b)の意味分布は(a)の単語と意味の対のリストから作成される.(a)では各単語の意味の項目分類(例えばbuckの意味の一つはhoofedanimalを示す311.5)が単語ごとに記録されているが,(b)ではこの単語ごとの枠を外し,場面全体で頻度をとる(図\ref{construct}右下参照).例えばbuckの他にもdeerという単語などが狩猟の場面にあるが,これはやはりhoofedanimalを表す311.5の意味を持つため,311.5の項目の頻度に加算される.この頻度リストを(b)の項目レベルの場面情報とする.さらにこの頻度リストをカテゴリ内で加算することによって(b)のもう一つの場面情報であるカテゴリごとの頻度リストが得られる.これをカテゴリレベルの場面情報とする.例えば項目レベルのリストでhoofedanimalを表す311.5が5,marineanimalを表す311.60が10であった(他は0とする)場合は,このカテゴリレベルでの311は頻度15になる.このように(b)に関しては,Thesaurusは図~\ref{thesaurus}のように,項目レベル(例:728.6)とより大きな分類であるカテゴリレベル(例:728)があるので,選択の余地がある.\small\begin{table}\caption{各場面での単語情報}\label{scene_words}\begin{center}\tabcolsep=1mm\begin{tabular}{|l|l|l|l|}\hline&狩猟&ルーレット&台所\\\hline\hline被修飾名詞&94/114&42/52&45/61\\修飾名詞&41/44&15/15&29/33\\動詞&20/21&2/2&6/7\\\hline合計&155/179&59/69&80/101\\\hline\end{tabular}\end{center}\end{table}\normalsize\small\begin{table}[p]\caption{狩猟の場面を構成するカテゴリの分布}\label{hunt_distri}\begin{center}\tabcolsep=1mm\begin{tabular}{|c|l|l|l|r|}\hline順位&カテゴリ&カテゴリ名&概念&頻度\\\hline\hline1&382&Pursuit&追跡&42\\2&311&Animals,Insects&動物,昆虫&41\\3&308&Killing&殺傷&11\\4&76&Masculinity&雄&8\\4&346&Concealment&隠蔽&8\\6&383&Route,Path&道&7\\7&8&Eating&食事&6\\7&159&Location&場所&6\\7&462&Arms&武器&6\\7&900&Support&支え(土台)&6\\7&903&Pushing,Throwing&押し出し&6\\-&その他のカテゴリ&-&-&102\\\hline&total&&&255\\\hline\end{tabular}\end{center}\end{table}\normalsize\small\begin{table}\caption{ギャンブル(roulette)の場面を構成するカテゴリの分布}\label{roulette_distri}\begin{center}\tabcolsep=1mm\begin{tabular}{|c|l|l|l|r|}\hline順位&カテゴリ&カテゴリ名&概念&頻度\\\hline\hline1&759&Gambling&ギャンブル&34\\2&244&Quantity&量&8\\3&743&Amusement&娯楽&6\\3&758&Cardplaying&カードゲーム&6\\5&900&Support&支え(土台)&4\\5&914&Rotation&回転&4\\7&197&Room&区画&3\\7&280&Circularity&円形&3\\7&729&Finance,Investment&財政,投資&3\\7&881&FiveandOver&5以上&3\\-&その他のカテゴリ&-&-&27\\\hline&total&&&101\\\hline\end{tabular}\end{center}\end{table}\normalsize\small\begin{table}\caption{台所の場面を構成するカテゴリの分布}\label{kitchen_distri}\begin{center}\tabcolsep=1mm\begin{tabular}{|c|l|l|l|r|}\hline順位&カテゴリ&カテゴリ名&概念&頻度\\\hline\hline1&386&Store,Supply&保管,供給&10\\2&8&Eating&食事&9\\3&195&Container&容器&8\\3&239&Channel&水路(管)&8\\5&11&Cooking&料理&7\\6&742&Ceramics&陶磁器&6\\7&79&Cleanness&清潔さ&4\\7&293&Closure&閉鎖&4\\7&1023&Refrigeration&冷却&4\\-&その他のカテゴリ&-&-&55\\\hline&total&&&115\\\hline\end{tabular}\end{center}\end{table}\normalsizeターゲットとする単語の多義性を解消する処理に際して,場面として全ての単語が正しい頻度情報で登録されている場合には,(a)のテーブルのみで十分なのだが,現実には出現する全ての対象物に関する情報を集めることは不可能に等しく,未登録の単語が必ず現れると思われる.その場合には(b)の意味分布を持つ方法によって場面情報の近似を行なう.ある程度十分な量の単語が登録されていれば,(b)での項目レベルの意味を解答すれば良い近似になるが,登録単語が少ない場合にはカテゴリレベルまで拡げ補間をする必要がある.しかし逆に,単語どうしで意味の干渉が起こり,近似が悪くなる可能性がある.例えば,上の例ではbucksの意味は正確には311.5であるが,カテゴリレベルでは311という大きな分類の分布しか持たないので,このような細かい意味の選別はできなく,311の下にある意味に関してはランダムに取り出すしかない.また実験の章で具体的に述べられるように,ルーレット(ギャンブル)の場面全体では土台を表す900という分類の頻度が多い.このため,ルーレットの場面ではbucksは本来は「ドル(お金)」を示して欲しいところが,「鞍馬の台」を示してしまう結果になっている.このように,意味の補間による未登録語への対処と,トレードオフの関係になっている.このため,次章での実験の結果により有利な方を使用する.視覚辞書OPEDに基づく場面中の単語を分類し,統計をとった例を表~\ref{scene_words}に示す.`/'の右側は単語の全数,左側はシソーラスに単語が登録されている数を示している.場面の意味分布の例として,狩猟の場面情報を表~\ref{hunt_distri}に,ギャンブル(ルーレット)の場面情報を表~\ref{roulette_distri}に,そして台所の場面情報を表~\ref{kitchen_distri}に示す.ここでは大きい分類であるカテゴリレベルの分類を用いた.これを見ると各場面はシソーラスの様々な分類から構成されていることがわかり,視覚的な場面の情報量の多さがうかがえる.それぞれの頻度はOPEDのその場面における単語の意味のうち,そのカテゴリに属するものの数である.シソーラスは同じ物体を指すものであっても,観点によって微妙に異なる分類をすることがあるので,一単語が同じ物体を指しながら複数のカテゴリに属する場合もある.そのため全体の頻度が表~\ref{scene_words}の単語数よりも多くなっている.例えば,表~\ref{scene_words}の狩猟の場面での,シソーラスに登録されている単語数155よりも多い,255の意味が表~\ref{hunt_distri}に割り付けられている. \section{文脈としての場面情報を利用した多義語の優先順位づけ} \subsection{全体構成}\begin{figure}\begin{center}\epsfile{file=fig3.eps,width=70mm}\end{center}\caption{システムの全体構成}\label{global_st}\end{figure}仮定するシステムの全体構成は図~\ref{global_st}に示される.パーザは通常の統語解析アルゴリズム\cite{Tanaka89}を想定しており,それに場面情報を扱う部分を拡張する.拡張部では文が入力されると品詞解析などの前処理を行ない,それまでに得られている文からの場面情報を加えることにより,目標とする単語の各意味を優先順位づけする.その結果は統語解析アルゴリズムに渡されて従来の手順に従って解析が進められる.前処理での主な処理である品詞解析に際しては,現在高い正答率で解が得られるHiddenMarkovModelによるモジュール\cite{XEROX}が存在するので,これを利用することを仮定する.場面解析に関しては,稿を改めて述べることにする.ここでは場面および目標単語の品詞が一意に決まった場合を仮定して議論を行なう.また形態素解析によって単語に切り分けた後の処理を行なうことにし,特に英語を対象として単語一つずつに対して処理が起動されることを想定している.\subsection{優先順位づけの定式化}場面が一つに決まった場合に,多義性解消の対象とする単語すなわち目標単語の候補となる複数の意味の中から試行のために取り出す順番を決める順序列を求める.予め場面に登録されていない単語の意味を推測すること,そして登録されている単語の意味をなるべく正確に保存するために,前述の(a)予め場面に出現する単語と対応する意味を対として持つテーブル,(b)場面に現れる意味分類の出現頻度の分布,の大きく分けて二種類の情報を用いる.まず目標単語が場面の(a)のテーブルに登録されてあるか調べ,登録されている場合はその意味を結果として用いる.例えば,`table'という単語には「机」や「表」など多くの意味がある.しかしOPEDの「台所」という場面に明示的に`table'という単語が現れており,それは「机」(229のカテゴリの中の229.1という項目で示される)という意味が割り付けられてあった.そこでシステムはその意味を最初に出力する.この場合は「机」の尤もらしさを1とし,他の意味の尤もらしさを0とする.次に目標単語が場面の(a)のテーブルに登録されていない場合には(b)の意味分布を調べ,目標単語の意味の候補リストの中で尤度の最も高いものから順番に取り出して意味解析部に渡す.例えば`glass'という単語はOPEDの「台所」という場面には現れていない.しかしその場面の全体の意味の傾向を利用して`glass'の意味を推測したい.例えばカテゴリレベルの場面情報で考えてみると,「台所」という場面では「容器」を表す分類の尤度が8であり,`glass'のいくつかの意味の中では最も高い値を持っている.そこで「容器」として「コップ」の意味を優先して出力し,「鏡」などの意味は優先度を下げる.この様子を定式化してみる.目標単語を\(W\)(例:glass),単語の意味を\(M\)(例:コップ),文脈を\(C\)(談話全体),場面を\(S\)(例:台所),意味分類を\(k\)(例:1.1〜1073.14),目標単語の意味の正解を\(M_{c_{j}}\)(例:コップ,鏡),そして対応する目標単語の意味分類の正解を\(k_{c_{j}}(1\leqj\leqn_{c},n_{c}は正解の数)\)(例:195.1(コップ),29.6(鏡))とする.また単語の意味と意味分類が1対1に対応する場合を考えることを仮定する.このとき文脈\(C\)の中で\(W\)があったとき,その意味が\(M\)である尤度\(L(W,C,M)\)を用いると,目標単語の意味(\(n\)個)の試行順序決定のための半順序列\({\bfT}\)は以下のように書くことができる.\begin{eqnarray}\{M_{1},M_{2},...M_{n}\in{\bfT}:L(W,C,M_{i})\geqL(W,C,M_{i+1})\}\end{eqnarray}ただし\(L(W,C,M_{i})=L(W,C,M_{j})\)となる部分はランダムに順番づけをする.この場合には場面を一つに決定したときの目標単語の各意味分類の尤もらしさを利用するため,尤度\hspace{-0.5mm}\(L(W,C,M)\)\hspace{-0.5mm}は場面\(S\)の中での\(W\)の意味分類が\(k\)である尤度\(L(W,S,k)\)で置き換えることができる.\begin{eqnarray}L(W,C,M)=L(W,S,k)\end{eqnarray}さらにこの尤度\(L(W,S,k)\)は本来は事前分布(文脈情報なしの意味の分布)や条件付き確率(文脈情報による意味の分布の変化)により事後分布\(p(W,S,k)\)(文脈情報を得た後のBayes事後確率)を求めて比較すべきところだが,事前分布や条件付き確率をすべて求めることは非効率的であり,まだ正確には得られていないという現状のため,ヒューリスティクスとして場面を固定したときのその場面中の意味分類の頻度\(n(k,S)\)を使うことにする.\vspace{-0.5mm}\begin{eqnarray}L(W,S,k)=n(k,S)\end{eqnarray}\vspace{-0.5mm}したがって(1)式は\vspace{-0.5mm}\begin{eqnarray}\{k_{1},k_{2},...k_{n}\in{\bfT}:n(k_{i},S)\geqn(k_{i+1},S)\}\end{eqnarray}\vspace{-0.5mm}となる.この順番に従って本手法は語の意味を出力する.ただし\(n(k_{i},S)=n(k_{j},S)\)となる部分はランダムに順番づけをする. \section{実験と評価} 前章の方法に従い順番に出力される語義の候補を評価する.文章中での各単語の意味を人間が判断し,前述のシソーラスの分類に従って正解として用意しておく.人間は同じものを指しているとしながらも,シソーラスはより細かな観点の違いから異なるものと分類していることがあるが,ここでは人間が選んだものをすべて正解とみなす.この正解のどれかをシステムが最初に出力するまでの語義の検索回数(試行回数)の期待値と,システムが最初に出力する候補(第一候補)に正解が含まれている確率,および第二候補までに(第一候補含む)正解が含まれている確率によって評価を行なう.試行回数を調べることにより,全体の処理速度をおおまかにとらえることができる.また多義性解消率から,提案するシステムの出力の正答率がわかる.\subsection{例題における実験}まず{\bf1.}での例題`Johnshotsomebucks.'をとりあげる.Rogetのシソーラスの索引に付与されている各単語の細かい項目レベルでの意味に基づき実験を行なう.`shot'に対しては動詞shootの過去形で20種類の意味,名詞で26種類の意味,形容詞で5種類の意味がある.また`bucks'に対しては動詞buckの三人称で3種類の意味,名詞の複数形で8種類の意味がある.上述した意味分布の頻度を調べた結果を,`shot'に対しては動詞のみを表~\ref{shot}に,`bucks'に対しては名詞のみを表~\ref{bucks}に示す.他は全て0であった.表の`/'の左側は場面情報の修飾名詞・被修飾名詞の寄与の合計,右側は動詞による寄与である.すなわち,例えば辞書の「狩猟」の場面に現れるものの一つに`rabbithole'(兎の穴)があるが,これは`rabit'という修飾名詞,`hole'という被修飾名詞から成り立っていると考える.また,`aimingposition'(狙い位置)というものも「狩猟」の場面に現れる.これは`aim'という行為(動詞)で修飾された`position'という名詞と考えることができる.このように,主に修飾名詞,被修飾名詞,動詞が存在するが,場面情報として修飾名詞と被修飾名詞の両方の名詞だけを使ったときと,動詞だけを使ったときの,場面に現れる意味分類の出現頻度が表の`/'の左側と右側にそれぞれ示されている.`意味分類'はそれぞれの意味をシソーラスのラベルづけによって表現したときの番号を示し,整数部はカテゴリレベル,小数点以下の部分はより細かい項目レベルを表している.シソーラスでの項目レベル,カテゴリレベルの意味分類でそれぞれ場面情報を構成した場合の結果を表す.\small\begin{table}\caption{各場面でのshotの意味}\label{shot}\begin{center}\tabcolsep=1mm\begin{tabular}{|c|l|l||l|l||l|l|}\hline&shot&&狩猟&&ルーレット&\\\hline&&意味分類&項目レベル&カテゴリレベル&項目レベル&カテゴリレベル\\\hline\hlinev&suffer&26.8&0/0&0/0&0/0&0/0\\e&inject&87.21&0/0&0/0&0/0&0/0\\r&immunize&91.28&0/0&0/0&0/0&0/0\\b&speed&174.8&0/0&0/0&0/0&0/0\\&row&182.53&0/0&0/0&0/0&0/0\\&float&182.53&0/0&0/0&0/0&0/0\\&strikedead&308.17&*0/1&*11/4&0/0&0/0\\&vegetate&310.31&0/0&2/0&0/0&0/0\\&hunt&382.9&*0/3&*39/3&0/0&0/0\\&pullthetrigger&459.22&*0/0&*4/0&0/0&0/0\\&execute&604.17&0/0&0/0&0/0&0/0\\&explode&671.14&0/0&0/0&0/0&0/0\\&film&706.7&0/0&0/0&0/0&0/0\\&photograph&714.14&0/0&0/0&0/0&0/0\\&playbasketball&747.4&0/0&0/0&0/0&0/0\\&playhockey&749.7&0/0&0/0&0/0&0/0\\&playgolf&751.4&0/0&0/0&0/0&0/0\\&fireoff&903.12&0/0&0/0&0/0&0/0\\&shine&1024.24&0/0&0/0&0/0&0/0\\&launch&1072.13&0/0&0/0&0/0&0/0\\\hline\end{tabular}\end{center}\vspace{-2mm}\end{table}\normalsize\small\begin{table}\caption{各場面でのbucksの意味}\label{bucks}\begin{center}\tabcolsep=1mm\begin{tabular}{|c|l|l||l|l||l|l|}\hline&bucks&&狩猟&&ルーレット&\\\hline&&意味分類&項目レベル&カテゴリレベル&項目レベル&カテゴリレベル\\\hline\hlinen&maleanimal&76.8&*8/0&*8/0&0/0&0/0\\o&boy&302.5&0/0&0/0&0/0&0/0\\u&hoofedanimal&311.5&*5/0&*41/0&0/0&0/0\\n&goat&311.8&*1/0&*41/0&0/0&0/0\\&hare&311.24&*6/0&*41/0&0/0&0/0\\&leap&366.1&0/0&0/0&0/0&0/0\\&money&728.7&0/0&0/0&*0/0&*2/0\\&trestle&900.16&0/0&6/0&0/0&4/0\\\hline\end{tabular}\end{center}\vspace{-2mm}\end{table}\normalsize場面情報の構成手順は,まずOPEDの各場面に出てくる名詞と動詞に対してシソーラス中から場面にふさわしい意味分類項目を付加する(テーブルレベルとする).次に単語の枠を外し,場面全体での各意味分類項目に対しての頻度を求め,これを項目レベルの場面の意味分布とする(項目レベル).そしてさらに各カテゴリ内にある意味分類項目の頻度を足し合わせたものを,カテゴリレベルの場面の意味分布として使用する(カテゴリレベル).表~\ref{shot}に示した`shot'の意味では,項目レベルでは`sem'の欄の各意味分類の頻度を場面情報から取得した結果,`hunt(382.9)'という意味に対しての場面中の修飾名詞と被修飾名詞の寄与は0,動詞の寄与は3であることがわかる.カテゴリレベルは各意味分類項目(例えば382.9)を含むカテゴリ(382)全体に対しての頻度が表されている.表~\ref{shot},表~\ref{bucks}の`*'は人間がそれぞれの場面で手で選んだ正解を示している.狩猟とルーレットの各々の場面での`shot'と`bucks'のそれぞれの試行回数を求めた結果を表~\ref{shot_each},表~\ref{bucks_each}に示す.表の横方向は場面情報として用いた単語の品詞による分類を表す.「名詞のみ」とは,辞書中の各場面に現れる名詞だけを情報として使ったときを示し,「動詞のみ」とは動詞だけを使ったとき,そして「名詞+動詞」は両方を場面情報として使った場合を示す.また`/'の左側は`shot'の場合には動詞の中の意味分類から正解を選ぶまでの試行回数であり,`bucks'の場合には名詞の中の意味分類から正解を選ぶまでの試行回数である.`/'の右側は全品詞を区別しなかった場合の,全意味分類から正解を選ぶまでの試行回数である.表~\ref{shot_each},表~\ref{bucks_each}から得られることは,\begin{enumerate}\item全品詞の中から正解の意味分類を得るまでの試行回数は,品詞を予め特定した場合に比べると,正解が目標単語の意味リストにある場合にはほとんど増えないが,正解が目標単語の意味リストにない場合には全ての意味リストを試す必要があるために,致命的に試行回数が増えてしまう.(例:ルーレットでの`shot')\item英語の動詞は名詞よりも隠喩的な要素が強く,意味を特定することが難しいばかりか,意味リストにないことも多い.(例:ルーレットでの`shot')\item場面情報に動詞の数が名詞ほど集まらなく,不安定である.\item表~\ref{shot_each},表~\ref{bucks_each}の結果から考察すると,場面情報には名詞と動詞は合わせて登録した方が良い.\end{enumerate}などであり,その結果実文における解析では\begin{enumerate}\item品詞の特定はこの方法では扱わず,より信頼性の高いPart-Of-Speech(POS)Tagger\cite{XEROX}などの利用を想定する.特にこれは目標とする単語の品詞を,前後の単語との関係からHiddenMarkovModelにより求めるもので,BrownCorpus1,000,000語に対して96\%の正答率を持っているので,前処理として有用であると思われる.\item今回の実験では動詞の多義性は扱わない.\item場面情報は名詞と動詞を合わせて登録する.\end{enumerate}という設定を設けることにした.\small\begin{table}\caption{各場面でのshotの正解の意味までの試行回数}\label{shot_each}\begin{center}\tabcolsep=1mm\begin{tabular}{|l|l|l|l|l|}\hline&&名詞のみ&動詞のみ&名詞+動詞\\\hline\hline狩猟&テーブル&1/1&1/1&1/1\\&項目&5.23/7.77&1/1&1/1\\&カテゴリ&1/1&1/1&1/1\\\hlineルーレット&テーブル&---&---&---\\&項目&21/31&21/31&21/31\\&カテゴリ&21/31&21/31&21/31\\\hline\end{tabular}\end{center}\end{table}\normalsize\small\begin{table}\caption{各場面でのbucksの正解の意味までの試行回数}\label{bucks_each}\begin{center}\tabcolsep=1mm\begin{tabular}{|l|l|l|l|l|}\hline&&名詞のみ&動詞のみ&名詞+動詞\\\hline\hline狩猟&テーブル&1/1&1/1&1/1\\&項目&1/1&1.80/2.40&1/1\\&カテゴリ&1/1&1.80/2.40&1/1\\\hlineルーレット&テーブル&---&---&---\\&項目&4.5/6&4.5/6&4.5/6\\&カテゴリ&2/2&4.5/6&2/2\\\hline\end{tabular}\end{center}\end{table}\normalsize\subsection{テキストにおける実験}テキストに対する評価実験の対象として,モンゴメリー作の「赤毛のアン」の英語原作の中から台所のシーンを切りだし,台所に登場すると思われる名詞を選定して上記の方法に従い評価を行なった.場面情報によらない結果および台所の場面情報の登録語,未登録語の個数を表~\ref{result}に示す.選定した名詞でシソーラスに登録されている名詞の多義性の度数分布,およびランダムに意味分類を取り出した場合の,正解までの試行回数の分布を図\ref{ambiguity}に示す.図~\ref{ambiguity}からわかるように,多義性の度数は正解が得られるまで意味分類を取り出す回数の最悪の場合を表し,場面情報なしでランダムに取り出した場合の正解までの試行回数は正解が得られるまで意味分類を取り出す回数の平均値を表す.\small\begin{table}\caption{選定した名詞の基本情報}\label{result}\begin{center}\tabcolsep=1mm\begin{tabular}{|l|r|}\hline台所に関係する全名詞&357個\\\hlineシソーラスに登録されている名詞&341個\\多義数の平均&4.13個\\正解までの試行回数の期待値の平均&2.10回\\(場面情報なし)&\\\hlineシソーラス情報に登録されている名詞のうち&\\台所の場面情報に登録されている名詞&114個\\シソーラス情報に登録されている名詞のうち&\\台所の場面情報に登録されていない名詞&227個\\\hline\end{tabular}\end{center}\end{table}\normalsize\begin{figure}\begin{center}\epsfile{file=fig4.eps,width=63mm}\end{center}\caption{シソーラスに登録されている名詞の多義性の分布および正解までの試行回数の分布(場面情報なし)}\label{ambiguity}\vspace*{3mm}\end{figure}以下,各種条件で試行回数を求めた結果を示し,詳細な考察を次章で行なう.台所の場面情報に登録されている名詞に対して,場面情報を使わずにランダムに取り出した場合の試行回数の平均\footnote{比較のための場面情報なしの場合の取り出し順は,語義の頻度に応じた順序づけに従うのが理想であるが,今回用いたRogetのシソーラスにはその様な情報は考慮されておらず,登録順は各分類の出現順に従っているため,その順番に意味があるとは判断せず,デフォルトの優先づけを想定せずにあらゆる場合の平均をとることにした.}と,テーブルレベルの場面情報を使った場合の試行回数の平均を表~\ref{registered_iteration}に示す.平均値を見ることにより,単語による試行回数の度合や試行回数の減少の度合のばらつきを吸収し,全体の速度向上の様子をおおまかにとらえることができる.表~\ref{registered_iteration}の結果からランダムに意味を取り出すよりも,テーブル引きや項目レベルの場面情報を用いた処理を行なうと,平均して二倍以上速くなる.またそれぞれの場合の分布を図~\ref{registered}に示す.参考のために,項目レベル,カテゴリレベルの場合での分布も示す.各単語の正しい意味まで語義を検索する回数の期待値を,わかりやすくするために累積した結果のグラフが示されている.この結果ではテーブルレベルと項目レベルは値が同じであり,グラフが重なっている.以下のグラフで,台所の場面情報に登録されている名詞に関しては,テーブルレベルと項目レベルは全く同じ結果を示しグラフが重なっている.どの場合も6回の検索までに正解が得られている.期待値1で正解が得られる単語の数の割合は,場面情報なしのときの22\%に対し,テーブルレベルと項目レベルの場面情報で優先づけした結果は96.5\%まで上昇する.\small\begin{table}\vspace{-1.5mm}\caption{台所の場面情報に登録されている名詞の試行回数の平均}\label{registered_iteration}\begin{center}\tabcolsep=1mm\begin{tabular}{|l|l|}\hline方法&試行回数の平均\\\hlineランダム(場面情報なし)&2.37回\\テーブルレベル&1.05回\\\hline\end{tabular}\vspace{-3.5mm}\end{center}\end{table}\normalsize\begin{figure}[p]\begin{center}\epsfile{file=fig5.eps,width=67mm}\end{center}\caption{試行回数の期待値に対する選定名詞(台所の場面情報に登録されている113語に対して)の割合の累積\\(テーブル引き(table)と項目レベル(item)が重なっている)}\label{registered}\end{figure}台所の場面情報に登録されていない名詞の試行回数の平均を表\ref{nonregistered_iteration}に,分布を図~\ref{nonregistered}に示す.対象は場面に登録されていない語なので,テーブルレベルに関する情報はない.期待値1で正解が得られる単語の数の割合は,場面情報なしのときの24\%に対し,カテゴリレベルの場面情報で優先づけした結果は73\%まで上昇する.\small\begin{table}\caption{台所の場面情報に登録されていない名詞の試行回数の平均}\label{nonregistered_iteration}\begin{center}\tabcolsep=1mm\begin{tabular}{|l|l|}\hline方法&試行回数の平均\\\hlineランダム(場面情報なし)&1.96回\\項目レベル&1.86回\\カテゴリレベル&1.50回\\\hline\end{tabular}\end{center}\end{table}\normalsize\begin{figure}\begin{center}\epsfile{file=fig6.eps,width=65mm}\end{center}\caption{試行回数の期待値に対する選定名詞(台所の場面情報に登録されていない228語に対して)の割合の累積}\label{nonregistered}\end{figure}以上の結果から,システムとしてはターゲットとする語が場面情報に登録されているかどうかをまず調べ,\begin{itemize}\item場面情報に登録されている名詞に対してはテーブル引きによる優先順位づけを行なう\item場面情報に登録されていない名詞に対してはカテゴリレベルによる場面の意味分布を用いて優先順位づけを行なう\end{itemize}という方法をとることにし,その結果を表~\ref{result_table}に示す.また第一候補解,第二候補解までの多義性解消率を表\ref{disam_prob},またその分布を図\ref{disam1_registered},\ref{disam1_nonregistered},\ref{disam2_registered},\ref{disam2_nonregistered}に示す.各単語の意味を一つ取り出したときに,それが正解となる確率が求まる.さらに単語の出現頻度も考慮し,その確率の平均をとったものが多義性解消率である.場面情報の有無や種類によって意味の取り出し方が異なる.その違いが表\ref{disam_prob}に示されている.図~\ref{disam1_registered}は場面に登録されている名詞113語に対してシステムが最初に出力する意味が正解となる確率であり,縦軸は語数である.例えば,場面情報を使わないとき(ランダム)では,最初の候補が100\%正解になる語は25語であるが,テーブルや項目レベルの場面情報を使えば,109語まで上昇する.図~\ref{disam1_nonregistered}は場面に登録されていない名詞228語に対してシステムが最初に出力する意味が正解となる確率である.場面情報を使わないとき(ランダム)では,最初の候補が100\%正解になる語は54語であるが,カテゴリレベルの場面情報を使えば,166語まで上昇する.図~\ref{disam2_registered}は場面に登録されている名詞113語に対してシステムが2番目までに出力する意味の中に正解が含まれている確率である.場面情報を使わないとき(ランダム)では,最初の候補が100\%正解になる語は33語であるが,テーブルや項目レベルの場面情報を使えば,109語まで上昇する.図~\ref{disam2_nonregistered}は場面に登録されていない名詞228語に対してシステムが2番目までに出力する意味の中に正解が含まれている確率である.場面情報を使わないとき(ランダム)では,最初の候補が100\%正解になる語は121語であるが,カテゴリレベルの場面情報を使えば,172語まで上昇する.表\ref{result_disam_table}に本手法の適用結果をまとめる.場面情報のテーブルに見つかった名詞に対してはテーブル引きによる優先づけを行ない,見つからなかった名詞に対してはカテゴリレベルによる場面の意味分布を用いて優先づけをする.\small\begin{table}\caption{選定した全名詞への本手法の適用結果.試行回数の期待値の平均による評価.}\label{result_table}\begin{center}\tabcolsep=1mm\begin{tabular}{|l|l|}\hline方法&試行回数の期待値の平均\\\hlineランダム(場面情報なし)&2.10回\\優先順位づけ後&1.35回\\\hline\end{tabular}\end{center}\end{table}\normalsize\small\begin{table}\caption{第一候補,第二候補までの多義性解消率(\%)}\label{disam_prob}\begin{center}\tabcolsep=1mm\begin{tabular}{|l|l|l|l|l|}\hline&ランダム(場面情報なし)&テーブル&項目&カテゴリ\\\hline\hline第一候補まで.登録名詞&51&96&96&81\\第一候補まで.未登録名詞&51&55&55&77\\\hline第一候補まで.選定全名詞&51&69&69&78\\\hline\hline第二候補まで.登録名詞&71&99&99&99\\第二候補まで.未登録名詞&67&74&74&83\\\hline第二候補まで.選定全名詞&69&82&82&88\\\hline\end{tabular}\end{center}\end{table}\normalsize\begin{figure}\begin{center}\epsfile{file=fig7.eps,width=70mm}\end{center}\caption{多義性解消率に対する語数(登録されている133語の中で)}\label{disam1_registered}\end{figure}\begin{figure}\begin{center}\epsfile{file=fig8.eps,width=70mm}\end{center}\caption{多義性解消率に対する語数(登録されていない228語の中で)}\label{disam1_nonregistered}\end{figure}\begin{figure}\begin{center}\epsfile{file=fig9.eps,width=70mm}\end{center}\caption{2回の検索までに正解が得られる確率に対する語数(登録されている113語の中で)}\label{disam2_registered}\end{figure}\begin{figure}\begin{center}\epsfile{file=fig10.eps,width=70mm}\end{center}\caption{2回の検索までに正解が得られる確率に対する語数(登録されていない228語の中で)}\label{disam2_nonregistered}\end{figure}\small\begin{table}\caption{選定した全名詞への本手法の適用結果.第一候補解,第二候補解までの多義性解消率(\%)による評価.}\label{result_disam_table}\begin{center}\tabcolsep=1mm\begin{tabular}{|l|l|l|}\hline方法&第一候補&第二候補まで\\\hlineランダム(場面情報なし)&51&69\\優先順位づけ後&83&88\\\hline\end{tabular}\end{center}\end{table}\normalsize \section{考察} この章では場面情報を用いた場合に,ランダムに取り出した場合に比べて試行回数がうまく減少しなかったとき,および場面情報のとり方による効果の差について考察を行なう.場面情報に登録されている名詞に対してはテーブルレベルや項目レベルでの方がカテゴリレベルよりも試行回数が少なくてすんでいる.これに対して場面情報に登録されていない名詞では項目レベルよりもカテゴリレベルの方が効果が大きい.このことは場面情報が不十分であることを示す.場面情報に登録されていない語の意味を推定するために,場面情報に登録されていた語の意味の分布を利用するのであるが,登録されていた語が少ない場合には,より上位の分類であるカテゴリで分類を行なうことによって,情報の補間をする必要が生じている.例えば登録されている名詞の細かい分類の方である項目レベルでの試行回数が登録されていない語での場合に比べ少なくてすむことは,その名詞自身の意味が数えられていることが顕著に効果を表していることを意味する.すなわちその語がたまたま場面情報に含まれていなかった場合には,非常に不利になることから,場面を構成するために十分な意味の分布の統計量が得られていないと思われる.また十分な統計量が得られた理想的な場合では,登録されていない名詞に関しても,ここでの登録されている名詞の項目レベル程度の少なさの試行回数が得られると予想される.だがそのような理想的状態がいつも得られるとは限らなく,不完全な場面情報しか得られない場合には,今回の解析の結果のように,シソーラスのより上位のカテゴリレベルでの補間が効果を持つものと思われる.テーブル引きから項目レベルへ,また項目レベルからカテゴリレベルへというようにシソーラスのより上位レベルを利用する際に問題となる点は補間による意味の干渉である.例えば,`cream'はこの物語ではケーキに塗るための「ソフトクリーム」を表す.ところが,OPEDでの場面全体の情報では「清潔さ」というカテゴリの頻度が多い.このためにカテゴリレベルでの情報を利用すると,`cream'の「洗剤」という意味の頻度が多くなってしまって正解が得られなくなってしまっている.また今回の文章での解析では現れなかったが,同じ単語の形をとるが互いに意味が異なる複数の物が一つの場面に同時に現れる場合があり,この場合はテーブル引きをしても効果が減少する.例えば今回用いた台所の場面情報の中に`plate'という単語が2つ含まれているが,1つは「皿」の意味であり,もう1つは「ホットプレート」の天板の意味であった.ただしそのような事例が出現する確率は非常に小さいものと思われる.場面情報なしの場合に比べて悪くなってしまう例は`door',`biscuit',`snap'である.`door'の人間が判断した意味はシソーラスの項目189.5,189.6の「入口」であるが,システムが最初に提示した解は292.6の「開放」という抽象的概念であった.`biscuit'は10.29,10.41の「食べ物」が正解なのであるが,742.2の「セラミクス(チップ)」を提示している.これは台所の場面には「陶磁器」が多いためである.`snap'は8.2の「クッキー」が正解であるが,68.2の「ピリッとすること」を提示している.これは場面中の「こしょう」による影響と思われる.このような場合に対処するには,なるべく多くの単語とその意味を対にして持つことが重要である. \section{今後の課題} 今回の実験では場面を一つに固定した場合の名詞の多義性に対して優先順位づけの効果を明らかにしたが,場面を決定する機構は課題として残されている.場面を決定するためには\begin{itemize}\item談話中の場面構造の切り出し\item切り出した場面の特定\item新たな場面情報の学習\end{itemize}を明確にする必要がある.場面は今回想定したようにそれぞれの文章に対して一つずつ決まる場合の他にも,入れ子などの構造を持つことがある.例えば会話文中や回想などでの場面と話者のいる場面の関係などがあげられる.各文章に対する場面が一つに決まる場合には,場面の切りかえを検出する必要があり,入れ子構造などを持つ場合にはさらに,場面と場面の関係も自動的に検出する必要がある.場面構造を切り出すためには焦点の解析や照応問題の解決が必要になる\cite{Tsunoda94a}.そして切り出した場面に対して場所名が明示的に与えられない場合には最尤の場面を推定する必要がある\cite{Tsunoda94b}.また場面の特定と文の理解は一方向でないことも考慮に入れる必要がある.場合によっては,場面の特定によって文が理解できた後でも,矛盾が生じて場面が変わりうる場合もあるし,より詳細な場面情報を提供する場合もある.テキスト全体からおおまかに場面を切り出し,その後で文ごとの詳細な格解析を行なった結果から,本当にその場面の同定が正しかったかを検証し直すことが一つの方法である.今回は視覚辞書であるOXFORD-DUDENPictorialEnglishDictionaryを場面情報として用いたが,このような辞書の情報が現実の世界の近似を十分に行なっていない場合には,場面内の対象物を新たに学習する方法,また新たな場面を獲得する方法が必要になるが,それは将来画像処理や画像認識との統合時の実現課題の一つであると思われる.ここでは場面に基づく空間的な連想を文脈情報の一つとして扱ったが,動詞が状態変化をひき起こす作用を分類した概念の辞書などの知識を用いたり,視点の移動などを含めた談話構造の解析を行ったりすることにより,時間発展などの他の連想関係を用いること,また動詞--名詞などの共起関係を用いることを組み合わせた場合の制御方法などの検討を要すると思われる.特に単語の意味間の直接の依存関係の整合性の問題があるが,これは格解析の結果の検証を行ない,局所的な矛盾を起こさない解が得られるまですべての解析を繰り返す必要がある.また今回は多義語の意味の分類に際してシソーラスを用いたが,意味の定義方法の問題は依然として残されており,検討を要する. \section{むすび} 英語名詞の多義性解消の効率化の問題に対し,空間的連想を用いた文脈情報として場面が実文に対し有意な結果を与えることを示した.視覚的情報に基づく辞書とシソーラスを組み合わせる場合の構成方法の比較を行ない,考察を行なった.例として台所という場面に固定した場合に登場する名詞に対しての評価の結果,2.1回から1.35回へ56\%の平均試行回数の速度向上が見られている.多義性解消率は第一候補のみでは51\%から83\%に,第二候補まで出力した場合には69\%から88\%に上昇する.共起関係などの情報をさらに利用することにより,曖昧性の組合せ爆発を抑える有効な手段の一つと位置付けられる.今後は場面の切りかえ,同定,学習などを含む場面の決定機構の構築の研究を行なう予定である.\acknowledgment匿名で本論文を査読してくださった方には大変適切で有用な助言を頂きました.大変感謝致します.またこの研究の一部は文部省科学研究費の助成によります.\bibliographystyle{jnlpbbl}\bibliography{submit}\begin{biography}\biotitle{略歴}\bioauthor{角田達彦}{1967年生.1989年東京大学理学部物理学科卒業.1995年東京大学工学系大学院博士課程修了.工学博士.同年京都大学工学研究科助手現在に至る.IJCNN'93StudentAward受賞.1994年情報処理学会学術奨励賞受賞.自然言語処理の知識と推論について研究中.脳機能の数理化に興味を持つ.情報処理学会,日本神経回路学会,電子情報通信学会,人工知能学会,日本認知科学会各会員.}\bioauthor{田中英彦}{1943年生.1965年東京大学工学部電子工学科卒業.1970年同大学院博士課程終了.工学博士.同年東京大学工学部講師.1971年助教授,1978年〜1979年ニューヨーク市立大学客員教授,1987年教授現在に至る.計算機アーキテクチャ,並列処理,計算モデル,帰納推論,自然言語処理,分散処理,CAD等に興味を持っている.NewGenerationComputing編集長,情報処理学会,電子情報通信学会,人工知能学会,ソフトウエア科学会,IEEE,ACM,各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V03N04-04
\section{はじめに} \label{sec:はじめに}照応や省略の問題は,言語学および言語工学の問題として広く研究されている.特に,日本語では,主語が省略される場合が多く,一方,英語では主語が必須であるため,日英機械翻訳において,省略された主語(ゼロ主語)の照応先を同定し,補完することが問題となる.主語を補完せず,受動文に翻訳することも考えられるが,受動文よりは能動文のままの方が望ましい.また,日英機械翻訳の別の問題として,文が長すぎるという問題がある.長い文は,翻訳に失敗することが多く,人手による前処理でも,長文の分割は大きな部分を占めている.この問題に対処する手段として,長文を複数の短文に自動的に分割する自動短文分割がある.しかし,分割された短文には,主語が含まれないことが多く,ここでもゼロ主語の補完の問題が発生する.このような背景の下で,筆者らは,自動短文分割を利用した放送ニュース文の日英機械翻訳システムの中で,ゼロ主語の補完の問題を研究している.その基本的な考え方は確率モデルを用いるものである.ここで述べるゼロ主語の補完の問題は,従来から行われてきた,ゼロ主語の補完の問題とは,完全には一致していない.つまり,従来手法は,初めから異なる文の間で発生するゼロ主語を取り扱っており,ここでの問題は,短文分割によって人工的に生ずるゼロ主語を扱うものである\footnote{例えば,従来手法は,「太郎は食べようとした」「しかし食べられなかった」のように2文からなる表現に対して,後方の文のゼロ主語を考察するものが多い.しかし,ここでは,「太郎は食べようとしたが,食べられなかった」のように元は1文から成る文を2文に自動的に分割した後の表現を扱うので,従来手法の考察範囲とはずれがある.そこで,本稿の手法が従来の問題にそのまま適用できることはない.}.しかし,共通する部分も多いので,まず従来手法に検討を加える.ゼロ主語の補完に対する従来のアプローチは大きく3種類に分類できる.第1の方法は,「焦点」,「Centering」など,言語学における談話理論から得られる知見を利用するものである\cite{Yoshimoto88,Nakagawa92,Nomoto93,Walker94,Takada95,清水95}.この方法は,理論的な基礎づけがあるものの,比較的単純な文が対象であり,放送ニュース文のような複雑な文に適用した例は見あたらない.ニュース文に対するゼロ主語の補完には,従来の談話理論から得られる情報だけでなく,意味的なものなどさまざまな情報を広く考慮する必要がある.第2の方法は,待遇表現など主として文末に現われる情報を利用するものである\cite{Yoshimoto88,堂坂89,鈴木92}.しかし,本方法は対話文には有効であるものの,ニュース文には不適当である.第3の方法は,ゼロ主語のまわりの文脈から得られた各種情報をヒューリスティック規則にまとめるものである\cite{Carbonell88,村田95}.この方法は,確率モデルによる方法と同様,様々な情報が利用できる利点があるが,ヒューリスティック規則の作成や規則適用の優先度の付与を人手で行っており,恣意性がある.これらの従来手法に対して,確率モデルによる方法は,以下のような特徴を持つ.\begin{itemize}\itemゼロ主語の補完に有効な様々な情報を統一的に取り扱うことができる.\itemいったん学習データを作成した後は,自動的にモデルが構築できるので客観的であり,恣意性がない.\item確率モデルは言語工学のみでなく,多くの分野で利用されており,そこで得られた理論的知見や適用事例が利用できる.\end{itemize}確率モデルを用いたゼロ主語補完の方法としては,従来,多次元正規分布が用いられていた\cite{金94}.本稿では,これをいくつかの分布に拡張する.そして,それらの分布を用いたモデルについて,主語補完の精度を評価するとともに,誤った事例について考察を加え今後の課題を明らかにする.以下,\ref{sec:主語補完の方法}章では,主語補完の基本的な手順の説明を行う.\ref{sec:確率モデル}章では,本稿で考察する4種の確率モデルについて述べる.\ref{sec:補完実験}章では,ゼロ主語の補完実験の方法と結果について述べ,誤事例について考察する. \section{主語補完の方法} \label{sec:主語補完の方法}\subsection{基本的考え方}\label{subsec:基本的考え方}言語を用いた人と人とのコミュニケーションにおいては,「言わなくとも分かること」は言わないのが普通であり,ゼロ主語の場合もこれに相当する.このような言われなかったことが実際に何を表すかは,広い意味での文脈から推定される.人間の場合は,生まれて以来修得した,あるいは生まれる前から持っている各種の知識が文脈として利用できるが,現在の計算機では,このようなことは不可能である.そこで,計算機で取り扱えるより狭い文脈を利用せざるをえない.つまりゼロ主語のまわりのテキスト自体を文脈として利用することになる\footnote{「テキストが実世界とどのような関係にあるのか」という意味での文脈をcontext,「テキストのある部分が,そのテキスト全体とどのような関係にあるのか」という意味での文脈をdiscourseとして区別することもあるが,ここでは両者ともに文脈と呼ぶ.}.以下その方法を説明する.具体例については\ref{sec:補完実験}章で述べる.まず,主語補完が必要となる述語のまわりの文脈から,主語となりうる名詞句を候補として取り出す.そして,これらの主語候補名詞句に関する様々な情報を特徴パラメータとして,やはり文脈から抽出する.その結果,主語候補名詞句は特徴パラメータの数の次元を持つ空間内の点として表現される.この空間を特徴パラメータ空間と呼ぶ.実際の主語補完は,学習フェーズと補完フェーズの2つのフェーズに分けられる.前者は,学習データ(標本)を用いて,確率分布を推定するフェーズであり,補完フェーズに先だって行われる.後者は,実際の主語補完を行うフェーズである.学習フェーズでは,学習データを使って,特徴パラメータ空間上で主語になる名詞句の分布と主語にならない名詞句(非主語)の分布を求める.具体的には,主語補完が必要な述語に対して,主語候補名詞句を抽出し,それらの名詞句の中でどれが真の主語であるかを人手で判断したデータを学習データとして用意する.そして,これらの学習データを用いて,特徴パラメータ空間上の確率分布を推定する.確率分布は,離散型の場合,確率関数で与えられ,連続型の場合は,確率密度関数で与えられる.このようにして学習(推定)された,主語の確率(密度)関数を$p$,非主語の確率(密度)関数を$q$と書く.補完フェーズでは,主語補完が必要な述語に対して,主語候補の名詞句$\{n_{1},n_{2},\cdots,n_{k}\}$とそれらの特徴パラメータの値を文脈から抽出する.そして,これらの名詞句の中から,$p$と$q$の比が最大となるもの\begin{equation}n=\arg\max_{i=1,\cdots,k}\frac{p(n_{i})}{q(n_{i})}\label{eq:尤度比}\end{equation}を主語として補完する.\subsection{主語候補の範囲}\label{subsec:主語候補の範囲}まず,文脈として考慮しているゼロ主語の付近,つまり,主語のない補完対象述語の付近のテキストの中から,補完されるべき主語候補を抽出する範囲を決めなければならない.本稿では,自動短文分割の後処理としての主語補完を考えているので,以下の範囲の名詞句に主語候補を制限した.\begin{enumerate}\item主語候補は補完対象述語の左側にある.つまり,前方照応のみを考えている.\item主語候補は分割対象文内にある.分割前の複数文内の照応は考慮していない.\item主語候補は「は,が,では,を,で,も,に,の,としては,には」のいずれかの助詞(助詞相当表現を含む)を持つ名詞句である.ただし,「の」は動詞に連接する場合のみ(「太郎の書いた本」など)を対象とする\footnote{ここで対象としてる格助詞は,原文での格を表わす助詞であり,補完された主語の格を表わすものではない.格助詞「を」を持つ名詞句が,正解候補である例は,\ref{subsec:誤りデータの分析}節の第1の例にある.}.\end{enumerate}これらの条件を満足する名詞句を主語候補として抽出する.\subsection{特徴パラメータの設定}\label{subsec:特徴パラメータの設定}次にこれらの主語候補や文脈が持っている種々の性質から主語補完に有効である性質を特徴パラメータとして取り出す.このような性質として,ここでは8種のものを選定した.この選定は,データの事前分析による経験的なものである.これらの特徴パラメータは以下に示すように,文法的性質,意味的性質および当該名詞句と補完対象述語の間の各種の距離に関する性質に分けられる.以下各特徴パラメータについて説明する.\paragraph{(1)助詞の種類}候補名詞句に付属する助詞の種類は主語補完に利用できる.この情報は従来の「談話分析」に基づく主語補完でも利用されている.考察する助詞の種類は,候補名詞句の範囲に含まれるものである.予備実験の結果,最も主語となる可能性が高い助詞から順に並べて,その順番に数値を小さい方から割り当てた.その結果,「は,では,が,の,としては,に,で,を,も,には」が0から9に対応した.間隔は1である.\paragraph{(2)文字数}主語が補完対象述語からどの程度離れているのかは,主語認定のもう一つの手掛かりになる.一般的に遠く離れているほど主語になれる可能性は低くなる.ここではその離れている度合,即ち距離を計る基準として,候補名詞句と補完対象述語との間の文字数を用いた.ただし,離散分布のときはスパースになりすぎるので文字数を10で割って,少数点以下を切り捨てた値を特徴パラメータとした.距離に関するその他の基準としては,(5)から(8)までがある.\paragraph{(3)意味的整合性}主語候補と補完対象述語間の意味的結合の整合度は,格助詞「が」を中心とした語と語の係り受けデータ\cite{田中89}と分類語彙表\cite{国語研64}を利用して計算する.まず,あらかじめ係り受けデータを分類語彙表を用いて,係り元の分類番号(3桁)と係り先の語形の間の係り受けデータに変換しておく.次に,実行時には,主語候補の分類番号を求め,その番号と補完対象述語の語形との間に係り受け関係があるかどうかを係り受けデータの中で検索する.そして,検索に成功したものを整合するとして,以下の数値を用いる.\begin{itemize}\item整合する場合:2.0\item整合しない場合:0.0\item主語候補の分類番号が得られなかった場合:1.0\end{itemize}\paragraph{(4)連体節との関係}連体節に含まれる名詞句の係り受け範囲はその連体節に制限される場合が多いので,主語候補が連体節に含まれているかいないかは主語認定の手掛かりになる.連体節に含まれている場合は「1」,いない場合は「0」に数量化した.\paragraph{(5)「は」の数}一般的に係助詞「は」はある主題を表すので,同一文内で他の「は」によって主題の切り替えを行なった際,前者が後者を越えて係る場合はあまり見られない.即ち,同一文内の「は」助詞は相互に影響を受ける.本パラメータは,候補名詞句と補完対象述語との間の係助詞「は」の数である.\paragraph{(6)「が」の数}同じく,格助詞「が」の数である.「が」も「は」のように相互に影響を受けるため,他の「が」の存在は主語補完に有効な情報である.\paragraph{(7)「は」「が」以外の格文節の数}同じく,「は」と「が」以外の格文節の数である.通常,主語候補の内,述語により近いものが主語として認定される可能性が高いのでこの格文節の数が少ないほど主語として認定されやすい.ただし,ここでは補完対象述語自身は数えない.\paragraph{(8)動詞の数}主語候補と述語の間に存在する動詞の数を示す.一般的に,文末に係る主語を除いて,この数値が大きいほど主語になれる可能性は低い.ただし,連体形の動詞は数えない.\bigskip\bigskip以上の特徴パラメータの値は,形態素解析,文節認定およびグルーピングと呼ばれる部分的な構文解析によって得られる\cite{金94}.また,\ref{subsec:主語候補の範囲}節で述べた主語候補の抽出もこれらのプログラムによって行うことができる.\subsection{確率モデルの範囲と主語補完の方法}\label{subsec:確率モデルの範囲と主語補完の方法}\ref{subsec:特徴パラメータの設定}節で述べた特徴パラメータの個数は$8$であるので,特徴パラメータ空間の次元は$8$となる.従来法では,この特徴パラメータの空間を,実ベクトル空間として,多次元正規分布モデルによる主語補完を行っていた\cite{金94}.しかし,特徴パラメータは,本来,離散的なものである.そこで,本稿では,連続モデルと離散モデルの双方について考察する.本稿で対象としている確率モデルは\begin{quote}\vspace*{2mm}\begin{tabular}{ll}連続分布&正規分布\\&疑似正規分布\\離散分布&1次対数線形分布\\&2次対数線形分布\\\end{tabular}\vspace*{2mm}\end{quote}である.このモデルの詳細は章を改めて述べる.学習フェーズでは,これらのモデルに対して,その母数\footnote{確率分布のパラメータのことであるが,特徴パラメータと混同しないために母数という用語を用いる.}を学習データから推定する.補完フェーズでは,主語と非主語の確率(密度)関数の値,$p$と$q$を求め,式(\ref{eq:尤度比})に従って主語を補完する. \section{確率モデル} \label{sec:確率モデル}\subsection{連続分布}\label{subsec:連続分布}連続分布としては,多次元正規分布と正規分布に基づくGram-Charlier展開\cite[pp.228-229]{Stuart94}を多次元に拡張した分布(疑似正規分布と呼ぶ)について考察した.連続分布の場合は,$p,q$として,確率密度関数を用いる.それらを,正規分布の場合は,$p_{G},q_{G}$と書き,疑似正規分布の場合は,$p_{H},q_{H}$と書く.\paragraph{正規分布}正規分布は連続分布として広く用いられる分布であり,まず正規分布から出発するのは自然である.正規分布の密度関数は,特徴パラメータ空間の次元を$k$(今の場合$k=8$)とするとき,以下のようになる.主語の分布に対して,平均値ベクトルを$\mu_{p}$,共分散行列を$\Sigma_{p}$とし,特徴パラメータ空間における主語候補の点の位置を${\bfx}$とするとき,\begin{equation}p_{G}({\bfx})=(\frac{1}{\sqrt{2\pi}})^{k}\frac{1}{\sqrt{\det{\Sigma_{p}}}}\exp{-\frac{1}{2}({\bfx}-\mu_{p})^{t}\Sigma_{p}^{-1}({\bfx}-\mu_{p})}\end{equation}と書ける.非主語の分布に対する$q_{G}$についても同様である.分布の母数の数は平均値ベクトルで$k$個,共分散行列で$k(k+1)/2$個である.\paragraph{疑似正規分布}正規分布は対称であるが,後述する実験から,$p,q$は非対称であることが観察される.そこで,非対称性を扱える分布として,疑似正規分布を考える.この場合は,密度関数が\begin{equation}p_{H}({\bfx})=[\sum_{(i_{1},i_{2},\cdots,i_{k})\inI}a_{i_{1}i_{2}\cdotsi_{k}}H^{1}_{i_{1}}({\bfx})H^{2}_{i_{2}}({\bfx})\cdotsH^{k}_{i_{k}}({\bfx})]p_{G}({\bfx})\label{eq:hermite}\end{equation}と表される.ここで,$I$はインデックスの集合であり,$p_{G}({\bfx})$は正規分布の密度関数である.$H^{j}_{i_{j}}$は$i_{j}$次のHermite多項式から計算される.式(\ref{eq:hermite})の導出は付録\ref{app:疑似正規分布}で詳述する.非主語に対する$q_{H}$の場合も同様である.疑似正規分布の母数は,平均値ベクトル,共分散行列に加えて,係数$a_{i_{1}i_{2}\cdotsi_{k}}((i_{1},i_{2},\cdots,i_{k})\inI)$がある.係数$a_{i_{1}i_{2}\cdotsi_{k}}$の次数を$m=i_{1}+i_{2}+\cdots+i_{k}$とすると,$m$次の係数の総数は$(k+m-1)!/m!(k-1)!$となる.$0$次の係数は$1$であり,$1$次と$2$次の係数はすべて$0$である.今回の考察では,$3$次以下の係数のみを用いている.そこで,$a_{i_{1}i_{2}\cdotsi_{k}}((i_{1},i_{2},\cdots,i_{k})\inI)$の総数は$k(k+1)(k+2)/6$個である($0$次を除く).なお,疑似正規分布では,分布の裾の方で値が$0$以下になってしまう場合が起こり得る.このような場合には,$p_{H}$や$q_{H}$の代わりに$p_{G}$や$q_{G}$を用いた.\subsection{離散分布}\label{subsec:離散分布}前節で述べたように,特徴パラメータは離散的であり,離散分布を適用するのが本来である.離散分布は特徴パラメータに対する同時分布の確率関数$p(i_{1},i_{2},\cdots,i_{k})$で表現される.この意味は,$j$番目$(j=1,\cdots,k)$の特徴パラメータが$i_{j}$という値を取る事象の確率である.$j$番目のパラメータが取る値の範囲を$i_{j}=1,2,\cdots,I_{j}$とすると,単純に離散モデルを適用した場合,母数の数は$I_{1}\timesI_{2}\times\cdots\timesI_{k}$となってしまう.このように多くの母数に対して,その値を精度良く推定するためには,極めて大きい標本が必要となり,現実的でない.そこで,母数の数を少なくするために対数線形分布を用いる.この分布は,確率関数$p$の対数が\begin{eqnarray}\lefteqn{\log{p(i_{1},i_{2},\cdots,i_{k})}}\nonumber\\&=&\log{h^{(0)}}+\sum_{j=1}^{k}\log{h^{(1)}_{j}(i_{j})}+\sum_{j=1}^{k-1}\sum_{l=j+1}^{k}\log{h^{(2)}_{j,l}(i_{j},i_{l})}\nonumber\\&&+\sum_{j=1}^{k-2}\sum_{l=j+1}^{k-1}\sum_{m=l+1}^{k}\log{h^{(3)}_{j,l,m}(i_{j},i_{l},i_{m})}+\cdots\end{eqnarray}のように書ける分布である.ここで,関数$h^{(i)}_{j_{1},j_{2},\cdots,j_{i}}$の値は$j_{1},j_{2},\cdots,j_{i}$番目の特徴パラメータの値のみの関数であり,それらの特徴パラメータに対する周辺分布から計算される.本稿では,$h^{(1)}_{j}$のみを用いる1次対数線形分布および$h^{(2)}_{j,l}$のみを用いる2次対数線形分布を考える.前者に対する確率関数$p$,$q$を$p_{1}$,$q_{1}$と書き,後者に対しては,$p_{2}$,$q_{2}$と書く.ただし,両分布とも,$p$の値が$0$となる場合には,主語に対する学習データの総数$N_{p}$を用いて,$p=\frac{1}{N_{p}}$とフロアリングした.$q$の値が$0$となる場合には,非主語に対する学習データの総数$N_{q}$を用いて,$q=\frac{1}{N_{q}}$とした.\newpage\paragraph{1次対数線形分布}1次対数線形分布は\begin{equation}p_{1}(i_{1},i_{2},\cdots,i_{k})=\prod_{j=1}^{k}h^{(1)}_{j}(i_{j})\end{equation}と表される.$h^{(1)}_{j}(i_{j})(j=1,\cdots,k)$は$j$番目の特徴パラメータの値$i_{j}$のみの関数であり,$p^{(1)}_{j}$をパラメータ$j$に対する1次の周辺分布とするとき,\begin{equation}p^{(1)}_{j}(i_{j})=\sum_{i_{1}=1}^{I_{1}}\cdots\sum_{i_{j-1}=1}^{I_{j-1}}\sum_{i_{j+1}=1}^{I_{j+1}}\cdots\sum_{i_{k}=1}^{I_{k}}\prod_{j^{'}=1}^{k}h^{(1)}_{j^{'}}(i_{j^{'}})\end{equation}を満足するように定められる.このような$h^{(1)}_{j}$は実は$p^{(1)}_{j}$そのものである.つまり,\begin{equation}p_{1}(i_{1},i_{2},\cdots,i_{k})=\prod_{j=1}^{k}p^{(1)}_{j}(i_{j})\end{equation}となる.これは特徴パラメータが互いに独立であると仮定した分布に他ならない.この場合の母数は$p^{(1)}_{j}(i_{j})(j=1,\cdots,k;i_{j}=1,\cdots,I_{j})$であり,その総数は$I_{1}+I_{2}+\cdots+I_{k}$となる.非主語に対する1次対数線形分布$q_{1}$についても同様に定義される.\paragraph{2次対数線形分布}2次対数線形分布は\begin{equation}p_{2}(i_{1},i_{2},\cdots,i_{k})=\prod_{j=1}^{k-1}\prod_{l=j+1}^{k}h^{(2)}_{j,l}(i_{j},i_{l})\end{equation}と表される.$h^{(2)}_{j,l}(i_{j},i_{l})(j=1,\cdots,k-1,l=j+1,\cdots,k)$は$j$番目の特徴パラメータの値$i_{j}$および$l$番目の特徴パラメータの値$i_{l}$のみの関数であり,$p^{(2)}_{j,l}(i_{j},i_{l})$をパラメータ$j,l$に対する2次の周辺分布とするとき,\begin{eqnarray}\lefteqn{p^{(2)}_{j,l}(i_{j},i_{l})}\nonumber\\&=&\sum_{i_{1}=1}^{I_{1}}\cdots\sum_{i_{j-1}=1}^{I_{j-1}}\sum_{i_{j+1}=1}^{I_{j+1}}\cdots\sum_{i_{l-1}=1}^{I_{l-1}}\sum_{i_{l+1}=1}^{I_{l+1}}\cdots\sum_{i_{k}=1}^{I_{k}}\prod_{j^{'}=1}^{k-1}\prod_{l^{'}=j^{'}+1}^{k}h^{(2)}_{j^{'},l^{'}}(i_{j^{'}},i_{l^{'}})\label{eq:制約式2}\end{eqnarray}を満足するように定められる.このような$h^{(2)}_{j,l}(i_{j},i_{l})$は2次の周辺分布から,比例反復法\cite[pp.235-238]{廣津82}に基づいて求めることができる.その方法を付録\ref{app:比例反復法}に示す.この場合の母数は$h^{(2)}_{j,l}(i_{j},i_{l})(j=1,2,\cdots,k-1;i_{j}=1,2,\cdots,I_{j};l=j,j+1,\cdots,k;i_{l}=1,2,\cdots,I_{l})$であり,その総数は,\begin{equation}\sum_{j=1}^{k-1}\sum_{l=j+1}^{k}I_{j}\cdotI_{l}\end{equation}となる.非主語に対する2次対数線形分布$q_{2}$についても同様に定義される. \section{補完実験} \label{sec:補完実験}381文の放送ニュース文を用いて,ゼロ主語の補完実験を行った.これらの文は,1991年1月1日から2月10日までの間のNHKのニュース原稿からランダムに選択された.これらの文にあらかじめ形態素解析と自動短文分割を施した結果,主語補完が必要な文が108文得られた.これら108文に含まれる補完対象述語に対して主語候補名詞句を文脈中より抽出した.各補完対象述語に対する主語候補の個数の分布を図\ref{fig:候補名詞数の分布}に示す.\begin{figure}\center{\atari(70.0,50.0)\caption{候補名詞数の分布}\label{fig:候補名詞数の分布}}\end{figure}図\ref{fig:候補名詞数の分布}から,108個の述語に対して,ランダムに主語補完を行った時の補完精度は$35.8$\%であることが分かる.いかなる補完手法であっても,補完精度がこの値より良くなくては意味がない.そこで,この値を基準精度とすることができる.次にこれらの述語に対して正しい主語を人手により選択するとともに,主語候補の名詞句の特徴パラメータの値を求め,実験データを作成した.そして,実験データを元に交差確認法(crossvalidation)によって,手法の精度を評価した.\subsection{母数の推定値の考察}精度評価実験を行う前に,\ref{sec:確率モデル}章で述べた各分布に対して,母数を推定した結果を考察する.なお,ここでの推定は,実験データを全て用いて行った.\paragraph{連続分布}まず,正規分布と疑似正規分布の母数の推定値について考察する.平均値ベクトル$\mu_{p},\mu_{q}$は以下のようになった.\begin{equation}\mu_{p}=(1.03,2.48,1.54,0.01,0.12,0.35,2.81,1.58)^{t}\end{equation}\begin{equation}\mu_{q}=(4.83,2.44,0.74,0.23,0.28,0.52,2.60,1.58)^{t}\end{equation}また,共分散行列$\Sigma_{p},\Sigma_{q}$の下三角成分は以下のようになった.\begin{equation}\def\arraystretch{}\begin{array}{rrrrrrrr}\Sigma_{p}=\hspace*{12mm}\\[-1mm]1.93\\-0.55&2.08\\0.14&0.19&0.58\\0.02&-0.01&0.00&0.01\\0.00&0.14&0.02&-0.00&0.16\\-0.05&0.42&0.02&0.01&0.06&0.28\\-0.92&1.93&0.09&-0.02&0.13&0.27&2.93\\-0.23&0.95&0.18&-0.01&0.11&0.24&0.91&0.82\end{array}\end{equation}\begin{equation}\def\arraystretch{}\begin{array}{rrrrrrrr}\Sigma_{q}=\hspace*{12mm}\\[-1mm]7.59\\-1.08&1.77\\-0.25&0.03&0.75\\0.07&0.06&0.01&0.18\\-0.26&0.27&0.01&0.01&0.31\\-0.26&0.54&0.03&0.02&0.09&0.42\\-0.58&1.39&0.07&0.03&0.16&0.29&2.14\\-0.52&0.84&0.16&-0.02&0.19&0.26&0.72&0.93\end{array}\end{equation}$\mu_{p}$と$\mu_{q}$を比較することで,以下のことが平均的には言える.\begin{enumerate}\item主語は数値の小さい助詞を持つ名詞句がなりやすい.\item意味的整合性が高い方が主語になりやすい.\item連体節に含まれる名詞句は主語になりにくい.\item補完対象述語と候補名詞句の間の「は」や「が」の数が少ないほど主語になりやすい.\end{enumerate}これらの結果は,\ref{subsec:特徴パラメータの設定}節で述べたことがらとほぼ一致しており,特徴パラメータの性質が実験的にも確かめられた.共分散行列は,対角に近いものであり,各特徴パラメータの間の相関はあまり強くないことが分かる.共分散行列を用いた詳しい考察は\cite{金93}を参照されたい.\noindent共分散行列の行列式の値は\begin{eqnarray}\det{\Sigma_{p}}=0.0002\\\det{\Sigma_{q}}=0.0488\end{eqnarray}であった.この値から主語の分布より非主語の分布の方が広がりが大きいことがわかる.共分散行列から計算されたCholesky分解(後述)の逆行列の下三角成分は以下のようになった.\begin{equation}\def\arraystretch{}\begin{array}{rrrrrrrr}C_{p}^{-1}=\hspace*{12mm}\\[-1mm]1.39\\-0.40&1.39\\0.10&0.17&0.74\\0.01&0.00&0.00&0.09\\0.00&0.11&0.00&-0.01&0.39\\-0.03&0.29&-0.03&0.07&0.08&0.43\\-0.66&1.20&-0.07&-0.07&-0.01&-0.23&0.99\\-0.17&0.63&0.12&-0.03&0.10&0.11&0.07&0.59\end{array}\end{equation}\begin{equation}\def\arraystretch{}\begin{array}{rrrrrrrr}C_{q}^{-1}=\hspace*{12mm}\\[-1mm]2.76\\-0.39&1.27\\-0.09&0.00&0.86\\0.02&0.05&0.01&0.42\\-0.09&0.18&0.00&0.01&0.52\\-0.09&0.39&0.03&0.01&0.02&0.51\\-0.21&1.03&0.06&-0.04&-0.09&-0.28&0.97\\-0.19&0.60&0.17&-0.12&0.12&0.00&0.05&0.69\end{array}\end{equation}次に,疑似正規分布のパラメータを吟味する.120個の3次の係数の推定値の分布は図\ref{fig:疑似正規分布の係数の値}のようである.\begin{figure}\center{\atari(140.0,55.0)\caption{疑似正規分布の係数の値}\label{fig:疑似正規分布の係数の値}}\end{figure}このことから,多くの係数は$0$に近いことがわかる.特に,非主語の係数について,そうである.絶対値が$0.2$より大きい係数は,以下のとおりである.\begin{equation}\def\arraystretch{}\begin{array}{rrcrr}\multicolumn{2}{c}{主語の分布}&&\multicolumn{2}{c}{非主語の分布}\\i_{1},\cdots,i_{k}&a_{i_{1}\cdotsi_{k}}&&i_{1},\cdots,i_{k}&a_{i_{1}\cdotsi_{k}}\\00030000&1.65&&01002000&0.36\\10020000&0.72&&01000200&0.35\\00003000&0.65&&00003000&0.29\\01002000&0.58&&00030000&0.20\\01000200&0.31\\30000000&0.30\\01100001&0.23\\03000000&0.22\\00120000&0.22\\01000002&0.21\\01100100&-0.21\\\end{array}\end{equation}$i_{4}$の部分は,特徴パラメータの$(4)$「連体節との関係」にほぼ対応している.このパラメータの値は,主語の分布に対する学習データのうちで1となるものが1データしかなく,分布の偏りが特に大きい.このため,主語の分布の第1,2行目の係数値が大きくなっている.\paragraph{離散分布}1次対数線形分布の母数の推定値は,1次の周辺分布である.それを図\ref{fig:1次の周辺分布}に示す.図\ref{fig:1次の周辺分布}から,\ref{subsec:特徴パラメータの設定}節で述べたことが確認できる.また,分布の非対称性が大きいことが分かる.\begin{figure}\center{\atari(130.0,190.0)\caption{1次の周辺分布}\label{fig:1次の周辺分布}}\end{figure}2次対数線形分布の母数の推定値$h^{(2)}_{j,l}(i_{j},i_{l})$と2次の周辺分布$p^{(2)}_{j,l}(i_{j},i_{l})$の関係を主語の場合について,図\ref{fig:2次対数線形分布の母数}に示す.$h^{(2)}_{j,l}(i_{j},i_{l})$の値はかなりばらついていることが分かる.この値は$4$回の繰り返し後の結果である.この$h^{(2)}$を式(\ref{eq:制約式2})に代入して得た$p^{(2)}$の値と実験データから直接推定した$p^{(2)}$の値の差は最大$0.005$であり,比例反復法は十分に収束している.\begin{figure}\center{\atari(70.0,47.0)\caption{2次対数線形分布の母数}\label{fig:2次対数線形分布の母数}}\end{figure}\subsection{ゼロ主語補完精度の評価}\ref{sec:確率モデル}章で提案した$4$種の確率モデルについて,式(\ref{eq:尤度比})に基づくゼロ主語補完の実験を行い,精度を評価した.実験はclosedtestとopentestに分けて行った.closedtestは実験データ全体を学習データと試験データの双方に用いるものである.一方,opentestは以下のような交差確認法(crossvalidationtest)によった.実験データから4個のデータを除いて,残りを学習データとし,除いたデータを試験データとして,補完実験を行う.このような実験を試験データの範囲をずらせながら,合計$27$回$(108/4)$行った.実験結果を表\ref{tab:実験結果}に示す.ここで,1位とは,正解の主語に対する式(\ref{eq:尤度比})の値が1位であることを意味する.\begin{table}\begin{center}\caption{ゼロ主語補完実験結果}\label{tab:実験結果}closedtest\vspace{.5\baselineskip}\\\begin{tabular}{|c|c|c|c|c|}\hline&G&H&1&2\\\hline1位&84(77.8)&93(86.1)&91(84.3)&107(99.1)\\1〜2位&101(93,5)&104(96.3)&106(98.1)&108(100.0)\\3位以下&7&4&2&0\\\hline\end{tabular}\vspace{\baselineskip}\\opentest\vspace{.5\baselineskip}\\\begin{tabular}{|c|c|c|c|c|}\hline&G&H&1&2\\\hline1位&79(73.1)&84(77.8)&84(77.8)&87(80.6)\\1〜2位&100(92.6)&101(93.5)&103(95.4)&102(94.4)\\3位以下&8&7&5&6\\\hline\end{tabular}\vspace{.5\baselineskip}\\\begin{tabular}{l}G:正規分布H:疑似正規分布\\1:1次対数線形分布2:2次対数線型分布\\かっこ内は補完精度(%)\\\end{tabular}\end{center}\end{table}この結果から以下のことがいえる.\begin{itemize}\item母数の数が多い分布を用いた方が,少ない分布を用いるよりclosedtest,opentest共に精度が高い.つまり,過学習による精度の低下は見られない.\item連続分布モデルより離散分布モデルの方が精度が高い.\item2次対数線形分布モデルはclosedtest,opentest共に最も精度が高い.\end{itemize}\subsection{補完例}試験データに対して,ゼロ主語補完を行った例を示す.(\ref{eq:補完例})で,$L_{p_{G}/q_{G}}$などとあるのは,$p_{G}/q_{G}$の$10$を底とする対数の意味である.\begin{itemize}\item原文:橋本大蔵大臣はきょうの閣議のあとの記者会見で,湾岸戦争終結後,円安・ドル高が進んでいる為替水準について,現在のドル高はアメリカ経済のファンダメンタルズ=基礎的な力を反映したものではなく好ましくないという考えを強調しました.\item分割文2:考えを強調しました.\item補完対象述語:強調する\item主語候補パラメータ値と評価値:\begin{equation}\begin{array}{lrrrrr}\nonumber主語候補&パラメータ値&L_{p_{G}/q_{G}}&L_{p_{H}/q_{H}}&L_{p_{1}/q_{1}}&L_{p_{2}/q_{2}}\\大臣&0\52\2\0\1\1\4\4&1.92&4.16&0.82&1.82\\会見&6\44\0\0\1\1\4\3&-11.36&-8.52&-4.03&-20.50\\ドル高&2\32\1\1\1\0\3\3&-57.19&-49.85&-3.91&-36.12\\ドル高&0\22\1\0\0\0\2\2&3.63&4.23&1.71&1.33\\力&7\13\2\1\0\0\1\2&-53.73&-46.82&-5.62&-13.26\\\\\end{array}\label{eq:補完例}\end{equation}\end{itemize}正しい主語は「大臣」である.この場合,正規分布,疑似正規分布,1次対数線形分布はいずれも2番目の「ドル高」を補完しており,不正解である.これは,「ドル高」に付加している助詞が「は」であり,しかも述語に近いためである.これに対して,2次対数線形分布は正しく「大臣」を補完している.特徴パラメータ間の相互関係を考慮することが有効に働いて正しい補完が行われた.\subsection{誤りデータの分析}\label{subsec:誤りデータの分析}本節では,実験の結果,最も精度が高かった2次対数線形分布モデルについて,主語補完を誤った事例を分析する.このような誤事例に対して,正解候補と補完候補の意味的整合性に関する分布を表\ref{tab:誤事例の意味的整合性に関する分布}に示す(パラメータ値の意味は\ref{subsec:特徴パラメータの設定}節参照).誤事例の総数は$21$である.この表から,以下のようなことが明らかになる.\begin{table}\begin{center}\caption{誤事例の意味的整合性に関する分布}\label{tab:誤事例の意味的整合性に関する分布}\begin{tabular}{|c|c||c|c|c|}\hline\multicolumn{2}{|c||}{}&\multicolumn{3}{c|}{補完候補の}\\\multicolumn{2}{|c||}{}&\multicolumn{3}{c|}{パラメータ値}\\\cline{3-5}\multicolumn{2}{|c||}{}&\multicolumn{1}{p{1.2em}|}{\centering2}&\multicolumn{1}{p{1.2em}|}{\centering1}&\multicolumn{1}{p{1.2em}|}{\centering0}\\\hline\hline\raisebox{-5pt}[0pt][0pt]{正解候補の}&2&6&0&8\\&1&1&1&1\\\raisebox{5pt}[0pt]{パラメータ値}&0&1&0&3\\\hline\end{tabular}\end{center}\end{table}正解候補が非整合$(0)$で,補完候補が整合$(2)$している事例は1例である.このことから,意味的整合性を特徴パラメータに加えたことによって,精度が低下することは少ないことがわかる.言い替えると,意味的整合性が副作用を起こす場合は少ないとも言える.正解候補が整合で,補完候補が非整合の事例は8例ある.これらは,意味的に整合しているにもかかわらず,正解として選択されていない例である.8例の正解候補に対する助詞の種類を調べると,「は」が2例で,「では,が,の,としては,に,を」が各1例である.このように,主語になりにくい助詞が付加している場合が半数である.このことから,意味的整合性の把握が,まだ不十分であることがわかる.つまり,助詞の種類の情報を上回るだけの意味的整合性の情報が得られていない.このことは,図\ref{fig:1次の周辺分布}(c)で,主語かつ非整合,非主語かつ整合の確率がそれほど小さくないことからも分かる.意味的整合性をより正確に捉える特徴パラメータを見いだすことは今後の課題である.この場合の誤事例を以下に示す.\begin{itemize}\item原文:政府は湾岸危機に対する中東貢献策のひとつとして国連平和協力法案を去年の秋の臨時国会に提出しましたが,野党側が強く反発し,結局,廃案となりました.\item主語補完対象述語:廃案となる\item正解候補:法案整合\item補完候補:野党側非整合\vspace*{3mm}\end{itemize}正解候補も補完候補も非整合である3例を正解とするためには,前項と同様に,より正確な意味的整合性の把握が必要である.これら3例は,いずれも人間が判断すれば,正解候補が整合となるものである.この場合の誤事例を以下に示す.\begin{itemize}\item原文:一戸建住宅の福袋は1個だけ,福袋のコーナーでは家族連れなどが住宅の写真や間取りを見ながら次々と申込みを済ませていました.\item主語補完対象述語:済ませる\item正解候補:家族連れ非整合\item補完候補:コーナー非整合\vspace*{3mm}\end{itemize}正解候補も補完候補も整合の6事例は,ここで用いているような単純な意味的整合性ではどちらも整合となる場合であり,この誤りをなくすには,より深い解析が必要であろう.しかし,現状では,このような深い解析を広範な文書に対して行うのは困難であり,この種の誤事例が最後まで残るものと思われる.この場合の例を示す.\begin{itemize}\item原文:政府としては,こうした流れを踏まえて,サミット後の7月下旬にも中山外務大臣がソビエトを訪問し,このあと,海部総理大臣の早期のソビエト訪問を実現し,より突っ込んだ交渉を行うことを目指しています.\item主語補完対象述語:実現する\item正解候補:政府整合\item補完候補:(中山外務)大臣整合\vspace*{3mm}\end{itemize}最後に,正解候補または補完候補の分類番号が得られなかった誤事例は,3例であり,比較的少数である.これらは,分類語彙表に出現しない未登録語であり,その解決には,分類語彙表の増補を待たなければならない.他の類語辞典を利用することも考えられるが,いずれにしても,未登録語が出現する. \section{おわりに} 確率モデルを用いたゼロ主語補完の方法について,4種類のモデルを比較した.その結果,2次対数線形分布モデルが最も精度が高かった.さらに,3次以上の対数線形分布モデルや,複数の次数が混在しているモデルも考えられるが,2次のモデルが,学習データに対して,極めて高い精度をもっていることから,単なる次数の増加による精度の向上は期待できない.それよりも,\ref{subsec:誤りデータの分析}節で述べたような誤事例をふまえて,より適切な特徴パラメータを利用することが望まれる.この点は今後の課題である.本方法は,計算機によって観測可能でありさえすれば,いかなる情報であっても特徴パラメータとして利用できるので,(計算)言語理論の進展に伴って,精度の向上が期待できる.ここで述べた確率モデルはいずれも特徴パラメータ空間を基礎にしており,一般化すれば,特徴パラメータ値のリストとカテゴリー(本稿の場合は,主語か非主語)の組からなる表状のデータに対する解析と見ることができる.このようなデータ形式は,種々の情報を組み合わせて利用するような問題で,しばしば現われる.本稿で述べた確率モデルはそのような問題にも適用することができる.例えば,\begin{itemize}\item主語以外の必須格に対するゼロ要素の補完\item代名詞の照応\item名詞の定,不定の判別\end{itemize}などがあるが,さらに,言語工学の基本問題である\begin{itemize}\item語彙的曖昧性の解消問題\item構造的曖昧性の解消問題\end{itemize}にも適用可能であろう.\acknowledgment本研究と発表の機会を与えていただいたNHK放送技術研究所西澤台次所長,先端制作技術研究部榎並和雅部長に感謝する.また,本研究に対して有意義なコメントをいただいた当部自動翻訳研究グループの各氏に感謝する.\appendix \section{疑似正規分布の導出と母数の推定} \label{app:疑似正規分布}$k$次元の実数空間に値をとる確率変数${\bfX}=(X_{1},X_{2},\cdots,X_{k})^{t}$の$(i_{1},i_{2},\cdots,i_{k})$次のモーメント$\mu_{i_{1}i_{2}\cdotsi_{k}}$は$E$を期待値をとる作用素として,\begin{equation}\mu_{i_{1}i_{2}\cdotsi_{k}}=E[X_{1}^{i_{1}}X_{2}^{i_{2}}\cdotsX_{k}^{i_{k}}]\end{equation}である.これらを用いて,まず,平均値ベクトル$\mu$と共分散行列$\Sigma$が以下のように求められる.$\mu$の要素を$\mu_{1},\mu_{2},\cdots,\mu_{k}$とすると,\begin{equation}\begin{array}{ll}\mu_{1}=\mu_{100\cdots0},\\\mu_{2}=\mu_{010\cdots0},\\\cdots\\\mu_{k}=\mu_{00\cdots01}\end{array}\end{equation}である.また,$\Sigma$の$(i,j)$要素$(i,j=1,\cdots,k)$を$\Sigma_{ij}$とすると\begin{equation}\begin{array}{ll}\Sigma_{11}=\mu_{20\cdots0}-\mu_{1}\mu_{1},\\\Sigma_{12}=\mu_{110\cdots0}-\mu_{1}\mu_{2},\\\cdots\\\Sigma_{ij}=\mu_{0\cdots0\breve{1}0\cdots0\breve{1}0\cdots0}^{\;\;\;\;\;\;\;i\;\;\;\;\;\;\;j}-\mu_{i}\mu_{j}\end{array}\end{equation}などと求められる.$\Sigma$のCholesky分解$(\Sigma=CC^{t})$が正則であるとして,\begin{equation}{\bfY}=C^{-1}({\bfX}-\mu)\end{equation}と変数変換を行い,$\mu$のまわりの$(i_{1},i_{2},\cdots,i_{k})$次の正規化モーメント$\alpha_{i_{1}i_{2}\cdotsi_{k}}$が\begin{equation}\alpha_{i_{1}i_{2}\cdotsi_{k}}=E[Y_{1}^{i_{1}}Y_{2}^{i_{2}}\cdotsY_{k}^{i_{k}}]\end{equation}と求められる.さらに,式(\ref{eq:hermite})の係数を求める.式(\ref{eq:hermite})の$H^{j}_{i_{j}}({\bfX})$は$i_{j}$次のHermite多項式$\tilde{H}_{i_{j}}$を用いて\begin{equation}H^{j}_{i_{j}}({\bfX})=\tilde{H}_{i_{j}}(Y_{j})\end{equation}である.係数$a_{i_{1}i_{2}\cdotsi_{k}}$はHermite多項式の直交性を利用して,以下のように求められる.\begin{eqnarray}\lefteqn{\int_{-\infty}^{\infty}\cdots\int_{-\infty}^{\infty}H^{1}_{i_{1}}({\bfX})\cdotsH^{k}_{i_{k}}({\bfX})p_{H}({\bfX})d{\bfX}}\nonumber\\&=&\!\!\int_{-\infty}^{\infty}\cdots\int_{-\infty}^{\infty}H^{1}_{i_{1}}({\bfX})\cdotsH^{k}_{i_{k}}({\bfX})[\sum_{(j_{1},j_{2},\cdots,j_{k})\inI}a_{j_{1}j_{2}\cdotsj_{k}}H^{1}_{j_{1}}({\bfX})\cdotsH^{k}_{j_{k}}({\bfX})]p_{G}({\bfX})d{\bfX}\nonumber\\&=&\!\!\int_{-\infty}^{\infty}\cdots\int_{-\infty}^{\infty}\tilde{H}_{i_{1}}(Y_{1})\cdots\tilde{H}_{i_{k}}(Y_{k})\nonumber[\sum_{(j_{1},j_{2},\cdots,j_{k})\inI}a_{j_{1}j_{2}\cdotsj_{k}}\tilde{H}_{j_{1}}(Y_{1})\cdots\tilde{H}_{j_{k}}(Y_{k})]\nonumber\\&&\!\!\frac{1}{\sqrt{2\pi}}\exp{-\frac{Y_{1}^{2}}{2}}\cdots\frac{1}{\sqrt{2\pi}}\exp{-\frac{Y_{k}^{2}}{2}}dY_{1}\cdotsdY_{k}\nonumber\\&=&\!\!a_{i_{1}\cdotsi_{k}}i_{1}!\cdotsi_{k}!\end{eqnarray}そこで\begin{equation}c_{ir}=(-1)^{r}(2r-1)!!\frac{i!}{2r!(i-2r)!}\end{equation}とおくと,\begin{equation}a_{i_{1}i_{2}\cdotsi_{k}}=\frac{1}{i_{1}!i_{2}!\cdotsi_{k}!}\sum_{r_{1}=0}^{[\frac{i_{1}}{2}]}\sum_{r_{2}=0}^{[\frac{i_{2}}{2}]}\cdots\sum_{r_{k}=0}^{[\frac{i_{k}}{2}]}c_{i_{1}r_{1}}c_{i_{2}r_{2}}\cdotsc_{i_{k}r_{k}}\alpha_{(i_{1}-2r_{1})(i_{2}-2r_{2})\cdots(i_{k}-2r_{k})}\end{equation}となる.ここで,$[n]$は$n$を越えない最大の整数である.以上の式を用いて,学習データ(標本)からモーメントおよび正規化モーメントの推定値を計算すれば,全ての母数,$\mu$,$\Sigma$および$a_{i_{1}i_{2}\cdotsi_{k}}$の推定値が得られる. \section{比例反復法による2次対数線形分布の母数の推定} \label{app:比例反復法}2次対数線形分布の母数である$h^{(2)}_{j,l}(i_{j},i_{l})(j=1,2,\cdots,k-1;i_{j}=1,2,\cdots,I_{j};l=j,j+1,\cdots,k;i_{l}=1,2,\cdots,I_{l})$は以下の比例反復法によって求めることができる.2次対数線形分布の制約式である\begin{equation}p^{(2)}_{j,l}(i_{j},i_{l})=\sum_{i_{1}=1}^{I_{1}}\cdots\sum_{i_{j-1}=1}^{I_{j-1}}\sum_{i_{j+1}=1}^{I_{j+1}}\cdots\sum_{i_{l-1}=1}^{I_{l-1}}\sum_{i_{l+1}=1}^{I_{l+1}}\cdots\sum_{i_{k}=1}^{I_{k}}\prod_{j^{'}=1}^{k-1}\prod_{l^{'}=j^{'}+1}^{k}h^{(2)}_{j^{'},l^{'}}(i_{j^{'}},i_{l^{'}})\label{eq:2次周辺分布}\end{equation}を変形すると,\begin{eqnarray}\lefteqn{p^{(2)}_{j,l}(i_{j},i_{l})}\nonumber\\&=&h^{(2)}_{j,l}(i_{j},i_{l})\nonumber\\&&\times\sum_{i_{1}=1}^{I_{1}}\cdots\sum_{i_{j-1}=1}^{I_{j-1}}\sum_{i_{j+1}=1}^{I_{j+1}}\cdots\sum_{i_{l-1}=1}^{I_{l-1}}\sum_{i_{l+1}=1}^{I_{l+1}}\cdots\sum_{i_{k}=1}^{I_{k}}\prod_{j^{'}=1}^{k-1}\prod_{l^{'}=j^{'}+1,(j^{'},l^{'})\neq(j,l)}^{k}h^{(2)}_{j^{'},l^{'}}(i_{j^{'}},i_{l^{'}})\nonumber\\\end{eqnarray}と書くことができる.そこで,$h^{(2)}_{j,l}(i_{j},i_{l})$の$r$回目の推定値を$h^{(2),(r)}_{j,l}(i_{j},i_{l})$とし,式(\ref{eq:2次周辺分布})の右辺に$h^{(2),(r)}_{j,l}(i_{j},i_{l})$を代入して求めた2次周辺分布を$p^{(2),(r)}_{j,l}(i_{j},i_{l})$とするとき,$r+1$回目の推定値を\begin{equation}h^{(2),(r+1)}_{j,l}(i_{j},i_{l})=\frac{p^{(2)}_{j,l}(i_{j},i_{l})}{p^{(2),(r)}_{j,l}(i_{j},i_{l})}h^{(2),(r)}_{j,l}(i_{j},i_{l})\end{equation}のようにして求める.この反復を,推定値が収束するまで繰り返し行う.なお,初期値は以下のように設定した.\begin{eqnarray}h^{(2),(0)}_{j,l}(i_{j},i_{l})=\left\{\begin{array}{ll}1,&\mbox{$p^{(2)}_{j,l}(i_{j},i_{l})\neq0$}\\0,&\mbox{else}\end{array}\right.\end{eqnarray}\bibliographystyle{jnlpbbl}\bibliography{nlp}\begin{biography}\biotitle{略歴}\bioauthor{江原暉将}{1967年早稲田大学理工学部電気通信学科卒業.同年,日本放送協会に入局.1970年より放送技術研究所に勤務.現在,先端制作技術研究部主任研究員.かな漢字変換,機械翻訳などの研究に従事.電子情報通信学会,情報処理学会,ACL,機械翻訳協会各会員.}\bioauthor{金淵培}{1958年生.1983年UniversityofS$\tilde{a}$oPaulo大学工学部化学工学科卒業.1984年(株)ブラビス・インターナショナル入社.1991年NHK入局.現在,放送技術研究所・先端制作技術研究部においてニュース用日英機械翻訳,自然言語処理等の研究に従事.情報処理学会,AAAI各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V10N01-05
\section{はじめに} 大量の電子化文書が氾濫する情報の洪水という状況に我々は直面している.こうした状況を背景として,情報の取捨選択を効率的に行うための様々な手法が研究されている.近年,それらの研究の一つとして文書要約技術が注目を集めている.特にある話題に関連する複数の文書をまとめて要約する複数文書要約といわれる技術が関心を集めており,検索技術などと組み合わせることにより効率的に情報を得ることが期待できる.DocumentUnderstandingConference(DUC)\footnote{http://duc.nist.gov}や,TextSummarizationChallenge(TSC)\footnote{http://lr-www.pi.titech.ac.jp/tsc}\cite{article32}といった評価型ワークショップにおいても複数文書要約タスクが設定されており,その注目度は高い.複数文書要約も含め自動要約では,文書中から重要な情報を持つ文を抽出する重要文抽出技術用いて,その出力をそのまま要約とする手法\cite{article25,article38,article39}や,その出力から不要な表現の削除や置換,あるいは,新たな表現の挿入を行い,より自然な要約にする手法がある\cite{article47,article40}.いずれの場合にも,重要文抽出は中心的な役割を担っている.そこで本稿では,複数文書を対象とした重要文抽出に着目する.複数文書からの重要文抽出も,単一文書からの重要文抽出と同様に,ある手がかりに基いて文の重要度を決定し,重要度の高い文から順に,要約率で指定された文数までを重要文として抽出する.この際,複数の手がかりを扱うことが効果的であるが,手がかりの数が多くなると,人手によって適切な重みを見つけることが難しいという問題がある.本稿では,汎化能力が高いとされる機械学習手法の一種であるSupportVectorMachineを用いて,複数の手がかりを効率的に扱い,特定の話題に関連する複数文書から重要文を抽出する手法を提案する.評価用のテストセットとして12話題に関する文書集合を用意し,文書集合の総文数に対して10\,\%,30\,\%,50\,\%の要約率で重要文抽出による要約の正解データを作成した.人間による重要文の選択の揺れを考慮するため,1話題に対し3名が独立に正解データを作成した.このデータセットを用いた評価実験の結果,提案手法は,Lead手法,TF$\cdot$IDF手法よりも性能が高いことがわかった.さらに,文を単位とした冗長性の削減は,情報源が一つである場合の複数文書からの重要文抽出には,必ずしも有効でないことを確認した.以下,2章では本稿における重要文抽出の対象となる複数文書の性質について説明し,3章ではSupportVectorMachineを用いた複数文書からの重要文抽出手法を説明する.4章では評価実験の結果を示し,考察を行う.5章ではMaximumMarginalRelevance(MMR)\cite{article48}を用いて抽出された文集合から冗長性を削減することの効果について議論する. \section{対象とする複数文書} 複数文書要約において,これまでに処理対象とされている文書集合は以下の2種に大別できる\cite{article8}.\begin{enumerate}\item[(1)]情報検索結果である文書集合\item[(2)]ある特定の話題(トピック)に関する文書集合\end{enumerate}(1)の分類を対象とした複数文書要約の研究としては,\cite{article41}などがある.(1)では,ユーザが入力した検索要求(すなわち,単語群)を含む全ての文書が該当する.このため,要約の対象となる文書の数が多い.また,検索結果には,様々な出来事を扱った文書が多く含まれるだけでなく,ユーザが必要としない文書も多く含まれる可能性も高い.こうした多様で大量の文書集合に対して,理想的な要約を作成することは困難であるという問題がある.一方,(2)の分類を対象とした複数文書要約の研究としては,\cite{article38,article39,article40}などがある.TSC,DUCで扱われている複数文書もこの範疇に入る.また,こうした文書集合を抽出するための研究はTopicDetectionandTracking(TDT)\cite{article37}などで盛んに行われている.(2)の分類に属する文書集合は,特定の話題(出来事)に関連する文書集合であるので,一つのまとまったストーリが形成されていると考えられる.こうした文書集合は,意味的に良くまとまっているという特徴を持っているので,要約対象とする文書集合としても適している.本稿では,理想的な要約を作成することが比較的,容易であると考えられる分類(2)に属する文書集合から重要文を抽出する手法を提案する.特に,McKeownの分類\cite{article51}や野畑らの分類\cite{article42}によるSingle-Eventに属する文書集合を処理の対象とする. \section{SupportVectorMachineに基づく複数文書からの重要文抽出手法} \subsection{SVMによる文のランキング}SVMは,Vapnikによって提案された2値分類のための教師あり学習アルゴリズムである\cite{article12}.近年,様々な自然言語処理のタスクに適用され,その有効性が報告されている\cite{article13,article14,article15,article16}.SVMは既に自然言語処理の分野でもよく知られているので,本稿では詳しい説明を省略する.解説記事\cite{article52}などを参照されたい.SVMでは,学習データを${\bfx}_i(1\lei\len)$としたときに,テストデータ${\bfx}$を判別する判別関数$f({\bfx})={\rmsgn}(g({\bfx}))$が以下の式で与えられる.\begin{equation}g({\bfx})=\sum_{i=1}^nw_iK({\bfx}_i,{\bfx})+b\end{equation}$w_i$,$b$は定数である.ここで,$w_i\ne0$となるベクトルはサポートベクトルと呼ばれ,学習データ中の正例,負例を代表する.結局,判別関数はサポートベクトルのみで記述される.$K({\bfx}_i,{\bfx})$はカーネル関数と呼ばれる.様々なカーネル関数が提案されているが,本稿では多項式カーネル(式2)を用いる.\begin{equation}K({\bfx},{\bfy})=({\bfx}\cdot{\bfy}+1)^d\end{equation}重要文抽出は,要約率で指定された重要文の数を$Num$とした時に,重要度の高い上位$Num$件の文を重要文とみなし,それ以外を非重要文と見なす2値分類問題と考えることができる.しかし,重要文抽出では,指定された要約率に応じた数だけ文を抽出する必要がある.判別関数$f({\bfx})$を用いて重要文であるかどうかの判断を行った場合には,重要文と判定された文の数が要約率で指定された文の数をみたすとは限らず,問題となる.そこで本稿では,入力となる複数文書集合に含まれる全ての文に対して$g({\bfx})$の値を用いてランキングを行い,指定された要約率をみたすように文を抽出する.\subsection{素性}複数文書からの重要文抽出は,話題に関する文書集合を連結して1文書とみなせば,従来の単一文書からの重要文抽出と同等である.しかし,文書集合中の任意の文が,それが属する文書において重要かどうかという観点だけでなく,文書集合全体において重要かどうかという観点も扱う必要がある.よって本稿では,1文書のみで決定することのできる素性(単一文書用素性)と文書集合が与えられたときに決定することのできる素性(複数文書用素性)の2種の素性を用いる.以下に詳細を述べる.また,素性ベクトル${\bfx}_j$の各要素は0か1の2値となるように${\bfx}_j$を定義した.2値とならない素性は,$[0,1]$の値に正規化\footnote{単一文書用の素性は文書内での最大値で割ることによって正規化する.複数文書用の素性は,文書集合内での最大値や後述するクラスタ内での最大値で割ることによって正規化する.}し,その後,正規化した値が$[0,1]$を10分割した区間$[0.0,0.1)$,$[0.1,0.2)$,$\cdots$,$[0.9,1.0]$のどこに属するかを表す10次元の2値ベクトルに変換した.たとえば,文$S_j$のある素性$F(S_j)が0.75$であれば,これがベクトル$0000000100$に変換され,素性ベクトル${\bfx}_j$の要素の内の10個となる.こうして,最終的に,各文の素性ベクトル${\bfx}_j$の次元は583となる.\subsubsection{単一文書用素性}従来より,単一文書からの重要文抽出において,多くの文の素性が過去の研究により報告されている.本稿ではこうした素性を参考にするだけでなく,文に出現する固有表現と係り受け構造を考慮したTF$\cdot$IDFを文の素性として導入した.\subsubsection*{文の位置\cite{article2}}特定の話題に関する文書集合を$E$とし,$E$に含まれる任意の文書を$D_i$,$D_i$に含まれる任意の文を$S_j$,任意のパラグラフを$P_k$とする.ここで,文$S_j$の位置を表す素性として,$D_i$における$S_j$の位置$\mbox{Posd}(S_j)$と$P_{k}$における$S_j$の位置$\mbox{Posp}(S_j)$を以下の式で定義する.\begin{eqnarray}\mbox{Posd}(S_j)&=&1-\mbox{BD}_i(S_j)/M(D_i)\nonumber\\\mbox{Posp}(S_{j})&=&1-\mbox{BP}_{k}(S_j)/M(P_{k})\nonumber\end{eqnarray}ここで,$M(D_i)$は$D_i$の文字数,$\mbox{BD}_i(S_j)$は,文書の先頭から$S_j$までの文字数である.$M(P_{k})$は$P_{k}$の文字数,$\mbox{BP}_{k}(S_j)$はそのパラグラフの先頭から$S_j$までの文字数を表す.\subsubsection*{文の長さ\cite{article27}}文$S_j$の長さを表わす素性として,$\mbox{Len}(S_j)$を以下の式で定義する.\[\mbox{Len}(S_j)=M(S_j)\]\noindentただし,$M(S_j)$は文$S_j$の文字数を表す.\subsubsection*{{\bf{\rmTF$\cdot$IDF}}\cite{article4}}文$S_j$に含まれる単語の重み(TF$\cdot$IDF値)に基づいた素性として,$\mbox{Score}(S_j)$を以下の式で定義する.なお,本稿では,形態素解析器「茶筌」\cite{chasen}を用いて解析した結果,名詞および未知語と判定されたものを処理対象とした.以下の記述において,単語とは名詞および未知語を指すものとする.\[\mbox{Score}(S_j)=\sum_{t\inT(S_j)}tf(t,S_j)\cdotw(t,D_i)\]ここで,$T(S_j)$は$S_j$に出現する単語の集合である.$tf(t,S_j)$は$S_j$における単語$t$の出現頻度であり,$w(t,D_i)$は文書$D_i$における単語$t$のTF$\cdot$IDF値である.$w(t,D_i)$はSMARTで用いられている以下の式で定義する.\[w(t,D_i)=0.5\left(1+\frac{tf(t,D_i)}{tf_{max}(D_i)}\right)\cdot\mbox{log}\left(\frac{N}{df(t)}\right)\]$tf(t,D_i)$は,単語$t$の文書$D_i$における出現頻度,$tf_{max}(D_i)$は文書$D_i$に含まれる単語の最大頻度,$df(t)$は,データベースにおいて単語$t$を含む文書の数である.$N$はデータベースとする文書集合に含まれる文書数である.本稿では,データベースとは毎日新聞99年の1年分(112401文書)をさす.\subsubsection*{キーワード密度\cite{article25}}まず,$D_i$に出現する単語の集合を$T(D_i)$とする.$T(D_i)$に含まれる全ての単語に対して$w(t',D_i)$を求め,それらの平均と標準偏差を$\mu$,$\sigma$とした場合に$\mu+0.5\sigma\lew(t',D_i)$をみたした$t'$の集合を$T_{sig}$とする.ここで,$T_{sig}$に含まれる単語の密度に基づいた$S_j$の素性を\cite{article29}で提案された以下の式を用いて定義する.\[\mbox{Den}(S_j)=\frac{\sum_{t\inT_{sig}}w(t,D_i)}{d(S_j)}\]$T_{sig}$に含まれる単語でかつ$S_j$に出現する単語集合を$T_{sig}(S_j)$とし,$k(\ge2)$番目に出現した$t''\inT_{sig}(S_j)$と$k-1$番目に出現した$t''\inT_{sig}(S_j)$の距離(何単語離れているか)を$dist_k$として,$d(S_j)$は,以下の式で定義される.\[d(S_j)=\frac{\sqrt{\sum_{k=2}^{|T_{sig}(S_j)|}(dist_k)^2}}{|T_{sig}(S_j)|-1}\]$d(S_j)$は$S_j$に出現する単語$t\inT_{sig}(S_j)$の2乗平均距離を表しており,これが小さいことは,それらが密集して出現していることを意味する.\subsubsection*{タイトルとの類似度\cite{article2}}文$S_j$と$S_j$を含む文書$D_i$のタイトル$H_l$との類似度$\mbox{Sim}(S_j,H_l)$を以下のcosinemeasureを用いて定義し,これを$S_j$の素性とする.\[\mbox{Sim}(S_j,H_l)=\frac{\vecv(S_j)\cdot\vecv(H_l)}{\left\Vert\vecv(S_j)\right\Vert\left\Vert\vecv(H_l)\right\Vert}\]ここで,$\vecv(S_j)$,$\vecv(H_l)$は,単語を素性としてその有無を素性の値とする2値ベクトルである.\subsubsection*{係り受け関係を考慮したTF$\cdot$IDF}文の構文的な構造に着目し,述語を修飾する文節集合に含まれる単語の重みを考慮したTF$\cdot$IDFを定義する.述語を修飾する文節の中で最も多くの情報を持っていると考えられる文節集合の重要度$\mbox{Score}_{d}$,述語を直接修飾する文節集合の重要度$\mbox{Score}_{w}$として,以下の式で定義する.\begin{eqnarray}\mbox{Score}_{d}(S_j)&=&\sum_{t\inT_d(S_j)}w(t,D_i)\nonumber\\\mbox{Score}_{w}(S_j)&=&\sum_{t\inT_w(S_j)}w(t,D_i)\nonumber\end{eqnarray}$\mbox{Score}_{d}$は,係り受け構造木の最長パスを形成する文節集合に含まれる単語の集合$T_{d}(S_j)$に着目したTF$\cdot$IDF値の総和,$\mbox{Score}_{w}$は,最終文節に直接係る文節集合に含まれる単語の集合$T_{w}(S_j)$に着目したTF$\cdot$IDF値の総和である.なお,係り受け解析にはCabocha\footnote{http://cl.aist-nara.ac.jp/\~{}taku-ku/software/cabocha}を用いた.\subsubsection*{固有表現}Nobataら\cite{article5}は,文書のタイトルに出現する固有表現に着目した重要文抽出手法を提案している.しかし,文書中に出現する全ての固有表現が文の重要度に影響を与えると予想されるので,本稿では$S_j$に特定の種類の固有表現が存在する場合に1,存在しない場合に0をとる2値の素性を定義する.\cite{article1}でも固有表現を素性として用いているが,本稿での分類のように詳細ではない.ここでの固有表現とはInformationRetrievalandExtractionExercise(IREX)\cite{article35}の固有表現基準による固有表現および数値表現を指し,以下の8種に分類される.固有表現の抽出には磯崎のアルゴリズム\cite{article7}を用いた.\begin{quote}PERSON,LOCATION,ORGANIZATION,ARTIFACT,DATE,MONEY,PERCENT,TIME\end{quote}\subsubsection*{接続詞\cite{article3}}$S_j$に特定の接続詞が出現した場合に1,出現しなかった場合に0をとる2値の素性を定義する.接続詞は50種である.\subsubsection*{助詞\cite{article3}}$S_j$に特定の助詞が出現した場合に1,出現しなかった場合に0をとる2値の素性を定義した.助詞は,``格助詞$-$一般''(11種)とトピックマーカとされる係助詞(「は」,「も」)の計13種である.\subsubsection*{文末表現(小分類および大分類)\cite{article3,article6}}$S_j$に特定の小分類に属する文末表現が出現した場合に1,出現しなかった場合に0をとる2値の素性を定義し,大分類についても同じく2値の素性を定義する.文末表現の分類については,福本らの分類\cite{article30}に加え「特殊」,「署名」,「その他」を加えた21種を用いた.「特殊」は会話文などのかぎ括弧で終わる文,「署名」は文書の著者を示す文を指す.大分類については,福本らの分類\cite{article30},田村らの分類\cite{article31}に「その他」を加えた4種を用いた.分類ルールについては,文献\cite{article30,article31}を参照されたい.分類の詳細を以下に示す.大分類:~意見\begin{quote}小分類:~意見,問掛,要望\end{quote}大分類:~断定\begin{quote}小分類:~断定,推量,理由,判断,義務\end{quote}大分類:~叙述\begin{quote}小分類:~叙述,可能,伝聞,様態,存在,継続,状態,使役,現在,過去\end{quote}大分類:~その他\begin{quote}小分類:~特殊,署名,その他\end{quote}\subsubsection*{修辞関係\cite{article34}}田村らの手法\cite{article31}を用いて$S_j$の修辞関係(計4種)を決定し,$S_j$が$S_{j-1}$に対して特定の修辞関係である場合に1,そうでない場合に0をとる2値の素性を定義する.修辞関係は,「順接」,「転換」,「結論」,「説明」の4種である.修辞関係の決定ルールについては文献\cite{article30,article31}を参照されたい.\subsubsection*{用言}$S_j$に出現する用言を日本語語彙大系\cite{article18}を用いて分類し,$S_j$に特定の分類の用言が出現したときに1,出現しなかった場合に0をとる素性を定義する.日本語語彙大系における用言の基本分類は36であるが,多義語は複数の基本分類に属する.よって,多義を考慮して「基本分類の組」も一つの分類とみなし,合計366分類とした.\subsubsection{複数文書用の素性}任意の文$S_j$に対し,複数の文書が与えられた場合に定義できる素性として,以下の3種の素性を定義した.\subsubsection*{文書集合全体における位置}文$S_j$の位置を表す素性として,文書集合$E$における位置$\mbox{Post}(S_j)$を以下の式で定義する.\begin{eqnarray}\mbox{Post}(S_j)&=&1-\mbox{BE}(S_j)/M(E)\nonumber\end{eqnarray}ただし,$M(E)$は文書集合に含まれる文書の文字数の合計,$\mbox{BE}(S_j)$は,$E$中の文書を時系列\footnote{文書番号と時系列は一致していると仮定した.}でソートした後,文書ごとの区切りを無視して1文書とみなした場合の先頭から$S_j$までの文字数である.\subsubsection*{文書集合に特徴的な単語によるTF$\cdot$IDF}本稿で対象とする複数文書は何らかの観点に基づいて集められた文書集合である.よって,これらの文書集合に特徴的な単語は重要文抽出のための手がかりとして有効である.文書集合に特徴的な単語としては,文書集合を得るための検索要求に含まれる単語であると考えることも可能であるが,検索要求に含まれる単語だけでは情報が少ないという問題がある.さらに,本稿では検索は用いていない.そこで,本稿では与えられた文書集合の情報を用いて特徴的な語を認定する手法を採る.従来より,母集団となる文書集合からある特定の文書集合を抽出した場合,取り出した文書集合に特徴的な単語を認定する手法として,$\chi^2$検定を用いた手法\cite{article43,article45}やAICを用いた手法\cite{article44}が提案されている.本稿では,これらの手法を拡張してMDL原理を用いて入力とする文書集合に特徴的な単語を認定する.\begin{table}[t]\begin{center}\caption{$2\times2$分割表}\label{tab01}\begin{tabular}{l|l|l}\hline\hline&$c$&$\negc$\\\hline$t$&$n_{11}$&$n_{12}$\\$\negt$&$n_{21}$&$n_{22}$\\\hline\end{tabular}\end{center}\end{table}まず,ある文書集合$c$に出現する全ての単語$t$に対して,表\ref{tab01}に示す$2\times2$分割表を得る.ここで,$n_{11}$は,文書集合$c$において$t$が出現する文書数,$n_{12}$は,$c$以外の文書集合において$t$が出現する文書数である.$n_{21}$は,$c$において$t$が出現しない文書数,$n_{22}$は,$c$以外の文書集合において$t$が出現しない文書数である.この時,$t$と$c$の間に依存関係があるとするモデル(DM)と独立であるとするモデル(IM)を考え,$t$がどちらに良く当てはまるかを調べることで$t$が$c$に特徴的な語かどうかの判断をする.DM,IMに対するMDL値はそれぞれ以下の式で求まる.\begin{eqnarray}\mbox{MDL}_{DM}(t,c)&=&-\mbox{MLL}_{DM}(t,c)-\frac{k_{DM}}{2}\mbox{log}N\\\mbox{MDL}_{IM}(t,c)&=&-\mbox{MLL}_{IM}(t,c)-\frac{k_{IM}}{2}\mbox{log}N\end{eqnarray}\noindentただし,$k_{DM}$,$k_{IM}$はそれぞれのモデルにおける自由パラメータの数であり,$k_{DM}=3$,$k_{IM}=2$である\cite{article50}.$N$は先述したデータベース中の全文書数であり,$N=n_{11}+n_{12}+n_{21}+n_{22}$である.さらに,$\mbox{MLL}_{DM}$,$\mbox{MLL}_{IM}$はそれぞれのモデルにおける最大対数尤度であり,以下の式で求まる\cite{article50}.\begin{eqnarray}\mbox{MLL}_{DM}(t,c)&=&(n_{11}+n_{12})\log(n_{11}+n_{12})+(n_{11}+n_{21})\log(n_{11}+n_{21})\nonumber\\&+&(n_{21}+n_{22})\log(n_{21}+n_{22})+(n_{12}+n_{22})\log(n_{12}+n_{22})\nonumber\\&-&2N\logN\nonumber\\\mbox{MLL}_{IM}(t,c)&=&n_{11}\logn_{11}+n_{12}\logn_{12}+n_{21}\logn_{21}+n_{22}\logn_{22}-N\logN\nonumber\end{eqnarray}MDLの値は小さいほど優れたモデルである.ここで,AICの場合\cite{article49}と同様に2つのモデルの差が1以上ならば有意な差であると考えた.よって,以下の式をみたす$t$を$c$に特徴的な語として認定する.\[\mbox{MDL}_{IM}(t,c)-\mbox{MDL}_{DM}(t,c)\ge1\]ここで,$c$として文書集合$E$,$E$において,同日に出現した文書の集合$C_{i}$の2つを考える.$C_i$を考える理由は時間が進むにつれて新たに出現する単語を認定するためである.$c=E$の時に上記条件をみたす単語集合を$T'(E)$,$c=C_i$の時に$T'(C_i)$とする.それぞれの場合の文$S_j$の素性を以下の式で定義する.\[\mbox{Score}_{E}(S_j)=\sum_{t\inT(S_j)\capT'(E)}tf(t,S_j)\cdotw(t,D_i)\]\[\mbox{Score}_{C}(S_j)=\sum_{t\inT(S_j)\capT'(C_i)}tf(t,S_j)\cdotw(t,D_i)\]\noindentただし,$S_j\inC_i$.上式はそれぞれ,文書集合$E$に特徴的な単語,$E$の部分文書集合$C_i$に特徴的な単語にのみ着目した単語重要度の総和である.\subsubsection*{文書のジャンル}重要文抽出の対象となる文書集合には様々なジャンルの文書が含まれる場合がある.この時,あるジャンルの文書には重要文が少ないなど文書のジャンルが文の重要度に影響を与えることが考えられる.そこで,本稿では$S_j$が特定のジャンルの文書に属する場合に1,属さない場合に0とする2値の素性を定義する.ここでのジャンルとは新聞記事の紙面の情報をもとにした下記の分類である.\begin{quote}報道,社説,解説,読書,総合,特集,科学\end{quote} \section{評価実験} \subsection{コーパス}まず,評価実験のために毎日新聞99年から12個の話題に関連する文書集合を記者経験のある人物1名が作成した.話題に関連する文書は,基本的に各話題の開始記事か続報記事であり,コラムなどは含まれない.表\ref{tab02}にデータの詳細を示す.次に,それぞれの文書集合の総文数に対して10\,\%,30\,\%,50\,\%の要約率を設定し,重要文抽出による要約の評価用データを人手によって作成した.重要文抽出データの作成には,新聞記事の編集などに深くかかわったことのある6名があたり,1つの話題に対して異なる3名によるデータを作成した.それぞれをセットA,セットB,セットCとよぶ.\begin{table}[t]\begin{center}\caption{評価用データセット}\label{tab02}\begin{tabular}{l|c|c|c|c|ccc}\hline\hline\raisebox{-1.8ex}[0pt][0pt]{話題}&{開始}&{終了}&\raisebox{-1.8ex}[0pt][0pt]{総文書数}&\raisebox{-1.8ex}[0pt][0pt]{総文数}&\multicolumn{3}{|c}{重要文数}\\\cline{6-8}&(月/日)&(月/日)&&&10\,\%&30\,\%&50\,\%\\\hline奈良で最古の貨幣出土&01/20&12/26&12&165&17&50&83\\ブラジル通貨切り下げ&01/14&11/04&23&445&45&134&228\\フセイン国王,骨髄移植へ&02/03&02/08&17&320&32&96&160\\プリマコフ解任&05/13&05/20&16&213&22&64&107\\北朝鮮警備艇が韓国艇と接触&06/10&08/27&18&179&18&54&90\\サミット開幕&06/19&06/22&8&160&16&48&80\\ステパーシン解任&08/10&08/13&11&282&29&85&141\\トンネルでコンクリート落下&10/09&10/31&14&281&29&85&142\\日本海に2不審船&03/24&12/19&35&652&62&185&307\\インドミサイル実験成功&04/12&08/16&16&232&24&70&116\\パキスタン軍が官邸占領&10/13&12/01&35&605&66&197&328\\H2ロケット打ち上げ失敗&11/16&12/28&26&479&49&145&241\\\hline\multicolumn{3}{c|}{合計}&231&4013&409&1213&2023\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\begin{center}\caption{被験者間の一致率}\label{tab03}\begin{tabular}{l|ll|ll|ll}\hline\hline\raisebox{-1.8ex}[0pt][0pt]{組み合わせ$\setminus$要約率}&\multicolumn{2}{|c|}{10\,\%}&\multicolumn{2}{|c|}{30\,\%}&\multicolumn{2}{|c}{50\,\%}\\\cline{2-7}&一致率&$K値$&一致率&$K値$&一致率&$K値$\\\hlineA$\cap$B&0.465&0.40&0.521&0.32&0.661&0.32\\B$\cap$C&0.517&0.46&0.560&0.37&0.686&0.37\\C$\cap$A&0.451&0.39&0.474&0.25&0.603&0.20\\A$\cap$B$\cap$C&0.328&0.42&0.341&0.31&0.461&0.30\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\begin{center}\caption{$K$値の解釈}\label{tab030}\begin{tabular}{rll}\hline\hline\multicolumn{2}{c}{$K$値}&信頼性\\\hline&$<$0&POOR\\0.0&$-$0.20&SLIGHT\\0.21&$-$0.40&FAIR\\0.41&$-$0.60&MODERATE\\0.61&$-$0.80&SUBSTANTIAL\\0.81&$-$1.0&NEARPERFECT\\\hline\end{tabular}\end{center}\end{table}まず,被験者が抽出した重要文間の一致率,つまり,表\ref{tab02}の重要文数に対する被験者間で共通な重要文の割合を調べた.次に,被験者間の重要文の一致をKappa統計値($K$値)で調べた.詳細を表\ref{tab03}に示す.$K$値の解釈については,表\ref{tab030}となる\cite{article54}.表\ref{tab03}より,被験者間で一致する重要文の割合は,要約率が高くなるにつれ大きくなる.これは,要約率が高くなるにつれ,被験者が抽出する文の数も多くなるので当然と言える.2つのセットの組み合わせでは,BとCの一致の割合が高い.これに比べ,AとCでは一致の割合は低い.しかし,$K$値でみた場合には,低い要約率の方が被験者間の一致に対する信頼性は高いという結果となった.表\ref{tab030}より,信頼性が高いとは言えないが,10\,\%の要約率では適度(MODERATE)な一致であると言える.30\,\%,50\,\%の要約率では信頼性は低くなる傾向にある.過去の重要文抽出の研究例である野本らのデータ\cite{article6}では,報道記事の10\,\%要約率における$K値$は0.34であった.よって,単一文書,複数文書という違いはあるが,低い要約率におけるデータの信頼性は本稿のデータがやや高い.\subsection{実験結果と考察}提案手法の有効性を検証するために,先に説明したデータセットを用いて評価実験を行った.Lead手法,TF$\cdot$IDF手法を比較手法として提案手法の性能評価を行った.Lead手法は文書の先頭から順に与えられた要約率をみたすまで文を抽出する手法である.ここで,複数文書要約におけるLead手法をどう定義するかが問題となる.本稿では,それぞれの話題に含まれる全ての文に対して3章で説明したPosdを計算し,その値の大きい文から順に与えられた要約率をみたすまでを重要文として採用した.TF$\cdot$IDF手法としては,話題に関する文書集合に特徴的な単語のみに着目した手法である$\mbox{Score}_E$を用いた.Lead手法と同様に値の大きい文から順に要約率をみたすまでを重要文として抽出した.この手法を以下TF$\cdot$IDFと略記する.提案手法では,2次の多項式カーネルを用い,コストパラメータは$C=0.001$に設定した\footnote{コストパラメータ$C$はTSCの単一文書の重要文抽出データを用いて最適値を決定した.}.$g({\bfx})$の値が大きい文から順に要約率をみたすまでを重要文として抽出した.以下,この手法をSVMと略記する.プログラムにはTinySVM\footnote{http://cl.aist-nara.ac.jp/\~{}taku-ku/software/TinySVM}を利用した.なお,評価指標はTSCの重要文抽出タスクに従った.つまり,文書集合に対して要約率によって抽出すべき文の数を設定し,各手法がその数だけ抽出した重要文に含まれる正解重要文の数の割合(Precision)で評価を行う.いま,システムが抽出した重要文の数を$a$,システムが抽出した重要文のうち正解の数を$b$とすると,$\mbox{Precision}=b/a\times100$となる.\begin{table*}[tb]\small\begin{center}\caption{各手法の性能評価}\label{tab04}\begin{tabular}{l|l|ccc}\hline\hline\raisebox{-1.8ex}[0pt][0pt]{要約率}&\raisebox{-1.8ex}[0pt][0pt]{手法}&\multicolumn{3}{|c}{Precision}\\\cline{3-5}&&セットA&セットB&セットC\\\hline&Lead&39.2&38.4&45.7\\10\,\%&TF$\cdot$IDF&39.7&36.9&37.6\\&SVM&{\bf51.1}&{\bf46.6}&{\bf50.7}\\\hline&Lead&43.3&42.3&44.1\\30\,\%&TF$\cdot$IDF&47.3&43.6&46.8\\&SVM&{\bf52.0}&{\bf50.1}&{\bf49.3}\\\hline&Lead&58.6&59.9&57.2\\50\,\%&TF$\cdot$IDF&63.2&60.6&64.6\\&SVM&{\bf67.5}&{\bf66.3}&{\bf67.0}\\\hline\end{tabular}\end{center}\end{table*}\subsubsection{各手法の性能比較}表\ref{tab04}~にそれぞれの手法の各要約率における重要文の抽出精度を示す.なお,SVMはA〜Cの各セットに対して,学習用の11話題とテスト用の1話題に分けて評価を行い,これを12回繰り返した結果の平均値である.表\ref{tab04}~より,どのセットと要約率の組み合わせにおいてもSVMの抽出精度が高い.10\,\%の要約率では,SVMに続いてLead手法,TF$\cdot$IDFの順となり,30\,\%,50\,\%の要約率では,TF$\cdot$IDF,Lead手法の順となる.特に,SVMはデータの信頼性が高い10\,\%の要約率において,他の2手法との抽出精度の差が大きい.利用したデータや素性が異なるため,正確な比較とは言えないが,Lead手法とSVMの差は単一文書(TSCの報道記事)の場合\cite{article53}と比較して大きくなっている.\begin{table}[t]\begin{center}\caption{A$\cap$Bに対して各手法の重要文が占める割合}\label{tab05}\begin{tabular}{c|c|c|c}\hline\hline手法$\setminus$要約率&10\,\%&30\,\%&50\,\%\\\hlineLead&63.9&53.6&63.7\\TF$\cdot$IDF&57.6&57.4&69.0\\\hlineSVM(A)&73.8&62.9&70.7\\SVM(B)&73.1&61.1&72.5\\SVM(C)&73.2&58.9&70.1\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\begin{center}\caption{B$\cap$Cに対して各手法の重要文が占める割合}\label{tab06}\begin{tabular}{c|c|c|c}\hline\hline手法$\setminus$要約率&10\,\%&30\,\%&50\,\%\\\hlineLead&61.5&53.9&63.2\\TF$\cdot$IDF&55.9&54.4&69.2\\\hlineSVM(A)&69.5&58.0&66.7\\SVM(B)&69.4&60.6&73.1\\SVM(C)&72.0&59.0&73.5\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\begin{center}\caption{C$\cap$Aに対して各手法の重要文が占める割合}\label{tab07}\begin{tabular}{c|c|c|c}\hline\hline手法$\setminus$要約率&10\,\%&30\,\%&50\,\%\\\hlineLead&75.3&58.1&63.2\\TF$\cdot$IDF&62.0&64.0&74.1\\\hlineSVM(A)&82.0&65.7&73.4\\SVM(B)&80.7&63.8&75.8\\SVM(C)&83.0&64.7&75.0\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\begin{center}\caption{A$\cap$B$\cap$Cに対して各手法の重要文が占める割合}\label{tab08}\begin{tabular}{c|c|c|c}\hline\hline手法$\setminus$要約率&10\,\%&30\,\%&50\,\%\\\hlineLead&78.2&65.0&67.2\\TF$\cdot$IDF&66.9&69.2&77.3\\\hlineSVM(A)&85.1&72.7&76.0\\SVM(B)&86.7&70.6&78.3\\SVM(C)&85.5&70.3&79.8\\\hline\end{tabular}\end{center}\end{table}また,被験者間で一致した重要文に対して各手法が抽出した重要文の占める割合を調べた.表\ref{tab05}〜表\ref{tab08}にその結果を示す.なお,SVM(A),SVM(B),SVM(C)はそれぞれA,B,Cによる正解を学習に用いた結果を表す.各表より,どの正解セットの組み合わせに対しても,被験者間で共通な重要文に対する各手法の抽出した重要文の占める割合はSVMが高い.特に,10\,\%,30\,\%の要約率で他の2手法との差も大きい.また,セットA,Cを学習に用いた場合が,セットBを用いた場合よりもやや高い割合であることがわかる.今回のデータセットの中で$K$値の高い組み合わせ,B$\cap$Cの要約率10\,\%,A$\cap$B$\cap$Cの要約率10\,\%においてもSVMは高い割合で被験者間で共通な重要文を抽出しており,他の手法との差も大きい.以上より,提案手法はLead手法,TF$\cdot$IDFと比較して成績が良いことがわかった.さらに,被験者間で一致する重要文についても,提案手法は他の手法よりも高い割合で抽出できていることがわかった.\subsubsection{有効な素性に関する考察}\begin{table*}[tb]\scriptsize\begin{center}\caption{高い重みの素性(正)}\label{F_pair_pos}\begin{tabular}{l|l|l}\multicolumn{3}{c}{セットA}\\\hline\hline\multicolumn{1}{c|}{要約率=10\,\%}&\multicolumn{1}{c|}{要約率=30\,\%}&\multicolumn{1}{c}{要約率=50\,\%}\\\hline$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:DATE}$&$0.9{\le}\mbox{Sim}{\le}1.0$&$\mbox{文末(大):叙述}\land\mbox{{\bfジャンル:報道}}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Len}{\le}1.0$&$0.9{\le}\mbox{Sim}{\le}1.0\land\mbox{助詞:「を」}$&$\mbox{助詞:「は」}\land\mbox{{\bfジャンル:報道}}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:LOC}$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:DATE}$&$\mbox{文末(小):過去}\land\mbox{{\bfジャンル:報道}}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Score}{\le}1.0$&$0.9{\le}\mbox{Sim}{\le}1.0\land\mbox{助詞:「は」}$&$\mbox{助詞:「は」}\land\mbox{文末(大):その他}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:PERSON}$&$0.9{\le}\mbox{Sim}{\le}1.0\land\mbox{{\bfジャンル:報道}}$&$\mbox{助詞:「は」}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{文末(小):過去}$&$0.8{<}\mbox{Posd}{\le}0.9\land\mbox{{\bfジャンル:報道}}$&$\mbox{助詞:「は」}\land\mbox{文末(小):その他}$\\$0.9{\le}\mbox{Len}{\le}1.0\land0.9{\le}\mbox{Den}{\le}1.0$&$0.9{\le}\mbox{Sim}{\le}1.0\land\mbox{文末(大):叙述}$&$0.2{<}\mbox{Sim}{\le}0.3\land0.1{<}\mbox{{\bfPost}}{\le}0.2$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Score}_d{\le}1.0$&$0.9{\le}\mbox{{\bfPost}}{\le}1.0$&$0.1{<}\mbox{{\bfPost}}{\le}0.2$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{助詞:「を」}$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:LOC}$&$0.4{<}\mbox{Sim}{\le}0.5\land0.6{<}\mbox{{\bfPost}}{\le}0.7$\\$0.9{\le}\mbox{Sim}{\le}1.0\land\mbox{NE:PERSON}$&$0.6{<}\mbox{{\bfPost}}{\le}0.7\land\mbox{文末(小):過去}$&$0.9{\le}\mbox{{\bfPost}}{\le}1.0$\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{c}{セットB}\\\hline\hline\multicolumn{1}{c|}{要約率=10\,\%}&\multicolumn{1}{c|}{要約率=30\,\%}&\multicolumn{1}{c}{要約率=50\,\%}\\\hline$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:DATE}$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:DATE}$&$\mbox{助詞:「は」}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Score}{\le}1.0$&$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Posp}{\le}1.0$&$\mbox{助詞:「は」}\land\mbox{文末(大):その他}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Len}{\le}1.0$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:PERSON}$&$\mbox{助詞:「は」}\land\mbox{文末(少):その他}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Posp}{\le}1.0$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{助詞:「を」}$&$\mbox{助詞:「が」}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Sim}{\le}1.0$&$0.9{\le}\mbox{Posd}{\le}1.0$&$\mbox{助詞:「は」}\land0.0{\le}\mbox{{\bfPost}}{\le}0.1$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Score}_d{\le}1.0$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:LOC}$&$0.9{\le}\mbox{Posp}{\le}1.0\land\mbox{助詞:「は」}$\\$0.9{\le}\mbox{Len}{\le}1.0\land0.9{\le}\mbox{Sim}{\le}1.0$&$\mbox{NE:LOC}\land\mbox{助詞:「を」}$&$0.3{<}\mbox{Score}{\le}0.4\land0.0{\le}\mbox{Den}{\le}0.1$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:PERSON}$&$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Score}{\le}1.0$&$0.1{<}\mbox{Den}{\le}0.2\land\mbox{助詞:「が」}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{助詞:「を」}$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{助詞:「は」}$&$\mbox{NE:PERSON}\land\mbox{助詞:「は」}$\\$0.9{\le}\mbox{Score}{\le}1.0\land0.9{\le}\mbox{Sim}{\le}1.0$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{{\bfジャンル:報道}}$&$0.0{\le}\mbox{{\bfScore}}_{\bfE}{\le}0.1\land0.1{<}\mbox{{\bfScore}}_{\bfC}{\le}0.2$\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{c}{セットC}\\\hline\hline\multicolumn{1}{c|}{要約率=10\,\%}&\multicolumn{1}{c|}{要約率=30\,\%}&\multicolumn{1}{c}{要約率=50\,\%}\\\hline$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:DATE}$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:LOC}$&$0.9{\le}\mbox{Posp}{\le}1.0\land\mbox{助詞:「は」}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{文末(小):過去}$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{文末(小):過去}$&$\mbox{助詞:「は」}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Posp}{\le}1.0$&$0.9{\le}\mbox{Posd}{\le}1.0$&$\mbox{助詞:「に」}$\\%3$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:LOC}$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:DATE}$&$0.4{<}\mbox{Score}{\le}0.5\land0.0{\le}\mbox{Den}{\le}0.1$\\%4$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Sim}{\le}1.0$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{{\bfジャンル:報道}}$&$\mbox{助詞:「は」}\land\mbox{助詞:「に」}$\\%5$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Score}{\le}1.0$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{助詞:「は」}$&$\mbox{NE:PERSON}\land\mbox{{\bfジャンル:社説}}$\\%6$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Len}{\le}1.0$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{助詞:「を」}$&$\mbox{文末(大):叙述}$\\%7L$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{NE:PERSON}$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{文末(大):叙述}$&$0.9{\le}\mbox{Posp}{\le}1.0\land0.2{<}\mbox{{\bfScore}}_{\bfC}{\le}0.3$\\%8$0.9{\le}\mbox{Sim}{\le}1.0\land\mbox{NE:DATE}$&$0.9{\le}\mbox{Posd}{\le}1.0\land0.9{\le}\mbox{Posp}{\le}1.0$&$\mbox{文末(小):過去}$\\%9$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{文末(大):叙述}$&$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{助詞:「が」}$&$0.9{\le}\mbox{Score}{\le}1.0$\\%10\hline\end{tabular}\end{center}\end{table*}\begin{table*}[tb]\scriptsize\begin{center}\caption{高い重みの素性(負)}\label{F_pair_neg}\tabcolsep=3pt\begin{tabular}{l|l|l}\multicolumn{3}{c}{セットA}\\\hline\hline\multicolumn{1}{c|}{要約率=10\,\%}&\multicolumn{1}{c|}{要約率=30\,\%}&\multicolumn{1}{c}{要約率=50\,\%}\\\hline$0.9{\le}\mbox{Posd}{\le}1.0\land0.1{<}\mbox{{\bfScore}}_{\bfE}{\le}0.2$&$0.9{\le}\mbox{Posd}{\le}1.0\land0.1{<}\mbox{{\bfScore}}_{\bfE}{\le}0.2$&$0.2{<}\mbox{Sim}{\le}0.3\land\mbox{{\bfジャンル:報道}}$\\$0.9{\le}\mbox{Score}{\le}1.0\land\mbox{助詞:「は」}$&$0.5{<}\mbox{Posd}{\le}0.6\land\mbox{助詞:「に」}$&$\mbox{{\bfジャンル:社説}}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{修辞:順接}$&$\mbox{{\bfジャンル:特集}}$&$0.7{<}\mbox{{\bfPost}}{\le}0.8$\\$0.9{\le}\mbox{Score}_d{\le}1.0\land\mbox{NE:ORG}$&$0.2{<}\mbox{{\bfScore}}_{\bfE}{\le}0.3\land\mbox{助詞:「に」}$&$\mbox{文末(小):叙述}\land\mbox{{\bfジャンル:特集}}$\\$0.1{<}\mbox{{\bfScore}}_{\bfE}{\le}0.2\land\mbox{NE:LOC}$&$0.1{<}\mbox{{\bfScore}}_{\bfE}{\le}0.2\land\mbox{助詞:「で」}$&$0.0{\le}\mbox{{\bfScore}}_{\bfE}{\le}0.1$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.0{\le}\mbox{Den}{\le}0.1$&$0.2{<}\mbox{{\bfPost}}{\le}0.3$&$\mbox{文末(小):過去}\land\mbox{{\bfジャンル:特集}}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.1{<}\mbox{{\bfScore}}_{\bfC}{\le}0.2$&$0.0{\le}\mbox{Score}{\le}0.1$&$\mbox{文末(小):その他}\land\mbox{{\bfジャンル:報道}}$\\$0.5{<}\mbox{Score}{\le}0.6\land0.9{\le}\mbox{Sim}{\le}1.0$&$\mbox{助詞:「に」}\land\mbox{修辞:順接}$&$0.2{<}\mbox{Sim}{\le}0.3$\\$0.0{\le}\mbox{Den}{\le}0.1\land0.9{\le}\mbox{Sim}{\le}1.0$&$0.3{<}\mbox{Sim}{\le}0.4\land\mbox{{\bfジャンル:報道}}$&$0.0{\le}\mbox{Posd}{\le}0.1$\\$\mbox{{\bfジャンル:社説}}$&$0.9{\le}\mbox{Posp}{\le}1.0\land\mbox{修辞:順接}$&$\mbox{助詞:「は」}\land\mbox{{\bfジャンル:特集}}$\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{c}{セットB}\\\hline\hline\multicolumn{1}{c|}{要約率=10\,\%}&\multicolumn{1}{c|}{要約率=30\,\%}&\multicolumn{1}{c}{要約率=50\,\%}\\\hline$0.9{\le}\mbox{Posd}{\le}1.0\land0.0{\le}\mbox{Den}{\le}0.1$&$0.1{<}\mbox{{\bfScore}}_{\bfE}{\le}0.2\land0.1{<}\mbox{{\bfScore}}_{\bfC}{\le}0.2$&$\mbox{{\bfジャンル:報道}}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.4{<}\mbox{Len}{\le}0.5$&$0.3{<}\mbox{{\bfScore}}_{\bfE}{\le}0.4\land\mbox{助詞:「が」}$&$0.0{\le}\mbox{Posd}{\le}0.1\land\mbox{文末(大):その他}$\\$0.9{\le}\mbox{Den}{\le}1.0\land0.8{\le}\mbox{Sim}{\le}0.9$&$0.9{\le}\mbox{Posp}{\le}1.0\land0.0{\le}\mbox{{\bfPost}}{\le}0.1$&$0.0{\le}\mbox{Posd}{\le}0.1\land\mbox{文末(小):その他}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.0{\le}\mbox{{\bfScore}}_{\bfE}{\le}0.1$&$0.5{<}\mbox{Sim}{\le}0.6\land0.9{\le}\mbox{{\bfPost}}{\le}1.0$&$0.0{\le}\mbox{Posd}{\le}0.1\land0.9{\le}\mbox{Posp}{\le}1.0$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{修辞:順接}$&$0.3{<}\mbox{Posd}{\le}0.4\land\mbox{NE:PERSON}$&$0.0{\le}\mbox{Posd}{\le}0.1$\\$0.9{\le}\mbox{Den}{\le}1.0\land0.4{<}\mbox{{\bfPost}}{\le}0.5$&$0.0{\le}\mbox{Sim}{\le}0.1$&$0.0{\le}\mbox{Posp}{\le}0.1\land\mbox{文末(大):その他}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.6{<}\mbox{{\bfPost}}{\le}0.7$&$0.7{<}\mbox{Posd}{\le}0.8\land\mbox{NE:LOC}$&$0.0{\le}\mbox{Posp}{\le}0.1\land\mbox{文末(小):その他}$\\$\mbox{助詞:「で」}\land\mbox{助詞:「も」}$&$\mbox{NE:ORG}\land\mbox{助詞:「は」}$&$0.1{<}\mbox{{\bfScore}}_{\bfE}{\le}0.2\land0.1{<}\mbox{{\bfScore}}_{\bfC}{\le}0.2$\\$0.9{\le}\mbox{Sim}{\le}1.0\land0.3{<}\mbox{{\bfScore}}_{\bfC}{\le}0.4$&$0.9{\le}\mbox{Posd}{\le}1.0\land0.0{\le}\mbox{Den}{\le}0.1$&$0.0{\le}\mbox{{\bfScore}}_{\bfE}{\le}0.1\land\mbox{{\bfジャンル:報道}}$\\$0.9{\le}\mbox{Score}{\le}1.0\land0.8{<}\mbox{Sim}{\le}0.9$&$\mbox{NE:ORG}\land\mbox{NE:LOC}$&$0.0{\le}\mbox{{\bfScore}}_{\bfE}{\le}0.1$\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{c}{セットC}\\\hline\hline\multicolumn{1}{c|}{要約率=10\,\%}&\multicolumn{1}{c|}{要約率=30\,\%}&\multicolumn{1}{c}{要約率=50\,\%}\\\hline$0.9{\le}\mbox{Posd}{\le}1.0\land0.1{<}\mbox{{\bfScore}}_{\bfE}{\le}0.2$&$0.5{<}\mbox{Posd}{\le}0.6\land\mbox{NE:LOC}$&$0.0{\le}\mbox{{\bfScore}}_{\bfE}{\le}0.1$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{修辞:順接}$&$\mbox{{\bfジャンル:特集}}$&$0.1{<}\mbox{Score}{\le}0.2$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.1{<}\mbox{{\bfScore}}_{\bfC}{\le}0.2$&$0.6{<}\mbox{Sim}{\le}0.7\land\mbox{NE:LOC}$&$0.0{\le}\mbox{Posd}{\le}0.1$\\$0.9{\le}\mbox{Sim}{\le}1.0\land\mbox{修辞:順接}$&$0.9{\le}\mbox{Posd}{\le}1.0\land0.1{<}\mbox{Score}{\le}0.2$&$0.3{<}\mbox{Len}{\le}0.4$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{文末(大):その他}$&$\mbox{文末(大):叙述}\land\mbox{修辞:順接}$&$0.0{\le}\mbox{Posd}{\le}0.1\land\mbox{{\bfジャンル:報道}}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land\mbox{文末(小):その他}$&$\mbox{NE:PERSON}\land\mbox{助詞:「を」}$&$\mbox{{\bfジャンル:特集}}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.3{<}\mbox{Len}{\le}0.4$&$\mbox{文末(小):過去}\land\mbox{修辞:順接}$&$0.0{\le}\mbox{{\bfScore}}_{\bfC}{\le}0.1$\\$\mbox{NE:LOC}\land\mbox{修辞:順接}$&$\mbox{NE:PERSON}\land\mbox{{\bfジャンル:報道}}$&$\mbox{NE:PERSON}\land\mbox{{\bfジャンル:報道}}$\\$0.9{\le}\mbox{Posd}{\le}1.0\land0.3{<}\mbox{Score}{\le}0.4$&$0.9{\le}\mbox{Posd}{\le}1.0\land0.1{<}\mbox{{\bfScore}}_{\bfC}{\le}0.2$&$0.3{<}\mbox{Len}{\le}0.4\land\mbox{助詞:「を」}$\\$0.9{\le}\mbox{Posp}{\le}1.0\land\mbox{修辞:順接}$&$0.3{<}\mbox{{\bfPost}}{\le}0.4\land\mbox{助詞:「を」}$&$0.2{<}\mbox{Score}{\le}0.3$\\\hline\end{tabular}\end{center}\end{table*}本稿で用いた各素性の有効性についての考察を行う.2次の多項式カーネルを用いた場合,テストデータを$\vecx=(x[1],\cdots,x[J]])$とすると,$g(\vecx)$は,式(1)の内積を展開して計算すると以下の式となる.\begin{equation}g(\vecx)=b+\sum_{i=1}^{n}w_i+2\sum_{i=1}^{n}w_i\sum_{k=1}^Jx_i[k]x[k]+\sum_{i=1}^{n}w_i\sum_{h=1}^{J}\sum_{k=1}^Jx_i[h]x_i[k]x[h]x[k]\end{equation}\noindent更に,$\vecx$が2値ベクトルであることを利用すると以下のように書き直すことができる.\begin{equation}g(\vecx)=W_0+\sum_{k=1}^JW_1[k]x[k]+\sum_{h=1}^{J-1}\sum_{k=h+1}^JW_2[k,h]x[h]x[k]\end{equation}\noindentただし,\[W_0=b+\sum_{i=1}^{n}w_i,~~~W_1[k]=3\sum_{i=1}^{n}w_ix_i[k],~~~W_2[h,k]=2\sum_{i=1}^{n}w_ix_i[h]x_i[k]\]\noindentである.ここで,$W_1[k]$は,単独の素性$k$に対する重み,$W_2[h,k]$は素性の組$h\landk$に対する重みである.この時,判別関数$g({\bfx})$は$k$,$h\landk$という素性に関するスコア関数と考えることができる.よって,$W_1[k]$,$W_2[h,k]$の絶対値の大きい素性$k$,$h\landk$はスコアに与える影響が大きい素性であり,重要文の判定に影響を与える.セットA〜Cの全てのデータを用いて学習した結果から,絶対値の大きい上位10個の素性を表\ref{F_pair_pos},表\ref{F_pair_neg}に示す.表\ref{F_pair_pos}は,文が重要文となるために必要な素性の一部を示しており,表\ref{F_pair_pos}に示す素性を含む文は重要文となる場合が多い.要約率10\,\%では,文が文書の先頭付近に出現することを表す素性に加え,以下の素性の組み合わせに高い重みが与えられていることがわかる.\begin{itemize}\itemTF$\cdot$IDF値(バリエーションを含む)が高いことを表す素性\item記事のタイトルとの類似度が高いことを表す素性\item固有表現(DATE,LOCATION,PERSON)が出現することを表す素性\item文末表現が叙述や過去であることを表す素性\end{itemize}\noindentこれは,文書集合を構成する記事の多くが報道記事であるため,文書の先頭付近に話題に関する重要事項が客観的に記述されており,それを人間が重要文として抽出する傾向があるからである.特に,実験に用いた文書集合はある話題(出来事)に関する文書であるので,その時系列情報を表す固有表現(DATE)や場所の情報を表す固有表現(LOCATION)が重要であることがわかる.また,特定の人物に関する話題も多いので人物名の固有表現(PERSON)も重要である.要約率30\,\%でも要約率10\,\%の場合とほぼ同等の傾向であるが,セットAに関してはタイトルとの類似度が高いことを表す素性の重要度が増している.また,全てのセットに共通して文書のジャンルを表す素性が重要な素性として新たに加わっている.要約率50\,\%では,要約率10\,\%,30\,\%の場合と異なり,特定の助詞が出現することを表す素性が単独で高い重みを獲得している.「は」や「が」は大胆な省略がしばしば行われる新聞記事において,新たな情報を導入する際に用いられることが多いからであると考える.一方,表\ref{F_pair_neg}は,重要文らしさのスコアを下げる素性の一部を表している.上位を占めているものをみると,文書の先頭付近に出現しながら重要でない文に特徴的な素性に高い重みがついていることがわかる.文書の先頭付近に出現する文でも全てが重要文となるわけではないことを示している.文書の位置以外の実数値(スコア)を取る素性はその値が小さい場合には,重要文とならない傾向が強い.以上より,各セットにより,わずかに違いはあるが,重要文であるために必要な素性は,文の位置が文書の先頭付近であること,固有表現が出現すること,TF$\cdot$IDFのスコアが高いこと等の組み合わせであることがわかった.更に実数値をとる素性はその値が低い場合には重要文とならない場合が多いこともわかった.また,本稿で新たに導入した複数文書用の素性である$\mbox{Score}_{E}$や$\mbox{Score}_{C}$に対しても高い重みが与えられており有効性がわかった.\subsubsection{複数文書用の素性の有効性}本稿で用いた複数文書用素性の有効性についての詳しい考察を行う.評価実験に用いた素性から3.2.2節で説明した複数文書用素性を取り除いた後に学習と評価を行った.SVMの抽出精度を表\ref{tab09},図\ref{isozakiS}〜図\ref{isozakiL}に示す.なお,図中の1は$\mbox{Post}$,2は$\mbox{Score}_{E}$,3は$\mbox{Score}_{C}$,4は$\mbox{Genre}$に対応する.\begin{table}[tb]\begin{center}\caption{複数文書用の素性を除いたときのSVMの抽出精度}\label{tab09}\begin{tabular}{l|lll|lll|lll}\hline\hline\raisebox{-1.8ex}[0pt][0pt]{取り除いた素性}&\multicolumn{3}{|c|}{要約率=10\,\%}&\multicolumn{3}{c|}{要約率=30\,\%}&\multicolumn{3}{c}{要約率=50\,\%}\\\cline{2-10}&A&B&C&A&B&C&A&B&C\\\hlinePost&49.9&46.6&47.4&51.5&46.6&48.5&67.8&65.4&63.1\\$\mbox{Score}_E$&50.9&46.0&48.1&51.9&47.1&46.8&67.6&65.7&63.1\\$\mbox{Score}_C$&51.1&46.9&47.1&51.4&47.3&47.3&68.1&66.5&63.1\\Genre&49.2&46.6&46.9&52.1&47.6&47.7&67.0&66.8&63.5\\\hlinePost+$\mbox{Score}_E$&50.8&46.8&46.9&50.1&46.6&46.5&67.8&64.8&63.1\\Post+$\mbox{Score}_C$&50.1&47.2&46.0&51.1&46.8&47.9&68.1&65.4&63.3\\Post+Genre&48.5&46.2&47.1&51.4&46.8&47.8&67.9&65.8&64.0\\$\mbox{Score}_E$+$\mbox{Score}_C$&50.9&45.8&47.0&50.4&47.3&46.9&67.8&65.7&62.6\\$\mbox{Score}_E$+Genre&49.4&45.5&47.7&51.8&47.1&46.5&67.0&66.5&63.3\\$\mbox{Score}_C$+Genre&48.6&47.1&46.7&52.3&48.3&48.1&67.5&66.7&64.0\\\hlinePost+$\mbox{Score}_E$&\raisebox{-1.8ex}[0pt][0pt]{50.4}&\raisebox{-1.8ex}[0pt][0pt]{47.2}&\raisebox{-1.8ex}[0pt][0pt]{45.3}&\raisebox{-1.8ex}[0pt][0pt]{50.6}&\raisebox{-1.8ex}[0pt][0pt]{46.3}&\raisebox{-1.8ex}[0pt][0pt]{45.8}&\raisebox{-1.8ex}[0pt][0pt]{67.8}&\raisebox{-1.8ex}[0pt][0pt]{64.4}&\raisebox{-1.8ex}[0pt][0pt]{63.2}\\+$\mbox{Score}_C$&&&&&&&&&\\Post+$\mbox{Score}_E$&\raisebox{-1.8ex}[0pt][0pt]{48.9}&\raisebox{-1.8ex}[0pt][0pt]{46.0}&\raisebox{-1.8ex}[0pt][0pt]{46.5}&\raisebox{-1.8ex}[0pt][0pt]{49.9}&\raisebox{-1.8ex}[0pt][0pt]{46.1}&\raisebox{-1.8ex}[0pt][0pt]{46.3}&\raisebox{-1.8ex}[0pt][0pt]{67.5}&\raisebox{-1.8ex}[0pt][0pt]{65.3}&\raisebox{-1.8ex}[0pt][0pt]{63.0}\\+Genre&&&&&&&&&\\$\mbox{Score}_E$+$\mbox{Score}_C$&\raisebox{-1.8ex}[0pt][0pt]{50.2}&\raisebox{-1.8ex}[0pt][0pt]{45.2}&\raisebox{-1.8ex}[0pt][0pt]{46.8}&\raisebox{-1.8ex}[0pt][0pt]{51.0}&\raisebox{-1.8ex}[0pt][0pt]{47.9}&\raisebox{-1.8ex}[0pt][0pt]{47.2}&\raisebox{-1.8ex}[0pt][0pt]{69.9}&\raisebox{-1.8ex}[0pt][0pt]{66.4}&\raisebox{-1.8ex}[0pt][0pt]{63.3}\\+Genre&&&&&&&&&\\Post+$\mbox{Score}_C$&\raisebox{-1.8ex}[0pt][0pt]{49.1}&\raisebox{-1.8ex}[0pt][0pt]{46.7}&\raisebox{-1.8ex}[0pt][0pt]{46.1}&\raisebox{-1.8ex}[0pt][0pt]{51.7}&\raisebox{-1.8ex}[0pt][0pt]{46.5}&\raisebox{-1.8ex}[0pt][0pt]{47.4}&\raisebox{-1.8ex}[0pt][0pt]{68.2}&\raisebox{-1.8ex}[0pt][0pt]{65.9}&\raisebox{-1.8ex}[0pt][0pt]{63.6}\\+Genre&&&&&&&&&\\\hlinePost+$\mbox{Score}_E$&\raisebox{-1.8ex}[0pt][0pt]{48.5}&\raisebox{-1.8ex}[0pt][0pt]{46.3}&\raisebox{-1.8ex}[0pt][0pt]{50.0}&\raisebox{-1.8ex}[0pt][0pt]{50.8}&\raisebox{-1.8ex}[0pt][0pt]{48.0}&\raisebox{-1.8ex}[0pt][0pt]{48.6}&\raisebox{-1.8ex}[0pt][0pt]{67.5}&\raisebox{-1.8ex}[0pt][0pt]{65.7}&\raisebox{-1.8ex}[0pt][0pt]{67.0}\\$\mbox{Score}_C$+Genre&&&&&&&&&\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[tb]\begin{center}\begin{tabular}{c}\epsfile{file=graph2/Small.eps,scale=0.6}\\\end{tabular}\caption{各素性を取り除いたときの抽出精度(要約率10\,\%)}\label{isozakiS}\end{center}\end{figure}\begin{figure}[tb]\begin{center}\begin{tabular}{c}\epsfile{file=graph2/Medium.eps,scale=0.6}\\\end{tabular}\caption{各素性を取り除いたときの抽出精度(要約率30\,\%)}\label{isozakiM}\end{center}\end{figure}\begin{figure}[tb]\begin{center}\begin{tabular}{c}\epsfile{file=graph2/Large.eps,scale=0.6}\\\end{tabular}\caption{各素性を取り除いたときの抽出精度(要約率50\,\%)}\label{isozakiL}\end{center}\end{figure}表\ref{tab09},図\ref{isozakiS}〜図\ref{isozakiL}より,全体の傾向としては,複数文書用の素性を取り除くことによって抽出精度が低下している.特に10\,\%,30\,\%の要約率ではその傾向が強い.ただし,複数文書用の全ての素性を取り除くよりも2つか3つの素性の組み合わせを取り除いた場合に最も抽出精度が低下している.特にセットCはどの要約率においても,TF$\cdot$IDFのバリエーションを組み合わせて素性を取り除いたときに抽出精度の低下が大きい.これに対し,セットA,セットBでは,セットC程大きな抽出精度の低下はみられないが,文書のジャンルと組み合わせて素性を取り除いたときに抽出精度の低下が大きい.また,セットCの要約率10\,\%では最も低い抽出精度の時には,Lead手法よりもわずかに低い成績であったが,それ以外の場合では,最も低い抽出精度であってもLead手法より高い成績であった.一方,セットBの10\,\%要約率,セットAの50\,\%要約率ではある組み合わせの素性を取り除くことによって,約2\,\%の抽出精度の向上がみられた.複数文書用の全ての素性を取り除いた場合には,10\,\%,30\,\%の要約率では表\ref{tab04}よりもやや抽出精度が低下し,50\,\%の要約率ではほぼ同等の抽出精度である.一般的には,取り除く素性の数を増やすことによって抽出精度が低下することが予測されるが,実験結果では逆に抽出精度がわずかながら向上するなど揺れがみられた.これは,データ(話題数)の規模が小さく分散が大きいことと実験に用いた素性間に従属関係があることが原因であると考える.例えば,Postは,Posdとの関連が強く,$\mbox{Score}_E$,$\mbox{Score}_C$といった素性は単一文書のTF$\cdot$IDFとの関連が強い.このように従属関係にある素性がある場合には,一方の素性を取り除いても他方が残っている場合には抽出精度が低下しないことも考えられる.以上より,複数文書用の素性を組み合わせて取り除くことで抽出精度の低下が起ること,複数文書用の全ての素性を取り除くことでわずかであるが抽出精度の低下が起ることがわかった.この結果より,本稿での評価実験において,複数文書用の素性を用いることは効果は小さいが有効であることがわかった.複数文書用の素性の効果が小さかった原因としては,対象とした文書集合に含まれる文書がすべて単一の話題を主題としている文書であったということが考えられる.たとえば,「奈良で最古の貨幣出土」という話題を考えた場合,対象文書集合に含まれる全文書は「奈良で最古の貨幣出土」という話題を主題としており,各文書における重要文がそのまま文書集合全体での重要文になる可能性が高い.このように単一文書での重要文が複数文書での重要文になることが多い場合では,複数の文書であることを考慮することの効果が小さいと考える. \section{冗長性削減の有効性} \begin{figure}[tb]\begin{center}\begin{minipage}{.75\linewidth}\begin{screen}$A=\{\}$;\\$R=\{S_1,S_2,\cdots,S_\ell\}$;\\$N=出力すべき文数$;\\$\mbox{While}(|A|<N)\{$\begin{quote}$S^*=\mbox{MMR}(A,R)$;\\$A=A\cup\{S^*\}$;\\$R=R-\{S^*\}$;\end{quote}\}\\Aを出力.\\ただし,\noindent\[\mbox{MMR}(A,R)=\left\{\begin{array}{ll}\displaystyle\mathop{\rmargmax}_{S_i\inR}s(g(S_i))\\\displaystyle\mathop{\rmargmax}_{S_i\inR}\lambdas(g(S_i))-(1-\lambda)\mathop{\rmmax}_{S_j\inA}\mbox{Sim}(S_i,S_j)\\\end{array}\right.\]\end{screen}\end{minipage}\end{center}\caption{MMRによる文の再ランキング}\label{fig01}\end{figure}一般的に,複数文書からの重要文を抽出した場合,抽出された文間で内容が重複する可能性があるということが言われている\cite{article8}.重要文として抽出された文集合からこのような冗長性を削減する方法として,Carbonellらは,MaximumMarginalRelevance(MMR)という指標を用いて,ある観点でランキングされた文に別の観点を導入し,再ランキングする手法を提案している\cite{article48}.本稿でもMMRを使った場合にSVMの重要文の抽出精度がどのように変化するかを調べる.MMRを用いた文の再ランキングアルゴリズムを図\ref{fig01}に示す.$R$は文集集合に含まれる文の集合を表し,$A$は出力となる文集合を表す.$s(x)$は,シグモイド関数$s(x)=1/(1+\mbox{exp}(-\betax))$を表し,$\beta=1$とした.$s(g(S_i))$は,式(1)の値を0〜1に正規化した値となる.$\mbox{Sim}(S_i,S_j)$は,文$S_i$と$S_j$の単語の重複度をcosinemeasureで表した指標である.3.2.1節のタイトルとの類似度と同様に計算する.ここでのMMRはSVMの判別関数の値から既に選択した文との重複度をペナルティとして引いたものである.$\lambda$はそれぞれの項の重みを決めるパラメータである.MMRを用いることで,冗長性の低い(重複の少ない)文集合を得られることが期待できる.図\ref{fig02}に$\lambda$を1〜0.8まで0.05刻で変化させた場合のSVMの抽出精度を示す.\begin{figure}[p]\begin{center}\vspace*{-1em}\begin{tabular}{c}要約率10\,\%\\\epsfile{file=graph3/Small.eps,scale=1.1}\\要約率30\,\%\\\epsfile{file=graph3/Medium.eps,scale=1.1}\\要約率50\,\%\\\epsfile{file=graph3/Large.eps,scale=1.1}\\\end{tabular}\caption{MMRを用いた場合の抽出精度の変化}\label{fig02}\end{center}\end{figure}図\ref{fig02}より,どのセットに対しても10\,\%,30\,\%の要約率ではSVMの抽出精度は低下するだけであり,MMRが有効でないことがわかる.これは,10\,\%,30\,\%の要約率では,SVMによる抽出結果に文単位での冗長性が無いことを示している.複数の文書からの重要文抽出では冗長性を削減することが有効であるといわれていたが,今回の実験では10\,\%,30\,\%の低い要約率では有効でないという結果となった.この傾向はSVMだけでなく,Lead手法,TF$\cdot$IDFでも同様であった.このような結果の原因として,重要文の抽出もととなる文集合に文を単位とした冗長性が少ないため,抽出された文にも結果として冗長性が少なかったということが考えられる.特に,評価実験の対象とした文集合が全て単一の情報源(毎日新聞)から得られたものであることの影響が大きい.このような文を単位とした冗長性が少ないデータに対してMMRが及ぼす悪影響の原因について考える.$\mbox{Sim}(S_i,S_j)$は2文間に共通する単語に依存する.ここで,ある文集合において全く冗長性が無い(文の意味的な内容に重複がない)ことをどの2文間にも共通する単語が無いことと捉える.この場合,$\mbox{Sim}(S_i,S_j)$は常に0となり,ランキングに対するMMRの悪影響は無い.しかし,実際には,文の意味としては異なるが,共通する単語は存在するような文の組は多数存在する.よって,$\mbox{Sim}(S_i,S_j)$が0とならず,再ランキングに悪影響を及ぼす.ただし,複数の情報源から得た文集合であれば,類似度の高い2文はほぼ同一の意味を持つ傾向が強いと予想されるので,MMRによる再ランキングは有効に働くと考える.一方,50\,\%の要約率ではわずかではあるが,抽出精度の向上が見られた.特に,SVM(C)では1.5\,\%程度,抽出精度が向上している.以下にSVM(C)においてMMRが有効に働いた例を示す.上の文が正解文として残った文で下の文が上の文に対して類似していることで削除(下位にランク)された文である.\begin{itemize}\item16、チェルノブイリ原子力発電所を2000年までに閉鎖するというウクライナが行った新たな約束を歓迎する。\itemまた、声明には、ウクライナのチェルノブイリ原子力発電所を来年までに閉鎖することを改めて確認、金融犯罪への取り組み強化も盛り込んだ。\end{itemize}このように2文間に共通する単語が多く,意味的にも類似した文の組がある場合には,MMRは有効である.先にも述べたが,今回の実験に用いたデータにはこうした例は少ない.よって,多数の文を抽出する50\,\%の要約率でしか効果が確認できなかったと考える.ただし,文を単位とした冗長性は少ないが,語句単位での冗長性は数多く見られた.一例を以下に示す.\begin{quote}{\bfブラジルの通貨レアルの切り下げ}と中央銀行総裁の辞任によるショックが,$\cdots$.\\宮沢喜一蔵相は14日の閣議後会見で,{\bfブラジルの通貨レアル切り下げ}で$\cdots$.\\{\bfブラジルの通貨レアル切り下げ}を受けた中南米は13日,$\cdots$.\end{quote}\noindentこのように語句を単位とした冗長性は多く存在するので,単一の情報源を対象とした場合には,文を単位とした冗長性ではなく,語句を単位とした冗長性を削減する手法を考える必要がある. \section{まとめ} 本稿では,機械学習手法の1種であるSupportVectorMachineを用いた複数文書からの重要文抽出手法について述べた.評価実験の結果,提案手法がLead手法,TF$\cdot$IDF手法よりも重要文の抽出精度が高いことを実証し,有効性を示した.また,わずかではあるが,複数の文書を考慮した素性を用いることで重要文の抽出精度が向上することがわかった.さらに,単一の情報源から得た複数の文書を対象とした場合,低い要約率では文を単位とした冗長性の削減法(MMR)が有効でないことがわかった.今後の課題としては,複数の情報源から得た複数文書を対象とした場合のMMRの効果の確認,文を単位とした冗長性だけでなく,語句を対象とした冗長性削減手法の研究がある.\acknowledgment評価法について有益なコメントをいただいた通信総合研究所の竹内和広氏に感謝いたします.また,データの使用を許諾してくださった毎日新聞社に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{ipsjpaper}\begin{biography}\biotitle{略歴}\bioauthor{平尾努}{1995年関西大学工学部電気工学科卒業.1997年奈良先端科学技術大学院大学情報科学研究科博士前期過程修了.同年,NTTデータ通信株式会社(現,株式会社NTTデータ)入社.2000年よりNTTコミュニケーション科学基礎研究所に所属.博士(工学).自然言語処理の研究に従事.情報処理学会,ACL各会員.}\bioauthor{賀沢秀人}{1995年東京大学理学部物理学科卒業.1997年同大学院理学系研究科修士課程修了.同年,日本電信電話(株)入社.現在,NTTコミュニケーション科学基礎研究所に所属.主として自然言語処理,機械学習の研究に従事.情報処理学会,ACM,IEEE各会員.}\bioauthor{磯崎秀樹}{1983年東京大学工学部計数工学科卒業.1986年同工学系大学院修士課程修了.同年,日本電信電話(株)入社.1990〜91年スタンフォード大学ロボティクス研究所客員研究員.現在,NTTコミュニケーション科学基礎研究所特別研究員.博士(工学).人工知能・自然言語処理の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,AAAI,ACL各会員.}\bioauthor{前田英作}{1984年東京大学理学部動物学科卒業.1986年同大学院理学系研究科修士課程修了.同年,日本電信電話(株)入社.現在,NTTコミュニケーション科学基礎研究所知能情報研究部知識処理研究グループリーダ.工学博士.1995〜96年ケンブリッジ大学(英国)客員研究員.主としてパターン認識,統計的機械学習,生物情報処理の研究に従事.IEEE,情報処理学会,日本バイオインフォマティックス学会各会員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒業.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学記述大学院大学教授,現在に至る.工学博士.情報処理学会,人工知能学会,日本ソフトウェア科学会,認知科学会,AAAI,ACL,ACM各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V25N05-05
\section{はじめに} \label{sec:introduction}ニューラル機械翻訳(NMT)\cite{NIPS2014_5346,Bahdanau-EtAl:2015:ICLR}は流暢な訳を出力できるが,入力文の内容を全て含んでいることを保証できないという問題があり,翻訳結果において入力文の内容の一部が欠落(訳抜け)することがある.欠落は単語レベルの内容だけでなく,節レベルの場合もある.NMTによる訳抜けを含む日英翻訳の翻訳例を図\ref{fig:example}に示す.この翻訳例では網掛け部の訳が出力されていない.内容の欠落は,実際の利用時に大きな問題となる.この他にNMTでは,入力文中の同じ内容を繰り返し訳出してしまうことがあるという問題もある.本稿は,これらの問題のうち訳抜けを対象として扱う.\begin{figure}[b]\begin{center}\includegraphics{25-5ia5f1.eps}\end{center}\hangcaption{訳抜けを含むNMTによる日英翻訳結果の例.入力の網掛け部の訳が機械翻訳出力に含まれていない.参照訳の網掛け部は入力の網掛け部に対応する部分を表している.}\label{fig:example}\end{figure}従来の統計的機械翻訳(SMT)\cite{koehn-EtAl:2003:NAACLHLT,chiang:2007:CL}は,デコード中にカバレッジベクトルを使って入力文のどの部分が翻訳済でどの部分が未翻訳であるかを単語レベルで明示的に区別し,未翻訳の部分がなくなるまで各部分を一度だけ翻訳するため,訳抜けの問題および訳出の繰り返しの問題はほとんど\footnote{フレーズテーブルを構築するために対訳コーパスから抽出した部分的な対訳表現が完全であれば,翻訳時に訳抜けは発生しない.しかし,対訳文内の単語対応の推定誤りや対訳文での省略などにより,抽出した部分的な対訳表現には完全でないものも含まれるため,訳抜けが発生する場合もある.}起きない.しかし,NMTでは対訳間での対応関係は,アテンションによる確率的な関係でしか得られないため,翻訳済の原言語単語と未翻訳の原言語単語を明示的に区別することができない.このため,SMTでのカバレッジベクトルによって訳抜けを防ぐ方法をそのまま適用することは出来ない.入力文中の各単語位置に応じた動的な状態ベクトルを導入して,この状態ベクトルをソフトなカバレッジベクトル(カバレッジモデル)と見なす手法がある\cite{tu-EtAl:2016:P16-1,mi-EtAl:2016:EMNLP2016}.カバレッジモデルを用いる手法は,訳抜けの問題を軽減できる可能性がある.しかし,未翻訳部分が残っているかどうかを明示的に検出して翻訳の終了を決定しているわけではない.そのため,カバレッジモデルを用いても訳抜けが発生する問題は残る.本論文\footnote{本研究の一部は,言語処理学会第23回年次大会およびTheFirstWorkshoponNeuralMachineTranslationで発表したものである\cite{goto-tanaka:2017:NLP,goto-tanaka:2017:NMT}.}では,2種類の確率に基づく値に対して,訳出されていない入力文の内容に対する検出効果を調べる.検出方法の1つはアテンション(ATN)の累積確率を用いる方法である(\ref{sec:atn}節).もう1つは,機械翻訳(MT)出力から入力文を生成する逆翻訳(BT)の確率を用いる方法である(\ref{sec:bt}節).後者は,言語間の単語の対応関係の特定を必ずしも必要とせずに,MT出力に入力文の内容が含まれているかどうかを推定できるという特徴がある.また,2種類の確率に基づく値を訳抜けの検出に使う場合に,それぞれ値をそのまま使う方法と確率の比を用いる方法の2つを比較する.さらに,これらの確率をNMTのリランキングに応用した場合(\ref{sec:reranking}節)および機械翻訳結果の人手修正(ポストエディット)のための文選択に応用した場合(\ref{sec:sentence_selection}節)の効果も調べる.これらの効果の検証のために日英特許翻訳のデータを用いた評価実験を行い(\ref{sec:experiment}節),アテンションの累積確率と逆翻訳の確率はいずれも訳抜け部分として無作為に単語を選択する場合に比べて効果があることを確認した.そして,逆翻訳の確率はアテンションの累積確率より効果が高く,これらを同時に用いるとさらに検出精度が向上した.また,アテンションの累積確率または逆翻訳の確率をNMTの$n$-best出力のリランキングに用いた場合の効果がプレプリント\cite{DBLP:journals/corr/WuSCLNMKCGMKSJL16,DBLP:journals/corr/LiJ16}で報告されているが\footnote{これらの研究との関係は詳しくは\ref{sec:reranking_results}節および\ref{sec:related_work}節で述べる.},これらと独立した本研究でも同様の有効性を確認した.さらに,訳抜けの検出をポストエディットのための文選択に応用した場合に効果があることが分かった. \section{ニューラル機械翻訳} \label{sec:nmt}本節では,\citeA{Bahdanau-EtAl:2015:ICLR}に基づく,本論文で用いたベースラインのNMTについて述べる.このNMTは入力文をエンコードするエンコーダーと訳文を生成するデコーダーからなる.入力文が与えられると,その各単語をone-hot表現に変換し,one-hot表現の系列$\mathbf{x}=x_1,\dotsc,x_{Tx}$を得る.$\mathbf{x}$の単語位置$j$において,エンコーダーは単語の分散表現の行列$E_x$とLSTM\cite{hochreiter:1997:NC}関数$f$を用いて,前向きのLSTMの出力ベクトル$\overrightarrow{h}_j=f(\overrightarrow{h}_{j-1},E_{x}x_j)$と後ろ向きのLSTMの出力ベクトル$\overleftarrow{h}_j=f(\overleftarrow{h}_{j+1},E_{x}x_j)$を生成し,それらをつなげたベクトル$h_j=[\overrightarrow{h}_j^{^\top};\overleftarrow{h}_j^{^\top}]^{^\top}$を作成する.デコーダーは入力$\mathbf{x}$を条件とする出力$\mathbf{y}=y_1,\dotsc,y_{Ty}$の確率を計算する.$\mathbf{y}$も単語を表すone-hot表現の系列である.デコーダーは$\hat{\mathbf{y}}=\argmax_{\mathbf{y}}p(\mathbf{y}|\mathbf{x})$となる$\hat{\mathbf{y}}$を探索して出力する.確率$p(\mathbf{y}|\mathbf{x})$を次のように各単語の確率の積に分解する.\begin{equation}p(\mathbf{y}|\mathbf{x})=\prod_ip(y_i|y_1,\dotsc,y_{i-1},\mathbf{x})\end{equation}本稿では$i$で$\mathbf{y}$の単語位置を表す.目的言語単語を表すone-hot表現の集合を$\mathcal{Y}$として,右辺の各条件付き確率を次のようにモデル化する.\begin{align}p(y_i|y_1,\dotsc,y_{i-1},\mathbf{x})&=\frac{\exp(y_i^\topW_\mathrm{t}t_i)}{\sum_{k\in\mathcal{Y}}\exp(k^\topW_\mathrm{t}t_i)}\\t_i&=m(U_\mathrm{s}s_i+U_\mathrm{y}E_\mathrm{y}y_{i-1}+U_\mathrm{c}c_i)\end{align}ここで,$s_i$はLSTMの隠れ状態,$c_i$はコンテキストベクトル,$W_.$と$U_.$は重み行列,$E_y$は目的言語の単語分散表現の行列を表しており,$m$はMaxout\cite{Goodfellow:2013:MN:3042817.3043084}関数を表している.状態$s_i$は次のように計算する.\begin{equation}s_i=f(s_{i-1},[c_{i}^{^\top};{E_\mathrm{y}y_{i-1}}^{^\top}]^{^\top})\end{equation}コンテキストベクトル$c_i$は$h_j$の重み付け和として,$c_i=\sum_j\alpha_{ij}h_j$で計算する.ここで,\begin{align}\alpha_{ij}&=\frac{\exp(e_{ij})}{\sum_j\exp(e_{ij})},\label{eq:alpha}\\e_{ij}&=v^\top\tanh(W_{\mathrm{s}}s_{i-1}+W_{\mathrm{h}}h_j+W_\mathrm{y}E_\mathrm{y}y_{i-1})\label{eq:e}\end{align}である.$v$は重みベクトルである.$\alpha_{ij}$がアテンション確率であり,$y_i$と$x_j$との確率的な対応関係をある程度表しているとみなすことができる. \section{訳抜けした内容の検出} \label{sec:detect}訳抜けした内容の検出への効果について,2種類の確率とそれらの利用方法について述べ\linebreakる\footnote{2種類の確率を組み合わせた利用方法は\ref{sec:detect_results}節で説明する.}.\subsection{累積アテンション確率の利用}\label{sec:atn}高いアテンション確率が割り当てられた原言語単語は訳出された可能性が高く,アテンション確率がほとんど割り当てられなかった原言語単語は訳出されていない可能性が高いと考えられる\cite{tu-EtAl:2016:P16-1}.\pagebreakそのため,入力文の各単語位置でのアテンション確率の累積は,訳抜け検出の手がかりになると考えられる.入力$x_j$の内容が$\mathbf{y}$から欠落している度合いを表すスコア「累積アテンション確率スコア」(Cumulativeattentionprobabilityscore;ATN-P)$a_j$を(\ref{eq:alpha})式の$\alpha_{ij}$を用いて次のように定義する.\begin{equation}a_j=-\log\Bigl(\sum_i\alpha_{ij}\Bigr)\label{eq:aj}\end{equation}(\ref{eq:aj})式の括弧内\footnote{小さな正の値$\epsilon$を加えれば,$\log(0)$の計算を避けることができる.今回の実験では$\log(0)$になった場合は無く,$\epsilon$は加算しなかった.}は$\mathbf{x}$の単語位置$j$での累積アテンション確率である.$i$は$\mathbf{y}$での目的言語単語位置を表す.ただし,本来,原言語単語が対応する目的言語単語を持たない場合\footnote{例えば,日本語の助詞「を」は英語では対応する語がない.}や,1つの原言語単語が複数の目的言語単語に対応する場合があり,$a_j$の値がそのまま訳抜けの度合いを表しているとは限らない.訳抜けしている場合と訳抜けしていない場合とではアテンション確率の累積値に違いがあると考えられる.そこで,訳抜けの有無を調べようとしている$\mathbf{y}$における$x_j$のアテンション確率の累積値と訳抜けしていない$\mathbf{y}$における$x_j$のアテンション確率の累積値との比に換算することで,訳抜けの度合いを表すスコアを補正する.ただし,このスコアを計算するためには,訳抜けしていない場合のアテンション確率の累積値を得る必要がある.このために次を仮定する.ここで,$n$-best出力を$\mathbf{y}^1,\dotsc,\mathbf{y}^n$と表す.\begin{description}\item[仮定:任意の入力単語の訳の存在]入力中の任意の単語$x_j,(1\lej\leT_x)$の訳は,$n$-best出力$\mathbf{y}^d,(1\led\len)$のどこかに存在する.ただし,本来,対応先を持たない原言語単語$x_j$を除く.\end{description}以下,この確率比に基づくスコア「累積アテンション確率比スコア」(Cumulativeattentionprobabilityratioscore;ATN-R)を定義する.先と同様に入力$x_j$の内容が$\mathbf{y}^d$から欠落している度合いを表すスコアATN-Pを$a_j^d$と表す.ここで,$\min_da_j^d$を与える出力$\mathbf{y}^d$には仮定に従って$x_j$の訳が出現しているとみなす\footnote{言語学的に対応先を持たない$x_j$であっても,アテンション確率の累積値が0になる訳ではなく通常は0より大きな値となる.その場合,その対数をとることで計算する$a_j$は$+\infty$にはならず,$\mathbf{y}$の単語数を$T_y$とすると$a_j$の値域は$(-\log(T_y),+\infty)$となる.}.そして,入力$x_j$の内容が出力$\mathbf{y}^d$から欠落している度合いを表す累積アテンション確率比スコアATN-R$r_j^d$を次のように定義する.\begin{equation}r_j^d=a_j^d-\min_{d'}(a_j^{d'})\end{equation}この値は確率の比の対数を表している.\subsection{逆翻訳確率の利用}\label{sec:bt}MT出力から入力文を生成することを逆翻訳と定義する.入力文の内容が訳抜けしている場合は,逆翻訳でMT出力から訳抜けした内容を表す原言語単語を生成する確率(逆翻訳確率)が低くなると考えられる.これを訳抜け検出の手がかりとして利用する.この方法は,言語間の単語の対応関係の特定を必ずしも必要としないという特徴がある.ここで,$\mathbf{y}^d$における$x_j$に対する逆翻訳確率に基づくスコア「逆翻訳確率スコア」(Backtranslationprobabilityscore;BT-P)$b_j^d$を次のように定義する.\begin{equation}b_j^d=-\log(p(x_j|x_1,\dotsc,x_{j-1},\mathbf{y}^d))\label{eq:bt}\end{equation}(\ref{eq:bt})式での確率は\ref{sec:nmt}節で述べたNMTを用いて計算する.さらに前節と同様に訳抜けしていない場合の逆翻訳確率との比に換算する.ここで前節と同様に``任意の入力単語の訳の存在''を仮定し,$\min_d(b_j^d)$を与える出力$\mathbf{y}^d$には$x_j$の訳を含むとみなす\footnote{言語学的に対応先を持たない$x_j$の逆翻訳確率は,訓練データの目的言語文にある程度出現する語であれば$x_j$を逆翻訳で生成できるように学習されるため,通常は0より大きな確率となる.その場合,その対数をとることで計算する$b_j$は$+\infty$にはならず,$b_j$の値域は$(0,+\infty)$となる.}.そして,入力$x_j$の内容が$\mathbf{y}^d$から欠落している度合いを表す確率比に基づくスコア「逆翻訳確率比スコア」(Backtranslationprobabilityratioscore;BT-R)$q_j^d$を次のように定義する.\begin{equation}q_j^d=b_j^d-\min_{d'}(b_j^{d'})\end{equation} \section{翻訳スコアへの適用} \label{sec:reranking}前節で述べたスコアは$n$-best出力から訳抜けが少ない出力の選択に役に立つと考えられる.そこで,これらを翻訳スコアに利用して$n$-best出力をリランキングし,その効果を調べる.リランキングのスコアには翻訳の尤度($\log(p(\mathbf{y}^d|\mathbf{x}))$)から重み付けした訳抜けのスコアを引いた値を用いる.$r_j^d$を用いた場合のスコアとして\begin{equation}\log(p(\mathbf{y}^d|\mathbf{x}))-\beta_{r}\sum_jr_j^d\end{equation}$q_j^d$を用いた場合のスコアとして\begin{equation}\log(p(\mathbf{y}^d|\mathbf{x}))-\beta_{q}\sum_jq_j^d\end{equation}を用いる.ここで,$\beta_{r}$と$\beta_{q}$は重みパラメータである.なお,リランキングでは同じ入力に対する出力間の比較となるため,ATN-RとATN-Pのリランキング結果は同じになる\footnote{一方,複数の入力文間で翻訳結果をランキングする場合は結果は異なる.例えば,複数の入力文の翻訳結果を訳抜けの度合いを表すスコアでランキングし,翻訳結果が訳抜けしている可能性が高い入力文を選択しようとする場合などである.}ので,本タスクでは両方を併記してATN-P/ATN-Rと表記する.同様にBT-RとBT-Pのリランキング結果も同じになるので,本タスクでは両方を併記してBT-P/BT-Rと表記する.$r_j^d$と$q_j^d$を同時に使う場合は,重みパラメータ$\gamma,\lambda$を用いて\begin{equation}\log(p(\mathbf{y}^d|\mathbf{x}))-\gamma\sum_jr_j^d-\lambda\sum_jq_j^d\end{equation}をスコアとして用いる. \section{ポストエディットのための文選択} \label{sec:sentence_selection}訳抜けした内容の検出の応用先の1つとして,機械翻訳結果を人手で後修正するポストエディットへの応用がある.機械翻訳の翻訳品質の向上により,ポストエディットによる翻訳は費用や時間のコストを下げる手段として産業的な発展が期待されている.完全な翻訳が必要な場合は全てのMT出力文を確認して修正する必要があるが,多少の誤りを含む翻訳でも役に立つ場面も多く存在する.例えば,外国語で書かれた特許などのテキストを母国語で閲覧できるサービスや,娯楽向けのテレビ番組の外国語字幕などである.このような場合に,機械翻訳の出力をそのまま利用することも選択肢の1つとなるが,訳質の低い文を自動で選択して,一部の訳質の低い訳文だけを人手で後修正すれば,限られた労力で訳質を効果的に改善することができる\footnote{例えば,数\%の文だけを後修正する場合,全体を修正する場合に比べて少ないコストで実施可能である.}.翻訳の誤りは訳抜け以外にも訳語選択の誤りや語順の誤り,訳出の繰り返しなど複数の要因があるが,それぞれの要因の誤りを推定して訳文が含む誤りの程度を推測できることが理想的である\footnote{ポストエディット対象の訳文を選択する他に,ポストエディットする際に誤り箇所を強調表示することも,作業者の役に立つと考えられる.}$^,$\footnote{翻訳結果に誤りを含む文を選択してポストエディットすることは,機械翻訳システムの能動学習としても利用できる.}.本稿では訳抜けの検出を目的にしているので,ここでは,入力文と訳文のペアの集合から訳抜けを多く含むペアの選択をタスクとして考える.このタスクの場合は,異なる入力文間の比較となるため,ATN-PとATN-Rのスコアの違いやBT-PとBT-Rのスコアの違いが結果に影響する.文のスコアには\ref{sec:reranking}節と同様に単語のスコア$u_j$の和\begin{equation}\sum_{j}u_j\end{equation}を用いる.ここで,$u_j$は\ref{sec:detect}節で説明した各単語のスコア($a_j$など)を表している.2種類のスコアを同時に使う場合は,重みパラメータ$\gamma,\lambda$を用いて文のスコアの重み付け和を用いる.例えば$r_j$と$q_j$を用いる場合\begin{equation}\gamma\sum_jr_j+\lambda\sum_jq_j\end{equation}となる. \section{実験} \label{sec:experiment}本節では,長い文を含む日英特許翻訳のデータを用いて,訳抜け検出での効果,翻訳への効果,および訳抜けを多く含む文選択への効果を調べた実験について述べる.\subsection{設定}\label{sec:setup}実験には,NTCIR-9とNTCIR-10の日英特許翻訳タスク\cite{goto-EtAl:2011:NTCIR9,goto-EtAl:2013:NTCIR10}のデータを用いた.この訓練データの対訳文対の数は約320万である.この中で,日英いずれも100単語以下の長さの文ペアを日英(JE)翻訳の訓練に用いた.計算量を削減するために逆翻訳用の英日翻訳の訓練には,日英いずれも50単語以下の長さの文ペアを訓練に用いた.これらの訓練で単言語データは用いていない.タスクの公式開発データ2,000文のうち最初の1,000文を開発データとして用いた.テスト文と参照訳からなるテストデータは,NTCIR-9が2,000文対,NTCIR-10が2,300文対である.英語のトークナイザにはstepptagger\footnote{http://www.nactem.ac.uk/enju/index.html},日本語の単語分割にはJuman7.01\footnote{http://nlp.ist.i.kyoto-u.ac.jp/EN/index.php?JUMAN}を用いた.NMTのシステムには,Kyoto-NMT\cite{cromieres:2016:COLINGDEMO}を用いた\footnote{(\ref{eq:e})式に合うように変更した.}.本稿で用いたベースラインNMTの設定は次のとおりである.原言語と目的言語の語彙数はそれぞれ頻度が高い30,000語を用い,それ以外の語は特別な語(UNK)に置き換えた.エンコーダーの前向きと後ろ向きのLSTMのユニット数はそれぞれ1,000,デコーダーのLSTMのユニット数は1,000,単語の分散表現のベクトルサイズは620,出力層の前のベクトルの次元は500とした.これらの設定は\citeA{Bahdanau-EtAl:2015:ICLR}と同じである.ミニバッチサイズには64を用いた.ただし,逆翻訳のモデルの訓練には128を用いた.パラメータの推定にはAdam\cite{DBLP:journals/corr/KingmaB14}を用いた.NMTモデルの訓練は6エポック実施した.開発データは,ミニバッチ200回毎にBLEUスコアを計算してスコアが高いモデルを保存するために利用した.翻訳の探索は,ビーム幅20でビームサーチした.出力長は入力長の2倍以下に制限した.このビームサーチで得られるすべての出力文\footnote{文頭からEOSまでの単語列.}を$n$-best出力として用いた\footnote{$n$は入力文によって異なる.$n$は入力文が長い時に大きくなる傾向がある.$n$の平均はNTCIR-10で161.7,NTCIR-9で142.7,$n$の最小値と最大値はNTCIR-10で20と1,140,NTCIR-9で20と889であった.}.\ref{sec:reranking}節の重みパラメータ$\beta_{r}$,$\beta_{q}$,$\gamma$,$\lambda$は開発データでBLEUスコアが高くなるものを$\{0.1,$$0.2,$$0.5,$$1.0,$$2.0\}$から選択した.\subsection{入力文の内容の訳抜け検出での効果}\label{sec:detect_results}NTCIR-10のテストデータをベースラインNMTで英語に翻訳し,訳抜けした内容を人手で特定した.そして,\ref{sec:detect}節のスコアによる訳抜けした内容の検出効果を比較した.\subsubsection*{評価用データの作成}\label{sec:eval_data_detect}次の手順で評価用データを作成した.まずNTCIR-10のテストデータからテスト文(日本語)とその参照訳(英語)の長さがいずれも100単語以下のテスト文を選択し,選択したテスト文をベースラインNMTで英語に翻訳した.MT出力にはビームサーチで1位の出力を用いた.訳抜けがありそうなMT出力を選ぶため,(MT出力の長さ/min(参照訳の長さ,入力文の長さ))の値が小さいテスト文から順番に選択し,テスト文中で翻訳されていない内容語に人手でタグを付与した.これによって100文を選択し,選択した文の全単語4,457語のうち632語の訳抜けした内容語を認定した.これらの632語を正解データとした.この100文を選択する際に,入力文と訳文で訳出された部分の単語対応が特定できない部分があることで,訳抜けした部分を特定できなかった文は除いた.また,内容語の判定には文字種を用い,漢字,数字,カタカナ,アルファベットのいずれかの文字種を含む語を内容語とした.なぜなら,今回対象とした特許文では,実質的な意味を持つ語は通常上記の文字種が用いられること,そして,平仮名は文中で主に機能的表現に用いられ,品詞が動詞などの場合でも平仮名で表記されるもの(例えば「する」など)の多くは形式的な働きが強く実質的な内容を持たないためである.なお,NMTの出力に含まれるUNKは翻訳元の語の意味を保持していないが,ここでは訳抜けとして扱わない.例えば,日本語の入力文中の表現が「陰極211b」で,対応する英語の参照訳が「thecathode211b」の時に,対応する出力の表現が「thecathodeUNK」の場合,UNKは日本語の「211b」に対応していると考えることができる.このような場合に,日本語の単語「211」と「b」は訳抜けしていないとして扱う.なぜならば,扱う語彙が制限されているために英語の「211b」を出力する代わりにUNKを出力しているので,これは訳抜けの問題ではなく扱える語彙の問題であるためである.\subsubsection*{2種類のスコアの組み合わせ方法}2種類のスコア$r_j^d$と$q_j^d$を同時に用いて訳抜けを検出する場合(BT-R\&ATN-R)は,\ref{sec:setup}節で選択した重みパラメータ$\gamma,\lambda$を用いて,\begin{equation}\gammar_j^d+\lambdaq_j^d\label{eq:combi}\end{equation}をスコアとして用いた.\begin{figure}[b]\begin{center}\includegraphics{25-5ia5f2.eps}\end{center}\hangcaption{訳抜けした内容の検出結果.Recallが0.5の時,グラフのラインは上からBT-R\&ATN-R,BT-R,BT-P,ATN-R,ATN-Pを表している.}\label{fig:pr}\end{figure}\subsubsection*{結果と議論}正解を付与した100文のテスト文中の全ての語を\ref{sec:detect}節のそれぞれのスコアに基づいてランキングし,正解(632語)と比較した\footnote{訳抜けの有無を決定するためには,さらにスコアの閾値を決める必要があるが,今回はスコアの性質の調査であるため,閾値は用いていない.}.結果を図\ref{fig:pr}に示す.全単語(4,457語)から無作為に単語を選択した際の精度の期待値は$0.14=632/\text{4,457}$である.この結果から,次のことが確認された.\begin{itemize}\item累積アテンション確率スコア(ATN-P)と逆翻訳確率スコア(BT-P)は無作為な選択に比べて効果がある.\item累積アテンション確率比スコア(ATN-R)は累積アテンション確率スコア(ATN-P)より検出精度が高く,逆翻訳確率比スコア(BT-R)は逆翻訳確率スコア(BT-P)より検出精度が高い.\item逆翻訳確率比スコア(BT-R)は累積アテンション確率比スコア(ATN-R)より検出精度が高い.\item2種類のスコアを同時に利用する(BT-R\&ATN-R)とそれぞれのスコア(BT-R,ATN-R)のみを利用する場合より検出精度が高い.\end{itemize}ここで,BT-Rでスコアが大きくならずに検出の感度が低かった例を図\ref{fig:fail_example}に示す.図\ref{fig:fail_example}では,入力文に同一の語(ISO)が2回出現しているが,出力中にそれらの訳語(ISO)は1つしか出現していない.入力中の下線の``ISO''が訳抜けしていることを検出するためには,入力中の下線のない``ISO''の訳抜けのスコアは小さく,下線の``ISO''のスコアは大きいことが必要である.しかし,出力中に``ISO''が含まれているために,原言語単語の``ISO''が逆翻訳で生成されやすい状態となったため,下線の``ISO''のスコアが大きくならなかったと考えられる.\begin{figure}[b]\begin{center}\includegraphics{25-5ia5f3.eps}\end{center}\hangcaption{逆翻訳で訳抜けの検出感度が低かった例.入力の網掛け部が訳抜けした部分を表している.参照訳の網掛け部は入力で訳抜けした部分に対応した部分を表している.}\label{fig:fail_example}\end{figure}BT-Pは,入力中に1回しか出現しない内容語の検出の感度は高いと考えられるが,入力中に複数回出現する内容語の検出の感度は低いと考えられる.これに対して,ATN-Pの累積確率は,目的言語単語を生成する数に依存して値が変わるため,入力に同一の内容語が複数出現した場合でも,検出の感度はBT-Pのようには低くならないと考えられる.なお,ATN-RはATN-Pに基づいているので,ATN-RはATN-Pと同じ特性があり,同様にBT-RはBT-Pに基づいているので,BT-RはBT-Pと同じ特性がある.すなわち,BT-RとATN-Rは訳抜けした内容の検出感度(表\ref{table:performance_relation})において一部で相補的な関係にあるため,これが組み合わせで効果があった理由の一つと考えられる.\begin{table}[t]\caption{訳抜けした内容の検出感度}\label{table:performance_relation}\input{05table01.tex}\end{table}\subsection{$\boldsymbol{n}$-best出力のリランキングでの効果}\label{sec:reranking_results}\ref{sec:reranking}節で説明した方法でベースラインNMTの$n$-best出力をリランキングし,各スコアの翻訳への効果を調べた.\subsubsection*{比較したシステム}比較のために,ベースラインNMTシステムに2つのカバレッジモデル\cite{mi-EtAl:2016:EMNLP2016,tu-EtAl:2016:P16-1}\footnote{競合する手法ではなく,協調して利用できる手法である.}を導入した結果も計算した.これらのモデルはデコード時に利用するものである.なお,\citeA{mi-EtAl:2016:EMNLP2016}では,カバレッジモデルにGRUを用いている\footnote{\citeA{mi-EtAl:2016:EMNLP2016}で${\bfU}_{GRU}$と表記されているモデル.}が,ここではLSTMを用いた\footnote{NMTベースラインでGRUよりLSTMを用いた方がBLEUスコアが高く,カバレッジモデルでChainer\cite{chainer_learningsys2015}のGRUの実装を使うよりChainerのLSTMの実装を使った方が学習速度が速かったためである.}.\citeA{mi-EtAl:2016:EMNLP2016}のカバレッジモデルをneuralカバレッジモデル(C\textsc{overage}-neural)と呼ぶ.\citeA{tu-EtAl:2016:P16-1}はlinguisticとneuralのカバレッジモデルを提案している.ここでは,これらのうちlinguisticバージョンを用い,このモデルをlinguisticカバレッジモデル(C\textsc{overage}-linguistic)と呼ぶ.参考として,Moses\cite{koehn-EtAl:2007:PosterDemo}で,フレーズベースSMTのdistortion-limitを20,階層フレーズベースSMTのmax-chart-spanを1,000に設定した従来のSMTによる結果も計算した.さらに,言語モデルを用いた$n$-best出力のリランキングも実施した\footnote{KenLM(https://kheafield.com/code/kenlm/)を用いて訓練データの目的言語文で5-gramの言語モデルを構築し,この言語モデルで出力文の生成確率の負の対数を計算した.\ref{sec:reranking}節と同様に重み付けして翻訳の尤度から引いた値でベースラインNMTの$n$-best出力をリランキングした.この重みは,他の重み($\beta_r$など)と同様に\ref{sec:setup}節の手順で選択した.}.このリランキング結果をRerankwithLMと呼ぶ.\subsubsection*{結果と議論}表\ref{table:trans_result}にBLEU-4\cite{papineni-EtAl:2002:ACL}の結果を示す.この結果からATN-P/ATN-RとBT-P/BT-Rを翻訳スコアに利用することに効果があることが分かる.\pagebreakまた,ベースラインNMTは従来のSMTより高いBLEU値が得られている.以下,表記を簡素化するために,ATN-P/ATN-RではATN-Pを代表して用い,BT-P/BT-RではBT-Pを代表して用いる.\begin{table}[t]\caption{翻訳結果(BLEU(\%))}\label{table:trans_result}\input{05table02.tex}\end{table}以下,要素毎の効果を議論する.まず,ATN-PとBT-Pのリランキングでの効果について述べる.ATN-PとBT-Pのどちらもリランキングに効果があった.ATN-Pとほぼ同じスコアがリランキングに効果があることはプレプリント\cite{DBLP:journals/corr/WuSCLNMKCGMKSJL16}でも確認されており,BT-Pがリランキングに効果があることはプレプリント\cite{DBLP:journals/corr/LiJ16}でも確認されている.これらの研究と互いに独立した我々の研究でもリランキングに関して同様の効果を確認した.ATN-PとBT-Pを比較すると,BT-PのほうがATN-Pより少しBLEU値が高かった.ATN-PとBT-Pの両方を用いる(RerankwithBT-P/BT-R\&ATN-P/ATN-R)とそれぞれを単独で用いるよりもBLEU値が高かった.これらの結果は\ref{sec:detect_results}節の結果と整合する.表\ref{table:trans_result}のRerankwithBT-P/BT-RとRerankwithBT-P/BT-R\&ATN-P/ATN-Rの差は,ブートストラップ・リサンプリングテスト\cite{koehn:2004:EMNLP}のツール\footnote{https://github.com/odashi/mteval}を用いた計算で$\alpha=0.01$で統計的に有意であった.また,RerankwithBT-P/BT-RとRerankwithATN-P/ATN-Rの差は,NTCIR-10では$\alpha=0.01$で,NTCIR-9では$\alpha=0.05$で統計的に有意であった.次に,カバレッジモデルの効果について議論する.表\ref{table:trans_result}のNMTBaselineとC\textsc{overage}-neuralとでは差が小さく(0.5BLEUポイント未満),このデータセットではC\textsc{overage}-neuralの効果はあまりみられなかった.C\textsc{overage}-linguisticはC\textsc{overage}-neuralより改善が大きかったが,NMTBaselineとC\textsc{overage}-linguisticとの差も0.5BLEUポイント未満であった.それに対して,アテンション確率を用いてリランキングした場合(RerankwithATN-P/ATN-R)では,1BLEUポイント以上の向上が得られている.カバレッジモデルはアテンション確率を利用する方法であるため,今回の実験では,アテンション確率の情報を十分に活用できていないことが分かる.すなわち,カバレッジモデルはアテンション確率の情報を十分に活用できるようにエンド・ツー・エンドで学習できるとは限らないと言える.学習の困難の度合いはデータに依存すると考えられる.\footnote{本稿の実験でのカバレッジモデルによるBLEUスコアの改善幅が\citeA{tu-EtAl:2016:P16-1,mi-EtAl:2016:EMNLP2016}の実験での改善幅ほど大きくなかった理由として,次のように考えている.まず,入力文と出力の長さの関係を示す,本稿の図\ref{fig:length}と\citeA{tu-EtAl:2016:P16-1}での図6を比較する.我々のベースラインNMTの結果とは違って,彼らのベースラインNMTの出力長は,特に入力文が50単語以上の時にフレーズベースSMTの出力長よりも大幅に短くなっている.そして,本稿の図\ref{fig:length}でフレーズベースSMTの出力長は参照訳長に近くなっている.これらのことから,カバレッジモデルの改善幅の違いの理由として以下が挙げられる.\begin{itemize}\item彼らのベースラインNMTに比べて本稿のベースラインNMTでは,カバレッジモデルにより改善できる余地が小さいこと.\item本稿の実験では訓練中にカバレッジモデルの効果により結果が改善される場合が彼らの実験に比べて少ないため,本稿の実験ではカバレッジモデルのパラメータを適切に推定することが彼らの実験より難しいと考えられること.\end{itemize}2番目の項目は,パラメータの数が少ないC\textsc{overage}-linguisticの方がパラメータの数が多いC\textsc{overage}-neuralより改善が大きい理由と考えられる.}\begin{figure}[b]\begin{center}\includegraphics{25-5ia5f4.eps}\end{center}\caption{目的言語文の平均長}\label{fig:length}\vspace{-0.5\Cvs}\end{figure}訳抜けが発生するとその分だけ出力が短くなるため,出力長は訳抜けの程度をある程度表している\footnote{ただし,訳抜けの他に,訳出の繰り返しが発生する可能性もあるため,出力が参照訳と同程度の長さだとしても訳抜けしていないとは限らない.}.そこで,NTCIR-10のテストデータで100単語以下の文を用いて出力長を比較した.入力文長の各クラスでの目的言語文の平均長を図\ref{fig:length}に示す.\pagebreak図\ref{fig:length}から,NMTベースラインの出力の平均長が参照訳の平均長より短い傾向にあることが分かり,それだけ訳抜けが発生していると考えられる.それに対して,表\ref{table:trans_result}のRerankwithBT-P/BT-R\&ATN-P/ATN-Rの出力の平均長はNMTベースラインより長く,参照訳により近い長さになっている.これは,NMTベースラインの出力より訳抜けが少なくなっていることを示唆していると考えられる.表\ref{table:trans_result}のRerankwithLMはベースラインNMTと比べてBLEU値が改善していない.言語モデルを用いたリランキングでの効果は見られなかった.NMTベースラインの$n$-best出力をリランキングした場合のBLEU値の上限を調べるため,$n$-best出力から文単位のBLEU値が最大の出力文を選択した場合のBLEU値を計算した\footnote{文単位のBLEU値が最大の出力を$n$-bestから選択することは,コーパス単位で最大のBLEU値(オラクルBLEU値)となる選択と一致するとは限らないが,オラクルBLEU値に近いコーパス単位のBLEU値が得られると考えられる.}.その結果は,NTCIR-10テストデータで47.29,NTCIR-9テストデータで46.33であった.これより,$n$-best出力のリランキングでさらなる改善の余地があることが分かる.表\ref{table:trans_result}で最も結果が良かったBT-PとATN-Pによるリランキング(RerankwithBT-P/BT-R\&ATN-P/ATN-R)で訳抜けが減少しているかどうかを確認するために,テストデータから100文を無作為に選択して,ベースラインNMTの結果とRerankwithBT-P/BT-R\&ATN-P/ATN-Rの結果での訳抜けと訳出の繰り返しが発生した原言語の内容語の数を調べた.また,カバレッジモデルを用いた手法のうち表\ref{table:trans_result}で結果が良かったNMTBaselinewithC\textsc{overage}-linguisticの結果についても調べた.ここで,文を選択する際に入力長と参照訳長が100単語以内のものに限定した.内容語は\ref{sec:detect_results}節で説明した条件を満たす語とした.結果を表\ref{table:untranslated_rate}に示す.この結果から,BT-PとATN-Pによるリランキングによって訳出の繰り返しが増加せずに訳抜けが減少したことを確認した.また,カバレッジモデルを用いても訳抜けが発生したことを確認した.発生した訳抜けはベースラインNMTより少なかったが,BT-PとATN-Pを用いたリランキングより多かった.\begin{table}[b]\caption{訳抜けした内容語の割合と訳出が繰り返された内容語の割合}\label{table:untranslated_rate}\input{05table03.tex}\end{table}\subsection{ポストエディットのための文選択での効果}\label{sec:sentence_selection_results}\subsubsection*{評価データと設定}評価データには,\ref{sec:eval_data_detect}節での訳抜けした内容語にタグを付与した入力文100文とベースラインNMTの翻訳結果との文のペアと,\ref{sec:reranking_results}節での訳抜けした内容語にタグを付与した入力文100文とベースラインNMTの翻訳結果との文のペアを用いた.これらは6文が重複していたため,重複を除いた全体の文のペア数は194であった.これらの194ペアそれぞれに訳抜けした内容語の数(訳抜け数と呼ぶ)を付与したデータを作成し,これを評価データとして用いた.そして,各ペアのスコアを計算し,文のスコアと訳抜け数とのピアソンの積率相関係数を調べた.相関係数の値域は$[-1,1]$で,相関が無い場合は$0$になる.相関係数が1に近いほど,訳抜け数の予測精度が高いことを示している.2種類のスコアを同時に使う場合に利用する重みパラメータ$\gamma,\lambda$には\ref{sec:setup}節で選択した値を用いた.\subsubsection*{結果と議論}結果を表\ref{table:pearson}に示す.各スコアは訳抜け数と相関があることから訳抜けを含む文の選択で効果があることが分かる.以下,表\ref{table:pearson}の結果について考察する.\begin{table}[b]\caption{各文の訳抜けした内容語の数と文のスコアとのピアソンの積率相関係数}\label{table:pearson}\input{05table04.tex}\end{table}まず,\ref{sec:detect_results}節の結果から予想されることを示し,次に予想と結果を対比する.\ref{sec:detect_results}節で示した単語レベルでの訳抜けした内容の検出精度がそのまま反映されるならば,次のことが予想される.予想(1)ATN-PよりATN-R,BT-PよりBT-Rの方が相関係数が高い.予想(2)ATNよりBTのほうが相関係数が高い.予想(3)BT-RとATN-Rとの組み合わせは構成要素単独より相関係数が高い.これらの予想と結果を対比する.まず予想(1)に関して,BT-PとBT-Rについて比較する.BT-Pの相関係数よりBT-Rの相関係数が高く,BTについて予想(1)と結果は一致した.BT-RはBT-Pよりも訳抜け数の多い文の選択で効果が高いことが分かった.次に予想(1)に関して,ATN-PとATN-Rについて比較する.ATN-Pの相関係数に対してATN-Rの相関係数は高くないため,ATNについては予想(1)と結果は一致しなかった.その原因について分析する.訳抜けするとそれだけ出力が短くなるため,訳出の繰り返しがなければ訳抜け数と入出力長差\footnote{原言語文と目的言語文の平均文長に差がある場合は,その差を解消するように,例えば原言語文長に(目的言語文平均長/原言語文平均長)を掛けて補正した方がより正確であるが,ここでは平均長の差を無視して補正は行っていない.}とは相関する\footnote{入力文長から出力文長を引いた値と訳抜け数との相関係数は0.852であった.この値は相関があることを示している.}.そこで我々は,入出力長の違いがスコアに反映されている程度がATN-PとATN-Rとで異なることが原因である可能性があると考え,入力文長から出力文長を引いた値(文長差スコアと呼ぶ)と文のスコアとの相関係数を調べた.その結果,ATN-Pの文のスコアと文長差スコアとの相関係数は0.943,ATN-Rの文のスコアと文長差スコアとの相関係数は0.903で,ATN-Pに基づく文のスコアの方が,ATN-Rに基づく文のスコアより入出力長の違いを反映していることが分かった.すなわち,ATN-Pから比に基づくスコアATN-Rに換算することで,ATN-Pに基づく文のスコアが保持している入出力長差の情報が劣化したと考えられる.このことが,ATN-Rの個々の単語に対する訳抜け検出精度の向上効果を打ち消したたため,ATN-Rの相関係数はATN-Pの相関係数より大きくならなかったと考えられる\footnote{なお,ここで用いたNMTベースラインは訳出の繰り返しが少ない(表\ref{table:untranslated_rate})が,訳出の繰り返しが多く含まれるMT出力では,文長差スコアと訳抜け数との相関が下がるため,文長差スコアと相関が高いATN-Pに基づく文のスコアでは訳抜け数の予測精度が低下すると考えられる.}.予想(2)に関して,ATNとBTを比較する.ATN-PとATN-Rの相関係数がBT-PやBT-Rの相関係数より高く,予想(2)と結果は一致しなかった.その原因を分析する.BT-PおよびBT-Rの文のスコアと文長差スコアとの相関を調べた.その結果,BT-Pの文のスコアと文長差スコアとの相関係数は0.695,BT-Rの文のスコアと文長差スコアとの相関係数は0.774であった.これらはATN-Pの文のスコアと文長差スコアとの相関係数(0.943)およびATN-Rの文のスコアと文長差スコアとの相関係数(0.903)より低い.そのため,ATN-PおよびATN-Rの文のスコアは,BT-PおよびBT-Rの文のスコアに比べて入出力長の違いを反映していることが分かった.このことが,BTよりATNの方が相関係数が高かった原因と考えられる.予想(3)に関して,スコアの組み合わせの効果を調べる.BT-Rの文のスコアとATN-Rの文のスコアの組み合わせの相関係数は,組み合わせの構成要素である文のスコア単独での相関係数より高かった.予想(3)とこの結果は一致した.また,BT-Rの文のスコアとATN-Pの文のスコアの組み合わせの相関係数も,組み合わせの構成要素である文のスコア単独での相関係数より高かった.個々の単語の訳抜けの検出精度が高いBT-Rと入出力長差を文のスコアに反映しやすいATN-PもしくはATN-Rとの組み合わせ(BT-R\&ATN-PおよびBT-R\&ATN-R)は,それぞれの特徴を活用したことで相関係数が高くなったと考えられる.ポストエディットのための文選択では,相関係数が最も高かったBT-RとATN-Pの組み合わせの文のスコアを利用することが良いと思われる.この文のスコアと文の訳抜け数は相関があった(相関係数が0.925)ため,この文のスコアはポストエディットのために訳抜けの多い文を選ぶのに役に立つことが分かった. \section{関連研究} \label{sec:related_work}訳抜けを減らす既存研究として\ref{sec:introduction}節でカバレッジモデルを紹介した.これらの研究の他に,我々の研究と互いに独立した研究がある\cite{Tu-etAl:AAAI2017,DBLP:journals/corr/WuSCLNMKCGMKSJL16,DBLP:journals/corr/LiJ16}.\citeA{Tu-etAl:AAAI2017}はデコーダーのステートから入力文を生成する確率をリランキングに用いている.この確率は入力文を生成する確率という点で逆翻訳の確率に類似しているが,逆翻訳では出力文の情報のみを用いて入力文の生成確率を計算するのに対して,この確率は出力文の情報に加えて入力文の情報も含んでいるデコーダーのステートから入力文の生成確率を計算しているという違いがある.\citeA{DBLP:journals/corr/WuSCLNMKCGMKSJL16}はarXivのプレプリントで,アテンション確率の累積をリランキングに用いて効果を確認している.\citeA{DBLP:journals/corr/LiJ16}もarXivのプレプリントで,逆翻訳の確率をリランキングに用いて効果を確認している.これらの研究は,アテンション確率の累積と逆翻訳の確率の訳抜け検出への効果を直接評価していない.それに対して我々の研究は,アテンション確率の累積と逆翻訳の確率の訳抜け検出への効果を直接評価し,これらの組み合わせの効果についても調査し,これらの関係についても考察している.また,ポストエディットのための文選択への効果も評価している. \section{おわりに} \label{sec:conclusion}NMTでの訳抜けの検出について,アテンションの累積確率と逆翻訳の確率を用いた場合の効果を評価し,有効性を確認した.そして,これらの値を直接用いるよりも,$n$-best出力で負の対数が最小の場合との比を用いる方が検出精度が高く,アテンションの累積確率比と逆翻訳の確率比を同時に用いるとさらに検出精度が向上した.また,これらをNMTの$n$-best出力のリランキングに用いた場合の有効性も確認した.さらに,訳抜けの検出をポストエディットのための文選択に応用した場合の効果も評価し,効果があることが分かった.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bahdanau,Cho,\BBA\Bengio}{Bahdanauet~al.}{2015}]{Bahdanau-EtAl:2015:ICLR}Bahdanau,D.,Cho,K.,\BBA\Bengio,Y.\BBOP2015\BBCP.\newblock\BBOQNeuralMachineTranslationbyJointlyLearningtoAlignandTranslate.\BBCQ\\newblockIn{\BemProceedingsofInternationalConferenceonLearningRepresentations}.\bibitem[\protect\BCAY{Chiang}{Chiang}{2007}]{chiang:2007:CL}Chiang,D.\BBOP2007\BBCP.\newblock\BBOQHierarchicalPhrase-BasedTranslation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf33}(2),\mbox{\BPGS\201--228}.\bibitem[\protect\BCAY{Cromieres}{Cromieres}{2016}]{cromieres:2016:COLINGDEMO}Cromieres,F.\BBOP2016\BBCP.\newblock\BBOQKyoto-NMT:ANeuralMachineTranslationimplementationinChainer.\BBCQ\\newblockIn{\BemProceedingsofthe26thInternationalConferenceonComputationalLinguistics:SystemDemonstrations},\mbox{\BPGS\307--311},Osaka,Japan.\bibitem[\protect\BCAY{Goodfellow,Warde-Farley,Mirza,Courville,\BBA\Bengio}{Goodfellowet~al.}{2013}]{Goodfellow:2013:MN:3042817.3043084}Goodfellow,I.~J.,Warde-Farley,D.,Mirza,M.,Courville,A.,\BBA\Bengio,Y.\BBOP2013\BBCP.\newblock\BBOQMaxoutNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe30thInternationalConferenceonInternationalConferenceonMachineLearning-Volume28},\mbox{\BPGS\III{\NotNdash}1319--III{\NotNdash}1327}.JMLR.org.\bibitem[\protect\BCAY{Goto,Chow,Lu,Sumita,\BBA\Tsou}{Gotoet~al.}{2013}]{goto-EtAl:2013:NTCIR10}Goto,I.,Chow,K.~P.,Lu,B.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2013\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskattheNTCIR-10Workshop.\BBCQ\\newblockIn{\BemProceedingsofthe10thNTCIRConference},\mbox{\BPGS\260--286}.\bibitem[\protect\BCAY{Goto,Lu,Chow,Sumita,\BBA\Tsou}{Gotoet~al.}{2011}]{goto-EtAl:2011:NTCIR9}Goto,I.,Lu,B.,Chow,K.~P.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2011\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskattheNTCIR-9Workshop.\BBCQ\\newblockIn{\BemProceedingsofthe9thNTCIRWorkshopMeeting},\mbox{\BPGS\559--578}.\bibitem[\protect\BCAY{Goto\BBA\Tanaka}{Goto\BBA\Tanaka}{2017}]{goto-tanaka:2017:NMT}Goto,I.\BBACOMMA\\BBA\Tanaka,H.\BBOP2017\BBCP.\newblock\BBOQDetectingUntranslatedContentforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe1stWorkshoponNeuralMachineTranslation},\mbox{\BPGS\47--55},Vancouver.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{後藤\JBA田中}{後藤\JBA田中}{2017}]{goto-tanaka:2017:NLP}後藤功雄\JBA田中英輝\BBOP2017\BBCP.\newblockニューラル機械翻訳での訳抜けした内容の検出.\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\1018--1021}.\bibitem[\protect\BCAY{Hochreiter\BBA\Schmidhuber}{Hochreiter\BBA\Schmidhuber}{1997}]{hochreiter:1997:NC}Hochreiter,S.\BBACOMMA\\BBA\Schmidhuber,J.\BBOP1997\BBCP.\newblock\BBOQLongShort-TermMemory.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf9}(8),\mbox{\BPGS\1735--1780}.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2015}]{DBLP:journals/corr/KingmaB14}Kingma,D.~P.\BBACOMMA\\BBA\Ba,J.\BBOP2015\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceforLearningRepresentations}.\bibitem[\protect\BCAY{Koehn}{Koehn}{2004}]{koehn:2004:EMNLP}Koehn,P.\BBOP2004\BBCP.\newblock\BBOQStatisticalSignificanceTestsforMachineTranslationEvaluation.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\388--395}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{koehn-EtAl:2007:PosterDemo}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationofComputationalLinguistics:DemoandPosterSessions},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{koehn-EtAl:2003:NAACLHLT}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-BasedTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\48--54}.\bibitem[\protect\BCAY{Li\BBA\Jurafsky}{Li\BBA\Jurafsky}{2016}]{DBLP:journals/corr/LiJ16}Li,J.\BBACOMMA\\BBA\Jurafsky,D.\BBOP2016\BBCP.\newblock\BBOQMutualInformationandDiverseDecodingImproveNeuralMachineTranslation.\BBCQ\\textit{arXivpreprint},arXiv:1601.00372.\bibitem[\protect\BCAY{Mi,Sankaran,Wang,\BBA\Ittycheriah}{Miet~al.}{2016}]{mi-EtAl:2016:EMNLP2016}Mi,H.,Sankaran,B.,Wang,Z.,\BBA\Ittycheriah,A.\BBOP2016\BBCP.\newblock\BBOQCoverageEmbeddingModelsforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\955--960},Austin,Texas.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni-EtAl:2002:ACL}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBleu:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Sutskever,Vinyals,\BBA\Le}{Sutskeveret~al.}{2014}]{NIPS2014_5346}Sutskever,I.,Vinyals,O.,\BBA\Le,Q.~V.\BBOP2014\BBCP.\newblock\BBOQSequencetoSequenceLearningwithNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofAdvancesinNeuralInformationProcessingSystems27},\mbox{\BPGS\3104--3112}.\bibitem[\protect\BCAY{Tokui,Oono,Hido,\BBA\Clayton}{Tokuiet~al.}{2015}]{chainer_learningsys2015}Tokui,S.,Oono,K.,Hido,S.,\BBA\Clayton,J.\BBOP2015\BBCP.\newblock\BBOQChainer:aNext-GenerationOpenSourceFrameworkforDeepLearning.\BBCQ\\newblockIn{\BemProceedingsofWorkshoponMachineLearningSystemsinthe29thAnnualConferenceonNeuralInformationProcessingSystems}.\bibitem[\protect\BCAY{Tu,Liu,Shang,Liu,\BBA\Li}{Tuet~al.}{2017}]{Tu-etAl:AAAI2017}Tu,Z.,Liu,Y.,Shang,L.,Liu,X.,\BBA\Li,H.\BBOP2017\BBCP.\newblock\BBOQNeuralMachineTranslationwithReconstruction.\BBCQ\\newblockIn{\BemProceedingsofthe31stAAAIConferenceonArtificialIntelligence},\mbox{\BPGS\3097--3103}.\bibitem[\protect\BCAY{Tu,Lu,Liu,Liu,\BBA\Li}{Tuet~al.}{2016}]{tu-EtAl:2016:P16-1}Tu,Z.,Lu,Z.,Liu,Y.,Liu,X.,\BBA\Li,H.\BBOP2016\BBCP.\newblock\BBOQModelingCoverageforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\76--85},Berlin,Germany.\bibitem[\protect\BCAY{Wu,Schuster,Chen,Le,Norouzi,Macherey,Krikun,Cao,Gao,Macherey,Klingner,Shah,Johnson,Liu,Kaiser,Gouws,Kato,Kudo,Kazawa,Stevens,Kurian,Patil,Wang,Young,Smith,Riesa,Rudnick,Vinyals,Corrado,Hughes,\BBA\Dean}{Wuet~al.}{2016}]{DBLP:journals/corr/WuSCLNMKCGMKSJL16}Wu,Y.,Schuster,M.,Chen,Z.,Le,Q.~V.,Norouzi,M.,Macherey,W.,Krikun,M.,Cao,Y.,Gao,Q.,Macherey,K.,Klingner,J.,Shah,A.,Johnson,M.,Liu,X.,Kaiser,L.,Gouws,S.,Kato,Y.,Kudo,T.,Kazawa,H.,Stevens,K.,Kurian,G.,Patil,N.,Wang,W.,Young,C.,Smith,J.,Riesa,J.,Rudnick,A.,Vinyals,O.,Corrado,G.,Hughes,M.,\BBA\Dean,J.\BBOP2016\BBCP.\newblock\BBOQGoogle'sNeuralMachineTranslationSystem:BridgingtheGapbetweenHumanandMachineTranslation.\BBCQ\\textit{arXivpreprint},arXiv:1609.08144.\end{thebibliography}\begin{biography}\bioauthor{後藤功雄}{1995年早稲田大学理工学部電気工学科卒業.1997年同大学院理工学研究科修士課程修了.2014年京都大学大学院情報学研究科博士課程修了.博士(情報学).1997年NHK入局,(株)国際電気通信基礎技術研究所(ATR)および(独)情報通信研究機構出向を経て,現在,放送技術研究所スマートプロダクション研究部にて自然言語処理の研究に従事.}\bioauthor{田中英輝}{1982年九州大学工学部電子工学科卒業.1984年同大学院修士課程修了.同年NHK入局,1987年放送技術研究所研究員.(株)国際電気通信基礎技術研究所(ATR)音声言語コミュニケーション研究所第4研究室室長,NHK放送技術研究所上級研究員などを経て2018年7月より(一財)NHKエンジニアリングシステムシステム技術部上級研究員.テキストの平易化,機械翻訳などの自然言語処理の研究に従事.博士(工学).}\end{biography}\biodate\end{document}
V21N03-05
\section{はじめに} \label{sec:introduction}これまで,主に新聞などのテキストを対象とした解析では,形態素解析器を始めとして高い解析精度が達成されている.しかし近年,解析対象はWebデータなど多様化が進んでおり,これらのテキストに対しては既存の解析モデルで,必ずしも高い解析精度を得られるわけではない\cite{Kudo:Ichikawa:Talbot:Kazawa:2012j,Katsuki:Sasano:Kawahara:Kurohashi:2011j}.本稿では,そうしたテキストの一つである絵本を対象とした形態素解析の取り組みについて述べる.絵本は幼児の言語発達を支える重要なインプットの一つであり\cite{Mother-child:Ehon:2006},高い精度で解析できれば,発達心理学における研究や教育支援,絵本のリコメンデーション\cite{Hattori:Aoyama:2013j}などへの貢献が期待できる.\begin{table}[b]\caption{絵本の文の解析例}\label{tb:morph-ex}\input{1008table01.txt}\par\vspace{4pt}\small解析結果の出現形,原形,品詞を記載.\\ただし,\kyteaの配布モデルでは原形は出力されない.品詞は適宜簡略化して表示.\par\end{table}絵本の多くは子供向けに書かれており,わかりやすい文章になっていると考えられる.それにも関わらず,既存の形態素解析器とその配布モデルでは,必ずしもうまく解析できない.なお本稿では,\pos{モデル}を,既存の形態素解析器に与えるパラメタ群という意味で用いる.表~\ref{tb:morph-ex}に,既存の形態素解析器である\juman\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN,ver.7.0を利用.}\cite{juman:7.0j},\chasen\footnote{http://chasen-legacy.sourceforge.jp/,ver.2.4.4を利用.}\cite{chasen:2.4.4j},\mecab\footnote{http://mecab.googlecode.com/svn/trunk/mecab/doc/index.html,ver0.996,辞書はmecab-ipadic-2.7.0-20070801を利用.}\cite{Mecab},\kytea\footnote{http://www.phontron.com/kytea/,ver.0.4.3を利用.}\cite{Mori:Nakata:Graham:Kawahara:2011j}とその配布モデルで絵本の文を解析した場合の例を示す.解析器によって誤り方は異なるが,すべて正しく解析できた解析器はなく,既存のモデルでは絵本の解析が難しいことがわかる.これは,一般的な形態素解析モデルを構築するときに用いられる学習データ(ラベルありデータ)と,解析対象である絵本のテキストでは傾向が大きく異なるためだと考えられる.このように,学習データと解析対象の分野が異なる場合には,形態素解析に限らず機械学習を用いる多くのタスクで精度が低下するため,それに対応するための様々な手法が提案されてきた.\citeA{Kamishima:2010j}は,この問題に対処するための機械学習の方針として,半教師あり学習,能動学習,転移学習の三つを挙げている.まず,半教師あり学習は,少数のラベルありデータを準備し,多数のラベルなしデータを活用して予測精度を向上させる手法であり,日本語では単語分割を行う手法が提案されている\cite{Hagiwara:Sekine:2012j}.能動学習は,より効率的な分類ができるように選んだ事例にラベルを付与する.日本語形態素解析では,確信度の低い解析結果に対して優先的に正解ラベルを付与していくことで,対象分野の解析精度を効率的に改善する方法が提案されている\cite{Mori:2012j,Neubig:Nakata:Mori:2011}.転移学習は,関連しているが異なる部分もあるデータから,目的の問題にも利用できる情報・知識だけを取り込んで,より予測精度の高い規則を得ることを目標とする\cite{Kamishima:2010j}.転移学習は,元の分野と対象分野のラベルありデータの有無によって分類ができる.本稿では,対象分野のラベルありデータが無い場合を教師なし分野適応,ある場合を教師あり分野適応と呼ぶ.\citeA{Kudo:Ichikawa:Talbot:Kazawa:2012j}が提案した,Web上のひらがな交じり文に対する形態素解析精度向上の手法では,大量のWeb上の生コーパスを利用しているが,対象分野のラベルありデータは用いておらず,教師なし分野適応の一種と言える.いずれの先行研究も優れた利点がある.しかし,本稿で対象とする絵本のように,これまで対象とされてきたコーパスと全く異なり,かつ,大量のデータの入手が困難な場合,これらの先行研究をそのまま適用しても高い精度を得ることは難しい.まず,絵本の大量の生コーパスが存在するわけではないため,Webデータを対象とする場合のような,大量の生コーパスを用いた半教師あり学習は適さないと考えられる.能動学習はすぐれた分野適応の方法であるが,本稿のように,ベースとなる初期モデルの学習に利用できる学習データと対象分野との差異が非常に大きい場合,解析誤りが多すぎ,結局ほぼ全文の解析結果を修正しつつラベルを付与する必要に迫られることになる.\citeA{Kudo:Ichikawa:Talbot:Kazawa:2012j}の方法は,ひらがな交じり文を対象としており,絵本の解析にも比較的適していると考えられる.しかし,絵本の場合,ひらがな交じりというより,全文がひらがなで記述されることも多く,高い精度で解析できるとは言えない.そもそも,対象分野のラベルありデータを十分に得ることができれば,通常,教師あり学習により高い精度が得られる.しかし,対象分野のラベルありデータを作成するためにも,何らかの形態素解析器による解析結果を修正する方法が一般的であり,そもそもの形態素解析精度が低いとラベルありデータの作成に,コストと時間が非常にかかることになる.そこで本稿では,既存の辞書やラベルありデータを,対象分野の特徴にあわせて自動的に変換し,それを使って形態素解析モデルを構築する教師なし分野適応手法を提案する.提案手法では,既存の言語資源を活用することで,コストと時間をかけずに,対象分野の解析に適した形態素解析モデルを得ることが出来る.また,こうして得た初期モデルの精度が高ければ,さらに精度を高めるための能動学習や,ラベルありデータの構築にも有利である.本稿では,提案手法で構築したモデルをさらに改良するため,絵本自体へのアノテーションを行って学習に利用した教師あり分野適応についても紹介する.以降,まず\ref{sec:target}章では,解析対象となる絵本データベースの紹介を行い,新聞などの一般向けテキストと絵本のテキストを比較し,違いを調査する.\ref{sec:morph-kytea}章では,本稿で形態素解析モデルの学習に利用する解析器やラベルありデータ,辞書,および,評価用データの紹介を行う.\ref{sec:bunseki}章では,絵本のテキストを漢字に変換した場合などの精度変化を調査することで,絵本の形態素解析の問題分析を行う.\ref{sec:morph}章では,\ref{sec:target}章,\ref{sec:bunseki}章の調査結果に基づき,解析対象である絵本に合わせて,既存の言語資源であるラベルありデータと辞書を変換する方法を提案する.\ref{sec:exp-adult}章では,これらを学習に用いる教師なし分野適応の評価実験を行い,提案手法による言語資源の変換の効果を示す.さらに,\ref{sec:exp-add-ehon}章では,絵本のラベルありデータを学習に利用する教師あり分野適応の評価実験を行う.また同時に,提案手法によって得られるラベルありデータが,どの程度の絵本自体のラベルありデータと同程度の効果になるかも評価する.\ref{sec:kousatsu}章では,前章までに得たモデルをさらに改良するための問題分析と改良案の提示を行い,提案手法の絵本以外のコーパスへの適用可能性についても考察する.最後に\ref{sec:conclusion}章では,本稿をまとめ,今後の課題について述べる. \section{解析対象} \label{sec:target}本章では,まず,解析対象である絵本データベースの紹介を行う(\ref{sec:ehon-db}節).次に,新聞などの一般向けテキストと絵本のテキストを比較し,違いを調査する(\ref{sec:mojisyu}節).また,評価,実験用に形態素情報を付与した絵本のラベルありデータ(フルアノテーションデータ)を紹介する(\ref{sec:full-ano}節).\subsection{絵本データベース}\label{sec:ehon-db}本稿では構築中の絵本データベースを解析対象とする\cite{Taira:Fujita:Kobayashi:2012j}.絵本データベースは,発達心理学における研究や,子供の興味や発達に応じた絵本リコメンデーションを目的として構築されている.含まれる絵本は,2010年度の紀伊国屋書店グループの売上冊数が上位のファーストブック(以下,\first{})と絵本(以下,\ehon)\footnote{絵本とファーストブックの分類は紀伊国屋書店による.絵本には,大人向けと見られる絵本も一部含まれていた.}計1,010冊,および,福音館書店の月刊誌(以下,\kodomo)190冊,合計1,200冊である\footnote{含まれる絵本のリストはhttp://www.kecl.ntt.co.jp/icl/lirg/members/sanae/ehon-list.htmlで閲覧可能である.}.これらの選定理由は,前者は多くの子供に読まれていると考えられること,後者は対象年齢が比較的はっきりしていることである.後者の対象年齢は0・1・2歳向け(以下,\kod{012}),年少(3歳児)向け(以下,\kod{3}),年中(4歳児)向け(以下,\kod{4}),年長(5歳児)向け(以下,\kod{5})とわかれている.本稿では,これらをまとめて絵本と呼ぶこととする.なお,\kodomo以外で対象年齢が記載されていた絵本は,463冊(45.8\%)にとどまり,その記載方法も「3歳から小学校初級むき」「乳児から」「4才から」のように多様で,\kodomoのように1歳単位で対象年齢が設定されている絵本は少ない.\begin{table}[b]\caption{絵本データベースのサイズ}\label{tb:size}\input{1008table02.txt}\end{table}本稿では,絵本の本文のテキストを解析対象とする.本文のテキストは人手で入力されている\footnote{当初,既存OCRによる自動的な文字認識を試したが,絵と文字の判別が難しく,高精度な自動認識は困難だった.}.また文や文節の途中での改行など元のページのレイアウトも忠実に再現されている(例\refs{ex-org}).なお,絵本データベースの1,200冊のサイズは表~\ref{tb:size}の通りである.\begin{exe}\ex\label{s:ex-org}もういつはるがきて、なつがきたのか、いつが\\あきで、いつがふゆなのか、わかりません。\\\small(バージニア・リー・バートン,石井桃子・訳「ちいさいおうち」p.~24(1954,岩波書店))\end{exe}\subsection{絵本と他のコーパスの比較}\label{sec:mojisyu}絵本のテキストの特徴を調べるため,絵本と一般的なコーパスにおける文字種の割合を比較する.表~\ref{tb:mojisyu}に,絵本1,200冊(表\ref{tb:size})における文字種と,現代日本語書き言葉均衡コーパス\footnote{http://www.ninjal.ac.jp/kotonoha/}(以下,\bccwj),京都大学テキストコーパス\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php}(以下,京大コーパス),および,基本語データベース\cite{Lexeed:2004j}(以下,\lxd)の定義文,例文に出現する文字種の数と割合を示す.\begin{table}[t]\caption{文字種毎の数と割合:絵本と他のコーパスの比較}\label{tb:mojisyu}\input{1008table03.txt}\end{table}表\ref{tb:mojisyu}から,他のコーパスに比べ,絵本の場合,ひらがなと空白が占める割合が圧倒的に高いことがわかる.また逆に,漢字が占める割合は非常に低い.表~\ref{tb:mojisyu}には,参考として,一文に含まれる平均文字数,および,平均形態素数も記載した.但し,絵本の場合は,一行に含まれる平均文字数を記載しており,必ずしも文単位ではない.また,平均形態素数について,絵本は未知であり,\bccwjは品詞体系が異なるため記載していない.\subsection{絵本のフルアノテーションデータ}\label{sec:full-ano}精度評価のために,絵本の一部に正解の形態素区切り,IPA品詞,読み,できるだけ漢字表記にした原形を付与したフルアノテーションデータ(ラベルありデータ)を作成した.ただし,活用型と活用形は付与していない.付与自体が難しいことと,作業量が増えるためにコストと時間がかかること,これらの情報を今後利用する予定がないことが理由である.絵本に出現した文\refs{eva-org}に対するフルアノテーションデータを\refs{ehon-full}に示す.ただし\refs{ehon-full}では,形態素区切りは\jpn[,]{}で示し,形態素は\jpn[出現形/品詞/読み/原形]{}の形で示し,漢字表記にした原形には\ul{下線}を引いた(以降の例でも同様).\begin{exe}\ex\label{s:eva-org}めには、いちごのあかいみをいれました。\\\small(舟崎靖子「もりのおかしやさん」p.~11(1979,偕成社))\end{exe}\begin{exe}\ex\label{s:ehon-full}め/名詞-一般/メ/\ul{目},に/助詞-格助詞-一般/ニ/に,は/助詞-係助詞/ハ/は,、/記号-読点/、/、,いちご/名詞-一般/イチゴ/\ul{苺},の/助詞-連体化/ノ/の,/記号-空白//,あかい/形容詞-自立/アカイ/\ul{赤い},/記号-空白//,み/名詞-一般/ミ/\ul{実},を/助詞-格助詞-一般/ヲ/を,/記号-空白//,いれ/動詞-自立/イレ/\ul{入れる},まし/助動詞/マシ/ます,た/助動詞/タ/た,。/記号-句点/。/。\end{exe}アノテーションは,言語学者や研究者ではない一般の作業者によって行ったが,特に活用語に対するアノテーションは難しく,既存のラベルありデータを参照しながら作業を行った.また,作業者による不一致や判断のゆれをなくすため,一定の作業の後には同じ出現形の形態素に異なる品詞や原形が振られたもの\footnote{例えば,\jpn[ごしごし]{}を\pos{名詞-サ変接続}にするか,\pos{副詞-一般}にするか,といった判断のゆれが多かった.}をリストアップし,統一的に確認,修正を行う作業を繰り返した.なお,実際の作業では,アノテーションしたデータを順次学習データに追加することで,解析精度自体を高めながら作業を進めた(\ref{sec:exp-add-ehon}章参照).フルアノテーションを行う対象データは2通りの方法で選んだ.まず,対象年齢がはっきりしている\kodomo\190冊を対象とした.また,それ以外の\first,\ehonの中から,絵本をランダムに選び,さらにランダムに1ページずつ選んで対象とした(以下,\random).サイズは表~\ref{tb:test-size}の通りである.フルアノテーションデータは,\ref{sec:exp-adult}章の教師なし分野適応実験の評価用データとして利用するほか,\ref{sec:exp-add-ehon}章の教師あり分野適応実験の学習,評価用データとして利用する.\begin{table}[t]\caption{絵本のフルアノテーションデータのサイズ}\label{tb:test-size}\input{1008table04.txt}\end{table} \section{形態素解析器} \label{sec:morph-kytea}本稿では,既存の辞書やラベルありデータを,対象分野である絵本の特徴にあわせて自動的に変換する手法を提案する.学習器は学習データと独立に選ぶことができるが,本稿では,京都テキスト解析ツールキット\kytea\\cite{Mori:Nakata:Graham:Kawahara:2011j}の学習機能を利用する.\kyteaでは,点予測を採用しており,分類器の素性として,周囲の単語境界や品詞等の推定値を利用せずに,周囲の文字列の情報のみを利用する.そのため,柔軟に言語資源を利用することができ,分野適応が容易だという特徴がある\cite{Mori:Nakata:Graham:Kawahara:2011j}.\kyteaのモデル学習時には,フルアノテーションデータ,部分アノテーションデータ,辞書などの言語資源が利用できる.これらの言語資源は,それぞれ複数利用することができる.また,辞書と部分アノテーションデータはなくてもよい.ここで,フルアノテーションデータとは,文全体に形態素情報が付与されたデータである(\ref{sec:full-ano}節,例\refs{ehon-full}).また,部分アノテーションデータとは,文の一部にだけ単語境界や形態素情報が付与されたデータである.例えば,例\refs{ehon-part}のように,文\refs{eva-org}の\jpn[め]{}と\jpn[み]{}にだけ形態素情報をアノテーションしたデータを,部分アノテーションデータとして利用することができる.誤りやすい語や分野特有の語にだけ集中的にアノテーションを付与して利用できるため,能動学習や分野適応に有効である.\begin{exe}\ex\label{s:ehon-part}め/名詞-一般/メ/\ul{目},には、いちごのあかい,み/名詞-一般/ミ/\ul{実},をいれました。\end{exe}なお,\kyteaの配布版モデルでは,単語分割とUniDicの品詞大分類,読みの付与を行っているが,他の種類の品詞や情報を推定するモデルの構築も可能である.本稿では,既存言語資源との整合性を考慮し,品詞はIPA品詞体系に準拠した.さらに,元の漢字表記の推定も同時に行う.つまり,単語分割,IPA品詞体系の品詞,読み,漢字表記による原形推定を出力とするモデルを構築する.本稿では,フルアノテーションデータとして,コーパス\hinoki\\cite{Bond:Fujita:Tanaka:2006}を用いる.\hinokiには,\lxdの定義文,例文,京大コーパスの全文\footnote{但し,IPA品詞体系で解析しなおしてある.}が含まれている.さらに教師あり分野適応の実験(\ref{sec:exp-add-ehon}章)では,絵本のフルアノテーションデータも利用する.辞書には,\naistj\footnote{http://sourceforge.jp/projects/naist-jdic/}(以下,\ntj),\lxd,および,日本語語彙大系\cite{GoiTaikeij}の固有名詞,および,動植物名\footnote{具体的には,日本語語彙大系の日本語辞書のうち,\izj{543:生物}配下の意味クラスが付与されている語を追加した.}を利用する.但し,\lxdと日本語語彙大系は,本来IPA品詞体系ではないため,自動的に品詞を変換した. \section{絵本を対象とした形態素解析における問題分析} \label{sec:bunseki}本章では,絵本を形態素解析するときに起こる精度低下の原因を調査する.\ref{sec:mojisyu}節では,一般的なテキストと比べて,絵本のテキストでは,空白,ひらがなが圧倒的に多く,漢字が非常に少ないことを示した.これらの違いのうち,直感的には,ひらがなによる曖昧性の増加が精度低下の主要因であり,空白は解析の手がかりとなるように感じられる.しかしこれまで,この直感が正しいかどうか,また,実際にどの程度精度への影響があるのかを調査した研究はない.そこで本章では,ひらがなと空白の形態素解析への影響を調査する.\subsection{実験用解析対象文の作成}\label{sec:bunseki-bun}調査用の評価データとして,絵本の\kodomoのフルアノテーションデータをいくつかのルールに沿って自動的に変換したデータを作成する.つまり,絵本に出現した文\refs{eva-org}(\ref{sec:full-ano}節)から空白を削除したもの(文\refs{eva-del}),空白を読点に変換したもの(文\refs{eva-punc}),ひらがなをできるだけ漢字に変換したもの(文\refs{eva-han}),漢字に変換し,かつ,空白を削除したもの(文\refs{eva-handel}),漢字に変換し,かつ,空白を読点に変換したもの(文\refs{eva-hanpunc})を作成した.\begin{exe}\ex\label{s:eva-del}めには、いちごのあかいみをいれました。\ex\label{s:eva-punc}めには、いちごの、あかい、みを、いれました。\ex\label{s:eva-han}目には、苺の赤い実を入れました。\ex\label{s:eva-handel}目には、苺の赤い実を入れました。\ex\label{s:eva-hanpunc}目には、苺の、赤い、実を、入れました。\end{exe}\subsection{実験と結果}\label{sec:bunseki-exp}調査のため,\hinokiコーパスと\naistjなどの辞書(\ref{sec:morph-kytea}章)をそのまま学習に利用したモデル(以下,\kytea(\Def))を構築する.これは,一般的な形態素解析モデルと同じような学習条件に相当する.また,表~\ref{tb:morph-ex}(\ref{sec:introduction}章)で利用した既存の形態素解析モデルの中で最も誤りの少なかった\mecabも利用する.\begin{table}[b]\caption{評価結果:形態素区切り,および,品詞が一致した数と割合(\kodomo)}\label{tb:res-bunseki}\input{1008table05.txt}\par\vspace{4pt}\smallただし,\refs{eva-org}から\refs{eva-handel}は,対応する評価用データの例の番号を示している.\par\end{table}表~\ref{tb:res-bunseki}に,評価用データ(文\refs{eva-org},および,文\refs{eva-del}から文\refs{eva-hanpunc})のそれぞれに対し,形態素解析を実行し,形態素区切りと品詞一致精度を調べた結果を示す.\subsection{分析}\label{sec:ana-sphan}表~\ref{tb:res-bunseki}の\pos{\Org\refs{eva-org}}の列が,絵本のテキストをそのまま解析した場合の精度であり,\kytea(\Def)では63.0\%,\mecabでは83.2\%だった.\mecabはひらがなのままの評価データの場合でも,ひらがなを考慮しない一般的な学習条件で学習した\kytea(\Def)よりも精度が高い.しかし,新聞である京大コーパスを対象とした場合98\%以上の精度が報告されているのに比べると\footnote{\mecab\ver.0.90の場合.http://mecab.googlecode.com/svn/trunk/mecab/doc/feature.htmlより.},はるかに低い精度である.ここで,空白の影響を分析する.\kytea(\Def)では,空白を削除すると精度が向上する.また,空白を読点に変更すると精度はさらに向上する.これは,学習データに空白が出現しないため,学習できていないためだと考えられる.空白をただ削除するよりも,読点に変更した方が精度が高くなることから,空白の働きをうまく学習することができれば,区切りの判別の手がかりとして有効に働くだろうことが予想できる.実際,\mecabの場合,空白は区切りの判別のための手がかりとして有効に利用されているようであり,空白を削除するとむしろ精度は低下する.また,空白を読点に変更した場合と空白のままの場合の精度は同程度であり,空白が読点の代わりを果たしていることが伺える.特に,\refs{err-del}のように,擬音語や擬態語が連なる場合,空白を削除すると,解析が非常に困難になっており,空白の有無が形態素の判別に有効な手がかりであることがわかる.\begin{exe}\ex\label{s:err-del}「こちょこちょこちょこちょ\\{\small(豊田一彦「こちょこちょももんちゃん」p.~24(2010,童心社))}\\COR:「,\ul{こちょ,,こちょ,,こちょ,,こちょ}\\RES:「,\ul{こ,ちょこ,ちょこちょこ,ちょ}\\\small(ただし,COR:は正解,RES:は空白を削除した場合の結果)\end{exe}次に,ひらがなが多いことによる影響を分析する.評価データ中のひらがなを漢字に変換した場合,\kytea(\Def)でも\mecabでも,ひらがなのままの評価データより高い精度が得られる.空白を読点に変換した場合の精度(表~\ref{tb:res-bunseki}の\pos{\Sp\\refs{eva-punc}}と\pos{\HanSp\\refs{eva-hanpunc}})で比較すると,\kytea(\Def)では$+11.4$\%,\mecabでは$+8.2$\%精度が向上しており,漢字は大きな手がかりとなっていることがわかる.つまり,一般的なテキストとの大きな違いのうち,ひらがなによる曖昧性の増大が解析精度の低下の主な要因だといえる.なお,元データのままだと解析に失敗するが,漢字に変換すると正解する例には,\refs{err-org}などがあった.\begin{exe}\ex\label{s:err-org}みずをのみにきたうしさんに\hfill{\small(たちもとみちこ「おほしさま」p.~10(2006,教育画劇))}\\COR:みず,を,,のみ,に,き,た,,うし,さん,に,\\RES:みず,を,,のみ,に,\ul{きた},,\ul{うしさん},に\\RES2:水,を,,飲み,に,\ul{来,た},,\ul{牛,さん},に\\\small(ただし,COR:は正解,RES:は結果,RES2:は漢字に変換した場合の結果)\end{exe} \section{提案手法} \label{sec:morph}本章では,絵本の特徴に合わせたラベルありデータと辞書の変換方法を提案する(\ref{sec:train-data},\ref{sec:dic}節).また,ラベルありデータと辞書の変換と追加の必要性について議論する(\ref{sec:comp-kudo}節).\subsection{ラベルありデータの変換方法}\label{sec:train-data}\ref{sec:bunseki}章で示したように,絵本の解析では,空白の働きを学習することと,ひらがなが多い文でも解析できることが必要である.そこで,既存のラベルありデータである\hinokiコーパスを3通りの方法で自動的に変換する.例えば,文\refs{lxdex-org}は,\lxdでの見出し語\jpn[きしめん]{}に付与された例文である.この文に,まず,句読点の直後を除く文節毎に空白を挿入する(文\refs{lxdex-sp}).また,すべての漢字をひらがなの読みに変換する(文\refs{lxdex-hira}).句読点の直後を除く文節毎に空白を挿入し,かつ,ひらがなに変換する(文\refs{lxdex-hirasp}).このように,元の文に対して3通りの変換を行い,ラベルありデータデータを作成する.\begin{exe}\ex\label{s:lxdex-org}寄せ鍋,に,きしめん,を,入れる,。\ex\label{s:lxdex-sp}寄せ鍋,に,,きしめん,を,,入れる,。\ex\label{s:lxdex-hira}よせなべ,に,きしめん,を,いれる,。\ex\label{s:lxdex-hirasp}よせなべ,に,,きしめん,を,,いれる,。\end{exe}さらに,元の漢字表記の推定も同時に行うため,元の漢字表記による原形を利用する.つまり,文\refs{lxdex-hira}や\refs{lxdex-hirasp}のようにひらがなに変換した場合でも,原形は漢字表記を利用する.そのため,例えば\refs{lxdex-hira}は,実際には\refs{lxdex-hira-full}のような形で与えられる.\begin{exe}\ex\label{s:lxdex-hira-full}よせなべ/名詞-一般/ヨセナベ/\ul{寄せ鍋},に/助詞-格助詞-一般/ニ/に,きしめん/名詞-一般/キシメン/きしめん,を/助詞-格助詞-一般/ヲ/を,いれる/動詞-自立/イレル/\ul{入れる},。/記号-句点/。/。\end{exe}\ref{sec:exp-adult}章では,ラベルありデータの変換方法毎の効果を検証するため,これらの組み合わせを変えて利用した場合の精度評価を行う.なお,空白の挿入に利用した文節区切りや,ひらがなへの変換に利用した読みは,元々コーパスに付与されていたものであり,自動的に変換することができる.本稿では\hinokiコーパスを利用したが,京大コーパスでも文節情報や読みは付与されているため,同様の変換ができる.また\bccwjにも読みは付与されている.文節情報は付与されていないが,形態素情報は付与されているため,助詞と自立語が連続する箇所に空白をいれるなどの簡単なルールによって,同様の自動的変換が可能である.\subsection{辞書の変換方法}\label{sec:dic}\ref{sec:morph-kytea}章で紹介した通り,辞書には\ntj,\lxd,日本語語彙大系の固有名詞,および,動植物名を利用しており,これらを絵本の特徴にあわせて変換する.まず,\ntjと\lxdの漢字やカタカナのエントリをひらがなに変換したエントリも作成し,辞書に追加する.固有名詞や動植物名は,カタカナで表記されることも多いため,カタカナ,ひらがなの両方に変換したエントリも作成し,辞書に追加する.このとき,原形には漢字やカタカナの表記を用いる.例えば,\jpn[伊予柑]{}の場合,元の見出し語から得られる辞書エントリは\refs{iyokan-org}となるが,ひらがなのエントリ\refs{iyokan-hira}とカタカナのエントリ\refs{iyokan-kata}も追加した.しかし,人名の固有名詞だけは,カタカナはカタカナのまま,ひらがなはひらがなのまま原形とした.これは,ひらがなで出てくる人名の漢字表記が何かは決められないためである.最終的に利用した辞書サイズは,表~\ref{tb:dic-size}の通りである.\begin{exe}\ex\label{s:iyokan-org}伊予柑/名詞-一般/イヨカン/伊予柑\ex\label{s:iyokan-hira}いよかん/名詞-一般/イヨカン/伊予柑\ex\label{s:iyokan-kata}イヨカン/名詞-一般/イヨカン/伊予柑\end{exe}\begin{table}[b]\caption{辞書サイズ:ひらがなやカタカナに展開済み}\label{tb:dic-size}\input{1008table06.txt}\end{table}\subsection{辞書と学習データの追加の必要性についての議論}\label{sec:comp-kudo}\citeA{Kudo:Ichikawa:Talbot:Kazawa:2012j}は,Web上のひらがな交じり文に対する形態素解析手法の提案にあたり,次のように述べている.\begin{quote}ひらがな交じりの解析も,通常の日本語の文の解析であることには変わりがないため,以下のような一般的に用いられている既存手法で解析精度を向上させることが可能である.\\1.ひらがな単語のユーザ辞書への追加\\2.ひらがな交じり文を含む学習データを人手で作成し,再学習\\1.は簡単な手法であるが,ひらがなは日本語の機能語に用いられているため,むやみにひらがな語を追加すると副作用により精度が低下する可能性がある.2.の方法は学習データの作成が必要なためコストが高い.\end{quote}これらの理由によって,\citeA{Kudo:Ichikawa:Talbot:Kazawa:2012j}では,辞書への追加や学習データの追加は行われていない.\citeA{Kudo:Ichikawa:Talbot:Kazawa:2012j}の手法は,広い分野に対して安定的に比較的高い精度で解析を行える.しかし,特定の分野における実用を考えた場合,対象分野においてより高い精度を得ることが重要である.確かに,1.に関して,ひらがな語を多く追加することによる副作用の可能性は否定できないが,絵本の場合,いずれの語でもひらがなで記述される可能性があるため,すべてのエントリをひらがなにする必要がある.また,2.に関しては,提案手法では自動的に学習データを作成するので問題ない.本稿では,提案手法で変換・作成した辞書と学習データを学習に用いることで,絵本に対しては既存モデルより高い精度が得られることを示す(\ref{sec:exp-adult}章).ただし,本提案手法で得られる精度は,既存モデルよりは高いが,実用的にはまだ改良の必要がある.そのため,さらなる精度向上のためには,能動学習や対象分野のラベルありデータの構築が必要となるが,その際も,ベースとなるモデルの精度がより高い方がより効率的である. \section{評価実験(1):教師なし分野適応} \label{sec:exp-adult}本章では,前章で提案した手法により変換した既存言語資源だけを学習に利用する評価実験,つまり,教師なし分野適応の実験を行う.前章で紹介した通り,ラベルありデータは3通りの変換により作成した.これらと,変換前のラベルありデータを組み合わせて学習に用いた場合の精度評価を行った(表~\ref{tb:res}).表~\ref{tb:res}では,形態素区切り,および,品詞の細分類までが一致した精度を示している.表~\ref{tb:res}は,絵本に出現した文に対する解析精度であり,表~\ref{tb:res-bunseki}の左端\pos{元データ\refs{eva-org}}の列に当たる.比較のため,表~\ref{tb:res}にも結果を再掲した.\begin{table}[b]\caption{評価結果:形態素区切り,および,品詞が一致した数と割合(\kodomo)}\label{tb:res}\input{1008table07.txt}\vspace{4pt}\smallただし,\refs{lxdex-org}から\refs{lxdex-hirasp}は,対応する学習データの例の番号を示している.\\また,[A]--[C]は参照用に付与した記号である.\par\end{table}既存言語資源をそのまま学習に利用した場合,精度は63.0\%と非常に低いが,空白を追加したり,ひらがなに変換した学習データを利用することで,88.5\%まで精度を向上できた.つまり,新聞データなどの一般向けのテキストを学習データに利用する場合でも,絵本での出現傾向にあわせて変換することで,相当な精度向上が出来た.ここで,空白を追加した学習データだけを利用する場合[B]より,空白を追加しない学習データも利用する[C]の方が精度が高かった.これは,すべての絵本で全文節ごとに空白が入るわけではないので,両方を学習に利用した方が良かったのだと考えられる.同様に,ひらがなに変換した学習データだけを利用するより,漢字のままの学習データも利用する方が若干精度が高かった.これは,すべての絵本で漢字が全く出現しないわけではないためだと考えられる.以降,最も高い精度を得られたラベルありデータ(表~\ref{tb:res}[C]の``両方利用\refs{lxdex-org}〜\refs{lxdex-hirasp}'')を\bestHINOKI,得られたモデルを用いた解析器を\kytea\(\bestHINOKI)と呼び,これをベースに,さらに改良を加えることを検討したい.また,絵本によって,空白や漢字の含有率は非常に異なるため,これらの含有率によって学習に利用するデータを変更することも考えられる. \section{評価実験(2):教師あり分野適応} \label{sec:exp-add-ehon}\ref{sec:exp-adult}章の実験では,ラベルありデータとして既存言語資源から得たコーパスだけを用いた.しかし分野適応では,同じ分野のラベルありデータを追加すると精度が向上することはよく知られており,本章では,絵本自体のラベルありデータを学習に用いた実験を行う.本章の目的は二つある.一つは,提案手法によって既存言語資源から自動的に獲得したラベルありデータが,どの程度の絵本自体のフルアノテーションデータと同程度の効果があるかを調べることである.もう一つは,絵本自体へアノテーションするときの効率的な方法を示すことである.\subsection{学習曲線}\label{sec:exp-add-ehon-full}本節では,フルアノテーションデータ\kodomo(\ref{sec:full-ano}節)の各絵本をそれぞれ10分割し,それらを徐々に学習データに追加した場合の学習曲線を調べる.ここで,\ref{sec:exp-adult}章で最も良い精度を得た学習データである\bestHINOKIと絵本を両方学習に利用する場合と,絵本だけを学習に利用する場合の両方の実験を行った.また,評価は2通り行う.つまり,学習データを追加した絵本と,(1)同じ絵本のテキストによる評価(\kodomoを利用),(2)違う絵本のテキストによる評価(\randomを利用),を行う.本節での精度評価は,品詞まで一致した精度に加え,原形まで一致した精度評価も行っている.本稿で構築している形態素解析モデルでは,出現形がひらがなでも,原形は出来る限り漢字表記を推定している(\ref{sec:train-data}節).ひらがなで出現した語に対し,漢字表記を推定することができれば,その後の解析に有用だからである.例えば,\jpn[め]{}という語が\jpn[目]{}なのか\jpn[芽]{}なのか,\jpn[はな]{}という語が\jpn[鼻]{}なのか\jpn[花]{}なのか,などは,幼児の言語発達を調べるときにも区別する必要がある\cite{Ogura:Watamaki:2008}.これは,本来,語義曖昧性解消問題として取り組むべき課題かもしれないが,形態素解析時に同時に推定が可能なら利便性が高い.そこで,本節では,形態素解析時の漢字の原形推定をどの程度の精度で行うことができるかも同時に調査した.\begin{figure}[b]\setlength{\captionwidth}{197pt}\begin{minipage}{199pt}\includegraphics{21-3ia1008f1.eps}\hangcaption{学習曲線:同じ絵本を学習データに追加(\kodomo,品詞一致)}\label{fig:lc-self-POS}\end{minipage}\hfill\begin{minipage}{199pt}\includegraphics{21-3ia1008f2.eps}\hangcaption{学習曲線:異なる絵本を学習データに追加(\random,品詞一致)}\label{fig:lc-rand-POS}\end{minipage}\end{figure}\begin{figure}[b]\setlength{\captionwidth}{197pt}\begin{minipage}[t]{199pt}\includegraphics{21-3ia1008f3.eps}\hangcaption{学習曲線:同じ絵本を学習データに追加(\kodomo,原形一致)}\label{fig:lc-self-BS2}\end{minipage}\hfill\begin{minipage}[t]{197pt}\begin{center}\includegraphics{21-3ia1008f4.eps}\end{center}\hangcaption{学習曲線:異なる絵本を学習データに追加(\random,原形一致)}\label{fig:lc-rand-BS2}\end{minipage}\end{figure}ここで,図~\ref{fig:lc-self-POS},\ref{fig:lc-self-BS2}は,\kodomoの各絵本の1/10を評価データとし,それ以外を順次追加した場合の学習曲線を示している.また,図~\ref{fig:lc-rand-POS},\ref{fig:lc-rand-BS2}は,\randomを評価データとした場合の精度を示しており,\kodomoのすべてを学習データに追加した場合の精度も示している.また,図~\ref{fig:lc-self-POS},\ref{fig:lc-rand-POS}は,品詞一致の精度,図~\ref{fig:lc-self-BS2},\ref{fig:lc-rand-BS2}は,原形まで一致した精度を示している.ただし,学習データでは,コーパス\hinokiの漢字等による原形をそのまま原形として利用したため,学習データの原形に表記ゆれが存在する.そこで,原形一致精度の評価時には,\jpn[仔牛]{}と\jpn[子牛]{},\jpn[雄]{}と\jpn[オス]{}のように,表記ゆれだとみなせるものは正解に含めている\footnote{表記ゆれの判断は,日本語語彙大系によった.}.また,\mecabは漢字表記による原形推定はしないため,ひらがなの原形も正解とした.標準表記の決定,学習データの標準表記への変換は今後の課題としたい.\subsection{提案手法の効果:評価(2)}\label{sec:eva2}提案手法で作成した\bestHINOKIの効果を調べる.図~\ref{fig:lc-self-POS}〜\ref{fig:lc-rand-BS2}から,すべての場合で,\bestHINOKIに絵本データを追加した方が,絵本データだけの場合や,\bestHINOKIだけの場合より精度が向上しており,絵本とは全く異なる一般向けのテキストであっても,\bestHINOKIを学習に利用する方が良いことがわかる.特に,図~\ref{fig:lc-rand-POS},\ref{fig:lc-rand-BS2}に示した通り,別の絵本(\random)に対する精度は,学習データに絵本だけを用いる場合より非常に高い.\randomの場合,品詞一致でも,原形一致でも,絵本の学習データだけで\kytea\(\bestHINOKI)と同等の精度を得るには,\kodomoのフルアノテーションデータ約11,000行,90,000形態素が必要である.これは,\kodomoのフルアノテーションデータの8/10近くにあたる.これだけのフルアノテーション作業には相当な時間とコストがかかっており,提案手法による自動的な変換による精度向上の効果は高い.なお,\randomに対する精度は,すべての\kodomoを学習データに追加した場合で,形態素区切り98.3\%,品詞完全一致91.1\%,品詞大分類94.7\%,原形一致89.0\%だった.これが,新しい絵本を解析する場合の精度にあたる.\subsection{アノテーション方針の提案}\label{sec:ano-houshin}本節では,同じ絵本を学習データとして追加した場合の効果を調べる.図~\ref{fig:lc-self-POS},\ref{fig:lc-self-BS2}から,同じ絵本の学習データは非常に有効であることがわかる.\bestHINOKIを使わない場合でも,同じ絵本の10分の2を学習データとして用いただけで\kytea\(\bestHINOKI)の精度より高い精度を得ることができる.このように,同じ絵本のデータの追加のほうが効果が圧倒的に高いため,同じ分量のアノテーションを行うのであれば,少しずつでも,できるかぎり全ての絵本からアノテーションすることが望ましい.同じ絵本のアノテーションが特に有効な理由には,同じ固有名詞(\ref{sec:errors},\ref{sec:add-proc}節参照)や,同じ表現が出現することがあげられるだろう.絵本は,例えば,例\refs{ex-repeat}のように一部の語を変えて同じ表現が繰り返されることが多く,一部をアノテーションする効果が高い.なお,\refs{ex-repeat}の絵本の場合,\jpn[なんてなく?]{}は11回出現している.\begin{exe}\ex\label{s:ex-repeat}かえるは\\\ul{なんてなく?}\\にわとりは\\\ul{なんてなく?}\hspace{5mm}\small(凹工房「どうぶつなんてなく?」p.~2--3(2008,ポプラ社))\end{exe}\subsection{誤り内容の変化}\label{sec:errors}\newcommand{\COM}{}\begin{figure}[b]\begin{minipage}{0.48\hsize}\begin{center}\includegraphics{21-3ia1008f5.eps}\end{center}\caption{\COM(\kodomo,動詞)}\label{fig:lc-self-err-VERB}\end{minipage}\hfill\begin{minipage}{0.48\hsize}\begin{center}\includegraphics{21-3ia1008f6.eps}\end{center}\caption{\COM(\random,動詞)}\label{fig:lc-rand-err-VERB}\end{minipage}\end{figure}\begin{figure}[b]\setlength{\captionwidth}{197pt}\begin{minipage}{199pt}\includegraphics{21-3ia1008f7.eps}\hangcaption{\COM(\kodomo,名詞-固有名詞)}\label{fig:lc-self-err-PROP}\end{minipage}\hfill\begin{minipage}{199pt}\includegraphics{21-3ia1008f8.eps}\hangcaption{\COM(\random,名詞-固有名詞)}\label{fig:lc-rand-err-PROP}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{0.48\hsize}\begin{center}\includegraphics{21-3ia1008f9.eps}\end{center}\caption{\COM(\kodomo,感動詞)}\label{fig:lc-self-err-KANDO}\end{minipage}\hfill\begin{minipage}{0.48\hsize}\begin{center}\includegraphics{21-3ia1008f10.eps}\end{center}\caption{\COM(\random,感動詞)}\label{fig:lc-rand-err-KANDO}\end{minipage}\end{figure}本節では,絵本を学習データに追加した場合の,誤り内容の変化を調査する.解析を誤った語を品詞毎に集計し,\pos{動詞}\pos{名詞-固有名詞}\pos{感動詞}について,それぞれ図~\ref{fig:lc-self-err-VERB}と\ref{fig:lc-rand-err-VERB},\ref{fig:lc-self-err-PROP}と\ref{fig:lc-rand-err-PROP},\ref{fig:lc-self-err-KANDO}と\ref{fig:lc-rand-err-KANDO}に示した.図~\ref{fig:lc-self-err-VERB}〜\ref{fig:lc-rand-err-KANDO}では,誤りの絶対数と,全誤り数に占める対象品詞の割合をプロットしている.誤りの絶対数はどの品詞でも減少しているが,全誤りに占める各品詞の割合を見ると,比較的学習しにくい品詞がわかる.\pos{動詞}(図~\ref{fig:lc-self-err-VERB},\ref{fig:lc-rand-err-VERB})は\kodomoでも\randomでも相対的に上昇している.\pos{固有名詞}(図~\ref{fig:lc-self-err-PROP},\ref{fig:lc-rand-err-PROP})の場合,\kodomoでは急激に割合が下がるが,\randomでは逆に相対的に上昇している.\pos{固有名詞}は,絵本間で共通のものが少なく,しかも,ひらがな(\mbox{\jpn[ぐり]{}}\footnote{\label{prop1}「ぐりとぐら」(なかがわりえことやまわきゆりこ(1963,福音館書店))などより.},\jpn[ぐら]{}$^{\ref{prop1}}$,\jpn[もものこ]{}\footnote{「もものこさん」(あまんきみこさくかのめかよこえ(2011,福音館書店))より.}など)や,ひらがなカタカナ混じり(\jpn[ウサこ]{}\footnote{\label{prop2}「いけるといいねトイレ」(原作やなせたかし作画東京ムービー(2001,フレーベル館))などより.},\jpn[ネコみ]{}$^{\ref{prop2}}$など)など,非常に解析が難しいものが多いからだと思われる.対照的に,\pos{感動詞}(図~\ref{fig:lc-self-err-KANDO},\ref{fig:lc-rand-err-KANDO})は,\randomでも誤る割合が下がっている.これは,異なる絵本でも共通の表現が多いためだと考えられる.例えば,\random側で,\bestHINOKIだけでは正解しなかったが,絵本を追加していくことで正解するようになった感動詞には,\jpn[あっぷっぷ]{},\jpn[ごくろうさま]{},\mbox{\jpn[ギャオー]{}}などがあった. \section{考察} \label{sec:kousatsu}本章では,前章までに得たモデルをさらに改良するための問題分析と改良案の提示を行う.まず,\ref{sec:age-acc}節では,対象年齢と形態素解析精度の関係に着目し,精度低下のより詳細な原因調査を行う.\ref{sec:add-proc}節では,絵本のラベルありデータを追加しても精度が向上しにくかった固有名詞に焦点をあて,固有名詞の部分アノテーションによる精度向上の効果を検証する.さらに,\ref{sec:other}節では,提案手法の絵本以外のコーパスへの適用可能性についても考察する.\subsection{対象年齢と形態素解析精度}\label{sec:age-acc}\ref{sec:ehon-db}節で述べたように,\kodomoは対象年齢がはっきり設定されている.そこで本節では,\kodomoを用いて,対象年齢と形態素解析精度の関係を分析する.\kytea\(\bestHINOKI)と,\mecabを使って元データを解析した場合の対象年齢と精度の関係を図~\ref{fig:age-acc}に示す.ただし,図~\ref{fig:age-acc}では,\kod{012}を2歳児にプロットしている.図~\ref{fig:age-acc}から,\kytea\(\bestHINOKI)でも\mecabでも,対象年齢が低いほど形態素解析精度も低いことがわかる.どちらの解析器も,基本的に一般向けのコーパスを学習データとしてモデルが作成されており,対象年齢が上がるとより一般向けの文に近づいていることが図~\ref{fig:age-acc}からも読み取れる.\begin{figure}[b]\begin{center}\includegraphics{21-3ia1008f11.eps}\end{center}\caption{対象年齢と形態素解析(形態素区切りと品詞一致)精度の関係(\kodomo)}\label{fig:age-acc}\end{figure}\begin{table}[b]\caption{文字種毎の数と割合:絵本の対象年齢ごと(\kodomo)}\label{tb:mojisyu-kodomo}\input{1008table08.txt}\end{table}表~\ref{tb:mojisyu}(\ref{sec:mojisyu}節)で示したように,絵本と京大コーパスなどに出現する文字種を比較すると,絵本はひらがなと空白が多く,漢字が少ない点が顕著に異なっていた.また,\ref{sec:ana-sphan}節では,特にひらがなが形態素解析精度の低下に非常に関わることを示した.そこで,対象年齢によってそれらの文字種の出現傾向が変わるかどうかを,\kodomoのデータを使って調査した(表~\ref{tb:mojisyu-kodomo}).表~\ref{tb:mojisyu-kodomo}によると,文字種の出現傾向に絵本全体の傾向と顕著な違いは見られず,対象年齢によって明らかな変化は見られなかった.つまり,ひらがなの多さだけが精度低下の原因ではないことがわかる.ただし,表~\ref{tb:mojisyu-kodomo}に参考として示した,行平均の文字数と形態素数は,対象年齢が上がるにつれ増加している.京大コーパスと\lxdの文平均の文字数や形態素数(表~\ref{tb:mojisyu})と比較すると,文平均か,行平均かの差はあるが,対象年齢が上がるにつれ\lxdの数値に近づいており,辞書の例文や定義文に近い長さになってきていることがわかる.つまり,語の羅列ではなく,文になってきていると考えられる.そこで,文字種だけではわからない差分を調査するため,空白を除く全形態素に占める品詞毎の割合を調査した.その結果,対象年齢によってもっとも変化が大きかった品詞は,\pos{助詞}\pos{記号}\pos{副詞}\pos{感動詞}だった.図~\ref{fig:age-hinshi}に,これらの品詞の占める割合の対象年齢毎の変化と,\lxdでの割合を示す.ここで,\pos{助詞}の割合は対象年齢と共に単調増加しており,単語の羅列から助詞などを含む文となっていることがわかる.\pos{記号}は,句読点や括弧などを含むため,句読点を使った文や会話文の量や長さに関係すると考えられる.\pos{記号}は,\kod{012}と\kod{3}の間で大きく増加しているが,単調増加ではなく,\kod{5}や\lxdでの割合はむしろ\kod{3}や\kod{4}より低い.これは文が長くなるため記号の占める割合が低くなるのだと考えられる.例えば,会話文の場合,記号である\jpn[「]{}と\jpn[」]{}の間に発話内容が記述されるが,発話内容が長くなれば,記号の占める割合は低くなる.一方,\pos{副詞}の割合は対象年齢に応じて単調減少している.\pos{副詞}には擬音語や擬態語が多く含まれ,対象年齢が低いほど,そうした語の含まれる割合が高いことがわかる.また,\pos{感動詞}の割合は\kod{012}と\kod{3}の間で大きく減少している.\pos{感動詞}には挨拶などが含まれ,より小さな子供向けの絵本では,挨拶などが多く出現するためだと思われる.\begin{figure}[b]\begin{center}\includegraphics{21-3ia1008f12.eps}\end{center}\caption{空白を除く全形態素に占める品詞割合:絵本対象年齢毎(\kodomo)と\lxd}\label{fig:age-hinshi}\end{figure}なお,絵本毎に精度を調査すると,品詞一致精度で最も精度の高かった絵本と,最も精度の低かった絵本は,両方とも\kod{012}に含まれた.これらは,一行一形態素程度の非常に短い文からなっており,\jpn[ぴょん]{}\jpn[ぼちゃん]{}\jpn[ぶらぶら]{}などの擬音語や擬態語の繰り返しがほとんどだった.文脈はほぼないため,学習データや辞書に該当する語が存在するかどうかに依存して精度が大きく変化したとみられる.そのため,より対象年齢の低い子供向け絵本の解析精度の向上は,擬音語や擬態語の辞書や学習データの拡充にかかっているといえるだろう.今後は,擬音語や擬態語の収集による精度向上にも取り組みたい.\subsection{固有名詞のアノテーション}\label{sec:add-proc}\ref{sec:errors}節で述べたように,固有名詞は他の絵本を追加しても解析精度が向上しにくく,学習データなしでは解析が難しい語が多い.その上,固有名詞の誤りは数値以上に精度が悪い印象を与えかねない.しかし一方で,活用語や非自立語などに比べ,固有名詞のアノテーションや辞書への追加は非常に容易である.ここで,\randomに出現した固有名詞でもっとも誤り回数が多かった(各4回)\jpn[ぐり]{}と\jpn[ぐら]{}に着目する.これらを辞書登録しただけでは解析精度は変わらなかったが,\kyteaでは,部分アノテーションしたデータを学習データに加えることができる(\ref{sec:morph-kytea}章).そこで,\jpn[ぐり]{}と\mbox{\jpn[ぐら]{}}に対し部分アノテーションを行い,その効果を検証した.部分アノテーションは以下の流れで行った.まず,[1]対象語を含む文を字面一致で抽出し,次に,[2]人手で該当箇所に対象語以外の語が含まれないか確認し,最後に,[3]自動的に部分アノテーションを実行した.ここで,\jpn[ぐり]{}と\jpn[ぐら]{}の場合,[2]の確認作業で,\jpn[どん\ul{ぐり}]{},\jpn[うす\ul{ぐら}い]{},\mbox{\jpn[\ul{ぐら}い]{}}が混じっていることがわかった.[3]では,最長一致によってこれらの語のアノテーションも自動的に行った.例えば,文\refs{gurigura}の場合,下線部をそれぞれ,\jpn[ぐり/名詞-固有名詞-人名-一般/グリ/ぐり]{},\jpn[ぐらい/助詞-副助詞/グライ/ぐらい]{}として部分アノテーションした.\begin{exe}\ex\label{s:gurigura}\ul{ぐり}がけいとをまくと、えんどうまめ\ul{ぐらい}になりました。\\\small(なかがわりえことやまわきゆりこ「ぐりとぐらのえんそく」p.~15(1979,福音館書店))\end{exe}これにより部分アノテーションされたのは,\jpn[ぐら]{}135箇所,\jpn[ぐり]{}131箇所,\jpn[どんぐり]{}1箇所,\jpn[うすぐらい]{}2箇所,\jpn[ぐらい]{}6箇所だった.これらの部分アノテーションデータを学習データに追加したところ,原形一致の精度が$+0.2$\%改良された.品詞一致までの精度は,小数点第一位までの比較では同じだったが,\jpn[ぐり]{}と\jpn[ぐら]{}に関する誤りはなくなった.固有名詞は学習しにくく,かつ,同じ絵本では何度も出現するため,固有名詞のみを先にアノテートすることは有効だと考えられる.固有名詞を含めた固有表現や未知語の抽出方法に関する研究は多く\cite{Murawaki:Kurohashi:2010j,Katsuki:Sasano:Kawahara:Kurohashi:2011j,Sasano:Kurohashi:2007j},特に格フレーム情報を利用する方法\cite{Sasano:Kurohashi:2008j}は,絵本でも有効だと考えられる.今後は,絵本やシリーズ毎の固有名詞の抽出や,該当固有名詞を含む他の語の確認・抽出を自動・半自動化することにより,精度向上を目指したい.また,\citeA{Neubig:Nakata:Mori:2011}は,SVM平面からの距離を用いて確信度の低いデータを選び,部分アノテーションして学習データに追加する能動学習を提案している.固有名詞のように,一気にアノテートできる部分を学習に追加した後は,\citeA{Neubig:Nakata:Mori:2011}と同様に能動学習を行うことが考えられる.\subsection{他分野への適用可能性}\label{sec:other}本節では,提案手法の絵本以外への適用可能性について考察する.提案手法は,既存の言語資源と解析対象の言語資源の特徴が大きく異なる場合に有用である.例えば,小学生は学年毎に習う配当漢字が決められている.そのため教科書では,習っていない漢字をひらがなで記載するため,漢字とひらがなが一般向け文章とは全く異なる交じり方をする場合があり,形態素解析を難しくしている.例えば,\mbox{\jpn[音楽]{}}の場合,\jpn[音]{}は1年生,\mbox{\jpn[楽]{}}は2年生の配当漢字であるため,\mbox{\jpn[音がく]{}}と記載される場合がある\footnote{畑中良輔ほか「小学生の音楽2」(2006,教育芸術社)より.}.そこで,教科書等の学童用の文章の解析用には,学年配当漢字に基づいて利用できる漢字を制限し,それ以外はひらがなに変換して学習データを作成することが考えられる.あるいは,Webなどに出現するくだけた文章の解析用として,文末表現の変換,利用語彙の制限などにより,学習データを変換することも考えられる.このように,学習データを対象分野に合わせて自動的に変換するルールを決定できる場合には,本提案手法が適用できると考えられる. \section{まとめと今後の課題} \label{sec:conclusion}これまで,主に新聞などのテキストを対象とした解析では,形態素解析器を始めとして高い解析精度が達成されている.しかし分野の異なるテキストに対しては,既存の解析モデルで,必ずしも高い解析精度を得られるわけではない.そこで本稿では,既存の言語資源を対象分野の特徴にあわせて自動的に変換する手法を提案した.本稿では,絵本を解析対象とし,既存の言語資源を絵本の特徴にあわせて自動的に変換し,学習に用いることで精度向上できることを示した.まず,\ref{sec:target}章では,解析対象である絵本データベースの紹介を行った.また,新聞などのテキストと絵本のテキストの文字種毎の割合を比較し,絵本では,漢字が少なく,空白とひらがなが多いことを示した.\ref{sec:morph-kytea}章では,実験で利用する形態素解析器\kyteaの学習機能について紹介した.また,\ref{sec:bunseki}章では,絵本の形態素解析における問題分析のため,絵本の評価用データに対し,ひらがなを漢字に変換したり,空白を削除するなどの処理を行った場合の解析精度の変化を調査し,ひらがなが多いことが解析精度低下の主な原因であることを示した.\ref{sec:morph}章では,\ref{sec:target}章と\ref{sec:bunseki}章の分析結果に基づき,既存の言語資源を絵本の特徴にあわせて変換する手法を提案した.\ref{sec:exp-adult}章では,提案手法によって得た言語資源だけを学習に用いた教師なし分野適応の実験を行い,既存の一般的な形態素解析モデルより高い精度(品詞一致精度で88.5\%)が得られることを示した.また\ref{sec:exp-add-ehon}章では,絵本自体のラベルありデータを学習に用いた教師あり分野適応の実験を行い,学習曲線を調べた.ここで,提案手法によって得た既存言語資源によるラベルありデータは,絵本自体のラベルありデータ約11,000行,90,000形態素と同程度の効果があることを示した.さらに,絵本自体にアノテーションを行う場合,できるかぎり全ての絵本から,アノテーション対象を選択することが効率的であることを示した.また,新しい絵本に対する解析精度は,形態素区切り98.3\%,品詞完全一致で91.1\%,品詞大分類で94.7\%,漢字の原形一致で89.0\%が見込めることを示した.\ref{sec:kousatsu}章の考察では,絵本の対象年齢毎の形態素解析精度の変化を調査し,対象年齢が低いほど解析精度も低く,その原因としては,文字種より,助詞などを含む文としての形態を取るかどうかに関連することを示した(\ref{sec:age-acc}節).また,他の絵本を学習データに追加しても,固有名詞の推定精度の向上は難しいが,固有名詞のアノテーションは,活用語などに比べて容易であることから,固有名詞に対して半自動的に部分アノテーションを行うことで,固有名詞の解析精度が向上できることを示した(\ref{sec:add-proc}節).今後は,標準表記を決定し,学習データの標準表記への変換と,漢字による原形推定精度の向上に取り組みたい.また,絵本やシリーズ単位での,固有名詞(人や動物の名前)の自動的発見,および,固有名詞の(半)自動的な部分アノテーションに取り組みたい.また,本稿で紹介した絵本用形態素解析モデルを利用し,子供向けの文を対象とした難易度測定や絵本の対象年齢の推定\cite{Fujita:Kobayashi:Taira:Minami:Tanaka:2014j},子供の発達や興味に応じた絵本リコメンデーションを行う予定である.\acknowledgment\kyteaの利用に際して大変ご協力をいただいた京都大学森信介先生,奈良先端科学技術大学院大学GrahamNeubig先生に感謝する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bond,Fujita,\BBA\Tanaka}{Bondet~al.}{2006}]{Bond:Fujita:Tanaka:2006}Bond,F.,Fujita,S.,\BBA\Tanaka,T.\BBOP2006\BBCP.\newblock\BBOQ{TheHinokiSyntacticandSemanticTreebankofJapanese.}\BBCQ\\newblock{\BemLanguageResourcesandEvaluation(SpecialissueonAsianlanguagetechnology)},{\Bbf40}(3--4),\mbox{\BPGS\253--261}.\bibitem[\protect\BCAY{藤田,小林,平,南,田中}{藤田ら}{2014}]{Fujita:Kobayashi:Taira:Minami:Tanaka:2014j}藤田早苗\JBA小林哲生\JBA平博順\JBA南泰浩\JBA田中貴秋\BBOP2014\BBCP.\newblock絵本を基にした対象年齢推定方法の検討.\newblock\Jem{人工知能学会第28回全国大会発表論文集},3D4-4.\bibitem[\protect\BCAY{萩原\JBA関根}{萩原\JBA関根}{2012}]{Hagiwara:Sekine:2012j}萩原正人\JBA関根聡\BBOP2012\BBCP.\newblock半教師あり学習に基づく大規模語彙に対応した日本語単語分割.\newblock\Jem{言語処理学会第18回年次大会発表論文集},\mbox{\BPGS\1280--1283}.\bibitem[\protect\BCAY{服部\JBA\青山}{服部\JBA\青山}{2013}]{Hattori:Aoyama:2013j}服部正嗣\JBA青山一生\BBOP2013\BBCP.\newblock\JBOQ{グラフ索引を用いた絵本の類似探索〜特徴の融合と結果のグラフ可視化〜}.\JBCQ\\newblock\Jem{情報処理学会研究会第10回ネットワーク生態学シンポジウム}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原ら}{1997}]{GoiTaikeij}池原悟\JBA宮崎雅弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock日本語語彙大系.\newblock岩波書店.\bibitem[\protect\BCAY{神嶌}{神嶌}{2010}]{Kamishima:2010j}神嶌敏弘\BBOP2010\BBCP.\newblock転移学習.\newblock\Jem{人工知能学会誌(JSAI)},{\Bbf25}(4),\mbox{\BPGS\572--580}.\bibitem[\protect\BCAY{笠原\JBA佐藤\JBABond\JBA田中\JBA藤田\JBA金杉\JBA天野}{笠原ら}{2004}]{Lexeed:2004j}笠原要\JBA佐藤浩史\JBABondF.\JBA田中貴秋\JBA藤田早苗\JBA金杉友子\JBA天野昭成\BBOP2004\BBCP.\newblock「基本語意味データベース:Lexeed」の構築.\newblock\Jem{情報処理学会自然言語処理研究会(2004-NL-159)},\mbox{\BPGS\75--82}.\bibitem[\protect\BCAY{勝木\JBA笹野\JBA河原\JBA黒橋}{勝木ら}{2011}]{Katsuki:Sasano:Kawahara:Kurohashi:2011j}勝木健太\JBA笹野遼平\JBA河原大輔\JBA黒橋禎夫\BBOP2011\BBCP.\newblockWeb上の多彩な言語表現バリエーションに対応した頑健な形態素解析.\newblock\Jem{言語処理学会第17回年次大会発表論文集},\mbox{\BPGS\1003--1006}.\bibitem[\protect\BCAY{工藤\JBA市川\JBATalbot\JBA賀沢}{工藤ら}{2012}]{Kudo:Ichikawa:Talbot:Kazawa:2012j}工藤拓\JBA市川宙\JBATalbotD.\JBA賀沢秀人\BBOP2012\BBCP.\newblockWeb上のひらがな交じり文に頑健な形態素解析.\newblock\Jem{言語処理学会第18回年次大会発表論文集},\mbox{\BPGS\1272--1275}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{Mecab}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplying{C}onditional{R}andom{F}ieldsto{J}apanese{M}orphological{A}nalysis.\BBCQ\\newblockInLin,D.\BBACOMMA\\BBA\Wu,D.\BEDS,In{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2004)},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{京都大学黒橋・河原研究室}{京都大学黒橋・河原研究室}{2012}]{juman:7.0j}京都大学黒橋・河原研究室\BBOP2012\BBCP.\newblock日本語形態素解析システムJUMANversion7.0使用説明書.\bibitem[\protect\BCAY{松本\JBA高岡\JBA浅原}{松本ら}{2008}]{chasen:2.4.4j}松本裕治\JBA高岡一馬\JBA浅原正幸\BBOP2008\BBCP.\newblock形態素解析システム『茶筌』version2.4.4使用説明書.\bibitem[\protect\BCAY{森}{森}{2012}]{Mori:2012j}森信介\BBOP2012\BBCP.\newblock自然言語処理における分野適応.\newblock{\Jem人工知能学会誌(JSAI)},{\Bbf27}(4),\mbox{\BPGS\365--372}.\bibitem[\protect\BCAY{森\JBA中田\JBANeubig\JBA河原}{森ら}{2011}]{Mori:Nakata:Graham:Kawahara:2011j}森信介\JBA中田陽介\JBANeubig,G.\JBA河原達也\BBOP2011\BBCP.\newblock点予測による形態素解析.\newblock{\Jem自然言語処理},{\Bbf18}(4),\mbox{\BPGS\367--381}.\bibitem[\protect\BCAY{村脇\JBA黒橋}{村脇\JBA黒橋}{2010}]{Murawaki:Kurohashi:2010j}村脇有吾\JBA黒橋禎夫\BBOP2010\BBCP.\newblock形態論的制約を用いたオンライン未知語獲得.\newblock\Jem{自然言語処理},{\Bbf17}(1),\mbox{\BPGS\55--75}.\bibitem[\protect\BCAY{Neubig,Nakata,\BBA\Mori}{Neubiget~al.}{2011}]{Neubig:Nakata:Mori:2011}Neubig,G.,Nakata,Y.,\BBA\Mori,S.\BBOP2011\BBCP.\newblock\BBOQ{PointwisePredictionforRobust,AdaptableJapaneseMorphologicalAnalysis}.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechologies},\mbox{\BPGS\529--533}.\bibitem[\protect\BCAY{小椋\JBA綿巻}{小椋\JBA\綿巻}{2008}]{Ogura:Watamaki:2008}小椋たみ子\JBA綿巻徹\BBOP2008\BBCP.\newblock日本の子どもの語彙発達の規準研究:日本語マッカーサー乳幼児言語発達質問紙から.\newblock\Jem{発達・療育研究},{\Bbf24},\mbox{\BPGS\3--42}.\bibitem[\protect\BCAY{Raikes,Pan,Luze,Tamis-LeMonda,Brooks-Gunn,Constantine,Tarullo,Raikes,\BBA\Rodriguez}{Raikeset~al.}{2006}]{Mother-child:Ehon:2006}Raikes,H.,Pan,B.~A.,Luze,G.,Tamis-LeMonda,C.~S.,Brooks-Gunn,J.,Constantine,J.,Tarullo,L.~B.,Raikes,H.~A.,\BBA\Rodriguez,E.~T.\BBOP2006\BBCP.\newblock\BBOQ{Mother-childBookreadinginLow-incomeFamilies:CorrelatesandOutcomesDuringtheFirstThreeYearsofLife}.\BBCQ\\newblock{\BemChildDevelopment},{\Bbf77}(4),\mbox{\BPGS\924--953}.\bibitem[\protect\BCAY{笹野\JBA黒橋}{笹野\JBA黒橋}{2007}]{Sasano:Kurohashi:2007j}笹野遼平\JBA黒橋禎夫\BBOP2007\BBCP.\newblock形態素解析における連濁および反復形オノマトペの自動認識.\newblock\Jem{言語処理学会第13回年次大会発表論文集},\mbox{\BPGS\819--822}.\bibitem[\protect\BCAY{笹野\JBA黒橋}{笹野\JBA黒橋}{2008}]{Sasano:Kurohashi:2008j}笹野遼平\JBA黒橋禎夫\BBOP2008\BBCP.\newblock大域的情報を用いた日本語固有表現認識.\newblock\Jem{情報処理学会論文誌},{\Bbf49}(11),\mbox{\BPGS\3765--3776}.\bibitem[\protect\BCAY{平\JBA藤田\JBA小林}{平ら}{2012}]{Taira:Fujita:Kobayashi:2012j}平博順\JBA藤田早苗\JBA小林哲生\BBOP2012\BBCP.\newblock絵本テキストにおける高頻度語彙の分析.\newblock\Jem{情報処理学会関西支部支部大会,F-103}.\end{thebibliography}\begin{biography}\bioauthor{藤田早苗}{1999年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年,NTT日本電信電話株式会社入社.現在,NTTコミュニケーション科学基礎研究所研究主任.博士(工学).自然言語処理の研究に従事.2013年言語処理学会優秀論文賞受賞,言語処理学会,ACL各会員.}\bioauthor{平博順}{1996年東京大学理学部化学科大学院修士課程修了.同年,日本電信電話株式会社入社.2014年までNTTコミュニケーション科学基礎研究所.現在,大阪工業大学情報科学部准教授.博士(工学).自然言語処理等の研究に従事.2013年言語処理学会優秀論文賞受賞,情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{小林哲生}{2004年東京大学大学院総合文化研究科博士課程修了.博士(学術).現在,NTTコミュニケーション科学基礎研究所メディア情報研究部主任研究員(特別研究員).幼児の言語発達研究に従事.}\bioauthor{田中貴秋}{1994年大阪大学基礎工学部制御工学科卒業.1996年同大学院修士課程修了.同年,日本電信電話株式会社入社.2007年〜2012年西日本電信電話株式会社研究開発センタ勤務.現在,NTTコミュニケーション科学基礎研究所研究主任.自然言語処理の研究に従事.言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
V20N05-02
\section{はじめに} \label{sec:intro}情報抽出や文書要約の分野において情報の可視化を目的として,テキスト中に出現する事象表現の表す事象が発生した時区間\modified{(TimeInterval)}を時間軸\modified{(Timeline)}上に写像することが行われている.このため\modified{には},テキスト中に出現する時間情報表現の正規化(時間軸への写像)のみならず,対象となる「文書作成日時と事象表現」や「時間情報表現と事象表現」,「二つの事象表現」間の時間的順序関係を付与することが必要になる.\modified{英語においては哲学者・言語学者・人工知能研究者・言語処理研究者が協力して時間情報を含む言語資源の整備を進めている\cite{TimeBank}.哲学者・言語学者は言語科学として(a)テキスト中の事象表現とその時間構造を形式的にどのように記述するかを探究することを研究目的とする.人工知能研究者・言語処理研究者は工学研究として(b)テキスト中の事象表現や時間的順序表現を同定し抽出する機械的なモデルの開発や評価を研究目的とする.前者にとって(b)は手段でしかなく,逆に後者にとって(a)は手段でしかない.しかしながら,共通の目標として時間情報の可視化\footnote{ここで「情報の可視化」とは,工学的な自動処理によるもののみならず,言語科学における形式意味論研究も含む.}を掲げ,前段落にあげたリサーチクエスチョンに対して,「アノテーション」と呼ばれる研究手法により共有言語資源を構築する試みが行われている.}\modified{一方,日本語においては時間情報を含む言語資源の整備は,人工知能研究者・言語処理研究者によるものが多く,研究目的も(b)の手段としてのものが多い.機械的なモデルの開発や評価を目的とすることが多く,計算機上に実現しやすい時間情報表現の切り出しや正規化レベルのアノテーションにとどまっている\cite{IREX,小西-2013}.時間的順序関係のアノテーションを行うためには,アノテーション対象となる事象構造の意味論的な形式的な記述の作業が必要となる.人工知能研究者・言語処理研究者にとっての手段とされる研究目的(a)が重要になる.}\modified{時間情報のアノテーションについては,英語のアノテーション基準TimeML\cite{TimeML}を元に国際標準化作業が行われてきた.成果物のISO-TimeMLは策定時に多言語に対してアノテーションすることを想定し,各言語の研究者がそれぞれ適応\footnote{ここで「適応」とは生物学における``種の環境に対応する形質の有無''の意味ではなく,工学における``対象の特性に対応する仕様やパラメータなどの変更''の意味である.}作業を実施してきた.}\modified{本研究では,研究目的として哲学者・言語学者の(a)の立場を取り,}『現代日本語書き言葉均衡コーパス』(BalancedCorpusofContemporaryWrittenJapanese;以下``BCCWJ'')\cite{BCCWJ}の一部に対し時間情報表現と事象表現の時間的順序関係を付与するために,事象表現の切り出しと分類を行った.\modified{時間情報表現アノテーションの形式的な基準である国際標準ISO-TimeMLの日本語適応作業をMAMAサイクル\cite{Pustejovsky-2012}(Model-Annotate-Model-Annotateサイクル.詳しくは\ref{subsec:anno}節で説明)を通して実施し,時間的順序関係付与に適した事象表現分類を行った.}さらに,\modified{複数人の時区間の時間的順序関係の認識の差異を評価することを目的として,}Allenの時区間論理\cite{allen-1983}(詳しくは\ref{subsec:timerel}節で説明)に基づ\modified{いた}テキストに出現する時間情報表現と事象表現の時間的順序関係\modified{のアノテーション}を\modified{複数人で実施した.MAMAサイクルを最小にし被験者実験的な設定でアノテーションを行い,得られたデータの傾向を分析し,複数人の作業者間の心的空間における時間構造の差異を評価した.}\modified{意味論レベルのアノテーションにおいて,多くの研究が形式意味論的な記述を目標とする.生成された言語を直接何らかの記号的な意味表現に写像するための方法論を確立するためにアノテーションのMAMAサイクルを実施するが,唯一無二の意味表現に写像することを目的とするためにアノテーション一致率という指標を良くする方向に最適化するきらいがある.一方,認知意味論の考え方においては,生成された言語表現を受容する人間の認知活動という要素を考慮し,人間の空間認知能力やカテゴリー化などの認知能力を評価する目的で,被験者実験などの研究手法が用いられている.テキストを刺激として与え,意味表現を記述させる被験者実験も広義のアノテーションと呼ぶことができる.}\modified{本研究では人間の時間的順序関係の認知能力の差異の評価を目的として,教示であるMAMAサイクルを必要十分レベルに極小化した,被験者実験としてのアノテーションを行う.結果,時区間の境界の一致が困難である一方,時区間の前後関係については69.5\%の一致率でアノテーションできることがわかった.}\modified{以下本論文の構成について述べる.\ref{sec:related}節では関連研究について述べる.\ref{sec:standard}節では策定した基準について述べる.\ref{sec:analysis}節でBCCWJにアノテーションした順序関係ラベルの分析を行い,結果を報告する.\ref{sec:conclusion}節で本論文のまとめを行う.} \section{関連研究} \label{sec:related}\subsection{コーパスアノテーション}\label{subsec:anno}\modified{一般に言語の生産過程の産物であるアノテーションなしのテキストコーパスからは,言語の受容過程について直接的に調査することは困難である.言語の受容過程の調査には,生産されたテキストを受容する過程を記号化する必要がある.テキストコーパスに対し作業者が内容を理解して記号を付与するアノテーションは,工学研究者のベンチマークデータ作成だけでなく,人の言語の受容過程を記録する一研究手法としても利用可能である.}\modified{コーパスアノテーション作業には二つの基準を決める必要がある.一つはアノテーションをどのような形式で表現するかという形式的な基準である.アノテーション対象が文字間なのか文字列範囲なのか,対象に対しシングルラベルを付与するのかマルチラベルを付与するのか,対象間の関係が推移的なのか対称的なのか,大局的な構造として木をなすのか有向非循環グラフをなすのかなどを決定し,抽象化する必要がある.抽象化された形式は,インラインで記述するのかスタンドオフで記述するのかなどを基準として定める.この形式的な基準は,研究者間の相互利用性を高めたり,構造学習器を実現するための必要な抽象表現の仕様を決定するために利用される.関係する研究者があらかじめ議論をして標準仕様をコミュニティ駆動で策定したり,最初に策定された類似のアノテーションの形式をそのまま事実上の標準にしたりなど,標準化機関以外による何らかの標準化が行われることが多い.}\modified{もう一つはコーパスに出現する言語表現をどのような記号に割り当てるかという値割り当てについての基準である.アノテーションにおいては,個々の事例についてどの形式に割り当てるのかという基準が必要であり,一般に言語テストなどを作業者に行ってもらいその判断に基づき記号に写像する基準が策定される.しかし,アノテーション作業の当初から完全で健全な基準を作成することは困難であり,基準の策定とアノテーション作業を何度も繰り返しながら基準を更新する.}\modified{Pustejovsky\cite{Pustejovsky-2012}は,基準の策定方法を含めたアノテーション作業に二種類のサイクルがあることを示している.一つはMAMAサイクルで図\ref{fig:cycle}の左のようなサイクル\footnote{図は``ModelandGuideline''-``Annotate''-``Evaluate''-``Revise''からなり``MAERサイクル''と呼ぶべきであるが,引用元の表現``MAMAサイクル''をそのまま本稿でも採用する.}である.もう一つはMATTERサイクル(Model-Annotate-Train-Test-Evaluate-Reviseサイクル)で図\ref{fig:cycle}の右のようなサイクルである.工学研究のように構造学習器を作成することを目的とする場合にはMATTERサイクルを用いることが多いが,MATTERサイクルで構造学習器が構成できないアノテーション初期においてはMAMAサイクルを用いることが多い.言語研究で現象そのものを観察する場合においてはMAMAサイクルのみで閉じてアノテーションを行う傾向がある.}\begin{figure}[t]\begin{center}\includegraphics{20-5ia2f1.eps}\end{center}\caption{MAMAサイクルとMATTERサイクル}\label{fig:cycle}\vspace{-0.5\Cvs}\end{figure}\modified{このようなアノテーションの基準とサイクルを考えた場合に,アノテーション基準の妥当性はどのように評価されるべきだろうか.形式的な基準においては利用者系により評価されるべきであり,当該基準を利用するコミュニティの規模などにより定量的に評価され,相互利用における障害の有無などにより定性的に評価されるだろう.後者の値割り当てとしての基準においては,構造学習器の構成を目的として研究を実施するのであれば,未知事例を含めた構造学習器の性能により評価されるだろう.一方,言語研究を目的とする場合には,アノテーション作業を行う指針である基準の妥当性は,成果物のアノテーションそのものによって評価されるべきである.アノテーション単体としての評価は一致率などの定量的な指標を提示することが可能であるが,言語研究のためのアノテーションにおいては,必ずしも一致率などを目的関数として最適化を行っているわけではない.このようなアノテーション基準の妥当性を評価するためには,MAMAサイクルの外側の言語研究者によって評論として行われるべきである.近年,均衡コーパスが整備され,コミュニティ駆動によりアノテーション対象の標準化が行われてきた.各機関で様々なレベルの言語情報のアノテーションが進められている.このような状況を鑑みると,MAMAサイクルの外側の言語研究者による評論の代わりに,他のアノテーションとの重ね合わせによる齟齬検出結果から,アノテーションそのものの妥当性評価が検証される可能性がある.}\subsection{\modified{コーパスアノテーション基準の標準化}}\label{subsec:standard}\modified{コーパスアノテーションの基準について,形式的な基準については標準化機関などが共有すべき規格を提案している.例えば,国際標準化機構(InternationalOrganizationforStandardization:ISO)の標準化技術委員会(TechnicalCommittee)TC37は``Terminologyandotherlanguageandcontentresources''と題し,言語資源に関するさまざまな標準化を提案している.そのなかに分科会(Subcommittee)が五つ設定されているが,TC37/SC4が言語資源管理(Languageresourcemanagement;LRM)に関する国際規格の規定を行っている.TC37/SC4は作業部会を六つ(表\ref{table:tc37sc4})設定しており,さまざまな形式・出自の一次言語データに対するアノテーションやXMLに代表される汎用マークアップ言語に基づくアノテーションの表現形式についての仕様記述言語を設計している.例えば,公開されている規格として,語彙表の規格LexicalMarkupFramework(LMF:ISO-24613:2008),素性構造表現FeatureStructureRepresentation(FSR:ISO-24610-1:2006),単語分かち書き(ISO-24615-1:2010が一般,ISO-24615-2:2011が日中韓言語),統語論アノテーションSyntacticAnnotationFramework(SynAF:ISO-24615:2010)がある.意味論的アノテーション規格は作業部会TC37/SC4/WG2を中心にさまざまなSemanticAnnotationFramework(SemAF)が提案されている.時間情報表現関連については,英語で策定されたTimeML\cite{TimeML}をもとにTimeML開発者と作業部会TC37/SC4/WG2が連携をとりながらSemAF-Time(ISO-24617-1:2012)TimeMLを提案した.次の\ref{subsec:time}節では,時間情報表現関連のアノテーションの研究動向を示す.}\begin{table}[t]\caption{TC37/SC4の作業部会}\label{table:tc37sc4}\input{02table01.txt}\end{table}\subsection{時間情報表現に関する研究動向}\label{subsec:time}\modified{時間情報表現は哲学・言語学・人工知能研究・言語処理など複数分野の研究者により研究されてきた.}\modified{以下では言語処理関連の代表的な研究を俯瞰する.テキスト中の時間情報表現を分析する研究は大きく分けて時間情報表現抽出,時間情報正規化,時間的順序関係解析の三つのタスクに分類される.一つ目の時間情報表現抽出は,固有表現・数値表現抽出の部分問題として解かれてきた.二つ目の時間情報正規化は書き換え系により解かれることが多い.三つ目のタスクである時間的順序関係解析は,事象の時間軸上への対応付けと言い換えることができる.}表\ref{tbl:previous_work}に英語\modified{と}日本語を対象とした時間情報表現に関連する研究を示す.\begin{table}[b]\caption{関連研究}\label{tbl:previous_work}\input{02table02.txt}\end{table}英語においては,評価型国際会議MUC-6\cite{MUC6}の一タスク固有表現抽出の中に時間情報表現の抽出が含まれている.MUC-6で定義されている時間情報表現タグ\timex\は日付表現({\tt@type="DATE"})と時刻表現({\tt@type="TIME"})からなる.アノテーション対象は絶対的な日付・時刻を表す表現にのみ限定され,``lastyear''などといった相対的な日付・時刻表現は含まれていない.このMUC-6のアノテーション基準\timex\に対し,Setzerは時間情報表現の正規化に関するアノテーション基準を提案している\cite{Setzer-2001}.評価型国際会議TERN\cite{TERN}では,時間情報表現検出に特化したタスクを設定している.TERNで定義された時間情報表現情報タグ\timexii\は,相対的な日付・時刻表現,時間表現や頻度集合表現が検出対象として追加されている.時間情報表現の正規化情報を記述するISO-8601形式を拡張した\value\属性などが設計され,こちらも自動解析対象となっている.その後,Pustejovskyらによりアノテーション基準TimeML\cite{TimeML}が提案されている.その中では,TERNで用いられている\timexii\を拡張した\timexiii\が提案され,さらに時間情報表現と事象表現の時間的順序関係を関連づけるための情報\tlink\が付加される.これらの情報は人手でアノテーションすることを目的に設計され,TimeBank\cite{TimeBank}やAquaintTimeMLCorpusなどの人手によるタグつきコーパスの整備が行われた.これらのコーパスに基づく時間情報表現の自動解析\cite{Boguraev-2005,Mani-2006}が試みられたが,タグの情報に不整合があったり,付与されている時間的順序関係ラベルに偏りがあったりなど扱いにくいものであった\cite{Boguraev-2006}.2007年に開かれたSemEval2007の一タスクTempEval\cite{TempEval}では,時間的順序関係のラベルを簡略化し,人手で見直したデータによる時間的順序関係同定のタスクが行われた.このタスクでは,時間情報表現に対する正規化情報\value\属性などが\modified{データにあらかじめ}付与されており,事象表現の時間的順序関係同定に利用できる\modified{設定になっている}.\modified{時間情報表現の自動解析に関する研究は英語中心に行われていたが,やがて言語横断的な研究が進められ,前の\ref{subsec:standard}節に示したような国際標準化がすすめられた.その成果物として,アノテーション形式の共有可能な基準としてISO-TimeMLが策定された.その作業と並行して,評価型会議}TempEval-2\cite{TempEval2}\modified{が実施され},英語だけでなく,イタリア語,スペイン語,中国語,韓国語に関しても同様なデータを利用したタスクが設定された.2013年に開かれるSemEval-2013のサブタスクTempEval-3\cite{TempEval3}では,データの規模を大きくした英語,スペイン語が対象となっている.\modified{海外においては,哲学者・言語学者・人工知能研究者・言語処理研究者が共有可能な言語資源を作成するという大義のもと,分野横断的に研究が進められている.さらに多言語に拡張すべく言語横断的に研究が進められている.このような状況のもと個々の研究について境界を明確に示すことは難しい.}次に日本語の時間情報表現に関する研究を示す.\modified{日本語において,時間情報表現抽出はアノテーションのみならず,評価型会議による解析手法の検討が行われている.}IREX\cite{IREX}の一タスクとして,固有表現抽出タスクが設定された.IREXの時間情報では,日付・時刻表現を対象にし,相対的な表現が定義に含まれている.関根らは拡張固有表現体系\cite{Sekine-2002}を提案し,辞書/オントロジやコーパスの作成などを行っており,BCCWJにも同じ体系の拡張固有表現タグが付与されている\cite{Hashimoto-2010}.\modified{時間情報表現正規化については,}小西らがTimeMLに基づく\timexiii\相当のタグをBCCWJの一部に付与し,時間情報表現の正規化を行っている\cite{小西-2013}.\modified{しかしながら,日本語の時間情報表現と事象表現をひもづける時間的順序関係に関する研究は,著者らが知る限りない.}\modified{最後に,時間的順序関係アノテーションの目的について言及する.工学研究者は(1)時間情報を解析する構造学習器の構成やベンチマークデータの整備を目的としている.一方,言語研究者は,(2)事象表現の時間構造を表現する形式意味論としての記述体系の精緻化を目的としている.これらに対し,本研究は(3)受容者としてのアノテーション作業者という要素を考慮し,認知意味論的な分析を目的とする.(3)の目的のために,被験者実験的な設定のアノテーションを実施する.}\subsection{アノテーション対象としてのBCCWJ}\label{subsec:bccwj}\modified{本節ではアノテーション対象であるBCCWJについて述べる.}\modified{約1億語規模の書き言葉均衡コーパスであるBCCWJは2006--2010年に整備され,2011年に国立国語研究所(以下「国語研」と略す)から一般公開された.サンプリングの手法から生産サブコーパス・図書館サブコーパス・特定目的サブコーパスの三つに大きく分かれる.生産サブコーパスは2001--2005年に出版された書籍(PB)・雑誌(PM)・新聞(PN)により構成され,生産実態に基づいてランダムサンプリングされている.図書館サブコーパスは1986--2005年に出版された書籍(LB)により構成され,流通実態に基づいてランダムサンプリングされている.特定目的サブコーパスは図書館サブコーパスで十分に集まりにくい,白書(OW)・Yahoo!知恵袋(OC)・Yahoo!ブログ(OY)・国会会議録(OM)など様々なレジスタのテキストが収録されている.}\modified{BCCWJにはコアデータと呼ばれる約110万語からなる部分集合が設定されている.コアデータには人手により国語研規程の短単位・長単位単語境界,UniDic品詞体系に基づく形態論情報,文節境界などが付与されている.コアデータは生産サブコーパスから書籍(PB)・雑誌(PM)・新聞(PN)が,特定目的サブコーパスから白書(OW)・Yahoo!知恵袋(OC)・Yahoo!ブログ(OY)が収録されている.表\ref{table:priority}に各レジスタのサンプルについての統計を示す.}\modified{このコアデータに対し,国内の様々な研究機関により,係り受け情報・述語項構造・節境界・モダリティ情報・フレームネット知識など重畳的にアノテーションが行われている.しかしながら,100万語規模のコアデータ全てに対してアノテーションを実施することは困難である.そこで,コアデータの各サンプルに対してアノテーションの優先順位をつけ,約5--6万短単位ごとの部分集合(表\ref{table:priority}・2列目)を規定している.アノテーションに従事する研究者は,それぞれの目的や能力に応じ,この優先順位に従ってアノテーションを実施する.これにより,優先順位の高いサンプルについてはより多種の言語情報アノテーションが行われることになる.}\begin{table}[b]\caption{BCCWJコアデータと部分集合}\label{table:priority}\input{02table03.txt}\end{table}\modified{各サンプルには書誌情報として様々なメタデータが付与されているが,本研究に重要なメタデータとして文書作成日時相当の情報がある.コアデータに収録されている6種類のレジスタのうち,新聞(PN)データのみが日単位の文書作成日時の情報が収録されており,他のレジスタは年単位の文書作成日時の情報にとどまっている.}\modified{本研究では新聞(PN)データの部分集合A(54ファイル\footnote{BCCWJにおいて1ファイル中に複数の記事が収録されているために記事数ではない.},2,541文,56,518短単位)を対象にアノテーションを行う.アノテーション作業対象を上記範囲に限定した理由は,BCCWJのコアデータにおいて新聞データのみが文書作成日時を日単位まで保持していること,生産実態に基づいて適切にサンプリングされており通常の報道記事のみならずレシピやコラムが含まれていること,作業者が一人月でアノテーションを終えることが可能な分量であることなどがある.} \section{アノテーション基準} \label{sec:standard}\subsection{アノテーション作業の概要}アノテーション作業対象はBCCWJコアデータ新聞データ54ファイル(部分集合A)とする.小西らの時間情報表現の正規化作業により,時間情報表現は\timexiii\タグにより切り出され,時間情報の正規化情報が与えられている\cite{小西-2013}.アノテーション作業は,最初に事象表現の境界を認定し\event\タグを付与し,\event\の属性として事象表現の分類を表す\klass\属性を付与する.\klass\属性付与の際には時間軸上に事象のインスタンスが認定できるか否かを判断し,判断できる場合には\event\に対して\makeinstance\タグをスタンドオフ形式で新たに付与する.次に限定された事象のインスタンス間(「文書作成日時と事象表現」,「時間情報表現と事象表現」,「二つの事象表現」)に対して,時間的順序関係を付与する.以下では,それぞれの作業の基準について示す.\subsection{事象表現の認定とクラス分類}時間的順序関係のアノテーションを行うために,\modified{アノテーション対象である動詞・形容詞・形状詞が}事象表現か否か,事象表現が時間軸上の特定の範囲で生起したものか否かの判断が必要となる.また事象構造が動作なのか状態なのかといった識別が必要になる.\modified{また,事象表現間の時間的順序関係を規定するにあたっては,ある事象が他の事象の項になりうるのか,その場合にどのような事象構造を持つのかを分類する必要がある.}国語研\modified{規程による長単位の動詞・形容詞・形状詞4,953表現}に対して\event\タグを付与する.事象表現として切り出す際に国語研長単位が適さない場合には切り出し範囲を大きくする方向で修正を行う.本研究は時間情報表現と事象のインスタンス間の時間的順序関係を付与するため,TimeMLのアノテーション\modified{の形式的な基準に基づいて},実世界もしくは架空世界の時間軸上の具体的な特定の範囲で生起したインスタンスが認められるか否かの判別を行い,インスタンスが認められたものについては,\event\タグの\klass\属性にその事象表現の特性を付与し,\makeinstance\タグを付与する.インスタンスが認められないものについては,\makeinstance\タグを付与しない.時間的順序関係が確認できる事象構造には\makeinstance\タグを付与したうえで,\klass\属性を付与する.\klass\属性は,{\ttOCCURRENCE},{\ttREPORTING},{\ttPERCEPTION},{\ttASPECTUAL},{\ttI\_ACTION},{\ttI\_STATE},{\ttSTATE}の7種類と作業者がインスタンスが認められないと判断した事象表現・静態表現に付与する{\ttNULL},{\ttNONE}の2種類に分類される.\begin{list}{}{}\item[\ttOCCURRENCE]項に事象を取らない事象表現一般\item[\ttREPORTING]項に事象を取る表現活動動詞に相当する事象表現\item[\ttPERCEPTION]項に事象を取る認識・知覚動詞に相当する事象表現\item[\ttASPECTUAL]項に事象を取るアスペクトを表出する事象表現\item[\ttI\_ACTION]項に事象を取る遂行動詞に相当する事象表現\item[\ttI\_STATE]項に事象を取る思考・感情動詞に相当する事象表現\item[\ttSTATE]静態動詞,形容詞\item[{\ttNULL},{\ttNONE}]時間軸上インスタンスが認められない事象表現\end{list}一般の事象表現は{\ttOCCURRENCE}にあたる.静態動詞は{\ttSTATE}に分類されるため,{\ttSTATE}にしないもので事物(Thing)を項とする事象表現はすべて{\ttOCCURRENCE}とする.残りの5種類は,事物ではなく事象(Event)を項として導入する事象にのみ用いる.なお,アノテーション対象としての事象は動詞・形容詞・形状詞に限定するが,項として事物か事象かを判断する際には事象名詞も考慮する.この事象表現のインスタンスの認定とクラス分類は,作業者二人と監督者一人と助言者一人で議論しながら作業を行った.クラス分類を含めて75--80\%の一致率がコンスタントに得られるまで作業者二人が同一ファイルを作業し,基準が固まった時点で分担して作業を行った.\modified{基準の策定にあたっては日本語学・言語学の文献\cite{工藤1995,工藤2004,中村2001}にある事象表現の分類を参考にした.}以下にそれぞれの例を挙げる.\begin{description}\item[{\ttOCCURRENCE}:事象表現一般]\mbox{}\\何かが起こった,変化した,発生したなどの一般的な事象構造は,{\ttOCCURRENCE}とする.すなわち,事象ではなく事物を項とし,静態動詞ではない場合は,すべて{\ttOCCURRENCE}とする.無意志的(状態・位置)変化動詞や非意志的(現象一般)動詞もこれに含まれる.また,過程(Process)を示す動詞(例:「住む」)も,{\ttOCCURRENCE}とみなすこととする.\begin{itembox}[l]{\event\texttt{@OCCURRENCE}の例}\small湿地や干潟,河原などが埋め立てで\event\減った\eventc\東京湾.\\裸地を好むコアジサシに\event\嫌われた\eventc\か,巣は一つだけ.\\ニュース写真として\event\掲載させていただく\eventc\ことがあります.\\経常利益は数億円単位の黒字に\event\なる\eventc.\\メニューに\event\挑戦した\eventc.\end{itembox}\item[{\ttREPORTING}:表現活動動詞]\mbox{}\\表現活動動詞が,事象に関する発言や告知などをはじめ,概ね「〜と」を用いた引用を行う場合などで,{\ttREPORTING}に分類する.なお,「〜を」が用いられている場合は項が事物であるため,{\ttOCCURRENCE}となる.表現活動動詞には,言う・報告する・告げる・説明する・陳述する・指摘する・伝えるなどが含まれる.\begin{itembox}[l]{\event\texttt{@REPORTING}の例({\bf太字}が注目している項)}\small大学院でのこうした取り組みは{\bf初めてと}\event\いう\eventc.\\{\bf〜どうかと}\event\提言する\eventc.\end{itembox}\item[{\ttPERCEPTION}:認識・知覚動詞]\mbox{}\\認識動詞や知覚動詞で,主に事象に関する物理的な知覚が,\modified{節や句の}「〜の」などによる体言化によって導入される場合などは,{\ttPERCEPTION}に分類する.但し,項が事物であるときは,{\ttOCCURRENCE}とする(例「ホスピスという言葉を初めて聞いた」).見る・観察する・見かける・眺める・聞く・聴く・耳にする・睨む・探る・感じるなどが含まれる.\begin{itembox}[l]{\event\texttt{@PERCEPTION}の例({\bf太字}が注目している項)}\small母親が炊飯器でおでんを{\bf作ったのを}\event\見て\eventc,\end{itembox}なお,新聞データにおいては,文脈により物理的な知覚を導入しない場合が多く,出現が少ない.\begin{itembox}[l]{\event\texttt{@PERCEPTION}としない例({\bf太字}が注目している項)}\small[個人名]に{\bf[内容]について}\event\聞いた\eventc.(インタビューであるため,{\ttOCCURRENCE})\\{\bfAをBと}\event\見る\eventc.(判断であるため,{\ttOCCURRENCE}や{\ttI\_STATE})\end{itembox}\item[{\ttASPECTUAL}:アスペクト動詞]\mbox{}\\事象のアスペクト(相)を示す動詞が,事象を導入している場合はこれにあたる.明示的に記述されている場合に限定する.そのため,接頭辞などの造語成分(例:「再」+動詞による「再団結する」「再開発する」など,「終」「開」による「終演する・開幕する」など)を含む動詞については,{\ttASPECTUAL}に含めない.\newpageアスペクトを明示的に表す動詞は,以下のようなものがある.\begin{enumerate}\itemInitiation:始める・始まる\itemReinitiation:再開する\itemTermination:終える・止める・終わる・中止する・停止する・あきらめる\itemCulmination:やり終える・完成させる\itemContinuation:続ける・続行する・持続する・維持する・やり通す・保つ\end{enumerate}\begin{itembox}[l]{\event\texttt{@ASPECTUAL}の例({\bf太字}が注目している項)}\small{\bfトーナメントは},日本時間10日夜に第1日が\event\始まる\eventc.\\[個人名]が勝てば{\bf3連覇に}\event\続く\eventc\偉業達成.\\二年目も引き続き{\bf好調を}\event\維持したい\eventc.\\{\bfとろ火状態を}\event\保つ\eventc.\end{itembox}\item[{\ttI\_ACTION}(IntensionalAction):内包的な動作]\mbox{}\\明示された事象の導入を行う(項とする)遂行動詞は{\ttI\_ACTION}と分類する.遂行しない場合は後述する{\ttI\_STATE}として区別を行う.また,イベントが助詞によって分割されている場合の後半部(例:「連絡をとる」「明らかにする」など)は{\ttI\_ACTION}と考える.次の{\ttI\_STATE}との差別として,挑む・予防する・遅らせる・依頼する・要求する・説得する・約束する・決定する・提案するなど,遂行性のある動詞がこれにあたる.また,同様に,{\ttREPORTING}との差別として,宣言する・主張する・申し出る・断定するなど,{\ttPERCEPTION}との差別として,調査する・精査するなどが{\ttI\_ACTION}にあたる.なお,Intentional(意図的)とは異なることに注意されたい.\begin{itembox}[l]{\event\texttt{@I\_ACTION}の例({\bf太字}が注目している項)}\small女性が{\bf受け入れられるべきかと}\event\問われれ\eventc\ば,イエスだ.\\{\bf再建を}国際社会全体で\event\取り組む\eventc\契機.\\{\bf支払えないケースが}\event\出ている\eventc.\\[個人名]は速い{\bf転がりを}\event\確かめていた\eventc.\end{itembox}\item[{\ttI\_STATE}(IntensionalStates):内包的な静態動詞]\mbox{}\\事象を導入する(項とする)が,事象を遂行しない動詞は{\ttI\_STATE}とする.代替・候補が言及されるなどの状態の導入が主となる.主に思考動詞や感情動詞がこれにあたり,信じる・思う・望む・欲する・期待する・計画するなどの思考動詞のほか,恐れる・心配する・悩むなどの感情動詞,また,遂行のない動詞として,求める・〜しようとする・〜したがるなど,〜できる・〜できないなども含まれる.\begin{itembox}[l]{\event\texttt{@I\_STATE}の例({\bf太字}が注目している項)}\small{\bf連覇を}\event\狙う\eventc.{\bf生活が}\event\できる\eventc.\\{\bf未現像でも}\event\構いません\eventc.\\{\bfよく見ていてくれたと}\event\感謝する\eventc.(遂行性がないため,{\ttI\_ACTION}ではない)\end{itembox}\item[{\ttSTATE}:静態動詞,形容詞\modified{,形状詞}]\mbox{}\\時間的順序関係と直接かかわらない場合,文書作成時間に従属しない場合には,\event\タグをつけないが,以下の種類の静態動詞\cite{工藤1995}と形容詞について,時間と関わる場合に限り,\event\texttt{@STATE}とする.\begin{enumerate}\item存在動詞:ある・いる・存在する・点在する\item空間的配置動詞:そびえている・面している・隣接している\item関係動詞:値する・あたる・あてはまる・相当する・意味する・示す・適する\item特性動詞:甘すぎる・大きすぎる・泳げる・話せる・似合う\end{enumerate}\begin{itembox}[l]{\event\texttt{@STATE}の例}\smallマネジャーに就任する意向が\event\ない\eventc\ことを明らかにした.(存在)\\東京湾岸でも生活\event\できる\eventc\環境さえあれば.(特性動詞.この場合,「生活ができる」であれば{\ttI\_STATE}とする)\\彼女のようにモノをはっきり\event\言える\eventc\ことがこれからは大切だ.(特性動詞)\\おいしく\event\食べられます\eventc.(特性動詞)\end{itembox}\item[{\ttNULL},{\ttNONE}:時間軸上インスタンスが認定できない事象表現・静態表現]\mbox{}\\\makeinstance\を付与しない事象表現・静態表現.\makeinstance\タグを付与するか否かの判断基準として,文書作成日時もしくは他の事象表現との時間的順序関係が定義できるかどうかを重要視する.何らかの変化を含む事象表現ではなく,恒常的あるいは一般的なことをいっていると考えられうる事象表現においては,時間的順序関係のアノテーションは不可能であるため,\makeinstance\タグは付与しない.\begin{itembox}[l]{\makeinstance\タグを付与しない例({\bf太字}が付与しない表現)}\smallクラブの運営について1票を{\bf持っている}わけではない.\\国際会議57件を{\bf含め}2,111件.火を{\bf使わない}調理法.\end{itembox}連体修飾節中の動詞が,一般的と判断される場合\makeinstance\タグを付与しない.\begin{itembox}[l]{\makeinstance\タグを付与しない例:連体修飾({\bf太字}が付与しない表現)}\small旅の安全を{\bf守る}道祖神.オリーブ畑に{\bf囲まれた}レストラン.\end{itembox}副詞的用法や慣用的な場合も時間的順序関係が付けがたいため,\makeinstance\タグを付与しない.\begin{itembox}[l]{\makeinstance\タグを付与しない例:慣用表現(\textbf{太字}が付与しない表現)}\smallやむを{\bf得ない}.{\bf相次いで}出している.\\なりふり{\bf構わぬ}販売攻勢.\end{itembox}文脈によっては,「ある」「なる」「する」などの動詞も,一般的なことを述べているため時間的順序関係が付けがたい場合がある.この場合\event\タグを付与しない.\begin{itembox}[l]{\makeinstance\タグを付与しない例:「ある」など({\bf太字}が付与しない表現)}\small〜のためこの名が{\bfある}.〜が基本と{\bfなる}.\\〜を原則と{\bfする}.\end{itembox}\end{description}\modified{以下,}{\ttNULL}と{\ttNONE}のラベルの違いについて述べる.{\ttNULL}のラベルは本節の作業を行った作業者二人により付与したものである.{\ttNONE}のラベルは次節の時間的順序関係認定時に,三人の作業者が時間軸上にインスタンスを認定することができなかったものについて修正付与する.\modified{事象構造そのもののアノテーションは意味論レベルの情報付与に相当し,言語学的な知見から様々な記号化手法が考えられる.本研究は時間情報表現・事象表現間の時間的順序関係の可視化を目的としており,そのアノテーション形式の標準化であるISO-TimeMLの枠組の範囲内で,値割り当てとしてのアノテーション基準を定めた.本節のアノテーション作業にあたっては次の\ref{subsec:timerel}節で行う被験者実験的な時間的順序関係アノテーションの基底となる情報のためにMAMAサイクルに基づき厳密な統制を行った.}\subsection{時間的順序関係の認定}\label{subsec:timerel}\modified{本研究は時間構造に対する複数人の認識の差異を評価するために,被験者実験的に時間的順序関係アノテーションを実施する.時間的順序関係について,事象が表現する時間構造が長さ0以上の時区間である(時点は長さ0の時区間として扱う)と仮定をおく.このことにより個々人が認識する事象表現の時間構造を,人工知能分野でよく研究されているAllenの時区間論理\cite{allen-1983}として表現することができる.アノテーション作業者は,時間軸上に二つの時区間をプロットすることで描画的に事象の時区間を表現することができる.直感的であるために短時間の教示でアノテーションが可能になる.}\modified{具体的には,先行研究で付与されている\timexiii\タグ範囲の時間情報表現と\makeinstance\タグにより認定した事象表現のインスタンスに対して,\tlink\相当の}時間的順序関係を認定する.表\ref{table:allen}に示すAllenの\modified{二次の}範囲代数に基づくラベル(13種類)を付与する.\modified{採用するラベル集合は,標準化されているアノテーション形式であるため,他の研究者が多言語で言語横断的に分析する際にも有効だと考える.}\begin{table}[t]\caption{Allenの範囲代数に基づく時間的順序関係ラベル}\label{table:allen}\input{02table04.txt}\end{table}なお,二つの事象表現がduring/equal/containsの三つの時間的順序関係にある場合,部分事象の関係か全く同一の事象の関係でありうる.そのような場合には表\ref{table:subevent}の三つのラベルを付与する\footnote{厳密にはfinishes/started-by/starts/finished-byの四つの時間的順序関係の場合も事象-部分事象関係になることがあるが,これらの関係の頻度が少なく相当する事例が見つからなかったこととTimeMLには規定されていないことから,我々も相当するタグを新たに規定しない.}.計13+3種類のラベルをまとめると図\ref{fig:allen}のようになる.このほかにテキストの情報だけでは全く時間的順序関係がわからない場合に付与するラベルとして`vague'を利用する.この作業はTimeMLの\tlink\付与の作業に相当し,我々もタグ名として\tlink\を用いる.\begin{table}[t]\caption{事象-部分事象間関係を表現するラベル}\label{table:subevent}\input{02table05.txt}\end{table}\modified{これらの計13+3+1種類のラベルを\timexiii\タグと\makeinstance\タグの間,もしくは,二つの\makeinstance\タグ間に付与する.}本作業で用いる\makeinstance\タグは前節の作業を精査した3,839件を固定して用いる.前節の作業を行った二人とは異なる,三人の作業者が時間的順序関係を行う.文書中の\makeinstance\タグの対の数は文書中の\makeinstance\タグの数の組み合わせに相当し,人手で全ての対を検証することは困難である.\begin{figure}[t]\begin{center}\includegraphics{20-5ia2f2.eps}\end{center}\caption{\tlink\時間的順序関係ラベル一覧}\label{fig:allen}\end{figure}英語のTimeBankでは\modified{,}全ての対で作業者が認定できるものという曖昧な基準で一致率が55\%と報告されている.本研究では,TempEvalなどの評価型ワークショップで採用されている「文書作成日時と事象表現の順序関係(``DCT''と呼ぶ)」「同一文内の時間情報表現と事象表現間順序関係(``T2E''と呼ぶ)」「隣接事象表現間順序関係(``E2E''と呼ぶ)」「隣接文の末尾の事象表現間順序関係(``MATRIX''と呼ぶ)」の4種類の表現対についてのみ付与する.\modified{英語のTimeBankは,どの表現対に関係を付与するかというのは作業者にゆだねられている.一方,本研究では4種類の表現対について必ず何らかの関係を付与することとし,現実世界の事象と仮想世界の事象間,もしくは,二仮想世界の事象間などの場合で時間的順序関係が規定できない場合に`vague'を付与することとしている.本作業の基準では4種類の表現対のうち``DCT'',``E2E'',``MATRIX''の3種類について複数の連結可能な単純道をグラフ上確保しており,基本的にアノテーションは連結グラフを構成する.このグラフ中`vague'の関係が切断辺となる場合,分離された部分グラフは二つの異なる可能世界(実世界-架空世界,異なる二架空世界)を明示的に表現する.}なお,アノテーション作業に際し,以下の点に注意した.\begin{itemize}\item時間は基本的に区間としてアノテーションを行う.1秒でも区間とする.\item\modified{事象は瞬間動詞については点(長さ0の区間)とし,それ以外の表現は区間とする.}\item状態動詞などで開始点・終了点がわかりにくいものは,前工程の\event\タグの認定時で排除されているべきだが,わかりにくい場合には作業者の理解にゆだねる.\end{itemize} \section{アノテーション情報の分析} \label{sec:analysis}\subsection{事象表現の認定とクラス分類}\begin{table}[b]\begin{minipage}[t]{192pt}\caption{時間情報表現の分布}\label{table:timex}\input{02table06.txt}\end{minipage}\hfill\begin{minipage}[t]{220pt}\caption{事象表現の分布}\label{table:event}\input{02table07.txt}\end{minipage}\end{table}時間的順序関係を行う前に時間情報表現と事象表現の範囲を切り出す必要がある.時間情報表現の切り出しについては先行研究\cite{小西-2013}によりなされており,今回対象のBCCWJコアデータ新聞データ54ファイル上の分布は表\ref{table:timex}のようになっている.事象表現の認定とクラス分類の分布は表\ref{table:event}に示す.\subsection{時間的順序関係の認定}作業者三人により時間的順序関係認定作業を開始した.計13+3+1種類のラベルを「文書作成日時と事象表現の順序関係(``DCT'')」「同一文内の時間情報表現と事象表現間順序関係(``T2E'')」「隣接事象表現間順序関係(``E2E'')」「隣接文の末尾の事象表現間順序関係(``MATRIX'')」の4種類の表現対に対して付与した.以下,作業者三人分の作業結果を示し,考察する.表\ref{result:order}が13+3+1種類のラベルと4種類の表現対ごとに集計したものである.$\cap$で結ばれた三つの数字は,三人の作業者が何件その関係を認定したかを示す.右``=''以下の数字はその中で三人\modified{が}一致した件数を示す.まず,\modified{一致した}ラベルの件数として,始点・終点の一致を必要としない`after',`during',`contains',`before'の頻度が多かった.始点・終点のいずれかの一致を必要とするラベルのうち,もっとも\modified{一致件数が}多いものは時間軸上の完全の一致を示す`equal'であった.また`vague'についても複数の作業者が認定し,314件一致しているところから,文脈を用いても時間的順序関係が推定できないものが少なからずあることがわかる.\begin{table}[b]\caption{\tlink\時間的順序関係ラベルの評価:作業者間の認定傾向の比較}\label{result:order}\input{02table08.txt}\end{table}表\ref{result:agreement}に4種類の\modified{表現対}ごとの一致率を集計したものを示す.一致率の評価基準として,「ラベル13+3+1種類を区別するもの(ラベル13+3+1)」「部分集合であるか否かを区別せず,ラベル13+1種類を区別するもの(ラベル13+1)」「TempEvalで用いられているラベル5+1種類(`BEFORE',`BEFORE-OR-OVERLAP',`OVERLAP',`OVERLAP-OR-AFTER',`AFTER',`VAGUE'\footnote{``ラベル13+3+1''および``ラベル13+1''のラベルと区別するために大文字表記を用いる.})に縮退するもの(ラベル5+1)」の3種類を用いる.まず,もっとも厳しい一致率評価基準(ラベル13+3+1)でも65.3\%の三人の一致率(Cohen'skappa0.733)であった.我々の手法では事象構造の認定については複数人で合議的に行い,その後限られた関係について時間的順序関係アノテーションを行っているが,事象構造の認定と関係対に対する関係タグ付与作業を同時に行っている英語のデータTimeBank1.2における\tlink\の一致度(関係対の認定の一致率55\%と一致した関係対に対する関係タグの一致率77\%)と比較しても遜色ないレベルだと考える.4種類の関係については,``DCT''が最も一致率が高く,次に``T2E''が高かった.これは片方が時間情報表現である場合に,時間情報表現側の時間軸上の絶対位置が推定しやすいことによるからだと考える.\begin{table}[t]\caption{\tlink\時間的順序関係ラベルの評価:4種類の関係対ごとの一致率}\label{result:agreement}\input{02table09.txt}\end{table}一致率評価基準について始点・終点の境界値一致の認定を緩和することで,``E2E'',``MATRIX''の関係は若干一致率があがることから,作業者間で事象構造の時間的な境界値にずれが生じていることがわかる.表\ref{result:classagreement}に\event\の\klass\ごとの一致率を集計したものを示す.まず,\modified{どちらかに静態表現である{\ttSTATE}を含む表現対}の\modified{作業者間ラベル}一致率が低い傾向にある.これは静態表現の始点・終点の認識が作業者間で一致することが困難であることによると考える.左項が時間情報表現({\ttDCT},{\ttTIMEX})であり,右項が{\ttSTATE}である表現をみても,他の時間情報表現-事象表現との関係と比して\modified{作業者間ラベル一致率}が低い.事象表現を項にとるかどうかの観点でみると,右項が{\ttREPORTING},{\ttI\_ACTION}の関係が平均よりも高い傾向にある.しかしながら,時間的順序関係が定義されている事象表現対が係り受け構造上の係り受け関係にあるか,また述語項関係になっているかを判断するためには他のアノテーションとの重ね合わせが必要である.今後他機関が作成しているアノテーションを重ね合わせたうえで検討していきたいと考えている.\begin{table}[t]\caption{\tlink\時間的順序関係ラベルの評価:\event\klass\\modified{ごと}の作業者三人の一致率}\label{result:classagreement}\input{02table10.txt}\end{table}\modified{最後に意味論アノテーションにおける正解のあり方について言及する.テキストが表出する意味レベルの情報の正解は,言語受容者によって完全に復元することは困難であり,100\%正しいものを作成するためには言語生産者によるアノテーション作業が不可欠である.言語生産者によるアノテーション作業をBCCWJに対して行うことは困難であるため,本研究では作業者三人の結果を統合した形での正解は作成しない.言語受容者の個人の心的空間における時間的順序関係の認識はそれぞれ異なっていてしかるべきであり,受容者\modified{ごと}に正解があると考える.}\modified{個々の言語受容者の作業結果の正誤判定として,それぞれのアノテーション内での無矛盾性の認定が考えられる.Allenの二次の範囲代数を,三次以上に拡張すると人の処理能力を超え,機械的に処理するにも適切な演算が必要になるため,今後の課題とする\footnote{Allenの範囲代数を拡張すると,三次で409クラス,四次で23,917クラス,五次で2,244,361クラスになることが知られている.}.}\modified{このアノテーションに基づき解析器の構成を行う場合には何らかの正解を決める必要がある.正解の設定として,一人の作業者のアノテーションを正解とする方法,三人の作業者が一致している部分を正解とする方法,三人の作業者それぞれの学習モデルを作成し多数決を取る方法などの様々な方法が考えられる.高性能な構造学習器を構成するためにどのように正解を認めるかについては,工学研究者に委ねたい.} \section{おわりに} \label{sec:conclusion}本研究では『現代日本語書き言葉均衡コーパス』のコアデータ中の新聞データに対して,時間的順序関係のアノテーションを行い,アノテーションの一致傾向について報告した.時間的順序関係を付与する事象表現の認定にあたり,時間軸上のインスタンスの認定可能性や,取りうる項が事象である場合に他の事象表現にどのような影響を与えるのかに基づいて,事象表現を7+2種類に分類した.\modified{次に,}三人の作業者による時間的順序関係の一致率などを検討した結果,事象構造の時間軸上の始点・終点の認識は揺れるものの,\modified{時間軸上の前後関係は時間情報表現にまつわるもので73\%以上(ラベル5+1評価でDCT74.8\%,T2E73.4\%),事象表現にまつわるもので62\%以上(ラベル5+1評価でE2E62.7\%,MATRIX62.3\%)の一致率}で付与できることがわかった.\modified{本研究におけるアノテーションの評価は,今回策定した基準や作業者で閉じているために限定的である.今後,データを公開\footnote{http://github.com/masayu-a/BCCWJ-Timebank}し,他機関で同じ部分に付与されているさまざまなアノテーションを重ね合わせ,齟齬や矛盾を分析することでより深い分析が可能になると考えられる.}\modified{また,\ref{sec:intro}節で述べた(b)の意味での目的に応えるために,本データを学習データとして用いた日本語時間的順序関係推定器の開発を今後行っていきたい.}英語の時間的順序関係推定器においては,\makeinstance\タグに付与されたテンス・アスペクトの情報が有効な特徴量となる.一方,日本語においては,テンス・アスペクトは,準アスペクト表現を除くと「ル」-「タ」×「テイル」-「テイタ」の二軸の対立しかない.そのうえ「ル」-「タ」の対立は非過去-過去の対立でしかなく,「ル」は定動詞・不定動詞の両方を表現する.このため,形態素解析結果から直接得られるこれらの情報は時間的順序関係推定器の決定的な特徴量とはならない.一方,BCCWJの当該箇所には,他機関によりモダリティ情報・係り受け構造・述語項構造などが付与されている.これらを重ね合わせることで実用的な時間的順序関係推定器が作成できると考えている.\acknowledgment本研究を行うにあたり,助言いただきました日本IBMの吉川克正氏,アノテーションに従事していただいた方々に感謝いたします.本研究は文科省科研費特定領域研究「代表性を有する大規模日本語書き言葉コーパスの構築:21世紀の日本語研究の基盤整備」,国語研基幹型共同研究プロジェクト「コーパスアノテーションの基礎研究」および国語研「超大規模コーパス構築プロジェクト」によるものです.本論文の一部はThe27thPacificAsiaConferenceonLanguage,Information,andComputation(PACLIC27)で発表したものです\cite{asahara-2013}.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Allen}{Allen}{1983}]{allen-1983}Allen,J.\BBOP1983\BBCP.\newblock\BBOQMaintainingknowledgeabouttemporalintervals.\BBCQ\\newblock{\BemCommunicationsoftheACM},{\Bbf26},\mbox{\BPGS\832--843}.\bibitem[\protect\BCAY{Asahara,Yasuda,Konishi,Imada,\BBA\Maekawa}{Asaharaet~al.}{2013}]{asahara-2013}Asahara,M.,Yasuda,S.,Konishi,H.,Imada,M.,\BBA\Maekawa,K.\BBOP2013\BBCP.\newblock\BBOQ{BCCWJ-TimeBank:TemporalandEventInformationAnnotationonJapaneseText}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe27thPacificAsiaConferenceonLanguage,Information,andComputation(PACLIC27)}}.\bibitem[\protect\BCAY{Boguraev\BBA\Ando}{Boguraev\BBA\Ando}{2005}]{Boguraev-2005}Boguraev,B.\BBACOMMA\\BBA\Ando,R.~K.\BBOP2005\BBCP.\newblock\BBOQ{TimeML-CompliantTextAnalysisforTemporalReasoning}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe19thInternationalJointConferenceonArtificialIntelligence(IJCAI-05)}},\mbox{\BPGS\997--1003}.\bibitem[\protect\BCAY{Boguraev\BBA\Ando}{Boguraev\BBA\Ando}{2006}]{Boguraev-2006}Boguraev,B.\BBACOMMA\\BBA\Ando,R.~K.\BBOP2006\BBCP.\newblock\BBOQ{AnalysisofTimeBankasaResourceforTimeMLparsing}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe5thInternationalConferenceonLanguageResourcesandEvaluation(LREC-06)}},\mbox{\BPGS\71--76}.\bibitem[\protect\BCAY{{DARPATIDES}}{{DARPATIDES}}{2004}]{TERN}{DARPATIDES}\BBOP2004\BBCP.\newblock{\Bem{TheTERNevaluationplan;timeexpressionrecognitionandnormalization}}.\newblock{Workingpapers,TERNEvaluationWorkshop}.\bibitem[\protect\BCAY{Grishman\BBA\Sundheim}{Grishman\BBA\Sundheim}{1996}]{MUC6}Grishman,R.\BBACOMMA\\BBA\Sundheim,B.\BBOP1996\BBCP.\newblock\BBOQ{MessageUnderstandingConference-6:abriefhistory}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe16thInternationalConferenceonComputationalLinguistics(COLING-96)}},\mbox{\BPGS\466--471}.\bibitem[\protect\BCAY{橋本\JBA中村}{橋本\JBA中村}{2010}]{Hashimoto-2010}橋本泰一\JBA中村俊一\BBOP2010\BBCP.\newblock{拡張固有表現タグ付きコーパスの構築—白書,書籍,Yahoo!知恵袋コアデータ—}.\\newblock\Jem{{言語処理学会第16回年次大会発表論文集}},\mbox{\BPGS\916--919}.\bibitem[\protect\BCAY{{IREX実行委員会}}{{IREX実行委員会}}{1999}]{IREX}{IREX実行委員会}\BBOP1999\BBCP.\newblock\Jem{{IREXワークショップ予稿集}}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2011}]{BCCWJ}国立国語研究所\BBOP2011\BBCP.\newblock\Jem{『現代日本語書き言葉均衡コーパス』利用の手引き}(第1.0\JEd).\bibitem[\protect\BCAY{小西\JBA浅原\JBA前川}{小西\Jetal}{2013}]{小西-2013}小西光\JBA浅原正幸\JBA前川喜久雄\BBOP2013\BBCP.\newblock『現代日本語書き言葉均衡コーパス』に対する時間情報アノテーション.\\newblock\Jem{自然言語処理},{\Bbf20}(2),\mbox{\BPGS\201--222}.\bibitem[\protect\BCAY{工藤}{工藤}{1995}]{工藤1995}工藤真由美\BBOP1995\BBCP.\newblock\Jem{アスペクト・テンス体系とテクスト—現代日本語の時間の表現—}.\newblockひつじ書房.\bibitem[\protect\BCAY{工藤}{工藤}{2004}]{工藤2004}工藤真由美\BBOP2004\BBCP.\newblock\Jem{日本語のアスペクト・テンス・ムード体系—標準語研究を超えて—}.\newblockひつじ書房.\bibitem[\protect\BCAY{Mani}{Mani}{2006}]{Mani-2006}Mani,I.\BBOP2006\BBCP.\newblock\BBOQ{MachineLearningofTemporalRelations}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe44thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2006)}},\mbox{\BPGS\753--760}.\bibitem[\protect\BCAY{中村}{中村}{2001}]{中村2001}中村ちどり\BBOP2001\BBCP.\newblock\Jem{日本語の時間表現}.\newblockくろしお出版.\bibitem[\protect\BCAY{Pustejovsky,Casta{\~n}o,Ingria,Saur\'{i},Gaizauskas,Setzer,\BBA\Katz}{Pustejovskyet~al.}{2003a}]{TimeML}Pustejovsky,J.,Casta{\~n}o,J.,Ingria,R.,Saur\'{i},R.,Gaizauskas,R.,Setzer,A.,\BBA\Katz,G.\BBOP2003a\BBCP.\newblock\BBOQ{TimeML:RobustSpecificationofEventandTemporalExpressionsinText}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe5thInternationalWorkshoponComputationalSemantics(IWCS-5)}},\mbox{\BPGS\337--353}.\bibitem[\protect\BCAY{Pustejovsky,Hanks,Saur\'{i},See,Gaizauskas,Setzer,Sundheim,Ferro,Lazo,Mani,\BBA\Radev}{Pustejovskyet~al.}{2003b}]{TimeBank}Pustejovsky,J.,Hanks,P.,Saur\'{i},R.,See,A.,Gaizauskas,R.,Setzer,A.,Sundheim,B.,Ferro,L.,Lazo,M.,Mani,I.,\BBA\Radev,D.\BBOP2003b\BBCP.\newblock\BBOQ{TheTIMEBANKCorpus}.\BBCQ\\newblockIn{\Bem{ProceedingsofCorpusLinguistics2003}},\mbox{\BPGS\647--656}.\bibitem[\protect\BCAY{Pustejovsky\BBA\Stubbs}{Pustejovsky\BBA\Stubbs}{2012}]{Pustejovsky-2012}Pustejovsky,J.\BBACOMMA\\BBA\Stubbs,A.\BBOP2012\BBCP.\newblock{\BemNaturalLanguageAnnotation}.\newblockO'Reilly.\bibitem[\protect\BCAY{Sekine,Sudo,\BBA\Nobata}{Sekineet~al.}{2002}]{Sekine-2002}Sekine,S.,Sudo,K.,\BBA\Nobata,C.\BBOP2002\BBCP.\newblock\BBOQ{ExtendedNamedEntityHierarchy}.\BBCQ\\newblockIn{\Bem{ProceedingofthethirdInternationalConferenceonLanguageResourcesEvaluation(LREC-02)}},\mbox{\BPGS\1818--1824}.\bibitem[\protect\BCAY{Setzer}{Setzer}{2001}]{Setzer-2001}Setzer,A.\BBOP{2001}\BBCP.\newblock{\Bem{TemporalInformationinNewswireArticles:AnAnnotationSchemeandCorpusStudy}}.\newblockPh.D.\thesis,{UniversityofSheffield}.\bibitem[\protect\BCAY{UzZaman,Llorens,Derczynski,Allen,Verhagen,\BBA\Pustejovsky}{UzZamanet~al.}{2013}]{TempEval3}UzZaman,N.,Llorens,H.,Derczynski,L.,Allen,J.,Verhagen,M.,\BBA\Pustejovsky,J.\BBOP2013\BBCP.\newblock\BBOQSemEval-2013Task1:TempEval-3:EvaluatingTimeExpressions,Events,andTemporalRelations.\BBCQ\\newblockIn{\Bem2ndJointConferenceonLexicalandComputationalSemantics(*SEM),Volume2:Proceedingsofthe7thInternationalWorkshoponSemanticEvaluation(SemEval2013)},\mbox{\BPGS\1--9},Atlanta,Georgia,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Verhagen,Gaizauskas,Schilder,Hepple,Kats,\BBA\Pustejovsky}{Verhagenet~al.}{2007}]{TempEval}Verhagen,M.,Gaizauskas,R.,Schilder,F.,Hepple,M.,Kats,G.,\BBA\Pustejovsky,J.\BBOP2007\BBCP.\newblock\BBOQ{SemEval-2007Task15:TempEvalTemporalRelationIdentification}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe4thInternationalWorkshoponSemanticEvaluations(SemEval-2007)}},\mbox{\BPGS\75--80}.\bibitem[\protect\BCAY{Verhagen,Saur\'{i},Caselli,\BBA\Pustejovsky}{Verhagenet~al.}{2010}]{TempEval2}Verhagen,M.,Saur\'{i},R.,Caselli,T.,\BBA\Pustejovsky,J.\BBOP2010\BBCP.\newblock\BBOQ{SemEval-2010Task13:TempEval-2}.\BBCQ\\newblockIn{\Bem{Proceedingsofthe5thInternationalWorkshoponSemanticEvaluations(SemEval-2010)}},\mbox{\BPGS\57--62}.\end{thebibliography}\begin{biography}\bioauthor{保田祥}{2011年神戸大学人文学研究科博士後期課程修了.2013年より国立国語研究所コーパス開発センタープロジェクトPDフェロー.現在に至る.博士(文学).認知意味論の研究に従事.}\bioauthor{小西光}{2005年上智大学文学部卒業.2007年上智大学文学研究科博士前期課程修了.2008年より国立国語研究所コーパス開発センタープロジェクト奨励研究員.現在に至る.『日本語書き言葉均衡コーパス』『日本語話し言葉コーパス』『日本語大規模コーパス』の整備に携わる.}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2004年より同大学助教.2012年より国立国語研究所コーパス開発センター特任准教授.現在に至る.博士(工学).形式意味論の研究に従事.}\bioauthor{今田水穂}{2010年筑波大学人文社会科学研究科博士課程修了.筑波大学特任研究員を経て,2013年より国立国語研究所コーパス開発センタープロジェクトPDフェロー.現在に至る.博士(言語学).概念意味論の研究に従事.}\bioauthor{前川喜久雄}{1956年生.1984年上智大学大学院外国語学研究科博士後期課程(言語学)中途退学.国立国語研究所教授.言語資源系長.コーパス開発センター長.副所長.博士(学術).専門は音声学ならびに言語資源学.}\end{biography}\biodate\end{document}
V10N03-01
\section{はじめに} \label{sec:intro}語義曖昧性解消(WordSenseDisambiguation,以下WSD)は機械翻訳,情報検索など,自然言語処理の多くの場面で必要となる基礎技術である\cite{ide:98:a}.SENSEVALはWSDのコンテストであり,WSDの共通の評価データを作成し,その上で様々なシステム・手法を比較することによってWSDの研究・技術を向上させることを目的としている.SENSEVALは過去2回行われている.第1回のSENSEVAL~\cite{kilgarriff:00:a}は1998年夏に,第2回のSENSEVAL-2~\cite{senseval2:00:a}は2001年春に行われた.SENSEVAL-2では,9言語を対象に37研究グループが参加した.日本語を対象としたタスクとしては,辞書タスクと翻訳タスクの2つが行われた.辞書タスクでは語の意味の区別(曖昧性)を国語辞典によって定義し,翻訳タスクではこれを訳語選択によって定義した.本論文は,SENSEVAL-2の日本語辞書タスクについて,タスクの概要,データ,コンテストの結果について報告する.まず,日本語辞書タスクの概要について述べる.SENSEVAL-2では,タスクをlexicalsampletaskとallwordstaskに大別している.lexicalsampletaskは特定(数十〜数百)の単語だけをWSDの対象とし,allwordstaskでは評価テキスト中のすべての単語を対象とする.日本語辞書タスクはlexicalsampletaskである.以下,本論文では,評価の対象として選ばれた単語を評価単語と呼び,評価単語の評価データ中での実際の出現を評価インスタンス,または単にインスタンスと呼ぶ.辞書タスクでは,単語の語義を岩波国語辞典~\cite{nisio:94:a}の語義立てによって定義した.参加者は,テキスト中の評価インスタンスに対して,該当する語義を岩波国語辞典の語釈の中から選択し,その語釈に対応したID(以下,語義ID)を提出する.評価テキストは毎日新聞の1994年の新聞記事を用いた.語義を決定する評価単語の数は100と設定した.また,評価単語のそれぞれについて100インスタンスずつ語義を決めるとした.すなわち,評価インスタンスの総数は10,000である.本タスクには3団体,7システムが参加した.本論文の構成は以下の通りである.\ref{sec:data}節では,辞書タスクで用いたデータの概要を述べる.\ref{sec:goldstandard}節では,正解データの作成手順について述べる.また,正解データを作成する際,1つの評価インスタンスに対して二人の作業者が独立に正しい語義を選択したが,そのときの語義の一致率などについても報告する.\ref{sec:contest}節では,参加者のシステムの概要やスコアなどについて述べ,コンテストの結果に関する簡単な考察を行う.最後に\ref{sec:conclusion}節では,本論文のまとめを行う. \section{データ} \label{sec:data}本節では,辞書タスクで用いられた3つのデータ,岩波国語辞典,訓練データ,評価データについて述べる.\subsection{岩波国語辞典}\label{sec:iwanami}\ref{sec:intro}節で述べたように,辞書タスクでは,岩波国語辞典によって語義を定義する.岩波国語辞典の見出しの数は60,321,語義の総数は85,870であり,一見出し当たりの平均語義数は1.42である.岩波国語辞典の語釈文の例を図~\ref{fig:dic-MURI}に示す.また,岩波国語辞典では,語義は階層構造を持つ.例えば,図~\ref{fig:dic-MURI}では,「理を欠くこと」という語義が\MARU{ア},\MARU{イ}の語義の上位にある.階層構造の最大の深さは3である.辞書タスクでは,語義の定義として,形態素解析された岩波国語辞典の語釈文と,それに対応する語義IDが参加者に配布された.なお,語釈文の形態素解析結果は人手修正されている.\begin{figure}[btp]\begin{center}\noindent\Ovalbox{\begin{tabular}{@{\hspace*{5mm}}l@{}p{0.7\textwidth}@{\hspace*{5mm}}}\\[-4mm]\multicolumn{2}{l}{むり【無理】}\\[1mm]\multicolumn{2}{l}{((名・ダナ))理を欠くこと。}\\\hspace*{1.5zw}\MARU{ア}&道理に反すること。「—が通れば道理が引っ込む」「君が怒るのは—もない(=もっともだ)」。理由が立たないこと。「—な願い」\\\hspace*{1.5zw}\MARU{イ}&行いにくいのに、押してすること。「—をして出掛ける」「仕事の—で病気になる」\\[1mm]\end{tabular}}\end{center}\caption{岩波国語辞典の「無理」の語釈文}\label{fig:dic-MURI}\bigskip\end{figure}\subsection{訓練データ}\label{sec:traindata}訓練データは,毎日新聞の1994年の3,000記事を解析したコーパスである.このコーパスに付与されている情報を以下にまとめる.\begin{itemize}\item形態素情報(分かち書き,品詞,読み,基本形)コーパスに含まれる形態素数は880,000である.これらは人手修正されている.\itemUDCコード各記事には,テキストの分類カテゴリを表わす指標として,国際十進分類法(UniversalDecimalClassification,UDC)によるコード番号~\cite{infosta:94:a}が人手によって付与されている.\item語義情報各単語には,その単語の意味に該当する語義IDが付与されている.但し,語義IDはコーパスの全ての単語ではなく,以下の条件を満たす単語のみに付与されている.\begin{itemize}\item名詞,動詞,形容詞のいずれかである\item岩波国語辞典に見出しがある\item多義である\end{itemize}語義が付与されている形態素の総数は148,558である.語義IDは全て人手によって付与された.また,1つの単語に語義IDを付与した人は1人である.複数の人が同じ単語に語義IDを付与し,それらを照合するといった作業は行われていない.\end{itemize}\subsection{評価データ}\label{sec:evaldata}評価データは,評価インスタンスとその正解となる語義IDを含むテキストである.評価テキストとして毎日新聞の1994年の記事を用いた.これらは訓練データの記事とは異なる.評価データに付与されている情報は以下の通りである.\begin{itemize}\item形態素情報(分かち書き,品詞)これらは自動解析されたものである.訓練データとは異なり,人手による修正はされていない.したがって,訓練データで学習したWSDシステムを評価データに適用した際,訓練データと評価データにおける分かち書きや品詞付けの違いによって誤りが生じる可能性がある.本来は評価データの形態素情報も人手修正するべきであったが,今回は準備期間が短かったために断念した.\itemUDCコード訓練データにおけるUDCコードと同じ.\item語義情報(正解データ)評価インスタンスには正解となる語義IDが付与されている.また,訓練データとは異なり,1つのインスタンスに対して最低2人の人が語義IDを付与している(詳細は\ref{sec:goldstandard}節を参照).もちろん,この情報はコンテストの際には参加者に配布されない.\end{itemize}\subsection{付加情報}本節で述べた岩波国語辞典,訓練データ,評価データの付加情報のほとんどは,RWCPによって作成され,1997年から既に公開されているデータである.訓練データの語義情報については\cite{sirai:01:b},それ以外の情報については\cite{hasida:98:a}を参照していただきたい.これに対し,評価データの語義情報,すなわち正解となる語義IDのデータは,今回のコンテストのために新たに作成した.\ref{sec:goldstandard}節では,正解データの作成過程ならびにその概要について述べる. \section{正解データの作成} \label{sec:goldstandard}正解データの作成は以下のように行った.まず評価単語を100語選定した.次に,各評価単語毎に100,合計10,000の評価インスタンスを選定した.さらに,各評価インスタンスに対し,のべ二人の作業者が語義IDを付与した.本節では,正解データ作成の過程,ならびに二者の語義IDの一致度などについて報告する.\subsection{評価単語,評価インスタンスの選定}\label{sec:dic-target-word-selection}評価単語を選定する際には,以下の点を考慮した.\begin{itemize}\item評価単語の品詞は名詞または動詞とした.\item訓練データにおける出現頻度が50以上の単語を評価単語とした.\item訓練データにおける語義の頻度分布のエントロピー$E(w)$を考慮した.$E(w)$の定義を式~(\ref{eq:dic-entropy})に示す.\begin{equation}\label{eq:dic-entropy}E(w)=-\sum_ip(s_i|w)\logp(s_i|w)\end{equation}式(\ref{eq:dic-entropy})において,$P(s_i|w)$は単語$w$の語義が$s_i$となる確率を表わす.$E(w)$の値が大きい単語は,語義の頻度分布が一様であり,語義を決定することが比較的難しい単語であると考えられる.一方,$E(w)$の値が小さい単語は,1つの語義が集中して現われる傾向が強く,語義の決定も比較的易しいと考えられる.評価単語の選定の際には,$E(w)$をWSDの難易度の目安とした.具体的には,以下の3つの難易度クラスを設定し,それぞれのクラスから評価単語をまんべんなく選ぶようにした.\begin{enumerate}\item高難易度の単語クラス\clA($E(w)\ge1$)\item中難易度の単語クラス\clB($0.5\leE(w)<1$)\item低難易度の単語クラス\clC($E(w)<0.5$)\end{enumerate}\end{itemize}品詞別,難易度クラス別の評価単語数の内訳を表~\ref{tab:targetwords}に示す.また,評価単語の一覧を付録\ref{sec:targetwordlist}に示す.表~\ref{tab:targetwords}において,「語義数」は評価単語の岩波国語辞典における語義の数の平均を,「$E(w)$」は評価単語毎に求めた訓練データにおけるエントロピーの平均を表わす.\begin{table}[tbp]{\normalsize\begin{center}\caption{評価単語数の内訳}\label{tab:targetwords}\smallskip\begin{tabular}[t]{|c|l|ccc||c|}\hline\multicolumn{2}{|c|}{}&\makebox[12mm]{\clA}&\makebox[12mm]{\clB}&\makebox[12mm]{\clC}&\makebox[12mm]{計}\\\hline&単語数&{\bf10}&{\bf20}&{\bf20}&{\bf50}\\名詞&語義数&9.1&3.7&3.3&4.6\\&$E(w)$&1.19&0.723&0.248&0.627\\\hline&単語数&{\bf10}&{\bf20}&{\bf20}&{\bf50}\\動詞&語義数&18&6.7&5.2&8.3\\&$E(w)$&1.77&0.728&0.244&0.743\\\hline\hline&単語数&{\bf20}&{\bf40}&{\bf40}&{\bf100}\\計&語義数&14&5.2&4.2&6.4\\&$E(w)$&1.48&0.725&0.246&0.685\\\hline\end{tabular}\end{center}}\end{table}次に,評価テキストである1994年の毎日新聞の記事中から評価インスタンスを選択した.これらの記事には,RWCPによって,形態素情報とUDCコードが付加情報として与えられている.各評価単語毎に,日付の古い記事から順に100語を選択し,それらを評価インタンスとした.ただし,訓練データの記事やUDCコードが付与されていない記事は対象外とした.評価単語は100語であるので,評価インタンスの総数は10,000である.また,評価インスタンスが選ばれた記事の総数は2,130となった.\subsection{語義IDの付与}\label{sec:dic-annotating}10,000語の評価インスタンスに対して,その単語の意味に該当する語義IDを人手で付与した.語義IDを付与した作業者は6名で,言語学や辞書編纂の知識をある程度持っている人達である.また,本タスクの訓練データはRWCPが作成したコーパスを利用しているが,今回の作業者の中には訓練データへ語義IDを付与した人も含まれる.その手順を以下にまとめる.\begin{enumerate}\item二人の作業者が独立に語義IDを付与する.その際の大まかな指針は以下の通りである.\begin{itemize}\item1つの語義IDを選択する.複数の語義IDは選択しない.\itemどの階層の語義IDを選んでもよい.\item岩波国語辞典の語釈の中に該当するものがなければ,UNASSIGNABLE(該当無し)とする.ただし,なるべくUNASSIGNABLEとすることは避け,岩波国語辞典の語釈の中から語義IDを選択する.\end{itemize}\item二者が選んだ語義IDが一致していれば,それを正解の語義IDとする.\item二者が選んだ語義IDが一致していなければ,第三者がその中から正しいと思われるものを選択する.ただし,第三者が,二者が選んだ語義ID以外の語義IDが正しいと判断した場合には,三者が選んだ3つの語義IDの全てを正解とする.\end{enumerate}語義IDを選択する際,どの階層の語義IDを選んでもよいとしたが,階層構造の末端以外の語義IDが選択されたインスタンスの数は94であり,階層の上の語義IDはあまり選ばれなかった.また,二者の語義IDが一致せず,第三者も違う語義IDを選んだインスタンスの数は28であり,その全体に対する割合は0.3\,\%と非常に少なかった.表~\ref{tab:dic-agreeement}は,作業者二人が最初に選んだ語義IDの一致率を示したものである.評価インスタンス全体における一致率は86.3\,\%であった.名詞と動詞とで一致率を比較すると,それほど差が見られないことがわかる.また,名詞,動詞ともに,難易度の高いクラスの単語ほど一致率が低くなるが,その傾向は名詞よりも動詞の方が強いことがわかる.一方,表~\ref{tab:kappa}は評価単語毎に計算したCohenの$\kappa$~\cite{bakeman:97:a}の平均を示したものである.$\kappa$とは二系列のデータがどの程度一致しているかを測るためによく用いられる統計的尺度であり,式(\ref{eq:kappa})で与えられる.\begin{eqnarray}\label{eq:kappa}\kappa&=&\frac{P_o-P_e}{1-P_e}\\[2mm]\label{eq:p_o}P_o&=&\frac{\sum_ix_{ii}}{n}\\[2mm]\label{eq:p_e}P_e&=&\frac{\sum_{i=1}^kx_{+i}x_{i+}}{n^2}\end{eqnarray}\noindent式(\ref{eq:p_o})と(\ref{eq:p_e})において,$n$はインスタンスの総数を,$x_{ij}$は作業者Aが語義$i$,作業者Bが語義$j$を与えたインスタンスの数を,$x_{i+},x_{+i}$はそれぞれ作業者A,Bが語義$i$を与えたインスタンスの数を表わす.$P_o$は二人の作業者が同じ語義を付与した実際の確率であり,$P_e$は二人の作業者の語義付与が独立であるときに同じ語義を付与する期待値である.$\kappa$は両者の比から計算され,その値が大きいほど,二者の語義付与が一致していることを示す.その最大値は1である.評価単語100語の$\kappa$の平均は0.657であり,決して大きいとは言えない.このことは,岩波国語辞典の語釈の中から正しい語義を選択する作業は人間でも難しく,付与される語義が人によって揺れやすいことを示唆している.また,表~\ref{tab:kappa}を見ると,表~\ref{tab:dic-agreeement}の一致率とは異なり,名詞で難易度クラスが\clBのときの$\kappa$の値が不自然に低いことがわかる.これは,一致率と$\kappa$が作業者間の語義の一致度に関して必ずしも同じ傾向を示すわけではないためと考えられる.例えば,100個の評価インスタンスに対して,作業者Aが語義~$\!{}_1$を100回付与し,作業者Bが語義~$\!{}_1$を99,語義~$\!{}_2$を1回付与したとする.このとき,一致率は0.99と高いのに対し,$\kappa$は0となる.直観的には,$\kappa$の値はもっと大きいと考えられるが,これは統計的に信頼できる$\kappa$を求めるのに十分な量のサンプルがなかったためかもしれない.今回の作業では,1つの評価単語のインスタンスの数は100なので,$\kappa$を求める際のサンプル数$n$も100である.\begin{table}[tbp]{\normalsize\begin{center}\caption{作業者の語義IDの一致率}\label{tab:dic-agreeement}\medskip\begin{tabular}{|c|ccc|c|}\hline&\clA&\clB&\clC&計\\\hline名詞&0.809&0.786&0.957&0.859\\動詞&0.699&0.896&0.922&0.867\\\hline計&0.754&0.841&0.939&0.863\\\hline\end{tabular}\bigskip\caption{$\kappa$の平均}\label{tab:kappa}\medskip\begin{tabular}{|c|ccc|c|}\hline&\clA&\clB&\clC&計\\\hline名詞&0.713&0.526&0.655&0.616\\動詞&0.605&0.723&0.722&0.698\\\hline計&0.659&0.627&0.687&0.657\\\hline\end{tabular}\end{center}}\end{table} \section{コンテスト} \label{sec:contest}\subsection{参加団体}\label{sec:participants}辞書タスクには3団体7システムが参加した.参加団体とそのシステムの特徴は以下の通りである.いずれのシステムも訓練データを利用した教師あり学習を行っている.\begin{itemize}\item通信総研(CRL)以下の4つのシステムによって回答を提出した.システム名とその概要は以下の通りである~\cite{murata:01:a}.\begin{itemize}\itemCRL1\\分類器としてサポートベクトルマシンを使用したシステム.学習に用いる素性としては,対象語及びその周辺にある単語の表記,品詞,構文情報,意味クラスやUDCコードなどを用いている.\itemCRL2\\分類器としてシンプルベイズを使用したシステム.学習に用いる素性はCRL1と同じ.\itemCRL3\\シンプルベイズとサポートベクトルマシンの混合モデル.個々の対象単語毎に,それぞれの分類器の精度を学習データを用いたクロスバリデーションによって評価し,精度の高い分類器を選択している.\itemCRL4\\CRL3と同じような混合モデル.CRL1と同じ素性を用いたシンプルベイズとサポートベクトルマシン,CRL1の素性のうち構文素性を使わないシンプルベイズとサポートベクトルマシンの4つの分類器を使用している.\end{itemize}\item奈良先端科学技術大学院大学(NAIST)以下の1つのシステムによって回答を提出した.その概要は以下の通りである~\cite{takamura:01:a}.\begin{itemize}\itemNAIST\\分類器としてサポートベクトルマシンを用いている.学習に用いる素性は,対象語及びその周辺にある単語の表記や品詞の情報などである.さらに,独立成分分析(IndependentComponentAnalysis,ICA)や主成分分析(PrincipleComponentAnalysis,PCA)といった手法を用いて,素性空間の再構築を行っている.また,複数の素性空間によって学習された分類器を混合している\footnote{SENSEVAL-2の参加システムは文献~\cite{takamura:01:a}のシステムと厳密に同じではない.両者の違いは,複数の分類器を混合する際に,前者ではクロスバリデーションによって最も良いと思われる分類器を選択しているのに対し,後者では重み付き多数決によって複数の分類器を混合している.}.\end{itemize}\item東京工業大学(TITECH)以下の2つのシステムによって回答を提出した.システム名とその概要は以下の通りである~\cite{yagi:01:a}.\begin{itemize}\itemTITECH1\\分類器として決定リストを用いている.学習に用いる素性は,対象語及びその周辺にある単語の表記,品詞やUDCコードである.また,訓練データの他に,岩波国語辞典の語釈文中の例文からも決定リストの規則を学習している.\itemTITECH2\\TITECH1とほぼ同じであるが,評価データに付与された形態素情報の誤りを自動修正することを試みている.\end{itemize}\end{itemize}\subsection{評価基準}\label{sec:scoring}SENSEVAL-2では,全ての言語のタスクにおける共通の評価基準として,以下に述べる3つの評価基準がある.辞書タスクでも,この評価基準に従ってシステムの評価を行った.\begin{itemize}\itemfine-grainedscoring正解の語義IDとシステムの語義IDが完全に一致していれば正解とする.\itemcoarse-grainedscoring正解の語義IDとシステムの語義IDが,語義の階層構造の一番上の層で一致していれば正解とする.\itemmixed-grainedscoring正解の語義IDとシステムの語義IDが完全に一致していなくても,語義の階層構造に従って部分的にスコアを与える方式で,fine-grainedとcoarse-grainedの中間にあたる.語義の階層構造において,正解の語義IDがシステムが出力する語義IDの親であるなら正解とみなす(図~\ref{fig:mixed-grained}(a)).逆に,システムの語義IDが正解の語義IDの親であるなら,\begin{equation}\label{eq:mixed-grained}\frac{1}{システムの語義\rm{ID}の子の数}\end{equation}といった部分的なスコアを与える(図~\ref{fig:mixed-grained}(b)).\end{itemize}\noindent参加者は,1つの評価インスタンスに対して複数の語義IDを返してもよい.また,インスタンスの意味がその語義IDである確率をつけて返してもよい.確率をつけずに複数の語義IDを回答した場合には,全ての語義IDの確率が等しいとして取り扱われる.複数の語義IDが提出されたときには,各語義IDの確率に従ってスコアの重み付き平均をとる.また,正解の語義IDが複数ある場合は,正解の語義ID毎にスコアを計算し,その和を全体のスコアとする.\begin{figure}[tbp]\begin{center}\epsfile{file=scoring.eps,scale=0.72}\caption{評価基準(mixed-grainedscoring)}\label{fig:mixed-grained}\end{center}\end{figure}\subsection{評価結果と考察}\label{sec:results}\begin{figure}[tbp]\begin{center}\epsfile{file=res2.eps,scale=0.45}\caption{辞書タスクの結果}\label{fig:res}\end{center}\end{figure}本項では,コンテストの結果とそれに関する考察について述べる.まず,システムの評価結果を図~\ref{fig:res}に示す.図~\ref{fig:res}において,``Baseline''は訓練データにおける最頻出語義を選択したときのスコアを,``Agree''は2人の作業者の語義IDが一致した割合を示している.参加システムの中で一番スコアが良かったのはCRL4である.しかし,どのシステムもベースラインを上回り,お互いのスコアの差も3\,\%程度で,それほど大きな差は見られなかった.3つの評価基準によるスコアのうち,coarse-grainedscoreはBaselineも含めてほとんど差はない.また,mixed-grainedとfine-grainedでは,システム間の差に見られる傾向はほとんど同じである.そのため,以後の考察はfine-grainedscoreについてのみ行う.\subsubsection{品詞別に見た評価結果}\label{sec:results-pos}\begin{figure}[tbp]\begin{center}\epsfile{file=res-pos-fine.eps,scale=0.4}\caption{品詞別スコア(fine-grained)}\label{fig:res-pos}\end{center}\end{figure}図\ref{fig:res-pos}は,品詞別に見た各システムのスコア(fine-grained)を示したグラフである.ベースラインを比べると,動詞の方が名詞よりも平均エントロピーが大きい(表~\ref{tab:targetwords})にも関わらず,約3\,\%ほどスコアが高い.これは,特にエントロピーの高い評価単語が動詞にいくつかあり,それらが動詞の平均エントロピーを大きくしているためと考えられる.参加者のシステムを比べると,名詞のスコアは比較的差が小さいが,動詞のスコアは差が大きい.特に通信総研のシステムは動詞に対するスコアが高く,このことが全体の評価においても他のシステムよりもスコアが高い要因となっている.この原因を明らかにするために,CRL1が正解しNAISTとTITECH2が不正解であった動詞のインスタンス(139事例)を抜き出し,どのような動詞に対してCRLのシステムが正しく語義を決めることができるのかについて調査した.通信総研の4つのシステムの中からCRL1を選択したのは,CRL1が学習アルゴリズムとしてサポートベクトルマシンを採用したシステムであり,同じくサポートベクトルマシンを用いたNAISTと比較するためである.また,東工大の2つのシステムの中からTITECH1を選択したのは,TITECH1の方がTITECH2に比べて若干スコアが高いためである.\begin{figure}[tbp]\begin{center}(a)\raisebox{2mm}{\setlength{\sensedescwidth}{100mm}\addtolength{\sensedescwidth}{-7mm}\begin{tabular}[t]{|p{7mm}@{$\;$}p{\sensedescwidth}|c@{\hspace*{1.8mm}}c@{\hspace*{1.8mm}}c|c|}\hline\multicolumn{2}{|l|}{「えがく」の語義(抜粋)}&C&N&T&\multicolumn{1}{@{}c@{}|}{正解}\\\hline\sensesymbol{0.75zw}{\MARU{1}}&\tume{絵や図をかく。「弧を—いて飛ぶ」}&20&&&○\\\sensesymbol{0.75zw}{\MARU{2}}&\tume{様子を写し出す。表現する。描写する。「情景を—」「勝利を胸に—」}&&20&20&\\\hline\hline\multicolumn{6}{|p{128mm}|}{\tume{そのわきで、歴代王たちの肖像を\head{描い}た百メートルにも及ぶ美しい壁画が風雨にさらされている。}}\\\hline\end{tabular}}\bigskip(b)\raisebox{2mm}{\setlength{\sensedescwidth}{100mm}\addtolength{\sensedescwidth}{-7mm}\begin{tabular}[t]{|p{7mm}@{$\;$}p{\sensedescwidth}|c@{\hspace*{1.8mm}}c@{\hspace*{1.8mm}}c|c|}\hline\multicolumn{2}{|l|}{「とう」の語義(抜粋)}&C&N&T&\multicolumn{1}{@{}c@{}|}{正解}\\\hline\sensesymbol{0pt}{[一]}&\tume{【問う】((五他))}&&&&\\\sensesymbol{0.75zw}{\MARU{1}}&\tume{わからない事、はっきりしない事を、知らせ(教え)てくれるように求める。問題として出す。「年齢を—わず(=問題とせず。それで差別しないで)出願できる」}&14&&&○\\\sensesymbol{0.75zw}{\MARU{2}}&\tume{物事の原因、責任の所在、罪を犯した事実などを取り立てて、明らかにするためにただす。「事故の原因を—」「責任を—」}&&14&14&\\\sensesymbol{0pt}{[二]}&\tume{【訪う】((五他))他人の家や特定の場所を訪問する。おとずれる。たずねる。「恩師を—」「名所旧跡を—」}&&&&\\\hline\hline\multicolumn{6}{|p{128mm}|}{\tume{交換できる本は汚れのひどくないもので、引き取り価格は一律定価の一〇%。分野は\head{問わ}ず漫画も可。}}\\\hline\end{tabular}}\medskip\begin{minipage}{0.75\textwidth}\smallC,N,Tの欄はそれぞれ通信総研,奈良先端大,東工大のシステムが該当する語義を出力した頻度を表わす.語釈文の下は,対象インスタンスとそれが現われる新聞記事の例である.対象インスタンスは\head{~~}でマークされている.\end{minipage}\caption{CRL1が正解する動詞の例}\label{fig:verbc+n-t-}\end{center}\end{figure}調査の結果,「描く」「問う」などの動詞について,CRL1は他のシステムよりも正解率が高いことがわかった.これらの動詞の岩波国語辞典の語釈文と,各システムが出力した語義の頻度を図~\ref{fig:verbc+n-t-}に示す.しかし,これらの例を見ただけでは,CRL1がNAISTやTITECH1に比べて動詞のスコアが高い原因はわからない.原因のひとつとして考えられるのは,CRL1がNAISTやTITECH1と比べて,より多くの素性を用いていることである(\ref{sec:participants}項参照).但し,この推察を裏付けるためには,各システムが個々のインスタンスに対して語義を決める際に手がかりとした素性を明らかにする必要がある.例えば,図~\ref{fig:verbc+n-t-}に示したインスタンスに対して,CRL1がNAISTやTITECH2が考慮していない構文素性などの素性を特に手がかりとしていることが明らかになれば,それらの素性が動詞の語義曖昧性解消に有効であると結論できる.但し,著者は,各システムが語義を決定する際に一番有力な手がかりとした素性に関する情報を持っていないため,上記の考察を具体的に検証することはできなかった.しかし,このように複数のWSDシステムの出力を詳細に比較することは,WSDに有効な素性を明らかにし,今後のWSDシステムの精度向上につながる可能性がある.\subsubsection{難易度別に見た評価結果}\label{sec:results-dif}\begin{figure}[tbp]\begin{center}\epsfile{file=res-dif-fine.eps,scale=0.4}\caption{難易度別スコア(fine-grained)}\label{fig:res-dif}\end{center}\end{figure}図~\ref{fig:res-dif}は,難易度別に見た各システムのスコア(fine-grained)を示したグラフである.クラス\clCの単語については,ベースラインや作業者の一致率も含めて,各システムのスコアにほとんど差がない.これは,クラス\clCの単語の語義を決定するタスクが比較的容易であったためと考えられる.これに対し,難易度の高い\clAや\clBの単語では,システム間の相違は全体での評価(図~\ref{fig:res})とほぼ同じである.\subsubsection{参加システムの比較}\label{sec:comparingsystems}\begin{table}[tbp]{\normalsize\begin{center}\caption{個々のインスタンスに対する参加システムの比較}\label{tab:comparingsystems}\medskip\begin{tabular}{|c||c|ccc|ccc|c|}\hline&\multicolumn{1}{c|}{(a)}&\multicolumn{3}{c|}{(b)}&\multicolumn{3}{c|}{(c)}&\multicolumn{1}{c|}{(d)}\\\hlineCRL4&○&○&×&×&×&○&○&×\\[-1mm]NAIST&○&×&○&×&○&×&○&×\\[-1mm]TITECH1&○&×&×&○&○&○&×&×\\\hline&6558&~345&~283&~280&~308&~501&~383&1342\\\hline\end{tabular}\end{center}}\end{table}表~\ref{tab:comparingsystems}は,10,000語の対象インスタンスを(a)3つの参加者の全てのシステムが正解,(b)1システムだけが正解,(c)1システムだけが不正解,(d)全てのシステムが不正解,の4つに分類し,その内訳を調べたものである.通信総研と東工大のシステムとしては一番スコアの良いCRL4とTITECH1を選択し,比較の対象とした.また,NAISTは複数の語義を確率付きで回答するシステムであったが,出力された複数の語義の中に正解が含まれていればそのインスタンスに対して正解したとみなすと,NAISTのシステムのパフォーマンスが過大に評価され,システムの公平な比較ができない.そこで,確率の一番大きい語義のみを出力したとみなして他のシステムと比較することにした.ちなみに,確率の一番大きい語義のみを出力したときのNAISTのfine-grainedスコアは0.753である.表~\ref{tab:comparingsystems}(b),(c)から,参加者のシステムの回答が完全に一致していない事例の数は2,100であることがわかる.これらの事例から,それぞれのWSDシステムの特徴を考察することができる.例えば,表~\ref{tab:comparingsystems}(c)の事例は,他のシステムは正しい語義を出力したのに対し,あるシステムだけが正しい語義を出力できなかったことを表わす.付録\ref{sec:example:onlyonesystemfailure}に具体的な事例をいくつか紹介する.これらの事例を調べれば,現在のWSDシステムがうまく語義を決定することができない要因を探ることができる.但し,\ref{sec:results-pos}の考察で述べたように,各システムが個々のインスタンスに対して語義を決定する際に一番有力な手がかりとした素性に関する情報が必要である.また,自然言語処理における様々なタスクにおいて,votingと呼ばれる技術に関する研究が近年盛んに行われている.votingとは,複数のシステムの結果を混合することによりパフォーマンスを向上させる技術で,WSDに応用した研究もいくつか報告されている~\cite{pedersen:00:a,agirre:00:a,takamura:01:a}.表~\ref{tab:comparingsystems}から,3つのシステムのいずれかに正解が含まれるインスタンスの割合は0.865であることがわかる.これは,3つのシステムの出力を組み合わせたときに得られるスコアの上限であり,単独のシステムよりも8\,\%程度精度が向上することを意味する.したがって,日本語のWSDにおいても,votingは精度を向上させる技術として有望であろう.\subsubsection{未知の語義}\label{sec:unknown-word-sense}\begin{table}[tbp]{\normalsize\begin{center}\caption{未知の語義に対するスコア(fine-grained)}\label{tab:unknown-word-sense}\medskip\begin{tabular}{|ccccccc|}\hline\makebox[14mm]{CRL1}&\makebox[14mm]{CRL2}&\makebox[14mm]{CRL3}&\makebox[14mm]{CRL4}&\makebox[14mm]{NAIST}&\makebox[14mm]{TITECH1}&\makebox[14mm]{TITECH2}\\\hline0&0&0&0&0.01&0.648&0.657\\\hline\end{tabular}\end{center}}\end{table}未知の語義とは,ここでは訓練データに1回も現われない語義を指す.今回のコンテストでは,未知の語義を正解とするインスタンスの数は108であった.未知の語義に対する各システムのスコアを表~\ref{tab:unknown-word-sense}に示す.各システムは訓練データを用いた機械学習を行っているため,未知の語義に対するスコアは全体のスコアに比べて著しく劣る.また,参加者のシステムを比較すると,東工大のシステムのスコアが特に高いことがわかる.東工大システムのみが正解した例を図~\ref{fig:unk-ws-system}に示す.\begin{figure}[tbp]\begin{center}\setlength{\sensedescwidth}{100mm}\addtolength{\sensedescwidth}{-9mm}\begin{tabular}[t]{|p{9mm}@{$\;$}p{\sensedescwidth}|c@{\hspace*{1.8mm}}c@{\hspace*{1.8mm}}c|c|}\hline\multicolumn{2}{|l|}{「め」の語義(抜粋)}&C&N&T&\multicolumn{1}{@{}c@{}|}{正解}\\\hline\sensesymbol{0pt}{[一]}&\tume{((名))}&&&&\\\sensesymbol{0.75zw}{\MARU{1}}&\tume{生物の、物を見る働きをする器官。また、その様子・働き。}&&&&\\\sensesymbol{1.5zw}{\MARU{ア}}&\tume{眼球・視神経から成る器官。}&32&49&&\\\sensesymbol{1.5zw}{\MARU{イ}}&\tume{目\MARU{1}\MARU{ア}の様子。目つき。}&&&&\\\sensesymbol{1.5zw}{\MARU{ウ}}&\tume{見ること。見えること。また、視力。更に、注意(力)。}&37&20&&\\\sensesymbol{0.75zw}{\MARU{2}}&\tume{目\MARU{1}\MARU{ア}に見える姿・様子。}&&&&\\\sensesymbol{0.75zw}{\MARU{3}}&\tume{ある物事に出会うこと。経験。体験。また、局面。}&&&&\\\sensesymbol{0.75zw}{\MARU{4}}&\tume{形が目\MARU{1}\MARU{ア}に似ているもの。「台風の—」}&&&&\\\multicolumn{2}{|c|}{$\vdots$}&&&&\\\sensesymbol{0pt}{[二]}&\tume{((接尾))}&&&&\\\sensesymbol{1zw}{\MARU{1}}&\tume{順序を表す時に添える語。「三番—の問題」}&&&69&☆\\\multicolumn{2}{|c|}{$\vdots$}&&&&\\\hline\hline\multicolumn{6}{|p{128mm}|}{\tume{2年連続13回\head{目}の優勝を狙う早大を中心に、山梨学院大、中大が追う展開になりそうだ。}}\\\hline\end{tabular}\medskipC=CRL4,~~~N=NAIST,~~~T=TITECH1\end{center}\caption{未知の語義に対するシステムの出力例}\label{fig:unk-ws-system}\end{figure}図~\ref{fig:unk-ws-system}に示したように,[二]\MARU{1}が正解となるインスタンスに対して,TITECH1は正解と同じ語義を出力するのに対し,CRL4,NAISTは訓練データの頻出語義である[一]\MARU{1}\MARU{ア}や[一]\MARU{1}\MARU{ウ}を出力することがわかった.東工大のシステムが訓練データにない語義を正確に返すのは,語釈文中の例文からも決定リストの規則を学習しているためである.東工大システムの開発者に,「目」の語義を[二]\MARU{1}に決めた決定リストの規則を問い合わせたところ,式(\ref{eq:decisionruleforME})の規則であることがわかった.\newpage\begin{equation}\label{eq:decisionruleforME}\begin{array}[c]{p{0.8\textwidth}}\setlength{\baselineskip}{0.8\normalbaselineskip}対象インスタンスの1つ前の単語の品詞が``名詞接尾助数詞''かつ2つ前の単語の品詞が``名詞数''なら,語義を[二]\MARU{1}にせよ.\end{array}\end{equation}式(\ref{eq:decisionruleforME})の規則は,訓練データの例文ではなく,語義[二]\MARU{1}の語釈文中の例文「三番—の問題」から学習されたものである.このように,WSDシステムを構築する際に複数の知識源を利用すること---東工大システムの場合は訓練データ(語義タグ付きコーパス)と辞書の語釈文---は,WSDの精度向上に有効な手段であると考えられる.なお,訓練データ中に[二]\MARU{1}の語義が現われなかった理由は以下の通りである.訓練データにおいては,図~\ref{fig:unk-ws-system}のような「目」の品詞は``名詞接尾''になっている.訓練データに語義を付与する際に,接尾語は対象外としたため,これらの単語には語義が付与されていない.ところが,評価データにおいては,RWCの品詞体系の大分類が``名詞''または``動詞''の単語を対象インスタンスとしたため,品詞が``名詞接尾''の単語も語義を決める対象となっている.このため,学習データに含まれない,接尾語としての意味[二]\MARU{1}を正解とするインスタンスが評価データに頻出した.このような状況は明らかにタスクの設定として不適切である.これは主催者側の過失であり,反省点としたい.\subsubsection{作業者の一致率とシステムのスコア}\label{sec:agreement-and-score}図~\ref{fig:annotator-system}は,作業者が付与した語義の一致率を横軸,参加者の7システムの平均スコアを縦軸とし,100個の評価単語の結果をプロットしたグラフである.この図から,作業者の一致率とシステムの平均スコアには正の相関関係があることが読みとれる.しかし,評価単語の中には,作業者の一致率が高いのにも関わらず,システムの平均スコアが低い単語がある.具体的には「開発」「核」「精神」「乗る」「生まれる」「かかる」などである.これらの一部の単語の語義と,参加システムが出力した語義の頻度を付録~\ref{sec:example:agr+sys-}に示す.このような単語は,人間にとっては正しい語義を選択するのは易しいが,現状のWSDシステムではうまく語義を決めることができない単語である.したがって,特にこれらの単語について,システムが語義の選択を誤る原因を考察すれば,システムの性能を向上させることができると期待される.\begin{figure}[tbp]\begin{center}\epsfile{file=plot-all.eps,scale=0.4}\caption{作業者の語義の一致率とシステムの平均スコア(fine-grained)}\label{fig:annotator-system}\end{center}\end{figure} \section{おわりに} \label{sec:conclusion}本論文では,SENSEVAL-2の日本語辞書タスクの概要について報告した.辞書タスクは,タスク設定自体はオーソドックスなものであるが,日本語を対象とした語義曖昧性解消に関するコンテストとしては始めての試みである.本タスクで用いられた正解データや参加者のシステムの結果は,SENSEVAL-2のウェブサイト\footnote{{\tthttp://www.senseval.org/}}で公開されている.これらのデータが今後の語義曖昧性解消の研究に貢献することを願う.\bigskip\acknowledgment辞書タスクでは,評価テキストとして毎日新聞の新聞記事を利用させていただきました.新聞記事の利用に御協力いただきました毎日新聞社に感謝いたします.また,辞書タスクの運営に数々の助言をいただいた東京工業大学の徳永健伸助教授,東京大学の黒橋禎夫助教授,ならびに正解データを作成して下さった作業者の皆様に深く感謝いたします.査読者の方には,コンテストの結果の考察に関して示唆に富む数多くの御意見をいただきました.厚く御礼申し上げます.\bibliographystyle{jnlpbbl}\bibliography{paper}\appendix \section{評価単語} \label{sec:targetwordlist}辞書タスクの評価単語の一覧を以下に示す.また,日本語タスクには辞書タスクと翻訳タスクの2つがあるが,両タスクの評価単語は同じものを使用した.ただし,翻訳タスクの評価単語の数は40である.下表で*のついた単語は,翻訳タスクの評価単語でもある.\begin{center}\begin{tabular}{|m{2zw}|m{10zw}|m{10zw}|m{10zw}|}\hline&\multicolumn{1}{c|}{\clA}&\multicolumn{1}{c|}{\clB}&\multicolumn{1}{c|}{\clC}\\\hline名詞&間,頭,一般*,意味*,姿*,近く*,手,胸*,目,もの&一方*,今*,開発,関係,気持ち,記録*,国内*,言葉*,子供,午後,市場,市民*,時間,事業*,時代*,情報,地方,同日,場合*,前*&疑い,男,核*,技術,現在,交渉,社会,少年,自分,精神,対象,代表,中心*,程度,電話,花*,反対*,民間,娘,問題*\\\hline動詞&与える*,受ける*,かかる,聞く*,進む,出す,出る*,取る,入る,持つ*&言う*,訴える,生まれる,描く*,書く*,決まる,来る,超える*,使う*,作る*,伝える*,出来る,問う,残す,乗る*,開く,待つ*,まとめる,守る*,見る&思う,買う*,変わる,考える,決める,加える,知る,進める,違う,狙う,図る*,話す,含む,見せる*,認める*,迎える,求める*,読む,よる,分かる\\\hline\end{tabular}\end{center} \section{1つのシステムだけが不正解となる事例} \label{sec:example:onlyonesystemfailure}CRL4,NAIST,TITECH1のうち,1つのシステムだけが不正解となった事例を紹介する.\begin{itemize}\itemCRL4のみが不正解となる事例\end{itemize}\hspace{7.4mm}\raisebox{2mm}{\setlength{\sensedescwidth}{100mm}\addtolength{\sensedescwidth}{-7mm}\begin{tabular}[t]{|p{7mm}@{$\;$}p{\sensedescwidth}|c@{\hspace*{1.8mm}}c@{\hspace*{1.8mm}}c|c|}\hline\hline\multicolumn{2}{|l|}{「じょうほう」の語義}&C&N&T&\multicolumn{1}{@{}c@{}|}{正解}\\\hline\sensesymbol{0.75zw}{\MARU{1}}&\tume{ある物事の事情についての知らせ。「海外—」「—を流す」}&&19&19&☆\\\sensesymbol{0.75zw}{\MARU{2}}&\tume{それを通して何らかの知識が得られるようなもの。▽informationの訳語。「データ」が表現の形の面を言うのに対し、内容面を言うことが多い。}&19&&&\\\hline\hline\multicolumn{6}{|p{128mm}|}{\tume{「お天気\head{情報}の大切さを一般の人に理解していただくことが、僕の使命と思っています。...}}\\\hline\end{tabular}}\medskip\begin{itemize}\itemNAISTのみが不正解となる事例\end{itemize}\hspace{7.4mm}\raisebox{2mm}{\setlength{\sensedescwidth}{100mm}\addtolength{\sensedescwidth}{-7mm}\begin{tabular}[t]{|p{7mm}@{$\;$}p{\sensedescwidth}|c@{\hspace*{1.8mm}}c@{\hspace*{1.8mm}}c|c|}\hline\multicolumn{2}{|l|}{「こども」の語義(抜粋)}&C&N&T&\multicolumn{1}{@{}c@{}|}{正解}\\\hline\sensesymbol{0.75zw}{\MARU{1}}&\tume{幼い子。児童。}&22&&22&☆\\\sensesymbol{0.75zw}{\MARU{2}}&\tume{自分のもうけた子。むすこ、むすめ。子。}&&22&&\\\hline\hline\multicolumn{6}{|p{128mm}|}{\tume{\head{子供}のころ、牛肉のすきやきは月に一度ありつけるかどうかのごちそうだった。}}\\\hline\end{tabular}}\medskip\newpage\begin{itemize}\itemTITECH1のみが不正解となる事例\end{itemize}\hspace{7.4mm}\raisebox{2mm}{\setlength{\sensedescwidth}{100mm}\addtolength{\sensedescwidth}{-9mm}\begin{tabular}[t]{|p{9mm}@{$\;$}p{\sensedescwidth}|c@{\hspace*{1.8mm}}c@{\hspace*{1.8mm}}c|c|}\hline\multicolumn{2}{|l|}{「むね」の語義(抜粋)}&C&N&T&\multicolumn{1}{@{}c@{}|}{正解}\\\hline\sensesymbol{0.75zw}{\MARU{1}}&\tume{動物の、(体の前面で)首と腹との間の部分。「—を張る」}&12&12&&☆\\\sensesymbol{0.75zw}{\MARU{2}}&\tume{胸\MARU{1}の内側に収まっている(と考える)もの。}&&&&\\\sensesymbol{1.5zw}{\MARU{ア}}&\tume{肺。「—をわずらう」}&&&&\\\sensesymbol{1.5zw}{\MARU{イ}}&\tume{胃。「—が焼ける」}&&&&\\\sensesymbol{1.5zw}{\MARU{ウ}}&\tume{心臓。「—がどきどきする」}&&&&\\\sensesymbol{1.5zw}{\MARU{エ}}&\tume{心。「—に迫る」「—に秘める」}&&&12&\\\hline\hline\multicolumn{6}{|p{128mm}|}{\tume{同乗の兵庫県西宮市鷲林寺南町、無職、大園輝樹さん(21)が\head{胸}などを強く打って間もなく死亡。}}\\\hline\end{tabular}}\vspace*{1cm} \section{一致率が高くシステムのスコアが低い単語の例} \label{sec:example:agr+sys-}2人の作業者の一致率が高いのにも関わらず,7つの参加システムの平均スコア(fine-grained)が低い単語の例を以下に示す.以下の表は,作業者の語義付けが一致したインスタンスに対する参加システムの出力語義の頻度分布である.CはCRL4,NはNAIST,TはTITECH1を表わす.\begin{itemize}\item「開発」(一致率0.93,参加システムの平均スコア0.493)2人の作業者がともに正解を\MARU{1}\MARU{ア}とした場合.\end{itemize}\hspace{7.4mm}\raisebox{2mm}{\setlength{\sensedescwidth}{100mm}\addtolength{\sensedescwidth}{-9mm}\begin{tabular}[t]{|p{9mm}@{$\;$}p{\sensedescwidth}|c@{\hspace*{1.8mm}}c@{\hspace*{1.8mm}}c|c|}\hline\multicolumn{2}{|l|}{「かいはつ」の語義(抜粋)}&C&N&T&\multicolumn{1}{@{}c@{}|}{正解}\\\hline\sensesymbol{0.75zw}{\MARU{1}}&\tume{開きおこすこと。}&4&&&\\\sensesymbol{1.5zw}{\MARU{ア}}&\tume{(天然資源などを)人間生活に役立たせること。「電源—」}&7&2&5&☆\\\sensesymbol{1.5zw}{\MARU{イ}}&\tume{現実化すること。実用化すること。「新製品の—」「研究—」}&35&44&41&\\\sensesymbol{0.75zw}{\MARU{2}}&\tume{教育で、問答などを使って自発的にわからせる方法。}&&&&\\\hline\multicolumn{6}{|p{128mm}|}{\tume{「試掘で百本のうち三本も当たれば十分」とされる石油\head{開発}が、なぜ今になって盛り上がってきたのか——。}}\\\hline\end{tabular}}\medskip\newpage\begin{itemize}\item「核」(一致率0.97,参加システムのスコアの平均0.721)2人の作業者がともに正解を\MARU{1}とした場合.\end{itemize}\hspace{7.4mm}\raisebox{2mm}{\setlength{\sensedescwidth}{100mm}\addtolength{\sensedescwidth}{-9mm}\begin{tabular}[t]{|p{9mm}@{$\;$}p{\sensedescwidth}|c@{\hspace*{1.8mm}}c@{\hspace*{1.8mm}}c|c|}\hline\multicolumn{2}{|l|}{「かく」の語義}&C&N&T&\multicolumn{1}{@{}c@{}|}{正解}\\\hline\sensesymbol{0.75zw}{\MARU{1}}&\tume{物事の中心(となるもの)。かなめ。「核になる」}&1&&&☆\\\sensesymbol{0.75zw}{\MARU{2}}&\tume{物の中心の部分。「地核・痔核(じかく)」}&&&&\\\sensesymbol{1.5zw}{\MARU{ア}}&\tume{細胞核。「核膜・核分裂」}&21&22&22&\\\sensesymbol{1.5zw}{\MARU{イ}}&\tume{原子核。また、核兵器。「核の持込み」}&&&&\\\sensesymbol{0.75zw}{\MARU{3}}&\tume{草や木の芽ばえるたね。内果皮の硬化したもの。「核果」}&&&&\\\hline\multicolumn{6}{|p{128mm}|}{\tume{とはいえ、このままボスニア情勢を座視していれば、国連を\head{核}とした地域紛争の管理システムの信頼性が決定的打撃を受けかねない。}}\\\hline\end{tabular}}\medskip\begin{itemize}\item「乗る」(一致率0.91,参加システムのスコアの平均0.567)2人の作業者がともに正解を\MARU{3}\MARU{ア}とした場合.\end{itemize}\hspace{7.4mm}\raisebox{2mm}{\setlength{\sensedescwidth}{100mm}\addtolength{\sensedescwidth}{-9mm}\begin{tabular}[t]{|p{9mm}@{$\;$}p{\sensedescwidth}|c@{\hspace*{1.8mm}}c@{\hspace*{1.8mm}}c|c|}\hline\multicolumn{2}{|l|}{「のる」の語義(抜粋)}&C&N&T&\multicolumn{1}{@{}c@{}|}{正解}\\\hline\sensesymbol{0.75zw}{\MARU{1}}&\tume{運送用の物の上や内部に移る。「馬に—」}&19&11&20&\\\sensesymbol{0.75zw}{\MARU{2}}&\tume{(持ち上げられて)物の上に移る。}&&&&\\\sensesymbol{1.5zw}{\MARU{ア}}&\tume{物に上がる。「台の上に—」}&&5&&\\\sensesymbol{1.5zw}{\MARU{イ}}&\tume{上に置かれる。載「机に—っている本」}&&&&\\\sensesymbol{0.75zw}{\MARU{3}}&\tume{動き・調子によく合う。}&&&&\\\sensesymbol{1.5zw}{\MARU{ア}}&\tume{勢いがついて物事が進む状態にある。「仕事に気が—らない」}&2&4&1&☆\\\sensesymbol{1.5zw}{\MARU{イ}}&\tume{他のものの調子にうまく合う。「リズムに—って踊る」}&&&&\\\sensesymbol{1.5zw}{\MARU{ウ}}&\tume{十分によくつく。「あぶらの—った肉」}&&&&\\\sensesymbol{1.5zw}{\MARU{エ}}&\tume{物事をする仲間・相手になる。「相談に—」}&&&&\\\sensesymbol{1.5zw}{\MARU{オ}}&\tume{他からのたくらみにまんまと引き込まれる。「計略に—」}&&1&&\\\sensesymbol{0.75zw}{\MARU{4}}&\tume{伝える手段に託せられる。「電波に—って広まる」。特に、新聞・雑誌・書物に記される。「社会面に—った記事」}&&&&\\\hline\hline\multicolumn{6}{|p{128mm}|}{\tume{株式会社にして資金を集めブームに\head{乗っ}て事業拡大し、資産を公開して大企業になり結局だれのものだかわからなくなってしまう。}}\\\hline\end{tabular}}\newpage\begin{itemize}\item「生まれる」(一致率1,参加システムのスコアの平均0.719)2人の作業者がともに正解を\MARU{2}とした場合.\end{itemize}\hspace{7.4mm}\raisebox{2mm}{\setlength{\sensedescwidth}{100mm}\addtolength{\sensedescwidth}{-7mm}\begin{tabular}[t]{|p{7mm}@{$\;$}p{\sensedescwidth}|c@{\hspace*{1.8mm}}c@{\hspace*{1.8mm}}c|c|}\hline\multicolumn{2}{|l|}{「うまれる」の語義}&C&N&T&\multicolumn{1}{@{}c@{}|}{正解}\\\hline\sensesymbol{0.75zw}{\MARU{1}}&\tume{母体から子や卵が、その時期が来て、出る。また、卵からかえる。出生する。誕生する。}&11&22&20&\\\sensesymbol{0.75zw}{\MARU{2}}&\tume{今までなかったものが出来上がる。}&33&22&24&☆\\\hline\hline\multicolumn{6}{|p{128mm}|}{\tume{料理は産物で支配され、結果、その国、その土地の伝統的料理が\head{生まれ}、育ちました。}}\\\hline\end{tabular}}\medskip\begin{biography}\biotitle{略歴}\bioauthor{白井清昭}{1993年東京工業大学工学部情報工学科卒業.1998年同大学院情報理工学研究科博士後期課程修了.同年同大学院情報理工学研究科計算工学専攻助手.2001年北陸先端科学技術大学院大学情報科学研究科助教授,現在に至る.博士(工学).統計的自然言語処理に関する研究に従事.情報処理学会,人工知能学会会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V09N01-04
\section{はじめに} \label{sec:intro}これまで,機械学習などの分野を中心として,複数のモデル・システムの出力を混合する手法がいくつか提案され,その効果が報告されている.それらの成果を背景として,近年,統計的手法に基づく自然言語処理においても,複数のモデル・システムの出力を混合する手法を様々な問題に適用することが試みられ,品詞付け~\cite{vanHalteren98a,Brill98a,Abney99a},名詞句等の句のまとめ上げ~\cite{Sang00a,TKudo00ajx},構文解析(前置詞句付加含む)~\cite{Henderson99a,Abney99a,KoInui00aj,Henderson00a}などへの適用事例が報告されている.一般に,複数のモデル・システムの出力を混合することの利点は,単一のモデル・システムでは,全ての現象に対して網羅的かつ高精度に対処できない場合でも,個々のモデル・システムがそれぞれ得意とする部分を選択的に組み合わせることで,全体として網羅的かつ高精度なモデル・システムを実現できるという点にある.本論文では,日本語固有表現抽出の問題に対して,複数のモデルの出力を混合する手法を適用し,個々の固有表現抽出モデルがそれぞれ得意とする部分を選択的に組み合わせることで,全体として網羅的かつ高精度なモデルを実現し,その効果を実験的に検証する.一般に,日本語固有表現抽出においては,前処理として形態素解析を行ない,形態素解析結果の形態素列に対して,人手で構築されたパターンマッチング規則や統計的学習によって得られた固有表現抽出規則を適用することにより,固有表現が抽出される~\cite{IREX99aj}.特に,統計的学習によって得られた固有表現抽出規則を用いる場合には,形態素解析結果の形態素列に対して,一つもしくは複数の形態素をまとめ上げる処理を行ない,同時にまとめ上げられた形態素列がどの種類の固有表現を構成しているかを同定するという手順が一般的である~\cite{Sekine98a,Borthwick99aj,Uchimoto00aj,Sassano00a,Sassano00bjx,Yamada01ajx}.このとき,実際のまとめ上げの処理は,現在注目している位置にある形態素およびその周囲の形態素の語彙・品詞・文字種などの属性を考慮しながら,現在位置の形態素が固有表現の一部となりうるかどうかを判定することの組合わせによって行なわれる.一方,一般に,複数のモデル・システムの出力を混合する過程は,大きく以下の二つの部分に分けて考えることができる.\begin{enumerate}\item\label{enum:sub1}できるだけ振る舞いの異なる複数のモデル・システムを用意する.(通常,振る舞いの酷似した複数のモデル・システムを用意しても,複数のモデル・システムの出力を混合することによる精度向上は望めないことが予測される.)\item\label{enum:sub2}用意された複数のモデル・システムの出力を混合する方式を選択・設計し,必要であれば学習等を行ない,与えられた現象に対して,用意された複数のモデル・システムの出力を混合することを実現する.\end{enumerate}複数の日本語固有表現抽出モデルの出力を混合するにあたっても,これらの(\ref{enum:sub1})および(\ref{enum:sub2})の過程をどう実現するかを決める必要がある.本論文では,まず,(\ref{enum:sub1})については,統計的学習を用いる固有表現抽出モデルをとりあげ,まとめ上げの処理を行なう際に,現在位置の周囲の形態素を何個まで考慮するかを区別することにより,振る舞いの異なる複数のモデルを学習する.そして,複数のモデルの振る舞いの違いを調査し,なるべく振る舞いが異なり,かつ,適度な性能を保った複数のモデルの混合を行なう.特に,これまでの研究事例~\cite{Sekine98a,Borthwick99aj,Uchimoto00aj,Yamada01ajx}でやられたように,現在位置の形態素がどれだけの長さの固有表現を構成するのかを全く考慮せずに,常に現在位置の形態素の前後二形態素(または一形態素)ずつまでを考慮して学習を行なうモデル(固定長モデル,\ref{subsubsec:3gram}~節参照)だけではなく,現在位置の形態素が,いくつの形態素から構成される固有表現の一部であるかを考慮して学習を行なうモデル(可変長モデル~\cite{Sassano00a,Sassano00bjx},\ref{subsubsec:vgram}~節参照)も用いて複数モデルの出力の混合を行なう.次に,(\ref{enum:sub2})については,重み付多数決やモデルの切り替えなど,これまで自然言語処理の問題によく適用されてきた混合手法を原理的に包含し得る方法として,stacking法~\cite{Wolpert92a}と呼ばれる方法を用いる.stacking法とは,何らかの学習を用いた複数のシステム・モデルの出力(および訓練データそのもの)を入力とする第二段の学習器を用いて,複数のシステム・モデルの出力の混合を行なう規則を学習するという混合法である.本論文では,具体的には,複数のモデルによる固有表現抽出結果,およびそれぞれの固有表現がどのモデルにより抽出されたか,固有表現のタイプ,固有表現を構成する形態素の数と品詞などを素性として,各固有表現が正しいか誤っているかを判定する第二段の判定規則を学習し,この正誤判定規則を用いることにより複数モデルの出力の混合を行なう.以下では,まず,\ref{sec:JNE}~節で,本論文の実験で使用したIREX(InformationRetrievalandExtractionExercise)ワークショップ\cite{IREX99aj}の日本語固有表現抽出タスクの固有表現データについて簡単に説明する.次に,\ref{sec:NEchunk}~節では,個々の固有表現抽出モデルのベースとなる統計的固有表現抽出モデルについて述べる.本論文では,統計的固有表現抽出モデルとして,最大エントロピー法を用いた日本語固有表現抽出モデル~\cite{Borthwick99aj,Uchimoto00aj}を採用する.最大エントロピー法は,自然言語処理の様々な問題に適用されその性能が実証されているが,日本語固有表現抽出においても高い性能を示しており,IREXワークショップの日本語固有表現抽出タスクにおいても,統計的手法に基づくシステムの中で最も高い成績を達成している~\cite{Uchimoto00aj}.\ref{sec:combi}~節では,複数のモデルの出力の正誤判別を行なう規則を学習することにより,複数モデル出力の混合を行なう手法を説明する.本論文では,正誤判別規則の学習モデルとしては,決定リスト学習を用い,その性能を実験的に評価する.以上の手法を用いて,\ref{sec:experi}~節で,複数の固有表現抽出結果の混合法の実験的評価を行ない,提案手法の有効性を示す.\cite{Uchimoto00aj}にも示されているように,固定長モデルに基づく単一の日本語固有表現抽出モデルの場合は,現在位置の形態素の前後二形態素ずつを考慮して学習を行なう場合が最も性能がよい.また,\ref{sec:experi}~節の結果からわかるように,この,常に前後二形態素ずつを考慮する固定長モデルの性能は,可変長モデルに基づく単一のモデルの性能をも上回っている(なお,\cite{Sassano00bjx}では,最大エントロピー法を学習モデルとして可変長モデルを用いた場合には,常に前後二形態素ずつを考慮する固定長モデルよりも高い性能が得られると報告しているが,この実験結果には誤りがあり,本論文で示す実験結果の方が正しい.).ところが,可変長モデルと,現在位置の形態素の前後二形態素ずつを考慮する固定長モデルとを比較すると,モデルが出力する固有表現の分布がある程度異なっており,実際,これらの二つのモデルの出力を用いて複数モデル出力の混合を行なうと,個々のモデルを上回る性能が達成された.\ref{sec:experi}~節では,これらの実験について詳細に述べ,本論文で提案する混合法が有効であることを示す. \section{日本語固有表現抽出} \label{sec:JNE}固有表現抽出は,情報検索・抽出,機械翻訳,自然言語理解など自然言語処理の応用的局面における基礎技術として重要な技術の一つである.英語においては,特に米国において,MUC(MessageUnderstandingConference,例えば,MUC-7~\cite{MUC98aNLP})コンテストにおける課題の一つとして固有表現抽出がとりあげられ,集中的に研究が行なわれてきた.また,最近では,日本語においても,MET(MultilingualEntityTask,例えば,MET-1~\cite{Maiorano96a},MET-2~\cite{MUC98aNLP})やIREXワークショップ~\cite{IREX99aj}などのコンテストにおいて,固有表現抽出が課題の一つに取り上げられている.\subsection{IREXワークショップの固有表現抽出タスク}\begin{table}\begin{center}\caption{日本語固有表現の種類およびその頻度}\label{tab:irex_tag}\begin{tabular}{|c||c|c|}\hline&\multicolumn{2}{|c|}{頻度(\%)}\\\cline{2-3}種類&訓練データ&評価データ\\\hlineORGANIZATION&3676(19.7)&361(23.9)\\PERSON&3840(20.6)&338(22.4)\\LOCATION&5463(29.2)&413(27.4)\\ARTIFACT&747(4.0)&48(3.2)\\DATE&3567(19.1)&260(17.2)\\TIME&502(2.7)&54(3.5)\\MONEY&390(2.1)&15(1.0)\\PERCENT&492(2.6)&21(1.4)\\\hline合計&18677&1510\\\hline\end{tabular}\end{center}\end{table}IREXワークショップの固有表現抽出タスクでは,表~\ref{tab:irex_tag}に示す八種類の固有表現の抽出が課題とされた\\\cite{IREX99aj}.表~\ref{tab:irex_tag}には,主催者側から提供された訓練データの主要部分を占めるCRL(郵政省通信総合研究所---現,独立行政法人通信総合研究所)固有表現データ(毎日新聞1,174記事の固有表現をタグ付け),および本試験データのうちの一般ドメインのもの(毎日新聞71記事の固有表現をタグ付け)について,八種類の固有表現数を調査した結果を示す.\subsection{形態素と固有表現の対応パターン}次に,上記のIREXワークショップの固有表現抽出タスクの訓練データを形態素解析システム{\scbreakfast}\cite{Sassano97aj}\footnote{{\scbreakfast}の品詞タグの種類数は約300であり,新聞記事に対しては99.6\%の品詞正解率である.}で形態素解析し,その結果の形態素と固有表現の対応パターンを調査した結果を表~\ref{tab:MnNE}に示す.これからわかるように,半分近くの固有表現については,形態素と固有表現が一対一に対応しないことがわかる.また,そのうち,一つの固有表現が複数の形態素から構成されている場合は90\%近く(7175/(7175+1022)=87.5\%)を占めており,これらの固有表現については,各固有表現の区切り位置はいずれかの形態素の区切り位置と一致している,すなわち,固有表現の開始位置は,先頭の構成要素となる形態素の開始位置と,また,固有表現の終了位置は,末尾の構成要素となる形態素の終了位置と,それぞれ一致する.図~\ref{fig:egMtoNE}にこのような場合の例を示す.また,表~\ref{tab:MnNE}の「その他」の場合の多くは,一つ以上の固有表現が一つの形態素の一部となる場合である.例えば,「訪米」という形態素に対して,その一部である「米」のみがLOCATION(地名)であるという例がこれに相当する.この「その他」の場合の固有表現については,その割合が少なく,また,先行研究\cite{Uchimoto00aj}において,ある程度の割合で抽出できることがわかっているので,本論文における考慮の対象には含めない.\begin{table}\begin{center}\caption{形態素と固有表現の対応パターン}\label{tab:MnNE}\begin{tabular}{|c|c||c|c|}\hline\multicolumn{2}{|c||}{対応パターン}&\multicolumn{2}{|c|}{固有表現タグ頻度(\%)}\\\hline\hline\multicolumn{2}{|c||}{1対1}&\multicolumn{2}{|c|}{10480(56.1)}\\\hline&$n=2$&4557(24.4)&\\\cline{2-3}$n(\geq2)$形態素対1固有表現&$n=3$&1658(8.9)&7175(38.4)\\\cline{2-3}&$n\geq4$&960(5.1)&\\\hline\multicolumn{2}{|c||}{その他}&\multicolumn{2}{|c|}{1022(5.5)}\\\hline\hline\multicolumn{2}{|c||}{合計}&\multicolumn{2}{|c|}{18677}\\\hline\end{tabular}\end{center}\end{table}\begin{figure}\begin{center}{\flushleft\hspace*{2cm}{\bf\framebox{2形態素対1固有表現}}\\}\begin{tabular}{c|cc|c}\multicolumn{1}{c}{}&\multicolumn{2}{c}{\tt<ORGANIZATION>}&\\\cline{2-3}$\cdots$&ロシア&軍&$\cdots$\\\cline{2-3}\multicolumn{3}{c}{}\end{tabular}\begin{tabular}{c|cc|c}\multicolumn{1}{c}{}&\multicolumn{2}{c}{\tt<PERSON>}&\\\cline{2-3}$\cdots$&村山&富市&首相\\$\cdots$\\\cline{2-3}\multicolumn{4}{c}{}\end{tabular}\vspace*{.3cm}{\flushleft\hspace*{2cm}{\bf\framebox{3形態素対1固有表現}}\\}\mbox{\begin{tabular}{c|ccc|c}\multicolumn{1}{c}{}&\multicolumn{3}{c}{\tt<TIME>}&\\\cline{2-4}$\cdots$&午前&九&時&$\cdots$\\\cline{2-4}\multicolumn{5}{c}{}\end{tabular}\begin{tabular}{c|ccc|c}\multicolumn{1}{c}{}&\multicolumn{3}{c}{\tt<ARTIFACT>}&\\\cline{2-4}$\cdots$&北米&自由貿易&協定&$\cdots$\\\cline{2-4}\multicolumn{5}{c}{}\end{tabular}}\end{center}\caption{複数形態素が一つの固有表現に対応する例}\label{fig:egMtoNE}\end{figure} \section{最大エントロピー法を用いた固有表現抽出} \label{sec:NEchunk}本節では,まず,ベースモデルとなる,最大エントロピー法を用いた日本語固有表現抽出の手法~\cite{Borthwick99aj,Uchimoto00aj}を定式化する.\subsection{問題設定}\label{subsec:setting}ここでの固有表現抽出の問題は,固有表現まとめ上げおよび固有表現タイプ分類の問題ととらえることができる.いま,以下に示すような形態素列が与えられているとする.\[\begin{array}{c}\mbox{(左側文脈)}\\\\\\\\\\\\\\mbox{(右側文脈)}\\\cdotsM_{-k}^L\cdotsM_{-1}^L\\M_{0}\\M_{1}^R\cdotsM_{l}^R\cdots\\\uparrow\\\mbox{(現在位置)}\end{array}\]ここで,現在の位置が形態素$M_{0}$のところであるとすると,日本語固有表現まとめ上げおよび固有表現タイプ分類の問題とは,この現在位置の形態素$M_{0}$に,まとめ上げ状態および固有表現タイプ(詳細は\ref{subsec:tagck}~節で述べる)を付与することである.本論文の統計的固有表現抽出においては,訓練データからの教師あり学習により固有表現抽出モデルを学習する.その際には,各固有表現がどの形態素から構成されているかという情報が利用可能で,そのような情報を用いて固有表現抽出モデルを学習する.例えば,以下の例では,現在の位置に相当する形態素$M_{i}^{NE}$が$m$個の形態素からなる固有表現の一部であるという情報が利用可能である.\newpage{\begin{eqnarray}(左側文脈)&\mbox{(固有表現)}&(右側文脈)\nonumber\\\cdotsM_{-k}^L\cdotsM_{-1}^L&M_{1}^{NE}\cdotsM_{i}^{NE}\cdotsM_{m}^{NE}&M_{1}^R\cdotsM_{l}^R\cdots\nonumber\\&\uparrow\\\&\label{eqn:NE-len}\\&\mbox{(現在位置)}\\\&\nonumber\end{eqnarray}}また,次節で述べる最大エントロピー法を用いて固有表現抽出モデルを学習する際には,現在位置および周囲の形態素の素性(\ref{subsec:ftr}~節)を条件として,現在位置の形態素に固有表現まとめ上げ状態およびタイプ(\ref{subsec:tagck}~節)をクラスとして付与するための条件付確率モデルを最大エントロピー法により学習する.なお,通常,学習された確率モデルを適用して,形態素に固有表現まとめ上げ状態および固有表現タイプを付与することにより,固有表現の抽出を行なう場合は,一文全体で,固有表現まとめ上げ状態および固有表現タイプの確率を最大とする固有表現の組合わせを求める必要がある.本論文では,この最適解探索の方法としては,\cite{Uchimoto00aj}のものをそのまま用いている.\subsection{最大エントロピー法}\label{subsec:ME}最大エントロピー法は,文脈を規定する制約を素性として与え,与えられた素性のもとでエントロピーを最大化するという条件によって求められる確率モデルである.確率モデルの学習においてエントロピーを最大化することにより,与えられた制約を満たす最も一様なモデルが学習されるため,データの過疎性に強いという特徴を持つ.ここでは,与えられた訓練集合から,文脈$x(\in{\calX})$においてクラス$y(\in{\calY})$を出力するプロセスの確率的振舞い,すなわち条件付確率分布$p(y\midx)$を最大エントロピー法に基づいて推定する方法の概略を説明する.まず,訓練集合中の事象$(x,y)$の観測値を大量に集め,$freq(x,y)$を事象$(x,y)$の訓練集合中での生起頻度として,訓練集合中の経験的確率分布$\tilde{p}(x,y)$を以下のように推定する.\begin{eqnarray*}\tilde{p}(x,y)&\equiv&\frac{freq(x,y)}{\displaystyle\sum_{x,y}freq(x,y)}\end{eqnarray*}次に,訓練集合中のどのような現象に注目して確率分布を推定するのかを表す二値の関数$f(x,y)$を導入し,これを素性関数と呼ぶ.具体的には,各素性関数$f_i$について,この関数が真となる事象$x$および$y$の集合$V_{xi}$および$V_{yi}$が規定されていると考え,この集合にしたがって素性関数$f_i$が以下のように定義される.\begin{eqnarray*}f_i(x,y)&=&\left\{\begin{array}[c]{ll}1&\mbox{($x\inV_{xi}$かつ$y\inV_{yi}$の場合)}\\0&\mbox{(それ以外の場合)}\end{array}\right.\end{eqnarray*}また,一般に確率モデル学習の際には,大量の素性からなる素性の候補集合${\calF}$から,活性化された素性の部分集合${\calS}(\subseteq{\calF})$が選択され,これらによって事象$(x,y)$および確率分布$p(y\midx)$が記述される.次に,実際に確率モデル学習を行う際には,活性化された素性集合${\calS}$中の各素性$f_i$について,学習すべき確率分布$p(y\midx)$による素性$f_i$の期待値(左辺)と経験的確率分布$\tilde{p}(x,y)$による素性$f_i$の期待値(右辺)が等しいとする以下の制約等式を課す.\begin{eqnarray*}\sum_{x,y}\tilde{p}(x)p(y\midx)f_i(x,y)&=&\sum_{x,y}\tilde{p}(x,y)f_i(x,y)\mbox{\\\for\}\forallf_i\in{\calS}\end{eqnarray*}そして,これらの制約等式を満たす確率分布$p(y\midx)$のうちで,以下の条件付エントロピー$H(p)$を最大にする最も「一様な」モデルが,求めるべきモデル$p_{\ast}$であるとする.\begin{eqnarray}H(p)&\equiv&-\sum_{x,y}\tilde{p}(x)p(y\midx)\logp(y\midx)\nonumber\\p_{\ast}&=&\argmax_{p\in{\calC(S)}}H(p)\label{eqn:me}\end{eqnarray}(\ref{eqn:me})式を満たす確率分布は必ず存在し,それは以下の確率分布$p_{\lambda}(y\midx)$で記述される.\begin{eqnarray*}\label{eqn:plambda}p_{\lambda}(y\midx)&=&\frac{\displaystyle\exp\Bigl(\sum_{i}\lambda_{i}f_i(x,y)\Bigr)}{\displaystyle\sum_y\exp\Bigl(\sum_{i}\lambda_{i}f_i(x,y)\Bigr)}\end{eqnarray*}ただし,$\lambda_i$は各素性$f_i$のパラメータである.また,実際にエントロピーを最大にする最適なパラメータ${\lambda^{\ast}}_{i}$を推定するには,ImprovedIterativeScaling(IIS)アルゴリズム\cite{Pietra97a,Berger96a}と呼ばれるアルゴリズムが用いられる.\begin{table*}\begin{center}\caption{固有表現まとめ上げ状態の表現法}\label{tab:NEcode}\begin{tabular}{|c|cc|c|c|ccc|c|c|cc|}\hline固有表現タグ&&\multicolumn{1}{c}{}&\multicolumn{1}{c}{\tt<ORG>}&\multicolumn{1}{c}{}&\multicolumn{3}{c}{\tt<LOC>}&\multicolumn{1}{c}{}&\multicolumn{1}{c}{\tt<LOC>}&&\\\cline{4-4}\cline{6-8}\cline{10-10}形態素列&$\cdots$&$M$&$M$&$M$&$M$&$M$&$M$&&$M$&$M$&$\cdots$\\\cline{4-4}\cline{6-8}\cline{10-10}&\multicolumn{11}{c|}{}\\\hline固有表現&&\multicolumn{1}{c}{\ttO}&\multicolumn{1}{c}{\ttORG\_U}&\multicolumn{1}{c}{\ttO}&\multicolumn{1}{c}{\ttLOC\_S}&\multicolumn{1}{c}{\ttLOC\_C}&\multicolumn{1}{c}{\ttLOC\_E}&\multicolumn{1}{c}{}&\multicolumn{1}{c}{\ttLOC\_U}&\multicolumn{1}{c}{\ttO}&\\まとめ上げ状態&\multicolumn{11}{|c|}{}\\\hline\end{tabular}\end{center}\end{table*}\subsection{固有表現まとめ上げ状態の表現法}\label{subsec:tagck}本論文では,固有表現まとめ上げの際のまとめ上げ状態の表現法として,日本語固有表現抽出の既存の手法\cite{Sekine98a,Borthwick99aj,Uchimoto00aj}において用いられた\sekine_encoding法を採用する\footnote{この他に,まとめ上げ問題でよく用いられるInside/Outside法が知られているが,最大エントロピー法との組合わせで日本語固有表現抽出を行なう場合は\sekine_encoding法よりも性能が劣る~\cite{Sassano00bjx}.}.この方法では,各固有表現タイプについて,以下の四種類のまとめ上げ状態を設定する.\begin{description}\item[{\ttS}]--現在位置の形態素は,二つ以上の形態素から構成される固有表現の先頭の形態素である.\item[{\ttC}]--現在位置の形態素は,三つ以上の形態素から構成される固有表現の先頭・末尾以外の中間の形態素である.\item[{\ttE}]--現在位置の形態素は,二つ以上の形態素から構成される固有表現の末尾の形態素である.\item[{\ttU}]--現在位置の形態素は単独で一つの固有表現を構成する.\end{description}また,固有表現を構成しない形態素のための状態として以下の状態を設定する.\begin{description}\item[{\ttO}]--現在位置の形態素はどの固有表現にも含まれない.\end{description}結果として,この表現法では,固有表現まとめ上げ状態として,$4\times8+1=33$の状態を設定する.この方法により日本語固有表現のまとめ上げを行なう様子を表~\ref{tab:NEcode}に示す.\subsection{各形態素の素性}\label{subsec:ftr}各形態素の素性としては,以下の三種類のものを用いる\footnote{これらの素性のうち,語彙素性を抽出する条件は\cite{Uchimoto00aj}に従っている.また,品詞素性については,\cite{Uchimoto00aj}とは,利用している形態素解析システムの品詞体系が異なっているため,異なった素性になっている.さらに,\cite{Uchimoto00aj}では,素性として文字種は用いていないが,文字種を用いた方が高い性能が得られることが分かっている~\cite{Sassano00bjx}.}.\begin{enumerate}\item語彙---訓練コーパス中で,固有表現の位置および周囲二形態素以内に5回以上出現した2,052語彙\footnote{例えば,頻度上位10位以内のものは,助詞6種類,括弧等の記号3種類,読点,11$\sim$20位は,助詞3種類,助動詞1種類,句点,助数詞(``年'',``日''),接尾辞(``さん''),地名(``日本''),時相名詞(``昨年''),21$\sim$30位は,助詞3種類,助動詞2種類,助数詞(``%'',``円''),接尾辞(``氏''),地名(``ロシア'',``米国'')であった.}.\item品詞---形態素解析システム{\scbreakfast}の約300種類の品詞.\item文字種---平仮名・片仮名・漢字・数字・英語アルファベット・記号,およびそれらの組合わせ.\end{enumerate}\subsection{周囲の形態素のモデル化}\label{subsec:context}次に,本論文では,現在位置の形態素に対して固有表現のまとめ上げ状態を付与する際に,周囲のどれだけの形態素を考慮するか,つまり周囲の形態素をどのようにモデル化するかについて,以下の二種類のモデルを用いる.\subsubsection{固定(文脈)長モデル}\label{subsubsec:3gram}一つ目のモデルは,現在位置の形態素がどれだけの長さの固有表現を構成するのかを全く考慮せずに,固有表現まとめ上げ状態を付与するモデルである.これは,学習時においても,現在の形態素が,いくつの形態素からなる固有表現の一部であるか(\ref{subsec:setting}~節,式(\ref{eqn:NE-len})参照)といった情報を全く考慮せず学習を行なうモデルである.このモデルにおいては,以下に示すように,現在位置の形態素$M_0$の左側および右側の文脈中の形態素については,学習時においても適用時においても,常に固定された数の形態素だけを考慮する.\[\begin{array}{c}\\\\mbox{(左側文脈)}\\\\\\\\\\\mbox{(右側文脈)}\\\cdotsM_{-k}\cdotsM_{-1}\\M_{0}\\M_{1}\cdotsM_{l}\cdots\\\\\\\uparrow\\\\\\\mbox{(現在位置)}\end{array}\]本論文ではこのモデルのことを,{\bf固定長モデル}と呼ぶ.本論文では特に,現在位置の形態素$M_0$の左側および右側の文脈中の形態素をいくつ考慮するかに応じて,左右二形態素ずつを考慮する5グラムモデル\begin{eqnarray*}(左側文脈)&(現在位置)&(右側文脈)\nonumber\\\cdots\\M_{-2}M_{-1}&M_{0}&M_{1}M_2\\\cdots\end{eqnarray*}左右三形態素ずつを考慮する7グラムモデル\begin{eqnarray*}(左側文脈)&(現在位置)&(右側文脈)\nonumber\\\cdots\\M_{-3}M_{-2}M_{-1}&M_{0}&M_{1}M_2M_3\\\cdots\end{eqnarray*}左右四形態素ずつを考慮する9グラムモデル\begin{eqnarray*}(左側文脈)&(現在位置)&(右側文脈)\nonumber\\\cdots\\M_{-4}M_{-3}M_{-2}M_{-1}&M_{0}&M_{1}M_{2}M_{3}M_4\\\cdots\end{eqnarray*}を用いる.\subsubsection{可変(文脈)長モデル}\label{subsubsec:vgram}一方,もう一つのモデルは,学習時において,現在位置の形態素が,いくつの形態素から構成される固有表現の一部であるか(式(\ref{eqn:NE-len})参照)を考慮して学習を行なうモデルで,これを{\bf可変長モデル}と呼ぶことにする~\cite{Sassano00bjx,Sassano00a}.\subsubsection*{モデルの学習}学習時には,現在位置の形態素が固有表現を構成しない場合には,5グラムモデルと同じく,現在位置およびその左右の二個ずつの形態素を考慮して学習を行なう.一方,現在位置の形態素$M_{i}^{NE}$が$m(ただし本論文では3以下)$個の形態素からなる固有表現の一部であるときには,固有表現を構成する形態素およびその左右の二個ずつの形態素を考慮して学習を行なう.つまり,現在注目している固有表現の長さ$m$に応じて,考慮する周囲の形態素の総数が可変となる.\begin{eqnarray*}(左側文脈)&(固有表現)&(右側文脈)\nonumber\\\cdots\\M_{-2}^LM_{-1}^L&M_{1}^{NE}\cdotsM_{i}^{NE}\cdotsM_{m(\leq3)}^{NE}&M_{1}^RM_{2}^R\\\cdots\nonumber\\&\uparrow\\\\\\\&\\&\mbox{(現在位置)}\\\\\\&\nonumber\end{eqnarray*}また,現在位置の形態素$M_{i}^{NE}$が4個以上の形態素から構成される固有表現の一部であるときには,本論文では,以下の手順で,固有表現を構成するとみなす形態素数を3に限定するという近似を行なう.\begin{enumerate}\item現在位置の形態素が固有表現の先頭である場合は,先頭から三形態素のみが固有表現を構成するとみなし,四番目以降の形態素については右側文脈であるとみなす.\begin{eqnarray*}(左側文脈)&(固有表現)&(右側文脈)\nonumber\\\cdots\\M_{-2}^LM_{-1}^L&M_{1}^{NE}M_{2}^{NE}M_{3}^{NE}&M_{4}^{NE}M_{?}^?\\\cdots\nonumber\\&\uparrow\\\\\\\\\\\\\\\\\&\\&\mbox{(現在位置)}\hspace*{2cm}&\nonumber\end{eqnarray*}\item現在位置の形態素が固有表現の末尾である場合は,末尾の三形態素のみが固有表現を構成するとみなし,末尾の三形態素以外については左側文脈であるとみなす.\begin{eqnarray*}(左側文脈)&(固有表現)&(右側文脈)\nonumber\\\cdots\\M_{?}^?M_{m-3}^{NE}&M_{m-2}^{NE}M_{m-1}^{NE}M_{m}^{NE}&M_{1}^{R}M_{2}^R\\\cdots\nonumber\\&\\\\\\\\\\\\\\uparrow&\\&\\\\\\\\\\\\\\\mbox{(現在位置)}&\nonumber\end{eqnarray*}\itemその他の場合は,現在位置の形態素およびその前後一形態素ずつのみが固有表現を構成するとみなし,それ以外の形態素については左側もしくは右側文脈であるとみなす.\begin{eqnarray*}(左側文脈)&(固有表現)&(右側文脈)\nonumber\\\cdots\\M_{?}^?M_{?}^{?}&M_{i-1}^{NE}M_{i}^{NE}M_{i+1}^{NE}&M_{?}^{?}M_{?}^?\\\cdots\nonumber\\&\uparrow\\\&\\&\mbox{(現在位置)}\\\&\nonumber\end{eqnarray*}\end{enumerate}\clearpage例えば,以下のように,現在位置の形態素$M_{i}^{NE}$が4個の形態素から構成される固有表現の一部である場合を考える.\begin{eqnarray*}(左側文脈)&(固有表現)&(右側文脈)\\\cdots\\M_{-2}^LM_{-1}^L&M_{1}^{NE}M_{2}^{NE}M_{3}^{NE}M_{4}^{NE}&M_{1}^RM_{2}^R\\\cdots\\&\uparrow\\\\\\\\\\&\\&\mbox{(現在位置)}\\\\\\\\\&\end{eqnarray*}この場合,固有表現を構成する末尾の形態素$M_{4}^{NE}$が,あたかも固有表現の直後の右側文脈に存在する形態素であるかのようにみなされ,以下のように近似されてモデル化される.\begin{eqnarray*}(左側文脈)&(固有表現)&(右側文脈)\nonumber\\\cdots\\M_{-2}^LM_{-1}^L&M_{1}^{NE}M_{2}^{NE}M_{3}^{NE}&M_{4}^{NE}M_{1}^R\\\cdots\\&\uparrow\\\&\\&\mbox{(現在位置)}\\\&\nonumber\end{eqnarray*}\subsubsection*{モデルの適用}モデルの適用時には,現在位置の形態素がどのような固有表現を構成するかという情報が利用できないので,固定長の9グラムモデルの場合と同様に,現在位置の形態素,および,左右四形態素ずつの素性を考慮してモデルの適用を行なう\footnote{可変長モデルでは,モデルの学習時と適用時で考慮する素性の集合が異なっているので,単独での性能は高くないが,抽出される固有表現の分布が固定長モデルとは異なっている(\ref{subsec:indiv}~節参照).}.\subsubsection{周囲の形態素の素性}\label{subsubsec:ftr34}前節までで述べた固定長モデルおよび可変長モデルにおいて,特に現在位置の周囲の形態素の素性について,\ref{subsec:ftr}~節で述べた素性のうちの全部または一部のみを用いるモデルとして,以下の三種類のモデルを設定し,これらについて実験的評価を行なう\footnote{実際に,実験で用いた訓練コーパスから学習したモデルのうち,全素性を用いた5グラムモデルの素性数は13,200,素性関数の数は31,344(頻度3以上),全素性を用いた9グラムモデルの素性数は15,071,素性関数の数は35,311(頻度3以上)であった.}.\begin{itemize}\item全素性を用いるモデル.\item周囲の形態素$M_{l(\leq-3)}$および$M_{r(\geq3)}$については,語彙素性および品詞素性のみを考慮するモデル.\item周囲の形態素$M_{l(\leq-3)}$および$M_{r(\geq3)}$については,語彙素性のみを考慮するモデル.\end{itemize}なお,\cite{Uchimoto00aj}と同様に,周囲の複数の形態素の素性を結合した結合素性は用いていない. \section{正誤判別規則学習を用いた複数システム出力の混合} \label{sec:combi}\subsection{訓練・評価データセット}\label{subsec:trts}本論文の複数システム出力の混合法では,以下の三種類の訓練・評価データセットを用いる.\begin{enumerate}\item$TrI$:個々の固有表現抽出モデルを学習するための訓練データセット.\item$TrC$:複数システムの出力の正誤判別規則を学習するための訓練データセット.\item$Ts$:複数システムの出力の正誤判別規則を評価するための評価データセット.\end{enumerate}\subsection{訓練および評価手続きの概要}\label{subsec:proc}まず,以下に,訓練データセット$TrI$および$TrC$を用いて,複数システムの出力の正誤判別規則を学習するため手続きの概要を示す.\begin{enumerate}\item訓練データセット$TrI$を用いて,個々の固有表現抽出モデル$NEext_i$$(i=1,\ldots,n)$を学習する.\item個々の固有表現抽出モデル$NEext_i$$(i=1,\ldots,n)$を,それぞれ,訓練データセット$TrC$に適用し,各固有表現抽出モデル$NEext_i$につき,抽出結果の固有表現リスト$NEList_i(TrC)$をそれぞれ一つずつ得る.\item訓練データセット(テキスト)$TrC$中での各固有表現の出現位置の情報を用いて,抽出結果の固有表現リスト$NEList_i(TrC)$$(i\!=\!1,\ldots,n)$を,複数システム間$(i\!=\!1,\ldots,n)$で整列し,訓練データセット$TrC$の事象表現$TrCev$を作成する.\item訓練データセット$TrC$の事象表現$TrCev$を教師あり訓練データとして,複数システムの出力の正誤判別規則$NEext_{cmb}$を学習する.\end{enumerate}次に,評価データセット$Ts$に,学習された正誤判別規則$NEext_{cmb}$を適用する手順の概要を示す.\begin{enumerate}\item\label{enum:evproc1}個々の固有表現抽出モデル$NEext_i$$(i=1,\ldots,n)$を,それぞれ,評価データセット$Ts$に適用し,各固有表現抽出モデル$NEext_i$につき,抽出結果の固有表現リスト$NEList_i(Ts)$をそれぞれ一つずつ得る.\item評価データセット(テキスト)$Ts$中での各固有表現の出現位置の情報を用いて,抽出結果の固有表現リスト$NEList_i(Ts)$$(i\!=\!1,\ldots,n)$を,複数システム間$(i\!=\!1,\ldots,n)$で整列し,評価データセット$Ts$の事象表現$Tsev$を作成する.\item複数システムの出力の正誤判別規則$NEext_{cmb}$を評価データセット$Ts$の事象表現$Tsev$に適用し,性能を測定する.\end{enumerate}\subsection{データ構造}\label{subsec:expr}本節では,訓練データセット$TrC$の事象表現$TrCev$,あるいは,評価データセット$Ts$の事象表現$Tsev$のデータ構造を説明し,複数システムの出力の正誤判別規則を学習する際の素性・クラスについて述べる.以下では,訓練データセット$TrC$の事象表現$TrCev$を例にして説明する.\subsubsection{事象}\label{subsubsec:event}訓練データセット$TrC$の事象表現$TrCev$は,訓練データセット(テキスト)$TrC$中での各固有表現の出現位置の情報を用いて,抽出結果の固有表現リスト$NEList_i(TrC)$$(i\!=\!1,\ldots,n)$を複数システム間$(i\!=\!1,\ldots,n)$で整列することにより作成される.ここで,整列結果の事象表現$TrCev$は,セグメントの列$Seg_1,\ldots,Seg_N$で表現され,各セグメント$Seg_j$は,整列された固有表現の集合$\{NE_1,\ldots,NE_{m_j}\}$によって表現される.\begin{eqnarray*}TrCev&=&Seg_1,\ldots,Seg_N\\Seg_j&=&\{NE_1,\ldots,NE_{m_j}\}\end{eqnarray*}ただし,この整列の際には,少なくとも一つの形態素を共有する複数の固有表現は,同じセグメントに含まれなければならない,という制約が課せられる.次に,各セグメント$Seg_j$中の固有表現の集合$\{NE_1,\ldots,NE_{m_j}\}$は,固有表現の事象表現の集合$\{NEev_1,\ldots,NEev_{l_j}\}$に変換され,これにより,各セグメント$Seg_j$は事象表現$SegEv_j$に変換される.\begin{eqnarray}SegEv_j&=&\{NEev_1,\ldots,NEev_{l_j}\}\label{eqn:segev}\end{eqnarray}ここで,各事象表現$NEev_{k_j}$は,以下の二種類のうちのどちらかに対応し,それぞれ異なったデータ構造を持つ.\begin{enumerate}\item[i)]そのセグメント中で少なくとも一つのシステムにより出力された固有表現の事象表現.\item[ii)]そのセグメント中で一つも固有表現を出力しなかった一つのシステムに関する情報を表す事象表現.\end{enumerate}i)のタイプの事象表現$NEev_{k_j}$は以下のようなデータ構造を持つ.\begin{eqnarray}NEev_{k_j}&=&\Bigl\{systems=\langlep,\ldots,q\rangle,\nonumber\mlength=x\mbox{morphemes},\nonumber\\&&\\NEtag=\cdots,\POS=\cdots,\nonumber\class_{NE}=+/-\Bigr\}\label{eqn:NEnon-emp}\end{eqnarray}ここで,``$systems$''はこの固有表現を出力したシステムの指標のリストを,``$mlength$''はこの固有表現を構成する形態素の数を,``$NEtag$''はこの固有表現のタイプを,``$POS$''はこの固有表現を構成する形態素の数の品詞のリストを,それぞれ表す.また,``$class_{NE}$''は,正解データと比較して,この固有表現が正解であるか(``$+$''),それとも,システムによる誤出力であるか(``$-$'')を示す.一方,ii)のタイプの事象表現$NEev_{k_j}$は,このセグメント中で,指標$r$を持つシステムが固有表現を出力しなかったことを示す,以下のようなデータ構造を持つ.\begin{eqnarray}NEev_{k_j}&=&\Bigl\{systems=\langler\rangle,\class_{sys}=\mbox{``nooutput''}\Bigr\}\label{eqn:NEemp}\end{eqnarray}\subsubsection{クラス}\label{subsubsec:class}複数システムの出力の正誤判別を行なう規則は,式(\ref{eqn:segev})で定義されるセグメントの事象表現$SegEv_j$を一つの事象単位として,学習および適用が行なわれる.ここで,正誤判別規則の学習および適用の際には,セグメント$SegEv_j$中の固有表現を各システムごとにまとめて,システム単位で正誤のクラスを参照する.そこで,式(\ref{eqn:segev})で定義される一つのセグメントの事象表現$SegEv_j$に対して,各システム$i$ごとにまとめた以下のクラス表現を設定し,正誤判別規則の学習および適用を行なう.\begin{eqnarray}class_{sys}^1&=&\left\{\begin{array}{l}+/-,\\ldots,\+/-\\\mbox{``nooutput''}\end{array}\right.\nonumber\\&\cdots&\label{eqn:segcl}\\class_{sys}^n&=&\left\{\begin{array}{l}+/-,\\ldots,\+/-\\\mbox{``nooutput''}\end{array}\right.\nonumber\end{eqnarray}ここで,一般に,一つのセグメント中で,各システムは一つも固有表現を出力しない場合もあれば,複数の固有表現を出力する場合もありえるので,各システム$i$のクラス$class_{sys}^i$は上記のような表現になる\footnote{実際に,実験で用いた訓練コーパスから学習した正誤判別規則において,クラスの種類が最も多かったのは,システム数$n\!=\!2$の場合で,``$+$'',``$++$'',``$+++$'',``$++++$'',``$++-$'',``$+-$'',``$+--$'',``$+---$'',``$-$'',``$--$'',``$---$'',``nooutput'',の12通りであった.}.\subsubsection{複数システムの出力の正誤判別規則}次に,前節の事象のデータ構造を用いて,複数システムの出力の正誤判別を行なう規則について説明する.複数システムの出力の正誤判別を行なう規則は,式(\ref{eqn:segev})で定義されるセグメントの事象表現$SegEv_j$を一つの事象単位として,各システム$i$ごとに,式(\ref{eqn:segcl})で示すクラス$class_{sys}^i$を判別するという形式をとる.この正誤判別規則の学習の際には,式(\ref{eqn:segev})で定義されるセグメントの事象表現$SegEv_j$から,次節で説明する素性を抽出し,この素性を用いて各システム$i$ごとのクラス$class_{sys}^i$を判別する規則を学習する(\ref{subsec:DL}~節).この正誤判別規則の適用の際にも,事象表現$SegEv_j$から抽出される素性を用いて各システム$i$ごとにクラス$class_{sys}^i$を判別する(\ref{subsec:apl}~節).\subsubsection{素性}\label{subsubsec:ftr}式(\ref{eqn:segev})で定義されるセグメントの事象表現$SegEv_j$から抽出される一つの素性$f$は,システムの指標のリスト$\langlep,\ldots,q\rangle$,および,固有表現の素性表現$F$の組$\langlesystems\!=\!\langlep,\ldots,q\rangle,\F\rangle$の集合によって表現される.\begin{eqnarray}f&=&\Bigl\{\\langlesystems\!=\!\langlep,\ldots,q\rangle,\F\rangle,\\cdots,\\langlesystems\!=\!\langlep',\ldots,q'\rangle,\F'\rangle\\Bigr\}\label{eqn:ftr}\end{eqnarray}このうち,一つの組$\langlesystems\!=\!\langlep,\ldots,q\rangle,\F\rangle$は,指標$p,\ldots,q$に相当する(複数の)システムによって出力された一つの固有表現が,素性表現$F$を持つことを表している.固有表現の素性表現$F$は,集合$\{mlength\!=\!\cdots,NEtag\!=\!\cdots,POS\!=\!\cdots\}$の巾集合の任意の要素,あるいは,そのセグメント中で指標$p,\ldots,q$に相当する(複数の)システムが固有表現を出力しなかったことを表す集合の形式,のいずれかで表現される.\begin{eqnarray}F&=&\left\{\begin{array}{l}\Bigl\{mlength\!=\!\cdots,\NEtag\!=\!\cdots,\POS\!=\!\cdots\Bigr\}\nonumber\\\Bigl\{mlength\!=\!\cdots,\NEtag\!=\!\cdots\Bigr\}\nonumber\\\Bigl\{mlength\!=\!\cdots,\POS\!=\!\cdots\Bigr\}\nonumber\\\Bigl\{NEtag\!=\!\cdots,\POS\!=\!\cdots\Bigr\}\nonumber\\\Bigl\{mlength\!=\!\cdots\Bigr\}\nonumber\\\Bigl\{NEtag\!=\!\cdots\Bigr\}\nonumber\\\Bigl\{POS\!=\!\cdots\Bigr\}\nonumber\\\emptyset\nonumber\\\Bigl\{class_{sys}\!=\!\mbox{``nooutputs''}\Bigr\}\nonumber\end{array}\right.\end{eqnarray}正誤判別規則の学習時には,式(\ref{eqn:segev})で定義されるセグメントの事象表現$SegEv_j$から,式(\ref{eqn:ftr})の形式のあらゆる可能な素性$f$のうち,以下の制約を含むいくつかの制約を満たすものだけが抽出される\footnote{実際に,実験で用いた訓練コーパスから学習した正誤判別規則においては,固有表現を構成する形態素数``$mlength$''の値は18通り,固有表現のタイプ``$NEtag$''の値は8通り,固有表現を構成する形態素の品詞のリスト``$POS$''の値は4926通りであった.また,システム数$n\!=\!2$の場合で,可能な素性$f$の数の最大数は,112,114であった.}.詳細については,次節の例を参照.\begin{enumerate}\item[i)]システムの指標のリスト$\langlep,\ldots,q\rangle$については,その固有表現を出力した全てのシステムの指標を記すこととし,部分リストの形式は許さない.\item[ii)]一つのシステムが,一つのセグメント中で複数個の固有表現を出力した場合は,一つの素性$f$中で,それらの複数の固有表現のうちの一部のものだけの情報を記述することは許さない.それらの全ての固有表現について何らかの情報を記述するか,どの固有表現についての情報も記述しないかのどちらかである.\end{enumerate}\subsubsection{例}\label{subsubsec:comb-eg}\ref{subsubsec:event}~節の手続きにしたがって,二つのシステムの固有表現抽出結果を整列し,その整列結果を事象表現に変換する例を表~\ref{tab:ev-eg}に示す.また,\ref{subsubsec:class}~節および\ref{subsubsec:ftr}~節の手続きにしたがって,それらの事象表現からクラスおよび素性を抽出する例を表~\ref{tab:ftr-eg}に示す.表~\ref{tab:ev-eg}では,形態素解析の結果の形態素列に対して,システム0およびシステム1の二つのシステムがそれぞれ単独で出力した固有表現を,「単独システムの固有表現出力」の欄に示す.それらの単独システムの固有表現出力を整列した結果は,$SegEv_i\simSegEv_{i+3}$の四つのセグメントに分割されており,これらのセグメントを事象表現に変換した結果が「事象表現」の欄に示されている.各セグメントの特徴を簡単にまとめると以下のようになる.\begin{itemize}\item$SegEv_i$:システム0が連続する二つの固有表現を出力したのに対して,システム1はそれらをまとめて一つの固有表現として出力している.正解データとの比較では,システム1の出力結果の方が正解である.このセグメントの事象表現は,いずれかの単独システムから出力された三つの固有表現の事象表現から構成されている.\item$SegEv_{i+1}$:システム1のみが固有表現を出力したが,この固有表現は誤出力である.このセグメントの事象表現は,システム0からの出力がなかったことを表す事象表現と,システム1が出力した一つの固有表現の事象表現から構成されている.\item$SegEv_{i+2}$:システム0が一形態素から構成される一つの固有表現を出力したのに対して,システム1はその形態素を含む三形態素から構成される一つの固有表現を出力した.正解データとの比較では,システム1の出力結果の方が正解である.このセグメントの事象表現は,各々の単独システムから出力された二つの固有表現の事象表現から構成されている.\item$SegEv_{i+3}$:システム0,システム1ともに二形態素から構成される同一の固有表現を出力した.正解データとの比較では,この固有表現は正解である.このセグメントの事象表現は,この一つ固有表現の事象表現から構成されている.\end{itemize}次に,表~\ref{tab:ftr-eg}においては,まずクラスについては,これらの各セグメントの事象表現において,各システムが出力した固有表現のクラス(もしくは出力がなかったことを表す事象表現のクラス)をシステムごとにまとめたものになっている.一方,素性の方は,各セグメントについて,以下の制約を満たす可能な素性の一覧を表現したものになっている.\begin{itemize}\item$SegEv_i$:システム0は,このセグメント中で二つの固有表現を出力しているが,この二つの固有表現のうちの一つだけの情報を記述した素性は許容しない.\item$SegEv_{i+1}$:ある単独システムからの出力がなかったことだけを記述した素性は許容しない.例えば,$\Bigl\{\\langlesystems\!=\!\langle0\rangle,class_{sys}\!=\!\mbox{``nooutputs''}\rangle\\Bigr\}$という素性は許容しない.\item$SegEv_{i+3}$:システムの指標のリストにおいては,このセグメントの固有表現を出力した二つのシステムの指標0および1の両方を必ず記述する.\end{itemize}\begin{table}\begin{scriptsize}\begin{center}\caption{複数システムの出力の混合のための事象表現の例}\label{tab:ev-eg}\begin{tabular}{|c||c||c|c||c|}\hlineセグ&形態素列(品詞)&\multicolumn{2}{|c||}{単独システムの固有表現出力}&事象表現\\\cline{3-4}メント&&システム0&システム1&\\\hline\hline&$\vdots$&&&\\\hline$SegEv_i$&\begin{tabular}{c}来年(時相名詞)\\10月(時相名詞)\end{tabular}&\begin{tabular}{c}来年\\(DATE)\\10月\\(DATE)\end{tabular}&\begin{tabular}{c}来年10月\\(DATE)\end{tabular}&\begin{tabular}{l}$\Bigl\{systems\!=\!\langle0\rangle,mlength\!=\!1,$\\\\$NEtag\!=\!{\rmDATE},$\\\\$POS\!=\!時相名詞,class_{NE}\!=\!-\Bigr\}$\\$\Bigl\{systems\!=\!\langle0\rangle,mlength\!=\!1,$\\\\$NEtag\!=\!{\rmDATE},$\\\\$POS\!=\!時相名詞,class_{NE}\!=\!-\Bigr\}$\\$\Bigl\{systems\!=\!\langle1\rangle,mlength\!=\!2,$\\\\$NEtag\!=\!{\rmDATE},$\\\\$POS\!=\!時相名詞$-$時相名詞,$\\\\$class_{NE}\!=\!+\Bigr\}$\end{tabular}\\\hline&$\vdots$&&&\\\hline$SegEv_{i+1}$&\begin{tabular}{c}生殖(名詞)\\医療(名詞)\\技術(名詞)\end{tabular}&&\begin{tabular}{c}生殖医療技術\\(ARTIFACT)\end{tabular}&\begin{tabular}{l}$\Bigl\{systems\!=\!\langle0\rangle,$\\\\$class_{sys}\!=\!\mbox{``nooutputs''}\Bigr\}$\\$\Bigl\{systems\!=\!\langle1\rangle,mlength\!=\!3,$\\\\$NEtag\!=\!{\rmARTIFACT},$\\\\$POS\!=\!名詞$-$名詞$-$名詞,$\\\\$class_{NE}\!=\!-\Bigr\}$\end{tabular}\\\hline&について(助詞相当)&&&\\&$\vdots$&&&\\&調査(サ変名詞)&&&\\&は(提題助詞)&&&\\\hline$SegEv_{i+2}$&\begin{tabular}{c}厚生省(固有名詞)\\研究(サ変名詞)\\班(名詞)\end{tabular}&\begin{tabular}{c}厚生省\\(ORGANI-\\ZATION)\end{tabular}&\begin{tabular}{c}厚生省研究班\\(ORGANI-\\ZATION)\end{tabular}&\begin{tabular}{l}$\Bigl\{systems\!=\!\langle0\rangle,mlength\!=\!1,$\\\\$NEtag\!=\!{\rmORGANIZATION},$\\\\$POS\!=\!固有名詞,class_{NE}\!=\!-\Bigr\}$\\$\Bigl\{systems\!=\!\langle1\rangle,mlength\!=\!3,$\\\\$NEtag\!=\!{\rmORGANIZATION},$\\\\$POS\!=\!固有名詞$-$サ変名詞$-$名詞,$\\\\$class_{NE}\!=\!+\Bigr\}$\end{tabular}\\\hline&((記号)&&&\\&主任(人称名詞)&&&\\&研究者(人称名詞)&&&\\&、(読点)&&&\\\hline$SegEv_{i+3}$&\begin{tabular}{c}山田(人名)\\太郎(人名)\end{tabular}&\begin{tabular}{c}山田太郎\\(PERSON)\end{tabular}&\begin{tabular}{c}山田太郎\\(PERSON)\end{tabular}&\begin{tabular}{l}$\Bigl\{systems\!=\!\langle0,1\rangle,mlength\!=\!2,$\\\\$NEtag\!=\!{\rmPERSON},$\\\\$POS\!=\!人名$-$人名,class_{NE}\!=\!+\Bigr\}$\end{tabular}\\\hline&$\vdots$&&&\\\hline\end{tabular}\end{center}\end{scriptsize}\end{table}\begin{table}\begin{scriptsize}\begin{center}\caption{表~\ref{tab:ev-eg}の事象表現の例から抽出される素性およびクラス}\label{tab:ftr-eg}\begin{tabular}{|c||c|c|}\hline事象表現&素性&クラス\\\hline\hline\begin{tabular}{l}$\Bigl\{systems\!=\!\langle0\rangle,mlength\!=\!1,$\\\\$NEtag\!=\!{\rmDATE},$\\\\$POS\!=\!時相名詞,class_{NE}\!=\!-\Bigr\}$\\$\Bigl\{systems\!=\!\langle0\rangle,mlength\!=\!1,$\\\\$NEtag\!=\!{\rmDATE},$\\\\$POS\!=\!時相名詞,class_{NE}\!=\!-\Bigr\}$\\$\Bigl\{systems\!=\!\langle1\rangle,mlength\!=\!2,$\\\\$NEtag\!=\!{\rmDATE},$\\\\$POS\!=\!時相名詞$-$時相名詞,$\\\\$class_{NE}\!=\!+\Bigr\}$\end{tabular}&\begin{tabular}{c}$\Bigl\{\\langlesystems\!=\!\langle0\rangle,\F\rangle,\langlesystems\!=\!\langle0\rangle,\F'\rangle,$\\$\langlesystems\!=\!\langle1\rangle,\F''\rangle\\Bigr\}$\\\\または\\$\Bigl\{\\langlesystems\!=\!\langle0\rangle,\F\rangle,\langlesystems\!=\!\langle0\rangle,\F'\rangle\\Bigr\}$\\または\\\\$\Bigl\{\\langlesystems\!=\!\langle1\rangle,\F''\rangle\\Bigr\}$\\ただし\\$F,F'は\\\Bigl\{mlength\!=\!1,NEtag\!=\!{\rmDATE},$\\$POS\!=\!時相名詞\Bigr\}$\\の巾集合の任意の要素\\$F''は\\\Bigl\{mlength\!=\!2,NEtag\!=\!{\rmDATE},$\\\hspace*{0.7cm}$POS\!=\!時相名詞$-$時相名詞\Bigr\}$\\の巾集合の任意の要素\end{tabular}&\begin{tabular}{c}$class_{sys}^0\!=\!--$\\$class_{sys}^1\!=\!+$\end{tabular}\\\hline\begin{tabular}{l}$\Bigl\{systems\!=\!\langle0\rangle,$\\\\$class_{sys}\!=\!\mbox{``nooutputs''}\Bigr\}$\\$\Bigl\{systems\!=\!\langle1\rangle,mlength\!=\!3,$\\\\$NEtag\!=\!{\rmARTIFACT},$\\\\$POS\!=\!名詞$-$名詞$-$名詞,$\\\\$class_{NE}\!=\!-\Bigr\}$\end{tabular}&\begin{tabular}{c}$\Bigl\{\\langlesystems\!=\!\langle0\rangle,class_{sys}\!=\!\mbox{``nooutputs''}\rangle,$\\$\langlesystems\!=\!\langle1\rangle,\F\rangle\\Bigr\}$\\または\\\\$\Bigl\{\\langlesystems\!=\!\langle1\rangle,\F\rangle\\Bigr\}$\\ただし\\$Fは\\\Bigl\{mlength\!=\!3,NEtag\!=\!{\rmARTIFACT},$\\$POS\!=\!名詞$-$名詞$-$名詞\Bigr\}$\\の巾集合の任意の要素\end{tabular}&\begin{tabular}{c}$class_{sys}^0\!=\!$\\``nooutputs''\\$class_{sys}^1\!=\!-$\end{tabular}\\\hline\begin{tabular}{l}$\Bigl\{systems\!=\!\langle0\rangle,mlength\!=\!1,$\\\\$NEtag\!=\!{\rmORGANIZATION},$\\\\$POS\!=\!固有名詞,class_{NE}\!=\!-\Bigr\}$\\$\Bigl\{systems\!=\!\langle1\rangle,mlength\!=\!3,$\\\\$NEtag\!=\!{\rmORGANIZATION},$\\\\$POS\!=\!固有名詞$-$サ変名詞$-$名詞,$\\\\$class_{NE}\!=\!+\Bigr\}$\end{tabular}&\begin{tabular}{c}$\Bigl\{\\langlesystems\!=\!\langle0\rangle,\F\rangle,\langlesystems\!=\!\langle1\rangle,\F'\rangle\\Bigr\}$\\または\\$\Bigl\{\\langlesystems\!=\!\langle0\rangle,\F\rangle\\Bigr\}$\\または\\$\Bigl\{\\langlesystems\!=\!\langle1\rangle,\F'\rangle\\Bigr\}$\\ただし\\$Fは\\\Bigl\{mlength\!=\!1,$\hspace*{3.2cm}\\\hspace*{0.5cm}$NEtag\!=\!{\rmORGANIZATION},$\\\hspace*{2.2cm}$POS\!=\!固有名詞\Bigr\}$\\の巾集合の任意の要素\\$F'は\\\Bigl\{mlength\!=\!3,\hspace*{3.2cm}$\\\hspace*{0.7cm}$NEtag\!=\!{\rmORGANIZATION},$\\\hspace*{1.2cm}$POS\!=\!固有名詞$-$サ変名詞$-$名詞\Bigr\}$\\の巾集合の任意の要素\end{tabular}&\begin{tabular}{c}$class_{sys}^0\!=\!-$\\$class_{sys}^1\!=\!+$\end{tabular}\\\hline\begin{tabular}{l}$\Bigl\{systems\!=\!\langle0,1\rangle,mlength\!=\!2,$\\\\$NEtag\!=\!{\rmPERSON},$\\\\$POS\!=\!人名$-$人名,class_{NE}\!=\!+\Bigr\}$\end{tabular}&\begin{tabular}{c}$\Bigl\{\\langlesystems\!=\!\langle0,1\rangle,\F\rangle\\Bigr\}$\\ただし\\$Fは\\\Bigl\{mlength\!=\!2,NEtag\!=\!{\rmPERSON},$\\$POS\!=\!人名$-$人名\Bigr\}$\\の巾集合の任意の要素\end{tabular}&\begin{tabular}{c}$class_{sys}^0\!=\!+$\\$class_{sys}^1\!=\!+$\end{tabular}\\\hline\end{tabular}\end{center}\end{scriptsize}\end{table}\subsection{学習アルゴリズム}\label{subsec:DL}教師あり学習法としては,決定リスト学習を用いる\footnote{\ref{subsec:comb-ME}~節では,最大エントロピー法を用いて正誤判別規則学習を行なった結果との比較を行なっている.本論文では,実装が容易,学習が高速で,かつ,一定の性能を達成できるという理由で決定リスト学習を適用したが,より高性能な他の様々な教師あり学習法を適用することも十分可能である.}.決定リスト\cite{Rivest87a,Yarowsky94a}は,ある素性のもとでクラスを決定するという規則を優先度の高い順にリスト形式で並べたもので,適用時には優先度の高い規則から順に適用を試みていく.本論文では,各規則の優先度として,素性$f$の条件のもとでの,システム$i$のクラス$class_{sys}^i$の条件付確率$P(class_{sys}^i\!=\!c_i\midf)$を用い,この条件付確率順に決定リストを構成する.ただし,決定リストを構成する際には,素性$f$の条件のもとでの,システム$i$のクラス$class_{sys}^i$の頻度$freq(f,class_{sys}^i)$に下限$L_f$を設け,\begin{eqnarray}\label{eqn:lbdF}freq(f,class_{sys}^i)&\geq&L_f\end{eqnarray}の条件を満たす規則だけを用いて決定リストを構築する.頻度の下限$L_f$は,各規則の条件付確率$P(class_{sys}^i\!=\!c_i\midf)$を推定する際に使用したデータセット以外のデータセットに対して,正誤判別規則の性能を最大にする値を用いる.\subsection{正誤判別規則の適用による複数システム出力の混合}\label{subsec:apl}学習された正誤判別規則を適用することにより複数システムの出力の混合を行なう場合は,式(\ref{eqn:segev})と同じ形式のセグメントの事象表現\begin{eqnarray*}SegEv_j&=&\{NEev_1,\ldots,NEev_{l_j}\}\end{eqnarray*}に対して,決定リストの形式の正誤判別規則が参照され,素性$f$の条件のもとでの,システム$i$のクラス$class_{sys}^i$の条件付確率$P(class_{sys}^i\!=\!c_i\midf)$の推定値を得る.そして,\begin{enumerate}\item複数のシステムによって出力された単一の固有表現は,同一の正誤クラスを持つ.\item少なくとも一つの形態素を共有する複数の固有表現が,正のクラス(``$+$'')を持ってはならない.\end{enumerate}という二つの制約のもとで,全システムについての条件付確率$P(class_{sys}^i\!=\!c_i\midf)$の積を最大化するクラス割当ての組合わせが求められ,これが,セグメント中で各システム$i$$(i=1,\ldots,n)$が出力した固有表現への正誤クラスの判別結果$\hat{class_{sys}^1},\ldots,\hat{class_{sys}^n}$となる\footnote{システム$i$について,決定リスト中に照合する判別規則が存在しない場合には,そのシステムが出力した固有表現を誤出力(``$-$'')とみなしている.}.\begin{eqnarray*}\hat{class_{sys}^1},\ldots,\hat{class_{sys}^n}&=&\argmax_{c_i,f_i}\prod_{i=1}^{n}P(class_{sys}^i\!=\!c_i\midf_i)\end{eqnarray*} \section{実験および評価} \label{sec:experi}本節では,IREXワークショップの固有表現抽出タスクの訓練データおよび試験データを用いて,複数の固有表現抽出結果の混合法の実験的評価を行なった結果について述べる.以下では,訓練データとして用いているCRL固有表現データの一般ドメインのものを$D_{CRL}$,評価データとして用いている本試験データのうちの一般ドメインのものを$D_{formal}$と記す.ただし,いずれも,表~\ref{tab:MnNE}の「その他」のものは除いている.\subsection{各モデル単独の出力の比較}\label{subsec:indiv}本節では,\ref{subsec:context}~節で述べた各モデル単独の性能について述べ,各モデルの出力を比較する.実験に用いたモデルは,\ref{subsubsec:3gram}~節の固定長モデルとしては,5グラムモデル,7グラムモデル,9グラムモデル,および,\ref{subsubsec:vgram}~節の可変長モデルである.また,7グラムモデル,9グラムモデル,および,可変長モデルについては,\ref{subsubsec:ftr34}~節の三種類の素性の設定も区別して実験を行なった.まず,表~\ref{tab:indivi_res}に,個々の固有表現抽出モデルを学習するための訓練データセット$TrI$を$D_{CRL}$とした場合の,本試験データ$D_{formal}$に対する各モデルのF値($\beta=1$)を示す.この結果からわかるように,単独のモデルでは,5グラムモデルが最も高い性能を示す.また,7グラムモデルおよび9グラムモデルは,素性の設定に関わらず,ほぼ同等の性能を示している.次に,最も性能のよい5グラムモデルの出力と,他のモデルの出力との違いを調べるために,5グラムモデル以外の各モデルの出力について,5グラムモデルの出力との和集合を求め,本試験データ$D_{formal}$の正解データに対する再現率を算出した.また,5グラムモデル以外の各モデルの誤出力と5グラムモデルの誤出力の間の重複率\begin{eqnarray*}誤出力の重複率&=&\frac{\begin{tabular}{c}二つのモデルの誤出力間で重複する固有表現数\end{tabular}}{\begin{tabular}{c}5グラムモデルの誤出力の固有表現数\end{tabular}}\end{eqnarray*}を求めた.これらの結果を表~\ref{tab:dif_indivi}に示す.特に,和の再現率が最も高く,誤出力の重複率が最も低い結果(この場合は,可変長モデル(形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性$=$全て)との差分)を{\bf太字}で示す.表~\ref{tab:indivi_res}および表~\ref{tab:dif_indivi}の結果から分かるように,7グラムモデルおよび9グラムモデルは,5グラムモデルと比べて出力の和集合の再現率が低く,かつ誤出力の重複率も高いことから,相対的に5グラムモデルと似通ったモデルであると言える.一方,可変長モデルは,7グラムモデルおよび9グラムモデルと比べて,相対的に5グラムモデルとの類似性が小さいことがわかる.特に,誤出力の重複率が比較的小さい点が目立つ.\begin{table}\begin{center}\caption{本試験データ$D_{formal}$に対する各モデル単独の性能(F値($\beta=1$)(再現率/適合率)(\%))}\label{tab:indivi_res}\begin{tabular}{|l||c|c|c|}\hline&\multicolumn{3}{|c|}{形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性}\\\cline{2-4}&\\\全て\\\&語彙+品詞&語彙\\\hline\hline7グラムモデル&80.78(78.44/83.27)&80.81(78.44/83.33)&80.71(78.51/83.03)\\\hline9グラムモデル&80.13(77.87/82.54)&80.53(78.22/82.98)&80.53(78.37/82.82)\\\hline可変長モデル&45.12(51.50/40.15)&77.02(75.86/78.21)&75.16(73.78/76.58)\\\hline\hline5グラムモデル&\multicolumn{3}{|c|}{\bf81.16(78.87/83.60)}\\\hline\end{tabular}\vspace*{-.5cm}\end{center}\end{table}\begin{table}\begin{center}\caption{5グラムモデルの出力と各モデルの出力との差分(和の再現率/誤出力の重複率)(\%)}\label{tab:dif_indivi}\begin{tabular}{|l||c|c|c|}\hline&\multicolumn{3}{|c|}{形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性}\\\cline{2-4}&\\\全て\\\&語彙+品詞&語彙\\\hline\hline7グラムモデル&79.8/85.2&79.8/85.2&79.7/91.2\\\hline9グラムモデル&79.7/84.7&79.7/86.1&79.5/90.7\\\hline可変長モデル&{\bf82.6/27.3}&81.4/63.4&80.4/72.7\\\hline\end{tabular}\vspace*{-.5cm}\end{center}\end{table}\subsection{複数システムの出力の混合の性能評価}\subsubsection{評価方法}次に,7グラムモデル,9グラムモデル,可変長モデルについて,それぞれ,\ref{subsubsec:ftr34}~節の三種類の素性の設定を区別して,合計9種類のモデルを考え,その各々について,5グラムモデルの出力との間で混合を行ない,その性能を評価した.ただし,個々の固有表現抽出モデルを学習するための訓練データセット$TrI$,複数システムの出力の正誤判別規則を学習するための訓練データセット$TrC$,\ref{subsec:DL}~節の(\ref{eqn:lbdF})式の頻度閾値$L_f$の設定の組合わせとしては,以下の二通りについて評価を行なった.なお,複数システムの出力の正誤判別規則を評価するための評価データセット$Ts$については,いずれも,本試験データ$D_{formal}$を用いた.\begin{center}\begin{tabular}{lll}(a)&$TrI$:&$D_{CRL}$から200記事$D^{200}_{CRL}$を除いた残り$D_{CRL}-D^{200}_{CRL}$\\&$TrC$:&$D_{CRL}$中の200記事$D^{200}_{CRL}$\\&$L_f$:&$D_{CRL}-D^{200}_{CRL}$中の200記事に対して,正誤判別規則の性能を最大にする値\\(b)&\multicolumn{2}{l}{$TrI=TrC=D_{CRL}$}\\&$L_f$:&(a)と同じ値\end{tabular}\end{center}このうち,設定(a)は,二つの訓練データセット$TrI$と$TrC$について,重複のないデータセットを用いたものに相当する.ただし,利用可能なデータ量に限界があることから,混合のための正誤判別規則学習の訓練データセット$TrC$のサイズが小さくなっている.一方,設定(b)の方は,個々の固有表現抽出モデルを訓練データ$TrI$自身に適用したインサイド適用の結果を利用した混合となるが,混合のための正誤判別規則学習の訓練データセット$TrC$のサイズは設定(a)よりもずっと大きい\footnote{ここで,厳密に\ref{subsec:proc}~節の評価手続きに従うと,評価手順(\ref{enum:evproc1})において,評価データセット$Ts$に対する固有表現抽出結果のリスト$NEList_i(Ts)$$(i=1,2)$を得る場合には,訓練の段階で用いた個々の固有表現抽出モデル$NEext_i$$(i=1,2)$と同じものを用いる必要がある.しかし,本論文では,設定(a)と(b)の間で,混合を行なう前の固有表現抽出結果のリスト$NEList_i(Ts)$$(i=1,2)$を統一して,同一の条件で評価を行なうことを優先した.そのため,設定(a)において用いる固有表現抽出結果のリスト$NEList_i(Ts)$$(i=1,2)$としては,設定(b)と同じく,$D_{CRL}$の全体を用いて学習された各固有表現抽出モデルを適用して得られたものを用いた.訓練データが$D_{CRL}$であるか$D_{CRL}-D^{200}_{CRL}$であるかの違いによる固有表現抽出モデルの性能の差はそれほど大きくないので,このことによる影響は小さいと考えられる.}.\begin{table}\begin{center}\caption{5グラムモデルの出力と各モデルの出力の混合結果の性能(F値($\beta=1$)(再現率/適合率)(\%))}\label{tab:res-comb}\begin{tabular}{|l||c|c|c|}\hline\multicolumn{4}{|c|}{(a)\\\$TrI=D_{CRL}-D^{200}_{CRL}$,$TrC=D^{200}_{CRL}$($D_{CRL}$中の200記事)}\\\hline\hline&\multicolumn{3}{|c|}{形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性}\\\cline{2-4}&\\\全て\\\&語彙+品詞&語彙\\\hline\hline7グラムモデル&81.54(78.15/85.23)&81.53(77.79/85.65)&80.60(77.08/84.46)\\\hline9グラムモデル&81.31(77.58/85.41)&81.26(77.51/85.40)&80.60(77.08/84.46)\\\hline可変長モデル&{\bf83.43}{\bf(80.23/86.89)}&81.55(76.29/87.58)&81.85(78.51/85.49)\\\hline\multicolumn{4}{c}{}\\\hline\multicolumn{4}{|c|}{(b)\\\$TrI=TrC=D_{CRL}$}\\\hline\hline&\multicolumn{3}{|c|}{形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性}\\\cline{2-4}&\\\全て\\\&語彙+品詞&語彙\\\hline\hline7グラムモデル&81.97(78.51/85.76)&81.83(78.22/85.78)&81.58(78.51/84.90)\\\hline9グラムモデル&81.53(77.79/85.65)&81.66(78.15/85.50)&81.52(78.51/84.76)\\\hline可変長モデル&{\bf84.07}{\bf(81.45/86.86)}&83.07(79.94/86.44)&82.50(79.87/85.31)\\\hline\end{tabular}\vspace*{-.5cm}\end{center}\end{table}\subsubsection{評価結果}評価結果を表~\ref{tab:res-comb}に示す.この結果から分かるように,設定(a)と(b)を比べると,一律に,設定(b)の方が高い性能が得られている.このことから,正誤判別規則の学習において,たとえ,インサイド適用の結果しか利用できなかったとしても,混合のための正誤判別規則学習の訓練データセット$TrC$のサイズはできるだけ大きい方がよいことがわかる.特に,設定(b)においては,どの混合結果においても5グラムモデル単独の性能を上回っていることから,混合規則学習のための十分な訓練データがあれば,混合により多少なりとも個々のモデルの出力の性能を向上できることが予想される.また,設定(b)の場合,7グラムモデル,9グラムモデルといった固定長モデルの出力と5グラムモデルの出力を混合した場合よりも,可変長モデルの出力と5グラムモデルの出力を混合した場合の方が圧倒的に高い性能向上を達成している.この結果は,表~\ref{tab:dif_indivi}の差分の傾向と合致しており,5グラムモデルとの類似性が相対的に小さい可変長モデルの出力との混合において,より高い性能向上が得られている.また,可変長モデル同士の間で,形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性の設定が異なる場合を比較しても,この傾向が成り立っており,5グラムモデルとの類似性が小さいほど混合結果における性能向上は大きい.これらの結果から,出力の和の再現率が高く,誤出力の重複率が小さくなるような,なるべく類似性の小さい複数の日本語固有表現抽出モデルの出力を用意して,本論文の手法により出力の混合を行なえば,単独のモデルの出力の性能向上が期待できることがわかる.\subsubsection{固有表現の形態素長/種類ごとの分析}次に,5グラムモデルの出力と可変長モデルの出力の混合の場合について,固有表現を構成する形態素数ごと,および,固有表現の種類ごとに,単独モデルの出力および混合結果の性能(F値,再現率,適合率)を列挙したものを,それぞれ,表~\ref{tab:res-len},および,表~\ref{tab:res-netag}に示す.なお,表中で,固有表現を構成する形態素数ごと,あるいは,固有表現の種類ごとに,最も高いF値を達成した結果をそれぞれ{\bf太字}で示す.表~\ref{tab:res-len}から分かるように,どの可変長モデルの出力との混合においても,ほぼ全ての形態素長の固有表現において,5グラムモデル単独の出力の再現率・適合率をともに上回っている.特に,最高の性能を示している「5グラムモデル+可変長モデル(全て)」の結果においては,5グラムモデルからの性能向上の度合は,形態素長が長くなるほど大きいことから,可変長モデルでしか出力されなかった長い固有表現を,混合によってうまく抽出できていることがわかる.また,表~\ref{tab:res-netag}からは,どの可変長モデルの出力との混合においても,ほぼ全ての種類の固有表現において,5グラムモデルの出力の再現率・適合率とほぼ同等かそれ以上の性能が得られている.そのうち,TIME,MONEY,PERCENTの三種類については,他の種類と比較して,訓練データ・評価データともその頻度が小さく,また,5グラムモデルにおける性能もかなり高いことから,改善の余地があまりなかったと考えられる.ただし,その場合でも,混合結果においては,可変長モデルの低い性能の悪影響を受けることなく,5グラムモデルの高い性能が反映されている.\begin{table*}\begin{center}\caption{混合結果の性能:固有表現の形態素長ごと,$TrI=TrC=D_{CRL}$\\(F値($\beta=1$)(再現率)(適合率)(\%))}\label{tab:res-len}\begin{tabular}{|c||c||c|c|c|c|}\hline&\multicolumn{5}{c|}{$n$形態素対一固有表現}\\\cline{2-6}&$n\geq1$&$n=1$&$n=2$&$n=3$&$n\geq4$\\\hline\hline&81.16&83.60&86.94&68.42&50.59\\5グラムモデル&(78.87)&(84.97)&(85.90)&(63.64)&(35.83)\\&(83.60)&(82.28)&(88.00)&(73.98)&(86.00)\\\hline&45.12&53.77&56.63&33.74&16.78\\可変長モデル&(51.50)&(38.69)&(71.37)&(57.34)&(40.00)\\(全て)&(40.15)&(88.14)&(47.93)&(23.91)&(10.62)\\\hline&77.02&81.86&79.96&63.19&50.52\\可変長モデル&(75.86)&(78.57)&(84.82)&(63.64)&(40.83)\\(語彙+品詞)&(78.21)&(85.44)&(75.63)&(62.76)&(66.22)\\\hline&75.16&79.11&83.02&50.46&22.38\\可変長モデル&(73.78)&(87.05)&(81.13)&(38.46)&(13.33)\\(語彙)&(76.58)&(72.49)&(85.00)&(73.33)&(69.57)\\\hline\hline5グラムモデル&{\bf84.07}&85.06&{\bf88.96}&{\bf75.19}&{\bf65.96}\\+可変長モデル&{\bf(81.45)}&(85.12)&{\bf(87.42)}&{\bf(69.93)}&{\bf(51.67)}\\(全て)&{\bf(86.86)}&(84.99)&{\bf(90.56)}&{\bf(81.30)}&{\bf(91.18)}\\\hline5グラムモデル&83.07&84.97&87.29&72.80&63.04\\+可変長モデル&(79.94)&(84.52)&(85.68)&(66.43)&(48.33)\\(語彙+品詞)&(86.44)&(85.41)&(88.96)&(80.51)&(90.63)\\\hline5グラムモデル&82.50&{\bf85.11}&87.73&71.04&50.89\\+可変長モデル&(79.87)&{\bf(86.76)}&(86.12)&(64.34)&(35.83)\\(語彙)&(85.31)&{\bf(83.52)}&(89.41)&(79.31)&(87.76)\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}\begin{scriptsize}\begin{center}\caption{混合結果の性能:固有表現の種類ごと,$TrI=TrC=D_{CRL}$\\(F値($\beta=1$)(再現率)(適合率)(\%))}\label{tab:res-netag}\hspace*{-.3cm}\begin{tabular}{|c||c|c|c|c|c|c|c|c|}\hline&ORGANI-&PER-&LOCA-&ARTI-&DATE&TIME&MONEY&PER-\\&ZATION&SON&TION&FACT&&&&CENT\\\hline\hline&67.74&81.82&77.04&30.43&91.49&{\bf93.20}&{\bf92.86}&87.18\\5グラムモデル&(58.45)&(79.88)&(71.91)&(29.17)&(88.85)&{\bf(88.89)}&{\bf(86.67)}&(80.95)\\&(80.53)&(83.85)&(82.96)&(31.82)&(94.29)&{\bf(97.96)}&{\bf(100.00)}&(94.44)\\\hline&35.48&48.45&38.47&5.80&78.60&56.90&60.61&87.18\\可変長モデル&(37.40)&(48.52)&(32.93)&(22.92)&(81.92)&(61.11)&(66.67)&(80.95)\\(全て)&(33.75)&(48.38)&(46.26)&(3.32)&(75.53)&(53.23)&(55.56)&(94.44)\\\hline&65.30&78.56&72.46&26.92&88.51&77.36&80.00&{\bf89.47}\\可変長モデル&(57.34)&(77.51)&(66.59)&(29.17)&(88.85)&(75.93)&(80.00)&{\bf(80.95)}\\(語彙+品詞)&(75.82)&(79.64)&(79.48)&(25.00)&(88.17)&(78.85)&(80.00)&{\bf(100.00)}\\\hline&63.96&76.81&72.29&25.00&86.96&54.21&73.33&81.08\\可変長モデル&(54.57)&(78.40)&(68.52)&(20.83)&(84.62)&(53.70)&(73.33)&(71.43)\\(語彙)&(77.25)&(75.28)&(76.49)&(31.25)&(89.43)&(54.72)&(73.33)&(93.75)\\\hline\hline5グラムモデル&{\bf72.18}&84.15&{\bf79.58}&{\bf38.71}&{\bf92.86}&{\bf93.20}&{\bf92.86}&87.18\\+可変長モデル&{\bf(62.88)}&(81.66)&{\bf(73.61)}&{\bf(37.50)}&{\bf(90.00)}&{\bf(88.89)}&{\bf(86.67)}&(80.95)\\(全て)&{\bf(84.70)}&(86.79)&{\bf(86.61)}&{\bf(40.00)}&{\bf(95.90)}&{\bf(97.96)}&{\bf(100.00)}&(94.44)\\\hline5グラムモデル&70.19&83.41&78.22&35.29&92.64&92.16&{\bf92.86}&87.18\\+可変長モデル&(60.66)&(81.07)&(72.15)&(31.25)&(89.62)&(87.04)&{\bf(86.67)}&(80.95)\\(語彙+品詞)&(83.27)&(85.89)&(85.39)&(40.54)&(95.88)&(97.92)&{\bf(100.00)}&(94.44)\\\hline5グラムモデル&68.82&{\bf84.46}&77.50&31.46&91.85&{\bf93.20}&{\bf92.86}&{\bf89.47}\\+可変長モデル&(59.28)&{\bf(82.84)}&(72.15)&(29.17)&(88.85)&{\bf(88.89)}&{\bf(86.67)}&{\bf(80.95)}\\(語彙)&(81.99)&{\bf(86.15)}&(83.71)&(34.15)&(95.06)&{\bf(97.96)}&{\bf(100.00)}&{\bf(100.00)}\\\hline\end{tabular}\end{center}\end{scriptsize}\end{table*}\subsubsection{単独モデル・混合結果の出力のパターンの分析}\begin{table*}\begin{scriptsize}\begin{center}\caption{単独モデル・混合結果の出力のパターンの分析結果}\label{tab:res-syspat}\hspace*{-.3cm}\begin{tabular}{|c|c||c|c|c|c|c|c|c|c|c|c|c|c|}\hline\multicolumn{14}{|c|}{5グラムモデルと可変長モデル(形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性$=$全て)の出力の混合}\\\hline\hline単独モデルの&5グラムモデル&有&有&無&有&有&無&有&有&無&有&有&無\\\cline{2-14}出力の有無&可変長モデル&有&無&有&有&無&有&有&無&有&有&無&有\\\hline\multicolumn{2}{|c||}{混合結果の出力の有無}&\multicolumn{3}{|c|}{有}&\multicolumn{3}{|c|}{無}&\multicolumn{3}{|c|}{有}&\multicolumn{3}{|c|}{無}\\\hline\multicolumn{2}{|c||}{正解データにおける有無}&\multicolumn{3}{|c|}{有}&\multicolumn{3}{|c|}{無}&\multicolumn{3}{|c|}{無}&\multicolumn{3}{|c|}{有}\\\hline\hline\multicolumn{2}{|c||}{割合(\%)}&28.0&18.2&1.5&0.04&1.8&42.5&2.4&4.8&0&0&0&0.7\\\hline\multicolumn{2}{|c||}{正誤判別率(\%)(判別数/出力数)}&\multicolumn{6}{|c|}{(判別正解率)\\92.1\\(2194/2382)}&\multicolumn{6}{|c|}{(判別誤り率)\\7.9\\(188/2382)}\\\hline\multicolumn{14}{c}{}\\\hline\multicolumn{14}{|c|}{5グラムモデルと可変長モデル(形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性$=$語彙+品詞)の出力の混合}\\\hline\hline単独モデルの&5グラムモデル&有&有&無&有&有&無&有&有&無&有&有&無\\\cline{2-14}出力の有無&可変長モデル&有&無&有&有&無&有&有&無&有&有&無&有\\\hline\multicolumn{2}{|c||}{混合結果の出力の有無}&\multicolumn{3}{|c|}{有}&\multicolumn{3}{|c|}{無}&\multicolumn{3}{|c|}{有}&\multicolumn{3}{|c|}{無}\\\hline\multicolumn{2}{|c||}{正解データにおける有無}&\multicolumn{3}{|c|}{有}&\multicolumn{3}{|c|}{無}&\multicolumn{3}{|c|}{無}&\multicolumn{3}{|c|}{有}\\\hline\hline\multicolumn{2}{|c||}{割合(\%)}&67.8&4.4&1.7&0.2&2.6&10.3&8.9&2.6&0.1&0&0.7&0.7\\\hline\multicolumn{2}{|c||}{正誤判別率(\%)(判別数/出力数)}&\multicolumn{6}{|c|}{(判別正解率)\\87.1\\(1315/1510)}&\multicolumn{6}{|c|}{(判別誤り率)\\12.9\\(195/1510)}\\\hline\multicolumn{14}{c}{}\\\hline\multicolumn{14}{|c|}{5グラムモデルと可変長モデル(形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性$=$語彙)の出力の混合}\\\hline\hline単独モデルの&5グラムモデル&有&有&無&有&有&無&有&有&無&有&有&無\\\cline{2-14}出力の有無&可変長モデル&有&無&有&有&無&有&有&無&有&有&無&有\\\hline\multicolumn{2}{|c||}{混合結果の出力の有無}&\multicolumn{3}{|c|}{有}&\multicolumn{3}{|c|}{無}&\multicolumn{3}{|c|}{有}&\multicolumn{3}{|c|}{無}\\\hline\multicolumn{2}{|c||}{正解データにおける有無}&\multicolumn{3}{|c|}{有}&\multicolumn{3}{|c|}{無}&\multicolumn{3}{|c|}{無}&\multicolumn{3}{|c|}{有}\\\hline\hline\multicolumn{2}{|c||}{割合(\%)}&67.3&6.1&1.1&0.1&1.5&10.6&10.4&2.5&0&0&0.1&0.4\\\hline\multicolumn{2}{|c||}{正誤判別率(\%)(判別数/出力数)}&\multicolumn{6}{|c|}{(判別正解率)\\86.6\\(1297/1497)}&\multicolumn{6}{|c|}{(判別誤り率)\\13.4\\(200/1497)}\\\hline\end{tabular}\end{center}\end{scriptsize}\end{table*}5グラムモデルの出力と可変長モデルの出力の混合の場合について,各単独モデルの出力における固有表現の有無,および,混合結果における固有表現の有無と,正解データにおける固有表現の有無のパターンの割合を調査した結果を表~\ref{tab:res-syspat}に示す.表中で,「有」「無」は,それぞれ,単独モデルの出力,混合結果,正解データに固有表現が存在する場合,および,存在しない場合を表す.例えば,「有」「有」「有」「有」のパターンは,両方の単独モデルの出力にその固有表現が存在し,混合結果においてもその固有表現が出力され,かつ,それが正解データにも存在する正解の固有表現である場合に相当する.また,割合(\%)の計算においては,両方の単独モデルの出力の和における固有表現数を分母,それぞれのパターンに該当する固有表現数を分子として,割合(\%)を計算している.さらに,混合における正誤判別結果が正解であるか否かについては,混合結果および正解データにおける出力の有無が一致する場合は正誤判別が正解,一致しない場合は正誤判別が誤りであるので,「正誤判別率」の欄にそれぞれの率を示した.形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性の設定が異なる場合についてこの結果を比較すると,「5グラムモデル+可変長モデル(全て)」において判別正解率が高くなっているが,これは,「可変長モデル(全て)」の性能が極端に悪く,「可変長モデル(全て)」のみが出力した固有表現の多くが誤りであり,その判別が比較的容易であったからである.全体では,どの可変長モデルの出力との混合においても,5グラムモデルの出力を覆すことで正解となった場合(「無」「有」「有」「有」および「有」「無」「無」「無」)が数\%あり,これが,5グラムモデルからの性能向上に寄与している.その一方で,判別誤りの内訳をみると,その多くは,誤出力の検出が十分できなかった場合で,ほとんどの場合,少なくとも5グラムモデルはその誤りの固有表現を出力している.このことから,より効果的な素性を用いる,あるいは,より高性能な学習器を用いるなどして,誤出力検出の精度を向上させることにより,適合率を向上できる余地があることがわかる.\subsection{最大エントロピー法による正誤判別規則学習}\label{subsec:comb-ME}最後に,正誤判別規則学習の学習法の比較のために,最大エントロピー法を用いて正誤判別規則学習を行なった.まず,最大エントロピー法を適用するために,\ref{subsubsec:event}~節の(\ref{eqn:segev})式の事象表現$SegEv_j$を,以下のように変換する.\begin{eqnarray}SegEv_j&=&\{NEListev_{p,\ldots,q},\ldots,NEListev_{p',\ldots,q'}\}\\\\label{eqn:segev-ME}\end{eqnarray}ここで,各事象表現$NEListev_{p,\ldots,q}$は,システムの指標のリストごとに固有表現をまとめたもので,固有表現のリストの事象表現に相当する\footnote{最大エントロピー法の適用における事象表現の形式は,\ref{subsubsec:event}~節の決定リスト学習の場合の事象表現の形式とは異なっているが,最大エントロピー法における素性の表現能力を必要以上に制限しているわけではない.決定リスト学習において可能な素性を表現する際にも,\ref{subsubsec:ftr}~節のi)およびii)の二つの制約を課しているため,素性の表現能力について両者の間に意図的な差はない.}.\ref{subsubsec:event}~節の場合と同様に,以下の二種類のどちらかに対応し,それぞれ異なったデータ構造を持つ.\begin{enumerate}\item[i)]そのセグメント中で少なくとも一つのシステムにより出力された固有表現のリストの事象表現.\item[ii)]そのセグメント中で一つも固有表現を出力しなかった一つのシステムに関する情報を表す事象表現.\end{enumerate}i)のタイプの事象表現$NEListev_{p,\ldots,q}$は以下のようなデータ構造を持つ.\begin{eqnarray}NEListev_{p,\ldots,q}&=&\Bigl\{systems=\langlep,\ldots,q\rangle,\mlengthList=y,\ldots,z\mbox{morphemes},\nonumber\\&&\\NEtagList=\cdots,\POSList=\cdots,\nonumber\\&&\\classList_{NE}=+/-,\ldots,+/-\Bigr\}\label{eqn:NEnon-emp-ME}\end{eqnarray}このデータ構造は,\ref{subsubsec:event}~節の(\ref{eqn:NEnon-emp})式のデータ構造とほぼ同じであるが,固有表現のリストを表現するために,各素性に相当する情報が全てリスト表現になっている点が異なる.一方,ii)のタイプの事象表現$NEList_{r}$は,\ref{subsubsec:event}~節の(\ref{eqn:NEemp})式と同じく,以下のデータ構造で表現される.\begin{eqnarray}NEListev_{r}&=&\Bigl\{systems=\langler\rangle,\class_{sys}=\mbox{``nooutput''}\Bigr\}\label{eqn:NEemp-ME}\end{eqnarray}このような事象表現を用いて正誤判別規則の学習および適用を行なう際には,上述の(\ref{eqn:segev-ME})式の事象表現を事象の単位とし,\ref{subsubsec:class}~節の場合と同様に,各システム$i$ごとにまとめた以下のクラス表現を設定し,各システム$i$ごとにクラスの判別を行なうための正誤判別規則の学習および適用を行なう.\begin{eqnarray*}class_{sys}^1&=&\left\{\begin{array}{l}+/-,\\ldots,\+/-\\\mbox{``nooutput''}\end{array}\right.\nonumber\\&\cdots&\\class_{sys}^n&=&\left\{\begin{array}{l}+/-,\\ldots,\+/-\\\mbox{``nooutput''}\end{array}\right.\nonumber\end{eqnarray*}その際には,(\ref{eqn:NEnon-emp-ME})式の固有表現のリストの事象表現$NEListev_{p,\ldots,q}$の$mlengthList$,$NEtagList$,$POSList$,および,(\ref{eqn:NEemp-ME})式の固有表現の事象表現$NEList_{r}$の$class_{sys}$を,それぞれ文脈$x$とし,上式の,各システムごとにまとめた正誤のクラスのリストを付与するための条件付確率モデルを,最大エントロピーモデルとして学習する.この最大エントロピーモデルは,各システム$i$ごとに個別にモデルの学習・適用を行なう.\begin{table}\begin{center}\caption{5グラムモデル/その他の各モデルの出力の最大エントロピー法による\\混合結果の性能(F値($\beta=1$)(再現率/適合率)(\%))}\label{tab:res-comb-ME}\begin{tabular}{|l||c|c|c|}\hline\multicolumn{4}{|c|}{(a)\\\$TrI=TrC=D_{CRL}$,結合素性なし}\\\hline\hline&\multicolumn{3}{|c|}{形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性}\\\cline{2-4}&\\\全て\\\&語彙+品詞&語彙\\\hline\hline7グラムモデル&81.81(78.80/85.07)&81.70(78.51/85.16)&81.47(78.58/84.58)\\\hline9グラムモデル&81.21(78.01/84.68)&81.38(78.30/84.73)&81.46(78.51/84.63)\\\hline可変長モデル&81.12(76.65/86.15)&81.48(77.36/86.06)&81.37(78.37/84.61)\\\hline\multicolumn{4}{c}{}\\\hline\multicolumn{4}{|c|}{(b)\\\$TrI=TrC=D_{CRL}$,結合素性あり}\\\hline\hline&\multicolumn{3}{|c|}{形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性}\\\cline{2-4}&\\\全て\\\&語彙+品詞&語彙\\\hline\hline7グラムモデル&81.71(78.72/84.93)&81.58(78.37/85.07)&81.35(78.44/84.49)\\\hline9グラムモデル&81.16(78.08/84.50)&81.22(78.37/84.28)&81.29(78.58/84.19)\\\hline可変長モデル&80.94(76.65/85.74)&81.40(77.29/85.98)&81.24(78.01/84.75)\\\hline\end{tabular}\vspace*{-.5cm}\end{center}\end{table}このような方法で,7グラムモデル,9グラムモデル,可変長モデルについて,それぞれ,\ref{subsubsec:ftr34}~節の三種類の素性の設定を区別して,合計9種類のモデルを考え,その各々について,5グラムモデルの出力との間で混合を行ない,その性能を評価した.ただし,$TrI=TrC=D_{CRL}$とし,評価データセット$Ts$は本試験データ$D_{formal}$とした.最大エントロピーモデルの素性関数の頻度に下限を設け,評価データセット$Ts$に対して最も高い性能が得られた場合の結果を表~\ref{tab:res-comb-ME}(a)に示す.また,決定リスト学習との間で条件を揃えるために,\ref{subsubsec:ftr}~節の(\ref{eqn:ftr})式の形式の決定リスト学習の素性のうち,上述の実験結果(a)では用いていなかった結合素性を追加して最大エントロピーモデルの学習および適用を行なった結果を表~\ref{tab:res-comb-ME}(b)に示す.この場合は,決定リスト学習における各規則の条件付確率$P(class_{sys}^i\!=\!c_i\midf)$に下限を設け,評価データセット$Ts$に対して最も高い性能が得られた場合の結果を示している.表~\ref{tab:res-comb-ME}の(a)と(b)の結果を比較すると,結合素性を用いた場合の方が性能が悪くなっている.また,いくかの結果を除いて,5グラムモデルの性能からの向上はみられるものの,決定リスト学習による可変長モデルの出力との混合の場合のような高い性能向上は達成できていない.この理由の一つとしては,最大エントロピーモデルと決定リスト学習の間のモデルの形式の違いの影響が挙げられる.最大エントロピーモデルは,あらゆる素性とクラスとの相関をそれぞれ別個のパラメータとし,モデル内では全パラメータを考慮する形式のモデルになっている.一方,決定リスト学習は,各々のクラス決定において最も寄与する素性の組合わせのみを考慮し,他の素性は全く考慮しない.したがって,素性間で寄与する度合の差がわずかしかない場合でも,決定リスト学習では,最も寄与する素性の組合わせのみが考慮されるのに対して,最大エントロピーモデルでは,全素性の寄与を総合的に考慮する.本論文の正誤判別規則学習による混合の問題では,素性の種類が比較的少なく,特に高頻度な素性\footnote{例えば,複数の情報の結合でなく単独の情報のみから構成される素性など.}は,実際にクラス判別に寄与する度合に関係なく,どの事象においても常に一定の値以上の重みを持つと考えられる.そのような問題の場合には,最大エントロピーモデルのように全素性の寄与を総合的に考慮する学習法でなく,決定リスト学習のように各々のクラス決定に最も寄与する素性の組合わせのみを考慮する学習法が適していると考えられる.逆に,正誤判別規則学習による混合の前段階である,形態素への固有表現まとめ上げ状態付与の問題の場合には,\cite{Sassano00bjx,Sassano00a}に示されるように,決定リスト学習よりも最大エントロピーモデルの方が高い性能を示している.この問題の場合には,素性の種類が比較的多く,極端に高頻度な素性も少ないことから,最大エントロピーモデルのように全素性の寄与を総合的に考慮する学習法が適していると考えられる. \section{関連研究} \label{sec:rel}\subsection{複数モデルの出力の混合法}\ref{sec:intro}~節で述べたように,一般に,複数のモデル・システムの出力を混合する過程は,大きく以下の二つの部分に分けて考えることができる.\begin{enumerate}\item\label{enum:sub1-rel}できるだけ振る舞いの異なる複数のモデル・システムを用意する.\item\label{enum:sub2-rel}用意された複数のモデル・システムの出力を混合する方式を選択・設計し,必要であれば学習等を行ない,与えられた現象に対して,用意された複数のモデル・システムの出力を混合することを実現する.\end{enumerate}ここで,これまで自然言語処理の問題に適用された混合手法においては,これらの(\ref{enum:sub1-rel})および(\ref{enum:sub2-rel})の過程について,大体以下のような手法が用いられていた.まず,(\ref{enum:sub1})については,大きく分けて以下のような手法がある.\begin{enumerate}\item[i)]学習モデルが異なる複数のシステム等(原理的には,人手による規則に基づくシステムとデータからの学習に基づくシステム,などの組合わせも可能),ある程度振る舞いの異なる既存のシステムを用意する~\cite{vanHalteren98a,Brill98a,Henderson99a,KoInui00aj,Sang00a}.\item[ii)]i)と似ているが,学習モデルは単一のものを用い,データの表現法(具体的には,まとめ上げ問題におけるまとめ上げ状態の表現法)として複数のものを設定することにより,複数の出力を得る~\cite{Sang00a,TKudo00ajx}.\item[iii)]単一の学習モデルを用いるが,訓練データのサンプリングを複数回行なうことにより複数のモデルを学習するbagging法~\cite{Breiman96b}を用いる~\cite{Henderson00a},あるいは,単一の学習モデルを用い,誤り駆動型で訓練データ中の訓練事例の重みを操作しながら学習と適用を繰り返すことにより,各サイクルの誤りに特化した複数のモデル(およびそれらの重み)を学習するboosting法~\cite{Freund99aj}を用いる~\cite{Haruno97a,Haruno99a,Abney99a,Henderson00a}.\end{enumerate}これに対して,本論文においては,振る舞いの異なる複数のモデルを得る方法として,学習モデルは単一のものを用い,固有表現まとめ上げの際に考慮する周囲の形態素の個数を区別することで複数のモデルを得るという方法をとった.この方法は,上記のうちでは,ii)でとられた方法と比較的似ている.次に,(\ref{enum:sub2})については,大きく分けて以下のような手法がある\footnote{boostingは,複数のモデルを組合わせる際の重みまで含めて,全体として誤りが減少するように複数モデルの生成法が設計されているので,以下の分類には含めない.}.\begin{enumerate}\item[i)]重み付多数決など,何らかの多数決を行なうもの~\cite{Breiman96b,vanHalteren98a,Brill98a,Henderson99a,KoInui00aj,Sang00a,Henderson00a,TKudo00ajx}.\item[ii)]複数のシステム・モデルの重みに応じて採用するシステムの切り替えを行なうもの~\cite{Henderson99a,KoInui00aj}.\item[iii)]原理的に,上記のi)およびii)を包含し得る方法として,複数のシステム・モデルの出力(および訓練データそのもの)を入力とする第二段の学習器を用いて,複数のシステム・モデルの出力の混合を行なうstacking法~\cite{Wolpert92a},あるいは,それと同等の方法に基づくもの~\cite{vanHalteren98a,Brill98a,Sang00a}.\end{enumerate}これらの方法のうち,本論文では,原理的に,i)およびii)を包含し得るiii)のstacking法を用いている.特に,本論文では,個々のシステムの出力する重みの情報は利用せずstackingを行なっているので,規則に基づくシステムなどで重みを出力しない場合でも,そのまま本論文の手法を適用することができる.これに対して,重み付多数決や重みを用いたシステム切り替えの場合は,システム数が少なく(例えば,二種類のシステムの混合の場合),かつ,個々のシステムが重みを出力しない場合などでは,適用が困難になると考えられる.また,通常のbagging法やboosting法を適用する場合でも,第一段としては何らかの学習モデルを採用する必要があるが,本論文の混合法にはそのような制約はないので,原理的には,第一段として任意のシステムを採用することが可能である.\subsection{Stacking法}次に,本節では,stacking法についての関連研究,および,stacking法と同等の手法を自然言語処理におけるシステム混合の問題に適用している研究事例について述べる.stacking法は,\cite{Wolpert92a}によってその枠組みが提案され,その後,機械学習の分野においていくつかの応用手法が提案されている~\cite{Breiman96a,Ting97a,Gama00a}.例えば,\cite{Breiman96a}は,回帰法を用いたstackingを提案している.\cite{Ting97a}は,第一段の学習器として,決定木学習,ナイーブベイズ,最近隣法を用い,第二段の学習器として,決定木学習,ナイーブベイズ,最近隣法,線形回帰法の一種を用いた実験を行ない,性能の比較をしている.一方,\cite{Gama00a}は,それまで提案されたstacking法を,$n$段の学習器の連鎖に拡張し,第$k$$(1<k\leqn)$段の学習器は,第一段から第$k-1$段までの全ての学習器の入出力データを素性として学習を行なうというカスケード法を提案している.特に,それまでのstacking法は,第一段の学習器の出力のみを入力素性として第二段の学習器の学習を行なうものがほとんどであったのに対して,カスケード法では,前段までの学習器の出力だけでなく,入力素性もあわせて利用する点が特徴的である.一方,自然言語処理におけるシステム混合の問題にstacking法と同等の手法を適用している研究事例\footnote{``stacking''という用語を用いていない事例も多い.}としては,英語品詞付けにおいて,最大エントロピー法,変形に基づく学習,トライグラムモデル,メモリベース学習を第一段の学習器とし,決定木学習,メモリベース学習法などを第二段の学習器としてstackingを行なうもの~\cite{Brill98a,vanHalteren98a},英語名詞句まとめ上げにおいて,七種類の学習器を第一段に用い,決定木学習,メモリベース学習法を第二段の学習器としてstackingを行なうもの~\cite{Sang00a}などがある.これらの事例においては,いずれも,第一段の入力素性および出力を用いて第二段の学習器の学習を行なった結果も報告している.また,\cite{Borthwick98a}は,英語の固有表現抽出において,単一の最大エントロピーモデルの素性として,通常の固有表現まとめ上げ・タイプ分類に用いる素性とあわせて,他の既存のシステムの出力を素性として用いて,個々の単語に固有表現まとめ上げ状態・タイプ分類を付与するための分類器の学習を行なっている.一方,\cite{Freitag00a}は,情報抽出におけるテンプレート・スロット埋め問題において,ナイーブベイズ法,帰納的論理プログラミング法などを第一段の学習器とし,回帰法を第二段の学習器としてstackingを行なっている.ここでは,第二段の学習器の入力は,第一段の学習器の出力のみとなっている.これらの事例と比較すると,本論文の日本語固有表現抽出の問題においては,第一段の学習器は,個々の形態素に固有表現まとめ上げ状態・タイプ分類を付与するための分類器の学習を行なっているのに対して,第二段の学習器は,個々のシステムの固有表現抽出結果,および,第一段の学習器の入力となった素性(の一部)を入力として,個々のシステムの固有表現抽出結果の正誤を判定するための分類器の学習を行なっている.このように,本論文のstacking法では,第一段と第二段の学習器の学習の単位が異なっている点が変則的である.ただし,このような構成をとることにより,第一段としては,任意の固有表現抽出システムを用いることが可能となっている.また,\cite{Borthwick98a}と比較すると,\cite{Borthwick98a}では,本論文の第二段に相当する学習器が,個々の単語に固有表現まとめ上げ状態・タイプ分類を付与するための分類器の学習を行なっている点が異なっている.\subsection{統計的手法に基づく日本語固有表現抽出}統計的手法に基づく日本語固有表現抽出の研究事例としては,我々がベースとした,最大エントロピー法を用いるもの\cite{Uchimoto00aj}の他に,決定木学習を用いるもの~\cite{Sekine98a,Nobata99aj},最大エントロピー法を用いるもの~\cite{Borthwick99aj},決定リスト学習を用いるもの~\cite{Sassano00a},SVM(supportvectormachines)を用いるもの~\cite{Yamada01ajx}などがある.これらは,いずれも,単一の学習モデルを用いている.決定リスト学習を用いる事例~\cite{Sassano00a}では,可変長文脈素性を用いることにより,固定長モデルの性能の上回る結果が得られているが,ベースとなる決定リスト学習の性能は最大エントロピー法の性能よりも劣っている.その他の事例では,いずれも,固定長文脈素性を用いている.また,stacking法の研究事例においては,異なる数種類の学習器を第一段に用いるという構成が多く見られ,一定の効果が報告されているので,上記の複数の学習器を第一段としてstacking法を行なうことにより,精度の向上が期待できる可能性がある.その他には,\cite{Yamada01ajx}で報告されているように,解析の方向を文頭から文末と文末から文頭の二通り設定し,解析済の固有表現のタグを素性として利用する方法により,振る舞いの異なった出力が得られる可能性があり,stacking法でその出力を利用することで,精度の向上が期待できる可能性がある.また,\cite{Isozaki00ajx}では,決定木学習により学習された可読性の高い規則や人手による付加制約等を適用して複数の固有表現候補を生成し,最長一致法により複数の候補の選別を行なっている.ここで,複数の候補の選別を行なう際に,本論文の混合法を適用することにより,誤出力の棄却まで含めたより一般的な選別が自然な形で実現できる可能性があると考えられる. \section{おわりに} \label{sec:conc}本論文では,日本語固有表現抽出の問題において,複数のモデルの出力を混合する手法を提案した.まず,最大エントロピー法に基づく統計的学習による固有表現抽出モデルにおいて,現在位置の形態素が,いくつの形態素から構成される固有表現の一部であるかを考慮して学習を行なう可変長モデルと,常に現在位置の形態素の前後数形態素ずつまでを考慮して学習を行なう固定長モデルとの間のモデルの挙動の違いに注目し,なるべく挙動が異なり,かつ,適度な性能を保った複数のモデルの出力の混合を行なった.混合の方式としては,複数のシステム・モデルの出力(および訓練データそのもの)を入力とする第二段の学習器を用いて,複数のシステム・モデルの出力の混合を行なう規則を学習するという混合法(stacking法)を採用した.第二段の学習器として決定リスト学習を用いて,固定長モデルおよび可変長モデルの出力を混合する実験を行なった結果,最大エントロピー法に基づく固有表現抽出モデルにおいてこれまで得られていた最高の性能を上回る性能が達成された.今回の実験では,固定長モデル同士は出力される固有表現の分布がお互いに似通っており,可変長モデル同士も使用する素性の集合に包含関係があることから,出力する固有表現の傾向が大きく異なるモデルは,固定長モデルと可変長モデルの二種類だけであると仮定した.そのため,評価実験においても,二つのモデルの出力の混合の結果のみを報告したが,今後は、傾向の大きく異なる三種類以上のモデルの出力に対して,本論文の混合手法の有効性を評価したいと考えている.また,本論文の手法は,個々の単独システムに何らかの固有表現候補を出力させて,それらの固有表現候補を取捨選択するという方法であるので,再現率の観点からは,個々の単独システムの出力の和の再現率が上限となってしまう.したがって,本論文の方法によってより高い性能の固有表現抽出を実現するためには,個々の単独システムが少しでも多くの固有表現候補を出力することが不可欠である.今後は,既存のどの固有表現抽出モデルを用いても抽出が失敗する固有表現の特性を分析し,できるだけ網羅的に固有表現候補を出力し,その結果を本論文の混合法で利用する方式について検討を行なう予定である.その際,網羅的に固有表現候補を出力するためには,まず,何らかの方法によって,広範なテキストから固有表現候補を収集して蓄積する必要があるが,ここでは,新聞記事やWWW上のテキスト等の大規模テキストから未知語を獲得する,あるいは専門用語を抽出するなどの手法の適用が有効であると考えている.\bibliographystyle{jnlpbbl}\bibliography{myabbrv,mydb}\clearpage\begin{biography}\biotitle{略歴}\bioauthor{宇津呂武仁}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学大学院工学研究科博士課程電気工学第二専攻修了.京都大学博士(工学).同年,奈良先端科学技術大学院大学情報科学研究科助手.1999年$\sim$2000年,米国ジョンズ・ホプキンス大学計算機科学科客員研究員.2000年,豊橋技術科学大学工学部情報工学系講師,現在に至る.自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本ソフトウェア科学会,日本音響学会,ACL,各会員.}\bioauthor{颯々野学}{1991年京都大学工学部電気工学第二学科卒業.同年より富士通研究所研究員,現在に至る.1999年$\sim$2000年,米国ジョンズ・ホプキンス大学計算機科学科客員研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会,各会員.}\bioauthor{内元清貴}{1994年京都大学工学部電気工学第二学科卒業.1996年同大学院工学研究科修士課程電気工学第二専攻修了.同年郵政省通信総合研究所入所.現在,独立行政法人通信総合研究所研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V20N03-02
\section{はじめに} \begin{figure}[b]\begin{center}\includegraphics{20-3ia2f1.eps}\end{center}\caption{情報抽出器作成までの流れ}\end{figure}震災時にツイッターではどのようなことがつぶやかれるのか,どのように用いられるのか,また震災時にツイッターはどのように役立つ可能性があるのか.震災当日から1週間分で1.7億にのぼるツイートに対し,短時間で概観を把握し,今後の震災に活用するためにはどうすればよいかを考えた.全体像を得た上で,将来震災が発生した際に,ツイッターなどのSNSを利用し,いち早く災害の状況把握を行うための,情報(を含むツイート)抽出器を作成することを最終目標とし,その方法を探った.この最終目標に至るまでの流れと,各局面における課題および採用した解決策を図1に示した.図1に課題として箇条書きしたものは,そのまま第3章以降の節見出しとなっている.信号処理や統計学の分野において多用される特異値分解は,例えばベクトルで表現される空間を寄与度の高い軸に回転する数学的な処理であり,値の大きな特異値に対応する軸を選択的に用いる方法は,次元圧縮の一手法としてよく知られている.機械学習において,教師データから特徴量の重みを学習することが可能な場合には,その学習によって重みの最適値が求められるが,教師なしのクラスタリングではこの学習過程が存在しないため,特徴量の重みづけに他の方法が必要となることが予想される.筆者らは,本研究の過程に現れるクラスタリングと分類において,古典的な類義語処理および次元圧縮のひとつとしての文書‐単語行列の特異値分解に加え,特異値の大きさを,特徴量に対する重みとして積極的に用いることを試した.現実のデータに対し,現象の分析や,知見を得るに耐えるクラスタリングを行うには,最終的に``確認・修正''という人手の介在を許さざるを得ない.この過程で,従来からのクラスタリング指標であるエントロピーや純度とは別の観点からも,文書‐単語行列に対して特異値分解や特異値による重みづけをすることに一定の効果があることを筆者らは感じた.クラスタリングに多かれ少なかれ見られるチェイニング現象(3.1.3節で詳細を述べる)を激しく伴うクラスタリング結果は,人手による確認・修正作業に多大な負担をもたらすのだが,このチェイニング現象は特異値分解に加えて特異値で重みづけを行うことで緩和される傾向にあることがわかったのである.そこで本研究では,人手による作業の負担を考慮した作業容易度(Easiness)というクラスタリング指標を提案し,人手による作業にとって好ましいクラスタリング結果とはどういうものか探究しつつ,文書‐単語行列の特異値分解と,特異値分解に加えて特異値で重みづけする提案手法の効果,および,従来の指標には表れない要素を数値化した提案指標の妥当性を検証することとする.以下,第2章では,テキストマイニングにおけるクラスタリング,分類,情報抽出の関連研究を述べる.第3章では,情報抽出器作成までの手順の詳細を,途中に現れた課題とそれに対する解決策とともに述べる.第4章ではクラスタリングの新しい指標として作業容易度(Easiness)を提案し,それを用いて,クラスタリングや分類を行う際に,特異値分解あるいは特異値分解に加えて特異値で特徴量の重みづけを行うことの有効性を検証する.第5章では,「拡散希望」ツイートの1\%サンプリングを全分類して得られた社会現象としての知見と,情報抽出器の抽出精度を上げるために行った試行の詳細およびそれに対する考察を述べる.尚,本論文の新規性は,タイトルにあるように「文書‐単語行列の特異値分解と特異値による重み付けの有効性」を示すことであり,関連する記述は3.1.3節および第4章で行っている.ただし,東日本大震災ビッグデータワークショップに参加して実際の震災時のツイートを解析したこと,すなわち研究用データセットではなく,事後ではあるが,現実のデータを現実の要請に従って解析したこと,によって得られた知見を残すことも本稿執筆の目的の一つであるため,情報抽出器作成の過程全てを記してある. \section{関連研究} テキストマイニングにおいて,クラスタリング,分類,情報抽出の研究は多数存在する(Berry2004,2008).文書の数学的表現としては,ベクトル空間法(VectorSpaceModel)が広く用いられている.多次元空間のベクトルを特徴量に用いるというもので,その歴史は古く(Salton1975)で提案されている.クラスタリングに用いられる文書‐単語行列は,その自然な拡張である.単語の表層文字列を素性として扱うような多次元空間では,個々の単語の出現頻度が低く,疎性(Sparseness)の問題を引き起こす.この問題に対処するために,類義語処理の研究が多数存在しており,次元圧縮としてのLSI法(Deerwester1990),トピックモデルとしてのpLSI法(Hofmann1999),ベイズ推定を用いたLatentDirchletAllocation法(Blei2003)が代表的である.クラスタリングに特異値分解や主成分分析を用いる場合の心得は,(Kobayashi2004)に詳しい.LSI法の数学的な基礎付けとなる特異値分解は,反復法による数値計算で行われる.大規模な疎行例のための実装には,(Dongarra1978)や(Anderson1999)がある.分類問題に対する機械学習の方法としては,線形判別分析(Fisher1936),サポートベクターマシン(Cortes1995)が代表的である.本研究では,統計処理言語Rによる実装(Karatzoglou2004)でのサポートベクターマシンを用いる.抽出器の作成には,多クラス分類器(Crammer2000;Karatzoglou2006)を用いて,2つの手法を比較する.1つは,サポートベクターマシンの事後確率を計算する方法(Platt2000;Lin2007;Karatzoglou2006)で,閾値を超える事後確率を持つクラスが存在する場合に抽出する(Manning2008).もう1つは,1-クラス分類(Sch\"{o}lkopf1999;Tax1999;Karatzoglou2006)である.言語処理学会2012年度全国大会では,災害時における言語情報処理というテーマセッションで11件の発表があった.そこには,効率的な情報抽出という観点から,(Neubig2012)や(岡崎2012)の研究がある.本研究は,クラスタリングによって分類カテゴリの決定をするところから始めるという点で,特定の種別の情報を抽出するこれらの研究とは異なる.東日本大震災時にSNSが果たした役割については(小林2011),(立入2011)が刊行されている.(片瀬2012),(遠藤2012)でも指摘されているように,今後の震災時にSNSが取材情報源として担う役割は大きいものと思われる.なお,当時のメディアについては,(片瀬2012),(稲泉2012),(遠藤2012),(福田2012),(徳田2011)に詳しい. \section{情報抽出器作成までの手順} 情報抽出器を作成するまでには,第1章の図1にあるように,全体把握,抽出対象データの策定・特徴把握,情報抽出というおおまかに3つの段階を経た.以下,それぞれについて詳しく述べる.\subsection{震災ツイートの全体把握}本研究の最終目標は,所望する情報を含むターゲットツイートを抽出する情報抽出器を作成することであるが,そのためには,そのターゲットツイートの持つ特徴をつかむことが必要である.その作業は,そもそもどのような種類のツイートが存在するかを知り,たとえ望ましいまとまりではなかったとしても,実際に形成されたツイート群を見てみることから始まる.つまり,ターゲットデータの抽出のためには,それに先立ち全体傾向を把握すること,すなわちクラスタリングが非常に重要なのである.\subsubsection{大規模データに対するアプローチ(「拡散希望」ツイート)}近年,SNSというメディアの急速な発展に伴って,そこでの発言の解析に関する研究もにわかに脚光を浴びてきている.書き言葉の解析が従来の言語処理のメインターゲットであったのに対し,話し言葉に近いSNSでの発言を解析することは,新たな研究課題を含んでいるからである.今回はそのような言語処理の課題に加え,1.7億というボリュームゆえの大規模データ処理としての課題も顕在化した.大規模なデータを扱う場合,特定の観点を定めて,それに特化した分析を行うという方法もあるが,我々は始めから特定の観点に限定せずに分析を行いたかったため,ランダムサンプリングを行って全体を把握することにした.サンプリングを行うことで,核心的な個々のツイートを見逃す可能性もあるが,全体を把握する場合は,出現頻度の多いものからとりかかり,その後細部に踏み込んでいくという過程をたどるため,ランダムサンプリングを行うことが自然,かつ効果的である.また,本来“つぶやき”であるものの中から,震災時の状況把握に意味のあるツイートに効率的に接触することを目指し,“拡散させることを目的としている”すなわち“伝える意思が明確である”「拡散希望」ツイートに着目した\footnote{「拡散希望」に限定しない場合,3月11日〜14日の総ツイート数は1.02憶ツイートであり,3月11日〜17日の全「拡散希望」ツイートは約385万ツイートであった}.実際のところ,キーフレーズ検出\footnote{n-gramとそれを構成する各単語1-gramが個別に出現する頻度の積からなる$t$統計量を算出している(Manning1999).ここでは,単語5〜100gramに対して,$t$統計量が$2\sigma$より大きいものをキーフレーズとした.名詞句など特定の品詞列に限定することはしていない.他のキーフレーズ検出アルゴリズムとして(Witten2005)が有名だが,事前の学習が必要である.}を行って検出されたものの中に多数の「拡散希望」ツイートが見られ,震災時に「拡散希望」ツイートが多く出回っていたことも確認されている.1\%ランダムサンプリングを行った上で「拡散希望」ツイートに限定した\footnote{「拡散希望」に限定したものの中から1\%ランダムサンプリングを行うことと等価である}とはいえ,震災対応初動期間の72時間を含む11〜14日に限定しても,分析対象のツイートは3万件以上あり,全て人手で分類するには30人日程度かかることが見積もられた\footnote{筆頭著者の長年にわたる経験では,1人が1日で処理できる自由記述文は1,000件程度である}.このため,何らかの自動処理が必要となったのであるが,この時点ではまだどのような分類項目が存在するかもわからず,加えて時間の経過とともに分類項目が変わっていくことが予想されたため,1日分ずつ分析対象のツイートのクラスタリングを行うことにした.\noindent\textbf{3.1.1.1「拡散希望」ツイートの特徴}「拡散希望」ツイートには次に挙げる2つの特徴があり,結果的に「拡散希望」に限定したサンプルツイートは,震災時の膨大なツイートの概観を得るのに非常に有効であった.\hangafter=1\hangindent=4zw\noindent\hboxto4zw{特徴~1:\hss}基本的には転送を利用して拡散させるため,元ツイートの完全なコピー(公式リツイート)あるいはコピーにオリジナルのコメントを加えたもの(非公式リツイート)が多い\hangafter=1\hangindent=4zw\noindent\hboxto4zw{特徴~2:\hss}``拡散させたい=人々にきちんと伝えたい''という意識で書かれているため,一般的なツイートよりも``書き言葉''寄りで書かれており,スラングや未知語,単語の省略などが比較的少ない.よって,形態素解析における未知語,形態素区切り誤り,品詞誤りも少ない特徴1に関して,今回はリツイートを予め除外しておくことを敢えて行わなかった.リツイートの大きさも一つの情報であり,一つの作業で量と内容を合わせて概観を得るには前もってリツイートのまとめあげを行わない方が適切であると考えたからである.特徴2に関して,3月11日の地震発生後からランダムサンプリングした,「拡散希望」だけからなるツイート100件と「拡散希望」を含まないツイート100件を調べたところ,前者では全6,909形態素中,区切り誤りが13件,品詞誤りが22件あり,後者では全3,673形態素中,区切り誤りが27件,品詞誤りが33件見つかった.\subsubsection{文書‐単語行列作成}本研究では一貫して文書‐単語行列が用いられる.この文書‐単語行列は,文書(ツイート群)に対しMeCabによって形態素解析を行った後,各文書における単語1-gramの出現頻度をベクトル空間表現に基づいて作成したものである.続いてこの特徴量ベクトルに対し,キーワードらしさの重みづけに用いられるtf-idfの指標への変換,特異値分解などの処理を行う.これらの文書‐単語行列に対して行う工夫については,第4章においてもう一度説明する.大規模なデータから作成された文書‐単語行列は,一般的に大規模疎行列になる傾向があるが,本研究では,大規模疎行列に特化したアルゴリズムを用いることなく,一般的な特異値分解のアルゴリズムで事足りた.本研究では,解析および実験を,統計処理言語Rの標準または一般に入手可能なパッケージに含まれる関数によって行った.表1に,本研究で使用したRのパッケージ名,関数,オプションの一覧を,表2に,用いた計算環境を示す.\begin{table}[b]\caption{統計処理言語R使用パッケージ名,関数,オプション等一覧}\input{02table01.txt}\end{table}\begin{table}[b]\caption{計算環境}\input{02table02.txt}\end{table}\subsubsection{階層クラスタリングのチェイニング現象}\begin{figure}[b]\includegraphics{20-3ia2f2.eps}\caption{階層クラスタリングのデンドログラム(樹形図)とチェイニング現象}\end{figure}クラスタの粒度を任意に設定できる階層型クラスタリングは樹形図(デンドログラム)を用いて視覚的に表現される.根元(図2の最上部分)には全てのデータが含まれ,次第に分かれて末端は全てのデータが自分自身のクラスタを形成する.適当な高さ(図2破線)で枝刈りをすることで,切断された枝の切断部分より末端に連なるデータがまとまって1つのクラスタを形成すると解釈する(図2の●または○).本研究ではユークリッド距離とウォード法を用いてクラスタリングを行った.枝刈りは,クラスタ数が文書数の1/2乗になる場所で行うように設計した.ウォード法を用いると比較的チェイニング現象が起きにくいとされているが,著者の経験では,どのような距離関数やクラスタの組み上げ法を採用しても,多かれ少なかれチェイニング現象に遭遇することとなる.チェイニング現象とは,根元から見て,その後更に分かれることの無い比較的小さいクラスタが次々と分離していき,枝刈りを行った際に,ボリュームが大きく特徴を見出しにくいクラスタ(図2の○印)が残る現象である.東日本大震災の「拡散希望」ツイートをクラスタリングして顕著だったのは,分離したクラスタのうち,クラスタ内が同じツイートを元とするリツイート群となっているものが多かったことである\footnote{ただし,必ずリツイート群が1つのクラスタにおさまることや,1つのクラスタが1つのリツイート群だけで占められることが保証されるわけではない.似ている複数のリツイート群が1つのクラスタに入ることもあり,純粋なクラスタリングの目的からすれば,そのようなクラスタの生成こそ理想的である.}.リツイート群は出現単語とその頻度が非常に似ており文書ベクトルの距離が近いため,先に分離してクラスタを形成するためと思われるが,逆にこのリツイート群が取得できたことで,人手による分類の確認・修正を行う際,人が見るべきツイートが減ること,また,あるツイートに対する非公式リツイート\footnote{非公式リツイートとは,元のツイートに数文字かそれ以上の追加と削除を加えてツイートしたもので,公式リツイートとは異なり元ツイートにリンクされていないため,機械的なカウントは出来ない(何らかの言語処理が必要).多くは引用する直前に``RT''の文字を書き加えてある.}を含むリツイートの大きさを把握することが可能となること,という2つのメリットがもたらされた.リツイートの多さがチェイニング現象の原因であることも考えられたため,図2に示している3月11日の「拡散希望」ツイート1\%サンプリング10,494件のうち全くリツイートを含まない(ツイート本文中に文字列``RT''を含まない)ツイート667件に対し,同じ手順で階層クラスタリングを行った.その結果,最も大きなクラスタに542ツイート(全体の81\%)が集まるという同様の現象が認められた.リツイートを除かない場合は10,494件中3.275件(31\%)が最大クラスタに集まっている.クラスタリングにおいてチェイニングが起きる理由は必ずしも明確ではない(Jain1999)が,特徴量の設計が不適切で,分類を行う際に弁別能力を持つように文書間の距離を決めらなかった,あるいは階層クラスタリングを行う際の探索アルゴリズムにおいて,得られた解が局所最適解であった,などが原因として考えられる.本研究では,探索アルゴリズムの設計には踏み込まず,統計処理言語Rに用意されている既存のボトムアップ型クラスタリングの関数を利用し,特徴量の設計または用いる距離関数の選択を上手に行い,精度のよいクラスタリング結果を得ることを目指した.\noindent\textbf{3.1.3.1階層クラスタリングの繰り返し}「拡散希望」ツイート1\%サンプリングの全分類を目標とし,自立語に限定した単語1-gramを特徴量とする文書‐単語行列を作成,クラスタリングを行った.クラスタリングにはベクトル空間表現におけるユークリッド距離を採用し,クラスタ間距離の計算にはウォード法を,クラスタリングアルゴリズムはボトムアップ型(組み上げ法)の階層クラスタリングを採用した.その後,所属文書数が少ない,または文章が短く語彙が少ないクラスタについて,中身を1ツイートずつ確認し,ラベルを付与した上で,目視による確認・修正(ラベル付与)が困難なクラスタを集めて再度クラスタリングを行った\footnote{以降,本稿では特に断らない限り,人手が介在する際の作業は筆頭著者が1人で行ったことを意味する.}.これを繰り返せば,全てのツイートにラベルを付与することが出来るが,繰り返しの手間がかかることはもとより,生成されるクラスタの数が増え続けて全体把握がかえって困難になるのを避けるため,出来上がったクラスタを内容に応じてさらにまとめ上げることが必要となる.また,ボリュームの大きいリツイート群は1回目でほぼ出尽くすため,メリットの1つであったリツイート群を把握する効果も薄れてくる.そこで,何度もクラスタリングを繰り返すのではなく,2回クラスタリングを行った後は,それまでに作られたラベルを分類項目として残りをそのいずれかに落とし込むという分類問題に切り替えた.\noindent\textbf{3.1.3.2多クラス自動分類の繰り返し}クラスタリングでラベルが付与されたデータを学習データとし,その時点までに作られたラベルを分類項目として,ラベル未定義のデータを対象に,機械学習による多クラス自動分類の識別を行った.興味深いことに,クラスタリング同様半数近くが特定の分類項目に分類されており,そのような項目は所属ツイートが多く,目視で確認・修正作業(ラベル付与作業)を継続することが困難であった.そこで,目視での確認・修正が容易な,ツイート数または語彙が少ない項目に含まれ,確認・修正(ラベル付与)作業が済んだツイートを識別対象から学習データに回し,残りのラベル未定義のツイートに対し,繰り返し機械学習による自動分類を行った.これを2回繰り返したところで,各日9割の分類が終了した.この際に文書‐単語行列に対して行った工夫の詳細については第4章4.3節の評価実験2で述べる.分類は,マージン最大化学習であるサポートベクターマシンを採用し,カーネルにはガウシアンカーネルを採用した多クラス分類器を用いた.\subsection{情報抽出器において抽出するべき対象の策定と特徴把握}3.1.3節においてクラスタリングの確認・修正(ラベル付与)作業を行う過程で,震災時ツイートの分析では``誰が''``誰に''向かって発言しているか,がより重要な分類軸になることが分かった.もともとソーシャルメディアにおいては,誰もが発信者にも受信者にもなり得,そこで飛び交う情報は,内容も方向も多種多様であるが,特に震災時においては,発信者と受信者の関係性によって情報の担う役割が異なってくるからである.例えば``被害''に関する話題は,情報の方向を軸に見ると,被災者や被災者から事情を聞いた人が被災地外に向かって被害の状況を説明する``被害実態'',逆に被災地外の人が,テレビが見られない状況にある被災者または被災地周辺に向けて余震や津波の警報を伝える``関連災害予報'',さらに,被災地外から被災者に向けて発せられた,停電時のろうそく使用による二次火災の発生を注意するなどの``二次災害注意喚起''に大別される.同様に,``支援''に関する話題(救出に関するものは別項目)では,発信者と受信者が被災者/非被災者(支援者)のどちらであるかによって``支援を求める声''``支援を申し出る声''``企業や政府に支援を呼びかける声''``支援に関するノウハウを伝える声''などに分けられる.例えばマスメディアであれば,取材地候補を``被害実態''の中から探し,``支援(物資)を求める声''を人々に伝えるためにツイートを見る.被災者であれば,``支援申し出''の中に,自分が必要としているものが挙がっていないか調べる.これはツイート文中に出現する,個々の被害名称``地震''``津波''``火災''や物資名の``衣類''``食糧''``粉ミルク''``紙おむつ''といった単語での分類では不十分である.情報の方向の他に考えられる軸としては,何次の情報であるか(1次=本人,2次=本人から伝聞,3次=間に1人介して伝聞)などもあるが,震災時においては情報の方向性がより優先すると筆者らは考えた.そこでクラスタリングによって得られた分類項目(後述になるが第5章の表13の項目)を整理し,表3のように分類項目を再設定した.\begin{table}[b]\caption{メッセージの方向性を第1軸に再設定した分類項目の模式図}\input{02table03.txt}\end{table}今回は特にマスコミが重視する*印の分類項目に注目した.「安否確認」については,マスコミが個々の氏名をツイッターから拾うことはおそらくないものの,連絡不能すなわち通信不能な情報空白地域を特定するために利用することが可能であることから,*印の分類項目とした.以下に単語による分類から情報の方向性を加味した分類へ分類軸を変更した例を示す.\hangafter=1\hangindent=4zw\noindent\hboxto3.5zw{例1:}「被害」\\旧分類項目地震,津波,火災等その他災害,停電,電話・メール等通信状況……\\新分類項目被害実態,関連災害予報,二次災害注意喚起\\(地震,津波,火災,停電,通信状況等は新分類項目の細分項目へ)\pagebreak\hangafter=1\hangindent=4zw\noindent\hboxto3.5zw{例2:}「支援」\\旧分類項目給水,炊き出し,募金,献血……\\新分類項目支援物資要請,支援申し出,支援呼びかけ,支援方法・注意点\\(給水,炊き出し,募金,献血等は新分類項目の細分項目へ)\subsubsection{単語1-gramのみでは弁別不十分なカテゴリ作成のための素性の追加}クラスタリングは似たもの同士をまとめ上げる機構ではあるが,それがデータ解析に都合のよいまとめ方をしてくれるとは限らない.震災ツイートにおいては,前節で述べたように,単語1-gramによってまとめただけでは情報活用には不十分であった.筆者らは,単語1-gramのみによって得られるものとは異なる分離境界を定めての,必要な情報を含むターゲットツイートを抽出する方法を模索した.クラスタリングでは,個々のデータの些末な部分の違いを吸収し,同義語をまとめ上げる必要があるが,このターゲットデータ抽出の段階においては,出現する単語が同じであっても機能や時制や情報の方向性を弁別することが必要となる.そこで,次節に述べるように正規表現を用いて単語1-gramより長いフレーズの正規表現ルールを書き,目的とする情報を含むツイートを得ることを試みた\footnote{単語1-gram以外の新たな素性(例えば,隣接や共起の2-gram)の投入を試すよりも先に,出現する単語1-gramに多少の情報を付加して弁別することを試みた.他の素性に関しては5.2節に詳述してある.}.\subsubsection{正規表現ルールによるターゲットツイート抽出}クラスタリングによってある程度まとまったツイート群を見渡し,分類項目ごとに単語1-gramを含む特徴的なフレーズを見出し,人手による正規表現ルールを作成した.先に述べたように,震災時のツイートでは情報の方向を考えてツイートを抽出することがキーポイントになってくるのだが,発信者や受信者が具体的に明記されているツイートは少ない.そこで,情報の方向を暗示する部分(機能表現,時制,共起語)をルールに書き加えることで,収集したいツイートのみが集まるよう工夫した.また今回の災害に限定されないよう,固有名詞や物資の名前等個別具体的な名詞はルールに書き込まないようにした.\settensen\hangafter=1\hangindent=4zw\noindent\hboxto3.5zw{例1:\hss}``\underline{{\bfseries火災}が起きています}''(被害状況リポート:被災地から周辺へ)\\``\textbf{火災}が\unc{起きないように}ブレーカーを落としてから非難を''\\(二次災害への注意喚起:周辺から被災地へ)\hangafter=1\hangindent=4zw\noindent\hboxto3.5zw{例2:\hss}``\textbf{粉ミルク}が\underline{足りません}''(支援物資要請:被災地から周辺へ)\\``\textbf{衣類}を被災地に\unc{送るように}企業を動かそう''(支援呼びかけ:周辺から周辺へ){\setlength{\leftskip}{2zw}\noindent※ルール化および抽出したのは実線部分のみ.点線部分は特にルール化も抽出も行ってはいないが負例として掲載.\par}表4は,「拡散希望」に限定しない全ツイートからランダムサンプリングで抽出した3月11日分1,000件と3月13日分996件に対し,両日の代表的な(特にマスコミにとって重要な)分類項目について正解付けを行った後,上記正規表現の抽出率(再現性と適合性)を測定したものである.\begin{table}[t]\caption{正規表現によるターゲットツイート抽出率}\input{02table04.txt}\end{table}\subsubsection{機械学習の必要性}表4の結果をみてわかるように,正規表現ルールを作成する際は,過検出を防ぐため,適合率重視になりがちである.しかし,人間が発見できない潜在的なルールやうまく書き下すことが困難なルールも存在することは十分予想される.また震災時には素早く情報をつかまなければならないことから,抽出結果の適合率が悪いことは望ましくないが,再現率が悪く,情報にたどりつけないことはそれ以上に大きな問題である.そこで,機械学習を行って再現率の向上を図る必要があるという認識に至った.\subsubsection{学習データ収集の工夫}機械学習には相当数の正解事例が必要である.時間制約のある中で,十分な数の正解事例を一から人手で集めるのは非常に困難である.例えばマスコミが強く関心を持つ``メディア取上げ要望''は,その重要さに相反して人手で精査した「拡散希望」ツイート約3万件中には150件程度しかなく(後述5.1節表13参照),それだけでは学習データとしてはかなり少ない.そこで,全ツイートに上記正規表現ルールを適用して集めたツイート群を正解事例として,機械学習を行うことを試みた.このようにして集めたツイート群の中には,実際には抽出対象ツイートでないもの(不純物)も含まれているが,不純物が混入することよりも,学習事例を多く集めることを優先した.こうして集められた正解事例からは,当然ルールに書いた特徴が再び学習されることにはなるが,集められた正解事例に共通する特徴の中には,人間が認識しておらず,明示的にルールに書かれていなかったものも存在するであろう.よって結果的に再現率が向上することをも期待した.\subsection{全ツイートからのターゲットツイート抽出}抽出すべきターゲットツイートとその特徴,および抽出するにあたり注意すべき点を把握したところで,抽出元の範囲を「拡散希望」ツイートから全ツイートに広げた\footnote{先行して行われた3.2.2節の正規表現による識別実験も全ツイートからの抽出であった.}.抽出元の範囲を全ツイートに広げた際に,最も問題となったのは,複数存在する抽出目標のどれにも該当しない``その他''ツイートの存在の多さである.また忘れてはならないのは,災害時に役立つシステムであるためには,情報抽出器は常時稼働,リアルタイム(非バッチ処理),無人で運用されることが想定され,複数種類の抽出を同時に行えるようなシステムにしなければならないということである.\subsubsection{``その他''クラスの扱い}震災後3日目になると,震災には無関係なツイートの割合も増えてくる.また,震災に関連してはいても,被災者から発せられている情報のみに注目することにすると,ほとんどが標的外ツイートとなり,``その他''クラスが存在しない一般的な機械学習による分類は困難になる.このタスクは,分類と言うよりはむしろ``その他''の中から目的の情報を抜き出す``抽出''のイメージに近くなる.初め筆者らは,``その他''をホワイトノイズ的に扱うことを試み,全く脈絡のないツイート群を``その他''クラスの学習データとして与えた.しかし人間には特徴が見出せなくても,機械的に学習される特徴が存在し,それに近い特徴を持つツイートが集められたため,この方法は失敗に終わった.次に,注目する集合に属するかそうでないかを判定するone-class分類を複数組み合わせることで複数のターゲットツイート群を同時に抽出することを考え,統計処理言語Rのkernlabパッケージの中のサポートベクターマシン関数ksvmに用意されたtype=``one-svc''オプションで実験した.実験対象データは3.2.2節で行った実験のうち3月13日分(全ツイートからのランダムサンプリング996件)である.type=``one-svc''オプションでは,ある一つの集合に所属するかどうかが判定されるため,複数の集合のうち,ある一つの集合(仮にクラスAとする)にのみ属し,他の集合には全て``属さない''という結果が得られた場合のみ,そのツイートがクラスAに所属する,という方針で実験を行ったところ,再現率27.8\%,適合率15.9\%,F値で20.2\%となるなど,結果は芳しくなかった.明確な理由は不明ながら,負例を与えることができないことが一因であることが考えられる.そこで,関数ksvmのオプションtype=``probabilities''を指定し,予測結果を確率値で出力させ,算出された各クラスタに所属する確率が閾値以上であればそれぞれのクラスタに属するとみなし,どのクラスタに対しても閾値以下である場合はどこにも属さないとする,という定義のもと,所属するクラスタを判定する方法(Manning2008)を採用した.表5にその例を示す.閾値は各実験において,90\%から95\%まで1\%刻みで6種類計算し,F値が最良となるものを都度採用した.閾値を高くすると,クラスに所属すると認定されるツイートが少なくなるため再現率が下がり,閾値を低くすると,クラスに所属すると認定されるツイートが増えるため適合率が下がることが定性的に理解され,また閾値の策定自体も研究課題の一つではあるが、本研究では,どのような文書‐単語行列が最も識別率を上げるかを問題にしており,それぞれの文書‐単語行列で最もよい識別率を出す閾値を採用することとした結果,いずれの実験においても閾値95\%が採用された.\begin{table}[t]\caption{ツイート所属クラスの判定例}\input{02table05.txt}\end{table}\subsubsection{複数種類同時に行う「ターゲットツイート抽出」の精度を高める試み}情報の方向を考慮しつつ行うターゲットツイート抽出を複数種類同時に行う,というタスクの精度向上のため,文書‐単語行列に,単語1-gram素性以外にも様々な素性を投入してみた.詳細は5.2節において考察とともに述べる. \section{文書‐単語行列の効果的な変換} 3.1.3.1節,3.1.3.2節および3.2--3.3節において,クラスタリング,自動分類および複数同時抽出には全て文書‐単語行列が用いられている.自動分類と複数同時抽出はいずれも学習データを用いた機械学習であり,その違いは,選択された分類項目名を出力するのか,全ての分類項目候補に対してそれぞれの確率値を出力するのか,という点だけある.厳密には,そのことに加え,3.1.3.2節の自動分類は人手によって正確にラベル付与された文書を学習事例としているのに対し,3.2--3.3節の複数同時抽出では,正規表現でかき集めたことにより混入した``意味内容は該当しない''事例(不純物)を含む文書を学習事例としている事実がある.ただし,本稿の主旨はこの正解事例の収集方法を比較することではなく,クラスタリング,自動分類,複数同時抽出の各局面において行われた,文書‐単語行列の変換処理の有効性を示すことである.そこで,この3つの局面における変換処理(第1章の図1に示した\ding{"AC}tf-idf値に変換,\ding{"AD}tf-idf値に変換した後,特異値分解を行う,\ding{"AE}特異値分解を行った後,特異地で重みづけを行う,の3段階の処理.第3段階が本研究の提案手法)の評価実験を行った\footnote{第1段階のtf-idf値への変換は全ての場合において行うこととし,評価実験は特に行っていない.}.\subsection{文書‐単語行列の特異値分解(LSI)と重みづけ}この節に続く4.2節,4.3節4.4節は,それぞれクラスタリング,自動分類,複数同時抽出に対して行われた評価実験について詳しく述べたものであるが,ここでは全ての評価実験に共通する,文書‐単語行列に対して行った3段階の処理について説明する.第1段階で行ったのは,作成した文書‐単語行列をtf-idf値に変換すること,すなわち文書‐\linebreak単語行列にキーワードらしさで重みづけをすることである.これにより,特徴を担う素性の影響力が強化され,出現頻度は高くても,ほとんど全ての文書に登場するような,特徴を担わない素性の影響力を弱められる.このtf-idf値に変換した行列を$X$とする.第2段階では$X$に対して特異値分解を行い,意味軸へのマッピングを行う(式1).\begin{equation}X=U\SigmaV^{T}\end{equation}ここで$U$,$V$は直交行列,$\Sigma$は対角行列となる.特異値分解で文書‐単語行列は左右の特異値ベクトル(直交行列)と寄与度を表す特異値(対角行列:統計処理言語Rの標準パッケージにあるsvd関数の出力では,値の大きいものから順に並んでいる)の積となっているため,式変形を行うと,すでに重みづけがなされているようにも見える(式2).\begin{equation}XV=U\Sigma\end{equation}ただし$U=[u_{1},\cdots,u_{n}],\quad\Sigma=\begin{bmatrix}\sigma_{1}&\cdots&0\\\vdots&\ddots&\vdots\\0&\cdots&\sigma_{n}\end{bmatrix}$\quad$(\sigma_{1}>\cdots>\sigma_{n})$である.\vspace{0.5\Cvs}しかし,この段階ではtf-idf値をかけた文書‐単語行列$X$に直交行列$V$をかけて単語の軸を意味軸へ変換し,同じ概念を持つ異なる単語を統一的に扱えるようにした\footnote{この効果をもって,LSIは類義語処理を行っているとも解釈される.また,これは文書と意味軸の関係であるが,同じ行列を転置させた方向から見れば,単語と意味軸の関係が得られ,単語間類似度を算出することもできる.}に過ぎず,文書間の距離も不変であるため,クラスタリングには何ら影響を与えない.この後,$XV$のある列より右側をカットした行列,すなわち意味軸へ射影した特徴量のうち寄与度が低い部分を除く``次元縮約''を行った行列を用いてクラスタリングを行うことで,効果的なまとめ上げが可能になる.ただし,カットオフを行うことは,寄与度に閾値$\sigma$cutoffを設け,閾値以上の特徴量を採択し,閾値以下の特徴量を棄却することでしかなく,寄与度の大きさに応じた重みづけはなされていない.第3段階では,特異値分解を行った(=単語軸から意味軸へ射影した)文書‐単語行列に,さらに特異値で重みづけを行う.ここで初めて特徴量に重みづけがなされる(式3,4).なお,第3段階で特異値分解の後,特異値で重みづけを行う場合は,特異値分解の後すぐにカットオフを行ってから重み付けを行っても,特異値分解の後,重み付けを行ってからカットオフを行っても同じことであるが,後述するようにカットオフ値が重要なパラメタとなるため,本研究では特異値分解の後,重み付けをしてから最後にカットオフを行っている.4.2節以降,``特異値で重みづけ''は\begin{equation}XV\Sigma=U\Sigma^{2}\end{equation}``特異値の2乗で重みづけ''は\begin{equation}XV\Sigma^{2}=U\Sigma^{3}\end{equation}とすることに相当する.カットオフ$\sigma$cutoffをどの位置におくか,言い換えると文書‐単語行列を特異値分解したものについて,寄与度の大きい方から何列目までを残すかで,その後のクラスタリングや分類の精度が大きく変わることが次節以降の評価実験で明らかになる.詳細はそれぞれ4.2,4.3,4.4節で述べる.(Kobayashi2004)では,数百単語より大きな規模の問題ではLSIの適用が困難とある.しかし,本研究に用いた32~GByteのRAMを搭載した計算機では,数千単語規模の行列にLSIを適用することに困難はなかった.\subsection{クラスタリングにおける文書‐単語行列の変換}2種類の指標によりクラスタリング結果の評価を行う.1つは従来から用いられているエントロピーと純度によるものである.これらの指標は,計算機による処理のみを行うことを前提としており人手の介在を伴う作業の場合には必ずしも適切な指標ではないと筆者らは感じた.そこで,人手の負担を考慮した評価指標を導入し,人手が介在する場合の機械の処理について検討した.\subsubsection{チェイニング現象の緩和}文書‐単語行列に対し,特異値分解と,それに加えて特異値による重みづけを行うことで表れる最も顕著な変化はチェイニング現象の緩和である.図3を第3章3.1.2節の図2と比較すると,全体の形状からも,枝刈をした時の``残り物''クラスタ(所属文書数最大のクラスタ:図2では3,275ツイート,図3では1,890ツイート,いずれも《1》番クラスタ)の大きさからも,特異値分解に加えて特異値で重みづけをすることがチェイニング現象の緩和に役立つことがわかる.\begin{figure}[b]\begin{center}\includegraphics{20-3ia2f3.eps}\end{center}\caption{特異値分解と特異値による重みづけによるチェイニング現象の緩和(1)}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{20-3ia2f4.eps}\end{center}\caption{特異値分解と特異値による重みづけによるチェイニング現象の緩和(2)}\end{figure}図4は,3月11日の「拡散希望」ツイート1\%サンプリング10,949件に対し,特異値分解なし,特異値分解のみ,特異値分解に加えて特異値の2乗および4乗で重みづけ,の各場合の,所属ツイート数の多い順に並べた上位20クラスタに含まれるツイート数を示したものである.カットオフは後述4.2.3節の表6に示す,クラスタリングにおける従来指標(エントロピー,純度)が最良となる値(160列目,寄与度3.4\%)を用いた.カットオフ前の文書‐単語行列の列数は9,013列であった.特異値分解や,特異値分解に加えて重みづけをすると,重みづけの乗数に応じて各クラスタに所属するツイート数がならされていく様子がわかる.特異値分解を行っただけで重みづけをしていない場合は,特異値分解をしない場合とほとんど差がない.\begin{table}[t]\caption{特異値分解の有無と重みづけの乗数別クラスタリングの評価(3月11日分10,494件)}\input{02table06.txt}\vspace{0.5zw}\small*特異値分解なし:文書‐単語行列の全ての行を用いる(カットオフなし)\par\end{table}\subsubsection{エントロピーと純度による評価}クラスタリングをする際,文書‐単語行列に対して行った特異値分解と重みづけに対し,一般的なクラスタリングの評価指標であるエントロピーと純度を算出した.エントロピーおよび純度は,クラスタリング結果と正解のコンフュージョン・マトリクスを作成して比較し,どの程度正解に近い分け方が出来たかを示す指標であり,算出にあたっては,正解が分かっていることが前提となる.結論から言うと,表6にあるように,カットオフを適正に定めた場合は,エントロピーと純度から,特異値分解をすること,また特異値分解に加えて重みづけを行うことが有効であることがわかった.\noindentエントロピー:\begin{gather*}\mathit{Entropy}=\sum_{C_{i}}\frac{n_{{}_{C_{i}}}}{N}\mathit{entropy}(C_{i})\\\mathit{entropy}(C_{i})=-\sum_{h}P(A_{h}|C_{i})\logP(A_{h}|C_{i})\\P(A_{h}|C_{i})=\frac{x_{ih}}{\sum_{j}x_{ij}}\end{gather*}\noindent\textit{Entropy}:総合エントロピー(各クラスのエントロピーを加重平均)\noindent$\mathit{entropy}(C_{i})$:クラス$C_{i}$のエントロピー(``正解クラス''の散らばり度)\noindent$n_{{}_{C_{i}}}$:クラス$C_{i}$に属する文書の数\noindent$N$:全文書数\noindent$P(A_{h}|C_{i})$:クラス$C_{i}$と正解クラス$A_{h}$の一致度\\\phantom{$P(A_{h}|C_{i})$:}(クラス$C_{i}$に所属する文書のうち正解クラス$A_{h}$に分類された文書の割合)\noindent$x_{ij}$:confusionmatrix($C_{i}\timesA_{j}$)の$i$行$j$列成分\noindent純度:\begin{gather*}\mathit{Purity}=\sum_{C_{i}}\frac{n_{{}_{C_{i}}}}{N}\mathit{Purity}(C_{i})\\\mathit{purity}(C_{i})=\frac{\max(A_{h}\capC_{i})}{n_{C_{i}}}\end{gather*}\noindent\textit{Purity}:総合純度(各クラスの純度を加重平均)\noindent$\mathit{purity}(C_{i})$:クラス$C_{i}$の純度\noindent$n_{{}_{C_{i}}}$:クラス$C_{i}$に属する文書の数\noindent$N$:全文書数\subsubsection{人手による作業の負担を考慮した評価}\textit{Easiness}(作業容易度):・人手による作業の効率を考慮した新しい指標\hangafter=1\hangindent=2zw・「クラスタリングの確認・修正作業の難易度は,クラスタの質(不純物や語彙の少なさ)だけではなく,クラスタに所属する文書の量にもよる」ことを数値化・正解データなしでの算出が可能現在の自然言語処理技術では,精度の良い分類が求められている場合は,少なからず人手の介在(クラスタリング結果の確認・修正すなわちラベル付与作業)が必要である.しかし,人が集中力を途切れさせずにチェック出来るデータ数には限りがあり,せいぜい100〜200件程度である.例えば,1,000件の文書をチェックするのに,1,000件まとめて一度に作業するよりは,200件に小分けされたものを5回に分けて作業する方が,心理的負担は少ない.ただし,小分けされていさえすればよいということではなく,クラスタ内は適度に純度が高いことが必要である.クラスタのボリュームの他に,クラスタ内の文章の見た目(出現単語)が似ているかどうかも作業時のストレスに大きく影響する.自然言語処理における一般的なクラスタリングの精度を表す指標,例えばエントロピーや純度では,上記のような作業効率が考慮されていない.また,エントロピーも純度も,正解付けが行われた後で初めて算出が可能なものであり,人手によるラベル付与作業に入る前に,そのクラスタの出来上がり具合(不純物の多少)を概観することはできない.クラスタの出来上がり具合を知る必要がある理由は,チェイニング現象が激しい場合,所属文書数が多く,従って不純物の多い``残り物''クラスタに対しては,確認・修正のラベル付与作業を行うよりも,そのクラスタだけを取り出してもう一度クラスタリングを行う方が適切であるため,ラベル付与作業を行うかどうか事前に判断しなければならないからである.以上の経験に基づく考察のもと,作業のしやすさを次の式で与えることとする.\begin{gather*}\mathit{Easiness}=\sum_{C_{i}}\mathit{easiness}(C_{i})\\\mathit{easiness}(C_{i})=\left(\frac{n_{{}_{C_{i}}}}{N}\right)\timesH_{C_{i}}\\H_{C_{i}}=\sum_{W_{j}}P_{W_{j}}{}^{(C_{i})}\logP_{W_{j}}^{(C_{i})}\\P_{W_{j}}^{(C_{i})}=\frac{n_{{}_{W_{j}}}{}^{(C_{i})}}{\sum\limits_{W_{j}}n_{W_{j}}{}^{C_{i}}}\end{gather*}\noindent\textit{Easiness}:総合作業容易度(各クラスの作業容易度の和)\noindent$\mathit{easiness}(C_{i})$:クラス$C_{i}$の作業容易度\noindent$H_{C_{i}}$:クラス$C_{i}$に属する単語のエントロピー(単語で見た場合の乱雑さ)\noindent$n_{{}_{C_{i}}}$:クラス$C_{i}$に属する文書の数\noindent$N$:全文書数\noindent$P_{W_{j}}{}^{(C_{i})}$:クラス$C_{i}$内での単語$W_{j}$の出現頻度\noindent$n_{W_{c_{i}}}{}^{(C_{i})}$:クラス$C_{i}$に存在する単語$W_{j}$の総出現数単語$W_{i}$についての和は,クラス$C_{i}$に出現するクラスについてのものである.各クラスごとの作業容易度$\mathit{easiness}(C_{i})$はそのクラスの所属文書数(を全体の文書数で規格化したもの)と単語エントロピーの積で定義する.値が小さい方が作業が容易である.ここで用いる単語エントロピー$H_{Ci}$とは,クラスタリングのエントロピー$\mathit{entropy}(Ci)$とは異なることに注意したい.この指標の本質は,「クラスタリングの確認・修正作業の難易度は,形成されたクラスタの質(不純物や語彙の少なさ)だけではなく,クラスタに所属する文書の量にもよる」ことを数値化していることである.またこの指標はエントロピーや純度とは異なり,文書‐単語行列が作られてさえあれば,クラスタリングが終わった段階で,正解ラベルの付与を行わずとも,そのクラスタまたは全体について算出することができる.中規模のクラスタの確認・修正作業に取り組んではみたものの,実は選り分けが困難なクラスタであったため,半分ほど作業を進めたところで諦め,クラスタリングをやり直さざるを得なくなる,などのような事態を防ぐことが期待される.表6にあるように,次元圧縮のカットオフ$\sigma$cutoffが適切な値であれば,特異値分解すること,また特異値分解に加えて特異値で重みづけをすることは,エントロピーや純度の改善に有効であることがわかる.$\sigma$cutoffとこれらの指標の関係については今後の研究課題として興味深いところであるが,$\sigma$cutoffが適切な値であれば,人手による作業を考慮した提案指標「作業容易度」で見た場合でも,特異値分解に加えて特異値で重みづけをすることが有効であるように見受けられる.4.2.1節で触れたように,特異値分解後にさらに重みづけを行うこととチェイニング現象の緩和には何らかの相関があることが示唆されているため,この結果は「``チェイニングの度合いが少ない,すなわち枝刈りをした際のクラスタ間の大きさのバランスが取れている''ことが実現されているクラスタリングが,人手による確認・修正作業の作業効率を大きく左右する」ことをも示唆させる.そこで次節では,``人手による確認・修正作業''の評価実験を行った.\noindent\textbf{4.2.3.1``人手による作業''の評価評価実験1}前節で述べた「クラスタリングに人手が介在する場合は,作業にかかるコストの観点から,“特異値分解”と“特異値分解に加えて特異値で重みづけすること”が有効である」ことを検証するため,3つのテストセットを用意し,3人の被験者にクラスタリングの結果を整理してラベルを付与する作業を行ってもらった.各テストセットは,それぞれ3月11日地震発生以降の「拡散希望」ツイート約105万件からランダムサンプリングした1,000件のツイート3セットで,被験者は各ツイートセットに対して特異値分解をしない文書‐単語行列でのクラスタリング,特異値分解(意味軸へのマッピング)のみを行った文書‐単語行列でのクラスタリング,特異値分解を行った上でさらに特異値の2乗で重みづけをした文書‐単語行列でのクラスタリング,のいずれかについて,クラスタリング結果を確認しながらラベルを付与する作業を行った.本研究では,特異値に重みづけをすることの効果を調べることを目的としており,``重みづけ''の代表値として,最良のエントロピーと純度を与えるカットオフ値での,最良の作業容易度を与える``2乗''を選択した.各被験者はどのテストセットも1回ずつ接触し,どのクラスタリング方法も1度ずつ経験するようにした.また,各テストセットとクラスタリング方法の組み合わせは$3\times3=9$通りあるが,全ての場合の実験が行われるように実験計画を行った.作業慣れの効果をなるべく減らすため,3人が経験するクラスタリングの順番はそれぞれ異なっており,作業に伴って現れる疲労の影響を抑えるために,各人実験作業は1日に1つのみ行うこととした.各クラスタリング法から見ると,3種類のテストセットと,3人の被験者による重複のない9種類の実験が行われたことになり,これらを平均することによって,テストセットの内容と被験者の作業能力の差異を吸収させた.また,各被験者が行うクラスタリング法の順が異なるように実験を行い,その結果を平均することで,作業慣れの効果を可能な限り排除した.以上の原則に基づいて割り当てられた3人の被験者の実験スケジュールについて表7にまとめた.\begin{table}[b]\caption{文書‐単語行列の特異値分解・重みづけ有無別作業効率に関する評価実験実験スケジュール}\input{02table07.txt}\end{table}\begin{table}[b]\caption{文書‐単語行列の特異値分解・重みづけ有無別作業効率に関する評価実験実験結果}\input{02table08.txt}\end{table}テストセット1,000件にラベルを付与するのにかかった分数と,最初の60分でラベルを付与した数を表8にまとめた.さらに,それぞれのテストセットに対して3者が付与したラベルの一致数と,その割合を表9に掲載した.付与すべきラベル数が35種類(最初に「拡散希望」ツイートの1\%サンプリングをクラスタリングした際に得られた分類項目の数)とかなり多かったにもかかわらず,平均すると84\%のツイートは3人の被験者によって同じラベルが付与されていることがわかる.これにより,必ずしも速度優先で確認・修正作業を行っていたわけではないことが示される.\begin{table}[t]\caption{各テストセット中,被験者3人の付与したラベルの一致数と割合}\input{02table09.txt}\end{table}表9から,(1)特定数のツイートの確認・修正作業にかかる時間で評価しても,(2)特定の時間内に確認・修正できたツイートの数で評価しても,特異値分解に加えて特異値の2乗で重みづけを行った文書‐単語行列でクラスタリングを行ったものがクラスタリングの確認・修正作業を容易にしており,それにはチェイニングの緩和現象が大きく関わっていることがわかる\footnote{(1),(2)それぞれにおいて,(a)特異値分解なし,(b)特異値分解のみ,(c)特異値分解+重みづけの3つの手法ごとにまとめた実験結果に対し,平均値の差の検定を行った.具体的には,被験者やテストセットが共通しており,また事前に行った分散の等質性の検定により等分散の仮定が妥当であると判定されたため,``対応のあるt検定(自由度2)''を行った.(1)においては,(a)と(b)の差のp値は0.8164,(a)と(c)の差のp値は0.07284,(b)と(c)の差のp値は0.2999であり,(2)においては,(a)と(b)の差のp値は0.9691,(a)と(c)の差のp値は0.06231,(b)と(c)の差のp値は0.3207であった.(1),(2)いずれにおいても,有意水準をどこに置くかにかかわらず,(a)と(b)には有意な差があるとは認められない.つまり,特異値分解を行っただけでは確認・修正作業の効率に差は生じない.一方,(a)と(c)は,最も広く用いられる有意水準5\%を採用した場合は有意差なしと判定されてしまうものの,社会科学等で用いられる有意水準10\%を採用した場合は有意差ありと判定される.主観評価実験であることから,社会科学寄りの基準を用いてもよいとするのであれば,有意差があると判断しても良い.また,今回の評価実験においては,被験者3人のうち1人のみがラベル付与作業に精通しており,他の被験者に対する実験後のヒアリングでは,「35種類ものラベルを付与することに戸惑ったが,回数を重ねるごとに慣れてきて作業が容易に行えるようになった」という回答も見られた.実験計画法に基き「慣れ」の影響を排除するよう努めてはいたが,予想以上にこの効果が強かったことが,有意差が微妙であったことの最大の原因と考えられる.実験数を増やした上で最初の数回分の実験データは対象外とする,という方法を取る必要があった.}.チェイニング現象の緩和がクラスタリングの確認・修正作業を容易にする一例を挙げると,テストセットBで特異値分解をしない文書‐単語行列でクラスタリングを行った場合,あるクラスタに分類された津波に関する19ツイートは,特異値分解の後重みづけをすると,11ツイートと8ツイートに分離される.8ツイートは,全て``停電で宮城の人は大津波警報知らないそうです''というツイートのリツイートになっており,よりクラスタリングが細分化されたことになる.一方,特異値分解をしない文書‐単語行列でクラスタリングを行った場合に生成された``公衆電話が無料になりました!携帯電話使えない方ぜひ利用して!''というツイートのリツイートが集まっていたクラスタに,特異値分解の後重みづけを行った文書‐単語行列で再度クラスタリングを行うと,``携帯電話よりも公衆電話の方が繋がります''``現在公衆電話が国内通話無料解放中です.回線が優先的に繋がるようになっているので付近の方は公衆電話を利用しましょう''という2ツイートがそのクラスタに合流した.これにより,このクラスタは1つのリツイートの集合ではなくなったが,ツイートの内容は殆ど同じである.このように,特異値分解や重みづけを行うと,クラスタの分離と統合両方が生じるが,重要なことは,分離・統合を経てもクラスタの内容の均一性が保持されるということである.以上により,今回提案した人手による作業の負担を考慮した評価指標Easinessが作業効率と同じ傾向を持つことが示され,同時に,正確さを確保しながら(すなわち人手による確認・修正を加えながら)素早く分類を行う必要がある場合には,チェイニング現象を抑えておくことが有効であること,また,特異値分解に加えて特異値で重みづけした文書‐単語行列でクラスタリングすることで,自動生成されるクラスタの質をそれほど損なわずにそのことを実現出来る,ということも示された.\subsection{自動分類における文書‐単語行列の変換評価実験2}クラスタリングを数回行った後,``残り物''クラスタに含まれる文書数がまだ多く,かつ人手で振られるラベルの種類が限定されてきた段階では,クラスタリングの確認・修正作業で整えられたクラスタのラベルを分類項目として,ラベル未定義の文書をそのいずれかに振り分ける自動分類を行うことで,効率的に分析対象のツイートを全分類することが出来る.評価実験2では,3月11日分の「拡散希望」ツイートの1\%サンプリングのうち,2回クラスタリングを行い,2回自動分類を行ってなおラベルが定義されなかった1,141件のツイートに対して分類項目の識別実験を行った(表10).分類項目が35と多かったためか,既に自動分類を2回行った後の残りのツイートに対する分類問題であったからか,全体的に識別率はそれほどよくない.表10を見る限り,4.1節で述べたカットオフ値(特異値分解,重みづけを行った文書‐単語行列の何列目までを用いるか)を適切に選ばない限り,分類問題に対しては特異値分解を行うことは識別率の改善にはつながらない.また,特異値分解のみと特異値分解に加えて重みづけをすることに,それほど差はない.\begin{table}[b]\caption{文書‐単語行列の特異値分解・重みづけ有無別35項目の自動分類の識別率}\input{02table10.txt}\vspace{0.5zw}\small*特異値分解なし:文書‐単語行列の全ての行を用いる(カットオフなし)\par\end{table}\subsection{複数同時抽出における文書‐単語行列の変換評価実験3}情報抽出器において複数同時抽出を行う際にも,文書‐単語行列に対し特異値分解と特異値による重みづけが有効かどうかを調べた.3.2.2節で用いたのと同じ,全ツイートからランダムにサンプリングして正解付けを行った3月11日分1,000件と3月13日分996件に対し,両日の代表的な(特にマスコミにとって重要な)分類すべき項目について,複数種類の同時ターゲットツイート抽出実験を行った.クラスタリングと同様,tf-idf値に変換した文書‐単語行列,それに加え特異値分解を行い,意味軸へのマッピングを行ったもの,さらに特異値で重み付けを加えたもので抽出率を比較した.特異値分解,および特異値分解の後重みづけを行った文書‐単語行列に対しては,寄与度2\%以下の列を削除する次元圧縮を行った.単語1-gram素性には,自立語のほか,助動詞,副詞,連体詞,接続詞,接頭詞,感動詞を用い,助詞と記号以外のほとんどを用いることとした.クラスタリングとは異なり,情報の方向性を,自立語以外のさまざまな部分から得られる手がかりで弁別する必要性があったからである.素性に単語1-gram以外のものを追加した試みの詳細については5.2節で述べる.実験の結果,ターゲットツイートの抽出に対し,特異値分解に加えて重みづけを行うことが有効なことがわかった(表11,表12).第1章で述べたように,そもそも学習を行うと,特徴量には最適な重みづけが行われるため,特異値分解に加えて重みづけすることの効果はあったとしても薄れるはずである.しかし,実験の結果から,特異値分解に加えて重みづけをすることの効果がないわけではないことが見てとれる.F値で見る限り,重みづけの乗数は2乗付近がピークになっており,クラスタリングの実験結果と合わせ,特異値による重みづけは2乗程度が適当であると考えられる.11日の方が再現率が低いのは,“被害実態”という多種多様なツイートが所属しうる分類項目に対しての抽出実験であったため,各項目ごとの学習事例数をそろえて抽出を行った今回は,“被害実態”の細分項目1つあたりの学習事例数が相対的に少なくなってしまったことや,特異値分解の効果を大きく左右するカットオフの設定が適切ではなかったことが原因と思われる.\begin{table}[t]\caption{特異値分解の有無と重みづけの乗数別ターゲットツイートの抽出率(3月11日分1,000件)}\input{02table11.txt}\end{table}\begin{table}[t]\caption{特異値分解の有無と重みづけの乗数別ターゲットツイートの抽出率(3月13日分996件)}\input{02table12.txt}\end{table}なお,表11,表12,表14はいずれも所属クラス判定の閾値は全て95\%となっているが,これは各文書‐単語行列に対する実験で,その都度最良のF値を与える閾値を採択した結果である. \section{情報抽出器作成の過程で得られた知見と残された課題} 本研究の最終目的は,災害発生時に役立つ情報抽出器を作成することであったが,それに先立つ全体把握のためのクラスタリングを完遂したところで見えてきたこと,抽出器の抽出精度を挙げる段階で課題として残ったものがあるため,ここに記しておく.\subsection{「拡散希望」ツイートの分類によって得られた社会現象としての知見}「拡散希望」ツイートの1\%サンプリング11〜14日分3万件の9割を分類してみて最も驚いたのは,そこに人間の善性が表れていたことである.「ケガ人の手当ての仕方」「救出を待つ間にするべきこと」「被災生活のサバイバルノウハウ」など,マスメディアによる報道には取上げられることの少ない,口コミ系メディア特有のツイートが数多く存在した.また,マスメディアが取り上げきれない地域の細かい情報をまとめ,ウェブ上に掲載する人が少なからずいる一方,散在するそれらの情報を必要としている人に届けようと,かなりの人が進んで仲介の役割を担ったことがうかがえる.直接的に「生きろ!」と叫ぶ声,被災・非被災にかかわらず,全ての人に「元気を出そう」と励ます声も,情報的な価値と関係無く「拡散希望」の対象となった.「企業に働きかけて,被災地に支援物資を送らせよう」という運動さえ起こっていた.そこには情報収集のツールを使い回す人々の姿よりも,本心から被災者を思いやり,助けようとする人間的な温かさを持った人々の姿のイメージがあった.表13は「拡散希望」ツイートの1\%サンプリング11〜14日分3万件の全分類結果(各日1割程度が未分類)である.表13の分類項目は,クラスタリングの結果をもとにしており,情報の方向については特に考慮していない.\begin{table}[p]\caption{「拡散希望」ツイート(1\%サンプリング)全分類}\input{02table13.txt}\end{table}\subsection{災害用情報抽出器における,文書‐単語行列の素性についての考察}災害発生時における,放送等マスメディアにとって有用な情報収集のためには,情報の方向で抽出目標のツイートを弁別することが大切であることは3.2節で特に詳しく述べた.このため,単語1-gram素性に加え,\ding{"AC}機能表現,\ding{"AD}動詞文節(連続する動詞と助動詞はひとまとまりにする),\ding{"AE}個別正規表現(分類項目ごとの正規表現集が全体として当たったかどうかではなく,正規表現集の個々の表現に対する合致/非合致),\ding{"AF}正規表現で集めたツイート群に含まれる5-gram前後のキーフレーズ,\ding{"B0}隣接単語2-gram,\ding{"B1}自立語に限定した共起2-gram,\ding{"B2}正規表現ルールに含まれる単語とそれを特異値分解にかけて得られた類義語による限定共起2-gram,を文書‐単語行列に追加し,それぞれの効果を調べた(表14).\begin{table}[t]\caption{素性別抽出分類問題の精度(3月13日分996件)}\input{02table14.txt}\end{table}予想では,多義を持つ素性である単語は再現率が高く,逆に時制や意思を表す機能表現や,文脈を形成する共起語などは,意味解釈を限定していく作用があるため適合率が高くなると思われたが,一見するとそのような効果は見られなかった.しかし結果をよく見ると,一つの傾向が見えてくる.限定共起語は正規表現集にある単語の中から単語リストが作られており,キーフレーズは,最初に正規表現で集めたツイート群から抽出しているため,本質的には正規表現で集めていることと変わらない.いずれも,学習データの特徴を文書‐単語行列に反映させるために追加した素性ではあるが,その種となっているのは正規表現ルールである.ただし,限定共起語は特異値分解により人間が気付かなかった単語も素性に組み込むことが出来,キーフレーズに関しては,正規表現により集めたツイートの中から,人間が気付かずルールに書きこまなかったフレーズをも特徴量として素性に追加することが可能になった.これらのことから,この2つのみがF値で単語1-gramよりもよい結果をもたらしたと考えることができる.キーフレーズと個別正規表現は重なるものも多いが,キーフレーズの方が個別の正規表現を包含している関係にあるため,個別正規表現よりも再現率が高くなっていると解釈できる.情報の方向性を担っている(「〜ている」のような現在形が,被害実態と未来の予測や注意喚起を分けている)ように見える「時制」などを扱うために,動詞文節を試したり,副詞や助動詞を含めた隣接バイグラムを扱うなどを試みてみたが,どのような素性がそのような効果を直接的に担っているかについては,結果を出すまでには至らなかった. \section{おわりに} 震災対応に有用なツイートを抽出する情報抽出器を作成した.抽出器作成にあたり,震災時ツイートを初めて扱うことになった今回は,抽出対象の策定や特徴把握のため,震災時ツイートの全貌を明らかにする必要があったが,それを行う過程で効率的なクラスタリングを行うための手法と指標を提案し,それにより,震災時のツイートの俯瞰を得ることができた.機械学習によるターゲットツイートの複数種類同時抽出では,人手で作成した正規表現ルールを元に得られる素性を追加することの有効性が示唆されたものの,情報の方向を弁別できる決定的な素性またはその組み合わせの探査および検証は,引き続き今後の課題に据え置かれた.一方,従来から次元圧縮や類義語処理,文書分類の観点で有効性が指摘されていた文書‐単語行列の特異値分解は,特異値による重みづけを行うことで,さらに効果的な利用が行えることが示された.特異値分解後の重みづけの効果が最も顕著であったのは,クラスタリングにおけるチェイニング現象の緩和であった.このとき,特異値による重みづけは,クラスタリングの従来指標であるエントロピーや純度を必ず改善するわけではないが,自動クラスタリングの後に人手による修正作業が行われる際には重要な役割を果たすことがわかった.また,本研究において提案した,人手によるクラスタリング修正作業の負担を考慮した評価指標(Easiness)についても,評価実験において実作業に要した時間との比較からその妥当性が示された.しかし特異値分解または特異値分解後に重みづけをすることが有効なのは,それらの行列に適切なカットオフを施した場合のみであり,適切な値の範囲はそれほど広くない.どのような値が適切であるかを定性的に説明するのは今後の課題である.\acknowledgment本稿執筆の機会を与えて下さったNHK放送技術研究所の柴田部長および田中主任研究員,評価実験を手伝っていただいた同僚の木下奈々恵氏に心より感謝申し上げます.また,大変に有意義なコメントをいただきました査読者の方々,および何往復もやりとりいただいた事務局の方々にも同様に深く感謝いたします.\begin{thebibliography}{}\itemAnderson,E.,Bai,Z.,Bischof,C.,Blackford,S.,Demmel,J.,Dongarra,J.,DuCroz,J.,Greenbaum,A.,Hammarling,S.,McKenney,A.,andSorensen,D.(1999).``LAPACKUsers'Guide.''3rdedition.SIAM.\itemBerry,M.~W.ed.(2004)``SurveyofTextMining.''Springer.\itemBerry,M.~W.ed.(2008)``SurveyofTextMiningII.''Springer.\itemBlei,D.~M.andNg,A.~Y.(2003)``LatentDirichletAllocation.''\textit{JournalofMachineLearningResearch},\textbf{3}(Jan),pp.993--1022.\itemCortes,C.andVapnik,V.(1995).``Support-VectorNetworks.''\textit{MachineLearning},\textbf{20}(3),pp.273--297.\itemCrammer,K.andSinger,Y.(2000).``OntheLearnabilityandDesignofOutputCodesforMulticlassProblems.''\textit{ComputationalLearningTheory},pp.35--46.\itemDeerwester,S.,Dumais,S.,Furnas,G.~W.,Landauer,T.~K.,andHarshman,R.(1990).``IndexingbyLatentSemanticAnalysis.''\textit{JournaloftheAmericanSocietyforInformationScience},\textbf{41}(6),pp.391--407.\itemDongarra,J.~J.,Bunch,J.~R.,Moler,C.~B.,andStewart,G.~W.(1978).LINPACKUsersGuide,Philadelphia:SIAMpublications.\item遠藤薫(2012).メディアは大震災・原発事故をどう語ったか.東京電機大学出版局.\itemFisher,R.~A.,Sc.D.,andF.~R.~S.(1936).``TheUseofMultipleMeasurementsinTaxonomicProblems.''\textit{AnnalsofEugenics},7,pp.179--188.\item福田充(2012).大震災とメディア.北樹出版.\item稲泉連(2012).IBCラジオの108時間.荒蝦夷(編).その時,ラジオだけが聴こえていた.竹書房.\itemHofmann,T.(1999)``ProbabilisticLatentSemanticindexing.''InProceedingsofthe22thAnnualInternationalonSIGIRConferenceonResearchanddevelopmentininformationretrieval(SIGIR-99),pp.~50--57.\itemJain,A.~K.,Murty,M.~N.,andFlynn,P.~J.(1999).``DataClustering:AReview,''\textit{JournalofACMComputingSurveys}(CSUR),\textbf{31}(3),pp.~264--323.\itemKaratzoglou,A.,Smola,A.,Hornik,K.andAchim,Z.(2004).``kernlab---AnS4PackageforKernelMethodsinR.''\textit{JournalofStatisticalSoftware},\textbf{11}(9),pp.1--20.\itemKaratzoglou,A.,Meyer,D.,andHornik,K.(2006).``SupportVectorMachinesinR.''\textit{JournalofStatisticalSoftware},\textbf{15}(9),pp.1--28.\item片瀬京子(2012).ラジオ福島の300日.毎日新聞社.\itemKobayashi,M.andAono,M.(2004).``VectorSpaceModelsforSearchandClusterMining.''Chapter5inbook``SurveyofTextMining'',Springer.\item小林啓倫(2011).災害とソーシャルメディア.マイコミ新書.\itemLin,H.~T.,Lin,C.~J.,andWeng,R.~C.(2007)``ANoteonPlatt'sProbabilisticOutputsforSupportVectorMachines.''\textit{MachineLearning},\textbf{68}(3),pp.267--276.\itemManning,C.~D.andSch\"{u}tze,H.(1999).``FoundationsofStatisticalNaturalLanguageProcessing.''Section5.3.1The$t$testofHypothesisTesinginCollocations,TheMITPressCambridge,MassachusettsLondon,England.\itemManning,C.~D.,Raghavan,P.,andSchutz,H.(2008).\textit{IntroductiontoInformationRetrieval},CambridgeUniv.Press.\itemNeubig,G.,森信介(2012).能動学習による効率的な情報フィルタリング.言語処理学会第18回年次大会発表論文集,pp.887--890.\item岡崎直観,成澤克麻,乾健太郎(2012).Web文書からの人の安全・危険に関わる情報の抽出.言語処理学会第18回年次大会発表論文集,pp.895--898.\itemPlatt,J.~C.(2000).``ProbabilisticOutputsforSupportVectorMachinesandComparisontoRegularizedLikelihoodMethods.''InSmola,A.,Bartlett,P.,Sch\"{o}lkopf,B.,andSchuurmans,D.eds.``AdvancesinLargeMarginClassifiers,''MITPress,Cambridge,MA.\itemSalton,G.,Wong,A.,andYang,C.~S.(1975).``AVectorSpaceModelforAutomaticIndexing.''\textit{CommunicationsoftheACM},\textbf{18}(11)pp.613--620.\itemSch\"{o}lkopf,B.,Platt,J.,Shawe-Taylor,J.,Smola,A.~J.,andWilliamson,R.~C.(1999).``EstimatingtheSupportofaHigh-DimensonalDistribution.''\texttt{http://\linebreak[2]research.\linebreak[2]microsoft.\linebreak[2]com/\linebreak[2]research/\linebreak[2]pubs/\linebreak[2]view.\linebreak[2]aspx?msr\_tr\_id=\linebreak[2]MSR-TR-99-87}.\item立入勝義(2011).検証東日本大震災そのときソーシャルメディアは何を伝えたか?ディスカヴァー携書066.\itemTax,D.~M.~J.andDuin,R.~P.~W.(1999).``SupportVectorDomainDescription.''\textit{PatternRecognitionLetters},20,pp.1191--1199.\item徳田雄洋(2011).震災と情報.岩波新書.\itemWittenI.~H.,PaynterG.~W.,FrankE.,GutwinC.andNveill-ManningC.~G.(2005).``Kea:Practicalautomatickeyphraseextraction''.InY.-LThengandS.Foo,editors,DesignandUsabilityofDigitalLibraries:CaseStudiesintheAsiaPacific,pp.129--152,InformationSciencePublishing,London.\end{thebibliography}\begin{biography}\bioauthor{平野真理子}{2002年慶應義塾大学大学院理工学研究科前期博士課程修了(工学修士).在学時の研究テーマは核融合プラズマのシミュレーション.卒業後,アンケートや世論調査の設計および分析補助業務を経て,「顧客の声」等の自由記述文を定量的に扱い可視化する業務(メインは100\%人手による分類作業)に従事.現在は,分析の各種作業工程をより多く自動化することを目指し,研究を行っている.時折ソプラノ歌手として活動(東京二期会準会員).}\bioauthor{小早川健}{1993年東北大学理学部物理学科卒業.1995年東京大学理学系研究科物理学専攻修了.同年4月から日本アイ・ビー・エム株式会社.1999年から日本放送協会.音声認識の研究を経て,現在は評判分析の研究に従事.}\end{biography}\biodate\end{document}
V23N02-02
\section{はじめに} 近年,ビッグデータに象徴されるように,世の中のデータ量は飛躍的に増大しているが,教育分野ではそれらのデータをまだ十分に活用している状態には至っていない.例えば,Lang-8というSNSを利用した言語学習者のための作文添削システムがある.現在,このウェブサイトは600,000人以上の登録者を抱えており,90の言語をサポートしている.このサイトでは,ユーザーが目標言語で書いた作文を入力すると,その言語の母語話者がその作文を添削してくれる.このウェブサービスにより蓄積されたデータは,言語学習者コーパスとして膨大な数の学習者の作文を有している\footnote{http://lang-8.com}.それらは言語学習者コーパスとして調査や研究のための貴重な大規模資源となりえるが,それらを教師や学習者がフィードバックや調査分析などに利用したい場合,誤用タイプの分類などの前処理が必要となる.しかしながら,日本語教師のための学習者コーパスを対象とした誤用例検索システムを構築するというアプリケーションを考えると,誤用タイプに基づいて得られる上位の事例に所望の誤用タイプの用例が表示されればよい.つまり,人手で網羅的に誤用タイプのタグ(以後,「誤用タグ」と呼ぶ)を付与することができなくても,一定水準の適合率が確保できるのであれば,自動推定した結果を活用することができる.そこで,本稿では実用レベル(例えば,8割程度)の適合率を保証した日本語学習者コーパスへの誤用タグ付与を目指し,誤用タイプの自動分類に向けた実験を試みる.学習者の作文における誤用についてフィードバックを行ったり,調査分析したりすることは,学習者に同じ誤りを犯させないようにするために必要であり,学習者に自律的な学習を促すことができる\shortcite{holec,auto_umeda}.そのため,学習者の例文を誤用タイプ別に分類し,それぞれの誤用タイプにタグを付与した例文検索アプリケーションは教師や学習者を支援する有効なツールとなり得る.現在まで,誤用タグ付与作業は人手に頼らざるを得なかったが,\lh\hbox{}のようなウェブ上の学習者コーパスは規模が大きく,かつ日々更新されるため,人手によって網羅的に誤用タグを付与することは困難である.誤用タイプの自動分類を行うことで,誤用タグ付与作業を行う際,人手に頼らなくてもよくなり,人間が誤用タグ付与を行う際の判定の不一致や一貫性の欠如などの問題を軽減しうる.これまでは,このような誤用タグの自動付与というタスクそのものが認知されてこなかったが,自動化することで大規模学習者コーパスを利活用する道を拓くことができ,新たな応用や基礎研究が発展する可能性を秘めている.今回,誤用タグが付与されていない既存の日本語学習者コーパスに対し,階層構造をもった誤用タイプ分類表を設計し,国立国語研究所の\ty\hbox{}の事例に対してタグ付け作業を行った.次に,階層的に誤用タイプの分類を行う手法を提案し,自動分類実験を行った.誤用タイプ分類に用いるベースライン素性として,単語の周辺情報,統語的依存関係を利用した.さらに,言語学習者コーパスから抽出した拡張素性として1)正用文と誤用文の文字列間の編集距離,2)ウェブ上の大規模コーパスから算出した正用箇所と誤用箇所の置換確率を用い,それらの有効性を比較した.本研究の主要な貢献は,以下の3点である.\begin{itemize}\item誤用タグが付与されていない国語研の作文対訳DBに誤用タグを付与し,\ngc\hbox{}を作成した.異なるアノテーターによって付与されたタグの一致率が報告された日本語学習者誤用コーパスは,我々の知る限り他に存在しない.\item\ngc\hbox{}を対象に機械学習による誤用タイプ自動分類実験を行い,かつアプリケーションに充分堪えうる適合率を実現した(8割程度).英語学習者コーパスの誤用タイプの自動分類タスクは過去に提案されている\cite{swanson}が,日本語学習者コーパスの誤用タイプの自動分類タスクに取り組んだ研究はこれが初めてであり,将来的には学習者コーパスを対象とした誤用例検索システムを構築するアプリケーションの開発を目指しているため,その実現化に道筋を付けることができた.\itemタグの階層構造を利用した階層的分類モデルを提案し,階層構造を利用しない多クラス分類モデルと比較して大幅な精度向上を得られることを示した.また,英語学習者の誤用タイプ自動分類で提案されていた素性に加え,大規模言語学習者コーパスから抽出した統計量を用いた素性を使用し,その有効性を示した.\end{itemize} \section{関連研究} 現在,研究・教育目的で利用されている日本語学習者コーパスは,大阪大学の寺村コーパス\cite{teramuraj}\footnote{データ総数4,601文中3,131文が誤用タグ付け済み},名古屋大学の学習者コーパス\cite{oso/97}\footnote{756名分の作文},東京外国語大学の「オンライン日本語「誤用コーパス」辞典」\footnote{誤用タグつき作文40名分http://cblle.tufs.ac.jp/llc/ja\_wrong/index.php?m=default},筑波大学の「日本語学習者作文コーパス」\cite{rijehoj/2012}\footnote{540名分の作文http://www34.atwiki.jp/jccorpus/},大連理工大学の中国人日本語学習者による日本語作文コーパス\cite{shimizu/2004},国立国語研究所(国語研)で収集された「日本語学習者による日本語作文と,その母語訳との対訳データベースオンライン版」\footnote{http://jpforlife.jp/taiyakudb.html}(以下,作文対訳DB)(データ総数は2009年時点で1,754件)がある.上記の作文対訳DBは,大規模な日本語学習者コーパスの1つであるが,誤用タイプの情報が付与されていなかった.上記のコーパスのうち,作文対訳DB以外のコーパスは誤用タグが付与されているが,タグが一部にしかついていなかったり,入手ができなかったり,コーパスそれぞれにおいて誤用タグの分類基準が異なっていたりする.また,既存の言語学習者コーパスは言語学や教育の目的で収集されたもので,自動分類や誤用検出・訂正などの機械処理を考慮した設計にはなっていないため,人手アノテーション以外の分類処理には必ずしも向いていない.具体的には,コーパスのタグ付けに関するアノテーションの一致率が報告されておらず,機械処理に適した誤用タグ体系になっているかどうか不明である.そこで,今回機械学習用に誤用タグを付与した\ngc\hbox{}を作成した.また,自動で誤用検出,誤用タイプ分類を行うといった言語学習者コーパス整備作業に関する研究は,英語教育においても日本語教育においても様々なタスクで進められている.例えば,英語教育において以下のような研究が行われている.誤用判定として,英語のスペルミス検出研究\cite{wilcox},英語の名詞の可算性(数えられる名詞),不可算性(数えられない名詞)の誤用検出研究\cite{brockett,nagata06j},前置詞の誤用検出に関する研究\cite{chodorow07,deFelice07,defelice08,joel,gamon},冠詞誤用検出に関する研究\cite{han,defelice08,gamon,yi,nagata05j}がある.日本語を対象とする研究では,格助詞を対象とした研究が多い\cite{ookij,oyama/08,imaedaj,nampoj,suzuki/06b,Imamura:ErrorCorrection2012j}.さらに,誤用タイプに特に着目せずに文を誤用文と正用文とに分類する研究もある\cite{sun,mizumotoj/13}.これらの誤用検出タスクにおいて,対象となる誤用タイプは限定されている.つまり,誤用タイプがあらかじめわかっていることが前提である.さらに,誤用タイプを網羅的にタグ付けするような研究は以下に示す1件を除いて存在しない.実際の言語学習者コーパスでは教師によって添削された正用例があったとしても,誤用タイプまで示すことは稀であり,誤用タイプを網羅的にタグ付けし,誤用例を検索できるようにすることは困難である.誤用タイプ分類タスクを行っているのは,\citeA{swanson}のみである.彼らは英語学習者の誤用タグ付きコーパスを用いた教師あり学習による多クラス分類によって,誤用箇所を与えた上で,誤用タグが付与された文を入力とし15クラスの誤用タイプ\footnote{15クラスの誤用タイプは,不足,余剰,置換,動詞のテンス,語順,否定,スペリング,イディオムの誤り(コロケーションの誤り),活用の誤り,文体の誤り,語の派生,可算不可算名詞の誤り,形式の誤り,主語と動詞の一致の誤り,項構成の誤りである.}に分ける実験を最大エントロピー法で行っている.しかし,日本語における誤用タイプ分類実験はまだ見られない.また,\citeA{swanson}は既存の英語学習者コーパスを用いて自動分類器を学習しているが,自動分類に適した誤用タイプのタグ集合を設計しているわけではない.言い換えると,タグの体系が自動分類の精度に与える影響は考慮されていない.さらに,彼らの自動分類器で用いられていた素性は誤用・正用の対応に基づく文字列・単語(品詞)情報,そして文脈素性としては直前の単語のみを用いる非常に単純なものであったが,本研究ではそれらに加えて大規模言語学習者コーパスから計算した置換確率と,正用文と誤用文の編集距離,文脈素性として周辺3単語および依存関係も用いた. \section{機械学習による誤用タイプ分類実験} \subsection{データ}誤用タイプ分類実験のために\ngc\hbox{}を作成した.\ngc\hbox{}は,\ty\hbox{}の中で添削が施された313名の作文中の誤用箇所にタグを付与し,様々な情報を補完したコーパスである\cite{oyamaj/09,oyamaj/12}.ファイル数は作文者ごとに313,総文字数は191,994字である.\ngc\hbox{}は,\ty\hbox{}に対しアノテーションを行っているため,作文対訳DBとデータは共通しているが,\ty\hbox{}には誤用タグがアノテーションされていない.\subsection{\ngc\hbox{}における誤用タグのアノテーション}\subsubsection{誤用タグのアノテーション}先に述べた作文対訳DBへのアノテーションの方法について説明する.基本的に作文対訳DBの添削に基づいて誤用タグを付与しており,添削は変更せず,誤用タイプ分類をした後にタグを付与する.作文対訳DBの誤用箇所に\verb|<goyo>|タグを設け,そのタグ内に添削された正用箇所を\verb|crr|属性にて示し,誤用タイプを示す\verb|type|属性を付与した.誤用を正用にするために複数の誤りを修正する必要がある場合,それぞれ\verb|typeN|(ただしNは自然数で,順不同)という属性を用いて明示した.また,文章中で複数の添削が相互に依存関係を持っている場合がありうるが,依存関係のアノテーションは今回のタグの精緻化という独立した別のタスクとして切り出すことが可能なため,今回のアノテーションでは依存関係は考慮しない.例えば,以下の例文を考える.\begin{quote}\begin{verbatim}<s>それで,<goyotype1="sem"type2="not/kj"crr="常に">まいにち</goyo>がいこくのえんじょがいります.</s>\end{verbatim}\end{quote}上記の例で,誤用として添削者によって添削された「まいにち」を\verb|<goyo>|タグで囲み,添削者による正用例「常に」を\verb|crr|属性で示す.この誤用を正用にするためには,「まいにち→つねに」と「つねに→常に」を訂正する必要があるため,誤用タイプは,この事例では語彙選択(\verb|"sem"|)と表記・漢字(\verb|"not/kj"|)の2種類を付与している.\subsubsection{誤用タイプ表の設計方針}誤用タイプ表の設計方針を立てる際に,英語学習者の話し言葉を集めたSSTコーパス,日本語学習者の作文を集めた名古屋大学の学習者コーパス\cite{oso/97},大連理工大学の中国人日本語学習者による日本語作文コーパス\cite{shimizu/2004},さらに\citeA{ichikawa97,ichikawaj00}による「日本語誤用例文小辞典」を基にした.SSTコーパスは,学習者の誤用が多岐にわたるため,体系的な分類が比較的容易な文法的・語彙的誤りに対して,独自の誤用タイプ表を構築し,人手でタグ付与を行っている(石田,伊佐原,齋賀,Thepchai,成田,内元,和泉2003)\nocite{ishidaj/03}.SSTコーパスの誤用タイプ表は,品詞を第1階層に有し,「名詞,動詞,助動詞,形容詞,副詞,前置詞,冠詞,代名詞,接続詞,関係詞,疑問詞」とに分かれている.さらに,品詞の第1階層の下は第2階層に「活用の誤り,格の誤り,単複の誤り,語彙選択の誤り」など文法的・語彙的ルールとに細分化される.また,ある誤用タイプは各品詞のカテゴリーにまたがっている場合もある.例えば,「活用の誤り」は「名詞」,「動詞」,「副詞」,「代名詞」のそれぞれの下位分類に属している.「語彙選択の誤り」も複数のカテゴリーに属している.このように,品詞の階層カテゴリーの下位階層にそれぞれ同様のタイプが存在すると,誤用タグ付与のアノテーターが意識しなければならないタグが増大するため,人手によるタグ付与作業が煩雑になる.そこで,我々は多クラスのタグ付けをするのではなく,多ラベルのタグ付けをするようにNAIST誤用コーパスを設計し,複雑な階層カテゴリーを把握しなくてもタグ付けが可能なようにした.ただし,SSTコーパスでの品詞の分類は,自動分類をする際に素性として取り出しやすく有効な素性となりうる.そのため,\ngc\hbox{}でも品詞による分類を第1階層に持つようにした.誤用タグを構築する際に誤用タイプ分類の方法として,\shortciteA{shimizu/2004}では,誤用タグの構築方法を2つあげている.\begin{enumerate}\item言語学的な特定の文法記述に基づき誤用を分類し誤用タグを構築している場合\item実際の誤用分析で抽出された誤用タイプに基づいてタグを構築する場合\end{enumerate}名古屋大学の学習者コーパス\shortcite{oso/97}は,上記(1)の方法に従い,言語学的な特定の文法記述に基づき誤用を分類し誤用タグを構築しているが,「脱落,付加,混同,誤形成,位置」などの分類はない.大連理工大学の中国人学習者による日本語作文コーパス\shortcite{shimizu/2004}は,上記(2)の方法に従い,中国人日本語学習者の作文を添削し,独自の誤用タグを設計,付与している.\shortciteA{shimizu/2004}では,大連工業大学の日本語学習者の作文を誤用分析した結果から抽出した誤用に基づく誤用タイプを用いているため,\shortciteA{oso/97}や\citeA{ichikawa97,ichikawaj00}とは異なる「指示詞」,「形式名詞」,「数量詞」,「漢語」などの誤用タイプが見られる.\citeA{ichikawa97,ichikawaj00}も,上記(2)の方法に従い,日本語学習者の作文によく見られる誤用をムード,テンス,アスペクトなどの8つの主要分類に分け,その次に細分化された86の項目に分ける(表\ref{tbl:goyo-type-ichikawa}).\shortciteA{ichikawaj01}では,さらに,下位項目のそれぞれについてさらに「脱落,付加,混同,誤形成,位置,その他」の6種類に分類している.\begin{table}[b]\caption{市川の誤用分類}\label{tbl:goyo-type-ichikawa}\input{02table01.txt}\end{table}それらの言語学習者コーパスの誤用タイプ分類を基礎に,\ngc\hbox{}では全76種の誤用タイプ分類を構築した.その全誤用タイプは,付録B「誤用タイプ76項目」(表\ref{tbl:goyo-type-76-koumoku})に示す.表~\ref{tbl:goyo-type-76-koumoku-more}は,「誤用タイプ76項目」のタグにおいてさらに細かく説明を加えた表である.\shortciteA{shimizu/2004}の誤用タイプ分類には,\citeA{ichikawa97,ichikawaj00}にはないが,必要だと考えられる誤用タグが見られるため,それらを含めた.しかし,\shortciteA{shimizu/2004}では,「は/が」の使用誤りの項目と「助詞」を分けていたりと項目の選出には彼ら独自の理由が見られる.また,中国人日本語学習者を対象にしているため,中国人特有の誤用タイプが見られる.\ngc\hbox{}の誤用タイプ分類については,そのような点を割愛し,「指示詞」,「形式名詞」,「数量詞」など詳細かつ重要な誤用タグを含めた.\shortciteA{ichikawa97,ichikawaj00}の分類も,日本語学習者がよく誤りやすい項目を基に構成されている.表\ref{tbl:goyo-type-ichikawa}にあるムードは表\ref{tbl:goyo-type-76-koumoku}の76の項目中の「モダリティ」に含めている.テンス,アスペクト,自動詞,他動詞,ヴォイスなどの項目は本稿では「動詞」の下位項目にまとめている.また,取り立て助詞,格助詞,連体助詞,複合助詞は「助詞」の下位項目にしている.連用修飾,連体修飾は,「名詞修飾節」の項目に入れている.従属節は,「接続」の項目に含まれている.しかし,\shortciteA{ichikawa97,ichikawaj00}では「脱落,付加,混同(本稿では,不足,余剰,置換)」などをそれぞれの下位項目のさらに下の項目に分類しているが,本稿では,「Nobu\{{\bf*$\phi$/という}\}レストランに行きました」{\kern-0.25zw}\footnote{*は誤用例を示す.}のような,タグを新たに設定しにくい,もしくは修正部分が長く,誤用分類しにくい添削を「脱落,付加」に入れた.作文対訳DBにも,\shortciteA{ichikawa97,ichikawaj00}の分類を採用すると,助詞の下位項目に「不足,余剰」などの項目を持つ事例がある.しかし,付録A,「不足」の項目で述べているように,それらは少数である.そのため,本コーパスでは,「不足,余剰」を各分類の下位項目ではなく,独立した項として新たに設立した.本研究で使用した誤用タグの構築方法について詳しくは\shortciteA{oyamaj/09,oyamaj/12}を参照されたい.\subsubsection{本稿における実験に使用した誤用タイプ}実験に使用した誤用タイプは,表\ref{tbl:error-type}に示した17種である.全誤用タイプ76種が階層的に定義され,その第1階層の23種から17種を選択して使用した.全誤用タイプを第1階層までまとめ上げた誤用タイプと研究に必要な誤用タイプとを選択した.誤用タイプのそれぞれの説明は付録A「誤用タイプ項目」に詳細に示す.\begin{table}[t]\caption{\ngc\hbox{}における誤用タイプ表(17種+非使用の6種)}\label{tbl:error-type}\input{02table02.txt}\par\vspace{4pt}\small表中の$\phi$は,要素がないことを示す.*は,誤用例を指す.\par\vspace{-0.5\Cvs}\end{table}表\ref{tbl:error-type}において,上位17種の誤用タイプを実験に利用した.下位の「名詞」や「名詞修飾」などの誤用タイプは今回事例数が少なかっため,実験対象としなかった.「モダリティ」は,意味や文の作者の主観に起因する場合が多いので,文脈情報や依存情報よりも意味を扱える素性を考えるべきであるので,今回は困難であると考え実験対象としなかった.「モダリティ」の場合は,稿を改めて「モダリティ」を中心に必要な素性を追加した実験を行いたいと考えている.「成句」は,きまったフレーズ(「〜たり〜たり」など)がうまく使えなかった誤りを含む.「全文変換」は,文がすべて書き換えられている誤用事例である.「成句」や「全文変換」も,今回誤用タイプ分類実験の対象としなかった.「成句」はフレーズの要素が「〜たり〜たり」などのように離れているものが多く,アラインメントを取ることが困難であった.また,「全文変換」も同様で,文全体を書き換えているので誤用箇所の特定が難しかったことが理由である.「その他」についても今回実験に用いた誤用タイプよりもより詳細で個別的な誤用タイプであり,個々が少数事例のものもあったので今回対象外とした.上記以外にも,研究に必要な「``だ''の誤用」,「否定」,「副詞」,「代名詞」,「コロケーション」を誤用タイプに含めて実験を行った.「``だ''の誤用」,「否定」,「副詞」,「代名詞」の誤用タイプにおいては,作文対訳DBやKYコーパス\cite{kyj}\footnote{KYコーパスは,英語,韓国語,中国語を母語とする日本語学習者各30名位,計90名のインタビューが収集された話し言葉コーパスである.}を対象とした研究の中で「``だ''の誤用」\cite{hunt,ou},「副詞」\cite{asada07,asada08,matsuda},「否定」\shortcite{mine,yoshinaga},「代名詞」\shortcite{tyou}などに関する研究が見られ,言語学習者コーパスを利用したこのような研究がこれから増えてくると思われるからである.「否定」と「コロケーション」に関しては,\shortciteA{swanson}における誤用タイプ15種にも含まれている.「コロケーション」は,コーパスデータを利用する利点があり,重要な誤用タイプだと考えられる\cite{terashima}.語彙選択の誤りとコロケーションの誤りとを明確に区別し,語彙選択の誤りでは,単語単位のみを対象とした.コロケーションの誤りでは,「形容詞+名詞」のようなコロケーションも見られるが「名詞+格助詞+動詞」の誤りのみを対象とした.\subsubsection{アノテーター間の一致率}誤用タグは2人のアノテーターによって付与された.2人ともアノテーターとして5年以上勤務している.コーパス中の一部のデータ(170文)を対象に2人に同じデータへの誤用タグの付与を依頼し,$\kappa$値\cite{kappa}によりその2人のタグ付け一致率を計った.タグ付けの対象とした170文は,誤用タイプ17種をそれぞれ10文ずつ抽出した(10文×17種).それは,全体の約1.2\%に当たる.アノテーターに1位に選ぶ誤用タイプと次に選ぶ誤用タイプまで(2位まで)を選択してもらった.表\ref{tbl:error-type}の誤用タイプにおける一致率は,1位までの場合$\kappa$=0.602であった.2位までの場合,$\kappa$=0.654であった.$\kappa$が0.81〜1.00の間にあればほぼ完全な一致,0.61〜0.80の間にあれば実質的に一致しているとみなされることから,今回は実質的に一致していると考えられる\cite{kappa}.信頼度の高いコーパスを作成するためには,付与したタグがアノテーター間で異なる「タグの不一致」の問題をできるだけ解決した方がよい.付与したタグの一致率が高ければ,そのタグは一貫性が高く,信頼性が高いタグセットであることが言える.\subsubsection{階層構造誤用タイプ分類表を使用した階層的誤用タイプ分類}先行研究の\citeA{swanson}では,誤用タイプ分類実験にフラットな構造の分類表を使用していたので,\citeA{oyama/2013}でもフラットなタイプの誤用タイプ分類表を用いたが,人間はどのように誤用タイプを分類するのか分析するために,誤用タイプ分類に向けた予備実験を行った.11人の現役の日本語教師に依頼し,テストデータから無作為に選んだ20文について誤用タイプ分類を行わせた.その後,日本語教師各個人に対して聞き取り調査を行い,ある誤用文に対してある誤用タイプに分類する理由を聞いた.この分類実験の結果,次のようなことがわかった.\begin{enumerate}\item日本語教師は,多くの誤用文を「語彙選択」に分類しやすい.\item日本語教師は,「動詞」と他の誤用タイプを混同しやすい.\item日本語教師は,誤用タイプを判断する際に1文すべて与えられていても誤用箇所と正用箇所で主に判断している.\item日本語教師は,誤用箇所と正用箇所の次に参考にする素性は,依存構造である.\end{enumerate}\begin{figure}[b]\begin{center}\includegraphics{23-2ia2f1.eps}\end{center}\caption{階層構造誤用タイプ分類表}\label{fig:tree-tagset}\end{figure}日本語教師に行った実験では,「語彙選択」が他の誤用タイプ(助詞,動詞,コロケーションなどの誤用タイプ)に最も間違われやすかった.これは,「語彙選択」が最も選択を迷う項目であるということを示している.聞き取り調査の結果,日本語教師は誤用タイプを判断する際に1文すべて与えられていても誤用箇所と正用箇所などで主に判断していることがわかった.さらに,日本語教師は,最小の素性で判断しきれない場合,前後2単語,前後3単語先をみるより,依存している単語は何かに焦点を当てていた.「助詞」の誤りかどうか判断に迷った時は,それが依存している動詞を見ている.「副詞」の誤りかどうかの分類も同様である.この結果を受け,「語彙選択」は,どの誤用タイプにも入りやすく,この点が分類を妨げている要因と考えたため,17種の誤用タイプをさらに3階層に分類し直し,図\ref{fig:tree-tagset}に示す構造に変更した.上記のような流れを受けて,本実験において3段階の階層構造に基づく分類を行った.\citeA{hosokawaj93}では,\citeA{teramuraj72}の誤用の領域を基にし誤用を分類しており,1)語彙レベルの誤用,2)文構成レベルの誤用,3)談話レベルの誤用の3レベルを立てている.談話レベルまで扱うのは今回の実験の範疇にないので,\citeA{hosokawaj93}の分類に従い,第2段階を語彙レベルか文構成レベルかに分類した.図\ref{fig:tree-tagset}で見られるように,第1段階で「不足」,「余剰」,「置換」とに分類する.第2段階では,「置換」内部において「文法的誤用」であるか「語彙的誤用」であるかの2値分類を行った.第3段階では,前段階で成功した事例において「文法的誤用」と「語彙的誤用」のそれぞれのグループ内において,多クラス分類を行った.\subsection{実験方法}誤用タイプ自動分類実験は,先行研究の\shortciteA{swanson}にならい,機械学習法を用いた分類実験を行った.3.2節で説明したように誤用タイプ分類実験のデータとして言語学習者が書いた誤用文と正用文に文単位の対応をつけ,誤用タイプを付与した\ngc\hbox{}を用意した.実験には,そのコーパスから誤用箇所,正用箇所や誤用タイプラベルを取り出し,さらに素性を抽出し使用した.また,誤用タイプ表(表\ref{tbl:error-type})を階層構造化し実験を行った(図\ref{fig:tree-tagset}).\ngc\hbox{}から,13,152事例を取り出し,10分割交差検定を行った.1つの文に別々の誤用が2つ以上ある場合は,1誤用につき1事例として取り出した.\subsubsection{実験の流れ}実験の概要を図\ref{fig:jikken-outline}に示す.まず,\ngc\hbox{}から正用文と誤用文のペアを取り出す.それらの2種類の文から,対応する誤用箇所$(x)$と,正用箇所$(y)$,誤用タイプ$(t)$の3つ組のラベル($x$,$y$,$t$)を取り出す.その後,その事例ごとに素性を付与する.ベースラインの素性として,誤用箇所,正用箇所の表層の語彙素と,誤用箇所,正用箇所の形態素解析結果,周辺単語情報(前後1から3単語),依存関係情報を付与した.テストデータにおいても同様の素性を取り出し,分類判定実験に使用した.分類実験には,最大エントロピー法\footnote{http://homepages.inf.ed.ac.uk/lzhang10/maxent\_toolkit.html}を利用し,多クラス分類を試みた\footnote{事例は,複数の誤用タイプに分類される事もあり,その場合,複数の誤用タグを付与しているが,今回それらの事例数は全体の3\%にすぎなかったため,本研究の分類においては多ラベル分類ではなく多クラス分類と見なした.}.最大エントロピー法は確率値を出力することができるため,閾値を用いて予測結果を調整しやすく,英語・日本語の誤用検出・訂正で広く用いられている\cite{suzuki/06b,swanson}.\begin{figure}[t]\begin{center}\includegraphics[scale=1.1]{23-2ia2f2.eps}\end{center}\caption{機械学習による誤用タイプ分類実験の流れ}\label{fig:jikken-outline}\end{figure}\subsubsection{素性}この節では,実験で使用した事例と素性について説明する.表\ref{tbl:features}は,今回使用した全ての素性をまとめたものである.例として,誤用を含む文「英語\underline{を(誤)}\underline{$\rightarrow$が(正)}わかる.」をあげる.誤用箇所「を」が{\itx},正用箇所「が」が{\ity},「助詞」の誤用が{\itt}という3つ組みのラベルが1事例として抽出される.\begin{itemize}\item(誤)英語\underline{{\bfを}}わかる\item(正)英語\underline{{\bfが}}わかる\item誤用タイプ:「助詞(P)」使用の誤用\end{itemize}依存関係情報は,誤用箇所の単語にかかる文節内の単語のbag-of-wordsおよび誤用箇所の単語からかかる文節内の単語のbag-of-wordsを用いた.誤用箇所内が複数の文節にまたがる場合,その全ての文節内の全ての単語のbag-of-wordsを用いた.さらに,係り元・係り先の文節内にある全形態素の語彙素を用いた.例えば,「$\ast$私はりんごを\underline{{\bf食べった}}」という文において「食べった」が誤用箇所の場合,誤用箇所に係っている文節内の係り元の「私」,「は」,「りんご」,「を」を素性として利用している.\begin{table}[t]\caption{誤用タイプ分類実験に用いた素性と具体例:「英語を(誤)$\rightarrow$が(正)わかる.」の例文における素性}\label{tbl:features}\input{02table03.txt}\end{table}形態素解析には,UniDic--2.1.2辞書\footnote{http://osdn.jp/projects/unidic/}とMeCab--0.994\footnote{http://taku910.github.io/mecab/}を利用し,依存構造解析器CaboCha--0.68\footnote{http://taku910.github.io/cabocha/}で形態素情報と依存関係を抽出した.言語学習者コーパスには,ひらがな文字が多く含まれたり,辞書に存在しないような単語が出現したりする.そのためにアライメントに失敗し,分類精度に影響する.そこで,言語学習者コーパスにおける誤用による影響を軽減するために次の2つの拡張素性を用いた実験も行った.\subsubsection*{編集距離素性}2つの文字列がどの程度異なっているかを示す距離である編集距離を用いた.正用文と誤用文において動的計画法によるマッチングを用いて置換対の抽出を行い\cite{fujinoj},誤用文には存在するが正用文には存在しない文字列を余剰箇所とみなした.同様に,正用文には存在するが誤用文には存在しない文字列を不足箇所とみなした.ある文字列がある文字列に置き換えられている場合,置換箇所とした.その際に,置換,不足,余剰の誤りの編集距離をいずれも1と定義し,編集距離は実数値素性として用いた.\subsubsection*{置換確率}拡張素性として,Lang-8から抽出した正用箇所と誤用箇所のペアの置換確率を利用した.Lang-8には,言語学習者の書いた誤用文と添削された正用文とが大量に含まれている.この置換確率は,Lang-8のような大規模な言語学習者コーパスを利用したことから得られる一つの新しい知見である.Lang-8から抽出した正用箇所と誤用箇所のペアから,誤用はどのように訂正されているか(誤用置換確率)と正用文はどのような誤用から訂正されているか(正用置換確率)を計算し,利用した.Lang-8において取り出されたペアは796,403ペアである.例えば,「を」が誤用で「が」が正用である場合の誤用置換確率の式は以下のようになる.\begin{equation}P(正用=が|誤用=を)=\frac{P(正用=が,誤用=を)}{P(誤用=を)}\label{eq:chikan_goyo}\end{equation}「が」が誤用で「は」が正用である場合の正用置換確率の式は以下のようになる.\begin{equation}P(誤用=が|正用=は)=\frac{P(誤用=が,正用=は)}{P(正用=は)}\label{eq:chikan_seiyo}\end{equation}\subsubsection{評価尺度}評価尺度としてF値を利用した.再現率は対象とする各誤用タイプの中で正しく分類された誤用タイプを指し,適合率は,システムがある誤用タイプだと分類したもののうち正解を当てた率である.F値はそれらの調和平均を表している.\begin{gather}再現率=\frac{正しく分類された事例数}{各誤用タイプの全事例数}×100\\[1.5ex]適合率=\frac{正しく分類された事例数}{システムがある誤用タイプだと分類した事例数}×100\\[1.5ex]F値=\frac{2\times適合率\times再現率}{適合率+再現率}\end{gather} \section{実験結果} \subsection{階層構造を使用した場合の実験結果}\ngc\hbox{}における誤用タイプ分類実験の10分割交差検定による結果について述べる.表\ref{tbl:with_wthot_hier}は,階層構造を使用した場合と使用しなかった場合とを比較した表である.簡単のため前後1単語の素性を用いた場合をW1,前後2単語までの素性を用いた場合をW2,前後3単語までの素性を用いた場合をW3とする.最後の行は,全体のマクロ平均を示す.この表で分かるように,階層構造を利用したことで分類性能(F値)が全体的に49.6から62.4へと向上した.また,F値で80以上を達成した誤用タイプは「助詞」,「不足」,「余剰」の3つのみであったが,階層構造を利用することにより,「語彙選択」,「表記」,「動詞」,「指示詞」も新たにF値が80を超え,実用的な精度で自動推定が行えることが分かった.\begin{table}[t]\caption{階層構造を使用した場合と使用しなかった場合の実験結果(10分割交差検定)(F値)}\label{tbl:with_wthot_hier}\input{02table04.txt}\end{table}「不足」と「余剰」の値は,階層構造を使用した場合において階層構造を使用しなかった場合より精度が下がっている.「不足」と「余剰」の誤用タイプは第1階層において「不足」か「余剰」か「置換」の3値分類をする.その際,「不足」は1,441事例,「余剰」は1,177事例,「置換」は10,534事例となり,「置換」の事例数は,「不足」と「余剰」の事例数よりもはるかに多くなる,これが,「不足」と「余剰」の階層構造を使用した場合での精度を下げる原因となったと考えられる.\subsection{編集距離,置換確率を加えた実験結果}編集距離,置換確率を加えた誤用タイプ分類実験の結果を表\ref{tbl:new-ngc}に示す.ベースライン(BL.)は,誤用タイプの構造が階層構造であり周辺素性および依存関係情報を付加した素性とし,表\ref{tbl:with_wthot_hier}における「階層構造あり」の結果を用いた.さらに,拡張素性として,1)ベースライン+編集距離(edit),2)ベースライン+置換確率(sub.)(F値)を示した.ALLは,それら全ての拡張素性を付加したものである.表\ref{tbl:new-ngc}の最下行はマクロ平均値を表し,表\ref{tbl:new-ngc}より編集距離を加えることで4.1ポイントの分類性能の上昇,置換確率を加えることで3.4ポイントの上昇が見られる.それら拡張素性を合わせた素性(ALL)においては6ポイントの上昇が見られる.表\ref{tbl:new-ngc-mic}は,階層ごとの分類の難しさを示している.まず1行目は「不足」か「余剰」か「置換」かの多値分類での平均値である.2行目は「文法的誤用」における多値分類,3行目は,「語彙的誤用」における多値分類での平均値である.\begin{table}[t]\caption{\ngc\hbox{}における誤用タイプごとの分類実験結果(10分割交差検定)(F値)}\label{tbl:new-ngc}\input{02table05.txt}\end{table}\begin{table}[t]\caption{各階層における分類実験結果(10分割交差検定)(F値)}\label{tbl:new-ngc-mic}\input{02table06.txt}\end{table}表\ref{tbl:new-ngc-mic}のマクロ平均値において,第1段階(余剰,不足,置換)実験において編集距離を加えることで1.8ポイントの上昇,置換確率を加えることで2.4ポイントの上昇が見られる.ALLでは,2.5ポイントの上昇が見られる.文法タイプ内実験において編集距離を加えることで0.8ポイントの下がっているが,置換確率を加えることで2.4ポイントの上昇が見られる.ALLでは,1.2ポイントの上昇が見られる語彙タイプ内実験において編集距離を加えることで4.0ポイントの上昇,置換確率を加えることで3.4ポイントの上昇が見られる.ALLでは,6.3ポイントの上昇が見られる. \section{分類実験に関する考察} この節では,どの素性がどのように自動分類に役立つかについて考察する.「不足」,「余剰」,「語彙選択」,「表記」,「助詞」,「動詞」は事例数が多く,全体の事例の91\%を占めている.そのため,それらについて説明する\footnote{「助詞」は事例数が最も多く,素性を付加しなくても精度も高いため,対象から除いた.}.全体的に編集距離素性と置換確率素性を入れた実験(ALL)において精度の向上が見られる.個別に見ると「語彙選択」,「表記」と「余剰」において,編集距離素性を用いた実験で精度の向上が見られる.「語彙選択」において漢字同士の誤用は数多く見られる.置換確率を入れるとさらに半数程度改善している(成功事例中44.8\%).語彙の選択誤りは多種多様であるため,Lang-8のような巨大なコーパスから置換確率を計算したとしても出現しない可能性もある.そのような場合においても編集距離素性が効果があったと考えられる.下に例を示す.\begin{quote}《語彙選択(SEM)》このたばこという物はどうして人々の\underline{必用(誤)$\rightarrow$必需品(正)}になっているのがわからない.\end{quote}「語彙選択」の場合,ひらがなやカタカナを漢字に変換する(またはその逆)事例の精度も上がっていた(成功事例中41.8\%).日本語学習者の作文ではひらがな,カタカナ,漢字の混合もよく見られる.ひらがなやカタカナと漢字では,表記が長くなるか短くなるかで編集距離が異なるため,その差が素性の効果に影響したと考えられる.\begin{quote}《語彙選択(SEM)》いろいろな飾りが大好きだからたばこを買う代わりにほしがっている\underline{飾り物(誤)$\rightarrow$アクセサリー(正)}を買った方がいい.\end{quote}「表記」の事例において編集距離素性で精度の向上が見られる事例を分析する.最も向上した事例のパターンは,以下のようなひらがなが漢字に変更された事例である.そのような事例が編集距離素性を入れたことで分類に成功しており,成功事例の半分を占めていた(55.9\%).\begin{quote}《表記(NOT)》家の外と中を\underline{そうじ(誤)$\rightarrow$掃除(正)}しました.\end{quote}次に,「余剰」の事例を見る.比較的文字列数が長い物が成功するようになっている.これは,編集距離の素性の効果だと考える.\begin{quote}《余剰(AD)》私はその中で\underline{いろいろな食べもの(誤)$\rightarrow$$\phi$(正)}一番好きなものはレマンです.\end{quote}次に,置換確率素性を用いた実験で精度の向上が見られた場合を検証する.全ての素性を組み合わせた実験(ALL)において,分類に成功した事例と失敗した事例においての置換確率が利用可能である場合を比較した.分類に成功した事例においては,置換確率が出現した場合が69.9\%であるのに対し,分類に失敗した事例中では,57.8\%となっており,置換確率値があった方が分類に成功していることが分かる.以下では置換確率素性を用いた実験で精度の向上が見られた「不足」,「動詞」の事例を見る.まず,「動詞」において置換確率を付加したことで分類に成功した事例を見る.\begin{quote}《動詞(V)》個人的には,軽い生活磁器よりも韓国のたましいが感じ\underline{る(誤)$\rightarrow$られる(正)}非生活磁器が気に入りました.\\誤用置換確率=0.046,正用置換確率=0.475\end{quote}上記の例は,「ベースライン+編集距離」の実験では,「文体」に分類されていた.「動詞」と「文体」が共に文末の誤りであることから,お互い間違われる事例が多いが,誤用箇所「る」正用箇所「られる」の誤用正用パターンがLang-8中に出現し,置換確率が得られたことで分類が成功したと考えられる.「文体」は,付録Aにあるように,通常「です・ます体」か「だ・である体」で統一されているかどうかの誤用である.この添削文は\ty\hbox{}の添削に基づいており,日本語教師が添削を施している\footnote{正用に添削する際には日本語教師が文章全体を見て添削しておりその結果を用いているので,本研究での誤用タイプ分類問題においては文章全体を見なくてもよい.}.その際,日本語教師によって誤用箇所の「る」が「ます」に修正されている.誤用タグを付与するときに,その添削にそってタグをつけている.よって,誤用箇所が「る」であり,正用箇所が「ます」である事例(またはその反対)が多く出現しており,「文体」に特徴的なパターンとして認識されている.「不足」,「余剰」の場合の性能についての考察をする.「不足」と「余剰」は一見誤用文字列・正用文字列の長さで簡単に判別できるように思われるが,もし不足しているものあるいは余剰に書かれているものが助詞とはっきりわかるものであれば,助詞へ分類されており(付録参照),誤用文字列・正用文字列の長さを見ただけでは必ずしも判断できない.そして,助詞はタグ全体の1/4を占める誤用タイプ(「不足」と「余剰」はそれぞれ全体の11\%と9\%)であるため,「不足」「余剰」の分類性能に影響を及ぼしたのではないかと思われる.また,「不足」より「余剰」の分類精度が低いことに関して,「不足」と「余剰」の事例が分類に失敗する場合を比べてみると,「余剰」の方に10ポイントほど多く,他の誤用タイプ(助詞や``だ''の誤用など)に含まれる可能性のある事例が含まれていた.前の段落で書いたように,これが「不足」と「余剰」の分類精度に影響したと考えられる.「不足」と「余剰」の分類精度において差が見られたが,全ての素性を入れた実験においては3.6\%の差であり,ベースラインと比較すると差が減っている.これは,拡張素性によって正用例と誤用例の文字列を考慮することができるようになり,より助詞の誤用等と区別しやすくなったからではないかと考えられる.さらに,全体に共通する傾向として,文脈長を長くすることが必ずしも分類性能の向上につながっていない,ということが確認できる.\citeA{swanson}も文脈に関する素性は直前の1単語しか使っていないが,これは英語学習者の誤用タイプ分類タスクにおいても文脈の情報が寄与していない可能性がある.誤用の発生している箇所の周辺は形態素解析が失敗しやすいことに加え,そもそも言語学習者の作文自身の形態素解析が困難であることが背景にあると考えられる.言語学習者のテキストに頑健な形態素解析器の作成は今後の課題である. \section{おわりに} 本稿では,大規模コーパスを言語資源として活用するために,コーパス整備タスクの1つとして日本語学習者コーパスへの誤用タグ付与のための半自動的な処理を目指し,誤用タイプの自動分類に向けた実験を試みた.まず,日本語学習者の誤用タグつきコーパスを設計し,誤用タグ付与作業を行った.作成したコーパスのアノテーター間の$\kappa$値は0.602であり,高い一致率であった.また,作成したコーパスを用い,最大エントロピー法によって誤用タグの自動分類タスクに取り組んだ.素性にはベースラインとして単語の周辺情報と依存関係を利用した.さらに,誤用タイプ分類表を階層構造にし,分類性能の向上を計った.誤用文の性質を考慮し,拡張素性として「ベースライン+編集距離」,「ベースライン+置換確率」を付加した結果,分類性能を向上させることができた.その結果,F値のマクロ平均は49.6から68.4に向上した.事例数が少なく十分な精度が得られていない誤用タイプも存在するが,初の誤用タイプ自動分類器において実用的な精度と考えられる.F値80を達成していた誤りタイプはベースライン法では「助詞」,「脱落」,「余剰」の3種類のみであったのに対し,階層構造を利用することによって新たに「語彙選択」,「表記」,「動詞」,「指示詞」が,置換確率を用いることで新たに「形容詞」が,それぞれF値80を達成することができ,自動化に向けて大きく前進することができた.事例数の少ない誤用タイプは精度も低いので,その問題を解決するためにセルフトレーニングを用いて,事例を増やし,精度向上を図ることも現在検討中である.今回,Lang-8のように正用文と誤用文の両方が大量に存在するが誤用タイプが不明な場合を想定し,誤用文を考慮に入れた素性を試したが,誤用箇所および正用例が示されていない言語学習者コーパスも多数存在する.そのような場合,誤用タイプ分類の前に誤用検出・訂正をする必要がある.本研究により,正用例が誤用タイプ分類に貢献することが示されたが,誤用タイプが誤用検出・訂正に影響を与えている可能性も考えられる.そこで,誤用タグに関しては,誤用タイプ分類と誤用検出・訂正を同時に行う手法を今後検討していきたい.さらに,言語教育現場でどのように使用されるかを考慮に入れたタグの使いやすさの評価のためには,他の誤用タグと比較してどのように自動分類性能が異なるかなども考慮に入れるべきであるが,自動分類に対応できる誤用タイプの構築を目指しているため本稿では対象とせず,今後の課題とした.現在,様々な言語学習者コーパスが存在するが,学習者コーパスをそのまま用いるには情報が足りないため,誤用検出をしたり,誤用タイプに分類し誤用タグを付与したりと前処理をしなければならない.機械学習による誤用タイプ分類の精度が高くなれば,研究のために利用できる学習者コーパスの量が増え,大規模なコーパスでさらに普遍的な現象なども見ることが可能になると考えられる.\acknowledgment\lh\hbox{}という貴重な資料を提供して頂いた株式会社\lh\hbox{}社長喜洋洋氏に感謝申し上げます.論文に対して貴重なご意見を頂いた査読者の方と編集委員の方にも感謝申し上げます.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅田}{浅田}{2007}]{asada07}浅田和泉\BBOP2007\BBCP.\newblock日本語学習者作文コーパスにみる多義的副詞の習得について.\\newblock\Jem{熊本大学社会文化科学研究科2007年度プロジェクト研究報告},{\Bbf7},\mbox{\BPGS\79--96}.\bibitem[\protect\BCAY{浅田}{浅田}{2008}]{asada08}浅田和泉\BBOP2008\BBCP.\newblock中国人日本語学習者の副詞の語順.\\newblock\Jem{熊本大学社会文化科学研究科2008年度プロジェクト研究報告},{\Bbf8},\mbox{\BPGS\37--58}.\bibitem[\protect\BCAY{Brockett,Dolan,\BBA\Gamon}{Brockettet~al.}{2006}]{brockett}Brockett,C.,Dolan,W.,\BBA\Gamon,M.\BBOP2006\BBCP.\newblock\BBOQCorrectingESLErrorsUsingPhrasalSMTTechniques.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\249--256},Sydney,Australia.\bibitem[\protect\BCAY{Carletta}{Carletta}{1996}]{kappa}Carletta,J.\BBOP1996\BBCP.\newblock\BBOQAssessingAgreementonClassificationTasks:TheKappaStatistic.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf22}(2),\mbox{\BPGS\249--254}.\bibitem[\protect\BCAY{張}{張}{2010}]{tyou}張希朱\BBOP2010\BBCP.\newblock話者を表す「私は」の用法について:日本語母語話者と日本語学習者の意見文を比較して.\\newblock\Jem{学校教育学研究論集},{\Bbf22},\mbox{\BPGS\23--35}.\bibitem[\protect\BCAY{Chodorow,Tetreault,\BBA\Han}{Chodorowet~al.}{2007}]{chodorow07}Chodorow,M.,Tetreault,J.,\BBA\Han,N.-R.\BBOP2007\BBCP.\newblock\BBOQDetectionofGrammaticalErrorsInvolvingPrepositions.\BBCQ\\newblockIn{\BemProceedingsofthe4thACL--SIGSEMWorkshoponPrepositions},\mbox{\BPGS\45--50},Prague,CzechPublic.\bibitem[\protect\BCAY{De~Felice\BBA\Pulman}{De~Felice\BBA\Pulman}{2007}]{deFelice07}De~Felice,R.\BBACOMMA\\BBA\Pulman,S.\BBOP2007\BBCP.\newblock\BBOQAutomaticallyAcquiringModelsofPrepositionalUse.\BBCQ\\newblockIn{\BemProceedingsofthe4thACL--SIGSEMWorkshoponPrepositions},\mbox{\BPGS\45--50},Prague,CzechPublic.\bibitem[\protect\BCAY{De~Felice\BBA\Pulman}{De~Felice\BBA\Pulman}{2008}]{defelice08}De~Felice,R.\BBACOMMA\\BBA\Pulman,S.\BBOP2008\BBCP.\newblock\BBOQAClassifier-basedApproachtoPrepositionandDeterminerErrorCorrectioninL2.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics(COLING2008)},\mbox{\BPGS\169--176},Manchester,U.K.\bibitem[\protect\BCAY{藤野\JBA水本\JBA小町\JBA永田\JBA松本}{藤野\Jetal}{2012}]{fujinoj}藤野拓也\JBA水本智也\JBA小町守\JBA永田昌明\JBA松本裕治\BBOP2012\BBCP.\newblock日本語学習者の作文の誤り訂正に向けた単語分割.\\newblock\Jem{言語処理学会第18回年次大会},\mbox{\BPGS\26--29}.\bibitem[\protect\BCAY{Gamon,Gao,Brockett,Klementiev,Dolan,Belenko,\BBA\Vanderwende}{Gamonet~al.}{2008}]{gamon}Gamon,M.,Gao,J.,Brockett,C.,Klementiev,A.,Dolan,W.,Belenko,D.,\BBA\Vanderwende,L.\BBOP2008\BBCP.\newblock\BBOQUsingContextualSpellerTechniquesandLanguageModellingforESLErrorCorrection.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalJointConferenceonComputationalLinguistics(IJCNLP2008)},\mbox{\BPGS\449--456},Hyderabad,India.\bibitem[\protect\BCAY{Han,Chodorow,\BBA\Leacock}{Hanet~al.}{2006}]{han}Han,N.~R.,Chodorow,M.,\BBA\Leacock,C.\BBOP2006\BBCP.\newblock\BBOQDetectingErrorsinEnglishArticleUsagebyNon-NativeSpeakers.\BBCQ\\newblock{\BemNaturalLanguageEngineering},{\Bbf12}(2),\mbox{\BPGS\115--129}.\bibitem[\protect\BCAY{Holec}{Holec}{1981}]{holec}Holec,H.\BBOP1981\BBCP.\newblock{\BemAutonomyandforeignlanguagelearning}.\newblockPergamonPress,Oxford.\bibitem[\protect\BCAY{細川}{細川}{1993}]{hosokawaj93}細川英雄\BBOP1993\BBCP.\newblock留学生日本語作文における格関係表示の誤用について.\\newblock\Jem{早稲田大学日本語研究教育センター紀要},{\Bbf5},\mbox{\BPGS\70--89}.\bibitem[\protect\BCAY{市川}{市川}{1997}]{ichikawa97}市川保子\BBOP1997\BBCP.\newblock\Jem{日本語誤用例文小辞典}.\newblock凡人社.\bibitem[\protect\BCAY{市川}{市川}{2000}]{ichikawaj00}市川保子\BBOP2000\BBCP.\newblock\Jem{続・日本語誤用例文小辞典接続詞・副詞}.\newblock凡人社.\bibitem[\protect\BCAY{市川}{市川}{2001}]{ichikawaj01}市川保子\BBOP2001\BBCP.\newblock日本語の誤用研究.\\newblock国際交流基金日本語グループ\JED,\Jem{日本語教育通信}(40\JEd).,\mbox{\BPGS\14--15}.国際交流基金.\bibitem[\protect\BCAY{今枝\JBA河合\JBA石川\JBA永田\JBA桝井}{今枝\Jetal}{2003}]{imaedaj}今枝恒治\JBA河合敦夫\JBA石川裕司\JBA永田亮\JBA桝井文人\BBOP2003\BBCP.\newblock日本語学習者の作文における格助詞の誤り検出と訂正.\\newblock\Jem{情報処理学会研究報告コンピュータと教育研究会報告},\mbox{\BPGS\39--46}.情報処理学会.\bibitem[\protect\BCAY{今村\JBA齋藤\JBA貞光\JBA西川}{今村\Jetal}{2012}]{Imamura:ErrorCorrection2012j}今村賢治\JBA齋藤邦子\JBA貞光九月\JBA西川仁\BBOP2012\BBCP.\newblock識別的系列変換を用いた日本語助詞誤りの訂正.\\newblock\Jem{言語処理学会第18回年次大会},\mbox{\BPGS\18--21}.\bibitem[\protect\BCAY{石田\JBA伊佐原\JBA齋賀\JBA{S.Thepchai}\JBA成田\JBA内元\JBA和泉}{石田\Jetal}{2003}]{ishidaj/03}石田亨\JBA伊佐原均\JBA齋賀豊美\JBA{S.Thepchai}\JBA成田真澄\JBA内元清貴\JBA和泉恵美\BBOP2003\BBCP.\newblock適合型コミュニケーションの研究開発.\\newblock\Jem{平成15年度通信・放送機構研究発表会},\mbox{\BPGS\572--581}.\bibitem[\protect\BCAY{蔭山ハント}{蔭山ハント}{2004}]{hunt}蔭山ハント悠子\BBOP2004\BBCP.\newblock\Jem{新・はじめての日本語教育1日本語教育の基礎知識}.\newblockアスク,東京.\bibitem[\protect\BCAY{鎌田\JBA山内}{鎌田\JBA山内}{1999}]{kyj}鎌田修\JBA山内博之\BBOP1999\BBCP.\newblockKYコーパスVer1.1.\\newblock\JTR,第二言語としての日本語の習得に関する総合研究グループ.\newblock\texttt{http://www.opi.jp/shiryo/ky\_corp.html}.\bibitem[\protect\BCAY{李\JBA林\JBA宮岡\JBA柴崎}{李\Jetal}{2012}]{rijehoj/2012}李在鎬\JBA林\UTF{70AB}情\JBA宮岡弥生\JBA柴崎秀子\BBOP2012\BBCP.\newblock言語処理の技術を利用したタグ付き日本語学習者コーパスの構築.\\newblock\Jem{2012年度日本語教育学会春季大会予稿集}.\bibitem[\protect\BCAY{松田\JBA森\JBA金村\JBA後藤}{松田\Jetal}{2006}]{matsuda}松田真希子\JBA森篤嗣\JBA金村久美\JBA後藤寛樹\BBOP2006\BBCP.\newblock日本語学習者の名詞句の誤用と言語転移.\\newblock\Jem{留学生教育},{\Bbf11},\mbox{\BPGS\45--53}.\bibitem[\protect\BCAY{峰}{峰}{2011}]{mine}峰布由紀\BBOP2011\BBCP.\newblock言語処理の発達の観点からみたナイデとナクテの習得過程.\\newblockIn{\Bem7thInternationalConferenceonPracticalLinguisticsofJapanese(ICPLJ7)},\mbox{\BPGS\92--93},SanFrancisco,U.S.A.\bibitem[\protect\BCAY{水本\JBA小町\JBA永田\JBA松本}{水本\Jetal}{2013}]{mizumotoj/13}水本智也\JBA小町守\JBA永田昌明\JBA松本裕治\BBOP2013\BBCP.\newblock日本語学習者の作文自動誤り訂正のための語学学習SNSの添削ログからの知識獲得.\\newblock\Jem{人工知能学会論文誌},{\Bbf28}(4),\mbox{\BPGS\420--432}.\bibitem[\protect\BCAY{永田\JBA井口\JBA脇寺\JBA河合\JBA桝井\JBA井須}{永田\Jetal}{2005}]{nagata05j}永田亮\JBA井口達也\JBA脇寺健太\JBA河合敦夫\JBA桝井文人\JBA井須尚紀\BBOP2005\BBCP.\newblock前置詞情報を利用した冠詞誤り検出.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ88-D-I}(4),\mbox{\BPGS\873--881}.\bibitem[\protect\BCAY{永田\JBA若菜\JBA河合\JBA森広\JBA桝井\JBA井須}{永田\Jetal}{2006}]{nagata06j}永田亮\JBA若菜崇宏\JBA河合敦夫\JBA森広浩一郎\JBA桝井文人\JBA井須尚紀\BBOP2006\BBCP.\newblock可算/不可算名詞の判定に基づいた英文の誤り検出.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ89-D-8},\mbox{\BPGS\1777--1790}.\bibitem[\protect\BCAY{南保\JBA乙武\JBA荒木}{南保\Jetal}{2007}]{nampoj}南保亮太\JBA乙武北斗\JBA荒木健治\BBOP2007\BBCP.\newblock文節内の特徴を用いた日本語助詞誤りの自動検出・校正.\\newblock\Jem{情報処理学会研究報告自然言語処理研究報告},\mbox{\BPGS\107--112}.情報処理学会.\bibitem[\protect\BCAY{大木\JBA大山\JBA北内\JBA末永\JBA松本}{大木\Jetal}{2011}]{ookij}大木環美\JBA大山浩美\JBA北内啓\JBA末永高志\JBA松本裕治\BBOP2011\BBCP.\newblock非日本語母国話者の作成するシステム開発文書を対象とした助詞の誤用判定.\\newblock\Jem{言語処理学会第17回年次大会},\mbox{\BPGS\1047--1050}.\bibitem[\protect\BCAY{大曽\JBA杉浦\JBA市川\JBA奥村\JBA小森\JBA白井\JBA滝沢\JBA外池}{大曽\Jetal}{1997}]{oso/97}大曽美恵子\JBA杉浦正利\JBA市川保子\JBA奥村学\JBA小森早江子\JBA白井英俊\JBA滝沢直宏\JBA外池俊幸\BBOP1997\BBCP.\newblock日本語学習者の作文コーパス:電子化による共有資源化.\\newblock\Jem{言語処理学会第3回年次大会論文集},\mbox{\BPGS\131--145}.\bibitem[\protect\BCAY{大山}{大山}{2009}]{oyamaj/09}大山浩美\BBOP2009\BBCP.\newblock日本語学習者コーパスのための誤用タグの構築について.\\newblock\Jem{国文研究},{\Bbf54},\mbox{\BPGS\102--114}.\bibitem[\protect\BCAY{大山\JBA小町\JBA松本}{大山\Jetal}{2012}]{oyamaj/12}大山浩美\JBA小町守\JBA松本裕治\BBOP2012\BBCP.\newblock日本語学習者の作文における誤用タグつきコーパスの構築について—NAIST誤用コーパスの開発—.\\newblock\Jem{第一回テキストアノテーションワークショップ}.\bibitem[\protect\BCAY{Oyama,Komachi,\BBA\Matsumoto}{Oyamaet~al.}{2013}]{oyama/2013}Oyama,H.,Komachi,M.,\BBA\Matsumoto,Y.\BBOP2013\BBCP.\newblock\BBOQTowardsAutomaticErrorTypeClassificationofJapaneseLanguageLearners'Writings.\BBCQ\\newblockIn{\BemProceedingsofthe27thPacificAsiaConferenceonLanguage,Information,andComputation(PACLIC27)},\mbox{\BPGS\163--172},Taipei,Taiwan.\bibitem[\protect\BCAY{Oyama,Matsumoto,Asahara,\BBA\Sakata}{Oyamaet~al.}{2008}]{oyama/08}Oyama,H.,Matsumoto,Y.,Asahara,M.,\BBA\Sakata,K.\BBOP2008\BBCP.\newblock\BBOQConstructionofanErrorInformationTaggedCorpusofJapaneseLanguageLearnersandAutomaticErrorDetection.\BBCQ\\newblockIn{\BemProceedingsoftheComputerAssistedLanguageInstructionConsortium},SanFrancisco,U.S.A.CALICO.\bibitem[\protect\BCAY{清水\JBA宋\JBA孟\JBA杜\JBA壇辻}{清水\Jetal}{2004}]{shimizu/2004}清水政明\JBA宋哲\JBA孟慶栄\JBA杜鳳剛\JBA壇辻正剛\BBOP2004\BBCP.\newblock中国人日本語学習者対訳作文コーパスの構築における誤りタグの構築について.\\newblock\Jem{日本語言文化教学与研究国際学術研討会}.\bibitem[\protect\BCAY{Sun,Liu,Cong,Zhou,Xiong,Lee,\BBA\Lin}{Sunet~al.}{2007}]{sun}Sun,G.,Liu,X.,Cong,G.,Zhou,M.,Xiong,Z.,Lee,J.,\BBA\Lin,C.\BBOP2007\BBCP.\newblock\BBOQDetectingErroneousSentencesusingAutomaticallyMinedSequentialPatterns.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\81--88},Prague,CzechPublic.\bibitem[\protect\BCAY{Suzuki\BBA\Toutanova}{Suzuki\BBA\Toutanova}{2006}]{suzuki/06b}Suzuki,H.\BBACOMMA\\BBA\Toutanova,K.\BBOP2006\BBCP.\newblock\BBOQLearningtoPredictCaseMakersinJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\1049--1056},Sydney,Australia.\bibitem[\protect\BCAY{Swanson\BBA\Yamangil}{Swanson\BBA\Yamangil}{2012}]{swanson}Swanson,B.\BBACOMMA\\BBA\Yamangil,E.\BBOP2012\BBCP.\newblock\BBOQCorrectionDetectionandErrorTypeSelectionasanESLEducationalAid.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(NAACL)},\mbox{\BPGS\357--361},Montreal,Canada.\bibitem[\protect\BCAY{寺嶋}{寺嶋}{2013}]{terashima}寺嶋弘道\BBOP2013\BBCP.\newblock日本語教育におけるコーパスの応用—データ駆動型学習とその実践方法の考察—.\\newblock\Jem{ポリグロシア},\mbox{\BPGS\91--103}.\bibitem[\protect\BCAY{寺村}{寺村}{1972}]{teramuraj72}寺村秀夫\BBOP1972\BBCP.\newblock\Jem{日本語の文法上・下}.\newblock国立国語研究所.\bibitem[\protect\BCAY{寺村}{寺村}{1990}]{teramuraj}寺村秀夫\BBOP1990\BBCP.\newblock外国人学習者の日本語誤用例集接続詞・副詞.\\newblock\JTR,大阪大学・国立国語研究所.\bibitem[\protect\BCAY{Tetreault\BBA\Chodorow}{Tetreault\BBA\Chodorow}{2008}]{joel}Tetreault,J.\BBACOMMA\\BBA\Chodorow,M.\BBOP2008\BBCP.\newblock\BBOQTheUpsandDownsofPrepositionErrorDetectioninESLWriting.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics(COLING2008)},\mbox{\BPGS\865--872},Manchester,U.K.\bibitem[\protect\BCAY{梅田}{梅田}{2005}]{auto_umeda}梅田康子\BBOP2005\BBCP.\newblock学習者の自律性を重視した日本語教育コースにおける教師の役割.\\newblock\Jem{愛知大学言語と文化},{\Bbf12},\mbox{\BPGS\59--77}.\bibitem[\protect\BCAY{王}{王}{2003}]{ou}王国華\BBOP2003\BBCP.\newblock中国人日本語学習者が間違えやすい表現について.\\newblock\Jem{北陸大学紀要},{\Bbf27},\mbox{\BPGS\115--122}.\bibitem[\protect\BCAY{Wilcox-O'Hearn,Hirst,\BBA\Budanitsky}{Wilcox-O'Hearnet~al.}{2008}]{wilcox}Wilcox-O'Hearn,A.,Hirst,G.,\BBA\Budanitsky,A.\BBOP2008\BBCP.\newblock\BBOQReal-wordSpellingCorrectionwithTrigrams:AReconsiderationoftheMays,Damerau,andMercerModel.\BBCQ\\newblockInGelbukh,A.\BED,{\BemProceedingsof9thInternationalConferenceonIntelligentTextProcessingandComputationalLinguistics(CICLing-2008)(LectureNotesinComputerScienceVol.~4919)},\mbox{\BPGS\605--616},Berlin.Springer.\bibitem[\protect\BCAY{Yi,Gao,\BBA\Dolan}{Yiet~al.}{2008}]{yi}Yi,X.,Gao,J.,\BBA\Dolan,W.\BBOP2008\BBCP.\newblock\BBOQAWebBasedEnglishProofingSystemforESLUsers.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalJointConferenceonComputationalLinguistics(IJCNLP2008)},\mbox{\BPGS\619--624},Hyderabad,India.\bibitem[\protect\BCAY{吉永}{吉永}{2013}]{yoshinaga}吉永尚\BBOP2013\BBCP.\newblock「ナイデ」と「ナクテ」の相違について.\\newblock\Jem{園田学園女子大学論文集},{\Bbf47},\mbox{\BPGS\133--140}.\end{thebibliography}\appendix \section{誤用タイプ項目} \label{tbl:goyo-type-koumoku}{\bf助詞(P)}は,助詞の不足,余剰,誤った助詞の選択であり,複合助詞の誤用も含まれる.「に関する」や「について」などの複合助詞はしばしば誤用を引き起こす原因となる.表\ref{tbl:error-type}以外の例として「宇宙{\bfに関した}仕事をする」ではなく「*宇宙{\bfに関して}仕事をする」といった誤用も見られる.これは,「仕事」を修飾しているので,「に関して」ではなく「に関した」とならなければならない.{\bf語彙選択(SEM)}は,一単語内での誤った選択で,ふさわしい語彙を選べなかった(例えば,「国民」を「人民」と書いた)誤りである.表\ref{tbl:error-type}にある例では,誤用は「*{\bf部分}の人」で,正用は「{\bf一部}の人」であり,英語では``somepeople''となる.{\bf表記(NOT)}には,ひらがな,かたかな,漢字に関する誤りなどが入る.{\bf不足(OM)}は,不足している単語,句があれば,このタイプに分類される.日本語において未知の固有名詞について説明するときには「という」をつけるが(例:「Nobu{\bfという}レストランに行きました」),日本語学習者はそれを落としやすい(「*Nobu{\bfφ}レストランに行きました」).ただし,それが「助詞」や「形容詞」などにも入る事例は,そちらを優先する.さらに,「不足の助詞」や「不足の形容詞」の場合,「助詞」や「形容詞」に分類している.判断がつきにくい事例の場合,(例えば,「の」については,複数の用法がある).その場合は「不足」や「余剰」に入れる{\bf動詞(V)}カテゴリーの誤用には,下位分類として動詞の活用,自動詞か他動詞か,受け身の誤り,テンスアスペクトの誤り,「〜ている」の不適切な使用が含まれる.「〜ている」はアスペクトと深く関わる問題であるため,誤用として多く見られる.そのため,上級の日本語学習者でさえ「日本に住んでいる」がなかなか使えず,「*日本に住む」という場合がある.{\bf余剰(AD)}は,余分な単語や表現などの付加を指す.「不足」と同様に,「助詞」や「形容詞」などにも入る事例は,そちらを優先する.判断のつきにくい事例においては,「不足」の場合と同様の扱いをする.日本語学習者は,「*天気が寒くて」という文を作りたがるが,日本語では,「天気が」にわざわざ言及せず,「(今日は)寒くて」とする.{\bf文体(STL)}は,「です・ます体」に関する誤りを指す.日本語の作文では,文末の「です・ます体」か「だ・である体\footnote{論文などの堅い書き言葉ではこちらが好まれる.}」の一致を重要視するため,このような誤りが日本語学習者の作文でしばしば見られる.{\bf名詞化(NOM)}の誤りとは,動詞を名詞化するときの「の」と「こと」に関する誤用である.日本語において,英語の``towatch/watching''などのように名詞化するときに,「の」を使う場合と「こと」を使う場合とがある.例えば,「*趣味は英語をみる{\bfの}です」の文では,「の」は不適切であり,また,「*鳥が飛ぶ{\bfこと}をみました」では,「こと」は不自然となる.「の」と「こと」の使い分けは,文脈によって決まっている.{\bf接続(CONJ)}は,文同士,または単語同士を接続させるときに見られる誤用のことである.日本語では,``because''に相当する表現として,「ので」や「から」があるが,文脈,話し言葉,書き言葉の違いによって使用が異なる.{\bf形容詞(ADJ)}は,形容詞に関係する誤用を指す.形容詞の活用の誤用,選択の誤用などが含まれる.日本語の形容詞は活用するため,活用がない言語を母語に持つ学習者にはこの間違いが多い.表\ref{tbl:error-type}にあるように,「*僕は太{\bfくて}人ですから」は名詞を修飾しているので,「くて」と変換するのは誤りである.実際は,「僕は太{\bfい}人です」としなければならないが,活用の区別がついておらず,「太くて」と書いてしまう学習者が多々いる.{\bf指示詞(DEM)}は,「こ・そ・あ」に関する誤用を指す.他の言語では,この区別が2つしかない場合もあり,日本語学習者にとって使い分けが難しい項目の一つである.{\bf語順(ORD)}は,誤った語順を指す.日本語では助詞があるため文節の出現順が自由である.しかし,名詞と助詞の語順は固定している.例えば,英語のような語順「*より7月」ではなく「7月より」が正しい.{\bfコロケーション(COL)}は,1単語内の誤りである「語彙選択(SEM)」とは異なり,「名詞+助詞+動詞」といった組み合わせについての誤りは,こちらへ分類される.例えば,学習者は「*影響(名詞)+を(助詞)+くれる(動詞)」と書くが,日本人教師は「影響(名詞)+を(助詞)+及ぼす(動詞)」に訂正している.それは3つの要素間の共起関係が影響していると見られる.{\bf``だ''の使用(AUX)}は,日本語の複文における従属節に付与するコピュラ``だ''の不適切な使用を指す.例えば,「$\ast$あの人は,きれいと思います」のような文における「だ」の不使用誤りなどが含まれる.さらに,「*あの人はきれいですと思います」という文もこのタイプに含まれる.{\bf否定(NEG)}は,「打ち消し」の意味を表す表現形式での誤りを指す.これには,否定辞「〜ない」の使用誤りや「なくて」と「ないで」の使い分けの誤りなどが含まれる.表\ref{tbl:error-type}にあるように,否定理由を表す時には「なくて」を使用し(「家にいられ{\bfなくて},外へ行きました」),否定付帯状況を示すときには「ないで」を使用する(「傘をもた{\bfないで},外へ行きました」).{\bf副詞(ADV)}の誤用は,副詞句の使用誤りや副詞語彙の選択誤りなどを指す.形容詞に「に」や「と」を添えて,副詞を作り出すことがある.どちらを使うかはその副詞ごとに決まっている.例えば,「のんびり{\bfと}過ごした」とは言えても,「$\ast$のんびり{\bfに}過ごした」とは言えない.日本語学習者はこの「に」か「と」かで迷う場合が多い.{\bf代名詞(PRON)}に関する誤用は代名詞に関する誤りで,例えば,「$\ast$彼{\bfたち}」は不適切で,「彼{\bfら}」としなくてはならない. \section{誤用タイプ76項目} \begin{table}[h]\vspace{-2\Cvs}\caption{誤用タイプ76項目}\label{tbl:goyo-type-76-koumoku}\input{02table07-1.txt}\end{table}\clearpage\begin{table}[h]\input{02table07-2.txt}\end{table}\clearpage\begin{table}[h]\input{02table07-3.txt}\end{table}\clearpage\begin{table}[h]\input{02table07-4.txt}\par\vspace{4pt}\small*これは\verb|"v"|(動詞)というカテゴリーの中で\verb|"othr"|(others:他の単語)から\verb|"vol"|(volitionalform:意向形)へと添削されたことを示している.\end{table}\clearpage\begin{table}[h]\caption{誤用タイプ76項目におけるタグの説明}\label{tbl:goyo-type-76-koumoku-more}\input{02table08.txt}\end{table}\newpage\begin{biography}\bioauthor{大山浩美}{1998年熊本県立大学大学院日本語日本文学課程修了.2001年イギリスランカスター大学言語学部修士課程修了.2010年奈良先端科学技術大学院大学情報科学研究科博士後期課程指導認定退学.現在,同大学研究員.研究テーマは自然言語処理技術を用いた教育支援,第二言語習得,教育工学,日本語教育などである.日本語教育学会員,日本語文法学会員,教育システム情報学会員.}\bioauthor{小町守}{2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2008年より日本学術振興会特別研究員(DC2).2010年博士後期課程修了.博士(工学).同年より同研究科助教を経て,2013年より首都大学東京システムデザイン学部准教授.大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある.情報処理学会,人工知能学会,言語処理学会,電子情報通信学会,ACL各会員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授.工学博士.専門は自然言語処理.情報処理学会,人工知能学会,言語処理学会,AAAI,ACL,ACM各会員.情報処理学会フェロー.ACLFellow.}\end{biography}\biodate\end{document}
V08N04-02
\section{はじめに} \label{sec:intro}ある程度の長さの文章は,一般的に,複数のトピックからなる.そのような文章を切り分けて,それぞれの切り分けた部分が一つのトピックになるようにすることを,テキスト分割と呼ぶ.テキスト分割は,情報検索や要約などにおいて重要である.まず,情報検索においては,文書全体ではなく,ユーザの検索要求を満す部分(トピック)だけを検索した方が効果的である\cite{hearst93:_subtop_struc_full_lengt_docum_acces,salton96:_autom_text_decom_using_text,mochizuki2000}.また,要約においては,長い文書をトピックに分ければ,それぞれのトピックごとに要約を作成することにより,文書全体の要約を作成できるし,重要なトピックだけを選んで要約を作成することもできる\cite{kan98:_linear_segmen_segmen_signif,nakao00:_algor_one_summar_long_text}.これらの目的のために,多くの手法が研究されている\cite[など]{kozima93:_text_segmen_simil_words,hearst94:_multi_parag_segmen_expos_text,okumura94:_word_sense_disam_text_segmen,salton96:_autom_text_decom_using_text,yaari97:_segmen_expos_texts_hierar_agglom_clust,kan98:_linear_segmen_segmen_signif,choi00:_advan,nakao00:_algor_one_summar_long_text,mochizuki2000}.これらの手法の主な共通点は,これらの手法が,分割対象のテキスト(および辞書やシソーラス)しか分割に利用しないことである.たとえば,\cite{hearst94:_multi_parag_segmen_expos_text}は,テキスト内の単語分布の類似度しか分割に利用しない.言い換えれば,これらの手法は,その手法をテキスト分割に使用するにあたって,訓練データを必要としない.そのため,これらの手法は,訓練データの存在する分野に限られることなく,どんな分野の文章でも分割対象とすることができる.この点は重要である.なぜなら,情報検索や要約が対象とする文書は,分野を限定しない文書であるので,そのような文書に対応するためには,分野を限定しないテキスト分割の手法が必要であるからである.本稿で述べる手法も,これらの従来手法と同様に,訓練データを利用せずに,テキスト内の単語分布のみを利用してテキストを分割する.我々が,訓練データを利用しないテキスト分割手法を採用した理由は,我々が,テキスト分割の結果を利用して,長い文書を要約したり,講演のディクテーション結果を要約することを目的としているからである.そのためには,分野を限定しない(訓練データを利用しない)テキスト分割の方法が必要であるからである.本稿で述べる手法は,テキストの分割確率が最大となるような分割を選択するというものである.このようなアプローチは,分野を限定しないテキスト分割としては,新しいアプローチである.なお,従来の研究で,分野を限定しないテキスト分割の研究では,主に,語彙的な結束性を利用してテキストを分割している.その例としては,意味ネットワーク上での活性伝播に基づく結束性を利用するもの\cite{kozima93:_text_segmen_simil_words}や,単語分布の類似度(コサイン)を結束性としたもの\cite{hearst94:_multi_parag_segmen_expos_text}や,単語の繰り返し状況に基づいて結束性を計るもの\cite{reynar94:_autom_method_findin_topic_bound}や,文間の類似度としてコサインを直接使うのではなくコサインの順位を結束性の指標とするもの\cite{choi00:_advan}などがある.なお,テキスト分割の方法としては,訓練データを利用しない(分野を限定しない)方法の他に,訓練データを利用する方法もある.そのような方法の応用としては,複数ニュースを個々のニュースに分割するものがある\cite{allan98:_topic_detec_track_pilot_study_final_repor}.この場合には,分野が明確であり,また,訓練データも多量にあるので,訓練データを利用したシステムにより,ニュースの境界を推定し分割する手法が主流である\cite[など]{mulbregt98:_hidden_markov_model_approac_text,beeferman99:_statis_model_text_segmen}.しかし,そのような方法は,訓練データが利用できない分野については適用できないので,我々の目的である,テキスト分割の結果を利用して,長い文書を要約したり,講演のディクテーション結果を要約するためのテキスト分割手法としては適さない.以下,\ref{sec:model}章では,テキスト分割のための統計的モデルを述べ,\ref{sec:algorithm}章で,最大確率の分割を選択するアルゴリズムを述べる.\ref{sec:experiments}章では,まず,我々の手法を公開データに基づいて評価することにより,我々の手法が他の手法よりも優れた分割精度を持つことを示し,次に,我々の手法を長い文書に適用した場合の分割精度を述べる.\ref{sec:discussion}章は考察,\ref{sec:conclusion}章は結論である. \section{テキスト分割のための統計的モデル} \label{sec:model}本章では,テキストの分割結果の確率を定義し,それを用いて最大確率であるような分割を定義する.そして,次章で,最大確率であるような分割を選ぶアルゴリズムを示す.本章では,テキスト$W$が与えられたときに,その任意の分割$S$に対して,条件付き確率$\Pr(S|W)$を定義する.$\Pr(S|W)$は,テキスト$W$を条件とする分割$S$の条件付き確率であるので,この値が最大の分割$\hat{S}$を選ぶことにより,$W$が指定された場合の最大確率の分割$\hat{S}$を選ぶことができる.このような分割$\hat{S}$は,テキスト$W$の本来の分割の推定として適当であると考えられる.まず,$n$個の延べ単語からなるテキスト$W=w_1w_2\ldotsw_n$が与えられたとき,$m$個の区間からなる分割$S=S_1S_2\ldotsS_m$の確率$\Pr(S|W)$は,\begin{equation}\label{eq:PrSW}\Pr(S|W)=\frac{\Pr(W|S)\Pr(S)}{\Pr(W)}\end{equation}である.ここで,$\Pr(W|S)$と$\Pr(S)$については,詳しくは,以下で定義するが,$\Pr(W|S)$は,分割$S$が与えられたときに,テキスト$W$が生起する確率であり,$\Pr(S)$は,分割$S$の確率である.また,$\Pr(W)$は,テキスト$W$の確率であるが,これは,$W$が与えられているときには,定数であるから,最大確率の分割を求める際には無視できる.よって,最大確率の分割$\hat{S}$は,\begin{equation}\label{eq:hatS}\hat{S}=\arg\max_S\Pr(W|S)\Pr(S)\end{equation}である.以下では,$\hat{S}$を最適分割と呼ぶことにする.次に,\ref{sec:PrWS}節で$\Pr(W|S)$を定義し,\ref{sec:PrS}節で$\Pr(S)$を定義する.\vspace{3pt}\subsection{$\Pr(W|S)$の定義}\label{sec:PrWS}区間$S_i$に$n_i$個の延べ単語があるとして,$S_i$中の$j$番目の単語を$w^i_j$とし,$W_i=w^i_1w^i_2\ldotsw^i_{n_i}$とする.つまり,$S_i$と$W_i$とを一対一に対応させる.このようにすると,$n=\sum_{i=1}^mn_i$,$W=W_1W_2\dotsW_m$である.このとき,ある区間に属する単語列は,その他の区間には独立に生起するとし,更に,同一区間に属する単語も,区間が与えられているという条件下では確率的に独立であるとすると,\begin{eqnarray}\label{eq:PrWSexpand}\Pr(W|S)&=&\Pr(W_1W_2\ldotsW_m|S)\nonumber\\&=&\prod_{i=1}^m\Pr(W_i|S)\nonumber\\&=&\prod_{i=1}^m\Pr(W_i|S_i)\nonumber\\&=&\prod_{i=1}^m\prod_{j=1}^{n_i}\Pr(w^i_j|S_i)\end{eqnarray}である.この式の,2行目と3行目は,「ある区間に属する単語列は他の区間とは独立に生起する」という仮定から変形でき,最後の行は,「同一区間に属する単語は,その区間が与えられているという条件では,その他の単語と確率的に独立である」という仮定から変形できる.また,$\Pr(W_i|S_i)$は,区間$S_i$で単語列$W_i$が生起する確率であり,$\Pr(w^i_j|S_i)$は,区間$S_i$で単語$w^i_j$が生起する確率である.次に,$W$中における異なり単語の数を$k$,$W_i$において$w^i_j$と同じ単語\footnote{トークンとしては異なるがタイプとしては同じということである.たとえば,$W_i=aababab$のとき,$W_i$中には,同一タイプである$a$が異なるトークンとして4回出現する.よって,$f_i(a)=4$である.}の数を$f_i(w^i_j)$とし,\begin{equation}\label{eq:PrwS}\Pr(w^i_j|S_i)\equiv\frac{f_i(w^i_j)+1}{n_i+k}\end{equation}と定義する.ここで,(\ref{eq:PrwS})式は,ラプラス推定(Laplace'slaw)と呼ばれる確率推定式\cite{manning99:_found_statis_natur_languag_proces}である\footnote{確率推定のその他の方法の一つとして最尤推定がある.最尤推定の場合には,$\Pr(w^i_j|S_i)\equiv\frac{f_i(w^i_j)}{n_i}$と推定できるが,最尤推定の推定精度は,一般に,観測事象の数(この場合には$n_i$)が大きくないと良くないことが知られており,観測事象の数が少ないときには,何らかのスムージングが必要である.ラプラス推定は,そのようなスムージング方法の一つである.たとえば,最尤推定によると,ある区間$S_i$に一回も出現しない単語の確率は,$\frac{0}{n_i}=0$と推定されるが,ラプラス推定では,一回も出現しない単語についても,$\frac{0+1}{n_i+k}>0$の確率が割当てられる.}.なお,$f_i(w^i_j)$は,厳密には,次式で定義される.\begin{eqnarray}\label{eq:f}f_i(w^i_j)\equivg(w^i_j|w^i_1w^i_2\ldotsw^i_{n_i})\end{eqnarray}\begin{eqnarray}\label{eq:g}g(w^i_j|w^i_1w^i_2\ldotsw^i_{n_i})\equiv\sum_{k=1}^{n_i}\delta(w^i_k,w^i_j).\end{eqnarray}ただし,$\delta$については,単語$a$と単語$b$とが同じとき$\delta(a,b)=1$,そうでないとき,$\delta(a,b)=0$である.\subsection{$\Pr(S)$の定義}\label{sec:PrS}分割$S$に対する事前確率$\Pr(S)$の定義に関しては,任意性が大きい.たとえば,同じ区間数からなる分割であっても,各区間の長さが揃っている分割の方を,長さが不揃いの分割よりも優先したい場合には,長さが揃っている分割の事前確率を大きくすべきである.しかし,ここでの我々の仮定は,そのような優先すべき分割がないというものであるので,そのような優先すべき分割を前提としないような事前確率を設定しなくてはならない.我々は,事前確率$\Pr(S)$の設定において,\cite{stolcke94:_best_model_mergin_hidden_markov_model_induc}と同様に,記述長にもとづく事前確率を与えることにした.以下では,分割確率最大化とMDL(MinimumDescriptionLength,最小記述長)原理\cite{yamanishi92}との関係について極く簡単に述べ,その後で,記述長に基づいた$\Pr(S)$の設定について述べる.なお,MDL原理とは,「与えられたデータを,モデル自身の記述も含めて最も短く符号化できるような確率モデルが最良のモデルである」と主張するものである.\subsubsection{分割確率最大化とMDL原理との関係}我々は,確率最大であるような分割を得るために,(\ref{eq:hatS})式の右辺にある\begin{equation}\Pr(W|S)\Pr(S)\end{equation}を最大化しようとしているが,これは,\begin{equation}-\log\Pr(W|S)-\log\Pr(S)\end{equation}を最小化しようとしていることと等価である.このことは,MDL原理の観点からは,分割$S$が与えられたときのテキスト$W$の記述長$-\log\Pr(W|S)$と,分割$S$の記述長$-\log\Pr(S)$との和を最小化しようとしていることになる.なぜなら,一般に,ある事象$X$の確率が$\Pr(X)$のときには,$X$を記述(符号化)するために必要な最小記述長は$-\log\Pr(X)$であるからである.ただし,ここで,$\log$の底は2である.このように,最小記述長であるような分割を選択することと,最大確率であるような分割を選択することとは同等である.\vspace{5pt}\subsubsection{記述長に基づく事前確率}以上の議論の逆から言えば,分割$S$に対して,適当な記述長$l(S)$を割当てた場合には,その記述長を利用して,\begin{equation}\label{eq:dl}\Pr(S)=2^{-l(S)}\end{equation}と定義できる\footnote{このように定義した場合,全ての分割$S$に対する$\Pr(S)$の和は1以下となる.つまり,$\sum_{S}\Pr(S)\le1$となる\cite{yamanishi92}.}.なぜなら,$l(S)=-\log\Pr(S)$であるからである.つまり,分割$S$の記述長を求めることにより,その事前確率を求めることができる.よって,以下では,分割$S$の記述長を求めることにより,その事前確率を求めることにする.ここで,我々に,既に,分割対象のテキストが与えられているとすると,分割$S$を指定するために必要な情報は,各区間の長さ,$n_1,n_2,\ldots,n_m$のみである.たとえば,我々に,既に,$W=abcdefghi$という長さが9のテキストが与えられていると仮定すると,そのテキストの分割を指定するためには,たとえば,2,3,3,1という4つの数字からなる数字列を指定すればよい.そうすれば,$W$を$W=[ab][cde][fgh][i]$のように4分割できる.つまり,我々は,$m$個の区間からなる分割を指定(記述)するためには,$m$個の数字を指定すれば良い.次に,これらの個々の数字は,1以上$n$以下の$n$個のうちの一つであることに注意すると,これらの個々の数字は,$1/n$の確率で選択されると考えることができるので,$\logn$の記述長で記述できる.よって,$m$個の数字を記述するためには,$m\logn$の記述長があれば良い.以上より,$l(S)=m\logn$と計算できる\footnote{このような$m$個の数字を記述するための記述長には,いくつかの変種がある.それらについては,\cite{stolcke94:_best_model_mergin_hidden_markov_model_induc}を参照のこと.}.そのため,$\Pr(S)$は\begin{equation}\label{eq:PrM}\Pr(S)\equivn^{-m}\end{equation}と定義できる.一般的にいって,$\Pr(S)$の値は,分割数が小さいほど大きな値を取る.一方,$\Pr(W|S)$の値は,分割数が大きいほど大きな値を取る.そのため,もし,分割を推定するのに,$\Pr(W|S)$だけを利用した場合には,推定される分割結果は,分割数が大きい分割,すなわち,細かすぎる区間からなる.それに対して,$\Pr(S)$と$\Pr(W|S)$の両方を利用した場合には,両者のバランスの取れた分割が得られる. \section{最適分割を選択するアルゴリズム} \label{sec:algorithm}本章では,分割$S$のコスト$C(S)$を,\begin{equation}\label{eq:costS}C(S)\equiv-\log\Pr(W|S)\Pr(S)\end{equation}と定義し,このコストが最小となる分割$\hat{S}=\arg\min_SC(S)$を選択することにより,最大確率である分割$\hat{S}$を選択する.ここで,$C(S)$は以下のように展開できる.\begin{eqnarray}\label{eq:CS}C(S)&=&-\log\Pr(W|S)\Pr(S)\nonumber\\&=&-\sum_{i=1}^m\sum_{j=1}^{n_i}\log\Pr(w^i_j|S_i)+m\logn\nonumber\\&=&\sum_{i=1}^mc(w^i_1w^i_2\ldotsw^i_{n_i}|n,k).\end{eqnarray}ただし,\begin{eqnarray}\label{eq:cS_i}c(w^i_1w^i_2\ldotsw^i_{n_i}|n,k)&\equiv&\sum_{j=1}^{n_i}\log\frac{n_i+k}{f_i(w^i_j)+1}+\logn\nonumber\\&=&\sum_{j=1}^{\#(w^i_1w^i_2\ldotsw^i_{n_i})}\log\frac{\#(w^i_1w^i_2\ldotsw^i_{n_i})+k}{g(w^i_j|w^i_1w^i_2\ldotsw^i_{n_i})+1}+\logn.\nonumber\\\end{eqnarray}ここで,$\#(\cdots)$は,その引数である単語列の長さ(延べ単語数)である.なお,(\ref{eq:cS_i})式を,その最終行において,$n_i$や$f_i$を使わないで定義する理由は,次節で述べるアルゴリズムにおいて,(\ref{eq:cS_i})式を使うときの便宜を考えてのことである.次に,最小コスト分割(最大確率分割)である$\hat{S}$を求めるアルゴリズムを示す.\subsection{最小コスト分割を求めるアルゴリズム}まず,用語を定義する.延べ語数$n$のテキスト$W=w_1w_2\ldotsw_n$において,$i$番目の分割候補点$g_i$とは,単語$w_{i}$と$w_{i+1}$の間を言う.ただし,$g_0$は$w_1$の直前,$g_n$は$w_n$の直後である.このとき,分割候補点は$g_0,g_1,\ldots,g_n$の$n+1$個ある.また,分割候補点の集合をノード集合とするグラフを考えるとき,$e_{ij}(0\lei<j\len)$は$g_i$から$g_j$への有向辺である.このように定義されたグラフの例を,図\ref{fig:graph}に示す.\hspace*{1em}\begin{figure}[htbp]\begin{center}\atari(125,16)\caption{分割候補点をノードとするグラフ}\label{fig:graph}\end{center}\end{figure}このとき,$e_{ij}$は,単語列$w_{i+1}w_{i+2}\ldotsw_j$をカバーするという.$e_{ij}$は,テキストの,ある一区間$w_{i+1}w_{i+2}\ldotsw_j$を表現している.そのため,$e_{ij}$のコスト$c_{ij}$を,(\ref{eq:cS_i})式を利用することにより,次式で定義する.\begin{equation}\label{eq:costeij}c_{ij}=c(w_{i+1}w_{i+2}\ldotsw_j|n,k)\end{equation}ただし,$k$は,$W$中の異なり単語数である.以上の準備の下で,最小コストを与える最適分割を求める手順は以下の通りである.\begin{description}\item[Step1.]有向辺$e_{ij}$のコスト$c_{ij}$を(\ref{eq:costeij})式により計算する.$(0\lei<j\len).$\item[Step2.]$g_0$から$g_n$までの最小コストパスを求める.\end{description}ここで,Step2を効率的に解くアルゴリズムは良く知られている\footnote{Step2は日本語の形態素解析においてコスト最小解(確率最大の解)を探索するアルゴリズムと同一(実際はより簡単)であるので,DP(DynamicProgramming)を用いて効率的に解くことができる\cite{nagata94:_stoch_japan_morph_analy_using}.また,本稿で述べた手法を実装したプログラムが第1著者より入手できる.なお,DPを用いてテキストを分割する研究としては,\cite{ponte97:_text_segmen_topic,heinonen98:_optim_multi_parag_text_segmen_dynam_progr}がある.}.なお,Step2は,全ての可能なパスの中での大域的な最小コストパスを求めるものであるが,そうする代りに,パスの長さを指定した最小コストパスを求めることもできる.そのようにして求められた最小コストパスは,区間数を指定した場合の最適分割に対応している.このようにして求めた最小コストパスについて,その各辺にカバーされる単語列を,それぞれ一つの区間とすると,それは最適分割である.たとえば,図\ref{fig:graph}で,$e_{01}e_{13}e_{35}$が最小コストパスであるとすると,最適分割は,$[w_1][w_2w_3][w_4w_5]$である.なお,実際にテキストを分割するときには,全ての分割候補点を考慮するのではなく,たとえば,文と文の間でのみテキストを分割したい場合がある.その場合には,分割位置として許される分割候補点の間にのみ有向辺を張るようにすれば良い.そして,そのグラフ上での最小コストパスを探索すれば良い.次節では,我々は,文間のみでテキストが分割されると仮定して議論している.\subsection{最小コスト分割よりも細かい分割をする際の問題点と解決策}\label{eq:rec}前節で述べたように,グラフの最小コストパスを求めることにより,大域的な最小コストパスによる分割だけでなく,区間数を指定した最小コストパスによる分割を求めることもできる.しかし,予備実験の結果から,指定された区間数が,もし,大域的な最小コストパスにより求められる分割の区間数よりも,ある程度以上に大きいときには,1文や2文からなる小さい区間が生じやすいことが判った.このことは,大域的な最小コストパスによる分割のみが必要な場合,あるいは,大域的な最小コストパスによる分割よりも大雑把な分割が必要な場合には問題ではない.しかし,大域的な最小コストパスによる分割よりも細かい分割が必要なときには,問題である.そこで,我々は,大域的な最小コストパスよりも細かい分割が必要なときには,まず,文章全体を大域的な最小コストパスにより分割し,そのあとで,各々の区間を,その区間を一つの文章として,再帰的に分割することにした\footnote{予備実験の結果から,我々の方法は,1000文を越すような長い文章が与えられたときでも,その大域的な最小コストパスによる分割の区間数は10から20程度であることが分かった.それと逆に,新聞の社説のような比較的短いものについても,4から6程度の区間数の分割が最適分割となる場合が多い.この性質は,我々がテキスト分割の結果を要約に利用しようとしているという観点からは望ましいものである.なぜならば,要約においては,文章の長さに関わらず,それを適当に少ないトピックにまとめる必要があるので,分割の結果得られる区間数は,文章の長さに,それほど影響されない方が望ましいからである.なお,このように,我々の手法において,分割の区間数が文章の長さに必ずしも比例しない理由は,(\ref{eq:CS})式の,$m\logn$における$\logn$が,長い文章ほど大きくなるので,長い文章においては,短かい文章よりも分割が抑制されやすいからである.}.このとき,各々の区間を分割するときの区間数は,その区間の長さの,全体の長さにおける割合に比例するようにした.たとえば,1000文からなる文章を20区間に分割したいときに,大域的な最小コストパスにより,200,400,300,100文からなる四つの区間が得られたときには,それぞれの区間を,4,8,6,2だけの区間に分割する.なお,分割数に余りがでるときには,その他の区間よりも大きい区間を,他よりも一つだけ余分に分割するようにした.たとえば,上述の文章を22に分割したいときには,それぞれを,4,8+1,6+1,2だけの区間に分割する.このようにすれば,1文や2文からなる小さい区間が生じにくいようにすることができる\footnote{再帰的分割により細かい分割も妥当にできる定性的な理由は以下の通りである:まず,(\ref{eq:CS})式のコスト関数は,$C(S)=\log\frac{1}{\Pr(W|S)}+\log\frac{1}{\Pr(S)}$である.$C(S)$の第1項をデータのコストと呼び,第2項をモデルのコストと呼ぶことにする.一般に,データのコストは,分割が細かいほど小さくなり,モデルのコストは分割が細かいほど大きくなる.そして,最小コスト解は,これらのバランスがとれたところとなる.ところが分割を最小コスト解よりも細かくすると,モデルのコストがデータのコストよりも大幅に大きくなるため,分割の決定においてデータのコストが反映されにくくなり,妥当な分割が得られなくなる.一方,再帰的に分割したときには,再帰的な分割の対象となる各区間においては,(\ref{eq:CS})式の$m$も$n$も再帰的な分割をする前と比べて小さい値となるため,モデルのコストが小さくなる.そのため,モデルのコストとデータのコストのバランスが取れ,妥当な分割が得られやすくなる.以上をまとめると,\begin{quote}\begin{tabular}{cccl}{\bf再帰前}&データのコスト&$\ll$&モデルのコスト\\&&$\Rightarrow$&データのコストが分割に反映されない\\&&$\Rightarrow$&データを無視した妥当でない分割となる\\{\bf再帰後}&データのコスト&$\sim$&モデルのコスト\\&&$\Rightarrow$&データのコストが分割に反映される\\&&$\Rightarrow$&データを考慮した妥当な分割となる.\end{tabular}\end{quote}}.このプロセスは,必要な分割数が得られるまで再帰的に実行できるが,\ref{sec:exp2}節で必要な,100程度までの分割数に対しては,1回だけの再帰で十分であった.なお,再帰的な分割の効果については,\ref{sec:exp2}節で確認する.\vspace*{5pt} \section{実験} \label{sec:experiments}本章では,まず,実験1で,我々の手法を公開データに基づいて評価することにより,我々の手法が他の手法よりも優れた分割精度を持つことを示し,次に,実験2で,我々の手法を長い文書に適用した場合の分割精度を述べる.二つの実験の本稿全体における位置付けは以下の通りである.まず,実験1の目的は,提案手法と従来手法とを比較することにより,提案手法が,従来手法よりも,テキストを精度良く分割できることを示すことにある.そのため,もし,提案手法と従来手法とを比較したいだけならば,実験1のみで十分である.したがって,本稿の主要な目的である,提案手法の他の手法に対する優位性を示すためには,実験1だけで十分である\footnote{もちろん,この言明は,実験1で用いたデータによる分割結果の精度が,どれほど現実のテキストの分割結果の精度を反映しているかによる.我々は,この分割結果の精度が,そのまま現実のテキストにおける分割結果の精度となることはないとしても,この分割結果で明かになる,テキスト分割システムの精度の順位は,現実のテキストにおいても反映されると考えている.また,現在,我々が入手可能なデータの中では,実験1に用いたデータが,最も包括的に従来手法を網羅しているため,各種手法を比較するテストベッドとしては妥当であると考える.}.しかし,我々の最終的な目的は,テキスト分割の結果を,長い文書の要約\cite{nakao00:_algor_one_summar_long_text}や講演のディクテーション結果の要約に使うことであるので,その目的のために,提案手法が,どれほど役に立つかを調べたい.そのために,実験2においては,提案手法による分割が,どの程度,元の文書の章や節と一致するかを調べることにより,提案手法の,長い文書を要約するときへの応用の可能性を把握することを目的とする.そのため,実験2の位置付けは,今後我々の手法を実際の応用へと適用させるための前段階と考えている.我々は,将来的には,何らかのタスクに基づいて提案手法を評価することを考えている.\subsection{実験1:公開データによる評価}\label{sec:exp1}実験1で用いたデータは,\cite{choi00:_advan}により,各種のテキスト分割手法を比較するために用いられたデータである\footnote{{\tthttp://www.cs.man.ac.uk/\~{}choif/software/C99-1.2-release.tgz}より入手可能である.このパッケージを展開したときにできる{\ttnaacl00Exp/data/\{1,2,3\}/\{3-11,3-5,6-8,9-11\}/*}を実験に用いた.}.Choiは,彼の提案手法$C99$と,TextTiling\cite{hearst94:_multi_parag_segmen_expos_text},DotPlot\cite{reynar98:_topic},Segmenter\cite{kan98:_linear_segmen_segmen_signif}を比較し,$C99$では,他の手法と比較し,誤り確率が半減されたと述べている.ただし,誤り確率とは,テキストを構成する単位(単語,文,パラグラフ等)について,任意に選んだ$r$単位だけ離れた二つの単位が誤って分割される確率のことである.ここで,$r$は,正しい分割における各区間の長さの平均の半分が良いとされている\cite{beeferman99:_statis_model_text_segmen}.なお,実験1における$r$の単位は単語である.また,誤り確率が低いほど精度は良い.この実験データは,700個のテキストからなり,個々のテキストは,10個のテキスト断片を連結したものである.そして,それぞれのテキスト断片は,BrownCorpusからランダムサンプリングされたテキストの最初の$s$行である.個々のテキストは,$s$により特徴付けられる.表\ref{tab:testcorpus}には,実験データの諸元を示す.\begin{table}[htbp]\begin{center}\caption{実験データの諸元\protect{\cite{choi00:_advan}}}\begin{tabular}{|l|c|c|c|c|}\hline$s$の範囲&$3-11$&$3-5$&$6-8$&$9-11$\\\hlineテキスト数&400&100&100&100\\\hline\end{tabular}\label{tab:testcorpus}\end{center}\end{table}各テキストは,Choiのパッケージにあるライブラリを利用したstemmerにより正規化され,その正規化されたテキストが提案手法により分割された.ただし,分割可能な位置は,\cite{choi00:_advan}と同様に,文間のみである.その後,分割されたテキストの誤り確率は,Choiのパッケージにある評価プログラムにより計算された.その評価結果を表\ref{tab:U00vsC99}と表\ref{tab:U00bvsC99b}に示す.これらの表において,$U00$は,提案手法において,大域的な最小コスト分割を求めたときの評価結果であり,$U00_{(b)}$は,提案手法において,区間数を10に指定\footnote{この際には,\ref{eq:rec}節で述べた再帰的分割は適用していない.}したときの評価結果である.また,$C99$は,Choiのアルゴリズムによる最適分割の評価結果であり,$C99_{(b)}$は,Choiのアルゴリズムにおいて区間数を10に指定した場合の評価結果である\footnote{表\ref{tab:U00bvsC99b}の$C99_{(b)}$の行にある数値は,\cite{choi00:_advan}のTable6のものと若干異なる.その理由は,元々の数値は500のサンプルテキストに基づいたものであるのに対して,この表のものは,700のサンプルに基づいて我々が再実験した結果だからである(Choi,personalcommunication).なお,\cite{choi00:_advan}で使われた500サンプルにおける$C99_{(b)}$の誤り確率は以下の表のものである.\begin{tabular}{|c|cccc|c|}\hline&$3-11$&$3-5$&$6-8$&$9-11$&全体\\\hline$C99_{(b)}$&12\%&12\%&9\%&9\%&12\%\\\hline\end{tabular}}.また,二つの表において,$**$は,比較対象であるアルゴリズムの誤り確率が$t$検定により,有意水準1\%で有意差があることを示す.なお,「$3-11$」などの列の数字は,それに該当するテキストにおける誤り確率の平均であり,「全体」は,全部のテキストについての誤り確率の平均である.\begin{table}[htbp]\begin{center}\caption{分割数をプログラムが決めた場合の誤り確率の比較}\begin{tabular}{|c|cccc|c|}\hline&$3-11$&$3-5$&$6-8$&$9-11$&全体\\\hline$U00$&11\%$^{**}$&13\%$^{**}$&6\%$^{**}$&6\%$^{**}$&10\%$^{**}$\\$C99$&13\%&18\%&10\%&10\%&13\%\\\hline\end{tabular}\label{tab:U00vsC99}\end{center}\end{table}\begin{table}[htbp]\begin{center}\caption{分割数が指定された場合の誤り確率の比較}\begin{tabular}{|c|cccc|c|}\hline&$3-11$&$3-5$&$6-8$&$9-11$&全体\\\hline$U00_{(b)}$&10\%$^{**}$&9\%&7\%$^{**}$&5\%$^{**}$&9\%$^{**}$\\$C99_{(b)}$&12\%&11\%&10\%&9\%&11\%\\\hline\end{tabular}\label{tab:U00bvsC99b}\end{center}\end{table}これらの表から,提案手法が,$C99$あるいは$C99_{(b)}$と,同等あるいは,より精度良くテキストを分割できると言える.そして,$C99$あるいは$C99_{(b)}$は,分野非依存のテキスト分割手法のなかでは,その他の従来手法よりも精度良くテキストを分割できるので,我々の提案手法が,従来手法よりも精度良くテキストを分割できることが言える.\subsection{実験2:長い文書の章や節との一致度による評価}\label{sec:exp2}実験2では,比較的長い文章を分割し,その分割結果と元々の章や節による分割とを比較することにより,提案手法を評価した.実験に用いたデータは,文部省年報\footnote{{\tthttp://wwwwp.mext.go.jp/download.html}よりダウンロードできる.}である.我々がこのデータを用いた理由は,それが公開されているということに加えて,SGMLでタグ付けされているため,付録に示す簡単なPerlスクリプトにより章(chapter)や節(section)を切り出せるためである\footnote{このPerlスクリプトにより切り出せないものもある.実験に用いたものは,このスクリプトにより処理可能なものである.}.\begin{table}[htbp]\begin{center}\caption{文部省年報の諸元}\begin{tabular}{|c|ccc|}\hline&章の数&節の数&ページ数\\\hline昭和60年度&13&63&62\\昭和62年度&22&96&109\\昭和63年度&13&65&52\\平成元年度&13&64&54\\平成2年度&13&64&55\\\hline\end{tabular}\label{tab:monbu}\end{center}\end{table}表\ref{tab:monbu}には,実験に用いた文部省年報の諸元を示す.表で,章や節の数は,元のファイルでの章や節の数を数えたものであるが,ページ数は,我々が,元テキストをポストスクリプトファイルに変換して数えたものであるので,一応の目安と考えておくのが良い.表\ref{tab:monbu}に示す文部省年報には,以下の前処理が加えられた.まず,付録のスクリプトを用いて,章や節を切り出した結果から,分割位置を示す記号を除いたテキストを得た.次に,そのテキストに対して,ChaSenversion2.25\cite{matsumoto99:_japan_morph_analy_system_chasen_manual}を適用し,その結果から,ChaSenの品詞体系における「名詞」「未知語」「記号-アルファベット」「接頭詞」に該当するもののみを抽出し,提案手法への入力とした.ただし,名詞のうちで,その下位分類が「数」「代名詞」「非自立」「特殊」「接続詞的」「動詞非自立的」に該当するものは除いた.また,平仮名だけからなる形態素も除いた.なお,このときの分割可能な位置はスクリプトの出力結果の各行の終りである.これは,段落の間で分割していることに相当する.表\ref{tab:chap},表\ref{tab:secnorec},表\ref{tab:secrec}には,このようにして得られたテキストを,分割対象の章や節の数を指定して,分割したときの精度を示す.ここで,表のタイトルに付記している再帰的分割とは,\ref{eq:rec}節で述べた再帰的方法により分割した場合を示し,非再帰的分割とは,再帰的分割をしていない場合を示す.また,精度とは,\begin{displaymath}\frac{元の章や節と一致した分割位置の数}{章や節の分割位置の総数}\end{displaymath}である.ただし,章や節の数を$n$とすると,分割位置の数は,$n-1$である.なお,本実験で分割数を指定している理由は,本実験の目的が,指定された粒度の分割をどの程度の精度で実現できるかを調べることにあるからである.粒度を指定した分割は,長い文書から,必要に応じた長さの要約を得るときに重要である\cite{nakao00:_algor_one_summar_long_text}.\begin{table}[htbp]\begin{center}\caption{分割結果と章の区切れとの対応(非再帰的分割)}\begin{tabular}{|c|ccc|}\hline&章の数&±1の精度&±0の精度\\\hline昭和60年度&13&0.42(0.019)&0.33(0.006)\\昭和62年度&22&0.52(0.021)&0.29(0.007)\\昭和63年度&13&0.50(0.021)&0.42(0.007)\\平成元年度&13&0.50(0.020)&0.42(0.007)\\平成2年度&13&0.50(0.020)&0.42(0.007)\\\hline平均&&0.49(0.020)&0.37(0.007)\\\hline\end{tabular}\label{tab:chap}\end{center}\end{table}\begin{table}[htbp]\begin{center}\caption{分割結果と節の区切れとの対応(非再帰的分割)}\begin{tabular}{|c|ccc|}\hline&節の数&±1の精度&±0の精度\\\hline昭和60年度&63&0.29(0.10)&0.13(0.033)\\昭和62年度&96&0.17(0.10)&0.07(0.032)\\昭和63年度&65&0.34(0.11)&0.16(0.038)\\平成元年度&64&0.37(0.11)&0.19(0.036)\\平成2年度&64&0.38(0.11)&0.18(0.036)\\\hline平均&&0.31(0.10)&0.14(0.035)\\\hline\end{tabular}\label{tab:secnorec}\end{center}\end{table}\begin{table}[htbp]\begin{center}\caption{分割結果と節の区切れとの対応(再帰的分割)}\begin{tabular}{|c|ccc|}\hline&節の数&±1の精度&±0の精度\\\hline昭和60年度&63&0.50(0.10)&0.31(0.033)\\昭和62年度&96&0.45(0.10)&0.32(0.032)\\昭和63年度&65&0.48(0.11)&0.28(0.038)\\平成元年度&64&0.56(0.11)&0.38(0.036)\\平成2年度&64&0.57(0.11)&0.40(0.036)\\\hline平均&&0.51(0.10)&0.34(0.035)\\\hline\end{tabular}\label{tab:secrec}\end{center}\end{table}これらの表において,「±0の精度」とは,システムによる分割位置が,元文書の分割位置と正確に同一な場合を一致としたときの精度である.また,「±1の精度」とは,正確に同一な場合に加えて,前後1行のずれまでを許容して一致としたときの精度である.なお,それぞれの精度を示す列において,括弧内の数値は,精度のベースライン\begin{equation}\label{eq:bl}\frac{テキストにおいて一致と判定する許容範囲のサイズの合計}{テキストのサイズ}\end{equation}である\cite{nakao99}\footnote{\cite{nakao99}では,(\ref{eq:bl})式を再現率のベースラインとしているが,本実験の場合には,分割数を指定しているので,再現率と精度が一致する.}.ただし,本実験の場合には,サイズは行数でカウントする.まず,表\ref{tab:chap}における,章の数を分割数としたときの分割精度を見る.表\ref{tab:chap}では,±1の精度の平均が0.49であり,±0の精度の平均が0.37である.ここで,\cite{reynar99:_statis_model_topic_segmen}では,英文テキスト4文書について,彼の手法による分割結果が,平均0.25の精度で章の区切れと一致することを述べていて,\cite{nakao00:_algor_one_summar_long_text}では,ベースラインが0.005〜0.01のとき,F値\footnote{これは,我々の精度に相当する.なお,F値(=$\frac{2\times再現率\times適合率}{再現率+適合率}$)は,\cite{nakao00:_algor_one_summar_long_text}のTable3から計算で求めた.}が,0.31〜0.39である.これらの結果は,±0の精度に対応するが,テキストが違うため,直接比較することは不可能である.しかし,数値だけを比較するならば,我々の方法は,章の分割に関しては,これらの方法と比べて,少なくとも同等程度に章の区切れを再現していると考える.次に,節の数を指定したときの分割精度を表\ref{tab:secnorec}と表\ref{tab:secrec}に示す.また,表\ref{tab:num}には,最小コスト解による分割数と章や節の数とを示す.表\ref{tab:secnorec}は,再帰をせずに,分割数を指定して分割したときの精度を示している.このとき,±1の精度の平均が0.31であり,±0の精度の平均が0.14である.一方,再帰的分割をしたときには,表\ref{tab:secrec}に示すように,±1の精度の平均が0.51であり,±0の精度の平均が0.34である.これから分かるように,最小コスト解よりも粒度の細かい分割が必要なときには,再帰的分割をした方が精度良く分割ができる.なお,\cite{nakao00:_algor_one_summar_long_text}では,ベースラインが0.035のときにF値が0.29であるので,再帰的分割による方法は,\cite{nakao00:_algor_one_summar_long_text}と比べて,少なくとも同等程度に節の区切れを再現していると考える.\begin{table}[htbp]\begin{center}\caption{最小コスト解による分割数と章や節の数}\begin{tabular}{|c|ccc|}\hline&最小コスト解による分割数&章の数&節の数\\\hline昭和60年度&13&13&63\\昭和62年度&12&22&96\\昭和63年度&11&13&65\\平成元年度&12&13&64\\平成2年度&12&13&64\\\hline\end{tabular}\label{tab:num}\end{center}\end{table}\vspace*{20pt} \section{考察と今後の課題} \label{sec:discussion}提案手法は,分割確率最大化という観点からテキスト分割を定式化した.これに類似の手法として,訓練データを利用したテキスト分割では,\cite{mulbregt98:_hidden_markov_model_approac_text}が隠れマルコフモデルに基づいて,複数ニュースを個々のニュースに分割しているが,訓練データを利用しないテキスト分割では,類似の研究はない.また,\cite{mulbregt98:_hidden_markov_model_approac_text}についても,彼等は,テキストの分割確率を直接扱っているのではなく,各単語を生起させるようなトピックを単語毎に求め,同一トピックの単語が連続する部分を同一トピックとする,という間接的アプローチをとっている.そのため,彼等のアプローチでは,たとえば,トピックの平均の長さなどを直接取り込むことが難しい.一方,我々のアプローチでは,このことは素直に表現できる.たとえば,\cite{ponte97:_text_segmen_topic}と同様に,トピックの長さ$x$が,平均長$\mu$,標準偏差$\sigma$の正規分布$N(x|\mu,\sigma)$に従うと仮定すると,単純な拡張としては,(\ref{eq:cS_i})式を,$\alpha+\beta+\gamma=1$として,以下のようにすれば,トピックの長さが平均と同じくなるような分割が優先される.\begin{eqnarray}c(w^i_1w^i_2\ldotsw^i_{n_i}|n,k,\mu,\sigma,\alpha,\beta,\gamma)&=&\alpha\sum_{j=1}^{\#(w^i_1w^i_2\ldotsw^i_{n_i})}\log\frac{\#(w^i_1w^i_2\ldotsw^i_{n_i})+k}{g(w^i_j|w^i_1w^i_2\ldotsw^i_{n_i})+1}+\beta\logn\nonumber\\&&+\gamma\log\frac{1}{N(\#(w^i_1w^i_2\ldotsw^i_{n_i})|\mu,\sigma)}.\nonumber\end{eqnarray}更に,彼等の手法と我々の手法との大きな違いは,彼等が単語の確率を訓練データから推定しているのに対して,我々は,単語の確率を分割対象のテキストから推定している点である.なお,訓練データが利用可能な場合に,彼等の手法と我々の手法とを比較することは興味深いであろう.その場合には,上式で示したような,トピックの長さをコスト関数として取り込むことや,種々の手がかり表現をコスト関数に取り込むことも検討したい.次に,提案手法のテキスト分割における特徴としては,\ref{eq:rec}節で述べたように,長い文章でも短かい文章でも,分割数が,大幅には変動しないというものがある.これは,短かい文章は,細かい粒度で分割し,長い文章は大雑把な粒度で分割するということである.この性質は,我々がテキスト分割をする目的が要約のため,という観点からは適した性質である.なぜなら,要約では,文章の長さに関わらず,それを適当に少ないトピックにまとめる必要があるので,分割の結果得られる区間数は,文章の長さに,それほど影響されない方が望ましいからである.しかし,応用によっては,任意に指定した粒度の分割が望ましい場合もあると考えられる.そのために,我々は,本稿では,大域的な最小コスト解よりも細かい分割が必要な場合には,再帰的な分割を適用し,それは有効ではあったが,より有効な分割方法を考えることは今後の課題としたい.そのための見込みのある方法の一つは,\cite{nakao99}で提案されているように,分割したい粒度に応じて窓の大きさを設定し,その窓内を一つの文章としてテキストを分割することである.最後に,提案手法によると,テキストの分割の結果として,テキストの各区間における単語の確率(密度)が自然に求まる.このような密度は,重要単語の抽出\cite{bookstein95:_detec_conten_words_serial_clust}や,重要説明箇所の特定\cite{kurohashi97}に有用であることが知られている.提案手法を,このようなアプリケーションに対して適用することも興味深い. \section{おわりに} \label{sec:conclusion}我々は,本稿において,分割確率最大化という観点から,テキスト内の情報のみを用いて,テキストを分割する手法を提案した.提案手法は,従来の手法と比べて,同等以上の精度でテキストを分割することができた.このことは提案手法がテキストの分割に有用であることを示している.我々は,今後,実際の応用におけるテキスト分割の有効性を調べることを考えている.\appendix\subsection*{章や節の切り出しに用いたPerlスクリプト}\footnotesize\begin{verbatim}##perlnpaa-div.pl(chapter|section)<file.sgm##ファイルの第1部(part)のchapterまたはsectionに相当する部分を#抜き出して,区切り(================)を入れるプログラム.#$type=shift;#typeiseither'chapter'or'section'while(<>){if(m&<part>&i){while(<>){lastifm&</part>&i;if(m&<$type&i){print"================\n";while(<>){lastifm&</$type>&i;unless(m&^<&i){s/&.+?;//g;s/\r//g;print;}}redoifm&<$type&i;}}last;}}print"================\n";\end{verbatim}\normalsize\bibliographystyle{jnlpbbl}\bibliography{seg}\normalsize\begin{biography}\biotitle{略歴}\bioauthor{内山将夫}{筑波大学第三学群情報学類卒業(1992).筑波大学大学院工学研究科博士課程修了(1997).博士(工学).信州大学工学部電気電子工学科助手(1997).郵政省通信総合研究所非常勤職員(1999).独立行政法人通信総合研究所任期付き研究員(2001).言語処理学会,情報処理学会,ACL,人工知能学会,日本音響学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所.現在、独立行政法人通信総合研究所けいはんな情報通信融合研究センター自然言語グループリーダー.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V25N02-03
\section{はじめに} \label{sec:introduction}難解なテキストの意味を保持したまま平易に書き換えるテキスト平易化は,言語学習者や子どもをはじめとする多くの読者の文章読解を支援する.近年,テキスト平易化を同一言語内の翻訳問題と考え,統計的機械翻訳を用いて入力文から平易な同義文を生成する研究\cite{specia-2010,zhu-2010,coster-2011b,coster-2011a,wubben-2012,stajner-2015a,stajner-2015b,goto-2015}が盛んである.しかし,異言語間の機械翻訳モデルの学習に必要な異言語パラレルコーパスとは異なり,テキスト平易化モデルの学習に必要な単言語パラレルコーパスの構築はコストが高い.これは,日々の生活の中で対訳(異言語パラレル)データが大量に生産および蓄積されるのとは異なり,難解なテキストを平易に書き換えることは自然には行われないためである.そのため,公開されておりテキスト平易化のために自由に利用できるのは,EnglishWikipedia\footnote{http://en.wikipedia.org}とSimpleEnglishWikipedia\footnote{http://simple.wikipedia.org}から構築された英語のパラレルコーパス\cite{zhu-2010,coster-2011a,hwang-2015}のみであるが,SimpleEnglishWikipediaのように平易に書かれた大規模なコーパスは英語以外の多くの言語では利用できない.そこで本研究では,任意の言語でのテキスト平易化を実現することを目指し,生コーパスから難解な文と平易な文の同義な対(テキスト平易化のための疑似パラレルコーパス)を抽出する教師なし手法を提案し,獲得した疑似パラレルコーパスと統計的機械翻訳モデルを用いて英語および日本語でのテキスト平易化を行う.図~\ref{fig:abstract}に示すように,我々が提案するフレームワークでは,リーダビリティ推定と文アライメントの2つのステップによって生コーパスからテキスト平易化のための疑似パラレルコーパスを構築する.大規模な生コーパスには,同一の(あるいは類似した)イベントや事物に対する複数の言及や説明が含まれると期待でき,それらからは同義や類義の関係にある文対を得ることができるだろう.さらに我々はリーダビリティ推定によって難解な文と平易な文を分類するので,生コーパスから難解な文と平易な文の同義な対を抽出することができる.\begin{figure}[t]\begin{center}\includegraphics{25-2ia3f1.eps}\end{center}\caption{疑似パラレルコーパスと統計的機械翻訳モデルを用いたテキスト平易化}\label{fig:abstract}\end{figure}我々は2つの設定で提案手法の効果を検証した.まず先行研究と同様に,難解なテキストと平易なテキストのコンパラブルコーパスからテキスト平易化のためのパラレルコーパスを構築した.我々の提案する文アライメント手法は難解な文と平易な文のアライメント性能を改善し,高品質にテキスト平易化コーパスを構築できた.さらに,我々のコーパスで学習したモデルは従来のコーパスで学習したモデルよりもテキスト平易化の性能も改善できた.次に,コンパラブルコーパスを利用しない設定で,生コーパスのみからテキスト平易化のための疑似パラレルコーパスを構築し,フレーズベースの統計的機械翻訳モデルを用いてテキスト平易化を行った.平易に書かれた大規模コーパスを使用しないにも関わらず,疑似パラレルコーパスで学習したモデルは従来のコーパスで学習したモデルと同等の性能で平易な同義文を生成することができた.本研究の貢献は次の2つである.\begin{itemize}\item単語分散表現のアライメントに基づく文間類似度を用いて,難解な文と平易な文の文アライメントを改善した.\item生コーパスのみから教師なしで擬似パラレルコーパスを自動構築し,これがコンパラブルコーパスから得られる従来のパラレルコーパスと同等に有用であることを確認した.\end{itemize}これまでは,人手で構築された難解な文と平易な文のパラレルコーパス\footnote{https://newsela.com/data/}\cite{xu-2015},平易に書かれた大規模なコーパス(SimpleEnglishWikipedia),文間類似度のラベル付きデータ\footnote{http://ixa2.si.ehu.es/stswiki/index.php/Main\_Page}\cite{agirre-2012,agirre-2013,agirre-2014,agirre-2015},言い換え知識\footnote{https://www.seas.upenn.edu/{\textasciitilde}epavlick/data.html}\cite{ganitkevitch-2013,pavlick-2015,pavlick-2016}などの言語資源が豊富に存在する英語を中心にテキスト平易化の研究が進められてきたが,本研究ではこれらの外部知識を利用することなく生コーパスのみからテキスト平易化のための疑似パラレルコーパスを自動構築し,統計的機械翻訳を用いたテキスト平易化における有用性を確認した.生コーパスは多くの言語で大規模に利用できるので,今後は本研究の成果をもとに多くの言語でテキスト平易化を実現できるだろう.本稿の構成を示す.2節では,関連研究を紹介する.3節では,生コーパスから擬似パラレルコーパスを構築する提案手法を概説する.4節では,テキスト平易化のための文アライメントとして,単語分散表現のアライメントに基づく文間類似度推定手法を提案する.続いて,5節から7節で実験を行う.まず5節では,4節の提案手法を評価し,テキスト平易化のための最良の文アライメント手法を決定する.6節では,3節から5節に基づき,英語の疑似パラレルコーパスを構築し,テキスト平易化を行う.7節では,同様に日本語の疑似パラレルコーパスを構築し,テキスト平易化を行う.最後に8節で,本研究のまとめを述べる. \section{関連研究} \label{sec:related_work}\subsection{統計的機械翻訳を用いたテキスト平易化}2010年以降,統計的機械翻訳を用いたテキスト平易化の研究が盛んである.特に英語では,EnglishWikipediaとSimpleEnglishWikipediaをコンパラブルコーパスと考え,ここから抽出された単言語パラレルコーパス\cite{zhu-2010,coster-2011a,hwang-2015}とフレーズベースの統計的機械翻訳モデルを用いたテキスト平易化\cite{zhu-2010,coster-2011b,coster-2011a,wubben-2012,stajner-2015a}が盛んに研究されている.\citeA{coster-2011a}は,標準的なフレーズベースの統計的機械翻訳ツールMoses\cite{koehn-2007}を用いて英語のテキスト平易化を行った.本研究でも,同じくMosesを用いてテキスト平易化を行うが,我々は任意の言語でのテキスト平易化を実現することを目的に,SimpleEnglishWikipediaに頼ることなくEnglishWikipediaのみから構築する疑似パラレルコーパスでモデルを学習する.\subsection{テキスト平易化のための単言語パラレルコーパス}これまでに3種類の英語のテキスト平易化のための単言語パラレルコーパスが,EnglishWikipediaとSimpleEnglishWikipediaの文アライメントによって構築されている.\citeA{zhu-2010}は,文をTF-IDFベクトルとして表現し,そのベクトル間のコサイン類似度を用いて初めてテキスト平易化のための単言語パラレルコーパス\footnote{https://www.ukp.tu-darmstadt.de/data/sentence-simplification/simple-complex-sentence-pairs/}を構築した.\citeA{coster-2011a}は,TF-IDFベクトル間のコサイン類似度に加えて文の出現順序を考慮することで,より高精度にテキスト平易化コーパス\footnote{http://www.cs.pomona.edu/{\textasciitilde}dkauchak/simplification/}を構築した.しかし,Zhuetal.やCosterandKauchakの手法では,異なる単語間の類似度を考慮していない.難解な表現から平易な表現への書き換えが頻繁に行われるテキスト平易化タスクにおいては,異なる単語間の類似度も適切に測定したい.\citeA{hwang-2015}は,国語辞典の見出し語と定義文中の単語の共起を用いて,異なる単語間の類似度も考慮してテキスト平易化コーパス\footnote{http://ssli.ee.washington.edu/tial/projects/simplification/}を構築した.本研究では,単語分散表現を用いることで辞書などの外部知識に頼らず異なる単語間の類似度を考慮する文アライメントを行う.\subsection{文間類似度推定}文間の意味的類似度を計算するSemanticTextualSimilarity(STS)タスク\cite{agirre-2012,agirre-2013,agirre-2014,agirre-2015}では,単語分散表現の成功を受け,異なる単語間の類似度を考慮する手法が提案されている.SemEval-2015のSTSタスク\cite{agirre-2015}では,word2vec\cite{mikolov-2013a}の単語分散表現やPPDB:paraphrasedatabase\cite{ganitkevitch-2013}の言い換えを用いた単語アライメントに基づく教師あり学習の手法\cite{sultan-2015,hanig-2015,han-2015}が上位を独占している.同じくword2vecの単語分散表現のアライメントに基づく教師なしの文間類似度計算手法\cite{song-2015,kusner-2015}も提案されている.文間類似度のラベル付きデータを必要としないこれらの教師なし手法は,テキスト平易化のための単言語パラレルコーパスの自動構築にも応用できる.\subsection{リーダビリティ推定}テキストの可読性を評価するリーダビリティ尺度としては,FleschReadingEaseFormula\cite{flesch-1948}やFlesch-KincaidGradeLevel\cite{kincaid-1975}がよく知られている.これらはいずれも,単語数と音節数を用いてリーダビリティを計算する.また,単語数に加えて難解な表現が出現する割合を考慮するDale-ChallReadabilityFormula\cite{chall-1995}や言語モデルに基づく手法\cite{collins-2004}も提案されている.これらの研究は英語を対象としているが,リーダビリティ尺度は言語ごとに開発されており,例えば日本語では\citeA{shibasaki-2010},\citeA{sato-2011},\citeA{fujita-2015b}の研究がある.本研究ではシンプルなリーダビリティ尺度を採用するが,我々の提案するフレームワークに基づいて,リーダビリティ推定のステップには任意のリーダビリティ尺度を適用できる.\subsection{テキスト平易化の評価}統計的機械翻訳を用いたテキスト平易化\cite{specia-2010,zhu-2010,coster-2011b,coster-2011a,wubben-2012,stajner-2015a,stajner-2015b,goto-2015}では,機械翻訳のための評価尺度であるBLEU\cite{papineni-2002}による自動評価が一般的である.BLEUではリファレンスとの比較によって出力文の意味や文法の正しさを評価するが,テキスト平易化では入力文よりも平易な文を出力したいため,入力文と出力文の比較も行いたい.本研究では,テキスト平易化のために新たに提案されたSARI\cite{xu-2016}による自動評価も行う.SARIは入力文と出力文とリファレンスの3つを用いる自動評価尺度であり,特に平易さの観点でBLEUよりも人手評価との相関が高いことが知られている.\begin{figure}[b]\begin{center}\includegraphics{25-2ia3f2.eps}\end{center}\caption{品質推定を用いた生コーパスからの疑似パラレルコーパス構築}\label{fig:framework}\end{figure} \section{生コーパスから疑似パラレルコーパスを構築するためのフレームワーク} \label{sec:raw2parallel}本研究では,生コーパスからテキスト平易化のための疑似パラレルコーパスを自動構築するフレームワークを提案する.これは,より一般的には図\ref{fig:framework}のように説明できる.生コーパスから無作為に抽出した2つの文に対して,タスクに応じた品質推定を行い,一定以上の尤度を持つ文対を擬似パラレルコーパスとして抽出する.品質推定\cite{stajner-2016}とは入力文と出力文の比較によってリファレンスなしで出力文を評価する技術の総称であり,テキストからのテキスト生成タスク,特に機械翻訳\cite{callisonburch-2012,bojar-2013,bojar-2014,bojar-2015,bojar-2016}を中心に研究されている.図\ref{fig:framework}に戻ると,品質推定のステップでは言い換え生成であれば2文間の同義性を評価し,文圧縮であれば2文間の同義性および文Aに対する文Bの圧縮率を評価し,応答文生成であれば文Aを質問文として文Bの応答文らしさを評価する.このように,タスクごとの品質推定を高精度に実現できれば,このフレームワークを用いてタスクに応じた疑似パラレルコーパスを生コーパスから抽出できる.本研究では,テキスト平易化のための疑似パラレルコーパスを構築したい.テキスト平易化は意味を保持したまま平易に書き換えるタスクなので,図\ref{fig:framework}における品質推定のステップでは,各文の難易度および2文間の同義性を評価する.我々は文の難易度を評価するために,各言語で開発されているリーダビリティ尺度を用いる.各文に対してリーダビリティ推定を行い,絶対的あるいは相対的なリーダビリティの高低がわかれば,続いてリーダビリティの低い難解な文とリーダビリティの高い平易な文の同義性を評価する.一般に長い文よりも短い文の方が読みやすいので,テキスト平易化では難解な表現から平易な表現への言い換えの他に,重要ではない表現の省略も頻繁に行われる\cite{xu-2015}.そのため,テキスト平易化における同義性は,言い換えタスクのような相互に置換可能な「同義性」には限定されない.そこで我々は,\ref{sec:sentence_alignment}節で説明する意味的文間類似度を用いて2文間の同義性を評価する.最終的に,難解な文と平易な文の対であり,かつ類似度が高い文対のみをテキスト平易化のための擬似パラレルコーパスとして採用する. \section{単語分散表現のアライメントに基づく文間類似度を用いた文アライメント} \label{sec:sentence_alignment}難解な文と平易な文の同義性を評価するために,我々は単語分散表現のアライメントに基づく4種類の文間類似度の計算手法を提案する.\ref{subsec:ave_alignment}節から\ref{subsec:hun_alignment}節で説明する手法は,\citeA{song-2015}によって提案された単語分散表現のアライメントに基づく文間類似度の計算手法を本タスクに応用するものである.\ref{subsec:wmd_alignment}節のWordMover'sDistance\cite{kusner-2015}も,単語分散表現のアライメントに基づく文間類似度の計算に用いることができる.\subsection{AverageAlignment}\label{subsec:ave_alignment}文$x$と文$y$の間の全ての単語の組み合わせについて単語間類似度を計算し,それらの$|x||y|$個の単語間類似度を平均して文間類似度$S_{ave}(x,y)$を求める.\pagebreak\begin{equation}S_{ave}(x,y)=\frac{1}{|x||y|}\sum_{i=1}^{|x|}\sum_{j=1}^{|y|}\phi(x_i,y_j)\end{equation}ここで,$x_i$および$y_j$は,それぞれ文$x$および文$y$に含まれる単語を表す.また,$\phi(x_i,y_j)$は単語$x_i$と単語$y_j$の間の単語間類似度を表し,本研究ではコサイン類似度を用いる.\subsection{MaximumAlignment}\label{subsec:max_alignment}AverageAlignmentは単語分散表現に基づく文間類似度として直感的であるが,同義の文対を考えても全ての単語の組み合わせについて単語間類似度が高くなるとは考えにくく,多くの単語間類似度は$0$に近い値を取るノイズになると考えられる.そこで文$x$に含まれる各単語$x_i$に対して最も類似度が高い文$y$中の単語$y_j$を選択し,それらの$|x|$個の単語の組み合わせについてのみ計算した単語間類似度$\phi(x_i,y_j)$を平均して$S_{asym}(x,y)$を求める.$S_{asym}(x,y)$は非対称なスコアであるため,$S_{asym}(x,y)$と$S_{asym}(y,x)$の平均値を用いて対称な文間類似度$S_{max}(x,y)$を計算する.\begin{align}S_{asym}(x,y)&=\frac{1}{|x|}\sum_{i=1}^{|x|}\max_j\phi(x_i,y_j)\\S_{max}(x,y)&=\frac{1}{2}(S_{asym}(x,y)+S_{asym}(y,x))\end{align}\subsection{HungarianAlignment}\label{subsec:hun_alignment}AverageAlignmentおよびMaximumAlignmentは,それぞれ多対多および多対一の単語アライメントに基づく文間類似度である.本節では$x$および$y$の2文を単語をノードとする2部グラフとして考え,一対一の単語アライメントに基づく文間類似度を定義する.この2部グラフは,単語間類似度$\phi(x_i,y_j)$を重みとする重み付きの辺を持つ重み付き完全2部グラフである.この完全2部グラフの最大マッチングを求めることで,単語間類似度の総和を最大化する一対一の単語アライメントを得ることができる.2部グラフの最大マッチング問題は,Hungarian法\cite{kuhn-1955}を用いて解くことができる.そこで文$x$に含まれる各単語$x_i$に対してHungarian法によって文$y$中の単語$h(x_i)$を選択し,それらの$|x|$個の単語の組み合わせについて計算した単語間類似度を平均して文間類似度$S_{hun}(x,y)$を求める.\begin{equation}S_{hun}(x,y)=\frac{1}{\min(|x|,|y|)}\sum_{i=1}^{|x|}\phi(x_i,h(x_i))\end{equation}\subsection{WordMover'sDistance}\label{subsec:wmd_alignment}WordMover'sDistance\cite{kusner-2015}も,単語の分散表現を用いた多対多の単語アライメントに基づく文間類似度の計算に用いることができる.WordMover'sDistanceは,文$x$から文$y$へと単語を輸送する輸送問題を解くEarthMover'sDistance\cite{rubner-1998}の特殊な場合に相当する.\begin{align}S_{wmd}(x,y)&=1-\mathrm{WMD}(x,y)\\\mathrm{WMD}(x,y)&=\min\sum_{u=1}^{n}\sum_{v=1}^{n}\mathcal{A}_{uv}\psi(x_u,y_v)\\\begin{split}\mathrm{subject\;to:\;}\sum_{v=1}^n\mathcal{A}_{uv}&=\frac{1}{|x|}freq(x_u)\\\sum_{u=1}^n\mathcal{A}_{uv}&=\frac{1}{|y|}freq(y_v)\end{split}\nonumber\end{align}ここで,$\psi(x_u,y_v)$は単語$x_u$と単語$y_v$の間の単語間非類似度(距離)を表し,本研究ではユークリッド距離を用いる.また,$\mathcal{A}_{uv}$は文$x$中の単語$x_u$から文$y$中の単語$y_v$への輸送量を表す行列であり,$n$は語彙数,$freq(x_u)$は文$x$中での単語$x_u$の出現頻度である. \section{実験1:難解な文と平易な文のアライメント} \label{sec:intrinsic_evaluation}本節では,難解な文と平易な文の組に対してパラレルおよびノンパラレルの2値分類を行い,単語分散表現のアライメントに基づく文間類似度の有効性を評価する.\subsection{実験設定}\citeA{hwang-2015}は,EnglishWikipediaとSimpleEnglishWikipediaから抽出した67,853文対に対して以下の4つのラベルを人手で付与したデータを公開している.\begin{itemize}\item{\itGood}:2文間の意味が等しい(277文対)\item{\itGoodPartial}:一方の文が他方を含意する(281文対)\item{\itPartial}:部分的に関連する(117文対)\item{\itBad}:無関係(67,178文対)\end{itemize}我々はこの評価用データセットを用いて,以下の2つの設定で,文間類似度によって各文対をパラレルデータとノンパラレルデータに2値分類する.\begin{itemize}\item{\itGvs.O}:{\itGood}のラベル付きデータのみをパラレルデータとする\item{\itG+GPvs.O}:{\itGood}と{\itGoodPartial}の2つのラベル付きデータをパラレルデータとする\end{itemize}評価には,Hwangetal.と同じく以下の2つの尺度を用いる.\begin{itemize}\itemMaxF1:F1スコアの最大値\itemAUC-PR:Precision-Recall曲線(PR曲線)上のAreaUndertheCurve\end{itemize}比較手法には,EnglishWikipediaとSimpleEnglishWikipediaからテキスト平易化のためのパラレルコーパスを構築する\citeA{zhu-2010},\citeA{coster-2011a}およびHwangetal.の3つの先行研究に加えて,AdditiveEmbeddings\cite{mikolov-2013b}を用いる.AdditiveEmbeddingsは,単語アライメントを使用しない比較手法であり,単語の分散表現を足し合わせることによって文の分散表現を構成し,コサイン類似度によって文間類似度を計算する.単語分散表現に基づく文間類似度計算のために,我々は公開されている学習済みの単語分散表現\footnote{https://code.google.com/archive/p/word2vec/}を用いる.これは,GoogleNewsdataset上でword2vec\cite{mikolov-2013a}のCBOWモデルによって学習された300次元の単語分散表現である.提案手法のうち,AverageAlignment,MaximumAlignmentおよびHungarianAlignmentについては,\citeA{song-2015}にならって単語アライメントのノイズ除去を行った.\ref{subsec:max_alignment}節でも述べたが,同義の文対$(x,y)$を考えても全ての単語対について単語間類似度が高くなるとは考えにくく,どの単語アライメントの手法を用いても単語間類似度が低いにも関わらず対応付けられてしまう単語対が存在する.このようなノイズとなる単語対の影響を抑えるため,我々は$\phi(x_i,y_j)>\theta$の単語間類似度を持つ単語対$(x_i,y_j)$のみを用いて単語アライメントを行った.この閾値$\theta$はMaxF1を最大化するように選択し,AverageAlignmentについては{\itGvs.O}の分類時に$0.89$,{\itG+GPvs.O}の分類時に$0.95$,MaximumAlignmentについては{\itGvs.O}の分類時に$0.28$,{\itG+GPvs.O}の分類時に$0.49$,HungarianAlignmentについては{\itGvs.O}の分類時に$0.98$,{\itG+GPvs.O}の分類時に$0.98$を採用した.\subsection{実験結果}パラレルデータとノンパラレルデータの2値分類の結果を表~\ref{tab:binary_classification}に示す.{\itGood}とその他の2値分類においては多対多の単語アライメントに基づくWordMover'sDistanceが最も高い性能を示した.また,{\itGood+GoodPartial}とその他の2値分類においては多対一の単語アライメントに基づくMaximumAlignmentが最も高い性能を示した.なお,MaximumAlignmentは{\itGood}とその他の2値分類においても3つの先行研究よりも高い性能を示した.図~\ref{fig:good_vs_others}および図~\ref{fig:partial_vs_others}に,パラレルデータとノンパラレルデータの2値分類におけるPrecision-Recall曲線を示す.図~\ref{fig:partial_vs_others}の{\itGood+GoodPartial}とその他の2値分類において,太実線のMaximumAlignmentが他の単語分散表現に基づく文間類似度計算手法よりも高い性能を示した.\begin{table}[t]\caption{パラレルデータとノンパラレルデータの2値分類精度}\label{tab:binary_classification}\input{03table01.tex}\end{table}\begin{figure}[t]\noindent\begin{minipage}[b]{.5\textwidth}\begin{center}\includegraphics{25-2ia3f3.eps}\end{center}\caption{{\itGvs.O}の2値分類におけるPR曲線}\label{fig:good_vs_others}\end{minipage}\begin{minipage}[b]{.5\textwidth}\begin{center}\includegraphics[width=180pt]{25-2ia3f4.eps}\end{center}\caption{{\itG+GPvs.O}の2値分類におけるPR曲線}\label{fig:partial_vs_others}\end{minipage}\end{figure}\ref{sec:raw2parallel}節で述べたように,テキスト平易化タスクでは省略も頻繁に行われる.そこで,テキスト平易化のための単言語パラレルコーパスには,対応する難解な文と平易な文が同義である{\itGood}の文対だけでなく,難解な文が平易な文の意味を含意する{\itGoodPartial}の文対も含めることが重要である.そのため,{\itGood+GoodPartial}とその他の2値分類において最も高い性能を示すMaximumAlignmentが,テキスト平易化のための単言語パラレルコーパス構築に最も適した文間類似度の計算手法であると言える.図~\ref{fig:max_alignment}および図~\ref{fig:hun_alignment}から,MaximumAlignmentでは(genus,genus)と(species,genus)のような多対一の単語アライメントが可能であるが,HungarianAlignmentには(as,genus)や(tree,is)のような誤った単語アライメントが見られる.機能語は色々な単語とある程度の単語間類似度を持つため,HungarianAlignmentにおける一対一の制約は厳しすぎる.また,MaximumAlignmentは多対一の単語アライメントを許すので,フレーズと単語の言い換えも上手く捉えられる.\begin{figure}[t]\noindent\begin{minipage}[b]{.5\textwidth}\begin{center}\includegraphics{25-2ia3f5.eps}\end{center}\caption{MaximumAlignmentによる単語アライメント}\label{fig:max_alignment}\end{minipage}\begin{minipage}[b]{.5\textwidth}\begin{center}\includegraphics{25-2ia3f6.eps}\end{center}\caption{HungarianAlignmentによる単語アライメント}\label{fig:hun_alignment}\end{minipage}\end{figure} \section{実験2:英語のテキスト平易化} \label{sec:english_experiment}SimpleEnglishWikipediaのような平易に書かれた大規模コーパスは英語以外の多くの言語では利用できないため,本研究では生コーパス(EnglishWikipedia)からテキスト平易化のための疑似パラレルコーパスを構築し,それを用いてフレーズベースの統計的機械翻訳モデルを訓練することによってテキスト平易化を実現する.本節では,平易に書かれた大規模コーパスが利用できる英語での実験によって,文アライメント手法の改善によるテキスト平易化の性能の変化を確認する.また,平易なコーパスに頼らない疑似パラレルコーパスから訓練されたモデルが,既存のパラレルコーパスから訓練されたモデルに匹敵する性能を発揮できることを示す.\subsection{疑似パラレルコーパスの構築}\label{subsec:pseudo_parallel_corpus}\ref{sec:raw2parallel}節で述べたように,我々はリーダビリティ推定と文アライメントによって各文対に対してテキスト平易化のための品質推定を行い,コーパスに含める文対を選抜する.\subsubsection{生コーパス}まず,生コーパスを用意する.本研究では,EnglishWikipedia\footnote{https://dumps.wikimedia.org/enwiki/20160501/}の各記事に対してWikiExtractor\footnote{https://github.com/attardi/wikiextractor/}を用いた本文抽出とNLTK3.2.1\footnote{http://www.nltk.org/}を用いたトークナイズを行い,10単語以上の6,283,703文を対象とした.\subsubsection{リーダビリティ推定}次に,英文のリーダビリティ推定のために,我々は英語のテキスト平易化\cite{zhu-2010,bingel-2016}でよく利用されるFleschReadingEaseFormula\cite{flesch-1948}を用いる.FleschReadingEaseFormulaでは,$\alpha$を単語数,$\beta$を1単語あたりの平均音節数として,文のリーダビリティを次のように定義する.\begin{equation}FleschReadingEase=206.835-1.015\alpha-84.6\beta\end{equation}FleschReadingEaseFormulaで計算されたリーダビリティスコアは,おおよそ0以上100以下の値を取り,$[60,70)$を標準レベルとして,高いほど読みやすい平易な文であることを意味する.そこで我々は,EnglishWikipediaから抽出した6,283,703文を以下のように分割した.\begin{itemize}\item難解なサブコーパス:$[0,60)$のリーダビリティスコアを持つ3,689,227文\item平易なサブコーパス:$[60,100]$のリーダビリティスコアを持つ2,358,921文\itemリーダビリティを測定不能として棄却:数百単語の長文や箇条書きなど,0未満または100を超えるリーダビリティスコアを持つ235,555文\end{itemize}\subsubsection{文アライメント}我々は\ref{sec:intrinsic_evaluation}節で最も高い性能を示したMaximumAlignmentを用いて全ての難解な文と平易な文の組み合わせに対して文間類似度を計算した.単語分散表現には,\ref{sec:intrinsic_evaluation}節と同じく公開されている学習済みのCBOWモデル\footnote{https://code.google.com/archive/p/word2vec/}を使用した.ノイズを軽減するために単語間類似度が0.5以上の単語対のみを単語アライメントに使用し,文間類似度が0.5以上である2,072,572文対を抽出して英語のテキスト平易化のための疑似パラレルコーパスを構築した.\subsection{疑似パラレルコーパスの妥当性}図~\ref{fig:readability}に,EnglishWikipediaとSimpleEnglishWikipediaの文のリーダビリティの分布を示す.縦軸は各リーダビリティスコアの文数を正規化したものであり,各ヒストグラムの面積が1となる.FleschReadingEaseFormulaに基づくリーダビリティスコアの60未満の範囲では,難解なコーパスであるEnglishWikipediaの文が出現する割合が高い.同じく,60以上の範囲では平易なコーパスであるSimpleEnglishWikipediaの文が出現する割合が高い.よって,本研究で難解な文と平易な文を分割した閾値60の基準も妥当であると言える.また,EnglishWikipediaには難解な文が多いとは言え,全ての文が難解なわけではないこともわかる.そのため,EnglishWikipediaから平易な文を抽出することで,平易な文書に頼ることなく平易なサブコーパスを得ることができる.\begin{figure}[b]\noindent\begin{minipage}[b]{.5\textwidth}\begin{center}\includegraphics{25-2ia3f7.eps}\end{center}\caption{リーダビリティの分布}\label{fig:readability}\end{minipage}\begin{minipage}[b]{.5\textwidth}\begin{center}\includegraphics{25-2ia3f8.eps}\end{center}\caption{疑似パラレルコーパスの品質}\label{fig:analysis}\end{minipage}\end{figure}図~\ref{fig:analysis}に,我々が構築した疑似パラレルコーパスの文間類似度ごとの同義性の品質を示す.{\itGood},{\itGoodPartial},{\itPartial}および{\itBad}の各ラベルは,\ref{sec:intrinsic_evaluation}節の実験設定と対応しており,\citeA{hwang-2015}に準ずるものである.文間類似度の範囲ごとに100文対を無作為抽出し,合計500文対を2人のアノテータが評価した.各文対に4つのラベルのうちの1つを割り当てたところ,アノテータ間の一致率はピアソンの相関係数で0.629と十分に高かった.この同義性に関する人手評価から,文間類似度が高くなるにつれて無関係な{\itBad}の文対が減少し,同義な{\itGood}の文対が増加していることがわかる.また,一方の文が他方を含意する{\itGoodPartial}の文対は文間類似度$[0.9,1.0)$の範囲でのみ減少しているが,これは難解な文と平易な文の文長に関係している.文間類似度$[0.8,0.9)$の範囲では,難解な文の平均文長は平易な文の平均文長よりも約3語長い.しかし,文間類似度$[0.9,1.0)$の範囲では,その差は1語未満である.文長の近い文対では意味的な包含関係が成立しにくく,文間類似度の高い文対は同義になりやすいと考えられる.\begin{table}[b]\caption{EnglishWikipediaから構築したテキスト平易化のための疑似パラレルコーパスの例}\label{tab:corpus_example}\input{03table02.tex}\end{table}表~\ref{tab:corpus_example}に,我々が構築したテキスト平易化のための疑似パラレルコーパスの例を示す.{\itGood}の文対には,難解な語句から平易な語句への言い換え(precipitation→rainfall)の例が見られる.{\itGoodPartial}の文対には省略の例が見られる.{\itPartial}の文対は,同義関係や含意関係ではないが,共通する語句や関連する語句を含み,関連する内容について書かれている.EnglishWikipediaを分割した難解なサブコーパスと平易なサブコーパスの組は,EnglishWikipediaとSimpleEnglishWikipediaの組とは異なりコンパラブルコーパスではない.そのため,図~\ref{fig:analysis}に示したように,同義や含意の関係にある文対の割合は多くはない.しかし,本研究ではフレーズベースの統計的機械翻訳を用いてテキスト平易化を行うため,以下の3つの理由でこの問題の影響は少なく,雑音の多い文対からでも重要な知識を獲得できる.\begin{itemize}\itemテキスト平易化は同一言語内の翻訳問題であるため,入力文に含まれる多くの単語をそのまま出力できる(変換しないことが正解である).そのため,異言語間の翻訳問題とは異なり,適切な変換対が少量しか得られないことが致命的な問題にはならない.\itemフレーズベースの統計的機械翻訳では,フレーズ単位の変換対を学習する.難解なフレーズとその言い換えである平易なフレーズの組は,同義や含意の関係にある文対からだけではなく,類義の関係にある文対からも得ることができる.\itemフレーズベースの統計的機械翻訳では,最終的に言語モデルによるリランキングを行うため,雑音の多いフレーズペアを獲得していても,平易な言い換えとして適切なフレーズペアをその中に含むことができれば適切な平易文が得られる.\end{itemize}\subsection{実験設定}\label{subsec:experimental_setup}我々は生コーパスのみから構築したテキスト平易化のための疑似パラレルコーパスの有効性を調査するために,フレーズベースの統計的機械翻訳を用いてテキスト平易化モデルを学習し,SimpleEnglishWikipediaを使って構築された既存のテキスト平易化のためのパラレルコーパスを用いて学習したモデルとの比較を行う.本研究では,テキスト平易化を難解な文から平易な文への翻訳問題と考え,対数線形モデルを用いてモデル化する.\begin{equation}\begin{split}\hat{s}&=\argmax_{simple}P(simple|complex)\\&=\argmax_{simple}P(complex|simple)P(simple)\\&=\argmax_{simple}\sum_{m=1}^{M}\lambda_mh_m(simple,complex)\end{split}\end{equation}対数線形モデルでは$M$個の素性関数$h_m(simple,complex)$および各素性の重み$\lambda_m$を考え,翻訳確率$P(simple|complex)$をモデル化する.テキスト平易化の場合は,入力の難解な文に対して素性関数の重み付き線形和を最大化する平易な文$\hat{s}$を探索する問題を考える.素性関数としては,フレーズの平易化モデル$\logP(complex|simple)$や言語モデル$\logP(simple)$などを用いる.我々はフレーズベースの統計的機械翻訳ツールであるMoses2.1\cite{koehn-2007}を使用し,パラレルコーパスからの単語アライメントの獲得にはGIZA++\cite{och-2003}を用いた.また,KenLM\cite{heafield-2011}を用いて各パラレルコーパスの平易側の文から5-gram言語モデルを構築した.テストデータには,\citeA{xu-2016}によって公開されているマルチリファレンスのパラレルコーパス\footnote{https://github.com/cocoxu/simplification}を使用した.これは,EnglishWikipediaから抽出された難解な350文に対して,それぞれ8人が平易な同義文を付与したものである.本研究では,このマルチリファレンスのパラレルコーパスを用いてFleschReadingEase(FRE),BLEU\cite{papineni-2002}およびSARI\cite{xu-2016}による自動評価を行った.なお,トレーニングデータからはテストデータに含まれるEnglishWikipediaの文を除外した.\begin{table}[b]\caption{英語のテキスト平易化の実験結果}\label{tab:experimental_result}\input{03table03.tex}\end{table}\begin{table}[b]\caption{疑似パラレルコーパスの文対数と性能の変化}\label{tab:threshold_result}\input{03table04.tex}\end{table}\subsection{実験結果}\label{subsec:experimental_result}表~\ref{tab:experimental_result}および表~\ref{tab:threshold_result}にフレーズベースの統計的機械翻訳を用いたテキスト平易化の実験結果を示す.Baselineは,書き換えを行わず入力文をそのまま出力する弱いベースラインである.Zhuetal.corpus\footnote{https://www.ukp.tu-darmstadt.de/data/sentence-simplification/simple-complex-sentence-pairs/},CosterandKauchakcorpus\footnote{http://www.cs.pomona.edu/{\textasciitilde}dkauchak/simplification/}およびHwangetal.corpus\footnote{http://ssli.ee.washington.edu/tial/projects/simplification/}は,我々の実験設定と同じくフレーズベースの統計的機械翻訳ツールMosesによってテキスト平易化を行うが,難解なコーパス(EnglishWikipedia)と平易なコーパス(SimpleEnglishWikipedia)の両方を用いて構築されたパラレルコーパスをトレーニングに使用する.Ourparallelcorpus\footnote{https://github.com/tmu-nlp/sscorpus}は,同じくEnglishWikipediaとSimpleEnglishWikipediaのコンパラブルコーパスを用いるが,\ref{subsec:max_alignment}節のMaximumAlignmentによって構築したテキスト平易化のためのパラレルコーパスをトレーニングに使用する強いベースラインである.Ourpseudo-parallelcorpusは我々の提案手法であり,生コーパスのみを用いて構築したテキスト平易化のための疑似パラレルコーパスを使用する.\subsubsection{語彙数}我々のパラレルコーパスや既存の他のパラレルコーパスでは,難解なコーパスの方が平易なコーパスよりも語彙数が多い.これは,SimpleEnglishWikipediaが850語の基本語彙を用いるというガイドラインに従って書かれているためである.850語の制約が厳密に守られているわけではないとはいえ,SimpleEnglishWikipediaの語彙の方が少なくなっている.しかし,我々の疑似パラレルコーパスでは,文間類似度の高い100万文対までは難解なコーパスの語彙数の方が少ない.これは,文間類似度を用いて貪欲に文アライメントを取るため,同じ文が繰り返し使用される場合があるからである.例えば10万文の疑似パラレルコーパスでは,平易なコーパスの異なり文数が25,817であるのに対して,難解なコーパスの異なり文数は3,674である.\subsubsection{平均文長}我々のパラレルコーパスは既存の他のパラレルコーパスよりも難解なコーパスと平易なコーパスの文長の差が大きく,EnglishWikipediaとSimpleEnglishWikipediaの全体の平均文長(25.1および16.9)に近い.これは,MaximumAlignmentが文長に関わらず適切に文間類似度を計算できていることを意味する.\subsubsection{平易化規則数(フレーズテーブルのエントリ数)}10万文や50万文の部分に注目すると,我々の疑似パラレルコーパスは得られる規則が少ない.これは類似度の低い文対ほど多くの平易化が実施されるためである.例えば,Zhuetal.corpusや我々のパラレルコーパスには,0.5以上の類似度の文対が含まれている.一方,疑似パラレルコーパスには,10万文で0.94以上,50万文で0.79以上の類似度の文対しか含まれていない.同じ10万文や50万文で比較したときには我々の疑似パラレルコーパスでは類似度の高い文対が多くなり,平易化のバリエーションは少ない.しかし,疑似パラレルコーパスは大量に用意できるため,最終的には十分な量の規則を獲得することができる.\subsubsection{FRE:FleschReadingEase(リーダビリティ)}疑似パラレルコーパスを用いて学習したモデルでも,入力文よりもリーダビリティの高い文を出力できた.平易な大規模コーパスを使用していないにも関わらず,文間類似度の上位200万文を用いて学習した場合には,SimpleEnglishWikipediaを使って学習した場合と同等の59を超えるリーダビリティを持つ文を出力することができた.\subsubsection{BLEUおよびSARI}FREが出力文のみを用いてリーダビリティのみを評価するのに対して,BLEUは出力文とリファレンスの両方を,SARIは入力文と出力文とリファレンスの全てを用いて文法や意味も評価する.\citeA{xu-2016}は,BLEUがGrammarやMeaningの観点で人手評価との相関が高く,SARIがSimplicityの観点で人手評価との相関が高いことを報告しており,テキスト平易化のために提案されたSARIはGrammar/Meaning/Simplicityの全てのバランスが取れた自動評価尺度であると結論付けている.表~\ref{tab:experimental_result}によると,BLEUはBaselineが最も高い.これは,入力文を何も変換しない場合には意味も文法も損なわれないためである.完全に意味を保持することはできないため,平易化の操作を加えることによってリーダビリティが向上する一方でBLEUは低下してしまう.BLEUを高く保ちつつリーダビリティのより高い文を出力することが良い平易化である.我々のパラレルコーパスを用いて学習したモデルは,SARIで最高性能を達成した.他の先行研究との違いは文アライメントの手法であり,\ref{sec:intrinsic_evaluation}節の内的評価の結果と同様にMaximumAlignmentの有効性が確認できた.疑似パラレルコーパスを用いて学習したモデルでは,文間類似度の上位150万文を使った場合にSARIが最大となった.平易な大規模コーパスを利用しないにも関わらず,先行研究のパラレルコーパスを用いて学習したモデルと同等の性能を発揮することができた.また,このときのBLEUも先行研究と同等であり,入力文の文法や意味を保持した文を出力することができた.\subsubsection{テキスト平易化の例}表~\ref{tab:simplification_example}に,フレーズベースの統計的機械翻訳を用いたテキスト平易化の例を示す.疑似パラレルコーパスを用いて学習したモデルは,Reference1と同様に不要な表現``both''を省略し,Reference2や3と同様に難解な表現``numerous''を平易な表現``many''に言い換えた.比較手法の中には,難解な表現``extremely''から平易な表現``very''への言い換えも見られた一方で,``world''など必要以上の省略も見られた.\begin{table}[t]\caption{英語のテキスト平易化の例}\label{tab:simplification_example}\input{03table05.tex}\end{table} \section{実験3:日本語のテキスト平易化} \label{sec:japanese_experiment}提案手法が言語やコーパス(EnglishWikipedia)に依存しないことを確認するために,本節では日本語の均衡コーパスを用いた実験を行う.\subsection{疑似パラレルコーパスの構築}\label{subsec:japanese_pseudo_parallel_corpus}\ref{subsec:pseudo_parallel_corpus}節と同じく,リーダビリティ推定と文アライメントによって生コーパスからテキスト平易化のための疑似パラレルコーパスを構築する.生コーパスには現代日本語書き言葉均衡コーパス(BCCWJ)\cite{maekawa-2010}を,リーダビリティ推定には文中の各単語の単語難易度\footnote{https://github.com/tmu-nlp/simple-jppdb}\cite{kajiwara-2017}の平均値をそれぞれ使用した.この単語難易度は,571,023語の日本語の単語に3段階(1:初級,2:中級,3:上級)の難易度が自動的に付与されたものである.MaximumAlignmentの文アライメントに使用する単語分散表現は,word2vec\cite{mikolov-2013a}のCBOWモデルをBCCWJ上で学習した.ノイズを軽減するために単語間類似度が0.5以上の単語対のみを単語アライメントに使用し,文間類似度が0.6以上である470,885文対を抽出して日本語のテキスト平易化のための疑似パラレルコーパスを構築した.\subsection{実験設定}\label{subsec:japanese_experimental_setup}\ref{subsec:experimental_setup}節の英語の実験と同じ設定で,フレーズベースの統計的機械翻訳モデルを用いてテキスト平易化を行った.テストデータには,Web\footnote{https://matcha-jp.com/}から収集した2,000文対を使用した.収集したデータは難解なテキストと平易なテキストからなるコンパラブルコーパスである.MaximumAlignmentの文間類似度が$[0.75,1.0)$の範囲の各文対について,2人のアノテータが\citeA{hwang-2015}に準ずる4つのラベル({\itGood},{\itGoodPartial},{\itPartial},{\itBad})のうちの1つを割り当てたところ,アノテータ間の一致率はピアソンの相関係数で0.769と十分に高かった.テストデータとして使用するのは,2人のアノテータがいずれも{\itGood}または{\itGoodPartial}のラベルを付与した2,000文対である.\subsection{実験結果}\label{subsec:japanese_experimental_result}表~\ref{tab:japanese_experimental_result}に,フレーズベースの統計的機械翻訳を用いた日本語のテキスト平易化の実験結果を示す.日本語ではテキスト平易化のためのパラレルコーパスが公開されていないため,書き換えを行わず入力文をそのまま出力する弱いベースラインのみと比較する.疑似パラレルコーパスを用いて学習したモデルは,いずれもSARIにおいてBaseline(入力文)よりも高い性能を示した.英日の実験結果から,我々は提案手法が言語やコーパスに依存せず有効であることを確認できた.なお,表~\ref{tab:experimental_result}の英語の実験結果に比べて全体にBLEUが低いのは,シングルリファレンスのテストデータで評価を行っているためである.\begin{table}[t]\caption{日本語のテキスト平易化の実験結果}\label{tab:japanese_experimental_result}\input{03table06.tex}\end{table}\begin{table}[t]\caption{日本語のテキスト平易化の例}\label{tab:japanese_example}\input{03table07.tex}\end{table}表~\ref{tab:japanese_example}に,日本語のテキスト平易化の例を示す.疑似パラレルコーパスで訓練したテキスト平易化モデルは,難解な表現``定休日''から平易な表現``休みの日''などの言い換えを漏らしているものの,難解な表現``電話で聞く''から平易な表現``電話をする''などの言い換えや,ガ格とニ格の並び替えに成功した. \section{おわりに} \label{sec:conclusion}本稿では,フレーズベースの統計的機械翻訳モデルを用いる生コーパスのみからのテキスト平易化について述べた.提案手法では,平易に書かれた大規模なコーパスや言い換え知識などの外部知識に頼らず,生コーパスのみを用いてリーダビリティと文間類似度によってテキスト平易化のための疑似パラレルコーパスを構築する.我々が提案した単語分散表現のアライメントに基づく文間類似度は,外部知識に頼ることなく難解な単語と平易な単語の単語間類似度を考慮することができ,従来の文間類似度よりも文長に頑健なため,テキスト平易化コーパスを構築するための文アライメントに適した手法である.フレーズベースの統計的機械翻訳を用いたテキスト平易化の実験結果は,疑似パラレルコーパスを用いて学習したモデルが,平易な大規模コーパスを用いて学習する先行研究のモデルと同等の性能で入力文を平易な同義文に変換できることを示した.これまでは,豊富な言語資源が存在する英語を中心にテキスト平易化の研究が進められてきたが,生コーパスは英語以外の多くの言語でも大規模に利用できるので,今後は多くの言語でテキスト平易化が実現できるだろう.また,パラレルコーパスは文圧縮や応答文生成などの他のテキストからのテキスト生成タスクにおいても有用な言語資源である.日本語など,英語以外の言語の単言語パラレルコーパスが不足している現状を考えると,本研究で提案した疑似パラレルコーパスの自動構築手法は,これらのタスクにおいても有望である.\acknowledgment本研究は首都大学東京傾斜的研究費(全学分)学長裁量枠戦略的研究プロジェクト戦略的研究支援枠「ソーシャルビッグデータの分析・応用のための学術基盤の研究」から部分的な支援を受けた.\\\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Agirre,Banea,Cardie,Cer,Diab,Gonzalez-Agirre,Guo,Lopez-Gazpio,Maritxalar,Mihalcea,Rigau,Uria,\BBA\Wiebe}{Agirreet~al.}{2015}]{agirre-2015}Agirre,E.,Banea,C.,Cardie,C.,Cer,D.,Diab,M.,Gonzalez-Agirre,A.,Guo,W.,Lopez-Gazpio,I.,Maritxalar,M.,Mihalcea,R.,Rigau,G.,Uria,L.,\BBA\Wiebe,J.\BBOP2015\BBCP.\newblock\BBOQSemEval-2015Task2:SemanticTextualSimilarity,English,SpanishandPilotonInterpretability.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\252--263}.\bibitem[\protect\BCAY{Agirre,Banea,Cardie,Cer,Diab,Gonzalez-Agirre,Guo,Mihalcea,Rigau,\BBA\Wiebe}{Agirreet~al.}{2014}]{agirre-2014}Agirre,E.,Banea,C.,Cardie,C.,Cer,D.,Diab,M.,Gonzalez-Agirre,A.,Guo,W.,Mihalcea,R.,Rigau,G.,\BBA\Wiebe,J.\BBOP2014\BBCP.\newblock\BBOQSemEval-2014Task10:MultilingualSemanticTextualSimilarity.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\81--91}.\bibitem[\protect\BCAY{Agirre,Cer,Diab,\BBA\Gonzalez-Agirre}{Agirreet~al.}{2012}]{agirre-2012}Agirre,E.,Cer,D.,Diab,M.,\BBA\Gonzalez-Agirre,A.\BBOP2012\BBCP.\newblock\BBOQSemEval-2012Task6:APilotonSemanticTextualSimilarity.\BBCQ\\newblockIn{\Bem*SEM2012:The1stJointConferenceonLexicalandComputationalSemantics--Volume1:ProceedingsoftheMainConferenceandtheSharedTask,andVolume2:Proceedingsofthe6thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\385--393}.\bibitem[\protect\BCAY{Agirre,Cer,Diab,Gonzalez-Agirre,\BBA\Guo}{Agirreet~al.}{2013}]{agirre-2013}Agirre,E.,Cer,D.,Diab,M.,Gonzalez-Agirre,A.,\BBA\Guo,W.\BBOP2013\BBCP.\newblock\BBOQ*SEM2013sharedtask:SemanticTextualSimilarity.\BBCQ\\newblockIn{\Bem2ndJointConferenceonLexicalandComputationalSemantics,Volume1:ProceedingsoftheMainConferenceandtheSharedTask:SemanticTextualSimilarity},\mbox{\BPGS\32--43}.\bibitem[\protect\BCAY{Bingel\BBA\S{\o}gaard}{Bingel\BBA\S{\o}gaard}{2016}]{bingel-2016}Bingel,J.\BBACOMMA\\BBA\S{\o}gaard,A.\BBOP2016\BBCP.\newblock\BBOQTextSimplificationasTreeLabeling.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\337--343}.\bibitem[\protect\BCAY{Bojar,Buck,Callison-Burch,Federmann,Haddow,Koehn,Monz,Post,\mbox{Soricut},\BBA\Specia}{Bojaret~al.}{2013}]{bojar-2013}Bojar,O.,Buck,C.,Callison-Burch,C.,Federmann,C.,Haddow,B.,Koehn,P.,Monz,C.,Post,M.,\mbox{Soricut},R.,\BBA\Specia,L.\BBOP2013\BBCP.\newblock\BBOQFindingsofthe2013WorkshoponStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe8thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\1--44}.\bibitem[\protect\BCAY{Bojar,Buck,Federmann,Haddow,Koehn,\mbox{Leveling},Monz,Pecina,Post,Saint-Amand,Soricut,Specia,\BBA\Tamchyna}{Bojaret~al.}{2014}]{bojar-2014}Bojar,O.,Buck,C.,Federmann,C.,Haddow,B.,Koehn,P.,\mbox{Leveling},J.,Monz,C.,Pecina,P.,Post,M.,Saint-Amand,H.,Soricut,R.,Specia,L.,\BBA\Tamchyna,A.\BBOP2014\BBCP.\newblock\BBOQFindingsofthe2014WorkshoponStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe9thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\12--58}.\bibitem[\protect\BCAY{Bojar,\mbox{Chatterjee},Federmann,Graham,Haddow,Huck,Jimeno~Yepes,Koehn,Logacheva,Monz,Negri,Neveol,Neves,Popel,Post,Rubino,Scarton,Specia,Turchi,Verspoor,\BBA\Zampieri}{Bojaret~al.}{2016}]{bojar-2016}Bojar,O.,\mbox{Chatterjee},R.,Federmann,C.,Graham,Y.,Haddow,B.,Huck,M.,Jimeno~Yepes,A.,Koehn,P.,Logacheva,V.,Monz,C.,Negri,M.,Neveol,A.,Neves,M.,Popel,M.,Post,M.,Rubino,R.,Scarton,C.,Specia,L.,Turchi,M.,Verspoor,K.,\BBA\Zampieri,M.\BBOP2016\BBCP.\newblock\BBOQFindingsofthe2016ConferenceonMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe1stConferenceonMachineTranslation},\mbox{\BPGS\131--198}.\bibitem[\protect\BCAY{Bojar,\mbox{Chatterjee},\mbox{Federmann},\mbox{Haddow},Huck,Hokamp,Koehn,Logacheva,Monz,Negri,Post,Scarton,Specia,\BBA\Turchi}{Bojaret~al.}{2015}]{bojar-2015}Bojar,O.,\mbox{Chatterjee},R.,\mbox{Federmann},C.,\mbox{Haddow},B.,Huck,M.,Hokamp,C.,Koehn,P.,Logacheva,V.,Monz,C.,Negri,M.,Post,M.,Scarton,C.,Specia,L.,\BBA\Turchi,M.\BBOP2015\BBCP.\newblock\BBOQFindingsofthe2015WorkshoponStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe10thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\1--46}.\bibitem[\protect\BCAY{Callison-Burch,Koehn,Monz,Post,\mbox{Soricut},\BBA\Specia}{Callison-Burchet~al.}{2012}]{callisonburch-2012}Callison-Burch,C.,Koehn,P.,Monz,C.,Post,M.,\mbox{Soricut},R.,\BBA\Specia,L.\BBOP2012\BBCP.\newblock\BBOQFindingsofthe2012WorkshoponStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe7thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\10--51}.\bibitem[\protect\BCAY{Chall\BBA\Dale}{Chall\BBA\Dale}{1995}]{chall-1995}Chall,J.\BBACOMMA\\BBA\Dale,E.\BBOP1995\BBCP.\newblock{\BemReadabilityRevisited:TheNewDale-ChallReadabilityFormula}.\newblockCambridge,MA:BrooklineBooks.\bibitem[\protect\BCAY{Collins-Thompson\BBA\Callan}{Collins-Thompson\BBA\Callan}{2004}]{collins-2004}Collins-Thompson,K.\BBACOMMA\\BBA\Callan,J.~P.\BBOP2004\BBCP.\newblock\BBOQALanguageModelingApproachtoPredictingReadingDifficulty.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\193--200}.\bibitem[\protect\BCAY{Coster\BBA\Kauchak}{Coster\BBA\Kauchak}{2011a}]{coster-2011b}Coster,W.\BBACOMMA\\BBA\Kauchak,D.\BBOP2011a\BBCP.\newblock\BBOQLearningtoSimplifySentencesUsingWikipedia.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponMonolingualText-To-TextGeneration},\mbox{\BPGS\1--9}.\bibitem[\protect\BCAY{Coster\BBA\Kauchak}{Coster\BBA\Kauchak}{2011b}]{coster-2011a}Coster,W.\BBACOMMA\\BBA\Kauchak,D.\BBOP2011b\BBCP.\newblock\BBOQSimpleEnglishWikipedia:ANewTextSimplificationTask.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\665--669}.\bibitem[\protect\BCAY{Flesch}{Flesch}{1948}]{flesch-1948}Flesch,R.\BBOP1948\BBCP.\newblock\BBOQANewReadabilityYardstick.\BBCQ\\newblock{\BemJournalofAppliedPsychology},{\Bbf32},\mbox{\BPGS\221--233}.\bibitem[\protect\BCAY{藤田\JBA小林\JBA南\JBA杉山}{藤田\Jetal}{2015}]{fujita-2015b}藤田早苗\JBA小林哲生\JBA南泰浩\JBA杉山弘晃\BBOP2015\BBCP.\newblock幼児を対象としたテキストの対象年齢推定方法.\\newblock\Jem{認知科学},{\Bbf22}(4),\mbox{\BPGS\604--620}.\bibitem[\protect\BCAY{Ganitkevitch,Van~Durme,\BBA\Callison-Burch}{Ganitkevitchet~al.}{2013}]{ganitkevitch-2013}Ganitkevitch,J.,Van~Durme,B.,\BBA\Callison-Burch,C.\BBOP2013\BBCP.\newblock\BBOQPPDB:TheParaphraseDatabase.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\758--764}.\bibitem[\protect\BCAY{Goto,Tanaka,\BBA\Kumano}{Gotoet~al.}{2015}]{goto-2015}Goto,I.,Tanaka,H.,\BBA\Kumano,T.\BBOP2015\BBCP.\newblock\BBOQJapaneseNewsSimplification:TaskDesign,DataSetConstruction,andAnalysisofSimplifiedText.\BBCQ\\newblockIn{\BemProceedingsofMTSummitXV},\mbox{\BPGS\17--31}.\bibitem[\protect\BCAY{Han,Martineau,Cheng,\BBA\Thomas}{Hanet~al.}{2015}]{han-2015}Han,L.,Martineau,J.,Cheng,D.,\BBA\Thomas,C.\BBOP2015\BBCP.\newblock\BBOQSamsung:Align-and-DifferentiateApproachtoSemanticTextualSimilarity.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\172--177}.\bibitem[\protect\BCAY{H{\"{a}}nig,Remus,\BBA\de~laPuente}{H{\"{a}}niget~al.}{2015}]{hanig-2015}H{\"{a}}nig,C.,Remus,R.,\BBA\de~laPuente,X.\BBOP2015\BBCP.\newblock\BBOQExBThemis:ExtensiveFeatureExtractionfromWordAlignmentsforSemanticTextualSimilarity.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\264--268}.\bibitem[\protect\BCAY{Heafield}{Heafield}{2011}]{heafield-2011}Heafield,K.\BBOP2011\BBCP.\newblock\BBOQKenLM:FasterandSmallerLanguageModelQueries.\BBCQ\\newblockIn{\BemProceedingsofthe6thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\187--197}.\bibitem[\protect\BCAY{Hwang,Hajishirzi,Ostendorf,\BBA\Wu}{Hwanget~al.}{2015}]{hwang-2015}Hwang,W.,Hajishirzi,H.,Ostendorf,M.,\BBA\Wu,W.\BBOP2015\BBCP.\newblock\BBOQAligningSentencesfromStandardWikipediatoSimpleWikipedia.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\211--217}.\bibitem[\protect\BCAY{梶原\JBA小町}{梶原\JBA小町}{2017}]{kajiwara-2017}梶原智之\JBA小町守\BBOP2017\BBCP.\newblock\BBOQSimplePPDB:Japanese.\BBCQ\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\529--532}.\bibitem[\protect\BCAY{Kincaid,Fishburne~Jr.,Rogers,\BBA\Chissom}{Kincaidet~al.}{1975}]{kincaid-1975}Kincaid,J.~P.,Fishburne~Jr.,R.~P.,Rogers,R.~L.,\BBA\Chissom,B.~S.\BBOP1975\BBCP.\newblock\BBOQDerivationofNewReadabilityFormulas(AutomatedReadabilityIndex,FogCountandFleschReadingEaseFormula)forNavyEnlistedPersonnel.\BBCQ\\newblockIn{\BemTechnicalReport,DefenceTechnicalInformationCenterDocument},\mbox{\BPGS\8--75}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{koehn-2007}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguisticsCompanionVolumeProceedingsoftheDemoandPosterSessions},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{Kuhn}{Kuhn}{1955}]{kuhn-1955}Kuhn,H.~W.\BBOP1955\BBCP.\newblock\BBOQTheHungarianMethodfortheAssignmentProblem.\BBCQ\\newblock{\BemNavalResearchLogisticsQuarterly},{\Bbf2},\mbox{\BPGS\83--97}.\bibitem[\protect\BCAY{Kusner,Sun,Kolkin,\BBA\Weinberger}{Kusneret~al.}{2015}]{kusner-2015}Kusner,M.,Sun,Y.,Kolkin,N.,\BBA\Weinberger,K.\BBOP2015\BBCP.\newblock\BBOQFromWordEmbeddingstoDocumentDistances.\BBCQ\\newblockIn{\BemProceedingsofThe32ndInternationalConferenceonMachineLearning},\mbox{\BPGS\957--966}.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Maruyama,Yamaguchi,Ogura,Kashino,Ogiso,Koiso,\BBA\Den}{Maekawaet~al.}{2010}]{maekawa-2010}Maekawa,K.,Yamazaki,M.,Maruyama,T.,Yamaguchi,M.,Ogura,H.,Kashino,W.,Ogiso,T.,Koiso,H.,\BBA\Den,Y.\BBOP2010\BBCP.\newblock\BBOQDesign,Compilation,andPreliminaryAnalysesofBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe7thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\1483--1486}.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013a}]{mikolov-2013a}Mikolov,T.,Chen,K.,Corrado,G.~S.,\BBA\Dean,J.\BBOP2013a\BBCP.\newblock\BBOQEfficientEstimationofWordRepresentationsinVectorSpace.\BBCQ\\newblockIn{\BemProceedingsofWorkshopattheInternationalConferenceonLearningRepresentations}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013b}]{mikolov-2013b}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.~S.,\BBA\Dean,J.\BBOP2013b\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandTheirCompositionality.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems},\mbox{\BPGS\3111--3119}.\bibitem[\protect\BCAY{Och}{Och}{2003}]{och-2003}Och,F.~J.\BBOP2003\BBCP.\newblock\BBOQMinimumErrorRateTraininginStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\160--167}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni-2002}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsof40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Pavlick\BBA\Callison-Burch}{Pavlick\BBA\Callison-Burch}{2016}]{pavlick-2016}Pavlick,E.\BBACOMMA\\BBA\Callison-Burch,C.\BBOP2016\BBCP.\newblock\BBOQSimplePPDB:AParaphraseDatabaseforSimplification.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\143--148}.\bibitem[\protect\BCAY{Pavlick,Rastogi,Ganitkevitch,Van~Durme,\BBA\Callison-Burch}{Pavlicket~al.}{2015}]{pavlick-2015}Pavlick,E.,Rastogi,P.,Ganitkevitch,J.,Van~Durme,B.,\BBA\Callison-Burch,C.\BBOP2015\BBCP.\newblock\BBOQPPDB2.0:BetterParaphraseRanking,Fine-grainedEntailmentRelations,WordEmbeddings,andStyleClassification.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\425--430}.\bibitem[\protect\BCAY{Rubner,Tomasi,\BBA\Guibas}{Rubneret~al.}{1998}]{rubner-1998}Rubner,Y.,Tomasi,C.,\BBA\Guibas,L.~J.\BBOP1998\BBCP.\newblock\BBOQAMetricforDistributionswithApplicationstoImageDatabases.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalConferenceonComputerVision},\mbox{\BPGS\59--66}.\bibitem[\protect\BCAY{佐藤}{佐藤}{2011}]{sato-2011}佐藤理史\BBOP2011\BBCP.\newblock均衡コーパスを規範とするテキスト難易度判定.\\newblock\Jem{情報処理学会論文誌},{\Bbf52}(4),\mbox{\BPGS\1777--1789}.\bibitem[\protect\BCAY{柴崎\JBA玉岡}{柴崎\JBA玉岡}{2010}]{shibasaki-2010}柴崎秀子\JBA玉岡賀津雄\BBOP2010\BBCP.\newblock国語科教科書を基にした小・中学校の文章難易度学年判定式の構築.\\newblock\Jem{日本教育工学会論文誌},{\Bbf33}(4),\mbox{\BPGS\449--458}.\bibitem[\protect\BCAY{Song\BBA\Roth}{Song\BBA\Roth}{2015}]{song-2015}Song,Y.\BBACOMMA\\BBA\Roth,D.\BBOP2015\BBCP.\newblock\BBOQUnsupervisedSparseVectorDensificationforShortTextSimilarity.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\1275--1280}.\bibitem[\protect\BCAY{Specia}{Specia}{2010}]{specia-2010}Specia,L.\BBOP2010\BBCP.\newblock\BBOQTranslatingfromComplextoSimplifiedSentences.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonComputationalProcessingofthePortugueseLanguage},\mbox{\BPGS\30--39}.\bibitem[\protect\BCAY{{\v{S}}tajner,Bechara,\BBA\Saggion}{{\v{S}}tajneret~al.}{2015a}]{stajner-2015a}{\v{S}}tajner,S.,Bechara,H.,\BBA\Saggion,H.\BBOP2015a\BBCP.\newblock\BBOQADeeperExplorationoftheStandardPB-SMTApproachtoTextSimplificationanditsEvaluation.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\823--828}.\bibitem[\protect\BCAY{{\v{S}}tajner,Calixto,\BBA\Saggion}{{\v{S}}tajneret~al.}{2015b}]{stajner-2015b}{\v{S}}tajner,S.,Calixto,I.,\BBA\Saggion,H.\BBOP2015b\BBCP.\newblock\BBOQAutomaticTextSimplificationforSpanish:ComparativeEvaluationofVariousSimplificationStrategies.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceRecentAdvancesinNaturalLanguageProcessing},\mbox{\BPGS\618--626}.\bibitem[\protect\BCAY{{\v{S}}tajner,Popovi{\'{c}},Saggion,Specia,\BBA\Fishel}{{\v{S}}tajneret~al.}{2016}]{stajner-2016}{\v{S}}tajner,S.,Popovi{\'{c}},M.,Saggion,H.,Specia,L.,\BBA\Fishel,M.\BBOP2016\BBCP.\newblock\BBOQSharedTaskonQualityAssessmentforTextSimplification.\BBCQ\\newblockIn{\BemLREC2016Workshop\&SharedTaskonQualityAssessmentforTextSimplification},\mbox{\BPGS\22--31}.\bibitem[\protect\BCAY{Sultan,Bethard,\BBA\Sumner}{Sultanet~al.}{2015}]{sultan-2015}Sultan,M.~A.,Bethard,S.,\BBA\Sumner,T.\BBOP2015\BBCP.\newblock\BBOQDLS$@$CU:SentenceSimilarityfromWordAlignmentandSemanticVectorComposition.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\148--153}.\bibitem[\protect\BCAY{Wubben,van~denBosch,\BBA\Krahmer}{Wubbenet~al.}{2012}]{wubben-2012}Wubben,S.,van~denBosch,A.,\BBA\Krahmer,E.\BBOP2012\BBCP.\newblock\BBOQSentenceSimplificationbyMonolingualMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1015--1024}.\bibitem[\protect\BCAY{Xu,Callison-Burch,\BBA\Napoles}{Xuet~al.}{2015}]{xu-2015}Xu,W.,Callison-Burch,C.,\BBA\Napoles,C.\BBOP2015\BBCP.\newblock\BBOQProblemsinCurrentTextSimplificationResearch:NewDataCanHelp.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf3},\mbox{\BPGS\283--297}.\bibitem[\protect\BCAY{Xu,Napoles,Pavlick,Chen,\BBA\Callison-Burch}{Xuet~al.}{2016}]{xu-2016}Xu,W.,Napoles,C.,Pavlick,E.,Chen,Q.,\BBA\Callison-Burch,C.\BBOP2016\BBCP.\newblock\BBOQOptimizingStatisticalMachineTranslationforTextSimplification.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf4},\mbox{\BPGS\401--415}.\bibitem[\protect\BCAY{Zhu,Bernhard,\BBA\Gurevych}{Zhuet~al.}{2010}]{zhu-2010}Zhu,Z.,Bernhard,D.,\BBA\Gurevych,I.\BBOP2010\BBCP.\newblock\BBOQAMonolingualTree-basedTranslationModelforSentenceSimplification.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1353--1361}.\end{thebibliography}\begin{biography}\bioauthor{梶原智之}{2013年長岡技術科学大学工学部電気電子情報工学課程卒業.2015年同大学大学院工学研究科修士課程電気電子情報工学専攻修了.同年,首都大学東京大学院システムデザイン研究科博士後期課程情報通信システム学域に進学,現在に至る.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各学生会員.}\bioauthor{小町守}{2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒業.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2008年より日本学術振興会特別研究員(DC2)を経て,2010年博士後期課程修了.博士(工学).同年より同研究科助教を経て,2013年より首都大学東京システムデザイン学部准教授.大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
V14N03-05
\section{はじめに} 日常生活の様々な体験において,その体験の素晴らしさを表現する言葉として,『感動』という言葉がしばしば用いられる.感動とは,『美しいものや素晴らしいことに接して強い印象を受け,心を奪われること』(大辞林\cite{Book_103})とあるように,体験に対する肯定的な評価であると共に,記憶の定着や感情の喚起を伴った心理状態の大きな変化である.そして,感動するような体験には,人のやる気を高めたり,価値観を変えたりするなどの効果があるといわれている\cite{Article_007}.また,このような感動を引き起こす対象としては,マスメディアが提供するドラマや映画,音楽などの割合が高いとされる\cite{Web_401}.本研究の目的は,放送番組の品質評価,とりわけ音の評価に,『感動』という言葉をキーワードとした評価指標を導入することにある.コンサートホールで演奏された音楽を聞くなど,音そのものに直接的に感動することもあれば,ドラマやスポーツ中継などのBGMや歓声,アナウンスなどの音が放送番組を盛り上げることで間接的に感動を喚起することもある.実際,音楽聴取における感情誘導効果や覚醒水準調整効果などの心理的な影響が,多くの実験によって確かめられており\cite{Book_101},音が引き起こす心理的な効果が,番組コンテンツの評価に与える影響は大きいと考えられる.従来の研究では,音の評価を行う際,言葉を使ってその評価を表現することが多い.難波ら\cite{Book_105}は,音の物理特性と人が受ける印象評価との関連を調べるために,形容詞対を用いたSD法による音色や音質の評価や,それに基づく音の分類を行っている.また,音響システムの展覧会などで配布される広告では,システムの目的や想定される購入者によって,音を表現する言葉を使い分けている.たとえば,映画を対象としたサラウンドシステムにおいては,『迫力』や『臨場感』,『低音の響き』,『余韻』といった言葉が多く使われている.これに対して,ピュアオーディオの分野では,『音像』や『サウンドステージ』,『静寂』,『実在感』,『反応のよさ』といった言葉が使われている.これらの言葉は,従来の研究では使われない評価語であるが,音響の特徴を表す表現として日常的に用いられ,映画音楽とクラシック音楽などの各コンテンツがもつ音の良さを表現しているものと思われる.広告が,消費者ニーズを満たすために洗練された表現を使い分けていることを考えると,コンテンツによって要求される音の印象評価の内容が異なることも考えられる.川上ら\cite{Inproc_201}は,感情語と『感動』を用いて音楽の印象評価を行ったが,印象評価としての『感動的な』音楽と,気分評価として実際に『感動した』音楽が異なることを指摘している.音楽の印象評価だけで音によって喚起される感動を一意に評価することは難しく,どういう人がどういう状況においてその音響特徴に良さを見出すのかを検討する必要がある.これは,ある状況において聴取者がその音をどのように聞きたいのかという価値観を調査することに他ならない.すなわち,現実の聴取場面を考えた場合,状況や音源,聴取者の心理状態や動機づけを無視して,物理的な音響特徴だけに焦点をあてて音の良さを論じることはナンセンスである.2005年秋の音響学会研究発表会において開かれた「なぜ音楽が心に響くのか」というスペシャルセッションでは,音楽に音の良さを見出している時の心理状態は,『感動する』の他に,『心に響く』,『心を躍らせる』,『深く内省する』,『揺り動かす』,『至高感』,『一体感』,『理解』,『共感』,『興奮』,『楽しい』,『悲しい』などの様々な言葉を用いて表現されていた\cite{Inproc_202}\cite{Inproc_204}.しかし,これらの言葉の語義や言葉から連想される心理状態は,かなり異なる.音の素晴らしさを表現する際,『感動』という言葉でまとめて記述することは可能であるが,どのように感動するのかを言及しなければ,用いる言葉の曖昧性から,音に対する評価が評定者間で一致しないことも考えられる.実際,感動は単一の感情価ではないが,喜びや悲しみといった感情を伴う\cite{Article_006}ことや,感動は感情の質ではなく,複合情動の総合的強度と相関がある\cite{Inproc_203}と言われており,研究者の中でも感動という心理状態の定義は曖昧である.そこで,我々は,『感動』という言葉で表現しようとしている心理状態を明確にするために,心理状態を言葉で評価するのではなく,言葉から心理状態を連想することで,『感動』という心理状態の分類を試みた.まず,アンケートを実施し,人が日常的にどういう対象に対して感動するのか,また,感動している心理状態をどういう言葉を用いて表現しているのかを調査した.さらに,アンケート結果から抽出した感動を表現する言葉(以下,感動語)を主観評価(一対比較)することによって,各々の感動語から連想される心理状態の類似度を求め,類似度ベクトルの距離に基づいて数学的に感動語を分類した.本稿では,感動を喚起した要因について考察するとともに,感動語間の類似度ベクトルに基づいて得られた感動語の分類結果について述べる. \section{感動に関する従来の心理学研究} 感情心理学の分野では,感情の種類を幾つかに分類する研究が多く行われてきた.感情は,時間的な側面から比較的長い期間持続する気分(mood)と一過的で強烈な感情である情動(emotion)などに分類されている\cite{Book_104}.また,感情の質的な分類として,喜怒哀楽のような特定のカテゴリー\cite{Book_108}\cite{Book_301}\cite{Book_302}や,快—不快,興奮—沈静,睡眠—覚醒などの少数の次元による記述\cite{Book_109}\cite{Article_002},肯定的—否定的という最も基本的な2分法などが提唱されている.さらに,感情を表現する言葉の分類から感情を分類する研究も行われている\cite{Article_004}\cite{Article_003}\cite{Article_005}.これらの感情の研究に対し,感動という心理状態の特異性が報告されている.戸梶\cite{Article_006}は,喜びを伴う感動はその対象を選ばないが,悲しみを伴う感動が喚起されるのは内容的に第三者の立場である場合に限定されることを指摘している.さらに,感動は複数の感情との間に密接な関係をもっており,従来の枠組みである単一感情価では捉えることができない上,感動に伴って喚起される感情は,喜びや悲しみ,驚きなどであり,恐怖や怒りといった感情は伴わないことを指摘している.同様に,中村ら\cite{Inproc_203}は,音楽聴取時の感動についても,基本的な情動理論を単純に当てはめることができず,種々の情動の強さの複合として議論する必要があると指摘している.安田ら\cite{Inproc_205}は,音楽聴取時の情動評定項目を,高揚感群(高揚感を感じる,興奮を感じる)と切なさ群(涙が出る,切なさを感じる,胸が締め付けられる),鳥肌群(背筋がぞくぞくする,鳥肌が立つ)に分けて,Hevner\cite{Article_003}が考案した8つの形容詞による印象評価を考察している.その結果,鳥肌群の情動は,高揚感群と切なさ群の両方と相関の高い形容詞と相関が高く,音楽聴取時の感動体験に共通する要因であることが示唆されている.Bloodら\cite{Article_001}は,自分にとって素晴らしい音楽を聴取した際に感じるゾクッとするような体験(``shivers-down-the-spine''or``chills'')において賦活する脳の部位が,脳の報酬系といわれる他の情動体験でも反応する部位と共通していることを示している.一方で,語義的には『美しいものや素晴らしいことに強い印象を受ける』とあるように,感動はある体験の統括的な評価として肯定的な印象を示す言葉であるとも考えられる.何に感動するか,何を肯定的に評価するかは,個人や状況によって異なる.また,情動の変化の「強さ」をどの程度に捉えるかによって,ある体験を感動とみなすかどうかが個人よって異なる可能性がある.実際,感動体験に関する世論調査\cite{Web_401}では,感動を経験する頻度が人によってかなり異なることや,感動の事由が,『期待以上であった』,『自分にはできない』,『共感できる』,『心配していた』,『期待にこたえた』,『自分にも似た経験がある』など多岐にわたること,感動を表現する言葉として,『ジーン』,『ウルウル』,『ドキドキ』,『グッと』,『ワクワク』,『ゾクゾク』,『ウキウキ』など多様であることなどが報告されている.このように,感動という心理状態は,感情以外にも実に様々な要素を含んでいるにも関わらず,言葉として『感動』というクラスがあるために,感動を一つの情動として捉えがちである.しかし,戸梶\cite{Article_006}が,感動に伴う感情の種類によって感動の分類を試みたように,むしろ幾つかの情動をまとめて感動と表現していると考えられる.確かに,感動とは,何かしらの感情を伴う心の動きではあるが,感動を喚起させる対象に依存することから,従来の感情そのものを対象とした心理現象ではなく,感動対象との関係も含めた複合的な心理状態を検討する必要がある.本稿では,以下,『感動』という言葉で表現している心理状態や感動対象をまとめて分類を試みる. \section{日常生活における感動の抽出} \subsection{感動に関するアンケート}まず,日常生活で『感動』という言葉がどのように用いられているのかを調べるために,自由記述方式のアンケートを実施した.アンケートの主項目は,感動を表現する言葉(感動語),最近感動した体験,音(音楽・音声)を聴取して感動した体験とした.今回の調査は,感動を表現する言葉を抽出することを目的とした探索的な調査であり,アンケートの対象者は,身近な母集団として,40歳前後を中心とした20歳代から50歳代の技術研究者25名(内音響研究者21名,内女性2名)と情報科学を専門とする大学生25名(内女性7名)の計50名とした.\subsection{感動体験の事例}感動した体験について116件(技術研究者67件,大学生49件),感動した音について61件(技術研究者37件,大学生24件)の事例が挙がった.感動の対象としては,『映画』,『音楽』,『スポーツ』,『人の優しさ』,『自然の景観』など,従来の研究\cite{Web_401}\cite{Article_007}と同じような事象が並んだ.感動を喚起する要因としては,『美しさ』,『切なさ』,『楽しさ』,『懐かしさ』,『優しさ』などの感動の対象に関する印象から記述できる側面があった.これらは従来の形容詞や感情語による印象評価で評価できる部分である.一方,映画の『ラストシーン』や『生死にかかわるシーン』,『実話に基づいたドキュメント』,『大学に合格する』,『スポーツで優勝する』など,印象評価というよりは,具体的な内容を伴う対象も多く含まれた.さらに,『落胆していたとき』,『卒業式で聴いた』,『ずっと行きたかった』,『自分の気持ちにあった』,『初めて聴くのに』,『映画のあるシーンを連想する』,『思いもよらない』,『予想を上回る』など,体験時の心理的な状態や音を聴く状況に関する条件を述べている例も多く見られた.このように,対象そのもの評価的印象以外に,日常の関心事項や自分の経験に基づいた知識や,その時の心理状態が,感動を喚起する要因として大きな影響を与えていることが示された.これが,音楽の印象評価としての『感動的な』音楽に,必ずしも聴取者が気分評定として『感動する』わけではない\cite{Inproc_201}理由と考えられる.\subsection{母集団による感動対象の傾向}\begin{table}[b]\begin{center}\caption{感動した体験}\begin{tabular*}{125mm}{|p{75mm}|p{12mm}|p{12mm}|p{12mm}|}\hline\multicolumn{1}{|c|}{感動体験}&合計&研究者&大学生\\\hline映画・テレビ・ラジオ・ゲーム&26&14&12\\\hlineスポーツに関すること&16&10&6\\\hline音楽&13&9&4\\\hline優しさ・親切にされて&10&3&7\\\hline自然の景観&9&6&3\\\hline家族・子供・恋愛・愛情&8&5&3\\\hline願い事がかなう・達成する&8&5&3\\\hlineアイディアや技術&8&7&1\\\hline偶発的な事象&6&0&6\\\hline美味しい食事&4&3&1\\\hlineその他&8&5&3\\\hline\end{tabular*}\\\par\vspace{1\baselineskip}\caption{感動した音}\begin{tabular*}{125mm}{|p{75mm}|p{12mm}|p{12mm}|p{12mm}|}\hline\multicolumn{1}{|c|}{感動した音・音楽・音声}&合計&研究者&大学生\\\hlineコンサートなどの生演奏&14&13&1\\\hline歌詞・優しい言葉・気の利いた台詞&10&2&8\\\hline音の響き・素晴らしさ・音楽そのもの&9&4&5\\\hlineその日の気分との相乗効果&7&4&3\\\hlineドラマや映画,ゲームの挿入曲&5&2&3\\\hline懐かしい・ある出来事を思い出す&4&2&2\\\hline予想を超える&4&3&1\\\hlineその他&8&7&1\\\hline\end{tabular*}\\\end{center}\end{table}感動した体験,音を聴いて感動した体験について,アンケートの回答事例を集計した.結果を表1,2に示す.『スポーツに関すること』は,実際に自分が体を動かして運動をすること以外に,スポーツ観戦や,応援しているスポーツチームが優勝するなどの体験も含んでいる.『その他』の項目は,『絵画を見て』,『真剣さを目の当たりにして』などであった.また,『偶発的な事象』とは,『安売りセール』や『出かける直前に雨がやむ』,『目的地までの信号が全部青であった』などの偶然起きた出来事を指している.また,感動した音としては,『コンサートなどで聴いた生演奏』の他,『歌詞に共感した』,『その日の気分と一致した』,『ドラマなどで使われた』などの事例が挙げられた.『その他』の項目としては,『除夜の鐘』,『産声』などがあった.アンケートに参加した多くの技術研究者が感動する事象は,知識やアイディアの意外性や技術の精巧さに関する項目であった.一方,大学生は偶発的な事象に感動する場合が多かった.また,感動した音についても,技術研究者が音楽の生演奏や音の響きを事例として挙げたのに対し,大学生は歌詞に共感した音楽や優しい言葉を挙げる例が多かった.このように,感動対象やその要因は,世代や職業,所属組織など母集団によってかなり割合に違いがあると考えられる.どういう母集団に分類するべきか,個人間のばらつきを超えてある程度共通する感動対象やその要因についても,多くの母集団を対象とした大規模で詳細な調査が必要であろう.以下の章では,大規模な感動対象の調査を目的として,評価語を選出するために,感動語をクラスに分類し,典型的な感動のパターンを得ることを試みた. \section{感動の分類} \subsection{感動語の抽出}これまで我々は感動という心理状態を区別せずに議論を進めてきた.従来,感動の体験は,感動に伴って喚起される感情の種類によって分類が行われている\cite{Article_006}.しかし,同じ『嬉しい』という言葉を用いても,落胆していたときに優しくされて感じる心暖まるような嬉しさと,応援していた野球チームが優勝したときに感じる喜びを爆発させるような嬉しさ,駅から目的の場所までの信号がすべて青だったときに感じる嬉しさは,心理状態としては大きく異なっていると考えられる.本研究では,こうした感動における多様な心理状態を体系的に捉えるために,アンケートの回答から感動語を抽出し,分類することで,表現されている心理状態を分類することを試みた.まず,アンケート調査において,感動を表現する言葉を記述させた.その結果,延べ170語(技術研究者84語,大学生86語)の感動語が得られた.アンケートより抽出した言葉は,なるべく言葉からイメージする心理状態をそのまま評価してもらうため,できる限りアンケートに書かれた言葉のまま使用した.ただし,『マジヤベェ』,『すげぇ』などの口語は,『やばい』,『すごい』と同じ感動語として扱った.その結果,感動を表現する言葉として,105語の感動語が得られた.また,アンケートの感動体験に記述されている用語で感動を表現する言葉として記述されていない表現(22語),その他感動に関する先行研究において用いられている言葉で今回抽出した感動語に含まれていない表現(10語),類語辞典から感動と似た語義の表現(13語)を選出した.その結果,得られた感動語は,150語になった.\subsection{1対比較による感動の距離}次に,前述の手続きで得られた150語について,ある感動語が別の感動語と同じ感動を表現しているか否かを一対比較する主観評価実験を行った.評価協力者は,アンケート調査を行ったどちらの母集団とも異なるように,感動に関するアンケートに参加していない20代から30代の女性11名(言語学,文学といった文系大学を卒業しており,心理実験には参加した経験がない)とした.実験は,3日間行い,1日の実験時間は5時間(途中,1時間と30分の休憩を取得)とし,実験時間中,自由に休憩を取らせた.評価協力者は,3グループに分けて召集され(5人,4人,2人),言葉の意味が近いかではなく,ある感動語から感動している状態を連想し,その状況や心理状態が別の感動語を用いて表現することが可能か否かを1/0の2件法で評価するよう集団で教示された.その後,各自,自分のペースで,50音順に並べてパソコンの画面に提示された150語の感動語を総当りで評価した.同じ感動を表現できると評定された割合を一致率とすると,ある感動語は他の感動語との一致率を用いて150次元のベクトルで表記することができる.$$X_i=(R_{i1},R_{i2},\cdots,R_{ij},\cdots,R_{iN})\eqno(1)$$また,感動語との心理状態上の距離をユークリッド距離を用いて,$$D_{ij}=\sqrt{\frac{1}{N}\sum_{k=1}^N(R_{ik}-R_{jk})^2}\eqno(2)$$とした.\subsection{感動の分類方法}感情心理学では,感情語を用いて感情状態を分類する研究が多く行われているが,その中に少数の次元を仮定して感情を記述しようとする次元研究がある.次元の数や種類は研究間で必ずしも一致しているわけではないが,共通しているのが,快—不快の快楽次元と覚醒—眠気といった覚醒次元の2次元である.(たとえば\cite{Article_002}).そこで,今回は,感動に関しても2分岐で分類することを試みた.2分岐の分類には,LBGアルゴリズム\cite{Article_008}を用い,ベクトル距離$D_{ij}$に応じた感動語の分類を行った.LBGアルゴリズムでは,2分岐を行う際の初期値として,あるクラス$k$の任意の2つの感動語$X_{ki}$,$X_{kj}$を用いる.残りの感動語が$X_{ki}$,$X_{kj}$のどちらに近いかを算出し,距離の近さで感動語を2つに分類する.これを初期クラス$k1$,$k2$とする.次に,各初期クラスの重心$C_{k1}$,$C_{k2}$を求め,各重心との距離が近い感動語を新しいクラス$k'1$,$k'2$とする.この新しいクラスの重心を求め,求めた重心との距離が近い感動語でさらに別のクラスを作成する.これを何度か繰り返すことで,感動語$X_{ki}$,$X_{kj}$を初期値としたクラス$k1ij$,$k2ij$が求まる.この分割において,両クラス内の感動語と両クラスの重心との距離の平均自乗誤差を歪$DS_{k1ij}$,$DS_{k2ij}$とする.クラス$k$内のすべての感動語を初期値として歪を求め,歪が最も小さくなる初期値を用いてクラス$k$を2つに分類した.最初に全感動語を2つに分類した後は,両クラスの重心と歪を求め,歪が大きいクラスについて,LBGアルゴリズムを用いて,2分岐による分類を行いった.さらに,各クラスについて重心と歪を求め,最も大きい歪のクラスについて分類を行い,最終的に各クラスが閾値として設定された歪の大きさになるまで分類を進めた.\subsection{感動の分類結果}ここでは,各クラスの中心となる概念をクラスの重心に近い感動語4つを用いて表現する.まず,分類する前の全感動語の中心概念は,『しみる』,『心にしみる』,『余韻』,『心をわしづかみにする』であった.これを歪の大きさに応じて14のクラス(AからN)まで分類した.その結果を表3に示す.表中の数字は,歪の大きい順に分類した分岐番号である.また,各クラスの中心概念を表す感動語を星印で表現した.\begin{table}[t]\begin{center}\caption{感動語の分類結果}\includegraphics[scale=0.75]{pic.eps}\par\vspace{1\baselineskip}\begin{tabular*}{142mm}{p{6mm}p{128mm}}A.&胸がいっぱいになる*,思わず涙*,涙*,愛*,ああ,言葉にできない,よい,泣く\\B.&心が暖まる*,癒される*,安らぎ*,家族愛*,ありがとう,幸せ,安堵,なんか良い\\C.&しみる*,黄昏*,ノスタルジー*,心にしみる*,落涙,泣けた,感涙,胸が詰まる,悲しい,感傷,寂しい,切なくなった,思い出,しみじみ,情緒,懐かしい,感じ入る,ジーンとする,心に残る,忘れられない,余韻,心に響く,ため息,ものあはれ\\D.&綺麗*,美しい*,素敵*,すばらしい*,憧れ,心を奪われる,しびれる,魅惑的,景色,感嘆,絶景,雄大,喜び\\E.&思わず無言*,無言*\\F.&胸を打つ*,グッとくる*,琴線に触れる*,心が熱くなる*,命,感銘,心が打たれる,感極まる,心が震える,こみあげる,感激,胸がキュンとなる\\G.&うぉー*,うわぁ*,わぁ*,おー*,すごい,気持ちが高鳴る,興奮する,人に言いたくなる\\H.&共感*,経験*,自己陶酔*,満足*,甘い,美味しい,感心,最終回\\I.&心が躍る*,ワクワクする*,わーい*,爽快*,おもしろい,たのしかった\\J.&ヤッター*,歓喜*,優勝*,達成*,嬉しい,おっしゃー,キター,やっとの思い,認められる,チームワーク,めっちゃ楽しい\\K.&背筋がゾッとする*,パニック*,混乱*,あぜん,驚愕*,焦り,ありえない,怖い,息が詰まる,緊迫,ゾクッとする,絶対笑うって\\L.&無情*,いたたまれない*,つらい*,やりきれない*,怒り,不条理,打ち震える,号泣,同調\\M.&鳥肌がたつ*,心をわしづかみにする*,やばい!*,身震い*,妖しい,畏敬,荘厳,心を射抜く,迫力がある,血が騒ぐ,臨場感がある,情動,震える,ドキドキする\\N.&マジ*,意外*,目が覚める*,見たことがない*,聴いたことがない,へー,発見,スピードがある,大きい,でかい,うそぉ,驚き,口があく,呆然,衝撃を受ける\\\end{tabular*}\end{center}\end{table}最初の分類(分岐番号1)において,クラスA,B,C(中心概念『しみる』,『情緒』,『心にしみる』,『余韻』)とそれ以外(『心をわしづかみにする』,『しびれる』,『心が震える』,『聴いたことがない』)に分かれた.ここでは,感情の動き方という観点から,動きを表現する言葉に着目する.前者のクラスには,『ジーンとする』,『しみる』などのじわじわと状態が続く表現が多く含まれる.後者のクラスでは,『心が打たれる』,『心を射抜く』などのするどく急激な動きを表す言葉,『心が震える』,『混乱』などの非定常な状態を表す言葉があった.幸せや思い出にしみじみと感じ入るような比較的静かな感情の変化が含まれる感動と,激しく表出するような鋭く,強い感情の変化を示すものが多い感動に分かれている.クラスA,B,Cを『受容』,それ以外のクラスを『表出』と呼ぶ.強度と時間的な継続性という観点では,比較的緩やかな感情である『気分』と鋭く短い反応である『情動』に似た分類との対応が可能であり,感情の2次元モデル(快—不快や肯定—否定)といった質的な分類とはならなかった.次に,『受容』と『表出』で歪が大きかったのは,『表出』の感動クラスであり,D〜J(中心概念『しびれる』,『心が熱くなる』,『心が震える』,『経験』)とK〜N(中心概念『驚愕』,『心をわしづかみにする』,『マジ』,『やばい!』)に分類された(分岐番号2).前者のクラスは,喜びや楽しみ,嬉しいといった正の感情を表現する感動語を多く含んでいる.これに対し,後者のクラスは,焦りや怒りといった負の感情(K,L)と驚きといった中立的な感情(M,N)を表現する感動語を多く含んでいる.従来の研究では,戸梶\cite{Article_006}が感動に伴う感情に着目し,『悲しみ』,『喜び』,『驚き』という感情で感動を分類している.『悲しみ』は,『受容』の感動であるクラスCに含まれており,感動に伴う3つの大きな感情は,今回分類した感動の大きな3つのクラス『受容』,『表出:正の感情』,『表出:負・中立の感情』のそれぞれに内包される.また,安田ら\cite{Inproc_205}が,音楽聴取時の感動として分類した『切なさ』,『高揚感』,『鳥肌』の3つの情動群を表現する言葉も,『受容』のクラスC,『表出:正の感情』のクラスG,『表出:負・中立の感情』のクラスMにそれぞれ内包される.このように,従来研究の知見を包含しえたのは,今回抽出した感動語の抽出結果と評価尺度による感動語の距離の求め方の妥当性を示すものと考えられる.今回実験に参加した評価協力者には偏りがあるが,感動を大きく分類する範囲においては,普遍性があることが考えられる.次に,『表出:正の感情』がクラスD,E,F,G(中心概念『しびれる』,『すばらしい』,『胸を打つ』,『琴線に触れる』)とクラスH,I,J(中心概念『認められる』,『心が躍る』,『ヤッター』,『たのしかった』)に別れた(分岐番号3).前者が,『美しい』『景色』が『胸を打つ』という比較的『受容』的な感動に近い,受動的な感動であるのに対し,後者は,『達成』して『認められる』ことで『心が躍る』と能動的,主体的な行為による感動を表現している.以下,『表出:受動的正の感情』,『表出:能動的正の感情』とする.次に,4つクラスは各々2つに分けることができ,以下の計8つとなる.『受容』の感動(分岐番号4)\par\begin{tabular}{p{20mm}l}A&『胸がいっぱいになる』,『涙』,『思わず涙』,『愛』\\B,C&『しみる』,『しみじみ』,『心にしみる』,『情緒』\\\end{tabular}\par『表出:受動的正の感情』の感動(分岐番号5)\par\begin{tabular}{p{20mm}l}D,E,F&『琴線に触れる』,『胸を打つ』,『しびれる』,『心が打たれる』\\G&『うぉー』,『うわぁ』,『わぁ』,『おー』\\\end{tabular}\par『表出:能動的正の感情』の感動(分岐番号7)\par\begin{tabular}{p{20mm}l}H,I&『たのしかった』,『共感』,『心が躍る』,『わーい』\\J&『ヤッター』,『歓喜』,『優勝』,『達成』\\\end{tabular}\par『表出:負,中立の感情』の感動(分岐番号6)\par\begin{tabular}{p{20mm}l}K,L&『不条理』,『混乱』,『息が詰まる』,『怒り』\\M,N&『見たことがない』,『心をわしづかみにする』,『マジ』,『やばい!』\\\end{tabular}\parさらに分類を進めると,最終的に分類された14のクラス(表3)のようになる. \section{考察} \subsection{類語辞典を用いた感動語の分類}本稿では,LBGアルゴリズムを用いたベクトル距離によって収集した感動語を分類・検討してきた.ところで,語彙の分類を行う際の非数量的方法として,類語辞典を用いることが考えられる.日本語の代表的なシソーラスとしては,分類語彙表\cite{Book_102}や日本語語彙体系\cite{Book_106},類語新辞典\cite{Book_107}などがある.分類語彙表では,まず,用の類(名詞の仲間),体の類(動詞の仲間)などで大分類されている.感動語の分類では,これらの区別は必要ではない.一方,日本語語彙大系は,精密に作られたシソーラスであるが,感動語の分類を扱うにはあまりにも分類が詳細すぎる.そこで,今回は,類語新辞典を用いて収集した感動語を分類した結果について検討する.類語新辞典では,言葉を自然,人事,文化に大きく3つに分類している.このうち,文化に分類される感動語は存在しなかった.さらに,感動語は,自然について,自然・性状・変動に分類され,人事について,行動・心情・性向に分類された.感動詞,間投詞などが語彙に含まれていなかったため,分類語彙表を参考としてその他という分類を設定した.分類結果を表4に示す.\begin{table}[tb]\begin{center}\caption{類語新辞典による感動語の分類}\begin{tabular*}{140mm}{|p{52mm}|p{8mm}|p{70mm}|}\hline\multicolumn{1}{|c|}{分類}&\multicolumn{1}{|c|}{語数}&\multicolumn{1}{|c|}{代表的な感動語}\\\hline自然(天文,景観,生理)&10語&絶景,命,癒される,涙,など\\\hline性状(形状,刺激,価値,程度,数量,時間,状態)&20語&大きい,美味しい,素敵,ありえない,美しい,もののあはれ,すごい,など\\\hline変動(動揺,情勢,関連)&6語&迫力がある,混乱,緊迫,など\\\hline行動(表情,見聞,陳述,労役)&12語&泣けた,震える,言葉にできない,など\\\hline心情(感覚,思考,学習,要求,誘導,闘争,意向,栄辱,愛憎,悲喜)&57語&共感,思い出,畏敬,情緒,感激,心が躍る,胸を打つ,興奮する,安堵,驚き,など\\\hline性向(姿態,身振り,態度,境遇,心境)&32語&懐かしい,ゾクッとする,切なくなった,たのしかった,心が暖まる,あぜん,など\\\hlineその他(間投詞)&13語&ああ,うぉー,へー,わぁ,など\\\hline\end{tabular*}\end{center}\end{table}分類の結果,心情(悲喜)や性向(心境)を表す言葉が多かった.これは,感動が自分の心的な状態を表現する言葉であるためと考えられる.一方で,性状を表す言葉として,価値を表す言葉が多かった.これは,『素晴らしい』,『ありえない』などの感動対象に対する自分の価値を表現したためと思われる.『絶景』や『迫力がある』などの自然・変動に分類される言葉は,感動の対象を,『泣ける』や『鳥肌がたつ』といった行動に関する言葉は,感動した際に起こる身体的な変化を表している.類語新辞典は,言葉の持つ意味で分類されており,その言葉を使う心理的な状態の類似性については配慮されているとは限らない.本稿では,感動の対象や身体的な反応,心理状態の区別無く,どの言葉が同じ心理状態を表現しているのかで感動語を分類した結果,類語新辞典を用いて分類した場合に比べ,対象の特徴と感動した心境・心情が混在した分類となった.これらのクラスは,感動しているという状況を表現するという観点において類義語であるといえる.つまり,『懐かしい』という心境は,『心にしみる』,『心に響く』という心情に近い心理状態を表しており,『ため息』という行為で感動を表現していると考えられる.これらの言葉は,その言葉が持つ意味としては異なるが,表現しようとした心理状態は近いのである.\subsection{感動語のあいまい性・多義性}感動語には,かなり抽象的な言葉が含まれていた.そのため,感動語そのものが広義な意味やイメージを持ち,言葉から連想される感動している状況が一意に決められないという可能性がある.そこで,一対比較実験において,評価協力者によって評価結果にばらつきがあった感動語と,ばらつきがなかった感動語をそれぞれ上位18語,リストアップした(表5).ただし,感動語$X_{i}$の評価のばらつき具合は,他の感動語との一致率$R_{ij}$を用いて$0.5-R_{ij}$の絶対値の和が大きいものをばらつきのなかった感動語とした.\begin{table}[tb]\begin{center}\caption{感動語の1対比較おける評価結果のばらつき}\begin{tabular*}{140mm}{|p{42mm}|p{91mm}|}\hlineばらつきがあった感動語&無言,経験,わあ,心に残る,よい,うぉー,思わず無言,言葉にできない,愛,胸がいっぱいになる,ああ,琴線に触れる,おー,忘れられない,こみあげる,すばらしい,憧れ,うわぁ\\\hlineばらつきがなかった感動語&緊迫,安らぎ,背筋がゾッとする,絶対笑うって,混乱,安堵,わーい,壮快,いたたまれない,同調,不条理,関心,口があく,つらい,息が詰まる,無常,感傷,やりきれない\\\hline\end{tabular*}\end{center}\end{table}ばらつきがあった感動語に関しては,間投詞などの抽象的な言葉が多く含まれており,これらの言葉を用いて感動を表現する場合,評価者によって異なる心理状態を想定していた可能性がある.逆に,ばらつきがなかった『緊迫した状況』や『安らぎを感じる状況』において感動する条件というのは限られていると言える.ばらつきがあった感動語は,主にクラスA,Gに多く含まれていた.これらの言葉は,評価に個人差がありながらも,似たような評価を受けており,共通したイメージが連想できたものと思われる.しかし,言葉が抽象的であるがゆえ,具体的な事象を述べた複数のクラスを包含している可能性が高い.たとえば,『ああ』は,同じ『受容』であれば,『安らぎ』も『懐かしい』も表現できる.これらの感動語は,評定協力者によって,思い描く感動が異なるため,今後,音の評価を行っていく評価語としては不適切であると思われる.\subsection{感動の心理状態}今回の感動語に含まれる感情としては,『受容』には,悲しみや切なさの他に,安らぎや幸せ,懐かしさなどがあった.また,『表出』に含まれる負の感情として,怒りや焦りといった感情も感動に関与することが示唆された.また,多面的感情状態尺度\cite{Article_005}の8つの感情群のうち,『活動的な快』,『非活動的な快』,『親和』,『驚愕』,『集中』,『抑鬱・不安』,『敵意』に相当する表現が含まれており,欠けている感情群は『倦怠』だけであった.特に,『活動的な快』,『非活動的な快』,『親和』,『驚愕』に関する感動語が多かった.感動は確かに複雑な感情の組み合わせによって成り立ってはいるが,基本的には体験に対する肯定的な評価であることを考えると当然といえる.感動語には多くの感情価が含まれるが,『受容』の感動であるクラスB,Cには,安らぎや,幸せ,悲しみ,切なさなどの複数の感情価が混在している.また,クラスA,G,Hは,『言葉にできない』,『泣く』,『気持ちが高鳴る』,『興奮する』,『感心』,『満足』など感情の種類を特定できる表現が含まれていなかった.このように,感動語のクラスは,喜怒哀楽というようないわゆる感情の種類では分かれなかった.これは,従来の感情の分類ではうまく感動を記述できないという戸梶\cite{Article_006}や中村ら\cite{Inproc_203}の指摘を支持するものである.また,肯定的な評価であるはずの感動に,怒りや悲しみが含まれるのは矛盾を感じるが,戸梶\cite{Article_006}は,悲しみを伴う場合,感動の対象に対して第三者的な立場である必要があると指摘している.つまり,負の感情を伴う場合,自分が体験するのではなく,サスペンスドラマなどを視聴し,主人公の死に悲しみを感じ,その犯人に怒りを覚え,その物語に切なさを感じるという体験が感動として認知されると考えられる.また,クラスDは,『景色』に『雄大』である,『美しい』,『すばらしい』と感じ,『心を奪われる』というような感動であり,クラスJは,『優勝』を『達成』して『嬉しい』という感動である.このように,感動とは,感情そのものではなく,感動の対象と心の動き,複数の感情が入り混じった状態の組み合わせによって分類することができる.ここで,『感動』という言葉で表現されるこういった様々な心の状態の共通要素について検討する.まず,『すごい』,『衝撃を受ける』,『言葉にできない』,『忘れられない』という言葉に代表されるように,心の動きの程度が強いことを表す言葉が多くのクラスに点在した.また,『思わず涙』,『認められる』,『癒される』,『忘れられない』,『心が打たれる』などの強制的,受動的にその感情が喚起されたことを表現する言葉が多く含まれていた.以上のことから,感動とは,ある対象から影響を受け,分類されたように心が動くが,その影響が自分では制御できないくらい強いという体験を表現する肯定的な評価の総称であると考えられる.\subsection{感動語を用いた音の評価に向けて}アンケート調査における感動を表現する言葉が多く含まれた感動語のクラスは,延べ23語のクラスC,延べ22語のクラスN,延べ22語のクラスG,延べ20語のクラスDであった.今回調査に参加した技術研究者の回答に多く含まれていた感動語のクラスは,N(技術研究者15語:大学生7語),F(6語:2語)であり,大学生の回答に多く含まれていた感動語のクラスは,J(大学生14語:技術研究者2語),K(7語:3語)であった.大学生で多く見られたクラスJの『嬉しい』という感情で表現される感動は,技術研究者では少なかった.アンケート調査における感動体験の記述においても同様に,大学生は,優しくされて嬉しい,雨が止んで嬉しいといった『嬉しい』に関係する感動が多かった.このような母集団による傾向の違いが生じる理由として,まず,言葉の定義の違いが考えられる.つまり,感動とは何かしらの感情の変化の強度と関係があると思われるが,どの程度の強さ,どういった感情の変化を『感動』として定義しているかが,母集団によって異なっている可能性がある.また,別の理由として,同じ体験から喚起される感情そのもの質的な変化が考えられる.例えば,感動体験の記述において,『卒業式で聞いた曲』といった表現があったが,大学生にとって卒業というイベントは現実性が高く,楽しい,悲しいという感情が比較的新しい記憶と結びつきやすいのに対し,技術研究者にとって卒業とは過去を懐かしむ気持ちが強いことも考えられる.今回実験に参加した評価協力者の150の感動語の重心は,『しみる』,『心にしみる』,『余韻』とクラスCが中心であった.しかし,母集団の年齢や知識,興味によって感動する対象に違いがあり,その結果喚起される感動の心理状態も異なる可能性がある.別の評価協力者で評価実験を行うと異なる結果となることも予想される.感動とは,いわゆる感情とは異なり,対象と強く結びついており,感情の強弱だけではなく,その対象との関わりや背景知識までも含めた議論が必要である.どういう人がどの対象に対してどういう感動をするのかという割合的な傾向については,大規模な調査研究が望まれる.従来,音楽や音,音響システムの評価を行う際,聞こえるか聞こえないか,印象としてどういう形容詞で評価できるかで,その価値を記述しようとしていた.つまり,物理的な音の特徴の類似性を主観的に評価するという手法である.しかし,感動対象として音の評価を行う際,どういう観点で感動したのかを区別して評価する必要があると思われる.今回の分類結果は,具体的に音を評価する上で,どういう評価語が必要であるかを感動表現から絞込んだものである.例えば,クラスCの『心にしみる』音楽と,クラスNの『目が覚める』音楽はまったく異なる曲調を連想する.高揚感のある明るい音楽に『心が躍る』(クラスI)ように感動することもあれば,自然環境音に『癒される』(クラスB)ように感動することも考えられる.悲しい印象を与えるような音楽がドラマに挿入される場合でも,ドラマに共感している人には『胸を打つ』(クラスF)という感動を与えるが,共感を覚えない人には退屈な音楽かもしれない.どういうシチュエーションで,どういう音の良さを引き出すことが,放送番組における感動の質をより豊かにすることに繋がるのかを今後も検討していく必要がある. \section{まとめ} 『感動』という心理状態をモデル化するために,アンケート調査と語彙分析を行い,感動という言葉で表現される心理状態の種類について検討した.アンケートの回答から抽出した感動語について,言葉の意味ではなく,言葉から連想した感動している状況を主観的に評価して類似度を求めた.そして,語彙間の類似度ベクトルの距離に応じて感動語の分類を行った.その結果,感動語は,いわゆる単一の感情では分類できなかった.しかし,感動に伴う感情や感動の対象,感情の動きの組み合わせによって典型的なパターンに分類できた.『感動』とは,情動そのものではなく,対象からの影響があまりにも強いために自分の感情がうまく制御できないという心理状態の肯定的な評価を表す総称であることがわかった.今後の課題として,どういう人がどういう対象にどういった感動するのかについては,大規模な調査研究が望まれる.\bibliographystyle{jnlpbbl_1.2}\begin{thebibliography}{}\bibitem[\protect\BCAY{Blood\BBA\Zatorre}{Blood\BBA\Zatorre}{2001}]{Article_001}Blood,A.~J.\BBACOMMA\\BBA\Zatorre,R.~J.\BBOP2001\BBCP.\newblock\BBOQIntenselyPleasurableResponsestoMusicCorrelatewithActivityinBrainRegionsImplicatedinRewardandEmotion\BBCQ\\newblock{\BemProceedingsofnationalacademyofscienceU.S.A.},{\Bbf98}(20),\mbox{\BPGS\11818--11823}.\bibitem[\protect\BCAY{Darwin}{Darwin}{1892}]{Book_108}Darwin,C.\BBOP1892\BBCP.\newblock{\BemTheexpressionoftheemotionsinmanandanimals}.\newblockD.appleton.\bibitem[\protect\BCAY{Ekman}{Ekman}{1984}]{Book_301}Ekman,P.\BBOP1984\BBCP.\newblock\BBOQExpressionandthenatureofemotion\BBCQ\\newblockIn{\BemInK.SchererandP.Ekman(Eds.),Approachestoemotion},\mbox{\BPGS\319--343}.Hillsdale,NJ:Erlbaum.\bibitem[\protect\BCAY{Hevner}{Hevner}{1936}]{Article_003}Hevner,K.\BBOP1936\BBCP.\newblock\BBOQExperimentalstudiesoftheelementsofexpressioninmusic\BBCQ\\newblock{\BemAmericanJournalofPsychology},{\Bbf48},\mbox{\BPGS\246--268}.\bibitem[\protect\BCAY{Linde,Buzo,\BBA\Gray}{Lindeet~al.}{1980}]{Article_008}Linde,Y.,Buzo,A.,\BBA\Gray,R.~M.\BBOP1980\BBCP.\newblock\BBOQAnAlgorithmforVectorQuantizerDesign\BBCQ\\newblock{\BemIEEETransactionsonCommunications},{\BbfCOM-28}(1),\mbox{\BPGS\84--95}.\bibitem[\protect\BCAY{Plutchik}{Plutchik}{1984}]{Book_302}Plutchik,R.\BBOP1984\BBCP.\newblock\BBOQEmotions:Ageneralpsychoevolutionarytheory\BBCQ\\newblockIn{\BemInK.SchererandP.Ekman(Eds.),Approachestoemotion},\mbox{\BPGS\197--219}.Hillsdale,NJ:Erlbaum.\bibitem[\protect\BCAY{Russell}{Russell}{1980}]{Article_002}Russell,J.~A.\BBOP1980\BBCP.\newblock\BBOQAcircumplexmodelofaffect\BBCQ\\newblock{\BemJournalofPersonalityandSocialPsychology},{\Bbf39}(6),\mbox{\BPGS\1161--1178}.\bibitem[\protect\BCAY{Shaver,Schwartz,Kirson,\BBA\O'Connor}{Shaveret~al.}{1987}]{Article_004}Shaver,P.~R.,Schwartz,J.,Kirson,D.,\BBA\O'Connor,C.\BBOP1987\BBCP.\newblock\BBOQEmotionknowledge:Furtherexplorationofaprototypeapproach\BBCQ\\newblock{\BemJournalofPersonalityandSocialPsychology},{\Bbf52},\mbox{\BPGS\1061--1086}.\bibitem[\protect\BCAY{Wundt}{Wundt}{1910}]{Book_109}Wundt,W.\BBOP1910\BBCP.\newblock{\BemGrundzugederphysiologischenPsychologie.6thed.}\newblockLeipzig:WilhelmEngelmann.\bibitem[\protect\BCAY{戸梶}{戸梶}{2001}]{Article_006}戸梶亜紀彦\BBOP2001\BBCP.\newblock\JBOQ『感動』喚起のメカニズムについて\JBCQ\\newblock\Jem{認知科学},{\Bbf8}(4),\mbox{\BPGS\360--368}.\bibitem[\protect\BCAY{戸梶}{戸梶}{2004}]{Article_007}戸梶亜紀彦\BBOP2004\BBCP.\newblock\JBOQ『感動』体験の効果について—人が変化するメカニズム\JBCQ\\newblock\Jem{広島大学マネジメント研究第4号},\mbox{\BPGS\27--37}.\bibitem[\protect\BCAY{川上\JBA中村\JBA河瀬\JBA安田\JBA片平\JBA堀中}{川上\Jetal}{2005}]{Inproc_201}川上愛\JBA中村敏枝\JBA河瀬諭\JBA安田晶子\JBA片平建史\JBA堀中康行\BBOP2005\BBCP.\newblock\JBOQ演奏音の印象と演奏音聴取後の気分の関係—``感動''の視点から—\JBCQ\\newblock\Jem{ヒューマンインターフェイスシンポジウム2005論文集},\mbox{\BPGS\627--630}.\bibitem[\protect\BCAY{NTTコミュニケーション科学研究所\JBA池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{NTTコミュニケーション科学研究所\Jetal}{1997}]{Book_106}NTTコミュニケーション科学研究所監修\JBA池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\JEDS\\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{松山\JBA浜}{松山\JBA浜}{1974}]{Book_104}松山義則\JBA浜治世\BBOP1974\BBCP.\newblock\Jem{感情心理学1—理論と臨床—}.\newblock誠信書房.\bibitem[\protect\BCAY{谷口}{谷口}{2000}]{Book_101}谷口高士\JED\\BBOP2000\BBCP.\newblock\Jem{音は心の中で音楽になる}.\newblock北大路書房.\bibitem[\protect\BCAY{谷口}{谷口}{2005}]{Inproc_204}谷口高士\BBOP2005\BBCP.\newblock\JBOQなぜ音楽は心に響くのか(2)—心理学からのアプローチ—\JBCQ\\newblock\Jem{日本音響学会講演論文集},\mbox{\BPGS\733--736}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2004}]{Book_102}国立国語研究所\JED\\BBOP2004\BBCP.\newblock\Jem{分類語彙表}.\newblock大日本図書.\bibitem[\protect\BCAY{三菱総合研究所}{三菱総合研究所}{2003}]{Web_401}三菱総合研究所\BBOP2003\BBCP.\newblock\newblock\JBOQ2003年の感動に関するアンケート\JBCQ.\bibitem[\protect\BCAY{安田\JBA中村\JBA河瀬\JBA川上\JBA片平\JBA堀中}{安田\Jetal}{2005}]{Inproc_205}安田晶子\JBA中村敏枝\JBA河瀬諭\JBA川上愛\JBA片平建史\JBA堀中康\BBOP2005\BBCP.\newblock\JBOQ聴取者の感動体験に伴う情動と演奏音の音響的特性の関係\JBCQ\\newblock\Jem{ヒューマンインターフェイスシンポジウム2005論文集},\mbox{\BPGS\575--580}.\bibitem[\protect\BCAY{大野\JBA浜西}{大野\JBA浜西}{1981}]{Book_107}大野晋\JBA浜西正人\BBOP1981\BBCP.\newblock\Jem{類語新辞典}.\newblock角川書店.\bibitem[\protect\BCAY{寺崎\JBA岸本\JBA古賀}{寺崎\Jetal}{1992}]{Article_005}寺崎正治\JBA岸本陽一\JBA古賀愛人\BBOP1992\BBCP.\newblock\JBOQ多面的感情状態尺度の作成\JBCQ\\newblock\Jem{心理学研究},{\Bbf62},\mbox{\BPGS\350--356}.\bibitem[\protect\BCAY{難波\JBA桑野}{難波\JBA桑野}{1998}]{Book_105}難波清一郎\JBA桑野園子\BBOP1998\BBCP.\newblock\Jem{音の評価のための心理学的測定法}.\newblockコロナ社.\bibitem[\protect\BCAY{永岡}{永岡}{2005}]{Inproc_202}永岡都\BBOP2005\BBCP.\newblock\JBOQなぜ音楽は心に響くのか(2)—美学からのアプローチ—\JBCQ\\newblock\Jem{日本音響学会講演論文集},\mbox{\BPGS\729--732}.\bibitem[\protect\BCAY{中村\JBA結城\JBA河瀬諭\JBAMaria~R.\JBA片岡}{中村\Jetal}{2004}]{Inproc_203}中村敏枝\JBA結城牧子\JBA河瀬諭\JBAMaria~R.Draguna\JBA片岡智嗣\BBOP2004\BBCP.\newblock\JBOQ音楽聴取時の感動体験に関わる情動について\JBCQ\\newblock\Jem{ヒューマンインターフェイスシンポジウム2004論文集},\mbox{\BPGS\815--818}.\bibitem[\protect\BCAY{松村}{松村}{1995}]{Book_103}松村明\JED\\BBOP1995\BBCP.\newblock\Jem{大辞林第二版}.\newblock三省堂.\end{thebibliography}\begin{biography}\bioauthor{大出訓史(非会員)\unskip}{1997年上智大学理工学部物理学科卒業.1999年東京工業大学大学院修士課程修了.同年,NHK入局,現在,放送技術研究所(人間・情報)研究員.音響認知,音声合成等の研究に従事.電子情報通信学会,日本音響学会,映像情報メディア学会各会員.}\bioauthor{今井篤(非会員)\unskip}{1989年埼玉大学工学部電気工学科卒業.同年,NHK入局,現在,放送技術研究所(人間・情報)主任研究員.話速変換,音声知覚,音声合成等の研究に従事.電子情報通信学会,日本音響学会,映像情報メディア学会各会員.}\bioauthor{安藤彰男(非会員)\unskip}{1978年九州芸術工科大学音響設計学科卒業.1980年同大学院修士課程修了.同年,日本放送協会入社.現在,放送技術研究所(人間・情報)高臨場感音響研究リーダ.高臨場感音響システム,音響デバイス,音響認知科学,音響信号処理などの研究に従事.工学博士.電子情報通信学会論文賞,日本音響学会技術開発賞.映像情報メディア学会業績賞など受賞.IEEE,AES,電子情報通信学会,日本音響学会,映像情報メディア学会会員.}\bioauthor{谷口高士(非会員)\unskip}{1987年京都大学教育学部教育心理学科卒業.1992年同大学院博士課程退学.同年,大阪学院短期大学専任講師,現在,大阪学院大学情報学部教授.1995年博士(教育学).音楽と感情,感情と認知をテーマに研究.日本心理学会,日本音楽知覚認知学会,日本感情心理学会会員.}\end{biography}\biodate\end{document}
V10N04-10
\section{はじめに} \label{sec:intro}日英対訳コーパスは,機械翻訳などの自然言語処理において必要であるばかりでなく,英語学や比較言語学,あるいは,英語教育や日本語教育などにとっても非常に有用な言語資源である.しかしながら,これまで,一般に利用可能で,かつ,大規模な日英対訳コーパスは存在していなかった.そのような背景の中で,我々は,比較的大規模な日本語新聞記事集合およびそれと内容的に一部対応している英語新聞記事集合とから,大規模な日英対訳コーパスを作ることを試みた.そのための方法は,まず,内容が対応する日本語記事と英語記事とを得て,次に,その対応付けられた日英記事中にある日本語文と英語文とを対応付けるというものである.ここで,我々が対象とする日本語記事と英語記事においては,英語記事の内容が日本語記事の内容に対応している場合には,その英語記事は,日本語記事を元にして書かれている場合が多いのであるが,その場合であっても,日本語記事を直訳しているわけではなく,意訳が含まれていることが多く,更に,日本語記事の内容の一部が英語記事においては欠落していたり,日本語記事にない内容が英語記事に書かれている場合もある.また,記事対応付けを得るための日本語記事集合と英語記事集合についても,英語記事集合の大きさは日本語記事集合の大きさの6\,\%未満であるので,日本語記事の中で,対応する英語記事があるものは極く少数である.そのため,記事対応付けおよび文対応付けにあたっては,非常にノイズが多い状況のなかから,適切な対応付けのみを抽出しなくてはならないので,対応の良さを判断するための尺度は信頼性の高いものでなくてはならない.本稿では,そのような信頼性の高い尺度を,記事対応付けと文対応付けの双方について提案し,その信頼性の程度を評価する.また,作成した対応付けデータを試験的に公開したときの状況についても述べ,そのようなデータが潜在的に有用な分野について考察する.以下では,まず,対応付けに用いた日英新聞記事について概要を述べ,次に,記事対応付けの方法と文対応付けの方法を述べたあとで,それぞれの対応付けの精度を評価する.最後に考察と結論を述べる.また,付録には,実際に得られた文対応の例を示す. \section{対応付けに用いた日英新聞記事} \label{sec:corpora}対応付けの元データは,日本語記事は「読売新聞」,英語記事は「TheDailyYomiuri」であり,それぞれ「読売新聞記事データ」における1989年9月から2001年12月までの記事を利用した.この期間における年間の記事数は,日本語記事は10万から35万程度であり,英語記事は4千から1万3千程度である.また,総記事数は,日本語記事は約200万であり,英語記事は約11万である.このように,英語記事の方が少ないので,対応付けにおいては,各英語記事に対応する日本語記事を求めることにした.記事のメタ情報として,TheDailyYomiuriには,1996年7月中旬から,「本紙翻訳=Y/N」という情報が各記事に付いている.これは,その英語記事を書くにあたって,読売新聞の記事を元にしたかどうかという意味であるので,1996年7月中旬からは,「本紙翻訳=Y」である英語記事についてのみ,対応する日本語記事を求めることにした.このときの英語記事の数は35318である.一方,1996年7月中旬以前には,そのような情報はないので,全ての英語記事について対応する日本語記事を求めることにした.このときの英語記事の数は59086である.なお,以下では,1996年7月中旬以前の記事集合を「1989-1996」と書き,1996年7月中旬以降の記事集合を「1996-2001」と書くことにする.1989-1996については,全英語記事を利用するため,1996-2001と違って,そもそも,各英語記事について対応する日本語記事がない場合がある.そのため,どのくらいの英語記事に,対応する日本語記事があるかを推測するために,「本紙翻訳=Y」の割合を,1997年から2001年の記事について調べたところ,67.9\,\%であった.対応を求めるにあたって,各英語記事に対応する日本語記事は,互いに近い日付であると考えられる.そのため,各英語記事について,その日付の前後2日の範囲の日本語記事の中から対応する記事を見付けることにした.このとき,1日分の英語記事について,日本語記事は5日分があるが,このときの平均記事数は,1989-1996については,英語記事が24,日本語記事が1532,1996-2001については,英語記事が18,日本語記事が2885である.このように,非常に曖昧性があり,かつ,対応記事も場合によっては存在しないという,ノイズの多い状況のなかから対応記事を見つける必要があるので,信頼性の高い記事対応(評価)尺度が必要である.また,文対応についていえば,たとえ記事同士が対応していたとしても,その対応は,直訳関係にあるものは少なく,どちらかというと,日本語記事を材料として英語記事を書いたというような状況である.たとえば,以下の例では,英語と日本語とで,e1,e3,e4とj1,j2,j3,j4とによる3対4に複雑に絡みあう対応があり,その間にe2とj5による対応がある.\begin{quote}\footnotesize\kakko{e1}TwobulletholeswerefoundatthehomeofKengoTanaka,65,presidentofBungeiShunju,inAkabane,Tokyo,byhiswifeKimiko,64,ataround9a.m.Monday.\kakko{/e1}\kakko{e2}Policesuspectright-wingactivists,whohavemountedcriticismagainstarticlesabouttheImperialfamilyappearingintheShukanBunshun,thepublisher'sweeklymagazine,wereresponsiblefortheshooting.\kakko{/e2}\kakko{e3}Policereceivedananonymousphonecallshortlyafter1a.m.MondaybyacallerwhoreportedhearinggunfirenearTanaka'sresidence.\kakko{/e3}\kakko{e4}Policefoundnothingafterinvestigatingthereport,butlaterfoundabulletintheTanakas'bedroom,wheretheyweresleepingatthetimeoftheshooting.\kakko{/e4}\end{quote}\begin{quote}\footnotesize\kakko{j1}二十九日午前八時五十五分ごろ、東京都北区赤羽西四文芸春秋社長、田中健五さん(65)方の二階東側外壁に、短銃で撃たれた跡があるのを、妻喜美子さん(64)が見つけた。\kakko{/j1}\kakko{j2}赤羽署で調べたところ、寝室の外壁に二か所の穴が確認され、銃弾一発が寝室内から発見された。\kakko{/j2}\kakko{j3}これに先立ち、午前一時すぎ、田中さん方周辺で「短銃の発射音のような音が二、三発聞こえた」という匿名の通報が同署にあり、署員が確認に向かったが、この時点で銃痕は発見できなかった。\kakko{/j3}\kakko{j4}発射音がしたころ、田中夫妻は寝室で就寝中だったという。\kakko{/j4}\kakko{j5}同社が発行している週刊誌「週刊文春」が、最近、皇室批判記事を掲載していたことから、同署では、皇室批判に反発する右翼の犯行の可能性があるとみて、捜査をしている。\kakko{/j5}\end{quote}このような文対応は,人間の観察者(たとえば,日英記事のスタイルを比較研究しているような人)にとっては価値があるが,文対応の結果を自然言語処理,たとえば,機械翻訳に利用しようとしている場合には,今のところは,有用性は限定されている.そのため,なるべく直訳同士にあるような文対応を抽出したいのであるが,このような状況から直訳に近い文対応を抽出するためには,信頼性の高い文対応(評価)尺度が必要である. \section{対応付けの方針} \label{sec:guideline}これまで,\ref{sec:intro}節で,日英対訳コーパスが必要とされてていることを述べ,また,\ref{sec:corpora}節において,対応付けの元となる日英新聞記事に付いて述べた.本節では,これらの節に基づいて,本稿における,記事対応付けおよび文対応付けの方針について述べる.それは以下の2点である.\begin{enumerate}\itemまず,日英記事対応付けと文対応付けとは,本稿における目的ではあるが,そのような対応付けをすること自体の目的は,その対応付けの結果を利用して,機械翻訳なり英語教育なりに役立てることである.そのため,対応付けについては,もし,既存の言語資源および手法を利用することにより,ある程度の量と精度の対応付けが得られるなら,あえて新しい言語資源や手法を開発することなく,既存の言語資源や手法を有効に利用する.\itemしかし,対象とするコーパスには,多くのノイズがあるため,既存の言語資源や手法をそのまま利用した場合に得られる対応付けには,間違った対応付けも多く含まれる.そのため,その対応付けのなかから,良さそうな対応付けのみを抽出するための信頼性の高い尺度を考える.\end{enumerate}こうした場合には,対象とするコーパスに潜在的に存在する対応付けのうちで,既存の言語資源や手法により抽出されなかったものは利用できない,そのため,対応付けの再現率は低い可能性がある.しかし,良さそうな対応付けとして抽出されたものの精度は高いことが期待できる.つまり,上記の方針は,再現率よりも精度を重視するということである.以下,この方針に基づき,\ref{sec:artalign}節と\ref{sec:sntalign}節では,既存の言語資源や手法に基づいて記事対応と文対応とを取る方法について述べ,\ref{sec:artscore}節では,得られた対応付けの中から良さそうな対応付けを得る尺度について述べる. \section{記事対応付けの方法} \label{sec:artalign}記事対応付けは,言語横断検索の枠組で行なう.つまり,英語記事を質問とし,それに関連する記事を日本語記事データベースから検索することにより,与えられた英語記事と対応する日本語記事を見付ける.このとき,一般に,質問である英語記事を日本語に変換するか,あるいは,データベースである日本語記事を英語に変換する必要がある.本研究では,データベースである日本語記事を英語(の単語集合)に変換した.そうした主な理由は,手元にある言語資源が日英方向の変換に便利だったからである.\subsection{日本語記事の英単語集合への変換}\label{sec:artj2e}我々は,辞書引きに基づいて日本語記事を英単語集合に変換することにした.利用した日英辞書は,EDR日英対訳辞書,EDICT(一般的な日英対訳辞書),ENAMDICT(固有名詞の日英対訳辞書)である\footnote{{\tthttp://www.csse.monash.edu.au/\~{}jwb/edict.html}}.これらの辞書の見出し語に対して,IPADIC(version2.4.4)の品詞体系を付与し,茶筌\footnote{{\tthttp://chasen.aist-nara.ac.jp/index.html.ja}}(version2.2.8)の追加辞書として利用した.追加したエントリ数は,EDR日英対訳辞書が約18万,EDICTが約6万,ENAMDICTが約22万である\footnote{ここで追加したエントリは,IPADICに含まれていないもののみである.なお,たとえば,EDR日英対訳辞書とEDICTとなどで,個別に追加した辞書間における重複があったとしても,それらの重複を除去することはせずに追加している.}.こうすることにより,茶筌の解析結果から容易に日英対訳辞書のエントリがアクセスできるようになる.たとえば,「あおぎ見た月」は,追加辞書なしの状態では\begin{quote}\footnotesize\begin{verbatim}あおぎあおぐ動詞-自立見見る動詞-自立たた助動詞月月名詞-一般\end{verbatim}\end{quote}と形態素解析される(形態素情報の一部を省略)が,追加辞書ありの状態では\begin{quote}\footnotesize\begin{verbatim}あおぎ見あおぎ見る動詞-自立たた助動詞月月名詞-一般\end{verbatim}\end{quote}のように解析され,特に工夫をせずとも,複合語である「あおぎ見る」の訳語として「lookup」「faceupwards」「lookupto」「respcet」「admire」などが得られる.また,この方法によると,「くすの木台に行く」を形態素解析した場合のように,辞書にない単語に起因する解析誤りである「くす/の/木/台/に/行く」のようなものも「くすの木台/に/行く」として解析でき,かつ,「くすの木台」の訳語として「Kusunokidai」も容易に得られる.このように,IPADICを増強することにより,解析誤りを避けながら,容易に日英辞書の辞書引きができると共に,複合語や固有名詞の翻訳という言語横断検索において重要な作業も同時にできるため,この方法は有用である.このようにして日本語の各単語(もしくは複合語)において,その品詞が内容語(主に名詞)に相当するものから英訳語を得て,そこから簡単なヒューリスティクスにより主辞を抽出し当該日本語単語の変換結果としたが,このとき,各単語についてその全ての訳語の主辞全てを変換結果として採用するとすると,訳語の主辞のなかには当該文脈の訳として適当でないものもあるため,検索結果に悪影響を与えると考えられる.そのため,なるべく,訳語として適当なものだけを変換結果として利用したい.そうするためには,訳語の曖昧性を解消すれば良いのだが,それを正確にするのは困難である.そのため,ここでは,ヒューリスティクスとして,まず,訳語の主辞の中から,より多くの訳語に含まれているようなものを優先し,次に,同順位のものについては,その訳語の主辞に対応する日本語単語を含む日本語記事の年と同年の英語記事において,その訳語の主辞を含む英語記事数(documentfrequency,df)が多いような訳語の主辞を優先する\footnote{たとえば,「今日」には「today」「nowadays」「thisday」「presentday」などが訳としてあるが,このうち,主辞だけをみると,「day」が一番多いので,まず,これを取る.次に,「nowadays」「today」の中から,dfが高いものを取る.}ことにした.そして,このヒューリスティクスにより優先付けられた上位2個のみを変換結果として利用した.なお,dfが0であるような訳語の主辞は,最初から,候補に含めない.\subsection{英語記事からの日本語記事の検索}\label{sec:clir}一旦,日本語記事が英単語集合に変換されてしまえば,あとは,通常の情報検索と同様にして,質問として与えられた英語記事に最も類似するような日本語記事(の英単語集合への変換結果)を検索することができる.そして,その日本語記事をもって対応記事とする.このときの英語記事と日本語記事の類似度としては,$\BM$\cite{robertson94:_some_simpl_effec_approx_poiss}を利用した.$\BM$は,情報検索に有用な尺度として知られており,TREC\footnote{http://trec.nist.gov/}(TextREtrievalConference)やNTCIR\footnote{http://research.nii.ac.jp/\~{}ntcadm/index-en.html}(NII-NACSISTestCollectionforIRSystems)でも,その有効性は実証されている.ここで,質問である英語記事$Q$と日本語記事の変換結果$D$との類似度$\BM(D,Q)$は以下である.\begin{displaymath}\BM(D,Q)=\sum_{T\inQ}w^{(1)}\frac{(k_1+1){\ittf\/}}{K+{\ittf\/}}\frac{(k_3+1){\itqtf\/}}{k_3+{\itqtf\/}}\end{displaymath}\begin{quote}\footnotesizeただし,$T$は$Q$に含まれる単語(ターム)である.$w^{(1)}$は$T$の重みであり,$w^{(1)}=\log\frac{(N-n+0.5)}{(n+0.5)}$.$N$は,検索対象の文書集合における全文書数である.ただし,検索対象は,質問である英語記事の日付の前後2日の範囲の日本語記事(の英単語への変換結果)である.$n$は,$T$を含む文書の数である.$K=k_1((1-b)+b\frac{{\itdl\/}}{{\itavdl\/}})$である.ただし,$k_1$,$b$,$k_3$は経験的に定める定数であり,本研究では,$k_1=1$,$b=1$,$k_3=1000$である.また,${\itdl\/}$は,$D$の長さであり,${\itavdl\/}$は,文書集合における文書の長さの平均値である.ただし,文書の長さとは,その文書に含まれる単語の延べ数のことである.$tf$は,$D$に含まれる$T$の数である.$qtf$は,$Q$に含まれる$T$の数である.\end{quote}以上をまとめると,記事対応付けにおいては,日本語記事を英単語集合に変換し,その変換結果に対して,英語記事を質問として情報検索をし,その結果の$\BM$による類似度が1位の日本語記事を,英語記事の対応記事とする.この対応付けられた日英記事中にある日本語文と英語文との対応付けは,次節で述べる方法で行なう. \section{文対応付けの方法} \label{sec:sntalign}日英記事における文間の対応はDPマッチングで求めた\cite{gale93:_progr_align_senten_bilin_corpor,uturo94:_bilin_text_match_bilin_diction_statis}.DPマッチングで文対応を得るアルゴリズムの簡潔な記述には\cite{uturo94:_bilin_text_match_bilin_diction_statis}を参照せよ.ここでは,日本語文(集合)から得られた内容語集合$J$と英語文(集合)から得られた内容語集合$E$との類似度,$\SIM(J,E)$についてのみ述べる.\begin{displaymath}\SIM(J,E)=\frac{\co(J\capE)+1}{|J|+|E|-2\co(J\capE)+2}\end{displaymath}である\footnote{単語集合同士の類似度については,その他にも様々なものが考えられるが,それらについて詳細な比較検討はしていないが,本節で述べる文対応付けの実験結果の精度からは,$\SIM(J,E)$が文対応付けの類似度として妥当なものであると言える.}.ただし,$\f(x)$を文$X$における$x$の頻度とすると$|X|=\sum_{x\inX}\f(x)$である.また,$\co(J\capE)$は,$J$中の単語と$E$中の単語との1対1対応を,日英および英日対訳辞書に基づき求めた場合の集合を$J\capE=\{(j,e)|j\inJ,e\inE\}$とすると,$\co(J\capE)=\sum_{(j,e)\inJ\capE}\min(\f(j),\f(e))$である.$J$と$E$と$J\capE$とは,以下のようにして求めた.まず,辞書引きにあたって,日本語文については,茶筌により形態素解析をした結果から,内容語および複合語を抽出した.これが$J$である.また,英語文については,Brill'sTagger\cite{brill92:_simpl_rule_based_part_speec_tagger}により品詞付けをし,基本形をWordNet\footnote{{\tthttp://www.cogsci.princeton.edu/\~{}wn/}}のライブラリを利用して求め,その結果から,内容語と複合語を抽出した.これが$E$である.次に,$J\capE$については,ある$(j,e)$の組$(j\inJ\wedgee\inE)$について,もし,$j$の訳語に$e$があるか,$e$の訳語に$j$がある場合には,$(j,e)$には対応の可能性があるとし,そのような全ての対応の可能性のなかから,訳語の曖昧性の低いほうから1対1に対応付けていった.すなわち,$(j,e)$の曖昧性として,$j$の訳語の数を採用し,それの小さいものから対応付けをしていくのだが,既に,$(j,e)$のどちらかでもが選ばれている対応はスキップする,という方法を採用した.なお,このときの訳語の対応付けに用いた対訳辞書は,EDR日英対訳辞書とEDR英日対訳辞書を統合して生成した日英および英日対訳辞書である.これらの辞書において,日英方向のエントリ数は約32万,英日方向のエントリ数は約37万である.以上のように定義された類似度を用いて,文対応を付けたが,このとき,文対応付けに用いたプログラムでは,DPマッチングにおける文間の対応としては,1対$n$もしくは$n$対1,ただし,$1\len\le6$しか許していない.この条件下で,文対応プログラムの精度を,人手により文対応が付けられている,白書データ\cite{hakusho}に適用することにより求めた.白書データには,18対の日英ファイルがあるが,そのうち,訳抜け(0対$n$もしくは$n$対0の文対応)の数が3以下の12ファイルを対象とした.これらのファイル対について,日本語文の平均数は413,英語文の平均数は495である.このとき,再現率の平均は0.982,適合率の平均は0.986である.これより,このプログラムの精度は十分に高いと言える.なお,\begin{displaymath}再現率=\frac{プログラムの得た文対の中で正しい対の数}{正しい対の総数}\end{displaymath}\begin{displaymath}適合率=\frac{プログラムの得た文対の中で正しい対の数}{プログラムが推定した対の総数}\end{displaymath}ただし,$1$対$n$の文対応からは,$n$個の対が得られる.たとえば,文$J_1$と文$E_1,E_2,E_3$が対応しているとすると,得られる対は$(J_1,E_1),(J_1,E_2),(J_1,E_3)$の3個である.我々は,辞書のみに基づいて文対応付けをした.それに対して,\cite{uturo94:_bilin_text_match_bilin_diction_statis}は,辞書情報に統計情報を組合せることにより,文対応の精度が向上すると述べている.しかし,我々のプログラムの精度は既に十分に高いので,統計情報は利用しなかった. \section{記事対応尺度と文対応尺度} \label{sec:artscore}\ref{sec:artalign}節と\ref{sec:sntalign}節とにおいて,記事対応の類似度$\BM$と文対応の類似度$\SIM$とを導入した.しかしながら,これらの類似度のみを利用して記事対応や文対応を付けた場合には,\ref{sec:arteval}節や\ref{sec:snteval}節で実験で示すように,十分に精度の高い記事対応や文対応を得ることはできない.そのため,本節では,記事対応と文対応の双方について,新たな尺度を定義する.本研究の主要な貢献は,以下で述べる二つの尺度$\AVSIM$と$\SntScore$とを提案し,その性能を実験により詳細に検討すると同時に,大規模な日英対応付けコーパスを構築し,それを一般に利用可能にした点である.まず,記事対応についてであるが,我々は,\ref{sec:artalign}節において,日本語記事$J$と英語記事$E$の類似度として$\BM(J,E)$を導入した.この類似度は,単語集合間の類似度であるので,文の順序などは考慮できない.そのため,文の順序を考慮できる記事対応尺度として,$\AVSIM(J,E)$を定義する.これは,$J$と$E$との文対応\footnote{これらは,もし対応が1対nである場合には,文と文集合との対応となるが,そのような場合も含めて文対応と呼ぶ.}を$\{(J_1,E_1),...,(J_m,E_m)\}$としたとき,以下の式である.\begin{displaymath}\AVSIM(J,E)=\frac{\sum_{k=1}^{m}\SIM(J_k,E_k)}{m}\end{displaymath}$\AVSIM$が高い値となるのは,個々の文対応の類似度$\SIM$が高い場合であるので,そのような場合には,記事としての対応も良いと考えた.次に文対応の良さの尺度について述べる.\ref{sec:sntalign}節で述べたように,我々の文対応付けプログラムの精度は,白書データのように日本語文と英語文とが原文と訳文という関係にあるようなものを対応付ける限りにおいては,高精度である.しかし,\ref{sec:corpora}節で述べたように,日本語記事と英語記事との関係は,一般には,原文と訳文という関係ではない.そのため,\ref{sec:sntalign}節の方法で文対応付けをした場合には,適切な対応と共に不適切な対応も多く得られる.そのようにノイズの多い状況から,適切な対応のみを抽出するためには,文対応の尺度として,文類似度だけでなく,記事対応の尺度も利用すれば良いと考えた.そのため,日本語記事$J$と英語記事$E$との記事対応における,文$J_k$と$E_k$との文対応尺度として,\begin{displaymath}\SntScore(J_k,E_k)=\AVSIM(J,E)\times\SIM(J_k,E_k)\end{displaymath}を定義した.この尺度は,同一記事対応内で文対応を比べる場合には文類似度$\SIM$と同じ順位を与えるが,異なる記事間での文対応の比較では,文類似度だけでなく,記事対応の尺度値も高いような文対応を優先する. \section{記事対応付けの精度} \label{sec:arteval}\subsection{無作為抽出による精度評価}\label{sec:randeval}記事対応付けは,各英語記事との類似度$\BM$が高い日本語記事を検索することによりなされる.このとき,類似度1位の日本語記事についての記事対応付けの精度を1996-2001と1989-1996とについて表\ref{tab:prec1}に示す\footnote{評価を記述する際には1996-2001をメインとする.その理由は,今後ともTheDailyYomiuriには「本紙翻訳=Y/N」の情報が付くと考えられるので,1996-2001の精度評価の方が相対的に重要と考えられるからである.}.\begin{table}[htbp]\small\centering\caption{類似度1位の記事対応の精度}\begin{tabular}{|c|ccc|ccc|}\hline&\multicolumn{3}{|c|}{1996-2001}&\multicolumn{3}{|c|}{1989-1996}\\\raisebox{1.5ex}[0pt]{評価値}&下限&割合&上限&下限&割合&上限\\\hlineA&0.49&0.59&0.69&0.20&0.29&0.38\\B&0.06&0.12&0.18&0.08&0.15&0.22\\C&0.03&0.08&0.13&0.03&0.08&0.13\\D&0.13&0.21&0.29&0.38&0.48&0.58\\\hline\end{tabular}\label{tab:prec1}\end{table}表\ref{tab:prec1}において,「評価値」とは,記事対応の良さの人手による判定の評価値であり,その基準は,Aは「記事全体の記述の5〜6割程度以上について意味の対応がとれる」,Bは「2〜3割程度以上5〜6割程度以下について意味の対応がとれる」,Dは「全然違う」,Cは「A,B,D以外」である\footnote{A,B,C,Dの判定は第1著者がした.判定については,1996-2001については,ダブルチェックをした.1996-2001についての初回の判定における各評価値の割合は,A=0.62,B=0.09,C=0.09,D=0.20である.したがって,同一評価者内においては判定結果は安定していると言える.なお,1996-2001については,更に,類似度1位の評価値がCかDの場合には,10位以内までを見て,A,Bがないかを探した場合の各評価値の割合は,A=0.62,B=0.15,C=0.05,D=0.18であるので,類似度1位のものとそれほど違わない.そのため,1989-1996については,類似度1位のもののみしか判定しなかった.}.「割合」とは,1996-2001と1989-1996のそれぞれから,100記事対応ずつを一様無作為抽出したときに,その評価値であった記事対応の割合である.「下限」「上限」とは,割合の95\,\%信頼区間の下限と上限である.\ref{sec:corpora}節で述べたように,1996-2001については,「本紙翻訳=Y」なる英語記事のみを対象したが,1989-1996については,全英語記事を対象とした.そのため,1989-1996の精度は,1996-2001よりも低い.また,1996-2001の精度が1989-1996の精度よりも高いといっても,それでも,評価値Aが約60\,\%,AもしくはBが約70\,\%であるので,$\BM$による記事対応付けの結果をそのまま利用した場合には,ノイズとなる記事対応が多すぎる.我々の観察によれば,評価値がAもしくはBの記事対応は,そこから日英言語表現間の対応が抽出できそうという意味において,有用な記事対応である.このような記事対応のみを抽出するには,$\BM$による記事対応付けの結果をそのまま全て利用するのではなく,対応の良さにより対応付けの結果をソートし,その上位のみを抽出すれば良い.\subsection{ソートした場合の記事対応の精度}\label{sec:sorteval}記事対応の良さの指標として,$\AVSIM$と$\BM$のどちらが適当かを比較した.表\ref{tab:prec1}と同じデータに対して,それぞれの値の降順により記事対応をソートし,評価値がAもしくはBの場合を正解とし,各順位までにおける正解の個数とその割合とを調べた.それを表\ref{tab:rankprec}に示す.表\ref{tab:rankprec}から,我々は,$\AVSIM$の方が$\BM$よりも,記事対応の良さとして適切な尺度であると判断した.\begin{table}[htbp]\footnotesize\centering\caption{順位と精度}\begin{tabular}{|c|cc|cc||cc|cc|}\hline&\multicolumn{4}{|c||}{1996-2001}&\multicolumn{4}{|c|}{1989-1996}\\\cline{2-9}&\multicolumn{2}{|c|}{$\AVSIM$}&\multicolumn{2}{|c||}{$\BM$}&\multicolumn{2}{|c|}{$\AVSIM$}&\multicolumn{2}{|c|}{$\BM$}\\\raisebox{2.5ex}[0pt]{順位}&数&割合&数&割合&数&割合&数&割合\\\hline5&5&1.00&5&1.00&5&1.00&2&0.40\\10&10&1.00&8&0.80&10&1.00&4&0.40\\20&20&1.00&16&0.80&19&0.95&9&0.45\\30&30&1.00&25&0.83&28&0.93&16&0.53\\40&40&1.00&34&0.85&34&0.85&24&0.60\\50&50&1.00&39&0.78&37&0.74&28&0.56\\60&60&1.00&47&0.78&42&0.70&30&0.50\\70&66&0.94&55&0.79&42&0.60&35&0.50\\80&70&0.88&62&0.78&43&0.54&38&0.47\\90&71&0.79&68&0.76&43&0.48&40&0.44\\100&71&0.71&71&0.71&44&0.44&44&0.44\\\hline\end{tabular}\label{tab:rankprec}\end{table}$\AVSIM$の精度の方が$\BM$の精度よりも高い理由は,\ref{sec:artscore}節で述べたように,$\AVSIM$が,$\BM$と違って,個々の文対応の良さまでも考慮した尺度であるからと考える.\subsection{評価値とAVSIM}\label{sec:judgeeval}人手により判定された評価値A,B,C,Dと$\AVSIM$との対応の程度を調べることを目的とし,表\ref{tab:prec1}と同じデータに対して,各評価値となった記事対応について,$\AVSIM$の統計量を求めた.それらを,1996-2001については表\ref{tab:avsim1}に,1989-1996については表\ref{tab:avsim2}に示す.\begin{table}[htbp]\small\centering\caption{AVSIMの統計量(1996-2001)}\begin{tabular}{|c|c|ccc|cc|}\hline評価値&数&下限&平均&上限&閾値&有意差\\\hlineA&59&0.176&0.193&0.209&0.168&**\\B&12&0.122&0.151&0.179&0.111&**\\C&8&0.077&0.094&0.110&0.085&*\\D&21&0.065&0.075&0.086&&\\\hline\end{tabular}\label{tab:avsim1}\end{table}\begin{table}[htbp]\small\centering\caption{AVSIMの統計量(1989-1996)}\begin{tabular}{|c|c|ccc|cc|}\hline評価値&数&下限&平均&上限&閾値&有意差\\\hlineA&29&0.153&0.175&0.197&0.157&*\\B&15&0.113&0.141&0.169&0.131&\\C&8&0.092&0.123&0.154&0.097&**\\D&48&0.076&0.082&0.088&&\\\hline\end{tabular}\label{tab:avsim2}\end{table}これらの表において,「数」とは,その評価値であった記事対応の数である.また,「平均」とは,そのような記事対応の$\AVSIM$の平均値であり,「下限」および「上限」は,平均値の95\,\%信頼区間の下限と上限である.「閾値」は,その評価値であるような記事対応と,次の評価値であるような記事対応とを分けるときに,どの$\AVSIM$で区切れば良いかを示す.たとえば,表\ref{tab:avsim1}では,A判定とB判定とは$\AVSIM$の値が0.168により分かれる.この閾値は,線形判別分析により求めた値である.また,「有意差」の欄にある「**」と「*」は,それぞれ,その評価値と次の評価値とで平均値に差があるかを,Welch検定により片側検定したときに,その差が,1\,\%と5\,\%水準で有意であることを示す.二つの表において,1989-1996のBとCとの区分を除いては,全ての評価値において,各評価値と次の評価値とでは,平均値に有意な差があることがわかる.このことから,$\AVSIM$は,各評価値を十分に明確に区切ることができると言える.なお,1989-1996では,BとCが分かれていないことについて,その理由を調べた.そうすると,実際,1989-1996では,Cだといっても,記述の重複が,1996-2001のCと比べて,多いものが多かった.定性的には,1996-2001のCは,「Dではない(全然違うわけではない)」という意味でCであり,1989-1996のCは,「Bかもしれない」という意味でCであった.次に,1996-2001と1989-1996とで,同じ評価値を与えられた記事対応の$\AVSIM$の平均値に統計的に有意な差があるかを調べた.つまり,たとえば,表\ref{tab:avsim1}では,評価値Aの平均値は0.193であり,表\ref{tab:avsim2}では,0.175であるが,この二つの平均値の差が統計的に有意かどうかを両側検定によるWelch検定により調べたところ,有意水準5\,\%においては,A,B,C,Dいずれの評価値においても有意差はみられなかった.そのため,1996-2001と1989-1996とで,同じ評価値の記事対応は,同じ程度の$\AVSIM$であると判断した.そのため,$\AVSIM$は,異なる記事集合を利用した場合であっても,安定して,記事対応の良さを示す指標であると考える.\begin{table}[htbp]\small\centering\caption{評価値と記事数の推定}\begin{tabular}{|c|c|c|c|}\hline&1996-2001&1989-1996&計\\\hlineA&15491&16004&31495\\B&9244&5999&15243\\C&4944&10258&15202\\D&5639&26825&32464\\\hline計&35318&59086&94404\\\hline\end{tabular}\label{tab:numart}\end{table}最後に,表\ref{tab:avsim1}と表\ref{tab:avsim2}にある閾値\footnote{表\ref{tab:avsim1}での閾値の丸めていない値は,0.1681076526,0.111106681,0.08531399165であり,表\ref{tab:avsim2}では,0.1566618237,0.130510963,0.09692189387である.これらの値を実際には利用した.}に基づいて,1989-1996と1996-2001とについて,A,B,C,Dであるような記事数を推定した結果を表\ref{tab:numart}に示す.表より,評価値がAもしくはBと推定される記事対応は,全体では,46738$(=31495+15243)$だけある.我々は,約4万7千という記事対応は,訳語抽出などの自然言語処理への応用や,英語教育などへの応用にとって,十分有効に利用できる量であると考える.以上より,$\AVSIM$は,人手による評価値A,B,C,Dに良く対応した尺度であり,かつ,異なる記事集合においても同一評価値については安定した数値をとる尺度であることがわかった.また,$\AVSIM$に基づいて記事対応を抽出することにより,約4万7千の良質な記事対応が抽出できることが期待できることがわかった. \section{記事対応付けの精度向上の可能性} \label{sec:enhancement}\ref{sec:arteval}節で述べたように,$\AVSIM$は,記事対応の良さを示す信頼性の高い尺度である.そのため,$\BM$の代り(もしくは重みつき和などによる組み合わせで),最初から$\AVSIM$を利用して記事対応を求めれば,\ref{sec:randeval}節で述べた全体的な精度も向上すると考えられる.しかし,我々は,現時点では,$\BM$による類似度1位の記事対応についてのみしか,$\AVSIM$を求めていない.その理由は,10位以内などの比較的少しの記事をみただけでは記事対応精度に顕著な向上がないからであり,かつ,現時点での文対応プログラムの実行速度が遅いからである.今の文対応プログラムでは,一記事あたりの対応を取るために,数秒は掛る\footnote{プログラムの動作環境は,CPUはPentium-41500MHz,OSはRedHatLinux7.1である.}.そのため,一位同士の対応について$\AVSIM$を得るだけでも,9万4千記事程度なので,数日間は掛かる.したがって,たとえば,100位以内をみるだけでも,数100日間掛かることになる.これは非現実的である.しかし,今後,もっと高速の文対応プログラムを作り,それを利用することにより,より高精度な記事対応が得られるものと考えている.また,今は,各英語記事について,その記事の日付の前後2日の範囲しか調べていないが,記事によっては,5日前のものが翻訳されているものがあった.このようなものまでカバーするためには,もっと広い範囲から対応候補記事を集める必要がある.この2点は,システム全体を効率化しスケールアップすることにより達成可能なので,将来的には実現したい. \section{文対応付けの精度} \label{sec:snteval}\ref{sec:corpora}節で述べたように,たとえ,日英記事間に内容上の対応があったとしても,文間対応があるとは限らないので,対応付けられた記事から得られる文対応はノイズが多いものとなる.そのため,$\BM$による類似度1位の記事対応全てから得られる文対応全てを$\SntScore$により降順にソートし,その上位のみを利用することにより対応の良いものを抽出することにした\footnote{文対応精度評価は,1989-1996と1996-2001とを分けずに行なう.その理由は以下の2点である.(1)まず,作成するコーパスでは,1989-2001全体から選んだ文対応のなかから良く対応していそうなもののみを抽出したい.そのためには,全体を評価した方が良い.(2)記事対応の精度評価の結果から,同程度の$\AVSIM$は,1989-1996と1996-2001とで同じ評価値に対応するので,$\SntScore$も1989-1996と1996-2001とで分ける必要はないと考えられる.}.このような文対応の数は,1989-1996と1996-2001を合せた全体で,約130万だけある.なお,ここでの文とは,日本語文については,簡単なプログラムにより,句点などで日本語記事を分割した結果であり,英語文については,MXTERMINATOR\cite{reynar97:_maxim_entrop_approac_ident_senten_bound}に対して前処理と後処理を適用して英語記事を分割した結果である.文対応のなかでは,1対1対応が最も重要である.また,文対応といっても,新聞記事には,中見出しなどの,必ずしも文でないものもある.そのため,1対1対応のなかで,文末が句点やピリオドなどで終っているもののみを取り出し,これを特に「1:1」と呼び,その他の対応を「1:n」と呼ぶことにする.1:1の数は,約64万ある.1:nの数は,約66万ある.1:1の精度を求めるために,$\SntScore$により降順にソートされた上位30万対応について,3万対応ごとに100ずつを一様無作為抽出した.この各対応について,x/oの2値評価をした\footnote{評価は第1著者がした.ダブルチェックによると,初回の判定と2回目の判定とで100個あたり多くて2,3個程度のo/xの違いがあった.したがって,同一評価者内においては判定結果は安定していると言える.なお,1:nについてはダブルチェックはしていない.}.ここで,xは「意味が全然違う」であり,oは「意味が全然違うことはない」である.その結果のx/oの数を表\ref{tab:snteval}に示す.\begin{table}[htbp]\small\centering\caption{順位と1:1の精度}\begin{tabular}{|r|c|c|}\hline範囲&o数&x数\\\hline1-&100&0\\30001-&99&1\\60001-&99&1\\90001-&97&3\\120001-&96&4\\150001-&92&8\\180001-&82&18\\210001-&74&26\\240001-&47&53\\270001-&30&70\\\hline\end{tabular}\label{tab:snteval}\end{table}表から分かるように,順位が下っていくにつれて,xの数が指数的に増加している.このことは,$\SntScore$が,効率良く,適切な1:1を上位に順位付けていることを示している.表\ref{tab:snteval}から,15万対までは十分に信頼できる対応であると言える.なお,15万対までのoの累積の割合は0.982である.\begin{table}[htbp]\small\centering\caption{順位と1:nの精度}\begin{tabular}{|r|c|c|c|}\hline範囲&1:nの数&o数&x数\\\hline1-&38090&98&2\\90001-&59228&87&13\\180001-&71711&61&39\\\hline\end{tabular}\label{tab:paraeval}\end{table}次に,1:nの精度を求めるために,$\SntScore$により降順にソートされた上位について,表\ref{tab:snteval}の「1-90000」「90001-180000」「180001-270000」の各範囲について,それらの1:1の$\SntScore$の範囲に収まるような1:nの精度を求めた.精度を求めるときには,1:1のときと同様に,各範囲から100対を一様無作為抽出し,x/oの2値評価をした.その結果を表\ref{tab:paraeval}に示す.表より,「1-90000」の範囲の38090個の1:nについては,精度の良い対応であると言える.以上述べたように,$\SntScore$により文対応をソートすることにより,1:1と1:nの双方について,上位には,十分に精度の高い文対応が得られる.次に,$\SIM$について,$\SntScore$との比較のため,その精度を述べる.比較にあたっては,$\SIM$の降順でソートした上位における精度を調べ,その精度により比較する.まず,1:1についてであるが,$\SIM$の降順により1:1をソートした場合の上位15万対から100対を一様無作為抽出してo/xの判定をした結果は,o数=93・x数=7であった.これを,表\ref{tab:snteval}に示される,$\SntScore$における上位15万対における無作為抽出500対でのo数=491・x数=9と比べると,比率の差の検定を片側検定ですると,有意水準1\,\%(実際には0.16\,\%)で$\SntScore$の方が有意にoの比率が高い.次に,1:nについてであるが,1:1のときと同様に,1:nを$\SIM$の降順にソートし,上位38090対から100対を一様無作為抽出してo/xの判定をした結果は,o数=89・x数=11であった.これを,表\ref{tab:paraeval}に示される$\SntScore$における上位38090対における無作為抽出100対でのo数=98・x数=2と比べると,比率の差の検定を片側検定ですると,有意水準1\,\%(実際には0.49\,\%)で$\SntScore$の方が有意にoの比率が高い.これらより,1:1と1:nの双方について,$\SntScore$の方が,有用な尺度であると言える.$\SntScore$の精度の方が$\SIM$の精度よりも高い理由は,\ref{sec:artscore}節で述べたように,$\SntScore$が,$\SIM$と違って,記事対応の良さまでも考慮した尺度であるからと考える. \section{関連研究} \label{sec:relwork}自動的に記事対応を得ることを目的とする研究はいくつかある.そのうち,\cite{collier98:_machin_trans}は,言語横断検索に機械翻訳を利用した場合と辞書引きを利用した場合とを比較しており,再現率が高いとき(多くの記事対応を得たいとき)には,辞書引きの方が有利だとしている.我々も,表\ref{tab:prec1}のデータの1996-2001についてのみ,シャープ株式会社の機械翻訳支援システムを利用して精度評価をしてみたが,その結果は,統計的に有意ではないが,辞書引きの結果の精度の方が高かった\footnote{ただし,このときには,英語記事を日本語に翻訳し,その翻訳結果を質問として日本語記事からなるデータベースを検索した.これは,本稿でこれまで説明してきた方法である,日本語記事を英語単語集合に変換する方法の逆であるので,厳密な比較ではない.}.これらのことから,辞書引きの方が記事対応を得るには適しているのではないかと考えられる.また,\cite{matsumoto02:_autom_align_japan_englis_newsp}は,日経産業新聞について,英語記事と日本語記事との対応付けをしていて,その精度は,97\,\%と非常に高精度である.しかし,彼らは,同じ方法を,NHKの報道記事の対応付けに対しても適用しているが,その場合の精度は69.8\,\%であり,彼らの方法が,全ての場合で高精度であるわけではないということも示している.そのため,彼らの方法を読売新聞の記事対応付けに利用した場合にも同様に高い精度が得られるかは明かではない.これらの従来の記事対応を得る研究と我々の研究との主要な違いは次の2点である.\begin{enumerate}\itemまず,記事対応の評価尺度について,我々は,DPマッチングによる文対応付けの結果を利用した信頼性の高い尺度を提案した.それに対して従来の研究はbag-of-wordsに基づいた尺度を利用している.なお,情報検索において,質問文と文書との類似度を求める際にDPマッチングを利用する方法が\cite{yamamoto00:_dynam_progr}により提案されているが,彼らの研究対象と我々の研究対象とは異なるし,かつ,DPマッチングの方法や,評価尺度の定義も異なる.\item次に,我々は,記事対応の結果から文対応までを,実際に,大規模に得た.\cite{大和99}は,記事対応の結果から文対応を得ることを構想してはいるが,実際に文対応を得ているわけではない.加えて,我々は,対応付けの結果が一般に研究および教育目的に利用できるようにしているが,これは日英対応付けコーパスとしては初めての試みである.\end{enumerate} \section{データ公開} \label{sec:openToThepublic}我々は,本稿で述べた日英新聞記事対応付けの結果を数値情報としてエンコーディングすることにより,読売新聞とTheDailyYomiuriの記事データを持っている場合には,対応付けの結果が復元できるデータを作った.また,\ref{sec:snteval}節で述べた文対応について,日英それぞれの文末が句点やピリオドなどで終了しているものについて,1:1の上位15万対と1:nの上位3万対とを,読売新聞社からの許可を得て,生の文として,上記数値データに追加したデータを試験的に公開した.公開した期間は2002年10月23日から2002年11月22日の1ヶ月間であり,公開の情報は,言語処理学会のメイリングリストを通じて流した.その結果,31の機関からデータ入手の申し込みを受けた\footnote{今後の配布については第1著者まで問合せのこと.}.それら機関の内訳\footnote{これら内訳は機関名などから推測したものである.}は,国内が28,国外が3であった.また,企業からの申し込みは4件あり,そのほかの27件は中学・高校・大学もしくは研究機関であった.また,自然言語処理関係の研究機関から15件,その他の機関からは16件であった.それら16件は,言語学関係が13件,中学・高校が2件,また,民間企業で翻訳業務をしている企業からの申し込みが1件あった.これらの内訳から,このような日英対応付けデータが,自然言語処理の研究機関だけでなく,言語学や中学・高校の英語教育などに関わる人にとっても関心の高いものであることがわかる. \section{今後の課題} \label{sec:futurework}本稿で述べた対応付けは,\ref{sec:guideline}節で述べた方針に基づいている.すなわち,既存の言語資源や手法を用いて対応付けをして,その結果から,なるべく対応の良さそうなもののみを抽出するというものである.その結果,\ref{sec:arteval}節や\ref{sec:snteval}節で述べたように,上位にソートされた記事対応や文対応については,十分に精度の高い対応が得られた.しかし,ソートの適用対象は,\ref{sec:artalign}節や\ref{sec:sntalign}節の方法で求められた記事対応や文対応であるので,どんなに精度良くソートしたとしても,最初に求められた記事対応や文対応に含まれているよりも多くの正解対応を得ることはできない.たとえば,記事対応では,$\BM$により検索された記事対応しか対象としていないため,$\BM$の検索精度により,抽出できる記事対応の精度は制限される.この記事対応付けについては,\ref{sec:enhancement}節で,$\AVSIM$を用いることにより,精度が向上すると考えられると述べた.これと同様に,文対応においても,新聞記事に適した文対応付けアルゴリズムを用いることにより,抽出できる,正解である文対応の数が増えるものと考える.そのようなアルゴリズムを考案し,より多くの正解対応を求めることが今後の課題である. \section{おわりに} \label{sec:conclusion}ノイズの多い日英新聞記事集合から,内容が対応した記事対応と文対応を得るための信頼性の高い尺度を提案した.それら尺度を用いることにより,1989年から2001年までの読売新聞とTheDailyYomiuriとから記事対応と文対応を得た.それらのなかで,比較的良質と推定されるものが,記事対応は約4万7千あり,文対応は,1対1対応が約15万あり,1対1対応以外が約3万8千ある.これらは,現時点で一般に利用できる日英2言語コーパスとしては最大のものである.我々は,今後,この日英対応付けコーパスを,より良質にしていくとともに,このコーパスを実際の応用に利用することを考えている.\bibliographystyle{jnlpbbl}\bibliography{align}\section*{付録}\ref{sec:snteval}節の実験より,比較的良質と推定される文対応は,1対1対応が約15万あり,1対1対応以外が約3万8千あることがわかった.更に,そこから,日英それぞれの文末が句点やピリオドなどで終了しているものについて,1対1対応の上位15万対と1対1対応以外の上位3万対とを一般に公開していることを\ref{sec:openToThepublic}節で述べた.本付録では,この公開されている部分の文対応のサンプルと,公開されてはいないが,公開されている部分と公開されていない部分との境界付近にあるサンプルとを示す.公開されている部分のサンプルを示すことにより,どのような文対応が比較的良質とされているかの目安がつき,境界付近にあるサンプルを示すことにより,公開されている部分の文対応の最低品質の目安がつく.なお,\ref{sec:corpora}節で例示している日英対応を含む記事対応から得られる文対応は,1対1対応についても1対1対応以外についても,公開されている部分には入っていない.このことは,$\SntScore$を利用して文対応をソートすることにより,\ref{sec:corpora}節で示したような直訳とはいえないような文対応は,下位に位置付けられることを例証している.\subsection*{公開されている部分の文対応のサンプル}\subsubsection*{1対1対応}1対1対応の上位15万対から無作為抽出された5対を以下に示す.\vspace{1em}\parindent0cm\footnotesize1.こうした現状を知った面川委員長らが、タイの気候、風土に合った伝統的な農業を取り戻す拠点となる農業学校の設置を計画。\\Tohelpthesepoorerfarmers,theKakudaagriculturalassociationplanstosetupanagriculturalschoolinoneofthenortheast'svillages,whereitwillserveasacenterforthepreservationofThailand'straditionalfarmingmethods,assocationofficialssaid.\\2.火薬庫と言われた住専の処理が動き出したことへの安心感も大きい。\\Thestepstakentodealwithnonperformingloansleftbyjusencompaniesbroughtaboutageneralsenseofreliefbecausetheseloanscouldhaveprovedtobeapowderkegreadytoblowupinourfaces.\\3.従って、不用意に競争を抑制すべきでないことも確かである。\\Therefore,itiscertainthattheyshouldnotcarelesslyrestraincompetition.\\4.WTOの農業協定は、食糧安全保障や環境保護などにも配慮しつつ、漸進的な自由化推進をうたっている。\\ExistingagriculturalagreementsreachedbytheWTOcallfor"gradual"promotionofliberalization,takingintoconsiderationfoodsecurityandenvironmentalprotection.\\5.管理部門の他の社員も同様のカードを支給されていたが、同容疑者のカード使用額は社内最高だったという。\\ThesectionchiefspentmorethananyotherAjinomotoemployeegivenacreditcardforentertainmentpurposes,theyadded.\\\normalsize\parindent1em\subsubsection*{1対1対応以外}1対1対応以外の上位3万対から無作為抽出された5対を以下に示す.\vspace{1em}\parindent0cm\footnotesize1.だが、体当たり攻撃で旧秩序の拠点を打破せざるを得なかった政治・経済変革の第一段階は過ぎた。\\今や創造の時代が始まった。\\この時代が政治家に要求するのは、各種政治勢力と駆け引きを行い、妥協と合意を模索する手腕であり、相手の見解も考慮に入れることのできる能力である。\\Nowthatthefirstphaseofpoliticalandeconomicchanges--thefrontalattackagainstthebastionsoftheoldorder--isover,thetimehascomeforconstructivework,formasteringtheskillsofpoliticalmaneuvering,compromiseandagreementwithvariouspoliticalforces,andtheabilitytotakeintoaccounttheviewpointofone'sopponents.\\2.一因とされるのが、二十メートルにつき一メートル下がる砂浜の傾斜だ。\\千葉市が手がけた「いなげの浜」が五十メートルにつき一メートル下がる構造なのに比べて、倍以上の急傾斜。\\Expertssayoneofthemainreasonsfortheerosionisthebeach'srelativelysteepincline--onemeterin20,morethandoublethe1:50inclineatInage-no-Hamabeach,whichtheChibamunicipalgovernmentconstructed.\\3.国際的行事などで不統一のままでいいのか。\\現状を精査した上で、音楽上の議論を深めたい◆作・編曲家内藤孝敏さんら音楽家グループの提言だ。\\Agroupofmusicians,includingcomposerandarrangerTakatoshiNaito,thoughtitwouldbebetterforonlyoneversionof"Kimigayo"tobeplayedatinternationalevents,soitproposedanin-depthstudyofthemusic.\\4.課税の減免などの特例は設けず一律適用し、ベンチャー助成は別途の政策などで手当てすべきではないか。\\Instead,itshouldbeappliedonauniformbasis.\\Measuresforfosteringventurebusinessesshouldbeworkedoutaspolicystepsseparatefromthetaxframeworkitself.\\5.国産米の供給比率は三月が五〇%、四月から六月までは三〇%だが、七、八月は六〇%程度まで上昇し、輸入米との比率が逆転しそうだ。\\Accordingtotheagency'sestimate,theratioofdomesticricetototalricesuppliesisexpectedtoriseto60percentinJulyandAugust.\\ThiscompareswithaMarchratioof50percent,and30percentforthemonthsofApriltoJune.\\\normalsize\parindent1em\subsection*{境界付近の文対応のサンプル}\subsubsection*{1対1対応}1対1対応の上位150001〜151000の間の1000対から無作為抽出された5対を以下に示す.\vspace{1em}\parindent0cm\footnotesize1.落札総額は百三十六億千万円。\\Thejointventure'sbidstotaled13.6billionyen.\\2.燃えるゴミの中に金属、ガラス、プラスチックなど、焼却に適さないものが約一割混ざっている。\\Infact,10percentofthecombustiblegarbagecollectedcontainsmetal,glass,plasticsandothernoncombustiblearticles.\\3.離れた工場の製品が神戸から輸出されていたのは、定期船の寄港が多く、納期が守りやすいほか、「できるだけ多くの荷物を積んでコンテナを有効利用する」(松下電器)などの理由があったためだ。\\OneofthereasonswhyproductsfromsuchremoteareaswereexportedviaKobeisthatavastnumberofshippinglinesfromaroundtheworldusetheport.\\4.しかし、積み替え作業などに一日約二百人の職員が必要で、時間がかかるほか、移動の際に市街地で渋滞に巻き込まれ、避難所への到着がしばしば遅れた。\\Butthedeliverysystemwasineffectivebecauseoftrafficcongestioninquake-strickenareas,andabout200wardemployeesspenttheirdaystryingtodeliverfoodsupplies.\\5.ただ、政府米の一部をエサ米に充て、その分を買い入れる可能性はある。\\"Undertherule,thegovernmentcannotbuyriceharvestedin2000,"anofficialoftheFoodAgencysaid.\\\normalsize\parindent1em\subsubsection*{1対1対応以外}1対1対応以外の上位30001〜31000の間の1000対から無作為抽出された5対を以下に示す.\vspace{1em}\parindent0cm\footnotesize1.ところが、九六米穀年度に入っての政府米売却量(輸入米も含む)は、六月までの八か月間で約三十五万トンと前年同期の半分以下に低迷している。\\Duringthefirsteightmonthsofthe1996riceyear,however,theagencysoldonly350,000tonsoftheregulatedrice.\\Thesaleswerelessthanhalfofthatattainedduringthesamemonthsinthepreviousyear.\\2.村上氏が所属する江藤・亀井派の亀井政調会長は、国会近くのホテルで与党三党の政策責任者会議に出席していた。\\LDPPolicyResearchCouncilChairmanShizukaKameiattendedameetingofchiefpolicymakersofthethreerulingpartiesinahotelneartheDietbuildingThursday.\\MurakamibelongedtoanLDPfactionjointlyledbyKameiandTakamiEto.\\3.経済状況の好転などを掲げ、選挙戦では三党体制による実績を強調した政府・与党だったが、有権者は、むしろ選挙目当てが明白な場当たり的な政策に対し、厳しい判断を下したと言ってよい。\\Onthehustings,thegovernmentandcoalitionpartiestrumpetedtheirachievements,suchasaburgeoningeconomicrecovery,inabidtoobtainpublicsupport.\\Voters,however,harshlydismissedtheircampaignpledgesascosmetic--aimedonlyatwinningtheelection.\\4.日数が短い都市はアジア地域とアメリカに集中し、最短のニューデリー(インド)が一・四日、次いで香港一・五日、台北(台湾)七・三日、ロサンゼルス(アメリカ)七・四日などとなっている。\\AtendencytowardshorterholidayswasfoundinAsiaandNorthAmerica.\\WorkersinNewDelhiplannedtheshortestholidayatanaverageof1.4days,followedbyHongKongat1.5days,Taipeiat7.3daysandLosAngelesat7.4days.\\5.イデオロギーの対立の終わりは、国家利益や民族感情の対立を表面化させるかもしれない。\\Whatwemayseeisaworldinwhichantagonismandbrush-firebattlesbetweensmallernationsintensifyandinternationalconflictisfuelednotbyideologybutbynationalinterest.\\Ournewworldwillbefilledwithpromiseanddanger.\\\normalsize\parindent1em\begin{biography}\biotitle{略歴}\bioauthor{内山将夫}{筑波大学第三学群情報学類卒業(1992).筑波大学大学院工学研究科博士課程修了(1997).博士(工学).信州大学工学部電気電子工学科助手(1997).郵政省通信総合研究所非常勤職員(1999).独立行政法人通信総合研究所任期付き研究員(2001).言語処理学会,情報処理学会,ACL,人工知能学会,日本音響学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).1980年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所.現在,独立行政法人通信総合研究所けいはんな情報通信融合研究センター自然言語グループリーダー.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V09N04-01
\section{はじめに} 近年,Internet上の検索エンジンなど,情報検索システムが広く利用されるようになってきた.システムが提示する検索結果には,文書の表題やURIだけではなく,対応する文書の内容を示す短い要約文書が併せて提示されていることが多い.これは,利用者に対して要約文書を提示することが,原文書が実際に利用者の欲するものかを判断する際に有力な手掛かりとなるためである.この際,情報検索結果文書に対する要約の質の良さは,要約文書-検索質問間の関連性判定と原文書-検索質問間の関連性判定の一致の良さで測ることができよう.しかしながら,現在実用に供されている多くの検索エンジンでは,原文書の最初の数バイトを出力したり,検索要求文に含まれる語の周囲を提示するといった単純な方法が採用されている.このような単純な戦略により生成された要約の品質は関連性判定の観点からみると,十分な品質であるとは言い難い.そのため,多くの場合,利用者はシステムの提示した検索結果が適切なものであるかどうかを原文書を見て判断せざるを得ない.このような状況を改善するためには,関連性判定を重視した,より質の高い自動要約技術が必要となる.自動要約の手法としては,Luhn\cite{Luhn:TheAutomaticCreationOfLiteratureAbstracts}の研究に端を発する重要文抽出法が基本かつ主要な技術であり,依然として様々なシステムで利用されている.これは,文書の中から重要な文を,所望の要約文書の長さになるまで順に選び,それら抽出された文を文書中での出現順に並べて出力することで,要約とする手法である.このとき,文の重要度は,語の重要度,文書中での位置,タイトルや手がかり表現などに基づいて計算している\cite{奥村:テキスト自動要約に関する研究動向,奥村:テキスト自動要約に関する最近の話題}.その中でも,重要文は主要キーワードを多く含むという経験則により,語の重要度に基づく重要文抽出が最も基本的な手法となっている.特に,語の出現頻度は,簡単に求められ,語の重要性と比較的高い相関にあるために語の重みとして広く利用されている.語の出現頻度は個別文書によって決まる性質であるが,一方で,検索文書の要約においては,原文書が検索要求の結果として得られた複数の文書であることを考慮することが要約の品質向上につながる.例えば従来提案されている基本的な考え方として,検索要求中の語の重要度を高くするという「検索質問によるバイアス方式」がある\cite{Tombros:AdvantagesOfQueryBiasedSummariesInInformationRetrieval}.この手法は直観的であり,かつ,比較的良好に機能するが,検索された文書自身の情報を考慮しないなど幾つかの欠点が存在する.以上の点を踏まえて,本稿では,検索文書集合から得られる情報を語の重みづけに利用し,検索文書の要約に役立てる新しい手法を提案する.検索質問によるバイアス方式とは異なり,我々の手法では語の重みづけにおいて検索質問の情報を陽に利用しない.その代わりに,複数の検索文書の間に存在する類似性の構造を階層的クラスタリングにより抽出し,その構造を適切に説明するか否かに応じて語に重みをつける.文書間の類似性構造を語の重みに写像する方法として,我々は,各クラスタ内での語の確率分布に注目し,情報利得比(InformationGainRatio,IGR)\cite{C4.5-E}と呼ばれる尺度を用いる.そして,この重みと従来提案されている他の重みづけを組み合わせることにより,最終的な語の重みとし,これを用いて各文の重要度を計算する.特に,情報利得比に基づく語の重みづけについては,次のように考えることができる.あるクラスタにおける語の情報量に注目した場合,そのクラスタを部分クラスタに分割した後のその語の持つ情報量の増分(情報利得)が,クラスタの分割自身により得られる情報量に比して大きければ,その語は部分クラスタの構造を決定する際に役立っていると考えられる.その度合を定量化した値が情報利得比である.情報利得比自身は機械学習において属性の品質の尺度として,すでに提案されているものである.また,種々のクラスタリングアルゴリズムの過程からすれば,文書のクラスタ構造の決定に際して,各々の語の確率分布が部分的な要因となっていることは自明である.しかしながら,あるクラスタ構造が確定した時に,ある語がそのクラスタ構造の決定に際して最終的に寄与したか否かに注目し,定量化するという研究は,我々の知る限り従来存在しない.そして,本稿は,その定量化において,情報利得比が利用できることを示すものである. \section{検索文書集合中の語に対する情報利得比に基づく重みづけ} \label{Sec:検索文書集合中の語に対する情報利得比に基づく重みづけ}\subsection{検索文書要約の特質}\label{Sec:検索文書要約の特質}検索文書の要約は,以下の点で通常の文書要約と異なる.\begin{itemize}\item検索質問文が与えられている.\item複数の要約文書が同時に得られている.そして,ある一度の検索の結果という点において文書間に類似性が認められる.\end{itemize}いずれの情報も,検索文書の要約においては有効な手がかりと考えられる.ここでは,これらの手掛かりを語の重みづけに用いることを考察する.まず初めに考えられる手法は,Tombrosら\cite{Tombros:AdvantagesOfQueryBiasedSummariesInInformationRetrieval}が提案するように,検索質問中の語を重要語として考え,他の語よりも重みを高する方法である.これは,検索質問中の語や句は利用者の情報要求を端的に示すので,要約文書にもその語や句が含まれるべきであるという直観に基づくもので,「検索質問バイアス方式に基づく要約(Query-biasedSummarization)」と呼ばれる.この方法は,検索質問を考慮するだけであるので,実装が簡単であり,ある程度の効果が報告されているが,次の欠点が存在する.\begin{itemize}\item検索質問中の表現をそのまま用いるために,検索エンジンにおける工夫が要約文書に反映されない.例えば,各種フィードバックや検索質問の拡張などは,検索質問を修正/更新することによって検索効率を上げている\footnote{ここでは,既存の情報検索システムに対するバックエンドとして要約生成システムを利用する場合を想定している.この場合,情報検索システムを運用している組織と要約サービスを提供している組織が必ずしも一致しない.この状況においては,情報検索システムが行なっている工夫に関する情報が利用できない.一方,もしも情報検索システムの行なうフィードバックや検索質問拡張の情報が利用できるのであれば,更新後の検索要求に基づき,検索質問によるバイアス手法を適用することも可能である.}.\item検索エンジンは検索質問文に関連する文書ばかりではなく,関連性の低い文書も結果として返すことがある.検索質問との関連性が低い文書に対しては,検索質問バイアス方式は通常の文書要約になってしまう.\end{itemize}そこで,我々は二番目の選択肢である,検索質問文を使わずに,検索文書集合のみを用いて重みづけることを考える.検索結果の質が非常に悪くない限り,検索文書集合には検索質問に関する情報が暗に含まれていると期待できるので,その情報を引き出すのである.しかし,各文書に共通する語を抽出するといった単純な方法では精度が良くないことは容易に想像される.なぜならば,検索結果の文書集合には,もちろん検索質問との関連性が高い文書も含まれるが,関連性の低い文書も含まれるからである.しかも,その度合は検索エンジンの精度に依存してしまう.よって,単純に文書に共通する語などを取り出すだけでは達成できない.我々は以上の点を踏まえて次節に示す枠組を提案する.\subsection{提案手法の概略}我々の提案手法の概略を図\ref{Fig:Overview}に示す.これは,次の2つの指針の組み合わせたものである.\begin{enumerate}\item検索文書集合に対し階層的クラスタリングを行ない,文書間の類似性の構造を抽出する.\label{step:clustering}\item文書間の類似性の構造と語の確率分布に基づいて各語の重み付けを行なう.\label{step:weighting}\end{enumerate}\begin{figure}[htbp]\begin{center}\epsfile{file=overview.eps,scale=0.6}\end{center}\caption{提案手法の枠組}\label{Fig:Overview}\end{figure}ステップ\ref{step:clustering}においては,検索質問に関連する文書とそうでない文書がクラスタ構造の中で分離されることが期待され,なおかつ,それらの文書部分集合においても類似性に基づく細分類がなされると考えられる.我々の手法では,語を次元とする文書ベクトルの類似度による階層的クラスタリングを用い,クラスタリングアルゴリズムとしては最大距離アルゴリズムを採用した.ここで注意すべきことは,検索されなかった文書,すなわち,文書データベース中の残りの文書の存在を類似性構造の中に組み込む必要があることである.なぜならば,クラスタ構造において,一番上位のクラスタは与えられた構造として扱う以外になく,類似性の解析の対象とならないからである.検索文書全体の類似性構造は,検索されなかった文書集合との対比によって,初めて明らかになる.この類似性構造は,全文書集合と検索質問との間の類似性を反映するので,非常に重要なものである.このため,図\ref{Fig:SuperCluster}に示すように検索文書集合から得られたクラスタ構造の根の上にもう一つ仮想的なクラスタを設ける.そのクラスタには,検索文書の属する部分クラスタとそれ以外の文書が属する部分クラスタが存在する.ここで,我々の方法では,検索文書の属する部分クラスタだけが,クラスタリングアルゴリズムにる部分クラスタ解析の対象となる(図\ref{Fig:SuperCluster}の左部分木)のに対し,検索されなかった文書の属するクラスタ(図\ref{Fig:SuperCluster}の右部分木)についてはそれ以上の解析が不要である点に注意されたい.後に述べる情報利得比の計算においては,検索されなかった文書の属するクラスタについては,その中に存在する語の頻度だけが分かればよい.これは,あらかじめ求めておいた文書データベース中の語の頻度より,簡単に求めることができる.よって,我々の手法において実際に文書クラスタリングが行なわれるのは,検索結果として利用者に提示する文書に限定される.これは通常数十文書程度であるから,文書クラスタリングにおける計算量はあまり問題とならない.\begin{figure}[htbp]\begin{center}\epsfile{file=highest_cluster_en.eps,scale=0.5}\end{center}\caption{検索文書に対するクラスタ構造}\label{Fig:SuperCluster}\end{figure}このようにして求められた類似性構造は文書を一つの単位とする巨視的な情報であるので,要約のためには,これを文や句,単語を単位とするより微視的な情報に還元する必要がある.これがステップ\ref{step:weighting}である.このステップにおいては,各クラスタが部分クラスタに分割されるにあたって,句や単語などより微視的な単位がどれ位寄与しているかを表す指標を定め,これをその語句の重要度とする.我々はその指標として情報利得比を用いる.このようにして求められた情報利得比を,既存の方法でも用いられている重みである,語の文書内頻度(termfrequency,TF),文書頻度の逆数(inversedocumentfrequency,IDF)\cite{Salton:TermWeightingApproachesInAutomaticTextRetrieval,Baeza-Yates:ModernInformationRetrieval}と組み合わせることにより,総合的な語の重要度をとする.これら三種類の重みは,以下の通り,異なる文書情報から得られるものであることに注意されたい.よって,これらの組み合わせにより,検索文書の要約に適した総合的な重みが得られると期待できる.\begin{itemize}\item語の文書内頻度個別の文書における各語の分布より決まる重要度で,ある文書中でのその語の重要度を表す.\itemクラスタ分割に対する語の出現確率に関する情報利得比検索文書の類似性構造であるクラスタの分割により決まる重要度で,そのクラスタ構造におけるその語の重要度を表す.\item文書頻度の逆数検索対象の全文書により決まる重要度で,全検索対象文書集合におけるその語の重要度を表す.\end{itemize}\subsection{最大距離アルゴリズムによる階層的クラスタリング}検索された文書集合の類似性の解析には,文書間の距離の定義とその距離に基づく文書集合の構造化が必要となる.これには様々な方法が考えられるが,本稿では文書間の距離として,様々な場面で利用され,かつ,簡便なTF・IDF法ならびにベクトル空間法に基づく方法を採用する\cite{Baeza-Yates:ModernInformationRetrieval}.また,文書集合の類似性に関する解析には,階層的クラスタリングを用いる.階層的クラスタリングアルゴリズムには,併合法などが良く用いられる\cite{Frakes:InformationRetrieval}.しかし,この種の方法はクラスタ構造を無理に二分木に当てはめるため,文書間距離の順序関係は構造に反映されるものの,その絶対値については捨象されてしまう.ここでは,文書の類似度に応じて多分岐構造を生成でき,文書間距離の絶対値情報がなるべく保存されるアルゴリズムが望ましい.そのようなアルゴリズムとして,我々は最大距離アルゴリズム\cite{長尾:パターン情報処理}を採用した.この最大距離アルゴリズムは,本来,非階層的なクラスタを生成するものであるが,これを分割の結果得られた部分クラスタに再帰的に適用することにより階層構造を得る.この方法では,各クラスタが3以上のクラスタに分割されることもある.\subsubsection{文書間距離}\label{Sec:文書間距離}ベクトル空間モデルに基づき,各文書$D_i$をn次元空間上の点$(weight_{i1},weight_{i2},\ldots,weight_{in})$により表現する.$weight_{ik}$は文書$D_i$において語$w_k$に割り当てられた重みである.重み$weight_{ik}$としては語$w_k$のTF・IDF値とする.このとき,文書$D_i$と文書$D_j$の距離dを文書ベクトル間のユークリッド距離を用いて,次のように定義する.\begin{eqnarray}d(D_i,D_j)&=&\sqrt{\sum_{k}(weight_{ik}-weight_{jk})^2},\\weight_{ik}&=&tf(D_i,w_k)idf(w_k),\nonumber\\tf(D_i,w_k)&=&\frac{freq(D_i,w_k)}{|D_i|},\nonumber\\idf(w_k)&=&1+\log_2\frac{N}{df(w_k)},\nonumber\end{eqnarray}ただし,\begin{quote}\begin{tabular}{ll}$freq(D_i,w_k)$:&文書$D_i$での語$w_k$の出現頻度\\$|D_i|$:&文書$D_i$中の形態素数\\$df(w_k)$:&検索対象の全文書集合における語$w_k$を含む文書数\\$N$:&検索対象の全文書の数\end{tabular}\end{quote}である.\comment{後に述べる実験においては,語として,名詞のみを扱った.文書からの名詞抽出には形態素解析器JUMAN3.61\cite{juman3.61}を用いた\footnote{品詞細分類において,普通名詞,サ変名詞,固有名詞,地名,人名,組織名,数詞,名詞接尾辞,未定義語-その他,未定義語-カタカナ,未定義語-アルファベットをもつ形態素を取り出した.また,これらが連続した場合には,その形態素列を複合語として認定し,一単語としても取り出した.よって,複合語については,複合語自身とその構成素となった形態素の両者が文書ベクトルの成分として考慮されている}.また,$df(w_k)$,$N$は検索対象である毎日新聞94年,95年,97年,98年のすべての記事から求めた.}\subsubsection{最大距離アルゴリズム}最大距離アルゴリズムにおいては,まず文書集合から2個以上のクラスタ中心を選択し,次に,残りの文書を最近のクラスタ中心と同じクラスタに配置する.その主要部分はクラスタ中心を求める部分であり,以下の手続きからなる.\begin{enumerate}\item文書集合$DS$から距離の最も大きい二文書を取り出し,これらを要素とする集合を作成する.これを初期のクラスタ中心の集合$C$とする.\itemクラスタ中心集合$C$において,クラスタ中心間での最大距離を求める.これを,$d_{max}$とする.\item$DS$中の各文書$D_i$について,すべてのクラスタ中心との距離を求め,その最小値を既存クラスタ中心からの距離$d(D_i,C)$とする.既存クラスタ中心からの距離が最も大きい文書$D_d$を$DS$から取り出す.\itemもし,$d(D_d,C)\ge\alpha\cdotd_{max}$ならば,その文書をクラスタ中心集合$C$に追加する.そうでなければ,終了.\end{enumerate}なお,$\alpha$は$0.5\leq\alpha<1.0$なる定数であり,値が大きいほどクラスタの分割数が少なくなる.一般には$0.5$とすることが多い.以上のアルゴリズムは,単一の文書集合を文書間距離にしたがって複数個の部分クラスタに分割する非階層的なアルゴリズムである.これを各部分クラスタに対して再帰的に適用することにより,階層的なクラスタ構造を生成する.\subsection{情報利得比に基づく語の重要度}クラスタの木における各接点(内点)は,あるクラスタとそれを分割して得られた互いに素な部分クラスタの関係,すなわち,クラスタの分割の仕方を表現している.この分割の仕方はクラスタ内の文書の類似度に従って決定されるので,これを文書内の語の重みに反映させることができれば,複数文書間の類似性という巨視的な情報を,文書内の語の重みという微視的な情報に還元できると考えられる.我々は,この考え方に基づき,次の2つの段階から構成される方法を提案する.\begin{enumerate}\item各クラスタについて,その部分クラスタの構造から,各語の重みを決定する.\label{Step:IGR}\item一つの文書は,クラスタの木の根接点から対応する葉接点に至るクラスタ分割の系列によって指し示される.よって,各文書における語の重みは,各分割で得られた語の重みを統合して得る.\label{Step:IGRintegrate}\end{enumerate}このうち,特に重要なのは\ref{Step:IGR}である.その基本的な考え方は,クラスタの分割構造を決定することに寄与する語に高い重みを与えるというものである.例として,図\ref{Fig:PartitionWordDist}のように,あるクラスタ$C_0$が3つの部分クラスタ($C_1$,$C_2$,$C_3$)に分割されている場合を考える.図中,記号$A$,$B$,$D$〜$G$は各々単語に対応するとする.さて,語$A$はクラスタ$C_0$における頻度が最も高いので,このクラスタの特徴を表す語と考えることができる.しかし,各部分クラスタに注目すると,いずれも均等に出現しているため,部分クラスタの選択においては役立たないことがわかる.一方,語$F$はクラスタ$C_0$において頻度はさほど高くはないが,部分クラスタ$C_3$に集中して登場している.この場合,語$F$が出現しているか否かを調べることによって,部分クラスタを言い当てることができるので,クラスタの分割構造に対する寄与度は,語$F$は語$A$よりも高いと考えられる.我々はこの寄与度を適切に表す尺度として,次に述べる情報利得比を用いる.\begin{figure}[htbp]\begin{center}\epsfile{file=term_dist_ex.eps,scale=0.8}\end{center}\caption{語の出現分布とクラスタの分割}\label{Fig:PartitionWordDist}\end{figure}\subsubsection{情報利得比}情報利得比は,決定木学習システムC4.5において属性選択を行なうために導入された\cite{C4.5-E,Mitchell:MachineLearning}.C4.5においては,ある属性を決定木の分岐におけるテストとしたときに,その属性がどれくらい適切にクラスの出現を予測できるかを表す尺度として用いられている.我々は,表\ref{Table:OurMethod_VS_C4.5}に示す対応の下,クラスタの構造を決定木の構造と見なすことにより,情報利得比を用いる.\begin{table}[htbp]\caption{提案手法とC4.5における計算方法の対応}\label{Table:OurMethod_VS_C4.5}\begin{center}\begin{tabular}{|l|l|}\hline提案手法&C4.5\\\hlineクラスタの分割構造&属性によるテスト\\単語の出現確率&クラスの出現確率\\\hline\end{tabular}\end{center}\end{table}C4.5においては属性の評価値として情報利得比を用いていたが,我々の方法においては,属性ではなくクラスに対応する単語に対する評価値として情報利得比を用いる.クラスタ$C$における単語$w$の情報利得比$gain\_r(w,C)$は次の様に求められる.\begin{eqnarray}gain\_r(w,C)&=&\frac{gain(w,C)}{split\_info(C)}\label{Eq:IGR}\\gain(w,C)&=&entropy(w,C)-entropy_{p}(w,C)\nonumber\\entropy(w,C)&=&-p(w|C)\log_2p(w|C)\nonumber\\&&-(1-p(w|C))\log_2(1-p(w|C))\nonumber\\p(w|C)&=&freq(w,C)/|C|\nonumber\\entropy_{p}(w,C)&=&\sum_{i}\frac{|C_i|}{|C|}entropy(w,C_i)\nonumber\\split\_info(C)&=&-\sum_{i}\frac{|C_i|}{|C|}\log\frac{|C_i|}{|C|}\nonumber\\freq(w,C)&:&\mbox{クラスタ$C$中の語$w$の頻度}\nonumber\\C_i&:&\mbox{$C$における$i$番目の部分クラスタ}\nonumber\\|C_i|&:&\mbox{クラスタ$C_i$中の総形態素数}\nonumber\end{eqnarray}情報利得$gain(w,C)$は,クラスタ$C$の分割の前後における,語$w$の確率分布に関するエントロピーの減少量を表す.$split\_info(C)$は,クラスタ$C$の分割に関するエントロピーである.情報利得比$gain\_r(w,C)$は,これらの比として定義される.例として,図\ref{Fig:PartitionWordDist}における各語について,上述の方法により情報利得比を計算してみると次の通りとなる.{\small\[gain\_r(\mbox{B},C_0)\simeqgain\_r(\mbox{F},C_0)>gain\_r(\mbox{E},C_0)=gain\_r(\mbox{G},C_0)>gain\_r(\mbox{D},C_0)>gain\_r(\mbox{A},C_0)\]\[gain\_r(\mbox{A},C_0)=0.000,gain\_r(\mbox{B},C_0)=0.161,gain\_r(\mbox{D},C_0)=0.031,\]\[gain\_r(\mbox{E},C_0)=0.080,gain\_r(\mbox{F},C_0)=0.157,gain\_r(\mbox{G},C_0)=0.080\]}$B$や$F$のようにクラスタ構造に沿って現れる語は値が大きく,語$A$のように網羅的に分布する場合には値が小さいことは既に述べたとおりである.一方,語$D$のように一部のクラスタに集中してはいるものの,他のクラスタにも低い確率ではあるが出現する場合には,値が低くなることがみてとれる.さらに,語$F$とほぼ同じく偏りがあるが出現確率が低い語$E$については,その値が相対的に低くなる.\subsubsection{情報利得比に基づく語の重要度}式(\ref{Eq:IGR})に示される情報利得比は,各クラスタの分割毎に得られる.これらを,ある文書中のある語の重みとして利用する方法には,利用者向けインタフェースの設計に応じて,いくつか考えられる.例えば,クラスタ構造を利用者に提示しながら,部分クラスタを順次利用者に選択してもらうような対話的インタフェースにおいては,各選択点において利用者が注目しているクラスタにおける情報利得比を利用し,語の重みを求めることが考えられる.また,すべての検索文書を同時に要約し,一覧形式で利用者に提示するというインタフェースにおいては,クラスタの木の根接点からその文書に対応する葉接点に至るすべての分割で得られたの情報利得比を何らかの形で統合し,これを語の重みとすることが考えられる.この時,統合の方法には様々な方法が考えられ得る.例えば,ある階層の値を採用する,最大値を採る,すべての値を和もしくは積により統合する,などである.本稿では,すべての検索文書を同時に要約し,一覧形式で利用者に提示するという最も基本的なインタフェースを想定し,図\ref{Fig:IGRSum}ならびに式(\ref{Eq:IGRsum})に示す情報利得比の重みなしの和を採用する.この方法では,すべてのクラスタ分割における情報利得比を等しく考慮することになる.\begin{eqnarray}igr(w,D)&=&\sum_{C\inCset(D)}gain\_r(w,C)\label{Eq:IGRsum}\\Cset(D)&:&\mbox{文書$D$の属するすべてのクラスタの集合}\nonumber\end{eqnarray}\begin{figure}[htbp]\begin{center}\epsfile{file=add_igr_en.eps,scale=0.4}\end{center}\caption{情報利得比による各文書中の語の重みづけ}\label{Fig:IGRSum}\end{figure}以上で定義された情報利得比$igr(w,D)$に基づく重みにより,文書$D$中の語$w$の重要度$weight(w,D)$を定義する.以前述べたように,語の重要度にはTF,IDF,IGRの各値の組み合わせを考えるが,各値が独立に重要度に寄与するものとし,組み合わせ方法として積を用いる.\begin{eqnarray}weight(w,D)&=&igr(w,D)\cdottf(w,D)\cdotidf(w)\end{eqnarray}なお,上記の重みを求めるにあたって,変更可能なパラメタを導入し,訓練事例などを用いて,これを適切な値に設定する(チューニングする)ことも考えられる.例えば,情報利得比の統合を,各階層の情報利得比の重み付き和により実現し,その重みをパラメタとすることが考えられる.また,上述の$weight(w,D)$の式を積ではなく,重み付き和として定義し,重みをパラメタとすることも一案である.しかし,本稿では以下に述べる理由によりパラメタのチューニングが難しいと判断したために素朴な統合方式を採用した.情報検索タスクにおける要約では外的な評価(特定タスクの遂行精度により行なう要約手法の評価)によっているために,評価結果を再利用して,このタスクに適合したより良いパラメタ値を求めるといった方向に発展させることがし難い.例えば,節\ref{Sec:評価}で述べる評価に用いたTSCTaskBでは,生成された要約文章に対して被験者による適合性評価が行なわれるものの,適合性判定を適切に行なうことができる要約文章を人間に生成してもらうという段階はないために,いわゆる「正解要約」がない.また,仮にそのような「正解要約」を作成したとしても,適合性判定を正しく行なうことができる要約には様々な亜種が考えられるので,「正解要約」と同じ要約を作成することがこのタスクの本質的であるかという疑問が残る.もちろん,評価・パラメタ再設定・再評価といったチューニングのためのループに被験者の評価を組み入れることも不可能ではないが,膨大な人的資源を必要とするために,我々はこの手法を採用しなかった. \section{重要文抽出に基づく要約文書生成} 語の重みは要約生成における基本要素であるから,ほとんどの要約手法に我々の手法を組み込むことができると考えられる.しかし,我々の目的は,前節で述べた語の重みづけが検索文書要約において有効であることを示すことである.そこで,次に示す,語の重要度だけによる最も基本的な要約手法を以降の評価実験で用いる.\begin{enumerate}\item文書$D$中の文$s$の重要度は次式の通り,文中のキーワードの重みの和を文の長さで正規化したものとする.\begin{eqnarray}s\_imp(s,D)&=&\frac{\displaystyle\sum_{w\inkeyw(s)}weight(w,D)}{|s|}\\keyw(s)&:&\mbox{文$s$中のキーワードのリスト}\nonumber\\|s|&:&\mbox{文$s$の総形態素数}\nonumber\end{eqnarray}\itemある決められた要約の長さに達するまで,原文書から重要度の高い順に文を取り出していく.\item取り出した文を原文書における出現順に並べ変えて要約文書を得る.\end{enumerate} \section{評価} \label{Sec:評価}本節では,我々の要約方式について,二通りの視点から評価を行なう.まずは,検索タスクの精度・効率の良さと言う観点から,評価型情報検索ワークショップであるNTCIR2\cite{NTCIR}におけるTSC(TextSummarizationChallenge)における「課題BIRタスク用要約」(以下,TSCTaskBと呼ぶ)に基づいて評価を行なう\cite{TSC_new_J,難波:第2回NTCIRワークショップ自動要約タスクの結果および評価法の分析}.つぎに,幾つかの例により,我々の方式が各語に与える重要度を,検索質問を考慮しない語の重みづけ手法(TF値,TF・IDF値)と比較することにより,我々の重要度計算手法の特徴を定性的に評価する.なお,我々の評価実験においては,要約生成の手順に以下の条件を加えた.\begin{itemize}\item記事の表題(見出し文.Headline)と本文を区別せずに要約の入力とする.\item名詞をキーワードとする.文書からの名詞抽出には形態素解析器JUMAN3.61\cite{juman3.61}を用いた\footnote{品詞細分類において,普通名詞,サ変名詞,固有名詞,地名,人名,組織名,数詞,名詞接尾辞,未定義語-その他,未定義語-カタカナ,未定義語-アルファベットをもつ形態素を取り出した.また,これらが連続した場合には,その形態素列を複合語として認定し,一単語としても取り出した.クラスタリングにおいて,複合語については,複合語自身とその構成素となった形態素の両者が文書ベクトルの成分として考慮されている.一方,各文の重要度計算においては,複合語を構成せず,各形態素の重みのみを利用している.}.\itemIDF値等の計算においては,当初TSC実行委員会から発表された使用新聞記事データである毎日新聞1994年,1995年,1998年に加えて,手元にあった1997年を全文書集合とした.\item最大距離アルゴリズムにおけるパラメタ$\alpha$は0.5とする.\item要約を一覧形式で提示することを想定すると,要約文書の長さが統一されているほうが,見やすい.そのため,要約文書の長さは要約率ではなく,絶対的な長さにより決定する.具体的には,150形態素をしきい値とする.\item文書の総形態素数が150より短い場合には要約をせずに原文書を提示する.\item要約生成に当たって,原文書の文が省略されている箇所には「…」を加え,原文書の段落箇所には改行を加える.\end{itemize}\subsection{情報検索タスクにおける要約品質の評価実験の概要}図\ref{Fig:SummaryInIR}に情報検索タスクにおける要約品質の評価実験の概要を示す.TSCTaskBにおいては,TSC実行委員会より配布されたデータセットに,12のトピックがあり,それぞれ,検索要求1,検索文書50文書から構成されている.検索文書は1998年の毎日新聞の記事集合から検索されたものである.TSCへの参加者は各自のシステムを用いて,これらの文書を要約し,実行委員会に提出する.提出された要約文書に対して,TSC実行委員会による被験者を用いた評価が行なわれた.被験者は学生36名で,各検索要求につき,3人が割り当てられている.被験者は各要約を読むことによって,それが検索要求に適合しているか否かの判断を行う.その判断と,あらかじめ原文書に対して付与されている関連性評価\footnote{当然,参加者には,当初,非公開である.}(以下,関連度ともいう)を比較することにより,要約の品質が評価される.すなわち,両者が一致する度合が高いシステムほど有効な要約を生成すると考えることができる.原文書に付与されている関連性評価はA,B,Cの三段階である.ここで,Aはその文書が検索要求に適合すること,Bは関係のある文書であること,Cは関係のない文書であることを表す.これに対して,被験者らには関連性の有無(YES/NO)という二段階で提示してもらう.よって,両者の一致の判定においては,A判定の文書だけを関連文書とする場合(AnswerLevelA)と,A判定に加えてB判定の文書も関連文書とする場合(AnswerLevelB)が考えられる.\begin{figure}[htbp]\begin{center}\epsfile{file=eval-based-on-irtask-mori-en.eps,scale=0.8}\end{center}\caption{情報検索タスクにおける要約品質の評価}\label{Fig:SummaryInIR}\end{figure}\subsection{総合評価}表\ref{Table:EvaluationResultAll}に個別の評価尺度についての結果を他の参加システム(8システム)ならびにTSC実行委員会が準備したベースラインシステム(3システム)と比較して示す.ベースラインシステムは,「全文提示(Fulltext)」(要約率100\%),「質問バイアス付きTFに基づく方式(TFwithQB)」(要約率20\%),「文書の先頭を採るリード方式(Lead)」(要約率20\%)である.質問バイアス付きTF法は,TFを語の重みとして重要文抽出を行なうものであるが,この時に,検索質問に現れる語について2倍の重みを与えている.これらのシステムの概略については,付録\ref{Appendix:NTCIR2TSCTaskBに参加した他システムの概要}を参照されたい.評価尺度には以下のものを用いた.いずれの値も,全てのトピックを通じて集計したものである.\begin{itemize}\item被験者が1検索要求に関するタスク(50文書)に要した時間(TIME)\itemタスクをどの程度適切に行なえたかを示す指標.すなわち,再現率(Recall),適合率(Precision),F値(F-measure)\footnote{$\mbox{再現率(Recall)}=\frac{\mbox{被験者が正しく適合と判断した文書数}}{\mbox{実際の適合文書の総数}}$,\\$\mbox{適合率(Precision)}=\frac{\mbox{被験者が正しく適合と判断した文書数}}{\mbox{被験者が適合と判断した文書の総数}}$,\\$\mbox{F値(F-measure)}=\frac{2\cdotRecall\cdotPrecision}{Recall+Precision}$.}.\item要約文書の長さ(1文書あたりの平均文字数,LENGTH)\end{itemize}\begin{table}[htbp]\caption{総合評価一覧}\label{Table:EvaluationResultAll}\footnotesize\begin{center}\comment{\begin{tabular}{|l*{9}{c}|ccc|}\hline&\shortstack[c]{Proposed}&Sys1&Sys2&Sys3&Sys4&Sys6&Sys7&Sys8&Sys9&Fulltext&\shortstack{TF\\withQB}&Lead\\\hline\shortstack[l]{Recall\\(Ans.A)}&{\bf0.907}&0.833&0.899&0.793&0.818&0.858&0.831&0.824&0.849&0.843&0.798&0.740\\\shortstack[l]{Precision\\(Ans.A)}&0.751&0.728&0.717&0.685&0.674&0.718&0.739&0.738&0.741&0.711&0.724&{\bf0.766}\\\shortstack[l]{F-Measure\\(Ans.A)}&{\bf0.808}&0.761&0.785&0.715&0.718&0.763&0.766&0.749&0.768&0.751&0.738&0.731\\\shortstack[l]{Recall\\(Ans.B)}&0.754&0.741&{\bf0.793}&0.715&0.737&0.745&0.719&0.719&0.752&0.736&0.700&0.625\\\shortstack[l]{Precision\\(Ans.B)}&0.897&0.921&0.904&0.898&0.875&0.892&0.908&0.913&{\bf0.923}&0.888&0.913&0.921\\\shortstack[l]{F-Measure\\(Ans.B)}&0.797&0.808&{\bf0.828}&0.776&0.773&0.785&0.779&0.775&0.805&0.773&0.776&0.712\\TIME&8:33&9:41&12:48&{\bf6:25}&6:44&9:01&10:16&9:16&9:31&13:46&8:44&7:32\\LENGTH&234.4&297.8&585.7&{\bf89.5}&136.4&288.4&292.9&266.1&262.5&819.4&253.6&174.5\\\hline\end{tabular}}\begin{tabular}{|l*{9}{@{\hspace{0.8em}}c}|*{3}{@{\hspace{0.2em}}c}|}\hline&Proposed&Sys1&Sys2&Sys3&Sys4&Sys6&Sys7&Sys8&Sys9&Fulltext&\shortstack{TF\\withQB}&Lead\\\hline\shortstack[l]{Recall\\(Ans.A)}&{\bf0.907}&0.833&0.899&0.793&0.818&0.858&0.831&0.824&0.849&0.843&0.798&0.740\\\shortstack[l]{Precision\\(Ans.A)}&0.751&0.728&0.717&0.685&0.674&0.718&0.739&0.738&0.741&0.711&0.724&{\bf0.766}\\\shortstack[l]{F-Measure\\(Ans.A)}&{\bf0.808}&0.761&0.785&0.715&0.718&0.763&0.766&0.749&0.768&0.751&0.738&0.731\\\shortstack[l]{Recall\\(Ans.B)}&0.754&0.741&{\bf0.793}&0.715&0.737&0.745&0.719&0.719&0.752&0.736&0.700&0.625\\\shortstack[l]{Precision\\(Ans.B)}&0.897&0.921&0.904&0.898&0.875&0.892&0.908&0.913&{\bf0.923}&0.888&0.913&0.921\\\shortstack[l]{F-Measure\\(Ans.B)}&0.797&0.808&{\bf0.828}&0.776&0.773&0.785&0.779&0.775&0.805&0.773&0.776&0.712\\TIME&8:33&9:41&12:48&{\bf6:25}&6:44&9:01&10:16&9:16&9:31&13:46&8:44&7:32\\LENGTH&234.4&297.8&585.7&{\bf89.5}&136.4&288.4&292.9&266.1&262.5&819.4&253.6&174.5\\\hline\end{tabular}\begin{tabular}{ll}Sys1〜9:&TSC参加の他システム(付録\ref{Appendix:NTCIR2TSCTaskBに参加した他システムの概要}参照)\\Ans.A,Ans.B:&AnswerLevelA,AnswerLevelBにそれぞれ対応\\Fulltext:&原文書\\TFwithQB:&ベースラインその1.質問バイアス付きTFによる重要文抽出手法.\\&検索要求中の単語に2倍の重み.要約率20\%(文ベース)\\Lead:&ベースラインその2.先頭から20\%の文を抽出する手法.タイトルは出力しない.\end{tabular}\end{center}\end{table}\subsection{適合性判断のための所要時間とその精度に関する評価}情報検索の結果の文書に対する要約においては,利用者が行なう適合性判断のための時間の短さと,適合性判断の正確さが共に達成されることが必要である.一方で,両者はトレードオフの関係にある.例えば,長い要約文書を提示すれば,タスク遂行の時間が長くなるが,一方で,精度は概ね向上すると考えられる.よって,両者を同時に評価する尺度が必要とされるが,未だ良いものが提案されていない.そこで,我々のシステムを含む各システムの再現率,適合率,F値について,適合性判断のための所要時間との関係をプロットした.AnswerLevelA,Bの場合を図\ref{Fig:Time-RPF}にぞれぞれ示す.\begin{figure}[htbp]\begin{center}\begin{tabular}{ccc}\begin{minipage}{0.3\hsize}\begin{center}\epsfile{file=L_A-Time-Recall.eps,scale=0.5}\\再現率\\\end{center}\end{minipage}&\begin{minipage}{0.3\hsize}\begin{center}\epsfile{file=L_A-Time-Precision.eps,scale=0.5}\\適合率\\\end{center}\end{minipage}&\begin{minipage}{0.3\hsize}\begin{center}\epsfile{file=L_A-Time-F.eps,scale=0.5}\\F値\\\end{center}\end{minipage}\\\multicolumn{3}{c}{(A)AnswerLevelA}\\\begin{minipage}{0.3\hsize}\vspace*{5mm}\begin{center}\epsfile{file=L_B-Time-Recall.eps,scale=0.5}\\再現率\\\end{center}\end{minipage}&\begin{minipage}{0.3\hsize}\vspace*{5mm}\begin{center}\epsfile{file=L_B-Time-Precision.eps,scale=0.5}\\適合率\\\end{center}\end{minipage}&\begin{minipage}{0.3\hsize}\vspace*{5mm}\begin{center}\epsfile{file=L_B-Time-F.eps,scale=0.5}\\F値\\\end{center}\end{minipage}\\\multicolumn{3}{c}{(B)AnswerLevelB}\\\multicolumn{3}{c}{\vspace{-5mm}}\\\multicolumn{3}{c}{Proposed:我々の手法,Fulltext:原文書,TFwithQB:質問バイアス付き}\\\multicolumn{3}{c}{TFによる重要文抽出手法,Lead:先頭から20\%の文を抽出する手法,}\\\multicolumn{3}{c}{無印:他の参加システム}\\\end{tabular}\caption{判定時間と再現率,適合率,F値の関係}\label{Fig:Time-RPF}\end{center}\end{figure}また,判定時間と要約文書の平均文字数の間の関係を図\ref{Fig:Time-Length}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=Time-Length.eps,scale=0.5}\end{center}\caption{判定時間と要約文書の平均長(文字単位)の関係}\label{Fig:Time-Length}\end{figure}\subsection{トピック毎の適合性判断の精度に関する評価}これまで示した結果では,全てのトピックに亙る平均値を用いてタスクの遂行精度を議論してきたが,当然,トピックによって各システムの精度が異なるはずである.そこで,我々の手法と各ベースライン手法による要約において,トピック毎のタスク遂行精度をプロットした.AnswerLevelA,Bの場合をそれぞれ図\ref{Fig:Topic-RPF}に示す.なお,図中`Ave.'は全トピックに亙る平均値である.\begin{figure}[htbp]\begin{center}\begin{tabular}{ccc}\begin{minipage}{0.3\hsize}\begin{center}\epsfile{file=Topic_L_A_recall.eps,scale=0.33}\\再現率\\\end{center}\end{minipage}&\begin{minipage}{0.3\hsize}\begin{center}\epsfile{file=Topic_L_A_precision.eps,scale=0.33}\\適合率\\\end{center}\end{minipage}&\begin{minipage}{0.3\hsize}\begin{center}\epsfile{file=Topic_L_A_F.eps,scale=0.33}\\F値\\\end{center}\end{minipage}\\\multicolumn{3}{c}{(A)AnswerLevelA}\\\begin{minipage}{0.3\hsize}\vspace*{5mm}\begin{center}\epsfile{file=Topic_L_B_recall.eps,scale=0.33}\\再現率\\\end{center}\end{minipage}&\begin{minipage}{0.3\hsize}\vspace*{5mm}\begin{center}\epsfile{file=Topic_L_B_precision.eps,scale=0.33}\\適合率\\\end{center}\end{minipage}&\begin{minipage}{0.3\hsize}\vspace*{5mm}\begin{center}\epsfile{file=Topic_L_B_F.eps,scale=0.33}\\F値\\\end{center}\end{minipage}\\\multicolumn{3}{c}{(B)AnswerLevelB}\\\end{tabular}\caption{トピック毎の再現率,適合率,F値}\label{Fig:Topic-RPF}\end{center}\end{figure}\subsection{適合と判断した被験者の数による要約の質の定量的評価}要約文書の質を今少し詳細に検討するために,各々の文書に対して,関連性有り(YES)と答えた被験者の人数を調べる.この人数はトピックに対する生成された要約文書の関連度の高さを表す尺度と考えられる.そこで,原文書を関連性判定(A,B,C)によって分類し,その要約に対してYESと判定した人数毎に文書頻度を集計し,プロットした.結果を図\ref{Fig:Rel-Judge}に示す.\begin{figure}[htbp]\begin{center}\begin{tabular}{ccc}\begin{minipage}{0.3\hsize}\begin{center}\epsfile{file=YES_A.eps,scale=0.33}\\(A)原文書関連度A\\\end{center}\end{minipage}&\begin{minipage}{0.3\hsize}\begin{center}\epsfile{file=YES_B.eps,scale=0.33}\\(B)原文書関連度B\\\end{center}\end{minipage}&\begin{minipage}{0.3\hsize}\begin{center}\epsfile{file=YES_C.eps,scale=0.33}\\(C)原文書関連度C\\\end{center}\end{minipage}\\\end{tabular}\end{center}\caption{原文書の関連度と要約文書に対する適合性判断の関係}\label{Fig:Rel-Judge}\end{figure}\subsection{語の重み付けに対する評価}語の重みづけについては正解というものがないので,定量的にその評価をすることが難しい.ここでは,最も基本的な重みづけである,TF値,TF・IDF値による重みと,本手法の重みづけを実例により比較し,定性的に我々の語の重要度決定手法の特徴を検討する.ここでは,典型的な語の重みがどの様になっているかを調べることが主眼であるので,我々のシステムで最もF値の高かったトピック1027に注目した.このトピックの内容を表\ref{Table:Topic1027}に示す.\begin{table}[htbp]\caption{TSCTaskBのトピック1027}\label{Table:Topic1027}\begin{tabular}{|lp{100mm}|}\hline{\scdescription}フィールド:&ハイビジョンテレビ\\\hline{\scnarrative}フィールド:&ハイビジョンテレビ(高精細度テレビ、HDTV)に関する政治、企業、ユーザーなどからの情報を含む記事。ハイビジョンの標準化、実験、放送やハイビジョンの売れ行き、国内外の動向、各種論議も含む。\\\hline\end{tabular}\end{table}このトピックについて,原文書の関連度がそれぞれ,A,B,Cであるものを一つずつ選択し,各種の語の重みけを行なった結果について,上位10位までを求めた.表\ref{Table:weight1027A},\ref{Table:weight1027B},\ref{Table:weight1027C}にその結果を示す.表においてIGRsumは式(\ref{Eq:IGRsum})に示される情報利得比の和であり,TFIDFIGRsumはTF・IDF値にIGRsumを乗じた値である.\begin{table}[htbp]\caption{文書に対する語の重みの例(Topic1027,記事番号980822075,関連度A)}\label{Table:weight1027A}\footnotesize\begin{center}\begin{tabular}{|r|ll|ll|ll|ll|}\hline\hspace{-1mm}順位\hspace{-1mm}&\multicolumn{2}{c|}{TF}&\multicolumn{2}{c|}{TF・IDF}&\multicolumn{2}{c|}{IGRsum}&\multicolumn{2}{c|}{TFIDFIGRsum}\\\hline&&&&&&&&\\[-8pt]1&放送&\hspace{-2mm}8\hspace{-1.0mm}&放送&\hspace{-2mm}$1.14\times10^{-4}$\hspace{-1.5mm}&放送&\hspace{-2mm}$9.52\times10^{-3}$\hspace{-1.5mm}&放送&\hspace{-2mm}$1.09\times10^{-6}$\hspace{-1.5mm}\\2&申請&\hspace{-2mm}6\hspace{-1.0mm}&BS&\hspace{-2mm}$9.68\times10^{-5}$\hspace{-1.5mm}&デジタル&\hspace{-2mm}$3.10\times10^{-3}$\hspace{-1.5mm}&BS&\hspace{-2mm}$2.54\times10^{-7}$\hspace{-1.5mm}\\3&番組&\hspace{-2mm}5\hspace{-1.0mm}&申請&\hspace{-2mm}$9.41\times10^{-5}$\hspace{-1.5mm}&BS&\hspace{-2mm}$2.63\times10^{-3}$\hspace{-1.5mm}&番組&\hspace{-2mm}$1.87\times10^{-7}$\hspace{-1.5mm}\\4&BS&\hspace{-2mm}4\hspace{-1.0mm}&SDTV&\hspace{-2mm}$8.23\times10^{-5}$\hspace{-1.5mm}&番組&\hspace{-2mm}$2.38\times10^{-3}$\hspace{-1.5mm}&デジタル&\hspace{-2mm}$1.22\times10^{-7}$\hspace{-1.5mm}\\5&衛星&\hspace{-2mm}3\hspace{-1.0mm}&番組&\hspace{-2mm}$7.86\times10^{-5}$\hspace{-1.5mm}&テレビ&\hspace{-2mm}$2.20\times10^{-3}$\hspace{-1.5mm}&HDTV&\hspace{-2mm}$1.10\times10^{-7}$\hspace{-1.5mm}\\6&1番組&\hspace{-2mm}2\hspace{-1.0mm}&1番組&\hspace{-2mm}$7.66\times10^{-5}$\hspace{-1.5mm}&ハイビジョン&\hspace{-2mm}$2.13\times10^{-3}$\hspace{-1.5mm}&申請&\hspace{-2mm}$8.37\times10^{-8}$\hspace{-1.5mm}\\7&HDTV&\hspace{-2mm}2\hspace{-1.0mm}&HDTV&\hspace{-2mm}$6.44\times10^{-5}$\hspace{-1.5mm}&HDTV&\hspace{-2mm}$1.70\times10^{-3}$\hspace{-1.5mm}&衛星&\hspace{-2mm}$7.95\times10^{-8}$\hspace{-1.5mm}\\8&SDTV&\hspace{-2mm}2\hspace{-1.0mm}&衛星&\hspace{-2mm}$5.42\times10^{-5}$\hspace{-1.5mm}&郵政省&\hspace{-2mm}$1.66\times10^{-3}$\hspace{-1.5mm}&郵政省&\hspace{-2mm}$6.20\times10^{-8}$\hspace{-1.5mm}\\9&テレビ&\hspace{-2mm}2\hspace{-1.0mm}&各3番組&\hspace{-2mm}$4.34\times10^{-5}$\hspace{-1.5mm}&衛星&\hspace{-2mm}$1.47\times10^{-3}$\hspace{-1.5mm}&テレビ&\hspace{-2mm}$5.55\times10^{-8}$\hspace{-1.5mm}\\10&デジタル&\hspace{-2mm}2\hspace{-1.0mm}&計22番組&\hspace{-2mm}$4.34\times10^{-5}$\hspace{-1.5mm}&デジタル放送&\hspace{-2mm}$1.37\times10^{-3}$\hspace{-1.5mm}&ハイビジョン&\hspace{-2mm}$5.44\times10^{-8}$\hspace{-1.5mm}\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{文書に対する語の重みの例(Topic1027,記事番号981215216,関連度B)}\label{Table:weight1027B}\footnotesize\begin{center}\begin{tabular}{|r|ll|ll|ll|ll|}\hline\hspace{-1mm}順位\hspace{-1mm}&\multicolumn{2}{c|}{TF}&\multicolumn{2}{c|}{TF・IDF}&\multicolumn{2}{c|}{IGRsum}&\multicolumn{2}{c|}{TFIDFIGRsum}\\\hline&&&&&&&&\\[-8pt]1&関西&\hspace{-2mm}8\hspace{-1.0mm}&関西&\hspace{-2mm}$1.08\times10^{-4}$\hspace{-1.5mm}&放送&\hspace{-2mm}$9.52\times10^{-3}$\hspace{-1.5mm}&放送&\hspace{-2mm}$8.14\times10^{-7}$\hspace{-1.5mm}\\2&放送&\hspace{-2mm}6\hspace{-1.0mm}&放送&\hspace{-2mm}$8.55\times10^{-5}$\hspace{-1.5mm}&企業&\hspace{-2mm}$3.15\times10^{-3}$\hspace{-1.5mm}&BS&\hspace{-2mm}$1.27\times10^{-7}$\hspace{-1.5mm}\\3&情報&\hspace{-2mm}4\hspace{-1.0mm}&CS&\hspace{-2mm}$7.17\times10^{-5}$\hspace{-1.5mm}&情報&\hspace{-2mm}$2.95\times10^{-3}$\hspace{-1.5mm}&CS&\hspace{-2mm}$1.20\times10^{-7}$\hspace{-1.5mm}\\4&CS&\hspace{-2mm}3\hspace{-1.0mm}&番組制作会社&\hspace{-2mm}$6.59\times10^{-5}$\hspace{-1.5mm}&BS&\hspace{-2mm}$2.63\times10^{-3}$\hspace{-1.5mm}&関西&\hspace{-2mm}$1.20\times10^{-7}$\hspace{-1.5mm}\\5&衛星&\hspace{-2mm}3\hspace{-1.0mm}&発信&\hspace{-2mm}$5.77\times10^{-5}$\hspace{-1.5mm}&番組&\hspace{-2mm}$2.38\times10^{-3}$\hspace{-1.5mm}&情報&\hspace{-2mm}$1.19\times10^{-7}$\hspace{-1.5mm}\\6&発信&\hspace{-2mm}3\hspace{-1.0mm}&衛星&\hspace{-2mm}$5.42\times10^{-5}$\hspace{-1.5mm}&チャンネル&\hspace{-2mm}$1.72\times10^{-3}$\hspace{-1.5mm}&衛星&\hspace{-2mm}$7.95\times10^{-8}$\hspace{-1.5mm}\\7&1程度&\hspace{-2mm}2\hspace{-1.0mm}&1程度&\hspace{-2mm}$5.33\times10^{-5}$\hspace{-1.5mm}&CS&\hspace{-2mm}$1.68\times10^{-3}$\hspace{-1.5mm}&番組&\hspace{-2mm}$7.48\times10^{-8}$\hspace{-1.5mm}\\8&BS&\hspace{-2mm}2\hspace{-1.0mm}&BS&\hspace{-2mm}$4.84\times10^{-5}$\hspace{-1.5mm}&衛星&\hspace{-2mm}$1.47\times10^{-3}$\hspace{-1.5mm}&企業&\hspace{-2mm}$7.19\times10^{-8}$\hspace{-1.5mm}\\9&会社&\hspace{-2mm}2\hspace{-1.0mm}&関西電力&\hspace{-2mm}$4.34\times10^{-5}$\hspace{-1.5mm}&通信&\hspace{-2mm}$1.40\times10^{-3}$\hspace{-1.5mm}&発信&\hspace{-2mm}$3.83\times10^{-8}$\hspace{-1.5mm}\\10&関西電力&\hspace{-2mm}2\hspace{-1.0mm}&関西チャンネル&\hspace{-2mm}$4.34\times10^{-5}$\hspace{-1.5mm}&関西&\hspace{-2mm}$1.11\times10^{-3}$\hspace{-1.5mm}&チャンネル&\hspace{-2mm}$3.69\times10^{-8}$\hspace{-1.5mm}\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{文書に対する語の重みの例(Topic1027,記事番号981108028,関連度C)}\label{Table:weight1027C}\footnotesize\begin{center}{\footnotesize\begin{tabular}{|r|ll|ll|ll|ll|}\hline\hspace{-1mm}順位\hspace{-1mm}&\multicolumn{2}{c|}{TF}&\multicolumn{2}{c|}{TF・IDF}&\multicolumn{2}{c|}{IGRsum}&\multicolumn{2}{c|}{TFIDFIGRsum}\\\hline&&&&&&&&\\[-8pt]1&放送&\hspace{-2mm}7\hspace{-1.0mm}&自由ヨーロッパ&\hspace{-2mm}$1.30\times10^{-4}$\hspace{-1.5mm}&放送&\hspace{-2mm}$9.52\times10^{-3}$\hspace{-1.5mm}&放送&\hspace{-2mm}$9.50\times10^{-7}$\hspace{-1.5mm}\\2&チェコ&\hspace{-2mm}6\hspace{-1.0mm}&チェコ&\hspace{-2mm}$1.26\times10^{-4}$\hspace{-1.5mm}&企業&\hspace{-2mm}$3.15\times10^{-3}$\hspace{-1.5mm}&番組&\hspace{-2mm}$1.12\times10^{-7}$\hspace{-1.5mm}\\3&自由&\hspace{-2mm}5\hspace{-1.0mm}&放送&\hspace{-2mm}$9.98\times10^{-5}$\hspace{-1.5mm}&情報&\hspace{-2mm}$2.95\times10^{-3}$\hspace{-1.5mm}&チェコ&\hspace{-2mm}$1.09\times10^{-7}$\hspace{-1.5mm}\\4&イラク&\hspace{-2mm}4\hspace{-1.0mm}&プラハ&\hspace{-2mm}$7.95\times10^{-5}$\hspace{-1.5mm}&番組&\hspace{-2mm}$2.38\times10^{-3}$\hspace{-1.5mm}&自由ヨーロッパ&\hspace{-2mm}$7.03\times10^{-8}$\hspace{-1.5mm}\\5&イラン&\hspace{-2mm}4\hspace{-1.0mm}&イラン&\hspace{-2mm}$7.64\times10^{-5}$\hspace{-1.5mm}&局&\hspace{-2mm}$1.21\times10^{-3}$\hspace{-1.5mm}&自由&\hspace{-2mm}$5.01\times10^{-8}$\hspace{-1.5mm}\\6&ヨーロッパ&\hspace{-2mm}4\hspace{-1.0mm}&ヨーロッパ&\hspace{-2mm}$7.32\times10^{-5}$\hspace{-1.5mm}&開始&\hspace{-2mm}$9.89\times10^{-4}\hspace{-1.5mm}$&ヨーロッパ&\hspace{-2mm}$4.24\times10^{-8}$\hspace{-1.5mm}\\7&政府&\hspace{-2mm}4\hspace{-1.0mm}&自由&\hspace{-2mm}$7.32\times10^{-5}$\hspace{-1.5mm}&チェコ&\hspace{-2mm}$8.70\times10^{-4}$\hspace{-1.5mm}&イラク&\hspace{-2mm}$4.23\times10^{-8}$\hspace{-1.5mm}\\8&プラハ&\hspace{-2mm}3\hspace{-1.0mm}&イラク&\hspace{-2mm}$7.29\times10^{-5}$\hspace{-1.5mm}&政府&\hspace{-2mm}$8.05\times10^{-4}$\hspace{-1.5mm}&イラン&\hspace{-2mm}$4.22\times10^{-8}$\hspace{-1.5mm}\\9&自由ヨーロッパ&\hspace{-2mm}3\hspace{-1.0mm}&チェコ政府&\hspace{-2mm}$7.10\times10^{-5}$\hspace{-1.5mm}&米国&\hspace{-2mm}$7.58\times10^{-4}$\hspace{-1.5mm}&プラハ&\hspace{-2mm}$3.62\times10^{-8}$\hspace{-1.5mm}\\10&番組&\hspace{-2mm}3\hspace{-1.0mm}&召&\hspace{-2mm}$5.29\times10^{-5}$\hspace{-1.5mm}&自由&\hspace{-2mm}$6.84\times10^{-4}$\hspace{-1.5mm}&企業&\hspace{-2mm}$3.59\times10^{-8}$\hspace{-1.5mm}\\\hline\end{tabular}}\end{center}\end{table} \section{考察} \subsection{タスク遂行の精度}TSCTaskBは,利用者(被験者)が要約文書を読むことにより,原文書のトピックに対する関連度を推定するタスクであった.よって,この場合の要約は報知的(informative)である必要はなく,指示的(indicative)でありさえすれば良い.このような要約においては,原文書に関する細かいニュアンスが伝達されるエレガントな要約文書が生成される必要はなく,適切なキーワードの選択とそのキーワードがどのような文脈で現れているかを説明する文書部分の抽出が適切にできればよいと考えられる.この考え方に従えば,キーワードの抽出の精度が高ければ,我々が用いた程度の文抽出による要約機構でもタスクを十分遂行できる要約文書が得られるはずである.以下ではAnswerLevelA,Bに分けて,上記の観点からタスク遂行の精度を考察する.\subsubsection{AnswerLevelA}\label{Sec:AnswerLevelA}本節では検索質問に対して適合文書(A判定)のみを正解とした評価(AnswerLevelA)について考察を行なう.表\ref{Table:EvaluationResultAll}によると,我々の手法は,再現率,適合率,F値すべてにおいて,他のすべての参加システムよりも高い値を示している.ベースラインシステムとの比較においては,我々のシステムの適合率はLead手法よりも1.5ポイント低い値を示しているものの,それ以外は勝っている.Lead手法は,再現率が他の手法に比べて一番低いため総合指標であるF値においてはさほど高くなく,我々のシステムよりも7.7ポイント低い.すなわち,Lead手法は適合率重視の手法と見なすことができる.質問バイアス付きTF法と比較してみると,再現率において10.9ポイント,適合率において2.7ポイント,F値において7.0ポイント勝っている.このことは,検索文書の要約においては,必ずしも検索要求を直接使用しなくても,検索文書群だけで同等以上の質を持つ要約が可能であることを示している.次に,適合性判断の所要時間とタスク遂行の精度について考える.まず,表\ref{Table:EvaluationResultAll}によると,所要時間単独についていえば,我々のシステムが生成した要約に対し,被験者が適合性判定に要した時間は,1トピック(50文書)あたり8分33秒であった.これは,TSCに参加した9システム中,3番めに短いものであった.また,すべての参加システムの平均タスク時間は1トピック当たり9分8秒であり,我々の要約の適合性判定に要する時間はこれよりも短い.そして,所要時間と各種評価値の関係を示す図\ref{Fig:Time-RPF}(A)においては,概ね,左上に位置するシステムの性能が良いと考えられるので,我々のシステムは他のシステムに勝っていると言えよう.特に,再現率は適合率に比べてシステム間での格差が大きく,我々のシステムの再現率の高さが見てとれる.図\ref{Fig:Topic-RPF}(A)によれば,他のベースラインシステムはトピックによって,再現率が大きく変動しているが,我々のシステムはトピックにあまり依存せず安定して高い再現率を示している.これは,被験者が,関連文書(関連度A)の要約に対して適合すると概ね正しく判断したことを示す.一方,適合率についていえば,他のベースラインシステムとほぼ同様の傾向で,我々のシステムもトピックによってその精度が大きく変動している.これは,トピックによっては,我々のシステムが,非関連文書(関連度B,C)に対して一見すると関連性があると見誤る文を抽出し,要約の一部として提示していることを表す.以上をまとめると,まず,我々の手法は,トピックに関連する文を原文書から積極的に抽出していることがわかる.一方,そのような文の周囲の文脈については,抽出を促す戦略を採っていないことから,それらの抽出洩れにより,非関連文書に対して関連性があると見誤るような要約を生成する可能性もあることがわかる.なお,図\ref{Fig:Time-Length}をみると,要約文書長と適合性判定の所要時間は一定時間のオフセット(5分52秒)がついているものの,システムの違いによらず,ほぼ,比例関係となっている.一方,各システムの出力する要約文書については,適合性判定の精度にばらつきが見られる.よって,要約文書の適合性判定時間は適合性判定の結果によらず,要約文書の長さのみに依存していると考えられる.\subsubsection{AnswerLevelB}\label{Sec:AnswerLevelB}本節ではB判定まで含めた評価(AnswerLevelB)について考察を行なう.他のシステムと比較して,再現率が第2位と高いものの,適合率は第7位,F値は第4位と相対順位が低くなった.AnswerLevelBの評価においては,AnswerLevelAよりも正解の数が多くなるので,一般に,AnswerLevelAに比べて,再現率が下降し,適合率が高くなる.再現率についていえば,AnswerLevelAにおいて,高い適合率となったシステムほど減少が激しくなる.一方,適合率については,B判定のものがAnswerLevelAでの誤判定となっているのであれば,その値の上昇が著しい.我々のシステムの場合,再現率が0.907から0.754へと激しく低下しており,図\ref{Fig:Topic-RPF}(B)に示される通り,トピック毎の変動が大きくなっている.しかし,その順位について言えば,2位であるので相対的には他のシステムよりも高いことがわかる.つまり,関連文書(評価A,B)に対して正しく関連性の判定が行なわれた要約文書の数は他のシステムよりも多い.一方で,適合率の上昇は他のシステムより低いので,被験者が関連度評価Cの文書の要約に対しても適合であると判定を下した数が多かったことになる.これは,AnswerLevelAの考察で述べたことを裏付けており,トピックに関連する文の抽出は成功しているものの,その文脈が脱落する場合も少なからずあることを示している.ただし,図\ref{Fig:Time-RPF}(B)や図\ref{Fig:Topic-RPF}(B)が示すとおり,適合率のシステム間の差異は再現率ほど大きくなく,また,AnswerLevelAの適合率に比べてもシステム間の格差が小さくなっている.\subsubsection{提案手法とベースラインとの差異に関する検定}前節までに述べたタスクの遂行精度において,提案手法と他の手法の間に有意な差があるか否かを検証するためには,統計検定を行なう必要がある.しかし,TSC実行委員会が提供する結果情報において,トピック毎の個別の評価が得られるのは自システムならびにベースライン三種のみだけである.そこで,ここでは,提案手法がベースライン三種との間に有意な差があるかを検証する.総合性能を表すF値についてトピック毎の値の差に基づきWilcoxonの符号順位検定を行なった.提案手法と各ベースラインを比較した時に「F値に差が無い」という帰無仮説に対する有意確率pを表\ref{Table:Wilcoxon}に示す.\begin{table}[htbp]\caption{本手法とベースラインとの間の差異に関するWilcoxon符号順位検定の結果}\label{Table:Wilcoxon}\begin{center}\begin{tabular}{|l|l|l|l|}\hline&対TFwithQB&対Lead&対Fulltext\\\hlineAnswerLevelA&$\bf{p=0.0161<0.05}$&$\bf{p=0.0400<0.05}$&$p=0.0522>0.05$\\\hlineAnswerLevelB&$p=0.4238>0.05$&$\bf{p=0.0332<0.05}$&$p=0.9097>0.05$\\\hline\end{tabular}\\\vspace*{5pt}太字は有意水準5\%の下で差があることが示されたもの.\end{center}\end{table}この表によると,AnswerLevelAにおいては,提案手法がベースラインTFwithQBならびにLeadに対して,有意水準5\%の下で,差を持つことが示されている.Fulltextとの比較については,有意水準5\%の下での差異を示すことができなかったが,帰無仮説を採択する確率が5.2\%程度で同有意水準との差は僅差である.一方,AnswerLevelBにおいては,ベースラインとの差がAnswerLevelAほど顕著ではない.有意水準5\%の下で差がある事が示されたのはLead手法との対比だけであった.\subsection{適合と判断した被験者の数による要約の質の定量的評価}図\ref{Fig:Rel-Judge}(A)についてみると,トピックに対する原文書の関連度がAの場合には,いずれのシステムにおいても,当然ながら,3人が一致してYESとする場合が最も多く,2人,1人,0人と順に頻度が低くなっていく.我々の手法についてみると,他のベースライン手法に比べて,3人が一致してYESと答えた頻度が高くなっており,一方,1人,2人がYESと答えた頻度が低くなっている.すなわち,関連性のある文書については,他の手法より質の高い要約が生成されていたと考えられる.また,Lead手法については,3人が一致してNOとつけた件数が他のベースラインよりも多くなっている.つまり,関連判定に重要な部分は必ずしも文頭にあるわけではなく,一般的な新聞記事の要約で良い戦略の一つとされるLead手法が情報検索タスクにおいては,必ずしも有効ではないことがわかる.一方,関連度Bが与えられている原文書についていえば,本来はNOであるべきであるから,YESとした人数が0の場合の頻度が大きく,3人の場合の頻度が少なくなる傾向にあるはずである.ただし,関連性が一部認められる記事の要約に対する評価であるから,要約の仕方によっては1〜2人程度の人がYESと判定する頻度も(C)の場合に比べて多くなることが予想される.図\ref{Fig:Rel-Judge}(B)をみると,TF手法を除いて,この傾向がみられ,特にLead手法において顕著である.TF手法においては,0人の頻度が少なく,被験者3人のうち1人以上が関連性があると判定していることがわかる.そして,図\ref{Fig:Rel-Judge}(C)についてみると,概ね,0人,1人,2人,3人と順に頻度が低くなっていく.誤った判定の箇所,すなわち1人,2人,3人の箇所をみると,ベースライン手法よりも我々の手法のほうが上方にグラフが描かれている.すなわち,他のベースライン手法よりも関連度Cの文書に対して誤って関連性があると判断した被験者が多かったことを示している.これは,節\ref{Sec:AnswerLevelA}ならびに節\ref{Sec:AnswerLevelB}で考察したことを再確認するものである.\subsection{語の重み付けに関する考察}我々の提案する語の重みづけについてその特徴を実例(検索トピック1027,「ハイビジョンテレビ」)により考察する.表\ref{Table:weight1027A}において,我々が最終的に用いる語の重みであるTFIDFIGRsumの列に示されるように,関連度Aの文書においては,検索トピックに陽に示されている語はもちろんのこと,「BS」,「番組」,「デジタル」,「申請」,「衛星」,「郵政省」など,そのトピックに関連する語も上位に重み付けられていることが分かる.その一方で,TF・IDF値では上位にあった非関連語「SDTV」(標準テレビ)については,上位10位から姿を消している.これらの効果は,TF・IDFの列とIGRsumの列を比較すれば分かるが,IGRsumの成分が主に寄与している.そして,このような重みづけは質問バイアス付きTF手法では,質問拡張\cite{Baeza-Yates:ModernInformationRetrieval,Salton:ImprovingRetrievalPerformanceByRelevanceFeedback}などを別途行なわない限り実現できないものである.関連度BやCの文書についても,表\ref{Table:weight1027B},\ref{Table:weight1027C}に示されるとおり,トピックに関連の深い語が上位に重み付けられていることが見てとれる.また,関連度Cの例では,IGRsumの値が低いものも上位に見られるが,いずれもトピックとは関係の薄い語である.\subsection{語の重みづけの品質と検索文書の数ならびに品質に関する考察}\label{Sec:語の重みづけの品質と検索文書の数ならびに品質に関する考察}本手法による重みづけは,クラスタリングの対象となる文書の件数ならびに検索結果の質と密接な関係にある.本来ならば,TSCTaskBと同一条件の下で,要約の対象となる文書数ならびに検索結果の質を変化させての追加検証が必要であるが,TSCTaskBと同一被験者による再実験が困難であるため,ここでは,定性的な考察を行なう.定量的な考察は今後の課題としたい.さて,本手法で語の重みに用いている情報利得比の和は,クラスタ構造に則した分布をしている語に高い重みを与えるものであるから,検索文書をクラスタリングした結果,どのようなクラスタ構造が形成されるかによって,各語の重みが決まる.クラスタ構造は対象となる文書間の類似性により求めるので,検索文書のうち,クラスタリングの対象となる文書群(以下,単に検索文書群と呼ぶ)について,その数と文書間の類似度に密接な関係がある.さらに,本手法では,図\ref{Fig:SuperCluster}に示すように文書データベース中の全文書が所属するクラスタを最上位に考え,検索文書群とそれ以外の文書群の間の差異についても重みに反映しているので,全体のクラスタ構造は情報検索の精度とも関係がある.そこで,以下では,上記二点について個別に考察を行なう.\subsubsection{語の重みづけの品質と検索文書数に関する考察}\label{Sec:語の重みづけの品質と検索文書数に関する考察}採用する文書が少ない場合と多い場合について考察する.まず,採用する文書数が少ない場合について,検索文書群と残りの文書群との対比から得られる重み,ならびに,検索文書群をクラスタリングした結果から得られる重みがどのようになるかを考える.最終的な語の重みはこれらの和である.文書数が少ない場合には,文書集合中の総単語数ならびに個々の単語の頻度も小さくなるので,平滑化(smoothing)をせずに単語頻度から語の出現確率を直接推定すると,語の頻度の小さな差異が語の出現確率の大きな変化となることがある.この時,残りの文書群における単語の出現確率との差が大きくなれば,その語の重みが不当に高くなる可能性がある.本稿では用いてはいないが,単語出現確率の推定においては平滑化を考慮すべきであろう.検索文書のクラスタリングについては,クラスタ中の文書数ならびにクラスタ構造の枝分かれが少なくなるので,各文書間の類似性関係がクラスタ構造に大きな影響を与える.そして,情報利得比の計算においては,語の重要度が個別文書における語の現れ方に敏感になる.一方,採用する文書数が大きい場合には,個々の単語の出現頻度が相対的に大きくなることと,個々の文書間の類似度がクラスタ構造に与える効果が分散・平滑化されることにより,上記と逆の傾向があると考えられる.ただし,検索質問との関連性が低い文書が数多くなってくると,検索質問に述べられたトピックとは関連性の低い語がクラスタ形成の際に支配的になる事も有り得る.この場合は,本来のトピックに関連する語には相対的に低い重みしか与えられない.これは,検索文章群において,より重要な項目を強調するという点では正しい重みの付き方ではあるが,本来のトピックとの関連性判定という観点からは,誤らせる方向にバイアスがかかってしまう.このような場合にはTombrosら\cite{Tombros:AdvantagesOfQueryBiasedSummariesInInformationRetrieval}の提案するような検索質問によるバイアス方式の方が適切な結果を与えるので,両者を併用する方法も検討すべきであろう.\subsubsection{語の重みづけの品質と情報検索の品質に関する考察}検索結果の質も,検索文書群と残りの文書群との対比から得られる語の重み,ならびに,検索文書群をクラスタリングした結果から得られる語の重みの両者に影響を与える.まず,検索文書群と残りの文書群との対比から得られる語の重みについて考える.この段階で検索質問に関連する語に比重がおかれた適切な重みづけがなされるためには,残りの文書集合と比較して検索文書集合側に関連文書が多く存在し,それに伴い関連する語の出現確率が偏る必要がある.情報検索の質が非常に悪く,文書集合からほぼランダムに検索文書が取り出されるのであれば,検索文書集合とそれ以外の文書集合の間で各語の出現確率に見られる差異は小さく,対比によって得られる語の重みはいずれも小さな値に留まる.一方,検索エンジンが,検索質問に従って,ある程度分布の偏った文書集合を返すとすれば,その度合に応じて,検索質問に関連する語の重みも高くなる.次に検索文書群をクラスタリングした結果から得られる語の重みについて考える.節\ref{Sec:語の重みづけの品質と検索文書数に関する考察}でも述べた通り,検索質問との関連性が低い文書が多くなると,検索質問に述べられたトピックとは関連性の低い語が,クラスタ形成の際に支配的になる事も有り得る.この場合は,本来のトピックに関連する語とは別の語に高い重みが与えられる.この時には,検索質問によるバイアス方式の方が性能が良いと考えられる.前項とともに以上をまとめると,我々の重み付け方式が十分な効果を発揮するためには,\begin{description}\item[条件1]情報検索エンジンの精度が悪くない事\item[条件2]検索質問に関連する文書が検索結果中にある程度存在する事\end{description}の二点を満足することが必要であると考えられる.また,これらの条件を満足しない場合,特に,条件2を満たさない場合にも対応できるためには,検索質問によるバイアス方式との併用を検討することも重要であろう.本節の定量的な評価とともに今後の課題としたい. \section{関連研究} \label{Sec:関連研究}節\ref{Sec:検索文書要約の特質}でも述べたように,検索結果の文書要約は,通常の文書要約とは次の点で異なる.\begin{enumerate}\item検索要求文が与えられている.\label{step:query}\item複数の文書が同時に得られている.そして,ある一度の検索の結果という点において文書間に類似性が認められる.\label{step:doc}\end{enumerate}本研究においては(\ref{step:doc})の情報を用いたが,(\ref{step:query})の情報を利用した手法もある.Tombrosら\cite{Tombros:AdvantagesOfQueryBiasedSummariesInInformationRetrieval}は,文書中のタイトル情報,文書中での位置情報,文書中での単語の出現頻度に基づいた,従来通りの文の重要度に,検索要求文中の単語が文中に出現する頻度に応じたスコアを加味することで,検索要求文に依存した重要文抽出を実現している.塩見ら\cite{塩見:視点を考慮した文書要約手法の提案}も,文書中の単語の出現頻度に基づいた文の重要度に,検索要求中の単語が文中に出現する頻度に応じたスコアを加味する手法を提案している.しかし,これらの手法は,スコアの制御が難しいことが問題点である.また,節\ref{Sec:検索文書要約の特質}で述べた通り,各種フィードバック,検索要求中の単語のシソーラスによる拡張などといった情報検索システムにおける工夫が反映されないという問題点がある.また,(\ref{step:doc})の情報を利用するという点では,Eguchiら\cite{Eguchi:AdaptiveQueryExpansionBasedOnClusteringSearchResults},Fukuharaら\cite{Fukuhara:Multiple-textSummarizationForCollectiveKnowledgeFormation},Radevら\cite{Radev:Centroid-basedSummarizationOfMultipleDocuments,Radev:Centroid-basedSummarizationOfMultipleDocuments}の手法が関連する.Eguchiらは,適合性フィードバックに基づく検索システムを構築している.このシステムでは,検索結果を文書間の類似度に基づいてクラスタリングし,各クラスタごとにクラスタに多く含まれる語と,そのクラスタを代表する文書のタイトルを,そのクラスタの要約として出力する.ユーザに,出力されたクラスタの中から選択してもらい,そのクラスタに含まれる文書を用いて適合性フィードバックを行なっている.FukuharaらやRadevらも,Eguchiらと同様に検索結果を文書間の類似度に基づいてクラスタリングし,各クラスタごとに要約を出力している.Fukuharaらの手法では,まず,文書中の単語の出現頻度を考慮し,クラスタごとのトピックを表す語を抽出する.そして,それらトピックを含む文を抽出し,焦点−主題連鎖を考慮して並べ替え,各クラスタの要約としている.Radevらの手法では,各クラスタについて,その重心ベクトルをTF・IDF値を用いて計算し,その重心における各語の成分を語の重みの主要な成分としている.これらの手法では,クラスタリングを文書のグループ分けのみに利用しており,グループ化された後では,各クラスタにおける語の分布だけを用いて重みを計算している.また,語の重要度としては単純にクラスタ内のTFやIDFを用いているだけである.直接の比較は今後の課題とするが,我々の手法においては,文書間の類似性構造の情報も取り入れて重みづけしているので,より高い分解能ならびに精度が得られていることが期待される.TSCTaskBにおける評価では,検索文書集合が与えられてはいるものの,最終的には個別文書の要約になっていた.一方,\cite{Mani:SummarizingSimilaritiesAndDifferencesAmongRelatedDocuments,McKeown:GeneratingSummariesOfMultipleNewsArticles}に代表されるように,複数文書から一つの要約文書を生成するという研究も近年注目を集めている.特にCarbonellら\cite{Carbonell:TheUseOfMMR:Diversity-BasedRerankingforReorderingDocumentsAndProducingSummaries}は,極大限界適合度(MaximalMarginalRelevance,MMR)という概念を導入し,検索質問と検索文書の類似度ならびに,ある文書とそれよりも上位の文書との間の冗長性に基づいて,検索文書の再順位づけを行なうとともに,これを,パッセージ検索に利用することによって要約生成を行なう手法を提案している.我々の重み付け手法は複数文書を一つの要約にする場合にでも,効果を発揮することが期待されるが,文書間の融合過程においては,冗長性の制御を陽に行なうMMRのような手法との組み合わせも必要になってくるであろう. \section{おわりに} 本稿では,複数の検索文書の間に存在する類似性の構造を階層的クラスタリングにより抽出し,その構造を適切に説明するか否かに応じて情報利得比に基づき語に重みをつける手法を提案した.TSCでの実験の結果,この方法に基づく重要文抽出型の要約手法は,検索文書の要約において,非常に有効であることが示された.今後の課題としては,節\ref{Sec:語の重みづけの品質と検索文書の数ならびに品質に関する考察}に述べたように本手法と検索文書の数ならびに品質の間の定量的な関係を明らかにすることが挙げられる.また,情報利得比に基づく語の重みを,対話型の情報検索インタフェース中で利用することを検討することも課題である.本稿では,クラスタ構造の全部分を均一に語の重みに反映させて要約を作成した.一方で,対話型のインタフェースとしては,利用者が部分クラスタを選択しながら,目的の情報に辿りつくというものも考えられる.この場合,提示された箇所のクラスタ構造のみを考慮して,要約を生成することができると考えられる.さらに,複数文書の要約において我々の枠組がどの様に役立つのかも検討したい.\acknowledgment本研究を進めるにあたり,本学大学院生であった菊池美和さん(現在,(株)NTTデータ)ならびに吉田和史さん(現在,三菱電機(株))に多大なる御協力を頂きました.ここに感謝いたします.また,国立情報学研究所主催のNTCIRならびにTSC1を企画・運営し,評価用データを作成していただいた皆様に感謝致します.なお,本研究を遂行するにあたって,CD-毎日新聞94年版,95年版,97年版,98年版を利用させていただきました.使用許諾をしていただいた毎日新聞社,ならびに,同データの研究利用に対して御尽力いただいた皆様に感謝致します.最後になりましたが,数多くの有益なコメントを頂いた査読者の方に感謝いたします.本研究の一部は文部科学省科学研究費特定領域研究「ITの深化の基盤を拓く情報学研究」(課題番号13224041,14019041)により支援を受けております.\bibliographystyle{jnlpbbl}\bibliography{summarization,InformationRetrieval,learning,algorithms,manual}\appendix \section{NTCIR2TSCTaskBに参加した他システムの概要} \label{Appendix:NTCIR2TSCTaskBに参加した他システムの概要}NTCIR2TSCTaskBに参加した他システムについて,NTCIR2Workshop論文集に基づきその概略を述べる\cite{Nobata:SentenceExtractionSystemAssemblingMultipleEvidence,Nakao:HowSmallADistinctionAmongSummariesCanTheEvaluationMethodIdentify,Hirao:TextSummarizationBasedOnHanningWindowAndDependencyStructureAnalysis,Oka:PhraseRepresentationSummarizationMethodAndItsEvaluation}.なお,システムSys7については,その詳細は不明である.\subsection{ベースラインTFwithQB}TSC実行委員会が提供するベースラインの一つで,文抽出型でスコアの上位の文から指定の要約率になるまで抽出.要約率は20\%(文を単位とする).各文のスコアは,内容語(名詞,動詞,形容詞,未定義語)のTFの和であるが,検索トピック中の語にはバイアスが与えられ,2倍の重みとする.この「2倍」という定数がどのように決定されたか,例えば,何らかのチューニングが施されているかなどは不明である.\subsection{ベースラインLead}TSC実行委員会が提供するベースラインの一つで,文抽出型で本文の先頭から指定の要約率になるまで抽出.要約率は20\%(文を単位とする).\subsection{ベースラインFulltext}TSC実行委員会が提供するベースラインの一つで,原文書のうち,表題(見出し文)ならびに本文をそのまま返すもの.要約率は100\%(文を単位とする).\subsection{システムSys1,Sys2}\comment{CRL+NYUグループ}文抽出型でスコアの上位の文から指定の要約率になるまで抽出.要約率は10\%(Sys1)ならびに50\%(Sys2).文のスコアは,次の3つの値を重み付きで加算したものである.(1)文書中の文の位置に基づくスコアで,文書の先頭ならびに文末に高い重みを付与する.(2)文長に基づくスコアで長いものに高い重みをつける.(3)名詞のTF・IDF値の和をスコアとしたもの.ただし,見出しに含まれる名詞ならびに固有表現(NamedEntity)については,そのTF・IDF値を加算し,トピック中のDESCRIPTIONおよびNARRATIVEフィールドの名詞に対しては,さらに,TF・IDF値を2倍にする.\subsection{システムSys3,Sys4}\comment{富士Xerox}語と語の間の重要な関係を見つけ出し,それを元に要約を句レベルで生成する.その関係の重みは各語の重みの和に関係の重みを乗じたものである.各語の重みはTF・IDF値で求めるが,トピック中の語については高い重みを与える(詳細は不明).語の間の関係については,格による依存関係には高い値を,等位接続などには低い値を与える.要約文書の長さは文字数で与えられ,100文字以内(Sys3)もしくは150文字以内(Sys4)である.\subsection{システムSys6}\comment{NTT通信研}文抽出型で,ハニング関数を用いた窓により各パッセージの重要度を計算し,その中から重要文を抽出する.パッセージの重要度計算においてはトピック内の語のみに注目する.また,文書の先頭部分は無条件に加える.要約率は明示されていないが,35\%程度である.\subsection{システムSys8,Sys9}\comment{富士通研グループ}文抽出型で,与えられたキーワードを網羅する文を優先しつつ,全てのキーワードが要約文書に出現するまで文を抽出する.キーワードは,文書タイトル,文書の先頭段落(Sys8のみ),話題構造の境界にある文中の語(Sys9のみ),トピック中のDESCRIPTIONならびにNARRATIVEから,それぞれ,名詞,動詞,形容詞を取り出したものである.\begin{biography}\biotitle{略歴}\bioauthor{森辰則}{1986年横浜国立大学工学部情報工学科卒業.1991年同大学大学院工学研究科博士課程後期修了.工学博士.同年,同大学工学部助手着任.同講師を経て現在,同大学大学院環境情報研究院助教授.この間,1998年2月より11月までStanford大学客員研究員.自然言語処理,情報検索,情報抽出などの研究に従事.言語処理学会,情報処理学会,人工知能学会,日本ソフトウェア科学会,日本認知科学会,ACM,AAAI各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V08N01-03
\section{はじめに} \label{sec:intro}現在,統計的言語モデルの一クラスとして確率文脈自由文法(probabilisticcontext-freegrammar;以下PCFG)が広く知られている.PCFGは文脈自由文法(context-freegrammar;以下CFG)の生成規則に確率パラメタが付与されたものと見ることができ,それらのパラメタによって生成される文の確率が規定される.しかし,すべてのパラメタを人手で付けるのはコストと客観性の点で問題がある.そこで,計算機によるコーパスからのPCFGのパラメタ推定,すなわちPCFGの訓練(training)が広く行なわれている.現在,構造つきコーパス中の規則出現の相対頻度に基づきPCFGを訓練する方法(以下,相対頻度法と呼ぶ)が広く行なわれているが,我々はより安価な訓練データとして,分かち書きされている(形態素解析済みの)括弧なしコーパスを用いる.括弧なしコーパスからのPCFGの訓練法としては,Inside-Outsideアルゴリズム\cite{Baker79,Lari90}が広く知られている(以下,I-Oアルゴリズムと略す).I-OアルゴリズムはCYK(Cocke-Younger-Kasami)パーザで用いられる三角行列の上に構築された,PCFG用のEM(expectation-maximization)アルゴリズム\cite{Dempster77}と特徴づけることができる.I-Oアルゴリズムは多項式オーダのEMアルゴリズムであり,効率的とされているが,訓練コーパスの文の長さに対し3乗の計算時間を要するため,大規模な文法・コーパスからの訓練は困難であった.また,基になるCFGがChomsky標準形でなければならないという制約をもっている.一方,本論文では,PCFGの文法構造(基になるCFG)が所与であるときの効率的なEM学習法を提案する.提案手法はwell-formedsubstringtable(以下WFST)と呼ばれるデータ構造を利用しており,全体の訓練過程を次の2段階に分離してPCFGを訓練する.\begin{description}\item\underline{\bf構文解析}:\\はじめにパーザによって与えられたテキストコーパスもしくはタグ付きコーパス中の各文に構文解析を施し,その文の構文木すべてを得る.ただし,構文木は実際に構築せずに途中で構築されるWFSTのままでとどめておく.\item\underline{\bfEM学習}:\\上で得られたWFSTから支持グラフと呼ばれるデータ構造を抽出し,新たに導出されたグラフィカルEM(graphicalEM;以下gEMと略記)アルゴリズムを支持グラフ上で走らせる.\end{description}WFSTは構文解析途中の部分的な解析結果(部分構文木)を格納するデータ構造の総称であり~\cite{Tanaka88,Nagata99},パーザはWFSTを参照することにより再計算を防いでいる.また,最終的にWFSTに格納されている部分構文木を組み合わせて構文木を出力する.表~\ref{tab:WFST}に各構文解析手法におけるWFSTを掲げる.なお,Fujisakiらも文法が所与であるとして,上の2段階でPCFGを訓練する方法を提案しているが\cite{Fujisaki89},その方法ではWFSTは活用されていない.\begin{table}[b]\caption{各パーザにおけるWFST.}\label{tab:WFST}\begin{center}\begin{tabular}{|l||l|l|}\hlineパーザ&\multicolumn{1}{c|}{WFST}\\\hlineCYK法&三角行列\\Earley法&アイテム集合(Earleyチャート)の集まり\\GLR法&圧縮共有構文森(packedsharedparseforest)\\\hline\end{tabular}\end{center}\end{table}提案手法の特長は従来法であるI-Oアルゴリズムの一般化と高速化が同時に実現された点,すなわち\begin{description}\item{\bf特長1:}従来のPCFGのEM学習法の一般化となっている,\item{\bf特長2:}現実的な文法に対してはI-Oアルゴリズムに比べてEM学習が大幅に高速化される,\item{\bf特長3:}提案手法が,PCFGに文脈依存性を導入した確率言語モデル(PCFGの拡張文法\footnote{Magermanらが\cite{Magerman92}で述べている``Context-freegrammarwithcontext-sensitiveprobability(CFGwithCSP)''を指す.具体的にはCharniakらの疑似確率文脈依存文法\cite{Charniak94b}や北らの規則バイグラムモデル\cite{Kita94}が挙げられる.}と呼ぶ)に対する多項式オーダのEMアルゴリズムを包含する\end{description}点にある.先述したように,I-OアルゴリズムはCYK法のWFSTである三角行列を利用して効率的に訓練を行なう手法と捉えることができ,提案手法のCYK法とgEMアルゴリズムを組み合わせた場合がI-Oアルゴリズムに対応する.一方,提案手法でEarleyパーザや一般化LR(以下GLR)パーザと組み合わせる場合,文法構造にChomsky標準形を前提としないため,本手法はI-Oアルゴリズムの一般化となっている({\bf特長1}).加えて,本論文ではStolckeの確率的Earleyパーザ\cite{Stolcke95}や,PereiraとSchabesによって提案された括弧なしコーパスからの学習法\cite{Pereira92}も提案手法の枠組で扱うことができる\footnote{より正確には,文法構造が与えられている場合のPereiraとSchabesの学習法を扱う.}ことを示す.また,{\bf特長2}が得られるのは,提案手法ではがWFSTというコンパクトなデータ構造のみを走査するためである.そして,LR表へのコンパイル・ボトムアップ解析といった特長により実用的には最も効率的とされる一般化LR法~\cite{Tomita91}(以下GLR法)を利用できる点も訓練時間の軽減に効果があると考えられる.そして{\bf特長3}は提案手法の汎用性を示すものであり,本論文では北らの規則バイグラムモデル\cite{Kita94}の多項式オーダのEMアルゴリズムを提示する.本論文の構成は次の通りである.まず節~\ref{sec:PCFG}でPCFG,CYKパーザ,I-Oアルゴリズム,およびそれらの関連事項の導入を行なう.I-Oアルゴリズムと対比させるため,提案手法をCYKパーザと\gEMアルゴリズムの組合せを対象にした場合を節~\ref{sec:GEM}で記述した.{\bf特長2}を検証するため,GLRパーザとgEMアルゴリズムを組み合わせた場合の訓練時間をATR対話コーパス(SLDB)を用いて計測した.その結果を節~\ref{sec:experiment}に示す.また,{\bf特長3}を具体的に示すため,節~\ref{sec:extensions}ではPCFGの拡張文法に対する多項式オーダのEMアルゴリズムを提示する.最後に節~\ref{sec:related-work}で関連研究について述べ,{\bf特長1}について考察する.本論文で用いる例文法,例文,およびそれらに基づく構文解析結果の多くは\cite{Nagata99}のもの,もしくはそれに手を加えたものである.以降では$A,B,\ldots$を非終端記号を表すメタ記号,$a,b,\ldots$を終端記号を表すメタ記号,$\rho$を一つの終端または非終端記号を表すメタ記号,$\zeta$,$\xi$,$\nu$を空列もしくは終端記号または非終端記号から成る記号列を表すメタ記号とする.空列は$\varepsilon$と書く.一方,一部の図を除き,具体的な文法記号を$\sym{S},\sym{NP},\ldots$などタイプライタ書体で表す.また,$y_n$を第$n$要素とするリストを\$\tuple{y_1,y_2,\ldots}$で表現する.またリスト$Y=\tuple{\ldots,y,\ldots}$であるとき,$y\inY$と書く.集合$X$の要素数,記号列$\zeta$に含まれる記号数,リスト$Y$の要素数をそれぞれ$|X|$,$|\zeta|$,$|Y|$で表す.これらはどれも見た目は同じだが文脈で違いを判断できる. \section{準備} \label{sec:PCFG}\subsection{確率文脈自由文法}\label{sec:PCFG:PCFG}はじめに,文脈自由文法$G$を4つ組$\tuple{\Vn,\Vt,R,S}$で定義する.ただし,$\Vn$は非終端記号の集合,$\Vt$は終端記号の集合,$R$は規則の集合,$S$は開始記号$(S\in\Vn)$である.$R$中の各規則$r$は$A\to\zeta$の形をしており,記号列$\zeta'$中に非終端記号$A$が出現するとき,$A$を$\zeta$に置き換えることが可能であることを表す.我々は常に最左の非終端記号を置き換えるように規則を適用する(最左導出に固定する).規則$r$の適用により記号列$\zeta$が$\xi$に置き換えられるとき$\zeta\rderives{r}\xi$と書く.このような置き換えを0回以上行なって$\zeta$から$\xi$が得られるとき,$\zeta\derivesstar\xi$と書く.特に,置換えが1回以上であることを強調する場合は\$\zeta\derivesplus\xi$と書く.$S$から導出可能な非終端記号列$\win$を文と呼ぶ.CFG$G$における文の集合を$G$の言語と呼び,$L_G$と書く.そして,$G$に基づくPCFGを$G(\theta)$で表す.逆に$G$を「PCFG$G(\theta)$の文法構造」と呼ぶ.$\theta$は$|R|$次元ベクトルであり,以降パラメタと呼ぶ.$\theta$の各要素は$\theta(r)$で参照され,$0\le\theta(r)\le1,\;\sum_{\zeta:(A\to\zeta)\inR}\theta(A\dto\zeta)=1$が成り立つとする($A\in\Vn,\;r\inR$).PCFGでは「適用する規則は他に影響を受けずに選択される」と仮定される.従って\$\zeta_0\rderives{r_1}\zeta_1\rderives{r_2}\zeta_2\rderives{r_3}\cdots\rderives{r_{K}}\zeta_K$における規則の適用列$\rseq=\tuple{r_1,r_2,\ldots,r_K}$の出現確率$P(\rseq|\theta)$は\begin{equation}\textstyleP(\rseq|\theta)=\prod_{k=1}^K\theta(r_k)\label{eq:derivation-prob}\end{equation}と計算される.また,$\occ(r,\rseq)$を適用規則列$\rseq$中に\規則$r$が出現する数とすると,\begin{equation}\textstyleP(\rseq|\theta)=\prod_{r\inR}\theta(r)^{\occ(r,\rseq)}\label{eq:derivation-prob2}\end{equation}と書くこともできる.$S\derivesstar\win$を実現する適用規則列すべてから成る集合を$\trees(\win)$とおく.文$\win$は適用規則列$\rseq$から一意に定まるので,文と適用規則列の同時分布$P(\win,\rseq|\theta)$に関し\begin{equation}\textstyleP(\win,\rseq|\theta)=\left\{\begin{array}{ll}P(\rseq|\theta)&\mbox{if}\;\rseq\in\trees(\win)\\0&\mbox{otherwise}\end{array}\right.\label{eq:joint-prob}\end{equation}が成り立つ.式~\ref{eq:joint-prob}より開始記号$S$から$\win$が導出される確率$P(\win|\theta)$は次のように求まる:\begin{equation}\textstyleP(\win)=\sum_{{\rmall}\;\rseq}P(\win,\rseq|\theta)=\sum_{\rseq\in\trees(\win)}P(\rseq|\theta)\;.\label{eq:sentence-prob}\end{equation}パラメタ$\theta$が文脈より明らかなときは\$P(\rseq,\ldots|\theta)$,$P(\win,\ldots|\theta)$を各々$P(\rseq,\ldots)$,$P(\win,\ldots)$と書く.先述した規則適用の独立性に加え,以降で考えるPCFG$G(\theta)$は次を満たすとする.\begin{itemize}\item$G(\theta)$は整合的である.すなわち\$\sum_{\win\inL_G}P(\win|\theta)=1$が成り立つ.\item右辺が$\varepsilon$である規則($\varepsilon$規則)や$A\derivesplusA$となるような$A\in\Vn$が存在しない.\end{itemize}ChiとZemanは,2番目の条件を満たす文法構造$G$と有限長の文から成る括弧なしコーパス$\corpus$が与えられたとき,I-Oアルゴリズムで得られる訓練パラメタ$\theta^{\ast}$の下でのPCFG$G(\theta^{\ast})$が整合的であることを示した~\cite{Chi98}.\subsection{コーパス・構文木}\label{sec:PCFG:corpus}平文$\win=w_1w_2\cdotsw_n\inL_G$に対して個々の$w_j$は単語である($n>0$,$j=1\ldotsn$).$\win$に対して単語位置$d=0\ldotsn$を与える.$0\led\led'\len$について$d$と$d'$の間にある部分単語列$w_{d+1}\cdotsw_{d'}$を$\win_{d,d'}$と書く($\win=\win_{0,n}$である).また,(部分)単語列$w_d\cdotsw_{d'}$をリスト\$\tuple{w_d,\ldots,w_{d'}}$で表すことがある.$\win\inL_G$に対して,$\win$の構文木は\$S\derivesstar\win$の導出過程を木構造で表現したものである.我々は導出戦略を最左導出に固定しているので,$S\derivesstar\win$の適用規則列$\rseq$から$\win$の構文木$t$が一意に決まり,逆も真である.従って$P(t)=P(\rseq)$が成り立つ.先に我々は対象とするPCFGが$\varepsilon$規則をもたないこと,$A\derivesplusA$という導出が起こらないと仮定した.この仮定より,$\win$の構文木$t$の部分構文木(以下,部分木)$t'$はその根ノードの非終端記号$A$と葉ノードを構成する部分単語列の開始/終了位置の対$(d,d')$によって一意に定まるので,以降,我々は部分木$t'$をラベル$A(d,d')$で参照する.$\win$の構文木$t$は,葉ノードを除く$t$の部分木ラベルから成る集合$\labels(t)$($t$のラベル集合と呼ぶ)と同一視できる.また,$(d,d')$は一つの括弧づけに相当する.$\brackets(t)\defined\{(d,d')\midA(d,d')\in\labels(t)\}$と定め,$t$の括弧集合と呼ぶ.また,$A\dto\rho_1\rho_2\cdots\rho_M$の展開によって得られた$\rho_1,\rho_2,\ldots,\rho_M$を根とする部分木$\rho_m(d_{m-1},d_m)$を考える(図~\ref{fig:parse-tree}).このとき$A(d_0,d_M)@\rho_m(d_{m-1},d_m)$なる部分木に関する半順序関係$@$を導入する($m=1\ldotsM$).この関係を以降では「$A(d_0,d_M)$は$\rho_m(d_{m-1},d_m)$の親である」,また逆に「$\rho_m(d_{m-1},d_m)$は$A(d_0,d_M)$の子である」などということがある.そして親$A(d_0,d_M)$とその子をすべてまとめて\begin{equation}A(d_0,d_M)@\rho_1(d_0,d_1)\rho_2(d_1,d_2)\cdots\rho_M(d_{M-1},d_M)\label{eq:parent-children}\end{equation}と表し,これを「部分木の親子対」と呼ぶことにする.構文木$t$中に出現する部分木の親子対をすべて集めた集合を$\wfst(t)$で表す.構文木$t$に対応する適用規則列$\rseq$に対して\$\labels(\rseq)$,$\brackets(\rseq)$,$\wfst(\rseq)$をそれぞれ$\labels(t)$,$\brackets(t)$,$\wfst(t)$と同一視する.\begin{figure}[t]\atari(51,32)\caption{部分木の親子対.}\label{fig:parse-tree}\end{figure}PCFGの訓練用のコーパスとして我々は(1)構造つきコーパス(labeledcorpus),(2)完全括弧つきコーパス(fullybracketedcorpus),(3)部分括弧つきコーパス(partiallybracketedcorpus),(4)括弧なしコーパス(unbracketedcorpus)の4つを考える.我々は訓練法として最尤推定法(maximumlikelihoodestimation)を考えており,$N$文を含むコーパス$\corpus\defined\tuple{c_1,c_2,\ldots,c_N}$はPCFG$G(\theta)$に基づく独立な$N$回のサンプリング導出の結果であると仮定する.$\win_\ell$,$\rseq_\ell$を$\ell$回目のサンプリングで得られた平文および適用規則列とすると($\ell=1\ldotsN$),$\corpus$が構造つきコーパスのとき$c_\ell=\tuple{\win_\ell,\labels(\rseq_\ell)}$,完全括弧つきコーパスのとき$c_\ell=\tuple{\win_\ell,\brackets(\rseq_\ell)}$,部分括弧つきコーパスのとき$c_\ell=\tuple{\win_\ell,\brackets_\ell}$,括弧なしコーパスのとき$c_\ell=\win_\ell$となる($\win_\ell\inL_G$,$\rseq\in\trees(\win_\ell)$,$\brackets_\ell\subseteq\brackets(\rseq_\ell)$).$\win_\ell$の部分単語列を\$\win^{(\ell)}_{d,d'}$とおき$(0\led<d'\len_\ell)$,$\win_\ell$の$d$番目の単語を$w^{(\ell)}_d$とおく.ただし$n_\ell\defined|\win_\ell|$である.\subsection{CYKパーザ}\label{sec:PCFG:CYK}CYKパーザはChomsky標準形であるCFGに適用可能なパーザである.我々は括弧なしコーパス$\corpus$中の文$\win_\ell$に対して\$n_\ell\timesn_\ell$の三角行列$T^{(\ell)}$を用意する\footnote{通常,三角行列の各行と各列に振られる番号は(単語位置ではなく)単語そのものに振られた番号であるが,本論文では他の記法と整合をとるために行番号を1つずつ減らす.}($n_\ell=|\win_\ell|$).$d$行$d'$列の要素$T_{d,d'}$には部分単語列$\win_{d,d'}$に対する解析結果が格納される.CYKパーザを実現する手続き$\proc{CYK-Parser}$を図~\ref{alg:CYK}に示す.対角要素から順に部分木を組み上げ(行~\ref{list:CYK:fill-diagonal:begin}--\ref{list:CYK:fill-non-diag:end}),$T_{0,n_\ell}$に$S(0,n_\ell)@\;\cdot$が含まれていたら解析が成功したものとし,含まれていなかったら失敗したものとする(行~\ref{list:CYK:accept}).解析が成功したら$T_{0,n_\ell}$に含まれる$S(0,n_\ell)@\;\cdot$から順に部分木の親子対を辿って構文木が取り出される.図~\ref{gram:ichiro-CNF}に示したCFG$G1$において文$\win=\tuple{急いで,走る,一郎,を,見た}$に対する三角行列を図~\ref{fig:CYK-table}に示す.図~\ref{fig:CYK-table}の○印のついた部分木の親子から図~\ref{fig:parse-tree-ichiro-CNF}の構文木$t1$が取り出され,●印のついた部分木の親子から$t2$が取り出される.\begin{figure}[t]\begin{listing}\item\rw{procedure}$\proc{CYK-Parser}(\corpus)$\rw{begin}\itemi\rw{for}$\ell:=1$\rw{to}$N$\rw{do}\rw{begin}\itemiiPrepare$(n_\ell\timesn_\ell)$triangularmatrix$T^{(\ell)}$;\itemii\rw{for}$d:=0$\rw{to}$n_\ell-1$\rw{do}\q\q\progcomment{三角行列の対角要素から始める}\label{list:CYK:fill-diagonal:begin}\itemiii$T^{(\ell)}_{d,d+1}:=\{A(d,d+1)@w_{d+1}^{(\ell)}(d,d+1)\mid(A\dtow_{d+1})\inR\}$;\label{list:CYK:fill-diagonal:end}\itemii\rw{for}$k:=2$\rw{to}$n_\ell$\rw{do}\q\q\progcomment{三角行列の非対角要素について計算}\label{list:CYK:fill-non-diag:begin}\itemiii\rw{for}$d:=0$\rw{to}$n_\ell-k$\rw{do}\itemiiii$T_{d,d+k}^{(\ell)}:=\bigcup_{k'=1}^{k-1}\bigl\{A(d,d+k)@B(d,d\!+\!k')C(d\!+\!k',d\!+\!k)\;\big|\;(A\dtoBC)\inR,$\item\hfill$(B(d,d+k')@\;\cdot)\inT_{d,d+k'}^{(\ell)},(C(d+k',d+k)@\;\cdot)\inT_{d+k',d+k}^{(\ell)}\bigr\}$;\label{list:CYK:fill-non-diag:end}\itemii\rw{if}$(S(0,n_\ell)@\;\cdot)\inT_{0,n_\ell}^{(\ell)}$\rw{then}accept\rw{else}reject\label{list:CYK:accept}\itemi\rw{end}\item\rw{end}.\end{listing}\caption{CYKパーザ.}\label{alg:CYK}\end{figure}\begin{figure}[t]\centerline{\small\def\arraystretch{}\begin{tabular}{rlrlrl}\multicolumn{6}{l}{$G1:$}\\$(1)$&$\sym{S}\dto\sym{PP}\;\sym{V}$&$(6)$&$\sym{NP}\dto\sym{V}\;\sym{N}$&$(10)$&$\sym{N}\dto\sym{一郎}$\\$(2)$&$\sym{S}\dto\sym{ADV}\;\sym{VP}$&$(7)$&$\sym{PP}\dto\sym{NP}\;\sym{P}$&$(11)$&$\sym{P}\dto\sym{を}$\\$(3)$&$\sym{VP}\dto\sym{PP}\;\sym{V}$&$(8)$&$\sym{PP}\dto\sym{N}\;\sym{P}$&$(12)$&$\sym{V}\dto\sym{走る}$\\$(4)$&$\sym{VP}\dto\sym{ADV}\;\sym{V}$&$(9)$&$\sym{ADV}\dto\sym{急いで}$&$(13)$&$\sym{V}\dto\sym{見た}$\\$(5)$&$\sym{NP}\dto\sym{VP}\;\sym{N}$\\\end{tabular}}\caption{文脈自由文法の例$G1$.}\label{gram:ichiro-CNF}\end{figure}\begin{figure}[t]\atari(140,42)\caption{$G1$と文$\tuple{急いで,走る,一郎,を,見た}$に対する三角行列.}\label{fig:CYK-table}\end{figure}\begin{figure}[t]\atari(99,36)\caption{三角行列から取り出された2つの構文木.}\label{fig:parse-tree-ichiro-CNF}\end{figure}\subsection{Inside-Outsideアルゴリズム}\label{sec:PCFG:IO}先にも述べたように,我々はPCFGのパラメタをコーパス$\corpus=\tuple{c_1,c_2,\ldots,c_N}$から最尤推定法に基づき訓練することを考えている.$\corpus$が構造つきコーパスの場合,相対頻度法で得られる各規則$r$の相対出現頻度が最尤推定値となるので,これを$r$の訓練パラメタ$\theta^{\ast}(r)$とすればよい.しかし,構造つきコーパスの作成コストを考えると,より安価な括弧なしコーパスしか利用できない場合が十分考えられる.括弧なしコーパスでは構文構造が明らかでないため,相対頻度法が適用できず,代わりにI-OアルゴリズムというPCFGに特化された形のEMアルゴリズムが広く知られている.I-Oアルゴリズムは,括弧なしコーパス$\corpus=\tuple{\win_1,\win_2,\ldots,\win_N}$が与えられたときに尤度$\prod_{\ell=1}^NP(\win_\ell\mid\theta)$あるいはその対数$\sum_{\ell=1}^N\logP(\win_\ell\mid\theta)$(対数尤度)を局所的に最大にする$\theta^{\ast}$を見つける.つまりI-Oアルゴリズムもまた最尤推定法である.\cite{Lari90}をはじめとする多くの文献の記述では,文法構造$G$のうち規則集合$R$を明示的に与えず,終端記号集合$\Vt$と非終端記号集合$\Vn$を与えた場合を考えている.提案手法との対比のため,本節では$R$を明示的に与えた場合のI-Oアルゴリズムを記述する.$\Vt$と$\Vn$のみを与えた場合のI-Oアルゴリズムは\begin{equation}\Rmax(\Vn,\Vt)\defined\left\{A\dtoBC\;\left|\;A,B,C\in\Vn\right.\right\}\;\cup\;\left\{A\dtoa\;\left|\;A\in\Vn,a\in\Vt\right.\right\}\label{eq:Rmax}\end{equation}(以下では$\Rmax$と略すことがある)を考え,規則集合を$R=\Rmax(\Vn,\Vt)$として与えた場合と同一である.ただし,いずれの場合でも$R$はChomsky標準形でなければならない.\cite{Lari90}では規則集合$R$を含めた学習を目的にI-Oアルゴリズムを使用しているが,我々はパラメタ$\theta$の学習に焦点を絞る.I-Oアルゴリズムの中心は内側確率$P(A\derivesstar\win_{d,d'}^{(\ell)})$と外側確率$P(S\derivesstar\win_{0,d}^{(\ell)}A\win_{d',n_\ell}^{(\ell)})$という2つの確率値の計算である($\ell=1\ldotsN$,$A\in\Vn$,$0\led<d'\len_\ell$).各確率値を配列変数$\beta_{d,d'}^{(\ell)}[A]$,$\alpha_{d,d'}^{(\ell)}[A]$に格納する.これらの配列変数はCYKアルゴリズムで用いた三角行列$T_{d,d'}$中に設けられているものとする.$\win^{(\ell)}_{0,n_\ell}=\win_\ell$より\$\beta_{0,n_\ell}^{(\ell)}[S]$に文$\win_\ell$の生起確率$P(S\derivesstar\win_\ell)$が格納される点に注意する.\begin{figure}[b]\begin{listing}\item\rw{procedure}$\proc{Get-Beta}()$\rw{begin}\itemi\rw{for}$\ell:=1$\rw{to}$N$\rw{do}\rw{begin}\itemii\rw{for}$d:=0$\rw{to}$n_\ell-1$\rw{do}\q\progcomment{三角行列の対角要素について計算}\itemiii\rw{foreach}$A$suchthat$(A\dtow_{d+1}^{(\ell)})\inR$\rw{do}\itemiiii$\beta_{d,d+1}^{(\ell)}[A]:=\theta(A\dtow_{d+1}^{(\ell)})$;\label{list:get-beta:calc-beta-diagonal}\itemii\rw{for}$k:=2$\rw{to}$n_\ell$\rw{do}\q\progcomment{三角行列の非対角要素について計算}\itemiii\rw{for}$d:=0$\rw{to}$n_\ell-k$\rw{do}\itemiiii\rw{foreach}$A\in\Vn$\rw{do}\itemiiiii$\beta_{d,d+k}^{(\ell)}[A]:=\sum_{B,C:(A\toBC)\inR}\theta(A\dtoBC)\sum_{k'=1}^{k-1}\beta_{d,d+k'}^{(\ell)}[B]\beta_{d+k',d+k}^{(\ell)}[C]$\label{list:get-beta:calc-beta}\itemi\rw{end}\item\rw{end}.\end{listing}\begin{listing}\item\rw{procedure}$\proc{Get-Alpha}()$\rw{begin}\itemi\rw{for}$\ell:=1$\rw{to}$N$\rw{do}\rw{begin}\itemii$\alpha_{0,n_\ell}^{(\ell)}[S]:=1$;\q\progcomment{右上隅の$S$については特別に1に初期化}\label{list:get-alpha:init:end}\label{list:get-alpha:init:s}\itemii\rw{for}$k:=n_\ell$\rw{downto}$2$\rw{do}\label{list:get-alpha:inverse-for}\itemiii\rw{for}$d:=0$\rw{to}$n_\ell-k$\rw{do}\itemiiii\rw{foreach}$B\in\Vn$\rw{do}\itemiiiii$\alpha_{d,d+k}^{(\ell)}[B]:=\sum_{A,X:(A\toBX)\inR}\theta(A\dtoBX)\sum_{k'=k+1}^{n_\ell-d}\alpha_{d,d+k'}^{(\ell)}[A]\beta_{d+k,d+k'}^{(\ell)}[X]$\label{list:get-alpha:calc-op:begin}\itemiiiiiiiiii$+\sum_{A',Y:(A'\toYB)\inR}\theta(A'\dtoYB)\sum_{k'=1}^d\alpha_{d-k',d+k}^{(\ell)}[A']\beta_{d-k',d}^{(\ell)}[Y]$\label{list:get-alpha:calc-op:end}\itemi\rw{end}\item\rw{end}.\end{listing}\caption{(上)内側確率の計算ルーチン$\proc{Get-Beta}$,(下)外側確率の計算ルーチン$\proc{Get-Alpha}$.}\label{alg:get-beta-alpha}\end{figure}内側確率と外側確率を計算する手続き$\proc{Get-Beta}$,$\proc{Get-Alpha}$を図~\ref{alg:get-beta-alpha}に示す.記述を簡単にするため,配列変数$\alpha_{d,d'}^{(\ell)}[\cdot]$および$\beta_{d,d'}^{(\ell)}[\cdot]$は手続きが呼び出される度に0に初期化されるものとする.$\proc{Get-Beta}$はCYKパーザにおいて部分木を組み上げるのと同じように,三角行列の対角要素から出発し,右上隅$\beta_{0,n_\ell}^{(\ell)}[\cdot]$に至るまで段階的に内側確率を計算していく.また,逆に$\proc{Get-Alpha}$では右上隅$\alpha_{0,n_\ell}^{(\ell)}[\cdot]$から対角要素に向かって外側確率を計算する.このように内側・外側確率は動的計画法(dynamicprogramming)に基づき,一方向に従って計算が進められる.内側・外側確率を計算し終ったら,コーパス$\corpus$が与えられた下での規則$A\dtoBC$,$A\dtoa$の適用回数の条件つき期待値(以下,期待適用回数という)が次のように計算される:{\small\begin{eqnarray}\eta[A\dtoBC]&:=&\sum_{\ell=1}^N\frac{1}{\beta_{0,n_\ell}^{(\ell)}[S]}\sum_{k=2}^{n_\ell}\sum_{d=0}^{n_\ell-k}\sum_{k'=1}^{k-1}\theta(A\dtoBC)\alpha_{d,d+k}^{(\ell)}[A]\beta_{d,d+k'}^{(\ell)}[B]\beta_{d+k',d+k}^{(\ell)}[C]\label{eq:eta-ABC},\\\eta[A\dtoa]&:=&\sum_{\ell=1}^N\frac{1}{\beta_{0,n_\ell}^{(\ell)}[S]}\sum_{d=0}^{n_\ell-1}\theta(A\dtoa)\alpha_{d,d+1}^{(\ell)}[A].\label{eq:eta-Aa}\end{eqnarray}}\noindent更に,上で計算された期待値からパラメタ$\theta(A\dto\zeta)$が更新(再推定)される:\begin{equation}\textstyle\theta(A\dto\zeta):=\eta[A\dto\zeta]\Big/\sum_{\zeta':(A\to\zeta')\inR}\eta[A\dto\zeta'].\label{eq:update}\end{equation}I-Oアルゴリズムでは,まず$\theta$を適当な値に初期化し,次いで手続き$\proc{Get-Beta}$,$\proc{Get-Alpha}$および式~\ref{eq:eta-ABC},~\ref{eq:eta-Aa},~\ref{eq:update}によって\$\theta$を更新する.そして,このように更新を繰り返すと対数尤度\$\sum_{\ell=1}^N\logP(\win_\ell)=\sum_{\ell=1}^N\log\beta_{0,n_\ell}^{(\ell)}[S]$が単調増加しながら最終的には収束する.収束したら,そのときのパラメタの値を最終的な推定値としてI-Oアルゴリズムは終了する.ここで,I-Oアルゴリズムの計算量を考える.収束までのパラメタ更新回数は初期値に依存するため,事前には分からない.従って1回のパラメタ更新に必要な計算量をI-Oアルゴリズムの計算量とする.非終端記号集合$\Vn$,終端記号集合$\Vt$を固定した場合の最悪計算量を測る場合には$R=\Rmax(\Vn,\Vt)$の場合を考えればよい.訓練コーパス$\corpus$に対して最長の文の長さを$L$とする.手続き$\proc{Get-Beta}$,$\proc{Get-Beta}$(図~\ref{alg:get-beta-alpha})中の{\bffor},{\bfforeach}ループと$\sum$の引数に注目すれば,I-Oアルゴリズムの最悪計算量は$O(|\Vn|^3L^3)$であることが容易に分かる.\subsection{Inside-Outsideアルゴリズムに関する考察}\label{sec:PCFG:IO-problems}アルゴリズム中で最もコストが高いのは,$\proc{Get-Beta}$行~\ref{list:get-beta:calc-beta}における内側確率の計算,$\proc{Get-Alpha}$行~\ref{list:get-alpha:calc-op:begin}--\ref{list:get-alpha:calc-op:end}における外側確率の計算である.$\proc{Get-Beta}$行~\ref{list:get-beta:calc-beta}において図~\ref{fig:get-beta-alpha}(1)という状況すべてを考慮して内側確率が計算される.一方,$\proc{Get-Alpha}$の行~\ref{list:get-alpha:calc-op:begin}--\ref{list:get-alpha:calc-op:end}における右辺第1項,第2項ではそれぞれ図~\ref{fig:get-beta-alpha}(2),(3)という状況がすべて考慮されている.考えられるすべての状況について計算をすすめるという意味でI-Oアルゴリズムの動作は仮説駆動(トップダウン)型パーザの動作と同じである.一般に仮説駆動型は入力文$\win_\ell$の情報とは無関係に計算をすすめるために効率が悪いとされている.文法構造が与えられていてもI-Oアルゴリズムの計算速度が低いのは,仮説駆動型であることが原因であると考えられる.そもそもI-Oアルゴリズムは\begin{equation}\eta[r]=\sum_{\ell=1}^N\sum_{{\rmall}\;\rseq}P(\rseq|\win_\ell)\occ(r,\rseq)=\sum_{\ell=1}^N\frac{1}{P(\win_\ell)}\sum_{{\rmall}\;\rseq}P(\win_\ell,\rseq)\occ(r,\rseq)\label{eq:naive-eta}\end{equation}という規則$r$の期待適用回数$\eta[r]$の計算を\begin{equation}\eta[r]\;=\;\theta(r)\cdot\sum_{\ell=1}^N\frac{1}{P(\win_\ell)}\frac{\partialP(\win_\ell)}{\partial\theta(r)}\;=\;\theta(r)\cdot\sum_{\ell=1}^N\frac{1}{P(\win_\ell)}\frac{\partial}{\partial\theta(r)}\sum_{{\rmall}\;\rseq}P(\win_\ell,\rseq)\label{eq:naive-eta2}\end{equation}から得られる手続き$\proc{Get-Beta}$,$\proc{Get-Alpha}$および式~\ref{eq:eta-ABC},~\ref{eq:eta-Aa}によって効率化したものである~\cite{Lafferty93}\footnote{\cite{Lafferty93}ではコーパスサイズ$N=1$の場合が説明されている.}.ただし,節~\ref{sec:PCFG:PCFG}で定めたように\$\occ(r,\rseq)$は規則列$\rseq$に出現する規則$r$の数である.式~\ref{eq:naive-eta2}で,$r=(A\dtoBC)$とおいたとき,I-Oアルゴリズムでは\$\frac{\partial}{\partial\theta(A\toBC)}\sum_{{\rmall}\;\rseq}P(\win_\ell,\rseq)$を次のように計算する(添字の${\cdot}_{\ell}$,${\cdot}^{(\ell)}$は省略).\begin{eqnarray}&&\frac{\partial}{\partial\theta(A\toBC)}\sum_{\mbox{\footnotesizeall$\rseq$}}P(\win,\rseq)\nonumber\\&&\q\q\q=\frac{\partial}{\partial\theta(A\toBC)}\sum_{\mbox{\footnotesizeall$\rseq$s.t.$A\toBC$appearsin$\rseq$}}\iq\iqP(\win,\rseq)\nonumber\\&&\q\q\q=\frac{\partial}{\partial\theta(A\toBC)}\sum_{d,k,k'}\sum_{\mbox{\footnotesize\begin{tabular}{l}all$\rseq$s.t.$A\toBC$appearsin$\rseq$\\\qwiththeposition$(d,d+k',d+k)$\end{tabular}}}\iq\iq\iq\iqP(\win,\rseq)\label{eq:with-position}\\&&\q\q\q=\frac{\partial}{\partial\theta(A\toBC)}\sum_{d,k,k'}P(S\derivesstar\win_{0,d}A\win_{d+k,n})\theta(A\dtoBC)\cdot\nonumber\\&&\q\q\q\q\q\q\q\q\q\q\q\q\qP(B\derivesstar\win_{d,d+k'})P(C\derivesstar\win_{d+k',d+k})\nonumber\\&&\q\q\q=\sum_{d,k,k'}P(S\derivesstar\win_{0,d}A\win_{d+k,n})P(B\derivesstar\win_{d,d+k'})P(C\derivesstar\win_{d+k',d+k})\end{eqnarray}式~\ref{eq:with-position}の変形は入力文$\win$や実際の構文木$t\in\trees(\win)$とは無関係に行なわれており,I-Oアルゴリズムが仮説駆動型であるというのはこの点に由来する.\begin{figure}[t]\atari(115,26)\caption{内側確率,外側確率の計算において想定している状況($n=n_\ell$とおいている).}\label{fig:get-beta-alpha}\end{figure}それに対し,式~\ref{eq:joint-prob}より式~\ref{eq:naive-eta}を下の式~\ref{eq:naive-eta3}に変形し,構文木情報$\trees$を直接利用する方法を考える.$\trees$はパーザを利用することによって事前に獲得しておく.また,式~\ref{eq:naive-eta3}はFujisakiらの計算方法\cite{Fujisaki89}に他ならない.\begin{equation}\eta[r]=\sum_{\ell=1}^N\frac{1}{P(\win_\ell)}\sum_{\rseq\in\trees(\win_\ell)}P(\rseq)\occ(r,\rseq)\label{eq:naive-eta3}\label{eq:Fujisaki-eta}\end{equation}式~\ref{eq:naive-eta3}を用いればI-Oアルゴリズムのように$\psi$と無関係な部分を計算することはなくなる.ただし,一般に$|\trees(\win)|$は文長$|\win|$に対して指数オーダになってしまうため,これをそのまま計算するのは現実的ではない.提案手法ではI-Oアルゴリズムのように再計算を防ぐ仕組みを取り入れ,パーザのもつWFSTを利用して式~\ref{eq:naive-eta3}を効率的に計算する.従って,提案手法をFujisakiらの方法とI-Oアルゴリズム双方の長所を取り入れた方法と見ることもできる. \section{提案手法} \label{sec:GEM}提案手法の概要を図~\ref{fig:scheme}に示す.入力として確率文脈文法$G(\theta)$の文法構造\$\tuple{\Vn,\Vt,R,S}$と括弧なしコーパス$\corpus$が与えられるものとする.そして訓練パラメタ$\theta$を出力として返す.提案手法において,我々は全体の訓練過程を構文解析とEM学習に分離する.はじめに我々はパーザで$\corpus$中の各文$\win_\ell$をすべて解析する.すると$\trees(\win_\ell)$を細切れにした,しかし$\trees(\win_\ell)$と等価な構文情報$\tuple{O_\ell,\subtrees_\ell}$がパーザのWFSTに格納されているので,これらを抽出する.$\tuple{O_\ell,\subtrees_\ell}$を表現するデータ構造を支持グラフと呼ぶ.次に,支持グラフに基づきgEMアルゴリズムを動作させ$\theta$を得る.図~\ref{gram:ichiro-CNF}のCFG$G1$と文\$\win_\ell=\tuple{急いで,走る,一郎,を,見た}$の例を考えると,支持グラフは図~\ref{fig:CYK-table}において○印と●印がついた部分木の親子から得られる.この例から分かるように,文法によっては\gEMアルゴリズムで参照する支持グラフは三角行列全体に比べて非常に小さくなる可能性があり,その場合は三角行列全体を走査しなければならない\I-Oアルゴリズムに比べ大幅な速度向上が得られる(提案手法の{\bf特長2}).\begin{figure}[t]\atari(83,56)\caption{提案手法の概要.}\label{fig:scheme}\end{figure}\subsection{準備}\label{sec:GEM:preliminary}提案手法を記述する前に形式化を行なう.$\ell=1\ldotsN$について以下をおこなう.まず,$\wfst_\ell\defined\bigcup_{\rseq\in\trees(\win_\ell)}\wfst(\rseq)$,$V_\ell\defined\bigcup_{\rseq\in\trees(\win_\ell)}\labels(\rseq)=\{\tau\mid\tau@\;\cdot\;\in\wfst_\ell\}$と定める\footnote{$\labels(\rseq)$および$\wfst(\rseq)$については節~\ref{sec:PCFG:corpus}で定めたとおりである.}.そして,$V_\ell$の要素を\$\tau_k@\tau_{k_1}\tau_{k_2}\cdots\tau_{k_M}\in\wfst_\ell\Rightarrowk<k_1,k_2,\ldots,k_M$を満たすように並べた$\tuple{\tau_1,\tau_2,\ldots,\tau_{|V_\ell|}}$を\$O_\ell$とする.また,次を導入する.\begin{eqnarray}\subtrees_\ell(A(d,d'))&\defined&\left\{E\left|\begin{array}{l}A(d,d')@\rho_1(d_0,d_1)\rho_2(d_1,d_2)\cdots\rho_M(d_{M-1},d_M)\in\wfst_\ell,\\E=\{\rho_m(d_{m-1},d_m)\midm=1\ldotsM\}\\\q\q\q\q\cup\;\{A\dto\rho_1\rho_2\cdots\rho_M\},\qd=d_0,\;d'=d_M\end{array}\right.\right\}\end{eqnarray}$\wfst_\ell$はコーパス中の文$\win_\ell$の構文木のいずれかに現れる部分木の親子対の集合である.同様に$V_\ell$は$\win_\ell$の構文木のいずれかに現れる部分木ラベルの集合である.$O_\ell$は$V_\ell$の要素を\$\wfst_\ell$中の半順序関係(親子関係)$@$を満たすように順序づけたものである.$O_\ell$の第一要素$\tau_1$は必ず$S(0,n_\ell)$になる.$\subtrees_\ell$は部分木と規則の論理的な関係を表現する.例えば,\[\subtrees_\ell(A(d,d'))=\bigl\{\;\{A\dtoB_1C_1,\;B_1(d,d''_1),\;C_1(d''_1,d')\},\;\{A\dtoB_2C_2,\;B_2(d,d''_2),\;C_2(d''_2,d')\}\;\bigr\}\]に対しては,「$\win_\ell$に対して部分木$A(d,d')$を作るためには,規則$A\dtoB_1C_1$を適用し,部分木$B_1(d,d''_1)$と部分木\$C_1(d''_1,d')$を作る,もしくは規則$A\dtoB_2C_2$を適用し,部分木$B_2(d,d''_2)$と部分木$C_2(d''_2,d')$を作る,のいずれかである(他の場合はあり得ない)」と解釈する.$O_\ell$と$\subtrees_\ell$は次節で説明する支持グラフを構成する.例として,図~\ref{gram:ichiro-CNF}のCFG$G1$と\$\win_\ell=\tuple{急いで,走る,一郎,を,見た}$に対して図~\ref{fig:parse-tree-ichiro-CNF}の2つの構文木$t1$,$t2$を考える.各々に対応する適用規則列を$\rseq_1,\rseq_2$とおくと,$\trees(\win_\ell)=\{\rseq_1,\rseq_2\}$である.このとき$\wfst_\ell$は{\small\begin{eqnarray*}\wfst_\ell&=&\wfst(\rseq_1)\cup\wfst(\rseq_2)\\&=&\{\;\sym{S}(0,5)@\sym{PP}(0,4)\sym{V}(4,5),\;\sym{PP}(0,4)@\sym{NP}(0,3)\sym{P}(3,4),\;\sym{NP}(0,3)@\sym{VP}(0,2)\sym{N}(2,3),\\&&\q\sym{VP}(0,2)@\sym{ADV}(0,1)\sym{V}(1,2),\;\sym{V}(4,5)@\sym{見た}(4,5),\;\sym{P}(3,4)@\sym{を}(3,4),\;\sym{N}(2,3)@\sym{一郎}(2,3),\\&&\q\sym{V}(1,2)@\sym{走る}(1,2),\;\sym{ADV}(0,1)@\sym{急いで}(0,1)\;\}\\&&\cup\;\{\;\sym{S}(0,5)@\sym{ADV}(0,1)\sym{VP}(1,5),\;\sym{ADV}(0,1)@\sym{急いで}(0,1),\;\sym{VP}(1,5)@\sym{PP}(1,4)\sym{V}(4,5),\\&&\q\q\sym{PP}(1,4)@\sym{NP}(1,3)\sym{P}(3,4),\;\sym{NP}(1,3)@\sym{V}(1,2)\sym{N}(2,3),\;\sym{V}(1,2)@\sym{走る}(1,2),\\&&\q\q\sym{N}(2,3)@\sym{一郎}(2,3),\;\sym{P}(3,4)@\sym{を}(3,4),\;\sym{V}(4,5)@\sym{見た}(4,5)\;\}\end{eqnarray*}}\noindentとなる.また,$O_\ell$は一意には決まらないが,どの場合でも第一要素は必ず$\sym{S}(0,5)$になる点に注意する.例えば下のような$O_\ell$が考えられる.{\small\[\begin{array}{l}O_\ell=\langle\sym{S}(0,5),\sym{VP}(1,5),\sym{PP}(1,4),\sym{NP}(1,3),\sym{V}(4,5),\sym{PP}(0,4),\sym{P}(3,4),\\\q\q\q\sym{NP}(0,3),\sym{N}(2,3),\sym{VP}(0,2),\sym{V}(1,2),\sym{ADV}(0,1)\rangle\end{array}\]}\noindentまた$\subtrees_\ell$を$O_\ell$の順に示す.\begin{small}\[{\arraycolsep=4pt\begin{array}{lll|lll}\subtrees_\ell(\sym{S}(0,5))&=&\{\;\{\sym{S}\dto\sym{PP}\;\sym{V},\;\sym{PP}(0,4),\;\sym{V}(4,5)\},&\subtrees_\ell(\sym{NP}(0,3))&=&\{\;\{\sym{NP}\dto\sym{VP}\;\sym{N},\\&&\q\{\sym{S}\dto\sym{ADV}\;\sym{VP},\;\sym{ADV}(0,1),\;\sym{VP}(1,5)\}\;\}&&&\q\sym{VP}(0,2),\;\sym{N}(2,3)\}\;\}\\\subtrees_\ell(\sym{VP}(1,5))&=&\{\;\{\sym{VP}\dto\sym{PP}\;\sym{V},\;\sym{PP}(1,4),\;\sym{V}(4,5)\}\;\}&\subtrees_\ell(\sym{N}(2,3))&=&\{\;\{\sym{N}\dto\sym{一郎}\}\;\}\\\subtrees_\ell(\sym{PP}(1,4))&=&\{\;\{\sym{PP}\dto\sym{NP}\;\sym{P},\;\sym{NP}(1,3),\;\sym{P}(3,4)\}\;\}&\subtrees_\ell(\sym{VP}(0,2))&=&\{\;\{\sym{VP}\dto\sym{ADV}\;\sym{V},\\\subtrees_\ell(\sym{NP}(1,3))&=&\{\;\{\sym{NP}\dto\sym{V}\;\sym{N},\;\sym{NP}(1,2),\;\sym{N}(2,3)\}\;\}&&&\q\sym{ADV}(0,1),\;\sym{V}(1,2)\}\;\}\\\subtrees_\ell(\sym{V}(4,5))&=&\{\;\{\sym{V}\dto\sym{見た}\}\;\}&\subtrees_\ell(\sym{V}(1,2))&=&\{\;\{\sym{V}\dto\sym{走る}\}\;\}\\\subtrees_\ell(\sym{PP}(0,4))&=&\{\;\{\sym{PP}\dto\sym{NP}\;\sym{P},\;\sym{NP}(0,3),\;\sym{P}(3,4)\}\;\}&\subtrees_\ell(\sym{ADV}(0,1))&=&\{\;\{\sym{ADV}\dto\sym{急いで}\}\;\}\\\subtrees_\ell(\sym{P}(3,4))&=&\{\;\{\sym{P}\dto\sym{を}\}\;\}\end{array}}\]\end{small}\subsection{支持グラフ}\label{sec:GEM:support-graph}$\tuple{O_\ell,\subtrees_\ell}$という組を支持グラフ$\sg_\ell$というデータ構造で捉えるとgEMアルゴリズムが理解しやすくなる.「グラフィカルEM」の名もここに由来する.まず,前節で示した$O_\ell$,$\subtrees_\ell$の例に対応する支持グラフを図~\ref{fig:support-graph-ichiro}(a)に示す.支持グラフ$\sg_\ell$は再帰遷移ネットワーク(recursivetransitionnetwork;以下RTN)に似た構造をもつ非循環有向グラフ(DAG)であり,共通の辺をもたない部分グラフ\$\subsg_\ell(\tau)\defined\tuple{\tau,\subtrees_\ell(\tau)}$の集まりから成る(ただし$\tau\inO_\ell$).各$\subsg_\ell(\tau)$は「$\tau$の部分支持グラフ」と呼ばれ,$\tau=A(d,d')$が付与されている.また,$\subsg_\ell(\tau)$は開始ノード,終了ノードと呼ばれる2つの特殊なノードをもち(図~\ref{fig:support-graph-ichiro}では各々{\sfstart},{\sfend}と書かれている),各$E\in\subtrees_\ell(\tau)$に対して開始ノード,$E$の各要素(規則$A\dto\zeta$または部分木ラベル$A(d,d')$)が付与されたノード,終了ノードが一列に連結されている.複数のノードに同じ規則または部分木ラベルが付与されることもある点に注意する.有向辺はすべて開始ノードから終了ノードに向かっている.開始ノードから終了ノードに至るパスを局所パスと呼び,これも$E$で参照する.局所パスにおいて,規則$A\dto\zeta$が付与されたノードを基本ノード,部分木ラベル$A(d,d')$が付与されたノードを中間ノードと呼び,各々図~\ref{fig:support-graph-ichiro}のように○と◎で表す.支持グラフは次の特徴をもつ.\begin{enumerate}\item支持グラフ$\sg_\ell$に対してRTNのように再帰的な巡回を行なうことができる.\item複数の巡回パスの一部が共有される.\item部分支持グラフ$\subsg_\ell(\tau)=\tuple{\tau,\subtrees(\tau)}$の$E\in\subtrees_\ell(\tau)$に対して,どの$\tau'=A(d,d')\inE$についても$\tau@\tau'$が成り立つ.\item一つの局所パス中に存在する基本ノードと中間ノードの数に制限がない.\end{enumerate}\begin{figure}[t]\atari(140,74)\caption{支持グラフの例.}\label{fig:support-graph-ichiro}\end{figure}1つ目の特徴である再帰的な巡回は次のようにして行なわれる.$S(0,n_\ell)$の開始ノードから出発し,辺に沿って各ノードを訪問していくが,途中に中間ノード$\tau=A(d,d')$があったら,$\tau$が付与された部分支持グラフ$\tau$の開始ノードにジャンプする.そして終了ノードに至ったらジャンプ元のノードに戻る.これを再帰的に繰り返し,$S(0,n_\ell)$の終了ノードに至ったら一回の巡回を終了する.分岐がある場合はその中のどれかを選ぶ.このような巡回の途中で中間ノードに付与される部分木ラベルを集めると$\win_\ell$の構文木いずれか一つのラベル集合が得られる.また,局所パス中のノードの順序を図~\ref{fig:support-graph-ichiro}のようにして,巡回中に基本ノードに付与されている規則を順に集めると\$\win_\ell$の最左導出における適用規則列$\rseq\in\trees(\win_\ell)$が一つ得られる.再帰的巡回を全通り行なえば$\trees(\win_\ell)$中の適用規則列をすべて見つけることができる.この考えは後に記述するgEMアルゴリズムの正当性を示すときに用いる(付録~\ref{sec:GEM-validity}).図~\ref{fig:support-graph-ichiro}~(b)に再帰的巡回の例を示す.2つ目の特徴が得られるのは,ある再帰的巡回において,同じ部分木ラベル$\tau=A(d,d')$が付与されたノードでは同じ部分支持グラフ$\subsg_\ell(\tau)$にジャンプするためである.このような共有構造により支持グラフのサイズが圧縮され,我々はgEMアルゴリズムを支持グラフの上で動作させることによって効率的な確率計算を実現する.例えば,図~\ref{fig:support-graph-ichiro}(a)において$\sym{V}(4,5)$が付与されたノード($\times$印)では同じ部分支持グラフ\$\subsg_\ell(\sym{V}(4,5))$にジャンプする.3つ目の特徴は,$\varepsilon$規則およびサイクル$A\derivesplusA$が存在しないという仮定と,$O_\ell$,$\subtrees_\ell$の定義から明らかであり,「$\tau@\tau'$であるとき,$\tau'$の部分支持グラフ$\subsg_\ell(\tau')$中のノードは$\tau$を参照しない」と言い替えることもできる.この事実に基づき,I-Oアルゴリズムの内側・外側確率計算における動的計画法(節~\ref{sec:PCFG:IO})の考えを一般化したものがgEMアルゴリズムに導入されている.また,4つ目の特徴は支持グラフの構造の一般性を示しているが,gEMアルゴリズムはこの一般性を保持するように記述される.\subsection{支持グラフの獲得}\label{sec:GEM:extract-support-graph}次に,支持グラフ$\tuple{O_\ell,\subtrees_\ell}$をパーザがもつWFSTから効率的に抽出する方法を説明する.$O_\ell$は$V_\ell$の要素を$\wfst_\ell$における半順序関係$@$を満たすように全順序に並べたものである.一般に,半順序関係の全順序関係への変換はトポロジカルソーティングによって実現される.従って,我々はトポロジカルソーティングの考えに基づき$O_\ell$を獲得する.また,ソーティングの途中で$\subtrees_\ell$が計算できる.以上を実現する支持グラフ抽出ルーチン$\proc{Extract-CYK}$を図~\ref{alg:extract-sg}(上)に示す.ただし,そのサブルーチンは利用するパーザのWFSTの形式に特化したものを用意する.図~\ref{alg:extract-sg}(下)にCYK用サブルーチン\$\proc{Visit-CYK}$を示す.我々は大域的にスタック\footnote{スタック用手続きとして,スタック$U$を空にする$\proc{ClearStack}(U)$,スタック$U$にオブジェクト$x$をpushする$\proc{PushStack}(x,U)$,スタック$U$をpopして,popされたオブジェクトを返す$\proc{PopStack}(U)$の3つを用意する.}$U$とフラグ$\varComp[\cdot]$を用意し,再帰的手続き$\proc{Visit-CYK}$で三角行列(CYKのWFST)の右上隅から部分木$A(d,d')$を次々に訪問する($\proc{Extract-CYK}$行~\ref{list:preproc-CYK:call-visit}).そして訪問が終ったら,部分木のラベルをスタック$U$に積む($\proc{Visit-CYK}$行~\ref{list:visit-CYK:push}).また,訪問の途中で$\subtrees_\ell$を記録していく($\proc{Visit-CYK}$行~\ref{list:visit-CYK:add1},~\ref{list:visit-CYK:add2}).フラグ$\varComp[\cdot]$に訪問したことを記録し,一度訪問した部分木には行かない($\proc{Visit-CYK}$行~\ref{list:visit-RB:mark},\ref{list:visit-CYK:recursion:begin}--\ref{list:visit-CYK:recursion:end}).最後にスタック$U$に積んであった部分木ラベルを順に取り出せば($\proc{Extract-CYK}$行~\ref{list:preproc-CYK:pop:begin}--\ref{list:preproc-CYK:pop:end}),それが$O_\ell$になっている.\begin{figure}[b]\begin{listing}\item\rw{procedure}$\proc{Extract-CYK}()$\rw{begin}\itemi\rw{for}$\ell:=1$\rw{to}$N$\rw{do}\rw{begin}\itemiiInitializeall$\subtrees_\ell(\cdot)$to$\emptyset$andall$\varComp[\cdot]$to$\sym{NO}$;\itemii$\proc{ClearStack}(U)$;\q\progcomment{スタックを初期化}\label{list:preproc-CYK:clear-U}\itemii$\proc{Visit-CYK}(\ell,S,0,n_\ell)$;\q\progcomment{各パーザ専用ルーチン;三角行列右上隅から巡回}\label{list:preproc-CYK:call-visit}\itemii\rw{for}$k:=1$\rw{to}$|U|$\rw{do}$\tau_k:=\proc{PopStack}(U)$;\q\progcomment{スタック中の整列結果を順に取り出す}\label{list:preproc-CYK:pop:begin}\itemii$O_\ell:=\tuple{\tau_1,\tau_2,\ldots,\tau_{|U|}}$\label{list:preproc-CYK:pop:end}\itemi\rw{end}\item\rw{end}.\end{listing}\begin{listing}\item\rw{procedure}$\proc{Visit-CYK}(\ell,A,d,d')$\rw{begin}\itemiPut$\tau=A(d,d')$andthen$\varComp[\tau]:={\ttYES}$;\q\progcomment{訪問を記録}\label{list:visit-CYK:mark}\itemi\rw{if}$d'=d+1$\rw{and}$A(d,d')@w_{d'}(d,d')\inT_{d,d'}^{(\ell)}$\rw{then}Addaset$\{A\dtow_{d'}\}$to$\subtrees_\ell(\tau)$\label{list:visit-CYK:add1}\itemi\rw{else}\itemii\rw{foreach}$A(d,d')@B(d,d'')C(d'',d')\inT_{d,d'}^{(\ell)}$\rw{do}\rw{begin}\label{list:visit-CYK:foreachABC}\itemiiiAddaset$\{A\dtoBC,\;B(d,d''),\;C(d'',d')\}$to$\subtrees_\ell(\tau)$;\label{list:visit-CYK:add2}\itemiii\rw{if}$\varComp[B(d,d'')]={\ttNO}$\rw{then}\label{list:visit-CYK:recursion:begin}$\proc{Visit-CYK}(\ell,B,d,d'')$;\q\progcomment{再帰}\itemiii\rw{if}$\varComp[C(d'',d')]={\ttNO}$\rw{then}$\proc{Visit-CYK}(\ell,C,d'',d')$\q\progcomment{再帰}\label{list:visit-CYK:recursion:end}\itemii\rw{end};\itemi$\proc{PushStack}(\tau,U)$\label{list:visit-CYK:push}\item\rw{end}.\end{listing}\caption{(上)支持グラフ抽出ルーチン$\proc{Extract-CYK}$,(下)CYKパーザ用サブルーチン$\proc{Visit-CYK}$.}\label{alg:extract-sg}\end{figure}GLRパーザのWFSTである共有圧縮統語森は$\wfst_\ell$を木(森)構造で捉えたものと見ることができる.GLRパーザは文法構造にChomsky標準形を要求しないので,$\proc{Visit-CYK}$よりも一般的な形で記述する必要があるが,スタック$U$,フラグ$\varComp[\cdot]$を用いる点や再帰手続きになる点など基本手続きは$\proc{Visit-CYK}$と変わらない.また,支持グラフ抽出ルーチンの動作はパーザ備え付けの構文木出力ルーチンや構文木数え上げルーチンによく似ている.従って,支持グラフ抽出ルーチンを実装するときにはこれらのルーチンを基にすればよい.\subsection{グラフィカルEMアルゴリズム}\label{sec:GEM:GEM}提案手法によるPCFG訓練のメインルーチン$\proc{Learn-PCFG}$は図~\ref{alg:learn-PCFG}のようになる.2つのサブルーチン$\proc{CYK-Parser}$と\$\proc{Extract-CYK}$は先に説明した.本節ではgEMアルゴリズムを実現する手続き$\proc{Graphical-EM}$を記述する.I-Oアルゴリズムと同様,gEMアルゴリズムでも内側・外側確率という2つの確率値の計算が中心になる.各$\tau\inO_\ell$の内側確率,外側確率の値は$\varP[\ell,\tau]$,$\varQ[\ell,\tau]$という配列変数に格納される.これは各部分支持グラフ\$\subsg_\ell(\tau)=\tuple{\tau,\subtrees_\ell(\tau)}$によって保持される.また,$\subsg_\ell(\tau)$は各局所パス$E\in\subtrees_\ell(\tau)$ごとに配列変数$\varR[\ell,\tau,E]$をもつ.また,配列変数$\varON[A\dto\zeta]$に規則$A\dto\zeta$の期待適用回数が格納される.$\proc{Graphical-EM}$は内側確率を計算する$\proc{Get-Inside-Probs}$,外側確率と規則の期待適用回数を同時に計算する$\proc{Get-Expectations}$という2つのサブルーチンをもつ.\begin{figure}[t]\begin{listing}\item\rw{procedure}$\proc{Learn-PCFG}(\corpus)$\rw{begin}\itemi$\proc{CYK-Parser}(\corpus)$;\q\progcomment{$\corpus$の解析結果のWFSTを生成}\itemi$\proc{Extract-CYK}()$;\q\progcomment{WFSTから支持グラフを抽出}\itemi$\proc{Graphical-EM}()$\q\progcomment{支持グラフを参照しながらパラメタ$\theta$を訓練}\item\rw{end}.\end{listing}\caption{PCFG訓練のメインルーチン$\proc{Learn-PCFG}$.}\label{alg:learn-PCFG}\end{figure}\begin{figure}[b]\begin{listing}\item\rw{procedure}$\proc{Graphical-EM}()$\rw{begin}\itemiInitializeallparameters$\theta(A\dto\zeta)$suchthat$P(\win_\ell|\theta)>0$forall$\ell=1\ldotsN$;\label{list:gEM:init}\itemi$\proc{Get-Inside-Probs}()$;\itemi$\lambda^{(0)}:=\sum_{\ell=1}^N\log\varP[\ell,S(0,n_\ell)]$;\label{list:gEM:loglike:1}\itemi\rw{repeat}\label{list:gEM:repeat:begin}\itemii$\proc{Get-Expectations}()$;\label{list:gEM:call-expect}\itemii\rw{foreach}$(A\dto\zeta)\inR$\rw{do}\label{list:gEM:update:begin}\itemiii$\theta(A\dto\zeta):=\varON[A\dto\zeta]/\sum_{\zeta':(A\to\zeta')\inR}\varON[A\dto\zeta']$;\label{list:gEM:update:end}\itemii$m\incby1$;\itemii$\proc{Get-Inside-Probs}()$;\itemii$\lambda^{(m)}:=\sum_{\ell=1}^N\log\varP[\ell,S(0,n_\ell)]$\label{list:gEM:loglike:2}\itemi\rw{until}$\lambda^{(m)}-\lambda^{(m-1)}$becomessufficientlysmall\label{list:gEM:repeat:end}\item\rw{end}.\end{listing}\caption{gEMアルゴリズムのメインルーチン$\proc{Graphical-EM}$.}\label{alg:GEM}\end{figure}$\proc{Graphical-EM}$を図~\ref{alg:GEM}に示す.$\proc{Graphical-EM}$では,はじめにすべてのパラメタを初期化する(行~\ref{list:gEM:init}).そして,$\proc{Get-Inside-Probs}$,$\proc{Get-Expectations}$,パラメタの更新(行~\ref{list:gEM:update:begin}--\ref{list:gEM:update:end})をこの順に繰り返す.対数尤度$\lambda$が収束したら(行~\ref{list:gEM:repeat:end}),その時点でのパラメタ値$\theta$を推定値$\theta^{\ast}$として終了する.$\varP[\ell,S(0,n_\ell)]$に文$\win_\ell$の生起確率$P(\win_\ell)$が格納されており,対数尤度の計算にはこの値を使う(行~\ref{list:gEM:loglike:1},~\ref{list:gEM:loglike:2}).図~\ref{alg:GEM-sub}にサブルーチン$\proc{Get-Inside-Probs}$,$\proc{Get-Expectations}$を示す.また,図~\ref{fig:GEM-sub}は支持グラフ上における各々の計算イメージである.\begin{figure}[t]\begin{listing}\item\rw{procedure}$\proc{Get-Inside-Probs}()$\rw{begin}\itemi\rw{for}$\ell:=1$\rw{to}$N$\rw{do}\rw{begin}\itemiiPut$O_\ell=\tuple{\tau_1,\tau_2,\ldots,\tau_{|O_\ell|}}$;\itemii\rw{for}$k:=|O_\ell|$\rw{downto}$1$\rw{do}\rw{begin}\label{list:get-ip:for-k:begin}\itemiii\rw{foreach}$E\in\subtrees_\ell(\tau_k)$\rw{do}\rw{begin}\label{list:get-ip:foreachE:begin}\itemiiii$\varR[\ell,\tau_k,E]:=1$;\itemiiii\rw{foreach}$\tau'\inE$\rw{do}\label{list:get-ip:for-tau:begin}\itemiiiii\rw{if}$\tau'=(A\dto\zeta)$\rw{then}$\varR[\ell,\tau_k,E]\mulby\theta(A\dto\zeta)$\rw{else}$\varR[\ell,\tau_k,E]\mulby\varP[\ell,\tau']$\label{list:get-ip:for-tau:end}\itemiii\rw{end};\q\progcomment{\rw{foreach}$E$}\itemiii$\varP[\ell,\tau_k]:=\sum_{E\in\subtrees_\ell(\tau_k)}\varR[\ell,\tau_k,E]$\label{list:get-ip:calc-P}\itemii\rw{end}\q\progcomment{\rw{for}$k$}\label{list:get-ip:for-i:end}\itemi\rw{end}\q\progcomment{\rw{for}$\ell$}\item\rw{end}.\end{listing}\begin{listing}\item\rw{procedure}$\proc{Get-Expectations}()$\rw{begin}\itemi\rw{foreach}$(A\dto\zeta)\inR$\rw{do}$\varON[A\dto\zeta]:=0$;\label{list:get-exp:init:eta}\itemi\rw{for}$\ell:=1$\rw{to}$N$\rw{do}\rw{begin}\itemiiPut$O_\ell=\tuple{\tau_1,\tau_2,\ldots,\tau_{|O_\ell|}}$;\itemii\rw{for}$k:=2$\rw{to}$|O_\ell|$\rw{do}$\varQ[\ell,\tau_k]:=0$;\label{list:get-exp:init:s:1}\itemii$\varQ[\ell,\tau_1]:=1$;\q\progcomment{$\tau_1$は特別に1に初期化}\label{list:get-exp:init:s:2}\itemii\rw{for}$k:=1$\rw{to}$|O_\ell|$\rw{do}\label{list:get-exp:for-i:begin}\itemiii\rw{foreach}$E\in\subtrees_\ell(\tau_k)$\rw{do}\label{list:get-exp:foreach-E}\itemiiii\rw{foreach}$\tau'\inE$\rw{do}\itemiiiii\rw{if}$\tau'=(A\dto\zeta)$\rw{then}$\varON[A\dto\zeta]\incby\varQ[\ell,\tau_k]\cdot\varR[\ell,\tau_k,E]/\varP[\ell,S(0,n_\ell)]$\label{list:get-exp:updateON}\itemiiiii\rw{else}\rw{if}$\varP[\ell,\tau']>0$\rw{then}$\varQ[\ell,\tau']\incby\varQ[\ell,\tau_k]\cdot\varR[\ell,\tau_k,E]/\varP[\ell,\tau']$\label{list:get-exp:updateQ}\itemi\rw{end}\q\progcomment{\rw{for}$\ell$}\item\rw{end}.\end{listing}\caption{$\proc{Graphical-EM}$のサブルーチン:(上)内側確率を計算する$\proc{Get-Inside-Probs}$,\\(下)外側確率および規則の期待適用回数を計算する$\proc{Get-Expectations}$.}\label{alg:GEM-sub}\end{figure}$\proc{Get-Inside-Probs}$における内側確率$\varP[\ell,\tau]$の計算は$O_\ell$の最後尾の部分支持グラフから順に行なう.$\tau_k$の部分支持グラフ\$\subsg_\ell(\tau_k)=\tuple{\tau_k,\subtrees_\ell(\tau_k)}$($k=1\ldots|O_\ell|$)の各局所パス$E\in\subtrees_\ell(\tau_k)$ではパス中の各ノードの確率積を計算し,$\varR[\ell,\tau_k,E]$に格納する(行~\ref{list:get-ip:for-tau:begin}--\ref{list:get-ip:for-tau:end},図~\ref{fig:GEM-sub}(1)).その際,基本ノード$A\dto\zeta$に対してパラメタ\$\theta(A\dto\zeta)$を乗じ,中間ノード$\tau'$に対して内側確率$\varP[\ell,\tau']$を乗じる\footnote{節~\ref{sec:GEM:support-graph}で述べた支持グラフの3つ目の特徴より$\tau'=\tau_{k'}$とおくと必ず$k<k'$であることと,$\varP$の計算は$O_\ell$の最後尾から順に行なわれることから,$\varP[\ell,\tau']$は参照されるとき既に計算済みになっている点に注意する.}(図~\ref{fig:GEM-sub}(2)).最後に$\varR[\ell,\tau_k,E]$の和によって$\varP[\tau_k]$を計算する(行~\ref{list:get-ip:calc-P},図~\ref{fig:GEM-sub}(3)).\begin{figure}[t]\atari(142,57)\caption{サブルーチン$\proc{Get-Inside-Probs}$(左)と\$\proc{Get-Expectations}$(右)の計算イメージ.}\label{fig:GEM-sub}\end{figure}一方,$\proc{Get-Expectations}$では$\proc{Get-Inside-Probs}$とは逆に$O_\ell$の先頭の部分支持グラフから順に計算を進める.はじめに配列変数$\varQ$と$\varON$を初期化する.特に外側確率$\varQ[\ell,\cdot]$について$O_\ell$の先頭要素\$\tau_1=S(0,n_\ell)$のみを1,他は0にする点に注意する(行~\ref{list:get-exp:init:s:1}--\ref{list:get-exp:init:s:2}).次に,ある$k=1\ldots|O_\ell|$について$\tau_k$の部分支持グラフ\$\subsg_\ell(\tau_k)$の局所パス$E$を考える(行~\ref{list:get-exp:foreach-E}).更に,行~\ref{list:get-exp:updateQ}で外側確率$\varQ$が書き換えられる$\tau'\inE$を考える.また,行~\ref{list:get-exp:updateQ}の式で$\varQ[\ell,\tau']$に加算されるのは,$E$における$\tau'$の局所的な外側確率(パス$E$に現れる$\tau'$以外のノードの確率積)と$\tau'$の親部分木$\tau_k$の外側確率$\varQ[\ell,\tau_k]$の積である\footnote{$\tau'=\tau_{k'}$とおくと,支持グラフの3つ目の特徴より必ず$k<k'$が成り立つので,$\tau'$は$O_\ell$では常に$\tau_k$より後ろに現れる.逆にいえば$k''=k\ldots|O_\ell|$なる部分支持グラフ\$\subsg_\ell(\tau_{k''})$では$\varQ[\ell,\tau_k]$の値は書き換えられることはなく,従って行~\ref{list:get-exp:updateQ}の式の右辺に現れる$\varQ[\ell,\tau_k]$は既に計算済みである.}(図~\ref{fig:GEM-sub}(4)).また,行~\ref{list:get-exp:updateON}において,基本ノード\$A\dto\zeta$に対しては局所パスの確率$\varR[\ell,\tau_k,E]$と親部分木$\tau_k$の外側確率$\varQ[\ell,\tau_k]$の積を文$\win_\ell$の生起確率$P(\win_\ell)$で割って\footnote{$\proc{Graphical-EM}$行~\ref{list:gEM:init}のように,すべての$\ell=1\ldotsN$について$P(\win_\ell|\theta)>0$となる$\theta$に初期化しているので,以降$\theta$の更新が行なわれても$P(\win_\ell|\theta)=0$となることはない.この事実は,gEMアルゴリズムにおける$\eta[r]$の更新値とFujisakiらの方法(式~\ref{eq:Fujisaki-eta})における$\eta[r]$の更新値が等しいと仮定したとき(これは付録~\ref{sec:GEM-validity}で直観的に証明される),以下のように帰納的に証明される:まず$m$回目の更新後のパラメタ$\theta^{(m)}$の下で\$P(\win_\ell|\theta^{(m)})>0$が成り立つとする.すると,ある$\rseq\in\subtrees(\win_\ell)$に対して\$P(\rseq|\theta^{(m)})>0$が成り立つ.そしてこの$\rseq$に出現する任意の規則$r\in\rseq$について,$\occ(r,\rseq)>0$が成り立つことと式~\ref{eq:Fujisaki-eta}より,$\theta^{(m)}$の下で$\eta[r]>0$となる.すると$\proc{Graphical-EM}$行~\ref{list:gEM:update:end}により更新後のパラメータ$\theta^{(m+1)}(r)>0$が保たれる.従って同じ$\rseq$に対して$P(\rseq|\theta^{(m+1)})>0$が成り立ち,これより$P(\win_\ell|\theta^{(m+1)})>0$もまた成り立つ.以上で\$P(\win_\ell|\theta^{(m)})>0\RightarrowP(\win_\ell|\theta^{(m+1)})>0$が言えたので,パラメタを$P(\win_\ell|\theta^{(0)})>0$なる\$\theta^{(0)}$に初期化すれば,以降の更新$m=1,2,\ldots$では必ず$P(\win_\ell|\theta^{(m)})>0$である.(証明終)また,$P(\win_\ell|\theta)>0$とするために,現実的にはすべての規則$r\inR$について$\theta(r)>0$となる$\theta$を選べば十分である.}$\varON[A\dto\zeta]$に足し込む(図~\ref{fig:GEM-sub}(5)).こうして$\varON[A\dto\zeta]$の内容を書き換えていくと,$\proc{Get-Expectations}$の終了時には$\varON[A\dto\zeta]$に$A\dto\zeta$の期待適用回数が格納されている.gEMアルゴリズムの計算は支持グラフの1つ目の特徴である支持グラフ$\sg_\ell$の再帰的巡回(節~\ref{sec:GEM:support-graph})に基づいて正当化される.それを付録~\ref{sec:GEM-validity}で示す.一般に,EMアルゴリズムは尤度関数の山登りを行なうため局所的な最尤推定しか保証しない.従って訓練されたパラメタの質は初期パラメタ値に依存する.LariとYoungはHMMを利用して初期パラメタ値を与える方法を提案している~\cite{Lari90}.最も簡便な解決法としては,初期パラメタをランダムに設定することとEMアルゴリズムを動作させることを$h$回繰り返し,その中で収束時の対数尤度が最も高かった回の収束パラメタ値を訓練パラメタ値とする.この方法を以降では簡単に再出発法と呼ぶ.\subsection{予測構文木の計算}\label{sec:GEM:ML-tree}いったんパラメタ$\theta^{\ast}$が訓練されたら,括弧なしであるテストコーパスの各文$\win_\ell$に対して$\rseq^{\ast}_\ell\defined\max_{{\rmall}\;\rseq}P(\rseq|\win_\ell)=\max_{{\rmall}\;\rseq}P(\rseq,\win_\ell)=\max_{\rseq\in\trees(\win_\ell)}P(\rseq)$なる$\rseq^{\ast}_\ell$を計算することができる.$\rseq^{\ast}_\ell$に対応する構文木$t^{\ast}_\ell$を予測構文木(以下,単に予測木)という.この予測木$t^{\ast}_\ell$によって入力文$\win_\ell$に対する構文的曖昧性が解消される.ただし,$|\trees(\win_\ell)|$は指数オーダなので,ここでも支持グラフに基づいて$t^{\ast}_\ell$を計算する.予測木$t^{\ast}_\ell$を計算する手続き$\proc{Predict}$およびそのサブルーチン$\proc{Construct-Tree}$を図~\ref{alg:predict}に示す.$\proc{Predict}$はテストコーパス\$\corpus=\tuple{\win_1,\win_2,\ldots,\win_N}$を受けとり,各$\win_\ell$に対する予測木中の部分木ラベルの集合$\labels(t^{\ast}_\ell)$を$\labels^{\ast}_\ell$に格納する.$\proc{Predict}$では,はじめにパーザ,支持グラフ抽出ルーチン,内側確率計算ルーチン$\proc{Get-Inside-Probs}$の3つを走らせる(行~\ref{line:predict-tree:parser}).次に,$\proc{Get-Inside-Probs}$が計算した確率値$\varR[\ell,\tau,E]$を参照しながら,$\delta[\ell,\tau]$に最も確率の高い$\tau$の局所パスを記録する(行~\ref{line:predict-tree:record}).再帰手続き$\proc{Construct-Tree}$では,支持グラフ$\sg_\ell$の再帰的巡回に基づき,$\delta[\ell,\tau]$中のラベル$A(d,d')$を$\labels^{\ast}_\ell$に追加する(行~\ref{line:const-pred-tree:add})ことで予測木を構築する.$\delta[\ell,\tau]$に複数の局所パス候補を格納するように拡張すれば,生起確率上位$n$個の予測木が獲得できる.\begin{figure}[t]\begin{listing}\item\rw{procedure}$\proc{Predict}(\corpus)$\rw{begin}\itemiPut$N=|\corpus|$;\itemi$\proc{CYK-Parser}(\corpus)$;\q$\proc{Extract-CYK}()$;\q$\proc{Get-Inside-Probs}()$;\label{line:predict-tree:parser}\itemi\rw{for}$\ell:=1$\rw{to}$N$\rw{do}\rw{begin}\itemiiPut$O_\ell=\tuple{\tau_1,\tau_2,\ldots,\tau_{|O_\ell|}}$;\itemii\rw{for}$k:=1$\rw{to}$|O_\ell|$\rw{do}$\delta[\ell,\tau_k]:=\mathop{\mbox{argmax}}_{E\in\subtrees_\ell(\tau_k)}\varR[\ell,\tau_k,E]$;\label{line:predict-tree:record}\itemii$\labels^{\ast}_\ell:=\emptyset$;\itemii$\proc{Construct-Tree}(\ell,\tau_1)$\q\progcomment{必ず$\tau_1=S(0,n_\ell)$である.}\itemi\rw{end}\item\rw{end}.\end{listing}\begin{listing}\item\rw{procedure}$\proc{Construct-Tree}(\ell,\tau)$\rw{begin}\itemi\rw{foreach}$\tau'\in\delta[\ell,\tau]$suchthat$\tau'=A(d,d')$\rw{do}\rw{begin}\itemiiAdd$\tau'$to$\labels^{\ast}_\ell$;\label{line:const-pred-tree:add}\itemii$\proc{Construct-Tree}(\ell,\tau')$\itemi\rw{end}\item\rw{end}.\end{listing}\caption{予測木計算ルーチン$\proc{Predict}$とそのサブルーチン$\proc{Construct-Tree}$.}\label{alg:predict}\end{figure}\subsection{計算量}\label{sec:GEM:complexity}節~\ref{sec:PCFG:IO}のI-Oアルゴリズムの計算量評価で述べたように,収束までのパラメタ更新回数は初期値に依存するため,1回のパラメタ更新に要する計算量をgEMアルゴリズムの計算量とする.手続き$\proc{Graphical-EM}$では{\bfrepeat}ループ内の計算量をはかればよい.まず,各$\ell=1\ldotsN$について\$O_\ell=\tuple{\tau_1^{(\ell)},\tau_2^{(\ell)},\ldots,\tau^{(\ell)}_{|O_\ell|}}$とおく.$\proc{Graphical-EM}$に呼び出される\$\proc{Get-Inside-Probs}$はその内部処理において$k=1\ldots|O_\ell|$について$|\subtrees_\ell(\tau_k^{(\ell)})|$の要素を一回ずつ訪れることから,\begin{eqnarray}\mu_{\rmnum}&\defined&\max_{\ell=1\ldotsN}\sum_{k=1}^{|O_\ell|}\big|\subtrees_\ell(\tau_k^{(\ell)})\big|\label{eq:xi-num}\\\mu_{\rmmaxsize}&\defined&\max_{E:\;\ell=1\ldotsN,\;k=1\ldots|O_\ell|,\;E\in\subtrees_\ell(\tau_k^{(\ell)})}|E|\label{eq:xi-maxsize}\end{eqnarray}を導入すると,手続き$\proc{Get-Inside-Probs}$の計算量は\$O(\mu_{\rmnum}\mu_{\rmmaxsize}N)$である.同様に手続き$\proc{Get-Expectations}$においても\$O(\mu_{\rmnum}\mu_{\rmmaxsize}N)$の計算量を要する.I-Oアルゴリズムの計算量評価と同様,訓練コーパス$\corpus$に対して最長の文の長さを$L$とし,非終端記号集合$\Vn$,終端記号集合$\Vt$を固定する.我々はChomsky標準形を満たす文法に対する最悪計算量を考える.そのために,まずChomsky標準形を満たす最大のPCFGとして節~\ref{sec:PCFG:IO}式~\ref{eq:Rmax}で導入した規則集合$\Rmax$を考える.このとき,$A\in\Vn$,$0\led,d'\leL$,$d+2\led'$なる\$A$,$d$,$d'$について下が成り立つ($d'=d+1$の場合は無視できる):\begin{equation}\subtrees_\ell(A(d,d'))=\bigl\{\{A\dtoBC,\;B(d,d''),\;C(d'',d')\}\;\big|\;B,C\in\Vn,\;d<d''<d'\bigr\}_{\mbox{.}}\label{eq:possible-psi}\end{equation}$|O_\ell|=\bigl|\{A(d,d')\midA\in\Vn,\;0\led<d'\leL\}\bigr|=O(|\Vn|L^2)$かつ$\big|\subtrees_\ell(\tau)\big|=O(|\Vn|^2L)$が成り立ち,定義より$\mu_{\rmnum}=O(|\Vn|^3L^3)$となる.同様に定義より$\mu_{\rmmaxsize}=3=O(1)$である.また,$\theta(A\dto\beta)$の更新に要する計算量は$O(|\Rmax|)$だが,$|\Rmax|=O(|\Vn|^3)$なので無視できる.以上より手続き$\proc{Graphical-EM}$の{\bfrepeat}ループ内の計算量は$O(|\Vn|^3L^3N)$である.以上よりgEMアルゴリズムの最悪計算量はI-Oアルゴリズムと同じ$O(|\Vn|^3L^3N)$である.Chomsky標準形を仮定したとき,CYKパーザ$\proc{CYK-Parser}$と支持グラフ抽出ルーチン$\proc{Extract-CYK}$の最悪計算量はEMの一更新ステップの最悪計算量と同じ\$O(|\Vn|^3L^3N)$である.ただ,EMアルゴリズムでは更新ステップを数10から数100回繰り返すのが通常なので$\proc{Extract-CYK}$が訓練全体に占める割合は小さい.同様にChomsky標準形を仮定したとき,一つの文に対する生起確率計算,予測木の計算いずれの計算量も$O(|\Vn|^3L^3)$である($N=1$).また,式~\ref{eq:parent-children}の形をした部分木の親子対を構成要素とするWFSTをもつパーザ(例えばCYKやGLR)では,抽出される$O_\ell$,$\subtrees_\ell$は全く同じになるので,提案手法の計算量は組み合わせたパーザによる差はない.Earleyパーザを用いた場合に関する評価は付録~\ref{sec:Stolcke}に示す. \section{訓練時間に関する実験} \label{sec:experiment}我々は現実的な文法に対してはI-Oアルゴリズムに比べてEM学習が大幅に高速化される(提案手法の{\bf特長2})ことを示すため,ATR対話コーパス(SLDB)でパラメタ推定に要する計算時間(訓練時間と呼ぶ)を計測した.対象PCFGの元になるCFGは860規則から成る,田中らが開発した音声認識用日本語文法~\cite{Tanaka97}に手が加えられたものである.以降ではこのCFGを$\Gtanaka$で参照する.ATR対話コーパスもこの文法に対応して手が加えられている.$\Gtanaka$は品詞を細分化したカテゴリを終端記号としたCFGであり,非終端記号数173,終端記号数441である.ATR対話コーパス中の文では,(実際の単語ではなく)上記カテゴリの列を対象とした.文長は平均9.97,最短2,最長49である.また,$\Gtanaka$の規則集合$\Rtanaka$はChomsky標準形ではないので,GLRパーザとの組合せを採用した\footnote{具体的には,東京工業大学田中・徳永研究室で開発・公開されている\MSLR(MorphologicalandSyntacticLR)パーザに支持グラフ抽出ルーチンとgEMアルゴリズムのルーチンを連結した.MSLRパーザは\verb|http://tanaka-www.cs.titech.ac.jp/pub/mslr/|で公開されている.MSLRパーザは形態素解析と構文解析を同時に行なう機能を有するが,今回の実験では構文解析機能のみを使用した.MSLRパーザを含め,実験で用いたプログラムはすべてC言語で実装されている.Cコンパイラはgcc2.8.1を使用した.また,実験で使用した計算機のCPUとOSはそれぞれ\SunUltraSPARC-II296MHzとSolaris2.6である.}.本論文の実験では$\Gtanaka$が与えられた場合の訓練時間を提案手法とI-Oアルゴリズムの間で比較する.ただし,I-Oアルゴリズムにおいては節~\ref{sec:PCFG:IO}で記述したものを用い,そこで参照される規則集合$R$には,全ての終端・非終端記号の組合せから成るChomsky標準形の規則集合$\Rmax$ではなく,$\Gtanaka$の規則集合$\Rtanaka$を用いる点に注意する\footnote{当然,$\Rtanaka$を用いた場合のI-Oアルゴリズムは,その文法制約のため$\Rmax$を用いた場合より高速になる.}.我々は文長$L$を変化させたときにパラメタを一回更新するのに要する計算時間(更新時間と呼ぶ)が変化する様子を比較する.まず,我々はATRコーパス$\corpus$の中で文長$L-1$と$L$の文をグループ化し,各々から無作為に取り出した100文を\$\corpus_L$とする($L=2,4,\ldots26$)\footnote{長さ27以上の176文(全体の1.6\%)はデータ不足のため,実験では考慮しなかった.}.そして,各$\corpus_L$を一つの訓練コーパスとし,各々に対して更新時間を計測する.I-OアルゴリズムはChomsky標準形でしか動作しないので,あらかじめ$\Gtanaka$をChomsky標準形に変換した.その結果860規則が2,308規則(非終端記号数210,終端記号数441)の文法になった.更新時間を計測した結果を図~\ref{graph:1}左に示す.縦軸が更新時間(sec),横軸$L$が使用した訓練コーパス$\corpus_L$を表す.``{\itInside-Outside}''はI-Oアルゴリズムの更新時間,``{\itIOwithpruning}''は\cite{Kita99}で説明されている,I-Oアルゴリズムの外側確率の計算において無駄な計算部分を枝刈りするように改良したものである.これを以下では枝刈り版I-Oアルゴリズムと呼ぶ.``{\itGraphicalEM}''はgEMアルゴリズムの更新時間を示す.また,変化の様子を見やすくするために,図~\ref{graph:1}左の縦軸を拡大,縮小したものをそれぞれ図~\ref{graph:1}中央,図~\ref{graph:1}右に示す.図~\ref{graph:1}中央においてgEMアルゴリズムの更新時間は見にくいため省略した.\begin{figure}[t]\atari(125,63)\caption{(左)Inside-Outsideアルゴリズムとその枝刈り版,および\gEMアルゴリズムにおける\\更新時間(sec)の変化,(中央)縦軸を縮小したもの,(右)縦軸を拡大したもの.}\label{graph:1}\end{figure}図~\ref{graph:1}左のグラフから分かるように,gEMアルゴリズムはI-Oアルゴリズムやその枝刈り版に比べてはるかに高速な計算が行なわれていることが分かる.また,図~\ref{graph:1}中央のグラフから分かるようにI-Oアルゴリズムは理論値どおり$L^3$の曲線を描く.枝刈り版I-Oアルゴリズムは枝刈りした分高速であるものの,仮説駆動型である($L\timesL$の三角行列の全要素を走査する)点は変わらないので,枝刈りが最も効率良く行なわれた場合でも$L^2$を下回ることはない.収束まで数100回の更新を要すること,および再出発法を採用することを考慮すると,$L=20$を越える訓練コーパス\$\corpus_L$に対してI-Oアルゴリズムおよびその枝刈り版を収束するまで動作させるのは現実的ではない.それに対し,提案手法では$L=2,4,\ldots,26$の範囲では$L$に対してほぼ線形に計算できており(図~\ref{graph:1}右),最悪計算量$O(|\Vn|^3L^3)$とは大きな差があることが分かった.これは文法の制約により,WFSTに格納される部分木の数が抑えられたためと考えられる.ATRコーパスにおける文長平均9.97に近い$L=10$ではI-Oアルゴリズムに対しておよそ1,000倍(枝刈り版に対してはおよそ700倍)の速度向上が得られた.\begin{figure}[t]\atari(103,63)\caption{訓練時間全体に占める各過程の処理時間の内訳.(左)再出発なしの場合($h=1$),\\(右)再出発回数$h=10$の場合.}\label{graph:2}\end{figure}良質なパラメタを得る目的で再出発法(節~\ref{sec:GEM:GEM})を採用すると,訓練時間の内訳は\begin{eqnarray*}(\mbox{全体の訓練時間})&=&(\mbox{構文解析時間})+(\mbox{支持グラフ抽出に要する時間})\nonumber\\&&\q+\;(\mbox{gEMアルゴリズム実行時間}),\\(\mbox{gEMアルゴリズム実行時間})&=&(\mbox{更新時間})\times(\mbox{収束までの更新回数})\times(\mbox{再出発回数$h$}).\end{eqnarray*}となる.先に述べた文長毎の訓練コーパス$\corpus_L$($L=2,4,\ldots,26$)を使って,訓練時間の内訳(構文解析時間,支持グラフ抽出時間,gEM実行時間)を計測した.その結果を図~\ref{graph:2}に示す.横軸が$L$,縦軸が処理時間(sec)である.図~\ref{graph:2}(左)は再出発なし$(h=1)$の場合,図~\ref{graph:2}(右)は再出発回数$h=10$の場合である.また,収束までの更新回数はコーパス$\corpus_L$によって異なるため,ここでは100に固定した.構文解析時間(``{\itParsing}''),支持グラフ抽出時間(``{\itSupportgraph}''),gEM実行時間(``{\itGraphicalEM}'')はいずれも文長$L$に対してほぼ線形になっていることが分かる.更に図~\ref{graph:2}(右)より,再出発法を採用した場合は構文解析時間と支持グラフ抽出時間が訓練時間全体に占める割合は非常に小さい.構文解析と支持グラフ抽出は再出発の度に繰り返す必要がないからである.構文解析と支持グラフ抽出をgEMアルゴリズムの前処理と捉えれば,わずかな前処理(図~\ref{graph:2})で大きな速度向上(図~\ref{graph:1})が得られているということができ,構文解析とEM学習を分離したメリットが現れている. \section{PCFGの拡張文法のEM学習} \label{sec:extensions}これまでPCFGに文脈依存性を採り入れたモデル(PCFGの拡張文法と呼ぶ)が数多く提案されているが,Charniakらの疑似確率文脈依存文法(pseudoprobabilisticcontext-sensitivegrammars)\cite{Charniak94b}を除けばEMアルゴリズムを具体的に記述した文献は見当たらない.本節では,提案手法がPCFGの拡張文法に対する多項式オーダのEMアルゴリズムを包含する(提案手法の{\bf特長3})ことを示すため,一例としてKitaらの規則バイグラムモデル\cite{Kita94}を取り上げ,その多項式オーダのEMアルゴリズムを導出する.\subsection{規則バイグラムモデルとそのEMアルゴリズム}\label{sec:extensions:RB}まず,我々はPCFGのときと同様に導出戦略は最左導出に固定する.規則バイグラムモデルでは,節~\ref{sec:PCFG:PCFG}で述べたPCFGの「規則選択は他と独立」という仮定の代わりに,「規則選択は直前の選択のみに依存する」という仮定をおく.従って,規則バイグラムモデルではPCFGでは扱えなかった文脈依存性も若干考慮できる.この仮定の下で適用規則列$\rseq$の出現確率は\begin{equation}P(\rseq)=\theta(r_1\mid\#)\prod_{k=2}^K\theta(r_k\midr_{k-1})\end{equation}と計算される.\#は境界を表すマーカ,$\theta(r\midr')$は各規則$r\inR$に付与されるパラメタである($r'\inR\cup\{\#\}$).各$A\in\Vn$,$r\inR\cup\{\#\}$に対し$\sum_{\zeta:(A\to\zeta)\inR}\theta(A\dto\zeta\midr)=1$が成り立つ.\cite{Kita94}で示された,括弧なしコーパス\$\corpus=\tuple{\win_1,\ldots,\win_N}$に基づく$\theta(r_k|r_{k-1})$の推定式は式~\ref{eq:kita}のとおりである.適用規則列$\rseq$に対して,$\occ(r,r';\rseq)$は\$\rseq$において$r'$が$r$の直後に出現する頻度を表す.定義より明らかに$\sum_{r'\inR}\occ(r,r';\rseq)=\occ(r;\rseq)$が成り立つ.\begin{equation}\textstyle\theta(r_k|r_{k-1}):=\left({\displaystyle\sum_{\ell=1}^N\frac{\sum_{\rseq\in\trees(\win_\ell)}\occ(r_{k-1},r_k;\rseq)}{\displaystyle|\trees(\win_\ell)|}}\right)\left/\left({\displaystyle\sum_{\ell=1}^N\frac{\sum_{\rseq\in\trees(\win_\ell)}\occ(r_{k-1};\rseq)}{\displaystyle|\trees(\win_\ell)|}}\right)\right.\label{eq:kita}\end{equation}ところが式~\ref{eq:update},~\ref{eq:naive-eta3}から類推できるように,EMアルゴリズムの考えに基づく更新式は次のようになる($m=1,2,\ldots$).つまり式~\ref{eq:kita}は相対頻度法,EMアルゴリズムのいずれにもなっていない.\begin{eqnarray}&&\textstyle\theta^{(m+1)}(r_k|r_{k-1}):=\nonumber\\&&\textstyle\q\q\left({\displaystyle\sum_{\ell=1}^N\frac{\sum_{\rseq\in\trees(\win_\ell)}P(\rseq|\theta^{(m)})\occ(r_{k-1},r_k;\rseq)}{P(\win_\ell|\theta^{(m)})}}\right)\left/\left({\displaystyle\sum_{\ell=1}^N\frac{\sum_{\rseq\in\trees(\win_\ell)}P(\rseq|\theta^{(m)})\occ(r_{k-1};\rseq)}{P(\win_\ell|\theta^{(m)})}}\right)\right.\nonumber\\\label{eq:kita:EM}\end{eqnarray}式~\ref{eq:kita:EM}の更新式により(局所)最尤推定は実現されるが,これまで述べてきたように一般に$|\trees(\win)|$は文長$|\win|$に対して指数オーダになるため,式~\ref{eq:kita:EM}は現実時間で計算できない.一方,提案手法に基づき,式~\ref{eq:kita:EM}と等価な規則バイグラムモデルの多項式オーダのEMアルゴリズムを導出することができる.次節でアルゴリズムを記述するが,その前にいくつかの記号を導入する.まず,次のような文$\win$の最左導出列$\rseq$を考える:\begin{equation}S\derivesstar\cdots\rderives{r}\win_{0,d}A\xi\rderives{r''}\win_{0,d}\zeta\xi\derivesstar\cdots\derivesstar\win_{0,d}\zeta'\xi\rderives{r'}\win_{0,d}\win_{d,d'}\xi(=\win_{0,d'}\xi)\derivesstar\win\q.\label{eq:RB-derivation}\end{equation}を考える.式~\ref{eq:RB-derivation}において$r$は$A$を展開する直前に適用された規則,$r'$は導出$A\derivesstar\win_{d,d'}$で用いられた最後の規則である.$r$と$r'$を考慮した,$\win_{d,d'}$を統治する部分木ラベルを$A(d,d'|r,r')$で表す.また,式~\ref{eq:RB-derivation}において$r'$を$\lastrule(A,d,d';\rseq)$で参照し,$r$の次に適用された規則$r''$を$\condrule{A}{\zeta}{r}$で参照する.前節で述べた$\theta(A\dto\zeta|r)$の確率で$\condrule{A}{\zeta}{r}$が適用される.また,$\win$の構文木中の部分木$A(d,d')$を導出するとき最後に使われた規則の集合を\$\lastrule(A,d,d';\win)\defined\bigcup_{\rseq\in\trees(\win)}\lastrule(A,d,d';\rseq)$と定める.\subsection{グラフィカルEMアルゴリズムの適用}\label{sec:extensions:RB-GEM}ここではCYKパーザと組み合わせた場合の規則バイグラムモデルのEM学習法を示す.規則バイグラムモデルを対象にする場合,パーザに新たな変更を加える必要はない.また,gEMアルゴリズムもその汎用性により,対象とする確率値の意味が変わるだけで制御構造に変化はない.従って,我々は支持グラフ抽出ルーチンを変更するだけである.例えば,図~\ref{fig:parse-tree-ichiro-CNF}の$t2$にでは次のような関係$\subtrees_\ell$が得られる.\[\begin{array}{l}\subtrees_\ell(\sym{VP}(1,5\mid\sym{ADV}\dto\sym{急いで},\;\sym{V}\dto\sym{見た}))=\\\q\q\Bigl\{\;\bigl\{\condrule{\sym{VP}}{\sym{PP}\;\sym{V}}{\mbox{\footnotesize\ttADV}\to急いで}\;,\;\sym{PP}(1,4\mid\sym{VP}\dto\sym{PP}\;\sym{V},\;\sym{P}\dto\sym{を}),\;\sym{V}(4,5\mid\sym{P}\dto\sym{を},\;\sym{V}\dto\sym{見た})\bigr\}\;\Bigr\}\end{array}\]節~\ref{sec:GEM:preliminary}で示したPCFGの場合に比べて,部分木ラベル$A(d,d')$が,その導出直前に適用された規則と自身の導出において最後に適用された規則の組(``$\mid$''記号の後ろ)によって細分化されており,この細分化によって文脈依存性が表現される.\begin{figure}[t]\begin{listing}\item\rw{procedure}$\proc{Extract-CYK-RB}()$\rw{begin}\itemi\rw{for}$\ell:=1$\rw{to}$N$\rw{do}\rw{begin}\itemiiInitializeall$\subtrees_\ell(\cdot)$to$\emptyset$andall$\varComp[\cdot,\cdot]$and$\varLast[\cdot]$to$\sym{NO}$;\itemii$\proc{ClearStack}(U)$;\label{list:Extract-CYK-RB:clear-U}\itemii$\proc{Visit-CYK-RB}(\ell,S,0,n_\ell,\#)$;\q\progcomment{\#は境界を表すマーカ.}\label{list:Extract-CYK-RB:call-visit}\itemii\rw{for}$k:=1$\rw{to}$|U|$\rw{do}$\tau_k:=\proc{PopStack}(U)$;\label{list:Extract-CYK-RB:pop:begin}\itemiiPreparesome$\tau_0$;\itemii$\subtrees_\ell(\tau_0):=\bigl\{\{S(0,n_\ell|\#,r)\}\big|r\in\varLast[S(0,n_\ell)]\bigr\}$;\itemii$O_\ell:=\tuple{\tau_0,\tau_1,\tau_2,\ldots,\tau_{|U|}}$\label{list:Extract-CYK-RB:pop:end}\itemi\rw{end}\item\rw{end}.\end{listing}\caption{規則バイグラム用支持グラフ抽出ルーチン$\proc{Extract-CYK-RB}$}\label{alg:extract-CYK-RB}\end{figure}規則バイグラム用の支持グラフ抽出ルーチン\$\proc{Extract-CYK-RB}$とそのサブルーチン$\proc{Visit-CYK-RB}$をそれぞれ図~\ref{alg:extract-CYK-RB},図~\ref{alg:visit-CYK-RB}に示す.$\proc{Visit-CYK-RB}(\ell,r,A,d,d')$は$\win_\ell$の構文木中の部分木$A(d,d')$を訪問し,大域的配列変数$\varLast[A(d,d')]$に\$\lastrule(A,d,d';\win_\ell)$を格納する再帰手続きである.後はgEMアルゴリズム(手続き$\proc{Graphical-EM}$,$\proc{Get-Inside-Probs}$,$\proc{Get-Expectations}$)において$A\dto\zeta$,$\theta(A\dto\zeta)$,$\varON[A\dto\zeta]$を各々$\condrule{A}{\zeta}{r}$,$\theta(A\dto\zeta|r)$,$\varON[A\dto\zeta|r]$といった規則バイグラム用の確率値,期待値に書き換え,$\proc{Graphical-EM}$行~\ref{list:gEM:update:begin}--\ref{list:gEM:update:end}と$\proc{Get-Expectations}$行~\ref{list:get-exp:init:eta}の\rw{foreach}ループに``\rw{foreach}$r\inR$''ループを重ねるだけでよい.\begin{figure}[t]\begin{listing}\item\rw{procedure}$\proc{Visit-CYK-RB}(\ell,A,d,d',r)$\rw{begin}\itemi$\varComp[A(d,d'),r]:={\ttYES}$;\label{list:visit-RB:mark}\itemi\rw{if}$d'=d+1$and$A(d,d+1)@w_{d,d+1}^{(\ell)}\inT_{d,d+1}^{(\ell)}$\rw{then}\rw{begin}\itemiiiAddaset$\{\condrule{A}{w_{d,d+1}^{(\ell)}}{r}\}$to$\subtrees_\ell(A(d,d+1|r,A\dtow_{d,d+1}^{(\ell)}))$;\label{list:visit-RB:diagonal:begin}\label{list:visit-RB:add1}\itemiii$\varLast[A(d,d')]:=\{A\dtow_{d,d+1}^{(\ell)}\}$\label{list:visit-RB:diagonal:end}\itemii\rw{end}\itemi\rw{else}\rw{begin}\itemii$\varLast[A(d,d')]:=\emptyset$;\itemii\rw{foreach}$A(d,d')@B(d,d'')C(d'',d')\inT_{d,d'}^{(\ell)}$\rw{do}\rw{begin}\label{list:visit-RB:foreachABC}\label{list:visit-RB:foreachABC:begin}\itemiii\rw{if}$\varComp[B(d,d''),A\dtoBC]={\ttNO}$\rw{then}$\proc{Visit-CYK-RB}(\ell,B,d,d'',A\dtoBC)$;\label{list:visit-RB:recursion:begin}\label{list:visit-RB:visit-B}\itemiii\rw{foreach}$r''\in\varLast[B(d,d'')]$\rw{do}\rw{begin}\label{list:visit-RB:visit-C:begin}\itemiiii\rw{if}$\varComp[C(d'',d'),r'']={\ttNO}$\rw{then}$\proc{Visit-CYK-RB}(\ell,C,d'',d',r'')$;\label{list:visit-RB:recursion:end}\label{list:visit-RB:add2}\itemiiii\rw{foreach}$r'\in\varLast[C(d'',d')]$\rw{do}\rw{begin}\itemiiiiiAddaset$\bigl\{\condrule{A}{BC}{r},\;B(d,d''|A\dtoBC,r''),\;C(d'',d'|r'',r')\bigr\}$\itemiiiiiiito$\subtrees_\ell(A(d,d'|r,r'))$;\itemiiiii$\proc{PushStack}(A(d,d'|r,r'),U)$\label{list:visit-RB:push}\itemiiii\rw{end}\itemiii\rw{end};\q\progcomment{\rw{foreach}$r''$}\label{list:visit-RB:visit-C:end}\itemiii$\varLast[A(d,d')]:=\varLast[A(d,d')]\cup\varLast[C(d'',d')]$\itemii\rw{end}\q\progcomment{\rw{foreach}$A@BC$}\label{list:visit-RB:foreachABC:end}\itemi\rw{end}\q\progcomment{\rw{else}}\item\rw{end}.\end{listing}\caption{規則バイグラム用支持グラフ抽出ルーチンのサブルーチン$\proc{Visit-CYK-RB}$.\\記述短縮のため,ここでは異なる引数$r$(直前の適用規則)の呼び出しについて$\varLast[A(d,d')]$\\の計算を重複して行なうものを示す.}\label{alg:visit-CYK-RB}\end{figure}次に,規則バイグラム用EMアルゴリズムの最悪計算量を評価する.$\Rmax$を考えたとき,最悪計算量は$O(|\Vn|^{12}L^3N)$となる\footnote{まず,$A\in\Vn$,$0\led<d'\leL$かつ$d+2\led'$なる$A$,$d$,$d'$および,$r,r'\inR$について\[\subtrees_\ell(A(d,d'|r,r'))=\left\{\bigl\{\condrule{A}{BC}{r},\;B(d,d''|A\dtoBC,r''),\;C(d'',d'|r'',r')\bigr\}\;\left|\begin{array}{l}B,C\in\Vn,\;d<d''<d',\\r''\in\lastrule(B,d,d'')\subseteqR\end{array}\right.\right\}\]となるような$A(d,d'|r,r')$が$O_\ell$中に出現する($\ell=1\ldotsN$).$\left|\subtrees_\ell(\tau)\right|=O(|\Vn|^2L|R|)$であるのは明らかである.また,$O_\ell$は\$\big\{A(d,d'|r,r')\;\big|\;A\in\Vn,\;0\led<d'\leL,\;r,r'\inR\big\}$の部分集合を並べたものであるから,$|O_\ell|=O(|\Vn|L^2|R|^2)$となる.定義より$\mu_{\rmnum}=O(|\Vn|^3L^3|R|^3)$,$\mu_{\rmmaxsize}=O(1)$であり,さらに最悪の場合$R=\Rmax$を考えるとgEMアルゴリズムの計算量は\$O(|\Vn|^3L^3|\Rmax|^3N)=O(|\Vn|^{12}L^3N)$となる.}.これは非常に大きなオーダであるが,文長$L$に対して3乗のオーダである点はI-Oアルゴリズムと変わらない.また,節~\ref{sec:experiment}の実験結果はPCFGに対する現実の計算時間と最悪時の計算時間$O(|\Vn|^3L^3)$に大きな差があることを示しており,これは規則バイグラムモデルでも成り立つと考えられる.実際森らは,節~\ref{sec:experiment}の実験で用いたCFG$\Gtanaka$に対し本節で述べた方法を適用した結果,規則バイグラムのEM学習におけるパラメタ更新時間がPCFG(図~\ref{graph:1}右)の1.5倍程度で収まることを報告している\cite{Mori00}. \section{関連研究} \label{sec:related-work}まず,Magermanらの${\calP}$earl\cite{Magerman91}およびその後継である${\calP}$icky\cite{Magerman92},またStolckeの確率的Earleyパーザ\cite{Stolcke95}をはじめ,確率的パーザが多く提案されている.しかし,それらの多くは文法構造$G$とパラメタ$\theta$が与えられていることを前提としており,Stolckeを除けばPCFG(もしくはその拡張文法)のEM学習について具体的に記述しているものは少ない.Chomsky標準形でないPCFGの訓練法としては,Kupiecの方法~\cite{Kupiec92}と先述のStolckeの確率的Earleyパーザによる訓練が挙げられる.Kupiecの方法はPCFGを再帰遷移ネットワークと捉え,拡張したtrellis図に基づき訓練を行なうものである.しかし,仮説駆動型である点はI-Oアルゴリズムと変わらない.また,提案手法で用いるWFSTは,CFGに基づく構文解析にとって本質的なデータ構造であることから,本手法はtrellis図に基づく\Kupiecの方法よりも簡潔で理解しやすいものと考える.一方,$\varepsilon$規則やサイクル$A\derivesplusA$が存在しない\PCFGに対して,Stolckeの方法は我々の枠組でEarleyパーザと\gEMアルゴリズムを組み合わせた場合と等価である.すなわち,このようなPCFGに対して我々の枠組はStolckeの方法の一般化になっている.Stolckeの方法との対応づけを付録~\ref{sec:Stolcke}に示す.また,StolckeはPCFGの拡張文法については言及していない.$\varepsilon$規則やサイクル$A\derivesplusA$をもつPCFGに対する訓練法を考えるのは今後の課題であるが,提案手法は現段階においても充分実用的である.PerairaとSchabesは部分もしくは完全括弧コーパスからPCFGの文法構造を学習する方法を提案し,学習された文法構造とパラメタの質が括弧なしコーパスからの学習に比べ大きく向上することを実験的に示した~\cite{Pereira92}.我々の枠組でも,括弧づけされた文に対し,括弧の制約を満たす構文木のみを出力する機能をもつパーザを用意すれば\footnote{節~\ref{sec:experiment}で用いたMSLRパーザはそのような機能を備えている.},支持グラフ抽出ルーチン,gEMアルゴリズムに何の変更も加えることなく括弧つきコーパスからの訓練が可能になる.変更の必要がないのは,我々が最終的な構文木情報(すなわちWFST)のみを参照するためである.また,完全に括弧づけされた訓練コーパスに対し\gEMアルゴリズムの計算量はPereiraとSchabesの方法と同じオーダ$O(|\Vn|^3LN)$であることも容易に分かる\footnote{PereiraとSchabesは$O(L)$としか明記していないが,彼らが提示したアルゴリズムより$\Rmax(\Vn,\Vt)$に対して\$O(|\Vn|^3LN)$となることは明らかである.また,gEMアルゴリズムで$O(|\Vn|^3LN)$であることは次のように示される:まず,$\win_\ell$に与えられた括弧集合$\brackets(\win_\ell)$のサイズは(PereiraとSchabesも述べているように)$O(|\win_\ell|)$である.与えられた$\brackets(\win_\ell)$と一致しない部分木は最終的な構文木にはならない(すなわち$O_\ell$の要素にはならない)ので,$\forall\ell=1\ldotsN$について$|O_\ell|=\left|\{A(d,d')\midA\in\Vn\;\mbox{かつ}\;(d,d')\in\brackets(\win_\ell)\}\right|=O(|\Vn|\cdot|\win_\ell|)=O(|\Vn|L)$である.また,式~\ref{eq:possible-psi}において,$\brackets(\win_\ell)$に一致する$d'$は高々1つであるから,すべての$\ell=1\ldotsN$について$|\subtrees_\ell(A(d,d'))|=O(|\Vn|^2)$である.従って,式~\ref{eq:xi-num}より$\mu_{\rmnum}=O(|\Vn|^3L)$である.前の議論と同様に$\mu_{\rmmaxsize}=O(1)$であるから,gEMアルゴリズムにおいて一回のパラメタ更新に要する計算量は\$O(|\Vn|^3LN)$である.}.本論文の手法は文法構造(CFG)が与えられていることを前提としているが,人間が精密な文法を記述するのに多くの手間を費やすことを考えると,文法構造の自動学習は重要な課題である.先述したように,LariとYoungは非終端記号集合$\Vn$と終端記号集合$\Vt$をあらかじめ定めた上で先述した$\Rmax(\Vn,\Vt)$を考え,I-Oアルゴリズムを走らせ,推定後にパラメタ値が小さい規則を除去する方法を提案した~\cite{Lari90}.また,先述したPereira\&Schabesの学習法~\cite{Pereira92}も括弧づけコーパスからの文法学習と捉えることができる.しかし,一般にEMアルゴリズムは局所的な最尤推定値しか保証しないため,学習される文法の質はパラメタの初期値に大きく依存し,文法学習を困難にしている.それに対し,HMMでは逐次状態分割(SSS)法~\cite{Takami93}やモデル選択規準に基づくHMMの構造探索法~\cite{Ikeda95}のように,パラメタ訓練と構造探索を分離し,これらを交互に繰り返して良質なモデル構造を得る方法が提案されている.どちらの手法もパラメタ訓練ステップではモデル(文法)構造が与えられるので,上記手法をPCFGの構造学習に一般化したとき\footnote{もちろん,そのときはパラメタ訓練ステップが更に構文解析ステップとgEMアルゴリズムステップに分離される.},本論文で示した高速化が有効に働くものと期待する.本論文で示したgEMアルゴリズムは最小モデル意味論の確率的一般化である分布意味論~\cite{Sato95}に基づく確率的な論理プログラミング言語PRISM~\cite{Sato97}における高速EM学習のために提案されたものである~\cite{Kameya00}.そこではOLDT探索~\cite{Tamaki86}とgEMアルゴリズムを連結するが,本論文の手法はPCFGおよびその拡張文法用に\OLDTをパーザに置き換えて特殊化を図ったものである.OLDT探索を構文解析に用いることも可能だが,OLDT探索はトップダウン(仮説駆動)探索であるので,LR表へのコンパイル・ボトムアップ探索を利用するGLRパーザの方が現実文法ではより高速である.得られる支持グラフはまったく同じなのでgEMアルゴリズムの計算時間は変わらない. \section{まとめ} \label{sec:conclusion}文法構造が与えられていることを前提に,確率文脈自由文法(PCFG)を括弧なしコーパスから訓練するための一般的な枠組を提案し,従来法であるInside-Outsideアルゴリズムの一般化と(現実文法における)高速化を同時に実現した.提案手法ではPCFGの訓練過程を構文解析とEM学習を分離し,パーザが記録するWFSTから訓練文と関係のある部分木構造のみを抽出してからEM学習することにより,仮説駆動型であった\Inside-Outsideアルゴリズムの計算効率上の欠点を克服した.また,従来知られてきた構文解析の高速化技術がPCFGの訓練にそのまま反映される.更に,提案手法を実装し,ATR対話コーパスにおける訓練時間を計測したところ,Inside-Outsideアルゴリズムに比べコーパス平均文長においておよそ1,000倍の速度向上が得られることを確認した.また,提案手法の一般性に基づき,文脈依存性を考慮したPCFGの拡張文法(北らの規則バイグラムモデル)の多項式オーダのEMアルゴリズムを導出した.加えて,確率EarleyパーザによるStolckeのEM学習法やPereiraとSchabesらによる部分括弧つきコーパスからの学習法も提案手法の枠組で扱えることを示し,提案手法がCFGに基づく確率言語モデルの訓練手法を広くカバーしていることを明らかにした.今後の課題としては,PCFGの拡張文法を用いた実験や文法構造の学習,また支持グラフとgEMアルゴリズムの一般性を利用して,Inuiらによって再定式化された確率GLRモデル~\cite{Inui98}の効率的なEMアルゴリズムの導出を試みるのも興味深い.\subsection*{謝辞}実験に用いたATRコーパス,日本語文法の改訂版は,東京工業大学\田中・徳永研究室のご厚意により提供頂きました.記して感謝致します.また,同研究室白井清昭助手には上記コーパス・文法に関する情報やテキスト処理プログラムの提供,文献紹介など貴重なご助力を頂きました.重ねて感謝申し上げます.また,東京工業大学佐藤泰介研究室の上田展久氏には文献紹介を含め,数多くの有益なコメントを頂きました.感謝致します.なお,本研究の一部は平成11年度科学研究費補助金特定領域研究(A)「発見科学」の補助を受けています.\bibliographystyle{jnlpbbl}\bibliography{draft}\appendix \section{グラフィカルEMアルゴリズムの正当化} \label{sec:GEM-validity}本節ではFujisakiらの方法,I-Oアルゴリズム,gEMアルゴリズムに同じ初期パラメタを与えたとき,収束条件を同一にすればパラメタが同一の値に収束することを示す.これによりgEMアルゴリズムが正当化される.具体的にはgEMアルゴリズムが計算する$\eta[A\dto\zeta]$,すなわち規則$(A\dto\zeta)\inR$の期待適用回数がFujisakiらの方法,およびI-Oアルゴリズムで得られるものと一致することを示せばよい.また,節~\ref{sec:PCFG:IO-problems}で見たように,Fujisakiらの方法とI-Oアルゴリズムが計算する$\eta[A\dto\zeta]$は一致するので,ここではFujisakiらの方法とgEMアルゴリズムで計算される\$\eta[A\dto\zeta]$を調べれば十分である.はじめに,我々はgEMアルゴリズムの計算は支持グラフの1つ目の特徴である支持グラフ$\sg_\ell$の再帰的巡回を考える.そして,以下では$\tau$の部分支持グラフの開始(終了)ノードを「$\tau$の開始(終了)ノード」と呼ぶことにする.節~\ref{sec:GEM:support-graph}で述べたように,我々は巡回中に基本ノードに付与されている規則を集めることにする.まず,$\sg_\ell$中に出現する$A\dto\zeta$が付与された基本ノードの一つ$v$に注目する.$v$は$\tau$の部分支持グラフに含まれているとし,$v$が属する局所パスを$E$とおく.その状況を図~\ref{fig:v-in-sg}に示す.そして,$S(0,n_\ell)$の開始ノードから出発して$v$を通過するような再帰的巡回を全通り行ない,そこで集められた規則列の集合を$\trees(v,\win_\ell)$とおく\(明らかに$\trees(v,\win_\ell)\subseteq\trees(\win_\ell)$である).\begin{figure}[b]\atari(56,48)\caption{支持グラフ$\sg_\ell$に出現する$A\dto\zeta$が付与された基本ノード$v$.}\label{fig:v-in-sg}\end{figure}$\tau$の開始ノードから$E$に沿って$\tau$の終了ノードに至る巡回によって得られる部分規則列を$\rseq_1$とおく.また$O_\ell$の先頭である$S(0,n_\ell)$の開始ノードから出発し,$\tau$が付与された中間ノード$u$(図~\ref{fig:v-in-sg})に至る巡回,および$u$から$S(0,n_\ell)$の終了ノードに至る巡回によって得られた部分規則列をそれぞれ$\rseq_0$,$\rseq_2$とおく.そして,このような$\rseq_1$すべてから成る集合を\$\treesin(v,\win_\ell)$とおき,可能な$\rseq_0,\rseq_2$の組$\tuple{\rseq_0,\rseq_2}$から成る集合を$\treesout(v,\win_\ell)$とする.すると,先に定義した$\trees(v,\win_\ell)$は\$\treesin(v,\win_\ell)$と$\treesout(v,\win_\ell)$の直積と同一視できる.以上の定義と,PCFGにおける規則適用に関する独立性の仮定より,\begin{eqnarray*}\textstyle\sum_{\rseq'\in\trees(v,\win_\ell)}P(\rseq')&=&\textstyle\sum_{\tuple{\rseq_0,\rseq_1,\rseq_2}\in\trees(v,\win_\ell)}P(\rseq_0,\rseq_1,\rseq_2)\\&=&\textstyle\sum_{\rseq_1\in\treesin(v,\win_\ell)}\sum_{\tuple{\rseq_0,\rseq_2}\in\treesout(v,\win_\ell)}P(\rseq_1)P(\rseq_0,\rseq_2)\\&=&\textstyle\left(\sum_{\rseq_1\in\treesin(v,\win_\ell)}P(\rseq_1)\right)\left(\sum_{\tuple{\rseq_0,\rseq_2}\in\treesout(v,\win_\ell)}P(\rseq_0,\rseq_2)\right)\end{eqnarray*}が成り立つ.手続き$\proc{Get-Inside-Probs}$における$\varP$と\$\varR$の計算を再帰的に追えば,手続き終了時に\$\varR[\ell,\tau,E]=\sum_{\rseq_1\in\treesin(v,\win_\ell)}P(\rseq_1)$となることは明らか.また,手続き$\proc{Get-Expectations}$の$\varQ$の計算を追えば,$\varQ[\ell,\tau]=\sum_{\tuple{\rseq_0,\rseq_2}\in\treesout(v,\win_\ell)}P(\rseq_0,\rseq_2)$であることが分かる.よって\$\varQ[\ell,\tau]\cdot\varR[\ell,\tau,E]=\sum_{\rseq'\in\trees(v,\win_\ell)}P(\rseq')$となる.これより$\proc{Get-Expectations}$行~\ref{list:get-exp:updateON}で$\varON[A\dto\zeta]$に足し込まれる値は\$\frac{1}{P(\win_\ell)}\sum_{\rseq'\in\trees(v,\win_\ell)}P(\rseq')$に等しい.$A\dto\zeta$が付与された他の基本ノードについても同じ作業が行なわれ,さらにこれを$\ell=1\ldotsN$で繰り返すので,最終的に\$\varON[A\dto\zeta]$は次のように計算される:\begin{equation}\varON[A\dto\zeta]=\sum_{\ell=1}^N\frac{1}{P(\win_\ell)}\sum_{v:\;A\to\zeta\;{\rmis\;attached}}\;\sum_{\rseq'\in\trees(v,\win_\ell)}P(\rseq')\;.\label{eq:naive-eta4}\end{equation}ところで,$S(0,n_\ell)$の開始ノードから出発する一つの再帰的巡回を考え,そこで集められた規則列を$\rseq$とする.そのとき,この巡回において$A\dto\zeta$が付与された基本ノードを通過する回数は$\occ(A\dto\zeta,\rseq)$である.従ってこの$\rseq\in\trees(\win_\ell)$について,和\$\sum_{v:\;A\to\zeta\;{\rmis\;attached}}\;\sum_{\rseq'\in\trees(v,\win_\ell)}$では$\rseq$が$\occ(A\dto\zeta,\rseq)$回重複して数え上げられている.よって式~\ref{eq:naive-eta4}はFujisakiらの計算式(式~\ref{eq:Fujisaki-eta})と同値になる.以上と本節冒頭に述べた注意より,Fujisakiらの方法,I-Oアルゴリズム,gEMアルゴリズムに同じ初期パラメタを与えたとき,収束条件を同一にすればパラメタは同じ値に収束する. \section{Stolckeの方法との対応} \label{sec:Stolcke}本節ではStolckeが提案した確率的Earleyパーザを用いるPCFGの訓練法~\cite{Stolcke95}と提案手法においてEarleyパーザとgEMアルゴリズムを組み合わせた場合を簡単に対応づける.はじめに確率的Earleyパーザを簡単に記述する\footnote{確率的Earleyパーザの記述は基本的にStolckeの記法に従うが,本論文の記法に合わせた箇所もある.また,用語は\cite{Tanaka88}のものを用いる場合がある.}.\subsection{確率的Earleyパーザ}Earleyパーザは入力文$\win_\ell$の各単語位置をアイテム集合(Earleyチャート)$I_\ell$に基づいて構文解析を行なう.各アイテムは``$\es{d'}{d}{A\dto\zeta.\xi}$''の形をしており,(i)現在のポインタの位置が$d'$($\win_{0,d'}^{(\ell)}=w_1^{(\ell)}\cdotsw_{d'}^{(\ell)}$が解析済み)であること,(ii)非終端記号$A$が統治する部分単語列が位置$d$から始まること,(iii)$A$の展開は規則$A\dto\zeta\xi$を用いて進められ,ドットの場所まで展開されていること,を表す.確率的Earleyパーザでは,Earleyパーザに確率的な拡張が施されており,各アイテムに内側確率$\ip{d'}{d}{A\dto\zeta.\xi}$が式~\ref{eq:pitem}のように付与される(式中の$\beta$は$\ip{d'}{d}{A\dto\zeta.\xi}$の略記)\footnote{\cite{Stolcke95}では内側確率の他に前向き確率と呼ばれる確率値を各アイテムに付与するが,EM学習とは無関係なのでここでは省略する.その他にもEM学習と無関係な記述は省略されている.}.内側確率$\ip{d'}{d}{A\dto\zeta.\xi}$はアイテム$\es{d}{d}{A\dto.\zeta\xi}$から始まり,$\es{d'}{d}{A\dto\zeta.\xi}$に至る経路の確率和である.\begin{equation}\esp{d'}{d}{A\dto\zeta.\xi}{\beta}\label{eq:pitem}\end{equation}内側確率は次の3つの操作に従って計算される.\begin{description}\item{\bf$\diamond$Prediction:}アイテム$\esp{d'}{d}{A\dto\zeta.B\xi}{\beta}$が存在し,かつ$(B\dto\nu)\inR$であるとき,アイテム$\esp{d'}{d'}{B\dto.\nu}{\beta'}$が$I_\ell$中に存在しなければ,そのアイテムを$I_\ell$に追加する.ただし,$\beta'=\theta(B\dto\nu)$である.もし存在すれば何も行なわない.\item{\bf$\diamond$Scanning:}アイテム$\esp{(d'-1)}{d}{A\dto\zeta.w_{d'}^{(\ell)}\xi}{\beta}$が$I_\ell$中に存在するとき,$\esp{d'}{d}{A\dto\zetaw_{d'}^{(\ell)}.\xi}{\beta'}$が$I_\ell$に存在しなければ,これを$I_\ell$に追加する.ただし\$\beta'=\beta$である.\item{\bf$\diamond$Completion:}$d''<d'$なる\footnote{$d''\led'$と等号が入らないのは,我々が$\varepsilon$規則をもたず$A\derivesplusA$とならない文法構造(CFG)を仮定しているためである.Stolckeは両者を許しているので,彼の記述では等号が入っている.}2つのアイテム$\esp{d'}{d''}{B\dto\nu.}{\beta''}$および$\esp{d''}{d}{A\dto\zeta.B\xi}{\beta}$が$I_\ell$に存在するとき,$\esp{d'}{d}{A\dto\zetaB.\xi}{\beta'}$が$I_\ell$に存在しなければ,これを$I_\ell$に追加する.ただし,$\beta'=\beta\cdot\beta''$である.存在しているときは\$\beta'\;\incby\;\beta\cdot\beta''$とする.\end{description}EM学習においては更にアイテム$\es{d'}{d}{A\dto\zeta.\xi}$の外側確率$\op{d'}{d}{A\dto\zeta.\xi}$を考慮する.この確率は(i)初期アイテム$\es{0}{0}{\dto.S}$から出発し,(ii)$\win_{0,d}^{(\ell)}$を生成し,(iii)ある$\nu$について${}_{d}A\dto.\nu\xi$を通り,(iv)${}_{d'}A\dto\nu.\xi$から出発して\$\win_{d',n_\ell}^{(\ell)}$を生成し,(v)最終アイテム$\es{n_\ell}{0}{\toS.}$で終わるような経路の確率和である.\begin{description}\item{\bf$\diamond$Reversecompletion:}$I_\ell$中の\$\esp{d'}{d''}{B\dto\nu.}{\alpha'',\beta''}$と$\esp{d''}{d}{A\dto\zeta.B\xi}{\alpha',\alpha'}$の組すべてに対し,$\esp{d'}{d}{A\dto\zetaB.\xi}{\alpha,\beta}$を見つけ,$\alpha'\;\incby\;\beta''\cdot\alpha$と\$\alpha''\;\incby\;\beta'\cdot\alpha$を行う.\end{description}ただし,アイテム$\esp{n_\ell}{0}{S\dto\nu.}{\alpha}$のみ\$\alpha:=1$と初期化し,それ以外は$\alpha:=0$としておく.すべての内側確率と外側確率を計算し終ったら,規則$A\dto\zeta$の期待適用回数を次のように求め,後はI-Oアルゴリズムの式~\ref{eq:update}と同様にパラメタを更新する.\begin{equation}\varON[A\dto\zeta]=\sum_{\ell=1}^N\frac{1}{\ip{n_\ell}{0}{\toS.}}\sum_{(d:{}_d{A\to.\zeta})\inI_\ell}\op{d}{d}{A\dto.\zeta}\ip{d}{d}{A\dto.\zeta}\label{eq:update-Stolcke}\end{equation}\subsection{対応する支持グラフ}\label{sec:Stolcke:support-graph}図~\ref{alg:learn-PCFG}のメインルーチン$\proc{Learn-PCFG}$における支持グラフ抽出ルーチン$\proc{Extract-CYK}$をEarleyパーザ用の支持グラフ抽出ルーチン$\proc{Extract-Earley}$(図~\ref{alg:extract-Earley})に置き換える.そのサブルーチン$\proc{Visit-Earley}$を図~\ref{alg:visit-Earley}に示す.gEMアルゴリズムは汎用であるため,手続きを特に変更する必要はない.$\proc{Extract-Earley}$はEarleyパーザの構文木出力ルーチンに基づいて記述されており,支持グラフ\$\sg_\ell=\tuple{O_\ell,\subtrees_\ell}$を生成する.$\subtrees_\ell$は次のような形をしている.\begin{eqnarray}\subtrees_\ell(\es{d}{d}{B\dto.\nu})&=&\bigl\{\{B\dto\nu\}\bigr\}\label{eq:subtrees-earley:1}\\\subtrees_\ell(\es{d'}{d}{A\dto\zetaw_{d'}^{(\ell)}.\xi})&=&\bigl\{\{\es{(d'-1)}{d}{A\dto\zeta.w_{d'}^{(\ell)}\xi}\}\bigr\}\label{eq:subtrees-earley:2}\\\subtrees_\ell(\es{d'}{d}{A\dto\zetaB.\xi})&=&\Bigl\{\bigl\{(\es{d''}{d}{A\dto\zeta.B\xi}),\;(\es{d'}{d''}{B\dto\nu.})\bigr\}\nonumber\\&&\q\q\q\q\q\Big|\;d\led''<d',(\es{d'}{d''}{B\to\nu.})\inI_\ell\Bigr\}\label{eq:subtrees-earley:3}\end{eqnarray}\begin{figure}[b]\begin{listing}\item\rw{procedure}$\proc{Extract-Earley}()$\rw{begin}\itemi\rw{for}$\ell:=1$\rw{to}$N$\rw{do}\itemiiInitializeall$\subtrees_\ell(\cdot)$to$\emptyset$andall$\varComp[\cdot]$to$\sym{NO}$;\itemii$\proc{ClearStack}(U)$;\itemii$\proc{Visit-Earley}(\ell,\es{n_\ell}{0}{\toS.})$;\itemii\rw{for}$k:=1$to$|U|$\rw{do}$\tau_k:=\proc{PopStack}(U)$;\itemii$O_\ell:=\tuple{\tau_1,\tau_2,\ldots,\tau_{|U|}}$\itemi\rw{end}\item\rw{end}.\end{listing}\caption{Earleyパーザ用の支持グラフ抽出ルーチン$\proc{Extract-Earley}()$.}\label{alg:extract-Earley}\end{figure}式~\ref{eq:subtrees-earley:1}の部分支持グラフに対するgEMアルゴリズムの内側確率の計算が確率的EarleyパーザのPrediction操作に対応する.同様に式~\ref{eq:subtrees-earley:2}に対するgEMアルゴリズムの内側確率計算がScanning操作に対応する.さらに,式~\ref{eq:subtrees-earley:3}に対するgEMアルゴリズムの内側確率計算がCompletionに,外側確率計算がReversecompletion操作に各々対応する.そして,式~\ref{eq:subtrees-earley:1}の部分支持グラフでの期待値計算が式~\ref{eq:update-Stolcke}に対応する.この場合のgEMアルゴリズムの計算量としては,式~\ref{eq:subtrees-earley:3}の形の$\subtrees_\ell$をもつ部分支持グラフに対する部分が効いてくる.Chomsky標準形を満たす文法に対しては,このような部分支持グラフのノード数は可能な規則および単語位置\$d$,$d'$,$d''$の組合せ数$O(|R|L^3)$となる($R$は規則集合,$L$はコーパス中の最大文長).$R=\Rmax$のときgEMアルゴリズムの最悪計算量はStolckeの確率的Earleyパーザのものと同じく$O(|\Vn|^3L^3)$となる.また,Chomsky標準形を満たさない場合を考え,規則右辺の最大記号数を\$m$とおく.提案手法において,式~\ref{eq:parent-children}のような部分木の親子対を構成要素とするWFSTをもつパーザ(GLRなど)を用いた場合の計算量は$O(L^{m+1})$となるが,Earleyパーザを用いた場合の計算量は\Stolckeの確率的Earleyパーザと同じく,$m$によらず$O(L^3)$になる.ただ,GLRはLR表への事前コンパイル・ボトムアップ計算等の好ましい性質を持っており,対象とする文法の特徴に応じてパーザを使い分けることが重要と思われる.\begin{figure}[h]\begin{listing}\item\rw{procedure}$\proc{Visit-Earley}(\ell,\es{d'}{d}{A\dto\zeta.\xi})$\rw{begin}\itemiPut$\tau=(\es{d'}{d}{A\dto\zeta.\xi})$\itemi$\varComp[\tau]:={\ttYES}$;\itemi\rw{if}$\zeta=\varepsilon$and$d'=d$\rw{then}\q\progcomment{$\es{d}{d}{A\dto.\xi}$(Prediction)}\itemii$\subtrees_\ell(\tau):=\bigl\{\{A\dto\xi\}\bigr\}$\itemi\rw{else}\rw{if}$\zeta=\zeta'w_{d'}^{(\ell)}$\rw{then}\rw{begin}\q\progcomment{$\es{d'}{d}{A\dto\zeta'w_{d'}^{(\ell)}.\xi}$(Scanning)}\itemiii$\subtrees_\ell(\tau):=\bigl\{\{\es{(d'-1)}{d}{A\dto\zeta'.w_{d'}^{(\ell)}\xi}\}\bigr\}$;\itemiii\rw{if}$\varComp[\es{(d'-1)}{d}{A\dto\zeta'.w_{d'}^{(\ell)}\xi}]={\ttNO}$\rw{then}$\proc{Visit-Earley}(\ell,\es{(d'-1)}{d}{A\dto\zeta'.w_{d'}^{(\ell)}\xi})$\itemii\rw{end}\itemi\rw{else}\rw{begin}\itemiiPut$\zeta=\zeta'B$;\q\progcomment{$B$は非終端記号;$\es{d'}{d}{A\dto\zeta'B.\xi}$(Completion)}\itemii\rw{foreach}$d''$suchthat$d\led''<d'$and$(\es{d''}{d}{A\dto\zeta'.B\xi}),(\es{d'}{d''}{B\dto\nu.})\inI_\ell$\rw{do}\rw{begin}\itemiiiAddaset$\bigl\{(\es{d''}{d}{A\dto\zeta'.B\xi}),(\es{d'}{d''}{B\dto\nu.})\bigr\}$to$\subtrees_\ell(\tau)$;\itemiii\rw{if}$\varComp[\es{d''}{d}{A\dto\zeta'.B\xi}]={\ttNO}$\rw{then}$\proc{Visit-Earley}(\ell,\es{d''}{d}{A\dto\zeta'.B\xi})$;\itemiii\rw{if}$\varComp[\es{d'}{d''}{B\dto\nu.}]={\ttNO}$\rw{then}$\proc{Visit-Earley}(\ell,\es{d'}{d''}{B\dto\nu.})$\itemii\rw{end}\itemi\rw{end};\itemi$\proc{PushStack}(\tau,U)$\item\rw{end}.\end{listing}\caption{$\proc{Extract-Earley}()$のサブルーチン$\proc{Visit-Earley}$.}\label{alg:visit-Earley}\end{figure}}\newpage\begin{biography}\biotitle{略歴}\bioauthor{亀谷由隆}{1995年東京工業大学工学部情報工学科卒業.1997年同大学大学院情報理工学研究科修士課程修了.2000年9月同研究科博士後期課程修了.博士(工学).同研究科技術補佐員を経て,現在同研究科リサーチアソシエイト.論理プログラミングに基づく確率推論システム研究に従事.人工知能学会会員.}\bioauthor{森高志}{1999年東京工業大学工学部情報工学科卒業.1999年同大学大学院情報理工学研究科修士課程入学,現在在学中.}\bioauthor{佐藤泰介}{1973年東京工業大学工学部電子物理学科卒業.1975年同大学大学院修士課程修了.工学博士.同年,電子技術総合研究所入所.以来,人工知能の研究に従事.1995年以来,東京工業大学大学院情報理工学研究科教授.人工知能学会,情報処理学会,EATCS各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V09N03-07
\section{序論} 近年,テキスト自動要約の研究が活発化するとともに,要約の評価方法が研究分野内の重要な検討課題の一つとして認識されてきている.これまで提案されてきた要約の評価方法は,内的な(intrinsic)評価と外的な(extrinsic)評価の2種類に分けることができる\cite{Sparck-Jones:1996}.内的な評価とは,システムの出力した要約そのものを,主に内容と読みやすさの2つの側面から評価する方法である.一方,外的な評価とは,要約を利用して人間がタスクを行う場合の,タスクの達成率が間接的に要約の評価となるという考え方に基づいて評価を行う方法である.本研究では,近年活発にその評価方法が議論され,改良が試みられている内的な評価,特に内容に関する評価方法に焦点を当てる.これまでの要約の内容に関する評価は,人手で作成した抜粋と要約システムの出力との一致の度合を,F-measure等の尺度を用いて測るのが典型的な方法であった.しかし,Jingら\cite{jing:98:a}は,要約のF-measureによる評価と外的な評価を分析し,F-measureには「テキスト中に類似の内容を含む文が複数存在する場合,どちらの文が正解として選択されるかにより,システムの評価は大きく変化する」という問題があることを指摘している.この問題点を解決する方法がこれまでにいくつか提案されている.Radevら\cite{radev:00:a}は,文のutilityという概念を用いた評価方法を示している.文のutilityとは,そのテキストの話題に対する各文の適合度(重要度)を10段階で表したものであり,正解の文のutilityにどのくらい近いutilityの文を選択できるかで評価を行なう.しかし,このような適合性の評価は被験者への作業負荷が大きいという問題がある.Donawayら\cite{Donaway:2000}は,人間の作成した正解要約の単語頻度ベクトルとシステムの要約の単語頻度ベクトルの間のコサイン距離で評価するcontent-basedな評価を提案している.content-basedな評価では,指定された要約率の正解要約を一つだけ用意すれば評価可能であるため,utilityに基づく評価に比べ,被験者への負荷が少ない.しかし,この評価方法で2つの要約を比較する場合,どの程度意味があるのかについては,これまで十分な議論がなされていない.そこで,本研究では,まず,utilityに基づく評価の問題点を改良する新しい評価方法を提案する.一般に低い要約率の抜粋に含まれる文は高い要約率の抜粋中の文よりも重要であると考えられる.このような考えに基づけば,あるテキストに関して複数の要約率のデータが存在する場合,テキスト中の各文に重要度を割り振ることが可能であるため,utilityに基づく評価を疑似的に実現することができる.これまでの要約研究において,1テキストにつき複数の要約率で正解要約が作成されたデータは数多く存在する(例えば,\cite{jing:98:a})ことから,提案する評価方法に用いるデータの作成にかかる負荷は決して非現実的なものではなく,utilityを直接被験者が付与するより負荷は小さいと考えられる.本研究では,評価型ワークショップNTCIR2の要約サブタスクTSC(TextSummarizationChallenge)\cite{Fukushima:2001a,Fukushima:2001b}で作成された10\%,30\%,50\%の3種類の要約率の正解データを用いて,提案方法により評価を行う.この評価結果をF-measureによる結果と比較し,提案方法がF-measureによる評価を改善できることを示す.次に,本研究では,content-basedな評価を取り上げる.同様にTSCのデータを用いて,人間の主観評価の結果と比較し,これまで十分議論されていないその有用性に関する議論を行う.本論文の構成は以下のとおりである.次節では,まず,これまで提案されてきた内的な評価方法,特にF-measureの問題点の解消方法について述べる.3節では,本研究で提案する評価方法について説明する.4節では,F-measureと提案する評価方法を比較し,結果を報告する.また,content-basedな評価に関する調査についても述べる.最後に結論と今後の課題について述べる. \section{関連研究} 要約の内容に関する評価について,Jingら\cite{jing:98:a}は,典型的な評価方法の1つであるF-measureをとりあげ,その問題点をいくつか指摘している.Jingらは,システムの要約と人間の被験者の作成した抜粋との比較による評価と,要約を利用して人間がタスクを行なう場合のタスクの達成率による評価の2つの評価方法を分析し,評価結果に影響を与える要因を同定することを試みているが,その結果少なくとも次の2つの点において,これまでの人間の抜粋を用いた評価方法は問題であるとの知見を得ている.\begin{itemize}\item{\bf問題点1(要約率の変化に伴う評価値の変化):}\\人間の抜粋との比較による評価では,要約率を変化させると,システムの評価がかなり変化する.このため,特定の要約率でシステム間の性能の比較をする意味がどの程度あるのかは疑問が残る.\item{\bf問題点2(テキスト中の複数類似個所の選択問題):}\\テキスト中に類似の内容を含む文が複数存在する場合,どちらの文が正解として選択されるかにより,システムの評価は大きく変化する.\end{itemize}これまで,問題点1(要約率の変化に伴う評価値の変化)を解消するいくつかの方法が提案されている.Mittalら\cite{mittal:99:a}は,要約率の違いによるシステムの評価の違いに関して,さまざまな要約率における精度を求めた上で,情報検索の評価で用いられている11点平均精度(11pointaverageprecision)のように,複数の要約率での精度の平均として結果を示すべきであるとしている.また,コーパスとするテキスト集合の違いが精度に影響を与えることから,コーパスの要約のしやすさを計る指標として,ランダムに文を選択して要約を作成した場合の精度をベースラインとして示すべきであると主張している.そして,システムの性能を評価する場合,\[p'=\frac{p-b}{1-b}\](ここで,p,b,p'はそれぞれシステム,ベースライン,補正後のシステムの精度)のように,ベースラインを用いて補正した精度を用いるべきであるとしている.一般に,F-measureで要約の精度を評価する場合,ベースライン値=要約率と考えることができるため,要約率が大きくなるにつれ,F-measure値は大きくなる傾向にある.従って,ベースラインを用いて評価値を補正する上記の評価方法は,Jingらの指摘する問題点1の解消には有用であると考えられる.一方,被験者間の一致の度合をJとすると,Jは要約システムの精度の上限と考えられ,また,ランダムに選択した時の精度Rは下限と言える.そのため,Radevら\cite{radev:00:a}も,Mittalらと同様に,システムの性能を計る値を示す際,普通に計算された値Sを単に用いるのではなく,これらの値で正規化した値\[S'=\frac{S-R}{J-R}\]を示すべきであるとしている.問題点2(テキスト中の複数類似個所の選択問題)を解消する方法もいくつか提案されている.Jingら\cite{jing:98:a}は,人間が選択した重要文を用いて評価を行なう際,正解と一致した場合正解数1,一致しない場合0として再現率,精度を計算するのではなく,正解数を被験者間の一致の度合として計算する方法を提案している.たとえば,5人の被験者中3人,2人がそれぞれ一致して選択した文が存在する場合,これまでの評価方法では,前者をシステムが選択した場合正解数1(過半数以上の被験者が選択しているので),後者では0となるが,提案する方法では,システムの正解数は,前者では3/5,後者では2/5となる.Radevら\cite{radev:00:a}は,文のutilityという概念を用いた評価方法を示している.文のutilityは,文がそのテキストの話題に対してどの程度適合した内容であるかを示す尺度であり,[0-10]の値をとる\footnote{genericな要約を考えた場合,テキスト中での文の重要度を示していると考えて良い.}.人間が選択した重要文を用いたこれまでの評価方法は,正解と一致した場合正解数1,一致しない場合0として再現率,精度を計算していたが,utilityに基づく評価値は,システムが選択した文に対して人間が割り当てたutilityの総和を,正解の文のutilityの総和で割った値として計算する.これまでの評価方法では,システムが選択した不正解の文は,全く評価が得られなかったのに対し,utilityに基づく評価の場合,Jingらの方法と同様に,たとえ不正解でもその文がある程度の重要度を持つ場合,その重要度に対する部分的な評価が得られる点が異なる.ただ一つ正解が存在し,それとまさに一致することを要求されていたこれまでの評価に比べ,正解の文のutilityにどのくらい近いutilityの文を選択できるかで評価を行なう.Donawayら\cite{Donaway:2000}は,2種類の評価方法を提案している.一つは,人間にも,システムにも,テキスト中の文にすべて順位をつけさせるようにして,その文の序列を比較して評価を行なう方法である.これは,これまでの方法がテキスト中の文を重要/非重要の2つに分類して評価に利用していたのに対し,テキスト中の文数に分類して利用することに相当する.Donawayらが提案するもう一つの評価尺度は,人間の作成した正解要約の単語頻度ベクトルとシステムの要約の単語頻度ベクトルの間のコサイン距離で評価する方法(以後,content-basedな評価)である.Donawayらは,この2種類の評価尺度にこれまでの評価方法である再現率に基づいた評価を加え,これらを実験により比較,検討している.正解の抜粋に含まれる個所が要約作成者毎に異なっていても,内容の類似した個所を抜き出しているのであれば,どの要約作成者の抜粋を用いても似たような評価値が得られる必要がある.Donawayらは,4人の要約作成者の作った抜粋を用いて,上で述べたいくつかの尺度で要約を評価し,尺度毎に評価値の相関を調べている.その結果,content-basedな評価が人間の要約との比較による評価方法としては,Jingらの指摘する問題点2に対する解決策ともなっており,もっとも優れていると結論づけている. \section{pseudo-utilityに基づく評価} 本研究では,あるテキストに関する複数の要約率の正解データを用いることで,utilityに基づく評価を疑似的に実現する方法(以後,pseudo-utilityに基づく評価)を提案する.例えばあるテキストに,要約率が$r_{1}$\%,$r_{2}$\%,$r_{3}$\%($r_{1}<r_{2},r_{2}<r_{3}$)の3種類の正解データが存在する場合,テキスト中の各文は(1)$r_{1}$\%の要約に含まれる文,(2)$r_{1}$\%には含まれないが$r_{2}$\%には含まれる文,(3)$r_{2}$\%には含まれないが$r_{3}$\%には含まれる文,(4)$r_{3}$\%に含まれない文の4種類に分けられる\footnote{ただし,$r_{1}$\%の要約は$r_{2}$\%の要約に($r_{1}<r_{2}$),$r_{2}$\%の要約は$r_{3}$\%の要約に($r_{2}<r_{3}$)含まれていることが前提となる.}.これらは,テキストの話題に対する各文の適合度が4段階で表されたデータと考えることができるため,4段階の疑似的なutilityに基づく評価が実現できる.表\ref{table:exp1}に示す例を用いて,pseudo-utilityの計算方法を説明する.表\ref{table:exp1}は,要約率10\%,30\%,50\%の要約データを用いた場合について述べている.表\ref{table:exp1}では,S1--S10の10文からなるテキストについて,要約率毎に,要約作成者と2つの要約システム({\itSystem1}と{\itSystem2})が選択した重要文を`+'で示している.また,ここでは各文の重要度wを`1/要約率'として計算する.表において,例えばSystem1の要約率50\%の要約において,System1が重要文として選択した5文(S3,S4,S7,S9,S10)のうち3文(S4,S7,S10)が一致するため,F-measure値は0.6(3/5)となる.一方,System1が選択した5文(S3,S4,S7,S9,S10)の重要度はそれぞれ0,1/30,1/50,0,1/30であるため,重要度の総和は0+1/30+1/50+0+1/30=13/150となる.また,要約作成者は要約率50\%ではS1,S4,S7,S8,S10の5文を選択している.この場合の重要度の総和は1/10+1/30+1/50+1/50+1/30=31/150となる.pseudo-utility値は,システムの選択した文の重要度の総和を要約作成者の選択した文の重要度の総和で割って正規化した値であり,この例の場合$\frac{13/150}{31/150}=0.419$となる.\begin{table}[t]\caption{pseudo-utilityに基づく評価の例\label{table:exp1}}\begin{center}\begin{tabular}{c||c|c|c||c||c|c|c||c|c|c}\hline&\multicolumn{3}{c||}{正解データ}&重要度&\multicolumn{3}{c||}{\itSystem1}&\multicolumn{3}{c}{\itSystem2}\\\cline{2-4}\cline{6-11}&10\%&30\%&50\%&(重要度)&10\%&30\%&50\%&10\%&30\%&50\%\\\hlineS1&+&+&+&1/10&-&-&-&-&+&+\\S2&-&-&-&0&-&-&-&-&-&-\\S3&-&-&-&0&-&-&+&-&-&-\\S4&-&+&+&1/30&+&+&+&+&+&+\\S5&-&-&-&0&-&-&-&-&-&-\\S6&-&-&-&0&-&-&-&-&+&+\\S7&-&-&+&1/50&-&-&+&-&-&-\\S8&-&-&+&1/50&-&-&-&-&-&-\\S9&-&-&-&0&-&+&+&-&-&+\\S10&-&+&+&1/30&-&+&+&-&-&+\\\end{tabular}\end{center}\vspace{0.3cm}\caption{F-measureとpseudo-utilityに基づく評価によるシステムの比較例\label{table:exp2}}\begin{center}{\scriptsize\begin{tabular}{|c||l|l|l|l|}\hline&\multicolumn{2}{c|}{\itSystem1}&\multicolumn{2}{c|}{\itSystem2}\\\cline{2-5}&F-measure&pseudo-utility&F-measure&pseudo-utilitymeasure\\\hline\hline10\%&0.000\(\displaystyle(\frac{0}{1})\)&0.333\(\displaystyle(\frac{1/30}{1/10})\)&0.000\(\displaystyle(\frac{0}{1})\)&0.333\(\displaystyle(\frac{1/30}{1/10})\)\\\hline30\%&0.667\(\displaystyle(\frac{2}{3})\)&0.400\(\displaystyle(\frac{2/30}{1/10+2/30})\)&0.667\(\displaystyle(\frac{2}{3})\)&0.800\(\displaystyle(\frac{1/10+1/30}{1/10+2/30})\)\\\hline50\%&0.600\(\displaystyle(\frac{3}{5})\)&0.419\(\displaystyle(\frac{2/30+1/50}{1/10+2/30+2/50})\)&0.600\(\displaystyle(\frac{3}{5})\)&0.806\(\displaystyle(\frac{1/10+2/30}{1/10+2/30+2/50})\)\\\hline\end{tabular}}\end{center}\end{table}表\ref{table:exp2}に,System1,2のF-measure値とpseudo-utility値を示す.表\ref{table:exp2}において,要約率10\%におけるF-measure値とpseudo-utility値を比較すると,どちらのシステムも10\%要約の正解であるS1ではなくS4を選択しているため,F-measure値は0になる.ここで,S4は30\%要約の正解に含まれているため,S1よりも重要度は低いが,ある程度重要な情報を含んだ文であると考えられる.この例の場合,要約率10\%ではF-measure値は0か1しか取り得ないが,pseudo-utilityに基づく評価では,このような文も評価の対象とすることで,より適切な評価が可能になる.また,要約率50\%におけるSystem1とSystem2の結果を比較すると,どちらも選択した5文のうち3文が50\%要約の正解データに含まれているため,F-measure値は共に0.6である.この3文のうちS4とS10はSystem1,2が共通して選択しているが,他の1文はSystem1はS7(重要度1/50),System2はS1(重要度1/10)を選択している.2システムが同数の正解文を抽出している場合でも,特に重要と考えられる文(この場合S1)が抽出されている場合とそうでない場合との区別がF-measureではできない.一方,pseudo-utilityに基づく評価では,この場合System1,2それぞれにおいて0.419,0.806と評価値に開きがあり,この例では両者の区別がつけられることが分かる. \section{評価方法の分析} 本研究では,pseudo-utilityに基づく評価の有効性を調べるために,TSCのデータを用いて評価を行う.また,TSCではcontent-basedな評価がシステムの評価方法の一つに採用されているが,この評価結果を用い,content-basedな評価の有効性についても検討する.本節では,まず,4.1節でTSCの課題および評価方法について説明する.次に,4.2節でTSCのデータを用いた本研究の分析について述べる.\subsection{TSCにおける評価}TSCとは,要約研究における資源の共有や日本語テキストの要約に関する共通の評価方法や評価基準の明確化を本格的に推進させるために行われた,第2回NTCIRワークショップのタスクである.TSCでは3種類の課題が設定されているが,本節ではそのうち内的(intrinsic)な評価を適用している2つの課題A-1「重要文抽出型要約」とA-2「人間の自由作成要約と比較可能な要約」について述べる.なお,結果に関する詳細およびこの他の課題については,\cite{Fukushima:2001a,Fukushima:2001b,難波:2001}を参照されたい.\subsubsection{課題}\begin{flushleft}・課題A-1:重要文抽出型要約\end{flushleft}新聞30記事から,要約率10\%,30\%,50\%で重要文を抽出する.\begin{flushleft}・課題A-2:人間の自由作成要約と比較可能な要約\end{flushleft}新聞30記事を対象に,要約率20\%,40\%を越えない文字数で要約を作成する.なお,要約部分がplaintextであり,指定文字数以内に納まっていれば,どのような要約でも構わないため,課題A-1と同じシステムの出力からタグを取り除いて,plaintextにすれば,課題A-2にも参加できる.\subsubsection{要約対象テキスト}毎日新聞94年および98年から15記事づつ,計30記事が選ばれている.記事は94年から600,900,1200文字以上の3種類の長さの報道記事が,98年からは1200,2400文字以上の2種類の長さの社説が選ばれている.\subsubsection{評価方法}\subsection*{課題A-1}課題A-1のシステムの提出結果は,重要文抽出に基づいて作成された要約であり,人間が選択した重要文との間の一致度を元に評価を行なう.評価尺度としては,以下の3つを用いる.\\\begin{itemize}\item\(\displaystyle再現率=\frac{システムが選んだ文の内で正解の文の数}{人間が選んだ正解の文の総数}\)\\\item\(\displaystyle精度=\frac{システムが選んだ文の内で正解の文の数}{システムが選んだ文の総数}\)\\\item\(\displaystyle$F-measure値$=\frac{2*再現率*精度}{(再現率+精度)}\)\\\end{itemize}これらの値を要約率ごとに求めた後,平均したものを最終的な結果とする.また,ベースラインシステムとして,以下の2種類を用いる.\begin{itemize}\itemLead:本文の先頭から要約率として指定された文数だけ出力する.\itemTF:本文の各文ごとに内容語のTFの和を計算し,このスコアの高い文を要約率として指定された文数だけ選択する.選択した文を元の文の出現順に戻して出力する.\end{itemize}\subsection*{課題A-2}\subsubsection*{(i)主観評価}まず,\begin{itemize}\item人間の作成した重要個所抽出要約(PART)\item人間の自由作成要約(FREE)\item1システムが提出した結果(SYS)\itemLeadのベースラインシステムの結果(BASE)\end{itemize}の4種類の要約を用意する.同時に元テキストも用意しておく.要約評価者(1名)に元テキストと各要約結果を読んでもらい,次に「テキストとして読みやすいかどうか」の観点と,「元テキストの重要な内容を不足なく記述しているかどうか」の観点の2点から要約を評価をしてもらう.評価は,読みやすいものから,1,2,3,4となり,同様に内容の点で見て良いものから,1,2,3,4となる.\subsubsection*{(ii)content-basedな評価}人間の作成した要約およびシステムの作成した要約をともに,Jumanで形態素解析し,名詞,動詞,形容詞,未定義語を抽出する.そして,人間の作成した正解要約(FREEとPART)の単語頻度ベクトルとシステムの要約の単語頻度ベクトルの間の距離を計算し,どの程度内容が単語ベースで類似しているかという値を求める\cite{Donaway:2000}.ベクトルの要素は,各内容語のtf*idf値とし,idfの計算には,課題と同じ年の毎日新聞CD-ROM('94or'98)の全記事を同じく形態素解析した結果を用いる.なお,課題A-2において,人間の作成する要約は,(1)人間が自由作成した要約,(2)人間が重要個所抽出により作成した要約の2種類があり,content-basedな評価はこの両方に対して行なった.\subsection{評価方法の分析}pseudo-utilityに基づく評価の有効性を示すためには,pseudo-utilityに基づく評価とutilityに基づく評価の比較,および,F-measureとpseudo-utilityに基づく評価の比較を行う必要があると考えられる.しかし,先にも述べたとおり,utilityに基づく評価に用いるデータの作成にかかる負荷は非常に高く準備が困難であったため,本研究ではpseudo-utilityに基づく評価方法を課題A-1に適用し,F-measureとの比較のみを行った.4.2.1節では,まずこの結果について報告する.次に,課題A-2の結果を用いて,content-basedな評価と主観評価の比較を行った.比較結果について4.2.2節で述べる.\subsubsection{F-measureとpseudo-utilityに基づく評価の比較(課題A-1)}まず,実際にどの程度pseudo-utilityに基づく評価が有効に機能しているか,いくつかの事例にあたって調べてみた.図\ref{fig:ps_app1}は,pseudo-utilityに基づく評価が有効に機能した典型例である.2文は,「アジアにおけるエイズ感染」に関する報道記事から,要約率10\%(1文)で重要文を選択したシステムの出力結果と正解の要約である.この2文は,どちらも「アジアにおいてエイズ患者が急増している」ことを示した個所である.F-measureによる評価では,システムは正解文を選択していないので,F-measure値は0となる.一方,システムの選択した文は30\%要約には含まれているため,pseudo-utility値は0.333($\frac{1/0.3}{1/0.1}$)となる.一般に,報道記事1記事に含まれる文数は10文-20文が中心的であり,この場合,要約率10\%の時は正解文が1-2文しかない\footnote{TSCデータにおいて,要約率10\%の時の報道記事の正解文数は過半数が1,2文であった.}.このような場合,システムがある程度重要な情報を含んだ文を抽出していても,最重要文が抽出されなければF-measureでは全く評価に反映されない.一方,pseudo-utilityに基づく評価では,図\ref{fig:ps_app1}の例のようにある程度評価値に反映されるため,より適切なシステムの評価が行なえると考えることができる.別の例を図\ref{fig:ps_app2}に示す.記事940715208において,要約率10\%では正解要約文数は3文である.システムが出力した3文のうち第1文目が正解の要約に含まれているため,F-measure値は0.333となっている.一方,システムの出力した3文のうち,正解に含まれていない残りの2文の一方は30\%の正解に,もう一方は50\%の要約に含まれているため,pseudo-utility値は0.511($\frac{1/0.1+1/0.3+1/0.5}{3/0.1}$)となっている.正解とシステムの出力を比較すると,正解の2文目にある「大学や教育施設一体となった動き」の具体例がシステムの要約の2文目と3文目になっていることがわかる.つまり,システムの抽出した2文は正解文(2文目)の部分情報となっている.このような個所をシステムが抽出できたことをpseudo-utilityでは適切に評価できていることは妥当であると思われる.\begin{figure}[t]\begin{center}\vspace{0.1cm}\begin{tabular}{|c|}\hline\begin{minipage}[c]{14cm}\flushleft{\small\vspace{0.3cm}記事番号:940702171,要約率:10\%(1文)\\見出し:エイズ感染「アジア、2000年には4倍」−−来日のWHO局長警告\\F-measure値:{\bf0.000},pseudo-utility値:{\bf0.333}\begin{itemize}\item{\bf(正解)}\\世界のエイズ患者は推計で約四百万人に達し、特にアジアではこの一年間で八倍にも急増して約二十五万人になったと、世界保健機関(WHO)=NEWSのことば参照=世界エイズ対策プログラム局長のマイケル・マーソン博士が一日、発表した。\item{\bf(システム)}\\八月に横浜市で開かれる第十回国際エイズ会議を前に、来日中の同局長は厚生省で会見し「アジアの累積感染者数は二百五十万人以上だが、二〇〇〇年には四倍増の一千万人以上になると見込まれる」と警告した。\end{itemize}\vspace{0.1cm}}\end{minipage}\\\hline\end{tabular}\end{center}\caption{pseudo-utilityに基づく評価がうまく適用された例(換言)\label{fig:ps_app1}}\vspace{-0.3cm}\begin{center}\vspace{0.1cm}\begin{tabular}{|c|}\hline\begin{minipage}[c]{14cm}\flushleft{\small\vspace{0.3cm}記事番号:940715208,要約率:10\%(3文)\\見出し:止まるか「理工系離れ」−−大学・文部省など“あの手この手”\\F-measure値:{\bf0.333},pseudo-utility値:{\bf0.511}\begin{itemize}\item{\bf(正解)}\\技術立国ニッポンが危ない——理科嫌いの子供の増加や大学の理工系志願者の伸び悩みなど「理工系離れ」が深刻になっている。\\こうした傾向にストップをかけようと、大学や教育施設一体となった動きが出ている。\\こうした動きの背景にあるのが、若者の理工系離れ。\item{\bf(システム)}\\技術立国ニッポンが危ない——理科嫌いの子供の増加や大学の理工系志願者の伸び悩みなど「理工系離れ」が深刻になっている。\\大学側などは、この夏、子供向けに科学の面白さをPRするプログラムを続々登場させた。\\文部省も十四日、理数系に強い高校生への支援策を開始する一方、専門家の懇談会からの報告を受け、魅力ある理工系大学作りに乗り出した。\end{itemize}\vspace{0.1cm}}\end{minipage}\\\hline\end{tabular}\end{center}\caption{pseudo-utilityに基づく評価がうまく適用された例(例示)\label{fig:ps_app2}}\end{figure}これらの調査から,pseudo-utilityに基づく評価が,Jingらの指摘する問題点2(テキスト中の複数類似個所の選択問題)をある程度解消できていると考えられる.次に,F-measureとpseudo-utilityに基づく評価を適用した結果をシステム別にまとめた.結果を表\ref{table:aefscore}および表\ref{table:aefscore2}に示す\footnote{なお,評価用のデータは,脚注1の条件を満たさない4記事(940701189,940702187,940716331,980203053)を除く26記事を用いている.}.課題A-1には7団体10システム参加しており,表中のI--IXは各システムのIDを,また,同団体の異なるシステムはダッシュで示してある.F-measureとpseudo-utilityに基づく評価の各システムの順位を比較すると,F-measureではそれぞれ1位,2位であるシステムII,Iが,pseudo-utilityに基づく評価では順位が逆転している.また,多くのシステムは順位が1位か2位程度変動しており,中でもシステムVは,F-measureでは9位なのがpseudoutilityでは5位になっている.そこで,これらの順位の変動が適正であるかどうかを調べるため,システムIとIIの出力結果を比較した.システムIとIIが出力したそれぞれ90個の要約(30テキスト×10\%,30\%,50\%)のうち,システムIとIIでF-measure値は同じだがpseudo-utility値の異なる16組の要約について調査した.16組のうち,システムIIよりもIの方がpseudo-utility値が高くなる場合は10組,IIが高い場合が6組であった.表\ref{ivsii}にシステムIとIIの出力例を示す.表\ref{ivsii}は,記事980500136における要約率10\%での例で,原文中の文ID,pseudo-utilityに基づく評価に用いた重要度,システムIとIIが選んだ文,および文の内容を示している.重要度1/10の文が要約率10\%の正解である.システムIが選択した5文のうち要約率10\%の正解に含まれるもの(重要度1/10)が2文(S44とS52)あるため,F-measure値は0.4になる.システムIはこの他に重要度1/30の文を1文(S30),重要度1/50の文を2文(S3とS4)選択しており,結果として,このテキストにおいてはpseudo-utility値0.547を得ている.一方,システムIIもシステムIと同様に要約率10\%の正解に含まれる文(重要度1/10)を2文(S26とS43)選択しているため,F-measure値ではシステムIと同じく0.4になる.システムIIが選んだ残りの3文のうち,重要度1/50の文の2文(S3とS4)はシステムIと共通であるが,残りの1文(S31)は重要度が0であり,pseudo-utility値はシステムIよりも低い0.480に留まっている(表\ref{ivsii2}).この記事の主題は「定年制高齢者に多様な働き方を65歳現役社会の道も開け」であり,S22(重要度1/10)はその問題提起になっている.システムIが選んだS50はS22の一つの解決方法であり,ある程度重要な情報を持った文であるため,システムIとIIでこの文が選択できたかどうかで,pseudo-utility値に差ができることは妥当であると考えられる.\begin{table*}[t]{\small\caption{課題A-1における各システムのF-measure値\label{table:aefscore}}\begin{center}\begin{tabular}{|c||c|c|c||l|}\hlineSYSTEM&10\%&30\%&50\%&total(順位)\\\hline\hlineI&0.363&0.435&0.589&0.463(2)\\\hlineII&0.337&0.452&0.612&0.467(1)\\\hlineV&0.251&0.447&0.574&0.424(9)\\\hlineVI&0.305&0.431&0.568&0.435(6)\\\hlineVI'&0.282&0.435&0.572&0.429(8)\\\hlineVII&0.305&0.474&0.586&0.455(3)\\\hlineVII'&0.241&0.497&0.578&0.439(5)\\\hlineVIII&0.199&0.399&0.590&0.396(11)\\\hlineIX&0.358&0.420&0.571&0.450(4)\\\hlineIX'&0.268&0.409&0.570&0.416(10)\\\hlineTF&0.284&0.433&0.586&0.434(7)\\\hlineLead&0.276&0.367&0.530&0.391(12)\\\hline\hlineAve.&0.289&0.433&0.577&0.433\\\hline\end{tabular}\end{center}}{\small\caption{課題A-1における各システムのpseudo-utility値\label{table:aefscore2}}\begin{center}\begin{tabular}{|c||c|c|c|||l|}\hlineSYSTEM&10\%&30\%&50\%&total(順位)\\\hline\hlineI&0.518&0.559&0.664&0.581(1)\\\hlineII&0.450&0.603&0.673&0.569(2)\\\hlineV&0.410&0.546&0.641&0.527(5)\\\hlineVI&0.444&0.537&0.608&0.521(8)\\\hlineVI'&0.420&0.516&0.607&0.504(9)\\\hlineVII&0.433&0.560&0.651&0.541(3)\\\hlineVII'&0.401&0.556&0.636&0.525(6)\\\hlineVIII&0.330&0.515&0.654&0.495(11)\\\hlineIX&0.463&0.544&0.616&0.535(4)\\\hlineIX'&0.388&0.509&0.612&0.498(10)\\\hlineTF&0.406&0.526&0.657&0.525(6)\\\hlineLead&0.401&0.481&0.549&0.468(12)\\\hline\hlineAve.&0.422&0.537&0.630&0.530\\\hline\end{tabular}\end{center}}\end{table*}\begin{table}[t]\caption{記事980511036におけるシステムIとIIの要約結果(要約率10\%)\label{ivsii}}\begin{center}見出し:定年制高齢者に多様な働き方を65歳現役社会の道も開け{\scriptsize\begin{tabular}{|l|l|c|c|l|}\hline文ID&重要度&I&II&文\\\hline\hlineS3&1/50&+&+&東京都武蔵野市にある「横河エルダー」の最高齢者、菅野清治さん(79)は\\&&&&今も現役時とほぼ同じ週40時間のフルタイムで元気いっぱいに働き続ける。\\\hlineS4&1/50&+&+&「横河エルダー」は1975年に工業計器メーカー「横河電機」(従業員63\\&&&&11人)を定年退職した人たちのための受け皿会社として設立された。\\\hlineS22&1/10&&&一律にではなく高齢者のニーズに合わせ、多様なメニューをどう用意するか。\\\hlineS26&1/10&&+&年金支給開始年齢まで働きたくとも働く場がない、という切実な雇用問題が\\&&&&起きるおそれが多分にある。\\\hlineS31&0&&+&今年3月ごろから、60歳定年制の見返りに、退職金や賃金をダウンさせた\\&&&&という訴えが連合東京をはじめ、全国の労組や労働相談窓口などに相次いで\\&&&&寄せられている。\\\hlineS43&1/10&&+&約20年前には20歳代の若者は5人に1人、65歳以上は10人に1人だっ\\&&&&たのが、2015年には20歳代は10人に1人足らずとなり、逆に65歳以\\&&&&上の人口比率は4人に1人を占める、世界に例のない高齢社会となる。\\\hlineS44&1/10&+&&意欲はあっても働けない高齢者が多くなるほど、年金や医療などの社会保障負\\&&&&担はより若い世代にしわ寄せされるのは明らかだ。\\\hlineS50&1/30&+&&それまでのキャリアを生かす継続雇用を基本に据え、職種によっては高齢者向\\&&&&けの職域拡大を図り、短時間勤務も認める。\\\hlineS52&1/10&+&&21世紀の初めには「65歳現役」が当たり前となる社会にしたい。\\\hline\end{tabular}}\vspace{0.5cm}\caption{記事980511036におけるシステムIとIIのF-measure値およびpseudo-utility値(要約率10\%)\label{ivsii2}}\begin{tabular}{|c|c|c|}\hline&I&II\\\hline\hlineF-measure&0.400&0.400\\\hlinepseudo-utility&0.547&0.480\\\hline\end{tabular}\end{center}\end{table}\subsubsection{content-basedな評価の考察--主観評価との比較--(課題A-2)}まず,content-basedな評価の比較対象となる主観評価の結果について簡単に述べる.次に,主観評価とcontent-basedな評価の結果を比較し,考察する.\subsubsection*{主観評価の結果}主観評価に用いた4種類の要約(FREE,PART,SYS,BASE)と順位の関係を表\ref{table:ordera2}に示す.表は,FREE,PART,SYS,BASEの4種類の要約が,内容(CONT)および読みやすさ(READ)の観点において,1位,2位,3位,4位それぞれにランクされた割合を示している\footnote{(要約率20\%,40\%)×30テキスト×10システム=600}.表より,FREEは1位を占める割合が一番高く(73.5\%),次いでPART,SYS,BASEの順になっているが,FREEやPARTに比べ,SYSとBASEの品質は僅差であると言える.4種類の要約の品質を大小関係で示すと大まかに次のようになる.\begin{quote}(1)FREE$>$(2)PART$>$(3)システム要約とベースライン\end{quote}\begin{flushleft}このようなデータの性質をふまえ,次節では主観評価とcontent-basedな評価の比較を行う.\end{flushleft}\begin{table*}[t]\caption{主観評価に用いた4種類の要約と順位の関係\label{table:ordera2}}\begin{center}{\scriptsize\begin{tabular}{|c|c|c|c|c|c|}\hline&&1位&2位&3位&4位\\\hline\hlineFREE&CONT&69.8\%(419/600)&28.7\%(172/600)&1.5\%(9/600)&0.0\%(0/600)\\&READ&77.7\%(466/600)&19.0\%(114/600)&3.2\%(19/600)&0.2\%(1/600)\\\cline{2-6}&TOTAL&73.5\%(885/1200)&23.8\%(286/1200)&2.3\%(28/1200)&0.1\%(1/1200)\\\hline\hlinePART&CONT&49.0\%(294/600)&49.0\%(294/600)&1.8\%(11/600)&0.2\%(1/600)\\&READ&40.6\%(244/600)&47.5\%(285/600)&8.5\%(51/600)&3.0\%(18/600)\\\cline{2-6}&TOTAL&44.8\%(538/1200)&48.3\%(579/1200)&5.3\%(64/1200)&1.6\%(19/1200)\\\hline\hlineSYS&CONT&2.3\%(14/600)&3.3\%(20/600)&68.0\%(408/600)&26.3\%(158/600)\\&READ&11.2\%(67/600)&10.3\%(62/600)&43.3\%(260/600)&38.8\%(233/600)\\\cline{2-6}&TOTAL&6.6\%(79/1200)&6.8\%(82/1200)&55.7\%(668/1200)&32.6\%(391/1200)\\\hline\hlineBASE&CONT&0.0\%(0/600)&0.8\%(5/600)&38.2\%(229/600)&61.0\%(366/600)\\&READ&6.5\%(39/600)&8.0\%(48/600)&52.7\%(316/600)&32.8\%(197/600)\\\cline{2-6}&TOTAL&3.2\%(39/1200)&4.4\%(53/1200)&45.4\%(545/1200)&46.9\%(563/1200)\\\hline\end{tabular}}\end{center}\end{table*}\subsubsection*{主観評価とcontent-basedな評価の比較}まず,content-basedな評価結果と主観評価の結果の相関について調査した.調査は,主観評価に用いた4種類の要約の中から任意の2つを選び,主観評価による順序とcontent-basedな評価の大小関係が一致する割合を調べた.4種類の要約の組合せは「FREE-PART」「FREE-SYS」「FREE-BASE」「PART-SYS」「PART-BASE」「SYS-BASE」の6通りあるが,FREEとPARTは共にcontent-basedな評価で評価基準として用いており,どちらも人手で作成した理想的な要約であるため,6通りの組合せから「FREE-PART」の組合せだけ除外した\footnote{すなわち,5通りの組合せ×30テキスト×10システム=1500通りの組合せについて調べた.}.また,主観評価は内容と読みやすさの2つの側面から行なったが,content-basedな評価は,要約間の内容の類似度を測るために用いられた指標であるため,主観評価結果は内容による比較のものを用いた.また,content-basedの評価値は,TSCにおける評価ではFREEを基準にした場合とPARTを基準にした場合の2種類で計算しているが,主観評価との比較も,それぞれの場合毎に分けて行っている.表\ref{table:cbcomp1}は,その結果である.表から,要約率が20\%と40\%の両方において,主観評価の結果とcontent-basedな評価が,高い割合(約90\%)で一致していることが分かる.一方,先にも述べたように,主観評価で比較した4種類のうち,システムの要約とベースライン(Lead)の要約は,FREEやPARTと比べると平均的に同程度の品質の要約であると考えられる.そこで,表\ref{table:cbcomp1}の中でも特にシステムの要約とベースラインに着目し,比較を行った.結果を表\ref{table:cbcomp2}に示す.表\ref{table:cbcomp2}において,主観評価とcontent-basedな評価との相関は,表\ref{table:cbcomp1}の場合ほどはっきりとは現れていない.このことから,content-basedな評価は,品質に大きな違いのある2つの要約を比較する上では,よい指標であるが,品質が僅差な2つの要約を比較する上では,それほど有用な指標ではないと考えることができる.\begin{table}[t]\caption{主観評価による順序とcontent-basedな評価の大小関係が一致する事例の割合(全データ)\label{table:cbcomp1}}\begin{center}\begin{tabular}{|c|c|c|}\hline&FREEを基準&PARTを基準\\\hline\hline20\%要約&91.4\%(1371/1500)&88.6\%(1329/1500)\\\hline40\%要約&89.3\%(1339/1500)&90.0\%(1350/1500)\\\hline\end{tabular}\\\vspace{0.1cm}平均:89.8\%\vspace{-0.7cm}\end{center}\end{table}\begin{table}[t]\caption{主観評価による順序とcontent-basedな評価の大小関係が一致する事例の割合\\(SYSとBASEの比較)\label{table:cbcomp2}}\begin{center}\begin{tabular}{|c|c|c|}\hline&FREEを基準&PARTを基準\\\hline\hline20\%要約&64.3\%(193/300)&58.0\%(174/300)\\\hline40\%要約&58.7\%(176/300)&63.7\%(191/300)\\\hline\end{tabular}\\\vspace{0.1cm}平均:61.2\%\vspace{-0.7cm}\end{center}\end{table}そこで,さらに,content-basedの評価値の差と信頼度(精度)に関する調査を行なった.content-basedの評価値の差に着目し,値の差0.1毎に2つの要約のcontent-basedの評価値と主観評価の順位との大小関係が一致する事例の割合について調べた.結果を表\ref{table:cb0.1}に示す.表より,content-basedの評価値で0.2以上の開きがあれば,93\%以上の割合で主観評価の結果と一致する,すなわち,93\%以上の信頼度で要約を評価することが可能になると思われる.\begin{table}[t]\caption{content-basedの評価値と主観評価の順位との大小関係が一致する事例の割合\label{table:cb0.1}}\begin{center}\begin{tabular}{|c|l|}\hlinecontent-basedの評価値の差&主観評価と一致する\\&事例の割合(\%)\\\hline\hline0.0-0.1&0.578(718/1242)\\\hline0.1-0.2&0.771(916/1188)\\\hline0.2-0.3&0.928(966/1041)\\\hline0.3-0.4&0.959(805/839)\\\hline0.4-0.5&0.964(588/610)\\\hline0.5-0.6&0.988(589/596)\\\hline0.6-0.7&0.994(336/338)\\\hline0.7-0.8&0.990(103/104)\\\hline0.8-0.9&1.000(26/26)\\\hline0.9-1.0&1.000(16/16)\\\hline\end{tabular}\end{center}\end{table}表\ref{table:cb0.1}から得られた知見を元に,表\ref{table:cbcomp2}に示したシステムの要約とベースライン(Lead)の要約の比較結果のうち,content-basedの評価値の差が0.2以上の場合について調べてみた.表\ref{table:cbcomp2}の中でcontent-basedの評価値の差が0.2以上となる事例の割合を表\ref{table:cbcomp31}に示す.表\ref{table:cb0.1}において,評価値の差が0.2以上になる場合は全体の59.5\%($1-\frac{1242+1188}{6000}$)であるのに対し,システムの要約とベースラインの要約の間では全体の14.5\%しかない.このことからも,先にも述べたようにシステムの要約とベースラインの要約は,全体的に品質の近い要約であることが分かる.次にシステムの要約とベースラインの要約との間のcontent-basedの評価値の差が0.2以上となる場合に,主観評価による順序とcontent-basedな評価の大小関係が一致する事例の割合を調べた.結果を表\ref{table:cbcomp32}に示す.表\ref{table:cb0.1}における調査(事例数:6000)と比べると事例数が少ない(174)ので,あまり厳密な値であるとは言えないが,表\ref{table:cbcomp32}の値(71.3\%)と表\ref{table:cbcomp2}の61.2\%とを比較すると,評価値の差が0.2以上の場合content-basedな評価の信頼度が10\%以上高くなることが確認できる.しかし,この結果からは表\ref{table:cb0.1}における評価値の差0.2における一致度92.8\%までには至っていない.\begin{table}[t]\caption{content-based値の差が0.2以上ある事例の割合(SYSとBASEの比較)\label{table:cbcomp31}}\begin{center}\begin{tabular}{|c|c|c|}\hline&FREEを基準&PARTを基準\\\hline\hline20\%要約&17.0\%(51/300)&23.0\%(69/300)\\\hline40\%要約&10.0\%(30/300)&8.0\%(24/300)\\\hline\end{tabular}\\\vspace{0.1cm}平均:14.5\%\vspace{-0.7cm}\end{center}\end{table}\begin{table}[t]\caption{content-based値の差が0.2以上ある場合に主観評価による順序と一致する事例の割合\\(SYSとBASEの比較)\label{table:cbcomp32}}\begin{center}\begin{tabular}{|c|c|c|}\hline&FREEを基準&PARTを基準\\\hline\hline20\%要約&74.5\%(38/51)&73.9\%(51/69)\\\hline40\%要約&60.0\%(18/30)&70.8\%(17/24)\\\hline\end{tabular}\\\vspace{0.1cm}平均:71.3\%\vspace{-0.7cm}\end{center}\end{table} \section{結論と今後の課題} 本研究では,要約の評価方法について,pseudo-utilityに基づく評価方法を提案し,F-measureとの比較を行った.また,content-basedな評価と被験者による主観評価との結果を比較し,結果について検討した.F-measureとpseudo-utilityに基づく評価の比較では,要約システムの出力をいくつか調べたところ,正解には含まれていないが正解文と類似する内容の文をシステムが抽出した場合,pseudo-utilityに基づく評価では評価値にそれが反映されていることが確認された.すなわち,pseudo-utilityに基づく評価は,F-measureがかかえる2つの問題点のうち「(2)テキスト中に類似の内容を含む文が複数存在する場合,どちらの文が正解として選択されるかにより,システムの評価が大きく変化する」が解消できていることがわかった.次に,content-basedな評価と被験者による主観評価との比較の結果,2つの要約が,content-based値で0.2以上の開きがあれば,93\%以上の割合で人間の主観評価の結果と一致することがわかった.本研究では,複数の要約率のデータを用いることで,Radevらの提案するutilityに基づく評価を疑似的に実現できることを示した.本研究はTSCで作成された10\%,30\%,50\%の3種類の要約データを用いたが,今後は,この他の要約率の組合せについても調べる必要がある.また,本研究ではpseudo-utilityに基づく評価において,文の重要度を`1/要約率'として計算したが,この他にも様々な重要度を設定することが可能である.重要度をどのように設定すればより良い評価が可能になるかについても調べる必要があると考えられる.本研究では扱っていないが,Jingらの指摘する問題点1(要約率の変化に伴う評価値の変化)を解消する評価方法についても今後検討していく必要がある.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{難波英嗣(正会員)}{1996年東京理科大学理工学部電気工学科卒業.1998年北陸先端科学技術大学院大学情報科学研究科博士前期課程修了.2001年北陸先端科学技術大学院大学情報科学研究科博士後期課程修了.同年4月日本学術振興会特別研究員.2002年東京工業大学精密工学研究所助手,現在に至る.博士(情報科学).自然言語処理,特にテキスト自動要約に関する研究に従事.情報処理学会,人工知能学会ACL,ACM各会員.nanba@pi.titech.ac.jp.}\bioauthor{奥村学(正会員)}{1984年東京工業大学工学部情報工学科卒業.1989年東京工業大学大学院理工学研究科博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授.2000年東京工業大学精密工学研究所助教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,語彙的知識獲得に関する研究に従事.情報処理学会,人工知能学会,AAAI,ACL,認知科学会,計量国語学会各会員.oku@pi.titech.ac.jp.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V15N04-03
\section{はじめに} \label{hajimeni}近年,統計的言語処理技術の発展によりテキスト中の人名や地名,組織名といった固有表現(NamedEntity)を高精度で抽出できるようになってきた.これを更に進めて,「福田康夫(人名)」は「日本(地名)」の「首相(関係ラベル)」であるといった固有表現間の関係を抽出する研究が注目されている\cite{brin1998epa,agichtein2000ser,hasegawa2004dra,zelenko2003kmr}.固有表現間の関係が抽出できれば,テキストからRDF(ResourceDescriptionFramework)で表現される様な構造化データを構築することが可能となる.この構造化データを用いれば,例えば「大阪に本社がある会社の社長」といった「地名⇔組織名」と「組織名⇔人名」の関係を辿るような「推論」を行なうことができ,より複雑な情報検索,質問応答や要約に有益である.我々は,入力されたテキストから関係3つ組である[固有表現$_{1}$,固有表現$_{2}$,関係ラベル]を抽出する研究を進めている.例えば,「福田康夫氏は日本の首相です。」というテキストから[福田康夫,日本,首相]の関係3つ組を抽出する.この関係3つ組をテキストから抽出するには,(a)テキストにおける固有表現の組の意味的関係の有無を判定({\bf関係性判定})する技術と,(b)固有表現の組の関係ラベルを同定する技術が必要である.本論文では,(a)のテキスト内で共起する固有表現の組が,そのテキストの文脈において意味的な関係を有するか否かを判定する手法を提案する.ここでは,英語での関係抽出の研究であるACE\footnote{http://projects.ldc.upenn.edu/ace}のRelationDetectionandCharacterizationの指針に準じて,固有表現間の意味的関係について以下のように定義する.\vspace{1\baselineskip}\begin{itemize}\item次の2種類の単位文,(1)『固有表現$_{1}$が固有表現$_{2}$を〜する』もしくは(2)『固有表現$_{1}$の〜は固有表現$_{2}$だ』で表現しうる関係が,テキストにおいて言及,または含意されている場合,単位文の要素となる二つの固有表現は意味的関係を有する.\end{itemize}\vspace{1\baselineskip}ここで,単位文(1)『固有表現$_{1}$が固有表現$_{2}$を〜する』においては,格助詞を「が」「を」に固定しているわけでなく,任意の格助詞,『固有表現$_{1}$が固有表現$_{2}$で〜する』や『固有表現$_{1}$を固有表現$_{2}$に〜する』,でも良い.意味的関係を有する固有表現の組について例を示す.例えば「温家宝首相は人民大会堂で日本の福田康夫首相と会談した。」というテキストでは,『温家宝が福田康夫と会談した』,『温家宝が人民大会堂で会談した』,『福田康夫が人民大会堂で会談した』,『日本の首相は福田康夫だ』が言及されているため,「温家宝⇔福田康夫」,「温家宝⇔人民大会堂」,「福田康夫⇔人民大会堂」,「日本⇔福田康夫」の組が意味的関係を有する.また,「山田さんが横浜を歩いていると,鈴木さんと遭遇した。」というテキストでは,『山田が横浜を歩いていた』,『山田が鈴木と遭遇した』が言及されており,また『鈴木が横浜にいた』が含意されているため,「山田⇔横浜」,「山田⇔鈴木」,「鈴木⇔横浜」の組が意味的関係を有する.固有表現間の関係性判定の従来研究は,単語や品詞,係り受けなどの素性を用いた機械学習の研究が多い\cite{culotta2004dtk,kambhatla2004cls,zelenko2003kmr}.例えば,\citeA{kambhatla2004cls}らの研究では,与えられた二つの固有表現の関係の有無を判断するのに,係り受け木における二つの固有表現の最短パスと,二つの固有表現の間の単語とその品詞を素性として利用した手法を提案している.特に,係り受け木における二つの固有表現の最短パスを素性として利用することが,固有表現間の関係性判定に有効であることを報告している.しかし,{\ref{method}}で後述するように,実データ中に存在する意味的関係を有する固有表現の組のうち,異なる文に出現する固有表現の組は全体の約43.6\%を占めるにも関わらず,従来手法では,係り受けなどの文に閉じた素性だけを用いている.この文に閉じた素性は,異なる文に出現する固有表現間の組には利用できず,従来手法では,二つの固有表現の間の単語とその品詞だけを素性として利用するため,適切に意味的関係の有無を判別することができない.本論文では,係り受けなどの文に閉じた素性だけでなく,文脈的情報などの複数の文をまたぐ素性を導入した機械学習に基づく関係性判定手法を提案し,その有効性について議論する. \section{関係性判定における文脈的素性の利用} \label{teian}提案手法では,SalientReferentList\cite{nariyama2002ger}に基づく文脈的素性を導入し,単語や品詞,係り受けなどの伝統的に利用されている素性と組合わせる.これらの素性はひとつの木構造として表現され,ブースティングに基づく分類アルゴリズムに渡される.本手法における処理の流れは次の通りである.テキストに出現する固有表現の組が入力され,(1)形態素解析や固有表現抽出,係り受け解析を行なう基盤解析部,(2)提案する文脈的素性や係り受けなどに基づく素性を抽出する素性抽出部,(3)抽出された素性に基づいて正例と負例に分ける分類部を通り,入力された固有表現の組が意味的関係を有するか否かを判定した結果を出力する.ここでは,文脈的素性の基本的な考え方と関係性判定に利用する具体的な素性について説明する.\subsection{文脈的素性の基本的な考え方}\label{anaphora}異なる文に出現する固有表現の組が意味的関係を有するということは,与えられた固有表現の組のうち,先に出現する固有表現が,後に出現する固有表現を含む文において「文脈的に参照され易い」ことを意味する.例えば,例1のテキストにおいて,「ケン⇔アメリカ」の組は先に出現する「ケン」が後に出現する「アメリカ」を含む文において文脈的に参照され易い(実際にガ格ゼロ代名詞の先行詞である)ため『ケンがアメリカに渡る』という意味的関係を持つが,「ナオミ⇔アメリカ」の組の場合は文脈的に参照されにくいため意味的関係を持たない.\vspace{1\baselineskip}(例1)明日、$ケン_{i}$は大阪を訪れ、ナオミと会う。\\\phantom{(例1)}その後($\phi_{i}$ガ)アメリカに渡りトムと旅行する。\vspace{1\baselineskip}以上のことから,与えられた固有表現の組のうち,先に出現する固有表現が,後側の固有表現が出現する文脈において参照されるか否かという情報を素性として用いることが意味的関係の有無を判定するのに有用であると考えられる.本研究では,上記の情報を取得するために,ある名詞句が後続する文脈において「どの程度参照され易いか」を評価するアルゴリズムの\citeA{nariyama2002ger}手法を用いる.\begin{figure}[t]\begin{center}\includegraphics{15-4ia3f1.eps}\end{center}\caption{SalientReferentListに保持された情報}\label{center}\end{figure}\subsection{SalientReferentListと優先規則}\label{centering}Nariyamaは,談話の構造と焦点の移り変わりを説明する理論であるセンタリング理論{\cite{grosz1983pua}}を日本語ゼロ代名詞の照応解析に適用するアルゴリズムとしてSalientReferentListとその優先規則を提案した.このアルゴリズムは,言い換えると,ゼロ代名詞よりテキスト前方に出現した名詞句を先行詞になりやすい順に並び替えるものである.Nariyamaのゼロ代名詞照応解析手法は,1文前の先行詞候補のみを対象としてきたセンタリング理論の考え方に対し,先行詞候補を蓄える記憶領域であるSalientReferentListに2文以上前の候補も保持することができる.また,この手法では,次に示す先行詞らしさの選好を用いる.\vspace{1\baselineskip}\begin{itemize}\item主題(``は''){$>$}主語(``ガ格''){$>$}間接目的(``二格''){$>$}直接目的(``ヲ格''){$>$}その他\end{itemize}\vspace{1\baselineskip}この選好は,日本語は主題であるほど省略されやすく,また主題は助詞``は''を用いて記される傾向があるという知見に基づいたものである.SalientReferentListは上記の要素(主題,主語,間接目的,直接目的,その他)のそれぞれにスタック(後入れ先出し構造)を持ち,先行詞候補を保持する際には,ゼロ代名詞の直前まで,次の処理を繰り返す.\vspace{1\baselineskip}\begin{itemize}\itemテキストの先頭から文の流れに沿って1つずつ先行詞候補(名詞句)を抽出し,格情報に対応するスタックにPushする.\end{itemize}\vspace{1\baselineskip}ゼロ代名詞を補完する際は,SalientReferentListに保持されている情報と,上に示した選好,スタックに基づき,優先度の高い候補から順にガ格,二格,ヲ格に同定する.例1のテキストを用いて,ゼロ代名詞({$\phi_{i}$}ガ)の照応解析時の処理の流れを示す.まず,テキスト先頭から文の流れに沿って,ゼロ代名詞の直前までにある「明日」,「ケン」,「大阪」,「ナオミ」を,順に格助詞に対応するスタックにPushする.結果,図{\ref{center}}のような情報がSalientReferentListに保持される.次に,ゼロ代名詞を補完するために,先に示した選好とスタックに基づき,1.「ケン」,2.「大阪」,3.「ナオミ」,4.「明日」と優先度の高い順に並び替える.この並び替えによって最上位になった「ケン」をゼロ代名詞({$\phi_{i}$}ガ)の先行詞に同定する.\subsection{固有表現間の関係性判定への適用方法}固有表現間の関係性判定では,与えられた固有表現の組のうち,先に出現する固有表現が,後に出現する固有表現を含む文脈において参照され易いか否かを取得するために,上記のSalientReferentListを利用する.ここで,本研究においては,ゼロ代名詞を見つけ,その先行詞を同定するといった明示的な省略補完は行わないことに注意されたい.\subsubsection{SalientReferentListの最上位を利用}\label{tekiyou}固有表現間の関係性判定にSalientReferentListを適用するにあたって,NariyamaアルゴリズムにおけるSalientReferentListへの名詞句の格納処理を,「ゼロ代名詞の直前まで」ではなく,「{\bf後に出現する固有表現の直前まで}」と変更する.つまり,与えられた固有表現の組のうち,後に出現する固有表現の直前まで,次の処理を繰り返し,SalientReferentListに名詞句を保持する.\vspace{1\baselineskip}\begin{itemize}\itemテキストの先頭から文の流れに沿って1つずつ名詞句を抽出し,格情報に対応するスタックにPushする.\end{itemize}\vspace{1\baselineskip}そして,SalientReferentListに保持されている情報と,{\ref{centering}}で示した選好,スタックに基づき,優先度の高い順に並び替える.提案手法では,先に出現する固有表現が,並び替えられた情報の中で最上位の名詞句か否かを文脈的素性として利用する.つまり,先に出現する固有表現と並び替えによって最上位になった名詞句が一致すれば,先に出現する固有表現は,後に出現する固有表現を含む文脈において参照され易いと判断する.この参照され易いか否かを文脈的素性として利用する.本論文では,本素性を``SRL-T''(SalientReferentListTop)と呼び,素性の値は,参照され易いと判断されれば1となる.例1のテキストにおいて,「ケン⇔アメリカ」の組が与えられた時の処理の流れを示す.テキストの先頭から文の流れに沿って,後に出現する固有表現「アメリカ」の直前までにある名詞句の「明日」,「ケン」,「大阪」,「ナオミ」を順に,格情報に対応したスタックにPushする.結果,図{\ref{center}}のような情報がSalientReferentListに保持される.次に,{\ref{centering}}で示した選好とスタックに基づき,1.「ケン」,2.「大阪」,3.「ナオミ」,4.「明日」と優先度の高い順に並び替える.ここで,先に出現する固有表現「ケン」と最上位になった名詞句「ケン」が一致するので,「ケン」は「アメリカ」を含む文脈において参照され易いと判断し,文脈的素性``SRL-T''を1とする.一方,同テキストにおいて,「ナオミ⇔アメリカ」の組が与えられた時は,後に出現する固有表現「アメリカ」が上の例と同じため,同じ並び替え結果(1.「ケン」,2.「大阪」,3.「ナオミ」,4.「明日」)が得られる.ここでは,先に出現する固有表現「ナオミ」と最上位になった名詞句「ケン」が一致しないので,「ナオミ」は「アメリカ」を含む文脈において参照されにくいと判断し,文脈的素性``SRL-T''を0とする.\begin{figure}[t]\begin{center}\includegraphics{15-4ia3f2.eps}\end{center}\caption{SalientReferentListに保持された情報(テキスト例2の「大阪⇔ケン」)}\label{center2}\end{figure}このようにSalientReferentListを利用した文脈的素性によって,{\ref{anaphora}}で述べた例1のテキストにおける「ケン⇔アメリカ」と「ナオミ⇔アメリカ」の意味的関係の有無を適切に判定できると期待できる.\subsubsection{SalientReferentListの構造を利用}\label{riyou}{\ref{centering}}で述べたNariyamaのゼロ代名詞照応解析手法で用いられている選好は,日本語は主題であるほど省略されやすいという知見に基づいており,この選好によって並び替えられる名詞句は,当然主題になりやすいものが上位にくる傾向にある.つまり,上記のようにSalientReferentListを選好で並び替え,その最上位を用いる方法では,与えられた固有表現の組のうち,先に出現する固有表現が地名や時間などの主題になりにくい固有表現の場合,後に出現する固有表現を含む文脈において,参照されにくいと判断されることが多い.\vspace{1\baselineskip}(例2)昨日、大阪でパーティーが開かれた。\\\phantom{(例2)}ケンやトムが出席した。\vspace{1\baselineskip}例えば,例2のテキストにおいて「大阪⇔ケン」の組が与えられた時,テキストの先頭から文の流れに沿って,後に出現する固有表現「ケン」の直前までにある名詞句の「昨日」,「大阪」,「パーティー」を順に,格情報に対応したスタックにPushし,図{\ref{center2}}の情報がSalientReferentListに保持される.そして{\ref{centering}}で示した選好とスタックに基づき,1.「パーティー」,2.「大阪」,3.「昨日」と優先度の高い順に並び替えられる.ここで,先に出現する固有表現「大阪」と最上位になった名詞句「パーティー」が一致しないので,「大阪」は「ケン」を含む文脈において参照されにくいと判断され,文脈的素性``SRL-T''は0となる.このように,SalientReferentListをゼロ代名詞照応解析のための選好で並び替える方法では,地名や時間などの主題になりにくい固有表現が,後続する文脈において参照され易いか否かを判定することができない.これはゼロ代名詞照応解析は述語の場所格や時間格などの任意格要素の補完を対象としていないからである.\begin{figure}[t]\setlength{\captionwidth}{0.48\textwidth}\begin{minipage}[b]{0.48\hsize}\begin{center}\includegraphics{15-4ia3f3.eps}\end{center}\hangcaption{図\ref{center2}のSalientReferentListから生成された構造情報}\label{center_str2}\end{minipage}\hfill\begin{minipage}[b]{0.48\hsize}\begin{center}\includegraphics{15-4ia3f4.eps}\end{center}\hangcaption{構造情報における最短パスの構造(テキスト例2の「大阪⇔ケン」)}\label{feature2}\end{minipage}\end{figure}そこで,地名や時間などの固有表現が,後続する文脈において参照され易いか否かを判定するために,SalientReferentListをゼロ代名詞照応解析のための選好で並び替えず,地名や時間としてどの程度参照され易いかを素性として利用する.本論文では,SalientReferentListに保持された情報を,構造を持つ情報と捉え,その構造情報を固有表現間の関係性判定に用いる.SalientReferentListに保持された情報から構造情報を生成する方法は,まず,SalientReferentListに保持された情報は,与えられた固有表現の組のうち,後に出現する固有表現の直前の情報であるため,生成する構造情報の根ノードを後に出現する固有表現とする.次に,各要素(主題,主語,間接目的,直接目的,その他)ごとにスタックから最上位の名詞句をPopして,根ノードの子ノードに配置し,そして,スタックが空になるまで,名詞句を順次Popし,1つ前にPopされた名詞句の子ノードに配置する.ここで各ノードに,どの要素の情報かを区別するため,``は''などのラベルも付与する.提案手法では,地名や時間としてどの程度参照され易いかを得るために,生成した構造情報における二つの固有表現の最短パスの構造を文脈的素性として利用する.本論文では,本素性を``SRL-S''(SalientReferentListStructure)と呼ぶ.例2のテキストの「大阪⇔ケン」の組が与えられたときの処理の流れを示す.後に出現する固有表現「ケン」の直前までの名詞句の「昨日」,「大阪」,「パーティー」を順に,格情報に対応するスタックにPushし,図{\ref{center2}}の情報がSalientReferentListに保持される.このSalientReferentListに保持された情報は,後に出現する固有表現「ケン」の直前の情報であるため,構造情報の根ノードを「ケン」とする.次に,``主題''は情報が空のためスキップし,``主語''の最上位の名詞句「パーティー」をPopして根ノードの子ノードに要素ラベルを付与した「ガ格:パーティー」配置する.そして,``間接目的''と``直接目的''の情報も空のためスキップし,``その他''の最上位の名詞句「大阪」をPopして根ノードの子ノードに「他:大阪」を配置する.最後に,``その他''の名詞句「昨日」をPopして,1つ前にPopした名詞句「他:大阪」の子ノードに「他:昨日」を配置する.生成された構造情報を図{\ref{center_str2}}を示す.この構造において二つの固有表現「大阪⇔ケン」の最短パスの構造(図{\ref{feature2}})を文脈的素性``SRL-S''とする.このように,SalientReferentListに保持された情報を構造として捉えることで,先に出現する固有表現が地名や時間の場合も,後続する文脈において参照され易いか否かが取得でき,例2のテキストにおける「大阪⇔ケン」の意味的関係の有無を適切に判定できると期待できる.\subsubsection{2つの文脈的素性の組み合わせ}\label{kumiawase}提案した2つの文脈的素性は,共に,先に出現する固有表現が,後続する文脈で参照され易いか否かを表現しているが,前者のSalientReferentListの最上位を用いた素性``SRL-T''は,主題になりやすい人名や組織名の,後者のSalientReferentListの構造を用いた素性``SRL-S''は,主題になりにくい地名や時間の参照され易さを示している.SalientReferentListの構造を用いた素性``SRL-S''でも,主題になり易い人名や組織名の参照され易さを表現することができるが,``SRL-S''は,先に出現する固有表現が保持されているスタックしか考慮しないため,例えば,先に出現する固有表現が``主語''の1番目に保持されている時,``SRL-S''は,``主題''に他の名詞句が保持されている・いないに関わらず同じ構造が素性となるが,``SRL-T''は,``主題''に他の名詞句が保持されていれば0に,``主題''に他の名詞句が保持されていなければ1になる.このように提案した2つの素性は,常に同じ情報になるわけではない.そこで,本論文では,{\ref{bunrui}}で後述すように,2つの文脈的素性を組み合わせる.\subsection{分類器}\label{bunrui}分類器には,構造情報を用いた研究で高精度な分類結果が報告されている構造情報を明示的に利用した分類手法を用いる.構造情報を明示的に利用した分類手法には,TreeKernel\cite{collins2002ckn}やHDAGKernel\cite{suzuki2005kai}などのカーネル法を利用した手法と,部分木を素性とするブースティングに基づく手法\cite{kudo2004han}などがある.今回の実験では,比較的学習時間が短く実験が容易に行える工藤らのアルゴリズムが実装された分類器BACT\footnote{http://chasen.org/\~{}taku/software/bact/}を使用した.固有表現間の関係性判定では,{\ref{tekiyou}}で提案した2つの文脈的素性と従来から用いられている固有表現間の単語や係り受けに基づく素性を,まとめてひとつの大きな木構造で表現する.ここで,SalientReferentListの最上位を利用した素性と固有表現間の間の単語とその品詞に基づく素性は木構造で表現されていないため,各素性を1つのノードからなる木構造とする.そして,全ての木構造をまとめる際は,根ノードに``Root''と書かれたノードを用意して,その子ノードに各木構造を配置する.また,どの素性に属するノードかを区別するため,各ノードに``SRL-T''などのラベルを付与した.例えば,例2のテキストにおける「ケン⇔大阪」の組の素性をひとつの大きな木構造で表現すると図{\ref{tree}}のようになる.\begin{figure}[t]\begin{center}\includegraphics{15-4ia3f5.eps}\end{center}\caption{素性の木構造(例2のテキストにおける「ケン⇔大阪」の組の例)}\label{tree}\end{figure}この木構造を用いて,学習時には,分類に有効な規則集合(部分木)を学習し,解析時には,学習した規則集合を適用することで固有表現の組が意味的関係を有するか否かを判定する. \section{評価実験} \label{eva}\subsection{評価データ}\label{evadata}テキスト中の固有表現の組に人手で意味的関係の有無を判定した日本語の新聞記事1,400記事とブログ4,800記事の計6,200記事を用いる.なお固有表現の組として[人名⇔地名],[人名⇔組織名],[組織名⇔地名],[人名⇔人名],[組織名⇔組織名],[地名⇔地名]の組合わせを対象に評価データを作成した.作業者には{\ref{hajimeni}}で述べた意味的関係の定義に加え,注意すべき点として,否定・願望・仮定で記述された内容に関しては意味的関係はないとすること,実世界で関係があると分かっていても,テキストの文脈から読み取ることができなければ意味的関係はないとすることをインストラクションとして与えた.また作業者間の一致率を調べるために,2人の作業者(作業者Aと作業者B)がタグ付け作業を行なった.データの詳細を表\ref{data_icchi}に示す.6つの組合わせの総数537,411組に対して,作業者Aは24,329組が,作業者Bは22,263組が意味的関係を有すると判断し,作業者間の$\kappa$値は0.827となった.また,作業者Aを正解,作業者Bをシステムと見なして\ref{result}で示す精度と再現率を計算すると,精度0.873,再現率0.799となった.\begin{table}[t]\caption{2人の作業者によるタグ付け作業の一致率}\label{data_icchi}\input{03table01.txt}\end{table}\begin{table}[t]\caption{評価データにおける(A)文内と(B)文間の内訳}\label{uchiwake}\input{03table02.txt}\end{table}このようなデータにおいて,作業者Aが作成したデータ,537,411組のうち24,329組が意味的関係を有すると判断されたデータ,を用いて5分割交差検定を行なった.\subsection{学習方法}\label{method}今回の実験では,[人名⇔地名],[人名⇔組織名],[組織名⇔地名],[人名⇔人名],[組織名⇔組織名],[地名⇔地名]の各組合わせごとに,対象となる二つの固有表現が(A)同じ文に出現する場合と(B)異なる文に出現する場合に分けて学習しモデルを作成した.このように対象を2つに分ける理由として,(A)には係り受けに基づく素性などの文に閉じた素性が,(B)には提案した文脈的素性などの複数の文をまたぐ素性が特に有効であると考えられ,分けずに学習すると各々の特徴が平滑化され適切な学習ができないと考えられるからである.また評価データにおける(A)文内と(B)文間の内訳は表\ref{uchiwake}のようになっており,(A)と(B)で組合わせ総数に対する意味的関係のある組の割合が極端に異なることからも(A)と(B)を分けて学習することが考えられる.\subsection{実験結果と考察}\label{result}テキストにおける固有表現間の関係性判定実験において,提案した文脈的素性を用いることによりどの程度解析性能が向上するかを調査するために,次の5つの手法を比較評価した.なお,固有表現の間の単語とその品詞,係り受けに基づく素性や文脈的素性の抽出は,既存の形態素解析器・固有表現抽出器・係り受け解析器で得られた結果を利用した.\vspace{1\baselineskip}\begin{description}\item[WD]固有表現の組が$n$単語内に出現するなら意味的関係にあると判定する手法\item[DEP]固有表現の組の間の単語と品詞,係り受けに基づいた素性を用いた機械学習手法\item[DEP+SRL-T]``DEP''に加え,SalientReferentListの最上位を用いた手法\item[DEP+SRL-S]``DEP''に加え,SalientReferentListの構造を用いた手法\item[DEP+SRL-T+SRL-S]``DEP''に加え,SalientReferentListの最上位と構造を用いた手法\end{description}\vspace{1\baselineskip}\begin{figure}[t]\begin{center}\includegraphics{15-4ia3f6.eps}\end{center}\caption{全組合わせの再現率—精度曲線}\label{rpc_all}\end{figure}実験結果として,全組合わせの再現率—精度曲線を図\ref{rpc_all}に示す.この曲線は,分類器の出力した識別関数の値を動かして描いた.ただし,WDでは,単語距離{$n$}を変化させて再現率—精度曲線を描いた.なお精度と再現率は次式の通りである.\vspace{0.5\baselineskip}\begin{gather*}精度=\frac{システムが出力した正解関係あり数}{システムが出力した関係あり数}\\[0.5zw]再現率=\frac{システムが出力した正解関係あり数}{正解関係あり数}\end{gather*}\vspace{0.5\baselineskip}図\ref{rpc_all}において``DEP''と``DEP+SRL-T'',``DEP+SRL-S'',``DEP+SRL-T+SRL-S''を比較すると,文脈的素性を用いた提案手法が関係性判定に有効であることがわかる.分類器の出力した識別関数の値が0における各手法の精度と再現率は,``DEP''が精度0.691,再現率0.508,``DEP+SRL-T''が精度0.762,再現率0.603,``DEP+SRL-S''が精度0.749,再現率0.590,``DEP+SRL-T+SRL-S''が精度0.804,再現率0.650と提案手法によって,精度が約0.113,再現率が約0.142向上することが確認できた.ここで,``DEP+SRL-T''と``DEP+SRL-S''を比較すると,精度,再現率の数値に大きな差は見られないが,これらを導入することにより正しく判定できるようになった事例をみると,``DEP+SRL-T''は主題になり易い人名と組織名が先に出現する組に,``DEP+SRL-S''は主題になりにくい地名が先に出現する組に有効であることが確認できた.また,これらを組み合わせた``DEP+SRL-T+SRL-S''では,この両組が正しく判定できるようになっており,2つの文脈的素性が補いあうことで更に精度・再現率が向上したことが確認できた.\begin{table}[t]\caption{全組合わせの(A)文内と(B)文間の精度と再現率}\label{res_type}\input{03table03.txt}\end{table}\begin{table}[t]\caption{[人名⇔地名],[人名⇔組織名],[組織名⇔地名]の精度と再現率}\label{res_pare1}\input{03table04.txt}\end{table}次に,提案手法が,文間の精度と再現率の向上にどの程度寄与したかを調査した.実験結果として,表\ref{res_type}に全組合わせの(A)文内と(B)文間に対する各手法の精度と再現率を示す.表\ref{res_type}からわかるように,提案手法``DEP+SRL-T+SRL-S''は,``DEP''に比べ,文間の場合,精度が約0.220,再現率が約0.223向上したことが確認できた.最後に,今回対象にした[人名⇔地名],[人名⇔組織名],[組織名⇔地名],[人名⇔人名],[組織名⇔組織名],[地名⇔地名]の各組合わせに対して提案手法が有効かを調査した.実験結果として,表\ref{res_pare1}と表\ref{res_pare2}に各組合わせに対する各手法の精度と再現率を示す.これらの結果から,提案手法は全ての組合わせで精度,再現率が向上していることが確認できる.またもっとも効果があったのは,[組織名⇔組織名]に対してで精度が約0.166,再現率が約0.190向上することがわかった.\begin{table}[t]\caption{[人名⇔人名],[組織名⇔組織名],[地名⇔地名]の精度と再現率}\label{res_pare2}\input{03table05.txt}\end{table}\subsection{誤り分析}\label{ayamari}テキストにおける固有表現間の関係性判定の評価実験おいて,提案手法が,誤って意味的関係を有すると判定した3,853事例と意味的関係を有すると判定できなかった8,504事例の計12,357事例のうち分類器の出力する識別関数の絶対値が大きいものから1,000事例(但し,前処理の係り受け解析が誤っている事例は除く)を分析した結果,次の2つ誤りが約80%の誤りをカバーすることがわかった.\vspace{1\baselineskip}\begin{enumerate}\item文間に出現する固有表現の組の誤りとして,首相や社長といった役職を示す一般名詞が出現することによって,異なる文に出現する固有表現の組が意味的関係を有すると人なら判断できるものが多い.例えば,次の例3のようなテキストにおいて,首相という一般名詞が2文目にあることで,1文目の福田首相と2文目のアメリカが意味的関係を有するとなる.これは,首相や社長といった役職を示す一般名詞が,代名詞と同様に先行詞を持つことが原因と考えられる.同様に,同社や同県などのように「同…」といった名詞による照応も存在する.これに対処するには,どの一般名詞が先行詞を持つか,またその先行詞は何かを見つける必要があると考えられる.\vspace{1\baselineskip}(例3)明日、福田首相は中国を訪れ、胡錦濤国家と会談する。\\\phantom{(例3)}その後、首相はアメリカに渡りブッシュ大統領と会談を予定している。\vspace{1\baselineskip}\item文間に出現する固有表現の組の誤りとして,ブログ記事で頻繁に見られる,ひとつの記事に複数の話題について記述されている場合の誤りが多かった.例えば,ある記事の前半には「サッカー」について記述されており,その後「選挙」について記述されているものなどがある.これらの記事において,異なる話題に出現する固有表現の組は,ほとんどの場合は意味的関係はない.これに対処するには,入力テキストの話題の区切りを適切に見つける必要があると考えられる.\end{enumerate} \section{おわりに} \label{sec:owarini}本論文では,テキストにおける固有表現間の関係性判定に取り組み,従来の係り受けなどの文に閉じた素性だけでなく,複数の文をまたぐSalientReferentListに基づいた文脈的素性を導入した機械学習に基づく手法を提案した.[人名⇔地名],[人名⇔組織名],[組織名⇔地名],[人名⇔人名],[組織名⇔組織名],[地名⇔地名]の固有表現の組に対する評価実験では,提案手法は精度80.4%,再現率65.0%と,従来研究より精度が約11.3%,再現率が約14.2%向上したことがわかり,提案手法の有効性が確認できた.また提案手法は,実験した全ての固有表現の組に対して効果があることも確認できた.今後は,固有表現間の関係性判定の更なる精度向上を目指し,上記の考察で述べた問題に取り組むとともに,次のステップである(b)固有表現の組の関係ラベルを同定する技術にも取り組む予定である.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Agichtein\BBA\Gravano}{Agichtein\BBA\Gravano}{2000}]{agichtein2000ser}Agichtein,E.\BBACOMMA\\BBA\Gravano,L.\BBOP2000\BBCP.\newblock\BBOQSnowball:ExtractingRelationsfromLargePlain-TextCollections\BBCQ\\newblockIn{\BemProceedingsofthe5thACMconferenceonDigitallibraries},\mbox{\BPGS\85--94}.\bibitem[\protect\BCAY{Brin}{Brin}{1998}]{brin1998epa}Brin,S.\BBOP1998\BBCP.\newblock\BBOQExtractingPatternsandRelationsfromtheWorldWideWeb\BBCQ\\newblockIn{\BemWebDBWorkshopat6thInternationalConferenceonExtendingDatabaseTechnology},\mbox{\BPGS\172--183}.\bibitem[\protect\BCAY{Collins\BBA\Duffy}{Collins\BBA\Duffy}{2002}]{collins2002ckn}Collins,M.\BBACOMMA\\BBA\Duffy,N.\BBOP2002\BBCP.\newblock\BBOQConvolutionKernelsforNaturalLanguage\BBCQ\\newblock{\BemAdvancesinNeuralInformationProcessingSystems},{\Bbf14},\mbox{\BPGS\625--632}.\bibitem[\protect\BCAY{Culotta\BBA\Sorensen}{Culotta\BBA\Sorensen}{2004}]{culotta2004dtk}Culotta,A.\BBACOMMA\\BBA\Sorensen,J.\BBOP2004\BBCP.\newblock\BBOQDependencyTreeKernelsforRelationExtraction\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\423--429}.\bibitem[\protect\BCAY{Grosz,Joshi,\BBA\Weinstein}{Groszet~al.}{1983}]{grosz1983pua}Grosz,B.~J.,Joshi,A.~K.,\BBA\Weinstein,S.\BBOP1983\BBCP.\newblock\BBOQProvidingaUnifiedAccountofDefiniteNounPhrasesinDiscourse\BBCQ\\newblockIn{\BemProceedingsofthe21stannualmeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\44--50}.\bibitem[\protect\BCAY{Hasegawa,Sekine,\BBA\Grishman}{Hasegawaet~al.}{2004}]{hasegawa2004dra}Hasegawa,T.,Sekine,S.,\BBA\Grishman,R.\BBOP2004\BBCP.\newblock\BBOQDiscoveringRelationsamongNamedEntitiesfromLargeCorpora\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\415--422}.\bibitem[\protect\BCAY{Kambhatla}{Kambhatla}{2004}]{kambhatla2004cls}Kambhatla,N.\BBOP2004\BBCP.\newblock\BBOQCombiningLexical,Syntactic,andSemanticFeatureswithMaximumEntropyModelsforExtractingRelations\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\178--181}.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2004}]{kudo2004han}工藤拓\JBA松本裕治\BBOP2004\BBCP.\newblock\JBOQ半構造化テキストの分類のためのブースティングアルゴリズム\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf45}(9),\mbox{\BPGS\2146--2156}.\bibitem[\protect\BCAY{Nariyama}{Nariyama}{2002}]{nariyama2002ger}Nariyama,S.\BBOP2002\BBCP.\newblock\BBOQGrammarforEllipsisResolutioninJapanese\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonTheoreticalandMethodologicalIssuesinMachineTranslation},\mbox{\BPGS\135--145}.\bibitem[\protect\BCAY{鈴木\JBA佐々木\JBA前田}{鈴木\Jetal}{2005}]{suzuki2005kai}鈴木潤\JBA佐々木裕\JBA前田英作\BBOP2005\BBCP.\newblock\JBOQ階層非循環有向グラフカーネル\JBCQ\\newblock\Jem{電子情報通信学会論文誌D},{\Bbf88}(2),\mbox{\BPGS\230--240}.\bibitem[\protect\BCAY{Zelenko,Aone,\BBA\Richardella}{Zelenkoet~al.}{2003}]{zelenko2003kmr}Zelenko,D.,Aone,C.,\BBA\Richardella,A.\BBOP2003\BBCP.\newblock\BBOQKernelMethodsforRelationExtraction\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf3},\mbox{\BPGS\1083--1106}.\end{thebibliography}\begin{biography}\bioauthor{平野徹(正会員)}{2003年和歌山大学システム工学部情報通信システム学科卒.2005年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年日本電信電話(株)入社.自然言語処理の研究に従事.}\bioauthor{松尾義博(正会員)}{1988年大阪大学理学部物理学科卒.1990年同大大学院研究科博士前期課程修了.同年日本電信電話(株)入社.機械翻訳,自然言語処理の研究に従事.情報処理学会会員.}\bioauthor{菊井玄一郎(正会員)}{1984年京都大学工学部電気工学科卒.1986年同大学大学院工学研究科修士課程電気工学第二専攻修了.同年日本電信電話(株)入社.1990〜94および2001〜06(株)国際電気通信基礎技術研究所(ATR)に出向.現在,日本電信電話(株)サイバースペース研究所,音声言語メディア処理研究プロジェクト,音声・言語基盤技術グループリーダ.言語処理に関する研究開発に従事.博士(情報学).情報処理学会,電子情報通信学会,人工知能学会各会員.}\end{biography}\biodate\end{document}
V07N03-02
\section{はじめに} \label{sec:Introduction}自然言語処理は文中の多義の要素の曖昧性を解消する過程といえる.高品質の自然言語処理システムの実現には,辞書中に曖昧性解消のために必要な情報を適切に記述しておくことが必須である.本論文は,どのようにして異なった構文構造から同じ意味表現を生成するか,また,どのようにして意味的に曖昧な文から,それぞれの曖昧性に対応する意味表現を生成するかに焦点を当てて,日本語の連体修飾要素の振る舞いの取り扱いを論ずる.これらの問題の解決に向けて,連体修飾要素の形式的記述法を確立するために,生成的辞書の理論\cite{Pustejovsky95,Bouillon96}を採用し,拡張する\cite{Isahara99}.我々は日本語の連体修飾要素の意味的曖昧性の解消を,「静的な曖昧性解消(staticdisambiguation)」と「動的な曖昧性解消(dynamicdisambiguation)」の二つに分類した.静的な曖昧性解消が辞書中の語彙情報を用いて行えるのに対し,動的な曖昧性解消は,知識表現レベルでの推論を必要とする.本論文は主として,動的な曖昧性解消を論ずる.形容詞を中心とする日本語の連体修飾要素の分類については,語の用法の違いに着目して,IPAL辞書の記述結果から,連体,連用,終止といった用法の分布特性を述べた研究\cite{Hashimoto92j}や,統語構造の分析という観点から連体と連用の対応関係を分析した研究\cite{Okutsu97}などがある.また,連体修飾の意味関係という点からは,松本が分析を行って\cite{matsumoto93j}おり,被修飾名詞の連体修飾節との関係は,単に埋め込み文になるような関係だけではなくて,意味論的語用論的な要因が関係する場合があることを示した.本研究で用いている分類は,それぞれの用法の下での語の意味的なふるまいを分析し,そこで見られる多様な意味関係を体系的に整理したものである\cite{Kanzaki99}.Pustejovskyは,松本が論じたような語用論的な要素など,語の意味が実現する文脈をも語の意味記述として辞書中で形式的に取り扱おうとしている\cite{Pustejovsky95}.この理論を英語やフランス語の形容詞に適用した研究がいくつかなされている\cite{Bouillon96,Bouillon99,Saint98}が,これらは対象が感情を表す形容詞等に限定されている.本研究では,日本語の連体修飾要素を,上に述べたような分類の中に位置づけて,形式的な意味の取り扱いを試みている. \section{日本語連体修飾要素の用法の分類} \label{sec:classification}連体修飾要素とその主名詞との構文的関係について,ある種の連体修飾要素は,限定の位置(attributiveposition)と叙述の位置(predicativeposition)の双方に現れうることが知られている\cite{Sakuma67j,Martin75,Makino86}.しかしながら,別の形容詞群は現れる位置によって異なった意味になり,また,ある種の形容詞はこれら二つの位置のうちの片方にしか現れることができない\cite{Hashimoto92j}.我々は連体修飾要素とその被修飾名詞との間の意味的関係を,限定の位置から叙述の位置への言い換えが可能かどうかに基づいて,3つのタイプに分類した.\vspace*{5mm}\begin{description}\item[(TypeA)]意味的な修飾関係を変更することなく,言い換えが可能な場合.{\bfAd.+N$\rightarrow$NがAd.}\\(例:緩やかな傾斜$\rightarrow$傾斜が緩やかだ)\begin{tabular}[c]{llp{10cm}}Ad.&=&連体修飾要素\\N&=&連体修飾要素によって修飾される名詞句の主名詞\end{tabular}\normalsize\item[(TypeB)]名詞が文脈によって制約される場合(たとえば,連体詞などの修飾語あるいは限定語が存在する場合)にのみ言い換えが可能な場合.{\bfAd.+N$\rightarrow$そのNはAd.}\\(例:大柄な少年$\rightarrow$その少年は大柄だ)\clearpage\item[(TypeC)]言い換えが全くできない(限定の位置だけが可能な)場合.{\bfAd.+N$\rightarrow$$*$none$*$}\\(例:悲しい思い$\rightarrow$*思いが悲しい)\vspace*{5mm}\end{description}タイプAとタイプBでは言い換えは成立するが,タイプCにおいては全く成立しない.この違いはタイプAとBにおいては連体修飾要素が被修飾名詞の指示対象を意味的にも修飾するのに対し,タイプCの連体修飾要素がその主名詞を直接には修飾しないという事実に基づく.タイプCの連体修飾要素は,(a)被修飾名詞が示す対象の一部だけをか,(b)被修飾名詞の指示対象の内容をか,(c)被修飾名詞の指示対象の在り方を修飾する.本論文では,(b)には深入りせず,主として(a)と(c)の意味関係について論じる.なお,連体修飾要素と連用修飾要素の双方の機能を持つ連体修飾要素がある\cite{Kanzaki99}が,(c)の中には連体修飾要素とその主名詞との間にある連用的意味関係を含んでいる. \section{日本語の連体修飾要素の役割の分類} \label{sec:classification2}連体修飾要素の解析のためには,その主名詞が文中で何を意味しているかを考慮し\cite{Bouillon96},さらには,文脈と世界知識を考慮にいれることが重要である\cite{Pustejovsky95,Lascarides98}.この節では,日本語連体修飾要素の振る舞いを,名詞句の意味表現が辞書中の情報からどのようにして作られるかに基づいて3つのタイプに分類する\cite{Kanzaki97,Kanzaki98}.3つのタイプとは,(1)連体修飾要素が被修飾名詞のどの属性に情報を与えているのかを推論しなくてはならない場合,(2)解析にあたって,語の意味表現構造を変更するような推論が必要とされる場合,(3)連体修飾要素が被修飾名詞自体に情報を付与するのではなく,文中に現れる構成要素間の関係を制約する場合,である.この節では,これらのタイプについて説明する.既に述べた構文タイプAとBは,意味タイプ1と2に対応する.タイプCはタイプ3と対応する.\subsection{被修飾名詞の属性を表現する連体修飾要素[Staticdisambiguation]}\label{sec:Static_disambiguation}これは,連体修飾要素が,その被修飾名詞句中の主名詞を意味的にも修飾している場合である.連体修飾要素は構文的には名詞を修飾し,そのほとんどは主名詞を意味的にも修飾する.ここでは,連体修飾要素とその主名詞との間の関係の「解析」は,被修飾名詞のどの属性に対して連体修飾要素が情報を付加しているかを決定する問題である.曖昧性解消には二つのタイプの推論が存在する.\subsubsection{被修飾名詞の唯一の主要な属性を表現する連体修飾要素}これは,連体修飾要素とその主名詞の間の関係,すなわち被修飾名詞のどの属性(slot)を連体修飾要素が埋めるか,が予測できる場合である.例\ref{ex:yuruyaka_na_keisya}において,「ゆるやかな」は,概念「傾斜」のインスタンスの属性値である.「傾斜」のインスタンスは,唯一の主要な属性「傾斜の角度(程度)」を持つので,「ゆるやかな」は傾斜の程度に関する値であると見なされる.この例では,名詞はその値が数値あるいは程度であるような唯一の主要な属性を持っている.\begin{exx}\rm\label{ex:yuruyaka_na_keisya}\hspace*{.5cm}ゆるやかな傾斜\vspace*{3mm}\begin{center}\epsfile{file=fig/isa1.eps.unix,scale=0.7}\end{center}\end{exx}\subsubsection{被修飾名詞の主要な属性の内の一つを表現する連体修飾要素}この場合は,自然言語処理システムは修飾語が埋める被修飾名詞の属性を特定しなくてはならない.ほとんどの名詞は唯一の主要な属性といったものは持たず,いくつかの属性が連体修飾要素が情報を付加する候補となる.例\ref{ex:oogara_na_shonen}においては,「男」は,名前,年齢,性格,体格といったいくつかの主要な属性を持ち,言語理解システムはこれらの属性の中から,情報を埋め込むべき適切な属性(すなわち,この例の場合は体格)を選択しなくてはならない.\begin{exx}\rm\label{ex:oogara_na_shonen}\hspace*{.5cm}大柄な男\vspace*{3mm}\begin{center}\epsfile{file=fig/isa2.eps.unix,scale=0.7}\end{center}\end{exx}これらのタイプの形容詞は意味を変える事なく叙述の位置にも制限の位置にも現れうる\cite{Sakuma67j,Teramura91j,Hashimoto92j}.たとえば,例\ref{ex:oogara_na_shonen}における「大柄な」は,「その男は大柄だ」といった叙述の位置にも「男が大きな体格をしている」という同じ意味で現れることができる.適切な意味的情報がなければ,主名詞の属性から一つの適切な属性を選択することはできない.また,ここには,文が総称的な読みを要求するものか,ある概念の一つのインスタンスを示しているのかを決定するという問題もある.\subsection{被修飾名詞から推論される状況に関する属性を表現する連体修飾要素[Dynamicdisambiguation1]}\label{sec:Dynamic_disambigation1}連体修飾要素は被修飾名詞の指示対象のインスタンスそのものを修飾するのではなく,被修飾名詞(の存在する文脈)から推論される事象や状況あるいは知識のインスタンスを修飾する場合がある.\subsubsection{意味表現中で新しい要素を推論する必要がある場合}連体修飾要素と被修飾名詞との間の意味的関係を表現するために,意味表現中に新しい要素を推論しなくてはならないような場合がある.例\ref{ex:hayai_ie}において,連体修飾要素「早い」は意味的には,家を構成するメンバーが参加する何らかの事象を修飾する.家はその属性として時間に関する尺度を持てないが,ある事象(この場合は大掃除)が文脈から推論できれば,「早い」はその事象の持つ属性(この場合は大掃除の開始時間)を修飾することができる.しかしながら,この例の場合は,換喩表現の処理が必要となるから,計算機上での実装はそれほど簡単ではない.たとえシステムが,その「開始時刻」が「早い」事象として文脈中で「大掃除」を見つけ出すことができるにせよ,システムは「家」から,そこに住む人を推論し,その人が大掃除の行為者であることを推論しなくてはならない.英語においては,このような推論のあるものは構文構造を用いてなされる.日本語ではこの種の推論は困難であるが,換喩表現の処理は日本語における,修飾・被修飾関係の本質を決定するためには必須である\cite{matsumoto93j}.\begin{exx}\rm\label{ex:hayai_ie}\hspace*{.5cm}\underline{早い家}は12月に入ると,計画的に少しずつ片付け始める.\begin{center}\epsfile{file=fig/isa3.eps.unix,scale=0.7}\end{center}\end{exx}\subsubsection{一つの概念を概念の集合に変換しなくてはならない場合}連体修飾要素が名詞を全体として修飾するのではなく,名詞の特定の特徴だけを修飾する場合がある.例えば,例\ref{ex:ijouna1}は曖昧である.「全体(asawhole)」解釈は,この人は何かを愛好していて,その人は全体として異常である.「特定(specific)」解釈は,この人は何かを異常に愛好している,つまり,この人が何かを愛好している方法が異常である,つまり,この人は何かに熱狂している\footnote{もう一つ,「異常な占星術」を愛好する人という解釈もありうるが,その解釈は,ここで論じている「異常な」と「愛好者」の関係ではなくなる.}というものである.例\ref{ex:ijouna1}における「異常な」の曖昧性は,以下で形式的に議論される.\begin{exx}\rm\label{ex:ijouna1}\hspace*{.5cm}異常な占星術の愛好者\vspace*{3mm}\begin{center}\epsfile{file=fig/isa4.eps.unix,scale=0.7}\end{center}\end{exx}「特定」解釈を取り扱うためには,システムは図\ref{fig:Concept_Conversion}に示されるような概念変換\cite{Isahara95e}を実行する必要がある.\begin{figure}[htb]\begin{center}\epsfile{file=fig/isa5.eps.unix,scale=0.7}\label{fig:isahara3}\caption{概念変換}\label{fig:Concept_Conversion}\end{center}\end{figure}「全体」解釈では,連体修飾要素は被修飾要素の外延を修飾している(例えば,異常であるのは占星術愛好者である).したがって,「異常」(のインスタンス)のobjectslotは,「愛好者」(のインスタンス)で埋められる.しかしながら,「特定」解釈では,連体修飾要素は被修飾語が参照する内包の一部を修飾する(たとえば,異常であるのは,その人が何かを愛好する方法である).解析モジュールは意味構造を変換し(図\ref{fig:Concept_Conversion}),「異常」(のインスタンス)のobjectslotは,概念変換によって抽出された「愛好する」(のインスタンス)によって埋められる.概念変換は,意味表現上での,元の表現の言い換えであるといえる.概念変換は例\ref{ex:ijouna2}の解析にも有効である.\begin{exx}\rm\label{ex:ijouna2}\hspace*{.5cm}占星術の異常な愛好者\end{exx}例\ref{ex:ijouna2}は曖昧ではない.「全体」解釈が可能ではないので,「占星術の愛好の仕方が異常な人」が唯一の解釈である.何故かというと,例\ref{ex:ijouna2}は,例\ref{ex:ijouna3}に示されるような句に言い換えることができる.もし,「占星術」が「愛好する」を修飾した場合,係り受け関係が交差してしまうので,「異常に」は「者」を修飾することはできない.\begin{exx}\rm\label{ex:ijouna3}\hspace*{.5cm}占星術を異常に愛好する者\end{exx}例\ref{ex:ijouna4}は連体修飾要素「異常」が叙述の位置にある場合を示している.このような場合,一般には例\ref{ex:ijouna3}のような言い換えが可能となるが,「もし,文法規則と一致するなら,それぞれの入力語を現時点で解析されている句に結び付ける.」というLateClosureまたはRightAssociation\cite{Kimball73,Frazier79}の考え方を援用して,「全体」解釈を優先することが可能となる.\begin{exx}\rm\label{ex:ijouna4}\hspace*{.5cm}愛好者が異常だ.\end{exx}\subsection{テキスト中の構成要素間の関係を制約する連体修飾要素[Dynamicdisambiguation2]}\label{sec:Dynamic_disambiguation2}\subsubsection{被修飾名詞に直接情報を付加しない連体修飾要素}\label{sec:Dynamic_disambiguation2_1}連体修飾要素は多くの場合,名詞を構文的にも意味的にも修飾する.しかしながら,一部の連体修飾要素は異なった働きをする.すなわち,構文的には名詞を修飾するが意味的には修飾しない.日本語の形容動詞「純粋な」「完全な」「全く」などはこの種の振る舞いを典型的に行う.ここ示す,例\ref{ex:junsui1}-\ref{ex:junsui3}の「純粋な」と例\ref{ex:kanzen1}-\ref{ex:kanzen3}の「完全な」は,それぞれ異なった意味役割を果たす.\begin{exx}\rm\label{ex:junsui1}\hspace*{.5cm}純粋な水\end{exx}\begin{exx}\rm\label{ex:junsui2}\hspace*{.5cm}越境は\underline{純粋な政治亡命}だった.\end{exx}\begin{exx}\rm\label{ex:junsui3}\hspace*{.5cm}\underline{純粋な中立}は難しい.\end{exx}\begin{exx}\rm\label{ex:kanzen1}\hspace*{.5cm}\underline{完全なシステム}ではない.\end{exx}\begin{exx}\rm\label{ex:kanzen2}\hspace*{.5cm}農作物は\underline{完全な消費財}である.\end{exx}\begin{exx}\rm\label{ex:kanzen3}\hspace*{.5cm}完全な無人の館\end{exx}例\ref{ex:junsui1}において,「純粋な」は水の純粋性について述べている.すなわち,「水」概念(のインスタンス)の中の何かについて述べている.例\ref{ex:oogara_na_shonen}における連体修飾要素「大柄な」は,被修飾名詞,つまり「男」の属性の値を表現しているが,例\ref{ex:junsui1}における連体修飾要素「純粋な」は,被修飾名詞(すなわち「水」)の属性の値を表現しているのではなく,この被修飾名詞の属性をある値が占める,その方法を表現している.すなわち,「水以外のものは,その参照物の属性のフィラーではない.」ということを表現している.例\ref{ex:kanzen1}においても同様に,「完全な」は,システムの完全性(の程度)について述べている.すなわち,「システム」概念中の何か(例えばシステムの機能)について述べている{\bf(Case~1)}.例\ref{ex:junsui2}において,「純粋な」は,政治亡命そのものの純粋性に関して情報を付与しているのではなく,この「越境」には政治亡命という,ただ一つの目的(あるいは動機)しかないということを記述している.言い換えると,この行為を説明する他の動機(例えば観光とか経済的理由とかいったもの)はないことを示している.つまり「純粋な」は何かしら「政治亡命」概念の外にあるものについて記述している.例\ref{ex:kanzen2}において,「完全な」は,例\ref{ex:junsui2}における「純粋な」と非常に似た役割を果たしている.つまり,「農作物」には,消費財というただ一つの目的しかないことを記述している.すなわち,農作物には,原材料などの別の利用法はない{\bf(Case2)}.例\ref{ex:junsui1}と\ref{ex:junsui2}において対象とされているものは,たとえそれらが「純粋」でなかったとしても,依然として,「水」や「政治亡命」である.一方,例\ref{ex:junsui3}は,厳密な中立は難しいということを意味しているが,「純粋でない」中立は,厳密な意味では中立ではない.「純粋な」は「中立」という概念そのものについて記述している.例\ref{ex:kanzen3}についても同様に,「完全でない」無人は厳密な意味では無人ではない{\bf(Case3)}.日本語において,「純粋な」や「完全な」以外の多くの連体修飾要素による同様の現象がある.このような現象の形式的取り扱いは\ref{sec:Hypothesis_and_Difinition}節で論じる.\subsubsection{存在の在り方を表す連体修飾要素}\label{sec:state_of_being}「立派な」のような連体修飾要素は限定の位置にあって被修飾名詞の在り方を表すことができる.例\ref{ex:rippa}において,連体修飾要素「立派な」は島自体の様子(aspect)を記述しているのではなく,それが島だと認識されるために必要なものの本質(nature)について記述している.言い換えると,「これはまさに,大きな岩ではなく島である.」ということを表しているのである.\begin{exx}\rm\label{ex:rippa}\hspace*{.4cm}この海山がさらに隆起したり,前述のように海面低下で海上に顔を出したりす\\\q\q\qれば\underline{立派な島}となる.\end{exx}\newpage例\ref{ex:junsui1}や\ref{ex:kanzen1}の連体修飾要素がその意味を変える事なく,限定の位置にも叙述の位置にも現れうるのに対し,例\ref{ex:junsui2},\ref{ex:junsui3},\ref{ex:kanzen2},\ref{ex:kanzen3}では,その意味を変えずには叙述の位置には現れることはできない.もし「立派な」が叙述の位置に現れて,「島が立派だ」となると,これは「その島の状況が立派だ」というように島の在り方を表すことになる\footnote{英語では,``real''が同様の例として存在する.``arealfriend''は「親友」を意味し,``hisfriendisreal''は「彼の友人が想像上の存在ではないことを意味している.}.「立派な島」は文脈がないと二つの解釈がありうる.すなわち,「その島が立派だ」というように島自体の様子を記述している場合と,それが島であると認識されるために必要とされるものの本性を記述している場合である.自然言語処理システムがこの名詞句を解析する場合には,文脈中で,連体修飾要素とその被修飾名詞の間の意味関係を用いて,これら二つの可能性のうちで適切な方の解釈を選択しなくてはならない.さらに,連体修飾要素とその被修飾名詞との意味的関係を解釈するためには,時には文脈や世界知識を用いて新たに導入される概念のインスタンスを推論する必要がある場合がある.\ref{sec:Dynamic_disambigation1}節の例\ref{ex:hayai_ie}の「早い家」はこのような状況を示している.語彙意味論の体系においては,文脈と我々の持つ世界知識とを考慮にいれることが重要である.語彙項目の意味的機能はいくつかの観点から解析するべきである. \section{日本語連体修飾要素の形式的取り扱い} この節では,これまで述べてきた連体修飾要素の振る舞いのうち,構文的な被修飾名詞を意味的には修飾しないため,取り扱いが複雑になるものとして,\ref{sec:Dynamic_disambiguation2}節で述べたcase1から3の言語現象を取り上げ,その形式的取り扱いについて,「純粋な」を例に論ずる.この議論は「完全な」「全く」といった同種の形容詞の取り扱いにも直接適用できる.また,第3節で分類した連体修飾要素の振る舞いの内で,3.1節で述べたStaticdisambiguationは,被修飾要素中に既に存在する属性に対して情報を付加する操作であり,その論理操作は単純である.3.2節で述べたDynamicdisambiguation1も,連体修飾要素自体の役割を越えた一般的な意味表現のレベルでの変換が要求されるが,一旦変換された後の操作はStaticdisambiguationと同じである.case1の「純粋な水」において,水の純度が高いことを意味するのは「純粋な」固有のことであるが,被修飾語の名詞の内部的な属性を表すという点では,3.1節,3.2節に示したものと同様の処理となる.また,case2の「純粋な政治亡命」において,目的を唯一とするということを意味するのは「純粋な」固有のことであるが,被修飾語の名詞の在り方を修飾している連用的な振る舞いは,広く他の形容詞にもみられる.このように,ここで示す取り扱いのそれぞれは,他の形容詞においても成り立つものである.\subsection{仮説と定義}\label{sec:Hypothesis_and_Difinition}これらの現象を取り扱うため,次の仮説を立て,定義を定めた.\begin{flushleft}{\bf[仮説]}\end{flushleft}\begin{description}\item[(a)]複数の要素によって共有される何かが存在する.たとえば,いくつかの要素を含んだり,表したり,具体化したり,参照したりできる何らかの意味的定義など.\item[(b)]「純粋な」は,その要素数を1に制限する働きをする.\end{description}生成的辞書\cite{Pustejovsky95}の考え方を拡張することにより「純粋なもの」は,次のように表される.\begin{eqnarray*}\lambdax[stg(x)\\wedge\Telic\=~!1~\\lambdae[\varphia,\varphib,\varphic,\ldots]]\end{eqnarray*}ここで,$Telic$とは,生成的辞書(generativelexicon)において,語に関する知識を構造化したり,文脈の中での語の解釈を提案するための中心的構造であるQualiastructureの一部であり,対象物の持つ目的や機能を表す.上式においては$\varphia$,$\varphib$,$\varphic$,$\ldots$といった関数の組で表されている.「!1」は,その要素の数を1に制限する関数であり,上式は全体として,「純粋なもの」とは「(考察されるべき)Telic役割を1つだけに限定したなにか(something,{\itstg}({\itx}))」であるということを表している.\vspace{0.5cm}\begin{flushleft}{\bf[定義]}\end{flushleft}「純粋な」は以下のような式で表される.\begin{eqnarray}pure&\Rightarrow&\lambdaSemN.\lambdaNewArg.[p(SemN,NewArg)]\end{eqnarray}ここで,$SemN$は被修飾名詞の意味を表し,$NewArg$は解釈にあたって,新たに導入された変数(「文中の主体」を表す)である.$SemN$と$NewArg$は,この定義の段階では特定の事物を表すのではなく(underspecifiedtype),実際の解釈の時点で詳細化が行われる.構文的には,連体修飾要素はその引数として,一つの名詞を取り,同じ品詞(この場合,名詞)を返す.意味的には,名詞の意味記述を引数に取り,1項関数の意味記述を返す.すなわち,名詞の意味定義を限定(縮小)させることになる.(1)式から始めて,以下のように「$p$」を定義することを考える.\begin{description}\item[Case1]($SemN$は構成的あるいは集合的なものであり,$NewArg$も同じである.):\begin{eqnarray}p&\Rightarrow&\forally.[¬(SemN(y))\\rightarrow\¬(y\inNewArg)]\end{eqnarray}この式は,論理的には以下の式と等価である.\begin{eqnarray}p&\Rightarrow&¬\existsy.[¬(SemN(y))\\wedge\(y\inNewArg)]\end{eqnarray}例\ref{ex:junsui1}の「純粋な水」の場合,$SemN$は水であり,$NewArg$は,この言語表現が参照する液体である.すなわち「水でないものは,この液体中には存在しない」ということを意味している.\item[Case2]($SemN$は個々の実体あるいは事象である.):\begin{eqnarray}p&\Rightarrow&\forally.[¬(y=SemN)\\rightarrow\¬(view(NewArg,y))]\end{eqnarray}例\ref{ex:junsui2}の「越境は純粋な政治亡命だった.」の場合,$SemN$は政治亡命であり,$NewArg$は越境である.ここでは「純粋な」は$NewArg$の解釈に関わっている.すなわち,この行為(越境)にはただ一つの見方(政治亡命)しかない(経済的理由などという側面はない)ということを表している.(2)と(4)の類似性から分かるように,Case1とCase2においては,「純粋な」の意味的役割は何らかの基礎的な論理構造を共有しているように思われる.しかしながらCase3は異なった取り扱いを必要とする.\item[Case3]($SemN$は述語あるいは状態である.):$SemN$を述語あるいは状態$P$であるとすると,元来$P$か¬$P$で表される2値述語であった$NewArg$が極性を持った述語に強制変換(coerce)される.例\ref{ex:junsui3}の「純粋な中立」の場合,「中立」は元来,次式に示すように中立であるか無いかの2値である.\begin{eqnarray*}\forallP[neutrality(P)\\vee\neutrality(¬P)].\end{eqnarray*}この例の場合,「中立」は厳密な意味での中立を表す$\alpha$と,厳密な意味での非中立を表す$\beta$という二つの極性述語に強制変換される.「¬$\alpha$かつ¬$\beta$」は「厳密な意味ではない」中立を表す.別の言い方をすれば,中立であると見なすことができる状況の範囲にあることを表している.\end{description}\subsection{連体修飾要素と連用修飾要素}\label{sec:Adnominal_Constituents_and_Adverbal_Constituents}「純粋」などの日本語の形容動詞は,以下のように活用する.\begin{center}\begin{tabular}[c]{ll}「純粋な」&$\longleftarrow$連体修飾要素\\「純粋に」&$\longleftarrow$連用修飾要素\\「純粋さ」&$\longleftarrow$体言\end{tabular}\end{center}形容動詞「純粋」は例\ref{ex:junsui4}においては「政治亡命」を構文的に修飾(連体修飾)し,例\ref{ex:junsui5}においては「だった」を構文的に修飾(連用修飾)する.これら二つの文は構文的には異なった構造を持つが,意味的にはほとんど同じことがらを示している\footnote{「だった」のような日本語のcopulaは一般に構文的には名詞を取り,一種の動詞句を返す.したがって,英語のcopulaと同様に,日本語でもcopulaは意味的には「透明(transparent)」であり,連体形であれ連用形であれ,「純粋」の機能は一般名詞の意味記述に適用され,他の1項の動詞と区別ができないという意見もあろう.しかしながら,例えば「赤い」といった日本語の形容詞は,連体修飾要素としてしか用いることができない.\begin{tabular}[c]{r@{}l}&赤い箱だ\\$*$&赤く箱だ\\\end{tabular}\vspace*{2mm}例15から17の中のcopulaは動詞「存在する」と類似の意味を持っており,「透明」ではない.したがって,これらの文を一般の動詞を用いた文と同様に,それぞれ異なった形で解析する必要がある.}.「純粋」などの形容動詞の辞書記述はこの種の言語現象を説明できなくてはならない.\begin{exx}\rm\label{ex:junsui4}\hspace*{.5cm}純粋な政治亡命だった.\end{exx}\begin{exx}\rm\label{ex:junsui5}\hspace*{.5cm}純粋に政治亡命だった.\end{exx}\begin{exx}\rm\label{ex:junsui6}\hspace*{.5cm}政治亡命だった.\end{exx}体言はひとつないし複数の内包(intension)を持った事物の外延(extension)を参照する.copulaは「事象」の下位概念である「状態」のインスタンスを参照する.この「状態」もまた,「事象」のひとつないし複数の外延を持つ.例\ref{ex:junsui4},\ref{ex:junsui5},\ref{ex:junsui6}の意味とは,外延「越境」から内包「ある事象についてのいくつかの視点」への関数(あるいはマッピング)である.たとえば,例\ref{ex:junsui6}に示す「純粋」のない「越境は政治亡命である」は「越境」についてのいずれかの視点への関数である.ここで,「政治亡命(politicalflight)」という特定の視点は陽に言明されているが,他の視点は明示されないままである.したがって,例\ref{ex:junsui6}は,以下のように表しうる.\begin{verbatim}state1(views=extension1(views=politicalflight,intension12,...),extension2(views=intension21,intension22,...),extension3(views=intension31,intension32,...),...)\end{verbatim}連体用法の「純粋」(例\ref{ex:junsui4})は,一つの外延の複数の視点に関するもので,\ref{sec:Hypothesis_and_Difinition}節で導入された関数「!1」を用いて,内包の数を1に制限する.これは次のように示すことができる.\begin{verbatim}extension1(views=intension1,intension2,...)↓!1extension1(views=intension1)\end{verbatim}\noindentしたがって,例\ref{ex:junsui4}は,次のように表現できる.\begin{verbatim}state1(views=extension1(views=politicalflight),extension2(views=intension21,intension22,...),extension3(views=intension31,intension32,...),...)\end{verbatim}連用用法の「純粋」(例\ref{ex:junsui5})は,一つの「状態」に関するもので,関数「!1」を用いて,以下のように外延の数を1に制限する.\begin{verbatim}state1(views=extension1,extension2,...)↓!1state1(views=extension1)\end{verbatim}\noindentしたがって,例\ref{ex:junsui5}は,次のように表現できる.\begin{verbatim}state1(views=extension1(views=politicalflight,intension12,...))\end{verbatim}厳密に言えば,これら3つの例は異なった意味を表している.しかしながら,日常会話においてはこの差異に注意を払わないことが多い.ここで,これらの表現の類似性を説明する新しい仮説を導入しよう.\vspace{0.5cm}\begin{flushleft}{\bf[仮説]}\end{flushleft}明示的に表現されていない外延や内包は文脈上で強調されていない.それらは文の解釈には,ほとんど寄与しない.したがって,例\ref{ex:junsui4},\ref{ex:junsui5},\ref{ex:junsui6}は,共に,以下のように表現することができる.\begin{verbatim}state1(views=extension1(views=politicalflight))\end{verbatim}上に示した例\ref{ex:junsui6}についての単純化は,全て,この仮説に基づいている.しかしながら,例\ref{ex:junsui4}と\ref{ex:junsui5}についての単純化の一部は「純粋」の存在に依存している.したがって,これらの単純化の信頼性はそれぞれ異なっている.しかしながら,この興味深い事実をさらに議論することは本論文の目的ではない. \section{おわりに} \label{sec:Conclusion}本論文は,どのようにして異なった構文構造から同じ意味表現を生成するか,また,どのようにして意味的に曖昧な文から,それぞれの曖昧性に対応する意味表現を生成するかに焦点を当てて,日本語の連体修飾要素の振る舞いの取り扱いを論じた.本論文では,まず,連体修飾要素の特性を分類した.すなわち,(1)被修飾語のどの属性が連体修飾要素によって表現されているのかを推論しなくてはならないもの,(2)意味表現の構造を変更するような推論が必要なもの,(3)連体修飾要素が被修飾語自体に情報を付与するのではなく,文章中の要素間の関係を制約するもの,である.高品位の機械翻訳など,自然言語処理において良い成果を出すには,詳細な概念表現に基づく辞書情報を利用することが必要となろう.したがって,我々は生成的辞書理論に基づく概念表現法と概念変換モジュールを利用している.これらの技術を用いることにより,連体修飾要素の意味的曖昧性を,連体修飾要素と被修飾名詞との間の修飾関係を解析することによって取り扱えることを示した.本研究の枠組みのなかで,連体表現をより詳細に記述するためには,(1)否定のスコープ,(2)否定と連体修飾要素の位置(制限の位置と叙述の位置),(3)文脈と連体修飾要素の位置の情報を用いた曖昧性解消,等が必要となろう.\begin{flushleft}{\bf謝辞}\end{flushleft}本論文で取り扱った言語現象の形式的取り扱いについて,充実した討論をしていただいたDr.JamesPustejovsky(BrandeisUniversity)とDr.AnnCopestake(CSLI)に感謝致します.\bibliographystyle{jnlpbbl}\bibliography{v07n3_02}\begin{biography}\biotitle{略歴}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioauthor{神崎享子}{1992年早稲田大学第二文学部西洋文化専修卒業.1995年同大学院文学研究科日本語日本文化専攻修士課程修了.1998年同大学院文学研究科日本語日本文化専攻博士課程(後期)満期退学.同年郵政省通信総合研究所関西支所知的機能研究室特別研究員.言語学,語彙意味論の研究に従事.言語処理学会,計量国語学会,ACL,日本言語学会,国語学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V12N05-05
\section{はじめに} 我々は,人間と自然な会話を行うことができる知的ロボットの開発を目標に研究を行っている.ここで述べている「知的」とは,人間と同じように常識的に物事を理解・判断し,応答・行動できることであるとしている.人間は会話をする際に意識的または無意識のうちに,様々な常識的な概念(場所,感覚,知覚,感情など)を会話文章から判断し,適切な応答を実現しコミュニケーションをとっている.本論文では,それらの常識的な判断のうち,時間の表現に着目し研究を行っている.例えば,「もうすっかり葉が散ってしまいましたね」という表現に対して,人間であれば「秋も終わって冬になろうとしている」ことを理解し,「もう少ししたら雪が降りますね」などのように,自然なコミュニケーションとなる返答をする.しかし,これまでの会話・対話の研究においては「おうむ返し」が一般的であり,この場合「どうして葉が散ってしまったのですか」や「どのように葉が散ってしまったのですか」などのように,自然な会話が成立しているとはいえない返答をする.このように,人間と同じように自然な会話を実現するためには,語や語句から時間を連想する機能・システムは必要不可欠であると考える.このようなことを実現するためには,ある語から概念を想起し,さらに,その概念に関係のある様々な概念を連想できる能力が重要な役割を果たす.これまで,ある概念から様々な概念を連想できるメカニズムを,概念ベース\cite{hirose:02,kojima:02}と関連度計算法\cite{watabe:01}により構成し実現する方法が提案されている.また,この連想メカニズムを利用し,ある名詞から人間が想起する感覚を常識的に判断するシステム\cite{horiguchi:02,watabe:04}について提案されている.そこで本稿では,連想メカニズムを基に,人間が日常生活で使用する時間に関する表現を理解し,適切な判断を実現する方法について提案する.これまでにも,コンピュータに時間を理解させる方法が研究されている.\cite{allen:84}や\cite{mcdermott:82}の時間論理を基に,時間的な関係や因果関係などについての推論,プランニングなどが行われている.また,\cite{tamano:96}では,事象の時間的構造に関する記述形式について提案がなされている.\cite{mizobuchi:99}では,時間表現を意味解釈するために,意味解釈を時点,時点区間などの概念に分類し,これらの分類に対して時間表現に対応する形式表現が定義されている.さらに,形態素列からなる時間表現を形式表現に変換するアルゴリズムが提案されている.このように,これまでの研究は,時間表現の記述形式に着目したものであり,様々な時間表現をある定義に沿って変換し,整理するものである.本研究では,時間表現の変換ではなく,語句からある時間を表現する語を連想することを特徴としている.具体的には,日常的な時間表現に着目し,知識として持っていない未知の表現にも対応できる柔軟なメカニズムの構築を実現している.さらに体言と用言の組合せパターンを一切持たずに語句から時間を推測するなど,時間の観点から,少ない知識を如何に多様に使用するかが本研究の特徴である. \section{時間判断システム} label{time}\begin{figure}[b]\caption{時間判断システムの構成}\label{time-judgment-system}\end{figure}時間判断システムの構成を図\ref{time-judgment-system}に示す.時間判断システムは,時間を表現する語(以下,時語と呼ぶ)を収録した知識ベース(以下,時間判断知識ベースと呼ぶ)と,時間判断知識ベースに存在しない未知の語(以下,未知語と呼ぶ)を扱うために,時間判断知識ベースに存在する既知の語(以下,既知語と呼ぶ)に関連付け,未知語を既知語と見なして扱うための未知語処理手法により構成されている.また,未知語処理においては,複数の電子化辞書等から機械的に自動構築された大規模なデータベースである概念ベース\cite{hirose:02,kojima:02}と,語と語の間にある関連性を評価する関連度計算法\cite{watabe:01}(以下,これらを合わせて連想メカニズムと呼ぶ)を用いることにより,語の連想を実現し処理を行っている.本研究では,時間に関する表現として,\begin{itemize}\item体言,または体言の組み合わせによる語句\\(ex.:朝,明日の朝)\item体言と用言の組み合わせによる語句\\(ex.:日が昇る,葉が赤い)\end{itemize}について,一つの語句のみから人間が時間を判断できるものを扱う.上記の例では,「日が昇る」から「朝」,「葉が赤い」から「紅葉」を想起し「秋」であると判断できる.つまり,「物価が上がる」のように人間でも時間を判断できないものや,「事件の当日」のようにこの語句のみからでは時間を判断できないものについては扱わないものとする.なお,時間判断とは,ある語句に対してそれが時間に関する語句であるか否かの判断ができ,さらに,時間に関する語句であった場合には,その語句から想起される時間を提示できることであると定義する.判断結果として提示する時間は,「日」の中の時刻・時間帯,「年」の中の日付や季節である.表現方法としては,具体的な数値(ex:クリスマス=12月25日,午後=12:00〜23:59)または,\ref{time_judgment_knowledge_base}章で述べる時間判断知識ベースの明示的時語である絶対時語として登録されている「春」,「梅雨」,「夏」,「秋」,「冬」,「朝」,「昼」,「夕方」,「夜」の9語とする.なお,これらの9語を以下代表時語と呼び,日常生活でよく使用し,且つ,なるべく少ない語数で違和感なく「日」と「年」のすべての期間を表現するという基準の下,気象庁が定義している「日本の四季」\footnote{http://www.kishou.go.jp/know/whitep/1-2-1.html}と「時間細分図」\footnote{http://www.kishou.go.jp/know/yougo\_hp/saibun.html}を参考にして選定している. \section{時間判断知識ベース} label{time_judgment_knowledge_base}時間判断知識ベースには,大きく分けて明示的時語と暗示的時語の2種類があり,我々が日常一般的に使用している時語を計565語登録している.具体的には,大学生約150名に,「時を表現する語」と「時を連想できる語」に関して各20語以上ずつ自由記述でアンケートをとり,その中で,5名以上が回答した語を時語として時間判断知識ベースに登録している.\ref{meiji}節,\ref{anji}節で,それぞれの時語について例を挙げて説明する.なお,時間判断知識ベースに登録した時語は,\ref{meiji}節,\ref{anji}節で示すように分類して整理することができる.また,今回登録した時語はあくまでも例であり,より多く登録すれば時間判断の精度は向上し,少なければ精度は劣化すると考えられる.本研究では,\ref{meiji}節,\ref{anji}節で示す計565語の知識を用いて時間判断の処理を行い,如何に多くの時間表現に対応できるかが重要なポイントとなる.\subsection{明示的時語}\label{meiji}ある語そのものが時間を表すものであり,以下の9種類に分類でき,計378語を登録している.\begin{itemize}\item絶対時語(157語)\\単体で特定の時間を表す語(ex.:クリスマス,朝,夏).\item相対時語(93語)\\ある時間を基準として相対的な時間を表す語(ex.:今日,来年).\item週曜時語(35語)\\年月日時分秒ではなく,曜日の概念で時間を表す語(ex.:月曜日,週末).\item範囲時語(36語)\\ある時間の範囲を表し,単体では時間を表すことはできない語(ex.:上旬,最後).なお,これらの語は絶対時語や相対時語などと組み合わせることによって時間を表す(ex.:1月の上旬,夏休みの最後).\item複合時語(30語)\\時語の組み合わせによって時間を表す語(ex.:明朝→明日+朝,昨年度→前の+年度).\item単位時語(14語)\\時間を表す単位であり,数字と組み合わせて時間を表す語(ex.:年,週間).\item指定時語(7語)\\未来または過去方向ならびにその方向への距離を表すベクトル的な語(ex.:前の,次の).\item年号時語(4語)\\数字と組み合わせて年号を表す語(ex.:昭和,平成).ただし,身近なものに限定している.\item前後時語(2語)\\時語の後ろに接続して「前」と「後」関係を表す語(ex.:三日前,一週間後).\end{itemize}\subsection{暗示的時語}\label{anji}人間であれば「スキー」から「冬」を想起するように,その語自体は時間を表さないが,暗黙的に時間を想起する語である.暗示的時語として,一日の中での時間を暗示する語である「時語日」を43語,一年の中での時間を暗示する語である「時語年」を144語,計187語を常識の範囲で登録している(ex.:「時語日」:起床→朝,就寝→夜,「時語年」:紫陽花→梅雨,蝉→夏). \section{概念ベースと関連度計算法} 連想メカニズムは概念ベースと関連度計算法により構成されており,概念ベース\cite{hirose:02,kojima:02}は,ある語から語意の展開を行い,関連度計算法\cite{watabe:01}は,語意の展開結果を利用し,語の間にある関連性を数値として表す手法である.\subsection{概念ベース}\label{consept_base}概念ベースは,複数の電子化辞書から各見出し語を概念,その見出し語の説明文中の自立語を概念の属性として,機械的に自動構築された大規模なデータベースである.本研究では,機械的に構築した後,人間の感覚からは不適切である属性を削除し,必要な属性を追加する自動精錬処理を行った概念ベース(概念数約9万)\cite{hirose:02}を利用している.概念ベースにおいて,任意の概念$A$は,概念の意味特徴を表す属性$a_i$と,この属性$a_i$が概念$A$を表す上でどれだけ重要かを表す重み$w_i$の対で表現される.概念$A$の属性数を$N$個とすると,概念$A$は以下のように表せる.ここで,属性$a_i$を概念$A$の一次属性と呼ぶ.\begin{eqnarray}A&=&\{(a_1,w_1),(a_2,w_2),\cdots,(a_N,w_N)\}\end{eqnarray}概念$A$の一次属性$a_i$は概念ベースに定義されている概念としているため,$a_i$からも同様に属性を導くことができる.$a_i$の属性$a_{ij}$を概念$A$の二次属性と呼ぶ.概念「電車」を二次属性まで展開した様子を図\ref{concept_base}に示す.\begin{figure}[t]\caption{概念「電車」を二次属性まで展開した場合の例}\label{concept_base}\end{figure}\subsection{関連度計算法}関連度とは,概念と概念の関連の強さを定量的に評価するものであり,具体的には概念連鎖により概念を2次属性まで展開したところで,最も対応の良い一次属性同士を対応付け,それらの一致する属性個数を評価することにより算出するものである.概念$A$と$B$の関連度$Assoc(A,B)$は以下のアルゴリズムにより計算する\cite{watabe:01}.\begin{enumerate}\itemまず,2つの概念$A$,$B$を1次属性$a_i,b_j$を用いて,\begin{eqnarray}A&=&\{a_i|i=1\simL\}\label{ConA}\nonumber\\B&=&\{b_j|j=1\simM\}\label{ConB}\nonumber\end{eqnarray}と定義する.ここで,属性個数は重みの大きいものから30個を上限として展開するものとする.この属性個数30個は,ある概念に対して「関連が深い」,「関連がある」,「関連がない」と思われる概念200組に対して,属性個数を10〜100個まで10個刻みで変化させたときの関連度の関係が,上記3つの関係と一致するか否かを調査した結果導き出された最適な値である.\cite{irie:99}\item1次属性数の少ない方の概念を概念$A$とし($L\leM$),概念$A$の1次属性の並びを固定する.\begin{eqnarray}A&=&(a_1,a_2,\cdots,a_L)\nonumber\end{eqnarray}\item概念$B$の各1次属性を対応する概念$A$の各1次属性との一致度($Match$)の合計が最大になるように並べ替える.ただし,対応にあふれた概念$B$の1次属性($b_{x_j},\j=L+1,\cdots,M$)は無視する.\begin{eqnarray}B_x&=&(b_{x_1},b_{x_2},\cdots,b_{x_L})\nonumber\end{eqnarray}\item概念$A$と概念$B$との関連度$Assoc(A,B)$は,\begin{eqnarray}Assoc(A,B)&=&(s/L+s/M)/2\label{Echain}\nonumber\\s&=&\sum_{i=1}^LMatch(a_i,b_{x_i})\nonumber\end{eqnarray}とする.\end{enumerate}また,概念$A$と概念$B$の一致度$Match(A,B)$は,一致する1次属性の個数(すなわち,$a_i=b_j$なる$a_i$の個数)を$s$個とするとき,次式で定義する.\begin{eqnarray}Match(A,B)&=&(s/L+s/M)/2\label{Ematch}\nonumber\end{eqnarray}この式は,概念Aと概念Bの一致割合を評価する一つの方式として,概念$A$から見たときの属性の一致割合$s/L$と概念$B$から見たときの一致割合$s/M$の平均を採用している. \section{時間判断手法} 本研究では,時間に関する表現として\ref{time}章で説明したように「朝」や「明日の朝」などのように,体言,または体言の組み合わせによる語句と,「日が昇る」(=「朝」)や「葉が赤い」(=「秋」)などのように,体言と用言の組み合わせによる語句とを対象に,語句の持つ意味に着目し時間判断の処理を行う.以下に,時間判断における各処理方法を詳しく述べる.\subsection{体言,または体言の組み合わせによる語句に対する処理}入力される体言が既知語である場合,時間判断知識ベースを参照することにより,直接時間を判断することができる.また,体言の組み合わせである場合は,各体言から判断する時間を足し合わせる.例えば,語句「今年のクリスマス」であれば,体言「今年」から「2005年」,体言「クリスマス」から「12月25日」を導き,結果「2005年12月25日」であると判断できる.なお,入力される体言が未知語であった場合,\ref{unknown_word_processing}章で述べる未知語処理手法を用いて処理を行う.\subsection{体言と用言の組み合わせによる語句に対する処理}体言と用言の組み合わせによる語句の意味を扱うにあたり,日本語には経験的に以下のような特徴を挙げることができる.\begin{itemize}\item漢字にはそれぞれ意味があり,使用される漢字により語句の意味が表現されていることが多い.例えば,仮に語句の意味がわからない場合であっても,人間は,使用されている漢字からある程度その語句の意味を推測することができる.\item体言と用言を組み合わせた表現の場合,体言の動作・状態を表現する用言が非常に重要な意味を持つ.\item体言と用言が単体で表現する意味は,用言より体言の方がその範囲を限定し,詳しく表現することができる.\end{itemize}これらのことを踏まえて,体言と用言の組み合わせによる語句に対する処理の手順は,語句の意味をよりうまく表現しているものを利用した処理から順に行う.つまり,まずはじめに,語句の意味を最もよく表現している漢字を用いた処理を行い,次に,語句で重要になる用言を拡張する処理を行う.続いて,語の意味を概念ベースにより語意拡張する処理,体言のみからの処理を行い,最後に,用言のみからの処理を行うものとする.具体的な処理は,入力される語句から直接時間を判断するのではなく,入力される語句に含まれる漢字や概念ベースを活用し,時間判断知識ベースに存在する既知語へ帰着させ,間接的に時間を判断する.例えば,語句「葉が赤い」から「秋」であると判断するのではなく,既知語「紅葉」に帰着させる.そして,時間判断知識ベースを参照することにより「秋」であると判断することができる.なお,体言と用言の組み合わせによる語句に対する処理において,用言に関する知識ベースを用いずに処理を行う.何故ならば,体言と用言を組み合わせることにより,体言または用言それぞれが表現する意味,内容が変化する特性をもっているからである.もし,体言と同じように用言に関する知識ベースを構築し,体言と用言との組み合わせをとり処理を行った場合,語句の複雑性から例外が頻発し,処理が煩雑になると考えられる.\subsubsection{漢字の組み合わせによる処理}\label{kanji}漢字の持つ意味に着目し,入力された語句の体言と用言に含まれる漢字を組み合わせて時語を生成する.例えば,語句「日が落ちる」を処理する場合,体言「日」と用言「落ちる」のそれぞれから漢字「日」と「落」を抽出する.抽出された漢字を組み合わせて生成される語は,「日落」と「落日」の2語である.この場合,「落日」は既知語であるため,語句「日が落ちる」は既知語「落日」に帰着され,結果「夕方」であると判断することができる.\subsubsection{用言を代替する漢字の組み合わせによる処理}漢字の組み合わせによる処理と同様,漢字の持つ意味に着目した処理である.概念ベースを利用して,入力された語句の用言に対する属性を取得する.その属性のうち用言,およびサ変名詞を抽出し,体言との漢字を組み合わせて時語を生成する.なお,漢字を組み合わせて生成した語が既知語に複数存在する場合は,概念ベースの属性に付与されている重みが最大の属性を用いて生成した語に帰着させる.例えば,語句「日が沈む」を処理する場合,漢字「日」と「沈」から生成される語は「日沈」と「沈日」であり既知語ではない.そこで,概念ベースから用言「沈む」の属性を取得し,「没する,入る,落ちる,$\cdots$」などの属性を抽出する.これらの漢字と体言の漢字「日」を組み合わせることにより時間を判断することができる.この場合,既知語「日没」と「落日」が生成されるが,属性「落ちる」の方が概念ベースでの重みが大きいため,既知語「落日」に帰着され,結果「夕方」であると判断することができる.\subsubsection{属性の検索による処理}入力された語句の体言と用言を属性に含んでいる既知語を検索する.なお,条件を満たす既知語が複数存在する場合,既知語と入力された語句の体言,用言との関連度の平均が最も大きいものに帰着させる.例えば,語句「太陽が沈む」を処理する場合,体言「太陽」と用言「沈む」の両方を属性に含む既知語を検索する.結果,既知語「夕日」が条件を満たし,「夕方」であると判断することができる.\subsubsection{体言のみによる処理}入力された語句の体言のみから時間を判断する.体言が既知語である場合,直接時間を判断することができる.なお,入力される語句の体言が未知語であった場合,\ref{unknown_word_processing}章で述べる未知語処理手法を用いて処理を行う.例えば,語句「柿を食べる」を処理する場合,体言「柿」のみから「秋」であると判断することができる.\subsubsection{用言のみによる処理}入力された語句の用言のみから時間を判断する.用言に関しては時間判断知識ベースに存在しないため,すべての用言に対して\ref{unknown_word_processing}章に述べる未知語処理手法を用いて処理を行う.例えば,語句「手がかじかむ」の用言「かじかむ」に対して未知語処理を行い,結果として「冬」であると判断することができる. \section{未知語処理手法} label{unknown_word_processing}意味的な観点からある既知語と同義または非常に関連性の強い未知語は,時間的な観点からも関連性が強いと考えられる.また,すべての語に対してそれらの語に関する知識を作成しデータベースに格納することは非常に困難であり,現実的ではない.そこで,時間に関する概念を効率よく表現できるごく少数の代表的な語を選別し,時間判断知識ベースに格納している.そして,格納した既知語とある未知語との関連性を評価し,未知語を関連性の強い既知語に帰着させる.これにより,未知語を既知語と同等に扱うことができる.この処理を未知語処理と呼ぶ.以下にその処理手法を示す.なお,各処理手法の具体例として体言の場合を挙げて説明しているが,\ref{concept_base}章で述べた概念ベースでは,用言についても体言と同様に表現しているため,用言に対しても体言と同様の処理手法が適用できる.\subsection{最高関連度語置換処理手法}\label{max_processing}関連度計算法を利用し,未知語と極めて関連性の強い既知語を導き出す未知語処理手法である.\renewcommand{\labelenumi}{}\begin{enumerate}\item未知語$X$とすべての既知語との関連度を算出する.\item未知語$X$との関連度が最も大きい既知語に未知語$X$を帰着させ,それに対応する代表時語を未知語$X$が表現する時間とする.ただし,概念または関連度の性質上,ある語と語の間に関係がないと思われる場合であっても,ごく小さな値の関連度が出力される.そのため,単純に「最も大きな関連度」という判断基準により処理を行うと,すべての語に対して関係がない場合,結果として未知語$X$を関連性が弱い既知語に帰着するおそれがある.そこで,閾値$Th_r$を設け,最も大きい関連度が閾値$Th_r$以下の場合には未知語$X$をその既知語に帰着させず,時間に関係のない語であると判断する.\end{enumerate}図\ref{max_association}に最高関連度語置換処理手法の具体例を示す.\begin{figure}[t]\caption{最高関連度語置換処理手法の具体例}\label{max_association}\end{figure}\subsection{二次閾値付き多数決未知語処理手法}\label{second_processing}概念の属性と重みを利用し,未知語から想起される代表時語を導き出す未知語処理手法である.なお,以下の説明では,概念$X$の$n$個目の一次属性を$X_n$,$X_n$の$m$個目の一次属性(概念$X$の二次属性)を$X_{nm}$のように表す.同様に,それぞれの属性の重みを$W_n$,$W_{nm}$と表す.\begin{enumerate}\item概念ベースから未知語$X$の一次属性を取得する.\item未知語$X$の二次属性,つまり$X_n$の一次属性($X_{n1}$,$\cdots$,$X_{nm}$)が時語知識ベースに存在する既知語か否かをそれぞれ検索する.もし,既知語であれば,その語に関連付けられている代表時語に帰着させる.\item$X_{n1}$,$\cdots$,$X_{nm}$のうち代表時語に帰着された属性に付与されている$X_n$に対する重みを指数とする.代表時語ごとに指数を加算し,指数が一番大きく,かつその指数が下限$Th_s$以上である代表時語に$X_n$を帰着させる.同指数の代表時語が複数ある場合は,関連度が最大の語に帰着させる.$X_{n1}$,$\cdots$,$X_{nm}$がすべて未知語の場合は,$X_n$も未知語とする.\item$X_n$が代表時語に帰着されたら未知語$X$に対する$X_n$の重み$W_n$の値をその代表時語の指数に加算する.これを一次属性すべてに繰り返す.\item指数が一番大きく,かつ閾値$Th_v$以上である代表時語に,未知語$X$を帰着させる.同指数の代表時語が複数ある場合は関連度が最大の語に帰着させる.\end{enumerate}図\ref{second_association}に二次閾値付き多数決未知語処理手法の具体例を示す.\begin{figure}[t]\caption{二次閾値付き多数決未知語処理手法の具体例}\label{second_association}\end{figure}\subsection{最高関連度語置換処理手法と二次閾値付き多数決未知語処理手法の比較}\label{max_second_processing}\ref{max_processing}節,\ref{second_processing}節で述べた最高関連度語置換処理手法と二次閾値付き多数決未知語処理手法において,閾値$Th_r$,$Th_v$の値を大きくすると,未知語と既知語との関連性を弱く表現する傾向になり,結果として何も出力を出さない無答が増加し,誤答が減少する.また,逆に閾値を小さくすると,未知語と既知語との関連性を強く表現する傾向になり,結果として無答が減少し,誤答が増加する.実際,時間に関係のある未知語を190語,関係のない未知語を250語を作成し,最高関連度語置換処理手法と二次閾値付き多数決未知語処理手法において,正答率と精度が閾値によりどのように変化するかを調査した.時間に関係のある語と時間に関係のない語における正答率と精度の結果を図\ref{max_association_result},図\ref{second_association_result}に示す.なお,正答率と精度は以下のように定義する.\begin{figure}[b]\caption{最高関連度語置換処理手法における閾値に対する正答率と精度の変化の様子}\label{max_association_result}\end{figure}\begin{figure}[b]\caption{二次閾値付き多数決未知語処理手法における閾値に対する正答率と精度の変化の様子}\label{second_association_result}\end{figure}正答率=正答数/(正答数+誤答数+無答数)精度=正答数/(正答数+誤答数)ここで,時間に関係のある語においては,人間が想起する既知語(最高関連度置換処理方式の場合)または代表時語(二次閾値付き多数決未知語処理手法の場合)に帰着した場合を「正答」とし,「正答」以外の既知語または代表時語に帰着した場合が「誤答」であり,どの既知語または代表時語にも帰着しない場合が「無答」である.時間に関係ない語においては,すべての語が時間を表さないため,どの既知語または代表時語にも帰着しない場合が「正答」であり,「無答」は「正答」ということになる.「誤答」とは,何らかの既知語または代表時語に帰着した場合である.なお,図\ref{max_association_result},図\ref{second_association_result}において,正答率は時間に関係のある語に対するものである.これは前述したように,時間に関係のない語については「正答=無答」という関係が成り立ち,「正答率=精度」となるためである.前述のように,最高関連度語置換処理手法では,関連度計算法を利用し,未知語と極めて関連性の強い既知語を導き出し,二次閾値付き多数決未知語処理手法では,概念ベースを利用し,概念の属性と重みを用いて未知語から想起される代表時語を導き出す.そのため,未知語から時間を判断する際には,最高関連度語置換処理手法の方が,より詳細に,より精度良く時間を判断することが可能である.そこで,一段階目では,精度を重要視し,閾値を高い水準に置いた最高関連度語置換処理によって未知語の既知語への帰着を試みる.既知語への帰着が成功しない場合には,正答率を重要視し,閾値を比較的低い水準にした二次閾値付き多数決未知語処理によって再度帰着を試みる.未知語処理を二段階で行い,性質の異なる方式を組み合わせ,信頼性の高い処理を優先的に実行することで,それぞれの処理を単独で行うよりもより高い精度・正答率が得られると考えられる.二段階未知語処理におけるパラメータは,図\ref{max_association_result}で示した最高関連度語置換処理における閾値に関する実験結果から$Th_r$=0.8,図\ref{second_association_result}で示した二次閾値付き多数決未知語処理手法における閾値に関する実験結果から$Th_v$=0.1と設定した.また,二次閾値付き多数決未知語処理手法におけるパラメータ$Th_s$については,パラメータ$Th_r$,$Th_v$の設定の際に使用した時間に関係のある未知語190語と関係のない未知語250語を使用し,\ref{second_processing}節の$X_n$に,これらの一次属性を\ref{second_processing}節の$X_{nm}$に見立て,$X_n$が時間に関係のある語である場合には適切な代表時語を帰着できたか否か,また,$X_n$が時間に関係のない語である場合には代表時語を帰着させないか否かの評価を基に設定した.具体的には,パラメータ$Th_s$を0から0.25まで0.025刻みで変化させ,7名の被験者にて上記評価を行い,5名の被験者が同じ判断をしたものを正解とした際に,最も正解率の高かった$Th_s$=0.025と設定した.\subsection{関連度計算法を用いた最高関連度語置換処理手法の有効性の評価}\ref{max_processing}節で提案した関連度計算法を用いた最高関連度語置換処理手法の有効性を評価するため,関連度計算法と同じように単語間の関連性を数値化する別の手法を用いた場合との比較を行った.本論文では,比較実験において,\cite{nagao:96}で紹介されている以下の算出式によりシソーラス上の距離を定量化することで単語間の類似度を求める手法を用いた.\begin{eqnarray}sim(n_1,n_2)&=&2d(c)/(d(n_1;c)+d(n_2;c))\nonumber\end{eqnarray}なお,$d(a)$は$a$の深さ,すなわち,シソーラスのルートノードからノード$a$への最短パス長であり,$d(a;b)$は$b$を経由する$a$の深さ,すなわち,シソーラスのルートノードからノード$b$を経由してノード$a$へ至るパスの最短パス長である.また,実験に使用したシソーラスは,日本語語彙体系\cite{ntt:97}を使用した.シソーラスを用いた場合の最高関連度語置換処理手法と関連度計算法を用いた最高関連度語置換処理手法の結果を表\ref{conf_result}に示す.実験データならびに評価方法は\ref{max_second_processing}節で用いたものと同様である.また,シソーラスを用いた場合の最高関連度語置換処理手法におけるパラメータ$Th_r$に関しても\ref{max_second_processing}節で行ったパラメータの設定方法と同様に行い,$Th_r$=0.9と設定した.\begin{table}[t]\caption{シソーラスと関連度計算法を用いた場合の最高関連度語置換処理手法の比較結果}\label{conf_result}\end{table}時間に関係のない語の精度ならびに正答率に関しては,顕著な差はないが,時間に関係のある語の精度に関しては,明らかな差を見ることができる.\ref{max_second_processing}節で述べたように,最高関連度語置換処理手法においては,精度に重きを置いているため,この結果より,関連度計算法を用いた最高関連度語置換処理手法は有効な手法であるといえる. \section{時間判断システムの評価} 本研究では,以下に示す実験データを作成し,\ref{max_second_processing}節において提案した二段階未知語処理手法を用いた時間判断システムについて評価した.A群:体言と体言の組み合わせによる語句(285個)1995年のある全国紙の記事から,季節などの偏りを避けるため,ランダムに選択した100個の記事を対象に,人手で抜き出した時間に関係のある語句.B群:体言と用言の組み合わせによる語句(256個)正答(語句から連想できる時間)の候補として代表時語9語を提示し,語句とその正答(代表時語9語と可能であれば具体的な時間)を自由記述形式でアンケート調査した結果収集された時間に関係のある語句.C群:時間に関係のある語(289個)B群のアンケート調査と同様の方法により収集,および,俳諧で用いられる時間を表す語である季語のうち日常的に使用する時間に関係のある語.D群:時間に関係のない語(250個)代表時語9語を提示し,これらに該当しないと思われる語を自由記述形式でアンケート調査した結果収集された時間に関係のない語.なお,実験データとしては,7名の被験者にそれらのデータが時間に関係ある語か否かの判断をしてもらい,そのうち5名以上が同じ判断を行った語のみを人間が行う判断結果として使用した.評価方法としては,\ref{max_second_processing}節と同様に,実験データに対する時間判断結果を「正答」「誤答」「無答」の三種類に分けて行う.実験データA群,B群,C群では,ある語または語句から人間が想起する具体的な時間または代表時語と同じものが得られた場合を「正答」,「正答」以外の代表時語が得られた場合を「誤答」,代表時語が得られなかった場合を「無答」とする.実験データD群では,すべての語が時間を表さないため,代表時語が得られない場合を「正答」,何らかの代表時語が得られた場合を「誤答」とする.正答率,精度は\ref{max_second_processing}節で示した定義と同様である.\begin{table}[b]\caption{各データ群における評価}\label{result}\end{table}\begin{table}[b]\caption{実験データA群,B群,C群における未知語と既知語の割合}\label{proportion}\end{table}\begin{table}[t]\caption{実験データA群における詳細結果}\label{a_detail_result}\end{table}\begin{table}[t]\caption{実験データB群における詳細結果}\label{b_detail_result}\end{table}\begin{table}[t]\caption{実験データC群における詳細結果}\label{c_detail_result}\end{table}\begin{table}[b]\caption{C群,D群の正答例と誤答例(括弧内は期待される解)}\label{C_D_result_conf}\end{table}各実験データ群に対する評価結果を表\ref{result}に示す.また,実験データA群,B群,C群における未知語と既知語の割合を表\ref{proportion}に示し,未知語処理の有効性を評価するため,実験データA群,B群,C群における正答率,精度の結果を表\ref{a_detail_result},表\ref{b_detail_result},表\ref{c_detail_result}に示す.なお,実験データA群にのみ未知語と既知語の他に混在という表記があるが,これは,体言と体言の組み合わせによる語句のうち片方が未知語でもう一方が既知語の実験データのことであり,B群については,用言はすべて未知語であるため,体言が未知語か既知語かの割合を示している.表\ref{a_detail_result},表\ref{b_detail_result},表\ref{c_detail_result}から,未知語に対する処理は,既知語に対する処理よりも劣るものの,十分有効に機能しているといえる.A群で誤答になったものは,「94年」などのように数字が省略されているものや,「1985.9.22」などのように単位が省略された表現であった.これらの表現は,文脈に依存するものであり,本稿で提案したシステムでは対処できない.今後,省略された表現を文脈から補完する手法の開発が望まれる.B群では「夏が終わる」など,用言が時間の推移・遷移を表す時間表現で誤答となった.このような表現は,時間の前後関係を表すため前後時語と同等に扱う必要がある.本研究で提案した時語生成手法は,主に漢字が持つ意味に着目し,複数の漢字を組み合わせて時語を導き出す.しかし,必ずしも意味的に関連性の強い漢字同士を組み合わせて表現される時語が存在するとは限らない.B群については,他の実験データ群と比較し正答率,精度ともに著しく悪いことから,今後,時間を体言と用言の組み合わせによって表現する語句に対する処理の改良が望まれる.表\ref{C_D_result_conf}にC群,D群の正答例と誤答例を示す.例えば,C群の「潮干狩り」は,潮の満ち引きに強く関係することから「月」と,D群の「ネクタイ」は,同じように首に巻いて使用する「マフラー」と関連性が強いと判断され誤答になっている.時間判断システムの結果としては,時間に関係のある語のみ(A群〜C群)を対象にした際の正答率が平均69.4\%,精度が平均81.6\%の割合で人が行う判断結果と一致しており,二段階未知語処理手法を用いた時間判断システムは有効なシステムであるといえる.仮に,未知語処理手法を適用しなかった場合,時間判断知識ベースに登録されている語にしか判断を行うことができず,正答率は約52.3\%,精度は約85.3\%になる.つまり,時間判断知識ベースに登録する語数を減らすと精度が向上する一方で正答率は劣化し,登録語数を増やすと正答率は向上する.しかし,正答率が100\%になることは現実的にはありえず,ある正答率で飽和すると考えられる.ただし本研究では,これまで述べてきたように,より少ない知識でより多くの表現に対応することを目標にしており,時間判断知識ベース,各種処理手法,ならびにそれらから構成される時間判断システムの有効性,妥当性は本結果により十分に示すことができたと考える. \section{おわりに} 本稿では,ある概念から様々な概念を連想できるメカニズムを基に,人間が行う常識的な判断の一つである時間に関する判断を実現する方法について提案した.日常的な時間表現に着目し,基本的な常識知識を事前に与え,知識として持っていない多くの未知の表現にも対応できる柔軟なメカニズムの構築を実現した.常識的判断システム実現の困難さは,誰もが持っている普遍的な常識知識のみをシステムに与え,如何にして,それらの周りにある膨大な常識知識を扱うかにある.そして,本稿でも提案したこのような構成・処理手法が極めて現実的な方法であると考えている.結果としては,時間判断システムにおいて,時間に関係のある語のみを対象にした際の正答率が約69.4\%,精度が約81.6\%の割合で人が行う判断結果と一致しており,二段階未知語処理手法を用いた時間判断システムは有効なシステムであるといえる.\acknowledgment本研究は,文部科学省からの補助を受けた同志社大学の学術フロンティア研究プロジェクトにおける研究の一環として行った.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Allen}{Allen}{1984}]{allen:84}Allen,J.~F.\BBOP1984\BBCP.\newblock\BBOQTowardsaGeneralTheoryofActionandTime\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf23}(2),123--154.\bibitem[\protect\BCAY{広瀬\JBA渡部\JBA河岡}{広瀬\Jetal}{2002}]{hirose:02}広瀬幹規\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ概念間ルールと属性としての出現頻度を考慮した概念ベースの自動精錬手法\JBCQ\\newblock\Jem{信学技報,NLC2001-93},109--116.\bibitem[\protect\BCAY{Horiguchi\JBATsuchiya\JBAKojima\JBAWatabe\BBA\Kawaoka}{Horiguchiet~al.}{2002}]{horiguchi:02}Horiguchi,A.\JBATsuchiya,S.\JBAKojima,K.\JBAWatabe,H.\JBA\BBA\Kawaoka,T.\BBOP2002\BBCP.\newblock\BBOQConstructingaSensuousJudgmentSystemBasedonConceptualProcessing\BBCQ\\newblock{\BemComputationalLinguisticsandIntelligentTextProcessing(Proc.ofCICLing-2002)},86--95.\bibitem[\protect\BCAY{入江\JBA東村\JBA渡部\JBA河岡}{入江\Jetal}{1999}]{irie:99}入江毅\JBA東村貴裕\JBA渡部広一\JBA河岡司\BBOP1999\BBCP.\newblock\JBOQ知的判断メカニズムにおける概念間の関連度計算方式\JBCQ\\newblock\Jem{情報処理学会秋季全国大会},3J--7.\bibitem[\protect\BCAY{小島\JBA渡部\JBA河岡}{小島\Jetal}{2002}]{kojima:02}小島一秀\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ連想システムのための概念ベース構成法−属性信頼度の考え方に基づく属性重みの決定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(5),93--110.\bibitem[\protect\BCAY{McDermott}{McDermott}{1982}]{mcdermott:82}McDermott,D.\BBOP1982\BBCP.\newblock\BBOQATemporalLogicforReasoningaboutProcessesandPlans\BBCQ\\newblock{\BemCognitiveScience},{\Bbf6}(2),101--155.\bibitem[\protect\BCAY{溝渕\JBA住友\JBA泓田\JBA青江}{溝渕\Jetal}{1999}]{mizobuchi:99}溝渕昭二\JBA住友徹\JBA泓田正雄\JBA青江順一\BBOP1999\BBCP.\newblock\JBOQ日本語時間表現の一解釈法\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(9),3408--3419.\bibitem[\protect\BCAY{NTTコミュニケーション科学研究所}{NTTコミュニケーション科学研究所}{1997}]{ntt:97}NTTコミュニケーション科学研究所\BBOP1997\BBCP.\newblock\Jem{日本語語彙体系}.\newblock岩波書店.\bibitem[\protect\BCAY{玉野\JBA松本}{玉野\JBA松本}{1996}]{tamano:96}玉野健一\JBA松本裕治\BBOP1996\BBCP.\newblock\JBOQ制約條件を用いた事象の時間構造の記述\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会資料},{\Bbf115}(2),9--14.\bibitem[\protect\BCAY{渡部\JBA河岡}{渡部\JBA河岡}{2001}]{watabe:01}渡部広一\JBA河岡司\BBOP2001\BBCP.\newblock\JBOQ常識的判断のための概念間の関連度評価モデル\JBCQ\\newblock\Jem{自然言語処理},{\Bbf8}(2),39--54.\bibitem[\protect\BCAY{渡部\JBA堀口\JBA河岡}{渡部\Jetal}{2004}]{watabe:04}渡部広一\JBA堀口敦史\JBA河岡司\BBOP2004\BBCP.\newblock\JBOQ常識的感覚判断システムにおける名詞からの感覚想起手法\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf19}(2),73--82.\bibitem[\protect\BCAY{長尾}{長尾}{1996}]{nagao:96}長尾真\BBOP1996\BBCP.\newblock\Jem{岩波講座ソフトウェア科学15自然言語処理}.\newblock岩波書店.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{土屋誠司}{2000年同志社大学工学部知識工学科卒業.2002年同大学院工学研究科知識工学専攻博士前期課程修了.同年,三洋電機株式会社入社.2004年同志社大学大学院工学研究科知識工学専攻博士後期課程入学.主に,常識的判断システムの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{奥村紀之}{2003年同志社大学工学部知識工学科卒業.同大学院工学研究科知識工学専攻博士前期課程在学.知識情報処理の研究に従事.}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.工学博士.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会,日本知能情報ファジィ学会各会員.}\bioauthor{河岡司}{1966年大阪大学工学部通信工学科卒業.1968年同大学院修士課程修了.同年,日本電信電話公社入社,情報通信網研究所知識処理研究部長,NTTコミュニケーション科学研究所所長を経て,現在同志社大学工学部教授.工学博士.主にコンピュータネットワーク,知識情報処理の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,IEEE(CS)各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V16N01-01
\section{はじめに} label{sec:first}係り受け解析は日本語解析の重要な基本技術の一つとして認識されており,これまでに様々な手法が提案されてきた\cite{Kurohashi:94,SShirai:95,fujio_97,haruno,uchimoto_99,uchimoto_2000,kudo_2000,Kudo:2002,matsubara,Kudo:2004,Kawahara:naacl2006,Ohno:coling-acl2006}.しかし,そのほとんどは書き言葉を対象としたものであった.これに対し,本研究では,話し言葉,特に『日本語話し言葉コーパス(CSJ)\cite{furui}』のような長い独話を対象とする.ここでCSJとは,主に学会講演や模擬講演などの独話を対象に,約660時間(約750万語)の自発音声を収録した世界最大規模の話し言葉コーパスのことである.このコーパスには音声データだけでなく書き起こしも含まれており,コアと呼ばれる一部の書き起こしには,人手により形態素・係り受け・節境界・引用節・挿入節・談話構造など様々な情報が付与されている.一般に,話し言葉には特有の現象が見られるため,書き言葉と比べて話し言葉の係り受け解析は難しい.例えば,CSJを用いた実験によると,話し言葉特有の現象の影響をなくした場合とそうでない場合で,係り受け解析精度に大きな差があることが報告されている\cite{Uchimoto:lrec2006a}.特に,引用節・挿入節などの境界が認識されていない場合に係り受け解析精度の低下が著しい.そこで本論文では,引用節・挿入節を自動認定する方法,および,自動認定した引用節・挿入節の情報を係り受け解析に利用する方法を提案し,提案手法により係り受け解析精度が有意に向上することを定量的に示す. \section{話し言葉に特有の現象と係り受け構造} label{sec:ds_problem}話し言葉には,書き言葉にはない特有の現象が見られる.そして,その話し言葉特有の現象が係り受け解析精度の低下を招くことが多い.本研究では,その中でも節境界が曖昧であるという現象に着目する.そして,本論文では,係り受け解析精度に及ぼす影響の大きさを考慮し,節の中でも,特に,引用節・挿入節と係り受け構造との関係を取り上げる.ここで,節および係り受け構造の定義はCSJに従うものとする.以下,\ref{sec:ds_problem0}節では,話し言葉における節境界と係り受け構造の定義,および,引用節と挿入節との関係について述べる.次に,\ref{sec:ds_problem1}節では,話し言葉特有の現象,特に,節境界が曖昧であるという現象が係り受け解析に及ぼす影響について言及する.そして,\ref{sec:ds_problem2}節では,その他の話し言葉特有の現象に関して,本研究での係り受け解析時の扱いについて述べる.\subsection{節境界と係り受け構造の定義および引用節・挿入節との関係}\label{sec:ds_problem0}一般に,書き言葉においては,係り受け構造などを付与する単位として,いわゆる「文」を用いることが多い.しかし,自発的な話し言葉を対象とする場合,文は必ずしも自明な単位ではない.そこでCSJでは,より適切な分割単位として,「節」に基づく文の単位が定義されている.節境界としては,次の3種類が定義されている.\par\noindent\textgt{絶対境界}:いわゆる文末表現で,述語の終止形・終助詞・「と文末」など.\par\noindent\textgt{強境界}:並列節「ケレドモ」「ガ」「シ」・「ましテ」節・「でしテ」節など.\par\noindent\textgt{弱境界}:理由節「カラ」「ノデ」・連用節・引用節・条件節「タラ」「ト」「ナラ」「レバ」など.\par\noindentそして,これらの節境界を表層表現などに基づいて自動検出した後\cite{maruyama},文節係り受けを考慮して人手により文境界を特定する\cite{takanashi}.上の3種類の境界のうち,絶対境界と強境界は基本的に文境界となり,弱境界は機能的に区切れていると判断される箇所のみが文境界となる.引用節と挿入節についてもこのときに認定され,基本的に,引用節の終端は弱境界,挿入節の終端は強境界となる.CSJにおける係り受け構造は,原則として「京大コーパス」\cite{K-corpus}の付与基準に準拠して付与されており,話し言葉特有の現象に対しては新たな基準が設けられている\cite{csj_kakariuke}.係り受けは文内で閉じており,引用節・挿入節の内部でも同様に係り受けが閉じている.したがって,文境界が特定されれば,引用節と挿入節の始端は係り受け構造に基づいて特定できる.すなわち,直前の文節が終端より後方に係る文節のうち,最も終端に近いものが引用節の始端となる.そのような文節がない場合は,文頭の文節が始端となる.話し言葉,特にCSJのような長い独話における引用節・挿入節の特徴は次の通りである.以下では,引用節・挿入節と係り受け構造との関係の例も示す.\begin{description}\item[(引用節)]\\引用節は,主に人の言ったことや思ったことを発話に取り込む際に用いられる.書き言葉では引用節の前後に引用符や読点が付与されるのに対し,発話においては,その境界が明示されることはない.以下の例文\ref{inyo}では,{}内が引用節に相当し,「昔から」が引用節の後方に係るため「一度でも」が始端となる.\noindent(例文\prob{\label{inyo}})\\[0.5zw]\begin{picture}(380,95)(-20,0)\linethickness{0.25pt}\put(0,85){ここは}\put(30,89){\line(1,0){135}}\put(165,89){\line(0,-1){76.5}}\put(20,68){昔から}\put(50,72){\line(1,0){115}}\put(30,51){{一度でも}\put(80,55){\line(1,0){25}}\put(105,55){\line(0,-1){25.5}}\put(50,34){いいから}\put(90,38){\line(1,0){15}}\put(70,17){行ってみたい}と}\put(150,21){\line(1,0){15}}\put(90,0){思っていたところです}\end{picture}\noindentCSJでは,引用節の終端の文節に「引用節」というラベルが付与されている.本研究では,それに加え「トイウ節」のラベルの付いたものも引用節として扱う.トイウ節は,以下の例文\ref{toiu}のように引用を表わすために多く用いられる.例文\ref{toiu}では,引用節の終端を越えて係る文節はないので,「本当に」が始端となる.\noindent(例文\prob{\label{toiu}})\\[0.5zw]\begin{picture}(380,61)(-20,0)\linethickness{0.25pt}\put(0,51){{本当に}\put(40,55){\line(1,0){35}}\put(75,55){\line(0,-1){8.5}}\put(40,34){それだけなのか}という}\put(150,38){\line(1,0){15}}\put(165,38){\line(0,-1){8.5}}\put(140,17){疑念が}\put(170,21){\line(1,0){15}}\put(185,21){\line(0,-1){8.5}}\put(150,0){あるからです}\end{picture}\noindent以降,引用節・トイウ節を合わせて引用節とする.\item[(挿入節)]\\挿入節は,発話の途中で話者の発話プランが変更されたとき,節の途中に別の節が注釈のような形で挿入されることにより発生するものである.書き言葉ではこのような表現はあまり用いられない.例文\ref{is}では,()内が挿入節に相当する.\noindent(例文\prob{\label{is}})\\[0.5zw]\begin{picture}(380,112)(-20,0)\linethickness{0.25pt}\put(0,102){ホテルの}\put(40,106){\line(1,0){5}}\put(45,106){\line(0,-1){8.5}}\put(20,85){部屋の}\put(50,89){\line(1,0){5}}\put(55,89){\line(0,-1){8.5}}\put(40,68){中も}\put(60,72){\line(1,0){125}}\put(185,72){\line(0,-1){59.5}}\put(50,51){早速}\put(70,55){\line(1,0){115}}\put(60,34){(夜}\put(80,39){\line(1,0){5}}\put(85,39){\line(0,-1){8.5}}\put(80,17){着いたんですけども)}\put(120,0){チェックしました}\end{picture}CSJでは,挿入節の終端の文節に「挿入節」というラベルが付与されている.挿入節の終端は基本的に強境界となっているが,挿入節を越えて前方から後方に係る係り受けが存在するため,文境界ではなく挿入節の終端と認定される.\end{description}\subsection{節境界の曖昧さが係り受け解析に及ぼす影響}\label{sec:ds_problem1}従来研究では,話し言葉において節境界の曖昧さが係り受け解析に及ぼす影響については,ほとんど考慮されていなかった.下岡ら\cite{shitaoka_2005}は,話し言葉では文境界が曖昧であることが係り受け解析に与える影響が最も大きいことを指摘し,その影響を定量的に示した.彼らは,正しい文境界の情報を与えることにより,文境界を自動推定した場合に比べて約3\%高い係り受け解析精度が得られると報告している.また,文境界を推定する方法および文境界の自動推定結果を係り受け解析に利用する方法を提案し,その有効性も示した.しかし,その他の節境界については,係り受け解析に及ぼす影響は明らかではなかった.大野ら\cite{Ohno:coling-acl2006}は,文を節境界で分割して得られる節境界単位を基本として,節境界単位内の係り受けと節境界単位間の係り受けを別々に解析する方法を提案し,その有効性を示している.しかし,節境界単位は節とは異なるため,本来は節を超える係り受けを正しく推定することができない.例えば,\ref{sec:ds_problem0}の例文\ref{inyo}や例文\ref{is}では,節の始端は節境界ではないため,「昔から」と「思っていたところです」,「早速」と「チェックしました」は節境界単位をまたぐ係り受けとみなされ,正しく推定することができない.内元ら\cite{Uchimoto:lrec2006a}は文境界,言い直しの存在,挿入節・引用節などの境界の曖昧さ,係り先のない文節に着目し,正しい文境界の情報を与えた場合,さらに言い直し関係のうち係り元の文節を削除した場合,さらに挿入節・引用節の境界の情報を与えた場合,さらに係り先のない文節を削除した場合のそれぞれについて,係り受けモデルを学習しテストした場合に得られる係り受け解析精度を調べた.その結果,挿入節・引用節の境界の情報を与えた場合に約2\%高い精度が得られたと報告している.これは,話し言葉においては引用節や挿入節を含む文は節構造が複雑で,引用節あるいは挿入節の内部と外部とを結んでしまう係り受け解析誤りが多くなるためであると考えられる.逆に,引用節・挿入節の範囲を取得することができれば,係り受け解析精度の向上が期待できるが,そこまでは明らかにはされていない.そこで,本論文では,引用節・挿入節を自動認定する手法,および,その結果を利用して係り受け解析を行なう手法を提案し,引用節・挿入節を自動認定した結果を用いることで係り受け解析精度が有意に向上することを示す.手法については,\ref{sec:method}章で詳しく述べる.\subsection{係り受け解析におけるその他の話し言葉特有の現象の扱い}\label{sec:ds_problem2}その他の話し言葉特有の現象および本研究における係り受け解析時の扱いについては次の通りである.\begin{description}\item[(1)文境界が明示されていない]\\話し言葉では文境界が明示されない.そのため,すべての文節に対して係り受けを特定しようとすると,文間関係も文節の関係として特定することになる.しかし,文間関係については人間の判断が揺れる場合が多い.また,自動要約のために文圧縮をしたり格関係を抽出する場合など,実際に必要となる係り受けの情報は文単位の係り受けであることが多い.そこで本研究では,文間関係は推定せず文境界を推定するにとどめ,係り受けは文内の文節間係り受けのみを対象として解析する.\item[(2)係り先がない文節がある]\\話し言葉では,途中で発話のプランが変わったために係り先が消失したり,またフィラーや言いよどみなど,係り受け関係を特定しても用途がほとんど考えられず,係り受けを定義することに意味がない場合がある.このような場合,CSJでは係り受けが付与されていない.フィラーや言いよどみについては,浅原らの手法\cite{asahara}を用いることである程度特定できると考え,本研究ではすべて削除して扱う.ただし,どこにフィラーがあったかについての情報は残しておき,後の解析に利用する.本来これらの文節については,正しく「係り先なし」と推定するべきであるが,これについては今後の課題とする.それ以外の係り先を持たない文節については,以下に述べる条件に従って便宜的に係り先を設定する.\begin{itemize}\item挿入節の終端の文節は,交差を発生させない範囲で文内のできるだけ後方に係るとする.\ref{sec:ds_problem0}節の例文\ref{is}では,「着いたんですけども」の係り先は「チェックしました」とする.\item引用節や挿入節の内部に絶対境界・強境界が含まれる場合,その内部境界の直前の文節の係り先は,後方に最初に現れる内部境界の直前または引用節・挿入節の終端の文節とする.以下の例文\ref{B}にその例を示す.「:」は内部境界を表わす.「必要かな」「確保できないし」は係り先を持たないが,それぞれ「確保できないし」「作れるんじゃないかな」に係るとする.\noindent(例文\prob{\label{B}})\\[0.5zw]\begin{picture}(380,61)(-20,0)\linethickness{0.25pt}\put(0,51){{やっぱりナイフは必要かな:}\put(160,55){\line(1,0){25}}\put(185,55){\line(0,-1){8.5}}\put(20,34){ナイフがないと何も確保できないし:}\put(220,38){\line(1,0){5}}\put(225,38){\line(0,-1){25.5}}\put(30,17){まずはもしかしたら何年間も}\put(40,0){掛けてカヌーぐらい作れんじゃないかな}と思いましてね}\end{picture}\item上記以外の係り先を持たない文節は,直後の文節に係るとする.\end{itemize}\item[(3)係り受け関係が交差する]\\一般に,日本語の書き言葉においては「係り受け関係は互いに交差しない」という非交差条件が成り立つと言われている.しかし,話し言葉ではこの非交差条件が成り立たないことも多い.例えば,以下の例文\ref{crs}では,「これが」が「正しいと」に係り,「私は」が「思う」に係るので係り受け関係が交差している.\noindent(例文\prob{\label{crs}})\\[0.5zw]\begin{picture}(380,61)(-20,0)\linethickness{0.25pt}\put(0,51){これが}\put(30,55){\line(1,0){35}}\put(65,55){\line(0,-1){25.5}}\put(20,34){私は}\put(40,38){\line(1,0){55}}\put(95,38){\line(0,-1){25.5}}\put(40,17){正しいと}\put(80,21){\line(1,0){15}}\put(80,0){思う}\end{picture}しかし,今回用いた188講演において,係り受け関係が交差している箇所は689個とそれほど多くないため,本論文では,係り受けの非交差条件が成り立つと仮定して係り受け解析を行なう.したがって,評価の際,交差している係り受けのいずれかは解析誤りとなる.交差している場合への対処については今後の課題である.\item[(4)言い直しが多い]\\話し言葉ではしばしば言い直しが生じる.CSJでは言い直し関係には係り受け関係と同様の関係が付与され,さらにDというラベルが付与されている.以下の例文\ref{rep}にその例を示す.\noindent(例文\prob{\label{rep}})\\[0.5zw]\begin{picture}(380,95)(-20,0)\linethickness{0.25pt}\put(0,85){山田}\put(30,85){D}\put(20,89){\line(1,0){10}}\put(40,89){\line(1,0){5}}\put(45,89){\line(0,-1){8.5}}\put(10,68){山田さんは}\put(60,72){\line(1,0){65}}\put(125,72){\line(0,-1){59.5}}\put(20,51){強靭な}\put(50,55){\line(1,0){15}}\put(65,55){\line(0,-1){8.5}}\put(50,34){肉体の}\put(80,38){\line(1,0){15}}\put(95,38){\line(0,-1){8.5}}\put(60,17){持ち主だと}\put(110,21){\line(1,0){15}}\put(70,0){言ってましたね}\end{picture}本来は,文節間の関係の推定のみではなくそれがどういった関係なのかまで推定すべきである.しかし,書き言葉を対象にした研究においても多くの場合は関係の有無の推定のみを対象としているため,本論文でも同様に,言い直し関係を係り受け関係として特定し,言い直し関係かどうかのラベルの推定までは行なわない.\item[(5)倒置表現がある]\\話し言葉ではしばしば倒置表現が用いられる.CSJでは,倒置は左係りで表現されている.本論文では,関係を特定することが重要と考え,CSJにおける倒置に対しては修正を行ない,便宜上すべて右係りとして扱った.例えば,以下の例文3では,「これは」が「耐えられないんです」に倒置で係っているが,「耐えられないんです」が「これは」に係るように修正した.\noindent(例文\prob{\label{inv}})\\[0.5zw]\begin{picture}(380,44)(-20,0)\linethickness{0.25pt}\put(0,34){私は}\put(20,38){\line(1,0){15}}\put(35,38){\line(0,-1){8.5}}\put(20,17){耐えられないんです}\put(110,0){これは}\put(75,4){\line(0,1){8.5}}\put(75,4){\line(1,0){35}}\end{picture}\end{description}なお,上記の対処法については(2)以外は下岡らの手法\cite{shitaoka_2005}に従っている. \section{係り受け解析と引用節・挿入節の自動認定のアプローチ} label{sec:method}\subsection{係り受け解析と境界推定の相互処理}\label{sec:method_ov}図\ref{flow}に本手法で提案する処理の概要を示す.処理の流れは下記の通りである.入力は,形態素および文節の情報が付与されたテキストであり,CSJを対象とする場合,一講演のテキストおよび形態素,文節の情報が入力となる.図\ref{flow}およびその説明において,文境界と引用節・挿入節の境界をまとめて境界と表現している.\begin{figure}[t]\begin{center}\includegraphics{16-1ia1f1.eps}\caption{係り受け解析と境界推定の相互処理の概要}\label{flow}\end{center}\vspace{-1\baselineskip}\end{figure}\begin{itemize}\item境界推定(1回目)\\入力テキストに対し,まず,\ref{sec:method_cb}節で述べる手法により,表層表現・品詞・活用形,ポーズ長の情報などを素性として用いて,文境界,引用節,挿入節の境界を推定する.このとき,引用節・挿入節および文境界の3つの境界の推定は同時に行なう.\item係り受け解析(1回目)\\次に,境界推定(1回目)で推定された文境界によりテキストを文に分割し,各文について,\ref{sec:method_ds}節で述べる手法により係り受け解析を行なう.このとき,素性としては表層表現・品詞・活用形,文節間距離などを用いる.境界推定(1回目)で得られた情報のうち,引用節・挿入節の境界に関する情報はここでは用いない.\item境界推定(2回目)\\さらに,元の入力テキストに対し,文境界,引用節,挿入節の境界を再推定する.このとき,係り受け解析(1回目)で得られた係り受けの確率の情報も素性として用いる.この素性は境界の情報により場合分けされており,その場合分けには,境界推定(1回目)で得られた引用節・挿入節の境界のうち,終端の情報を用いる.\item係り受け解析(2回目)\\最後に,境界推定(2回目)で得られた文境界により元の入力テキストを文に分割し,各文について,\ref{sec:method_ds}節で述べる手法により係り受けの再解析を行なう.このとき,境界推定(2回目)で得られた引用節・挿入節の境界の情報も素性として用いる.\end{itemize}以上の処理により,入力テキストに対し,文境界,引用節,挿入節の境界情報,および,各文内について文節係り受けの情報が得られる.以下では,係り受け解析および引用節・挿入節の自動認定の手順についてそれぞれ説明する.\subsection{係り受け解析}\label{sec:method_ds}本研究では,内元らの手法\cite{uchimoto_2000}に基づき,係り受け解析モデルを統計的に学習する.統計的係り受け解析では,文中の各文節がどの文節に係りやすいかを確率値で表わし,それらを要素とした係り受け行列を作成する.そして,一文全体が最適な係り受け関係になるように,それぞれの係り受けを決定する.ここで,2つの文節間の関係を「間」「係る」「越える」の3カテゴリとして学習することにより,着目している2文節の間にある文節や,それらより後方にある文節との関係も考慮して確率値を計算できる.この係り受け解析モデルは最大エントロピー(ME)モデルとして実装され,素性には,単語の表層表現・品詞・活用形・文節間距離など,およびそれらの組合せが利用されている.本研究ではさらに,着目している2文節の係り受けを仮定した場合に,その係り受けが引用節・挿入節の境界と交差するかどうかを素性に加える.より具体的には次の通りである.仮定した係り受けと引用節・挿入節の境界との関係は下記の3つの場合に分類できる.そして,引用節と挿入節のそれぞれについて,2文節の関係が下記の分類のうちどれに属するかを素性値として与える.\begin{itemize}\item{\bf仮定した係り受けと引用節・挿入節の境界とが交差する場合}交差が発生するのは,以下の2通りの場合である.このとき,2文節が実際に係り受け関係を持つことはない.ただし,対象の2文節のうち係り文節が引用節あるいは挿入節の終端となっている場合はこの分類に含めない.\begin{itemize}\item2文節の一方のみが引用節・挿入節の内部に含まれる\item2文節の双方が異なる引用節・挿入節の内部に含まれる\end{itemize}\item{\bf仮定した係り受けと引用節・挿入節の境界とが交差しない場合}交差が発生しないのは,以下の2通りの場合である.\begin{itemize}\item2文節がともに引用節・挿入節の内部に含まれない\item2文節がともに同一の引用節・挿入節の内部に含まれる\end{itemize}\item{\bf2文節のうち係り文節が引用節・挿入節の終端となっている場合}この場合には,\ref{sec:ds_problem2}節で述べたように,節の外部と内部との係り受けが例外的に結ばれるので,別の分類とする.\end{itemize}ただし,引用節・挿入節の境界が適切に推定されていることが望ましいため,この素性は図\ref{flow}の係り受け解析(2回目)のみに用いる.この素性を用いることにより,2文節間に仮定した係り受けと引用節・挿入節の境界とが交差する場合には,この2文節が実際に係り受け関係を持つ確率は低く推定される.\subsection{引用節・挿入節の自動認定}\label{sec:method_cb}本研究では,下岡らが提案した機械学習による文境界推定法\cite{shitaoka_2005}に基づき,引用節・挿入節の自動認定をテキストチャンキングの問題として扱う.これにより,引用節・挿入節の自動認定と文境界推定を同時に行なうことが可能となり,これらを別々に行なう場合に比べて,文境界推定の誤りに対しても頑健に動作することが期待できる.テキストチャンカには,SVM(SupportVectorMachines)に基づくYamCha\cite{YamCha}を用いる.YamChaでは,カーネル関数として多項式カーネルを用いることにより,複数の素性の組合せを考慮した学習が可能である.また,推定により得られた前後のチャンクラベルを動的素性として用いることができる.本手法では,チャンクラベルは文節ごとに付与する.ラベルには,文境界に関するタグ(E:文末,I:文末以外)と,引用節および挿入節に関するタグ(表\ref{kind_label})の3つ組を用いる.以下の例文~\ref{label}にラベル付与の例を示す.ラベル内のタグは,順に(文境界に関するタグ,引用節に関するタグ,挿入節に関するタグ)を表わしている.例えば「予算の」に付与されているラベル{\tt(I,B,B)}は,この文節が文末の文節ではなく,引用節・挿入節の始端となっていることを示す.3つのタグは同時に推定されるため,このモデルでは文境界・引用節・挿入節の関係が考慮されている.例えば,引用節・挿入節の範囲が文境界を越えることはないので,{\tt(E,I,O)}などというラベルが推定されることはない.\noindent(例文\prob{\label{label}})\\[0.5zw]\begin{picture}(380,112)(-20,0)\linethickness{0.25pt}\put(0,102){今は}\put(175,102){\texttt{(I,O,O)}}\put(20,106){\line(1,0){145}}\put(165,106){\line(0,-1){93.5}}\put(25,85){({予算の}\put(175,85){\texttt{(I,B,B)}}\put(70,89){\line(1,0){5}}\put(75,89){\line(0,-1){8.5}}\put(50,68){関係だ}と}\put(175,68){\texttt{(I,E,I)}}\put(100,72){\line(1,0){5}}\put(105,72){\line(0,-1){8.5}}\put(60,51){思いますが)}\put(175,51){\texttt{(I,O,E)}}\put(70,34){一夏に}\put(175,34){\texttt{(I,O,O)}}\put(100,38){\line(1,0){15}}\put(115,38){\line(0,-1){8.5}}\put(80,17){三回ぐらいしか}\put(175,17){\texttt{(I,O,O)}}\put(150,21){\line(1,0){15}}\put(120,0){やりません}\put(175,0){\texttt{(E,O,O)}}\end{picture}YamChaの多項式カーネル次数は3,解析方向はRighttoLeftとし,後方3文節の動的素性を利用する.SVMに与える素性としては,以下のものを用いる.\begin{table}[t]\caption{チャンキングに使用するタグの種類}\label{kind_label}\begin{center}\input{01table01.txt}\end{center}\end{table}\begin{description}\item[(1)単語情報]\\単語情報として,表層表現・読み・品詞情報・活用の種類・活用形を用いる.引用節の終端では「〜と思う」「〜って言う」などの表現が,挿入節の終端では「〜ですが」「〜けれども」などの表現が多用される.\item[(2)文節の前後のポーズ長]\\引用節や挿入節の前後にはポーズが入りやすいと考えられる.そこで,文節の前後のポーズ長を素性として利用する.なおポーズ長としては,講演ごとに平均と分散で正規化した値を用いる.CSJでは,200~msec以上のポーズで区切られた単位を転記単位として,書き起こしデータが作成されており,各転記単位には開始・終了時刻が付与されているため,これからポーズ長が計算できる.\end{description}引用節・挿入節の終端を推定する際には単語情報が大きな手がかりとなるが,以上の素性はすべて局所的な情報であり,これらだけから始端も同時に推定するのは困難である.例えば,以下の例文\ref{ex_depend}では,「この辺りは父から聞いた話なんですけど」の部分だけを見た場合,「(他に自分が体験したことを話している途中で)この辺り(の話)は父から聞いた話なんですけど」という意味でも解釈できるため,「父から」が引用節の始端であるとは決定できない.この場合,「この辺りは父から聞いた話なんですけど」の全体が挿入節に含まれる可能性もある.\noindent(例文\prob{\label{ex_depend}})\\[0.5zw]\begin{picture}(380,112)(-20,0)\linethickness{0.25pt}\put(0,102){この}\put(20,106){\line(1,0){15}}\put(35,106){\line(0,-1){8.5}}\put(20,85){辺りは}\put(50,89){\line(1,0){125}}\put(175,89){\line(0,-1){76.5}}\put(30,68){(父から}\put(70,72){\line(1,0){15}}\put(85,72){\line(0,-1){8.5}}\put(60,51){聞いた}\put(90,55){\line(1,0){15}}\put(105,55){\line(0,-1){8.5}}\put(80,34){話なんですけど)}\put(100,17){昔}\put(110,21){\line(1,0){65}}\put(120,0){たんぼだったんです}\end{picture}このように,引用節・挿入節の始端を決定するためには,大域的な情報も必要となる.そこで,始端を決定する際には,自動推定した係り受けの情報をあわせて利用する.引用節・挿入節の終端が既に得られている場合,\ref{sec:ds_problem0}節および\ref{sec:method_ds}節で述べたような引用節・挿入節と係り受け構造との関係により,始端より前の文節の係り受けには図\ref{depend}のような制約が成り立つ.本手法ではこの制約を利用し,チャンキングを2回にわたって行なう.1回目のチャンキング(図\ref{flow}の境界推定(1回目))では,上述の素性のみを用いて文境界および引用節・挿入節を自動認定する.そして,ここで得られた文ごとに係り受け解析(図\ref{flow}の係り受け解析(1回目))を行ない,1回目のチャンキングで自動認定された引用節・挿入節の終端の情報をもとに,以下の係り受けの確率を素性に加えて,2回目のチャンキング(図\ref{flow}の境界推定(2回目))を行なう.学習データに対する係り受け確率は,学習データ内で10-foldcrossvalidationによって係り受け解析を行なうことで求める.\begin{figure}[t]\begin{center}\includegraphics{16-1ia1f2.eps}\caption{引用節・挿入節の始端以前の係り受けに関する制約}\label{depend}\end{center}\end{figure}\noindent{\bf(a)着目している文節より前方にある文節が,着目している文節と終端の間の文節に係る確率\\(b)着目している文節の直前の文節が,終端より後方の文節に係る確率\\}図\ref{depend}から,例えば,(a)の確率が小さく(b)の確率が大きければ,その文節は始端になりやすいと推測される.先の例文\ref{ex_depend}では,「辺りは」「聞いた」「話なんですけど」は前方の文節が着目している文節に係るため,(a)の確率が大きくなる.また「父から」については,直前の文節「辺りは」が挿入節の終端「話なんですけど」より後方に係るため,(b)の確率が大きくなる.これより,「父から」が挿入節の始端であると推定できることが期待される. \section{評価実験} label{sec:eval}引用節・挿入節の自動認定および係り受け解析の評価実験を行なった.実験に用いたコーパスはCSJのコア188講演(模擬講演111講演と学会講演77講演)の書き起こしである.この中には6,148個の引用節と818個の挿入節が含まれている.このうち168講演を学習データ,20講演(模擬講演11講演と学会講演9講演)をテストデータとして用いた.まず,下岡らの手法\cite{shitaoka_2005}に従い,単語情報とポーズ長を用いて文境界を推定した後で,得られた文ごとに係り受け解析を行ない,ベースライン精度を求めた.文境界推定のF値は85.6で,係り受け解析精度は,openテストで77.7\%,closedテストで86.6\%であった.closedテストでは,188講演のすべてを学習に利用している.\subsection{引用節・挿入節の自動認定結果}\label{sec:eval_cb}\ref{sec:method_cb}節で述べた手法を用いて,引用節・挿入節の自動認定を行った.その結果を表\ref{result_yamcha}に示す.表\ref{result_yamcha}には以下の5種類の実験結果を示している.\begin{table}[b]\caption{引用節・挿入節の認定精度(文境界が未知の場合)}\label{result_yamcha}\begin{center}\input{01table02.txt}\end{center}\end{table}\begin{itemize}\item係り受けを用いない場合(1回目のチャンキング:図\ref{flow}の境界推定(1回目))の認定精度\itemopenテストで得られた係り受けを用いた場合(2回目のチャンキング:図\ref{flow}の境界推定(2回目))の認定精度\itemclosedテストで得られた係り受けを用いた場合(2回目のチャンキング:図\ref{flow}の境界推定(2回目)の認定精度\item正解の係り受けを用いた場合(2回目のチャンキング:図\ref{flow}の境界推定(2回目))の認定精度(係り受け確率はすべて1.0とする)\item1回目のチャンキング(図\ref{flow}の境界推定(1回目))における終端のみについての認定精度\end{itemize}表\ref{result_yamcha}によると,引用節の終端のおよそ9割は正しく検出できている.検出できなかったものの中には「〜と」で終わる文末や,「〜っちゅう」「〜みたいな」など,使われる頻度が比較的少ない表層表現があった.始端とともに正解した精度は,openテストで自動推定された係り受けを利用することによって向上した.個々の文節における引用節のチャンクタグの推定結果についてマクネマー検定を行なったところ,$p<0.01$で有意な改善が得られていることが分かった.これは,本手法で素性として利用した係り受け情報が有効に作用したことを表わしている.例えば,以下の例文\ref{improve_yamcha}では,1回目のチャンキングでは「多分私が飼っていたさくらの方だった」の部分が引用節だと誤って自動認定されたものの,2回目のチャンキングで係り受けを利用することにより,「逃げたのは多分私が飼っていたさくらの方だった」の範囲が引用節であると正しく自動認定されるようになった.\noindent(例文\prob{\label{improve_yamcha}})\\[0.5zw]\begin{picture}(380,112)(-20,0)\linethickness{0.25pt}\put(0,102){{逃げたのは}\put(60,106){\line(1,0){105}}\put(165,106){\line(0,-1){93.5}}\put(20,85){多分}\put(40,89){\line(1,0){125}}\put(30,68){私が}\put(50,72){\line(1,0){15}}\put(65,72){\line(0,-1){8.5}}\put(40,51){飼っていた}\put(90,55){\line(1,0){15}}\put(105,55){\line(0,-1){8.5}}\put(80,34){さくらの}\put(120,38){\line(1,0){15}}\put(135,38){\line(0,-1){8.5}}\put(90,17){方だった}と}\put(150,21){\line(1,0){15}}\put(100,0){思うんですけれども}\end{picture}さらに,closedテストで得られた係り受けや正解の係り受けを用いた場合は,引用節の認定精度は大きく向上している.このことから,係り受け解析精度が改善されるのに伴って,引用節の認定精度も向上することが分かる.一方,挿入節については,係り受けを利用してもほとんど検出できず,挿入節の終端の大半は文境界であると推定されていた.挿入節は,文末表現としてもよく用いられる「〜けれども」「〜ですが」の形で終わるものが多く,文境界との区別が難しいことが原因であると考えられる.これらの区別は,本手法で用いた素性だけでは困難である.そこで,\ref{sec:additional_features}節に述べるように,フィラーの有無や話速,韻律情報などを素性として用いてみたが,有意な精度向上は見られなかった.今後,より広範な素性を検討する必要があると考える.\subsection{節の自動認定結果を用いた係り受け解析結果}\label{sec:eval_db}\begin{table}[b]\caption{係り受け解析精度(文境界が未知の場合)}\label{result_pepp}\begin{center}\input{01table03.txt}\end{center}\end{table}次に,自動認定された引用節・挿入節を用いて,\ref{sec:method_ds}節の手法で係り受け解析(図\ref{flow}の係り受け解析(2回目))を行なったところ,表\ref{result_pepp}に示す結果となった.ここで用いる引用節・挿入節の自動認定結果は,表\ref{result_yamcha}においてopenテストで得られた係り受けを利用したものである.学習データにおいても同様に,2-foldcrossvalidationによって引用節・挿入節の自動認定を行なった.引用節・挿入節の自動認定結果を利用することで,openテストにおける係り受け解析精度は1.0\%向上した.マクネマー検定を行なったところ,本手法を用いた係り受け解析精度はベースラインの精度より$p<0.01$で有意に上回っていることがわかった.この結果は,引用節・挿入節の推定に誤りがある場合でも,係り受け解析モデルが頑健に作用したことを示唆している.\begin{table}[t]\caption{引用節・挿入節の境界と交差する係り受けの数(文境界が未知の場合)}\label{result_cross}\begin{center}\input{01table04.txt}\end{center}\end{table}そこで次に,引用節・挿入節を含む文の係り受け解析における解析誤りの数の変化について考察した.表\ref{result_cross}に,引用節・挿入節の内部と外部を結ぶ誤った係り受けが推定された数を示す.このような係り受け解析誤りの数は,引用節・挿入節の推定結果を利用することで,639個から572個に削減された.特に,引用節の内部から外部へと係る解析誤りの数が,217個から128個へと大きく削減された.その理由は次のように考えられる.一般に,引用節や挿入節がある場合は,その前方にある文節は引用節や挿入節を越えて遠くの文節に係ることが多い.その結果,従来の係り受けモデルでは,遠くに係る係り受けが誤って優先され,引用節・挿入節の内部から終端を越えて節の後方に係るような係り受け解析の誤りが多く発生していた.しかし,本手法によって,引用節については,認定精度の高かった終端の情報を活用することで,このような解析誤りを削減することができるようになったと考えられる.例えば,以下の例文\ref{improve_depend}では,引用節・挿入節の情報を利用せずに係り受け解析を行なった場合には,「挟んで」(引用節内部)が「覚えてきて」(引用節外部)に係ると誤って推定されていたものの,「顔挟んで外に出てしまう」の部分を引用節として自動認定できたことにより,「挟んで」(引用節内部)が「出てしまうという」(引用節内部)に係るように修正された.\noindent(例文\prob{\label{improve_depend}})\\[0.5zw]\begin{picture}(380,112)(-20,0)\linethickness{0.25pt}\put(0,102){{顔}\put(20,106){\line(1,0){15}}\put(35,106){\line(0,-1){8.5}}\put(20,85){挟んで}\put(50,89){\line(1,0){25}}\put(75,89){\line(0,-1){25.5}}\put(40,68){外に}\put(60,72){\line(1,0){15}}\put(50,51){出てしまう}という}\put(140,55){\line(1,0){15}}\put(155,55){\line(0,-1){8.5}}\put(140,34){芸を}\put(160,38){\line(1,0){55}}\put(215,38){\line(0,-1){25.5}}\put(150,17){どこからか}\put(200,21){\line(1,0){15}}\put(180,0){覚えてきて}\end{picture}また,表\ref{result_pepp}には,引用節・挿入節の正解を与えた場合,すなわち認定精度が100\%だったと仮定した場合の係り受け解析の結果も示す.この場合,係り受け解析精度はさらに改善されており,引用節・挿入節の認定精度の向上に伴って係り受け解析精度も改善されることが分かる.\subsection{節の自動認定と係り受け解析の相互作用に関する考察}\label{sec:eval_interact}上述の実験結果から,引用節・挿入節の自動認定および係り受け解析の精度は,相互の情報を利用することにより高精度化されることが確認できた.単純には,同様のサイクルを繰り返すことにより,さらなる精度向上が期待される.そこで,引用節・挿入節の自動認定結果と係り受け解析の結果を再度相互に利用して,それぞれの精度がさらに改善されるかどうか調べた.しかしながら,引用節の認定精度および係り受け解析精度に有意な変化は見られなかった.これは,一度引用節・挿入節の情報を利用して推定した係り受けは,現在得られている節の認定範囲に対して最適な状態になっており,その結果を用いても始端の位置はほとんど修正できないためと考えられる.逆に,再度相互に推定結果を利用することで,引用節の外部から内部へと係る解析誤りがわずかに増加する結果となった.これは,2回目のチャンキングで引用節の始端を再推定する際に,誤った係り受けの情報が優先され,始端の位置が誤って文頭側にずれたことが原因と推測される.今後の課題として,特に引用節の始端付近について係り受けの傾向を詳細に分析し,より適切な係り受けの利用法を検討したい.\subsection{文境界が既知の場合の実験結果}\label{sec:known_sb}\begin{table}[b]\caption{引用節・挿入節の認定精度(文境界が既知の場合)}\label{result_yamcha2}\begin{center}\input{01table05.txt}\end{center}\end{table}次に,文境界推定の誤りの影響を調べるために,正解の文境界を与えて,引用節・挿入節の自動認定および係り受け解析を行なった.評価結果を表\ref{result_yamcha2}$\sim$表\ref{result_cross2}に示す.結果として,文境界を与えることにより,引用節・挿入節の認定精度,係り受け解析精度ともに大きく上昇した.表\ref{result_yamcha2}からは,引用節だけでなく挿入節についても係り受けを利用することで認定精度が向上すること,表\ref{result_pepp2}からは,引用節・挿入節の自動認定結果を用いることでopenテストでの係り受け解析精度が0.6\%向上することなどが分かる.また,引用節・挿入節の正解を与えた場合,係り受け解析精度はさらに改善されることも分かる.これらの結果は,文境界推定の誤りの影響がいかに大きいかを示している.\begin{table}[t]\caption{係り受け解析精度(文境界が既知の場合)}\label{result_pepp2}\begin{center}\input{01table06.txt}\end{center}\end{table}\begin{table}[t]\caption{引用節・挿入節の境界と交差する係り受けの数(文境界が既知の場合)}\label{result_cross2}\begin{center}\input{01table07.txt}\end{center}\end{table}しかしながら,話し言葉において曖昧となる引用節・挿入節および文境界の情報をすべて与えても,書き言葉における係り受け解析精度と比べると依然として大きな差がみられる.話し言葉における係り受け解析精度をさらに向上させるためには,話し言葉特有の問題点について,さらに調査を行なう必要がある.これは今後の課題である.\subsection{その他の素性を追加した場合の実験結果}\label{sec:additional_features}\ref{sec:method_cb}節で述べた素性(1)と(2)に下記の素性を加え,それぞれの素性の組み合わせを用いて\ref{sec:eval_cb}節や\ref{sec:eval_db}節と同様の実験を行なった.\begin{description}\item[文節の前後のフィラーの有無]\\引用節や挿入節の前後にはポーズだけでなくフィラーも入りやすいと考えられる.そこで,文節の前後のフィラーの有無も素性として利用する.\item[文節の話速]\\挿入節では,話者が早口になると考えられるため,各文節の話速をポーズ長と同様に正規化してから用いる.話速は,モーラあたりの平均発声時間によって定義する.すなわち文節$b$の話速$rate(b)$は,文節$b$が転記単位$u$に含まれるとき,次式で計算できる.\[rate(b)=\frac{t_{end}(u)-t_{begin}(u)}{mora(u)}\]ここで$t_{begin}(u)$,$t_{end}(u)$は転記単位$u$の開始・終了時刻を表わし,$mora(u)$は転記単位$u$に含まれるモーラ数である.\item[文節内の基本周波数の最大値]\\引用節・挿入節の境界の前後では,基本周波数(F0)の上昇や下降が起こることが予想される.そこで,各文節における基本周波数の最大値を講演ごとに正規化したものを素性として用いる.CSJでは,F0曲線の頂点や,曲線の変化率が大きく変わる点(屈曲点)に対して,自動抽出されたF0値が付与されており,素性としてはその値を用いる.\item[文節の先頭・末尾の韻律ラベル]\\CSJでは,韻律の変化に関するラベリングが行なわれている.ラベリング体系には,日本語の韻律ラベリング法として従来用いられてきたJ\_ToBI(JapaneseTonesandBreakIndices)\cite{JToBI}を自発音声に適用するための拡張が施されたX-JToBI(eXtendedJ\_ToBI)\cite{X-JToBI}が用いられている.これらのラベルは,音声の基本周波数のパターンや,音韻の時間長変化によるリズムを考慮して定義されたものである.引用節・挿入節の始端や終端では,これらの韻律特徴に変化が起こることが考えられる.そこで,各文節の先頭および末尾に付与されているX-JToBIのトーン層ラベルを素性として用いる.X-JToBIで定義されているトーン層ラベルの例を表\ref{table:XJToBI}に示す.\begin{table}[b]\caption{X-JToBIトーン層ラベルの例}\label{table:XJToBI}\begin{center}\input{01table08.txt}\end{center}\end{table}\end{description}それぞれの素性の組み合わせに対し,個々のチャンクラベルの推定結果についてマクネマー検定を行なったところ,単語情報とポーズ長以外の素性,すなわち,フィラーの有無・話速・基本周波数・韻律ラベルを用いても,有意水準$p=0.01$とした場合,有意な改善は得られなかった.これは,話速・基本周波数・韻律ラベルといった音響的特徴の現れ方が,引用節・挿入節において不安定であることや,上記の素性から得られる情報がすでに単語情報やポーズ長から得られていることなどが原因と考えられる. \section{おわりに} label{sec:final}本論文では,CSJを対象として,引用節・挿入節を自動認定し,その自動認定結果を係り受け解析に適用する手法について述べた.評価実験により,自動認定した引用節・挿入節の情報を係り受け解析に利用することで,係り受け解析精度が改善されることを示した.特に,引用節の終端は高い精度で推定することができたため,その情報を利用することで,引用節の内部から終端を越えて外部に係る解析誤りを削減することができた.今後の課題としては,実験の考察を踏まえ,より広範な素性の考慮,より適切な係り受けの利用法の検討などにより,さらなる精度の改善を図ることや,音声認識結果に誤りがある場合の頑健性について検討することなどが挙げられる.また,係り受け解析における話し言葉特有の問題点についてもさらなる調査を行ないたい.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原松本}{浅原\JBA松本}{2003}]{asahara}浅原正幸,松本裕治\BBOP2003\BBCP.\newblock\JBOQ形態素解析とチャンキングの組み合わせによるフィラー/言い直し検出\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集},\BPGS\651--654.\bibitem[\protect\BCAY{藤尾,松本}{藤尾\JBA松本}{1997}]{fujio_97}藤尾正和,松本裕治\BBOP1997\BBCP.\newblock\JBOQ統計的手法を用いた係り受け解析\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会NL117-12},\BPGS\83--90.\bibitem[\protect\BCAY{古井,前川,井佐原}{古井\Jetal}{2000}]{furui}古井貞煕,前川喜久雄,井佐原均\BBOP2000\BBCP.\newblock\JBOQ科学技術振興調整費開放的融合研究推進制度—大規模コーパスに基づく『話し言葉工学』の構築—\JBCQ\\newblock\Jem{日本音響学会誌},{\Bbf56}(11),752--755.\bibitem[\protect\BCAY{春野,白井,大山}{春野\Jetal}{1998}]{haruno}春野雅彦,白井諭,大山芳史\BBOP1998\BBCP.\newblock\JBOQ決定木を用いた日本語係受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(12),3177--3186.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{Kawahara:naacl2006}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQ{AFully-LexicalizedProbabilisticModelforJapaneseSyntact\icandCaseStructureAnalysis}\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics(HLT-NAACL2006)},\BPGS\176--183.\bibitem[\protect\BCAY{工藤,松本}{工藤\JBA松本}{2002}]{Kudo:2002}工藤拓,松本裕治\BBOP2002\BBCP.\newblock\JBOQチャンキングの段階適用による係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(6),1834--1842.\bibitem[\protect\BCAY{工藤,松本}{工藤\JBA松本}{2004}]{Kudo:2004}工藤拓,松本裕治\BBOP2004\BBCP.\newblock\JBOQ相対的な係りやすさを考慮した日本語係り受け解析モデル\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf46}(4),1082--1092.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2000}]{kudo_2000}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2000\BBCP.\newblock\BBOQ{JapaneseDependencyStructureAnalysisBasedonSupportVectorMachines}\BBCQ\\newblockIn{\BemProceedingsofthe2000JointSIGDATConferenceonEmpiricalMethodsinNaturalLanguageProcessingandVeryLargeCorpora},\BPGS\18--25.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2001}]{YamCha}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2001\BBCP.\newblock\BBOQ{ChunkingwithSupportVectorMachines}\BBCQ\\newblockIn{\BemProceedingsofthe2ndMeetingoftheNorthAmericanChapteroftheAssociationofComputationalLinguistics(NAACL2001)},\BPGS\192--199.\bibitem[\protect\BCAY{黒橋,長尾}{黒橋\JBA長尾}{1994}]{Kurohashi:94}黒橋禎夫,長尾眞\BBOP1994\BBCP.\newblock\JBOQ並列構造の検出に基づく長い日本語文の構文解析\JBCQ\\newblock\Jem{自然言語処理},{\Bbf1}(1),35--57.\bibitem[\protect\BCAY{黒橋長尾}{黒橋\JBA長尾}{1997}]{K-corpus}黒橋禎夫,長尾眞\BBOP1997\BBCP.\newblock\JBOQ京都大学テキストコーパス・プロジェクト\JBCQ\\newblock\Jem{言語処理学会第3回年次大会発表論文集},\BPGS\115--118.\bibitem[\protect\BCAY{前川菊池}{前川\JBA菊池}{2001}]{X-JToBI}前川喜久雄,菊池英明\BBOP2001\BBCP.\newblock\JBOQ{X-JToBI:自発音声の韻律ラベリングスキーム}\JBCQ\\newblock\Jem{電子情報通信学会技術研究報告},SP2001-106,\BPGS\25--30.\bibitem[\protect\BCAY{丸山,柏岡,熊野,田中}{丸山\Jetal}{2003}]{maruyama}丸山岳彦,柏岡秀紀,熊野正,田中英輝\BBOP2003\BBCP.\newblock\JBOQ節境界自動検出ルールの作成と評価\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集},\BPGS\517--520.\bibitem[\protect\BCAY{Matsubara,Murase,Kawaguchi,\BBA\Inagaki}{Matsubaraet~al.}{2002}]{matsubara}Matsubara,S.,Murase,T.,Kawaguchi,N.\BBA\Inagaki,Y.\BBOP2002\BBCP.\newblock\BBOQ{StochasticDependencyParsingofSpontaneousJapaneseSpokenLanguage}\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonComputationalLinguistics(COLING2002)},\BPGS\640--645.\bibitem[\protect\BCAY{Ohno,Matsubara,Kashioka,Maruyama,\BBA\Inagaki}{Ohnoet~al.}{2006}]{Ohno:coling-acl2006}Ohno,T.,Matsubara,S.,Kashioka,H.,Maruyama,T.\BBA\Inagaki,Y.\BBOP2006\BBCP.\newblock\BBOQ{DependencyParsingofJapaneseSpokenMonologueBasedonClauseBoundaries}\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics(COLING-ACL)},\BPGS\169--176.\bibitem[\protect\BCAY{白井,池原,横尾,木村}{白井\Jetal}{1995}]{SShirai:95}白井諭,池原悟,横尾昭男,木村淳子\BBOP1995\BBCP.\newblock\JBOQ階層的認識構造に着目した日本語従属節間の係り受け解析の方法とその精度\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf36}(10),2353--2361.\bibitem[\protect\BCAY{下岡,内元,河原,井佐原}{下岡\Jetal}{2005}]{shitaoka_2005}下岡和也,内元清貴,河原達也,井佐原均\BBOP2005\BBCP.\newblock\JBOQ日本語話し言葉の係り受け解析と文境界推定の相互作用による高精度化\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(3),3--18.\bibitem[\protect\BCAY{高梨,丸山,内元,井佐原}{高梨\Jetal}{2003}]{takanashi}高梨克也,丸山岳彦,内元清貴,井佐原均\BBOP2003\BBCP.\newblock\JBOQ{話し言葉の文境界—CSJコーパスにおける文境界の定義と半自動認定—}\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集},\BPGS\521--524.\bibitem[\protect\BCAY{内元,関根,井佐原}{内元\Jetal}{1999}]{uchimoto_99}内元清貴,関根聡,井佐原均\BBOP1999\BBCP.\newblock\JBOQ最大エントロピー法に基づくモデルを用いた日本語係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(9),3397--3407.\bibitem[\protect\BCAY{内元,村田,関根,井佐原}{内元\Jetal}{2000}]{uchimoto_2000}内元清貴,村田真樹,関根聡,井佐原均\BBOP2000\BBCP.\newblock\JBOQ後方文脈を考慮した係り受けモデル\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(5),3--17.\bibitem[\protect\BCAY{内元,丸山,高梨,井佐原}{内元\Jetal}{2003}]{csj_kakariuke}内元清貴,丸山岳彦,高梨克也,井佐原均\BBOP2003\BBCP.\newblock\JBOQ『日本語話し言葉コーパス』における係り受け構造付与\JBCQ\\newblock\Jem{平成15年度国立国語研究所公開研究発表会予稿集}.\bibitem[\protect\BCAY{Uchimoto,Hamabe,Maruyama,Takanashi,Kawahara,\BBA\Isahara}{Uchimotoet~al.}{2006}]{Uchimoto:lrec2006a}Uchimoto,K.,Hamabe,R.,Maruyama,T.,Takanashi,K.,Kawahara,T.\BBA\Isahara,H.\BBOP2006\BBCP.\newblock\BBOQ{Dependency-structureAnnotationtoCorpusofSpontaneousJapanese}\BBCQ\\newblockIn{\BemProceedingsoftheFifthInternationalConferenceonLanguageResourcesandEvaluation(LREC2006)},\BPGS\635--638.\bibitem[\protect\BCAY{Venditti}{Venditti}{1995}]{JToBI}Venditti,J.\BBOP1995\BBCP.\newblock\BBOQ{JapaneseToBILabellingGuidelines}\BBCQ\\newblock{\BemPapersfromtheLinguisticsLaboratory.OhioStateUniversityWorkingPapersinLinguistics},{\Bbf50},127--162.\end{thebibliography}\begin{biography}\bioauthor{浜辺良二}{2005年京都大学工学部情報学科卒業.2007年同大学院情報学研究科修士課程修了.現在,パナソニックコミュニケーションズ株式会社に勤務.在学中,話し言葉処理の研究に従事.}\bioauthor{内元清貴}{1994年京都大学工学部電気工学第二学科卒業.1996年同大学院修士課程修了.博士(情報学).同年郵政省通信総合研究所入所.現在,独立行政法人情報通信研究機構主任研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{河原達也}{1987年京都大学工学部情報工学科卒業.1989年同大学院修士課程修了.1990年同博士後期課程退学.同年京都大学工学部助手.1995年同助教授.1998年同大学情報学研究科助教授.2003年同大学学術情報メディアセンター教授.現在に至る.この間,1995年から1996年まで米国ベル研究所客員研究員.1998年からATR客員研究員.1999年から2004年まで国立国語研究所非常勤研究員.2001年から2005年まで科学技術振興事業団さきがけ研究21研究者.音声言語処理,特に音声認識・理解に関する研究に従事.京大博士(工学).1997年度日本音響学会粟屋潔学術奨励賞受賞.2000年度情報処理学会坂井記念特別賞受賞.情報処理学会連続音声認識コンソーシアム代表,IEEESPSSpeechTC委員,IEEEASRU2007GeneralChair,言語処理学会理事,を歴任.情報処理学会音声言語情報処理研究会主査.日本音響学会,人工知能学会各評議員.情報処理学会,電子情報通信学会,言語処理学会,IEEE各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所.現在,独立行政法人情報通信研究機構上席研究員およびタイ自然言語ラボラトリー長.自然言語処理,語彙意味論の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\end{biography}\biodate\end{document}
V02N01-04
\section{まえがき} 文章(文献)の執筆者の推定問題(authorshipproblem),あるいは執筆順序の推定や執筆時期の推定などの問題(Chronology)に対して,文章の内容や成立に関する歴史的事実の考証とは別に,文章から著者の文体の計量的な特徴を抽出し,その統計分析によって問題の解決を試みる研究が多くの人々に注目をあつめつつある.統計分析の手法を用いた文章の著者の推定や執筆の時期の推定などの研究は今世紀の初頭から行なわれていたが,本格的な研究が現れたのは今世紀の中ごろである.研究の全体像を把握するため今世紀の主な研究を表\ref{rri}に示した.\begin{table}[htb]\caption{{\dg著者の推定などの研究のリスト}\label{rri}}\begin{center}\renewcommand{\arraystretch}{}\footnotesize{\begin{tabular}{llll}\hline分析の対象となった文章&用いた情報&用いた情報,手法&研究者\\\hlineShakespeare,Bacon&単語の長さ&モード&Mendenhall,T.C.(1887)\\TheImitationofChrist&文の長さ&平均値,中央値など&Yule,G.U.(1939)\\TheImitationofChrist&語彙量&K特性値&Yule,G.U.(1944)\\Shakespeareetal.&単語の音節数&Shannonエントロピー&Fucks,W.(1952)\\Shakespeareetal.&音節数の接続関係&分散共分散の固有値,&\\&&Shannonエントロピー&Fucks,W.(1954)\\Shakespeareetal.&単語の長さの分布&平均値など&Williams,C.B.(1956)\\プラトンの第七書簡&文の長さ&平均値,中央値など&Wake,W.C(1957)\\WorkofPlato&文末の単語のタイプ&判別分析&Cox,D.R.etal.(1958)\\QuintusCurtiusSnodgrass&&&\\letter&語の長さの分布&$\chi^2$の検定,$t$検定&Brinegar,C.S.(1963)\\新約聖書の中のパウロの書簡&語の使用頻度&$\chi^2$検定&Morton,A.Q.(1965)\\源氏物語の宇治十帖&頁数,和歌数など&U検定,$\chi^2$検定&安本美典(1960)\\Federalistpaper&単語の使用頻度&線形判別分析,確率比&Mosteller,F.etal.(1963)\\由良物語&単語の使用頻度&線形判別分析,確率比&韮沢正(1965)\\ShakespeareandBacon&単語の長さの分布&分布の比較&Williams,C.B.(1975)\\Shakespeare&語彙量&ポアソン分布&Thisted,R.etal.(1976)\\源氏物語&頁数,和歌数等&因子分析&安本美典(1977)\\Shakespeare&単語の出現頻度&ポアソン分布,検定&Thisted,R.etal.(1987)\\紅楼夢&虚詞の使用頻度&主成分,&\\&&クラスターリングなど&Li,X.P.(1987,1989)\\日蓮遺文&品詞の使用率など&$t$検定,主成分,&\\&&クラスターリング&村上征勝他(1992,1994)\\\hline\end{tabular}}\end{center}\end{table}文章の著者の推定や文章の分類などを行なう際,文章に関するどのような著者の特徴を表す情報(特徴情報)を用いるかが問題解決の鍵である.今までの文章の著者の推定や文体の研究では著者の特徴を表す情報としては,単語の長さ,単語の使用頻度,文の長さなどがよく用いられている.日本文に関して,少し詳細に見ると,安本は直喩,声喩,色彩語,文の長さ,会話文,句読点,人格語などの項目を用いて100人の作家の100編の文章を体言型—用言型,修飾型—非修飾型,会話型—文章型に分類することを試み(安本1981,1994),また長編度(頁数),和歌の使用度,直喩の使用度,声喩の使用度,心理描写の数,文の長さ,色彩語の使用度,名詞の使用度,用言の使用度,助詞の使用度,助動詞の使用度,品詞数の12項目の情報を用いて源氏物語の宇治十帖の著者の推定を試みた(安本1958).韮沢は,「にて」,「へ」,「して」,「ど」,「ばかり」,「しも」,「のみ」,「ころ」,「なむ」,「じ」,「ざる」,「つ」,「む」,「あるは」,「されど」,「しかれども」,「いと」,「いかに」などの単語の使用率を用いて,「由良物語」の著者の判定(韮沢1965,1973)を行い,村上らは品詞の接続関係,接尾語などを用いて日蓮遺文の真偽について計量分析を行なっている(村上1985,1988,1994).このように,日本文に関して,文章の著者の推定を試みる研究はいくつかあるが,著者の推定などのための文章に関するどのような情報が有効となるかに関する基礎的な研究はほとんどない状況である.文章に関するどのような要素に著者の特徴が現れるかに関して,外国での研究ではいくつかあるが,それは言語によって異なると考えられるため,外国語での研究成果が日本語の場合もあてはまるのか,もしあてはまらないとすれば日本語の文章ではどのような要素に著者の特徴が現れるかというようなことが文体研究の重要な課題である.筆者は日本語の文章の著者の推定あるいは著者別に文章を分類する基礎的な研究として,文章の中のどのような要素が著者の文体の特徴になるかについて研究を進めている.コンピュータのハードウエアとソフトウエアの発展に伴い,コンピュータを利用することによって文章の中から膨大な情報が抽出できるようになった.しかし,今度はそのような膨大な情報の中からどの情報を用いるべきかという新しい問題が生じた.筆者らは文章の中に使用された読点について計量分析を行ない,読点の前の文字に関する情報で文章を著者別に分類する方法を提案し,この方法は文学作品だけではなく研究論文についても有効であることを実証した(金1993a,b,1994c,d,e).このような日本文に適応した著者の文体の特徴情報の抽出に関する研究は始まったばかりで決して十分とはいえない.ところで,コンピュータで著者の文体の特徴を抽出するためには計算機処理可能な文章のデータベースが必要であるが,そのようなデータベースが入手できなかったため,作成することにした.データベース化したのは井上靖,三島由紀夫,中島敦の短篇小説である.分析に用いた情報の安定性の考察及び用いた短い文章とのバランスをとるため,比較的長い文章はいくつかに分割して用いた.例えば,井上の「恋と死と波と」は二つに,中島の「弟子」は三つに,「李陵」は四つに分割して用いることにした.表\ref{list}に,用いた文章と発表年などを示した.\begin{table}[htb]\caption{{\dg分析に用いた文章のリスト}\label{list}}\begin{center}\small{\begin{tabular}{llccccc}\hline著者&文章名&記号&単語数&出版社&発表の年\\\hline井上靖&結婚記念日&I1&4749&角川文庫&1951\\&石庭&I2&4796&同上&1950\\&死と恋と波と(前半)&I3&4683&同上&1950\\&死と恋と波と(後半)&I4&4386&同上&同上\\&帽子&I5&3724&新潮文庫&1973\\&魔法壜&I6&3624&同上&同上\\&滝へ降りる道&I7&3727&同上&1952\\&晩夏&I8&4269&同上&同上\\三島由紀夫&遠乗会&M1&4984&新潮文庫&1951\\&卵&M2&4004&同上&1955\\&詩を書く少年&M3&4502&同上&1955\\&海と夕焼&M4&3359&同上&1955\\中島敦&山月記&L1&3226&新潮文庫&1942\\&名人伝&L2&3202&同上&1942\\&弟子(前の1/3)&L3&4078&同上&1943\\&弟子(中の1/3)&L4&4092&同上&同上\\&弟子(後の1/3)&L5&3727&同上&同上\\&李陵(前の1/4)&L6&4563&同上&1944\\&李陵(中の1/4)&L7&4561&同上&同上\\&李陵(中の1/4)&L8&4638&同上&同上\\&李陵(後の1/4)&L9&4458&同上&同上\\\hline\end{tabular}}\end{center}\end{table}この3人を選んだのは,OCR(光学読み取り装置)で文章を入力する場合に漢字の認識率が問題になるため,現代文の中で漢字の使用率がわりに高い中島の文章を用いてOCRでの入力テストを行なったのがきっかけであった.中島と同時期の作家として井上,三島を選んだ.データベースは分析に用いる文章をOCRで入力し,読み取りの誤りを訂正し,品詞コードなどを入力して作成した.表\ref{datas}に作成したデータベースの一部分を示した.単語の認定は「広辞苑」に従った.ただし,広辞苑にない複合動詞については複合された全体を1語とした.\begin{table}[htb]\caption{\dgデータベースの例}\label{datas}\begin{center}\footnotesize\renewcommand{\arraystretch}{}\begin{tabular}{l}\hline\\(2)/父(M)は(J)(27)/軍医(M)で(Z),(4)/当時(M)(5)/聯隊(M)の(J)\\(6)/ある(R)(6)/地方(M)の(J)(9)/小都市(M)を(J)(9)/転々と(F)\\(10)/し(D)て(J)(27)/おり(D),(11)/子供(M)を(J)(13)/自分(M)の(J)\\(14)/手許(M)に(J)(27)/置く(D)と(J),(16)/何回(M)も(J)\\(17)/転校させ(D)なけれ(Z)ば(J)(23)/なら(D)なかっ(Z)た(Z)ので(J),\\(19)/そう(F)(20)/し(D)た(Z)(23)/こと(M)から(J)(23)/私(M)を(J)\\(23)/郷里(M)に(J)(24)/置く(D)(25)/気(M)に(J)(26)/なっ(D)た(Z)\\(27)/もの(M)らしかっ(Z)た(Z).\\\\(3)/たとえ(F)(3)/田舎(M)の(J)(11)/小学校(M)でも(J),(7)/まだ(F)\\(6)/同じ(R)(7)/小学校(M)に(J)(14)/落着い(D)て(J)(9)/通わ(D)せ(Z)\\た(Z)(11)/方(M)が(J)(11)/教育上(M)(11)/いい(K)と(J)(13)/考え(D)\\た(Z)の(J)で(Z)(14)/ある(D).\\\\\hline\end{tabular}\end{center}\hspace*{0.8cm}{\footnotesize記号/は文節の境界線で,(数字)は(数字)の直後の文節が係る文節の番号で,(ローマ字)は品詞コードである.}\end{table} \section{単語の長さの分布に基づいた文章の分類} 文章の中の著者の特徴情報を用いて,文章の著者を推定するためには,用いた情報に基づいて文章を分類する際,文章が著者別に分類できることが望まれる.どのような単語を好んで用いるのか,どのような長さの単語を好んで用いるのかは著者の文章の一つの特徴であると考える.前者を用いる場合は,著者の好みの単語が何であるかを見つけ出すのはかなり厄介なことである.前者にくらべ後者はわりに簡単である.欧米では,著者の推定などの研究には単語の長さの情報がよく用いられている.しかし,日本文の分析においては,単語の長さに関する情報はあまり用いておらず,また,単語の長さと著者の関係に関する基礎的な研究はない.その主な原因としては,\begin{enumerate}\item日本文は「分ち書き」されていないため単語の認定が難しいこと,\item日本語の機械処理技術が遅れたこと\end{enumerate}などがあげられる(村上1989a,b).これらの問題は計算機科学の発展により次第に解決されてきている.今日では,コンピュータは日本語を自由に処理できるようになってきているし,近い将来かなり精度の良い日本文の単語分割システムも開発されると予測される(中野1991).筆者は実際に書かれた文字を単位とした単語の長さと著者との関係を明らかにするため,単語の長さの分布に著者の特徴が現れるかどうかについて計量分析を行なってきた.分析はすべての単語を用いた場合と単語を名詞,動詞,形容詞,形容動詞,助詞,助動詞,副詞に分けた場合の品詞別の単語の長さの分布について行なった.その結果,日本語の単語の長さの分布を用いて著者別に文章を分類する際,単語を品詞別に分けていない場合には,著者の特徴が出にくい単語や文章の内容に依存性が高い単語などが含まれてしまうため,分類はうまくいかないが,単語を品詞別に分けることによって分類の精度をあげることが可能であり,特に動詞の単語の長さの分布に著者の特徴が出やすいと言うことが分かった(金1994a,b).本文では,動詞の長さの分布に基づいた文章の分類及び動詞の単語の長さの分布に現れる著者の特徴と動詞の中の和語・漢語(漢語と和語が合成された動詞を指す.例えば,勉強する.叙述の便利のため漢語と呼ぶことにする.)、合成語・非合成語の比率との関係についての計量分析について述べる.まず,動詞の長さの分布を用いた文章の分類について述べておく.表\ref{wlf}に,表\ref{list}の21編の文章における実際に書かれた文字を単位とした1文字から5文字までの長さ別の動詞の使用頻度を示した.\begin{table}[htb]\caption{\dg長さ別の動詞の使用頻度}\label{wlf}\begin{center}\small{\begin{tabular}{ccrrrrr}\hline著者名&文章の記号&1&2&3&4&5\\\hline井上&I1&114&515&88&77&29\\&I2&138&518&94&60&12\\&I3&117&492&119&73&17\\&I4&119&476&95&54&17\\&I5&101&398&89&52&7\\&I6&114&438&77&45&7\\&I7&98&408&77&70&12\\&I8&110&429&87&85&17\\三島&M1&74&509&171&77&24\\&M2&111&353&120&87&21\\&M3&100&419&136&63&12\\&M4&68&379&92&58&8\\中島&N1&57&357&73&36&8\\&N2&60&340&104&43&7\\&N3&87&474&77&37&5\\&N4&73&480&86&42&11\\&N5&69&448&80&35&3\\&N6&74&503&124&51&17\\&N7&101&491&112&39&16\\&N8&90&490&116&55&13\\&N9&98&499&98&39&7\\\hline\end{tabular}}\end{center}\end{table}いま,\hspace{-0.15mm}文章$i$の長さ\hspace{-0.1mm}$j$の単語の使用頻度を$x_{ij}$と表すと,\hspace{-0.15mm}$I$編の文章における長さ\hspace{-0.1mm}$J$までの単語\\の使用頻度と使用率のマトリックスはそれぞれ\[X_{I\timesJ}=\left[x_{ij}\right]\]\[P_{I\timesJ}=\left[p_{ij}\right]\]\[p_{ij}=\frac{x_{ij}}{\sum_{v=1}^{J}x_{iv}},\hspace{0.5cm}\sum_{j=1}^{J}p_{ij}=1\]で表示できる.本文では,$P_{I\timesJ}$の一行を一つの分布とみなし,分布の間の距離を用いて分析を行なった.叙述の便利のため,分布の間の距離を文章の間の距離と呼ぶことにする.さて,文章$i$の単語の長さの分布と文章$l$の単語の長さの分布の間の距離$d_{il}$を次のように定義する.\[d_{il}=\frac{1}{2}\sum_{j=1}^{J}{(p_{ij}log\frac{2p_{ij}}{p_{ij}+p_{lj}}+p_{lj}log\frac{2p_{lj}}{p_{ij}+p_{lj}})}\]\vspace*{-0.2mm}ただし\vspace*{-0.2mm}\begin{center}$p_{ij}=0$\hspace{0.5cm}なら\hspace{0.5cm}$p_{ij}log{\frac{2p_{ij}}{p_{ij}+p_{lj}}}=0$\\$p_{lj}=0$\hspace{0.5cm}なら\hspace{0.5cm}$p_{lj}log{\frac{2p_{lj}}{p_{ij}+p_{lj}}}=0$\\\end{center}\vspace*{-0.2mm}とする.また上式で求められた分布の間の距離のマトリクスを\[D_{I\timesI}=\left[\begin{array}{cc}0&d_{ji}\\d_{ij}&0\\\end{array}\right]\]で表記する.著者別に文章を分類する観点からは,同一の著者(今後は群内と呼ぶ)の任意の二つの分布の間の距離が,異なる著者間(今後は群間と呼ぶ)の任意の二つの分布の間の距離より小さいことが望まれる.しかし,本研究ではこのような望ましい結果は得られなかった.分類を行なう際,文章が著者別に分類されたとしても,グループの間の距離が十分大きくない場合は,同一の著者の文章の間の距離が,異なる著者の文章の間の距離より大きい可能性も十分あり得る.そこで,群内の距離の平均値と群間の距離の平均値を用いて分析を進めることにする.群内の距離の平均値が群間の距離の平均値より小さいと,用いた分布には著者の特徴があり,群内の距離が群間の距離より小さければ小さいほど著者の特徴が明確である(分類がよい)と考えられる.著者\hspace{-0.1mm}$k$の\hspace{-0.1mm}$k_{n}$編の文章における任意の二つの分布の間の距離の平均(今後は群内の距離と呼ぶ)\\を\[\overline{d(k)}=\frac{2\sum_{k_{i}=k_1}^{k_{n}-1}\sum_{k_{j}=k_{i}+1}^{k_{n}}d_{k_{i}k_{j}}}{(k_{n}-1)k_{n}}\times100\]著者\hspace{-0.1mm}$k$と著者\hspace{-0.1mm}$h$の,それぞれの$k_{n},h_{m}$編の文章における任意の二つの分布の間の距離の平均(今\\後は群間の距離と呼ぶ)を\[\overline{d(k,h)}=\frac{\sum_{k_{i}=k_1}^{k_{n}}\sum_{h_{j}=h_1}^{h_{m}}d_{k_{i}h_{j}}}{k_{n}h_{m}}\times100\]で求めた.表\ref{dld}に3人の21編の文章について,動詞の長さの分布を用いた場合の群内,群間の距離を示した.\begin{table}[htbp]\caption{\dg動詞における距離}\label{dld}\begin{center}\small{\begin{tabular}{cccccc}\hline&群内&群&&間&最小の群間\\著者名&&井上&三島&中島&\\\hline井上&0.2317&&0.7101&0.5612&0.5612\\三島&0.5342&0.7101&&0.8513&0.7101\\中島&0.2630&0.5612&0.8513&&0.5612\\\hline\end{tabular}}\end{center}\end{table}3人の群内の距離はいずれの群間の距離より小さいため,動詞の長さの分布には著者の特徴があると判断する.井上,中島の群内の距離が三島の群内の距離に比べてかなり小さいが,これは長い文章をいくつかに分割して用いた影響ではないかと考えられる.このことを明かにするため,長い文章を分割しなかった場合の各著者の群内の距離の平均値を求めてみた.井上,中島の群内の距離の平均値はそれぞれ0.2394,0.2389で,長い文章を分割して用いた場合と比べて大きな差が見られない.したがって,井上,中島の群内の距離が三島の群内の距離よりかなり小さいのは長い文章を分割して用いた影響ではないと判断する.三島の群内の距離が大きい原因としては\begin{enumerate}\item三島の文章における動詞の使用法の分散が大きい.\item分析に用いた単語の長さの分布が十分安定していない.\end{enumerate}などが考えられる.長い文章をいくつかに分割した場合,必ずしも同一の小説の文章の間の距離が,同一の著者の異なる小説の間の距離より小さいという結果は得られなかった.この結果については,以下のような原因が考えられる.\begin{enumerate}\item動詞の単語の長さの分布は文章の内容に関して,依存性が低い.\item文章における動詞の単語の長さの分布が十分安定していない.\end{enumerate}残念ながらこの原因については用いたデータベースでは実証することが困難であるため,今後の研究課題にせざる得ない.動詞の単語の長さの分布を用いた場合の分類の結果を視覚化してみる.分類を視覚化するクラスタ分析の方法は,いくつかの方法があるが,ここでは主成分分析を用いた.分類を行なう際の主成分分析としては,二つの方法が考えられる.一つは,分類に用いるデータ\[X_{I\timesJ}=\left[x_{ij}\right]\]\[P_{I\timesJ}=\left[\begin{array}{c}p_{ij}\end{array}\right]\]\[p_{ij}=\frac{x_{ij}}{\sum_{j=1}^J{x_{ij}}},\hspace{0.5cm}\sum_{j=1}^J{p_{ij}}=1\]を用いて主成分分析を行なう方法で,もう一つは,上記のデータから個体間の距離(あるいは類似度)を求め,距離(あるいは類似度)のデータを用いて主成分分析を行なう方法である.本研究では後者を用いた.主成分分析は,求められた距離のマトリックス\[D_{I\timesI}=\left[\begin{array}{cc}0&d_{ji}\\d_{ij}&0\\\end{array}\right]\]を以下のように標準化し,\[\widehat{d}_{ij}=\frac{d_{ij}}{\sum_{v=1}^Id_{iv}},\]\vspace*{-0.2mm}\[\widehat{D}_{I\timesI}=\left[\widehat{d}_{ij}\right],\]$\widehat{D}_{I\timesI}$の分散共分散の行列を用いて行なった.動詞の単語の長さの分布を用いて求められた$\widehat{D}_{I\timesI}$の分散共分散行列の主成分分析では,第1\\主成分,第2主成分,第3主成分の寄与率はそれぞれ57.04\%,34.04\%,3.94\%で,第2主成分までの累積寄与率は91.08\%であった.図\ref{dlcp}に第2主成分までの主成分得点のプロットをに示した.横軸は第1主成分で,縦軸は第2主成分である.主成分分析の結果から動詞の単語の長さの分布を用いた場合,著者別に文章が分類できるといえよう.見やすくするため,文章を著者別に滑らかの曲線(境界線)で囲んだ.もちろん,このような境界線はどの文章がどの著者のものであるかの情報を用いて引いている.このような方法を用いて著者不明の文章の著者の判別などを行なう場合は,まずトレーニングーデータを用いて境界線を引き,著者不明の文章がどのグループに属するかの判別(判定)を行なうべきである.{\unitlength=1mm\begin{figure}\begin{center}\epsfile{file=fig1.eps,width=118mm}\end{center}\caption{動詞の長さの分布に基づいた$\widehat{D}_{21\times21}$の主成分得点のプロット}\label{dlcp}\end{figure}} \section{動詞における和語・漢語,合成語・非合成語の比率} 前節では,動詞の単語の長さの分布を用いた場合の文章の分類について述べた.動詞の長さの分布に著者の特徴が現れる現象の原因の一つとしては和語・漢語,合成語・非合成語の比率が考えられる.もし,動詞の長さに著者の特徴が現れるという結果が,和語・漢語,合成語・非合成語の比率の影響によるものであるとすると,和語・漢語,合成語・非合成語の比率に差がない著者に対しては動詞の長さの分布は著者の特徴情報になれない.したがって,動詞の単語の長さの分布に著者の特徴が現れるという現象と和語・漢語,合成語・非合成語の比率との関係について明かにする必要がある.\subsection{和語・漢語の比率}本節では動詞は,和語と漢語(和語と漢語より合成された動詞)より構成されたと見なし,動詞の単語の長さの分布に現れる著者の特徴と和語・漢語の比率との関係について計量分析を行なう.和語の比率は漢語の比率より高いため,和語の比率について分析を行なうことにする.表\ref{wagop}に3人の作家の21編の文章における動詞の中の和語の比率(動詞の中の和語の数/動詞の総単語数)を示した.長さ1,4,5の動詞では,和語の比率はほぼ同じで,1である.長さ2,3の動詞には漢語が多少含まれている.和語の比率に著者の特徴が現れるかどうかを調べてみる.好都合なことに動詞の中の和語の比率に著者の特徴がありそうなのは長さ2,3の動詞だけであるため,動詞の長さ2,3における和語の比率を図\ref{wagopf}にプロットした.横軸は長さ2の和語の比率で,縦軸は長さ3の和語の比率である.図\ref{wagopf}でわかるように中島は単独に一つのクループを作っているが,井上と三島は著者別にクループを作っていない.つまり,動詞の中の和語の比率には著者の特著が現れているが,文章を著者別に分類できるほどではない.\begin{table}[htb]\caption{{\dg動詞の中の和語の比率}\label{wagop}}\begin{center}\small{\begin{tabular}{cccccc}\hline&1&2&3&4&5\\\hlineI1&1&0.9825&0.9667&1.0000&0.9600\\I2&1&0.9750&1.0000&1.0000&1.0000\\I3&1&0.9939&0.9919&1.0000&1.0000\\I4&1&0.9937&0.9677&1.0000&1.0000\\I5&1&0.9824&0.9778&1.0000&1.0000\\I6&1&0.9932&0.9740&1.0000&1.0000\\I7&1&0.9902&0.9750&0.9851&1.0000\\I8&1&0.9860&0.9886&1.0000&1.0000\\M1&1&0.9666&0.9765&1.0000&1.0000\\M2&1&0.9914&0.9748&1.0000&1.0000\\M3&1&0.9691&0.9209&1.0000&1.0000\\M4&1&0.9841&0.9892&1.0000&1.0000\\N1&1&0.9469&0.8472&1.0000&1.0000\\N2&1&0.9676&0.9429&1.0000&1.0000\\N3&1&0.9346&0.8816&0.9730&1.0000\\N4&1&0.9439&0.8721&1.0000&1.0000\\N5&1&0.9509&0.9620&1.0000&1.0000\\N6&1&0.9382&0.9302&1.0000&1.0000\\N7&1&0.9532&0.8654&1.0000&1.0000\\N8&1&0.9470&0.9130&1.0000&1.0000\\N9&1&0.9579&0.9200&1.0000&1.0000\\\hline\end{tabular}}\end{center}\end{table}{\unitlength=1mm\begin{figure}\begin{center}\epsfile{file=fig2.eps,width=120mm}\end{center}\caption{長さ2,3の動詞の中の和語の比率のプロット}\label{wagopf}\end{figure}\begin{figure}\begin{center}\epsfile{file=fig3.eps,width=120mm}\end{center}\caption{和語の動詞の長さの分布に基づいた$\widehat{D}_{21\times21}$の主成分得点のプロット}\label{wagopf2}\vspace*{14cm}\end{figure}}漢語を含んだ場合の長さの分布と漢語を除いた場合の長さの分布との関係を調べるため,漢語を含んだ場合($AV$で表記する)と漢語を除いた場合($JV$で表記する)との動詞の使用頻度について相関係数を求めてみた.相関係数が最も小さいのは0.9843で,$COR(AV,JV)$の対角要素の平均は0.9940である.$COR(AV,JV)$から漢語を含んだ場合と漢語を除いた場合の動詞の長さの分布は強い相関を持っていることが分かる.\[COR(AV,JV)=\left[\begin{array}{ccccc}1&&&&\Large{r_{ij}}\\&0.9864&&&\\&&0.9843&&\\&&&0.9998&\\\Large{r_{ji}}&&&&0.9995\\\end{array}\right]\]漢語を含んだ動詞の長さの分布を用いた場合の分類と漢語を除いた動詞の長さの分布を用いた場合の分類の結果を比較してみる.第2章と同様な方法で,漢語を除いた動詞の長さの分布の間の距離を用いて求めた$\widehat{D}_{21\times21}$に\\ついて主成分分析を行なった.第1,2主成分得点の寄与率はそれぞれ59.24\%,30.96\%で,第2主成分までの累積寄与率は90.20\%である.図\ref{wagopf2}に第2主成分までの主成分得点のプロットを示した.主成分得点のプロットから漢語を含んだ動詞の長さの分布を用いた場合と漢語を除いた動詞の長さの分布を用いた場合とには大きな差がないことがわかる(図\ref{dlcp}を参照).以上の分析結果から,動詞の長さの分布に現れる著者の特徴は漢語・和語の使用率の影響ではないことが分かった.\subsection{合成語・非合成語の比率}本節では動詞は合成語と非合成語により構成されていると見なし,合成語・非合成語の比率が動詞の長さの分布に現れる著者の特徴に与える影響について分析を行なう.非合成語の比率は合成語の比率より高いため,表\ref{goseigop}に,動詞の中の非合成語の比率(動詞の中の非合成語の数/動詞の単語総数)を示した.表\ref{goseigop}から分かるように,長さ1,2の動詞には合成語がない.また長さ5における非合成語の比率は安定していないことが目立つ.これは各文章における長さ5の動詞が少なかったためであると考える(情報が不安定する).表\ref{goseigop}のデータを見る限り,著者の特徴が現れそうなのは長さ3と長さ4の非合成語の比率である.非合成語の比率に著者の特徴が現れるかどうかを知るため,長さ3と長さ4の非合成語の比率を図\ref{goseigopf}にプロットした.横軸は長さ3の非合成語の比率で,縦軸は長さ4の非合成語の比率である.図\ref{goseigopf}では21作品が著者別にグループを作っていないことから,非合成語の比率には著者の特徴が見られないと判断する.\begin{table}[htb]\caption{{\dg動詞の中の非合成語の比率}\label{goseigop}}\begin{center}\small{\begin{tabular}{cccccc}\hline&1&2&3&4&5\\\hlineI1&1&1.000&0.7889&0.8571&0.9200\\I2&1&1.000&0.6264&0.8167&0.5455\\I3&1&1.000&0.8211&0.7286&0.8333\\I4&1&1.000&0.8602&0.8909&0.8667\\I5&1&1.000&0.6444&0.8235&0.6000\\I6&1&1.000&0.7922&0.9111&1.0000\\I7&1&1.000&0.8875&0.7761&0.8333\\I8&1&1.000&0.7273&0.8765&1.0000\\M1&1&1.000&0.7765&0.8571&0.9524\\M2&1&1.000&0.7227&0.9080&1.0000\\M3&1&1.000&0.8201&0.7759&0.9167\\M4&1&1.000&0.8387&0.9655&1.0000\\N1&1&1.000&0.8056&0.8333&1.0000\\N2&1&1.000&0.9143&0.8810&1.0000\\N3&1&1.000&0.8684&0.6757&0.6000\\N4&1&1.000&0.7442&0.6667&0.8182\\N5&1&1.000&0.6709&0.8000&1.0000\\N6&1&0.998&0.7287&0.7708&0.6429\\N7&1&1.000&0.7404&0.7568&0.1875\\N8&1&1.000&0.8348&0.7255&0.9231\\N9&1&1.000&0.7400&0.7368&0.8333\\\hline\end{tabular}}\end{center}\end{table}合成語を含んだ動詞の単語の長さの分布($AV$で表記する)と,合成語を除いた動詞の単語の長さの分布($\overline{CV}$で表記する)との相関係数を求めてみた.相関係数の中で最も小さいのは長さが5の場合で,0.8794である.相関係数の対角要素の平均は0.9568で,高い相関を持っていると言えよう.\[COR(AV,\overline{CV})=\left[\begin{array}{ccccc}1&&&&\Large{r_{ij}}\\&0.9999&&&\\&&0.9346&&\\&&&0.9699&\\\Large{r_{ji}}&&&&0.8794\\\end{array}\right]\]合成語を含んだ場合と合成語を除いた場合との動詞の単語の長さの分布を用いた分類の結果を比較してみた.第2章で用いた方法と同じく,非合成語における動詞の長さの分布の間の距離を用いて求めた$\widehat{D}_{21\times21}$について主成分分析を行なった.第1,2主成分得点の寄与率はそれぞれ61.77\%,30.74\%で,第2主成分までの累積寄与率は92.51\%である.図\ref{goseigopf2}に主成分得点のプロットを示した.主成分得点のプロットから合成語を含んだ場合と合成語を除いた場合では大きな差がないことがわかる(図{\ref{dlcp}}を参照).長さ5における合成語を含んだ場合と合成語を除いた場合の相関係数が0.8794であるにも関わらず分類のプロットにはあまり差が見られなかったのは,長さ5の動詞の使用頻度は少なく,分類に対する寄与も小さいためであると考える(金1994a).以上の分析結果から,動詞の長さの分布に現れる著者の特徴は合成語・非合成語の比率の影響ではないことがわかった.{\unitlength=1mm\begin{figure}\begin{center}\epsfile{file=fig4.eps,width=118mm}\end{center}\caption{長さ3,4の動詞の中の非合成語の比率のプロット}\label{goseigopf}\end{figure}\begin{figure}\begin{center}\epsfile{file=fig5.eps,width=122mm}\end{center}\caption{非合成語の動詞の長さの分布に基づいた$\widehat{D}_{21\times21}$の主成分得点のプロット}\label{goseigopf2}\end{figure}} \section{むすび} 本研究では,3人の作家の21編の文章における動詞の長さの分布に基づいた文章の分類及び動詞の単語の長さの分布に現れる著者の文体の特徴と和語・漢語,合成語・非合成語の比率との関係について計量分析を行なった.その結果,動詞の長さの分布は,和語・漢語,合成語・非合成語の比率に著者毎の差が見られない場合でも,著者の文体の特徴になる可能性があることを明かにした.動詞の長さの分布を用いて分類を行なう場合の有効性の考察を行なうため,従来よく用いられている文の長さの分布,品詞の使用率,漢字・仮名の使用率,筆者が提案した読点の前の文字の分布を用いた場合と比較も行なった.その結果,最も分類がよいのは読点の前の文字の分布を用いた場合であり,その次が動詞の長さの分布で,従来よく用いられている文の長さの分布,品詞の使用率,漢字・仮名の使用率より著者の特徴が明確に現れることが分かった(金1994a,b,c,d,e).動詞の単語の長さの分布だけを用いて文章を分類する場合,分類の結果が十分に満足できるとはいえない.しかし,著者不明の文章の著者の推定(判別)などを行なう場合は,無相関である複数の文体の特徴情報を組み合わせて用いて分析を行なわなければならないため,このような文体の特徴情報に関する研究は重要であると考える.単語の長さを計る単位を実際に書かれた文字を単位とした場合,単語の長さは表記文字の種類の影響を受けることも考えられる.しかし,本計研究に用いた動詞には平仮名やローマ字によるものはない.表記文字の種類が単語の長さに与える影響について考察を行なうため,漢字・仮名の使用率を調べてみた.その結果,漢字・仮名の使用率には著者の特徴が明確に現れなかった(金1994a).単語の長さを計る単位として音節,ローマ字を用いることも考えられるが,今後の課題にする.単語の長さの分布に関する情報を抽出するためには,品詞情報が付加されているデータベースが必要である.このようなデータベースが入手できなっかたことと,大量の作品のデータベースを作成する経費がないため本研究では3人の21編文章だけを用いた分析に留まった.今後より多くの作家の作品や異なるジャンルについて実証的な研究が必要であろう.また,文章の量と動詞の長さの分布の安定性との関係に関しても興味深い課題である.\acknowledgment本研究に用いたデータベースは文部省統計数理研究所及び総合研究大学院大学の村上征勝教授の研究費で作成しました,本研究をご支援及び御指導下さった村上征勝教授,言語学及び文体学の観点からご指導及びご助言下さった神戸学院大学の樺島忠夫教授,論文の仕上げにご協力くださっ統計数理研究所の吉野諒三助教授,有益なコメントを下さった査読者に深く感謝します.本論文の最終の修正は学術振興会の特別研究員(TheJSPSPostdoctoralFellowship)として国立国語研究所にいる期間中に行ないました.特別研究員として採用して下さった学術振興会,ご支援下さった国語研究所の江川清,中野洋両部長,米田正人室長に心より感謝します.\bibliographystyle{jtheapa}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{金明哲}{1978年中国吉林師範大学(現東北師範大学)数学系卒業.同年中国長春郵電学院(大学)に就職.1988年4月来日,宇都宮大学工学研究科,神戸大学工学部の外国人研究員を経て,1991年10月に総合研究大学院大学数物科学統計科学専攻の博士後期課程に入学,1994年9月博士後期課程終了.博士(学術).現在学術振興会の特別研究員(TheJSPSPostdoctoralFellowship)として国立国語研究所で研究.統計分析,パターン認識・分類,自然言語に関する研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V06N06-01
\section{はじめに} 電子化されたテキストが世の中に満ち溢れ,情報洪水という言葉が使われるようになってからかなりの歳月を経ている.しかし,残念ながら,我々の情報処理能力は,たとえ処理しなければならない情報が増えたとしても,それほど向上はしない.そのため,自動要約技術などにより,読み手が読むテキストの量を制御できることが求められている.また,近年情報検索システムを利用する機会も増えているが,システムの精度の現状を考慮すると,ユーザは,システムの提示した候補が適切なものであるかどうかをテキストを見て判断せざるを得ない.このような場合,要約をユーザに提示し,それを見て判断を求めるようにすると,ユーザの負荷を減らす支援が行なえる.自然言語処理の分野では,近年頑健な解析手法の開発が進み,これと,上に述べたような,自動要約技術の必要性の増大が重なり,自動要約に関連した研究は,90年代の中頃になって,再び脚光を集め始めている.市販ソフトウェアも続々と発売されており,アメリカではDARPA支援のTipsterプロジェクトで要約が新しい研究課題とされたり\cite{hand:97:a},また,ACL,AAAIなどで要約に関するワークショップ,シンポジウムが相次いで開催され,盛況で活発な議論が交わされた.日本でも,98年3月の言語処理学会年次大会に併設して,要約に関するワークショップが開催され,それを機会に本特集号の編集が企画された.本稿では,このような現状を鑑み,これまでの(主に領域に依存しない)テキスト自動要約手法を概観する.また,これまでの手法の問題点を上げるとともに,最近自動要約に関する研究で注目を集めつつある,いくつかのトピックについてもふれる.本特集号の各論文が,テキスト自動要約研究として,どのような位置付けにあるかを知る上で,本稿が参考になれば幸いである\footnote{各論文の個別の紹介は,増山氏の編集後記を参照して頂きたい.}.要約研究は時に,情報抽出(InformationExtraction)研究と対で(あるいは,対比して)述べられることがある.どちらも,テキスト中の重要な情報を抜き出すという点では共通するが,情報抽出は,あらかじめ決められた「枠」を埋める形で必要な情報を抜き出す.そのため,領域に依存してあらかじめ枠を用意する必要があったり,また,領域に依存したテキストの特徴を利用した抽出手法を用いたりするため,領域を限定することが不可欠となる\footnote{情報抽出研究に関する解説としては,\cite{cowie:96:a,sekine:99:a}を参照されたい.また,DARPAが支援する情報抽出のプロジェクトであるMUC(MessageUnderstandingConference)に関しては,若尾の解説\cite{wakao:96:a}を参照して頂きたい.}.要約は,原文の大意を保持したまま,テキストの長さ,複雑さを減らす処理とも言えるが,その過程は,大きく次の3つのステップに分けられるとされる:テキストの解釈(文の解析とテキストの解析結果の生成),テキスト解析結果の,要約の内部表現への変形(解析結果中の重要部分の抽出),要約の内部表現の要約文としての生成.しかし,これまでの研究では,これらのステップは,テキスト中の重要箇所(段落,文,節,など)の抽出およびその連結による生成として実現されることが多かった.そのため,本稿では以後重要箇所の抽出を中心に解説する.2節では,まず重要箇所抽出に基づく要約手法について述べる.2.1節で重要箇所抽出に用いられてきた,さまざまな情報を取り上げ,それぞれを用いた要約手法について述べる.2.2節では,それらの情報を統合して用いることで,重要箇所を抽出する研究について概観する.2.3節では,重要箇所抽出に基づく要約手法の問題点について述べる.このようなテキスト要約手法が伝統的に研究されてきた一方で,近年要約を研究するに当たって考慮するべき要因として,以下の3つが提示されている\cite{sparck:98:a}.\begin{enumerate}\item入力の性質--テキストの長さ,ジャンル,分野,単一/複数テキストのどちらであるか,など\item要約の目的--どういう人が(ユーザはどういう人か),どういう風に(要約の利用目的は何か)\footnote{要約は一般に,その利用目的に応じて,次の2つのタイプに分けられることが多い\cite{hand:97:a}.\begin{description}\item[indicative:]原文の適切性を判断するなど,原文を参照する前の段階で用いる\item[informative:]原文の代わりとして用いる\end{description}},など\item出力の仕方\end{enumerate}たとえば,入力テキストのジャンルによっては,重要箇所抽出による要約が難しいものも考えられるし,また,要約というもの自体が考えにくいものもあり得る.ユーザの持つ予備知識の程度に応じて,要約に含める情報量は変えるべきであると考えられるし,また,利用目的が異なれば,その目的に応じた適切な要約が必要と考えられる.これまでの伝統的な要約研究は,このような要因に関して十分な考慮をしたものとは必ずしも言えない.しかし,これらの要因を考慮して,入力の性質,要約の目的に応じた適切な要約手法を開発する動きが活発になってきている.このような,自動要約に関する研究で最近注目を集めつつある,いくつかのトピックについても本稿ではふれる.3,4,5節ではそれぞれ,抽象化,言い換えによる要約,ユーザに適応した要約,複数テキストを対象にした要約に言及する.6,7節ではそれぞれ,文中の重要箇所抽出による要約,要約の表示方法について述べる.8節では,要約の評価方法について説明する. \section{重要文抽出による要約手法} \subsection{重要文抽出に用いられるテキスト中の特徴について}1950年代まで歴史を遡ることができるとされるテキスト自動要約研究のこれまでの多くのものは,テキスト中の文(あるいは,形式段落)を1つの単位とし,それらに何らかの情報を基に重要度を付与し,その重要度で順序付け,重要な文(形式段落)を選択し,それらを寄せ集めることで,要約を作成する.本節では,この重要度評価の際に用いられている,テキスト中の(主に表層的な)情報について述べる.Paice\cite{paice:90:a}はこの情報を7つに分類しているが,ここではそれも参考にした上で,以下の7つの情報を取り上げ,各小節で説明する.\begin{enumerate}\itemテキスト中のキーワードの出現頻度を利用する,\itemテキスト中あるいは段落中での位置情報を利用する,\itemテキストのタイトル等の情報を利用する,\itemテキスト中の文間の関係を解析したテキスト構造を利用する,\itemテキスト中の手がかり表現を利用する,\itemテキスト中の文あるいは単語間のつながりの情報を利用する,\itemテキスト中の文間の類似性の情報を利用する\end{enumerate}\subsubsection{(1)テキスト中の単語の出現頻度の利用}テキスト中によく出現する内容語はテキストの主題を示す傾向があるとの仮定が情報検索分野などではしばしば用いられる.この仮定に基づき,テキスト中で出現頻度の高い名詞をキーワードと考えたり(tf法),また,これに合わせて,出現するテキスト数も考慮することで,そのテキスト固有の出現の度合を計算したり(tf*idf法)など,情報検索分野では,さまざまな単語の重み付け技法が用いられている\cite{salton:89:a}.テキスト中の出現頻度に基づき単語に重要度を与えるという,このような考え方を利用し,単語の重要度を基に,文に重要度を付与するという重要文抽出手法が,自動要約研究の開始当初である1950年代から提案されている\cite{luhn:58:a,edmundson:69:a,zechner:96:a,wakao:97:a}.単語の重要度から文の重要度を計算する手法はさまざま提案されているが,その一例としては,文中に出現する単語の重要度の総和を文の重要度とするものがある.Zechner\cite{zechner:96:a}は,単語をtf*idf法で重み付けし,文中に出現する単語の重みの総和を文の重要度とする重要文抽出手法の評価を行なっている.人間の被験者の要約と比較し,再現率/適合率を計算した結果,人間の被験者同士の比較による精度と大差ない結果を得ている.また,新聞記事を対象としているので,先頭数文を抽出する手法との比較を行なっており,tf*idf法を用いた手法の方が良い結果を得ているとしている.また,単語ではなく,テキスト中で隣接する単語の対の頻度を基に,文に重要度を付与する手法を鈴木らは提案している\cite{suzuki:88:a}.Aoneら\cite{aone:97:a}は,複合語を自動的に抽出し,それらの頻度も考慮する手法を提案している.\subsubsection{(2)テキスト中での位置情報の利用}テキストは,ジャンルに依存して,ある程度構造に規則性が有ると通常考えられている.たとえば,学術論文は,序論,本論,結論のような構造を持つし,新聞は,見出し,小見出しの後に,本文が来ることが多い.このような,ジャンルにより決まったテキストの構造を重要箇所抽出に利用する研究を本節と次節では紹介する.テキストの構造から,テキスト中での重要な箇所の位置はある程度予測可能であると仮定して,テキスト中での文の位置情報をその文の重要度計算に利用する手法がいくつか考えられている.論説文の場合に,テキスト全体のまとめは書き出しや結び近くにあると仮定するものや,重要な文はテキストの先頭,最後,段落の先頭,最後,節の見出しの直後にあると考える\cite{edmundson:69:a}ものなどはその一例と言える.また,新聞記事を対象とした重要文抽出では,本文の先頭数文を抽出するのが良いとされる(この手法はlead手法と呼ばれることが多い)\cite{brandow:95:a}のも,新聞記事の構造(本文中では大意をまず先頭に示す)に基づいた,位置情報を利用した手法と言うことができる.Brandowら\cite{brandow:95:a}は,新聞,雑誌の記事を対象に,60,150,250語の長さの要約文において,lead手法と,「単語の出現頻度」,「見出しの情報」などを利用した,彼らのシステムANESの出力を,受容可能性(acceptability)で比較した結果,92\%対74\%の差でlead手法の方が良かったと報告している.受容可能性は,経験あるニュース分析者が,原文と照らし合わせて,要約の内容と読み易さに関して判断する指標である.Wasson\cite{wasson:98:a}は,Brandowらの実験を追試し,lead手法が有効である(あるいは,有効でない)テキストはどのような種類かということを明確にするため,より詳細な評価を行なっている.Brandowらと同様,ニュース分析者が受容可能/不可能の判定を要約に対して行なう評価法を用い,テキストの種類(ジャンル),分野,長さなどの違いにより,lead手法の評価がどのように変化するかを調査している.Lead手法は,テキストのジャンルに関して,評価にばらつきが見られ,ニュースで高い受容可能性を示したが,その細分類の中では,Reviewで低い受容可能性を示した.新聞記事に限定した場合の受容可能性は95.5\%であった.\subsubsection{(3)テキストのタイトル等の情報の利用}ジャンルにより決まったテキストの構造から得られる,もう一つの情報として,本文以外に,テキスト中に付与されたタイトル,見出しの情報がある.たとえば,学術論文の場合は,テキスト自体がタイトルを持つ場合もあり,また,各章,節にもタイトルが付与されることが多い.また,新聞には,見出し(headings),小見出しが本文とは別に付与されることもある.このタイトル,見出しは,ある意味で,テキスト本文の非常に簡潔な要約とも考えられる.そのため,タイトル,見出しに現れる内容語を含む文が重要であると考え,タイトル,見出し中の単語を重要文抽出に利用する手法がいくつか提案されている.\cite{edmundson:69:a}を始めとして,最近では,見出しに含まれる名詞を多く含む文を重要として抽出する\cite{kameda:96:a,nakao:97:a,ochitani:97:a}などもその一例と考えられる\footnote{\cite{nakao:97:a}は,見出し中の同じ名詞に関連する文を複数抽出しても冗長であるという考えに基づき,単純に文の重要度の順に文を選択せず,独自の選択手法を提案している.}.\subsubsection{(4)文間の関係を解析したテキスト構造の利用}自然言語処理の分野では,テキスト中の接続詞等の手がかり語情報などを基に,文間の構造を解析し,テキスト構造を得る研究がいくつか見られる(たとえば,\cite{fukumoto:91:a,sumita:92:a,kurohashi:94:a}).このようにして得られたテキスト構造を利用して重要文を抽出する研究が近年見られるようになってきている\cite{miike:94:a,marcu:97:a}.Marcu\cite{marcu:97:a}は,修辞構造解析の結果得られる核(nucleus)がテキスト中の重要箇所検出に有効であるかどうかを実証するため,核と重要箇所の間に相関関係があるかどうかを示す実験を行なっている.5テキストを13人の被験者に提示し,3段階評価で重要文の抽出を行なうと同時に,2人の計算言語学者がテキストを修辞構造解析し,構造木を生成した.そして,その構造木を基にそれぞれの文に重要度を付与した.結果として,被験者の作成した要約との比較で,計算言語学者の修辞構造を用いた要約は,再現率67.5\%,適合率78.5\%を得ている.Marcuはまた,450種類のdiscoursemarkerを用いた修辞構造解析器を作成し,それを用いた要約作成実験も試みている.結果として,被験者の作成した要約との比較で,修辞構造解析器を用いた要約が再現率66\%,適合率68\%を得ている.日本語に対しては,Miikeらの研究\cite{miike:94:a}がある.接続詞,照応表現などの手がかりを用いた規則集合により,文間の関係を解析し,テキスト構造を抽出するシステムを作成し,得られたテキスト構造に基づき,文に重要度を付与し,要約を作成している.人間の作成したテキスト構造と解析により得られたテキスト構造の比較,抽出した重要文と被験者の抽出した重要文の比較,抽出した重要文を用いて,検索テキストの適切性判断を被験者に求めた際の,所要時間,判断の精度(再現率/適合率)により,テキスト構造解析器およびそれを用いた要約手法の評価を行なっている.解析により得られたテキスト構造を利用して重要文を抽出する手法の利点としては,\begin{itemize}\item長さに応じた要約を,得られた構造木のそれぞれのレベルで作成できる,\itemテキスト構造に基づいて重要文を抽出しているので,単語の頻度などを用いた手法に比べ,首尾一貫性の高い要約が作成できる可能性がある\end{itemize}点があげられる.\subsubsection{(5)手がかり表現の利用}(1)で述べたような,テキスト,文の主題を表す内容語ではないが,テキスト中の重要箇所を指示すると考えられる手がかり表現がいくつか存在する.たとえば,学術論文などでは,`thisreport',`inconclusion',`ourwork'などの表現は,論文の主題を表す文中に出現すると考えられる.このような手がかり表現を利用して,テキスト中の重要文を抽出する研究も存在する\cite{edmundson:69:a}.これとは逆に,重要文と負の相関関係にあると考えられる手がかり語を考慮することもできる.「たとえば」などの例示を示す接続語で始まる文は重要度が低いと考えられるのはその一例である.\subsubsection{(6)文間,単語間のつながりの利用}本節と次節では,テキスト中の文間のつながりの情報を重要文抽出に利用する手法について説明する.Skorokhod'ko\cite{skorokhodko:72:a}は,文をノード,文間の関係をリンクとするグラフでテキストを表現し,多くの文と関係のある文が重要であるという考えに基づき,重要文を抽出する手法を示している.文中の単語が同一概念を参照しているような文間にリンクがあるとしている.HallidayとHasan\cite{halliday:76:a}は,表層的な文間のつながりを表す指標として,5種類の結束性(cohesion),すなわち,指示(reference),代入(substitution;たとえば,`anewone'における`one',`doso'における`do'などを用いた照応),省略(ellipsis),接続(conjunction),語彙的結束性(lexicalcohesion)をあげている.語彙的結束性は,関連性のある語彙が用いられることで,複数の文間の意味的なつながりが明示される場合であり,Skorokhod'koが文間にリンクを与えたのはこの場合に相当すると考えられる.Hoey\cite{hoey:91:a}は,この語彙的結束性の情報を利用し,文間で単語によるつながりが多いほど,文間のつながりが強いと考え,他の文とのつながりの強さに基づき,要約を作成する手法を示している.また,語彙的結束性の情報を,互いに関連のある単語のつながりである語彙的連鎖(lexicalchain)\cite{morris:91:a}として計算し,それを要約の知識源として用いる研究としては,佐々木ら\cite{sasaki:93:a}\footnote{佐々木らは,語彙的連鎖ではなく,結束チャートと呼んでいる.},BarzilayとElhadad\cite{barzilay:97:a},望月ら\cite{mochizuki:98:a}がある.奥西ら\cite{okunishi:98:a}は,テキストのタイトルを最も重要な文と考えた上で,重要な文とのつながりが強い文を重要と考える重要文抽出手法を提案している.文の重要度は,先行文とのつながりの強さと,先行文の重要度の積で計算されるが,文間のつながりの強さは,同一単語の出現により得られる語彙的なつながりの情報などを基に計算される.Maniら\cite{mani:97:a}は,テキスト中の単語などがノードであり,その間の,隣接性,構文的関係,共参照関係,語彙的類似性などの関係をアークで表現したグラフでテキストを表現し,このグラフ中での活性値の伝播により,高い活性値を得た単語,句,文を重要とみなす重要文抽出手法を示している.検索結果のテキストの適切性判定に要約を用いる評価方法で,活性値が上位5文の要約(提案する手法による)と原文を比較した結果,精度を落すことなく,短い時間で適切性判定ができることを示している.Maniら\cite{mani:98:a}は,上で述べた,単語間のつながり(結束性)に基づく要約手法と,節,文間の関係を解析したテキスト構造に基づいた要約手法を比較している.テキスト構造を利用した手法としては,(4)で紹介したMarcuの研究を利用している.人間の選択した重要文との一致度で評価した結果,テキスト構造を利用した手法の方がわずかではあるが良い結果を得られることを示している.\subsubsection{(7)テキスト中の文間の類似性の利用}情報検索の分野では,テキスト(や,その断片)を,その中に出現する単語の重みのベクトルとして表現することが多い.このような表現を用いると,テキスト間の類似度は,テキストを表現するベクトル間の内積等で計算することができる\footnote{ここで利用される単語の重み付け手法及び,ベクトル間の類似度計算手法の数々については\cite{salton:89:a}を参照して欲しい.}.これと同様に,テキスト中の文(段落)を一単位として,それらの間の類似度を計算し,この類似度を文(段落)間のつながりの度合と考え,この情報を基に,重要と考えられる文(段落)を抽出する手法がいくつか提案されている.これらの手法は,文(段落)間で共通の単語が出現する度合に基づき計算される文(段落)間のつながりにより,重要文(段落)抽出を行なっていると考えられる.Saltonら\cite{salton:96:a}は,段落をノードとし,(ある閾値以上)類似度の高い段落同士をリンクで結んだtextrelationshipmapsをまず生成し,そこから重要段落を抽出する.Mitraら\cite{mitra:97:a}は,この手法を,人間の抽出した重要段落との比較により評価している.百科辞典の見出し語に対する項目を対象に,2人の人間の抽出した段落の一致の度合46\%に対し,人間の段落とシステムの段落の一致の度合は,ほとんど変わらないとしている.先頭20\%の段落を抽出した場合が提案手法を上回る精度を得ているが,これは,百科辞典が新聞同様,先頭に見出し語の定義など,主要な内容を含んでいるからと考えられる.亀田\cite{kameda:96:a}は,2文間にどのくらい共通な単語(キーワード)が現れるか\footnote{厳密には,どの程度単語の部分文字列に重複があるか}に基づいて計算した文間関連度(の平均)と,ある文が他の文とどの程度広く関連があるかというカバレジに基づいて文の重要度を計算する手法を提案している.福本\cite{fukumoto:97:a}も,文を単語の(重みの)ベクトルとして表現し,ベクトルの内積で文間の結合度を計算し,結合度の高い文を順に抽出する手法を提案している.\subsection{複数の表層的手がかりを統合して用いる要約手法}前節で述べたように,重要箇所抽出には,これまでさまざまな情報が用いられてきている.これらの情報のうち一つを用いた手法も提案されているが,一般に複数の情報を同時に用いた方が精度を改善できるとの考え方に基づき,複数の情報を統合して重要箇所抽出に用いる研究が数多く見られる.本節ではそのような研究を概観する.山本らのシステムGREEN\cite{yamamoto:95:a}は,以下にあげる2つの情報を用いた要約システムである.\begin{description}\item[文の種類]人手で作成したパターンにより文の種類を分類し,著者の主張等を述べた文(見解文)のみを抽出する,\item[テキスト中での位置]テキスト,段落の先頭,最後の文を抽出する\end{description}この他に,重要文として抽出される文の先頭に指示語や接続詞が出現する場合,あるいは,抽出される文の主語が省略されている場合,前文との結束性が強く,単独で要約中に存在すると不自然であると考え,前文も要約に追加する処理を行なっている.また,重要文中で比較的重要度が低いと考えられる連体修飾句の削除を行ない,さらに要約を短くすることを試みている.要約の評価は,要約の自然さ,内容の適切さに関する被験者へのアンケートにより行なっている.亀田\cite{kameda:97:a}は,類似した単語(キーワード)が2つの文に共に出現する度合に応じて計算される文間関連度に基づいて,テキスト中の文の重要度を計算する,以前の手法(2.1節(7)参照)\cite{kameda:96:a}に,段落や見出しの情報などを追加して重要文の抽出を行なう手法を提案している.この手法では,文間関連度に基づく文自体の重要度の他に,段落間関連度を用いて段落の重要度のランキングを行ない,段落の重要度を文の重要度に加味する(重要度の高い段落中の文に,より大きい重要度を付与する).さらに,見出し文と関連する文(2.1節(3)参照)や,重要性を示す機能語句を含む文(2.1節(5)参照)を重要視する補正をこれに加え,最終的な文の重要度を計算する.被験者の抽出した重要文との一致の度合により評価を行ない,以前の手法,市販のソフトウェアとの比較の結果,提案した手法が優れていることを示している.このように,テキスト中の箇所(文,段落)に重要度を付与する情報を複数統合する際には,情報の統合の方法が問題となる.これまでの研究では,個々の情報により付与された重要度に,それぞれの情報の重みをかけたものを足し合わせ,全体としての重要度とする手法がよく用いられている\footnote{ある文に対して複数の情報が矛盾する判断をする場合や,また,複数の情報間に依存関係がある場合などを考慮すると,単純に複数の情報をスコアとして統合するのが適切なのかという疑問はある.}.このような重要度計算の手法を用いる場合,それぞれの情報に対する重み付けは,これまで人手でその重みを調整する手法が取られることが多かった.Edmundson\cite{edmundson:69:a}は,2.1節で上げた,いくつかの情報を人手で組み合わせた重要文抽出手法による実験を行ない,複数の情報を組み合わせることで,より良い結果が得られることを示している.個々の情報を用いた手法では,「位置情報」,「手がかり表現」,「タイトル等の情報」,「出現頻度」の順に精度が良い.しかし,最初の3つの情報の組合せがもっとも良い結果を得られたと報告している.間瀬ら\cite{mase:89:a}は,2.1節で上げた情報「タイトル等の情報」,「出現頻度」,「手がかり表現」,「段落中での位置情報」\footnote{間瀬らは,段落を表層的な情報を基に分割した,セグメントという意味的なまとまりも考慮に入れている.}に対応するパラメタおよび,「主題」(助詞「は」が後置する名詞),「文間の接続詞」などの情報を基にしたパラメタを組み合わせて利用する重要文抽出手法を示している.文の重要度は,各パラメタのスコアに,人手で決定したパラメタの重みをかけたものを総和することで計算している.さらに,抽出した重要文に指示語が存在する場合,先行詞を含む文を推定し同時に抽出したり,不要と考えられる接続詞や副詞を削除するなどの後処理を加えている.これに対し,近年要約文集合を訓練コーパスとして,機械学習手法などを用いることにより,複数の情報の統合方法を最適化する研究が盛んになってきている.複数の情報の重みを自動的に決定するのはその一例と言える.このような研究は,その学習法の違いから次の3つに大別できる.\newpage\begin{itemize}\item確率を用いたベイズ推定手法\cite{kupiec:95:a,jang:97:a,teufel:97:a}\item重回帰分析を用いた手法\cite{watanabe:96:a}\item決定木学習を用いた手法\cite{nomoto:97:a,aone:97:a}\end{itemize}Kupiecら\cite{kupiec:95:a}は,重要文抽出を統計的な分類問題とみなし,あらかじめ人手で選択した重要文を訓練集合とし,文が重要文集合に含まれるかどうかの確率を与える分類関数を求めておき,重要文はこの確率により文を順序付けることで抽出する重要文抽出手法を提案している.具体的には,属性(重要文抽出のための情報)集合が与えられた時の,文$s$が要約$S$に属す確率$P(s\inS|F_1,F_2,\ldotsF_k)$を計算する.属性集合としては,2.1節で述べた「出現頻度」,「手がかり表現」,「位置情報」に対応するものの他に,「短い文は重要文になり難い」,「固有名詞は重要であることが多い」という仮定を導入するための属性も利用している.人手で属性の重みの決定を行なったEdmundsonの研究と基本的に結果が一致している.また,テキストの先頭の文を抽出する手法をベースラインとすると,ベースラインの精度24\%に比べ,42\%平均の適合率を得ている.Watanabe\cite{watanabe:96:a}は,属性集合として,2.1節で述べた「出現頻度」,「位置情報」に対応するものの他に,「時制情報」(現在/過去),「文のタイプ」(事実/筆者の主張/推測),「前文との接続関係」(理由/例示/逆説/並列/...)を利用している.これらの属性それぞれの各文に対するスコアに属性の重みをかけたものの総和を文の重要度とするが,属性の重みを訓練データから重回帰分析を行ない求めている.Nomoto\cite{nomoto:97:a},Aoneら\cite{aone:97:a}はそれぞれ,人手による要約文を訓練データとし,決定木学習アルゴリズムC4.5\cite{quinlan:93:a}を用いて学習した決定木により,文を重要文/非重要文に分類し,重要文抽出を行なう手法を提案している.Kupiecらの手法と同様に,テキスト中の文が重要文集合に属すかどうかを分類する分類器を学習するが,ここでは,確率ではなく決定木を学習する.決定木学習は,あらかじめ分類済みの訓練データに属性情報を付加しておき,そのデータを正しく分類できるようなルール集合を決定木の形で学習することになる.Maniら\cite{mani:98:b}は,異なる学習手法を用いた要約の精度の比較を行なっている.「位置情報」,「単語の出現頻度」,「タイトル等の情報」,「文間の結束性の情報」を属性として用いている.対象テキストとしては,Teufelらと同じe-printarchive中の学術論文198編および著者の記述した要約を利用している.要約の長さは平均で原文の5\%であった.決定木学習を用いた結果から,位置情報,単語の出現頻度の情報が有効である一方,結束性の情報が効いていないことが明らかになった.また,学術論文で有効と考えられる「手がかり語の情報」を利用していないにもかかわらず,比較的良い結果を得ている.結果から,重回帰分析を用いた手法,決定木学習を用いた手法は,ほぼ同等な性能を得ているとしている.\subsection{重要文抽出に基づく要約の問題点}これまでの要約研究として,テキスト中の重要箇所の抽出とその連結による生成に基づくものを説明してきた.説明してきた手法のうち,単語の出現頻度を用いた手法や,単語間のつながりの情報を用いた手法では,テキストが複数の話題から構成されている場合,話題ごとに語彙の出現傾向が変わるため,十分な精度が得られない可能性がある.同様に,位置情報を用いた手法も,十分に機能しない可能性がある.このような場合は,テキストを何らかの手法(たとえば,\cite{hearst:94:b,mochizuki:99:a})で話題ごとに分割し,話題ごとに重要文を抽出する必要がある\cite{nakao:98:a}.また,重要箇所抽出に基づく要約手法の問題点としては,1)抽出した文中に代名詞などが含まれている場合,その先行詞が要約文中に存在する保証がないこと,2)テキスト中の色々な箇所から抽出したものを単に集めているため,抽出した複数の文間のつながり(首尾一貫性)が悪いことが指摘されている.Paice\cite{paice:90:a}は,テキスト中のキーとなる重要な文を抽出するために用いられる表層的な情報の概説(2節)の後,重要文抽出による要約作成の問題点として,上のような点を指摘し,その問題点の解決法について述べている.照応詞を含む文の前の数文を要約に追加したり,接続詞は削除したり,動詞の時制や態は調和がとれた流れにしたりすることで,部分的な解決が実現できることを示している(3節).また,テキストの構造の把握が要約文作成に重要であることを4節で述べている.2.2節で紹介した,山本らのシステムGREENでは,上に述べた問題点に対し,重要文として抽出される文の先頭に指示語や接続詞が出現する場合,あるいは,抽出される文の主語が省略されている場合,単独で要約中に存在すると不自然であると考え,前文も要約に追加することで対処している.2.1節(2)で紹介した,BrandowらのシステムANESでは,文の先頭に照応詞が出現する場合,その文を重要文として選択しないことや,また,段落の先頭でない文(2,3番目の文)が選択された場合,段落中のそれらの文の前の文を要約に追加するなどの方法で,要約の結束性を増すことを試みている.最後に,2.1節で説明した,重要箇所抽出のための様々な情報がどれも,すべてのジャンルのテキストで有効に機能するというわけではないことに注意しておきたい.新聞記事,学術論文など,テキストのジャンルが異なれば,有効な情報は異なるのが当然である.これまであまり議論されてこなかったが,テキストのジャンルと,重要文抽出に有効な情報の関係について,今後詳細に検討する必要があると考えられる.また,情報の組み合わせ方に関しても,テキストのジャンルによって,最適化した組み合わせ方での精度がばらつくこと,最適化した際に利用される属性集合が異なることなどが報告されている\cite{nomoto:97:a,aone:98:b}. \section{抽象化,言い換えによる要約手法} これまで述べてきた研究はどれも,「要約文=抽出したテキスト中の重要箇所の連結」という考え方に基づいていた.これは,要約を「原文から(何も変えずに)抽出したextract(抜粋)」と見なしているとも言うことができる.これに対し,「言い換えたり,合成したりすることで,原文の内容を表現し直し要約(abstract)として生成する」試みが近年いくつか見られるようになってきた.このabstractの生成のためには,通常のextract(テキスト中の重要概念の抽出)以外に,抽出した概念の統合,生成の過程が必要である.概念の統合は,抽出された複数の重要概念を,何らかの知識を用いて,より高い階層の概念にまとめることである.これにより,テキスト中の重要概念は,より少ない数の概念で表されることになる.概念の統合には,概念階層やスクリプトといった知識が必要となる.HovyらのSUMMARIST\cite{hovy:97:a}システムは,WordNetを概念階層として利用し,このような概念統合を実現している.Hovyらは,\begin{quote}Johnboughtsomevegetables,fruit,bread,andmilk.\end{quote}のような文を,概念階層を用いて,\begin{quote}Johnboughtsomegroceries.\end{quote}のように言い換える処理を,概念階層を用いた概念統合の例として示している.KondoとOkumura\cite{kondo:97:a}は,Hovyらの用いている概念階層以外に,EDR単語辞書中の単語の定義文をスクリプト知識と見なし,定義文を利用して,概念統合を実現する手法を示している.定義文は見出し語の説明であるため,逆に見出し語は定義文中に出現する動作系列の簡潔な言い換えになっていると考えられる.たとえば,\begin{quote}{\bf説得する}:よく\underline{話して}{\bf納得させる}\\{\bf納得する}:物事を\underline{理解して}{\bf承認する}\\{\bf承認する}:相手の言い分を\underline{聞き入れる}\end{quote}のように,それぞれの単語の定義文が与えられている場合,\begin{quote}私は彼女に事情を\underline{話した}.\\彼女は私の言う事を\underline{理解し},\\\underline{聞き入れてくれた}.\end{quote}のような文は,上の3つの定義文を利用し,定義文中の動作系列を再帰的に見出し語に言い換えることにより,\begin{quote}私は彼女を{\bf説得した}.\end{quote}のような文に要約できると考えられる. \section{ユーザに適応した動的な要約手法} これまでの要約研究は主に,対象となるテキストの情報を基に,要約は静的に決定できるという考え方で進められてきたように思われる.これに対して,近年,要約の利用される状況でユーザの要求に適合した要約を動的に作成する必要があるという考え方に基づいた研究が開始されている\cite{ochitani:97:a}.たとえば,情報検索において,ユーザがクエリを入力し,検索されたテキストが適切かどうかを判断する際に要約を用いる場合を考えると,要約はユーザが入力したクエリに即したものになっている必要があり,これまでのように,テキストの内容のみから作成していたのでは必ずしも十分ではないと言える.また,ユーザの持つ予備知識の程度に応じて,出力する要約の詳細さ,長さは可変であるべきであると考えられる.岩山ら\cite{iwayama:99:a}は,テキスト分類において,長いテキストを対象とする場合,テキスト中に複数の話題が含まれるなどにより,テキスト全体を単位とするよりも,テキスト中の断片を処理対象とした方が精度が改善できるという考えに基づき,パッセージ分類という手法を提案している.このパッセージ分類では,分類されるカテゴリと関連の強いパッセージをテキスト中から抽出しており,カテゴリを観点とした動的な要約作成を行なっていると言える.同様に,近年テキスト検索において注目されているパッセージ検索は,ユーザの入力したクエリに関連する,テキスト中のパッセージを抽出し,それを基に検索するわけなので,動的要約作成を行なっていると言える(たとえば,\cite{mochizuki:99:b}).Tombrosら\cite{tombros:98:b}は,「テキストのタイトル情報」,「テキスト中での位置情報」,「テキスト中の単語の出現頻度」に基づいた,従来通りの文の重要度に,クエリ中の単語が文中に出現する頻度に応じたスコアを加味することで,クエリに依存した重要文抽出手法を実現している.また,この手法で抽出されたquerybiasedsummaryの,情報検索時における有用性を,検索されたテキストのリストから適切なテキストを同定するタスクにおける,被験者の速さ,精度を計ることで評価している.querybiasedsummaryと,テキストの先頭数文を抽出した要約を比較することで,querybiasedsummaryの有用性が示せたとしている.塩見ら\cite{shiomi:98:a}も,「テキスト中の単語の出現頻度」に基づいた従来通りの文の重要度に,クエリ中の単語が文中に出現する頻度に応じたスコアを加味することで,クエリに依存した重要文抽出手法を実現している.Tombrosらと同様,情報検索時における有用性を,BMIR-J1を利用して評価した結果,要約率20\%の要約文において,従来の単語の出現頻度に基づいた手法と比較することで,提案する手法の有効性を示せたとしている.\vspace{2.0cm} \section{複数テキストを対象にした要約手法} これまで,単一テキストの要約作成に関する様々な手法について述べてきた.要約対象が複数テキストの場合,単一テキストの要約とは別に考慮すべき点が出てくる.まず,要約対象となる複数のテキストをどのように収集するのか.また,収集してきたテキスト間で内容が重複する場合,従来の単一テキスト要約の手法を個々のテキストに適用し並べただけでは,個々の要約の記述が重複する可能性があり,冗長で要約として適切ではない.そのため,冗長な箇所(テキスト間の共通箇所)をどのように検出し削除するかが問題となる.一方,冗長な箇所を削除しても複数テキストの要約文書としてはまだ十分であるとは言えない.複数のテキストを要約するとは,それらのテキストを比較し要点をまとめることであり,そのためにはテキスト間の共通点だけでなく相違点も明らかにすることが必要であると考えられる.さらに,要約文書を作成するためには,検出されたテキスト間の共通点や相違点を並べ,使用する単語の統一,接続詞の付与等の読み易さを上げるための処理を行う必要があると考えられる.従って,複数テキスト要約のポイントは次のようにまとめることができる.\[\left\{\begin{array}{lll}(a)&関連するテキストの自動収集&\\(b)&関連する複数テキストからの情報の抽出&\left\{\begin{array}{ll}(b)-1&重要箇所の抽出\\(b)-2&テキスト間の共通点の検出\\(b)-3&テキスト間の相違点の検出\\\end{array}\right.\\(c)&テキスト間の文体の違い等を考慮した&\\&要約文書の生成&\\\end{array}\right.\]複数テキスト要約に関するこれまでの研究には以下のものがある.Yamamotoら\cite{yamamoto:95:b},稲垣ら\cite{inagaki:98:b},柴田ら\cite{sibata:97:a},Radevら\cite{radev:98:a},Maniら\cite{mani:97:a}はいずれも,複数の新聞記事を対象に研究を行っている.また,難波ら\cite{nanba:99:a}は学術論文を対象に研究を行っている.複数新聞記事を要約対象とした,これまでの研究は,次に示す大きく2つに分類される.\begin{itemize}\item[(i)]ある事件について書かれた記事とその続報記事から要約を作成する,\item[(ii)]ある事件に関する複数の情報源(新聞社)の記事を要約対象とし,要約を作成する.\end{itemize}柴田らは,Fitという検索システムに文章融合機能を埋め込み,自動分類された新聞記事の融合を試みている.柴田らは複数の情報源から得られる記事からの要約作成を試みている((ii)).柴田らは,ある事項に関連する記事が複数の情報源から得られた場合,記事間の共通箇所を抽出することが関連記事の重要箇所を抽出することであると考えている.手法としては,出現頻度の低い形態素が異なるテキストで出現する場合それを含む文は重複文(テキスト間の共通点)の可能性が高いと考え,重複文を同定し,その片側を用いて要約作成を行っている.稲垣らも,柴田らと同様,ある事件について,複数の情報源(新聞社)から発行された記事から要約を作成する手法を提案している((ii)).「記事間の共通箇所を抽出することが関連記事の重要箇所を抽出すること」という考え方は,柴田らと同じであると言える.Radevらは,情報抽出手法により生成されたテンプレートを用いて,複数の新聞記事の要約を試みている.Radevらも,柴田ら,稲垣らと同様に複数の情報源から得られる新聞記事を要約対象としているが,同じ情報源から得られる続報記事についても考慮している((i)(ii)).要約対象はテロリストに関する記事にあらかじめ限定されている.まず,情報抽出手法によりテンプレートに犯人,犠牲者,事件のタイプなどの計25の情報を抽出する.次に,テンプレートを用いて要約を作成する.一般に,古い記事では不完全であった情報が続報記事中で明らかになった場合,要約作成には新しい情報を優先させる必要がある.また,同じイベントが異なる情報源でレポートされ,それらが互いに不完全な情報であるならば,組み合わせることで,より完全な情報が得られる場合がある.このような点を考慮し,複数記事から得られた情報の共通点,相違点を考慮し統合するための7種類のオペレータを準備し,要約作成を行っている.Maniらは,関連のある一組のニュース記事の要約を試みている.要約対象となる一組の記事が(i)であるのか(ii)であるのかについては,論文中では明らかにしていない.Maniらは,2.1節(6)で紹介したように,個々のテキスト(新聞記事)を関連する語句(ノード)の間にリンクを張ったグラフで表現している.そして,活性伝搬により,テキストの話題と関係するノード集合(サブグラフ)を検出する.記事間でそれらのサブグラフを照合することで,テキスト間の共通点と相違点の抽出を行っている.難波らは,特定分野の複数の論文からサーベイ論文を自動作成することを目指しており,その第1歩としてサーベイ論文作成支援システムを構築している.難波らは,論文間の参照情報に着目し,参照情報を用いて論文間の共通点や相違点を明らかにする手法を提案している.参照情報とは,論文中で,参照先論文について記述している箇所(参照箇所)から得られる情報のことで,参照先論文の重要点や,参照元と参照先間の相違点を明示する有用な情報が得られる.難波らは,参照箇所をcuewordを用いて解析し,論文の参照・被参照関係にリンク属性(参照タイプ)を付与している.特定のリンク属性が付与された参照関係を辿ることで,ある特定分野の論文を自動的に収集するのに近い処理を実現している.こうして収集された論文集合の参照関係のグラフや,個々の論文のアブストラクト,参照箇所を示すことで,ユーザに関連論文の共通点や相違点を明示できるため,サーベイ論文作成に有用であると考えられる.しかし,これらの情報を用いてサーベイ論文を自動的に作成するには至っていない. \section{文中の重要箇所抽出,不要箇所削除による要約手法} これまでの要約手法の多くは,テキスト中の重要な文あるいは段落を抽出することで実現されていた.しかし,文単位の抽出では,重要でないとして捨てられる情報の単位が文であることから,要約を作成する際に,情報が大きく欠落する可能性がある.そのため,文単位で抽出することでテキストを短くするのではなく,一文ごとに重要でない箇所を削り(あるいは,重要な箇所を抽出し),情報をなるべく減らさずに,テキストを短く表現し直す要約手法が近年提案され始めている.これらの手法は,段落,文,節を単位とした重要箇所抽出ではなく,句,文字列を単位とした重要箇所抽出(不要箇所削除)と言うことができる.これらの手法のもう1つの特徴として,具体的な利用目的を想定した要約研究として手法が提案されていることが上げられる.その一つが,文字放送,字幕を作成することを想定した要約手法としての,文の短縮である.文字放送,字幕を作成することを想定した場合,文字放送,字幕では体言止め,漢字熟語などを多用した,固有の表現が可能であること,また,文字放送,字幕用要約の場合,通常の要約と比べると,要約の長さをそれほど短くする必要がないことなどから,不要と考えられる文字列を削除したり,表現をより簡潔な別の表現に言い換えるなど,表層の文字列に関する処理で,ある程度文を短縮することが可能である.文末のサ変動詞を体言止めにする(「7月中に解散します」$\rightarrow$「7月中に解散へ」),文末の丁寧の助動詞を削除する(「余震が相次ぎました」$\rightarrow$「余震が相次いだ」)などのような変換規則を用意し,文に対し変換規則を繰り返し適用することで,文はより短い文に変換される.若尾ら\cite{wakao:97:b}は,実際のニュース番組中の字幕を用いて,人手で作成されている字幕とニュース原稿を比較することで,字幕用の要約手法の分析を行なっている.要約手法として,表層の文字列の情報のみで可能な手法のみを取り上げ,5つに分類している.また,各手法の使用頻度,削減される文字数なども調査している.山崎ら\cite{yamazaki:98:a}も同様な手法を提案し,要約率91.2\%を得たとしている.若尾ら,山崎らがともに,元原稿と字幕を人手で分析し,要約のための規則を作成しているのに対し,加藤\cite{kato:98:b}は,この要約のための知識を自動的に獲得する手法を提案している.原文となるニュース文原稿と,要約文となる文字放送原稿のペアからなるコーパスを利用して,要約知識を自動獲得している.ペアとなる文間の対応をDPマッチングにより単語単位でとり,その後対応のとれなかった差分の部分を要約のための変換規則として獲得している.また,近年モバイルコミュニケーションが脚光を浴びているが,限られた通信・表示リソースしか持たないモバイル端末へのテキスト表示のための要約技術の研究も開始されている\cite{inagaki:98:a}.この場合も,重要文抽出ではなく,情報をなるべく欠落させず表示する必要があることから,字幕作成の場合と同様な技術が用いられる.一方,テキストを構文解析し,その結果を利用して文中の重要箇所を抽出する手法がいくつか提案されているが,これらはいずれも,人間がテキストを走り読み(skimming)することを支援するために提案されている手法である.亀田\cite{kameda:95:a}の日本語文書読解支援系QJRのskimming支援では,文書の速読を支援する目的で,簡易日本語解析系QJPによる文の係り受け解析の結果を基に,文の骨格となる文節群のみを強調表示する機能を提供している.Grefenstette\cite{grefenstette:98:a}は,視覚障害者が音声合成器を介してテキストをskimmingするための文の単純化手法を提案している.Grefenstetteが以前開発したshallowparserを基に文を構造化し,文の骨格となる,文中の重要箇所を抽出している.これらの研究以前にも,山本ら(2.2節参照),Mahesh(7節参照)などのように,抽出した重要文中の不要箇所を削除し,さらに要約文を短くすることを目的として,構文解析を利用した文中の重要箇所抽出は行なわれている.この場合も,構文解析結果から,連体修飾句,埋め込み文,従属節などを不要として削除している. \section{要約の表示方法について} これまでの要約研究においては,要約は,原文同様テキストとして,出力されることが一般的であったと言える.しかし,2.3節で述べたように,重要箇所抽出に基づく,伝統的な要約手法では,出力される要約が,テキストとしてのまとまりを十分構成しておらず,読み易さの点で問題があることが指摘されている.また,4節で触れたように,要約の長さは,ユーザが自分の関心に応じて自由に変えられるようになっていることが望ましいという指摘もある.このような立場から,近年要約を,単なるテキストとしてではなく,他の形でユーザに表示する試みが行なわれ始めている.Mahesh\cite{mahesh:97:a}は,要約過程を,テキストからのhypertextの構成過程ととらえ,重要な箇所が前面にあり,そこからリンクをたどることで,より詳細な情報が段階的に得られるような枠組を提案している.従来の研究が(ある決まった要約率の)要約と,(要約する前の)テキスト全体という2つの要素しか提示しなかったのに対し,ユーザが自分の関心に応じてリンクをたどることで,さまざまな要約率の要約を段階的に参照可能である枠組である.テキストからの重要文抽出は従来の手法を用いているが,その後処理として,抽出した文を(部分的に)構文解析し,埋め込み文,従属節などを削除することで,さらに要約文を短くすることを試みている.SaggionとLapalme\cite{saggion:98:a}は,ユーザに適応した要約の出力法として,indicativeな要約をまず表示し,そこから,要約が対応するテキスト中の断片がたどれるようにしておき,ユーザは自分の関心に応じ,そのリンクをたどることで,より情報量の多い(informativeな)要約を見ることができるような枠組を示している.これらの研究はどちらも,重要文抽出手法で得られた要約の,テキストとしての首尾一貫性の欠落の問題に対して,要約を表示する際,表示した要約が1つのまとまったテキストでは本来なく,したがって,首尾一貫性がない可能性があること(前後の文は無関係であるかもしれないこと)を明示してやることで,部分的な解決を試みていると言え,興味深い. \section{要約の評価方法について} これまでの単一テキストを対象とする要約研究の多くは,人間の被験者の作成した要約文と,システムの作成した要約文を比較し,システムの要約文の再現率,適合率を評価尺度とした評価を行なっていた.しかし,人間においても要約というタスクは必ずしも容易ではなく,人間の被験者による要約が必ずしも高い割合で一致するとは言えない.また,この評価法の前提とする「ただ一つ正しい要約が存在する」という仮定が不自然であるという批判が以前からあり,要約システムの評価方法は再検討される段階にあると言える.これに対して,Miikeら\cite{miike:94:a}は,要約を利用して人間がタスクを行なう場合の,タスクの達成率が間接的に要約の評価となるという考え方に基づき,評価を行なっている.具体的には,情報検索における検索テキストの適切性の判断をする際に要約を用いることで,要約を評価し,タスクに要する時間と,検索の再現率,適合率で評価を行なっている.DARPATipsterプロジェクト(PhaseIII)の評価\cite{hand:97:a}においても,同様に,上の仮定の不自然さから,タスクに基づく評価方法が採用されている.Tipsterプロジェクトでは,テキストの分類,情報検索における検索テキストの適切性の判断それぞれに要約を利用し,被験者のタスクに要する時間(要約しないテキスト全体を用いた場合とも比較する),タスクの精度により要約を評価する.一方,間瀬ら\cite{mase:89:a}は,原文を読んだ後および,その要約だけを読んだ後,原文の内容を問うテストを被験者に行ない,テストの得点比で要約の評価を行なっている.テストの問題作成の困難さが問題点として残るが,原文を伴わない状況での利用を想定した要約の内容の十分性の評価としては興味深い手法である.このように,要約を用いて人間の被験者が何らかのタスクを実行する際の精度等を問題にするのではなく,要約を利用して何らかのタスクを実行する応用プログラムの精度を示すことで,間接的に要約の評価を行なうという試みも見られる.隅田ら\cite{隅田:97:a}は,抽出した要約文のみを索引およびスコアづけの対象としたテキスト検索システムの評価を行ない,テキスト全体を索引等に用いた場合に比べ,精度の向上が実現できることを示すことで,抽出した要約文がテキストの大意の把握に成功していることを間接的に実証している.良い要約が得られれば,重要な概念や単語のみが索引語として利用されるので,検索の精度が改善されるはずであるという仮定にこの評価は基づいている.このような,要約文の内容に関する評価とは別に,要約文の「文章としての読み易さ」を評価する評価方法も考えられる\cite{minel:97:a}.2.1節(2)で紹介した,Brandowら,Wassonは,人間の受容可能性判断に基づいて要約を評価している.受容可能性は,人間が,原文と照らし合わせて,内容と読み易さに関して,受容可能/不可能の判定を要約に対して行ない求められる指標である.要約は,本来このように,内容に関する評価と,読み易さに関する評価の,両方の次元で評価されるべきであると言え,今後もより良い要約の評価方法の模索は続けられるものと考えられる.1節で述べたように,要約は一般に,その利用目的に応じて,次の2つのタイプに分けられることが多い\cite{hand:97:a}.\begin{description}\item[indicative:]原文の適切性を判断するなど,原文を参照する前の段階で用いる\item[informative:]原文の代わりとして用いる\end{description}Miikeら,Tipsterプロジェクトの評価は,要約をindicativeなものとして評価していると言うことができる.一方,間瀬ら,隅田らの評価は,informativeなものとしての要約の評価を行なっていることになる.ここで,Tipsterプロジェクトにおける評価方法について,もう少し詳しく触れておく\footnote{TipsterのSUMMACに関する,簡単な報告が\cite{fukumoto:98:a}にある.}.Tipsterプロジェクトの評価法は,上にも述べたように,タスクに基づくものであるが,そのタスクは,以下の3つからなる\footnote{Tipsterでは,これらのタスクに基づく評価以外に,受容可能性による評価も合わせて行なっている.}.\\\\\begin{tabular}{ll}Task&Summarytype\\\hlinecategorization&generic,indicative\\adhocretrieval&query-based,indicative\\question-and-answer&query-based,informative\\\end{tabular}\\\\`query-based'要約は,4節で述べた,ユーザの要求に特化した要約,`generic'な要約は,特化しない要約を意味する.最初の2つのタスクでは,10\%の要約率での要約と,開発者が「最も良い」と考える要約(長さは問わない)を基に評価を行なう.3つ目のタスクでは,質問に対する解答の正当率で要約を評価する.質問はテキストごとに変わるものではなく,queryで示されたtopicごとに5つ用意される.あるtopicに関する質問の正解は,質問作成者自身が,(質問に対する正解を与えていると判断した)原文のpassageを選ぶことで決定される.評価は,このpassageを要約がどの程度含むかで人間が判断する.評価の指標であるAnswerRecallは,correct,partiallycorrect,missingの3段階で判断される.要約の評価方法としては,上述した,間瀬らの手法と同様なものと考えられる.一方,5節で述べた,複数テキストを対象とする要約研究や,6節で述べた,文中の重要箇所抽出による要約研究の評価は,研究が始まったばかりでもあり,十分な議論がなされてきていないと言って良い.5節で述べたように,複数テキストを対象とする場合,冗長な重複箇所を検出し,削除することが必要となるため,「冗長箇所をどの程度正しく削除できているか」\cite{funasaka:96:a},「テキスト間の類似箇所と相違箇所をどの程度正しく抽出できているか」\cite{mani:97:a}という観点での評価が行なわれている.また,難波ら\cite{nanba:99:a}は,「要約に必要な記述内容(参照箇所)をどの程度正しく抽出できているか」を評価している.しかし,複数テキストから作成された要約文全体に関する評価はこれまでなされておらず,どのような点を評価すべきかということも明らかではない.今後,作成された要約全体の評価について検討していく必要があると考えられる. \section{おわりに} テキスト自動要約に関する,これまでの研究動向を概観してきた.自然言語処理の分野では,近年頑健な解析手法の開発が進んでいるが,これらの手法を用いた要約研究が今後も数多く提案されるようになると思われる.2.1節(4)で述べた「解析したテキスト構造を利用した」要約手法も,テキスト構造を解析する頑健な手法が開発されて初めて実現可能な手法であり,また,照応解析を利用した要約手法\cite{boguraev:97:a}など,頑健な文脈処理を利用した要約手法が今後盛んに研究されることと思われる.頑健な文脈処理を利用した手法は,2.3節で述べたような,伝統的な重要箇所抽出による要約の問題点の解決にも貢献できる可能性が高いと言える.この他にも,複合語を抽出しそれを利用する,また,固有名詞を抽出し,そのタイプ(人名,場所,会社名など)わけを利用するなどして,要約手法をこれまでの単語に基づく単純なものから,より詳細な情報に基づくものに拡張し精度向上を図る試み\cite{aone:97:a}も増えていくと思われる.また,6節で紹介したような,文中の不要箇所を削除したり,重要箇所を抽出したりすることによる要約手法では,頑健な(部分)構文解析手法の利用が不可欠であると考えられる.最後に,本稿以外の過去の解説および参考文献を紹介しておく.\cite{HLTsurvey}の7.4節にSparkJonesの簡単な解説がある.\cite{paice:90:a}も,対象が論文中心ではあるが,2.1節で述べたように,これまでの手法の解説を含んでいる.InformationProcessing\&ManagementのVol.31,No.5(1995)は自動要約(AutomaticSummarizing)の特集号である.本稿では述べなかった,要約の生成過程に関する研究として,3編の論文が収録されている.\cite{EAI}にもAltermanの解説がある.この解説は,対象が物語中心であり,領域知識を用いた手法に関してのみが説明されている.\cite{niggenmeyer:98:a}の5章は,計算機による要約手法をまとめた章となっている.人間の要約過程に関しては,\cite{sakuma:89:a},\cite{niggenmeyer:98:a}などに詳しい分析がある.また,テキスト自動要約に関するWebpageを最近作成した(\verb+http://galaga.jaist.ac.jp:8000/pub/research/summarization/+).興味のある方は参照して頂きたい.\acknowledgment本稿を執筆する機会を与えて下さった,本特集号編集委員の皆様にまず感謝します.本稿をまとめるに当たっては,自然言語処理学講座に在籍する,望月源君,近藤恵子さん,徳田昌晃君の協力が大きな助けとなりました.ここに記し,感謝します.また,本稿の予稿にコメントを寄せて下さった通信・放送機構(TAO)の福島孝博氏,日立中央研究所の小林義行氏に感謝します.TipsterのSUMMACに関連する貴重な資料は,ニューヨーク大学の関根聡氏,ジャストシステムの野村直之氏に提供して頂きました.ここに感謝します.\bibliographystyle{jnlpbbl}\bibliography{v06n6_fw}\begin{biography}\biotitle{略歴}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,語彙知識獲得に関する研究に従事.情報処理学会,人工知能学会,AAAI,ACL,認知科学会,計量国語学会各会員.e-mail:oku@jaist.ac.jp.}\bioauthor{難波英嗣}{1972年生.1996年東京理科大学理工学部電気工学科卒業.1998年北陸先端科学技術大学院大学情報科学研究科博士前期課程修了.同年同大学院博士後期課程,現在に至る.自然言語処理,特にテキスト自動要約に関する研究に従事.情報処理学会,人工知能学会各学生会員.}\end{biography}\end{document}
V13N03-10
\section{はじめに} 敬語は日本語の重要な特徴の一つとされており,日本語の敬語は単に依頼,要求あるいは人を示す代名詞において見られるだけでなく,言語体系,及び言語行動のほぼ全般にわたって発達している.このような特徴を持つ言語は日本語以外では,韓国語,チベット語,及びジャワ語等世界中に少数しか見られない\cite{Hayashi1974}.ところが現代の日本社会において,日本語の敬語に関する様々な誤用が指摘されてきている\cite{Kikuchi1997,Ishino1986}.日本社会における敬語の誤用は,言語によるコミュニケーションを通じた社会的人間関係の構築を妨げる場合がある.特にビジネスの場面における敬語の誤用は,時として円滑なビジネスを進める上での障害にもなり得る.このため,一般的には敬語の誤用はできるだけ避けることが望ましい.敬語の誤用を避けるには,敬語の規範に関する正しい知識の習得が不可欠である.このような知識習得を効率的に行うため,敬語学習を支援する計算機システムの実現が期待される.以上の背景の下,我々は日本語発話文に含まれる語形上の誤用,及び運用上の誤用を指摘するシステムを開発した.本システムは,日本語発話文,及び発話内容に関係する人物間の上下関係を表すラベルを入力とし,入力された日本語発話文における誤用の有無,誤用の箇所,及び誤用の種類(後者二つは誤用有りの場合のみ)を出力する.最近ではこれに類似した機能を搭載した日本語入力支援ツール等が開発されてきてはいるが,既存のシステムは主に語形上の誤用の一部のみを対象としており,運用上の誤用についても極めて限られた表現しか扱うことができなかった.本システムのように,発話文に含まれる敬語の誤用を指摘するシステムの構築にあたっては,(1)敬語の規範を何処に求めるか?及び(2)発話状況をどう取り扱うか?が問題になる.本研究では,以下の考え方に基づきこれらの問題に対処している.(1)敬語の規範敬語(正確には,敬語を含む言語一般)は時代の経過と共に変化する.例えば,``お話になられる''(二重敬語)等は伝統的な日本語学においては誤用とされてきたが,近年では必ずしも誤用としては認識しない人が少なからずいることが報告されている\cite{Bunkacho1999}.このため,現代の日本において幅広く社会のコンセンサスが得られている敬語の体系的規範はないと考えられる.この問題に対し本研究では,日本語学に関する様々な文献において共通して明示的あるいは暗示的に述べられていると解釈できる規範にできるだけ厳密に準拠する,という立場を取る.このため,現代の日本社会において敬語として概して許容されている表現であっても,本システムではその表現を規範的な敬語として見なさない可能性がある.しかしこのことは,少しでも誤用の可能性のある表現をできるだけ漏らさずピックアップできる,という利点として考えることもできる.(2)発話状況の取り扱い従来の敬語研究で指摘されているように,発話状況に応じた適切な敬語(即ち,運用上正しい敬語)を選択する際に考慮すべき主な要因には,発話に関わる人物間の上下関係(年齢差や社会的地位の違いに基づき話者が判断した上下関係,以下では``主観的上下関係''と呼ぶ),人物間の親疎,人物間のウチソト,及び各人物の体面に対して発話意図が及ぼすリスク,等がある.中でも人物間の主観的上下関係は,敬語が誤用である否かを判断する際の最も重要な要因であることが,日本語の敬語に関する多くの文献において明記あるいは暗示的に述べられている\cite[等]{Kikuchi1996,Kikuchi1997,Kabaya1998,Kokugoken1990,Kokugoken1992,Minami1987}.一方,このような判断の際に,人物間の親疎,人物間のウチソト,あるいは各人物の体面に対して発話意図が及ぼすリスクが,主観的上下関係より重要な要因であることを指摘した文献は殆どない.このことは,敬語の運用の規範に関わる要因としては,主観的上下関係が最も重要な要因であることを示唆する.従って本研究においては,敬語の運用上の規範を発話に関わる人物間の主観的上下関係のみに基づいて定義する.尚,実際の場面では人物間の主観的上下関係が殆ど同じ状況も想定されるため,実用的なシステムのためにはこのような状況も扱えることが望ましいが,今回は誤用指摘システム開発の最初のステップとして,明確な主観的上下関係の下での規範に焦点を当てることとし,上下関係が殆ど同じ状況の取り扱いは今後の課題としている.\bigskip以下では,本研究における``敬語の誤用''の定義を述べた後,それに基づいた誤用指摘システムについて述べる.更に,様々なテストデータを用いたシステムの妥当性の検証,及びシステムの今後の改善点等について述べる. \section{敬語の誤用} 前述のように,本システムは(1)語形上の誤用,及び(2)運用上の誤用を指摘することができる.敬語の誤用は,大きくこの2種類に分けられる.(1)語形上の誤用語形が敬語として規範的ではない表現の使用.本研究では,敬語の文献\cite[等]{Kikuchi1996,Kikuchi1997,Horikawa1969,Miyaji1999}を参考に語形上の誤用を定義した.本システムで用いている語形誤り表現リストの一部を表1に示す.表中``〜''は任意の動詞を表す.語形誤り表現リストに登録されている表現の総数(``〜''を含むパターンの表現はパターンとして1個とカウント)は約80個である.尚,一般的に日本語として誤っているか否かという観点からは語形上の誤用を無数に想定することができるが,本システムでは特に敬語に関わる表現の中で最も典型的な語形上の誤用を登録している.\begin{table}[htbp]\begin{center}\caption{語形誤り表現リスト(一部)}\label{tbl:table1}\begin{tabular}{ll}\hline\multicolumn{1}{c}{表現(``〜''は動詞)}&\multicolumn{1}{l}{誤用のタイプ}\\\hlineお/ご〜になられる&二重敬語\\お/ご〜なされる&二重敬語\\お/ご〜をなされる&二重敬語\\お/ご〜される&尊敬語形+謙譲語形の混用\\\hline\end{tabular}\end{center}\end{table}(2)運用上の誤用語形は正しいが,発話に関わる人物間の主観的上下関係と整合しない表現の使用.伝統的な日本語学では,例えば,話者より社会的に上に位置付けられる聞き手に対する発話文の文末は丁寧にすべきとされている.従って,このような状況における発話文として,文末が丁寧でない文は運用上の誤用と見なされる.発話に関わる人物間の主観的上下関係に基づいた運用上の規範をどのように定義するかは,本システムが対象とする発話文の特徴にも依存するため,次章(システムの説明)で述べる. \section{敬語誤用指摘システム} \subsection{本システムが対象とする発話文}本システムに入力される発話文は,以下三つの制約を満たすものとする.\begin{description}\item[制約1]発話文には述語が一つだけ(述語の主語,補語\footnote{主語以外の格要素を指す.研究者によっては他の語(例えば,``目的語'',``主格補語''等)を用いることがあるが,本研究では「敬語教育の基本問題(下)」\cite{Kokugoken1992}に倣ってこの語を用いる.}はそれぞれ一つ)含まれる.\item[制約2]発話に関係する人数は2名〜4名.ここで,2名の時は話者(名前は``S''とする),聞き手(名前は``L''とする),3名の時は話者,聞き手,及び発話文中で参照される人物1名(名前は``A''とする),4名の時は話者,聞き手,及び発話文中で参照される人物2名(4人目の名前は``B''とする)とする.\item[制約3]話者/聞き手/人物A/人物Bが述語の主語あるいは補語の場合はその人物の名前``S''/``L''/``A''/``B''を明記する.\end{description}\bigskip以上の制約は,現行の構文解析システムや意味解析システムを用いた際の,文構造の解析(特に,述語の主語,補語の同定等)における解析エラーの生じる可能性があるような複雑な文を排除するために設けた.従って,高い精度の文解析手法が将来開発されれば,これらの制約はより緩やかにできると考えられる.尚,発話に関わる人数が5名以上の状況はまれである(ここで,``彼ら''等のように複数人からなるグループの場合は,グループを擬人化して1名相当とみなす)と考えられるため,日常用いられている発話文の殆どは制約2を満たすと考えられる.また,発話に関わる人物が4名(S,L,A,B)の際,AとBを一つのグループ(例えば,``AさんとBさん'')としては扱わないものとする.従って,発話に関わる人物が4名の場合はAが主語でBが補語のケースのみであり(Bが主語でAが補語のケースはこれと等価),話者(S)や聞き手(L)が主語や補語になる状況は想定しない.一方,発話に関わる人物が3名(S,L,A)の場合はSやLが主語や補語になる場合があり,このときAは主語あるいは補語のいずれかになる.発話に関わる人物が2名(S,L)の場合は,Sが主語でLが補語のケース,及びLが主語でSが補語のケースのみである.制約3で記したように本システムでは発話に関わる人の名前を``S'',``L'',``A'',``B''に固定しているが,人名の情報等を事前にシステムに登録することによって人名を直接取り扱うことも可能である.\subsection{敬語特徴パターン}伝統的な日本語学の文献の多くにおいて,敬語は尊敬語,謙譲語,及び丁寧語に概ね分類できるとされている.尊敬語の中で最も典型的な語は,尊敬語を表すための形式を持つ述語,及び人物に対する敬称(例えば,``様'')である.謙譲語の中で最も典型的な語は,謙譲語を表すための形式を持つ述語である.丁寧語は主に文末における丁寧な語(例えば,``〜です.\unskip'')を指す.前述のように,本システムが対象とする発話文には述語が一つのみ現れる.従って,このような発話文の敬語的な特徴は,述語の主語の敬称の有/無,述語の補語の敬称の有/無,文末が丁寧/丁寧でない,及び述語の敬語的な特徴(尊敬語/謙譲語/二方面敬語\footnote{尊敬語かつ謙譲語である語のこと.例えば,``ご説明して下さった''(``ご説明する''が謙譲語,``下さった''が尊敬語)等.}/尊敬語でも謙譲語でもない語)で表すことができると考えられる.本研究ではこれを``敬語タイプ''と呼ぶ.このため本システムでは,発話文を形態素解析して得た形態素の並びに対して,表2に示すような敬語タイプ辞書を用いて表3に示すパターンを作り,このパターンで発話文の敬語的特徴を表すこととする(以下,このパターンを``敬語特徴パターン''と呼ぶ).\begin{table}[htbp]\begin{center}\caption{敬語タイプ辞書の一部(``〜''は動詞)}\tabcolsep=2em\begin{tabular}{ll}\hline\multicolumn{1}{c}{形態素の部分的並び}&\multicolumn{1}{c}{敬語タイプ}\\\hline``A''+``さん''&敬称\\``B''+``氏''&敬称\\``L''+``様''&敬称\\``お''+〜+``する''&謙譲語\\``ご''+〜+``する''&謙譲語\\``頂く''&謙譲語\\``申しあげる''&謙譲語\\``お''+〜+``なさる''&尊敬語\\``ご''+〜+``に''+``なる''&尊敬語\\``おっしゃる''&尊敬語\\``いらっしゃる''&尊敬語\\``です''+``.''&丁寧語\\``ます''+``.''&丁寧語\\\hline\end{tabular}\end{center}\end{table}敬語タイプ辞書に登録されている表現の総数(``〜''を含むパターンの表現はパターンとして1個とカウント.また``頂く''/``いただく''等の異表記は別個のものとしてカウント)は約250個である.また表3に示すように,敬語特徴パターンは4つの要素$s$,$o$,$e$,$p$からなる.要素$s$は,述語の主語(表中``$subj$''と標記)の敬称の有/無,に応じて1/0の値を取る.要素$o$は,述語の補語(表中``$obj$''と標記)の敬称の有/無,に応じて1/0の値を取る.要素$e$は,発話文の文末が丁寧/丁寧でない,に応じて1/0の値を取る.要素$p$は,述語の敬語タイプに応じて0/1/2/3の値を取る.尚,``$subj$''/``$obj$''は3.4節で述べる文構造解析によって述語の主語/補語と同定された人物を指す語である.\begin{table}[htbp]\begin{center}\caption{敬語特徴パターンの各要素の定義}\label{tbl:table3}\begin{tabular}{ll}\hline敬語特徴パターンの各要素の値&条件\\\hline$s=0$&$subj$の敬称なし\\$s=1$&$subj$の敬称あり\\\hline$o=0$&$obj$の敬称なし\\$o=1$&$obj$の敬称あり\\\hline$e=0$&文末が丁寧でない\\$e=1$&文末が丁寧\\\hline$p=0$&述語が尊敬語でも謙譲語でもない\\$p=1$&述語が尊敬語\\$p=2$&述語が謙譲語\\$p=3$&述語が尊敬語かつ謙譲語(二方面敬語)\\\hline\end{tabular}\end{center}\end{table}\subsection{入出力の形式}システムの入出力の例を図1に示す.図中,記号``A$>$B$>$L$>$S''は,話者(S),聞き手(L),人物A,及び人物Bの主観的上下関係を表すラベル(以下,``上下関係ラベル''と記す)である.``$>$''の左側に現れた記号に対応する人物は右側に現れた記号に対応する人物より主観的上下関係が上であるものと定義する.本システムでは,上下関係ラベルが表す人物間の主観的上下関係は常に正しいと想定して処理を行っている.上下関係ラベルと共に,聞き手(L)に対する話者(S)の発話文が入力される.この例では,発話意図:``AがBに言った''に対応する発話文が入力されている.システムは入力された発話文の語形上の誤用,及び発話文と上下関係ラベルとの整合性をチェックし,誤用の箇所が見つかった場合には,その箇所,及び誤用の種類を出力する.この例では,語形上の誤用は見つからなかったが,話者(S)より主観的上下関係が上の聞き手(L)に対する発話文において文末が丁寧ではないため,``誤用''と判定されている.\begin{figure}[htbp]\begin{center}\fbox{\begin{minipage}{60mm}\baselineskip=4mm\\[入力]\\A$>$B$>$L$>$S\\AさんがBさんにおっしゃったそうだ.\\\\[出力]\\判定:$誤用$\\誤用の箇所:$文末$\\誤用の種類:$文末が丁寧ではない$\\\end{minipage}}\caption{入出力の例}\label{fig:figure1}\end{center}\end{figure}\subsection{処理の流れ}本システムにおける処理のフローを図2に示す.システムに入力された発話文はまず形態素解析され,形態素の並びに変換される(形態素解析には茶筌\footnote{奈良先端大が開発した形態素解析システム\\http://chasen.aist-nara.ac.jp/index.html.ja}を用いた).次に,語形誤り表現リスト(表1)を用いて,語形上の誤用がチェックされる.例えば,形態素の並びの中に,\mbox{``お''}+動詞+``に''+``なる''+``れる''が現れた場合には,語形上の誤用:``お〜になられる''であると判断し,その旨を出力して処理を終了する.語形上の誤用が見つからなかった場合には,文構造解析によって述語の主語と補語の同定を行う.文構造解析では,形態素の並びの異なる箇所に【人物を指す語(+敬称)+格助詞(``が''/``を''/``に''/``から''等)】が2箇所現れるようなテンプレートを始め様々なテンプレートを用意することによって主語と補語を同定する.テンプレートの総数は約140個である.具体的なテンプレートの例を表4に示す.表中``○'',``△''は人物を指す語,``〜''は任意の文字列を表す.例えば図1に示した発話文に対しては,``AさんがBさんに''に対する形態素の並び,即ち【``A''``さん''(敬称)``が''``B''``さん''(敬称)``に''】が表4の最初に記されたテンプレートと一致するので,主語がA,補語がBと同定される.\begin{figure}[htbp]\begin{center}\epsfxsize=11cm\epsffile{./fig2.eps}\caption{処理のフロー}\label{fig:figure2}\end{center}\end{figure}\begin{table}[htbp]\begin{center}\caption{テンプレートの例(``○'',``△''は人物を指す語,``〜''は任意の文字列)}\label{tbl:table4}\tabcolsep=2em\begin{tabular}{lll}\hline形態素の並び&主語&補語\\\hline〜○{敬称}が〜△{敬称}に〜&○&△\\〜○{敬称}が〜△に〜&○&△\\〜○が〜△に〜&○&△\\〜○が〜△から〜&○&△\\〜△{敬称}に〜○{敬称}が〜&○&△\\\hline\end{tabular}\end{center}\end{table}文構造解析の結果に基づき,敬語タイプ辞書(表2),及び敬語特徴パターンの各要素の定義(表3)を用いて,敬語特徴パターンを抽出する.例えば,図1に示した発話文に対する形態素の並びは【``A''``さん''(敬称)``が''``B''``さん''(敬称)``に''``おっしゃる''``た''``そう''``だ''``.''】となるが,これは主語(A)の敬称があり(``A''``さん''),補語(B)の敬称があり(``B''``さん''),文末が丁寧でなく(``だ''``.''),述語が尊敬語(``おっしゃる'')であるので,$s=1$,$o=1$,$e=0$,$p=1$となる.最後に,整合表(表5)を用いて,敬語特徴パターンと上下関係ラベルとの整合性がチェックされ,判定結果が出力される(図2中の「補足ルール」については3.6節で述べる).\begin{table}[htbp]\begin{center}\caption{整合表}\label{tbl:table5}\begin{tabular}{ll}\hline敬語特徴パターンの各要素の値&上下関係\\\hline$s=0$&S$>subj$\\$s=1$&$subj>$S\\\hline$o=0$&S$>obj$\\$o=1$&$obj>$S\\\hline$e=0$&S$>$L\\$e=1$&L$>$S\\\hline$p=0$&S$>subj$$\wedge$S$>obj$\\$p=1$&$subj>obj$$\wedge$$subj>$S\\$p=2$&$obj>$S$>subj$(i.e.$obj>$S$\wedge$S$>subj$)\\\hline$p=1$or3&$obj>subj>$S(i.e.$obj>subj$$\wedge$$subj>$S)\\\hline\end{tabular}\end{center}\end{table}整合表(表5)は,部分的上下関係と,それに対応した文の敬語特徴パターンにおける特定の要素が持つべき値との間の対応を記したルールである.ここで``部分的上下関係''とは,発話に関わる人物のうち一部の人物の間の主観的上下関係を表したものであり,上下関係ラベルと同じ表記法で記される.例えば表5の$e=1$に関する行は,話者(S)より聞き手(L)の主観的上下関係が上の場合(L$>$S)には,文末は丁寧($e=1$)とする,というルールを表している.図1の例では,A($subj$)$>$B($obj$)$>$L$>$Sと$s=1$,$o=1$,$e=0$,$p=1$との整合性がチェックされる.この時,$sub>obj>$L$>$Sは$s=1$,$o=1$,$p=1$とは整合するが,L$>$Sと$e=0$は整合しない.従って,$e=0$に対応する文中の箇所(即ち文末)が運用上の誤用と判定される.尚,ユーザによる入力の便宜のため,上下関係ラベルは省略可能とした.この場合には,過去に入力された上下関係ラベルのうち最後の上下関係ラベルを用いることとした.\subsection{整合表の構築}整合表(表5)は,学習データに基づいて構築した.学習データの例を図3に示す.学習データの基本的な単位は本システムの入力と同じ形式のデータ,即ち上下関係ラベルと制約1〜3を満たす発話文のペアである(記号``:''は入力文と上下関係ラベルのセパレータ).学習データでは,発話に関わる人数を4名(S,L,A,B)に固定した.前述の通り,このときAが主語($subj$)でBが補語($obj$)のケースのみ想定される(Bが主語でAが補語のケースはこれと等価).\begin{figure}[htbp]\begin{center}\fbox{\begin{minipage}{80mm}\baselineskip=4mm\\AはBさんからお聞きしたそうです.:L$>$B$>$S$>$A\\AがBさんのところに伺いました.:L$>$B$>$S$>$A\\\end{minipage}}\caption{学習データの例}\label{fig:figure3}\end{center}\end{figure}発話文は,上下関係ラベルが表す人物間の上下関係に対応する文として規範的に正しいと考えられる文であり,具体的には日本語学に関する様々な文献\cite[等]{Ishino1986,Kabaya1998,Kikuchi1996,Kikuchi1997,Kokugoken1990,Kokugoken1992,Suzuki1984,Hoshino1993,Horikawa1969,Masuoka1989,Miyaji1999,Moriyama2000}において共通して明示的あるいは暗示的に述べられていると解釈できる規範に基づいて我々が作成した.上下関係ラベルのバリエーションはS,L,A,Bの間の全ての上下関係バリエーション(即ち,4!=24通り)である.各々の上下関係ラベルに対し,発話文を12個ずつ作成した.従って,学習データの総数は288個(=24×12)である.このようにして作った学習データに対して,以下の手続きによって整合表を構築した.この手続きは人手で行った.\bigskip[整合表構築手続き]\begin{description}\item[(Step1)]学習データにおける各々のペア:{上下関係ラベル,発話文}において,発話文の敬語特徴パターンを求め,その発話文とペアとなっていた上下関係ラベルとの間でペアを作る.敬語特徴パターンは3.4節と同様の手順,即ち発話文の形態素解析,文構造解析を行い,更に敬語タイプ辞書(表2),及び敬語特徴パターンの各要素の定義(表3)を用いることにより求める.\item[(Step2)]24種類の上下関係ラベルの各々に関し,以下を行う.\\Step1で得たペア:{上下関係ラベル,敬語特徴パターン}(計288個)の中からその上下関係ラベルとペアになっている敬語特徴パターンの全ての種類をリストアップする.\item[(Step3)]全ての上下関係ラベルに関しStep2で得られたリストをまとめて一つの表にする.ここで,一つの上下関係ラベルに複数の敬語特徴パターンが対応する場合は,同じ行の異なる列に記す(このようにして得られた表が表6).\item[(Step4)]敬語特徴パターンの要素$s$,$o$,$e$,$p$の各々に関し,以下を行う.\item[(Step4-1)]注目している要素の各々の値に関し,Step3で得られた表(表6)においてこの値を含む敬語特徴パターンに対応する全ての上下関係ラベルをピックアップしてひとまとまりのグループにする.ただし要素pに関しては,表6においてpの値だけが異なるような二つの敬語特徴パターンを持つ上下関係ラベル,即ちL$>$B$>$A$>$S,B$>$A$>$L$>$S,B$>$L$>$A$>$S,B$>$A$>$S$>$Lをひとまとまりのグループにした後,$p=$0,1,2の各々についてこの処理を行う.\item[(Step4-2)]Step4-1で得られた各グループにおいて,同じグループに含まれる上下関係ラベルの全てに共通し,かつ異なるグループに含まれるいかなる上下関係ラベルとも共通しないような特徴(部分的上下関係)を見つける.これには,カルノー図(Karnaugh1953)を用いて冗長な論理式から簡潔な論理式を導く方法と同様の方法を用いる.\item[(Step5)]敬語特徴パターンの全ての要素に関して得られた部分的上下関係をまとめて一つの表にする.\item[(Step6)]表中のAを$subj$,Bを$obj$に置き換える(このようにして得られた表が表5).\end{description}\begin{table}[htbp]\begin{center}\caption{上下関係ラベルと敬語特徴パターンの対応表}\label{tbl:table6}\begin{tabular}{lll}\hline\multicolumn{1}{c}{上下関係ラベル}&\multicolumn{1}{c}{$s$$o$$e$$p$}&\multicolumn{1}{c}{$s$$o$$e$$p$}\\\hlineS$>$L$>$A$>$B&0000&\\S$>$L$>$B$>$A&0000&\\S$>$A$>$L$>$B&0000&\\S$>$A$>$B$>$L&0000&\\S$>$B$>$L$>$A&0000&\\S$>$B$>$A$>$L&0000&\\L$>$S$>$A$>$B&0010&\\L$>$S$>$B$>$A&0010&\\L$>$A$>$S$>$B&1011&\\L$>$A$>$B$>$S&1111&\\A$>$B$>$L$>$S&1111&\\A$>$L$>$B$>$S&1111&\\L$>$B$>$S$>$A&0112&\\B$>$L$>$S$>$A&0112&\\L$>$B$>$A$>$S&1111&1113\\B$>$A$>$L$>$S&1111&1113\\B$>$L$>$A$>$S&1111&1113\\A$>$B$>$S$>$L&1101\\A$>$S$>$B$>$L&1001&\\A$>$S$>$L$>$B&1001&\\A$>$L$>$S$>$B&1011&\\B$>$A$>$S$>$L&1101&1103\\B$>$S$>$A$>$L&0102&\\B$>$S$>$L$>$A&0102&\\\hline\end{tabular}\end{center}\end{table}例えば,表5の$s=0$,及び$s=1$に対応する行は以下のようにして得られる.まずStep1〜Step3で表6が得られる.次にStep4で$s$に注目し,Step4-1において,$s=0$に対応する上下関係ラベルのグループ:S$>$L$>$A$>$B,S$>$L$>$B$>$A,S$>$A$>$L$>$B,S$>$A$>$B$>$L,S$>$B$>$L$>$A,S$>$B$>$A$>$L,L$>$S$>$A$>$B,L$>$S$>$B$>$A,L$>$B$>$S$>$A,B$>$L$>$S$>$A,B$>$S$>$A$>$L,B$>$S$>$L$>$A及び$s=1$に対応する上下関係ラベルのグループ:L$>$A$>$S$>$B,L$>$A$>$B$>$S,A$>$B$>$L$>$S,A$>$L$>$B$>$S,L$>$B$>$A$>$S,B$>$A$>$L$>$S,B$>$L$>$A$>$S,A$>$B$>$S$>$L,A$>$S$>$B$>$L,A$>$S$>$L$>$B,A$>$L$>$S$>$B,B$>$A$>$S$>$Lが得られる.次にStep4-2によって,$s=0$に対応する部分的上下関係:S$>$A,及び$s=1$に対応する部分的上下関係:A$>$Sが得られる.最後にAを$subj$に置き換えることにより,$s=0$に対応する部分的上下関係:S$>$$subj$,及び$s=1$に対応する部分的上下関係:$subj$$>$Sが得られる.\bigskip整合表の妥当性を検証するため,テストデータを用いた実験を行った.テストデータは整合表の構築に用いた学習データと同じ文献を用い,同じ要領で作成した.即ちテストデータでは,発話に関わる人数を4名(S,L,A,B)に固定し,上下関係ラベルのバリエーションを24通りとした.各々のバリエーションに関し,正例(上下関係ラベル+規範的な文),負例(上下関係ラベル+非規範的な表現を含む文)をそれぞれ6個ずつ作成した.従って,正例,負例の総数はいずれも144個である.これらのテストデータをシステムに入力したところ,全ての正例に対してシステムは``正しい''と判定し,全ての負例に対して``誤用''と判定した(誤用の箇所,種類も正しく指摘).この結果は,本研究の枠組み(敬語の規範に関する考え方,発話状況の取り扱い,及び対象とする文に関する制約)の下で,発話に関わる人物が4名(この時,Aが主語かつBが補語,あるいはBが主語かつAが補語)の場合には,敬語運用上の規範を整合表(表5)が過不足なく表していることを示唆する.また3.1節で述べたように,発話に関わる人物が3名(S,L,A)の場合は,Aは主語あるいは補語のいずれかになるが,この時SやLが主語や補語になるケースがある.また発話に関わる人物が2名(S,L)の場合は,Sが主語でLが補語のケース,及びLが主語でSが補語のケースがある.従って,整合表(表5)がこのようなケースでも有効に機能するようにするため,整合表の補足ルールを導入した.そして整合表と補足ルールが,発話に関わる人数,及び主語・補語のあらゆるバリエーションについて妥当か否かについての検証を行った.以下ではこれらについて述べる.\subsection{補足ルール}前述の通り,発話に関わる人物が4名の場合は,話者(S)や聞き手(L)が主語($subj$)や補語($obj$)になる状況は想定しないが,発話に関わる人物が2名,及び3名の場合はSやLが主語や補語になる場合がある.特にSが主語あるいは補語になる場合には,整合表(表5)における敬語特徴パターンの要素$s$,$o$,及び$p$に対応する上下関係が``$subj$$>$$subj$''や``$obj$$>$$obj$''となるケースが生じるため整合表をそのまま用いることができない.このためこのようなケースでは,``$subj$$>$$subj$''や``$obj$$>$$obj$''の項を整合表から削除(この処理は,これらの項の真理値を真とした場合と等価)した上で,以下に述べる規範から直接導いたルール,及び規範に基づき整合表を修正して導いたルール(以下これらを``補足ルール''と総称する)を用いることとする.この規範は整合表の構築に用いた文献を参考にして設けたものであり,その基本的な考えは「発話に関わる人物間の上下関係によらず,話者自身を高めるような語は用いない\footnote{例えば,「俺様は」等は扱わない.}」ということである.これを具体的に記述すると,規範a:話者自身の敬称はつけない,規範b:話者が主語の時は尊敬語を用いない,規範c:話者が補語の時は謙譲語を用いない,ということになる.尚,補足ルールは整合表において$subj$や$obj$を含むルールに関連する特徴敬語パターンの要素(即ち,$s$,$o$,及び$p$)に対するルールであり,整合表において対応する上下関係に$subj$や$obj$を含まない要素eについては適用しない(即ち,$e$に関しては整合表を用いる).具体的に,補足ルールは以下のように導かれる.まずSが$subj$の時,規範aにより直接$s=0$(上下関係によらず)が導かれる.また$p$に関しては,規範bにより$p=1$,及び$p=3$がルール化の対象から除外され,更に整合表(表5)の``S$>subj$''の項を削除することにより,$p=0$(S$>obj$)/$p=2$($obj>$S)が得られる.尚,$o$は整合表通り$o=0$(S$>obj$)/$o=1$($obj>$S)である.一方Sが$obj$の時,規範aにより直接$o=0$(上下関係によらず)が導かれる.またpに関しては,まず整合表(表5)の中で論理値が偽となる上下関係が記述された行,即ち整合表の一番下の行(部分的上下関係は,$obj>subj$$\wedge$$subj>$S)をルール化の対象から除外する.次に規範cにより$p=2$がルール化の対象から除外され,更に``S$>obj$'',及び``$obj>$S''の項を削除することにより,$p=0$(S$>subj$)/$p=1$($subj>$S)が得られる.尚,$s$は整合表通り$s=0$(S$>subj$)/$s=1$($subj>$S)である.以上をまとめると,補足ルールは下記となる(整合表通りのルールは省略).\bigskip[補足ルール]\begin{enumerate}\itemSが$subj$の時\begin{itemize}\item$s=0$(上下関係によらず)\item$p=0$(S$>obj$)/$p=2$($obj>$S)\end{itemize}\itemSが$obj$の時\begin{itemize}\item$o=0$(上下関係によらず)\item$p=0$(S$>subj$)/$p=1$($subj>$S)\end{itemize}\end{enumerate}\bigskip\subsection{我々が作成したテストデータを用いた妥当性の検証}整合表と補足ルールを合わせた機能の妥当性を検証するため,テストデータを用いた実験を行った.テストデータは整合表の妥当性の検証に用いたテストデータと同様の方法で作成した.ただしここでは,発話に関わる人数を2名(S,L),3名(S,L,A),及び4名(S,L,A,B)とし,それぞれの人数において,上下関係ラベル,及び主語・補語に関する全てのバリエーションを設定した.具体的には,人数が2名の場合は,上下関係ラベル2通り×主語・補語のバリエーション2通り=計4通り,人数が3名の場合は,上下関係ラベル6通り×主語・補語のバリエーション4通り(ここで,Aは主語あるいは補語)=計24通り,人数が4名の場合は,上下関係ラベル24通りとした(Aは主語,Bは補語に固定).各々のバリエーションに関し,正例(上下関係ラベル+規範的な文),負例(上下関係ラベル+非規範的な表現を含む文)をそれぞれ5個ずつ作成した.従って,正例,負例の総数はいずれも260個である(正例,負例の一部を図4に示す).尚,文作成の際想定する発話意図として,複数の発話意図をあらかじめ用意した.\begin{figure}[htbp]\begin{center}\fbox{\begin{minipage}{80mm}\baselineskip=4mm\\(正例)\\SがLから聞いたんだよ.:S$>$L\\AがSに電話をかけてきたよ.:S$>$L$>$A\\AはBさんをご自宅までお送りした.:B$>$S$>$A$>$L\\(負例)\\SがLに電話をかけました.:S$>$L\\AさんはSにお写真を見せてくださった.:L$>$A$>$S\\AはBからお聞きしました.:L$>$S$>$B$>$A\\\end{minipage}}\caption{実験に用いた正例,負例の一部}\label{fig:figure4}\end{center}\end{figure}これらのテストデータをシステムに入力したところ,全ての正例に対してシステムは``正しい''と判定し,全ての負例に対して``誤用''と判定した(誤用の箇所,種類も正しく指摘).この結果は,整合表(表5),及び補足ルールの妥当性を示唆する. \section{システムの妥当性の検証} 本システムの妥当性(ただし,語形上の誤用に関する機能は主に語形誤り表現リストの適切さに依存するため,ここでは運用上の誤用に関する機能のみを対象とする)を更に検証するため,著者らの研究グループとは独立した日本語学の研究グループ(言語に関するデータ作成の専門機関に所属し,日本語学を主な専門とする研究グループであり,メンバは3〜5名)が作成したテストデータを用いた実験を行った.テストデータの作成に当たっては,様々な日本語学研究者の間で共通して述べられていると作業者が認識する敬語規範にできるだけ厳密に準拠し,3.7節で述べたテストデータと同じバリエーションに関し,3.1節の制約1〜3に従う発話文を記述するよう指示した.即ち,テストデータのバリエーションは,人数が2名の場合は4通り,人数が3名の場合は24通り,人数が4名の場合は24通りである.各々のバリエーションに関し,正例,負例はそれぞれ10〜12個ずつ作成された.正例,負例の総数はいずれも616個である.これらのテストデータをシステムに入力したところ,全ての負例に対し,システムは``誤用''と判定した(誤用の箇所,種類も正しく指摘).また,正例のうち587個(正例の約95%)に対し,システムは``正しい''と判定したが,残り29個(正例の約5%)については``誤用''と判定した.図5は,正例に対してシステムが``正しい''と判定した例である.\begin{figure}[htbp]\begin{center}\fbox{\begin{minipage}{35mm}\baselineskip=4mm\\入出力例:\\[入力]\\L$>$S$>$A\\SがAに言いました.\\\\[出力]\\判定:文は正しい\\\end{minipage}}\caption{正例を``正しい''と判定した例}\label{fig:figure5}\end{center}\end{figure}また,システムが負例の誤用を正しく指摘した例を図6に示す.図6の入出力例1では,尊敬語でも謙譲語でもない語(この例では,``言った''等)にすべき述語が謙譲語(この例では,\mbox{``お伝えした'')}であったため誤用と指摘されている.また入出力例2では,部分的上下関係がB$>$Sであるにも関わらずBの敬称がない,という誤用が指摘されている.\begin{figure}[htbp]\begin{center}\fbox{\begin{minipage}{65mm}\baselineskip=4mm\\入出力例1:\\[入力]\\S$>$A$>$L\\AがLにお伝えしたはずだよ.\\\\[出力]\\判定:誤用\\誤用の箇所:お伝えした\\誤用の種類:述語が謙譲語になっている\\\bigskip入出力例2:\\[入力]\\A$>$B$>$L$>$S\\AさんがBのところへいらっしゃいました.\\\\[出力]\\判定:誤用\\誤用の箇所:B\\誤用の種類:Bの敬称がない\\\end{minipage}}\caption{負例の誤用を正しく指摘した例}\label{fig:figure6}\end{center}\end{figure}システムによって``誤用''と判定された正例29個は以下3種類に分けられる(それぞれの種類に対応する3つの入出力例を図7に示す).(1)図7の入出力例1のように,人物の敬称はつけないことが整合表で期待される上下関係($subj$の敬称をつけないことが期待される上下関係はS$>subj$あるいはSが$subj$.また$obj$の敬称をつけないことが期待される上下関係はS$>obj$あるいはSが$obj$)において敬称がつけられていた(この例では,``Aさん'')正例は17個.(2)図7の入出力例2のように,尊敬語(例えば,``おっしゃる''等)あるいは二方面敬語(例えば,``お話しして下さる''等)の述語が期待される上下関係($obj>subj>$S)において述語が謙譲語(この例では,``申し上げる'')だった正例は6個.(3)図7の入出力例3のように,尊敬語でも謙譲語でもない述語(例えば,``説明する''等)が期待される上下関係(Sが$subj$でも$obj$でもない時はS$>subj$$\wedge$S$>obj$.Sが$subj$の時はS$>obj$.Sが$obj$の時はS$>subj$)において述語が謙譲語(この例では,``説明いたす'')だった正例は6個.この6個はいずれも部分的上下関係がL$>$S(即ち,話者より聞き手の主観的上下関係が上)のケースであった\begin{figure}[htbp]\begin{center}\fbox{\begin{minipage}{65mm}\baselineskip=4mm\\入出力例1:\\[入力]\\S$>$L$>$A\\SがAさんに言ったんだ.\\\\[出力]\\判定:誤用\\誤用の箇所:Aさん\\誤用の種類:Aに不要な敬称がある\\\bigskip入出力例2:\\[入力]\\L$>$A$>$S\\AさんがLさんに申し上げました.\\\\[出力]\\判定:誤用\\誤用の箇所:申し上げる\\誤用の種類:述語が謙譲語になっている\\\bigskip入出力例3:\\[入力]\\L$>$S$>$A\\SがAに説明いたしました.\\\\[出力]\\判定:誤用\\誤用の箇所:説明いたす\\誤用の種類:述語が謙譲語になっている\\\end{minipage}}\caption{正例を``誤用''と判定した例}\label{fig:figure7}\end{center}\end{figure}\bigskip以上の結果のうち(1)は特に女性が用いる傾向がある丁寧な用法であり,一概には非規範的と決めつけることはできないと考えられる.(2)は,謙譲語として妥当な運用法であるとする解釈がある(例えば,国語研1992).また(3)は聞き手への丁重さを表すための表現であり,「主語を低める」という,いわゆる謙譲語の用法とは異なる用法(``丁重語''等と呼ばれることがある)として一般的になりつつあるが,今回は最も基本的と考えられる敬語の用法のみを対象としたため,このような表現を適切に取り扱えなかったものと考えられる.以上から,著者らの研究グループとは独立した日本語学の研究グループが作成したテストセットを用いた場合でも,本システムは概ね妥当な出力を行うことが確認された.ただし,一部の表現に対してはより詳細な取り扱いが必要であることが示唆された. \section{むすび} 日本語発話文,及び発話に関わる人物間の主観的上下関係を表すラベルを入力とし,入力された日本語発話文における誤用の有無,及び誤用が含まれる場合にはその箇所と種類を出力するシステムを開発した.本システムは,敬語における主要な2種類の誤用,即ち語形上の誤用,及び運用上の誤用の両方を指摘することができる.また発話に関わる人数としては,2名,3名,及び4名を取り扱うことができる.正例,及び負例を用いた実験によってシステムの妥当性を検証したところ,一部のケースを除き,本システムが妥当な出力を行うことが確認できた.本システムの構築に当たっては,日本語学に関する様々な文献において共通して明示的あるいは暗示的に述べられていると解釈できる規範にできるだけ厳密に準拠するよう心がけた.本システムは,日本語を勉強中の外国人や日本の子供が敬語の最も基本的な知識を学習するためのツールとして有用であると考えられる.またこのような人々に限らず,語形上の誤用をチェックすることのできる本システムの機能は,文書作成における敬語の語形のケアレスミスをチェックする等の用途として幅広く活用できると考えられる.一方,本システムで用いている整合表と補足ルールが表す敬語規範は,実際の社会で運用されている敬語規範に比べ,概して厳しい可能性がある.従って,より実用的な観点からは,社会言語学的調査等によって実際の運用を反映した整合表と補足ルールを獲得し,現在用いているものとの間で適宜使い分ける,あるいは両者を何らかの形で融合することが望ましいと考えられる.また実際の場面では,発話に関わる人物間の主観的上下関係がない(即ち,社会的地位が等しいと見なされる)ような状況がしばしば生じる.実用的な観点からは,このような状況に対処するルールの追加が必要であると考えられる.更に敬語学習の便宜のためには,誤用の指摘だけでなく正しい表現の候補を例示することが望ましい.このためには,発話意図や文としての自然さを損なわないような表現の選択法等を検討する必要があると考えられる.今後は,以上の課題の検討,機能拡張を行うことによって,より実用的なシステムの構築を目指す.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Brown}{Brown}{1987}]{Brown1987}Brown,P.\BBACOMMA\\BBA\Levinson,S.\BBOP1987\BBCP.\newblock{\BemPoliteness-Someuniversalsoflanguageusage-}\newblock{Cambridge.}\bibitem[\protect\BCAY{Karnaugh}{Karnaugh}{1953}]{Karnaugh1953}Karnaugh,M.\BBOP1953\BBCP.\newblock\BBOQTheMapMethodforSynthesisofCombinationalLogicCircuits\BBCQ\\newblock{\BemTrans.AIEE},{\Bbf72}(9).\bibitem[\protect\BCAY{石野}{石野}{1986}]{Ishino1986}石野博史\BBOP1986\BBCP.\newblock\JBOQ敬語の乱れ—誤用の観点から—\JBCQ\newblock文化庁「ことば」シリーズ24続敬語.\bibitem[\protect\BCAY{蒲谷,川口,坂本}{蒲谷}{1998}]{Kabaya1998}蒲谷宏,川口義一,坂本惠\BBOP1998\BBCP.\newblock\JBOQ敬語表現\JBCQ\\newblock大修館書店.\bibitem[\protect\BCAY{菊池}{菊池}{1997}]{Kikuchi1997}菊地康人\BBOP1997\BBCP.\newblock\JBOQ敬語\JBCQ\\newblock講談社.\bibitem[\protect\BCAY{菊池}{菊池}{1996}]{Kikuchi1996}菊地康人\BBOP1996\BBCP.\newblock\JBOQ敬語再入門\JBCQ\\newblock丸善ライブラリー.\bibitem[\protect\BCAY{国語審議会}{国語審議会}{1952}]{Kokugoshingikai1952}国語審議会\BBOP1952\BBCP.\newblock\JBOQこれからの敬語\JBCQ\\newblock文部大臣に対する建議.\bibitem[\protect\BCAY{国語研}{国語研}{1990}]{Kokugoken1990}国立国語研究所\BBOP1990\BBCP\newblock\JBOQ日本語教育指導参考書17敬語教育の基本問題(上)\unskip\JBCQ\\newblock大蔵省印刷局.\bibitem[\protect\BCAY{国語研}{国語研}{1992}]{Kokugoken1992}国立国語研究所\BBOP1992\BBCP\newblock\JBOQ日本語教育指導参考書18敬語教育の基本問題(下)\unskip\JBCQ\\newblock大蔵省印刷局.\bibitem[\protect\BCAY{鈴木,林}{鈴木}{1984}]{Suzuki1984}鈴木一彦,林巨樹編\BBOP1984\BBCP\newblock\JBOQ研究資料日本文法9敬語法編\JBCQ\\newblock明治書院.\bibitem[\protect\BCAY{林,南}{林}{1973}]{Hayashi1973}林四郎,南不二男編\BBOP1973\BBCP\newblock\JBOQ敬語講座6現代の敬語\JBCQ\\newblock明治書院.\bibitem[\protect\BCAY{林,南}{林}{1974}]{Hayashi1974}林四郎,南不二男編\BBOP1974\BBCP\newblock\JBOQ敬語講座1敬語の体系\JBCQ\\newblock明治書院.\bibitem[\protect\BCAY{林,南}{林}{1974}]{Hayashi1974}林四郎,南不二男編\BBOP1974\BBCP\newblock\JBOQ敬語講座8世界の敬語\JBCQ\\newblock明治書院.\bibitem[\protect\BCAY{文化庁}{文化庁}{1999}]{Bunkacho1999}文化庁文化部国語課\BBOP1999\BBCP\newblock\JBOQ世論調査報告平成10年度国語に関する世論調査−敬語・漢字・外来語−\JBCQ\\newblock文化庁.\bibitem[\protect\BCAY{星野,丸山}{星野}{1993}]{Hoshino1993}星野和子,丸山直子編\BBOP1993\BBCP\newblock\JBOQ日本語の表現\JBCQ\\newblock圭文社.\bibitem[\protect\BCAY{堀川,林}{堀川}{1969}]{Horikawa1969}堀川直義,林四郎\BBOP1969\BBCP\newblock\JBOQ敬語用例中心ガイド\JBCQ\\newblock明治書院.\bibitem[\protect\BCAY{益岡,田窪}{益岡}{1989}]{Masuoka1989}益岡隆志,田窪行則\BBOP1989\BBCP\newblock\JBOQ基礎日本語文法−改訂版−\JBCQ\\newblockくろしお出版.\bibitem[\protect\BCAY{南}{南}{1987}]{Minami1987}南不二男\BBOP1987\BBCP\newblock\JBOQ敬語\JBCQ\\newblock岩波書店.\bibitem[\protect\BCAY{宮地}{宮地}{1999}]{Miyaji1999}宮地裕\BBOP1999\BBCP\newblock\JBOQ敬語・慣用句表現論−現代語の文法と表現の研究(二)−\JBCQ\\newblock明治書院.\bibitem[\protect\BCAY{森山}{森山}{2000}]{Moriyama2000}森山卓郎\BBOP2000\BBCP\newblock\JBOQここからはじまる日本語文法\JBCQ\\newblockひつじ書房.\bibitem[\protect\BCAY{渡辺}{渡辺}{1971}]{Watanabe1971}渡辺実\BBOP1971\BBCP\newblock\JBOQ国語構文論\JBCQ\\newblock塙書房.\end{thebibliography}\begin{biography}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V13N03-09
\section{はじめに} \label{sec:hajimeni}\subsection{背景}インターネットの普及により,インターネット上に膨大でかつ多種多様なテキスト情報が蓄積されるようになって久しい.インターネット上の膨大なテキスト情報を扱うための技術として,テキスト検索,自動要約,質問応答等さまざまな知的情報アクセス技術に関する研究が活発化しているが,同様にインターネット上の多様なテキスト情報のうち,これまであまり研究対象とされてこなかったものを扱うための技術も研究が活発化してきている.これまで研究対象とされてきたテキスト情報は,新聞記事,学術論文に代表されるように,事実を記述するものがほとんどであった.それに対し,チャット,Web掲示板,Weblog等の普及,利用者の増大に示されるように,インターネット上では,一般の個人が手軽に情報発信できる環境が整うとともに,個人の発信する情報に,ある対象に関するその人の評価等,個人の意見が多数記述されるようになってきている.この個人の評価に関する情報(\textbf{評価情報})をテキスト中から抽出し,整理し,提示することは,対象の提供者である企業やサイト運営者,また,対象を利用する立場の一般の人々双方にとって利点となる.このため,自然言語処理の分野では,近年急速に評価情報を扱う研究が活発化している.2004年春にはAAAIのシンポジウムとして評価情報を扱う最初の会議が開催された\cite{aaai2004a}.国内でも,2004年度の言語処理学会年次大会では,評価情報の抽出に関連する研究報告が数多く見られた.そこで本解説論文では,テキストから評価情報を発見,抽出および整理,集約する技術について,その基盤となる研究から最近の研究までを概説することを目的とする.上述したように,この研究領域ではここ数年で爆発的に研究が増大しているが,それらの研究を体系的に整理,概説する解説論文はいまだなく,研究の現状,あるいは今後の方向性を見極めるのに研究者が苦労しているのが現状である.本解説論文がその一助となれば幸いである.\subsection{テキスト評価分析とは?--本論文で扱う問題領域--}個人の記述する「意見」と言われるものにはさまざまなものが存在する.意見を下位分類するなら,少なくとも以下のようなものがその範疇に含まれることになる.\begin{itemize}\item評価を記述するもの,\item要望,要求,提案の表明,\item不安,懸念,不満,満足等の感情を表すもの,\item認識,印象を述べるもの,\item賛否の表明.\end{itemize}本解説論文では,このうち「評価を記述するもの」を対象とする研究を主に扱う.この分野でのこれまでの研究の多くは,以下の問題を解いているという風に要約できる:\begin{quote}\tab{example1}のような,ある対象の評価を記述しているテキスト断片に対して,その評価が,肯定的な評価(たとえば「良い」)であるか,あるいは,否定的な評価(例えば「悪い」)であるかを推定する.\end{quote}本稿では,このような評価に関する分析を{\bfテキスト評価分析}と呼び,{\bfテキスト評価分析}を取り巻く諸研究の現状を紹介する.この問題は,もう少し具体的には,肯定的な評価/否定的な評価の2値分類として定式化されることが多い.また,問題は,テキスト断片の粒度によって,次の3つに大別できる.\begin{itemize}\item語句レベル\item文レベル\item文書レベル\end{itemize}例えば,\tab{example1}は文レベルでの2値分類である.言うまでもなく,このテキスト断片の粒度ごとに問題の性質は大きく異なる.それぞれの詳細については,\sec{aa}で述べる.\begin{table}[t]\begin{center}\caption{評価を伴うテキスト例}\label{tab:example1}\cite{morinaga2002a}中のTable1から一部を抜粋して再録.\input{tab-example1.tex}\end{center}\end{table}\subsection{用語の整理}背景思想の違いの影響などもあり,テキスト評価分析で利用される用語は各研究者間で統一されているとは言い難い.そのため,しばしば同一概念が論文間において異なった用語で参照されている.本稿では,個人の評価に関する情報を\textbf{評価情報},評価情報の良い/悪いに関する軸を\textbf{評価極性}と呼ぶ.ある評価情報が良い評価をもつことを\textbf{肯定極性}をもつと呼び,逆に悪い評価をもつことを\textbf{否定極性}をもつと呼ぶ.また,肯定極性か否定極性をもつ評価情報がテキスト内で記述された表現を\textbf{評価表現}と呼ぶ.\tab{yougo}に,本稿での用語に対応する,紹介論文において使用される代表的な用語を示す.\tab{yougo}の\textbf{評価極性値}とは,肯定極性と否定極性の間を連続的に捉え,各評価極性の強さを数値化したものである.評価極性値は,[-1,1]の範囲の実数値として与え,正側が肯定極性,負側が否定極性に割り当てられることが多い.\begin{table}[b]\begin{center}\caption{用語の対応}\label{tab:yougo}\begin{tabular}{c|l}\hline\hline本稿での用語&紹介論文において使用される代表的な表現\\\hline{\bf評価情報}&sentiments,~~affectpartsofopinions,~~reputation,~~評判\\{\bf評価極性}&semanticorientations,~~polarity,~~sentimentpolarity\\{\bf肯定極性(肯定)}&positive,~~thumbsup,~~favorable,~~desirable,~~好評\\{\bf否定極性(否定)}&negative,~~thumbsdown,~~unfavorable,~~undesirable,~~不評\\{\bf評価極性値}&semanticorientationscore,~~SO-score\\{\bf評価表現}&sentimentexpression,~~wordwithsentimentpolarity\\\hline\end{tabular}\end{center}\end{table}\subsection{本論文の構成}本論文の構成は以下の通りである.まず,\sec{daizai}では,テキスト評価分析の題材となるテキストデータについて述べる.\sec{aa}では,テキスト評価分析を支える各要素技術に関する諸研究を紹介する.続く\sec{appl}では,テキスト評価分析の応用研究を紹介し,\sec{kanren}で,テキスト評価分析に関連するその他の話題を紹介する.最後に,\sec{kadai}で,テキスト評価分析で今後取り扱うべき課題を述べ,\sec{owarini}で本論文をまとめる. \section{テキスト評価分析の題材となるテキストデータ} \label{sec:daizai}\sec{hajimeni}で述べたように,この研究領域が活発化することになった1つの要因は,インターネット上に,対象となるテキスト集合が豊富に蓄積されるようになったことが挙げられる.しかし,評価分析の題材となるテキストは,Web上にしか存在しないわけでもないし,Web上に蓄積される以前には存在しなかったわけでもない.アンケート調査等における自由回答アンケートのテキストや,企業等のカスタマーサポートセンターに蓄積されている「お客様の声」等は,まさに評価分析の題材として以前から分析の対象となっていた.評価分析の題材となるテキストは,大きく次の2つに分類することができる.\begin{itemize}\item意見の収集,集約が目的となっているテキスト\begin{itemize}\item社会調査等による自由回答アンケート\itemカスタマーサポートセンターにおける「お客様の声」\itemレビュー(以下は,テキスト評価分析で利用される代表的なレビューサイト)\begin{itemize}\itemRotten~Tomatoes(\url{http://www.rottentomatoes.com/})\itemEpinions.com(\url{http://www.epinions.com/})\itemAmazon.com(\url{http://www.amazon.com/})\itemAmazon.co.jp(\url{http://www.amazon.co.jp/})\end{itemize}\end{itemize}\item潜在的に意見を含むテキスト\begin{itemize}\itemチャット\itemWeb掲示板\itemWeblog\end{itemize}\end{itemize}前者は,まさにユーザ(個人)に意見を述べてもらうことを目的にして収集されたテキストである.そのため,テキスト中に意見が含まれる割合は比較的大きく,また,テキストの性質としても,ユーザが書いたものを校正したりしている場合等もあり,比較的良質であることが多い.さらに,意見の対象となっている内容が特化されており,話題が限定的であることも多い.一方,潜在的に意見を含むテキストでは,テキスト中の意見部分の割合は前者に比べると小さくなり,また,Web上のテキストであるチャットや掲示板内の記述は,言語処理の精度が著しく劣化する可能性があるほど,テキストとしては質が悪いことが多い.Weblogのテキストは,それらに比べれば,比較的テキストの性質は良いと言える.また,テキストの内容は,掲示板の一部で話題をスレッドごとに限定している場合を除けば,テキスト中で雑多なことを記述している可能性が高いと言える.本稿では,このような性質をもつ一連のテキストデータを合わせて\textbf{評価文書}と呼び,評価文書から評価情報を抽出し,整理し,あるいは提示する技術について紹介していく. \section{テキスト評価分析の要素技術に関する諸研究} \label{sec:aa}テキスト評価分析を支える要素技術に関する研究は,注目するテキスト断片の粒度によって次のように分けられる.\begin{itemize}\item評価表現辞書の構築に関する諸研究(\sec{se})\item評価情報を観点とした文書分類に関する諸研究(\sec{dc})\item評価情報を含む文の抽出に関する諸研究(\sec{sc})\item評価情報の要素組の抽出に関する諸研究(\sec{ie})\end{itemize}各要素技術の関係を\fig{zentai}に示す.また,各要素技術で用いられる手法の概観を\tab{gaikan}にまとめる.\begin{figure}[b]\begin{center}\includegraphics[width=7cm]{fig-zentai.eps}\caption{テキスト評価分析の要素技術間の関係}\label{fig:zentai}\end{center}\end{figure}\sec{se}で述べる評価表現辞書とは,評価表現とその表現がもつ評価極性の組(例:「良い−肯定」)の集合である.この辞書はその他の要素技術において基礎的な知識として利用される.\sec{dc}から\sec{ie}までの残りの話題では,それぞれ文書,文,要素組という単位で評価情報とその評価極性を求める課題を主に扱う.\sec{ie}で述べる評価情報の要素組の抽出に関する研究では,文書や文より細かい語句単位の粒度で評価情報を扱う.いずれの研究も互いに関連をもっているが,特に,\sec{se}と\sec{ie}で扱う話題はいずれも語句レベルの話題であるという点で似ている.しかし,\sec{se}での話題は文脈情報とは独立な単語単体の評価極性に焦点が当たっているが,\sec{ie}では実際の文脈情報を含めた評価極性に焦点が当たっている点に注意して読み進めてほしい.\subsection{評価表現辞書の構築に関する諸研究}\label{sec:se}評価表現辞書とは,評価表現とその表現がもつ評価極性の組(例:「良い−肯定」)の集合である.評価表現辞書の構築に関する研究は,構築に主に利用する情報によって,大きく3つに分けられる.以下,順に紹介する.\begin{itemize}\item語彙ネットワークを利用した手法(\sec{lex_net})\item共起情報を利用した手法(\sec{cooc})\item周辺文脈の情報を利用した手法(\sec{bootstrap})\end{itemize}\subsubsection{語彙ネットワークを利用した手法}\label{sec:lex_net}語彙ネットワークを利用した評価表現辞書構築の手法は,既存の語彙知識の情報を利用して,評価表現の評価極性を求める.もう少し具体的には,まず,シソーラスや国語辞書の情報を基にして,語彙をノードとする語彙ネットワークを用意する.そして,評価極性情報をネットワーク上で伝播させることによって,語彙ネットワーク中のすべてのノード(語彙)の評価極性を求める.\phantom{\cite{kamps2004a}}ここではまず,\cite{kamps2004a}と\cite{hu2004a}の研究を紹介する.これらの研究は,いずれも,「類義関係にある語彙の評価極性は一致しやすい」という仮定に基づいてアルゴリズムが構成されている.\vspace{1em}\underline{\textbf{\cite{kamps2004a}}}\vspace{1em}Kampsetal.\cite{kamps2004a}は,WordNet\cite{fellbaum1998a}の情報を利用して形容詞の評価極性を判定する手法を提案している.WordNet中の形容詞は,類義関係(synonymy)のリンクで結ばれ,ネットワーク構造を成している.Kampsらは,このネットワーク内の隣接情報を利用する.Kampsらの基本的なアイデアは,まず,肯定極性を代表する語と否定極性を代表する語と選定する.彼らの評価実験では,「good」と「bad」をそれぞれ選んでいる.そして,評価極性を判定したい形容詞$t$がネットワーク内において「good」と「bad」のどちらに近いかを考え,「good」に近ければ$t$を肯定極性とみなし,逆に「bad」に近ければ$t$を否定極性とみなす.具体的には,形容詞$t$の評価極性値$SO$-$score(t)$は,次の式で求められる;\begin{equation}SO\textrm{-}score(t)=\frac{{\sfd}(t,{\rmbad})-{\sfd}(t,{\rmgood})}{{\sfd}({\rmgood},{\rmbad})}.\end{equation}\begin{landscape}\begin{table}[p]\begin{center}\caption{テキスト評価分析を支える要素技術の概観}\label{tab:gaikan}\input{tab-gaikan.tex}\end{center}\end{table}\end{landscape}ここで,${\sfd}(t_{i},t_{j})$は,2つの形容詞($t_{i}$と$t_{j}$)間の最短経路長を示す.この式のもとで,$SO$-$score(t)$の値が正であれば肯定極性であると判定し,負であれば否定極性であると判定する.\vspace{1em}\underline{\textbf{\cite{hu2004a}}}\vspace{1em}Huetal.\cite{hu2004a}もWordNetを使用して形容詞の評価極性を判定する手法を提案している.Huらは,Kampsらが注目していた類義関係の情報に加え,反義関係(antonymy)の情報も利用している.Huらの手法では,まず,少数の,評価極性が既知である語集合(Huらの評価実験では30語)を種表現として用意する.そして次に,種表現から出発し,順番にWordNet内の類義関係と反義関係を辿る.この時,類義関係を辿った場合は類義関係の辿り元にある形容詞と同じ評価極性を割り当て,反義関係を辿った場合は反義関係の辿り元にある形容詞と逆の評価極性を割り当てる.この操作を辿り先がなくなるまで繰り返すことで,WordNet内の形容詞の評価極性を求めた.\vspace{1em}以上の2つの研究は,共に形容詞に注目している.WordNet内に含まれる形容詞以外の評価表現の分布については,\cite{strapparava2004a}が参考になる.次に,WordNetではなく,コーパスから語彙ネットワークを作成している\cite{hatzivassiloglou1997a}の手法を紹介する.\vspace{1em}\underline{\textbf{\cite{hatzivassiloglou1997a}}}\vspace{1em}Hatzivassiloglouetal.\cite{hatzivassiloglou1997a}は,コーパス中の接続詞の情報を手がかりにして語彙ネットワークを構築し,そこから形容詞の評価極性を判定する手法を提案した.これは「順接関係の接続詞で結ばれる形容詞は同じ評価極性をもつ.逆に,逆接関係の接続詞で結ばれる形容詞は異なる評価極性をもつ」という考え方に基づいた手法である.まず,コーパスから「形容詞-接続詞-形容詞」という品詞の並びをもつ語系列を抽出する.そして,形容詞をノードとし,語系列内の2つの形容詞の間にリンクを張ることで語彙ネットワークを作成する.この時,リンクには,接続詞のタイプ情報などを利用して,リンクが結んでいる2つの形容詞の評価極性が一致するか否かに関する情報が同時に付与される.例えば,接続詞が「and」であれば評価極性が一致,「but」であれば評価極性が不一致という情報をリンクに付与する.次に,クラスタリング・アルゴリズムを用いてノードをまとめ上げることによって,語彙ネットワークを2つのグループに分割する.この時,片方のグループには肯定極性となる形容詞,もう片方のグループには否定極性となる形容詞が入るようにクラスタを構成する.そして,最終的に各グループの評価極性を定めることで,語彙ネットワーク内の全ての形容詞の評価極性を求める.\vspace{1em}ここまでに紹介した3つの辞書獲得手法は,いずれも語彙ネットワーク内の局所的な情報から新たな評価極性を決定しており,語彙ネットワーク全体の情報を十分に活用できていない.Takamuraetal.\cite{takamura2005a}は,この問題点に対し,spinglass\cite{chandler1987a,mackay2003a,inoue2001a}の枠組みを利用することによって,語彙ネットワーク全体の大域的な情報を活用するモデルを提案している.また,Takamuraらは,先行研究での知見から,語彙ネットワークの作成でも工夫を凝らしており,国語辞書の情報をベースにして,シソーラス,コーパスの情報を加えた語彙ネットワークを作成している.国語辞書の情報を評価極性辞書構築に利用するという着想自体は\cite{kobayashi2001a}が初めに提案したものである.\subsubsection{共起情報を利用した手法}\label{sec:cooc}共起情報を利用した評価表現辞書構築の手法では,肯定極性をもつ典型的な表現(「good」や「excellent」)と否定極性をもつ典型的な表現(「bad」や「poor」)を種表現として始めに用意しておき,種表現と共起する比率に従って語句の評価極性を判定する.この手法は「肯定極性をもつ語句の周辺文脈には肯定極性をもつ語句が現れやすく,否定極性をもつ語句の周辺文脈には否定極性をもつ語句が現れやすい」という考え方に基づく.先のHatzivassiloglouらの手法でも「形容詞-接続詞-形容詞」という共起情報が利用されていたが,そこでは,共起情報は語彙ネットワークを通して,間接的に形容詞の評価極性の判定に利用された.ここでは,より直接的に共起情報を単語の評価極性に反映させる\cite{turney2002a}の手法を紹介する.\vspace{1em}\underline{\textbf{\cite{turney2002a}}}\vspace{1em}Turney\cite{turney2002a}は,コーパスから得られる共起情報を利用して語句の評価極性値を判定した.この手法は,国語辞書の見出し語や,WordNetのエントリ情報を利用しないため,見出し語単位やエントリ単位だけでなく,複数語からなる句に対しても評価極性値を判定できる.ある評価表現$\textit{t}$の評価極性値$SO$-$score(t)$は\eq{turney1}で算出される;\begin{equation}\label{eq:turney1}SO\textrm{-}score(\textit{t})=PMI(\textit{t},\textrm{``excellent''})-PMI(\textit{t},\textrm{``poor''}).\end{equation}ここで,PMI(pointwisemutualinformation)\cite{church1989a}は,2つの語句間の共起を測る尺度であり,任意の語句\textit{a},\textit{b}の間のPMIは,\begin{equation}\label{eq:turney2}PMI(a,b)=\log_{2}\frac{p(a,b)}{p(a)p(b)}\end{equation}で計算される.つまり,評価極性値を判定したい語句\textit{t}が肯定極性を示す代表的な語「excellent」と共起しやすければ,$SO$-$score({\textitt})$は正に大きい値をとり,否定極性を示す代表的な語「poor」と共起しやすければ,逆に負に傾く.Turneyの手法は,国語辞書やシソーラスなどの言語資源を一切必要としないため手軽さがあるが,信頼性の高い共起情報を得るには巨大なコーパスを必要とすることに注意しなければならない.元論文では,WorldWideWeb空間の文書全体をコーパスと見立て,検索エンジンを用いて語句\textit{a},\textit{b}間の共起情報$PMI(a,b)$を得ている.同一著者による\cite{turney2002b,turney2003a}では,\cite{turney2002a}の考えを推し進め,種表現を複数用いた手法や,PMIの代わりに潜在的意味解析(semanticlatentanalysis;LSA)\cite{deerwester1990a,landauer1997a}を用いた手法も検討している.\subsubsection{周辺文脈の情報を利用した手法}\label{sec:bootstrap}周辺文脈の情報を利用した評価表現辞書構築の手法では,まず,評価極性が既知である少数の種表現を幾つか用意する.そして,辞書構築アルゴリズムでは,繰り返し過程の中で,種表現から評価表現を順次増やしていくブートストラップ的な戦略をとる.一般に,ブートストラップ法では,注目している対象(ここでは評価表現)とその周辺文脈情報を交互に学習させる.現在までに,注目する周辺文脈情報の違いによって,幾つかの辞書構築手法が提案されている\cite{kobayashi2001a,inui2004a,nakayama2004a,kobayashi2005a}.多くの場合,周辺文脈には特定の言語パタンが想定される.ここでは,「文脈一貫性」という非常に汎用性の高い概念に基づいて周辺文脈を特定した\cite{nasukawa2004a}の手法を紹介する.\vspace{1em}\underline{\textbf{\cite{nasukawa2004a}}}\vspace{1em}那須川ら\cite{nasukawa2004a}は,評価表現の周辺文脈に関する以下の仮定に基づき,ブートストラップ的に評価表現を収集した.\begin{quote}「文書中に評価表現が存在すると,その周囲に評価表現の連続する文脈が形成されることが多く,その中では,明示されない限り,肯定/否定の極性が一致する傾向にある.」\end{quote}つまり,ある評価表現$t$の周辺文脈に注目した場合,「しかし」や「〜だが」などの逆接関係を導く表現が存在しなければ,文脈中にある評価表現の評価極性は$t$の評価極性と等しくなり,逆に,逆接関係を導く表現が存在すれば,それ以降の極性は$t$の極性から反転すると考える.まず,評価極性が既知である少数の評価表現を種表現として用意し,上記の仮定に従って,文書内からブートストラップ的に評価表現候補を収集する.複合的な評価表現に対応するため,用言と同時に,用言に最も近い格助詞句を加えた複合表現を評価表現候補として選んでいる.考慮する周辺文脈は,評価表現$t$と同一文内の節,前文の主節,後文の主節としている.種表現が「満足する−肯定」である場合に抽出される評価表現候補の例を\NUM{nasukawa_ex}に示す.\EXS{nasukawa_ex}{\itemデジタルカメラなど不要だと思っていました。ところが、画像がきれいで、とても\underline{満足し}ました。何も文句を言えません。\item評価表現候補;「奇麗だ−肯定」「奇麗だ<画像:が>−肯定」「不要だ−否定」「不要だ<デジタルカメラ:が>−否定」「言える−否定」「言える<文句:を>−否定」}この例では,「ところが」が逆接を導く表現である.「言える」「言える<文句:を>」が肯定極性ではなく否定極性となっているのは極性反転子(文末の「〜ません」)の効果による(極性反転子の詳細については,\sec{dc_ratio}のKennedyetal.\cite{kennedy2005a}の箇所で述べる).上記の評価表現候補の作成法では,実際には評価極性をもたない評価表現候補も多く登録してしまうことになる.そこで,そのような評価表現候補を最終的な評価表現として登録することを避けるために,ある一定の基準を満たす評価表現のみ評価表現辞書に登録する.基準には,評価表現の出現頻度情報や,各評価表現に対してアルゴリズムから求められた評価極性の割合の情報などが利用される.\subsubsection{まとめ}評価表現辞書の構築に関する研究を,語彙ネットワークを利用した手法(\sec{lex_net}),共起情報を利用した手法(\sec{cooc}),周辺文脈の情報を利用した手法(\sec{bootstrap})の3つに分類し,各手法の代表的な論文を紹介した.現在の状況では,各手法はそれぞれに欠点がある.語彙ネットワークを利用した手法は,語彙ネットワークを作成する際に国語辞書やシソーラスなどの既知の言語資源を利用することが多いが,この場合,新語など,既知の言語資源にエントリのない語句への対応は困難である.共起情報を利用した手法は,信頼性の高い共起情報を得るために必要な巨大なコーパスをどのように用意すればよいかという課題が残る.また,現状の周辺文脈の情報を利用したブートストラップに基づく手法では被覆率が低いという問題がある.評価表現辞書構築の精度評価には,TheGeneralInquirer\cite{stone1966a}(URL:~~\url{http://www.wjh.harvard.edu/~inquirer/})がしばしば利用される.これは,元はテキスト内容分析\cite{stone1966a}のために作成された言語知識データであり,単語毎に幾種類かのラベルが付与されている.その中の``Positiv''ラベルと``Negativ''ラベルの情報が主に辞書構築の精度評価に利用される.TheGeneralInquirerを用いた評価表現辞書構築の手法の比較については,\cite{takamura2005a}や\cite{takamura2005c}に記述がある.評価表現辞書は,実際の文書中の文脈とは独立した静的な知識である.しかし,後述する\sec{ie}の内容とも関連するが,ある表現の評価極性は文脈に依存して変化することがある.評価表現辞書のエントリとして許容される範囲は,個々の応用ごとに個別に決定しなければならない.\subsection{評価情報を観点とした文書分類に関する諸研究}\label{sec:dc}本節では,評価情報を観点とした文書分類に関する研究を紹介する.評価情報を観点とした文書分類とは,ある評価文書が肯定極性か否定極性のいずれの極性をもつかを判定する課題である.この分類課題では,前節で述べた評価表現が主要な情報として利用される.以下本稿では,既存のトピックに基づく文書分類との混乱を避けるために,評価情報を観点とした文書分類を特に\textbf{評価文書分類}と呼ぶ.評価文書分類を実現することは,次のような状況において有益な情報を提供する.例えば,デジタルカメラ-Aに関する評価文書に関して,肯定極性をもつ評価文書のみをまとめることで,そのデジタルカメラの優れている点を把握することができる.この情報をもとにして,デジタルカメラ-Aの潜在的な購入者は,実際に購入を決断するかも知れない.また,否定極性をもつ評価文書のみをまとめることで,現時点でのデジタルカメラ-Aの欠点が把握できる.デジタルカメラ-Aの開発者は,この情報をもとにして改良を施すことができる可能性がある.評価文書分類の手法は,\cite{turney2002a}を起源とする評価表現の比率に基づく手法(\sec{dc_ratio})と,\cite{pang2002a}を起源とする機械学習に基づく手法(\sec{dc_ml})に大きく分かれる.以下,順に紹介する.\subsubsection{評価表現の比率に基づく手法}\label{sec:dc_ratio}評価表現の比率に基づく評価文書分類の手法では,評価文書中に現れる評価表現に注目し,肯定極性をもつ評価表現と否定極性をもつ評価表現の出現比率に従って,評価文書全体の評価極性を求める.つまり,肯定極性をもつ評価表現が否定極性をもつ評価表現に比べて多く出現している評価文書を肯定極性をもつ評価文書であると判定する.逆に,否定極性をもつ評価表現が肯定極性をもつ評価表現に比べて多く出現している評価文書を否定極性をもつ評価文書であると判定する.以下ではまず,\cite{turney2002a}の研究を紹介する.\vspace{1em}\underline{\textbf{\cite{turney2002a}}}\vspace{1em}Turneyの分類手続きは3つのステップから構成される.\vspace{1em}\begin{quote}\begin{description}\item[ステップ1]評価文書に含まれる評価表現を評価極性値付きで抽出する.これには,\sec{cooc}で述べた手法が利用される.\item[ステップ2]抽出された評価表現の極性値の平均値(平均極性値)を求める.\item[ステップ3]平均極性値の符号に応じて,評価文書全体の評価極性を決定する.平均極性値が正であれば肯定極性とし,そうでなければ否定極性とする.\end{description}\end{quote}\vspace{1em}Turneyは評価極性値を求める語句に制限を設けており,「lowfees」のような,形容詞(あるいは副詞でも可)を含む句に対してのみ評価極性値を求めている.これは,「形容詞は文書内に含まれる意見や評価を特定する際のよい指標となる」\cite{hatzivassiloglou2000a,wiebe2000a,wiebe2001a}という先行研究の指摘に基づく.また,句を選択しているのは,指標の文脈や領域依存性へ対応するためである.例えば,「unpredictable」という形容詞を考えた場合,自動車の評価文書内では「unpredictablesteering」のように否定極性となるが,映画の評価文書内では「unpredictableplot」のように,逆に肯定極性となる.このような状況では,形容詞「unpredictable」単体は,肯定的な評価文書と否定的な評価文書のどちらにも出現し,評価文書の評価極性を判定する際のよい指標とはならない.その一方で,「unpredictablesteering」や「unpredictableplot」といった「unpredictable」の前後文脈を追加した語句は,評価極性が現れる文脈を適切に捉えており,よい指標になる.特に,複数の評価対象(自動車,映画など)が含まれる評価文書集合を扱う状況では,単語単体ではなく句を利用することが望ましいと考えられる.Turneyの手法は,\sec{cooc}で述べた評価極性値の計算式が対数オッズに対応することに注意すると,ナイーブベイズ分類器に基づく文書分類と接点をもつことがわかる.Beinekeetal.\cite{beineke2004a}らは,ナイーブベイズ分類器の観点からTurneyの手法を捉え直し,Turneyの手法の拡張を行っている.\vspace{1em}次に,評価文書分類に有効な素性情報について検討した研究を紹介する.ここでは,先述のTurneyの手法に基づいたアプローチを採用したものを取り上げる.機械学習に基づく評価文書分類における素性情報に関する検討については\sec{dc_ml}で紹介する.\vspace{1em}\underline{\textbf{\cite{taboada2004a}}}\vspace{1em}Taboadaetal.\cite{taboada2004a}は,\cite{turney2002a}の手法の拡張版を用いて\footnote{\cite{taboada2004a}の基本的な分類手続きは\cite{turney2002a}と同じであるが,分類手続きの3ステップ目が拡張されている.},評価表現の出現する位置情報が評価文書分類に与える影響について調査している.この研究の背景には「評価文書中において,書き手の主要な意見は評価文書全体に均等に現れるのではなく,特定の部分に集中して現れる」という仮定がある.Taboadaらは,評価表現が出現する位置に応じて,各評価表現がもつ評価極性値を修正することで,位置情報の有効性を検討した.具体的には,まず,文書内の位置ごとに人手で重みを設定する.そして,評価表現が出現する位置に応じて,人手で定めた重みを評価極性値に乗じることによって評価極性値を修正する.出現位置に対する重みの設定を変更させながら,重みの設定と分類精度との関係を調査したところ,評価文書の後半2/3の位置に現れる評価表現への重みを最も高くした場合に最も良い分類精度が得られたと報告している.江崎ら\cite{esaki2005a}も日本語のWeblog記事を対象にして,形容詞の出現位置を考慮した同様の実験を実施している.実験結果によると,Weblog記事の前方側に現れる評価表現への重みを最も高くした場合に最も良い分類精度が得られたと報告している\footnote{\cite{taboada2004a}と\cite{esaki2005a}の実験結果には大きな相違がある.これには,対象としている評価文書やその評価文書の使用言語など,幾つかの要因が絡んでいるだろう.}.\vspace{1em}次に,極性変化子が評価文書分類に与える影響について調査したKennedyetal.\cite{kennedy2005a}の研究を紹介する.単語の中には,それ単体は評価極性を持たないが,評価極性をもつ単語を修飾することでその評価極性を変化させるものがある.このような評価極性を変化させる単語のことを\textbf{極性変化子}(contextualvalenceshifter)と呼ぶ\cite{polanyi2004a}.極性変化子には,評価極性を肯定から否定,あるいは否定から肯定に反転させたり,極性の強さを変化させるものがある.前者を反転子(negations),後者を強調子(intensifiers)と呼ぶ.代表的な反転子の例としては「not」や「never」などがある.また,強調子の例としては「very」や「deeply」などがある.\vspace{1em}\underline{\textbf{\cite{kennedy2005a}}}\vspace{1em}Kennedyetal.\cite{kennedy2005a}は極性変化子に注目し,極性変化子が評価文書分類に与える影響を検証した.トピックに基づく文書分類と比べて,評価文書分類では極性変化子,特に,極性反転子の処理に注意を払う必要がある.例えば,形容詞「good」は,肯定極性を示す代表的な単語であるが,これに「not」が付いた「notgood」は,逆の評価極性,すなわち否定極性を示す.評価文書分類を精度よくおこなうには,この特性をうまく素性情報として取り込むことが重要になる.Kennedyらは,評価文書分類の手法として\cite{turney2002a}の手法を用い,次のようにして極性変化子の情報を取り込んだ.\begin{itemize}\item評価表現と同一の節内に極性反転子がある場合,評価表現の評価極性を反転させる.ある評価表現の評価極性が肯定極性であれば否定極性に,否定極性であれば肯定極性にする.\item評価表現と同一の節内に極性強調子がある場合,強調子に応じて評価表現の評価極性値を増減させる.強調の変化子であれば評価極性値を増やし,抑制の変化子であれば評価極性値を減らす.\end{itemize}評価実験を通して,極性変化子を考慮した方が,極性変化子を考慮しない場合よりも分類精度が向上することを確認した.\subsubsection{教師あり機械学習に基づく手法}\label{sec:dc_ml}ここでは,教師あり機械学習に基づく評価文書分類を扱った研究を紹介する.これまで,トピックに基づく文書分類では,さまざまな機械学習手法が適用されており,高い分類精度を達成している\cite{sebastiani2002a}.このような背景を考えれば,評価文書分類に機械学習手法を適用することは自然な流れであると言える.まず,評価文書分類に初めて機械学習を適用したPangetal.\cite{pang2002a}の研究を紹介する.\vspace{1em}\underline{\textbf{\cite{pang2002a}}}\vspace{1em}Pangetal.\cite{pang2002a}は,トピックに基づく文書分類で有効であった教師あり機械学習に基づく分類手法が,評価文書分類にも有効であるかどうかを実験的に検証した.用いた分類器は,トピックに基づく文書分類でもしばしば適用される,ナイーブベイズ分類器\cite{mitchell1997a},最大エントロピー法に基づく分類器\cite{berger1996a},サポートベクトルマシン分類器\cite{vapnik1995a}である.学習に利用する素性情報には,単語uni-gram,単語bi-gramなど,トピックに基づく文書分類で一般的に利用される情報のみを利用している.評価実験から次のような知見を得た.\begin{itemize}\item評価表現は形容詞となることが多いが,単語uni-gramとして,評価文書中のすべての単語を利用した場合の結果は,形容詞のみを利用した場合の結果よりも高い精度を得た.このことは,形容詞以外の単語が,評価文書の評価極性を判定する際のよい指標となっていることを示している.これについては,\cite{salvetti2004a}でも同様の報告がされている.\item単語uni-gram素性を利用して評価文書分類を行った場合の精度は,同一の学習手法と同一の素性情報を用いたトピックに基づく文書分類の精度よりも低かった.このことは,評価文書分類は,トピックに基づく文書分類よりも難しく,単純な単語uni-gramよりも複雑な情報が必要であることを示している.\end{itemize}Pangらが評価実験の際に作成したデータセットは,共通の評価実験用データとして多くの研究者に利用されている.このデータセットは以下のURLから入手できる.\vspace{1em}\begin{quote}Pang'smoviereviewdata;\\\url{http://www.cs.cornell.edu/people/pabo/movie-review-data/}\end{quote}\vspace{1em}\cite{pang2002a}の結果を受けて,評価文書分類に有効な素性情報についての検証がこれまでにされている.Mullenetal.\cite{mullen2004a}は,サポートベクトルマシン分類器を用いた評価文書分類において,\cite{turney2002a}や\cite{kamps2004a}の手法によって得られた評価表現の評価極性値を素性情報に用いた.また,評価表現の位置情報も利用しており,評価対象を表す語に近い位置にある評価表現が評価文書分類に有効に働くことを示した.Pangetal.\cite{pang2004a}は,「事実文に含まれる評価は対象に関する書き手の評価とは関係がなく,意見文に含まれる評価のみが対象に関する書き手の評価と関係する」と仮定して,文の主観性(subjectivity)に注目した.Pangらは,分類の第1段階として,評価文書中の文を意見文と事実文に分け,意見文のみを抽出する.その後,抽出された意見文集合のみを対象として,\cite{pang2002a}の機械学習手法を適用して評価文書を分類した.Matsumotoetal.\cite{matsumoto2005a}は,サポートベクトルマシン分類器を用いる場合の素性情報として,単語uni-gram,単語bi-gramに加えて,語の系列および語間の依存構造木の情報を利用した.また,Baietal.\cite{bai2004a}は,ナイーブベイズ分類器で仮定される語間の統計的独立性の仮定を排除するために,ベイジアンネットワークの一つであるMarkovBlanketDirectedAcyclicGraph\cite{pearl1988a}を用いた.現在のところ,Pang'smoviereviewdataを用いた評価実験の結果の中では,\cite{matsumoto2005a}や\cite{bai2004a}が,その他の手法と比べて高い精度を達成している.(実際の数値については各論文を参照されたい.)\vspace{1em}ここまでに紹介した評価文書分類の諸研究では,必ず肯定極性か否定極性のどちらかに分類できる評価文書を扱っている.これは,しばしば利用されるPang'smoviereviewdataがそのように構成されていることに一因がある.しかしながら,現実には,このようにすべての文書が必ず肯定極性か否定極性のどちらかに分類できる状況でないことも多い.次に紹介するGamonの研究\cite{gamon2004a}は,カスタマーサポートセンターに届けられた文書を扱った.Gamonのデータは,Pang'smoviereviewdataなどと比べて,断片的で,短いコメントが多く,そのため,本質的に評価極性が決定できない文書も含んでいる.\vspace{1em}\underline{\textbf{\cite{gamon2004a}}}\vspace{1em}Gamon\cite{gamon2004a}は,カスタマーサポートセンターに届けられた顧客レビューを題材にして,評価文書分類を行った.Gamonは,まず,データの特性を知るための事前調査を行っている.収集された顧客レビューにはあらかじめレビューを書いたユーザが付与した評点(rating)が付与されている.200サンプルを人が肯定極性か否定極性かの2クラスに分類したところ,約半数の117件しか正確に分類できなかった.残りのサンプルは,評価極性の判定に必要な情報が含まれていなかったり,評価極性をもつような内容が書かれていなかったり,肯定と否定の評価極性が混在していた.この結果から,Gamonのデータは,全ての文書が必ずしも評価極性の判定に適した文書となっているわけではなく,ノイズを多く含んでいることがわかる.Gamonは,評価文書分類にサポートベクトルマシン分類器を用いる際,上記のようなノイズを多く含む文書の分類に有効な素性を明らかにするために幾つかの種類の素性情報を利用した.まず,分類に利用する素性情報を,浅い言語解析のみで獲得できる素性(表層素性)と,獲得するために深い言語解析を必要とする素性(言語素性)に分けた.表層素性には,原形化された単語のuni-gram,bi-gram,tri-gramが含まれている.また,言語素性は,品詞tri-gram,文や節の長さ,構文構造,句間の意味関係,他動性,時制などが含まれている.句間の意味関係には,例えば,``Verb-Subject-Noun(ある名詞Nounはある動詞Verbの主体Subjectを表す)''などがある.上記のそれぞれの素性情報の有効性を検証したところ,表層素性に加えて,言語素性を用いることで分類精度が向上することを確認した.また,ほぼすべての素性情報の組合せにおいて,対数尤度比\cite{dunning1993a}の高い上位n個の素性のみを選択的に利用する素性削減法を適用することによって,さらに高い精度を得た.\vspace{1em}Gamonは,肯定極性でも否定極性でもない(以降,\textbf{中立}と呼ぶ)文書の存在について言及しているが,問題設定としては従来と同じく2値の分類問題に設定した.2値分類ではなく,中立クラスを加えた3値の評価文書分類に初めて取り組んだのは\cite{koppel2005a}である.Koppelらは,まず,予備調査として,2値分類器を学習し,それをそのまま,肯定/否定/中立の3値分類に援用する方法では低い精度しか達成できないことを示した.そして,stacking\cite{wolpert1992a}に基づく3値の評価文書分類を行う手法を新たに提案している.\subsubsection{より細かい分類粒度へ}\label{sec:dc_gra}これまでは,評価文書分類として,肯定極性か否定極性かの2値の分類問題を扱うことが多かった.この点から,中立クラスを加えた\cite{koppel2005a}の3値分類を扱った事例は,これまでになく,かつ,現実のデータに即した視点を評価文書分類に導入したと言える.さらに,分類クラスの2値からの自然な拡張として,評価文書をより細かい分類粒度へ分類する課題を扱った研究がある\cite{pang2005a,okanohara2005a}.これらの研究はいずれも中立クラスを明示的に取り込むことを目的としているわけではないが,細かな粒度を扱うことによって,結果的に中立クラスが反映されていると考えられる.\vspace{1em}\underline{\textbf{\cite{pang2005a}}}\vspace{1em}Pangetal.\cite{pang2005a}は,2値よりも粒度の細かい映画レビューの評点(rating)に注目し,各映画レビューをそれに付与された評点毎に分類する(以下,\textbf{評価文書評点分類})ことを試みている.多値分類への素直な対応として,分類ではなく回帰の考え方を導入することが考えられる.しかし,映画レビューの評点が順序尺度であることを考慮すると,単純な回帰では適切に処理できない可能性がある.この点については,\cite{koppel2005a}でも議論されている.この問題を扱うために,Pangらは,metriclabeling法\cite{kleinberg1999a}を適用することによって,既存の分類器によって得られた評点分類結果を補正することを提案した.高い類似度をもつ評価文書群は,同じ評点を持つと考えられる.metriclabeling法は,この考えを自然に明示的に取り込むことができ,評価文書間の類似度が高い場合に,それらの評価文書がもつ評点間の差を小さくするように学習が進む.metriclabeling法では,評価文書間の類似度関数を利用するが,Pangらは,肯定極性文比率(positive-sentencepercentage;PSP)という尺度に基づく類似度関数を提案している.これは,評価文書中の全(意見)文における肯定極性文の比率を示す(すなわち,「肯定極性文の数」÷「評価文書中の全(意見)文の数」で求められた値).Pangらの調査から,評価文書の肯定極性文比率は,その評点と高い相関をもつことがわかっている.2つの評価文書$r_{1}$と$r_{2}$に対して,以下の類似度関数を提案している;\begin{equation}sim(r_{1},r_{2})=\cos(~\overrightarrow{\mathrm{PSP({\textitr_{1}})}}~,~\overrightarrow{\mathrm{PSP({\textitr_{2}})}}~).\end{equation}$\overrightarrow{\mathrm{PSP({\textitr_{i}})}}$は,文書$r_{i}$に対する$(\mathrm{PSP({\textitr_{i}})},1-\mathrm{PSP({\textitr_{i}})})$という2次元ベクトルを示す.評価実験では,サポートベクトルマシン分類器とOne-vs-Rest法\cite{rifkin2004a}の組合せ,SupportVectorRegression\cite{smola1998a},および,それぞれにmetriclabeling法を適用したものを比較し,metriclabeling法の有効性を示した.Pangらは,評点の粒度に関する予備調査として,人間が区別できる評点差の違いを調査し,3値と4値の評点粒度からなるデータセットを作成し,評価実験に用いた.これは,4人の著者が記述した文書を各著者ごとにまとめた4セットの評価文書集合からなる.\cite{pang2004a}の知見を基に,あらかじめ事実文を取り除いている.Pangらの実験は,同一著者のデータにしか適用されていないため,複数の著者によって生成された評価文書群に対して評価文書評点分類を行うには,著者間の評点値がもつ意味を正規化する手法が別に必要になる.\vspace{1em}\underline{\textbf{\cite{okanohara2005a}}}\vspace{1em}岡野原ら\cite{okanohara2005a}は,日本語の評価文書を対象にして,評価文書評点分類に取り組んだ.彼らの実験では,サポートベクトルマシン分類器とpair-wise法\cite{kresel1999a}の組合せと,SupportVectorRegressionが比較されている.評価文書評点分類では,分類クラスの粒度が2値分類よりも細かいために,従来の評価表現に加え,極性強調子の情報をうまく扱うことが重要である.岡野原らは,素性として,単語uni-gram,bi-gram,tri-gramの3種類の素性を試した.結果として,単語uni-gramと比較して,単語bi-gram,tri-gramを用いた方が精度が高かった.「verygood」のような評価表現と極性強調子の並びをうまく捉えたことが精度向上によい影響を与えていると考えられる.\subsubsection{まとめ}評価文書分類を扱った論文を紹介した.評価文書分類の手法は,評価表現の比率に基づく手法と,教師あり機械学習に基づく手法に分けることができる.また,肯定か否定かを分類する評価文書分類の拡張として,より細かな分類粒度を扱う評価文書評点分類に関する研究を紹介した.評価文書分類は,既存のトピックに基づく文書分類とは分類に有効な情報が必ずしも同じではない.\cite{pang2002a}による実験結果によると,評価文書分類は,トピックに基づく文書分類よりも難しい課題であると考えられ,今後の進展が望まれる.既に述べたように,これまでは,肯定極性か否定極性かのいずれかのみを扱う2値分類として扱われることが多かった.しかし,現実には,肯定極性か否定極性のいずれにも該当しない文書が存在する状況が多く,\cite{koppel2005a}のように,中立クラスを加えた3値の評価文書分類に対する考察についても今後の成果が期待される.中立クラスの扱いについては,\sec{neutral}で再び取り上げる.現在の評価文書分類では,多くの場合,ある評価対象についての評価情報が含まれている文書群が既に収集されているという前提の基で研究が進められる.これは,\sec{daizai}で述べた分類のうち,「意見の収集,集約が目的となっているテキスト」が主な研究題材となっていることに一因がある.しかし,一般には,ある文書が与えられた時,その文書に記述されている評価対象が何であるかについても判定する必要がある.今後は,評価対象の分類を考慮した評価文書分類についても検討していく必要がある.後の\sec{ie}では,文書内に含まれる評価情報の要素に注目した諸研究を紹介する.ここでは,評価情報要素のひとつとして,評価対象の存在が意識される.\subsection{評価情報を含む文の抽出に関する諸研究}\label{sec:sc}前節では,文書レベルで評価極性を判定する手法を紹介した.本節では,文書に含まれている文の評価極性を判定し,抽出する手法を紹介する.評価分析を実施する際,前節で紹介した評価文書分類を行うことによって,評価情報,評価極性に関する文書全体の傾向を把握することができる.しかし,評価対象がどのように肯定的あるいは否定的な評価を受けているかを知るには,評価文書の内容に目を通す必要がある.この時,各文書内に含まれている評価極性付きの文を抽出することができれば,評価対象がどのように評価を受けているかを知る上で見通しがよくなる.また,ひとつの文書に複数の評価が混じっているような場合には,文書レベルではなく,文レベルで評価極性を判定した方がよい.評価文抽出の基本的な考え方は評価文書分類と同様であり,評価表現の比率に基づく手法や機械学習に基づく手法がそれぞれ提案されている.Yuetal.\cite{yu2003a}は,評価表現の比率に基づく手法によって評価文分類を実現した.分類手続きは\sec{dc_ratio}で紹介した\cite{turney2002a}や\cite{taboada2004a}の手法と基本的に同じであるが,Yuらは,分類クラスとして肯定,否定に中立を加えた3クラスを考えるため,分類手続きの3ステップ目に拡張を施した.幾つかの精度評価実験の中で評価表現の品詞に関する考察を行っており,実験の結果,品詞が形容詞,副詞,動詞となる評価表現を合わせて利用した場合が精度が高かったと報告している.一方,この組合せに品詞が名詞である評価表現を加えると精度が低下する結果を得たと報告している.Gamonetal.\cite{gamon2005a}は,評価表現の比率に基づく手法と機械学習に基づく手法をそれぞれ提案している.評価表現の比率に基づく手法では,\cite{yu2003a}の手法を拡張した.評価極性値を計算する際に,文内では「同じ極性の単語が共起しやすい」という仮定に加え,「逆極性の単語は共起しにくい」という仮定を陽に取り入れたり,一度求めた評価極性値に基づいて種表現を漸次的に増やす手法を提案している.また,機械学習に基づく手法では,Nigamらが提案した半教師あり学習の手法\cite{nigam2000a}によって,評価極性情報が付与されていない大量の生データの情報を評価文分類に利用した.評価文分類で採用される分類手法は評価文書分類と共通するものが多いが,評価文分類に利用される素性情報も評価文書分類と重なる部分が多い.評価文書分類の場合と同様に,評価文分類でも単語,特に評価表現が分類の際の主要な情報となる.また,文内の語の系列情報\cite{osajima2005a}や構文情報\cite{kudo2003a}を利用したアプローチも報告されている.評価文分類では,評価文書分類のように文書内の位置情報などは利用されない.その一方で,評価文分類に固有な情報として,例えば,文の文型パターン\cite{murano2003a,touge2004a}などが利用される.また,評価文書分類の場合と同様に,評価文分類においても,評価対象が何であるかについては考慮されることがほとんどない.数少ない評価対象を考慮した評価文分類の研究として,\cite{hurst2004a,nigam2004a}がある.HurstとNigamは,評価対象を含む文を抽出する過程と文の評価極性を判定する過程を独立に並行して行う.そして,「ある文に,ある対象についての記述と,評価極性を示す記述が含まれている場合,その評価極性は同一文内の対象に関する極性である」という仮定に基いて,2つの過程の結果を併合することで対象に関する評価極性を判定した.\subsection{評価情報の要素組の抽出に関する諸研究}\label{sec:ie}評価情報は「良い」や「悪い」などの評価表現の他に,評価者,評価対象などの幾つかの要素によって構成される.これらの評価情報の要素組のことを以下,\textbf{評価組}と呼ぶ.本節では,文書から評価組を抽出し,その評価極性を判定する研究を紹介する.評価組抽出の研究背景にある動機付けは,評価文抽出と同様であり,評価文書全体の評価ではなく,評価文書中の個々の評価情報に関する評価に注目する.この課題は\sec{se}で紹介した評価表現辞書の構築に似ている.しかし,評価組の抽出では,評価表現が評価している評価対象や評価をしている評価者などを合わせて特定,抽出する点が評価表現辞書の構築と異なる.例えば,下の例文\NUMS{ie_ex}{a}からは,「美味しい」という評価表現と共に,その評価を受けているのは「りんご」であり,両者を合わせて,「りんごが肯定的な評価を受けている」ことを特定したい.また,例文\NUMS{ie_ex}{b}であれば,評価を受けているのは「帽子」であり,評価をしているのは「次郎」であることを特定したい.このように実際に評価表現が現れている文脈の情報を考慮することで,注目している評価情報の評価極性が変化する場合もある.例文\NUMS{ie_ex}{c}と\NUMS{ie_ex}{d}は同じ「眠気をさそう」という表現を含んでいるが,それぞれの対象(「ベッド」と「講義」)を考慮し,<ベッド,眠気をさそう>は肯定極性,<講義,眠気をさそう>は否定極性であることを判定することが求められる.さらに,例文\NUMS{ie_ex}{e}は,肯定極性をもつ評価表現「美味しい」を含んでいるが,文自体は質問を表しているのであって,りんごを評価しているわけではない.そのため,\NUMS{ie_ex}{e}から得られる要素の組に対しては,評価ではないことを判定することが求められる.\EXS{ie_ex}{\itemりんごが美味しい。\item次郎は太郎からもらった帽子を気に入っている。\itemこのベッドは眠気をさそう。\itemこの講義は眠気をさそう。\itemこのりんご、美味しかった?}評価組の抽出は,次のような副課題に分解して考えることができる.\begin{itemize}\item要素抽出:評価表現,評価対象などを文書から特定する(\sec{elem_ext}).\item関係抽出:各要素を結びつける.例えば,ある評価表現がどの評価対象について評価しているかを特定する(\sec{rel_ext}).\item動的評価極性:関係抽出の結果得られた評価組の評価極性を判定する(\sec{dyn_pn}).\end{itemize}それぞれの副課題について順に紹介する.\subsubsection{要素抽出}\label{sec:elem_ext}要素抽出は,評価情報を構成する要素を抽出する課題である.現在のところ,評価情報の要素としては,評価表現,評価対象,評価対象の属性,評価者などが主に取り上げられている.評価表現の抽出には\sec{se}で構築した辞書が利用される.また,多くの研究では評価対象はあらかじめ与えられていると想定する.そこで以下では,評価対象の属性と評価者の抽出に関する研究を紹介する.\subsubsubsection{評価対象の属性}\label{sec:attr}評価対象の属性とは,評価対象の仕様(性質や特徴など)や評価対象の一部分などのことを指す.デジタルカメラについての属性の例を\NUM{attr_ex}に示す.下線部が属性表現である.\EXS{attr_ex}{\item\underline{値段}が少し高い。\item満足のいく\underline{画質}です。\item\underline{レンズ}が明るい。}実際の属性抽出処理は,あらかじめ属性表現の集合を属性辞書として獲得しておき,評価情報獲得時には辞書照合によって属性抽出が実現される.そこで,属性辞書を(半)自動で構築することがここでの課題となる.属性の中には,値段やサイズなどのように評価対象間で共通の属性も存在するが,一般には,評価対象ごとに属性は異なる.そのため,属性辞書は評価対象ごとに用意する.ある対象に関する属性辞書を構築する場合,その対象について記述された文書群を用意し,そこから属性辞書のエントリを見つけ出し,辞書登録をおこなう.以下ではまず,ブートストラップに基づく小林ら\cite{kobayashi2005a}の手法を紹介する.小林らの手法は,評価対象の属性と同時に評価表現も合わせて抽出する.\vspace{1em}\underline{\textbf{\cite{kobayashi2005a}}}\vspace{1em}小林ら\cite{kobayashi2005a}は,文書に含まれる意見は<対象,属性,評価>の3つの要素からなると捉え,この3つ組要素のうち,属性表現と評価表現を効率よく収集する手法を提案した.次の\NUM{kobayashi2005_ex}は3つ組の例である.\NUMS{kobayashi2005_ex}{a}が意見が含まれるテキストであり,\NUMS{kobayashi2005_ex}{b}が\NUMS{kobayashi2005_ex}{a}から得られる3つ組である.\EXS{kobayashi2005_ex}{\item商品$\_$Aは、ボディはコンパクトですが、安定感は抜群ですね!\\ただ足回りは固いので、人を乗せる時は気を使います。\item$<商品\_$A$,ボディ,コンパクト>$\\$<商品\_$A$,安定感,抜群>$\\$<商品\_$A$,足回り,固い>$}小林らの手法は,ブートストラップに基づいており,対象,属性,評価に関する共起パタンを介して,評価表現と属性表現を相互に獲得する.共起パタンの例を\NUMS{kobayashi2005_ex2}{a}に示す.また,\NUMS{kobayashi2005_ex2}{a}の共起パタンに照合する意見テキストを\NUMS{kobayashi2005_ex2}{b}に示す.\EXS{kobayashi2005_ex2}{\item$<対象>の\underline{<属性>}は<評価>$\item商品\_Aの\underline{インテリア}はきれいですね。}共起パタン中の$<対象>$,$<属性>$,$<評価>$のそれぞれのスロットは,新規表現スロット(下線で示す)と既知表現スロット(下線部以外)に分かれている.各パタンにはひとつの新規表現スロットが含まれる.上記の例の場合,「商品\_A」に関して,「きれい」が評価表現であることが既知である状態で,「インテリア」が「商品\_A」の新しい属性候補であるとして収集される.小林らは8タイプの共起パタンを用意しているが,タイプによって,$<属性>$が新規表現スロットになる場合と$<評価>$が新規表現スロットになる場合を分けており,文書集合に対して,タイプの異なる共起パタンを繰り返し適用することで,属性表現と評価表現を相互に獲得している.\NUMS{kobayashi2005_ex2}{a}のように,小林らが作成した共起パタンは汎用的なパタンである.そこで,パタン照合の後,ノイズとなる属性候補,評価表現候補を排除するために幾つかのフィルタリングを行う.フィルタリングに利用される情報には,スロットに埋まる語句の品詞に関するものや,獲得された属性候補と評価表現候補の統計量(頻度,対数尤度比)などがある.なお,小林らの手法は,収集できた評価表現における評価極性は決定しない.\vspace{1em}その他にも,統計量に基づく属性抽出手法が幾つか提案されている.これらは,小林らのパタンによる候補獲得とフィルタリングという一連の処理のうち,パタン照合部に重点を置かず,フィルタリング部のみを行っていることに対応する.Yietal.\cite{yi2005a}は,限定名詞句に注目し,評価対象の文書に偏って出現する限定名詞句を対数尤度比に基づいて抽出した.Huetal.\cite{hu2004a,hu_min2004b}は,評価文書に対して,相関ルールマイニングの手法を用いて,評価文書集合中に頻出し,かつ評価表現から近い位置に出現する名詞あるいは名詞句を属性表現として抽出した.Liuetal.\cite{liu2005a}は,\cite{hu2004a,hu_min2004b}と同様に相関ルールマイニングの手法を用いて属性を抽出した.他の研究では属性表現の抽出対象を名詞に制限することが多いが,Liuらは名詞以外の表現も抽出している.Morinagaetal.\cite{morinaga2002a}は,本稿でいう属性に近い概念として,対象を特徴付ける語をマイニングする手法を提案した.\subsubsubsection{評価者(Holder,Source)}\label{sec:holder}評価者(Holder,Source)とは,評価対象を実際に評価している人物や組織のことである.まず,次の文を例に取りながら,評価情報の要素として評価者を考慮することの必要性について検討する.\EX{holder_ex}{りんご1箱あたりの値段が上がった.}この文の評価極性を考える.りんごの消費者にとって,りんごの値上がりは好ましいとは言えない.つまり,例文\NUM{holder_ex}をりんごの消費者から見た場合,この例文の評価極性は否定極性であると考えることができる.一方,りんごの生産者にとっては,りんごの値上がりは好ましい可能性があり,例文\NUM{holder_ex}をりんごの生産者から見た場合は,この例文の評価極性は肯定極性となる可能性がある.この例から,まったく同じ表現でも誰の視点から見るかによって評価極性が異なることが確認できる.つまり,より厳密なテキスト評価分析を実施するには,評価表現や評価対象に加えて,評価をおこなう者,つまり,評価者を特定する必要がありそうである.人物名辞書や組織名辞書があらかじめ用意できる環境であれば,評価者候補の特定は単純な辞書照合として容易に実現できる.評価者候補の特定には,ほかにも,既存の固有表現抽出(namedentityrecognition;NER)\cite{muc6,muc7,irex}に関する技術や意味役割同定(semanticrolelabeling;SRL)\cite{srl2004,srl2005}に関する技術が利用できるだろう.いずれの場合において,特定された評価者候補が実際に評価組の要素となるか否かは続く関係抽出処理に任せることになる.テキスト評価分析に関する研究全体の中でも,評価者の視点を考慮した研究は現時点ではそれほど多くはない\cite{kim2004a,bethard2004a,nakayama2005a}.この理由のひとつとしては,対象データが評価文書に偏っているという現状がある.評価文書の場合は,ほぼ,$$評価者~=~書き手$$の関係が成り立つ.このことから,現時点では評価者を特定する処理が省かれていると言える.今後,評価文書ではない,一般のWeb文書や新聞記事などに含まれる意見をテキスト評価分析で扱う場合,あるいは,評価文書を対象にしてより精緻なテキスト評価分析を実現する場合には,評価者の視点をより積極的に考慮していく必要がある.\subsubsection{関係抽出}\label{sec:rel_ext}関係抽出は,評価情報の各要素を関係づける課題である.先に述べたように,評価組抽出は,要素抽出,関係抽出,動的極性判定の3つの副課題に分解できるが,現在のところ,要素抽出,動的極性判定に比べて,関係抽出に焦点を当てた研究は乏しい.評価組抽出を扱う研究の多くは,要素間の近接情報や構文情報などに基づいた素朴な手法によって関係抽出を実現しているが,当然のことながら,十分な抽出精度が得られているわけではない.関係抽出に積極的に焦点を当てた研究としては,\cite{kobayashi2005b,iida2005a}がある.事前調査から,意見を含む日本語文書では,<属性,評価>間に係り受け関係が成立しない事例が少なからず存在することを指摘し,機械学習に基づく<属性,評価>関係を特定する手法を提案している.彼らのグループでは,<属性,評価>対を特定する課題が照応解析における<先行詞,照応詞>対を特定する課題に類似していることに着目し,照応解析モデルを関係抽出に応用した.近年では,固有表現間の関係を抽出する課題\cite{rdc}に対して,機械学習に基づく手法が盛んに研究されており\cite{zelenko2003a,culotta2004a},そこで得られた知見が本課題に利用できる可能性がある.\subsubsection{動的極性判定}\label{sec:dyn_pn}関係抽出の結果得られた評価組の評価極性を判定する研究を紹介する.これまでに見たように,要素抽出と関係抽出は,評価組抽出の副課題としてその他の副課題とは独立に研究されるケースが多い.一方,動的極性判定を実施するには,要素抽出と関係抽出の出力結果が必要である.要素抽出と関係抽出の出力結果を人手で用意することによって,それらの結果が与えられた状態で動的極性判定のみを課題とすることもできるが,現在の動的極性判定に関する研究では,要素抽出と関係抽出も同時に合わせて扱われることが多い.以下では,パタンに基づくNasukawaetal.\cite{nasukawa2003a}の手法と,機械学習に基づく鈴木ら\cite{suzuki2004a}の手法を紹介する.\vspace{1em}\underline{\textbf{\cite{nasukawa2003a}}}\vspace{1em}Nasukawaetal.\cite{nasukawa2003a}は,評価情報の要素として,<対象,評価>の2つ組を考え,構文,意味関係パタン付きの評価表現辞書を用いて2つ組に対する動的評価極性を行った.彼らは,辞書知識として,\sec{se}で紹介した評価極性付きの単語のエントリに加え,構文・意味関係を考慮したパタン付きのエントリを用意した.単語「admire」と「provide」のエントリ例を\NUM{nasukawa2003_ex}に示す.\EXS{nasukawa2003_ex}{\item\textsf{good}~~VB~admire~~obj\item\textsf{transfer}~VB~provide~~obj~~sub}\NUMS{nasukawa2003_ex}{a}は,「admire」の目的語の位置ある要素が肯定極性になることを表しており,\NUMS{nasukawa2003_ex}{b}は,「provide」の目的語の位置ある要素の極性が判明していれば,主語の位置にある要素は目的語の位置ある要素の極性と等しくなる(評価極性がtransferする)ことを表している.このような,語句間における評価極性の同一(相違)関係が記述された辞書知識を組み合わせて用いることによって,評価表現と,それと同一文内の主語や目的語の位置に表れる評価対象の組を同定し,それらの評価極性を判定する.\NUM{nasukawa2003_ex}に示したような構文・意味関係を考慮したパタン付きのエントリは,評価表現辞書を素直に文脈情報を取り込むように拡張したものと考えられる.Kanayamaetal.\cite{kanayama2004a}は,要素抽出から評価極性判定までを,文書から評価組への翻訳であると捉えた.そして,transfer-basedな機械翻訳の機構を援用し,既存の翻訳パタンを,上記\NUM{nasukawa2003_ex}と類似した極性判定のための構文・意味関係を考慮したパタンに置き換えることによって,低コストで評価情報の要素組を抽出する枠組みを提示した.\vspace{1em}\underline{\textbf{\cite{suzuki2004a}}}\vspace{1em}鈴木ら\cite{suzuki2004a}は,評価情報の要素として,<対象,属性,評価>の3つ組を考え,評価情報とその周辺情報のブートストラップによって,3つ組の動的極性判定を行った.評価極性としては,肯定/否定/中立の3値を扱っている.先の\cite{nasukawa2003a}の手法では,要素抽出,関係抽出と動的極性判定が並行して進行していたが,鈴木らの手法では,<対象,属性,評価>の3つ組抽出と,3つ組の極性判定が逐次的に行われる.まず,評価表現辞書を用いて文書内の評価表現を同定する.そして,評価表現と係り受け関係にある名詞を評価対象,属性として,<対象,属性,評価>の3つ組を同定する.ただし,経験から評価対象は具体名詞,属性は抽象名詞という制約を課す.具体名詞,抽象名詞の判定はNTT日本語語彙大系\cite{goitaikei-e}の情報に基づく.次に,得られた3つ組を評価極性分類器に入力することで,評価極性を判定する.彼らの分類器は半教師あり機械学習によって構築される.彼らは,まず,ベースとなる分類器として,ナイーブベイズ分類器を考え,<対象,属性,評価>組の評価極性を分類することを考える.そして,さらに教師なしデータの情報を取り込むために,EMアルゴリズム\cite{dempster1977a}をナイーブベイズ分類器と併用する手法\cite{nigam2000a}を用いた.また,教師なしデータを取り入れる別の手法として,同一著者による\cite{suzuki2005a}では,先の手法から獲得された確率モデルからフィッシャーカーネル\cite{jaakkola1998}を作成し,そのカーネル関数をサポートベクトルマシン分類器で利用する手法を検討している.\subsubsection{語の組合せと評価極性}\label{sec:comb}\sec{se}で述べた評価表現辞書の構築では,「良い−肯定」や「悪い−否定」のように,単独で評価極性が特定できる単語を扱うことが多い\footnote{\cite{nasukawa2004a}のように,複数の単語から構成される評価表現を考慮した事例もあるが,現状では複数語からなる評価表現を扱う研究は少ない.}.しかし,単語の中には,それ単独では評価極性をもたないが,幾つかの単語が組み合わさることによって初めて,その組合せに評価極性が生じる場合がある\cite{baron2004a}.ここでは,この現象を極性発現と呼ぶ.例えば,英語の``parforthecourse''という句は,個々の単語は否定極性を持たないが句全体としては否定極性をもつ\cite{channell2000a}.極性発現に着目した研究には,Baronetal.\cite{baron2004a}と高村ら\cite{takamura2005b}の研究がある.Baronらは,Xtract\cite{smadja1994a}を用いてコーパスから共起語を抽出し,共起語が出現していた文脈の評価極性に従って共起語の評価極性を決定した.この考え方は,評価表現辞書の構築で用いられた単語の評価極性の判定手法(\sec{cooc})に非常に近い.一方で,高村らは,極性発現が生じる語句の内部構造を直接モデリングし,「ノートパソコンが軽い−肯定」のように語句の評価極性が判定できる確率モデルを提案した.高村らの提案モデルは極性発現と同時に極性変化子にも対応しており,「リスクが低い−肯定」のような例も適切に扱える.長江らは極性発現を考慮した評価表現辞書を作成している\cite{nagae2002a}. \section{テキスト評価分析の応用研究} \label{sec:appl}\subsection{評価分析システム}これまでに,既に幾つかの評価分析システムが構築されている\cite{li2001a,morinaga2002a,dini2002a,dave2003a,sano2004a,sano2004b,tateishi2004a,blogwatcher,fujimura2004a,yi2005a,liu2005a}.評価分析システムの多くは,基本機能として,文書集合から文書,文,あるいは,語句などの単位について,肯定/否定の評価極性を判定する.この機能を実現するために,前節で紹介した各要素技術が評価分析システムに組み込まれる.評価分析システムの利用者は,大きく次の2つに分けられる.\begin{itemize}\item対象の提供者である企業やサイト運営者,\item対象を利用する立場の一般の人々.\end{itemize}前者は,マーケティング等で,対象の利用者としての個人の評価を,今後の企業活動に活かすことが典型的な用途となる.後者は,他の個人の評価を,自分の意志決定(たとえば,何かを購入しようとして,いくつかの候補の中からの選択が必要な場合)の参考にしようというのが典型的な用途となる.言うまでもなく,大量の抽出された評価情報は,そのまま提示されるのではなく,類似するものはまとめられ,また,いくつかの観点で分類され,ユーザにとって負担のない情報量で,提示されることが望ましい.そのため,評価分析システムでは,評価情報を抽出するという基本機能に加えて,分析データの集約機能や,分析結果の可視化機能を備えている場合が多い.可視化にはグラフ表示が採用されることが多く,例えば,\cite{yi2005a}では棒グラフ,\cite{tateishi2004a}ではレーダーチャートが表示できる\footnote{対象についての属性が非常に多い場合,可視化手法によってはすべての属性をまとめて閲覧することが困難となる.その場合には,抽出時とは別に表示時において,属性の取捨選択や階層化などの処理が要求される.}.この可視化機能によって,単一の対象,あるいは複数の対象間で,属性ごとにその対象の評価値を比較するといった作業が容易となる.分析結果の評価情報を可視化するのではなく,テキストとして提示する研究も存在する.Beinekeetal.\cite{beineke2004a},Romanetal.\cite{roman2004a}はいずれも,抽出した評価情報集合をテキストの形で集約して提示する試みを行なっている.文書要約\cite{oku2005a}の観点からみた場合,これらの研究は,評価情報が含まれている文の重要度を高く定めて,複数文書を対象とした重要文抽出を行って要約を作成していることに相当する.この観点から見れば,評価文抽出は評価文書のテキストを要約する手法の中の特殊なケースとして捉えることもできる.複数文書要約では,異なるソース(情報源)(たとえば,新聞社)からのテキストで,内容が重複する場合,重複する内容は重要であるとして,重複する内容を選択する手法が見られるが,評価文書集合の要約でも,同様に,評価情報が重複することは,共通の評価が複数存在することを意味しており,重要な情報としてその頻度情報が出力のひとつとして利用される.また,一般の複数文書要約では重複部分を同定することは困難な課題であるが,評価文書の場合は,基本的には,評価対象,評価対象の属性,評価極性の3つの要素のみから一致(重複)判定が可能である.\subsection{その他の応用領域}前節で紹介したテキスト評価分析のための各要素技術は,評価分析システムの他にも,計算機を介したコミュニケーション(computermediatedcommunication;CMC)\cite{boucouvalas2002a,liu2003a},質疑応答システム(multi-perspectivequestion-answering;MPQA)\cite{cardie2003a,stoyanov2004a},株価予測\cite{koppel2004a,das2001a}など,幅広い応用領域でその有効性が示されている. \section{テキスト評価分析に関連するその他の話題} \label{sec:kanren}本節では,テキスト評価分析に関連するその他の話題を紹介する.\subsection{主観性に関する諸研究}\label{sec:opi_sent}多くの文書は,ひとつの文書の中で,客観的な事実と主観的な意見が混じり合って記述される.本稿でとりあげた評価は,意見の中の下位分類に位置すると考えられ,本稿で述べた評価情報を扱う諸研究と意見情報を扱う諸研究は非常に関連が深いと考えられる.これまで,Wiebeらの研究グループが中心となって,主観的な意見,主観性(subjectivity)に焦点を当てた研究が進められている\cite{wiebe2004a}.主観性に関する研究では,主に,文書から主観的な意見が記述された文(以下,主観文)を判定し,抽出する課題が扱われる.具体的な事例研究としては,Wiebeetal.\cite{wiebe1999a},Riloffetal.\cite{riloff2003b},Pangetal.\cite{pang2004a}などがある.Hatzivassiloglouetal.\cite{hatzivassiloglou2000a}は,一部の形容詞の情報が主観文判定に有効であると報告しており,Weibe\cite{wiebe2000a}やVegnaduzzo\cite{vegnaduzzo2004a}によって,文の主観性に強い影響を与える形容詞を獲得する手法が提案されている.また,形容詞以外の情報として,文の主観性に強い影響を与える名詞\cite{riloff2003a}や単語のn-gram\cite{wiebe2001a}を自動獲得する手法も提案されている.主観文抽出の具体的な応用先としては,情報抽出や文書要約などが挙げられる.情報抽出では,実世界で実際に起きた事実の客観的な記述を抽出することに焦点が当たっており,主観文抽出を前処理として適用することで,抽出範囲を適切に絞り込むことができる.また,近年では,個人の意見がWeb掲示板やWeblogなどを通じて発信されている.そして,この個人の意見を要約することが求められている.この時,意見文抽出を実施することによって,要約対象となる意見を自動的に抽出することができる.\subsection{その他の題材}\label{sec:not_text}書き言葉で構成された文や文書以外にも,チャットや実対話を題材とした研究もある.Maeireizoetal.\cite{maeireizo2004a},Chambersetal.\cite{chambers2004a}は,実対話データを扱っている.また,Wuetal.\cite{wu2002a},Holzmanetal.\cite{holzman2003a}は,チャット対話中の発話に焦点を当てた.これらの研究では,本稿で取り上げた評価情報だけでなく,広く感情情報を意識する傾向にあり,実対話やチャット内の発話の感情を推定することが中心的な課題となる.この際,言語的な特徴だけでなく,音素や韻律などの音声的な特徴も積極的に利用される. \section{課題} \label{sec:kadai}本節では,テキスト評価分析において,現在までのところあまり議論がされておらず,今後,進展が望まれる話題を整理する.\subsection{「中立」の取り扱い}\label{sec:neutral}既に述べたように,これまでの評価分析の要素技術研究では,評価極性として肯定極性と否定極性のみを考慮し,2値分類問題として定式化されることが多い.しかし現実には,肯定極性と否定極性のいずれにも該当しない文や文書が存在する状況も多くある.そのため,今後は,\cite{koppel2005a}や\cite{yu2003a},あるいは\cite{suzuki2004a}のように,中立クラスを加えた3値での評価分析に対する考察が求められる.ただし,中立クラスを扱う際には,次の点に注意しなければならない.すなわち,現在でも中立クラスを考慮した研究は存在するが,研究者間でその意味するところは必ずしも一致しているわけではないという点である.ある事例が肯定極性でも否定極性でもない状況には幾つかの可能性がある.しかし現状では,それらすべてがまとめて中立と呼ばれている.ある事例が評価を含むか,また,評価極性があるか,という点から整理した場合,各事例は\fig{neutral_tree}の木構造のいずれかの葉ノードに割り振られる.本稿で紹介した各論文が主に扱っていた肯定極性と否定極性は,右隅の四角で囲った部分に位置する.それ以外の点線で囲まれた3つの葉ノードは,肯定極性か否定極性のいずれかの極性をもつわけではないという共通の特徴があり,現状では,これらのすべてあるいはいずれかのノードに該当する事例が「中立」と見なされている.しかしながら,図の階層分類からも明らかなように,点線で囲まれた3つの葉ノードはそれぞれ,評価を含まない,評価を含むが肯定極性でも否定極性でもない,肯定極性と否定極性の両方を含む,と言ったそれぞれに異なった特徴がある.今後,評価分析に関する諸研究を発展させていくには,「中立」という概念を再整理する必要があるだろう.\begin{figure}[t]\begin{center}\includegraphics[width=7cm]{fig-neutral.eps}\caption{「中立」の曖昧性}\label{fig:neutral_tree}\end{center}\end{figure}\subsection{評価の分類軸}\label{sec:eva_category}現在,評価分析の分類軸としては,肯定極性と否定極性からなる評価極性というひとつの軸を扱うのが主流であるが,今後は,目的に応じて分類軸は細分類化していく必要がある.評価極性は,感情や情緒\cite{inui2000a,mera2002a}とも関連が深く,今後の展開として,これらの領域との融合研究も興味深い.近年では,自由記述アンケートから書き手の意図を抽出する研究\cite{ootsuka2004a}や,意図の中でも特に要望\cite{kanayama2005a}や賛否\cite{galley2004a}に注目した研究も行われている.評価分析の一つの方向性として,これらの研究の今後の動向にも注意を向けたい.新たな分類軸の方向性について検討することも重要であるが,現状の評価極性自体にも目を向ける必要がある.現状の評価極性は,研究者によって意味する所が異なる部分があり,テキスト評価分析に利用される評価の軸を再考察する必要がある.例えば,次の例文\NUM{jiku}を考えてみよう.本稿で紹介した諸研究が扱う評価極性を見る限り,\NUMS{jiku}{a}が肯定極性をもつ評価情報を含んでいるとすることに異論をもつ研究者は少ないと考えられる.しかし,\NUMS{jiku}{a}と同様に肯定極性をもつと考えられる\NUMS{jiku}{b}も同じように評価情報を含んでいるとするか否かは研究者によって立場を異にする.\NUMS{jiku}{b}はある人物の嗜好の表出であって評価は表されていないとする立場も存在する.\EXS{jiku}{\itemこのりんごは味がよい。\itemりんごが好きです。}Martinの提案しているAppraisalsystem\cite{martin2000a,martin2003a}は,評価や意見,態度などの主観的な側面に関する言語能力を解明,説明する枠組みである.Taboadaetal.\cite{taboada2004a}は,実際にAppraisalsystemでの考え方に従って,複数の異なる評価の分類軸を扱っており,評価極性の再整理という点から見て,非常に興味深い研究である.\subsection{明示的に表されない評価}\label{sec:imp}\sec{aa}で述べた評価文書分類,評価文抽出,評価組抽出の各技術は,現在のところ,評価表現辞書のエントリとなるような明示的な評価表現に頼っている部分が多い.このため,現状では,評価表現辞書に登録されている語句がまったく出現しない,つまり,明示的に評価が表されない文書や文を取り扱うことが困難である.今後は,明示的に表されない評価を取り扱う方法についての技術開発も進める必要があると考えられる.評価が明示的か明示的でないかの境界を明確にすることは難しいが,例えば,\sec{comb}で紹介した極性発現はどちらかと言えば明示的でない評価を扱っている一例と言える.また,評価は意見の中の下位分類として位置付けられることが多いが,明示的に表されない評価は,意見の記述というよりは事実の記述となっていることがしばしばある(例えば,\cite{nigam2004a}は,このことを説明するために,「opinion」の対極として「evaluativefactual」という用語を導入している).例えば,次の例文\NUM{fact}は,明示的に表されない評価を含む文の例である.今後の評価分析に関する技術開発が進む方向次第では,評価分析が既存の意見分析の域には収まらず,独自の新たな研究領域を開拓しつつ進展していく可能性もある.\EXS{fact}{\item買ってすぐに電源が入らなくなった。\item空港でパスポートがないことに気が付いた。\itemおもわず息子の頭を撫でていた。}\subsection{基礎言語解析技術}\label{sec:parsing}テキスト評価分析で扱うテキストデータ(評価文書)には,非専門家によって記述されたWeb上の掲示板への書き込みやWeblogなどが含まれる.これらのテキストデータは,従来から言語処理の対象とされてきた新聞記事ほど形式的に記述されていないため,従来からある形態素解析等の基礎言語解析器をそのまま利用するだけでは,高い解析精度が得られない.また,評価文書には,表記の多様性や,局所的なコミュニティー特有の言い回し,略語などの現象が多く見受けられる.今後,これらの諸現象に柔軟に対応できる,より頑健な基礎言語解析技術の開発が望まれる.\subsection{評価文書の収集}\label{sec:collect}現在のテキスト評価分析に関する要素技術の諸研究では,多くの場合,ある評価対象についての評価情報が含まれている文書群が既に収集されているという前提のもとで研究がされている.しかし,明らかに,注目したい評価対象のすべてについて,この前提を置くことは適切ではなく,現実には,評価対象についての評価情報が含まれている文書群を獲得する方法,評価文書の収集方法を確立しなければならない.特に,\sec{daizai}で示したテキスト評価分析の題材となるテキストデータの分類のうち,潜在的に意見を含むテキスト(Web掲示板,Weblog,チャット)を処理対象とする場合には,この問題が顕在化するだろう. \section{おわりに} \label{sec:owarini}本論文では,近年盛んに研究活動が行われているテキスト評価分析に関する研究について,基盤となる研究から最近の研究動向までをまとめた.紹介した一連の研究領域は,いずれも成熟しているわけではなく,現在,急激に進展している状況にある.その中にあって,本論文がテキスト評価分析に関する現状あるいは今後の方向性を見極めるのに役立てれば幸いである.\acknowledgment本論文は筆者を含む有志による集い「AffectAnalysis勉強会」の活動から生まれた.勉強会に参加し,議論に加わって頂いたすべての方に感謝する.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bai,Padmanand,\BBA\Airoldi}{Baiet~al.}{2004}]{bai2004a}Bai,X.,Padmanand,R.,\BBA\Airoldi,E.\BBOP2004\BBCP.\newblock\BBOQSentimentExtractionfromUnstructuredTextusingTabuSearch-EnhancedMarkovBlanket\BBCQ\\newblockIn{\BemProceedingsoftheInternationalWorkshoponMiningforandfromtheSemanticWeb(MSW-2004)}.\bibitem[\protect\BCAY{Baron\BBA\Hirst}{Baron\BBA\Hirst}{2004}]{baron2004a}Baron,F.\BBACOMMA\\BBA\Hirst,G.\BBOP2004\BBCP.\newblock\BBOQCollocationsasCuestoSemanticOrientation\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Beineke,Hastie,\BBA\Vaithyanathan}{Beinekeet~al.}{2004}]{beineke2004a}Beineke,P.,Hastie,T.,\BBA\Vaithyanathan,S.\BBOP2004\BBCP.\newblock\BBOQTheSentimentalFactor:ImprovingReviewClassificationviaHuman-ProvidedInformation\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2004)}.\bibitem[\protect\BCAY{Berger,Pietra,\BBA\Pietra}{Bergeret~al.}{1996}]{berger1996a}Berger,A.~L.,Pietra,V.J.~D.,\BBA\Pietra,S.A.~D.\BBOP1996\BBCP.\newblock\BBOQAmaximumentropyapproachtonaturallanguageprocessing\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf22}(1),\mbox{\BPGS\39--71}.\bibitem[\protect\BCAY{Bethard,Yu,Thornton,Hatzivassiloglou,\BBA\Jurafsky}{Bethardet~al.}{2004}]{bethard2004a}Bethard,S.,Yu,H.,Thornton,A.,Hatzivassiloglou,V.,\BBA\Jurafsky,D.\BBOP2004\BBCP.\newblock\BBOQAutomaticExtractionofOpinionPropositionsandtheirHolders\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Boucouvalas}{Boucouvalas}{2002}]{boucouvalas2002a}Boucouvalas,A.~C.\BBOP2002\BBCP.\newblock\BBOQRealTimeText-to-EmotionEngineforExpressiveInternetCommunications\BBCQ\\newblockIn{\BemProceedingsofInternationalSymposiumonCommunicationSystems,NetworksandDigitalSignalProcessing(CSNDSP-2002)}.\bibitem[\protect\BCAY{Cardie,Wiebe,Wilson,\BBA\Litman}{Cardieet~al.}{2003}]{cardie2003a}Cardie,C.,Wiebe,J.,Wilson,T.,\BBA\Litman,D.~J.\BBOP2003\BBCP.\newblock\BBOQCombiningLow-LevelandSummaryRepresentationsofOpinionsforMulti-PerspectiveQuestionAnswering\BBCQ\\newblockIn{\BemProceedingsoftheNewDirectionsinQuestionAnswering},\mbox{\BPGS\20--27}.\bibitem[\protect\BCAY{Chambers,Tetreault,\BBA\Allen}{Chamberset~al.}{2004}]{chambers2004a}Chambers,N.,Tetreault,J.,\BBA\Allen,J.\BBOP2004\BBCP.\newblock\BBOQApproachesforAutomaticallyTaggingAffect\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Chandler}{Chandler}{1987}]{chandler1987a}Chandler,D.\BBOP1987\BBCP.\newblock{\BemIntroductiontoModernStatisticalMechanics}.\newblockOxfordUniversityPress.\bibitem[\protect\BCAY{Channell}{Channell}{2000}]{channell2000a}Channell,J.\BBOP2000\BBCP.\newblock{\BemCorpus-basedAnalysisofEvaluativeLexis},\BCH\3inEVALUATIONINTEXT:AuthorialStanceandtheConstructionofDiscourse,EditedbySusanHunston,UniversityofBirmingham,andGeoffThompson,\mbox{\BPGS\38--55}.\newblockOxfordUniversityPress.\bibitem[\protect\BCAY{Church\BBA\Hanks}{Church\BBA\Hanks}{1989}]{church1989a}Church,K.~W.\BBACOMMA\\BBA\Hanks,P.\BBOP1989\BBCP.\newblock\BBOQWordassociationnorms,mutualinformation,andLexicography\BBCQ\\newblockIn{\BemProceedingsofthe27th.AnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\76--83}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{{CoNLL-ShardTask}}{{CoNLL-ShardTask}}{2004}]{srl2004}{CoNLL-ShardTask}\BBOP2004\BBCP.\newblock\BBOQThe9th.ConferenceonComputationalNaturalLanguageLearning.SharedTask:SemanticRoleLabeling\BBCQ.\bibitem[\protect\BCAY{{CoNLL-ShardTask}}{{CoNLL-ShardTask}}{2005}]{srl2005}{CoNLL-ShardTask}\BBOP2005\BBCP.\newblock\BBOQThe10th.ConferenceonComputationalNaturalLanguageLearning.SharedTask:SemanticRoleLabeling\BBCQ.\bibitem[\protect\BCAY{Culotta\BBA\Sorensen}{Culotta\BBA\Sorensen}{2004}]{culotta2004a}Culotta,A.\BBACOMMA\\BBA\Sorensen,J.\BBOP2004\BBCP.\newblock\BBOQDependencyTreeKernelsforRelationExtraction\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2004)}.\bibitem[\protect\BCAY{Das\BBA\Chen}{Das\BBA\Chen}{2001}]{das2001a}Das,S.~R.\BBACOMMA\\BBA\Chen,M.~Y.\BBOP2001\BBCP.\newblock\BBOQYahoo!forAmazon:OpinionExtractionfromSmallTalkontheWeb\BBCQ\\newblockIn{\BemProceedingsofthe8thAsiaPacificFinanceAssociationAnnualConference}.\bibitem[\protect\BCAY{Dave,Lawrence,\BBA\Pennock}{Daveet~al.}{2003}]{dave2003a}Dave,K.,Lawrence,S.,\BBA\Pennock,D.~M.\BBOP2003\BBCP.\newblock\BBOQMiningthePeanutGallery:OpinionExtractionandSemanticClassificationofProductReviews\BBCQ\\newblockIn{\BemProceedingsofthe12thInternationalWorldWideWebConference(WWW-2003)}.\bibitem[\protect\BCAY{Dempster,Laird,\BBA\Rubin}{Dempsteret~al.}{1977}]{dempster1977a}Dempster,A.~P.,Laird,N.~M.,\BBA\Rubin,D.~B.\BBOP1977\BBCP.\newblock\BBOQMaximumlikelihoodfromincompletedataviathe{EM}algorithm\BBCQ\\newblock{\BemJournaloftheRoyalStatisticalSocietySeriesB},{\Bbf39}(1),\mbox{\BPGS\1--38}.\bibitem[\protect\BCAY{Dini\BBA\Mazzini}{Dini\BBA\Mazzini}{2002}]{dini2002a}Dini,L.\BBACOMMA\\BBA\Mazzini,G.\BBOP2002\BBCP.\newblock{\BemOpinionclassificationthroughinformationextraction},\mbox{\BPGS\299--310}.\newblockinA.Zanasi,C.A.Brebbia,N.F.F.EbeckenandP.Melli(eds),DataMiningIII,WITPress.\bibitem[\protect\BCAY{Dunning}{Dunning}{1993}]{dunning1993a}Dunning,T.\BBOP1993\BBCP.\newblock\BBOQAccuratemethodsforthestatisticsofsurpriseandcoincidence\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19},\mbox{\BPGS\61--74}.\bibitem[\protect\BCAY{Fellbaum}{Fellbaum}{1998}]{fellbaum1998a}Fellbaum,C.\BBOP1998\BBCP.\newblock{\BemWordNet:AnElectronicLexicalDatabase}.\newblockTheMITPress.\bibitem[\protect\BCAY{Galley,McKeown,Hirschberg,\BBA\Shriberg}{Galleyet~al.}{2004}]{galley2004a}Galley,M.,McKeown,K.,Hirschberg,J.,\BBA\Shriberg,E.\BBOP2004\BBCP.\newblock\BBOQIdentifyingAgreementandDisagreementinConversationalSpeech:UseofBayesianNetworkstoModelPragmaticDependencies\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2004)}.\bibitem[\protect\BCAY{Gamon}{Gamon}{2004}]{gamon2004a}Gamon,M.\BBOP2004\BBCP.\newblock\BBOQSentimentclassificationoncustomerfeedbackdata:noisydata,largefeaturevectors,andtheroleoflinguisticanalysis\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics(COLING-2004)}.\bibitem[\protect\BCAY{Gamon\BBA\Aue}{Gamon\BBA\Aue}{2005}]{gamon2005a}Gamon,M.\BBACOMMA\\BBA\Aue,A.\BBOP2005\BBCP.\newblock\BBOQAutomaticIdentificationofSentimentVocabulary:ExploitingLowAssociationwithKnownSentimentTerms\BBCQ\\newblockIn{\BemProceedingsoftheACLWorkshoponFeatureEngineeringforMachineLearninginNaturalLanguageProcessing}.\bibitem[\protect\BCAY{Hatzivassiloglou\BBA\McKeown}{Hatzivassiloglou\BBA\McKeown}{1997}]{hatzivassiloglou1997a}Hatzivassiloglou,V.\BBACOMMA\\BBA\McKeown,K.~R.\BBOP1997\BBCP.\newblock\BBOQPredictingtheSemanticOrientationofAdjectives\BBCQ\\newblockIn{\BemProceedingsofthe35thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-1997)}.\bibitem[\protect\BCAY{Hatzivassiloglou\BBA\Wiebe}{Hatzivassiloglou\BBA\Wiebe}{2000}]{hatzivassiloglou2000a}Hatzivassiloglou,V.\BBACOMMA\\BBA\Wiebe,J.~M.\BBOP2000\BBCP.\newblock\BBOQEffectofAdjectiveOrientationandGradabilityonSentenceSubjectivity\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonComputationalLinguistics(COLING-2000)},\mbox{\BPGS\299--305}.\bibitem[\protect\BCAY{Holzman\BBA\Pottenger}{Holzman\BBA\Pottenger}{2003}]{holzman2003a}Holzman,L.~E.\BBACOMMA\\BBA\Pottenger,W.~M.\BBOP2003\BBCP.\newblock\BBOQClassificationofEmotionsinInternetChat:AnApplicationofMachineLearningUsingSpeechPhonemes\BBCQ\\newblock\BTR,Lehighuniv(LU-CSE-03-002).\bibitem[\protect\BCAY{Hu\BBA\Liu}{Hu\BBA\Liu}{2004a}]{hu2004a}Hu,M.\BBACOMMA\\BBA\Liu,B.\BBOP2004a\BBCP.\newblock\BBOQMiningandSummarizingCustomerReviews\BBCQ\\newblockIn{\BemProceedingsofthe2004ACMSIGKDDinternationalconferenceonKnowledgediscoveryanddatamining(KDD-2004)},\mbox{\BPGS\168--177}.\bibitem[\protect\BCAY{Hu\BBA\Liu}{Hu\BBA\Liu}{2004b}]{hu_min2004b}Hu,M.\BBACOMMA\\BBA\Liu,B.\BBOP2004b\BBCP.\newblock\BBOQMiningOpinionFeaturesinCustomerReviews\BBCQ\\newblockIn{\BemProceedingsof19thNationalConferenceonArtificialIntellgience(AAAI-2004)}.\bibitem[\protect\BCAY{Hurst\BBA\Nigam}{Hurst\BBA\Nigam}{2004}]{hurst2004a}Hurst,M.\BBACOMMA\\BBA\Nigam,K.\BBOP2004\BBCP.\newblock\BBOQRetrievingTopicalSentimentsfromOnlineDocumentCollections\BBCQ\\newblockIn{\BemProceedingsofthe11thDocumentRecognitionandRetrieval}.\bibitem[\protect\BCAY{Ikehara,Miyazaki,Shirai,Yokoo,Nakaiwa,Ogura,Ooyama,\BBA\Hayashi}{Ikeharaet~al.}{1997}]{goitaikei-e}Ikehara,S.,Miyazaki,M.,Shirai,S.,Yokoo,A.,Nakaiwa,H.,Ogura,K.,Ooyama,Y.,\BBA\Hayashi,Y.\BBOP1997\BBCP.\newblock{\BemGoi-Taikei-AJapaneseLexicon}.\newblockIwanamiShoten.\bibitem[\protect\BCAY{Inoue\BBA\Carlucci}{Inoue\BBA\Carlucci}{2001}]{inoue2001a}Inoue,J.\BBACOMMA\\BBA\Carlucci,D.~M.\BBOP2001\BBCP.\newblock\BBOQImagerestorationusingtheq-isingspinglass\BBCQ\\newblock{\BemPhysicalReview},{\Bbf64}(036121-1-036121-18).\bibitem[\protect\BCAY{Jaakkola\BBA\Haussler}{Jaakkola\BBA\Haussler}{1998}]{jaakkola1998}Jaakkola,T.\BBACOMMA\\BBA\Haussler,D.\BBOP1998\BBCP.\newblock\BBOQExploitinggenerativmodelsindiscriminativeclassifiers\BBCQ\\newblockIn{\BemProc.oftheAdvancesinNeuralInformationPrcessingSystem2},\mbox{\BPGS\487--493}.\bibitem[\protect\BCAY{Kamps,Marx,Mokken,\BBA\de~Rijke}{Kampset~al.}{2004}]{kamps2004a}Kamps,J.,Marx,M.,Mokken,R.~J.,\BBA\de~Rijke,M.\BBOP2004\BBCP.\newblock\BBOQUsingWordNettoMeasureSemanticOrientationsofAdjectives\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonLanguageResourcesandEvaluation(LREC-2004)}.\bibitem[\protect\BCAY{Kanayama,Nasukawa,\BBA\Watanabe}{Kanayamaet~al.}{2004}]{kanayama2004a}Kanayama,H.,Nasukawa,T.,\BBA\Watanabe,H.\BBOP2004\BBCP.\newblock\BBOQDeeperSentimentAnalysisUsingMachineTranslationTechnology\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics(COLING-2004)}.\bibitem[\protect\BCAY{Kennedy\BBA\Inkpen}{Kennedy\BBA\Inkpen}{2005}]{kennedy2005a}Kennedy,A.\BBACOMMA\\BBA\Inkpen,D.\BBOP2005\BBCP.\newblock\BBOQSentimentClassificationofMovieandProductReviewsusingContextualValenceShifters\BBCQ\\newblockIn{\BemWorkshopontheAnalysisofInformalandFormalInformationExchangeduringNegotiations(FINEXIN-2005)}.\bibitem[\protect\BCAY{Kim\BBA\Hovy}{Kim\BBA\Hovy}{2004}]{kim2004a}Kim,S.-M.\BBACOMMA\\BBA\Hovy,E.\BBOP2004\BBCP.\newblock\BBOQDeterminingtheSentimentofOpinions\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics(COLING-2004)}.\bibitem[\protect\BCAY{Kleinberg\BBA\Tardos}{Kleinberg\BBA\Tardos}{1999}]{kleinberg1999a}Kleinberg,J.\BBACOMMA\\BBA\Tardos,E.\BBOP1999\BBCP.\newblock\BBOQApproximationAlgorithmsforClassificationProblemswithPairwiseRelationships:MetricLabelingandMarkovRandomFields\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualSymposiumonFoundationsofComputerScience}.\bibitem[\protect\BCAY{Koppel\BBA\Schler}{Koppel\BBA\Schler}{2005}]{koppel2005a}Koppel,M.\BBACOMMA\\BBA\Schler,J.\BBOP2005\BBCP.\newblock\BBOQTheImportanceofNeutralExamplesforLearningSentiment\BBCQ\\newblockIn{\BemWorkshopontheAnalysisofInformalandFormalInformationExchangeduringNegotiations(FINEXIN-2005)}.\bibitem[\protect\BCAY{Koppel\BBA\Shtrimberg}{Koppel\BBA\Shtrimberg}{2004}]{koppel2004a}Koppel,M.\BBACOMMA\\BBA\Shtrimberg,I.\BBOP2004\BBCP.\newblock\BBOQGoodNewsorBadNews?LettheMarketDecide\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Kresel}{Kresel}{1999}]{kresel1999a}Kresel,U.\BBOP1999\BBCP.\newblock\BBOQPairwiseclassificationandsupportvectormachines\BBCQ\\newblock{\BemAdvancesinkernelmethods:supportvectorlearning},\mbox{\BPGS\255--268}.\bibitem[\protect\BCAY{Landauer\BBA\Dumais}{Landauer\BBA\Dumais}{1997}]{landauer1997a}Landauer,T.~K.\BBACOMMA\\BBA\Dumais,S.~T.\BBOP1997\BBCP.\newblock\BBOQAsolutiontoPlato'sproblem:Thelatentsemanticanalysistheoryoftheacquisition,induction,andrepresentationofknowledge\BBCQ\\newblock{\BemPsychologicalReview},{\Bbf104},\mbox{\BPGS\211--240}.\bibitem[\protect\BCAY{Li\BBA\Yamanishi}{Li\BBA\Yamanishi}{2001}]{li2001a}Li,H.\BBACOMMA\\BBA\Yamanishi,K.\BBOP2001\BBCP.\newblock\BBOQMiningfromopenanswersinquestionnairedata\BBCQ\\newblockIn{\BemProceedingsoftheseventhACMSIGKDDinternationalconferenceonKnowledgediscoveryanddatamining},\mbox{\BPGS\443--449}.\bibitem[\protect\BCAY{Liu,Hu,\BBA\Cheng}{Liuet~al.}{2005}]{liu2005a}Liu,B.,Hu,M.,\BBA\Cheng,J.\BBOP2005\BBCP.\newblock\BBOQOpinionObserver:AnalyzingandComparingOpinionsontheWeb\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalWorldWideWebConference(WWW-2005)}.\bibitem[\protect\BCAY{Liu,Lieberman,\BBA\Selker}{Liuet~al.}{2003}]{liu2003a}Liu,H.,Lieberman,H.,\BBA\Selker,T.\BBOP2003\BBCP.\newblock\BBOQAModelofTextualAffectSensingusingReal-WorldKnowledge\BBCQ\\newblockIn{\BemProceedingsofthe2003InternationalConferenceonIntelligentUserInterfaces(IUI-2003)}.\bibitem[\protect\BCAY{Mackay}{Mackay}{2003}]{mackay2003a}Mackay,D.J.~C.\BBOP2003\BBCP.\newblock{\BemInformationTheory,InferenceandLearningAlgorithms}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Maeireizo,Litman,\BBA\Hwa}{Maeireizoet~al.}{2004}]{maeireizo2004a}Maeireizo,B.,Litman,D.,\BBA\Hwa,R.\BBOP2004\BBCP.\newblock\BBOQCo-trainingforPredictingEmotionswithSpokenDialogueData\BBCQ\\newblockIn{\BemInACL-04.CompanionVolumetotheProceedingsoftheConference.ProceedingsoftheStudentResearchWorkshop,InteractivePosters/DemonstrationsandTutorialAbstracts},\mbox{\BPGS\203--206}.\bibitem[\protect\BCAY{Martin}{Martin}{2000}]{martin2000a}Martin,J.\BBOP2000\BBCP.\newblock{\BemBeyondExchange:AppraisalsystemsinEnglish},\mbox{\BPGS\142--175}.\newblockInHunston,S.andThompson,G.eds.,EvaluationinText(OxfordUniversity).\bibitem[\protect\BCAY{Martin}{Martin}{2003}]{martin2003a}Martin,J.~R.\BBOP2003\BBCP.\newblock\BBOQIntroduction,specialissueonAppraisal\BBCQ\\newblock{\BemText},{\Bbf23}(2),\mbox{\BPGS\171--181}.\bibitem[\protect\BCAY{Matsumoto,Takamura,\BBA\Okumura}{Matsumotoet~al.}{2005}]{matsumoto2005a}Matsumoto,S.,Takamura,H.,\BBA\Okumura,M.\BBOP2005\BBCP.\newblock\BBOQSentimentClassificationusingWordSub-SequencesandDependencySub-Trees\BBCQ\\newblockIn{\BemProceedingsofthe9thPacific-AsiaInternationalConferenceonKnowledgeDiscoveryandDataMining(PAKDD-2005)}.\bibitem[\protect\BCAY{Mitchell}{Mitchell}{1997}]{mitchell1997a}Mitchell,T.\BBOP1997\BBCP.\newblock{\BemMachineLearning}.\newblockMcGraw-Hill.\bibitem[\protect\BCAY{Morinaga,Yamanishi,Tateishi,\BBA\Fukushima}{Morinagaet~al.}{2002}]{morinaga2002a}Morinaga,S.,Yamanishi,K.,Tateishi,K.,\BBA\Fukushima,T.\BBOP2002\BBCP.\newblock\BBOQMiningProductReputationsontheWeb\BBCQ\\newblockIn{\BemProceedingsofthe8thACMSIGKDDInternationalConferenceonKnowledgeDiscoveryandDataMining(KDD-2002)}.\bibitem[\protect\BCAY{{MUC6}}{{MUC6}}{1995}]{muc6}{MUC6}\BBOP1995\BBCP.\newblock\BBOQThe6th.MessageUnderstandingConference\BBCQ.\bibitem[\protect\BCAY{{MUC7}}{{MUC7}}{1997}]{muc7}{MUC7}\BBOP1997\BBCP.\newblock\BBOQThe7th.MessageUnderstandingConference\BBCQ.\bibitem[\protect\BCAY{Mullen\BBA\Collier}{Mullen\BBA\Collier}{2004}]{mullen2004a}Mullen,T.\BBACOMMA\\BBA\Collier,N.\BBOP2004\BBCP.\newblock\BBOQSentimentanalysisusingsupportvectormachineswithdiverseinformationsources\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2004)}.\bibitem[\protect\BCAY{Nasukawa\BBA\Yi}{Nasukawa\BBA\Yi}{2003}]{nasukawa2003a}Nasukawa,T.\BBACOMMA\\BBA\Yi,J.\BBOP2003\BBCP.\newblock\BBOQSentimentAnalysis:CapturingFavorabilityUsingNaturalLanguageProcessing\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalConferenceonKnowledgeCapture(K-CAP2003)}.\bibitem[\protect\BCAY{{N}ational{I}nstitute~of{S}tandards\BBA\{T}echnology}{{N}ational{I}nstitute~of{S}tandards\BBA\{T}echnology}{2000}]{rdc}{N}ational{I}nstitute~of{S}tandards\BBACOMMA\\BBA\{T}echnology\BBOP2000\BBCP.\newblock\BBOQ{A}utomatic{C}ontent{E}xtraction\BBCQ.\newblockhttp://www.nist.gov/speech/tests/ace/index.htm.\bibitem[\protect\BCAY{Nigam\BBA\Hurst}{Nigam\BBA\Hurst}{2004}]{nigam2004a}Nigam,K.\BBACOMMA\\BBA\Hurst,M.\BBOP2004\BBCP.\newblock\BBOQTowardsaRobustMetricofOpinion\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Nigam,McCallum,Thrun,\BBA\Mitchell}{Nigamet~al.}{2000}]{nigam2000a}Nigam,K.,McCallum,A.,Thrun,S.,\BBA\Mitchell,T.\BBOP2000\BBCP.\newblock\BBOQTextClassificationfromLabeledandUnlabeledDocumentsusingEM\BBCQ\\newblock{\BemMachineLearning},{\Bbf39}(2/3),\mbox{\BPGS\103--134}.\bibitem[\protect\BCAY{Pang\BBA\Lee}{Pang\BBA\Lee}{2004}]{pang2004a}Pang,B.\BBACOMMA\\BBA\Lee,L.\BBOP2004\BBCP.\newblock\BBOQASentimentalEducation:SentimentAnalysisUsingSubjectivitySummarizationBasedonMinimumCuts\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2004)}.\bibitem[\protect\BCAY{Pang\BBA\Lee}{Pang\BBA\Lee}{2005}]{pang2005a}Pang,B.\BBACOMMA\\BBA\Lee,L.\BBOP2005\BBCP.\newblock\BBOQSeeingStars:ExploitingClassRelationshipsforSentimentCategorizationwithRespecttoRatingScales\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2005)}.\bibitem[\protect\BCAY{Pang,Lee,\BBA\Vaithyanathan}{Panget~al.}{2002}]{pang2002a}Pang,B.,Lee,L.,\BBA\Vaithyanathan,S.\BBOP2002\BBCP.\newblock\BBOQThumbsup?SentimentClassificationusingMachineLearningTechniques\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2002)},\mbox{\BPGS\76--86}.\bibitem[\protect\BCAY{Pearl}{Pearl}{1988}]{pearl1988a}Pearl,J.\BBOP1988\BBCP.\newblock{\BemProbabilisticReasoninginIntelligentSystems:NetworksofPlausibleInference}.\newblockMorganKaufmann.\bibitem[\protect\BCAY{Polanyi\BBA\Zaenen}{Polanyi\BBA\Zaenen}{2004}]{polanyi2004a}Polanyi,L.\BBACOMMA\\BBA\Zaenen,A.\BBOP2004\BBCP.\newblock\BBOQContextualValenceShifters\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Qu,Shanahan,\BBA\Wiebe}{Quet~al.}{2004}]{aaai2004a}Qu,Y.,Shanahan,J.,\BBA\Wiebe,J.\BBOP2004\BBCP.\newblock\BBOQExploringAttitudeandAffectinText:TheoriesandApplications\BBCQ\\newblock\BTR\SS-04-07,Papersfrom2004AAAISpringSymposium.\bibitem[\protect\BCAY{Rifkin\BBA\Klautau}{Rifkin\BBA\Klautau}{2004}]{rifkin2004a}Rifkin,R.\BBACOMMA\\BBA\Klautau,A.\BBOP2004\BBCP.\newblock\BBOQInDefenseofOne-Vs-AllClassification\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf5},\mbox{\BPGS\101--141}.\bibitem[\protect\BCAY{Riloff\BBA\Wiebe}{Riloff\BBA\Wiebe}{2003}]{riloff2003a}Riloff,E.\BBACOMMA\\BBA\Wiebe,J.\BBOP2003\BBCP.\newblock\BBOQLearningExtractionPatternsforSubjectiveExpressions\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2003)}.\bibitem[\protect\BCAY{Riloff,Wiebe,\BBA\Wilson}{Riloffet~al.}{2003}]{riloff2003b}Riloff,E.,Wiebe,J.,\BBA\Wilson,T.\BBOP2003\BBCP.\newblock\BBOQLearningSubjectiveNounsusingExtractionPatternBootstrapping\BBCQ\\newblockIn{\BemProceedingsofthe7thConferenceonComputationalNaturalLanguageLearning(CoNLL-2003)},\mbox{\BPGS\25--32}.\bibitem[\protect\BCAY{Roman\BBA\Piwek}{Roman\BBA\Piwek}{2004}]{roman2004a}Roman,N.~T.\BBACOMMA\\BBA\Piwek,P.\BBOP2004\BBCP.\newblock\BBOQPolitenessandSummarization:anExploratoryStudy\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Salvetti,Lewis,\BBA\Reichenbach}{Salvettiet~al.}{2004}]{salvetti2004a}Salvetti,F.,Lewis,S.,\BBA\Reichenbach,C.\BBOP2004\BBCP.\newblock\BBOQImpactofLexicalFilteringonOverallOpinionPolarityIdentification\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Sano}{Sano}{2004}]{sano2004a}Sano,M.\BBOP2004\BBCP.\newblock\BBOQAnAffect-BasedTextMiningSystemforQualitativeAnalysisofJapaneseFreeText\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Sebastiani}{Sebastiani}{2002}]{sebastiani2002a}Sebastiani,F.\BBOP2002\BBCP.\newblock\BBOQMachinelearninginautomatedtextcategorization\BBCQ\\newblock{\BemACMComputingSurveys},{\Bbf34}(1),\mbox{\BPGS\1--47}.\bibitem[\protect\BCAY{Seerwester,Dumais,Furnas,Landauer,\BBA\Harshman}{Seerwesteret~al.}{1990}]{deerwester1990a}Seerwester,S.,Dumais,S.~T.,Furnas,G.~W.,Landauer,T.~K.,\BBA\Harshman,R.\BBOP1990\BBCP.\newblock\BBOQIndexingbylatentsemanticanalysis\BBCQ\\newblock{\BemJournaloftheAmericanSocietyforInformationScience},{\Bbf41}(6),\mbox{\BPGS\391--407}.\bibitem[\protect\BCAY{Sekine\BBA\Isahara}{Sekine\BBA\Isahara}{1999}]{irex}Sekine,S.\BBACOMMA\\BBA\Isahara,H.\BBOP1999\BBCP.\newblock\BBOQIREXprojectoverview\BBCQ\\newblockIn{\BemProceedingsoftheIREXWorkshop}.\bibitem[\protect\BCAY{Smadja}{Smadja}{1994}]{smadja1994a}Smadja,F.~Z.\BBOP1994\BBCP.\newblock\BBOQRetrievingCollocationsfromText:Xtract\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(1),\mbox{\BPGS\143--177}.\bibitem[\protect\BCAY{Smola\BBA\Scholkopf}{Smola\BBA\Scholkopf}{1998}]{smola1998a}Smola,A.\BBACOMMA\\BBA\Scholkopf,B.\BBOP1998\BBCP.\newblock\BBOQAtutorialonsupportvectorregression\BBCQ.\bibitem[\protect\BCAY{Stone,Dunphy,Smith,\BBA\Ogilvie}{Stoneet~al.}{1966}]{stone1966a}Stone,P.~J.,Dunphy,D.~C.,Smith,M.~S.,\BBA\Ogilvie,D.~M.\BBOP1966\BBCP.\newblock{\BemTheGeneralInquirer:AComputerApproachtoContentAnalysis}.\newblockMITPress,Cambridge.\bibitem[\protect\BCAY{Stoyanov,Cardie,Litman,\BBA\Wiebe}{Stoyanovet~al.}{2004}]{stoyanov2004a}Stoyanov,V.,Cardie,C.,Litman,D.,\BBA\Wiebe,J.\BBOP2004\BBCP.\newblock\BBOQEvaluatinganOpinionAnnotationSchemeUsingaNewMulti-PerspectiveQuestionandAnswerCorpus\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Strapparava\BBA\Valitutti}{Strapparava\BBA\Valitutti}{2004}]{strapparava2004a}Strapparava,C.\BBACOMMA\\BBA\Valitutti,A.\BBOP2004\BBCP.\newblock\BBOQWordNet-Affect:anAffectiveExtensionofWordNet\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonLanguageResourcesandEvaluation(LREC-2004)}.\bibitem[\protect\BCAY{Taboada\BBA\Grieve}{Taboada\BBA\Grieve}{2004}]{taboada2004a}Taboada,M.\BBACOMMA\\BBA\Grieve,J.\BBOP2004\BBCP.\newblock\BBOQAnalyzingAppraisalAutomatically\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Takamura,Inui,\BBA\Okumura}{Takamuraet~al.}{2005}]{takamura2005a}Takamura,H.,Inui,T.,\BBA\Okumura,M.\BBOP2005\BBCP.\newblock\BBOQExtractingSemanticOrientationofWordsusingSpinModel\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2005)}.\bibitem[\protect\BCAY{Turney\BBA\Littman}{Turney\BBA\Littman}{2003}]{turney2003a}Turney,P.\BBACOMMA\\BBA\Littman,M.~L.\BBOP2003\BBCP.\newblock\BBOQMeasuringPraiseandCriticism:InferenceofSemanticOrientationfromAssociation\BBCQ\\newblock{\BemACMTransactionsonInformationSystems(TOIS)},{\Bbf21}(4).\bibitem[\protect\BCAY{Turney}{Turney}{2002}]{turney2002a}Turney,P.~D.\BBOP2002\BBCP.\newblock\BBOQThumbsup?thumbsdown?SemanticOrientationAppliedtoUnsupervisedClassificationofReviews\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2002)},\mbox{\BPGS\417--424}.\bibitem[\protect\BCAY{Turney\BBA\Littman}{Turney\BBA\Littman}{2002}]{turney2002b}Turney,P.~D.\BBACOMMA\\BBA\Littman,M.~L.\BBOP2002\BBCP.\newblock\BBOQUnsupervisedLearningofSemanticOrientationfromaHundred-Billion-WordCorpus\BBCQ\\newblock\BTR,TechnicalReportNRCTechnicalReportERB-1094,InstituteforInformationTechnology,NationalResearchCouncilCanada.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1995}]{vapnik1995a}Vapnik,V.~N.\BBOP1995\BBCP.\newblock{\BemTheNatureofStatisticalLearningTheory}.\newblockSpringer.\bibitem[\protect\BCAY{Vegnaduzzo}{Vegnaduzzo}{2004}]{vegnaduzzo2004a}Vegnaduzzo,S.\BBOP2004\BBCP.\newblock\BBOQAcquisitionofSubjectiveAdjectiveswithLimitedResources\BBCQ\\newblockIn{\BemAAAISpringSymposiumonExploringAttitudeandAffectinText:TheoriesandApplications}.\bibitem[\protect\BCAY{Wiebe,Wilson,Bruce,Bell,\BBA\Martin}{Wiebeet~al.}{2004}]{wiebe2004a}Wiebe,J.,Wilson,T.,Bruce,R.,Bell,M.,\BBA\Martin,M.\BBOP2004\BBCP.\newblock\BBOQLearningsubjectivelanguage\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf30}(3).\bibitem[\protect\BCAY{Wiebe,Wilson,\BBA\Bell}{Wiebeet~al.}{2001}]{wiebe2001a}Wiebe,J.,Wilson,T.,\BBA\Bell,M.\BBOP2001\BBCP.\newblock\BBOQIdentifyingCollocationsforRecognizingOpinions\BBCQ\\newblockIn{\BemProceedingsoftheACL/EACLWorkshoponCollocation}.\bibitem[\protect\BCAY{Wiebe}{Wiebe}{2000}]{wiebe2000a}Wiebe,J.~M.\BBOP2000\BBCP.\newblock\BBOQLearningSubjectivesAdjectivesfromCorpora\BBCQ\\newblockIn{\BemProceedingsofthe17thNationalConferenceonArtificialIntelligence(AAAI-2000)}.\bibitem[\protect\BCAY{Wiebe,Bruce,\BBA\O'hara}{Wiebeet~al.}{1999}]{wiebe1999a}Wiebe,J.~M.,Bruce,R.~F.,\BBA\O'hara,T.~P.\BBOP1999\BBCP.\newblock\BBOQDevelopmentandUseofaGold-StandardDataSetforSubjectivityClassifications\BBCQ\\newblockIn{\BemProceedingsofthe37thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-1999)},\mbox{\BPGS\246--253}.\bibitem[\protect\BCAY{Wolpert}{Wolpert}{1992}]{wolpert1992a}Wolpert,D.~H.\BBOP1992\BBCP.\newblock\BBOQStackedGeneralization\BBCQ\\newblock{\BemNeuralNetworks},{\Bbf5},\mbox{\BPGS\241--259}.\bibitem[\protect\BCAY{Wu,Khan,Fisher,Shuler,\BBA\Pottenger}{Wuet~al.}{2002}]{wu2002a}Wu,T.,Khan,F.~M.,Fisher,T.~A.,Shuler,L.~A.,\BBA\Pottenger,W.~M.\BBOP2002\BBCP.\newblock\BBOQPostingActTaggingUsingTransformation-BasedLearning\BBCQ\\newblockIn{\BemProceedingsofthe2002IEEEInternationalConferenceonDataMining(ICDM-2002)}.\bibitem[\protect\BCAY{Yi\BBA\Niblack}{Yi\BBA\Niblack}{2005}]{yi2005a}Yi,J.\BBACOMMA\\BBA\Niblack,W.\BBOP2005\BBCP.\newblock\BBOQSentimentMininginWebFountain\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonDataEngineering(ICDE-2005)}.\bibitem[\protect\BCAY{Yu\BBA\Hatzivassiloglou}{Yu\BBA\Hatzivassiloglou}{2003}]{yu2003a}Yu,H.\BBACOMMA\\BBA\Hatzivassiloglou,V.\BBOP2003\BBCP.\newblock\BBOQTowardsAnsweringOpinionQuestions:SeparatingFactsfromOpinionsandIdentifyingthePolarityofOpinionSentences\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP-2003)}.\bibitem[\protect\BCAY{Zelenko,Aone,\BBA\Richardella}{Zelenkoet~al.}{2003}]{zelenko2003a}Zelenko,D.,Aone,C.,\BBA\Richardella,A.\BBOP2003\BBCP.\newblock\BBOQKernelmethodsforrelationextraction\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf3},\mbox{\BPGS\1083--1106}.\bibitem[\protect\BCAY{大塚}{大塚}{2004}]{ootsuka2004a}大塚(乾)裕子\BBOP2004\BBCP.\newblock\Jem{自由記述アンケート回答の意図抽出および自動分類に関する研究-要求意図を中心に-}.\newblock博士論文,神戸大学大学院自然科学研究科.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本\JBA立石\JBA福島}{小林\Jetal}{2005}]{kobayashi2005a}小林のぞみ\JBA乾健太郎\JBA松本裕治\JBA立石健二\JBA福島俊一\BBOP2005\BBCP.\newblock\JBOQ意見抽出のための評価表現の収集\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\203--222}.\bibitem[\protect\BCAY{小林\JBA乾\JBA乾}{小林\Jetal}{2001}]{kobayashi2001a}小林のぞみ\JBA乾孝司\JBA乾健太郎\BBOP2001\BBCP.\newblock\JBOQ語釈文を利用した「p/n辞書」の作成\JBCQ\\newblock\Jem{人工知能学会言語・音声理解と対話研究会(SLUD-33)},\mbox{\BPGS\45--50}.\bibitem[\protect\BCAY{小林\JBA飯田\JBA乾\JBA松本}{小林\Jetal}{2005}]{kobayashi2005b}小林のぞみ\JBA飯田龍\JBA乾健太郎\JBA松本裕治\BBOP2005\BBCP.\newblock\JBOQ照応解析手法を利用した属性-評価値対および意見性情報の抽出\JBCQ\\newblock\Jem{言語処理学会第11回年次大会}.\bibitem[\protect\BCAY{筬島\JBA嶋田\JBA遠藤}{筬島\Jetal}{2005}]{osajima2005a}筬島郁子\JBA嶋田和孝\JBA遠藤勉\BBOP2005\BBCP.\newblock\JBOQ系列パターンを利用した評価表現の分類\JBCQ\\newblock\Jem{言語処理学会第11回年次大会}.\bibitem[\protect\BCAY{奥村\JBA難波}{奥村\JBA難波}{2005}]{oku2005a}奥村学\JBA難波英嗣\BBOP2005\BBCP.\newblock\Jem{テキスト自動要約}.\newblockオーム社.\bibitem[\protect\BCAY{奥村\JBA南野\JBA藤木\JBA鈴木}{奥村\Jetal}{2004}]{blogwatcher}奥村学\JBA南野朋之\JBA藤木稔明\JBA鈴木泰裕\BBOP2004\BBCP.\newblock\JBOQblogページの自動収集と監視に基づくテキストマイニング\JBCQ\\newblock\Jem{人工知能学会セマンティックウェブとオントロジー研究会(SIG-SWO-A401-01)}.\bibitem[\protect\BCAY{中山\JBA江口\JBA神門}{中山\Jetal}{2004}]{nakayama2004a}中山記男\JBA江口浩二\JBA神門典子\BBOP2004\BBCP.\newblock\JBOQ感情表現の抽出手法に関する提案\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会(NL-164-3)},\mbox{\BPGS\13--18}.\bibitem[\protect\BCAY{中山\JBA江口\JBA神門}{中山\Jetal}{2005}]{nakayama2005a}中山記男\JBA江口浩二\JBA神門典子\BBOP2005\BBCP.\newblock\JBOQ感情表現のモデル\JBCQ\\newblock\Jem{言語処理学会第11回年次大会}.\bibitem[\protect\BCAY{乾\JBA徳久\JBA徳久\JBA岡田}{乾\Jetal}{2000}]{inui2000a}乾健太郎\JBA徳久雅人\JBA徳久良子\JBA岡田直之\BBOP2000\BBCP.\newblock\JBOQ感情の生起とその反応\JBCQ\\newblock\Jem{日本ファジィ学会誌},{\Bbf12}(6),\mbox{\BPGS\741--751}.\bibitem[\protect\BCAY{立石\JBA福島\JBA小林\JBA高橋\JBA藤田\JBA乾\JBA松本}{立石\Jetal}{2004}]{tateishi2004a}立石健二\JBA福島俊一\JBA小林のぞみ\JBA高橋哲朗\JBA藤田篤\JBA乾健太郎\JBA松本裕治\BBOP2004\BBCP.\newblock\JBOQWeb文書集合からの意見情報抽出と着眼点に基づく要約生成\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会(NL-163-1)},\mbox{\BPGS\1--9}.\bibitem[\protect\BCAY{乾\JBA乾\JBA松本}{乾\Jetal}{2004}]{inui2004a}乾孝司\JBA乾健太郎\JBA松本裕治\BBOP2004\BBCP.\newblock\JBOQ出来事の望ましさ判定を目的とした語彙知識獲得\JBCQ\\newblock\Jem{言語処理学会第10回年次大会},\mbox{\BPGS\91--94}.\bibitem[\protect\BCAY{江崎\JBA松井\JBA大和田}{江崎\Jetal}{2005}]{esaki2005a}江崎晃司\JBA松井藤五郎\JBA大和田勇人\BBOP2005\BBCP.\newblock\JBOQWeblog上の評判情報における形容詞の出現位置を考慮した賛否分類\JBCQ\\newblock\Jem{情報処理学会第67回全国大会}.\bibitem[\protect\BCAY{藤村\JBA豊田\JBA喜連川}{藤村\Jetal}{2004}]{fujimura2004a}藤村滋\JBA豊田正史\JBA喜連川優\BBOP2004\BBCP.\newblock\JBOQWebからの評判および評価表現抽出に関する一考察\JBCQ\\newblock\Jem{夏のデータベースワークショップ(DBWS2004)}.\bibitem[\protect\BCAY{佐野}{佐野}{2004}]{sano2004b}佐野真\BBOP2004\BBCP.\newblock\JBOQ感性品質評価語辞書を利用したテキストマイニング\JBCQ\\newblock\Jem{情報処理学会論文誌:データベース},{\Bbf45}(SIG7(TOD22)).\bibitem[\protect\BCAY{村野\JBA佐藤}{村野\JBA佐藤}{2003}]{murano2003a}村野誠治\JBA佐藤理史\BBOP2003\BBCP.\newblock\JBOQ文型パターンを用いた主観的評価文の自動抽出\JBCQ\\newblock\Jem{言語処理学会第9回年次大会},\mbox{\BPGS\67--70}.\bibitem[\protect\BCAY{峠\JBA山本}{峠\JBA山本}{2004}]{touge2004a}峠泰成\JBA山本和英\BBOP2004\BBCP.\newblock\JBOQ手がかり語自動取得によるWeb掲示板からの評価文抽出\JBCQ\\newblock\Jem{言語処理学会第10回年次大会},\mbox{\BPGS\107--110}.\bibitem[\protect\BCAY{鈴木}{鈴木}{2005}]{suzuki2005a}鈴木泰裕\BBOP2005\BBCP.\newblock\JBOQWebデータを利用した評価表現辞書の自動作成\JBCQ\\newblockMaster'sthesis,東京工業大学大学院総合理工学研究科.\bibitem[\protect\BCAY{鈴木\JBA高村\JBA奥村}{鈴木\Jetal}{2004}]{suzuki2004a}鈴木泰裕\JBA高村大也\JBA奥村学\BBOP2004\BBCP.\newblock\JBOQWeblogを対象とした評価表現抽出\JBCQ\\newblock\Jem{人工知能学会セマンティックウェブとオントロジー研究会(SW-ONT-A401-02)}.\bibitem[\protect\BCAY{岡野原\JBA辻井}{岡野原\JBA辻井}{2005}]{okanohara2005a}岡野原大輔\JBA辻井潤一\BBOP2005\BBCP.\newblock\JBOQ評価文に対する二極指標の自動付与\JBCQ\\newblock\Jem{言語処理学会第11回年次大会}.\bibitem[\protect\BCAY{高村\JBA乾\JBA奥村}{高村\Jetal}{2005a}]{takamura2005c}高村大也\JBA乾孝司\JBA奥村学\BBOP2005a\BBCP.\newblock\JBOQスピンモデルによる単語の感情極性判定\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会(NL-166-11)}.\bibitem[\protect\BCAY{高村\JBA乾\JBA奥村}{高村\Jetal}{2005b}]{takamura2005b}高村大也\JBA乾孝司\JBA奥村学\BBOP2005b\BBCP.\newblock\JBOQ極性反転に対応した評価表現モデル\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会(NL-168-22)},\mbox{\BPGS\13--18}.\bibitem[\protect\BCAY{工藤\JBA松本}{工藤\JBA松本}{2003}]{kudo2003a}工藤拓\JBA松本裕治\BBOP2003\BBCP.\newblock\JBOQ部分木を素性とするDecisionStumpsとBoostingAlgorithmの適用\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会(NL-158-9)},\mbox{\BPGS\55--62}.\bibitem[\protect\BCAY{那須川\JBA金山}{那須川\JBA金山}{2004}]{nasukawa2004a}那須川哲哉\JBA金山博\BBOP2004\BBCP.\newblock\JBOQ文脈一貫性を利用した極性付評価表現の語彙獲得\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会(NL-162-16)},\mbox{\BPGS\109--116}.\bibitem[\protect\BCAY{金山\JBA那須川}{金山\JBA那須川}{2005}]{kanayama2005a}金山博\JBA那須川哲哉\BBOP2005\BBCP.\newblock\JBOQ要望表現の抽出と整理\JBCQ\\newblock\Jem{言語処理学会第11回年次大会}.\bibitem[\protect\BCAY{長江\JBA望月\JBA白井\JBA島津}{長江\Jetal}{2002}]{nagae2002a}長江朋\JBA望月源\JBA白井清昭\JBA島津明\BBOP2002\BBCP.\newblock\JBOQ製品コンセプトと製品評価文章の関係の分析\JBCQ\\newblock\Jem{言語処理学会第8回年次大会},\mbox{\BPGS\583--586}.\bibitem[\protect\BCAY{飯田\JBA小林\JBA乾\JBA松本\JBA立石\JBA福島}{飯田\Jetal}{2005}]{iida2005a}飯田龍\JBA小林のぞみ\JBA乾健太郎\JBA松本裕治\JBA立石健二\JBA福島俊一\BBOP2005\BBCP.\newblock\JBOQ意見抽出を目的とした機械学習による属性-評価値対同定\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会(NL-165-4)}.\bibitem[\protect\BCAY{目良\JBA市村\JBA相澤\JBA山下}{目良\Jetal}{2002}]{mera2002a}目良和也\JBA市村匠\JBA相澤輝昭\JBA山下利之\BBOP2002\BBCP.\newblock\JBOQ語の好感度に基づく自然言語発話からの情緒生起手法\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf17}(3),\mbox{\BPGS\186--195}.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{乾孝司}{1976年生.1999年九州工業大学情報工学部卒業,2001年九州工業大学大学院情報工学研究科修士課程修了,2004年奈良先端科学技術大学院大学情報科学研究科博士課程修了.同年,東京工業大学21世紀COEポスドク研究員,2005年日本学術振興会特別研究員,2006年東京工業大学統合研究院助手,現在に至る.博士(工学),主に自然言語処理の研究に従事.情報処理学会,言語処理学会,ACL各会員.}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,テキストマイニングに関する研究に従事.情報処理学会,人工知能学会,AAAI,言語処理学会,ACL,認知科学会,計量国語学会各会員.\\oku@pi.titech.ac.jp,\url{http://oku-gw.pi.titech.ac.jp/~oku/}.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V13N01-05
\section{はじめに} \label{sec:introduction}英日機械翻訳システムなどの対訳辞書を拡張するための手段の一つとして,対訳コーパスなどから語彙知識を自動的に獲得する方法が有望である.適切な語彙知識を獲得するためには,(1)対訳コーパスにおいて英語表現と日本語表現を正しく対応付ける処理と,(2)対応付けられた{\EJP}を辞書に登録するか否かを判定する処理の二つが必要である.後者の処理が必要な理由は,対応付けられた{\EJP}には,辞書に登録することによって翻訳品質が向上することがほぼ確実なものとそうでないものがあるため,これらを選別する必要があるからである.例えば,対訳コーパスから次のような{\EJP}の対応付けが得られたとする.\begin{center}\begin{tabular}{ll}CustomsandTariffBureau&関税局\\MinshutoandNewKomeito&民主党や公明党\\MiyagiandYamagata&宮城,山形両県\\\end{tabular}\end{center}これらのうち第一の{\EJP}は辞書に登録すべきであるが,第二,第三の{\EJP}はそうではない.なぜならば,``MinshutoandNewKomeito''を我々の機械翻訳システムで処理すると「民主党,及び,公明党」という翻訳が得られるが,この翻訳と「民主党や公明党」とでは翻訳品質に大きな差はないと判断できるからである.また,第三の{\EJP}は,``Miyagi''と``Yamagata''が県名を表わしていない文脈では不適切となり,文脈依存性が高いからである.このように,翻訳品質が変化しなかったり,低下することが予想されたりする{\EJP}はふるい落とさなければならない.我々が{\EJP}の対応付けと選別を分けて考えるもう一つの理由は,前者はシステム依存性が低いのに対して,後者は依存性が高いという違いがあるからである.対応付けが正しいか否かは個々の機械翻訳システムにほとんど依存しない.このため,正しい対応付けを得るための判定基準を設定する際には特定のシステムを想定する必要がない.これに対して,対応付けられた{\EJP}(辞書登録候補)を登録するべきか否かは個々の機械翻訳システムに依存するため,選別は,特定の機械翻訳システムを想定した判定基準に基づいて行なわれなければならない.例えば,我々の機械翻訳システムには``theBankfor$ABC$''を「$ABC$銀行」のように訳す(前置詞``for''を訳出しない)規則が存在しない.このため,``theBankforInternationalSettlements''が「国際決済のための銀行」と訳されてしまう.従って,我々のシステムの場合はこの{\ENP}と「国際決済銀行」の対を辞書に登録すると判定するのが妥当である.しかし,もし前置詞``for''を訳出しないという規則を持つシステムが存在すれば,そのシステムにとっては登録する必要がないと判定するのが妥当であろう.従って,対応付けと選別とでは異なる正解判定基準を導入する必要がある.従来の研究では,異なる言語の表現同士を正しく対応付けることに焦点が当てられていることが多く\cite{Smadja96,Melamed99,Le00,Mcewan02,Tufis02,Utsuro02,Sadat03,Sato03,Yamamoto03,Ayan04,Izuha04,Sahlgren04},(正しく)対応付けられた表現対を辞書に登録するか否かを判定する処理について,選別のシステム依存性を認識した上で明確に議論した研究はほとんど見当たらない.専門用語とその対訳を獲得することを目的とした場合\cite{Dagan94,Resnik97,Tiedemann00}は,表現がある程度定式化していることが多いため,選別の必要性は低いかもしれない\footnote{(単言語の)専門用語の収集においても選別が必要であることを指摘した文献もある\cite{Sasaki05}.}.しかし,本稿では``NationalInstituteofInformationandCommunicationsTechnology''(情報通信研究機構)のような前置詞句と等位構造の両方または一方を持つ英語固有名詞句とそれに対応する日本語名詞句を対象とするが,このような英日表現対の場合には,選別処理は重要である.本稿では,対訳辞書に登録する目的で収集された英日表現対のうち,前置詞句と等位構造の両方または一方を持つ英語固有名詞句(以下では単に{\ENP}と呼ぶ)とそれに対応する日本語名詞句を辞書登録候補とし,この辞書登録候補を自動的に選別して適切な語彙知識を獲得する方法を提案する.辞書登録候補を正しく選別するという課題の解決策としては,(1)人間の辞書開発者が候補を選別する作業過程を分析し,その知見に基づいて選別規則を人手で記述する方法と,(2)機械学習手法を利用して,人間の辞書開発者が選別した事例集から選別器を自動的に作成する方法とがある.候補を登録するか否かは様々な要因によって決まるため,複雑に関連し合う要因を人手で整理し,その結果に基づいて規則を記述するより,機械学習手法を利用するほうが実現が容易であると考えられる.このようなことから本稿では機械学習を利用した方法を採る.辞書登録候補は,翻訳品質の観点から,登録すれば翻訳品質が向上するものと,登録しても変化しないものと,登録によって低下するものの三種類に分けられる.このように分けた場合,翻訳品質が向上する候補は登録すべきものであり,翻訳品質に変化がない候補は登録する必要がないものであり,翻訳品質が低下する候補は登録すべきでないものであると言える.しかし,実際には,登録する必要がない場合と登録すべきでない場合はまとめて考えることができるので,行なうべき判定は登録するか否かの二値となる.この二値判定を行なうために{\SVM}を利用する. \section{着目した素性} \label{sec:feats}辞書登録候補の選別に機械学習手法を利用する場合,学習に用いる素性としてどのような情報に着目するかが重要となる.学習に用いる素性を決定するために,まず,人間の辞書開発者が候補の選別をどのように行なっているかについて考える.ある{\ENP}とそれに対応する日本語表現(以下では{\NT}と呼ぶ)から成る辞書登録候補を辞書に登録するか否かを判定する際に辞書開発者は開発に携わっているシステムの特性(辞書や規則など)を考慮に入れつつ様々な観点から検討を加え,最終的な判断を下している.そのうち最も重要な判断基準の一つは,辞書登録候補を登録した場合それに値するだけの改善が翻訳品質に見られるかどうかであろう.もし十分な品質向上が達成できると辞書開発者が考えればその辞書登録候補を登録すると判定し,そうでなければ登録しないと判定する.辞書登録候補を登録することによって達成される改善の度合いは,その辞書登録候補が登録されていない状態での辞書を用いて{\ENP}を翻訳した結果(以下では{\CT}と呼ぶ)と{\NT}を比較することによって見極めることができる.本研究では,辞書開発者のこのような作業を機械的に模倣し,{\CT}と{\NT}を比較して得られる差異に着目して辞書登録候補を選別することを試みる.具体的には,{\CT}と{\NT}で異なる部分(差分部分)と両者に共通する部分(共通部分)が辞書登録候補の選別に影響しうる要因であると考え,それらを素性とする.{\CT}と{\NT}の差分部分と共通部分を表現する手段としては,表記情報(文字,形態素),品詞情報,意味情報などが挙げられる.まず,文字による表現について述べる.例えば``SpecialCommitteeonMedicalDevices''という{\ENP}が辞書に登録されておらず,この{\ENP}の{\CT}が「医療用具上の特別委員会」であり,{\NT}が「医療用具特別部会」であるとする.このとき,「医療用具上の特別委員会」と「医療用具特別部会」の差分部分と共通部分を,文字を単位として差分検出ツールmdiff\footnote{http://www2.nict.go.jp/jt/a132/member/murata/software/mdiff/mdiff.html}によって求めて出力形式を若干変更すると,図\ref{fig:mdiff_char}\,のような結果が得られる.従って,「医療用具上の特別委員会」と「医療用具特別部会」は,図\ref{fig:mdiff_char}\,に示す五つの素性comm(医療用具),diff(上の,NIL),comm(特別),diff(委員,部),comm(会)の値を1,その他の素性の値を0とする素性ベクトルに写像される.なお,diff($A$,$B$)は$A$と$B$が差分部分であることを表わし,comm($C$)は$C$が共通部分であることを表わす.また,NILは対応する部分が存在しないことを意味する.\begin{figure}[htbp]\begin{center}\begin{tabular}{|c|}\hlinecomm(医療用具)\\diff(上の,NIL)\\comm(特別)\\diff(委員,部)\\comm(会)\\\hline\end{tabular}\end{center}\caption{文字単位での差分・共通部分}\label{fig:mdiff_char}\end{figure}差分部分と共通部分を文字ではなく形態素で表現することも考えられる.例えば「医療用具上の特別委員会」と「医療用具特別部会」に対して茶筌\footnote{http://chasen.aist-nara.ac.jp/chasen/}によって形態素解析を行ない,形態素単位で差分部分と共通部分を求めると,図\ref{fig:mdiff_morph}\,のような結果が得られる.従って,「医療用具上の特別委員会」と「医療用具特別部会」は,形態素を単位とした場合,図\ref{fig:mdiff_morph}\,の四つの素性の値が1,その他の素性の値が0である素性ベクトルに写像される.なお,記号`/'は形態素の区切りを表わす.\begin{figure}[htbp]\begin{center}\begin{tabular}{|c|}\hlinecomm(医療/用具)\\diff(上/の,NIL)\\comm(特別)\\diff(委員/会,部会)\\\hline\end{tabular}\end{center}\caption{形態素単位での差分・共通部分}\label{fig:mdiff_morph}\end{figure}さらには,{\CT}と{\NT}の差分部分や共通部分を表わす素性として,品詞や概念識別子などの,表記よりも抽象化された(粒度が粗い)情報を利用することも考えられる.{\CT}「医療用具上の特別委員会」と{\NT}「医療用具特別部会」に対して茶筌の品詞単位で差分部分と共通部分を求めた結果を図\ref{fig:mdiff_pos}\,に示す.図\ref{fig:mdiff_morph}\,と図\ref{fig:mdiff_pos}\,を比べると,形態素による表現では「特別」が共通部分であり「委員/会」と「部会」が差分部分であると解釈されていたのに対して,品詞による表現では「特別/委員」と「特別/部会」の品詞が共通部分であり,{\CT}の「会」の品詞に対応する品詞が{\NT}には存在しないと解釈されている.\begin{figure}[htbp]\begin{center}\begin{tabular}{|c|}\hlinecomm(名詞-一般/名詞-一般)\\diff(名詞-接尾-副詞可能/助詞-連体化,NIL)\\comm(名詞-形容動詞語幹/名詞-一般)\\diff(名詞-接尾-一般,NIL)\\\hline\end{tabular}\end{center}\caption{品詞単位での差分・共通部分}\label{fig:mdiff_pos}\end{figure}概念識別子による表現では,形態素に対応する概念識別子を用いるか,またはそれらより抽象的な上位概念を表わす概念識別子を用いるかという選択肢がある.さらに,上位概念を表わす概念識別子を用いる場合,どの程度まで概念識別子の抽象度を上げるかを決める必要がある.本稿では,形態素に対応する概念識別子を用いる場合と,上位下位意味体系においてそれよりも一段上位の概念識別子(以下では上位概念識別子と呼ぶ)を用いる場合について実験を行なう.なお,いずれの場合においても概念識別子の曖昧性は考慮しない.すなわち,ある形態素に対して概念識別子が二つ以上存在する場合それらの中から無作為に概念識別子を一つ選ぶ.また,ある概念識別子に対して上位概念を表わす概念識別子が二つ以上存在する場合にもそれらの中から無作為に概念識別子を一つ選ぶ.このように曖昧性の解消を放棄せざるを得ない理由は,処理対象の表現が文脈から切り離されているため,曖昧性解消に必要な情報が十分には得られないことにある.概念識別子としてEDR日本語単語辞書\footnote{http://www2.nict.go.jp/kk/e416/EDR/J\_index.html}に記述されている識別子を用い,上位下位意味体系としてEDR概念体系辞書を利用する.EDR辞書から概念識別子が得られなかった場合は,未定義(undef)とする.なお,{\CT}や{\NT}の構成要素のうち茶筌品詞が名詞と未知語であるもののみを概念識別子への写像の対象とし,それ以外の構成要素は削除する.{\CT}「医療用具上の特別委員会」と{\NT}「医療用具特別部会」の差分部分と共通部分を,形態素に対応する概念識別子で表現した場合の素性を図\ref{fig:mdiff_sem}\,に示し,上位概念識別子で表現した場合の素性を図\ref{fig:mdiff_upsem}\,に示す.\begin{figure}[htbp]\begin{center}\begin{tabular}{|c|}\hlinecomm(0fe1dd/3cedca)\\diff(1eb357,NIL)\\comm(2016ed)\\diff(3bcaa4/3ceda8,107777)\\\hline\end{tabular}\end{center}\caption{概念識別子単位での差分・共通部分}\label{fig:mdiff_sem}\end{figure}\begin{figure}[htbp]\begin{center}\begin{tabular}{|c|}\hlinecomm(30f84f/3cfbb9)\\diff(4447c6,NIL)\\comm(201bb4)\\diff(44484c/444549,444614)\\\hline\end{tabular}\end{center}\caption{上位概念識別子単位での差分・共通部分}\label{fig:mdiff_upsem}\end{figure}これまでに述べた差分部分と共通部分の表現では,差分部分や共通部分の出現順序が考慮されていない.そこで,差分部分や共通部分の出現順序を考慮するためにこれらの$N$グラムを考える.例えば,「医療用具上の特別委員会」と「医療用具特別部会」について文字単位で差分部分と共通部分を求める場合の二グラムを作成すると図\ref{fig:mdiff_char_bigram}\,のようになり,「医療用具上の特別委員会」と「医療用具特別部会」は,図\ref{fig:mdiff_char_bigram}\,に示す四つの素性comm(医療用具)\&diff(上の,NIL),diff(上の,NIL)\&comm(特別),comm(特別)\&diff(委員,部),diff(委員,部)\&comm(会)の値を1,その他の素性の値を0とする素性ベクトルに写像される.なお,$A\&B$は$A$と$B$がこの順に出現していることを表わす.\begin{figure}[htbp]\begin{center}\begin{tabular}{|c|}\hlinecomm(医療用具)\&diff(上の,NIL)\\diff(上の,NIL)\&comm(特別)\\comm(特別)\&diff(委員,部)\\diff(委員,部)\&comm(会)\\\hline\end{tabular}\end{center}\caption{差分・共通部分の$N$グラム($N=2$)}\label{fig:mdiff_char_bigram}\end{figure}二グラムの他に三グラムも作成する.また,形態素,品詞,概念識別子,上位概念識別子による表現についても同様にそれぞれ二グラムと三グラムを作成する.差分部分と共通部分を表わす素性として,一グラムと二グラムを合成したものを用いることが考えられる.一グラムと二グラムを合成した場合,「医療用具上の特別委員会」と「医療用具特別部会」について文字単位で差分部分と共通部分を求めると,図\ref{fig:mdiff_char_bugram}\,のような素性が得られる.また,一グラムと二グラムと三グラムを合成することも考えられる.形態素,品詞,概念識別子,上位概念識別子による表現についても同様である.\begin{figure}[htbp]\begin{center}\begin{tabular}{|c|}\hlinecomm(医療用具)\\diff(上の,NIL)\\comm(特別)\\diff(委員,部)\\comm(会)\\comm(医療用具)\&diff(上の,NIL)\\diff(上の,NIL)\&comm(特別)\\comm(特別)\&diff(委員,部)\\diff(委員,部)\&comm(会)\\\hline\end{tabular}\end{center}\caption{差分・共通部分の$N$グラム($N\le2$)}\label{fig:mdiff_char_bugram}\end{figure}まとめると,本稿では,文字,形態素,品詞,概念識別子,上位概念識別子という選択肢と$N$グラム($N=1$,$N=2$,$N=3$,$N\le2$,$N\le3$)の選択肢の組み合わせについて,それぞれどれくらいの精度で辞書登録候補の選別が行なえるのかを検証する. \section{訓練事例集} \label{sec:traindata}教師あり機械学習を利用する手法で良好な結果を得るためには,大規模で一貫性のある訓練事例集が必要である.本研究では,訓練事例集を作成する労力を省くために,我々が保有している既存の言語資源を利用した.\subsection{正例の作成}\label{sec:traindata:pos}我々が実験に使用している機械翻訳システムの対訳辞書に登録されている英日表現対は,当然,これまでの辞書開発過程において辞書開発者によって登録すると判定されたものである.従って,このような英日表現対における日本語表現を{\NT}とみなすことができる.また,この{\NT}に対する{\CT}は,この英日表現対をシステムの対訳辞書から削除した状態で{\ENP}を翻訳すれば得ることができる.今回の実験で利用する事例は,{\ENP}$NP$と{\CT}$CT$と{\NT}$NT$の三つ組$<NP$,$CT$,$NT>$のうち{\CT}と{\NT}の部分だけに着目して,{\CT}と{\NT}の対を取り出したものである.このため,$<$Dept.ofTransport,トランスポートの部門,運輸省$>$と$<$DepartmentofTransport,トランスポートの部門,運輸省$>$のように{\ENP}は異なるが{\CT}と{\NT}の部分は同じである三つ組から{\CT}と{\NT}の対を取り出すと,二つの事例が重複する.このような場合,重複は許さず,事例を一つだけ事例集に含めることにする.{\ENP}と{\NT}の{\EJP}をシステムの対訳辞書から削除しても{\ENP}の翻訳として{\NT}が得られることがある\footnote{このような場合,対訳辞書に登録されている{\ENP}と{\NT}の対は,翻訳品質の観点からは冗長な登録である.}.このような場合には,{\CT}と{\NT}の間に差分が全く生じない.{\CT}と{\NT}の間に差分がないような{\EJP}は翻訳品質の向上に貢献しておらず,このような対を正例とみなすのは適切ではない.このため,事例集には含めないことにする.以上の方法により10154件の正例が作成できた.正例の一部を表\ref{tab:traindata_pos}\,に示す.正例を200件無作為抽出して大まかに観察すると,前置詞が訳出されない傾向や,接続詞andが訳出されないか中黒「・」に訳される傾向が見られた.\begin{table}[htbp]\caption{正例の一部}\label{tab:traindata_pos}\begin{center}{\footnotesize\begin{tabular}{|l|l|}\hline&\multicolumn{1}{c|}{{\CT}(上段)}\\\multicolumn{1}{|c|}{\raisebox{1.5ex}[0pt]{\ENP}}&\multicolumn{1}{c|}{{\NT}(下段)}\\\hline&国際決済のための銀行\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{theBankforInternationalSettlements}}&国際決済銀行\\\hline&アメリカの音響の社会\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{AcousticalSocietyofAmerica}}&米国音響協会\\\hline&教育のための大臣\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{MinisterforEducation}}&文部大臣\\\hline&パレスチナの解放のための民主党のフロント\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{DemocraticFrontfortheLiberationofPalestine}}&パレスチナ解放民主戦線\\\hline&電離放射線ハザードの防止に関する条例\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{OrdinanceonthePreventionofIonizingRadiationHazards}}&電離放射線障害防止規則\\\hline&パワー反応、及び、核燃料開発事業団\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{PowerReactionandNuclearFuelDevelopmentCorporation}}&動力炉・核燃料開発事業団\\\hline\end{tabular}}\end{center}\end{table}\subsection{負例の作成}我々は,これまでの辞書開発過程で候補には挙がったが辞書に登録されなかった英日表現対の一覧表を保有している.このような一覧表に掲載されている日本語表現は負例における{\NT}とみなすことができる.また,この{\NT}に対する{\CT}は現状の機械翻訳システムで{\ENP}を翻訳して得られる日本語表現である.正例作成の場合と同じく,{\ENP}と{\CT}と{\NT}の三つ組としては異なるが{\CT}と{\NT}の部分は同じであるものは,一つだけを事例集に含める.正例の場合,差分が全くない{\CT}と{\NT}の対は事例集に含めないが,負例の場合には,差分がないことが辞書に登録しないことの理由であると考えられるため,事例集に含める.負例として事例集に含めようとしている{\CT}と{\NT}の対が,既に正例として存在している場合,この対は事例集に含めないことにする.これは,既に辞書に登録済みであるため,重複登録を避ける目的で登録しないと判断された可能性があるからである.以上の方法により8878件の負例が作成できた.負例の一部を表\ref{tab:traindata_neg}\,に示す.\begin{table}[htbp]\caption{負例の一部}\label{tab:traindata_neg}\begin{center}{\footnotesize\begin{tabular}{|l|l|}\hline&\multicolumn{1}{c|}{{\CT}(上段)}\\\multicolumn{1}{|c|}{\raisebox{1.5ex}[0pt]{\ENP}}&\multicolumn{1}{c|}{{\NT}(下段)}\\\hline&喜劇の王\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{TheKingofComedy}}&キングオブコメディ\\\hline&英国、及び、スカンジナビア\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{UnitedKingdomandScandinavia}}&英国スカンジナビア経済同盟\\\hline&私は、ひどくあなたを愛する\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{ILoveYouToDeath}}&殺したいほどアイラブユー\\\hline&ブレシアのアーノルド\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{ArnoldofBrescia}}&ブレシアのアルノルドゥス\\\hline&遺憾の土地\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{LandofRegrets}}&痛惜の地\\\hline&財宝のための戦い\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{BattleForTheTreasure}}&財宝のための戦い\\\hline&マーシャル諸島共和国\\\multicolumn{1}{|l|}{\raisebox{1.5ex}[0pt]{RepublicoftheMarshallIslands}}&マーシャル諸島共和国\\\hline\end{tabular}}\end{center}\end{table}\subsection{訓練事例集のシステム依存性}本研究で作成した訓練事例集は,我々の機械翻訳システムの特性(辞書や規則など)を反映したものであるため,他のシステムの対訳辞書の拡張に直接利用することは望ましくない.また,本研究で扱っている選別問題において一般的に利用可能な訓練事例集を見つけることは容易ではないであろう.しかしながら,この点は問題にならないと考える.なぜならば,我々が利用した言語資源と同様の資源は,機械翻訳システムの研究開発に携わる他の組織にも存在する可能性が高いため,その組織で開発されている機械翻訳システムの特性に合わせて訓練事例集を作成できるからである.このように,対象システムの辞書開発時の経験に基づいてそのシステムに適した訓練事例集を作成するという方針は,辞書登録候補の選別は個々のシステムに依存するものであり一般的に論じることは必ずしも適切ではないという,\ref{sec:introduction}\,節で述べた考えに基づくものである. \section{実験と考察} \label{sec:experiment}本節では,辞書登録候補の選別法の有効性を検証するために行なった実験の結果を示す.{\SVM}による機械学習にはTinySVM\footnote{http://chasen.org/~taku/software/TinySVM/}を利用した.カーネル関数は一次の多項式とした.いずれの実験でも五分割の交差検定を行なった.評価にはF値を用いた.ただし,再現率(辞書登録すべき{\EJP}のうち正しくそのように判定されたものの割合)よりも適合率(辞書登録すると判定された{\EJP}のうち実際に辞書登録すべきものの割合)を重要視することにし,次の式(\ref{eq:fvalue})において$\beta=0.5$とした.\begin{equation}\mbox{F}値=\frac{(1+\beta^2)\times適合率\times再現率}{\beta^2\times適合率+再現率}\label{eq:fvalue}\end{equation}訓練事例集に現れた素性の異なり数を表\ref{tab:num_of_feats}\,に挙げる.一グラムの列($N=1$)を見ると,表記(文字,形態素),意味情報(概念識別子,上位概念識別子),品詞の順に素性の異なり数が小さくなっており,この順に情報の粒度が粗くなっていることが確認できる.一グラムの場合よりも三グラムの場合のほうが素性の異なり数が少なくなっているが,これは差分部分や共通部分の三グラムを抽出できない事例が存在するためである.\begin{table}[htbp]\caption{訓練事例集に現れた素性の異なり数}\label{tab:num_of_feats}\begin{center}\begin{tabular}{|l|c|c|c|c|c|}\hline&$N=1$&$N=2$&$N=3$&$N\le2$&$N\le3$\\\hline文字&31316&37603&28888&68919&97807\\形態素&28058&26214&16080&54272&70352\\品詞&11379&18695&18582&30074&48656\\概念識別子&23508&22711&12417&46219&58636\\上位概念識別子&21330&22349&12559&43679&56238\\\hline\end{tabular}\end{center}\end{table}\subsection{差分・共通部分の表現方法と選別性能}\label{sec:experiment:performance_feats}{\CT}と{\NT}の間の差分部分と共通部分を文字,形態素,品詞,概念識別子,上位概念識別子と$N$グラム($N=1$,$N=2$,$N=3$,$N\le2$,$N\le3$)の各組み合わせで表現したときの適合率,再現率,F値をそれぞれ表\ref{tab:pre}\,,表\ref{tab:rec}\,,表\ref{tab:fvalue}\,に示す.数値は五分割の交差検定の平均値である.\begin{table}[htbp]\caption{各表現での適合率}\label{tab:pre}\begin{center}\begin{tabular}{|l|c|c|c|c|c|}\hline&$N=1$&$N=2$&$N=3$&$N\le2$&$N\le3$\\\hline文字&0.868&0.878&0.873&0.871&0.869\\形態素&0.857&0.890&0.538&0.864&0.864\\品詞&0.683&0.843&0.856&0.739&0.710\\概念識別子&0.815&0.858&0.540&0.835&0.837\\上位概念識別子&0.796&0.864&0.540&0.824&0.823\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{各表現での再現率}\label{tab:rec}\begin{center}\begin{tabular}{|l|c|c|c|c|c|}\hline&$N=1$&$N=2$&$N=3$&$N\le2$&$N\le3$\\\hline文字&0.733&0.350&0.123&0.700&0.692\\形態素&0.640&0.192&0.995&0.610&0.605\\品詞&0.810&0.638&0.419&0.755&0.887\\概念識別子&0.566&0.170&0.996&0.518&0.515\\上位概念識別子&0.611&0.212&0.995&0.570&0.566\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{各表現でのF値}\label{tab:fvalue}\begin{center}\begin{tabular}{|l|c|c|c|c|c|c|c|}\hline&$N=1$&$N=2$&$N=3$&$N\le2$&$N\le3$&平均&標準偏差\\\hline文字&\underline{0.837}&0.675&0.392&0.831&0.827&0.712&0.192\\形態素&0.803&0.515&0.592&0.798&0.796&0.701&0.137\\品詞&0.705&0.792&0.708&0.743&0.739&0.737&0.035\\概念識別子&0.749&0.475&0.594&0.744&0.744&0.661&0.123\\上位概念識別子&0.750&0.535&0.595&0.757&0.755&0.678&0.106\\\hline平均&0.769&0.598&0.576&0.775&0.772&\multicolumn{1}{|c}{}&\\標準偏差&0.052&0.132&0.114&0.039&0.038&\multicolumn{1}{|c}{}&\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:fvalue}\,から,全体で最も高い選別性能(F値)を示す表現方法は文字一グラムであることが分かる.機械翻訳システムの対訳辞書に登録する必要がある表現には,新しく生み出されたものも含まれるが,このような表現は茶筌の辞書やEDR辞書にも登録されていない可能性が高い.このような場合,形態素の区切りや品詞付与において誤りが生じたり,概念識別子が概念辞書に登録されていなかったりすることは避けられない.従って,もし形態素解析誤りや辞書未登録の問題に選別性能低下の一因があるとすれば,文字(一グラム)による表現は形態素解析器や概念辞書を必要としないことから,望ましい表現方法であると言える.\subsubsection{$N$グラムごとの比較}差分部分や共通部分の出現順序を考慮すると,選別性能にどのような影響が出るのかを表\ref{tab:fvalue}\,に基づいて検証する.一グラム($N=1$),二グラム($N=2$),三グラム($N=3$)を用いた場合の各平均値を比較すると,一グラムの場合(0.769)よりも,二グラムの場合(0.598),三グラムの場合(0.576)のほうが性能が大きく低下している.一グラムの場合と二グラムの場合をより詳しく比較すると,品詞による表現を除き,二グラムより一グラムのほうが性能が高い.また,一グラムの場合と三グラムの場合をより詳しく見ると,品詞による表現のときに三グラムのほうが僅かに高いだけで,それ以外の表現のときには一グラムのほうが高いことが分かる.これらのことより,$N$グラム($N=2$,$N=3$)を単独で用いることが選別性能の向上につながるとは限らないと言える.一グラムだけを用いた場合($N=1$)の平均値,一グラムと二グラムを合成した場合($N\le2$)の平均値,一グラムと二グラムと三グラムを合成した場合($N\le3$)の平均値は,それぞれ0.769,0.775,0.772であり,その差はあまり大きくない.一グラムだけを用いた場合と,一グラムと二グラムを合成した場合をより詳しく比べると,品詞による表現と上位概念識別子による表現のときには後者のほうが性能が高いが,文字,形態素,概念識別子による表現のときには前者のほうが高い.また,一グラムだけを用いた場合と,一グラムと二グラムと三グラムを合成した場合を比較しても同様である.これらのことより,$N$グラムを合成することが選別性能の大幅な向上にはつながっていないと言える.標準偏差を見ると,性能のばらつきは,二グラムの場合と三グラムの場合がそれ以外の場合よりも大きいことが分かる.\subsubsection{文字,形態素,品詞,概念識別子,上位概念識別子での比較}差分部分や共通部分を文字,形態素,品詞,概念識別子,上位概念識別子のそれぞれで表現した場合の選別性能を表\ref{tab:fvalue}\,に基づいて比較する.文字,形態素,品詞,概念識別子,上位概念識別子による表現での各平均値を比べると,品詞で表現した場合に最も高い選別性能が得られていることが分かる.品詞による表現での差分情報の粒度は,それ以外の表現での粒度よりも粗い.このため品詞による表現での選別性能が最も悪くなるだろうと当初予想していたが,平均値で比較する限りはこの予想に反する結果となった.ただし,一グラムの場合で比較すると,差分情報の粒度が細かい表現方法(文字,形態素)から粗い表現方法への順で性能が低下している.標準偏差を見ると,品詞による表現は,ばらつきが小さく,比較的安定した性能を示していることが分かる.文字,形態素,概念識別子,上位概念識別子による表現では,二グラムと三グラムで性能の大幅な低下が見られるが,品詞による表現ではそのような低下は見られない.\subsection{素性の$N$グラムと$d$次の多項式関数による素性の組み合わせとの比較}\ref{sec:experiment:performance_feats}\,節では,素性の出現順序を考慮するために素性の$N$グラムを導入したが,一グラム,二グラム,三グラムを合成しても選別性能の大幅な向上は見られなかった.ところで,{\SVM}では,カーネル関数として$d$次の多項式を用いることによって$d$個までの素性の組み合わせを考慮することができる.そこで,$N$グラムを導入する代わりにカーネル関数をそれぞれ二次の多項式,三次の多項式として学習を行なった場合の選別性能を確認するための実験を行なった.その結果を表\ref{tab:fvalue_poly23}\,に示す.\begin{table}[htbp]\caption{二次,三次多項式での選別性能(F値)}\label{tab:fvalue_poly23}\begin{center}\begin{tabular}{|l|c|c|c|c|}\hline&$d=1$&$d=1$&$d=2$&$d=3$\\&$N\le2$&$N\le3$&$N=1$&$N=1$\\\hline文字&0.831&0.827&0.831&0.819\\形態素&0.798&0.796&0.801&0.792\\品詞&0.743&0.739&0.633&0.668\\概念識別子&0.744&0.744&0.206&0.415\\上位概念識別子&0.757&0.755&0.695&0.628\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:fvalue_poly23}\,より,二次や三次の多項式を用いて学習を行なった場合($d=2,N=1$と$d=3,N=1$)でも,素性の$N$グラムを用いた場合($d=1,N\le2$と$d=1,N\le3$)の選別性能を大きく上回ることはないことが分かる.\subsection{ベースラインとの比較}提案方法では,{\CT}と{\NT}の差分部分と共通部分が辞書登録候補の選別に影響しうる要因であると考え,それらを素性として{\SVM}による機械学習を行なう.これに対して,{\CT}と{\NT}の差分部分が多いほど辞書に登録する必要性が高いとの考えによる選別をベースラインの一つと考えることができる.このベースラインでは,{\CT}と{\NT}の差分部分の多さを示す指標として差分率を用いる.差分率$DR$は,{\CT}の文字数を$X$,{\NT}の文字数を$Y$とし,さらに{\CT}と{\NT}の差分部分の文字数$U$としたとき,次の式(\ref{eq:baseline})で計算する.\begin{equation}DR=\frac{U}{X+Y}\label{eq:baseline}\end{equation}ここで,{\CT}と{\NT}の差分を文字単位で求めている理由は,\ref{sec:experiment:performance_feats}\,節の実験で{\CT}と{\NT}の差分部分と共通部分を文字一グラムで表現した場合に最も高い選別性能が得られたからである.例えば{\CT}「医療用具上の特別委員会」(11文字)と{\NT}「医療用具特別部会」(8文字)の差分部分diff(上の,NIL)とdiff(委員,部)に含まれる文字は5文字であるから,差分率は5/19となる.このような方法で全訓練事例について差分率を求め,差分率が閾値以上のものを辞書に登録するという基準によって選別を行ない,選別性能を式(\ref{eq:fvalue})によって評価する.ただし,$\beta=0.5$である.閾値を0から1まで0.1刻みで変化させ,最もF値が高くなるときの性能をベースラインの性能とする.この方針により実験を行なったところ,閾値が0.1のときに適合率0.582,再現率0.959,F値0.632が得られた.このF値と表\ref{tab:fvalue}\,に挙げた提案手法によるF値を比較すると,一グラムだけを用いた場合($N=1$),一グラムと二グラムを合成した場合($N\le2$),一グラムと二グラムと三グラムを合成した場合($N\le3$)はいずれもベースラインを上回っており,提案手法は有効であると考えられる.\subsection{素性の貢献度}各素性が事例の分類にどの程度貢献しているかについて考察する.評価事例{\bfx}を分類する{\SVM}の識別関数は,カーネル関数に一次多項式を用いた場合,次の式(\ref{eq:svm})で表わされる\cite{Tsuda03}.ただし,${\bfx}_i$は訓練事例の素性ベクトル,$y_i$は${\bfx}_i$が正例であるか負例であるかを表わすラベルである($1\lei\len$).$\alpha_i$は学習によって得られる重みであり,$b$はバイアス項と呼ばれる定数である.関数$sgn(z)$は,$z$が0以上のとき1を返し,0未満のとき-1を返す.\begin{equation}f({\bfx})=sgn(\displaystyle\sum_{i=1}^{n}\alpha_iy_i({\bfx}_i\cdot{\bfx}+1)+b)\label{eq:svm}\end{equation}素性ベクトルを${\bfx}=(x^1,x^2,\ldots,x^m)$,${\bfx}_i=(x_i^1,x_i^2,\ldots,x_i^m)$として,式(\ref{eq:svm})の内積${\bfx}_i\cdot{\bfx}$を計算すると,次の式(\ref{eq:svm2})が得られる.\begin{equation}f({\bfx})=sgn(\displaystyle\sum_{j=1}^{m}\sum_{i=1}^{n}\alpha_iy_ix_i^jx^j+\displaystyle\sum_{i=1}^{n}\alpha_iy_i+b)\label{eq:svm2}\end{equation}式(\ref{eq:svm2})において$\displaystyle\sum_{i=1}^{n}\alpha_iy_ix_i^j$は素性$x^j$の重みである.素性$x^j$は,この重みの値が正ならば正例を選別することに貢献しており,負ならば負例を選別することに貢献している.また,重みの絶対値が大きいほど選別への貢献度が高い.\ref{sec:experiment:performance_feats}\,節の実験では,{\CT}と{\NT}の差分部分と共通部分を文字一グラムで表現した場合に最も高い選別性能が得られた.そこで,文字一グラムによる表現で選別を行なう場合について各素性の重みを求めた.正例の選別への貢献度が高い素性の上位20個を表\ref{tab:effective_feats_pos}\,に示し,負例の選別への貢献度が高い素性の上位20個を表\ref{tab:effective_feats_neg}\,に示す.なお,表\ref{tab:effective_feats_pos}\,と表\ref{tab:effective_feats_neg}\,に示した素性は,五分割の交差検定に用いた5種類の訓練事例集のうち最も高い性能が得られた訓練事例集に現われた素性である.\begin{table}[htbp]\caption{正例への貢献度が高い素性}\label{tab:effective_feats_pos}\begin{center}\begin{tabular}{|r|l|c|}\hline\multicolumn{1}{|c}{順位}&\multicolumn{1}{|c|}{素性}&重み\\\hline1&diff(の下院議員,共和国)&1.8627\\2&comm(銀行)&1.5026\\3&comm(カリフォルニア大学)&1.4865\\4&diff(アカデミー,学会)&1.4605\\5&diff(の下院,家)&1.4341\\6&comm(共産党)&1.4250\\7&diff(のための協会,研究所)&1.4150\\8&diff(のオフィス,局)&1.3844\\9&comm(博士)&1.3727\\10&diff(社,NIL)&1.3701\\11&comm(局)&1.3692\\12&comm(王国)&1.3687\\13&diff(の協会,研究所)&1.3572\\14&comm(政務次官)&1.3554\\15&diff(技術研究所,工業大学)&1.3548\\16&diff(のオフィス,事務所)&1.3353\\17&comm(湾)&1.3275\\18&comm(博物館)&1.3152\\19&diff(技術研究所,工科大学)&1.3140\\20&comm(大統領)&1.3072\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{負例への貢献度が高い素性}\label{tab:effective_feats_neg}\begin{center}\begin{tabular}{|r|l|c|}\hline\multicolumn{1}{|c}{順位}&\multicolumn{1}{|c|}{素性}&重み\\\hline1&diff(NIL,、)&-3.1121\\2&diff(NIL,の日本の社)&-2.0652\\3&diff(国家の貿易,全米統一通商)&-1.9463\\4&diff(NIL,;(社))&-1.9144\\5&diff(に関する米国の会,健康協)&-1.5846\\6&diff(NIL,、財団法人)&-1.5709\\7&diff(NIL,;《米》)&-1.5170\\8&diff(の煙草,たばこ)&-1.5121\\9&diff(NIL,の)&-1.5121\\10&diff(のための世界首脳会議,サミット)&-1.4938\\11&comm(、)&-1.4728\\12&diff(全,NIL)&-1.4262\\13&diff(NIL,、日本)&-1.4186\\14&diff(旅行薬の,、)&-1.3245\\15&diff(産業,NIL)&-1.3215\\16&diff(NIL,の日本社)&-1.3003\\17&diff(ヨーロッパの,、欧州)&-1.2814\\18&diff(インターナショナル,、国際)&-1.2646\\19&diff(NIL,、及び、)&-1.2488\\20&diff(NIL,、全米)&-1.2321\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:effective_feats_pos}\,を見ると,正例の選別への貢献度が高い素性には,差分部分を表わす素性diff($A$,$B$)だけでなく,共通部分を表わす素性comm($C$)も含まれていることが分かる.表\ref{tab:effective_feats_pos}\,に挙げた,差分部分を表わす素性を含む事例を調査したところ,これらの素性は,{\ENP}を構成する名詞の訳語の改善に関連するものであった.差分部分を表わす素性を含む事例には,$<$Rep.ofAfghanistan,アフガニスタンの下院議員,アフガニスタン共和国$>$や$<$InstituteforAdvancedTechnology,先進技術のための協会,先進技術研究所$>$などがある.貢献度第一位の素性diff(の下院議員,共和国)は,``Rep.of$ABC$''という{\ENP}において``$ABC$''が国名(の一部)である場合に,``Rep.''を``Representative''(下院議員)ではなく``Republic''(共和国)と解釈することによって翻訳品質が向上すると辞書開発者が判断した事例に多く現われていた.また,貢献度第七位の素性diff(のための協会,研究所)も,同じように,``Institutefor$ABC$''という{\ENP}の訳語を「$ABC$のための協会」ではなく「$ABC$研究所」とすることで翻訳品質が向上する事例に多く含まれていた.diff(の下院議員,共和国)やdiff(のための協会,研究所)などは,{\ENP}を構成する名詞の訳語の改善だけでなく,前置詞の訳語の改善にも貢献している.すなわち,{\CT}では,前置詞``of''や``for''は,それぞれ助詞「の」や「のために」と訳されているが,{\NT}では訳出されていない.\ref{sec:traindata:pos}\,節で,正例を概観すると前置詞が訳出されない傾向が見られたと述べたが,表\ref{tab:effective_feats_pos}\,に挙げた素性はこの観察に沿うものにもなっている.表\ref{tab:effective_feats_pos}\,に挙げた,共通部分を表わす素性を含む事例には$<$IndustrialDevelopmentBankofIndia,インドの産業の開発銀行,インド産業開発銀行$>$や$<$GulfofMexico,メキシコの湾,メキシコ湾$>$などがある.これらの例から分かるように,共通部分を表わす素性は,主に,前置詞の訳語の改善に関連しているものであった.表\ref{tab:effective_feats_neg}\,を見ると,負例の場合は正例の場合と異なり,選別への貢献度が高い素性は差分部分を表わす素性がほとんどであることが分かる.負例の選別への貢献度が高い素性を含む事例を調査した結果,これらの事例は大きく二種類に分類できた.一つは,{\NT}よりも{\CT}のほうが適切な翻訳であるとみなせるものである.例えば,貢献度第二位の素性diff(NIL,の日本の社)を含む事例$<$TheJapaneseSocietyofInsuranceScience,日本保険学会,保険科学の日本の社会$>$では明らかに{\CT}のほうが{\NT}よりも適切である.また,貢献度第三位の素性diff(国家の貿易,全米統一通商)を含む事例$<$CommitteeforaNationalTradePolicy,国家の貿易政策のための委員会,全米統一通商政策委員会$>$における{\NT}は文脈依存性が高く,{\ENP}が米国以外の委員会を意味しているときには不適切である.もう一種類は,{\NT}に不要な語句が含まれているものである.例えば,貢献度第一位の素性diff(NIL,、)を含む事例$<$CommitteetoProtectJournalists,ジャーナリストを保護するための委員会,、ジャーナリスト保護委員会$>$において{\NT}の先頭に読点が付いているために,この{\NT}をそのまま辞書に登録することは不適切であると判断されたものと考えられる\footnote{負例の中には,このような不要語句を取り除けば,正例となりうるものも比較的多く存在するが,これまでの辞書開発過程では,そのような修正を行なわないという方針で選別が行なわれた.}.また,第四位の素性diff(NIL,;(社))を含む事例$<$JapanSocietyofCorrosionEngineering,日本腐食防食協会,腐食防食協会;(社)$>$においては{\NT}に「;(社)」という注釈が付いているために,不適切であると判断されたものと考えられる. \section{おわりに} 機械翻訳システムなどで必要とされる語彙知識を獲得するためには,対訳コーパスにおいて二言語の表現を正しく対応付ける処理と,対応付けられた表現対を辞書に登録するか否かを判定する選別処理の二つが必要であるが,対応付けと選別は特定のシステムへの依存性に関して性質の異なる問題である.本稿では,このような点を指摘し,従来あまり扱われてこなかった辞書登録候補の選別問題を採り上げ,この問題を機械学習によって解く方法を示した.学習に用いる素性として,{\CT}と{\NT}で異なる部分と両者に共通する部分に着目し,差分部分や共通部分を表現する手段として,表記(文字,形態素),品詞,概念識別子を用いた.さらに,差分部分や共通部分の出現順序を考慮するためにこれらの$N$グラムを導入した.評価実験の結果,最も高い選別性能を示す表現方法は文字一グラムであることが明らかになった.文字による表現方法は,形態素解析器や概念識別子辞書を必要としないためこれらに起因する誤りの影響を受けないという点で望ましいと言える.今回の実験では,選別処理の評価に焦点を絞りたいため,英日表現対の対応付け性能は100\%であると仮定した.今後,対応付けと選別の両処理を含む全体システムを構築し,評価を行なっていく必要がある.\acknowledgment本稿の改善に有益なコメントを頂いた査読者の方に感謝いたします.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Ayan,Dorr,\BBA\Habash}{Ayanet~al.}{2004}]{Ayan04}Ayan,N.,Dorr,B.,\BBA\Habash,N.\BBOP2004\BBCP.\newblock\BBOQ{Multi-Align:CombiningLinguisticandStatisticalTechniquestoImproveAlignmentsforAdaptableMT}\BBCQ\\newblockIn{\BemProceedingsofthe6thConferenceoftheAssociationforMachineTranslationintheAmericas},\BPGS\17--26.\bibitem[\protect\BCAY{Dagan\BBA\Church}{Dagan\BBA\Church}{1994}]{Dagan94}Dagan,I.\BBACOMMA\\BBA\Church,K.\BBOP1994\BBCP.\newblock\BBOQ{Termight:IdentifyingandTranslatingTechnicalTerminology}\BBCQ\\newblockIn{\BemProceedingsofthe4thConferenceonAppliedNaturalLanguageProcessing},\BPGS\34--40.\bibitem[\protect\BCAY{出羽達也}{出羽達也}{2004}]{Izuha04}出羽達也\BBOP2004\BBCP.\newblock\JBOQ対訳文書から自動抽出した用語対訳による機械翻訳の訳語精度向上\JBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ87-D-II}(6),1244--1251.\bibitem[\protect\BCAY{Le,Youbing,\BBA\Yufang}{Leet~al.}{2000}]{Le00}Le,S.,Youbing,J.,\BBA\Yufang,S.\BBOP2000\BBCP.\newblock\BBOQ{WordAlignmentofEnglish-ChineseBilingualCorpusbasedonChunks}\BBCQ\\newblockIn{\BemProccedingsoftheJointSIGDATConferenceonEmpiricalMethodsinNaturalLanguageProcessingandVeryLargeCorpora},\BPGS\110--116.\bibitem[\protect\BCAY{McEwan,Ounis,\BBA\Ruthven}{McEwanet~al.}{2002}]{Mcewan02}McEwan,C.,Ounis,I.,\BBA\Ruthven,I.\BBOP2002\BBCP.\newblock\BBOQ{BuildingBilingualDictionariesfromParallelWebDocuments}\BBCQ\\newblockIn{\BemProceedingsofthe24thEuropeanColloquiumonInformationRetrievalResearch},\BPGS\303--323.\bibitem[\protect\BCAY{Melamed}{Melamed}{1999}]{Melamed99}Melamed,I.\BBOP1999\BBCP.\newblock\BBOQ{BitextMapsandAlignmentviaPatternRecognition}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf25}(1),107--130.\bibitem[\protect\BCAY{Resnik\BBA\Melamed}{Resnik\BBA\Melamed}{1997}]{Resnik97}Resnik,P.\BBACOMMA\\BBA\Melamed,I.\BBOP1997\BBCP.\newblock\BBOQ{Semi-AutomaticAcquisitionofDomain-SpecificTranslationLexicons}\BBCQ\\newblockIn{\BemProceedingsofthe5thConferenceonAppliedNaturalLanguageProcessing},\BPGS\340--347.\bibitem[\protect\BCAY{Sadat,Yoshikawa,\BBA\Uemura}{Sadatet~al.}{2003}]{Sadat03}Sadat,F.,Yoshikawa,M.,\BBA\Uemura,S.\BBOP2003\BBCP.\newblock\BBOQ{BilingualTerminologyAcquisitionfromComparableCorporaandPhrasalTranslationtoCross-LanguageInformationRetrieval}\BBCQ\\newblockIn{\BemProceedingsoftheCompanionVolumetotheProceedingsof41stAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\141--144.\bibitem[\protect\BCAY{Sahlgren}{Sahlgren}{2004}]{Sahlgren04}Sahlgren,M.\BBOP2004\BBCP.\newblock\BBOQ{AutomaticBilingualLexiconAcquisitionUsingRandomIndexingofAlignedBilingualData}\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonLanguageResourcesandEvaluation},\BPGS\1289--1292.\bibitem[\protect\BCAY{佐々木靖弘,佐藤理史,宇津呂武仁}{佐々木靖弘\Jetal}{2005}]{Sasaki05}佐々木靖弘,佐藤理史,宇津呂武仁\BBOP2005\BBCP.\newblock\JBOQウェブを利用した専門用語集の自動編集\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集}.\newblockB4-7.\bibitem[\protect\BCAY{佐藤健吾斎藤博昭}{佐藤健吾\JBA斎藤博昭}{2003}]{Sato03}佐藤健吾\BBACOMMA\斎藤博昭\BBOP2003\BBCP.\newblock\JBOQサポートベクタマシンを用いた対訳表現の抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(4),109--124.\bibitem[\protect\BCAY{Smadja,Hatzivassiloglou,\BBA\McKeown}{Smadjaet~al.}{1996}]{Smadja96}Smadja,F.,Hatzivassiloglou,V.,\BBA\McKeown,K.\BBOP1996\BBCP.\newblock\BBOQ{TranslatingCollocationsforBilingualLexicons:AStatisticalApproach}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf22}(1),1--38.\bibitem[\protect\BCAY{Tiedemann}{Tiedemann}{2000}]{Tiedemann00}Tiedemann,J.\BBOP2000\BBCP.\newblock\BBOQ{ExtractingPhrasalTermsusingBitext}\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponTerminologyResourcesandComputation,heldinconjunctionwithLREC}.\bibitem[\protect\BCAY{津田宏治}{津田宏治}{2003}]{Tsuda03}津田宏治\BBOP2003\BBCP.\newblock\JBOQカーネル法の理論と実際\JBCQ\\newblock甘利俊一\JED,\Jem{パターン認識と学習の統計学},\BPGS\97--138.岩波書店.\bibitem[\protect\BCAY{Tufis}{Tufis}{2002}]{Tufis02}Tufis,D.\BBOP2002\BBCP.\newblock\BBOQ{ACheapandFastWaytoBuildUsefulTranslationLexicons}\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonComputationalLinguistics},\BPGS\1030--1036.\bibitem[\protect\BCAY{Utsuro,Horiuchi,\BBA\Chiba}{Utsuroet~al.}{2002}]{Utsuro02}Utsuro,T.,Horiuchi,T.,\BBA\Chiba,Y.and~Hamamoto,T.\BBOP2002\BBCP.\newblock\BBOQ{Semi-automaticCompilationofBilingualLexiconEntriesfromCross-LinguallyRelevantNewsArticlesonWWWNewsSites}\BBCQ\\newblockIn{\BemProceedingsofthe6thConferenceoftheAssociationforMachineTranslationintheAmericas},\BPGS\165--176.Springer-Verlag.\bibitem[\protect\BCAY{Yamamoto,Kudo,Tsuboi,\BBA\Matsumoto}{Yamamotoet~al.}{2003}]{Yamamoto03}Yamamoto,K.,Kudo,T.,Tsuboi,Y.,\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQ{LearningSequence-to-SequenceCorrespondencesfromParallelCorporaviaSequentialPatternMining}\BBCQ\\newblockIn{\BemProceedingsoftheHLT-NAACLWorkshop:BuildingandUsingParallelTextsDataDrivenMachineTranslationandBeyond},\BPGS\73--80.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.1999年神戸大学大学院自然科学研究科博士課程修了.(財)計量計画研究所(非常勤),シャープ(株)を経て,2003年より龍谷大学理工学部情報メディア学科勤務.2004年より情報通信研究機構専攻研究員を兼任.}\bioauthor{九津見毅}{1965年生まれ.1990年,大阪大学大学院工学研究科修士課程修了(精密工学—計算機制御).同年,シャープ株式会社に入社.以来,英日機械翻訳システムの翻訳エンジンプログラムの開発に従事.言語処理学会会員.}\bioauthor{小谷克則}{1974年生まれ.2002年より情報通信研究機構特別研究員.2004年,関西外国語大学より英語学博士取得.}\bioauthor{佐田いち子}{1984年北九州大学文学部英文学科卒業.同年シャープ(株)に入社.現在,同社情報通信事業本部情報商品開発センター技術企画室副参事.1985年より機械翻訳システムの研究開発に従事.}\bioauthor{井佐原均}{1978年京都大学工学部卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.2001年情報通信研究機構(旧:通信総合研究所)けいはんな情報通信融合研究センター自然言語グループリーダー.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V07N04-10
\section{はじめに} 近年の音声認識,および機械翻訳の性能向上に伴い,これらの統合である音声翻訳システムの実現を目指した研究活動が活発に行われている\cite{Waibel1996}\cite{Stede1997}\cite{Carter1997}\cite{Sumita1999}\cite{NEC2000}.音声認識,機械翻訳などの各要素技術の性能向上だけでは,システム全体の性能の向上に限界がある.特に,音声認識結果は誤りを含む可能性が依然として高く,このような誤り含みの認識結果を適切に翻訳することは重要な研究課題の一つである.音声認識と文字認識を用いる言語処理には,認識誤りに対する頑健性の確保という共通の課題がある.文字認識の分野では,認識結果に対するポストプロセス的な誤り訂正の方式が研究されている\cite{Takeuchi1999}\cite{Shinnou1999}\cite{Nagata1998}\cite{Kukich1992}.一方,音声認識においては,正解を含めるのに必要な認識(訂正)候補の空間は文字認識の場合に比べて巨大であり,さらに音声認識では多くの場合,実時間での処理が求められるため,同様なアプローチによって有効な結果を得ることは難しいと考えられる.大語彙連続音声認識においては,音響モデル,言語モデルの精度向上と,デコーディングの効率化をバランスよく統合するアプローチとして,第1パスで簡易なモデルによる探索を行ない,第2パスでより詳細なモデルを用いて再探索・再評価を行なうような2パス探索による方法が良く知られている\cite{Kawahara2000}.さらに,統語的制約の適用によって誤り部分に対する品詞列の訂正結果を得る手法\cite{Tsukada1998}や,ConfusionMatrixとLexiconTreeに基づいて語彙の訂正結果を得る手法\cite{Coletti1999}が提案されている.音声認識結果に対するポストプロセス的な誤り訂正のアプローチとして,文字N-gramと誤りパターンに基づく誤り訂正を行なう手法\cite{Kaki1998}があるが,このような誤り訂正のアプローチは文字認識と比べるとあまり一般的ではない.困難な誤り訂正を行なわず,認識結果の妥当性判断によってシステムの頑健性を高める手法も検討されている.例えば,認識結果に対するConfidenceMeasureに基づいて,認識結果の出力を判断する手法\cite{Moreau1999}や,構成素境界解析から計算される意味的距離に基づいて,認識結果の正しい部分のみを翻訳する手法\cite{Wakita1998}が提案され,頑健性を向上することが確認されている.我々は,人間が会話において,発話の聞き取りがうまくいかなかった場合でも,話題に関する知識などを元にその内容を推測して聞き誤りを回復するように,コーパス中の用例から,誤りを含んだ認識結果と類似した表現を探し,誤り部分の訂正に生かすアプローチを検討してきた\cite{Ishikawa1998}\cite{Ishikawa1999}.我々の手法は,訂正候補の妥当性を音韻と意味の両方の観点から判断するもので,評価実験によってその有効性が確認された. \section{提案手法} \subsection{処理の流れ}まず,提案手法における処理の全体の流れから説明する.ここでは,入力として``和室のほうですと18000円いずれ\underline{も税}サービス料は別になります''が発話され,音声認識結果として下線部に誤りを含んだ``和室のほうですと18000円いずれ\underline{の戦}サービス料は別になります''が得られた場合を想定する.図\ref{process-flow}にその訂正処理の流れを示している.以下,図中の各ステップごとに順を追って説明する.\begin{description}\item[I]{\bf認識結果の訂正必要性判断}\begin{description}\item[I-1]{\bf構文解析および意味距離計算}音声認識結果を入力として構文解析\cite{Furuse1999}を行ない,認識結果の構文解析木と意味的距離の値を得る.図の構文解析木の各ノードには意味的距離の値が示されており,これらの値の総和は$1.42$である.\item[I-2]{\bf意味的距離による訂正必要性判断}意味的距離に対して適切な閾値$\theta$を設定する.意味的距離の総和がこの閾値以下の場合は``訂正不要'',閾値より大きい場合は``訂正必要''と判断する.``訂正不要''の場合,入力に対する判断``訂正不要''と共に元の音声認識結果を出力する.本研究では意味的距離の閾値を$\theta=1.00$とした.図の音声認識結果に対する意味的距離の総和$1.42$は閾値$\theta$より大きいため``訂正必要''と判断される.\item[I-3]{\bf訂正箇所の特定}{\bfI-2}で``訂正必要''と判断された場合,全ての部分木のうち意味的距離の総和が閾値$\theta$を越えるものに対応する部分列を全て訂正箇所とする.図中では,部分木に対応する形態素列を,形態素列``和室のほうですと18000円いずれの戦サービス料は別になるます''上に領域$1\sim8$として示している.これらの領域のうち,部分構造に対する意味的距離の総和が閾値$\theta=1.00$を超える領域$2,5,6,7,8$が訂正箇所である.\end{description}\item[II]{\bf訂正候補の作成}\begin{description}\item[II-1]{\bfテキストコーパスからの用例検索}{\bfI-3}で求められた訂正箇所に対してテキストコーパスから訂正箇所と音韻的に類似した部分を含む用例を検索する.図の訂正箇所5``\fbox{いずれ\underline{の戦}サービス料}''に対しては,類似した文字列を含む用例``\fbox{いずれ\underline{も税}サービス料}は別になるますので''が検索される.\item[II-2]{\bf訂正箇所の用例との置換}認識結果の訂正箇所を,用例文の対応箇所と置換し,訂正候補を得る.認識結果の訂正箇所5``\fbox{いずれ\underline{の戦}サービス料}''が,{\bfII-1}によって得られた用例の対応箇所``\fbox{いずれ\underline{も税}サービス料}''との置換により訂正され,訂正候補``和室のほうですと18000円\fbox{いずれ\underline{も税}サービス料}は別になるます''を得る.\item[II-3]{\bf音韻的距離による妥当性判断}音韻的距離に対して適当な閾値$\delta$を設定する.{\bfII-2}で得られた訂正候補と音声認識結果の間の音韻的距離を計算し,その値が閾値$\delta$を越える候補は妥当性が低いと判断し,排除する.本研究では音韻的距離の閾値として$\delta=0.3$を用いている.図中の訂正候補に対する音韻的距離は$0.05$であるため,妥当と判断される.\end{description}\item[III]{\bf訂正候補の妥当性判断}\begin{description}\item[III-1]{\bf構文解析および意味距離計算}{\bfII-3}で音韻的に妥当と判断された訂正候補に対して図中,訂正箇所5に関して得られた訂正候補の``意味的距離の総和''$0.00$を得る.\item[III-2]{\bf意味的距離による妥当性判断}意味的距離の総和が閾値$\theta$を越える候補は妥当性が低いと判断し,排除する.訂正候補が全て排除された場合,入力に対する判断``訂正不可''と共に音声認識結果を出力する.図の訂正箇所5に関して得られた訂正候補の意味的距離の総和$0.00$は,意味的距離の閾値$\theta=1.00$より小さいため,妥当と判断される.\item[III-3]{\bf訂正結果の出力}{\bfIII-2}で妥当と判断された訂正候補が存在する場合,入力に対する判断``訂正可能''と共に音韻的距離が最小のものを訂正結果として出力する.図中,日英音声翻訳において,音声認識結果からの翻訳結果,および訂正結果(訂正箇所5に関して得られた訂正候補と同一)からの翻訳結果を示している.音声認識結果からの翻訳における下線部の誤りは,日本語認識結果における下線部の誤り``\fbox{いずれ\underline{の戦}サービス料}''に起因しているが,``\fbox{いずれ\underline{も税}サービス料}''と訂正されることにより,日本語正解文の意味が適切に伝わる翻訳結果を得る.\end{description}\end{description}\begin{figure}[hp]\begin{center}\atari(132,190)\caption{提案手法の処理の流れ}\label{process-flow}\end{center}\end{figure}\subsection{構文解析および意味的距離計算}{\bfI-1}および{\bfIII-1}の{\bf構文解析および意味距離計算}では,構成素境界解析\cite{Furuse1999}を用いている.この解析法は,入力文に対して,変項と構成素境界よりなる表層パタンの照合を行ない,入力と学習文の単語の意味的距離の値によって意味的妥当性を判断し,構造の曖昧性による候補の爆発を抑えながら構文木の構築をボトムアップに行う方法である.ここで,単語間の意味的距離としてシソーラス\cite{Kadokawa1981}上での意味属性の位置関係に基づいた$0\sim1$の値が用いられており,さらにパタンに対する意味的距離\footnote{図\ref{process-flow}中の構文木中の各ノードに示した数値}は,各変項の入力単語とパタンに定義された学習単語との意味的距離の合計で計算される.脇田等\cite{Wakita1998}は,誤りを含んだ音声認識結果に対してこの構成素境界解析を適用し,構文木と意味的距離から正解部分が特定できることを示している.また,音声翻訳における正解部分の特定にこの解析法を適用する利点として,次の3点を挙げている.(1)厳格な文法規則では扱いが難しい話し言葉特有の表現の受理に優れているため,文法規則から逸脱する部分を認識誤りと判断しやすい.(2)解析で扱う表現パターンは,音声認識の言語モデルとして用いられているN-gramより長く,より大局的な部分での妥当性が考慮される.(3)解析がボトムアップのため,誤りによって文全体の構文木が得られなくても,正解部分に対する結果が得られる.前節で述べた{\bfI-2}意味的距離による訂正必要性判断,{\bfI-3}訂正箇所の特定,および{\bfIII-2}意味的距離による妥当性判断の有効性は,構成素境界解析の持つ以上のような性質に基づいている.\subsection{テキストコーパスからの用例検索}{\bfII-1}の{\bfテキストコーパスからの用例検索}では,{\bfI-3}で求められた訂正箇所に対して音韻的に類似した部分を含む用例の検索を行なう.まず,テキストコーパス中から訂正候補の作成に有用な用例を大まかに絞り込む.具体的には,訂正箇所とテキストコーパス中の各用例の文字列近似照合を行なうことにより,訂正箇所に対して文字列に関する類似度(文字の一致率)が一定以上の部分を含むような用例が抽出される.\footnote{音韻的に類似度の高いものは,多くの場合文字列の類似度も高いため,音韻的に類似した用例の大まかな絞り込みには文字列近似照合が十分有効である.}このような文字列近似照合の手法としては,agrepに実装されているアルゴリズム\cite{Wu1992}がよく知られている.agrepは,grepの機能と同じように指定されたパターンを含む行を検索し出力するが,パターンと行の対応部分が完全に一致していなくても,それらの間の編集距離が閾値以下であればその行を出力する.ここでは,長い文字列の照合に関してより高速なY.Lepageの方式\cite{Lepage1997}を用いている.さらに,{\bfII-2}において{\bf訂正箇所の用例との置換}を行なうため,検索によって絞り込まれた用例の形態素単位での対応付けが必要となる.ここでは,用例の形態素列中の可能な部分列のうち,訂正箇所に対して形態素の編集距離が最小となる形態素部分列をDPマッチングによって求め,訂正箇所への対応部分とする.\subsection{音韻的距離の計算}{\bfII-3}の{\bf音韻的距離による妥当性判断}では,{\bfII-2}で得られた訂正候補の妥当性を,認識結果に対する音韻的距離に基づいて判断する.認識結果と訂正候補の間の音韻的距離は,認識結果の音素列を$s_1$,訂正候補の音素列を$s_2$とすると,音素列$s_1$と$s_2$の間の編集距離に基づいて次のように定義される.\begin{displaymath}音韻的距離(s_1,s_2)=\frac{編集距離(s_1,s_2)}{全音素数(s_1)}\end{displaymath}ここで,$編集距離(s_1,s_2)$は,DPマッチングによって計算される音素列$s_2$の音素列$s_1$に対する編集距離である.図中の訂正候補に対する音韻的距離の計算に関しては次のようになる.認識結果の形態素列``和室のほうですと18000円いずれ\underline{の戦}サービス料は別になるます''に対する認識結果の音素列$s_1$は``w\_a\_sh\_i\_ts\_un\_oh\_o\_od\_e\_s\_ut\_o18000\_e\_ngi\_z\_u\_r\_e\underline{{\bfn}\_o{\bfs}\_e\_{\bfng}}s\_a\_a\_b\_i\_s\_u\_r\_j\_o\_ow\_ab\_e\_ts\_un\_i\_n\_a\_r\_um\_a\_s\_u''であり,また訂正候補の形態素列``和室のほうですと18000円いずれ\underline{も税}サービス料は別になるます''に対する訂正候補の音素列$s_2$は``w\_a\_sh\_i\_ts\_un\_oh\_o\_od\_e\_s\_ut\_o18000\_e\_ngi\_z\_u\_r\_e\underline{{\bfm}\_o{\bfz}\_e\_{\bfe}}s\_a\_a\_b\_i\_s\_u\_r\_j\_o\_ow\_ab\_e\_ts\_un\_i\_n\_a\_r\_um\_a\_s\_u''である.認識結果に対する訂正結果の音素編集は,$挿入:0$,$削除:0$,$置換:3({\bfn}\rightarrow{\bfm},{\bfs}\rightarrow{\bfz},{\bfng}\rightarrow{\bfe})$であるから,音韻的距離は$3/58=0.05$となる.\subsection{訂正候補の妥当性判断}提案手法が用いている訂正候補の妥当性判断の考え方,および効果について説明する.図\ref{phonetic-relations}は,{\bf正解},{\bf認識結果},{\bf訂正結果}の音韻的距離における関係を摸式的に表している.$\odot$は{\bf正解},$\otimes$は{\bf認識結果},$\circ(a,...,e)$はそれぞれ{\bf訂正候補}を表す.{\bf正解}$\odot$と{\bf認識結果}$\otimes$の間の距離は,認識誤りによって生じた音韻的距離を表す.また,{\bf認識結果}$\otimes$と{\bf訂正候補}$\circ(a,...,e)$の間の距離は,訂正処理によって生じた音韻的距離を表す.訂正候補$\circ(a,...,e)$のうち,妥当なのは{\bf正解}$\odot$に最も近い$b$であると予想される.しかしながら,実際の音声翻訳において正解$\odot$は未知である.\begin{figure}[hbt]\begin{center}\atari(105,77)\caption{正解,認識結果および訂正候補の間の音韻的な関係(摸式図)}\label{phonetic-relations}\end{center}\end{figure}提案手法では,訂正候補の妥当性を次の仮定に基づいて判断する.\begin{description}\item[音韻的距離の仮定]ある値の誤り率を持つ認識結果に対して,その認識結果から一定の音韻的距離以内に正解が含まれるような音韻的距離の閾値が存在する.\item[意味的距離の仮定]ある意味的に妥当な認識結果に対して,その認識結果の意味的距離が一定の値以下となるような意味的距離の閾値が存在する.\end{description}(1)まず{\bf音韻的距離の仮定}に基づき,{\bf認識結果}$\otimes$からの音韻的距離がある閾値を越える{\bf訂正候補}は,正解には該当しないとして排除する.図の候補$a,c$は,{\bf認識結果}$\otimes$からある閾値以上(円外)にあるため,排除される.(2)次に{\bf意味的距離の仮定}に基づき,意味的距離がある閾値を越える{\bf訂正候補}は,意味的に妥当でないとして排除する.図の候補$d$は誤りが部分的,もしくは誤って訂正された不完全な訂正候補である.{\bf認識結果}からの音韻的距離は近いが,意味的距離の値が閾値より大きいため意味的妥当性が十分には回復していないと判断して排除する.(3)最後に,(1),(2)での条件を満たす{\bf訂正候補}が複数ある場合,その内音韻的距離が最小のものを最終的な訂正結果として出力する.図では,音韻的,意味的に妥当な候補$b,e$のうち,認識結果により近い候補$b$を最終的な訂正結果として出力する.このように,訂正候補に対して音韻的妥当性と意味的妥当性の異なる判断を組み合わせる事によって,妥当性判断における信頼性をより高める効果が得られる. \section{日英音声翻訳における誤り訂正実験} \label{section-JE-closed}\subsection{実験条件}表\ref{JE-closed-condition}の実験条件で,日本語音声認識結果に対する誤り訂正実験を行なった.テキストデータとして,ATR旅行会話データ中の618会話(異なり15,265発声)を使用した.テストセットは,テキストデータに含まれる日英機械翻訳の学習セット467発声を用いた.日本語音声認識の精度は,単語正解率:$68.0\%$,発声正解率:$31.5\%$であった.また,訂正処理では意味的距離の閾値は$1.0$,音韻的距離の閾値は$0.3$を用いた.\begin{table}\begin{center}\caption{音声翻訳における誤り訂正の実験条件}\label{JE-closed-condition}\begin{tabular}{|ll|}\hline日本語テキストデータ&旅行会話データ618会話(異なり15,265発声)\\日本語テストセット&旅行会話データ467発声(機械翻訳の学習セット)\\意味的距離の閾値&1.0\\音韻的距離の閾値&0.3\\\hline\end{tabular}\end{center}\end{table}\subsection{訂正判断の精度}前章での説明のように,提案手法では入力の音声認識結果に対して,{\bf訂正不要}(誤りを含まないので訂正は不要),{\bf訂正可能}(誤りを含むので訂正は必要であり,誤りに対する適切な訂正が可能),{\bf訂正不可}(誤りを含むので訂正は必要だが,誤りに対する適切な訂正は不可能),のいずれかの判断を下す.認識結果が正しい場合には,{\bf訂正不要}と判断され,誤りが含まれている場合には,{\bf訂正可能}もしくは{\bf訂正不可}と判断されるのが理想的といえる.ここで,テストセット467発声の音声認識結果に対する訂正判断の結果と認識誤りの有無の関係を表\ref{JE-closed-judgement}に示す.\begin{table}\begin{center}\caption{テストセットに対する認識誤りと訂正判断}\begin{tabular}{|c||c|c|c||c|}\hline入力の認識&訂正不要&訂正不可&訂正可能&合計\\\hline\hline誤りなし&147&0&0&147\\\hline誤りあり&172&85&63&320\\\hline\hline合計&319&85&63&467\\\hline\end{tabular}\label{JE-closed-judgement}\end{center}\end{table}``誤りなし''の認識結果に対してはすべて,{\bf訂正不要}と判断されている.一方,訂正が必要と判断した発声({\bf訂正可能},{\bf訂正不可}の発声の和)において,``誤りあり''の認識結果の再現率は46.3\%(148/320),適合率は100\%(148/148)である.また,訂正が必要と判断した発声のうち,{\bf訂正可能}であった発声の割合は42.6\%(63/148)である.これらの数値の大小のみで単純に誤り訂正の有効性が結論されるわけではない.訂正が必要と判断されなかった誤りのある認識結果の中には,誤り訂正を行なわなくても発声の意味が十分理解できるような軽微な誤りのものが存在することが考えられ,また,{\bf訂正不可}と判断された認識結果の中には,誤りがひどいために正解の推定が困難で,誤り訂正が本質的に不可能なものが存在することが考えられるからである.\ref{subsection-JE-closed-4}節以降ではさらに,認識結果における誤りのひどさと訂正判断の関係,訂正結果の有効性等について,詳細な検討を行なう.\subsection{DPマッチングによる単語誤り率}音声認識における単語誤りの訂正前後での増減から誤り訂正の有効性を検証する.誤りの尺度として単語誤り率を導入し,認識結果と訂正結果における誤り率の比較を行なう.単語誤り率を,ここではDPマッチングを使って正解からの編集距離に基づいて定義する.単語の挿入(Ins),削除(Del),置換(Sub)に関する誤りの数をそれぞれ$N_{Ins}$,$N_{Del}$,$N_{Sub}$,正解の単語数を$N_{Ans}$とした時,単語誤り率Rは以下のように定義される.\begin{displaymath}単語誤り率R=\frac{N_{Ins}+N_{Del}+N_{Sub}}{N_{Ans}}\end{displaymath}\subsection{訂正前後での単語誤り率}\label{subsection-JE-closed-4}表\ref{JE-closed-R-rank}では,単語誤り率$R$の値を4段階($R=0\%$,$0\%<R\leq20\%$,$20\%<R\leq40\%$,$40\%<R$)に分け,訂正前後での各訂正判断に対する発声の誤り率$R$に関する分布を示した.{\bf訂正不要},{\bf訂正不可}の発声に関しては訂正結果が出力されないので訂正前のみを示し,訂正後の結果は{\bf訂正可能}の発声とテストセット全体(``合計'')のみについて示す.\begin{table}\begin{center}\caption{発声の単語誤り率での分布}\begin{tabular}{|c||c|c|c||c||c||c|}\hline&\multicolumn{4}{c||}{訂正前}&\multicolumn{2}{c|}{訂正後}\\\cline{2-7}単語誤り率$R$&訂正不要&訂正不可&訂正可能&合計&訂正可能&合計\\\hline\hline$R=0\%$&169&0&0&169&13&182\\\hline$0\%<R\leq20\%$&58&9&20&87&34&101\\\hline$20\%<R\leq40\%$&31&17&34&82&9&57\\\hline$40\%<R$&61&59&9&129&7&127\\\hline\end{tabular}\label{JE-closed-R-rank}\end{center}\end{table}まず,誤り率$R=0\%$の発声は,全て{\bf訂正不要}と適切な判断がなされている.誤り率$R=0\%$の発声が{\bf訂正不要}と判断された発声全体の半数以上(169/319)を占めている.\footnote{表\ref{JE-closed-judgement}と比較して誤りなしの発声が22発声増えている.DPマッチングの際に活用を標準形に直しているため,軽微な誤りが吸収されている.}しかし一方で,誤り率が$40\%$を越える発声のうち,61発声が{\bf訂正不要}と判断されている.これらの多くは,表面的には文の体裁を備えていることに特徴がある.以下の実例に示すような,元の発声とは別の意味になってしまう``空耳''のような誤りや,発声の一部が欠落した``聞き落し''のような誤りなどが含まれる.このような認識結果に対して,本手法では誤りである可能性(訂正の必要性)を判断するのは困難であり,{\bf訂正不要}と判断されている.\begin{center}\begin{tabular}{|ll|}\multicolumn{2}{c}{``空耳'',``聞き落し''のような誤り}\\\hline正解:&いつのお泊りでしょうか\\認識結果:&{\bfえその通り}でしょうか\\\hline正解:&{\bfはいそうです}それではお待ちいたしております\\認識結果:&それではお待ちいたしております\\\hline\end{tabular}\end{center}また,誤り率が$40\%$を越える発声のうち,59発声が{\bf訂正不可}と判断されている.これらは,{\bf訂正不可}と判断された発声全体の7割近くを占めている.すなわち,{\bf誤りのひどい認識結果の多くに対して,本手法では訂正不可と判断している.}前章の{\bf訂正候補の妥当性の判断}で説明したように,訂正結果は音韻的距離が閾値以内の訂正候補から選ばれる.このため,誤りのひどい認識結果は,正解までの音韻的距離が閾値を越えてしまい,正解が音韻的妥当性によって訂正結果から除かれてしまうためである.\begin{center}\begin{tabular}{|ll|}\multicolumn{2}{c}{誤りのひどい認識結果}\\\hline正解:&ただがんがんしてても起きてしばらくすると治るのですけど\\認識結果:&{\bfあとでお電話したと思うのを着て}しばらく{\bf都合の分}です{\bfよね}\\\hline\end{tabular}\end{center}しかしながら,誤り率が$0\%<R\leq40\%$の発声では,その7割近い54発声が{\bf訂正可能}と判断されている.{\bf訂正可能}の発声の誤り率は,訂正前では$20\%$あたりを中心に分布し,誤り率$20\%$以下の発声は$32\%$であるが,訂正後では$75\%$へ増加し,誤り率が改善されていることが分かる.実際に得られた訂正結果の例を以下に示す.\begin{center}\begin{tabular}{|ll|}\multicolumn{2}{c}{訂正の実例}\\\hline正解:&シャトルバスは知っていますがタクシーを使いたいのです\\認識結果:&シャトルバス{\bfをして}いますがタクシーを使いたいのです\\訂正結果:&シャトルバスは知っていますがタクシーを使いたいのです\\\hline正解:&{\bfえ}ラスベガスからロサンジェルスまでの運賃はおいくらくらいですか\\認識結果:&ラスベガスからロサンジェルスまでの{\bf音痴な}おいくらくらいですか\\訂正結果:&ラスベガスから{\bfロサンゼルス}までの運賃はおいくら{\bfぐらい}ですか\\\hline正解:&はい祇園の辺りですねそういたしましたら加茂川ホテルはいかがでしょうか\\認識結果:&はい{\bf従来}ですねそういたしましたら加茂川{\bfお寺}はいかがでしょうか\\訂正結果:&はい{\bf従来}ですねそういたしましたら{\bf鴨川}ホテルはいかがでしょうか\\\hline\end{tabular}\end{center}一番目の例では,認識結果の誤り部分``シャトルバス{\bfをして}''が訂正され,正解と同一の訂正結果を得ている.二番目の例では,認識結果の誤り部分``ロサンジェルスまでの{\bf音痴な}''が訂正され,``{\bfロサンゼルス}までの運賃は''を得ている.訂正結果の``{\bfロサンゼルス}'',``{\bfぐらい}''は,正解と表記が微妙に異なるが,意味は同等である.三番目の例では,認識結果に誤り部分``加茂川{\bfお寺}'',``{\bf従来}ですね''が存在する.訂正結果では,前者は正解と同音の(表記は異なる)``{\bf鴨川}ホテル''に訂正され,後者は残っている.表\ref{JE-closed-R-rank}における{\bf訂正可能}の発声では,訂正後も誤り率が$20\%$以下程度のものが多く存在しているが,これらの中には二番目,三番目の例のような,正解との間に表記上の不一致が存在する正解に準じる訂正結果も含まれていると考えられる.\subsection{テストセット全体に対する単語誤り率}ここでは,入力全体に関する誤り率の訂正前後での変化に基づいて,訂正処理の有効性を検証する.テストセットの音声認識結果に関する単語誤り率を表\ref{JE-closed-dp-total}に示す.テストセット全体に対する単語誤り率は訂正の前後で$33.1\%$から$30.8\%$へ変化しており,$2.3$ポイントの改善が見られた.{\bf訂正可能}では,$30.5\%$から$18.1\%$へと変化しており,訂正の行なわれた発声に対しては,単語誤りをほぼ半減する効果が得られている.\begin{table}\begin{center}\caption{テストセット全体に対する単語誤り率}\begin{tabular}{|c|c|c||c||c||c|}\hline\multicolumn{4}{|c||}{訂正前}&\multicolumn{2}{c|}{訂正後}\\\hline訂正不要&訂正不可&訂正可能&合計&訂正可能&合計\\\hline\hline26.1\%&54.0\%&30.5\%&33.1\%&18.1\%&30.8\%\\(689/2636)&(531/984)&(255/835)&(1475/4455)&(151/835)&(1371/4455)\\\hline\end{tabular}\label{JE-closed-dp-total}\end{center}\end{table}さらに,誤りの種類を``挿入'',``削除'',``置換''に区別し,誤り単語の品詞によって分類することにより,それぞれの誤りに対する訂正の効果の違いを調べる.訂正前後での挿入,削除,置換誤りに関する誤り単語数を品詞別に表\ref{JE-closed-recog-pos}に示す.ただし,``挿入''では認識結果(挿入後)の単語の品詞,``削除''では正解(削除前)の単語の品詞,``置換''では正解(置換前)の単語の品詞に基づいて分類した.また,品詞別の``その他''は,``感動詞'',``接頭辞'',``接尾辞''をまとめたものである.\begin{table}\begin{center}\caption{挿入,削除,置換誤りの品詞別誤り単語数}\label{JE-closed-recog-pos}\begin{tabular}{|c|c||c|c|c||c|}\hline&&\multicolumn{3}{c||}{訂正前}&\multicolumn{1}{c|}{訂正後}\\\cline{3-6}&誤り単語の品詞&訂正不要&訂正不可&訂正可能&訂正可能\\\hline\hline挿入&名詞&35&32&12&2\\\cline{2-6}&動詞&6&20&6&2\\\cline{2-6}&助動詞&12&18&7&0\\\cline{2-6}&助詞&22&24&12&6\\\cline{2-6}&形容詞&2&1&1&0\\\cline{2-6}&副詞&2&3&1&1\\\cline{2-6}&連体詞&0&0&0&0\\\cline{2-6}&接続詞&1&0&0&0\\\cline{2-6}&その他&8&4&1&0\\\cline{2-6}&合計&88&102&40&11\\\hline\hline削除&名詞&110&27&16&17\\\cline{2-6}&動詞&49&18&4&0\\\cline{2-6}&助動詞&77&21&8&8\\\cline{2-6}&助詞&103&30&18&16\\\cline{2-6}&形容詞&3&1&2&0\\\cline{2-6}&副詞&8&1&0&0\\\cline{2-6}&連体詞&2&0&0&0\\\cline{2-6}&接続詞&6&0&1&1\\\cline{2-6}&その他&29&5&10&9\\\cline{2-6}&合計&387&103&59&51\\\hline\hline置換&名詞&94&116&57&34\\\cline{2-6}&動詞&24&50&23&10\\\cline{2-6}&助動詞&26&36&15&8\\\cline{2-6}&助詞&34&78&47&21\\\cline{2-6}&形容詞&2&11&4&1\\\cline{2-6}&副詞&3&11&0&1\\\cline{2-6}&連体詞&2&5&3&1\\\cline{2-6}&接続詞&1&2&2&4\\\cline{2-6}&その他&18&14&5&9\\\cline{2-6}&合計&214&326&156&89\\\hline\end{tabular}\end{center}\end{table}まず,それぞれの訂正判断での誤りの種類の割合を見ると,{\bf訂正不要}の発声では削除誤りが全体の半数以上を占めている.これに対して{\bf訂正不可},{\bf訂正可能}では置換誤りが全体の半数以上を占めている.このことから,削除誤りに対する誤りの判断は難しく,見逃してしまう傾向が強いと考えられる.このことは,認識結果の実例で示したように,{\bf発声の一部が欠落した``聞き落し''誤りは訂正必要性の判断が困難である}という事実と一致している.次に,{\bf訂正不可}と{\bf訂正可能}での誤りの種類の割合を比較すると,挿入,削除,置換の比率はどちらもほぼ$1:1:3$であり,特に大きな差は認められない.しかし,単語誤り率は両者間で大きく異なっており,単語誤り率$R$が$40\%$を下回る発声の占める割合は,{\bf訂正不可}の方がはるかに大きい.このことから,{\bf認識結果の訂正可能性は,主に発声の単語誤り率によって決定される}と結論できる.さらに,{\bf訂正可能}での誤り単語数に関して訂正前後で比較すると,{\bf削除誤りは,挿入,置換と比べて訂正の効果が比較的小さい}.一方,挿入誤り,置換誤りに対する誤り単語数を訂正前後で比較すると,名詞,動詞,助動詞,助詞,形容詞など,品詞による偏りはそれほどなく全体的に減少していることが分かる.つまり{\bf内容語,機能語を問わず,品詞によらず効果がある}といえる.\subsection{翻訳文の主観評価}\begin{table}\begin{center}\caption{翻訳結果の評価基準}\label{trans-eval-rank}\begin{tabular}{clc}A&入力文の正解と完全に同じ意味にとれる\\B&入力文の正解とほぼ同じ意味にとれる\\C&入力文の正解の主要情報が部分的には伝わる\\D&入力文の正解の主要情報が伝わらない/誤解が生じる\\\end{tabular}\end{center}\end{table}ここでは,音声翻訳における訂正手法の有効性を検証するために,音声認識結果および訂正結果をもとに機械翻訳された日英翻訳の品質に対して主観評価を行なう.本研究では機械翻訳としてTDMT\cite{Sumita1999}を用いる.翻訳結果の主観評価では,翻訳結果から理解,伝達される発声の内容や情報が正しいかどうかを,入力の正解(原言語)と比較することによって判断する.評価者は,日英翻訳を専門とするアメリカ人ネイティブであり,各発声の認識結果および訂正結果に対する翻訳に関して,入力の正解(原言語)に基づく理解を基準として,表\ref{trans-eval-rank}に定義された評価値(A,B,C,D)のいずれかを選択する方法で評価を行なった.音声認識結果,およびその訂正結果を入力として翻訳システム(TDMT)を用いて得られた翻訳結果に関する主観評価を表\ref{JE-closed-trans-rank}に示す.ここで,``翻訳率''は各訂正判断に対する発声数全体$N_A+N_B+N_C+N_D$に対する,評価値A,B,Cの発声数の合計$N_A+N_B+N_C$の割合である.\begin{table}\begin{center}\caption{翻訳結果の評価値}\label{JE-closed-trans-rank}\begin{tabular}{|c||c|c|c||c||c||c|}\hline&\multicolumn{4}{c||}{訂正前}&\multicolumn{2}{c|}{訂正後}\\\cline{2-7}評価値&訂正不要&訂正不可&訂正可能&合計&訂正可能&合計\\\hline\hlineA&190&1&2&193&36&227\\\hlineB&35&5&10&50&11&51\\\hlineC&18&6&16&40&6&30\\\hlineD&75&73&35&183&10&158\\\hline\hline翻訳率:$\frac{N_A+N_B+N_C}{N_A+N_B+N_C+N_D}$&76.4\%&14.1\%&44.4\%&60.7\%&84.1\%&66.1\%\\\hline\end{tabular}\end{center}\end{table}まず,テストセット全体に対する翻訳率は訂正前後で$60.7\%$から$66.1\%$へ増加しており,$5.4$ポイントの改善が見られる.さらに,{\bf訂正可能}と判断された発声に関しては,$44.4\%$から$84.1\%$へ増加している.{\bf訂正可能}と判断された発声は訂正前で評価値Dが過半数を占め,翻訳結果の意味理解が不可能となるような,音声翻訳で致命的な誤りを含んだ音声認識結果が多く訂正の対象となっていることが分かる.また,訂正後では逆に評価値Aが過半数を占めていることから,訂正結果からの翻訳で,発声の内容や情報が正しく回復されていることが分かる.訂正後の評価値Aの発声は36発声であるが,これは表\ref{JE-closed-R-rank}での訂正後の誤り率$R=0\%$の13発声と比べて23発声多い.これは,訂正結果は正解に完全一致しないが,その翻訳結果が正解となるものが存在することを意味している.以下は,そのような実例である.\begin{center}\begin{tabular}{|ll|}\multicolumn{2}{c}{正解に完全には一致しないが,翻訳結果は正解となる訂正結果}\\\hline正解:&恐れいりますがシングルルームは満室となっております\\認識結果:&恐れいりますがシングルルーム{\bfが増し}となっております\\訂正結果:&恐れいりますがシングルルーム{\bfが}満室となっております\\\hline正解翻訳:&"I'msorry,butsingleroomsarealloccupied."\\認識翻訳:&"I'msorry,butsingleroomsare{\bftheincrease}."\\訂正翻訳:&"I'msorry,butsingleroomsarealloccupied."\\\hline\end{tabular}\end{center}認識結果では,$(は\rightarrow{\bfが})$および$(満室\rightarrow{\bf増し})$の2単語に対して置換誤りが起こっており,後者は正しく訂正されているが,前者は残っている.ところが,訂正結果からの翻訳は,正解からのものと完全に一致している.訂正前後での単語誤り率$R$の変化は$25.0\%\rightarrow12.5\%$であるが,翻訳の評価値は,$C\rightarrowA$と完全に回復している.置換誤り$(は\rightarrow{\bfが})$がこの場合,発声の理解や翻訳を妨げなかったため,誤りとは判断されなかったのである.{\bf訂正不要}と判断された認識結果の中にも,表層的には正解に完全一致しないが,その翻訳結果は正解となるものが同様に存在している.評価Aの発声数は190であるが,これは誤り率$R=0\%$の発声数169や,表\ref{JE-closed-judgement}での誤りなしの発声数147より多い.訂正が必要という判断の精度は,{\bf誤りあり}の認識結果に対して計算すると適合率100\%,再現率42.3\%であったが,ここでの評価値Aの発声以外を訂正が必要な発声として計算すれば,適合率98.0\%(145/148),再現率53.3\%(145/273),さらに評価値Bまでの発声を{\bf訂正不要}として計算すれば,適合率87.8\%(130/148),再現率58.3\%(130/223)となる.主観評価は翻訳結果における発声の内容理解,情報の伝達可能性という観点に基づいているので,これらの適合率,再現率は音声翻訳タスクに対してより実質的な値を表しているといえる.\subsection{翻訳結果の単語誤り率に基づく評価}ここでは,すでに導入された単語誤り率$R$を翻訳結果の評価に用いる.このような,正解の翻訳と認識結果の翻訳の間での編集距離に基づく評価方法は,音声翻訳の自動評価方法として竹澤等\cite{Takezawa1999}が提案している.同様に,訂正前後の認識結果からの翻訳の単語誤り率$R$の比較により,翻訳結果における訂正の効果を議論することができる.テストセットの翻訳結果に対する単語誤り率$R$の値を4段階に分けて,各発声の誤り率$R$に関する分布を表\ref{JE-closed-trans-dp}に示す.主観評価の結果を示した表\ref{JE-closed-trans-rank}と比較すると,興味深いことに,発声数の分布の傾向がよく一致しており,誤り率$R$の各段階($R=0\%$,$0\%<R\leq20\%$,$20\%<R\leq40\%$,$40\%<R$)と,主観評価の各評価値(A,B,C,D)がそれぞれ対応しているように見える.テストセット全体に対する誤り率$0\%\leqR\leq40\%$の発声の割合は,訂正前後で$58.2\%$から$64.5\%$へと$6.3$ポイント改善しており,主観評価での翻訳率と同様に,翻訳結果の誤り率でも訂正の効果が確認できる.\begin{table}\begin{center}\caption{翻訳結果の単語誤り率}\label{JE-closed-trans-dp}\begin{tabular}{|c||c|c|c||c||c||c|}\hline&\multicolumn{4}{c||}{訂正前}&\multicolumn{2}{c|}{訂正後}\\\cline{2-7}誤り率$R$&訂正不要&訂正不可&訂正可能&合計&訂正可能&合計\\\hline\hline$R=0\%$&190&1&1&192&31&222\\\hline$0\%<R\leq20\%$&20&4&11&35&15&39\\\hline$20\%<R\leq40\%$&27&6&12&45&7&40\\\hline$40\%<R$&82&74&39&195&10&166\\\hline\hline$0\%\leqR\leq40\%$の割合&74.3\%&12.9\%&38.1\%&58.2\%&84.1\%&64.5\%\\\hline\end{tabular}\end{center}\end{table}また,翻訳結果での誤り率$R=0\%$の発声数が,表\ref{JE-closed-R-rank}での認識結果での値に比べて増えていることは,主観評価での傾向と一致し,表層的には正解に完全一致しないが翻訳結果は正解となるような訂正結果が存在することを裏付けている.このように,主観評価と単語誤り率$R$の評価の比較から,各翻訳結果に対する評価値と単語誤り率$R$の間には正の相関関係が存在することが予想される.テストセット全体に対する訂正後の各発声の翻訳結果について,その単語誤り率$R$と主観評価での評価値の間の関係を表\ref{JE-closed-trans-recog-correlation}に示す.表からは,対角成分への分布の偏りが見られる.特に,評価値Aと$R=0\%$,評価値Dと$40\%<R$の間に強い相関が現れていることが分かる.\footnote{ここで,誤り率$R$の段階の閾値は便宜的に決定したものであり,相関性を最大化するような最適化は行なっていない.}\begin{table}\begin{center}\caption{翻訳結果の評価値と単語誤り率の相関}\label{JE-closed-trans-recog-correlation}\begin{tabular}{|c||c|c|c|c|}\hline&\multicolumn{4}{c|}{評価値}\\\cline{2-5}誤り率$R$&A&B&C&D\\\hline\hline$R=0\%$&173&17&1&1\\\hline$0\%<R\leq20\%$&9&13&11&2\\\hline$20\%<R\leq40\%$&6&10&10&19\\\hline$40\%<R$&5&10&18&161\\\hline\end{tabular}\end{center}\end{table}ここで,評価値と誤り率の相関性を定量的にはかる尺度として,相関係数を導入する.2変量に関するn個の観測値$(x_i,y_i)(i=1,2,...,n)$に対して,相関係数$r$は以下のように定義できる.\begin{displaymath}r=\frac{\frac{1}{n}\sum^n_{i=1}\Deltax_i\Deltay_i}{\sqrt{\frac{1}{n}\sum^n_{i=1}\Deltax_i^2}\sqrt{\frac{1}{n}\sum^n_{i=1}\Deltay_i^2}}\end{displaymath}ここで,\begin{displaymath}\Deltax_i=x_i-\overline{x},\;\;\Deltay_i=y_i-\overline{y},\end{displaymath}\begin{displaymath}\overline{x}=\frac{1}{n}\sum^n_{i=1}x_i,\;\;\overline{y}=\frac{1}{n}\sum^n_{i=1}y_i\end{displaymath}さらに,それぞれ評価値(a,b,c,d)と単語誤り率$R$の段階($R=0\%$,$0\%<R\leq20\%$,$20\%<R\leq40\%$,$40\%<R$)が与えられたある翻訳結果を,以下の2変量上の観測点と解釈し直す.\begin{displaymath}x=\alpha_xl_x+\beta_x,\;\;l_x=(0,1,2,3),\end{displaymath}\begin{displaymath}y=\alpha_yl_y+\beta_y,\;\;l_y=(0,1,2,3)\end{displaymath}$l_x$には,主観評価の各評価値(a,b,c,d)に対してそれぞれ(0,1,2,3),$l_y$には,誤り率Rの各段階($R=0\%$,$0\%<R\leq20\%$,$20\%<R\leq40\%$,$40\%<R$)に対してそれぞれ(0,1,2,3)を与える.$\alpha_x$,$\alpha_y$,$\beta_x$,$\beta_y$は$\alpha_x\alpha_y>0$を満たす任意の実数であり,相関係数$r$は,これらの値に対し不変である.このような方法で計算された単語誤り率$R$と主観評価での評価値の間での相関係数は0.88であり,両者の間には明らかに相関関係が成り立っていると結論できる. \section{入力会話を含まないデータベースでの日英音声翻訳実験} \label{section-JE-db-open}\subsection{実験条件}ここでは入力会話を含まないデータベースを用いた際の提案手法の有効性を検証する.表\ref{JE-db-open-condition}の実験条件で,日本語音声認識結果に対する誤り訂正実験を行なった.先に\ref{section-JE-closed}章で行なった誤り訂正実験との比較のため,同一の認識結果(日英翻訳システムで学習済の467発話)を用いて行なった.用例データベースとしては,ATR旅行会話データ中の618会話から,{\bf入力467発声を含む41会話を除いた}577会話(異なり14,405発声)を使用した.訂正処理のパラメーターは,それぞれ意味的距離の閾値:$1.0$,音韻的距離の閾値:$0.3$を用いた.\begin{table}\begin{center}\caption{音声翻訳における誤り訂正の実験条件(入力会話を含まないデータベース)}\label{JE-db-open-condition}\begin{tabular}{|ll|}\hline日本語テキストデータ&旅行会話データ577会話(入力会話セットを含まない)\\日本語テストセット&旅行会話データ467発声(機械翻訳の学習セット)\\意味的距離の閾値&1.0\\音韻的距離の閾値&0.3\\\hline\end{tabular}\end{center}\end{table}\subsection{訂正判断の精度}テストセット467発声の音声認識結果に対する訂正判断の結果と認識誤りの有無の関係を表\ref{JE-db-open-judgement}に示す.{\bf訂正不要}の判断は,認識結果が同一であるため\ref{section-JE-closed}章での結果と一致している.一方,訂正処理が必要({\bf訂正不可},{\bf訂正可能}の和)と判断された発声に対して{\bf訂正可能}の発声の占める割合は12.2\%(18/148)である.これは,\ref{section-JE-closed}章での割合42.6\%(63/148)と比べて大幅に小さく,データベースの違いが反映されている.\begin{table}\begin{center}\caption{テストセットに対する認識誤りと訂正判断(入力会話を含まないデータベース)}\label{JE-db-open-judgement}\begin{tabular}{|c||c|c|c||c|}\hline入力の認識&訂正不要&訂正不可&訂正可能&合計\\\hline\hline誤りなし&147&0&0&147\\\hline誤りあり&172&130&18&320\\\hline\hline合計&319&130&18&467\\\hline\end{tabular}\end{center}\end{table}\subsection{訂正前後での単語誤り率}表\ref{JE-db-open-R-rank}では,単語誤り率$R$の値を4段階($R=0\%$,$0\%<R\leq20\%$,$20\%<R\leq40\%$,$40\%<R$)に分け,訂正前後での各訂正判断に対する発声の誤り率$R$に関する分布を示した.テストセット全体の発声の分布からは,訂正の前後でほとんど変化が見られない.{\bf訂正可能}の発声に関しても同様の傾向であり,オープンなデータベースの実験では,{訂正の対象となる発声の割合が小さく,訂正の効果が誤り率に現れない}傾向にあると結論される.\begin{table}\begin{center}\caption{発声の単語誤り率での分布(入力会話を含まないデータベース)}\label{JE-db-open-R-rank}\begin{tabular}{|c||c|c|c||c||c||c|}\hline&\multicolumn{4}{c||}{訂正前}&\multicolumn{2}{c|}{訂正後}\\\cline{2-7}単語誤り率$R$&訂正不要&訂正不可&訂正可能&合計&訂正可能&合計\\\hline\hline$R=0\%$&169&0&0&169&0&169\\\hline$0\%<R\leq20\%$&58&23&6&87&5&86\\\hline$20\%<R\leq40\%$&31&41&10&82&9&85\\\hline$40\%<R$&61&66&2&129&4&131\\\hline\end{tabular}\end{center}\end{table}表\ref{JE-db-open-dp-total}に示したテストセット全体に対する単語誤り率も,訂正によって$33.1\%$から$33.3\%$へと増加しており,オープンなデータベースによる訂正の有効性に関して否定的な結果である.しかしながら以下の例に示すように,実験で得られた訂正結果の中には,誤り率には訂正の効果は現れないが,意味的には正解と同等なものが得られている.\begin{table}\begin{center}\caption{テストセット全体に対する単語誤り率(入力会話を含まないデータベース)}\begin{tabular}{|c|c|c||c||c||c|}\hline\multicolumn{4}{|c||}{訂正前}&\multicolumn{2}{c|}{訂正後}\\\hline訂正不要&訂正不可&訂正可能&合計&訂正可能&合計\\\hline\hline26.1\%&45.5\%&24.6\%&33.1\%&28.6\%&33.3\%\\(689/2636)&(736/1616)&(50/203)&(1475/4455)&(58/203)&(1483/4455)\\\hline\end{tabular}\label{JE-db-open-dp-total}\end{center}\end{table}この例では,正解での表現``スケジュールが知りたい''に対して,意味的に近い表現``スケジュール{\bfを教えていただきたい}''が訂正で用いられており,意味的には誤りが回復されているといえる.しかし単語誤り率で見ると,訂正によって$23.1\%(3/13)$から$30.8\%(4/13)$へと増加している.このことから,{\bf誤り率は正解との表層的な照合に基づくため,表層に現れない意味レベルでの訂正の効果を測ることはできない}ことがわかる.したがって,訂正の効果の有無を単語誤り率のみによって結論するのは不十分であるといえる.\begin{center}\begin{tabular}{|ll|}\multicolumn{2}{c}{誤り率に現れないが意味的に有効な訂正(1)}\\\hline正解:&そこからラスベガスまでのバスのスケジュールが知りたいのです{\bfが}\\認識結果:&そこからラスベガスまでのバスの{\bfスケジュールし}たいのですが\\訂正結果:&そこからラスベガスまでのバスのスケジュール{\bfを教えていただきたい}のです\\\hline\end{tabular}\end{center}\subsection{翻訳文の主観評価}ここでは,オープンなデータベースを用いた訂正手法の音声翻訳における有効性を検証するために,音声認識結果および訂正結果をもとに機械翻訳された日英翻訳結果に対して主観評価を行なう.翻訳および評価方法については\ref{section-JE-closed}と同じ方法を用いた.音声認識結果,およびその訂正結果を入力として翻訳システム(TDMT)を用いて得られた翻訳結果に関する主観評価を表\ref{JE-db-open-trans-rank}に示す.\begin{table}\begin{center}\caption{翻訳結果の評価値(入力会話を含まないデータベース)}\label{JE-db-open-trans-rank}\begin{tabular}{|c||c|c|c||c||c||c|}\hline&\multicolumn{4}{c||}{訂正前}&\multicolumn{2}{c|}{訂正後}\\\cline{2-7}評価値&訂正不要&訂正不可&訂正可能&合計&訂正可能&合計\\\hline\hlineA&190&2&1&193&5&197\\\hlineB&35&12&3&50&3&50\\\hlineC&18&17&4&39&4&39\\\hlineD&75&99&10&184&6&180\\\hline\hline翻訳率:$\frac{N_A+N_B+N_C}{N_A+N_B+N_C+N_D}$&76.4\%&23.8\%&44.4\%&60.5\%&66.7\%&61.4\%\\\hline\end{tabular}\end{center}\end{table}まず,テストセット全体に対する翻訳率は訂正によって$60.5\%$から$61.4\%$へと$0.9$ポイントの改善が見られる.{\bfさらに,訂正可能と判断された発声に関しては,$44.4\%$から$66.7\%$へと増加している.}この結果は,先に示した認識結果に対する単語誤り率における傾向と相反している.このことは,表層的な誤り率には現れないが翻訳結果を意味レベルで回復するような訂正結果が存在することによって説明される.以下にそのような実例を示す.\begin{center}\begin{tabular}{|ll|}\multicolumn{2}{c}{誤り率に現れないが意味的に有効な訂正(2)}\\\hline正解:&{\bfえ}ラスベガスからロサンジェルスまでの運賃はおいくらくらいですか\\認識結果:&ラスベガスからロサンジェルスまでの{\bf音痴な}おいくらくらいですか\\訂正結果:&ラスベガスから{\bfロサンゼルス}までの{\bf料金}はおいくら{\bfぐらい}ですか\\\hline正解翻訳:&"{\bfOh},howmuchisthefarefromLasVegastoLosAngeles?"\\認識翻訳:&"{\bfTone-deaf}fromLasVegastoLosAngeles\_\_{\bfhowmuchisit}?"\\訂正翻訳:&"Howmuchisthe{\bfcharge}fromLasVegastoLosAngeles?"\\\hline\end{tabular}\end{center}例は\ref{section-JE-closed}章で既に示した例と同じ認識結果であるが,ここではデータベース中に正解と一致する表現``運賃はおいくら''を含む用例が存在しないため,訂正では意味的に近い表現``{\bf料金}はおいくら''が用いられている.認識結果の単語誤り率は,訂正によって$23.1\%(3/13)$から$30.8\%(4/13)$へと増加しているが,訂正結果の翻訳結果は正解と意味的にほぼ同等であり,主観評価ではdからaへ改善している.\subsection{入力会話を含まないデータベースにおける問題}入力会話を含まないデータベースを用いた訂正では,入力の正解がデータベース中に用例として含まれることが保証されない.このような条件下では,(I)入力の誤りを適切に訂正するのに有効な用例がデータベース中に存在しないために訂正結果が得られない,もしくは,(II)不適切な用例の適用により,正解と意味の異なった訂正結果を得る,といった問題に直面する.前者は,訂正必要と判断された発声に対する訂正可能の発声の割合に顕著に現れており,また後者は,以下に示す実例の通りである.\begin{center}\begin{tabular}{|ll|}\multicolumn{2}{c}{入力会話を含まないデータベースによる不適切な訂正結果(1)}\\\hline正解:&はいよく撮っていただけると思います\\認識結果:&はい{\bf約とっ}ていただけると思います\\訂正結果:&はい{\bf味わっ}ていただけると思います\\\hline正解翻訳:&"Yes,Ithink{\bfyou}couldtake{\bfaphotographwell}."\\認識翻訳:&"Yes,Ithinkcouldtake{\bfabout}."\\訂正翻訳:&"Yes,Ithinkyou{\bfcantaste}."\\\hline\multicolumn{2}{c}{入力会話を含まないデータベースによる不適切な訂正結果(2)}\\\hline正解:&すみません{\bfできれば}バス付の部屋がいいのですけども\\認識結果:&すみませんできればバス付の部屋{\bfない}のですけども\\訂正結果:&すみませんバス付の部屋{\bfは無い}のですけども\\\hline正解翻訳:&"Excuseme,{\bfifpossible},aroomwithabath{\bfisgood}."\\認識翻訳:&"Excuseme,ifpossible,{\bfthereisn't}aroomwithabath."\\訂正翻訳:&"Excuseme,{\bfthereisn't}aroomwithabath."\\\hline\end{tabular}\end{center}1番目の例では,``よく撮って''に対して認識結果は``{\bf約とっ}て''となっており,両者は音韻的に非常に近い.しかし,データベース中に正解の用例が含まれていないため,訂正結果では別の用例からの``{\bf味わっ}て''が用いられている.また,2番目の例では,``部屋がいい''に対して認識結果では``部屋{\bfない}''となっている.訂正結果ではこの誤り部分``部屋{\bfない}''を``部屋{\bfは無い}''に置換し,さらに``{\bfできれば}''を削除している.これらの訂正結果は,正解とは意味が異なるが,音韻的距離と意味的距離の判断に基づき妥当な訂正結果と判断されている.このような(1){\bf用例の不足による訂正の失敗},および(2){\bf意味の異なる誤った訂正の出力},といった入力会話を含まないデータベースで顕著な問題は,今後,{\bf用例の不足の解消}や{\bf訂正候補の妥当性判断の高精度化}などの課題として解決されて行かなければならない.\subsection{入力に対するデータベースのオープン性}実験では,入力会話を含まないデータベースを入力に対してオープンなデータベースとして用いている.ここで,我々は同一もしくは類似した用例がデータベース中の複数会話に出現することを仮定している.この{\bfデータベースにおける用例の冗長性の仮定}が著しく破られているとすると,誤り訂正実験において有用な結果は期待できない.入力に対してデータベース中に同一,もしくは類似した用例がどの程度存在するかを調べる方法としては,データベース中のすべての用例の中から,入力に対する類似度の高いものを求めるような方法が考えられる.入力と用例の類似度としては,DPマッチングを用いて計算される編集距離や,(連続)一致単語列の長さなどを用いることが考えられる.データベースのオープン性の評価は検討中であり,誤り訂正の効果と使用するデータベースのオープン性との関係については,今後さらに検証を行なっていく必要がある. \section{おわりに} 本稿では,テキストコーパスを用いた音声認識誤りの訂正手法を提案し,音声翻訳における有効性を実験的に検証した.訂正が必要と判断された発声に対して,実際に訂正が可能であるかどうかは,その誤りの程度と密接に関係していることが分かった.実験では,訂正が必要({\bf訂正不可},{\bf訂正可能}の和)と判断された発声のうち,単語誤り率が40\%以上の発声では9割近くが{\bf訂正不可}と判断されたが,単語誤り率が40\%未満の発声では逆に7割が{\bf訂正可能}と判断された.{\bf訂正可能}の単語誤り率では,$30.5\%$から$18.1\%$へと$12.4$ポイント減少しており,テストセット全体に対する単語誤り率でも,訂正の前後で$33.1\%$から$30.8\%$へと$2.3$ポイントの減少が見られた.すなわち,誤りのひどい発声に対する訂正は困難であるが,単語誤り率が40\%未満の発声に対しては有効な訂正結果が得られることが分かった.翻訳率でも,テストセット全体で$60.7\%$から$66.1\%$へと$5.4$ポイントの増加が見られ,誤り訂正によって翻訳の品質が向上することが確認された.また実際の音声認識を対象とした実験では,(I)誤り単語の品詞によらず有効であること,(II)``削除''誤りは``挿入''誤り,``置換''誤りと比べて効果が少ないことが確認された.今後,データベース中の用例のより効果的な利用方法を検討するとともに,認識結果の訂正必要性判断,および訂正候補の妥当性判断の精度向上を図る必要がある.後者に関しては,意味的距離,音韻的距離の他に,音響モデル,言語モデルの尤度の利用,さらに発話状況,会話ドメインなどの文外情報の利用などが考えられる.\acknowledgment本研究を行なうにあたり,貴重な機会を賜わりましたATR音声翻訳通信研究所の山本誠一社長,第3研究室の白井諭室長,また有意義なコメントを頂きましたATR音声翻訳通信研究所の皆様,角川類語新辞典を提供して頂きました角川書店に深く感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{paper-ishikawa}\begin{biography}\biotitle{略歴}\bioauthor{石川開}{1996年東京大学大学院理学系研究科物理学専攻修士課程修了.同年NEC入社.1997年ATR音声翻訳通信研究所出向.現在,NEC情報通信メディア研究本部,研究員.自然言語処理,音声翻訳の研究に従事.情報処理学会会員.}\bioauthor{隅田英一郎}{1982年電気通信大学大学院計算機科学専攻修士課程修了.1999年京都大学工学博士.ATR音声言語通信研究所主任研究員.自然言語処理,並列処理,機械翻訳,情報検索の研究に従事.情報処理学会,電子情報通信学会各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V08N04-01
\section{まえがき} 本論文では,{\bf了解}の語用論的な分析を行う.語用論的な分析を可能にするために言語行為論の拡張を行い,それに基づいて{\bf了解}の分析を行う.了解の類義語として理解・納得などがある.理解は比較的浅い了解,納得は比較的深い了解を指すものであり,これらは了解の一形態である.本論文では,\begin{enumerate}\item一般に使われている了解\item理解\item納得\end{enumerate}\noindentのすべてを包含する用語として,{\bf了解}を用いることとする.了解は,様々な形態で顕現しうる.我々は,了解の顕現形態を図\ref{response}のように分類・定義する.すなわち,主として言語一文節による了解の顕現形態(例えば「はい」)を「あいづち」と呼び,「あいづち」および,「あいづち」以外の言語による了解の顕現形態(例えば「私もそう思います」)の双方を総括して「了解応答言語表現」と呼び,「了解応答言語表現」および言語によらない了解の顕現形態(例えば,うなずき)の双方を総括して「了解応答」と呼ぶ.図\ref{response}における実線矢印は包含関係を,破線矢印は例をそれぞれ示している.\begin{figure}[htbp]\begin{center}\atari(92,67)\caption{了解の顕現形態(Figure\ref{response}TheRepresentationofthe``Uptake'')}\label{response}\end{center}\end{figure}なお,あいづちの具体例としては,「はい」以外にも以下のものがある.\begin{quote}はーい,ええ,はあ,はー,そう,そうですね,そうですよね,そうそう,そうだね,そうよねー,なるほどね,うん,うーん,ふん,ふーん,ああ\end{quote}\noindentこれらは,実際の会話で具体的に観察されたものであり,頻繁に出現したものである.島津ら\cite{shimazu}は,会話における了解の顕現形態として「はい」を典型とする「間投詞的応答表現」を挙げている.彼らの研究では,非対面的会話を対象にしており,了解の顕現形態を図\ref{response}の「あいづち」(彼らの言うところの「間投詞的応答表現」)に限定している.しかし,対面的会話を対象にすると,了解の顕現形態は「間投詞的応答表現」を含む図\ref{response}のようになる.本論文では,了解応答の分析を通じて,了解の程度と過程を明らかにすることを目的とする.その際,分析対象とする了解応答は,あいづちである「はい」に限定する.従来,あいづちの分析では,国語学的あるいは文法的な分析が行われていた(例えば島津ら\cite{shimazu}による).本論文では,拡張言語行為論を用いて語用論的な分析を行う.ここでいう拡張言語行為論は,Searle\cite{searle}の言語行為論にいくつかの概念要素を追加し,既存の概念要素のいくつかを詳細化したものである.また,語用論の分野で周知の間接発話行為を詳細化したものでもある.まず第2節では,関連研究の概要を述べる.第3節ではSearleの言語行為論を概説し,第4節では拡張言語行為論の枠組みを与える.第5節では,拡張言語行為論の枠組みを用いて,あいづち「はい」による了解応答を分析し,さらに「はい」による了解の程度と過程を明らかにする.第6節では,本論文のまとめと発展的研究の可能性について述べる. \section{関連研究} まず,言語学の分野では,Austin\cite{austin},Searle\cite{searle}による言語行為の研究が挙げられる.彼らは言語行為を分析するために,主として単独の発話だけを対象にして言語行為論\footnote{言語学の分野では発話行為論という呼称が主流となっているが,ここではSearle\cite{searle}における訳語を採用した.}を展開した.そこでは,意図・状況・文脈を特定しやすい典型的な発話を分析している.彼らの言語行為論は,単独の発話ではあるが,言語行為を分析するための基本的な枠組みを与えた.またAustinは,会話の中の言語現象である了解が言語行為の分析にとって重要であることを指摘した\cite{austin}.しかし,Austin,Searleともに了解の分析を行ったわけではない.一方,言語行為論に代表されるトップダウン的なやり方では限界があるので,ボトムアップ的なやり方として会話分析が用いられている.会話を書き起こし,ビデオを観察しながら知見を得ようとするこの分野では,近接ペア\cite{levinson83a}・三組のリスト\cite{levinson83a}などの成果が得られたが,残念ながら方法論が経験的であり,得られた規則も抽象的すぎて他の分野への応用は困難である.近年,この流れを汲んで,小磯らは音声的特徴との関連で了解の一顕現形態であるあいづちの研究を進めている\cite{koiso}.しかし,了解に関する語用論的な知見は得られていない.首尾よく欠陥なく遂行された会話では了解の過程が示され,意図・状況・文脈が確定するので,単独の発話だけに比べて言語行為の分析が容易になり,発話という複雑な現象の分析が容易になる.この点に着目して,共有知識(相互信念)の問題については人工知能の分野でプラン認識として研究が試みられている\cite{kato}.会話に登場する各人物のプランをその会話を観察する人が認識する問題は「鍵穴認識」\cite{suchman}と呼ばれている問題で,話し手の感情・知識・信念などを直接把握できないために,これは非常に困難な問題とされている.この分野の研究では,「鍵穴認識」の性質についていろいろわかってきたものの,発話の了解の過程を十分に分析していない.しかも聞き手がどのように,どの程度了解したかということが十分に分析されていない.音声認識の分野では,発話の発声スタイルによる分類として,「読み上げ音声」(read:文章を読み上げる),「自然な発話」(spontaneous:認識装置を意識するが思ったことをそのまま話す),「会話音声」(conversational:認識装置を意識しないでそのまま話す)の三つの分類が知られている\cite{kawahara}.音声認識技術の進展により,研究対象が「読み上げ音声」から「自然な発話」に移ってきている\cite{okada}.まず自然な発話を客観的に記述する方法を開拓し,研究が進んでいる\cite{shimazu92a}.了解に関しても前述のような研究が進んでいる\cite{shimazu}.また,平沢らはユーザインタフェースにあいづちを用いる研究を進め\cite{hirasawa99},さらに人間側の理解について心理学的に研究している\cite{hirasawa00}.上記のように,了解に関連する研究はこれまで,言語学・心理学・音声学などの視点から試みられてきた.しかし,了解の語用論的分析は行われていない. \section{言語行為論} 言語行為論はAustin\cite{austin}に始まり,その後Searle\cite{searle}によってさらに発展していった.両者の言語行為論は大枠としては変わらないが,Searleの言語行為論の方が概念要素が洗練されているので,本節ではSearleのものについて概説する.Searleの言語行為論では,人間の発話を,話し手の言語行為と聞き手側の効果を軸にして表\ref{speechact}のように分類している.発話も世界に変化をもたらす行為として捉え,発話に伴う諸種の言語行為を導入し,独自の語用論を展開している点が言語行為論の特徴である.表\ref{speechact}に列挙されている言語行為と効果はおおむね次のような意味を持つ.発話行為とは,人間の行為の中で現実に音声を発してものを言う,つまり「発話」する行為である.命題行為とは,意味論的推論で算出可能な指示および述定,あるいはそのどちらかを行う行為である.話し手の言語行為で,陳述,質疑,命令,約束などのような,発話行為,命題行為と同時に遂行される行為を発語内行為と呼ぶ.発語内的効果とは発話行為・命題行為・発語内行為の三種類の言語行為に対する聞き手の単なる認知または単なる理解である.聞き手側における信念や反応の形成ではない.つまり話し手の発話による単なる効果である.話し手が意図する意図しないに関わらず,説得する,納得させるなどのような,発語内行為の帰結または結果として聞き手の行動,思考,信念などに影響を及ぼす行為を発語媒介行為と呼ぶ.聞き手の側に実際に起こる行為ないしは効果を発語媒介的効果と呼ぶ.\begin{table}[htbp]\begin{center}\begin{tabular}{c|c}(言語行為)&聞き手(効果)\\\hline\fbox{発話行為}&\\「発話」&\\\fbox{命題行為}&\\意味論的推論で&\\算出可能な指示と述定&\\\fbox{発語内行為}&\fbox{発語内的効果}\\陳述,疑問,命令など&聞き手の理解\\\fbox{発語媒介行為}&\fbox{発語媒介的効果}\\聞き手の行動,思考,信念など&聞き手の側に実際に起こる\\に影響を及ぼす行為&行為ないしは効果\\\end{tabular}\caption{言語行為論(Table\ref{speechact}TheSpeechActTheory)}\label{speechact}\end{center}\end{table} \section{拡張言語行為論} 言語行為論は,言語行為の語用論的分析をも視野に入れており,また,了解を分析するための枠組みへの拡張性が高いという利点も持つ.しかしながら,了解の詳細な分析では,発話内に直接現れない命題と意図を扱う必要があり,言語行為論に含まれる概念要素だけでは分析力が十分でない.また未分化な概念要素もあり,さらに分析力を高めるためにはそれらの詳細化が必要である.本節ではこうした問題点を念頭に置いて言語行為論を拡張し,拡張言語行為論の枠組みを与える.なお本枠組みは,Searle\cite{searle}の正常入出力条件が成立していることを前提としている.正常入出力条件は,話し手・聞き手ともに普通の対話をしていることを指す.具体的には,双方とも当該言語の使いこなしができ,双方とも対話に集中していて,双方とも発話に関する身体的欠陥はなく,劇中の役を演じているわけではなく,冗談を言っているのではない場合などが挙げられる.\subsection{隠蔽された命題行為}Austinは,意味論的に推論できるものに限定して,発話に付随する感情,考え,意図,帰結,含意,前提(存在前提と叙実前提)を例示している.しかし,発話には,語用論的推論\footnote{通常,狭い意味では「語用論的推論」とは言語内に閉じた推論を指し,言語を離れた推論は「語用論的推論」とは呼ばない.しかし,狭義の「語用論的推論」と言語を離れた推論は区別しにくい.本論文では,狭義の「語用論的推論」と言語を離れた推論を一括して「語用論的推論」と呼ぶことにする.}を必要とする感情,考え,意図,帰結,含意,前提(存在前提と叙実前提)も付随する.一方Searleの命題行為では,発話で明示される(意味論的推論\footnote{本論文では,発話の字句から直接行い得る推論を「意味論的推論」と呼び,発話の字句からは直接行い得ないが,発話の字句を超えれば行い得る推論を「語用論的推論」として区別した.}により算出可能な)「指示と述定」(命題)のみを対象としており\cite{searle},発話には明示的に現れない(つまり,語用論的推論を必要とする)命題を記述することはできない.したがって,語用論的推論を必要とする感情・考えなど,言い換えれば,発話では明示的ではない命題は,AustinとSearleの言語行為論の枠組みではうまく扱うことはできない.そこで,発話では明示的ではない語用論的推論を必要とする命題を隠蔽された命題と呼び,隠蔽された命題を示唆する行為を{\bf隠蔽された命題行為}と呼び,後者を新たな概念要素として導入する.\subsection{意図}了解は話し手の言語行為だけに対する反応ではない.話し手の意図に対する了解もありうる.そのため{\bf意図}という概念要素も導入する必要がある.話し手の意図には{\bf発話自体の意図}(意味論的推論で算出可能な意図)と,{\bf意図の意図}(語用論的推論を必要とする意図)が存在する.これらは了解の対象として次元の異なるものであり,明確に区別すべきものである.したがって,{\bf意図}という概念要素は,これらの二つに分割した形で導入する.\subsection{詳細化}前節と同様に意味論的推論と語用論的推論という点からすると,発語媒介行為には発話から直接わかる意味論的推論で算出可能な行為と,直接にはわからず語用論的推論を必要とする行為がある.我々は,前者を{\bf直接発語媒介行為},後者を{\bf間接発語媒介行為}と呼ぶ.これまでの言語行為論では,発語媒介行為についてこのような推論形態による区別がされていない.このような分化によって分析は詳細になる.一方,発語媒介的効果には,{\bf心の状態の変化},{\bf言語行為},{\bfその場の行為},{\bfその後の行為}の四種類が考えられる.{\bf心の状態の変化}は,聞き手の聞き手なりの理解による信念の変化である.{\bf言語行為}は,一連の発話の場における話し手の発話に対する聞き手の発話である.典型的には,話し手に対する返答である.{\bfその場の行為}は,一連の発話の場でなされた言語行為以外の聞き手による行為である.その行為の後にも引き続き発話の場が続く.それに対して,{\bfその後の行為}は,一連の発話の場を離れた後に聞き手が行う行為(言語行為を含む)である.これらは現象面からみた分類であり,発語媒介行為の分化と同様に,分析が詳細になるという利点を持つ.\subsection{言語行為論と拡張言語行為論の差異}以上の概念要素を用いて従来の言語行為論を拡張し,構築した拡張言語行為論の枠組みを表\ref{fwos}に示す.表中,太字の概念要素は,基本的な概念要素を表す.なお,拡張言語行為論で新たに追加ないしは細分化された概念要素には*をつけてある.概説すると,{\bf隠蔽された命題行為}と{\bf意図}という二つの概念要素を新たに加えるとともに,発語媒介行為を推論形態によって直接発語媒介行為と間接発語媒介行為に区分し,発語媒介的効果を四種類に分割して詳細化を試みた.後にSearleが提唱した「間接発話行為」は,大まかに言うと,従来の発語媒介行為にあたる.我々はその発語媒介行為を直接発語媒介行為と,間接発語媒介行為に分けた.ここで,直接発語媒介行為は,発語内行為の帰結または結果としてなされ,意味論的推論によって算出可能な行為である.一方,間接発語媒介行為は,語用論的推論によって算出可能な行為であり,これがいわゆる間接発話行為に相当する. \section{拡張言語行為論の枠組みによる分析法} 表\ref{fwos}に現れる概念要素を{\bf表形式}にし,それぞれの概念要素の内容を述語によって書き下すことを,{\bf拡張言語行為論の枠組みによる分析}と呼ぶことにする.表中,{\bf発語媒介行為},{\bf発語媒介的効果},{\bf意図}以外の概念要素が分析に実際に用いられる概念要素である.\begin{table}[htbp]\begin{center}\begin{tabular}{c|c|c}\multicolumn{2}{c|}{話し手}&聞き手\\\hline意図&言語行為&効果\\\hline&\fbox{{\bf発話行為}}&\\&「発話」&\\&\fbox{{\bf命題行為}}&\\&意味論的推論で算出可能な&\\&指示と述定&\\&\fbox{{\bf隠蔽された命題行為}}*&\\&隠蔽された(語用論的推論を&\\&必要とする)命題を示唆する行為&\\&\fbox{{\bf発語内行為}}&\fbox{\bf発語内的効果}\\&陳述,疑問,命令など&聞き手の理解\\&\fbox{\bf発語媒介行為}&\fbox{\bf発語媒介的効果}\\&聞き手の行動,思考,信念&聞き手の側に実際に起こる\\&などに影響を及ぼす行為&行為ないしは効果\\&\fbox{直接発語媒介行為}*&\fbox{心の状態の変化}*\\&発話から直接わかる発語媒介行為&\fbox{言語行為}*\\&\fbox{間接発語媒介行為}*&\fbox{その場の行為}*\\&発話から直接わからない発語媒介行為&\fbox{その後の行為}*\\\fbox{\bf意図}*&&\\\fbox{発話自体の意図}*&&\\\fbox{意図の意図}*&&\\\end{tabular}\caption{拡張言語行為論の枠組み(Table\ref{fwos}TheFrameworkofanExtendedSpeechActTheory)}\label{fwos}\end{center}\end{table}以下では,簡単な発話を取り上げ,拡張言語行為論の枠組みによる分析例を示す(表\ref{fwsaex},\ref{fwsaex2}).これによって,本枠組みが言語行為の分析にどのように用いられるかを示すとともに,本枠組みの具体的なイメージを明らかにする.なお,ここで示すのは{\bf分析の一例}であり,他の分析も成立しうる.拡張言語行為論の枠組みは本論文の主題ではないが,次節であいづち「はい」による了解応答を語用論的に分析するための枠組みとして,重要な位置付けにある.\begin{table}[htbp]\begin{center}{\footnotesize\begin{tabular}{l|l|l|l}項番&1&2&3\\\hline発話行為&窓を開けて!&窓を開けてくれますか?&ここは暑い.\\&(Openthewindow!)&(Willyouopenthewindow?)&(It'shotinhere.)\\\hline命題行為&$p_{1}$=open(H,Window)&$p_{2}$=open(H,Window)&$p_{3}$=be(Here,Hot)\\\hline隠蔽された命題行為&なし&なし&$p'_{3}$=do(H,something)\\\hline発語内行為&!($p_{1}$)&?($p_{2}$)&$\vdash$($p_{3}$)\\\hline直接発語媒介行為&let(S,H,$p_{1}$)&let(S,H,answer(H,$p_{2}$))&let(S,H,know(H,$p_{3}$))\\\hline間接発語媒介行為&なし&let(S,H,$p_{2}$)&let(S,H,A)(A=$p'_{3}$)\\\hline発話自体の意図&want(S,H,$p_{1}$)&want(S,H,know(H,$p_{2}$))&want(S,H,know(H,$p_{3}$))\\\hline意図の意図&なし&want(S,H,$p_{2}$)&want(S,H,A)(A=$p'_{3}$)\\\hline発語内的効果&know(H,!($p_{1}$))&know(H,?($p_{2}$))&know(H,$\vdash$($p_{3}$))\\\hline心の状態の変化&think(H,$p_{1}$)&think(H,$p_{2}$)&think(H,$p'_{3}$)\\\hline言語行為&なし&なし&なし\\\hlineその場の行為&$p_{1}$&$p_{2}$&$p'_{3}$\\\hlineその後の行為&なし&なし&なし\\\end{tabular}}\caption{拡張言語行為論の枠組みによる分析例-その1\\(Table\ref{fwsaex}SomeExamplesofAnalysis\\withtheFrameworkofanExtendedSpeechActTheory-Part1)}\label{fwsaex}\end{center}\end{table}\begin{table}[htbp]\begin{center}{\footnotesize\begin{tabular}{l|l|l|l}項番&4&5&6\\\hline発話行為&これから銀行に行きます.&5時ですよ.&じゃあ,明日行きます.\\&(I'llgotothebank.)&(It'sfiveo'clock.)&(ThenI'llgotomorrow.)\\\hline命題行為&$p_{4}$=go\_to(S,Bank)&$p_{5}$=be(Time,five)&$p_{6}$=go\_to(S,Bank);\\&&&Time=Tomorrow\\\hline隠蔽された命題行為&なし&$p'_{5}$=be(Bank,Closed)&なし\\\hline発語内行為&$\vdash$($p_{4}$)&$\vdash$($p_{5}$)&$\vdash$($p_{6}$)\\\hline直接発語媒介行為&let(S,H,know(H,$p_{4}$))&let(H,S,know(S,$p_{5}$))&let(S,H,know(H,$p_{6}$))\\\hline間接発語媒介行為&なし&let(H,S,know(S,$p'_{5}$))&なし\\\hline発話自体の意図&want(S,H,know(H,$p_{4}$))&want(H,S,know(S,$p_{5}$))&want(S,H,know(H,$p_{6}$))\\\hline意図の意図&なし&want(H,S,know(S,$p'_{5}$))&なし\\\hline発語内的効果&know(H,$\vdash$($p_{4}$))&know(S,$\vdash$($p_{5}$))&know(H,$\vdash$($p_{6}$))\\\hline心の状態の変化&think(H,$p_{4}$)&think(S,$p_{5}$),think(S,$p'_{5}$)&think(H,$p_{6}$)\\\hline言語行為&It'sfiveo'clock.&ThenI'llgotomorrow.&なし\\\hlineその場の行為&なし&なし&なし\\\hlineその後の行為&なし&go\_to(S,Bank);&なし\\&&Time=Tomorrow&\\\end{tabular}}\caption{拡張言語行為論の枠組みによる分析例-その2\\(Table\ref{fwsaex2}SomeExamplesofAnalysis\\withtheFrameworkofanExtendedSpeechActTheory-Part2)}\label{fwsaex2}\end{center}\end{table}表\ref{fwsaex},\ref{fwsaex2}の中で,命題行為$p_{i}$は行為(例えばopen(H,Window))か状態(例えばbe(Here,Hot))を表す.また,Sは話し手,Hは聞き手,Aは何らかの行為を表す.さらに発語内行為の''!''は依頼を,''?''は疑問を,''$\vdash$''は陳述を表す.また,表4の命題行為,その後の行為に現れる'';''の後の記述は,直前の述語が遂行される時刻を付記するものである.以下,表\ref{fwsaex},\ref{fwsaex2}の内容について順次説明する.ここで,分析対象はあくまで日本語であるが,述語表現(述語名および引数)は慣例として英語表記が用いられることから,ここでも英語表記を用いている.また,英語による述語表現を分かりやすくするために,発話行為に妥当な英訳を付記してある.1はいわゆる命令文である.話し手が{\bf発話行為}として「窓を開けて!」(Openthewindow!)と言ったことについて分析している.{\bf命題行為}は$p_{1}$=open(H,Window)となる.{\bf隠蔽された命題行為}はない.{\bf発語内行為}は$p_{1}$を依頼したこと,すなわち,!($p_{1}$)となる.{\bf直接発語媒介行為}はSがHに$p_{1}$をさせる,すなわち,let(S,H,$p_{1}$)となる.{\bf間接発語媒介行為}はない.{\bf発話自体の意図}はSがHに$p_{1}$をして欲しい,すなわち,want(S,H,$p_{1}$)となる.この場合,{\bf意図の意図}はない.また,聞き手側の効果は,{\bf発語内的効果}としては,Hが$p_{1}$を依頼されたことがわかったこと,すなわち,know(H,!($p_{1}$))となる.発語媒介的効果の{\bf心の状態の変化}はHが$p_{1}$をしようと思ったこと,すなわち,think(H,$p_{1}$)となる.聞き手が何も返事をしなかった場合をここでは想定しているので,{\bf言語行為}はない.{\bfその場の行為}は$p_{1}$になる.最後に{\bfその後の行為}はない.ここで,述語knowは外界からの情報を単に認知あるいは理解したことを,述語thinkは主体内部の情報だけからの推論によって主体の信念が変化したことを表す.2は疑問文の形をとった依頼を表す.さらにこの場合はコミュニケーションが首尾よく,欠陥なく進行した場合を想定する.話し手が{\bf発話行為}として「窓を開けてくれますか?」(Willyouopenthewindow?)と言ったことについて分析している.{\bf命題行為}は$p_{2}$=open(H,Window)となる.{\bf隠蔽された命題行為}はない.{\bf発語内行為}は$p_{2}$を質問したこと,すなわち,?($p_{2}$)となる.{\bf直接発語媒介行為}はSがHに$p_{2}$と答えさせる,すなわち,let(S,H,answer(H,$p_{2}$))となる.{\bf間接発語媒介行為}はSがHに$p_{2}$をさせる,すなわち,let(S,H,$p_{2}$)となる.{\bf発話自体の意図}はSがHに$p_{2}$を知って欲しい,すなわち,want(S,H,know(H,$p_{2}$))となる.{\bf意図の意図}は,SがHに$p_{2}$して欲しい,すなわち,want(S,H,$p_{2}$)となる.また,聞き手側の効果は,{\bf発語内的効果}としては,Hが$p_{2}$を質問されたことがわかったこと,すなわち,know(H,?($p_{2}$))となる.発語媒介的効果の{\bf心の状態の変化}はHが$p_{2}$をしようと思ったこと,すなわち,think(H,$p_{2}$)となる.聞き手が何も返事をしなかった場合をここでは想定しているので,{\bf言語行為}はない.{\bfその場の行為}は$p_{2}$になる.最後に{\bfその後の行為}はない.上記の分析例で,我々は,質問を依頼であるとする推論を意味論的推論ではなく,語用論的推論と考えた.従来,意味論的推論と語用論的推論の境界線は曖昧であった,我々は,この種の推論を語用論的推論の方へ分類することにした.3は「ここは暑い」と言うことによって,窓を開けて欲しいなど,何かをして欲しいことを知らせる場合である.話し手が{\bf発話行為}として「ここは暑い」(It'shotinhere.)と言ったことについて分析している.{\bf命題行為}は$p_{3}$=be(Here,Hot)となる.{\bf隠蔽された命題行為}はHが何かをすること,すなわち,$p'_{3}$=do(H,something)となる.{\bf発語内行為}は$p_{3}$を陳述したこと,すなわち,$\vdash$($p_{3}$)となる.{\bf直接発語媒介行為}はSがHに$p_{3}$であることを知らせる,すなわち,let(S,H,know(H,$p_{3}$))となる.{\bf間接発語媒介行為}はSがHに何かAをさせる,すなわち,let(S,H,A)(A=$p'_{3}$)となる.{\bf発話自体の意図}はSがHに$p_{3}$であることを知って欲しい,すなわち,want(S,H,know(H,$p_{3}$))となる.{\bf意図の意図}は,SがHに何かAをして欲しい,すなわち,want(S,H,A)(A=$p'_{3}$)となる.また,聞き手側の効果は,{\bf発語内的効果}としては,Hが$p_{3}$を陳述したことがわかったこと,すなわち,know(H,$\vdash$($p_{3}$))となる.発語媒介的効果の{\bf心の状態の変化}はHが$p'_{3}$をしようと思ったこと,すなわち,think(H,$p'_{3}$)となる.聞き手が何も返事をしなかった場合をここでは想定しているので,{\bf言語行為}はない.{\bfその場の行為}は$p'_{3}$になる.最後に{\bfその後の行為}はない.4,5,6は一連の会話の例である.まず,話し手(S)が「これから銀行に行きます」と言ったのに対して,聞き手(H)が「5時ですよ」と指摘して,銀行が既に閉まっていることを示唆し,結局,最初の話し手(S)は「じゃあ,明日行きます」と言った場合である.4は話し手が{\bf発話行為}として「これから銀行に行きます.」(I'llgotothebank.)と言ったことについて分析している.{\bf命題行為}は$p_{4}$=go\_to(S,Bank)となる.{\bf隠蔽された命題行為}はない.{\bf発語内行為}は$p_{4}$を陳述したこと,すなわち,$\vdash$($p_{4}$)となる.{\bf直接発語媒介行為}はSがHに$p_{4}$を知らせる,すなわち,let(S,H,know(H,$p_{4}$))となる.{\bf間接発語媒介行為}はない.{\bf発話自体の意図}はSがHに$p_{4}$を知って欲しい,すなわち,want(S,H,know(H,$p_{4}$))となる.{\bf意図の意図}はない.また,聞き手側の効果は,{\bf発語内的効果}としては,Hが$p_{4}$を陳述したことがわかったこと,すなわち,know(H,$\vdash$($p_{4}$))となる.発語媒介的効果の{\bf心の状態の変化}はHが$p_{4}$だと思ったこと,すなわち,think(H,$p_{4}$)となる.{\bf言語行為}は引き続きなされた発話,すなわち,「5時ですよ.」(It'sfiveo'clock.)となる.{\bfその場の行為}と{\bfその後の行為}はない.5では,{\bf発話行為}として「5時ですよ.」(It'sfiveo'clock.)と言ったことについて分析している.{\bf命題行為}は$p_{5}$=be(Time,five)となる.{\bf隠蔽された命題行為}は銀行が既に閉まっていること,すなわち,$p'_{5}$=be(Bank,Closed)となる.{\bf発語内行為}は$p_{5}$を陳述したこと,すなわち,$\vdash$($p_{5}$)となる.{\bf直接発語媒介行為}はHがSに$p_{5}$を知らせる,すなわち,let(H,S,know(S,$p_{5}$))となる.{\bf間接発語媒介行為}は既に銀行が閉まっていることを知らせる,すなわち,let(H,S,know(S,$p'_{5}$))となる.{\bf発話自体の意図}はHがSに$p_{5}$であることを知って欲しい,すなわち,want(H,S,know(S,$p_{5}$))となる.{\bf意図の意図}は,HがSに$p'_{5}$を知って欲しい,つまり,want(H,S,know(S,$p'_{5}$))となる.また,聞き手側の効果は,{\bf発語内的効果}としては,Sが$p_{5}$を陳述したことがわかったこと,すなわち,know(S,$\vdash$($p_{5}$))となる.発語媒介的効果の{\bf心の状態の変化}はSが$p_{5}$と$p'_{5}$であると思ったこと,すなわち,think(S,$p_{5}$)とthink(S,$p'_{5}$)になる.{\bf言語行為}は引き続きなされた発話,すなわち,「じゃあ,明日行きます.」(ThenI'llgotomorrow.)となる.{\bfその場の行為}はない.{\bfその後の行為}は明日,銀行へ行くこと,すなわち,go\_to(S,Bank);Time=Tomorrowとなる.6では,{\bf発話行為}として「じゃあ,明日行きます.」(ThenI'llgotomorrow.)と言ったことについて分析している.{\bf命題行為}は$p_{6}$=go\_to(S,Bank);Time=Tomorrowとなる.{\bf隠蔽された命題行為}はない.{\bf発語内行為}は$p_{6}$を陳述したこと,すなわち,$\vdash$($p_{6}$)となる.{\bf直接発語媒介行為}はSがHに$p_{6}$を知らせる,すなわち,let(S,H,know(H,$p_{6}$))となる.{\bf間接発語媒介行為}はない.{\bf発話自体の意図}はSがHに$p_{6}$を知って欲しい,すなわち,want(S,H,know(H,$p_{6}$))となる.{\bf意図の意図}はない.また,聞き手側の効果は,{\bf発語内的効果}としては,Hが$p_{6}$を陳述したことがわかったこと,すなわち,know(H,$\vdash$($p_{6}$))となる.発語媒介的効果の{\bf心の状態の変化}はHが$p_{6}$だと思ったこと,すなわち,think(H,$p_{6}$)となる.{\bf言語行為}と{\bfその場の行為}と{\bfその後の行為}はない. \section{「はい」による了解応答の分析} 主としてここでは,拡張言語行為論の枠組みを用いて,了解応答としてのあいづち「はい」について一般的な分析を行うとともに,その分析を踏まえて{\bf「はい」による了解の程度と過程}の分析を行い,これらの分析から得られた知見を述べる.\subsection{一般的な分析}\label{yesspeechact}まず,S(最初の発話者)の発話に対するH(最初の発話者Sの聞き手)のあいづちとしての「はい」を,了解応答とみなして,前節の拡張言語行為論の枠組みを用いて分析してみる(表\ref{yesspeech})\footnote{表中に含まれていない概念要素に関する分析結果は「なし」であり,それらは省略してある.}.Hの{\bf発話行為}として「はい」がなされたとき,{\bfHの隠蔽された命題行為}$p_{H}$は,HがSのいずれかの言語行為あるいは意図をわかったことを指す.すなわち,$p_{H}$=know(H,$p'_{S}$)($p'_{S}$はSのいずれかの言語行為あるいは意図)ということになる.Hの{\bf発語内行為}はSの{\bf命題行為}$p_{S}$に対するあいづちであるので,chimeIn(H,$p_{S}$)となる.{\bf間接発語媒介行為}は,HがSに$p_{H}$を知らせる,すなわちlet(H,S,know(S,$p_{H}$))となる.最後にHの{\bf発話自体の意図}は,Hが$p'_{S}$を知ったこと(つまり,$p_{H}$)をSに知って欲しい,すなわちwant(H,S,know(S,$p_{H}$))となる.人間はこれらのことを一瞬にしてやってのける(あるいは指摘されればわかる)が,分析してみると上記のようになる.\begin{table}[htbp]\begin{center}\begin{tabular}{r|l}言語行為/意図&分析内容\\\hline\hlineHの発話行為&「はい」\\\hlineHの隠蔽された命題行為&$p_{H}$=know(H,$p'_{S}$)\\&$p'_{S}$はSのいずれかの言語行為あるいは意図\\\hlineHの発語内行為&chimeIn(H,$p_{S}$)\\\hlineHの間接発語媒介行為&let(H,S,know(S,$p_{H}$))\\\hlineHの発話自体の意図&want(H,S,know(S,$p_{H}$))\\\end{tabular}\caption{拡張言語行為論の枠組みを用いた「はい」による了解応答の一般的分析\\(Table\ref{yesspeech}AGeneralAnalysisofthe``Uptake''through``Hai''\\inJapanesewiththeFrameworkofanExtendedSpeechActTheory)}\label{yesspeech}\end{center}\end{table}「はい」はこれまで概念的に未分化な状態にあった.しかし上述のような分析によって,「はい」を言語行為という観点から概念的にある程度分化させることができた.また,「はい」によって行われる各言語行為の内容と,言語行為間の関係とが分かった.これによって,ある程度まで鍵穴認識(つまり第三者による観察)が可能になった.しかし一方で,Hの{\bf隠蔽された命題行為}における$p'_{S}$の指示対象が具体的に決定困難であることが,鍵穴認識の難しさの原因になっていることが分かった.これまで鍵穴認識の難しさについては抽象的な議論しか行われてこなかったが,具体的な問題点を明らかにしたことになる.\subsection{了解の程度と過程}表\ref{yesspeech}においてHの{\bf隠蔽された命題行為}における$p'_{S}$の指示対象が何であるかによって,Hの{\bf隠蔽された命題行為}$p_{H}$=know(H,$p'_{S}$)は以下のように多様に解釈できる.\begin{description}\item[(1)$p'_{S}$がSの発話行為]いわゆるあいづちであり,聞いているということを意味する.\item[(2)$p'_{S}$がSの命題行為]Sの言っている命題内容がわかったことを意味する.\item[(3)$p'_{S}$がSの発語内行為]Sの発話が,約束,依頼/命令,陳述,疑問,感謝,助言,警告,あいさつなどであること(Sの発語内行為)がわかったことを意味する.\item[(4)$p'_{S}$がSの直接発語媒介行為]Sの直接発語媒介行為がわかったことを意味する.\item[(5)$p'_{S}$がSの隠蔽された命題行為]Sの隠蔽された命題行為がわかったことを意味する.\item[(6)$p'_{S}$がSの間接発語媒介行為]Sの間接発語媒介行為がわかったことを意味する.\item[(7)$p'_{S}$がSの発話自体の意図]Sの発話自体の意図がわかったことを意味する.\item[(8)$p'_{S}$がSの意図の意図]Sの意図の意図がわかったことを意味する.\end{description}以上のように,拡張言語行為論の枠組みを用いた「はい」による了解応答の語用論的分析に限れば,$p_{H}$の多様性は上記の八種類に限定できる.このような多様性がHの了解の{\bf程度}に対応するものと考えられる.したがって,了解の程度には八つの段階があるということになる.$p'_{S}$の指示対象に依存して了解の程度が変わり,上述の(1)から(8)に向けて了解の程度が高くなることは明らかであろう.ここで$p'_{S}$は,H側が了解した内容に相当するという意味で,{\bf了解内容}と呼ぶ.これまで了解の程度については詳細な議論がなされていなかったが,これによって了解の程度を考察する枠組みを明らかにすることができた.しかし,前節でも述べたように$p'_{S}$の指示対象が具体的に決定困難であることから,了解の程度がどの段階にあるかを客観的に特定するのは一般に困難であるという問題は残されている.一方,了解の{\bf過程}には発話の確認,命題行為の理解,発語内行為の理解,意図の理解,納得,言語行為,行為と七段階が考えられる.ここで,意図の理解とは単に発話者の意図(発話自体の意図あるいは意図の意図)を理解したものであり,納得とは発話者の意図(発話自体の意図あるいは意図の意図)に同意することである.さらに,納得を前提として,発話に対する答え(言語行為)がなされ,さらに具体的な行為がなされる.これらの各段階は,典型的には,前段階の通過を前提とするものである.したがって,各段階が観察可能であれば(実際,発話者間ではお互いがどの段階にあるかを確認することは可能である),上述した了解の過程はさらなる了解に向けての次なる段階を示唆するものであり,会話において了解を促進させる手がかりとなりうる.またこれまでは,了解について明確なモデルがないまま鍵穴認識の研究が行われていた.本論文では,拡張言語行為論という枠組みを用いて,了解の程度と過程のモデルを構築した.これは鍵穴認識の領域におけるひとつの前進といえる. \section{むすび} 本論文では,了解の程度と過程を分析するために拡張言語行為論の枠組みを与えた.これによって,了解の語用論的分析を可能にした.本枠組みは,Searleの言語行為論の枠組みを拡張したものであり,{\bf隠蔽された命題行為}と{\bf意図}という概念を新たに導入している.また大まかに述べれば,{\bf意図}を二種類に,{\bf発語媒介行為}を二種類に,{\bf発語媒介的効果}を四種類にそれぞれ分類し,言語行為論を詳細化している.さらに本枠組みは,了解の語用論的分析を可能にしたという点で,分析力を高めたものである.また,拡張言語行為論の枠組みを利用してあいづち「はい」による了解の程度と過程について分析し,いくつか有用な知見を得た.得られた知見を要約すると以下の通りである.了解の程度には八つの段階が,了解の過程には七つの段階が識別できる.これまでは了解の程度については詳細な議論がなされていなかったが,本分析によって了解の程度を考察する枠組みを与えることができた.しかし一般には,第\ref{yesspeechact}節でも述べたように$p'_{S}$(発話者Sのいずれかの言語行為あるいは意図)の指示対象が具体的に決定困難であることから,了解の程度がどの段階にあるかを客観的に特定するのは困難であるという問題は残されている.次に,これまでは,了解の程度と過程が不明確ながらも鍵穴認識が行われていた.了解の程度と過程を明らかにしたことは,鍵穴認識の領域におけるひとつの前進といえる.拡張言語行為論の枠組みは,それによる分析例(表\ref{fwsaex2})で示したように,あいづち「はい」による了解だけではなく,他の発話による了解の分析にも使える.そのため,例えば「鍵穴認識」で何が困難なのかが判明する可能性がある.最後に,了解の程度に関するモデルを利用した発展的研究の可能性について述べる.Austinは,発語内行為を判定宣言型,権限行使型,行為拘束型,態度表明型,言明解説型の五つの型に分けている\cite{austin}.それぞれの型に対応する発話と,その発話に対するあいづち「はい」とを対にした対話例をいくつか用意する.対話例は,紙に書かれたもの,音声のみで記録されたもの,ビデオテープに記録されたものが考えられる.また,各対話例について,了解の程度に対応して了解内容を明記した一覧表を用意する.そして,各対話例とそれに対応する了解内容を複数の被験者に示し,発話「はい」がどの了解内容を指しているように見えるかを回答させる.ある発語内行為の型に対して回答のばらつきが大きいならば,その型は,発話「はい」による了解内容が多様で曖昧になると判断できる.こうした発展的研究は,以下のようにユーザインタフェースの改善に貢献し得る.人間が計算機に対して話しかけ,それに応じて計算機が「はい」と答える状況を考える.こうした状況では,計算機の「はい」による了解内容が曖昧になることがある.言い換えれば,「はい」が単なるあいづちであるのか,それよりも上位の了解を意味するのかが,人間には分からない場合がある.その場合には,計算機側に「はい」以外の,人間に了解内容が伝わるような発話を必要とする.計算機の「はい」による了解内容が曖昧になる場合を上述したような発展的研究を通じてあらかじめ知っておくことにより,会話の正確さと円滑さを保つことができる.了解の程度と過程のモデルを利用したこのような研究を行うことが,今後の研究課題である.\bibliographystyle{jnlpbbl}\bibliography{final}\begin{biography}\biotitle{略歴}\bioauthor{土井晃一}{1961年生.1991年東京大学工学部情報工学専攻博士課程修了.工学博士.同年富士通研究所国際情報社会科学研究所入社(現富士通研究所コンピュータシステム研究所).自然言語理解,人工知能,ソフトウエア工学,情報検索などの研究に従事.1998年9月より1999年10月まで文部省学術情報センター客員助教授併任.現在は,(株)セレスター・レキシコ・サイエンシズに勤務.日本認知科学会,情報処理学会,人工知能学会,ソフトウエア科学会,言語処理学会各会員.}\bioauthor{大森晃}{1954年生.1985年広島大学大学院工学研究科博士課程後期修了(システム工学専攻).工学博士.1982年9月より1年間ケースウェスタンリザーブ大学客員研究員.1985年4月より富士通国際情報社会科学研究所に勤務.1993年10月より東京理科大学工学部第二部経営工学科助教授.ソフトウエア工学,品質管理,ユーザ・インタフェース,自然言語理解などの研究に従事.IEEEComputerSociety,ACM,日本品質管理学会,計測自動制御学会,情報処理学会各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V06N01-01
\section{はじめに} 日本語対話文における格要素の省略補完について述べる。主語や目的語などの表示が義務的でない日本語の言語処理においては、これら省略される\footnote{そもそも省略ではなく非存在とする解釈もあるが、ここでは格要素が明示されていないものすべてを「省略」と呼び、本論文の研究対象とする。}格要素を補う処理が重要である。格要素の省略は日本語に特有の現象ではなく、例えば韓国語、中国語などにも認められる。これら省略のある言語から英語やドイツ語など必須格を持つ言語への翻訳処理を行なう際には、補完処理(省略内容の推定処理)は重要な処理となる。また情報検索など、自然言語処理に関係する他の問題においても、省略補完処理は必要となる。省略された内容は、言語内、つまり省略位置以前のテキスト中に存在する場合と言語外に存在する場合に大きく分かれる。本論文では前者を文脈省略(endophoricellipsis)、後者を外界省略(exophoricellipsis)と呼ぶ。日本語の文脈省略補完に関しては従来から様々な研究がなされてきている。センタリング理論(centeringtheory)と呼ばれる一連の手法はこの一つである(最近の論文としては、例えば\cite{Strube}、\cite{Byron}、\cite{Walker}などを参照)。この理論では、`center'(談話のある時点において最も顕著な談話要素)という概念を導入することによって照応や省略の解決を行なう。また{}\cite{Dohsaka}は、日本語において発話から語用論的制約を抽出し、制約充足プロセスに基づいて文脈の下で解釈することによる文脈省略の補完手法を提案している。一方、外界省略も含めた補完手法に対しては、ヒューリスティックスなどによる経験的な解決手法を中心にいくつか提案されている。このうち日本語を対象にしたものとしては、村田ら\cite{村田}、江原ら\cite{江原}、Nakaiwaetal.\cite{Nakaiwa}の研究などがある。\cite{村田}は補完に関係する表層的な言語現象をヒューリスティックスで得点を付与し、それらの合計によって最尤の省略内容を補完している。この手法は多くの言語情報を利用した省略補完手法であるが、対話文に対しては十分な考慮がされておらず(\ref{節:比較}節を参照)、また得点の調整には困難を伴うことが予想される。また\cite{江原}は複文を単文に分割した際に生じる省略主語を補完するという問題に対して、経験的に8項目の特徴パラメータを設定して、確率モデルによる手法を提案している。一般の省略に対して有効であるか現時点では不明であり、少なくとも本研究の対象とは問題が異なるために確率モデルや特徴パラメータを再検討する必要がある。{}\cite{Nakaiwa}では用言意味属性と語用論的、意味論的制約を用いて外界省略の解消を行なっている。必要とする知識量が膨大であり、保守コストや他言語への適用を考えた場合に課題が残る。本論文の目的は、(1)対話における省略という現象の分析、問題設定(2)決定木と決定木学習による問題解決手法の提案(3)提案手法の特性の議論、の三点である。後述するように、対話においては外界省略の割合が高いが、このような状況下で我々はすべての省略を同一の枠組みで補完することは現実的でないと考える。また対話においてどのような問題設定が適当かはこれまで十分に議論されていない。そこでまず、対話における現象を分析し本論文における問題設定を{}\ref{節:現象}節において行なう。次に、{}\ref{節:手法}節で提案手法の説明を行なう。本論文では、省略補完知識の決定木(decisiontree)による表現、及び省略情報の正解付きコーパスから言語現象と補完すべき省略の関係を帰納的に機械学習し、これによって日本語対話文の格省略を補完する手法を提案する。本研究は機械学習手法の提案が目的ではないので一般的に知られている機械学習手法を利用し、どのような情報をどのように使用し、いかに機械学習させるべきかを提案する。論文の後半では、提案手法の特性を議論する。{}\ref{節:実験}節においては、提案手法の有効性を議論するために行なった実験について述べる。\ref{節:議論}節では決定木を観察することによって使用属性などに対する議論を行なう。両節での議論によって、提案手法がどのような特徴を持ち、またどのような限界があるのかを明確にする。最後に本論文の結論を{}\ref{節:結論}節で述べる。近年多くのテキストやシソーラスが機械可読化されてきており、多くの場合これらの言語資源は入手が可能となっている。本研究では、他の話題への適用性を考慮して、形態素分割されて品詞と省略情報が付与されたコーパス、及びシソーラスのみを用いて行なう手法を試みる。提案手法は、特定のコーパス、品詞体系、シソーラスをいずれも仮定しないため、大量の知識を作成、保守する必要性がなく、手作業による補完規則やパラメータの調整を行なう必要もない。また本手法では、構文解析も仮定しないため、構文解析の手法や精度とは独立である。本論文は、日本語対話文を英語やドイツ語に翻訳する際に必要となる処理を想定しており、省略内容の人称と数を補完するという問題設定を行なっている。また、省略の検出処理は他の処理部によって格要素の省略が正しく検出されると仮定する。なお、本論文は以前報告した文献\cite{NLPRS97}及び文献{}\cite{Coling-ACL98}の内容を基本にして議論、検討を行ない、新たにまとめたものである。 \section{日本語における格要素の省略現象} \label{節:現象}本節では格要素の省略という現象の考察を行なう。対話と文章、格による相違という二つの視点から格要素がどのように省略されるのかを議論することによって、本研究で解くべき問題の設定を明確にする。\subsection{対話と格要素省略}前述したように、格要素の省略には文脈省略と外界省略の二種類ある{}\footnote{さらに、文脈省略を二つに分ける分類方法もある。例えば{}\cite{Nakaiwa}では、補完要素が省略された格要素を持つ文中にある場合(文内照応)とその文以前にある場合(文間照応)とに分けている。}。この二種類の省略の出現割合はテキストの種類によって、つまりそのテキストが対話(音声言語)か文章(新聞や小説などの文字言語)かによって大きく異なることが想像できる。この関係を表にしたものを表\ref{文章と対話}に示す。\begin{table}\begin{center}\caption{文章と対話の性質}\label{文章と対話}\begin{tabular}{l|cc}\hline\hline&文章&対話\\\hline文脈省略&多い&ヲ格では多い\\外界省略&少ない&非常に多い\\\hline省略の頻度&比較的少ない&比較的多い\\\hline\end{tabular}\end{center}\end{table}本研究の対象となる対話について考えると、文章とは省略の様子が大きく異なることがわかる\footnote{ここでは、演説などの不特定の相手への対話、及び日記や手紙などの特定の相手への文章などは考えない。}。文章は多くの場合、それ自体で完結していることが必要であり、読者を明確に特定できない場合が多いため読者との共有知識を明確に定義できず、それ故省略もそれほど多く起こらない。また省略された場合の補完内容は、その文章内にある場合が多いと考えられる。これに対し対話(特に二者対話などの少数聴者に対する対話)では、相手に情報を伝えることが目的であり、双方向でコミュニケーションをとりながら進行するため共有知識も次第に増え、その結果省略も多用される。また、コミュニケーションをとる必要上、対話参加者に関する省略、つまり外界省略が比較的多いと考えられる。以上のような理由により、省略の補完処理についてもどのようなテキストを対象にするかによってどの省略を中心に取り扱うかが自ずと決まる。\subsection{表層格による格要素省略の差異}省略された格要素が外界省略か文脈省略かは格によっても大きく傾向が異なる。以下では、日本語の主たる表層格要素であるガ格、ヲ格、ニ格について考える。ガ格は、動作や状態の主体または対象を表す場合に使用される。これらを観察すると、動作の主体または対象が省略される場合と、状態の主体または対象が省略される場合で、省略及び補完に必要な情報の傾向が大きく異なることが予想される。以下の[\ref{乗る}]は動作を表す文であり、[\ref{冷たい}]は状態を表す文である。前者のガ格は人である場合が多いが後者ではガ格が人になる割合はそれほど多くない。\begin{example}\item早く電車に乗ってください。\label{乗る}\itemとても冷たいですね。\label{冷たい}\end{example}以上の検討より、本論文では省略された文の述部によってガ格を二つに分離し、別個のものとして取り扱った。すなわち、一つは述部が動詞の場合、もう一つは述部が形容詞、形容動詞、あるいは「名詞+判定詞(だ/です)」の場合である。以下では、前者をガ格(動)、後者をガ格(形)と表記する。なお、ガ格分離の妥当性は後で考察する。ヲ格は、動作や感情を向ける対象や移動の場所、起点を示す。このため、動作や感情の対象が対話参加者となる可能性のある一部の動詞(「紹介する」など)を除いて、多くの場合が照応的な省略、文脈省略となることが予想される。ニ格は、動作を向ける相手(「彼\underline{に}見せる」)、移動の着点(「京都\underline{に}着く」)などいろいろな用法がある。ニ格となる名詞には様々な種類が考えられるが、大別すると、人、場所、抽象物(時間を含む)、具体物に分けられるが、多くは人であると予想される。以上の考察の妥当性を確認するために、対話コーパス(\ref{節:コーパス}節を参照)499対話(18385文、省略総数\footnote{表に示す格以外の格、並びに特殊な用法の省略を除く。}15397)における省略された格の補完内容を実際に調査した。その結果を表\ref{調査}に示す。これより、ガ格(動)とガ格(形)ではその省略の傾向が異なること、ヲ格はほとんどが文脈省略であること、ニ格の89.1\%が外界省略であることなどがわかる。\begin{table}\begin{center}\caption{対話文における各表層格別の省略頻度}\label{調査}\begin{tabular}{c|rrrrrr|r}\hline\hline&一人称(単&複)&二人称(単&複)&一般\footnotemark&文脈省略&合計\\\hlineガ(動)&3864&962&1879&284&361&1359&8709\\&44.4\%&11.0\%&21.6\%&3.3\%&4.1\%&15.6\%&\\ガ(形)&576&442&306&52&14&1365&2755\\&20.9\%&16.0\%&11.1\%&1.9\%&0.5\%&49.5\%&\\ヲ&47&4&4&3&0&1137&1195\\&3.9\%&0.3\%&0.3\%&0.3\%&0\%&95.1\%&\\ニ&1163&53&1156&61&8&297&2738\\&42.5\%&1.9\%&42.2\%&2.2\%&8.3\%&10.8\%&\\\hline合計&5650&1461&3345&400&383&4158&15397\\&36.7\%&9.5\%&21.7\%&2.6\%&2.5\%&27.0\%&\\\hline\end{tabular}\end{center}\end{table}\footnotetext{「一般」については\ref{節:補完情報}節で述べる。}\subsection{対話文の問題設定と補完戦略}本研究の目的は、日本語から必須格を持つ目的言語への機械翻訳において、省略されている必須格要素の人称と数を補完することである。しかし前述したように、文章と対話によって省略の傾向が異なり、これらすべてを対象にして統一的な処理を行なうことは適当ではないと考える。そこで、対話において比較的重要な外界省略を主たる対象にして、本論文では以下のように問題を設定した。\begin{itemize}\item外界省略の人称と数の補完\item文脈省略の認知\end{itemize}これまで、照応的な省略に対しての研究はいくつか行なわれている。これらの研究は以上の問題設定とは相補的になる。すなわち、本論文の手法によって文脈省略と認知することができれば、省略内容の補完処理はこれらの従来研究、例えばセンタリング理論によって解くことが可能となり、対話におけるすべての格要素省略の問題を解くことができる。\subsection{コーパスと話題}\label{節:コーパス}本研究で使用したコーパスは、チケット予約、観光案内などにおける二者の対話を収録したATR旅行会話コーパス\cite{ATRCorpus}(以下、「コーパス」と呼ぶ)である。おおよそ1対話は20文から40文で構成され、平均は26文である。コーパスは全部で618対話からなるが、本研究ではそのうち499対話を調査、決定木学習及び実験に使用した。コーパスは、ホテルにおける旅行客とフロントの対話を中心に、広範な範囲の対話を収録している。本論文ではこれを大きく表\ref{話題}に示す4つの話題に分類した。この分類は\ref{節:話題依存性}節での話題依存性での議論の際に使用する。\begin{table}\begin{center}\caption{コーパスの話題分類}\label{話題}\begin{tabular}{ll}\hline\hline記号&話題\\\hline$H_1$&ホテルにおける部屋の予約、変更、キャンセル\\$H_2$&ホテル利用に関する問い合わせ、苦情\\$H_R$&その他のホテル関連の話題:ホテル選択やホテル設備案内など\\$R$&ホテル関係以外の旅行対話:出入国、観光、買い物など\\\hline$H$&$H=H_1+H_2+H_R$:コーパス中のホテルに関する全話題\\$T$&$T=H_1+H_2+H_R+R$:旅行対話の全話題\\\hline\end{tabular}\end{center}\end{table} \section{決定木を用いた省略補完} \label{節:手法}本節では、省略の補完に必要な二つの側面、多要素性と相互依存性について検討を行なった後、提案する手法について述べる。\subsection{多要素性}日本語における格要素の省略内容の補完には、非常に多種多様な要素が関係していることは、以前から知られている。従来文献においても、例えばDohsaka{}\cite{Dohsaka}は、待遇関係、視点関係、制御関係、情報のなわばりに関する語用論的制約によって補完を試みている。また、工藤ら{}\cite{工藤}は、謙譲、丁寧、可能、完了などの意味を持つ機能語と、動詞の語彙的な特性による省略補完手法を提案している。省略補完に必要な情報の例を、以下に示す。\begin{itemize}\item待遇表現\\対話において尊敬語や謙譲語などが使用された場合には、誰の動作か述べる必要がなくなり、ガ格が省略される。すなわち、ガ格の補完にはこれら敬語は重要な情報を果たす。\begin{example}\itemそちらに参ります。(ガ格は一人称)\end{example}\item平叙/疑問/命令\\以下の例では、疑問文かどうかでガ格が異なる。\begin{example}\itemわかりました。(ガ格は一人称)\itemわかりましたか。(ガ格は二人称)\end{example}\item動詞の持つ意味\\例えば、以下の発話がホテルのフロントと客との対話と仮定すると、どちらの発話かに関係なく、当該動詞のガ格の内容が決まる。\begin{example}\itemキャンセル待ちを調べて$\cdots$(ガ格はフロント)\label{キャンセル}\itemJRに乗って$\cdots$(ガ格は客)\end{example}\item前文以前の情報(文脈情報)\\対話におけるこれまでの話の流れ。\item言語外情報\\その文が、どこで、誰が誰に対して発話されたか、など。例えば、[\ref{キャンセル}]で、ガ格の人称を決定するには、話者がフロントと客のどちらか、という情報が必要となる。\end{itemize}このように、対話文において省略を補完するためには多くの情報が必要と考えられる。さらに用言の持つ意味は省略の補完にとって重要な情報であると思われるが、その重要性は個々の用言によって異なると考えられる。このように非常に多くの要素が考えられるが、このうち個々の補完事例に本当に必要な要素のみを選択することが可能な補完手法が必要とされる。人手による補完規則作成によるアプローチは、このような言語現象に対して個々に考察を行なう必要があり、一般的には困難が伴う。\subsection{相互依存性}例として、以下の発話において「忘れる」のガ格を補完することを考える。\begin{example}\item部屋/に/カメラ/を/\underline{忘れ}/てき/てしまっ/た/ような/んです/が。\end{example}この例では、動詞「忘れる」の持つ意味属性や「てくる」「てしまう」「た」「ようだ」「んです」「が」といった文末表現など、多くの要素が省略補完に関係する可能性があり、このうちどの要素がどの程度省略補完に影響しているかを明確に記述することは難しい。また、影響の範囲は文末表現間のみ、あるいは用言と文末表現の組み合わせに限らず、例えば以下のように接頭辞と文末表現の組み合わせで考慮すべき例もあり、その関係は多種、複雑である。\begin{example}\item近鉄に\underline{お}乗り\underline{になっ}てください。\label{近鉄}\end{example}このように、格要素の省略補完に必要な情報は独立ではなく、相互に影響しながら省略が可能になることに注意しなければならない。つまり、[\ref{近鉄}]で言えば、「お$\cdots$」と「$\cdots$になる」の出現に対して、個別に補完内容の補完をすることはできない。あるいは、ホテルのフロントにおける受付と客の対話で、一般的に「宿泊する」の動作主は客もしくは「一般的な人」であるが、ある特殊な文脈によってはそれ以外の可能性も考えられ、一概に「宿泊する」という動詞のみでは決定できない。格要素の補完では、多種多様な言語現象からどの2要素(あるいはそれ以上)に対して、同時に考慮する必要があるのかを検討する必要がある。\subsection{決定木を用いた省略補完}以上の考察から、格要素の省略補完には、多要素性と相互依存性を同時に考慮することが可能な枠組みが必要であることがわかる。これに対し我々は、決定木を補完知識表現として使用し、統計を利用した決定木学習を省略補完の知識獲得に使用することを提案する。近年、大量のコーパスが機械可読になってきていることから、機械学習による問題解決は自然言語処理のいくつかの問題に適用されている。例えば、田中は動詞の訳語選択に決定木学習を導入し、有効性を確認している{}\cite{田中}。さらに、談話処理や文脈処理にもこれらの手法が使用されつつあり、例えば談話分割や手がかり語などに関する談話処理にも適用されるようになってきている{}\cite{Summary}。\subsection{補完情報の付与}\label{節:補完情報}決定木学習による学習、並びにテストを行なうことを目的に、対話コーパスに補完内容の情報を付与した。今回付与したタグの種類を表\ref{タグ}に示す。本論文では、表に示すように6種類のタグを設定した。タグの付与に関して、これらの補完内容は日本語のみを考慮して付与した。\begin{example}\item財布を盗まれた。\label{例:財布}\itemMywalletisstolen.\label{例:wallet}\itemMeinGeldbeutelistgestohlenworden.\label{例:Geldbeutel}\end{example}例えば以上の例文において、[\ref{例:財布}]におけるガ格は「私」であるが、その英語訳である[\ref{例:wallet}]の主格は`mywallet'、ドイツ語訳である[\ref{例:Geldbeutel}]の主格は`meinGeldbeutel'である。このように翻訳先の言語によって人称が変わる場合があるが、英語などへの翻訳時に人称がどうなるかという観点では付与しなかった。つまり上記の例では用言「盗む」に対して<1sg>(=一人称単数)のタグを付与した。これは、一般に訳し方は一通りでないこと、翻訳の目的言語が英語のみではないこと、などの理由による。\begin{example}\item右へ曲がると交番です。\label{例:交番}\end{example}日本語においては、[\ref{例:交番}]などのように、特定されない人称を省略要素とする文、つまり一般的な「人」を念頭において発話していると考えられる文がしばしば見受けられる\footnote{日本語のみならず、韓国語や中国語にも見受けられる。}。このような場合、例えば英語への翻訳の場合には人称代名詞`you'を、ドイツ語への翻訳の場合には不定代名詞`man'を主格にすることが多い。しかし、それぞれ二人称、三人称の省略などとは異なる現象であること、想定する翻訳目的言語が英語、ドイツ語などと複数であることを理由に、一人称や二人称とは別のタグ<g>を設定した。以下便宜上、このタグを「一般(人称)」と呼ぶ。以上は外界省略として扱える。省略位置以前の要素に照応先がある場合、つまり文脈照応の場合は、一括して<a>のタグを付与した。本論文では、対話文に頻出する外界省略の補完に主眼を置き、文脈省略に関しては当該省略が文脈省略であることの認知のみを行ない、具体的な先行詞の補完は別処理で行なうと仮定した。\begin{table}\begin{center}\caption{付与したタグの種類}\label{タグ}\begin{tabular}{cll}\hline\hlineタグ&意味&備考\\\hline<1sg>&一人称単数&話者が個人としての立場から発言している場合\\<1pl>&一人称複数&話者が代表している機関、グループの場合を含む\\<2sg>&二人称単数&聞き手を個人としてとらえている場合\\<2pl>&二人称複数&聞き手が代表している機関、グループを含む\\\hline<g>&一般&特定されない人物(一般的な「人」を念頭に置いた発話)\\<a>&照応的&前文以前の発話に先行詞がある場合\\\hline\end{tabular}\end{center}\end{table}\subsection{決定木と決定木学習}多岐にわたる情報を統一的に、かつ自動的で一意に省略を補完する手法として、本研究では決定木を用いる。決定木は、根付き有向木で表現される知識表現構造であり、以下の利点を持つ。\begin{enumerate}\item木という単純な構造の組み合わせによって多要素が複雑に関係した概念が表現できる\item透明性が高いため、要素間の影響が明確に記述され、手作業による変更が十分に可能である\item処理が高速で、多くの場合処理時間は実用上無視できる程短い\end{enumerate}決定木の各分岐節点はある属性\footnote{特徴あるいは質問と呼ぶこともあるが、本論文では属性に用語を統一する。}に対応してその属性値によって枝分かれしていき、それぞれの葉で意志決定が行なわれる。決定木は分岐節点における分岐数によって大きく二分木と多分木とに分かれるが、本論文では前者を使用した。これによって、属性値は`Y'または`N'の二値になる。決定木の例を付録の\ref{節:決定木}に示す。コーパスからの帰納的学習により決定木の作成を行なう。本研究ではID3\cite{Quinlan}のアルゴリズムと同様、エントロピー規準による貪欲法(greedyalgorithm)によって決定木学習を行なった。また、枝刈り(pruning)は行なっていない。\subsection{使用属性}\label{使用属性}省略された格要素を補完するためには、種々の情報を考慮して行なわなければならない。本研究では計367の属性を使用した。その内訳を表\ref{属性}に示す。表に示すように、属性は内容語、機能語、言語外情報に大きく分類できる。以下ではそれぞれについて説明する。\begin{description}\item[内容語の意味属性]省略の対象となる文において、どのような内容語が含まれているかに関する情報。内容語は大きく、用言に関する情報と格要素(体言)に関する情報に分かれる。内容語の意味属性としては角川類語新辞典\cite{角川類語}における中分類(100属性)を使用した。\item[機能語の出現]用言に後接する付属語群、及び助詞などの機能語の出現に関する情報。付属語群の中には、受動/尊敬/可能/自発「れる」使役「せる」アスペクト「ている」などの助動詞などのほか、当為を表す準体助動詞「べき」などが含まれる。また、尊敬(召し上がる)、謙譲(伺う)、可能(飲める)などを示す動詞の集合をそれぞれ一つの属性とし、「尊敬」などを示す機能語として取り扱った。また、受給表現「やる」や動詞「する」「なる」なども特殊な機能語と見なした。その他の機能語には、格助詞、接続助詞、終助詞、「\underline{お}考えですか」「\underline{ご}用意できます」の例に見られる動詞直前の敬意を表す接頭辞がある。この他、禁止を表す形容名詞「だめ」意志を表す形式名詞「つもり」、疑問詞集合(「どこ」「なぜ」など)なども機能語に含めた。\item[言語外情報]言語外情報としては、発話された文の話者が情報提供者か情報享受者か、という属性を使用した。\end{description}\begin{table}\begin{center}\caption{使用属性とその要素数}\label{属性}\y{3}\begin{tabular}{llr}\hline\hline対象&属性&属性数\\\hline内容語(用言)&意味属性&100\\内容語(格要素)&意味属性&100\\\hline機能語(格助詞)&が、に、を&9\\機能語(接続助詞)&ので、たら&21\\機能語(助動詞群)&れる、ている&132\\機能語(その他)&お、敬語動詞&4\\\hline言語外情報&話者情報&1\\\hline合計&&367\\\hline\end{tabular}\end{center}\end{table}すべての属性は(照合方法,照合位置,属性値)の三つ組によって表現される。照合方法は、\verb+:speaker+(話者の照合)、\verb+:regexp+(正規形による形態素の照合)、\verb+:semcode+(意味属性の照合)の3種類である。照合位置は、補完の対象となる用言の位置を基準として以下に示す5種類を設定した。\smallskip\begin{tabular}{ll}\verb+:before+&文頭から用言の直前までの間の形態素\\\verb+:latest+&用言の直前の形態素\\\verb+:here+&用言\\\verb+:next+&用言の直後の形態素\\\verb+:after+&用言の直後から文末までの間の形態素\\\end{tabular}\medskip\noindent例えば、照合位置として補完対象用言に関しては\verb+:here+、格助詞に対しては\verb+:before+、接頭辞に対しては\verb+:latest+を与える。話者の照合\verb+:speaker+の対象は常に省略された文であり、位置情報は一意に決まるため不要であるが、他の属性との整合性をとるため便宜上\verb+:here+を与える。照合対象が複数の形態素となる\verb+:before+と\verb+:after+に関しては、照合範囲にある形態素のいずれかが属性の条件を満たすかどうかによって照合を行なった。具体的な属性の例と、その意味を以下に示す。\smallskip\begin{enumerate}\item{\tt(:speaker:here情報提供者)}\\文の話者が情報提供者である。\item{\tt(:regexp:after("たい""助動詞"))}\\用言の後に助動詞「たい」を含む。\item{\tt(:semcode:here30)}\\用言の意味属性が30である。\item{\tt(:semcode:before81)}\\用言の前に意味属性81の内容語を含む。\item{\tt\begin{tabular}[t]{@{}ll}(or&(:regexp:latest("お""接頭辞"))\\&(:regexp:latest("ご""接頭辞"))\\&(:regexp:latest("御""接頭辞")))\\[2mm]\end{tabular}}用言の直前の語が接頭辞の「お/ご/御」である。\end{enumerate}\y{3}複文や重文などの、文が複数の単文からなる場合には、近似的に単文に分割した。分割手法は、接続助詞\footnote{「$\cdots$たら/ば」のように、複数の接続助詞が連続する場合は最後方の接続助詞。}を分割位置にしてその前後を分割した。 \section{実験} \label{節:実験}本節では、学習された決定木による省略補完の有効性を検証する。まず、ガ格(動)に対して検証を行ない、続いてガ格(形)、ヲ格、ニ格に対しての有効性を議論する。さらに、学習量、決定木学習の話題依存性、使用属性による相違の三点から検討を行なう。本論文では、性能評価尺度としてF値(F-measure)を用いる。F値は、再現率(recall)と適合率(precision)を一つの尺度として表現するために使用される尺度で、$R$を再現率、$P$を適合率としたとき、以下の式で定義する。\y{3}\begin{equation}F=\frac{(\beta^2+1)\timesP\timesR}{\beta^2\timesP+R}\end{equation}\y{3}ここで、パラメータ$\beta$は適合率の再現率に対する相対的な重要性である。本論文ではこのパラメータを$\beta=1$とした。\subsection{基本条件による実験}まず、以下の条件により実験を行なった。\begin{itemize}\item実験対象はガ格(動)の省略\item属性集合は表\ref{属性}に示した367属性\item学習文はコーパスから100対話を無作為に抽出した集合\itemテスト文は学習文と同一の話題の100対話\end{itemize}表\ref{標準}に、以上の条件による結果を示す。単位はF値である。表の「学習文」の欄は、学習文とテスト文を同一にして行なったテスト(closedtest)の結果である。3種類の話題$H_1$、$H$、$T$の中から各100対話を無作為に選択して実験を行なった。「未知文」の欄は、未学習文に対するテスト(opentest)を意味する。学習文テスト$T$で用意した100対話と同一の集合をテスト文にして、それに含まれない100対話をコーパスより無作為に抽出した集合で決定木学習を行なった。また同表には比較対象として、補完内容を無作為に選択した場合の精度を(比較A)に、補完内容をすべて最多事例の人称(<1sg>)に一意に決定した場合の精度を(比較B)に示した。また表の最下段に、未知文テストにおける学習文およびテスト文の人称別省略事例数を示した。また、未知文テストを行なうためにコーパス100対話から作成した決定木の一部を付録の\ref{節:決定木}に示す。\begin{table}\begin{center}\caption{基本条件による補完精度}\label{標準}\x{-10}\begin{tabular}{cc|*{6}{r}|r}\hline\hline&&<1sg>&<1pl>&<2sg>&<2pl>&<g>&<a>&全体\\\hline学習文&$H_1$&99.7\%&99.2\%&100.0\%&100.0\%&100.0\%&100.0\%&99.8\%\\&$H$&99.9\%&99.8\%&100.0\%&100.0\%&100.0\%&99.6\%&99.8\%\\&$T$&100.0\%&100.0\%&100.0\%&100.0\%&99.4\%&99.4\%&99.8\%\\\hline未知文&$T$&82.1\%&59.5\%&76.4\%&15.8\%&27.8\%&77.0\%&73.2\%\\\hline(比較A)&&44.2\%&10.0\%&21.1\%&3.7\%&5.3\%&15.7\%&27.9\%\\(比較B)&&61.3\%&---&---&---&---&---&44.2\%\\\hline\hline(未知文)&学習&733&197&380&53&57&290&1710\\(未知文)&テスト&745&168&356&62&89&265&1685\\\hline\end{tabular}\end{center}\end{table}決定木の再現性、弁別性を確認することを目的に行なった学習文テストでは、決定木の枝刈りを行なっていないため、話題の広さに関係なくほぼ100\%の再現性を示した。未知文に対するテストでは、(比較A)、(比較B)のいずれよりも高い値を示し、本手法の有効性が確認された。なお、表はF値のみであるが、再現率と適合率は共にF値とほぼ同一の値となっている。人称別では、ほぼ学習事例の多い順に精度が良くなっていることがわかる。<1sg>、<2sg>、<a>に関しては比較的良好な性能を得ることができたが、<1pl>、<2pl>、<g>については低い精度しか得ることができなかった。これは学習事例数の不足が一つの原因と考えられる。誤りの主な傾向を以下に分類する。\begin{enumerate}\item複文の単文分割に関係する誤り\item照合範囲の誤り\item単複の弁別性に関係する誤り\item文脈省略に関係する誤り\itemタグ付与のゆれ\end{enumerate}これらのうち、単文分割に関係する誤りと照合範囲の誤りが最も多かった。前述したように、本研究では接続助詞によって擬似的に単文分割しているが、例えば以下の例文のような場合には、「行けば」だけに対して補完処理を行なってしまい、提案手法が有効に機能しない(例文の下線は補完対象用言、`/'は形態素区切り、`//'は設定した文区切りを示す)。\begin{example}\itemどう/やっ/て//\underline{行け}/ば//いい/か/分から/ない/ん/です。\end{example}また単文であっても、以下の文で「予約」の補完を行なう場合のように、補完対象の用言(「予約」)の補完に、これとは関係のない付属語(「いたす」「ます」)によって判断してしまい、その結果失敗する。\begin{example}\item現在/ご/\underline{予約}/の/フライト日/と/便名/を/お/願い/いたし/ます。\end{example}以上は本手法の問題点であるが、文分割と属性照合を共に厳密にすればよいので、今後十分に対処可能な課題である。一方、単複の誤りと文脈省略に関係する誤りは本質的に難しい問題であり、現在用意した属性のみによるこれ以上の精度向上は難しいと考えられる。より一層の精度向上には別の情報が必要である。\subsection{他手法との比較}\label{節:比較}日本語格要素の省略補完を行なう手法はこれまでにもいくつか提案されている。ここでは、このうちのいくつかの手法と定性的な比較を行なう。補完の手がかりとなる現象を人手で得点化した{}\cite{村田}では対話文章中の省略のための規則も作成し、物語文を対象にした実験の結果、学習文(204文)で86\%、未知文(184文)で76\%の省略が補完できたと報告している。同論文と本論文との差異を以下に示す。\begin{description}\item[対象テキスト]同論文では物語文中の対話文章のみを対象にしている。本論文では、これらを含む対話テキストを対象としている。\item[使用属性]同論文では一人称と二人称に入りやすい用言として各3語を列挙している。また命令表現と疑問表現は二人称に、ガ格の省略は一人称になりやすいと指摘している。本論文では、命令や疑問以外の付属語や言語外情報も考慮にいれた補完手法を提案している。\item[パラメータ調整]同論文ではパラメータ(各規則に付与する得点)を人手で付与している。本論文ではパラメータ(どの属性がどの順で使用されるか)を統計情報により自動的に決定している。\end{description}AoneandBennettは文献\cite{Aone}において、本論文と同様に機械学習による省略補完処理を行なっている。ここでは、照応の先行詞補完の一部として省略補完処理を行ない、合弁事業に関するテキストにおいて先行詞が組織名である省略の補完実験を行なった結果、最高で再現率が40.8\%、適合率が73.0\%の補完精度が得られたと報告している。同論文では先行詞の種類が所与(組織)で組織名を推定することが目的であり、先行詞の種類(人称)補完を目的とする本論文とは問題の性質が異なる。また対話文を対象にした補完処理ではないために文脈省略の補完のみを考慮していることから、本論文と直接比較することはできない。日本語対話文を対象に省略補完を行なっている研究として、文献\cite{工藤}がある。工藤らの実験は本論文と同一のコーパスに対しても行なっており、補完規則作成に使用した文に対する省略補完精度として93.2\%\footnote{複数の対話コーパスに対する合計の精度。ATR旅行会話コーパスに対しては92.9\%と報告している。}の補完精度が得られたと述べている。また文献{}\cite{Nakaiwa}は日英機械翻訳システム評価用例文の175事例に対して実験を行ない、情報抽出に使用した文に対してテストを行ない、100\%の精度を得たと報告している。これら両論文はどちらも未知文に対しての報告がない。これらを比べた時、本論文には以下の優位性があると考える。\begin{description}\item[規則作成の困難性]例えば工藤らは14種類の動詞に対して人手で補完すべき値を分類しているが、これを多くの動詞\footnote{例えば本実験で使用したコーパスには262種類の動詞が出現した。}に対して作成するのは容易ではない。\item[情報利用の局所性]両論文では、ある文末表現の出現のみで、もしくは用言と文末表現の組み合わせのみで省略の多くを補完している。しかしながら、このような少数の要素のみで正確に補完できるものばかりではないことが予想される。本提案手法では、多数の属性の組み合わせを考慮できる枠組みとなっており、複雑な組み合わせによる省略にも対応できる。\end{description}\subsection{表層格との関係}\label{節:格}ここでは、日本語の主たる表層格であるガ格、ヲ格、ニ格に対する補完精度の比較を行なうことによって、格との関係を考察する。本来ならば、補完に必要な属性は格によって異なると考えるのが自然である。しかし本論文では、手法の有効性を議論し、格による差異を明確化することを目的とするため、網羅的に属性を用意し、すべての格で学習時に同一の属性集合を用意した。学習時に用意した属性集合は、これまでと同様、表\ref{属性}の367属性である。実験は、それぞれの格について300対話を学習対話とし、それらに含まれない100対話をテスト対話として未知文テストを行なった。その結果を表\ref{格}に示す。なお、表でガ格(動)として示した値は、表\ref{学習量}の`400(対話)'の項と同一の実験である。\begin{table}\begin{center}\caption{格による補完精度の比較}\label{格}\begin{tabular}{c|*{4}{c}}\hline\hline格&<1sg>&<2sg>&<a>\hfill&全体\\\hlineガ格(形)&58.3\%&68.1\%&85.9\%&79.7\%\\ヲ格&66.7\%&---&97.7\%&95.6\%\\ニ格&95.2\%&95.7\%&81.9\%&91.7\%\\\hlineガ格(動)&84.7\%&81.1\%&82.0\%&78.7\%\\\hline\end{tabular}\end{center}\end{table}表からわかるように、ガ格(動)とガ格(形)との比較では全体としての補完精度に大きな差異はないが、個別の人称に対する精度では両者に明確な差異が現れている。表には現れていないが、ガ格(形)の補完人称に比較的多くの<a>が含まれているため、<1sg>あるいは<2sg>に対する学習が十分に行なわれず、比較的低い精度になったと推察される。一方ヲ格については、90\%以上の省略が照応的(<a>)であり、外界省略がほとんどないことから非常に高い数字となった。本手法によってヲ格の文脈省略の認知は高精度で可能であるので、認知された文脈省略に対し従来から知られている照応解決の諸手法を導入することによって解決できるものと考えられる。ニ格に関しては十分な性能が得られた。このように高い性能が得られた背景には、二者対話を対象にしたテキストであること、話題が旅行対話に限定されているために使用される述語がある程度限定されることなどが考えられる。ニ格の多くは間接目的語で外界省略が多かった\footnote{表\ref{調査}に示すように、実験で使用したコーパスではニ格の省略の約9割が外界省略で、文脈省略<a>は1割前後であった。}ため、少数候補からの択一問題に有効な本手法が有利に機能したものと考えられる。\subsection{学習量との関係}\label{節:学習量}学習量との関係を見るために以下の実験を行なった。学習量として、25、50、100、200、400対話の5種類の集合を作成した。ここで、これらの集合は包含関係となるように作成した。テスト集合はこれらのいずれにも含まれない100対話(ガ格(動)の省略数:1685)を用意した。また、学習属性は表\ref{属性}のものを使用した。主な人称に対する実験の結果をF値で表\ref{学習量}に示す。なお、表の「100(対話)」の欄は表\ref{標準}の「未知文」の欄と同一である。\begin{table}\caption{学習量と補完精度}\label{学習量}\begin{center}\begin{tabular}{rr|*{4}{r}}\hline\hline対話&事例&<1sg>&<2sg>&<a>&全省略\\\hline25&463&71.0\%&55.6\%&66.2\%&59.0\%\\50&863&76.4\%&69.7\%&71.5\%&67.2\%\\100&1710&82.1\%&76.4\%&77.0\%&73.2\%\\200&3448&85.1\%&79.8\%&79.7\%&76.7\%\\400&6906&84.7\%&81.1\%&82.0\%&78.7\%\\\hline\end{tabular}\end{center}\end{table}表\ref{学習量}によれば、ほぼすべての人称に関して学習量の増加と共に性能が単調に向上している。また、表には示されていないが、再現率、適合率共に単調増加の傾向を示している。ただし、その増加の割合は徐々に鈍化し、<1sg>に関しては400対話で精度がわずかに減少していることがわかる。補完内容と学習量の差をグラフにしたものを片対数グラフで図\ref{図:学習量}に示す。グラフが示すように、比較的学習事例数の少なかった<2pl>や<g>が、学習量増加に伴い大きく精度が向上していることがわかる。その様子から、<1pl>を含めたこれらの人称に関しては学習量の増加によって一層の精度向上が予想される。一方、その他の人称並びに全体的な精度に関しては、全体として400対話(6806事例)でほぼ横ばいになっていることから、$10^4\sim10^5$事例の学習量で十分であると言える。またグラフより、人称に関わらずほぼ一定の精度を示していることから、この時の補完精度(本手法による補完精度の上限)は$80\%\sim85\%$となると予想する。\begin{figure}\vspace{-6mm}\begin{center}\epsfile{file=19.eps,height=88mm}\caption{学習量と補完性能}\label{図:学習量}\end{center}\end{figure}\subsection{話題依存性}\label{節:話題依存性}ここでは、実験の結果と共に、決定木学習の話題依存性を議論する。学習用のテキストとして、四つの話題$H_1$、$H_2$、$R$、$T$に属する対話を50対話無作為に抽出し、これによって決定木学習を行なった。テスト用の対話は前節と同一の未学習100対話を使用し、未知文テストを行なった。このとき、属性は表\ref{属性}の367属性を使用した。表\ref{話題依存性}に、テスト対話(=コーパス全体)の話題別構成比、並びに話題依存性を示す。表の縦は学習対話の話題、横はテスト対話の話題を示し、値はF値で表現した。\begin{table}\begin{center}\caption{決定木の話題依存性}\label{話題依存性}\begin{tabular}{c|*{4}{r}|r}\hline\hline学習/テスト&/$H_1$\hfil&/$H_2$\hfil&/$H_R$\hfil&/$R$\hfil&合計\\構成比&20.1\%&27.7\%&11.2\%&40.9\%&100.0\%\\\hline$H_1$/&78.1\%&55.9\%&65.3\%&61.6\%&63.7\%\\$H_2$/&71.3\%&67.0\%&62.6\%&62.6\%&65.6\%\\$R$/&75.1\%&61.7\%&61.1\%&75.4\%&69.9\%\\$T$/&73.4\%&62.5\%&62.6\%&66.2\%&66.2\%\\\hline$T-H_R$/&73.7\%&61.9\%&59.5\%&63.9\%&64.8\%\\\hline\end{tabular}\end{center}\end{table}表に示すように、学習対話とテスト対話が一致している時に、$H_2$を除いて最も良好な性能となった。また$H_2$においてもかなり高い性能を示した。この傾向は話題に関係なく言えることから、あらかじめテスト対話の話題がある程度限定される、もしくは予測できる問題に対しては、できるだけ同一の話題のみによって学習することが望ましく、その際にテスト対話以外の話題を含めて学習しないことが重要であると考えられる。学習文の話題別性能では、話題$R$が最も高い性能を示した。この理由は、話題$R$が何か特殊な情報を持っているためではなく、話題$R$の構成比が最も高かったためである。また表によると、広範な話題で学習を行なった場合($T/$)に、全体としても平均以上の補完精度を示した。学習文とテスト文の話題が同一の場合を除くと、$T/$はすべての話題に対して良好な性能を示していることが観察される。このことから、テスト文の話題が未知の場合は、広範な話題に対して学習を行なうことが最も有効であることが示唆される。ただし表\ref{話題依存性}の最下段に示すように、全く未知の話題($H_R$)に対しては若干精度が低下する。たとえ少量の学習であっても、未学習よりはかなり優位であることがわかる。\subsection{属性との関係}本節では、格要素の省略補完の問題解決にどの程度使用属性が関係するかを議論する。これまでに述べてきた諸実験は、比較のため、すべて同一の属性集合を使用して行なってきた。ここではこの使用属性を変化させることによって補完精度がどうなるかを観察する。ここでは、以下に示す4種類の属性集合を用意した。これらはいずれも表\ref{属性}に示した属性の部分集合である。\begin{enumerate}\item言語情報のみ(366属性)\item機能語のみ(166属性)\item内容語のみ(200属性)\item用言情報のみ(100属性)\end{enumerate}実験は100対話の学習、未学習100対話のテストにより行なった。この対話集合はどちらも、表\ref{標準}の未知文テスト、あるいは表\ref{学習量}の`100'の実験と同一である。実験結果を表\ref{結果:属性}に示す。比較対象として、全属性に実験の結果を表の「全属性」欄に示す。\begin{table}\begin{center}\caption{属性と補完率との関係}\label{結果:属性}\begin{tabular}{c|*{4}{c}}\hline\hline&<1sg>&<2sg>&<a>\hfill&全省略\\\hline全属性&82.1\%&76.4\%&77.0\%&73.2\%\\\hline言語情報のみ&81.9\%&76.9\%&77.4\%&73.2\%\\機能語のみ&75.4\%&68.0\%&67.2\%&65.3\%\\内容語のみ&75.1\%&58.1\%&74.5\%&65.0\%\\用言情報のみ&72.3\%&55.6\%&71.1\%&61.9\%\\\hline\end{tabular}\end{center}\end{table}表より、言語情報のみを使用した学習では、言語外情報を加えた場合とほとんど同程度の精度が得られた。これは、言語外情報(特に実験で用意した話者情報)がそれほど省略補完に重要でないことを示す。この結果は我々の予想に反するが、おそらく旅行対話という限られた分野での実験であったため、用言の情報が話者情報を包含するような関係になったことが理由として考えられる。つまり用言によって話者が推測できたため、話者情報の必要性が低下した可能性がある。これらを確認するには、両者が対等な関係にある状況での対話、例えば自由対話に対して省略補完実験を行なうことが必要であろう。機能語のみで決定木学習を行なった場合、全体で8\%程度の精度低下が観察された。この結果は、話題に依存しない機能語のみで決定木学習した場合に、その精度に限界があることを示している。また、機能語のみの結果は文脈省略(<a>)認知に対して大きな精度低下が見られることから、内容語は比較的照応関係の維持に寄与していることが予想される。内容語のみの場合はさらに低い精度となった。日本語対話文においては、内容語よりも一部の機能語の存在によって省略が可能となる場合が多いということをこの結果は示している。さらに用言情報のみを使用した場合は最も悪い精度を示したが、これは対話文の省略補完が書き言葉のそれと異なる大きな特徴の一つと考えられる。すなわち、用言情報などの内容語は対話文での省略補完においては相対的に重要性は低いが、文脈省略の先行詞補完など、照応処理に関しては逆に重要性が増すと予想する。 \section{議論} \label{節:議論}決定木はある問題に対しては非常に便利な知識表現手段であるが、可読性もその特徴の一つである\cite{田中}。本節では、これまでに述べた諸実験において作成された決定木を観察することによって、属性の充足性、個々の属性の重要性などを議論する。\subsection{決定木の形状}学習数と決定木の節数との関係を両対数グラフにしたものを図\ref{節数}に示す。また各決定木の最深節と最大幅を表\ref{深さ}に示す。この図より、学習量を変化させて作成したガ格(動)の決定木において、学習量と節数はほぼ対数的に線形であることがわかる。本研究では決定木学習に際し枝刈りを行なっていないため、このような関係になったものと推察される。ガ格(形)に関してはほぼガ格(動)と同様の節数となった。ニ格に関しては、ガ格(動)よりはいくぶん小さな木となっていることがグラフよりわかる。またヲ格はほとんどが<a>であるため、ほとんど事例分割の必要性がなく、最も小さな木となった。\begin{figure}\begin{center}\epsfile{file=22.eps,height=71mm}\caption{節数と学習数との関係}\label{節数}\end{center}\end{figure}\begin{table}\begin{center}\caption{各決定木の最深節と最大幅}\label{深さ}\begin{tabular}{l|*{6}{c}}\hline\hline&ガ/25&ガ/100&ガ/400&ガ(形)&ヲ&ニ\\\hline最深節までの節数&27&34&49&28&10&18\\同一深さでの最大幅&26&58&146&52&10&28\\\hline\end{tabular}\end{center}\end{table}\subsection{事例被覆率}補完内容の決定に対する各属性の重要性を見る一つの尺度として、「事例被覆率」を定義する。ある属性の事例被覆率は、その属性が決定木の意志決定に使用されている事例数の、全事例数に対する割合である。例えば決定木の根で使用されている属性の事例被覆率は、すべての事例がこの属性を(最初に)検査することから、100\%となる。この尺度から、各属性の意志決定に対する寄与度が数値化できる。まず、学習量との関係を議論した{}\ref{節:学習量}節での実験における主な属性の事例被覆率を表{}\ref{事例被覆率/が}に示す\footnote{以後の表及び説明では、煩雑のため\verb+:semcode+及び\verb+:regexp+の表記は省略する。}。表の上部に示した通り、事例被覆率が100\%である属性(=最上部で検査される属性)は「\verb+:here43+」つまり対象となる用言の意味コードが43(意向)であるかどうか、であった。この属性や「\verb+:here41+」(思考)には共に「思う/考える/願う」などの語が含まれており、話者の意図や希望を表現している。これらの動詞は旅行対話に限らず広く使用されるため、この両属性はその他の内容語とは異なる一種の機能語のような役割を果たしていると考えられる。ただ、この両属性のように学習量に関係なく事例被覆率の高い属性はむしろ少数で、同一の格、同一の話題であっても学習量の増加と共に多くの属性の事例被覆率が変化していることが観察できる。表によると、学習量が少ない時は{}\verb+:before+、つまり対象となる用言以前にどのような内容語が存在したかに関して多くの注意が注がれ、学習量の増加に伴って機能語、特に尊敬を示す「$\cdots$てくださる」「召し上がる」などの語の存在によって人称を判断するようになることがわかる。\begin{table}\begin{center}\caption{学習量による事例被覆率の変化}\label{事例被覆率/が}\begin{tabular}{c|*{3}{r}}\hline\hline&ガ/25&ガ/100&ガ/400\\\hline\verb+:here43+(意向)&100.0\%&100.0\%&100.0\%\\\verb+:here41+(思考)&72.8\%&84.8\%&86.5\%\\\verb+:after+か(終助詞)&53.1\%&83.2\%&66.3\%\\\hline\verb+:after+てくださる&9.1\%&49.1\%&49.8\%\\(尊敬語)&---&39.9\%&36.8\%\\\verb+:after+ていただく&---&33.2\%&33.9\%\\\verb+:after+する&4.1\%&22.0\%&26.1\%\\\hline\verb+:before72+(施設)&55.1\%&0.5\%&3.8\%\\\verb+:before94+(建物)&28.5\%&9.8\%&7.7\%\\\verb+:before83+(言語)&25.1\%&1.1\%&1.3\%\\\hline\verb+:speaker+&11.7\%&9.1\%&20.5\%\\\hline\end{tabular}\end{center}\end{table}次に、格要素別の事例被覆率を表\ref{事例被覆率/格}に示す。ここでも、ガ格(動)とガ格(形)の明確な差異が見受けられる。ガ格(形)の決定木は他の各要素の内容、例えば「で」などの格の存在とその格要素に関する属性が多いのに対して、一方ガ格(動)は述語と一部の重要な機能語に関する属性が多い。またニ格補完に作成した決定木は、一部の相違はあるもののガ格(動)と類似の傾向を示した。なお事例被覆率による結果では、話者の役割は我々が事前に予想したほどの重要性を持っていないとの結果となった。これは、用言と話者役割の情報を共に使用することによって補完内容が特定される場合を想定していたが、このような例があまり多数存在しなかったため、もしくは旅行対話における二者対話という制約が強く働き、話者を知る必要がないため、などの理由が考えられる。\begin{table}\begin{center}\caption{格による事例被覆率の変化}\label{事例被覆率/格}\begin{tabular}{c|*{3}{r}}\hline\hline&ガ/400&ガ(形)&ニ\hfill\\\hline\verb+:after+ございます&---&100.0\%&---\\\verb+:before16+(状態)&5.1\%&68.5\%&0.5\%\\\verb+:before34+(陳述)&5.3\%&59.0\%&11.2\%\\\verb+:before+で(格助詞)&5.2\%&23.9\%&1.9\%\\\hline\verb+:latest+お/ご&46.4\%&7.0\%&100.0\%\\\verb+:here43+(意向)&100.0\%&---&49.8\%\\\verb+:here41+(思考)&86.5\%&---&43.5\%\\\hline\verb+:speaker+&20.5\%&33.1\%&28.0\%\\\hline\end{tabular}\end{center}\end{table} \section{結論} \label{節:結論}日本語対話文の格要素省略に対して、決定木による補完処理の表現および機械学習によって補完知識を獲得する手法を提案した。補完に必要な知識として、内容語の意味属性、機能語の存在、話者知識の三種類を使用した。本論文で提案した手法は入力として品詞付き形態素列のみを使用しており、構文解析を必要としない。本手法により獲得した決定木で未学習文に対してテストを行なった結果、ガ格とニ格に対しては十分な精度で省略された人称を補完することを確認した。ヲ格に関しては、その補完内容が照応的であるという認知を行なうのに有効であることを確認し、本手法の有効性を確認することができた。また提案手法に関して、処理の有効性を学習量、話題依存性、使用属性との関係の3点から議論した。本研究で得られた主な知見を以下にまとめる。\begin{itemize}\itemガ格(動)やニ格は、尊敬を示す機能語などを重要視する。ガ格(形)は他の格要素の情報によって補完を試みる傾向がある。\item当該問題に対する学習量は全体として$10^4\sim10^5$事例で十分である。この時の補完精度の上限は$80\%\sim85\%$と予想される。\item対話の話題が既知もしくは予測可能な時は、その話題のみによる学習が最高の性能を示す。話題が未知の場合は、可能な限り広範な話題に対して学習するのが最も効果的である。\item学習量増加に伴い、決定木は話題に依存しない機能語などの属性を採用する。\end{itemize}本論文では日本語対話文における格要素の補完処理に限定して述べてきたが、提案手法の有効性はこれだけにとどまらない。例えば韓国語は日本語などと同様に格要素の省略が観察される。韓国語などにおける省略補完処理も本手法の応用によって可能になると考えられる。本論文で述べた手法を今後、多言語話し言葉翻訳システムTDMT{}\cite{TDMTmulti}の日英翻訳/日独翻訳部に組み込み、本処理が翻訳結果に与える有効性について検討を行なう。\vspace*{-10mm}\y{10}\subsection*{謝辞}本研究を進めるにあたって、省略に関する正解データを提供していただいたATR音声翻訳通信研究所の荒川直哉氏、及びプログラミング、実験を担当していただいた同研究所の西村仁志氏に感謝する。\begin{thebibliography}{}\bibitem[\protect\BCAY{Aone\BBA\Bennett}{Aone\BBA\Bennett}{1995}]{Aone}Aone,C.\BBACOMMA\\BBA\Bennett,S.~W.\BBOP1995\BBCP.\newblock\BBOQEvaluatingAutomatedandManualAcquisitionofAnaphoraResolutionStrategies\BBCQ\\newblockIn{\BemProc.of33rdAnnualMeetingoftheACL},\BPGS\122--129.\bibitem[\protect\BCAY{Byron\BBA\Stent}{Byron\BBA\Stent}{1998}]{Byron}Byron,D.\BBACOMMA\\BBA\Stent,A.\BBOP1998\BBCP.\newblock\BBOQAPreliminaryModelofCenteringinDialog\BBCQ\\newblockIn{\BemProc.ofCOLING-ACL'98},\BPGS\1475--1477.\bibitem[\protect\BCAY{Dohsaka}{Dohsaka}{1990}]{Dohsaka}Dohsaka,K.\BBOP1990\BBCP.\newblock\BBOQIdentifyingtheReferentsofZero-PronounsinJapanesebasedonPragmaticConstraintInterpretation\BBCQ\\newblockIn{\BemProc.ofEuropeanConferenceonArtificialIntelligence(ECAI)}.\bibitem[\protect\BCAY{江原,金}{江原,金}{1996}]{江原}江原暉将,金淵培\BBOP1996\BBCP.\newblock\JBOQ確率モデルによるゼロ主語の補完\JBCQ\\newblock\Jem{自然言語処理},{\Bbf3}(4),67--86.\bibitem[\protect\BCAY{Furuse,Kawai,Iida,Akamine,\BBA\Kim}{Furuseet~al.}{1995}]{TDMTmulti}Furuse,O.,Kawai,J.,Iida,H.,Akamine,S.,\BBA\Kim,D.-B.\BBOP1995\BBCP.\newblock\BBOQMulti-lingualSpoken-LanguageTranslationUtilizingTranslationExamples\BBCQ\\newblockIn{\BemProc.ofNaturalLanguageProcessingPacific-RimSymposium(NLPRS'95)},\BPGS\544--549.\bibitem[\protect\BCAY{Furuse,Sobashima,Takezawa,\BBA\Uratani}{Furuseet~al.}{1994}]{ATRCorpus}Furuse,O.,Sobashima,Y.,Takezawa,T.,\BBA\Uratani,N.\BBOP1994\BBCP.\newblock\BBOQBilingualCorpusforSpeechTranslation\BBCQ\\newblockIn{\BemProc.ofAAAI'94WorkshopontheIntegrationofNaturalLanguageandSpeechProcessing},\BPGS\84--91.\bibitem[\protect\BCAY{工藤,友清}{工藤,友清}{1993}]{工藤}工藤育男,友清睦子\BBOP1993\BBCP.\newblock\JBOQ日本語の述部の特性を用いた省略の補完機構について\JBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ76-D-II}(3),624--635.\bibitem[\protect\BCAY{村田,長尾}{村田,長尾}{1997}]{村田}村田真樹,長尾眞\BBOP1997\BBCP.\newblock\JBOQ用例や表層表現を用いた日本語文章中の指示詞・代名詞・ゼロ代名詞の指示対象の推定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf4}(1),87--109.\bibitem[\protect\BCAY{Nakaiwa\BBA\Shirai}{Nakaiwa\BBA\Shirai}{1996}]{Nakaiwa}Nakaiwa,H.\BBACOMMA\\BBA\Shirai,S.\BBOP1996\BBCP.\newblock\BBOQAnaphoraResolutionofJapaneseZeroPronounswithDeicticReference\BBCQ\\newblockIn{\BemProc.ofCOLING-96},\BPGS\812--817.\bibitem[\protect\BCAY{大野,浜西}{大野,浜西}{1981}]{角川類語}大野晋,浜西正人\BBOP1981\BBCP.\newblock\Jem{角川類語新辞典}.\newblock角川書店.\bibitem[\protect\BCAY{Quinlan}{Quinlan}{1993}]{Quinlan}Quinlan,J.~R.\BBOP1993\BBCP.\newblock{\BemC4.5:ProgramsforMachineLearning}.\newblockMorganKaufmann.\bibitem[\protect\BCAY{Strube}{Strube}{1998}]{Strube}Strube,M.\BBOP1998\BBCP.\newblock\BBOQNeverLookBack:AnAlternativetoCentering\BBCQ\\newblockIn{\BemProc.ofCOLING-ACL'98},\BPGS\1251--1257.\bibitem[\protect\BCAY{田中}{田中}{1995}]{田中}田中英輝\BBOP1995\BBCP.\newblock\JBOQ動詞訳語選択のための「格フレーム木」の統計的な学習\JBCQ\\newblock\Jem{自然言語処理},{\Bbf2}(3),49--72.\bibitem[\protect\BCAY{Walker\BBA\Moore}{Walker\BBA\Moore}{1997}]{Summary}Walker,M.\BBACOMMA\\BBA\Moore,J.~D.\BBOP1997\BBCP.\newblock\BBOQEmpiricalStudiesinDiscourse\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf23}(1),1--12.\bibitem[\protect\BCAY{Walker,Iida,\BBA\Cote}{Walkeret~al.}{1994}]{Walker}Walker,M.~A.,Iida,M.,\BBA\Cote,S.\BBOP1994\BBCP.\newblock\BBOQJapaneseDiscourseandtheProcessofCentering\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf20}(2),193--232.\bibitem[\protect\BCAY{Yamamoto,Sumita,Furuse,\BBA\Iida}{Yamamotoet~al.}{1997}]{NLPRS97}Yamamoto,K.,Sumita,E.,Furuse,O.,\BBA\Iida,H.\BBOP1997\BBCP.\newblock\BBOQEllipsisResolutioninDialoguesviaDecision-TreeLearning\BBCQ\\newblockIn{\BemProc.ofNaturalLanguageProcessingPacific-RimSymposium(NLPRS'97)},\BPGS\423--428.\bibitem[\protect\BCAY{Yamamoto\BBA\Sumita}{Yamamoto\BBA\Sumita}{1998}]{Coling-ACL98}Yamamoto,K.\BBACOMMA\\BBA\Sumita,E.\BBOP1998\BBCP.\newblock\BBOQFeasibilityStudyforEllipsisResolutioninDialoguesbyMachine-LearningTechnique\BBCQ\\newblockIn{\BemProc.ofCOLING-ACL'98},\BPGS\1428--1435.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{山本和英}{1996年豊橋技術科学大学大学院博士後期課程システム情報工学専攻修了。博士(工学)。同年よりATR音声翻訳通信研究所客員研究員、現在に至る。1998年中国科学院自動化研究所国外訪問学者。要約処理、機械翻訳、韓国語及び中国語処理の研究に従事。1995年NLPRS'95BestPaperAwards。情報処理学会、ACL各会員。}\bioauthor{隅田英一郎}{1982年電気通信大学大学院計算機科学専攻修士課程修了。ATR音声翻訳通信研究所主任研究員。自然言語処理、並列処理、機械翻訳、情報検索の研究に従事。情報処理学会、電子情報通信学会各会員。}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\appendix \section{決定木の例} \label{節:決定木}本提案手法で作成される決定木の例を図\ref{決定木の例}に示す。この決定木は、\ref{節:実験}節の表\ref{標準}における「未知文」の欄の実験(補完対象:ガ格(動)、使用属性数:367、話題:$T$、学習対話数:100、省略数:1710)により実際に作成されたものの一部である。例えば(1)に示す葉には128事例が学習で集まり、最多要素(=補完人称)が<1sg>であったことを示す。また、この意志決定が行なわれるまでに、\begin{enumerate}\item\verb+:here43+(意向)-->[Y]\item\verb+:here78+(社交)-->[N]\item\verb+:after+か(終助詞)-->[N]\item\verb+:after+できる-->[N]\item\verb+:here40+(感覚)-->[Y]\end{enumerate}\noindentという五つの属性に対して検査されてきていることを示す。ここで、属性の条件を満たすときは[Y]、満たさない時は[N]と表記している。形態素に関する属性にはすべて品詞情報も付与してあるが、以下に示す例では省略した。ただし、多品詞語に対しては品詞名も表記した。また便宜のため、内容語の意味属性に対してはそのラベル名も記した。\begin{figure}[p]\renewcommand{\baselinestretch}{}\large\normalsize\centerline{\rule{140mm}{.3mm}}\begin{verbatim}:here43(意向)|[Y]:here78(社交)||[Y]:afterておる|||[Y]:afterので||||[N]:after申し上げる||||[Y]:speaker情報提供者|||||[Y]---<1pl>(4)||||[N]---<1pl>(19)|||[N]:before75(報道)|||[Y]:before16(状態)||||[N]---<1sg>(3)|||[N]:afterている|||[N]:beforeを|||[N]---<2sg>(58)----------------(3)||[N]:afterか(終助詞)||[Y]:here44(要求)|||[Y]:latestお/ご/御||||[Y]---<1sg>(9)|||[N]:before(疑問詞)|||[Y]---<2sg>(9)|||[N]:afterでしょう|||[N]---<1pl>(5)||[N]:afterできる||[Y]:before15(時間)|||[N]---<1pl>(9)||[N]:here40(感覚)||[Y]---<1sg>(128)----------------(1)|[N]:here41(思考)|[Y]:afterた||[Y]:here37(授受)|||[N]:beforeが(格助詞)|||[N]:afterできる|||[Y]---<a>(120)----------------(2)||[N]:afterます||[N]:latestお/ご/御||[Y]:afterたら||[N]---<2sg>(7)|[N]:afterか(終助詞)|[Y]:here37(授受)||[Y]:afterできる||[Y]---<1sg>(5)|[N]:afterてくださる|[N]:latestお/ご/御|[N]:here(尊敬語)|[Y]---<2sg>(15)\end{verbatim}\centerline{\rule{140mm}{.3mm}}\caption{決定木の例}\label{決定木の例}\end{figure} \section{決定木学習に使用した発話の例} \label{節:例文}{}\ref{節:決定木}節の例において、主な終端節点での発話の例を示す。以下では、`/'は形態素区切りを、下線は補完対象となる用言を示す。また、すべての形態素は正規形で表記する。\subsection{節点(1):一人称単数128事例}\begin{itemize}\itemケーブルカー/が/おもしろい/と/\underline{思う}/ます/ね/。\item予約/の/必要/は/ない/か/と/\underline{思う}/ます/。\itemバス/の/中/で/ご/ゆっくり/お/休む/いただける/と/\underline{思う}/ます/が/。\item一/泊/する/たい/と/\underline{思う}/ている/ます/。\itemその際/に/はっきり/する/た/お/答え/が/できる/か/と/\underline{思う}/ます/が/。\itemええ/そう/だ/と/\underline{思う}/ます/。\item二/時間/で/終わる/と/\underline{思う}/ます/。\itemそれでしたら/当ホテル/の/桔梗の間/が/ちょうど/大きい/さ/よろしい/か/と/\underline{思う}/ます/。\itemわたくし/ども/の/要望/する/会場/使用料/の/限度/を/分かる/ていただける/た/と/\underline{思う}/ます/。\item使いで/は/より/よい/なる/と/\underline{思う}/ます/けれども/。\end{itemize}\subsection{節点(2):文脈省略120事例}\begin{itemize}\itemはい/\underline{分かる}/ます/た/。\item\underline{分かる}/ます/た/。\itemはい/\underline{分かる}/ます/た/鈴木/様/。\item\underline{わかる}/ます/た/。\item\underline{分かる}/ます/た/どうも/ありがとう/。\itemなるほど/\underline{分かる}/ます/た/。\itemそう/です/か/\underline{分かる}/ます/た/。\item\underline{分かる}/ます/た/では/お/願う/いたす/ます/。\item\underline{わかる}/ます/た/お/調べる/いたす/ます/。\itemだいたい/\underline{分かる}/ます/た/。\end{itemize}\subsection{節点(3):二人称単数58事例}\begin{itemize}\item少々/そのまま/で/お/\underline{待つ}/くださる/ます/。\item少々/お/\underline{待つ}/くださる/。\item少々/お/\underline{待つ}/くださる/ます/。\itemはい/少々/お/\underline{待つ}/くださる/ます/。\itemしばらく/お/\underline{待つ}/くださる/ます/。\itemそれで/こちら/の/番号/が/ちょっと/\underline{待つ}/て\itemどうも/ありがとう/ちょっと/\underline{待つ}/てくださる/。\itemもう/少々/そのまま/で/お/\underline{待つ}/いただける/ます/か/。\itemお/部屋/の/ほう/で/少々/お/\underline{待つ}/くださる/ます/。\itemもう/少々/お/\underline{待つ}/いただける/ます/でしょう/か/。\end{itemize}\end{document}
V06N02-02
\section{はじめに} 音声認識・文字認識の精度向上のため,より高い性能を持つ言語モデルを求めることは重要である.近年は,モデル構築やメンテナンスの容易さの点から,コーパスに基づく統計的言語モデルの研究が盛んである.大語彙ないしタスク非依存のシステムのための統計的言語モデルとして今日もっとも有望視されているものに,$n$-gramが挙げられる.$n$-gramは大量のテキストコーパスからの単純な数え上げによって得られる統計量であり,強力かつ頑健性に優れている.英語などのヨーロッパ系言語においては,$n$-gramの単位として単語を用いることが多い.大語彙のシステムでは単語はカテゴリ数が非常に大きくなるため,単語の代わりに品詞を用いる\cite{nagata94},または単語クラスタリングによって得られる単語クラスを用いることが多い.これらの言語においては単語は分かち書きされるため機械的に取り出すことができ,数え上げも容易に行える.これに対し,日本語や中国語には分かち書きの習慣がない.朝鮮語は文節ごとに分かち書きをするが,その分かち方は一定しないうえ,$n$-gramの単位としては大き過ぎて汎化性に難がある.よって,これらの言語を$n$-gramによってモデル化する際には,テキストコーパスに何らか\breakの前処理が必要である.これには次の可能性が考えられる.\begin{itemize}\item人手によって分割されたタグ付きコーパスを使う\item自動形態素解析システムによって単語に分割する\item経験的な統計基準によって文字列に分割する\end{itemize}このうちタグ付きコーパスを使う方法には,コーパス自体の入手が質的・量的な困難を伴うという欠点がある.形態素解析に基づく方法は有効であるが,モデルを学習するためにはまず形態素解析システムを用意せねばならないうえ,特定タスクに対して高い性能を得るためには予め辞書をチューニングする必要があると考えられ,メンテナンスのコストがかかる.また,形態素解析システムの文法規則によっては機能語が短めに分割される傾向があり,$n$-gramの性能を必ずしも最大にするものではない.これらの手法に対して,伊藤ら\cite{aito96}は統計的な基準によって文\mbox{字列の集合を選}定し,その文字列に分割されたテキストを使って$n$-gramを学\mbox{習する方法を提案している.文字}列を選定する基準としては,単純な頻度,および語彙の自動獲得のために提案されている正規\break化頻度\cite{nakawatase95}の高いものから選ぶ方式が\mbox{有効であったとされる.この方法は,形態素解}析を必要としない点で優れている.しかし,抽出すべき文字列の最適な個数を見出す方法については述べられていない.また,用いられている基準と言語モデルの能力との理論的関係は浅く,最良の分割方法である保証はない.さらに,この手法ではテキストが明示的に分割される.このため,接辞を伴った語や複合語などの長い文字列が抽出された場合,その文字列を構成するもっと短い語は出現しなかったのと同様な扱いを受けることになる.有限のテキストから汎化性の高い言語モデルを構築したい場合に,このような明示的な分割が最良の結果を与えるとは限らない.本論文では,高い曖昧性削減能力を持つ新しい言語モデルを提案する.このモデルは,superwordと呼ぶ文字列の集合の上の$n$-gramモデルとして定義される.superwordは訓練テキスト中の文字列の再現性のみに基づいて定義される概念であり,与えられた訓練テキストに対して一意に定まる.具体的な確率分布は,訓練テキストからForward-Backwardアルゴリズムによって求める.訓練テキストを明示的に分割せぬまま学習を行うため,長い文字列中の部分文字列を「再利用」することが可能となり,少量の訓練テキストでも効率の良いモデル化が期待できる.本論文ではまた,いくつかのモデルの融合による汎化性の向上についても検討する.実時間性が要求される大語彙連続音声認識システムにおいては,緩い言語モデルを用いて\mbox{可能性をしぼり込んだ後,詳細な言語モデルによって最終出力を導}く2パス処理が一般的である.本論文で提案するような字面の適格性を与える言語モデルは,ディクテーションシステムの第2パス,すなわち後処理用の言語モデルとして有用であるものと考えられる.また,文字$n$-gramを用いた認識手法\cite{yamada94}を本手法に応用することも可能である. \section{superwordモデルの定式化} 単語\cite{mori96a}や文字列の$n$-gram\cite{aito96}では与えられた系列を単語ないし文字列に分割するやり方が一意に決まらないため,これらのモデルは直前の\(n-1\)個の単語や文字列を状態とする,隠れマルコフモデルの一種と考えられる.単語や文字列の集合は,語彙知識として人手で与えられるか,あるいは経験的な規則に基づいて訓練テキストから抽出されるものである.ここで定義するsuperwordとはこれら単語や文字列を一般化したものであるが,それらと対照的なのは,訓練テキスト中の任意の文字列を含み得る点である.ただし,言語モデルとして意味を持つために必要最小限のヒューリスティクスは導入せねばならない.そこで,次の条件を満たす文字列をsuperwordと定義する.\begin{itemize}\item訓練テキスト中に最低2回出現する\end{itemize}または\begin{itemize}\item長さ1の文字列である\end{itemize}訓練テキストにおける再現性の仮定は,ある文字列が何らかの言語的なまとまりを成すか否かに対する基準となるものであり,そのような基準として考え得る制約の中でもっとも緩い条件\breakとして与えてある.すなわち,ある文字列が訓練テキスト中で1回しか出現しない,または1回\breakも出現しないならば,その文字列が何らかのまとまりを成すだろうという証拠は,他に人間が知識として与えない限り得られない.また,再現性とは独立に,長さ1の文字列は全てsuperwordと定義している.これにより,全ての文は少なくとも1通りのsuperwordの系列として表現できることが保証される.superword$n$-gram確率\(P(w_i|w_{i-(n-1)}\cdotsw_{i-1})\)は,直前に\(n-1\)個のsuperwordの列\(w_{i-(n-1)}\cdotsw_{i-1}\)が\break生起したと仮定した時のsuperword\(w_i\)の条件付き生起確率である.与えられた文\(\futo{C}=C_1C_2\cdotsC_k\)がsuperwordの列\(w_1w_2\cdotsw_l\)に分割できるとき,\(w_1w_2\cdotsw_l\in\futo{C}\)と書く.superword$n$-gramモデルは,$\futo{C}$の全ての可能な分割に関して計算\breakしたsuperword$n$-gram確率の積の総和をもって$\futo{C}$の発生確率を推定するものである.すなわち,その確率を次式で与える.\begin{equation}P(\futo{C})=\!\!\!\!\!\!\!\sum_{w_1\cdotsw_l\in\futo{C}}\prod_{i=1}^lP(w_i|w_{i-(n-1)}\cdotsw_{i-1})\label{forward}\end{equation}ここで\(n=1\)の時,すなわちsuperwordunigramモデルは,文全体の生起確率がそれぞれ独立なsuperwordの生起確率の積で表されるとするものであり,multigram\cite{deligne95}と呼ばれる可変長単語列に基づく言語モデルと同一のものである.superword$n$-gramモデルのクラスは,単語や文字列の$n$-gramモデルのクラスを包含する.この性質は,パラメータさえ適切に与えることができれば,superwordに基づくモデルの性能が単語や文字列の$n$-gramモデルの性能と同等かそれ以上になることを保証する.\vspace{-2mm} \section{superwordモデルの学習法} \vspace{-1mm}\subsection{superword集合の獲得}\vspace{-1mm}モデルの獲得にあたっては,パラメータの学習に先立ち,訓練テキストからsuperwordの集合を求める必要がある.長さ1のsuperwordについては自明であるから,再現性のある文字列を集める作業が核心である.これには,訓練テキストの全ての位置から始まる半無限文字列をソートして任意長$n$-gram統計を求め\cite{nagao94},2回以上出現する文字列を記録\breakする方法が考えられる.しかし,再現性のある文字列だけに興味がある場合には,短い文字列から長い文字列へと逐次的に求める簡便な方法で十分である\cite{mori96b}.実験で用いたテキストコーパスでは,長さ$L$のsuperwordの種類は大きな$L$では単調に減少\breakすることが観察されている.\subsection{確率分布のForward-Backward学習}superwordモデルでは,ある状態から別の状態に移る時に,ある確率で一つのsuperwordを出力する.状態は,直前\(n-1\)個のsuperwordによって定まるものとする.ただし,\(n=1\)の場合はただ1つの状態のみ存在するものとする.superwordモデルの出力はsuperword列としてで\breakはなく文字の系列として観測される.そこで,通常の隠れマルコフモデルと同様に扱うことを\break可能にするため副状態を導入して,1回の状態遷移で1文字を出力する等価なモデルを考える.\break副状態は,状態を分割したもので,そこに移る時最後に出力したsuperwordの各文字に対応す\breakる.superword\(w_i\)の表記を\(C_1\cdotsC_j\cdotsC_L\)とし,\(w_i\)の長さ$j$のプレフィックスを\(w_{i,j}\)とする.\breakそして,superwordモデルにおける\(w_i\)の出力を,等価なモデルでは次のように表す.すなわち,\break確率\(P(w_i|w_{i-(n-1)}\cdotsw_{i-1})\)で副状態\(w_{i-(n-2)}\cdotsw_{i-1}w_{i,1}\)に移る時に\(C_1\)を出力し,以後確率\break1で副状態\(w_{i-(n-2)}\cdotsw_{i-1}w_{i,j}\)\mbox{に移る時に\(C_j\)を出力し,最終的に状態\break\(w_{i-(n-2)}\cdotsw_{i-1}w_i\)に}\break至ると考える.例として,図\ref{fig4-1}の状態遷移図では「東北大学」というsuperwordを出力して状態\break(東北大学)に至る様子を示している.等価なモデルでは,本来の確率で副状態(東)に移る時に文字「東」を出力,確率1で(東北)に移る時に「北」を出力,確率1で(東北大)に移る時\breakに「大」を出力,最終的に確率1で(東北大学)に移る時に「学」を出力する.分割前の状態が異なる副状態は同一視しないので,例えば(東北大学)の副状態(東)と(東京)の副状態(東)は異なることに注意すべきである.\begin{figure}\begin{center}\epsfile{file=33.eps}\caption{「東北大学」というsuperwordの各文字に対応した副状態の系列}\label{fig4-1}\end{center}\end{figure}\(n=1\),すなわちsuperwordunigram確率の学習のための初期確率としては,全てのsuperwordが等確率で発生するとして,superwordの数の逆数を与える.\(n>1\)については,対応するsuperwordの\((n-1)\)-gram確率で初期化する.確率の再推定のために,図\ref{fig4-2}のように訓練テキストから全てのsuperwordを洗い出す.\begin{figure}[t]\vspace{-7mm}\begin{center}\epsfile{file=34.eps}\caption{「東北大学」というテキストの解析.矩形はsuperwordを,実線は可能なパスを表す.\\``\$''は文の終端}\label{fig4-2}\end{center}\end{figure}次に,連接可能な$n$個のsuperwordの組に関して,次式によって確率を更新する.\begin{eqnarray}\lefteqn{\tilde{P}(w_i|w_{i-(n-1)}\cdotsw_{i-1})=}\nonumber\\&&\frac{\displaystyle\sum_t\alpha_{t-1}(w_{i-(n-1)}\cdotsw_{i-1})P(w_i|w_{i-(n-1)}\cdotsw_{i-1})\beta_t(w_{i-(n-2)}\cdotsw_i)}{\displaystyle\sum_t\alpha_t(w_{i-(n-2)}\cdotsw_i)\beta_t(w_{i-(n-2)}\cdotsw_i)}\end{eqnarray}ただし,$\alpha$,$\beta$はそれぞれForward確率,Backward確率で,以下のように再帰的に定義する.\begin{equation}\alpha_1(w)=P(w|\#),\qquad\mbox{\#は文頭を表す状態}\end{equation}時刻$t$(\(t>1\))でsuperword\(w_i\)の第1字目を出力するとき\begin{equation}\alpha_t(w_{i-(n-2)}\cdotsw_i)=\sum_{w_{i-(n-1)}}\alpha_{t-1}(w_{i-(n-1)}\cdotsw_{i-1})P(w_i|w_{i-(n-1)}\cdotsw_{i-1})\end{equation}時刻$t$(\(t>1\))でsuperword\(w_i=C_1\cdotsC_j\cdotsC_L\)の第$j$字目(\(j>1\))を出力するとき\begin{equation}\alpha_t(w_{i-(n-2)}\cdotsw_{i-1}w_{i,j})=\alpha_{t-1}(w_{i-(n-2)}\cdotsw_{i-1}w_{i,j-1})\end{equation}ただし\begin{equation}\alpha_t(w_{i-(n-2)}\cdotsw_{i-1}w_i)=\alpha_t(w_{i-(n-2)}\cdotsw_{i-1}w_{i,L})\end{equation}同様に\begin{equation}\beta_T(\$)=1,\qquad\mbox{$T$は文末記号``\$''を出力する時刻}\end{equation}時刻$t$(\(t<T\))でsuperword\(w_i\)の第1字目を出力するとき\begin{equation}\beta_{t-1}(w_{i-(n-1)}\cdotsw_{i-1})=\sum_{w_i}\beta_t(w_{i-(n-2)}\cdotsw_i)P(w_i|w_{i-(n-1)}\cdotsw_{i-1})\end{equation}時刻$t$(\(t<T\))でsuperword\(w_i=C_1\cdotsC_j\cdotsC_L\)の第$j$字目(\(j>1\))を出力するとき\begin{equation}\beta_{t-1}(w_{i-(n-2)}\cdotsw_{i-1}w_{i,j-1})=\beta_t(w_{i-(n-2)}\cdotsw_{i-1}w_{i,j})\end{equation}ただし\begin{equation}\beta_t(w_{i-(n-2)}\cdotsw_{i-1}w_i)=\beta_t(w_{i-(n-2)}\cdotsw_{i-1}w_{i,L})\end{equation} \section{長さ制限の導入} 再現性のある文字列の長さを十分大きく取れば,前節までに述べたモデルは与えられた訓練テキストに対して一意に求まる.以下では,これを一般superword$n$-gramモデルと呼ぶ.しか\breakし,一般モデルのパラメータ数は大きい.特に,\(n>2\)ではsuperwordの組み合わせが爆発し,現実的ではない.さらに,あまりに長いsuperwordは訓練テキストに特化してしまう恐れがあり,汎化能力の低下を招く.これに対処するため,一般モデルに加えて長さ制限付きのsuperwordモデルを導入する.これは,逐次的な再現性文字列の獲得を早い段階で打ち切って小さなsuperwordの集合をつくり,その集合に基づいてForward-Backward学習を行うことで得ることができる.以下では,長さ$l$に制限されたsuperword$n$-gram確率を\(P_{|w|\leql}(w_i|w_{i-(n-1)}\cdotsw_{i-1})\)と表記する.長さが$l$に制限されたsuperword$n$-gramモデルは,図\ref{ergodic}に示すような,状態数が高々字種の\break$l$乗に制限されたエルゴーディックHMMとなる.ただし,図は\(l=2\)とした例である.\begin{figure}\begin{center}\epsfile{file=35.eps}\vspace*{-3mm}\caption{「東北大学」の部分文字列をsuperwordの集合とする時の長さ制限モデル}\label{ergodic}\end{center}\end{figure} \section{複合モデル} $n$-gramに代表される確率モデルにおいては,モデルのパラメータを精度良く推定するに足るサンプルが得られないことが多く,パラメータ空間のさまざまなスムージング法が提案されている\cite{federico95}.その一つに,いくつかのモデルの確率の重み付き線形和で表現する方法がある\cite{jelinek80}.これは本来,詳細なモデルの値が信用できない場合に,パラメータの少ない安定したモデルの値を代用するものであ\breakるが,性質の異なる複数のモデルを組み合わせてより良いモデルを得るという積極的な利用も可能である.本節では,この線形補間に基づくいくつかの複合モデルを考える.superwordbigram(\(n=2\))モデルに対しては,superwordunigram確率によって補間された確率は次式で与えられる.\begin{equation}\hat{P}(w_i|w_{i-1})=\lambda_{\mbox{\scriptsizeg}}P(w_i|w_{i-1})+(1-\lambda_{\mbox{\scriptsizeg}})P(w_i)\end{equation}重み係数\(\lambda_{\mbox{\scriptsizeg}}\)は,訓練テキストとは別のサンプル(held-outデータ)またはクロスバリデーション\breakによって得られる仮想的な未知データの確率を最大にするように再推定する.前述したように,一般superwordbigramはパラメータ量が多くなり過ぎるので,実際にはsuperwordの長さを最大$l$に制限したモデルと組み合わせる.これは次式で与えられる.\begin{equation}\hat{P}_{|w|\leql}(w_i|w_{i-1})=\lambda_{\mbox{\scriptsizeb}}P_{|w|\leql}(w_i|w_{i-1})+(1-\lambda_{\mbox{\scriptsizeb}})P_{|w|\leql}(w_i)\label{limited}\end{equation}式(\ref{limited})のような制限されたモデルでは,長い語の表現に難があることも考えられる.そこで,長さ制限付きsuperwordbigramモデルと一般superwordunigramモデルの複合モデルを導\break入する.複合superwordbigram確率は次式で定義される.\begin{equation}P_{\mbox{\scriptsizecomp}}(w_i|w_{i-1})=\lambda_{\mbox{\scriptsizec}}\hat{P}_{|w|\leql}(w_i|w_{i-1})+(1-\lambda_{\mbox{\scriptsizec}})P(w_i)\label{composite}\end{equation}さらに,複合superwordbigramモデルを,文字のtrigramモデルによってスムージングする\breakことを考える.文字のtrigramモデルはそれ自身で強力な曖昧性削減能力を持っているが\cite{mori96},単語$n$-gramモデルと融合させることにより,認識対象中の未知の文字列の存在による単語解析精度の低下の影響を低減させ,頑健なモデルとすることができる\cite{mori96a}.文字によって補間された複合superwordbigram確率は次式で定義される.\begin{equation}\hat{P}_{\mbox{\scriptsizecomp}}(w_i|w_{i-1})=\lambda_{\mbox{\scriptsizew}}P_{\mbox{\scriptsizecomp}}(w_i|w_{i-1})+(1-\lambda_{\mbox{\scriptsizew}})\hat{P}_{\mbox{\scriptsizec}}(w_i|w_{i-1})\label{charint}\end{equation}ただし,\(\hat{P}_{\mbox{\scriptsizec}}(w_i|w_{i-1})\)はsuperword\(w_i\)が生起する確率を,補間された文字trigram確率の積によって求めたものである.すなわち,\(w_i\)の表記を\(C_1\cdotsC_{L(w_i)}\),\(w_{i-1}\)の最後の2文字を\(C_{-1}C_0\)と書くとき\begin{equation}\hat{P}_{\scr{c}}(w_i|w_{i-1})=\left(\prod_{j=1}^{L(w_i)}\hat{P}_\scr{c}(C_j|C_{j-2}C_{j-1})\right)\cdotd(L(w_i))\label{charmodel}\end{equation}ただし\(\hat{P}_\scr{c}(C_j|C_{j-2}C_{j-1})\)はbigram,unigram等により補間された文字trigram確率である.また,\(d(L(w_i))\)は文字モデルが生成する単語の長さに関する分布関数である. \section{評価実験} 提案した言語モデルの能力を,文字を単位としたパープレキシティによって評価する.パープレキシティは,式(\ref{forward})において評価用テキストを$\futo{C}$として次式で求められる.\begin{equation}\mbox{{\itPP}}\simeq\hat{P}(\futo{C})^{-1/k}\end{equation}ただし,$k$は評価用テキストの全字数である.長さ1のsuperwordに対しては,確率が設定した\break底値を下回る場合には底上げした.対象タスクは朝日新聞「社説」とした.実験に用いたテキストの量を表\ref{tab4-1}に示す.表中,held-outとは式(\ref{limited}),式(\ref{composite}),式(\ref{charint})の重み係数を求めるために用いたテキストである.各々のテキストは,共通部分を持たない.\begin{table}\vspace{-3mm}\begin{center}\caption{訓練テキスト・評価テキストの量}\label{tab4-1}\begin{tabular}{|c|rr|}\hline&字&(文)\\\hline訓練&969497&(21767)\\held-out&85654&(1953)\\評価&80098&(1779)\\\hline\end{tabular}\end{center}\end{table}長さ制限の効果を見るため,superwordunigramモデルについて最大長を変化させてパープレキシティを求めた.その結果を図\ref{unigram}に示す.\begin{figure}\begin{center}\epsfile{file=unigram1.eps,width=.7\hsize}\caption{superwordunigramモデルにおける長さ制限の効果}\label{unigram}\end{center}\end{figure}この結果から,長いsuperwordを許してもパープ\breakレキシティは上がらないことがわかる.これは,superwordの再現性の条件が適当であったことを示す.以下の実験では,\(L=20\)の場合を一般superwordunigramモデルとして扱う.表\ref{tab2}に,提案したモデルおよび従来のモデルのパープレキシティを示す.上から4項目までがsuperwordに基づくモデルである.bigramとあるのは式(\ref{limited})の長さ制限付きモデルである.ここでは最大長を3とした.一般unigram+bigramとあるのは式(\ref{composite})の複合モデル,一般unigram+bigram+文字とあるのはさらに文字trigramで補間した式(\ref{charint})のモデルである.その\break場合の式(\ref{charmodel})の分布関数としては,指数分布を仮定した.表\ref{tab2}の残りの4項目は比較のために示\breakしてある.単語trigramは,訓練テキストをあらかじめ形態素解析システムJUMAN\cite{juman94}により分割して求めたものであり,削除補間法によりスムージングしたものである.文字+単語trigramは,さらに文字のtrigramでスムージングしたもので,\break式\hspace{-0.1mm}(\ref{charmodel})\hspace{-0.1mm}と同様の式を用いている.文字列\hspace{-0.1mm}trigram\hspace{-0.1mm}は,訓練テキストに伊藤らの実験\hspace{-0.1mm}\cite{aito96}で最も有効であった左最長一致による高頻度文字列への分割法を適用し,さらに文字の\breaktrigramでスムージングしたものである.抽出文字列数は約4000から12000まで変化させ,パープレキシティが極小となった約6000個を用いた時の値を示してある.スムージングのためのheld-outデータにはsuperwordモデルと同じものを用いている.\begin{table}[t]\begin{center}\caption{各モデルの性能評価}\label{tab2}\begin{tabular}{|c|c|}\hlineモデル&パープレキシティ\\\hlineunigram&32.4\\bigram&29.8\\一般unigram+bigram&28.5\\一般unigram+bigram+文字&25.7\\\hline文字trigram&28.9\\単語trigram&28.6\\文字+単語trigram&26.6\\文字列trigram&28.6\\\hline\end{tabular}\end{center}\end{table}この結果から,次のことがわかる.まず,superwordunigramモデルの性能が良くない.図\ref{unigram}\breakの結果をも考慮すると,これはsuperwordの長さの問題ではなく,unigramでは語と語の連接関\break係が本質的に表現できないものと考えられる.これはATISデータベースの上でのmultigramの評価\cite{deligne95}といくぶん矛盾する結果であるが,伊藤ら\cite{aito96}も同様の結果を導いている.長さ制限付きsuperwordbigramモデルの導入によって,性能の向上が見られた.しかし,ま\breakだその性能は文字trigramモデルに及ばない.長さ制限付きsuperwordbigramモデルと一般superwordunigramモデルを融合させることで,若干の性能向上が見られた.これは,長いsuperwordは単独ではあまり性能に貢献しないが,語と語の連接関係だけでは表現しきれない部分を補う効果を持っているものと考えることができる.語と語の関係に関する知識と語彙知識とを独立に表現する枠組は,形態素解析の原理と類似している.さらに,文字trigramモデルでスムージングすることにより,大きく性能が向上した.その結果,形態素解析を用いたモデルを超える性能が得られた.superwordに基づいたモデル単独では訓練テキストに対して過学習する傾向があり,未知テキストに対して脆弱な側面があるが,未知テキストに対して頑健な文字trigramモデルとの融合によりそれが克服できることを意味する. \section{あとがき} 本論文では,superwordの概念に基づいた新しい言語モデルを提案した.このモデルは従来の$n$-gramの枠組を包含したより一般的なものであり,コーパス以外の知識に全く依存しない.また,本論文で導入した長さ制限モデルとスムージング手法により,現実的なコーパスの量の範囲でモデルの学習が可能となった.評価実験の結果,長さ制限を施したsuperwordbigramモデルを文字trigramモデルと組み合わせて頑健性を向上させたモデルの性能が高く,形態素解析\breakに基づく手法,および高頻度文字列抽出による方法を超える能力が得られた.superwordに基づく言語モデルは,可搬性に優れた強力なものであるが,欠点として訓練テキストに比べモデルの規模が非常に大きいことが挙げられる.superwordunigramモデルのパラメータ数はsuperword集合の大きさにほぼ比例する.通常の$n$-gramではモデルのサイズの上\break界がコーパスの量に対して線形のオーダーで与えられるのに対し,superwordの場合にはそれよりも大きくなる可能性がある.これはsuperwordを可能な限り一般的に定義したためであり,特に大規模なコーパスを用いてモデルを学習する場合には,再現性の仮定を見直す必要があることが考えられる.また,superwordbigramモデルは長さ制限を加えた場合でも非常に大きくなる.今回構築した長さ3のsuperwordbigram確率テーブルは約170Mbyteの大きさのファイルとなり,一般superwordunigram確率テーブルの約10倍である.これは,与えられたテキストのsuperwordによる解析結果が極めて曖昧性が大きいものであることが原因である.モデルのサイズを小さくし,実際のパターン認識システムで利用できるようにするためには,モデルの最適化が必要である.すなわち,学習の過程で非常に小さな確率を付与された状態遷移のアークは刈り取る,あるいは外から遷移してくる確率が十分小さな状態は削除する,などである.しかし,この種の枝刈りは,訓練サンプルに特化する危険がある.今後はパープレキシティを上げることなくモデルをコンパクトにするための枝刈り手法の開発が課題である.\vspace{-3mm}\bibliographystyle{jnlpbbl_old}\bibliography{v06n2_02}\begin{biography}\biotitle{略歴}\bioauthor{森大毅}{1993年東北大学工学部通信工学科卒業.1998年同大大学院博士後期課程修了.博士(工学).同年,同大大学院工学研究科助手.文字認識,音声認識,自然言語処理の研究に従事.電子情報通信学会,情報処理学会各会員.}\bioauthor{阿曽弘具}{1974年東北大学大学院電気及通信工学専攻博士課程修了.現在,同\break大大学院工学研究科教授.並列処理,文書認識,音声認識,神経回路網などの研究に従事.平成3年度電子情報通信学会業績賞受賞.工学博士.}\bioauthor{牧野正三}{1947年1月生まれ.1974年東北大学大学院工学研究科博士課程修了.工学博士.現在東北大学大型計算機センター及び東北大学大学院情報科学研究科計算機ネットワーク論講座教授.音声認識・理解,画像処理・理解,対話システム,自然言語処理の研究に従事.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V12N03-05
\section{はじめに} label{intro}照応現象に関する理論のうち,最も広く論じられているのは中心化理論(centeringtheory)である.中心化理論は,注意の中心,照応,結束性の間の相互作用を説明している.しかし,照応現象等の背後にある基本原理を明らかにするものではない.もし中心化理論の背後に何らかの基本原理が存在するならば,それは談話における発話者と受話者の行動決定を説明する原理であろう.その基本原理は,客観的に計量可能な尺度に基づいて述べられるべきである.しかし,中心化理論において重要な役割を担っている顕現性(salience)という概念は,客観的に計量可能な尺度として定式化されていない.顕現性とは,人間の注意状態に関連する何らかの尺度であるが,従来研究ではCfランキングというヒューリスティクスで近似される.本稿では,参照確率という計量可能な尺度として顕現性を定式化し,その計測手法を示す.一方,中心化理論の背後にある基本原理の説明として,Hasidaら\citeyear{hasida1995,hasida1996}が提唱する意味ゲーム(meaninggame)がある\footnote{Hasidaらのアプローチを最適性理論の上で発展させる試みも行われている\cite{rooy2003,kibble2003}}.意味ゲームとは,ゲーム理論に基づいて意図的なコミュニケーションを説明するモデルであり,発話者と受話者をプレイヤーとする2人ゲームである.Hasidaらは,顕現性を上記のように参照確率とみなし,照応詞の単純さをプレイヤーの利得の一部とみなすと,この意味ゲームモデルから中心化理論が導けることを示した.彼らはコミュニケーションの一例として特に照応を取り上げて,照応現象の説明はゲーム理論に帰着できると主張している.しかし,この主張の根拠は特定の事例に関する思考実験であり,実言語データに基づいて検証されていない.本稿では日本語の新聞記事コーパスを用いて照応の意味ゲームモデルを検証し,この主張が正しいことを示す. \section{中心化理論の概略と問題点} label{sec:centering}以下では,中心化理論の概略を述べ,基本原理の欠如という問題点と顕現性に関する問題点を指摘する.\subsection{理論の概要}中心化理論では,談話を発話(utterance)の列$[U_1,U_2,\cdots,U_n]$として扱う.各発話において注意が向けられている実体のことを中心(center)と言い,発話ごとに中心が更新される.また,中心の決定の際に用いられる尺度である顕現性(salience)は,ある文脈で具現化(realize)\footnote{言語表現(ゼロ照応を含む)によって実世界の実体を参照すること.}された実体の「目立ち具合」を表す.中心には以下のような種類がある.\begin{itemize}\item{\itCb}$(U_i)$:$U_i$の後向き中心(backward-lookingcenter).先行文脈で具現化され,$U_i$でも引き続き具現化されている実体.そのような実体が複数ある場合は,$U_{i-1}$において最も顕現性が高かった実体.\item{\itCf}$(U_i)$:$U_i$の前向き中心(forward-lookingcenters).$U_i$で具現化された実体を顕現性の順にソートしたリスト.\item{\itCp}$(U_i)$:$U_i$の優先中心(preferedcenter).{\itCf}$(U_i)$の要素のうち最も顕現性の高い実体.\end{itemize}中心化理論は以下の2つのルールから構成される\cite{walker1994}.\begin{breakbox}\begin{itemize}\item[{\bfルール1}:]{\itCf}$(U_{i-1})$の要素の幾つかが$U_i$において代名詞によって具現化されているならば,そのうちの一つが{\itCb}$(U_i)$である.\item[{\bfルール2}:]中心の遷移には下記の4種類があり,その選好の順序は\\Continue$>$Retain$>$Smooth-Shift$>$Rough-Shiftである.\end{itemize}\begin{center}{\small\begin{tabular}{l}\begin{tabular}{|c||c|c|}\hline&{\itCb}$(U_i)=${\itCb}$(U_{i-1})$&{\itCb}$(U_i)\neq${\itCb}$(U_{i-1})$\\\hline\hline{\itCb}$(U_i)=${\itCp}$(U_i)$&Continue&Smooth-Shift\\\hline{\itCb}$(U_i)\neq${\itCp}$(U_i)$&Retain&Rough-Shift\\\hline\end{tabular}\\\end{tabular}}\end{center}\end{breakbox}ルール1は,同一発話内に代名詞と非代名詞がある場合,代名詞の方が{\itCb}を指しやすいという選好である.ルール2は,結束性(cohesion),すなわち発話間の語彙的つながりの強さに関するルールである.発話$U_{i-1}$から$U_i$への中心遷移の仕方を4種類に分け,それらを結束性が高い順に並べた選好である.\subsection{問題点}中心化理論の第1の問題点として,上記の2つのルールは,中心,照応,結束性の相互作用について述べているものの,そのような現象の根底にある基本原理を説明してはいない.また,第2の問題点として,中心化理論において本質的な役割を担う顕現性が客観的に計量可能な尺度として定式化されていない.すなわち,中心化理論の先行研究において顕現性の意味を明確に定義した研究は無く\footnote{文生成の研究においては,視覚における鮮やかさや,語自体が持つ印象の強さ,言及された至近性などによって顕現性が決定されるとした研究例がある\cite{reed2002}.},顕現性は注意状態に関係する何らかの尺度として,Cfランキングと呼ばれるヒューリスティックな順序によって近似されてきた.しかし,そもそも顕現性の定義に上記のような不備があるので,Cfランキングの妥当性を経験的に検証することは不可能である.基本的にCfランキングは文法機能のみによって決まり,その順序は下記のように言語によって異なる.\begin{tabbing}1234\=5678\=\kill\>英語のCfランキング:\\\>\>主語$>$直接目的語$>$間接目的語$>$補語$>$付属語\\\>日本語のCfランキング\cite{walker1994}:\\\>\>主題(文法orゼロ)$>$視点$>$主語$>$間接目的語$>$直接目的語$>$その他\end{tabbing}しかし,文法機能以外の要因も顕現性の決定に関わっているとする研究もある\cite{strube1999,reed2002}.また,文法機能の順序によって決定できるのは同じ発話内で参照されている実体の順序のみであるが,先行詞の候補が異なる発話に分散していることも多いので,異なる発話間の実体も順序付けする必要がある.顕現性の問題点を以下にまとめる.\begin{itemize}\item[A]客観的に計量可能な尺度として定義されていないので,Cfランキング等の妥当性の経験的検証が不可能である.\item[B]顕現性に影響する要因は文法役割以外にもあるが,Cfランキングはそれを捉えていない.\item[C]Cfランキングでは直前の発話で参照された実体しか扱えない.\end{itemize}問題点Bに関して,Strubeら\citeyear{strube1999}は聞き手にとっての情報の新しさという要因を導入してCfランキングを拡張した機能的中心化理論(FunctionalCentering)を提案した.問題点Cに関して,Nariyama\citeyear{nariyama2001}は,先行文脈中の名詞句から成るSRL(SalientReferentList)を発話単位毎に更新する手法を提案した.しかし,そもそも問題点Aを解決しなければこれらの試みの妥当性を論ずることも困難である. \section{顕現性の定式化と計測} label{sec:ref_prob}\ref{sec:centering}節で述べたように,中心化理論では顕現性はCfランキングと呼ばれるヒューリスティクスによって近似されるが,そもそも顕現性が客観的に計測できる尺度として定式化されていないため,Cfランキングの妥当性を経験的に検証することは不可能である.これは,理論としての不備である.本節では,顕現性を参照確率(referenceprobability)という計測可能な尺度として定式化することを提案する.参照確率とは,実体が次の発話で参照(具現化)される確率である.これにより,\ref{sec:centering}節で述べた問題点が解消される.\subsection{計測方法}以下に顕現性の定式化と計測方法を示す.\begin{itembox}[l]{顕現性の定式化}\begin{itemize}\item[{\bf顕現性の定義}]発話列$[U_1,U_2,\cdots,U_i]$のどこかで実体$e$が参照されているとき,発話$U_i$における実体$e$の顕現性とは,$e$が$U_{i+1}$で参照される確率(参照確率)である.\item[{\bf参照確率の計測}]\begin{itemize}\item発話列$\{U_1,U_2,\cdots,U_i\}$のどこかで実体$e$を参照している表現$w$がある.\item特徴量ベクトル{\itfeature}$(w,U_i)$を抽出する.\item充分に大きな言語コーパスにおいて,{\itfeature}$(w,U_i)$と等しい特徴量ベクトルを持つ事例$(w_x,U_j)$を全て抽出する.そのうち,$w_x$が指し示す実体が$U_{j+1}$においても参照されている事例の相対出現頻度を計測する.\itemこの相対出現頻度が,$U_{i+1}$における$e$の参照確率である.\itemこの参照確率を,$U_i$における$e$の顕現性とする.\end{itemize}\end{itemize}\end{itembox}ここで,以下のような具体例において「太郎君」が$U_{i+1}$で参照される確率の計測方法を説明する.\begin{breakbox}\noindent\hspace{1.5cm}$U_{i-2}$:さきほど($\phi_0$ガ)\underline{太郎君}を見かけたが、\\\hspace{1.5cm}$U_{i-1}$:(\underline{$\phi_1$}ガ)眠そうだった。\\\hspace{1.5cm}$U_{i\phantom{-0}}$:昨夜はとても暑かったし、\\\hspace{1.5cm}$U_{i+1}$:\underline{\hspace{2.2cm}}\begin{picture}(0,0)\put(-57,30){\line(4,1){70}}\multiput(-56,29)(1,-2){16}{\line(1,-2){0.3}}\put(-40,5){\small$\cdots\cdots\cdots\cdots\cdots参照確率Pr(太郎君,U_{i+1})$}\end{picture}\end{breakbox}\noindent事例の特徴量として,たとえば次の3素性のみを用いたとする.\\\hspace{1.5cm}-$dist$:現発話と,先行文脈中で実体$e$を最近参照した表現の発話距離\\\hspace{1.5cm}-$gram$:先行文脈中で$e$を最近参照した表現が係る助詞(≒文法役割)\\\hspace{1.5cm}-$chain$:先行文脈中の$e$の共参照連鎖(coreferencechain)の長さ\\このとき,この事例の特徴量ベクトルは以下のようになる.\\\hspace{1.5cm}${\itfeature}(太郎君,U_i)=(dist=2,gram=ガ,chain=2)$\\このとき,コーパス中で${\itfeature}(w,U_j)={\itfeature}(太郎君,U_i)$となるような事例,つまり\begin{breakbox}\noindent\hspace{1.5cm}$U_{j-k}$:\underline{\hspace{4mm}}\underline{$w_{0}$}\underline{\hspace{1cm}}\\\hspace{1.5cm}\phantom{$U_{j-h}$:}$\vdots$\\\hspace{1.5cm}$U_{j-1}$:\underline{$w$}が\underline{\hspace{1.3cm}}\\\hspace{1.5cm}$U_{j\phantom{-0}}$:\underline{\hspace{2.2cm}}\\%($w_xが参照する実体をU_{j-1}では参照していない$)\\\hspace{1.5cm}$U_{j+1}$:\underline{\hspace{2.2cm}}\begin{picture}(0,0)\put(-63,32){\line(1,2){17}}\put(20,35){\small条件C:{\itfeature}$(w,U_j)=(dist=2,gram=ガ,chain=2)$}\multiput(-63,31)(1,-2){16}{\line(1,-2){0.3}}\put(-45,6){\small$\cdots\cdots\cdots\cdots参照確率Pr(w,U_{j+1})=\frac{(C\wedge(U_{j+1}でwを参照している))が成り立つ事例数}{Cが成り立つ事例数}$}\end{picture}\end{breakbox}\noindentという表層的なパターンを持つ事例の出現頻度と,そのうちの$U_j$において$w$が参照する実体が参照される相対出現頻度を計測しておいたとすると,この相対頻度が,$U_i$において「太郎君」が参照される確率の近似値となる.ただし,実際のコーパスの事例数には限りがあり,特徴空間上の全てのベクトルについて充分な事例数があるわけではないので,任意の特徴量ベクトルを持つ事例の確率を外挿する必要がある.そのためには,コーパス中の事例集合を用いて回帰分析を行えばよい.回帰分析のアルゴリズムについては限定しない.ただし,複数の要因を統合して参照確率を外挿するためには複数の説明変数を扱う多重回帰が可能なアルゴリズムでなければならない.本稿では,以下の2つの回帰アルゴリズムによって参照確率の計測を行う.\begin{itemize}\item3素性による多重ロジスティック回帰\item8素性によるSVR(SupportVectorRegression)\end{itemize}本稿で多重ロジスティック回帰に用いる3素性とSVRに用いる8素性を表\ref{tab:features}に示す.\begin{table}\begin{center}\begin{tabular}{|l|l|l|l|}\hline&多重&{\itdist}&参照表現と指示対象候補の最近参照箇所との発話距離の自然対数\\&logi-&{\itgram}&指示対象候補の最近参照箇所の文法機能(助詞)\\S&stic&{\itchain}&(指示対象候補の先行文脈中の共参照連鎖の長さ+1)の自然対数\\\cline{2-4}V&&{\itexp}&指示対象候補の最近参照箇所の表現種別(ゼロ/代名詞/定名詞/一般)\\R&&{\itlast\_{}topic}&指示対象候補が最近のトピックであるか否か\\&&{\itlast\_{}sbj}&指示対象候補が最近の主語であるか否か\\&&{\itp1}&指示対象候補が一人称であるか否か\\&&{\itpos}&指示対象候補の最近参照箇所の品詞(名詞/述語)\\\hline\end{tabular}\end{center}\caption{本稿で参照確率の回帰分析に用いる素性}\label{tab:features}\end{table}多重ロジスティックで用いる説明変数を3素性に絞ったのは,モデルの表現能力に対して問題空間が疎になることを防ぐためである. \section{意味ゲーム} label{meaning_game}本節では意味ゲームの概要を説明し,意味ゲームから中心化理論のルール1,2に相当する選好を導出する.\subsection{意味ゲームの概要}Hasidaら\citeyear{hasida1995,hasida1996}が提唱した意味ゲームは,意図的なコミュニケーション(非自然的意味の伝達)のゲーム理論的な定式化である.Hasidaらは,意図的・言語的コミュニケーションの一例として特に照応現象を論じた.意味ゲームでは,発話者による意図決定および受話者による解釈の組み合わせの,コミュニケーションの成功以外の要因による期待効用は以下の式で表される.$$\sum_{wがeを参照する}{\itPr}(e){\itUt}(w)$$${\itPr}(e)$は実体$e$が参照される確率(参照確率),${\itUt}(w)$は$e$を参照する表現$w$の効用である.ここでは簡単のため以下のように仮定する.\begin{itemize}\itemコミュニケーションは確実に成功する.すなわち,発話者の意図した意味を受話者は必ず理解する.\item実体$e$の参照確率${\itPr}(e)$は,先行文脈を含む発話者・受話者の間での共有信念に基づいて定まり,それ自身共有信念に属する.したがって,発話者,受話者双方にとって${\itPr}(e)$は等しい.\item参照表現$w$が単純なほど表層的処理(発話/筆記/聞き取り/読み取り)のコストが低く,発話者,受話者双方の利得${\itUt}(w)$が高い.表現が複雑であればコストが高く,${\itUt}(w)$が低い(ただし,${\itUt}(w)$の値は発話者と受話者において異なっていてもよい).\end{itemize}これらの仮定により,期待効用を最大化する解が発話者・受話者間で共通となる.副作用として,誤解が起こりやすいような発話はモデルの対象外となるが,文法的知識などの共有信念に基づいて理解可能な談話現象をモデル化できれば充分であり,理解不能な発話はそもそも扱う必要が無いと我々は考える.これら3つの仮定をおくことにより,プレイヤー間で共有された期待効用が最大になる解(発話意図と解釈の組み合わせ)がPareto最適解\footnote{どのプレーヤについても単独で戦略を変えることによって自分の利得が高くならないようなプレーヤ達の戦略の組合せを(Nash)均衡と言い,全プレーヤにとってより望ましい均衡がないような均衡をPareto最適であると言う.}となる.\subsection{ルール1の導出}\label{subsec:rule1}Hasidaらは,照応の意味ゲームから中心化理論のルール1を導いている.たとえば次のような意味的制約の影響が小さい談話においては,heがFredを指し,themanがMaxを指す場合が多い.\begin{tabbing}談話(1)\\\=$U_1$:FredscoldedMax.\\\>$U_2$:Hewasangrywiththeman.\end{tabbing}\begin{tabbing}\$p_1$:Fred(主語)の参照確率\=$>$$p_2$:Max(目的語)の参照確率\\\$u_1$:he(代名詞)の効用\>$>$$u_2$:theman(定名詞)の効用\\%\\(効用=コストの低さ)\\\end{tabbing}\begin{center}\begin{picture}(140,40)\put(-5,45){Fred}\put(25,45){Max}\put(95,45){Fred}\put(125,45){Max}\put(5,10){\line(0,1){30}}\put(35,10){\line(0,1){30}}\put(105,10){\line(1,1){30}}\put(135,10){\line(-1,1){30}}\put(-5,0){`he'}\put(20,0){`theman'}\put(90,0){`he'}\put(115,0){`theman'}\end{picture}\\\\期待効用\\$p_1u_1+p_2u_2\\\\>\\\\p_1u_2+p_2u_1$\phantom{期待効用\\}\\$∵(p_1u_1+p_2u_2)-(p_1u_2+p_2u_1)=(p_1-p_2)(u_1-u_2)>0$\end{center}談話(1)の$U_2$における後向き中心はFredなので,期待効用を最大化する解(代名詞heがFredを指し,非代名詞themanがMaxを指すような解)は,中心化理論のルール1の予測と合致している.つまり上記は,ゲーム理論からルール1が導けることの例証になっている.ここで,ルール1と意味ゲームの概念の対応関係を表\ref{tab:rule1_and_game}に示す.\begin{table}{\small\begin{center}\begin{tabular}{|c|c|}\hlineルール1&意味ゲーム\\\hline\hline代名詞&効用の高い参照表現\\\hline非代名詞&効用の低い参照表現\\\hline顕現性&参照確率\\\hline後向き中心&参照確率の高い実体\\\hline\end{tabular}\end{center}}\caption{ルール1と意味ゲームの対応}\label{tab:rule1_and_game}\end{table}上記のHasidaらによる例証は,一般の事例では図\ref{fig:crossed_or_uncrossed}(b)の解よりも(a)の解の方が選ばれやすいことを表し,以下のように記述できる.\vspace{2mm}\begin{breakbox}\noindent{\bf選好1a}:同一発話内に複数の参照表現があるとき,そのうち効用が高い参照表現が,参照確率の高い実体を参照しやすい.\end{breakbox}\noindentまた,この選好は一般\footnote{参照表現が3つ以上の場合,及びそれらが同一発話内に無い場合にも予測の範囲を広げる,という意味での一般}には以下の選好と等価である.\vspace{2mm}\begin{breakbox}\noindent{\bf選好1b}:参照表現の効用とその指示対象の参照確率の間には正の相関関係がある.\end{breakbox}\noindentこの意味ゲームから導かれた選好1bは1つの発話の中に参照表現が1つしかない場合にも及ぶので,中心化理論のルール1よりも強い予測を導く.\begin{figure}[tb]\begin{center}\includegraphics[width=14cm]{crossed_or_uncrossed.eps}\caption{交差の有無}\label{fig:crossed_or_uncrossed}\end{center}\end{figure}\subsection{ルール2の導出}\label{subsec:rule2}ルール2は,中心の遷移(transition)と結束性(cohesion)に関する選好である.中心遷移は2つの条件式の組み合わせによって4種類に分けられ,結束性に関する優先順位がつけられる.1つ目の条件式{\itCb}$(U_i)=${\itCb}$(U_{i-1})$は,後向き中心$Cb$が直前発話からそのまま受け継がれていることを表す.2つ目の条件式{\itCb}$(U_i)=${\itCp}$(U_i)$は,$Cb$が$U_i$中で参照されている実体のうちで最も顕現性が高いことを表す\footnote{前者の条件式は直前発話$U_{i-1}$と現発話$U_i$の結束性に対応し,後者の条件式は現発話$U_i$と次の発話$U_{i+1}$の結束性の予測に対応すると考えられる.}.われわれは,ルール1の場合と同じく,ルール2における順序も発話の期待効用の高さの順序として導かれると考える.1つ目の条件式が成り立つとき,{\itCb}の参照確率が高くなると同時に,選好1bの予測から{\itCb}を参照する照応詞の効用も高くなると考えられ,したがって現在の発話の期待効用が増すからである。また,2つ目の条件式が成り立つときも,やはり{\itCb}の参照確率と効用が高くなり,期待効用が高くなると考えられるからである.さらに,RetainとSmooth-Shiftは共に一方の条件式のみが成り立つタイプであるが,1つ目の条件式が直前の発話から現在の発話への結束性を表す(したがって現在の発話の期待効用を直接高める)のに対し,2つ目の条件式は現在の発話から次の発話への結束性の予測に過ぎないので1つ目の条件式の方が2つ目の条件式よりも期待効用への影響が強く,したがってRetainの方がSmooth-Shiftよりも期待効用が大きくなると予想される.これらの予想が正しいならば,ルール2は意味ゲームに基づき以下のように一般化できると考えられる.\vspace{2mm}\begin{breakbox}\noindent{\bf選好2}:期待効用の高い解(発話意図と解釈の組み合わせ)が選ばれやすい.この期待効用の高さが結束性の強さに対応する.\end{breakbox}本稿では,コーパス中の事例を中心遷移4タイプに分類し,各タイプの期待効用の平均の順序がルール2の順序と合致するという予想を検証する. \section{統計的検証} label{verification}本節では,意味ゲームから導出した選好1a,選好1b,選好2を統計的に検証する.その際,統語構造や照応を表すGDAタグ\cite{GDA}を人手で付与した毎日新聞の記事1356記事から成るコーパスを用いる.表\ref{tab:examples}にコーパスに含まれる事例数と,正例・負例の頻度分布を示す.正例は,先行文脈で参照された実体$e$が次の発話$U_{i+1}$でも参照されている事例,負例は,$e$が$U_{i+1}$では参照されていない事例である.表\ref{tab:anaphors}に参照表現の種類別の頻度分布を示す.\begin{table}\begin{center}\begin{tabular}{|c|r|r|}\hline&事例数&割合\\\hline\hline正例&16728&1.6\%\\負例&1057053&98.4\%\\\hline全事例&1073781&100.0\%\\\hline\end{tabular}\end{center}\caption{全事例数と正例・負例の割合}\label{tab:examples}\begin{center}\begin{tabular}{|c|r|r|}\hline参照表現の種類&事例数&割合\\\hline\hlineゼロ代名詞&5876&35.1\%\\代名詞&843&5.0\%\\指示詞が係る名詞句&1011&6.0\%\\その他の名詞句&8998&53.8\%\\\hline計&16728&100.0\%\\\hline\end{tabular}\end{center}\caption{参照表現のタイプ別分布}\label{tab:anaphors}\end{table}ところで,文を発話単位と見なす手法では,複文における文内の照応を扱うことができない.Kameyama\citeyear{kameyama1998}は時制節を発話単位とする拡張を提案した.本稿では時制節か非時制節かの区別は行わず,1つの述語が統率する述語節を発話単位と見なして統計的検証を行った.また,Hasidaらは参照表現の効用について,参照表現が単純なほど発話者・受話者の表層的処理のコストが低く,効用が高いと仮定した.将来的には参照表現のコストの低さを計量可能な尺度として定式化する必要があるが,現段階では中心化理論と同様に代名詞と非代名詞の区別だけを考慮する.代名詞の方が非代名詞よりもコストが低いので,代名詞の効用が非代名詞の効用よりも高いと仮定する.具体的な値の設定においては,代名詞と非代名詞という2タイプのみを仮定しているので2タイプの効用の値の大小だけが問題であり,少なくとも選好1a,1bの検証は絶対値や比の設定に影響を受けない\footnote{選好2の検証は絶対値や比の設定に影響を受ける可能性がある}.本稿では,代名詞(ゼロ代名詞含む)の効用の値を2,非代名詞の効用の値を1と仮定して期待効用を計算し,検証を行う.\begin{table}[tb]\begin{center}\begin{tabular}{l}\begin{tabular}{|l|r|r|r|r|r|r|r|r|r|r|r|}\hline助詞&は&が&の&を&に&も&で&から&と\\\hline出現頻度&35329&38450&88695&50217&46058&8710&24142&7963&19383\\参照頻度&1908&1107&1755&898&569&105&267&76&129\\参照確率(\%)&5.40&2.88&1.98&1.79&1.24&1.21&1.11&0.954&0.666\\\hline\end{tabular}\\\begin{tabular}{|l|r|r|}\hline助詞&その他の助詞&助詞無し\\\hline出現頻度&512006&153197\\参照頻度&8027&1315\\参照確率(\%)&1.57&0.858\\\hline\end{tabular}\end{tabular}\end{center}\caption{助詞別の参照確率}\label{tab:gramfunc_order}\end{table}\subsection{回帰分析による参照確率の計測}ここでは,回帰分析による参照確率の計測方法として,多重ロジスティック回帰を用いる方法と,SVRを用いる方法について述べる.回帰分析に用いる説明変数には,助詞(文法役割)を表すパラメタ$gram$が含まれる.コーパス中の1356記事における出現頻度上位9助詞について,事例数を数えることで参照確率を計測した結果を表\ref{tab:gramfunc_order}に示す\footnote{幾つかの要因を統合して参照確率を求める場合にはコーパスの事例数が疎になるため回帰分析が必要になるが,文法機能のみから参照確率を求めるためには充分な事例数があるので,ここでは単に相対頻度を数えることで計測できる.}.以下に述べる多重ロジスティック回帰とSVRでは,パラメタ$gram$の値として表\ref{tab:gramfunc_order}の値を用いる.\subsubsection{多重ロジスティック回帰}多重ロジスティックモデルは,ある事象が発生する確率を$P$としたとき,その対数オッズ$log(\frac{P}{1-P})$が説明変数の線形結合式$\lambda$で表せるという仮定に基づいた回帰モデルである.\ref{sec:ref_prob}節の表\ref{tab:features}で示した3素性($dist,gram,chain$)を説明変数とする多重ロジスティック回帰式は以下のようになる.\begin{eqnarray*}P&=&(1+exp(-\lambda))^{-1}\\&=&(1+exp(-(b_0+b_1{\itdist}+b_2{\itgram}+b_3{\itchain})))^{-1}\end{eqnarray*}ただし,全$1,073,781$事例を使って多重ロジスティック回帰をするには膨大な時間がかかるため,本稿では$12,000$事例ずつサンプリングして5回の多重ロジスティック回帰を行った.多重ロジスティック回帰には統計ソフトウェアR\cite{R}を用いた.表\ref{tab:5logistic_models}は,その結果得られた5つのモデルのパラメータである.これら5つのモデルによって求まる確率の平均$$\frac{1}{5}\sum_{k=1}^5(1+exp(-(b_{k,0}+b_{k,1}{\itdist}+b_{k,2}{\itgram}+b_{k,3}{\itchain})))^{-1}$$を参照確率とした.\begin{table}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hlineモデル$k$&$b_{k,1}$&$b_{k,2}$&$b_{k,3}$&定数($b_{k,0}$)\\\hline\hline1&-0.7636&9.036&2.048&-2.825\\2&-0.7067&10.47\phantom{0}&2.270&-3.055\\3&-0.7574&6.433&2.399&-2.952\\4&-0.5911&9.170&2.129&-3.288\\5&-0.6578&4.836&2.178&-3.043\\\hline\end{tabular}\end{center}\caption{5回の多重ロジスティック回帰による5つのモデルの係数}\label{tab:5logistic_models}\end{table}\subsubsection{SVR}\ref{sec:ref_prob}節の表\ref{tab:features}で示した8素性を用い,参照確率の計測を行うためのSVRモデルを作成した.多重ロジスティック回帰の入力は0または1の値から成る事例集合であったが,SVRによって確率を外挿するためには入力を平滑化しておく必要がある.本稿では全事例から無作為に$60,000$事例を抽出し,$k=100$のk-NN法によって平滑化したのち,TinySVM\cite{tinysvm}を用いて2次多項式カーネルによるSVRを行った.\subsection{意味ゲームから導かれる選好1a,選好1bの検証}まず,\ref{subsec:rule1}節で述べた選好1aの検証として,コーパス中の同一発話中に出現する参照表現を2つずつ対にし,選好1aが成り立っているペアの比率を計測し,95\%信頼区間を求める.また,選好1bの検証として,参照表現の効用と指示対象の参照確率の相関係数を計測し,95\%信頼区間を求める.表\ref{tab:per_uttr}は1発話内の参照表現数である.選好1aの検証のために同一発話内の参照表現を2つずつ対にしたところ,914組であった.その914組のうち,代名詞と非代名詞のペアは360組であり,それ以外は同種同士のペアであった.同種の参照表現のペアにおいては効用に差が無いので,代名詞と非代名詞の参照表現対360組中で選好1aが成立している比率を計測する.また,「効用と参照確率には正の相関がある」という選好1bの検証のため,全16728照応詞の効用とその指示対象の参照確率のPearson積率相関係数を求める.それらの結果を表\ref{tab:rule1}に示す.多重ロジスティック回帰による参照確率を用いた場合は75.3\%の事例で選好1aが満たされており,選好1bにあたる相関係数は+0.373であった.SVRによる参照確率を用いた場合も74.4\%の事例で選好1aが満たされており,選好1bにあたる相関係数は+0.386であった.ペアのどちらかが一人称である場合に限定しても,それぞれ同程度の比率で選好1aが成り立っていた.\begin{table}\begin{center}\begin{tabular}{|c||r|r|r|r|}\hline1発話内の&&&参照表現の&参照表現の\\参照表現数&発話数&参照表現数&割合(\%)&ペア数\\\hline\hline0&47728&0&0.0&0\\1&14960&14960&89.4&0\\2&854&1708&10.2&854\\3&20&60&0.4&60\\\hline計&63562&16728&100.0&914\\\hline\end{tabular}\end{center}\caption{1発話内の参照表現数}\label{tab:per_uttr}\end{table}\begin{table}\begin{center}\begin{tabular}{|c|c||rr|rr|}\hline\multicolumn{2}{|c||}{}&\multicolumn{2}{|c|}{選好1a成立}&\multicolumn{2}{|c|}{選好1a不成立}\\\hline\hline多重&選好1a成立比率(360組中)&75.3\%&(271/360)&24.7\%&(89/360)\\\cline{2-6}logi-&選好1a成立比率(一人称を含まない組)&76.9\%&(227/295)&23.1\%&(68/295)\\\cline{2-6}stic&選好1a成立比率(一人称を含む組)&67.7\%&(44/65)&32.3\%&(21/65)\\\cline{2-6}&全16728事例における選好1b相関係数&\multicolumn{4}{|c|}{+0.373}\\\hline\hlineS&選好1a成立比率(360組中)&74.4\%&(268/360)&25.6\%&(92/360)\\\cline{2-6}V&選好1a成立比率(一人称を含まない組)&74.2\%&(219/295)&25.8\%&(76/295)\\\cline{2-6}R&選好1a成立比率(一人称を含む組)&75.4\%&(49/65)&24.6\%&(16/65)\\\cline{2-6}&全16728事例における選好1b相関係数&\multicolumn{4}{|c|}{+0.386}\\\hline\end{tabular}\end{center}\caption{選好1a,選好1bの検証}\label{tab:rule1}\end{table}\begin{table}\begin{center}\begin{tabular}{|c|c||c|c|}\hline\multicolumn{2}{|c||}{}&実測値&95\%信頼区間\\\hline\hline多重lo-&選好1a成立比率&0.753&[0.705,0.796]\\\cline{2-4}gistic&選好1b相関係数&0.373&[0.360,0.386]\\\hlineSVR&選好1a成立比率&0.744&[0.696,0.789]\\\cline{2-4}&選好1b相関係数&0.386&[0.373,0.399]\\\hline\end{tabular}\end{center}\caption{選好1a成立比率と選好1b相関係数の95\%信頼区間}\label{tab:confi}\end{table}\begin{table}\begin{center}\begin{tabular}{|c||c|c|}\hline&選好1b相関係数の実測値&95\%信頼区間\\\hline\hline多重logistic&0.357&[0.343,0.371]\\\hlineSVR&0.386&[0.372,0.400]\\\hline\end{tabular}\end{center}\caption{1発話内に1照応詞の場合(14960事例)に限った選好1b相関係数と95\%信頼区間}\label{tab:confi_1}\end{table}また,選好1aの成立事例の母比率を二項分布と仮定した場合の95\%信頼区間と,選好1bで予測する相関係数をt分布と仮定した場合の95\%信頼区間を表\ref{tab:confi}に示す.これは,母集団における選好1a成立比率が7割以上である確率,および選好1bで予測する正の相関係数が0.343以上である確率が97.5\%であることを表している.これにより,表\ref{tab:rule1}の2つの回帰手法による参照確率の双方において,意味ゲームから導かれた選好1a,選好1bは有意であることが示せた.\subsubsection{中心化理論のルール1と意味ゲームから導かれた選好1bの適用範囲の比較}中心化理論のルール1が意味を持つのは,1つの発話が複数の参照表現を含む場合である\footnote{1つの発話が1つの参照表現しか含まない場合,その参照表現がCbを指すことはCbの定義から明らかなので,ルール1は何も言っていないに等しい.}.それに対して,意味ゲームから導かれる選好1bは指示対象の参照確率と参照表現の効用との正の相関関係を予測し,その適用範囲は1つの発話内に参照表現が1つしかない場合も含む.よって,選好1bの方がルール1よりも一般的である.さらに,表\ref{tab:confi_1}は,1つの発話内に1参照表現の事例に限っても正の相関があることを示している.すなわち,意味ゲームの予測は中心化理論が及ばない範囲においても成立する.\subsubsection{従来の日本語Cfランキングの妥当性}意味ゲームから導かれる選好1a,1bの予測能力の良さは,顕現性と効用との相関の高さに帰着できる.従来のCfランキングは文法機能のみに基づく顕現性の順序であるので,文法機能のみに基づいて相関を最大化するように設定した顕現性の順序と比較することで従来のCfランキングの妥当性を検討する.各助詞の出現を説明変数とし,効用(代名詞:2,非代名詞:1)を目的変数とする単回帰分析を行った.相関を最大化する顕現性としてこの回帰係数を用いることができる.表\ref{tab:only_gram}に示す単回帰分析の結果では,直接目的語(ヲ格)$>$間接目的語(ニ格)という順序が観測される.しかし,Walkerら\citeyear{walker1994}による従来の日本語Cfランキングは,間接目的語$>$直接目的語という順序を含む点において,誤りと考えられる.また表\ref{tab:confi}より,他の要因も統合した参照確率としての顕現性を用いたモデルの相関係数は,表\ref{tab:only_gram}の相関係数よりも更に高い.このモデルが前提としている文法役割に対応する参照確率(表\ref{tab:gramfunc_order})でも,やはり直接目的語(ヲ格)$>$間接目的語(ニ格)という順序が観測された.この意味でも,従来の日本語Cfランキングの妥当性は低いと言えるだろうただし,直接目的語$>$間接目的語という順序が本研究に用いたコーパスに特有である可能性も否定できない.他の種類のコーパスに関する調査は今後の課題である.\begin{table}\begin{center}\begin{tabular}{l}\begin{tabular}{|c||r|r|r|r|r|r|r|r|r|}\hline助詞&は&も&が&から&を&と&に&の&で\\\hline回帰係数&5.46&5.37&5.27&5.14&5.12&5.05&5.05&5.04&4.98\\\hline切片&\multicolumn{9}{|c|}{-3.86}\\\hline\end{tabular}\\効用との相関係数:+0.248\\\end{tabular}\end{center}\caption{文法機能(助詞)のみによる顕現性}\label{tab:only_gram}\end{table}\subsection{意味ゲームから導かれる選好2の検証}\begin{table}\begin{center}\begin{tabular}{|c||rr|rr|rr|rr|}\hline&\multicolumn{2}{|c|}{Continue}&\multicolumn{2}{|c|}{Retain}&\multicolumn{2}{|c|}{Smooth-Shift}&\multicolumn{2}{|c|}{Rough-Shift}\\\hline\hlineゼロ代名詞&56.0\%&(1315/2347)&1.7\%&(41/2347)&38.3\%&(898/2347)&4.0\%&(93/2347)\\代名詞&43.6\%&(102/234)&2.1\%&(5/234)&50.9\%&(119/234)&3.4\%&(8/234)\\\hline代名詞計&54.9\%&(1417/2581)&1.8\%&(46/2581)&39.4\%&(1017/2581)&3.9\%&(101/2581)\\\hline\hline定名詞句&20.9\%&(56/268)&3.0\%&(8/268)&64.2\%&(172/268)&11.9\%&(32/268)\\一般名詞句&20.0\%&(522/2611)&1.8\%&(48/2611)&67.4\%&(1761/2611)&10.7\%&(280/2611)\\\hline非代名詞計&20.1\%&(578/2879)&1.9\%&(56/2879)&67.1\%&(1933/2879)&10.8\%&(312/2879)\\\hline\hline合計&36.5\%&(1995/5460)&1.9\%&(102/5460)&54.0\%&(2950/5460)&7.6\%&(413/5460)\\\hline\end{tabular}\end{center}\caption{本稿のデータ(新聞記事)による中心遷移の分布}\label{tab:tran}\end{table}\begin{table}\begin{center}\begin{tabular}{|c||rr|rr|rr|rr|}\hline&\multicolumn{2}{|c|}{Continue}&\multicolumn{2}{|c|}{Retain}&\multicolumn{2}{|c|}{Smooth-Shift}&\multicolumn{2}{|c|}{Rough-Shift}\\\hline\hlineゼロ代名詞&55.9\%&(76/136)&2.2\%&(3/136)&25.0\%&(34/136)&16.9\%&(23/136)\\\hlineゼロ代名詞以外&7.8\%&(7/90)&43.3\%&(39/90)&10.0\%&(9/90)&38.9\%&(35/90)\\\hline\hline合計&36.7\%&(83/226)&18.6\%&(42/226)&19.0\%&(43/226)&25.7\%&(58/226)\\\hline\end{tabular}\end{center}\caption{Iidaのデータ(新聞記事)による中心遷移の分布}\label{tab:iida_tran}\end{table}\begin{table}\begin{center}\begin{tabular}{|c||rr|rr|rr|rr|}\hline&\multicolumn{2}{|c|}{Continue}&\multicolumn{2}{|c|}{Retain}&\multicolumn{2}{|c|}{Smooth-Shift}&\multicolumn{2}{|c|}{Rough-Shift}\\\hline\hlineゼロ代名詞&47.3\%&(43/91)&4.4\%&(4/91)&30.8\%&(28/91)&17.6\%&(16/91)\\\hline\end{tabular}\end{center}\caption{竹井のデータ(小説)による中心遷移の分布}\label{tab:takei_tran}\end{table}\begin{table}\begin{center}\begin{tabular}{|l||r|r|r|}\hlineTransition&事例数&期待効用の平均&期待効用の分散\\\hline\hlineContinue&1995&0.874&0.361\phantom{0}\\Retain&102&0.473&0.242\phantom{0}\\Smooth-Shift&2950&0.287&0.175\phantom{0}\\Rough-Shift&413&0.109&0.0336\\\hline\end{tabular}\\Transition(cont.:4,ret.:3,s.s.:2,r.s.:1)と期待効用の相関係数:+0.520\\\end{center}\caption{中心遷移タイプ毎の期待効用の平均と分散}\label{tab:tran_exputil}\end{table}\ref{subsec:rule2}節で述べた,意味ゲームに基づく選好2の検証を行う.まず,表\ref{tab:tran}は,コーパスから計測した多重ロジスティック回帰による参照確率を顕現性と見なした場合の中心遷移の頻度分布を示している.比較のため,表\ref{tab:iida_tran}にIida\citeyear{iida1996}による中心遷移分布データと,表\ref{tab:takei_tran}に竹井ら\citeyear{takei2000}による中心遷移分布データを示す.いずれのデータによる頻度分布も,ContinueとSmooth-Shiftへの偏りが顕著である.しかし,頻度分布の順序が選好順序と一致するとは必ずしも言えない.何故なら,各事例において4種類の遷移がすべて選択可能とは限らないためである\cite{kibble2001}.そこで,頻度分布ではなく,期待効用の値によってルール2の順序を検証する.すなわち,遷移の種類毎に期待効用の平均値を計測し,その順序がルール2の順序と合致するか否かを検証する.表\ref{tab:tran_exputil}は,遷移の種類毎の期待効用の平均と分散を表している.期待効用の平均値はContinue$>$Retain$>$Smooth-Shift$>$Rough-Shiftとなっており,従来研究における選好順序と合致する結果となった.また,4種類の遷移の期待効用の平均値の多重比較を行った.表\ref{tab:kruskal}に,R\cite{R}を用いてKruskal-Wallisの検定を行った結果を示す.これにより,4種類の遷移の期待効用の平均値には有意差があることを示した.表\ref{tab:wilcoxon}に,Rを用いてHolmの方法で調整したWilcoxonの順位和検定を多重実行した結果を示す.これにより,4種類の遷移の期待効用値の順序が有意であること,すなわちルール2の順序と合致するという結果が統計的に有意であることがわかる.\begin{table}\begin{center}\begin{tabular}{|r|r|r|}\hline$\chi^2$値&自由度&有意確率\\\hline\hline1780.7&3&$<2.2\times10^{-16}$\\\hline\end{tabular}\end{center}\caption{Kruskal-Wallisの検定}\label{tab:kruskal}\end{table}\begin{table}\begin{center}\begin{tabular}{|rcl|c|}\hline\multicolumn{3}{|c|}{比較するタイプ}&有意確率\\\hline\hlineContinue&:&Retain&$5.89\times10^{-13}$\\Continue&:&Smooth-Shift&$<2.2\times10^{-16}$\\Continue&:&Rough-Shift&$<2.2\times10^{-16}$\\Retain&:&Smooth-Shift&$1.64\times10^{-6}$\\Retain&:&Rough-Shift&$<2.2\times10^{-16}$\\Smooth-Shift&:&Rough-Shift&$<2.2\times10^{-16}$\\\hline\end{tabular}\end{center}\caption{Holmの方法で調整したWilcoxonの順位和検定の多重実行}\label{tab:wilcoxon}\end{table} \section{考察} label{discuss}\subsection{参照確率としての顕現性の効果}参照確率によって顕現性を定式化することにより,\ref{sec:centering}節で述べた顕現性に関する問題点を以下のように解消した.\begin{itemize}\item[A]客観的に計測可能になり,実言語データに基づく統計的検証ができるようになった.\item[B]多重回帰が可能な回帰アルゴリズムを用いることにより,顕現性を決定する要因となる複数の素性(説明変数)の統合がヒューリスティックな手法よりも容易になった.\item[C]直前の発話だけでなく,先行文脈全ての実体を扱えるようになった.\end{itemize}\subsection{選好1aが成り立たない場合}本稿では,意味ゲームから導いた選好1a,選好1bをコーパスを用いて検証し,統計的に有意であることを示した.選好1aが成り立っていた事例は多重ロジスティック回帰で75.3\%,SVRで74.4\%であったが,ここでは選好1aが成り立たない事例について考察する.多重ロジスティック回帰で用いた3素性から成るモデルと,SVRで用いた8素性から成るモデルには,選択制限や常識的知識などの意味的な素性は含まれていない.選好1aが成り立っていなかった事例は,多重ロジスティック回帰で24.7\%,SVRで25.6\%であったが,これらの事例はモデルに含まれていない要素の作用によって選好が覆されていると考えられる.つまり,選択制限などの素性をモデルに取り込めば,より強い選好となることが予想される.以下に,選好1aが覆されていた具体例を示す.\begin{breakbox}{\small政府は二日、...政策の骨格を固めた。柱の一つでもあり、米国が強く求めている減税は、来年度以降も今年度に近い規模の所得・住民税減税を恒久的に実施する意向を($\phi$ガ)表明した。}\end{breakbox}\begin{center}{\small\begin{tabular}{|c|c|c|}\cline{1-1}\cline{3-3}$\phi$&\phantom{0000}&減税\\\cline{1-1}\cline{3-3}減税&&政府\\\cline{1-1}\cline{3-3}\multicolumn{1}{c}{}&&米国\\\cline{3-3}\multicolumn{1}{c}{}&&日本\\\cline{3-3}\multicolumn{1}{c}{}&\multicolumn{1}{c}{}&\multicolumn{1}{c}{\vdots}\\\end{tabular}\begin{picture}(0,0)\put(-63,15){\line(12,5){30}}\put(-63,28){\line(12,-5){30}}\end{picture}}\end{center}上記事例では,意味的な制約が含まれていない本稿のモデルによればPareto最適解は$\{\phi\leftarrow減税,減税\leftarrow政府\}$であるが,実際の正解は意味的な制約によって覆されている.\begin{breakbox}{\small同事務所に十日、「国産米があったのでレジに持っていくと一万八千円と言われびっくりした。($\phi_1$ノ)売り場に表示もなかった」という主婦からの通報があり、十一日に同店を($\phi_2$ガ)調査。}\end{breakbox}\begin{center}{\small\begin{tabular}{|c|c|c|}\cline{1-1}\cline{3-3}$\phi_2$&\phantom{0000}&大阪のスーパー\\\cline{1-1}\cline{3-3}同店&&食糧庁\\\cline{1-1}\cline{3-3}\multicolumn{1}{c}{}&&表示\\\cline{3-3}\multicolumn{1}{c}{}&\multicolumn{1}{c}{}&\multicolumn{1}{c}{\vdots}\\\cline{3-3}\multicolumn{1}{c}{}&&食糧庁大阪食糧事務所\\\cline{3-3}\multicolumn{1}{c}{}&\multicolumn{1}{c}{}&\multicolumn{1}{c}{\vdots}\\\end{tabular}\begin{picture}(0,0)\put(-132,24){\line(12,5){30}}\put(-132,37){\line(4,-7){30}}\end{picture}}\end{center}上記事例では,意味的な制約が含まれていない本稿のモデルによればPareto最適解は$\{\phi_2\leftarrow大阪のスーパー,同店\leftarrow食糧庁\}$であるが,実際の正解は文脈的知識や常識などの意味的な制約によって覆されている.以上のように,選好1aが満たされていなかった事例においては,本稿で用いたモデルに含まれていない意味的・言語外的な制約が働いて選好が覆されていた.よって,語の意味的な近さや選択制限などの意味的な制約をモデルに追加することにより,選好1a,選好1bはより強い選好になるであろうと予想される.また,本稿では代名詞・非代名詞という区別に基づいて参照表現の効用を決定したが,顕現性の定義と同様に,参照表現の効用も客観的に計測可能な尺度として定義することが望ましい.これについては今後の課題とする.\subsection{選好2の検証の厳密性}本稿では選好2の検証として,実際のコーパスにおける4種類の遷移の期待効用の平均が中心化理論における選好順序と合致していることを示し,分散検定によってこの結果が統計的に有意であることを示した.本稿で示した全体の傾向における順序は,ルール2を意味ゲームに帰着できることを示唆している.ただし,この検証によって示したのは全体の傾向における順序であり,各事例における解候補間の順序ではないため,より厳密には各事例における解候補間で期待効用の順序が付けられることを示す必要がある. \section{おわりに} 中心化理論は広く論じられている照応の理論であるが,照応現象の基本原理の解明には至っておらず,また理論において重要な役割を担う顕現性の意味が不明確だという問題点がある.本稿では,照応現象の背後にある基本原理はゲーム理論によって捉えることができるという観点に立ち,顕現性を参照確率として定式化することにより,意味ゲームから中心化理論のルール1,2に相当する選好を導出できることを説明し,この選好の妥当性を以下のように実言語データに基づいて検証した.まず,意味ゲームから導出したルール1,2に対応する選好をコーパスを用いて統計的に検証した.ルール1に対応する選好1bについては,指示対象の参照確率と参照表現の効用との正の相関を観測した.これに関連して、従来提案されてきた日本語のCfランキングは参照確率の順序と異なり,誤りであることがわかった.さらに,ルール1は1つの発話に複数の参照表現を含む場合にのみ意味を持つが,意味ゲームから導いた選好1bが予測する相関関係は1発話に1参照表現しか含まない場合においても成り立つことを示した.つまり,意味ゲームはルール1よりも強い予測を導く.ルール2に対応する選好2の検証としては,期待効用の順序がルール2の順序と合致することを観測した.以上より,意味ゲームは基本原理の明確さおよび予測能力の強さゆえに中心化理論よりも優れた作業仮説である.ゆえに,中心化理論のような領域に依存した理論は,照応現象に関しては不要と考えられる.\acknowledgment有意義なコメントを頂いた査読者の皆様,本研究を進めるにあたってコメントや励ましのお言葉を頂いた旧サイバーアシスト研究センターの皆様に感謝致します.またGDAコーパス作成に携わった方々に深謝致します.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Hasida}{Hasida}{1996}]{hasida1996}Hasida,K.\BBOP1996\BBCP.\newblock\BBOQIssuesinCommunicationGame\BBCQ\\newblockIn{\BemProceedingsofCOLING'96},\BPGS\531--536.\bibitem[\protect\BCAY{Hasida}{Hasida}{1998}]{GDA}Hasida,K.\BBOP1998\BBCP.\newblock\JBOQ大域文書修飾GlobalDocumentAnnotation(GDA)\JBCQ\\newblockhttp:{\slash}{\slash}i-content.org{\slash}gda/.\bibitem[\protect\BCAY{Hasida,Nagao,\BBA\Miyata}{Hasidaet~al.}{1995}]{hasida1995}Hasida,K.,Nagao,K.,\BBA\Miyata,T.\BBOP1995\BBCP.\newblock\BBOQAGame-TheoreticAccountofCollaborationinCommunication\BBCQ\\newblockIn{\BemProceedingsoftheFirstInternationalConferenceonMulti-AgentSystems}.\bibitem[\protect\BCAY{Iida}{Iida}{1997}]{iida1996}Iida,M.\BBOP1997\BBCP.\newblock\BBOQDiscourseCoherenceandShiftingCentersinJapaneseTexts\BBCQ\\newblockInWalker,M.,Joshi,A.,\BBA\Prince,E.\BEDS,{\BemCenteringTheoryinDiscourse},\BPGS\161--180.OxfordUniversityPress.\bibitem[\protect\BCAY{Kameyama}{Kameyama}{1998}]{kameyama1998}Kameyama,M.\BBOP1998\BBCP.\newblock\BBOQIntrasententialCentering:ACaseStudy\BBCQ\\newblockInWalker,M.,Joshi,A.,\BBA\Prince,E.\BEDS,{\BemCenteringTheoryinDiscourse},\BPGS\89--112.OxfordUniversityPress.\bibitem[\protect\BCAY{Kibble}{Kibble}{2001}]{kibble2001}Kibble,R.\BBOP2001\BBCP.\newblock\BBOQAReformulationofRule2ofCenteringTheory\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf27}(4).\bibitem[\protect\BCAY{Kibble}{Kibble}{2003}]{kibble2003}Kibble,R.\BBOP2003\BBCP.\newblock\BBOQTowardstheEliminationofCenteringTheory\BBCQ\\newblockInKruijff-Korbayova,I.\BBACOMMA\\BBA\Kosny,C.\BEDS,{\BemProceedingsofthe7thWorkshopontheSemanticsandPragmaticsofDialogue},\BPGS\51--58.\bibitem[\protect\BCAY{Kudoh}{Kudoh}{2002}]{tinysvm}Kudoh,T.\BBOP2002\BBCP.\newblock\BBOQTinySVM:SupportVectorMachines\BBCQ\\newblockhttp://chasen.org{\slash}~taku{\slash}software{\slash}TinySVM/.\bibitem[\protect\BCAY{Nariyama}{Nariyama}{2001}]{nariyama2001}Nariyama,S.\BBOP2001\BBCP.\newblock\BBOQMultipleargumentellipsesresolutioninJapanese\BBCQ\\newblock{\BemInProceedingsofMachineTranslationSummitVIII},241--245.\newblockSpain.\bibitem[\protect\BCAY{R-Project}{R-Project}{2004}]{R}R-Project\BBOP2004\BBCP.\newblock\BBOQTheRProjectforStatisticalComputing\BBCQ\\newblockhttp://www.r-project.org/.\bibitem[\protect\BCAY{Reed}{Reed}{2002}]{reed2002}Reed,C.\BBOP2002\BBCP.\newblock\BBOQSaliencyandtheAttentionalStateinNaturalLanguageGeneration\BBCQ.\newblock\BPGS\440--444\Lyon,France.\bibitem[\protect\BCAY{Strube\BBA\Hahn}{Strube\BBA\Hahn}{1999}]{strube1999}Strube,M.\BBACOMMA\\BBA\Hahn,U.\BBOP1999\BBCP.\newblock\BBOQFunctionalCentering:GroundingReferentialCoherenceinInformationStructure\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf25(3)},309--344.\bibitem[\protect\BCAY{竹井光子,高田美佳,相沢輝昭}{竹井光子\Jetal}{2000}]{takei2000}竹井光子,高田美佳,相沢輝昭\BBOP2000\BBCP.\newblock\JBOQ日本語ゼロ代名詞補完のためのグローバルトピックの役割\JBCQ\\newblock\Jem{情報処理学会研究報告},{\Bbf135}(10),71--78.\bibitem[\protect\BCAY{vanRooy}{vanRooy}{2003}]{rooy2003}vanRooy,R.\BBOP2003\BBCP.\newblock\BBOQRelevanceandBidirectionalOT\BBCQ\\newblockInBlutner,R.\BBACOMMA\\BBA\Zeevat,H.\BEDS,{\BemPragmaticsinOptimalityTheory},\BPGS\173--210.PalgraveMacmillan.\bibitem[\protect\BCAY{Walker,Iida,\BBA\Cotes}{Walkeret~al.}{1994}]{walker1994}Walker,M.,Iida,M.,\BBA\Cotes,S.\BBOP1994\BBCP.\newblock\BBOQJapaneseDiscourseandtheProcessofCentering\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf20}(2).\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{白松俊(非会員)}{2000年東京理科大学理工学部情報科学科卒業.2003年同大学院修士課程修了.同年,科学技術振興機構CREST研究補助員.GDAコーパスを用いた照応研究に従事.2005年,京都大学大学院博士後期課程入学.}\bioauthor{宮田高志(正会員)}{1991年東京大学理学部情報科学科卒業.1996年同大学院博士課程修了.理学博士.同年,奈良先端科学技術大学院大学情報科学研究科助手,2001年より科学技術振興機構CREST研究員,情報検索・構文解析の研究に従事.}\bioauthor{奥乃博(非会員)}{1972年東京大学教養学部基礎学科卒業.博士(工学).NTT,JST,東京理科大学を経て,現在,京都大学情報学研究科教授.音環境理解・ロボット聴覚研究に従事.1990年度人工知能学会論文賞,平成14年度船井情報科学振興賞等受賞.IPSJ,JSAI,JSSST,RSJ,ACM,IEEE等会員.}\bioauthor{橋田浩一(正会員)}{1981年東京大学理学部情報科学科卒業.1986年同大学院博士課程修了.理学博士.同年,電子技術総合研究所入所,現在,産業技術総合研究所情報技術研究部門副研究部門長.知的コンテンツの研究開発に従事.}\end{biography}\end{document}
V15N05-03
\section{はじめに} label{hajime}インターネットの拡大により大量の文書情報が入手可能となった現在において,ユーザが自分の望む情報を手早く手に入れるための要素技術として要約が重要となってきている.近年の自動要約の研究では新聞記事や論説文,議事録,特許文書を対象とするものが多い.こうした文書は論理的な構造を持つため,その文書構造を利用した要約手法が提案され,一定の成果が上げられている\cite{yamamoto1995,hatayama2002}.一方で,より多くの人がインターネットを使うようになり,Web上で多くの文芸作品が公開され,自由に読むことができるようになった.さらに,著作権の切れた文学作品を電子テキスト化し公開している青空文庫\footnote{http://www.aozora.gr.jp}のようなインターネット電子図書館も存在している.こうした背景から電子化された多くの文学作品や物語から好みに応じた,読みたい作品を探す手段としての要約(指示的要約)の必要性があると考えられる.また,近年``あらすじ本''と呼ばれる複数の文学作品のあらすじをまとめて紹介している本が出版されていることから,その内容を簡潔にまとめた原文書の代わりとして機能する要約(報知的要約)まで必要とされていることが伺える.物語の指示的要約には結末を含まず,物語の展開においてある程度重要な箇所を含んでいることが必要とされる.これに対して,重要な箇所の推定は物語全体の構成を把握することが必要である.よって本研究では物語に対して報知的要約を作成する手法の構築を目標とする.これにより同時に指示的要約もカバーすることができると考える.物語は登場人物が遭遇した出来事と登場人物の行動の描写で構成されている.出来事は基本的に時系列順に記述されるため,論説文に見られるような,主張する事柄を中心としてその前後に根拠や前提を配置するといった論理的な構成はほとんど存在しない.さらに,論説文では著者の主張が述べられている箇所が重要であるとされ,“〜する必要がある”や“〜すべきである”といった文末表現を手がかり語として要約作成に利用することができる.しかし,物語ではどの箇所が重要であるかは全体の流れや他の箇所との関係から決定されるため,そのような手がかり語を定義することができない.従って,新聞記事や論説文を対象としているような要約手法では物語の要約に適応しないと考えられる.また,新聞記事の要約では背景となる前提知識を読者が保有しているために文章の繋がりが悪くてもある程度は推測によって補完することができるため,要約中に記事中の重要文がいくつか存在すれば要約として機能する.これに対して物語では背景となる前提知識は物語固有であることが多いため,その要約は対象とする物語の重要な要素を含むだけでなく要約中の整合性まで考慮しなければ要約として十分に機能することができない.整合性とは文書の意味的なまとまりの良さのことであり,本稿では話題間の繋がりの良さのことを示す.本研究では話題の繋がりに焦点を置いた物語要約システムを構築する.物語は登場人物の行動を中心に展開していくことから,まず登場人物を自動抽出して,それを軸に話題にまとまりのある重要箇所(\ref{method}章参照)を取り出す.さらに重要箇所間の繋がりを補完し読みやすさを向上させるために,局所的重要度を測定し重要箇所間の連結を考慮した文抽出を提案する.本手法を評価するために物語9作品を用いた複数人による人手の要約評価を行い,ベースラインとしてtf$\cdot$idfを利用した重要文抽出手法との比較を行う. \section{関連研究} label{related}自動要約の主な手法の一つに重要文抽出がある.これはテキスト中の文に対して重要度を計算し,その上位から要約率分だけ抽出するという手法である.重要度の計算にはtf$\cdot$idfを用いる手法\cite{hirao2001}や,単語の共起を利用する手法\cite{sunayama2000}などがある.これらの手法においては重要度は文そのものにしか着目しておらず,抽出された文同士の関係については考慮されていない.そのため生成された要約には以下のような問題が生じる\cite{okumura}.\begin{enumerate}\item要約文に代名詞が含まれていても,その先行詞が要約中に存在しない場合がある.\item全体を通して首尾一貫性に欠ける要約が生成される可能性がある.\end{enumerate}1.の問題に対しては照応解析を行い,代名詞をその先行詞に置換するなどといった対応で解消できる.2.の問題は生成された要約の読みやすさにも関係している.読みやすい要約の作成は自動要約の研究において大きな課題であり,様々な研究が行われている.話題の繋がりを考慮した先行研究も存在する.市丸ら\cite{itimaru2005}は文中で共起する単語を話題と定義し,その連想による文間,段落間の繋がりに着目した手法を,館林ら\cite{tatebayasi2006}はテキストをセグメントに分割し,そのセグメント内での重要性とセグメント間の結束性に関する重要性を同時に考慮した要約手法を提案し,それぞれ一定の成果を上げている.要約全体のまとまりを考慮しているという点では,本研究はこれらの研究と関連があるが,より物語に即しており,単語の共起ではなく登場人物とその行動に着目しているという点で異なっている.自動要約を含め現在行われている言語処理の研究では新聞記事や論説文を対象としているものが多いが,物語を対象とした研究も行われている.物語の構造に関する研究として,石井ら\cite{isii2006}は登場人物に着目した事象をネットワークで繋ぐことによる構造化を,馬場ら\cite{baba2007}は物語テキストの柔軟な検索のために人物に着目したモデル化を行っている.また,小林\cite{kobayashi2007}は場所,時間,登場人物に着目した場面境界の認定手法を提案している.一方,物語を対象とした要約の研究に関して,Kazantseva~\cite{Anna}は短編小説の指示的な要約の作成を目的としたSVMによる重要文抽出を行っている.また,横野\cite{yokono2007}は登場人物の感情表現に着目した文抽出による要約を,村上ら\cite{murakami2004}は命題間の関係に着目した要約手法を,山本ら\cite{syousetu}は隣接文間の結束性に基づいた提案している.他にも,物語の登場人物に着目した手法としてLehnertの提案したplotunitによるものがある\cite{plotunit}.これは物語の構造の中心は登場人物の感情的な反応と感情の状態,それらの因果関係にあるという考えに基づいている.この要約手法では物語中の出来事に対して登場人物が良い感情を抱いたか悪い感情を抱いたかという情報を付与し,それらを組み合わせて物語の構造を組み立て,要約を作成する.しかし,実現に関しては出来事に対して登場人物がどのような感情を抱いたかと推定することは困難である.本研究は物語の登場人物に着目するという点ではLehnertと同様であるが,行動から登場人物の感情を推測するといった深い意味処理は行わない.また,整合性に焦点を当てているという点で他の物語の自動要約手法とは異なっている. \section{整合性を考慮した要約文の抽出} label{method}\ref{hajime}章で述べたように整合性とは意味的な文書のまとまりの良さのことであり,これを実現するためには適切に話題間の繋がりを扱うことが重要であると考える.ここで話題とは同じ対象について述べている一つのまとまりのことである.物語では時間の経過や舞台となる場所の移動によって区切られる場面という大きなまとまりが考えられるが,本稿では話題を場面よりも小さな単位と捉え,一つの場面は複数の話題から構成されていると考える.本稿で提案する手法の流れを図\ref{flow}に示す.\begin{figure}[b]\begin{center}\includegraphics{15-5ia3f1.eps}\end{center}\caption{提案手法の流れ}\label{flow}\end{figure}提案手法は要約生成のための3つの手順と,その手順において利用する人物辞書を構築するための登場人物抽出で構成される.登場人物抽出では人物辞書の他に未知語として出現した登場人物表現を登録した形態素辞書を作成する.この形態素辞書は要約生成の各手順で行う処理に利用する.要約生成に関する手順について説明する.まず一つ目は物語中にいくつか存在する場面内において話題が一貫した箇所(以降{\bfトピック・ブロック}と呼ぶ)があると仮定して,トピック・ブロック抽出を行う.文を単位とする既存の要約手法では文間の関係が考慮されず,そのために一連の事象が複数の文に渡って記述されている場合に正しく要約を抽出することができない.よってトピック・ブロックの導入により話題が一貫した単位を要約の最小単位として,不用意に話題を切断しないことが期待できる.二つ目としてトピック・ブロックから要約に必要となる重要なトピック・ブロック(以降{\bf重要ブロック}と呼ぶ)を選択するために,登場人物辞書を用いて登場人物を軸とした重要度を提案する.これは登場人物が物語のストーリーの理解に重要な要素である\cite{brian1981}という観点から,トピック・ブロック中に登場人物の活動が記述されている文があるものを重要とする.三つ目として重要箇所として取り出されたトピック・ブロック間の話題の整合性を補完するための文(以降{\bfブロック連結文}と呼ぶ)を抽出する.これは重要箇所の抽出というタスクは取り出した文の整合性やまとまりを求めるというタスクと直交していることが原因であり,重要ブロックのみを取り出しても,ブロック間に不整合が生じるためである.この処理は文を単位として行う.これは不整合の解消には場面の切り替えや主人公の移動などの話題間の繋がりを示唆する文が物語には存在するはずで,それらは大抵1文単位で記述されていることが期待できるからである(図\ref{segments}).\begin{figure}[b]\begin{center}\includegraphics{15-5ia3f2.eps}\end{center}\caption{重要ブロックとブロック連結文}\label{segments}\end{figure}生成する要約の要約率と重要ブロックとブロック連結文の割合はパラメータとして人手で設定する.重要ブロックの割合を大きくすれば物語に重要な文を多く含む要約を生成し,逆にブロック連結文の割合を大きくすれば,整合性のある要約を生成する.次の\ref{extract}節で登場人物抽出について述べた後,\ref{topic}節でトピック・ブロック抽出について述べる.\ref{select}節で重要ブロック抽出について説明し,\ref{connectsentence}節でブロック連結文の抽出について説明する.\subsection{登場人物抽出}\label{extract}登場人物を抽出するというタスクにおける問題は以下の2点である.\begin{list}{}{}\item[(a).]登場人物はその物語に固有の表現であるものが多く,それらは単語として一般的な辞書に登録されていない.\item[(b).](a)と関連しているが『さるかに合戦』に登場する``うす''のように人名でないものが人物化することがある.\end{list}従って,登場人物の抽出に際して人名辞書などの既存の辞書に頼った方法では抽出漏れが生じてしまう.そこで本研究では物語文から次の2段階の手法で登場人物を推定する.\begin{enumerate}\item文字列中から登場人物候補を文字種情報と形態素情報を利用して獲得し,辞書登録を行う.\item登録した辞書を用いた係り受け解析器で文を解析し,登場人物候補の単語の係り先の動詞の意味から人物表現を同定する.\end{enumerate}馬場ら\cite{baba2007}は形態素解析で得られた品詞情報を利用した人物抽出の手法を採用している.また網羅性の向上のために人名辞典から人名を収集し形態素辞書に登録している.この手法は対象とする物語のジャンルを限定すれば有効である.これに対して本研究では対象のジャンルを限定しない.そのため,辞書を利用した手法ではなく,物語における登場人物表現の出現の仕方に着目した手法を提案する.上記の2段階の手法について具体的に記述する.まず物語文から登場人物候補を取り出すために文字n-gramを利用して頻度の高い部分文字列を獲得する.n-gramの単位を形態素ではなく文字にしている理由は,登場人物表現が辞書に登録されていないために生じる形態素解析誤りの影響を抑えるためである.これによって例えば『さるかに合戦』で``〜とこがには〜''などの表記から``こがに''という正しい候補を獲得することができる.次に,得られた部分文字列に対してMeCab\footnote{http://mecab.sourceforge.net}による形態素解析を行ってから,以下のフィルタリングを行い残ったものを登場人物候補としてMeCabの辞書に登録する.\begin{itemize}\item平仮名,カタカナの小文字から始まっていない\item句読点,カギ括弧,``!'',``?''を含まない\item文字列中に接続詞,連体詞,代名詞を含まない\item複数の形態素で構成されている\item文章中に``は''を接続した形で出現する\end{itemize}上記のルールにより,単語としてあり得ない文字列や,例えば``そして杜子春'',``杜子春は''などのように人物表現の周辺でよく使われる表現を含んだ文字列を人物候補から削除できる.フィルタリングで残った候補に対して,同頻度で出現したn-gram文字列で他の文字列の部分文字列であるような候補は削除し,残った候補をMeCabの辞書に``名詞,固有名詞,一般''として追加する.これにより既に形態素辞書に登録されてある人物候補と同様に物語固有の人物表現を扱うことができる.ここで作成した形態素辞書は以降で説明する要約生成に関する処理にも利用する.ここで登場人物が現れる際の文の特徴について考える.登場人物は物語において重要な役割を担っているため,主題として取り上げられることが多い\cite{danwabunseki}.また,登場人物は意志を持つものであるため,意志性のある動作を記述している文の動作主として現れることが多い.意志性のある動作とはその動作の実現に対して動作主が能動的に関与しているとみなせる動作のことである.この傾向を利用して,文中の名詞が登場人物として出現しているかどうかを推定する.具体的には物語の地の文に対して,更新した辞書を用いたCaboCha\footnote{http://www.chasen.org/\~{}taku/software/cabocha/}による係り受け解析を行い,主題化する機能を持つ副助詞``は''を後接して複数回出現する名詞で,その文の述部となる動詞に一つでも意志性のある動作を示すものがあれば,その名詞を登場人物と推定する.意志性のある動作を示す動詞の判定には日本語和語動詞LCS\cite{ecs}を利用した.これは日本語和語動詞を中心に約1000個の動詞に関してその語彙概念構造を記述を試みたものであり,実際にLCSが付与されている延べ742項目の動詞を利用した\footnote{意志性のある動詞として,例えば``話す'',``押す'',``立つ''などがあった.}.『風の又三郎』に対する人物抽出の例を付録\ref{humanexample}に示す.人物抽出の精度を計るために\ref{eval}章の評価実験で用いた物語9編を使用した予備実験を行った.複数の被験者に登場人物を列挙してもらい,そのうち過半数の被験者が登場人物と認定したものを正解とした.部分文字列を獲得する際のnの範囲は2〜10とし,出現頻度が2以上の部分文字列のみを対象とした.実験の結果,平均の再現率は0.74,適合率は0.68となった.人手で作成した正解の例と実験の詳細な結果を付録\ref{humexp}に示す.\subsection{トピック・ブロックの抽出}\label{topic}物語文に対して話題がある程度まとまった範囲で出現する部分を仮定しトピック・ブロックとして抽出する.ある文書の話題は何か,そしてその話題の切れ目はどこかという課題は大変難しい問題であり,例えば単語の共起と単語の重要度を利用した手法\cite{hirao2000}や,語の反復距離を使用した手法\cite{nakano2006}などが提案されているが決定的な手法はまだ確立していない.本稿では作者が記した1文の表現に着目し,1文単位の主題を仮定してそれが連続する文をまとめることでトピック・ブロックを作成する.厳密な連続でトピック・ブロックを作成すると,小さなトピック・ブロックが多く作られ,本来は1つのまとまりであるべき箇所が過分割される可能性がある.これを防ぐため,ウィンドウ幅を設定し,その中での連続を見る.本稿ではこのウィンドウ幅を前2文とした.従って,別の主題の文を間に挟んで同じ主題を持つ文は同じトピック・ブロックに属する.1文の主題とは文中に出てきた単語で表現するならば主語が有力な候補であり,特に副助詞``は''は主語を取り上げて主題化する機能を有している.そこで副助詞``は''が後接する名詞を1文の主題と見なし,ない場合は助詞``が''が後接する名詞を主題とする.ただし,``今日は'',``このごろは''など``は''と接続して副詞的な働きを持つ名詞は主題とは考えにくいので,MeCabを利用して副詞可能となる名詞は排除する.また,主題は省略されやすく,同じ主題が連続する場合は後に続く文において明示的に現れないことが多い\cite{nariyama2002}.従って,文中に助詞``は''と``が''がない場合は,それが省略されているとみなし前文における主題をその文の主題とする.助詞``は'',``が''を後接している名詞が代名詞の場合,センタリング理論に基づいた単純な照応解析を行う\cite{ishizaki}.具体的には代名詞が出現した文の1つ前の文に出現する名詞を先行詞候補とし,その候補が接続する助詞について以下の優先順に従って先行詞を決定する.\makeatletter\def\footnotemark{}\def\footnotetext{}\makeatother\vspace*{0.5\baselineskip}\begin{screen}\begin{center}は>が>に>を>その他\footnotemark\end{center}\end{screen}\footnotetext[\thefootnote]{格助詞の``で''や副助詞などがこれに含まれる}\vspace*{-0.5\baselineskip}\noindent具体例を『杜子春』(芥川龍之介)の一部から示す.\vspace*{0.5\baselineskip}\begin{screen}{\smallするとどこからやって来たか、突然\underline{彼}の\underline{前}へ\underline{足}を止めた、\underline{片目眇}の\underline{老人}があります。{\bfそれ}が夕日の光を浴びて、大きな影を門へ落すと、じっと杜子春の顔を見ながら、「お前は何を考えているのだ」と、横柄に声をかけました。}\end{screen}\noindent2文目にある代名詞``それ''の先行詞の候補として1文目から下線部の5個の名詞が挙げられる.このうち上記の優先順から助詞``は''を後接している``老人''を``それ''の先行詞とみなす.センタリング理論に基づいた照応解析の精度を計るため,本稿の評価実験で用いた物語9編を対象に予備実験を行った.助詞``は'',``が''を後接する代名詞に対して出力された先行詞を人手で正否を判定した.実験の結果,照応解析の平均の精度は0.41(134/330)であった.1文ごとの主題を抽出した後,設定した幅のウィンドウの中で連続した主題の文をまとめることでトピック・ブロックを作成する.このときウィンドウ幅内で全く同じ主題が連続した文だけでなく,同じ主題に挟まれた文も同一のトピック・ブロックに含める.これは1文ごとの主題は主語を手がかりに獲得しているが,話の展開においては連続しない場合があるためである.上記の操作はすべて会話文は考慮せず,いわゆる地の文のみを対象とする.このとき会話文は直前の地の文と同じトピック・ブロックに属することとする.これは会話の途中で話題が転換することはほとんどないと考えられるからである.例えば,『赤ずきんちゃん』(グリム兄弟)において以下に示す部分では途中でおばあさんの台詞が入っているが,おおかみを中心に話が展開している.従って,この部分をひとまとまりのトピック・ブロックとみなす.\vspace*{0.5\baselineskip}\begin{screen}{\smallところが、このあいだに、すきをねらって、\underline{おおかみ}(主題)は、すたこらすたこら、おばあさんのおうちへかけていきました。そして、とんとん、戸をたたきました。\footnotemark\\「おや、どなた。」\\「赤ずきんちゃんよ。お菓子とぶどう酒を、おみまいにもって来たのよ。あけてちょうだい。」\\「とっ手をおしておくれ。おばあさんはご病気でよわっていて、おきられないのだよ。」\\\underline{おおかみ}(主題)は、とっ手をおしました。}\end{screen}\footnotetext[\thefootnote]{前処理の照応解析でこの文の主題を「おおかみ」と判定している.}\vspace*{-0.5\baselineskip}\noindentさらに1文が多重のトピック・ブロックに所属することを認める.具体的にはある文$s_i$に対してその文からウィンドウ幅分だけ前の文のトピック・ブロック中で主題が同じ文が存在すれば,その文が属するトピック・ブロックに$s_i$も属するとする.同時にその文と$s_i$間の文も同じトピック・ブロックに属する.これは,ある文が示す主題には助詞``は''や``が''によって明示的に示されるものと文脈から推定できるものの2種類が考えられ,その文はそれぞれの主題で構成される話題の一部分とみなせると考えるからである.ウィンドウ内に主題が同じ文がなければその文を新しいトピック・ブロックに加える.例をあげて説明する.文$s_0$から$s_4$があり,その主題が表\ref{example}のようであったとき,ここから抽出されるトピック・ブロックは図\ref{tbexample}のようになる.\begin{table}[b]\caption{文と推定された各文の主題の例}\label{example}\begin{center}\input{03table01.txt}\end{center}\end{table}\begin{figure}[t]\input{03fig03.txt}\caption{抽出されたトピック・ブロック}\label{tbexample}\end{figure}文$s_0$,$s_1$は前に同じ主題を持つ文が存在しないためそれぞれ新しいトピック・ブロックに割り当てる.文$s_2$はウィンドウ幅内に同じ主題を持つ文$s_0$が存在するため,その文が属するトピック・ブロック$P_0$に加える.さらにその間にある文$s_1$も$P_0$に加える.一方,文$s_4$は文$s_1$と同じ主題を持つが,$s_1$がウィンドウ幅内にないので新しいトピック・ブロックに属することになる.\subsection{重要ブロックの決定}\label{select}抽出したトピック・ブロックについて物語におけるストーリーへの関与度を評価し,関与しているものが高いものを重要ブロックとして要約に採用する.手法としてはまず重要度の評価尺度を導入し(\ref{importance}節参照),次に物語の構成や接続詞情報を考慮して重要ブロックの抽出を行う(\ref{extracttb}節参照).\subsubsection{重要度計算}\label{importance}物語においては,登場人物が行動を起こし,それによって状況が変化するような箇所が重要であると考えられる.これに基づいてトピック・ブロックの重要度を定義する.まずトピック・ブロック内の各文のスコア付けについて説明し,その後ブロック全体の重要度を求める.トピック・ブロック内を構成する文に対して,登場人物や動作主の変化に関する動詞が含まれている場合は評価が高くなるようにスコア付けを行う.具体的には以下の式で決定する.\[Score_{sentence}(s)=\sum_{w\ins}(Terms(w)\cdottw(w,s))\cdotweight(s)\]$Score_{sentence(s)}$は文$s$に対するスコアであり,$w$は$s$中に出現する単語である.$Terms(w)$は単語$w$の文書全体における重要度を示しており,$w$が登場人物である場合にその頻度を重要度とする.\[Terms(w)=\begin{cases}文書Dにおける単語wの出現頻度&(wが登場人物表現)\\0&(上記以外)\\\end{cases}\]$tw(w,s)$は単語$w$の文$s$における主題性に基づく重みである.\[tw(w,s)=\begin{cases}1.2&(単語wが文sの主題)\\1&(上記以外)\\\end{cases}\]$weight(s)$は文$s$の述部における動詞に着目して,動作主体が変化を伴うような動詞であれば重要度を高くするように設定する.この判定には竹内ら\cite{takeuti2006}の語彙概念構造辞書を利用する.この辞書では``主体の変化''という分類があり,例えば``寝る'',``振り向く''といった動詞が分類されている\footnote{この辞書には4153の動詞の動詞に対して分類が記述されており,このうち``主体の変化''の分類に属する動詞は635ある.}.\[weight(s)=\begin{cases}1.2&(文s中の動詞の意味に``主体の変化''が含まれている)\\1&(上記以外)\\\end{cases}\]トピック・ブロック$P$の重要度$Score_{tb}(P)$は上記で決めた文の重要度を利用して以下の式で求める.\[Score_{tb}(P)=\frac{\sum\limits_{s_i\inP}Score_{sentence}(s_i)}{|P|}\]ここで$|P|$は$P$中の文の数である.これにより正規化することで長さに依存しないスコアとなる.\subsubsection{重要ブロックの抽出}\label{extracttb}トピック・ブロックに対して求めた重要度に基づいて重要ブロックを決定する.基本的には要約率を満たすまで重要度の高いトピック・ブロックから選んでいくが,その前にどのような物語でも比較的重要と考えられるトピック・ブロックを重要ブロックとして選ぶ.物語では,登場人物表現が最初に出現する文はその登場人物の説明であることが多く,登場人物表現が最後に出現する文はその登場人物の最終状況を説明している文であることが多い.そこで,重要度の高いものからトピック・ブロックを選択する前に,登場人物表現が最初に出現するトピック・ブロックと最後に出現するトピック・ブロックを重要ブロックとして抽出し,残りのトピック・ブロックに対して重要度の上位から順に要約率分だけ抽出する.物語のあらすじにとって関与が低い要素を省くために,抽出した重要ブロックに対して文の連接関係に着目した要約を行う.ここで不必要な要素とは同じことを繰り返して述べていたり,補足説明をしている要素のことである.連接関係の推定には接続詞と文末表現を利用する.接続関係の分類は永野\cite{bunsyouron}による7種類の関係(表\ref{connect})を利用した.\begin{table}[t]\caption{連接関係の種類}\label{connect}\begin{center}\input{03table02.txt}\end{center}\end{table}\begin{table}[t]\caption{連接関係と対応する接続詞と文末表現の例}\label{conexample}\begin{center}\input{03table03.txt}\end{center}\end{table}具体的な手法について述べる.あらかじめ接続詞と文末表現のそれぞれに対して,それが示す連接関係との対応を作成しておく.一部の関係について対応の例を表\ref{conexample}に示す.隣接する2文に対して,後文に出現する接続詞と文末表現から作成した対応を利用し連接関係を推定する.後文に連接関係の推定に使用する接続詞や文末表現がなかった場合は2文間の連接関係は``展開''とする.推定した連接関係が``補足'',``同格''と判定されたものについて,その後文を削除する.\subsection{ブロック連結文の抽出}\label{connectsentence}隣接する重要ブロック間での整合性を保つために,その間において生じた状況の変化を示すような文を挿入する.状況の変化とは時間経過や場所移動による場面転換や,登場人物の心境や取り巻く環境の変化などのことである.物語中でこのような状況の変化が起こったとき,それを示すような文がなければ読者はそれに気付かず,読み進めていくにつれて違和感を覚えたり,物語本文を読んだときに得られる理解と異なる理解をする可能性がある.このような状況の変化を示す文をブロック連結文と呼び,要約に挿入することで重要ブロック間の整合性を損なわないようにする.本稿では重要ブロックと原文においてその間に存在するトピック・ブロックでの登場人物表現の出現を基にした局所的な重要度を定義し,これを利用してブロック連結文を抽出する.\subsubsection{局所的重要度の計算}隣接する重要ブロックにおいて片方に出現し,且つ,もう片方には出現していないような登場人物があれば,その登場人物は重要ブロック間の状況の変化に関わっていると考えられる.そのような登場人物について記述してある文をブロック連結文として抽出するために,隣接する重要ブロック間での出現の仕方によって登場人物の局所的な重要度を決定し,それを基にして重要ブロック間における文の重要度を決定する.隣接する重要ブロック$P_i=\{s_j,\dots,s_k\}$,$P_{i+1}=\{s_m,\dots,s_n\}(j<k<m<n)$に対して,この間における登場人物$t$の局所的重要度を以下の式で求める.\[Terms_{local}(t,P_i,P_{i+1})=\sum_{s_j\les\les_n}freq(t,s)\cdotlw(t,P_i,P_{i+1})\]$freq(t,s)$は文$s$における登場人物表現$t$の出現頻度であり,$lw(t,P_i,P_{i+1})$は単語$t$がセグメントの連結に対する有効性を表す重みである.$P_i$と$P_{i+1}$間の文の集合を$IP_i=\{s_{k+1},\dots,s_{m-1}\}$とする.\[lw(t,P_i,P_{i+1})=\left\{\begin{array}{lp{20zw}}1&単語tが$IP_i$で出現し,かつ,重要ブロック$P_i,P_{i+1}$のいずれか一方にのみ出現する\\0.5&単語tが重要ブロック$P_i,P_{i+1}$と$IP_i$の全てで出現する\\0&上記以外\\\end{array}\right\}\]この単語の重要度と\ref{importance}節で利用した動詞の意味分類を用いて,重要ブロック$P_i$,$P_{i+1}$間の文$s_i$の局所的重要度$Score_{local}(s_i,P_i,P_{i+1})$を以下のように定める.\[Score_{local}(s_i,P_i,P_{i+1})=\sum_{t\ins_i}Terms_{local}(t,P_i,P_{i+1})\cdotweight(s_i)\]$weight(s_i)$は重要ブロックの決定で用いた動詞の意味による重みである.これは動詞の意味分類において動作主体の変化を表す動詞として分類されているものであり,これらの動詞が出現した文には重要ブロック間で起きた状況の変化が記述されてある可能性が高いためスコアを少し上げる.\subsubsection{ブロック連結文抽出}局所的な重要度に基づいて抽出するブロック連結文を決定する.要約として抽出した隣接する重要ブロック$P_k$,$P_{k+1}$について,その間にある文の局所的重要度を上記の式$Score_{local}(s_{i},P_i,P_{i+1})$によって計算し,下記に示すブロック連結文の量$CS(IP_k)$以下で$Score_{local}(s_{i},P_i,P_{i+1})$の高いものから順にブロック連結文として抽出する.ブロック連結文は要約として抽出された重要ブロックに属していない文から選択する.生成する要約の要約率$x$とする.要約率は原文書の文字数に対する要約文書の文字数の割合で与えられ,以下の式から求める.\[要約率=\frac{要約文書の文字数}{原文書の文字数}\]要約における重要ブロックの割合を$\alpha$とすると,隣接する重要ブロック$P_k$,$P_{k+1}$間の文集合$IP_k$に対して取り出すべき文の量$CS(IP_k)$は以下のようになる.\[CS(IP_k)=\frac{(1-\alpha)x}{1-\alphax}\cdot|IP_k|\]ここで$|IP_k|$は$IP_k$に属する文の量である.割合$\alpha$を大きくすると限られた要約率の中で重要ブロックを多く抽出することを意味し,反対に$\alpha$を小さくすると整合性を重視して連結文を多く取り出すことを意味する.\begin{figure}[t]\input{03fig04.txt}\vspace{-1\baselineskip}\caption{要約に抽出されたブロック連結文の例(『雪の夜』(小林多喜二))}\label{conrei}\end{figure}本手法によって生成した要約中に出現するブロック連結文の例を図\ref{conrei}に示す.下線部が抽出したブロック連結文であり,その前後は要約として抽出した重要ブロックの一部である.図\ref{conrei}に示すように“郊外の家へ帰ろうと思った。”という部分から主人公の龍介が“通りを出た。”までに汽車に乗り損ねたことが推論できる内容が補完されている. \section{評価} label{eval}提案手法の有用性を確認するために実験を行った.報知的な要約では原文書の内容をどれだけ正確に抽出できているかということが重要となる.本稿では,要約の整合性と原文書の適切な部分が要約として抽出できているかを被験者による実験によって確認する.形態素解析器MeCabやChaSen,係り受け解析器CaboChaなどの既存の言語処理ツールは基本的に現代仮名遣いと口語文法に則って書かれた文を処理の対象としている.このため,実験の対象とする物語は,青空文庫で入手できる口語文法と現代仮名遣いで書かれている3人称視点の物語9作品とした(付録\ref{data}).3人称視点の物語に限定している理由は,1人称視点で書かれた物語では,地の文に語り手となる登場人物の心理描写が交じり,登場人物の行動を述べる文との判別が困難であると考えたためである.比較手法にはtf$\cdot$idfによる重要文抽出(以降tf$\cdot$idf法と呼ぶ)を採用した.tf$\cdot$idfは単語の重要度を決定する手法の一つであり,ある文書集合において特定の文書に出現する単語を重要であるとみなす.本稿では,文中に出現する名詞の重要度をtf$\cdot$idfによって求め,その和をその文の重要度とし,重要度の高いものから順に要約率を満たすまで文を抽出することで要約を生成する.文書$d$における名詞$t$に対する重要度$weight(t,d)$は以下の式で求める.\[weight(t,d)=tf(t,d)\cdot(log\left(\frac{N}{df(t)}\right)+1)\]$tf(t,d)$は文書$d$中の名詞$t$の出現頻度であり,$df(t)$は文書集合中で名詞$t$が出現している文書数,$N$は文書集合に含まれる文書の数である.本実験で利用する文書集合は上記で挙げた物語9作品とした(N=9).\subsection{評価方法}要約の評価でよく用いられる方法はあらかじめ人手で正解データを作成しておき,それとシステムの出力を比較するというものである.この方法は正解データとなる人手で作成された要約が個人による差異が小さければ有効である.本稿では人手による要約の個人差を計るため,3人の被験者に重要文抽出による要約率30\%の要約と要約率50\%の要約,本手法で作成したトピック・ブロック単位での重要箇所抽出による要約率30\%の要約を作成してもらい,それぞれのkappa値\cite{jean1996}を算出した.その結果を表\ref{kappa}に示す.kappa値が0.7を越えると個人差が少ない良いデータだと一般的に考えられている.これに従うと,人手による要約は個人差が大きく,唯一の正解データを作成することは困難であると言える.また,30\%要約に関して文単位での要約とトピック・ブロック単位での要約を比較すると,文単位での要約におけるkappa値に比べてトピック・ブロック単位での要約におけるkappa値の方が作品ごとの差が大きいという結果になった.\begin{table}[t]\caption{人手による要約のkappa値}\label{kappa}\begin{center}\input{03table04.txt}\end{center}\end{table}そこで本稿では正解データを利用した評価ではなく,被験者による主観的な評価を行った.実験項目は以下の通りである.\begin{itemize}\item整合性に関する評価\item内容理解に関する評価\end{itemize}本研究において整合性とは話題のまとまりの良さとみなしている.話題のまとまりの良い文書とは,読者がその文書を読んで予測できる展開と文書の実際の展開が似ているような文書だと考えられる.逆に話題のまとまりが悪い文書では読者の予測と文書の実際の展開が異なることがあり,このとき読者はその文書が読みにくいと感じることがある.そこで本稿では整合性の評価として,10人の被験者に各作品毎に提案手法による要約とtf$\cdot$idf法による要約の2種類の要約を提示し,読みやすさの評価,つまり要約文が話として繋がっているかどうかを評価し,良いと思う方を選択するよう指示した.どちらでもないという選択肢は設けず,各作品に対して必ずどちらかを選択してもらうようにした.後者の内容理解に関する評価では被験者が物語の内容を知っていると正しい評価ができないということが考えられる.そこで実験を行う際に物語の内容を知らない被験者を選び,全ての作品に対して評価を行った.また,提案手法かtf$\cdot$idf法のどちらか片方の要約を読んでから,もう片方の評価を行うと後者の評価の際に前者で読んだ要約から得られた知識を被験者が無意識に使ってしまう可能性がある.そのため,被験者にはどちらか片方の要約しか提示しない.この実験では1作品あたり提案手法による要約に対する評価とtf$\cdot$idf法による要約に対する評価のそれぞれについて8人の被験者で行っている.内容理解に関する評価は以下の手順で行った.\begin{list}{}{}\item[{\bf作業1.}]対象の作品に対する提案手法か比較手法のどちらか一方の要約を読み,そのあらすじを自由筆記で作成する.ここで被験者には要約が提案手法によるものかtf$\cdot$idf法によるものかは知らせない.\item[{\bf作業2.}]原文書を読んで,作業1で書いたあらすじを被験者が自分で修正する\end{list}これは報知的要約が理想的なものであるならば,そこから得られる理解と原文書を読んだときに得られる理解は同じであるという仮定に基づいている.上記の作業2において修正数が少なければ,その要約は良いと評価できる.自由筆記でのあらすじ作成では,単文で記述することと,名詞に関しては要約内に出現した単語のみを使用することを被験者に指示した.修正の方法は以下の3種類のどれかに従うように指示した.\begin{itemize}\item訂正(1文中の一部を追加削除)\item追加(1文を追加)\item削除(1文を削除)\end{itemize}作成するあらすじには個人差が生じるが,これは修正数をあらすじ中の文の数で正規化することで対処する.評価に使用した要約の要約率は提案手法,tf$\cdot$idf法ともに30\%に設定した.また提案手法では重要ブロックとブロック連結文の割合を設定する必要がある.本研究では物語の内容を簡単に把握できるための報知的要約の生成を目的としている.そのため要約には物語に重要な要素を多く含んでいる必要がある.しかし,重要な要素を羅列するだけでは文書としてのまとまりに欠け,それが内容の理解の妨げになる可能性がある.このことから重要な要素を中心として構成され,文書のまとまりを考慮した要約が良い要約であると考える.これを反映した要約を生成するため,本稿では生成する要約における重要ブロックの割合は0.7と設定した.\subsection{結果と考察}\label{result}整合性の評価の結果を表\ref{yomiyasusa}に示す.数字は各手法の方が読みやすいと判定した人の数である.個人差によるばらつきを考慮して,9作品の平均で整合性を評価すると提案手法がtf$\cdot$idfよりも優れた結果を示していることが分かる.『風の又三郎』では評価が良くなかったが,これは後の内容理解での考察にも関係するが会話文の中に物語の展開に関わる表現が入っているため本手法ではうまく扱うことができなかったのが原因である.\begin{table}[b]\caption{整合性の評価結果}\label{yomiyasusa}\begin{center}\input{03table05.txt}\end{center}\end{table}内容理解の評価の結果を表\ref{rikai}に示す.あらすじの平均文数は被験者が作成したあらすじの文数の平均を取ったものである.評価値は以下の式に基づいて決定した.\[評価値=\frac{(訂正数\cdot1+追加数\cdot2+削除数\cdot0.5)}{被験者が作業1で答えたあらすじの文数}\]修正の際に,新たに文を追加したということは内容の理解に必要な情報が要約には含まれていなかったことを示している.文の訂正は必要な情報は現れていたもののその解釈で誤りがあったことを示している.このことから追加が最も重大な修正といえる.これを反映するために各修正項目にペナルティをかける.上記の評価式は修正項目にペナルティをかけた値の合計を修正前のあらすじの文数で正規化したものである.評価値が小さいほど要約を読んだときに得られる理解と原文書を読んだときに得られる理解の差が小さいと考える.\begin{table}[b]\caption{内容理解の評価結果}\label{rikai}\begin{center}\input{03table06.txt}\end{center}\end{table}実験の結果,表\ref{rikai}の9作品に対する評価値の総合計から,提案手法の方がtf$\cdot$idf法よりも内容理解において原文との差異が少なく,被験者に対してよりよい理解を与えたことが示された.しかしながら,提案手法が大きく勝るというものではなく,またいくつかの作品では劣っている部分もある.これらについて考察を述べる.提案手法では重要ブロックの抽出の際に会話文の内容を考慮していない.そのため,物語の内容に対して会話文が重要である箇所があってもその部分を正しく抽出することができない.一方,tf$\cdot$idf法では地の文や会話文に関係なく,単語の重要度から抽出する文を決定しているので,会話文の中に重要度の高い語が含まれていればそれを抽出することができる.例として『風の又三郎』に対する提案手法による要約(図\ref{teianrei})と,tf$\cdot$idf法による要約(図\ref{tfidfrei})を示す.この例ではtf$\cdot$idf法の方では物語の内容にとって重要と考えられる先生の台詞を会話文から抽出している.\begin{figure}[b]\input{03fig05.txt}\vspace{-1\baselineskip}\caption{提案手法による要約の例}\label{teianrei}\end{figure}\begin{figure}[b]\input{03fig06.txt}\vspace{-1\baselineskip}\caption{tf$\cdot$idfによる要約の例}\label{tfidfrei}\end{figure}\begin{figure}[b]\input{03fig07.txt}\vspace{-1\baselineskip}\caption{提案手法による『名人伝』の要約(抜粋)}\label{meijintei}\end{figure}この他に提案手法がtf$\cdot$idf法に劣ってしまう要因として,重要箇所抽出の際に本来要約に必要とされるべき箇所が抽出できなかったということが考えられる.提案手法ではトピック・ブロックを単位として重要箇所抽出を行っている.このため,重要箇所抽出で正しく重要ブロックが抽出できなかったとき,内容理解に関する評価において被験者が該当部分に関する全ての記述を行うことになる.これに対してtf$\cdot$idf法では文を単位として抽出を行っているため,重要な箇所が全て抽出できなくてもある程度の文は抽出できることがある.この場合,内容理解の評価で被験者が追加する項目は提案手法と比べて少なくなり,結果としてtf$\cdot$idf法の方が良い評価になる.例えば,『名人伝』には主人公である紀昌とその師である飛衛が対決する場面がある.提案手法による要約(図\ref{meijintei})ではこの場面が重要箇所と見なされずに抽出できていないが,tf$\cdot$idf法では文単位で抽出されるため,ある程度は要約に出現している(図\ref{meijintf}).本稿で行った内容理解に関する実験において被験者はこの場面を重要と判断してあらすじに加えているが,提案手法による要約に対してはその場面に該当する記述を全て加筆している.一方,tf$\cdot$idf法による要約に対しては記述を補完するだけでよく,修正のために追加する文の数はtf$\cdot$idf法による要約の方が少なくなる.その結果,内容理解の評価ではtf$\cdot$idf法の方が良いという結果になったと考えられる.\begin{figure}[t]\input{03fig08.txt}\vspace{-1\baselineskip}\caption{tf$\cdot$idf法による『名人伝』の要約(抜粋)}\label{meijintf}\end{figure}しかし,整合性の評価において『名人伝』では提案手法が大きく上回っている.これはtf$\cdot$idf法による要約では細かな欠損が多く,それらが被験者に対して何度も違和感を生じさせ,結果として提案手法による要約の方が読みやすいという評価になったと考えられる.tf$\cdot$idf法では物語においてどのような単語が重要かという判断を文書集合に依存しているとみなせる.従って,一般的に使われるような語がある物語において重要な要素であった場合,tf$\cdot$idfではこれを重要な語とみなせないことがある.この点においてtf$\cdot$idf法による要約は作品によっては不安定になることが予測される.実際,表\ref{rikai}の評価値の分散をみると提案手法に比べてtf$\cdot$idf法の方が分散が大きく,内容理解に貢献できる場合と劣る場合の差が小さくない.提案手法は整合性も考慮したつなぎの文も含めて要約率を達成して出力している一方で,tf$\cdot$idf法による要約では特徴的な名詞を多く含む文を出力している.よってtf$\cdot$idfは同じ要約率という制約で読みやすさを捨てた分,内容に関する文をより多く出力していると考えられる.この点が内容理解で大きな差が出なかった原因の一つである.しかしながら,その内容理解の質は提案手法とtf$\cdot$idf法による要約手法では同じでないと考えられる.表\ref{rikai}において,被験者が作成したあらすじの文数を見ると全ての作品において提案手法の方がtf$\cdot$idf法よりも倍近く上回っている.もし物語の内容を十分理解していれば,より詳細なあらすじを作成することができる.このとき,作成されたあらすじの文の数は多くなると考えられる.従って,提案手法による要約から作成されたあらすじの文の数が多いということは,tf$\cdot$idf法による要約に比べて,提案手法による要約はあらすじの作成に貢献する文を多く含んでいるとみなすことができる.本研究では物語の内容理解のための要約の生成を目的としており,このことから提案手法の方がより質の高い要約を生成できると考えられる.物語では何を重要と見なすかは人によって異なることが多い.そのため,人手で要約を作った場合でも個人差が大きく,また物語は個々の特徴が違うため,物語による違いも大きいと考えられる.表\ref{yomiyasusa},表\ref{rikai}から複数の人間による判断である合計値の平均と,そのばらつき具合である分散のいずれにおいて提案手法の方が上回っており,このことから提案手法はtf$\cdot$idf法による要約と比べて物語の違いによる影響を受けにくく,安定した要約を生成できるという点で有効であると考えられる.本研究では重要ブロック間のつながりを補完するためにブロック連結文を導入している.その有効性を調べるため,ブロック連結文を挿入せずに重要ブロックの抽出のみで作成した要約と提案手法による要約とで整合性に関する比較評価を行った.\begin{table}[b]\caption{ブロック連結文の有無による整合性の比較評価}\label{yomiyasusaforalpha}\begin{center}\input{03table07.txt}\end{center}\end{table}表\ref{yomiyasusaforalpha}は整合性についての評価結果である.9作品を対象にした平均では有意な差は見られなかった.これは短い物語(『杜子春』,『鼻』,『名人伝』(160文前後))に対して既に重要ブロックで十分な整合性がありブロック連結文を挿入することで冗長となり評価を下げたと考えられる.よって短い物語に対してはブロック連結文を適用しないなどの手法を取り入れることができれば有意な差が得られると考えられる.一方,内容理解に対する評価では表\ref{comparerikai}に示すようにブロック連結文を適用することで評価値が0.86から0.84に減少し,向上が見られた.これは総合的にはブロック連結文が内容を補完したため内容理解に対して有効に働いたと考えられる.提案手法の性能の限界を調べるために人物を人手で抽出し,かつ,トピック・ブロックの決定のための主題を人手で特定した場合の提案手法による要約について内容理解の評価実験を行った.その結果を表\ref{comparerikai}に示す.\begin{table}[t]\caption{内容理解の評価に関する手法の比較}\label{comparerikai}\begin{center}\input{03table08.txt}\end{center}\end{table}提案手法による要約,重要ブロック抽出による要約と比較して,人手で前処理を行った場合での要約に対する評価がもっとも良かった.提案手法では照応解析をセンタリング理論に基づいた単純な方法で行っており,実験の対象の物語に対する精度が0.41と低い.従って,照応解析の精度を上げることで提案手法の性能の向上が見込める.また表\ref{yomiyasusaforalpha}においてブロック連結文の有無だけでは整合性の向上は全作品に対して明らかではなかったが表\ref{yomiyasusa}に示すとおり,重要ブロックが一貫した話題で構成されていればtf$\cdot$idf法に比べて全作品に対して整合性が勝ることを示した.よって表\ref{rikai}や表\ref{comparerikai}に示されるように内容理解において提案手法に基づく要約がtf$\cdot$idf法による要約に対して優れた結果が得られたのは結局,整合性を指向して一貫性のある要約を出力できたことが理由であると考えられる. \section{おわりに} 本稿では整合性を考慮した物語の要約手法を提案した.整合性は読者が内容を正しく把握するために重要な要素であり,特に複数の話題について述べている文書では話題間の整合性が明らかでないと読者への負担が大きくなる.物語では場面転換などで話の状況の変化が何回も発生する.この状況の変化を把握できていないと,実際に物語で述べられている状況と読者が理解している状況に差異が生じ,結果として間違った理解をしてしまう可能性がある.状況の変化には場所の移動や時間の経過などがあるが,本手法は特にその状況に登場している人物の移り変わりに着目した.従来の重要箇所抽出による要約に,隣接する抽出した箇所間での整合性を保つように,人物の移り変わりに関する文を挿入することで整合性のある読みやすい要約を作成した.tf$\cdot$idf法による要約との比較実験では,被験者の内容の理解の程度に関してわずかではあるが提案手法の方が原文から得られる内容を反映している要約を作成できることを示した.被験者による整合性の評価で行った読みやすさに関する実験では提案手法の方が読みやすいという評価が得られた.また,ブロック連結文の有無の違いに関する評価実験から,ブロック連結文だけでなく重要ブロックとの両方の効果によって要約文全体の読みやすさ(整合性)の向上に対して有効であることを示した.さらに提案手法は内容理解において整合性を考慮していないtf$\cdot$idf法に比べて優れていることが評価結果から示された.このことから整合性を考慮することでより内容を理解しやすい要約が生成できると考えられる.提案手法ではトピック・ブロックの重要度計算に登場人物とその行動を考慮したが,\ref{result}節で示したように会話文を考慮する必要がある.また,より詳細な話題間の繋がりを計算するために,場所の移動や時間経過などの場面転換表現も考慮に入れる必要がある.これらが今後の課題である.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Carletta}{Carletta}{1996}]{jean1996}Carletta,J.\BBOP1996\BBCP.\newblock\BBOQAssessingAgreementonClassificationTasks:ThekappaStatistic\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf22}(2),\mbox{\BPGS\249--254}.\bibitem[\protect\BCAY{Kazantseva}{Kazantseva}{2006}]{Anna}Kazantseva,A.\BBOP2006\BBCP.\newblock\BBOQAutomaticSummarizationofShortFiction\BBCQ\\newblockIn{\BemMasterthesisOttawa-CarletonInstituteforComputerScienceSchoolofInformationTechnologyandEngineering,UniversityofOttawa}.\bibitem[\protect\BCAY{Lehnert}{Lehnert}{1981}]{plotunit}Lehnert,W.~G.\BBOP1981\BBCP.\newblock\BBOQPlotunitsandnarrativesummarization\BBCQ\\newblock{\BemCognitiveScience},{\Bbf5},\mbox{\BPGS\293--331}.\bibitem[\protect\BCAY{Nariyama}{Nariyama}{2002}]{nariyama2002}Nariyama,S.\BBOP2002\BBCP.\newblock\BBOQGrammarforellipsisresolutioninJapanese\BBCQ\\newblockIn{\Bemthe9thInternationalconferenceonTheoreticalandmethdologicalIssueinMachineTranslation}.\bibitem[\protect\BCAY{Reiser}{Reiser}{1981}]{brian1981}Reiser,B.~J.\BBOP1981\BBCP.\newblock\BBOQCharacterTrackingandtheUnderstandingofNarratives\BBCQ\\newblockIn{\Bem7thInternationalJointConferenceonArtificialIntelligence}.\bibitem[\protect\BCAY{馬場\JBA藤井}{馬場\JBA藤井}{2007}]{baba2007}馬場こづえ\JBA藤井敦\BBOP2007\BBCP.\newblock\JBOQ小説テキストを対象とした人物情報の抽出と体系化\JBCQ\\newblock\Jem{言語処理学会第13回年次報告}.\bibitem[\protect\BCAY{市丸\JBA日高}{市丸\JBA日高}{2005}]{itimaru2005}市丸夏樹\JBA日高達\BBOP2005\BBCP.\newblock\JBOQ要約文の話題の流れの最大化による自動要約\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(6),\mbox{\BPGS\45--61}.\bibitem[\protect\BCAY{石崎\JBA伝}{石崎\JBA伝}{2001}]{ishizaki}石崎雅人\JBA伝康晴\BBOP2001\BBCP.\newblock\Jem{談話と対話}.\newblock東京大学出版会.\bibitem[\protect\BCAY{奥村\JBA難波}{奥村\JBA難波}{2005}]{okumura}奥村学\JBA難波英嗣\BBOP2005\BBCP.\newblock\Jem{テキスト自動要約}.\newblockオーム社.\bibitem[\protect\BCAY{永野}{永野}{1986}]{bunsyouron}永野賢\BBOP1986\BBCP.\newblock\Jem{文章論総説}.\newblock朝倉書店.\bibitem[\protect\BCAY{横野}{横野}{2007}]{yokono2007}横野光\BBOP2007\BBCP.\newblock\JBOQ登場人物の感情表現に着目した物語要約\JBCQ\\newblock\Jem{言語処理学会第13回年次報告}.\bibitem[\protect\BCAY{竹内\JBA乾\JBA藤田}{竹内\Jetal}{2006}]{takeuti2006}竹内孔一\JBA乾健太郎\JBA藤田篤\BBOP2006\BBCP.\newblock\JBOQ語彙概念構造に基づく日本語動詞の統語・意味特性の記述\JBCQ\\newblock\Jem{レキシコンフォーラム},2.ひつじ書房.\bibitem[\protect\BCAY{加藤\JBA畠山\JBA坂本\JBA伊藤}{加藤\Jetal}{2005}]{ecs}加藤恒昭\JBA畠山真一\JBA坂本浩\JBA伊藤たかね\BBOP2005\BBCP.\newblock\JBOQ日本語和語動詞に関する語彙概念構造辞書構築の試み\JBCQ\\newblock\Jem{言語処理学会第11回年次報告}.\bibitem[\protect\BCAY{中野\JBA足立\JBA牧野}{中野\Jetal}{2006}]{nakano2006}中野滋徳\JBA足立顕\JBA牧野武則\BBOP2006\BBCP.\newblock\JBOQ語の反復距離に基づく段落境界の認定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(2),\mbox{\BPGS\3--26}.\bibitem[\protect\BCAY{館林\JBA原口}{館林\JBA原口}{2006}]{tatebayasi2006}館林俊平\JBA原口誠\BBOP2006\BBCP.\newblock\JBOQセグメント間の接続関係を考慮した文書要約に関する一考察\JBCQ\\newblock\Jem{情報処理学会研究報告NL-175}.\bibitem[\protect\BCAY{メイナード}{メイナード}{1997}]{danwabunseki}メイナード泉子・K.\BBOP1997\BBCP.\newblock\Jem{談話分析の可能性}.\newblockくろしお出版.\bibitem[\protect\BCAY{小林}{小林}{2007}]{kobayashi2007}小林聡\BBOP2007\BBCP.\newblock\JBOQ場・時・人に着目した物語のシーン分割手法\JBCQ\\newblock\Jem{情報処理学会研究報告NL-179}.\bibitem[\protect\BCAY{村上\JBA上之薗\JBA榎津\JBA古宮}{村上\Jetal}{2004}]{murakami2004}村上聡\JBA上之薗和宏\JBA榎津秀次\JBA古宮誠一\BBOP2004\BBCP.\newblock\JBOQ物語の自動要約\JBCQ\\newblockIn{\BemThe18thAnnualConferenceoftheJapaneseSocietyforArtificialIntelligence}.\bibitem[\protect\BCAY{砂山\JBA谷内田}{砂山\JBA谷内田}{2000}]{sunayama2000}砂山渡\JBA谷内田正彦\BBOP2000\BBCP.\newblock\JBOQ文章要約のための特徴キーワードの発見による重要文抽出法—展望台システム—\JBCQ\\newblock\Jem{情報処理学会研究報告NL-135}.\bibitem[\protect\BCAY{平尾\JBA前田\JBA松本}{平尾\Jetal}{2001}]{hirao2001}平尾努\JBA前田英作\JBA松本裕治\BBOP2001\BBCP.\newblock\JBOQSupportVectorMachineによる重要文抽出\JBCQ\\newblock\Jem{情報処理学会研究報告情報学基礎63-16}.\bibitem[\protect\BCAY{平尾\JBA北内\JBA木谷}{平尾\Jetal}{2000}]{hirao2000}平尾努\JBA北内啓\JBA木谷強\BBOP2000\BBCP.\newblock\JBOQ語彙的結束性と単語重要度に基づくテキストセグメンテーション\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf41}(SIG3),\mbox{\BPGS\24--36}.\bibitem[\protect\BCAY{畑山\JBA松尾\JBA白井}{畑山\Jetal}{2002}]{hatayama2002}畑山満美子\JBA松尾義博\JBA白井諭\BBOP2002\BBCP.\newblock\JBOQ重要語句抽出による新聞記事自動要約\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(4).\bibitem[\protect\BCAY{山本\JBA増山\JBA酒井}{山本\Jetal}{2006}]{syousetu}山本悠二\JBA増山繁\JBA酒井浩之\BBOP2006\BBCP.\newblock\JBOQ小説自動要約のための隣接文間の結束性判定手法\JBCQ\\newblock\Jem{言語処理学会第12回年次報告}.\bibitem[\protect\BCAY{石井\JBA小方}{石井\JBA小方}{2006}]{isii2006}石井理恵\JBA小方孝\BBOP2006\BBCP.\newblock\JBOQ登場人物の履歴情報からの物語ネットワークの構成とそれを利用した物語の作成—ハイパーコミックの一般化と自動化に向けて—\JBCQ\\newblockIn{\BemThe20thAnnualConferenceoftheJapaneseSocietyforArtificialIntelligence}.\bibitem[\protect\BCAY{山本\JBA増山\JBA内藤}{山本\Jetal}{1995}]{yamamoto1995}山本和英\JBA増山繁\JBA内藤昭三\BBOP1995\BBCP.\newblock\JBOQ文章内構造を複合的に利用した論説文要約システムGREEN\JBCQ\\newblock\Jem{自然言語処理},{\Bbf1}(2).\end{thebibliography}\begin{biography}\bioauthor{横野光(正会員)}{2003年岡山大学工学部情報工学科卒.2008年同大大学院自然科学研究科産業創成工学専攻単位取得退学.同年東京工業大学精密工学研究所研究員,現在に至る.修士(工学).自然言語処理の研究に従事.情報処理学会会員.}\end{biography}\biodate\clearpage\appendix \section{実験に使用した小説} label{data}\begin{table}[H]\caption{実験に使用した小説}\begin{center}\input{03table09.txt}\end{center}\end{table}\footnotetext[\thefootnote]{台詞はカギ括弧でくくられたまとまりを1文とみなす.} \section{登場人物抽出の例} label{humanexample}\begin{figure}[H]\begin{center}\includegraphics{15-5ia3f9.eps}\end{center}\caption{人物候補辞書作成の例}\label{ngram2dic}\end{figure}\clearpage\begin{figure}[t]\begin{center}\includegraphics{15-5ia3f10.eps}\end{center}\caption{意志性による人物抽出の例}\label{volitional}\end{figure}\begin{figure}[t]\input{03fig11.txt}\vspace{-1\baselineskip}\caption{非人物と判定された候補の文の例}\label{nonvolexample}\end{figure}\begin{figure}[t]\input{03fig12.txt}\vspace{-1\baselineskip}\caption{人物と判定された候補の文の例}\label{volexample}\end{figure} \section{人物抽出の予備実験結果} label{humexp}\begin{table}[H]\caption{人物抽出の正解データの例}\begin{center}\input{03table10.txt}\end{center}\end{table}\clearpage\begin{table}[H]\caption{人物抽出の実験結果}\label{humresult}\begin{center}\input{03table11.txt}\end{center}\end{table}\end{document}
V13N04-03
\section{はじめに} \label{sec:intro}我々の物の理解の仕方に関する知識は多くの自然言語処理タスクにおいて重要である.物をどのような観点から理解するかということを述べる{\bf属性}の知識はその一つである.例えば,「車」の属性は「重量」,「エンジン」,「ハンドル」,「操作感」,「製造会社」などである.言い換えれば,属性とは,我々があるものについて知りたいときにそれに対する値(本論文の言い方では,「答え」)が知りたくなるような項目である.従って,属性知識の応用としては,情報の要約\cite{yoshida_wda,yoshida_ai2004_en},質問応答\cite{Fleischman_2003,takahashi_2004}などが考えられる.また,最近では機械学習や単語クラスタリングの際の素性として有用であることも示されている\cite{almuhareb-poesio:2004:EMNLP}.このような属性知識は,WordNet\cite{WordNet}のように人手で作成することも可能であるが,作成コストとカバレッジが問題となる.本研究では,これらの問題を解決するため,与えられた概念クラスの{\bf属性語}\footnote{本研究では,属性が実際に言語で表現される時の文字列を属性語と呼ぶ.テキストからの自動獲得では,実際に獲得できるのは属性語であり,複数の属性語が同じ属性を表すことがあり得るが,これらの認識は本研究の対象外とする.}をWebから自動獲得する手法を提案する.属性語の自動獲得を目指した研究はそれほど多くはない.既存研究には,質問応答を念頭において〈対象,属性,値〉という事実の集合を獲得しようとするもの\cite{Fleischman_2003,takahashi_2004}や,情報要約の際に副産物的に属性的な単語を生成するもの\cite{yoshida_wda,yoshida_ai2004_en}などがあるが,概念クラスの属性語を明示的に獲得し,その精度を詳しく評価したものはなかった.我々は,属性知識の段階での問題の性質を明らかにし,属性語をあらかじめ高精度で獲得しておくことが,最終的には質問応答などのために値まで獲得する場合などでも大きく役に立つという考えから,属性語の獲得に焦点をしぼる.属性語は語彙知識の一つと言える.これまで語彙知識の自動獲得としては,上位下位関係の獲得\cite{Hearst_1992,Shinzato_2004_NAACL04_eng},全体部分関係の獲得\cite{Barland_ACL1999},言い換え関係の獲得\cite{Barzilay01}などが試みられてきた.上位下位関係や全体部分関係など名詞間の関係の獲得に関しては,目的の関係を特異的に示す言語的あるいは書式的なパターン,その他の統計的な手がかりを相補的に用いて獲得するアプローチがある程度の成功をおさめている\cite{Hearst_1992,Barland_ACL1999,Shinzato_2004_NAACL04_eng}.以下で概要を述べるが,本研究で提案する獲得手法もこの範疇に入る.本研究で提案する獲得手法では,クラス$C$(例えば,「車」)の属性語を獲得するために,まず,$C$を含む文書をWebから検索エンジンを用いて発見し,収集する\footnote{本論文では,混乱が無いと思われる場合には,クラスとクラスを表す語(クラス語)の両方を$C$と表記する.}.収集された文書から属性語の候補を抽出し,それらを言語的パターン・HTMLタグ・単語の出現に関する統計値を利用したスコアに従って順位付けし,スコアの高い候補を属性語として出力する.このスコアは,属性語に関する我々の観察が反映されるように設計されている.前述したように,言語的パターンは他の語彙知識獲得手法でも用いられてきた\cite{Fleischman_2003,almuhareb-poesio:2004:EMNLP,Hearst_1992,Barland_ACL1999,takahashi_2004}.特に,本研究で用いる言語的パターンは,「$C$の$A$」という助詞「の」を介したパターンである(ただし,$A$は属性語候補).このパターンは,直感的に有用と考えられ,関連研究である\cite{takahashi_2004}でも同様のパターンが用いられている.また,属性知識の特殊な場合である全体部分関係を英語を対象として獲得した\cite{Barland_ACL1999}でも「$A$of$C$」という類似したパターンが用いられている.この獲得手法の新規性は,広範なクラスに対して属性語を獲得することを目的としてWebを情報源として用いること,その際,クラスと関連の高い文書に注目するためWeb検索を用いること,それにともない,HTMLタグといったWeb特有の手がかりを利用できることにある.ただし,手法はできるだけ簡素になるようにした.標準的な言語パターンを用い,頻度やdf・idfなどの単純な積をスコアとして用いる.また,正解データの作成はコストがかかることから,\cite{Fleischman_2003}のような教師付き学習を用いるアプローチではなく,教師無しで獲得することを目指した.実験では,この提案手法で各クラスに対して上位20個の属性語を出力した時に,約73\%の適合率で厳密な属性語が獲得でき,約85\%の適合率で緩い属性語が獲得できることを示す\footnote{厳密な属性語・緩い属性語の違いについては本文で詳細を述べる.}.属性語獲得の研究では,属性語の定義,言い換えれば,獲得された属性語に対する評価基準が確立されていないことも問題になる.本研究では,質問解答可能性という考えに基づいた言語テストによる評価手順を示すことで,この問題の解決を目指す.属性語を定義するには,例えば「もし$A$が,$o$をクラス$C$に属するインスタンスとした場合に$v=A(o)$のように関数的に働き,$v$が$o$をクラス$C$の他のインスタンスから区別するのに重要であるならば,$A$は$C$の属性語である」のように分析的に定義することも可能であるが,このような分析的な定義は人手の評価で直接用いるには複雑で難しく,評価結果の信頼性も低くなると予測される.そこで,本研究では,いくつかの簡単な言語テストを用いた評価方法を提案する.言語テストは,評価者の直感を利用したYES-NOテストであり,評価者の負担が軽減され評価結果の信頼性も向上すると考えられる.提案する評価方法は「属性とは答えが知りたくなるような項目である」という我々の元々の直感を反映したもので,「その値を問うような質問文を生成でき,それに対して答えが存在するならば属性語である」という考え(質問解答可能性)に基づく.本研究ではこの考えに基づいた評価手順を設計する.属性語の判定のための言語テストはこれまでにも提案されている.例えば,Woodsは「the$A$of$o$is$v$」という表現が可能かどうかで判定できることを述べている\cite{Woods_1975}.しかし,この言語テストを自動獲得された属性語の評価に実際に適用した研究はこれまで行われていない.また,本文で詳しく述べる通り,この基準だけでは,特に日本語に置き換えたときに,重要でない語が属性語と判定されてしまうなどの誤判定が発生する可能性がある.本研究で提案する判定方法は,質問解答可能性の考え方に基づいた言語テストによって,より重要な属性語に焦点をあてるとともに,いくつかの補足的な言語テストを組み合わせることで,より正確な判定を目指したものである.最後に,いくつかの文献が指摘する通り,属性には「重さ」などの性質,「エンジン」などの部分,「操作感」などのtelic的属性,「製造会社」などのagent的属性など多くのサブタイプがある\cite{Guarino1992,GenerativeLexicon}.しかし,これらの区別が無いとしても,属性は前述した応用で有用であり,また,区別のための評価基準は複雑で安定した評価が困難になるということから,本研究ではこれらの区別は無視することにした.本論文の構成は以下の通りである.節\ref{sec:method}\,で,属性語獲得のための提案手法の詳細を述べる.次に,節\ref{sec:criteria}\,で属性語の評価基準とそれに基づく評価手順を示す.節\ref{sec:experiment}\,で,提案手法を提案評価手順で評価した実験の結果を示し,節\ref{sec:discussion}\,でいくつかの考察と今後の課題を述べる. \section{獲得手法} \label{sec:method}この節では,属性語の自動獲得手法の詳細を述べる.\subsection{属性語の性質に関する観察}\label{sec:obs}はじめに,獲得手法の基になった属性語の性質に関する我々の観察を示す.具体的には,属性語には以下に挙げる三つの性質があることが分かった.\begin{description}\item[性質(1)]属性語は,助詞「の」を含む「$C$の$A$」という言語的パターンでクラス語と共起する傾向がある.\item[性質(2)]属性語は,Web文書中でHTMLタグを用いて強調表示されたり,リストや表の要素として出現する傾向がある.\item[性質(3)]属性語は,クラス語を含む文書に出現しやすく,他の文書にはあまり出現しない傾向がある.\end{description}以下では,これらの性質を利用した獲得手法を提案する.\subsection{属性語候補の獲得}提案手法では,まずはじめに,属性語の候補となる語を以下のようにWebから収集する.クラス$C$の属性語を獲得する場合,クラス語$C$を含む文書をWeb検索エンジンを用いて求め,ダウンロードする.本研究ではこの文書集合を局所文書集合(localdocumentset)と呼び,$LD(C)$と表記する.このような収集の方法は前節で述べた属性語の性質(3)を反映していると考えられる.次に,この$LD(C)$中の全ての名詞\footnote{形態素解析器JUMAN\cite{JUMAN_eng}によって普通名詞・サ変名詞・地名・未定義語(のうちカタカナかアルファベット)と判定された語である.}を取り出し,これを属性語の候補とする.複合語が属性語になる可能性もあるが,簡単のため,本研究では一語からなる属性語のみを扱うことにした.\subsection{属性語候補の順位付け}前節の方法で得られた属性語候補は,節\ref{sec:obs}\,で述べた属性語の性質のうち性質(3)を考慮しているとはいっても,属性語でない語も多く含んでいる.そこで,属性語候補を他の性質も反映したスコアによって順位付けし,上位の語のみを属性語として出力するようにする.本研究で提案するスコア関数はいくつかのサブスコアを掛け合わせた以下の形をしている.\begin{equation}V(C,A)=n(C,A)\cdotf(C,A)\cdott(C,A)\cdotdfidf(C,A).\label{eq:score}\end{equation}$A$は属性語候補であり,$C$はクラスである.$n(C,A)$と$f(C,A)$は言語的パターンに関するサブスコアで性質(1)を反映している.$t(C,A)$はHTMLタグに関するサブスコアで性質(2)を反映している.$dfidf(C,A)$は単語の出現に関する統計値によるサブスコアで,性質(3)を反映したものである.これらのサブスコアを掛け合わせることで,正しい属性語に高いスコアが与えられることを期待している.サブスコアの組み合わせ方には,他にいくつも選択肢が考えられるが,ここでは最も単純な方法の一つを選択した.以下では,これらのサブスコアの詳細を述べる.\subsection{サブスコアの詳細}まず,$n(C,A)$は性質(1)を反映したスコアである.性質(1)で述べたように,属性語の獲得には助詞「の」を介して$C$が$A$に係る言語的パターン「$C$の$A$」が大きな手かがりになると期待される.従って,$n(C,A)$としては$C$と$A$が「の」を介して係った回数などが考えられる.本研究では,$n(C,A)$として$C$と$A$が局所的文書集合$LD(C)$中で表\ref{table:pattern}\,に挙げたパターンのいずれかで共起した回数を用いる.「$C$の$A$」の係り受けの回数は「$C$の$A${\sfP}」({\sfP}は助詞あるいは句読点)というパターンの出現回数である程度近似できると考えられるからである\footnote{助詞あるいは句読点の存在によって,例えば「$C$の$A${\sfN}」({\sfN}は名詞)のように$A$が複合名詞の一部になっている場合を間違ってカウントしてしまうことを防ぐことができる.}.\begin{table}[b]\caption{スコア$n(C,A)$のための言語的パターン}\label{table:pattern}\begin{center}\begin{tabular}{|lllll|}\hline$C$の$A$は&$C$の$A$を&$C$の$A$から&$C$の$A$で&$C$の$A$へ\\$C$の$A$が&$C$の$A$に&$C$の$A$まで&$C$の$A$より&$C$の$A$,\\\hline\end{tabular}\end{center}\end{table}$f(C,A)$は33年分の係り受け解析済みの新聞記事中\footnote{読売新聞1987年--2001年,毎日新聞1991年--1999年,日経新聞1983年--1990年(全体で3.01GB)を日本語係り受け解析器\cite{Kanayama_2000}で解析したもの.}で$C$と$A$が「$C$の$A$」という係り受けで共起した回数である.$n(C,A)$に加えて$f(C,A)$を用いる理由は,マッチさせる文書の量を増やして信頼性の高いスコアを得るためである.本研究を進める過程で,我々が用いたものも含め商用の検索エンジンではクエリにマッチする文書のごく一部のURL(最大で一千文書程度)しかユーザに提示しないという制限があり,現実にはクラス語を含む文書を大量に収集できないという問題があることが分かった.解決策としては,表\ref{table:pattern}\,で挙げたパターンでのフレーズ検索のヒット件数を用いることも考えられたが,実験で述べるように属性語候補の数は2万程度になり,商用検索エンジンに大きな負担をかけることになる.そこで,本研究では我々が既に持っていた大量の係り受け解析済み新聞記事を用いることにした.将来的には,検索結果の取得に制限のない独自のWebリポジトリを構築し,大量のWeb文書から共起回数を求める予定である.\begin{figure}[t]\setbox0\vbox{\verb!<B>!タイ風・カレー\verb!</B><BR>!材料\verb!<BR>!鶏肉400\,g,なす2個,バイマックルー2枚,ナンプラー大さじ1.5\verb!<BR>!赤唐辛子1.5本,砂糖小さじ1,ココナッツミルク,バジル\verb!<P>!スパイス\verb!<BR>!コリアンダー,クミン\verb!<P>!作り方\verb!<BR><OL><LI>!材料をペースト状にして,カレーペーストを作る\verb!</LI><LI>!カレーペーストを熱した鍋に加えて香りを・・・}\begin{center}\fbox{\box0}\end{center}\caption{HTML文書の例}\label{fig:html}\end{figure}$t(C,A)$は$A$が$LD(C)$中にHTMLタグで囲まれて出現した回数,より正確には,\linebreak「\verb!<!{\ittag1}\verb!>!$A$\verb!<!{\ittag2}\verb!>!」という形式で$A$が出現した回数である.ただし,回数をカウントする際には,HTMLタグ間の文字数(つまり$A$の長さ)は最大でも20と制限する.長い文字列は単語ではなく文になっていることが多く,ほとんど属性にはなり得ないからである.また,ここでの\verb!<!{\ittag1}\verb!>!と\verb!<!{\ittag2}\verb!>!は開始タグ(\verb!<A>!など)・閉じタグ(\verb!</A>!など)のどちらでもよいことにする.例えば,図\ref{fig:html}\,のHTML文書では,「タイ風・カレー」「材料」「スパイス」「コリアンダー,クミン」「作り方」などの語がカウントされる.このスコアは属性語の性質(2)を反映したもので,Web文書中で強調表示される語,改行などによりフォーマットされる語,列挙や表の要素になる語などに高い値を与えることを目的としている.最後に,$dfidf(C,A)$は性質(3)を反映したスコアである.このスコアでは$A$を含む文書に多く出現し,しかも,特徴的な語(ストップ語のような普遍的な語でない語)に高い値を与えることが目標である.本研究では,上位語と下位語の関連度を測るために新里ら\cite{Shinzato_2004_NAACL04_eng}が用いたスコアを参考にして,以下の式で計算されるスコア関数を用いることにした.\[dfidf(C,A)=df(A,LD(C))\cdotidf(A),\;\;\;idf(A)=\log{\frac{|G|}{df(A,G)}}.\]ここで,$df(A,x)$は文書集合$x$中で$A$を含む文書の数を表している.$G$は大域的文書集合(globaldocumentset)と呼ばれるランダムに収集された大量のWeb文書であり,Web全体を近似した文書集合である.これを用いて$idf$を計算することによりWebにおける特徴的な語を知ることができる.\clearpage \section{属性語のための評価基準} \label{sec:criteria}自動獲得された属性語の良さを評価するには,何らかの定まった評価手順が必要になる.本研究では,我々が質問回答可能性と呼ぶ基準に基づいた評価手順を提案する.質問回答可能性とは,ある語に関して,その値を問う質問文を生成でき,答えが存在する,ということである.我々は,質問回答可能性が成り立つならばその語は属性語であるという仮定をした.これは,我々の属性の利用方法(QAや要約)を考えると,直感的に妥当な仮定だと思われる.例えば,「車」について考えると,「この車の製造会社はどこか?」といった質問文が可能であり,誰かが「A社」と答えることができる(質問回答可能性が成り立つ)ので,「製造会社」は属性語と考えても良いということになる.ある人が「車」について知りたいとき「製造会社」が何であるかは重要な情報であるので,これは妥当であろう.\begin{figure}[t]\begin{center}\epsfxsize=\textwidth\epsfbox{eval_proc.eps}\end{center}\caption{属性語の評価手順}\label{fig:eval-proc}\end{figure}提案する評価手順では,評価者は最大で4つのYES-NO質問に答えることで判定を行う.これら4つの質問とは,評価者に提示される順に,下位語テスト(節\ref{sec:hyp-test}),QAテスト(節\ref{sec:qa-test}),接尾拡張QAテスト(節\ref{sec:qa-suffix-test}),一般性テスト(節\ref{sec:gen-test}),である.QAテスト・接尾拡張QAテストの2つが,質問回答可能性を直接用いたテストである.下位語テスト・一般性テストは,QAテストを補強するためのものである.評価手順の全体の流れは,図\ref{fig:eval-proc}\,に示すようになる.以下の節では,各テストの詳細を説明する.\subsection{QAテスト}\label{sec:qa-test}実際の順番とは異なるが,まず,本研究の提案の中心的な判定手順である質問回答可能性テスト(QAテスト)から説明する.我々は,前述した質問回答可能性基準に従って,図\ref{fig:qa-test}\,に示すQAテストを設計した.\begin{figure}[b]\begin{boxedminipage}[t]{\textwidth}\begin{center}\begin{flushleft}{\bf下に挙げる質問文の中に,文法的に正しく,常識的に自然で,\\\hspace{2cm}答えが仮想的にでも想像できるものはありますか?}\end{flushleft}\vspace{2mm}\begin{tabular}{p{3.5cm}p{4cm}p{3.5cm}}1.\この$C\;\;$の$A$は何?&4.\この$C\;\;$の$A$はどこ?&7.\この$C\;\;$の$A$はどう?\\2.\この$C\;\;$の$A$は誰?&5.\この$C\;\;$の$A$はどれ?&\\3.\この$C\;\;$の$A$はいつ?&6.\この$C\;\;$の$A$はいくつ?&\\\end{tabular}\end{center}\end{boxedminipage}\caption{QAテスト($C$はクラス語,$A$は判定しようとしている属性語)}\label{fig:qa-test}\end{figure}このQAテストについて,いくつか注意点がある.第一に,属性語に対する値は実際にはクラスのインスタンスに対して定義されるため,このQAテストでは,$C$を「この」で限定することで(ある)インスタンスを指すようにして質問が不自然になるのを防いでいる.また,質問文中で$C$の後にスペースを入れることで評価者が適切な係り受け(「この$C$」が$A$に係る)を想像できるようにした.第二に,$A$に対する適切な質問の種類をあらかじめ(自動で)決めることは難しいので,テストでは図\ref{fig:qa-test}\,に挙げたように考えられる全ての種類の質問を生成し,そのいずれかが許容できるかを判定するようにした.第三に,質問は文法的に正しいだけでなく「常識的に自然」でなければならない.本研究の実験では,この「自然」さを「その質問が通常の会話の第一発話としてあり得るか」で判断するようにした.我々の考えでは,属性語はインスタンスを述べる際に重要なものでなければならない.そこで,この「自然」さを満たす属性がそのような重要な属性語であるという仮定を置いた.例えば,おそらく全ての「会社」は「机」を所有しているが,我々の考えでは「机」は「会社」の属性語ではない.「この会社の机は何ですか?」といった質問は文法的に正しいけれども,「会社」についての通常の会話の第一発話としては不自然であるから,この「自然」さのチェックによって「机」が属性語になるのを防ぐことができる\footnote{もちろん,「机」は事務機器の販売員にとっては「会社」の重要な属性語かもしれないが,本研究ではあくまでも普通の人々にとって通常の状況で重要な属性語を獲得することを目標とする.}.重要な点は,Woodsの言語テスト\cite{Woods_1975}(「the$A$of$o$is$v$」が可能か)だけでは「thedeskof(=usedin)Com-XisDesk-Y」のように言えてしまうので,「机」を棄却することができないことである.また,質問は質問者が重要であると考えることについてするのであるから,質問文を判定に用いることでより重要さを重視することができる.最後に,質問への答えは必ずしも言語で表現できなくてもよい.例えば,「地図」「姿」「設計図」などに対する値は言語では表現できず,他の手段で表現されるが,これらも重要な属性語であることは明らかである.Webページには言語以外の表現(画像,音声など)を含めることができるため,それらを値とする属性への言及も増えると考えられる.そのため,Webから属性語を獲得する場合,そのような属性語も獲得される可能性が大きい.従って,質問への答えが言語に限らないことをあらかじめ評価者に明確にしておいた.\subsection{接尾拡張QAテスト}\label{sec:qa-suffix-test}獲得された属性語のいくつかは,正しいと思われるにもかかわらず前節のQAテストで棄却されてしまうことがある.大きな理由の一つは,獲得された属性語が,実際に意味している属性の標準的な属性語とは異なる文字列として獲得される場合があることである.これは,日本語が省略的であること,我々の獲得手法が実際にコーパスに現れた表層形を処理して獲得すること,また,1単語の属性語しか獲得しないことなどに起因している.例えば,下の例文中で「生徒」は属性「生徒数」の意味で用いられている.\begin{center}(a)この学校の生徒は500人です.\end{center}このような文を手がかりにすると,提案手法では「生徒」が「学校」の属性語として獲得される可能性が高い.一部が省略されている属性語でも,実際に(a)のような文で使用されることから応用の面で有用であると考えられるので,正しいと判定されるのが我々の立場では好ましい.ところが,省略があると前節のQAテストで棄却されてしまうことがある.例えば,上の「生徒」を判定する場合,これが「生徒数」を意味しているときには,QAテストの質問の中では「この学校の生徒はいくつ?」が一番適当であるが,これは,人数に「いくつ」は使えないため文法的ではない.そのため,「生徒」は棄却されることになる\footnote{「生徒」を個々の構成員を表す属性として判定するとしても,「この学校の生徒は誰?」は文法的であっても「常識的に自然」の要請を満たしていないとして棄却されてしまう可能性がある.}.日本語では,省略された部分のほとんどは属性語の後に適切な接尾辞を付加するか,「の+名詞化形容詞・形容動詞」を付加することで復元することができる.例えば,上の例では接尾辞「数」を付ければ良い.そこで,最初のQAテストで棄却された場合には,適切な付加を行って属性語を拡張した上で,それを評価すべき語としてQAテストを再度行うようにした.上の例では,「生徒数」をQAテストで再び評価する.実際のテストで許される拡張は,図\ref{fig:suffix}\,に示した通りである.可能な接尾辞については,図\ref{fig:suffix}\,に示した適用範囲が広いと思われるものに限定し,これでカバーできないものは,名詞化した形容詞・形容動詞を適切に付加してもらうことで対処した\footnote{接尾拡張QAテストは,初めのQAテストでの疑問文が網羅的であれば必要なかったかもしれない.しかし,我々は,簡単で限定的なテストで大部分をカバーし,カバーしきれないものをより複雑なテストで再確認するほうが評価の負担が減り評価の安定性が向上すると考えた.}.このテストを,接尾拡張QAテストと呼ぶことにする.\begin{figure}[t]\begin{boxedminipage}[t]{\textwidth}\begin{center}\begin{itemize}\item{\sf「$A$(の)$S$」}($S$=数,方法,名,者,時間,時刻,時期,場所,金額,程度,具合)\item{\sf「$A$の$Y$さ」}({\sf$Y$さ}=形容詞・形容動詞の名詞化「高さ」「重さ」など)\end{itemize}\end{center}\end{boxedminipage}\caption{接尾拡張QAテストで許される拡張($A$は元の属性語)}\label{fig:suffix}\end{figure}\subsection{一般性テスト}\label{sec:gen-test}我々の当初の目的は与えられたクラスに対する属性語を獲得する,つまり,クラスの全てのインスタンスに共通の属性語を獲得することであった.しかし,評価者によっては,全てのインスタンスに共通の属性語ではないが興味深い属性語を正しいものとして判定することが予備実験において分かった.例えば,クラス「映画」に対する「字幕」や「車」に対する「後席」などである.全ての映画に字幕がある訳ではないので,厳密には「字幕」は映画の属性語ではない(例えば,日本では字幕はほとんど外国映画に対して付与される)し,全ての車に後席がある訳ではないので厳密には「後席」は「車」の属性語ではない.しかし,厳密に属性語ではなくてもそれを持つようなインスタンスの割合・重要性が高い場合には,正しいと評価される傾向があることが推測される.このような属性語はその割合・重要性から実用的に有用であると考えられる.このような全てのインスタンスに共通する属性語とそうでない属性語の性質を調べることができるように,QAテストで受理された属性語に関しては,それがそのクラスの「ほとんど全て」のインスタンスに共通するかを最後に判定するようにした.このテストを一般性テストと呼ぶ.一般性テストで受理された属性語を「厳密な属性語」と呼び,QAテストで受理されて一般性テストで棄却された属性語を「非一般属性語」と呼ぶ.また,「厳密な属性語」と「非一般属性語」を合わせて「緩い属性語」と呼ぶことにする.実験では,厳密な属性語としての獲得精度,緩い属性語としての獲得精度を調査比較する.\subsection{下位語テスト}\label{sec:hyp-test}最後に,下位語テストについて説明する.我々の提案手法では,誤って獲得された属性語の中にクラス$C$の下位語やインスタンスと考えられる語が多く含まれることが分かった.もし,評価対象の$A$が$C$の下位語やインスタンスなら,それは$C$の属性語にはなり得ないが,「$C$の$A$」という表現が自然になってしまうためQAテストで混乱を引き起こしやすい.例えば,「アニメ」のインスタンスとして「ドラゴン{\sfX}」があるとすると,「アニメのドラゴン{\sfX}」という表現は自然であり,「ドラゴン{\sfX}」は明らかに「アニメ」の属性語でないのにQAテストで誤って受理されてしまう可能性がある.そこで,QAテストの前に図\ref{fig:hypo}\,で示される下位語テストにより$A$が$C$の下位語やインスタンスであるかを判定し,下位語やインスタンスでない場合にだけQAテスト以降に進むようにした.\begin{figure}[t]\begin{boxedminipage}[h]{\textwidth}\begin{center}\begin{flushleft}{\bf$A$と$C$の間に,以下に挙げる関係のどれか一つでもなりたっていますか?}\\「$A$は$C$の一種である」「$A$は$C$のひとつである」「$A$は$C$の一人である」\end{flushleft}\end{center}\end{boxedminipage}\caption{下位語テスト}\label{fig:hypo}\end{figure}逆に,$A$が$C$の上位語である場合には,上位語であっても必ずしも$A$が属性語でないとは言えないのでそのようなテストは行わない\footnote{例えば,「アニメ」に対する「映像」のように,「映像」は「アニメ」の上位語であるが,「このアニメの映像はどう?」—「きれい」などの質問回答ができるので属性語である.上位語であって属性語でない場合にはQAテストでほとんど棄却できる.}. \section{実験} この節では,提案獲得手法を前節で述べた評価手順で評価した実験について述べる.\label{sec:experiment}\subsection{実験設定}まず,評価のために32個のクラスを用意した.Webに現れるようなクラスで評価を行うため,この32個のクラスは,新里らの上位下位関係獲得手法\cite{Shinzato_2004_NAACL04_eng}によってWebから獲得された共通の上位語をもつ単語クラス1,589個の中から選んだものであり,このときの上位語をクラス語として用いる.単語クラスに含まれる下位語は,クラス語の意味が曖昧な場合に意味を特定するための情報として評価者が参照できるようにした.また,我々の目的は上位下位関係獲得の評価ではないので,上の獲得手法でうまく獲得されている単語クラスを選んだ.さらに,この32個のクラスからランダムに22個のクラスを選び(表\ref{table:classes}),評価の対象とした\footnote{評価にかかる時間・コストの制約のためにこのような選択を行った.}.提案獲得手法で用いられる局所文書集合$LD(C)$の収集にはWeb検索エンジンである{\sfgoo}(http://www.goo.ne.jp)を用いた\footnote{$C$が検索エンジンの形態素解析により分割されてしまうのを防ぐため,フレーズ検索(完全一致)で検索している.}.$LD(C)$の大きさはクラス平均で857文書(URL)であった.また,この$LD(C)$から得られた属性語候補はクラス平均で約2万語であった.サブスコア$dfidf(C,A)$の計算に必要な大域文書集合$G$としてはWebからランダムに収集した$10^6$文書を用いた\footnote{これは,論文\cite{Shinzato_2004_NAACL04_eng}で用いられた文書集合と同じものである.}.\begin{table}[t]\begin{center}\caption{評価で用いた22個のクラス}\label{table:classes}\begin{tabular}{|p{12.8cm}|}\hline都市,博物館,祝日,警察,施設,大学,新聞,ごみ,神社,鳥,病院,植物,川,小学校,曲,図書館,支店,サイト,町,センサー,研修,自動車\\\hline\end{tabular}\end{center}\end{table}各クラスについて提案手法および後で述べる比較手法による上位50個の属性を出力し,評価対象とした.効率的に評価するため,上記の全ての手法による属性語を一つの集合にまとめ(重複があれば取り除く),評価の公平性を保つためランダムに並べ替えた.このように重複を除くと,評価すべき属性語は全てのクラスで合わせると$3,678$個だった.これらの属性語を,提案評価手順を実装したGUIツールを用いて4人の評価者がそれぞれ4日間かけて評価した.この評価結果から,それぞれの手法の上位50個の出力に対する評価が生成できる.この実験に関して,評価者間の一致度を示すkappa値\cite{landis1977}は,厳密な属性語の評価としては$0.533$,緩い属性語の評価としては$0.593$となり,両者とも「中程度」の一致を示した.\subsection{提案手法の精度}\begin{figure}[t]\begin{center}\begin{tabular}{cc}\epsfxsize=0.45\textwidth\epsfbox{wid.evaluator.eps}&\epsfxsize=0.45\textwidth\epsfbox{wid.average.eps}\end{tabular}\end{center}\caption{緩い属性語としての精度}\label{fig:wid}\par\vspace{1\baselineskip}\begin{center}\begin{tabular}{cc}\epsfxsize=0.45\textwidth\epsfbox{gen.evaluator.eps}&\epsfxsize=0.45\textwidth\epsfbox{gen.average.eps}\end{tabular}\end{center}\caption{厳密な属性としての精度}\label{fig:gen}\end{figure}図\ref{fig:wid}\,に提案獲得手法による緩い属性語としての精度,図\ref{fig:gen}\,に厳密な属性語としての精度を示す.それぞれの図において左のグラフは各評価者(Evaluator1-4)による適合率,右は評価者に関する平均・3人一致(3-consensus)・4人一致(4-consensus)の適合率である\footnote{平均に関しては縦棒で$\pm$標準偏差を示す.}.グラフの$X$軸は上位何個まで集計するかを,$Y$軸はそのときの適合率を表している.大まかに言って,グラフの$X$軸は再現率に対応する\footnote{出力されるべき全ての属性を知ることはできないので再現率を正確に計算することはできない.これらのグラフは,正確な再現率を$X$軸とした場合より,適合率が高い手法に多少不利なグラフになっている.}.上位$n$個における評価者$k$による適合率$P_k$は,$\mathcal{C}$を評価に用いたクラスの集合とすると,\[\frac{1}{n|\mathcal{C}|}\sum_{C\in\mathcal{C}}(\mbox{$C$の上位$n$個の出力の中で$k$が正しいと判定した属性語の数})\]で計算される.評価者に関する平均の適合率は,$\frac{1}{|\mathcal{K}|}\sum_{k\in\mathcal{K}}P_k$で計算される($\mathcal{K}$は評価者の集合).また,$M$人一致の適合率は,\[\frac{1}{n|\mathcal{C}|}\sum_{C\in\mathcal{C}}(\mbox{$C$の上位$n$個の出力の中で$M$人以上が正しいと判定した属性語の数})\]で計算される.グラフをみると,適合率自体は評価者に大きく依存するが,提案手法の順位付けと適合率の間の正の相関は共通して存在することが分かる.これは提案手法の妥当性をある程度示していると言える.また,緩い属性語としての評価と厳密な属性語としての評価を比べると,厳密な属性語の方が獲得が難しいことが分かる.加えて,厳密な属性語としての評価(つまり,一般性テスト)は評価者によって大きく傾向が違うことが分かる.緩い属性語の評価の場合にはプロットはほとんど交差していない.これは評価者間で許容度の差はあっても評価の傾向は変わらないことを示している.一方,厳密な属性語の場合には,プロットが交差しており,評価者によって評価の傾向が異なることを示している.緩い属性語の場合に一番許容的であった評価者3(図中,Evaluator3)が厳密な属性語の場合にはそうでもない点などは興味深い.これらのことから,一般性テストは他のQAテストなどに比べて一致を得るのが難しいテストになっていることが推測され,先に示したkappa値の違いもそれを示唆している.提案手法による獲得精度はおおむね期待の持てるものである.どの評価尺度を採用するのが妥当かは難しい問題であるが,例えば\cite{Barland_ACL1999}で用いられた多数決基準(本実験の場合,3人一致)を用いるとすれば,提案手法は上位20個の属性語を出力した場合,緩い属性語は0.852,厳しい属性語は0.727の適合率で獲得できることになる.表\ref{table:example}\,に,実際に獲得された属性語の上位20個をいくつかのクラスに対して示す.これらをみると,実際に興味深い属性語が獲得できていることが分かる.\begin{table}[th]\begin{center}\caption{提案手法による上位20個の属性語.\\括弧中前の数字は緩い属性語として判定した評価者の数,\\後の数字は厳密な属性語として判定した評価者の数である.}\label{table:example}\begin{tabular}{|p{1.2cm}|p{12cm}|}\hline\multicolumn{1}{|c|}{クラス}&\multicolumn{1}{|c|}{属性語}\\\hline鳥&写真[4/4]名前[4/2]種類[4/4]イラスト[3/3]特徴[4/4]病気[4/2]生活[4/4]話題[3/2]関係[0/0]イメージ[4/4]巣[4/4]鳴き声[4/4]姿[4/4]情報[4/4]世界[0/0]声[4/4]動物[0/0]ページ[3/2]生態[4/4]羽[4/4]\\\hline病院&ホームページ[4/1]施設[3/3]情報[4/4]紹介[4/4]窓口[4/4]認定[3/3]名称[4/2]医師[4/4]精神科[4/2]評判[4/4]対応[4/4]電話[2/2]診療[4/4]治療[4/4]医療[3/3]機能[3/3]院長[4/4]評価[4/4]診察[4/4]ページ[2/2]管理[4/3]一部[1/1]\\\hline植物&名前[4/2]種類[4/4]写真[4/4]種子[4/4]栽培[4/3]観察[4/3]特徴[4/4]説明[4/4]画像[4/4]調査[4/3]データ[4/4]進化[3/3]解説[4/4]リスト[2/2]葉[4/3]保存[2/2]デザイン[1/1]生育[4/4]\\\hline川&水位[4/4]上流[4/4]名前[4/2]環境[4/4]水質[4/4]歴史[4/4]源流[4/4]写真[4/4]水[4/4]水面[4/4]場所[4/4]流れ[4/4]水辺[4/4]水源[4/4]四季[3/3]特徴[4/4]中[1/1]ほとり[4/4]自然[4/4]せせらぎ[4/4]\\\hline小学校&活動[4/4]取り組み[4/3]運動会[4/4]子ども[4/4]ホームページ[4/0]校長[4/4]教室[4/4]校歌[4/4]児童[4/4]校舎[4/4]行事[4/4]学習[3/3]給食[4/3]ページ[2/2]体育館[4/4]学級[3/3]メール[0/0]学年[1/1]始業式[4/4]音楽[2/2]\\\hline曲&歌詞[4/1]タイトル[4/2]演奏[4/4]リスト[0/0]イメージ[4/4]作詞[4/1]楽譜[4/4]名前[4/2]内容[3/3]ジャンル[4/4]情報[4/4]ポイント[4/4]世界[1/1]メロディー[4/4]最後[3/2]題名[4/2]中[0/0]作曲[4/4]テーマ[4/4]データ[4/2]\\\hline図書館&資料[4/4]ホームページ[4/2]ページ[3/1]歴史[4/4]設置[4/4]システム[4/4]蔵書[4/4]コピー[2/2]本[4/4]場所[4/4]利用[4/4]サービス[4/4]データベース[4/3]図書[4/4]新聞[4/4]休館[4/4]目録[3/3]展示[4/2]施設[2/2]情報[4/4]\\\hline支店&所在地[4/4]パソコン[2/1]紹介[4/4]歴史[3/3]営業[4/3]電話[2/2]ホームページ[4/1]住所[4/4]窓口[4/3]駐車場[4/3]\\\hlineサイト&情報[4/4]掲示板[4/2]内容[4/4]運営[4/4]リンク[3/2]登録[3/2]紹介[4/3]写真[2/1]中[1/1]コンテンツ[4/4]\\\hline町&人口[4/4]歴史[4/4]ホームページ[4/0]観光[4/4]情報[3/3]財政[4/4]施設[4/4]文化財[4/2]環境[4/4]温泉[3/1]話題[3/2]四季[3/3]イベント[4/3]図書館[4/3]文化[4/4]風景[4/4]シンボル[4/3]産業[4/3]農業[4/2]議会[3/3]\\\hlineセンサー&情報[4/4]感度[4/3]種類[4/3]位置[4/4]取り付け[4/4]開発[4/4]精度[4/4]サイズ[4/4]仕様[4/4]温度[2/1]データ[4/4]セット[4/4]設置[4/4]機能[4/4]技術[4/4]特長[4/4]ページ[3/3]高さ[3/2]採用[3/3]応用[4/4]\\\hline研修&内容[4/4]目的[4/4]実施[4/4]テーマ[4/3]プログラム[4/4]講師[4/4]予定[4/4]名称[4/2]メニュー[4/4]報告[4/4]対象[4/4]成果[4/4]充実[2/2]場[3/3]あり方[2/2]詳細[4/4]機会[1/1]定員[4/4]受講[4/4]ほか[0/0]\\\hline\end{tabular}\end{center}\end{table}\subsection{各サブスコアの効果}次に,提案手法のスコア(式\ref{eq:score})における各サブスコアの効果を調べるため,式\ref{eq:score}\,から各サブスコアを除いたスコアを用いたときに精度がどの程度変化するかをみた.まず,評価者平均精度の変化でみると,全てのサブスコアに関して効果がある(各サブスコアを除く事で精度が低下する)ことが観察された.さらに,各評価者ごとにみると,評価者によらず似た傾向の精度の変化があることが分かった.これは,前の実験で示したように評価自体は評価者によってかなり異なる事を考えると興味深い.この点をより詳しく分析するため,各サブスコアを除いた場合に関して,評価者ごとに精度の変化を計算し,変化の評価者に関する平均・標準偏差などを求めた.図\ref{fig:feature.diff}\,はそのようにして求めた平均・標準偏差をプロットしたものである.このグラフから,全般的に,ほぼ順位にかかわらず,全ての評価者で効果があることが分かる.左のグラフで示された緩い属性語の場合を詳しくみると,$f(C,A)$と$t(C,A)$の効果が特に大きい.また,$n(C,A)$は$f(C,A)$と同様に効果はあるが絶対値は小さいことが分かる.これは,前述したように利用できる文書の量の差によるものと考えられる.$dfidf(C,A)$は,低ランクまででみると正の効果を示しているが,高ランク域(1位--5位)ではわずかではあるが負の効果になっている.右のグラフの厳密な属性語の場合にも,全般としては正の効果があることが分かる.しかし,効果の程度は全般に小さくなり分散も大きくなっている.特に,$t(C,A)$の効果は緩い属性語の場合に比べて大幅に小さくなっている.一方で,$f(C,A)$の効果は逆に大きくなっている.\begin{figure}[t]\begin{center}\begin{tabular}{cc}\epsfxsize=0.48\textwidth\epsfbox{wid.feature.diff.eps}&\epsfxsize=0.48\textwidth\epsfbox{gen.feature.diff.eps}\end{tabular}\end{center}\caption{各サブスコアの効果.左:緩い属性語の場合右:厳密な属性語の場合.\\$n(C,A)$の効果は「Proposed-pattern(web)」,$f(C,A)$の効果は「Proposed-pattern(news)」,\\$t(C,A)$の効果は「Proposed-tag」,$dfidf(C,A)$の効果は「Proposed-dfidf」で示す.}\label{fig:feature.diff}\end{figure}\subsection{局所文書集合収集のためのキーワードの比較}\label{sec:exp-hyper}提案手法では,順位付けで用いられる局所文書集合を収集する際の検索エンジンに対するキーワードとしてクラス語を使用した.しかし,もし上位下位関係知識が利用できる場合には,クラスに属する下位語をキーワードとして局所集合を収集する事も可能であり,その場合に属性語の獲得精度がどのように影響されるかは興味深い問題である.そこで,この実験では提案手法のようにクラス語を用いる場合と下位語を用いる場合を比較した.実験で用いたクラスには,上位下位関係獲得手法\cite{Shinzato_2004_NAACL04_eng}により下位語が対応付けられているので,これを検索キーワードとして用いた.ここでは,収集された文書の質を比較するため,収集された文書から提案手法で収集された文書数とほぼ同数の文書をランダムで取り出して用いた.このようにして得られた局所文書集合を用いてスコア中の$n(C,A)$を計算する際には,$C$の代わりに下位語$H$を用いた場合に得られる頻度を全ての下位語について和をとって$n(C,A)$の値とした(つまり,$n(C,A)=\sum_Hn(H,A)$).他のサブスコアの値については提案手法と同じ値を用いた.図\ref{fig:hyponym.diff}\,に,前節の実験と同じ方法で緩い属性語と厳密な属性語について提案手法と比較手法の精度の差(差の平均$\pm$標準偏差)を示す.負の差は比較手法の精度が提案手法に比べて悪いことを表す.従って,この結果から,少なくともこの設定では局所文書集合の収集にはクラス語のほうが適していることが分かる.\begin{figure}[t]\begin{center}\begin{tabular}{cc}\epsfxsize=0.45\textwidth\epsfbox{wid.hyponym.diff.eps}&\epsfxsize=0.45\textwidth\epsfbox{gen.hyponym.diff.eps}\end{tabular}\end{center}\caption{クラス語と下位語の比較.左:緩い属性語の場合.右:厳密な属性の場合.}\label{fig:hyponym.diff}\end{figure} \section{今後の課題} \label{sec:discussion}本研究では,提案手法によってある程度の高精度で属性語を自動獲得できることを示したが,本格的な応用のためには,獲得精度のさらなる向上が必要である.また,属性語の性質についても更なる考察が必要である.以下に挙げる点が,今後の課題として考えられる.\begin{description}\item[質問回答可能性に基づいた手がかり]提案手法が現在用いている順位付けのスコア(式\ref{eq:score})は,節\ref{sec:criteria}\,で述べた評価基準の背後にある質問回答可能性などの考えを直接は反映していない.$n(C,A)$あるいは$f(C,A)$などで,「$C$の$A$」という言語的パターンの頻度としてわずかに反映されているだけである.属性語を提案評価手順で評価できるものと仮定するならば,獲得手法でも質問回答可能性などを手がかりとして直接利用することでより高い精度を達成できると考えられる.質問回答可能性を直接反映させるためには,例えば,Web上のFAQページから得られる統計値を使うことなどが考えられる.また,上位下位関係のデータベースが利用できるならば,評価手順中の下位語テストを反映したようなスコアを設計する事も可能である.実験では,厳密な属性語の獲得の精度が緩い属性語の獲得の精度に比べて低いことが分かったが,順位付けのスコアに属性語の一般性を直接捉えるようなサブスコアがないことを考えると,ある程度予測できることである\footnote{検索キーワードや言語パターン中でクラス語を用いる事で一般性が間接的に捉えられると考えられるが,クラス語だけでは曖昧性などの問題も起きていると考えられる.}.この場合にも,上位下位関係のデータベースを用いれば,例えば,下位語の何割にその属性語が当てはまるかなどの統計値を用いて属性語の一般性を反映したようなスコアも設計できると考えられる.\item[Webの最大限の利用]現在の提案手法では,前で述べた通り検索エンジンの制限からWebの文書を完全には利用できていない.利用できるWeb文書が増えればサブスコア$n(C,A)$の信頼性が上がり精度向上に役立つと考えられる.現在我々は,独自に収集したWeb文書に対して制限のない検索エンジンを構築することで,これを実現させることを計画している.大量のWeb文書があると下位語の過疎性も軽減されるので,節\ref{sec:exp-hyper}\,で述べた上位語(クラス語)と下位語の有用性についてもより詳しく分析することが可能になる.\item[実応用に向けた再現率の調査]獲得された属性語,また,本研究で提案した評価基準の妥当性は,究極的には実応用でどれだけ有用かによって判断される.実応用では,必要な属性語のどの程度が獲得できるかという属性語の再現率も重要になってくる.本研究ではこの点については分析していないので,例えばあるクラスについて考え得る属性語を人手で列挙し,そのうちどれくらいが実応用で必要になるかなどの分析を行いたいと考えている.また,本研究では上位下位関係獲得手法でうまく獲得できたクラスを評価に用いた.そのため,比較的易しい(頻繁に現れる)クラスについてのみ評価している可能性は否定できない.そこで,より難しい(稀な)クラスについての評価も必要になる.\item[属性の型の獲得]ある属性に対してどの質問が可能か,どのような接尾拡張が可能か,言い換えると,属性の値にどのような語が可能か(属性の型)という知識は,最終的に〈対象,属性,値〉の組まで獲得したい場合や,属性の種類(性質なのか全体部分かなど)を決定したい場合に重要になると考えられる.本研究では,獲得の際にはこの点を無視し,評価の際には評価者の判断に任せていた.今後は,このような知識も提案手法のような単語や言語的パターンの統計値を用いた方法などを用いて獲得したいと考えている.\end{description} \section{結論} \label{sec:conclusion}本研究では,Webから言語的パターン・HTMLタグ・単語の統計量を手かがりとして属性語を獲得する手法を提案した.また,獲得された属性語を評価するための質問回答可能性に基づいた評価手順を提案した.この評価手順を用いて提案獲得手法を評価し,属性語を高精度で獲得できること,また,用いた各手がかりが精度に貢献していることを確認した.\acknowledgment実験で使用したデータに関してアドバイスをいたただいた新里圭司氏に深く感謝いたします.また,実験で評価者として参加していただいた北陸先端科学技術大学院大学の学生の皆様に感謝いたします.\clearpage\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Almuhareb\BBA\Poesio}{Almuhareb\BBA\Poesio}{2004}]{almuhareb-poesio:2004:EMNLP}Almuhareb,A.\BBACOMMA\\BBA\Poesio,M.\BBOP2004\BBCP.\newblock\BBOQAttribute-basedandvalue-basedclustering:Anevaluation\BBCQ\\newblockIn{\BemProc.ofEMNLP2004},\mbox{\BPGS\158--165}.\bibitem[\protect\BCAY{Barzilay\BBA\McKeown}{Barzilay\BBA\McKeown}{2001}]{Barzilay01}Barzilay,R.\BBACOMMA\\BBA\McKeown,K.~R.\BBOP2001\BBCP.\newblock\BBOQExtractingparaphrasesfromaparallelcorpus\BBCQ\\newblockIn{\BemProc.ofEACL2001},\mbox{\BPGS\50--57}.\bibitem[\protect\BCAY{Berland\BBA\Charniak}{Berland\BBA\Charniak}{1999}]{Barland_ACL1999}Berland,M.\BBACOMMA\\BBA\Charniak,E.\BBOP1999\BBCP.\newblock\BBOQFindingpartsinverylargecorpora\BBCQ\\newblockIn{\BemProc.ofACL'99}.\bibitem[\protect\BCAY{Fellbaum}{Fellbaum}{1998}]{WordNet}Fellbaum,C.\BED\\BBOP1998\BBCP.\newblock{\BemWordNet:Anelectroniclexicaldatabase}.\newblockTheMITPress.\bibitem[\protect\BCAY{Fleischman,Hovy,\BBA\Echihabi}{Fleischmanet~al.}{2003}]{Fleischman_2003}Fleischman,M.,Hovy,E.,\BBA\Echihabi,A.\BBOP2003\BBCP.\newblock\BBOQOfflinestrategiesforonlinequestionanswering:Answeringquestionsbeforetheyareasked\BBCQ\\newblockIn{\BemProc.ofACL2003},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Guarino}{Guarino}{1992}]{Guarino1992}Guarino,N.\BBOP1992\BBCP.\newblock\BBOQConcepts,attributesandarbitraryrelations:Somelinguisticandontologicalcriteriaforstructuringknowledgebase\BBCQ\\newblock{\BemDataandKnowledgeEngineering},{\Bbf8},\mbox{\BPGS\249--261}.\bibitem[\protect\BCAY{Hearst}{Hearst}{1992}]{Hearst_1992}Hearst,M.~A.\BBOP1992\BBCP.\newblock\BBOQAutomaticacquisitionofhyponymsfromlargetextcorpora\BBCQ\\newblockIn{\BemProc.ofCOLING'92},\mbox{\BPGS\539--545}.\bibitem[\protect\BCAY{Kanayama,Torisawa,Mitsuishi,\BBA\Tsujii}{Kanayamaet~al.}{2000}]{Kanayama_2000}Kanayama,H.,Torisawa,K.,Mitsuishi,Y.,\BBA\Tsujii,J.\BBOP2000\BBCP.\newblock\BBOQAhybrid{Japanese}parserwithhand-craftedgrammarandstatistics\BBCQ\\newblockIn{\BemProc.ofCOLING2000},\mbox{\BPGS\411--417}.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1999}]{JUMAN_eng}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1999\BBCP.\newblock\BBOQ{Japanese}morphologicalanalysissystem{JUMAN}version3.61manual\BBCQ.\bibitem[\protect\BCAY{Landis\BBA\Koch}{Landis\BBA\Koch}{1977}]{landis1977}Landis,J.~R.\BBACOMMA\\BBA\Koch,G.~G.\BBOP1977\BBCP.\newblock\BBOQThemeasurementofobserveragreementforcategorialdata\BBCQ\\newblock{\BemBiometrics},{\Bbf33},\mbox{\BPGS\159--174}.\bibitem[\protect\BCAY{Pustejovsky}{Pustejovsky}{1995}]{GenerativeLexicon}Pustejovsky,J.\BBOP1995\BBCP.\newblock{\BemTheGenerativeLexicon}.\newblockTheMITPress.\bibitem[\protect\BCAY{Shinzato\BBA\Torisawa}{Shinzato\BBA\Torisawa}{2004}]{Shinzato_2004_NAACL04_eng}Shinzato,K.\BBACOMMA\\BBA\Torisawa,K.\BBOP2004\BBCP.\newblock\BBOQAcquiringhyponymyrelationsfrom{Web}documents\BBCQ\\newblockIn{\BemProc.ofHLT-NAACL04},\mbox{\BPGS\73--80}.\bibitem[\protect\BCAY{Woods}{Woods}{1975}]{Woods_1975}Woods,W.~A.\BBOP1975\BBCP.\newblock{\BemRepresentationandunderstanding:Studiesincognitivescience},\BCH\What'sinalink:Foundationsforsemanticnetworks.\newblockAcademicPress.\bibitem[\protect\BCAY{Yoshida,Torisawa,\BBA\Tsujii}{Yoshidaet~al.}{2003}]{yoshida_wda}Yoshida,M.,Torisawa,K.,\BBA\Tsujii,J.\BBOP2003\BBCP.\newblock{\BemWebDocumentAnalysis},\BCH\Chapter10(Extractingattributesandtheirvaluesfrom{Web}pages).\newblockWorldScientific.\bibitem[\protect\BCAY{Yoshida,Torisawa,\BBA\Tsujii}{Yoshidaet~al.}{2004}]{yoshida_ai2004_en}Yoshida,M.,Torisawa,K.,\BBA\Tsujii,J.\BBOP2004\BBCP.\newblock\BBOQIntegratingtablesonthe{World}{Wide}{Web}\BBCQ\\newblock{\BemTransactionsoftheJapaneseSocietyforArtificialIntelligence},{\Bbf19}(6),\mbox{\BPGS\548--560}.\bibitem[\protect\BCAY{高橋\JBA乾\JBA松本}{高橋\Jetal}{2004}]{takahashi_2004}高橋哲郎\JBA乾健太郎\JBA松本裕治\BBOP2004\BBCP.\newblock\JBOQテキストから属性関係を抽出する\JBCQ\\newblock\Jem{情報処理学会研究報告自然言語処理2004-NL-164},\mbox{\BPGS\19--24}.\end{thebibliography}\clearpage\begin{biography}\biotitle{略歴}\bioauthor{徳永耕亮}{2003年日本大学工学部機械工学科卒業.2005年北陸先端科学技術大学院大学情報科学研究科博士前期課程修了.修士(情報科学).同年,(株)日立製作所入社.}\bioauthor{風間淳一}{1999年東京大学理学部情報科学科卒業.2004年東京大学大学院情報理工学系研究科コンピュータ科学専攻博士課程修了.博士(情報理工学).同年,北陸先端科学技術大学院大学情報科学研究科助手.}\bioauthor{鳥澤健太郎}{1992年東京大学理学部情報科学研究科卒業.1995年同大学大学院理学系研究科情報科学専攻博士課程退学,同年より同専攻助手.1998年より2001年まで科学技術振興事業団さきがけ研究21研究員兼任.2001年より北陸先端科学技術大学院大学情報科学研究科助教授.計算言語学の研究に従事.博士(理学).}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V16N04-04
\section{はじめに} \subsection{本研究の背景}\label{ssec:background}近年,大学では文章能力向上のため,「文章表現」の授業がしばしば行われている.実際に作文することは文章能力向上のために有効であることから,多くの場合,学生に作文課題が課される.しかし,作文を評価する際の教師の負担は大きく,特に,指導する学生数が多いと,個別の学生に対して詳細な指導を行うこと自体が困難になる\footnote{筆者の一人は,1クラス30名程度のクラスを週10コマ担当している.延べ人数にして約300名の学生に対して,毎週添削してフィードバックすることは極めて困難であるため,半期に数回課題を提出させ,添削するに留まっている.}.{\modkまた,講義だけで,個別の指導がない授業形態では,学生も教師の指導意図をつかみにくく,ただ漠然と作文することを繰り返すといった受け身の姿勢になりがちである.}本研究は,上記のような現状に対処するために,大学における作文教育実習で{\modk活用できる}学習者向け作文支援システムを提案するものである.\subsection{既存システムの問題点}\label{ssec:problems}これまでに多くの作文支援システムが提案されてきた.支援手法という観点から既存の手法を分類すると,次のようになる.\begin{enumerate}\def\theenumi{}\item作文中の誤りを指摘する手法\item作文する際の補助情報を提供する手法\item教師の指導を支援する手法\item作文を採点する手法\end{enumerate}(a)の手法は,ワードプロセッサなどのスペルチェッカや文法チェッカとして,広く利用されている.また,より高度な文章推敲や校閲を支援するための手法\cite{umemura2007,笠原健成:20010515}も考案されている.教育分野への適用では,第2言語学習者向けの日本語教育分野での研究が盛んである.例えば,第2言語学習者の誤りを考慮して,文法誤りなどを指摘する手法\cite{chodorow2000,imaeda2003,brockett2006}がある.さらに,(b)の手法としては,文章作成時の辞書引きを支援する手法\cite{takabayashi2004},翻訳時にコーパスから有用な用例を参照する手法\cite{sharoff2006}などがある.これらは,学習者用というよりも,ある程度すでに文章技術を習得している利用者向けの手法である.(c)のアプローチは,学習者を直接支援するのではなく,作文指導を行う教師を支援することにより,間接的に学習者の学習を支援する手法である.この種のアプローチの例としては,教師の添削支援システム\cite{usami2007,sunaoka2006}に関する研究がある.これらの研究では,日本語教育の作文教育において,作文とそれに付随する添削結果をデータベースに蓄積し,教師の誤用分析などを支援する.(d)の手法は,小論文などの文章試験を自動的に採点することを目的に開発されている手法である.代表的なシステムとしては,英語の小論文を自動採点する,ETSのe-rater\cite{burstein1998}がある.また,e-raterを組み込んだオンライン作文評価システムCriterion\footnote{http://criterion.ets.org/}も開発されており,grammar,usage,mechanics,style,organization\&developmentという観点から作文を評価し,誤りの指摘などもあわせて行われる.なお,日本語でも,e-raterの評価基準を踏襲して,石岡らが日本語小論文評価システムJess\cite{ishioka-kameda:2006:COLACL}を構築している.また,井上らがJessをWindows用に移植し,大学において日本語のアカデミックライティング講座への導入を検討している\cite{井上達紀:20050824}.以上の手法のうち,学習者を直接支援対象としうる手法は,(a)(d)である.大学における作文実習に,これらの手法を適用することを考えた場合,次の二つの問題があると考える.\subsubsectionX{問題点1:意味処理が必要となる支援が困難なこと}大学の文章表現では,レポート,論文,手紙,電子メール,履歴書などを題材として,表記・体裁,文法,文章構成(例:テーマに即した文章の書き方,論理的な文章の書き方),要約の方法,敬語の使い方など,広範囲な文章技術を習得対象としている\cite{shoji2007,okimori2007}.それに対して,現状の作文支援システムは,表記・文法に関しては,手法(a)(d)で誤りの指摘が行われているが,意味的な解析が必要となる支援については,部分的に実現されるにとどまっている.例えば,前述のCriterionでは,導入部(introductionmaterial)や結論部(conclusion)などの文章要素を自動的に認識し,それぞれの部分の一般的な記述方法を表示することができる.しかし,現在の自然言語処理技術では,学習者の支援に耐えうるほどの精度で意味解析を行うことは難しい.そのため,作文課題に必要な記述が含まれているか\footnote{例えば,得意料理の作り方を記述する課題では,材料や料理手順に関する記述は必須的な内容であろう.},記述内容の説明が不足していないか,意味的な誤りや矛盾はないか,といった深い意味解析を必要とする支援は困難である.\subsubsectionX{問題点2:教師の指導意図をシステムの動作に十分反映できないこと}{\modk前述のとおり,教師が用意する作文課題には,学術的なものから実社会で役立つものまで様々なものがある.各課題を課す際には,学習者の作文の質を向上させるために,それぞれの目的に応じた到達目標やそれに応じた学習支援を設定する.したがって,}教師が実習で作文システムを利用するには,課題の内容に応じて,教師がシステムの支援内容をコントロールできなければならない.例えば,電子メールの書き方を習得するための課題であれば,電子メールに書かれるべき構成要素(例:本文,結び,signatureなど)が{\modk存在するか,また,}適切な順序で書かれているかを検査し,誤りがあれば,指摘するという支援が考えられる.このような支援を行うためには,電子メールに書かれるべき構成要素とその出現順序を,教師が規則として作文支援システム中で定義できなければならない.現状の作文支援システムの中では,手法(d)の作文採点システムが,作文評価用のパラメータの設定手段を持っている(自動採点システムにおける作文評価手法は\cite{石岡恒憲:20040910}に詳しい).例えば,Windows版Jessの場合は,修辞,論理構成に関する各種パラメータの採点比率,および,内容評価用の学習用文章をユーザが指定できるようになっている.このように,既存の規則のパラメータを設定することは可能である.{\modkしかし,教師が新たな規則を定義できるまでには至っておらず,教師の指導意図をシステムの動作に反映することは難しいのが現状である.}\subsection{本研究の目的}そこで,本研究では,上記の二つの問題を解決するための手法を提案し,作文支援システムとして実現する.まず,問題点1に対しては,「相互教授モデル」を導入する.このモデルでは,学習者,教師,システムが互いの作文知識を教授しあうことにより,学習者の作文技術を向上させる.従来のシステムのように,作文支援システムだけが学習者に作文技術を教授するのではなく,学習者・システム間,学習者同士で作文技術を教授しあうことにより,システム単独では実現できない,深い意味処理が必要で,多様な文章技術に対する支援を可能にする.また,問題点2に対しては,「作文規則」を用いる.この規則は,学習者の作文の構造,および,内容を規定するための規則である.教師は,作文課題に基づいて作文規則を決定する.システムは,作文規則に基づいて,学習者の作文をチェックし,誤りがあれば,それを指摘する.本稿では,作文規則の形式,作文への適用方法について示す.本論文の構成は,次のようになっている.まず,\ref{sec:system_structure}章ではシステムの構成について述べる.\ref{sec:model}章では相互教授モデルの提案を行い,\ref{sec:composition_rule}章では作文規則の定義と作文への適用方法を示す.さらに,提案手法の有効性を検証するために,\ref{sec:experiment}章で提案手法・従来手法による作文実験を行い,\ref{sec:evaluation}章で実験結果を評価・考察する.そして,最後に\ref{sec:conclusion}章でまとめを述べる.}{\mod \section{システム構成} label{sec:system_structure}本システムの構成を図\ref{fig:system}に示す.本システムは,Webサーバ上のWikiとして動作し,教師が作文課題用のサイトを構築する.学習者は,Webブラウザを介して作文するとともに,互いの作文を添削する.システムは,教師の設定した「作文規則」に基づいて,学習者の作文をチェックする.作文,および,添削結果は,WikiコンテンツとしてWebサーバ上に格納されていく.システムは,教師に対して,作文を分析する手段を提供する.\begin{figure}[b]\begin{center}\includegraphics{16-5ia5f1.eps}\caption{システム構成}\label{fig:system}\end{center}\end{figure}本システムの機能は,Wikiのプラグインとして実現される\footnote{Pukiwiki(http://pukiwiki.sourceforge.jp/)を利用している.}.プラグインは,次の4種類に大別される.\paragraph{編集関連プラグイン:}WYSIWYGエディタとして機能する\footnote{TinyMCE(http://tinymce.moxiecode.com/)を拡張している.}.エディタとしての基本的な機能の他,学習者による作文へのマークアップ,Webサーバへの作文の保存(排他処理を含む)ができる.作文結果は,XHTMLとしてWikiコンテンツの中に埋め込まれる.図\ref{fig:edit}に編集プラグインの実行例を示す.\paragraph{エラー検出プラグイン:}「作文規則」に基づき,作文をチェックする.チェックは,作文を保存する際に行われ,結果はWikiページに保存される.作文規則は,\ref{ssec:model_student_sys}節,\ref{sec:composition_rule}節で詳しく説明する.\paragraph{添削関連プラグイン:}学習者同士の添削を支援する.添削時には,まず,作文の該当箇所にハイパーリンクを作成する.添削の内容は,リンク先のWikiのページに記入する.図\ref{fig:edit}中の「冗」「口」\footnote{それぞれ「冗長表現」「口語表現」を指摘する添削である.}などのアイコンは,ハイパーリンクの例である.\paragraph{作文分析支援プラグイン:}作文中の文字数,文数,段落数,添削数などの統計や作文の検索など,主として教師が学習者の作文を分析するための役割を果たす.\begin{figure}[t]\begin{center}\includegraphics{16-5ia5f2.eps}\caption{編集プラグインの実行例}\label{fig:edit}\end{center}\end{figure}Wikiを利用している理由の一つは,Webコンテンツを作成するのが容易なことである.Wikiは,HTMLのタグではなく,Wikiの簡易的なタグでWebページを作成できる.作文教育の担当教師は,必ずしもWebシステムの利用やWebコンテンツの作成に精通しているとは限らない.しかし,もし,作文支援システムを含めたWebコンテンツを容易に作成できれば,授業の資料を含めた形の作文用のWebサイトを構築するという形で,作文支援システムを授業の中に導入しやすくするなると考えられる.Wikiを利用した,もう一つの理由は,プラグインとして実装することにより,機能の拡張やその利用が容易になるためである.作文課題のテーマや授業での利用方法は多様であり,システムの拡張性やその利用の容易性は重要である.Wikiのプラグインとして実装すれば,必要に応じて,機能を拡張することが可能であると同時に,拡張したプラグインを通常のプラグインと同様にWikiコンテンツに埋め込むことができる.} \section{相互教授モデル} label{sec:model}\subsection{概要}\label{ssec:model_abst}本節では,本システムの特徴である「相互教授モデル」について述べる.このモデルは,学習者,教師,システムが互いの作文に関する「知識」を教授しあうことにより,学習者の作文を支援する.概要を図\ref{fig:interaction}に示す.この図のとおり,このモデルには,教師$\Leftrightarrow$システム,学習者$\Leftrightarrow$システム,学習者$\Leftrightarrow$学習者,という三つのタイプのインタラクションがある.\begin{figure}[b]\begin{center}\includegraphics{16-5ia5f3.eps}\caption{相互教授モデルにおけるインタラクション}\label{fig:interaction}\end{center}\end{figure}このモデルの中で,学習者は二人以上を想定する.通常は,10名以上の学習者を想定し,特定の学習者間だけでなく,複数の学習者間でインタラクションが行われるようにする.これは,後述するように,学習者間のインタラクションにおいて,誤った作文知識が教授されるのを防ぐためである.教師は作文規則をシステムに「教授」し,システムがその作文規則に基づいて,個別の学習者とインタラクションしつつ,作文をチェックする.実際の授業で利用する場合は,次の手順で示すように,作文課題に関連する授業と本モデルとを組み合わせて運用することを想定している.\begin{description}\item[手順1]教師が,学習者に対して作文を書く前の事前授業を行う.\item[手順2]教師がシステムに対して「作文規則」(\ref{sec:composition_rule}節を参照のこと)を設定する(教師$\Rightarrow$システム).\item[手順3]学習者がそれぞれ作文する.この際,自分の作文に対して,各種のマークアップを行う(学習者$\Rightarrow$システム).また,作文の過程で,システムが学習者の作文をチェックし,チェック結果に基づいて,学習者が自分の作文を修正する(システム$\Rightarrow$学習者).\item[手順4]他の学習者の添削を行う(学習者$\Leftrightarrow$学習者).\item[手順5]学習者が添削結果に基づき,自分の作文の修正を行う(学習者$\Leftrightarrow$学習者).\item[手順6]システムが教師に対して,作文の分析支援を行う(システム$\Rightarrow$教師)\item[手順7]分析結果に基づき,授業で教師が学習者を指導する.\end{description}この後の節では,それぞれのインタラクションでどのような作文知識が教授され,どのように学習者の知識獲得につながるのか,ということを説明する.\subsection{教師$\Leftrightarrow$システム}まず,教師からシステムへは,教師自身が設定する「作文規則」が教授される(手順2).作文規則は,作文の表記,文法,文体,文章構造などの言語的な規則に加えて,作文の形式や内容を規定する規則である.一般的には,作文課題ごとに学習者に教授したい事柄(以後,「指導項目」)が存在するので,その指導項目に基づいて,作文規則が決定される.なお,指導項目は,教師が手順1で授業する内容と基本的に対応する.例えば,本論文の\ref{sec:experiment}節で実施した実験では,「章立て」の習得を目的として,「旅行計画」をテーマとする作文課題を出している.教師は,この目的とテーマを満たす作文が書かれるように,作文規則を設定する.この実験の場合,1文の長さ,文体(です・ます調で書く)といった一般的な作文上の規則に加えて,「章立て」に関する作文規則を設定した.さらに,作文のテーマに則して,必ず記述しなければならない項目(以後,「必須記述項目」)を設けて,作文規則とした.具体的には,「旅行計画」というテーマから,「旅行目的」「スケジュール」などを必須記述項目としている.一方,システムから教師へは,学習者が作成した作文を分析するための機能が提供される(手順6).具体的には,(1)作文規則の作文への適用結果の集計,(2)作文中の文字,文,段落数などの集計,(3)全作文に対する横断的な全文検索,(4)学習者同士の添削結果の集計などである.教師は,これらの機能を使って,全学習者の作文を分析(例えば,誤りの傾向分析)をした上で,授業で学習者を指導する(手順7).\subsection{学習者$\Leftrightarrow$システム}\label{ssec:model_student_sys}学習者とシステムとの間のインタラクションは,学習者が作文する過程で行われる(手順3).学習者は,自分の作文に対して,マークアップを加える.それに対して,システムは,作文に対する自動的なマークアップと,学習者のマークアップ結果を利用しつつ,作文規則を作文に適用する.そして,図\ref{fig:check}のように,作文規則に適合しない部分を学習者に指摘する.\begin{figure}[b]\input{05fig04.txt}\caption{システムによるチェック例}\label{fig:check}\end{figure}学習者が実際にどのようなマークアップを行うかは,教師の指導項目や自動的なマークアップの精度などに応じて決定する.例えば,\ref{sec:experiment}節の実験では,章節タイトル,引用部分などの言語的な要素の他に,「旅行目的」「スケジュール」といった必須記述項目の記述範囲に対するマークアップを行っている.{\modlこれは,この実験の教育目的が「章立て」の習得であり,作文テーマが「旅行計画」だからである.このように教育目的上,重要な部分については,自動的なマークアップの精度にかかわらず,学習者によるマークアップを行う.}学習者のマークアップが,学習者の作文技術習得に与える効果は,二つある.一つは,学習者自身が自分の作文に対してマークアップすることによって,教師が学習者に対して習得してほしいと考えている事柄を学習者が自覚的に確認しつつ,作文を行うことができることである.また,マークアップを行うことは,他者であるシステムに対して作文知識を「教える」ことになる.したがって,CAI関連研究において,\cite{kotani1989}や\cite{大林史明:20001215}が主張しているように,学習者の自発的な学習を促し,学習者自身の作文知識が整理・詳細化されることが期待される.学習者がマークアップすることの,もう一つの効果は,現在の自然言語処理技術では十分な精度で解析することが困難な対象に対しても,マークアップが可能になることである.現在のシステムでは実現困難なマークアップ処理を学習者が行えば,作文規則にそのマークアップ結果を取り込んで,学習者の作文を検査することが可能になる.例えば,上記でマークアップの例として挙げた「旅行目的」を自動的に検出するには,表層的な解析のみならず,意味的な解析が必要になると思われる.しかし,学習者がマークアップを行えば,「旅行目的」が記述されているか否かを機械的に判断し,記述されていない場合は,学習者にその誤りを指摘できる.\subsection{学習者$\Leftrightarrow$学習者}学習者間のインタラクションは,互いに作文に対して,コメントしたり,質問しあうことである.コメントや質問の内容についての制限はないが,(a)誤字・脱字の指摘,(b)語の用法や文法の誤りの指摘,(c)内容に対する質問,(d)文章構成などの改善案などを,教師が学習者に事前に推奨しておくものとする.学習者が行ったコメント,質問などは,システムが管理し,学習者同士が掲示版システムを用いて対話できるようにする.図\ref{fig:correction}に添削例を示す.学習者間のインタラクションが学習者の作文技術習得に与える効果は,学習者とシステム間のインタラクションと同様,学習者が他人に教授することによる効果と,広範な支援内容を実現できる点にある.ただし,その効果の内容は異なる.\begin{figure}[b]\begin{center}\includegraphics{16-5ia5f5.eps}\caption{添削例}\label{fig:correction}\end{center}\end{figure}まず,他人に教授することの効果について{\moda説明する.}学習者が他の学習者の作文に対してコメントや質問をすることは,コメントするだけの知識を自ら持たなければならず,学習者自身の知識が整理・詳細化されると考えられる.また,他人の作文を読むということは自分の作文作成の参考にもなる.自分の作文に対してマークアップする場合と異なるのは,添削した相手や他の学習者から添削自体に対する反応があることである.そのため,学習者(添削者,被添削者)の作文知識が矯正・強化される可能性がある.{\modl具体的には,(a)誤った知識に基づいて他人の作文を添削した場合でも,学習者同士の対話の過程で誤った知識が矯正されうること,(b)複数の添削者が同じ内容の添削を行えば,その添削内容の信頼性が被添削者や他の添削者にも伝わること\footnote{図\ref{fig:correction}は,(b)の例である.},などが挙げられる.}次に,広範な支援内容を実現できるという点について説明する.学習者とシステム間でのインタラクションでも同様の効果が得られるが,学習者間のインタラクションはそれを補完する役割を果たす.つまり,学習者・システム間のインタラクションでは,作文規則に記述できる範囲でしか支援しかすることができない.それに対して,学習者間のインタラクションでは,添削する側の学習者の作文知識の範囲での支援が可能である.以上のような学習効果がある一方,添削するのが学習者であり,専門家でないことから,添削内容に誤りが含まれる可能性を考慮しなければならない.そこで,本モデルでは,二つの対策を考えている.一つは,一人の学習者の作文に対して,複数の学習者が添削し,添削内容について議論できるようにすることである.もう一つは,添削用の掲示板システム上に,教師が部分的に介入することにより,添削者・被添削者が互いに解決できないような場合に対処することである.{\mod\subsection{他の教授モデルとの比較}本節では,ユーザ(学習者)による知識の教授という面から,相互教授モデルと既存の教授モデルとを比較する.まず,学習者同士の教授という面から見てみると,作文教育では従来から学習者同士の添削を導入している.例えば,国語教育では,学習者同士が作文を交換しあって読みあわせる「相互推敲」と呼ばれる手法が用いられている\cite{tazika2006}.また,第2言語学習者に対する作文教育でも,学習者同士で推敲しあう,ピア・レスポンスと呼ばれる手法が導入され,成果を挙げている\cite{harada2006}.これらの教授モデルと相互教授モデルとの違いは,本教授モデルでは,教師の指導項目が習得されているかをチェックする手段が,第三者であるシステムに作文規則として取り込まれている点である.教師の指導意図が学習者に伝わっているかを確認する場合,従来のモデルでは,各学習者の作文を個別に確認しなければならないが,本教授モデルでは,作文規則を用いて教師の指導意図を徹底させつつ,学習者同士の知識教授を実現することができる.このことは,学習者の習得結果を確認しづらい,多人数を対象とした授業において,特に有効である.次に,工学的な見地,つまり,ユーザ・システム間の知識教授という側面から本モデルと既存手法とを比較する.従来から,自然言語処理システムでは,全自動で十分な精度の解が得られない場合,ユーザとのインタラクションが用いられてきた.最も一般的に利用されているのは,仮名漢字変換システムである.\ref{ssec:problems}節の問題点2で取り上げた意味処理に関しても,GDA\cite{橋田浩一:19980701}を用いて,ユーザが意味的情報をアノテーションする手法が提案されている(例えば,\cite{綾2005}による要約生成).本モデルが既存手法と異なる点は,(1)アノテーションが学習者にとって手間になるのではなく,作文技術を習得する助けになる(\ref{ssec:model_student_sys}参照)という,積極的な意味を持つこと,(2)複数の学習者が存在するため,アノテーションの誤りを修正できる可能性があることである.二つ目の特徴は,誤ったアノテーションを行う可能性がある学習者をユーザとする作文支援システムにとっては,アノテーション結果を有効利用する上で重要である.} \section{作文規則} label{sec:composition_rule}\subsection{定義}作文規則は,学習者の作文が教師の指導項目に適合しているか検査するための規則である.本システム上で作成される作文は,XMLを用いて,内部的に構造化されており,作文規則はその構造に対して適用される.作文規則の例を表\ref{tbl:example_composition_rule}に示す.なお,これらの規則は,\ref{sec:experiment}節の実験で,実際に使用した作文規則の一部\footnote{表\ref{tbl:example_composition_rule}には,「章」の規則しか記載していないが,実際には,「節」「小節」「小々節」に関する規則がある.「章」と類似する規則となるので,省略した.}である.作文規則は,次の4種類のテンプレートを論理的に結合することにより構成する.テンプレート中の作文要素$e_i,e_j$は,作文自体,文,段落,文字など,作文を構成する言語的な要素である.なお,作文要素には,学習者がマークアップする言語要素も含まれる.\begin{quote}\begin{description}\item[テンプレート1:]$include(e_i,e_j,N)$\item[テンプレート2:]$child(e_i,e_j,N)$\item[テンプレート3:]$locate(e_i,e_j,P)$\item[テンプレート4:]$correspond(e_i,e_j,R)$\end{description}\end{quote}テンプレート1と2は,作文要素の包含関係を規定する.作文要素$e_i$が$e_j$を$N$だけ含む場合,作文とテンプレートが一致したことになる.$N$は,$e_j$の個数を表し,定数,もしくは,数値範囲で指定する.テンプレート1と2との違いは,テンプレート1では$e_i$が$e_j$を単に包含していればよいのに対して,テンプレート2では,$e_j$が$e_i$の子要素となっていなければいけないところである.この二つのテンプレートの使用例として,表\ref{tbl:example_composition_rule}の作文規則1,17を挙げる.作文規則1は,「作文には,一つの作文タイトルが存在する」ことを規定するもので,作文要素「作文」の中に,子要素として作文要素「作文タイトル」が一つ含まれることを意味する.作文をXMLで記述した例を図\ref{fig:structured_data}に示す.一方,作文規則17は,必須記述項目の「旅行の目的」が作文中に書かれているかを検査するための規則である.したがって,作文規則1とは異なり,作文の子要素ではなく,作文に単に包含されていればよい.図\ref{fig:structured_data}では,2章の章タイトルに「目的」タグとして付与されており,「作文」要素に包含された構造になっている.\begin{table}[t]\begin{center}\caption{作文規則の例(一部)}\label{tbl:example_composition_rule}\input{05table01.txt}\end{table}テンプレート3は,作文要素間の位置関係を規定する.作文要素$e_i$と$e_j$が位置関係$P$のときにテンプレートと一致したことになる.$P$の値は,「直前」「直後」「前」「後」「先頭」「末尾」のいずれかを取る.このテンプレートの使用例としては,表\ref{tbl:example_composition_rule}の規則3を挙げる.この規則では,図\ref{fig:structured_data}のように,「作文タイトル」要素が「作文」要素の先頭にあることを規定する.\begin{figure}[t]\input{05fig06.txt}\vspace{-1\baselineskip}\caption{構造化された作文の例}\label{fig:structured_data}\end{figure}テンプレート4は,作文要素間の対応関係を規定し,作文要素$e_i$と$e_j$が対応関係$C$であることを示す.対応関係には,「引用・出典」「図表参照」がある.このテンプレートの例としては,表\ref{tbl:example_composition_rule}の作文規則16を示す.この規則は,引用を行った場合,必ず出典を示すことを指導するためのものである.以上の四つのテンプレートに対して,論理演算子($and,or,not$)を適用することにより,複数のテンプレートを論理的に結合させることができる.また,演算子$desirable$を適用することにより,必須的な作文規則なのか,任意的な作文規則なのか(従ったほうが好ましい規則なのか)を表現することができる.作文規則$R$の形式は,次のBNFで規定される.\begin{align*}R::=&R'\middesirable(R')\\R'::=&(R'andR')\mid(R'orR')\midnot(R')\mid\\&include(e_i,e_j,N)\midlocate(e_i,e_j,P)\midcorrespond(e_i,e_j,C)\end{align*}\subsection{作文規則に基づく誤り検出}作文規則に基づく誤り検出は,次の手順で行う.\begin{enumerate}\item作文要素の付与\item規則の適用\itemエラーの生成\end{enumerate}\subsubsection{作文要素の付与}作文要素の付与方法には,(a)生テキストに自動付与,(b)学習者が付与,(c)(b)で付与された情報を利用して自動付与,の3通りがある.どのような作文要素を付与するかは,作文規則(つまり,教師の指導項目)に依存するが,ここでは,表\ref{tbl:example_composition_rule}に示した作文規則中の作文要素と関係づけつつ,三つのタイプの作文要素の付与方法を説明する.まず,(a)の方法で付与される作文要素は,自動的な認定の精度が高いものが対象となる.認定の精度が低い場合や,精度が高くても,必須記述項目に関連した作文要素のように教育上の重要性が高い部分については,(b)(c)の付与方法を取ることになる.表\ref{tbl:example_composition_rule}中の作文要素のうち,(a)の方法で付与された作文要素は,「作文」「段落」「文」「文字」「章番号」「話し言葉形態素」「だ・である形態素」である.これらは,表層的なパターンマッチングや形態素解析結果を利用して付与されている.例えば,「文」は,改行情報や句点(。)などの表層的な情報に基づいて認定している.また,「話し言葉形態素」は,作文全体を形態素解析し,主として,話し言葉でよく用いられる文末の助詞,助動詞を「話し言葉形態素」として認定している\footnote{今回は,形態素解析システムMeCab(http://mecab.sourceforge.net/),辞書としてJumandicを使用し,「か」以外の終助詞,接続助詞「けど」,助動詞「んだ」,動詞語尾「ちゃ」「りゃ」(例:食べ\underline{りゃ}いい)などを「話し言葉形態素」として検出した.認定方法は,\cite{juman_manual}を参考にした.}.次に,(b)のタイプの作文要素は,学習者が作文作成時にマークアップする.表\ref{tbl:example_composition_rule}中の作文要素のうち,このタイプの作文要素としては,章節タイトル(「章タイトル」「節タイトル」など),「引用」「出典」「作文タイトル」「著者」に加えて,必須記述項目に関連する作文要素「目的」「日程」「予算」「イベント」「導入部」「まとめ」がある.(c)のタイプの作文要素の例としては,作文要素「章」(図\ref{fig:structured_data}参照)がある.「章」要素の範囲を自動認定する際には,学習者がマークアップした「章タイトル」の付与結果を利用する\footnote{{\modl次の章タイトル,もしくは,文章末までを章の範囲として自動認定する.}}.また,必須記述項目の「導入部」についても,第1章の「章」要素を「序章」として認定するのに利用されている(図\ref{fig:structured_data}では,「章」要素のtype属性値として記述されている).\subsubsection{作文規則の適用とエラーの生成}作文規則の適用は,学習者が作文を保存するタイミングで実行される.作文が保存されると,まず,(前節で説明した)付与方法(a)(c)の順序で作文要素を付与する.その後,すべての作文規則を順次,作文に対して,適用する.もし,作文規則に合致しない場合は,エラーとして学習者に伝達する.エラーメッセージは,個々の作文規則ごとに対応づけられているものとする.実際の実行結果については,\ref{ssec:model_student_sys}節の図\ref{fig:check}を参照されたい. \section{実験} label{sec:experiment}本節では,提案した相互教授モデルの有効性を検証するために,実現した作文支援システムを用いて,作文実験を行う(実験1).さらに,従来からの作文教育との比較を行うために,システムを利用しない場合の作文実験も行う(実験2).なお,本論文の実験で検証対象とするのは,提案した相互教授モデルのうち,手順2から手順5に相当する部分である.システムから教師への知識教授(手順6)については,本稿では扱わない.\subsection{実験1}実験1では,実現したシステムを利用して,作文実験を行った.作文のテーマは「旅行計画」,教育上の目標は文章の「章立て」に関する技術習得とした.実験の条件は,次のとおりである.\begin{itemize}\item被験者:大学1〜3年生(教育学部)26名\item作文テーマ:旅行計画(著者自身がこれから行く旅行の計画を他人に説明する)\item想定する読者:年上を含む,不特定多数の読者\item文体:必要がない限り,口語表現は避ける.また,ですます調で書く.\item作文規則:表\ref{tbl:example_composition_rule}の作文規則を用いる.\item学習者によるマークアップ対象:作文タイトル,著者,章節タイトル(章,節,小節,小々節),引用,出典,図タイトル,[以降,必須記述項目]旅行の目的,日程,予算,旅行中のイベント,導入部,まとめ\end{itemize}実験手順は,次のとおりである.システムは,インターネット上のWebサーバ上に設置し,各被験者は好みの時間と場所で実験を行った.ただし,各段階の実施期間を定め,すべての被験者が同じ期間に同じ段階の実験を行うようにした.\begin{enumerate}\item章立てに関する資料を被験者に配布し,教育上の目標を理解してもらう.\itemテーマに基づき,個々の被験者が作文を行う.なお,学習者は,作文の過程で,自分の作文に対してマークアップを行う.また,システムによる誤りの指摘に基づき,作文を修正する.\item個々の被験者は,それぞれ4名の被験者の作文を添削する.各被験者は他の4名の被験者の添削を受ける.なお,添削する相手に添削内容がうまく伝わるように,添削を行う前に添削マニュアルを配布した.\item添削に基づき,自分の作文を修正する.なお,被添削者は添削結果に返答すること,添削結果を受け入れなくてもよいが,その理由を明記することが求められる.\end{enumerate}{\mod\subsection{実験2}実験2では,提案手法と従来手法との比較を行うために,作文支援システムを利用しない作文演習を想定して実験を行う.なお,学習者同士の添削は行わない.実験条件は,被験者以外,実験1と同一である.被験者は,実験1と重複しない18名(同一大学同一学部)である.実験手順は,実験1と同様,章立てに関する資料を被験者に配布し,教育上の目標を理解した上で,作文支援システムを使わないで作文してもらった\footnote{作文は,ワードプロセッサなどを利用し,電子的なテキストの形で提出してもらっている.}.また,筆者が実験後に実験1と同様の基準でマークアップを行った.}\subsection{実験結果}まず,表\ref{tbl:res_composition}「提案手法」(2行目)に実験1の作文結果をまとめる.示した数値は,全被験者の平均値である.最左列から,作文に含まれる文字数,文数である.「構造」「必須」は,それぞれ,必須記述項目以外に対する学習者のマークアップ数,必須記述項目に対するマークアップ数である.「誤り(章立て)」は,章立てに関連する作文規則(1〜9)により検出された誤りのうち,被験者が修正せずに残してしまった誤りの数を表す.「誤り(その他)」は,作文規則(10〜16)により検出された誤りのうち,被験者が修正せずに残してしまった誤りの数を表す.「誤り(必須)」は,必須記述項目に関連する作文規則(17〜22)で検出された誤りのうち,被験者が修正せずに残してしまった誤りの数である.\begin{table}[b]\caption{作文,および,マークアップ結果}\label{tbl:res_composition}\input{05table02.txt}\end{table}{\mod次に,表\ref{tbl:res_composition}「従来手法」に実験2の作文結果をまとめる.また,提案手法と従来手法とを比較するために,両者の結果に対して,ウィルコクソンの順位和検定を行った.表\ref{tbl:res_composition}「p値」に,p~値を示す.}表\ref{tbl:res_correction}に実験1における添削結果を示す.示した数値は,全被験者の合計値である.表\ref{tbl:res_correction}「添削数」(2行目)は他の学習者から受けた添削数,「修正数」はそのうち作文の著者が修正した数である.「誤字脱字」から「その他」までが,添削種類別の添削数である.「全体」は,作文中の個別の箇所でなく,作文全体に対して行われた添削の数である.「合計」は全添削種類の合計添削数,「添削」は他の被験者の作文に対して行った添削の総数である.\begin{table}[t]\caption{添削結果}\label{tbl:res_correction}\input{05table03.txt}\end{table} \section{評価} label{sec:evaluation}\subsection{システム,学習者間のインタラクションの評価}ここでは,相互教授モデル中のインタラクションのうち,システムと学習者間のインタラクションを評価する.\ref{sssec:syodate}〜\ref{sssec:jido}節では提案手法について扱い,\ref{ssse:hikaku}節では提案手法と従来手法との比較を行う.\subsubsection{章立てに関する評価(提案手法)}\label{sssec:syodate}作文の「章立て」を定量的に評価するために,章立てに関する学習者のマークアップと,作文規則への適用結果を分析してみる.表\ref{tbl:res_composition}「構造」より,必須記述項目以外の文章構造に関するマークアップは,平均11.7ヵ所である.このうち,章節タイトル(章,節,小節,小々節のタイトル)のマークアップ数は,平均9.3ヵ所である.1作文あたりの章の数は,5.0個であった.また,章節の階層の深さは,平均で1.59だった.表\ref{tbl:res_composition}「文字数」に示したとおり,作成された作文の文字数は平均1631文字なので,おおよそ,400字詰め原稿用紙4枚に,5章からなる作文が作成されたことになる.作成された作文は表\ref{tbl:example_composition_rule}の作文規則1から9で検査されているので,表\ref{tbl:res_composition}(「誤り(章立て)」列)に示されている誤り13ヵ所\footnote{{\mod章節タグのつけ誤りにより5ヵ所が誤りと検出されたが,それらは誤りとしてカウントしていない.}}以外は,作文規則(1から9)に適合した章立て構造を持った作文が作成されたことを意味する.解決されずに残された誤りの内訳は,(a)章節タイトルに番号がないもの(12ヵ所,作文規則9により検出),(b)序章が1章以外に存在するもの(1ヵ所,作文規則5により検出)だった.(a)は学習者のミス,もしくは,恣意的な「誤り」(エラー表示の中には誤りの修正が必須でないものも含まれるため,あえてそのままにした可能性がある)によるものだと思われる.(b)は学習者の章立てに対する理解不足だと思われる.以上の結果から,章節タイトル番号がない問題を除けば,作文規則1から9に規定される範囲内で,章立てがうまく行われたと考えられる.ただし,現状の作文規則では十分検出できなかった誤りもある.具体的には,(1)第1章に必要以上の情報を書き込む学習者が存在したこと(2名の学習者),(2)章立てを過度に細かくする学習者が存在したことである(例えば,一つの章に1文しかないものが見受けられた).前者については,序章に含まれる節数や文字数を制約する作文規則を追加すること,後者については,章の数,もしくは,各章に含まれる文字数の下限を制約する作文規則を作成することにより,防止できるものと考えられる.\subsubsection{必須記述項目による評価(提案手法)}\label{sssec:hissu}表\ref{tbl:res_composition}「必須」を見ると,必須記述項目に関するマークアップ数は,一人当り平均6ヵ所である.マークアップされた部分に関して,その内容を確認したところ,すべて正しくマークアップされていた.したがって,作文規則(17〜22)がうまく機能し,必須記述項目が正しく作文されたと考えられる.必須記述項目に関連する作文規則により検出され,修正されずに残ったエラーは,表\ref{tbl:res_composition}「誤り(必須)」に示したとおり,被験者一人あたり平均0.038ヵ所(合計1ヵ所)であった\footnote{{\mod作文規則17から20により検出されたエラーは,合計11ヵ所あった.しかし,10ヵ所については,対応する必須記述項目に関する記述が作文中にあることから,学習者のマークアップのつけ忘れだと考えられる.}}.エラーとして残った1ヵ所は作文規則22により検出された誤りで,作文にまとめの記述がなかった.当該の学習者は,他の必須記述項目については,正しくマークアップを行っていたので,まとめを作文にうまく組み込めなかったことが考えられる.上記の誤り例や\ref{sssec:syodate}節の誤り(b)のように教師の指導が必要な場合も検出される.したがって,本システムを運用する場合は,\ref{ssec:model_abst}節の手順7で示したように,検出された誤りを教師が分析し,作文後の授業で,指導することが好ましいと考える.\subsubsection{自動付与された作文要素による誤り検出の評価(提案手法)}\label{sssec:jido}ここでは,自動的に付与された作文要素による誤り検出について評価するために,作文規則10から15によって検出された誤りを分析する.表\ref{tbl:res_composition}「誤り(その他)」を見ると,誤りが修正されずに残っているのは,被験者一人あたり0.27ヵ所(合計7ヵ所)だった\footnote{{\modただし,形態素解析誤りなどの,作文要素自動付与誤りに起因するものは除いている.}}.その内訳は,3ヵ所が作文規則14(文体は「ですます」調で書く)に反して「だ・である」調で書かれていたもの,残り4ヵ所は作文規則15(話し言葉を用いてはいけない)に違反したものだった.前者・後者の誤りとも,(それぞれ別の)1名の被験者によるものである.このうち,前者は,箇条書き部分だけ「だ・である」調で書かれていたので,被験者の意志だと考えられる.後者は,作文規則15に対する被験者の認識不足か,不注意だと思われる.以上の結果から,作文規則10から13で規定されている事柄,つまり,文,段落の長さや図タイトルの位置に関する誤りは,抑制されているものと考えられる.{\mod作文規則14,15で規定されている文体関連の事柄については,部分的に誤りが残るが,従来手法では合計72ヵ所の誤りが検出されたので,作文規則の効果があったことが確認できる.}{\mod\subsubsection{従来手法との比較}\label{ssse:hikaku}まず,表\ref{tbl:res_composition}「誤り(章立て)」「誤り(必須)」「誤り(その他)」の値を合計すると,修正されずに残った誤りは,提案手法は一人あたりの平均で0.85ヵ所,従来手法は7.1ヵ所となり,提案手法では作文規則によって,誤りが抑制されていることがわかる.次に,表\ref{tbl:res_composition}「p値」より,提案手法と従来手法とで有意な差が出たのは,「誤り(その他)」$(p<.01)$,および,「構造」「誤り(章立て)」「誤り(必須)」$(p<.05)$である.このことから,提案手法は,従来手法と比較して,(a)多くの章立てがなされること,(b)章立て,構造(作文規則10〜16に反する),必須記述項目に関する誤りが少ないこと,が確認された.従来手法と比較して,多くの章立てがなされた要因としては,二つのことが考えられる.一つは,学習者自身が自分の作文に対してマークアップを行ったことにより,章立てが促進されたことである.もう一つは,作文規則4(作文には章が三つ以上ある)に基づくチェックを行ったことにより,章の数が結果的に増えたことである.一方,(b)の結果が得られた要因としては,作文規則によるチェックが有効に機能したことが考えられる.表\ref{tbl:res_composition}「提案手法」の「誤り(章立て)」「誤り(その他)」「誤り(必須)」が,作文規則を適用したときに(修正されずに)残る誤り数なので,表\ref{tbl:res_composition}「従来手法」の結果との差分が,作文規則を適用したことによる効果だと考えられる.この差分となる効果を生み出した作文規則を明らかにするために,「従来手法」の作文中の誤りを検出した作文規則を見てみると,特に有効に機能したのは,作文規則4(「誤り(章立て)」の誤りのうち,32\%),作文規則9(同32\%),作文規則14(「誤り(その他)」の誤りのうち,67\%),作文規則15(同22\%)であることがわかった.}\subsection{学習者間のインタラクションの評価}ここでは,学習者間のインタラクションの評価として,学習者同士の添削結果を分析する.\subsubsection{定量的評価}\label{sssec:u2u_teiryo}まず,添削の効果を検証する.表\ref{tbl:res_correction}の「合計」列に示したとおり,合計で182ヵ所の添削がなされ,そのうち,154ヵ所が添削対象の作文の著者によって修正されている.したがって,今回の実験では,作者から見て,約85\%の添削が作文の内容を改善するのに役立ったことがわかる.添削の種類別に添削数を見てみると,「その他」が全体の約27\%を占め,そのあと,「文法誤り」「誤字脱字」「口語表現」といった表記に関する添削が続く.「その他」の内訳については,次節で詳しく見てみることにする.次に,学習者を「添削者」という観点から見てみる.表\ref{tbl:res_correction}の「添削」列のとおり,198回の添削のうち\footnote{「合計」のほうが「添削」よりも少ないのは,前者が添削された場所の数であり,1ヵ所に複数の学習者が添削を行う場合があるからである.},168回の添削が添削対象の作文の著者により修正されており,全体的には約85\%の添削が被添削者に受け入れられている.ただし,学習者別に添削数を見てみると,最大23ヵ所,最小1ヵ所とばらつきが大きかった.添削数にばらつきがでる原因は,学習者の能力による要因以外にも,添削対象の作文,添削者との関係が考えられる.例えば,添削対象の作文が優秀な作文であれば,添削数は少なくなる.また,添削対象となる作文の著者が知り合いの上級生であれば,添削するのを遠慮する可能性がある.特に,後者の要因に関しては,どのような学習者集団を設定すれば,添削が活発になされるかを今後調査する必要がある.\subsubsection{定性的評価}ここでは,種類別に添削の内容を定性的に評価する.表\ref{tbl:res_correction}に示した種別ごとに,実際の添削例を示す.\begin{itemize}\item誤字・脱字\begin{description}\item[修正前:]モネは生涯でたくさんの\underline{水連}の絵を描きましたが\item[修正後:]モネは生涯でたくさんの\underline{睡蓮}の絵を描きましたが\item[添削内容:]睡蓮では?\end{description}\item説明不足\begin{description}\item[修正前:]満天の星を眺めて満喫します。\item[修正後:]満天の星を眺めて\underline{モンゴルの大自然を}満喫します。\item[添削内容:]満喫するには,何を満喫するのかを書く必要があるかと思います。モンゴルの星空を満喫するのか,モンゴルの大自然を満喫するのか,書いたほうがわかりやすいと思います。\end{description}\item冗長表現\begin{description}\item[修正前:]この計画の発案者は私なので,私が幹事を務めることになりました。\item[修正後:]発案者の私が幹事を務めることになりました。\item[添削内容:]「発案者の私が」とするとすっきりすると思います。\end{description}\item文法誤り\begin{description}\item[修正前:]おおまかな計画\underline{が}立てることができました。\item[修正後:]おおまかな計画\underline{を}立てることができました。\item[添削内容:]「を立てる」になると思います。\end{description}\item口語表現\begin{description}\item[修正前:]僕は\underline{やっぱり}「食べる」というのが一番の醍醐味だと思っています。\item[修正後:]僕は\underline{やはり}「食べる」というのが一番の醍醐味だと思っています。\item[添削内容:]「やはり」のほうがよいのではないでしょうか?\end{description}\end{itemize}なお,「その他」として分類された添削には,多様な種類の添削内容が含まれていた.量的に最も多いのが,より適切な語句や表現の提案であり,約半数がこの種類の添削だった.次に多かったのが,表記の変更を提案するもので,9例あった.それぞれの例を次に示す.\begin{itemize}\itemより適切な語句や表現の提案\begin{itemize}\item3,まとめ→3,おわりに(第1章が「はじめに」だったため)\item必ず暖かい服装をご用意ください。→必ず暖かい服装でご参加ください。\end{itemize}\item表記の変更の提案\begin{itemize}\item楽しんできたいとおもいます。→楽しんできたいと思います。\item八月十五日から十八日までの四日間→8月15日から18日までの4日間(横書に漢数字は読みにくいとの指摘があった)\end{itemize}\end{itemize}以上のように,表記上の誤り(誤字・脱字や文法誤りに示した例を参照)に対する支援だけでなく,「説明不足」「冗長表現」「その他」で示した例のように,周辺文脈の意味を考慮した上で,改善例を示すような支援も可能である.これは,従来の作文支援システムでは実現が困難だった支援である.学習者の添削のうち約85\%が作文の改善に寄与することと,他人に作文知識を教授すること効果を考慮すると,学習者間の添削は,作文支援の方法として,有効であると考える.{\mod \section{おわりに} label{sec:conclusion}本論文では,学習者向けの作文支援手法として,学習者,教師,システム間で互いに作文に関する知識を教えあう,相互教授モデルを提案した.本モデルの新規性は,次の点にある.\begin{itemize}\item作文規則を用いることにより,教師の指導意図を学習者に徹底させつつ,学習者同士の知識教授を実現できること\item学習者のアノテーションが手間になるのではなく,作文技術習得上の助けになること.\\また,複数の学習者を想定することにより,学習者のアノテーションの誤りを防止していること\end{itemize}さらに,相互教授モデルに基づいた作文支援システムを実現した.実現したシステムを評価するために,提案手法と従来手法による作文実験を行い,次の結果を得た.\begin{itemize}\item問題点1に対しては,相互教授モデルが有効に機能し,次のように意味解析が必要となるような支援を行うことができた.\begin{itemize}\item学習者・システム間のインタラクションによる,「章立て」や必須記述項目などに対する支援\item学習者同士の添削による,「説明不足」「冗長表現」などに対する支援\end{itemize}\item問題点2に対しては,作文規則により対応した.今回の実験では,教育上の目標を「章立て」の習得,作文テーマを「旅行計画」と設定して,作文規則を記述した.\item作文規則に照らし合わせて修正されずに残った誤りは,従来手法が一人あたりの平均で7.1ヵ所だったのに対して,提案手法は0.85ヵ所に削減することができた.また,提案手法で作成した作文は,従来手法の作文よりも,有意に誤りが少ないことを確認した.この結果は,学習者・システム間のインタラクション,および,作文規則が有効に機能したことを示すものである.\end{itemize}今後は,教師が容易に作文規則を設定できるようなインターフェイスの実現を行いつつ,さらなる作文課題に対して,提案手法が有効に機能するか検証を進める予定である.また,今回扱わなかった,システムから教師への知識教授についても,大量の作文に対する教師用の作文分析支援手法を検討中である.}\acknowledgment本研究を評価するにあたって行われた作文実験に参加してくださった被験者の方々,実験結果の集計を支援してくださった方々に深く感謝いたします.なお,本研究は,科学研究費補助金・基盤研究(C)(課題番号20500822)の助成を受けて行われたものである.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{綾\JBA松尾\JBA岡崎\JBA橋田\JBA石塚}{綾\Jetal}{2005}]{綾2005}綾聡平\JBA松尾豊\JBA岡崎直観\JBA橋田浩一\JBA石塚満\BBOP2005\BBCP.\newblock修辞構造のアノテーションに基づく要約生成.\\newblock\Jem{人工知能学会論文誌},{\Bbf20}(3),\mbox{\BPGS\149--158}.\bibitem[\protect\BCAY{Brockett,Dolan,\BBA\Gamon}{Brockettet~al.}{2006}]{brockett2006}Brockett,C.,Dolan,B.,\BBA\Gamon,M.\BBOP2006\BBCP.\newblock\BBOQCorrectingESLerrorsusingphrasalSMTtechniques.\BBCQ\\newblockIn{\BemProceedingsoftheCOLING/ACL2006},\mbox{\BPGS\249--256}.\bibitem[\protect\BCAY{Burstein,Kukich,Wolff,Lu,Chodorow,Braden-Harder,\BBA\Harris}{Bursteinet~al.}{1998}]{burstein1998}Burstein,J.,Kukich,K.,Wolff,S.,Lu,C.,Chodorow,M.,Braden-Harder,L.,\BBA\Harris,M.\BBOP1998\BBCP.\newblock\BBOQAutomatedscoringusingahybridfeatureidentificationtechnique.\BBCQ\\newblockIn{\BemProceedingsoftheCOLING/ACL1998},\mbox{\BPGS\206--210}.\bibitem[\protect\BCAY{Chodorow\BBA\Leacock}{Chodorow\BBA\Leacock}{2000}]{chodorow2000}Chodorow,M.\BBACOMMA\\BBA\Leacock,C.\BBOP2000\BBCP.\newblock\BBOQAnUnsupervisedMethodforDetectingGrammaticalErrors.\BBCQ\\newblockIn{\BemProceedingsoftheNAACL2000},\mbox{\BPGS\140--147}.\bibitem[\protect\BCAY{原田}{原田}{2006}]{harada2006}原田三千代\BBOP2006\BBCP.\newblock中級学習者の作文推敲課程に与えるピア・レスポンスの影響—教師添削とその比較—.\\newblock\Jem{『日本語教育』},{\Bbf131},\mbox{\BPGS\3--12}.\bibitem[\protect\BCAY{橋田}{橋田}{1998}]{橋田浩一:19980701}橋田浩一\BBOP1998\BBCP.\newblockGDA意味的修飾に基づく多用途の知的コンテンツ.\\newblock\Jem{人工知能学会誌},{\Bbf13}(4),\mbox{\BPGS\528--535}.\bibitem[\protect\BCAY{今枝\JBA河合\JBA石川\JBA永田\JBA桝井}{今枝\Jetal}{2003}]{imaeda2003}今枝恒治\JBA河合敦夫\JBA石川裕司\JBA永田亮\JBA桝井文人\BBOP2003\BBCP.\newblock日本語学習者の作文における格助詞の誤り検出と訂正.\\newblock\Jem{情報処理学会研究報告.コンピュータと教育研究会報告},{\Bbf2003}(13),\mbox{\BPGS\39--46}.\bibitem[\protect\BCAY{井上\JBA佐渡島}{井上\JBA佐渡島}{2005}]{井上達紀:20050824}井上達紀\JBA佐渡島紗織\BBOP2005\BBCP.\newblockアカデミックライティングへのJess導入の試み.\\newblock\Jem{日本行動計量学会大会発表論文抄録集},33\JVOL,\mbox{\BPGS\378--381}.\bibitem[\protect\BCAY{石岡}{石岡}{2004}]{石岡恒憲:20040910}石岡恒憲\BBOP2004\BBCP.\newblock記述式テストにおける自動採点システムの最新動向.\\newblock\Jem{行動計量学},{\Bbf31}(2),\mbox{\BPGS\67--87}.\bibitem[\protect\BCAY{Ishioka\BBA\Kameda}{Ishioka\BBA\Kameda}{2006}]{ishioka-kameda:2006:COLACL}Ishioka,T.\BBACOMMA\\BBA\Kameda,M.\BBOP2006\BBCP.\newblock\BBOQAutomatedJapaneseEssayScoringSystembasedonArticlesWrittenbyExperts.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\233--240}.\bibitem[\protect\BCAY{笠原\JBA小林\JBA荒井\JBA絹川}{笠原\Jetal}{2001}]{笠原健成:20010515}笠原健成\JBA小林栄一\JBA荒井真人\JBA絹川博之\BBOP2001\BBCP.\newblockマニュアルの校閲作業における文書推敲支援ツールの実適用評価.\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(5),\mbox{\BPGS\1242--1253}.\bibitem[\protect\BCAY{小谷}{小谷}{1989}]{kotani1989}小谷善行\BBOP1989\BBCP.\newblockIAC:利用者が教えるというパラダイムによる教育ツール.\\newblock\Jem{教育におけるコンピュータ利用の新しい方法シンポジウム報告集},\mbox{\BPGS\49--53}.情報処理学会.\bibitem[\protect\BCAY{黒橋\JBA河原}{黒橋\JBA河原}{2005}]{juman_manual}黒橋禎夫\JBA河原大輔\BBOP2005\BBCP.\newblock日本語形態素解析システムJumanversion5.1.\\newblock\newlinehttp://nlp.kuee.kyoto-u.ac.jp/nl-resource/juman.html.\bibitem[\protect\BCAY{沖森\JBA半沢}{沖森\JBA半沢}{1998}]{okimori2007}沖森卓也\JBA半沢幹一\BBOP1998\BBCP.\newblock\Jem{日本語表現法}.\newblock三省堂.\bibitem[\protect\BCAY{大林\JBA下田\JBA吉川}{大林\Jetal}{2000}]{大林史明:20001215}大林史明\JBA下田宏\JBA吉川榮和\BBOP2000\BBCP.\newblock仮想生徒へ「教えることで学習する」CAIシステムの構築と評価.\\newblock\Jem{情報処理学会論文誌},{\Bbf41}(12),\mbox{\BPGS\3386--3393}.\bibitem[\protect\BCAY{Sharoff,Babych,\BBA\Hartley}{Sharoffet~al.}{2006}]{sharoff2006}Sharoff,S.,Babych,B.,\BBA\Hartley,A.\BBOP2006\BBCP.\newblock\BBOQUsingcomparablecorporatosolveproblemsdifficultforhumantranslators.\BBCQ\\newblockIn{\BemProceedingsoftheCOLING/ACL2006},\mbox{\BPGS\739--746}.\bibitem[\protect\BCAY{庄司\JBA山岸\JBA小野\JBA安達原}{庄司\Jetal}{2007}]{shoji2007}庄司達也\JBA山岸郁子\JBA小野美典\JBA安達原達晴\BBOP2007\BBCP.\newblock\Jem{日本語表現法—21世紀を生きる社会人のたしなみ}.\newblock翰林書房.\bibitem[\protect\BCAY{砂岡\JBA劉}{砂岡\JBA劉}{2006}]{sunaoka2006}砂岡和子\JBA劉松\BBOP2006\BBCP.\newblock誤用データ機能を備えるWEB中国語作文添削支援システム設計と開発.\\newblock\Jem{2006PCカンファレンス論文集}.\bibitem[\protect\BCAY{Takabayashi}{Takabayashi}{2004}]{takabayashi2004}Takabayashi,S.\BBOP2004\BBCP.\newblock{\BemSyntheticAssistanceforCreationandCommunicationofInformation}.\newblockPh.D.\thesis,NaraInstituteofScienceandTechnology.\bibitem[\protect\BCAY{田近\JBA井上}{田近\JBA井上}{2006}]{tazika2006}田近洵一\JBA井上尚美\BBOP2006\BBCP.\newblock\Jem{国語教育指導用語辞典(第3版)\inhibitglue}.\newblock教育出版.\bibitem[\protect\BCAY{梅村\JBA増山}{梅村\JBA増山}{2007}]{umemura2007}梅村祥之\JBA増山繁\BBOP2007\BBCP.\newblock仕事文推敲支援に向けた連体修飾不足に対する受容性判定法.\\newblock\Jem{自然言語処理},{\Bbf14}(4),\mbox{\BPGS\43--65}.\bibitem[\protect\BCAY{Usami\BBA\Yarimizu}{Usami\BBA\Yarimizu}{2007}]{usami2007}Usami,Y.\BBACOMMA\\BBA\Yarimizu,K.\BBOP2007\BBCP.\newblock\BBOQDesignofXECS(XML-basedEssayCorrectionSystem):Effectsandimplications.\BBCQ\\newblockIn{\BemProceedingsoftheCASTEL-JinHawaii2007},\mbox{\BPGS\182--184}.\end{thebibliography}\begin{biography}\bioauthor{山口昌也}{1992年東京農工大学工学部数理情報工学科卒業.1994年同大学院博士前期課程修了.1998年同大学院博士後期課程修了.博士(工学).同年,同大学工学部助手.2000年国立国語研究所研究員,現在に至る.自然言語処理の研究,コーパス構築に従事.言語処理学会,情報処理学会,日本教育工学会,日本語学会,社会言語科学会各会員.}\bioauthor{北村雅則}{1998年関西大学文学部国文学科卒業.2000年名古屋大学大学院文学研究科国文学専攻国語学専門博士前期課程修了.2005年名古屋大学大学院文学研究科人文学専攻日本文学日本語学講座博士後期課程満期退学.博士(文学).2006年国立国語研究所研究開発部門言語資源グループ特別奨励研究員,2008年名古屋学院大学商学部講師,現在に至る.日本語学(現代語文法,文法史),作文教育の研究に従事.日本語学会,日本語文法学会,日本語用論学会,言語処理学会,日本教育工学会各会員.}\bioauthor{棚橋尚子}{1983年愛知教育大学教育学部小学校課程国語科卒業.1989年兵庫教育大学大学院学校教育研究科教科・領域教育専攻言語系コース(国語)修士課程修了.名古屋市立の中学校教諭,広島大学附属小学校教諭を経て1995年群馬大学教育学部専任講師,1997年同助教授.1999年奈良教育大学教育学部助教授.2006年同教授,現在に至る.漢字教育を中心とした国語科教育の研究に従事.全国大学国語教育学会,日本国語教育学会,中国四国教育学会,日本言語政策学会各会員.}\end{biography}\biodate\end{document}
V25N01-04
\section{はじめに} \label{Hajimeni}法務省の統計によれば日本の在留外国人数は第2次世界大戦以後,基本的に増加傾向にあり2016年12月には238万人,総人口の約1.9\%を占めるに至っている.外国人の比率は欧米諸国と比較して必ずしも高いとは言えないが,東京都新宿区では外国人の比率が10\%を超えるなど,日本でも大都市部などで欧米諸国並みの集中が発生している.日本人\footnote{本稿では便宜的に日本語母語話者を日本人と呼ぶ.また日本に一定期間以上居住する日本語非母語話者を外国人と呼ぶ.}と同等に日本語が使える国内在住の外国人は少数であり,彼らへの適切な情報提供は大きな課題となっている.外国人へはそれぞれの母語で情報を提供するのが理想である.実際,母語を使ったサービスはすでに多言語サービスの中で一部実現されており,例えばNHKは現在国内向けに5言語でニュースを放送している\footnote{英語,中国語,韓国語,スペイン語,ポルトガル語}.しかし母語での情報提供は10言語程度にとどまることが多く,国内の外国人の出身国数が190に達する状況に対応するには十分とは言えない.とはいえ外国人の全員をカバーするには膨大な数の翻訳が必要となり,コストや労力の大きさから実現は難しい\cite{kawahara:book:2007}.そこで母語ではなく,外国人に分かりやすい「やさしい日本語」で情報を伝えようという考え方が提唱されている\cite{SatoK:NihongoGaku:2004,IoriEtAL:kyouikuGakkai:2009}.その背景には,やさしい日本語を理解できる外国人が多いこと\cite{iwata:ShakaiGengo:2010},外国人の中からも母語の他にやさしい日本語による情報提供を望む声が上がっていることなどがある\cite{yonekura:housouKenkyuu:2012}.以上の背景の中,NHKは一般のニュースをやさしい日本語で提供できれば,外国人への有用な情報提供になると考えて研究を進め,2012年4月からWebでのサービス「NEWSWEBEASY」\footnote{\label{footnote:NWE}http://www3.nhk.or.jp/news/easy/index.html}を開始した.外国人に日本語でニュースを提供しようとするNEWSWEBEASYと同様のサービスは当時例がなく,著者らはまずやさしい日本語の作り方の原則を決め,Webで提供する内容を決めた.また書き換え作業にはやさしい日本語とニュース編集の知識が必要なことから日本語教師と記者の共同で進めることにした.方針の決定と並行して,日々の作業を円滑に進めるための支援システムを開発することにしたが,先行事例が乏しく明確にその仕様を決めることはできなかった.そこでプロトタイピングの手法\cite{SoftEng:book:2005}を採用し,とりあえず有効と思われる機能をできるだけ早く実装し,作業者の要望に応じて改善を加えることにした.以上の過程で作成したのが,日本語教師と記者の共同のニュースの書き換えを支援する「書き換えエディタ」と,ふりがな,辞書情報などを付与するための「読解補助情報エディタ」である.本稿では2つのエディタを総称してやさしい日本語のニュースの「制作支援システム」と呼ぶ.NHKでは制作支援システムのプロトタイプを2012年4月からの1年の公開実験期間中に利用し,不具合の修正,改良を加えた.そして書き換え作業が安定し,改修すべき項目が明らかになった2013年9月に本運用システムの開発を始め,2014年6月に新システムに移行した.このとき読解補助情報エディタに自動学習機能を加えたことにより,\ref{sec:systemMatome}節で詳述するように,制作支援システム全体は日々のやさしい日本語のニュースの制作の中で自然と利便性が増すようになった.やさしい日本語を使った情報提供は急速な広がりを見せている\footnote{\label{footnote:hirosaki}弘前大学の2015年4月の調査によると47都道府県すべてでやさしい日本語が活用されている.\\http://human.cc.hirosaki-u.ac.jp/kokugo/EJ1a.htm}.ほとんどの事例は佐藤らが公表している書き換え案文\footnote{脚注\ref{footnote:hirosaki}参照.}や庵らの文法\cite{iori:Book:2010,iori:Book:2011}など,いわゆる書物の知見を使ってほぼ人手で行われている.しかし今後やさしい日本語での情報提供を多様な人で効率的に進めるには,技術的な支援が必須になっていくと考えられる.実際,NEWSWEBEASYの制作フローを参考にしたやさしい日本語による自治体の情報提供のためのシステム開発が始まっている\cite{iori:book:2016}.本稿は類似した開発の参考になると考えている.以下,\ref{sec:kanren}章ではやさしい日本語の書き換えの関連研究を概観し,本研究の位置付けを示す.\ref{sec:service}章ではNEWSWEBEASYのサービス画面には,やさしい日本語のニュースのテキストとふりがななどの読解補助情報の2つの構成要素があることを述べる.\ref{NihongoGaiyou}章ではやさしい日本語の書き換え原則を概説し,当初の原則には網羅性の低さの問題があったことを指摘する.続く\ref{sec:taiseiToProcess}章では制作の体制およびプロセスを報告し,特に,やさしい日本語の書き換え原則の網羅性の低さをカバーするため,NEWSWEBEASYの制作を記者と日本語教師の共同作業で実施する体制を採ったことを述べる.さらに\ref{sec:systems}章では開発した「書き換えエディタ」と「読解補助情報エディタ」を説明する.書き換えエディタは,記者と日本語教師の共同作業特有の問題,書き換え原則の不十分さに対処していることを述べる.また読解補助情報エディタは,ふりがななどの読解補助情報を自動で推定し,これを修正した結果を自動学習する機能を持つことを説明する.続く\ref{sec:performance}章では,制作に関わる記者および日本語教師全員に対して実施したアンケートと書き換えエディタのログの分析を通じて2つのエディタの効果を示す. \section{関連研究} \label{sec:kanren}やさしい日本語での情報提供にはさまざまなプロセスが必要だが,本章ではその中心となるやさしい日本語への書き換えの関連研究,特に最も関連が深い文書の平易化(textsimplification)の研究を概観する.文書の平易化とは与えられた文書の基本的な意味は変えずに,文法的,語彙的な複雑さを減らす操作であり\cite{siddharthan:2003:phd}これまで英語を主な対象としてさまざまな研究が展開されている\cite{shardlow:2014:IJACSA,siddharthan:2014}.平易化の目的は大きく2つに分類できる.1つは自然言語処理システムの前処理に平易化を入れることで全体の性能を向上させる研究である.平易化はさまざまな処理に応用されており,構文解析\cite{jonnalagadda-EtAl:2009:NAACLHLT09-Short,chandrasekar-EtAl:1996:Coling96-Short},関係抽出\cite{miwa-EtAl:2010:PAPERS2},意味役割付与\cite{vickrey-koller:2008:ACLMain}などの例を挙げることができる.他の1つは言語の理解力が十分でない人の情報アクセシビリティの改善を目的とした研究である.失語症の人(英語)\cite{John-Carroll:1999:EACL},読み書き能力が不十分な人(ブラジルポルトガル語)\cite{watanabe-EtAl:2009:ACMSIGDOC},知的障害のある人(スペイン語)\cite{Bott-Stefan:2012:ICCHP},非母語話者(英語)\cite{siddharthan:2002:LEC}などを対象とした研究が行われている.平易化の手段に目を向けてみると,研究の初期は使える言語資源や技術が限られていたことから,経験則に基づいたルールで文書を変換する手法が主流であったが\cite{chandrasekar-EtAl:1996:Coling96-Short,John-Carroll:1999:EACL,siddharthan:2002:LEC},近年SimpleEnglishWikipediaに代表されるやさしい言語で書かれた大きな言語資源が使えるようになってきたこと,単言語パラレルコーパスのアラインメント技術が進んできたこと\cite{Barzilay-Elhadad:2003:EMNLP,nelken-shieber:2006:EACL}から,パラレルコーパスからデータ主導で自動書き換えシステムを構築する研究が進展している.例えば,\citeA{coster-kauchak:2011:ACL-HLT2011}は\WikipediaとSimpleEnglishWikipedia\を使ったパラレルコーパスを作成し,統計翻訳ツールキット,Mosesを使った統計的平易化システムを作成している.次に,本稿と同じく日本語能力が十分でない人の情報アクセシビリティの改善を目的とした平易化の研究に目を転ずると\footnote{特定の人を対象としない「言い換え(パラフレーズ)」分野にも関連研究が多数あるが,紙幅の関係で割愛する.},ろう者を対象とした語彙・構文書き換えシステム\cite{inui-kentaro:2003:PARAPHEASE2003},子供や日本語学習者への利用を目指した語彙変換システム\cite{kajiwara-yamamoto:JPSJ:2015}などがある.また英語ほどではないが,近年パラレルコーパスが利用可能となったことから統計機械翻訳技術を使ったやさしい日本語自動変換システムも報告されている\cite{matsuda:2010:nihongoKyouiku,goto-tanaka-kumano:2015:MTSummit,kumano-tanaka:2016:ANLP}.以上で概観してきた研究は文書を自動的に平易化しようとするものであるが,人手による平易化作業を支援する研究もある.平易化の支援にも,自動平易化と同様に機械翻訳などの自然言語処理の前処理による性能向上\cite{mitamuraAndNyberg:NLPRS:2001}と人の情報アクセシビリティの改善を目的とした研究がある.以下では著者らと同じアクセシビリティの改善を目的としたシステムを概観したい.これまで提案されているシステムは2つの基本機能を持つ.\begin{enumerate}\item文書中の難しい部分を指摘する機能\label{item:difficult}\itemその書き換え候補を提示する機能\label{item:propose}\end{enumerate}例えば\citeA{itoEtAl:denki:2008}は外国人のためのやさしい日本語文書の作成支援を目的とした書き換え支援システムを提案している.同システムには入力された文書中の難しい語を指摘し,代わりに使える語を提案する機能が実装されている.難しい語は形態素解析システムに事前に登録された難しい語彙を使って指摘し,やさしい語は,別途収集したやさしい語彙と難しい語の類似度を使って提示する.さらに長文,および使うべきでない文法的表現を指摘する機能を持っている.ボーイング社は,航空機の整備マニュアル用のSimplifiedEnglishの基準に従った文書作成を支援する語彙と文法のチェッカーを開発している\cite{hoardEtAl:book:1992}.SimplifiedEnglishの読者には英語非母語話者が想定されている.また,語彙には強い制限があり,同じ概念に属する使える語と使えない語が辞書にまとめられている.チェッカーは辞書を使って,難しい語を指摘して代替候補を提示する.以上,自動平易化,平易化支援についての研究を外観してきたが,ここで本稿の特徴をまとめたい.まず,本稿はNEWSWEBEASYというやさしい日本語のサービスを実現するためのより具体的,包括的な報告となっている点に特徴がある.実際本稿では,技術的な内容に先立ち,NEWSWEBEASYのためのやさしい日本語の特徴,Webで提供する全情報,および,NEWSWEBEASYの制作のために採用した体制と制作プロセスを説明し,制作支援システム構築の課題を明らかにする.そして,課題を反映して開発した「書き換えエディタ」および「読解補助情報エディタ」を報告する.一方,上記一連の関連研究は,自動平易化,あるいは平易化支援に関する個別の技術報告となっている.本稿のように具体的なサービスに関わった日本語の平易化の支援技術の報告は著者らの知る限り初めてである.次に本稿の2つのエディタのうち書き換えエディタに着目する.書き換えエディタは平易化作業の支援という点で\citeA{itoEtAl:denki:2008},\citeA{hoardEtAl:book:1992}と目的が同一であり,かつ前述の基本機能(\ref{item:difficult})および(\ref{item:propose})に基づく点が共通している.しかし以下の3点に違いがある.1点目は書き換えエディタの難しい語を指摘する機能に学習機能が備わっている点である.難しい語の指摘には語の難易度を使っており,難易度推定機能で語の難易度を自動認定する.難易度推定機能には学習機能があり,推定誤りを日々修正することで性能が自然に向上するようになっている\footnote{正確には\ref{sec:systemMatome}節で述べるように,読解補助情報エディタの学習機能を利用しており,修正も読解補助情報エディタで実施する.学習結果は書き換えエディタに自動的に反映される.}.2点目は書き換え候補を直接提示しない代わりに,用例検索機能を持っている点である.すなわち書き換え候補は作業者が自動蓄積された書き換え元の記事とやさしい日本語の書き換えの用例を検索して自ら見い出すようになっている.用例検索を利用したのは著者らのやさしい日本語の書き換え原則が当初不十分で,ニュースの難しい表現とやさしい代替表現を事前に準備できなかったために採用した措置であるが,あらかじめ候補を用意する手法に比べると,運用により自然に用例の蓄積が進み,さまざまな表現が検索可能になる特徴がある.3点目は複数作業者の書き換えを支援する共同作業支援システムになっている点である.ニュースの書き換えにはニュース原稿の編集の知識,および外国人の日本語能力の知識が必須なため,書き換え作業を日本語教師と,経験豊かな記者が共同で担当するようにした.そして2名の作業を支援するため,書き換えエディタは複数作業者の共同作業ができるようにした.さらに日本語教師と記者の専門性が異なる点に配慮して,共同作業が円滑に行える仕組みを提供した.なお上述の3点の特徴はNEWSWEBEASYの固有の状況を反映させたために生じている点を指摘しておく.詳細は次章以降に譲るが,固有の状況とは,当初の著者らの書き換え原則は先行事例に比べて不十分であったこと,不十分さを補うため複数の専門家が共同作業する必要があったこと,網羅的な書き換え原則をあらかじめ用意することができず専門家が書き換えを通じて発展させていく方針を採用したことである.本稿の書き換えエディタは,先行研究が準拠する上述の2つの基本機能にNEWSWEBEASYの固有の状況を満足するため,学習,類似用例検索,複数人での書き換え機能を組み合わせて統合したものと見ることができる. \section{NEWSWEBEASYの概要} \label{sec:service}本稿の制作支援システムで最終的に作成するNEWSWEBEASYのスクリーンショットを図\ref{fig:easyScreen}に示す\footnote{脚注\ref{footnote:NWE}のURL参照.}.NEWSWEBEASYは,NHKの通常のニュースページであるNEWSWEBに掲載されたニュースをやさしい日本語に書き換えて作成する.画面の下部には情報の中心であるやさしい日本語に書き換えたニュースが掲載されている.やさしい日本語のニュースは次章で述べる書き換え原則に沿って作成するが,やさしく書き換えられず難しい表現が残ることがある.そこで難しい表現に対してはWebの機能を利用して読解を補助する情報を提供している.NEWSWEBEASYをWebで提供しているのは読解補助情報を提供しやすいという利点があるためであり\cite{tanaka-mino:2010:NL},具体的には以下を提供している.\begin{figure}[t]\begin{center}\includegraphics{25-1ia4f1.eps}\end{center}\caption{NEWSWEBEASYの画面}\label{fig:easyScreen}\end{figure}\begin{itemize}\itemふりがな\\漢字を読むことは外国人にとって特に難しい.そこで,すべての漢字にはふりがなを付けている.\item辞書\\すべての語をやさしくできるとは限らないため,難しい語に辞書の説明を表示するようにした.原則として2級以上の難しい語にカーソルを合わせると小学生用の辞書\cite{sanseidou:jisho:2011}の説明が現れる.\item語の色分け\\ニュースには地名,人名,組織名などの固有名詞が頻繁に現れる.固有名詞は辞書にほとんど収録されておらず,数が多いので説明を付ける労力は大きい.そこで,固有名詞をあらかじめ決めた色,地名を紫,人名をピンク,組織名を空色で表示し,意味が具体的に分からなくても,色によって地名,人名,組織名の判別ができるようにした.\end{itemize}以上の読解補助情報に加えて,下記の追加情報も提供している.\begin{itemize}\item合成音声\\読むのが苦手でも聞くのは得意な外国人のため,合成音声による原稿読み上げ機能を付加している.\item元のニュースへのリンク\\やさしい日本語のニュースには,元のニュースへのリンクを付与しており,リンクを通じてやさしい日本語を読解補助として,元のニュースを読むことが可能である.また,やさしい日本語で削除された情報を元ニュースで確認することも可能である.\end{itemize}著者らの目的は以上で説明したNEWSWEBEASYの画面の制作であり,実施には,やさしい日本語への書き換え原則,書き換え作業の体制とプロセス,制作作業の支援の3項目の検討が必要となった.以下,3項目の内容を報告する. \section{ニュースのためのやさしい日本語} \label{NihongoGaiyou}本章ではNEWSWEBEASYで利用しているニュースの書き換え原則の概要を説明する.どのような言語にも汎用的な制限言語は存在しないと言われているように\cite{mitamuraAndNyberg:NLPRS:2001},すべての分野に共通するやさしい日本語の書き換え原則というのは存在しない.ニュースのための書き換え原則は自ら作成する必要があった.しかし書き換え原則をゼロから作るのは膨大な作業となるため,先行研究である「減災のためのやさしい日本語」\cite{SatoK:NihongoGaku:2004}の原則を修正,拡張するという手順に従った.減災のためのやさしい日本語は,災害発生から72時間以内に自治体,公共機関などから発信される情報が主な対象であり,日本語能力試験の3級と4級の語彙と文法の範囲で書くことを原則としている.日本語能力試験は学習者が受験する試験であり,日本語能力を入門レベルの4級から最上級の1級までの4段階で認定する\footnote{2010年に新試験が始まり,レベルは入門のN5から最上級のN1までの5段階に変更された.}.また試験の出題基準\cite{JLPT:book:1994}には各級の出題の目安となる語彙や文法事項のリストが公開されている.減災のためのやさしい日本語の対象とする災害情報は,著者らの対象の一般のニュースと,話題,文体,文書の長さなどさまざまな要素が異なるため書き換え原則を修正する必要がある.そこで減災のためのやさしい日本語の原則に従ってニュースを実験的に書き換え,原則の不足やニュースとの不整合を拡張,修正することにした.書き換え作業は出題基準に精通している日本語教師2名が担当し,検討は書き換えを担当した日本語教師,記者OB,記者,著者らで実施した\cite{tanaka-mino:2010:NL}.以下では,本稿に直接関わる語彙,文法,内容の削除と追加に関わる書き換え原則の基本部分を説明する.詳細は\cite{tanaka:IPSJpaper:2016}を参照されたい.\subsection{語彙}\label{sec:Goi}日本語能力試験の出題基準の3級と4級には合わせて約1,600語が記載されており,基本的にはこの1,600語の範囲でニュースを書き換えるようにした.しかし1,600語の多くは日常生活で使われる語であり,事件,事故,政治,経済,科学,スポーツ,気象などの分野が中心となるニュースの語はかなり不足している.例えば,「接待,公共事業,補正予算案,お内裏様」などの語は書き換え実験で出てきたが1,600語には入っていない.1,600語に入らない難しい語に対応するやさしい語があれば置き換えられるが,必ずしもあるとは限らない.また対応するやさしい語のない難しい語を無理にやさしく書き換えると不自然な日本語になるため,書き換えずに辞書などの読解補助機能を使うことにした.\subsection{文法}\label{sec:bunpou}\begin{itemize}\item文の長さ\\文が長くなると文意が分かりにくくなりやすいため,文書作成の参考書では短文を勧めている.ニュースのやさしい日本語でもこの原則に従い,1文をできるだけ50文字以下に書き換えるようにした.ニュースは1文が長くなる傾向があり,短文化の作業は多く発生する.\item受動態\\受動態は日本語能力試験の3級に分類される文法であり学習の時期は早い.一方,意味が間接的になるので,多くの文章作成の参考書では能動態を使って直接的に書くことを勧めている.特に,日本語の場合には受動態の「れる・られる」が可能,自発,尊敬の意味でも使われるので,外国人が混乱する恐れがある.以上の要因を考慮して,ニュースのやさしい日本語では受動態をできるだけ能動態に書き換えることにした.\item慣用表現\\ニュースには「〜としています,〜と見られています」や「この事件は〜したものです」\cite{tanaka:HosoKenkyu:2012}などの独特の慣用表現が多く出てくるが,日常会話にはほとんど出てこない.外国人にとっての慣用表現の難易度は高いと考え,普通の表現に書き換えることを原則とした.\end{itemize}\subsection{内容の削除と追加}\label{sec:sakujyo}長いニュースは読者の負担になるため,次のような内容を削除して整理する.\begin{itemize}\item重複の削除\\ニュースには通常,冒頭のリードと本文がある.リードはニュースの要約であり,本文の一部を抜粋して作るため本文と重複する.重複はリードから,もしくは本文から削除することを原則とした.\item周辺的な情報の削除\\内容理解に必須でない背景,関連情報の文や段落を削除する.\end{itemize}一方,情報を追加する場合もある.特に専門用語などで対応するやさしい日本語がない場合説明を追加する.例えば実際のニュースでは「タブレット端末」に対して「(=薄い板のようなコンピューター)」という説明を直後に追加している.\vspace{-0.25\Cvs}\subsection{ニュースの書き換え原則の課題}\label{sub:EJproblem}初期のニュースの書き換え原則には「不十分さ」の問題があったことを注意をしておきたい.制限言語の研究分野では言語の制限の仕方を2つに分類することがある\cite{mitamuraAndNyberg:NLPRS:2001,Kuhn:CL:2014}.1つは使うべき語彙と文法を規定する規範的なアプローチ(prescriptiveapproach)で,他の1つは使ってはいけない語彙と文法を規定する禁止的なアプローチ(proscriptiveapproach)である.この分類で上述の原則を見ると,当初は日本語能力試験の3級と4級の語彙と文法を使うという規範的な原則が支配的で,受動態を使わないという禁止的な原則が多少入っている状態であった.日本語能力試験の3,4級レベルは日常会話が対象であるため,規範的,禁止的原則のいずれもニュースを記述するには「不十分」であった.実際,NHKのニュースには明文化されていない規範的原則と禁止的原則がある.例えば,人が亡くなっているように見えても脳死が判定される前は「心肺停止の状態」という表現を使わなければならないという規範的原則,推量を表す「らしい」は主観が強く反映されるので使わないという禁止的原則などである.ニュースをやさしく書き換えるには,日本語教育とニュースの規範的,禁止的原則を整合させた原則が必要だが\footnote{実験的な書き換えを通じてニュースらしさをある程度保持すべきという結論になり,両方の原則を考慮することになった.},サービスの開始時までにニュースの表現を網羅的に検討することはできず,当初の書き換え原則にはニュースの観点が不足していた.著者らのニュースの書き換えに対して,\citeA{hoardEtAl:book:1992}の航空機マニュアルの書き換えは相当に「十分」な原則の元で行われる.また\citeA{mitamuraAndNyberg:NLPRS:2001}の機械翻訳用の書き換えも著者らより多くの原則を設定していると思われる.書き換え原則の不十分さは著者らの問題の特徴と考える.なお,以後本稿では特に断らない場合,禁止的原則と規範的原則の両方を合わせて原則と呼ぶ.\vspace{-0.5\Cvs} \section{体制と制作プロセス} \label{sec:taiseiToProcess}\vspace{-0.5\Cvs}やさしい日本語のニュースの公開を2012年4月に開始した.土・日と祝日を除いて月曜から金曜まで毎日,一般向けのニュースをやさしい日本語に書き換えて提供している.最初は平日1日1記事から2記事を公開していたが,作業手順の見直しなどを経て,2013年6月からは1日5記事を公開するようになっている.以下現状の制作の体制とプロセスを説明する.\vspace{-0.25\Cvs}\subsection{体制}\label{sec:taisei}書き換え原則に沿ってニュースをやさしい日本語の書き換える場合,\ref{sub:EJproblem}節で述べたように,当初は書き換え原則が不十分だったため,日本語教育とニュースの両方の知識を持つ人が必要となった.しかし,両方の知識を持つ人はいなかったため,日本語教師と記者の両者が相談しながら書き換えを進める体制を採用し,現在に至っている.日本語教師と記者のほか,書き換え内容を最終的に確認する編集責任者\footnote{編集責任者も記者である.}および,合成音声の付与作業を行う技術スタッフも参加する.なお特にサービス開始からしばらくは,すべての書き換えを元記事を書いた部局に確認してもらっていたが,現在は編集責任者の判断で必要に応じて確認を依頼するようになっている.\subsection{制作プロセス}現在NEWSWEBEASYでは原則,午前中に2記事,午後に3記事の1日5記事を公開している.午前中公開の2記事は前日に作成し,午後公開の3記事は当日作成する.日々の書き換えは日本語教師2名,記者1名,および編集責任者1名が担当する.最終的な5記事の確認は編集責任者が担当する.編集責任者は内容の確認だけでなく,日本語教師との書き換え作業も一部担当している.以下,制作の流れを記す.\begin{enumerate}\item記事選択\\一般向けのニュースサイトNHKNEWSWEBに当日までに掲載されたニュースから,大きな話題,外国人や子供\footnote{NEWSWEBEASYでは外国人に加えて小・中学生も対象としている.}に適すると思われる話題を持つものが選ばれる.同一話題のニュースを継続して提供できるとは限らないため,節目や一話で完結している記事が選ばれる.選ばれた記事を元記事と呼ぶ.記事の選択は編集責任者が行う.\item引き継ぎ事項の確認\\日本語教師は日々の書き換えで難しかった点などを日誌,メールで情報共有しており前日の内容を確認する.\item背景情報のリサーチ\\\label{item:research}日本語教師を中心に,関連ニュース,関連サイト,報道発表などの関連情報をリサーチする.用例検索機能で過去の類似記事も検索し検討する.\itemやさしい日本語への書き換え\\\label{item:kakikaeSagyou}主に日本語教師が表現をやさしくし,記者が元記事の再構成,要約,内容の確認を行う.書き換えが終わると編集責任者の確認を受ける.さらに元記事を書いた出稿部に確認を依頼することもあり,出稿部から質問や修正の依頼があれば検討し,必要に応じて修正する.このプロセス全体で1記事およそ2時間の作業である.\item読解補助情報の付与\\\label{item:dokkaiSagyou}やさしい日本語のテキストが完成した後,漢字のふりがな,難語への辞書の説明,固有名詞のカラー表示といった読解補助情報を付与する.付与作業は日本語教師が担当する.現在は1記事およそ10分の作業である.\item合成音付与と試写\\\label{item:sisha}やさしい日本語のテキストの合成音を付加して必要に応じてイントネーションの調整を行う.最終的な画面が完成すれば試写を行い問題なければ公開する.\item日誌,メールの作成\\日本語教師は書き換えの問題点,気づいた点などを業務日誌に記載し,メールでも情報を共有する.\end{enumerate}上記の仕事のうち,(\ref{item:kakikaeSagyou})やさしい日本語への書き換え,および(\ref{item:dokkaiSagyou})読解補助情報の付与には手間と時間を要するため,それぞれを支援する「書き換えエディタ」と「読解補助情報エディタ」の開発を進めた.\vspace{-0.5\Cvs} \section{制作支援システム} \label{sec:systems}\vspace{-0.5\Cvs}本章では専門性の異なる日本語教師と記者の共同書き換えを支援するために開発した「書き換えエディタ」と日本語教師の読解補助情報付与作業を支援するために開発した「読解補助情報エディタ」について説明する.\vspace{-0.25\Cvs}\subsection{書き換えエディタ}\label{subsec:rewriteEditor}\subsubsection{日本語教師と記者の書き換えの課題}\label{subsub:kadai}サービス開始前に日本語教師と記者でニュースを実験的に書き換えたところ2つの課題があることが分かった.1つは表現が迷走したり,極端な場合には書き換えが中座したりする「書き換えの停滞」の問題である.ニュースをやさしい日本語に書き換えるには\ref{sub:EJproblem}節で述べた記者の専門であるニュースと,日本語教師の専門である日本語教育に由来する2つの書き換え原則に熟知している必要がある.一方,初期の日本語教師と記者は互いに相手の知識が不足していたため,記者の表現の書き換えが外国人にとっては難しかったり,日本語教師が行った省略がニュースの重要箇所であったりという問題が何度も発生し,書き換えの停滞が発生していた.なお停滞は,実験時には書き換えに非常に長い時間がかかる結果となるが,サービス時には時間が限られているため,満足できない書き換えで我慢する結果となる.他の1つは元記事が十分平易化されない問題である.大きな要因に書き換えの着目点の見過ごし,すなわち難しい語や長文の見過ごしがあった.書き換えの着目点が日本語教師と記者の組み合わせによらず,また日々一定していれば,原則に従った平易化レベルの安定した実現につながる.本稿では人によらず一定レベル以上の平易化を達成することを「平易化レベルの保証」と呼ぶ.特に初期には書き換え原則を記憶しておくことが難しいため平易化レベルの保証が難しかった.\subsubsection{解決方針と実装した機能}\label{sec:rewriteEditorDesign}書き換えの停滞を軽減し平易化レベルを保証するため次の方針を立てた.\begin{itemize}\item方針\begin{itemize}\item書き換えの役割分担による運用\\記者と日本語教師のそれぞれの専門知識に応じた平易化を担当するよう以下のように役割を分担した.\begin{itemize}\item記者\\文の順番の入れ替えなどによる記事の再構成で平易化する.不要な部分を要約する.文を分割して不要な成分を省略する.日本語教師の書き換え結果を承認する.ただし表現の平易化は行わない.\item日本語教師\\難しい語や表現を平易化する.文の分割は行うが省略は行わない.\end{itemize}\item書き換えエディタによる難しい語と長文の指摘\\ニュースのやさしい日本語の書き換え原則に従って難しい語と長文を指摘する.難しい語や長文の見落としが減り,作業者によらず平易化レベルを一定以上に保つ効果が期待できる.また,日本語教師と記者で書き換えを相談するときに指針として利用できる.\item書き換えエディタによる書き換え候補の提示\\多様な書き換え候補の提示で停滞の軽減が期待できる.またニュースに必要な表現の統一にもつながる.\end{itemize}\end{itemize}以上の方針を実現するよう書き換えエディタに下記の基本機能を実装した.\begin{itemize}\item書き換えエディタの基本機能\begin{itemize}\item難しい語と長文の指摘\\日本語能力試験に登録されて入る1級から4級までの語彙を形態素解析システム\footnote{MeCab,IPA辞書使用.}のシステム辞書に登録し,それぞれ色分けして表示するようにした.\ref{sec:Goi}節で述べたように,日本語能力試験出題基準の3級と4級の語彙を基本的に使うため,日本出題基準に登録されていない語(未知語),1級および2級の語が書き換え候補となる.また,長文への注意を喚起するため1文の文字数を表示するようにした.\item書き換え候補の提示\\難しい語は日本語能力試験の出題基準のリストで決定できるが,難しい語の書き換え候補をすべて事前に準備することは容易ではない.また,出題基準のリストがすべての語彙をカバーしているとは限らないという書き換え原則の不十分さへの対応が必要である.以上に対処するには,日々の元記事と書き換え後の記事をデータベースに自動的に登録し,表現を検索する手法が有効と考え「用例検索機能」を提供することにした.元記事の難しい表現の書き換え例を知りたい場合,用例検索機能に難しい表現を入力し,記事,もしくは文と共に提示されたやさしい書き換え例を参照する.用例検索機能には語,フレーズ,文など任意の長さの表現を入力することができる.そして入力表現中の内容語の数,および内容語間の間隔を使って類似表現が元記事のデータベースで検索される.検索された難しい表現と,対応するやさしい日本語の表現は,あらかじめ対応付けされてデータベースに格納されている記事,もしくは文の単位で表示される.本機能はすでに多言語翻訳の現場で利用実績のあった翻訳用例提示システム\cite{kumanoEtAl:2001:IEICE}を流用して実装した.\end{itemize}\end{itemize}以上は難しい表現を指摘してその書き換え候補を提供する基本部分である.これに日本語教師と記者の共同作業のために以下の機能を設けた.\begin{itemize}\item共同作業のための書き換えエディタの機能\begin{itemize}\item複数作業者の利用\\ユーザとして登録された人は誰でも書き換え作業に参加できるようにし,任意の順番で1つの記事を書き換えることを可能とした.基本は記者と日本語教師の交互の書き換えである.\itemフラグ付き書き換え原稿の履歴保持\\書き換えた原稿には記者や日本語教師といった「作業者属性」あるいは確認用などの「目的属性」を表すフラグを付与し履歴を保存するようにした.作業者属性と目的属性を明示することで,日本語教師は表現の書き換え,記者は内容の書き換えという役割を分離しやすくなる.また書き換えの履歴によって変更の詳細な経過を確認できる.\item原稿難易度スコアの表示\\記者と日本語教師の書き換えがやさしくなる方向に進んでいるかどうかを確認するために原稿難易度スコアを提示するようにした.原稿難易度スコア$S$は文書リーダビリティの研究で用いられている属性\cite{nomoto:JPSJ_DC:2016}を参考に「文書長$d$」,「平均文長$l$」,「難語率$w$\footnote{文書中の語彙数に対する級外語彙,1級,2級の語彙数の割合.}」の積$S=dlw$で計算した.右辺の各項は小さいほどやさしいので,積の$S$は小さいほど原稿がやさしいことを示す.原稿のやさしさは書き換えエディタの画面に表示された個別の文長,語の色表示でもある程度把握できるが,1つのスコアにまとめることでより明確になる.さらに難易度スコアは専門性の違う2人が書き換えを検討するときの指針としても有用と考えた.\itemコメント機能\\専門性の違う作業者を支援するにはコミュニーケーションを支援するのが有効と考えた.直接会話できれば問題ないが,書き換えエディタは日本語教師,記者などが遠隔地で作業することも想定してWebのシステムとして実装した.このため,直接会話できない場合,作業時間がずれる場合もあると考え,文単位でコメントを残せるようにした.コメント欄には書き換えの意図,質問などを記入する.\end{itemize}\end{itemize}\subsubsection{書き換えエディタの機能の補足}\label{subsub:kakikaeEditorHosoku}前項の機能に関して下記2点を補足しておきたい.\begin{figure}[p]\begin{center}\includegraphics{25-1ia4f2.eps}\end{center}\caption{書き換えエディタのメイン画面}\label{fig:main}\end{figure}\begin{figure}[p]\begin{center}\includegraphics{25-1ia4f3.eps}\end{center}\caption{書き換えエディタの3原稿比較画面}\label{fig:three}\end{figure}\begin{itemize}\item難しい語の指摘\\日本語能力試験の級の認定は,難しい語の指摘,原稿の難易度スコアの計算に使われるため正確に実施したい.級の認定は形態素解析に基づいているため,その誤りの手軽な修正インターフェース,および学習機能を導入して自律的に性能を向上させる機構の必要性は明白だったが,サービス開始までに対応することができず,\ref{subsec:dokkaiEditor}節で説明するように後に対応することとなった.\item用例検索機能の意義\\やさしい日本語の書き換え原則は\ref{sub:EJproblem}節で述べたようにNEWSWEBEASYの開始時には日本語教育のみを反映した「不十分」なものであった.しかしこの原則の不足を補いながら日々日本語教師と記者が日々作成する書き換えには,規則の形で明示されてはいないが,さまざなニュースの書き換え原則も反映されているはずである.すなわち書き換えを蓄積して再利用することは,実質的に原則の開発を書き換え作業者に任せることを意味する.著者らはニュースの書き換え原則は作業者の高い専門性を頼りに用例検索システムを使って自律的に発展させるのが現実的だと考える.ただし一般に実用されている制限言語を見ると,言語仕様の開発や管理は作業者とは別の人,団体に任せることが普通のようである\footnote{例えば\citeA{hoardEtAl:book:1992}の航空機マニュアルの言語仕様はAECMAという団体が管理している.また企業情報の開示文書作成のためのPlainEngishは米国証券取引委員会が管理している.}.このような場合に単純に用例検索システムを導入するのは不適切と考える.\end{itemize}\subsubsection{書き換えエディタの画面}\label{subsub:editorScreen}書き換えエディタの主な機能を画面で説明する.図\ref{fig:main}にメイン画面を示す.メイン画面の上部は原稿の書き換え履歴,下部は書き換え作業の画面である.メイン画面からは後に説明する3原稿比較画面(図\ref{fig:three}),原稿差分画面,文の重複画面,単一原稿画面を表示させることができる.\begin{enumerate}\item書き換えの履歴\\図\ref{fig:main}の上段が元記事の書き換え原稿の履歴である.書き換え作業者はまず元記事のコピーを作成し最初の書き換えを作成する.次の作業者はそのコピーを作成し,さらに平易化する.さらにその後もコピーと平易化を繰り返し,作成される書き換え原稿すべてが履歴として記録される.書き換えの記録には木構造を採用しており,線状に並ぶ履歴だけでなく,兄弟ノードを作ることで複数系統の履歴を作ることができる.図\ref{fig:main}の履歴部分には「原文(本稿の元記事),デスク校閲(本稿の記者の書き換え),(日)校閲(本稿の日本語教師の書き換え),報道確認用(本稿の編集責任者確認用),検索稿(本稿の検索機能への入力用)・・・」といったフラグのついた書き換え原稿が並んでいる.\item作業画面\begin{itemize}\item記事編集と登録\\書き換えの履歴の下が作業画面である.枠で囲んだ3列の左端は元記事,中央は直前稿,右端が作業稿,すなわち現在の書き換えである.表示される原稿の関係は常に同じである.それぞれの列には,文編集用の箱とコメント用の箱のペアが下方向に繰り返し表示される.図\ref{fig:main}ではタイトル,タイトルへのコメント,書き換え稿の1行目の3つの箱が表示されている.左端(元記事)と中央の列(直前稿)は閲覧のみ可能で,右端(作業稿)の文編集用の箱とコメント用の箱は編集可能となっており,最初は直前稿の対応部分がコピーされている.作業者はコピーを書き換え,完了したら登録する.\item文単位の書き換え\\作業画面を横方向に見ると3つの箱が並んでいる.上で述べた文編集用の箱とコメント用の箱で,元記事の1文単位に設けられ,横に整列して表示される.作業者は右端の文編集用の箱の中で文の分割や書き換えを行う.文編集用の箱とコメント用の箱の数は元記事の文数に固定されており,右方向に見ることで元記事の文の変化を観察できる.以上の元記事の文を基準に書き換えを表示する方式を箱表示と呼ぶ.\item文長の表示\\文編集用の箱の直下に文長を表示している.目標が50文字程度以下であるため,40文字を超えて60文字までは青で,60文字を超えて80文字までは黄色で,80文字を超えると赤で文長を表示するようにしている.\itemコメント欄\\コメント欄には文の書き換えに対するさまざまなコメントを記入する.\item語の難易度表示\\直前稿と元記事の文編集用の箱の中の語はカラーで表示される.色は日本語能力試験の級に対応しており,4級を青,3級を緑,2級を黄色,1級を暗い赤,級外の難語を明るい赤とした.作業者は黄色や赤の語に注意して作業する.\item3原稿比較画面\\図~\ref{fig:main}の作業画面に対応する3つの画面を並べて表示することができる(図\ref{fig:three}).メイン画面にはコメントや文長情報があり一覧性が悪いが,図~\ref{fig:three}では全体を把握できる.元記事,直前稿,作業稿と進むにつれ,青色,緑色の語の割合が増え,書き換え稿の長さが短くなっていれば書き換えはやさしくなっていることになる.また,やさしさを数値で確認するため下段には原稿難易度スコアを表示している\footnote{ここでは原稿長と文長を文字列で測った場合と形態素数で測った場合の2種類の数字が並んでいる.それぞれ文字難易度,形態素難易度と表示されている.なお,例えば元記事の文字難易度の表示が$11337.95=517\times73.86\times0.30$と等式になっているが,実際は難語率の表示を3桁に制限した(0.30)ことによる丸め誤差で等式が成立していない.他の等式も同様である.}.\itemその他\\書き換えが進むと直前稿との差がほとんどなくなるため,書き換え原稿間の差分文字列をカラーで強調表示する画面(原稿差分画面),要約作業を支援するため,リード文と他の文の一致文字列をカラー表示する画面(文の重複画面)を用意した.また履歴中の任意の1つの書き換え原稿を色付きで表示することもできる(単一原稿画面).\end{itemize}\end{enumerate}\subsection{読解補助情報エディタ}\label{subsec:dokkaiEditor}書き換え作業が完了したやさしい日本語のテキストに対して以下の読解補助情報を付与する.\begin{itemize}\itemふりがな\\すべての漢字に付与する\item固有名詞の色表示\\地名,人名,組織名に色をつける\item辞書の説明\\日本語能力試験の2級,1級,それ以上の難語に原則付与する.ただし,辞書に適切な語釈がない場合は付与しない\end{itemize}本節では上記の付与作業を支援する読解補助情報付与エディタを説明する.ふりがな,固有名詞は既存の形態素解析システムで付与できる.また,日本語能力試験の級も形態素解析辞書の語に1級から4級までの級を記載しておけば認定できる.また解析時に未知語を難語とすることで,1,2級の難語とそれ以上の難語を自動認定できる.そこで当初は形態素解析器を応用した読解補助情報付与システムを使用していた.しかし形態素解析を誤れば,ふりがな,固有名詞,級の認定も誤ることになる.語の辞書引きには,形態素解析で得られる基本形の表記と読みを使うため,辞書引きも解析誤りに影響される.また,辞書引きができても語釈が語の説明としてふさわしくないこともある.さらに,ニュースには固有名詞,複合名詞を中心とした新語が頻繁に出現するため,1語へのまとめ,属性の付与などが必要となる.運用開始時はプロトタイピングと割り切り,形態素解析システムを応用していたため誤りを日々人手で修正する必要があった.しかし修正はその場限りでその後に反映されない.そこで,ふりがな,固有名詞の属性,表示する辞書項目,および語の日本語能力試験の級を予測し,かつ予測誤りの人手修正結果をオンライン学習できる「難易度,補助情報付与モジュール」を作成した.さらに,予測結果を簡便に修正できるインターフェースを開発した.以上により読解補助情報の自動付与結果の誤りをインターフェースで修正すれば以後の解析に反映できるようになった\cite{kumanoAndTanaka:ANLP:2014}.難易度,補助情報付与モジュールは(ふりがな,日本語能力試験の級もしくは固有名詞の属性,辞書項目)という3つ組のタグがついた形態素列をデータとして,学習時にはデータを最適分割して記憶する.学習は1記事ごとに行うので,修正結果は直ちに学習される.さらに忘却の機能を持つため,例えば固有名詞の認定の方針が変わった場合などにも自動的に対応できる.図\ref{fig:morph2}に読解補助情報エディタのインターフェースを示す.左が全体画面で,右は全体画面から呼び出された辞書項目の検索画面である.作業者は全体画面に表示されている解析結果を見て,必要に応じて語の単位の変更,級の修正,辞書項目の変更などを行う.なお,全体画面を開いたときにはすでにその時点までの学習結果が反映されていることに注意されたい.\begin{figure}[b]\begin{center}\includegraphics{25-1ia4f4.eps}\end{center}\caption{読解補助情報エディタ}\label{fig:morph2}\end{figure}全体画面の右側は,左側の作業内容を確認する全体表示である.NEWSWEBEASYの画面と同様の形式で漢字のふりがなが表示され,書き換えエディタと同様の形式で語の級,固有名詞の種別が色分け表示されており,作業者は直感的に内容を確認することができる.学習の効果に関して,\citeA{kumanoAndTanaka:ANLP:2014}は1,372記事の各記事を対象にオンライン学習する場合の解析精度と,形態素解析システムを使った従来の解析精度を比較し,形態素解析システムを使った精度は一定して89\%程度であるのに対して,オンライン学習する手法では250記事程度を学習すると約95\%に達して飽和したことを報告している.\subsection{制作支援システムのまとめ}\label{sec:systemMatome}原稿と書き換えエディタ,読解補助情報エディタ,用例検索の関係を図~\ref{fig:flowchart}に示す.管理システムとは原稿と各システムを制御するシステムである.図~\ref{fig:flowchart}では元記事が管理システムに登録された後,書き換えエディタにコピーされて,第$0$版から第$n$版まで書き換えらえる状態を示している.さらに第$n$版は読解補助情報エディタに入力されて補助情報が付加される.\begin{figure}[b]\begin{center}\includegraphics{25-1ia4f5.eps}\end{center}\caption{書き換え原稿の流れとシステムの関係}\label{fig:flowchart}\end{figure}図に示したように書き換え作業中には,用例検索と,難易度,補助情報付与モジュールの語の難易度推定機能が利用される.書き換え終了時には元記事(図中では書換$0$)と第$n$版の書き換え(図中では書換$n$)が用例検索システムに登録され,日々の運用で自然に用例が蓄積される.読解補助情報の付与作業中は難易度,補助情報付与モジュールのさまざまな情報推定機能が利用される.そして誤りを訂正した結果が同システムに登録されて学習される.すなわち,書き換えエディタ,読解補助情報エディタはそれぞれ日々の運用によって情報がフィードバックされ性能が向上する循環型のシステムになっている. \section{書き換え支援システムの効果} \label{sec:performance}本章では2つのエディタの効果を確認するために実施した調査を報告する.NEWSWEBEASYは実際のサービスであるため,エディタの利用・非利用の比較に基づく対照実験は困難である.そこで,まず制作に関わっている日本語教師と記者全員に対するアンケート,さらに,システムに記録されているログの分析により効果を調査した.\subsection{アンケート}現在,NEWSWEBEASYの書き換えを担当しているのは表\ref{tab:instructors}に示すJ1からJ4までの日本語教師4名,およびR1からR3までの記者3名である.日本語教師2名および記者2名は2012年4月のサービス開始時から制作に参加している.日本語教師は15年以上の豊富な教育経験を持ち,記者はニュース原稿の作成の豊富な経験を有するOBであり,それぞれ高い専門知識を持っている.今回のアンケートではまず文書で尋ね,回答中の興味深い点,疑問点をメールで再度聞き取る方法を採用した.\begin{table}[b]\caption{回答者の属性(調査当時)}\label{tab:instructors}\input{04table01.tex}\end{table}\subsubsection{システムの全体について}\label{subsub:overallSystem}システム全体としての利点と問題点を把握するため下記の質問に自由記述で回答してもらった.質問趣旨と主な回答は以下の通りである.\begin{enumerate}\itemもし書き換えエディタのさまざまな機能および用例検索機能が現在使えないとすると品質,書き換え時間にどのような影響があるでしょうか.\begin{itemize}\item作業時間は大幅に増え1日3記事担当するのは負担が大きそうである(他類似回答4件).\itemシステムを使わない場合,異なる作業者間,過去記事との間に大きな違いが出ると思う.一定の基準,レベルでの書き換えを保つためには必要だと思う(他類似回答4件).\end{itemize}時間の短縮の効果を感じさせる1番目の回答より,書き換えエディタは「書き換えの停滞」の解消に効果的であったことが伺える.また,2番目の回答は「平易化レベルの保証」が実現できていることを示唆している.この他\begin{itemize}\item自分の書き換えを他の作業者が参照すると思うと責任を持って書くようになる\end{itemize}という回答もあり,品質維持の動機につながっていることを伺わせる回答もあった.一方,システムがなければ\begin{itemize}\itemNHKのニュースという枠にとらわれずによりやさしくできる可能性がある\end{itemize}という指摘もあった.なお,書き換え時間が短くなったという回答はあったが,日々の作業時間が短くなっているわけではない.事情を質問したところ,\begin{itemize}\item日々の作成本数が決まっているので書き換えに割り当てている総時間は変えておらず,書き換えの質を向上させるための記者と日本語教師との検討,事前のリサーチに時間を費やしている\end{itemize}とのことであった.すなわち,書き換えエディタによって質の向上のための時間が生み出されていると考えられる.\item書き換えエディタのさまざまな機能,用例検索の機能,読解補助情報エディタを使うことによる副作用(例えば書き換えが画一的になるなど)はないでしょうか.\begin{itemize}\item「前もこう言い換えた」は一見安全が保護されているように見えるが絶えず再検討しなければならないだろう(他類似回答3件).\end{itemize}全員上記のように過去用例を安易に再利用すべきでないという自覚があり,現在は問題ないと回答していた.類似した回答に\begin{itemize}\item(自分の書き換えに対して)日誌に次回はチャレンジすることなどと引き継ぎしている\item参加した1年目は先輩の用例に従わなければと思い込んでいたが,現在は他の分かりやすい表現を探している\end{itemize}などがあり,常に新しい表現を模索している姿勢が伺えた.書き換えエディタの支援機能や読解補助エディタへのコメントはなく,副作用は特にないと考えられる.\item書き換えエディタのさまざまな機能,用例検索の機能,読解補助情報エディタはやさしい日本語の学習やNEWSWEBEASYの新人への教育に有用でしょうか.\begin{itemize}\item用例検索はNEWSWEBEASYの書き換えスタッフの養成には有用(他類似回答3件).\item用例検索の記事にはニュースの特有の表現があるので他(のやさしい日本語)では有用とは言えない(他類似回答1件).\end{itemize}途中からNEWSWEBEASYの制作に参加した日本語教師からは\begin{itemize}\itemいろいろなルールがそれぞれのシステムに反映されているので,意識しながら(ルールを)身に付けることができた\end{itemize}との回答があった.この回答は語の難易度,文長の制限,NHKでの漢字の読みなどがシステムで提示されることを指している.一方,別の日本語教師からは新人の教育に有用と回答した上で\begin{itemize}\itemシステム操作に日本語教育と無関係な専門用語が多いので覚えるのに負担がかかる可能性がある\end{itemize}との指摘があった.例えば,新たな書き換え稿の作成ボタンに使われている「makechild」(書き換え履歴の木構造の子ノード作成の意味)といった専門用語が分かりにくさにつながるという指摘である.\end{enumerate}\subsubsection{書き換えエディタ}\label{subsub:EnquetteKakikae}書き換えエディタの10の機能について,それぞれの「使用頻度」「有用性」「満足度」を5段階の選択肢で質問した.使用頻度と有用性は機能そのものについて,満足度はインターフェースについての質問である.以後も同じ趣旨で質問した.例として「履歴」についての問いを表\ref{tab:rireki}に,回答に使った5段階の選択肢を表\ref{tab:answers}に示す.\begin{table}[b]\caption{「履歴」情報に関する問い}\label{tab:rireki}\input{04table02.tex}\end{table}\begin{table}[b]\caption{選択肢}\label{tab:answers}\input{04table03.tex}\end{table}さらに,それぞれの機能についてコメント,使用状況,使用状況の変化について自由記述で回答してもらった.全員の選択結果を表\ref{tab:res_editor}に示す.なお「箱による編集」は必ず使用するため使用頻度の質問はしていない.表~\ref{tab:res_editor}の「日教師」の列は日本語教師J1からJ4の結果を示す.同様に「記者」の列は記者R1からR3の結果を示す.\begin{table}[t]\caption{書き換えエディタの選択結果}\label{tab:res_editor}\input{04table04.tex}\end{table}まず個人に着目する.記者R3の使用頻度を他の記者と比べると5がかなり多い.記者R3が1をつけているのは「文長表示」と「3原稿比較画面」で,この他では「原稿難易度表示」に3をつけているのみである.他の記者と比較してみよう.記者R3の使用頻度が5で他の記者が1あるいは2を付けている項目は,「履歴」「語難易度表示」「単一原稿画面」「原稿差分画面」である.「履歴」と「原稿差分画面」は日本語教師との共同作業で使うため,日本語教師が使えば情報を共有できる.「単一原稿画面」については,代わりに「3原稿比較画面」を使っているとのコメントがあった.また「語難易度表示」は表現の平易化に使う機能であるため使っていないとのことであった.\ref{sec:rewriteEditorDesign}項で述べたように,当初記者は表現の平易化を担当しないという原則を設けており,それに対応したコメントと思われる.以上を総合すると記者R3は求められている仕事に専念している度合いが他の記者より強いことが伺える.次に各項目を概観する.「履歴」はよく使われ,有用性,満足度も高い.作業中の使い方には\begin{itemize}\item書き換えの各段階での情報の抜け落ちの確認\item2つの書き換え案があるときに両方を作って検討\item編集責任者との確認で削除した情報を復活する場合に使用\end{itemize}という回答があった.履歴は木構造で表現しているため兄弟ノードの原稿を作ることができる.上述の2つの書き換え案は兄弟ノードを利用して作成している.また,作業の事前事後の使い方には\begin{itemize}\item微妙な外交問題などをどのように書き換えているかなどを観察する\item日誌を書く際の作業の振り返りに使用\end{itemize}との回答があった.事前のリサーチ,振り返りにも活用されている.「箱による編集」も有用性,満足度とも高い.一方\begin{itemize}\item元記事の文数に固定されている箱の数を増やせるようにしてほしい\end{itemize}との要望があった.元記事の構成を大幅に変更した場合などに不便なようである.「文長表示」は全員がすべての項目に1を付与している.人間が文字数を数えて確認するには大きな手間がかかる.文字数の計算は単純だが,効果の高い指標と考えられる.また,「文長表示」は編集責任者へ書き換えを説明する際に使われていた.「語難易度表示」は日本語教師の評価が高い.記者R1,R2も積極的にこの指標を利用している.\begin{itemize}\item全体が色で表示されているため記事中の語彙難易度の状況が一目で把握できる点が良い\item学習機能により難易度の精度が上がった\end{itemize}という回答があった.「語難易度表示」も編集責任者への説明に利用されている.なお,記者の\begin{itemize}\item最近では難しい単語はだいたい分かるようになったため以前ほどこの表示に頼らなくなった\end{itemize}という回答もあった.「コメント欄」については書き込みの頻度を尋ねたため,記者の使用頻度は低いが,有用性は高いという評価である.主に日本語教師が書き込んでおり,内容は\begin{itemize}\item参考情報の出典(Webサイトなど)\item書き換えの意図の説明\item複数案あるときの代替案\item不明点\end{itemize}などである.記者からは\begin{itemize}\item日本語教師の書き換えプランが理解できる\item代替案をコピーできる\end{itemize}といった回答があった.なお\begin{itemize}\itemコメントが入っていない文の欄は非表示にしたい\end{itemize}との要望も寄せられた.表示方法には工夫の余地がある.「単一原稿画面」と「3原稿比較画面」はどちらも書き換え原稿の表示であり,一方だけ使っている作業者,目的に応じて使い分けている作業者がいた.それぞれ使い方を決めており,両者は必要な機能となっていた.「原稿難易度表示」も利用頻度,有用性,満足度とも高い.\begin{itemize}\item原稿難易度を目標に書き換える\item記者や編集責任者に書き換えの必要性を説明するときに使う\end{itemize}という回答があった.原稿難易度を書き換えの目標に使っているという回答に関して,現在,原稿難易度と外国人理解度との詳細な関係は分かっておらず,今後調査が必要である.「文の重複画面」と「原稿差分画面」はどちらも単純な最長共通文字列検出アルゴリズムを利用している.「文の重複画面」は主に記者の要約する作業を支援する目的で作成しているため日本語教師は使っていない.また記者からは\begin{itemize}\item記事を読むと重複箇所はだいたい分かるので使っていない\end{itemize}という回答を得た.一方「原稿差分画面」は使用頻度,有用性,満足度とも高い.特に修正箇所が少なくなり目視での書き換え稿間の差の確認が難しくなる後半で使われている.直前稿との差の確認,編集責任者への変更箇所の説明,最終的なタイポの発見などが主要な使い方である.\begin{itemize}\item日本語教師との「キャッチボール」\footnote{記者と日本語教師で行う原稿の確認のこと.}に欠かせない\end{itemize}という記者のコメントもあった.「原稿差分画面」も単純だが有用な機能である.\subsubsection{用例検索機能}用例検索機能について,全員に選択肢と自由記述形式で質問した.選択肢は書き換えエディタと同じ使用頻度,有用性,満足度に加えて,用例の蓄積の重要性について尋ねた.質問は「用例の蓄積は重要でしょうか」である.また回答は「1:重要,2:やや重要,3:どちらとも言えない,4:あまり重要でない,5:重要でない」の5段階である.結果を表\ref{tab:yourei}に示す.記者R1の使用頻度は低いが,この項目以外の評価は高い.記者R1は自分では使わないが日本語教師が検索した結果を利用しているとコメントしており,有用性は高いと評価している.\begin{table}[t]\caption{用例検索の選択結果}\label{tab:yourei}\input{04table05.tex}\end{table}用例の蓄積の重要性についても高い重要性を認めている.さらに,以下の自由記述形式の質問を行った.質問趣旨と主な回答を記す.\begin{enumerate}\item用例検索を使う目的とタイミングを教えてください.\begin{itemize}\item書き換え前に参考になる記事を探す(他類似回答4件)\item書き換え中に表現の書き換え例を探す(他類似回答5件)\item作業外の時間で他の人が担当した記事を勉強する(他類似回答2件)\end{itemize}想定の通り,作業中に書き換え表現を探す用途が多い.また\begin{itemize}\item当日の記事の選択時に過去との重複を調べる用途\item編集責任者の説明に過去の書き換え事例を示す目的\end{itemize}という回答もあった.\itemどのような表現を入力しますか.\begin{itemize}\item固有名詞\\人名関連(マララさん,ウルトラマン),組織名(IOC,ISイスラミックステート)\item専門用語\\気象災害用語(豪雨,土砂崩れ,孤立状態,浸水),科学技術用語(AI,大気,生存率,GPS),文化・伝統関連用語(恵方巻き,かつお節,こいのぼり,土用の丑の日),医療関係(手足口病,小頭症)\item難しい表現\\2級以上の語彙,使わざるを得ない受け身や使役の使用例(行われる,やめさせる,やめさせられる)\end{itemize}固有名詞は書き換えないが,加える説明を調べるために入力して調査する.また,関連記事を検索する場合にもキーワードとして入力している.専門用語は書き換え事例,および追加する説明を調査するために入力している.\item現在の用例検索は記事単位,もしくは文単位で検索結果が表示されます.この代わりに,「避難」に対して「逃げる」といったフレーズの辞書を作って検索することが考えられます.現在の方式とどちらが有用でしょうか.\begin{itemize}\item同じ単語でも記事の内容によって書き換え方は異なるので文や記事が必要(他類似回答5件)\itemどちらでも有用だが辞書ができるのだろうか\end{itemize}基本的には書き換え時に文脈,記事の全体を見るため現在の方式の方を有用と考えている.特に,現在は元記事とやさしい日本語の文を対応させて検索結果を表示できるため,元記事の表現が省略されたことが分かるようになっている.このため\begin{itemize}\itemある表現が文脈によって省略されやすい事実が分かる点が有用\end{itemize}という回答もあった.\item検索システムの用例が蓄積され検索できる記事や表現が増えています.このような効果を感じますか.あるいはまだ,蓄積が足りないと感じますか.\begin{itemize}\item蓄積効果を感じている(全員)\item同じ言い回しでも異なる書き換えがあるため蓄積はまだ必要(他類似回答1件)\item不足していると感じることがある\item不足はあまり感じない\item蓄積が進んだため,検索結果が多すぎたり,誤った結果が含まれたりすることがある(他類似回答1件)\end{itemize}用例の蓄積効果は全員感じていた.ただし~\ref{subsub:overallSystem}項の(2)で報告したシステム全体についての副作用のアンケートの回答にあったように,無条件に使ってはいけないという意識は強い.また,現在記事数が4,000件を超えており,過剰な検索結果,不適切な検索結果が問題になりつつあることが分かった.\end{enumerate}\subsubsection{読解補助情報エディタ}読解補助情報エディタについて日本語教師に選択形式と自由記述形式で質問した.選択肢は5段階でこれまでと同様である.また記者は作業を担当しないため質問していない.\begin{table}[b]\caption{読解補助情報エディタの選択結果}\label{tab:hojyo}\input{04table06.tex}\end{table}選択肢問題の質問趣旨は以下の通りである.\begin{enumerate}\item読解補助情報エディタの使い勝手はいかがですか\item以前の読解補助情報エディタには学習機能がありませんでしたが現在はこれが装備されています.学習機能は重要でしょうか\item学習機能の性能に満足ですか\end{enumerate}結果を表\ref{tab:hojyo}に示す.現在の使い勝手,学習機能とも満足度,重要性とも大きい結果となった.また問題点,コメントを自由記述形式で求めたところ\begin{itemize}\item学習機能には大変助かっており性能にも概ね満足している.ただし自動推定された結果から誤りを探すのが大変であり,候補を出す方式の方が良いかもしれない\end{itemize}という回答が1件あった.現在は誤り率5\%程度だと推定しているが,この程度になると誤りを見過ごしやすくなる問題がある.自動推定結果をまとめて修正するのでなく,回答のように候補を出して選択させる方式も検討したい.次に,読解補助情報エディタの学習機能によりどれくらい作業時間が短縮されたかを調査するため次の質問を行った\footnote{読解補助情報エディタにはログ機能がないためアンケートで質問した.}.\begin{enumerate}\item現在の1記事あたりの読解補助情報の付与の時間はどれくらいですか.また学習機能がないころは何倍くらい時間がかかっていましたか.\end{enumerate}この質問は学習機能のないエディタでの作業を経験している日本語教師J1,J2,J3に対してのみ実施した.結果を表\ref{tab:hojyoTime}に示す.日本語教師はおよそ類似した感覚を持っていることが分かった.学習機能付きの場合の1記事の処理時間がおよそ10分で,学習機能がない場合にはその最大3倍の処理時間がかかったという結果が得られた.なお,この質問は,過去と現在の比較となるため,結果には作業者自身の学習効果を含んでおり,単純に学習機能だけの効果と言えない点に注意が必要である.\begin{table}[t]\caption{読解補助情報付与の時間}\label{tab:hojyoTime}\input{04table07.tex}\end{table}\subsection{ログの分析}\label{sub:logAna}\ref{subsub:overallSystem}項の書き換えエディタのアンケート(1)では「書き換えの停滞」と「平易化レベルの保証」に対する効果が示唆されたことを述べた.本節では効果をさらに確認するため書き換えエディタのログを解析した.対象としたのはNEWSWEBEASY開始の2012年4月から2016年11月までのログである.書き換えエディタのログは本来,本節で述べるような調査を目的に設計されていない.そこで,以下ではできるだけ安定していると思われるデータを抽出して解析した.この期間で元記事から完成まで普通に制作されたと推定できる記事は4,164件であった\footnote{複数の日本語教師,あるいは記者が携わった記事,完成に至らなかった記事,原稿の系列のタイムスタンプに逆転が見られた記事を除外した.}.\subsubsection{記者と日本語教師の平均ターン数}\label{subsub:turn}やさしい日本語のニュースは元記事を記者と日本語教師が交代で記事を書き換えて作成する.書き換え稿の数,ターン数は\ref{subsub:kadai}項で述べた書き換えの停滞,あるいは逆数を取ると日本語教師と記者の互いの仕事への理解度合いの指標になると考えた.そこで,上記の4,164記事から,典型的と考えられる\[\mbox{記者}\rightarrow(\mbox{記者}\mid\mbox{日本語教師})^\star\rightarrow\mbox{編集責任者確認用}\]のパターンに従って書き換えられた記事3,215本を抽出した.そして各記事の最初の記者の書き換えから編集責任者確認用までの書き換え稿の数を算出し,これをターン数として月ごとに平均を計算した.通常,最短で「記者$\rightarrow$日本語教師$\rightarrow$編集責任者確認用」の3つの書き換え稿,すなわち3ターンが必要となる.図\ref{fig:aveTurn}に結果を示す.NEWSWEBEASY開始時の2012年4月の平均ターン数は5に近いが半年後の2012年10月には3近くにまで減少し,その後同じような数が続いている.すなわち,開始から半年程度で停滞が減少,あるいは互いの仕事への理解が深まったことを示唆していると考える\footnote{記事の書き換え時間のログの分析も試みたが,1日の制作記事数が決まっていて,制限時間内であれば時間をかけられること,待ち時間,休憩時間などの影響が見積もれないことから解析は困難と考え実施しなかった.}.アンケートの結果と本項の結果より,書き換え支援システムは書き換えの停滞の解消に効果があったと考える.\begin{figure}[b]\begin{center}\includegraphics{25-1ia4f6.eps}\end{center}\caption{平均ターン数}\label{fig:aveTurn}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{25-1ia4f7.eps}\end{center}\caption{平均文長}\label{fig:aveLen}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{25-1ia4f8.eps}\end{center}\caption{平均難語率}\label{fig:aveRate}\end{figure}\subsubsection{平易化レベルの保証}\label{subsub:simpleLevel}平易化レベルの保証に対する書き換えエディタの効果は,文長と難語率を元記事とやさしい日本語のニュースで比較することでおよそ評価できる.そこで,各月の平均文長と平均難語率を日本語教師ごとに調査した.調査した記事は全4,164件である.また日本語教師はこの期間,延べ5名が制作に関わったため,全員について上記の平均を計算した.平均文長と難語率の結果を図\ref{fig:aveLen}および図\ref{fig:aveRate}に示す.図の左が元記事,右がやさしい日本語のニュースである.2つの図を見ると,平均文長,平均難語率ともやさしい日本語のニュースの方が元記事より明らかに小さくなっている.またやさしい日本語の平均文長と平均難語率は,すべての日本語教師で似た値となっている.これらの結果は平易化レベルの保証に書き換えエディタが効果的であったことを示したものと考える.さらに図~\ref{fig:aveLen}の平均文長と図~\ref{fig:aveRate}の平均難語率のやさしい日本語(右部分)のグラフの横軸方向の変化を観察すると,両者とも特に初期に右下がりの傾向を示している.\ref{subsub:overallSystem}項の書き換え支援システムの全体のアンケート(2)で担当者は常に書き換えの改善を目指しているという回答を得ており,グラフの右下がり傾向は日本語教師が文長と難語率を強く意識しながら日々書き換えの改善を試みていることの現れと思われる. \section{議論} \label{sec:discussion}アンケートでは書き換えエディタと読解補助情報エディタの機能のほとんどが高頻度に使われていること,また日本語教師,記者ともに有用性を高く評価していることを示す回答を得た.ターン数のログ解析では,書き換えが初期に比べてよりスムーズに進むようになり,書き換えの停滞の問題が軽減されたこと,平均文長と平均難語率の分析では,両者とも元記事より大幅に減少し,平易化レベルの保証が実現できていたことを確認した.今後,新たにやさしい日本語を使った情報提供を行う場合に有用と思われる点を指摘したい.1点目は学習機能である.ふりがななどの読解補助情報,語の難易度推定に学習機能を入れて以来,2つのエディタとも特段の保守なしに順調に運用されている.アンケートでも学習機能の効果は高い評価を得た.日々繰り返す作業に自動システムを導入する場合,学習機能は特に高い効果をもたらすと考える.2点目は用例の利用である.書き換えエディタの用例検索機能は記事数が増え,有用性が増していることが明らかになった.用例は積極的に利用すべきと考える.ただし,用例検索を利用することは\ref{subsub:kakikaeEditorHosoku}項で述べたように書き換え原則の開発をユーザが主体的に行うことにつながる.あらかじめ書き換え原則を網羅的に準備できず,ユーザに原則の書き換えを任せてよい場合には用例検索機能は有用と考える.3点目は書き換えの説明のしやすさである.当初,記者と日本語教師の共同作業を支援するため,コメント追加,記事の履歴の保存などの機能を設けた.これらの機能は互いの書き換えの説明の材料になると考えたからである.次に詳述するように,記者と日本語教師の理解が進んだ結果,彼らの間の説明の必要性はある程度減っているようである.一方,編集責任者など他の参加者への説明はコメント,履歴などを使って引き続き行われている.書き下ろしでなく元文書を書き換える場合,元文書の作者に説明が必要な場合は多いと考える.また,放送局のように最終的な責任者がいる場合その人への説明も必要となる.書き換えの説明をしやすいシステムにしておくのが1つの要点と考える.最後に日本語教師と記者の相互の理解の深まりから見たシステムの今後について触れたい.アンケートによると開始から5年を経て日本語教師と記者の互いの知識の理解が進んだことが明らかになった.例えば,語難易度表示に関する記者へのアンケートに\begin{itemize}\item最近では難しい単語はだいたい分かるようになったため以前ほどこの表示に頼らなくなった\end{itemize}という回答があったことを~\ref{subsub:EnquetteKakikae}項で述べた.また日本語教師への追加質問では\begin{itemize}\itemニュースの構成がそのままではやさしくしにくい時,積極的に構成の変更を提案するようになった\end{itemize}という回答を得た.いずれも相互理解が進んだことを示唆している.さらに~\ref{subsub:turn}項の平均ターン数の分析では,相互理解がNEWSWEBEASYの開始から半年程度の間に進んだことを示唆する結果を得た.記者がやさしい日本語に十分慣れれば,ボーイングの事例と同じく,専門家である記者がシステムの指摘に従って書き換えを進めることが可能になると考える.ただし,新たに担当する記者に,いかにやさしい日本語の知識を伝えるかが問題となる.知識の伝達に関して,過去に日本語教師が1名交代したことがある.新たに参加した日本語教師からは,用例を使ってニュースのやさしい日本語を学習したとのアンケートの回答があった.新しい日本語教師と同様に記者が過去の用例を使ってやさしい日本語を学習することは可能だろう. \section{おわりに} \label{sec:owari}本稿ではNHKのやさしい日本語のニュースのWebサイトNEWSWEBEASYの概要,やさしい日本語の書き換え原則を説明し,続いてやさしい日本語のニュースの制作の体制とプロセス,および制作を支援する書き換えエディタと読解補助情報エディタを報告した.書き換えエディタは日本語教師と記者という互いに異なる専門知識を持つ作業者が,専門性を相互補完しながらニュースをやさしい日本語に書き換えるエディタである.書き換えエディタには難しい語を指摘する機能があり,ユーザは難しい語の書き換え候補を日々の運用で蓄積された書き換え用例から検索することができる.読解補助情報エディタは漢字のふりがな,辞書付与のための語彙の難易度情報などを自動的に付与する機能を持つ.また自動付与した結果を人手で修正するとその結果を学習することができる.これらのエディタは日々の運用によって用例が蓄積され,学習が進むと性能が向上していく特徴を有している.また,2つのエディタのユーザである日本語教師と記者を対象に,使用頻度,有用性,満足度をアンケートで調査した結果,どちらのエディタも高い評価を得たことを報告した.またログ解析により表現が平易になっていること,平易化は個人によらず同じ程度あったことなどを報告した.\acknowledgment本研究を進めるにあたってご協力いただいたNEWSWEBEASYの制作を担当している記者OBおよび日本語教師の皆様,および,書き換えエディタ,および読解補助情報エディタを日々運用してNEWSWEBEASYのサービスを実施しているNHK報道局ネットワーク報道部の皆様に感謝します.また日頃より研究の進め方のご指導をいただく放送技術研究所ヒューマンインターフェース研究部岩城正和部長,議論していただく同部のみなさまに感謝します.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Barzilay\BBA\Elhadad}{Barzilay\BBA\Elhadad}{2003}]{Barzilay-Elhadad:2003:EMNLP}Barzilay,R.\BBACOMMA\\BBA\Elhadad,N.\BBOP2003\BBCP.\newblock\BBOQSentenceAlignmentforMonolingualComparableCorpora.\BBCQ\\newblockIn{\BemProceedingsofthe2003ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2003)},\mbox{\BPGS\25--32}.\bibitem[\protect\BCAY{Bott\BBA\Saggion}{Bott\BBA\Saggion}{2012}]{Bott-Stefan:2012:ICCHP}Bott,S.\BBACOMMA\\BBA\Saggion,H.\BBOP2012\BBCP.\newblock\BBOQAutomaticSimplificationofSpanishTextfore-Accessibility.\BBCQ\\newblockIn{\BemProceedingsofthe13thInternationalConferenceonComputersHelpingPeoplewithSpecialNeeds(ICCHP2012)},\mbox{\BPGS\527--534}.\bibitem[\protect\BCAY{Carroll,Minnen,Pearce,Canning,Devlin,\BBA\Tait}{Carrollet~al.}{2009}]{John-Carroll:1999:EACL}Carroll,J.,Minnen,G.,Pearce,D.,Canning,Y.,Devlin,S.,\BBA\Tait,J.\BBOP2009\BBCP.\newblock\BBOQSimplifyingTextforLanguage-ImpairedReaders.\BBCQ\\newblockIn{\BemProceedingsofthe9thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL2009)},\mbox{\BPGS\269--270}.\bibitem[\protect\BCAY{Chandrasekar,Doran,\BBA\Srinivas}{Chandrasekaret~al.}{1996}]{chandrasekar-EtAl:1996:Coling96-Short}Chandrasekar,R.,Doran,C.,\BBA\Srinivas,B.\BBOP1996\BBCP.\newblock\BBOQMotivationsandMethodsforTextSimplification.\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalConferenceonComputationalLinguistics(COLING1996),VolumeII},\mbox{\BPGS\1041--1044}.\bibitem[\protect\BCAY{Coster\BBA\Kauchak}{Coster\BBA\Kauchak}{2011}]{coster-kauchak:2011:ACL-HLT2011}Coster,W.\BBACOMMA\\BBA\Kauchak,D.\BBOP2011\BBCP.\newblock\BBOQSimpleEnglishWikipedia:ANewTextSimplificationTask.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\665--669}.\bibitem[\protect\BCAY{Goto,Tanaka,\BBA\Kumano}{Gotoet~al.}{2015}]{goto-tanaka-kumano:2015:MTSummit}Goto,I.,Tanaka,H.,\BBA\Kumano,T.\BBOP2015\BBCP.\newblock\BBOQJapaneseNewsSimplification:TaskDesign,DataSetConstruction,andAnalysisofSimplifiedText.\BBCQ\\newblockIn{\BemProceedingsofMTSummitXV},\lowercase{\BVOL}~1,\mbox{\BPGS\17--31}.\bibitem[\protect\BCAY{Hoard,Wojcik,\BBA\Holzhauser}{Hoardet~al.}{1992}]{hoardEtAl:book:1992}Hoard,J.~E.,Wojcik,R.,\BBA\Holzhauser,K.\BBOP1992\BBCP.\newblock\BBOQAnAutomatedGrammarandStyleCheckerforWritersofSimplifiedEnglish.\BBCQ\\newblockInHolt,P.~O.\BBACOMMA\\BBA\Williams,N.\BEDS,{\BemComputersandWritingStateoftheArt},\BCH~19,\mbox{\BPGS\278--296}.KluwerAcademicPublishers.\bibitem[\protect\BCAY{Inui,Fujita,Takahashi,\BBA\Iida}{Inuiet~al.}{2003}]{inui-kentaro:2003:PARAPHEASE2003}Inui,K.,Fujita,A.,Takahashi,T.,\BBA\Iida,R.\BBOP2003\BBCP.\newblock\BBOQTextSimplificationforReadingAssistance:AProjectNote.\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponParaphrasing(PARAPHRASE2003)},\mbox{\BPGS\9--16}.\bibitem[\protect\BCAY{庵}{庵}{2010}]{iori:Book:2010}庵功雄\JED\\BBOP2010\BBCP.\newblock\Jem{日本語これだけ!1}.\newblockココ出版.\bibitem[\protect\BCAY{庵}{庵}{2011}]{iori:Book:2011}庵功雄\JED\\BBOP2011\BBCP.\newblock\Jem{日本語これだけ!2}.\newblockココ出版.\bibitem[\protect\BCAY{庵}{庵}{2016}]{iori:book:2016}庵功雄\BBOP2016\BBCP.\newblock\Jem{やさしい日本語—多文化共生社会へ}.\newblock岩波新書.岩波書店.\bibitem[\protect\BCAY{庵\JBA岩田\JBA森}{庵\Jetal}{2009}]{IoriEtAL:kyouikuGakkai:2009}庵功雄\JBA岩田一成\JBA森篤嗣\BBOP2009\BBCP.\newblock「やさしい日本語」を用いた公文書の書き換え.\\newblock\Jem{2009年度日本語教育学会秋季大会},\mbox{\BPGS\135--140}.\bibitem[\protect\BCAY{伊藤\JBA鹿嶋\JBA前田\JBA水野\JBA御園生\JBA米田\JBA佐藤}{伊藤\Jetal}{2008}]{itoEtAl:denki:2008}伊藤彰則\JBA鹿嶋彰\JBA前田理佳子\JBA水野義道\JBA御園生保子\JBA米田正人\JBA佐藤和之\BBOP2008\BBCP.\newblock「やさしい日本語」作成支援システムの試作.\\newblock\Jem{平成20年度電気関係学会東北支部連合大会},\mbox{\BPG\209}.\bibitem[\protect\BCAY{岩田}{岩田}{2010}]{iwata:ShakaiGengo:2010}岩田一成\BBOP2010\BBCP.\newblock言語サービスにおける英語指向—「生活のための日本語調査:全国調査」結果と広島の事例から—.\\newblock\Jem{社会言語学},{\Bbf13}(1),\mbox{\BPGS\81--94}.\bibitem[\protect\BCAY{Jonnalagadda,Tari,Hakenberg,Baral,\BBA\Gonzalez}{Jonnalagaddaet~al.}{2009}]{jonnalagadda-EtAl:2009:NAACLHLT09-Short}Jonnalagadda,S.,Tari,L.,Hakenberg,J.,Baral,C.,\BBA\Gonzalez,G.\BBOP2009\BBCP.\newblock\BBOQTowardsEffectiveSentenceSimplificationforAutomaticProcessingofBiomedicalText.\BBCQ\\newblockIn{\BemProceedingsofHumanLanguageTechnologies:The2009AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{梶原\JBA山本}{梶原\JBA山本}{2015}]{kajiwara-yamamoto:JPSJ:2015}梶原智之\JBA山本和英\BBOP2015\BBCP.\newblock日本語の語彙平易化システムの構築.\\newblock\Jem{情報処理学会第77回全国大会},2\JVOL,\mbox{\BPGS\167--168}.\bibitem[\protect\BCAY{河原\JBA野山}{河原\JBA野山}{2007}]{kawahara:book:2007}河原俊昭\JBA野山広\BBOP2007\BBCP.\newblock\Jem{外国人住民への言語サービス}.\newblock明石書店.\bibitem[\protect\BCAY{国際交流基金\JBA日本国際教育協会}{国際交流基金\JBA日本国際教育協会}{2007}]{JLPT:book:1994}国際交流基金\JBA日本国際教育協会\BBOP2007\BBCP.\newblock\Jem{日本語能力試験出題基準改訂版}.\newblock凡人社.\bibitem[\protect\BCAY{Kuhn}{Kuhn}{2014}]{Kuhn:CL:2014}Kuhn,T.\BBOP2014\BBCP.\newblock\BBOQASurveyandClassificationofControlledNaturalLanguage.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf40}(1),\mbox{\BPGS\121--171}.\bibitem[\protect\BCAY{熊野\JBA後藤\JBA田中\JBA浦谷\JBA江原}{熊野\Jetal}{2001}]{kumanoEtAl:2001:IEICE}熊野正\JBA後藤功雄\JBA田中英輝\JBA浦谷則好\JBA江原暉将\BBOP2001\BBCP.\newblock翻訳用例提示システムの設計・開発・運用.\\newblock\Jem{電子情報通信学会},{\BbfJ84-D-II}(6),\mbox{\BPGS\1175--1184}.\bibitem[\protect\BCAY{熊野\JBA田中}{熊野\JBA田中}{2014}]{kumanoAndTanaka:ANLP:2014}熊野正\JBA田中英輝\BBOP2014\BBCP.\newblockDependentDirichletProcessを用いた日本語文書へのタグづけのオンライン学習.\\newblock\Jem{言語処理学会第20回年次大会},\mbox{\BPGS\1075--1078}.\bibitem[\protect\BCAY{熊野\JBA田中}{熊野\JBA田中}{2016}]{kumano-tanaka:2016:ANLP}熊野正\JBA田中英輝\BBOP2016\BBCP.\newblock統計機械翻訳によるやさしい日本語書き換えの性能向上.\\newblock\Jem{言語処理学会第22回年次大会},\mbox{\BPGS\713--716}.\bibitem[\protect\BCAY{松田}{松田}{2010}]{matsuda:2010:nihongoKyouiku}松田真希子\BBOP2010\BBCP.\newblockやさしい日本語への自動言い換えシステムの開発.\\newblock\Jem{2010年度日本語教育学会春季大会予稿集},\mbox{\BPGS\91--93}.\bibitem[\protect\BCAY{Mitamura\BBA\Nyberg}{Mitamura\BBA\Nyberg}{2001}]{mitamuraAndNyberg:NLPRS:2001}Mitamura,T.\BBACOMMA\\BBA\Nyberg,E.\BBOP2001\BBCP.\newblock\BBOQAutomaticRewritingforControlledLanguageTranslation.\BBCQ\\newblockIn{\BemProceedingsoftheNLPRS2001WorkshoponAutomaticParaphrasing:TheoryandApplication},\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{Miwa,S{\ae}tre,Miyao,\BBA\Tsujii}{Miwaet~al.}{2010}]{miwa-EtAl:2010:PAPERS2}Miwa,M.,S{\ae}tre,R.,Miyao,Y.,\BBA\Tsujii,J.\BBOP2010\BBCP.\newblock\BBOQEntity-FocusedSentenceSimplificationforRelationExtraction.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalConferenceonComputationalLinguistics(COLING2010)},\mbox{\BPGS\788--796}.\bibitem[\protect\BCAY{Nelken\BBA\Shieber}{Nelken\BBA\Shieber}{2006}]{nelken-shieber:2006:EACL}Nelken,R.\BBACOMMA\\BBA\Shieber,S.~M.\BBOP2006\BBCP.\newblock\BBOQTowardsRobustContext-SensitiveSentenceAlignmentforMonolingualCorpora.\BBCQ\\newblockIn{\BemProceedingsofthe11thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL2006)},\mbox{\BPGS\161--168}.\bibitem[\protect\BCAY{野本}{野本}{2016}]{nomoto:JPSJ_DC:2016}野本忠司\BBOP2016\BBCP.\newblockリーダビリティー研究の100年.\\newblock\Jem{情報処理学会研究会資料},2016-DC-101\JNUM,\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Pressman}{Pressman}{2005}]{SoftEng:book:2005}Pressman,R.~S.\BBOP2005\BBCP.\newblock\Jem{実践ソフトウエアエンジニアリング}.\newblock日科技連.\bibitem[\protect\BCAY{佐藤}{佐藤}{2004}]{SatoK:NihongoGaku:2004}佐藤和之\BBOP2004\BBCP.\newblock災害時の言語表現を考える.\\newblock\Jem{日本語学},{\Bbf23}(8),\mbox{\BPGS\34--45}.\bibitem[\protect\BCAY{Shardlow}{Shardlow}{2014}]{shardlow:2014:IJACSA}Shardlow,M.\BBOP2014\BBCP.\newblock\BBOQASurveyofAutomatedTextSimplification.\BBCQ\\newblock{\BemInternationalJournalofAdvancedComputerScienceandApplications(IJACSA),SpecialIssueonNaturalLanguageProcessing},\mbox{\BPGS\58--70}.\bibitem[\protect\BCAY{Siddharthan}{Siddharthan}{2002}]{siddharthan:2002:LEC}Siddharthan,A.\BBOP2002\BBCP.\newblock\BBOQAnArchitectureforaTextSimplificationSystem.\BBCQ\\newblockIn{\BemProceedingsoftheLanguageEngineeringConference2002(LEC2002)},\mbox{\BPGS\64--71}.\bibitem[\protect\BCAY{Siddharthan}{Siddharthan}{2003}]{siddharthan:2003:phd}Siddharthan,A.\BBOP2003\BBCP.\newblock{\BemSyntacticSimplificationandTextCohesion}.\newblockPh.{D.}dissertation,UniversityofCambridge.\bibitem[\protect\BCAY{Siddharthan}{Siddharthan}{2014}]{siddharthan:2014}Siddharthan,A.\BBOP2014\BBCP.\newblock\BBOQASurveyofResearchonTextSimplification.\BBCQ\\newblock{\BemInternationalJournalofAppliedLinguistics},{\Bbf165}(2),\mbox{\BPGS\259--298}.\bibitem[\protect\BCAY{田近}{田近}{2011}]{sanseidou:jisho:2011}田近洵一\JED\\BBOP2011\BBCP.\newblock\Jem{例解小学国語辞典第5版}.\newblock三省堂.\bibitem[\protect\BCAY{田中\JBA美野}{田中\JBA美野}{2010}]{tanaka-mino:2010:NL}田中英輝\JBA美野秀弥\BBOP2010\BBCP.\newblockやさしい日本語によるニュースの書き換え実験.\\newblock\Jem{情報処理学会研究会資料},2010-NL-199-9\JNUM,\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{田中\JBA美野}{田中\JBA美野}{2016}]{tanaka:IPSJpaper:2016}田中英輝\JBA美野秀弥\BBOP2016\BBCP.\newblockニュースのためのやさしい日本語とその外国人日本語学習者への効果.\\newblock\Jem{情報処理学会論文誌},{\Bbf57}(10),\mbox{\BPGS\2284--2297}.\bibitem[\protect\BCAY{田中}{田中}{2012}]{tanaka:HosoKenkyu:2012}田中伊式\BBOP2012\BBCP.\newblock「この事件は〜したものです」などの表現をめぐって.\\newblock\Jem{放送研究と調査},\mbox{\BPGS\72--82}.\bibitem[\protect\BCAY{Vickrey\BBA\Koller}{Vickrey\BBA\Koller}{2008}]{vickrey-koller:2008:ACLMain}Vickrey,D.\BBACOMMA\\BBA\Koller,D.\BBOP2008\BBCP.\newblock\BBOQSentenceSimplificationforSemanticRoleLabeling.\BBCQ\\newblockIn{\BemProceedingsofthe46thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies(ACL-08:HLT)},\mbox{\BPGS\344--352}.\bibitem[\protect\BCAY{Watanabe,Candido~Jr.,Uz\^{e}da,Fortes,Pardo,\BBA\Alu\'{i}sio}{Watanabeet~al.}{2009}]{watanabe-EtAl:2009:ACMSIGDOC}Watanabe,W.~M.,Candido~Jr.,A.,Uz\^{e}da,V.R.~d.,Fortes,R.P.d.~M.,Pardo,T.A.~S.,\BBA\Alu\'{i}sio,S.~M.\BBOP2009\BBCP.\newblock\BBOQFacilita:ReadingAssistanceforLow-literacyReaders.\BBCQ\\newblockIn{\BemSIGDOC'09Proceedingsofthe27thACMInternationalConferenceonDesignofCommunication},\mbox{\BPGS\29--36}.\bibitem[\protect\BCAY{米倉\JBA谷}{米倉\JBA谷}{2012}]{yonekura:housouKenkyuu:2012}米倉律\JBA谷正名\BBOP2012\BBCP.\newblock国内在住外国人のメディア環境とメディア行動—4国籍の外国人向け電話アンケート調査から—.\\newblock\Jem{放送研究と調査Aug.},\mbox{\BPGS\62--75}.\end{thebibliography}\begin{biography}\bioauthor{田中英輝}{1982年九州大学工学部電子工学科卒業.1984年同大学院修士課程修了.同年NHK入局,1987年放送技術研究所研究員.(株)国際電気通信基礎技術研究所(ATR)出向.同音声翻訳通信研究所主任研究員,音声言語コミュニケーション研究所室長を経て,現在,放送技術研究所ヒューマンインターフェース研究部上級研究員.テキストの平易化,機械翻訳などの自然言語処理の研究に従事.博士(工学).}\bioauthor{熊野正}{1993年東京工業大学工学部情報工学科卒業.1995年同大学院理工学研究科情報工学専攻修了.同年NHK入局.(株)国際電気通信基礎技術研究所(ATR)音声言語通信研究所および同音声言語コミュニケーション研究所出向を経て,現在,放送技術研究所ヒューマンインターフェース研究部主任研究員.自然言語処理・音声言語処理の研究開発に従事.}\bioauthor{後藤功雄}{1995年早稲田大学理工学部電気工学科卒業.1997年同大学院理工学研究科修士課程修了.2014年京都大学大学院情報学研究科博士課程修了.博士(情報学).1997年NHK入局,(株)国際電気通信基礎技術研究所(ATR)および国立研究開発法人情報通信研究機構出向を経て,現在,放送技術研究所ヒューマンインターフェース研究部にて自然言語処理の研究に従事.}\bioauthor{美野秀弥}{2002年東京工業大学情報理工学部計算工学科卒業.2004年同大学院情報理工学研究科修士課程修了.同年NHK入局,北見放送局,国立研究開発法人情報通信研究機構出向を経て,現在,放送技術研究所ヒューマンインターフェース研究部研究員.自然言語処理の研究に従事.}\end{biography}\biodate\end{document}
V19N04-01
\section{序論} 近年,質問応答や要約,含意認識などで,幅広い知識の必要性が高まっている.幅広い分野の一般的知識を記述したものに汎用オントロジーがある.オントロジーとは概念の意味と概念同士の関係を定義したものであり,特定の分野に偏らず幅広い分野に対応したオントロジーを汎用オントロジーという.概念間の関係には,is-a関係\footnote{``is-a関係''とは,Bisa(kindof)Aが成り立つときのAとBの関係をいう.}(上位‐下位概念)やpart-of関係(全体‐部分関係)など様々な種類がある.固有名詞や日々生まれる新しい語彙への即時対応を目指して,即時更新性と知識量の多さに優れたオンライン百科事典であるWikipediaを利用したis-a関係の汎用オントロジーの作成が注目されている\cite{Morita}.汎用オントロジーと言われるものには少なくとも2つのタイプがある.一つは,WordNet\cite{WordNet}のように,語と語の関係(synsetで表現される語義と語義の関係)を表現するものと,日本語語彙大系\cite{goitaikei}のように,ある語の上位概念をさまざまな粒度で表現したもの(語を階層的に分類したもの)である.前者は,上位下位関係を構成している単語対をたくさん獲得する方法であり,例えば「紅茶はお茶の一種で,紅茶にはアールグレーやダージリンがある」というような,ある単語を中心として上位概念と下位概念を表現する用語の集合を獲得する(ある単語の近傍の単語の集合を密に獲得する)目的に適している.またこのような目的のために,7.1節で述べるようにWikipediaからis-a関係の抽出の研究も行われている.本研究では後者のタイプの汎用オントロジーを目指す.このタイプの汎用オントロジーからは,葉節点にある概念(Wikipediaの記事の見出し)の上位語を,トップレベルとして設定した10個程度の上位概念まで,細かな粒度から荒い粒度まで順に,葉節点の概念を分類する用語が並んでいるような知識表現が得られる.このようなオントロジーの典型的な応用は,クエリログの解析のためにアイドルの名前を集めたり,アニメのタイトルのリストを作るといった用語リストを作ることである.特に,何らかのアプリケーションのために,「日本の今」を反映するような固有表現辞書を作る場合に有効である.Wikipediaの記事にはカテゴリが付与され,そのカテゴリは他のカテゴリとリンクして階層構造を作っている.しかしオントロジーと違い,Wikipediaのカテゴリ間,カテゴリ‐記事間のリンクの意味関係は厳密に定義されていない.そこで,Wikipediaのリンク構造からis-a関係のリンクを抽出する,以下のような研究が行われている.\begin{itemize}\item[1.]Wikipediaのカテゴリ間のリンクからis-a関係のリンクを抽出し,is-a関係のリンクでつながる部分的なカテゴリ階層を複数抽出する研究\cite{Ponzetto,Sakurai,Tamagawa}\item[2.]WordNetや日本語語彙大系のような既存のオントロジーに,Wikipediaのカテゴリや記事を接続する研究\cite{Suchanek,Kobayashi,Kobayashi2}\item[3.]既存のオントロジーの下位に,Wikipediaから抽出した部分的なカテゴリ階層と記事を接続する研究\cite{Shibaki}\end{itemize}\noindent1〜3の手法はis-a関係のリンクの抽出や既存のオントロジーの接続に文字列照合を用いるため,適合率は高いが再現率が低い.手法2では,Wikipediaのカテゴリ階層の情報が失われる.手法3はWikipediaのカテゴリ階層の情報をオントロジーに組み込めているが,上位階層に既存のオントロジーを用いているため,多くのカテゴリ階層の情報が失われる.また手法3は既存のオントロジーとWikipediaのカテゴリの接続部分を人手で判定しているため半自動の手法である.本研究では,Wikipediaの階層構造を出来るだけそのまま生かし,新たに定義した上位カテゴリ階層にWikipediaを整形した階層を接続することで1つに統一されたis-a関係のオントロジーを自動で構築する(図\ref{fig:image}).目標とするオントロジーの特徴は主に以下の2点である.\begin{itemize}\item[1.]Wikipediaの各記事名に対して,上位下位関係に基づく順序が付いた上位語のリストをWikipediaのカテゴリ階層から作成する.\item[2.]Wikipediaの記事名の全体集合を,網羅的(broadcoverage)かつ重なりなく(disjoint)分類できるような,上位下位関係に基づく階層的な分類体系をWikipediaのカテゴリ階層から作成する.\end{itemize}\noindent本手法では初めに,Wikipediaの上位のカテゴリ階層を削除する.またカテゴリ間とカテゴ\mbox{リ‐}記事間のis-a関係でないリンク(以下,not-is-a関係)を高い精度で削除し,残ったリンクをis-a関係とみなすことでWikipediaをis-a関係のリンクのみでつながる階層へ整形する.次にそれらの階層を新たに定義した深さ1の上位階層の下位に接続することで,1つに統一された階層を再構成する.\begin{figure}[t]\begin{center}\includegraphics{19-4ia1f1.eps}\end{center}\caption{本手法で構築する汎用オントロジーの一部}\label{fig:image}\vspace{-4pt}\end{figure}本研究では,(1)全概念を網羅していることを明確化するため(2)標準的な構造(3)計算機処理しやすい,という理由から,体系が統一された汎用オントロジーの構築を目指す.\begin{enumerate}\item一般に,「人オントロジー」「組織オントロジー」など個別のオントロジーを作成してもそれらのオントロジー間の関係は並列とは限らない.また今回作成した9つで概念のどれだけを網羅しているのかも分かりにくい.我々は,(ほぼ)全概念を9種類の排他的な意味属性で網羅していることを明確化するため,一つのオントロジーとして構築した.\itemこれまでに提案されているオントロジーである日本語語彙大系なども同様の形式であり,このような構造にすることによる恣意性,特殊性はない.本研究はオントロジーのあるべき表現構造の議論を行うのが主眼ではないため,最も標準的な構造のオントロジー構築を目指した.\item計算機で処理する上で全体が統一された一つの構造となっているほうが便利であり,また柔軟性がある.汎用オントロジーとして構築したものの一部(例えば「人」オントロジーのみ)を利用することは可能だが,一般に逆は可能とは限らない.\end{enumerate}本研究で作成するオントロジーの利用例として質問応答システムを取り上げる.集合知によって作成された百科事典であるWikipediaは,一般的な(常識的な)知識を記述したものであり,Wikipediaの記事名の集合は,多くの人が興味を持つ「もの」と「こと」のリストと考えられる.本研究で構築するオントロジーを用いると,記事名に関して用途に応じて様々な粒度での分類や記述が可能になる.例えば質問応答システムにおいて,「ドラゴンボールとは何か?」という質問に対して,その上位語「格闘技漫画」「冒険作品」「週刊少年ジャンプの漫画作品」はいずれも回答となる.また上記項目2のように一つの統一された階層分類になっていることで,任意の2つの記事名に対して必ず共通の上位語が存在し,共通の上位語に至るまでの上位語は2つの記事名の違いを特徴付けることができる.例えば「ONEPIECEと名探偵コナンの違いは?」という質問に対して,共通の上位語である「漫画作品」と,それぞれの上位にある語「週刊少年ジャンプの漫画作品」,「週刊少年サンデーの漫画作品」を使って,「どちらも漫画作品だが,ONEPIECEは週刊少年ジャンプの漫画で,名探偵コナンは週刊少年サンデーの漫画」というような回答が可能になる.本論文では以降,\ref{sec:onto_wiki}章でオントロジーとWikipediaについて説明した後,3章で本研究で提案する汎用オントロジー構築手法を示す.次に\ref{sec:zikken}章で実験条件,\ref{sec:kekka}章で実験結果,\ref{sec:kousatsu}章で考察を述べる.そして\ref{sec:kanren_kenkyu}章でWikipediaからのオントロジーを構築する関連研究について紹介し,最後に\ref{sec:ketsuron}章で本論文の結論を述べる. \section{オントロジーとWikipedia} \label{sec:onto_wiki}\begin{figure}[b]\begin{center}\includegraphics{19-4ia1f2.eps}\end{center}\caption{オントロジーの例}\label{fig:onto_toha}\end{figure}本研究で扱うオントロジーは,対象とする世界に存在する概念とそれらの間に成立する関係を記述したものを指す.概念間の関係は様々なものがあるが,代表的なものはis-a関係(上\linebreak位‐下位概念)とpart-of関係(全体‐部分関係)である.is-a関係とは,BisaA,(BはAの一つ,BはAの一種)が成り立つときのAとBの関係をいう.例えば図\ref{fig:onto_toha}では「自動車は乗り物の一種」が成り立つので,乗り物と自動車はis-a関係である.このときAを上位語,Bを下位語という.part-of関係とは,BisapartofA(BはAの一部)が成り立つときのAとBの関係をいう.図\ref{fig:onto_toha}では「タイヤは自動車の一部」が成り立つので,自動車とタイヤはpart-of関係である.このときAを部分語,Bを全体語という.概念を単語の集合(カテゴリ)と考えると,カテゴリには具体物(インスタンス)が分類される.本研究では,カテゴリ間とカテゴリ‐インスタンス間をis-a関係で表したオントロジーを扱う.is-a関係で表したオントロジーを用いれば,階層を用いて語彙を抽象化したり,リンクの距離から類似度を計算したりできる.これらは,検索,意味処理,情報抽出,機械学習や統計処理など様々な用途に適用可能である.\begin{figure}[b]\begin{center}\includegraphics{19-4ia1f3.eps}\end{center}\caption{日本語語彙大系}\label{fig:goitaikei}\end{figure}幅広い分野の一般的知識を記述した汎用オントロジーの一つに日本語語彙大系\cite{goitaikei}がある.日本語語彙大系は,日本語約30万語を約3,000種類の意味属性で分類したオントロジーである.日本語語彙大系には,約2,700のカテゴリと約10万のインスタンス(普通名詞)からなる一般名詞の意味体系(図\ref{fig:goitaikei})が収録されている\footnote{以降,日本語語彙大系の一般名詞意味体系を``語彙大系''と表記する.}.語彙大系のカテゴリ階層は木構造になっていて,カテゴリ間,カテゴリ‐インスタンス間の関係はis-a関係で表される\footnote{一部part-of関係も存在する.}.また多義性があるインスタンスはいくつかのカテゴリが付与される.例えば,「モデル」は``人''と``玩具''の2つの意味があるので,2つのカテゴリ``芸人''と``遊び道具・文房具''が付与される.現状では,既存のオントロジーの大部分は,多大なコストをかけて手動で構築されている\cite{Morita}.そこで近年,半構造化されたWikipediaから(半)自動でオントロジーを構築する研究が盛んに行われている.\begin{figure}[b]\begin{center}\includegraphics{19-4ia1f4.eps}\end{center}\caption{Wikipedia}\label{fig:wiki_kaisou}\end{figure}Wikipediaは即時更新性に優れた自由に利用できるオンライン百科事典であり,Web上でXML形式のダンプデータが公開されている\footnote{http://download.wikimedia.org/jawiki}.記事の本文には,見出し語と説明文(本文の第一文は見出し語の定義文であることが多い),記事を分類するカテゴリが書かれている.そしてこのカテゴリは他のカテゴリとリンクして階層構造を作っている(図\ref{fig:wiki_kaisou}).しかしオントロジーと違い,カテゴリ間の関係やカテゴリ‐記事間の関係は定義されておらず,is-a関係が最も多いがis-a関係でないものもある.例えば,カテゴリ「変光星」と,このカテゴリが付与されている記事「爆発変光星」はis-a関係にあるが,同じく「変光星」が付与されている記事「アメリカ変光星観測者協会」とはis-a関係にない.2,500件のサンプル調査の結果,is-a関係のリンクの割合はカテゴリ間で72.1\%,カテゴリ‐記事間で74.7\%であった\footnote{本論文でのサンプル調査は全て2008年7月24日の日本語Wikipediaを用いた.}.またオントロジーの最上位カテゴリと違い,Wikipediaのカテゴリ階層はis-a関係による分類を目的としておらず,ジャンルを分類するための9カテゴリ(主要カテゴリ)を最上位としている. \section{汎用オントロジー構築手法} label{sec:syuhou}Wikipediaのカテゴリと記事の階層は日本語語彙大系のような1つに統一されたオントロジーのように見えるが,前節で述べたように,上位のカテゴリ階層や,カテゴリ間,カテゴリ‐記事間のリンク関係が定義されていないため,オントロジーとは言えない.そこで本手法ではWikipediaの上位のカテゴリ階層を削除して新たに定義した上位カテゴリ階層と置き換える.さらに,カテゴリ間,カテゴリ‐記事間のis-a関係でないリンク(not-is-a関係)を自動で切り離し,is-a関係でつながる階層へと整形する.削除した上位カテゴリ階層と置き換える上位階層として,図1のように``人'',``組織'',``施設'',``地名'',``地形'',``具体物'',``創作物'',``動植物'',``イベント''の9種類の意味属性をカテゴリとする深さ1の階層を定義した.この上位カテゴリ階層の下位層として,Wikipediaを整形した階層を接続する.\ref{sec:kanren_kenkyu}節で述べるように,従来の研究はis-a関係となっている2語の特徴を如何にして捉えるかに注力されてきた.これに対して我々は,is-a関係の特徴を捉えることよりも,補集合であるnot-is-a関係の特徴を捉えるほうがタスクとして容易であると考え,not-is-a関係の判別問題としてタスク設定することを提案する.両者は得られた集合の補集合を取ることで結果として同じタスクとなるが,これは両タスクの問題の困難性が同じであることを意味しない.本章では初めに,\ref{sec:link_survey}節でWikipediaのカテゴリ間,カテゴリ‐記事間のリンクがnot-is-a関係になる場合についての調査結果を述べる.次に\ref{sec:imizokusei_settei}節で,本手法で使用する上位カテゴリ階層を定義する.\ref{sec:isa_hantei_zokusei}節〜\ref{sec:pattern}節では,not-is-a関係であるリンクを網羅的に判定することで,is-a関係のリンクのみを残す手法を提案する.最後に\ref{sec:touitsu_onto}節で,新たに設定した上位カテゴリ階層と,整形したWikipediaのカテゴリ階層を接続して1つの階層に再構成する手法について述べる.\subsection{Wikipediaのリンクとis-a関係}\label{sec:link_survey}図\ref{fig:wiki_kaisou}のように,Wikipediaのカテゴリは主要カテゴリと呼ばれる9カテゴリを最上位としている.主要カテゴリは語彙大系の最上位カテゴリと異なり,is-a関係による分類を目的としたものではない.本手法では,Wikipediaの上位のカテゴリ階層を削除して,新たに定義する上位階層へ置き換える.上位のカテゴリは意味が抽象的な単語(例:社会,技術)となる傾向があるため,本手法では意味が抽象的な単語を削除することで上位階層の削除を行う.一方,下位の階層になるほど分類はより具体的になりis-a関係になりやすい傾向にある.しかし最下位階層でも,地名や人名,組織などの固有名詞がカテゴリ名になっている場合,「長岡市$\gets$長岡まつり」,「長岡市$\gets$北越銀行」のようにカテゴリと記事はis-a関係になりにくい傾向にある.以上を踏まえ,我々はWikipediaのカテゴリ間,カテゴリ‐記事間のリンクがis-a関係になりにくい場合を以下の3種類の規則にまとめた.\pagebreak\begin{itemize}\item[1.]親子が意味的に類似していない場合はnot-is-a関係とする\\(例)筆記用具$\gets$万年筆メーカー,植物$\gets$草木の神\\単語同士が深く関連していても,意味的に類似していない場合はis-a関係にならない.\item[2.]親が固有名詞の場合はnot-is-a関係とする\\(例)少年ジャンプ$\gets$ONEPIECE,新潟県$\gets$長岡市\\オントロジーは上位になるほど概念が抽象的になり共通概念が増えるが,反対に下位となるほど概念が個別化,具体化する.最も個別化した固有名詞はすべて最下位の概念に属し,基本的に下位に単語を持たない.\item[3.]子名の前方が親名と一致する場合はnot-is-a関係とする\\(例)火星$\gets$火星の衛星,缶$\gets$缶コーヒー\\日本語は修飾語が先行して被修飾語が後続する構造のみが許される言語であることから,ある二つの単語が前方一致する(かつ完全一致しない)場合,概ね一方は修飾語,他方は被修飾語として使用される.「火星」と「火星の衛星」の場合は,一方の概念は「火星」だが,他方は「火星」を修飾語として立てる被修飾語,すなわち「火星に何らかの意味関係がある別の概念」(この例の場合は「衛星」)である可能性が高くなる.このように親名の主辞が子名の主辞以外に存在するとき,子と親はis-a関係ではなくpart-of関係や話題が類似した関係にあることが多い.\end{itemize}\noindentWikipediaの上位階層の削除と,規則1の判定を行うために,幅広い分野に適用可能な9種類の意味属性(表\ref{tab:domain})にカテゴリ名または記事名を分類する.どの意味属性にも分類されない単語は抽象的な単語と判定し,削除する.また規則1は親子が同じ意味属性に分類されなければ意味的に類似していないと判定する.規則2は親名が固有名詞かどうかを判定すればよい.規則3は単純な文字列照合で判定可能である.\begin{table}[t]\caption{意味属性に対応する主な語彙大系のカテゴリと,分類される単語例}\label{tab:domain}\input{01table01.txt}\end{table}これらの方法で抽象的すぎる単語を削除,及びis-a関係でないリンクを判定したとき,どの程度is-a関係を判定できるのか人手で調査した.全カテゴリ間,全カテゴリ‐記事間のリンクから無作為抽出した各2,500件のサンプル調査の結果,9種類の意味属性でのis-a関係の精度は,カテゴリ間で適合率98.9\%,再現率99.3\%,カテゴリ‐記事間で適合率99.3\%,再現率98.9\%であった.適合率を下げる誤りは,親子が同じ意味属性かつ親名が普通名詞でもnot-is-a関係となる場合に発生する(例:血液←血球,千葉県の道路←千葉県の道の駅,日本の内閣総理大臣←内閣総理大臣夫人).再現率を下げる誤りは,親名が固有名詞でもis-a関係が成り立つ場合(例:中東欧←東欧,沖縄県営鉄道←沖縄県営鉄道糸満線)や,子名の前方が親名と一致してもis-a関係が成り立つ場合(例:日本人←日本人の学者,映画←映画作品)に発生する.しかし,全体から見ればこれらは少数の例外とみなせるため,結果として提案した方法でnot-is-a関係のリンクを切り離せば,is-a関係を高精度で判定できることを確認した.\subsection{上位カテゴリ階層の設定}\label{sec:imizokusei_settei}我々はWikipediaのカテゴリを調査し,独自にWikipediaの階層を下位層として網羅できるような,深さが1の上位カテゴリ階層を定義した.本手法では図1のように``人'',``組織'',\mbox{``施}設'',``地名'',``地形'',``具体物'',``創作物'',``動植物'',``イベント''の計9種類の意味属性を最上位カテゴリとして定義する.定義の際,以下の3点を考慮した.\begin{itemize}\item[1.]Wikipediaの記事名の集合を網羅するような上位語の集合であり,かつ,抽象的過ぎないこと.\item[2.]not-is-a関係の判定手法の1つ「1.親子が意味的に類似していない場合はnot-is-a関係とする」の「意味的に類似していない」を判定できる粒度であること.\item[3.]一般的な上位下位概念の粒度10前後の分類とほぼ対応がとれること.\end{itemize}\begin{table}[b]\caption{提案手法の意味属性と関根の拡張固有表現階層のカテゴリの対応表}\label{tab:teian_sekine}\input{01table02.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{19-4ia1f5.eps}\end{center}\hfil\small\hboxto174pt{\hfil(a)カテゴリ\hfil}\hspace{56pt}\hboxto140pt{\hfil(b)記事\hfil}\hfil\caption{意味属性に分類されるWikipediaのカテゴリと記事の割合(各2,500件調査)}\label{fig:rate}\end{figure}\noindent基本的には関根の拡張固有表現階層\footnote{http://sites.google.com/site/extendednamedentityhierarchy/}の第一階層である10カテゴリを参考にしている.これらのカテゴリは語彙大系のカテゴリの第四階層とほぼ対応がとれる.ただし,機械学習による分類器が作れるほどのカテゴリと記事数がないもの(例:規則,スポーツ,賞)や,語彙大系に対応付けが難しいもの(例:行為,サービス)に関しては意味属性を設定しても分類精度が落ちるため,今回は対象外とした.表\ref{tab:domain}に意味属性に対応する語彙大系のカテゴリと,分類される単語の例を示す.また表\ref{tab:teian_sekine}に提案手法で設定した意味属性と関根の拡張固有表現階層のカテゴリとの対応表を示す.2,500件のサンプル調査の結果,Wikipediaのカテゴリでは全体の86.3\%,記事では90.4\%がいずれかの意味属性に分類された.各意味属性別の割合を図\ref{fig:rate}に示す.\subsection{意味属性分類による上位カテゴリ階層の削除とnot-is-a関係の判定}\label{sec:isa_hantei_zokusei}本節では,上位カテゴリ階層の削除,及び\ref{sec:link_survey}節の規則1「親子が意味的に類似していない場合はnot-is-a関係になる」を判定するために,カテゴリと記事を9種類の意味属性に分類する.どの意味属性にも分類されない単語は抽象的な単語と判定し,削除する.また親子が同じ意味属性に分類されなければ意味的に類似していないと判定する.本手法では,9種類の意味属性をまたがる複数ノードへの所属は許可していない.例えば「シンデレラ」はカテゴリ「グリム童話」であるが他方でカテゴリ「文学の登場人物」でもある.よって本来は意味属性「創作物」と「人」のどちらにも分類すべき単語である.しかし本提案手法においては(SVMの出力値より)「創作物」と判定され,作成されたオントロジー上では文学の登場人物の意味は失われる.ただ,我々の観察ではこのように複数ノードに所属されるべき事例は実際にはほとんどないことから,2単語が所属する意味属性が異なる場合はほとんどnot-is-a関係ということになり,この性質を利用して高精度に判別している.よって「シンデレラ」のような事例に対しては現状で対処できず,今後の検討課題としている.一方,同じ意味属性内においては複数ノードへの所属を許している.例えば,「イチロー」は「アメリカンリーグ首位打者」であり「シアトル・マリナーズの選手」でもあるため,意味属性はどちらも「人」となる.このような状況では「アメリカンリーグ首位打者」と「シアトル・マリナーズの選手」の両カテゴリの下位単語であることを許している.この結果,作成したオントロジーは木構造とはなっていない.\subsubsection{カテゴリ分類}\label{sec:category_bunrui_mondai}WikipediaのカテゴリをSVMによる分類器を用いて9種類の意味属性に分類する.本手法では,多値分類を行うためにone-vs-rest法を用いる.SVMの出力値が0以上かつ最も出力値の高い分類器にWikipediaのカテゴリを分類する.今回は,カテゴリを9種類の意味属性に分類するための9個の分類器に,「その他のカテゴリ名」を分類するための分類器を加えた計10個の分類器を作成した.提案手法では,機械学習による分類器の作成に「再分類法」を用いる.提案手法における再分類法とは,初めにあらかじめ用意した少数の学習データを用いて分類器を作成してカテゴリを分類した後,分類器の出力を学習データに加えて再び分類器を作成し,前ステップで未分類だったカテゴリを分類する手法である.本手法では,カテゴリを1件も分類できなくなるまで再分類を繰り返す.素性作成にはカテゴリ名や以下に定義する周辺の単語などを用いた.以下に使用した単語を示す\footnote{今後,カテゴリ名を取り扱う際には,末尾の特定の文字列を削除することで単語を整形する.特定の文字列とは,括弧書きや,``の一覧'',``のジャンル''などを指す.}.\begin{itemize}\item[a.]対象カテゴリ名\item[b.]親カテゴリ名\item[c.]子カテゴリ名\item[d.]カテゴリ中の記事の定義文からとれる上位語\item[e.]カテゴリと末尾の形態素が一致する記事の定義文からとれる上位語\end{itemize}\noindent「定義文からとれる上位語」とは,記事の定義文(第一文)からパターンマッチで抽出する見出し語の上位語となる単語である.パターンマッチの例を以下に示す\footnote{定義文からの上位語抽出パターンは,小林ら\citeyear{Kobayashi}と隅田ら\citeyear{Sumida}の手法をもとに作成したものを使用した.}....は,[上位語]の一種である.\par...は,[上位語]である.\par...[上位語].\noindent例えば,図\ref{fig:wiki_kaisou}の記事の定義文「爆発変光星(ばくはつへんこうせい)とは,変光星の一種.」からは,見出し語「爆発変光星」の上位語として「変光星」が抽出される.項目eは,例えばカテゴリ名が「イタリアの諸島」で,その下位に末尾の形態素が一致する記事「エオリア諸島」が存在した場合,この記事の定義文からとれる上位語「島々」を素性に使用する.記事名がカテゴリ名の末尾の形態素と一致する場合,カテゴリと記事は同じ意味属性である可能性が高い.よって,その記事の定義文からとれる上位語はカテゴリそのものの上位語を指すことが多く,カテゴリ名を抽象化できる.素性作成の際にはこれらの単語の形態素や品詞,JUMANにおけるカテゴリ名\footnote{JUMANの辞書は特定の普通名詞に``人'',``動物'',``植物'',``人工物'',``抽象物''などの意味カテゴリ22種を名詞の意味情報として付与してある.}を利用した.また,カテゴリ名の末尾の文字列と最長一致する語彙大系のインスタンスに付与された,語彙大系のカテゴリ名及び表\ref{tab:domain}で対応づけた意味属性名を素性にした.例えばWikipediaのカテゴリ名が「若手小説家」だった場合,末尾の文字列と最長一致する語彙大系のインスタンスは「小説家」である.よって,「小説家」に付与されている語彙大系のカテゴリ``作家・詩人''を素性にする.また,``作家・詩人''に付与されている意味属性``人''も素性にする\footnote{本論文では,ある単語の末尾の文字列と最長一致する語彙大系のインスタンスに付与された語彙大系のカテゴリ名及び意味属性名のことをそれぞれ「単語に文字列照合する語彙大系のカテゴリ」,「単語に文字列照合する意味属性名」と呼ぶ.}.このように「若手小説家」を,語彙大系カテゴリ``作家・詩人''や意味属性``人''に抽象化することで,高精度な分類が期待できる.a〜eの単語は普通名詞であることが多く,JUMANのカテゴリや語彙大系を利用しやすい.表\ref{tab:seiteki}に,学習に用いた素性と,図\ref{fig:kizi_seiteki_sosei_rei}において生成される素性を示す.各素性に対し頻度を求めた後,各素性ごとに最大値が1になるように正規化した値を素性ベクトルの値とする.例えば,表\ref{tab:seiteki}の6-dの素性例は,``人''が2件,``具体物''が1件なので,素性ベクトルは人:1,具体物:0.5となる.\begin{table}[p]\caption{カテゴリ分類のための基本素性}\label{tab:seiteki}\input{01table03.txt}\end{table}\begin{figure}[p]\begin{center}\includegraphics{19-4ia1f6.eps}\end{center}\caption{カテゴリ分類のための基本素性の例}\label{fig:kizi_seiteki_sosei_rei}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{19-4ia1f7.eps}\end{center}\caption{カテゴリ分類のための,既に意味属性が確定している周辺カテゴリを利用した素性}\label{fig:kizi_douteki_sosei_rei}\vspace{-0.5\baselineskip}\end{figure}本手法のカテゴリ分類では再現率の向上のため,直前のステップで得られた出力を学習データに加える再分類法を用いる.直前のステップまでに決定したカテゴリの意味属性をもとにした素性を設定することで,既に意味属性が決定したカテゴリの周辺カテゴリの意味属性を決定しやすくする.図\ref{fig:kizi_douteki_sosei_rei}の例は,対象カテゴリ「子供」の意味属性が未決で,その周辺の3つのカテゴリの意味属性は直前のステップまでに確定した状態である.対象カテゴリ「子供」と子カテゴリ「子役」は語彙大系のカテゴリ``少年・少女''に属するため,意味的に類似しているといえる.意味的に類似した「子役」の意味属性は``人''なので,「子供」の意味属性も``人''である可能性が高くなるように素性を設定する.表\ref{tab:douteki}に,既に意味属性が決定したカテゴリをもとに設計した素性と,図\ref{fig:kizi_douteki_sosei_rei}において生成される素性を示す.\begin{table}[t]\caption{カテゴリ分類のための,既に意味属性が確定している周辺カテゴリを利用した素性}\label{tab:douteki}\input{01table04.txt}\end{table}\subsubsection{記事分類}\label{sec:kizi_bunrui_mondai}カテゴリ分類の後,記事を9種類の意味属性に分類する.本手法では,SVMによる分類器を用いて記事分類をした後,どの分類器にも分類されなかった記事を,既に分類された記事情報をもとに分類する.記事のSVMによる分類器はカテゴリ分類器と同様,素性作成には記事名や以下に定義する周辺の単語,語彙大系を使用した\footnote{再分類法を用いたところ精度が低下したため,記事分類では用いていない.}.以下に記事分類のために使用する単語を示す.\begin{itemize}\item[a.]対象記事名\item[b.]記事の定義文からとれる上位語\item[c.]対象記事に付与されているカテゴリ名\item[d.]記事の定義文\end{itemize}\noindent本手法のSVMによる分類器での記事分類では,精度を向上させるためにカテゴリ名と記事名の類似性を判定し,記事名とカテゴリ名が似ていれば,そのカテゴリの意味属性が優位になるように素性を設計した.例えば,図\ref{fig:kizi_sosei2}では記事「ロータリー車」とカテゴリ「鉄道車両(具体物)」は後方の文字列が両者とも語彙大系のカテゴリ``乗り物(本体(移動(陸圏)))\inhibitglue''に文字列照合(両者は意味的に類似)するので,「ロータリー車」が「鉄道車両」と同じ具体物である可能性が高くなるように素性を設計した.記事分類のための素性を表\ref{tab:kizi_sosei1}と表\ref{tab:kizi_sosei2}に示す.表\ref{tab:kizi_sosei2}は,既に意味属性が確定しているカテゴリに着目して設定した素性である.表\ref{tab:kizi_sosei1},表\ref{tab:kizi_sosei2}にそれぞれに,図\ref{fig:kizi_sosei1},図\ref{fig:kizi_sosei2}を例にしたときの素性も合わせて示す.次に,SVMによる分類器で分類できなかった残りの記事を分類する.ここでは,is-a関係の記事を下位に持つことが多いカテゴリを判定し,そのカテゴリより下位にある意味属性が未確定な記事を,そのカテゴリと同じ意味属性に分類する.\begin{table}[t]\caption{記事分類のための素性1(カテゴリの分類結果に依存しない)}\label{tab:kizi_sosei1}\input{01table05.txt}\end{table}\begin{table}[t]\caption{記事分類のための素性2(カテゴリの分類結果に依存する)}\label{tab:kizi_sosei2}\input{01table06.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{19-4ia1f8.eps}\end{center}\caption{記事分類の素性作成のための例1(カテゴリの分類結果に依存しない)}\label{fig:kizi_sosei1}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{19-4ia1f9.eps}\end{center}\caption{記事分類の素性作成のための例2(カテゴリの分類結果に依存する)}\label{fig:kizi_sosei2}\end{figure}Wikipediaには,is-a関係の記事を下位に持つことが多いカテゴリと,カテゴリと記事がis-a関係ではない何らかの関係になっていることが多いカテゴリがある.例えば,カテゴリ「日本の俳優」は「蒼井優」や「反町隆史」などカテゴリとis-a関係になる記事のみを持つが,カテゴリ「長岡市」は「蒼柴神社」や「長岡まつり」などis-a関係でない記事を多く持つ.このようなis-a関係の記事を下位に持つことが多いカテゴリを,以降「上位概念カテゴリ」と呼ぶ.小林ら\citeyear{Kobayashi2}は,is-a関係の記事\footnote{カテゴリとis-a関係にある記事を抽出するのに,小林ら\citeyear{Kobayashi}の手法を用いている.}の割合が閾値以上のカテゴリを上位概念カテゴリとみなし,上位概念カテゴリとその全ての下位記事をis-a関係として抽出している.本手法ではこの手法を参考にし,既に決定したカテゴリの意味属性と記事の意味属性が一致する割合を求め,この割合があらかじめ決めた閾値以上であれば,そのカテゴリを上位概念カテゴリとする.そして上位概念カテゴリとされたカテゴリに分類されている,意味属性が未確定の記事を,カテゴリと同じ意味属性に分類する.例えば図\ref{fig:mibunrui_kizi}のように,カテゴリ「カクテル(具体物)」に分類されている,意味属性が決定した記事のうち,4件が``具体物''で,1件が``人''だったとする.このとき,カテゴリと同じ意味属性である``具体物''の割合は80\%である.この割合が高いほど,カテゴリ「カクテル(具体物)」には具体物が分類されやすいといえる.よって,あらかじめ設定した閾値が80\%以下であれば意味属性が未確定の記事を``具体物''に分類する.\begin{figure}[t]\begin{center}\includegraphics{19-4ia1f10.eps}\end{center}\caption{上位概念カテゴリ判定による未確定記事の意味属性分類例}\label{fig:mibunrui_kizi}\end{figure}1つの記事に対して付与する意味属性は1つなので,記事に意味属性の異なる上位概念カテゴリが複数付与された場合は,意味属性を選択しなければならない.本手法ではまず,上記の割合が高いほうの上位概念カテゴリと同じ意味属性を記事に付与する.もし割合が同じだった場合は,カテゴリを分類したときのSVMの出力値が最も高かった上位概念カテゴリの意味属性を付与する.\subsection{固有名詞抽出によるnot-is-a関係の判定}\label{sec:koyu_hantei}本節では,\ref{sec:imizokusei_settei}節の規則2「親が固有名詞の場合はnot-is-a関係になる」を解決するために,カテゴリ名(記事が親となることはない)から固有名詞を抽出する.固有名詞を抽出するために,MeCabと英語Wikipediaのカテゴリ名・記事名を用いた2種類の手法を提案する.\subsubsection{MeCabを用いた固有名詞抽出}親名がMeCabの辞書に固有名詞として辞書登録されていれば固有名詞と判定する.\subsubsection{英語Wikipediaのカテゴリ名・記事名を用いた固有名詞抽出}日本語Wikipediaのカテゴリは,英語Wikipediaの同じカテゴリにリンクしていることがある.例えば,日本語カテゴリ「音楽家」は英語カテゴリ「Musicians」にリンクしている.英語表記の固有名詞の頭文字のアルファベットは大文字表記であると述べたが,カテゴリ名の頭文字は原則すべて大文字で表されるため,この基準では判定できない.ここでは,各形態素の頭文字が全て大文字であれば固有名詞である,という基準を用いる(前置詞``at,of,the,on,and,in,to'',冒頭以外に冠詞``the''を含む単語を除いて,2形態素以上ある単語に限る).ただし,例外として意味属性が``動植物''と判定されたカテゴリは全て普通名詞とみなすことにした.なぜなら,``動植物''のカテゴリ名のほとんどがスミレ科(Violaceae),バラ亜綱(Rosidae)など普通名詞であるが,これらの英語表記は,初めの頭文字を大文字のアルファベットとするためである.また,意味属性が``人''と判定されたカテゴリにおいて,主辞\footnote{本手法では,基本的には連続する名詞の最後の形態素を主辞とし,``of,in,to,on,at''が含まれている場合はその直前を主辞とする.}が複数形だった場合も普通名詞として扱う.ヨーロッパ系アメリカ人(EuropeanAmerican\underline{s})やアメリカ合衆国上院議員(UnitedStatesSenator\underline{s})のように主辞が複数形であれば,それより下位にis-a関係の単語を持つからである.このような現象は特に``人''に多いので,``人''のみにこの規則を適用する.図~\ref{fig:koyu_enwiki_cate}に,英語Wikipediaのカテゴリ名を用いた固有名詞抽出のための決定木を示す.\begin{figure}[b]\begin{center}\includegraphics{19-4ia1f11.eps}\end{center}\caption{英語Wikipediaのカテゴリ名を用いた固有名詞抽出のための決定木}\label{fig:koyu_enwiki_cate}\end{figure}さらに多くのカテゴリ名を固有名詞として抽出するため,Wikipediaの記事も用いる.Wikipediaのカテゴリは通常本文を持たないが,カテゴリ名と同名の記事が分類されていることがある.その場合,カテゴリ名と記事名は同一のものを指すので,記事を解析することでカテゴリ名から固有名詞を抽出する.英語カテゴリ名と同様に,各形態素の頭文字が全て大文字であれば固有名詞である,という基準を用いる.さらに記事の本文に注目し,記事の本文中の文頭以外で記事名が使われているとき,その頭文字のアルファベットが大文字であれば固有名詞とする.図~\ref{fig:koyu_enwiki_kizi}に,英語Wikipediaの記事名を用いた固有名詞抽出のための決定木を示す.\begin{figure}[t]\begin{center}\includegraphics{19-4ia1f12.eps}\end{center}\caption{英語Wikipediaの記事を用いた固有名詞抽出のための決定木}\label{fig:koyu_enwiki_kizi}\end{figure}以上の2種類の手法において,いずれの出力も普通名詞でなく,いずれかの出力で固有名詞だったカテゴリ名を,固有名詞と判定する.そして,カテゴリ間,カテゴリ‐記事間において,親名が固有名詞の場合はnot-is-a関係と判定する.しかし「パリメトロ←パリメトロ2号線」や「どうぶつの森←おいでよどうぶつの森」のように,親名が固有名詞でもis-a関係が成り立つ場合がある.この場合,子カテゴリが親カテゴリの固有名詞をさらに細分化したis-a関係が成り立つ.そこで本手法では例外処理として,以下の2つの条件の場合,リンクをnot-is-a関係としないことにした.\begin{enumerate}\item「パリメトロ←パリメトロ2号線」,「ロックマン←ロックマンX」のように,子名の前方が親名と一致した時(パリメトロ,ロックマン),一致部分を削除した部分(2号線,X)が数字または記号を含む場合はnot-is-a関係としない.\item「どうぶつの森←おいでよどうぶつの森」,「オールナイトニッポン←ゆずのオールナイトニッポン」のように子名の後方が親名と一致した場合はnot-is-a関係としない.\end{enumerate}\subsection{文字列照合によるnot-is-a関係の判定}\label{sec:pattern}\ref{sec:link_survey}節の規則4で,「子名の前方が親名と一致する場合はnot-is-a関係とする」とした.「火星←火星の衛星」,「缶←缶コーヒー」のように子名の前方が親名と一致するかどうかは文字列照合で判定する.ただし,前節で述べたように,「パリメトロ←パリメトロ2号線」のように,子名の前方が親名と一致した時,一致部分を削除した部分(2号線)が数字または記号を含む場合は,子名の前方が親名と一致してもnot-is-a関係としないことにする.\begin{figure}[p]\begin{center}\includegraphics{19-4ia1f13.eps}\end{center}\caption{Wikipediaの階層からis-a関係のオントロジー階層を再構成する例}\label{fig:onto_saikousei}\end{figure}\subsection{オントロジー階層の再構成}\label{sec:touitsu_onto}\ref{sec:isa_hantei_zokusei}節〜\ref{sec:pattern}節の手法を用いて抽象的すぎるカテゴリを削除することでWikipediaの上位階層を削除する.また\ref{sec:isa_hantei_zokusei}節〜\ref{sec:pattern}節の手法のいずれかでnot-is-a関係と判定さたカテゴリ間,カテゴリ‐記事間のリンクを切り離す.この状態のWikipediaは1つの階層構造ではなく,複数の階層に分離している.これら複数の階層を\ref{sec:imizokusei_settei}節で定義した上位カテゴリ階層である9種類の意味属性の下位に接続する.その際,階層の中で親を持たないカテゴリ及び記事(以下,ルートカテゴリ,ルート記事)を,同じ意味属性の最上位カテゴリの下位に接続する.図\ref{fig:onto_saikousei}にWikipediaの階層から,is-a関係のオントロジー階層を再構成するまでの例を示す.Wikipediaのカテゴリ階層には循環がある.提案手法で抽出した部分的な階層が循環していた場合にどこでその循環を切るかという問題は容易には解決できないと考え,本研究では便宜的に下記処理を行った.すなわち,循環している階層を構成するカテゴリの内,最もID番号\footnote{Wikipediaの各カテゴリにはID番号が振られている.}の小さいカテゴリを指すis-a関係のリンクをnot-is-a関係とすることで,循環のないカテゴリ階層を構築した. \section{実験条件} \label{sec:zikken}\subsection{実験設定}2008年7月24日時点での日本語Wikipediaのダンプデータ\footnote{http://download.wikimedia.org/jawiki}を使用して評価実験を行った.カテゴリ数は40,385件,記事数は475,941件,カテゴリ間のリンク数は85,353件,カテゴリ‐記事間のリンク数は1,173,894件である\footnote{初めに,Wikipediaの内部向けのカテゴリや記事(例:``画像:'',``Help:''),オントロジーのカテゴリとして扱いにくいカテゴリ``1986年生''などを文字列照合で取り除いた.詳細は付録Cを参照.}.\subsubsection{カテゴリ分類}全カテゴリから無作為抽出した2,500件を,作業者1名が人手で9種類の意味属性(+その他)に分類したものを,評価データとした.他の作業者1名が同じデータに正解を付与した結果,一致率は98.4\%であった.精度評価は,評価データ2,500件の5分割交差検定で行った.また,評価データ以外のカテゴリは,評価データから無作為抽出した2,000件のカテゴリを学習データとした分類器により分類した.分類実験では,単語の形態素,品詞を抽出するために,形態素解析器JUMANVer.~6.0\footnote{http://www-lab25.kuee.kyoto-u.ac.jp/nlresource/juman.html}を使用した.また本手法ではJUMANの代表表記を用いて語彙大系のインスタンスを拡張して使用した.例えば「代表表記:癌/がん」とあった場合,語彙大系のインスタンス``癌''と同じカテゴリに``がん''を追加する.SVMにはTinySVM0.09\footnote{http://chasen.org/{\textasciitilde}taku/software/TinySVM/}を利用し,カーネルには線形カーネルを用いた.\subsubsection{記事分類}全記事から無作為抽出した2,500件を,作業者1名が人手で9種類の意味属性(+その他)に分類したものを,評価データとした.判定基準は,意味属性に付与した語彙大系の普通名詞を参考にした.他の作業者1名が同じデータに正解を付与した結果,一致率は98.9\%であった.学習データには,Wikipediaの記事に対して関根の拡張固有表現階層の分類を付与した渡邉らによるNAIST-jene\footnote{http://sites.google.com/site/masayua/p/naist-jene}のデータを用いた\footnote{本手法の意味属性と,関根の拡張固有表現階層の第一階層は異なる部分があるので,一部修正して使用した.}.NAIST-jeneのデータのうち,本実験で使用するWikipediaと記事名が一致し,かつ評価データに含まれない11,554件を学習データとした.学習データに対して意味属性を付与する際は,11,554件を5分割交差検定したときの出力を用いた.また,上位概念カテゴリを判定するための閾値の決定にもこの11,554件のデータを利用し,学習データにおいて最もF値の高くなる閾値を評価に用いた.\subsubsection{固有名詞抽出}全記事から無作為抽出した1,000件に対し,作業者1名が人手で固有名詞または普通名詞を付与したものを,評価データとした.MeCabによる固有名詞抽出では,MeCab0.98\footnote{http://sourceforge.net/projects/mecab/}でIPA辞書Ver.2.7.0を用い,英語の形態素の複数形を調べるためにApplePieParser5.9\footnote{http://nlp.nagaokaut.ac.jp/Apple\_Pie\_Parser}を用いた.英語Wikipediaは2011年1月15日時点のダンプデータ\footnote{http://download.wikimedia.org/enwiki}を用いた.\subsubsection{is-a関係の判定}全カテゴリ間,全カテゴリ‐記事間のリンクから無作為抽出した各2,500件に対し,作業者1名が人手でis-a関係か否かを判定したものを評価データとした.他の作業者1名が同じデータに正解を付与した結果,一致率はカテゴリ間で98.8\%,カテゴリ‐記事間で98.8\%であった.さらに,is-a関係が成り立つ単語対に対しては,意味属性を付与した.\subsection{比較手法}本実験では,記事分類,カテゴリ間のis-a関係判定,カテゴリ‐記事間のis-a関係判定において関連研究との比較を行う.カテゴリの意味属性分類,記事名の固有名詞抽出の関連研究は我々が知る限り存在しなかったため,関連研究との比較を行わない.本実験では関連研究を独自に実装した結果と比較を行う.\subsubsection{記事分類の比較手法}記事分類の比較手法には藤井ら\citeyear{Fujii}の手法を用いた.藤井らはWikipediaの記事を関根の拡張固有表現階層のカテゴリに分類する手法だが,本実験では本研究で設定した9種類の意味属性に分類し,提案手法との比較を行う.記事中の定義文に出現する形態素とページのカテゴリ情報を利用して学習を行い,one-vs-rest法で分類対象となるページの固有表現クラスを一意に決定する.ここでカテゴリ情報として,Wikipediaのカテゴリ階層構造の最上位のカテゴリである「主要カテゴリ」から対象記事までの最短パス上にあるカテゴリ名の末尾の形態素を素性として用いる.分類器の学習には本実験と同じTinySVM0.09を用い,学習データも本実験と同じものを用いた.\subsubsection{カテゴリ‐記事間のis-a関係判定の比較手法}カテゴリ‐記事間のis-a関係判定の比較手法には小林ら\citeyear{Kobayashi}の手法を用いた.彼らは語彙大系のカテゴリにis-a関係となるWikipediaのカテゴリを接続し,さらに,分類されている記事をインスタンスとする手法を提案している.語彙大系の下位に構築されたカテゴリ‐記事間のis-a関係のリンクと,提案手法で判定できたカテゴリ‐記事間のis-a関係のリンクを比較する.小林ら\citeyear{Kobayashi}の手法の概要を図\ref{fig:kobayashi}に示す.この図は,語彙大系のカテゴリ「星」にWikipediaのカテゴリと記事の対「変光星←爆発変光星」を接続した例である.初めに,語彙大系のカテゴリのインスタンスに,末尾の文字列が照合するWikipediaのカテゴリを,下位カテゴリ候補として対応づける(「星」と「変光星」が文字列照合する).次に,このカテゴリの下位の記事の定義文からとれる上位語が,接続先の語彙大系のカテゴリまたはそれより上位のカテゴリのインスタンスと文字列照合すれば,カテゴリ‐記事を語彙大系カテゴリの下位に接続する(記事「アメリカ変光星観測者協会」の上位語「国際非営利団体」は文字列照合しないが,上位語「爆発変光星」の「変光星」は文字列照合する).本実験では,語彙大系のカテゴリとWikipediaのカテゴリのリンクがis-a関係であるか否か(正しいか否か)に関係なく,語彙大系に接続したWikipediaのカテゴリと記事のリンクをis-a関係とみなし,提案手法と比較する.\begin{figure}[b]\begin{center}\includegraphics{19-4ia1f14.eps}\end{center}\caption{小林ら(2008)の手法の概要}\label{fig:kobayashi}\end{figure}\subsubsection{カテゴリ間のis-a関係判定の比較手法}カテゴリ間のis-a関係判定の比較手法には桜井ら\citeyear{Sakurai}の手法である「後方文字列照合」を用いた.「後方文字列照合」は,「空港←日本の空港」のように,子カテゴリ名の後方の文字列が親カテゴリ名であった場合,両者をis-a関係とする手法である.しかしこれでは再現率が低いので,本実験では「アジアの空港←日本の空港」のように,親カテゴリと子カテゴリの末尾の形態素が一致した場合に両者をis-a関係とみなす.末尾の形態素を得るために本実験と同じJUMANVer.~6.0を使用した. \section{実験結果} \label{sec:kekka}\subsection{カテゴリと記事の意味属性分類}本手法では初めに,カテゴリと記事を9種類の意味属性へ分類した.カテゴリ分類精度は適合率98.0\%,再現率98.1\%,記事分類精度は適合率96.5\%,再現率93.4\%であった.Wikipediaのカテゴリ全体の84.5\%(34,142件),記事全体の88.6\%(421,873件)が9種類の意味属性のいずれかへ分類された.カテゴリと記事分類の意味属性別と全体の精度,分類数,全体からみた分類数の割合を表\ref{tab:bunrui_accu}に示す.また,図\ref{fig:cate_bunrui},図\ref{fig:kizi_bunrui}に,意味属性別と全体の精度のグラフを示す.カテゴリ分類は記事分類より全体的に精度が高い.カテゴリ名は普通名詞が多いため,意味属性に対応づけた語彙大系のカテゴリ情報との一致を素性にすることで高い精度が得られたと考える.適合率は全ての意味属性で95\%以上で,特に``人'',``地形''で適合率が99\%以上と高かった.適合率を下げる誤りの約半数は,``その他''が付与されたカテゴリが,9種類の意味属性に分類されたことが原因だった.再現率に関しては``イベント''を除けば全て95\%以上である.特に``地名'',``地形'',``動植物''で再現率が100\%と高かった.``イベント''は種類が多様(表\ref{tab:domain})なため学習が難しく,再現率が他より低くなったと考える.\\\indent記事分類での適合率は,最も低い具体物で92.0\%,最も高い動植物で100\%であった.記事名は固有名詞が多くカテゴリに比べて精度が落ちるが,記事に付与されたカテゴリ名や記事の定義文からとれる上位語のような普通名詞を素性に使用したり,既に意味属性の確定しているカテゴリ情報を素性に用いたりすることで高精度な分類ができたと考える.``組織''と``具体物''は他より適合率が低い.他より適合率が低い``具体物''の誤りの多くは,``その他''が付与されたカテゴリが``具体物''に分類されてしまったことが主な原因であった.一方``組織''で適合率が低い主な原因は,``施設''が``組織''に分類されたことにある.``施設''と``組織''は区別が曖昧なことがあり,例えばカテゴリ「久慈ラジオ中継局」は本評価データでは``施設''を付与したが,分類器では``組織''に分類された.記事分類の再現率はカテゴリ分類の再現率より4.7ポイント低い.\begin{table}[t]\caption{カテゴリ,記事の意味属性分類精度(評価データ2,500件による)}\label{tab:bunrui_accu}\input{01table07.txt}\end{table}\begin{figure}[t]\begin{minipage}[t]{0.5\textwidth}\begin{center}\includegraphics{19-4ia1f15.eps}\end{center}\caption{カテゴリ分類の意味属性別と全体の精度}\label{fig:cate_bunrui}\end{minipage}\begin{minipage}[t]{0.5\columnwidth}\begin{center}\includegraphics{19-4ia1f16.eps}\end{center}\caption{記事分類の意味属性別と全体の精度}\label{fig:kizi_bunrui}\end{minipage}\end{figure}再現率が特に低い``動植物''と``イベント''の分類誤りを調査したところ,記事と同じ意味属性のカテゴリが1つも付与されていないことが多いことがわかった.例えば,記事「国際切手展(イベント)」に付与されたカテゴリは「切手(具体物)」「郵趣(その他)」なので,記事と同じ意味属性のカテゴリは付与されていない.評価データを調査したところ,``動植物''と``イベント''ではそれぞれ90.8\%,81.5\%の記事に同じ意味属性のカテゴリが付与されていたのに対し,再現率,適合率がともに高い``人''と``創作物''ではそれぞれ95.5\%,98.1\%と高かった.このことから,カテゴリの意味属性が記事の意味属性の決定に深く関わっているといえる.\subsection{固有名詞抽出}\label{sec:koyu_kekka}本手法の固有名詞抽出手法では「1.MeCabを用いた手法」「2.英語Wikipediaのカテゴリを用いた手法」「3.英語Wikipediaの記事を用いた手法」の3種類の手法によりis-a関係を判定した.3手法のいずれでも普通名詞でなく,いずれかで固有名詞と判定されたカテゴリを固有名詞とした結果,適合率95.2\%,再現率70.2\%であった.各手法と全ての手法を合わせた固有名詞抽出精度を表\ref{tab:koyu_accu}に示す.3手法を組み合わせることで,個々の精度より高精度で固有名詞抽出ができたといえる.しかし,日本語Wikipediaが英語Wikipediaにリンクしている件数が少ないことで再現率が低くなっている.全カテゴリ40,385件中,英語Wikipediaにリンクしているカテゴリ数と記事数はそれぞれ20,713件,10,136件\footnote{カテゴリと同名の記事は12,964件存在し,そのうちの10,136件が英語Wikipediaとリンクしている.}であった.英語Wikipediaにリンクが存在していることを前提条件とした場合,「2.英語Wikipediaのカテゴリを用いた手法」は再現率44.4\%(25/54),「3.英語Wikipediaの記事を用いた手法」は再現率83.6\%(102/122)であった.英語記事が存在さえすれば,高い再現率で固有名詞抽出が可能である.記事を用いた手法は,記事本文での記事名の表記を見ることで固有名詞を抽出するルールにより,本文を持たないカテゴリよりも再現率が高い.\begin{table}[b]\caption{カテゴリ名の固有名詞抽出精度(評価データ1,000件による)}\label{tab:koyu_accu}\input{01table08.txt}\end{table}本手法の固有名詞抽出において,普通名詞を固有名詞としてしまった誤りでとくに多かったのは,「IndependentAdministrativeInstitution(独立行政法人)」「JapanDefenseShip(自衛官)」のように,普通名詞にも関わらず英語表記の各形態素の頭文字が全て大文字のアルファベットだった場合である.また日本語Wikipediaと英語Wikipediaでカテゴリの意味が異なる場合に起きる固有名詞抽出誤りもあった.例えば日本語Wikipediaのカテゴリ「過去のジャニーズ所属者」は英語Wikipediaのカテゴリ「Johnny'sJr.」にリンクしているが,前者は普通名詞であり後者は固有名詞である.\subsection{is-a関係判定}\label{sec:isa_kekka}本手法では「1.意味属性分類」「2.固有名詞判定」「3.文字列照合」の3種類の手法によりis-a関係を判定した.3手法のいずれでもnot-is-a関係と判定されなかったカテゴリ間,カテゴリ‐記事間のリンクをis-a関係とした.その結果,Wikipediaの全てのカテゴリ間で適合率95.7\%,再現率81.9\%,is-a関係数50,396件,カテゴリ‐記事間で適合率96.6\%,再現率91.9\%,is-a関係数834,474件であった.カテゴリ‐記事間よりカテゴリ間のほうが再現率が低いのは,カテゴ\linebreakリ‐記事間のほうが9種類の意味属性以外のis-a関係が少ないことが原因である.サンプル調査の結果,全is-a関係のうち9種類の意味属性以外のis-a関係の割合は,カテゴリ間では15.9\%,カテゴリ‐記事間では4.7\%であった.結果として,カテゴリ‐記事間のほうが削除されるis-a関係が少なく,カテゴリ間よりも再現率が約10ポイント高くなった.9種類の意味属性に限定したis-a関係の精度は,カテゴリ間で適合率95.3\%,再現率96.6\%,カテゴリ‐記事間で適合率96.2\%,再現率95.6\%であった.本手法では9種類の意味属性以外のis-a関係は抽出対象としていないため,全体からみれば再現率は低い(カテゴリ間で81.9\%,カテゴリ‐記事間で91.9\%)が,9種類の意味属性に範囲を限定すれば再現率は高かった(カテゴリ間で96.6\%,カテゴリ‐記事間で95.6\%).is-a関係の意味属性別と全体の精度,is-a関係数を表\ref{tab:isa_accu}に,精度のグラフを図\ref{fig:cate_cate_isa_accu},図\ref{fig:cate_kizi_isa_accu}に示す.カテゴリ間のis-a関係の適合率は全ての意味属性で95\%以上,再現率は93\%以上と,どの意味属性でも比較的高い精度が得られた.カテゴリ‐記事間では,``イベント''以外で適合率と再現率が91\%以上だが,``イベント''は適合率,再現率が他と比べて大幅に低い.分類誤りを見たところ,イベントは「1.意味属性分類」の誤りが多いためにis-a関係の精度も低くなっていた.手法別の精度,各手法の有効性,誤り解析に関しての詳細は考察\ref{sec:isa_kousatsu}節で述べる.\subsection{構築したオントロジー}\label{sec:constructed_onto}本手法で構築したオントロジーの各種数値を表\ref{tab:wiki_ontology}に示す.ルートカテゴリ,ルート記事とは,最上位カテゴリ(9種類の意味属性)に直接リンクするカテゴリと記事を指す.言い換えると,Wikipedia上で上位にis-a関係の単語を持たないカテゴリと記事のことである.リーフカテゴリとは,Wikipedia上で下位にis-a関係のカテゴリを1つも持たないカテゴリを指す.今回作成したWikipediaのオントロジーのカテゴリ数は約34,000件,記事数(インスタンス数)は約422,000件である.語彙大系は普通名詞と固有名詞を合わせると,カテゴリ数約3,000件,インスタンス数約300,000件なので,本手法により大規模なオントロジーが構築できたといえる.特に,カテゴリ階層の規模は語彙大系の10倍以上である.\begin{table}[p]\caption{カテゴリ間,カテゴリ‐記事間のis-a関係精度(評価データ2,500件による)}\label{tab:isa_accu}\input{01table09.txt}\end{table}\begin{figure}[p]\begin{minipage}[t]{0.5\columnwidth}\begin{center}\includegraphics{19-4ia1f17.eps}\end{center}\caption{カテゴリ間のis-a関係判定精度}\label{fig:cate_cate_isa_accu}\end{minipage}\begin{minipage}[t]{0.5\columnwidth}\begin{center}\includegraphics{19-4ia1f18.eps}\end{center}\caption{カテゴリ‐記事間のis-a関係判定精度}\label{fig:cate_kizi_isa_accu}\end{minipage}\end{figure}\begin{table}[t]\caption{構築したオントロジーの各種数値}\label{tab:wiki_ontology}\input{01table10.txt}\end{table}ルートカテゴリ数とルート記事数はそれぞれ約2,000件,25,000件であった.本手法ではWikipediaのis-a関係のリンクをできるだけそのまま生かして1つに統一されたオントロジーを構築したが,それでも多量のルートカテゴリ,ルート記事が存在していた.表\ref{tab:wiki_ontology}を見ると,``地名'',``組織'',``イベント''で分類されたカテゴリ,記事から見た,ルートカテゴリ,ルート記事数の割合が高い.地名はpart-of関係のリンクが多く,組織は関連会社や統合前の社名などがリンクすることが多いからである.また``イベント''は,そのイベントが起こる時期や場所,関連する出来事にリンクされることが多いからである.``人'',``創作物''のルート記事数の割合は他に比べて低い.``人'',``創作物''は,1つの記事に多数のカテゴリが設定されていることが多いため,上位にis-a関係のカテゴリを持つことが多いことが要因だと思われる.``地形''はルートカテゴリ,ルート記事の割合が共に低い.これは,``地形''が他の意味属性に比べてWikipedia上でis-a関係によって体系化されやすいことを示している.リーフカテゴリの深さの平均は全カテゴリ中で6.9であった.ここで言う「深さ」とは,最上位カテゴリからリーフカテゴリまでの最長ルートのリンク数を表す.例えば図\ref{fig:image}のカテゴリ「洋菓子」の最長ルートは,「具体物←食品←菓子←ケーキ←洋菓子」で,深さ4である\footnote{最上位カテゴリの深さを0とする.}.全意味属性と各意味属性における,全リーフカテゴリ数からみた各深さでのリーフカテゴリ数の割合を図\ref{fig:depth}に示す\footnote{見やすくするためにグラフを3つにわけた.「全体」は9種類の意味属性における深さの割合であり,各グラフで全て同じ数値である.}.全体では深さ9のリーフカテゴリの割合が最も高く,20.9\%であった.意味属性別に見ると,最も割合の高い深さは意味属性によって異なる.最も割合の高い深さが5の動植物が最も浅く,深さ10の地形が最も深かった.動植物が最も浅いのは,他の意味属性と異なり,「アジアの地形」や「日本のスポーツ選手」のように,地域別の分類(深い階層になりやすい)があまり存在せず,「爬虫類」や「テングダケ科」など分類学に基づく分類体系であることが多いためである.\begin{figure}[t]\begin{center}\includegraphics{19-4ia1f19.eps}\end{center}\hangcaption{全意味属性と各意味属性における,全リーフカテゴリ数からみた各深さでのリーフカテゴリ数の割合}\label{fig:depth}\end{figure}最後に,抽出したis-a関係のカテゴリ階層の例と,カテゴリ‐記事間のis-a関係の例をそれぞれ表\ref{tab:cate_kaisou_rei},表\ref{tab:cate_ins_rei}に示す.日本語語彙大系とは全く異なるカテゴリ階層と記事(インスタンス)を獲得できたといえる.\begin{table}[p]\caption{正しく構築できたis-a関係のカテゴリ階層の例}\label{tab:cate_kaisou_rei}\input{01table11.txt}\end{table}\begin{table}[p]\caption{正しく獲得できたカテゴリ‐記事のis-a関係の例}\label{tab:cate_ins_rei}\input{01table12.txt}\end{table} \section{考察} \label{sec:kousatsu}\subsection{関連手法との比較}\subsubsection{記事分類の関連手法との精度比較}関連手法である藤井らの手法と精度,記事分類数を比較した結果を表\ref{tab:hikaku_Fujii}に示す.藤井らの手法より本手法のほうが適合率で4.9ポイント,再現率で11.0ポイント上回った.さらに,分類数も提案手法のほうが約32,000件多い.意味属性別と全体の精度の比較を図\ref{fig:Fujii_hikaku}に示す.図\ref{fig:Fujii_hikaku}より,全ての意味属性で適合率と再現率が藤井らの手法を上回っていることがわかる.``人''と``施設''では両手法ともに適合率が高く差がないが,それ以外の意味属性では提案手法のほうが5〜13ポイント高い.\begin{table}[t]\caption{記事の意味属性分類における藤井らの手法との精度比較}\label{tab:hikaku_Fujii}\input{01table13.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{19-4ia1f20.eps}\end{center}\caption{記事分類における藤井らの手法と提案手法の精度比較}\label{fig:Fujii_hikaku}\end{figure}再現率の向上幅は適合率より大きく,組織,施設,具体物,創作物,イベントで,提案手法のほうが15〜20ポイント高くなっている.本手法の記事分類では,より有効な素性を設定できたといえる.藤井らが,記事に付与されたカテゴリから主要カテゴリまでの最短経路の全てのカテゴリ名を素性に用いているのに対し,本手法では,記事のごく周辺の単語のみを利用しているためノイズとなる素性が少ない.また提案手法では,カテゴリに付与された意味属性を用いたり,定義文からとれる上位語や語彙大系を用いて素性の単語を抽象化することで,高精度な分類ができたと考えられる.さらに提案手法ではis-a関係の記事を持ちやすいカテゴリ(上位概念カテゴリ)を判定することで高い再現率を得られたと考えられる.\subsubsection{is-a関係判定の関連手法との精度比較}カテゴリ間のis-a関係判定の比較手法には桜井ら\citeyear{Sakurai}の手法,カテゴリ‐記事間のis-a関係判定の比較手法には小林ら\citeyear{Kobayashi}の手法を用いた.結果を表\ref{tab:cate_cate_isa_acc},表\ref{tab:cate_kizi_isa_acc}に示す.提案手法のカテゴリ間のis-a関係の適合率は桜井らの手法より1.9ポイント低い.これは,桜井らの手法はis-a関係を判定するための強力な文字列照合を用いているためだと考えられる.リーフカテゴリの深さを比較すると,桜井らの手法で構築したカテゴリ階層のリーフカテゴリの深さの平均が2.7だったのに対し,提案手法のリーフカテゴリの深さの平均は6.2\footnote{桜井らの手法と比較するため,2件以上のWikipediaのカテゴリから構成されるカテゴリ階層のリーフカテゴリに限定している.また,ルートカテゴリ(親を1つも持たないカテゴリ)の深さを0としている.よって,\ref{sec:constructed_onto}節の結果と数値が異なる.}であった.提案手法のほうが深いカテゴリを階層を構築できているといえる.一方小林ら(2008)の手法と比較すると,is-a関係の適合率は3.6ポイント高い.小林ら(2008)の手法では,「たつの市←本竜野駅」「柳井市←柳井警察署」といった,親名が地名であるis-a関係誤りがほとんどである.語彙大系において,``市''と``駅'',``警察署''は同じカテゴリ``公共機関''に属するため,小林ら(2008)の手法ではこれらをis-a関係と判定してしまい,適合率が低くなっていた.提案手法では「親名が固有名詞ならnot-is-a関係とする」という規則により,これらを正しく判定できている.再現率は,どちらの関連手法よりも,提案手法のほうが24ポイント以上高い.\begin{table}[t]\caption{カテゴリ間のis-a関係判定精度の比較}\label{tab:cate_cate_isa_acc}\input{01table14.txt}\end{table}\begin{table}[t]\caption{カテゴリ‐記事間のis-a関係判定精度の比較}\label{tab:cate_kizi_isa_acc}\input{01table15.txt}\end{table}次に,提案手法と比較手法で抽出できたis-a関係のリンクを持つ単語対を比較する.評価データのうち,桜井らの手法のみで正しく抽出できたis-a関係は178件$(178/1802=9.9\%)$,提案手法のみで正しく抽出できたis-a関係は613件$(613/1802=34.0\%)$であった.提案手法のみで抽出できるis-a関係数のほうが桜井らの手法のみで抽出できるis-a関係数より圧倒的に多いといえる.桜井らの手法のみ,提案手法のみで正しく抽出できたカテゴリ間のis-a関係の例を表\ref{tab:sakurai_isa_rei}に示す.桜井らの手法では,文化,歴史,教育,政治など,提案手法で「抽象的すぎる単語はis-a関係になりにくい」として除外した分野でis-a関係を抽出できている.また桜井らの手法は,提案手法では分類器をつくれるほどのカテゴリ,記事数がなくて対象外とした,スポーツや賞,法律でもis-a関係を抽出できている.一方提案手法は,カテゴリ間の文字列に関係なくis-a関係を抽出できているため,桜井らの手法よりも多くのis-a関係のカテゴリ対を抽出することができた.\begin{table}[t]\caption{桜井らの手法と本手法により抽出できるカテゴリ間のis-a関係の例}\label{tab:sakurai_isa_rei}\input{01table16.txt}\end{table}評価データのうち,小林ら(2008)の手法のみで正しく抽出できたis-a関係は61件$(61/1865=3.3\%)$,提案手法のみで正しく抽出できたis-a関係は506件$(506/1865=27.1\%)$であった.提案手法のみで抽出できるis-a関係数のほうが小林ら(2008)の手法のみで抽出できるis-a関係数より圧倒的に多いといえる.小林ら(2008)の手法のみ,提案手法のみで抽出できるカテゴリ間のis-a関係の例を表\ref{tab:kobayashi_isa_rei}に示す.桜井らの手法と同様,本手法で対象外とした分野でis-a関係を抽出できている.小林ら(2008)の手法では,カテゴリ名や,記事の定義文からとれる上位語が語彙大系のインスタンスと文字列照合しないと,is-a関係を抽出することができない.しかし提案手法では,機械学習による分類器を用いることで,アウトレットモールやベーシスト,アプリのように語彙大系に存在しない単語から成るis-a関係でも抽出可能である.以上によりis-a関係でないリンクを判定することで,より高い再現率でis-a関係を抽出する提案手法の有効性が示された.\begin{table}[t]\caption{小林ら(2008)の手法と本手法により抽出できるカテゴリ‐記事間のis-a関係の例}\label{tab:kobayashi_isa_rei}\input{01table17.txt}\end{table}\begin{table}[t]\hangcaption{カテゴリ分類における,素性に用いる5種類の単語を組み合わせたときと,各単語を除いたときの精度比較(評価データ2,500件の5分割交差検定による)}\label{tab:cate_sosei_bunseki}\input{01table18.txt}\end{table}\subsection{カテゴリと記事の意味属性分類に関する考察}\subsubsection{カテゴリ分類器の素性について}本手法ではカテゴリ分類の際,Wikipediaから抽出できる5種類の単語(対象カテゴリ名,親カテゴリ名,子カテゴリ名,カテゴリ中の記事の定義文からとれる上位語,カテゴリと末尾の形態素が一致する記事の定義文からとれる上位語)を素性に用いている.各単語が分類器の精度にどの程度影響を与えるかを比較するため,各単語を用いなかった場合と全ての単語を用いた場合のSVM分類器の精度(再分類を適用前)を表\ref{tab:cate_sosei_bunseki}に示す.表\ref{tab:cate_sosei_bunseki}より,全ての単語を用いたほうが各単語を除いた場合より精度が高いことから,各単語はSVM分類器の素性において有効であるといえる.その中でも特に親カテゴリを除いたときに精度が最も下がることから,親カテゴリが最も精度向上に貢献していることがわかる.\subsubsection{カテゴリ分類において再分類法を用いる効果}本手法でのカテゴリ分類では,再分類法により再現率の向上を図った.再分類前と後の精度の違いを表\ref{tab:cate_boot_accu}に,再分類試行回数ごとの精度と未抽出カテゴリ数の変化を図\ref{fig:cate_boot}に示す.表\ref{tab:cate_boot_accu},図\ref{fig:cate_boot}より,適合率をあまり下げることなく($-0.3$ポイント),再現率を大幅に向上させることができ(+2.7ポイント),再分類法が有効であることが示された.最初の分類器の学習データはあらかじめ人手で正解を付与した適合率100\%の2,000件のデータであるが,次のステップ(1回目の再分類)では学習データは38,262件(適合率98.3\%)となる.学習データの適合率が1.7ポイント低下しているが,学習データ量は約19倍になっている.結果として,未分類のカテゴリを分類可能となり,再現率が大幅に向上しF値が向上した.\begin{table}[t]\caption{カテゴリ分類における,再分類法を適用する前と後の精度比較}\label{tab:cate_boot_accu}\input{01table19.txt}\end{table}\begin{figure}[t]\setlength{\captionwidth}{191pt}\begin{minipage}[t]{191pt}\begin{center}\includegraphics{19-4ia1f21.eps}\end{center}\hangcaption{カテゴリ分類における再分類回数ごとの精度と未抽出カテゴリ数の変化}\label{fig:cate_boot}\end{minipage}\hfill\begin{minipage}[t]{191pt}\begin{center}\includegraphics{19-4ia1f22.eps}\end{center}\hangcaption{カテゴリ分類における再分類法適用前と適用後の精度比較}\label{fig:cate_boot_pre}\end{minipage}\end{figure}再分類前と後での,意味属性別と全体の精度の変化を表したグラフを図\ref{fig:cate_boot_pre}に示す.図\ref{fig:cate_boot_pre}より,全ての意味属性で,適合率をほとんど下げることなく,再現率を大幅に向上できていることが示された.特にイベント名での再現率は約10ポイントも向上している.イベント名は,表~\ref{tab:domain}でも示したように分類する単語の種類が多様なため,学習データを増やしていく再分類法が有効に働いたと考えられる.\subsubsection{記事分類器の素性について}本手法での記事分類では,カテゴリを機械学習による分類器で分類した後に,そのカテゴリがどの意味属性に分類されたかの情報を用いる素性を利用している.そこで,カテゴリが分類された意味属性の情報を用いる場合と用いない場合での分類記事数の比較(上位概念カテゴリ適用前)を表\ref{tab:kizi_sosei_bunseki}に示す.表\ref{tab:kizi_joigainen_accu}より,カテゴリの分類結果に依存する素性を用いると,用いない場合と比べて適合率は1.0ポイント,再現率は2.6ポイント向上した.カテゴリの分類結果を用いることで,より精度高く記事を分類できたことがわかる.\begin{table}[t]\caption{カテゴリの分類結果に依存する記事分類の素性の効果}\label{tab:kizi_sosei_bunseki}\input{01table20.txt}\end{table}\begin{table}[t]\caption{上位概念カテゴリによる記事分類前と後の精度と分類数}\label{tab:kizi_joigainen_accu}\input{01table21.txt}\end{table}\subsubsection{記事分類において上位概念カテゴリを用いる効果}本手法での記事分類では,記事を機械学習による分類器で分類した後に,「上位概念カテゴリ」を用いることで未分類の記事を分類する手法を提案した.上位概念カテゴリ適用前と後の精度と分類記事数の比較を表\ref{tab:kizi_joigainen_accu}に示す.表\ref{tab:kizi_joigainen_accu}より,上位概念カテゴリを適用させると適合率は0.3ポイント下がるが再現率は1.3ポイント向上し,F値が0.5ポイント向上した.これにより新たに6,359件の記事を分類することができた.図\ref{fig:joigainen_cate}に意味属性別と全体の精度を比較したグラフを示す.特に``組織'',``具体物'',``創作物'',``イベント''で再現率が向上している.特に``イベント''は適合率を下げることなく再現率が8.7ポイント向上した.``イベント''は多様な単語が分類されるため機械学習による分類器での分類が難しいが,上位概念カテゴリを用いることで多くの記事を分類できた.本手法では既に決定したカテゴリの意味属性と記事の意味属性が一致する割合を求め,この割合があらかじめ決めた閾値以上であれば,そのカテゴリを上位概念カテゴリとした.閾値100\%で上位概念カテゴリとした場合は,適合率96.6\%,再現率93.0\%となり,適用する前より適合率が0.2ポイント下がり再現率が0.9ポイント上がった.一方,閾値0\%で上位概念カテゴリとした場合は,適合率95.0\%,再現率94.4\%となり,適用する前より適合率が1.8ポイント下がり再現率が2.3ポイント上がった.なお閾値0\%では,意味属性が付与されているカテゴリの全ての記事が,カテゴリと同じ意味属性に分類された状態である.評価データ2,500件において,閾値を変化させたときの適合率と再現率の関係を図\ref{fig:kizi_bunrui_pr}に示す.図\ref{fig:kizi_bunrui_pr}をみると,再現率が93\%〜93.5\%(閾値100\%〜80\%)の間は適合率がほぼ変わらず,再現率が93.5\%を超えると再現率に比例して適合率が低下している.これは,カテゴリ名と意味属性の異なる記事(ノイズ)が多少含まれていても(20\%以下),そのカテゴリの上位概念カテゴリらしさは,全くノイズがないときとあまり変わらないことを示している.\begin{figure}[t]\setlength{\captionwidth}{191pt}\begin{minipage}[t]{191pt}\begin{center}\includegraphics{19-4ia1f23.eps}\end{center}\hangcaption{上位概念カテゴリによる記事分類前と後の精度比較}\label{fig:joigainen_cate}\end{minipage}\hfill\begin{minipage}[t]{191pt}\begin{center}\includegraphics{19-4ia1f24.eps}\end{center}\hangcaption{上位概念カテゴリ判定の際の閾値による適合率と再現率の関係}\label{fig:kizi_bunrui_pr}\vspace{0.5zw}{\footnotesize\noindent\hangafter=1\hangindent=1zw※上位概念カテゴリを適用する前に分類した記事も精度に含む.\par\noindent\hangafter=1\hangindent=1zw※学習データでなく評価データ2,500件による精度である.\par}\end{minipage}\vspace{-0.5zw}\end{figure}\subsection{not-is-a関係判定手法に関する考察}\label{sec:isa_kousatsu}本手法では3種類の手法を用いてカテゴリ間,カテゴリ‐記事間のnot-is-a関係を判定することでis-a関係のリンクを判定している.本節では手法別の精度,各手法の有効性,誤り解析に関して述べる.各手法と全ての手法を組み合わせたis-a関係判定精度を表\ref{tab:isa_accu_syuhou_betsu}に示す.表\ref{tab:isa_accu_syuhou_betsu}より,3手法において,全てをis-a関係とみなしたときよりF値が高いことから,個々の手法はis-a関係判定において有効であるといえる.また,全ての手法を組み合わせることで,個々の適合率より高い適合率でis-a関係が判定できていることがわかる.\begin{table}[t]\caption{カテゴリ間,カテゴリ‐記事間のis-a関係精度(評価データ2,500件による)}\label{tab:isa_accu_syuhou_betsu}\input{01table22.txt}\end{table}\begin{table}[t]\hangcaption{カテゴリ間,カテゴリ‐記事間のis-a関係判定における,全ての手法を組み合わせたときと,各手法を除いたときの精度比較(評価データ2,500件による)}\label{tab:isa_yukousei}\input{01table23.txt}\end{table}個々の手法を見れば,3手法ともis-a関係を判定するために有効だが,3手法を組み合わせるにあたり,貢献度の高い手法と低い手法があると考えた.例えば手法2で判定できるis-a関係のほとんどを手法1で判定できれば,手法2の貢献度は低いといえる.そこで表\ref{tab:isa_yukousei}において,全ての手法を組み合わせた時と,各手法を除いたときの精度を比較した.こうすることで,除いた手法が全ての手法を組み合わせた時の精度に与える影響がわかる.例えば表\ref{tab:isa_yukousei}の上表では,カテゴリ間において,「1.意味属性分類による手法」を適用すると,適用しなかった場合より適合率が14.1ポイント上がり,再現率が17.1ポイント下がり,F値が1.3ポイント下がることを示している.この場合F値は減少したが適合率を14.1ポイント上げているため,手法1は適合率において貢献度が高い手法である.「2.固有名詞抽出による手法」を適用した場合は,手法1ほど適合率は上がらない(+2.3ポイント)が再現率の減少が少なく($-0.2$ポイント),F値が0.8ポイント向上するため,有効な手法といえる.「3.文字列照合による手法」を適用した場合は,適合率が0.5ポイント上がるが再現率が0.3ポイント下がり,F値には変化がなかった.手法3は精度の変化が小さく,他の2手法と重複しないnot-is-a関係をほとんど判定できないといえる.しかし,再現率より適合率を重視する場合は有効である.カテゴリ‐記事間における全ての手法を組み合わせた時と,各手法を除いたときの精度比較を表\ref{tab:isa_yukousei}の下表に示す.カテゴリ‐記事間で「1.意味属性分類による手法」を適用した場合は,カテゴリ間と同程度適合率が向上するが,再現率の減少が7.2ポイントと少ないためF値が向上する\footnote{再現率の減少が少ない理由は結果\ref{sec:isa_kekka}節で述べた.}.「2.固有名詞抽出による手法」を適用した場合は,カテゴリ間と同様で,手法1ほど適合率は上がらない(+1.9ポイント)が再現率の減少が少なく($-0.9$ポイント),F値が0.4ポイント向上するため,有効な手法である.「3.文字列照合による手法」を適用した場合は,2,500件の評価データにおいて,他の2手法と重複しないnot-is-a関係が1件も存在しなかった.カテゴリ‐記事間において,「3.文字列照合による手法」のみで判定できるis-a関係は非常に少ないといえる.この結果は,Wikipediaにおいて,普通名詞かつ意味的に近い単語対はもとからあまりリンクしないことを示しているといえる.\begin{table}[b]\caption{正しくnot-is-a関係と判定されたカテゴリ間,カテゴリ‐記事間}\label{tab:correct_isa_rei}\input{01table24.txt}\vspace{-1\Cvs}\end{table}各手法のみで抽出できたカテゴリ間,カテゴリ‐記事間のnot-is-a関係のリンクの例を表\ref{tab:correct_isa_rei}に示す.表\ref{tab:correct_isa_rei}で示すように,手法1では様々な種類の単語対をnot-is-a関係とみなせているため,最も適合率に貢献できている.しかし手法1では,意味的に近い単語対がnot-is-a関係になる場合は判定できないため,手法2,3が必要となってくる.手法2では,地名,創作物名,組織名など固有名詞のカテゴリ名が多い意味属性で貢献度が高かった.特に多かったのは,県名←市名のようなpart-of関係,雑誌名と掲載漫画名の関係,企業名とその関連企業名の関係である.手法3のみで判定できるnot-is-a関係は少ないが,普通名詞で意味的に近い単語対のnot-is-a関係の判定の際に有効である.一方,本手法によるnot-is-a関係の判定誤りを見たところ,誤りの主な原因は以下の3種類であった.\begin{itemize}\item[1.]意味属性分類を誤った場合\item[2.]固有名詞抽出を誤った場合\item[3.]3種類のis-a関係判定手法の精度が100\%でも判定できないis-a関係の場合\end{itemize}\noindent各誤り原因による,適合率を下げる誤り例と再現率を下げる誤り例を表\ref{tab:era-_isa_rei1},表\ref{tab:era-_isa_rei2}に示す.本手法では,「日本の内閣総理大臣(人)←内閣総理大臣夫人(人)」のように,親名が普通名詞で親子が意味的に近く,is-a関係判定手法「3.文字列照合による手法」が適用できなかった場合に,not-is-a関係をis-a関係としてしまう(表\ref{tab:era-_isa_rei1}の3つ目の表).また,「チュニジアの世界遺産(具体物)←イシュケル湖(地形)」のように,親子の意味属性が違うis-a関係をnot-is-a関係としてしまう(表\ref{tab:era-_isa_rei2}の3つめの表).しかし我々は後者の誤りは問題ないと考える.なぜなら,もし「チュニジアの世界遺産(具体物)←イシュケル湖(地形)」をis-a関係とみなしてしてしまった場合,「イシュケル湖」を上位に辿ったときに最上位カテゴリ``具体物''につながってしまうからである.オントロジーにおけるis-a関係は,先祖‐子孫でも成り立たなければならないので,ここでは両者をnot-is-a関係と判定してしまったほうが結果として適切となる.\begin{table}[t]\caption{is-a関係判定における,適合率を下げる誤りの例}\label{tab:era-_isa_rei1}\input{01table25.txt}\end{table}\begin{table}[t]\caption{is-a関係判定における,再現率を下げる誤りの例}\label{tab:era-_isa_rei2}\input{01table26.txt}\end{table} \section{関連研究} \label{sec:kanren_kenkyu}\subsection{Wikipediaからis-a関係を抽出する研究}PonzettoandStrube\citeyear{Ponzetto}は,英語Wikipediaのカテゴリ間のリンクからis-a関係とnot-is-a関係を抽出する手法を提案している.桜井ら\citeyear{Sakurai}は,PonzettoandStrubeの手法の一部を利用した手法に独自の手法を加え,日本語Wikipediaに対し,カテゴリ階層からis-a関係のオントロジーを抽出する手法を提案している.玉川ら\citeyear{Tamagawa}は桜井らの手法に加え,カテゴリ名とInfoboxテンプレートを文字列照合する手法によりさらに多くのカテゴリ間のis-a関係を抽出している.また,記事中から「分類」や「種類」といった語を含む節見出しと箇条書きの対をis-a関係として抽出している.これらの手法はis-a関係のリンクの抽出に文字列照合を用いるため,適合率は高いが再現率が低い.一方提案手法では,意味属性分類や固有名詞抽出などを用いてnot-is-a関係を判定することにより,文字列照合では抽出できないis-a関係を抽出できた.次に隅田らの研究\cite{Sumida}及びその成果が利用されている鳥式改\cite{Torisawa}と比較を行う.隅田らは,Wikipediaの記事中の箇条書き構造を利用してis-a関係の単語対を獲得する研究を行った.彼らは初めに,節見出しとその下位の節見出し,節見出しとその下位の箇条書きをis-a関係の単語対の候補とし,SVMによる分類器でフィルタリングを行ってis-a関係の単語対を獲得している.これを2007年3月の日本語Wikipediaに適用した結果,135万対の上位下位語対を精度90\%で獲得できたとしている.これに対し本手法では,(隅田らが抽出対象としたWikipediaの記事構造ではなく)Wikipediaのカテゴリ階層から抽出を行い,カテゴリ間においては95.3\%の精度(再現率96.6\%)で3.4万件,カテゴリ‐記事で精度96.2\%(再現率95.6\%)で42万件をオントロジー化することに成功した.両手法は抽出対象が異なるため直接の比較はできないが,隅田らが論文で報告している\footnote{隅田らの論文の図5より,精度を90\%以上にすると再現率は65\%以下になる.また再現率を90\%以上にした場合の精度は70\%以下になる.}ように隅田らの手法で精度,再現率を共に95\%以上にするのは不可能であり,Wikipediaからの上位下位関係抽出性能としては我々の提案手法に優位性がある.さらに,隅田らの手法で獲得した上位下位関係は局所的であり,これを階層化することでオントロジー化する(もしくは既存のオントロジーに連結する)ためには多くの手作業によるクリーニングを要する\cite{Kuroda}だけでなく,場合によって上位下位関係を詳細化する\footnote{例えば「作品←七人の侍」という上位下位関係に対して「作品←映画←七人の侍」のように中間概念を設定することを詳細化と呼んでいる.}必要がある\cite{Yamada}.一方,本手法では最初から階層化されたオントロジー構築を目指し,そのための手法を高精度で実現する手法を提案した.以上の比較から,本提案手法は隅田らの手法に対して一定の有用性を持つと考える.\subsection{既存のオントロジーのカテゴリにWikipediaのカテゴリを結合する研究}Suchaneketal.\cite{Suchanek}はYAGOにおいて英語Wikipediaのカテゴリを英語WordNetのクラス(synset)の下位クラスとして統合することにより,高精度なオントロジー構築を試みている.YAGOは英語WordNetに英語Wikipediaを統合する手法だが,カテゴリ名が複数形であれば概念を表すカテゴリになりやすい,というような英語依存の手法を利用しているためそのままでは日本語Wikipediaに適用できない.そのため小林ら\citeyear{Kobayashi}は,YAGOとは異なる手法で,日本語語彙大系とWikipediaを統合する手法を提案している.彼らは語彙大系の意味属性に対してWikipediaのカテゴリ名と,そのカテゴリの下位記事の定義文からとれる上位語が語彙大系のインスタンスに文字列照合した場合,カテゴリ‐記事の対を語彙大系の1つ下位に接続している.小林ら\citeyear{Kobayashi2}は,is-a関係の記事\footnote{カテゴリとis-a関係にある記事を抽出するのに,小林ら\citeyear{Kobayashi}の手法を用いている.}の割合が閾値以上のカテゴリを上位概念カテゴリとみなし,上位概念カテゴリと全ての下位記事をis-a関係として抽出している.これらの手法では,Wikipediaのカテゴリ階層の情報が失われてしまう.そこで我々は,小林ら\citeyear{Kobayashi}の手法と桜井ら\citeyear{Sakurai}の手法を組み合わせ,語彙大系の下位にWikipediaから抽出した部分的な階層構造を接続した\cite{Shibaki}.この手法は,Wikipediaのカテゴリ階層の情報をオントロジーに組み込めている点で上記の2手法と異なる.しかし上位階層に既存のオントロジーを用いているため,Wikipediaの上位のカテゴリ階層がオントロジーに組み込めないという問題がある.またこれらのように既存のオントロジーにWikipediaを接続する手法では,is-a関係のリンクの抽出や既存のオントロジーの接続に文字列照合を用いるため,適合率は高いが再現率が低い.本手法では最上位カテゴリ(意味属性)を独自に設定し,機械学習による分類器でカテゴリと記事を意味属性に分類することで,既存のオントロジーのインスタンスに文字列照合しないWikipediaのカテゴリと記事もオントロジーに組み込めた.\\\subsection{既存のオントロジーのカテゴリにWikipediaの記事を分類する研究}Wikipedia中の単語を関根らの拡張固有表現階層のカテゴリに分類する研究に,渡邉ら\citeyear{Watanabe},杉原ら\citeyear{Sugihara},藤井ら\citeyear{Fujii}の研究がある.渡邉らは,CRFを用いて,Wikipediaの記事中の箇条書き構造になっている単語を関根の拡張固有表現階層のカテゴリに分類している.杉原ら\citeyear{Sugihara}は,Wikipediaの記事の見出し語を関根の拡張固有表現階層のカテゴリに分類する手法を提案している.記事のカテゴリ情報を利用して学習を行い,one-vs-rest法で記事の固有表現クラスを一意に決定する.ここでカテゴリ情報として,Wikipediaのカテゴリ階層構造の最上位のカテゴリである「主要カテゴリ」ページから対象ページまでの最短パス上にあるカテゴリ名を素性として用いている.藤井らは,固有名詞表現抽出のための素性作成を目的とし,杉原らと同じ手法でWikipediaの記事の見出し語を関根の拡張固有表現階層のカテゴリに分類している.ただし,杉原らの設定した素性に加え,記事の第一文の形態素も用いている.これらの手法と提案手法における記事の意味属性分類を比較した結果,提案手法のほうが高精度な記事分類ができることがわかった.提案手法では,記事に付与されたカテゴリの意味属性を素性に用いたり,定義文からとれる上位語や語彙大系を用いて素性の単語を抽象化したり,is-a関係の記事を持ちやすいカテゴリ(上位概念カテゴリ)を判定したりすることで,高い適合率と再現率が実現できたためだと考えられる.\subsection{Wikipediaからオントロジーを構築するその他の研究}Bizeretal.\citeyear{Bizer}はWikipediaの記事中にあるInfobox,カテゴリなどの半構造化された情報からRDFトリプルを抽出し,DBpediaとして公開している.DBpediaは他のオントロジーであるYAGOなどと関連づけられている.桜井ら\citeyear{Sakurai}や玉川ら\citeyear{Tamagawa}もInfoboxを用いてInfoboxトリプル(インスタンス‐プロパティ‐プロパティの値)を抽出する研究を行っている.中山ら\citeyear{Nakayama}は,Wikipedia中の記事間のリンク構造を解析することで単語の意味関係を抽出する手法を提案している.中山らは記事間のリンク数や間接的にリンクしている場合のリンクの距離などを用いて記事から重要文を抽出し,重要文を構文解析することで単語対とその意味関係を抽出している.提案手法では,これらの関連研究で用いたInfoboxや記事間のリンク関係は利用せず,カテゴリ間やカテゴリ‐記事間のリンクのみを利用してオントロジーを構築した.しかしこれらの知識を用いることでオントロジーを拡張したり精度を向上させたりできる可能性がある. \section{結論} \label{sec:ketsuron}本研究では,Wikipediaのカテゴリ階層と記事を利用し,``人'',``組織'',``施設'',``地名'',\mbox{``地}形'',``具体物'',``創作物'',``動植物'',``イベント''の9種類の意味属性を最上位カテゴリとした,1つに統一されたis-a関係のオントロジーを構築した.我々はカテゴリ間とカテゴリ‐記事間のis-a関係を高再現率で判定することを目的とした場合,is-a関係を判定するよりnot-is-a関係を判定するほうが容易であると考えた.そこで本手法ではカテゴリ間とカテゴリ‐記事間のnot-is-a関係のリンクを高い精度で削除し,残ったリンクをis-a関係とみなすことで,多くのカテゴリと記事を組み込んだいくつかの階層を生成した.リンクのnot-is-a関係を判定するために,以下の3つの判定手法を用いた.\begin{itemize}\item[1.]意味属性分類による判定\item[2.]固有名詞抽出による判定\item[3.]文字列照合による判定\end{itemize}\noindent3手法のいずれかでnot-is-a関係と判定されなかったカテゴリ間,カテゴリ‐記事間のリンクをis-a関係とした.is-a関係のリンクでつながるカテゴリと記事の階層を1つの階層と考えると,同じ意味属性のカテゴリと記事からなる部分的な階層が複数できることになる.新たに定義した9種類の意味属性からなる深さ1の上位階層の下位に接続することで,1つに統一された階層を再構成した.3手法を組み合わせた結果,9種類の意味属性に限定したis-a関係の判定精度は,カテゴリ間で適合率95.3\%,再現率96.6\%,is-a関係数50,396件,カテゴリ‐記事間で適合率96.2\%,再現率95.6\%,is-a関係数834,474件であった.構築したオントロジーは,Wikipediaの全カテゴリの84.5\%(約34,000件),全記事の88.6\%(約422,000件)が組み込まれていることから,非常に大規模なWikipediaのオントロジーが構築できたといえる.一方Wikipediaの全てのカテゴリ間とカテゴリ‐記事間でのis-a関係の精度は,カテゴリ間で適合率95.7\%,再現率81.9\%,カテゴリ‐記事間で適合率96.6\%,再現率91.9\%であった.カテゴリ間のis-a関係の判定精度は,比較手法より適合率が1.9ポイント低下したが,再現率は24.2ポイント向上した.またカテゴリ‐記事間のis-a関係の判定精度は,比較手法より適合率は3.6ポイント高く,再現率も24.0ポイント高かった.上位のカテゴリに語彙大系を用いずに9種類の意味属性を用いたことで,比較手法より多くのカテゴリと記事をオントロジーに組み込めた.提案手法では3種類の手法を用いてnot-is-a関係を高い精度で削除することでis-a関係を判定するという手法により,比較手法とほぼ同程度の適合率で,比較手法よりも圧倒的に高い再現率でis-a関係を判定できた.\begin{thebibliography}{}\bibitem[\protect\BCAY{Bizer,Lehmann,Kobilarov,Auer,Becker,Cyganiak,\BBA\Hellmann}{Bizeret~al.}{2009}]{Bizer}Bizer,C.,Lehmann,J.,Kobilarov,G.,Auer,S.,Becker,C.,Cyganiak,R.,\BBA\Hellmann,S.\BBOP2009\BBCP.\newblock\BBOQDBpedia-Acrystallizationpointforthewebofdata.\BBCQ\\newblock{\BemWebSemantics:Science,ServicesandAgentsontheWorldWideWeb},{\Bbf7}(3),\mbox{\BPGS\154--165}.\bibitem[\protect\BCAY{Fellbaum}{Fellbaum}{1998}]{WordNet}Fellbaum,C.\BBOP1998\BBCP.\newblock{\BemWordNet:AnElectronicLexicalDatabase(Language,Speech,andCommunication)}.\newblock{TheMITPress}.\bibitem[\protect\BCAY{藤井\JBA飯田\JBA徳永}{藤井\Jetal}{2010}]{Fujii}藤井裕也\JBA飯田龍\JBA徳永健伸\BBOP2010\BBCP.\newblockWikipedia記事を利用した曖昧性のある表現の固有表現クラス分類.\\newblock\Jem{言語処理学会第16回年次大会講演論文集A1-4}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{goitaikei}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{小林\JBA増山\JBA関根}{小林\Jetal}{2008}]{Kobayashi}小林暁雄\JBA増山繁\JBA関根聡\BBOP2008\BBCP.\newblock日本語語彙大系と日本語ウィキペディアにおける知識の自動結合による汎用オントロジー構築手法.\\newblock\Jem{情報処理学会研究報告NL-187-2},\mbox{\BPGS\7--14}.\bibitem[\protect\BCAY{小林\JBA増山\JBA関根}{小林\Jetal}{2010}]{Kobayashi2}小林暁雄\JBA増山繁\JBA関根聡\BBOP2010\BBCP.\newblockWikipediaと汎用シソーラスを用いた汎用オントロジー構築手法.\\newblock\Jem{電子情報通信学会論文誌D,情報・システム},{\Bbf12},\mbox{\BPGS\2597--2609}.\bibitem[\protect\BCAY{黒田\JBA李\JBA野澤\JBA村田\JBA鳥澤}{黒田\Jetal}{2009}]{Kuroda}黒田航\JBA李在鎬\JBA野澤元\JBA村田真樹\JBA鳥澤健太郎\BBOP2009\BBCP.\newblock鳥式改の上位語データの人手クリーニング.\\newblock\Jem{言語処理学会15回大会発表論文集},\mbox{\BPGS\76--79}.\bibitem[\protect\BCAY{森田\JBA山口}{森田\JBA山口}{2010}]{Morita}森田武史\JBA山口高平\BBOP2010\BBCP.\newblockオントロジー学習の現状と動向.\\newblock\Jem{人工知能学会誌},{\Bbf25}(3),\mbox{\BPGS\354--365}.\bibitem[\protect\BCAY{中山\JBA原\JBA西尾}{中山\Jetal}{2008}]{Nakayama}中山浩太郎\JBA原隆浩\JBA西尾章治郎\BBOP2008\BBCP.\newblock自然言語処理とリンク構造解析を利用したWikipediaからのWebオントロジ自動構築に関する一手法.\\newblock\Jem{データ工学ワークショップ(DEWS)A3-2}.\bibitem[\protect\BCAY{Ponzetto\BBA\Strube}{Ponzetto\BBA\Strube}{2007}]{Ponzetto}Ponzetto,S.~P.\BBACOMMA\\BBA\Strube,M.\BBOP2007\BBCP.\newblock\BBOQDerivingalargescaletaxonomyfromWikipedia.\BBCQ\\newblockIn{\BemProceedingsofthe22ndConferenceontheAdvancementofArtificialIntelligence(AAAI)},\mbox{\BPGS\1440--1445}.\bibitem[\protect\BCAY{桜井\JBA手島\JBA石川\JBA森田\JBA和泉\JBA山口}{桜井~\Jetal}{2008}]{Sakurai}桜井慎弥\JBA手島拓也\JBA石川雅之\JBA森田武史\JBA和泉憲明\JBA山口高平\BBOP2008\BBCP.\newblock汎用オントロジー構築における日本語Wikipediaの適用可能性.\\newblock\Jem{人工知能学会第18回セマンティックWebとオントロジー研究会SIG-SWO-A801-06}.\bibitem[\protect\BCAY{柴木\JBA永田\JBA山本}{柴木\Jetal}{2009}]{Shibaki}柴木優美\JBA永田昌明\JBA山本和英\BBOP2009\BBCP.\newblock日本語語彙大系を用いたWikipediaからの汎用オントロジー構築.\\newblock\Jem{情報処理学会研究報告NL194-4}.\bibitem[\protect\BCAY{Suchanek,Kasneci,\BBA\Weikum}{Suchaneket~al.}{2007}]{Suchanek}Suchanek,F.~M.,Kasneci,G.,\BBA\Weikum,G.\BBOP2007\BBCP.\newblock\BBOQYago:AcoreofsemanticknowledgeunifyingwordnetandWikipedia.\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalConferenceonWorldWideWeb(WWW)},\mbox{\BPGS\697--706}.\bibitem[\protect\BCAY{杉原\JBA増市\JBA梅基\JBA鷹合}{杉原\Jetal}{2009}]{Sugihara}杉原大悟\JBA増市博\JBA梅基宏\JBA鷹合基行\BBOP2009\BBCP.\newblockWikipediaカテゴリ階層構造の固有名詞分類実験における効果.\\newblock\Jem{情報処理学会研究報告NL-189-9},\mbox{\BPGS\57--64}.\bibitem[\protect\BCAY{隅田\JBA吉永\JBA島澤}{隅田\Jetal}{2009}]{Sumida}隅田飛鳥\JBA吉永直樹\JBA島澤健太郎\BBOP2009\BBCP.\newblockWikipediaの記事構造からの上位下位関係抽出.\\newblock\Jem{自然言語処理},{\Bbf16}(3),\mbox{\BPGS\3--24}.\bibitem[\protect\BCAY{玉川\JBA桜井\JBA手島\JBA森田\JBA和泉\JBA山口}{玉川~\Jetal}{2010}]{Tamagawa}玉川奨\JBA桜井慎弥\JBA手島拓也\JBA森田武史\JBA和泉憲明\JBA山口高平\BBOP2010\BBCP.\newblock日本語Wikipediaからの大規模オントロジー学習.\\newblock\Jem{人工知能学会論文誌論文特集「2009年度全国大会近未来チャレンジ」\inhibitglue},{\Bbf25}(5),\mbox{\BPGS\623--636}.\bibitem[\protect\BCAY{鳥澤\JBA隅田\JBA野口\JBA柿澤\JBA風間\JBADe~Saeger\JBA村田\JBA山田\JBA塚脇\JBA太田}{鳥澤\Jetal}{2009}]{Torisawa}鳥澤健太郎\JBA隅田飛鳥\JBA野口大輔\JBA柿澤康範\JBA風間淳一\JBAStijnDe~Saeger\JBA村田真樹\JBA山田一郎\JBA塚脇幸代\JBA太田公子\BBOP2009\BBCP.\newblockウェブ検索ディレクトリの自動構築とその改良—鳥式改—.\\newblock\Jem{言語処理学会15回大会発表論文集},\mbox{\BPGS\478--481}.\bibitem[\protect\BCAY{山田\JBA橋本\JBA呉\JBA鳥澤\JBA黒田\JBADe~Saeger\JBA土田\JBA風間}{山田\Jetal}{2012}]{Yamada}山田一郎\JBA橋本力\JBA呉鍾勲\JBA鳥澤健太郎\JBA黒田航\JBAStijnDeSaeger\JBA土田正明\JBA風間淳一\BBOP2012\BBCP.\newblockWikipediaを利用した上位下位関係の詳細化.\\newblock\Jem{自然言語処理},{\Bbf19}(1),\mbox{\BPGS\3--23}.\bibitem[\protect\BCAY{渡邉\JBA浅原\JBA松本}{渡邉\Jetal}{2008}]{Watanabe}渡邉陽太郎\JBA浅原正幸\JBA松本裕治\BBOP2008\BBCP.\newblockグラフ構造を持つ条件付確率場によるWikipedia文書中の固有表現分類.\\newblock\Jem{人工知能学会論文誌},{\Bbf23}(4),\mbox{\BPGS\245--254}.\end{thebibliography}\begin{biography}\bioauthor{柴木優美}{2011年3月長岡技術科学大学大学院工学研究科修士課程電気電子情報工学専攻修了.修士(工学).在学中はWikipediaを用いてオントロジーを構築する研究に従事.}\bioauthor{永田昌明}{1987年京都大学大学院工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,コミュニケーション科学基礎研究所主幹研究員.工学博士.統計的自然言語処理の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{山本和英}{1996年豊橋技術科学大学大学院工学研究科博士後期課程システム情報工学専攻修了.博士(工学).1996年〜2005年(株)国際電気通信基礎技術研究所(ATR)研究員(2002年〜2005年客員研究員).1998年中国科学院自動化研究所国外訪問学者.2002年より長岡技術科学大学電気系,現在准教授.言語表現加工技術(要約,換言,翻訳),テキストマイニングなどに興味がある.言語処理学会,人工知能学会,情報処理学会,各会員.2012年より電子情報通信学会言語理解とコミュニケーション研究会研究専門委員長.e-mail:yamamoto@jnlp.org}\end{biography}\biodate\end{document}
V17N01-01
\section{はじめに} \label{sec:introduction}機械翻訳システムの研究開発において,システムの翻訳品質の評価は重要なプロセスの一つである.人手による翻訳品質評価では,機械翻訳システムによる翻訳(以下,{\MT})に対して{\ADE}と{\FLU}の二つの側面から評価値が付与される\cite{Sumita05}.{\ADE}は,原文によって読者に伝わる情報のうちどの程度が翻訳文によって伝わるかを測る尺度である.一方,{\FLU}は,翻訳文が目的言語の文としてどの程度流暢(自然)であるかを原文とは独立に測る尺度である.本研究では,対象を英日機械翻訳に絞り,まず,現状の一般的な英日機械翻訳システムの翻訳品質を把握するために,市販されている英日機械翻訳システムで得られた{\MT}を{\ADE}と{\FLU}の側面から評価した.その結果,\ref{sec:experiment:setting}節で述べるように,{\ADE}の評価値に比べて{\FLU}の評価値のほうが低く,{\MT}の{\FLU}を向上させることがより重要な課題であることが判明した.このため,特に{\FLU}の向上に重点を置いたシステム改善を支援することを目的として,{\FLU}の評価の効率化を図るための自動評価手法を提案する.{\FLU}を低下させる要因はいくつか考えられるが,その一つに不自然な逐語訳がある.辞書と規則に基づく方式の機械翻訳システムは,現状では,逐語訳をすべきでない場合でもそのような訳し方をすることがある.このため,{\MT}には不自然な逐語訳が含まれている可能性が高い.従って,{\MT}と人間による翻訳(以下,{\HUM})における逐語訳の違いを捉えることによって{\MT}の{\FLU}(の一部)の自動評価が可能になると期待できる.既存の自動評価手法の中には,機械学習によって識別器を構築する手法\cite{Oliver01,Kulesza04,Gamon05,Tanaka08}がある.この手法では,良い翻訳とは{\HUM}に近いものであり,そうでない翻訳とは{\MT}に近いものであると仮定される.このような仮定の下で,対訳コーパスにおける{\HUM}(正例)と,原文を機械翻訳システムで翻訳して得られる{\MT}(負例)とを訓練事例として識別器が構築される.この識別器を用いて,評価対象の{\MT}から抽出した素性に基づいて,その{\MT}が良い翻訳であるかそうでないかの二値判定が行なわれる.本研究では,このような先行研究に倣い,{\HUM}と{\MT}を訓練事例とした機械学習によって構築した識別器を用いて自動評価を行なう.このような自動評価手法においては,{\HUM}での逐語訳と{\MT}での逐語訳の違いを適切に捉えることができる手がかりを機械学習で用いる素性として選ぶ必要がある.本稿では,このような素性として{\align}結果を利用することを提案する.具体的には,\ref{sec:feats}節で述べるように,英文と{\HUM}の間,および英文と{\MT}の間で{\align}を行ない,その結果を機械学習のための素性とする.従来,{\FLU}の評価には$N$グラムが用いられることが多いが,{\HUM}と{\MT}での逐語訳の違いを捉えるには$N$グラムよりも{\align}結果を利用するほうが適切であると考えられる.検証実験の結果,提案手法によってシステムレベルでの自動評価が可能であることが示唆された.また,{\SVM}\cite{Vapnik98}による機械学習で各素性に付与される重みに基づいて{\MT}に特徴的な素性を特定できるため,このような素性を含む文を観察することによって文レベルでの{\MT}の特徴分析を行なうこともできる. \section{先行研究} \label{sec:related_work}自動評価に関する研究は活発に行なわれ,これまでに様々な手法が示されている.このうち,BLEUやNIST,METEORなどの既存手法\cite{Papineni02,Doddington02,Banerjee05}では,{\FLU}の評価は,{\MT}と参照訳の間での高次の$N$グラムの照合によって行なわれる.これらの手法によって信頼できる評価結果を得るためには,(新規)評価対象文についての参照訳を通常複数用意する必要がある.しかし,大量の評価対象文について複数の参照訳を入手することは容易ではない.近年,機械学習を利用する手法がいくつか示されている\cite{Oliver01,Kulesza04,Quirk04,Gamon05,Albrecht07a,Albrecht07b,Paul07a,Tanaka08}.これらの手法は,モデルを構築する際に訓練事例集を必要とするが,(新規)評価対象文の{\FLU}を評価する際には参照訳を必要としない.機械学習を利用する手法は,機械学習によって回帰モデルを構築する手法と識別モデルを構築する方法に分けることができるが,両者では学習に必要な訓練事例集を用意するのに要する負担が異なる.回帰モデルは,{\MT}から抽出された素性に基づいて,その{\MT}の良さを表わす評価値を予測する.従って,回帰モデルを構築する手法\cite{Quirk04,Albrecht07a,Albrecht07b,Paul07a}では,大量の訓練事例に人手で評価値を付与する必要があり,訓練事例集の作成に要する負担が比較的大きい.一方,識別器を構築する手法\cite{Oliver01,Kulesza04,Gamon05,Tanaka08}では,識別器に入力された評価対象の{\MT}が{\MT}であるか{\HUM}であるかの二値判定を行なう.このため,対訳コーパスにおける{\HUM}と,原文を機械翻訳システムで翻訳して得られる{\MT}を訓練事例とすることができる.従って,大量の訓練事例に人手評価値を付与する必要がなく,負担は比較的小さく抑えられる.本稿では後者のアプローチを採るため,識別器を構築する先行研究について概観する.文献\cite{Oliver01}では,言語的な素性として,構文木の分岐に関する情報,文中での内容語の数に対する機能語や代名詞の数の割合,文の構成要素(名詞句や副詞句,形容詞句,前置詞句など)の長さなどが用いられている.この他に,パープレキシティが統計的な素性として利用されている.スペイン語から翻訳された英文からこれらの素性を抽出して,決定木学習によって識別器を構築し,試験事例に対して82.9\%の{\ACC}を得ている.また,構築された決定木を観察することによって,機械翻訳システムが抱える問題点をシステム開発者が把握できることが示されている.さらに,{\MT}の翻訳品質が向上すれば{\HUM}との識別が困難になるため,識別器の{\ACC}が低下するという予想を示している.しかし,予想の提示に止まっており,検証結果は示されていない.文献\cite{Kulesza04}では,評価対象文と参照訳の間の$N$グラム適合率や単語誤り率などを素性として,{\SVM}による機械学習が行なわれている.{\ACC}は,{\MT}だけから成る試験事例に対しては70.0\%,{\HUM}だけから成る試験事例に対しては58.7\%,両者から成る試験事例に対しては64.4\%であったと報告されている.この文献では,評価対象文が{\MT}であるか{\HUM}であるかの二値判定を行なうだけでなく,{\SVM}による機械学習の結果得られる分離超平面と事例との距離をその{\MT}に対する評価値とみなしている.この評価値と人手による評価値の間の相関係数は,既存の自動評価尺度(BLEU値や単語誤り率など)と人手評価値の間の相関係数よりも高かったという実験結果が示されている.文献\cite{Gamon05}では,素性として,品詞トライグラム,構文解析で使用された文脈自由文法規則,文構成要素の意味標識,文構成要素とその支配要素の間の意味的関係などが利用されている.英語から翻訳されたフランス語文からこれらの素性を抽出して{\SVM}による機械学習で識別器を構築し,訓練事例に対して77.8\%,試験事例に対して77.6\%の{\ACC}をそれぞれ得ている.文献\cite{Tanaka08}では,{\MT}の{\FLU}の自動評価を目的として,品詞の出現比率,品詞$N$グラム($N=1,2,3$),単語トライグラムに着目し,これらの素性を個別に用いて識別器を構築している.ロイター英日対訳コーパス\cite{Uchiyama03}における和文を{\HUM}とし,英文を市販の機械翻訳システムで翻訳した結果を{\MT}として実験を行ない,品詞の出現比率による識別器で78.6\%,品詞$N$グラムによる識別器で94.9\%,単語トライグラムによる識別器で97.7\%の{\ACC}を得ている.さらに,{\MT}を{\FLU}の観点から上位群と下位群の2群に分けたとき,これらの素性を用いた識別器の正解率は,{\FLU}が上がるにつれて低下するという文献\cite{Oliver01}の仮説を確認している. \section{着目した素性} \label{sec:feats}{\MT}の{\FLU}を低下させる要因はいくつか考えられるが,その一つに不自然な逐語訳がある.本研究ではこの不自然な逐語訳を捉えることをめざしている.人間は,柔軟性に富む多様な表現上の工夫を施した翻訳を行なうことができるため,{\HUM}に不自然な逐語訳が含まれている可能性は低い.一方,人間の様々な翻訳技術が十分に反映されていない,辞書と規則に基づく方式の機械翻訳システムは,現状では,逐語訳をすべきでない場合でもそのような訳し方をすることがあるため,{\MT}には不自然な逐語訳が含まれている可能性が高い.このため,{\HUM}の{\FLU}と{\MT}の{\FLU}の違いを適切に捉えることができる手がかりとして逐語訳に着目した.例えば,次の英文(E\ref{SENT:failure})に対する{\HUM}は,無生物主語他動詞構文の構造変換が行なわれ,(H\ref{SENT:failure})のようになるだろう.これに対して,英文(E\ref{SENT:failure})を,本研究の実験で用いた3つの市販機械翻訳システムで処理すると(Ma\ref{SENT:failure}),(Mb\ref{SENT:failure}),(Mc\ref{SENT:failure})のような{\MT}がそれぞれ得られる.\begin{SENT3}\sentEHisfailuretofulfillthepromisemadethevoterssuspicious.\sentH彼が約束を果たさなかったので,有権者は疑い深くなりました.\sentMa彼が約束を実現させないことで,有権者は疑わしげになりました.\sentMb彼が約束を果たすことができなかったことは,投票者を疑わしくした.\sentMc約束を果たすことについての彼の失敗は投票者を疑い深くしました.\label{SENT:failure}\end{SENT3}{\MT}(Ma\ref{SENT:failure})と{\HUM}(H\ref{SENT:failure})を比べると,両者は非常に近いことが分かる.{\MT}(Mb\ref{SENT:failure})と{\HUM}(H\ref{SENT:failure})を比べると,両者の主な違いとして,makeを主辞とする動詞句の翻訳が挙げられる.英語では行為者が対象に能動的に働きかけるという捉え方がされる傾向が強い.これに対して,日本語では物事が自然にある状態になるという表現が好まれる.{\HUM}(H\ref{SENT:failure})では,このことを考慮してmakeが「なる」と訳されている.一方,{\MT}(Mb\ref{SENT:failure})では「する」という逐語訳になっている.{\MT}(Mc\ref{SENT:failure})と{\HUM}(H\ref{SENT:failure})を比べると,makeを主辞とする動詞句の翻訳の違いに加え,failureを主辞とする名詞句の翻訳の違いも見られる.{\HUM}(H\ref{SENT:failure})では,英語が名詞文体であり日本語が動詞文体であることを考慮して,動詞的意味を含む名詞句を文に展開するという工夫がされて自然な翻訳になっている.一方,{\MT}(Mc\ref{SENT:failure})ではそのまま「失敗」という逐語訳になっている.以上のような違いが主な原因で,特に{\MT}(Mc\ref{SENT:failure})の{\FLU}が{\HUM}(H\ref{SENT:failure})の{\FLU}よりも低くなっていると考えられる.{\HUM}と{\MT}の間には以上のような違いがあるため,英文と{\HUM}の間で単語同士の対応付けを行なった場合と英文と{\MT}の間で行なった場合を比べると,後者の場合のほうが単語対応が付きやすいと予想される.実際,英文(E\ref{SENT:failure})と{\HUM}(H\ref{SENT:failure})に対して,本研究の実験で用いた{\align}ソフトウェアで{\align}を行なうと,表\ref{tab:align}\,の左側のような結果が得られる.また,英文(E\ref{SENT:failure})と{\MT}(Mc\ref{SENT:failure})の間の{\align}結果は表\ref{tab:align}の右側のようになる.表\ref{tab:align}において,align($A$,$B$)は$A$と$B$が対応付けられた単語の対であることを表わし,nonalign\_eng($C$)は$C$が対応付けられずに残った英語単語であること,nonalign\_jpn($D$)は$D$が対応付けられずに残った日本語単語であることを表わす.以下,align($A$,$B$)を{\AL}と呼び,nonalign\_eng($C$)あるいはnonalign\_jpn($D$)を{\NAL}と呼ぶ.\begin{table}[t]\caption{英文(E\ref{SENT:failure})と{\HUM}(H\ref{SENT:failure})の{\align}結果と英文(E\ref{SENT:failure})と{\MT}(Mc\ref{SENT:failure})の{\align}結果}\label{tab:align}\input{02table01.txt}\end{table}表\ref{tab:align}を見ると,{\HUM}(H\ref{SENT:failure})より{\MT}(Mc\ref{SENT:failure})のほうが,{\AL}の比率が高いことが分かる.また,{\HUM}(H\ref{SENT:failure})ではfailureもmakeも単語対応が付いていないのに対して,{\MT}(Mc\ref{SENT:failure})では両方とも単語対応が付いている.さらに,{\HUM}(H\ref{SENT:failure})には「ない」,「ので」,「なる」などの{\NAL}が含まれている.これらのことから,{\HUM}における様々な表現上の工夫と{\MT}における逐語訳との違い(の一部)を{\AL}と{\NAL}によって捉えることができると考えられる.{\AL}と{\NAL}によって捉えることができる{\HUM}と{\MT}の違いは,{\AL}は主に{\HUM}と{\MT}の類似点(人間でも行なうような逐語訳)を表わしており,{\NAL}は主に{\HUM}と{\MT}の相違点(主に人間しか行なわないような翻訳)を表わしていると解釈することができる.{\AL}と{\NAL}によって捉えることができる{\HUM}と{\MT}の違いとしては,無生物主語他動詞構文の構造変換以外に代名詞の訳語選択などがある.{\HUM}では,英語の代名詞は日本語の代名詞としては表わされず,ゼロ代名詞化されたり,他の表現に置き換えられたりすることがある.これに対して,{\MT}では,英語の代名詞はそのまま日本語の代名詞に訳され,不自然な翻訳文となることが多い.例えば,次の{\HUM}(H\ref{SENT:indef-pron})では,hisは「自分」という表現に置き換えられ,heとitはゼロ代名詞化されている.これに対して,{\MT}(Ma\ref{SENT:indef-pron}),(Mb\ref{SENT:indef-pron}),(Mc\ref{SENT:indef-pron})では,「彼」や「それ」と訳されている.このように,代名詞が他の表現に置換されている{\HUM}と代名詞の逐語訳が含まれている{\MT}との違いは,{\AL}と{\NAL}によって捉えることができると考えられる.\begin{SENT3}\sentEMr.Smithdoeshisworkwhenhefeelslikedoingit.\sentHスミス氏は,したいと思うときに,自分の仕事をする.\sentMaスミス氏は,それをしたいと思うとき,彼の仕事をする.\sentMbスミスさんがそれをしたい気がするとき,彼は仕事します.\sentMcスミス氏がそれをしたい気がするとき,彼は彼の仕事をします.\label{SENT:indef-pron}\end{SENT3}{\HUM}において様々な表現上の工夫がされていればいるほど,{\HUM}と逐語訳による不自然な{\MT}との違いがより鮮明になる.従って,このような場合,{\AL}と{\NAL}によって{\HUM}と{\MT}の違いをより確実に捉えることができるようになり,有効性が高まると考えられる.他方,{\HUM}と{\MT}における語順の違いについては,{\AL}と{\NAL}では捉えることができない.しかし,この問題は,句対応付けを今後利用することなどによって解決できると考えられる.また,助詞についても,{\HUM}と{\MT}での{\AL}と{\NAL}の違いとして現れにくいため,捉えることは困難である.{\MT}に非対応単語が現れる原因として,機械翻訳システムによる無生物主語他動詞構文の構造変換の他に,翻訳処理の失敗などが想定される.非対応単語が構文構造変換によるものか翻訳処理失敗によるものかの区別は,{\MT}に現れる非対応単語と{\HUM}に現れる非対応単語を比較することによって可能な場合もある.なぜならば,構文構造変換による非対応単語は{\MT}集合にも{\HUM}集合にも現れうるのに対して,処理失敗によるものは{\HUM}集合には現れにくいと考えられるからである.本稿での{\SVM}による機械学習では,{\HUM}(H\ref{SENT:failure})と{\MT}(Mc\ref{SENT:failure})を,それぞれ,表\ref{tab:align}に示した{\AL}と{\NAL}を成分とする素性ベクトルで表わす.具体的には,{\HUM}と{\MT}に現れる{\AL}と{\NAL}を素性名番号(整数)に変換し,その素性値を1とする. \section{実験と考察} \label{sec:experiment}提案手法の有効性を確認するための実験について述べる.今回の実験は,報道記事を対象とし,辞書と規則に基づく方式の英日機械翻訳システムを用いて行なったものである.\subsection{実験方法}\label{sec:experiment:setting}提案手法の検証実験に必要な言語資源は,原文とそれに対する{\HUM}である.今回の実験では,ロイター英日対訳コーパスを利用した.このコーパスは,文献\cite{Uchiyama03}に示されている類似度を用いて文対応が付けられたコーパスである.文対応付けの結果には1対1のものと1対多のものがあるが,今回の実験では1対1に対応付けられている文の組を用いた.ロイター英日対訳コーパスには同一の英文や同一の和文が複数回出現することがある.このような重複がある場合には1文だけを残し他の文は削除した.{\MT}は,ロイター英日対訳コーパスの英文を,辞書と規則に基づく方式を採用している考えられる3つの市販機械翻訳システムで処理して得た.以下,{\MTS},{\MTF},{\MTL}とする.英文と{\HUM}の{\align}および英文と各{\MT}の{\align}は,{\MTS}を得るために使用した機械翻訳システムの開発企業で試作されたソフトウェア\footnote{民間企業で開発された非公開ソフトウェアであるため,アルゴリズムは開示できない.このため,公開ソフトウェアを用いた場合にどの程度の{\ACC}が得られるかを明らかにするための追加実験を行なった.追加実験にはGIZA++\cite{Och03}を用いた.GIZA++は,隠れマルコフモデルと統計的翻訳モデル(IBMモデル)に基づく統計的{\align}手法である.実験の結果,{\MTS}で99.0\%,{\MTF}で98.5\%,{\MTL}で99.6\%,3つの{\MT}の平均で99.0\%の{\ACC}が得られた\cite{Kotani09b}.これは,\ref{sec:experiment:accuracy_mt}節で示す本稿の実験結果と同程度の{\ACC}である.}を用いて行なった.このソフトウェアでは,まず和文を形態素に分割し,日本語の形態素と英語の単語を対応付ける.{\align}処理は,対訳辞書,シソーラス,係り受け規則などを利用して行なわれる.各機械翻訳システムに約15,000文を入力文として与え,すべての機械翻訳システムで処理が正常に終了し,さらに{\align}処理が正常に終了した文を選択した結果,3つの機械翻訳システムに共通する文として最終的に12,900文ずつが得られた.{\SVM}による機械学習にはTinySVM\footnote{http://chasen.org/{\textasciitilde}taku/software/TinySVM/}を利用した.カーネル関数は1次の多項式とした.カーネル関数以外のパラメータは,標準設定されている値を使用した.3つの{\MT}のうち{\MTS}を対象として,著者ら以外の評価者3名による人手評価を行なった.評価者は全員日本語母語話者であり,平均で約6年の英日機械翻訳用辞書の開発経験がある.評価対象文として{\MTS}から500文を無作為に抽出した.3つの{\MT}すべてから500文ずつ抽出して合計1,500文を人手評価する労力は大きいため,評価の負担を抑えるために{\MTS}だけを評価対象とした.評価の観点は,{\MT}の{\FLU}と{\ADE}とした.{\FLU}については,{\MT}の日本語としての{\FLU}を100点満点で採点しその点数に該当する評価値(表\ref{tab:ade-flu}の左側)を付与するよう評価者に指示した.{\FLU}の評価では{\MT}だけを評価者に示した.{\ADE}については,英文と{\MT}を比較し,英文で伝わる情報のうちどの程度が{\MT}で伝わるかを表わす評価値(表\ref{tab:ade-flu}の右側)を付与するよう指示した.3名による評価値の中央値を評価対象文の最終的な評価値とした.100点満点での評価における1点の持つ意味は規定せずに,評価者の主観的判断に委ねた.評価型国際ワークショップIWSLTなどでの評価基準のように5段階程度での評価の場合には1段階の持つ意味を規定することができるが,100点満点での評価における1点の持つ意味を規定することは現実的に困難である.それでも100満点での評価を行なった理由は,将来人手評価値を5段階あるいは10段階などに細分化して実験を行なうときに今回の人手評価結果を再利用できることである.また,通常のテストの採点では100点満点で点数付けされることが多いためでもある.なお,{\MT}に評価値4が付与されるのは75点から100点のときであるので,評価値4が付与された{\MT}がすべて人間訳並に流暢あるいは適切であるとは限らない.\begin{table}[b]\caption{人手評価での評価基準}\label{tab:ade-flu}\input{02table02.txt}\end{table}\begin{table}[b]\caption{人手評価値の度数分布表}\label{tab:freq-ade-flu}\input{02table03.txt}\end{table}人手評価結果を表\ref{tab:freq-ade-flu}に示す.{\ADE}については,評価値が3以上である{\MT}が51.4\%を占める.一方,{\FLU}については,評価値が3以上である{\MT}は21.6\%しかない.このことから,評価対象とした機械翻訳システムに関しては,{\MT}の{\FLU}を向上させることが重要な課題であると言える.{\MT}の{\FLU}の評価結果を評価者ごとに表\ref{tab:freq-flu-each}に示す.表\ref{tab:freq-flu-each}と表\ref{tab:freq-ade-flu}の左側(3名による評価値の中央値の集計)を比較すると,評価者1と評価者2は比較的甘い評価を行ない,評価者3は比較的厳しい評価を行なったことが分かる.\subsection{{\AL}と{\NAL}の分布}\label{sec:experiment:align_distri}\ref{sec:feats}節で示した作業仮説({\HUM}より{\MT}のほうが単語対応が付きやすい)の妥当性を,実験に使用したソフトウェアによる{\align}結果において検証する.英文とその{\HUM}の間での{\align}結果に含まれる素性の延べ数と,英文とその各{\MT}の間での{\align}結果に含まれる素性の延べ数を表\ref{tab:align_distri}に示す.{\HUM}と{\MT}の間で{\AL}と{\NAL}の比率に差があるかどうかを検証するために,表\ref{tab:align_distri}の分布に対して$\chi^2$検定\footnote{$\chi^2$検定は,1条件で,各測定値が2つ以上のカテゴリのいずれか一方に分類されるときに,それぞれのカテゴリの度数の母比が,理論的に導出される特定の値と異なると言えるか否かを吟味する検定である\cite{Mori06}.}を行なった.その結果,比率の差は有意水準5\%で有意であった.さらに,{\HUM}とどの{\MT}との間で比率に差があるのかを検証するために,Ryan法による多重比較\footnote{Ryan法による多重比較は,誤差の割合の概念的単位を比較の集合に設定する際に,ステップ数によって個々の比較における有意水準を直接変化させて一対比較を行なう多重比較法である\cite{Mori06}.}を行なった.その結果,{\HUM}とすべての{\MT}の間において有意水準5\%で有意であった.このことから,{\HUM}よりも{\MT}のほうが単語対応が付きやすい傾向にあると言える.\begin{table}[b]\caption{各評価者の評価値の度数分布表}\label{tab:freq-flu-each}\input{02table04.txt}\end{table}\begin{table}[b]\caption{{\AL}と{\NAL}の出現比率}\label{tab:align_distri}\input{02table05.txt}\end{table}\subsection{機械翻訳システムと{\ACC}}\label{sec:experiment:accuracy_mt}提案手法の{\ACC}が使用した機械翻訳システムに影響を受けるかどうかを,{\MTS},{\MTF},{\MTL}を用いて検証する.これらの各{\MT}と{\HUM}を合わせた合計25,800件をそれぞれ事例集合として3つの識別器を構築した.{\HUM}はどの事例集合においても同一のものを使用した.各事例集合を5分割し,交差検定を行なった.素性としては{\AL}と{\NAL}の両方を使用した.試験事例の{\MT}に対する{\ACC}を表\ref{tab:accuracy_mt}に示す.数値は5分割交差検定の平均値である.表\ref{tab:accuracy_mt}より,使用した機械翻訳システムによらずいずれも高い{\ACC}が得られていることが分かる.\ref{sec:related_work}節で述べた先行研究\cite{Tanaka08}によると,本稿と同じ実験条件において,品詞$N$グラム($N=1,2,3$)を素性として構築した識別器で94.9\%,単語トライグラムを素性とした識別器で97.7\%の{\ACC}が得られている.本稿で得られた平均{\ACC}99.3\%は,この先行研究での{\ACC}と同程度である.\subsection{素性の種類の{\ACC}への影響}\label{sec:experiment:accuracy_feats}識別器の構築に使用する素性の種類が{\ACC}に与える影響を明らかにするために,素性として{\AL}だけを使用した場合と{\NAL}だけを使用した場合について{\ACC}を求めた.試験事例の{\MT}に対する{\ACC}’(5分割交差検定の平均値)を,{\AL}と{\NAL}の両方を用いた場合の{\ACC}と共に表\ref{tab:accuracy_feat}に示す.\begin{table}[b]\caption{提案手法の{\ACC}}\label{tab:accuracy_mt}\input{02table06.txt}\end{table}\begin{table}[b]\caption{素性の種類と{\ACC}}\label{tab:accuracy_feat}\input{02table07.txt}\end{table}{\AL}だけを用いた識別器,{\NAL}だけを用いた識別器,{\AL}と{\NAL}の両方を用いた識別器で{\ACC}の間に有意な差があるかどうかを見るために,McNemar検定\footnote{McNemar検定は,2条件における対応がある測定値が,ある特性の有無によって二分されるときに,その特性を有する母比が条件間で異なるか否かについて検定する手法である\cite{Mori06}.}を行なった.有意水準は,Bonferroni法により,比較する群数3で5\%を割った値とした.その結果,{\MTS},{\MTF},{\MTL}のいずれにおいても,すべての識別器の間で{\ACC}に有意水準1.7\%で有意差が見られた.表\ref{tab:accuracy_feat}を見ると,{\AL}と{\NAL}の両方を用いることによって最も高い{\ACC}が得られていることが分かる.また,すべての{\MT}において{\NAL}だけを用いた場合の{\ACC}が{\AL}だけを用いた場合の{\ACC}よりも高くなっている.このことから,{\HUM}と{\MT}を区別する手がかりとしては,{\NAL}のほうが{\AL}よりも有効であると言える.{\NAL}を用いたほうが{\ACC}が高くなる理由は,\ref{sec:feats}節で述べたように,{\AL}が主に{\HUM}と{\MT}の類似点を表わしているのに対して{\NAL}は主に{\HUM}と{\MT}の相違点を表わしていることであると考えられる.\subsection{事例数の{\ACC}への影響}\label{sec:experiment:accuracy_datasize}十分な{\ACC}を得るために必要な{\HUM}の数即ち対訳コーパスの量を明らかにするために,{\HUM}の数を12,900文,10,000文,7,000文,4,000文,1,000文と3,000文ずつ変化させて{\ACC}を求めた.それぞれの{\HUM}数において,{\HUM}とそれに対応する同数の{\MT}から成る事例集合を作成した.各{\HUM}数における{\ACC}(5分割交差検定の平均値)を図\ref{fig:datasize}に示す.{\HUM}の数を1,000文({\MT}と合わせた事例全体では2,000文)まで減少させても{\ACC}は95\%以上となっている.従って,比較的小規模な対訳コーパスでも十分な{\ACC}が得られると言える.\begin{figure}[b]\begin{center}\includegraphics{17-1ia2f1.eps}\end{center}\caption{{\HUM}の数と{\ACC}の関係}\label{fig:datasize}\end{figure}\subsection{{\FLU}の評価値と{\ACC}の関係}\label{sec:experiment:accuracy_hum_eval}文献\cite{Oliver01}によると,{\MT}はその翻訳品質が向上すれば,{\HUM}との違いが小さくなるため,{\HUM}との識別が困難になり,識別器の{\ACC}は低下すると予想されている.実際,文献\cite{Sun07}や文献\cite{Tanaka08}では,{\MT}を翻訳品質が上位のものと下位のものに分けたとき,下位群での{\ACC}より上位群での{\ACC}のほうが低いことが確認されている.もし,本稿で提案する手法においても{\MT}の翻訳品質が向上する(人手評価値が高くなる)につれて{\ACC}が低下することが確認できれば,提案手法の{\ACC}が低下するかどうかによって翻訳品質が向上したかどうかを判断できることになり,システム開発において提案手法を用いた自動評価が可能になる.提案手法においてこのような{\ACC}の低下が生じるかを検証する.検証には,\ref{sec:experiment:setting}節で述べた{\MTS}500文に付与された{\FLU}の評価値を利用する.検証は,{\AL}と{\NAL}の両方を用いて構築した識別器,{\AL}だけを用いた識別器,{\NAL}だけを用いた識別器のそれぞれについて行なった.各識別器について,{\MTS}500文の{\FLU}の評価値別に,正しく{\MT}と識別された文数と誤って{\HUM}と識別された文数を集計した.それらの結果を表\ref{tab:flu_both},\ref{tab:flu_align},\ref{tab:flu_nonalign}にそれぞれ示す.\begin{table}[b]\caption{{\AL}と{\NAL}による識別器の{\ACC}と{\FLU}}\label{tab:flu_both}\input{02table08.txt}\end{table}\begin{table}[b]\caption{{\AL}のみによる識別器の{\ACC}と{\FLU}}\label{tab:flu_align}\input{02table09.txt}\end{table}\begin{table}[b]\caption{{\NAL}のみによる識別器の{\ACC}と{\FLU}}\label{tab:flu_nonalign}\input{02table10.txt}\end{table}正しく{\MT}と識別された文数と誤って{\HUM}と識別された文数の間に差があるかどうかを検証するために,表\ref{tab:flu_both},\ref{tab:flu_align},\ref{tab:flu_nonalign}の各分布に対してFisherの正確確率検定\footnote{Fisherの正確確率検定は,$\chi^2$検定と同様に対応がない2条件間の比率の比較を行なう方法であるが,周辺度数に0に近い値(10以下程度)があるときに適用される\cite{Mori06}.}を行なった.その結果,正しい識別件数と誤った識別件数の割合は,{\AL}と{\NAL}の両方を用いた場合(表\ref{tab:flu_both})と{\NAL}だけを用いた場合(表\ref{tab:flu_nonalign})は有意水準5\%で有意でなかったが,{\AL}だけを用いた場合(表\ref{tab:flu_align})は有意水準5\%で有意であった.そこで,{\AL}だけを用いた場合について残差分析\cite{Tanaka05}を行なった結果,表\ref{tab:flu_align_zansa}に示すように,{\HUM}と誤識別される{\MT}の数は,{\FLU}の評価値が1か2である場合に有意水準5\%で有意に少なく,逆に,評価値が3か4である場合に有意水準5\%で有意に多かった.このことから,{\AL}だけを用いて構築した識別器の{\ACC}は,{\MT}の{\FLU}が高くなるにつれて低下すると言える.表\ref{tab:accuracy_feat}から分かるように,{\AL}のみによる識別器は,平均{\ACC}では,{\NAL}のみによる識別器にも{\AL}と{\NAL}の両方を用いた識別器にも劣る.しかし,{\ACC}の低下が見られることから,機械翻訳システムの開発において翻訳品質評価尺度として利用できることが示唆される.ただし,{\MTF}や{\MTL}を実験対象とした場合にも同様の結果が得られるかどうかの一般性の検証は今後の課題である.\begin{table}[t]\caption{表\ref{tab:flu_align}の調整済み残差}\label{tab:flu_align_zansa}\input{02table11.txt}\end{table}{\MT}は,その{\FLU}の評価値が高くなれば,{\HUM}との相違点が減少すると考えられる.このため,{\HUM}と{\MT}の相違点に相当する{\NAL}を素性とした場合も,{\FLU}の評価値が高い{\MT}は{\HUM}と誤って識別されやすくなり,{\ACC}が低下するはずである.しかし,実験では,機械学習に使用する素性に{\NAL}を含めて({\NAL}だけを用いて,あるいは{\NAL}と{\AL}の両方を用いて)構築した識別器で{\MT}の識別を行なった場合,{\FLU}の評価値が高い{\MT}でも低い{\MT}でも{\ACC}にほとんど差は出なかった.この原因は,たとえ{\FLU}の評価値が高い{\MT}であっても,{\HUM}との明らかな相違点が含まれており,{\HUM}との識別が容易に行なえることにあるのではないかと考えられる.\subsection{既存手法との比較}\label{sec:experiment:accuracy_hum_eval_meteor}提案手法を,代表的な既存手法の一つであるMETEOR\cite{Banerjee05}と比較する.比較対象をBLEUやNISTではなくMETEORとした理由は,文単位での自動評価ではMETEORのほうが良いとされているからである\cite{Banerjee05}.METEORでは,評価対象文が参照訳と照合され,両者の類似度が評価値として評価対象文に付与される.評価値は0から1の範囲をとる.一方,提案手法は,評価対象文が良い翻訳であるかそうでないかの二値判定を行なう識別器であり,評価対象文に評価値を付与するものではない.このため,提案手法とMETEORを比較するために,次のような考えでMETEORを識別器とみなすことにする.すなわち,ある閾値を設け,評価対象文に対するMETEORによる評価値がその閾値以上であれば,その評価対象文を良い翻訳であると判定する識別器とする.METEORに基づく識別器の振る舞いは,設定する閾値によって異なる.閾値が高過ぎれば厳し過ぎる評価尺度になり,逆に,低過ぎれば甘過ぎる評価尺度になる.適切な閾値を決定するために,閾値を0.1から0.9まで0.1刻みで変化させて,\ref{sec:experiment:accuracy_hum_eval}節で行なった方法で{\MTS}~500文の{\FLU}の評価値別に,閾値未満の類似度が付与された文数と閾値以上の類似度が付与された文数を集計した.適切な閾値とは,集計結果に対して正確確率検定と残差分析を行ない,最も多くの{\FLU}の階級において有意水準5\%で有意差が確認できるときの閾値であるとした.参照訳には,ロイター英日対訳コーパスにおいて英文500文に対応する和文を用いた.{\MTS}と参照訳を``茶筅''\footnote{http://chasen.naist.jp/hiki/ChaSen/}で形態素解析した結果をMETEORへの入力とした.{\MTS}と参照訳の照合には,形態素の表記を照合するexactモジュールを使用した.この結果,閾値が0.4のときに{\FLU}の3つの階級(2,3,4)において有意水準5\%で有意差が確認できた.このため,閾値を0.4に設定したときのMETEORに基づく識別器を提案手法との比較対象とする.閾値を0.4としたときの,閾値未満の類似度が付与された文数と閾値以上の類似度が付与された文数,および閾値以上の類似度が付与された文の割合を表\ref{tab:flu_meteor}に示す.括弧内の数値は調整済み残差である.\begin{table}[b]\caption{METEORに基づく識別器(閾値0.4)による判定と{\FLU}}\label{tab:flu_meteor}\input{02table12.txt}\end{table}表\ref{tab:flu_meteor}から,METEORに基づく識別器は,{\FLU}の評価値が4である文のうち33.3\%を良くない翻訳であるとみなすことが分かる.一方,提案手法は,{\FLU}の評価値が4である文のうち55.6\%を良くない翻訳であるとみなすことが表\ref{tab:flu_align}から分かる.従って,{\FLU}が高い文を正しくそのように自動評価しなければならない場合(評価の効率化が重要な場合)には,提案手法は望ましくない.しかし,{\FLU}の評価値が1である文については,METEORに基づく識別器は31.5\%を良い翻訳であるとみなすのに対して,提案手法は{\FLU}の評価値が1である文のうち4.3\%しか良い翻訳であるとみなさない.従って,機械翻訳システムの評価において{\FLU}が低い文を見落としてはならない場合には,提案手法のほうが望ましいと言える.\subsection{文レベルでの{\MT}の特徴分析}\label{sec:experiment:likeness}\ref{sec:experiment:accuracy_hum_eval}節では,提案手法がシステムレベルでの自動評価に使える可能性があることを示した.しかし,機械翻訳システムの翻訳品質を高めていくためには,単にシステム全体として{\FLU}が向上したかどうかを評価するだけでなく,{\MT}と{\HUM}の間にどのような違いがあるのかを発見し,その違いを埋めていくために取り組むべき課題を明らかにする必要がある.{\MT}と{\HUM}の間の違いを見い出す方法の一つとして,{\MT}に特徴的な素性を({\HUM}に特徴的な素性と見比べながら)観察するという方法が考えられる.{\MT}あるいは{\HUM}に特徴的な素性は,{\SVM}による機械学習で各素性に付与される重みに基づいて特定することができる.この重みの値が正ならば{\HUM}らしさを表わし,負ならば{\MT}らしさを表わす.重みの絶対値が大きいほど,{\HUM}らしさあるいは{\MT}らしさをより強く特徴付ける素性である.{\MTS}を分析対象とし,{\AL}と{\NAL}の両方を素性として用いた場合について各素性の重みを求めた.重みの絶対値が大きい素性の上位30個を表\ref{tab:effective_feats}に示す.まず,表\ref{tab:effective_feats}に示した素性のうち,一般にテキストでの出現頻度が高いと考えられる代名詞,冠詞,接続詞に関連する素性で示される特徴について議論する.\begin{enumerate}\item表\ref{tab:effective_feats}を見ると,{\HUM}には,第1位の{\NAL}nonalign\_jpn(同)や第3位のnonalign\_jpn(同氏)という素性や,第14位のnonalign\_eng(he),第20位のnonalign\_eng(we)という素性が現れている.このことは,英語の代名詞が日本語の代名詞としては表わされず,「同首相」や「同グループ」のような接頭辞「同」を持つ照応表現や「同氏」という照応表現に訳されていることを示している.一方,{\MTS}には,第6位の{\AL}align(it,それ)や第21位のlign(its,その)という素性が現れている.このことから,英語の代名詞が日本語の代名詞として直訳されていることが読み取れる.このような違いは,例えば,次の英文(E\ref{SENT:pron})に現れるweやheの訳し方に見られる.\begin{SENT2}\sentE``Wehaveanexchangeratewhichseemstometomakesense,''hetoldforeignjournalistsinRome.\sentH同首相は,ローマで外国特派員に対し,「為替レートについては妥当なものと判断している」と述べた.\sentM「我々は,私には意味をなすように思われる為替レートを持つ」と,彼は,ローマの外国人記者に告げた.\label{SENT:pron}\end{SENT2}代名詞を直訳すると,原文が伝えている意味と異なる意味を伝える翻訳文が生成されたり,文意は同じでも不自然で読みにくい翻訳文が生成されてしまうという問題が生じることがある.従って,英語での代名詞による照応を日本語では他の表現による照応として翻訳できるようにすることが重要な課題である\cite{Yoshimi01a}.\begin{table}[t]\caption{重みの絶対値が大きい素性}\label{tab:effective_feats}\input{02table13.txt}\end{table}\item{\MTS}では,第10位にalign(the,その)という素性が現れている.これは,{\MTS}では冠詞theが「その」と訳される傾向があることを意味している.{\MTS}においてtheが常に「その」と訳されるわけではないが,例えば次の英文(E\ref{SENT:the_say})に対する{\MT}(M\ref{SENT:the_say})では,thecountryが「その国」と訳されている.一方,{\HUM}(H\ref{SENT:the_say})は,代名詞の場合と同様にtheが接頭辞「同」と訳されているため,自然な翻訳文となっている.\begin{SENT2}\sentEMexicanagricultureministerFranciscoLabastidaOchoasaidthecountryneedstoraisecoffeeproductivitytoboostforeignexportincomes.\sentHメキシコのラバスティダ農牧・農村開発相は,輸出収入を増加するため,同国はコーヒーの生産性を高める必要がある,と述べた.\sentMメキシコの農業大臣FranciscoLabastidaOchoaは言った.その国は,コーヒー生産性を増大対外輸出収入に上げる必要があると.\label{SENT:the_say}\end{SENT2}\item{\MTS}における第2位のalign(and,そして)と第4位のalign(and,及び)という素性に着目して,{\MTS}と{\HUM}での接続詞andの訳し方を比較する.まず,andが複数の名詞句$NP$を結合している表現``$NP_1$and$NP_2$''を含む英文の{\HUM}と{\MTS}を調査した.{\HUM}では,andは読点や「と」,「や」,「および」などに訳し分けられていた.一方,{\MTS}では,(M\ref{SENT:and_np})のように常に「,及び,」と訳されており,やや大袈裟な印象を受ける.\begin{SENT2}\sentEViratsaidinvestorswereworriedabouttheThaieconomyandthecoalitiongovernment'sstability.\sentHVirat氏は,投資家は,タイ経済と連立政権の安定性を懸念している,と指摘した.\sentMViratによれば,投資家は,タイの経済,及び,連立政権の安定性について心配した.\label{SENT:and_np}\end{SENT2}{\MTS}以外の二つの{\MT}についても同様の調査をしたところ,{\MTF}では「と」,「,および」,「そして」などにほぼ適切に訳し分けられていた.また,{\MTL}では常に「と」と訳されていた.{\MTS}においても,{\MTF}や{\MTL}のような訳し分けを実現することはそれほど困難ではないと考えられる.次に,andが複数の動詞句を結合している表現を含む英文の{\HUM}と{\MTS}を調査した.その結果,{\HUM}ではandは動詞の連用形に訳されているのに対して,{\MTS}では(M\ref{SENT:and_vp})のように常に「〈動詞の連用形〉,そして,」と訳されていた.\begin{SENT2}\sentEJapanistheworld'sleadingconsumerofpalladiumandRussiaistheworld'slargestexporter.\sentH日本は世界的にも大口のパラジウム消費国であり,ロシアは世界最大の輸出国.\sentM日本は,パラジウムの世界の主要な消費者であり,そして,ロシアは,世界で最も大きな輸出業者である.\label{SENT:and_vp}\end{SENT2}また,我々の調査範囲では,{\MTF}と{\MTL}では常に「〈動詞の終止形〉,そして,」と訳されていた.andが複数の動詞句を結合している場合,動詞を連用形にして,andを「そして」と訳さないようにすることもそれほど困難ではないと考えられる.\end{enumerate}次に,表\ref{tab:effective_feats}\,に示した素性のうち,実験に使用したコーパスが報道記事であることに起因すると考えられる動詞の訳し分けと時間表現について議論する.\begin{enumerate}\item{\MTS}では,第11位にalign(say,言う)という素性が現れている.一方,{\HUM}では,第23位のnonalign\_jpn(述べる)や第24位のnonalign\_jpn(語る)という素性が現れている.「述べる」や「語る」を含む{\HUM}(例えば(H\ref{SENT:the_say})など)を調査したところ,「述べる」や「語る」に対応する英語表現はsayであることが多かった.実験に用いたコーパスには記者会見やインタビューでの発言が含まれているが,このような発言では,sayを「言う」と訳すより「述べる」や「語る」などと訳したほうが適切であることが多いため,sayの柔軟な訳し分けを実現する必要がある.\item{\MTS}では,第17位にalign(onWednesday,水曜日に),第20位にalign(onThursday,木曜日に),第26位align(onTuesday,火曜日に)という素性が現れている.このことから,{\MTS}では(M\ref{SENT:time})のように曜日が忠実に訳されていることが読み取れる.一方,{\HUM}では,第7位にnonalign\_eng(Wednesday),第11位にnonalign\_eng(Monday),第17位にnonalign\_eng(Thursday)という素性が現れている.このことは,次の{\HUM}(H\ref{SENT:time})のように,曜日が直訳されていないことを示している.\begin{SENT2}\sentEThesenateisexpectedtobegindebateontheamendmentonWednesday.\sentH上院での同案の審議は,5日から開始される見通し.\sentM上院は,水曜日に修正に関して討論を始めることを期待されている.\label{SENT:time}\end{SENT2}{\HUM}で曜日が直訳されていない理由は,英語の報道記事では時間を曜日で表わすのに対して,日本語の記事では日付で表わすという文体上の違いにある.{\align}結果という素性によってこのような文体的な違いも浮き彫りになることは興味深い.\end{enumerate} \section{おわりに} 本稿では,{\HUM}と{\MT}を訓練事例とした機械学習によって構築した識別器を用いて{\MT}の{\FLU}を自動評価する手法について述べた.提案手法では,{\HUM}と{\MT}の{\FLU}の違いを捉える手がかりとして,英文と{\HUM}の間,および英文と{\MT}の間で{\align}を行なった結果を利用した.提案手法は,識別器を構築する際に対訳コーパスを必要とするが,評価対象文を評価する際には参照訳を必要としない.さらに,大量の訓練事例に{\FLU}の評価値を付与する必要もない.検証実験の結果,(1)提案手法は,素性として{\AL}だけを使用した場合,93.7\%の{\ACC}で{\HUM}と{\MT}の識別が可能であることと,(2){\MT}を{\FLU}の側面から4段階に分けて{\ACC}の低下を正確確率検定と残差分析で検定したところ,{\FLU}の評価値が上がるにつれて,{\AL}だけを素性とした場合の提案手法の{\ACC}が有意水準5\%で有意に低下することが確認できた.この{\ACC}の低下傾向は,提案手法によってシステムレベルでの評価を支援できることを示唆している.さらに,{\SVM}による機械学習で各素性に付与される重みに基づいて{\MT}に特徴的な素性を特定することができるため,このような素性を含む文を観察することによって文レベルでの特徴分析を行なうこともできる.今後の課題は,辞書と規則に基づく方式以外の機械翻訳システム,英語と日本語以外の言語対,報道記事以外のテキストなど様々な設定条件の下で提案手法の有効性の検証を行なうことである.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Albrecht\BBA\Hwa}{Albrecht\BBA\Hwa}{2007a}]{Albrecht07a}Albrecht,J.~S.\BBACOMMA\\BBA\Hwa,R.\BBOP2007a\BBCP.\newblock\BBOQ{ARe-examinationofMachineLearningApproachesforSentence-LevelMTEvaluation}.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\880--887}.\bibitem[\protect\BCAY{Albrecht\BBA\Hwa}{Albrecht\BBA\Hwa}{2007b}]{Albrecht07b}Albrecht,J.~S.\BBACOMMA\\BBA\Hwa,R.\BBOP2007b\BBCP.\newblock\BBOQ{RegressionforSentence-LevelMTEvaluationwithPseudoReferences}.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\296--303}.\bibitem[\protect\BCAY{Banerjee\BBA\Alon}{Banerjee\BBA\Alon}{2005}]{Banerjee05}Banerjee,S.\BBACOMMA\\BBA\Alon,L.\BBOP2005\BBCP.\newblock\BBOQ{METEOR:AnAutomaticMetricforMTEvaluationwithImprovedCorrelationwithHumanJudgments}.\BBCQ\\newblockIn{\BemProceedingsoftheACLWorkshoponIntrinsicandExtrinsicEvaluationMeasuresforMachineTranslationand/orSummarization},\mbox{\BPGS\65--72}.\bibitem[\protect\BCAY{Corston-Oliver,Gamon,\BBA\Brockett}{Corston-Oliveret~al.}{2001}]{Oliver01}Corston-Oliver,S.,Gamon,M.,\BBA\Brockett,C.\BBOP2001\BBCP.\newblock\BBOQ{AMachineLearningApproachtotheAutomaticEvaluationofMachineTranslation}.\BBCQ\\newblockIn{\BemProceedingsofthe39thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\148--155}.\bibitem[\protect\BCAY{Doddington}{Doddington}{2002}]{Doddington02}Doddington,G.\BBOP2002\BBCP.\newblock\BBOQ{AutomaticEvaluationofMachineTranslationQualityUsingN-gramCo-OccurrenceStatistics}.\BBCQ\\newblockIn{\BemProceedingsofthe2ndHumanLanguageTechnologiesConference},\mbox{\BPGS\128--132}.\bibitem[\protect\BCAY{Gamon,Aue,\BBA\Smets}{Gamonet~al.}{2005}]{Gamon05}Gamon,M.,Aue,A.,\BBA\Smets,M.\BBOP2005\BBCP.\newblock\BBOQ{Sentence-levelMTevaluationwithoutreferencetranslations:Beyondlanguagemodeling}.\BBCQ\\newblockIn{\BemProceedingsofEAMT10thAnnualConference},\mbox{\BPGS\103--111}.\bibitem[\protect\BCAY{Kotani,Yoshimi,Kutsumi,\BBA\Sata}{Kotaniet~al.}{2009}]{Kotani09b}Kotani,K.,Yoshimi,T.,Kutsumi,T.,\BBA\Sata,I.\BBOP2009\BBCP.\newblock\BBOQ{ValidityofanAutomaticEvaluationofMachineTranslationUsingaWord-alignment-basedClassifier}.\BBCQ\\newblockIn{WenjieLiandDiegoMoll{\'a}-Aliod}\BED,{\Bem{ComputerProcessingofOrientalLanguages:LanguageTechnologyfortheKnowledge-BasedEconomy}},\lowercase{\BVOL}\5459of{\Bem{LectureNotesinArtificialIntelligence}},\mbox{\BPGS\91--102}.{Springer}.\bibitem[\protect\BCAY{Kulesza\BBA\Shieber}{Kulesza\BBA\Shieber}{2004}]{Kulesza04}Kulesza,A.\BBACOMMA\\BBA\Shieber,S.~M.\BBOP2004\BBCP.\newblock\BBOQ{ALearningApproachtoImprovingSentence-LevelMTEvaluation}.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonTheoreticalandMethodologicalIssuesinMachineTranslation},\mbox{\BPGS\75--84}.\bibitem[\protect\BCAY{森\JBA吉田}{森\JBA吉田}{2006}]{Mori06}森敏昭\JBA吉田寿夫(編著)\BBOP2006\BBCP.\newblock\Jem{{心理学のためのデータ解析テクニカルブック}}.\newblock北大路書房.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2003}]{Och03}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQ{ASystematicComparisonofVariousStatisticalAlignmentModels}.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf29}(1),\mbox{\BPGS\19--51}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{Papineni02}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.\BBOP2002\BBCP.\newblock\BBOQ{BLEU:aMethodforAutomaticEvaluationofMachineTranslation}.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Paul,Finch,\BBA\Sumita}{Paulet~al.}{2007}]{Paul07a}Paul,M.,Finch,A.,\BBA\Sumita,E.\BBOP2007\BBCP.\newblock\BBOQ{Translationqualitypredictionusingmultipleautomaticevaluationmetrics}.\BBCQ\\newblock\Jem{言語処理学会第13回年次大会発表論文集},\mbox{\BPGS\95--98}.\bibitem[\protect\BCAY{Quirk}{Quirk}{2004}]{Quirk04}Quirk,C.~B.\BBOP2004\BBCP.\newblock\BBOQ{TrainingaSentence-LevelMachineTranslationConfidenceMeasure}.\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\825--828}.\bibitem[\protect\BCAY{隅田\JBA佐々木\JBA山本}{隅田\Jetal}{2005}]{Sumita05}隅田英一郎\JBA佐々木裕\JBA山本誠一\BBOP2005\BBCP.\newblock機械翻訳システム評価法の最前線.\\newblock\Jem{情報処理},{\Bbf46}(5),\mbox{\BPGS\552--557}.\bibitem[\protect\BCAY{Sun,Liu,Cong,Zhou,Xiong,Lee,\BBA\Lin}{Sunet~al.}{2007}]{Sun07}Sun,G.,Liu,X.,Cong,G.,Zhou,M.,Xiong,Z.,Lee,J.,\BBA\Lin,C.\BBOP2007\BBCP.\newblock\BBOQ{DetectingErroneousSentencesusingAutomaticallyMinedSequentialPatterns}.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\81--88}.\bibitem[\protect\BCAY{田中\JBA南條\JBA吉見}{田中\Jetal}{2008}]{Tanaka08}田中元貴\JBA南條浩輝\JBA吉見毅彦\BBOP2008\BBCP.\newblock{機械翻訳文と人間による翻訳文で構築した識別器による機械翻訳システムの自動評価}.\\newblock\Jem{言語処理学会第14回年次大会発表論文集},\mbox{\BPGS\865--868}.\bibitem[\protect\BCAY{田中\JBA山際}{田中\JBA山際}{2005}]{Tanaka05}田中敏\JBA山際勇一郎\BBOP2005\BBCP.\newblock\Jem{{新訂ユーザーのための教育・心理統計と実験計画法}}.\newblock教育出版.\bibitem[\protect\BCAY{Utiyama\BBA\Isahara}{Utiyama\BBA\Isahara}{2003}]{Uchiyama03}Utiyama,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2003\BBCP.\newblock\BBOQ{ReliableMeasuresforAligningJapanese-EnglishNewsArticlesandSentences}.\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\72--79}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1998}]{Vapnik98}Vapnik,V.~N.\BBOP1998\BBCP.\newblock{\Bem{StatisticalLearningTheory}}.\newblockWiley-Interscience.\bibitem[\protect\BCAY{吉見}{吉見}{2001}]{Yoshimi01a}吉見毅彦\BBOP2001\BBCP.\newblock英日機械翻訳における代名詞翻訳の改良.\\newblock\Jem{自然言語処理},{\Bbf8}(3),\mbox{\BPGS\87--106}.\end{thebibliography}\begin{biography}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.1999年神戸大学大学院自然科学研究科博士課程修了.(財)計量計画研究所(非常勤),シャープ(株)を経て,2003年より龍谷大学理工学部勤務.2004年より2008年まで(独)情報通信研究機構専攻研究員を兼任.}\bioauthor{小谷克則}{2004年関西外国語大学外国語学研究科博士課程修了(英語学博士).2002年より2008年まで(独)情報通信研究機構特別研究員.2004年より関西外国語大学外国語学部勤務.}\bioauthor{九津見毅}{1990年大阪大学大学院工学研究科修士課程修了(精密工学—計算機制御).同年シャープ株式会社に入社.現在,同社ビジネスソリューション事業本部要素技術開発センター新規事業開発室主事.1990年より機械翻訳システムの研究開発に従事.}\bioauthor{佐田いち子}{1984年北九州大学文学部英文学科卒業.同年シャープ(株)に入社.現在,同社ビジネスソリューション事業本部要素技術開発センター新規事業開発室副参事.1985年より機械翻訳システムの研究開発に従事.}\bioauthor{井佐原均}{1978年京都大学工学部卒業.1980年同大学院修士課程修了.博士(工学).1980年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.情報通信研究機構上席研究員を経て,現在,豊橋技術科学大学情報メディア基盤センター教授.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,各会員.}\end{biography}\biodate\end{document}
V10N02-02
\section{はじめに} アンケート調査は,さまざまな社会的問題を解決するために,問題解決に関連する人々あるいは組織に対して同じ質問を行い,質問に対する回答としてデータを収集・解析することによって,問題解決に役立つ情報を引き出していくという一連のプロセスである\cite{arima:87}.質問に対する回答には選択型と自由記述型があるが,一般には回答収集後の解析のコストを避けるために,選択型のアンケートを行うことが多い.したがって,従来は選択型アンケートを行うための予備調査として小規模に実施する,あるいは選択型アンケートの中で調査者が想定できなかった選択項目,例えば選択肢以外の「その他」に相当する回答と位置付けられていた.しかし,近年,インターネットの普及やパブリック・インボルブメントに対する関心の高まりから,想定できる意見を選んでもらうのではなく,回答者の自由な個々の意見を聞くことが重視されている.その結果,自由回答が選択型アンケートと同様に大規模に実施されるようになってきている\cite{voice_report:96}.また,狭義にはアンケート調査によって得られる自由回答とは異なるが,企業のホームページの掲示板やコールセンターなどに寄せられる消費者のメールや意見,地方自治体や政府のホームページに集まる住民からのメールは,自由回答同様に意見集約の対象とみなすことができる\cite{nasukawa:01,yanase:02}.われわれは,これらの意見も自由回答と同様に扱えると考えている.アンケートの自由回答は,このように交通計画や都市計画の分野をはじめ\cite{suga:97,matsuda:98,takata:00},テレビ番組に対する視聴者の印象\cite{hitachi:00}などマーケティング・リサーチ対象としても注目されている.自由回答の解析は,回答の内容にしたがった人手による分類作業(コーディング)と因子分析などによる解析を軸に行われる.コーディングの際に広く一般的に用いられるKJ法は,回答を一件ずつ読んで類似する内容の回答ごとにグルーピングするため,大量のアンケート結果に対しては多大なコストがかかる.作業コストの大きさに加え分類時の判断の主観性についても懸念されている.また,回答を回収しても,解析されないまま終わることが多いことも指摘されている\cite{arima:87}.本研究のねらいは,これらのコーディングの過程にテキスト処理の技術を取り入れることにより,人手作業のコストを軽減し,意見集約の対象データとして,自由回答に記述された意見を活用することである.テキストからの情報抽出や,要約・自動分類などの要素技術が蓄積されてきている言語処理技術を用いれば上記の問題を解決できる可能性がある.テキスト分類は,分類カテゴリを検索質問とみなした場合,情報検索と同じ問題と考えることができる.したがって,テキストと分類カテゴリの類似度計算,テキストに対してもっとも類似しているカテゴリの付与といった自動分類の基本的な手続きにおいて,ベクトル空間モデルを用いた場合\cite{salton:88},確率モデルを用いた場合\cite{robertson:76,iwayama:94},規則に基づくモデルを用いた場合\cite{apte:94}など情報検索の基礎技術を利用できる.言語処理におけるテキスト分類では,新聞記事テキストが対象になることが多い.新聞を対象とする分類の場合,多岐に渡る内容を類似する記事ごとにまとめることが目的となる.新聞記事全体を対象にする場合には経済・社会・政治・スポーツなどの分野に,それらの各分野を対象とする場合には,さらに詳細化した内容に分類される.アンケート調査の自由回答テキストは一般に,上記に挙げた新聞の分野に基づく分類項目よりも,さらに分野に特化したテーマにおいて,そのテーマに対する様々な意見や提案が述べられている\cite{voice_report:96}.同じ設問に対する回答であっても,内容語が必ずしも一定でなく,また,先に述べたとおり設問に対して回答者がどのような意見を持っているのかといった回答者の意図が重要になってくる.しかし,従来の自由回答テキストの処理では,分析・分類対象を表す特徴的キーワードによる研究が主である\cite{suga:97,oosumi:97,li:01}.尚,「意図」という用語については,さまざまな分野で異なった定義がなされている.言語行為論のように発話(回答)の意味を聞き手に対して命令や謝罪といった意図を話者が伝えようとする行為と捉える立場もある\cite{searle:69}.統語論では「表現意図を言語主体が文全体にこめるところの,いわゆる命令・質問・叙述・応答などの内容のこと」と定義され,文の表現形式と対応させている\cite{kokken:60}.また,人工知能や言語処理において対話理解の手法であるプラン認識では,意図は信念と同様話者の心的状態であり,信念と欲求から作られる,「何かをするつもりである」ものとする.このように「意図」の定義はさまざまであるが,本論文での意図は,統語論における意図の考え方に近く「表層の情報から得られる調査者の回答者に対する態度」とする.意図を判定する手がかりになる表現形式があると考え,表層的な情報から意図の抽出および分類が行えると考えている.近年,自然言語処理の分野においても,アンケートの設問に対してどのようなことが回答されているかという観点から,すなわち回答者が何を答えているかという観点から自由回答をデータとして言語処理を行う際の問題点が議論され始めている\cite{lebart:98}.この流れは,従来のような高頻度語や内容語を分析の手がかりとする分類手法では不十分であり,内容だけでなく内容に対して「どのように捉えているか」「どのように考えているか」といった回答者の意図を把握するための分類を行う必要があることを示している.\begin{figure}[t]\begin{center}\leavevmode\epsfile{file=clip001.eps,width=\columnwidth}\caption{自由回答アンケートからの意図抽出処理アプローチ}\label{fig:figure1}\end{center}\end{figure}以上を踏まえ,本研究では\fig{figure1}に示したように,内容を表す名詞だけでなく,自由回答に現れた文末表現や接続表現に着目し,分析的に研究を進めている\cite{inui:98:a,inui:01:a,inui:01:b}.\cite{inui:01:a}では,文末表現の類型を意味の違いと単純に結びつけずに,回答に対して「てほしい」という表現を加えた文に言い換えることができるかどうかによる判定を導入することによって表層の表現にこだわらず,回答者の要求意図を特定する方法を提案している.また,\cite{inui:01:b}では,人の推論プロセスを規則化することにより,要求意図が明示されていない意見から要求意図を取り出す方法について提案している.同時に,学習を用いた自動分類の可能性についても研究を進めている\cite{inui:98:b,inui:01:c}.このように本研究では,人手による分析・規則作成の手法と統計的手法を並行して進めながら自由回答から回答者の意図を抽出する手法について,より適切な処理を目指している.また,\fig{figure1}の曲線矢印に示すように,それぞれの作業プロセスの結果をフィードバックしている.本論文では回答者の意図を考慮した統計的手法による自動分類についての実験とその結果の考察について報告する.自由回答テキスト約1000文に対し,タグ付与実験によって決めた賛成,反対,要望・提案,事実といった,回答が意図するタグ(以下「意図タグ」と呼ぶ)を各回答文に付与する.これらのデータに対し表層表現の類似性に着目することによって,最大エントロピー法(ME法)を用いた分類実験を行う.分類結果をもとに,自由回答テキストから回答者の意図を抽出し分類するための手がかりとなる表現,および表現間の関係について考察する. \section{自由回答とは} \label{sec:enquete}本章では,アンケート調査および自由回答,自由回答に関する研究ならびに自由回答の分類・分析に関する社会的ニーズについて述べる.\subsection{アンケート調査の方法と自由回答}冒頭にも述べたように,アンケート調査はさまざまな社会的問題を解決するための手段である.アンケート調査を実施する際には,調査目的をはじめとするさまざまな制約に照らし合わせ,下記の要素を選択することが必要である.\begin{itemize}\itemアンケート調査の目的\item調査の内容(意識調査,行動調査)\item調査対象(個人,世帯,法人)\item調査の実施方法(面接調査,郵送調査,電話調査)\item回答の形式(選択型,自由回答型)\end{itemize}調査の目的すなわち問題解決の種類からアンケートを分類すると,\tab{enquete_type}に示した7タイプを挙げることができ\cite{arima:87},これは,調査の実施方法や回答の形式を決定する際にも大きく影響する.実施方法については,面接調査・郵送調査・電話調査の三種がおもに行なわれている.これらの調査に関する回答や観察結果を記録するのが調査票であり,調査票における回答様式の一形態が自由回答である.回答様式には,回答の自由な形式と限定される形式がある.限定される形式ではyes-no質問型に代表される2項選択型や,複数の選択肢を用意した多肢選択法・分類法・一対比較法・SD法などがある.\begin{table}[t]\begin{center}\leavevmode\caption{アンケート調査のタイプ\cite{arima:87}}\label{tab:enquete_type}\begin{tabular}{|l|l|l|}\hline&\multicolumn{1}{c|}{アンケート調査の目的}&\multicolumn{1}{c|}{調査例}\\\hline\hline\cir{1}&基礎的な統計資料を得るため&国勢調査,官公庁の事業所統計\\\hline\cir{2}&問題発見のため&ブランドリサーチなどの市場調査\\\hline\cir{3}&問題の原因や構造を解明するため&さまざまな意識調査\\\hline\cir{4}&問題の解決策を探るため&製品・サービスの開発戦略のための消費者調査\\\hline\cir{5}&問題の解決策を選択するため&広告コピー決定のための広告調査\\\hline\cir{6}&問題の解決策の実行可能性を探るため&新商品の試用テスト,嗜好テスト\\\hline\cir{7}&予測のため&選挙の結果予測,商品の需要予測\\\hline\end{tabular}\end{center}\end{table}回答の自由な形式には,言語連想法・文章完成法の形式とともに自由回答法がある\cite{tsuzuki:75}.一般に,回答が限定される方式では,回答のしやすさ,質問の意味の通じやすさ,データ解析の容易さにおいて利点がある.したがって,\tab{enquete_type}の\cir{1}に示した基礎的な統計資料を得るために行うアンケートをはじめとして,多くのアンケート調査は選択型回答が採用される.自由回答では回答の特徴が選択型回答と逆に現れるので,欠点として,回答しにくいために無回答が増える,的外れの回答がある,コーディングに時間がかかるといった問題が挙げられる\cite{tsuzuki:75,asai:87,arima:87}.また,自由回答のコーディングは,人手作業の手間の問題だけでなく,結果の解釈に関する調査者の主観についても指摘されている\cite{tsuzuki:75}.このため,自由回答は選択型アンケート調査の予備調査としてか,あるいは,\tab{enquete_type}の\cir{2}や\cir{4}に示したような問題発見に多く利用されてきた.\subsection{自由回答のコーディング}アンケートのコーディングは次の三段階の作業過程から成り立っている\cite{tsuzuki:75}.\begin{enumerate}\item回答に対する分類カテゴリの決定\item各分類カテゴリに対する記号の決定とコード表の作成\item集計カード・コーディング表の作成と回答の記号化作業\end{enumerate}分類カテゴリ上記のコーディング過程のうち,もっとも重要なのは(1)の分類カテゴリの決定と言われており,とくに自由記述形式の分類では,分類カテゴリを発見,構成すること自体が研究目的となることもある.分類カテゴリの決定において,分類を行う目的となるのは原則的に,i)自由記述形式のアンケート,ii)探索的研究(\tab{enquete_type}の\cir{4}\cir{6})のアンケートの二点と言われている\cite{tsuzuki:75}.前者では回答から「典型」を抽出・発見し,出現頻度に関係のないカテゴリの型を区別すること,すなわち分類カテゴリの樹立そのものが重要である.後者では出現頻度とも関連させた「意味のある傾向」を得ること,すなわちデータマイニングから特定の分類カテゴリを得ることが重要である.分類カテゴリを作成するにあたっては,その作成過程において仮説検証的な作業を繰り返す.すなわち,機能的分類と演繹的分類を繰り返し行うことにより調査目的に適った分類カテゴリを作成していく.一般に,探索的研究においては自由記述形式のアンケートを行うことが多いが,この対応は必然ではなく,むしろコーディング過程では区別すべき点である.自由回答のコーディングはこれら一連の作業過程に大きなコストがかかるため,先に述べたとおり,本研究ではコーディング支援のための分類を目標としている.また,分類カテゴリの決定については,あくまで原則であり,調査の目的およびデータの性質などに依存するため,唯一決定的なものが存在するわけではないことも言及されている\cite{tsuzuki:75}.\subsection{自由回答に関する研究}\label{ssec:related_work}研究の手法として社会調査が盛んである社会科学系の研究分野および心理学系の研究分野では,自由回答は重視されてこなかった.しかし,すでに述べたように,自由記述型アンケートの回答を意見集約や問題解決の材料とするニーズは高まってきており,近年,自由回答の分析方法に対する自動・半自動処理の検討も盛んになってきた\cite{oosumi:97,hitachi:00,takahashi:00}.従来の自由回答に関する研究は,分析の対象が自由回答であっても,分類・分析の手法は手作業が中心であったり\cite{suga:97},回答の内容語を手がかりに半自動的に行われたりするものである\cite{oosumi:97}.これらの研究はキーワードに着目した内容分類,すなわち従来のテキスト分類に近い.社会学分野において自動分類を目指した研究に,言語処理技術を用いて格フレームを利用した職業コード自動分類システムの開発がある\cite{takahashi:00}.ここで対象とする自由回答は一語もしくは比較的単純な構造の一文であり,取り出す情報は名詞を中心としている.また,言語処理分野においては統計的学習手法を用いてテキストマイニングを行っている研究がある\cite{li:01}.本研究では,回答者の意図を分類することを目的としているのに対し,李らの研究では,ある回答の記述対象に対する特徴表現を取り出すことを目的としている.回答の対象(例えば「車」)についての自由回答に現れた頻度の高い単語と,その回答が属するカテゴリ(例えば「ブランド」)との相関関係から分類ルールと相関ルールという二種類の規則を学習する.この学習は,分類ルールとして取り出されたキーワードとその特徴的な強さ,および頻度という構造をもった確率分布のクラスから統計的モデル選択を行うことに相当する.これにより,頻出単語でなく,ある分析対象の特徴イメージを取り出している.先に述べたように,現在進められている自由回答の自動分類に関する研究は萌芽的なものであるが,自由回答に関する分類・分析手法への期待は近年高まってきている.例えば,都市計画や交通計画において計画主体側が住民の意見を広く収集するような場合である.このように計画主体側が住民側に働きかけて,計画の策定に関与してもらうプロセスをパブリック・インボルブメント(PI)という.本研究で対象にした自由回答テキストもPI方式によるアンケート調査の回答である.計画の初期に市民に関心を持ってもらう,また計画の実現段階で市民の意見を計画に反映させるなどの目的でさまざまなパブリック・インボルブメント手法が提案・検討されており,そのひとつに意識調査がある.この意識調査は,標本抽出などを行わないインフォーマルな形式でのアンケートとして実現されることもある\cite{saishu:98}.現在のところパブリック・インボルブメントの方法および効果と,アンケートの方法・形式との関係はまだ十分議論されていない.自由記述型アンケートの設計方法やその回答テキストを効率的に処理する方法は,今後この分野において議論が高まると考えられる.\subsection{本研究で用いた自由回答テキスト}本研究で対象とした自由回答テキストについて説明する.われわれが使用したボイス・レポートとは,道路審議会基本政策部会「21世紀の道を考える委員会」が平成8年5月から7月に実施したアンケート調査の自由回答である.将来的な道路計画に市民の声を活かす目的で行われた調査で,回答人数35,674人,回答数(意見数)113,316件の大規模調査である.意見は,ハガキ,封書,FAX,電子メールによる回答の他,ホームページへの書き込みによって集められている.\begin{figure}[t]\begin{center}\leavevmode\epsfile{file=clip002.eps,width=.6\columnwidth}\caption{対象としたアンケート調査の質問形式}\label{fig:figure2}\end{center}\end{figure}質問形式は\fig{figure2}に示したように,あらかじめ設定された12個の交通に関連するテーマから回答者が関心の高いものを選択し回答する.回答形式は120字程度の文字を記入できる回答欄に自由に意見を書くことができ,書ききれない場合は別紙に記入できる自由記述形式である.しかし,\fig{figure2}の下部に示したように,各テーマに対して4〜5個の参考意見およびグラフや図などの参考資料が提示されているため,選択型設問形式の性質も帯びている.例えば,「Aさんに賛成」「Bさんの意見に同感」といった選択型回答に近い回答例があり,これらは全体の1\,\%程度を占めている. \section{意図タグの作成} ここでは,本研究における自由回答テキストの分類手法について述べる.本論文の冒頭で述べたように,自由回答テキストの分類では賛成,反対,提案といった回答ごとの意図によって分類することが重要である.そこで,分類タグを定義し,そのタグをテキストに自動付与することにより意図に基づく回答の分類を行う.次節では,まず,分類タグの決定および決定のための試行実験について述べる.ここで決定されたタグを意図タグ,また意図タグの付与されたデータを意図タグつき正解データと呼ぶ.\ssec{answer}では意図タグつき正解データについて説明する.\subsection{意図タグ決定のプロセス}\label{ssec:process}意図タグを決定するにあたり,まず,1)どのようなタグを用意するのか,また,2)どのような単位に対して付与するのか,などの検討が必要である.しかし,先に述べたように自由回答をどのように分類すべきかに関する十分な知見がまだない.また,自由回答の分類にあたっては,調査者が必要とする分類カテゴリを作成することが重要と考える.したがって,本研究では,アンケートの実施側になりうる都市計画・交通計画の研究者へのヒアリングをもとに,アンケート分類の初期段階として,少なくとも「賛成」「反対」「提案」の区別を可能にすることを目標とした.そして,タグ付与実験を行い,その結果から試験的に意図タグを決定した.\begin{table}[t]\begin{center}\leavevmode\caption{タグ付与例}\label{tab:tagging_example}\begin{tabular}{|l|c|l|l|l|}\hline\multicolumn{1}{|c|}{例文}&\multicolumn{1}{c|}{作業者}&\multicolumn{1}{c|}{タグ1}&\multicolumn{1}{c|}{タグ2}&\multicolumn{1}{c|}{タグ3}\\\hline\hlineたとえば,見通しの良い道路空間,&\multicolumn{1}{c|}{A}&{\bf提案}&具体案&例示\\\cline{2-5}曲線が緩やかな道路線形,トンネル&\multicolumn{1}{c|}{B}&意思表示&方策の{\bf提案}&具体案の{\bf提案}\\\cline{2-5}内の照明をもっと明るく,幅員も余&\multicolumn{1}{c|}{C}&予定&要望&新規{\bf提案}\\\cline{2-5}裕あるものとする.&\multicolumn{1}{c|}{D}&例示&主張&{\bf提案}:主張:具体:直接\\\hline\end{tabular}\end{center}\end{table}タグ付与実験では\tab{tagging_example}に示すように,100文のテストデータを対象に,筆者ら4人が作業者A〜Dとして個別に,「賛成」「反対」「提案」以外のタグの種類は固定せず自由に意図タグ付与の試行実験を行った.また,回答の表現に左右されずに回答者の意図をタグとして表現するよう留意した.タグを付与する範囲は,一回答中に複数の文が含まれていれば,それぞれの文に意図タグを付けた.意図タグを一回答ごとではなく回答中の一文ごとに付与したのは,あるテーマに対する一つの自由回答にも賛成意見や部分的な反対意見,また提案など複数の意図が含まれているためである.また,本論文では,回答中の談話構造を考慮していないため回答文ごとに付与した.さらに,意図のタグを各文一つに決定するのではなく,観点が異なる場合を考慮して3個までつけられるようにした.3個の区別は,作業者それぞれによって異なり,a)文の表層的な意味と回答者の意図,b)意図の詳細化,c)異なる観点による意図,など違いがあった.この試行実験のタグ付与テキストを各作業者が持ち寄り,検討した結果,\tab{tagging_example}のボールド体で示されるように共通して記述された意図を意図タグとした.例えば,\tab{tagging_example}に見られるように,同じ例文に対して作業者全員が共通して記述した「提案」をこの例文の意図タグとした.この検討によって,6個の意図タグと下位分類タグを用意することにした.\tab{intention_tag}に意図タグの種類と各タグの説明を記述する.\begin{table}[t]\begin{center}\leavevmode\caption{意図タグ}\label{tab:intention_tag}\begin{tabular}{|ll|l|}\hline\multicolumn{2}{|c|}{意図タグおよび下位タグ}&\multicolumn{1}{|c|}{タグの説明}\\\hline\hlineメタ&&アンケート自体に言及したもの\\\hline\multicolumn{2}{|l|}{賛成}&賛意を示したもの\\\cline{3-3}&個人&Aさん,Bさんなど参照意見に対する賛意\\\cline{3-3}&政策&政策一般に対する賛意\\\hline\multicolumn{2}{|l|}{反対}&反意を示したもの\\\cline{3-3}&個人&Aさん,Bさんなど参照意見に対する賛意\\\cline{3-3}&政策&政策一般に対する賛意\\\hline\multicolumn{2}{|l|}{要望・提案}&なんらかの要求があるもの.また,なんらかの案を示したもの\\\cline{3-3}&具体&要望や提案が具体的なもの\\\cline{3-3}&抽象&要望や提案が抽象的なもの\\\hline\multicolumn{2}{|l|}{事実}&事実あるいは事実の認識を述べたもの\\\cline{3-3}&ポジティブ&捉え方が肯定的なもの\\\cline{3-3}&ネガティブ&捉え方が否定的なもの\\\cline{3-3}&中立&捉え方が中立的なもの\\\cline{3-3}&主張&意見の個人性が強いもの\\\hline\multicolumn{2}{|l|}{疑問}&表層的に疑問文であるもの\\\hline\end{tabular}\end{center}\end{table}\sec{enquete}で述べたように,自由回答の分類では,分類カテゴリ自体をどのように作成するかが重要であり,仮説検証的な分類を繰り返し行う.したがって,実験的に作成した\tab{intention_tag}のカテゴリは最終的な分類結果ではない.しかし,ここでは,1)調査者側の立場からのヒアリング,および2)複数の作業者による実験的作業によって決定されたタグであることから,これらを採用し意図タグとする.また,ME法を用いたことにより,これらのカテゴリの元で分類された実験結果からカテゴリと回答の表現との対応を分析したうえで,分類カテゴリを再定義することができる点は自由回答のコーディング支援に適しているといえる.\begin{table}[t]\begin{center}\leavevmode\caption{意図タグ付き正解データ}\label{tab:data_collection}\begin{tabular}{|l|l|l|}\hline\multicolumn{1}{|c|}{意図タグ}&\multicolumn{1}{c|}{下位タグ}&\multicolumn{1}{c|}{タグが付与されるテキスト事例}\\\hline\hlineメタ&&テーマ番号2以降の内容と重複するので回答が難しい.\\\cline{3-3}&&もう一つ,自動返信メールの記載例から罫線は削除してください.\\\cline{3-3}&&この設問は生活道路についての質問と理解する.\\\hline賛成&個人&BさんとCさんの意見に賛成です.\\\cline{3-3}&&A,Dに同意.\\\cline{2-3}&政策&さらに,今21世紀のみちを考える委員会が実施しているやり方に非\\&&常に共鳴できます.\\\hline反対&個人&Bさんの意見に異論.\\\cline{3-3}&&レポートにあるCの意見は傲慢です.\\\cline{2-3}&政策&道路の景観について,国ベースで考え方を規制する考え方には賛成\\&&できない.\\\hline要望・提案&抽象&高齢者の運転機会が増大するため,高齢者の運動能力を考慮しきび\\&&しい運転環境を改善する.\\\cline{3-3}&&そろそろ車から人に道路を取り戻しませんか.\\\cline{2-3}&具体&お互いのマナーの向上ももちろんですが,通学路など特に自転車も\\&&歩行者も多いようなところには歩道の脇に自転車専用の道を設けて\\&&いただければと思います.\\\cline{3-3}&&徹底的に違法駐車の取り締まりを行うべき.\\\hline事実&ネガティブ&信号さえも車中心で道路を渡るのに何分も待たされる.\\\cline{2-3}&ポジティブ&そしてPARIS内のそれぞれの方向を示す標識があり,その掲示板,\\&&文字の大きさ共非常に大きく判りやすい.\\\cline{2-3}&中立&横断歩道用信号の時間は,高齢者には短過ぎ,青になった直後に渡\\&&り始めても到着できないことがあります.\\\cline{2-3}&主張&夜間は昼間より見通しが悪いのですから,少なくとも昼間と同じス\\&&ピードでなければならないのに,空いているからとスピード違反を\\&&する車が大半です.\\\hline疑問&&交通渋滞等を把握するシステムは完備しているが,信号の管理シス\\&&テムはもう一つ未解決のところがあるのでは?\\\cline{3-3}&&アメリカのようにプロジェクトチームを作り,期限を決めた上で成\\&&果を出すというスタイルは出来ないのか?\\\hline\end{tabular}\end{center}\end{table}\subsection{意図タグ付き正解データの作成}\label{ssec:answer}912文の自由回答テキストに対して,\ssec{process}で定めた意図タグを付与した.これを意図タグ付き正解データと呼ぶ.\tab{data_collection}に各タグに対するテキスト事例を示す.\tab{data_collection}に示した「Bさんに異論.」を例に,意図タグの付与について述べる.「Xに異論」の「X」を回答内容,「に異論」の部分を回答者の態度とみなした場合,本論文では「に異論」といった回答者の態度に基づいてタグを付与している.したがって,回答文「Xに異論」には「反対」のタグが付与される.本論文では,タグ付与によって「X」に該当する回答内容を明らかにすることは対象としていないが,手法としてはタグを再定義することにより可能である. \section{最大エントロピー法(ME法)を用いた学習および分類実験} テキストの自動分類には,1)テキストの表層的な統計情報を用いた手法と,2)シソーラスや辞書など人手で作成された言語知識の意味体系を用いた手法がある.上述のとおり,現在のところ,回答の意図を知るための,意図と表現形式を結びつけるような意味体系は存在しない.したがって,本研究では\fig{figure3}に示したように,表層的な統計情報を用いて,前章で決定した意図タグを自由回答テキストの分類先とする分類実験を行う.\begin{figure}[t]\begin{center}\leavevmode\epsfile{file=clip003.eps,width=.6\columnwidth}\caption{自由回答の自動分類に関するシステム設計}\label{fig:figure3}\end{center}\end{figure}本章では,意図タグ付き正解データから各意図タグの特徴表現である素性としてのN-gramを自動抽出し,さらに意図タグ付き正解データから,素性を付与した訓練データを自動的に作成する方法について説明する.訓練データから統計情報を学習する際には,最大エントロピー法を用いる.学習によるテキスト分類の研究には,決定木を使ったものもあるが\cite{nakano:98},本研究では,高い精度を安定して出せることが期待できる最大エントロピー法を使っている.しかし,今回,学習アルゴリズムを替えての精度比較は行っていない.自由回答テキストの自動分類の可能性を確認する目的で利用している.以下,\fig{figure3}の流れに従って,学習と分類実験について述べる.\subsection{素性の抽出と訓練データの作成}\label{ssec:data_preparation}\ssec{answer}で説明した意図タグ付き正解データからN-gram抽出によって素性を取り出す.後で詳しく述べるが,素性はME法によって学習される意図タグ付き正解データにおいて,各意図タグを付与された回答文の特徴にあたる.素性として,1〜15文字までの任意の連続文字列(N-gram)を使い,意図分類のキーになるような表現を学習によって取り出している.例えば,「要望・提案」という意図タグのついた「徹底的に違法駐車の取り締まりを行うべき」という例文では,「徹/徹底/徹底的/.../底/底的/.../うべき/べ/べき/き」などが素性として自動的に取り出される.また,文末情報は重要であると判断し,文末に「\$」を挿入している.つまり文末の文字列は,文中の文字列と区別してとらえることができる(例「のでは\$」).また,文末の句点の有無は回答によって異なるので,書式を統一させるために省いている.実際には,912文の意図タグ付き正解データに現れた,5回以上出現のすべてのN-gramを素性として約300種類(平均282個)を用意した.対象とした学習データのデータ量が少ないため,5回以上出現の素性に絞っている.ME法を用いた学習部への入力データとなる訓練データは,意図タグつき正解データに対して,ここで抽出された素性が各文に出現しているかどうかを自動的に調べその結果を表としたものである.\tab{training_data}に示すように,人手で付与されたタグが1または0の値で表されている.回答テキストの事例に対して該当する意図タグが1,そうでないタグは0である.意図タグは一回答文に対して一つ付与されているため,1の値が複数与えられることはない.右側の項目列はN-gram抽出によって取り出された素性で,事例の中に現れていれば1,そうでなければ0が与えられる.\begin{table}[t]\begin{center}\leavevmode\caption{訓練データ例}\label{tab:training_data}\begin{tabular}{l|c@{}c@{}c@{}c@{}c@{}c|c@{}c@{}c@{}c@{}c@{}c@{}c@{}c}\multicolumn{1}{c|}{事例}&\multicolumn{6}{c|}{意図タグ}&\multicolumn{8}{c}{素性}\\&メ,&賛,&反,&要,&事,&疑&Cさん,&に賛成\$,&賛,&べき\$,&締,&の,&です,&ていま\\\hline\hlineAさんに賛成です.&0&1&0&0&0&0&0&1&1&0&0&0&1&0\\\hlineCさんの意見に賛成.&0&1&0&0&0&0&1&1&1&0&0&1&0&0\\\hline違法駐車の取り締まりを行うべき.&0&0&0&1&0&0&0&0&0&1&1&1&0&0\\\hlineドイツの厳格さを見習うべきである.&0&0&0&1&0&0&0&0&0&1&0&1&0&0\\\hline事故が増えています.&0&0&0&0&1&0&0&0&0&0&0&0&0&1\\\multicolumn{15}{c}{:}\end{tabular}\end{center}\end{table}素性としてN-gramを抽出した理由は,新聞記事と異なり自由回答テキストには表現形式に個人差や表現のゆれなどが現れやすいためである.例えば「〜しなければならない」という表現に対して,等価の意味の「しなくてはならない」だけでなく,自由回答テキストでは「しなくちゃならない」「しなきゃならない」「しなくては」「しなきゃ」「しなければ」など様々な表現のバリエーションが回答に現れるため,あらかじめ形態素辞書などに登録しておくことが難しい.なお,N-gramを用いたテキスト分類には,Eメールの分類を目的にした研究がある\cite{cavnar:94}.メールにおけるスペルミスや文法誤り,またOCRでテキストを読み込む際の認識誤りなどに対処するためにN-gramが利用されている.\subsection{ME法による学習}\label{ssec:learning}この節では自由記述テキストの各回答文(事例)に付与するべき意図タグの尤もらしさを計算するモデルについて述べる.われわれはこのモデルをMEモデルとして実装した.MEモデルでは,確率分布の式は以下のように求められる.文脈の集合を$B$,出力値の集合を$A$とするとき,文脈$b(\inB)$で出力値$a(\inA)$となる事象$(a,b)$の確率分布$p(a,b)$をMEにより推定することを考える.出力値$a$は$n$個の出力値$a_{i}~(1\lei\len)$のいずれかであるとし,文脈$b$は$k$個の素性$f_{j}~(1\lej\lek)$の集合で表す.そして,文脈$b$において,素性$f_{j}$が観測されかつ出力値$a$が$a_{i}$となるときに1を返す以下のような関数を定義する.\begin{eqnarray*}g_{i,j}(a,b)&=&\left\{\begin{array}{ll}1&({\rmif}~exist(b,f_{j})=1~~\&~~a=a_{i})\\0&(それ以外)\\\end{array}\right.\end{eqnarray*}これを素性関数と呼ぶ.ここで,$exist(b,f_{j})$は,文脈$b$において素性$f_{j}$が観測される場合に1を返す関数とする.われわれの場合,素性としては文を構成するN-gramを用いる.例えば,素性関数として次のようなものを用いる.詳しくは次節で述べる.\begin{eqnarray*}g_{i,j}&=&\left\{\begin{array}{ll}1&({\rmif}~exist(b,f_{j})=1,~f=$``さんに賛成''$~~\&~~a=$``賛成''$)\cr0&(それ以外)\\\end{array}\right.\end{eqnarray*}次に,それぞれの素性が既知のデータ中に現れた割合は未知のデータも含む全データ中においても変わらないとする制約を加える.つまり,推定するべき確率分布$p(a,b)$による素性$f_{j}$の期待値と,既知データにおける経験確率分布$\tilde{p}(a,b)$による素性$f_{j}$の期待値が等しいと仮定する.これは以下の制約式で表せる.\begin{eqnarray*}\sum_{a\inA,b\inB}p(a,b)\,g_{i,j}(a,b)&=&\sum_{a\inA,b\inB}\tilde{p}(a,b)\,g_{i,j}(a,b)~~~for~~\foralli\forallj\end{eqnarray*}この式で,$p(a,b)=p(b)\,p(a|b)=\tilde{p}(b)\,p(a|b)$という近似を行い以下の式を得る.\begin{eqnarray}\sum_{a\inA,b\inB}\tilde{p}(b)\,p(a|b)\,g_{i,j}(a,b)&=&\sum_{a\inA,b\inB}\tilde{p}(a,b)\,g_{i,j}(a,b)~~~for~~\foralli\forallj\label{eq:eq4}\end{eqnarray}ここで,$\tilde{p}(b)$,$\tilde{p}(a,b)$は,$freq(b)$,$freq(a,b)$をそれぞれ既知データにおける事象$b$の出現頻度,出力値$a$と事象$b$の共起頻度として以下のように推定する.\begin{eqnarray*}\tilde{p}(b)&=&\frac{freq(b)}{\sum_{b\inB}freq(b)}\end{eqnarray*}\begin{eqnarray*}\tilde{p}(a,b)&=&\frac{freq(a,b)}{\sum_{a\inA,b\inB}freq(a,b)}\end{eqnarray*}次に,\eq{eq4}の制約を満たす確率分布$p(a,b)$のうち,エントロピー\begin{eqnarray*}H(p)&=&-\sum_{a\inA,b\inB}\tilde{p}(b)\,p(a|b)\,\log(p(a,b))\end{eqnarray*}を最大にする確率分布を推定するべき確率分布とする.これは,\eq{eq4}の制約を満たす確率分布のうちで最も一様な分布となる.このような確率分布は唯一存在し,以下の確率分布$p^{\ast}$として記述される.\begin{eqnarray}p^{\ast}(a|b)=\frac{\prod_{i,j}\alpha_{i,j}^{g_{i,j}(a,b)}}{Z_{\alpha}(b)}~~~(0<\alpha_{i,j}\le\infty)\label{eq:eq8}\end{eqnarray}\begin{eqnarray*}Z_{\alpha}(b)&=&\sum_{a}\prod_{i,j}\alpha_{i,j}^{g_{i,j}(a,b)}\end{eqnarray*}ただし,\begin{eqnarray*}\alpha_{i,j}&=&e^{\lambda_{i,j}}\end{eqnarray*}であり,$\lambda_{i,j}$は素性関数$g_{i,j}(a,b)$の重みである.この重みは文脈$b$のもとで出力値$a$となることを予測するのに素性$f_{j}$がどれだけ重要な役割を果たすかを表している.訓練集合が与えられたとき,$\lambda_{i,j}$の推定にはImprovedIterativeScaling(IIS)アルゴリズム\cite{pietra:95}が用いられる.ここでは,\eq{eq8}の導出については文献\cite{berger:96,jaynes:59,jaynes:79}などを参照されたい.\subsection{実験方法}ここでは,実験の概要について説明する.\ssec{data_preparation}で説明した訓練データを入力として,ME法を用い,任意の入力に対して各意図タグが分類先となる確率を学習する.分類実験では,912文の実験データに対してN-gram抽出を行い,抽出したN-gramを素性として利用する.意図タグが分類先となる確率の学習結果を用いて,その確率値がもっとも大きい意図タグを解とする.分類先の決定方法について述べる.着目する回答文にどの意図タグが付与されるべきかについては,あらかじめ設定された閾値$\alpha$よりも解の確信度が高いか等しい場合に,着目する意図タグを分類先とする.閾値は,0から1までの値をとる.解の確信度は,ME法で分類先を決定する際に算出される確率$\beta$とする.すなわち,分類を決めるための判定条件は$\beta\ge\alpha$であり,この条件を満たす場合に解とする.解析結果のうち,もっとも確率の値が大きい分類を解とする.\\データ量が十分でないため,10分割のクロスバリデーションによる評価を行っている.\subsection{実験結果}前節で述べたとおり,意図タグ付き正解データを訓練データとした学習結果を用いて意図タグの分類実験を行った.結果は\tab{result}に示すとおりである.\tab{result}は,実験方法を説明する際に述べた閾値が0の結果である.最左列には分類先の意図タグが記されており,各意図タグに対する適合率および再現率が示されている.タグ名の「要提」は「要望・提案」の略記である.意図タグ全体に対するタグ付与結果は,再現率・適合率ともに76\,\%の精度が得られた.再現率は実験結果の正解数を意図タグ付き正解データのデータ数で割ったもの,適合率は実験結果の正解数をシステムが出力したデータ数で割ったものを示している.ここで,意図タグのうち,もっとも頻度の高い事実タグの正解データ数420件をデータ総数912件で割った値,すなわちすべてに事実というタグを付与した際の正解の割合をベースラインとみなす.この場合,ベースラインの精度は46\,\%となる.われわれの手法の精度は76\,\%であったので,この手法はベースラインより精度が高いことがわかる.疑問タグは適合率が81.3\,\%と比較的高い値が出ているのに対し,再現率は55.3\,\%とやや低い.また,事実タグでは再現率に高い値が見られる.これらについては後で考察する.四列目からは各意図タグの分類先の個数が示されている.同じ意図タグの行と列が交差するセルに正しく分類された個数が示されている.この誤りの傾向については,\sec{consideration}で考察する.\begin{table}[t]\begin{center}\leavevmode\caption{実験結果}\label{tab:result}\begin{tabular}{|l|r|r||r|r|r|r|r|r||r|}\hline&\multicolumn{1}{c|}{再現率(\%)}&\multicolumn{1}{c||}{適合率(\%)}&\multicolumn{1}{c|}{メタ}&\multicolumn{1}{c|}{賛成}&\multicolumn{1}{c|}{反対}&\multicolumn{1}{c|}{要提}&\multicolumn{1}{c|}{疑問}&\multicolumn{1}{c||}{事実}&\multicolumn{1}{c|}{正解データ}\\\hline\hlineメタ&0&0&0&1&0&6&0&9&16\\\hline賛成&83.3&83.3&0&40&0&4&0&4&48\\\hline反対&0&0&0&4&0&2&0&7&13\\\hline要提&77.7&76.3&0&2&1&286&4&75&368\\\hline疑問&55.3&81.3&0&0&0&7&26&14&47\\\hline事実&81.9&75.9&3&1&0&70&2&344&420\\\hline\hline総数&76.3&76.3&3&48&1&375&32&453&912\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[t]\begin{center}\leavevmode\epsfile{file=clip004.eps,width=.6\columnwidth}\caption{実験結果の再現率と適合率}\label{fig:figure4}\end{center}\end{figure}\begin{figure}[t]\begin{center}\leavevmode\epsfile{file=clip005.eps,width=.6\columnwidth}\caption{下位分類タグの分類結果}\label{fig:figure5}\end{center}\end{figure}\fig{figure4}のグラフは,閾値を0,0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,0.95,0.98,0.99とした場合の再現率と適合率を示している.閾値を上げることにより,再現率が下がり適合率は上がっている.また,\fig{figure5}に示すように,意図タグの下位分類については賛成および反対が誰に対するものかを区分した「個人」「政策」のうち,閾値が0の際の再現率および適合率が96.7\,\%(\fig{figure5}のC1),要望・提案の具体性・抽象性を区分した「具体」「抽象」の再現率および適合率が70.7\,\%(\fig{figure5}のC2),事実の捉え方を区分した「ネガティブ」「ポジティブ」「中立」の再現率および適合率が64.5\,\%(\fig{figure5}のC3),また,事実が事実的認識を述べたものか,回答者の主張であるかを区別した「事実」「事実(主張)」の再現率および適合率が57.9\,\%(\fig{figure5}のC4)であった. \section{考察} \label{sec:consideration}ここでは,自動的に意図タグ付与を正しく行った例(正解例)と誤った例(誤り例)を比較分析することにより,今後,分類結果の精度を向上させるための手がかりをさぐる.意図タグ付与の正誤例を示した\tab{example}をもとに考察を進める.考察にあたり,まず,\tab{example}の説明をする.事例を説明する際には,事例の番号として表の最左列の番号を用いる.隣接する「出力」の列は,分類実験で付与された意図タグである.このタグが正解であれば,「正誤」の列に「○」が付いている.なお,\tab{example}でも「要望・提案」を「要提」と省略する.四列目の「正解」には,タグが正しく付与された場合に「出力」と同じ値が,誤っている場合に意図タグつき正解データの値が示されている.「素性」の列には,システムの出力に大きく影響した素性が記述されている.ここに示した素性とは,\ssec{learning}の\eq{eq8}で,$a,b$がシステムの出力および文脈のとき,$g_{i,j}$が1である素性$f_{j}$のうち$\alpha_{i,j}$の値の順で上位5個のものである.$\alpha_{i,j}$の大きさは素性の影響力を意味し,この値が大きい素性を取り出している.「回答文」は実験対象の事例である.\tab{effective_feat}は,システムが正しい解として出力した事例から,\tab{example}に挙げた上位5個の素性の頻度統計を求めたもので,意図タグ,頻度,素性の三項目を三列並べている.例えば,一列目最初の「事実,36,は」は,システムの出力および付与した正解の意図タグがともに「事実」であった事例のうち,36個の事例で素性「は」が$\alpha$の値の順で上位5個以内にあったことを意味している.\tab{effective_feat}は,このような正解の出力に大きく影響を与えた素性のうち,上位36個の頻度の高かった素性を示したものである.\begin{table}[t]\begin{center}\leavevmode\caption{実験結果の正誤例}\label{tab:example}\begin{tabular}{|@{}c@{}|@{~}c@{~}|@{~}c@{~}|@{~}c@{~}|l|l|}\hlineNo.&出力&正解&正誤&\multicolumn{1}{@{~}c@{~}|}{素性}&\multicolumn{1}{@{~}c@{~}|}{回答文}\\\hline\hline1&疑問&疑問&○&か\$,うか\$,るの,うか,る&歩道は,障害物がなくて初めて安全な道となる\\&&&&のでは&のではないでしょうか.\\\hline2&疑問&疑問&○&か\$,うか\$,うか,では,&地域地域の特性によるのではないでしょうか.\\&&&&ょうか\$&\\\hline3&疑問&疑問&○&C,Cさんの,B,賛成です\$,&BさんとCさんの意見に賛成です.\\&&&&成です\$&\\\hline4&賛成&賛成&○&同,A,D,意&A,Dに同意\\\hline5&事実&事実&○&月,いる\$,ている\$,と言,&ドイツ,ミュンヘンでの新空港建設には,多く\\&&&&経&の年月,裁判等を経てきたと言われている.\\\hline6&事実&事実&○&のは,るのは,です\$,多く,&これから高齢者の割合が多くなるのは明らかで\\&&&&す\$&す.\\\hline7&事実&事実&○&やす,も,ありません\$,&せっかくある歩道も,乳母車やホイールチェア\\&&&&ません\$,せん\$&で使用しやすい状況ではありません.\\\hline8&要提&要提&○&街,べきであ,きであ,べき,&また,細街路での違法駐車を制限すべきであろ\\&&&&制&う.\\\hline9&要提&要提&○&する\$,関,しては,違反,&駐車違反に関しては民間に委託する.\\&&&&民&\\\hline10&要提&要提&○&必要\$,要\$,の道,も必要,&過疎対策の道作りも必要.\\&&&&策&\\\hline11&要提&要提&○&流通,通を,化,する\$,&流通を鉄道と協同化するとか,不必要な車を使\\&&&&にする&わないようにする.\\\hline12&要提&要提&○&度の,構,造,化,構造&生活道路の速度規制および速度の出せない構造\\&&&&&化.\\\hline13&要提&要提&○&を図る\$,図る\$,を図る,&)(自動車および交通側からみた意見)○自動\\&&&&を図,図る&車自体の改善を図る.\\\hline\hline14&疑問&要提&×&か\$,のでは,いの,では,&揮発油税の一部を情報ハイウエーの構築に役立\\&&&&いので&ててもいいのではないでしょうか.\\\hline15&賛成&反対&×&Bさん,Bさ,B,さん,さ&Bさんの意見に異論.\\\hline16&事実&要提&×&前,の手,前に,ません\$,&21世紀の道作りに取り掛かる前に,まず,今\\&&&&せん\$&すぐ出来ること,横断歩道の手前に段差をつけ\\&&&&&ることに取り組んでいただきたいと願ってや\\&&&&&みません.\\\hline17&事実&要提&×&くす,電,なる\$,ラ,なる&終電を遅くすれば,朝ラッシュの道路負荷は少\\&&&&&し軽くなる.\\\hline18&要提&事実&×&考えられ,考えら,する\$,&○人が集中すると中心部で働いて郊外に住むよ\\&&&&化,集&うになると考えられ,住環境が悪化する.\\\hline19&要提&事実&×&する\$,れが,を,く,道&それが,道路負荷を軽くする.\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\begin{center}\leavevmode\caption{正解の出力に寄与した素性のうち高頻度のもの}\label{tab:effective_feat}\begin{tabular}{|c|c|l||c|c|l||c|c|l|}\hline意図&頻&\multicolumn{1}{c||}{素性}&意図&頻&\multicolumn{1}{c||}{素性}&意図&頻&\multicolumn{1}{c|}{素性}\\タグ&度&&タグ&度&&タグ&度&\\\hline\hline事実&36&は&事実&15&タ&賛成&15&D\\\cline{2-3}\cline{5-9}&31&です\$&&15&的&要提&26&する\$\\\cline{2-3}\cline{5-6}\cline{8-9}&28&のは&&13&いる\$&&20&べき\\\cline{2-3}\cline{5-6}\cline{8-9}&26&た\$&&13&ています\$&&17&化\\\cline{2-3}\cline{5-6}\cline{8-9}&25&無&&13&ている\$&&15&き\$\\\cline{2-3}\cline{5-6}\cline{8-9}&20&日&&13&とい&&15&べき\$\\\cline{2-6}\cline{8-9}&18&不&疑問&15&?&&15&構\\\cline{2-3}\cline{5-6}\cline{8-9}&17&す\$&&14&?\$&&15&特\\\cline{2-3}\cline{5-6}\cline{8-9}&17&せん\$&&11&か&&14&るべき\\\cline{2-6}\cline{8-9}&16&ません\$&賛成&24&さん&&13&特に\\\cline{2-3}\cline{5-6}\cline{8-9}&15&う\$&&17&さ&&12&の道\\\cline{2-3}\cline{5-6}\cline{8-9}&15&しか&&15&C&&12&必要\$\\\hline\end{tabular}\end{center}\end{table}事実タグでは係助詞の「は」,文末に現れた断定の助動詞「です」,同じく文末の否定形「せん」「ません」,アスペクト表現の「ている」「ています」などが頻出している.疑問タグでは疑問符「?」が文中,文末のいずれに現れた場合でも高頻度の素性として取り出されている.賛成タグに「さん」「C」「D」といった表現が現れているのは,\ssec{related_work}で述べたように「Aさんに賛成」「Bさんの意見は一理ある」といった回答が記述される場合があることによる.要望・提案タグでは,文末に現れた「する」が高頻度素性として取り出されている.これはアンケートの回答では「渋滞を解消する」と書けば「渋滞を解消してほしい」「渋滞を解消すべき」と同義になるためであり,アンケート回答に特徴的な表現と言える.\tab{effective_feat}の素性を参照しながら,\tab{example}について以下詳述する.疑問タグでは,文中および文末の終助詞「か」(例1,2),賛成タグであれば「A」「D」「Cさん」や「同」や「賛成です」といった文末表現(例3,4)が特徴的であることがわかる.また,事実タグでは,文末のアスペクト表現「ている」や丁寧の助動詞「ます」の否定形(例5〜7),要望・提案タグでは文末に現れる補助動詞「する」,助動詞「べきだ」,動詞「図る」,提案内容を示す表現「共同化」「構造化」などに現れる「〜化」(例8〜13)が特徴的な表現として観察できる.「ません\$」「せん\$」「しか」および「ている\$」「ています\$」「いる\$」などが事実タグを出力とする素性として高頻度である理由は,これらが要望・提案などの背景や要望の根拠を示す表現に関連するためである.「ません\$」「せん\$」「しか」などの否定的意味を含意する表現は,現状の設備や制度の不備に対する不満として回答文に現れる(例7).また,「ている\$」「ています\$」「いる\$」は,要望や提案の根拠として現状説明をする際に現れる(例5).上述した事実タグを出力する素性によって,例16に与えられた分類タグも「事実」となっている.ここでは「〜ていただきたいと願ってやみません」という要望・提案表現の一部として,否定的表現「ません」が現れている.したがって,これらを正解とするためには,「ません」で文が終わっていても,「ていただく」「願って」などが素性として出現していれば「事実」でなく「要望・提案」になると学習される必要がある.そのためには,学習コーパスを増やすことが必要であろう.学習コーパスを増やすことは,「Aさん」「Bさん」などの表現が強力な素性となっている賛成タグや反対タグが分類される際にも必要であり,これは例15に見られる.ここでは,「Bさん」だけでなく反対の意味を示す「異論」という表現が素性として学習される必要がある.本研究で対象としたアンケートの中では,反対を明示的に表明した回答文は少数であったため,反対タグを付与されるべき回答の特徴が十分に学習されなかった.また,例17に見られるように「終電を遅くすれば,朝ラッシュの道路負荷は少し軽くなる」を「終電を遅くして,朝ラッシュの道路負荷を軽くしてほしい」と言い換えられる表現がある.このとき,「れば〜なる」は「てほしい」という要望・提案表現に対応する表現とみなすことができる.このため「れば〜なる」も素性として利用すると例17も正しく分類できると期待される.しかし,このように離れた位置に表れる文字列はN-gramでは抽出できないため,「れば〜なる」を「れば」と「なる」の二つの素性の組み合わせで表すなど素性の組み合わせを一つの素性として利用する必要がある.このように素性のバリエーションを増やすことによって精度を高められる可能性もある.また,例18では「住環境が悪化する\$」のように,要望・提案の高頻度素性である「する\$」が現れているが,これは要望・提案ではない.「する\$」を要望・提案の手がかりとしてよいのは,「渋滞を解消する」のように「渋滞を解消」といった要望内容になりうる事柄,すなわちポジティブな表現の場合である.「悪化する\$」のように,ネガティブな表現の場合は直接的には要望・提案とは考えにくい.したがって,これらの表現に対しては,ポジティブ表現かネガティブ表現かを推定するなどにより精度が高まる可能性がある.さらに,この推定ができた場合,前後の文との関係に考慮が必要な場合もある.例19「道路負荷を軽く」がポジティブな表現であることがわかった場合,要望内容であると推察できる「それ」で示されている事柄があり,「道路負荷を軽く」が「それ」の効果および要望理由であると考えられる際には「それが,道路負荷を軽くする」という事例自体は事実を示していると解釈するほうが妥当である.先に述べたように,本研究では回答内の談話的構造については考慮していないため,これについても今後の課題と考える.最後に,考察結果から今後の課題を下記にまとめておく.\begin{itemize}\item学習コーパスを増やす\item「れば〜なる」といった呼応表現のように,N-gramで抽出できない表現にたいしては素性の組み合わせを導入する\item表現の意味がポジティブであるかネガティブであるかを推定する\item回答における文間の談話的構造を考慮する\item意図タグの種類や付与基準を見直す\end{itemize} \section{おわりに} 本研究では,言語処理の要素技術であるテキスト分類の技術を取り入れアンケート回答の自動分類を行うことで,その結果を自由回答のコーディングに活用するためのコーディング支援を行った.回答者の意図を反映した意図タグを決定するために,100文の回答テキストへのタグ付与実験を行い,4人の作業者の作業結果に基づいて,メタ,賛成,反対,要望・提案,事実,疑問といった意図タグを作成した.この意図タグを付与した意図タグ付き正解データを作成し,各意図の特徴的な表現を素性として取り出すため,N-gram抽出を行った.これにより取り出された素性の出現有無の情報を,意図タグ付き正解データに加えて学習のための訓練データを作成した.この訓練データを入力とし,ME法を用いて意図タグが分類先となる確率を学習し,その確率値がもっとも大きい意図タグを解とする実験を行った結果,約8割弱の精度が得られた.本研究により,自由回答テキストに対して回答者の意図を反映した分類を行うことができた.また,辞書を用いる形態素解析を使わずに,ME法による素性と意図タグの学習を行うことで,「です」「ません」「べき」「必要」「図る」「化」など断片的な情報が意図タグ付与に効果的であることが明らかになった.さらに「図る」という動詞や「〜化」といった接尾辞が要望・提案の回答を分類する上で意図を示す重要な表現であるといった発見もあった.今後は,学習コーパスを増やすことを中心に,考察の結果,明らかになった問題を解決する手法について検討する.\acknowledgment研究データとして道路審議会基本政策部会「21世紀の道を考える委員会」が実施されたボイス・レポートについて研究利用を快諾してくださった(財)国土技術研究センター調査第二部の前田様,川原様のご厚意に深謝いたします.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{乾裕子}{1991年東京女子大学文理学部卒業.同年から(財)計量計画研究所言語情報研究室勤務.2001年5月から通信総合研究所特別研究員.同年10月神戸大学大学院自然科学研究科入学.自然言語処理,計量国語学の研究に従事.言語処理学会,人工知能学会,計量国語学会,各会員.}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.現在,独立行政法人通信総合研究所主任研究員.自然言語処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,ACL,各会員.}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所.現在,独立行政法人通信総合研究所研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所.現在,独立行政法人通信総合研究所けいはんな情報通信融合研究センター自然言語グループリーダー.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V11N05-03
\section{はじめに} 近年,機械翻訳に関する研究が進み,日本語や英語をはじめとし,韓国語,中国語,フランス語など,主要な言語に関してはある程度実用的なシステムが構築されつつある.その反面,そうした研究の進んでいない言語や,機械翻訳の対象となっていない言語が残されているのも事実である.こうした言語においては,言語現象を学習するためのモノリンガル・コーパスや,翻訳知識を得るためのバイリンガル・コーパスなどが充分に蓄積されておらず,また,翻訳の要である対訳辞書の整備も進んでいないことが多い.そうした,比較的マイナーな言語に関する機械翻訳として,日本語--ウイグル語機械翻訳システム\cite{ogawa}が研究されている.このシステムにおいては,その原型となった日本語形態素解析システム\cite{ogawa2}の日本語辞書が,語彙として約25万語,形態素として約35万語を収録しているのに対して,日本語--ウイグル語対訳辞書\cite{muhtar2003}は語彙数約2万語,形態素数約3.6万語\footnote{漢字表記の語彙に対しては,その読みが別の形態素として登録されるため,語彙数と形態素数に差が生じる.}と少ないため,翻訳可能な文の数が限られてしまうという問題がある.このように,対訳辞書の規模は,そのシステムが処理できる文数と直接関わる重大な要素である.しかしながら,一般に辞書の構築はコストが高く,登録単語数を増やすことは容易ではない.これに対して,人間が翻訳作業をする場合を考えると,翻訳者は知らない単語を対訳辞書で検索するが,その単語が辞書に記載されていない場合,同じ意味の別の表現に言い換えて辞書を引く.本研究では,人間のこの行動を模倣し,対訳辞書に登録されていない自立語を,登録されている単語だけから成る表現に言い換えることにより,訳語の獲得を目指す.これにより,二言語間の言語知識が必要な問題を一言語内で扱える問題にすることができる.言い換えに関する研究は,近年,盛んに進められている\cite{yama01}.これに伴って,言い換えの目的に応じた種々の言い換え獲得手法が提案されている.これらの内,本研究で扱う自立語の言い換えに関するものに注目すると,概ね次の二つの手法に分けることができる.一つは,単語の用法や出現傾向,概念などの類似性を評価し,類似する表現を集める手法である\cite{hindle}\cite{cui}\cite{kasahara}.これらの中には言い換えを獲得することを直接の目的としないものもあるが,集められた類似表現を言い換え可能な語の集合と見做すことができる.もう一つは,国語辞書などにおいて単語の語義を説明している語義文を,その見出し語の意味を保存した言い換えと見做して利用する手法である.これに属する手法としては,語義文から見出し語との同等句を抜き出し,直接言い換える手法\cite{kajichi}\cite{ipsj02}や,2つの単語間の意味の差を,単語の語義文における記述の差異として捉え,言い換えの可否を判定する手法\cite{fuj00}\cite{fujita}が挙げられる.従来,自立語の言い換え処理は,この二つの分類のどちらか一方の手法を適用して言い換えを得る,一段階の処理として扱われてきた.これに対して,Murataら\cite{murata}は,言い換え処理を次の二つのモジュールに分割した.一つは,用意した規則を元に,入力表現を可能な限り変換するモジュールであり,もう一つは,変換された表現の内,言い換えの目的に最も適ったものを選び出す評価モジュールである.ただし,変換のための規則は,言い換えの前後で意味が変わらないものであることを保証する必要がある.処理を分割することによって,評価モジュールにおける評価の観点を変えることが可能となり,様々な言い換え目的に対して,汎用的な言い換え処理モデルを提供できるとしている.しかし,この手法では,あらかじめ変換規則を検証しておく必要があるほか,従来の言い換え獲得処理に関する手法を柔軟に適用できないという問題がある.そこで,本研究では,この言い換え処理の段階分けの考え方をさらに進めて,可能な限り類似表現を収集する{\bf収集段階}と,収集された言い換え候補について,言い換えの目的に適う表現を選び出す{\bf選抜段階}とに分けることを考える.このように分割することにより,各段階において,類似度に基づく手法と語義文に基づく手法とを別々に適用できる.さらに,言い換えの対象となる単語に合わせて,その組み合わせ方を変えることができる.本論文では,収集段階に語義文に基づく手法を,選抜段階に類似度に基づく手法を用い,両者を組み合わせることによって適切な言い換えを獲得する手法について提案する.さらに,獲得した言い換えを日本語--ウイグル語翻訳システムで翻訳し,それを辞書に追加することによる対訳辞書の拡充実験も行った.以下,本論文では,第2章において現在までに研究されている言い換え処理技術について,その概要を述べて整理する.次に第3章において,言い換え処理を収集段階と選抜段階に分割し,それぞれに第2章で述べた従来の研究を適用する手法について提案する.第4章においては,第3章で提案した言い換え手法を用いた実験と,さらに対訳辞書の拡充実験について報告する.最後に,第5章は本論文のまとめである. \section{言い換え処理技術の分類} 一般に,言い換え処理は「(同一言語内での)同義表現への言い換え」と捉えることができる.しかし,工学的な言い換え処理を考える場合に,「明示的な意味が同一である表現への言い換え」として捉えると,対象が限定され過ぎてしまう.これに対して,山本\cite{yama01}は言い換え処理を「何かが同一なものへの変換」ではなく「何かの目的を満たす表現への変換」と捉えた.そして,入出力の同一性ではなく,入力表現に対する基準達成の是非に着目し,言い換え処理を「言語表現と換言因子を入力とし,換言因子に沿うように入力表現を変換する処理」と定義している.ここで換言因子とは,言い換え処理を施す目的であり,山本\cite{yama01}では,表\ref{inshi}ような例が挙げられている.こうした換言因子ごとに,さまざまな言い換え処理が研究されているが,自立語を類似する別の表現に変換するという点に着目すれば,その手法は,語義文ベースと類似度ベースの二つに大別することができる.各手法について,以下にまとめる.\begin{table}[tb]\caption{\label{inshi}換言因子}\begin{center}\begin{tabular}{l|l}\hline換言因子&説明\\\hline入力誤り訂正&誤りのない表現に\\推敲/校正&より自然な表現に\\計算機処理に対する頑健化&構文解析に可能な表現に\\要約&より短く\\詳細化&(計算機/人間にとって)より曖昧さの少ない表現に\\簡潔化&易しく分かりやすく\\文体&話し言葉/書き言葉に\\性別&男言葉/女言葉に\\年齢&子ども/高齢者の言葉に\\方言&方言に/共通語に\\換言因子なし&狭義の換言処理\\\hline\end{tabular}\end{center}\end{table}\subsection{語義文ベースの手法}\label{subsec:usingdescriptionofwordmeaning}国語辞書の語義文は,見出し語の意味を説明したものであると同時に,意味を充分保存した言い換えであると見ることができる.このような見地に基づく語義文を利用した言い換え獲得手法を,本研究では語義文ベースの手法と呼ぶ.これに属する研究として,次のような例が挙げられる.\begin{itemize}\item語義文への直接言い換え一般に,国語辞書の語義文には見出し語の意味に加えて,用法・用例なども合わせて記載されている.そのため,そうした余分な記述を削除した言い換えを獲得する必要がある.このための手法として,鍛治ら\cite{kajichi}は,コーパスを用いて言い換え対象の文と語義文間の格フレームを対応付け,言い換えの際に不必要な格を選定することにより,同等句のみを抜き出してる.また,釜谷ら\cite{ipsj02}は,辞書に固有の語義文のパターンに注目し,不必要と考えられる部分を削除するルールを人手により作成し,同等句を切り出している.\item語義文を利用した意味の差分評価藤田ら\cite{fujita}は,単語の語義文の表現の重なりに着目し,単語間の意味の差を評価した.さらに,その重なりの程度を制約とすることで,ある程度良質な言い換えを生成できることを確認している.\end{itemize}\subsection{類似度ベースの手法}対象となる単語と他の単語との,共起傾向の類似性や概念的な近さを評価することによって類似度を算出し,それに基づいて類似する単語を集める手法を,本研究では類似度ベースの手法と呼ぶ.こうした研究の多くは,言い換えの獲得よりも類似する単語を集めることを目的としているが,類似する単語グループを言い換え可能な対象と考えることができる.こうした研究には,以下のようなものがある.\begin{itemize}\item単語の共起傾向に基づく類似性Hindle\cite{hindle}は,直接評価することが難しい単語間の類似度を,コーパスにおける単語の共起パターンを利用して評価した.この手法は,類似した名詞同士は同じ共起パターンを示すという仮定に基づいている.Hindleは,英語コーパスから共起関係にある主語--動詞--目的語の組を抽出し,その共起傾向の類似性から名詞間の類似度を評価する手法を提案している.\itemシソーラス上の概念間距離に基づく類似性崔\cite{cui}らは,単語の振る舞いや使われ方から見た類似度の尺度として,EDR日本語概念体系上での概念間の距離から計算した類似度を用いた.その際,注目している単語そのものに付けられている概念だけではなく,その上位概念間の一致も含めた類似度を考慮して類似度を補正している.この手法は,言語に依存しない概念体系を用いるため,任意の言語の任意の二つの単語に対して類似度が計算可能である.\item概念の知識ベース(概念ベース)に基づく類似性笠原ら\cite{kasahara}は,ある単語の国語辞書の語義文中に現れる単語を属性とみることで,その単語の概念を特徴づけた.例えば,「馬」に対する語義文が,「家畜の一.たてがみが長い.草食の動物で$\cdots$動物$\cdots$.」と与えられた場合,「馬」の概念は,その語義文を構成する「家畜」,「たてがみ」,「動物」などの単語によって特徴付けることができるとした.そして,各単語の概念を,属性を軸としたベクトルによって表現し,二つの単語の概念のベクトルがなす角の余弦を基に類似性を評価している.\end{itemize} \section{対訳辞書拡充のための言い換え処理} \subsection{本研究における換言因子}本研究の目的は,日本語--ウイグル語対訳辞書の拡充のための言い換えであり,換言因子は「既存の日本語--ウイグル語対訳辞書で翻訳可能,かつ,意味的な過不足の少ない語句への変換」となる.ここで,「既存の日本語--ウイグル語対訳辞書で翻訳可能」という条件は,本研究の最終的な目的である,対訳辞書の拡充に根ざした因子である.「意味的な過不足の少ない」という条件は,本研究によって対訳辞書を拡充した結果,翻訳前後で大きく意味が変わってしまったり,原文で伝えたい内容が失われることを防ぐための因子である.例えば,「単語数を\underline{漸増させる}」を「単語数を\underline{増やす}」と言い換えて翻訳した場合,原文における「漸増」の「だんだん」に相当する意味が失われてしまい,本来の内容とは異なる印象を与えてしまう.このような言い換えは,文脈によっては許容することができない場合がある.また,「\underline{単語}数を漸増させる」を「\underline{言語の最小単位}数を漸増させる」と言い換えて翻訳した場合,言い換えによる意味情報の欠落はないが,回りくどい表現を含んだ違和感のある文章になってしまう.本研究の目的を満たすためには,意味的な欠落が少なくて,翻訳処理を加えても違和感のない表現を,言い換えとして獲得する必要がある.\subsection{提案する言い換えの枠組み}従来の言い換え処理は,前章で述べたように,種々の言語知識からある言い換え表現を獲得する一段階の処理として考えられてきた.しかし本研究では,言い換え処理を,言い換えの候補を集める{\bf収集段階}とその中から不充分あるいは不適切なものを削除する{\bf選抜段階}の二段階に分けて処理する.このように分割することにより,収集段階では言い換え表現の多様性を重視した再現率の高い収集をし,選抜段階では言い換えとして不適格なものを削除する精度を重視した篩い分けをする,といったことが可能となり,多様性と品質に関してバランスの取れた言い換えを獲得することが期待できる.類似度ベースの手法と語義文ベースの手法は相補的な関係にあることから,本研究では,収集段階と選抜段階の各段階に,類似度ベースおよび語義文ベースの手法をそれぞれ組み合わせて適用することを提案する.類似度ベースの手法は,単語が持つ概念や語の振る舞いの類似性に基づいて言い換えを獲得する手法であり,語義文ベースの手法は,語義文という見出し語と意味的に等価なものを利用して言い換えを獲得する手法である.よって,この二つの手法を組み合わせることで,質の高い言い換えを獲得することが期待できる.そうした手法の内,本論文では,収集段階に語義文ベースの手法を,選抜段階に類似度ベースを用いた手法について述べる.以下,言い換え処理を施す対象となる単語を{\bf言い換え元},言い換え処理によって得られた語句を{\bf言い換え先}と呼ぶ.\subsection{語義文ベースでの言い換え先候補の収集}\label{subsec:collection}本手法では,辞書の語義文を利用して言い換え先の候補を作成する.その際に,\ref{subsec:usingdescriptionofwordmeaning}節で述べた釜谷ら\cite{ipsj02}の手法を用いる.具体的には,以下の手順で言い換え先候補を収集する.\begin{enumerate}\item語義文を,JUMAN\cite{kur99}で形態素解析し,さらにKNP\cite{kur98}によって係り受け解析する.これにより,文節情報と係り受け情報を得る.\item言い換え元が用言の場合は,言い換え先の終わりも用言になるのが望ましいため,語義文末の「こと」「さま」を削除する.\item語義文を構成する文節の組み合わせの内,元の語義文中の係り受け関係を崩さないものを言い換え先候補とする.ただし,語義文の末尾の文節\footnote{ただし,「こと」「さま」は,(2)で除去されているので,それを除いた末尾となる.}は見出し語を説明する上で主要な役割を果たしているという傾向に基づき,言い換え先候補に必ず含める.\end{enumerate}この言い換え先候補収集の手順を,言い換え元「総決算する」とその語義文「一定期間の収支をすべて決算すること」を例として図\ref{sokessanknp}に示す.まず,手順(1)において,KNPで係り受け解析がなされ,図\ref{sokessanknp}の上に示される文節情報および係り受け情報が得られる.さらに,言い換え元「総決算する」は用言であることから,手順(2)において,文末の``こと''が削除される.結果,言い換え先候補に含まれる可能性のある文節は,「一定期間の」,「収支を」,「すべて」,「決算する」となる.手順(3)で,「決算する」を含む全ての文節の組み合わせが作られる.ただし,元の係り受け関係が崩れてしまうような組み合わせである,「一定期間の決算する」などは候補から外す.以上により図\ref{sokessanknp}中の下に示す,6個の言い換え先候補が獲得される.\begin{figure}[t]\begin{center}\begin{minipage}[c]{.4\textwidth}\mbox{\epsfxsize=\textwidth\epsfbox{./sokessanknp.eps}}\end{minipage}{\Large$\Downarrow$}\hspace{50pt}\vspace{5pt}\begin{tabular}{clrl}1.&決算する&\hspace{20pt}4.&収支をすべて決算する\\2.&すべて決算する&5.&一定期間の収支を決算する\\3.&収支を決算する&6.&一定期間の収支をすべて決算する\\\end{tabular}\end{center}\caption{\label{sokessanknp}「総決算する」の語義の解析結果と獲得される言い換え先候補}\end{figure}\subsection{語の構成に基づく意味推定と意味因子}\label{seusec:meaningfactor}前節で収集した言い換え先候補から,言い換えとして意味的に過不足のない言い換え元の同等句を選び出す.そのためには,どの候補が最も適切な言い換えであるか,その指標を定めなければならない.例として,言い換え元「点火する」に対して,「灯す」「火を灯す」「物に火を灯す」という三つの言い換え先候補がある場合を考える.これらの中で言い換え元の同等句として相応しいのは,「火を灯す」である.日本語の単語の意味は,そこに含まれる部品の意味から構成されている場合が多い.「点火する」の例では,漢字``点''の意味「点ける」と,漢字``火''の意味「火」から「火を灯す」という語義が構成されているといえる.このように,その単語の意味を構成している意味の部品とも言うべきものを,本研究では{\bf意味因子}と呼ぶ.本研究では,{\bf[漢字]},{\bf[部分]},{\bf[全体]}の3種類の意味因子を定義し,言い換え元となる単語の意味は,この意味因子のいくつかの組み合わせで表現されていると考える.各意味因子の具体的な定義は以下の通りである.\begin{description}\item[漢字]言い換え元を構成している漢字一字ごとの意味漢字は表音文字であると同時に表意文字であるから,漢字によって構成された単語は,その漢字と関係のある語義を内包していると考えられる.先に例に挙げた「点火する」の意味は,漢字``点''の意味と漢字``火''の意味の合成によるもの考えられ,これらを最小の意味因子としてみることができる.\item[部分]言い換え元の意味のある部分例えば,「一括払い」という語は,「一括」と「払い」の二つの単語からその意味が構成されており,そうした言い換え元の一部が意味因子となる場合もある.\item[全体]言い換え元そのもの言い換え元全体で,その意味を表す場合がある.例えば,「右往左往する」という単語は,単純な漢字の語義の組み合わせで語義が構成されているのではなく,組み合わせたことによって,新たに「混乱する」といった意味が生まれたと考えられ,これ全体が意味因子である.\end{description}実際には,言い換え元がどの意味因子から構成されているかを求める必要がある.そのため,あらかじめ意味因子の候補を可能なだけ集め,言い換え先候補と比較することで意味因子を決定する.その際,[部分]と[全体]については,EDR日本語単語辞書\cite{edrdic}を引き,そこに記載されている概念識別子を各意味因子候補の概念識別子とする.多義語の場合には,複数の概念識別子が存在するが,そのすべてを利用する.そして,3.6節でこの概念識別子を利用して類似度を計算し,言い換え元がどの意味因子から構成されているかを決定する.なお,意味因子[部分]の場合,例えば「一括払い」における「括払」のように,EDR日本語単語辞書に掲載されていないものは意味因子の候補とはならない.また,EDR日本語単語辞書において名詞とサ変動詞(例えば「決算」と「決算する」)が区別されているため,意味因子候補として両方を考える.さらに,意味因子[漢字]の概念識別子は,次節で説明する漢字意味辞書に基づいて決定する.同様に,言い換え先に含まれる各自立語についてもEDR日本語単語辞書を引き,その概念識別子を求めておく.図\ref{paraph}に,言い換え元「総決算する」に対する意味因子の候補と,その言い換え先候補「一定期間の収支をすべて決算する」に含まれる自立語の概念識別子を示す.なお,これ以降,言い換え元と言い換え先のペア,例えば「総決算する→一定期間の収支をすべて決算する」を{\bf言い換え対}と呼ぶ.この例では,実際に意味因子となるのは,「決算する[部分]」と,「総[漢字]」である.その求め方については,3.6節以降で説明する.\begin{figure}[t]\begin{center}\begin{tabular}{c|l|l}\hline観点&\multicolumn{1}{c|}{語}&\multicolumn{1}{c}{概念識別子}\\\hline\multicolumn{3}{c}{{\bf言い換え元}}\\\hline[全体]&総決算する&0fa9e8,0faa02\\\hline[部分]&総&106cb1,3bf848,3cf3a0,0ea7e0,0fa8e0\\\cline{2-3}&決&0ef621,3ce68e,3ce80c,3ce93c,3cf0f2,$\ldots$\\\cline{2-3}&決算&3c3b1d,3c3b1e,3c3b1f,0ef51f,0ef520,$\ldots$\\\cline{2-3}&決算する&0ef51f,0ef520\\\cline{2-3}&算&3cf83a,3cf83a,0f37b0,0f37b1,3ce988,$\ldots$\\\cline{2-3}&算する&3cf060\\\hline[漢字]&総,決,算&---(漢字意味辞書中の語義に従う)\\\hline\hline\multicolumn{3}{c}{{\bf言い換え先候補}}\\\hline言い換え先候補中の&一定期間&1f9de1\\\cline{2-3}自立語&収支&3c4225\\\cline{2-3}&すべて&0e472c,3d04f3\\\cline{2-3}&決算する&3c3b1d,3c3b1e,3c3b1f,0ef51f,0ef520,$\ldots$\\\hline\end{tabular}\end{center}\caption{\label{paraph}「総決算する$\rightarrow$一定期間の収支をすべて決算する」における概念識別子}\end{figure}\subsection{漢字意味辞書}\label{subsec:kanjimeaningdic}前節で述べた意味因子[漢字]を使用するため,漢字の語義を記述した漢字意味辞書を広辞苑第四版(CD-ROM版)\cite{kojien}から以下の手順で構築した.\begin{enumerate}\item漢字一文字ごとに,その読みを区別せずに語義文を取り出す.\item意味番号,出典,用例など,辞書特有の付記情報を削除する.\item句点「.」ごとに語義文を分解し,ぞれぞれを一つの語義とする.例えば,語義文に「思慮.おもわく.」とあれば,「思慮」と「おもわく」を語義とする.\item辞書特有の表現である文末の「さま」,「こと」を削除する.\item「もの」,「人」及び,それに係る語を削除する.これは,これらの語が一般的であり,また,説明を補足するために用いられることが多いからである.\item削除した結果,文として不自然になったものを人手によって修正する.その際,語義に関する部分には手を加えず,あくまで不自然な部分の修正に留めた.\itemそれぞれの語義を,JUMANとKNPを利用して係り受け解析する.\item語義を構成する各自立語について,EDR日本語単語辞書\cite{edrdic}に示された概念識別子を意味因子[漢字]の概念識別子とする.\end{enumerate}なお,意味因子[全体]および[部分]の場合と同様に,多義語には複数の概念識別子が存在するが,それらをすべて利用する.本来ならば,類似度を求める際にその単語がどのような概念で使われているかを定め,それに基づいて計算する必要がある.しかし,こうした概念の特定は煩雑でコストがかかることから,本研究では,そうした特定も次の選抜段階で行うこととし,意味因子の候補を挙げる際には,すべてを列挙した.以上の作業によって作成した漢字意味辞書の一部を表\ref{kanwa}に示す.ここで,漢字に複数の語義があれば,それぞれについて項目を用意する.また,「総」に対する「糸/束ねる」や「決」に対する「可否/定める」のように,一つの語義が複数の自立語から構成される場合もある.\begin{table}[tb]\begin{center}\caption{\label{kanwa}漢字意味辞書の一例}\begin{tabular}{c|lcl}\hline漢字見出し&\multicolumn{1}{c}{語義}&語義品詞&\multicolumn{1}{c}{概念識別子}\\\hline&総&名詞&106cb1,3bf848,3cf3a0\\\cline{2-4}&糸&名詞&0e4dd9,0e4ddc,0e4ddd,$\ldots$\\総&束ねる&動詞&0fc4e7,3ce6ce,3ce7de,$\ldots$\\\cline{2-4}&\multicolumn{3}{|c}{$\vdots$}\\\hline&決める&動詞&0ec4a7,0ec4a9,0ef563,$\ldots$\\\cline{2-4}&思い切る&動詞&0e80d8,0ef623\\\cline{2-4}決&可否&名詞&0ea373,0ea374,0ea375\\&定める&動詞&0e7749,0ec249,0ef563,$\ldots$\\\cline{2-4}&\multicolumn{3}{|c}{$\vdots$}\\\hline&数&名詞&0e998b,0e998f,0f87d9,$\ldots$\\\cline{2-4}&勘定&サ変名詞&0eaeed,0eaeed,0eaeef,3cee38\\\cline{2-4}算&数&名詞&0e998b,0e998f,0f87d9,$\ldots$\\&数える&動詞&0e9ae2,3cf060\\\cline{2-4}&\multicolumn{3}{|c}{$\vdots$}\\\hline\end{tabular}\end{center}\end{table}\subsection{意味因子候補と言い換え先候補の類似度}\ref{seusec:meaningfactor}節で述べた意味因子の候補と,言い換え先候補に含まれる自立語との間の類似度を,単語間の類似度に基づいて計算する.ここで単語間の類似度は,その単語がもつ概念間の距離に基づいて計算する.具体的には,シソーラスの一種であるEDR概念体系辞書\cite{edrdic}を用いて,対象となる単語が持つ概念間距離を長尾\cite{nagao}によって紹介された以下の式(\ref{cpt_org})をベースにして計算する.\begin{eqnarray}\label{cpt_org}\frac{2\times\mbox{depth}(\mbox{csc}(c_{1},c_{2}))}{\mbox{depth}(c_{1})+\mbox{depth}(c_{2})}\end{eqnarray}ここで,$\mbox{csc}(c_{1},c_{2})$は,二つの概念$c_1$と$c_2$のシソーラスにおける共通上位概念を,depth$(c_1)$は概念$c_1$の根からの深さを示す.なお,根の深さを0とするため,この式における最小値,すなわち,まったく関係のない概念間の類似度は0になる.木構造をしているシソーラスの場合,共通上位概念および,そこへの経路が一つに定まるが,EDR概念体系辞書は多重継承を許し,一つの概念に二つ以上の上位概念が存在するため,共通上位概念とそこへの経路が複数考えられる.その場合には,類似度が最も高くなる共通上位概念と経路を定め,そのときの値を採用する.またEDR日本語辞書においては,多義語には複数の概念が付与されているが,その場合にも値が最大になる概念を選ぶ.よって,単語$w_1,w_{2}$が,それぞれ複数の概念$c_{11},\cdots,c_{1i},\cdots\,$および$c_{21},\cdots,c_{2j},\cdots\,$をもつ場合,その類似度$SIM(w_{1},w_{2})$は以下の式(\ref{cpt1})のように計算される.ただし,csc$_k(c_i,c_j)$は概念$c_{i},c_{j}$の複数ある共通上位概念の一つを示すものとする.\begin{eqnarray}\label{cpt1}SIM(w_{1},w_{2})&=&\max_{i,j,k}\frac{2\times\mbox{depth}(\mbox{csc}_k(c_{1i},c_{2j}))}{\mbox{depth}(c_{1i})+\mbox{depth}(c_{2j})}\end{eqnarray}ここで意味因子[全体]と[部分]は,1単語で表現されるから,各意味因子$m_i$と言い換え先$p$に含まれる自立語$p_j$と間の類似度が上記の$SIM(m_i,p_j)$で計算できる.しかし,意味因子[漢字]については,前節で述べたように,漢字意味辞書において語義が複数の自立語からなる場合があり,その場合には,類似度を直接計算することができない.そこで,意味因子$m_i$が$n$個の自立語$m_{i1},\cdots,m_{in}$から構成される場合は,意味因子$m_i$と言い換え先候補に含まれる自立語$p_j$との類似度を以下のように計算する.\begin{eqnarray}\label{gm}SIM'(m_i,p_j)=\left\{\begin{array}{ll}0,&{\displaystyle\sum_{k}SIM(m_{ik},p_j)=0}のとき\\{\displaystyle\sqrt[n]{\prod_{k}^{n}\max_{j}SIM(m_{ik},p_{j})}},&それ以外\\\end{array}\right.\end{eqnarray}すなわち,意味因子$m_i$を構成するすべての単語$m_{ik}$に対して$SIM(m_{ik},p_j)=0$となる場合には類似度を0とし,そうでない場合には,各$m_{ik}$に対して$SIM(m_{ik},p_j)$が最大になる場合を求め,その相乗平均を類似度とする.なお,この式においては,すべての$m_{ik}$について$SIM(m_{ik},p_j)=0$になる場合以外は,どの$p_j$に対しても,類似度$SIM'(m_i,p_j)$は同じ値となる.\begin{table}[tb]\begin{center}\caption{\label{itotaba}意味因子「糸/束ねる[漢字``総'']」に対する類似度}\begin{tabular}{l|r|r|r|r}\hline漢字``総''の語義に&\multicolumn{4}{|c}{言い換え先の自立語}\\\cline{2-5}含まれる自立語&一定期間&収支&すべて&決算する\\\hline\multicolumn{1}{l|}{糸}&0&0.29&0.18&0\\束ねる&0&0&0&0.43\\\hline\end{tabular}\end{center}\end{table}例えば,意味因子「糸/束ねる[漢字``総'']」の場合を考えると,この意味因子は,二つは自立語から構成されている.まず,意味因子[漢字]を構成する各自立語と,言い換え先の各自立語との間の類似度$SIM$を計算すると,表\ref{itotaba}のようになる.ここで,$SIM(\mbox{糸},p_j)$と$SIM(\mbox{束ねる},p_j)$の最大値は,それぞれ$SIM(\mbox{糸},\mbox{収支})=0.29$,$SIM(\mbox{束ねる},\mbox{決算する})=0.43$となり,この相乗平均$\sqrt{0.29\times0.43}=0.35$が$SIM'(\mbox{糸/束ねる[漢字``総'']},\mbox{収支})$の値となる.同様に$SIM'(\mbox{糸/束ねる[漢字``総'']},\mbox{すべて})=SIM'(\mbox{糸/束ねる[漢字``総'']},\mbox{すべて})=0.35$となる.ただし,$SIM(\mbox{糸},\mbox{一定期間})=SIM(\mbox{束ねる},\mbox{一定期間})=0$のため,$SIM'(\mbox{糸/束ねる[漢字``総'']},\mbox{一定期間})$の値だけは0になる.以上の方法に基づいて,言い換え元「総決算する」における類似度を計算したものを表\ref{sokessangm}に示す.ここで類似度とは,意味因子が1単語で構成される場合は$SIM$,2単語以上で構成される場合は$SIM'$の値である.\footnotesize\begin{table}[tb]\begin{center}\caption{\label{sokessangm}「総決算する」における類似度計算}\begin{tabular}{l|r|r|r|r}\hline&\multicolumn{4}{|c}{言い換え先の自立語}\\\cline{2-5}意味因子候補&一定期間&収支&すべて&決算する\\\hline総決算する[全体]&0&0&0&0.2\\決算する[部分]&0&0&0&1.00\\決算[部分]&0&0.88&0&0\\算する[部分]&0&0&0&0.66\\\multicolumn{1}{c|}{$\vdots$}&\multicolumn{1}{|c|}{$\vdots$}&\multicolumn{1}{|c|}{$\vdots$}&\multicolumn{1}{|c|}{$\vdots$}&\multicolumn{1}{|c}{$\vdots$}\\すべて[漢字``総'']&0&0&1.00&0\\糸/束ねる[漢字``総'']&0&0.35&0.35&0.35\\\hline\end{tabular}\end{center}\end{table}\normalsize\subsection{言い換え先の選抜}\label{subsec:screen}前節で定義した類似度を用いて,言い換え元における意味因子の決定と,言い換え先の選抜を行う.なお,本手法では,前節の類似度$SIM'$の計算や,これ以降の計算においても,平均を求める際には相加平均ではなく相乗平均を用いる.これは,類似度を用いる目的が選抜であり,不適切な候補をできるだけ篩い落とすことに主眼を置いているからである.よって,平均を計算する対象中に,値の低いものがあると平均値がより低くなる相乗平均を用いた.\subsubsection{意味因子の決定}言い換え先の各自立語に対して,類似度が最大となるものを,それぞれ意味因子とする.よって表\ref{sokessangm}の例では,「収支」に対して「決算[部分]」(類似度0.88),「すべて」に対して「総[漢字]」(類似度1.00),「決算する」に対して「決算する[部分]」(類似度1.00),がそれぞれ対応する意味因子となる.なお,「一定期間」は,すべての意味因子候補との類似度が0なので,対応する意味因子が存在しないとする.ただし,以下の計算において「一定期間」と意味因子候補との間の類似度が必要になった場合には,その値を0と見做す.\subsubsection{言い換えの効率性}言い換え先の選抜基準を考えると,まず言い換え元の語をなるべく少ない単語数で表現し,冗長な表現を含まないものが望ましい.これを{\bf言い換えの効率性}と定義する.本手法の枠組では,言い換え元に含まれる意味因子を表すのに必要のない単語が含まれていないものが良い言い換え先となる.この効率性を計算するために,言い換え元の意味因子との類似度を,言い換え先候補に含まれる各自立語の{\bf有用度}と考え,その相乗平均を言い換え先候補全体の{\bf効率}$Eff$とする.例えば,$Eff(収支をすべて決算する)=\sqrt[3]{0.88\times1.00\times1.00}=0.96$となるが,$Eff(一定期間の収支をすべて決算する)$の場合は,有用度(類似度)が0となる自立語「一定期間」を含むため,その値が0となる.すなわち,$Eff$は,言い換え先が有用度の高い語だけで構成されているほど1に近い値を,有用度の低い語を含むほど0に近い値をとる.\subsubsection{言い換えの充足性}効率性とは逆に,言い換え元の意味がすべて言い換え先に含まれているかどうかを判定する,{\bf言い換えの充足性}を考える必要がある.本手法の枠組では,言い換え元の意味は,それを構成している漢字から成ると考えている.よって,漢字一字ごとに,その意味が言い換え先にどの程度反映されているかを示す{\bf反映度}を考える.この反映度は,その漢字を含む意味因子と,対応する言い換え先に含まれる自立語との間の類似度とし,各漢字ごとの反映度の相乗平均を言い換え先の{\bf充足率}$Suf$とする.例えば,$Suf(すべて決算する)$は,言い換え元「総決算」を構成する各漢字に対し,「総」を含む意味因子「総[漢字]」の反映度1.00,「決」を含む意味因子「決算する[部分]」の反映度1.00,「算」を含む意味因子「決算する[部分]」の反映度1.00の相乗平均として求められ,その値は1.00となる.一方,$Suf(決算する)$の場合は,「総」を含む意味因子に対応する自立語が言い換え先「決算する」に存在しない.この場合,「総」の反映度を0とし,結果,$Suf(決算する)=0$となる.すなわち,言い換え先に言い換え元の意味を表す自立語が抜けていると充足率$Suf$の値は0となる.逆に,言い換え先に余分な自立語がある場合,例えば,$Suf(収支をすべて決算する)$の値は$Suf(すべて決算する)$と同じく1.00となる.\subsubsection{言い換えの妥当性}本手法における,妥当な言い換えとは,言い換えの効率性と言い換えの充足性の両方が満たされているものである.よって,効率$Eff$と充足率$Suf$の二つの値の相乗平均を,{\bf言い換えの妥当性}$V$とする.言い換え元「総決算する」に対する例では,$V(収支をすべて決算する)=\sqrt{0.96\times1.00}=0.98$,$V(すべて決算する)=\sqrt{1.00\times1.00}=1.00$となり,「すべて決算する」が最も妥当な言い換えといえる. \section{日本語--ウイグル語対訳辞書拡充実験} \subsection{日本語--ウイグル語機械翻訳}日本語とウイグル語は共に膠着言語であり,語順がほぼ同じであるなど構文的にも類似した点が多い.こうした共通点に着目し,両言語を共に派生文法\cite{kiyose}で記述し,日本語入力文を形態素解析し,その後逐語訳することでウイグル語訳文を生成する方法(図\ref{ujtrance})が\cite{ogawa}において提案されている.この日本語--ウイグル語機械翻訳システムでは,入力された日本語文に対する形態素解析結果を逐語訳することを基本としているが,形態素解析に用いる辞書の登録単語数が約35万語であるのに比べて,対訳辞書に登録されている単語は約3.6万語と少ないため,形態素解析は可能であるが翻訳をすることができない事例が多く見られる.\begin{figure}[tb]\begin{center}\begin{tabular}{lcccccc}入力文:&\multicolumn{6}{c}{肉をたくさん食べた.}\\&\multicolumn{6}{c}{$\Downarrow$}\\形態素解析:&肉&を&たくさん&食べ&た&.\\&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$\\逐語訳:&Go\c{s}&ni&ji\c{k}&y\'e&di&.\\&\multicolumn{6}{c}{$\Downarrow$}\\翻訳文:&\multicolumn{6}{c}{Go\c{s}niji\c{k}y\'edi.}\\\end{tabular}\end{center}\caption{\label{ujtrance}日本語--ウイグル語機械翻訳}\end{figure}本研究では,第3章で提案した言い換え獲得の枠組みを用い,未登録語を言い換えて,それを翻訳することによって対訳語を自動的に獲得し,辞書拡充を図る実験を行った.具体的には,未登録語の中からコーパスにおいて出現頻度の高い単語を第3章の方法で言い換えて,その獲得された日本語の言い換えを,\cite{ogawa}の日本語--ウイグル語機械翻訳システムを用いて翻訳した.そして,言い換え結果が完全に翻訳できた場合に,言い換え元の訳語として辞書に登録できるかどうかを判定し,言い換え処理が対訳辞書の拡充にどのように寄与するかを検証した.\subsection{言い換え先候補の収集}名詞,動詞,サ変名詞の各品詞ごとに,EDR日本語コーパス\cite{edrdic}における出現頻度が上位1,000位までとなる単語を収集し,そのうち,日本語--ウイグル語辞書に登録されていなかった名詞452個,動詞477個,サ変名詞396個を実験対象とした.ただしEDR日本語単語辞書では,各単語について概念が異なれば別エントリとして登録しているため,言い換え元として考えるときには概念の異なりごとに区別した.また,複数の読み方がある場合や表記が異なる場合にも区別した.結果,名詞473概念,動詞514概念,サ変名詞429概念を実験対象とする言い換え元とした.そして,各言い換え元に対するEDR日本語単語辞書の概念説明を語義文と見做し,\ref{subsec:collection}節で述べた手法により言い換え先候補を収集した.結果,表\ref{cand}に示す言い換え先候補が収集された.\begin{table}[t]\caption{\label{cand}言い換え先候補}\begin{center}\begin{tabular}{c|r|r|r|r|r}\hline品詞&単語数&言い換え元数&言い換え先候補数&最大候補数&最小候補数\\\hline名詞&452&473&2,897&129&1\\動詞&477&514&2,541&82&1\\サ変名詞&396&429&2,087&55&1\\\hline\end{tabular}\end{center}\end{table}\subsection{言い換え先候補の選抜}\label{subsec:screening}前節で収集した言い換えを,\ref{subsec:screen}節に示した類似度ベースの手法で選抜する.その際,\ref{subsec:kanjimeaningdic}節で述べた漢字意味辞書が必要になる.本来はすべての漢字について辞書を作成するのが望ましいが,人手による修正が必要な部分があるため,今回は実験に必要な漢字についてのみ作成した.その結果,漢字605文字に対して,合計10,502個の語義をもつ辞書を作成した.漢字1字あたりに付加された語義の平均は17.3個であり,付加された語義数の最大は113個,最小は1個であった.そして,この漢字意味辞書に基づく意味因子[漢字]と,EDR日本語単語辞書の概念識別子に基づく意味因子[部分],[全体]を\ref{subsec:screen}節に示した手法で選抜した.すなわち,各言い換え元に対して言い換えの妥当性$V$の値が最も高いものを言い換え先とした.ただし,妥当性$V$の値が最大となるものが複数あった場合,言い換えとして同等に適切であると考え,一つの言い換え元に対して複数の言い換え先があるとした.よって,評価する言い換え対(言い換え元と言い換え先のペア)も一つの言い換え元に対して複数存在する場合がある.以上の結果,それぞれの品詞ごとに名詞537個,動詞599個,サ変名詞477個の言い換え対を得た.\subsection{評価}\label{subsec:eval}得られた言い換え対のうち,各品詞300個をランダムに抜き出し,日本語の言い換えとして適切であるかどうかを人手で評価した.その際,以下の観点に基づいて結果を分類した.まず,言い換え成功としたものを,以下の二つに分類した.\begin{description}\item[妥当]適切に言い換えられたもの.\item[文脈依存]言い換えが適切であるかどうかが文脈に依存するもの.例えば,「参画する$\rightarrow$計画に加わる」という言い換えは,「彼も\underline{参画し}ている」という文脈では適切であるが,「経営に\underline{参画し}ている」と文脈では不適切となる.\end{description}\noindent一方で,言い換え失敗としたものを,以下のように分類した.\begin{description}\item[説明過剰]言い換え先が言い換え元の説明になっていて,言い換えとしては記述が過剰であるもの.例えば,「本土$\rightarrow$その国の中心をなす国土」という言い換えが,これに分類される.\item[意味欠落]言い換え元の意味の一部が欠落した言い換え先が得られたもの.例えば,「苦戦する$\rightarrow$戦いをする」という言い換えがこれに当たる.\item[国語辞書の不充分な記述]本実験ではEDR日本語単語辞書の概念説明を語義文として利用したが,この概念説明は,人間が他の概念と区別するためのものであり,単語の説明となっていないものがある.そうした語義文の記述に由来する失敗はこれに分類される.\item[その他]上記以外のもの.この中には選抜手法に原因が求められるものが多く,その点については考察で言及する.\end{description}こうした基準で評価した結果を表\ref{jpresult2}に示す.\begin{table}[tb]\caption{\label{jpresult2}日本語の言い換えとしての評価}\begin{center}\begin{tabular}{c|c|rr|rr|rr}\hline\multicolumn{2}{c|}{評価基準}&\multicolumn{2}{c|}{名詞}&\multicolumn{2}{c|}{動詞}&\multicolumn{2}{c}{サ変名詞}\\\hline言い換え&妥当&80&(26.7\%)&144&(48.0\%)&146&(48.7\%)\\成功&文脈依存&43&(14.3\%)&38&(12.7\%)&47&(15.7\%)\\\hline&説明過剰&23&(7.7\%)&21&(7.0\%)&22&(7.3\%)\\言い換え&意味欠落&37&(12.3\%)&31&(10.3\%)&18&(6.0\%)\\失敗&その他&85&(28.3\%)&29&(9.7\%)&10&(3.3\%)\\&国語辞書&32&(10.7\%)&37&(12.3\%)&57&(19.0\%)\\\hline\multicolumn{2}{c|}{計}&300&(100\%)&300&(100\%)&300&(100\%)\\\hline\end{tabular}\end{center}\end{table}\subsection{日本語の言い換えに関する考察}表\ref{jpresult2}において,言い換えに失敗していると判定されたものについて検討する.まず,国語辞書の記述が不充分であったために誤りとされたものが多い.EDR辞書の概念説明は,一般の国語辞書における語義文とは異なり,人間が概念を区別する際の参考とするためのものであり,概念の説明中で見出し語をそのまま用いている場合がある.例えば,サ変名詞「会話する」の語義文は,そのまま「会話する」となっており,実験では,「会話する$\rightarrow$会話する」という言い換えが得られたが,これは言い換えとしては失敗である.こうした点については,他の辞書の語義文を用いることで改善されると考えられる.次に,各品詞ごとに検討する.まず名詞については,表\ref{jpresult2}に示したように,動詞やサ変名詞に比べて言い換えに成功した割合が低い.これは,名詞に対する国語辞書の語義文は,その見出し語がどのようなものであるかを説明している傾向が強いからである.例えば,「売り場」に対する語義文は,「物を売る一定の場所」となっており,このような語義文からは,言い換えとしての同等句を取り出しにくい.よって,名詞に対しては本手法とは逆に,収集段階で類似度ベースの手法を,選抜段階で語義文ベースの手法を適用することによって,より効果的な言い換えが得られると予想される.一方,用言の言い換えでは,例えば「一体化する」に対して「まとめる」が語義文となっているように,比較的易しい言葉で言い換えられるものが多い.そのことから,今回用いた語義文ベースの収集と,類似度ベースの選抜を組み合わせた手法は,用言向きの手法であるといえる.実際,用言(動詞とサ変名詞)についての結果を見れば,用言の言い換えは,辞書に起因する誤りを除けば,7〜8割の精度で言い換えに成功しており,本手法の有効性を示す結果であるといえる.また,その他に分類した例では,選抜段階での失敗が挙げられる.実験では「落ちつく$\rightarrow$なる」という言い換えが得られたが,これは「落ちつく」の語義文「心が安定した状態になる」から得られたものである.本手法は,言い換え元の意味因子と対応する自立語を,係り受けを保ったまま語義文から切り出す.この例では,「状態」という語と対応する意味因子がなかったために,「安定した」という文節が抜き出せなかったものと考えられる.同様の例として,「書ける$\rightarrow$ことができる」などの可能の意味含む動詞に関しては,ほぼ全ての事例で誤った結果を得ていた.例えば,「書ける」の語義は「書くことができる」であるが,言い換え先としては「できる」が獲得されていた.これは,本手法が元の係り受け関係を保存して言い換え先候補を収集し,選抜することに起因する.この例では,「こと」という単語の有用度が低く計算されたために,これに係る「書く」も削除されてしまったと考えられる.この問題の解決策としては,頻出単語や抽象度の高い単語に関しては類似度計算の対象としない手法が考えられる.\subsection{意味因子[漢字]の有効性に関する実験と考察}ここで,本研究の特徴である意味因子[漢字]の有効性について検討する.そのために,\ref{subsec:eval}節の評価で最も結果の良かったサ変名詞の言い換えに対して,意味因子[漢字]を利用した場合と利用しなかった場合の比較実験を行った.まず,言い換え元となるサ変名詞429概念のそれぞれについて,意味因子[漢字]を利用しない場合をベースとし,意味因子[漢字]を利用することにより,妥当性$V$の値と得られる言い換え先がどのように変化するかを実験で確かめた.その結果を表\ref{kanji_fact2}に示す.ここで,言い換えの品質が「同じ」とあるのは,得られた言い換え先が同じであることを示す.一つの概念から複数の言い換え先が得られる場合は,それぞれが一致したものをこれに分類する.得られた言い換え先が異なった場合は,それが意味因子[漢字]を利用しなかった場合と比べて,向上しているか,同程度であるか,低下しているかで判定した.\begin{table}[tb]\caption{\label{kanji_fact2}意味因子[漢字]の利用による言い換え結果の変化}\begin{center}\begin{tabular}{c|c|rrrr|c}\hline\multicolumn{2}{c|}{}&\multicolumn{4}{|c|}{言い換えの品質}\\\cline{3-6}\multicolumn{2}{c|}{}&向上&同じ&同等&低下&計\\\hline&増加&85&116&36&12&249\\妥当性$V$の値&変化なし&5&169&0&6&180\\&減少&0&0&0&0&0\\\hline\multicolumn{2}{c|}{計}&90&285&36&18&429\\\hline\end{tabular}\end{center}\end{table}妥当性$V$の値が増加し,言い換えの品質が向上した85個の中には,意味因子[漢字]なしの場合には,すべての言い換え先候補について妥当性の値が0となり言い換え先が得られなかったが,意味因子[漢字]を用いることで言い換え先が獲得できたものも含まれている.今回の実験では,そうしたものが16個あった.表\ref{kanji_fact2}をみると,意味因子[漢字]を利用することにより,多くの場合に妥当性$V$の値が増加することが分かる.これは,本手法では,言い換え先の各自立語に対して類似度を最大とするものを意味因子とするからである.つまり,意味因子[漢字]を利用することにより,意味因子候補がその分増えることになる.そうした候補と言い換え先の各自立語との類似度が,他の候補よりも低ければ意味因子として選ばれず,結果は変化しない.しかし,その類似度が高ければ意味因子として選択されることになり,最終的な妥当性$V$の値が向上する.なお,以上の理由により,意味因子[漢字]を利用することによって選択される意味因子が変化しても,妥当性$V$の値が減少することはない.これは実験結果からも確かめられた.さらに,言い換えとしての評価について表\ref{jpresult2}に示したサ変名詞の分と,意味因子[漢字]を利用しなかった場合との結果を合わせて表\ref{no_kanji_fact}に示す.今回は妥当性$V$の値が最大となったものを評価し,最大となるものが複数ある場合は,そのすべてを評価した.ただし,意味因子[漢字]の有無で妥当性の値が変化し,[漢字]なしのとき最大となるものが複数あったが,[漢字]ありの場合には一つになったものがある.そのため,言い換え元のサ変名詞は同じものを利用したが,得られた言い換え先の総数が異なっている.\begin{table}[tb]\caption{\label{no_kanji_fact}サ変名詞の言い換えにおける意味因子[漢字]の有無による比較}\begin{center}\begin{tabular}{c|c|rr|rr}\hline\multicolumn{2}{c|}{評価基準}&\multicolumn{2}{c|}{[漢字]あり}&\multicolumn{2}{c}{[漢字]なし}\\\hline言い換え&妥当&146&(48.7\%)&116&(36.4\%)\\成功&文脈依存&47&(15.7\%)&41&(12.9\%)\\\hline&説明過剰&22&(7.3\%)&18&(5.6\%)\\言い換え&意味欠落&18&(6.0\%)&77&(24.1\%)\\失敗&その他&10&(3.3\%)&13&(4.1\%)\\&国語辞書&57&(19.0\%)&54&(16.9\%)\\\hline\multicolumn{2}{c|}{計}&300&(100\%)&319&(100\%)\\\hline\end{tabular}\end{center}\end{table}表\ref{no_kanji_fact}の結果から,[漢字]ありの場合に比べて,[漢字]なしの場合には,妥当なものが減り,意味欠落と評価されたものが多くなっていることが分かる.これは表\ref{sokessangm}を見ると理由が理解しやすい.表\ref{sokessangm}の例において,意味因子[漢字]を用いなかった場合,その他の意味因子候補と言い換え先の自立語「すべて」との類似度がすべて0になり,自立語「すべて」に対応する意味因子が存在しなくなる.そのため,自立語「すべて」を含む言い換え先の効率$Eff$が下がり,そうした言い換え先が選択されなくなる.そして,結果的に言い換えとして意味が欠落したものが得られることになる.こうした点からも,意味因子[漢字]を利用することの有用性が分かる.また,今回は各言い換え元ごとに妥当性の値が最大となるものを選んだが,特定の閾値を用いて選抜する場合には,妥当性$V$の値がある程度の大きさをもつ必要があり,そうした場合にも意味因子[漢字]の利用は重要となる.\subsection{対訳辞書の拡充}\ref{subsec:eval}節で評価した,各品詞300組の言い換え対について,その言い換え先を日本語--ウイグル語翻訳システム\cite{ogawa}によって翻訳した.翻訳の成否に関する結果を,表\ref{ujresult3}に示す.ここで,翻訳成功としたものは,言い換え先が全てウイグル語に変換されたものであり,翻訳失敗としたものは,言い換え先の単語の中に日本語--ウイグル語翻訳システムで使用した辞書に登録されていない単語が含まれていたものである.解析失敗としたものは,日本語--ウイグル語翻訳システム\cite{ogawa}が入力文の解析に失敗し,出力を得られなかったものである.\begin{table}[tb]\caption{\label{ujresult3}翻訳結果}\begin{center}\begin{tabular}{c|rr|rr|rr}\hline&\multicolumn{2}{c|}{名詞}&\multicolumn{2}{c|}{動詞}&\multicolumn{2}{c}{サ変名詞}\\\hline翻訳成功&245&(81.7\%)&273&(91.0\%)&221&(73.7\%)\\翻訳失敗&48&(16.0\%)&16&(5.3\%)&68&(22.6\%)\\解析失敗&7&(2.3\%)&11&(3.7\%)&11&(3.7\%)\\\hline合計&300&(100\%)&300&(100\%)&300&(100\%)\\\hline\end{tabular}\end{center}\end{table}さらに,言い換え先の翻訳結果が,言い換え元の訳語として適切かどうかをウイグル語ネイティブによって評価した.評価対象は,それぞれの品詞につき翻訳が成功したもののうち,各100単語をランダムに取り出したものである.その結果を表\ref{ujresult4}に示す.表中で,「条件付」としたものは,常にその表現を用いることができるわけではないが,文脈によっては認められると判定されたものである.\begin{table}[tb]\caption{\label{ujresult4}対訳語としての適切さ}\begin{center}\begin{tabular}{c|rr|rr|rr|rr}\hline品詞&\multicolumn{2}{c|}{適切}&\multicolumn{2}{c|}{条件付}&\multicolumn{2}{c|}{不適切}&\multicolumn{2}{c}{合計}\\\hline名詞&37&&26&&37&&100&\\動詞&41&&26&&33&&100&\\サ変名詞&41&&34&&25&&100&\\\hline合計&119&(39.6\%)&86&(28.7\%)&95&(31.7\%)&300&(100\%)\\\hline\end{tabular}\end{center}\end{table}\subsection{辞書拡充に関する考察}\begin{table}[t]\caption{\label{taiou2}日本語言い換えとしての適切さと対訳語としての適切さとの対応}\begin{center}\begin{tabular}{c|c|rrr|rrr|rrr}\hline\multicolumn{2}{c|}{}&\multicolumn{3}{c|}{名詞}&\multicolumn{3}{c|}{動詞}&\multicolumn{3}{c}{サ変名詞}\\\multicolumn{2}{c|}{}&適切&条件付&不適切&適切&条件付&不適切&適切&条件付&不適切\\\hline言い換え&妥当&14&7&6&24&12&9&25&18&14\\\cline{2-11}成功&文脈依存&5&5&3&4&5&4&6&12&2\\\hline&説明過剰&6&1&2&1&1&8&6&2&0\\\cline{2-11}言い換え&意味欠落&2&6&6&9&3&3&2&1&2\\\cline{2-11}失敗&その他&6&6&17&1&1&8&1&0&3\\\cline{2-11}&国語辞書&4&1&3&2&4&1&1&1&4\\\hline\multicolumn{2}{c|}{計}&37&26&37&41&26&33&41&34&25\\\hline\end{tabular}\end{center}\end{table}表\ref{ujresult3}から,言い換えた結果が,おおむね翻訳可能であることが分かる.このことから,未登録語を言い換えることの有効性が示せた.また,表\ref{ujresult4}より,前後の文脈などの条件付きで適切としたものを含めれば,68.3\%が対訳として利用可能なことが分かる.このことから,本手法の利用可能性が確認できた.さらに,日本語での言い換えの成否が,ウイグル語対訳を得る場合にどのように影響しているかを調べた結果を表\ref{taiou2}に示す.この表から,日本語では言い換えに成功したもののうち,翻訳した結果が対訳語として不適切と判定されたものが,各品詞について,名詞22.5\%,動詞22.4\%,サ変名詞20.8\%の割合であったことが分かる.この原因としては,次の二点が挙げられる.一つは,日本語--ウイグル語機械翻訳システムが解析を誤ったために,正しい訳語が付与できなかったものである.例えば,「言い渡す$\rightarrow$命じる」は,日本語の言い換えとしては妥当であると判定した.しかし,翻訳システムが「命」を名詞として解析したために,正しく翻訳することができなかった.二つ目は,ウイグル語における単語の概念が異なるために,正しく翻訳できなかったものである.例えば,「出国する$\rightarrow$国を出る」は,日本語の言い換えとしては妥当である.しかし,「出国する」は,ウイグル語において「国\underline{から}出る」と表現すべき単語であったために,対訳語としては不適切と判定された.こうした問題については,日本語--ウイグル機械翻訳システムの改善によって解決できると考えられる.興味深い点としては,日本語の言い換えの評価としては失敗と判定されたにもかかわらず,そのウイグル語訳が,対訳として適切と判定されたものが少なからず存在したことである.その割合は,条件付き適切とされたものも含めた場合,名詞46.7\%,動詞47.6\%,サ変名詞39.1\%である.例えば,「打ち出す$\rightarrow$出す」という言い換えは,日本語の言い換えとしての評価では,「打ち」の部分の意味が欠落しているため,意味欠落と評価した.しかし,ウイグル語では「打ち出す」に相当するような単語がなく意味的には「出す」を翻訳した``\ckoyma\ck''が該当する.よって,この場合にはウイグル語としては適切な訳語が得られたことになる.また,日本語における言い換え失敗の例として挙げた「書ける」に関しては,日本語では「書く」とは別の単語として辞書に登録されているが,使用した日本語--ウイグル機械翻訳システムでは「書ける」は「書く」に可能を表す接尾辞が接続した形であると解析し,「書ける」が辞書になくても「書く」が辞書にあれば翻訳可能である.今回は,単純に辞書の未登録語をすべて対象としたが,「書ける」のように,未登録語であっても翻訳できる単語があり,こうした単語については今回の実験対象から除くべきであった.こうした点を考慮すると,今回の言い換えにおける選抜段階での評価関数は日本語に注目しただけであったが,ウイグル語へ翻訳することを考慮した関数に変更することも考えらえる. \section{おわりに} 本論文では,言い換え処理を収集段階と選抜段階の二段階に分け,収集段階に語義文ベースの手法を,選抜段階に類似度ベースの手法を適用することによる言い換え方法を提案した.さらに,獲得された言い換えを翻訳することによる日本語--ウイグル語対訳辞書の拡充も提案し,実験によりその利用可能性を確認した.今後の課題としては,以下の項目が挙げられる.まず,日本語--ウイグル語対訳辞書拡充の効果に関する調査が必要である.本論文では,言い換えを用いて対訳辞書に新たな単語を登録したが,最終的な目的は,日本語−ウイグル語機械翻訳システムを用いて翻訳できる文数を増やすことである.よって,実際の文章が与えられたときに翻訳可能な文がどの程度増えるかといった評価や,文中の未登録語を動的に言い換えた場合の評価について調査する必要がある.また,言い換え元に多義性がある場合の評価も必要である.本手法では,言い換え元を概念で区別しており,一つの語に複数の概念がある場合,それぞれについて別々の言い換えを獲得する.そうして得られた言い換えに対する評価と多義性解消への応用についても検討する.さらに,本論文で扱った名詞,動詞,サ変名詞以外の品詞への適用も必要である.加えて,本論文の手法では名詞に関してはあまり結果が良くなかったため,現在,収集段階に類似度ベース,選抜段階に語義文ベースの手法を組み合わせた手法も試みている.また,一度の言い換えでは翻訳できなかった単語については,翻訳できなかった部分を再度言い換えることによって解決できる可能性がある.例えば,「収納する」は「金銭を受納する」と言い換えられたが,「受納する」が翻訳できなかった.しかし,これをさらに言い換えて,「金銭を領収する」のようにすれば翻訳が可能になる.こうした多段階の言い換えについても検討し,その効果を確かめたい.\acknowledgment本研究は,人工知能研究振興財団からの補助を受けて行われています.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{崔\JBA小松\JBA安原}{崔\Jetal}{1993}]{cui}崔進\JBA小松英二\JBA安原宏\BBOP1993\BBCP.\newblock\JBOQEDR電子化辞書を用いた単語類似度計算法\JBCQ\\newblock自然言語処理研究会,情報処理学会.\bibitem[\protect\BCAY{日本電子化辞書研究所}{日本電子化辞書研究所}{1996}]{edrdic}日本電子化辞書研究所\BBOP1996\BBCP.\newblock\Jem{EDR電子化辞書仕様説明書}.\newblock日本電子化辞書研究所.\bibitem[\protect\BCAY{藤田\JBA乾\JBA乾}{藤田\Jetal}{2000}]{fuj00}藤田篤\JBA乾健太郎\JBA乾裕子\BBOP2000\BBCP.\newblock\JBOQ名詞言い換えコーパスの作成環境\JBCQ\\newblock電子情報通信学会技術研究報告,情報処理学会.\bibitem[\protect\BCAY{Hindle}{Hindle}{1990}]{hindle}Hindle,D.\BBOP1990\BBCP.\newblock\BBOQNounClassificationfromPredicate-argumentStructure\BBCQ\\newblockIn{\BemProceedingsofthe28thAnnualMeetingoftheACL},\BPGS\268--275.\bibitem[\protect\BCAY{笠原\JBA松澤\JBA石川}{笠原\Jetal}{1997}]{kasahara}笠原要\JBA松澤和光\JBA石川勉\BBOP1997\BBCP.\newblock\JBOQ国語辞書を利用した日常語の類別性判別\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf38}(7),1272--1283.\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1998}]{kur98}黒橋禎夫\JBA長尾真\BBOP1998\BBCP.\newblock\Jem{日本語構文解析システムKNPversion2.0b6使用説明書}.\newblock京都大学大学院情報学研究科,http://www.kc.t.u-tokyo.ac.jp/nl-resource/knp.html.\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1999}]{kur99}黒橋禎夫\JBA長尾真\BBOP1999\BBCP.\newblock\Jem{日本語形態素解析システムJUMANversion3.61使用説明書}.\newblock京都大学大学院情報学研究科,http://www.kc.t.u-tokyo.ac.jp/nl-resource/juman.html.\bibitem[\protect\BCAY{ムフタル\JBA小川\JBA杉野\JBA稲垣}{ムフタル\Jetal}{2003}]{muhtar2003}ムフタル・マフスット\JBA小川泰弘\JBA杉野花津江\JBA稲垣康善\BBOP2003\BBCP.\newblock\JBOQ日本語--ウイグル語辞書の半自動作成と評価\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(4),83--108.\bibitem[\protect\BCAY{Murata\BBA\Isahara}{Murata\BBA\Isahara}{2001}]{murata}Murata,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2001\BBCP.\newblock\BBOQUniversalModelforParaphrasing-UsingTransformationBasedonaDefinedCriteria-\BBCQ\\newblockIn{\BemProceedingsof6thNLPRSWorkshop-AutomaticParaphrasing:TheoriesandApprications-},\BPGS\44--54.\bibitem[\protect\BCAY{小川\JBAムフタル\JBA外山\JBA稲垣}{小川\Jetal}{1999}]{ogawa2}小川泰弘\JBAムフタル・マフスット\JBA外山勝彦\JBA稲垣康善\BBOP1999\BBCP.\newblock\JBOQ派生文法による日本語形態素解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(3),1080--1090.\bibitem[\protect\BCAY{小川\JBAムフタル\JBA杉野\JBA外山\JBA稲垣}{小川\Jetal}{2000}]{ogawa}小川泰弘\JBAムフタル・マフスット\JBA杉野花津江\JBA外山勝彦\JBA稲垣康善\BBOP2000\BBCP.\newblock\JBOQ日本語--ウイグル語機械翻訳における派生文法に基づくウイグル語動詞句の生成\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(3),57--77.\bibitem[\protect\BCAY{清瀬}{清瀬}{1989}]{kiyose}清瀬義三郎則府\BBOP1989\BBCP.\newblock\Jem{日本語文法新論--派生文法序説}.\newblock桜楓社.\bibitem[\protect\BCAY{新村}{新村}{1996}]{kojien}新村出\JED\\BBOP1996\BBCP.\newblock\Jem{広辞苑第四版EPWINGCD-ROM版}.\newblock岩波書店.\bibitem[\protect\BCAY{鍛治\JBA河原\JBA黒橋\JBA佐藤}{鍛治\Jetal}{2002}]{kajichi}鍛治伸裕\JBA河原大輔\JBA黒橋禎夫\JBA佐藤理史\BBOP2002\BBCP.\newblock\JBOQ国語辞書とコーパスを用いた用言の言い換え規則の学習\JBCQ\\newblock\Jem{第8回年次大会発表論文集},\BPGS\331--334.\bibitem[\protect\BCAY{長尾}{長尾}{1996}]{nagao}長尾真\JED\\BBOP1996\BBCP.\newblock\Jem{自然言語処理}.\newblock岩波書店.\bibitem[\protect\BCAY{釜谷\JBA小川\JBA稲垣}{釜谷\Jetal}{2002}]{ipsj02}釜谷聡史\JBA小川泰弘\JBA稲垣康善\BBOP2002\BBCP.\newblock\JBOQ辞書語義文を利用した対訳辞書の拡充\JBCQ\\newblock\Jem{情報処理学会第64回全国大会講演論文集(分冊2)},\BPGS\91--92.\bibitem[\protect\BCAY{藤田\JBA乾}{藤田\JBA乾}{2001}]{fujita}藤田篤\JBA乾健太郎\BBOP2001\BBCP.\newblock\JBOQ語釈文を利用した普通名詞の同概念語への言い換え\JBCQ\\newblock\Jem{第7回年次大会発表論文集},\BPGS\331--334.\bibitem[\protect\BCAY{山本}{山本}{2001}]{yama01}山本和英\BBOP2001\BBCP.\newblock\JBOQ換言処理の現状と課題\JBCQ\\newblock\Jem{第7回年次大会ワークショップ論文集},\BPGS\93--96.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{小川泰弘}{1995年名古屋大学工学部情報工学科卒業.2000年同大学院工学研究科情報工学専攻博士課程後期課程修了.同年より,名古屋大学助手.博士(工学).自然言語処理に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{釜谷聡史}{2001年名古屋大学工学部電気電子情報工学科卒業.2003年同大学院工学研究科計算理工学専攻博士課程前期課程修了.現,株式会社東芝.自然言語処理に関する研究に従事.情報処理学会会員.}\bioauthor{ムフタル・マフスット}{1983年新疆大学数系卒業.1996年名古屋大学大学院工学研究科情報工学専攻博士課程満了.同年,三重大学助手.2001年より,名古屋大学助手.博士(工学).自然言語処理に関する研究に従事.人工知能学会,情報処理学会各会員.}\bioauthor{稲垣康善}{1962年名古屋大学工学部電子工学科卒業.1967年同大学院博士課程修了.同大助教授,三重大学教授を経て,1981年より名古屋大学工学部・大学院工学研究科教授.1997年4月〜2000年3月工学研究科長・工学部長.2003年4月より同大学名誉教授,愛知県立大学情報科学部教授.工学博士.この間,スイッチング回路理論,オートマトン・言語理論,計算論,ソフトウエア基礎論,並列処理論,代数的仕様記述法,人工知能基礎論,自然言語処理などの研究に従事.言語処理学会,情報処理学会(フェロー),電子情報通信学会(フェロー),人工知能学会,日本ソフトウエア科学会,IEEE,ACM,EATCS各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V09N02-03
\section{はじめに} 本論文では,コーパスから事象間の関係を抽出する問題において,事象間の一対多関係を推定する問題を取り上げた.コーパスから事象間の関係を推定する場合,それらの事象は共起出現することに基づく推定を行うことが多い.しかし,そこで用いられている手法は暗黙のうちに,推定する関係が一対一関係であると想定しているものがほとんどである.しかし抽出すべき事象間の関係は一対一関係であるとは限らず,あらかじめ関係が一対多関係であることがわかっている場合もある.このような場合,これまでの一対一関係を前提とした手法が有効であるかどうかは明らかではない.一方,データベースにおいて連想規則を抽出する問題において,その規則が表す事象間の関係が一対多関係であることを考慮した手法が用いられている\cite{Agrawal96}.しかし,この手法がコーパスから事象間の関係を推定する問題に効果的であるかどうかは明らかではない.ここで,事象間の関係が一対多関係である場合,それらの事象が持つ出現パターン間の関係は一致ではなく,包含関係であることが観測される.そこで,本論文では,出現パターンの包含関係に強いとされる類似尺度を探し,この条件にあてはまる類似尺度として,文字認識の分野で提案されている補完類似度\cite{Hagita95}に着目した.そして,この類似尺度をコーパスから事象間の一対多関係を抽出する問題に適用し,その有効性を評価する.さらに,評価実験を通して,これまでにコーパスから事象間の関係を推定することに用いられている類似度やデータベースにおいて連想規則を発見することに用いられる尺度と,補完類似度との間で性能の比較を行う.これまでに用いられている類似尺度として,平均相互情報量,自己相互情報量,$\phi$相関係数,コサイン関数,ダイス相関係数を選んだ.これらは関係の抽出に用いられる代表的な類似尺度である.また,一対多関係を推定する問題において,非対称性を持つ尺度と対称性を持つ尺度との性能差を測るために,平均相互情報量を改良し,非対称性を持たせた非対称平均相互情報量を定義し,比較対象とする尺度に加えた.実験対象となる事象としては地名(都道府県市郡名)を選んだ.地名は実世界において一対多関係を持つ事象である.実験は,人工的に生成したデータ集合と実データに対して行った.人工的に生成したデータ集合は実在する地名の一対多関係から擬似的に関係を取り出し,それをデータとして生成したデータ集合である.このデータ集合において,現存する一対多関係を再現する能力を測定した.実データを用いた実験では,実際の新聞記事における地名の出現パターンから現存する一対多関係を推定する能力を測定した.これらの実験の結果において,補完類似度はこれまでのコーパスからの関係抽出に用いられてきた類似尺度よりも優れ,連想規則の抽出に用いられる類似尺度よりもよい特性を示した.この論文は以下のような構成になっている.まず2節に,一対多関係を推定する問題を定義するために必要な要素を定義する.次に3節では,評価対象とする類似尺度の概要と,補完類似度,これと比較対象となる尺度,平均相互情報量,自己相互情報量,非対称平均相互情報量,$\phi$相関係数,コサイン関数,ダイス相関係数,信頼度を示す.4節では,実験の概要と,モデルに従って生成された人工的なデータにおける実験,実データを用いた実験を示す.5節で考察し,6節で関連研究を示す.最後に7節でまとめる. \section{問題定義} この節では,本論文で扱う問題についての定義を示す.扱う事象は事柄を表す名前(ラベル)とする.ここでは,ラベル間には隠れた関係があり,ラベルの集合からその関係を推定するという問題を定義する.\begin{df}ラベルの定義ラベル$l$は関係を定める対象であり,あるラベルと他のラベルが同一であるかないかを判定できる事柄を表す名前である.本論文では,ラベルの集合を$L$と表す.\begin{eqnarray*}L&=&\{l|lはラベル\}\end{eqnarray*}\end{df}\begin{ex}ラベル集合$L$の例\begin{eqnarray*}L_{example}&=&\{北海道,沖縄県,札幌市,那覇市,釧路市,東京都\}\end{eqnarray*}\end{ex}\begin{df}一対多関係の定義一対多関係$\langlex,y\rangle$はラベル間で定義される関係である.一対多関係においては,次の二つの式が成り立つ.\begin{eqnarray*}&&{}^{\forall}a\inL;{}^{\forall}b\inL;{}^{\forall}c\inL;\langlea,c\rangle\wedge\langleb,c\rangle\rightarrowa=b\\&&{}^{\exists}a\inL;{}^{\exists}b\inL;{}^{\exists}c\inL;\langlea,b\rangle\wedge\langlea,c\rangle\wedgeb\neqc\end{eqnarray*}最初の定義は,関係の右のラベルが等しい場合には関係の左のラベルも等しいことを意味している.二番目の定義は,この関係には一対一ではないラベルが存在するということを意味している.これらの定義が成立する式の集合を$R$と定義し,関係集合と呼ぶことにする.\begin{eqnarray*}R&=&\{\langlel_c,l_p\rangle|l_c,l_p\inL\}\\\end{eqnarray*}\end{df}\begin{ex}関係集合$R$の例\begin{eqnarray*}R_{example}&=&\{\langle北海道,札幌市\rangle,\langle北海道,釧路市\rangle,\langle沖縄県,那覇市\rangle\}\end{eqnarray*}\end{ex}\begin{df}雑音のないデータ集合の定義ラベル集合$L$があり,関係集合$R$があるとする.このとき,ラベル集合の部分集合$d$があり,この$d$で構成される集合が観測できるデータ集合$D$であると考える.ここで,$2^L$はLのべき集合を表す.このとき,観測できるデータ集合$D$は次のように定義できる.\begin{eqnarray*}D&=&\{d|d\in2^L\wedge{}^{\forall}l\ind;{}^{\exists}\langlel_c,l_p\rangle\inR;((l=l_c\wedgel_p\ind)\vee(l=l_p\wedgel_c\ind))\}\end{eqnarray*}この式は,観測できるそれぞれの$d$にあるラベルはある関係集合の要素から対で取り出されたラベルで,必ず関係の相手であるラベルも$d$にあるということを意味している.\label{no-noise}\end{df}\begin{ex}雑音のないデータ集合の例\begin{eqnarray*}L_{example}&=&\{北海道,沖縄県,札幌市,那覇市,釧路市,東京都\}\\R_{example}&=&\{\langle北海道,札幌市\rangle,\langle北海道,釧路市\rangle,\langle沖縄県,那覇市\rangle\}\\&&のとき,\\D_{example}&=&\{\{沖縄県,那覇市\},\{北海道,札幌市,釧路市\},\\&&~\{北海道,札幌市,沖縄県,那覇市\}\}\end{eqnarray*}\end{ex}\begin{df}出現パターンの包含関係の定義ここで,ラベルを引数とする関数$\tilde{D}$を定義する.この関数は与えられたラベルを含むデータ集合$D$の要素$d$を返す関数である.\begin{eqnarray*}\tilde{D}(l)&=&\{d|l\ind\}\end{eqnarray*}この関数を使うと,あるラベル$l_c$の出現パターンが他のラベル$l_p$の出現パターンを包含することを次のように定義できる.\begin{eqnarray*}\tilde{D}(l_p)\subseteq\tilde{D}(l_c)\end{eqnarray*}\end{df}また,関係集合$R$において,左のラベル$l_c$の集合を$L_c$,右のラベル$l_p$の集合を$L_p$としたとき,関係が一対多関係であるならば,次の式が成り立つ.\begin{eqnarray*}&&L_c\capL_p=\phiならば,{}^{\forall}\langlel_c,l_p\rangle\inR;\tilde{D}(l_p)\subseteq\tilde{D}(l_c)\end{eqnarray*}言い換えると,この状況において関係集合が一対多関係であることは,すべての関係について,左のラベル$l_c$の出現パターンは右のラベル$l_p$の出現パターンを包含するという関係になるということである.\begin{df}雑音のないデータ集合から関係を推定する問題雑音のない集合から関係集合を推定する問題は,ラベル集合$L$と観測できるデータ集合$D$から関係集合$R$を求めることである.ここで,求められた集合を$\hat{R}$と記述することにする.$\hat{R}$を得たとしても,その要素である関係が実際に成り立っているかを簡単には決定できないため,この問題を厳密に解くことは難しい.実際には,$\hat{R}$にあるラベル間の関係$\langlel_c,l_p\rangle$が真実の関係集合$R$に含まれるかどうかを判定することによって推定を行う.そして,$\hat{R}$の要素が$R$の要素である確率が高いほどよい推定と考える.\end{df}\begin{df}雑音のあるデータ集合の定義\label{with-noise}実世界のデータベースの多くは「雑音のあるデータ集合」である.雑音$d_N$のあるデータ集合$D^*$は,雑音のないデータ集合$D$を構成する各集合$d$に,$d$に含まれているどのラベルとの間においても,関係集合$R$にある関係が成り立たないラベルを追加した集合$d^*$の集合と考える.すなわち,雑音$d_N$は,$d$に含まれるどのラベルとの間にも正解集合$R$にある関係が成り立たないラベル$l_N$を持つ集合である.ここで,$2^L$は$L$のべき集合を表す.このとき,観測できるデータ集合$D^*$は次のように定義できる.\begin{eqnarray*}D^*&=&\{d^*|{}^{\exists}d_N\in2^L;{}^\existsd\inD;{}^\foralll_N\ind_N;{}^\foralll\ind;\\&&\,\,\,\,\langlel_N,l\rangle\not\inR\wedge\langlel,l_N\rangle\not\inR\wedged^*=d\cupd_N\wedge|d|\gg|d_N|\}\end{eqnarray*}\end{df}\begin{ex}雑音のあるデータ集合の例\begin{eqnarray*}L_{example}&=&\{北海道,沖縄県,札幌市,那覇市,釧路市,東京都\},\\R_{example}&=&\{\langle北海道,札幌市\rangle,\langle北海道,釧路市\rangle,\langle沖縄県,那覇市\rangle\},\\D_{example}&=&\{\{沖縄県,那覇市\},\{北海道,札幌市,釧路市\},\\&&~\{北海道,札幌市,沖縄県,那覇市\}\}\\のとき,&&\\D^*_{example}&=&\{\{沖縄県,那覇市,札幌市\},\\&&~\{北海道,札幌市,釧路市,東京都,那覇市\},\\&&~\{北海道,札幌市,沖縄県,那覇市,東京都\}\}\end{eqnarray*}\end{ex}\begin{df}雑音のあるデータ集合から関係を推定する問題雑音のある集合から関係を推定する問題は,ラベル集合$L$と雑音のあるデータ集合$D^*$から$R$を求めることである.対象とするデータ集合に雑音があるため,関係の推定は難しくなっている.この問題についても,求められた関係集合の要素が関係集合$R$の要素である確率で評価を行う.\end{df}\vspace{2zw}\begin{df}多重度の定義ここで,データ集合が持つ関係の特性を表すため,多重度を定義する.多重度はデータ集合から得られた正解である関係$\langlel_c,l_p\rangle$に関して,一つのラベル$l_c$は平均的にいくつのラベル$l_p$と関係を持つかを表す一対多の比率である.与えられたデータ集合を$D$とする.$D$から求められる関係集合$R^+$を以下のように定義する.\begin{eqnarray*}R^+&=&\{\langlel_c,l_p\rangle|{}^\existsd\inD;l_c\ind\wedgel_p\ind\wedge\langlel_c,l_p\rangle\inR\}\end{eqnarray*}同様に,$D$から求められる$L_c$を以下のように定義する.\begin{eqnarray*}L_c^+&=&\{l_c|{}^\existsd\inD;{}^\existsl_p\ind;\langlel_c,l_p\rangle\inR\}\end{eqnarray*}このとき,$D$が持つ多重度$M$は次のように定義できる.\begin{eqnarray*}M(D)&=&\frac{|R^+|}{|L_c^+|}\end{eqnarray*}\label{multi}\end{df}\begin{ex}多重度の例\begin{eqnarray*}D^*_{example}&=&\{\{沖縄県,那覇市,札幌市\},\\&&~\{北海道,札幌市,釧路市,東京都,那覇市\},\\&&~\{北海道,札幌市,沖縄県,那覇市,東京都\}\}\\のとき,&&\\M(D^*_{example})&=&\frac{|\{\langle沖縄県,那覇市\rangle,\langle北海道,札幌市\rangle,\langle北海道,釧路市\rangle\}|}{|\{北海道,沖縄県\}|}\\&=&1.5\end{eqnarray*}\end{ex}通常,これらの関係を推定する際には,一対多関係にある$l_c,l_p$の間の何らかの形をした類似尺度を用いる.既存の多くの方法では,類似尺度が$l_p$と$l_c$に対して対称であることが多い.これは,これらの方法が$\tilde{D}(l_p)\simeq\tilde{D}(l_c)$であることを暗黙のうちに仮定していると解釈することができる.これに対して,本論文では,実際に$\tilde{D}(l_p)\subseteq\tilde{D}(l_c)$となる問題における一対多関係の推定に注目した. \section{評価対象となる類似尺度} 本論文では,さまざまな類似尺度について一対多関係を推定する問題における性能を比較する.比較においては,類似尺度が利用する情報を基本的な情報にそろえ,利用する情報に影響を受けないようにし,公正な比較となるようにしたい.そこで,本論文で扱う類似尺度は下記に示すパラメータ$a,b,c,d$で利用できる情報をもとに計算できる類似尺度とした.実際に使用されている類似尺度の多くはこの$a,b,c,d$から計算される.次にこれらのパラメータの定義を示す.このパラメータによって,本論文で扱う類似尺度は表現される.\newpage\begin{df}パラメータ\label{para}ラベル$lab_1,lab_2$に対する二値パターンをそれぞれ二値n次元のベクトル$\vec{F}=(f_1,f_2,$$...,f_i,...,f_n)(f_i=0または1),$$\vec{T}=(t_1,t_2,...,t_i,...,t_n)(t_i=0または1)$とする.このとき,$\vec{F}$が$\vec{T}$にどれだけ類似しているかを以下のパラメータを用いて推定する.ただし,$n=a+b+c+d$である.\begin{eqnarray}a&=&\sum_{i=1}^nf_it_i\label{csm_a}\\b&=&\sum_{i=1}^nf_i(1-t_i)\label{csm_b}\\c&=&\sum_{i=1}^n(1-f_i)t_i\label{csm_c}\\d&=&\sum_{i=1}^n(1-f_i)(1-t_i)\label{csm_d}\end{eqnarray}\end{df}それぞれのパラメータは,\begin{itemize}\itema:二つのラベルが同時に現れるデータの数,\itemb:$lab_1$が現れ,$lab_2$は現れないデータの数,\itemc:$lab_2$が現れ,$lab_1$は現れないデータの数,\itemd:二つのラベルがどちらとも現れないデータの数\end{itemize}を表す.これらのパラメータを情報としてとらえると,$a,d$は二つの出現パターンがどれだけ一致しているかを見るための情報となり,$b,c$は二つの出現パターンがどれだけ一致しないかを見るための情報となる.実験では,これらの情報から出現パターン間の類似度を計算し,その類似度が高ければ,二つの出現パターンは包含関係ではないかと推定する.このとき用いる類似尺度は,$\langlelab_1,lab_2\rangle$が関係集合$R$の要素である場合,高いスコアを与える関数であるとする.また,対称性を持つ類似尺度の場合,包含するラベルであるかそれとも包含されるラベルであるかを判断することができないため,本論文では,対称性を持つ類似尺度の場合は,出現回数の多いラベルを包含するラベルとして出現パターンの包含関係を推定した.本論文では,一対多関係を推定する問題において,文字認識の分野で提案されている補完類似度に注目し,これとこれまでに提案されている類似尺度の性能を比較する.\subsection{補完類似度}この節では,補完類似度\cite{Hagita95,Sawaki95a,Sawaki95b}について説明する.本来,補完類似度は文字認識の分野のもので,劣化印刷文字を高い精度で認識できるように考案された類似度である.劣化印刷文字とは,かすれていたり汚れている文字のことである.補完類似度を用いた文字認識方法を補完類似度法といい,これは文字を二値画像特徴として扱い,補完類似度を用いて,そのパターンとテンプレートとする文字のパターンとの類似度を計算し,文字を認識する方法である.この手法は,汚れた文字においては人間による文字認識と同等の精度を持ち,かすれた文字においては人間による文字認識よりも高い精度を持つ\cite{Sawaki95a}.この結果は,補完類似度が劣化印刷文字のパターンがテンプレート文字のパターンに包含される形にあるのであれば,文字であると認識できるように,高い類似度を保持する特徴を持つためである.本論文で扱う出現パターンは頻度情報を考慮しない二値パターンであるため,仮にこれを文字のパターンと置き換えたとすれば,二つのラベルの出現パターンが異なる部分はかすれや汚れと解釈することができる.以下に補完類似度の定義,性質をそれぞれ示す.\subsubsection{補完類似度の定義}この節では,補完類似度(ComplementarySimilarityMeasure)の定義を示す.定義\ref{para}のパラメータを用いて,$\vec{F}$の$\vec{T}$に対する補完類似度を次のように定義する.この定義は文献\cite{Hagita95,Sawaki95a,Sawaki95b}に示されている定義である.\begin{df}補完類似度\begin{eqnarray}S_c(\vec{F},\vec{T})&=&\frac{ad-bc}{\sqrt{(a+c)(b+d)}}\label{csm}\end{eqnarray}\end{df}この定義式から,補完類似度はパラメータ$a,b,c,d$で表す出現情報をすべて考慮した類似尺度である.\subsubsection{補完類似度の性質}文字認識に限らず,二つのパターンの類似度を求める場合,二つのパターンの一致している部分だけに注目した類似尺度が用いられることが多い.これらの類似尺度は二つのパターンをを入れ換えても同じ値を持つ.この性質を持つ類似尺度は対称性を持っているといわれる.一方,補完類似度では分子にパラメータ$b,c$を用いて二つのパターンの相違を考慮した形の定義式となっている.補完類似度の定義式(\ref{csm})に含まれる項$bc$は,$\vec{F}$が$\vec{T}$を完全に包含するなら$c=0$となるため,0となり,また反対に,$\vec{T}$が$\vec{F}$を完全に包含するなら$b=0$となるため,この場合も0となる.このような場合,補完類似度では定義式の分子が一致情報($ad$)と不一致情報($bc$)の差分をとる形であるため,包含関係を持つパターン対に対して高い類似度を保持する.また,補完類似度は,二つのパターンを入れ替えると値が変わる.このため,補完類似度は非対称性を持つ.\subsection{相互情報量}相互情報量(MutualInformation)は二つの確率変数の依存性を表す尺度として一般的に知られており,多くの処理に適用されている\cite{Nagao96,Manning99,Matsumoto00}.この節では,相互情報量の一般的な定義式を示し\cite{Honda65,Nakagawa92},その後,定義\ref{para}のパラメータを用いて定義式を表現し直す.二つの確率変数$X,Y$について平均相互情報量$I(X;Y)$の定義式を示す.$X$は$x_1,x_2,...,x_n$をとり,$Y$は$y_1,y_2,...,y_m$をとるとしたとき,平均相互情報量は次式で表される.ただし,$p(x_i,y_j)$は$X$が$x_i$を,$Y$が$y_j$を同時にとる確率である.\begin{eqnarray}\mbox{\hspace*{-2em}}I(X;Y)&=&\sum_{i=1}^n\sum_{j=1}^mp(x_i,y_j){\log}\frac{p(x_i,y_j)}{p(x_i)p(y_j)}\label{mi-gen}\\\mbox{\hspace*{-2em}}&=&p(x_1,y_1){\log}\frac{p(x_1,y_1)}{p(x_1)p(y_1)}+p(x_1,y_2){\log}\frac{p(x_1,y_2)}{p(x_1)p(y_2)}\nonumber\\\mbox{\hspace*{-2em}}&+&p(x_2,y_1){\log}\frac{p(x_2,y_1)}{p(x_2)p(y_1)}+p(x_2,y_2){\log}\frac{p(x_2,y_2)}{p(x_2)p(y_2)}\label{mi-parts}\end{eqnarray}次に,この定義式をパラメータを用いた表現に直すために,確率変数$X,Y$はそれぞれラベル$lab_1,lab_2$を表すとする.このとき,ラベルの出現パターンは二値パターンであるため,事象はデータにラベルが出現するか出現しないかのどちらかとなり,データ集合に対して,\begin{itemize}\item$p(x_1)$はデータにラベル$lab_1$が出現する確率,\item$p(x_2)$はデータにラベル$lab_1$が出現しない確率,\item$p(y_1)$はデータにラベル$lab_2$が出現する確率,\item$p(y_2)$はデータにラベル$lab_2$が出現しない確率\end{itemize}となる.これらの確率を言い換えると,データ集合に対する各事象を出現するデータの割合である.したがって,ラベル$X$に対するベクトルを$\vec{F}$,ラベル$Y$に対するベクトルを$\vec{T}$とし,定義\ref{para}のパラメータを用いると,式(\ref{mi-gen})は次のように表現できる.\begin{df}平均相互情報量\mbox{\hspace*{-2em}}\begin{eqnarray}I(X;Y)&=&\frac{a}{n}{\log}\frac{an}{(a+b)(a+c)}+\frac{b}{n}{\log}\frac{bn}{(a+b)(b+d)}\nonumber\\&+&\frac{c}{n}{\log}\frac{cn}{(c+d)(a+c)}+\frac{d}{n}{\log}\frac{dn}{(c+d)(b+d)}\label{mi}\end{eqnarray}\end{df}実験では,式(\ref{mi})を用いて平均相互情報量を計算した.この定義式から,平均相互情報量は出現情報をすべて考慮した類似尺度である.また,平均相互情報量は対称性を持つ.一方,平均相互情報量の第一項に基づく尺度が関連性の高い単語対を発見するために多く提案されている\cite{Church90,Rosenfeld96,Kita99}.この尺度は,ある単語が現れることによる情報量が他の単語と共起することを知ることによって増加する情報量を測る尺度である.これらの尺度における基本的な定義式を次に示す\cite{Church90}.本論文では,この尺度を自己相互情報量と呼ぶことにする.\begin{df}自己相互情報量\begin{equation}I(x_1;y_1)=\log\frac{an}{(a+b)(a+c)}\label{p-mi}\end{equation}\end{df}この定義式から,自己相互情報量は出現情報のうちどちらとも出現しないという情報を考慮せず,共起するという情報を中心とした類似尺度である.また,この尺度は対称性を持つ尺度である.本論文では,この自己相互情報量も比較対象として加えることにした.上記の相互情報量は対称性を持つ尺度であるが,事象間の関係が一対多関係である場合,それらの事象が持つ出現パターン間の関係は包含関係にあるということが観察されるため,平均相互情報量の第一項と第三項に基づく非対称な尺度も考えられる.第一項は共起出現することによって増加する情報量を表し,第三項はラベル$X$は出現しないとき,ラベル$Y$が出現することを知ることによって増加する情報量である.本論文では,この尺度を非対称平均相互情報量と呼ぶことにする.\begin{df}非対称平均相互情報量\begin{equation}I_{ac}(X;Y)=\frac{a}{n}{\log}\frac{an}{(a+b)(a+c)}+\frac{c}{n}{\log}\frac{cn}{(c+d)(a+c)}\label{ac-mi}\end{equation}\end{df}この定義式から,非対称平均相互情報量はパラメータ$c$が大きいと,類似度が低くなり,逆に$c$が小さいと,類似度が高くなるという性質を持つ.つまり,$c=0$の場合,高い類似度を保持する.本論文では,この非対称平均相互情報量も比較対象として加え,出現パターンの包含関係をとらえるために,非対称性は重要な性質であるかどうかを検討する.\subsection{$\phi$相関係数}統計処理に用いられる相関係数は,二値データのときに$\phi$相関係数(PhiCoefficient)となる\cite{TU-class94}.この関数は事象の独立性を検定するために用いられる$\chi^2$統計量から計算される事象間の共起の強さを測る尺度である\cite{TU-class94,Manning99}.この節では,$\phi$相関係数の定義を示す.二つの質量変数を$D,E$とし,データとして$(D_1,E_1),...,(D_n,E_n)$が与えられたとする.これらを定義\ref{para}のパラメータを用いて表現する.ただし,$\phi$相関係数は二値データの場合用いられる相関係数であるので,データは$(1,1),(1,0),(0,1),(0,0)$の四つである.このとき,$D$と$E$の$\phi$相関係数は次のように与えられる.\begin{df}$\phi$相関係数\begin{equation}\gamma_{DE}=\frac{ad-bc}{\sqrt{(a+b)(a+c)(b+d)(c+d)}}\label{phi}\end{equation}\end{df}この定義式から,$\phi$相関係数は出現情報をすべて考慮した類似尺度である.この尺度は対称性を持つ尺度である.ここで,$D_i$の列をベクトル$\vec{F}$,$E_i$の列をベクトル$\vec{T}$と置き換えると,この定義式の分子は補完類似度の定義式(\ref{csm})と同じである.また,分母を比較すると,補完類似度は$\phi$相関係数の分母から$\sqrt{(a+b)(c+d)}$を取り除いたものであることがわかる.本論文では,この違いが一対多関係の推定にどのように影響するのかを観察する.\subsection{ベクトル空間モデルにおける類似尺度}単語間の関係または単語と文書間の関係を推定するために,ベクトル空間モデルを利用する場合がある.これは,単語を多次元空間にベクトルで表現し,ベクトル間の類似度を測ることによって関係を推定する.ベクトル空間モデルにおける類似尺度はこれまでに多く提案されている\cite{Manning99}.本論文では,代表的なコサイン関数(Cosine),ダイス相関係数(DiceCoefficient)を選び,一対多関係の推定において性能を比較した.それぞれの尺度の定義式とその定義式をパラメータを用いて表現した式を次に示す.ここで,$F,T$はそれぞれ$lab_1,lab_2$に対するベクトルとする.\begin{df}コサイン関数\begin{eqnarray}cos(F,T)&=&\frac{|F\capT|}{\sqrt{|F|\cdot|T|}}\nonumber\\&=&\frac{a}{\sqrt{(a+b)(a+c)}}\end{eqnarray}\end{df}コサイン関数はベクトル空間における類似尺度のなかでもっとも知られている類似尺度である.しかし,この尺度は二つのベクトルの大きさが非常に異なる場合でもある程度高い類似度を与えてしまう.\begin{df}ダイス相関係数\begin{eqnarray}S_d(F,T)&=&\frac{2|F\capT|}{|F|+|T|}\nonumber\\&=&\frac{2a}{(a+b)+(a+c)}\end{eqnarray}\end{df}ダイス相関係数はコサイン関数が持つ問題点を軽減するために,正規化を施した類似尺度である.これらの定義式から,コサイン関数とダイス相関係数は出現情報のうちどちらとも出現しないという情報を考慮せず,共起するという情報を中心とした類似尺度である.また,これらの尺度は対称性を持つ尺度である.\subsection{信頼度}これまでに,データベースの中から連想規則を抽出する問題に関する研究が多くされている\cite{Adriaans96,Dzeroski96,Fayyad96a,Fayyad96b}.たとえば,連想規則を高速に発見する手法として{\itApriori}アルゴリズムが提案されている\cite{Agrawal96}.この手法には,データベースからの情報抽出において,重要な尺度とされている支持率(Support)と信頼度(Confidence)に基づく尺度が用いられている.ここで,支持率はデータベースにおいて注目した事象を含むデータの割合であり,信頼度は前提を満たすデータの集合において帰結も含むデータの割合である.言い換えると,信頼度は支持率によって表現できる条件付き確率である.{\itApriori}では,支持率を用いて信頼度を計算し,ユーザが指定した信頼度の下限値($minconf$)よりもその信頼度が高い場合,``面白い''連想規則としている.次に定義式を示す.\begin{eqnarray*}\frac{support(XY)}{support(X)}&\geq&minconf\end{eqnarray*}$support(XY)$は$X$(前提)と$Y$(帰結)のどちらともが現れるデータの支持率,$support(X)$は$X$(前提)が現れるデータの支持率である.この式の左辺で求められる値が信頼度であり,これは前提$X$が現われるという条件のもとで帰結$Y$が現われるという条件付き確率である.本論文ではこれを単に信頼度と呼ぶこととする.この左辺を定義\ref{para}のパラメータを用いて表現すると,$support(XY)$は$a/n$,$support(X)$は$(a+c)/n$と書くことができるので,信頼度は次のように表現することができる.\begin{df}信頼度\begin{equation}conf(Y|X)=\frac{a}{a+c}\end{equation}\end{df}この定義式から,信頼度は一方の出現情報だけを考慮するので,非対称性を持つ尺度である.信頼度で使用されているパラメータは$a,c$であるが,これは出現頻度の小さいラベルを含むデータだけから計算でき,それ以外のデータに関する情報を利用しない類似尺度である.本論文では,信頼度はデータベースにおける連想規則を得るための基本的な尺度とされているため,比較対象に加えた. \section{評価実験} \subsection{概要}本論文では,注目するラベルとして日本の地名を選んで,実験を行った.地名を選択した一つ目の理由は,地名間には実際に一対多関係が成り立つためである.たとえば,県名と市名には地理的な包含関係があり,地名間の関係は一対多関係である.また,二つ目の理由は,この関係は電話帳や地図,ポスタルガイドなどの既存データから抽出できるため,機械的に正解判定を行うことができることである.これらの理由から,注目するラベルを日本の地名,その地名間において推定する一対多関係を地理的な包含関係とし,正解関係はポスタルガイドから抽出した.正解とした地名の一対多関係は二つの地名について,一方の地名がもう一方の地名を地理的に包含する関係とした.たとえば,大阪府は大阪市を地理的に包含するので,「大阪府,大阪市」は一対多関係があるとする.このように,一方の地名が都道府県名,もう一方の地名がそれに続く市郡名である場合,それらの地名には一対多関係があるとし,この一対多関係を正解関係として一つの関係を抽出した.以上のことより,本論文では,地名(都道府県市郡名)をラベル集合$L$,抽出した1239個の一対多関係を正解集合$R$とした.実験では,データ集合に現れる地名を組み合わせてできるすべての組について,出現パターンの類似度を測ることによって,その組が一対多関係であるかを推定する.そして,組を類似度の降順にソートし,実験結果とする.最後に,上位$m$(任意の数)組を評価の対象となる組とし,その組について正解判定を行い,再現率で性能を評価する.次に再現率の定義を示す.\begin{eqnarray*}再現率&=&\frac{評価対象とした組のうち正解した数}{全正解数}\end{eqnarray*}また,データ集合が持つ関係の特性を見るため,多重度についても考察する.\subsection{人工的に生成したデータ集合を用いた実験}\label{art-data}この節では,モデルに従ったデータを用いて,八つの類似尺度の振る舞いを観察する.ここで用いたモデルは,雑音のないデータモデルと,雑音のあるデータモデルである.実験において,生成するデータ集合の大きさを無限に大きくすることはできない.そこで,生成するデータ集合の大きさを1000個としたが,その数が全正解数1239よりも小さいため,全く使用されない正解もある.したがって,どんな手法を用いても欠けている情報を復元することはできないので,再現率は$1$にならないことになる.各地名の出現パターンは1000次元のベクトルで表され,各次元に対応するデータにある地名が出現するのであれば1,そうでなければ0が割り当てられたその地名についての二値ベクトルである.この実験における評価方法は,評価の対象となる組を500組ずつ増やしたときの再現率をグラフにし,性能を評価する.また,評価の対象となった組から,特徴的ないくつかの組を取り出し,それらの組に対して各尺度が与えた順位と類似度について考察する.\subsubsection{雑音のないデータ集合を用いた実験}\label{sec:without}この節では,雑音のないデータ集合に対する類似尺度の振る舞いを観察する.雑音のないデータ集合$D_a$は定義\ref{no-noise}に沿って,ラベル集合$L$と正解関係を要素とする関係集合$R$から作成した.アルゴリズムを図\ref{algo:art_data}に示す.\begin{figure}[hpbt]{\small\begin{quote}\hspace*{2em}$begin$\\\hspace*{2em}$D_a:=\phi;~~i:=0;$\\\hspace*{2em}$while~~i~<~1000~~do$\\\hspace*{2em}$\mbox{\hspace*{2em}}begin$\\\hspace*{2em}$\mbox{\hspace*{2em}}j:=0;~~d_i:=\phi;$\\\hspace*{2em}$\mbox{\hspace*{2em}}while~~j~<~2~~do$\\\hspace*{2em}$\mbox{\hspace*{4em}}begin$\\\hspace*{2em}\hspace*{4em}$R$からランダムに$\langlel^j_c,l^j_p\rangle$を取り出す;\\\hspace*{2em}$\mbox{\hspace*{4em}}d_i:=d_i\cup\{l_c^j,l_p^j\};$\\\hspace*{2em}$\mbox{\hspace*{4em}}j:=j+1$\\\hspace*{2em}$\mbox{\hspace*{4em}}end;$\\\hspace*{2em}$\mbox{\hspace*{2em}}D_a:=D_a\cup\{d_i\};$\\\hspace*{2em}$\mbox{\hspace*{2em}}i:=i+1$\\\hspace*{2em}$\mbox{\hspace*{2em}}end$\\\hspace*{2em}$end;$\end{quote}}\caption{雑音のないデータ集合を作成するアルゴリズム}\label{algo:art_data}\end{figure}このアルゴリズムに沿って作成したデータ集合の要素であるデータはたとえば,$d_i=\{静岡県,清水市,神奈川県,横浜市\}$というデータである.これは,正解である関係集合$R$から$\langle静岡県,清水市\rangle$と$\langle神奈川県,横浜市\rangle$の二つを取り出し,その四つのラベルを要素として作成した集合である.要素数を4とした理由は,4未満であると問題が簡単すぎるので,4が意味のある最低の数と考えたためである.このように作成したデータ$d_i$を1000個持つデータ集合$D_a$を作成した.このデータ集合は雑音のないデータ集合である.これを用いて実験を行った.実験結果を図\ref{graph:art_data}に示す.この四つのグラフはそれぞれ同じ方法で作成した異なるデータ集合に用いて実験を行った結果である.\begin{figure}[bhpt]\atari(141.8,100)\caption{雑音のないデータ集合における実験}\label{graph:art_data}\end{figure}\begin{table}[thbp]\centering\caption{雑音のないデータ集合における順位と類似度の例}\label{without-comp}\begin{tabular}{|c||r|r|r|r|r|r|}\hline組&$\alpha$&$\beta$&$\gamma$&$\delta$&$\epsilon$&$\zeta$\\\hline\hline正解判定&不正解&不正解&不正解&正解&正解&正解\\\hline$a$&1&1&1&1&4&6\\\hline$b$&0&1&7&49&46&23\\\hline$c$&0&1&3&0&2&0\\\hline$d$&999&997&989&950&948&971\\\hline{\small補完類似度}&625&1770&3247&1362&269&3\\{\small}&(31.607)&(31.544)&(15.336)&(300.57)&(47.911)&(75.440)\\\hline{\small平均相互情報量}&281&950&2327&2020&224&2\\{\small}&(0.0114)&(0.0074)&(0.0038)&(0.0043)&(0.0121)&(0.0316)\\\hline{\small自己相互情報量}&18&334&1288&1779&2437&1176\\{\small}&(9.9658)&(7.9658)&(4.9658)&(4.3219)&(3.7370)&(5.1078)\\\hline{\small非対称平均相互情報量}&349&965&2327&2017&246&2\\{\small}&(0.0100)&(0.0070)&(0.0038)&(0.0043)&(0.0119)&(0.0306)\\\hline{\small$\phi$相関係数}&18&352&1715&2038&1321&406\\{\small}&(1.0000)&(0.4990)&(0.1722)&(0.1379)&(0.2198)&(0.4496)\\\hline{\smallコサイン関数}&18&334&1708&2040&1284&406\\{\small}&(1.0000)&(0.5000)&(0.1768)&(0.1414)&(0.2309)&(0.4549)\\\hline{\smallダイス相関係数}&18&271&1101&3029&1158&559\\{\small}&(1.0000)&(0.5000)&(0.1667)&(0.0392)&(0.1429)&(0.3429)\\\hline{\small信頼度}&18&2314&3439&1280&1684&1009\\{\small}&(1.0000)&(0.5000)&(0.2500)&(1.0000)&(0.6667)&(1.0000)\\\hline\end{tabular}\end{table}これらのグラフは,上位の組の数を横軸,そのときの再現率を縦軸とする.また,このデータ集合における再現率は約$0.8$で収束する.これは,$D$のなかに含まれていない正解があることを示している.このグラフでは,上位に位置する組において,補完類似度の再現率の高さが目立ち,また補完類似度がもっとも早く収束している.すべてのグラフにおいて,補完類似度に続き,信頼度,非対称平均相互情報量,平均相互情報量が高い性能を示している.言い換えると,これらのグラフは雑音のないデータ集合を用いた実験において,補完類似度がもっとも一対多関係を推定する能力が高く,次に信頼度,非対称平均相互情報量,平均相互情報量の順に高いことを表している.この結果はすべてのグラフにおいて同じ結果を得ている.また,非対称平均相互情報量は平均相互情報量と比べ,一対多関係を推定する能力が高いことを表しているが,有意な差を見ることはできなかった.しかし,このことから,非対称性は一対多関係を推定するために有効な性質の一つと考えられるが,補完類似度と非対称平均相互情報量の性能差を見ると,非対称性を持つだけでは高い性能を得られないことがわかる.平均的な性能が高いだけでは,その性能が何によってもたらされたかがわからない.そのため,次にそれぞれの類似尺度の振る舞いに特徴的な組を選び出し,定性的な分析を行う.表\ref{without-comp}は定性的な分析として,図\ref{graph:art_data}の左上のグラフにおいて評価の対象に含まれた特徴的な6組を取り出し,それらの組に対してそれぞれの尺度で位置した順位とそのとき与えられた類似度を,パラメータ$a,b,c,d$とともに示す.$\alpha$は正解ではない組「四日市市,宇治市」である.この組は一度だけ出現し,それが共起出現であった組($a=1,b=0,c=0$)である.この組は補完類似度では625位に位置し,その他の尺度ではより高い順位に位置する.特に,自己相互情報量,$\phi$相関係数,コサイン関数,ダイス相関係数,信頼度では上位に位置する.これらの尺度では各尺度における最大値がスコアとなっている.自己相互情報量は定義式にある分母が$1$となるため,データ総数の対数$\logn$を与え,コサイン関数,ダイズ相関係数,信頼度は$1.0$を類似度として与えてしまう.これは,$d$を考慮していないことが一つの要因といえる.また,$\phi$相関係数は定義式の分母が平方根であり,$d$を分子に一つ分母に二つ持っている.このため,分子と分母が同じになり,$1$を類似度として与えてしまう.つまり,$\phi$相関係数は,$d$が$a,b,c$よりも非常に大きい場合,分子と分母がほぼ同じになり,正解ではない組にも$1$に近い値を与えてしまう性質を持つ.このような組が500位までに多く存在する.このため,上位500までを見たとき,自己相互情報量,コサイン関数,ダイス相関係数,信頼度の再現率が,補完類似度,平均相互情報量,非対称平均相互情報量に比べ低いことの原因である.$\beta$は正解ではない組「川崎市,富士市」である.この組は補完類似度,平均相互情報量,非対称平均相互情報量,信頼度では1000位近くまたはそれ以降の順位に位置するが,その他の尺度では300位前後に位置する.これは$d$を考慮しないことと,$d$が$a,b,c$に比べ大きいことが原因と考えられる.このような組が1000位までに多く存在する.このため,上位1000までを見たとき,自己相互情報量,コサイン関数,ダイス相関係数の再現率が,補完類似度,平均相互情報量,非対称平均相互情報量,信頼度に比べ非常に低いことの原因である.$\gamma$は正解ではない組「海部郡,静岡市」である.この組はダイス相関係数では1101位に位置し,その他の尺度ではより低い順位に位置する.これはパラメータ$b,c$によって$d$を使用しなくても下位と判定されるが,$d$を使用しないのは問題であり,$d$を使用する尺度はより下位と判定する.$\delta$は正解である組「東京都,多摩市」である.これは出現パターンが完全な包含関係にある組($c=0$)であり,一度だけ共起出現する組($a=1$)である.このような組が補完類似度では1000位から2000位の間に多く存在するが,平均相互情報量ではパラメータ$b$があるため,もっと低い順位に位置する.このことが図\ref{graph:art_data}において補完類似度と平均相互情報量の上位1000から2000の間に見られる再現率の開きの原因である.また,非対称平均相互情報量では,パラメータ$c$が$0$となるため,定義式の第一項の値が類似度となる.しかし,パラメータ$b$が第一項に含まれているため,補完類似度に比べ,低い順位に位置し,平均相互情報量より少し高い順位に位置している.このことが平均相互情報量と同様に,図\ref{graph:art_data}において補完類似度と非対称平均相互情報量の上位1000から2000の間に見られる再現率の開きの原因である.また,この原因は,平均相互情報量に非対称性を持たせたことによる性能向上がわずかであったことの要因である.$\epsilon$は正解である組「京都府,中郡」である.これは出現パターンが完全な包含関係ではない組($c>0$)である.この組は補完類似度,平均相互情報量,非対称平均相互情報量では300位以内に位置するが,その他の尺度では1000位以降に位置する.特に,自己相互情報量は2437位と他のものより非常に低い順位に位置する.これもパラメータ$b$が大きいことが原因である.$\zeta$は正解である組「石川県,金沢市」である.これは出現パターンが完全な包含関係にある組($c=0$)であり,6回共起出現する組($a=6$)である.この組は補完類似度,平均相互情報量,非対称平均相互情報量では3,2位に,$\phi$相関係数,コサイン関数,ダイス相関係数では500位以内に,自己相互情報量と信頼度でも1200位以内に位置し,どの尺度でも比較的高い順位に位置している.これはこのデータ集合において大きいパラメータ$a$をこの組が持つためである.表\ref{without-comp}における以上の考察からは,このデータ集合において,補完類似度,非対称平均相互情報量,平均相互情報量が一対多関係を推定する候補として残るが,図\ref{graph:art_data}のグラフに示されるように,1000位以降では非対称平均相互情報量と平均相互情報量の性能よりも信頼度の性能が高かった.また,実験のために生成した四つの雑音のあるデータ集合には平均すると,46の都道府県名が出現し,多重度は19.0であった.言い替えると,このデータ集合には46の都道府県名で平均すると,一つの都道府県名あたり19個程度の市郡名との関係が存在するということである.このことから,実験結果を,46ラベルに対して多重度19を持つデータ集合における一対多関係を推定する問題において,補間類似度はもっとも高い性能を得たと見ることができる.\subsubsection{雑音のあるデータ集合を用いた実験}\label{sec:with}この節では,雑音のあるデータ集合に対する類似尺度の振る舞いを観察する.雑音のあるデータ集合$D^*_a$は定義\ref{with-noise}に沿って,ラベル集合$L$と正解関係を要素とする関係集合$R$から作成した.具体的には,\ref{sec:without}節で生成した雑音のないデータ集合$D_a$の要素$d_i$にそれぞれ雑音を追加したデータ$d^*_i$を作り,そのデータを要素とするデータ集合を作成した.アルゴリズムを図\ref{algo:noise_data}に示す.作成されたデータはたとえば,$d^*_i=\{静岡県,清水市,神奈川県,横浜市,京都府\}$というデータである.これは,雑音のないデータ$d_i=\{静岡県,清水市,神奈川県,横浜市\}$に雑音「京都府」を追加した集合である.「京都府」は$d_i$のどの要素とも正解集合$R$に含まれる関係を持っていない.本論文では,この性質を持つデータの要素を雑音と呼んでいる.このように作成したデータ$d^*_i$を1000個持つデータ集合$D^*_a$を作成した.このデータ集合は雑音のあるデータ集合である.これを用いて実験を行った.雑音を各データに一つずつ入れた理由は,定義\ref{with-noise}に示すように雑音の数は4より十分小さい数であり,かつ雑音が常にあるというデータ集合全体としてみると雑音が非常に多い状況を想定したためである.\begin{figure}[th]{\small\begin{quote}\hspace*{2em}$begin$\\\hspace*{2em}$D^*_a:=\phi;~~i:=0;$\\\hspace*{2em}$while~~i~<~1000~~do$\\\hspace*{2em}$\mbox{\hspace*{2em}}begin$\\\hspace*{2em}$\mbox{\hspace*{2em}}D_aからd_iを取り出す;$\\\hspace*{2em}$\mbox{\hspace*{2em}}Lからランダムにl(l\not\ind_i)を一つ取り出す;$\\\hspace*{2em}$\mbox{\hspace*{2em}}d^*_i:=d_i\cup\{l\};$\\\hspace*{2em}$\mbox{\hspace*{2em}}D^*_a:=D^*_a\cup\{d^*_i\};$\\\hspace*{2em}$\mbox{\hspace*{2em}}i:=i+1$\\\hspace*{2em}$\mbox{\hspace*{2em}}end$\\\hspace*{2em}$end;$\end{quote}}\caption{雑音のあるデータ集合を作成するアルゴリズム}\label{algo:noise_data}\end{figure}\begin{figure}[hbtp]\atari(143,105.3)\caption{雑音のあるデータ集合における実験}\label{graph:art_noise}\end{figure}\begin{table}[hbtp]\centering\caption{雑音のあるデータ集合における順位と類似度の例}\label{with-comp}\begin{tabular}{|c||r|r|r|r|r|r|}\hline組&$\alpha$&$\beta$&$\gamma$&$\delta$&$\epsilon$&$\zeta$\\\hline\hline正解判定&不正解&不正解&不正解&正解&正解&正解\\\hline$a$&5&1&1&1&2&4\\\hline$b$&83&5&0&61&122&53\\\hline$c$&36&5&0&0&1&2\\\hline$d$&876&989&999&938&875&941\\\hline{\small補完類似度}&7739&6961&661&2531&2488&197\\{\small}&(7.020)&(17.791)&(31.607)&(29.677)&(29.768)&(47.367)\\\hline{\small平均相互情報量}&9651&4680&266&4461&4786&289\\{\small}&(0.0004)&(0.0036)&(0.0114)&(0.0040)&(0.0060)&(0.0113)\\\hline{\small自己相互情報量}&7849&3426&55&4431&6879&5093\\{\small}&(0.4707)&(4.7959)&(9.9658)&(4.0116)&(2.4266)&(3.5479)\\\hline{\small非対称平均相互情報量}&10104&4682&315&4429&4777&214\\{\small}&(0.0004)&(0.0035)&(0.0100)&(0.0040)&(0.0035)&(0.0112)\\\hline{\small$\phi$相関係数}&7738&3823&55&4646&5578&3213\\{\small}&(0.0248)&(0.1616)&(1.0000)&(0.1230)&(0.0903)&(0.2043)\\\hline{\smallコサイン関数}&6399&3818&55&4660&5459&3165\\{\small}&(0.0832)&(0.1667)&(1.0000)&(0.1270)&(0.1037)&(0.2163)\\\hline{\smallダイス相関係数}&3604&3051&55&7000&7099&3182\\{\small}&(0.0775)&(0.1667)&(1.0000)&(0.1159)&(0.0315)&(0.1270)\\\hline{\small信頼度}&7763&7681&1710&1628&2756&2631\\{\small}&(0.1220)&(0.1667)&(1.0000)&(1.0000)&(0.6667)&(0.6667)\\\hline\end{tabular}\end{table}実験結果を図\ref{graph:art_noise}に示す.この四つのグラフはそれぞれ同じ方法で作成した異なるデータ集合に用いて実験を行った結果である.これらのグラフは,上位の組の数を横軸,そのときの再現率を縦軸とする.この実験では,雑音があることによって,雑音のないデータ集合と比べ不一致情報が多くなる.このため,すべての類似尺度の性能は雑音のないデータ集合と比べ,全体的に低い.不一致情報とは,データにラベルがどちらか一方しか現われないという情報であり,パラメータ$b,c$で表される出現情報である.これらのグラフでは,上位に位置する組において,補完類似度の再現率の高さが目立つ.すべてのグラフにおいて,補完類似度に続き,信頼度,非対称平均相互情報量,平均相互情報量が高い性能を示している.言い換えると,これらのグラフは雑音のあるデータ集合を用いた実験において,上位の組の数が小さいとき,補完類似度がもっとも一対多関係を推定する能力が高く,次に信頼度,非対称平均相互情報量,平均相互情報量の順に高いことを表している.この結果はすべてのグラフにおいて同じ結果を得ている.また,非対称平均相互情報量は平均相互情報量と比べ,一対多関係を推定する能力が高いことを表しているが,有意な差を見ることはできなかった.雑音のないデータ集合を用いた実験と同じく,このことから,非対称性は一対多関係を推定するために有効な性質の一つと考えられるが,補完類似度と非対称平均相互情報量の性能差を見ると,非対称性を持つだけでは高い性能を得られないことがわかる.前節と同様に,性能差の原因を定性的に調べるため,類似尺度の振る舞いに特徴的な組を選び出した.表\ref{with-comp}は定性的な分析として,図\ref{graph:art_noise}の左上のグラフにおいて評価の対象に含まれた特徴的な6組を取り出し,それらの組に対してそれぞれの尺度で位置した順位とそのとき与えられた類似度をパラメータ$a,b,c,d$とともに示す.$\alpha$は正解ではない組「埼玉県,岩手県」である.この組は不一致情報を多く持つ組($b=83,c=36$)である.この組はどの尺度でも3600位以降の低い順位に位置している.$\beta$は正解ではない組「徳島市,浜田市」である.この組もどの尺度でも3000位以降の低い順位に位置している.不一致情報が$\alpha$よりも少ないので,$\alpha$よりも高い順位に位置している.$\gamma$は正解ではない組「大分市,新城市」である.この組は一度だけ出現し,それが共起出現であった組($a=1,b=0,c=0$)である.この組はどの尺度でも$\beta$に比べ非常に高い順位に位置する.特に,自己相互情報量,$\phi$相関係数,コサイン関数,ダイス相関係数では上位に位置する.これらの尺度では各尺度における最大値がスコアとなっているためである.$\delta$は正解である組「大阪府,羽曳野市」である.この組は出現パターンが完全な包含関係にある組($c=0$)である.この組は補完類似度と信頼度では,その他の尺度と比べ高い順位に位置している.信頼度がこの組をもっとも高い順位に位置付けている.これは,信頼度は完全な包含関係にある組に対して最大値を与えるためである.このデータ集合においては,信頼度が最大値を与える組は2533組あったが,そのなかには正解も不正解もあり,完全な包含関係を優遇することは必ずしも有効ではないと観測される.$\epsilon$は正解である組「北海道,登別市」である.この組は出現パターンが完全な包含関係ではない組($c>0$)である.この組も補完類似度と信頼度では,その他の尺度と比べ高い順位に位置している.$\zeta$は正解である組「岐阜県,羽島市」である.この組は補完類似度,平均相互情報量,非対称平均相互情報量では,その他の尺度と比べ高い順位に位置している.この組における補完類似度と平均相互情報量の順位の差は,平均相互情報量がこの組よりも$\gamma$のような組に高いスコアを与えるためである.平均相互情報量では$\gamma$のような組が$\zeta$よりも上位に77個も位置する.補完類似度と非対称平均相互情報量の順位の差も同じ原因によるものである.このことが図\ref{graph:art_noise}に見られる補完類似度とそれぞれ平均相互情報量,非対称平均相互情報量の上位500組を対象とした場合の再現率における開きの原因である.表\ref{with-comp}における以上の考察からは,このデータ集合において,補完類似度,非対称平均相互情報量,平均相互情報量が一対多関係を推定する候補として残るが,図\ref{graph:art_noise}のグラフに示されるように,2000位以降では非対称平均相互情報量と平均相互情報量の性能よりも信頼度の性能が高かった.また,雑音のないデータ集合と同じく,実験のために生成した四つの雑音のあるデータ集合には平均すると,46の都道府県名が出現し,多重度は19.0である.言い替えると,このデータ集合には46の都道府県名で平均すると,一つの都道府県名あたり19個程度の市郡名との関係が存在するということである.このことから,実験結果を,46ラベルに対して多重度19を持つデータ集合における一対多関係を推定する問題において,補間類似度はもっとも高い性能を得たと見ることができる.\subsubsection{多重度に関する実験}この節では,補完類似度の性能が多重度にどう依存するのかを実験する.具体的には,人工的に一対多関係の正解集合を作成し,その一対多の程度を変化させ,正解集合から生成したデータに対する類似尺度の振る舞いを観察する.人工的なデータでは,正解集合から公平にサンプルされるので,正解集合の一対多の比率と多重度は一致する.\begin{figure}[hbtp]{\small\begin{quote}\hspace*{2em}$begin$\\\hspace*{2em}$Sは重複のない10000個の乱数を要素とする集合;$\\\hspace*{2em}$L:=\phi;~~nは定数;~~mは定数;~~R_m^n:=\phi;~~i:=0;$\\\hspace*{2em}$D^{n*}_m:=\phi;~~j:=0;$\\\hspace*{2em}$while~~i<n~~do$\\\hspace*{2em}$\mbox{\hspace*{2em}}begin$\\\hspace*{2em}$\mbox{\hspace*{2em}}Sから乱数l_cを一つ取り出す;$\\\hspace*{2em}$\mbox{\hspace*{2em}}Sからl_cを削除する;$\\\hspace*{2em}$\mbox{\hspace*{2em}}Sからm個の乱数(l_p^1,...,l_p^m)を取り出す;$\\\hspace*{2em}$\mbox{\hspace*{2em}}Sからl_p^1,...,l_p^mを削除する;$\\\hspace*{2em}$\mbox{\hspace*{2em}}r_i:=\{\langlel_c,l_p^1\rangle,...,\langlel_c,l_p^m\rangle\};$\\\hspace*{2em}$\mbox{\hspace*{2em}}R_m^n:=R_m^n\cupr_i;$\\\hspace*{2em}$\mbox{\hspace*{2em}}L:=L\cup\{l_c,l_p^1,...,l_p^m\};$\\\hspace*{2em}$\mbox{\hspace*{2em}}i:=i+1$\\\hspace*{2em}$\mbox{\hspace*{2em}}end;$\\\hspace*{2em}$while~~j~<~1000~~do$\\\hspace*{2em}$\mbox{\hspace*{2em}}begin$\\\hspace*{2em}$\mbox{\hspace*{2em}}i:=0;~~d^{*}_{j}:=\phi;$\\\hspace*{2em}$\mbox{\hspace*{2em}}while~~i~<~2~~do$\\\hspace*{2em}$\mbox{\hspace*{4em}}begin$\\\hspace*{2em}$\mbox{\hspace*{4em}}R_m^n$からランダムに$\langlel_c^i,l_p^i\rangle$を取り出す;\\\hspace*{2em}$\mbox{\hspace*{4em}}d^{*}_{j}:=d^{*}_{j}\cup\{l_c^i,l_p^i\};$\\\hspace*{2em}$\mbox{\hspace*{4em}}i:=i+1$\\\hspace*{2em}$\mbox{\hspace*{4em}}end;$\\\hspace*{2em}$\mbox{\hspace*{2em}}Lからランダムにl(l\not\ind^{*}_{j})を一つ取り出す;$\\\hspace*{2em}$\mbox{\hspace*{2em}}d^{*}_{j}:=d^{*}_{j}\cup\{l\};$\\\hspace*{2em}$\mbox{\hspace*{2em}}D^{n*}_m:=D^{n*}_m\cup\{d^{*}_{j}\};$\\\hspace*{2em}$\mbox{\hspace*{2em}}j:=j+1$\\\hspace*{2em}$\mbox{\hspace*{2em}}end$\\\hspace*{2em}$end;$\end{quote}}\caption{乱数集合から関係集合とデータ集合を作成するアルゴリズム}\label{algo:randomnum-data}\end{figure}実験に用いる正解関係$\langlel_c,l_p\rangle$を要素とする関係集合$R_m^n$とデータ集合$D^{n*}_m$は図\ref{algo:randomnum-data}に示すアルゴリズムを用いて作成した.アルゴリズムに現れる$n,m$はそれぞれ$R_m^n$において$l_c$であるラベルの数,一つの$l_c$と関係を持つ$l_p$の数である.すなわち,$m$はデータ集合$D^{n*}_m$が持つ多重度である.たとえば,$n=25$,$m=5$とした場合,作成される正解とする関係集合$R_m^n$は25種類の$l_c$を持ち,それぞれの$l_c$が5種類の関係,つまり$l_p$を5個持つような125対を要素とする集合である.これは,$R_m^n$に$\langle5,10\rangle,\langle5,32\rangle,\langle5,777\rangle,\langle5,24\rangle,\langle5,63\rangle$といった一つの$l_c$に対して五つの関係があることを意味する.このような集合から作成されるデータ集合$D^{25*}_{5}$の要素であるデータはたとえば,$d^{*}_{j}=\{5,10,12,321,45\}$というデータである.これは,$R_m^n$から$\langle5,10\rangle$と$\langle12,321\rangle$の二つを取り出し,その二つの関係に含まれるラベルと関係を持たないラベル45を追加したデータである.\ref{sec:without}節と\ref{sec:with}節の実験で用いたデータ集合は,$n=46$,$m=19(=多重度)$であったので,その前後の値で実験を行う.実験結果は,$n$を25としたとき$m$を1,2,5,10,20,50,100,200と変化させた場合と,$n$を50としたとき$m$を1,2,5,10,20,50,100,200と変化させた場合の推定能力である.推定能力はR-精度によって,評価した.\begin{figure}[htbp]\newlength{\minitwocolumn}\setlength{\minitwocolumn}{0.5\textwidth}\addtolength{\minitwocolumn}{-0.5\columnsep}\begin{minipage}[h]{\minitwocolumn}\centering\atari(66,44.1)\caption{25ラベルに対して多重度を変化させた\\場合の精度変化}\label{graph:dup25}\end{minipage}\begin{minipage}[h]{\minitwocolumn}\centering\atari(66.4,44.6)\caption{50ラベルに対して多重度を変化させた\\場合の精度変化}\label{graph:dup50}\end{minipage}\end{figure}実験結果を図\ref{graph:dup25},\ref{graph:dup50}に示す.これらのグラフは,多重度を横軸,そのときのR-精度を縦軸とする.図\ref{graph:dup25}は25ラベルに対して多重度を変化させた場合の精度変化を示し,図\ref{graph:dup50}は50ラベルに対して多重度を変化させた場合の精度変化を示す.図\ref{graph:dup25}では,多重度2までは実験に使用した類似尺度の精度はすべて同じであるが,この時点で自己相互情報量は他の尺度より精度が低下し始める.多重度10から次第に精度の差が現れ,この時点以降の多重度では補完類似度の精度がもっとも高い.補完類似度に続き,信頼度,非対称平均相互情報量,平均相互情報量の順に高い精度を示している.また,図\ref{graph:dup50}では,多重度5から精度の差が現れ,多重度100までは補完類似度の精度がもっとも高く,多重度200では補完類似度,信頼度,平均相互情報量,非対称平均相互情報量の精度は等しい.図\ref{graph:dup50}においても図\ref{graph:dup25}と同様,補完類似度に続き,信頼度,非対称平均相互情報量の精度,平均相互情報量の順に高い精度を示している.この二つのグラフから,多重度が1,2程度であれば,実験に使用したどの類似尺度を用いても関係を推定する能力に差はないが,多重度が高い場合,補完類似度は他の類似尺度よりも一対多関係を推定する能力が高いことがわかる.このことから,補完類似度は一対多関係を推定する類似尺度として有効であることが示唆される.\subsection{実データを用いた実験}\label{real}\subsubsection{実験方法}この節の実験では,現実の新聞記事から日本の地名を抽出し,データ集合を作成した.実験は次の流れで行う.まず,新聞記事の集合からラベル集合$L$に含まれる地名を一つでも持つ新聞記事をデータ$d^{**}$として抽出し,その新聞記事の集合を観察できるデータ集合$D^{**}$とする.次に,地名毎に出現パターンに対応する二値ベクトルを作成し,ラベル間の出現パターンの類似度を測定する.この測定値をもって,地名間にある一対多関係の推定とする.データ集合の作成方法を説明する.新聞記事の集合は毎日新聞一年分とし,七年分に対して年版毎にデータ集合を作成した\cite{Mainichi91-97}.まず,日本語形態素解析システム「茶筌」\cite{Matsumoto97}に地名辞書を追加した後,新聞記事の形態素解析を行い,その結果から地名と,その地名を含む記事の識別番号を抽出した.次に,記事の識別番号をデータの識別番号$i$として扱い,その記事に含まれる地名を要素とする集合を作り,その集合をデータ$d^{**}_i$とした.このように作成した$d^{**}_i$を要素するデータ集合を観測できる集合$D^{**}$とした.本論文では,この方法で年版毎に作成した集合に対して,一対多関係の推定を行った.ここで,このコーパス中には単に「大阪」とだけ出現し,これが「大阪府」と「大阪市」のどちらを表すのかわからない地名が出現する.この地名についてはどちらかに解釈し正解であれば正解とした.「大阪府,大阪」の場合,「大阪」を「大阪市」と解釈し,また,「大阪,大阪市」の場合,これは「大阪」を「大阪府」と解釈し,正解とした.実験の前に,新聞記事に一つの都道府県名に対して,平均的にいくつの市郡名との関係が実際に出現するかを調査した.極端な場合,実質的に県庁所在地だけしか出現しないならば,コーパス上では多重度は1となってしまうこともありうるため,実際の地名データの多重度を調査しておく必要がある.実データにおける多重度を計測した結果,表\ref{tab:dupchk}に示されるように,すべての年度において多重度は20前後であった.このことから,本節の実験を,都道府県名50に対して多重度20を持つ実データからラベルの一対多関係を推定する問題と見ることができる.\begin{table}[htb]\centering\caption{年版ごとの多重度}\label{tab:dupchk}\begin{tabular}{|c||c|c|c|c|c|c|c|}\hline年版&91&92&93&94&95&96&97\\\hline\hline多重度&21.7&20.5&20.6&22.5&20.6&19.6&19.3\\\hline\end{tabular}\end{table}評価においては,正解関係1239個を用いて正解判定を行った.実験では,それぞれの類似尺度を用いて,各年版に対するデータ集合$D^*$に含まれるすべての地名の組合せについて類似度を計算する.その組合せは非常に多く,すべてを評価対象とすることは現実的ではない.そこで,上位1239個についての適合率をとり,性能を比較することにした.この比率はR-精度と呼ばれ,情報検索などで用いられる性能尺度である.次に適合率の定義を示す.\begin{eqnarray*}適合率&=&\frac{評価対象とした組のうち正解した数}{評価対象とした組数}\end{eqnarray*}\subsubsection{評価結果}年版毎における各類似尺度のR-精度を表\ref{r_prec2}に示す.表\ref{r_prec2}をグラフで表したものが図\ref{r_prec}である.表\ref{r_prec2}とこのグラフは,すべての年版において補完類似度がもっとも高い性能を持つことを表している.{\small\begin{table}[thbp]\centering\caption{実データにおけるR-精度}\label{r_prec2}{\small\begin{tabular}{|c||c|c|c|c|c|c|c|}\hline年版&91&92&93&94&95&96&97\\\hline\hline補完類似度&0.699&0.559&0.431&0.362&0.315&0.485&0.416\\\hline平均相互情報量&0.529&0.371&0.287&0.256&0.190&0.322&0.285\\\hline自己相互情報量&0.001&0.012&0.021&0.009&0.026&0.028&0.025\\\hline非対称平均相互情報量&0.534&0.375&0.290&0.259&0.193&0.325&0.287\\\hline$\phi$相関係数&0.001&0.052&0.086&0.041&0.142&0.157&0.148\\\hlineコサイン関数&0.001&0.054&0.086&0.043&0.148&0.161&0.155\\\hlineダイス相関係数&0.001&0.055&0.103&0.039&0.113&0.128&0.146\\\hline信頼度&0.024&0.123&0.158&0.061&0.239&0.220&0.232\\\hline\end{tabular}}\end{table}}\begin{figure}[bhtp]\centering\atari(137.3,96.1)\caption{実データにおけるR-精度のグラフ}\label{r_prec}\end{figure}人工的に生成したデータでは,信頼度が非対称平均相互情報量と平均相互情報量よりも性能が高い場合があったが,実データでは,非対称平均相互情報量と平均相互情報量が信頼度よりも性能が高い.言い換えると,実データを用いた実験において,補完類似度がもっとも一対多関係を推定する能力が高く,次に非対称平均相互情報量,平均相互情報量,信頼度の順に高いことを表している.この結果はすべての年版において言えることであるため.また,人工的に生成したデータと同様に,非対称平均相互情報量は平均相互情報量と比べ,一対多関係を推定する能力が高いことを表しているが,有意な差を見ることはできなかった.しかし,このことから,非対称性は一対多関係を推定するために有効な性質の一つと考えられるが,補完類似度と非対称平均相互情報量の性能差を見ると,非対称性を持つだけでは高い性能を得られないことがわかる.\begin{table}[thbp]\centering\caption{実データにおける順位と類似度の例}\label{real-comp}\begin{tabular}{|c||r|r|r|r|r|r|}\hline組&$\alpha$&$\beta$&$\gamma$&$\delta$&$\epsilon$&$\zeta$\\\hline\hline正解判定&不正解&不正解&正解&正解&正解&正解\\\hline$a$&1&155&32&13&130&1860\\\hline$b$&0&381&249&202&697&4473\\\hline$c$&0&310&55&0&130&1124\\\hline$d$&53328&52483&52993&53114&52372&45872\\\hline{\small補完類似度}&12868&107&1239&1075&76&1\\{\small}&(*230.91)&(1616.94)&(781.54)&(829.37)&(1808.49)&(6550.99)\\\hline{\small平均相互情報量}&15761&28&1031&1495&52&1\\{\small}&(*0.0003)&(0.0120)&(0.0031)&(*0.0020)&(0.0101)&(0.0639)\\\hline{\small自己相互情報量}&21&73197&49151&20654&74144&153602\\{\small}&(15.7026)&(*5.0516)&(*6.1253)&(*7.9544)&(*5.0109)&(*2.3920)\\\hline{\small非対称平均相互情報量}&18167&28&1018&1492&50&1\\{\small}&(*0.0003)&(0.0114)&(0.0030)&(*0.0019)&(0.0098)&(0.0576)\\\hline{\small$\phi$相関係数}&21&1208&3741&2263&1637&552\\{\small}&(1.0000)&(0.3040)&(*0.2024)&(*0.2454)&(*0.2745)&(0.3797)\\\hline{\smallコサイン関数}&21&1188&3400&2272&1570&398\\{\small}&(1.0000)&(0.3105)&(*0.2047)&(*0.2459)&(*0.2804)&(0.4279)\\\hline{\smallダイス相関係数}&21&727&3267&8250&1453&410\\{\small}&(1.0000)&(0.3100)&(*0.1739)&(*0.1140)&(*0.2392)&(0.3992)\\\hline{\small信頼度}&3654&18479&15039&70&10145&6483\\{\small}&(*1.0000)&(*0.3333)&(*0.3678)&(1.0000)&(*0.5000)&(*0.6233)\\\hline\end{tabular}\end{table}また,多重度に関して見ると,ラベル50に対して多重度20を持つ実データにおいて,前節に示した多重度に関する実験結果と同じく,補完類似度が有効である結果を得ている.表\ref{real-comp}は定性的な分析として,93年版において評価の対象に含まれた特徴的な6組を取り出し,それらの組に対してそれぞれの尺度で位置した順位とそのとき与えられた類似度をパラメータ$a,b,c,d$とともに示す.ただし,表に現れる`*'はその尺度においてはその組が評価の対象外であったことを表す.$\alpha$は正解ではない組「湯沢市,中野市」である.この組は一度だけ出現し,それが共起出現であった組($a=1,b=0,c=0$)である.この組は自己相互情報量,$\phi$相関係数,コサイン関数,ダイス相関係数では評価対象とした組内に含まれているが,補完類似度,平均相互情報量,非対称平均相互情報量,信頼度では含まれていない.これは,自己相互情報量,$\phi$相関係数,コサイン関数,ダイス相関係数ではこの組に最大値をスコアとして与えるためである.一方,信頼度ではこの組にスコアとして最大値が与えるが,この組は評価対象とした上位1239組内に含まれていない.これは,このデータ集合には信頼度が最大値を与えてしまう組が多く存在することを表している.$\beta$は正解ではない組「秋田,青森」である.この組は自己相互情報量と信頼度では評価対象した組内に含まれてないが,その他の尺度では含まれている.これは,正解である$\gamma$に比べ,パラメータ$a$が非常に大きいことが原因である.また,隣接する県であることも影響し,この組が抽出された可能性もある.$\gamma$は正解である組「岩手県,盛岡市」である.この組は補完類似度,平均相互情報量,非対称平均相互情報量では評価対象とした組内に含まれているが,その他の尺度では含まれていない.また,自己相互情報量と信頼度以外の尺度では正解ではない$\beta$よりも低い順位に位置している.これは,正解ではない$\beta$に比べ,パラメータ$a$が小さいことが原因である.$\delta$は正解である組「愛媛県,温泉郡」である.この組は出現パターンが完全な包含関係にある組($a>1,c=0$)である.この組は補完類似度と信頼度では評価対象とした組内に含まれているが,その他の尺度では含まれていない.信頼度がこの組をもっとも高い順位に位置付けている.これは,信頼度は完全な包含関係にある組に対して最大値を与えるためである.信頼度は$\gamma,\delta$のようにパラメータ$c$が$0$の場合,最大値を与える.93年版のデータ集合においては,信頼度が最大値を与える組は$\alpha,\delta$を含め4793組あった.このうち$\delta$のような組は788組あった.$\epsilon$は正解である組「静岡,浜松」である.この組は補完類似度,平均相互情報量,非対称平均相互情報量では評価対象とした組内に含まれているが,その他の尺度では含まれていない.また,この組は補完類似度と信頼度以外の尺度では正解ではない$\beta$よりも低い順位に位置している.これは$\beta$に比べ,パラメータ$a$が小さく,$b$が大きいことが原因である.このことより,一対多関係を推定する問題における尺度は不一致情報を緩和することが必要であると考えられる.$\zeta$は正解である組「大阪,大阪市」である.この組は実データにおいてパラメータ$a$がもっとも大きい組である.この組は信頼度では評価対象とした組内に含まれていないが,その他の尺度では含まれている.これは$\alpha,\delta$のような$c$が$0$の組が多いことと,この組が大きい$c$を持つことが原因である.表\ref{real-comp}における以上の考察から,実データにおいて,補完類似度が一対多関係を推定することにもっとも適していると見ることができる.また,人工的に生成したデータ集合においては信頼度の性能が非対称平均相互情報量と平均相互情報量より高かったが,実データにおいては非対称平均相互情報量と平均自己相互情報量のほうが高い.これは,実データが偶然共起出現し,完全な包含関係である組($a=1,c=0$)を非常に多く抽出することが原因である.93年版のデータ集合においては,このような組は4005組あった.以上のことから,一対多関係を推定する問題において,補完類似度は有効であると考える. \section{考察} 関係を抽出する場合,用いる類似尺度が問題となる.類似尺度によって推定される関係の確かさが決まり,それらの関係を用いる処理の性能に直接影響する.本論文では,一対多関係を推定する問題において,どのような類似尺度が有効であるかを実験によって示した.実験において,もっとも性能が高かった類似尺度は補完類似度であった.補完類似度は文字認識の分野のもので,劣化印刷文字を高い性能で認識できるように考案された類似尺度である\cite{Hagita95,Sawaki95a,Sawaki95b}.このことから,本論文は補完類似度の応用を一つ提案していると見ることもできる.これまでに提案されているデータマイニング手法\cite{Adriaans96,Fayyad96b}は,あらかじめデータから雑音を除去する処理を行った雑音の少ないデータを対象としていることが多い.これらの手法の多くは,支持率と信頼度に基づき知識を発見する.しかし,実験で示したように,信頼度は雑音に反応しやすい.これを避けるために雑音の除去を前処理として行なうのだが,雑音を完全に除去することは一般には難しい場合が多い.一方,補完類似度は雑音に強い特長を持つため,前処理となる雑音の除去を失敗したとしてもある程度の性能を保ち,関係の抽出を行うことができる.出現パターンの比較による一対多関係の抽出における補完類似度の性能の高さはこの尺度が持つ非対称性によるところもある.本論文の実験において,一対多関係を推定する問題における非対称性の有効性を調べるために,対称性を持つ平均相互情報量の性能と,この相互情報量を改良して,非対称性を持たせた非対称平均相互情報量の性能を比較した結果,非対称平均相互情報量のほうがわずかに高かった.このことからも非対称性は一対多関係を推定する問題において有効な性質の一つと考えられる.また,これまでに,テキストから定型表現を抽出する場合,従来の相互情報量よりも非対称性を持つように改良した情報量を用いた場合のほうが高い正解率を得られたという報告がされている\cite{Sinnou95}.この報告も,非対称性を持つ尺度は関係抽出に有効であることを示している.これは,使用する類似尺度の範囲を非対称性を持つものに広げる考え方が妥当であることを意味している.しかし,補完類似度の性能と非対称平均相互情報量の性能との差から,一対多関係を推定する問題において,非対称性だけでは有意な差は見られないことがわかった.また,地名と同様に一対多関係を持つラベルは多数存在する.たとえば,企業グループ名と企業名,総理大臣の名前と一大臣の名前などを考えた場合でも,知名度の高い企業グループ名や総理大臣の名前のほうが出現頻度が高いことが予想される.このようなラベル間にある関係は一対多関係であり,この関係を推定するには,補完類似度が有効であると考えられる.ただし,これらのラベル間の関係に対する正解の定義が難しいので,これらのラベル間の関係を推定する問題を検討することは今後の課題である.今後の展望としては,補完類似度をテキストマイニングに適用することを考えている.テキストから発見したい知識は,定型表現,未知語や類義語に関する情報,名詞句の修飾関係,階層関係などテキストを分析するために必要となる知識である.これらの知識を用いてテキストを分析することによって,情報抽出が容易なデータベースを構築することが可能となる\cite{Glymour97}.また,未知語は人によって表現が異なる語や述語,新生語などであり,関連する既知語よりも出現頻度が低く,それらの出現パターンは包含関係にあると予想される.このとき,補完類似度を用いて語間の一対多関係を推定することによって,未知語に関する情報を得ることができると考える.このように,補完類似度は事象間の一対多関係を推定することによって,テキスト分析に必要なこれらの知識を得ることに応用できると考えられる. \section{関連研究} 本論文では,統計的手法により,コーパスから一対多関係を抽出する手法を提案した.これまでに,コーパスから事象間の関係を抽出する研究が多く行われている.この研究の代表的なものはテキスト分析に用いられる言語知識としての関係の抽出である.言語知識の獲得では出現パターンの共起性だけでなく,一般に品詞情報や構文解析結果を用いることも多い\cite{Utsuro95}.本論文では,構文解析や品詞情報を用いずに,事象が持つ出現パターンの共起性だけに注目して,コーパスから一対多関係を抽出することを行った.コーパスを用いてpart-of関係やis-a関係を抽出する研究も行われている.part-of関係を抽出する研究において,コーパスから有用なpart-of関係を抽出する手法が提案されている\cite{Berland99}.この手法はpart-of関係を効果的に抽出するための構文パターンを分析することによって,高い性能を示している.part-of関係は本論文で抽出しようとした一対多関係の一種とみなすことができる.使用する情報が異なるが,本論文で提案する手法と構文パターンに基づく手法は同じ問題に対する異なるアプローチであるといえる.is-a(kind-of)関係を抽出する研究において,辞書の定義文から一般的な単語のis-a関係を抽出する手法が提案されている\cite{Tsurumaru91}.この手法はパターンマッチ手法を用いて名詞や動詞のis-a関係を抽出している.また,コーパスから下位レベルにある単語のグループを作り,そのグループと一対一関係にある上位レベルの単語を求めるボトムアップ手法が提案されている\cite{Caraballo99}.この手法は一般的な名詞が`and'によって連結されている部分を見つけることによって名詞のis-a関係を抽出している.これらの研究では,一般的な名詞を対象とする.一方,本論文で提案する手法では,固有表現や専門用語を事象の対象とする.is-a関係も本論文で抽出しようとした一対多関係の一種とみなすことができる.使用する情報と対象とする事象が異なるが,同じ問題に対して相補的に用いることができると考えられる. \section{おわりに} 本論文では,コーパスから事象間の一対多関係を推定する問題を考えた.これまでにコーパスから事象間の関係を推定することが多く研究されている.一般に,この問題に対する解決法の多くは,コーパスを構成する文書における事象の共起に基づいている.これらの手法では暗黙的に事象間の関係は一対一関係であることを想定している.しかし,実際には,事象間の関係は一対多関係である場合があり,この特徴のためにいくつかの工夫が可能であった.本論文では,コーパス中の一対多関係を推定するために補完類似度を利用することを提案した.この尺度は本来文字認識システムのために開発され,テンプレートとした文字が持つパターンにオーバーラップしたパターンを認識するのに有効であることが知られているが,これまでテキスト処理に利用されたことはなかった.この補完類似度の一対多関係を推定する能力を評価するために,地名(都道府県市郡名)を対象事象とした実験において,平均相互情報量,自己相互情報量,非対称平均相互情報量,$\phi$相関係数,コサイン関数,ダイス相関係数,信頼度との性能比較を行った.実験では,三種類のコーパスを用いた.一つ目は実際に地名間にある一対多関係から合成した人工的なデータ集合である.二つ目も実際の関係から合成したが,誤った関係を導く少量の要素も含むデータ集合である.三つ目は現実の新聞記事コーパスから得たデータ集合である.これらの評価実験において,補完類似度がもっとも優れており,補完類似度は一対多関係の推定問題に対して有効であることを示した.\begin{acknowledgment}本研究は文部省科学研究補助金10680379の成果です.また,NTT光ネットワーク研究所と住友電工との共同研究の成果を利用させて頂きました.NTTコミュニケーション科学研究所の萩田紀博氏とNTT基礎研究所の澤木美奈子氏に補完類似度の情報を提供して頂きました.本学情報工学系中川聖一教授に貴重なアドバイスを頂きました.深く感謝いたします.\end{acknowledgment}\bibliographystyle{jnlpbbl}\bibliography{jnlpbib}\begin{biography}\biotitle{略歴}\bioauthor{山本英子}{1973年生.平成14年豊橋技術科学大学大学院工学研究科電子・情報工学専攻博士課程修了.同年,通信総合研究所に専攻研究員として入所.博士(工学).}\bioauthor{梅村恭司}{1959年生.1983年東京大学大学院工学系研究科情報工学専攻修了課程修了.同年,日本電信電話公社電気通信研究所入所.1995年豊橋技術科学大学工学部情報工学系助教授,現在に至る.博士(工学),システムプログラム,記号処理の研究に従事.ACM,ソフトウェア科学会,電子情報通信学会,計量国語学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V04N03-03
\section{はじめに} \label{sec:intro}近年,膨大な電子化された情報の中から必要な情報を検索する技術の必要性が高まっている.インターネットの爆発的な普及に伴って,ユーザが求める情報を持つwwwサーバを検索するシステムが,実際,数多く出現してきている.しかし,これらの検索システムのほとんどは,ユーザが入力した検索キーワードそのものを含むテキスト(に対応したwwwサーバ)を検索するシステムである.検索キーワードに意味的に類似している単語まで考慮した\footnote{単に,キーワードを同義語・類義語のリストを使って展開する従来手法では,不十分であり,類似の度合に従って文書を整列させて上位のものだけユーザに提示出来なくてはならない.キーワード「画家」に対して,同義語「画伯」や類義語「イラストレーター」,「デザイナー」や上位概念である「絵描き」,「芸術家」などまでも含むものを検索し,類似度順に出力することが望まれる.}検索(以下,類似検索と呼ぶ)は出来ない.一方,シソーラスに基づく意味的類似性を使った,翻訳,解析,文書検索などの研究が行なわれてきている.ただ,これらの先行研究には(1)シソーラスの階層構造が平衡していると仮定しているという問題と(2)単語の多義性の解消を行なっていないという問題があった.本論文では,階層構造が平衡していないシソーラスにも適用できる,より一般的な単語間の意味的類似度を提案する.本提案では各単語が担う概念間の最下位共通上位概念が有する下位概念の総数が少ないほど,単語間の類似度が大きくなる.筆者らは,この意味的類似度と大規模シソーラスの一つであるEDRシソーラスを使って,類似検索システムを実装した.さらに,精度を向上させるために,単語の多義解消手法をこの検索システムに導入した.本類似検索システムは,単語間の物理的近さと単語の重要度を用いた拡張論理型の従来システムに基づいている.この従来システムとの比較実験を行ない,意味的類似性と多義解消を用いた提案の類似検索手法\footnote{本手法では,類義語を検索可能にすることによって再現率を上げ,その範囲内で,多義によるノイズを排除し適合率を上げることを目指している.さらに再現率を重視する場合には関連語まで含めて検索することが必要と考えられる.}によって再現率・適合率が向上したことを確認した.以下,\ref{sec:method}節で,提案した意味的類似度,採用した多義解消手法,それらを用いた類似検索,ベースとなる拡張論理型検索について示し,\ref{sec:experiment}節で前節で述べた類似検索手法による適合率・再現率の改善及び多義解消手法の比較について示し,\ref{sec:conclusion}節でまとめる. \section{類似検索} \label{sec:method}提案する文書検索手法は,各文書に対して質問との関連度を求め,関連度の大きい順に文書を整列させる.先ず,意味的類似度計算法と多義解消法について述べ,さらに,これらを組み込むベースとなる従来システムの関連度及び検索手順について説明する.\subsection{意味的類似度}\label{sec:sim-word-main}単語間の意味的類似度は,単語に付与されている概念間の関係に基づいて計算する.まず,オンラインのシソーラスを概観し,次に,概念間・単語間の類似度について説明する.\subsubsection{シソーラス}\label{sec:thesaurus}オンラインのシソーラスには,分類語彙表\cite{Kokugoken64},角川類語新辞典\cite{Ohno81},Rogetシソーラス\cite{Chapman77},WordNet\cite{Miller90},EDR電子化辞書\cite{EDR93}の概念辞書(以下,EDRシソーラスと称する)などがあり,いずれも概念を上位・下位の関係で階層的に構成している.これらのシソーラスの特徴\footnote{角川類語新辞典は1981年版,分類語彙表は1964年版,EDR概念辞書は評価版2.1版,WordNetはVersion1.5,RogetシソーラスはVersion1.02に関するデータである.}を表\ref{tbl:thesaurus}に示す.WordNetとEDRシソーラスは比較的規模が大きい.また,EDRシソーラスは,概念の階層関係が,日本語・英語共通となっており両言語で利用できる.\begin{table}[htb]\caption{各種シソーラスの特徴}\label{tbl:thesaurus}\small\begin{center}\renewcommand{\arraystretch}{}\begin{tabular}{|c||c|c|r|r|c|l|}\hlineシソーラス&階層構造&階層数&概念数&単語数&言語\\\hline\hline分類語彙表&平衡&5&約1,000&約33,000&日本語\\\hline角川類語新辞典&平衡&3&約1,000&約50,000&日本語\\\hlineRogetシソーラス&平衡&3&約1,000&約40,000&英語\\\hline\hlineWordNet&非平衡&10&約91,000&約120,000&英語\\\hlineEDRシソーラス&非平衡&18&約450,000\footnotemark\hspace*{-0.45em}&約200,000&日本語・英語\\\hline\end{tabular}\end{center}\end{table}\footnotetext{「中間ノード」(下位概念をもつノード)の数は約6,000\cite{Ogino95}であるが,ここでの概念数は末端概念を含み,かつ,多重継承を別に数えた数字である.}また,シソーラスはその階層構造によって2種類に分けることができる.\begin{itemize}\item分類語彙表,角川類語新辞典,Rogetシソーラスのように,ルート概念から末端概念までの階層の深さがほぼ一定である.\itemWordNet,EDRシソーラスのように,階層の深さが一定でない.\end{itemize}本論文ではそれぞれ「平衡シソーラス」,「非平衡シソーラス」と呼ぶことにする.\subsubsection{概念間の類似度}\label{sec:sim-con}先行研究\cite{Sato90,Sumita92,Kurohashi92,Mima96}では「平衡シソーラス」を扱っている.例えば,隅田ら\cite{Sumita92}は,平衡シソーラス上での概念間の類似度を用例に基づく翻訳に応用している.そこでは,階層の深さが一定であることを利用して,最下位の共通上位概念の位置に基づいて類似度を決定している.本論文では,EDRシソーラスのような「非平衡シソーラス」にも適用可能な概念間の{\dg類似度}を定義する.\begin{itemize}\item各概念に対して,その概念の{\dg具体度}を割り当てる(詳細は後述).具体度は,0から$NL-1$までの$NL$個の値の中で,下位になるほど大きな値をとる.図\ref{fig:similarity}に$NL$が9の場合を示す.\item概念$A,B$の間の類似度$Sim$は,$A$と$B$の相対的な位置関係(3種類)に応じて,具体度を使って次のように定義する.$A,B$の最下位共通上位概念を$C$とし,その$C$の具体度を\\$LC$とする.\begin{itemize}\item$A$と$B$が同じ場合($C=A=B$),$Sim=1.0$.\item$C$が$A$でも$B$でもない場合,$Sim=LC/NL$.\item$A$が$B$の上位概念の場合($C=A$)またはその逆の場合($C=B$),\\$Sim=$$(LC+1)/NL$.\end{itemize}\end{itemize}\begin{figure}[bht]\vspace*{0mm}\centerline{\vspace*{-2.5mm}\epsfile{file=similarity+.eps,scale=1.0}}\vspace*{3mm}\caption[]{非平衡シソーラスにおける概念間の意味的類似度の例\\($Sim$:概念$A,B$の間の類似度,$C$:$A$と$B$の最下位の共通上位概念)}\label{fig:similarity}\end{figure}従って,類似度$Sim$は,0,1/$NL$,2/$NL$,$\cdots$,$(NL-1)/NL$,1の離散値をとり,0は最も似ていないことを意味し,1は最も似ていることを意味する.\paragraph{具体度の割り当て}「下位概念(末端までの概念すべて)の総数が少ない概念ほど,概念の具体度が高い」という考えで具体度を割り当てる.深さが$NL-1$(ルート概念の深さを0とする)で,各概念から下位概念への分岐数が一定で,概念数が原非平衡シソーラスに近い仮想の平衡シソーラスを想定する.各概念の具体度の割り当て手順を次に示す.\begin{enumerate}\item原非平衡シソーラスの概念数$TC$を求める\hspace{-0.2mm}(但し,\hspace{-0.5mm}$TC$は2以上とする).\hspace{-0.5mm}直上位の概念を複数持つ概念は,その数だけ別個の概念が存在していると考えて,概念数を求める.\item$NL(\ge2)$を任意に決める.\item各概念から下位概念への分岐数$NB$を,次式を満たす最小の自然数とする.\begin{eqnarray*}TC\leq\displaystyle\sum_{k=0}^{NL-1}NB^k\end{eqnarray*}\item階層の深さが$NL-1$(ルート概念の深さを0とする)で,各概念から下位概念への分岐数$NB$である平衡シソーラスを想定する.\hspace{-0.5mm}平衡シソーラスにおいて,深さが$d$の概念の下位概念の総数$TLD(d)$は次式となる.\begin{eqnarray*}TLD(d)=\left\{\begin{array}{ll}\displaystyle\sum_{k=1}^{NL-1-d}NB^k&(d<NL-1)\\0&(d=NL-1)\end{array}\right.\end{eqnarray*}\item原非平衡シソーラスの各概念に対して,\begin{enumerate}\itemその概念の下位概念総数$TLC$を求める.\item$TLC\leqTLD(d)$である最小の$d$をその概念に{\dg具体度}として割り当てる.\end{enumerate}\end{enumerate}概念数$TC$が45万であるEDRの非平衡シソーラスに対して,\hspace{-0.3mm}実験では,\hspace{-0.3mm}具体度の数$NL$を9に,$NB$は5とした\footnote{シソーラスが与えられたときの,NLとNBの選択には幅がある.以下の2点を考慮し,EDRシソーラス(概念数45万)に対して$NL$=9,$NB$=5とした.角川類語辞典は$NL$=4,$NB$=10で,分類語彙表は$NL$=6,$NB$=4である.また,$NB$を大きくすると,元のシソーラスの概念数とのズレが大きくなりがちである.}.図\ref{fig:thesaurus_level}に,この時の仮想平衡シソーラスにおける深さ$d$と下位概念総数$TLC$の関係を示す.\subsubsection{単語間の類似度}\label{sec:sim-word-sub}単語$w1$,$w2$間の類似度$Sim(w1,w2)$は次のように求める.\begin{itemize}\item単語(見出しと品詞)一致の場合,類似度は$(NL+1)/NL$とする.\item単語一致以外の場合,類似度は,2単語の概念のすべての組合せに対する2概念間の類似度の最大値とする.\end{itemize}\begin{figure}[ht]\vspace*{12mm}\centerline{\epsfile{file=thesaurus_level+.eps,scale=1.0}}\vspace*{5mm}\caption{仮想平衡シソーラスにおける深さと下位概念総数}\label{fig:thesaurus_level}\vspace*{10mm}\end{figure}\subsection{多義解消手法}多くの単語は多義である.すなわち,複数の概念を持っている.\ref{sec:sim-word-sub}節で述べたように,単語間の類似度は,概念のすべての組合せにおける類似度の最大値としている.この場合,実際にその文書で用いられている概念と異なった概念に基づく類似度が高くなることにより,誤って関連文書として検索されてしまうことがある.実際に文書中で使われている概念を同定することができれば,検索の精度は向上できる.そこで,単語の多義を解消する手法を導入することにした.多義解消の手法は多数提案されているが,本論文では,(1)情報検索に適用され逆効果であったと報告されているVoorheesの手法と(2)典型的な少数の多義語に関して高精度な結果が報告されてはいるが,情報検索といった実際的な応用における効果が検証されていないYarowskyの手法を取り上げる.両手法は他の多くの手法とは違って正解データを仮定しないという点で,大規模な制限のないテキストを扱う情報検索に向いた手法である.\subsubsection{Voorheesの手法}\label{sec:voorhees-apply}\vspace*{-1mm}Voorheesは,次に述べる多義解消法を提案し,文書検索の実験を行なっている\cite{Voorhees93}.文書$D$中の単語$dt$の各概念に対して,{\boldmath$hood$}(その概念を含み,単語$dt$の他の概念を含まない最も上位の概念)を求めた後,式(\ref{eqn:score-voorhees})で定義される{\dg差異}を求め,差異が正(の最大)\footnote{\topsep=0mm\topskip=0mm\partopsep=0mm\parskip=0mm\parsep=0mmVoorheesはシソーラスとしてWordNetを使い,多義解消された単語の概念をベクトル要素としたベクトル空間モデルに基づいた手法により文書検索を行なっている.一方,筆者らはEDRシソーラスを使い,意味的類似度を使った拡張論理型検索手法により文書検索を行なっている.また,前者は名詞だけを対象とし,後者はストップリストに属さない単語全体を対象としている.この二つのシステムは相違点が多く,それぞれの検索結果を直接比較することはできない.しかし,本研究において,以下のことを確認した.\begin{itemize}\topsep=0mm\partopsep=0mm\parskip=0mm\parsep=0mm\itemsep=0mm\itemVoorheesの多義解消手法は,誤った選択をすることが多く,概念を高精度に「1つ」に絞り込めるほど性能が良いとはいえない.ただ,差異による{\dg絞り込み条件を「正の最大」から「正」に変更}すれば,副作用少なく「尤もらしくない」概念の数を減らすことは出来る.今回の実験で正解を含む率では,前者は後者の1/2から1/3と著しく悪かった.\itemまた,本類似検索法のように多義性を許容する場合には,この程度の性能でも情報検索の検索精度を向上できる.\end{itemize}}である概念を単語$dt$の概念として選択する\footnote{さらに,本実験では以下の変更を行なった.\begin{itemize}\topsep=0mm\partopsep=0mm\parskip=0mm\parsep=0mm\itemsep=0mm\itemEDRのシソーラスがWordNetに比べて,分類の粒度が細かい(深さが約2倍,概念数が約5倍)であることを考慮して,概念の中で似ている概念をまとめるために,各概念をある具体度(本実験では6以下とした)の上位概念に置き換える.\item抽象的すぎる概念まで含むことを避けるため$hood$もある具体度(本実験では3以上とした)によって制限する.\end{itemize}}.\begin{eqnarray}差異&=&\displaystyle\frac{hood下の概念を持つ単語の文書D内出現数}{文書Dの延べ語数}\nonumber\\[1ex]&-&\frac{hood下の概念を持つ単語の全文書内出現数}{全文書の延べ語数}\label{eqn:score-voorhees}\end{eqnarray}\subsubsection{Yarowskyの手法}\label{sec:yarowsky-apply}\vspace*{-1mm}Yarowskyは,Rogetシソーラスと大量のコーパスを用いて多義解消の実験を行なっている\cite{Yarowsky92}.文書中の単語$dt$の多義解消手法の概要は次のとおりである.コーパス中の各単語に対して,前後$W$語ずつ合計$2W$語(文脈と呼ぶ)を抽出し,単語$dt$が属するシソーラス中の概念$C$毎に,単語$dt$の文脈中の単語のうち式(\ref{eqn:score-yarowsky1})があるしきい値$Y$以上の単語$ct$に対して,式(\ref{eqn:score-yarowsky2})の$Score$を求め,$Score$が正(の最大)\footnote{Voorheesの手法の変更と同様に$Score$による{\dg絞り込み条件を「正の最大」から「正」に変更}した.}となる概念を単語$dt$の概念としている\footnote{さらに,本実験では以下の変更を行なった.\begin{itemize}\topsep=0mm\partopsep=0mm\parskip=0mm\parsep=0mm\itemsep=0mm\itemYarowskyは,しきい値$Y$を1.0と設定しているが,これだと特定文脈中での出現確率が全文脈中の出現確率に近い単語も$Score$に寄与することになる.筆者らは特定文脈中での出現の度合が顕著な単語だけを選択した方が多義解消の精度が良くなると考え,しきい値$Y$を2.0と大きく設定した.\item概念をVoorheesの手法における$hood$に置き換えた.EDRシソーラスの概念は,特に最下位概念はそのほとんどが非常に具体的な概念であるため,各概念に属する単語の文脈は非常にスパースとなるからである.\item本実験では文脈幅$W$を4とした.以下に精度と速度の両面から理由を述べる.\begin{itemize}\item精度\begin{itemize}\itemYarowsky等\cite{Yarowsky92,Gale93}は特に名詞に関して広い文脈($W$=50)の有用性を主張しているが,同時に狭い文脈($W$=6)の有用性も認めている.可能なら広い文脈を使った方が良いという主張である.但し,彼らの実験では,狭い文脈に対する広い文脈のgainは,86\%から90\%への4\%に過ぎなかった.また,本実験では,動詞や形容詞など,名詞以外の語も対象としている.\item予備実験では,$W$=4と$W$=5とで結果に大きな差は生じなかった.\item本検索実験では,Yarowsky等\cite{Yarowsky92,Gale93}と違って,文脈幅はストップワードを省いて数えることになるので,文脈幅の値が同じなら,実質的には本論文の文脈の方が広い.\end{itemize}\item速度\begin{itemize}\itemYarowskyの手続きは文脈幅に依存して大変な処理時間がかかるので,$W$=4で本実験を行なった.今回の実験で多義解消に要した時間はDECAlphaStation6005/333上で約330時間(2週間)である.\itemYarowskyの実験が広い文脈幅で実施出来たのは,特定の単語だけを扱っているからである.一方本実験は文書数約3,000の中に含まれる全て多義語を対象としている.\end{itemize}\end{itemize}\end{itemize}}.\begin{eqnarray}Score&=&\sum_{ct}\log\frac{Pr(ct|C)}{Pr(ct)}\label{eqn:score-yarowsky2}\\[1ex]&&Cに属する単語の文脈中の\nonumber\\[0zh]\frac{Pr(ct|C)}{Pr(ct)}&=&\frac{単語ctの出現確率}{単語ctの全文脈中の出現確率}\label{eqn:score-yarowsky1}\end{eqnarray}\subsubsection{多義解消の例}Voorheesの多義解消の例として,後述のベンチマークテスト中の文書番号1719の文書(図\ref{fig:disamb-voo-exm-doc})中の単語``evaluating''の結果を表\ref{tbl:disamb-voo-exm-res}に,Yarowskyの多義解消の例として,同テスト中の文書番号1411の文書(図\ref{fig:disamb-yar-exm-doc})中の単語``formulas''の結果を表\ref{tbl:disamb-yar-exm-res}に示す.表中,「概念」の欄に示している文字列は,EDRシソーラスに記述されている概念説明である\footnote{EDRシソーラスの各概念には,少なくても英語概念説明または日本語概念説明のいずれかが付与されている.しかし,必ずしも,両者が付与されているとは限らないので,表には基本的に英語概念説明を記し,英語概念説明が付与されていないものについては日本語概念説明を記している.}.「文書(または文脈)内貢献語」は,Voorheesの手法では$hood$下の概念をもつ文書内の単語を,Yarowskyの手法では文脈中の単語のうち\ref{sec:yarowsky-apply}節の式(\ref{eqn:score-yarowsky1})のしきい値$Y$が2.0以上の単語を示す.\begin{figure}[ht]\begin{center}\fbox{\begin{minipage}{120mm}\renewcommand{\baselinestretch}{}\tt\vspace*{1.2ex}\hspace*{0.5em}...........................................................\\Real-timedataprocessingsystemsastypifiedbytheautomated\\airlinereservationsystemarediscussedinthispaper.\\Criteriafor\underline{evaluating}performancearedescribed;amethodology\\forcalculatingandoptimizingisoutlined;andthemethodis\\[-0.5ex]\hspace*{0.5em}...........................................................\\[-2ex]\end{minipage}}\vspace*{-1ex}\end{center}\caption{単語``evaluating''が出現する文書(文書番号1719)}\label{fig:disamb-voo-exm-doc}\end{figure}\begin{table}[ht]\caption{Voorheesの手法による単語``evaluating''の多義解消}\label{tbl:disamb-voo-exm-res}\small\begin{center}\vspace*{-1ex}\renewcommand{\arraystretch}{}\begin{tabular}{|l|r|p{70mm}|}\hline\multicolumn{1}{|c|}{概念}&\multicolumn{1}{|c|}{スコア}&\multicolumn{1}{|c|}{文書内貢献語}\\\hline\hline``評価する''&{\dg0.123}&calculation,calculating,cost,outlined,types,optimizing,optimization\\\hline``{\dgtheactofcalculating}''&{\dg0.079}&calculation,calculating\\\hline``いろいろな思考的活動''&-0.063&typified,illustrated,reservation\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[ht]\begin{center}\fbox{\begin{minipage}{120mm}\renewcommand{\baselinestretch}{}\tt\vspace*{1.2ex}\hspace*{0.5em}...........................................................\\Foreachstatistic,thealgorithmincludedtheusualcomputing\\formulas,correctionduetoanaccumulatederrorterm,anda\\recursivecomputationofthecurrentvalueofthestatistic.\\Theusualcomputing\underline{formulas}werealsoevaluatedindouble\\precision.Largeerrorswerenotedforsomecalculationusing\\[-0.5ex]\hspace*{0.5em}...........................................................\\[-2ex]\end{minipage}}\vspace*{-1ex}\end{center}\caption{単語``formulas''が出現する文書(文書番号1411)}\label{fig:disamb-yar-exm-doc}\end{figure}\begin{table}[ht]\caption{Yarowskyの手法による単語``formulas''の多義解消}\label{tbl:disamb-yar-exm-res}\small\begin{center}\vspace*{-1ex}\renewcommand{\arraystretch}{}\begin{tabular}{|l|r|l|}\hline\multicolumn{1}{|c|}{概念}&\multicolumn{1}{|c|}{スコア}&\multicolumn{1}{|c|}{文脈内貢献語}\\\hline\hline``数や記号の組合せからなる式''&3.033&value,evaluate\\\hline``規則''&0.000&\\\hline``nourishmentforaperson'sbody''&0.000&\\\hline``書物''&0.000&\\\hline``agroupofwordsthatexpressacompletethought''&0.000&\\\hline``伝達内容''&0.000&\\\hline``情報媒体''&0.000&\\\hline``抽象的生産物''&0.000&\\\hline\end{tabular}\end{center}\end{table}\subsection{拡張論理型検索}\label{sec:process}本論文では,前節までに説明した意味的類似度計算法と多義解消法の有効性を検証するため,その手法を従来の拡張論理型検索システムに組み込む.拡張論理型検索システムは論理型の質問を受理し,この質問と文書間の関連度によって文書を整列させて出力する.関連度は以下に述べる「物理的な近さ」と「単語の重要度」と前節までの「意味的類似度」とから計算される.\subsubsection{単語間の物理的近さ}\label{sec:nearness}質問中に複合語が指定された場合は,その複合語中の各単語(または最も類似している単語)の文書中の物理的近さを,質問・文書間の関連度に反映させる\cite{Oi95}.物理的近さは,例えば,複合語が``parallelalgorithm''の場合,``parallel''と``algorithm''それぞれに類似した単語が文書中に出現しているとき,その類似した単語間の物理的距離が近いほど大きい値になるよう定義する.この尺度は,質問中の複合語と文書間の関連度の乗数(\ref{sec:similarity}節参照)として用いる.物理的近さ$PN$の定義式を次に示す.\begin{eqnarray}PN&=&c_1\times\frac{\displaystyle1}{\displaystyle\frac{\displaystylec_1-1}{\displaystylec_2}\times(Dis+1-N)+1}\label{eqn:nearness}\end{eqnarray}ここで\footnote{$PN$は複合語の構成単語に類似した語が現れた時に,その間の物理的距離に反比例させて重み付けするための乗数である.隣接している時に最大値2をとり,物理的距離が10で1とした.物理的距離が10より小さいものは複合語として扱い,大きいものは複合語と見倣さないということになる.$c_1$=2,$c_2$=10とした背景は以上の通りであるが,このパラメータの最適化は今後の検討課題の一つである.},\begin{center}\begin{tabular}[t]{rp{115mm}}$c_1,c_2$:&定数(実験時の設定値は$c_1=2$,$c_2=10$)\\$Dis$:&(類似)単語間の物理的距離(単語間に存在する単語数+1)の最小値.\\$N$:&複合語の単語数.\end{tabular}\end{center}\subsubsection{単語の文書毎の重要度}\label{sec:term-weight}単語の重要度に関しては様々な尺度が提案されている.本実験では,単語の文書内の出現頻度と全文書中の出現文書数に基づいた重要度\cite{Turtle91}を使う.文書$D$内の単語$dt$の重要度$w$は,次のように定義される.\begin{eqnarray}w&=&\displaystyle\frac{tf}{max\_tf}\times\frac{\log{\frac{\displaystyleND}{\displaystylef}}}{\log{ND}}\label{eqn:weight}\end{eqnarray}ここで,\begin{center}\begin{tabular}[t]{rl}$tf$:&文書$D$内の単語$dt$の出現頻度.\\$max\_tf$:&文書$D$内の単語の出現頻度の最大.\\$f$:&単語$dt$が出現している文書の数.\\$ND$:&全文書数.\end{tabular}\end{center}\subsubsection{質問・文書間の関連度}\paragraph{質問}\label{sec:query}本手法では,次に示すような論理型質問$Q$を受理する.\begin{eqnarray}Q&=&q_1\|\q_2\|\\cdots\|\q_K\label{eqn:query}\\[0.5ex]q&=&\underbrace{qt_{11},\cdots,qt_{1N_1}}_{}\&\cdots\&\underbrace{qt_{M1},\cdots,qt_{MN_M}}_{}\label{eqn:query-and}\\[-1.5ex]&&\hspace*{1.3zw}質問語~qc_1\hspace*{6zw}質問語~qc_M\nonumber\end{eqnarray}ここで,`$|$'と`\&'はそれぞれ`{\smallOR}'と`{\smallAND}'のオペレーションを表す.この形式は,$K$個の$q$が\\`{\smallOR}'オペレーションで結合され,\hspace{-0.4mm}各$q$は$M$個の質問語$qc$(単語または複合語)\hspace{-0.03mm}が`{\smallAND}'オペレー\\ションで結合され,各質問語$qc_i$は$N_{i}$個の単語$qt$から成っている.\vspace*{-1mm}\paragraph{関連度}\label{sec:similarity}\vspace*{-1mm}質問$Q$と文書$D$との間の関連度$Rel(Q,D)$は次式のように定義する.\begin{eqnarray}Rel(Q,D)&=&max\{Rel(q_1,D),Rel(q_2,D),\cdots,Rel(q_K,D)\}\label{eqn:sim-qda}\\[1ex]Rel(q,D)&=&\frac{\displaystyle\sum_{i=1}^{M}\sum_{j=1}^{N_i}{\left\{Rel(qt_{ij},D)\timesPN(qc_i,D)\right\}}^2}{\displaystyle\sum_{i=1}^{M}\sum_{j=1}^{N_i}\left\{Rel(qt_{ij},D)\timesPN(qc_i,D)\right\}}\nonumber\\[1ex]Rel(qt,D)&=&max(w_1,w_2,\cdots,w_L)\timesmax\left\{Sim(qt,dt)\right\}\nonumber\end{eqnarray}ここで,\begin{center}\begin{tabular}[t]{rp{110mm}}$L$:&$qt$に最も類似している単語($Sim(qt,dt)$が最大の単語)の数.\\$w$:&$qt$に最も類似している単語の重要度.\\$PN(qc,D)$:&文書$D$内での,\hspace{-0.3mm}$qc$中の各$qt$に最も類似している単語間の物理的近さ\hspace{-0.2mm}(\ref{sec:nearness}節の式(\ref{eqn:nearness})).\\$Sim(qt,dt)$:&質問$Q$中の1つの単語$qt$と文書中の1つの単語$dt$との間の類似度(\ref{sec:sim-word-sub}節).\end{tabular}\end{center}$Rel(Q,D)$の計算は,$q_1,q_2,\cdots,q_K$のうち,少なくとも1つの$q$に含まれる単語それぞれに対して{\dg類似している単語}が出現している文書に対してのみ行なう.「類似している単語」とは,あらかじめ指定されたしきい値$T$に対して{\boldmath$Sim(qt,dt)\ge$}{\boldmath$T$}である単語$dt$を意味する.$Rel(q,D)$は,\hspace{-0.3mm}単に$q$中の単語$qt_{ij}$すべてに対する$Rel(qt_{ij},D)\timesPN(qc_i,D)$の値の平均とするよりも,$Rel(qt_{ij},D)\timesPN(qc_i,D)$が大きい値ほどその値の重要度が大きくなるようになっている.\subsubsection{検索手順}\label{sec:step}実際の検索処理に先だって,(a)質問中の単語への概念の付与\footnote{本実験では予め筆者が手作業で付与した.システム運用時には,ユーザとシステムが会話的に決定することを仮定している.},(b)全文書に対するインデックスファイル(各文書の見出し語・品詞からなる各ペアに対して,文書番号,重要度,出現位置が付与されたファイル)の作成を行なった.インデックスファイルの作成手順は次のようになる.\begin{enumerate}\renewcommand{\labelenumi}{}\item文書の中から,ストップリスト(冠詞や前置詞など文書検索にとって重要と考えられない単語のリスト)に属する単語を除き,すべてのアルファベットを小文字化する\cite{FoxC92}.\item形態素解析\footnote{本論文の実験では,\cite{Karp92}の形態素解析プログラムを使用した.}により,各単語に対して,見出し語・品詞の可能なペア,出現位置の情報を付与する.\item類似検索の場合は,ここで,見出し語・品詞の各ペアに対してシソーラスに従って,取りうる概念を付与する.この概念集合に対して,多義解消を行なう.\item\ref{sec:term-weight}節の式(\ref{eqn:weight})に従って,各文書の見出し語・品詞の各ペア対して,重要度を計算し付与する.\end{enumerate}質問に対する検索処理手順は次のとおり.\begin{enumerate}\item質問を\ref{sec:query}節の式(\ref{eqn:query}),(\ref{eqn:query-and})の形に変換する.\item式(\ref{eqn:query})の少なくとも1つの$q$中の単語$qt$それぞれに対して,\\$Sim(qt,dt)\geT(しきい値)$を満たす単語$dt$が出現している文書を検索する.\item検索された文書毎に,質問・文書間の関連度$Rel(Q,D)$を\ref{sec:similarity}節の式(\ref{eqn:sim-qda})から求める.\item検索された文書を関連度順に整列させる.\end{enumerate} \section{実験} label{sec:experiment}ここでは,非平衡シソーラスにも適用できる意味的類似度と単語の多義解消を組み合わせた提案の類似検索手法を従来の検索法と比較し,適合率・再現率の向上を確認する.また,適合率向上に貢献した多義解消法の精度に関する実験結果について示す.\subsection{ベンチマークテスト}情報検索システム評価用ベンチマークテストの1つにFoxのVirginiaDisk\cite{FoxE90}がある.実験では,その中のCACMと呼ばれるセットを使った.CACMには,コンピュータサイエンスに関する3,204の文書(タイトルとアブストラクト,1文書当たり約125語),3種類の質問セット(自然言語文からなる{\smallNLQ},ブーリアン形式の{\smallBLQ1,BLQ2}),質問ごとの関連文書の文書番号が含まれている.各質問セットには64個の質問が含まれている.{\smallNLQ}はオリジナルの質問セットで,{\smallBLQ1,BLQ2}は{\smallNLQ}を基にして作られている.実験では,{\smallNLQ}の質問文中の単語が比較的多く使われている{\smallBLQ2}の中で,{\smallNOT}オペレーションを含むものと正解の関連文書がないものを除く47個の質問に複合語を指定する変更を加えたもの(以下では,変更版{\smallBLQ2}と呼ぶ)を用いた.{\smallNLQ},{\smallBLQ2},変更版{\smallBLQ2}の質問番号35の質問内容を下に示す.変更版{\smallBLQ2}において,シングルクウォート(')で囲まれた部分が1つの質問語を表している.{\parindent=0mm[NLQ]\begin{verbatim}Probabilisticalgorithmsespeciallythosedealingwithalgebraicandsymbolicmanipulation.Someexamples:Rabiin,"Probabilisticalgorithmonfinitefield",SIAM.Waztch,"Probabilistictestingofpolynomialidentities",SIAM.\end{verbatim}[BLQ2]\begin{verbatim}#q35=#and('probabilistic','algorithm',#or('algebraic','symbolic'),'manipulation');\end{verbatim}[変更版BLQ2]\begin{verbatim}#q35=#and('probabilisticalgorithm',#or('algebraicmanipulation','symbolicmanipulation'));\end{verbatim}}\subsection{評価方法および実験条件}\label{sec:evaluation}評価は,情報検索の分野で一般的に使われている{\dg再現率}と{\dg適合率}を用いた.再現率および適合率は次式で定義される.\begin{eqnarray}再現率&=&\frac{ランクN位までの検索文書中の関連文書数}{関連文書数}\label{eqn:rec-pre-1}\\[1ex]適合率&=&\frac{ランクN位までの検索文書中の関連文書数}{ランクN位までの検索文書数}\label{eqn:rec-pre-2}\end{eqnarray}再現率・適合率グラフは次に示す手順で作成した.\begin{enumerate}\item式(\ref{eqn:rec-pre-1}),(\ref{eqn:rec-pre-2})の値$N$を任意に複数個決める.\item質問ごとに,式(\ref{eqn:rec-pre-1}),(\ref{eqn:rec-pre-2})により$N$における再現率と適合率を求める.\item$N$における再現率と適合率の全質問に対する平均を求め,プロットする.\end{enumerate}次節の結果では,$N$を10,20,30,$\cdots$,200に設定した.表\ref{tbl:experiment-condition}に示した条件設定\footnote{本論文で提案した方法は多くのパラメータを含んでいる.表\ref{tbl:experiment-condition}にまとめてある設定は,経験的に定めたものであり,パラメータの最適値を求めることは,今後の課題の一つである.}の元で,表\ref{tbl:experiment-method}に示す4種類の手法{\bfWM},{\bfAM},{\bfDM(Voo)},{\bfDM(Yar)}を比較し,非平衡シソーラスにも適用できる意味的類似度と単語の多義解消を組み合わせた提案の類似検索手法{\bfDM(Voo)}及び{\bfDM(Yar)}の有効性を確認する.\subsection{実験結果}ここでは多義解消を伴った類似検索の有効性と多義解消法の比較について述べる.\subsubsection{文書検索の比較}図\ref{fig:recall-precision-th-99}--\ref{fig:recall-precision-th-69}は,検索時にシステムが許容する単語間の類似度を制御するためのしきい値$T$(\ref{sec:similarity},\ref{sec:step}節参照)が,高い方から順に,9/9,8/9,7/9,6/9の場合の再現率・適合率グラフである.\begin{table}[t]\caption{実験条件}\label{tbl:experiment-condition}\small\begin{center}\renewcommand{\arraystretch}{}\begin{tabular}{|l|c|}\hline\multicolumn{1}{|c|}{項目(関連する節)}&設定\\\hline\hlineシソーラスの具体度の$NL$(\ref{sec:sim-con}節)&9\\\hline\hline概念の粒度を制限するための具体度(\ref{sec:voorhees-apply}節)&6以下\\\hline$hood$の粒度を制限するための具体度(\ref{sec:voorhees-apply}節)&3以上\\\hline\hline文脈幅$W$(\ref{sec:yarowsky-apply}節)&{4}\\\hline単語$ct$を選択するためのしきい値$Y$(\ref{sec:yarowsky-apply}節)&{2.0}\\\hlineYarowskyの手法で使用したコーパス(\ref{sec:yarowsky-apply}節)&TIPSTERのZIFF文書\footnotemark\\\hline\hline物理的近さの定義式の定数$c_1$(\ref{sec:nearness}節)&2\\\hline物理的近さの定義式の定数$c_2$(\ref{sec:nearness}節)&10\\\hline\end{tabular}\end{center}\end{table}\footnotetext{Yarowskyの手法において使用したコーパス「TIPSTERのZIFF文書」は,米国ARPA(AdvancedResearchProjectsAgency)が主導した情報検索のプロジェクトTIPSTERで使われてた文書の1つである.ZIFF文書の総単語数は約9,600万語であるが,Yarowskyの手法は使用するコーパスのサイズが大きくなると処理時間も増えていくので,実験では多義解消の処理時間を短縮するためにそのうちの約800万語を使用した.}\begin{table}[t]\vspace{-6mm}\caption{比較した4種類の手法}\label{tbl:experiment-method}\small\begin{center}\renewcommand{\arraystretch}{}\begin{tabular}{|c||c|c|c|c|c|}\hline&\multicolumn{5}{|c|}{使用する尺度または多義解消手法}\\\cline{2-6}手法名&意味的類似度&Voorheesの&Yarowskyの&物理的近さ&単語の重要度\\[-0.2zh]&\small(\ref{sec:sim-word-main}節)&手法\small(\ref{sec:voorhees-apply}節)&手法\small(\ref{sec:yarowsky-apply}節)&\small(\ref{sec:nearness}節)&\small(\ref{sec:term-weight}節)\\\hline\hline{\bfWM}&&&&○&○\\\hline\hline{\bfAM}&○&&&○&○\\\hline\hline{\bfDM(Voo)}&○&○&&○&○\\\hline{\bfDM(Yar)}&○&&○&○&○\\\hline\end{tabular}\end{center}\end{table}\vspace*{-1mm}\begin{itemize}\itemいずれのしきい値$T$においても,{\dg\bfAMは,WMと比べて,適合率は減少しているが再現率は向上している.}適合率減少の原因の1つに単語の多義性がある.単語間の類似度を求める際にすべての概念を考慮しているので,実際に文書中で使われている概念とは異なる概念に起因して多くの非関連文書が検索されてしまうのである.\item{\dg\bf多義解消手法を導入したDMをAMと比べた場合,概ね,再現率は若干減少しながらも適合率が改善している.}これは,AMで検索されていた非関連文書がDMでは多義解消の効果により検索されなくなったためである.但し,$T$=7/9(図\ref{fig:recall-precision-th-79}),$T$=6/9(図\ref{fig:recall-precision-th-69})では,多義解消の失敗の影響で再現率が減少しているのが目立つ.\item{\dg\bfDMをWMと比べると,ある程度しきい値$T$が大きい場合には,大略,再現率・適合率ともに向上している.}\footnote{一方,\ref{sec:evaluation}節の評価方法の他に,再現率=適合率となる値についても求めた.\cite{Salton83a}のp.164--172に従って,$T$=9/9における質問全体に対する再現率ごとの平均を求めた結果,再現率=適合率となる値は,DM(Voo),DM(Yar),AM,WMの順に,0.220,0.220,0.225,0.230となった.また,再現率0.1を境として,より低い再現率では,適合率の高い方から,DM(Voo),DM(Yar),WM,AMの順になり,より高い再現率では,WM,AM,DM(Voo),DM(Yar)の順となった.}\end{itemize}\clearpage\begin{figure}[ht]\centerline{\epsfile{file=new_tr_99.ps,scale=1.0}}\caption{再現率・適合率[しきい値$T$=9/9]}\label{fig:recall-precision-th-99}\end{figure}\begin{figure}\centerline{\epsfile{file=new_tr_89.ps,scale=1.0}}\caption{再現率・適合率[しきい値$T$=8/9]}\label{fig:recall-precision-th-89}\end{figure}\begin{figure}\centerline{\epsfile{file=new_tr_79.ps,scale=1.0}}\caption{再現率・適合率[しきい値$T$=7/9]}\label{fig:recall-precision-th-79}\end{figure}\begin{figure}\centerline{\epsfile{file=new_tr_69.ps,scale=1.0}}\caption{再現率・適合率[しきい値$T$=6/9]}\label{fig:recall-precision-th-69}\end{figure}\clearpage\subsubsection{多義解消法の比較}\label{sec:vy}Voorheesの多義解消の文書検索における有効性に関しては,Voorheesの報告とは逆に,Voorheesの手法を若干変更し,類似検索に適用して,その有効性を確認できた.また,Yarowskyの手法も,同程度の有効性が確認できた.但し,しきい値$T$が9/9の時にはDM(Voo)の方が\\性能が良く,しきい値$T$が8/9以下ではDM(Yar)の方が性能が良く,しきい値$T$が小さくなれ\\ばなるほど両者とも性能が悪くなる.次に,多義解消手法単独の精度\footnote{処理時間の観点からは,Yarowskyの手法はVoorheesの手法に比べ劣っている.Yarowskyの手法の処理時間は,文脈の幅,学習コーパス,検索文書中の多義語の量と多義の度合などに支配される.実装に依存するので,参考に過ぎないが,800万語のZIFF文書をコーパスとして多義解消に要した時間はDECAlphaStation6005/333上で約330時間(2週間)であった.一方,Voorheesの手法の場合の多義解消時間は検索文書中の多義語の量と多義の度合などに支配されており,約3時間であった.}について述べる.図\ref{fig:recall-precision-th-99}に対応する$T$=9/9と図\ref{fig:recall-precision-th-69}に対応する$T$=6/9の条件を代表として取り上げ,質問中の単語と類似している関連文書内の単語\footnote{参考のために,$T$=6/9のDA(Yar)の多義解消結果における単語(出現形と頻度)を3つに分類して示す.\begin{itemize}\topsep=0mm\partopsep=0mm\parskip=0mm\parsep=0mm\itemsep=0mm\item選択され成功した語(延べ34語)\\appropriate1,calculation1,computer2,described3,describes1,dictionary4,divide1,fitting3,formulas1,gauging1,loop1,loops1,management1,measurements1,patterns1,person1,picture1,pictures4,procedure1,retrieving1,secure1,serial1,transmitting1.\item選択はされたが失敗した語(延べ21語)\\analysis1,capacity2,compare1,computer1,entries1,entry1,evaluate1,handling1,loop1,measurement1,operate1,operating1,picture1,representation1,serial2,set2,shared1,utilization1.\item選択されなかった語(延べ50語)\\allocate1,allocating1,allocation6,applications1,computer2,described5,describes1,describing1,dictionaries3,directory1,divided1,entries1,evaluating2,fitting1,hardware1,management3,measure1,measuring1,operated1,operating2,organization2,pattern1,programmers1,representation3,serial1,set1,shared1,sharing3,time1.\end{itemize}}(延べ数は前者が59,後者が105である)の多義解消の結果を調べた(表\ref{tbl:disamb-result9/9},\ref{tbl:disamb-result6/9}).{\small\begin{table}[h]\caption{多義解消結果[しきい値$T$=9/9]}\label{tbl:disamb-result9/9}\small\begin{center}\renewcommand{\arraystretch}{}\tabcolsep=1.5mm\begin{tabular}{|c||c|c||c|c||c|c|c|}\hline&A:選択単語&A/59:&B:成功単語&B/A:&C:選択前&D:選択後&D/C:多義\\[-0.2zh]\raisebox{0.8zh}[0pt]{手法}&延べ数&選択率&延べ数&成功率&概念数&概念数&圧縮率\\\hline\hlineDA(Voo)&59&1.00&39&0.66&644&354&0.55\\\hlineDA(Yar)&45&0.76&23&0.51&581&202&0.35\\\hline\end{tabular}\end{center}\end{table}\vspace{-3mm}\begin{table}[h]\caption{多義解消結果[しきい値$T$=6/9]}\label{tbl:disamb-result6/9}\small\begin{center}\renewcommand{\arraystretch}{}\tabcolsep=1.5mm\begin{tabular}{|c||c|c||c|c||c|c|c|}\hline&A:選択単語&A/105:&B:成功単語&B/A:&C:選択前&D:選択後&D/C:多義\\[-0.2zh]\raisebox{0.8zh}[0pt]{手法}&延べ数&選択率&延べ数&成功率&概念数&概念数&圧縮率\\\hline\hlineDA(Voo)&104&0.99&73&0.70&938&530&0.57\\\hlineDA(Yar)&55&0.52&34&0.62&672&142&0.21\\\hline\end{tabular}\end{center}\end{table}}選択単語は1つ以上の概念を選択できた単語である.選択率は多義解消手続きの汎用性を示す.成功単語は選択した概念の中に正解概念(文書中で使われている概念)が含まれている単語である.成功率は多義解消が働いた場合の精度を示す.本実験ではスコアが正である概念を選択しているので,選択され排除されない概念数が多ければ成功率も高くなりうるので,多義解消手続きで選択され排除されない概念の割合も考えなくてはならない.これを多義圧縮率と呼ぶことにする.いずれのしきい値の場合でも,選択率,成功率ともに,Voorheesの手法,DA(Voo)が優っており,逆に,多義圧縮率はYarowskyの手法,DA(Yar)が優っている.選択率と成功率が同じなら,多義圧縮率によって検索への効果が決まるが,それ以外は単純に比較できない.多義解消法の性能が必ずしも高くなくても,検索性能は上げられることがわかったが,両者の関係は必ずしも単純ではなく,今後さらに検討を続ける必要がある. \section{おわりに} label{sec:conclusion}本論文では,シソーラスが平衡または非平衡,どちらの場合にも適用できる意味的類似度を提案した.本提案では各単語が担う概念間の最下位共通上位概念が有する下位概念の総数が少ないほど,大きくなるように単語間の類似度を決定する.さらに,この類似度と多義解消を用いた類似検索手法を提案した.比較実験により,本類似検索手法は従来の検索手法に比べて,適合率・再現率ともに改善していることを確認した.今後の研究課題としては,本手法で用いたパラメータの最適化,応用や言語やシソーラスを変えた場合の有効性の検証,多義解消アルゴリズムの高精度化・高速化,未知語対策または応用への適用を目指したシソーラスの拡張・修正・生成手法などがある.\acknowledgment本研究ではEDR電子化辞書の英語単語辞書・概念辞書(評価版第2.1版)を使用している.関係各位に深謝する.\bibliographystyle{jnlpbbl}\bibliography{jpaper81}\clearpage\begin{biography}\biotitle{略歴}\bioauthor{大井耕三}{1984年同志社大学工学部電子工学科卒業.同年,三洋電機(株)入社.1992年より4年間,エイ・ティ・アール自動翻訳電話研究所・音声翻訳通信研究所に出向.現在,三洋電機(株)ハイパーメディア研究所にて,自然言語処理・自然音声合成の研究開発に従事.情報処理学会会員.}\bioauthor{隅田英一郎}{1982年電気通信大学大学院計算機科学専攻修士課程修了.エイ・ティ・アール音声翻訳通信研究所主任研究員.自然言語処理,並列処理,機械翻訳,情報検索の研究に従事.情報処理学会,電子情報通信学会各会員.}\bioauthor{飯田仁}{1972年早稲田大学理工学部数学科卒業.74年同大学院修士課程(数学専攻)修了.同年日本電信電話公社武蔵野電気通信研究所入社.日本電信電話株式会社基礎研究所を経て86年4月よりエイ・ティ・アール自動翻訳電話研究所に出向.同研究所終了に伴い93年3月よりエイ・ティ・アール音声翻訳通信研究所に再出向.現在,音声対話の理解・翻訳の研究に従事.平成7年度科学技術庁長官賞受賞.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,日本認知科学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V24N01-02
\section{はじめに} label{sec:intro}絵本の読み聞かせは幼児の言語発達を促す重要な情報の1つと考えられる\cite{Mol:2008,Reese:1999,Whitehurst:1988}.例えば,読み聞かせを開始する月齢が早いほど,2才や4才の時点での言語理解や発話の能力が高くなること\cite{Debaryshe:1993:joint,Payne:1994:role},そして8ヶ月時点での絵本の読み聞かせが多い方が,12,および,16ヶ月時点での語彙が発達していること\cite{Karrass:2005:effects}などが示されている.また,読み聞かせでは,読み手と聞き手という少なくとも2者が存在し,絵本という共通の対象がある.このような状況において,聞き手である幼児は自分以外の他者と同一の対象に注意を向ける共同注意(jointattention)という行動を頻繁にとることが知られており\cite{Karrass:2003:predicting},それが言語発達に影響する可能性などが指摘されている\cite{Tomasello:1986:joint}.こうしたインタラクションによる効果以外にも,例えば,\citeA{Sulzby:1985:children}は,日常の会話でほとんど出現しない語彙やフレーズが絵本に多数含まれていることが幼児の言語発達を進めることを指摘している.さらに,絵本の読み聞かせは言語発達を促すだけではなく,読み手と子どものコミュニケーションを促したり,登場人物の感情を推定したりするなど,情操教育にも役立つと考えられる\cite{Sato:Horikawa:Uchiyama:2016j,Furumi:Koyamauti:Ooba:2014j}.このように,絵本を読むことは,言語発達と情操教育の両面での効果が期待できる.しかし絵本には,赤ちゃん向けの絵本から,年長児(5才児)以上を対象とする絵本,大人向けの絵本まで存在し,その内容も難しさも様々である.そのため,子どもの興味や発達段階にあった絵本を選ぶのは難しい.親など日常的に接している保護者が子どもに絵本を選ぶ場合,書店や図書館などで手にとって確認すれば,その子に読めそうかどうか,興味を引きそうかどうかは分かるかもしれない\changedB{が,非常に多くの絵本を1冊1冊手に取って確認するのは}容易ではない.また,ある程度大きな子どもであれば,子ども自身でも絵本を選べるかもしれない.しかし,書店や図書館では,多くの本は背表紙が見える向きでずらりと並べて置かれている.そのため,表紙が目立つように置かれてる一部の絵本の中から手に取りやすい傾向がある.多くの書店や図書館では,目立つ場所に置く本を定期的に入れ替えたり,季節やテーマに応じた本の展示コーナーを作ったり,定期的に読み聞かせの会を開いたりするなど,絵本と出会うための様々な工夫がされている.こうした取り組みでは,本に詳しい書店員や司書の方が選んだ本を紹介してくれるため,良い本と出会いやすいという利点がある.しかし,タイミング良くその時にその場所に足を運ばなければ,手に取る機会を逃してしまうという状況は変わらない.また,そうして手にとった本がその子に合った読みやすさではない場合,簡単すぎてつまらなかったり,あるいは難しすぎて途中で投げ出してしまったりということが起こり易い.内容も,多くの子ども達には人気があるとしても,子ども1人1人を考えた時に,ちょうど興味のある内容であるとは限らない.このように,興味のある内容でちょうど良い読みやすさの本と出会えない場合,本をあまり読まなくなってしまったり,同じ本ばかり繰り返して読んだりすることもある.もちろん,繰り返して読むことは決して悪いことではない.お気に入りの本を繰り返して読みたがる時期もあるし,同じ本でも子どもの成長とともに理解が深まったり,最初とは違う読み方ができるようになることもあるだろう.しかし,同じ本ばかり読んだり借りたりする理由が,「他に興味を引く本が見つからないから」だったら問題である.しかも,0〜3才くらいまでの幼い子どもの場合は,そもそも自分で本を選ぶことも難しい.そこで我々は,子どもに内容と読みやすさがぴったりな絵本を見つけるためのシステム「ぴたりえ」を開発している.幼い子どもには入力インタフェースの利用が難しいため,親や保育士,司書などの大人が利用することを想定している. \section{関連システム} label{sec:previous}本章では,インターネットを介して,絵本を含む本を検索したり購入したりすることのできる既存システムを紹介する.まず,多くの図書館では,インターネットを通じた検索サービスを提供している.例えば,国立国会図書館サーチ\footnote{http://iss.ndl.go.jp/}では,複数の機関が所蔵する児童書の検索サービスを提供しており,WorldCat\footnote{https://worldcat.org}は,世界中で同様のサービスを提供することを目指している.国立国会図書館サーチには,子どもを想定利用者とした国際子ども図書館子どもOPAC\footnote{http://iss.ndl.go.jp/children/top}もある.これらの検索サービスでは,タイトルや作者などの書誌情報による検索や,テーマからの検索等ができるようになっている.多くの蔵書から検索でき,実際に借りることのできる図書館を探せるなど,有用性の高いサービスである.しかし,書誌情報による検索は,ユーザー側で探している本が明確な場合にはよいが,探している本が見つかるだけでは本との新たな出会いのきっかけにはなりにくい.テーマからの検索を利用すれば,興味のあるテーマから本を見つけることができるが,あらかじめ設定されたテーマに限定されてしまうという問題がある.一方で,Amazon\footnote{http://www.amazon.co.jp/}や絵本ナビ\footnote{http://www.ehonnavi.net/}など,多くの通信販売サイトが絵本を含む本を扱っている.こうした通信販売サイトでは,ユーザーレビューが集められていることが多く,購入の際の参考とされている.さらに,Amazonでは,同じような購買履歴を持つ他のユーザーが購入している本を推薦するという,協調フィルタリングによる推薦が行われている.一般に満足度の高い推薦方法ではあるが,一方で,売れ筋の本ばかりが推薦されやすくなるという問題点がある.さらに,英語版のAmazon\footnote{http://www.amazon.com/}では,対象年齢(AgeRange)やテーマ(Bugs\&Spiders,Counting等)を選んで本を探すこともできる.有益なサービスだが,出版社等によって登録された情報に拠っており,あらかじめ設定されたテーマ等に限定されるという問題は変わらない.絵本ナビは,絵本や児童書に特化したサービスを展開しており,懸賞をかけたりすることでユーザーレビューを大量に集めている.また,ユーザーに子どもの年齢を入力してもらうことにより,どういった年齢の子どもによく読まれている本かといった情報収集を行い,年齢ごとの推薦を可能にしている.素晴らしいサービスだが,必ずしもすべての本に十分な数のユーザーレビューが得られているわけではなく,ユーザーレビューのない本には適用できない. \section{システム概要と言語処理} label{sec:system}本章では,ぴたりえのシステム概要と,内容と読みやすさがぴったりな絵本を見つけるために必要な言語処理技術を中心に紹介する.\begin{figure}[b]\begin{center}\includegraphics{24-1ia2f1.eps}\end{center}\caption{ぴたりえ:システムの概要}\label{fig:pitarie-system}\end{figure}図~\ref{fig:pitarie-system}にぴたりえのシステム概要を示す.ぴたりえでは,事前に構築している絵本データベース(\ref{sec:ehon-db}章)から,絵本の探索(あるいは,検索),推薦を行う.絵本データベースに対して事前準備として行っておく処理と,検索実行時に行う処理があるが,両方の処理で,まず言語処理による様々な処理を行い(図~\ref{fig:pitarie-system},【1】),探索部分にデータを渡している(図~\ref{fig:pitarie-system},【2】).言語処理部分では,まず,形態素解析(\ref{sec:hiragana}節)を行う.この結果はすべての後続処理で利用する.次に,難易度推定(\ref{sec:readability}節)を行う.これにより,\changedB{絵本を探している子どもにちょうど}ぴったりな読みやすさの本の推薦を実現する.さらに,表記ゆれの吸収処理(\ref{sec:yure}節)や,必要に応じて概念辞書による検索語の拡張(\ref{sec:theme}節)を行う.これらの処理を行った後,探索部分にデータを渡す(図~\ref{fig:pitarie-system},【2】).探索部分では,絵本テキストの解析結果や書誌情報,あるいは,自由入力されたテキストの解析結果や拡張結果を特徴量として,グラフ索引型類似探索法(\ref{sec:search}節)を実行しており,これによりぴったりな内容の推薦を実現する.\ref{sec:previous}章で紹介した関連システムと比較すると,ぴたりえでは絵本自体のテキストに基づく難易度推定を行っているので,レビューや出版社で付与された対象年齢の有無にかかわらず,一貫した難易度の推定が可能であり,ちょうど良い読みやすさの本の推薦が可能である.また,人手であらかじめ設定されたテーマに限らず,自分の興味のあるテーマの本を中身に基づいて探したり,興味のある本に似た本を探すことができるため,子ども1人1人の興味にあった推薦が可能である. \section{絵本データベース} label{sec:ehon-db}本章では,絵本データベースに含まれる本の選定規準とデータベースのサイズについて述べる.絵本データベースには,多くの子どもに読まれていると考えられる本,名作として専門家によって推薦されている本,長年に渡り愛されてきている本が含まれるよう選定している.具体的には,2010年,および,2015年の紀伊国屋書店グループの売上冊数が上位1,000位以内のファーストブックと絵本\footnote{絵本とファーストブックの分類は紀伊国屋書店による.},小学校国語教科書シェアトップ3社(東京書籍,光村書店,教育出版)\footnote{教科書の出版社毎のシェア状況については\citeA{PKyokasyoSaitaku:2010j}を参照.}発行の2015年度小学校教科書で掲載・推薦されている図書,ミリオンセラー\footnote{ミリオンぶっく2015年版(TOHAN)http://www1.e-hon.ne.jp/content/cam/2015/millionbook.html},図書館の推薦図書から選定している.こうした推薦本に児童書が含まれる場合には,データベースに児童書も含めている.また,シリーズ作品の一部のみがこれらに含まれる場合には,シリーズの他の作品も含めている.さらに,対象年齢が比較的はっきりしていることを選定理由として,福音館書店の月刊誌190冊を含めている\footnote{含まれる絵本のリストはhttp://www.kecl.ntt.co.jp/icl/lirg/members/sanae/ehon-list.htmlで閲覧可能である.}.これにより,合計2,415冊\footnote{2016年05月12日現在のデータサイズである.}がデータベースに含まれている.絵本データベースには,これらの絵本について,タイトルや作者,出版社,出版年,ISBNなどの書誌情報と,本文のテキスト,記載がある場合には出版社が付与している対象年齢も保存している.絵本データベースのサイズを表~\ref{tb:size}に示す.絵本データベースには,お話集のように1冊に複数の話が含まれる本も含まれており,1話1冊の本と分けてサイズを示した.\begin{table}[t]\caption{絵本データベースのサイズ(児童書,お話集を含む)}\label{tb:size}\input{02table01.txt}\end{table}表~\ref{tb:size}で,文字数が0となっている絵本は,「アンジュール」{\kern-0.5zw}\footnote{「アンジュール」(ガブリエル・バンサン,1986,BL出版)}など,字のない絵本である.また,文字数が最大(133,724文字)だった本「本だらけの家でくらしたら」\footnote{「本だらけの家でくらしたら」(作:N.E.ボード絵:ひらいたかこ訳:柳井薫,2009,徳間書店)}は,絵本というより児童書である.絵本データベースは,文字数で700万文字を越えており(表~\ref{tb:size}),形態素解析の正解アノテーション済みデータは約26万文字である(\ref{sec:hiragana}節,表~\ref{tb:test-size}参照).なお,京都大学テキストコーパス\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php}は約168万文字,基本語データベース\cite{Lexeed:2004j}(以下,\lxd{})は約192万文字である.この絵本データベースは,ぴたりえでの絵本の推薦に利用するだけでなく,言語発達で重要な意味を持つ語の絵本での出現傾向の調査を行う\cite{Okumura:Kobayashi:Fujita:Hattori:2016}など,幼児を対象とするテキストの貴重なコーパスとして研究利用している. \section{要素技術} label{sec:nlp}本章では,ぴたりえで用いている各要素技術を紹介する.処理の順番は前後するが,まず,\ref{sec:search}節でぴたりえで利用している探索技術(図~\ref{fig:pitarie-system},【2】)について紹介し,\ref{sec:hiragana}節から\ref{sec:theme}節で言語処理部分(図~\ref{fig:pitarie-system},【1】)について紹介する.\subsection{探索方法}\label{sec:search}ぴたりえでは,内容がぴったりな絵本を見つける探索技術として,グラフ索引型類似探索法\cite{Hattori:Aoyama:2013j}を用いている.類似探索は,入力データと探索対象の間に「似ている度合い(類似度)」を定義して,類似度が高いものを探す方法であり,直感的には,入力した大量の情報に基づいてできるだけ多くの条件を満たすものを探す探索方法である.特に,グラフ索引型類似探索法では,高速な検索を実現するための索引として類似の絵本同士が結合したグラフ構造(ネットワーク構造)を用いて検索を行う.本手法は,検索する対象間に何らかの「距離」\footnote{正確には,距離公理を満たさない非類似度でも良い.}を定義することができれば適用できるため汎用性が高い.例えば,画像特徴量を用いて似ている絵を見つけたり,音声の特徴量を用いて似ている声の人を見つけたり,テキストから得られる特徴量を用いて似ている内容のテキストを見つけることができる.ぴたりえでは,絵本の著者などの書誌情報や,1冊1冊に現れる内容語と名詞句,それらの表記ゆれをすべて特徴量として利用している\footnote{画像特徴量を利用して似た絵を探す機能もある.}.具体的には,絵本ごとに出現する内容語,名詞句,それらの表記ゆれを\tfidf{}によって重み付けし(\ref{sec:yure}節),ノルムを1に正規化したベクトルを用いて計算した絵本間のコサイン類似度を距離としている.文書間の距離尺度としては様々な計算方法が提案されているが\cite{Asahara:Kato:2015j},内容語を用いるだけで,出てくる動植物やキャラクター,「食べる」「遊ぶ」などの行動が表れる絵本を発見できる.また,より長いn-gramを用いる場合より,他の絵本と一致しやすくなるため,より多くの類似した絵本を発見することができる.これにより,お気に入りの絵本を入力データとし,その絵本と作者等の書誌情報が似ている絵本や,出てくる動植物や行動が似ている絵本など,様々な点で似ている絵本を探すことができる.\begin{figure}[b]\begin{center}\includegraphics{24-1ia2f2.eps}\end{center}\caption{「はらぺこあおむし」で検索した結果(各絵本の書誌情報は付録を参照)}\label{fig:ruiji}\end{figure}図~\ref{fig:ruiji}に,「はらぺこあおむし」{\kern-0.5zw}\footnote{「はらぺこあおむし」(エリック=カールさく/もりひさしやく,1976,偕成社)}を入力データとして類似探索を実行した結果を示す.図~\ref{fig:ruiji}では,絵本データベースの中から,内容語や書誌情報などの特徴量が,「はらぺこあおむし」とできるだけ多く共通する絵本が検索結果として出力されている.著者が同じという点で似た絵本もあれば,「あおむし」「葉っぱ」「たべる」などの語が共通する絵本もある.そのため,例えば,青虫に興味が湧いたのであれば\changedB{青虫の出てくる他の絵本,色々な食べ物を食べるのが面白かったのであれば色々な食べ物の出てくる他の絵本,といった選び方をすることもできる.}このように,我々は,書誌情報が一致する本を見つけるだけでなく,お気に入りの一冊と色々な点で「似ている」絵本を検索結果として提示することによって,書誌情報との一致だけでは見つけることができない本との新たな出会いを提供することができると考えている.また,入力データとする本を1冊ではなく,最近のお気に入りの数冊とする拡張も容易である.あるいは,絵本を入力データとするのではなく,「タイトルは忘れたけど昔好きだった絵本で,『一人ぼっちのきかんしゃが旅をして,最後には友達ができる絵本』を見つけたい」とか,「友達とケンカしちゃったけど仲直りしたいから,『ケンカしたけど仲直りする絵本』を見つけたい」などという検索も実現できる.ただし,現在は物語の順序や語順を考慮していないため,「ケンカしたけど仲直りする絵本」と「仲直りしたけどケンカする絵本」の区別はつけられない.こうした順序情報や,類型化した物語の構造の類似度の反映は今後の課題としたい.ぴたりえでは,次節以降で紹介する言語処理の結果を特徴量として用いることで,信頼度とユーザビリティが高い類似探索を実現している.\subsection{形態素解析}\label{sec:hiragana}まず,すべての後続処理で利用している言語処理技術として,形態素解析について述べる.形態素解析は多くの言語処理技術の基盤技術となるものであり,新聞などの\changedB{大人向けの整った}文章に対しては非常に高い解析精度が実現されている.また,\juman\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php}\cite{juman:7.0j},\chasen\footnote{http://chasen-legacy.sourceforge.jp/}\cite{chasen:2.4.4j},\mecab\footnote{http://mecab.googlecode.com/svn/trunk/mecab/doc/index.html}\cite{Mecab},\kytea\footnote{http://www.phontron.com/kytea/}\cite{Mori:Nakata:Graham:Kawahara:2011j}など,多くの形態素解析器と解析モデルが公開されている.しかし,絵本のテキストを対象とした場合,新聞などを対象とした場合と異なり,既存の解析モデルで必ずしも高い解析精度を得られるわけではない.絵本のテキストの特徴については,\citeA{Fujita:Taira:Kobayashi:Tanaka:2014j}の論文で詳しく分析されており,ひらがなの占める割合が非常に大きいことが,精度低下の大きな要因である.そこで\citeA{Fujita:Taira:Kobayashi:Tanaka:2014j}は,絵本の特徴に合わせて既存の辞書や学習データを変換することで,絵本テキストの解析に強い形態素解析モデルを構築する手法を提案している.ぴたりえでは,\citeA{Fujita:Taira:Kobayashi:Tanaka:2014j}の提案手法を適用した上で,順次絵本テキストへのアノテーションによる学習データの拡充,および,辞書の追加を行い,絵本のテキストに対する形態素解析精度を向上させている.ただし,\citeA{Fujita:Taira:Kobayashi:Tanaka:2014j}の実験では,品詞体系はIPA品詞体系とし,解析器には\kytea{}を利用していたが,現在はUniDic品詞体系\cite{Unidic}\footnote{http://pj.ninjal.ac.jp/corpus\_center/unidic/}の短単位に変更し,解析器には\mecab{}を利用している.UniDic品詞体系に変更した理由は,UniDicが普及し,UniDicに基づく言語資源が増えつつあるためである.また,UniDicでは,語彙素・語形・書字形・発音形という4階層からなる階層的見出しを採用しており,表記ゆれの吸収のために有効だと考えたためである(\ref{sec:yure}節).\begin{table}[b]\caption{アノテーション済み絵本データのサイズ}\label{tb:test-size}\input{02table02.txt}\end{table}表~\ref{tb:test-size}に,\citeA{Fujita:Taira:Kobayashi:Tanaka:2014j}の実験で,ランダムサンプリングによって選んだ評価データ(以下,Random)のサイズを掲載する\footnote{\citeA{Fujita:Taira:Kobayashi:Tanaka:2014j}の掲載値と形態素数が異なるのは,品詞体系が異なるためである.また,文字数が異なる(全部で19,850文字と記載していた)のは,一部のコメント行を誤って数えていたためであり,本稿掲載の文字数が正確である.}.表~\ref{tb:test-size}中の,FIRSTはファーストブック,EHONはその他の絵本を示している.また,表~\ref{tb:test-size}には正解アノテーション済で学習に利用している絵本テキストのデータサイズも掲載している.表~\ref{tb:morph-acc}に,表~\ref{tb:test-size}の評価データ(\random{})に対する本稿のモデルによる解析精度を示す.ここでは評価のため,学習データに\random{}を含めずにモデルを構築している.また,参考までに,UniDicの\mecab{}用配布モデル\footnote{unidic-mecab-2.1.2を利用.}による解析精度も掲載した.なお,品詞体系が異なるため一概には比較できないが,\citeA{Fujita:Taira:Kobayashi:Tanaka:2014j}は,\randomに対する精度は,単語区切り98.3\%,品詞大分類94.7\%,品詞完全一致91.1\%,と報告しており,精度はより向上している.このように,ひらがなの多い絵本に対しても,既に高い精度を達成しているが,形態素解析はすべての後続処理に影響する重要な処理であるため,今後のさらなる精度向上を目指してより詳細な分析を行う.具体的には,正解アノテーション済みのデータを分析することで,どのような語が絵本で出現し,未知語として辞書に追加されたかを分析する.\begin{table}[t]\caption{形態素解析精度}\label{tb:morph-acc}\input{02table03.txt}\end{table}\begin{table}[t]\caption{正解アノテーション済み絵本データ中の出現形態素の内訳}\label{tb:morph-appear}\input{02table04.txt}\end{table}まず,表~\ref{tb:morph-appear}に,正解アノテーション済みのデータにおける,UniDicの配布辞書と,本システム用に追加したエントリの出現傾向を示す.表~\ref{tb:morph-appear}から,出現形態素の異なりのうち,78\%がUniDicの配布辞書でカバーされていることが分かる.残りのエントリは,元のUniDicでは未知語となるエントリであり,\lxd{}等他の既存辞書からUniDic形式に変更して追加したエントリ(5.9\%)と,その他の追加エントリ(16.1\%)に分けて表示した.さらにその他の追加エントリの中でも,UniDicにあるエントリの表記ゆれと捉えられるエントリと,\lxd{}等のエントリの表記ゆれと捉えられるエントリ,いずれにも一致しないエントリとに分けて内訳を示した.ここで,表記ゆれとは,語彙素は一致するが,書字形出現形等が異なるエントリである.表~\ref{tb:morph-appear}から,追加されたエントリのうち,約$1/3$は,UniDicやLexeedなどの既存辞書に存在するエントリの表記ゆれだが,約$2/3$は,表記ゆれではない事が分かる.\citeA{Sasano:Kurohashi:Okumura:2014j}はWebデータを解析した時に出現する未知語をタイプ分類しており,大きく「既知形態素からの派生」と「既知形態素からの派生以外」に分けている.同様に,表~\ref{tb:morph-appear}の「その他の追加エントリ」のうち,UniDicや\lxd{}の表記ゆれは「既知形態素からの派生」であり,それ以外は「既知形態素からの派生以外」と捉えられる.これらのエントリの品詞大分類の内訳と例を表~\ref{tb:morph-add}に示す.表~\ref{tb:morph-add}の例からわかるように,既知形態素からの派生では,小書き文字(「ぁ」など)や長音記号(「〜」「ー」など)の挿入,置換による表記ゆれが多く見られる.\citeA{Sasano:Kurohashi:Okumura:2014j}はこうした表記ゆれとオノマトペが未知語の約4割を占めると報告している.本稿では絵本のテキストを対象としているが,未知語の出現傾向はWebデータの場合と同様であることがわかる.\begin{table}[b]\caption{形態素解析用辞書に追加したエントリの品詞内訳}\label{tb:morph-add}\input{02table05.txt}\end{table}一方,追加された形態素エントリの約$2/3$は,既知形態素からの派生以外である.この中で,異なり数の多い品詞は順に,感動詞,副詞,固有名詞,名詞である.それ以外の品詞は合わせても1\%に満たず,ほとんどが方言だった.こうした未知語への対応方法として,のべ出現回数の最も多い固有名詞については,項構造を考慮した発見方法\cite{Sasano:Kurohashi:2008j}が有力だろう.また,名詞には,恐竜名を含む動植物名が多く含まれており,専門用語辞書からエントリを追加しておくことで対応可能だと考えられる.感動詞や副詞は非常に生成的で,繰り返しを含むオノマトペ\cite{Sasano:Kurohashi:Okumura:2014j}以外は網羅的なエントリ追加は難しく,Webデータを対象に提案されている入力文の正規化\cite{Saito:etal:2015j,Sasano:Kurohashi:Okumura:2014j}が絵本でも有効だと考えられる.これらの辞書や技術は,今後導入を検討したい.\subsection{難易度推定方法}\label{sec:readability}本節では,読みやすさがぴったりな絵本を推薦するために用いられているテキストの難易度推定方法を紹介する.絵本には,出版社によって付与された対象年齢が記載されている場合もあるが,記載されていない場合も多い.絵本データベース中の絵本では,2,415冊のうち,対象年齢の記載がない絵本が1,255冊(51.9\%)を占めた.また,対象年齢の記載がある場合も,「3歳から小学校初級むき」「乳児から」「4才から」「しゃべりはじめた小さな子どもにぴったり」のように表現が多様で幅広い.そのため,出版社が付与している対象年齢だけでは,子どもに読みやすさがぴったりな絵本を選ぶことは難しい.一方で,難易度推定方法は,特に英語を対象とすると古くから研究されている\cite{DuBay:2004,Benjamin:2012}.しかしこれらのほとんどは,一般向けか\cite{Sato:2011j},外国人学習者向けか\cite{Petersen:Ostendorf:2O09,Lee:2011j},小学生以上向け\cite{Tanaka:Tezuka:Terada:2010,Shibasaki:Tamaoka:2010j}であり,幼児向けテキストを対象とする研究はほとんど行われていなかった.そこで,我々は幼児向けテキスト(絵本)を対象とした難易度推定方法を提案した\cite{Fujita:Ehon:2015j}.絵本の場合,学童以上を対象とする場合とは異なり,教科書のように明確な規準として利用できるコーパスがないという問題点があった.また,日本語での難易度推定では通常大きな手がかりとなる漢字がほとんど出現せず,かつ,非常に少ない文字数から推定しければならないという難しさがあった.そこで,\citeA{Fujita:Ehon:2015j}は,対象年齢が出版社によって0・1・2才児向け,3才児向け,4才児向け,5才児向けと,比較的細かく付与されている123冊を規準データとして利用し,対象年齢ごとの語の出現頻度を考慮して重み付けした言語モデルを構築し,各言語モデルとの近さや平均文節数などを特徴量として利用することで,87.8\%の精度で対象年齢を推定できることを示した.また,教科書を規準コーパスとする評価実験も行い,提案手法が絵本以外のコーパスに対しても高精度であることを示した\cite{Fujita:etal:2015j}.藤田らの提案手法\cite{Fujita:etal:2015j,Fujita:Ehon:2015j}ではランキング学習を行っており,すべての絵本を難しさによってランキングすることが可能である.また,閾値を設定することで,対象年齢に分けることも可能である.\citeA{Fujita:Ehon:2015j}は,提案手法の評価のため,出版社によって付与されていた対象年齢を正解として0・1・2才児を一つのクラスとしてまとめているが,0才から2才の間も子どもの発達は著しい.より詳細に分けるため,本システムでは,子どもがおぼえた言葉とその習得時期を調査したデータベース\cite{Kobayashi:Okumura:Minami:2016j}も利用し,0才,1才,2才を別クラスとして難易度推定モデルを再構築したものを利用している.つまり,全ての絵本に対して難易度によるランキングを行い,さらに,閾値を設定して,0才から6才以上までの各年齢(7クラス)に分けている.本難易度推定モデルの評価として,子どものいる評価者3名(うち2名は,保育士,幼稚園教諭の資格と勤務経験がある)によって評価実験を行った.まず,「読んであげるなら何才向きか」という観点で100冊の本を対象年齢ごと(0才,1才,,,6才以上の7クラス)に分けてもらい,さらにそれらを易しい順にランキングしてもらった.つまり,100冊を易しい順にランキングし,評価に利用した.まず,評価者3名によって選ばれた対象年齢のクラスを比較した.その結果,完全に一致した本は13冊のみであり,2名が一致した本は62冊,全員が異なるクラスに分けた本は25冊だった.一方,3人の分けたクラスの差は平均0.82だった.つまり,クラスへの分類は人によって揺れやすく,完全に一致するクラスに分けられた絵本は多くないが,前後のクラスなど近いクラスに分けられていることが分かる.ここで,評価者間のスピアマンの順位相関係数$\rho$とケンドールの順位相関係数$\tau$を調査した.評価者を$w_1$,$w_2$,$w_3$とすると,\changed{$\rho$は}$w_1$と$w_2$で0.93,$w_1$と$w_3$で0.88,$w_2$と$w_3$で0.90であり,$\tau$は,$w_1$と$w_2$で0.77,$w_1$と$w_3$で0.71,$w_2$と$w_3$で0.74だった.また,3人のランキング結果のケンドールの一致度係数は0.93だった.これらから,評価者間の順位相関は非常に高いことが分かる.つぎに,各評価者による結果と,本システムで利用している難易度推定結果($g$)の相関を調査した.その結果,$\rho$は,$g$と$w_1$で0.88,$g$と$w_2$で0.85,$g$と$w_3$で0.79,$\tau$は,$g$と$w_1$で0.70,$g$と$w_2$で0.66,$g$と$w_3$で0.60だった\footnote{\changed{本章のすべての相関係数と一致度係数は$p<0.001$で有意だった.}}.評価者間の相関係数よりは若干低いが,自動推定の結果と評価者間の相関係数も高いと言える.このように高い精度での難易度推定を実現しているため,ぴたりえでは,テーマや内容の似ている絵本の中から子どもの年齢に合った絵本を探したり,より易しい本を探したり,子どものお気に入りの本と難易度(読みやすさ)が近い本を選ぶこともできる.特に,言語発達は子どもによって個人差が大きく,評価者間でも対象年齢のクラスへの分け方は完全一致しにくいなど,年齢で分けた場合には,子どもによっては読みやすさが合わない場合も考えられるが,お気に入りの本と近い難易度の本を選ぶことにより,ちょうどいい読みやすさの本を選ぶことができるという利点がある.\subsection{表記ゆれ吸収}\label{sec:yure}本節では,ぴたりえで導入している表記ゆれへの対応方法について紹介する.日本語には様々な文字種が存在するため,同じ語でも,ひらがな,カタカナ,漢字,これらの混合など,様々な表記方法が存在する(例えば,おおかみ,オオカミ,狼など).しかし例えば,「オオカミ」で検索したとしても,ユーザーは,「おおかみ」「狼」「オオカミ」のいずれの表記で出てくる話であっても検索結果に含まれてほしいだろう.UniDicで定義している「語彙素」とは,出現形の変異や表記のゆれを考慮せず,同一とみなしうる語に対して同一の見出しを与えたものである\cite{Unidic}.そこで,Unidic辞書で定義されている語彙素の読みと見出しを利用して表記ゆれを吸収する.一方で,作者は意図をもってこれらの表記を使い分けていると考えられる.例えば,「狼」は絵本ではほとんど出現しないが,「おおかみ」は赤ちゃん向けの絵本でも出現している.こうした表記ゆれだけでなく,接尾辞等によっても変化がつけられる.例えば,「おおかみさん」なのか「おおかみどん」なのかによって,与えられる印象は異なるだろう.そこで表記ゆれを吸収しつつ,元の表記の重みを大きくする方法を考案,導入した.まず,接頭辞や接尾辞,名詞連続を含めた名詞句をひと塊として重み1を与える.その上で,その名詞句から得られる表記ゆれ候補やその組み合わせを,形態素解析結果から抽出する.これらが$m$個得られたとすると,各重みを$1/m$として,特徴量として利用する.例えば,「おおかみさん」の場合,「おおかみ(名詞)」と「さん(接尾辞)」から成る.ここで,語彙素の読みとして「オオカミ」「サン」,語彙素の見出しとして「狼」「さん」,書字形(あるいは出現形)として「おおかみ」「さん」が得られる.これらを用いて,まず,元々の表記を接尾辞ごと取り出し(「おおかみさん」),重み1を付与する.さらにそれ以外の表記ゆれとして,「オオカミサン」「狼さん」「狼」「オオカミ」「おおかみ」の5通りを抽出し,それぞれ,$1/5=0.2$を重みとして付与し,特徴量として利用する.これにより,「狼」や「オオカミ」などの表記ゆれを吸収しつつ,元の表記である「おおかみさん」に最も重みをおいた探索を実現している.なお,接頭辞と接尾辞を含め,最も表記にバリエーションのある名詞句は,「名詞,普通名詞,一般,*,カア,母」を含むもので,28通り出現している\footnote{おかあさん(442),かあさん(67),かあちゃん(20),おかあさーん(15),お母さん(12),おかあちゃん(10),母(9),おかあさ〜ん(3),おかあ(3),母さん(3),かー(3),かか(2),お母さま(2),おかあちゃーん(2),お母ちゃん(2),お母さーん(1),かかさま(1),カアちゃん(1),かあさま(1),かあ(1),かあちゃーん(1),おかあさま(1),かーさん(1),かあたん(1),おかあちゃま(1),おっ母(1),母ちゃん(1),かあさーん(1).()内は頻度.ただし,接尾辞「達」を含むものは除いた.}.\subsection{テーマ分類と検索語の拡張}\label{sec:theme}ぴたりえでは,「はみがき」や「トイレ」などの「しつけ」や,「むし」や「きょうりゅう」などの「好きなもの」,「クリスマス」や「お誕生日」などの「イベント」など,よくある検索テーマをあらかじめ設定しておくことで,目的に応じた検索を行いやすくしている.事前に設定されたテーマ以外に,ユーザー自身でテーマを登録することも可能である.図~\ref{fig:theme-readability}に,テーマ「むし」で検索し,難易度が「易しい順」に並び替えた結果を示す.\begin{figure}[t]\begin{center}\includegraphics{24-1ia2f3.eps}\end{center}\caption{テーマ「むし」で検索し,「易しい順」にソートした結果(\changedB{図中の絵本の書誌情報は付録を参照})}\label{fig:theme-readability}\end{figure}一般に,こうしたテーマへの本の分類は人手で行われることが多いが,ぴたりえでは自動的に行っている.新規テーマを登録するときに必要なのは,テーマに関連するキーワードや文を入力することである.そうして入力されたキーワードや文を言語処理部分に渡し,類似探索を実行することで,テーマに関連する本を自動的に推定している.また,ここで,キーワード等を概念辞書によって拡張することもできる\cite{Hattori:Fujita:Aoyama:2015j}.例えば,「花」という語が出てきている絵本だけではなく,「ひまわり」や「あさがお」など,他の花もキーワードとして扱いたい場合に有効である.拡張には,日本語語彙大系\cite{GoiTaikeij}の意味クラスを利用しており,同じ意味クラスや近い意味クラスに含まれる語を検索語に含めることで拡張している.ただし,表記ゆれを吸収する場合(\ref{sec:yure}節)とは違い,意味クラスで検索語を拡張したいかどうかはケースバイケースである.例えば,「ハロウィン」のテーマのために「かぼちゃ」をキーワードとして入力した場合,他の野菜を検索語に含めてはいけないだろう.そのため,現在は,検索語を拡張するかどうかはユーザーが選択するようにしている. \section{システム評価} label{sec:eva}形態素解析(\ref{sec:hiragana}節)や,難易度推定(\ref{sec:readability}節)については,個々の技術の評価を各節で紹介してきた.本節では,アンケートによるシステムのユーザー評価の結果を示す.\subsection{評価手順}\label{sec:qa-order}評価者は小学2年生までの子どもを持つ成人である\footnote{評価は2016年7月に実施した.}.\pagebreak成人を評価者としたのは,ぴたりえによる絵本選びは0才から対象としているが,小さな子どもには入力インタフェースが利用できないからである.評価手順は次の通りである.\begin{enumerate}\itemぴたりえを利用し,絵本を選んでいただく(利用方法の説明はしない).\item選んだ絵本を借りていただく.\item借りた絵本を,一回以上読み聞かせるか,子ども自身に読んでいただく.\item配布したアンケートにお答えいただく.\end{enumerate}アンケートは2枚(A面,B面)あり,A面には絵本選び全般についての質問とぴたりえの全体的な評価を,B面には選んだ絵本と子どもの組み合わせごとの評価を記入する.そのため,A面は1人1枚だが,B面は子どもの人数や借りた絵本の数によって複数枚記入していただいた.\subsection{評価結果}\label{sec:qa-res}評価参加者は成人16名であり,子ども20名分の回答があった.子どもと絵本との組み合わせ数は52通りあった.つまり,アンケートのA面は16枚,B面は52枚の回答が得られた.なお,子どもの年齢は,11ヶ月から8才0ヶ月(小2)までの全年齢に分布していた.\subsubsection{絵本選び全般についての調査結果}\label{sec:qa-common}「Q1.普段お子様にどのように絵本を選んでいますか?」という質問(複数回答可)には,15人(93.8\%)が「書店や図書館などで絵本を手に取りながら」を選んでおり,次に多かった「インターネットの検索エンジンで」の6人(37.5\%)を大きく引き離した.大多数の方が,絵本を選ぶときには実際に手に取って選んでいることが分かる.\begin{table}[b]\caption{質問「Q3.絵本選びでどのようなことに困りましたか?」に対する回答}\label{tb:eva-Q3}\input{02table06.txt}\end{table}また,「Q2.絵本を選ぶ時に困ったことがありますか?」という質問に「ある」と答えた方は,16人中14人(87.5\%)を占めた.その理由を複数回答で答えてもらった結果(表~\ref{tb:eva-Q3}),絵本を選ぶとき,「子どもがちょうど読めるむずかしさの絵本」や「子どもの興味を引く内容の絵本」を選ぶのが難しい,あるいは,大変だと答えた方が過半数を占めた.この結果からも,内容と読みやすさが子どもにぴったりな絵本をみつけるシステムの需要は高いと考えられる.\subsubsection{ぴたりえの全体的な評価}\label{sec:qa-total}ぴたりえの全体評価として,普段の絵本の選び方と比較して,「簡単かどうか」「読みやすさ」や「内容」がぴったりの絵本を選ぶのに良いかどうかを評価してもらった(表~\ref{tb:evaAB},Q4).表~\ref{tb:evaAB}はいずれも5段階評価で,数値が高い方が評価が高い.いずれの項目も評価は高かったが,「簡単さ」(平均4.25)と「読みやすさ」(平均4.13)は特に評価が高かった.「内容」に関しても平均値は3.88であり,平均的な評価は高いが,他の項目にくらべて低めの点数をつけた方が多かった.中身やあらすじが見たいとの自由記述も多く,出現する語による類似探索だけではストーリーがわからないため,他項目よりも低い得点になったのだと考えられる.\begin{table}[b]\caption{アンケート評価の結果(5段階評価)}\label{tb:evaAB}\input{02table07.txt}\end{table}また,「Q5.今後もぴたりえを利用したいと思いますか?」という質問には,平均4.31という高い評価が得られた(表~\ref{tb:evaAB},Q5).「どちらとも言えない」を選んだ4名の内,2名は自由記述によって「図書館ではなく,本の購入時なら利用したい」「親が選ぶにはよいかもしれないが,やはり子供に現物を見せて時間をかけて選ばせるのがいいと思う」と記載しており,システムとして評価が低いというより,絵本選びに対する考え方から低くなったと考えられる.\subsubsection{子どもと絵本の組み合わせごとの評価}\label{sec:qa-each}本節では子どもと選んだ絵本の組み合わせごとの評価結果(アンケートB面)を紹介する.52枚,1人平均2.6冊分の回答が得られた.表~\ref{tb:evaAB}の下部に,5段階評価の結果を示す.まず,「Q7.どのような絵本を探したいか決まっていましたか?」という質問には,21枚(40.4\%)で「決まっていた」が選択されていた.決まっていた場合「Q8.どのような絵本を探したいと考えていましたか?」という質問には,「もうすぐ夏休みなので夏らしい本がいいと考えていました」「子どもが好きな,虫が出てくる絵本が良いと考えていました」「『ぞうさん』と言えるようになったので,ぞうの出てくる簡単な絵本を探しました」などの記述が見られた.表~\ref{tb:evaAB}のQ9は,このように探したい絵本が決まっていた場合に目的通りの絵本が探せたかどうかについての評価である.平均4.62と評価が高く,多くの方が目的通りの本を探せたことを示している.表~\ref{tb:evaAB}のQ10とQ11は「読みやすさ」,Q12とQ13は「内容」がぴったりだったと思うかどうかの質問であり,Q10とQ12は,親がぴったりの絵本を選べたと考えたかどうか,Q11とQ13は,子どもの反応を見た結果どうだったかについての評価である.いずれの項目も平均値が4.44〜4.54の間であり,評価が高かった.つまり,多くの場合,ぴたりえによって「読みやすさ」と「内容」がぴったりの絵本を選ぶことが出来たと考えられる.Q11,13の平均値は,Q10とQ12の平均値より,それぞれ0.8ずつ高いが,t検定で有意差はなかった.個々のアンケート結果でも,Q11,13よりQ10,Q12の方が評価が高い場合も,逆の場合もあった.Q10では1枚だけ評価値1がつけられていたが,自由記述のコメントで,「年齢の制限を2才から5才としたせいか,非常に文字数の多い小学校低から中学年向きと思える本が出ました」との記載があり,選ぶ時に年齢の制限をあまりかけなかったことが伺える.しかも,借りられていた絵本は本システムで6才以上向けと推定されている絵本だったため,実際には5才までという制限もかけられていなかったと考えられる.評価者は2才の子ども用の本を選ぼうとしているため,年齢制限をより細かく設定したり,今ちょうど読める本を規準にして,読みやすさが近い本を選ぶようにすれば,このような問題は起こらなかった可能性がある.本評価実験では,使い方の説明を全くせずに利用してもらったが,簡単な利用説明を用意するか,インターフェースの工夫により改善できると考えられる.また,\ref{sec:search}節で述べたように,ぴたりえでは様々な理由で似ている絵本を提示するため,書誌情報の一致だけでは見つけられない絵本との新しい出会いを提供できる.実際,「Q14.この絵本は,ぴたりえを利用しなければ手に取らなかった(出会わなかった)と思いますか?」という質問には,「そう思う」が26冊(50.0\%)あり,「そう思わない」の19冊(36.5\%)を引き離した.これにより,ぴたりえによって新しい本との出会いを提供できたことが示せた.自由記述でも,「自分では選ばない種類の絵本でしたが,子供は興味深々で見ていました」「キーワードと年齢を入力するだけで,ぴったりの絵本が見つかりました.店頭で探すと,つい大人目線で選びがちですが,子供の目線で探すことができました」「絵の簡単さや出てくるキャラクター(動物)の種類などがほぼ狙い通りの本が見つかったのがとても便利だった」など好意的な意見が多かった.\subsubsection{今後の課題}\label{sec:futurewk}アンケート(A面)では,ぴたりえに追加して欲しい機能についても調査した(表~\ref{tb:eva-Q6}).選択肢の中でもっとも多く選ばれた項目は,「絵の印象(可愛い,迫力がある等)で検索」であり,半数の方が選んでいる.現在,こうした機能を実現するための研究に取り組んでおり\cite{Fujita:etal:2016j},精度向上とぴたりえへの導入に努めたい.\begin{table}[b]\caption{質問「Q6.ぴたりえに追加して欲しい機能はありますか?」に対する回答}\label{tb:eva-Q6}\input{02table08.txt}\end{table}次に多く選ばれた項目は,「読み聞かせにかかる時間で検索」だった.これは,絵本中の文字数などから比較的容易に推定できると考えられるため,今後ぴたりえに導入したい.3番目に多かった「ストーリー展開(ハッピーエンドかどうか等)で検索」は,ストーリー展開をどのように定式化し推定するかという問題があるが,よりぴったりな内容の本を選ぶためにも重要だと考えられるため,今後取り組んでいきたいと考えている.また,「その他」には,「中身が見たい」「せめてあらすじが見たい」という記入が多かった.著作権の関係上,検索システムから中身をそのまま見せることはできないが,今後はあらすじ(要約)の表示も検討したい.最後に,\ref{sec:previous}章で紹介したように,多くの購買サイトではユーザーレビューなどのデータを収集,利用している.テキストの難易度によらず様々な年齢層の子どもに受け入れられる本も多いことから,実際に何才の子ども達に読まれているかといったデータやレビューは,ユーザーにとって非常に参考になると考えられる.こうしたユーザー由来のデータとぴたりえで実現している技術や機能は決して相反するものではなく,併用したり,目的に応じて使い分けることで,よりユーザビリティの高いシステムにできると考えられるため,今後の検討課題としたい. \section{まとめ} label{sec:conc}絵本を読むことは,子どもにとって,言語発達と情操教育の両面での効果が期待できる.しかし,難しさも内容も様々な絵本がある中で,子ども1人1人にとってぴったりな絵本を選ぶのは容易なことではない.そこで,我々は,子どもに「読みやすさ」と「内容」がぴったりの絵本を見つけるための絵本検索システム「ぴたりえ」を開発している.ぴたりえでは,まず,内容がぴったりな絵本を見つけるために,グラフ索引型類似探索(\ref{sec:search}節)を導入している.類似探索では,厳密に一致する本を検索するだけでなく,検索元の本や自由入力を検索キーとして,出てくる内容語や書誌情報等ができるだけ近い絵本を複数提示する.様々な要因で近いと考えられる本を提示することで,お気に入りの本や興味のある事から,無理なく次の一冊を手にとっていただけるのではないかと考えている.次に,読みやすさがぴったりな絵本を見つけるために,絵本テキストの難易度推定(\ref{sec:readability}節)を行っている.絵本を難易度順にランキングすることで,その子にちょうどいい読みやすさの本を見つけられると考えている.また,これら2つのぴったりを高精度に実現し,ユーザビリティを向上するために,絵本用のひらがなに強い形態素解析(\ref{sec:hiragana}節)や,表記ゆれの吸収処理(\ref{sec:yure}節),必要に応じて概念辞書による検索語の拡張(\ref{sec:theme}節)等を行っている.我々は,これらの各技術によって,これまでにない絵本の検索システムを実現した.ユーザーアンケート(\ref{sec:eva}章)でも,ぴたりえを利用して選んだ絵本の読みやすさや内容が子どもにぴったりだったと思うかという5段階評価で,平均4.44〜4.54と高い評価が得られた(表~\ref{tb:evaAB}).今後は,図書館における実証実験\footnote{福岡市立東図書館にて2016.6.4から実証実験を開始した.}での司書と利用者からのフィードバックの収集\cite{Gohara:Yamada:Pitarie:etal:2016j,Sasaki:Gohara:Pitarie:etal:2016j,Otake:Gohara:Pitarie:etal:2017j}や,保育現場での有効性の検証\cite{Fujimoto:Saito:Pitarie:etal:2017j},言語発達に対する効果の検証を進めると共に,各要素技術のさらなる精度向上と,要望の多い機能の実現\cite{Yasuo:Hattori:Fujita:Matsushita:2017j}に取り組みたい.\clearpage\bibliographystyle{jnlpbbl_1.5}\input{02bbl.tex}\appendix図中の絵本は以下の通りである.図~\ref{fig:ruiji}の1段目左から:\\\small\begin{itemize}\item「はらぺこあおむし」(エリック・カールさく/もりひさしやく,1976,偕成社)\item「たんじょうびのふしぎなてがみ」(エリック・カールさく・え/もりひさしやく,1978,偕成社)\item「ありのぎょうれつ」(さく得田之久,1975,童心社)\item「月ようびはなにたべる?」(エリック・カールさく/もりひさしやく,1994,偕成社)\item「パパ、お月さまとって!」(エリック・カールさく/もりひさしやく,1986,偕成社)\item「くまさんくまさんなにみてるの?」(エリック・カールえ/ビル・マーチンぶん,1984,偕成社)\item「ごきげんななめのてんとうむし改訂大型版」(エリック・カールさく/もりひさしやく,1998,偕成社)\end{itemize}\normalsize図~\ref{fig:ruiji}の2段目左から:\small\begin{itemize}\item「どこミニたべものどこ?」(山形明美,2007,講談社)\item「1ねん1くみ1ばんワル」(後藤竜二作長谷川知子絵,1984,ポプラ社)\item「むし」(監修須田孫七,2000,学研マーケティング)\item「おとしぶみ」(文:岡島秀治絵:吉谷昭憲,1987,福音館書店)\item「おさかなちゃんのばいば〜い」(ヒド・ファン・ヘネヒテン古藤ゆず,2014,学研教育出版)\item「だるまさんと」(かがくいひろし/さく,2009,ブロンズ新社)\item「どこミニどうぶつどこ?」(山形明美,2007,講談社)\end{itemize}\normalsize図~\ref{fig:theme-readability}の1段目左から:\begin{itemize}\small\item「てんてんてん」(わかやましずこさく,1996,福音館書店)\item「てんとうむしくん」(ジョー・ガーデン,2013,主婦の友社)\item「きいろいのはちょうちょ」(五味太郎作・絵,1983,偕成社)\item「2さいまるごとひゃっか」(作・絵のぶみ,2006,ひかりのくに)\item「かわいいてんとうむし」(メラニー・ガースローラ・ハリスカ・ベイスきたむらまさお,2001,大日本絵画)\item「のぞいてごらん」(accototoふくだとしお+あきこ,2009,イースト・プレス)\item「ねぇ、しってる?」(accototoふくだとしお+あきこ,2010,幻冬舎)\end{itemize}\normalsize図~\ref{fig:theme-readability}の2段目左から:\begin{itemize}\small\item「ごきげんななめのてんとうむし改訂大型版」(エリック・カールさく/もりひさしやく,1998,偕成社)\item「いもむしれっしゃ」(にしはらみのり,2007,PHP研究所)\item「どこミニどうぶつどこ?」(山形明美,2007,講談社)\item「はらぺこあおむし」(エリック・カールさく/もりひさしやく,1976,偕成社)\item「ありのぎょうれつ」(さく得田之久,1975,童心社)\item「とべないほたる1ほたるたちのたんじょう」(小沢昭巳原作/関重信画,2003,ハート出版)\item「ぼく」(えとぶん井上洋介,月刊予約絵本「こどものとも年中向き」通巻275号,2009,福音館書店)\end{itemize}\clearpage\begin{biography}\bioauthor{藤田早苗}{1999年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年,NTT日本電信電話(株)入社.現在,NTTコミュニケーション科学基礎研究所主任研究員.博士(工学).自然言語処理の研究に従事.2013年言語処理学会優秀論文賞受賞,言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{服部正嗣}{2004年京都大学大学院情報学研究科修士課程修了.現在,NTTコミュニケーション科学基礎研究所協創情報研究部研究員.複合的メディアを対象とした類似探索の研究に従事.情報処理学会,人工知能学会各会員.}\bioauthor{小林哲生}{2004年東京大学大学院総合文化研究科博士課程修了.博士(学術).現在,NTTコミュニケーション科学基礎研究所協創情報研究部主任研究員(特別研究員).幼児の言語習得メカニズムの研究に従事.言語処理学会第15回年次大会最優秀発表賞,第18回年次大会優秀賞受賞.日本心理学会,日本認知科学会,日本教育心理学会各会員.}\bioauthor{奥村優子}{2014年京都大学大学院文学研究科博士課程修了.博士(文学).現在,NTTコミュニケーション科学基礎研究所協創情報研究部リサーチアソシエイト.乳幼児の社会的認知および言語発達の研究に従事.日本心理学会,日本発達心理学会,日本赤ちゃん学会各会員.}\bioauthor{青山一生}{1988年東京工業大学大学院総合理工学研究科修士課程修了.現在,NTTコミュニケーション科学基礎研究所協創情報研究部主任研究員.アルゴリズムとデータ構造の研究に従事.応用物理学会,電子情報通信学会,情報処理学会,IEEE各会員.}\end{biography}\biodate\end{document}
V03N04-08
\section{まえがき} 現在,機械による文解析の処理単位としては,形態素が利用されることが多いが,これは,形態素を用いることにより辞書の語数を制限でき,計算機の記憶を経済的に利用できるという利点があるからである.bigramによる解析方式は,文解析や音声認識など様々な分野において高い評価を得ているものの\cite{jeli,naka},文字や形態素を単位としたbigramによる解析は,単位が小さすぎて,文の局所的な性質を解析しているのに過ぎないと考えられる.しかし,trigramや4-gram以上になると,しばしば計算機の記憶容量の限界を超えてしまい,実用的ではない.筆者らは,知覚実験により,人間による文解析には,形態素より長い単位が用いられていることを既に明らかにしている\cite{yoko,yoko0}.従って,人間の場合と同様の長い単位を解析に用いれば,機械においても高い処理効率が得られると期待される.本論文は,このような観点から,bigramの単位として認知単位を用いる方法を提案するものである.形態素より長い単位を解析に用いる方法は,他にもいくつか報告されている.例えば,音声認識の分野において,伊藤らは休止を単位とした解析を行う方法を提案している\cite{ito}.また,テキスト処理において,文法的な解析が難しい発話を処理するために,発話を部分的に構文解析する方法なども提案されている.しかし,これらの解析に用いられている長い単位は,解析の効率化のために便宜上導入されたもので,比較的専用の用途にのみ使用できるものである.人間における文解析処理が複数段階の処理からなると仮定すれば,認知単位はその複数段階の処理において主に単位として利用されていると考えられる.従って,機械における処理を同様に多段に分けて考えるとすれば,認知単位はこの多くの段階において単位として汎用的に利用できることが期待される.機械の処理が,形態素解析,構文解析,意味解析,談話解析からなるとすれば,認知単位を利用することにより構文解析の処理を効率化できることが既に筆者らにより実証されている\cite{yoko0}.本論文では,認知単位を利用することにより形態素解析に相当する処理の効率化を行なう方法を提案し,認知単位の有効性を実証する. \section{認知単位の知覚実験} 筆者らは知覚実験の結果から,人間による文解析には形態素より長い単位が用いられていることを既に明らかにしている\cite{yoko,yoko0}.図\ref{zu1}は文献\cite{yoko0}において,このことを確かめるために行った実験の結果である.\begin{figure}[tbh]\begin{flushleft}\small\makebox[30mm][r]{50ms:}この\\\makebox[30mm][r]{100ms:}この問題は\\\makebox[30mm][r]{150ms:}この問題は\\\makebox[30mm][r]{200ms:}この問題は解決\\\makebox[30mm][r]{250ms:}この問題は解決\\\makebox[30mm][r]{300ms:}この問題は解決\\\makebox[30mm][r]{350ms:}この問題は解決ずみ\\\makebox[30mm][r]{400ms:}この問題は解決ずみ\\\makebox[30mm][r]{450ms:}この問題は解決ずみと\\\makebox[30mm][r]{500ms:}この問題は解決ずみと\\\makebox[30mm][r]{550ms:}この問題は解決ずみ\\\makebox[30mm][r]{600ms:}この問題は解決ずみというつもりなのか\\\makebox[30mm][r]{650ms:}この問題は解決ずみというつもりなのか\\\makebox[30mm][r]{700ms:}この問題は解決ずみというつもりなのか\\\makebox[30mm][r]{750ms:}この問題は解決ずみというつもりなのかもしれないが私は\\\makebox[30mm][r]{800ms:}この問題は解決ずみというつもりなのか\\\makebox[30mm][r]{850ms:}この問題は解決ずみというつもりなのかもしれないが\\\makebox[30mm][r]{900ms:}この問題は解決ずみというつもりなのかもしれないが私は\\\makebox[30mm][r]{950ms:}この問題は解決ずみというつもりなのかもしれないが私はそう思わない.\\\makebox[30mm][r]{1000ms:}この問題は解決ずみというつもりなのかもしれないが私はそう思わない.\\\makebox[30mm][r]{stimulus}この問題は解決ずみというつもりなのかもしれないが私はそうは思わない.\\\end{flushleft}\caption{認知単位知覚実験の結果例}\label{zu1}\end{figure}この実験では,コンピュータのディスプレイ上に30字程度の漢字かな混じり文を短時間表示し,被験者に口頭で読んでもらう.文は24文用意してあり,被験者が文を覚えないようランダムな順番で表示される.提示時間は50msから1sまで50ms刻みで長くしてゆく.こうして,提示時間と,被験者が読むことのできた文字数との関係を調べる.図\ref{zu1}の実験では,「この問題は解決ずみというつもりなのかもしれないが私はそうは思わない.」という文を提示している.結果は図の様な階段状になり,人間が文字単位で文を処理しているのではないことは明らかである.また,読めた部分の最後に着目すると,それはすべて文節境界となりうる形態素で終っている.更に,「$\cdots$というつもり」や「$\cdots$かもしれないが」などのように,複数の文節にまたがる句が一度に検出されていると思われるケースもある.従って,人間は文節よりも長い句を検出していると推察される.特に,「$\cdots$は」,「$\cdots$している」,「$\cdots$とい\\うつもり」,「$\cdots$かもしれないが」のように,それだけでは意味をなさず,先行する句の後について補助的な意味を表すような句は,先行する句とともに一度に検出されている.この結果から,人間の場合,まず長い句を一度に検出する処理を行い,この処理の後,検出された長い句を単位として,更に高次の解析を行っているものと考えることができる.この実験の結果から,人間においては次のような句が一度に検出されることが見出された.\begin{enumerate}\item文節\item「$\cdots$かもしれない」などの慣用句\item「$\cdots$している」などの補助用言を含んだ句\end{enumerate}この単位を本論文では認知単位と呼ぶ.この実験では口頭により被験者に文を読んでもらっているため,発話された文は,脳内の処理を経て出力されたものである.従って,認知単位は,意味処理を含む脳内の多段の処理において主に単位として利用されているものと考えられる. \section{認知単位の検出方法} 前節における実験の結果から,人間における文解析過程は,認知単位を検出する処理と,認知単位を組み合わせて文を認識する処理の2段階に分離できるものとみなせる.このモデルに従い,機械においても文解析の処理を,認知単位を検出する処理と,検出した認知単位の取捨選択の処理の2段階に分ければ,解析の効率を高めることができると期待される.前者の処理において,通常の形態素の辞書を用いて文から認知単位を検出するには,どのような形態素の並びが認知単位になるかという局所的な文法が必要である.認知単位の内部における形態素の並びには,多重埋め込み的なものは少ない.従って,この局所的な文法は状態遷移図で記述するのがふさわしい.よって本研究では,認知単位を有限オートマトンで検出することにした.\vspace*{-4mm}\subsection{状態遷移図による認知単位の表現}本研究では,処理の対象として,NHKラジオの気象通報の始めに放送される天気概況文を用いた.この例を図\ref{zu2}に示す.これらの文に現れる認知単位を表層的な形式から128に分類し,人手で128の受理状態を持つ状態遷移図を作成した.得られた状態遷移図の一部を図\ref{zu3}に示す.図中$Z_i$は受理状態,$S_i$は中間状態である.\begin{figure}[b]\smallオホーツク海には,発達中の低気圧があって,北北東へ進んでいます.一方,中国東北部には高気圧があって,ほとんど停滞しています.西日本は晴れ,東日本はくもりで,北日本では所々で雨が降っています.尚,北海道周辺海域と三陸沖では所々濃い霧の為見通しが悪くなっています.日本近海は,北海道東方海上から関東海域北部にかけて,シケています.気温は,北海道,北陸,東海で,平年より1度高い他は,平年並か,1度から2度低くなっています.\caption{天気概況文の例}\label{zu2}\end{figure}\begin{figure}[b]\begin{center}\epsfile{file=8-3.eps,width=90mm}\end{center}\caption{認知単位を受理する状態遷移図}\label{zu3}\end{figure}名詞句はあらかじめ地名,海,方角,数字,高気圧・低気圧,台風,波,霧,天気などに分類してあり,この状態遷移図においては,品詞の並びが同じでも名詞句の分類が異なる名詞節は,異なる受理状態に遷移する.従って,「日本海では」,「日本海は」,「気温は」は,すべて別の受理状態に遷移する.これは述語句や,その他の修飾句に関しても同様で,品詞の並びだけではなく,意味的に気圧配置,気温,気圧,波,霧のどの状態を示すのに使われるかによっても分類される.従って,「悪くなっており」,「悪くなっています」,「高くなっています」はすべて別の受理状態に遷移する.天気概況文は気圧配置,天気,海上,霧,気温に関する文に大別できるが,それぞれ表現の形式が限定されているため,比較的厳格な文法によりその文法を記述できると考えられる.また,出現する形態素の数が限られており,同じ形態素が何度も反復して現れる.従って,小規模なコーパスから得られたデータでも,精度の高い解析が行える.\subsection{誤りを含んだ文からの認知単位の検出}前節で構成した有限オートマトンにより,文から認知単位を検出する手順は以下の通りになる.\newtheorem{tejun}{}\begin{enumerate}\item文全体を走査し,形態素を検出して形態素ラティスを得る.\item得られた形態素ラティスに対し,有限オートマトンによる走査を行い,認知単位を検出する.\end{enumerate}誤りを含んだ文に対し,文解析によって誤り訂正を行うタスクは,通信やOCRなど様々な分野にしばしば求められるタスクである.認知単位は,意味処理を含む脳内の多段の処理において主に単位として利用されているものと考えられるため,このような誤りを含むテキストから誤りを取り除く場合にも人間はいずれかの段階で認知単位を用いているものと思われる.従って,機械により誤り訂正を行う場合にも認知単位は有効であると期待される.誤りを含む文においては,形態素が近い綴りをもつ別の文字列に置き換わることがある.従って,誤りを含む文に対して誤り訂正を行なうためには,手順(1)において形態素を検出する際に,厳密に文の一部に一致する形態素だけでなく,ごく近い形態素についても,誤りによって文の一部に変化する可能性を推定しながら検出する必要がある.本研究では,このタスクに対応するため,手順(1)において図\ref{zu4}(a)のように距離1の形態素も検出することにした.尚,この検出にはDP照合法を用いた\cite{rabi}.\begin{figure}\vspace{3mm}\begin{center}\epsfile{file=8-4.eps,width=97mm}\end{center}\caption{認知単位の検出}\label{zu4}\end{figure}誤りには,挿入,欠落,置換の3種類がある.ここでは,誤りが図\ref{zu6}に示すように,次のモデルに従って発生するものと考える.\subsection*{[誤りのモデル]}\begin{quotation}情報源の1文字あたり,確率$P_n$で誤りが発生する.誤りが発生した場合,次のいずれかがそれぞれ条件つき確率$1/3$で起こる.\begin{description}\item{\gt挿入:}情報源の1文字の前または後ろに1文字が挿入され,2文字となる.\item{\gt欠落:}情報源の1文字が失われる.\item{\gt置換:}情報源の1文字が別の1文字に置き換わる.\end{description}\end{quotation}以降の実験では,このモデルに従い誤りを含んだ文字列を発生させており,挿入または置換の際必要となる文字としては,簡単のため平仮名46文字のいずれかをランダムに選んで使用している.今,$a$と$b$をそれぞれ文字列とし,$a$の長さは$l$文字,$a$と$b$の距離は$d$であるとする.上記の誤りによって$a$が$b$に変化する確率$P_e(a,b)$は,$l-d$文字に誤りが発生せず,$d$文字に誤りが発生したと考えることにより,次の式で近似できる.\begin{figure}\begin{center}\epsfile{file=8-5.eps,width=63mm}\end{center}\vspace*{-2mm}\caption{誤りのモデル}\label{zu6}\end{figure}\begin{equation}P_e(a,b)\approx(1-P_n)^{l-d}(\frac{P_n}{3})^d\end{equation}実際には$d+1$文字以上の誤りによって,$a$が$b$に変化する場合も考えられるが,本研究では$P_e$が十分小さいと考え,上式においてはこれらの場合は無視している.手順(2)においては図\ref{zu4}(b)のように,手順(1)により得た形態素ラティスに基づいて形態素を組み合わせることにより,認知単位を検出して認知単位ラティスを作り,上式を用いて変化確率を計算するものとした.\vspace*{-1mm} \section{bigramによる認知単位の取捨選択} \vspace*{-1mm}前節に示した手順により,文から認知単位を検出できる.検出した認知単位は,状態遷移図における受理状態により128に分類される,この認知単位に対して取捨選択を行い,文を組み立てるには,様々な方法が考えられる.筆者らは既に,自動的に獲得した文法に基づき,認知単位を利用して構文解析を行う方法を提案している\cite{yoko0}.本論文では,誤りを含んだテキストから誤りを取り除く実験を行うが,この実験において上記の構文解析を行うと,探索経路が莫大となって計算に時間がかかる.従ってこの実験には,より簡単な処理で効果的に誤り訂正を行える方法が適している.このような観点から,本論文ではbigramを用いて解析を行うことにした.bigramによる方法は,自然言語のようなマルコフ性を有する系列に対し効果的に取捨選択を行うことができ,特に音声認識などの分野では高い評価を得ている.本研究では簡単のため意味解析は行わないが,このように誤りを含むテキストを処理する場合,構文解析や意味解析など,より高度な解析が必要な場合にも,あらかじめ認知単位のbigramにより不的確な候補を効率的に削除しておくことにより処理が効率化するものと思われる.bigramの出現頻度表により記述できる性質は,系列の単純マルコフ的な性質に限られるが,状態遷移図は多重マルコフ的な性質をも表すことができる利点を持つ.しかし,認知単位の境界は分岐数が多いため,認知単位の多重マルコフ的な性質を調べるのは極めて難しい作業となる.従って,本研究では状態遷移図による解析は認知単位内にとどめる.今,認知単位の系列$A={a_1,a_2,a_3,\ldotsa_n}$の出現確率を$P(A)$とすれば,\hspace*{-1mm}bigramモデルでは,\\系列$A$の出現確率は次のように表すことができる.\vspace*{-1mm}\begin{eqnarray}P(A)&=&P(a_1|\mbox{Start})P(a_2|a_1)P(a_3|a_2)\ldots\nonumber\\&&P(a_n|a_{n-1})\end{eqnarray}ここで,\hspace*{1mm}$P(a_i|a_{i-1})$\hspace*{1mm}は認知単位\hspace*{1mm}$a_{i-1}$\hspace*{1mm}の次に\hspace*{1mm}$a_i$\hspace*{1mm}が生起する条件つき確率である.\hspace*{1mm}また,$P(a_1|\mbox{Start})$は文頭に$a_1$が生起する条件つき確率である.従って,$A={a_1,a_2,\ldotsa_n}$が誤りによ\\り変化して$B={b_1,b_2,\ldotsb_n}$として生起される確率は次のようになる.\begin{eqnarray}P_p(A,B)&=&P(a_1|\mbox{Start})P_e(a_1,b_1)\nonumber\\&&P(a_2|a_1)P_e(a_2,b_2)\nonumber\\&&P(a_3|a_2)P_e(a_3,b_3)\ldots\nonumber\\&&P(a_n|a_{n-1})P_e(a_n,b_n)\label{eqa1}\end{eqnarray}\begin{figure}\begin{center}\epsfile{file=8-6.eps,width=46mm}\end{center}\caption{認知単位のbigram}\label{zu7}\vspace*{3mm}\end{figure}ここでは,$a_i$として認知単位の状態遷移図における受理状態の記号$z_j(0\lej\le127)$を用いる.従って,$P(a_i|a_j)$,$P(a_i|\mbox{Start})$をあらかじめコーパスにより図\ref{zu7}の形のbigramにして求めておき,(\ref{eqa1})式の$P_p(A,B)$を最大とする系列$A$を幅優先探索法によって探索する.形態素を単位としたbigramを用いる方法では,文を局所的に解析することしかできず,また,より大域的な解析を行うためにtrigramや4-gramを用いることにすれば,必要とされる記憶容量が指数関数的に増大する他,巨大なコーパスを必要とするなど様々な問題が生じる.この代わりに,このように認知単位を単位としたbigramを用いることにより,記憶容量を抑えながら,大域的な解析を行うことができる. \section{評価} 以上の方式を用いて,誤りを含むテキストに対して誤り訂正を施す実験を行った.まず,解析の元となるbigramを作成するため,認知単位に分割されたコーパスが必要である.このコーパスは手入力した天気概況文1569文から作成した.今回用いた天気概況文の場合,出現する形態素が限られているため,図\ref{zu3}の状態遷移図で文を走査し,単純な最長一致法で区切ることにより各文を認知単位に分割することができた.その際,各文を処理する途上で通った状態遷移図の経路から,形態素の区切りも検出し,コーパスに形態素情報として付加した.得られたコーパスの異なり形態素数は196,のべ形態素数は26834,1形態素あたりの平均文字数は3.90,perplexityは3.2となった.こうして作成したコーパスから,更に認知単位のbigramを作成し,図\ref{zu6}のモデルにより誤りを混ぜた文300文に対し,誤り訂正を施して認知単位に区切る実験を行った.比較のため同じコーパスから,形態素情報を用いて形態素のbigramを作成し,同じ文に誤り訂正を施し形態素に区切る実験も行った.この計算にはSUNのSPARCStation20モデル612を使用した.実験の結果,正しく誤り訂正ができた割合(正解率)と300文の処理にかかった時間とを表\ref{hyo1}に示す.\begin{table}[h]\caption{誤り訂正実験結果}\label{hyo1}\begin{center}{\small(探索の各段階における経路数$=$300)}\\[3mm]\begin{tabular}{c|c|cc}\hline\hlinebigramの&誤り率&正解率&計算時間\\種類&$P_n[\%]$&[\%]&[s]\\\hline\hline形態素&0&100.0&1324\\&2&85.0&178\\&4&73.0&163\\&6&63.7&188\\&8&58.7&180\\&10&51.6&194\\\hline認知単位&0&100.0&7158\\&2&88.7&739\\&4&76.3&636\\&6&73.3&609\\&8&68.0&548\\&10&55.0&554\\\hline\hline\end{tabular}\end{center}\vspace*{-3mm}\end{table}このような探索方法では,長い文においてあらゆる誤りの組合せをすべて調べるには,巨大なメモリと極めて長い計算時間とを要する.これらを制限するため,探索の各時点で,(\ref{eqa1})式により探索経路を評価し,最も評価値の高い300経路だけを残す方式を採った.このような経路限定を行うと,誤りが無い場合に比べ,誤りがある場合では経路の数が増えて,解が300経路に残らない確率が高くなり,結果として処理は高速になる.誤りが全くない場合は形態素,認知単位のいずれのbigramを利用した方法でも,100\%正しく文を区切ることができた.また,その他の場合は正解率は後者が前者に比べて3\%〜10\%程高くなった.このことから前者では,解の経路の評価値が300位以下に落ちて,途中で失われる確率が,後者に比べて高いと考えられる.処理中に消費するメモリの量については,探索経路数が等しいため両方法ともほぼ同等である.しかし,認知単位を用いた解析の場合,解の経路を残す確率が高い分,計算の時間が長くなっている.この計算時間を評価するため,形態素のbigramを用い,探索経路数を1200として誤り訂正を行った.その結果を表\ref{hyo2}に示す.\begin{table}[bth]\caption{誤り訂正実験の結果}\label{hyo2}\begin{center}{\small(探索の各段階における経路数$=$1200)}\\[3mm]\begin{tabular}{c|c|cc}\hlinebigramの&誤り率&正解率&計算時間\\種類&$P_n[\%]$&[\%]&[s]\\\hline形態素&0&100.0&5875\\&2&89.0&3827\\&4&75.0&3755\\&6&70.7&3576\\&8&67.0&3540\\&10&60.6&3583\\\hline\end{tabular}\end{center}\end{table}この表の場合,認知単位のbigramを用いて探索経路を300とした場合とほぼ同等の正解率が得られているが,計算時間は誤り率0の場合を除いてほぼ7倍となっている.また,メモリ消費量は探索経路数に比例するため4倍である.これらの結果は,認知単位をあらかじめ検出しておいて解析に用いることにより,処理を効率化できることを示している. \section{むすび} 人間の文解析を認知単位の検出と取捨選択の2段階からなるとみなし,このモデルに基づいて,局所的な解析に有限オートマトンを用い,大域的な解析をbigramに基づいて行う方法を提案した.有限オートマトンの処理は,他の解析方法と比べて直線的であり高速である.認知単位内の形態素の並びのように,局所的な解析は直線的なモデルが適合する.bigramより更に高度な文解析法では,一層再帰的な処理を行うため,より長い計算時間を要することが多い.このような解析方法においても,認知単位のような局所的な範囲については直線的な解析法を用いることにより効率化できると考える.\vfill\acknowledgment本研究を進めるにあたり,貴重な助言をいただいた東京工科大学の亀田弘之氏に深く感謝する.また,データ入力やプログラミングを補助してくれた東京理科大学藤崎研究室の阿部賢司氏に感謝する.\vfill\bibliographystyle{jnlpbbl}\bibliography{nlp003}\begin{biography}\biotitle{略歴}\bioauthor{横田和章}{1989年東京理科大学基礎工学部電子応用工学科卒業.1993年同大学大学院修士課程了.1996年同大学大学院博士後期課程了.現在,(株)東芝青梅工場所属.}\bioauthor{藤崎博也}{1954年東京大学工学部電気工学科卒業.MIT・KTH(1958--1961).1962年東京大学大学院博士課程了.工学博士.同年東京大学工学部専任講師.1963年同助教授.1973年同教授.1991年東京大学名誉教授,東京理科大学基礎工学部教授.音声生成・知覚・情報処理,自然言語処理等の研究に従事.昭和38年度電気通信学会稲田賞,昭和42年度同学会論文賞,昭和42年度電気学会論文賞,昭和47年度電子通信学会業績賞,1987年IEEE音響・音声・信号処理学会功績賞,1988年米国音響学会特別功績賞,1989年東京都科学技術功労表彰受賞.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V13N03-02
\section{はじめに} 自然言語処理において高い性能を得ようとするとき,コーパスを使った教師あり学習(supervisedlearning)は,今や標準的な手法である.しかしながら,教師あり学習の弱点は一定量以上のタグ付きコーパスが必要なことである.仮によい教師あり学習の手法があったとしても,タグ付きコーパス無しでは高い性能は得られない.ここでの問題は,コーパスのタグ付けは労力がかかるものであり,非常に高くつくことである.この点を克服するためいくつかの手法が提案されている.最小限教師あり学習\footnote{``minimally-supervisedlearning''をさす.全ての事例に対してラベルを与えるのではなく,極めて少量の事例に対してのみラベルを与える手法.例えば\cite{Yarowsky1995,Yarowsky2000}などがある.}や能動学習(activelearning)(例えば\cite{Thompson1999,Sassano2002})である.これらに共通する考え方は,貴重なラベル付き事例を最大限に活かそうということである.同じ考え方に沿う別の手法として,ラベル付き事例から生成された{\em仮想事例}(virtualexamples)を使う手法がある.この手法は,自然言語処理においてはあまり議論されていない.能動学習の観点から,LewisとGale\shortcite{Lewis1994}が文書分類での仮想事例について少し触れたことがある.しかしながら,彼らはそれ以上仮想事例の利用については踏み込まなかった.このとき考えられた利用方法は,分類器(classifier)が自然言語で書かれた仮想的な文書例を作り,人間にラベル付けさせるものだったが,それは現実的ではないと考えられたからである.パターン認識の分野では,仮想事例はいくつかの種類について研究されている.SVMsとともに仮想事例を使う手法を最初に報告したのは,Sch\"{o}lkopfら\shortcite{Schoelkopf1996}である.彼らは,手書き文字認識タスクにおいて精度が向上したことを示した(第~\ref{sec:vsv}節でも述べる).このタスクでの次のような事前知識(priorknowledge)に基づいて,ラベル付き事例から仮想事例を作り出した.その事前知識とは,ある画像を少しだけ修正した画像(例えば,1ピクセル右にシフトさせた画像)であっても元の画像と同じラベルを持つということである.また,Niyogiらも事前知識を使って仮想事例を作り,それにより訓練事例の数を拡大する手法について議論している\cite{Niyogi1998}.我々の研究の大きな目的は,コーパスに基づく自然言語処理において,Sch\"{o}lkopfら\shortcite{Schoelkopf1996}がパターン認識で良好な結果を報告している仮想事例の手法の効果を調べることである.コーパスに基づく自然言語処理での仮想事例の利用については,バイオ文献中の固有表現認識を対象にした研究\cite{Yi2004}があるが,対象タスクも限られており,研究が十分に進んでいるとは言えない状況である.しかしながら,仮想事例を用いるアプローチを探求することは非常に重要である.なぜなら,ラベル付けのコストを削減することが期待できるからである.特に,我々はSVMs\cite{Vapnik1995}における仮想事例の利用に焦点をあてる.SVMは自然言語処理で最も成功している機械学習の手法の一つだからである.文書分類\cite{Joachims1998,Dumais1998},チャンキング\cite{Kudo2001},係り受け解析\cite{Kudo2002}などに適用されている.本研究では,文書分類タスクを自然言語処理における仮想事例の研究の最初の題材として選んだ.理由は大きく二つある.一つには,機械学習を用いた文書分類を実際に適用しようとすると,ラベル付けのコストの削減は重要な課題になるからである.もう一つには,ラベル付き事例から仮想事例を作り出す方法として,単純だが効果的なものが考えられるからである(第~\ref{sec:vx}節で詳細に述べる).本論文では,仮想事例がSVMを使う文書分類の精度をどのように向上させるか,特に少量の学習事例を使った場合にどうなるかを示す. \section{サポートベクタマシン} 本節では,サポートベクタマシン(SVMs)の理論的な枠組みを簡単に与える.訓練事例が以下のように与えられるとする:\begin{displaymath}(\bmath{x}_{1},y_{1}),\ldots,(\bmath{x}_{i},y_{i}),\ldots,(\mbox{\boldmath$x$}_{l},y_{l}),\mbox{\boldmath$x$}_{i}\in\mbox{\boldmath$R$}^{n},y_{i}\in\{+1,-1\}.\end{displaymath}SVMの枠組みにおける決定関数(decisionfunction)$g$は次のように定義される:\begin{eqnarray}g(\mbox{\boldmath$x$})&=&{\rmsgn}(f(\mbox{\boldmath$x$}))\\f(\mbox{\boldmath$x$})&=&\sum_{i=1}^{l}y_{i}\alpha_{i}K(\mbox{\boldmath$x$}_{i},\mbox{\boldmath$x$})+b\label{eq:fx}\end{eqnarray}ここで$K$はカーネル関数,$b\in\bmath{R}$は閾値,$\alpha_{i}$は重みである.さらに,重み$\alpha_{i}$は次の制約も満たす:\begin{displaymath}\foralli:0\leq\alpha_{i}\leqC\{\rmand}\\sum_{i=1}^{l}\alpha_{i}y_{i}=0,\end{displaymath}ここで$C$は誤分類のコストである.ゼロでない$\alpha_{i}$を持つ事例$\bmath{x}_{i}$はサポートベクタと呼ばれる.線形(linear)SVMでは,カーネル関数$K$は次のように定義される:\begin{displaymath}K(\mbox{\boldmath$x$}_{i},\mbox{\boldmath$x$})=\mbox{\boldmath$x$}_{i}\cdot\mbox{\boldmath$x$}.\end{displaymath}このとき,式~(\ref{eq:fx})は次のように書き直すことができる:\begin{eqnarray}f(\bmath{x})&=&\bmath{w}\cdot\bmath{x}+b\end{eqnarray}ここで$\bmath{w}=\sum_{i=1}^{l}y_{i}\alpha_{i}\bmath{x}_{i}$である.SVMの学習とは,次の最適化問題を解いて$\alpha_{i}$と$b$を求めることである.\begin{eqnarray*}\mbox{\rmmaximize}&\displaystyle{\sum_{i=1}^{l}\alpha_{i}-\frac{1}{2}\sum_{i,j=1}^{l}\alpha_{i}\alpha_{j}y_{i}y_{j}K(\mbox{\boldmath$x$}_{i},\mbox{\boldmath$x$}_{j})}\\\mbox{\rmsubjectto}&\displaystyle{\foralli:0\leq\alpha_{i}\leqC\{\rmand}\\sum_{i=1}^{l}\alpha_{i}y_{i}=0}\label{alphacond}.\end{eqnarray*}この解は,最適超平面(optimalhyperplane)を与える.この超平面は二つのクラスの決定境界(decisionboundary)である.図~\ref{fig:sv}に最適超平面とサポートベクタの例を示す.\begin{figure}\begin{center}\epsfile{file=sv-hp-2.eps,width=24em}\end{center}\caption{超平面(太線)とサポートベクタ}\label{fig:sv}\end{figure} \section{仮想事例と仮想サポートベクタ} label{sec:vsv}仮想事例は,ラベル付き事例から生成されるとする\footnote{ここではラベル付き事例からの生成のみ考える.ラベルが分からない事例からの生成は考えないとする.}.ターゲットとなるタスクの事前知識に基づいて,元になった事例のラベルと同じものを,仮想事例として生成された事例のラベルに設定する.例えば,手書き数字の認識では,上下左右の方向に1ピクセル移動させても事例に対するラベルは変化しないとの仮定を置いて,仮想事例を作ることができる\cite{Schoelkopf1996,DeCoste2002}.特にサポートベクタから作られた仮想事例は,{\em仮想サポートベクタ}({\emvirtualsupportvectors})と呼ばれる.妥当な仮定に基づいて生成された仮想サポートベクタは,よりよい最適超平面を与えると期待される.仮想事例がターゲットとなるタスクにおける事例の自然なバリエーションを表現していると仮定すると,決定境界はより正確になるはずである.図~\ref{fig:vsv}は仮想サポートベクタの例を示している.仮想サポートベクタが与えられた図~\ref{fig:vsv}の例では,最適超平面が図~\ref{fig:sv}と異なっていることに注意されたい.\begin{figure}\begin{center}\epsfile{file=vsv-hp-4.eps,width=24em}\end{center}\caption{超平面と仮想サポートベクタ.図~\ref{fig:sv}に,サポートベクタの仮想事例,\\つまり仮想サポートベクタが追加されている.}\label{fig:vsv}\end{figure} \section{文書分類のための仮想事例} label{sec:vx}本節では,文書分類のための仮想事例の作り方の提案手法を述べる.まず,文書分類の事前知識から仮定を設定し,次にその仮定に基づく提案手法を述べる.ここでは,文書分類について次の仮定を置く:\begin{assumption}\label{assum1}ある文書に付けられているカテゴリは,たとえ少量の単語を追加あるいは削除しても変化しない.\end{assumption}この仮定は十分妥当であろう.文書分類の典型的な適用場面では,大抵の文書は,カテゴリを暗示する数個以上のキーワードと,一定量のカテゴリによらない単語を含んでいる.少量の単語の追加削除の影響は多くの場合に限定的だと考えられる.仮定~\ref{assum1}に従って,文書分類のための仮想事例を生成する方法を二つ提案する.第一の方法は,少量の単語を文書から削除する方法である.仮想事例のラベルは,その仮想事例の元となった事例のラベルと同じであるとする.もう一つの方法は,少量の単語を文書に追加する方法である.仮想事例に追加される単語は,元となる文書と同じラベルを持つ文書群から選ぶ.仮定~\ref{assum1}に基づく仮想事例の作り方にはいろいろなものが考えられるが,本研究では非常に簡単なものをまず提案し,その効果を検証したい.提案手法を述べる前に,本研究で用いた文書の表現方法(textrepresentation)について述べる.一つの文書は一つの単語ベクタ(wordvector)で表現する.文書を単語に分割し,それらを小文字に統一,ストップワードを削除した.ストップワードのリストはfreeWAIS-sf\footnote{http:\slash\slashls6-www.informatik.uni-dortmund.de\slashir\slashprojects\slashfreeWAIS-sf\slash}のものを用いた.ステミングは行なっていない.各単語をバイナリ素性として表現している.単語の頻度は利用していない.このとき,文書集合全体には$m$個の異なり単語$w_{1},w_{2},\ldots,w_{m}$があるとすると,一つの文書は単語のベクタとして表現できる.以下では,文書に存在する単語をコンマで区切って並べ,$[\]$で囲って単語ベクタを記述することにする.例えば,ある文書$\bmath{x}$が四つの単語$w_{1},w_{3},w_{4},w_{6}$から構成されるとき,$\bmath{x}=[w_{1},w_{3},w_{4},w_{6}]$と書く.それでは,二つの提案手法\GenerateByDeletion\と\GenerateByAddition\を述べる.ある文書を表す単語ベクタ$\bmath{x}$と,$\bmath{x}$から生成された単語ベクタ$\bmath{x'}$があるとする.アルゴリズム\GenerateByDeletion\は次の通り:\begin{enumerate}\item$\bmath{x}$を$\bmath{x'}$にコピーする.\item$\bmath{x'}$のそれぞれの単語$w$について,もし${\rmrand}()\let$なら単語$w$を$\bmath{x'}$から削除する.ここで${\rmrand}()$は$0$から$1$の乱数を生成する関数,$t$はどの程度の素性を削除するかを決めるパラメータである.\end{enumerate}例を示す.表~\ref{tbl:sample}にあるような文書集合があるとする.\begin{table}\caption{文書集合の例}\label{tbl:sample}\begin{center}\begin{tabular}{c|lc}\hline\hlineDocumentID&単語ベクタ(\bmathsmall{x})&ラベル($y$)\\\hline1&$[w_{1},w_{2},w_{3},w_{4},w_{5}]$&$+1$\\2&$[w_{2},w_{4},w_{5},w_{6}]$&$+1$\\3&$[w_{2},w_{3},w_{5},w_{6},w_{7}]$&$+1$\\4&$[w_{1},w_{3},w_{8},w_{9},w_{10}]$&$-1$\\5&$[w_{1},w_{8},w_{10},w_{11}]$&$-1$\\\hline\end{tabular}\end{center}\end{table}Document~1からアルゴリズム\GenerateByDeletion\で生成される仮想事例としては$([w_{2},w_{3},w_{4},w_{5}],+1)$や$([w_{1},w_{3},w_{4}],+1)$,$([w_{1},w_{2},w_{4},w_{5}],+1)$などが考えられる.アルゴリズム\GenerateByAddition\は次の通り:\begin{enumerate}\item訓練事例の中から$\bmath{x}$と同じラベルを持つ文書を集める.\itemそれら文書を表す単語ベクタを全てつなげて,単語の配列$a$を作る.\item$\bmath{x}$を$\bmath{x'}$にコピーする.\item$\bmath{x}$のそれぞれの単語$w$について,もし${\rmrand}()\let$なら配列$a$からランダムに一つの単語を選び,それを$\bmath{x'}$に加える.\end{enumerate}例を示す.表~\ref{tbl:sample}のDocument~2からアルゴリズム\GenerateByAddition\を用いて仮想事例を作ろうとするとき,まず配列$a=(w_{1},w_{2},w_{3},w_{4},w_{5},w_{2},w_{4},w_{5},w_{6},w_{2},w_{3},w_{5},w_{6},w_{7})$を作る.このとき,アルゴリズム\GenerateByAddition\で作られる仮想事例として,$([w_{1},w_{2},w_{4},w_{5},w_{6}],+1)$や$([w_{2},w_{3},w_{4},w_{5},w_{6}],+1)$,$([w_{2},w_{4},w_{5},w_{6},w_{7}],+1)$などが考えられる.逆に,$([w_{2},w_{4},w_{5},w_{6},w_{10}],+1)$のような事例はDocument~2からは決して作られない.$+1$のラベルを持つ文書には,$w_{10}$は含まれていないからである. \section{評価実験と議論} label{sec:exp}\subsection{対象データ}我々はReuters-21578データセット\footnote{DavidD.Lewisのwebサイトから利用できる.URL:http:\slash\slashwww.daviddlewis.com\slashresources\slashtestcollections\slashreuters21578\slash}を提案手法の有効性の検証に使った.このデータセットには,訓練事例とテスト事例の分け方(split)にいくつかのバリエーションがある.今回我々は``ModApte''と呼ばれる分け方を用いた.文書分類の文献で最も広く使われているものである.``ModApte''では,訓練事例9,603,テスト事例3,299と分けられている.Reuters-21578には100以上のカテゴリが含まれているが,他の多くの文献と同様,我々も最も頻度が高い10カテゴリのみ利用した.表~\ref{tbl:numcat}に,その10カテゴリと,カテゴリごとの訓練事例数とテスト事例数を示す.\begin{table}\caption{カテゴリごとの訓練事例数とテスト事例数}\begin{center}\begin{tabular}{l|r|r}\hline\hlineカテゴリ名&訓練事例&テスト事例\\\hlineearn&2877&1087\\acq&1650&719\\money-fx&538&179\\grain&433&149\\crude&389&189\\trade&369&117\\interest&347&131\\ship&197&89\\wheat&212&71\\corn&181&56\\\hline\end{tabular}\end{center}\label{tbl:numcat}\end{table}\subsection{性能評価尺度}本研究では,F値(F-measure)\cite{vanRijsbergen1979,Lewis1994}を実験結果を評価する第一の尺度として用いる.F値は次のように定義される:\begin{eqnarray}{\rmF値}&=&\frac{(1+\beta^{2})pq}{\beta^{2}p+q}\label{eq:f-measure}\end{eqnarray}ここで$p$は適合率(precision),$q$は再現率(recall),$\beta$は適合率と再現率の相対的な重みを決めるをパラメータである.$p$と$q$は次のように定義される:\begin{eqnarray*}p&=&\frac{分類器の出力が+1でかつ正しい事例の数}{分類器の出力が+1であった事例の数}\\q&=&\frac{分類器の出力が+1でかつ正しい事例の数}{ラベルが+1である事例の数}\end{eqnarray*}式~(\ref{eq:f-measure})では通常$\beta=1$が用いられる.これは適合率と再現率に等しく重みを置くことを意味する.複数のカテゴリを持つデータセットに対して,分類器の性能を評価しようとするとき,F値を計算する方法としては二つある.マクロ平均(macro-averaging)とマイクロ平均(micro-averaging)である\cite{Yang1999b}.前者はまずそれぞれのカテゴリに対してF値を計算し,平均する方法である.後者は全てのカテゴリ全体に対して適合率と再現率をまず計算し,それを使ってF値を計算する方法である.\subsection{SVMの設定}実験には我々が作成したSVMのツールを用いた.線形SVMを用い,誤分類のコスト$C$は$0.016541$に設定した.この値は$1/{\rmavg}(\bmath{x}\cdot\bmath{x})$により決めた.ここで$\bmath{x}$は事例数9603の訓練事例に含まれる素性ベクタである.実験を単純にするため,$C$の値は全ての実験において固定した.表~\ref{tbl:numcat}で示した10のカテゴリそれぞれに対して2値分類を行なう分類器を構築した.\subsection{実験結果と考察}まず,\GenerateByDeletion\と\GenerateByAddition\をそれぞれ独立に用いて仮想事例を作って実験を行なった.なお,このときサポートベクタに対してのみ仮想事例を作った.全ての実験に対して,\GenerateByDeletion\と\GenerateByAddition\のいずれに対しても,パラメータ$t$は$0.05$\footnote{最初に,$t$として$0.01,0.05,0.10$の三つの値を試した.\GenerateByDeletion\を使って,事例数9,603の訓練事例から仮想事例を作った.テスト事例に対して,$t=0.05$の場合に最も高いマイクロ平均F値が得られた.同じ$t$の値を,\GenerateByAddition\の場合にも用いた.}とした.仮想事例を使ったSVMを学習して得るための手順は次の通り:\begin{enumerate}\item(仮想事例を使わずに)SVMを訓練する.\itemサポートベクタを抽出する.\itemそれらサポートベクタから仮想事例を生成する.\item元々の訓練事例と仮想事例とを合わせて使って新たなSVMを訓練する.\end{enumerate}\begin{table}\caption{異なる手法間のマイクロ平均F値の比較.``VSV''は仮想サポートベクタ,``GenByDel''は\\\GenerateByDeletion,``GenByAdd''は\GenerateByAddition\を意味する.}\label{tbl:pretest}\begin{center}\begin{tabular}{l|rrrrrrr}\hline\hline&\multicolumn{7}{c}{訓練事例中の事例数}\\\cline{2-8}手法&9603&4802&2401&1200&600&300&150\\\hlineA.オリジナルSVM&89.42&86.58&81.69&77.24&71.08&64.44&53.28\\B.SVM+1VSVperSV(GenByDel)&90.17&88.62&84.45&81.11&75.32&70.11&60.16\\C.SVM+1VSVperSV(GenByAdd)&90.00&88.51&84.48&81.14&75.33&69.59&60.04\\D.SVM+2VSVsperSV(Combined)&90.27&89.33&86.27&83.59&77.44&72.81&64.22\\E.SVM+4VSVsperSV(Combined)&90.45&89.69&87.12&84.97&79.16&73.25&65.05\\\hline\end{tabular}\end{center}\end{table}訓練事例のサイズを変えて,\GenerateByDeletion\と\GenerateByAddition\の二つの手法の性能を評価した.7つのサイズ(9603,4802,2401,1200,600,300,150)を用意した\footnote{事例数4802以下のセットを作る際,事例をランダムに選択したので,事例数が少ないセットにおいて頻度の小さいカテゴリでは,$+1$のラベルを持つ事例が非常に少ないかまったく無い場合がある.}\<.この二つの手法を用いた場合のマイクロ平均F値を表~\ref{tbl:pretest}に示す.表~\ref{tbl:pretest}の手法Bが\GenerateByDeletion{},手法Cが\GenerateByAddition{}である.この表から両手法ともオリジナルのSVM(手法A)よりも性能が良いことが分かる.訓練事例の事例数が少ないほうが,性能の向上が大きい.事例数9603の訓練事例の場合,\GenerateByDeletion\によるF値向上は0.75($=90.17-89.42$)であるが,一方,事例数150の訓練事例では,F値向上は6.88($=60.16-53.28$)となっている.これらの結果から,事例数が少ない訓練事例には,よりよい決定境界を与えるのに十分なだけの事例のバリエーションが存在しておらず,それゆえ,事例数が少ない訓練事例では,仮想事例の効果が大きくなったと考えられる.上記結果より,\GenerateByDeletion\と\GenerateByAddition\の両手法が本タスクに対してはよい仮想事例を生成しており,それが精度向上につながったと結論付けてよいだろう.仮想事例を作り出す簡単な二つの方法\GenerateByDeletion\と\GenerateByAddition\が効果的なことが分かったが,次にこれらを組み合わせた方法についても調べた.1つのサポートベクタにつき,2つの仮想事例を作ることにする.つまり,\GenerateByDeletion\で1事例を作り,\GenerateByAddition\でもう1事例を作る.この組み合わせた手法を手法Dとし,そのマイクロ平均F値を表~\ref{tbl:pretest}に示す.この手法によるF値向上は,\GenerateByDeletion{},\GenerateByAddition\それぞれを単独で用いた場合よりも大きい.さらに,1つの事例から\GenerateByDeletion\で2つ,\GenerateByAddition\で2つ事例を作り出す手法についても実験を行なった.つまり,1つのサポートベクタから4つの仮想事例を作る.この手法を手法Eとし,そのF値を表~\ref{tbl:pretest}に示す.1つのサポートベクタから4つの仮想事例を作り出す手法が最もよい結果を得た.\begin{figure}\begin{center}\epsfile{file=microf1-j02.eps,scale=0.95}\end{center}\caption{マイクロ平均F値と訓練事例中の事例数}\label{fig:micro-f1}\end{figure}\begin{figure}\begin{center}\epsfile{file=macrof1-j02.eps,scale=0.95}\end{center}\caption{マクロ平均F値と訓練事例中の事例数.事例数が少ないところでは,適合率が\\未定義となり,F値は計算することができなかった.}\label{fig:macro-f1}\end{figure}\begin{figure}\begin{center}\epsfile{file=error-j02.eps}\end{center}\caption{エラー率と訓練事例中の事例数}\label{fig:error}\end{figure}本節の以下の議論では,オリジナルのSVMと,1つのサポートベクタから生成された4つの仮想事例を使うSVM(以降\SVMFourVSVs\と記す)の実験結果の比較に焦点をあてる.オリジナルSVMと\SVMFourVSVs\の学習曲線を図~\ref{fig:micro-f1},図~\ref{fig:macro-f1}に示す.マイクロ平均F値,マクロ平均F値の両方で,\SVMFourVSVs\がオリジナルSVMより明らかに性能が良い.\SVMFourVSVs\は,あるレベルのF値を得るのに,オリジナルSVMに比べて概ね半分以下の訓練事例数で済んでいる.例えば,オリジナルSVMでは,マイクロ平均F値64.44を得るのに300事例必要である(表~\ref{tbl:pretest}参照).一方,\SVMFourVSVs\では150事例で65.05を得ている.F値の改善は,ただ再現率が大きく改善したせいで実現され,その裏でエラー率が上昇している可能性もある.これを確認するため,32990のテスト(3299のテストを10カテゴリそれぞれについて)に対してのエラー率の変化を図~\ref{fig:error}にプロットした.エラー率においても,\SVMFourVSVs\がオリジナルSVMよりも優れている\footnote{我々は有意水準0.05で``p-test''~\cite{Yang1999}と呼ばれる検定を行なった.事例数9603の訓練事例では,エラー率の改善は統計的に有意とは言えなかったが,それ以外の全ての場合においては統計的有意となった.}.\begin{table}\caption{10カテゴリそれぞれに対するオリジナルSVMによるF値.ハイフン`-'はF値が\\計算できなかったことを示す.分類器が常に$-1$を返し,適合率が未定義となったため.\\太字はオリジナルSVMが\SVMFourVSVs\(表~\ref{tbl:vsv-each}参照)より優れていることを示す.}\label{tbl:sv-each}\begin{center}\begin{tabular}{l|rrrrrrr}\hline\hline&\multicolumn{7}{c}{訓練事例中の事例数}\\\cline{2-8}カテゴリ名&9603&4802&2401&1200&600&300&150\\\hlineearn&98.06&97.49&97.40&96.39&95.94&94.85&93.73\\acq&91.94&89.87&84.43&84.01&78.17&63.10&12.03\\money-fx&64.90&61.69&56.03&51.69&17.91&01.11&05.38\\grain&86.96&81.68&75.20&59.63&41.27&06.49&\undefv\\crude&84.59&81.52&67.11&33.33&01.05&\undefv&\undefv\\trade&74.89&64.58&54.86&40.26&12.80&01.69&\undefv\\interest&{\bf63.89}&60.29&50.27&35.15&08.57&05.88&\undefv\\ship&66.19&44.07&32.73&02.22&\undefv&\undefv&\undefv\\wheat&{\bf89.61}&80.60&38.30&08.11&\undefv&\undefv&\undefv\\corn&84.62&62.79&10.17&\undefv&\undefv&\undefv&\undefv\\\hlineマクロ平均&80.56&72.46&56.65&\undefv&\undefv&\undefv&\undefv\\マイクロ平均&89.42&86.58&81.69&77.24&71.08&64.44&53.28\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{10カテゴリそれぞれに対する\SVMFourVSVs\によるF値.太字は\SVMFourVSVs\が\\オリジナルSVMより優れていることを示す(表~\ref{tbl:sv-each}参照).}\label{tbl:vsv-each}\begin{center}\begin{tabular}{l|rrrrrrr}\hline\hline&\multicolumn{7}{c}{訓練事例中の事例数}\\\cline{2-8}カテゴリ名&9603&4802&2401&1200&600&300&150\\\hlineearn&{\bf98.07}&{\bf98.02}&{\bf97.56}&{\bf97.37}&{\bf97.14}&{\bf96.00}&{\bf95.46}\\acq&{\bf94.20}&{\bf93.06}&{\bf91.71}&{\bf88.81}&{\bf88.92}&{\bf78.70}&{\bf59.92}\\money-fx&{\bf70.83}&{\bf73.10}&{\bf62.86}&{\bf65.68}&{\bf47.91}&{\bf32.43}&{\bf33.76}\\grain&{\bf89.20}&{\bf84.72}&{\bf85.11}&{\bf80.44}&{\bf60.79}&{\bf44.10}&{\bf01.00}\\crude&{\bf84.93}&{\bf86.33}&{\bf76.92}&{\bf74.36}&{\bf15.53}&{\bf02.00}&\undefv\\trade&{\bf75.83}&{\bf73.21}&{\bf62.31}&{\bf43.53}&{\bf37.58}&{\bf18.32}&{\bf01.65}\\interest&62.73&{\bf63.16}&{\bf65.77}&{\bf63.35}&{\bf59.11}&{\bf37.50}&{\bf11.92}\\ship&{\bf73.68}&{\bf67.14}&{\bf50.79}&{\bf30.48}&{\bf06.45}&{\bf02.22}&\undefv\\wheat&87.42&{\bf82.61}&{\bf87.94}&{\bf68.91}&{\bf10.67}&\undefv&\undefv\\corn&{\bf87.50}&{\bf84.11}&{\bf46.75}&{\bf68.09}&{\bf03.45}&\undefv&\undefv\\\hlineマクロ平均&{\bf82.44}&{\bf80.55}&{\bf72.77}&{\bf68.10}&{\bf42.76}&\undefv&\undefv\\マイクロ平均&{\bf90.45}&{\bf89.69}&{\bf87.12}&{\bf84.97}&{\bf79.16}&{\bf73.25}&{\bf65.05}\\\hline\end{tabular}\end{center}\end{table}10カテゴリそれぞれに対する性能の変化を表~\ref{tbl:sv-each},表~\ref{tbl:vsv-each}に示す.\SVMFourVSVs\は殆どの場合でオリジナルSVMよりもよい.事例数9603での``interest''と``wheat''の場合のみ,\SVMFourVSVs\が下回っているが,理由は不明である\footnote{仮想事例の効果は事例数が多いほど減少するという一般的な傾向があるので,文書の性質によっては,一定数以上の事例の場合に効果が出ないことは十分考えられる.ただ,何がその限界を決めているのかは現時点では不明である.}.頻度が小さい``ship''や``wheat'',``corn''といったカテゴリに対して,オリジナルSVMの性能は良くない.分類器が決して$+1$を出力しなかった場合,つまり再現率ゼロの場合も多い.これは,ラベルとして$+1$を持つ事例が非常に少ないバランスの悪い訓練事例のために,オリジナルSVMがよい超平面を見つけられなかったことを示している\footnote{SVMでバランスの悪い訓練事例に対処する方法として,誤分類のコスト$C$を,$+1$のラベルを持つ事例,$-1$のラベルを持つ事例それぞれで別の値に設定する方法がある\cite{Morik1999}.}.これに対し,\SVMFourVSVs\はそういうバランスの悪い訓練事例のような難しい場合でもよりよい結果を得ている. \section{関連研究との比較} 自然言語処理においてSVMsを仮想事例とともに用いている研究として,Yiらの研究\cite{Yi2004}がある.ここで彼らの研究との違いをまとめておく.違いは大きく二つある.対象タスクと,仮想事例の元となる事例の選び方である.彼らは固有表現認識を対象とし,全ての事例から仮想事例を作っている.一方,我々の研究では,文書分類を対象とし,サポートベクタとなる事例からのみ仮想事例を作っている.サポートベクタ以外から仮想事例を作っても精度向上にはあまり影響せず\footnote{Sch\"{o}lkopfは,手書き数字の認識タスクにおいて,全ての事例から仮想事例を作った場合は精度が向上しなかったと報告している\cite[page112]{Schoelkopf1997}.SVMでは,サポートベクタ以外の事例は最適超平面の位置を決めるのに影響しないので,サポートベクタ以外から仮想事例を作っても精度向上にあまり寄与しないのは納得できることである.},また事例数増加による学習時間増加のデメリットがあるので,本研究ではサポートベクタのみから仮想事例を作っている.なお,対象タスクが異なるので,仮想事例の作り方が異なるのは言うまでもない.彼らは,ある文中に現れた固有表現を,同じクラスを持つ別の固有表現で置き換えて新しい文を作り,これを仮想事例としている. \section{おわりに} 我々は仮想事例がSVMsを使った文書分類においてどのように性能を改善するかについて調べた.文書分類において,ある文書のラベルは少量の単語を追加あるいは削除しても変化しないとの仮定を置いて,仮想事例を作り出す方法を提案した.実験結果によれば,我々の提案手法はSVMsを用いた文書分類の性能を向上させることが分かった.特に事例数の少ない場合に有効であった.提案手法が文書分類以外の自然言語処理タスクにすぐに適用可能というわけではないが,今回,今まで自然言語処理の分野で十分に議論されていなかった仮想事例の利用について実験的に評価したことは意味があると言える.将来的には,仮想事例を,ラベル付き事例とラベルなし事例を使う手法(\cite{Blum1998,Nigam1998,Joachims1999,Taira2001}など)と組み合わせることも興味深いだろう.この両者を組み合わせたアプローチは,少量のラベル付き事例しかない場合に対して,さらによい結果が得られる可能性がある.別の興味深い将来の研究の方向性は,他の自然言語処理のタスク(品詞タグ付けや構文解析など)に対しても仮想事例を作る方法を開発することであろう.自然言語処理のさまざまなタスクにおいても,事前知識をうまく使い,効果的な仮想事例を作る方法があると信じる.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Blum\BBA\Mitchell}{Blum\BBA\Mitchell}{1998}]{Blum1998}Blum,A.\BBACOMMA\\BBA\Mitchell,T.\BBOP1998\BBCP.\newblock\BBOQCombiningLabeledandUnlabeledDatawithCo-training\BBCQ\\newblockIn{\BemProceedingsoftheEleventhAnnualConferenceonComputationalLearningTheory},\mbox{\BPGS\92--100}.\bibitem[\protect\BCAY{DeCoste\BBA\Sch\"{o}lkopf}{DeCoste\BBA\Sch\"{o}lkopf}{2002}]{DeCoste2002}DeCoste,D.\BBACOMMA\\BBA\Sch\"{o}lkopf,B.\BBOP2002\BBCP.\newblock\BBOQTrainingInvariantSupportVectorMachines\BBCQ\\newblock{\BemMachineLearning},{\Bbf46},\mbox{\BPGS\161--190}.\bibitem[\protect\BCAY{Dumais,Platt,Heckerman,\BBA\Sahami}{Dumaiset~al.}{1998}]{Dumais1998}Dumais,S.,Platt,J.,Heckerman,D.,\BBA\Sahami,M.\BBOP1998\BBCP.\newblock\BBOQInductiveLearningAlgorithmsandRepresentationsforTextCategorization\BBCQ\\newblockIn{\BemProceedingsoftheSeventhInternationalConferenceonInformationandKnowledgeManagement},\mbox{\BPGS\148--155}.\bibitem[\protect\BCAY{Joachims}{Joachims}{1998}]{Joachims1998}Joachims,T.\BBOP1998\BBCP.\newblock\BBOQTextCategorizationwithSupportVectorMachines:LearningwithManyRelevantFeatures\BBCQ\\newblockIn{\BemProceedingsofthe10thEuropeanConferenceonMachineLearning},\mbox{\BPGS\137--142}.\bibitem[\protect\BCAY{Joachims}{Joachims}{1999}]{Joachims1999}Joachims,T.\BBOP1999\BBCP.\newblock\BBOQTransductiveInferenceforTextClassificationusingSupportVectorMachines\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalConferenceonMachineLearning},\mbox{\BPGS\200--209}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2001}]{Kudo2001}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2001\BBCP.\newblock\BBOQChunkingwithSupportVectorMachines\BBCQ\\newblockIn{\BemProceedingsoftheSecondMeetingoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\192--199}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{Kudo2002}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQJapaneseDependencyAnalysisusingCascadedChunking\BBCQ\\newblockIn{\BemProceedingsoftheSixthWorkshoponComputationalLanguageLearning},\mbox{\BPGS\63--69}.\bibitem[\protect\BCAY{Lewis\BBA\Gale}{Lewis\BBA\Gale}{1994}]{Lewis1994}Lewis,D.~D.\BBACOMMA\\BBA\Gale,W.~A.\BBOP1994\BBCP.\newblock\BBOQASequentialAlgorithmforTrainingTextClassifiers\BBCQ\\newblockIn{\BemProceedingsoftheSeventeenthAnnualInternationalACM-SIGIRConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\3--12}.\bibitem[\protect\BCAY{Morik,Brockhausen,\BBA\Joachims}{Moriket~al.}{1999}]{Morik1999}Morik,K.,Brockhausen,P.,\BBA\Joachims,T.\BBOP1999\BBCP.\newblock\BBOQCombiningStatisticalLearningwithaKnowledge-BasedApproach--ACaseStudyinIntensiveCareMonitoring--\BBCQ\\newblockIn{\BemProceedingsoftheSixteenthInternationalConferenceonMachineLearning},\mbox{\BPGS\268--277}.\bibitem[\protect\BCAY{Nigam,McCallum,Thrun,\BBA\Mitchell}{Nigamet~al.}{1998}]{Nigam1998}Nigam,K.,McCallum,A.,Thrun,S.,\BBA\Mitchell,T.\BBOP1998\BBCP.\newblock\BBOQLearningtoClassifyTextfromLabeledandUnlabeledDocuments\BBCQ\\newblockIn{\BemProceedingsoftheFifteenthNationalConferenceonArtificialIntelligence(AAAI-98)},\mbox{\BPGS\792--799}.\bibitem[\protect\BCAY{Niyogi,Girosi,\BBA\Poggio}{Niyogiet~al.}{1998}]{Niyogi1998}Niyogi,P.,Girosi,F.,\BBA\Poggio,T.\BBOP1998\BBCP.\newblock\BBOQIncorporatingPriorInformationinMachineLearningbyCreatingVirtualExamples\BBCQ\\newblockIn{\BemProceedingsoftheIEEE},\lowercase{\BVOL}~86,\mbox{\BPGS\2196--2209}.\bibitem[\protect\BCAY{Sassano}{Sassano}{2002}]{Sassano2002}Sassano,M.\BBOP2002\BBCP.\newblock\BBOQAnEmpiricalStudyofActiveLearningwithSupportVectorMachinesfor{Japanese}WordSegmentation\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\505--512}.\bibitem[\protect\BCAY{Sch\"{o}lkopf}{Sch\"{o}lkopf}{1997}]{Schoelkopf1997}Sch\"{o}lkopf,B.\BBOP1997\BBCP.\newblock{\BemSupportVectorLearning}.\newblockR.OldenbourgVerlag,M\"{u}nchen.\newblockhttp://www.kyb.tuebingen.mpg.de/\~{}bs.\bibitem[\protect\BCAY{Sch\"{o}lkopf,Burges,\BBA\Vapnik}{Sch\"{o}lkopfet~al.}{1996}]{Schoelkopf1996}Sch\"{o}lkopf,B.,Burges,C.,\BBA\Vapnik,V.\BBOP1996\BBCP.\newblock\BBOQIncorporatingInvariancesinSupportVectorLearningMachines\BBCQ\\newblockInvon~derMalsburg,C.,vonSeelen,W.,Vorbr\"{u}ggen,J.,\BBA\Sendhoff,B.\BEDS,{\BemArtificialNeuralNetworks--ICANN'96,SpringerLectureNotesinComputerScience,Vol.1112},\mbox{\BPGS\47--52}.\bibitem[\protect\BCAY{Taira\BBA\Haruno}{Taira\BBA\Haruno}{2001}]{Taira2001}Taira,H.\BBACOMMA\\BBA\Haruno,M.\BBOP2001\BBCP.\newblock\BBOQTextCategorizationUsingTransductiveBoosting\BBCQ\\newblockIn{\BemProceedingsoftheTwelfthEuropeanConferenceonMachineLearning},\mbox{\BPGS\454--465}.\bibitem[\protect\BCAY{Thompson,Califf,\BBA\Mooney}{Thompsonet~al.}{1999}]{Thompson1999}Thompson,C.~A.,Califf,M.~L.,\BBA\Mooney,R.~J.\BBOP1999\BBCP.\newblock\BBOQActiveLearningforNaturalLanguageParsingandInformationExtraction\BBCQ\\newblockIn{\BemProceedingsoftheSixteenthInternationalConferenceonMachineLearning},\mbox{\BPGS\406--414}.\bibitem[\protect\BCAY{vanRijsbergen}{vanRijsbergen}{1979}]{vanRijsbergen1979}vanRijsbergen,C.\BBOP1979\BBCP.\newblock{\BemInformationRetrieval\/}(2nd\BEd).\newblockButterworths.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1995}]{Vapnik1995}Vapnik,V.~N.\BBOP1995\BBCP.\newblock{\BemTheNatureofStatisticalLearningTheory}.\newblockSpringer-Verlag.\bibitem[\protect\BCAY{Yang}{Yang}{1999}]{Yang1999b}Yang,Y.\BBOP1999\BBCP.\newblock\BBOQAnEvaluationofStatisticalApproachestoTextCategorization\BBCQ\\newblock{\BemJournalofInformationRetrieval},{\Bbf1}(1/2),\mbox{\BPGS\67--88}.\bibitem[\protect\BCAY{Yang\BBA\Liu}{Yang\BBA\Liu}{1999}]{Yang1999}Yang,Y.\BBACOMMA\\BBA\Liu,X.\BBOP1999\BBCP.\newblock\BBOQARe-examinationofTextCategorizationMethods\BBCQ\\newblockIn{\BemProceedingsofSIGIR-99,2ndACMInternationalConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\42--49}.\bibitem[\protect\BCAY{Yarowsky}{Yarowsky}{1995}]{Yarowsky1995}Yarowsky,D.\BBOP1995\BBCP.\newblock\BBOQUnsupervisedWordSenseDisambiguationRivalingSupervisedMethods\BBCQ\\newblockIn{\BemProceedingsofthe33rdAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\189--196}.\bibitem[\protect\BCAY{Yarowsky\BBA\Wicentowski}{Yarowsky\BBA\Wicentowski}{2000}]{Yarowsky2000}Yarowsky,D.\BBACOMMA\\BBA\Wicentowski,R.\BBOP2000\BBCP.\newblock\BBOQMinimallySupervisedMorphologicalAnalysisbyMultimodalAlignment\BBCQ\\newblockIn{\BemProceedingsofthe38thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\207--216}.\bibitem[\protect\BCAY{Yi,Lee,\BBA\Park}{Yiet~al.}{2004}]{Yi2004}Yi,E.,Lee,G.~G.,\BBA\Park,S.-J.\BBOP2004\BBCP.\newblock\BBOQSVM-basedBiologicalNamedEntityRecognitionusingMinimumEdit-DistanceFeatureBoostedbyVirtualExamples\BBCQ\\newblockIn{\BemProceedingsoftheFirstInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\241--246}.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{颯々野学}{1991年京都大学工学部電気工学第二学科卒業.同年より富士通研究所研究員.1999年9月より1年間,米国ジョンズ・ホプキンス大学客員研究員.2006年3月よりヤフー株式会社勤務.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V13N04-02
\section{まえがき} 確率的言語モデルは,文字列を出力とする言語処理において幅広く用いられている.音声認識システム\cite{Self-Organized.Language.Modeling.for.Speech.Recognition}の多くが,解選択において,音響モデルとともに確率的言語モデルを参照する.文字誤り訂正\cite{Context-Based.Spelling.Correction.for.Japanese.OCR}や仮名漢字変換\cite{確率的モデルによる仮名漢字変換}においても,確率的言語モデルを用いる方法が提案されている.さらに,機械翻訳\cite{A.Statistical.Approach.to.Machine.Translation}や文書の整形\cite{講演の書き起こしに対する統計的手法を用いた文体の整形}などにも応用されている.多くの確率的言語モデルは単語や単語列の頻度に基づいており,これは正しく単語に分割された例文(単語分割済みコーパス)に対して計数される.この単語分割済みコーパスは,一般的と考えられる分野においては既に利用可能となっているが,新たに確率的言語モデルを用いる分野(医療現場やコールセンターでの音声認識など)の言語資源としては,単語に分割されていない例文(生コーパス)やその分野の単語リストのみが利用可能であることが多い.このような状況の下での一般的な対処は,単語リストを語彙に加えた自動単語分割システム\cite{A.Stochastic.Japanese.Morphological.Analyzer.Using.a.Forward-DP.Backward-A*.N-Best.Search.Algorithm}により生コーパスの各文を単語に分割し,可能な限り多くの文の分割結果を人手で修正し,自動解析の結果と合わせて単語分割済みコーパスとすることである.単語分割の修正量は,多ければ多いほど統計結果の信頼性が増し,確率的言語モデルの能力は高くなる.しかしながら,単語分割の修正作業にはコストや時間がかかるので,コーパスの一部分を修正の対象とし,残りの部分に関しては自動分割の結果をそのまま用いるということがしばしば行なわれる.文単位で修正する場合には,文法の専門家でさえも正確な単語分割が容易でない機能語列などの箇所が必然的に含まれることになるが,このようなの箇所での分割方針を作業者に徹底することは非常に困難であり,作業効率の著しい低下を招く.加えて,文単位で順に修正していくことが,限られた作業量を割り当てる最良の方法であるかということも疑問である\cite{Unsupervised.and.Active.Learning.in.Automatic.Speech.Recognition.For.Call.Classification}.本論文では,コーパスの修正を一文単位ではなく単語単位とし,修正箇所を単語リストなどで与えられる適応分野に特有の単語の周辺に集中することを提案する.これにより,上述のような困難を回避することが可能となり,さらに,適応分野に特有の単語の統計的な振る舞いを捕捉するという,適応分野のコーパスを利用する本来の目的にコーパス修正の作業を集中することが可能となる.このようにして得られるコーパスは一部分の単語境界情報のみが正確である文を含む.このようなコーパスから有限の語彙に対して確率的言語モデルを推定するために,本論文では,生コーパスから無限の語彙に対して確率的言語モデルを推定する方法\cite{Word.N-gram.Probability.Estimation.From.A.Japanese.Raw.Corpus}を語彙が有限の場合に応用する方法について述べる.実験では,生コーパスの単語境界の人手による修正の程度や方法を複数用意し,その結果得られるコーパスから推定される確率的言語モデルの予測力やそれに基づく仮名漢字変換の精度を計算した.実験の結果,単語リストの各単語に対して2箇所の出現のみを人手でマークする方法では,単語数の割合にして生コーパス全体の5.22\%の修正により,単語数の割合にして生コーパス全体の45.00\%の文を文単位で修正した場合と同程度の仮名漢字変換の精度を達成することができた.また,単語リストの各単語に対して全ての出現箇所を人手でチェックすることで,コーパス全体に対して自動分割の結果を人手で修正するのと同程度の予測力と変換精度を達成できた.この結果から,適応分野に特有の語彙の出現箇所に修正のコストを集中することにより,少ない作業量で効率良く確率的言語モデルを分野適応できるといえる. \section{確率的言語モデル} \label{section:LM}自然言語処理における確率的言語モデルの役割は,与えられた文字列がある言語の文である尤度を数値化することである.確率的言語モデルに基づく言語処理は,候補から解を選択する際にこの尤度を参照する.自動単語分割は解析系の一例であり,文字列が与えられると尤度が最大になる単語の列を計算する.認識系の代表例の音声認識では,音響信号列を入力として,尤度が最大となる文字列を算出する際に,音響モデルと併せて確率的言語モデルを参照する.\subsection{確率的言語モデル}最も一般的な言語モデルは,単語$w$を単位とする$n$-gramモデル$M_{w,n}$である.このモデルは,文を単語列$\Bdma{w}_{1}^{h}=\Conc{w}{h}$($h$は単語数)とみなし,これらを文頭から順に予測する\footnote{以下では,太字は列を表すとし,必要に応じて最初の要素の添字を右下に,最後の要素の添字を右上に書くこととする.}.\begin{displaymath}M_{w,n}(\Bdma{w}_{1}^{h})=\prod_{i=1}^{h+1}P(w_{i}|\Bdma{w}_{i-n+1}^{i-1})\end{displaymath}この式の中の$w_{i}\;(i\leq0)$は,文頭に対応する特別な記号であり,$w_{h+1}$は,文末に対応する特別な記号である.完全な語彙を定義することは不可能であるから,未知語を表わす特別な記号$\UW$を用意する.未知語の予測の際は,まず,単語$n$-gramモデルにより$\UW$を予測し,さらにその表記を文字$x$の列$\Bdma{x}_{1}^{h'}$($h'$は文字数)とみなし,文字を単位とする$n$-gramモデル$M_{x,n}$によって以下のように予測する.\begin{displaymath}M_{x,n}(\Bdma{x}_{1}^{h'})=\prod_{i=1}^{h'+1}P(x_{i}|\Bdma{x}_{i-n+1}^{i-1})\end{displaymath}この式の中の$x_{i}\;(i\leq0)$は,語頭に対応する特別な記号であり,$x_{h'+1}$は,語末に対応する特別な記号である.したがって,$w_{i}$が未知語の場合には以下のように予測される\footnote{正確には,履歴$\Bdma{w}_{i-n+1}^{i-1}$に含まれるすべての未知語は$\UW$に置き換えられ同一視される.}.\begin{displaymath}P(w_{i}|\Bdma{w}_{i-n+1}^{i-1})=M_{x,n}(w_{i})P(\UW|\Bdma{w}_{i-n+1}^{i-1})\end{displaymath}\subsection{応用}\label{subsection:word-segmenter}確率的言語モデルの応用は,自然言語認識と自然言語解析に大別できる.認識系の代表例は,音声認識である.確率的言語モデルを用いる音声認識では,以下の式のように,音響特徴量の列$\Bdma{s}$を入力とし,語彙${\calW}_{k}$のクリーネ閉包(空列を含む任意長の文字列の集合)のうち,確率最大となる要素(単語列)$\Bdma{w}$を出力する.\begin{displaymath}\hat{\Bdma{w}}=\argmax_{\Bdma{w}\in{\calW}_{k}^{*}}P(\Bdma{s}|\Bdma{w})P(\Bdma{w})\end{displaymath}この式における$P(\Bdma{w})$が確率的言語モデルである.確率的言語モデルの予測力と認識系の精度との関係は,解析的に導出できるような確固とした関係ではない.音声認識に対して実験的に得られた関係として,西村ら\cite{単語を認識単位とした日本語ディクテーションシステム}は相関係数0.6を報告している.解析系の代表例は,単語分割(と品詞付与)である.確率的言語モデルによる単語分割\cite{A.Stochastic.Japanese.Morphological.Analyzer.Using.a.Forward-DP.Backward-A*.N-Best.Search.Algorithm}は,以下の式が示すように,ある言語の文字列$\Bdma{x}$を入力とし,生成確率が最大となる単語列$\Bdma{w}$を出力する.\begin{displaymath}\hat{\Bdma{w}}=\argmax_{\Bdma{w}=\Bdma{x}}P(\Bdma{w})\end{displaymath}ここで$\Bdma{w}=\Bdma{x}$は,単語列$\Bdma{w}$を文字列とみなした場合,入力$\Bdma{x}$と等しいことを表す. \section{単語リストと生コーパスによる分野適応} \label{section:adaptation}この節では,適応対象の分野の単語リストと,それらが出現する生コーパスが利用可能である場合に,それらから確率的言語モデルを推定する方法を述べる.\subsection{確率的単語分割コーパスからの単語$n$-gram確率の推定}単語分割済みコーパスは,各文字間に単語境界が存在するか否かの情報が人手により付与されている.生コーパスはこの情報を持たないが,各文字間に単語境界が存在する確率を付与し,それによって生コーパスを確率的に単語に分割されたコーパス(確率的単語分割コーパス)とみなすことにより,無限の語彙に対する単語$n$-gram頻度や単語$n$-gram確率を計算する方法が提案されている\cite{Word.N-gram.Probability.Estimation.From.A.Japanese.Raw.Corpus}.以下では,この方法を説明する.生コーパス$C_{r}$(以下,長さ$n_{r}$の文字列$\Bdma{x}_1^{n_{r}}$として参照)を所与として,連続する2文字$x_{i},x_{i+1}$の間に単語境界が存在する確率$P_{i}$を付与したものを考える.最初の文字の前と最後の文字の後には単語境界が存在するとみなせるので,$i=0,\;i=n_{r}$の時は便宜的に$P_{i}=1$とする.\begin{list}{}{}\item[\textbf{単語0-gram頻度}]確率的単語分割コーパスにおける単語0-gram頻度$f_{r}(\cdot)$は,そのコーパス中の期待単語数であり,以下のように定義される.\begin{displaymath}f_{r}(\cdot)=1+\sum_{i=1}^{n_{r}-1}P_{i}\end{displaymath}\item[\textbf{単語1-gram頻度}]確率的に単語分割された生コーパスに出現する文字列$\Bdma{x}_{i+1}^{k}$が$l=k-i$文字からなる単語$w$である必要十分条件は以下の4つである.\begin{enumerate}\item文字列$\Bdma{x}_{i+1}^{k}$が単語$w$に等しい.\item文字$x_{i+1}$の直前に単語境界がある.\item単語境界が文字列中にない.\item文字$x_{k}$の直後に単語境界がある.\end{enumerate}したがって,単語$w$の生コーパス中の単語1-gram頻度$f_{r}$は,単語$w$の表記の全ての出現$O_{1}=\{(i,k)\,|\,\Bdma{x}_{i+1}^{k}=w\}$に対する期待頻度の和として以下のように定義される.\begin{displaymath}f_{r}(w)=\sum_{(i,k)\inO_{1}}P_{i}\left[\prod_{j=i+1}^{k-1}(1-P_{j})\right]P_{k}\end{displaymath}\item[\textbf{単語$n$-gram頻度}]単語1-gram頻度と同様に,$L$文字からなる単語列$\Bdma{w}_{1}^{n}=\Bdma{x'}_{1}^{L}$の生コーパス$\Bdma{x}_{1}^{n_{r}}$における頻度,すなわち単語$n$-gram頻度について考える.このような単語列に相当する文字列が生コーパスの$(i+1)$文字目から始まり$k=i+L$文字目で終る文字列と等しく($\Bdma{x}_{i+1}^{k}=\Bdma{x'}_{1}^{L}$),単語列に含まれる各単語$w_{m}$に相当する文字列が生コーパスの$b_{m}$文字目から始まり$e_{m}$文字目で終る文字列と等しい($\Bdma{x}_{b_{m}}^{e_{m}}=w_{m},\;1\leq\forallm\leqn$;$e_{m}+1=b_{m+1},\;1\leq\forallm\leqn-1$;$b_{1}=i+1$;$e_{n}=k$)状況を考える(\figref{figure:SSC}参照).単語1-gram頻度の計算の場合と同様に,単語列と生コーパスの部分文字列は,文字列として対応していることに加えて,各文字間における単語境界の有無も対応している場合にのみ単語列が出現していると考えられる.したがって,確率的に単語分割されたコーパスに出現する文字列$\Bdma{x}_{i+1}^{k}$が単語列$\Bdma{w}_{1}^{n}=\Bdma{x'}_{1}^{L}$である必要十分条件は以下の4つである.\begin{figure}[t]\begin{center}\includegraphics[scale=0.6]{SSC.eps}\end{center}\caption{確率的単語分割コーパスにおける単語$n$-gram頻度}\label{figure:SSC}\end{figure}\begin{enumerate}\item文字列$\Bdma{x}_{i+1}^{k}$が単語列$\Bdma{w}_{1}^{n}$に等しい.\item文字$x_{i+1}$の直前に単語境界がある.\item単語境界が各単語に対応する文字列中にない.\item単語境界が各単語に対応する文字列の後にある.\end{enumerate}したがって,生コーパスにおける単語$n$-gram頻度を以下のように定義することができる.\begin{displaymath}f_{r}(\Bdma{w}_{1}^{n})=\!\!\!\sum_{(i,e_{1}^{n})\inO_{n}}\!\!\!\!P_{i}\left[\prod_{m=1}^{n}\!\left\{\prod_{j=b_{m}}^{e_{m}-1}\!\!(1-P_{j})\right\}P_{e_{m}}\right]\end{displaymath}ここで\begin{eqnarray*}e_{1}^{n}&=&(e_{1},e_{2},\cdots,e_{n})\\O_{n}&=&\{(i,e_{1}^{n})|\Bdma{x}_{b_{m}}^{e_{m}}=w_{m},1\leqm\leqn\}\end{eqnarray*}とした.\item[\textbf{単語1-gram確率}]決定的に単語に分割されたコーパスからの単語1-gram確率の最尤推定の場合と同様に,確率的単語分割コーパスにおける単語1-gram確率を以下のように定義する.\begin{equation}\label{equation:1-gram}P_{r}(w)=\frac{f_{r}(w)}{f_{r}(\cdot)}\end{equation}\item[\textbf{単語$n$-gram確率}]決定的に単語に分割されたコーパスからの単語$n$-gram確率の最尤推定の場合と同様に,確率的単語分割コーパスにおける単語$n$-gram確率を以下のように定義する.\begin{equation}\label{equation:n-gram}P_r(w_{n}|\Bdma{w}_{1}^{n-1})=\frac{f_r(\Bdma{w}_{1}^{n})}{f_r(\Bdma{w}_{1}^{n-1})}\end{equation}\end{list}\subsection{有限の語彙に対する確率的単語分割コーパスからの単語$n$-gram確率の推定}確率的言語モデルを用いる音声認識においては,認識される語彙には発音が付与されている必要がある.また,確率的言語モデルを用いる仮名漢字変換においてもキー入力列が付与されている表記(単語)のみが変換結果として出現し得る.このように,現実的な応用では有限の語彙に対する確率的言語モデルを構築する必要がある.分野適応において単語リストが与えられている場合には,一般コーパスから得られる語彙と対象分野の単語リストを語彙として,対象分野の生コーパスから確率的言語モデルを構築する.この際に,未知語モデルを含めて確率的言語モデルの条件を満たすためには,未知語記号を含む単語$n$-gram確率を正しく定義する必要がある.単語分割済みコーパスにおいては,まず語彙${\calW}_{k}$に属さない単語をコーパスの全ての出現場所において未知語記号$\UW$に置き換え,その上で未知語記号を語彙に含まれる単語と同様に扱って頻度計算を行なう.決定的に単語に分割されていない確率的単語分割コーパスに対しては,この方法を採ることができない.また,語彙以外の任意の文字列に対する単語$n$-gram頻度を計数しその和を計算する方法も考えられる.語彙以外の任意の文字列は,実際には無限集合ではなく,コーパスの部分文字列のみを対象とすれば十分であるが,これは非常に大きな数となるので,この計算方法も現実的ではない.しかしながら,単語$n$-gram頻度の以下の性質を用いることにより,確率的単語分割コーパスに対しても未知語記号を含む単語$n$-gram頻度を容易に計算することができる.\begin{eqnarray}\label{equation:UT=sum}f_{r}(\Bdma{w}_{u}\UW\Bdma{w}_{v})&=&\!\!\!\!\!\!\!\sum_{w\in{\calX}^{+}-{\calW}_{k}}f_{r}(\Bdma{w}_{u}w\Bdma{w}_{v})\\\label{equation:decomp}\sum_{w\in{\calX}^{+}}\!\!\!f_{r}(\Bdma{w}_{u}w\Bdma{w}_{v})&=&\!\!\!\!\!\!\!\sum_{w\in{\calX}^{+}-{\calW}_{k}}\!\!\!\!f_{r}(\Bdma{w}_{u}w\Bdma{w}_{v})+\!\!\sum_{w\in{\calW}_{k}}\!\!\!f_{r}(\Bdma{w}_{u}w\Bdma{w}_{v})\end{eqnarray}ここで$\Bdma{w}_{u},\Bdma{w}_{v}\in({\calW}_k\cup\{\UW\})^{*}$は語彙と未知語記号からなる長さ0以上の任意の列であり,${\calX}^{+}$は文字集合${\calX}$の正閉包(1文字以上の任意長の文字列の集合)を表す.\equref{equation:UT=sum}の意味は,ある1箇所に未知語記号を含む単語$n$-gram頻度がその箇所を既知語以外のすべての文字列に置き換えた単語$n$-gram頻度の合計に等しいということである.また\equref{equation:decomp}は,単語$n$-gram頻度においてある箇所の単語を任意とした場合の合計が,その箇所が任意の既知語(${\calW}_{k}$)である場合の頻度の合計と任意の未知語(${\calX}^{+}-{\calW}_{k}$)である場合の頻度の合計の和に等しいことを意味する.\equref{equation:UT=sum}(\ref{equation:decomp})から,ある1箇所に未知語を含む単語$n$-gramの頻度に対して以下の式が成り立つことがわかる\footnotemark.\footnotetext{正確には複数の未知語記号を含む$n$-gramに対するの記述も必要であるが,式が繁雑になるため,ここでは1つの未知語記号のみを含む場合のみ記述した.}\begin{equation}\label{equation:UT}f_{r}(\Bdma{w}_{u}\UW\Bdma{w}_{v})=\!\!\!\sum_{w\in{\calX}^{+}}\!\!\!f_{r}(\Bdma{w}_{u}w\Bdma{w}_{v})-\!\!\!\sum_{w\in{\calW}_{k}}\!\!\!f_{r}(\Bdma{w}_{u}w\Bdma{w}_{v})\end{equation}\begin{list}{}{}\item[\textbf{未知語記号の単語1-gram頻度}]確率的単語分割コーパスにおける未知語記号の単語1-gram頻度$f_{r}(\UW)$は,コーパスに対して計数した単語1-gram頻度と単語0-gram頻度に対して成り立つ関係\begin{displaymath}f_{r}(\cdot)=\sum_{w\in{\calX}^{+}}f_{r}(w)\end{displaymath}と式(\ref{equation:UT})において$\Bdma{w}_{u}=\Bdma{w}_{v}=\varepsilon$($\varepsilon$は空列を表す)とすることで得られる等式\begin{displaymath}f_{r}(\UW)=\sum_{w\in{\calX}^{+}}\!\!\!f_{r}(w)-\!\!\sum_{w\in{\calW}_{k}}\!\!\!f_{r}(w)\end{displaymath}から以下のように,単語0-gram頻度と語彙に対する単語1-gram頻度の和から計算される.\begin{displaymath}f_{r}(\UW)=f_{r}(\cdot)-\sum_{w\in{\calW}_{k}}f_{r}(w)\end{displaymath}\item[\textbf{未知語記号を含む単語2-gram頻度}]任意の単語$w_{1}\in{\calW}_{k}$と未知語記号からなる列の確率的単語分割コーパスにおける頻度$f_{r}(w_{1}\UW)$はコーパスに対して計数した単語2-gram頻度と単語1-gram頻度に対して成り立つ関係\begin{displaymath}f_{r}(w_{1})=\sum_{w\in{\calX}^{+}}f_{r}(w_{1}w),\;\;\;\forallw_{1}\in{\calW}_k\cup\{\UW\}\end{displaymath}と式(\ref{equation:UT})において$\Bdma{w}_{u}=w_{1},\;\Bdma{w}_{v}=\varepsilon$とすることで得られる等式\begin{displaymath}f_{r}(w_{1}\UW)=\sum_{w\in{\calX}^{+}}\!\!\!f_{r}(w_{1}w)-\!\!\sum_{w\in{\calW}_{k}}\!\!\!f_{r}(w_{1}w)\end{displaymath}から以下のように単語1-gram頻度と既知語に対する単語2-gram頻度の和から計算される.\begin{displaymath}f_{r}(w_{1}\UW)=f_{r}(w_{1})-\sum_{w\in{\calW}_{k}}f_{r}(w_{1}w)\end{displaymath}同様に未知語記号と任意の単語$w_{2}\in{\calW}_{k}$からなる列の確率的単語分割コーパスにおける頻度$f_{r}(\UWw_{2})$は,以下のように計算される.\begin{displaymath}f_{r}(\UWw_{2})=f_{r}(w_{2})-\sum_{w\in{\calW}_{k}}f_{r}(ww_{2})\end{displaymath}さらに未知語記号の単語2-gram頻度$f_{r}(\UW\,\UW)$は\begin{displaymath}f_{r}(\cdot)=\sum_{w_{1}\in{\calX}^{+}}\sum_{w_{2}\in{\calX}^{+}}f_{r}(w_{1}w_{2})\end{displaymath}を用いることで以下のように計算される.\begin{eqnarray*}f_{r}(\UW\,\UW)&=&f_{r}(\cdot)-\!\!\sum_{w_{1}\in{\calW}_{k}}f_{r}(w_{1}\UW)-\!\!\sum_{w_{2}\in{\calW}_{k}}f_{r}(\UWw_{2})\\&&-\!\!\!\!\!\!\!\!\sum_{(w_{1}w_{2})\in{\calW}_{k}\times{\calW}_{k}}\!\!\!\!\!\!\!\!f_{r}(w_{1}w_{2})\end{eqnarray*}\item[\textbf{未知語記号を含む単語$n$-gram頻度($n\geq3$)}]未知語記号を含む一般の$n$-gram頻度も2-gram頻度の場合と同様に計算することが可能である.\item[\textbf{未知語記号を含む単語$n$-gram確率($n\geq1$)}]未知語記号を含まない場合の\equref{equation:1-gram}(\ref{equation:n-gram})と同様に,確率的単語$n$-gram頻度を確率的単語$(n-1)$-gram頻度で割ることで未知語記号を含む単語$n$-gram確率が得られる.\end{list}{}{}以上から,語彙を有限とし未知語記号を仮定する場合でも,確率的単語分割コーパスに対する単語$n$-gram確率を推定できることが示された. \section{生コーパスの利用方法} \label{section:raw-corpus}適応対象の分野のコーパスは,その分野の言語的な特徴を的確に捉えるために重要である.この利用方法としては,以下の3つが代表的である.\begin{itemize}\item未知語の取り出し\begin{quote}生コーパスに対して文字$n$-gramの統計などを取り,ある程度の頻度があり,かつ前後の文字の分布にばらつきがある文字列などを単語候補として抽出する\cite{nグラム統計によるコーパスからの未知語抽出}\cite{統計的手法による単語の切り出しについて}この結果得られた単語候補は,人手でチェックされる.さらに確率的言語モデルの応用に応じて読みの付与などを行なう.\end{quote}\item自動分割による単語分割結果\begin{quote}自動単語分割システム\cite{A.Stochastic.Japanese.Morphological.Analyzer.Using.a.Forward-DP.Backward-A*.N-Best.Search.Algorithm}により単語境界を推定し,これを単語分割済みコーパスとして利用する.単語分割システムは,人手により正しく単語に分割された一般的なコーパスから構築されるので,適応対象の分野の文に対する解析精度は必ずしも高くない.特に,適応分野に特有の単語や表現の周辺で分割を誤る傾向がある.しかしながら,適応対象の分野の単語分割済みコーパスは,多少の誤りが含まれていても,確率的言語モデルの構築に有用であることが知られている.\end{quote}\item人手による単語分割結果\begin{quote}理想的には,適応対象の分野のコーパスの全ての文が正しく(単語分割の指針に沿って)単語に分割されていることが望ましい.このときに確率的言語モデルの能力は最高になる.\end{quote}\end{itemize}確率的言語モデルの能力は,単語分割の修正量を増やせば増やすほど高くなる.現実には,単語分割の修正作業はコストや時間がかかるので,コーパスの一部分を修正の対象とし,残りの部分に関しては自動分割の結果をそのまま用いるということが行なわれる.しかし,この方法が有限の作業量を割り当てる最良の方法であるか疑問が残る.\begin{figure}[t]\begin{center}\begin{tabular}{cccc}\hline&女性エコノミスト、キャ&サリン&・カミリさんなどは「今\\&ローム・デーヴィッド・&サリン&ジャーは20世紀アメリカ\\○&に次ぐおぞましい地下鉄&サリン&事件、長い不況に追い打\\○&理が始まった中川被告は&サリン&生成を認めながら「目的\\&っているのを知りながら&サリン&流出を阻止する義務を怠\\\hline\end{tabular}\end{center}\caption{単語リストのKWICによる単語境界情報付与の例}\label{figure:KWIC}\end{figure}単語分割の修正作業は,コーパスに単語境界の情報を付与することである.単語境界の情報の最小単位は各文字の間に単語境界があるか否かである.しかし,一般的に行なわれる修正作業は文単位であり,文頭から順に各文字の間の単語境界情報が正しいかを確認し,必要に応じて修正する.これに対して,我々は修正作業の単位をより細かくとること,具体的には,単語リストなどで与えられる適応分野に特有の単語の周辺に集中することを提案する.具体的には,\figref{figure:KWIC}に示されるように,単語リストに含まれる語(例では「サリン」)の対象分野のコーパスでの出現位置をKWIC(KeyWordInContext)形式で提示し,注目している文字列が各文脈において単語として用いられているかのチェックをする.単語として用いられている箇所にマーク(図中では「○」)を付け,それ以外の箇所では何もしないという作業を行なう.各単語についてマークする箇所の数を制限するということも有効であろう.そうすれば,判断の難しい箇所で時間を浪費することを避けることもできる. \section{評価} \label{section:evaluation}適応分野の生コーパスの利用方法について比較検討するために,生コーパスに対する人手による単語境界情報の付与の程度や方法を複数用意し,その結果得られるコーパスから推定される確率的言語モデルの予測力やそれに基づく仮名漢字変換の精度を計算した.\subsection{実験条件}実験には,一般的な分野のコーパスとして会話辞典の例文と,適応対象として新聞記事を用いた(\tabref{table:corpus}参照).両分野のコーパスの各文は人手で単語に分割されているが,適応分野のコーパスは,主として生コーパスとして利用される.単語分割済みコーパスとしての利用は,比較対象としての理想的な状況を実現するためである.適応分野の単語リストは,適応分野のコーパスにのみ出現する21,855単語からなる.基本となる確率的言語モデルは以下の通りである.\begin{list}{}{}\item[$\bullet$Base]単語分割済みの一般分野のコーパスから単語2-gramモデルを構築した.既知語の数は5,112語である.適応分野の単語リストは,未知語モデルにおいて出現確率を嵩上げされ,未知語に対して出現しやすくなる外部辞書語\cite{日本語の情報量の上限の推定}として利用する.適応分野のコーパスは利用しない.\end{list}この確率的言語モデルの同一分野のテストコーパスに対するクロスエントロピーは4.509であり,テストセットパープレキシティーは64.28であった\footnotemark.\footnotetext{テストセットパープレキシティーは平均単語長に影響されるので,異なるテストコーパスに対する結果との比較には適さない.}実験に利用した自動単語分割システムは,この言語モデルに基づいており,入力文に対して最大確率となる単語列を返す(\subref{subsection:word-segmenter}参照).同一分野のテストコーパスに対する単語境界の推定精度は98.26\%であった\footnotemark.\footnotetext{対象分野のテストコーパス(\tabref{table:corpus}参照)に対する単語境界の推定精度は89.25\%であった.}後述する実験において,確率的単語分割コーパスの単語境界確率の推定方法としては,自動分割の結果を利用する方法を採用した.単語境界の推定結果の信頼度には,自動単語分割システムの精度$\alpha=98.26\%$を利用した.すなわち,自動単語分割システムにより単語境界であると判定された点では$P_{i}=\alpha$とし,単語境界でないと判定された点では$P_{i}=1-\alpha$とした.\begin{table}[t]\caption{コーパス}\begin{center}\begin{tabular}{c|c|r|r|r}\hline\hline用途&分野&\multicolumn{1}{c|}{文数}&\multicolumn{1}{c|}{単語数}&\multicolumn{1}{c}{文字数}\\\hline学習&会話&14,754&187,658&254,436\\学習&新聞&20,700&625,761&917,830\\テスト&会話&1,639&21,105&28,655\\テスト&新聞&2,300&68,566&100,091\\\hline\end{tabular}\end{center}\label{table:corpus}\end{table}\subsection{評価基準}確率的言語モデルの予測力の評価に用いた基準は,文字単位のクロスエントロピーと単語あたりのテストセットパープレキシティーである.まず,テストコーパス$C_{t}$に対して未知語の予測も含む文字単位のエントロピー$H$を以下の式で計算する\cite{An.Estimate.of.an.Upper.Bound.for.the.Entropy.of.English}.\begin{displaymath}H=-\frac{1}{|C_{t}|}\log_{2}\prod_{\Bdma{w}\inC_{t}}M_{w,n}(\Bdma{w})\end{displaymath}ここで,$|C_{t}|$はテストコーパス$C_{t}$の文字数を表す.次に,単語単位のテストセットパープレキシティを以下の式で計算する.\begin{displaymath}PP=2^{H\times\overline{|\Bdma{w}|}}\end{displaymath}ここで$\overline{|\Bdma{w}|}$は平均単語長(文字数)である.さらに確率的言語モデルの応用として仮名漢字変換\cite{確率的モデルによる仮名漢字変換}を採用し,文単位で一括変換した場合の第一候補の変換精度を計算した\footnotemark.\footnotetext{評価基準は文献\cite{確率的モデルによる仮名漢字変換}と同一である.}これは,音声認識において,音響モデルの誤りの影響を排した場合と考えることもできる.\subsection{適応分野の生コーパスの利用方法}適応分野の生コーパスの利用方法について比較検討するために,生コーパスの自動分割結果に対する単語境界情報の人手による修正の程度や方法として,以下の6つを準備した.\begin{list}{}{}\item[$\bullet$Auto]適応分野の生コーパスを自動的に単語分割し,その結果をそのまま用いる.これは,自動分割システムにより単語境界と判定された点では$P_{i}=1$とし,単語境界でないと判定された点では$P_{i}=0$とする確率的単語分割コーパスと等価である.\item[$\bullet$Raw]適応分野の生コーパスを確率的単語分割コーパスとして用いる.すなわち,自動単語分割システムにより単語境界であると判定された点では$P_{i}=\alpha$とし,単語境界でないと判定された点では$P_{i}=1-\alpha$とした.\item[$\bullet$Well-done]適応分野の生コーパスの全文を人手により正しく単語に分割し,これをAutoと同様に決定的に単語に分割されたコーパスとして利用する.\item[$\bullet$45\%-done]適応分野の生コーパスの最初から281,398単語目まで(45.00\%)を人手により正しく単語に分割し,その残りを自動的に単語分割した.これをAutoと同様に決定的に単語に分割されたコーパスとして利用する.\item[$\bullet$Medium]まずRawと同様に単語境界確率を設定する.さらに,単語リストに含まれる文字列が生コーパス中に単語として出現している全ての箇所において,その文字列内の単語境界確率を0とし,その文字列の直前と直後の単語境界確率を1とする.これは,生コーパスに対する単語リストに含まれる文字列のKWICを見て,その文字列が単語として出現している場合にマークをつける作業をした結果に相当する.マーク箇所は単語数でのべ138,483箇所(22.13\%)である.\item[$\bullet$Rare]まずRawと同様に単語境界確率を設定する.さらに,単語リストに含まれる文字列が生コーパス中に単語として出現している最初の2箇所において,その文字列内の単語境界確率を0とし,その前後の単語境界確率を1とする.これは,生コーパスに対する単語リストに含まれる文字列のKWICを見て,その文字列が単語として出現している場合にマークをつける作業を各文字列に対して2つのマークがつくまで行なった結果に相当する.マーク箇所は単語数でのべ32,643箇所(5.22\%)である.\end{list}以上のようにして得られる適応分野のコーパスから,Baseモデルの既知語と単語リストに含まれる単語を語彙として単語1-gram確率と単語2-gram確率を計算し,Baseモデルと補間して適応分野のための確率的言語モデルを構築した.\subsection{評価}\begin{table}[t]\caption{各モデルの予測精度と仮名漢字変換の精度}\begin{center}\begin{tabular}{@{\}c@{\}|@{\}c@{\}|@{\}c@{\}|@{\}c@{\}|@{\}c@{\}|@{\}c@{\}}\hline\hlineモデル&\lineB{生コーパス}{の利用方法}&$H$&$PP$&再現率&適合率\\\hlineBase&--&7.558&1938&62.74\%&72.34\%\\\hlineAuto&自動分割&6.618&755.7&80.52\%&85.24\%\\Raw&確率分割&6.276&536.5&84.70\%&87.85\%\\\hlineRare&部分修正&6.133&465.2&86.57\%&89.24\%\\Medium&部分修正&5.889&364.2&88.34\%&90.50\%\\45\%-done&部分修正&6.049&427.4&86.56\%&89.32\%\\Well-done&完全修正&5.858&353.1&88.90\%&90.90\%\\\hline\end{tabular}\end{center}\label{table:result}\end{table}各モデルの予測力と仮名漢字変換の精度を\tabref{table:result}に示す.Baseとコーパス修正のコストがないAutoとRawの結果から,適応分野のコーパスは可能な限り収集し,言語モデルの推定に利用するのがよいといえる.利用方法においては,AutoとRawの結果の比較から,誤りを含む自動分割結果を100\%信頼してそのまま用いるのではなく,単語境界か否かの判定結果を割り引いて,確率的単語分割コーパスとして用いるほうがよいといえる.コーパス修正のコストがないRawの予測力や変換精度は,自動分割の結果を人手で完全に修正した場合のWell-doneの予測力と変換精度に対してかなり低く,修正のコストを払うことで改善する余地があることが分かる.自動分割結果の修正は文単位で行なうのが一般的であるが,単語リストに含まれる単語が出現する箇所に限定して,文の一部分のみをチェックする場合の結果がRareとMediumである.単語リストの各単語に対して2箇所の出現のみを人手でマークするRareでは,単語数の割合にして5.22\%のみがマークの対象になるが,仮名漢字変換の精度はコーパスの最初から順に45.00\%の単語をチェックする45\%-doneの精度にほぼ等しい.単語リストの各単語に対して全ての出現箇所を人手でチェックするMediumと自動分割の結果を人手で完全に修正するWell-doneの予測力と変換精度は同程度である.この結果から,適応分野に特有の語彙の出現箇所に修正のコストを集中すれば,コーパス全体の約22.13\%の単語のみのチェックで,予測力においても,仮名漢字変換の精度においても,コーパス全体の分割結果を人手で修正したコーパスを利用する場合にかなり近い性能を達成することが可能であるといえる.文単位で分割結果を修正する方法と,特定の文字列のKWICを見てそれが各文脈で単語として用いられているかをマークするするのは,1単語あたりのチェックに要するコストが等しいとは限らない.しかしながら,Rareと45\%-doneのチェック対象の単語数には9倍の差がある.特定の単語のKWICにおける1箇所のマークが,注目単語の前後4単語の修正を含めた分割修正(合計9単語)に相当する時間を要するとは思えず,Rareと45\%-doneの総修正コストの順序関係は変わらないであろう.加えて,文全体に対して分割結果の修正を行なう場合には,主に活用語尾や助詞や助動詞からなる,文法の専門家でさえも正確な単語分割が容易でない箇所が含まれることになる.このような正確な単語分割が困難な機能語などの列の分割方針を作業者に徹底することは非常に困難である.単語リストに含まれる単語のみをチェック対象にすれば,このような困難を回避することが可能となり,さらに,適応分野に特有の単語の統計的な振る舞いを捕捉するという,適応分野のコーパスを利用する本来の目的のみにコーパス修正のコストを集中することが可能となる.以上のことから,適応分野に特有の語彙の出現箇所に修正のコストを集中し,この結果得られる部分的に修正されたコーパスを確率的単語分割コーパスとみなして確率的言語モデルを構築することにより,音声認識や仮名漢字変換などの適応対象の分野における精度をより低いコストでより短時間で向上させることが可能となる. \section{おわりに} 企業ソリューションとして音声認識などの音声言語処理技術が求められる場合,技術を適応する分野の単語リストと生コーパスのみが利用可能であることが多い.本論文では,このような状況を前提として,確率的言語モデルを分野適応する際に,コーパスの修正の程度や方法について比較検討を行なった.予測力や仮名漢字変換の精度を評価基準とする実験の結果,生コーパスの自動単語分割の結果の人手による修正を単語リストに含まれる単語が出現する箇所に限ることで,確率的言語モデルの適応分野における性能をより効率よく向上させることが可能となることが分かった.\begin{biography}\biotitle{略歴}\bioauthor{森信介}{1998年京都大学大学院博士後期課程修了.同年日本アイ・ビー・エム(株)入社.東京基礎研究所において計算言語学の研究に従事.工学博士.1997年情報処理学会山下記念研究賞受賞.情報処理学会会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\renewcommand{\Bbf}{}\bibitem[\protect\BCAY{Brown,Cocke,Pietra,Pietra,Jelineck,Lafferty,Mercer,\BBA\Roossin}{Brownet~al.}{1990}]{A.Statistical.Approach.to.Machine.Translation}Brown,P.~F.,Cocke,J.,Pietra,S.A.~D.,Pietra,V.J.~D.,Jelineck,F.,Lafferty,J.~D.,Mercer,R.~L.,\BBA\Roossin,P.~S.\BBOP1990\BBCP.\newblock\BBOQAStatisticalApproachtoMachineTranslation\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf16}(2),pp.~79--85.\bibitem[\protect\BCAY{Brown,Pietra,\BBA\Mercer}{Brownet~al.}{1992}]{An.Estimate.of.an.Upper.Bound.for.the.Entropy.of.English}Brown,P.~F.,Pietra,S.A.~D.,\BBA\Mercer,R.~L.\BBOP1992\BBCP.\newblock\BBOQAnEstimateofanUpperBoundfortheEntropyofEnglish\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf18}(1),pp.~31--40.\bibitem[\protect\BCAY{Hakkani-T{\"{u}}r,Tur,Rahim,\BBA\Riccardi}{Hakkani-T{\"{u}}ret~al.}{2004}]{Unsupervised.and.Active.Learning.in.Automatic.Speech.Recognition.For.Call.Classification}Hakkani-T{\"{u}}r,D.,Tur,G.,Rahim,M.,\BBA\Riccardi,G.\BBOP2004\BBCP.\newblock\BBOQUnsupervisedandActiveLearninginAutomaticSpeechRecognitionForCallClassification\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonAcoustics,Speech,andSignalProcessing}.\bibitem[\protect\BCAY{Jelinek}{Jelinek}{1985}]{Self-Organized.Language.Modeling.for.Speech.Recognition}Jelinek,F.\BBOP1985\BBCP.\newblock\BBOQSelf-OrganizedLanguageModelingforSpeechRecognition\BBCQ\\newblock\BTR,IBMT.J.WatsonResearchCenter.\bibitem[\protect\BCAY{Mori\BBA\Takuma}{Mori\BBA\Takuma}{2004}]{Word.N-gram.Probability.Estimation.From.A.Japanese.Raw.Corpus}Mori,S.\BBACOMMA\\BBA\Takuma,D.\BBOP2004\BBCP.\newblock\BBOQWordN-gramProbabilityEstimationFromAJapaneseRawCorpus\BBCQ\\newblockIn{\BemInternationalConferenceonSpeechandLanguageProcessing}.\bibitem[\protect\BCAY{Nagata}{Nagata}{1994}]{A.Stochastic.Japanese.Morphological.Analyzer.Using.a.Forward-DP.Backward-A*.N-Best.Search.Algorithm}Nagata,M.\BBOP1994\BBCP.\newblock\BBOQAStochasticJapaneseMorphologicalAnalyzerUsingaForward-DPBackward-A$^{*}$N-BestSearchAlgorithm\BBCQ\\newblockIn{\BemProceedingsofthe15thInternationalConferenceonComputationalLinguistics},\BPGS\201--207.\bibitem[\protect\BCAY{Nagata}{Nagata}{1996}]{Context-Based.Spelling.Correction.for.Japanese.OCR}Nagata,M.\BBOP1996\BBCP.\newblock\BBOQContext-BasedSpellingCorrectionforJapaneseOCR\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalConferenceonComputationalLinguistics}.\bibitem[\protect\BCAY{西村,伊東,山崎,荻野}{西村\Jetal}{1997}]{単語を認識単位とした日本語ディクテーションシステム}西村雅史,伊東伸泰,山崎一孝,荻野紫穂\BBOP1997\BBCP.\newblock\JBOQ単語を認識単位とした日本語ディクテーションシステム\JBCQ\\newblock\Jem{情報処理学会研究報告},SLP15\JVOL,\BPGS\27--34.\bibitem[\protect\BCAY{中渡瀬}{中渡瀬}{1995}]{統計的手法による単語の切り出しについて}中渡瀬秀一\BBOP1995\BBCP.\newblock\JBOQ統計的手法による単語の切り出しについて\JBCQ\\newblock\Jem{電子情報通信学会技術研究会報告},\BPGS\69--74.\bibitem[\protect\BCAY{森,土屋,山地,長尾}{森\Jetal}{1999}]{確率的モデルによる仮名漢字変換}森信介,土屋雅稔,山地治,長尾真\BBOP1999\BBCP.\newblock\JBOQ確率的モデルによる仮名漢字変換\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(7),pp.~2946--2953.\bibitem[\protect\BCAY{森,山地}{森\JBA山地}{1997}]{日本語の情報量の上限の推定}森信介,山地治\BBOP1997\BBCP.\newblock\JBOQ日本語の情報量の上限の推定\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf38}(11),pp.~2191--2199.\bibitem[\protect\BCAY{森,長尾}{森\JBA長尾}{1998}]{nグラム統計によるコーパスからの未知語抽出}森信介,長尾眞\BBOP1998\BBCP.\newblock\JBOQ$n$グラム統計によるコーパスからの未知語抽出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(7).\bibitem[\protect\BCAY{下岡,南條,河原}{下岡\Jetal}{2004}]{講演の書き起こしに対する統計的手法を用いた文体の整形}下岡和也,南條浩輝,河原達也\BBOP2004\BBCP.\newblock\JBOQ講演の書き起こしに対する統計的手法を用いた文体の整形\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(2),pp.~67--83.\end{thebibliography}\end{document}
V09N05-07
\section{はじめに} インターネットの普及により,電子化されたテキストの入手が容易になってきた.それらのテキストをより効率的かつ効果的に利用するために,多くの言語処理技術が研究,提案されてきている.それに伴い,言語処理の研究分野は注目を浴び,言語処理学会でも年々会員が増加し,事務作業が増加する傾向にある.このような増加傾向から考えると,今の言語処理学会の状況では,事務処理の負担が処理能力を越えてしまい,その結果,事務作業が滞ることが予想される.もし,事務作業が滞れば,学会の活気や人気に水をさすことになってしまう可能性があり,その結果,学会の将来に悪影響を与えると考えられる.そのため,事務処理の効率化は必須である.学会の差別化,効率化を図るため,電子化された投稿論文の査読者への割り当てを行なう際に言語処理技術を利用した報告が出てきている.例えば,投稿論文を最適な査読者に割り当てることを試みたもの\cite{Susan1992,Yarowsky1999}などである.ただし,これらの論文は適切な査読者を決定することを目的としているだけであり,事務処理の効率化については論じられていない.そのような中で,2000年言語処理学会第\6回年次大会プログラムを作成する機会を得た.大会プログラム作成において作業効率向上に寄与する言語処理技術を明確にすることを目的として,いくつかの言語処理技術を用いて第\5回大会の講演参加申込データに対して,大会プログラム自動作成実験を行い,それらの技術の有効性を比較した.そして,その実験結果を基に第\6回年次大会プログラム原案を作成した.大会プログラムを作成するには,講演参加申込を適当なセッションに分割し,セッション名を決める作業が必要である.それには,講演参加申込の内容(タイトルとアブストラクト)をすべて確認してから作成作業をするのが一般的であるが,講演数が増加している現在,講演申込内容をすべて確認し,大会プログラムを手動で作成するのは大変な作業である.この作業を省力化するために,アブストラクトは読まずに,タイトルだけを利用し,大会プログラムを作成することも可能であると考えられるが,タイトルだけを利用した場合,たとえ講演参加申込に記述されている講演分野を利用したとしても適切なセッションに割り当てられない場合が存在すると考えられる.また,タイトルだけでは,適切なセッション名を決めることも困難である.我々はそのような作業を支援し,効率化する方法を本稿で提案する.我々の手法を利用すれば,大会の発表傾向にあったセッション名を決定できるだけでなく,適切なセッションに講演申込を割り振ることも可能となる.そのため,事務作業の負担を軽減することが可能となるだけでなく,講演者の興味にあうセッションを作成できる.以下,\ref{yaya}章でその一連の実験について報告する.\ref{gogo}章で第\6回年次大会プログラム作成の詳細について説明する.そして,\ref{haha}章で大会後に行なったアンケート調査の結果を報告し,\ref{mumu}章で今後の大会プログラム作成の自動化および事務処理の効率化に向けた考察を行なう. \section{大会プログラム作成実験} \label{yaya}大会プログラムとは,大会参加講演の集合を,類似した内容の講演のグループ(セッション)に分類し,そのグループを時間と会場の条件に合わせて割り振った講演発表一覧である.大会プログラムを作成するには,以下のような手続きが必要である.\begin{itemize}\item[A]講演参加申込を収集しデータベース化する.\item[B]講演参加申込を類似性に基づいて分割する.\item[C]各類似講演グループにセッション名をつける.\item[D]講演グループの講演数や会場数や時間配分を調整する.\end{itemize}上記の手続きの作業順は決定していない.例えば,講演会場の情報が前もって判っていれば,会場数からセッション数(講演グループ数)あるいは,1セッションあたりの講演数が決定可能であるし,会場情報がない場合はセッション名を決定してから講演分類を行ない,後で講演数の調整を行なうことも可能である.作業順はどうであれ,大会プログラムを作成するには,講演参加申込を適当なグループに分類し,各グループに適切なセッション名を付けることが必要である.本稿では,上記作業の\B,Cに特に注目し,大会プログラムを作成する課題を講演参加申込(文書)の自動分類および自動ラベリング課題と捉え,既存の文書分類技術がどれほど利用できるかを明らかにするための実験を行なった.この課題においては,以下の\2つのアプローチのいずれかを取ることができる.\begin{itemize}\item[1]講演参加申込を分類し,分類された講演グループからセッション名を決める.\item[2]セッション名を決定し,セッション名に合うように講演参加申込を分類する.\end{itemize}どちらのアプローチにおいても,1セッションあたりの講演参加申込数がほぼ同数に分類され,分類されたグループの講演タイトルなどからセッション名を連想できることが必要である.なぜなら,適当な分類ができても,そこからセッション名を連想できなければ良いプログラムができたとは言えないし,講演タイトルからセッション名が連想できたとしても,各セッションの講演数がバラバラであれば大会運営からして良いプログラムを作成できたとは言い難いからである.我々はそれぞれのアプローチについて以下のような実験を行なった.本稿では,それらの実験の結果について述べる.\begin{itemize}\item[1]講演参加申込を分類後,セッション名を決める手続き;\begin{itemize}\itemクラスタリング手法を用いた分類\end{itemize}\item[2]セッション名決定後,講演参加申込を分類する手続き;\begin{itemize}\item学習アルゴリズムを用いた分類\itemキーワード抽出・類似検索法を用いた分類\end{itemize}\end{itemize}\subsection{クラスタリング手法を用いた分類}\label{class}まず,クラスタリング手法で,ある程度の講演参加申込のグルーピングができ,各グループに含まれる講演参加申込数がそれほど大きく違わず,なおかつ,そのグループに適当なセッション名をつけることができれば,そのグループに基づいて大会プログラム原案を簡単に作成できるのではないかと考えた.クラスタリング手法としては,トップダウンの手法\cite{Tanaka1997}とボトムアップの手法\cite{BakerAndMcCallum1998}を用いた.どちらも第\5回の講演参加申込データを利用し分類実験を行なった.この方法では,セッション名を前もって決めることをせずに分類し,それぞれ分類されたグループからセッション名を抽出してプログラムを作成する.トップダウンクラスタリングでは,論文集合を分割していくということを,論文集合の大きさが\1になるまで再帰的に繰り返す.このとき,分割の際に,出現頻度の分散が最大の単語に着目し,その単語の出現頻度がある一定以上のものと一定以下のものに集合を分割する\cite{Tanaka1997}.一方,ボトムアップクラスタリングにおいては,各クラスタ間の距離を比べて,最も近いもの同士をくっつけていくということをクラスタ数が1になるまで繰り返す.このときの距離として,ダイバージェンス(K-L情報量)を利用する\cite{BakerAndMcCallum1998}.2つのクラスタリング手法では,どちらも何らかの意味概念を持ったグループに分類されたが,各グループに含まれる申込数に大きなバラツキがあった.また,第\5回のプログラムのセッションと分類されたグループとを比較すると,図\ref{top}\footnote{この図は,トップダウン手法で得られた文書集合が\1になった結果の一部分を示している.数字は申込番号を示し,英文字は申込者が記入した講演分野である.また,[\]内は第\5回で割り当てられていたセッション名であり,この実験での正解として扱っているセッション名である.理想的な解であれば,文書集合が\1になった時の近隣のタイトルは第\5回大会の同名のセッションに分類されているはずである.ここでは結果として,別のセッションに分けられた講演タイトルが近隣に来ており,近隣をまとめてグループとした際にそのグループにセッション名としてのグループ名を与えることが困難であった.なお,この実験の際には,セッション中の順序については考慮していない.}で示すように,大きく異なっていた.さらに,グループの内容からセッション名を決定することも難しかった.そのため,これらのクラスタリング手法は採用しなかった.\begin{figure}\begin{center}\epsfile{file=topdown3b.epsf}\end{center}\caption[図]{\label{top}トップダウン手法の結果例}\end{figure}\subsection{学習アルゴリズムを用いた分類}\label{saidai}もし,第\6回大会が第\5回大会と同様な話題の講演傾向であれば,セッション名は変化していないと考えられる.そのような場合,学習アルゴリズムを用いて,第\5回大会のセッション名とそれへの講演参加申込の割りつけの傾向を学習し,その学習結果を利用することで大会プログラムを作成できる.ここでは,学習アルゴリズムとして最大エントロピー法を利用した.最大エントロピー法を用いた分類とは,各講演参加申込が各セッションに割り当てられる確率を最大エントロピー法により学習し,その確率が最大になるセッションに講演参加申込を割り振るというものである.この方法を用いた文書の自動分類の研究には文献\cite{Inui1998,Nigam1999}がある.本稿では,第\5回の大会プログラムと講演参加申込データより,セッション名と講演参加申込との関係を学習し,セッション名は第\5回で利用されたものを用いて,第\6回の講演参加申込データを確率が最大となるセッションに分類した.\begin{table*}\caption[表]{\label{meout}分類確率の高い結果}\begin{center}\scriptsize\begin{tabular}{|c|c|c|c|l|}\hlineセッション名&確率&登録番号&分野&\multicolumn{1}{|c|}{タイトル}\\\hline機械翻訳&0.989&90&d&語彙化されたツリーオートマトンに基づく会話文翻訳システム\\\hline機械翻訳&0.972&37&d&英日・日英機械翻訳の実力\\\hline機械翻訳&0.887&50&d&日英機械翻訳における名詞の訳語選択\\\hline検索&0.839&38&d&情報検索における絞り込み語提示による検索者支援の試み\\\hline検索&0.830&97&d&科学論文における要旨—本文間のハイパーリンク自動生成\\\hline検索&0.735&9&d&用例利用型翻訳のための類似用例検索手法\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}\caption[表]{\label{memondai}分類確率の低い結果}\vspace*{-3mm}\begin{center}\scriptsize\begin{tabular}{|c|c|l|c|}\hline登録番号&分野&\multicolumn{1}{|c|}{タイトル}&セッション名(確率)\\\hline25&b&辞書定義文を用いた複合語分割&分類・他(0.163)タグ付け(0.152)辞書(0.126)\\\hline18&c,d&GDAタグを利用した複数文書の要約&分類・他(0.237)言語モデ(0.179)抽出(0.156)\\\hline\end{tabular}\end{center}\end{table*}最大エントロピー法では確率を学習する際にデータを表現するための素性が必要である.学習に用いる素性としては,分類すべき講演参加申込のタイトルとアブストラクトをJUMAN\cite{KurohashiAndNagao}で形態素解析して形態素列に分解し,その形態素のうち名詞のみを取り出して用いた.また,タイトルに現れたキーワードは特に重要と考え,上記の素性とは別にタイトルから得られた形態素は別個の素性として用いた.さらに,申込書に記述された講演分野も素性の一つとして学習した.講演分野とは講演申込時に申込者が関係する分野として選択するものである.講演分野として選択肢はaからeまで存在し,aは音韻論,形態論,構文論など,bは計算辞書学,ターミノロジー,テキストデータベースなど,cは言語処理アルゴリズム,解析・生成システム,対話理解など,dはワードプロセッサ,機械翻訳,情報検索,対話システムなど,eはその他となっている\footnote{これら講演分野については,第\7回大会の講演参加申込までは特別セッション以外,選択肢に変更がなかったが,第\8回大会の申込から,より詳細な区分に変更されている.}.なお,実際に利用した素性の種類の数は1,818個であった.この方法により,第\5回のデータで学習し第\6回のデータを分類して得た結果の一部を表\ref{meout}と表\ref{memondai}に示す.表\ref{meout}に示すように,例えば「機械翻訳」や「検索」のセッションに割り振られる確率の高いものは,比較的良い結果となっている.しかしながら表\ref{memondai}に示すようにセッションに割り振られる確率が低いものについては,確率最大のものとそれに続く確率のものとの間に目立った差が存在せず,どのセッションに含まれるべきか判断に困るような結果であったり,分類自体全く見当外れであったりした.これは,アブストラクトのような文字制限があるところで,講演内容を幅広く記述したため曖昧になっている場合や新たな分野への研究である場合に低い確率になると考えられる.また,講演分野の記述の無い申込や複数の分野を指定されたものがあったが,これらの場合には申込の講演分野は学習素性として信頼性のない素性となる\footnote{この実験で用いた講演分野は,第\7回大会まで数年にわたって利用され変更されていない.そのため,実際の講演内容とあう講演分野が無かった可能性も高い.}.利用できる情報が少ない状態で,信頼性のない素性を利用することは結果に悪い影響を与える.利用できる情報が少ない場合は,利用できる情報の信頼性ができる限り高い必要がある.さらに,この手法では,申込の分類先を学習データと一致させる必要があり,分類先が固定化される問題がある.この問題は,最大エントロピー法に限ったものではなく,教師あり機械学習手法で分類を行なうときには必ず生じる問題である\footnote{この問題については,次のような改善方法があり得る.まず,いずれかのセッションに割り振られる確率の高い講演とどのセッションにも割り振られる確率の低い講演に分割する.割り振られる確率の高いものは,言語処理学会の定番的な研究の内容の講演であると考え,それらを学習で利用したセッションへ分類する.割り振られる確率の低い講演については,今回\ref{hoho}節で提案するような手法により,新たなセッションを生成し,それらに分類することで分類先が固定化されることなく,大会プログラムを作成することが可能である.ただし,定番的な研究内容と新たなものを分離するための具体的な閾値を決定する方法などを検討する必要がある.}.上記の理由により,この手法を採用しなかった.\subsection{キーワード抽出・類似検索法を用いた分類}\label{hoho}本節で述べる手法では,講演参加申込全体から出現頻度が高く,重要性が高いと思われるキーワードを抽出し,そのキーワードをセッション名とする.そして,それらセッション名と講演参加申込の類似度を計算し,類似度の高いセッション名に講演参加申込を分類することにより,大会プログラムを作成する.本節の実験では,第\5回の講演参加申込データより,セッション名の候補となるキーワードを抽出し,次に,それに対して類似している講演参加申込を検索し,その結果を分類結果とした.この手法を我々はキーワード抽出・類似検索法と呼ぶ\cite{Ozaku1998}.この実験結果が,クラスタリング法,学習アルゴリズムを用いた分類結果より良かったので,第\6回の大会プログラム原案はキーワード抽出・類似検索法を利用して作成している.\subsubsection{セッション名の抽出}\label{keyda}まず,セッション名となるキーワードを選択する際に,以下の方法を比較した.\begin{itemize}\item出現頻度のみを利用した方法\itemスコアリング手法\end{itemize}出現頻度のみを利用した方法は,各講演参加申込のタイトルとアブストラクトから平仮名,句読点,記号を除いて得られる漢字やカタカナなどの文字列をキーワードとして抽出\cite{Miyamoto1993}し,すべての講演参加申込から抽出したキーワードの出現頻度をカウントし,出現頻度の高いキーワードをセッション名の候補として選択する方法である.スコアリング手法は,上記と同様の方法で各講演参加申込から抽出したキーワードに出現頻度,出現位置,そのキーワードの後に手がかり語(は,が,を,について)がある場合に応じてスコアを加算\footnote{出現位置によるスコア加算は,キーワードがタイトルにある場合は\5ポイント,手がかり語のあるものには\3ポイントを経験的に加算している.}し,そのスコアを手がかりにセッション名の候補を抽出する手法である.ここでは,「構文解析」のような複合語が出現している場合は,「構文」と「解析」の出現頻度へ複合語の出現頻度分を加算し\footnote{複合語の出現頻度を加算する場合には,複合語(例:意味的構文解析)の出現頻度を短い単語(例:意味,構文,解析)のスコアへ加算する場合と,短い単語の頻度を複合語のスコアへ加算する場合とがある.タイトルにはより長い複合語が出現する傾向がある.短い単語の出現頻度のスコアを複合語へ加算してしまうと,タイトルへ出現した時の出現位置による加算もされているため,より長い複合語のスコアが高くなりすぎてしまう.そのため,ここでは複合語の出現頻度を短い単語のスコアへ加算した.},各講演参加申込からスコアの高いキーワード(上位\5位まで)を抽出する\footnote{スコア\=\出現頻度\+\位置スコア\+\複合語出現頻度\+\手がかり語スコア}.そして,抽出されたキーワードの出現した講演参加申込数を集計し,出現数の上位から適当な数を大会プログラムのセッション名候補とする.例えば,図\ref{aaa}の講演申込からは「新聞記事」「構文」「情報抽出」「定型的」「抽出」などがキーワードとして抽出される.それぞれのスコアが,「新聞記事」の場合,タイトルに含まれるため,タイトルポイント\5と出現頻度\3回,さらに手がかり語(この場合は「が」)の前に現れるため\3ポイントを加算して,総スコアは11ポイントとなる.「構文」はタイトルスコア\5と出現頻度\1回から\6ポイント,「情報抽出」は出現頻度\3回と手がかり語スコア\6ポイントから合計\9ポイント,「定型的」は出現頻度\1回のみから\1ポイント,「抽出」は出現頻度\2回と複合語ポイント(「情報抽出」の出現頻度\3回)から\5ポイントとそれぞれの抽出されたキーワードにスコアを計算する.そして,スコアの上位\5位までのキーワード(ここでは,「新聞記事」と「情報」がスコア\11ポイント,「情報抽出」が\9ポイント,「構文」が\6ポイント,「従属節」と「抽出」が\5ポイントとなり,上位\5位までの\6つのキーワードが抽出される.)がこの講演参加申込から抽出されたセッション名候補となる.そして,各講演参加申込から抽出されたセッション名候補の出現した講演参加申込数を集計し,講演参加申込数の多いものから大会プログラムのセッション名候補を選択した.出現頻度の高いキーワードには「システム」「本稿」「我々」「利用」「提案」「手法」などのものが並び,セッション名には適当ではないものが多かった.一方,後者のスコアリング手法では「対話」「構文解析」「統語」など第\5回大会でのセッション名として利用されているキーワードが得られた.そのため,セッション名にはスコアリング手法で得られたキーワードを利用することとした.スコアリング手法によるキーワード抽出で,講演参加申込数の上位10位(13個)のセッション名候補(システム,対話,統語,情報検索,翻訳,モデル,解析,構文解析,抽出,辞書,生成,分類,手法)を自動抽出し,その候補からセッション名として妥当と思われる\9個(対話,情報検索,翻訳,モデル,解析,抽出,辞書,生成,分類)を人手で選択した.それらを第\5回大会の実験用セッション名とした.\begin{figure}\footnotesize$\langle$TITLE$\rangle$新聞記事における書き出し文の構文$\langle$/TITLE$\rangle$\\$\langle$ABSTRACT$\rangle$\\情報抽出では定型的な文章である新聞記事が対象となることが多い。しかし、一般に、いつ・誰が・どこで、何を、どうしたといった5W1H型の固定的な表現で記述される書き出し文であっても、連体修飾節や連用節などの従属節を含む複雑な構造をとることがある。現在、これらの文から情報抽出を行うのは難しいと考えられている。一方で、どのような情報を抽出すべきかについても十分検討されていない。本研究では、このような複雑な文から抽出できる情報は何か、またどのような観点に着目して情報抽出を行うべきか明らかにする。そのため、新聞記事の書き出し文を対象にして、主節と従属節の関係に着目し分析を行う。$\langle$/ABSTRACT$\rangle$\\\vspace*{-4mm}\caption[図]{\label{aaa}セッション名候補抽出の例}\end{figure}\subsubsection{講演申込のセッションへの分類}\label{bunbun}次に,各セッションへ講演参加申込を,分類する方法について述べる.この分類では,キーワードベクトルを利用している.キーワードベクトルとは,タイトルやアブストラクトの中に存在している特定のキーワードを要素とするベクトルである.キーワードベクトルには,セッション名候補のキーワードとその関係語からなるセッションベクトル,および各講演参加申込のキーワード群からなる講演ベクトルがある.まず,前節で抽出し選択したセッション名候補と各講演参加申込の中において共起関係の高いキーワードをセッション関係語として抽出する.セッション関係語は,セッション名として選ばれたキーワードと同じ講演参加申込の中に同時に現れる出現頻度の高い上位\2個のキーワードを共起関係の高いキーワードとして抽出したものである.ただし,上位\2個の同時出現頻度が低い(出現頻度\5回未満)場合は,セッション関係語はないものとした.同時出現頻度が同数で頻度の高いキーワードが複数ある場合は,セッション関係語として,それらのキーワードをすべて利用した\footnote{セッションベクトルには,最大\4個のキーワードを利用した.}.このようにして抽出されるセッション関係語とセッション名からなるセッションのキーワードベクトルをセッションベクトルと呼ぶ.また,各講演参加申込について,それぞれから抽出したすべてのキーワードのベクトルを講演ベクトルと呼ぶ.各々の講演ベクトルと最も類似したセッションベクトルを算出しセッションベクトル中のセッション名候補キーワードをその講演参加申込のセッション名として選択した.ただし,類似度は\2つのベクトルの内積である.これは,講演を質問としてセッションを検索しているようなものなので,これを類似検索法と呼ぶ.類似度の計算時にも各キーワードのスコア(キーワードベクトルの要素の値)として,出現頻度のみを利用した場合と,スコアリング法を利用した場合とを比較した.出現頻度のみをスコアとして利用し,類似度を求めた場合,同じスコアで複数のクラスに現れてしまう申込が存在した.一方,出現位置による加点をほどこしたスコアリング法のスコアを利用して類似度を求め分類したところ,表\ref{99nlp}にその一部を示すように良い結果が得られた.よってスコアリング法で計算したスコアをキーワードベクトルのスコアとして利用し,類似度を求める方法を利用することとした.\begin{table*}\begin{center}\caption[表]{\label{99nlp}自動分類した結果の例}\footnotesize\begin{tabular}{|c|c|l|}\hline\multicolumn{3}{|c|}{\bfセッション名:検索}\\\hline登録番号&分野&\multicolumn{1}{|c|}{タイトル}\\\hline3&d&係り受け情報や語の意味情報を利用した日本語テキスト検索システム\\\hline42&d&要素の順序関係から見た類似文最適照合検索\\\hline55&d&分類標数の相互参照に基づく多言語書誌データ検索システム\\\hline70&d&コンプリメントタームを用いた情報検索\\\hline81&d&情報検索の類似尺度を用いた検索要求文の単語分析\\\hline88&c&ニュース音声データベースの検索システムの試作\\\hline\end{tabular}\end{center}\end{table*} \section{第\6回大会プログラム作成} \label{gogo}\ref{yaya}章の実験に基づき,スコアリングに基づいたキーワード抽出・類似検索法を用いて,第\6回の大会プログラムの原案を作成した.2000年\3月に開催された言語処理学会第\6回年次大会の講演参加申込をすべて図\ref{datada}に示すようなデータへ変換した\footnote{自動化,効率化のためには,入力形式が統一されている必要があると考える.ここではテスト的に\XML形式を採用した.}.\begin{figure}{\footnotesize{\bf\begin{verbatim}<APPLICATION><MAIL-ID>130</MAIL-ID><TYPE>講演発表</TYPE><TITLE>大会プログラム自動生成に向けての一考察</TITLE><AUTHORid=1><KANJI>○小作浩美</KANJI><KANA>オザクヒロミ</KANA><AFFILIATION>通信総合研究所</AFFILIATION><NUMBER>123-456-7890</NUMBER></AUTHOR><AUTHORid=2>...</AUTHOR><CATEGORY>d,e</CATEGORY><APPLIANCE>OHP</APPLIANCE><ABSTRACT>いくかの言語処理技術を利用して言語処理学会の大会プログラムを自動作成することを試みた.その結果と自動生成するにあたり明らかになった問題点,改良点について報告する.</ABSTRACT><ADDRESS>住所:〒651-2492神戸市西区岩岡町岩岡588-2所属:通信総合研究所氏名:小作浩美...</ADDRESS></APPLICATION>\end{verbatim}}}\vspace*{-5mm}\caption[図]{\label{datada}申込書から作成したデータ}\vspace*{-5mm}\end{figure}\ref{keyda}節で述べた方法により自動抽出したセッション名候補の\20キーワードを決定した.続いて,人手で\9キーワード(対話,要約,辞書,コーパス,検索,抽出,解析,生成,翻訳)をセッション名として選択した.次に,\ref{bunbun}節で述べた方法を利用しセッションベクトルと各講演参加申込の講演ベクトルの類似度に基づき自動分類した.なお,どのセッション名とも類似しない講演参加申込も存在する.その申込については「その他」として取り扱うこととした.\begin{table*}\begin{center}\caption[表]{\label{prog}自動分類した結果の例}\footnotesize\begin{tabular}{|c|c|l|}\hline\multicolumn{3}{|c|}{\bfセッション名:対話}\\\hline登録番号&分野&\multicolumn{1}{|c|}{タイトル}\\\hline40&c&混合主導対話における音声認識誤りに対処するための対話管理\\\hline59&c,d&制限知識下における効率的対話制御\\\hline85&c&道案内WOZシステムとの対話における言い淀み表現の分析\\\hline102&c&係り受け関係を用いた即時発話理解−音声対話メールシステムにおける手法−\\\hline124&c&多重文脈に即応的な対話インターフェース:半可通\\\hline\multicolumn{3}{|c|}{\bfセッション名:辞書}\\\hline登録番号&分野&\multicolumn{1}{|c|}{タイトル}\\\hline15&a&概念体系における反対語の検討\\\hline25&b&辞書定義文を用いた複合語分割\\\hline32&b,d&翻訳システム用の辞書ツール\\\hline110&a&既知形態素からなる未知複合語概念推定とその辞書登録\\\hline116&b&不要語リストを用いたRFC英和辞書作成過程における課題\\\hline117&b&ソフトウェア開発工程における用語構造と翻訳辞書作成過程における課題\\\hline\end{tabular}\end{center}\end{table*}ここまでの処理では,大会プログラムとして想定すべき条件(例えば会場数や時間の制約など)については考慮しなかった.そのため,表\ref{prog}のように自動作成された結果を原案とし,後から時間的な制約を考慮した上で,\1つのセッションでの発表件数を調整した.\begin{table*}\begin{center}\caption[表]{\label{idou}手動で移動したタイトル}\scriptsize\begin{tabular}{|c|c|l|}\hline登録番号&分野&\multicolumn{1}{|c|}{タイトル}\\\hline11&c&語の重要度を考慮した談話構造表現の抽出\\\hline13&d&直接引用表現を利用した要約知識の自動抽出の試み\\\hline12&c&単語ラティス形式の音声認識結果を対象とした発話意図の認識\\\hline19&c&Generatingcoherenttextfromfinelyclassifiedsemanticnetwork\\\hline39&c&日本語における口語体言語モデル\\\hline65&d&意味的共起関係を用いた動詞と名詞の同音意義語の仮名漢字変換\\\hline77&a&韓日語の副詞節の階層性に関する対照言語学的研究-南(1974)の階層性モデルの観点から-\\\hline83&a&FB-LTAGからHPSGへの文法変換\\\hline91&b&文節解析のための長単位機能語辞書\\\hline97&d&科学論文における要旨-本文間のハイパーリンク自動生成\\\hline98&c&確率付き項構造による曖昧性解消\\\hline118&a&コンピュータ西暦2000年対応の標準化におけるデータ,用語,処理,試験\\\hline119&a&日本語待遇表現の評価実験による誤用とその認知について\\\hline121&d&図書館の自動リファレンス・サービス・システムの構築\\\hline128&c&SGLR-plusによる話者の対象認識構造を抽出する英語文パーザの試作\\\hline130&d,e&大会プログラム自動生成に向けての一考察\\\hline131&b&簡単なフィルターを用いた二言語シソーラスの自動構築\\\hline\end{tabular}\end{center}\end{table*}\begin{table}\begin{center}\caption[表]{\label{henko}自動分類結果と変更先}\footnotesize\begin{tabular}{|c|c|l|l|}\hline登録番号&分野&自動分類結果&変更先\\\hline11&c&抽出&解析\\\hline13&d&要約&抽出\\\hline12&c&翻訳&理論\\\hline19&c&その他&生成\\\hline39&c&コーパス&理論\\\hline65&d&意味&システム\\\hline77&a&その他&理論\\\hline83&a&生成&解析\\\hline91&b&解析&辞書\\\hline97&d&生成&システム\\\hline98&c&システム&解析\\\hline118&a&その他&理論\\\hline119&a&その他&理論\\\hline121&d&システム&検索\\\hline128&c&抽出&解析\\\hline130&d,e&抽出&理論\\\hline131&b&抽出&コーパス\\\hline\end{tabular}\end{center}\end{table}調整においては,手作業で一部の変更を行なった.この処理には数時間程度かかっている.変更のあった発表は17件(表\ref{idou})である.また,その中でどの講演とも類似度が低く,「その他」となっていた発表は英文タイトルのものを含め\4件存在した.表\ref{henko}に自動分類結果と人手で変更したセッションを示す.また,\1つのセッション名に複数のセッション分の講演参加申込が分類された場合は,その分類された申込中の文書からセッション名として利用するための新たなキーワードを抽出して再度分類することをくりかえした\footnote{この処理で「システム」と「意味」のキーワードがセッション名として加わっている.}.しかしながら,「解析」のセッションではセッション名として利用するのに良いキーワードが抽出できず,3つのセッションに跨ることとなってしまった.これは「解析」に分類された申込から,次のセッション名となるようなスコアの高いキーワードが抽出できなかったためである.抽出出来なかった理由は,概念的には近い意味を持つ別のキーワードでそれぞれ記述されていたり,あるいは「解析」には変わりがないが研究対象の違いにより,出てくるキーワードが若干異なったためである.これは頻度や位置情報だけで意味的情報を利用せずにセッション名を選択する場合の限界と考えられる.最後に,「その他」のセッションと分類された発表に概念的に合うセッション名「理論」を人手により付加し,大会プログラムの案とした.その後,講演参加申込の際に講演の日付希望や,講演順の要望もあり,それらを考慮した修正と,同じ所属の講演者の発表が別のセッションにおいて重ならないように考慮して,発表順に変更を加え,最終の大会プログラムとした\footnote{自動抽出によるキーワードから人手で選択したセッション名は,最終的に「対話,要約,辞書,コーパス,検索,抽出,解析,生成,翻訳,意味,システム」となった.}.そして,採否連絡と共に講演番号通知とした\footnote{なお,ポスター発表については,ここでの方法を用いずに,申込者からの講演分野の申請を利用した.これは,第5回大会のポスター発表の取り扱いに倣ったものである.会場数に合わせて講演分野\a,bの組と\c,d,eの組の\2つに分け,番号をつけた.なお,ポスター発表以外の講演申込は104件あり,3件がキャンセルされ,1件がプログラム作成後に登録されたもので,最終的な講演数は102件であった.}. \section{アンケート結果} \label{haha}第\6回大会中および大会終了後,大会プログラムに対するアンケート調査を聴講者と講演者に対して実施した.聴講者に対しては大会会場においてアンケート用紙を配布し,参加したセッションにおいて他のセッションで発表すべきであると感じた講演について意見を求めた.発表者に対しては,大会終了後,ポスター発表以外の講演者にメイルを送り,発表したセッションであっていたかどうか,また発表したセッションに興味のある発表があったかどうかの調査を行なった.発表者に対する調査においては,講演発表を行なった\102名にメイルし,79名の発表者から回答を得ることができた.発表したセッションが発表内容とあっているかの問いについて,表\ref{awanai}に示すように10名からマッチしていないとの回答があった.そのうち,\4名は自分の発表したセッションは「はみ出した講演を集めたセッションのようだ」と回答している.実際,この\4件の講演はどの講演とも類似度が低く,「その他」と分類された講演を含むセッションであった.さらにマッチしていないと回答があったもののうち,\5件はタイトルにセッション名にあたるキーワードが存在しており,タイトルに現れたキーワードへの加点の影響が悪い方に出てしまったものと考えられる.また,\3件はセッション名にあたるキーワードがタイトルには存在しておらず,アブストラクトも含めた自動分類結果で複数のセッションに低いスコアで,かつ同じスコアで分類されているものであった.セッション名にあたるキーワードを全く含まないタイトルは表\ref{nashi}に示すように全体で22件存在し,そのうち,低いスコアで,かつ同じスコアで,複数のセッションに分類されたものは\7件存在した.この場合,プログラムの出力した順の一番上位のセッションに分類してしまったが,その中の\3件が結果的にマッチしていないと回答されたものであった.これら10名以外の,69名は発表したセッションはマッチしていたと回答し,そのうち,自分の興味のある発表が同じセッションに無かったとの回答は\2名からであった.全回答者でも自分の発表したセッションに興味のある発表が無かったと回答されたのが\4名だけであった.以上のことにより,比較的良いプログラムが作成できたと言える.\begin{table}\begin{center}\caption[表]{\label{awanai}セッションと合わない回答(10回答)}\footnotesize\begin{tabular}{|c|c|c|c|}\hline回答者&タイトル影響有り&はみ出し感&低・同スコア\\\hline1&○&&\\\hline2&○&&\\\hline3&○&&\\\hline4&○&○&\\\hline5&○&○&\\\hline6&&○&\\\hline7&&○&○\\\hline8&&&○\\\hline9&&&○\\\hline10&&&\\\hline合計&5&4&3\\\hline\end{tabular}\end{center}\end{table}\begin{table*}\begin{center}\caption[表]{\label{nashi}セッション名を含まないタイトル}\scriptsize\begin{tabular}{|c|c|l|}\hline登録番号&分野&\multicolumn{1}{|c|}{タイトル}\\\hline3&d&かぎ括弧で囲まれた表現の種類の自動判別\\\hline8&b&概念体系における反義概念の検討\\\hline12&c&単語ラティス形式の音声認識結果を対象とした発話意図の認識\\\hline19&c&Generatingcoherenttextfromfinelyclassifiedsemanticnetwork\\\hline28&d&文分割による連体修飾節の言い換え\\\hline35&c&HPSGの複数の文脈自由文法へのコンパイル\\\hline39&c&日本語における口語体言語モデル\\\hline41&d&ワールドワイドウェブを利用した住所探索\\\hline42&c&LR表への複数の接続制約の組み込みによる一般化LR法の拡張\\\hline47&d&n-gramモデルとIDFを利用した統計的日本語文短縮\\\hline57&c&グルーピング法によるGLRパーザの効率的な実装\\\hline58&c&キーワードの活性度の変かを用いたテキスト中の単語と話題の対応付け\\\hline65&d&意味的共起関係を用いた動詞と名詞の同音意義語の仮名漢字変換\\\hline77&a&韓日語の副詞節の階層性に関する対照言語学的研究-南(1974)の階層性モデルの観点から-\\\hline83&a&FB-LTAGからHPSGへの文法変換\\\hline98&c&確率付き項構造による曖昧性解消\\\hline101&d&ニュース速報記事の前文情報との照合に基づく見出し文の言い替え\\\hline118&a&コンピュータ西暦2000年対応の標準化におけるデータ,用語,処理,試験\\\hline119&a&日本語待遇表現の評価実験による誤用とその認知について\\\hline125&a,c&人間の文処理は左隅型である:埋め込み構造と記憶負荷\\\hline129&a&形容詞的ふるまいをする「名詞+の」について\\\hline131&b&簡単なフィルターを用いた二言語シソーラスの自動構築\\\hline\end{tabular}\end{center}\end{table*}一方,聴講者からの回答は残念ながら\3名からしか回収できなかった.アンケート項目等を検討し回答しやすいものにする必要があったと思われる.また,今回の実験が,発表者や聴講者にどのような利益をもたらすか宣伝し,協力を得る方法を考える必要性も感じた. \section{考察} \label{mumu}今回のプログラム作成の実験において,セッション名の傾向,プログラム作成に必要と思われる制約条件,プログラム作成の効率化について考察する.\subsection{セッション名の傾向について}我々が利用したキーワード抽出・類似検索法では,\begin{itemize}\item[1]プログラム作成に重要と思われるキーワードを選出\item[2]スコアリング手法でキーワードのスコアを算出\item[3]類似検索実行\end{itemize}という手続きをとる.スコアリング手法では出現位置を考慮しているため,キーワードがタイトルに含まれるならば高いスコアになっている.それは,一般に著者が自分の論文を的確に示すようなタイトルを,なるべく一般性を持つ形で提示しようとするときには,自分の論文が所属する分野を示すキーワードと共に,自分の論文の特徴を示すキーワードをタイトルにいれる傾向があると考えられることによる.そのため,論文タイトルには分野を示すキーワードが含まれやすく,このスコアリングによるキーワード抽出法は,その点に着目したものである.第\6回大会プログラムは,タイトルにセッション名を含んだものがほとんどである.具体的には,タイトルの中に,その講演が割り振られたセッション名にあたるキーワードを含んでいないものは全タイトル102件中\29件で,そのうち,22件はセッション名となっているキーワードをタイトルに全く含まないものであった.つまり,\8割のタイトルにはセッション名にあたるキーワードが含まれており,タイトルからキーワードを選択しそれのみから講演ベクトルを作り,それに基づいて講演を分類するだけでも,かなり良い結果が得られると考えられる.実際,第\5回大会のプログラムを眺めてみても,セッション名にあたるキーワードを含むタイトルは多い\footnote{ポスター発表,特別セッション,英文タイトルを除く,107件のタイトルのうち,セッション名にあたるキーワードを含むタイトルは79件である.}.上記のように,分野を含むキーワードをタイトルに含み易いことは明らかである.もちろん,タイトルにセッション名を含んでいても,アブストラクトの情報を考慮すると他のセッションに割り振られるべきものも存在する.本手法では,タイトルにセッション名にあたるキーワードを持ちながら,そのキーワードとは別の適切なセッションに割り振ることが出来ている.タイトル中にその講演が割り振られたセッション名にあたるキーワードを含んでいない\29件中,タイトルにセッション名となっているキーワードを全く含まない\22件を除いた残りの\7件が該当する.今回,アンケート調査において,セッション名の妥当性について確認を取っていないため,即断はできないが,比較的良いプログラムが作成できたと考える.\subsection{プログラム作成における制約条件について}我々は大会プログラム作成を文書分類課題とみなして,実験を行なった.しかし,実際のプログラム作成においては,時間的な制約,場所的な制約も考慮する必要がある.それは,会場数による制約だけではなく,例えば,所属が同じ講演者の講演が時間的に重なることを避けるような制約も考えられ,今回のプログラム作成にはこの制約も考慮している.これは,同じ所属の講演者同士は,お互いの発表を聞きたいであろう,あるいは,発表時に使う機材を共有する可能性もあると判断したことによる.しかし,同じ所属の講演については職場内ですでに聞いている,あるいは,機材を共有する必要がないため,同じ所属の講演者の発表時間が重なっていても問題がない可能性もある.このような条件や制約については,今回は我々が思いつく制約を独断で設けたが,もっと別の重要な観点がある可能性もあり,制約の妥当性も調査する必要があると思われる.今後,これらの制約条件が整理されれば,それら制約条件を蓄え,その適応結果も合わせて収集することで制約条件に関するヒューリスティックな知識が獲得でき,その知識を利用することで大会プログラム作成にかかる時間をさらに短縮できるものと考える.\subsection{プログラム作成の効率化について}今回の大会プログラム作成作業で一番時間を要した処理は,データ作成の部分である.それは,講演参加申込のフォーマットが統一されていないかったために,手作業でのデータ修正が必要であったことと,締め切り後の講演参加申込の対処を行なったためである.本手法のように自動的に何かの処理をするような場合,入力は統一されたフォーマットでシステムに渡される必要があると考える.本研究での,このデータ化の処理は大会プログラムを作成する際には避けて通れない作業であるため,正しく効率的にデータベース化するための手続きを考える必要がある.さらに,当初,プログラムの組織表記を講演参加申込の表記から自動生成したため,同じ組織でありながら記述の違いがあり,プログラム上の統一感が損なわれていた.そのため,プログラム作成後,プログラムの組織表記を手作業で統一する作業が必要であった.この問題については,申込時にWWW(WorldWideWeb)を利用して,申込のフォーマット化,簡略化が行なわれれば,処理時間を短縮できると考える.組織の表記についても,会員番号などから自動的に組織名が入力されるようにするなど,学会事務局側で対処することが可能であると考える.それにより,参加者の意識も変化し,事務処理や大会参加の手続きがよりスムーズにできると考える.なお,同様な考察が\cite{IEE}にもある. \section{おわりに} 本研究は,実際の大会プログラムの作成作業で,現在の様々な言語処理技術がどの程度利用でき作業効率をあげられるのかを試したものである.本研究の実験の結果,大会プログラム作成において,キーワード抽出および文書分類の言語処理技術が十分に役立ち,これらの技術により作業効率を向上できることがわかった.さらに,データ作成に時間が一番かかっていることから,申込時にWWWなどを利用して講演参加申込データの統一化を行なうことで事務効率がさらに向上できる可能性があることがわかった.今回の実験では,セッション名をタイトルとアブストラクトから抽出することで,その大会の発表傾向に沿ったセッションを作成できた.そのことは,講演者の興味にあった発表がセッション中に含まれていたかどうかのアンケート調査結果が良好であったことからも示されている.さらに,データ作成以外のプログラム作成手続きにおいての人手による作業が数時間程度で済んだことから,作業の効率化を実現できたといえる.今回の実験では,1\つのセッション名に複数セッション分の講演参加申込が分類された問題と,セッション名をタイトルに含んだために誤って分類された問題が残されている.この\2つの問題を解決するためには短いアブストラクトからでも,より的確なキーワードを抽出する技術が必要であると考える.また,日本語以外の発表への対応や,大会プログラムの完全自動作成に向けての手続き処理方法の提案,考慮すべき条件の明確化,セッション名の妥当性調査などを行う必要もあると考える.そして,参加者,講演者,実行者共に快適に大会に参加でき,運営できるような点を明確にし,学会の事務処理の簡素化,学会の活性化などに貢献できるツールの実現や研究につながればと考えている.\section*{謝辞}北陸先端科学技術大学院大学の島津明教授,望月源氏に1999年第\5回大会のデータの利用に際しご協力いただいた.ここに感謝する.\bibliographystyle{jnlpbbl}\bibliography{jgijutu}\begin{biography}\biotitle{略歴}\bioauthor{小作浩美}{1985年郵政省電波研究所入所.現在,独立行政法人通信総合研究所研究員.奈良先端科学技術大学院大学博士課程在学中.自然言語処理,情報検索の研究に従事.言語処理学会,情報処理学会,電子情報通信学会,ACM,各会員.}\bioauthor{内山将夫}{1992年筑波大学第三学群情報学類卒業.1997年同大学院博士課程修了,博士(工学).同年,信州大学工学部助手.1999年郵政省通信総合研究所非常勤職員.現在,独立行政法人通信総合研究所任期付き研究員.言語処理学会,情報処理学会,人工知能学会,日本音響学会,ACL,各会員.}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.現在,独立行政法人通信総合研究所研究員.自然言語処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,ACL,各会員.}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年,郵政省通信総合研究所入所.現在,独立行政法人通信総合研究所研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部卒業.1980年同大学院修士課程修了.博士(工学).同年,通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所入所.現在,独立行政法人通信総合研究所けいはんな情報通信融合研究センター自然言語グループリーダー.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V10N05-02
\section{はじめに} \label{one}近年,音声認識技術や言語処理技術,計算機の処理能力の向上により,情報検索をはじめとする各種タスクを音声認識を介して実現する音声対話インタフェースへの期待が急速に高まっている\cite{NielsenAndBaekgaard1992,Godden1994,Zue1994,ZeiglerAndMazor1995,Godden1996,FergusonAndAllen1998,Nakano1999}.同時に,音声対話インタフェース実現のための対話制御方式も数多く提案されている\cite{Niimi1995a,Niimi1995b,Niimi1997,Niimi1998,KikuchiAndShirai2000,Chu-Carroll2000}.音声による入力は,操作に熟練を必要としないため利用者にとっては使い勝手が良く,入力速度はキー入力に比べ3〜4倍,手書き文字入力に比べ8〜10倍速いと言われている\cite{Hurui1998}.更に,他の器官を同時に使っての並行作業が可能であるという利点を有する.また,サービス提供者にとってはオペレータコストの削減に繋がる.実用サービスのフロントエンドとして音声認識を適用するためには,不特定多数の話者の入力に対して,迅速かつ正確に応答する必要がある.音声認識の性能は,発話様式によって大きな影響を受けることが指摘されている\cite{MurakamiAndSagayama1991}.最も単純なシステム主導,一問一答形式の単語認識でも,対象単語数が増えるほど誤認識は避けられず処理時間を要する.更に,音声認識は利用される環境や発話状況により誤認識を生じる場合も多く,公衆電話網は帯域が狭いため認識精度が落ちる.我々は,顧客が入力する住所や姓名の確定をタスクとする音声対話インタフェースの実現に向け,検討を進めている.音声認識技術においてエンジンの出力結果が正しいか否かを判断するには,発話者本人に正誤を確認するしか方法はない.特に,不特定多数の話者が入力する住所や姓名などの大語彙を認識対象とする場合,正確な応答を返すことは困難である.音声対話インタフェースの現状は,(1)~個々の質問において利用者が予期しない対象への誤認識が多い~(2)~正誤確認と誤認識を修正するための再入力要求が繰り返される,という2つの要因から利用者満足度が獲得できていない.従って,音声対話インタフェースの実用化のためには,上記2つの要因解決が必須となる.本稿は,上記要因~(1)~の解決に焦点を当て,人間が発話を聞き取る際の傾向に着目し「思い込み応答」という聞き取り結果の確認手法を提案する.そして思い込みによる認識結果の確認が,入力対象が大語彙であっても利用者にストレスを与えないことを検証する.この思い込み応答は音声入力の応答に特化したものではないが,本稿では音声入力を例として以下議論を進める.その他への適用については\ref{six}\,章の今後の課題で述べる.以下\ref{two}\,章では,大語彙を対象とした音声対話インタフェースの現状の課題について述べる.\ref{three}\,章では人間の対話における思い込み戦略を検証し,\ref{four}\,章では,市販の認識エンジンを用いて思い込み対象の選択方法について分析する.\ref{five}\,章では,思い込み戦略を取り入れた聞き取り確認手法を提案し,実装及び評価を通してその有効性を検証する.最後に\ref{six}\,章にて,まとめ及び今後の課題について述べる. \section{大語彙音声対話インタフェースの課題} \label{two}\subsection{現行の音声対話インタフェース}\label{two-two}音声認識技術の限界から,音声対話インタフェースは天気案内や株価照会,星占いなど対象語数の限られた分野でしか実現されていない\footnote{\tt{http://www.nomura.co.jp/service/kabukadial.html,http://www.ufj-tsubasa.co.jp/contact/index.html}など.}.特に,住所や姓名の確定をタスクとした音声対話インタフェースは,コールセンターの業務効率化などに有効であることから提案も多い\cite{Akahori1995,Arai1995,Yoshioka1997}.しかし対象が大語彙であるため,最終的に確定したい住所や姓名を最初の入力対象に設定するのは困難であり,高精度な結果が期待できる小語彙を入力対象とした質問を組合せることで対象を絞り込み,確定を実現している.住所確定に関しては,ボイスポータルの天気案内サービスに代表されるように,都道府県,市区郡,大字という階層的なデータ構造を利用して,上位から順に確定を行う提案が多い\footnote{\tt{http://www.ntt.com/v-portal/,http://www.voizi.net,http://www.jmscom.co.jp/automat/index.html}など.}.これは,情報検索におけるディレクトリ検索方式を音声入力に適用したものである.現在,日本全国には47都道府県,4,100市区郡,173,600の大字の約18万種の地名が存在する\footnote{中央区,本町など,全国に同一地名が複数存在する場合は1件にカウント.}\cite{tizu}.現状の音声認識技術を利用して,18万種の地名を一度に認識対象とすることは非現実的である.上位層から順に対象を絞り込みながら確定することで,各質問毎の応答は,リアルタイム性及び利用者にストレスを与えない精度を持ったものとなっている\cite{KamedaAndFujisaki1997}.音声入力型ディレクトリ検索方法には,以下の課題がある.\begin{enumerate}\item{利用者の入力対象を階層化して一度の質問における認識対象数を減少させ,上位から順に入力を確定する.そのため,対象の階層数分の$\langle$入力要求,正誤確認$\rangle$が必要になる.}\item{上位階層が確定しないと下位の対象を絞り込むことができない.そのため,各階層において認識結果が正解であるという確認が得られるまで,下位階層の入力要求へ進むことができない.}\end{enumerate}(1)~に関して,堂坂らは,個人名や部署名など予め規定したスロットを順に埋めていくタスクにおいて,現在のスロットとその値からスロット間の依存関係を考慮して,正誤確認の回数を最小化する方法を提案している\cite{Dohsaka2002}.しかし,質問順序は対象語数に制限され,システム主導に予め決められる.これに対して伊藤らは,効率を優先した質問順序がかえって機械特有の不自然さに繋がり,これが音声対話インタフェースが実用レベルで受け入れられない理由であると考察している\cite{Itou2002}.一方,個人姓名を入力対象としたインタフェースはパソコンのサポートセンターなどでの実用化例がみられる\footnote{\tt{http://vcl.vaio.sony.co.jp/info/ivr/index.html,http://support.jp.dell.com/jp/jp/spm/phone/}など.}.しかし階層的データ構造を持たない姓名には,ディレクトリ検索方式を適用できないため,数百名程度の事前登録会員のみに対象を限定するなど,対象を小規模にしなければ実現は困難である.夜間や休日などオペレータの業務時間外に自動応答で対応するサービスでは,音声認識技術を利用して,利用者の入力を正確に認識し確定することが困難なため,利用者に姓名や電話番号を留守番電話に録音してもらい,後日人間が聞いてコールバックする方法が一般的である\footnote{\tt{http://www.ntt.com/shop/toiawase/email.wbt}}.新規加入申込みなど,予め対象が限定できない姓名を対象とする実用インタフェースでは,実在者数の偏りを利用して実在頻度順位上位から数千種の頻出姓名のみを対象としている場合も多い.しかしこれでは希少姓を入力する利用者に対応できない.現状,多数の利用者からのアクセスが予想されるサービスでの姓名確定の実用化例は存在しない.\subsection{大語彙音声対話インタフェース実現に向けて}\label{two-three}我々は,資料や商品配送先の特定やチケット予約などにおいて,申込者の特定を行うための住所や姓名の確定をタスクとした音声対話インタフェースの実現を目指す.第一段階として,音声認識技術及びそれを利用したインタフェースの現状を踏まえ,利用者の入力対象が大語彙である場合,利用者にストレスを与えない応答を提供する必要があると考える.利用者から住所,姓名,年齢などを聞き取り,商品カタログ送付を専門業務とするコールセンターへの1日のアクセスを分析した\footnote{所在地は東京都港区,1日の平均アクセス数は5,000コール.}.オペレータから住所を尋ねられると,首都圏,及び各都道府県の県庁所在地に在住の利用者は,最初に港区,横浜市,名古屋市など住所の市区郡名を答える場合が多く,中でも東京23区内在住の利用者は,六本木,虎ノ門のように字名を答える傾向が多く見受けられた.それ以外の利用者は,都道府県名を最初に発声する場合が多い.この分析から,住所確定に関しては,どのレベルの地名が入力されても対応可能であることが望ましい.また,姓名に関しては,姓16万種,名は男性だけでも8万種存在する\cite{name}.現状の認識技術を利用して,この大語彙を一度に認識対象とすることは非現実的である. \section{思い込み戦略} \label{three}本章は,人間同士の対話における聞き取り傾向を分析し,話し手の発話対象が大語彙に及ぶ場合の聞き取り戦略を提案する.\subsection{人間の対話における思い込みの検証}\label{three-one}我々は,人間同士の対話においても聞き間違えがあることに着目した.すなわち,人間は初対面の相手に住所や名前を尋ねる際,聞き覚えのある地名や姓名は正しく聞き取れるが,初めて耳にするものに対しては正しく聞き取れたかどうか確信を持てない場合が多い.我々は,聞き手は話し手の発話対象を全て網羅しているわけではなく,過去の経験などから発話対象に対する思い込みが働き,その思い込んだ範囲内から聞き取った内容を探し出そうとするという仮説の検証を進めた.聞き手は思い込みのために,予測した範囲外の対象が発話された場合に聞き間違えを起こすと予想した.本節は,人間の対話における思い込み戦略を実証するために,約16万種の日本人姓を対象とした聞き取り試験を実施した.聞き手は日頃から良く耳にする姓は正しく聞き取れるが,聞き慣れない珍しい姓ほど聞き間違えやすいという結果が得られた.以下,試験概要を示す.男女合わせた10名の被験者\footnote{5名が20代〜30代の男性,5名が30代女性}に,電話回線を介して日本人の姓\footnote{ナレータ業務を専門とする女性による録音を使用}を聞いてもらい,結果の書き取りを依頼した.被験者には事前情報として日本人の姓が発話されることのみを伝え,1件につき1度の聞き取りを原則とした.1つの姓に対して被験者から書き取り終了の合図が出るのを確認して,実験担当者は次の姓を回線に流す.これを4,000種の姓に対して繰り返した.被験者の聞き取り結果の記入方法として,分からない場合のみ空欄を認めた.試験に用いた姓は,日頃から良く耳にする姓と聞き慣れない珍しい姓が均等になるように実在頻度順位\footnote{日本全国,実在件数が多い順に並べた時の順位}が均一になるように選択した\cite{name}.試験に使用した姓4,000種の実在頻度順位,及び被験者の平均正解率を表\ref{table1}\,に示す.\begin{table}[htbp]\caption{聞き取りに使用した4,000種の個人姓と被験者の聞き取り精度}\label{table1}\begin{center}\begin{tabular}{rcr|r|r}\hline\noalign{\vskip.5mm}&&実在頻度順位&データ数(件)&平均正解率(\%)\\\hline\hline1位&〜&5,000位&400&93.8\\\hline5,001位&〜&10,000位&400&93.7\\\hline10,001位&〜&20,000位&400&73.9\\\hline20,001位&〜&30,000位&400&62.6\\\hline30,001位&〜&40,000位&400&51.1\\\hline40,001位&〜&50,000位&400&48.1\\\hline50,001位&〜&60,000位&200&60.6\\\hline60,001位&〜&70,000位&200&59.2\\\hline70,001位&〜&80,000位&200&60.8\\\hline80,001位&〜&90,000位&200&64.9\\\hline90,001位&〜&100,000位&200&48.2\\\hline100,001位&〜&110,000位&100&52.8\\\hline110,001位&〜&120,000位&100&23.8\\\hline120,001位&〜&130,000位&100&28.3\\\hline130,001位&〜&140,000位&100&20.8\\\hline140,001位&〜&&200&14.0\\\hline\hline&&計&4,000&60.8\\\noalign{\vskip.5mm}\hline\end{tabular}\end{center}\end{table}表\ref{table1}\,から実在頻度順位が上位の姓ほど正解率が高いと言える.特に実在頻度順位5,000位以内の姓に対する平均正解率は93.8\,\%,実在頻度順位5,000位から10,000以内の姓は93.7\,\%と非常に高いが,実在頻度順位110,000位以降の姓に対する平均正解率は3割に満たない.次に,人間同士の対話において正しく聞き取られることが多い姓,逆に聞き間違えられやすい姓の特徴をつかむために,被験者の聞き間違えに着目した.被験者の聞き間違えのうち,不正解であった姓の実在頻度順位~(X軸)~に対し,間違えた先の実在頻度頻度~(Y軸)~を図1にプロットした.\begin{figure}[htbp]\vspace*{-1cm}\begin{center}\leavevmode\epsfxsize=14cm\epsfysize=11cm\epsffile{fig1.eps}\caption{聞き間違えた姓の間違え先の実在頻度順位との関係}\label{fig1}\end{center}\end{figure}図1から,プロットはグラフ下部に集中していることが分かる.すなわち被験者の聞き間違え先は,実在頻度順位上位に集中する傾向が見られる.分析したところ,不正解のうち実在姓への聞き間違えは5,116件存在し,その約8割に該当する3,990件は実在頻度順位10,000位以内の姓に聞き間違えている.また,実在頻度順位20,000位以降の姓に間違えたものは全体の1割に満たない.更に5,116件のうち99.5\,\%は,自分自身よりも頻度順位が上位の姓に聞き間違えている.つまり人間は,個人姓の聞き取りにおいて,予め16万種全てを把握しているわけではなく,頻度順位上位の姓の中から正解を探し出そうとしていると言える.従って,聞き手は思い込んだ姓が発話された場合は正しく聞き取れるが,思い込み範囲外の姓に対しては,思い込んだ中で最も類似した姓に聞き間違える.この結果から人間同士の対話における思い込み戦略が確認できた.\subsection{思い込み戦略のインタフェースへの適用効果}\label{three-four}\ref{three-one}\,節の人間同士の対話の分析から,システムが誤認識結果を提示してしまうこと自体が利用者のストレスの要因なのではなく,人間の対話では起こりえないような聞き間違えが原因と考えられる.従って,人間が聞き間違えやすい対象を,システムが同じように間違えたとしても利用者は自然に受け止めると思われる.我々は,思い込みの仕組みを取り入れたシステムを構築するために,人間が聞き間違えないようなもののみを最初に認識対象とする.思い込み戦略の適用は,正しい認識結果を利用者に提供するために対象語数を制限しなければならないという認識技術の限界に対する一時的な解決に繋がる.すなわち,大語彙全体を認識対象とする場合と比較して,一部しか認識対象としないため認識処理時間の短縮,及び認識精度の向上が見込める. \section{認識エンジンを用いた思い込み対象の分析} \label{four}思い込み戦略において,利用者からアクセスされやすい対象を数多く思い込むほど,利用者に正解が提示できる可能性は高くなる.しかし,認識精度と網羅率はトレードオフの関係にあり,対象数の増加に伴い認識精度は低下する.本章では,市販の認識エンジンを利用した実験を通して,思い込み対象の選択方法について分析する.\subsection{認識精度と網羅率の関係}\label{four-one}本節では個人姓に焦点を当て,認識エンジンNuance\footnote{\tt{http://www.nuance.com}}を使用し,思い込み対象として選択すべき姓について分析した.利用者アンケートを通して,姓に対する網羅率と認識精度が利用者満足度に与える影響について述べる.Nuanceには,予め姓の仮名表記リストを認識用文法として与える.被験者が姓を入力すると,Nuanceは与えた認識用文法中の各姓に対して尤度を計算し,尤度の高い順に候補を提示する.提示候補数はデフォルト値の10とした\footnote{N-best値で設定する.}.すなわち最大で10候補が提示される.提示は画面に文字列で出力した.被験者は\ref{three-one}\,節で聞き取りを依頼した10名である.最適な思い込み対象数を調べるために,実在頻度順位1位から対象数を変化させた個人姓認識用文法を15種用意した.15種の文法は含まれる個人姓の数のみが異なり,被験者に与える実験環境に差異はない.被験者に予め選択した個人姓400種の発話を依頼した.400種は,実社会と同じ実在頻度件数の分布を構成するために,各認識用文法の網羅率と一致するよう選択した.表\ref{table4}\,にNuanceに与えた認識用文法を構成する個人姓の実在頻度順位と網羅率\cite{name},及び被験者に発話を依頼した400種の実在頻度順位の内訳と複雑度を示した.複雑度とは,聞き取り対象である姓の音韻上の複雑さの程度を表す情報量である.姓{\emL}における音韻列$W_{1}^{n}=w_{1}\;\cdots\;w_{n}$の生成確率を$P(W_{1}^{n})$とすれば,姓{\emL}のエントロピーは,式(1)より計算できる\cite{Kita1999}.\begin{eqnarray}H_{0}(L)=-\sum_{W_{1}^{n}}\;P(W_{1}^{n})\;\logP(W_{1}^{n})\end{eqnarray}複雑度とは一音韻あたりのエントロピーに相当し,式(2)より計算できる.各音韻の後には平均して$2^{H(L)}$種の音韻が後続可能であることを意味し,複雑度が大きいほど特定が困難なタスクである.\begin{eqnarray}H(L)=-\sum_{W_{1}^{n}}\;\frac{1}{n}\;P(W_{1}^{n})\;\logP(W_{1}^{n})\end{eqnarray}網羅率は,日本の総人口1億2,000万人に対して該当する姓を持つ実在者数を計算した値である.表\ref{table4}\,より16万種類存在する個人姓のうち,実在頻度順位上位5,000種の姓で実在者数の約9割を網羅できることから,個人姓は実在頻度に大きな偏りがあることが分かる.また,表\ref{table4}\,に記述した各実在頻度順位の区切りは,被験者に発話を依頼した姓が認識用文法に含まれる割合を示すため,15種の認識用文法の構成数の区切りと一致させた.すなわち,認識用文法Aの中には,被験者の入力姓400種のうち72.3\,\%にあたる289種が含まれ,この289種に対して尤度が計算されることになる.従って,残りの111種は認識用文法Aに含まれていないため結果に出力されることはない.表\ref{table6}\,に,被験者の入力に対する平均認識精度を各文法毎に示した.表\ref{table4}\,及び表\ref{table6}\,より,認識対象数が多くなるほど複雑度は大きくなる.現在実用化されている住所確定インタフェースの初回の入力対象に設定されることが多い47都道府県名の平均複雑度は9.2,株価照会システムの入力対象に設定されている約700社の一部上場企業名の平均複雑度は10.1である.また,星占いに用いられる12星座名の平均複雑度は8.1と小さい.これに対して,日本人の姓16万種の平均複雑度は16.7,名8万種の平均複雑度は14.9と大きい.現状の認識技術を用いてサービス提供が可能な認識対象数は,複雑度から考えると10程度,表\ref{table4}\,から10,000語程度が限界と考えられる.従って,姓や名は複雑度からも認識が非常に困難な対象であると言える.最適な思い込み対象の選択方法を分析するために,認識エンジンの出力結果がインタフェースの第一応答として受け入れ可能な精度か否かを被験者に尋ねた結果を表\ref{table6}\,の最右欄に示した.90\,\%以上の認識精度を持つ認識用文法C,D,Eに対しては,全被験者が音声対話インタフェースの第一応答として受け入れ可能と答えた.網羅率に関して分析すると,全被験者が受け入れ可能と判断した認識用文法C,D,Eの網羅率は90\,\%以上である.網羅率が95\,\%以上でも,認識精度が90\,\%以下である認識用文法F以降に対しては,利用者満足度は獲得できていない.同様に認識用文法A,Bに関しては,認識精度が90\,\%以上でも網羅率が低いため,思い込み範囲外の姓が発話される確率が高く正解が提示できない場合が多いことから,利用者のストレスに繋がると考えられる.\begin{table}[htbp]\caption{Nuanceに与えた認識用文法及び入力に使用した400種の個人姓}\label{table4}\begin{center}\begin{tabular}{c|r|r|r|r}\hline\noalign{\vskip.5mm}文法名&頻度1位からの選択数(件)&網羅率(\%)&含まれる発話姓数(件)&複雑度\\\hline\hlineA&1,000&72.3&289&8.2\\\hlineB&3,000&86.2&345&8.9\\\hlineC&5,000&90.6&362&9.3\\\hlineD&8,000&94.1&376&9.4\\\hlineE&10,000&95.6&382&9.8\\\hlineF&15,000&97.1&388&10.6\\\hlineG&20,000&98.0&392&11.2\\\hlineH&30,000&98.9&395&11.8\\\hlineI&40,000&99.4&397&12.6\\\hlineJ&50,000&99.6&398&13.1\\\hlineK&60,000&99.7&398&13.9\\\hlineL&70,000&99.7&398&14.7\\\hlineM&80,000&99.9&399&15.1\\\hlineN&90,000&99.9&399&15.5\\\hlineO&100,000&99.9&399&15.8\\\hlineP&160,000&100.0&400&16.7\\\noalign{\vskip.5mm}\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{認識用文法毎の認識結果及び被験者による受け入れ可否評価}\label{table6}\begin{center}\begin{tabular}{c|r|r|r}\hline\noalign{\vskip.5mm}文法名&網羅率(\%)&平均認識精度(\%)&受入れ可人数(10名中)\\\hline\hlineA&72.3&94.8&6\\\hlineB&86.2&95.9&7\\\hlineC&90.6&94.1&10\\\hlineD&94.1&91.2&10\\\hlineE&95.6&90.8&10\\\hlineF&97.1&80.3&8\\\hlineG&98.0&76.5&8\\\hlineH&98.9&66.3&7\\\hlineI&99.4&67.2&4\\\hlineJ&99.6&62.1&4\\\hlineK&99.7&57.4&2\\\hlineL&99.7&42.1&0\\\hlineM&99.9&44.7&0\\\hlineN&99.9&48.3&0\\\hlineO&99.9&44.4&0\\\hlineP&100.0&42.5&0\\\noalign{\vskip.5mm}\hline\end{tabular}\end{center}\end{table}\subsection{人間と認識エンジンの思い込み結果の比較}\label{four-two}本節では,人間同士の対話との比較を通して思い込み戦略の有効性を検証する.\ref{four-one}\,節で全被験者が受け入れ可能と判断した中で,網羅率が最大の文法EをNuanceに思い込み対象として与える.入力には,\ref{three-one}\,節で個人姓の聞き取りに用いたナレータの録音音声4,000種のうち,実在頻度順位10,000位以内の姓400種を用いた.入力400種に対する認識結果を表\ref{table7}\,に示す.認識エンジンは頻度順位上位の姓10,000件を思い込み対象とした場合,\ref{three-one}\,節の試験における被験者の聞き取りとほぼ同じ精度を持った認識結果を返すことができる.\begin{table}[htbp]\caption{認識エンジンの出力結果と人間の聞き取り結果の比較}\label{table7}\begin{center}\begin{tabular}{rcr|c|c|c}\hline\noalign{\vskip.5mm}&&実在頻度順位&試験件数(件)&\multicolumn{2}{c}{平均認識精度(\%)}\\\cline{5-6}&&&&認識エンジン&被験者\\\hline\hline1位&〜&5,000位&200&93.9&93.8\\\hline5,001位&〜&10,000位&200&91.2&93.7\\\hline\hline&&計&400&92.6&93.8\\\noalign{\vskip.5mm}\hline\end{tabular}\end{center}\end{table}次に,思い込み対象外の姓が発話された場合の認識エンジンの結果について考察する.今度は,\ref{three-one}\,節のナレータ録音音声4,000種のうち,実在頻度順位10,000位以降の3,600種を入力としてNuanceに与えた.Nuanceは与えられた思い込み対象文法Eに含まれる姓に対して尤度計算するため,入力姓3,600種に対する結果は全て誤認識となる.表\ref{table8}\,は,3.1節で被験者が実在姓に聞き間違えた5,116件のうち,被験者の間違えた姓とNuanceが尤度1位を算出した誤認識結果が一致した割合を示したものである.\begin{table}[htbp]\caption{認識エンジンと人間の聞き間違え一致度}\label{table8}\begin{center}\begin{tabular}{rcr|r}\hline\noalign{\vskip.5mm}&&実在頻度順位&聞き間違え一致度(\%)\\\hline\hline10,001位&〜&20,000位&87.3\\\hline20,001位&〜&30,000位&87.9\\\hline30,001位&〜&40,000位&86.5\\\hline40,001位&〜&50,000位&89.1\\\hline50,001位&〜&60,000位&91.1\\\hline60,001位&〜&70,000位&87.3\\\hline70,001位&〜&80,000位&91.4\\\hline80,001位&〜&90,000位&90.9\\\hline90,001位&〜&100,000位&88.3\\\hline100,001位&〜&110,000位&91.8\\\hline110,001位&〜&120,000位&90.9\\\hline120,001位&〜&130,000位&90.8\\\hline130,001位&〜&140,000位&88.1\\\hline140,001位&〜&&88.8\\\hline\hline&&平均&73.4\\\noalign{\vskip.5mm}\hline\end{tabular}\end{center}\end{table}文法Eを思い込み対象とした場合,人間の聞き取りとほぼ同じ精度を持ち,思い込み対象外の発話に関しては聞き間違える先もほぼ一致する.従って,認識結果が誤認識であっても,人間同士の対話でも起こりえる間違え方であることから利用者はストレスを感じないと考える. \section{大語彙インタフェースの実装} \label{five}我々は,大語彙インタフェースの実現を目指している.検討の第一歩として,利用者にストレスを与えない応答を返すために,思い込み戦略を取り入れた聞き取り手法を提案する.これを「思い込み応答」と呼ぶこととする.一般に人間同士の対話における``応答''は,相手の発話に対して確認を伴うとは限らないが,思い込み応答の``応答''は,聞き取った結果を話し手に提示,確認する行為を表すことにする.思い込み応答とは,思い込んだ範囲内から聞き取った結果を探し出し,提示する聞き取り確認手法である.しかし,音声対話インタフェースは利用者の入力を確定することが最終目的であり,思い込みが外れた場合の対応も考える必要がある.本章は,思い込み応答にて正解を提示できない場合に利用者にストレスを与えない仕組みを提案し,この仕組みと思い込み応答を組み合わせたインタフェースを実装する.\subsection{思い込みが外れた場合の人間の反応}\label{five-one}思い込み範囲外の対象が発話された際の人間の対話を分析するために,\ref{three-one}\,節の聞き取り試験における被験者10名に実在頻度順位100,000位以降の希少姓100種の聞き取りを再度依頼した.発話は\ref{three-one}\,節で4,000種の個人姓を発話したナレータに再度依頼した.被験者には聞き取れるまで自由な質問を許し,発話者には被験者からの質問に対してYes又はNoの正誤応答と姓の再発話のみを応答として許容した.10名の被験者による計1,000件の第一応答は,701件の再発話要求(「もう一度お願いします」)と,299件の聞き取り結果の正誤確認質問(「〜さんで正しいですか?」)の2種に分類された.後者の299件中,正解は24件のみで,残りの275件は誤認識であった.発話者からNoと返された275件に対して,被験者全員が再発話を要求した.この結果を利用して,我々は,利用者の入力に対して確度の高い認識結果が得られなかった場合は思い込みが外れたと判断し,利用者に再入力を要求するインタフェースを構築する.\subsection{思い込み応答のインタフェースへの組み込み}\label{five-three}思い込みが外れた場合に利用者にストレスを与えない対応をするために,思い込み対象姓に対する認識結果を応答として利用者に提示する時間及びそれに対する利用者の回答時間内に,思い込み範囲外の姓に対して並行認識することを提案する.これにより,思い込み範囲外の発話に対して裏認識結果から正解が出力される可能性が生じる.実用インタフェースではリアルタイム性と精度が要求される.第一応答で正解が提示できない場合,第二応答提示時には裏認識を終了させ正解が提示できることが好ましい.精度の観点から,思い込み範囲外の残りも大語彙であり,裏認識で一度に認識対象としても精度は期待できない.そこで思い込み範囲外を精度が期待できる対象数毎に分割し,各文法に対する裏認識を提案する.我々は,以下のような思い込み適用フローを考案し,Nuanceを利用して実装した.\ref{four}\,章の分析に基づき,頻度順位上位10,000件の姓からなる文法Eを思い込み対象としてNuanceに与えた.利用者が入力すると,文法Eに含まれる姓に対して尤度計算する.第一応答では,閾値以上の尤度を持つ候補を利用者に提示し正誤確認を行うこととする.閾値以上の尤度を持つ候補が出力されない場合は,思い込みが外れたと判断し姓の再入力を要求する.システムは,思い込みの結果を応答として利用者に提示する時間,及びそれに対する利用者の回答時間を利用して裏認識を行う.複雑度を基に考えると,裏認識における各文法の語数は10,000件程度が限界であると考えた.現状Nuanceの認識処理時間は,N-best=10の場合,10,000語の認識用文法に対して0.58秒要する\footnote{10,000回の認識試験の平均CPU使用時間}.実装フローにおいて,閾値以上の尤度を持つ候補を提示するガイダンス「入れていただいたお名前は〜さんですか?」の出力に3.99秒,閾値以上の尤度を持つ候補が出力されない場合,姓の再入力を要求ガイダンス「もう一度お名前をお願いします」の出力に3.47秒を要する.それに対して利用者は,Yes又はNoの正誤回答に平均1.12秒,再入力に平均1.98秒要する.従って10,000語ずつに15分割すると,第二応答提示時までに15回の裏認識処理は終了可能なのでリアルタイム性も提供できる.裏認識では,最初の利用者の入力をシステム内部に録音したものを入力として用いる.フロー概要を図2に示す.\begin{figure}[htbp]\vspace*{-1cm}\begin{center}\leavevmode\epsfxsize=14cm\epsfysize=18cm\epsffile{teishutu-fig2.eps}\caption{思い込み適用フロー}\label{fig2}\end{center}\end{figure}第二応答は,思い込み範囲外の分割した各文法の裏認識結果を算出尤度順に並べ,最も尤度の高い姓を利用者に提示する.思い込みによる第一応答で正解候補を利用者に提示できた場合は,裏認識は不要であったことになる.裏認識処理の併用により,思い込みが外れても第二応答でリアルタイムに正解を提示できる可能性が大いにあると考えられる.\subsection{評価実験結果}\label{five-two}本節では,\ref{five-three}\,節で述べた思い込みを適用したフローを実装し,思い込み応答の有効性を検証する.評価のために,思い込みを適用しないフローも実装した.このフローでは16万種の姓を一度に認識用文法としてNuanceに与える.閾値以上の尤度を持つ候補が出力された場合は利用者に提示し正誤確認を行う.閾値以上の候補が提示されない場合,又は提示が否定された場合は,利用者に再入力を要求する.再入力された姓に対して,16万種を対象として再認識処理を行い,第二応答は尤度1位の候補を無条件に提示する.提示が誤認識の場合は未確定のまま終了する.思い込み適用フローは,思い込み応答及び裏認識で用いる文法は10,000語の小語彙であるため,未適用フローに比べ精度が期待できる.更に,第一応答は誤認識であっても人間同士の対話でも起こりえるような聞き間違えであることから,利用者はストレスを感じないと考える.実験において,システムの正誤確認に対する利用者の回答は100\,\%の精度で獲得可能であるものとする.新たな被験者20名\footnote{20〜30代の男女各10名ずつ}に,思い込み未適用フロー及び適用フローの2種に対して5.1節の希少姓100種の入力を依頼した.被験者に,両フローの第一応答,及び第二応答が音声対話インタフェースの応答として受け入れ可能か否かの判断を依頼した.第一応答及び第二応答に対する評価を独立に行うため,被験者はシステムからの第一応答提示直後に第一応答を評価し,第二応答提示直後に第二応答の評価を入力1件毎に行う.表6に両フローの第一応答,第二応答の応答内容の内訳,及び被験者の受け入れ可否評価を応答種別毎に示した.\begin{table}[htbp]\caption{思い込み応答の有効性検証}\label{table10}\begin{center}\begin{tabular}{c|r|r|r|r|r}\hline\noalign{\vskip.5mm}&\multicolumn{3}{c}{第一応答}&\multicolumn{2}{|c}{第二応答}\\\cline{2-6}&正解&再入力&誤提示&正解~~&誤提示~\\&(件)&(件)~~~&(件)~~~&(件)~~&(件)~~~\\\hline\hline思い込み未適用&175&490&1,335&202&1,623\\(受入れ可能応答)&(175)&(234)&(0)&(202)&(121)\\\hline思い込み適用&0&1,053&947&1,438&562\\(受入れ可能応答)&(0)&(426)&(670)&(1,438)&(307)\\\noalign{\vskip.5mm}\hline\end{tabular}\end{center}\end{table}思い込み未適用フローは,入力計2,000件のうち,第一応答で正解を提示できたものが175件,再入力要求が490件,残り1,335件は誤った侯補の提示であった.この第一応答に対して被験者は,正解提示の175件及び再入力要求の一部234件の計409件(全体の約20\,\%)をインタフェースの第一応答として受け入れ可能と評価した.誤提示に対しては全て受け入れ不可と評価した.再入力後の第二応答で正解を提示できたものは202件のみであり,全体の約80\,\%にあたる1,623件は誤提示となり,未確定のまま終了した.第二応答の評価対象1,825件のうち,正解提示の202件及び誤提示の一部121件の計323件(全体の約18\,\%)を受け入れ可能と評価された.ここで,第二応答で受け入れ可能と評価された誤提示の一部121件の第一応答は,全て再入力を要求している.このことから,第一応答と第二応答で誤提示が繰り返された場合,利用者はストレスを感じると言える.一方,思い込み適用フローでは,各被験者の入力100件はいずれも思い込み範囲外の姓であるため,第一応答で正解が出力されることはない.第一応答は1,053件が再入力要求,947件が誤提示であり,再入力1,053件中の約40\,\%にあたる426件,及び誤提示947件中の約70\,\%にあたる670件の計1,096件(全体の54\,\%)が第一応答として受け入れ可能と評価された.第二応答では正解を提示できたものが1,438件,全体の約28\,\%にあたる562件が誤提示となり未確定のまま終了した.第二応答に対して被験者は,正解提示の1,438件及び誤提示の一部307件の計1,745件(全体の約87\,\%)を受け入れ可能と評価した.思い込み未適用の場合と同様に,誤提示で受け入れ可能と評価された307件の第一応答は,全て再入力を要求している.思い込みを適用しない場合,約8割の入力が未確定のまま終了し,第一応答,第二応答ともに受入れ不可という判断が約8割を占める.第一応答に着目すると,受け入れ可能と判断されたのは正解提示と再入力を要求した応答の一部のみであり,誤提示に対しては全て受け入れ不可と評価された.これに対して思い込み適用フローでは約8割が確定終了した.思い込みを適用した第一応答に着目すると,誤提示対話の約7割,再入力要求を合わせると全体の半数以上が受け入れ可能と判断された.第二応答に対しては約9割が受け入れ可能と評価された.思い込みを適用した応答は,誤認識であっても利用者には受け入れられることが分かる.このことから,誤認識を生じること自体が必ずしも利用者のストレスの要因ではないことが確認できた.思い込み適用フローにおいて未確定に終った562件の存在が,第二応答に対して受け入れ不可と判断された約1割の応答の存在に繋がると考えられる. \section{まとめ,及び今後の課題} \label{six}我々は,思い込み戦略,及びそれを取り入れた思い込み応答を提案することで,大語彙を入力対象とした実用インタフェースにおいて利用者にストレスを与えない応答を返す仕組みを実現した.また,思い込み応答による聞き取りの精度は人間同士の対話とほぼ同じであり,聞き間違え先も人間の聞き取りとほぼ一致することを確認した.5.3節の実験結果から,思い込みが外れた場合,裏認識処理のみでは第二応答で正解を提示できないことがある.更に実験結果から,第一応答と第二応答で誤提示が繰り返された場合は利用者に受け入れられないことが分かった.1章で述べたように,正誤確認と再入力の繰り返しは利用者のストレスに繋がる.我々は,思い込みの結果,利用者に正解を提示できなかった場合,利用者に別の質問をすることで迅速に正解を絞り込む方法を検討している.すなわち,絞り込みのための質問を利用者にストレスを与えない順序で,かつ利用者からの質問に対する回答も誤認識である場合を考慮して,質問を組み立てる必要がある.個人姓名に関しては,絞り込みに有効な質問の選定が大きな課題であると考える.「サトウ様ですか?」「カトウ様ですか?」「アトウ様ですか?」のような候補の提示と再入力の繰り返し,更に再入力後も誤認識を繰り返すことは利用者にストレスを与えるのは明らかである.人間は,相手の苗字や名前を聞き取れなかったと感じた時,漢字表記や頭文字を尋ねたり,曖昧な部分について問いかけをしながら正しい姓名を導きだそうとする.我々は,人間同士の対話の分析を進めることで,姓名確定のための対話制御方式の確立を目指す.一方,住所に関しては,サービスのアクセス頻度の偏りやコールセンターへの発信番号から思い込み対象を効果的に選択することで,利用者に都道府県名からの入力を強制する必要がなくなる.2.2節で述べたコールセンターのオペレータは,町村名が聞き取れない場合,再入力要求ではなく上位階層である都道府県名,或いは市区郡名を尋ねる傾向が見受けられた.この分析から住所に関しては,思い込みが外れた場合,階層構造を利用して対象数の少ない上位階層を確定する方向へ対話を進めた際の有効性について検証を進めている.その他の大語彙として,全国1,100万種の登録がある企業名の確定\footnote{職業別電話帳「タウンページ」掲載数}や年間約9万回主催されるコンサートの特定\footnote{定期刊行雑誌「ぴあ」(ぴあ株式会社)12ヶ月分の集計}などへの適用も検討している.これまで本稿は,音声入力の応答を例に挙げ議論を進めてきたが,思い込み応答は,音声入力に限らず,大量の検索空間から利用者が必要とする情報を高速かつ高性能に検索する手段として役立つと考える.検索空間が広範囲に及ぶ情報検索の分野では,検索キーに対して数多くの検索結果が取得できてしまい,情報を絞り込む手段がないのが現状である.利用者毎の行動履歴やアクセス履歴を基に,思い込み戦略を利用者の検索趣向を導き出す手段に適用することで,同じ検索キーが入力された場合でも個々人適応型の情報提供が可能になると考えられる.今後,思い込み戦略の他分野への適用を検討すると同時に,思い込みにより正解を提示できない場合に,迅速に正解を導くための対話制御方法の検討を続けていきたい.\vspace{0.2cm}\acknowledgment本論文に関してご指導頂きました~(株)~NTTアドバンステクノロジー東田正信氏,NTTコミュニケーション科学基礎研究所堂坂浩二氏,本研究の機会を与えて下さいました~(株)~NTTデータ技術開発本部長松本隆明氏,的確で有益なコメントを下さいました査読者の方に深く感謝致します.\bibliographystyle{jnlpbbl}\bibliography{papereuc}\begin{biography}\biotitle{略歴}\bioauthor{大森久美子}{平成8年慶應義塾大学大学院理工学研究科計算機科学専攻終了.同年,日本電信電話~(株)~情報通信研究所入社.平成10年より同社情報流通プラットフォーム研究所にて音声対話処理の研究に従事,現在~(株)~NTTデータ技術開発本部にて音声対話制御手法の研究,アプリケーション開発に従事.平成15年4月より,慶應義塾大学大学院理工学研究科開放環境科学専攻計算機科学専修後期博士課程在籍.自然言語処理,音声言語理解に興味を持つ.情報処理学会,言語処理学会,電子情報通信学会各会員.}\bioauthor{斎藤博昭}{慶應義塾大学工学部数理工学科卒業.現在同大理工学部情報工学科専任講師.工学博士.自然言語処理,音声言語理解などに興味を持つ.情報処理学会,言語処理学会,日本音響学会,電子情報通信学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V09N01-02
\section{はじめに} label{No1}近年,聴覚障害者の重要なコミュニケーション手段の1つである手話と,健聴者のコミュニケーション手段である日本語とのコミュニケーション・ギャップの解消を目的とする手話通訳システムや手話の学習支援システムなどの研究が各所で盛んに行われている\cite{Adachi1992a}.これら手話を対象とした自然言語処理システムを実現するための重要な要素技術の1つである手話の認識や生成処理技術は,動画像処理の研究分野であるが,対象が限定されているため,動画像構成の単位を明確に規定できる可能性があり,手話の知的画像通信や手話画像辞書への特徴素の記述法が提案されている\cite[など]{Kurokawa1988,Kawai1990,Sagawa1992,Terauchi1992,Nagashima1993,JunXU1993}.また,日本語文の手話単語列文への言語変換処理に関する基礎検討としては,\cite[など]{Kamata1992,Adachi1992b,Adachi1992c,Kamata1994,Terauchi1996}が報告されている.さらに,手話表現の認識結果を基に日本語文を生成する研究としては,\cite[など]{Sagawa1992,Abe1993}がある.なお,これらの処理精度に影響を与える電子化辞書の構成方法に関しては,\cite[など]{Adachi1993,Nagashima1993,Tokuda1998}が提案されている.さて,2言語間の対訳電子化辞書システムを構築する場合の重要な要素技術の1つとして,原言語側と目標言語側との双方向から単語を検索できる機能の実現が挙げられる.ここで,手話単語を対象とした場合の課題の1つは,視覚言語としての特徴から,手指動作表現を検索キーとし,対応する日本語の単語見出し(以後,本論文では,日本語ラベルと略記する.)を調べる手段をどのように実現するかという点である.すなわち,視覚情報としての手指動作特徴をどのように記号化して,検索要求に反映させ,検索辞書をどのように構成するかという問題といえる.この問題に対する従来のアプローチは,手の形,動き,位置などの手指動作特徴の属性を詳細な検索項目として用意し,これらの項目間の組合せとして検索条件を設定し,同様に,これらの検索項目を基に手話単語を分類したデータベースを検索辞書としていた\cite[など]{KatoYuji1993,Naitou1994}.この検索アプローチは,手話言語学における手話単語の表記法(単語の構造記述におけるコード法)に基づいている\cite{Kanda1984,Kanda1985}.しかし,これらの表記法と分類観点は,本来,個々の手話単語の表現を厳密に再現(記述)することを目的としているため\cite{Stokoe1976},項目数が多く,また,項目間の類似性もあり,初心者には難解なコード体系といえる.そのため,このアプローチによる検索システムの問題点が,\cite{Naitou1996}により指摘されている.それによると,手の形,動き,位置などの検索条件を指定する場合,\begin{enumerate}\item検索項目間に類似性が高いものがあり,利用者が区別しにくく,\item検索条件や検索項目が多くなると,利用者は選択操作が煩わしくなり,\end{enumerate}\noindent結果として選択ミスを生じ,満足のゆく結果が得られないとされる.これは,利用者が認知した手話表現の手指動作特徴を再生し,検索条件に設定する場合に,不必要な検索条件までも指定してしまう点に原因があるといえる.一方,認知された外界の情報を,ある表現形式(表象)から別の表現形式に変換することを,一般に,コーディング(符号化)と呼ぶ.また,視覚的な特性を持つ「視覚的コード」と言語的な特性を持つ「言語的コード」を重要視する「二重コード説」によると,写真などの視覚情報を記憶する場合に,視覚的コーディングに加え,「赤い色をした車」のように言語的コーディングも同時に行われているとされる\cite{Ohsima1986}.さらに,単語は文字(あるいは音素)の組み合わせで構成されるが,例えば,(1)「キ」を提示した後で,それは「キ」あるいは「シ」だったのかを質問した場合と,(2)「テンキ」を提示した後で,それは「テンキ(天気)」あるいは「テンシ(天使)」だったのかを質問した場合とでは,(2)の方が成績が良いとされ,文字の弁別が単語という文脈内で規定された方がより正確に記憶するとされる「単語(文脈)優位性効果\cite{Reicher1969}」が知られている.これら認知科学の成果を手話単語の検索問題に当てはめて考えてみると,人間が手指動作表現を認知する場合,「両手を左右に動かす」というように,言語文として言語的コーディングを行い記憶しているとすれば,記憶された言語的コード,すなわち,手指動作特徴を記憶した際の文脈環境を保持する言語文そのものを検索キーとするアプローチが考えられる.本論文では,検索条件を細かく指定する従来の方法とは異なり,手話単語の手指動作特徴を日本語文で記述した手指動作記述文を検索条件とみなし,辞書にある類似の手指動作記述文を類似検索し,検索結果に対応付けられている日本語ラベルを提示する方法を提案する.本手法の特徴は,手話単語の手指動作特徴間の類似性を手指動作記述文間の類似性と捉え,入力された手指動作記述文と辞書に格納された手指動作記述文との類似度を計算する点にある.すなわち,「{\bf手話単語の検索問題を文献検索問題と捉えたアプローチ}」といえる.また,この手指動作記述文は,一般に,市販の手話辞典に記載されており,手話の学習者の多くが,慣れ親しんでいる文形式と捉えることができる.なお,本提案手法に関連する研究として,翻訳支援を目的とした対訳用例の類似検索に関する研究が幾つか報告されている\cite[など]{NakamuraNaoto1989,SumitaEiichiro1991,SatoSatoshi1993,TanakaHideki1999}.これらにおいては,文間の類似度の計算に用いる照合要素として,文字を対象とする方式と単語を対象とする方式に大別することができる.また,これらの要素間の照合戦略としては,出現順序を考慮しながら共有要素を計算する方式(以後,順序保存と略記する.)と,出現順序を考慮しない計算方式(以後,順序無視と略記する.)に大別することができる.ここでは,照合要素が文字列と単語列という違いはあるが,順序無視と順序保存の照合戦略を用いた代表的な2つの手法について概説する.\cite{SatoSatoshi1993}は文字の連続性に着目した文間の類似性を基準に,「最適照合検索」として,順序保存を採用した検索システム(CTM1)\cite{SatoSatoshi1992}と順序無視を採用した(CTM2)の検索効率を比較し,ほぼ同等であるが順序無視の方が若干優位としている.一方,\cite{TanakaHideki1999}は,放送ニュース文の単語列を対象に,AND検索に順序保存の制約条件を加え,長文に対する効果的な用例検索法を提案し,順序保存の方が優位としている.なお,両者とも類似性を計る指標として,語順(あるいは文字の出現順序)を考慮するアプローチの重要性を指摘している.このことは,文構造の類似性を表層情報として得られる文形式(単語の配列順序)の類似性を文間の類似度に加味することの意義を示唆している.以下,2章で,手指動作記述文の特徴について述べ,3章では,手指動作記述文間の類似度と手話単語の検索方法について述べ,4章で,提案手法の妥当性を検証するために行った実験結果を示す.5章では,実験により明らかとなった問題点について議論し,今後の課題について述べる.最後に,6章で,まとめを行う. \section{手指動作記述文の特徴} label{tokuchou}一般に,市販されている手話辞典の多くは,手話単語の日本語ラベルに対して,その手指動作表現の手続きをイラスト以外に,日本語文で表現した手指動作記述文を記述している\cite[など]{MaruyamaKoji1984,Watashi1986}.そこで,以下に示す手話単語対の「午前」と「午後」を例に考えてみると,この単語対は,手指動作特徴の中で「手の動き(右に倒すのか左に倒すのか)」に関する手指動作特徴だけが異なる手話単語の最小対を構成している.明らかに,与えられた手指動作記述文間の比較からも,この関係を導出することができる.\begin{enumerate}\item{\gt午前}右手の人差指と中指を立て額の中央に当て\underline{右に倒す}\item{\gt午後}右手の人差指と中指を立て額の中央に当て\underline{左に倒す}\end{enumerate}このように,手指動作記述文は,手話単語の手指動作表現の特徴構造を,構造を持つ1次元の記号系列(言語文)に写像した特徴系列と捉えることができる.この特徴系列は,日本語文であり,文法構造を内在しており,手話単語の手指動作表現を生成するための手続きを記述したプログラム(手続き文)と捉えることもできる.また,手指動作記述文は一般の自然言語文に比べ,文中で用いられる語彙には,ある種の制約があると捉えることができる.例えば,名詞は手指動作表現を特徴付ける手や顔,胸などの身体の上半身の部位を表すものに限定されている.また,動詞は手指の形や動きを表現するものに限定されている.さらに,副詞は手指動作の強弱や反復などの程度を表すものに限定されている.同様に,動作表現を生成する手続き文としての特徴から,文中での単語の配列(文形式)に,ある種の構文パターンがあると考えられる.例えば,「午前,午後」の例が示すように,「手の形,手の位置,手の動き」の順に手指動作特徴を表す単語列が配列されている.これらの特徴から,手指動作記述文は言語の使用環境が,一般の自然言語文に比べて,語彙的にも構文的にも強い制約を受けた有限の文集合と捉えることができる. \section{手指動作記述文を用いた手話単語の類似検索} label{Sign}\cite{AdachiHisahiro2000}は,与えられた単語集合から類似の手指動作特徴を含む手話単語対を抽出する方法として,手話単語間の手指動作特徴の類似性を手指動作記述文間の類似性と捉えたアプローチによる方法を報告している.そこでは,手指動作記述文を,文を構成する文字配列を特徴観点とする$n$次元の特徴ビットベクトルで表現し,以下に示す文間の類似度の計算式(\ref{sim})を導出している.\begin{equation}\label{sim}S(A,B)=\frac{LCS(A,B)^2}{M・N}\end{equation}\noindentここで,$M,N$はそれぞれ,手指動作記述文$A,B$の長さ(文字数)を表し,$LCS(A,B)$は最長共有部分列の長さ\cite{Thomas1990}を表している.\subsection{手話単語の類似検索への適用}\cite{AdachiHisahiro2000}では,ある1つの辞書に記載の手指動作記述文の文集合をその処理対象としている.一方,本論文で対象とする手指動作記述文の文集合は,検索データベース,すなわち,検索辞書としての手指動作記述文(以後,{\bf辞書記述文}と略記する.)と,検索要求としての手指動作記述文(以後,{\bf検索記述文}と略記する.)というように,異なる2つの文集合を対象とする必要がある.すなわち,一般の情報検索システムで問題となる利用者の質問と辞書との表現上の差\cite{Nagao1983}の問題と同様に,検索記述文と辞書記述文とのギャップについて考慮する必要がある.例えば,辞書記述文は手話表現を生成する手続き文(プログラム文)としての特徴から,手の形,手の位置,手の動きなどの手指動作特徴を詳細に記述していると捉えることができる\footnote{必ずしも,全ての手指動作特徴を洩れなく記述している訳ではなく,イラストの情報との相補関係にあり,省略されている特徴素もある}.一方,検索記述文は手話の学習者の入力を想定しており,辞書記述文に比べ特徴素の省略などにより,より簡潔な文となる可能性が高い.しかし,手話の学習者が日常,手話単語を学習する際に参考としている手話辞典等で,慣れ親しんでいる辞書記述文と類似の文形式で入力するであろうと考えることができる.そこで,本研究では,このようなギャップがある手指動作記述文間の類似性の計算に適応させるため,検索記述文と辞書記述文の両者を疑似文節列に分割し,各疑似文節から平仮名以外の文字列のみを抽出した非平仮名キーワード列を特徴観点とした類似度の計算を行うこととする.\subsection{疑似文節列と検索キーワード列の抽出}漢字かな混じりの日本語文を形態素解析処理を用いないで,文節列に区切るヒューリスティック・ルール(経験則)として,以下に示す字種の違いに着目したものが考えられる.\subsubsection{文節区切りの経験則}\begin{description}\item平仮名文字が非平仮名文字へ字種が変位する境界部分を文節の区切りとする\end{description}\medskip例えば,「両手を交互に上下させながら左右に引き離す」をこの経験則で分割すると,『両手を/交互に/上下させながら/左右に/引き/離す』となる.この分割結果を本論文では,疑似文節列と呼ぶ.ここで,「疑似」という用語を冠した理由は,以下に述べるように,一般に,文節とは認定できない分割結果を含む場合があるためである.\subsubsection{経験則の問題点と利点}先に示した経験則による文節分割の問題点は,上記の例文にある複合動詞「引き離す」のような{\bf混ぜ書き}で表現される文要素を分割してしまう点と,「上下させながら」のように平仮名で表記される文要素は分割できない点である.しかし,上記の例文を辞書記述文とし、検索記述文に同じ意味を表す別の表現として「〜を左右に引く」や「〜を左右に離す」があった場合,混ぜ書きされた文要素を分割してしまう経験則の不具合は,逆に,このような同義関係にある文要素同士を類似度に反映できる利点があると考える.一方,この文字列の照合処理において,完全一致では動詞の活用部分の差や用いられる助詞の差(例えば,「左右に」と「左右へ」の関係)など,自然言語表現の持つ「語形の多様性」により同一視が難しいのは明らかである.\subsubsection{疑似文節列から非平仮名キーワード列へ}そこで,疑似文節列から語幹に相当する非平仮名列のみを抽出し,照合処理の対象キーワードとし,語形の多様性を吸収することとする.これにより,与えられた手指動作記述文からのキーワード列の抽出は,非平仮名文字列\footnote{漢字に限定しないのは,指文字等は一般にカタカナで表記される傾向がある点と,平仮名書きの文要素を,カタカナで表記あるいは置換できれば,比較的容易に類似度に反映させることが可能と考えたためである.なお,カタカナへの置換は今後の課題とする.}だけを対象とし,平仮名文字列は無視することとする.このため,漢字やカタカナで表記されていない文要素は類似度の計算では考慮されず,仮に,その文要素がその手話表現を特徴付ける場合であっても,類似度には反映されないという問題は残るが,本論文では,他の文要素間の類似性により文間の類似性を近似することとし,この問題は今後の課題とする.以上の議論から,検索記述文と辞書記述文との類似性を近似する類似度は,与えられた手指動作記述文から非平仮名の連続文字列を照合要素とし,以下に示す式(\ref{sim2})を用いて計算する.ここで,式(\ref{sim})と区別するため,$M_k,N_k$はそれぞれ,手指動作記述文$A,B$の非平仮名キーワード列の総数であり,$LCS_k(A,B)$は両者の最長共有キーワード部分列の長さを表す.なお,照合の際に次節で述べる「語選択の多様性」に対処する処理を適用する.\begin{equation}\label{sim2}S(A,B)=\frac{{LCS_k(A,B)}^2}{M_k・N_k}\end{equation}\subsection{キーワード照合における不要語と同義語の扱い}一般に,文献検索システムでは,出現頻度が高く文献の特徴付けに寄与しないキーワードを不要語(stopword)として,検索対象キーワードから除外する方法が採られる.手話単語は,一般に,両手の形が同一である「両手同形」,形が異なる「両手異形」と片手で表現する「片手」の3種類に大別される.ここで,両手同形の手話単語を例に考えると,市販の手話辞典に記載の手指動作記述文には,以下に示す例文(1)と(2)のように,「手の形」を規定する部分が「両手」に対して,前置される場合と後置される場合が混在している.\begin{enumerate}\item\underline{五指を折り曲げた}両手を交互に上下する\item両手\underline{の五指を折り曲げて}交互に上下する\end{enumerate}キーワードの出現順序を考慮する照合戦略では,利用者の検索要求を表す検索記述文が例文(2)と同一であった場合,例文(1)の共通キーワード数は例文(2)より少なくなる.この照合洩れを抑止するために,「両手」を不要語として,検索記述文と辞書記述文の両方から除外すれば,例文(1)と(2)の共通キーワードの数は同一となる.同様に,片手手話に分類される単語は,手話単語の基本形であり,一般に,「右手」を用いて表現する.そのため,利用者の検索記述文中で省略される可能性がある.このように,検索システム全体の構成として,最初に,両手同形なのか片手の手話なのかを利用者に指定させることで,片手手話の検索の際には「右手」を,両手同形手話の場合には「両手」をその照合対象から除外する戦略は,類似検索の照合処理に有効に機能すると考える.次に,検索記述文と辞書記述文のキーワードの一致を前提に照合を行なう本手法では,本来,同一であるべき照合要素が言語の多様性により別の表現となり,一致しない場合がある.例えば,「前方に出す」と「前に出す」の関係における「前方」と「前」との不一致である.また,手の動作位置などに関して,利用者の認識と辞書側の記述表現の差,すなわち,全体/部分の関係の捉え方の違いに起因する不一致が考えられる.例えば,辞書記述文では「胸の前」と記述されている部分に対して,利用者の検索記述文では「体の前」と記述する場合である.同様に,「口の前」と「顔の前」などが対応する,そこで,本手法では表\ref{dougi}に示すように,キーワード間の照合で同一視する同義置換表を用意し,これら「語選択の多様性」の一部を吸収することにする.このように,前節で述べた平仮名文字列を照合要素から除外する戦略が,語形に関する多様性に対処する枠組であり,本節で述べた処理は語選択の多様性に対する枠組と捉えることができる.\begin{table}[htbp]\caption{照合時に同一視するキーワード間の同義置換表の一部}\label{dougi}\begin{center}\footnotesize\tabcolsep=3pt\begin{tabular}{l|l}\hline同一視するキーワード群&文中で用いられる例\\\hline\hline前,前方&(前,前方)に出す\\\hline伸,立&親指を(伸ばす,立てる)\\\hline開,離,広&左右に(開く,離す,広げる)\\\hline体,胸,腹&両手を(体,胸,腹)の前に\\\hline\end{tabular}\end{center}\end{table} \section{実験と評価} 本手法の有効性を確認するため,本論文では,両手同形の手話単語集合を対象として,実験を行う.\cite{Naitou1996}の調査分析によれば,両手同形の手話単語は手話単語全体(2,524語)の41.7\%を占め,その中の90\%は両手の移動を伴う手話単語であり,移動を伴う手話単語は手話単語全体の84\%と報告されている.また,\cite{Kamata1991}は,手指動作特徴の中で「手の動き」の重み付けは,他の特徴素よりも大きいと指摘している.これは,\cite{Naitou1996}の分析でも両手同形の手話単語は他のタイプの手話単語に比べ,「手の形」が限定されており,手の動きが単語の弁別特徴素として働く割合が高い手話単語であるとの調査結果と一致する.これらの分析から,手話単語の大部分が動きを伴う表現であり,特に,両手同形の手話単語では,その割合が高く,本論文で提案する手法の妥当性を検証するのに適していると考える.\subsection{実験データとその特徴}実験データは以下の手順で準備したものを用いた.まず,検索記述文として「わたしたちの手話(1)」\cite{Watashi1986}に記載の手指動作記述文を,辞書記述文として「イラスト手話辞典」\cite{MaruyamaKoji1984}に記載の手指動作記述文を用い,文字列「両手」を含む両手同形の手話単語を抽出した.なお,複合手話表現と明示されている手話単語は,実験対象から除外した.次に,実験結果の分析・評価を明確にするため,抽出された検索記述文の日本語ラベルが,辞書記述文の文集合(613文)の日本語ラベルと対応関係にある検索記述文を選択し,最終的な検索記述文の文集合(87文)とした.ここで,両者の原辞書間で日本語ラベルが一致しないものがあるため\footnote{例えば,(離れる,別れる),(月日,いつ),(つまり,まとめる),(失う,なくす)などの対応関係を同定した.},原辞書の索引等を比較し,検索記述文の手話単語が辞書記述文に確実に含まれる検索記述文を選定し,人出により計算機に入力したものを実験データとして準備した.なお,表\ref{sample}には,検索記述文と辞書記述文の文字数の分布状況を示す.ここで,辞書記述文より検索記述文の方が短い文で構成されていることから,大まかな動作特徴を検索キーとする傾向にある利用者側の要求を反映した実験データと捉えることができる.\begin{table}[htbp]\caption{実験に用いた手指動作記述文の文字数による比較}\label{sample}\begin{center}\footnotesize\tabcolsep=3pt\begin{tabular}{c|r|r|r|r|r|r}\hline&総文数&平均字数&最大字数&最小字数&20字未満&20字以上\\\hline\hline検索記述文&87文&18.85&32&7&48文&39文\\\hline辞書記述文&613文&31.71&78&10&48文&565文\\\hline\end{tabular}\end{center}\end{table}\subsection{実験方法}実験は,まず,1次情報である検索記述文から非平仮名文字のみを検索キーワード列として抽出した2次情報を作成する.同様に,辞書記述文から抽出した非平仮名キーワード列の2次情報を作成する.そして,2次情報同士の文字列照合により類似度を求め,類似度の値が高いものほど上位に位置するように整列したものを検索結果とする.なお,共通キーワード数の計算には,順序保存と順序無視の照合方式をそれぞれ用いた類似度を計算し,検索結果を比較する.ここで,順序保存の類似度は式(\ref{sim2})で計算し,順序無視の場合には,式(\ref{sim2})の$LCS_k(A,B)$を,重複を許す形で照合を行なった共通キーワード数$C_k(A,B)$として類似度を計算する.また,2次情報との比較のため,与えられた1次情報の文字を照合要素とする類似度を式(\ref{sim})を用いて同様に計算し,検索結果を比較する.\subsection{評価方法}一般に,情報検索システムあるいは手法を評価する場合,利用者側の立場からみた検索効率を評価する尺度として,従来,呼出率と適合率が用いられてきた.ここで,呼出率とは,被検索対象である文書集合の中で,検索要求文に適合すると判断できる文書総数と,実際に検索された適合文書数との比で計算される.一方,適合率は検索された文書総数と,その中の適合文書数との比で計算される.なお,最近では,これらの指標が利用者の多様な検索要求に対して,必ずしも適切な評価尺度とはならないとの問題点が指摘されている\cite{Tokunaga1999}.本論文で対象とする手話単語を検索する場合,検索要求に適合する辞書の手指動作記述文は原則として1つである.すなわち,複数の適合手指動作記述文(に対する手話単語)を前提としていないため,適合率と呼出率による検索効率の評価は適していないと考え\footnote{現実には,予め,同一の手話表現に対する手指動作記述文を1つにマージしてない場合,複数の適合文が存在することになるが,すべての検索要求に対して,複数の適合文がある訳ではなく,その数は限られている.},以下で述べる評価尺度を用いることにする.\subsubsection{平均検索成功率}手話単語の検索の場合,一般的に,利用者の第一義的な検索要求は,「当該手話表現の日本語ラベルは何かを知りたい」であり,順序付けられた検索結果の上位に,対応する日本語ラベルが位置することが検索システムには求められる.さらに,現実的には,利用者は当該手話表現に適合する検索結果を上位から逐次調べる必要があるため,その手間数が少ない方が良い.すなわち,利用者の立場から見ると,その当該手話単語が見つかれば要求は満たされ,原則,それ以上は調べる必要性はない.しかし,手話単語を学習(手話表現を習得し理解を確実に)するためには,類似の動作特徴を持つ他の手話単語との関係を同時に学習することは重要である.一般に,音声言語の単語習得においても,他の単語との関係から当該単語の特徴や役割について理解することは,学習効果を高めるといわれている.この類似の動作特徴を持つ手話単語も同時に検索することが,本論文で提案する検索方法の重要な目的の一つである.そこで,本論文では,適合性の評価尺度として,検索結果の上位に位置するある規定範囲内で検索されたか否かの二値的な判断により,質問集合全体の総数と各質問に対する検索数の比で求まる「平均検索成功率」を評価指標とする.\subsubsection{平均到達度数}一方,検索結果の順序付けは類似度に応じて整列されるが,類似度の値が同じため同順位となる場合があり,適合部分集合の要素は複数となる.そのため,1位で検索された場合でも,同順位のものが10個あると,正解とみなされる手話単語に到達するまで,利用者は最悪で10回の手間を必要とする.この利用者が適合する結果に到達するまでの手間を評価尺度とする方法として,\cite{Cooper1968}の平均探索長(expectedsearchlength)がある.そこで,本論文では,評価尺度として,平均探索長の考えに基づく,「平均到達度数」を定義し,評価指標として用いることにする.平均到達度数は,平均探索長が同順位以外も含め,複数の適合文書の検索を想定して計算する必要があるが,本実験では,適合文書に対応する辞書記述文は,検索記述文の手話単語に対応する唯一の手指動作記述文を対象として評価したいため,適合辞書記述文を含む同順位の組み合わせだけを考慮すれば良いため,以下のように計算は比較的簡単化される.任意の検索要求に対して,同順位$i$番目で検索される部分集合の要素数を$P(i)$とする.また,当該手話単語が含まれる順位を$n$とすると,期待値としての平均到達度数$EL$は次式で求められる.\begin{equation}EL=\sum_{i=1}^{n-1}P(i)+\sum_{i=1}^{P(n)}\frac{i}{P(n)}\end{equation}ここで,すべての検索要求に対して,必ず$m$個の検索結果を出力するものとすると,到達度数の最小値は$1$であり,第一番目に当該手話単語が検索され,かつ,同順位のものがない場合となる.また,最大値は出力された$m$個をすべて調べる場合で$m$となる\footnote{検索に失敗した場合も,すべての出力結果を調べるため手間数は同等になる.また,同順位の要素数を含め$m$個を超えた場合,超えた分は検索されなかったものとみなす.}.\subsubsection{有用性の評価}有用性の観点からの評価と適合性の観点からの評価とは,一般に,直交する概念と捉えられる.すなわち,適合する文書ではなくても,その文書が,利用者にとって有用な情報を含んでいる場合があり,その観点で有用性が評価される.最近では,二値的な判断でなく多値的な判断を採り入れ,より詳細に適合性や有用性を評価している\cite{SatoSatoshi1993,TanakaHideki1999}.本論文では,検索結果を有用性の観点から評価するため,各検索記述文に対する上位10位までの検索結果の手話単語を求め,得られた手話単語に対して,以下に示す評価値をつける.\begin{itemize}\item[A]検索記述文の手話単語と一致する.\item[B]検索記述文の手話単語と手の形,位置,動きの中で1つだけ異なる最小対である.\item[C]検索記述文の手話単語と類似の動作特徴を含む.\item[F]類似の動作特徴を何も含まない.\end{itemize}また,各検索記述文に対する検索結果全体の評価は,上記の評価値の組み合わせとして,以下に示す総合評価値を与える.すなわち,Aを含むか否か(適合性)も加味された評価となる.\begin{description}\item[{\bfAB}]AとBを含む\item[{\bfAC}]AとCを含む\item[{\bfA\\}]Aを含む\item[{\bfBC}]BとCを含む\item[{\bfB\\}]Bを含む\item[{\bfC\\}]Cを含む\item[{\bfF\\}]A,B,Cいずれも含まない.\end{description}\subsection{結果と評価}\subsubsection{平均検索成功率による評価}表~\ref{kekka_hyouka}は,同順位で10位(上位から10番目)までの検索結果に対する平均検索成功率を示す.ここで,順序保存と順序無視による照合について,文字を照合要素とした場合,非平仮名キーワード列を照合要素とした場合との組み合わせによる検索結果を示している.欄中の最初の数値が検索要求総数(87件)の中で10位以内で検索に成功した数を示し,括弧の中は平均検索成功率を示している.\begin{table}[htb]\label{kekka_hyouka}\caption{上位から10番目までの平均検索成功率}\begin{center}\footnotesize\tabcolsep=3pt\begin{tabular}{c|p{7zw}|p{7zw}}\hline照合方式&文字&キーワード\\\hline\hline順序保存&52\(59.8\%)&61\(70.1\%)\\\hline順序無視&44\(50.6\%)&55\(63.2\%)\\\hline\end{tabular}\end{center}\end{table}明らかに,順序保存による照合が,順序無視に比べて平均検索成功率で優位にあることが分かる.同様に,照合要素をキーワードとした照合が,文字に比べて優位にあることが分かる.以上の結果から,本提案方式の順序保存・キーワード照合の組み合わせが優位にあり,上位10位以内で$70.1\%$の平均検索成功率を示している.\subsubsection{平均到達度数による評価}次に,平均到達度数をキーワード列を用いた順序保存による照合と順序無視による照合との計算結果を表~\ref{kekka_one}に示す.その結果,順序保存による照合方式の平均到達度数は5.01となり,順序無視による照合に比べて0.24優位にあることが分かる.一方,検索に成功した場合の平均到達度数では,逆に0.24の差がある.このように,上位10位以内に適合手話単語が含まれる場合,両者とも平均すると検索結果の上位3位以内に適合手話単語が位置していることを示している.\begin{table}[htbp]\caption{非平仮名キーワード列による検索結果}\label{kekka_one}\begin{center}\footnotesize\tabcolsep=3pt\begin{tabular}{c|c|c}\hline照合方式&成功時の平均到達度数&全検索要求に対する平均到達度数\\\hline\hline順序保存&2.99&5.01\\\hline順序無視&2.75&5.25\\\hline\end{tabular}\end{center}\end{table}\subsubsection{有用性の観点からの評価}図\ref{sample_hyouka}に評価結果の例を示す.この例の場合,入力された検索記述文の手話単語は【競技】であり,第1位で検索されたものが対応し,評価Aが与えられる.また,【競う】,【試験】は「手の動き」が異なる最小対であり\footnote{明らかに,図\ref{sample_hyouka}に示した「競う」と「試験」は同一の手話表現である.},【売買】は「手の形」が異なる最小対であり,いずれも評価Bとなる.一方,【話】は「手の形」と「手の位置」が異なるため,最小対とは認められず,評価Cとなる.その結果,検索結果全体の総合評価値は,AとBを含むため,最良値として,{\bfAB}のグレードが与えられる.\begin{figure}[tb]\setbox0\vbox{\footnotesize\tabcolsep=3pt\hbox{\|【競技(137)】=(競技):親指を立てた両手を交互に前後させる|}\hbox{\|keytoken(4)=親指立交互前後|}\hbox{\|--------------------------------------------------------------|}\hbox{\|A10.800lcs(4)m(5)【競技】親指立交互二度前後|}\hbox{\|B20.450lcs(3)m(5)【競う】親指立交互二三度上下|}\hbox{\|B30.375lcs(3)m(6)【試験】親指左右立二度交互上下|}\hbox{\|C40.321lcs(3)m(7)【話】人差指立口前二度交互前後|}\hbox{\|B50.281lcs(3)m(8)【売買】|}\hbox{\|親指人差指輪作左右交互前後動|}}\centerline{\fbox{\hboxto\textwidth{\hss\box0\hss}}}\caption{検索結果の有用性の評価例}\label{sample_hyouka}\end{figure}評価結果を表~\ref{Hyouka}に示す.総合評価が{\bfB}以上は71個で,全体の81.6\%である.また,総合評価が{\bfC}以上は78個で,全体の89.7\%を示している.このことから,検索に成功した場合には,類似の動作特徴を含む他の手話単語との比較が可能であり,適合手話表現と類似手話表現との弁別特徴の差や,意味の類似性や相違性を確認できるなど,手話単語の学習効果に貢献する有用な情報が検索できたといえる.\begin{table}[htb]\caption{検索結果の有用性の評価}\label{Hyouka}\begin{center}\footnotesize\tabcolsep=3pt\begin{tabular*}{\columnwidth}{@{\hspace{\tabcolsep}\extracolsep{\fill}}c|p{2zw}|p{2zw}|p{2zw}|p{2zw}|p{2zw}|p{2zw}|p{2zw}|r}\hline評価値&\multicolumn{1}{c|}{\bfAB}&\multicolumn{1}{c|}{\bfAC}&\multicolumn{1}{c|}{\bfA}&\multicolumn{1}{c|}{\bfBC}&\multicolumn{1}{c|}{\bfB}&\multicolumn{1}{c|}{\bfC}&\multicolumn{1}{c|}{\bfF}&\multicolumn{1}{c}{合計}\\\hline\hline計&\multicolumn{1}{r|}{52}&\multicolumn{1}{r|}{9}&\multicolumn{1}{r|}{0}&\multicolumn{1}{r|}{8}&\multicolumn{1}{r|}{2}&\multicolumn{1}{r|}{7}&\multicolumn{1}{r|}{9}&\multicolumn{1}{r}{87}\\\hlineA区分総計&\multicolumn{3}{c|}{61\(71.1\%)}&\multicolumn{4}{c|}{26\(29.9\%)}&87\\\hlineB区分総計&\multicolumn{5}{c|}{71\(81.6\%)}&\multicolumn{2}{c|}{16}&87\\\hlineC区分総計&\multicolumn{6}{c|}{78\(89.7\%)}&9&87\\\hline\end{tabular*}\end{center}\end{table}一方,該当手話単語の検索に失敗した場合には,その中の38.5\%は適合手話単語の最小対を,また,65.4\%は類似の動作特徴を含む手話単語の検索に成功していることから,利用者が「この表現は,ちょっと違うんだけど,よく似てる」と判断した場合,その辞書記述文を新たな検索記述文として再利用できる可能性がある.すなわち,検索のリカバリー処理を同じ枠組で実現できる.この場合,次章で議論するように,辞書側の手指動作記述文の正規化がリカバリー処理による検索成功率を向上させるための課題である.これらの評価結果から,検索結果の上位10位以内に,検索要求に適合する手話単語を含む割合は約70\%であり,平均すると上位から5個程度までを調べれば,当該手話単語を見つけられる.また,最小対などの類似の動作特徴を含む手話単語を検索結果に含んでおり,手話単語の学習効果の向上に貢献し,上位での検索に失敗した場合のリカバリー処理にも利用できる有用な情報を含む手話単語(辞書記述文)を検索しているなど,本論文で提案した手話単語の検索方法の妥当性を示す結果が得られたと考える. \section{検討} 本章では,実験により明らかになった問題点と今後の課題について議論する.特に,上位での検索に失敗した検索結果を分析し,検索例を示しながら議論を行う.ここで取り上げる問題の幾つかは,本論文で提案した手法に限らず,他のアプローチによる手話単語の検索方法にも共通の課題を含んでいると考える.\subsection{手指動作記述文の解釈における曖昧さ}実験により明らかになった問題点の1つは,同一の手指動作記述文の表す手指動作表現の解釈に,曖昧さがある点である.すなわち,文が複数の解釈を持つ場合があるという自然言語表現に特有の多義性の問題と捉えることができる\footnote{人工言語と自然言語の違いは,この多義性の有無といわれ,自然言語処理はこの多義性の問題との取り組みが重要な課題といえる.}.その結果,検索記述文に非常に類似した辞書記述文が検索された場合でも,利用者の意図した検索要求の手話表現とは,まったく異なる手話表現が上位で検索されてしまう問題である.例えば,手話単語の日本語ラベル【太陽】の検索記述文に対する検索結果の例を図\ref{fig:ambiguity}に示す.なお,図中の点線の下部は検索結果を示し,1番目の数字は順位を示し,2番目の数値は類似度を示す.また,``{\ttlcs}''の括弧付きの数字は順序保存による共通キーワード数,``{\ttm}''の括弧付きの数字は辞書記述文のキーワード数をそれぞれ示している.\begin{figure}[tb]\setbox0\vbox{\footnotesize\tabcolsep=3pt\hbox{\|【太陽(137)】=(太陽):両手の親指と人差指で輪を作り上げる|}\hbox{\|keytoken(5)=親指人差指輪作上|}\hbox{\|--------------------------------------------------------------|}\hbox{\|10.625lcs(5)m(8)【上がる(値段などが)】|}\hbox{\|親指人差指輪作並同時上上|}\hbox{\|20.556lcs(5)m(9)【木曜日】|}\hbox{\|親指人差指大輪作上上左右開|}}\centerline{\fbox{\hboxto\textwidth{\hss\box0\hss}}}\caption{手指動作記述文の解釈に曖昧さがある例}\label{fig:ambiguity}\end{figure}ここで,検索記述文「両手の親指と人差指で輪を作り上げる」が意図する手話表現は,『両手を使って太陽を模倣した{\bf大きな輪を1つだけ}作り,それを上にあげる』という手指動作を意味している.一方,第1位で検索された手話単語の日本語ラベル【上がる(値段などが)】の手話表現は,『右手と左手のそれぞれで親指と人差指を使って{\bf小さな輪}を作り\footnote{「お金」の意味として,しばしば用いられる手話表現の1つである.},その{\bf2つの輪を}並べて同時に上に上げる』手指動作を意味している.このように,両手を用いた表現に対して,検索側と辞書側の記述文の解釈に差が生じる場合がある.しかし,類似の文構造を持つ「両手の親指と人差指を立て(伸ばし)て〜」などでは,手話表現に上記のような2つの解釈は生じない.また,同様な多義性を持つものとして,「親指と人差指(の指先)を付け合わせる」の例を考えてみる.片手でこの表現を自然に行うと,いわゆる「小さな輪」になるであろう.一方.両手で表現する場合には,大きな輪以外に四角や三角も表現できる可能性がある.そのため,可能な解釈を絞り込む情報が付加された,「両手の親指と人差指(の指先)を付け合わせて輪を作り〜」のような,冗長な表現とも取れる手指動作記述文が,実験で用いた辞書記述文に存在する.さらに,第2位で検索された【木曜日】の例では,「輪」に関する解釈はほぼ一致しているが,【太陽】の輪は,動作主である人間の身体に対して平行な位置関係であるのに対し,【木曜日】のそれは,垂直な位置関係で表現する違いがある.この位置関係の差に関する情報は,検索側と辞書側の記述文には陽に表現されていない.実験に用いた手指動作記述文は,市販の手話辞典に記載のものであり,イラストとの併用を前提として記述されているため,イラストで理解できる情報の一部が手指動作記述文から省略されている場合がある.\subsection{語彙の多様性}次に,構造的な解釈の曖昧さと同様に,語彙的な表現の差が検索結果に与える影響について議論する.図\ref{fig:ambiguity2}に,辞書側の【太陽】の記述文から抽出されたキーワードを示す.ここで,「輪」が「丸」,「作(る)」が「表現」というように,使われている表現が異なるため,文字列照合の不一致が類似度に反映されない問題である.そこで,表\ref{dougi}に示したキーワード間の同義置換表に,この2つの同義関係(輪,丸)と(作,表現)を追加した結果,図\ref{fig:ambiguity3}に示すように,同順位で第2位で検索されることを確認した.このように,今後,キーワード間の同義置換表を整備することで検索精度を向上できる可能性がある.しかし,同義置換表による「同一視」は,安易な追加・変更が文字列の照合処理に副作用を生じる可能性もあり,同義置換表の拡充・利用法の検討は今後の課題とする.\begin{figure}[tb]\setbox0\vbox{\footnotesize\tabcolsep=3pt\hbox{\|【太陽(137)】=(太陽):両手の親指と人差指で輪を作り上げる|}\hbox{\|keytoken(5)=親指人差指輪作上|}\hbox{\|--------------------------------------------------------------|}\hbox{\|(中略)|}\hbox{\|190.200lcs(3)m(9)【太陽】|}\hbox{\|親指人差指丸形表現上上輪頭上|}}\centerline{\fbox{\hboxto\textwidth{\hss\box0\hss}}}\caption{辞書記述文と検索記述文の違い}\label{fig:ambiguity2}\end{figure}\begin{figure}[tb]\setbox0\vbox{\footnotesize\tabcolsep=3pt\hbox{\|【太陽(137)】=(太陽):両手の親指と人差指で輪を作り上げる|}\hbox{\|keytoken(5)=親指人差指輪作上|}\hbox{\|--------------------------------------------------------------|}\hbox{\|10.625lcs(5)m(8)【上がる(値段などが)】|}\hbox{\|親指人差指輪作並同時上上|}\hbox{\|20.556lcs(5)m(9)【太陽】|}\hbox{\|親指人差指丸形表現上上輪頭上|}\hbox{\|20.556lcs(5)m(9)【木曜日】|}\hbox{\|親指人差指大輪作上上左右開|}}\centerline{\fbox{\hboxto\textwidth{\hss\box0\hss}}}\caption{同義置換表の変更による検索結果の違い}\label{fig:ambiguity3}\end{figure}\subsection{視点の違いによる記述表現のゆれ}\label{douitsushi}\begin{enumerate}\item指先を上に向けて付け合わせた両手を左右に引き離す\item掌を前方に向けて付け合わせた両手を左右に引き離す\end{enumerate}上記の(1)と(2)に示した手指動作記述文は,同一の手話表現を表し,(1)が検索記述文であり,(2)が辞書記述文の適合文である.結果として,検索結果の上位では(2)は検索されなかった.上位で検索されたものは,すべて共通のキーワード列「指先,付,合,左右」をこの配列順序で照合されたものであった.このキーワード列から類推できるのは,「指先を付け合わせた手の形」が自然であり,前節で議論した「輪」の表現に相当する.このため,「手の形」が異なる類似の手指動作特徴を含む手話表現(手話単語)は上位で検索されたが,利用者の第一義的な要求に応える検索結果を上位で提供できないという問題である.一般に,2つのオブジェクトがある位置関係を持つ場合,その位置関係を文で記述するには2つの視点が考えられる.例えば,「Aの左にBがある」と「Bの右にAがある」の関係である.手話単語の手指動作表現を記述する場合,(1)と(2)で記述される手話表現の手の形は,基本形の1つであり,「掌の方向」と「指先の方向」は連動して変化する場合が多い.例えば,「掌を下に向ける」ことは「指先を前方に向ける」ことになる.この「視点」すなわち,手指動作特徴のどこに焦点をおき,手指動作記述文を記述するかについて,実験に使用した2つの手話辞典では,辞書記述文と検索記述文のいずれでも統一はされていない.このように,手指動作記述文の正規化の問題は,前節の議論と同様に,本提案手法の検索精度を向上させる上で重要な課題の1つといえる.なお,今回の実験では,市販の手話辞典に記載の手指動作記述文を辞書記述文と検索記述文の双方に用いているため,顕在化していないが,実際に利用者の検索記述文を入力とする場合に考慮すべき「視点の問題」として,左右方向の逆転現象がある.手話辞典の多くは,手話表現の動作主体から見た左右方向を記述している.一方,利用者は手話表現の動作主体と対面する形で手話表現を見ているため,利用者から見た左右の方向を記述してしまう傾向がある.しかし,この利用者が間違った記述をしたか否かの判断は,検索システム側では対処不能と考える.\subsection{動作表現の認識に関する曖昧さ}手話単語の検索問題では,この語彙に関する問題以上に,利用者側の手話表現の捉え方と辞書側の手話表現の捉え方が問題となる.前述した事例以外に,(a)「両手を二度ほど下におろす」表現と(b)「両手を上下に動かす」表現を「同一視」するか否かである.厳密には,(a)はある始点位置を動作の上限位置と定め,その範囲で下方に二度,両手を下げることを意味し,(b)はある始点位置を基準に上方/下方両方の範囲で両手を上げ下げすることを意味すると捉えることができる.辞書側で(a)を「手を下にだけ動かす」手話単語群に分類し,(b)を「手を上下双方に動かす」手話単語群に分類していた場合,利用者が(a)を「上下運動」と捉えたなら,(b)に分類された手話単語群しか検索されないことになる.このように,この問題は,動作表現を言葉で表現した手指動作記述文を用いる本論文で提案するアプローチだけでなく,検索項目や検索条件を詳細に設定する(すなわち,これらの基準で分類された検索辞書を用いる)従来のアプローチにも共通の問題と捉えることができる.次節では,これらの議論を基に,手指動作記述文の正規化の方法と利用について検討する.\subsection{手指動作記述文の正規化の方法と利用}2章で述べたように,手指動作記述文で用いられる語彙は,通常の日本語文と比べて制約が強く,文形式にパターンが存在すると捉えることができる.一般に,このような制限された文を受理する有限オートマトンは比較的容易に構成できることが知られている.すなわち,正規文法で手指動作記述文の構文規則を記述できる可能性がある.この文法を構成することは,検索記述文と辞書記述文の両方を正規化する言語処理的かつ汎用性のあるアプローチといえる.一方,\cite{AdachiHisahiro1998}は限られた動作に限定しているが,人物を背景画像とするパレット上でのマウスの位置とその移動軌跡に基づき,正規化された手指動作記述文を生成し,検索記述文とする検索アプローチを提案している.これは,前節で議論した視点や曖昧さの問題に対する1つの解と考えることができる.すなわち,検索記述文を辞書記述文に近づける正規化の試みの1つと捉えることができる.また,\cite{AdachiHisahiro1999}は,手指動作記述文が手話表現を生成する手続き文(プログラム)と捉えた手話アニメーションの生成方法について報告している.これら一連の研究では,手指動作記述文を電子化辞書の情報の中心に据え,言語と画像の接点として,手話単語の検索と生成を同じ枠組で構成しようとする提案である.今後の展開を期待する試みの1つである.実験では,「両手」を文の特徴付けに寄与しない不要語とみなし,手の形を記述する部分が「両手」に対して前置される場合と後置される場合の照合洩れを抑止する戦略を採った.一方,手指動作記述文の正規化,特に,単語の配列(文形式)に関して,このキーワード「両手」は有効利用できる可能性がある.すなわち,「手の形」の手指動作特徴は「両手」の前に置くように正規化する方法である.これにより,キーワード照合の際に,「両手」の前部と後部を分けて照合すれば,前部は「手の形」に関する類似性であることが明確になり,「手の形」を無視(手の位置と動きに注目)した検索や「手の形」に注目した検索など,検索手段の幅が広がる可能性があると考える.本手法では,キーワードに対して重み付けは考慮していない.手指動作特徴の各パラメータに関連するキーワードに重み付けをし,類似度の計算に反映させる枠組の検討は,今後の課題である.ここで,これまでの議論をまとめると,本論文で提案した検索方法は,手話単語の特徴構造を言語表現に写像した手指動作記述文を用いた検索方法であり,手話単語の検索問題を文献検索問題と捉えた点に特徴がある.この手指動作記述文は一般の自然言語文に比べて構文的にも語彙的にも制限のある文集合と捉えることができる.一方,このような制約のある文集合でも,自然言語表現の持つ特徴である「多義性」や「多様性」に起因する「解釈の曖昧さ」という自然言語処理全体に共通の問題点を解消する必要がある.この「曖昧さ」を除去するには,手指動作記述文から得られる情報と得られない情報を区別し,得られる情報でも現在は無視している部分(辞書記述文と検索記述文で共通でないキーワードの数やキーワードの持つ意味)を類似度の計算に組み入れる検討と,与えられた文からは得られない情報(利用者が手話表現を認知する場合の視点や省略された手指動作特徴など)については,\cite{AdachiHisahiro1998}の手法のように,言語処理の枠組内ですべて解決するのではなく,言語表現以外の手段により,得られた情報を基に正規化された言語表現を再構成し,検索記述文とするアプローチなども考慮しながら検討する必要がある.このように,本論文で提案した手法を実用レベルの検索精度に高めるには,ここで議論した手指動作記述文の正規化の問題を解決する必要があるなど,残された課題は少なくない.また,検索に失敗した場合の効果的なリカバリー処理についても,今後,検討する必要がある. \section{おわりに} 従来の手話単語の検索方法が,利用者に検索項目や検索条件を詳細に設定させ,検索単語の候補を絞り込むアプローチを採用していたため,初心者には適切な設定が困難であり,かつ煩わしく,その結果として,選択ミスを生じやすく,検索精度を低下させる問題点があった.本論文では,従来の検索項目や検索条件を設定する代わりに,手指動作記述文を用いた手話単語の検索方法を提案した.本手法の特徴は,与えられた入力文に類似している辞書中の手指動作記述文を検索し,対応する手話単語の日本語ラベルを提示する点にある.すなわち,手話単語の検索問題を文献検索問題と捉えたアプローチといえる.両手同形の手話単語を対象に検索実験を行った結果,本手法の妥当性を示す結果が得られた.また,実験により明らかとなった,手話表現を日本語文で記述した場合に生じる手指動作記述文の曖昧さに関する問題について検討を行った.今後の課題として,入力された手指動作記述文の曖昧さの検出,検索に失敗した場合のリカバリー処理の検討,および文の正規化による検索精度の向上が挙げられる.\acknowledgment本研究を進めるにあたり,有益なご示唆,ご討論を頂いた宇都宮大学鎌田一雄教授,熊谷毅助教授に心より感謝する.また,データ整理,実験等に協力頂いた研究室の学生諸氏に感謝する.なお,本研究の一部は文部省科研費,厚生省科研費,実吉奨学会,電気通信普及財団,放送文化基金,トヨタ自動車,栢森情報科学振興財団,大川情報通信基金の援助によった.\bibliographystyle{jnlpbbl}\bibliography{C}\begin{biography}\biotitle{略歴}\bioauthor{安達久博}{1981年宇都宮大学工学部情報工学科卒業.1983年同大学院工学研究科修士課程修了.同年,東京芝浦電気株式会社(現.(株)東芝)入社.同社総合研究所情報システム研究所に所属.この間,(株)日本電子化辞書研究所(EDR)に出向.1992年より宇都宮大学工学部助手.博士(工学).現在,聴覚障害者の情報獲得を支援する手話通訳システムに関する研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,日本認知科学会,計量国語学会,各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V20N04-01
\section{はじめに} 近年,新聞やWeb上のブログだけではなく,ツイートや音声対話ログなど様々な分野のテキスト情報を利用することが可能である.これらの多様なテキストから欲しい情報を抽出する検索技術や,有益な情報のみを自動で抽出・分析するテキストマイニング技術では,表現の違いに頑健な意味を軸にした情報抽出が求められている.たとえば,お客様の声を分析するコールセンタマイニング(e.g.,那須川2001)では,下記のa,bの表現を,「同義である」と正しく認識・集計する必要がある.\eenumsentence{\itemメモリを\underline{消費している}\itemメモリを\underline{食っている}}\eenumsentence{\itemキーボードが\underline{壊れた}\itemキーボードが\underline{故障した}}検索においても,「キーボード壊れた」で検索した際に,「キーボード故障した」が含まれているテキストも表示されれば,よりユーザの意図を理解した検索が行えると考えられる.テキストマイニングのようなユーザの声の抽出・分析において重要となるのは,「消費している」,「壊れた」などといった述部である.述部は,文情報の核を表しており,商品の評判(e.g.,満足している)や苦情(e.g.,壊れた,使いにくい),ユーザの経験(e.g.,堪能した)や要望(e.g.,直してほしい)などを表す.しかし,あらゆる分野,文体のテキストを対象とした場合,述部の多様性が顕著になる.たとえば,「正常な動作が損なわれる」という出来事を表現する場合,新聞などフォーマルな文書では「故障する」と表現されることが多いが,ブログなどインフォーマルな文書では「壊れる」と表現されることが多い\footnote{2007年の毎日新聞では,「故障する」と「壊れる」の出現頻度の比が「1:2.5」である.一方,2007年4月のブログでは「故障する」と「壊れる」の出現頻度の比が「1:42」であり,「壊れる」と「故障する」は意味が完全に1対1対応するわけではないものの,出現頻度の比がテキストによって大きく異なる.}.テキストの種類により同じ出来事でも異なる文字列で表現されるため,異なる分野のテキストを統合した情報抽出や,テキストマイニングを行う場合は,述部の同義性を計算機で正しく認識して分析しなくてはいけない.述部の同義性を計算機で識別することができれば,テキストマイニングなどにおいて,同義表現を正しくまとめ上げ,高精度に集計・分析を行うことが可能となる.また,検索技術においては,表現が異なるが同じことを表しているテキストを拾い上げることができ,再現率の向上が期待できる.本稿では,日本語の述部に焦点を置き,異なる2つの述部が同義か否かを判別する述部の同義判定手法を提案する.既存の手法では,単一のリソースにのみ依存しているために,まとめ上げられる述部の数が少ないという再現率の問題や,異なる意味のものまで誤ってまとめ上げてしまうという精度の問題がある.そこで本稿では,述部の言語的構造を分析し,同義述部の認識という観点で必要な「述部の語義(辞書定義文)」,「抽象的な意味属性(用言属性)」,「文脈(分布類似度)」,「時制・否定・モダリティ(機能表現)」といった言語情報を複数の言語リソースから抽出することで,精度と再現率の双方のバランスをとった述部のまとめ上げを行う.なお,本稿では「消費/し/て/いる」などの「内容語+機能表現」を述部と定義し,「メモリを‐消費している」と言った「項‐述部」を単位として述部の同義判定を行う.本稿の構成は次のとおりである.2節では,関連研究とその問題点について論じる.3節では,述部の言語構造について論じる.4節では,本稿の提案手法である複数の言語的特徴を用いた同義判定について述べる.5節では,同義述部コーパスについて述べる.6節,7節では述部の同義判定実験とその考察を行う.8節は結論である. \section{関連研究} \subsection{辞書を用いた言い換え研究}2つの異なる表現が同義か否かを判別する研究のひとつとして,述部を対象にした言い換え研究がある.藤田・降幡・乾・松本(2004)は,語彙概念構造(LexicalConceptualStructure;Jackendoff1992;竹内,乾,藤田2006)を用いて,「株価の変動が為替に\underline{影響を与えた}」のような述部が機能動詞構造で構成されている文を,「株価の変動が為替に\underline{影響した}」といった単純な述部に変換する言い換えを行っている.同様に,鍜治・黒橋(2004)は,「名詞+格助詞+動詞」の構造をもつ述部を対象に,「非難を浴びる」と言った迂言表現や,「貯金をためる」と言った重複表現の認識と言い換えを,国語辞典からの定義文を手掛かりに行っている.松吉・佐藤(2008)は,階層構造化された日本語の機能表現辞書(松吉,佐藤,宇津呂2007)をもとに,「やる\underline{しか/ない}」の機能表現にあたる「しか/ない」を,「やら\underline{ざる/を/得ない}」という別の表現に自動で言い換える方法を提案している.述部を対象とした言い換えの研究を用いて,複数の言い換え表現をあらかじめ生成することで,本稿が目的とする同義述部のまとめ上げが可能である.しかし,語彙概念辞書などの特殊な言語リソースを用いて言い換えを生成する場合,リソースの規模が十分でなければ,ブログなどの幅広い表現を扱う際にカバレッジが問題となる.\subsection{コーパスからの分布類似度計算}2つの異なる表現の意味が似ているか否かを判定する研究に,大量のコーパスを用いた分布類似度の研究がある(Curran2004;Dagan,Lee,andPereira1999;Lee1999;Lin1998).分布類似度とは,文脈が似ている単語は意味も似ているという分布仮説(Firth1957)に基づき,対象の単語の周辺に現れる単語(文脈)を素性として計算される単語の類似度である.SzpektorandDagan(2008)は,``Xtakesanap''と``Xsleeps''の関係のように,述部と1つの変数を単位として分布類似度計算を行い,述部を対象に含意ルールの獲得を行った.柴田・黒橋(2010)は,「景気が\underline{冷え込む}」の「冷え込む」と「景気が\underline{悪化する}」の「悪化する」のように組み合わさる項によって同義になる表現をも考慮し,大規模コーパスから項と述部(e.g.,景気が‐悪化)を単位にした分布類似度ベクトルを用いて同義語獲得を行った.大規模コーパスから周辺単語を用いて単語の意味類似度を測る分布類似度計算は,WordNetなどの特定の言語リソースを用いる手法に比べてバリエーションに富んだ表現を獲得することが可能である.しかし,分布類似度計算には柴田・黒橋(2010)で述べられているように,2つの問題がある.1つ目は,反義関係にある単語の類似度が高くなってしまう問題である.「泳ぎが\underline{得意だ}」と「泳ぎが\underline{苦手だ}」のように,反義関係の単語は同一の文脈で現れることができ,結果として類似度が高くなる.2つ目は,時間経過を表す述部同士の類似度が高くなる問題である.たとえば,「(小鼻の脇などの狭い場所には)ブラシを使って粉を取って,(粉を)つけます」の「粉を取る」と「粉をつける」のような時間経過の関係にある述部の場合,下記のように類似した文脈で出現しやすい.\enumsentence{「粉を取る」と「粉をつける」の文脈の例\begin{gather*}\left.\begin{array}{l}\text{\textbf{ブラシを使う}}\\\text{\textbf{パフを使う}}\\\text{水で洗う}\\\cdots\end{array}\right\}\text{粉を取る}\left\{\begin{array}{l}\text{袋に入れる}\\\text{\textbf{肌に乗せる}}\\\text{粉をつける}\\\cdots\end{array}\right.\\\left.\begin{array}{l}\text{\textbf{ブラシを使う}}\\\text{\textbf{パフを使う}}\\\text{形を整える}\\\cdots\end{array}\right\}\text{粉をつける}\left\{\begin{array}{l}\text{卵に通す}\\\text{\textbf{肌に乗せる}}\\\text{粉を落とす}\\\cdots\end{array}\right.\end{gather*}}2つの文があった場合,双方とも「ブラシを使う」や「パフを使う」という「項‐述部」を共有しているため,「粉を取る」と「粉をつける」という時間経過を表す述部同士の類似度が高くなってしまう.YihandQazvinian(2012)は,WikipediaとWebスニペットを用いて計算した分布類似度や,WordNetなどのシソーラスで計算された類似度を統合することで,語の関連度を計算している.しかし,複数の類似度の平均値をとっているだけであり,それぞれの類似度に重みづけがされていない.また,類似度のみを手掛かりとしているため,反義表現と同義表現の識別は困難である.\subsection{教師あり学習を用いた同義判定}教師あり学習として同義表現の識別や獲得を行っている研究としてHashimoto,Torisawa,DeSaeger,Kazama,andKurohashi(2011)がある.Hashimotoetal.(2011)では,Webコーパスから定義文を自動で抽出し,同じコンセプトを表している定義文ペアから大量の言い換え表現を獲得している.例えば,``Osteoporosis(骨粗鬆症)''というコンセプトを定義している文のペアから,``makesbonesfragile(骨がもろくなる)''と``increasestheriskofbonefracture(骨折リスクを高める)''といった言い換え表現を獲得している.しかし,Hashimotoetal.(2011)では,言い換え表現の獲得に定義文を用いているため,獲得される表現は必ず何らかのコンセプトを説明している表現(もしくはその一部)になる.そのため,対象の同義表現によって説明されるコンセプトが存在しない場合は,定義文からそれら同義表現を獲得することが不可能である.例えば,「食パン‐が‐出来上がった」と「食パン‐が‐焼けた」のような表現で定義されるコンセプトは想像が難しいため,定義文にも出現しづらい表現であると考えられる.本稿が目的とする意見集約などのマイニングにおけるまとめ上げを行うためには,定義文に出てこない表現(すなわち,それらの表現によって説明されるコンセプトが存在しない場合)に対するカバレッジを補う必要がある.つまり,定義文という制約を加えずにブログなどの多様な表現を含む幅広い言語リソースを用いて,高い精度で同義表現の識別をする必要がある.Hagiwara(2008)は,分布類似度の素性と文中の単語ペアの統語構造を組み合わせて,教師あり学習の識別問題として,分布類似度単体よりも高精度に同義識別を行った.しかし,Hagiwara(2008)の手法では,コーパスからの言語情報のみしか用いておらず,分布類似度が不得意とする反義単語と同義単語の識別の有効性については述べられていない.Turney(2008)は,同義語(synonym)・反義語(antonym)・関連語(association)という3つの異なる意味関係を表す単語ペアを対象に,コーパスの周辺単語情報を素性とした識別学習を行った.Turney(2008)の手法は,あらゆる意味関係もひとつのアルゴリズムで分類できるという点で有益だが,彼が述べているように,同義を認識するタスクに特化した場合,複数のアルゴリズムや言語情報を組み合わせた手法(Turney,Littman,Bigham,andShnayder,2003)に対して精度が劣ってしまう.Weisman,Berant,Szpektor,andDagan(2012)は,``snore(いびきをかく)''と``sleep(寝る)''といった含意関係(snoreはsleepを含意する)にある動詞ペアを対象に,文,文書,文書全体それぞれにおける動詞ペアの共起情報を用いて含意関係の認識を行った.含意関係を認識するうえで必要な情報を言語学的に分析し,動詞のクラスや,副詞を素性とした分布類似度など新しい言語情報を入れることで,既存の手法に比べて高精度に含意関係の認識を行った.しかし,Weismanetal.(2012)は英語の動詞を対象としており,素性も英語に特化したものがある.例えば,``coverup''のようなphrasalverbs(句動詞)に対して,``up''などのparticleと共起しやすいかを手掛かりに,動詞の意味の一般性を計測しており,英語のような句動詞をもたない日本語で同様の事を行うのは困難である.また,日本語のように動詞以外の単語が述部に現れたり,複数の文末表現と組み合わさって述部を構成する言語を対象にする場合には,それらの意味を表現する素性を工夫する必要がある. \section{述部の言語的特徴} 2節で述べたように,既存手法を日本語の述部の同義判定にそのまま適用した場合,再現率もしくは精度に問題が出る.そこで,本節では述部の同義性を正しく計算機で判別するために必要な情報を考察するため,述部の言語構造を言語学的な視点で分析する.本稿の対象である述部は,(4)のように内容語と複数の機能語の集まりである「機能表現」(松吉他2007)で構成されている.「/」は形態素の区切りを表す.\enumsentence{捨て/【内容語】なく/て/は/いけ/ない【機能表現】}述部の主な意味は,動詞,形容詞,形容動詞,名詞などの内容語が担っており,機能表現は内容語で表現される意味に対し,時制(アスペクト),モダリティ,否定などの意味を加えている(Narrog2005;Portner2005).ここで,述部の主な意味を担っている内容語の言語構造を考える.図1はRamchand(2010,p.~4)から抜粋した動詞``run''の言語的情報を,複数の言語レベルに分類したものである\footnote{これらの情報が人間の言語理解のどのレベルに存在するかは複数の議論が存在するが,それらは本稿の趣旨とは異なるためここでは論じない.}.図1の,``$+$dynamic''と``-telic''は,``run''という動詞そのものが,動作の変化を伴う動詞であるが($+$dynamic),動作に終点がない動詞(-telic)であることを表している(Dowty(1979)の``Activities'',金田一(1976)の「継続動詞」を表している).\begin{figure}[b]\begin{center}\includegraphics{20-4ia1f1.eps}\end{center}\caption{動詞``run''の言語構造}\end{figure}図1が表すように,述部の意味を考えた場合,複数の言語レベルの要素が絡み合って意味を構成していることがわかる.我々が知らない単語に出くわした場合,その単語の意味を理解するために,辞書を引いたり(Lexical-Encyclopedicinformation),周辺単語を手掛かりに推測したり(Syntax,Context),また見覚えのある単語であればその本来の意味から派生されそうな意味(Semantic)を考え,対象単語の言語情報をできるだけ集めて意味を理解する.さらに,時制や否定,モダリティ表現なども手掛かりに,述部の意味を推測する.つまり,図1の複数の言語的情報を埋めていくことで,意味を理解すると考えることができる\footnote{Phonetics/Phonologyのような音の情報に関しては,オノマトペを除き意味と直接かかわりがないため,本提案手法の言語情報には取り入れない.}.計算機に意味を理解させるためには,これらの複数の言語的特徴を与えなくてはいけないと言える.そこで,本稿では述部の言語情報を複数のレベルに分類し,同義述部の認識という観点で必要な情報を用いて,計算機に同義の述部を認識させる. \section{提案手法:複数の言語的特徴を用いた同義判定} \begin{figure}[b]\begin{center}\includegraphics{20-4ia1f2.eps}\end{center}\caption{同義判定処理フロー}\end{figure}本稿では,述部の同義判定を行うために,4つの言語情報を素性とし,識別学習を用いて同義か否かを判定する.処理の流れを図2に示す.4つの言語情報は,「辞書定義文」,「用言属性」,「分布類似度」,「機能表現」である.以下に素性の具体的な説明を行う.\subsection{辞書定義文を用いた相互補完性・定義文類似性}述部の同義性を判別するためには,まず単語そのものの定義が必要となる(Lexical-Encyclopedicinformation).我々が,単語の意味を調べるために辞書を用いるように,本稿でも国語辞書の定義文からの情報を素性として用いる.なお,国語辞書などの定義文は,言い換え研究においても有効性が確認されている.(e.g.,土屋・黒橋2000;藤田・乾2001;鍜治,河原,黒橋,佐藤2003)述部の同義性を判別するという目的で,辞書定義文を考察すると,2つの有益な特徴を見出すことができる.1つ目は,同義の述部同士は,お互いの定義文内に現れやすいという点である.これを,定義文の相互補完性とここでは呼ぶ.下記は,同義述部のペアである「出来上がる」と「完成する」の定義文の一例である.\enumsentence{[出来上がる]\\定義文:すっかりできる.\textbf{\underline{完成する}}.}\enumsentence{[完成する]\\定義文:すっかり\textbf{\underline{できあがる}}こと.全部しあげること.}「出来上がる」の意味を定義するために,同義の「完成する」という述部を用いており,同様に,「完成する」の意味を定義するために,同義の「できあがる(出来上がる)」という述部を用いている.このように,同じ意味をあらわす述部同士は,お互いの定義文内に現れやすいという特徴がある.そこで,2つの述部が与えられた際に,それぞれの述部に対して「相手述部の辞書定義文内に現れるか」という相互補完性の有無を第一の素性として用いる.また,「プリンターが‐動かない」といった「項‐述部」の単位で同義判定を行うため,項(プリンター)もしくは項と同様の名詞クラスが相手の定義文に現れたか否かも素性として用いる.名詞クラスは,日本語語彙大系(池原,宮崎,白井,横尾,中岩,小倉,大山,林1999)の一般名詞意味属性を用いる.次に,意味が似ている述部同士は,定義文同士も似ているという特徴がある.下記は,「高値だ」と「高い」という同義の述部の定義文の一例である.\enumsentence{[高い]\\定義文:買うのに多額の金銭がかかる.量や質にくらべて,\textbf{\underline{値段}}が多い.}\enumsentence{[高値]\\定義文:\textbf{\underline{値段}}が高いこと.高い\textbf{\underline{値段}}.}(7),(8)が示すように,双方の定義文に「値段」という単語が含まれている.そこで,これらの定義文同士の語彙の重なりを,定義文間の内容語の重なり数を用いて素性とする.このように,同義判別に必要なLexical-encyclopedicな情報として,辞書定義文の相互補完性と定義文中の語彙の重なりを素性として用いる.なお,「辞書定義文内に相互補完性があり,かつ片方の述部にのみに否定表現が入っているか否か」を区別する素性も作成した.これは,本稿が機能表現を含んだ述部を対象としており,機能表現に含まれる否定表現が同義関係を逆転させてしまうために特別に組み込んだ素性である.\subsection{用言属性を用いた述部の抽象的意味属性}同義の述部は,辞書的な意味だけではなく,より抽象的な意味レベル(Semantics)でも共通性があると考えられる.例えば(9)の同義述部は,日本語語彙大系(池原他1999)において以下のような用言属性を持つ.\enumsentence{用言属性の例\\a.出来上がる\textbf{\underline{【生成】}}\\b.完成する\textbf{\underline{【生成】}},【属性変化】}双方とも,「新しく何かを作り上げる」事を意味する,「生成」という属性を共通に保持している.そこで,同義判定に必要なSemanticレベルの素性として,日本語語彙大系(池原他1999)の用言属性を用いて,述部同士の抽象的な意味の重なりを抽出する.日本語語彙大系の用言属性には,「生成」,「知覚状態」,「物理的移動」など36種類の用言属性ラベルがあり,それらが階層的に構造化されている(図3).これらの用言属性を用いて,次の2種類の素性を抽出する.1つ目は,共通して保持している用言属性そのものである.(9)の場合,「出来上がる」と「完成する」が共通して保持している「生成」という用言属性を素性として用いる.2つ目は,用言属性の重なり度合いである.(9b)が表すように,1つの述部が複数の用言属性を持つ場合がある.複数の用言属性が付与されている場合,それらの重なりが大きければ大きいほど,2つの述部は似ていると考えられる.また,重なっている用言属性がより具体的であればあるほど,より類似していると考えられる.\begin{figure}[t]\begin{center}\includegraphics{20-4ia1f3.eps}\end{center}\caption{日本語語彙大系用言属性(池原他1999)}\end{figure}そこで,用言属性の重なり度というものを用いて,2つの述部の用言属性の共通性を計算する.より詳細なレベルで用言属性が重なっている方がより共通性が高いと言えるため,重なり度の算出の際に,下層の用言属性に重みをつける.重みは,ヒューリスティックに決定した.下記が,用言属性の重なり度の算出方法である.\[\text{・用言属性重なり度}=\frac{\vbox{\hbox{$(|\text{Pred1の階層1用言属性集合}\cap\text{Pred2の階層1用言属性集合}|)*1$}\hbox{${}+(|\text{Pred1の階層2の用言属性集合}\cap\text{Pred2の階層2の用言属性集合}|)*1.5$}\hbox{${}+(|\text{Pred1の階層3の用言属性集合}\cap\text{Pred2の階層3の用言属性集合}|)*2.0$}\hbox{${}+(|\text{Pred1の階層4の用言属性集合}\cap\text{Pred2の階層4の用言属性集合}|)*2.5$}}}{(|\text{Pred1の用言属性集合}\cup\text{Pred2の用言属性集合}|)}\]これらの用言属性を用いることで,辞書定義文など語義そのものの重なり以外に,抽象的な意味レベル(Semantics)での共通性を素性として用いることができる.\subsection{分布類似度}述部が同義であれば,それら述部が現れる文脈も類似していると考えられる.Firth(1957)で述べられたように,対象の述部がどのような単語とともに現れるかが,述部の意味類似度を測るための重要な言語情報となる.そこで,本稿ではこれらの周辺の項や文脈の情報を,分布類似度の値を用いて表す.分布類似度の計算は,柴田・黒橋(2010)の手法を用いて,「項‐述部」もしくは「述部」を単位として行う.柴田・黒橋(2010)は,「メモリを‐消費している」のような「項‐述部」,もしくは「消費する」という述部を単位(u)として,係り受け関係にある単語を素性に,分布類似度の計算を行っている.素性は,対象の単位(u)に前出する素性をpre,対象の単位(u)に後続する素性をpostとして抽出する.例えば,「ソフトが常駐し,メモリを消費している」というような文があった場合,「メモリを‐消費する」に対して,素性「常駐する:pre」を抽出する.(10)が具体的な素性の種類である.\enumsentence{柴田・黒橋(2010)の類似度計算の単位と素性(e.g.,メモリを‐消費する)}\vspace{0.5\Cvs}\begin{center}\begin{tabular}{p{11zw}|p{22zw}}\hline\multicolumn{1}{c|}{単位(u)}&\multicolumn{1}{c}{素性(f)}\\\hline項‐述部\par``メモリを‐消費する''&前後の係り受け関係にある述部\par-常駐する:pre,立ち上げる:pre,\par-重たくなる:post,固まる:post\\\hline述部\par``消費する''&前後の係り受け関係にある格要素,ならびに述部\par-[格要素]‐カロリーを,燃料を,メモリを\par-[述部]燃焼する:pre,代謝する:pre,\par\phantom{-[述部]}排出する:post\\\hline\end{tabular}\end{center}\vspace{1\Cvs}分布類似度の計算は,Curran(2004)をもとに,下記のようにweight関数とmeasure関数に分けて行う.weight関数は,素性ベクトルの値を適切な値に変換するためのものであり,柴田・黒橋(2010)では,下記のように定義した.・weight関数\[\text{weight}=\begin{cases}1&(\text{MI}>0)\\0&(\text{Otherwise})\end{cases}\]MIは,下記の式を用いて計算する.P(u)は,素性ベクトルを作る対象単位(u)の出現確率を表す(すなわち,「項‐述部」また「述部」の出現確率).P(f)は,対象に対する素性(f)の出現確率を表す(すなわち,対象単位と係り受け関係にある格要素もしくは述部).P(u,f)は分布類似度計算の対象単位とその素性の共起確率である.\[\text{MI}=\log\frac{\mathrm{P(u,f)}}{\mathrm{P(u)P(f)}}\]分布類似度の計算には,JACCARD係数とSIMPSON係数の平均値を用いる.JACCARD係数は,分布類似度を計算する対象(u)(項‐述部もしくは述部)が共通して持つ素性(f)を,それぞれがもつ素性の和集合で割った値である.SIMPSON係数は,2つの対象が共通して持つ素性を,2つの対象の間で素性の数が少ない方の素性の数で割った値である.・measure関数{\allowdisplaybreaks\begin{align*}&\text{measure}=\frac{1}{2}(\text{JACCARD}+\text{SIMPSON})\\&\quad\text{JACCARD}=\frac{|(\mathrm{u1},\ast)\cap(\mathrm{u2},\ast)|}{|(\mathrm{u1},\ast)\cup(\mathrm{u2},\ast)|}\\&\quad\text{SIMPSON}=\frac{|(\mathrm{u1},\ast)\cap(\mathrm{u2},\ast)|}{\min(|\mathrm{u1},\ast|,|\mathrm{u2},\ast|)}\\&\quad\text{where}\\&\quad(\mathrm{u},\ast)\equiv\{f|\text{weight}(\mathrm{u},\mathrm{f})=1\}\end{align*}}上記で算出された,述部および項‐述部を単位とした分布類似度を文脈(Context)の情報として用いる.\subsection{述部の機能表現}述部は「内容語」と「機能表現」から構成されている.この,機能表現の意味そのものも述部の同義性に影響する.\eenumsentence{\item辞書に‐入っ\underline{て/い/ない【てい(る):継続】【ない:否定】}\item辞書に‐載っ\underline{て/い/ない【てい(る):継続】【ない:否定】}\item辞書に‐載る}(11a)と(11b)は,機能表現「て/い/ない」を共有しており,同義述部になるが,機能表現を共有しない(11a)と(11c)は同義ではない.このように,述部の機能表現が重なっているか否かにより,同義か否かが変わってくる.そこで,松吉他(2007)の日本語機能表現辞書を用いて,述部の機能表現に「継続」や「否定」と言った意味ラベルを付与し,対象述部の機能表現の意味ラベルが重なっている場合に,その重なった意味ラベルを素性として抽出する.またどの程度,機能表現の意味を共有しているかを表す指標として,意味ラベルの重なり率を素性として用いる.意味ラベルの重なり率は,下記のように算出する.\[\text{機能表現意味ラベル重なり率}=\frac{(|\text{述部1の意味ラベルの集合}\cap\text{述部2の意味ラベルの集合}|)}{(|\text{述部1の意味ラベルの集合}\cup\text{述部2の意味ラベルの集合}|)}\]以上のように,提案手法では,「辞書定義文」,「用言属性」,「分布類似度」,「機能表現」という4つの異なる言語的特徴を用いて,述部の同義判定を行う.素性の一覧を表1に示す.\begin{table}[t]\caption{素性一覧}\input{01table01.txt}\end{table} \section{同義述部コーパスの作成} 同義判定モデルの作成と提案手法の評価のため,「メモリを‐消費している」のような「項‐述部」を単位とした同義述部コーパスを作成した.2010年4月のブログからランダム抽出した約810万文を対象に,係り受け関係にある「項‐述部」を抽出した.述部は,Izumi,Imamura,Kikui,andSato(2010)を用いて,述部の機能表現から終助詞など出来事の意味に影響を与えない表現を自動で削除し,単純な述部表現に正規化した.項は,日本語語彙大系(池原他1999)の具体名詞に属する名詞のブログ出現頻度上位700語を使用した.抽出した「項‐述部」の集合から,項をキーとして「同義」,「含意」,「推意」,「反義」,「その他」の意味関係に属する述部のペアを抽出した.これらの意味関係を明確にするため,ChierchiaandMcConnell-Ginet(2000)を参考に,異なる2つの述部の意味関係を下記のように5種類に分類し,言語テストを作成した.これに基づき作業者は「同義」,「含意」,「推意」,「反義」,「その他」を判断した.(#は「文法的には正しいが意味的におかしい文」を表す.)・同義(MutualEntailment)定義:表層が異なる2つの述部が同じ出来事(Event)を表している言語テスト1:片方の述部を否定すると,意味が通じない×「\underline{\mbox{述部A}},\textbf{でも,}\underline{\mbox{述部B}}\textbf{という訳ではない}」×「\underline{\mbox{述部B}},\textbf{でも,}\underline{\mbox{述部A}}\textbf{という訳ではない}」例:#「土産を\underline{買った}.\textbf{でも,}(その土産を)\underline{購入した}\textbf{という訳ではない.}」言語テスト2:片方の述部を推測表現(または疑問表現)にすると,意味が通じない×「\underline{\mbox{述部A}},\underline{\mbox{述部B}}\textbf{かも知れない/のか?}」×「\underline{\mbox{述部B}},\underline{\mbox{述部A}}\textbf{かも知れない/のか?}」例:#「土産を\underline{購入した}.(その土産を)\underline{買った}\textbf{かも知れない/のか?}」・含意(Entailment,「衝動買いした」は「買った」を含意する)定義:どちらか一方の述部がもう一方の述部の意味を包含していること言語テスト:含意されている述部を否定することができない×「\underline{\mbox{述部A}},\textbf{でも,}\underline{\mbox{述部B}}\textbf{という訳ではない}」○「\underline{\mbox{述部B}},\textbf{でも,}\underline{\mbox{述部A}}\textbf{という訳ではない}」例:#「土産を\underline{衝動買いした}.でも,(その土産を)\underline{買った}\textbf{という訳ではない}.」○「土産を\underline{買った}.でも,\underline{衝動買いした}\textbf{という訳ではない}.」・推意(Implicature,「(土産が)お買い得だった」は「(土産を)買った」を推測させる)定義:どちらか一方の述部によってもう一方の述部が「自然に推測される」{\addtolength{\leftskip}{4zw}\noindent言語テスト:もう一方の述部が自然に推測されるが,含意と異なり推測される述部を否定することができる\par}○「\underline{\mbox{述部A}},\textbf{でも,}\underline{\mbox{述部B}}\textbf{という訳ではない}」○「\underline{\mbox{述部B}},\textbf{でも,}\underline{\mbox{述部A}}\textbf{という訳ではない}」例:○「土産が\underline{お買い得だった}.でも,\underline{買った}\textbf{という訳ではない}.」・反義(Contradiction)定義:表層が異なる2つの述部において,両方の述部が真であることが成立しない言語テスト:両方の述部を「でも」でつなげると,意味が矛盾する×「述部A.\textbf{でも}述部B」×「述部B.\textbf{でも}述部A」例:#「土産が\underline{多い}.\textbf{でも,}(その土産が)\underline{少ない}.」・その他(Others)定義:異なる2つの述部において意味的な関係がない上記の言語テストをもとに,同義述部コーパスを作成した.コーパスは,1次作業者が述部ペアの作成・意味関係の付与を行い,1次評価者が指針にあっているか否かを評価した\footnote{1次作業者と1次評価者の一致率(kappa率)は0.85であった.}.2人が合意した意味関係を付与したデータを1次データとし,2次作業者と2次評価者(第一著者)が1次データの修正(2次作業者)とそのチェック(2次評価者)を行った.その際,「推意」に関する述部ペアに関しては1次データでの一致率が良くなかったため,本研究のデータから排除した.これは,推意の定義にある「自然に推測される」という判断に個人差があるからだと考えられる.最終的には,「同義」,「含意」,「反義」,「その他」の意味関係に対し,4名の合意が取れた述部ペアを使用した.下記が,作成されたデータの例と総数である.\enumsentence{同義ペア(2,843ペア)\\\begin{tabular}{p{14zw}l}車が‐ぶつかっていた&車が‐衝突していた\\食パンが‐出来上がった&食パンが‐焼けた\\バスが‐発車した&バスが‐発した\end{tabular}}\enumsentence{含意ペア(2,368ペア)\\\begin{tabular}{p{14zw}l}時計を‐チェックした&時計を‐見た\\庭を‐散策した&庭を‐歩いた\\\end{tabular}\begin{tabular}{p{14zw}l}バッグを‐新調した&バッグを‐買った\end{tabular}}\enumsentence{反義ペア(2,227ペア)\\\begin{tabular}{p{14zw}l}車が‐渋滞していた&車が‐流れていた\\食パンを‐購入した&食パンが‐売り切れていた\\バスを‐降りた&バスに‐乗った\end{tabular}}\enumsentence{その他ペア(4,948ペア)\\\begin{tabular}{p{14zw}l}車が‐ぶつかっていた&車を‐止める\\食パンに‐挟んだ&食パンが‐焼けた\\バスを‐降りた&バスに‐間に合った\end{tabular}} \section{実験} 5節で作成した同義述部コーパスを用いて提案手法の評価を行った.辞書定義文素性の抽出には,金田一・池田(1988)の「学研国語大辞典第二版」を,抽象的な意味属性の抽出には,日本語語彙大系(池原他1999)の「用言属性」を用いる.分布類似度計算には,柴田・黒橋(2010)と同様の手法で作成された「項‐述部」の分布類似度モデルと,「述部」のみを単位とした分布類似度モデルを用いる.素性ベクトルの構築には,Web10億ページから抽出し,重複を除いた約69億文を用いた.機能表現の特徴抽出に関しては,松吉他(2007)の日本語機能表現辞書にある機能表現の意味カテゴリーのラベルを用いる.この意味ラベルの付与には,今村,泉,菊井,佐藤(2011)のタガーを用いる.\subsection{学習データ}5節で作成した同義述部コーパスから,本稿で使用するリソースである学研国語大辞典と語彙大系の用言属性にエントリがあり,かつ分布類似度計算の「項‐述部」の出現頻度10以上のデータのみを選出した.項が422種類からなる「同義」,「含意」,「反義」,「その他」の述部ペアのうち,91種類の項に対する述部ペアは,本提案手法の言語的特徴を分析するための考察用データ(372ペア,heldoutdata)として用い,実験には使用しなかった.残りを学習データ(3,503ペア)とし,「同義」と「含意」の述部ペアを正例,「反義」と「その他」のペアを負例として同義判定モデルの学習を行った.学習にはLIBSVM(Chang{\&}Lin2011)を使用し,実験の評価には,5分割交差検定を行い,学習データの4/5を用いてトレーニングを行い,残りの1/5で評価し,これを5回繰り返した\footnote{SVMの学習には線形カーネルを用い,パラメータはデフォルト値を用いた.}.学習データに属する「同義」,「含意」,「反義」,「その他」の述部ペアの数は下記のとおりである.\begin{itemize}\item学習データの内訳\begin{itemize}\item同義ペア(956ペア)\item含意ペア(669ペア)\item反義ペア(758ペア)\itemその他ペア(1,120ペア)\end{itemize}\end{itemize}\subsection{比較手法}Baselineとして,次にあげる手法と比較した.1つ目が,既存の大規模語彙シソーラスである日本語WordNet(Bond,Isahara,Fujita,Uchimoto,Kuribayashi,andKanzaki2009)を用いた方法である.2節で述べたように,既存の言い換え研究ではシソーラスなどの特定の言語資源を用いて言い換えを行う.そこで,本稿では大規模シソーラスであるWordNetを用いて,入力された述部が同じSynsetに属していれば,同義とみなす方法で同義判定を行った.2つ目,3つ目は分布類似度のみを用いて同義判定を行う手法である.Baseline2(DistPAVerb-$\theta)$は,提案手法の素性のひとつである項‐述部と述部単体の分布類似度を用いて,これらが特定の閾値以上の場合は,正例とみなす方法である.Baseline3(DistMultiAve-$\theta$)\footnote{YihandQazvinian(2012)で提案された複数の類似度の平均値という意味で,Dist(ributionalsimilarity)Multi(model)Ave(rage)と呼ぶ.}は,YihandQazvinian(2012)の方法をもとに,本提案手法で用いた言語資源である大規模コーパスからの分布類似度(項‐述部と述部),辞書定義文を用いた分布類似度,語彙大系の属性から生成した分布類似度をそれぞれ計算し,その平均値を用いて,特定の閾値以上のものを正例とみなした.辞書定義文に関しては,対象の単語の定義文内にある内容語とその出現頻度をベクトルの素性とした.用言属性に関しては,対象の単語が持つ用言属性を用いてベクトルを構築した.Baseline2とBaseline3の閾値調整には,提案手法同様に,5分割交差検定を行い,学習データの4/5を用いてF値が最大になる閾値を求め,その閾値を用いて残りの1/5の評価を行うという方法を5回繰り返した.Baseline4〜Baseline7は,本提案手法で提案した特徴である「辞書定義文素性(Definition-SVM)」,「用言属性素性(PredClass-SVM)」,「分布類似度素性(DistPAVerb-SVM)」,「機能表現素性(Func-SVM)」それぞれ単体を用いてSVMで同義判定を行う手法である.これらも,5分割交差検定を行う.・比較手法\begin{itemize}\itemBaseline1(WordNet)\\日本語WordNet(Bondetal.2009)のSynsetにあれば「正例」\itemBaseline2(DistPAVerb-$\theta)$\\項‐述部もしくは述部単体の分布類似度が閾値以上のものを「正例」\itemBaseline3(DistMultiAve-SVM)\\大規模コーパス,辞書定義文,用言属性から個別に計算した分布類似度の平均を用いて閾値以上のものを「正例」\itemBaseline4〜7(Definition-SVM,PredClass-SVM,DistPAVerb-SVM,Func-SVM)\\提案手法の素性単体を用いてSVMで同義判定を行う\end{itemize}評価は,Precision(精度),Recall(再現率),F値を用いて行う.なお,精度の比較には5分割交差検定の平均値を用いる.・精度評価の指標\begin{gather*}\text{Precision(精度)}=\frac{|\text{正解の同義の集合}\cap\text{システムが同義と判別した集合}|}{|\text{システムが同義と判別した集合}|}\\\text{Recall(再現率)}=\frac{|\text{正解の同義の集合}\cap\text{システムが同義と判別した集合}|}{|\text{正解の同義の集合}|}\\\mathrm{F}値=\frac{2*\text{Precision}*\text{Recal}l}{\text{Precision}+\text{Recall}}\end{gather*}\subsection{結果}\begin{table}[b]\caption{実験結果}\input{01table02.txt}\end{table}表2が示すように,提案手法が最も高いF値を示した.BL1(WordNet)の場合,Precisionが0.873と一番高いが,Recallが0.331と一番低い.一方,YihandQazvinian(2012)をもとに複数の類似度計算の平均を取るBL3(DistMultiAve-$\theta)$の場合,Recallがすべての手法の中で一番高いものの,Precisionが0.537と最も低い値を出しており,提案手法のように教師あり識別問題として同義述部の判定を行う事の有効性が確認できた.また,本提案手法の素性を単体で用いるよりも(BL4〜BL7),すべての素性を用いた方が精度が高いことから,複数の言語的特徴を組み合わせた同義判定の有効性が確認できた.なお,比較手法と提案手法とのF値には$\mathrm{p}<0.01$で統計的な有意差があった\footnote{F値の結果をもとに,t検定を行った.}.次に,どの素性が有効であるかを調べるために,提案手法から各素性を除いたAblationテストを行った.すべての素性において,それぞれの素性を抜いた場合にF値が低下し,分布類似度と用言属性の素性を抜いた場合にはF値に統計的な有意差が出た.特に,分布類似度の素性を抜いた場合,Precision,Recall,F値すべてが低下したため,大規模コーパスから計算した分布類似度が同義判定の素性として一番効果があった. \section{考察} 同義・類義表現等を集めた大規模シソーラスである日本語WordNet(Bondetal.,2009)を用いた場合,同義まとめ上げのPrecisionは高いものの(0.873),Recallが低かった(0.331).実験で用いたデータは,提案手法の個々の素性の精度を正確に測るため,学研国語大辞典と日本語語彙大系に存在し,かつ分布類似度計算の「項‐述部」の出現頻度10以上のデータのみ使用するという制約を加えた.そのため,正確な比較は難しいものの,語彙大系や国語辞書などにエントリがある語彙のみを対象にした場合でも,WordNetのような大規模シソーラスのSynsetsだけでは,カバーできない同義表現があると考えられる.下記は,BL1(WordNet)で同義と判定することができなかった同義述部表現の一例である.\eenumsentence{\itemメモリを‐食っている\itemメモリを‐消費している}\eenumsentence{\item酒を‐満喫する\item酒を‐楽しむ}上記の例は,本提案手法では,正しく「同義である」と判別された述部ペアである.一方,大規模コーパスから構築した分布類似度計算のみを用いた場合(BL2(DistPAVerb-$\theta)$,BL3(DistMultiAve-$\theta)$),Recallは最も高い値を出したものの,下記のように,「反義述部ペア」や「時間経過を表す述部ペア」も高い類似度を出してしまい,Precisionが低下してしまった.\enumsentence{分布類似度が閾値以上の反義ペア\\a.ハンドルを‐握る\\b.ハンドルを‐離す}\enumsentence{分布類似度が閾値以上の時間経過を表す述部ペア\\a.カレーを‐食べた\\b.カレーが‐美味しかった}これらは,本提案手法では,正しく「同義ではない」と認識された.このように,提案手法では,従来の大規模シソーラスでは同義と判断できなかった幅広い同義の述部を認識しつつ,同義ではない述部を正しく判別することができた.分布類似度が高い値を出してしまう反義関係・時間経過を表す述部の識別が,本提案手法で正しく行われたのには次のような理由があると考えられる.第一に,反義関係の識別に辞書定義文からの素性が効いた点である.下記の,動詞「握る」の定義文が表すように,辞書定義文には,同義の単語を使ってその語彙の意味を定義する傾向があるが,反義の単語を使って定義することが少ない.\enumsentence{「握る」の定義文の一例\\物を\underline{つかんだり持ったり}する.}「握る」という単語を別の同義の単語である「つかむ」や類義表現である「持つ」という単語で表現しており,「離さない事」のように,反対の意味を表す単語にさらに否定表現をつけて定義することが少ない.相互補完性や語彙の重なりを特徴としたことで,同義述部を認識するだけでなく,同義ではない述部を正しく排除することができたと考えられる.次に,時間経過を表す述部ペアも,本提案手法では正しく「同義ではない」と識別できた.これは,抽象的な述部の意味を表す用言属性の重なりを素性として加えたことによるものと考えられる.\enumsentence{時間経過を表す述部ペアの用言属性\\a.食べた【身体動作】,【状態】\\b.美味しかった【属性】}上記のように,「食べた」と「美味しかった」は時間経過の関係を表す述部ではあるが,同義の述部と異なり,必ずしも同じ意味属性を持っているとは限らない.そのため,用言属性にも重なりがなく,正しく「同義ではない」と判別できたと考えられる.このように,提案手法では,WordNetのような大規模シソーラスと同等のPrecisionを保ちつつ,Recallをあげることできた.述部の言語構造に関する分析をもとに,複数の言語情報を素性として組み込むことによって,同義の述部は同義,それ以外の述部は同義ではないと正しく判別できるようになった.一方,提案手法でうまく同義と識別できなかった述部ペアは,片方の内容語が「入れる」のように多義性の高い述部ペアや,内容語と機能表現の意味の組み合わせを考慮しなくてはいけない同義述部ペアであった.\eenumsentence{\itemカラオケに‐入れてほしい(入れる+願望)\itemカラオケに‐参加したい(参加する+願望)}\eenumsentence{\item筆が‐重い\item筆が‐進まない(進む+否定)}\eenumsentence{\itemマンガが‐大好きだ(大好き)\itemマンガに‐はまっている(はまる+継続)}提案手法では,「否定」や「継続」など機能表現が共有されていると素性として考慮されるが,上記の例のように,片方にのみ特定の機能表現が入ることによって同義になる述部を識別することは不可能である.今後は,機能表現の素性の加え方を工夫し,上記のように特定の機能表現をもった述部とのみ同義になるような述部ペアの同義判定も考慮していきたい.また,本提案手法では項にあたる名詞句は同じ条件での同義判定であるため,「景気が‐冷え込む」と「経済が‐悪化する」のように名詞句が異なる場合の同義判定への適用には,名詞句のまとめ上げも検討する必要がある.今後は,項が異なる場合の同義判定も考慮し,大規模データからの情報抽出・集計を行うマイニングでの本提案手法の有効性を検討したい. \section{結論} 本稿では,「メモリを消費している」と「メモリを食っている」の「消費している」と「食っている」といった内容語と機能表現からなる述部を対象に,異なる2つの述部が同義か否かを判定する同義判定手法を提案した.述部の言語構造に着目し,同義述部を認識するという観点で必要な特徴を複数の言語的レベルで分析した.これらの分析をもとに,述部の同義判定に「辞書定義文」,「用言属性」,「分布類似度」,「機能表現」という4つの言語知識を用いた.実験の結果,既存の分布類似度のみを用いた手法では判別できなかった反義・時間経過関係の述部を正しく識別しつつ,大規模シソーラスではカバーできなかった多様な同義述部の識別が可能となった.さらに,文情報の核を表す述部単体の同義判定だけではなく,「メモリを消費している」と「メモリを食っている」のように項が加わることで同義となる表現も扱うことが出来るようになり,テキストに記述されている評判や苦情,ユーザの経験など重要な情報を表す表現の抽出やまとめ上げが可能になると考える.今後は,これらの同義判定を実際のテキストマイニングアプリケーションに用いることで同義述部まとめ上げの効果を明確にするとともに,本提案手法で考察した複数の言語的特徴を用いて,反義関係の識別など他の意味関係抽出への適用性を検討したい.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\itemBond,F.,Isahara,H.,Fujita,S.,Uchimoto,K.,Kuribayashi,T.andKanzaki,K.(2009).``EnhancingtheJapaneseWordNet.''In\textit{Proceedingsofthe7thWorkshoponAsianLanguageResources,inConjunctionwithACL-IJCNLP2009},pp.~1--8,Singapore.\itemChang,C.-C.andLin,C.-J.(2011).``LIBSVM:ALibraryforSupportVectorMachines.''\textit{ACMTransactionsonIntelligentSystemsandTechnology(TIST)},\textbf{2}(3),No.~27,pp.~1--27.\itemChierchia,G.andMcConnell-Ginet,S.(2000).\textit{MeaningandGrammar:AnIntroductiontoSemantics(2nded).}Cambridge,MA:TheMITPress.\itemCurran,J.~R.(2004).\textit{FromDistributionaltoSemanticSimilarity}.DoctoralDissertation,UniversityofEdinburgh,UnitedKingdom.\itemDagan,I.,Lee,L.andPereira,F.C.N.(1999).``Similarity-BasedModelsofWordCooccurrenceProbabilities.''MachineLearning---SpecialIssueonNaturalLanguageLearning,\textbf{34}(1-3),pp.~43--69.\itemDowty,D.(1979).\textit{WordMeaningandMontagueGrammar:TheSemanticsofVerbsandTimesinGenerativeSemanticsandinMontague'sPTQ}.Dordrecht:D.Reidel.\itemFirth,J.(1957).``ASynopsisofLinguisticTheory,1930--1955.''StudiesinLinguisticAnalysis,pp.~10--32.\item藤田篤,乾健太郎(2001).語釈文を利用した普通名詞の同概念語への言い換え.言語処理学会第7回年次大会発表論文集,pp.~331--334.\item藤田篤,乾健太郎(2004).言い換え技術に関する研究動向.自然言語処理,\textbf{11}(5),pp.~151--198.\item藤田篤,降幡建太郎,乾健太郎,松本裕治(2004).語彙概念構造に基づく言い換え生成—機能動詞構文の言い換えを例題に.情報処理学会論文誌,\textbf{47}(6),pp.~1963--1975.\itemHagiwara,M.(2008).``ASupervisedLearningApproachtoAutomaticSynonymIdentificationbasedonDistributionalFeatures.''In\textit{ProceedingsoftheACL-08:HLTStudentResearchWorkshop(CompanionVolume)},pp.~1--6.\itemHashimoto,C.,Torisawa,K.,DeSaeger,S.,Kazama,J.andKurohashi,S.(2011).``ExtractingParaphrasesfromDefinitionSentencesontheWeb.''In\textit{Proceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics},pp.~1087--1097.\item池原悟,宮崎正弘,白井諭,横尾昭男,中岩浩巳,小倉健太郎,大山芳史,林良彦(1999).日本語語彙大系CD-ROM版.岩波書店.\item今村賢治,泉朋子,菊井玄一郎,佐藤理史(2011).述部機能表現の意味ラベルタガー.言語処理学会第17回年次大会発表論文集,pp.~308--311.\itemIzumi,T.,Imamura,K.,Kikui,G.andSato,S.(2010).``StandardizingComplexFunctionalExpressionsinJapanesePredicates:ApplyingTheoretically-basedParaphrasingRules.''In\textit{ProceedingsoftheWorkshoponMultiwordExpressions:fromTheorytoApplications},pp.~63--71.\itemJackendoff,R.~S.(1992).\textit{SemanticStructure}.Cambridge,MA:TheMITPress.\item鍜治伸裕,河原大輔,黒橋禎夫,佐藤理史(2003).格フレームの対応付けに基づく用言の言い換え.自然言語処理,\textbf{10}(4),pp.~65--81.\item鍜治伸裕,黒橋禎夫(2004).迂言表現と重複表現の言い換え.自然言語処理,\textbf{11}(1),pp.~83--106.\item金田一春彦(1976).日本語動詞のアスペクト.むぎ書房.\item金田一春彦,池田弥三郎(1988).学研国語大辞典第二版.学習研究社.\itemLee,L.(1999).``MeasuresofDistributionalSimilarity.''In\textit{Proceedingsofthe37thAnnualMeetingoftheAssociationforComputationalLinguistics},pp.~25--32.\itemLin,D.(1998).``AnInformation-TheoreticDefinitionofSimilarity.''In\textit{Proceedingsofthe15thInternationalConferenceonMachineLearning},pp.~296--394.\item松吉俊,佐藤理史,宇津呂武仁(2007).日本語機能表現辞書の編纂.自然言語処理,\textbf{14}(5),pp.~123--146.\item松吉俊,佐藤理史(2008).文体と難易度を制御可能な日本語機能表現の言い換え.自然言語処理,\textbf{15}(2),pp.~75--99.\itemNarrog,H.(2005).``OnDefiningModalityAgain.''\textit{LanguageSciences},\textbf{27}(2),pp.~165--192.\item那須川哲哉(2001).コールセンターにおけるテキストマイニング.人工知能学会誌,\textbf{16}(2),pp.~219--225.\itemPortner,PaulH.(2005).\textit{Whatismeaning?:Fundamentalsofformalsemantics}.Malden,MA:Blackwell.\itemRamchand,G.~C.(2010).\textit{VerbMeaningandtheLexicon:AFirst-PhaseSyntax}.NewYork:CambridgeUniversityPress.\item柴田知秀,黒橋禎夫(2010).文脈に依存した述語の同義関係獲得.情報処理学会研究報告(IPSJSIGTechnicalReport),pp.~1--6.\itemSzpektor,I.andDagan,I.(2008).LearningEntailmentRulesforUnaryTemplates.In\textit{Proceedingsofthe22ndInternationalConferenceonComputationalLinguistics(Coling2008)},pp.~849--856.\item竹内孔一,乾健太郎,藤田篤(2006).語彙概念構造に基づく日本語動詞の統語・意味特性の記述.影山太郎(編).レキシコンフォーラムNo.~2,pp.~85--120.ひつじ書房.\item土屋雅稔,黒橋禎夫(2000).MDL原理に基づく辞書定義文の圧縮と共通性の発見.情報処理学会自然言語処理研究会(NL-140-7),pp.~47--54.\itemTurney,P.(2008).``AUniformApproachtoAnalogies,Synonyms,AntonymsandAssociations.''In\textit{Proceedingsofthe22ndInternationalConferenceonComputationalLinguistics},pp.~905--912.\itemTurney,P.,Littman,M.,Bigham,J.andShnayder,V.(2003).``CombiningIndependentModulestoSolveMultiple-choiceSynonymandAnalogyProblems.''In\textit{ProceedingsoftheInternationalConferenceonRecentAdvancesinNaturalLanguageProcessing},pp.~482--489.\itemWeisman,H.,Berant,J.,Szpektor,I.andDagan,I.(2012).``LearningVerbInferenceRulesfromLinguistically-MotivatedEvidence.''In\textit{Proceedingsofthe2012JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning},pp.~194--204.\itemYih,W.andQazivinian,V.(2012).``MeasuringWordRelatednessUsingHeterogeneousVectorSpaceModels.''In\textit{Proceedingsof2012ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},pp.~616--620.\end{thebibliography}\begin{biography}\bioauthor{泉朋子}{2005年北海道教育大学国際理解教育課程卒業,2007年ボストン大学大学院人文科学部応用言語学科修了,2008年日本電信電話株式会社入社.現在,NTTメディアインテリジェンス研究所研究員,京都大学大学院情報学研究科博士後期課程在学.自然言語処理研究開発に従事.言語処理学会会員.}\bioauthor{柴田知秀}{2002年東京大学工学部電子情報工学科卒業,2007年東京大学大学院情報理工学系研究科博士課程修了.博士(情報理工学).京都大学大学院情報学研究科特任助教を経て,2009年より同助教,現在に至る.自然言語処理の研究に従事.言語処理学会,情報処理学会,各会員.}\bioauthor{齋藤邦子}{1996年東京大学理学部化学科卒業,1998年同大学院修士課程修了,同年日本電信電話株式会社入社.現在,NTTメディアインテリジェンス研究所主任研究員.自然言語処理研究開発に従事.言語処理学会,情報処理学会,各会員.}\bioauthor{松尾義博}{1988年大阪大学理学部物理学科卒業,1990年同大大学院研究科博士前期課程修了,同年日本電信電話株式会社入社.現在,NTTメディアインテリジェンス研究所主幹研究員.機械翻訳,自然言語処理の研究に従事.情報処理学会,言語処理学会,各会員.}\bioauthor{黒橋禎夫}{1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.言語処理学会10周年記念論文賞等を受賞.}\end{biography}\biodate\end{document}
V05N02-01
\section{はじめに} 直接翻訳方式は普通の変換翻訳方式で行なっている構文解析や意味解析の部分を省略あるいは簡素化でき,類似性のある言語間の翻訳によく用いられていた.現在,知られているほとんどの日韓,韓日翻訳システムが直接翻訳方式を採用しているのも両言語の類似性を活かすためである.最近,構文解析分野や意味解析分野など,言語処理技術の全般的な発達とコンピュータのハードウェア性能が向上した時点で直接翻訳方式を用いるのは,翻訳に必要な膨大な情報の損失とつながり,比較的多くの翻訳情報が得られる変換方式や多言語間の翻訳ができる中間言語方式を勧奨しているが(長尾真1996),日韓機械翻訳においては翻訳に必要な情報があまり多くない.(金泰錫1991)によると,実際になんの情報もなく両国語の単語を1:1に対応させた場合にもある程度の理解できる訳語が出来上がったと報告しており,我々はもう少しの追加情報を用いれば,相当な品質の訳語が生成できると期待している.最近,このような類似性を用いた日韓直接翻訳システムが商用化し始めた.最初の商用システムは1983年,FUJITSUと韓国のKAISTが共通に開発したATLAS−J/Kであり,その後,多くの商用システムが続々登場した.日韓機械翻訳システムの代表的な商用システムには日本の高電社が開発した“j−Seoul”および日立情報ネットワークが開発した“HICOM/MT”などが挙げられる.また韓国でもユニ−ソフトが開発した“5徑博士”や創信コンピュータの“ハングルがな”などが市販されている.しかし,(崔杞鮮1996)によると,これらのシステムは訳語の品質が満足できる程度まで至らず,形態素解析,多義性,対訳語選定,品詞判定,未登録単語の処理などの部分でまだ多くの問題点を持っていると報告している.日韓直接翻訳には大きく分けて(1){\bf多義性処理},(2){\bf述部の様相および活用処理}が問題と残っている(金政仁1996).(李義東1989;金政仁1992;EunJaKim1993;朴哲済1997)は(1)問題の先行研究であり,相当の成果を上げたが,より良い結果を目指して現在も多義性解消のための研究が活発に進行されつつある.(2)問題の先行研究として(李義東1990)は,日本語述部の様相情報に文法的な意味を付与して処理する手法を提案した.まず,日本語述部での様相情報の意味から韓国語述部の生成に適する意味に変換する.そのとき,意味省略,意味転移,語順調整を行ない,意味対応テーブルを作る.意味対応テーブルには日本語述部を構成する様相情報たちからすべての組み合わせを取り出し,日韓述部の意味対応ペアとして記述する.だから,この手法は様相情報の組み合わせに依存するので意味対応ペアの数が多くなる短所を持つ.そして,(金泰錫1992;金政仁1996)は韓国語の述部の様相情報および活用形態を前後単語との意味接続関係によってあらかじめテーブル形式に用意して翻訳を行なう翻訳テーブル方式を提案した.しかし,この方式は,両国語間の活用語の対応ルールが作成しにくいことを前提とし,複雑な活用規則を考慮せず,表層語を1:1に対応させる宣言的な処理を選んでいる.そして,表層語が1:nに対応するときは1:1の関係を作るため,前後単語との接続規則や形態が異なるn個の韓国語の表層語を辞書に用意しなければならない.また,様相情報や活用形態を区分せず,一度に処理するので異形態の対訳語の数が相対的に増える問題があった.ここで,本稿では,韓国語述部を構成する広範囲な様相情報を,抽象的で意味記号的な意味資質に表現した後,テーブル化した様相テーブルを用いた両国語の述部処理を提案する.様相テーブルは様相情報の意味を表わす意味記号,韓国語表層語,活性化チェックフィールドで構成する.様相テーブルは日韓述部翻訳のPIVOTのような役割を担当し,述部生成のとき,韓国語表層語は様相テーブルから取り出す.そして,様相テーブルの様相資質から韓国語表層語を対応させた後,表層語の結合処理で音韻調和処理,音韻縮約処理,分かち書きを行ない,自然な述部を生成する.すなわち,様相テーブルは述部情報らの組み合わせに依存しないので,(李義東1990)の意味対応テーブルより簡潔な表記ができる.また,(金泰錫1992;金政仁1996)では一遍に行なった述部の様相情報処理や活用処理を分離して処理する.本システムは(EunJaKim1993,朴哲済1997)の変換過程をそのまま用いており,述部に生じる多義はすでに解消されているものとし,本稿では意味が決まった様相情報から述部の自然な生成を目標とする.そして,本稿でのハングルに対する発音はYaleローマ字表記法に基づいて表記する. \section{様相テーブルの導入} 日本語述部と韓国語述部はその表現方法に相違点がある.両国語の述部は1:1の対応を基本とする直接翻訳方式では大きな問題になり,また,述部の翻訳が間違った場合は文法的に正しくない文が生成されるエラー(ungrammaticalerror)や理解できない文が生成される(unintelligibleerror)などの致命的な翻訳失敗になりやすい(D.U.An1995).従って韓国語の述部を正確に表現してくれることは日韓機械翻訳において大きい比重を占める.\subsection{日本語と韓国語の述部表現の相違点}日本語の述部は用言の語幹あるいは体言の後に補助用言や助動詞,そして一部の助詞を用いて表現し,大部分の補助用言,助動詞および助詞たちは決められた並び順に並べる.すなわち,日本語述部の様相類は一定な表現の順序を持っている.\vspace{3mm}\begin{quote}{\bf日本語述部の構成\\体言{\footnotesize${^{+}}$}\\助動詞{\footnotesize${^{*}}$}\\一部助詞{\footnotesize${^{*}}$}\\用言{\footnotesize${^{+}}$}\\助動詞{\footnotesize${^{*}}$}\\((助詞:て|で)補助用言){\footnotesize${^{*}}$}\\助動詞{\footnotesize${^{*}}$}\\一部助詞{\footnotesize${^{*}}$}\\}{\footnotesize($^{+}$:1個以上の繰り返し,$^{*}$:0個以上の繰り返し)}\end{quote}\vspace{3mm}韓国語述部の様相情報も一定の並び順に従って並べる.しかし,韓国語は日本語と異なって助動詞が存在せず,語幹と補助用言,叙述格助詞“\hg{'ida}({\itita})",先語末語尾,語末語尾,そして一部助詞で構成されている.\vspace{3mm}\begin{quote}{\bf韓国語述部の構成\\(1)((体言叙述格助詞{\footnotesize${^{*}}$})|用言){\footnotesize${^{+}}$}\\先語末語尾{\footnotesize${^{*}}$}\\語末語尾{\footnotesize${^{*}}$}\\一部助詞{\footnotesize${^{*}}$}\\(2)補助用言{\footnotesize${^{+}}$}\\先語末語尾{\footnotesize${^{*}}$}\\語末語尾{\footnotesize${^{*}}$}\\一部助詞{\footnotesize${^{*}}$}}\end{quote}\vspace{3mm}韓国語述部の表現は,(1),(2)に分けて表記した.(1)は単独で述部を構成するが,(2)は(1)に付けられるときだけ使用可能である.また,(2)は(1)に複数個を付けることができ,その時は(2)の先語末語尾はもっとも後に付く補助用言にのみ付けられる.日本語を基準として両国語の対応関係を整理すると,{\bf表1}のように表わすことができる.\begin{table}[htb]\caption{両国語述部の対応}\begin{center}\begin{tabular}{|l|l|}\hline{\bf日本語}&{\bf韓国語}\\\hline助動詞\hspace{20mm}&先語末語尾,語末語尾,\\&補助用言,叙述格助詞\\\hline一部助詞&語末語尾,一部助詞\\\hline補助用言&補助用言\\\hline\end{tabular}\end{center}\end{table}両国語の述部表現は1:1の対応が難しく,日本語の助動詞の反復表現による様相情報の順序も韓国語と一致していない.そして,韓国語の補助用言,先語末語尾,語末語尾は前接する単語の属性によって異形態になったり,その上,韓国語の述部を完成させるためには11種類の不規則音韻変化,5種類の音韻縮約が適用される.日韓機械翻訳において韓国語述部を自然に表現するためにはこのような部分を細心に処理する必要がある.{\bf例文(1)}に両国語の対応関係を示す.\atari(120,32)両国語の述部表現は1:1対応が難しく,日本語の助動詞の繰り返し表現による様相順序も一致しない.次の例文は日本語と韓国語の述部での順序不一致を表わす.\atari(90,70)\vspace{5mm}{\bf例文(2)}は語尾「き」の訳語省略以外には1:1の対応によって翻訳が可能なことを示している.しかし,{\bf例文(3)}を見ると,日本語は「丁寧+過去/終結」の順番であるのに対し,韓国語は「過去+丁寧+終結」の順番であり,翻訳語の並びが逆になっている.もう少し複雑な例文を見よう.\vspace{5mm}\atari(110,70)\vspace{5mm}{\bf例文(4)}と{\bf例文(5)}は両国語の述部情報が1:1に対応していないことを示す.{\bf例文(4)}の訳文では「ませ(丁寧)」と「ん(否定)」の様相情報が置き換わっている.また,「ん」で文が終わる場合は終結の意味も含まれており,「ん」から「\hg{'ji'anh}({\itcianh})」や「\hg{da}({\itta})」を一緒に生成しなければならない.{\bf例文(5)}は丁寧の意味が2回表われた場合であるが,韓国語では丁寧の意味を1ヶ所で表現するので,「ませ」や「でし」から1個の訳語を用意して,「ませ,でし(丁寧)」と「た(過去)」の様相情報の順序を置き換えて並べる.そして,「た」から終結の意味まで取り出して,文の終結部分に「\hg{da}({\itta})」を生成するべきである.また,日本語述部には現在形と未来形を区別せず使っており,特定な表現では時制が異なる述部も存在する.\vspace{2mm}\noindent\hspace*{25mm}{\bf例文(6)}映画を\underline{見る}ときは静かにしなさい.\\\hspace*{42mm}現在形)\hg{'ieoqhoalyl}\underline{\hg{bonyn}}\hg{Dainynjo'ioqhihaseoi'io}.(X)\\\hspace*{42mm}未来形)\hg{'ieoqhoalyl}\underline{\hg{bol}}\hg{Dainynjo'ioqhihaseoi'io}.\\\(O)\\\hspace*{25mm}{\bf例文(7)}その映画は見たほうがよい.\\\hspace*{42mm}過去形)\hg{gy'ieoqhoanyn}\underline{\hg{bon}}\hg{pieon'ijohda}.\\\\(X)\\\hspace*{42mm}現在形)\hg{gy'ieoqhoanyn}\underline{\hg{bonyn}}\hg{pieon'ijohda}.(O)\vspace{2mm}{\bf例文(6)}の連体形「見る」は普段は現在時制を表わすが,文脈の意味が「仮定,予定」の場合は,前接に未来形が来なければならない.「とき,つもり,必要,予定,計画,方針」などの体言は未来形を要求する.そして{\bf例文(7)}の「ほうがよい」の表現は,韓国語の述部では過去時制の代わりに現在時制が前に来る.このように日本語と韓国語は述部の表現部分では様相情報の順序不一致,1:n対応,n:1対応,対訳語省略,時制表現の不一致など,様々な相違点を持っており,これらの相違点は直接翻訳方式を用いた日韓機械翻訳で高品質の翻訳文生成に大きな障害になっている.\vspace{-1mm}\subsection{様相テーブル(MFOLT)の構成}日韓述部の表現不一致を解決するため,我々は述部の様相情報を言語に依存しない意味記号的な様相資質(modalityfeature)に表現し,両国語の述部情報のPIVOTとして利用する方法を提案する.特に,本稿では様相情報と活用形を分離して処理する方法を提案する.様相情報の処理は様相資質を集めた様相テーブルを利用し,活用処理は韓国語述部の不規則活用および音韻縮約を規則化させ,韓国語述部の生成に用いる.様相資質の構成は韓国語の補助用言,先語末語尾,語末語尾,一部助詞から抽出し,文法的には説明しにくい日韓間だけで適用できる特殊資質も入れ込み,より柔らかい述部の表現ができるように構成した.この過程で,補助用言,先語末語尾,語末語尾は韓国語の述部を生成するのに必要な最適の部分として統廃合しており,統廃合された最適な様相資質をテーブル化したものをMFOLT(modalityfeatureorderingandlexicalizingtable)と呼ぶ.MFOLTは韓国語述部の言語学的な知識(高永根1985),韓国語述部を生成するときの経験によって作られた.最終的な様相カテゴリーは{\bf表6}に示されている.(高永根1985)は韓国語での補助用言を{\bf表2}のように区分している.また,これらが同時に複数使われた場合は一定の順序を持つ.使役,受け身,強調は同じ語順であるが,その下は書かれた順番が語順を示す.\begin{table}[h]\vspace{-3mm}\caption{韓国語の補助用言の様相情報}\begin{center}\begin{tabular}{|r|l|l|l|}\hline\multicolumn{1}{|l|}{順番}&様相&韓国語の補助用言&対応する日本語\\\hline1&使役&--\hg{geoiha}({\itkeyha})&せる,させる\\\cline{2-4}&受け身&--\hg{geoidoi}({\itkeytoy})/--\hg{'aji}({\itaci})&れる,られる\\\cline{2-4}&強調&--\hg{'adai}({\itatay})&--したてる/--し散らす\\\hline2&奉仕&--\hg{'aju}({\itacwu})/--\hg{'adyri}({\itatuli})&--てくれる/--てあげる\\\hline3&完了&--\hg{'anai}({\itanay})/--\hg{'aberi}({\itapeli})&--てしまう\\\hline4&試図&--\hg{'abo}({\itapo})&--て見る\\\hline5&中止&--\hg{damal}({\ittamal})&--さし\\\hline6&希望&--\hg{gosip}({\itkosiph})/--\hg{gi'ueonha}({\itkiwenha})&たい/--てほしい\\\hline7&意図&--\hg{rieha}({\itlyeha})&よう\\\hline8&虚飾&--\hg{nynceogha}({\itnunchekha})/&ぶりをする\\&&\hspace*{4mm}--\hg{nyn'iaqha}({\itnunyangha})&\\\hline9&進行&--\hg{go'iS}({\itkoiss})/--\hg{'aga}({\itaka})/--\hg{'a'o}({\itao})&ている,てある,てくる,つつある\\\hline10&可能&--\hg{lsu'iS}({\itlswuiss})&できる\\\hline11&否定&--\hg{ji'anh}({\itcianh})/--\hg{jimosha}({\itcimosha})/&ない,ぬ,ん\\&&\hspace*{4mm}--\hg{jimal}({\itcimal})&\\\hline12&当為&--\hg{'eo'iahan}({\iteyahan})&べき,すべき\\\hline13&承諾&--\hg{'eodojoh}({\itetocoh})&てもいい\\\hline14&理由&--\hg{giDaimun}({\itkittaemwun})/&ため,ので\\&&\hspace*{4mm}--\hg{nGadarg}({\itnkkatalk})&\\\hline15&推定&--\hg{rdysha}({\itltusha})/--\hg{rmo'iaq'i}({\itlmoyangi})/&まい,はず\\&&\hspace*{4mm}--\hg{rges'i}({\itlkesi})&\\\hline16&一念&--\hg{rBun'i}({\itlppwuni})&だけ\\\hline17&引用&--\hg{dagohan}({\ittakohan})&そう\\\hline\end{tabular}\end{center}\end{table}\vspace{-6mm}統廃合の際,「強調,奉仕,試図,虚飾,承諾」の様相情報は,日本語で2つの述部に表現するので本用言のように扱う.「意図」は後に「と」を付けて「ようと」の形を取って「意志」に統合する.そして,「理由」は「原因・結果」に,「引用」は「伝聞」にそれぞれ統合した.また,「進行」の様相資質は「動作進行1,動作進行2,状態進行」に分けて3つに,「希望」は「希望1,希望2」の2種類に区分した.先語末語尾は語尾として分類され,補助用言の後にくるが,先語末語尾が持つ様相情報は一定な順序を持ち,その順番を{\bf表3}に示す.\begin{table}[h]\caption{韓国語の先語末語尾の様相表現}\begin{center}\begin{tabular}{|r|l|l|l|}\hline\multicolumn{1}{|l|}{順番}&様相&韓国語の先語末語尾&対応する日本語\\\hline1&尊敬&--\hg{si}--({\itsi})/--\hg{sibsi}--({\itsipsi})&尊敬表現の動詞を使う\\\hline2&時制&未来:--\hg{geoiS}--({\itkeyss})&用言の終止形\\\cline{3-4}&&現在:--\hg{n}--({\itn})/--\hg{nyn}({\itnun})&用言の終止形,連用形\\\cline{3-4}&&過去:--\hg{'aS}--({\itass})/--\hg{S}({\itss})&た/だ\\\hline3&謙譲&--\hg{'o}--({\ito})/--\hg{'ob}--({\itop})/--\hg{b}--({\itp})/--\hg{syb}({\itsup})&謙譲表現の動詞を使う\\\hline4&回想&--\hg{de}--({\itte})&(だった)よ/ね\\\hline\end{tabular}\end{center}\end{table}先語末語尾からは「一部の尊敬表現,時制,回想」をMFOLTに導入する.尊敬表現の一部は韓国語対訳語が同じ様相的な意味を持つよう,語幹に様相情報の表層語を寄せて処理した.例えば,「おいでになる」は「\hg{'o}(語幹)+\hg{si}(先語末語尾)+\hg{da}(語末語尾)」の形態素で構成されるが,「\hg{'osi}(語幹)+\hg{da}(語末語尾)」に扱って,処理を簡略化する.慣用表現「お(連用形)になる」は尊敬表現としてMFOLTの様相資質とする.また,敬語表現の接頭語「お,ご」は韓国語にない表現であるので,お茶,ご飯などの慣用表現は一つの単語として扱い,その他「お,ご」は無視する.謙譲情報は最近の韓国語では使っていない傾向が強いので,「いただく」は「\hg{badda}({\itpatta})」,「いたす」は「\hg{hada}({\ithata})」などの普段の表現と対応させる.そして「指定,必縁,不可能,禁止,3者希望,結果・保存」の様相情報は翻訳の際,経験によって述部生成の効率を上げるために様相資質化した.以上の様相資質たちを補助資質(supplementfeature)と呼び,これらは順番に持ち,省略あるいは複数の資質が同時に活性化されることもできる.そして,述部の終了としては使えず,補助資質の後には必ず終了資質(terminalfeature)が付く.終了資質とは韓国語述部の終了部分が自然に生成できるよう,日本語述部を構成する助動詞,一部助詞,活用形,複合助詞,そして分離して処理しにくい慣用表現も様相資質化したものである.必ず述部の最後には1つの終了資質が付かなければならない.すなわち,韓国語述部の構成は{\bf「韓国語述部=述語+補助資質{\footnotesize$^{*}$}+終了資質」}と記述できる.それに比べ,(李義東1990)では日本語述部から様相情報の組み合わせをすべて意味化し,意味対応テーブルを作成してそれぞれに対応する韓国語述部の意味を用意する.すなわち,日韓述部の意味変換を行ない,変換された意味を韓国語述部の生成に用いる.しかし,この方法は様相情報が異なるすべての述部を対象とし,意味対応関係を記述する必要があり,様相情報の異なる表現数ほど意味対応ペアが増えてしまう.また,この方法は未来形を要求する体言を修飾する述部から未来時制を取り出すことができず,時制の不一致を処理することが難しい.{\bf表6}にMFOLTの様相資質を示す.区分のため,'s'で始まる記号は補助資質,'t'で始まる記号は終了資質とした.補助資質は韓国語述部での様相情報の並べ順に,終了資質はアルファベット順に表記した.\vspace{5mm}\subsection{様相資質間の干渉による活性状態の最適化}MFOLTの様相資質らは様相資質間の干渉によって,活性化された状態を調節して,最適の韓国語述部が生成できるような形態を取る.例えば,{\bf例文(8)}のように可能と否定の様相資質が活性化されると不可能の様相資質を活性化し,可能と否定の様相資質を初期化することを行なう.\clearpage\vspace*{3mm}\atari(105,85)\vspace{5mm}また,{\bf例文(9)}では,ある様相資質が別の様相資質の影響を受けて初期化されることを表わす.時の前にくる連体形は未来時制にする.\vspace{5mm}\atari(105,70)\vspace{5mm}ここに13個の活性状態の最適化ルールを示す.{\bf例文(8)}はルール6,{\bf例文(9)}はルール2によって最適化されている.\vspace{3mm}\begin{quote}{\bf\begin{description}\item[1.]if\\tINTR=OFFandtDECL=OFFthen,sPLT=OFF\item[2.]if\\tTIME=ONandtPREN=ONthen,tPREN=OFF\item[3.]if\\sPAST=ONandtPREN=ONthen,\\\hspace*{4mm}tPPREN=ON;sPAST=OFF;tPREN=OFF\item[4.]if\\tSOTH=ONandtPREN=ONthen,tPREN=OFF\item[5.]if\\tADVE=ONandtPREN=ONthen,tPREN=OFF\item[6.]if\\sCAN=ONandsNEG=ONthen,\\\hspace*{4mm}sUNCAN=ON;sCAN=OFF;sNEG=OFF\item[7.]if\\tNOUN=ONandtREA2=ONthen,tREA2=OFF\item[8.]if\\sPLT=ONandtEXCL=ONthen,tEXCL=OFF\item[9.]if\\sALWS=ONandtAND1=ONthen,tAND1=OFF\item[10.]if\\sSUGST=ONandsPAST=ONthen,sPAST=OFF\item[11.]if\\tTIME=ONandtPAST=ONthen,\\\hspace*{4mm}tPAST=OFF;sPAST=ON\item[12.]if\\sCMTO=ONandtPREN=ONthen,tPREN=OFF\item[13.]if\\sCAUS=ONandsPASS=ONthen,\\\hspace*{4mm}sCMTO=ON;sCAUS=OFF;sPASS=OFF\end{description}}\end{quote}\vspace{3mm}提案したMFOLTを用いた韓国語述部の生成方法は(1)MFOLTでの補助様相資質の並べ順を生かして述部情報の異なる語順を調節する,(2)MFOLTを活性化する際,述部の様相情報とMFOLTの様相資質をm:nに対応させ,1:1に対応しない様相情報を表現する,(3)時制の変異ができるように様相資質間を調節して述部の時制不一致に対応することが可能である. \section{MFOLTを用いた韓国語述部の生成} 自然な韓国語の述部を生成するため,いくつかの段階を用意した.すなわち,韓国語の生成処理にはMFOLTの各様相資質の活性化処理,受け身表現処理,否定表現処理,様相資質の表層化,用言の不規則変化処理,補助用言や語尾の異形態処理,そして音韻縮約処理,分かち書き処理が必要である.{\bf図1}に述部処理の各段階を示す.\clearpage\begin{figure}[htb]\atari(70,68)\caption{MFOLTを用いた韓国語述部の生成段階}\end{figure}これから{\bf図1}の各段階について詳しく説明する.\subsection{様相資質の活性化および最適化}入力された日本語の述部から様相情報を抽出してMFOLTの各様相資質を活性化する過程である.MFOLTは述部単位に活性化するので,複文の場合は何度も活性化と初期化が行われるように設計されている.{\bf図2}は様相資質の活性化過程を表わしている.\begin{figure}[htb]\atari(115,43)\caption{様相資質の活性化}\end{figure}\subsection{受け身の特殊表現処理}韓国語の受け身表現は「\hg{'a}/\hg{'eo}/\hg{'ieo}\hg{jida}({\ita/e/yecita})」の一般的な表現方法と同時に補助用言「\hg{'i},\hg{'hi},\hg{'ri},\hg{'gi}({\iti/hi/li/ki})」を用いて表現する.このような表現は用言の適切な分類やMFOLTの様相資質を用いることによって処理可能であるが,する動詞の一部は特別な処理を必要とする.すなわち,受け身になるとき,その形態が普通の形態とは別に表わされる.\vspace{3mm}\begin{center}\begin{tabular}{ll}保護\underline{される}&(X)\hg{bohoha}\underline{\hg{'ieojida}}\\&(O)\hg{boho}\underline{\hg{badda}}\\愛\underline{される}&(X)\hg{saraqha}\underline{\hg{'ieojida}}\\&(O)\hg{saraq}\underline{\hg{badda}}\\追跡\underline{される}&(X)\hg{cujeogha}\underline{\hg{'ieojida}}\\&(O)\hg{cujeog}\underline{\hg{daqhada}}\\\end{tabular}\end{center}\vspace{3mm}このような動詞らは{\bf図3}のようにMFOLTが活性化された後,受け身のための特殊処理を行なって解決する.\begin{figure}[htb]\atari(113,62)\caption{受け身表現の特殊処理}\end{figure}\subsection{否定語の特殊処理}日本語と韓国語は否定表現の相違点が存在する.(金泰錫1993)によると,日本語の否定表現には形容詞または助動詞として「ない」,そして助動詞「ん(ぬ)」と「まい」を用いる.そして接頭詞「非,不,未,無」を付けて一単語だけを否定する漢語的な否定表現と否定の推量または意志を表わす助動詞「まい」はその対訳語が韓国語にも存在するので,日韓においては1:1の対応処理が可能である.結局,日本語の否定表現から否定語処理を必要とするのは「ない」と「ん(ぬ)」の含まれている否定文である.それに比べ,韓国語の否定表現は「\hg{mos}({\itmos}),\hg{'an}({\itan})」という否定素を用言の前に配置する方法と否定補助用言「\hg{ji'anhda}({\itcianhta})」と「\hg{'eobssda}({\itepsta})」を用いて否定文を表わすことができる.否定素「\hg{mos}({\itmos}),\hg{'an}({\itan})」は使用上の制約が多くあり,否定補助用言「\hg{ji'anhda}({\itcianhta})」と「\hg{'eobssda}({\itepsta})」でもすべての表現が可能であるから,日本語の否定表現「ない」と「ん(ぬ)」は韓国語の否定表現「\hg{ji'anhda}({\itcianhta})」と「\hg{'eobssda}({\itepsta})」に翻訳しても別に問題はない.否定表現の処理はMFOLTを活性化し,韓国語の組み立てルールを適用させることで処理可能である.しかし,日本語の「知る,分かる,解かる」が否定の意味で使われる場合は「\hg{'alji'anhda}({\italcianhta})」の代わりに韓国語の対立肯定用言「\hg{morynda}({\itmolunta})」に,存在を表わす動詞「在る,有る,居る」は「\hg{'iSji'anhda}({\itisscianhta})」の代わりに「\hg{'eobssda}({\itepsta})」に翻訳するのが生成された韓国語の表現が自然であり,そのため,否定表現が否定の意味を含む肯定表現に変わる特殊処理を行なう必要がある.{\bf図4}に否定表現の特殊処理を示す.\begin{figure}[htb]\atari(115,63)\caption{否定表現の特殊処理}\end{figure}助動詞「ない」が否定の意味を表わす様相資質を活性化させるが,述部の語幹「知」が否定の様相資質と合わせて「\hg{morynda}({\itmolunta})」という否定の意味を含む対立語に変わるので,否定の様相資質を初期化する.\subsection{様相資質の表層化}日韓直接翻訳方式に基づいた韓国語の組み立ては,変換処理から得た結果とMFOLTの活性化された状態,そして受け身,否定語の特殊処理を基に出来上がる.日本語の文「彼が保護されていることは知らなかった」はMFOLTを2回作りながら韓国語を生成する.{\bf図5}は韓国語の組み立て過程であり,辞書の検索による1:1変換,MFOLTを用いた様相資質の表層化,特殊表現処理による訳語変更を表わす.{\bf図5}の(A)と(B)は文の前半と後半の生成処理を表わす.\subsection{用言の不規則変化による音韻調和処理}(金政仁1996)には韓国語での用言の活用は語幹と語尾が一定な形態に結合,活用する規則活用とそうでない11種類の不規則活用に分けている.言い換えれば,11種類の不規則活用という表現より12種類の活用規則が存在するとも言える.しかし,最近,韓国語の情報処理技術は飛躍的に発達しており,特に形態素解析に関してはすでに効率よい多数の手法が発表されている(S.S.Kang1995,D.B.Kim1994).我々は解析手法をもとに12種類の活用に対応できる韓国語の生成ルールを作り,本システムに反映させた.例文には韓国語の用言「\hg{molyda}({\itmoluta})」が表われており,これは「\hg{ly}({\itReu})不規則」に属し,語尾の変化によって語幹の形まで変わる不規則の一種類である.また,「\hg{molyda}({\itmoluta})」は陽性\footnote{韓国語の母音は全部10個である.この中で「\hg{a,ia,o,io}」は陽性であり,「\hg{e,ie,u,iu,y,i}」は陰性である.また,陽性は陽性,陰性は陰性同士に結合しようとする性質(母音調和)を持っている.}であり,母音調和の法則に従い,過去を表わす先語末語尾の中で「\hg{'aS}({\itass})」と連結される.そして,語幹「\hg{moly}({\itmolu})」は「\hg{ly}({\itlu})不規則」の属性により「\hg{moly}({\itmolu})+\hg{'aS}({\itass})$->$\hg{morraS}({\itmollass})」という形になる.一方,冠形形語尾「\hg{n/'yn/nyn}({\itn/un/nun})」は動詞と結合できる語尾「\hg{nyn}({\itnun})」と形容詞と結合できる「\hg{n/'yn}({\itn/un})」に区分できるので,「\hg{'iS}(動詞)+\hg{n/'yn/nyn}(冠形形語尾)」は「\hg{'iSnyn}({\itissnun})」の形態を取る.結局,生成された韓国語は「\hg{gy/\{'i|ga\}/bohobad/go'iSnyn/ges/\{nyn|'yn\}/morraS/da}」になる.\subsection{閉鎖音素による異形態処理}韓国語の単語は最後の音素が子音で終わる閉鎖音素であるか,‘\hg{r}’終音素であるか,母音で終わる開放音素であるかによって結合する助詞と語尾の形態が変わる場合がある.主な助詞の場合を{\bf表4}に示す.ここで,生成された韓国語の文「\hg{gy/\{'i|ga\}/bohobad/go'iSnyn/ges/\{nyn|'yn\}/morraS/da}」から異形態の処理を行なうと,「\hg{gy}({\itku})」は開放音素,すなわち母音で終わるので\hg{\{'i|ga\}}からは「\hg{ga}」が選択されており,\hg{\{nyn|'yn\}}は閉鎖音素「\hg{ges}({\itkes})」の影響で「\hg{'yn}」が選ばれる.結局,異形態処理が終わった韓国語は「\hg{gy/ga/bohobad/go'iSnyn/ges/'yn/morraS/da}」になる.\clearpage\begin{figure}[h]\atari(120,190)\caption{韓国語述部の組み立て}\end{figure}\clearpage\begin{table}[htb]\begin{center}\caption{前接単語の終音素による助詞の異形態}\begin{tabular}{|l|l|l|l|}\hline助詞&閉鎖音素と結合&`\hg{l}'終音素と&開放音素と結合\\&した場合&結合した場合&した場合\\\hlineが&\hg{'i}({\iti})&\hg{'i}({\iti})&\hg{ga}({\itka})\\\hlineは&\hg{'yn}({\itun})&\hg{'yn}({\itun})&\hg{nyn}({\itnun})\\\hlineで&\hg{'ylo}({\itulo})&\hg{lo}({\itlo})&\hg{lo}({\itlo})\\\hlineと&\hg{goa}({\itkwa})&\hg{goa}({\itkwa})&\hg{'oa}({\itwa})\\\hlineを&\hg{'yl}({\itul})&\hg{'yl}({\itul})&\hg{lyl}({\itlul})\\\hline\end{tabular}\end{center}\end{table}\subsection{音韻縮約および分かち書き処理}前段階までの処理を行なうことで,生成された訳文はだいたい読んで解かる程度の韓国語文になる.より自然な表現と読みやすい韓国語にするため,さらに音韻縮約と分かち書きを行なう.音韻縮約は「\hg{'a}({\ita})」脱落現象,「\hg{'ai}({\itay})」縮約現象,「\hg{'oa}({\itwa})」縮約現象,「\hg{'i}({\iti})」縮約現象,「\hg{'oi}({\itoy})」縮約現象など5つの現象が存在し,本システムではそれに基づいて縮約ルールを作り,縮約処理を行なっている.また,(黄燦鎬1993)から11種類の分かち書きルールも適用させ,完全な韓国語文に完成させる.例文には音韻縮約処理が要らないが,普段は以上のような処理を経て,韓国語が生成されるような仕組みになっている.結局,例文「彼が保護されていることは知らなかった」は韓国語の文「\hg{gygabohobadgo'iSnynges'ynmorraSda}({\itkukapohopatkoissnunkesunmollassta})」に翻訳される. \section{実験および評価} 本韓国語生成システムはMFOLTの最適化された様相資質から表層語を抽出し,活用ルール12種類,縮約ルール5種類,そして分かち書きルール11種類を適用して韓国語述部を生成する.提案した方法を用いて生成処理を行なった場合,韓国語の述部がどのくらい正しく生成できるかを確認するため,翻訳実験を行なった.翻訳処理に使った辞書は日本語を専攻した辞書入力専門研究員6名によって市販の日韓辞書,電子辞書などを参考に作り出したものであり,現在,約12万単語が登録されている.本稿での実験用の文章としては「新聞記事,日本語の文法本」2種類を用意した.新聞記事を用いたのは,現時点で我々のシステムが普段の文法的な誤りの少ない日本語の文章に対してどのくらいの翻訳能力を持っているかを確かめるためである.また,日本語の文法本を実験の対象にしたのは,普段はあまり表われないいろいろな日本語の表現,文法などが記述された日本語の文章に対してはどのくらいの翻訳ができるかを明らかにするためである.我々は「朝日新聞1ヶ月分の記事」の経済,社会,国際,カラム,スポーツ面からランダムに1,042文,「基礎日本語文法(益岡隆志1995)」にある1,296個のすべての例文を抽出して翻訳実験を行ない,例文に表われた述部の総数と様相情報の総数,そして文単位の翻訳結果として{\bf表5},述部の様相資質単位の翻訳結果として{\bf表6}を得た.\begin{table}[htb]\begin{center}\caption{述部の翻訳結果}\begin{tabular}{|c|r|r|r|}\hline区分&新聞記事&日本語の文法本&合計\\\hline例文数&1,042&1,296&2,338\\\hline述部数&2,717&1,568&4,285\\\hline様相情報数&7,698&4,133&11,831\\\hline翻訳失敗文の数&103&59&162\\\hline文の翻訳率&90.1&95.4&93.1\\\hline\end{tabular}\end{center}\end{table}また,述部はMFOLTによって生成されており,実験文章に表われたMFOLTの各様相資質を単位として,頻度数と翻訳失敗数を数えた.(李義東1990)では結果データがないので直接比べることはできないが,述部の生成部分は新聞記事から約96.9%,日本語の文法本から約98.6%,合わせて約97.5%の高い成功率が得られた.新聞記事より文法本の方が高いのは,1文当たりの様相資質数が違い,その差から影響を受けたと思われる.文法本の例文がほぼ短文の形式であって,様相情報の記述も相対的に少ない数で表われたものが多かった.この結果から我々が提案したMFOLTを用いた韓国語の生成方法は日本語文の多様な文形式にも十分耐えることが分かった.残り2%〜3%の失敗は次のような理由であった.\vspace{5mm}\noindent{\bfケース1)話し言葉から様相資質の抽出失敗による生成失敗}\\\hspace*{4mm}対訳文に質問の意味がなくなってしまう.\begin{quote}甲:君,あの本読ん\underline{だ}.\\\hg{gab}:\hg{janei,gycayig'ilg'eS}\underline{\hg{da}}.(X)\\\hg{gab}:\hg{janei,gycayig'ilg'eS}\underline{\hg{ni}}?(O)\end{quote}\hspace*{4mm}対訳文に命令の意味がなくなってしまう.\begin{quote}(君が持っている本)ちょっと見\underline{せて}.\\\hg{(janeigagajigo'iSnyncaig)jombo}\underline{\hg{'igo}}.(X)\\\hg{(janeigagajigo'iSnyncaig)jombo}\underline{\hg{'iejue}}.(O)\end{quote}\vspace{5mm}翻訳システムを話し言葉に適用させるためには,話し言葉の特徴を明らかにする特別な研究や話しの流れを追跡管理する談話処理分野の研究などが必要であると思われる(金政仁1993).\vspace{5mm}\noindent{\bfケース2)MFOLTを用いた方法論での生成失敗}\hspace*{4mm}\begin{quote}彼女は結婚し\underline{ているらしかった}.\\\hg{gynienyngierhon}\underline{\hg{ha'ieSnyngesgatda}}.(X)\\\hg{gynienyngierhon}\underline{\hg{hangesgat'aSda}}.\\\(O)\\彼女は結婚\underline{していったらしい}.\\\hg{gynienyngierhon}\underline{\hg{ha'ieSnyngesgatda}}.(X)\\\hg{gynienyngierhon}\underline{\hg{haiSdengesgatda}}.\\\\(O)\end{quote}\vspace{5mm}上記の2個の例文はテンスの部分で,事実の進行と完了,推測の時点が過去と現在であることなど,その意味が微妙に違うが,MFOLTには同じ様相資質が活性化されてしまい,述部を生成するときにテンスの区別ができない.このケースは現在のMFOLTを用いた生成方法では処理できない場合であり,1つの述部から事実の様相情報と話者の様相情報が同時に表示できるように,今後MFOLTを拡張するつもりである.\vspace{5mm}\noindent{\bfケース3)変換での多義性解消失敗による述部の生成失敗}\\\hspace*{4mm}「れる,られる」の多義問題\begin{quote}この魚は刺し身では食べ\underline{られ}ない.\\受け身)\hg{'imulgoginynsai'senhoilonyn}\hg{meg}\underline{\hg{hi}}\hg{ji'anhnynda}.(X)\\可能)\hg{'imulgoginynsai'senhoilonyn}\hg{meg}\underline{\hg{'ylsu}}\hg{'ebsda}.(O)\end{quote}\hspace*{4mm}「ている」の動作・状態進行の多義問題\begin{quote}高津さんは先週から神戸に\underline{来ている}.\\動作)\hg{daGaJysa''ynjinanjubutego'obei'ei}\underline{\hg{'ogo'iSda}}.(X)\\様態)\hg{daGaJysa''ynjinanjubutego'obei'ei}\underline{\hg{'oa'iSda}}.(O)\end{quote}\hspace*{4mm}「て(で)」の連続・連結・原因の多義問題\begin{quote}例年の夏に比べ\underline{て},今年の夏は涼しかった.\\連続)\hg{'ieinien'yi'ielym'eibigioha}\underline{\hg{go}},\hg{'olhai'yi'ielym'ynsi'uenha'ieSda}.(X)\\連結)\hg{'ieinien'yi'ielym'eibigioha}\underline{\hg{'ie}},\hg{'olhai'yi'ielym'ynsi'uenha'ieSda}.(O)\end{quote}\hspace*{4mm}連体形から生じる時制の多義問題\begin{quote}下記の学生は3時までに事務室に\underline{来る}こと.\\現在)\hg{hagi'yihagsai''yn3siGajisamusillo}\underline{\hg{'onyn}}\hg{ges}.(X)\\未来)\hg{hagi'yihagsai''yn3siGajisamusillo}\underline{\hg{'ol}}\hg{ges}.\\(O)\end{quote}\vspace{5mm}{\bf表6}の受け身,状態進行,連結1,連結2,冠形詞転成など,比較的失敗の数が大きい様相資質が多義から生じた失敗であった.多義による述部の生成失敗は,変換処理で多義が正しく解消されなかったことから引き続いた失敗であるが,とにかく述部の対訳語が正しく選定できなかったので,本評価には生成失敗として数えた.しかし,このケースは変換部分での多義性解消の成功率と緊密な関係があるので,その分野の技術が発展すれば,結果は好転すると思われる.\clearpage\begin{table}[h]\caption{様相テーブルの各資質別翻訳結果}\atari(135,180)\end{table}\clearpage\begin{table}[h]\atari(135,52)\end{table}\vspace*{-7mm} \section{結論} 日本語の述部と韓国語の述部は対応する品詞の不一致,局部的な語順の不一致,活用語尾の不一致などの相違点を持っている.日韓翻訳において両国語の述部の不一致を解決するため,我々は述部だけを対象とする意味的であり抽象的な様相資質をテーブル化して両国語の述部表現の中間表現(PIVOT)とする方法を提案した.すなわち,様相テーブル(MFOLT)に様々な様相資質を用意し,生成処理のときに各資質を活性化する.そして,韓国語の接続情報や各資質の状態を参考にして韓国語の述部を生成する.また,用言の不規則変化処理,音韻縮約処理,活用語尾の異形態処理,そして分かち書きを行ない,自然な韓国語の述部を生成する.新聞記事から1,042文,文法本から1,296文を対象に生成テストを行なった結果,述部に表われた様相資質の中で97.5%が正しく生成され,日韓機械翻訳において韓国語の生成にMFOLTを用いた方法が有効であることが分かった.\bibliographystyle{jnlpbbl}\bibliography{kim}\begin{biography}\biotitle{略歴}\bioauthor{金政仁}{}\bioauthor{李鐘赫}{}\bioauthor{李根培}{}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V07N05-04
\section{はじめに} label{sec:introduction}本稿では、人手で記述された文法及び統計情報を用いて日本語の係り受け関係を求める手法について述べる。特に、文法とヒューリスティクスにより文節の係り先の候補を絞った時に構成することができる新しいモデルを提案し、それにより高い係り受けの精度(文節正解率88.6$\%$)が得られることを示す。我々のグループでは、何らかの意味表現を構成できるような高機能な構文解析器を実現することを最終目標とし、HPSG\cite{PollardSag94}の枠組みに基づいた文法を作成している。現状では意味表現の構成こそできていないが、新聞や雑誌などの実世界の文章の殆どに対して構文木を出力できる、被覆率の高い日本語文法SLUNG\cite{Mitsuishi98}を開発した。しかしながら、文法的に可能な構造を列挙するだけでは、曖昧性が大きいため、実用に耐えない。また、今後の課題である意味構造の自動学習のためにも、曖昧性の解消が要求される。本研究では、文法を用いた構文解析の結果の曖昧性解消を目的として、文節単位の係り受け解析によって、最も可能性の高い統語構造を選択できるようにする。また、係り受け解析を行う際に文法を用いることが精度の向上に寄与している。係り受け解析は以下のような手順でなされる。\begin{itemize}\itemまず、文法SLUNGで構文解析し、各文節の係り先の候補を、文法が許す文節に絞る。\item文法により絞った係り先候補が4つ以上存在する場合、それを係り元から見て(1)最も近い文節、(2)二番目に近い文節、(3)最も遠い文節の3つに制限する。これは、上記の三文節のいずれかが正解となる場合が98.6$\%$を占めるという観察に基づいている。この制限により、以下で考える統計モデルにおいて、係り先の候補は常に3つ以下であるとみなせる\footnote{候補が1つの場合は、係り先をその文節に決定できるため、候補が2つまたは3つの時にのみ確率を計算する。}。\item係り元文節がそれぞれの候補に係る確率を、{\bf3つ組/4つ組モデル}を用いて求める。このモデルは、係り元の文節と、2つまたは3つの係り先候補の全てを同時に考慮するという特徴があり、最大エントロピー法\cite{Berger96}を用いて推定される。\item文法が出力するそれぞれの部分木(文節間の係り受けに相当する)に上記の統計値を割り当てて、最も高い優先度が割り当てられた文全体の構文木が選択される。\end{itemize}本研究で用いるモデルと他の研究でのモデルの違いについてであるが、従来の統計モデル\cite{Uchimoto99}\cite{Haruno98}\cite{Fujio99}では、係り元文節$i$・係り先文節$j$に対して、係り元文節の属性$\Phi_i$及び係り先文節の属性$\Psi_{i,j}$(係り元と係り先の文節間の属性を含む)を前件として、係り受けが成立する(Tが出力される)条件付き確率\begin{equation}P(i\rightarrowj)=P(\mbox{T}\mid\Phi_i,\Psi_{i,j})\label{equ:naive0}\end{equation}\refstepcounter{enums}を求めていた。これに対し、本研究で用いる3つ組/4つ組モデルでは、係り元文節$i$の候補$t_n$に関して、$i$の属性を$\Phi_i$、$t_k$及び$i$と$t_k$の文節間の属性を$\Psi_{i,t_k}$とするとき、$\Phi_i$と全ての$t_k$に対する$\Psi_{i,t_k}$を前件として、$n$番目の候補が選ばれる条件付き確率\begin{eqnarray}P(i\rightarrowt_n)=&P(n\mid\Phi_i,\Psi_{i,t_1},\Psi_{i,t_2})&(候補が2つのとき:n=1,2)\label{equ:triplet0}\refstepcounter{enums}\\P(i\rightarrowt_n)=&P(n\mid\Phi_i,\Psi_{i,t_1},\Psi_{i,t_2},\Psi_{i,t_3})&(候補が3つのとき:n=1,2,3)\label{equ:quadruplet0}\end{eqnarray}\refstepcounter{enums}を求める。上記の(\ref{equ:triplet0}),~(\ref{equ:quadruplet0})式をそれぞれ3つ組モデル・4つ組モデルと呼ぶ。なお、ここでの$n$番目の候補とは、表層文中で係り元から数えて$n$番目の文節ではなく、文法的に許される係り先のうち2つまたは3つに絞ったものの中で、係り元から$n$番目に近い文節である。\ref{sec:related}~節では、従来の統計方式の日本語係り受け解析に関する関連研究、本研究で用いる日本語文法、及び最大エントロピー法を紹介する。\ref{sec:ourmodel}~節では、上記で概観した我々の手法を順に詳しく述べる。\ref{sec:result}~節の実験結果で、対照実験の結果とともに3つ組/4つ組モデルの有効性を示す。そして、\ref{sec:observations}~節で、具体的なパラメータの観察や他研究との比較を行う。 \section{関連研究} label{sec:related}本節では、これまでに提案されてきた日本語構文解析のための統計的アプローチと、本研究で構文解析に用いる日本語文法SLUNG、及び確率モデルの推定に用いる最大エントロピー法を紹介する。\subsection{従来の統計的構文解析手法}\label{subsec:conventional}日本語の係り受け解析のための統計的手法として、様々なモデルが考案されており、次の2つに大別される。\begin{description}\item[生起確率を計算するモデル]文$s$が与えられた時に、ある構文木$T$が生起する条件付き確率を求める方法である。すなわち、次のような構文木$T$を選択する。\begin{equation}\mathop{\rmargmax}_TP(T|s)\end{equation}\refstepcounter{enums}\item[文中の係り受け確率の積をとるモデル]文節$i$と文節$j$が係り受け関係にある確率$P(i\rightarrowj)$を考え、式(\ref{equ:product})に示すような、文中にある全ての係り受けの積を最大化する係り受け関数$dep(i)$を求める方法である。\begin{equation}\mathop{\rmargmax}_{dep}\displaystyle{\prod_i}P(i\rightarrowdep(i))\label{equ:product}\end{equation}\refstepcounter{enums}\end{description}前者に属するものとして、確率文脈自由文法を用いたもの\cite{Mori98}や、確率一般化LR法を用いたもの\cite{Shirai98}などがある。これらは、数学的に妥当な確率を用いることができ、形態素解析など様々なレベルとの統合が容易であるという利点があるものの、現状では係り受け解析の精度は最高でも白井らの85〜86$\%$にとどまっている。一方、後者の手法は、比較的学習が容易なため、高い解析精度が得られる手法が多数提案されている。実際、最大87.9$\%$と、生起確率に基づくものよりも高い精度が報告されている\cite{Uchimoto99b}。本研究の手法もこのアプローチに基づいており、以下でいくつかの研究を紹介する。これらの手法及び本稿で提案する手法は、上記の$P(i\rightarrowj)$の求め方に違いがある。決定木を用いたモデル\cite{Haruno98}、最大エントロピー法を用いたモデル\cite{Uchimoto99}、距離確率と語彙確率を用いたモデル\cite{Fujio99}では、係り元文節$i$の品詞や語彙や読点の有無など、係り先文節$j$の品詞や語彙、そして二文節間の距離・読点や副助詞「は」の数などを属性として、ある属性を持った二文節が存在する時にそれが係り受け関係にある確率を二文節$i,j$間の係り受けのしやすさとしている。英語の統計的構文解析において二語間の距離が係り受けを決定する重要な要素となる\cite{Collins96}のと同様に、日本語の解析においても二文節間の距離が重要であるとされ、上記のモデルではいずれも文節間にある文節数を属性として用いている。これらのモデルでは、文節$i$と$j$以外の文節の情報は、文節間の距離などの属性を除いては反映されない。係り元・係り先とそのまわりの文節を考慮するモデル\cite{Uchimoto99b}では、係り元文節$i$の係り先文節$j$への係りやすさの計算に、$i$より右側にある全ての文節の情報を用いている。そのために、二文節間の関係を、「係る」「係らない」の二値ではなく、「越えて、遠くの文節に係る」「係る」「手前の文節に係る」の三値を出力するものとして学習する。そして、$i$が$j$に係る確率を、$i$が$i,j$間の文節を「越える」確率と$i$が$j$より右側の文節より「手前に係る」確率の積で補正する。これにより、ある種の文脈情報が取り扱えることになり、解析精度が\cite{Uchimoto99}より約$1\%$向上したことが報告されている。但し、このモデルでは、係り元文節がそれより右側にあるそれぞれの文節に「係る」か「越える」か「手前に係る」かを互いに独立であると仮定しなければならない。本研究で用いる3つ組/4つ組モデル\cite{Kanayama99}では、2つまたは3つの係り先候補の属性を同時に考慮できるため、文脈情報が扱えるうえ、さまざまな望ましい点がある。これに関しては本論文の\ref{sec:ourmodel}~節以降で詳しく解説する。\subsection{日本語文法SLUNG}\label{subsec:slung}本論文で提案する手法では、人手で書かれた文法で候補を絞ることが必須である。我々が用いるSLUNG\cite{Mitsuishi98}は、HPSG\cite{PollardSag94}の枠組みで記述された日本語文法であり、8つのスキーマと、48個の語彙項目テンプレート\footnote{主に自立語に対して、品詞毎に振る舞いを記述したもの。具体的な語彙は区別していない。}、105個の語彙項目\footnote{助詞や接尾辞などに対しては、それぞれの語に対して文法的性質が記述されている。}からなる。EDR日本語コーパス\cite{EDR}の文に対して98.4$\%$と、非常に高い被覆率(構文木を一つでも返した文の割合)を示している。文法自体は曖昧性解消の機構を持っていないため、SLUNGを用いて構文解析した場合、文法的に許される全ての構文木が出力される。本研究では、文節係り受けの統計モデルを用いることにより、出力された構文木から最も優先度の高いものを選び出すことができるようになる。\subsection{最大エントロピー法}\label{subsec:me}統計モデルの推定に、最大エントロピー法(ME法)\cite{Berger96}を用いる。ME法では、「学習コーパス中の履歴の特定の条件を満たし、かつ特定の出力値を得る場合」(素性)の頻度を得て、様々な素性に対するパラメータを、出力値の確率分布が最も一様分布に近づくように調整して求める。別の素性に対し、それぞれ満たす集合に重なりがあってもよく、抽象度の高い素性と低い素性を任意に混ぜることができるため、統計モデルを構築する際のデータスパースネスの問題を軽減できる。日本語係り受け解析でもME法は非常に有用で\cite{Uchimoto99}、品詞の情報だけでなく、頻度の高い単語に対しては語彙的情報も加えるといった柔軟な素性の追加が容易である。本稿での実験における精度は、単純な相対頻度で推定した3つ組/4つ組モデル\cite{Kanayama99}よりも約1.9$\%$向上しているが、その要因として、ME法を用いることで以前よりも多くの素性を追加できたことが挙げられる。 \section{本研究の手法} label{sec:ourmodel}本節では、「3つ組/4つ組モデル」を用いて係り受け解析をする手順を解説する。係り受け解析の全体の流れは図\ref{fig:flow}~のようになっている。3つ組/4つ組モデルの準備として、\ref{subsec:restrict}~節で述べる手法により、各文節の係り先候補を3つ以下に制限する。まず、文法を用いて、各文節の係り先として文法的に正しいものを列挙する。その中で係り元から一番近い文節・二番目に近い文節・最も遠い文節を選び出し、他を無視する。そして、係り先の候補の集合の中で、ある要素が係り先として選択される確率を、係り元文節と全ての係り先の候補の属性を同時に考慮するモデル(3つ組/4つ組モデル)で推定する。\ref{subsec:tripquad}~節では、モデルの特徴及び利点について述べる。最後に、上記のモデルを用いて文全体の最適な係り受けを選択する方法を、\ref{subsec:sentence}~節で解説する。\begin{figure}[t]\begin{center}\small\setlength{\unitlength}{.35mm}\begin{picture}(360,180)\put(0,160){\framebox(100,10){文}}\put(50,160){\vector(0,-1){20}}\put(0,130){\framebox(100,10){可能な全ての構文木}}\put(100,135){\vector(1,0){40}}\put(140,130){\framebox(100,10){各文節の係り先候補}}\put(160,130){\vector(0,-1){50}}\put(140,70){\framebox(100,10){各係り受けの確率}}\put(160,70){\vector(-4,-1){80}}\put(50,130){\vector(0,-1){80}}\put(0,40){\framebox(100,10){統計値付き構文木}}\put(50,40){\vector(0,-1){20}}\put(0,10){\framebox(100,10){最適な構文木}}\put(100,15){\vector(1,0){40}}\put(140,10){\framebox(100,10){最適な文節係り受け}}\put(50,145){\makebox(30,10){\shortstack{文法}}}\put(160,115){\makebox(70,10){\shortstack{最大3つの候補}}}\put(160,85){\makebox(60,20){\shortstack{\bf3つ組・\\\bf4つ組モデル}}}\put(260,120){\framebox(100,10){学習コーパス}}\put(310,100){\line(0,1){20}}\put(220,100){\line(1,0){90}}\put(220,100){\vector(0,-1){20}}\put(220,85){\makebox(80,10){\shortstack{ME法にて推定}}}\put(100,125){\makebox(40,10){\shortstack{変換}}}\put(100,5){\makebox(40,10){\shortstack{変換}}}\end{picture}\caption{係り受け解析の流れ}\label{fig:flow}\end{center}\end{figure}\subsection{準備:係り受け候補の制限}\label{subsec:restrict}\subsubsection{文法の利用}本システムでは、文を入力とし、JUMAN\cite{JUMAN}で形態素解析をした後、文法SLUNG\cite{Mitsuishi98}で構文解析する。SLUNGは、JUMANの形態素を解析の単位として、文法的に正しい全ての構文木を出力する。これを係り先候補の制限に使うために、それぞれの構文木中の部分木を、図~\ref{fig:transform}のようにして、文節単位の係り受け構造に帰着させる。部分木{\sfM}の左部分木{\sfL}、右部分木{\sfR}の最も右側にある語をそれぞれ$l$,$r$とし、それらが属する文節を$b(l)$,$b(r)$とするとき、$b(l)$は$b(r)$に係ることになる。一つの構文木は一つの係り受け構造に対応するが、可能な構文木が複数あるため、一つの係り元文節に対して、係り先候補となる文節が複数求まる。以下では、その候補の中から正しいものを選び出すことを考える。\begin{figure}[t]\begin{center}\small\setlength{\unitlength}{.25mm}\begin{picture}(180,55)\put(0,10){\line(2,1){80}}\put(30,25){\line(2,-1){30}}\put(80,10){\line(2,1){40}}\put(80,50){\line(2,-1){80}}\put(0,10){\line(1,0){60}}\put(80,10){\line(1,0){80}}\put(45,-5){\makebox(10,10){\small\shortstack{$l$}}}\put(145,-5){\makebox(10,10){\small\shortstack{$r$}}}\put(70,55){\makebox(20,10){\shortstack{\sfM}}}\put(15,28){\makebox(10,10){\shortstack{\sfL}}}\put(125,33){\makebox(10,10){\shortstack{\sfR}}}\end{picture}\begin{picture}(40,55)\put(0,20){\line(1,0){5}}\put(0,20){\line(0,1){5}}\put(5,15){\line(0,1){5}}\put(5,15){\line(2,3){5}}\put(0,25){\line(1,0){5}}\put(5,25){\line(0,1){5}}\put(5,30){\line(2,-3){5}}\end{picture}\begin{picture}(120,55)\put(0,10){\framebox(40,20){$b(l)$}}\put(80,10){\framebox(40,20){$b(r)$}}\put(20,30){\line(0,1){20}}\put(20,50){\line(1,0){80}}\put(100,50){\vector(0,-1){20}}\end{picture}\caption{部分木から文節係り受けへの変換}\label{fig:transform}\end{center}\end{figure}人手で記述する文法を用いることには、\ref{sec:introduction}~節で述べたような我々の最終目標に達するための要件である他に、決してありえない構造を排除することができるという利点がある。文法の制約が過剰でないことは、\ref{sec:related}~節で述べたようにSLUNGの被覆率が高いことが保証している。\subsubsection{係り先候補の3つ以下への制限}日本語の文節の係り先の傾向として、(1)近くから遠くになるに従って割合が減少すること、(2)最も遠い文節に係る場合だけは比較的多いことが知られている。この傾向は例えば\cite{Maruyama92}で分析されている。SLUNGにより係り先候補を絞った場合にもこの傾向はやはり顕著である。EDRコーパスの文をSLUNGで解析した際の、係り先候補の数、及び正しい係り先の位置の関係の分布を表\ref{tab:position}~に示す。表中の「第一」「第二」…は、文法で制限された係り先候補のうち、係り元文節から近い順に何番目が正しい係り先であるかを意味する。「最遠」は係り元から最も遠い候補である。このデータより、係り元文節から(1)最も近い文節・(2)二番目に近い文節・(3)最も遠い文節のいずれかに係る場合だけで98.6$\%$を占める\footnote{これは、文法で候補を制限しているためである。文法を用いずに3つの文節に絞っても、92.6$\%$程度しかカバーできない。}ことがわかる。この性質を利用して、係り先の候補が4つ以上存在する場合にも上記の3文節だけを考え、その他の文節を無視することにする。この制限によって、係り受け精度の上限は98.6$\%$となるが、わずか1.4$\%$の犠牲により問題を大幅に単純化することができ、次節で述べる3つ組/4つ組モデルの構成が可能になる。\begin{table}[tb]\begin{center}\small\begin{tabular}{|c|c||c|c|c|c|c|c||c|}\hline候補の数&比率&{\bf第一}&{\bf第二}&第三&第四&$..$&{\bf最遠}&第一,第二,最遠\\\hline\hline1&32.7&100&$-$&$-$&$-$&$-$&\footnotesize(100)&100\\\hline2&28.1&74.3&26.7&$-$&$-$&$-$&\footnotesize(26.7)&100\\\hline3&17.5&70.6&12.6&\footnotesize(16.8)&$-$&$-$&16.8&100\\\hline4&9.9&70.4&11.1&4.7&\footnotesize(13.8)&$-$&13.8&95.3\\\hline5&5.4&70.1&11.6&4.2&2.5&$..$&11.5&93.2\\\hline6以上&6.4&70.3&10.8&3.9&2.4&$..$&9.6&90.7\\\hline\hline合計&100&$-$&$-$&$-$&$-$&$..$&$-$&{\bf98.6}\\\hline\end{tabular}\caption{\small係り先の候補の数に対する、正しい係り先の分布(単位は$\%$)\\{\footnotesize「比率」は、候補の数の分布を示す。括弧付きの値は他の項との重複を表す。}}\label{tab:position}\end{center}\end{table}\subsection{3つ組/4つ組モデル}\label{subsec:tripquad}3つ組/4つ組モデルは、文節$i$が文節$t_n$に係る確率$P(i\rightarrowt_n)$を式(\ref{equ:triplet2}),~式(\ref{equ:quadruplet2})で計算する。但し、$t_n$は文節$i$の係り先の(3つ以下に限定された)候補、$\Phi_i$は文節$i$の属性、$\Psi_{i,t_n}$は$t_n$及び二文節$i,t_n$間の属性を表す。\begin{eqnarray}P(i\rightarrowt_n)=&P(n\mid\Phi_i,\Psi_{i,t_1},\Psi_{i,t_2})&(係り先の候補が2つのとき:n=1,2)\label{equ:triplet2}\refstepcounter{enums}\\P(i\rightarrowt_n)=&P(n\mid\Phi_i,\Psi_{i,t_1},\Psi_{i,t_2},\Psi_{i,t_3})&(係り先の候補が3つのとき:n=1,2,3)\label{equ:quadruplet2}\end{eqnarray}\refstepcounter{enums}このモデルの特徴は、上記の式から推測される通り、「{\bf係り元文節と、係り先の候補となる全ての文節の属性を同時に考慮}すること」、そして「それぞれの係り先の候補の係りやすさを求めるのではなく、{\bf各候補が選ばれる確率}を求める」ことである。これらの意義は次の3点にある。\vskip2mm\begin{description}\item[意義1]文節間の距離でなく、係り先の{\bf候補の中での相対的位置}を用いて係り先を選べること\item[意義2]着目している候補だけでなく、{\bf文脈}、すなわち他の候補の属性を考慮できること\item[意義3]ある係り元に対する全ての候補への係りやすさを、{\bf同じ条件の下で計算}できること\end{description}\vskip2mm以下で、これらの意義について順に述べる。\subsubsection{意義1~:~候補の中での相対的位置}文節間の距離は、係り受け解析における重要な要素として考えられているが、係り先の候補の中の位置の方が重要な場合がある。例として、(\ref{sent:karega})の各文における「彼が」の係り先を推定する時を考える。両者とも、「走るのを」が正しい係り先と考えられる。\vskip2mm\begin{tabular}{lll}\refstepcounter{enums}\label{sent:karega}(\theenums)&a.&{\bf彼が}\underline{走るのを}見たことがありますか。\\&b.&{\bf彼が}ゆっくり\underline{走るのを}見たことがありますか。\end{tabular}\refstepcounter{equation}\vskip2mm文法を用いずに文節数を距離とするモデルでは、「彼が」と「走るのを」の文節間距離はaでは1、bでは2と異なっている反面、aでの「彼が→見た」\footnote{「→」は、二文節間の係り受けを表す。}とbでの「彼が→走るのを」が、係り元からの距離が2である動詞であるという点で、似た事象であると見なされる。一方、文法で係り先を絞った場合、a,~bとも「彼が」の係り先の候補は「走るのを」と「見た」の2つとなる。このように、係り先の候補のみに着目すれば、両者を同じ事象として扱えるので、より効率のよい学習が行えるようになる。\subsubsection{意義2~:~文脈の考慮}(\ref{sent:watashino})において、「私の」の係り先を考える。正解は、それぞれ「娘に」「友人の」である。\vskip2mm\begin{tabular}{lll}\refstepcounter{enums}\label{sent:watashino}(\theenums)&a.&{\bf私の}かわいい\underline{娘に}道でばったり会った。\\&b.&{\bf私の}\underline{友人の}娘に道でばったり会った。\end{tabular}\refstepcounter{equation}\vskip2mm係り元文節と係り先文節、及び文節間距離を考えるモデルでは、a,bにおける「私の→娘に」は区別されることなく、全く同じ係り受け確率が付与される。しかしながら、この確率は非常に低くなる。なぜなら、実際にEDRコーパスの一部を観察したところ、aの「${\sfN_1}$の${\sfA}$${\sfN_2}$」\footnote{{\sfN}と{\sfA}はそれぞれ名詞、形容詞を表す。}という構文に対し、bのような「${\sfN_1}$の${\sfN_2}$${\sfN_3}$」の構文の頻度が4倍程度あり、後者の構文では、${\sfN_1}$は近くの${\sfN_2}$を修飾する場合が約75%と、圧倒的に多いからである。従って、aにおいて、「私の→娘に」に比べて「私の→かわいい」の確率のほうが高くなり、解析誤りを引き起こす\footnote{なお、「顔のかわいい女の子」のような構文では、「顔の」は「かわいい」に係るのが正しいが、この構文が現れる頻度は低い。このような場合は、語彙情報を加えることによって解決できよう。}。係り元と係り先の3つの候補全てを同時に考慮すると、この誤りを防ぐことができる。aにおいて「私の」と、その係り先候補である「かわいい」「娘に」「会った。」を同時に考えて、三者のそれぞれが選ばれる確率を計算した場合、第二候補であっても、第一候補の形容詞連体形よりも高い確率が割り当てられ、正しく係り先を求めることができる。このような現象は、第一候補である形容詞や副詞を飛び越えて第二候補に係るケースなどで一般的に数多く見受けられる。\subsubsection{意義3~:~同じ条件下での係りやすさの計算}これは意義2~とも関連するが、ある一つの係り元に対する係り受けの確率を、共通の前件を持った条件付き確率で計算できるという利点である。(\ref{sent:watashino}a)の「私の」の係り先を考える際には、従来の手法は式(\ref{equ:pairmodel})、我々の手法は式(\ref{equ:tqmodel})を求めることになる\footnote{$\Psi$は文節間の属性も含むため、係り元文節にも依存するが、以下の式・図では省略している。}。(\ref{equ:pairmodel})ではそれぞれの条件付き確率の前件が異なるため、5つの値の和は1にならないのに対し、式(\ref{equ:tqmodel})では3つの和が1になる。従って、3つ組/4つ組モデルにおいて推定する条件付き確率は、係り元とその係り先候補がある文脈において、それぞれの係り先候補が選ばれる確率に一致することになる。なお、考慮する条件を図示すると、それぞれ図\ref{fig:oldmodel}~、図\ref{fig:abcd}~のようになる。\begin{figure}[t]\begin{center}\small\setlength{\unitlength}{.35mm}\begin{picture}(340,65)\put(0,15){\thicklines\framebox(40,10){\small私の}}\put(60,15){\thicklines\framebox(40,10){\smallかわいい}}\put(120,15){\thicklines\framebox(40,10){\small娘に}}\put(180,15){\thicklines\framebox(40,10){\small道で}}\put(240,15){\thicklines\framebox(40,10){\smallばったり}}\put(292,15){\thicklines\framebox(56,10){\small会った。}}\put(26,25){\line(0,1){14}}\put(23,25){\line(0,1){17}}\put(20,25){\line(0,1){20}}\put(17,25){\line(0,1){23}}\put(14,25){\line(0,1){26}}\put(26,39){\line(1,0){54}}\put(23,42){\line(1,0){117}}\put(20,45){\line(1,0){180}}\put(17,48){\line(1,0){243}}\put(14,51){\line(1,0){306}}\put(80,39){\vector(0,-1){14}}\put(140,42){\vector(0,-1){17}}\put(200,45){\vector(0,-1){20}}\put(260,48){\vector(0,-1){23}}\put(320,51){\vector(0,-1){26}}\put(0,0){\makebox(40,10){\shortstack{$\Phi_{私の}$}}}\put(60,0){\makebox(40,10){\shortstack{$\Psi_{かわいい}$}}}\put(120,0){\makebox(40,10){\shortstack{$\Psi_{娘に}$}}}\put(180,0){\makebox(40,10){\shortstack{$\Psi_{道で}$}}}\put(240,0){\makebox(40,10){\shortstack{$\Psi_{ばったり}$}}}\put(300,0){\makebox(40,10){\shortstack{$\Psi_{会った。}$}}}\put(60,39){\line(1,1){23}}\put(120,42){\line(1,1){20}}\put(180,45){\line(1,1){17}}\put(240,48){\line(1,1){14}}\put(300,51){\line(1,1){11}}\put(60,39){\circle*{2}}\put(120,42){\circle*{2}}\put(180,45){\circle*{2}}\put(240,48){\circle*{2}}\put(300,51){\circle*{2}}\put(80,59){\makebox(40,10){\shortstack{\tiny$P(私の\rightarrowかわいい)$}}}\put(140,59){\makebox(40,10){\shortstack{\tiny$P(私の\rightarrow娘に)$}}}\put(200,59){\makebox(40,10){\shortstack{\tiny$P(私の\rightarrow道で)$}}}\put(260,59){\makebox(40,10){\shortstack{\tiny$P(私の\rightarrowばったり)$}}}\put(320,59){\makebox(40,10){\shortstack{\tiny$P(私の\rightarrow会った。)$}}}\end{picture}\caption{従来のモデルで考慮する条件\\{\footnotesize各係り受けの確率が、それぞれの二文節の属性を用いて(\ref{equ:pairmodel})式で計算される。}}\label{fig:oldmodel}\end{center}\end{figure}\begin{figure}[t]\begin{center}\small\setlength{\unitlength}{.35mm}\begin{picture}(340,45)\put(0,15){\thicklines\framebox(40,10){\small私の}}\put(60,15){\thicklines\framebox(40,10){\smallかわいい}}\put(120,15){\thicklines\framebox(40,10){\small娘に}}\put(180,15){\makebox(40,10){\shortstack{道で}}}\put(240,15){\makebox(40,10){\shortstack{ばったり}}}\put(292,15){\thicklines\framebox(56,10){\small会った。}}\put(20,25){\line(0,1){10}}\put(30,35){\oval(20,20)[tl]}\put(30,45){\line(1,0){280}}\put(70,35){\oval(20,20)[tr]}\put(130,35){\oval(20,20)[tr]}\put(310,35){\oval(20,20)[tr]}\put(80,35){\vector(0,-1){10}}\put(140,35){\vector(0,-1){10}}\put(320,35){\vector(0,-1){10}}\put(80,35){\line(1,1){15}}\put(140,35){\line(1,1){15}}\put(320,35){\line(1,1){15}}\put(80,35){\circle*{2}}\put(140,35){\circle*{2}}\put(320,35){\circle*{2}}\put(84,48){\makebox(40,10){\shortstack{\tiny$P(私の\rightarrowかわいい)$}}}\put(144,48){\makebox(40,10){\shortstack{\tiny$P(私の\rightarrow娘に)$}}}\put(324,48){\makebox(40,10){\shortstack{\tiny$P(私の\rightarrow会った。)$}}}\put(0,0){\makebox(40,10){\shortstack{$\Phi_{私の}$}}}\put(60,0){\makebox(40,10){\shortstack{$\Psi_{かわいい}$}}}\put(120,0){\makebox(40,10){\shortstack{$\Psi_{娘に}$}}}\put(300,0){\makebox(40,10){\shortstack{$\Psi_{会った。}$}}}\end{picture}\caption{3つ組/4つ組モデルで考慮する条件\\{\footnotesize係り元と3つに絞られた係り先候補の属性を用いて、それぞれの候補に係る確率を(\ref{equ:tqmodel})式で求める。}}\label{fig:abcd}\end{center}\end{figure}\begin{equation}\left.\begin{array}{ll}P(私の\rightarrowかわいい)&=P(\mbox{T}\mid\Phi_{私の},\Psi_{かわいい})\\P(私の\rightarrow娘に)&=P(\mbox{T}\mid\Phi_{私の},\Psi_{娘に})\\P(私の\rightarrow道で)&=P(\mbox{T}\mid\Phi_{私の},\Psi_{道で})\\P(私の\rightarrowばったり)&=P(\mbox{T}\mid\Phi_{私の},\Psi_{ばったり})\\P(私の\rightarrow会った。)\qquad&=P(\mbox{T}\mid\Phi_{私の},\Psi_{会った。})\end{array}\right\}\nonumber\\\qquad\qquad\qquad\quad\quad\label{equ:pairmodel}\end{equation}\refstepcounter{enums}\begin{equation}\left.\begin{array}{ll}P(私の\rightarrowかわいい)&=P(1\mid\Phi_{私の},\Psi_{かわいい},\Psi_{娘に},\Psi_{会った。})\\P(私の\rightarrow娘に)&=P(2\mid\Phi_{私の},\Psi_{かわいい},\Psi_{娘に},\Psi_{会った。})\\P(私の\rightarrow会った。)\qquad&=P(3\mid\Phi_{私の},\Psi_{かわいい},\Psi_{娘に},\Psi_{会った。})\end{array}\right\}\nonumber\\\qquad\label{equ:tqmodel}\end{equation}\refstepcounter{enums}\subsection{最適な係り受けの選択}\label{subsec:sentence}各文節間の係りやすさ$P(i\rightarrowj)$を求めるにあたって、係り元文節に対する係り先文節の候補の数に依って、次のようなモデルを用いることにする。\begin{itemize}\item係り先候補が1つの場合:その係り先に確定するため、$P(i\rightarrowj)=1.0$となる。\item係り先候補が2つの場合:係り元と2つの係り先の文節の情報を考慮する「3つ組モデル」を用いる。\item係り先候補が3つ以上の場合:係り先の候補のうち、係り元に最も近い文節、二番目に近い文節、最も遠い文節の3つだけを考え、係り元とその3つの文節の情報を考慮する「4つ組モデル」を用いる。\end{itemize}こうして求まった値を用いて、SLUNGの出力した全ての部分木Mに対して、統計値$Q(\mbox{M})$を以下のようなアルゴリズムで割り振る。なお、SLUNGの出力する構文木の終端記号は、文節単位でなく、単語(JUMANの出力する形態素)を単位としている。\begin{itemize}\item部分木Mがただ一つの単語からなる場合、$Q(\mbox{M})$=1.0\itemそうでない場合、図\ref{fig:partialtree}~の部分木において、左部分木Lの最も右側の単語を$l$、右部分木Rの最も右側の単語を$r$として、$l$、$r$の属する文節をそれぞれ$b(l)$、$b(r)$とする。このとき、\begin{equation}Q(\mbox{M})=Q(\mbox{L})\timesQ(\mbox{R})\timesP(b(l)\rightarrowb(r))\end{equation}\refstepcounter{enums}\end{itemize}文全体に対応する構文木で、この統計値が最大になるようなものを探索し、その構文木を再び文節の係り受け関係に変換して出力する。こうして得られた文の係り受けは、必ず文法的に正しい構文木に対応しており、係り受け同士が交差することはない。\begin{figure}[t]\begin{center}\small\setlength{\unitlength}{.35mm}\begin{picture}(140,55)\put(0,10){\line(2,1){70}}\put(30,25){\line(2,-1){30}}\put(80,10){\line(2,1){30}}\put(70,45){\line(2,-1){70}}\put(0,10){\line(1,0){60}}\put(80,10){\line(1,0){60}}\put(50,0){\makebox(10,10){\shortstack{$l$}}}\put(130,0){\makebox(10,10){\shortstack{$r$}}}\put(60,45){\makebox(20,10){\shortstack{M}}}\put(20,25){\makebox(10,10){\shortstack{L}}}\put(110,25){\makebox(10,10){\shortstack{R}}}\end{picture}\caption{SLUNGの出力する部分木M}\label{fig:partialtree}\end{center}\end{figure} \section{実験結果} label{sec:result}3つ組/4つ組モデルを用いた係り受け解析の実験環境と用いた素性、及び実験結果を示す。さらに、学習コーパスの量を変えた実験や、3つ組/4つ組モデルを導入したことの効用を確かめるための対照実験の結果を載せる。\subsection{実験環境}\label{subsec:env}EDR日本語コーパス\cite{EDR}の208,157文\footnote{このうち、括弧付けの順番が逆転している5,263文は除外した。}のうち、192,778文を学習、3,372文をテストに用いた。\ref{subsec:restrict}節で述べたような観察や、次節で述べる考察などにはその他の6,744文を用いている。これは、テストコーパスの解析結果を人が見てモデルを修正することによるコーパスへの特化を防ぐためである。前節で述べた通り、係り先の候補が2つの場合のための「3つ組モデル」と候補が3つ以上の場合のための「4つ組モデル」の二つのモデルを別個に作る。学習コーパス中の文をSLUNGで構文解析して、係り先候補が2つである文節に対して、係り元文節と2つの係り先候補の属性の組を履歴として「3つ組モデル」を構成する。そして、係り先候補が3つ以上である文節に対しては、\ref{subsec:restrict}節で述べた方法で候補を3つに制限し、係り元文節と3つの係り先候補の属性の組を履歴として「4つ組モデル」を構成する。これらは最大エントロピー法のツールChoiceMakerMaximumEntropyEstimator\cite{Borthwich99}を使って推定される。推定の際に用いた素性を表\ref{tab:features}~に示す。素性の値は\cite{Haruno98}~\cite{Uchimoto99}に倣っており、品詞の分類などにはJUMANの出力結果を用いている。但し、京大コーパスを用いた実験と違って、形態素解析の正解は与えられておらず、誤りを含む場合がある。以下で各素性について解説する。なお、{\bf主辞}とは、品詞大分類が「特殊」「助動詞」「助詞」「接尾辞」「判定詞」のいずれかであるものを除いて、文節内で最も右側にある語、{\bf語形}とは、品詞大分類が「特殊」であるものを除いて、文節内で最も右側にある語である。\begin{description}\item[品詞]語形・主辞ともに、JUMANの品詞細分類が用いられる。\item[助詞・副詞]頻度の高い26種の助詞と69種の副詞。\item[主辞語彙]品詞に依らず、主辞として現れる語のうち頻度の高い294種の語彙。\item[語形語彙]品詞が「助動詞」「接尾辞」のうち、頻度の高い70種の語彙。\item[活用形]JUMANの出力する活用形を、「基本形」「連用形」「連体形」「テ形」「タ形」「その他」の6種に分類したもの。\item[文節間読点の数・「は」の数]係り元と係り先の文節間にある読点の数を、「0」「1」「2」「3以上」の4値で表す。同様に、副助詞「は」の数を「0」「1」「2以上」の3値で表す。\end{description}表\ref{tab:features}~中の「異なり数」とは各素性の取りうる値の総数であり、素性番号19〜27の組み合わせ素性に関しては、それぞれの要素の積を記してある。実際には、履歴の数と出力値の数(2または3)の積だけの素性が用いられる。また、係り先に関する素性(素性番号8〜27)は、それぞれの係り先候補(3つ組モデルでは2つ、4つ組モデルでは3つ)に対して素性が割り振られる\footnote{例として、14の係り先読点の素性は、3つ組モデルに対しては、2つの候補それぞれに対して読点の有無を考え、さらに「第一候補に係る場合」「第二候補に係る場合」の二つの出力値があるため、$2\times2\times2=8$、同様に4つ組モデルに対しては$2\times3\times3=18$の素性がある。}。このうち、コーパス中で3回以上出現したものが有効素性となる。\begin{table}\begin{center}\begin{tabular}{|c|l|r|r|r|}\hline\multicolumn{1}{|c|}{素性}&\smash{\lower2.0ex\hbox{素性の種類}}&\smash{\lower2.0ex\hbox{異なり数}}&\multicolumn{2}{c|}{有効素性数}\\\cline{4-5}番号&&&3つ組&4つ組\\\hline\hline1&係り元主辞品詞&24&42&64\\\hline2&係り元語形品詞&34&66&99\\\hline3&係り元助詞&27&47&73\\\hline4&係り元副詞&70&131&193\\\hline5&係り元語形語彙&71&110&225\\\hline6&係り元活用形&6&12&18\\\hline7&係り元読点の有無&2&4&6\\\hline\hline8&係り先主辞品詞&24&70&158\\\hline9&係り先語形品詞&34&96&231\\\hline10&係り先主辞語彙&295&1164&2597\\\hline11&係り先助詞&27&92&204\\\hline12&係り先語形語彙&71&216&454\\\hline13&係り先活用形&6&24&53\\\hline14&係り先読点の有無&2&8&18\\\hline15&係り先「は」の有無&2&8&18\\\hline16&係り先引用「と」の有無&2&6&17\\\hline17&文節間読点の数&4&16&36\\\hline18&文節間「は」の数&3&12&27\\\hline\hline19&係り元語形品詞×係り先主辞品詞&816&1187&2727\\\hline20&係り元語形品詞×係り元読点×係り先読点&136&380&870\\\hline21&係り元助詞×係り先主辞語彙&7965&6465&13463\\\hline22&係り元語形品詞×係り先語形品詞&1156&1213&3108\\\hline23&係り元助詞×係り先助詞&729&618&1637\\\hline24&係り元語形品詞×係り先助詞&918&1025&2494\\\hline25&係り元語形品詞×係り先語形語彙&2414&1483&3514\\\hline26&係り元語形品詞×助詞×読点の有無×係り先主辞品詞&132192&1331&3058\\\hline27&係り元主辞品詞×語形品詞×活用形×係り先主辞品詞×活用形&705024&6605&14700\\\hline\hline&合計&-&22433&50063\\\hline\end{tabular}\caption{用いた素性\\{\footnotesize8番以降の素性は、係り先に関する素性なので、2つまたは3つの全ての候補に対して考える。}}\label{tab:features}\end{center}\end{table}\subsection{実験結果}\label{subsec:result}\ref{subsec:env}~に記したコーパスに対する、次の2つの精度を測定した結果を表\ref{tab:result}~に示す。\begin{description}\item[文節正解率]文中の最後の文節を除く全ての文節に対して、その係り先が正解と一致する割合。表\ref{tab:result}~においてのみ、後ろから二番目の文節(可能な係り先が最後の文節のみであるので、必ず正解する)を除外した値を参考のために載せてある。\item[文正解率]一文中の係り受けが全て正解する文の割合。なお、テストコーパスの平均文節数は8.82である。\end{description}なお、「解析成功文」とは、テストコーパスのうち構文解析が成功した文、即ちSLUNGが少なくとも一つの構文木を返した3,326文(全体の98.63$\%$にあたる)に対する正解率を測ったものである。また、参考のためにコーパス中の「すべての文」に対しての精度も測っている。SLUNGでの構文解析が失敗した文に関しては、各係り元文節に対して最も高い確率が割り振られた候補を決定的に係り先と判定し、どの候補にも係り得ないとされた文節は隣の文節を修飾すると仮定して正解率を測った。表\ref{tab:result}~は学習コーパスの約19万文を全て用いた時の値である。学習コーパスの量を変えた時の解析成功文に対する文節正解率を図\ref{fig:graph}~に示す。\begin{table}\begin{center}\begin{tabular}{|l|l|rc|}\hline\smash{\lower3.0ex\hbox{解析成功文}}&文節正解率&{\bf88.55$\%$}&(23078/26062)\\&(後ろから二番目の文節を除く場合)&86.88$\%$&(19752/22736)\\\cline{2-4}&文正解率&46.90$\%$&(1560/3326)\\\hline\smash{\lower3.0ex\hbox{すべての文}}&文節正解率&88.33$\%$&(23350/26436)\\&(後ろから二番目の文節を除く場合)&$86.62\%$&(19978/23064)\\\cline{2-4}&文正解率&46.35$\%$&(1563/3372)\\\hline\end{tabular}\caption{学習に19万文を用いたときの解析精度}\label{tab:result}\end{center}\end{table}\begin{figure}[t]\begin{center}\small\setlength{\unitlength}{.15mm}\begin{picture}(600,270)\put(30,30){\vector(1,0){600}}\put(30,30){\vector(0,1){260}}\put(60,49){\circle*{7}}\put(90,91){\circle*{7}}\put(120,120){\circle*{7}}\put(150,142){\circle*{7}}\put(180,146){\circle*{7}}\put(210,166){\circle*{7}}\put(240,177){\circle*{7}}\put(270,185){\circle*{7}}\put(300,184){\circle*{7}}\put(330,185){\circle*{7}}\put(360,186){\circle*{7}}\put(390,182){\circle*{7}}\put(420,181){\circle*{7}}\put(450,188){\circle*{7}}\put(480,198){\circle*{7}}\put(510,195){\circle*{7}}\put(540,203){\circle*{7}}\put(570,209){\circle*{7}}\put(600,205){\circle*{7}}\path(60,49)(90,91)(120,120)(150,142)(180,146)(210,166)(240,177)(270,185)(300,184)(330,185)(360,186)(390,182)(420,181)(450,188)(480,198)(510,195)(540,203)(570,209)(600,205)\multiput(30,50)(10,0){59}{\line(1,0){3}}\multiput(30,150)(10,0){59}{\line(1,0){3}}\multiput(30,250)(10,0){59}{\line(1,0){3}}\put(-10,45){\makebox(30,10){87.0}}\put(-10,145){\makebox(30,10){88.0}}\put(-10,245){\makebox(30,10){89.0}}\put(-10,265){\makebox(30,10){($\%$)}}\put(160,10){\makebox(40,10){5}}\put(310,10){\makebox(40,10){10}}\put(460,10){\makebox(40,10){15}}\put(600,10){\makebox(40,10){(万文)}}\end{picture}\caption{学習コーパスの量と文節正解率の関係}\label{fig:graph}\end{center}\end{figure}\subsection{対照実験}\label{subsec:control_exp}\ref{sec:ourmodel}~節で述べた3つ組/4つ組モデルの有効性を示すために、以下のような対照実験を行った。これらのモデルでは、他の統計的係り受け解析モデル\cite{Fujio99}~\cite{Haruno98}~\cite{Uchimoto99}と同様に、二つの文節及び文節間の属性から、二文節間の係りやすさを独立に計算する。また、係り先候補の中での位置を出力とする代わりに、係り元と係り先の文節間の距離(「1」「2から5」「6以上」の3値)を導入している。ME法による推定において\ref{subsec:env}~節に示した素性と同じ素性を使っており、その全てに対して上記の距離の属性を組み合わせている。\begin{description}\item[文法なしモデル]文法を用いて候補を絞ることをせず、係り元文節より右側の全ての文節に対して統計値を求める。係り元・係り先文節の属性と文節間距離などを用いて、二文節があった時にそれが係り受け関係にある確率を計算する。これは概ね、他の研究と同様のモデルである。\item[候補限定なしモデル]構文解析の結果文法が許した係り先に対してのみ、文法なしモデルと同様、係り元・係り先属性と文節間距離から係る確率を求める。\item[2つ組モデル]文法が許す係り先候補を、\ref{subsec:restrict}~節で述べた方法で3つに絞って、その3つに対してのみ統計値を求める。上記のモデルと同様、係り元・係り先属性と文節間距離から、係る確率を求める。なお、考慮する係り先候補は3つ組/4つ組モデルの時と同じになる。\end{description}対照実験の結果は表\ref{tab:control_exp}~の通りである。「3つ組/4つ組モデル」は「2つ組モデル」と比べて精度が0.9$\%$ほど向上している。このデータから、3つ組/4つ組モデルが有効であることを次節にて論じる。\begin{table}[t]\begin{center}\begin{tabular}{|l|cccc|rc|rc|}\hline&G&H&T&D&\multicolumn{2}{c|}{解析成功文}&\multicolumn{2}{c|}{すべての文}\\\hline\hline文法なしモデル&$-$&$-$&$-$&$+$&86.70$\%$&(22594/26062)&86.61$\%$&(22895/26436)\\\hline候補限定なしモデル&$+$&$-$&$-$&$+$&87.37$\%$&(22770/26062)&$87.18\%$&(23046/26436)\\\hline2つ組モデル&$+$&$+$&$-$&$+$&87.67$\%$&(22849/26062)&$87.49\%$&(23128/26436)\\\hline3つ組/4つ組モデル&+&+&+&$-$&88.55$\%$&(23078/26062)&88.33$\%$&(23350/26436)\\\hline\end{tabular}\caption{対照実験の結果(文節正解率)\\{\footnotesizeG,H,T,Dはそれぞれ「文法の利用」「候補を3つに限定」「3つ組/4つ組モデル」}\\{\footnotesize「文節間距離属性の利用」の有無を表す。}}\label{tab:control_exp}\end{center}\end{table} \section{考察} label{sec:observations}ここでは、本稿で提案する手法がどのように精度向上に寄与しているかの観察、及び他研究との比較を行う。\subsection{「3つ組/4つ組モデル」の効用}表\ref{tab:control_exp}~にある対照実験の結果は、以下の理由から3つ組/4つ組モデルの有効性を示しているといえる。\begin{itemize}\item「3つ組/4つ組モデル」の精度は「2つ組モデル」の精度よりも約0.9$\%$上回っている。両者とも、文法とヒューリスティクスにより係り先候補を3つ以下に限定しているが、それらの係り先候補を同時に考慮するモデルを用いた方が精度が上がることが確認された。\item「2つ組モデル」は、「文法なしモデル」より1.0$\%$、「候補限定なしモデル」よりも0.3$\%$高い精度を出している。従って、文法を用いることや係り先候補を3つに限定することは妥当な措置であり、「2つ組モデル」は「3つ組/4つ組モデル」の比較対象として適当である。\end{itemize}次に、両者のモデルで実際に解析を行う時の、具体的なMEのパラメータを観察してみる。例として、文(\ref{sent:kodomo})の「子供たちの」の各候補への係りやすさを計算する。「子供たちの」の係り先候補は、「甲高い」「声で」「騒然となる。」の3文節で、正解は「声で」である。\vskip2mm\refstepcounter{enums}\label{sent:kodomo}(\theenums)そんなとき、{\bf子供たちの}甲高い\underline{声で}騒然となる。\refstepcounter{equation}\vskip2mm各候補への係りやすさを2つ組モデル・4つ組モデル\footnote{候補数が3なので、4つ組モデルが使われる。}で推定する際のME法のパラメータ$\alpha_k$のうち主な($|\log\alpha_k|$が大きい)ものを、それぞれ表\ref{tab:pair_me}~,表\ref{tab:quad_me}~に示す。パラメータ$\alpha_k$のうち、履歴$a$、出力値$b$に対応する素性のものを掛け合わせるので、$\alpha_k$の値が1.0より大きいものは出力値を$b$にすることを助長するパラメータ、1.0より小さいものは$b$にすることを抑制するパラメータである。「$\alpha_k$の積」の項は、表に載せていないものも含め、対応する出力値に関する全てのパラメータの積である。\subsubsection{2つ組モデルの場合}このモデルでは、係り先ごとに別々の条件で係りやすさを計算する。各係り先への係りやすさ$P(i\rightarrowj)$は、出力値Tに対する$\alpha_k$の積を、出力値T,~Fに対する$\alpha_k$の積の和で割ったものである。例えば、$P(子供たちの\rightarrow甲高い)$は、$0.93/(0.93+0.81)=0.53$となる。「声で」に係る場合のパラメータに注目すると、係り元助詞「の」は隣の文節に係る傾向が強いことから、文節間距離が「2から5」に対するパラメータが小さくなっている。そのため、「甲高い」に係る確率の方が高くなってしまう。\subsubsection{4つ組モデルの場合}全ての係り先への係りやすさを共通の確率分布を用いて計算する。出力値$b$は$1,2,3$の3値をとり、第一候補への係りやすさ$P(i\rightarrowt_1)$は出力値1に対する$\alpha_k$の積を、3つの出力値に対する$\alpha_k$の積の和で割ったものであり、表\ref{tab:quad_me}~の例では$0.682/(0.682+2.39+0.106)=0.215$となる。出力値が2となる場合のパラメータに着目する。係り元が「の」で、第一候補が「形容詞」であること、第二候補が「名詞」であること、第三候補が「形容詞」であることの全てが第二候補に係るパラメータを高めており、第二候補に係る確率が第一候補に係る確率を上回っている。特に、出力値$b$と異なる候補(この場合、第一・第三候補)に関係する素性も強い影響を及ぼしていることが興味深い。\begin{table}[t]\scriptsize\begin{center}\begin{tabular}{|p{.8cm}||c|p{5cm}|p{.7cm}|p{1.15cm}|r|r|}\hline係り先$j$&\smash{\lower1.6ex\hbox{素性番号}}&\smash{\lower1.6ex\hbox{履歴$a$}}&出力値$b$&パラメータ$\alpha_k$&\smash{\lower1.6ex\hbox{$\alpha_k$の積}}&\smash{\lower1.6ex\hbox{$P(i\rightarrowj)$}}\\\hline\hline甲高い&26&係り元語形「接続助詞」「の」・読点「無」・係り先主辞「形容詞」・距離「1」&T&0.83&0.93&0.53\\\cline{2-6}&6&係り先活用形「基本形」・距離「1」&F&0.69&0.81&\\\cline{2-5}&26&係り元語形「接続助詞」「の」・読点「無」・係り先主辞「形容詞」・距離「1」&F&1.19&&\\\cline{2-5}&27&係り元主辞「普通名詞」・語形「接続助詞」・係り先主辞「形容詞」「基本形」・距離「1」&F&0.81&&\\\hline\hline声で&3&係り元助詞「の」・距離「2〜5」&T&0.78&0.57&0.31\\\cline{2-5}&10&係り先主辞「声」・距離「2〜5」&T&0.79&&\\\cline{2-5}&23&係り元助詞「の」・係り先助詞「で」・距離「2〜5」&T&1.82&&\\\cline{2-5}&26&係り元語形「接続助詞」・係り先品詞「名詞」・距離「2〜5」&T&0.84&&\\\cline{2-5}&27&係り元主辞「普通名詞」・係り元語形「接続助詞」「の」・係り先主辞「普通名詞」・距離「2〜5」&T&0.81&&\\\cline{2-6}&27&係り元主辞「普通名詞」・係り元語形「接続助詞」「の」・係り先主辞「普通名詞」・距離「2〜5」&F&1.06&1.26&\\\hline\hline騒然となる&3&係り元助詞「の」・距離「2〜5」&T&0.78&0.11&0.10\\\cline{2-5}&8&係り先主辞「形容詞」・距離「2〜5」&T&0.86&&\\\cline{2-5}&26&係り先語形「接続助詞」「の」・読点「無」・係り先主辞「形容詞」・距離「2〜5」&T&0.48&&\\\cline{2-6}&26&係り元語形「接続助詞」「の」・読点「無」・係り先主辞「形容詞」・距離「2〜5」&F&1.08&1.03&\\\hline\end{tabular}\caption{(\ref{sent:kodomo})の「子供たちの」の係り先推定の際の、2つ組モデルにおけるMEのパラメータ\\{\footnotesizeそれぞれの係り先に対して、別個に「係る(T)」「係らない(F)」を出力値とするパラメータが計算される。}}\label{tab:pair_me}\end{center}\end{table}\begin{table}[t]\scriptsize\begin{center}\begin{tabular}{|c|p{6cm}|p{.7cm}|p{1.15cm}|r|r|}\hline\smash{\lower1.6ex\hbox{素性番号}}&\smash{\lower1.6ex\hbox{履歴$a$}}&出力値$b$&パラメータ$\alpha_k$&\smash{\lower1.6ex\hbox{$\alpha_k$の積}}&\smash{\lower1.6ex\hbox{$P(i\rightarrowt_b)$}}\\\hline\hline10-2&第二候補主辞語彙「声」&1&0.83&0.682&0.215\\\cline{1-4}21-1&係り元助詞「の」・第一候補主辞語彙「その他」&1&0.78&&\\\cline{1-4}26-1&係り元語形「接続助詞」「の」・読点「無」・第一候補主辞「形容詞」&1&0.84&&\\\hline11-2&第二候補助詞「で」&2&1.29&2.39&0.752\\\cline{1-4}13-1&第一候補活用形「基本形」&2&0.77&&\\\cline{1-4}26-1&係り元語形「接続助詞」「の」・読点「無」・第一候補主辞「形容詞」&2&1.23&&\\\cline{1-4}26-2&係り元語形「接続助詞」「の」・読点「無」・第二候補主辞「名詞」&2&1.25&&\\\cline{1-4}26-3&係り元語形「接続助詞」「の」・読点「無」・第三候補主辞「形容詞」&2&1.24&&\\\cline{1-4}27-1&係り元主辞「普通名詞」・語形「接続助詞」・第一候補主辞「形容詞」「基本形」&2&0.84&&\\\hline3&係り元助詞「の」&3&0.59&0.106&0.034\\\cline{1-4}7&係り元読点「無」&3&0.84&&\\\cline{1-4}10-2&第二候補主辞語彙「声」&3&2.15&&\\\cline{1-4}11-2&第二候補助詞「で」&3&0.46&&\\\cline{1-4}17-3&係り元-第三候補文節間読点「無」&3&1.40&&\\\cline{1-4}20-3&係り元語形品詞「形容詞」・第三候補読点「無」&3&0.80&&\\\cline{1-4}27-2&係り元主辞「普通名詞」・語形「接続助詞」・第二候補主辞「名詞」&3&0.79&&\\\cline{1-4}27-3&係り元主辞「普通名詞」・語形「接続助詞」・第三候補主辞「形容詞」「基本形」&3&0.70&&\\\hline\end{tabular}\caption{(\ref{sent:kodomo})の「子供たちの」の係り先推定の際の、4つ組モデルにおけるMEのパラメータ\\{\footnotesize各候補が選ばれる(出力値が1,2,3)場合のパラメータを一つの確率分布で求めている。}}\label{tab:quad_me}\end{center}\end{table}\subsection{他研究との比較}\subsubsection{EDRコーパスでの精度の比較}係り受けの精度判定にEDRコーパスを用いている他研究と比較してみる。決定木を用いた手法\cite{Haruno98}での精度は84〜85$\%$、語の共起確率を用いた手法\cite{Fujio99}では、86.8$\%$となっている。我々の手法はこれらを上回っており、EDRコーパスに対してテストした中では最も高い水準といえよう。また、\cite{Kanayama99}では、3つ組/4つ組モデルを単純な相対頻度を用いて構成している。そこでの精度は86.7$\%$であり、ME法の利用によって約1.9$\%$精度が向上したことになる。精度向上の要因は、ME法によってデータスパースネスの問題が軽減でき、従来は入れられなかった語彙や活用に関する素性を追加できたことであると思われる。\subsubsection{京大コーパスでの精度の比較}いくつかの研究では、京大コーパス\cite{kc}を用いて精度を測っている。構文的・語彙的情報を統合して構文木の生起確率を求めている手法\cite{Shirai98}での精度は85〜86$\%$である。本研究と同様に、ME法を用いた研究~\cite{Sekine99},~\cite{Uchimoto99b}では、京大コーパスの1月9日分の1,246文を用いている。比較のために、同じコーパスでテストした結果は、表\ref{tab:accuracy_kc}~のようになった。\begin{table}\begin{center}\begin{tabular}{|l|l|rc|}\hline\smash{\lower2.0ex\hbox{解析成功文}}&文節正解率&87.08$\%$&(8299/9530)\\\cline{2-4}&文正解率&44.70$\%$&(493/1103)\\\hline\end{tabular}\caption{EDRコーパスで学習し、京大コーパスでテストした際の解析結果}\label{tab:accuracy_kc}\end{center}\end{table}文末から決定的に係り先を決定するモデル\cite{Sekine99}の精度は87.14$\%$で我々と同程度、後方文脈を考慮するモデル\cite{Uchimoto99b}は87.93$\%$で我々の精度よりも高くなっている。その原因として、以下のことが考えられる。\begin{itemize}\item我々は、学習データとしてEDRコーパスを用いている。\cite{Uchimoto99b}などと比べて約24倍の学習データがあるとはいえ、括弧付けの方針の違いなどから、京大コーパスでの解析の誤りを引き起こすことが多い。\item関根ら、内元らは京大コーパス中にある形態素解析・文節区切りの結果を用いているのに対し、我々はJUMANで解析したものを用いているため、形態素解析の誤りを含み、解析誤りの原因となっている。\item文法SLUNGがEDRコーパスの括弧付けの方針に従って作られており、京大コーパスにあるような係り方を許さない場合がある。\end{itemize}現在のところ、京大コーパスの解析には被覆率・精度ともに充分でないが、文法やシステムの改変により対処した上で本論文で提案する手法を有効に適用できるようにすれば、より高い精度が得られると考えている。\subsubsection{学習量の比較}図\ref{fig:graph}~より、最高値に近い精度を得るためには、10〜15万文の学習コーパスを要している。この学習量は、EDRコーパスを用いている研究\cite{Fujio99}と同程度であり、\cite{Uchimoto99}などの京大コーパスを用いた場合より、20倍程度の学習量になっている。一般に、ME法を用いることにより学習量を減らすことができると考えられているが、3つ組/4つ組モデルでは、複数の係り先に関する属性を同時に捉える条件付き確率を用いているため、区別される事象の数が大きくなり、多くの学習量が必要になっている。我々のモデルは、EDRコーパスのような多くの学習データを有効に利用できるモデルであるといえる反面、京大コーパスのように学習データ量が限られている時には、より効率のよい素性選択などが要求されるであろう。\subsubsection{解析速度の比較}本研究での係り受け解析は、あくまで詳細な構文構造を得るという目標の前段階であるため、速度に焦点を当ててはいないが、参考のために比較しておく。文末から決定的に係り先を決定するモデル\cite{Sekine99}では、一文当たり平均0.03秒(SunUltra10,300MHz)で解析できるのに対し、一方、我々のシステムではEDRコーパスの文に対して平均約0.5秒(PentiumIII,500MHz:経験的に、上記の計算機の約3倍の速度)を要する。両者には大きな差があるものの、我々の速度も非実用的なものではない。また、そのほとんどはHPSGパーザによる部分木の生成の時間である。単に係り受け構造を求めるだけなら速度を向上する余地は多分にあるうえ、HPSGパーザ自体の高速化も研究されており\cite{Nishida99,Torisawa00}、速度の問題は深刻であるとは考えていない。 \section{まとめ} label{sec:conclusion}本稿では、文法を用いて係り受け解析をする際に望ましい統計モデルについて論じた。係り先の候補を文法が許すものに制限した後、係り元から最も近い文節・二番目に近い文節・最も遠い文節のみに絞る。これにより、係り元と全ての係り先候補の属性を同時に考慮する「3つ組/4つ組モデル」を用いることができるようになり、88.6$\%$という高い係り受け精度を達成した。また、このモデルが精度向上に確かに寄与していることを示した。\bibliographystyle{jnlpbbl}\bibliography{nlp-j}\begin{biography}\biotitle{略歴}\bioauthor{金山博}{1998年東京大学理学部情報科学科卒業。2000年同大学院理学系研究科修士課程修了。同年日本アイ・ビー・エム(株)入社、現在に至る。構文解析・機械翻訳等に関する研究に従事。}\bioauthor{鳥澤健太郎}{1992年東京大学理学部情報科学科卒業。1995年同大学大学院理学系研究科情報科学専攻博士課程退学、同年より同大学大学院理学系研究科情報科学専攻助手。1998年より科学技術振興事業団さきがけ研究21研究員兼任。計算言語学の研究に従事。理学博士。言語処理学会会員。}\bioauthor{光石豊}{1996年東京大学理学部情報科学科卒業。1998年同大学院理学系研究科修士課程修了。現在、同博士課程在学中。HPSGの枠組による日本語文法に関する研究に従事。ACMSIGMODJ学生会員。}\bioauthor{辻井潤一}{1971年京都大学工学部電気工学科卒業。1973年同大学大学院工学研究科修士課程修了。京都大学工学部電気第2工学科助手、助教授を経て、1988年英国マンチェスタ大学科学技術研究所(UMIST)教授、1995年より、東京大学大学院理学系研究科教授(情報科学専攻)、現在に至る。1981〜82年フランス・CNRS(グルノーブル)、招聘研究員。自然言語処理、機械翻訳の研究に従事。工学博士。国際計算言語学委員会(ICCL)メンバ、情報処理学会、人工知能学会など、会員。2000年6月より言語処理学会会長。}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\newpage\thispagestyle{plain}\verb++\end{document}
V11N05-07
\section{はじめに} 言い換えに関する研究\cite{sato_ronbun_iikae,murata_paraphrase_true,inui_iikae_tutorial,murata_paraphrase_nlp2004}は平易文生成,要約,質問応答\cite{murata2000_1_nl,murata_qa_ieice_kaisetu}と多岐の分野において重要なものであり,近年,その重要性は多くの研究者の認めるところとなっている.また,これと同時に,言い換え表現の自動獲得の研究も重要視されつつある.本稿では言い換え表現の一種である同義表現を自動獲得する研究について述べる.本稿では,複数の辞書を用意して,それらにおける同じ項目の定義文を照合することで,同義表現を抽出する.例えば,「あべこべ」という語の定義文を考えてみる.大辞林では,\begin{quote}「順序・位置などの関係がさかさまに入れかわっていること。」\end{quote}となっており,岩波国語辞典では,\begin{quote}「順序・位置・関係がひっくり返っていること。」\end{quote}となっている.これらの定義文は同じ「あべこべ」という語の定義文であるため,同義な内容を記述した文であり同義なテキスト対と見ることができる.これを照合すれば,\begin{quote}「さかさまに入れかわっている」\hspace*{1cm}$\Updownarrow$「ひっくり返っている」\end{quote}といった同義な表現対が得られる.本稿の手法は大雑把には以上のとおりで,このように同義な内容を記述する複数の辞書の定義文を照合することで同義表現を獲得するのである.本研究の価値をあらかじめ整理すると以下のようになる.\begin{itemize}\item同義なテキスト対から同義表現を抽出する研究はいくつかあるが,複数の辞書の定義文を同義なテキスト対として,そこから同義表現を獲得する先行研究はない.本稿は,複数の辞書の定義文からどのくらいの同義表現を抽出できるかの目安を与えるものとなる.\item本稿では,同義表現の抽出に役に立つ,新しい尺度を提案する.本稿の実験で,この尺度がいくつかの比較手法よりも有効であることを確認する.この尺度は,他の同義表現の抽出の研究にも利用できる有用なものである.\end{itemize} \section{複数の辞書の照合に基づく同義表現の抽出方法} \label{sec:method}本研究では,複数の辞書を用意して,それらにおける同じ項目の定義文を照合することにより,同義表現を抽出することを試みる.この辞書としては,岩波国語辞典と大辞林を使用した.同義テキスト対としては,二つの辞書の各見出し語の定義文同士を組にすればよいが,場合によっては一つの見出し語が複数の項目をもっている場合がある.これの対処法として,本稿ではそれぞれの定義文が,岩波国語辞典と大辞林とで一対一に対応すると仮定して,照合の度合いが良いもの同士,定義文を結び付けることにした.まず照合のとりかたであるが,これは各定義文をJUMAN\cite{JUMAN3.6}を使って形態素列に分解する\footnote{定義文をJUMANを使って形態素列に分割したが,定義文の解析においてJUMANの性能が特に下がるということはなかった.また,本研究ではこの形態素列への分解の処理においてはJUMANを使用しただけであり,辞書を追加したり後処理をするなどの他の処理はしていない.}.各行に形態素が来るようにしてUNIXのdiffコマンドを使って,一致,不一致箇所を検出する\cite{Murata_murata_diff_nlp2002}.照合の度合いを計る式としては,以下のものを用いた.\begin{equation}照合の度合い=\frac{一致文字数\times2}{全文字数}\end{equation}ここで,一致文字数は,diffの結果一致部分と判断された部分の文字数を意味し,全文字数は,diffに与えた岩波国語辞典と大辞林の双方の定義文を合わせた文字数を意味する.この式は,0から1の値をとり,一致部分が大きいほど大きな値を持つものとなっている.実際に上記の照合を行なった.照合は57,643個の定義文の対で行なうことができた.辞書定義文の照合結果の例を表\ref{tab:jisho_shougou_rei}に示す.表中で``<'',``>''で囲まれた部分は,大辞林にだけ出現したものを,また,``≦'',``≧''で囲まれた部分は,岩波国語辞典にだけ出現したものを意味する.\begin{table*}[t]\begin{center}\leavevmode\caption{辞書定義文の照合結果の例}\label{tab:jisho_shougou_rei}\begin{tabular}[h]{|c|l|p{8cm}|}\hline\multicolumn{1}{|c|}{照合の度合い}&\multicolumn{1}{|c|}{見出し語}&\multicolumn{1}{|c|}{定義文のdiffの結果}\\\hline0.69&あいこ&<互いに、>≦たがいに≧勝ち負けのないこと\\0.29&あえか&<はかなげな>≦たよりない≧さま\\0.17&あえか&<美しくかよわげな>≦かよわく、なよなよした≧さま\\0.20&あからさま&<急な>≦包み隠さないで、はっきり表す≧さま\\1.00&あさって&あすの次の日\\1.00&あしらい&もてなし\\1.00&あたふた&あわてふためくさま\\0.17&あたふた&<数量が非常に多い>≦あわただしく動作を急ぐ≧さま\\0.40&あたら&<惜しい>≦もったいない≧ことに\\0.18&あたら&<もったいなく>≦おしく≧も\\0.22&あっさり&<濃かったり、くどかったり、しつこかったりせず、>さっぱり<としたさま>\\0.67&あっぷあっぷ&水におぼれかけて<、もがいている>≦苦しむ≧さま\\0.54&あとり&スズメよりやや<大形で頭と背面は黒色>≦大形≧\\0.35&あとり&<日本へは>秋に≦シベリア地方から日本に≧渡来<し、全土で越冬>する\\1.00&あべこべ&反対\\0.41&あべこべ&順序・位置<などの>≦・≧関係が<さかさまに入れかわって>≦ひっくり返って≧いる<・>こと\\\hline\end{tabular}\end{center}\end{table*}表をみると,「互いに」と「たがいに」や,「惜しい」と「もったいない」や,さきほどの「あべこべ」の「さかさまに入れかわって」と「ひっくり返って」といった同義表現が得られていることがわかる.しかし,「急な」と「包み隠さないで、はっきり表す」や,「数量が非常に多い」と「あわただしく動作を急ぐ」といった誤った対応のものも見受けられ,この結果をそのまま用いるのは精度が悪そうである.そこで,次に,diffの結果から,ある程度良さそうな同義表現を抽出することを試みる.ここでは以下の二つの特徴を利用することにする.\begin{itemize}\item珍しい(出現頻度の低い)文字列に囲まれた差分部分ほど,同義表現としては確からしい.\item複数箇所に出現した差分部分ほど,同義表現としては確からしい.\end{itemize}\begin{figure}[t]\begin{center}\begin{tabular}{|ccc|}\hline前方一致部分&差分部分&後方一致部分\\文字列$S1$&------------------------&文字列$S2$\\&距離$d$文字&\\\hline\end{tabular}\leavevmode\caption{差分の出現模式図}\label{fig:sabun_moshiki_zu}\end{center}\end{figure}まず,一つ目の「珍しい文字列に囲まれた差分部分ほど,同義表現としては確からしい」という特徴の方を考える.ここでは,差分部分が図\ref{fig:sabun_moshiki_zu}のように,一致部分である文字列$S1$,$S2$に挟まれていて,$S1$と$S2$の間が$d$文字だけ離れているとする.本稿では,この$d$としては,差分部分の長い方の文字数を採用する.このとき,$S2$および$S1$からみて,$d$文字以内に図\ref{fig:sabun_moshiki_zu}のように$S1$および$S2$が現れる確率を,$P(S1)$,$P(S2)$とすると,$P(S1)$,$P(S2)$は$d$文字以内の各箇所で$S1$または$S2$が出現しない事象の余事象の確率となり,以下のように表される.\begin{equation}\displaystyleP(S1)=1-(1-\frac{文字列S1の出現数}{文字総数})^{(d+1)}\label{eq:ps1}\end{equation}\begin{equation}\displaystyleP(S2)=1-(1-\frac{文字列S2の出現数}{文字総数})^{(d+1)}\end{equation}このときの差分部分が確からしい確率を$P(差分,S1,S2)$とすると,$P(差分,S1,S2)$は$S1$,$S2$がともに図\ref{fig:sabun_moshiki_zu}のような形で現れにくい確率であると仮定すると,以下のようになる.($S1$と$S2$が独立であることを仮定している.)\begin{eqnarray}P(差分,S1,S2)&\simeq&(1-P(S1))(1-P(S2))\end{eqnarray}次に,二つ目の「複数箇所に出現した差分部分ほど,同義表現としては確からしい.」を考える.これは,複数箇所での確率をうまく組み合わせればよい.複数箇所のうち一か所でも正しければ,その差分部分は正しいものとして抽出できると考える.つまり,差分部分が正しい事象は,任意の$S1$,$S2$に対して$S1$,$S2$に囲まれる差分部分がすべて確からしくない場合の余事象なので,差分部分が確からしい確率を$P$(差分)とすると,それは以下の式で表される.(各差分部分が独立であることを仮定している.)\begin{eqnarray}P(差分)&\simeq&1-\prod_{S1,S2}{(1-P(差分,S1,S2))}\label{eq:murata_method}\end{eqnarray}この値を尺度としてデータをソートし,この値が大きい差分ほど同義表現として確からしいと判断する.便宜上,この値でデータをソートする方法を村田法と呼ぶことにする. \section{比較手法} \label{sec:comp_method}本節では,前節の村田法の有効性を確かめるために実験で用いる比較手法について述べる.\begin{itemize}\item頻度法---差分部分の頻度に基づいてデータをソートする方法である.頻度の高いものほど,同義表現として確からしい差分部分と判断する.\item加藤第一法---これは加藤らの文献\cite{Kato1999}を参考にして作成した方法である.以下の条件式を満足する差分部分だけを使って頻度法に基づいて,同義表現として確からしい差分部分を判断する.\begin{eqnarray}\frac{「文字列S1の文字数」+「文字列S2の文字数」}{d}&>&1\label{eq:kato_method}\end{eqnarray}差分部分の長さよりも,差分部分の環境を構成する文字列$S1$と文字列$S2$の長さの和の方が長いほど,偶然生じた差分でなく対応の取れた差分部分と判断できる.そのために作成された方法である.\item加藤第二法---これは加藤第一法と村田法を組み合わせた方法である.式(\ref{eq:kato_method})の条件式を満足する差分部分だけを使って村田法で用いる式(\ref{eq:murata_method})に基づいて,同義表現として確からしい差分部分を判断する.\end{itemize} \section{実験} \label{sec:experiment}\begin{table*}[p]\renewcommand{\arraystretch}{}\small\begin{center}\leavevmode\caption{差分部分の抽出結果(上位50個)}\label{tab:jisho_sabun_result35}\begin{tabular}[h]{|l@{}|r@{}|r@{}|l@{}|l@{}|l@{}|l@{}|}\hline\multicolumn{1}{|c@{}|}{評価}&\multicolumn{1}{|c@{}|}{$-log(1-P)$}&\multicolumn{1}{|c@{}|}{頻度}&\multicolumn{1}{|c|}{前方一致部分の例}&\multicolumn{2}{|c|}{差分部分}&\multicolumn{1}{|c|}{後方一致部分の例}\\\hline○&4995&786&^心配がなく&&、&のんびりしているさま$\\○&3135&424&^たちが悪い&&・&こと$\\◎&2402&318&^また、その問題&・&や&質問$\\◎&2267&301&^等級や段階&が&の&低いこと$\\〈&1761&550&^目や口&&など&を急に大きく開くさま$\\○&1531&234&^楽器の金属&&の&弦$\\○&851.9&87&^ガイガー&&—&カウンター$\\○&761.3&105&^外部と連絡・交渉&&を&すること$\\◎&706.3&89&を「にくい」と&いう&言う&類$\\○&564.4&68&アナウンサー&&」&の略$\\○&527.1&133&七菜、二の膳&&に&五菜、三の膳\\○&376.0&72&^くろぐろ&&と&している$\\◎&375.1&51&竹の繊維を材料&と&に&して作った紙$\\○&352.5&117&乗車券などを、&&その&当日より\\○&343.2&62&^別のもので&&は&ないこと$\\◎&299.7&39&^有理数&・&と&無理数の総称$\\○&285.5&47&^書物をのせて読む&&ための&台$\\○&232.6&44&^収入が支出より&&も&多いこと$\\◎&223.5&27&他の役所&に&へ&文書で通知すること$\\◎&217.4&32&^実権&が&を&伴わない\\◎&213.9&60&^印刻に&使う&用いる&小刀$\\◎&212.5&30&^全体の重量&・&または&容量$\\◎&209.7&31&^会計年度など&で、&の&一年を半分\\◎&203.1&33&^森林&の&を&保護\\◎&200.7&26&^密輸出&と&や&密輸入$\\○&190.9&32&^また、興ざめ&&が&する$\\◎&177.5&52&^その人の利益となる&こと&事&を主張して助ける\\◎&169.3&54&ひじを曲げた&とき&時&、二の腕に\\○&166.5&35&^警視正の下&&で&、警部の上$\\◎&164.0&22&^濁音&で&に&発音する$\\◎&162.7&22&^正しい解答&または&や&解釈$\\○&158.4&921&、&&また、&食用\\◎&130.3&55&手加減をしないで&もの&物&を言うさま$\\◎&128.1&29&^一割の&一〇&十&分の一$\\◎&126.9&28&、徴兵検査&で&の&甲種合格\\〉&125.6&26&^ぐっすりと&&よく&眠ること$\\◎&123.9&16&^家の中央&にある&の&部屋$\\〉&122.7&36&を受けず、自分の力&&だけ&で生活を\\◎&116.6&23&^船がドックに&はいる&入る&こと$\\◎&115.0&16&^襲いかかって&くる&来る&こと$\\○&115.0&29&少しずつにじみ出る&&ような&さま$\\◎&111.4&14&皇子・内親王&、&・&天皇の弟などの総称$\\○&110.0&23&、会合に出席&&したり&すること$\\◎&108.4&17&味を消すため&、&に&別の物を\\◎&106.0&22&^製造&する&の&方法$\\○&105.8&178&数が一&&つ&であること$\\◎&104.6&22&^大正末期&に&の&流行$\\◎&101.5&23&して銑鉄を&つくる&作る&こと$\\◎&101.0&12&^踊りを職業と&している&する&女性$\\○&99.17&33&^口や胃&&の中&に入れたものを\\\hline\end{tabular}\end{center}\end{table*}まず,実際に村田法に基づいて抽出結果をソートしてみた.その結果を,表\ref{tab:jisho_sabun_result35}に示す.表の「評価」は獲得された差分部分に対する評価を意味し,「◎」と「○」は,差分が同義と判断される文脈があることを意味し,「〈」は,左の差分が右の差分に意味的に包含されると判断される文脈があることを意味し,「〉」は,左の差分が右の差分を意味的に包含すると判断される文脈があることを意味する.「◎」は差分の両方ともになんらかの表現がある場合で「○」は差分の片側が空文字の場合である.ここでいう「文脈」とは,抽出される文章での文脈以外でも結果の判定者が思いついた文脈でもよく,判定者の思いついた文脈において同義や包含関係などが成立した場合もそのように判断される文脈があるとした.表の「$^*$」は,判定者の思いついた文脈に書き換えたことを意味し,それ以外の文脈は抽出の際に用いられた前方一致部分と後方一致部分を意味する.「^」は定義文中での文頭を,「$」は文末を意味する.「・」「など」「の」を片一方では省略するなどの規則の他,主格の際の「が」と「の」や,「一〇」と「十」や,「または」と「や」や,「使う」と「用いる」などの同義な言い換え表現も獲得されていることがわかる.\begin{table}[t]\renewcommand{\arraystretch}{}\begin{center}\leavevmode\caption{獲得された同義表現の例}\label{tab:jisho_sabun_result_yoi}\begin{tabular}[h]{|l|l|}\hlineつつ&ながら\\一六&十六\\哺乳動物&哺乳類\\中途&途中\\業&職\\である&となる\\なる&変わる\\隔たり&差\\つく&到着する\\で作った&の\\家畜&牛馬など\\がうまい&に巧みな\\大事に&大切に\\伝える&伝達する\\ために&目的で\\はずれている&合わない\\食う&食べる\\減少する&少なくなる\\\hline\end{tabular}\end{center}\end{table}ここにあげたもの以外に得られた良さそうな同義表現を表\ref{tab:jisho_sabun_result_yoi}にあげておく.すでにある同義語辞書にも登録されていそうな単語レベルの同義語だけでなく,「がうまい」と「に巧みな」のようなフレーズレベルのものから,「つつ」と「ながら」のような機能的な同義語なども獲得できている.\begin{table*}[t]\begin{center}\leavevmode\caption{抽出精度(上位500個)}\label{tab:seido1}\begin{tabular}[h]{|l|r@{}c|r@{}c|r@{}c|r@{}c|}\hline\multicolumn{1}{|c|}{}&\multicolumn{2}{|c|}{村田法}&\multicolumn{2}{|c|}{頻度法}&\multicolumn{2}{|c|}{加藤第一法}&\multicolumn{2}{|c|}{加藤第二法}\\\hline上位50個&0.940&(47/50)&0.580&(29/50)&0.680&(34/50)&0.900&(45/50)\\上位100個&0.890&(89/100)&0.560&(56/100)&0.620&(62/100)&0.860&(86/100)\\上位200個&0.795&(159/200)&0.580&(116/200)&0.645&(129/200)&0.810&(162/200)\\上位300個&0.777&(233/300)&0.583&(175/300)&0.657&(197/300)&0.767&(230/300)\\上位400個&0.760&(304/400)&0.590&(236/400)&0.642&(257/400)&0.760&(304/400)\\上位500個&0.748&(374/500)&0.588&(294/500)&0.616&(308/500)&0.736&(368/500)\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}[t]\begin{center}\leavevmode\caption{抽出精度(上位500個.差分の片側が空文字の場合を除く)}\label{tab:seido2}\begin{tabular}[h]{|l|r@{}c|r@{}c|r@{}c|r@{}c|}\hline\multicolumn{1}{|c|}{}&\multicolumn{2}{|c|}{村田法}&\multicolumn{2}{|c|}{頻度法}&\multicolumn{2}{|c|}{加藤第一法}&\multicolumn{2}{|c|}{加藤第二法}\\\hline上位50個&0.960&(48/50)&0.880&(44/50)&0.920&(46/50)&0.980&(49/50)\\上位100個&0.960&(96/100)&0.900&(90/100)&0.930&(93/100)&0.960&(96/100)\\上位200個&0.945&(189/200)&0.910&(182/200)&0.905&(181/200)&0.950&(190/200)\\上位300個&0.930&(279/300)&0.903&(271/300)&0.907&(272/300)&0.927&(278/300)\\上位400個&0.915&(366/400)&0.907&(363/400)&0.895&(358/400)&0.907&(363/400)\\上位500個&0.904&(452/500)&0.910&(455/500)&0.878&(439/500)&0.876&(438/500)\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}[t]\begin{center}\leavevmode\caption{抽出精度と抽出数}\label{tab:tyushutusuu}\begin{tabular}[h]{|l|r@{}c|r@{}c|}\hline\multicolumn{1}{|c|}{}&\multicolumn{2}{|c|}{村田法}&\multicolumn{2}{|c|}{加藤法}\\\hline抽出精度&0.220&(110/500)&0.400&(200/500)\\抽出総数&\multicolumn{2}{|c|}{67851}&\multicolumn{2}{|c|}{17104}\\予測抽出数&\multicolumn{2}{|c|}{14927}&\multicolumn{2}{|c|}{6841}\\\hline\end{tabular}\end{center}\end{table*}次に比較手法と数量的な比較を行なった.この結果を表\ref{tab:seido1}と表\ref{tab:tyushutusuu}にあげる.ここでは,差分が同義と判断される文脈があれば,その差分は正解と判断した.表\ref{tab:seido1}は,それぞれの手法でソートした結果での上位数個の差分での精度である.表\ref{tab:tyushutusuu}には,村田法と加藤法での抽出精度と抽出数を整理している.加藤法は加藤第一法と加藤第二法の総称である.表\ref{tab:tyushutusuu}の抽出精度はランダムに取り出した500個での精度で,抽出総数はそれぞれの方法で得られた差分の総数である.予測抽出数は抽出総数と抽出精度を掛け合わせたもので,それぞれの手法により抽出できそうな同義表現の総数を意味する.加藤法では式(\ref{eq:kato_method})で差分を足切りするので,抽出総数は村田法よりも減る.また,頻度法は足切りをしないので,抽出総数は村田法と同じ結果となる.表\ref{tab:seido1}の結果を見て欲しい.上位での精度は式(\ref{eq:murata_method})を用いる村田法と加藤第二法が良く,われわれの提案する式(\ref{eq:murata_method})でソートする方法が有効であることがわかる.頻度法と加藤第一法の比較では,ソート自体は同じ頻度を用いるのに精度は加藤第一法の方が良い.加藤法での式(\ref{eq:kato_method})による差分の足切りは精度において効果があることがわかる.次に表\ref{tab:seido2}の結果を見てみよう.この表は差分の片側が空文字の場合を除いた結果である.差分の片側が空文字の場合は,片一方で単に詳しく述べているだけの場合や,対応づけの誤りである場合もあり,同義表現としてはふさわしくない対が多い.この結果は,表\ref{tab:seido1}の結果に比べて格段に良くなっている.また,この結果でも村田法は他の手法に比べて比較的良い精度をあげている.最後に表\ref{tab:tyushutusuu}を見てみよう.ランダムに500個を取り出したときの精度は,村田法は0.22と低く,また,加藤法は0.40と高い.これは先に述べたのと同じように加藤法では式(\ref{eq:kato_method})によりあらかじめ不確かな差分を削除しているためで,このため加藤法は精度が良い.しかし,抽出総数は加藤法は格段に減ってしまい,予測抽出数は村田法の方が加藤法よりもはるかに高い.加藤法では多くの同義表現を取りこぼす問題があることがわかる.\begin{table*}[t]\begin{center}\leavevmode\caption{関係の種類}\label{tab:kankei1}\begin{tabular}[h]{|l|r@{}c|r@{}c|r@{}c|r@{}c|}\hline\multicolumn{1}{|c|}{}&\multicolumn{2}{|c|}{同義関係}&\multicolumn{2}{|c|}{包含関係}&\multicolumn{2}{|c|}{類義関係}&\multicolumn{2}{|c|}{関係なし}\\\hlineランダム&0.220&(110/500)&0.454&(227/500)&0.048&(24/500)&0.278&(139/500)\\\hline上位50個&0.940&(47/50)&0.060&(3/50)&0.000&(0/50)&0.000&(0/50)\\上位100個&0.890&(89/100)&0.100&(10/100)&0.000&(0/100)&0.010&(1/100)\\上位200個&0.795&(159/200)&0.165&(33/200)&0.000&(0/200)&0.040&(8/200)\\上位300個&0.777&(233/300)&0.187&(56/300)&0.000&(0/300)&0.037&(11/300)\\上位400個&0.760&(304/400)&0.205&(82/400)&0.003&(1/400)&0.033&(13/400)\\上位500個&0.748&(374/500)&0.202&(101/500)&0.004&(2/500)&0.046&(23/500)\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}[t]\begin{center}\leavevmode\caption{関係の種類(差分の片側が空文字の場合を除く)}\label{tab:kankei2}\begin{tabular}[h]{|l|r@{}c|r@{}c|r@{}c|r@{}c|}\hline\multicolumn{1}{|c|}{}&\multicolumn{2}{|c|}{同義関係}&\multicolumn{2}{|c|}{包含関係}&\multicolumn{2}{|c|}{類義関係}&\multicolumn{2}{|c|}{関係なし}\\\hlineランダム&0.313&(106/339)&0.274&(93/339)&0.071&(24/339)&0.342&(116/339)\\\hline上位50個&0.960&(48/50)&0.020&(1/50)&0.000&(0/50)&0.020&(1/50)\\上位100個&0.960&(96/100)&0.010&(1/100)&0.000&(0/100)&0.030&(3/100)\\上位200個&0.945&(189/200)&0.030&(6/200)&0.000&(0/200)&0.025&(5/200)\\上位294個&0.932&(274/294)&0.031&(9/294)&0.007&(2/294)&0.031&(9/294)\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}[t]\small\begin{center}\leavevmode\caption{包含関係にある表現の例(左の表現が右の表現を意味的に包含する)}\label{tab:hougan_result}\begin{tabular}[h]{|l|l|l|l|}\hline\multicolumn{1}{|c|}{前方一致部分の例}&\multicolumn{2}{|c|}{差分部分}&\multicolumn{1}{|c|}{後方一致部分の例}\\\hline^目や口&など&&を急に大きく開くさま$\\^二匹&以上&&の蚕が\\方向を示す&&大&方針$\\^餅を&&たくさん&食べたあとの、もたれた感じの\\^多角形の&すべての&各&頂点が\\方針や見込み&などの&が&立たないこと$\\、&細長い&ひも状の長い&舌で\\花が&全部&いっせいに&咲く$\\^穴を&埋める&埋めて平らにする&こと$\\主君&・親&や父&など\\^左大臣の&異称&唐名&$\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}[t]\small\begin{center}\leavevmode\caption{類義関係にある表現の例}\label{tab:ruigi_result}\begin{tabular}[h]{|l|l|l|l|}\hline\multicolumn{1}{|c|}{前方一致部分の例}&\multicolumn{2}{|c|}{差分部分}&\multicolumn{1}{|c|}{後方一致部分の例}\\\hline二三度&二七&二六&分の緯線$\\^&ほり&池&や\\霧のように&一面に広がった層状の&低くただよう&雲$\\^&悪かったと&過失や人に迷惑を掛けたことを&あやまること$\\^&大きな&非常な&利益$\\^銅を&とる&含む&鉱石$\\海上の&国防&防衛・攻撃&を\\^都を&追われて&立ち去って、&地方\\授業&などを休む&等が休みになる&日$\\\hline\end{tabular}\end{center}\end{table*}次に抽出総数も多く,また,上位での精度も高かった村田法の抽出結果についてより詳細な調査を行なった.その結果を表\ref{tab:kankei1}と表\ref{tab:kankei2}に示す.表\ref{tab:kankei1}のランダムは,ランダムに取り出した500個での結果を意味し,上位X個は上位X個での結果を意味する.この調査では得られた差分が,同義表現と判断される文脈があるか,差分同士で意味的に包含関係にあると判断される文脈があるか,類義表現と判断される文脈があるか,それ以外かで集計し整理した.表\ref{tab:kankei2}は,表\ref{tab:kankei1}の調査で差分の片側が空文字の場合を除いて集計した結果である.包含関係,類義関係にある表現と判断した表現の例を表\ref{tab:hougan_result}と表\ref{tab:ruigi_result}に示しておく.この調査は,同義表現でないとされた誤りの多くが,包含関係にある表現や類義表現であったために行なったものである.同義関係だけでなく,包含関係や類義関係を正解と判断するとかなり高い精度となることがわかる.全データでは,0.722($=1-0.278$)程度の精度を持つことになる.差分の片側が空文字の場合を除いた場合で,0.658($=1-0.342$)程度の精度を持つことになる.包含関係や類義関係も正解と判断する場合は,差分の片側が空文字の場合を除くとかえって精度が下がるようである.これは一見不思議なことだが,よく考えるとそれほど不思議なことではない.包含関係にある表現を示した表\ref{tab:hougan_result}の例を見て欲しい.差分の片側が空文字の場合は,空文字でない側の差分に「など」「以上」のように意味を広げる効果を持つ表現が来る場合は空文字でない側が空文字の側の差分を意味的に包含する関係となり,空文字でない側の差分になんらかの意味的な限定をする表現が挿入されると空文字でない側の差分の方が意味が狭くなり空文字でない側が空文字の側の差分に意味的に包含される関係となる.このため,差分の片側が空文字の場合は包含関係にある表現であることが多く,包含関係や類義関係を正解と判断する場合は,差分の片側が空文字の場合も含めた場合の方が精度が高くなるのである.また,包含関係や類義関係を正解と判断する場合は,上位での精度も非常に高いものとなる.例えば,全データでの上位500個だと,包含関係や類義関係を正解と判断すると,精度は0.954($=1-0.046$)となる.以上の結果をまとめると,以下のようになる.\begin{itemize}\item式(\ref{eq:murata_method})を用いる村田法は,上位での精度が高い.また,一般によく行なわれる頻度でソートするだけよりも,精度が高いことも確認された.村田法を利用することで,効率よく精度の高い同義表現の知識を獲得することができる.\item抽出総数は,村田法の方が加藤法よりも多い.多くの同義表現を抽出する場合には,加藤法の式(\ref{eq:kato_method})での差分の候補の除去はしない方がよい.\item同義表現の抽出としては,差分の片側が空文字の場合を除いた方が精度が高い.しかし,包含関係や類義関係も正解と判断する場合は,差分の片側が空文字の場合も含めた方が精度が高い.\item抽出総数も多く,また,上位での精度も高かった村田法の抽出結果は,同義表現のみを正解とするとき,上位500個で0.748,ランダムに抽出した500個で0.220の精度で,包含関係や類義関係も正解と判断する場合は,上位500個で0.954,ランダムに抽出した500個で0.722の精度であった.\end{itemize} \section{関連研究} 本節では関連研究について述べる.まず,本稿と同様に同義なテキスト対を照合することによって,同義表現を抽出する研究について説明する.この種の研究に用いられる同義なテキスト対には,以下のようなものがある.それぞれについて説明する.\begin{itemize}\item同じ原文からの複数の翻訳を利用する同じ原文から作成された翻訳を複数集めると,その翻訳同士は同義なテキスト対となる.このテキスト対を照合することで同義表現を獲得するのである\cite{imamura_nlp2001ws_true,Barzilay:ACL01,shimohata_ipsj_iikae_mt}.今村ら\cite{imamura_nlp2001ws_true}はこの方法で同等表現を抽出し,60\%程度の精度で正しい言い換え文の生成を行なっている.Barzilayら\cite{Barzilay:ACL01}も同様の方法を利用して言い換え表現の候補を9483対抽出し,精度はほぼ意味的に等価な言い換え対を正解として85〜92\%の精度であったとしている.また,20回以上出現した112個の言い換え表現では,WordNetにおいて35\%が同義表現で32\%が上位下位関係であったと報告している.下畑ら\cite{shimohata_ipsj_iikae_mt}は抽出した同義表現を実際に機械翻訳の研究に役立てる研究もしており,抽出した同義表現の利用により翻訳可能な文を8\%向上させ,正しい翻訳を出力する割合も2.5\%向上させたと報告している.\item同内容の記事対を利用する複数の新聞社の記事を収集し,同じ事柄を記述している記事群を抽出する.この同じ事柄を記述している記事群が同義なテキスト対となるのである.このテキスト対を照合することで同義表現を獲得するのである\cite{sekine_nlp2001ws_true}.関根\cite{sekine_nlp2001ws_true}は,固有表現抽出の技術を使い,固有表現は対応づけのキーとしてテキスト対を照合する工夫をしている.この手法は,同じ事柄を記述している記事群を探すところから,処理をする必要がある手間の多い手法ではあるが,新聞データはたくさんあるので,うまくいくと多くの同義表現を抽出できる可能性がある.関根の実験では1日の新聞記事から8つの言い換え表現を抽出しそのうちの4つが正しい言い換え表現であったとしている.\item関連のある話し言葉と書き言葉のデータを利用する例えば,同内容の講演発表とその予稿を利用するのである.学会などでの発表を文字に書き起こしたデータと,その発表と同時に出す予稿の論文を利用して同義表現を抽出する研究として文献\cite{murata_kaiho_2001,murata_nl2001_henkei,Murata_spoken_written_lrec}がある.発表とそれの元となった論文は,同内容のことを同一の著者が言った,また,書いたものなので,これらも同義なテキスト対と見なせるのである.このテキスト対を照合することでも同義表現を抽出することができる.論文の講演発表に限らず,ある発表とその発表の元になった書き言葉のテキストの対も同様に,同義なテキスト対と見なせるので,それらからも同義表現を抽出することができる.この論文では定量的な評価はなされていないが,実際に抽出された話し言葉と書き言葉の対が示されている.\item同じ文書中の同内容の部分を利用する例えば,ある論文の要約の部分と,その論文全体は,要約がその論文の中身の要約であるので,文章の長さはかなり違うが内容は同じであるので,同義なテキストとみなせるのである.また,ある特許の請求項の節の内容と,その特許の実施例の節の内容も,同じ内容が記述されているので,同様に同義なテキストとみなせるのである.実際に,文献\cite{Murata_ntcir3_patent}では特許の請求項と実施例の対を利用して同義表現の抽出を試みている.この論文でも定量的な評価はなされていないが,実際に抽出された表現の対がいくつか示されている.\item要約前のテキストと要約後のテキストを利用する要約の研究においては要約前のテキストと要約後のテキストを用意して,それを比較することで要約に関する同義表現を抽出する場合がある.このとき,要約前のテキストと要約後のテキストは同内容であるので,それらは同義なテキスト対とみなせるのである.このテキスト対からも同義表現を抽出することができる\cite{Kato1999}.この論文での言い換え表現の評価では,上位100個のものはすべて要約用の言い換えとしては妥当なものであったとされている.同義表現としての評価はなされていない.\end{itemize}以上のように,同義なテキスト対を照合することで同義表現を抽出する研究には多くのものがある.ところで,本稿で提案している式(\ref{eq:murata_method})で抽出結果をソートする村田法は,これらの研究にも利用できるものであり,村田法の適用範囲は広い.次に以上の方法以外によって同義な表現を抽出する先行研究について述べる.これには,共起語が類似している単語同士を同義語とする研究がある\cite{shimomura93,lin_coling98,yamamoto_kazu_nlp2002,Dekang_Lin_IJCAI03}.共起語が類似していればその単語同士も類似している可能性が高く,類義語の抽出\cite{hindle90}にはよく使われる方法だが,この方法を同義語の抽出にも使うのである.しかし,この方法では,同義語以外に反義語や類義語を多く抽出してしまうことが知られており,同義語の抽出には種々の工夫が必要な方法となっている.下村ら\cite{shimomura93}は類似度で取り出した上位5208対から178対の同義語を取り出したとしている.山本\cite{yamamoto_kazu_nlp2002}は類似度で抽出する手法に加えて種々のヒューリスティックを利用することで,66\%の精度で1117個の言い換え可能な表現と114個の双方向言い換え可能な表現を抽出したとしている.Linら\cite{Dekang_Lin_IJCAI03}は類似度で抽出する手法に加えて,同義表現対が出現することのないパターンを利用して同義表現対かどうかの判断をすることにより,80個の同義表現を用いた実験で適合率86\%,再現率95\%の精度でその同義表現を抽出できたとしている. \section{おわりに} 言い換えに関する研究\cite{sato_ronbun_iikae,inui_iikae_tutorial,murata_paraphrase_nlp2004}は平易文生成,要約,質問応答\cite{murata2000_1_nl,murata_qa_ieice_kaisetu}と多岐の分野において重要なものであり,近年,その重要性は多くの研究者の認めるところとなっている.また,これと同時に,言い換え表現の自動獲得の研究も重要視されつつある.この状況を背景として踏まえ,本稿では,複数の辞書を用意して,それらにおける同じ項目の定義文を照合することにより,言い換え表現の一種である同義表現を抽出することを試みた.その結果,本稿で新しく提案する式(\ref{eq:murata_method})を用いる手法は,抽出データをソートした結果での上位での精度が高く,また,一般によく行なわれる頻度だけでソートする方法よりも,精度が高いことも確認された.この式(\ref{eq:murata_method})を用いる手法は,他の同義表現の抽出の研究にも利用できる有用なものである.また,本稿の手法は比較手法に用いた加藤法よりも抽出総数が多い見込みを得ており,約15,000の同義表現を抽出できる見込みを得ている.同義なテキスト対から同義表現を抽出する研究はいくつかあるが,複数の辞書の定義文を同義なテキスト対として,そこから同義表現を獲得する先行研究はない.本稿は,複数の辞書の定義文からどのくらいの同義表現を抽出できるかの目安を与えるものとなっている.また,同義表現の抽出としては,差分の片側が空文字の場合を除いた方が精度が高いが,包含関係や類義関係も正解と判断する場合は,差分の片側が空文字の場合も含めた方が精度が高いことがわかった.提案手法では,同義表現のみを正解とするとき,上位500個で0.748,ランダムに抽出した500個で0.220の精度で,包含関係や類義関係も正解と判断する場合は,上位500個で0.954,ランダムに抽出した500個で0.722の精度であった.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Barzilay\BBA\McKeown}{Barzilay\BBA\McKeown}{2001}]{Barzilay:ACL01}Barzilay,R.\BBACOMMA\\BBA\McKeown,K.~R.\BBOP2001\BBCP.\newblock\BBOQExtractingParaphrasesfromaParallelCorpus\BBCQ\\newblockIn{\Bem39thAnnualMeetingoftheAssociationoftheComputationalLinguistics},\BPGS\50--57.\bibitem[\protect\BCAY{Hindle}{Hindle}{1990}]{hindle90}Hindle,D.\BBOP1990\BBCP.\newblock\BBOQNounClassificationfromPredicate--ArgumentStructures\BBCQ\\newblockIn{\Bem28thAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\268--275.\bibitem[\protect\BCAY{今村\JBA秋葉\JBA隅田}{今村\Jetal}{2001}]{imamura_nlp2001ws_true}今村賢治\JBA秋葉泰弘\JBA隅田英一郎\BBOP2001\BBCP.\newblock\JBOQ階層的句アライメントを用いた日本語翻訳文の換言\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集}.\bibitem[\protect\BCAY{乾}{乾}{2002}]{inui_iikae_tutorial}乾健太郎\BBOP2002\BBCP.\newblock\JBOQ言語表現を言い換える技術\JBCQ\\newblock\Jem{言語処理学会第8回年次大会チュートリアル資料},1--21.\bibitem[\protect\BCAY{加藤\JBA浦谷}{加藤\JBA浦谷}{1999}]{Kato1999}加藤直人\JBA浦谷則好\BBOP1999\BBCP.\newblock\JBOQ局所的要約知識の自動獲得手法\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf6}(7).\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1998}]{JUMAN3.6}黒橋禎夫\JBA長尾真\BBOP1998\BBCP.\newblock\Jem{日本語形態素解析システム{JUMAN}使用説明書version3.6}.\newblock京都大学大学院工学研究科.\bibitem[\protect\BCAY{Lin}{Lin}{1998}]{lin_coling98}Lin,D.\BBOP1998\BBCP.\newblock\BBOQAutomaticRetrievalandClusteringofSimilarWords\BBCQ\\newblockIn{\BemCOLING-ACL'98},\BPGS\768--774.\bibitem[\protect\BCAY{Lin\JBAZhao\JBAQin\BBA\Zhou}{Linet~al.}{2003}]{Dekang_Lin_IJCAI03}Lin,D.\JBAZhao,S.\JBAQin,L.\JBA\BBA\Zhou,M.\BBOP2003\BBCP.\newblock\BBOQIdentifyingSynonymsamongDistributionallySimilarWords\BBCQ\\newblockIn{\BemProceedingsofIJCAI-03}.\bibitem[\protect\BCAY{村田\JBA内山\JBA井佐原}{村田\Jetal}{2000}]{murata2000_1_nl}村田真樹\JBA内山将夫\JBA井佐原均\BBOP2000\BBCP.\newblock\JBOQ類似度に基づく推論を用いた質問応答システム\JBCQ\\newblock\Jem{自然言語処理研究会2000-NL-135},181--188.\bibitem[\protect\BCAY{村田\JBA井佐原}{村田\JBA井佐原}{2001a}]{murata_nl2001_henkei}村田真樹\JBA井佐原均\BBOP2001a\BBCP.\newblock\JBOQ同義テキストの照合に基づくパラフレーズに関する知識の自動獲得\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2001-NL-142}.\bibitem[\protect\BCAY{村田\JBA井佐原}{村田\JBA井佐原}{2001b}]{murata_kaiho_2001}村田真樹\JBA井佐原均\BBOP2001b\BBCP.\newblock\JBOQ話し言葉と書き言葉のdiff\JBCQ\\newblock\Jem{ワークショップ「話し言葉の科学と工学」}.\bibitem[\protect\BCAY{村田\JBA井佐原}{村田\JBA井佐原}{2002}]{Murata_murata_diff_nlp2002}村田真樹\JBA井佐原均\BBOP2002\BBCP.\newblock\JBOQdiffを用いた言語処理---便利な差分検出ツールmdiffの利用---\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf9}(2).\bibitem[\protect\BCAY{村田}{村田}{2003}]{murata_qa_ieice_kaisetu}村田真樹\BBOP2003\BBCP.\newblock\JBOQ質問応答システムの現状と展望\JBCQ\\newblock\Jem{電子情報通信学会学会誌},{\Bbf86}(12),959--963.\bibitem[\protect\BCAY{村田\JBA井佐原}{村田\JBA井佐原}{2004}]{murata_paraphrase_nlp2004}村田真樹\JBA井佐原均\BBOP2004\BBCP.\newblock\JBOQ「言い換え」言い換えの統一的モデル---尺度に基づく変形の利用---\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf11}(5).\bibitem[\protect\BCAY{Murata\BBA\Isahara}{Murata\BBA\Isahara}{2001}]{murata_paraphrase_true}Murata,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2001\BBCP.\newblock\BBOQUniversalModelforParaphrasing---UsingTransformationBasedonaDefinedCriteria---\BBCQ\\newblockIn{\BemNLPRS'2001WorkshoponAutomaticParaphrasing:TheoriesandApplications}.\bibitem[\protect\BCAY{Murata\BBA\Isahara}{Murata\BBA\Isahara}{2002a}]{Murata_spoken_written_lrec}Murata,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2002a\BBCP.\newblock\BBOQAutomaticExtractionofDifferencesbetweenSpokenandWrittenLanguages,andAutomaticTranslationfromtheWrittentotheSpokenLanguage\BBCQ\\newblockIn{\BemLERC2002}.\bibitem[\protect\BCAY{Murata\BBA\Isahara}{Murata\BBA\Isahara}{2002b}]{Murata_ntcir3_patent}Murata,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2002b\BBCP.\newblock\BBOQUsingtheDiffCommandinPatentDocuments\BBCQ\\newblock{\BemProceedingsoftheThird{NTCIR}Workshop({PATENT})}.\bibitem[\protect\BCAY{佐藤}{佐藤}{1999}]{sato_ronbun_iikae}佐藤理史\BBOP1999\BBCP.\newblock\JBOQ論文表題を言い換える\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(7).\bibitem[\protect\BCAY{関根}{関根}{2001}]{sekine_nlp2001ws_true}関根聡\BBOP2001\BBCP.\newblock\JBOQ複数の新聞を使用した言い替え表現の自動抽出\JBCQ\\newblock\Jem{言語処理学会第7回年次大会ワークショップ論文集}.\bibitem[\protect\BCAY{下畑\JBA渡辺\JBA隅田\JBA松本}{下畑\Jetal}{2003}]{shimohata_ipsj_iikae_mt}下畑光夫\JBA渡辺太郎\JBA隅田英一郎\JBA松本裕治\BBOP2003\BBCP.\newblock\JBOQパラレルコーパスからの機械翻訳向け同義表現抽出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf44}(11).\bibitem[\protect\BCAY{下村\JBA福島}{下村\JBA福島}{1993}]{shimomura93}下村秀樹\JBA福島俊一\BBOP1993\BBCP.\newblock\JBOQ共起類似性に基づく同義語の抽出\JBCQ\\newblock\Jem{情報処理学会第47回全国大会予稿集,1M-10},\BPGS\3--77--3--78.\bibitem[\protect\BCAY{山本}{山本}{2002}]{yamamoto_kazu_nlp2002}山本和英\BBOP2002\BBCP.\newblock\JBOQテキストからの語彙的換言知識の獲得\JBCQ\\newblock\Jem{言語処理学会第8回年次大会}.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.現在,独立行政法人情報通信研究機構主任研究員.自然言語処理,機械翻訳,情報検索,質問応答システムの研究に従事.言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,計量国語学会,ACL,各会員.}\bioauthor{金丸敏幸}{2001年京都大学総合人間学部卒業.2003年同大学院人間・環境学研究科修士課程修了.現在,同大学院博士課程在学中.認知意味論,自然言語処理の研究に従事.日本認知科学会,日本認知言語学会,日本語用論学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所.現在,独立行政法人情報通信研究機構けいはんな情報通信融合研究センター自然言語グループリーダー.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V09N02-01
\section{はじめに} \subsection{研究背景}今日ある検索システムは,索引語を用いたキーワード検索が主流となっている.検索漏れを防ぐために,キーワードに指定した語の同意語や関連語も自動的に検索対象にするといった工夫が凝らされているものも幾つか存在する.しかし,一般にキーワードによる絞込みは難しく,検索結果からまさに必要とする情報に絞り込むには,その内容についての説明文などを検索要求と比べる必要があった.例えば,判例検索システムで今担当している事件に似ている状況で起こった過去の事件の判例を調査するとき,当該事件を記述する適切な5つ位のキーワードを指定してand検索をしても,該当して表示される判例数は100件程度になり,この中から当該事件の当事者の関係や諸事実の時間的・因果的関係などが最も類似している事件の判例を人手で探すには大変な労力が必要となる.検索システムが有能な秘書のように,必要な情報の説明を文章で与えるだけで検索対象の要約などの解説文の内容を考慮して最適な情報を掲示してくれると,ユーザの検索労力は大幅に軽減される.この検索を支援する研究のポイントは,2つの文章に記述されている内容の類似性を如何に機械的に計算するかである.本研究の詳細に入る前に,文章の類似性を評価することを要素として含むこれまでの研究についてまず述べることにする.篠原\cite{sinohara}らは,一文ごとの要約を行う目的で,コーパスから類似した文を検索しこれとの対比において省略可能な格要素を認定する手法を提案している.ここでの文章間の類似性の計算方法は,2文間に共通する述語列を求め,これに係っている格要素について,それらが名詞である場合,その意味属性を元に対応関係を,同一関係,同義関係,類似関係に分け,類似度の算出式を設定し,総合的な文間の類似度を求めている.ただし,ここでは,格が表層格であり,文間の関係や述語間(用言間)の格(時間的順序,論理関係,条件関係など)についての類似性は考慮されていない.黒橋ら\cite{kurohashi}は,係り受け構造解析における並列構造の範囲の同定において,キー文節前後の文節列同士の類似性を,自立語の一致,自立語の品詞の一致,自立語の意味的類似度,付属語の一致を元に計算し,類似度最大の文節列の組を求める方法を提案している.宇津呂ら\cite{uturo}は,用例間の類似度を用いて構造化された用例空間中を効率よく探索することにより,全用例探索を行わずに類似用例を高速に検索する手法について提案している.ここでは類似度テンプレートを用いた用例高速化に重きを置いている.この研究においては文章間の類似度を対応する語同士の表層格の対応および格要素の名詞の意味カテゴリの類似度をもとに計算している.兵藤ら\cite{hyoudo}は,表層的情報のみを用いて安定的かつ高精度に構文解析を行う骨格構造解析を用いて辞典の8万用例文について構文付きコーパスを作成し,これを対象として類似用例文検索システムを構築している.ここでの類似用例文検索では,入力された検索対象文を構文解析し,自立語,意味分類コード,機能語を対象とした索引表を作成し,それを用いて検索の絞込みを行い,次に索引表にコード化されている構造コード中の文節番号,係り受け文節番号,文節カテゴリコードを参照して用例文との構造一致があるかを検査している.田中ら\cite{tanaka}は,用例提示型の日英翻訳支援システムにおける検索手法として入力キーワードの語順とその出現位置の感覚を考慮した手法を提案している.検索手法としては,入力文字列を形態素解析して自立語を抽出し,これをキーワードとしAND検索を行っている.この際,AND検索だけでは不必要な文を拾いやすいので語順と変異を考慮した検索を行っている.これにより構文解析した結果と同じような効果を得ることができるとしている.村田ら\cite{murata}は,自然言語でかかれた知識データと質問文を,類似度に基づいて照合することにより,全自動で解を取り出すシステムを開発している.ここでの文間の類似度計算には,自立語同士の類似度については基本的にIDFの値を用い,同義語の場合はEDRの概念辞書などを用い,質問側の文節が疑問詞などを含む文節の場合は意味制約や選考に従った類似性を用いている.日本語文章を検索インタフェースに用いている研究には,京都大学総合情報メディアセンターで公開されているUnixの利用方法に関する藤井ら\cite{kyoudai}のアドバイスシステムがある.このシステムは質問文の構文木と解説文の条件部の構文木を比較し,一致点に対して重みを付けて合計することによって類似度を求め,最も類似する解説文の結果部を表示するというものである.一方,法律文を対象とした自然言語処理の研究としては,平松ら\cite{hiramatu}の要件効果構造に基づいた統語構造の解析や高尾ら\cite{takao}の並列構造の解析の研究がある.前者では,法律文の論理構造を的確に捉えるために,条文中の要件・効果などを表す表層要素を特定し,これを用いた制限言語モデルを単一化文法として記述し,これに基づく法律文の構文解析を行い,解析木と素性構造を出力している.後者では,前者の研究を受けて,係り受け解析時の並列構造の同定において,経験則に基づく制約を用いて間違った構文構造を除去し,次に並列要素の長さ,表層的・深層的類似性などに基づく評価を行い,並列構造の範囲を推定している.なお,ここでの並列構造の類似性判定においては黒橋らの方法を用いている.このように,これまでの研究における文の類似性は,述語を中心として,それに構文的に係っている語についてその表層格と意味素を基に計算しているものである.これらでは,2つの文章中の対応する語間の論理的や時系列的やその他の意味的な関係による結合の類似性については比較の対象外になっており,本研究の目的とする文章に記述されている事実の内容的な類似性を評価するには十分でない.\subsection{研究目的}本研究では,意味解析を用いた情報検索の一手法を提案する.具体的には「判例」を検索対象とし,自然言語で記述された「問い合わせ文」を検索質問とした判例検索システムJCare(JudicialCAseREtrieverbasedonsemanticgraphmatching)を開発する.判例検索は社会的にも有用性が高いので,これを検索対象とした.本システムでは,自然語意味解析により「問い合わせ文」と「判例」の双方を意味グラフに展開し,意味的に同型な部分グラフを求めることで類似度を算出する.これにより両者の内容にまで踏み込んだ検索を実現する.検索対象は「判例」の中でも「交通事故関連の判例」に絞り込む.「交通事故」の判例には,被告,原告,被害者などの``当事者''が存在し,それぞれの``当事者''が相互に「関係」を持つという特徴がある.この特徴により,照合時における比較基準が設定しやすくなる. \section{意味グラフ} \subsection{検索対象--「判例」}「最高裁判所判例集」は最高裁判所判例委員会により選択されまとめられたもので,事件の判決を集めた「事例集」の中から特殊な事件,特殊な判決(裁判上の先例となる判決)とされるものを集めたものである.現在約50万件に達する「事例集」に対して「判例集」には約3000〜4000件が含まれている.この「判例集」に含まれるひとつひとつが「判例」である.「判例」は大きく分けて,判例ID,事件の種類,判決日,当事者の氏名などといった(論文で言えば「書誌情報」に相当するような)付帯情報と,その判例の内容自体を記述した内容情報から構成されている.内容情報は平均約8000字で記述されている.この内容情報はさらに,事件の事実を表すもの,その事実から裁判官が下した判決とその理由に分けることができる.判例の中に記述された事実文は大きく2つに分けることができる.ひとつは「当事者間に争いのない事実」を記述したもの,もうひとつは「当事者それぞれが主張する事実」を記述したものである.前者は当事者のもつ属性や事故のおきた場所など,確実に事実として認められるものを示す.これに対して後者は,確実に事実といえないものである.最終的に裁判官が,後者のものに対して確かな「事実」として認めるか否かの判断を下すのである.この時,裁判官は前者の「争いのない事実文」を事故当時の状況を判断するための要素として利用する.従って,判決を下す上で事故の状況を示す「争いのない事実文」が大きな役割を担っていると考えられる.そこで本研究では,検索対象を「当事者間に争いのない事実」文とする.図~\ref{fig:judicialcase}に,ある交通事故裁判の判例から取り出した事実文を示す.\begin{figure}\begin{center}\atari(130,21)\caption{交通事故裁判の判例から取り出した事実文の例}\label{fig:judicialcase}\end{center}\end{figure}実際の判例検索システムでは,「判例」の中からこの「争いのない事実文」を検索対象として取り出す必要がある.この抽出プロセスは,本研究では手作業による前処理として実現する.その自動化は今後の課題とする.\subsection{検索質問--「問い合わせ文」}本システムを利用するにあたって利用者は,図~\ref{fig:query}に示すような,``事件の状況を示す事実を記述した文章''を「問い合わせ文」として与えるものとする.ここでは,事故当時の現場の状況,当事者の行動,当事者の属性などの,事故の発生に関する事実関係を明確に記述する.JCareはこの問い合わせ文に記述されている事故に意味的に類似した事故に関する判例を検索する.\begin{figure}\begin{center}\atari(130,21)\caption{問い合わせ文の例}\label{fig:query}\end{center}\end{figure}\subsection{意味解析(自然言語処理)}実際に検索を行うには,問い合わせ文と判例をその意味的な内容を表す内部表現に変換する必要がある.このためには言語表現からその意味を抽出するための一連の自然言語処理を行う必要がある.本研究ではこのために,形態素解析に奈良先端科学技術大学院大学の松本研究室が開発した茶筌\cite{chasen}を,係り受け解析に同研究室が開発した茶掛を,意味解析に青山学院大学の原田研究室が開発したSAGE\cite{sage99,harada,sage2000}を,さらに文脈解析に同研究室が開発したInSeRA\cite{insera}を用いることとする.\begin{figure}\begin{center}\atari(120,113)\caption{図~\ref{fig:query}の問い合わせ文から抽出されたframe述語とinterRel述語}\label{fig:frame}\end{center}\end{figure}\begin{figure}\begin{center}\atari(120,76)\caption{図~\ref{fig:query}の問い合わせ文を表わす意味グラフ(見やすくするため一部のフレームを併合してある)}\label{fig:graph}\end{center}\end{figure}\subsection{意味グラフ}先に述べた4つの自然言語処理を経て判例や問い合わせ文の文章は,図~\ref{fig:frame}に示すように,文内の語の語意と係り受け関係にある他の語との間の文内深層格を表すframe述語リストと,文間の文間深層格を表すinterRel述語リストに変換される.さらに,手作業で用意した照応解析データやラベル解析データ(詳細は3章で述べる)をこれらと併合して,問い合わせ文は最終的に図~\ref{fig:graph}に示すような意味グラフという形に変換される.ここでは,frame述語が表すひとつひとつの語が頂点(ノード)で表現され,また,frame述語間の文内深層格および文間深層格,照応解析・ラベル解析による深層格が弧(アーク)で表わされている.意味グラフ中の各弧が表す深層格には,EDR電子化辞書\cite{edr}にて定義された全部で28個の文内深層格に加え,「日本語文書の意味解析システムSAGEの高速化と精度評価」\cite{sage2000}にて追加定義された7個の文内深層格及び「日本語文間の意味的関係解析システムInSeRAの開発研究」\cite{insera}における21個の文間深層格が含まれる.\begin{figure}\begin{center}\atari(110,108)\caption{JCareの処理概要}\label{fig:jcare}\end{center}\end{figure} \section{JCareの概要} JCareシステムの処理の概要を図~\ref{fig:jcare}に示す.まず前処理として「判例」から検索対象となる「争いのない事実文」を手作業で抽出し,自然言語処理による構造解析,意味解析,照応解析などを行う.「問い合わせ文」はそのまま同様な自然言語処理を行う.この結果得られた意味グラフをViewグラフに分割し,問い合わせ文と判例をViewグラフレベルで照合し,類似度の高い順に判例を提示する.\subsection{前処理}先に述べたように,照応解析とラベル解析は現状では手作業で行う.たとえば照応解析では,指示詞が文脈中に登場した人物を指す場合,図~\ref{fig:equalto}のようなequalTo述語を出力する.equalTo述語は第1引数に照応元のフレームIDを持ち,第2引数に照応先のフレームID群のリストを持つ.例えば,図中の最初の事例は,図~\ref{fig:frame}の34番のフレームで表される指示詞『この』が,23番のフレームで表される『交差点』に照応していることを表している.\begin{figure}\begin{center}\atari(100,30)\caption{照応解析結果を表わすequalTo述語}\label{fig:equalto}\end{center}\end{figure}\begin{figure}\begin{center}\atari(120,85)\caption{ラベル解析結果を表わすlabel述語}\label{fig:label}\end{center}\end{figure}ラベル解析では,図~\ref{fig:label}に示すような判例文における箇条書きの記述パターンを解析し,label述語を出力する.label述語は第1引数に文番号,第2引数に接頭語,第3引数に箇条書き番号,第4引数に接尾語,第5引数に箇条書き項目名をもつ.この第2から第5引数の記述パターンの解析から得た箇条書き構造により,どの内容文がどの箇条書き項目を説明したものなのかという情報を抽出する.これは深層格という形で意味グラフに取り込まれ,意味グラフを部分グラフへ分割するために有用な情報となる.\subsection{当事者の同定}言語処理の出力データ群から意味グラフを作成する前に,当事者の同定を行う.当事者とは事故に関係した人物であり,本研究では被告(defendant),原告(plaintiff),被害者(victim),遺族(bereaved),その他の当事者(others)の5つのクラスを用意する.当事者の記述表現が固有名詞であったり,被害者と原告が同一人物であるときに生じうる照合時の当事者不整合を排除するために当事者の同定を行う.具体的には,「被害者」,「被害者太郎」など,同一人物について多様な表現を含む文章があったとき,これらを同一視するために図~\ref{fig:instanceof}に示すinstanceOf述語を出力する.これは第2引数のリスト中の各フレームが第1引数の当事者クラス(図中で<の後にクラス名を示した)に属すことを表す.例えば,図中の2番目の事例は,図~\ref{fig:frame}のフレーム29の『被害者』とフレーム33の『被害者太郎』が共に原告クラスに属していることを表している.\begin{figure}\begin{center}\atari(90,34)\caption{当事者同定結果を表わすinstanceOf述語}\label{fig:instanceof}\end{center}\end{figure}\subsection{意味グラフ生成部}言語処理で出力する意味解析データ,文脈解析データに加え,前処理で用意する照応解析データ,ラベル解析データ,以上4つの解析データをまとめて,図~\ref{fig:graph}に示した意味グラフを生成する.具体的には図~\ref{fig:graphdata}に示すgraph述語で表す.graph述語には頂点の情報を保持するgraphNode述語と,弧の情報を保持するgraphArc述語がある.それぞれの述語句名のあとには,検索質問(Query)か検索対象(Object)かを判別する接尾語が続く.graphNode述語では第1引数にフレームID,第2引数に概念IDを保持する.また,graphArc述語では引数を,係り元フレームID,深層格,係り先フレームIDの順で保持する.例えば,図~\ref{fig:graphdata}に示すgraph述語では,頂点1が図~\ref{fig:frame}内の『南北』を,頂点2が『走る』を表しており,その間に『goal』格の弧が存在していることが宣言されており,これらは図~\ref{fig:graph}に示した意味グラフに視覚的に表現されている.\begin{figure}\begin{center}\atari(120,49)\caption{意味グラフの述語表現}\label{fig:graphdata}\end{center}\end{figure} \section{Viewへの分割} 本研究では,意味グラフ間の類似度算出のために個々の語意だけでなく,語と語を結ぶ深層格も考慮する.一般に判例の事実文の意味グラフのサイズは頂点数が平均約1000個,弧数は平均約1200個であり,頂点と弧の両者を考慮して意味グラフ間の同型部分グラフ探索を行うと,計算量が膨大になる.そのため探索空間を狭める方法として,意味グラフを視点(View)により部分グラフ(Viewグラフと呼ぶ)群に分割することにした.\begin{table}\begin{center}\caption{PrimaryViewとSecondaryView}\atari(70,62)\label{fig:view}\end{center}\end{table}\subsection{Viewとは}Viewは,事実文中に記述されている語をそれらが表す意味(EDRでは概念idと読んでいる)を考慮して,「事故現場の状況」,「当事者の行動」,「当事者の静的特徴」などの特定の``視点''でグループ分けする単位である.本研究では,このViewとして,``誰(who)'',``いつ(when)'',``どこ(where)'',``なに(what)'',``どのように(how)''という事件の基本構造を表すPrimaryViewと,「述語句」の意味により静的なものと動的なものへさらに細分割するSecondaryViewの2種類を用意した.これらを判例用語で表わすと,表\ref{fig:view}に示す計11種のViewとなる.\begin{description}\item[1)PrimaryView:]検索対象は,判例に含まれる「事件の状況を記述した事実文」であり,基本構造上の``when'',``where'',``what''では,これらの視点から選ばれたこの「事件」に直接に関連するものを対象とする.本研究では,対象が交通事故であることから,``when''は『発生日時』View,``where''は『発生場所』View,``what''は『関係車両』Viewを表現する.また``how''にあたる『事故態様』Viewは,事件の状況をまとめて記述した(要約した)部分グラフに当たり,たとえば「事故は被害者と被告が車を競わせたことでおきた.」などがこれにあたる.``who''では,『被告』View,『被害者』View,『原告』Viewの3つを用意する.先に述べた当事者の1つである「遺族」は,判例において存在しないことが多いと判断し,Viewからは外すことにした.また,事実文中に``被告''が複数人存在したとしても,被告らが関係する事実文は,同じ『被告』Viewへ割り振り,被告同士の区別は,意味グラフのレベルで行うこととした.以上で述べた6つのViewどれにも当てはまらないものは,『その他』Viewへ割り振る.\end{description}\begin{description}\item[2)SecondaryView:]当事者に関する3つのPrimaryView(「被告」,「被害者」,「原告」)グラフを,それぞれそこに含まれる「述語句」の意味によって,さらに2つのSecondaryViewグラフへ分割する.一般的に「述語句」は,当事者の属性を示すものと,当事者の行動を示すものに大きく2種類に分けることが出来る.SecondaryViewは,この2種類の視点に異なった類似度算出方法を選択することで,視点の性格に応じた比較を行うために用意した.具体的には当事者に関する3つのViewを,当事者の静的特徴についての記述を格納する『静的特徴』Viewと,当事者の行動についての記述を格納する『単独行動』Viewに分割する.たとえば,「被告は20歳の男性である」は前者に割り振られ,「被告は自動車を運転していた」は後者に割り振られる.また,行動に関する部分グラフの中に当事者が2人以上含まれていた場合は,『単独行動』Viewへ割り振らず,PrimaryViewの『事故態様』Viewへ割り振る.これは,当事者別にViewを分けたことで生じうる比較精度の低下を防ぐためである.たとえば,「問い合わせ文」での事故の状況を示す記述が,被告中心の表現となっており,反対に「判例」の「争いのない事実文」での記述が原告中心の表現である場合,それぞれが異なるSecondaryViewへと割り振られてしまう.そのため,この事故の記述が似ているものであろうとなかろうと類似度はゼロとなる.このような照合の漏れを防ぐために,当事者が相互に関連しあいながら生じた行動を記述した部分グラフは,『事故態様』Viewへ割り振ることとする.\end{description}\subsection{主体}意味グラフ中の用言を表す頂点に接続している頂点群には,この用言が表す述語の動作主体や動作対象などを表す語を含む頂点が存在し,これを主体と呼ぶ.具体的には,EDR電子化辞書の深層格で表される主体には,「有意志動作を引き起こす主体」,「属性をもつ対象」および「動作・変化の影響を受ける対象」の3つがある.1つ目は思考的・知的動作を含む意志を持って行われる動作の主体を表し,agent格にあたるものである.2つ目は,感情を表す動作の主体を表し,a-object格にあたるものである.3つ目は,自然現象・生理現象・物理現象の主体を表し,object格にあたるものである.\subsection{代表語}実際に意味グラフの各頂点をViewグラフに分配するには各頂点がどのViewに属するかを判定する必要がある.この判定は,各々のViewを代表する語(代表語)を用意し,意味グラフの割り振り判定対象となる頂点が表す語がどのViewの代表語のEDR概念体系辞書中の下位概念であるかに基づいて行う.意味グラフ中の主体を表す各頂点を,PrimaryViewに分類するための代表語を表にしたのが,表\ref{fig:primaryview}である.これに対し述語句を表す各頂点をSecondaryViewに分類するための代表語は,図~\ref{fig:secondaryview}に示すようにEDR概念体系辞書の最上位概念群を利用し,『静的特徴』Viewでは図中Aで表した計5つの概念を代表語とし,『単独行動』Viewでは図中Bで表した計4つの概念を代表語として用意する.\begin{table}\begin{center}\leavevmode\caption{PrimaryViewの代表語}\atari(120,24)\label{fig:primaryview}\end{center}\end{table}\begin{figure}\begin{center}\leavevmode\atari(120,52)\caption{SecondaryViewの代表語}\label{fig:secondaryview}\end{center}\end{figure}\subsection{Viewへの分割手法}意味グラフ生成部で生成した意味グラフをViewに分配する際の単位は,「述語句」を1つ,「主体」を少なくとも1つ含む部分グラフとする.この単位で,意味グラフから述語句頂点に連結する頂点群を取り出し,PrimaryViewでは主体となる頂点,SecondaryViewでは述語句となる頂点のもつ語が先に述べたどの代表語の下位概念になっているかを判定し,この部分グラフ全体を適切なViewへ分配する.この際PrimaryViewでは,当事者View(「被告」,「被害者」,「原告」)の代表語の下位概念にあたる主体が2種類以上存在する場合は,事故態様Viewへ割り振る.それ以外は割り振り先PrimaryViewの優先順位を,当事者View,発生場所View,発生日時View,関係車両View,その他Viewの順番として割り振る.またSecondaryViewでは,PrimaryViewにて当事者Viewに割り振られた部分グラフの述語句の概念が,『静的特徴』Viewと『動的特徴』Viewのどちらの代表語の下位概念であるかを判定し,割り振りを実現する.意味グラフの切断箇所は「述語句」頂点間の弧とする.この際複数のグラフに共有されている頂点は,個々のViewグラフにおいて重複して存在させることとする.たとえば「原告は信号を確認せずに,横断歩道を直進した.」という文章は図~\ref{fig:graphrule}のように,2つのViewグラフとして扱われる.\begin{figure}\begin{center}\atari(100,50)\caption{意味グラフのViewへの割振り単位}\label{fig:graphrule}\end{center}\end{figure} \section{Viewごとのマッチング手法} 問い合わせ文章と判例文章の各々11個のViewグラフ同士をViewごとに両者間の位相同型部分の大きさをもとに,内容類似度を算出する.この手順について以下に説明する.\subsection{語意類似度算出部}まず2つのViewグラフから任意の頂点を1つずつ取り出し,それらの語意類似度を算出する.2ノード間の語意類似度の算出は,EDR概念体系辞書を用いて2つの語が表す概念の概念体系木における深さと,2つの共通上位語の深さを求め,図~\ref{fig:wordsimilarity}左に示す式で算出する.たとえば``交差点''と``現場''というノード間の語意類似度は,図左下に示すように算出される.次に,語意類似度の値が一定値(現在は経験的に40としている)以上ならば仮のペアを1つづつ作る.すべてのノード同士の判定終了後,ノードが重複した仮ペア群の中で類似度の最も高いものを正式ペアとする.\begin{figure}\begin{center}\atari(130,86)\caption{EDR概念体系辞書を用いた語意類似度算出}\label{fig:wordsimilarity}\end{center}\end{figure}正式ペアの語意類似度の合計を問い合わせ文のViewグラフノード数で除算し,11個のView各々における総語意類似度を求める.\subsection{格類似度算出部}語意類似度算出において,類似しているとした正式ペアの頂点対から,任意の2つの頂点対を取り出し,その間にある最短路(関係パスと呼ぶ)上の深層格リストの類似性を評価する.この評価値を格類似度と呼ぶ.\begin{figure}\begin{center}\atari(70,91)\caption{格類似度算出}\label{fig:casesimilarity}\end{center}\end{figure}\begin{table}\begin{center}\caption{深層格類似度の割り当てパターン(一部)}\atari(100,50)\label{fig:deepcasesimilarity}\end{center}\end{table}具体的には,関係パス上の深層格群の類似性評価は,図~\ref{fig:casesimilarity}に示すようにグラフ1とグラフ2の頂点対A,B間及びA',B'間に有向路があれば,その最短路(関係パス)を求めそれらが類似する深層格を共有するごとに得点を加算することで実現する.加える得点は深層格ごとに表\ref{fig:deepcasesimilarity}の類似度割り当てパターンAに示すように定めた.この表で例えば,第1行目は,「グラフ1とグラフ2の両方の関係パス上に深層格agentが存在した時に,得点10を加える」ということである.この深層格類似度値は,深層格同士の類似性,事実文中における深層格の重要性から,同じ深層格であり重要度の高いものを10,同じ深層格であるが多少重要なものを9,同じ深層格であるが重要度の低いもの及び,重要度の高いもので互いに似ている深層格を8,多少重要なもので互いに似ている深層格を7としている.頂点対ごとの関係パスに対するこの類似度得点値の合計値を頂点対の数だけ合計し,その結果を問い合わせ文のViewグラフにおける格の数で除算する.この値を各々のViewにおける総格類似度とする.ここで,関係パスにおける格類似度得点値をViewごとに設定することで,全体の類似度を算出する上でのViewの独自性を表現する.具体的には表\ref{fig:deepcasesimilarity}の最右列に示すように,もう1つの類似度割り当てパターンBを用意した.これは主として時間軸における前後関係に関する格の類似性により多くの重みを与えたものである.パターンBは当事者の行動を記述した『単独行動』Viewグラフおよび『事故態様』Viewグラフ用に,パターンAはそれ以外のViewグラフ用として利用している.\subsection{意味グラフ類似度算出部}先で求めたViewグラフごとの総語意類似度と総格類似度の和をsigmoid関数を用いて算出された値が0〜100の範囲になるよう正規化する.この値をViewごとのViewグラフ類似度とする.そして11種類のViewごとのこの値の合計値を,判例各々の問い合わせ文に対する意味グラフ類似度とする.蓄積されている全ての判例の問い合わせ文に対する意味グラフ類似度を算出する.この類似度で判例をソートして,高いものからユーザへ提示することで,判例検索システムを実現する.\begin{figure}\begin{center}\atari(100,89)\caption{発生場所Viewに関する類似度比較の例}\label{fig:viewResult}\end{center}\end{figure}\begin{figure}\begin{center}\atari(110,29)\caption{すべてのViewに関する類似度比較結果と意味グラフ類似度}\label{fig:result}\end{center}\end{figure}\subsection{事例}本研究では実際に,事故の状況を文章で記述した図~\ref{fig:query}の問い合わせ文により図~\ref{fig:judicialcase}に示した判例を含む計3つの判例を対象として類似度評価を行った.問い合わせ文と3つの判例から,本システムでの解析における途中結果を分析して,発生場所Viewに関する類似度を計算する上で抽出された語と語間の関係を取り出し,人が分かりやすいように,これらを含む原文を取り出して示したのが,図~\ref{fig:viewResult}である.さらに,この図において発生場所Viewについての総語意類似度,総格類似度,Viewグラフ類似度の計算結果を列挙した.問い合わせ文の事故現場は信号機の設置された丁字路交差点であり,判例2および判例3も同様である.これに対し,判例1の事故現場は高速道路上り線上であり,問い合わせ文と異なる.この結果,まず判例1との比較では語意が近い語があることにより総語意類似度はある程度の値となったが,語間の関連性の類似性がなく総格類似度は0であった.一方判例2では,事故現場の交差点が共に2つの道路が『交差している』ということ,さらにその『交差する』で連体修飾されている『交差点』であること,『信号機が設置されている』ことなどの記述があることで,総語意類似度と総格類似度共に高い点になっている.一方判例3は,語の関連の仕方は判例2ほど似ていないので総格類似度は判例2ほど高くないが,『環八通り』という語が共に含まれているので総語意類似度は非常に高くなっている.これらと同様に他のViewについての比較計算が行われた結果,それぞれのViewごとの類似度は図~\ref{fig:result}に示すようになり,これらの和である意味グラフ類似度はそれぞれ138,202,264と算出された. \section{まとめ} 本研究では,日本語文章による問い合わせ文による情報検索として,一群の文章群から,出現する語の意味およびそれらの意味的関係において問い合わせ文と類似した記述をできるだけ多く含む文章を検索する手法を提案した.具体的には,検索対象を交通事故の判例文章に特定し,これら文章群に意味解析を中心とした自然言語処理を施して意味グラフ群へ展開し,それらの間に存在する意味的な位相同型部分の大きさを基に類似性を判定する判例検索システムJCareを開発した.ここでは,意味グラフを交通事故を特徴づける11個の視点によりViewグラフと呼ぶ部分グラフに分割し,Viewグラフごとの照合を行うことで類似度を算出する手法を構築し,検索の高速化・精度向上を図った.実際に交通事故の3つの判例に対し問い合わせ文との照合を行ったところ,おおよそこの類似度は内容的な類似性の程度をよく表わしているとの評価を得た.今後は類似度算出における関係パスの深層格の評価値を経験的に求めていく必要がある.また,前処理部などにおける手作業を自動化する必要がある.\acknowledgment本研究を進めるにあたり,日本語形態素解析システム『茶筌』,係り受け解析システム『茶掛』を提供してくださった奈良先端科学技術大学院大学の松本裕治教授に深く感謝致します.また,判例検索システム構築において多くのアドバイスおよび判例データを提供してくださった第一法規株式会社に深く感謝致します.\bibliographystyle{jnlpbbl}\bibliography{ipjpaper2000}\begin{biography}\biotitle{略歴}\bioauthor{原田実(正会員)}{1951年生.1975年東京大学理学部物理学科卒業.1980年東京大学理学系大学院博士課程修了.理学博士.(財)電力中央研究所研究員を経て,1989年より青山学院大学理工学部経営工学科助教授,2000年より同情報テクノロジー学科教授,現在に至る.1986年電力中央研究所経済研究所所長賞.1992年人工知能学会全国大会優秀論文賞.1996--1998年EAGL推進事業機構「ソフトウェア開発の統合的自動化」プロジェクトリーダー.主たる研究は,自動プログラミング,ソフトウェア分析・設計の自動化,自然語意味理解,ルールベースの自動更新,アクティブメッセージなど.編著書「自動プログラミングハンドブック」など.情報処理学会,電子情報通信学会,人工知能学会,ソフトウエア科学会,IEEE,ACM,AAAI各会員.}\bioauthor{鈴木亮(非会員)}{1999年青山学院大学理工学部経営工学科卒業.2001年同大学大学院修士課程修了.4月よりソニー株式会社.}\bioauthor{南旭瑞(非会員)}{2000年青山学院大学理工学部経営工学科卒業.現在同大学大学院.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V16N04-03
\section{はじめに} 経済のグローバル化に伴い,英語が言わば国際共通語となった現在,日本人の英語によるコミュニケーション能力を向上させることは,国際的なビジネスの場などでの発表や交渉・議論を効果的に行うためには極めて重要な課題である.このような能力を向上させるためには,従来型の学習方法に加え,情報通信技術を応用したeラーニングによる学習の効率化が有効な解決策となりうる.ここで,英語によるコミュニケーションに必要な能力について注目する.英語による円滑なコミュニケーションを行なうには,以下に述べる種々の英語に関連した能力を総合的に向上させる必要がある.\begin{itemize}\item英語表現を正確に聞き取る能力\item英語表現を正確に発音する能力\item語順や単語を適切に選んで英語文を構成する能力(英語表現能力)\end{itemize}これらの個別の能力の内,発音と聴き取りに関しては,既にeラーニングシステムの研究開発が進んでおり,一定の成果を上げている\cite{hirose_2001,yamada_ica_2004}.その反面,英語表現能力を扱ったeラーニングシステムに関する取り組みは少ない.そこで本研究では,英語学習者コーパスの開発と英語表現能力を扱うeラーニングシステムの研究開発について取り組んでいる.英語表現能力をeラーニングにおいて扱う場合,従来の授業型の英語学習で教師により行なわれている「学習者の習熟度に適合した課題の選択」と「翻訳誤りの指摘とその訂正」という機能を自動化する必要がある.これらの2つの機能を自動化する上で,まず,的確に英語表現能力を自動測定する手法の確立が必要である.英語表現能力の測定においては,課題文を提示してその英訳文の適切性を評価する手法が一般的であるが,正解訳は一意に決定できないことから,学習者の作成した英文の評価は人手による主観的な評価によるのが現状である.英訳文の質を客観的に評価する手法については,機械翻訳の分野で,課題文に対する複数の正解訳文(以下参照訳と略称する)を予め用意しておき,編集距離や単語$n$グラムの一致度を用いて評価する手法が検討されている.このような評価手法は,統計的翻訳システムの評価においては,主観評価値と一定の相関を示すことが実証されているが\cite{papineni-EtAl:2002:ACL},その反面,ルールベースなどの機械翻訳の方式によっては,必ずしも適切な指標とはならないことも指摘されている\cite{burch_eacl_2006}.このような手法が英語学習者の翻訳文の評価においても有効であれば,英語表現能力の測定を自動化することが可能となる.この点を検証するためには,様々な英語能力を持つ英語学習者が翻訳した英訳文が必要である.現状の大規模学習者コーパスとしては,NICTJLEコーパス\cite{izumi}や,JEFLLコーパス\cite{JEFLL}があるが,これらは比較的自由度の高い会話やエッセイ方式によりデータ収集が行われているため,同一日本語文に対する複数の被験者による英訳文や,英語母語話者が翻訳した複数種類の英訳文を集積していないなど,英語表現能力の自動評価の検討を行うには,必ずしも十分満足できるものではない.そのため,まず,学習者の英語表現能力を自動評価する手法に対する検討のための基盤となる学習者コーパスを開発した.これは,学習者の英語表現能力の客観的評価手法の研究を行うための基盤として,TOEICスコアで表現される様々なレベルの英語能力を持つ英語学習者が同一の日本語文を翻訳した英訳文のデータを収集したコーパスである.本論文では,まず,この学習者コーパスの収集方法に関する説明を行なう.次に,収集したコーパスの基本的な統計量について示すとともに,被験者による英訳難易度,英訳の平均文長,英訳の平均単語長などの特徴量と,TOEICスコアとの関係に関する分析を行なう.最後に,本コーパスの訳質自動測定への応用について述べる.以下,\ref{sec:corpus}では開発した学習者コーパスの収集方法について述べ,\ref{sec:analysis}では,コーパスの基礎的な分析結果について述べる.\ref{sec:apli}では,本コーパスの訳質自動測定への応用について述べ,最後に,\ref{sec:conc}では全体をまとめる. \section{学習者コーパスの収集方法} label{sec:corpus}\subsection{課題文}\label{subsec:text_type}学習者コーパス収集に用いる英訳課題として,以下の6種からなる日本語文1,500文を利用した.これらの1,500文をランダムに5等分し,300文からなる課題セットを5つ作成した.\begin{itemize}\item英訳課題文の内訳(300文×5セット)\begin{itemize}\item中学と高校の英語教科書に出題されている英訳問題文\item旅行会話用フレーズブックから抽出された日本語文\cite{kikui_eurospeech_2003}\iteme-mail用フレーズブックから抽出された日本語文\itemビジネス会話用フレーズブックから抽出された日本語文\item留学用フレーズブックから抽出された日本語文\item音声翻訳システムの研究開発のために収集された旅行会話(SLDB)\cite{takezawa_cocosda_99}の日本語文\end{itemize}\end{itemize}表\ref{tab:1}にこれらの英訳課題文の詳細を示す.\begin{table}[t]\caption{英訳課題文の詳細}\begin{center}\includegraphics{16-5ia3t1.eps}\end{center}\label{tab:1}\end{table}\subsection{英語学習者のデータ収集}\label{subsec:data}英訳データの収集方法は,被験者1人につき,課題セット1つ(300文)を割り当て,課題文をWEBブラウザ上に提示し,496名の被験者に英訳を行なわせた.被験者毎にタイピング能力が異なることから,英訳時における時間制限は設けなかった.英訳時には,辞書や参考書の使用を禁止した.また,被験者には,英訳時において,各課題文に対する英訳の難易度を1〜5の5段階(1非常に簡単,2簡単,3普通,4難しい,5非常に難しい)で主観評価させた.全ての課題文に対する英訳が終了した後,各被験者にスペルミスと思われる箇所を提示し,スペルミスの修正を行なわせた.スペルミスの修正作業時には,辞書や参考書の利用を許可した.被験者の能力を測定するための試験としてTOEICを採用し,データ収集と同時期に,TOEIC公開テストか,団体試験であるTOEICIPテストのどちらかを,全ての被験者に受験させている\footnote{2006年5月にTOEICの各パートの問題数が変更されたが,この変更以前の試験を受験させている.}.TOEICIPテストは,過去のTOEIC公開テストの問題を用いた試験であり,スコア自体はTOEIC公開テストのものと等価であることから,これらのスコアは同等に扱っている.なお,TOEICは,ReadingとListeningの試験から構成される試験であるものの,SpeakingやWritingの能力とも高い相関を示すスコアである点\cite{toeic2}や,日本における受験者が多く,多数の被験者を集めやすい点を勘案して採用した.\subsection{バイリンガルによる参照訳の収集}\label{ref}先に述べた英語学習者による英訳結果の他に,同じ英訳課題文1,500文に対して,英語を母語とする5名のバイリンガルによる参照訳を収集している.参照訳にバリエーションを持たせるため,英訳課題1文に対して,バイリンガル1名が2訳を作成することにより,のべ10文の参照訳を収集している.参照訳全体に対する1文あたりの平均単語数は,10.2単語である.\subsection{バイリンガルによる英訳難易度評価}\label{subsec:eval}日本語を母語とするバイリンガル3名(通訳者,英語教育経験者,言語処理関連データ作成経験者)により,「英訳難易度」に関する評価を実施した.各評価者には,1,500文全ての課題文に対する評価を行なわせている.\ref{subsec:data}で述べた被験者による作業は,英訳と英訳難易度評価を並行して行なう作業であるのに対し,ここでのバイリンガルによる作業は,英訳難易度評価のみを行なう作業である.そのため,評価作業に集中でき,同一評価者内における評価の一貫性の維持が比較的容易であると考えられる.これらの理由から,バイリンガルによる評価では,\ref{subsec:data}で述べた評価基準(5段階)とは異なり,より細かい7段階の評価基準(1非常に簡単,2簡単,3少し簡単,4普通,5少し難しい6難しい,7とても難しい)にて評価を実施した.次に,\ref{ref}で述べた参照訳収集と,英訳難易度評価とにおいて,バイリンガルの母語が異なる理由について述べる.参照訳収集では,英語として一切誤りの無い完璧な訳を収集する必要があるため,英語が母語であるバイリンガルに依頼した.一方,英訳難易度評価においては,日本語母語話者に対する,日本語を英訳する際の難易度の測定が目的であるため,日本語が母語であるバイリンガルに依頼した. \section{学習者コーパスの分析} \label{sec:analysis}ここでは,\ref{sec:corpus}で述べた方法により収集されたデータの基本的な統計量について示すとともに,TOEICスコアとの関連性という観点からの分析を行なう.まず,被験者のTOEICスコアの分布を示し,次に,被験者のTOEICスコアと,被験者による英訳難易度,英訳の平均文長,英訳の平均単語長などとの関係について分析する.最後に,3名のバイリンガルによって行なわれた英訳難易度の評価結果とその分析について示す.\subsection{被験者のスコア分布}図\ref{fig:histgram}に,英語学習者496名のTOEICスコアのヒストグラムを示す.ここでの平均は559.4,標準偏差は208.1である.日本人のTOEIC受験者全体のTOEICスコアの平均(580前後)と標準偏差(170前後)\cite{toeic}と比較すると,平均スコアは低く,標準偏差は大きくなっている.これは,被験者を募集する際に,英語能力の分布は,可能な範囲内で均一となるように努めたためである.\subsection{TOEICスコアと英訳課題の主観的英訳難易度}\label{class}\begin{figure}[t]\begin{center}\includegraphics{16-5ia3f1.eps}\end{center}\caption{英語学習者のTOEICスコア}\label{fig:histgram}\end{figure}ここでは分析のため,まず,496名の英語学習者をTOEICスコアが低い順に100名づつグーピングしていき,5つのグループに分けた.以下に各グループのTOEICスコア帯を示す.\begin{description}\item[グループ1]TOEICスコア175〜365の100名.\item[グループ2]TOEICスコア365〜465の100名.\item[グループ3]TOEICスコア470〜605の100名.\item[グループ4]TOEICスコア605〜760の100名.\item[グループ5]TOEICスコア765〜990の96名.\end{description}図\ref{fig:hist_dif}は,このグループ分けを用い,次式により定義する英語学習者($i$)ごとの課題文に対する主観難易度の平均値($D_{i}$)を,各グループごとにプロットしたヒストグラムである.\begin{equation}D_{i}=\frac{1}{n_{test}}\sum_{j=1}^{n_{test}}d\{i,j\}\label{eq:dif}\end{equation}ただし,$n_{test}$は,英語学習者$i$が英訳した課題文の数(ここでは,300)で,$d\{i,j\}$は,英語学習者$i$が課題文$j$に対して付与した5段階の主観難易度(1〜5)である.図\ref{fig:hist_dif}を見るとTOEICスコアが低い学習者ほど,難しい英訳問題であると感じており,TOEICスコアが上がるにつれ,簡単な問題であると評価する割合が高くなっていくことがわかる.被験者全体における$D_{i}$の平均は,3.2であった.この点と,日本人の平均的なTOEICスコアであるグループ3の難易度が,3付近に集中している点とを考慮すると,英訳課題文の難易度の設定としては,程よいレベルであったといえる.\begin{figure}[t]\begin{center}\includegraphics{16-5ia3f2.eps}\end{center}\caption{英語学習者による翻訳難易度}\label{fig:hist_dif}\end{figure}\subsection{TOEICスコアと英訳結果の文長との関係}\ref{ref}で述べたように,バイリンガルによる参照訳の平均文長は10.2単語であるが,これに比べると被験者全体での平均文長は短く,8.0単語であった.被験者のTOEICスコアと英訳の文長の関係を見るため,\ref{class}で述べたものと同様の5グループ分類を用いてプロットした各被験者の英訳結果の平均文長(平均単語数)のヒストグラムが図\ref{fig:hist_sent}である.図\ref{fig:hist_sent}では,TOEICスコアが605以上の英語学習者の平均文長もこの付近に集中している.また,グループ5とグループ4とでは,分布に大きな差が無いが,グループ3以降,TOEICスコアが低くなるにつれ,平均文長が短くなっていく傾向にある.\subsection{英訳の単語長とTOEICスコアの関係}図\ref{fig:hist_word}は,図\ref{fig:hist_sent}の平均文長を平均単語長(1単語当たりの平均文字数)に置き換えてプロットしたヒストグラムである.全体的な傾向としては,図\ref{fig:hist_sent}で示した文長とTOEICスコアとの関係の場合と同様,TOEICスコアが高い英語学習者ほど長い単語を使うという傾向がみられた.\begin{figure}[p]\begin{center}\includegraphics{16-5ia3f3.eps}\end{center}\caption{英訳結果の文長}\label{fig:hist_sent}\vspace{1\baselineskip}\begin{center}\includegraphics{16-5ia3f4.eps}\end{center}\caption{英訳結果の単語長}\label{fig:hist_word}\end{figure}しかしながら,グループ毎に細かく見ていくと,文長の場合ではグループ5とグループ4が非常に似かよった分布となっている反面,単語長の場合については,グループ5とグループ4の分布形状は異なり,グループ4とグループ3が似かよった分布形状となっている.これらのことから,TOEICのスコア帯が605から760のグループ4と,765〜990のグループ5では,英訳結果に含まれる文長(単語数)においては大きな差が無いものの,グループ5はグループ4と比較し,英訳時に長い単語を使う傾向があると言える.\subsection{英訳におけるスペルミスとTOEICスコアの関係}\label{subsec:misspell}\ref{subsec:data}で述べたように,各英語学習者には,300文全ての翻訳が終了した後に,スペルミスと思われる箇所を提示し,修正させた\footnote{スペル修正については,各英語学習者の作業のみをもとに集計している.実際にスペルミスの箇所がデータ収集システムにより正しく指摘されていても,各英語学習者がスペルミスであると認めず,修正を行なわなければスペルミスとして扱っていない.}.ここでは,修正が行なわれた文数について分析する.図\ref{fig:hist_misspell}は,スペル修正が行なわれた文の数を学習者ごとに合計し,プロットしたヒストグラムである.グループ分けの方法についてはこれまでと同様である.\begin{figure}[b]\begin{center}\includegraphics{16-5ia3f5.eps}\end{center}\caption{スペルミスを含む英訳文数}\label{fig:hist_misspell}\end{figure}図\ref{fig:hist_misspell}を見ると,英語学習者の能力が高いほど,スペル修正された文の数が少ないことが分かる.0〜30のランクで,TOEICスコアが最も低いグループ1の頻度が高くなっているが,これは,英語学習者による英訳が不可能で,英訳結果が空欄の場合については,スペルミスが無い英訳として集計していることが起因していると考えられる.\subsection{バイリンガルによる英訳難易度評価に関する分析}ここでは,\ref{subsec:eval}で述べた,バイリンガル3名により行なわれた英訳難易度評価の結果について分析する.図\ref{fig:hist_dif_bilin}は,3名の評価者により評価された1,500文の難易度のヒストグラムである.図\ref{fig:hist_dif_bilin}では,図\ref{fig:hist_dif}とは異なり,全テスト文での平均をとるのではなく,文単位の難易度を用いてプロットしている.図\ref{fig:hist_dif_bilin}を見ると,同一の課題文集合を評価しているにもかかわらず,難易度の分布が大きく異なることが分かる.特に評価者3においては,難易度3(少し簡単)と難易度4(普通)が多くなっている.\begin{figure}[b]\begin{center}\includegraphics{16-5ia3f6.eps}\end{center}\caption{バイリンガルによる英訳難易度評価結果のヒストグラム}\label{fig:hist_dif_bilin}\end{figure}\begin{table}[b]\caption{バイリンガルによる英訳難易度評価の分析結果}\begin{center}\includegraphics{16-5ia3t2.eps}\end{center}\label{tab:2}\end{table}表\ref{tab:2}は,各評価者の難易度評価結果間の相関係数と$\kappa$係数\cite{cohen_1960}を示す.相関係数で見ると,全ての組み合わせにおいて,0.65以上の値が得られており,ある程度の相関があることが分かるが,$\kappa$係数で見ると0.2程度と非常に低く,評価結果の一致の度合いは非常に低いことが分かる.この点については,今後,評価指標の再検討,評価マニュアルの整備を行うなどして,安定した評価結果が得られるように検討していく必要がある.図\ref{fig:mean_diff}は,表\ref{tab:1}の分類ごとに計算した平均難易度である.図\ref{fig:mean_diff}において,横軸は各分類ごとの平均難易度を,エラーバーは標準偏差をそれぞれ表している.図\ref{fig:mean_diff}を見ると,e-mail用フレーズブックの難易度が最も高くなっている.これは,表\ref{tab:1}に示したように,課題文1文あたりの文長が長いことが影響していると考えられる.ただし,SLDBと旅行会話用フレーズブックとを比較すると,SLDBの文長は,旅行会話用フレーズブックの文長の倍以上にもかかわらず,SLDBの難易度の方が低くなっており,必ずしも課題文の文長だけで説明できる訳ではない.今後,英訳難易度を自動判定するためには,英訳課題文に含まれる単語の性質も考慮に入れ,更なる分析を行っていく必要がある.\begin{figure}[t]\begin{center}\includegraphics{16-5ia3f7.eps}\end{center}\caption{英訳課題文の各分類ごとの難易度}\label{fig:mean_diff}\end{figure} \section{訳質自動評価への応用} \label{sec:apli}\ref{sec:corpus}では,英語学習者コーパスの収集方法について説明した.\ref{sec:analysis}においては,収集されたコーパスの基本的な統計量について示すとともに,TOEICスコアとの関連性という観点からの分析を行なった.ここでは,実際に収集されたコーパスをもとに,機械翻訳の分野における翻訳自動評価技術を,英語学習者による英訳の訳質評価に応用し,翻訳自動評価のスコアを英語学習者のTOEICスコアの自動推定に用いる実験を行っている.まず,従来の英語能力測定法について述べ,次に,翻訳自動評価法について概説する.最後に,翻訳自動評価のスコアの妥当性を検証するための相関分析と,TOEICスコアを自動推定するための回帰分析について述べる.\subsection{従来の能力測定法との関係}\label{subsec:conv}TOEICに代表される現在の英語能力測定においては,採点の容易さから,多肢選択形式の問題が多用されている.このような問題形式は,文法的な規則に関する知識や,訳語選択に対する能力を直接的に測定することは容易であるが,英語表現能力を直接的に測定することは出来ない.そのため,英語表現能力を構成すると考えられる文法能力や訳語選択能力などの諸能力を測定することにより,間接的に英語表現能力を測定しているというのが現状である.本実験では,このような方法ではなく,英訳問題を採点することにより,直接的に英語表現能力を測定するという方法をとる.このような方法は,従来では人手による英訳の採点が必要であることから,非常にコストの高い形式であった.しかしながら本研究では,近年の機械翻訳の研究開発において発展を遂げた翻訳自動評価技術を応用することにより,英訳採点部分を自動化し,高い評価コストをかけること無しに,英語表現能力を直接的に測定することを可能にすることを目的としている.\subsection{翻訳自動評価法の概要}\label{subsec:auto_summary}本実験で用いる全ての翻訳自動評価手法は,参照訳と評価対象文とを比較し,類似度を計算するという考え方に基づいている.翻訳の正解は一つだけではないため,多数存在する翻訳の正解訳に対する網羅性を高める目的から,複数の参照訳を用いることが多く,また,これにより自動評価の性能を上げることができる.翻訳自動評価においては,参照訳と評価対象文の間の類似度をどのように計算するかによって,様々なスコアが存在する.本実験では,$n$-gramの一致率に基づくスコアであるBLEUとNIST,単語単位の一致率を測定するWERとPER,最長一致単語列を用いてスコアリングを行なうGTM,単語の一致度に関するスコアと一致した単語の連続性に関するスコアとの積により計算するMETEORの6つ\cite{yasuda_ai_08,gtm}を用いる.\subsection{翻訳自動評価法による訳質評価}\label{subsec:auto}\ref{ref}で述べたバイリンガルによる翻訳結果を参照訳として用い,BLEU,NIST,WER,PER,GTM,METEORの6つのスコアを,課題セット(300文)単位で計算した.図\ref{fig:scut}に,課題セット単位のBLEUスコアと,TOEICスコアの関係を示す.図中の縦軸はTOEICスコアを,横軸は課題セット単位のBLEUスコアをそれぞれ表している.また,\ref{subsec:text_type}で述べたように,課題セットは5種類あることから,それぞれの課題セットに対して異なるシンボルを割り当て,英語学習者1名を1つの点とし,496名分の結果をプロットしている.通常,異なるセット間の自動評価スコアは,直接的に比較することは出来ないが,図\ref{fig:scut}を見ると,5つのセット全てが,ほぼ同様の分布となっており,それぞれの課題セットが同様の特性の課題文集合となっていることが示唆される.今回の課題セットについては,全課題文1,500文の集合から,各課題セットが300文になるようにランダムに振り分けることにより,このような結果が得られたが,課題セットのサイズを小さくしすぎると,課題セット毎にスコアが大きく異なるようになると考えられる.\begin{figure}[t]\begin{center}\includegraphics{16-5ia3f8.eps}\end{center}\caption{TOEICスコアとBLEUスコアの関係}\label{fig:scut}\end{figure}\begin{table}[t]\caption{TOEICスコアと翻訳自動評価スコアの相関係数}\begin{center}\includegraphics{16-5ia3t3.eps}\end{center}\label{tab:miss}\end{table}表\ref{tab:miss}には,TOEICスコア,自動評価スコア間の相関係数を示している.ここでの相関係数は,課題セットの違いを無視し,全てのサンプル(496人分)を用いて計算した値である.表\ref{tab:miss}を見ると,全ての自動評価スコアにおいて,0.7以上の高い相関\footnote{WERとPERは,誤り率であるため,正しい翻訳ほど低いスコアとなる.このため相関係数は負の値となっている.}が得られており,中でもGTMが最も高い相関となっていることが分かる.\subsection{重回帰分析}\label{subsec:reg}ここでは,先に述べた自動評価スコアと,\ref{class}〜\ref{subsec:misspell}で述べた4つのパラメータ(英語学習者自身による英訳難易度,英訳結果の平均文長,英訳結果の平均単語長,スペルミスが修正された文の数)とを用いた重回帰分析を行なう.表\ref{tab:miss}から分かるように,翻訳自動評価間の相関は非常に高い.今回実施した重回帰分析では,多重共線性の問題を回避するため,GTMのみを用いている.\begin{table}[t]\caption{重相関分析の結果}\begin{center}\includegraphics{16-5ia3t4.eps}\end{center}\label{tab:reg}\end{table}表\ref{tab:reg}が,重回帰分析の結果で,各説明変数に対する重回帰係数と$P$値が示されている.ここでの$P$値は,各重回帰係数が0であるという帰無仮説を検定するための値である.また,表\ref{tab:reg}の重回帰係数を用いた場合の重相関係数は0.76,標準誤差は134.84であった.GTMのみを用いた場合と比較し,相関係数では約0.02,標準誤差で約6.37の改善が得られている.表\ref{tab:reg}を見ると,英訳の平均文長(Sentencelength)と英訳の平均単語長(Wordlength)の$P$値は非常に高くなっている.このことより,この2つの変数は,図\ref{fig:hist_sent}と図\ref{fig:hist_word}では,TOEICスコアとのある程度の関連性は観測されたものの,TOEICスコアを推定するための説明変数としては不適切であると言える.GTMについてみると,$P$値も低く,重回帰係数の値も大きいことから,最も重要な説明変数であると言える.また,英語学習者自身による英訳難易度とスペルミスが修正された文の数の2変数については,重回帰係数の値は低いため寄与は小さいものの,$P$値も低いことから有意な説明変数であると言える. \section{まとめと今後の課題} \label{sec:conc}TOEICスコアで能力測定された496名の英語学習者が,300文からなる英訳課題を翻訳することにより収集された英語学習者コーパスについて解説した.まず,データの収集方法について説明し,次に,英語学習者自身による英訳難易度評価結果,英訳結果の平均文長,英訳結果の平均単語長,スペルミスの観点からのコーパスの分析結果について述べた.最後に,本コーパスの応用例として,英語学習者の能力を自動測定するための実験を行なった.本実験では,まず,バイリンガルにより翻訳された参照訳と既存の翻訳自動評価技術とを用いて,英訳課題セット単位の自動評価スコアを計算した.BLEU,NIST,WER,PER,GTM,METERORの6つの自動評価スコアと,TOEICスコアとの相関係数を求めたところ,GTMの相関係数が最も高く,0.74となった.次に,GTMに,先の分析で用いた4つのパラメータ(英語学習者自身による英訳難易度評価結果,英訳結果の平均文長,英訳結果の平均単語長,スペルミスが修正された文の数)を加えてこれらを説明変数とし,TOEICを目的変数とした重回帰分析を行なった.重回帰分析の結果,重相関係数は0.76,標準誤差は134.68となり,GTMのみを用いた場合と比較し,相関係数では約0.02,標準誤差で約6.37の改善が得られた.本研究においては,300文からなる課題セット単位での自動評価を取り扱ったが,今後は,パラグラフや文といったより小さな単位での自動評価や誤り検出への取り組みを行うとともに,英訳難易度の測定技術の研究を進め,「学習者の習熟度に合った英訳問題の提示」と「訳質自動評価と評価結果と診断結果の提示」とを繰り返すことにより効率的な学習を行うことができるeラーニングシステムの開発につなげて行きたい.\acknowledgment本研究は,科学研究費補助金(基盤研究B)(課題番号16300048)による助成研究の一部である.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Akahane-Yamada,Kato,Adachi,Watanabe,Komaki,Kubo,Takada,\BBA\Ikuma}{Akahane-Yamadaet~al.}{2004}]{yamada_ica_2004}Akahane-Yamada,R.,Kato,H.,Adachi,T.,Watanabe,H.,Komaki,R.,Kubo,R.,Takada,T.,\BBA\Ikuma,Y.\BBOP2004\BBCP.\newblock\BBOQ{ATRCALL}:Aspeechperception/productiontrainingsystemutilizingspeechtechnology.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalCongressonAcoustics},\lowercase{\BVOL}\III,\mbox{\BPGS\2319--2320}.\bibitem[\protect\BCAY{Callison-Burch,Osborne,\BBA\Koehn}{Callison-Burchet~al.}{2006}]{burch_eacl_2006}Callison-Burch,C.,Osborne,M.,\BBA\Koehn,P.\BBOP2006\BBCP.\newblock\BBOQRe-evaluatingtheRoleofBleuinMachineTranslationResearch.\BBCQ\\newblockIn{\BemProceedingsofthe11thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\249--256}.\bibitem[\protect\BCAY{Cohen}{Cohen}{1960}]{cohen_1960}Cohen,J.~A.\BBOP1960\BBCP.\newblock\BBOQAcoefficientofagreementfornominalscales.\BBCQ\\newblock{\BemEducationalandPsychologicalmeasurements},{\Bbf20},\mbox{\BPGS\37--46}.\bibitem[\protect\BCAY{ETS}{ETS}{2008}]{toeic}ETS\BBOP2008\BBCP.\newblock\BBOQhttp://www.toeic.or.jp/toeic/data/data\_avelist.html.\BBCQ.\bibitem[\protect\BCAY{Hirose,Ishi,\BBA\Kawai}{Hiroseet~al.}{2001}]{hirose_2001}Hirose,K.,Ishi,C.~T.,\BBA\Kawai,G.\BBOP2001\BBCP.\newblock\BBOQOntheuseofspeechrecognitiontechnologyforforeignlanguagepronunciationteaching.\BBCQ\\newblock{\BemJournalofthePhoneticSocietyofKorea},{\Bbf42},\mbox{\BPGS\37--46}.\bibitem[\protect\BCAY{Izumi,Uchimoto,\BBA\Isahara}{Izumiet~al.}{2004}]{izumi}Izumi,E.,Uchimoto,K.,\BBA\Isahara,H.\BBOP2004\BBCP.\newblock\BBOQThe{NICTJLE}Corpus:Exploitingthelanguagelearners'speechdatabaseforresearchandeducation.\BBCQ\\newblock{\BemSpecialIssuesofInternationalJournaloftheComputer,theInternet,andManagement(IJCIM)},{\Bbf12}(2),\mbox{\BPGS\119--125}.\bibitem[\protect\BCAY{Kikui,Sumita,Takezawa,\BBA\Yamamoto}{Kikuiet~al.}{2003}]{kikui_eurospeech_2003}Kikui,G.,Sumita,E.,Takezawa,T.,\BBA\Yamamoto,S.\BBOP2003\BBCP.\newblock\BBOQCreatingcorporaforspeech-to-speechtranslation.\BBCQ\\newblockIn{\BemProceedingsofEurospeech},\mbox{\BPGS\381--384}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni-EtAl:2002:ACL}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBleu:aMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Takezawa}{Takezawa}{1999}]{takezawa_cocosda_99}Takezawa,T.\BBOP1999\BBCP.\newblock\BBOQBuildingaBilingualTravelConversationDatabaseforSpeechTranslationResearch.\BBCQ\\newblockIn{\BemProceedingsof2ndInternationalWorkshoponEast-AsianLanguage-ResourcesandEvaluation---OrientalCOCOSDAWorkshop'99---},\mbox{\BPGS\17--20}.\bibitem[\protect\BCAY{投野}{投野}{2007}]{JEFLL}投野由紀夫\BBOP2007\BBCP.\newblock\Jem{日本人中高生一万人の英語コーパス中高生が書く英文の実態とその分析}.\newblock小学館.\bibitem[\protect\BCAY{Turian\BBA\Luke~Shen}{Turian\BBA\Luke~Shen}{2003}]{gtm}Turian,J.~P.\BBACOMMA\\BBA\Luke~Shen,I.D.~M.\BBOP2003\BBCP.\newblock\BBOQEvaluationofMachineTranslationandItsEvaluation.\BBCQ\\newblockIn{\BemProceedingsofMTSummit},\mbox{\BPGS\386--393}.\bibitem[\protect\BCAY{Woodford}{Woodford}{1982}]{toeic2}Woodford,P.~E.\BBOP1982\BBCP.\newblock{\BemAnintroductiontoTOEIC:Theinitialvaliditystudy}.\newblockEducationalTestingService.\bibitem[\protect\BCAY{安田\JBA隅田}{安田\JBA隅田}{2008}]{yasuda_ai_08}安田圭志\JBA隅田英一郎\BBOP2008\BBCP.\newblock機械翻訳の研究・開発における翻訳自動評価技術とその応用.\\newblock\Jem{人口知能学会誌},{\Bbf23}(1),\mbox{\BPGS\2--9}.\end{thebibliography}\begin{biography}\bioauthor{安田圭志}{1999年同志社大学工学部知識工学科中退(飛び級進学のため).2004年同志社大学大学院工学研究科博士課程了.工学博士.現在,独立行政法人情報通信研究機構において機械翻訳システムの研究に従事.2006年電子情報通信学会ISSソサイエティ論文賞受賞.情報処理学会,電子情報通信学会,音響学会各会員.}\bioauthor{喜多村圭祐}{2006年同志社大学工学部知識工学科卒業.2008年同大学大学院知識工学研究科修士課程了.工学修士.機械翻訳の研究開発に従事.現在(株)NEC.}\bioauthor{山本誠一}{1972年大阪大学工学部電子工学科卒業.1974年同大学大学院基礎工学研究科修士課程了.同年(株)KDD入社.ATR音声言語コミュニケーション所長などを経て,現在同志社大学理工学部教授.工学博士.この間,適応信号処理,音声合成,音声認識,音声翻訳の研究に従事.1981年度電子情報通信学会学術奨励賞,日本音響学会第3回技術開発賞,第5回技術開発賞,電子情報通信学会ISSソサイエティ論文賞,電気通信普及財団テレコム技術賞などを受賞.電子情報通信学会FELLOW,IEEEFELLOW.言語処理学会,日本音響学会各会員.}\bioauthor{柳田益造}{1969年大阪大学工学部電子工学科卒業.1971年同大学大学院修士課程了.同年NHK入局.1978年大阪大学大学院博士課程了.工学博士.同年大阪大学産業科学研究所助手,1978〜1979年オランダ国立Groningen大学音声研究所客員研究員,1987年郵政省電波研究所(現情報通信研究機構)音声研究室長などを経て,現在同志社大学理工学部教授.音響信号処理,音声言語情報処理ならびに音楽知覚・情報処理の研究に従事.2004日本音響学会佐藤論文賞,2006年電子情報通信学会ISSソサイエティ論文賞などを受賞.著書(分担執筆):「ファジイ科学」(海文堂),「信号処理」(オーム社),「メディア情報処理」(オーム社),訳書(分担):「ソフトコンピューティング」(海文堂).日本音響学会音楽音響研究会委員長,日本音楽知覚認知学会理事,電子情報通信学会,情報処理学会,IEEE,米音響学会など各会員.}\end{biography}\biodate\end{document}
V10N04-04
\section{はじめに} 自然言語には一つの意味内容を指し示すのに様々な表現を用いることができるという特徴がある.これは同義異表記の問題と呼ばれ,多くのアプリケーションの高精度化を妨げる原因の一つである.例えば情報検索や質疑応答といったアプリケーションでは,検索質問と文書が異なる表現を用いて記述されている場合,それらが同じ意味内容を表しているかどうかを判定する必要がある.また,計算機上で正しく推論を行うためには,推論ルールと実際の文の間の表現の違いを吸収しなくてはならない.そこで,言い換えという「同じ意味内容を表す複数の表現を結びつける変換」を自然言語処理の基礎技術として使い,この問題を解決しようとする考え方が現われてきた\cite{Sato99,Sato01,Kurohashi01}.このような背景から,近年では言い換え処理の重要性が認識されはじめ,さかんに研究が行われている.テキストを平易に言い換えてユーザの読解補助を行うアプリケーションが注目を集めていることも,言い換え研究が盛んに行われている一つの理由である\cite{Takahashi01}.近年の計算機やネットワークの発達によって,我々は膨大な電子テキストにアクセスすることが可能となったが,一方で年少者やノンネイティブなど,その恩恵を十分に受けることができないユーザが存在している.そのため,このようなアプリケーションへのニーズは今後増加し,言い換え処理の重要性も高まると考えられる. \section{国語辞典による言い換え} 本研究では,国語辞典を使った用言(動詞,形容詞,形容動詞,サ変名詞)の言い換え手法を提案する.これは定義文から見出し語の同等句を取り出して言い換えを行うというものである.例えば,見出し語「要求」を言い換える場合,その同等句は「強く求める」であるので,(\theparactr)のように言い換えることができる.以下では,(\theparactr)のように,「見出し語が用言であれば,その定義文は用言を主辞とする形で記述されており,なおかつ主辞は定義文の末尾に位置する」と仮定して議論を行う.また,定義文の主辞となる用言のことを{\bf定義文主辞}と呼ぶ.\rsk{要求}{強く求めること}{}\para{工事の中止を\underline{要求した}}{工事の中止を\underline{強く求めた}}\subsection{特徴}国語辞典の定義文は,少数の平易な語彙を使って記述されている.そのため国語辞典を使って言い換えを行うことによって,以下のことが期待できる.\begin{itemize}\itemテキストで使用される語彙のサイズを減らし,冒頭で述べたような同義異表記問題の解決に寄与できる.\itemノンネイティブなどの話者でも理解できる語のみを使った表現へと言い換える,テキスト平易化アプリケーションの開発につながる.\end{itemize}例えば「激怒」と「立腹」は類似する意味内容を表しているが,計算機がそれらの意味の同値性を判定することは難しい.しかし下に示すように,定義文はいずれも「怒る」という語を使って記述されているため,これを利用すれば意味の同値性を判定することも可能である.\rsk{激怒}{激しく怒ること}{}{}\rsk{立腹}{怒ること}{}{}また下に示すのは,国語辞典による言い換えがテキストを平易化し,ユーザの読解支援につながるような例である.言い換え前の文「渡航費用を支給する」には「渡航」「支給」という語が含まれているが,すべての年少者やノンネイティブがこれらの語を知っているとは限らない.そのため,この文は彼らにとって理解しにくい可能性がある.しかし「渡航」「支給」という語を,下に示す定義文を使って言い換えると「外国へ行くのに必要な費用をわたす」となる.この文に含まれる「行く」「わたす」という語は,年少者やノンネイティブにとっても理解しやすい表現であると考えられる.\rsk{渡航}{船や飛行機で海をこえて,外国へ行くこと}{}{}\rsk{支給}{お金や品物をわたすこと}{}{}\para{渡航費用を支給する}{外国へ行く費用をわたす}\subsection{用言の言い換えの難しさ}国語辞典を使って用言を言い換える場合,技術的な問題となるのは以下の三つの処理である.\paragraph{多義性の解消}多義語を言い換える場合,その語義の曖昧性解消が必要となる.例えば「しのぐ」は下のような二つの定義文を持っているので,(\theparactr)のように言い換えるには「苦境をしのぐ」の「しのぐ」が,どちらの意味を持つか判別しなくてはならない.\rsk{しのぐ}{耐え忍ぶこと}{優れていること}{}\para{苦境をしのぐ}{苦境を耐え忍ぶ}\paragraph{同等句の決定}先に示した例文(1)のように,見出し語の同等句は「定義文主辞とそれに副詞的にかかる語」であることが多い.しかし,定義文主辞にかかる「体言+格助詞」(以下では「体言+格助詞」のことを{\bf項}と呼び,そこに含まれる体言を{\bf格要素}と呼ぶ)も同等句に含めなくてはならない場合も存在する.例えば「体得」の同等句は「つける」ではなく「身につける」である.\rsk{体得}{知識やわざを\underline{身につける}こと}{}\para{技術を体得する}{技術を身につける}\newpage\paragraph{格助詞の変換}用言を言い換える時,(\theparactr)のように格助詞が変化する現象にも対応しなくてはならない.\rsk{下回る}{ある数や量より,少なくなる}{}\para{前年\underline{を}下回る}{前年\underline{より}少なくなる}\subsection{格フレームの対応付けに基づく用言の言い換え}\begin{figure*}[t]\begin{center}\epsfile{file=VerbParaphrase.eps,width=110mm}\caption{格フレームの対応付けに基づく用言の言い換え}\label{VerbParaphrase}\end{center}\end{figure*}国語辞典だけを利用していたのでは,前節で述べたような問題を克服するのは困難である.当然のことであるが,国語辞典には見出し語がとる項についての記述はない.また定義文主辞がとる項の情報も,日本語では項の省略が頻繁に行われるため,定義文に記述されているとは限らない.下の例のように,完全に項が省略されている定義文も珍しくない.このような現象は,国語辞典に限らず,既存の語彙知識を言い換えに利用しようとする際,つねに起こりうる問題である.\rsk{しのぐ}{耐え忍ぶこと}{優れていること}そのため本研究では,格フレーム辞書をあらかじめ大規模コーパスから自動構築して,見出し語と定義文主辞がもつ格フレームの対応付けを学習し,それを利用した言い換え手法を提案する.言い換えの流れは次のようになる(図\ref{VerbParaphrase}).次章以降では,1,2の処理について詳しく述べる.\begin{enumerate}\item{\bf格フレーム辞書の自動構築\\}まず大規模コーパスから用言の格フレーム辞書を自動構築する\cite{Kawahara01}.複数の意味を持つ用言には,複数の格フレームが学習される.\item{\bf格フレームの対応付け\\}国語辞典から「見出し語と定義文主辞」の対を抽出して,見出し語が持つ格フレームと定義文主辞が持つ格フレーム(見出し語格フレーム,主辞格フレームと呼ぶ)の対応付けを学習する.図\ref{VerbParaphrase}の場合では「\{組織,$\cdots$\}ガ\{メーカー,社,$\cdots$\}ヲしのぐ」という格フレームは「\{$<$主体$>$\}ガ\{他社\}ヨリ優れている」という格フレームと対応付けられる.\item{\bf言い換え処理\\}入力文と類似する見出し語格フレームを一つ選択して,その格フレームの対応付け情報を使って言い換える.図\ref{VerbParaphrase}の場合では,「しのぐ」の格フレームの中から,入力文「他社をしのぐ」と最も類似する「\{組織$\cdots$\}ガ\{メーカー,社$\cdots$\}ヲしのぐ」という格フレームが選択される.そして,2の処理で学習した格フレームの対応付けを利用して言い換える.\end{enumerate} \section{格フレーム辞書の自動構築} 提案手法を実現するためには,大規模で高精度な格フレーム辞書が必要である.本研究では,河原らの手法\cite{Kawahara01}を用いて作成した大規模な格フレーム辞書を用いる.\subsection{概要}格フレーム辞書をコーパスから自動学習する際に最も問題となるのは,用言の多義性である.つまり表記が同じ用言でも,その意味が違えば別の格フレームを持つ.そのため,コーパスから自動収集した用言の係り受けデータを,意味ごとにクラスタリングする処理が必要となる.用言の直前に現れる項({\bf直前項}と呼ぶ)は用言の意味に強い影響を与えているので,直前項が決まれば用言の語義もほとんど一意に決まる.\cite{Kawahara01}ではこの考え方を使って,自動収集した係り受けデータを次のような二段階の処理でクラスタリングする手法を提案している(図\ref{AbstractCaseFrame}).\begin{enumerate}\item同じ直前項をもつ係り受けデータをまとめる.このようにして作成されたデータを{\bf用例パターン}と呼ぶ.以下では「荷物」「物資」など,用例パターンの項に含まれる各単語を{\bf用例}と呼ぶ.\item用例パターン間に類似度を設定して,類似度の高いものをクラスタリングする.\end{enumerate}ここで設定されている用例パターンの類似度は,この次のステップの「格フレームの対応付け」で非常に重要な役割を果たしている.そのため本章では,\cite{Kawahara01}で提案されている用例パターンの類似度の計算方法について説明を行う.\begin{figure}[t]\begin{center}\epsfile{file=caseframe.eps,width=130mm}\caption{格フレーム辞書構築の流れ}\label{AbstractCaseFrame}\end{center}\end{figure}\subsection{用例パターンの類似度}\label{CFSim}用例パターン$F_1,F_2$の類似度は次のように定める.\begin{quote}\vspace{10pt}用例パターンに含まれる用例の類似度$\times$項の一致度\vspace{10pt}\end{quote}以下では,この類似度計算について詳しく述べる.ただし説明の中では,二つの用例パターン$F_1,F_2$は,下のように,それぞれ項$C_{11},C_{12},\dotsC_{1m}$と$C_{21},C_{22},\dotsC_{2n}$を持っていて,$C_{11}$と$C_{21}$,$C_{12}$と$C_{22},\dotsC_{1l}$と$C_{2l}$が,それぞれ同じ格助詞をもっているものとする.なお,同じ格助詞をもつ項を共通項と呼ぶ.\begin{quote}\tr{$F_1$:}{}{$F_2$:}\tr{$C_{11},$}{1}{$C_{21},$}\tr{$C_{12},$}{1}{$C_{22},$}\tr{\dots}{}{\dots}\tr{$C_{1l},$}{1}{$C_{2l},$}\tr{\dots}{}{\dots}\tr{$C_{1m}$}{}{$C_{2n}$}\end{quote}\subsubsection{用例の類似度}用例群間の類似度を定義するためには,まず二つの用例$e_1,e_2$間の類似度$ExSim(e_1,e_2)$を定義する必要がある.$ExSim(e_1,e_2)$は,日本語語彙大系\cite{Ntt}を利用して,以下のように計算する.\begin{eqnarray*}ExSim(e_1,e_2)=max_{x\ins_1,y\ins_2}sim(x,y)\\[10pt]sim(x,y)=\frac{2D}{D_x+D_y}\hspace{2.8cm}\\[10pt]D=max\{D_z|x\subsetz,y\subsetz\}\hspace{1.9cm}\end{eqnarray*}日本語語彙大系は,用例に意味属性を与えるために使う.日本語語彙大系から与えられる意味属性には,二つの特徴がある.まず,用例が多義である場合は,一つの用例に複数の意味属性が与えられている.そして,意味属性は階層構造を持っている.$s_1,s_2$は,用例$e_1,e_2$が日本語語彙大系\cite{Ntt}の中で持っている意味属性集合で,$x,y$はそれらの中の一つである.$D_x,D_y,D_z$は意味属性$x,y,z$の階層の深さである.$x\subsetz$は,$z$が$x$の上位に位置する意味属性であることを表している.$sim(x,y)$の計算式で分子が$2D$となっているのは,用例間の類似度を1に正規化するためである.\subsubsection{共通項に含まれる用例の類似度}つぎに,共通項$C_{1i},C_{2i}$に含まれる用例の類似度$ArgSim(C_{1i},C_{2i})$を定義する.類似度は,$C_{1i},C_{2i}$に含まれる用例間の類似度を,それらの出現頻度で重み付けして平均したものとする.計算式は以下のようになる.\begin{eqnarray*}ArgSim(C_{1i},C_{2i})=\frac{\sum_{e_1\inC_{1i}}\sum_{e_1\inC_{2i}}\sqrt{|e_1||e_2|}\cdotExSim(e_1,e_2)}{\sum_{e_1\inC_{1i}}\sum_{e_1\inC_{2i}}\sqrt{|e_1||e_2|}}\end{eqnarray*}ここで,$e_1,e_2$は,$C_{1i},C_{2i}$に含まれる用例を表す.また,$|e_1|,|e_2|$は,用例$e_1,e_2$の用例パターン$F_1,F_2$における出現頻度とする.\subsubsection{用例パターンに含まれる用例の類似度}用例パターンに含まれる用例の類似度$Sim(F_1,F_2)$は,各共通項の$ArgSim(C_{1i},C_{2i})$の重み付け平均とする.重みは,$C_{1i},C_{2i}$に含まれる用例の出現総数の積の平方根とする.したがって,$Sim(F_1,F_2)$は以下のように計算される.\begin{eqnarray*}Sim(F_1,F_2)=\frac{\sum_{i=1}^{l}\sqrt{|C_{1i}||C_{2i}|}\cdotArgSim(C_{1i},C_{2i})}{\sum_{i=1}^{l}\sqrt{|C_{1i}||C_{2i}|}}\end{eqnarray*}$|C_{1i}|,|C_{2i}|$は,$C_{1i},C_{2i}$に含まれる用例の延べ数を表す.\subsubsection{項の一致度}用例パターン$F_1,F_2$の項の一致度は、それぞれの用例パターンについて「すべての項に含まれる用例の出現総数」に対する「共通項に含まれる用例の出現総数」の割合を求めて,それらの積の平方根をとったものとする.項の一致度$Correspond$の計算式は以下のようになる.\begin{eqnarray*}Correspond(F_1,F_2)=\sqrt{\frac{\sum_{i=1}^{l}|C_{1i}|}{\sum_{i=1}^{m}|C_{1i}|}\times\frac{\sum_{i=1}^{l}|C_{2i}|}{\sum_{i=1}^{n}|C_{2i}|}}\end{eqnarray*}\subsubsection{用例パターンの類似度}これらを踏まえて,二つの用例パターン$F_1,F_2$の類似度$Similarity$は次のように定義する.式の前半部分は用例パターンに含まれる用例の類似度で,後半部分は項の一致度である.\begin{eqnarray*}\lefteqn{Similarity(F_1,F_2)=}\hspace{13cm}\\[10pt]\frac{\sum_{i=1}^{l}\sqrt{|C_{1i}||C_{2i}|}\cdotArgSim(C_{1i},C_{2i})}{\sum_{i=1}^{l}\sqrt{|C_{1i}||C_{2i}|}}\times\sqrt{\frac{\sum_{i=1}^{l}|C_{1i}|}{\sum_{i=1}^{m}|C_{1i}|}\times\frac{\sum_{i=1}^{l}|C_{2i}|}{\sum_{i=1}^{n}|C_{2i}|}}\end{eqnarray*}上記の計算式に基づいて用例パターンの類似度を求め,類似度が0.9以上となる用例パターンをマージして格フレームを作成する. \section{格フレームの対応付け} 次に,構築された格フレーム辞書を利用して,国語辞典の見出し語の各格フレームに対して,それを言い換える上で最も適切な主辞格フレームを選択する.ここでは,見出し語の各格フレームと主辞格フレームの間に類似度を定義して,それに基づいて対応先を決定するという方法をとる.ただし,定義文やそれに付与されている例文が有効に利用できる場合には,あらかじめ対応付ける格フレームの候補を絞り込む処理を行う.すなわち格フレームの対応付けは以下の三つのステップで行う.\begin{enumerate}\item定義文を用いて,見出し語格フレームの対応先候補となる主辞格フレームを絞り込んでおく.\item例文を用いて,それぞれの見出し語格フレームの語義を絞り込む.\item見出し語格フレームと主辞格フレームの間の類似度計算に基づいて,見出し語格フレームに最も類似する主辞格フレームを選択する.\end{enumerate}図\ref{prune}に「\{本部,幹部\}ガ\{外部,専門家\}ニ\{教え\}ヲ仰ぐ」という格フレームに対応する主辞格フレームを決定する過程を示す.\begin{figure*}\begin{center}\epsfile{file=prune_all.eps,width=140mm}\caption{格フレームの対応付け}\label{prune}\end{center}\end{figure*}\subsection{定義文を用いた主辞格フレームの絞り込み}図\ref{prune}の「\{米国,団体\dots\}ガ\{国,日本\dots\}ニ\{公開,解除\dots\}ヲもとめる」のように,主辞格フレームの一部は,定義文主辞と異なる意味を持っている.このような主辞格フレームと見出し語格フレームの間に対応関係が存在することはありえない.そのため定義文を使って,これらの主辞格フレームを取り除き,見出し語格フレームの対応付け候補となる主辞格フレームを絞り込む.絞り込みを行うための手掛かりとして,定義文中に現れる定義文主辞の項を用いる.とくに定義文主辞の直前に現れる項({\bf主辞直前項}と呼ぶ)がガ格,ヲ格,ニ格のときは,主辞直前項だけを使って絞り込みを行う.このような場合には,主辞直前項が定義文主辞の用法に与える影響は非常に大きいと考えられるからである.すなわち絞り込み方法は,主辞直前項がガ格,ヲ格,ニ格のいずれかであるときと,それ以外のときの二通りを用意することになる.ただし,定義文主辞が項をとらない場合は,定義文を用いた絞り込みは行わない.\begin{table}[h]\caption{絞り込みの方法}\label{puning}\begin{center}\begin{tabular}{ccl}\\\hline主辞直前項のタイプ&格要素への制約&具体例(下線部が主辞直前項)\\\hline格要素が単語一つ&全く同じ&{\bf挑む}\underline{戦いを}しかける\\格要素が並列構造&類似度が0.8以上&{\bf侵犯}よその国の\underline{領土や権利などを,}おかすこと\\格要素が一般概念語&同じ意味属性&{\bf参集}\underline{人々が}集まってくること\\\hline\end{tabular}\end{center}\vspace{-20pt}\end{table}\paragraph{主辞直前項がガ格,ヲ格,ニ格の場合}直前項の格助詞が主辞直前項と同じで,なおかつ直前項の格要素が表\ref{puning}の制約を満たすような主辞格フレームのみを対応付け候補とする.格要素への制約は主辞直前項のタイプによって三つに分かれている.ただし,一般概念語とは「人々」「場所」などのように一般的な概念を表す単語のことである.図\ref{prune}の場合では,主辞直前項のタイプは表\ref{puning}の「格要素が並列構造」である.それゆえ,主辞直前項の格要素(教え,さしず)と類似度が0.8以上の用例を持った主辞格フレームが対応先候補となる.\paragraph{主辞直前項がガ格,ヲ格,ニ格でない場合}この場合は主辞直前項のみを使った絞り込みは難しい.そのため,主辞格フレームと定義文に共通して現れるガ格・ヲ格・ニ格の項の類似度の平均をもとめ,それが0.8以上の格フレームだけを対応付け候補とした.なお,主辞格フレーム・定義文間の項の類似度は,以下のように定義した.\begin{eqnarray*}項の類似度=max\{ExSim(e_{def},e)|e\inC\}\end{eqnarray*}ここで$e_{def}$は定義文主辞がとる格要素であり,$e$は主辞格フレームの項$C$に含まれる用例である.また$ExSim(e_1,e_2)$は日本語語彙大系に基づいて計算した用例$e_1,e_2$の類似度で,\ref{CFSim}節で定義した計算方法と同様である.\subsection{例文を用いた語義の絞り込み}上記のように対応付け候補となる主辞格フレームを絞り込んだ後,定義文に与えられた例文を用いて,それぞれの見出し語格フレームの語義を絞り込む.例えば図\ref{prune}に示した,点線で囲まれた「仰ぐ」の格フレームは,語義2に与えられた例文(先生の教えを仰ぐ)と類似している.そのため,この見出し語格フレームの対応先を,語義2の定義文主辞「もとめる」の格フレームに絞り込むことができる.例文と見出し語格フレームの類似度は,例文と見出し語格フレームに共通して現れるガ格・ヲ格・ニ格の項の類似度の平均とする.項の類似度は前述と同様のものを用いた.そして,類似度が0.8以上である見出し語格フレームは,その語義を絞り込んだ.この処理は,定義文に例文が与えられていない場合や,見出し語格フレームと類似する例文が見つからない場合には行わない.\subsection{類似度計算による対応付け}以上のようにして対応先を絞り込んだ後,見出し語格フレームと主辞格フレームの間に設定した類似度に基づき,各見出し語格フレームに対して最も類似する主辞格フレームを一つ選択する.類似度計算は\ref{CFSim}節で説明した用例パターン間の類似度計算方法に,若干の修正を加えたものを使う.以下では,見出し語格フレーム$F_1$と主辞格フレーム$F_2$において,$C_{11}\dotsC_{1l}$と$C_{21}\dotsC_{2l}$が共通項で,$F_2$の$C_{2n+1}$は見出し語の同等句に含まれるとする.\begin{quote}\tr{$F_1$:}{}{$F_2$:}\tr{$C_{11},$}{1}{$C_{21},$}\tr{$C_{12},$}{1}{$C_{22},$}\tr{\dots}{}{\dots}\tr{$C_{1l},$}{1}{$C_{2l},$}\tr{\dots}{}{\dots}\tr{$C_{1m}$}{}{$C_{2n}$}\tr{}{}{$(C_{2n+1})$}\end{quote}\subsubsection{同等句に含まれる項の決定}どの項が同等句に含まれているかは,見出し語格フレームと主辞格フレームの類似度計算を通して決定する.つまり,ある項が同等句に含まれると仮定して求められた類似度が,含まれないと仮定した場合の類似度より高ければ,その項は同等句に含まれると判定する.ただし,対応付けの処理を補助するために,次に述べる仮定に基づいて同等句に含まれる可能性がある項を絞り込む.まず,同等句に含められる可能性がある項は,主辞直前項だけであると仮定する.さらに,主辞直前項が以下のいずれかの場合にあてはまれば,それが同等句に含まれる可能性はないと仮定する.\begin{enumerate}\item主辞直前項の格要素が一般概念語である場合\item並列構造になっている場合\item格助詞がガ格,ヲ格,ニ格以外の場合\end{enumerate}つまり,表\ref{puning}の「格要素が単語一つ」に分類される主辞直前項だけが,同等句に含まれる可能性を考慮する対象となる.\subsubsection{共通項の決定}\ref{CFSim}節では,同じ格助詞をもつ項が二つの格フレームの共通項であると定義していた.しかし,この定義は異なる用言の格フレームを対象とした場合には適切ではない.なぜなら,異なる格助詞をもつ項でも共通項になることができる,同等句に含まれる項は共通項になることができない,といった現象が起こりうるからである.共通項の決定は,同等句に含まれる項を決定する作業と同様に,見出し語格フレームと主辞格フレームの類似度計算を通して行う.ただし,任意的な項は用言が変わっても格助詞が変わらないことが多いので,任意的な項は,異なる格助詞をもつ項と共通項にならないと仮定する.ここでは任意的な項とは「格フレーム中で,その項に含まれる用例出現頻度が低いもの」又は「ガ格,ヲ格,ニ格,ト格,ヨリ格,カラ格,マデ格以外の項」とした.\subsubsection{項の一致度の修正}\ref{CFSim}節においては項の一致度は,それぞれの格フレームについて「すべての項に含まれる用例数の出現総数」に対する「共通項に含まれている用例の出現総数」の割合を求めて,それらの積の平方根をとったものとしていた.しかし「すべての項に含まれる用例数の出現総数」を数えるときに,同等句に含まれる項の用例は数えない.\subsubsection{共通項に含まれる用例の類似度の修正}見出し語格フレーム$F_1$と主辞格フレーム$F_2$の共通項$C_{1i},C_{2i}$間の類似度$ArgSim(C_{1i},C_{2i})$を以下のように新しく定義する.\ref{CFSim}節では,項に含まれるすべての用例の組合せについて類似度を計算し,その類似度の重み付け平均を共通項に含まれる用例の類似度としていた.ここでは見出し語格フレームに出現する一つの用例に対して,主辞格フレームに出現する用例の中から類似度が最大となるものを一つ選び,その類似度の重み付け平均を$ArgSim(C_{1i},C_{2i})$としている.この修正の理由は,一般に定義文主辞の方が見出し語よりも広い意味をカバーしていることが多く,そこに現われる用例も多様なためである.\begin{eqnarray*}ArgSim(C_{1i},C_{2i})=\frac{\sum_{e_1\inC_{1i}}|e_1|\cdotmax\{ExSim(e_1,e_2)|e_2\inC_{2i}\}}{\sum_{e_1\inC_{1i}}|e_1|}\end{eqnarray*} \section{実験} 例解小学国語辞典\cite{RSK}と,毎日新聞と日経新聞の計20年分から自動構築した格フレーム辞書を用いて格フレームの対応付けを行い,新明解国語辞典\cite{SHINMEIKAI}に記載されている例文(220文)に含まれる用言を言い換える実験を行った.ただし「使う」「作る」などの基本的な用言は,定義文を使って言い換えることが難しい.また,それらの用言は十分に平易なので,工学的な立場からみれば,言い換え処理を行うメリットが少ない.そこで例解小学国語辞典の定義文に頻出する形態素の上位2000に含まれる用言はこのような基本的な用言であると考え,実験対象から外した.\subsection*{評価方法}システムの評価を行うためには,言い換え結果が正しい言い換えであるかどうかを判定する必要がある.ここでは,筆者らが,多義性解消・同等句の抽出・表層格の変換が適切に実現されているかをチェックし,三つの処理全てが実現されていれば,その言い換え結果は正しい言い換えであると判定した.コーパスから言い換えを自動抽出するような研究では,抽出された二つの表現が言い換えになっているかどうかは,それらの文脈に強く依存していることが多い.そのため客観的な評価が難しく,複数の人間が評価を行うケースが多い\cite{Kimura01,Brazilay01}.これに対して,本研究で扱う国語辞典による言い換えはより基本的な処理であり,その言い換えの結果が日本語として妥当であるかどうかについて,判断が迷うようなケースはほとんど無かった.\begin{table}[t]\caption{語義の曖昧性解消の精度}\label{WSD}\begin{center}\begin{tabular}{cccc}\hline&成功&失敗&精度\\\hlineベースライン&60&55&52\,\%\\提案手法&82&33&71\,\%\\\hline\end{tabular}\end{center}\vspace{3pt}\caption{語義の曖昧性がない用言,又は曖昧性解消に成功した用言の言い換え精度}\label{NoWSA}\begin{center}\begin{tabular}{cccc}\hline&成功&失敗&精度\\\hlineベースライン&163&24&87\,\%\\提案手法&170&17&90\,\%\\\hline\end{tabular}\end{center}\vspace{3pt}\caption{実験文全体の言い換え精度}\label{ALL}\begin{center}\begin{tabular}{cccc}\hline&成功&失敗&精度\\\hlineベースライン&147&73&66\,\%\\提案手法&170&50&77\,\%\\\hline\end{tabular}\end{center}\end{table}\subsection*{実験結果}実験の結果を表\ref{WSD},\ref{NoWSA},\ref{ALL}に示す.表\ref{WSD}は,語義に曖昧性がある用言を含む115文を対象として,語義の曖昧性解消の精度を求めたものである.ベースラインは,先頭の定義文を選択するという方法を用いた.表\ref{NoWSA}は,語義の曖昧性がない用言,又は語義の曖昧性解消に成功した用言の言い換え精度である.ここでのベースラインは,「定義文主辞が“する”と“ある”の場合だけ,直前項を同等句に含める」「格助詞は変化させない」という方法を用いた.このとき,ベースラインが言い換えに失敗した文は24文であった.これは「適切な同等句の抽出が難しい文」と「用言の言い換えによって格助詞が変化する文」があわせて24文あったということになる.このうち提案手法によって正しく言い換えることができたものは13文であった.逆に,ベースラインが正しく言い換えることができた163文のうち,提案手法は6文の言い換えに失敗した.その結果,提案手法は170文を正しく言い換えることができた.最後の表\ref{ALL}は実験文全体の言い換え精度である.ここで比較するベースラインは,上記二つの手法を組み合わせたものである.全ての精度でベースラインを上回っており,提案手法は有効に働いたといえる.表\ref{succeed}に入力文を正しく言い換えることができた例を示す.\begin{table}\caption{成功例}\label{succeed}\begin{center}\begin{tabular}{@{}l@{}l@{}}\\\hline{\bf攻略}&{\bf1}敵の陣地や城をうばうこと\\&{\bf2}敵を攻めて,負かすこと\\[3pt]\multicolumn{2}{l}{横綱を攻略する$\rightarrow$横綱を負かす}\\[3pt]\hline{\bf体得}&知識やわざを身につける事\\[3pt]\multicolumn{2}{l}{こつを体得する$\rightarrow$こつを身につける}\\[3pt]\hline{\bf遠ざける}&{\bf1}遠くへはなれさせる\\&{\bf2}つきあわなくする\\[3pt]\multicolumn{2}{l}{悪友を遠ざける$\rightarrow$悪友とつきあわなくする}\\[3pt]\hline{\bf鳴り響く}&{\bf1}鳴る音が,広く聞こえる\\&{\bf2}評判が知れ渡る\\[3pt]\multicolumn{2}{l}{ベルが鳴り響く$\rightarrow$ベルの音が広く聞こえる}\\[3pt]\hline\end{tabular}\end{center}\end{table} \section{考察} 言い換えを誤った主な原因は,格フレームの用例不足であった.本実験では,20年分の新聞記事という大量のコーパスから学習した格フレーム辞書を利用したが,一部の表現には対応できていなかった.例えば「夢中になる」の格フレームは,次のようなものが集まっている.しかし,「研究に夢中になる」という表現と類似する格フレームは一つもなかった.\begin{quote}\vspace{5pt}\{中学生,選手\dots\}ガ\{ゲーム,サッカー\}ニ夢中になる\\\{大人,武田\dots\}ガ\{自分,子育て\dots\}ノ\{話\}ニ夢中になる\\\dots\vspace{5pt}\end{quote}また定義文には,下に示すような,独特の不自然な表現が存在する.新聞記事から学習した格フレームには,このような表現に対応できる用例は集まっておらず,不適切な対応付けが行われた.\rsk{ぶら下がる}{ぶらりと下がる}{}格フレームの不適切なクラスタリングが原因で,言い換えを誤った例も見られた.クラスタリングの際に用いる類似度計算方法は,対応付けの際に用いる類似度計算と同様に,改良の余地があると考えられる.我々の提案した言い換え手法は,多義性解消の手法と見ることも出来る.表\ref{WSD}に示したように,先頭の定義文の語義を選択するというベースライン手法の精度は52\,\%であった.これに対して我々の手法の精度は71\,\%であり,有効に働いたといえる.多義性解消に関する研究の多くは,語義のタグが付与されたコーパスを利用する,教師有りの手法を用いている\cite{SENSEVAL_J,SENSEVAL_E}.このような手法では,各語がどのような語義を持っているかという,タスク設定が変わるとコーパスの再利用が難しくなる.また,コーパスの作成にコストがかかるという問題もある.それゆえ今後は,我々の手法のような,教師無しの手法による多義性解消が重要になると考えている. \section{先行研究} 高橋らは不完全な構文変換規則とそれを修正する規則を人手で作成し,読解支援のための言い換えを行うシステムを開発している\cite{Takahashi01}.近藤らは,動詞を受身形や使役形に言い換える際に必要な,格助詞の変換規則を人手で作成している\cite{Kondo01}.また近藤らは,既存の辞書を利用して動詞句を言い換える手法も提案している\cite{Kondo99}.この他,\cite{Kimura01,Torisawa01,Brazilay01}のようにコーパスから言い換えを抽出しようとする研究も多い.学習対象のコーパスも完全な生コーパスからパラレルコーパスまで様々である.「同等句の抽出」「格助詞の変換」は,用言の言い換えにおいて非常に重要な処理であるにも関わらず,十分な議論を行った研究はこれまでにほとんどない.\cite{Kondo01}は格助詞の変換を扱っているが,「態の変化に伴う格助詞の変化だけを扱っている」「人手で規則を記述するというアプローチである」という二つの理由から,カバレージのある手法とはいえず問題が残っていた.これに対してわれわれの手法は,広いカバレージをもって上記の処理を実現できる枠組をはじめて提案したといえる. \section{まとめ} 本研究では,言い換えのタスクの一つとして国語辞典による用言の言い換えを取り上げた.この言い換えを実現するには,語義の曖昧性解消,定義文からの同等句抽出,格助詞の変換などの処理が必要である.しかし,定義文にはこれらの処理を実現させるために必要な情報が,十分に記述されているとは限らないため実現が難しく,従来研究でもこれらの処理は十分に扱われていなかった.これに対して本研究では,格フレームの自動学習・対応付けに基づいて用言を言い換える手法を提案し,実験によってその有効性を示した.今後は,提案手法を用いて,読解補助やテキスト検索といったアプリケーションの品質向上に取り組む予定である.\bibliographystyle{jnlpbbl}\bibliography{paper}\begin{biography}\biotitle{略歴}\bioauthor{鍜治伸裕}{2000年京都大学工学部電気電子工学科卒業.2002年京都大学大学院情報学研究科修了.現在,東京大学大学院情報理工学系研究科博士後期課程在学中.自然言語処理の研究に従事.}\bioauthor{河原大輔}{1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.2002年同大学院博士課程単位取得認定退学.現在,東京大学大学院情報理工学系研究科学術研究支援員.構文解析,文脈解析の研究に従事.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学科第二学科卒業.1994年同大学院博士課程修了.京都大学工学部助手,京都大学大学院情報学研究科講師を経て,2001年東京大学大学院情報理工学系研究科助教授,現在に至る.自然言語処理,知識情報処理の研究に従事.}\bioauthor{佐藤理史}{1983年京都大学工学部電気工学科第二学科卒業.1988年同大学院博士課程研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学情報科学研究科助教授を経て,2000年より京都大学大学院情報学研究科助教授.京都大学博士(工学).自然言語処理,情報の自動編集などの研究に従事.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V03N01-02
\section{はじめに} 複合名詞は名詞を結合することによって数限りなく生成できるので,全てを辞書に登録することは不可能である.したがって,辞書に登録されている名詞の組み合わせとして複合名詞を解析する手法が必要である.そのためには,複合名詞をそれを構成している名詞に分割し(複合名詞の形態素解析),名詞間の係り受け構造を同定しなくてはならない.例として,「歩行者通路」という複合名詞をとりあげる.「歩行者通路」の分割可能性として少なくとも「歩行/者/通路」,「歩/行者/通路」の2通りが考えられる.さらに,前者の分割の結果に対して[[歩行,者],通路]と[歩行,[者,通路]]の2通りの係り受け構造が,後者については[[歩,行者],通路]と[歩,[行者,通路]]の2通りの係り受け構造が考えられる.このなかから正しい係り受け構造[[歩行,者],通路]を選択しなくてはならない.日本語のように語と語の間に区切り記号のない言語では,まず,複合名詞の分割が困難である.また,複合名詞は名詞の並びによって構成されているので,品詞などの統語的な手係りが少なく,係り受け構造の解析も困難である.したがって何らかの意味的な情報を用いることが必要である.そのために方法として,名詞をいくつかの意味的なクラスに分け,それらのクラスの間の係り受け関係に関する情報を用いて複合名詞の構造を解析することが考えられる.たとえば,宮崎らは,語が表す概念に関する知識,概念間の係り受けに関する規則を人手で記述し,これらを用いて複合名詞の係り受け構造を解析する方法を提案している~\cite{miyazaki:84:a,miyazaki:93:a}.AI関係の新聞記事のリード文に現れる複合名詞で未定義語を含まない語167語の解析に適用し精度94.6\%で解析できている\footnote{この結果はNTT通信研究所が独自に作成した辞書や知識ベースを用いて得た結果であるので,一般に手に入る辞書や知識ベースを用いて得た結果と簡単に比較できない.}\cite{miyazaki:93:a}.この方法では,係り受けが成立する名詞意味属性の組を表に記述し,その表を用いて係り受けを解析している.この表からは,係り受けが可能か不可能かを知ることはできるが,複数の係り受けの可能性がある場合にどちらが尤もらしいかといったことを知ることはできない.対象領域を拡大したり語彙を増やした場合,このような成立/不成立のような2値の情報で正しく係り受け解析が行なえるか検討の余地がある\footnote{現在のバージョンでは構造的曖昧性のある複合名詞に対して候補それぞれに評価値をつける方向で拡張がなされている.}.また,高い精度を得るためには,係り受け規則や名詞意味属性の体系を領域にあわせて調整することが不可欠である.このように人手で知識を記述する場合には以下の問題がある.\begin{itemize}\item新しい言語現象に対応するための規則や知識の拡張や保守が容易でない.\item領域ごとに知識を用意するのはコストが高い.\end{itemize}これらの問題を解決するためには,複数の候補に何らかの優先度をつける方法と自動的に知識を獲得する方法の2つが必要である.そのような方法を研究しているものに,藤崎らの研究がある~\cite{nishino:88:a,takeda:87:a}.藤崎らは,複合名詞の分割にHMMモデルを用い,係り受け構造を解析するために統計的クラスタリングによって得た語のクラスと確率付き文脈自由文法を用いている.平均語長4.2文字の漢字複合語を精度73\%で解析している.以下の問題点がある.\begin{itemize}\item複合名詞の分割を統計的な方法(HMM)のみで行なっているため,存在しない語を含む分割結果が得られることがある.\item統計的に得た語のクラスが,語の直観的な意味的クラスを反映しないことがあるので構造解析の結果を用いて意味解析を行なう場合に障害になる.\item複合語は1文字語と2文字語から構成されると仮定している.\end{itemize}藤崎らの方法は複合名詞の統計的な性質のみを用いている点が問題である.語の意味クラスについては,すでに言語学者が作成した意味分類辞書(たとえば,分類語彙表~\cite{hayashi:66:a})がある.このような知識も積極的に利用すべきである.本論文では,既存の意味分類辞書とコーパスから自動的に抽出した名詞間の意味的共起情報を用いて複合名詞の係り受け構造を解析する方法を提案する.Churchらは,大量の語と語の共起データから相互情報量を計算することで意味的なつながりの程度を評価できることを示している~\cite{church:91:a}.この場合の問題は,正しい共起データを大量に獲得することが困難なことである.統語的,意味的曖昧性が解消されていない共起データでは正しい統計情報は獲得できない.自動的に大量の正しい共起データを獲得する方法を考えなくてはならない.本論文では,大量の共起情報をコーパスから高い精度で自動的に獲得するために4文字漢字語を利用する.まず,4文字漢字語16万語から意味クラスの共起データを抽出した.抽出した共起データから統計的に名詞間の意味的関係の強さを計算する.そのための尺度として相互情報量を基にした評価尺度を提案する.この尺度と複合名詞の構造に関するヒューリスティクス,機械可読辞書から得られる言語知識を用いて複合名詞を解析する.評価のために新聞や用語集から抽出した漢字複合名詞を解析し,平均語長5.5文字の漢字複合名詞を約78\%の精度で解析できた.実際の文章では,漢字複合名詞の平均語長は約4.2文字であることを考慮すると,我々の方法による係り受け構造の解析精度は約93\%と推定される.本論文の構成は以下の通りである.\ref{sec:acq}章で共起データの獲得方法について,\ref{sec:anl}章で複合名詞の解析方法について述べる.\ref{sec:rsl}章で提案した方法を用いて複合名詞を解析した実験と結果について述べる.\ref{sec:imp}章では\ref{sec:rsl}章での結果に基づきヒューリスティクス導入による解析方法の改良について述べ,\ref{sec:rsl2}章で改良した方法による解析結果について述べる. \section{名詞の意味的クラスの共起情報の獲得} \label{sec:acq}共起データを抽出するときの問題は,統語的,意味的な曖昧性を解消した正しい共起データを獲得することが困難なことである.Smadjaは,ある語とその前後5語に現れる語の共起頻度を計算し,頻度の高い共起を意味のある共起データとして利用している\cite{smadja:91:a}.しかし,この方法では多くの誤った共起も抽出してしまう.Hindleは統語解析を行い,主語と述語などの意味的に尤もらしい共起のみを抽出している~\cite{hindle:90:a}.本研究では,コーパスから4文字漢字語を抽出し,それらの語から共起データを抽出する.4文字漢字語を用いて正しい共起関係データを抽出できると考えら理由は以下の3つである.\begin{enumerate}\item漢字連続をコーパスから抽出することは自動的にできる.\item4以上の長さの漢字列は多くの場合,複合名詞と考えられる.本論文で用いる分類語彙表~\cite{hayashi:66:a}では,漢字のみからなる見出し語のうち4\%が4以上の長さの漢字語であった.一方,新聞など22万文から自動的に抽出した漢字列では,異なり語のうち71\%が4文字以上の長さであった.つまり,4文字以上の長さを持つ語のほとんどは複合語であると考えられる.\item4文字漢字列は2つの2文字語に分割することによって正しい分割を得ることができる可能性が高い.新聞と用語集から抽出した4文字漢字語1000個を分析した結果,2つの2文字語に分割できる語が約96\%であった.この場合,係り受けのあいまい性は生じないので,両方の2文字語が辞書の見出し語であるか確認することによって語の共起関係を得ることができる.\end{enumerate}複合名詞の解析に用いる共起データを獲得する方法の概要は以下の通りである.\begin{enumerate}\item4文字漢字語を収集する.\item4文字漢字語を2つの2文字語に2分割して語と語の共起関係を求める.\item各2文字語を意味分類辞書の意味分類で置き換え,意味分類の共起関係を獲得する.ここで,該当する意味分類がない語を含む共起データは利用しない.\item意味分類の共起頻度を求める.ただし,複数の意味分類に含まれる語を含む共起データは利用しない.\end{enumerate}図\ref{fig:bunkatu}にこの方法の例を示す. \section{共起情報を用いた複合名詞の解析} \label{sec:anl}獲得した意味分類の共起データを用いて複合名詞の構造解析を行なう.本研究では複合名詞の構造について以下の2つの仮定をしている.\begin{itemize}\item複合名詞の係り受け構造は,二分木で表現できる.\item左側の語が右側の語を修飾するので,複合名詞の意味分類は最も右の語の意味分類に等しい.\end{itemize}例えば,「歩行者通路」の係り受け構造は[[歩行,者],通路]と表現できる.部分複合名詞[歩行,者]の意味分類は「者」の意味分類と等しく,複合名詞[[歩行,者],通路]の意味分類は「通路」と等しい.以下に構造解析の手順を示す.\begin{enumerate}\item意味分類辞書の見出し語を用いて,可能な複合名詞の分割を求める.このとき,自立語数最小法によって候補を絞る.\item各語の意味分類辞書での意味分類を求める.\item可能な全ての構造を求める.\item全ての構造について共起頻度を基に優先度を計算する.\item複数の意味分類に属する語を含む場合,それぞれの意味分類について別々に優先度を計算する.\end{enumerate}複合名詞の各構造$t$の優先度$p(t)$は,以下の式で計算する.\begin{displaymath}p(t)=\left\{\begin{array}{l@{\qquad\qquad}l}1&\mbox{if$t$isleaf}\\p(l(t))\cdotp(r(t))\cdotcv(class(l(t)),class(r(t)))&\mbox{otherwise}\\\end{array}\right.\end{displaymath}関数$l(t)$,$r(t)$はそれぞれ,木$t$の左側の部分木,右側の部分木を返す.$cv(class_1,class_2)$は,語の意味分類の共起を評価した値である.Churchらは,語の間の意味的関係を共起頻度を基に相互情報量から獲得する方法を提案している~\cite{church:91:a}.我々は,語の順序を考慮するように相互情報量を修正した以下の式によって語のクラス間の意味的関係を評価する.\begin{description}\item[修正相互情報統計](MMIS:Modifiedmutualinformationstatistics)$$cv(class_1,class_2)=\frac{RF(class_1;class_2)}{RF(class_1;*)\cdotRF(*;class_2)}$$$RF(class_1,class_2)$は,$class_1$と$class_2$がこの順序でコーパスに出現した相対頻度である.*はどのような意味分類でもよいことを表す.\end{description}\begin{center}\epsfile{filename=fig1,width=137mm}\figcap{共起データの獲得}{fig:bunkatu}\end{center}\subsection*{解析例}「歩行者通路」を例にして,解析過程を説明する.\begin{enumerate}\item自立語数最小となる全ての可能な分割を求める.\begin{enumerate}\item歩行/者/通路\item歩/行者/通路\end{enumerate}\item意味分類辞書を検索する.``:''は複数の意味分類に属することを意味する.この例では分類語彙表の分類を用いる.\begin{enumerate}\item[\hspace*{10mm}{\bfa}]歩行[133]/者[110:120]/通路[147]\item[\hspace*{10mm}{\bfb}]歩[119:133:145]/行者[124]/通路[147]\item[\hspace*{10mm}{~}]...\end{enumerate}\item優先度を計算する.曖昧な意味分類が別々に計算されることに注意.\begin{itemize}\item{\bfa}の場合,曖昧な意味分類を展開すると以下の4つの構造が考えられる.(イ.)[[133,110],147],(ロ.)[133,[110,147]],\\(ハ.)[[133,120],147],(ニ.)[133,[120,147]]\\構造(イ.)の優先度を計算すると,$p([[133,110],147])$\\$=p([133,110])\cdotp(147)\cdotcv(110,147)$\\$=p(133)\cdotp(110)\cdotcv(133,110)\cdotcv(110,147)$\\$=cv(133,110)\cdotcv(110,147)$\\$=1.19\cdot1.14$\\$=1.36$構造(ロ.)の優先度は,$p([133,[110,147]])$\\$=cv(133,147)\cdotcv(110,147)$\\$=1.13\cdot1.14$\\$=1.29$構造(ハ.)(ニ.)の場合も同様に計算する.\item{\bfb}の場合も同様に計算する.\end{itemize}\end{enumerate}図\ref{fig:kaiseki}に上記処理の関係を示す. \section{実験} \label{sec:rsl}\subsection{実験データ}\label{sec:data-analy}評価用データは,新聞のコラムと社説,用語辞典から抽出した漢字のみからなる複合名詞である.4文字語954語,5文字語730語,6文字語787語,7文字以上の漢字語535語である.\newpage\begin{center}\epsfile{filename=fig2,width=92mm}\figcap{解析例}{fig:kaiseki}\end{center}これらの評価用複合名詞は,自動的に抽出したものを人間が検査し,正しい係り受け構造を付与した.実験対象データからは,意味分類辞書のみでは分割できない複合名詞は除いている.例えば「土地取引」という語には,「土/地/取/引」「土地/取/引」「土/地取/引」「土/地/取引」「土地/取引」「土地取/引」「土/地取引」「土地取引」の8つの分割の候補があるが,いずれの分割も意味分類辞書に含まれない語を含んでしまう\footnote{「土地/取引」という分割は成功しそうであるが,「取引」が異表記形「取り引き」でしか辞書に登録されていないために失敗する.}.このような辞書引きの段階で失敗する語は,今回の実験の対象外としている.ただし「炭鉱労働者」の場合,「炭鉱」という語が辞書にないが,「炭/鉱/労働者」という分割結果を得ることができる.このような場合は,「炭鉱」は「炭」と「鉱」から構成できると考え,このような複合名詞は除外していない.解析用の知識は以下の通りである.\begin{description}\item[共起情報源]田中(康仁)によって収集された4文字漢字列16万語を含むコーパス~\cite{tanaka:92:g}.\item[意味分類辞書]分類語彙表~\cite{hayashi:66:a}(意味分類として上位3桁を利用).分類語彙表では,全ての表記形が記述されているわけではない.表記のゆれがあるばあい,代表的と考えられる表記形のみが記述されている.そこで,複数の表記方法がある場合,「大辞林」\cite{daizirin:88}から異表記形を獲得し,解析用辞書に追加した\footnote{上で例にあげた「取引」は,「大辞林」にも「取引」という表記しか記述されていないので,「取り引き」と「取引」の関係を機械可読の言語資源から得ることはできなかった.}.\end{description}\subsection{結果}\label{sec:rsl1}実験結果を表\ref{rsl1}に示す.平均名詞数は,正解における複合名詞を構成する名詞の数を平均したものである.精度は正解の優先順位が単独一位のものの割合で評価した.\begin{center}\tblcap{解析結果}{rsl1}\begin{tabular}{|r|c|c|c|c|}\hline文字長&4文字&5文字&6文字&7文字以上\\&&&&平均7.9文字\\\hlineデータ数&956&730&787&535\\\hline平均名詞数&2.0&2.7&3.1&6.5\\\hline精度[\%]&96&69&61&32\\\hline\end{tabular}\end{center}\subsection{考察}\label{sec:resul-discuss1}解析を失敗したものは,分割の段階で失敗したものと構造解析で失敗したものに分けられる.分割を失敗した主な原因は以下の2つである.\begin{enumerate}\item適切な語が辞書に記述されていない場合.例えば「現代版天水桶」において「桶」という語が辞書にないので「現代/版/天/水桶」と分割される.この失敗は10例(4文字),28例(5文字),14例(6文字),2例(7文字以上)であった.\itemヒューリスティクスとして用いた自立語数最小法によって,正しい分割結果を排除してしまう場合.この失敗は,18例(5文字),6例(6文字),12例(7文字以上)であった.この失敗は,数詞と接辞を含む語が辞書に登録されている場合に起こる.例えば,「約/二千/万人」「自己/中心的」などがある.数詞を含む複合名詞はこのヒューリスティクによってほとんど分割に失敗している.\end{enumerate}分割に成功して,構造解析に失敗する原因には以下のものがある.\begin{enumerate}\setcounter{enumi}{2}\item接辞の知識がないため接頭辞が語末にくる語や,接尾辞が語頭にくる語を許している.このような例は,45例(5文字),28例(6文字)であった.\item数詞を含む語の構造が一般の複合名詞と異なる.\item団体,機関,組織の名詞を解析する場合は,共起データから得らる意味的近さでは係り受け構造の優先度を正しく評価できない.例えば「日本野鳥保護協会」などである.7文字以上の漢字複合語にこのような語が多い.\item2項関係のみの係り受け構造では表現できない並立構造や3項構造を含む場合,例えば「保守対革新」や「領土領空領海」などがある.\item該当する共起が共起データ源のコーパスに含まれていない場合がある.\item該当する意味分類が意味分類辞書に記述されていない場合.例えば,「米通商代表部」の場合の「米」という語が分類語彙表に記述されていない.\item解析精度を向上させるためにはより詳細な意味分類(分類語彙表では4桁目以降)を用いることが考えられるが,そのためには共起データの量が足りない.\end{enumerate} \section{ヒューリスティクスの導入による解析方法の改良} \label{sec:imp}前章で述べたように,数詞を含む複合名詞は分割に失敗することが多い.構造も一般の複合名詞とは異なる.数詞が連続して数を表現している部分とそれ以外の部分を分けて解析することが必要と考えられる.また,接辞と名詞は統語的な振舞いが異なるが,意味分類辞書では同じ意味に分類されている.接頭辞は複合語の語末に,接尾辞が複合語の語頭に現れないという統語的な制約を与える必要がある.そこで,接辞と数詞における誤りを解消するために,以下の解析用の知識を追加する.\begin{itemize}\item機械可読辞書から抽出した接辞.本論文では「大辞林」から接頭辞560語,接尾辞170語を抽出した.\item数詞とコーパスから抽出した助数詞.助数詞は,新聞と用語集から数詞連続の前後に現れる語のなかで頻度の高い語を抽出し,人間が助数詞として適切かどうかを判断することによって獲得した.本論文で用いた数詞,助数詞を以下に示す.接頭助数詞=\{約,第\}接尾助数詞=\{円,人,年,時,分,個,件,日\}数詞=\{一,二,三,四,五,六,七,八,九,十,百,千,万,億,兆,数,何\}\item接辞,数詞,助数詞の用法に関するヒューリスティクスの利用.\begin{itemize}\item接頭辞が複合名詞の語末にくる構造を優先度計算の前に排除する.\item接尾辞が複合名詞の語頭にくる構造を優先度計算の前に排除する.\item数詞,助数詞を含む語をテンプレートによって解析する.テンプレートとして以下のものを用いる.[[部分複合語*[[接頭助数詞*数詞+]接尾助数詞*]]部分複合語*][[部分複合語*[[数詞+年][数詞+月][数詞+日]]]部分複合語*]\end{itemize}ただし,A*はAが0語以上連続することを,A+はAが1語以上連続することを表す.\end{itemize}\bigskipさらに複合名詞の構造の分布を分析した結果に基づき,ヒューリスティクスを導入する.3節で述べた優先度の計算方法では,2つの語の距離を考慮していなかった.構造の出現頻度と語の距離の関係を調査した結果,表\ref{bunpu}に示すような分布を得た.ここで,語と語の距離は,2つの語の間にある語の数+1で定義する.例えば,[A,B,C]という単語列の場合,AとB,BとCの距離はそれぞれ1,AとCの距離は2となる.距離の総和は構造中に含まれるすべての語の組の距離の和である.表\ref{bunpu}より構成要素が同じ数の場合,距離総和が大きい構造ほど,出現頻度が低いことが分かる.\begin{center}\tblcap{構造の出現頻度}{bunpu}\begin{tabular}{|l|r|r|c|}\hline構造&5文字&6文字&距離総和\\\hline$[w_1]$&0&1&0\\\hline$[w_1,w_2]$&268&78&1\\\hline$[[w_1,w_2],w_3]$&283&406&2\\$[w_1,[w_2,w_3]]$&84&160&3\\\hline$[[[w_1,w_2],w_3],w_4]$&13&43&3\\$[[w_1,w_2],[w_3,w_4]]$&16&48&4\\$[[w_1,[w_2,w_3]],w_4]$&4&11&4\\$[w_1,[[w_2,w_3],w_4]]$&3&8&5\\$[w_1,[w_2,[w_3,w_4]]]$&2&3&6\\\hline\end{tabular}\end{center}\bigskip構造中に含まれる語の距離の総和が大きい複合名詞が現われにくいという現象は,丸山が文節間の係り受け関係において,位置的に近い文節間の係り受け関係のほうが高い頻度で生じているという分析結果と関係があると考えられる~\cite{maruyama:92:a}.丸山は,文節間の距離$k$と文節間の係り受け頻度の相対頻度$q(k)$の関係を表す式を以下のように求めている.\begin{displaymath}q(k)=0.54\cdotk^{-1.896}\end{displaymath}複合名詞の構造においても文節間の係り受け関係と同じ関係が成り立つと仮定して,優先度の計算に丸山の求めた以下の式を利用する.上式を用いて2つの意味分類の関係の評価値を以下のように再定義する.\begin{displaymath}cv'(class_1,class_2,k)=cv(class_1,class_2)\cdotq(k)\end{displaymath} \section{実験2} \label{sec:rsl2}\ref{sec:rsl}章と同じ共起データ源とテストデータを用いて実験を行なった.実験は\ref{sec:imp}章で述べた3種類の情報を組み合わせて追加したものについて行なった.以下,それぞれの実験を実験2.1〜実験2.7と呼ぶ.接辞情報は「大辞林」から,数詞と助数詞は共起データ源のコーパスから抽出した.\begin{itemize}\item{2.1}距離の導入.\item{2.2}数詞テンプレート.\item{2.3}接辞情報.\item{2.4}距離の導入+数詞テンプレート.\item{2.5}距離の導入+接辞情報.\item{2.6}数詞テンプレート+接辞情報.\item{2.7}距離の導入+数詞テンプレート+接辞情報.\end{itemize}\subsection{結果}実験結果を表\ref{rsl2}に示す.平均名詞数は,正解における複合名詞を構成する名詞の数を平均したものである.精度は正解の優先順位が単独一位のものの割合で評価した.\begin{center}\tblcap{解析結果}{rsl2}\begin{tabular}{|r|c|c|c|c|}\hline文字長&4文字&5文字&6文字&7文字以上\\&&&&平均7.9文字\\\hlineデータ数&956&730&787&535\\\hline平均名詞数&2.0&2.7&3.1&6.5\\\hline実験1[\%]&96&68&61&32\\\hline\hline実験2.1[\%]&96&81&71&44\\\hline実験2.2[\%]&96&73&60&28\\\hline実験2.3[\%]&96&71&63&34\\\hline実験2.4[\%]&96&84&73&46\\\hline実験2.5[\%]&96&81&72&45\\\hline実験2.6[\%]&96&75&63&30\\\hline実験2.7[\%]&96&84&72&44\\\hline\end{tabular}\end{center}\subsection{考察}\begin{enumerate}\item語間の距離を用いることで解析精度を向上させることができた.\item数詞を含む複合名詞の分割処理をテンプレートで行なうことによって,自立語数最小法による分割失敗を18例から11例(5文字),6例から1例(6文字),12例から7例(7文字以上)に減少させることができた.\end{enumerate}\begin{enumerate}\setcounter{enumi}{2}\itemテンプレートによって解析した数詞を含む複合名詞は,22例(5文字),24例(6文字),15例(7文字以上)であるが構造解析に失敗した語は1例(6文字),2例(7文字以上)であった.また,テンプレートを用いたことで正しく解析できなくなった語はなかった.数詞を含む語に対してはテンプレートを用いることは有効であると考えられる.\item接辞情報を用いることで正しい結果が得られるようになった一方で,正しい結果が得られていたものが解析できなくなるという副作用が発生した.それは,同形で名詞にも接辞にもなる語があるためで,そのために正しい解析結果まで接辞の規則によって排除されることがある.例えば,「悪」という語は名詞でも接頭辞でもある.「悪」を接頭辞と思って複合名詞の語末にくる場合を排除すると,「必要悪」のような語を正しく解析できない.ある語の接頭辞としての使われやすさを考慮する優先度を導入する必要がある.\item「可能性」の「性」は名詞であるが,接辞的に振る舞う名詞である.このような接辞的名詞を機械可読辞書から獲得できなかった.\item実験に用いたコーパスにおける漢字連続語の頻度を表\ref{hindo}に示す.漢字複合名詞は漢字4文字以上であると仮定すると,漢字複合名詞の長さの平均は4.2語で,表\ref{rsl2}の結果より精度93\%で解析できると推定できる.\end{enumerate}\begin{center}\tblcap{漢字複合語の出現頻度}{hindo}\begin{tabular}{|r|c|c|c|c|}\hline文字長&4文字&5文字&6文字&7文字以上\\&&&&平均7.9文字\\\hline出現頻度[\%]&90&5&3&2\\\hline\end{tabular}\end{center} \section{おわりに} 本論文では,コーパスから共起知識を獲得する方法と,獲得した共起知識と意味分類辞書を用いて複合名詞を解析する方法について述べた.4文字漢字語を共起知識源として利用することで高い精度で正しい共起データを自動的に得ることが可能になった.また,複合名詞の構造について,構造中の語と語の距離の総和が小さいものほど出現しやすいという分析結果を得た.名詞の意味的共起情報と,語と語の距離を用いて複合名詞を解析することによって,実際のテキストに換算して平均語長4.2語の漢字複合語を約93\%の精度で解析できることを確認した.統計的な情報は,詳細な規則を記述するのに比べ獲得が簡単であるが,統計的な知識のみでは精度の向上に限界がある.例えば「日本野鳥保護協会」では「日本」と「協会」に係り受け関係があるが,統計的情報のみでこの係り受け関係を推定することは難しい.この2語はさまざまな意味分類の語と共起するので,2つの語の間に意味的関係があると推定することが困難であるからである.コーパスから得られる統計的な情報を,機械可読辞書などから抽出可能な言語学的な知識や人間が記述する規則とうまく組み合わせることが重要な問題と考えられる.今後の課題としては,以下のような項目がある.\begin{description}\item[意味分類の詳細化]分類語彙表の詳細な意味分類を用いることが考えられる.また分類語彙表よりも大規模で,詳細な意味分類を持つ意味分類辞書にEDRの概念体系がある.ただし,大規模な意味分類辞書を用いるためには大規模な知識源用コーパスも同時に必要である.\item[辞書の整備]たとえば,「許可」と「認可」から「許認可」が構成されることを共起データのみから推定することはできない.このような語は解析用辞書に登録する必要がある.また新聞などでは「税調」などの略語がよく現れるので辞書に登録することが必要である.また,今回の実験では固有名詞を考慮していない.固有名詞を辞書に登録することも必要である.\item[接辞の扱い]接辞と名詞の両方で用いられる語については,機械可読辞書から得られる情報のみでは,どちらで用いられているのか曖昧性を解消するには不十分である.また,「可能性」の「性」のような国語辞典には接辞と記述されていないが,接辞的にふるまう名詞も存在する.コーパスを用いて,接辞/名詞の品詞の曖昧性解消や接辞的名詞の獲得などを検討することが必要である.\item[分割誤りの改善]本論文では,複合名詞を分割するとき分割候補を絞り込むために自立語数最小法を用いている.そのために分割の段階で正解を排除する可能性がある.テンプレートを用いて数詞を含む複合名詞についてはこの点を改良することができた.接辞に関する情報を獲得することができれば,「自己/中心的」の「中心的」のような接辞を含む語が辞書に登録されている場合の分割誤りに対して何らかの処置ができるかもしれない.\item[意味解析]複合名詞を構成する名詞のあいだの意味的な関係を推定することも必要である.例えば「閣僚資産公開」は「資産」が「公開」の目的語で「閣僚」が「資産」の所有者であるといった意味的関係を知ることができれば,「閣僚が持つ資産を公開」と言い換えることができる.関連する研究として,機械可読辞書の意味知識を用いて英語の複合名詞を解析するVanderwendeの研究がある~\cite{vanderwende:94:a}.\item[他の構造解析への応用]たとえば,Hindleらは共起知識を用いて前置詞句接続の曖昧性を解消する手法を提案している~\cite{hindle:91:a}.本手法を文節間の係り受け関係の曖昧性解消に適用することが考えられる.\end{description}\bigskip\acknowledgment本研究を進めるにあたって4文字漢字列コーパスを提供して下さいました兵庫大学の田中康仁教授に感謝いたします.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{'91}{ACL}{1991}]{ACL-91}ACL'91\BBOP1991\BBCP.\newblock{\BemProceedingsofthe29thAnnualMeetingoftheAssociationforComputationalLinguistics}.\bibitem[\protect\BCAY{Church,Hanks,\BBA\Hindle}{Churchet~al.}{1991}]{church:91:a}Church,K.~W.,Hanks,W.G.~P.,\BBA\Hindle,D.\BBOP1991\BBCP.\newblock\BBOQUsingStatisticsinLexicalAnalysis\BBCQ\\newblockIn{\BemLexcalAcquisitin},\BCH~6.LawrenceErlbaumAssociates.\bibitem[\protect\BCAY{松村}{松村}{1988}]{daizirin:88}松村明\JED\\BBOP1988\BBCP.\newblock\Jem{大辞林}.\newblock三省堂.\bibitem[\protect\BCAY{林}{林}{1966}]{hayashi:66:a}林大\BBOP1966\BBCP.\newblock\Jem{分類語彙表}.\newblock秀英出版.\bibitem[\protect\BCAY{Hindle}{Hindle}{1990}]{hindle:90:a}Hindle,D.\BBOP1990\BBCP.\newblock\BBOQNounClassificationfromPredicate-ArgumentStructures\BBCQ\\newblockIn{\BemProceedingsofthe28thAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\268--275.ACL'90.\bibitem[\protect\BCAY{Hindle\BBA\Rooth}{Hindle\BBA\Rooth}{1991}]{hindle:91:a}Hindle,D.\BBACOMMA\\BBA\Rooth,M.\BBOP1991\BBCP.\newblock\BBOQStructuralAmbiguityandLexicalRelations\BBCQ.\newblockIn{\BemProceedingsofthe29thAnnualMeetingoftheAssociationforComputationalLinguistics\/}\citeyear{ACL-91},\BPGS\229--236.\bibitem[\protect\BCAY{Maruyama\BBA\Ogino}{Maruyama\BBA\Ogino}{1992}]{maruyama:92:a}Maruyama,H.\BBACOMMA\\BBA\Ogino,S.\BBOP1992\BBCP.\newblock\BBOQAStatisticalPropertyof{Japanese}Phrase-to-PhraseModifications\BBCQ\\newblock{\BemMathematicalLinguistics},{\Bbf18}(7),348--352.\bibitem[\protect\BCAY{宮崎}{宮崎}{1984}]{miyazaki:84:a}宮崎正弘\BBOP1984\BBCP.\newblock\JBOQ係り受け解析を用いた複合語の自動分割法\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf25}(6),1035--1043.\bibitem[\protect\BCAY{宮崎,池原,横尾}{宮崎\Jetal}{1993}]{miyazaki:93:a}宮崎正弘,池原悟,横尾昭男\BBOP1993\BBCP.\newblock\JBOQ複合語の構造化に基づく対訳辞書の単語結合型辞書引き\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf34}(4),743--753.\bibitem[\protect\BCAY{西野,藤崎}{西野\JBA藤崎}{1988}]{nishino:88:a}西野哲朗,藤崎哲之助\BBOP1988\BBCP.\newblock\JBOQ漢字複合語の確率的構造解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf29}(11),1034--1042.\bibitem[\protect\BCAY{Smadja}{Smadja}{1991}]{smadja:91:a}Smadja,F.~A.\BBOP1991\BBCP.\newblock\BBOQFromN-GramstoCollocations:AnEvaluationofXtract\BBCQ.\newblockIn{\BemProceedingsofthe29thAnnualMeetingoftheAssociationforComputationalLinguistics\/}\citeyear{ACL-91},\BPGS\279--284.\bibitem[\protect\BCAY{武田,藤崎}{武田\JBA藤崎}{1987}]{takeda:87:a}武田浩一,藤崎哲之助\BBOP1987\BBCP.\newblock\JBOQ確率的手法による漢字複合語の自動分割\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf28}(9),952--961.\bibitem[\protect\BCAY{田中}{田中}{1992}]{tanaka:92:g}田中康仁\BBOP1992\BBCP.\newblock\JBOQ自然言語の知識獲得--四文字漢字列\JBCQ\\newblock\Jem{情報処理学会第45回全国大会}.\bibitem[\protect\BCAY{Vanderwende}{Vanderwende}{1994}]{vanderwende:94:a}Vanderwende,L.\BBOP1994\BBCP.\newblock\BBOQAlgorithmforAutomaticInterpretationofNounSequences\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalConferenceonComputationalLinguistics},\lowercase{\BVOL}~2,\BPGS\782--788.COLING'94.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{小林義行}{1968年生.1988年明石工業高等専門学校電気工学科卒業.1991年東京工業大学工学部情報工学科卒業.1993年同大学院修士課程修了.1993年同大学院博士課程入学,現在在学中.自然言語処理,知識情報処理の研究に従事.情報処理学会,人工知能学会,各会員}\bioauthor{徳永健伸}{1961年生.1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,同大学大学院情報理工学研究科計算工学専攻助教授.博士(工学).自然言語処理,計算言語学に関する研究に従事.情報処理学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioauthor{田中穂積}{1941年生.1964年東京工業大学工学部情報工学科卒業.1966年同大学院理工学研究科修士課程修了.同年電気試験所(現電子技術総合研究所)入所.1980年東京工業大学助教授.1983年東京工業大学教授.現在,同大学大学院情報理工学研究科計算工学専攻教授.工学博士.人工知能,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V09N03-05
\section{はじめに} 計算機による要約の試みでは,文章中の重要と思われる部分を抽出することを中心に研究されてきた.しかし,要約は人間の高度に知的な作業であるため,計算機により重要と認定された部分を列挙するだけではなく,要約文章の結束性,構成などの点で課題があることが認識されてきている\cite{Namba00,Mani99revise}.人間が作成するような要約は,結束性,構成などが適切で,要点を適正に網羅しているといった高度な要件を満たしていると考えられるが,このような要件を計算機で満たすためにはどのような要素技術が必要であるかが明らかになっているとはいえない.我々は,このような現状に対し,どのような要約文章なら読みやすく適切であるかを,人間が実際にどのような要約を作成するかを調査した上で,計算機でも実現が可能なレベルの要約操作に細分化し,整理することが必要であると考える.しかし,人間が行う要約の操作はそれほど単純ではなく,表層的な表現の言い換え,構文的言い換えといった様々なレベルの操作が考えられる.このような多様なレベルの言い換えを考慮した上で,要約文が生成される元になった文を,要約元文章から選びだす作業は,人手により対応づけするしかないようにもみえるが,人手による対応付けは,客観的な対応基準や作業コストの両面からみて問題がある.このような流れの中で,例えば,Marcu\cite{MarcuPair}は論文とそのアブストラクトのように,要約とその元文章が組になっている文章集合から,要約の各文が要約元文章のどの文から生成されたかを,コサイン類似度を用いて自動的に対応付ける手法を提案している.また,日本語の自動要約の研究では加藤らがDPマッチングの手法を用いて,局所的な要約知識を自動的に抽出する研究を行っている\cite{kato99}.彼らの研究では,放送原稿とその要約を使用しているため,要約文書は元文原文の残存率が高く,語や文節レベルの言い換えといった局所的な要約知識の獲得に限定して効果をあげているが,人間が行う,より一般的な要約作成に必要な知識獲得を行うためには,その手法の拡張が必要となってくる.本研究では,このような背景から,要約元文章中における文の統語的な依存関係を手がかりに要約文との文・文節対応付けを行い,その結果に基づいて要約操作に関連する言い換え事例を収集し,要約で行われている文再構成操作がどのようなものであるかを調査した. \section{要約における文再構成操作} \subsection{調査対象データの収集}人間が作成した要約を調査する対象データとして,毎日新聞社説90記事に対して要約したものを用いる.要約を行ったのは3人の作業者で,それぞれ90記事をすべて要約する.したがって,調査対象の要約は全部で270要約となる.要約の長さは文字数で元記事の約40%なるよう指定した.要約を行う際に作業者に与えた指示として,以下の2つの制約を課した.\begin{itemize}\item全体のあらすじと著者の主な主張がわかるように要約する\item固有名詞はできるだけ原文の表現を用いる\end{itemize}要約率を40\%と高率にした理由は,あまりにも文章を短く要約した場合に,元文章から残存する表層的な表現が少なくなってしまい,人間でさえ,元記事から要約文がどのように作成されたか,その操作が分析しにくくなってしまうと考えたからである.3人の要約作成者がそれぞれ90記事合計2869文から作成した要約の諸元を表\ref{basicdata}に示す.なお,要約元記事の1記事平均の文数は31.9文である.\subsection{要約操作と対応付け}従来から,手作業により,要約文が元文章のどの部分を用いて作成されたかを対応付けを行い,要約がどのような作業であるかを調査した研究がある.例えば,佐久間らの研究\cite{sakuma}では,そのような対応付けをもとに,人間が文章を要約する上で,元文章のテキスト構造がどのような影響を要約生成に与えたかを分析している.このような分析は,計算機に人間が作成するような要約を作成させるためにも重要であり,対応付けの自動化を行うことは,分析の効率化をする上でも意義がある.また,人間が作成した要約文と元文章を比べてみると,容易にその要約文が元文章のどの文から作られたかがわかる要約文とそうでないものがある.すなわち要約元文章で出現した表層的な表現が残存するか否かには,多様性が存在することを示している.邑本\cite{muramoto}は,認知心理学的研究として,要約元文章中のほぼ短文に相当する単位(アイディアユニットと呼ぶ)がどのように要約中で表出されるかを観点に12種類に分類している.この分類は,人間が文章を理解し要約する過程において,その理解の仕方が要約操作における言い換えの多様性にも関係するというもので,非常に興味深いが,計算機処理を前提に要約文作成操作を考えた場合,すくなくとも以下の区別は重要である.\begin{itemize}\item要約元の文章で使われていた表現がそのまま要約で用いられる\item要約元の文章が使われていた表現が言い換えられ,要約で用いられる\end{itemize}もちろん,人間が行っている要約操作はこのような二元論で片付く単純な問題ではなく,様々な人間の意味理解に基づいた深遠な問題ではあるが,元文章で使われていた表現が,どのような単位で要約に保存されるかだけを考えても,単語,文節,節,文といった多様なレベルがある.さらに,元文章で使われていた表現単位を言い換えて要約で用いるためには,それぞれの単位における特徴があるはずであり,計算機で多様な言い換えを実現する困難さを,段階的に解決してゆくためにも,それぞれの単位を言い換える・書き換える操作が行われた事例を収集し,それぞれの操作の特質を分析することが重要であると,我々は考える.\begin{table}\caption{分析対象要約の諸元}\label{basicdata}\begin{center}\begin{tabular}{|l|r|r|}\hline&文数&1要約あたりの平均文数\\\hline\hline作成者A&763&8.5\\作成者B&773&8.6\\作成者C&931&10.3\\\hline合計&2467&9.1\\\hline\end{tabular}\end{center}\end{table}\subsection{要約文を作成する操作}人間が要約文を作成する操作のうちもっとも単純な操作と考えられるのは,元文書の文をそのまま要約として用いるものであろう.しかし,調査したデータでは,このような元文書中の文と一字一句違わない形で要約で用いている例は,のべ2467文中692文しか存在せず,その残りである1775文の要約文は人間が何らかの文の再構成・生成操作を行って作成している.さらに品質のよい要約を作成するためには,このような要約文がどのように作成されているかを分析する必要がある.ここで,元文章の表層的情報がどのように残され,書き換えられているかの目安を調査にするために,客観的な指標のもとで要約元文と要約文の対応付けを行ってみた.客観的な指標として用いたのは,「元文の表層情報をより多く残している」という観点から,文中の名詞,動詞,形容詞といった内容語を用いて文を特徴づけるベクトルを作成し,そのベクトル間のコサイン類似度を用いた.類似度を求める文の組に現れるすべての内容語が$j$個存在するとして,それぞれの文の特徴ベクトルを$s=\{s_1,s_2,\cdots,s_j\},o=\{o_1,o_2,\cdots,o_j\}$で表現したとき,コサイン類似度$sim(s,o)$は以下の式により定義される.なお,特徴ベクトルの各要素$s_i,o_i$は,当該の内容語がそれぞれの文にいくつ存在するかを示している.\begin{displaymath}sim(s,o)=\frac{s\cdoto}{|s||o|}\end{displaymath}この類似度を用いて,2文間の内容語が全て一致し,類似度が1.0となる文の組の数を調べると,742組であった.さきほどの,要約文とその対応文が全く同じ文である692組と比較すると,50組増えている.この50組を人手で分析してみたところ,以下の例のような形で,要約元文の文節が言い換えられ,要約文に用いられていた.\\\begin{center}\small\begin{tabular}{lp{20zw}}「参院は」→「参院では」\\「久しかった.」→「久しい.」\\「二十日に」→「二十日」\\\end{tabular}\end{center}もちろん,これらの文節数に変化がない要約の例は,ほとんど元文を書き換えていないため文節の書き換えの程度も少なかったといえるかもしれないが,文節内の書き換えの方向を知る上で重要な例である.要約で行われる操作は上のような単文節の言い換えに留まらない.対応付けの問題を難しくする他の要素としては,要約中の1文が要約元文章中の1文の表現だけを用いて要約文を作成するとは限らないことが挙げられる.例えば,Jingら\cite{Jing99}の研究では,英語における要約の重要文抽出とその再構成操作を,計算機による実装を見通した諸操作として整理した.彼女らの研究では基本的な操作として,以下の2つの操作を挙げている.\begin{itemize}\item文短縮(SentenceReduction):元記事の1文を短くして要約中の1文で表す.\item文結合(SentenceCombination):元記事の複数文をまとめあげて要約中の1文で表す\end{itemize}もちろん,この他にも,要約作成者が元文章を完全に理解した上で,元文章中には現れない新しい表現を作成することも当然考えられる.しかし,計算機による要約生成を考える上で,表層情報からわかるレベルの言い換えや文結合を組み合わせて作られた要約事例と,計算機では実現が難しいと思われる操作によって作成された事例とを分け,それぞれの事例がどの程度存在するかを知り,その操作の特質を調査することが必要となる. \section{かかり受け構造を用いた自動的対応付け} 本研究では2節で述べたような現状を踏まえて,要約元文章中の文の構造と要約の文の構造を踏まえた対応付けを自動化することを考えた.その際の観点は以下の2つである.\begin{itemize}\item元文章に現れた表現がどの程度保持され,要約が作成されるか\item1つの要約文を作成するために1つだけの対応付け文を考慮すれば十分であるのか,元文章中で関連をもった複数の文を考慮することが必要であるか\end{itemize}本稿では,このような観点から,文内の統語的構造を表現するかかり受け構造を考慮して文対応付けをとり,複数文との対応付けを考慮して,文対応付けを繰り返す対応付け戦略を考えた.対応付けのおおまかな処理の流れとしては,限定された文節の言い換えを考慮した文節一致の比較を行いつつ,要約とその元文章の間での文対応付けを行い,次に,文対応がとれた文対の中で文節の対応付けを行う.文節対応付けの結果,要約側で,対応が付かなかった文節は,まず,文節の言い換えであるかをかかり受け解析の位置情報を用いて自動的に確認し,それでも対応が付かない文節については,文対応された文内に対応付け候補のない文節と考え,元文章中の他の文にその文節を含む表現がないかを探すことを繰り返す.以降,対応付けの具体的な手順を順を追って説明する.\subsection{文対応付け}本稿が仮定する文対応付けは,文の構造を踏まえた対応付けである.文の構造の表現形態としては,かかり受け構造を採用した.かかり受け構造は,文中の各文節の修飾関係を木構造で表現したもので,関係付けの交差を許さない.ここで,かかり受け構造を解析した例は図\ref{depstruc}に示し,図中の矢印が文節間の修飾関係となる.かかり構造は,文末の文節以外の各文節が1つのかかり先を持つため,木構造となる.ここで,文末の文節をこの木構造の「根」とみたて,どの文節の係り先になっていない文節を「葉」と呼ぶ.また,各文節を木構造中の「節点」と呼び,文節間のかかり受け関係を「枝」と呼ぶ.また,本稿では,この構造を利用して自動的に対応付けを行うため,かかり受け解析モジュールCaboCha\cite{kudo01}を利用した.近年のかかり受け解析に関連する研究の進展により,かかり受け解析モジュールも実用に適用可能な精度を達成するようになっており,例えばCaboChaでは約90\%の精度で解析が可能であると報告されている.\begin{figure}[htbp]\begin{center}\epsfile{file=depstruc.eps,height=84pt}\caption{かかり受け構造の例}\label{depstruc}\end{center}\end{figure}かかり受け構造を利用した対応付けは,文章中で使用された表現の特定を,かかり受け構造上の文脈で制約することにより対応付けを精密化すると同時に次のような特性を持つ.例えば,「花を」と「彼女に」の出現順が異なっていても,以下の2文の組を考えてみたとき,(「花を」→「あげる」,「彼女に」→「あげる」)というかかり関係は保存されている.\begin{itemize}\item彼女に花をあげる.\item花を彼女にあげる.\end{itemize}また,上の例に「なんとしてでも」といった文節が余分に挿入されてた次のような文の組についても,それぞれの文において,「花を」「彼女に」「あげる」の3文節の間のかかり受け関係は変わらない.\begin{itemize}\item彼女に,なんとしてでも,花をあげる.\item花を彼女にあげる.\end{itemize}このように,2文の間で共通のかかり関係があることを対応付けの手がかりとして用いて,文対応を行う手法を考える.本手法での対応づけは,文のかかり受け構造における葉から根までのすべての経路をもとにする.例えば,図\ref{depstruc}のようなかかり受け構造木から,抽出される経路の集合は\{[昨日の,会議は,すれ違った],[双方の,意見に,かみあわず,すれ違った],[利益が,かみあわず,すれ違った],[議論が,すれ違った]\}となる.このような経路の集合を要約文と,対応づけ候補文となる要約元文の各文それぞれに対してすべて抽出する.要約文$s$のかかり受け構造のもつ経路の集合を$P_s$,要約元文章中の各文のかかり受け構造の経路をすべて集めた集合を$P_{cand}$として,$s$に対応付けられる対応文$a$は,以下のように決定する.\begin{enumerate}\item集合$P_s$の各経路と集合$P_{cand}$の経路のすべての組合せに対して,DPマッチングを用いて,最長共通部分列(LongestCommonSubsequences,以下LCS)を求める.\item上で求めたLCSの集合の中で,最も長いLCSをもつ経路がある文を対応文$a$とする.\end{enumerate}経路間のLCSを求めるために利用したDPマッチングを説明する.今,経路$[s_1,s_2,\dots,s_m],[o_1,o_2,\dots,o_n]$のLCSを求める時,まず表\ref{dpm}のようなコスト表を作成する.経路中の各要素$s_i,s_j$はそれぞれ,かかり受け構造中のノード,すなわち文節に相当する.コスト表は$c_{1,1},c_{1,2},\dots,c_{1,n},c_{2,1},\dots$という順に算出し,表が完成した時点で,表を用いて表の$(s_1,o_1)$の点から$(s_m,o_n)$の点までの最短の経路を求める.表の各要素の値である$c_{i,j}$は以下の式で求める.\[c_{i,j}=min(c_{i-1,j}+1,c_{i,j-1}+1,c_{i-1,j-1}+x(i,j))\\\]\[x(i,j)=\left\{\begin{array}{rl}0&\mbox{if$s_i=o_j$}\\1&\mbox{if$s_i\neqo_j$}\end{array}\right.\]ここで,関数$x(i,j)$における$s_i$と$o_j$の比較は文節同士の比較である.この文節の一致については次3.2節で詳しく述べる.\begin{table}\caption{経路間のLCSの算出}\label{dpm}\begin{center}\begin{tabular}{|l|r|r|r|r|r|r|}\hline&$o_1$&$o_2$&$\dots$&$o_j$&$\dots$&$o_n$\\\hline\hline$s_1$&$c_{1,1}$&$c_{1,2}$&$\dots$&$\dots$&$\dots$&$\dots$\\$s_2$&$\dots$&$\dots$&$\dots$&$\dots$&$\dots$&$\dots$\\$\vdots$&$\dots$&$\dots$&$\dots$&$\dots$&$\dots$&$\dots$\\$s_i$&$\dots$&$\dots$&$\dots$&$c_{i,j}$&&\\$\vdots$&&&&&&\\$s_m$&&&&&&$c_{m,n}$\\\hline\end{tabular}\end{center}\end{table}\vspace{-2pt}\subsection{DPマッチング中の文節の比較について}2.3節の予備的な考察に示したように,要約では文節レベルでの言い換えが頻繁に起こることが予想できる.かかり受け構造を利用して自動対応付けをする上で,文節の言い換えをある程度は考慮してやらなくてはならない.しかし,単文節のみの言い換えを考えただけでも,言い換えは多様であり,例えば,字面でよく似ていておおよその検討がつくものと,シソーラスなどの何らかの辞書を使わないと判断がつかないものなどは区別して扱うことが要約で行われている表現の多様性を見極める上で重要となる.本稿では以下のような,単純な,単文節書き換え規則のみを用意するにとどめ,その結果から,より高度な言い換え事例を収集し,要約で行われている操作の多様性について見通しをたてるという方針をとる.以下,対応付けを行う上で基礎となる,言い換えを考慮した文節の一致規則を説明する.この一致規則は,2.3節の分析に基づいていており,文節内の意味的主辞の品詞の下位分類まで含めた一致と原型の一致を文節の一致の基本とする.文節の接辞が格助詞の場合は,以下の例のように,格要素が主題表現になる場合と,その逆になる場合を書き換えとして認めた.\begin{center}\small\begin{tabular}{lp{20zw}}が$\leftrightarrow$も,は\\は$\leftrightarrow$が,も\\も$\leftrightarrow$が,は\\に$\leftrightarrow$には\\で$\leftrightarrow$では\end{tabular}\end{center}用言を主辞とする文節については,助詞,助動詞,活用語尾などの文節末要素についてはゆるい制限で言い換えが可能であるとし,主辞の原型が同じであれば,同じ文節とした.意味的主辞の品詞の一致の例外としては,名詞に格助詞助詞がついていたものが,名詞だけになった場合,また,その逆の場合,下位分類までの一致とはせず,当該語の原型の完全一致をもって文節の一致とした.また,助詞を接辞とする文節で,複数の名詞から構成される複合名詞が短縮された文節などを考慮し,格助詞が一致しているときに限り,文節内の半数以上の名詞が同じ,もしくは文字ベースで半数以上の文字が一致をもって文節の一致とした.\subsection{文節間の対応づけ}要約文と対応文との間の各文節の対応付けを,3.1節で述べた方法により対応づけた情報を用いて行う.具体的には,文対応付けを行った際に利用した,要約文$s$と対応文$a$の,それぞれのかかり受け構造木の経路すべての組み合わせについて求めたLCSの集合を情報として用いる.ただし,文節対応に用いるのは,元文でなんらかの統語的関係にあったことを仮定しているので,LCSの長さが1のものは,このLCSの集合の中から除外した.具体例を示す.例えば,図\ref{cmppair}の場合は,対応文のかかり受け構造における経路の集合は前節にも述べたように,\{[昨日の,会議は,すれ違った],[双方の,意見に,かみあわず,すれ違った],[利益が,かみあわず,すれ違った],[議論が,すれ違った]\}とである.これに対し,要約文のかかり受け構造における経路の集合は\{[会議は,すれ違った],[双方が,かみあわず,すれ違った],[いつまでも,すれ違った],[議論が,すれ違った]\}となる.この2つの経路集合の全て組み合わせのLCSのうちLCSの長さが2以上のものの集合は以下のようになる.\{[会議は,すれ違った],[かみあわず,すれ違った],[議論が,すれ違った]\}\}このLCSの集合に基づいて,要約文と対応文のそれぞれについて,この集合の各要素のLCSに含まれる文節,すなわち文節対応がついた文節を$1$,未対応の文節を$0$でマークしたものが,図\ref{cmppair}での各文節の下につけられた${0,1}$の数字である.以降本稿では,この対応・未対応を示した${0,1}$の列を対応文および要約文の編集記号列と称す.\begin{figure}[htbp]\begin{center}\epsfile{file=cmppair.eps,height=152pt}\caption{文節対応付けの例}\label{cmppair}\end{center}\end{figure}\subsection{かかり受け構造を手がかりとする文節言い換えの自動同定}3.2節での文節の比較で述べたように,本稿の手法では,少数の単文節言い換え規則を用いて,確実に同じ文節だと思われる文節のみを文対応,文節対応の際に対応付ける.もちろん,要約で行われる言い換え操作は,3.2節の言い換え規則だけで記述できるものではないことが予想できるため,さらに複雑な要約操作を知る足がかりとして,かかり受け情報を利用して確実に単文節の言い換えだと推定できる事例を,文節対応付けがとれているものと仮定し,このような言い換え事例を自動的に収集しておく.確実な単文節の言い換えと仮定するのは,3.3節の文節対応付けが終わった時点で,要約文,対応文中の未対応の文節が,それぞれのかかり受け構造の中で図\ref{complete}の2つのパターンにある場合である.図中の四角は単文節を示し,斜線で塗りつぶされた四角は既に文節対応付けがなされている文節である.以下それぞれのパターンの未対応文節と対応文節との位置関係についての説明である.\begin{itemize}\item未対応の1文節が,2つ以上の対応済み文節のかかり先になっている.(図\ref{complete}中パターンAに相当)\item未対応の1文節のかかり先と,その未対応の文節を元文中で直接係り先にしている1つ以上の文節すべてが対応済みである.(図\ref{complete}中パターンBに相当)\end{itemize}このようなかかり受け構造の位置に未対応の単文節がある場合に,その未対応の単文節を,単文節の言い換えとみなして,3.5節の処理に移る.自動的に同定するこのような言い換えと仮定する文節は,要約で行われるより複雑な言い換えを調査する手がかりとして利用する.その結果については,4.3節にて述べる.\begin{figure}[htbp]\begin{center}\psbox[width=10.0cm]{complete.eps}\caption{かかり受け構造を用いた文節言い換えの自動同定}\label{complete}\end{center}\end{figure}\subsection{文結合操作の同定}2.3節で述べたように,要約文は常に,要約元文章中の文と1対1で対応付けられるとは限らない.そこで,本対応付け手法は,要約文に1文に対し,複数の要約元文が対応付けられる文結合操作を考慮するため,3.1節から3.4節までの一連の対応付け処理により未対応の文節列が,要約文中に残っている場合,図\ref{loop}のように,その未対応の文節列に対応する文を3.1節から3.4節までの一連の処理を繰り返すことにより対応する.この際,対応付け繰り返し条件は,2文節以上の未対応文節列とした.例えば,第一回目の対応付け試行により,以下のような要約文と対応文の組が得られた場合を考える.\begin{center}\small\begin{tabular}{lp{20zw}}要約文「賃貸物件の借り上げに力を入れるなど積極的対応を求めたい.」\\元文1「賃貸物件の借り上げに,力を入れ,仮設住宅を確保をする必要がある.」\\\end{tabular}\end{center}この例の場合,第1回目の対応付け後の要約文の編集記号列は'111000'\footnote{3.2節の対応付け規則では「入れるなど」と「入れ,」は同一文節とみなさないため,後ろから3番目の文節は未対応となる.本研究では,このような厳しい条件の文節比較に基づいて対応付けをすることにより,要約での文再構成操作の特質を分析する.}である.ここで,図\ref{loop}の手順にあるように,2つ以上の連続する未対応文節が文末にあるため,次の繰り返し処理で,文節列[入れるなど,積極的対応を,求めたい.]に対して,3.1節から3.4節までの一連の処理を適用する.元文章中に,例えば,\begin{center}\small\begin{tabular}{lp{20zw}}「県には,前例にとらわれず,積極的対応を求めたい.」\end{tabular}\end{center}といった文ががあれば,この未対応文節に対して,この文が対応付けられ,結果的には元の要約文に対して以下の2つの文が対応付けられ,要約文に対しての編集記号列は'111011'となり,対応付けの繰り返しは終了する.\begin{center}\small\begin{tabular}{lp{20zw}}要約文「賃貸物件の借り上げに力を入れるなど積極的対応を求めたい.」\\元文1「賃貸物件の借り上げに,力を入れ,仮設住宅を確保をする必要がある.」\\元文2「県には,前例にとらわれず,積極的対応を求めたい.」\\\end{tabular}\end{center}このように,要約文の編集記号列における長さ2以上の未対応文節列'0'の列がなくなるか,そのような未対応文節列に対して,元文章中のかかり関係をもった文節を対応付けられなくなるまで対応付け作業を繰り返す.\begin{figure}[htbp]\begin{center}\psbox[width=9.0cm]{loop.eps}\caption{対応付け手法の概観図}\label{loop}\end{center}\end{figure} \section{対応付け手法の適用と要約操作} \subsection{元文のかかり受け構造を保存してつくられた要約文数}要約の全2467文に対して,3節で述べた自動対応付けを繰り返し適用し,対応付けが出来なくなるなるまで繰り返した結果を表\ref{del}に示す.表中の各回の試行で対応付けられた文数は,当該回の試行以降で対応付けが出来なくなった文数を示す.また,当該の試行で対応付けができなかった文節の数を,未対応文節がない場合,未対応文節が文中の文節の半分より少ない場合,文中の文節の半分以上が未対応の場合の3つに場合分けし,それぞれの内訳数を示した.なお,第1回ですべての文節が対応付け可能だった990文は,元文章中の文をそのまま要約でも用いていた672文を含んでいる.この表\ref{del}の結果から,対応付けの繰り返しは5回で終了し,大部分の要約文は3回までで対応付けが終わることが分かる.また,要約文中に文節対応づけが出来ない文節が残る要約文のうち,文中の半分以上の文節が未対応になる文は235文である.表\ref{del}から,文中の半分より少ない文節が未対応になっている文は978文であるので,本手法の対応付けで文節対応付けで未対応文節が残る文であってもその81\%は未対応文節は文中の文節の半分以下である.すなわち,すべての文節が対応づけられる数を含めると,今回収集した要約のほとんどの文が,要約の元になった文の係り関係を保存して生成されていることがわかる.なお,2467要約文中,本手法で対応付けできなかった95例は49例が元文章中の単語レベルのみ,もしくは1文節のみが使われて作成されていた要約文であり,46例が,元文章中の2以上の文節を用いてはいるものの,元文で使われていたかかり関係がない例である.このような例は,要約者が,要約文全体の要旨を一言でまとめたり,その要旨に対しての主観的な読み手の位置づけや,背景情報を与えるものであった.つまり,計算機で要約生成を考える上では,現段階では実現が非常に難しいものであり,元文章中の文の再構成に基づいて要約生成を考える立場では,現状において扱いを留保する.以下,本稿の残りでは,対応付けにおいて未対応となった文節が,要約作業者によって全く新しく作成されたのかどうかを,文結合,言い換えの2つの側面から議論する.\begin{table}\caption{自動対応付けの適用と文節対応付けの傾向}\label{del}\begin{center}\begin{tabular}{|l|r|r|r|r|}\hline対応付け&対応付け&\multicolumn{3}{|c|}{要約文中の未対応文節数}\\\cline{3-5}試行数&文数&なし&半数より少&半数以上\\\hline\hline1&1598&990&444&164\\2&609&141&401&67\\3&146&25&118&3\\4&18&3&14&1\\5回以上&1&0&1&0\\\hline合計&2372&1159&978&235\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{文結合のタイプ分類}\label{combitype}\begin{center}\small\begin{tabular}{|l|ll|}\hline連用接続&\multicolumn{2}{|l|}{2つの文を連用接続にて結ぶ.接続形態は論理接続,付帯状況の説明などがあった.}\\\cline{2-3}&対応文1&また,大学側も柔軟な思考で共同研究に応じるべきであろう.\\&対応文2&特に,各地の大学は地方ニーズに応えるよう配慮してほしい.\\&要約文&大学側も共同研究に応じるべきで,特に,各地の大学は地方ニーズに\\&&応えるよう配慮してほしい.\\\hline主題表現&\multicolumn{2}{|l|}{結合する文の一方に現れた表現が,他方の文の主題や主格主語になっている.}\\\cline{2-3}の追加&対応文1&北京での南北の次官級交渉は,関連問題で最後の詰めを残している.\\&対応文2&北朝鮮側は,コメの支援問題以外の政治問題は今回の会談では\\&&話し合いたくない立場を譲っていないようだ.\\&要約文&北京での南北の次官級交渉は,北朝鮮側も,コメの支援問題以外の\\&&政治問題は今回の会談で話し合いたくない立場を譲っていないようだ.\\\hline連体接続&\multicolumn{2}{|l|}{結合する文の一方の表現を用いて,他方の文の名詞を連体修飾する.}\\\cline{2-3}&対応文1&新党結成をめぐり社会党は大混乱で,政権基盤は大きく揺らいでいる.\\&対応文2&首相にとっては演説どころではなかったのかもしれない.\\&要約文&新党結成をめぐり社会党は大混乱で,政権基盤が揺らいでいる首相に\\&&とっては演説どころではなかったのかもしれない.\\\hline格要素の&\multicolumn{2}{|l|}{結合する文の一方の表現が他方の文の句の格要素となっている結合.}\\\cline{2-3}追加&対応文1&観光目的などで来日して不法残留する外国人労働者の医療問題は,「人道」\\&&と「不正」がからみつく.\\&対応文2&行政は「不正」を重く見て,良心的な医療機関ほど「人道」的に対応して\\&&きた.\\&要約文&行政は「不正」を重く見て,不法残留する外国人労働者の医療問題に,\\&&良心的な医療機関ほど「人道」的に対応してきた.\\\hline\end{tabular}\end{center}\end{table}\subsection{文結合について}本研究での対応付け手法は,文結合操作を考慮するため,要約1文に対し要約文書中の複数の文を対応付けることを許して対応付けを行った.そこで,この文結合の諸相を調査するため,まず,表\ref{del}の,未対応文節が全くなく2文以上が対応付けられた対応付け試行回2,3,4回(対応付けられた要約文の数はそれぞれ表\ref{del}から141,25,3文)の169文の要約文における文結合の形を比較のための基準例として分類した.この169文の要約文中の文結合部分は232箇所であった.結合部分は,1つで2つの文を結合しているため,この169文はおおよそ464文,すなわち1文あたり平均2.7文の元文を何らかの形で結合している.ここでの分類は表\ref{combitype}のようなタイプ分類を用いた.この分類タイプを用いて,169文,232箇所の文結合を分類した結果を基準例として表\ref{countscomb1}の上段に示す.次に,言い換えを伴って文結合がなされる例を同定し,それを文結合のタイプ分類で分類したものを表\ref{countscomb1}の下段に示す.このような言い換えをともなう文結合箇所は,以下のような方法で同定した.本手法で,要約文と対応文を対応付けた際に,得られた要約文に対しての編集記号列において,文頭や文末に未対応の文節列がある場合は,図\ref{inter}に示したような以下の二つの場合がある.\begin{table}\caption{各文結合箇所のタイプ分類}\label{countscomb1}\begin{center}\small\begin{tabular}{|l|r|r|r|r|r|r|r|}\hline&連用接続&主題・主格&連体接続&格要素&文の構文&不適切な&合計\\&&&&&変化&対応付け&\\\hline基準例&176&25&19&10&0&2&232\\未対応文節あり&319&46&56&11&8&25&465\\\hline\end{tabular}\end{center}\end{table}\begin{itemize}\item2つの対応文の接合部分に未対応文節がある場合(図中の要約文A)\item1つの対応文のかかり受け構造の中に未対応文節が挿入された形(図中の要約文B)\end{itemize}\begin{figure}[htbp]\begin{center}\psbox[width=10.0cm]{inter_unsatisfy.eps}\caption{要約文中の未対応文節列}\label{inter}\end{center}\end{figure}この図\ref{inter}の要約文Aのように,対応文の結合箇所に未対応の文節がある場合,この未対応の文節を文結合にともなう言い換えとみなした.なお,要約文Bのような,1つの対応文のかかり受け構造の中に挿入されている形の未対応文節については,次節で述べる.このような未対応文節列をともなう文結合の例は465箇所あり,その例を表\ref{sentcombi}に示す.文結合にともなう言い換えは,表\ref{sentcombi}の例1のように,結合のために文節の品詞や形態を変化させる例と,例2や例3のように,結合のための変化だけではなく,結合後の要約文をより良くするために,接続表現や,付加情報を付け加える場合があった.表\ref{countscomb1}をみると,言い換えがなされるかどうかにかかわらず,文結合として最も多いのは,連用接続の形である.これは,要約を作成する際に,元文章のある文の述べている命題についての関連情報を要約でも付加しようとしていることを示している.また,その関連情報の付加のされ方は,連鎖対や背景,理由,結果の提示といったものが多く,要約に必要な命題に関しての関連情報を知るためには,元文章のそのような情報を知ることが有益であることを示している.他方,連体接続で付加される情報としては,接続対象の事象や主体の背景提示や,「のような」を用いた例示表現などが多かった.表\ref{countscomb1}中の文の構文変化としたのは,原文中の「XXXではYYYである」といった構文が,「YYYなのは,XXXということ.」といったように,構文全体の構造が変化した例の数である.また,不適切な対応付けの例としたのは,対応付けが不適切であると人手で判断した例の数で,かかり関係をもつ2文節が文章中の複数の文に現れる慣用表現や,元文の言い換えと見たほうが適当であると判断した例である.\begin{table}\caption{文結合に伴う言い換え}\label{sentcombi}\begin{center}\small\begin{tabular}{|l|ll|}\hline例1&対応文1&$\cdots$期待を寄せて,かなりのスペースを裂いている.\\&対応文2&また,国土庁の「定期借地権の活用に関する$\cdots$\\&要約文&$\cdots$期待を寄せており,国土庁の「定期借地権の活用に関する$\cdots$\\\hline例2&対応文1&$\cdots$負担増を求める以上,政府自らも$\cdots$\\&対応文2&阪神大震災での損失を$\cdots$\\&要約文&$\cdots$負担増を求め,そのうえ,阪神大震災での損失を$\cdots$\\\hline例3&対応文1&$\cdots$事情は理解すべきだと思う.\\&対応文2&輸入を増やし,不均衡を$\cdots$\\&要約文&$\cdots$事情を理解し,内需拡大で輸入を増やし,不均衡を$\cdots$\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{自動同定した単文節の言い換え例}\label{simplepara}\begin{center}\small\begin{tabular}{|lll|p{20zw}}\hline例1&対応文&重く,[つらい]課題である.\\&要約文&重く[辛い]課題である.\\\hline例2&対応文&女性が生涯に[産む]\\&要約文&女性が生涯に[生む]\\\hline例3&対応文&崩れれば,競争も[強まる]\\&要約文&崩れれば,競争が[活発になる]\\\hline例4&対応文&輸送費用を電事連が公に[しないのは]\\&要約文&輸送費用を電事連が[公開しないのは]\\\hline例5&対応文&一点,反するのではという問題も[抱える.]\\&要約文&一点,反するのではという[問題である.]\\\hline例6&対応文&調査では,支持率は,六七%にも[達している.]\\&要約文&調査では,支持率は[六七%.]\\\hline\end{tabular}\end{center}\end{table}\subsection{言い換えの特徴}文結合が行われる以外に,要約文を作成するためには,様々な言い換えが行われるであろう.今回用いた対応付けでは,3.4節で述べたような特定のかかり受け構造を手がかりとして,単文節言い換えの自動同定を行った.この方法で,言い換えを自動的に推定することが出来た例は121例であった.この方法で自動的に対応づけた文節言い換えの例をもともとは未対応であった文節を[]で囲み,周辺文脈とともに表\ref{simplepara}に示す.表\ref{simplepara}での言い換えは,最も単純なものとして,例1から例3に示した通り,漢字表記の違い,誤字,単文節の言い換えといったものがあり,このような単文節の言い換えの自動同定について,同じ文節とみなして間違いだと思われるものはなかった.反面,間違いではないものの,単純な単文節の言い換えではなく,複数文節の言い換えと考えた方がよいものとして,表\ref{simplepara}の例4から例6があげられる.このように,表\ref{simplepara}の例は,ほぼ確実に言い換えを自動同定できているが,抽出できた例は121例と少ない.すなわち,このような自動同定できた言い換え事例の少なさは,用意した要約文と対応文の両方の周辺かかり受け構造の条件が厳しかったことが原因であると考えられる.そこで,本節では,未対応となっている文節もしくは文節列の位置や,周辺の対応文節との相関から,それらの文節がどのような形で元文から言い換えられたかを議論する.その整理の大きな枠組みとして,要約中の文頭,文末,文中にあるときに分けて検討したい.この様に場合分けした理由は,表\ref{del}で要約文中の半数以上の文節未対応で残る場合は,文頭もしくは文末に長さ4以上の未対応文節列があることが多く,文中に長さ4以上の長い未対応文節ができることは少なかったからである.また,文中における未対応文節の文結合に伴う言い換えについては既に前節で議論したため,本節では,図\ref{inter}の要約文Bのような例について説明する.\\\noindent{\bf要約文の文頭の特徴}要約文の文頭で未対応の文節列があるものを,未対応文節の長さによって整理したものを表\ref{headcorres}に示す.文頭の未対応文節と対応文それに対応する部分の例を,それぞれの未対応文節を[]で囲んで表\ref{paralist}の要約文1〜3に示す.表\ref{headcorres}から分かるように,未対応の文節が文頭にある場合は1文節の未対応文節が多い.この原因を調べてみると,まず挙げられるのは,文頭に単文節の「XXは」といった主題表現や,「しかも」や「しかし」といった副詞や接続表現が文頭にある場合,対応付けられるべき同じ表層表現をもつ文節が対応対の両者にあるにもかかわらず,未対応となった例があった.これは,これらの未対応になる文節が,長い距離で依存関係を持つことが多いため,かかり受け解析の誤りや,かかり先の削除や言い換えにより対応付けられなかった例が多い.また,これらの表現は,新たに挿入されることも多い.このことは,計算機による要約文の生成を実現する上で,対応文のかかり受け構造だけではなく,主題,副詞,接続表現といった,文脈上の機能的役割を考慮する必要があることを示している.\begin{table}\caption{要約文における文頭の未対応文節}\label{headcorres}\begin{center}\begin{tabular}{|l|r|r|r|r|r|}\hline連続する&\multicolumn{5}{|c|}{未対応文節列の長さ}\\\cline{2-6}未対応文節の位置&1&2&3&4&5以上\\\hline\hline文頭&369&157&72&47&50\\文末&93&75&31&39&33\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[htbp]\begin{center}\psbox[width=10.5cm]{inpara.eps}\caption{要約文中の未対応文節列の長さ}\label{inpara}\end{center}\end{figure}\noindent{\bf要約文の文末の特徴}文頭の未対応文節と同様に,各試行回で対応付けが終わった要約文において文末の未対応文節がある場合に,その長さがどの程度かの分布を表\ref{headcorres}に示した.文頭の未対応文節とは違い,未対応文節列の長さが1のものが飛びぬけて多いということはない.例を,表\ref{paralist}の要約文4〜6に示す.文末未登録文節の事例を調査すると,対応文の文末表現を簡略化するために,文節の未対応になってしまった表\ref{paralist}の要約文4や5のような例と,要約者の主観や独自の説明が入れられた要約文6の例が混在しており,ゆれが大きい.すなわち,要約文の文末表現は要約者によっての恣意的な度合いが高いと言える.そのほかの重要な例として,主題を文末に移動させた構文的変化を原因とする以下のような例がある.このような形の文全体の構文変化は,4.2節で述べた文結合に伴う構文的変化の際にも見られた例であり,要約の文脈を整える上で重要な働きを担っていると考えられる.\begin{center}\small\begin{tabular}{lp{20zw}}その際,大切なことは,金融と財政を1つのパッケージにすることだ.\\その際,金融と財政をパッケージにすることが大切である.\\\end{tabular}\end{center}\noindent{\bf要約文への文節の削除と追加}要約文中への言い換えのパターンを説明する上で,図\ref{inpara}に示したような未対応文節列の長さ$n,m$を導入すると,うまく整理できる.対応文側の未対応文節列の長さが$n$であり,要約側が$m$である.基本的なものとして,$m=0$で$n>1$の場合と,その逆の$n=0$で$m>1$の場合がある.前者は,対応文の文節を削除して要約文をつくる場合であり,後者は,要約文で対応文には存在しないなんらかの文節が追加される場合である.文節の削除は,要約が基本的には元文章を短くする処理であることから,要約操作において頻繁に行われる操作である.おおまかにいって,周りの文節が削除されず,1つの文節のみが削除される文節には,主題文節,副詞文節,接続表現といった文節が多く,複数の文節が削除される場合は節単位で削除されることが多い.どちらの場合も新しく生成された要約文の文脈に相関して削除される.このような,文節を削除する操作は,文を簡略化する際だけではなく,文結合を行う際にも重要であるるが,本稿では,元文章中の表現を使ってどのように要約文を生成するかを主眼に話を進めるため,この操作の特質の究明については詳しく触れない.対応文に現れない文節が要約文に追加される例を表\ref{paralist}中の例7〜9に示す.$m=1$の場合がもっとも多く,主題や副詞,接続表現が追加される.$m$が2以上の場合も,$m=1$の組み合わせや,複数文節からなる相当表現の追加であった.このように,対応文に現れない文節の追加は,単文節単位なされることが多く,その種類は,単文節単位で削除さやすい文節と同種の,主題文節,副詞文節,接続表現といった文節である.\noindent{\bf要約文の文中で起こる言い換え}要約文と対応文との間で文節の単純な削除や追加が行われる以外の操作を,言い換えの観点から検討する.ここでは,言い換えの例を,要約文と対応文に同じ数だけの文節列が削除される$n=m$の場合と,$n$と$m$の文節数が異なる場合に分けて検討する.表\ref{paralist}の要約文10〜12は$n=m$の場合の例である.このような例は,表中の要約文10,11のような$n=m=1$が最も多く,そのような場合は,表\ref{simplepara}に示したかかり受け構造を条件として自動的に同定した,単文節の言い換えに準じる言い換えであった.$n=m>1$の場合であっても,今回収集した要約の中では文節数が3を越えるものはなく,表中の要約文12の例のように,単文節の言い換えの連鎖とみなせることが多い.上の場合以外の$n$と$m$が異なる場合は,$n<m$で対応文よりも文節数が多くなる場合と,$n>m$で対応文の当該部分を短く言い換えている場合である.$n<m$で対応文に何らかの文節を追加している場合の例を表\ref{paralist}の要約文13〜15に示す.このような文節が増える形での言い換えの典型的な例としては,$n$と$m$の差が1のものが多かった.追加のされ方は,要約文13の単なる表現の変化や,要約文14の具体的な人名の挿入,そして,要約文15のように単文節の追加に準じるものと多様である.しかし,基本的には,挿入される新しい文節の数が1つだけというものが多く,その要約文への単文節挿入に伴って,要約文のかかり受け構造が対応文のそれと異なってしまい,双方に未対応の文節ができてしまっていた例が多い.なお,今回調査した要約では,元文章中にない複数の新しい文節を要約文中に挿入する例は少なく,$n$と$m$の差が4以上のものはなかった.$n>m$となる,言い換えをともなって対応文の当該部分を短くする例を,表\ref{paralist}の要約文16〜20に示す.このような言い換えの特徴として,241例あった言い換え箇所のうち,187例が,表中の要約文16〜19の例のように,要約文側の未対応文節が1文節のものであった.また,241例中,$n$と$m$の差が1のものが一番多く101例,2番目に多いものが差が2のもので49例である.$n$と$m$の差が1や2のもので特徴的であったものは,\begin{center}「AがXXするB」$\leftrightarrow$「AのB」\end{center}といった「の」表現に関わる言い換え事例であった.他方,このような$n$と$m$の差が1であっても,要約文側の未対応文節が3以上の長い未対応文節である場合,表中の要約文20のような文節の削除や追加,複数文節にわたる言い換えが複合的に行われている場合もあり,このような場合を,未対応文節列対を言い換えと単純にみなすことには課題が残る.また,$n$と$m$の差が4より大きいものが存在し,このような事例も,対応文の節レベルの部分を削除したものなのか,それともそれを一言で言い換えたものなのかを客観的に判断することに課題が残る.以上を総括して,それぞれの言い換えの箇所数を表\ref{manu}にまとめておく.この表から,要約中で言い換えが起こる箇所は,単なる表現の言い換えだけではなく,文結合にともなう言い換えが多いことがわかる.また,表現の言い換えも,ここまで議論してきたように,単文節の言い換えを基本にするものが多い.\begin{table}\caption{言い換えの例}\label{paralist}\begin{center}\small\begin{tabular}{|l|ll|}\hline位置&\multicolumn{2}{|c|}{言い換え例}\\\hline\hline文頭&対応文1&共同作業所と公的な授産施設の\\&要約文1&[大震災で兵庫の]共同作業所と公的な授産施設の\\&対応文2&基本的には,恒久住宅の建設を進めなければならない.\\&要約文2&[そして,応急処置と同時に]恒久住宅の建設を進めなければならない.\\&対応文3&[三塩化リンなどサリンの]基本原料となるが,\\&要約文3&[同じような事件の再発防止のためには,危険物質の]基本材料となるが,\\\hline文末&対応文4&入居を辞退したケースも[六百件以上ある].\\&要約文4&入居を辞退したケースも[多い].\\&対応文5&乏しさを[弁解する理由にはできない.]\\&要約文5&乏しさを[露呈した.]\\&対応文6&有無を早急に明らかにしなくてはならない.\\&要約文6&有無を早急に明らかにして,[国民の不安を取り除く必要がある.]\\\hline文中&対応文7&劣らず,二次感染の\\(文節の&要約文7&劣らず,[日常的接触では]二次感染の\\追加)&対応文8&しかも,今後は\\&要約文8&しかも[北朝鮮は]今後は\\&対応文9&要望を聞く\\&要約文9&要望を[幅広く]聞いた\\\hline文中&対応文10&政治家は,[韓国の]発展と\\(n=m)&要約文10&韓国政治家は,[その]発展と\\&対応文11&事態の[推移を]注意して,\\&要約文11&事態の[推移に]注意して\\&対応文12&オウム真理教関連の[施設に一斉に]家宅捜査を行った.\\&要約文12&オウム真理教関連の[施設に対して全国一斉の]家宅捜索を行った.\\\hline文中&対応文13&将来のために[工夫が]必要だ.\\($n<m$)&要約文13&将来のために[工夫することが]必要だ.\\&対応文14&警察組織の[トップが]銃撃された.\\&要約文14&警察組織の[トップ,国松孝痔警察庁長官が]銃撃された.\\&対応文15&たって,学校は[ようやく]隔週\\&要約文15&たって,[今ようやく]学校は隔週\\\hline文中&対応文16&してもらって[支援のネットワークを]広げては\\($n>m$)&要約文16&してもらって[支援を]広げては\\&対応文17&社会党・さきがけが,[侵略行為・侵略戦争や植民地支配の]反省の\\&要約文17&社会党・さきがけが[侵略行為などの]反省の\\&対応文18&実施する[「措置予定」は七百件を超えたが,]大半は\\&要約文18&実施する[「措置予定」の]大半は\\&対応文19&青島知事の[こうした方針や行動に]反発した\\&要約文19&青島知事の[施政方針に]反発した\\&対応文20&当局が[事前に断固たる措置を取ると警告,厳戒態勢で]臨み,\\&要約文20&当局は[民主化グループに断固たる態度で]臨んでいる.\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{要約文,文中での言い換え箇所}\label{manu}\begin{center}\begin{tabular}{|l|r|r|r|r|}\hline言い換え&文結合に&\multicolumn{3}{|c|}{文結合以外}\\\cline{3-5}箇所&伴うもの&$n=m$&$n<m$&$n>$m\\\hline\hline例数&465&210&42&241\\\hline\end{tabular}\end{center}\end{table}\subsection{要約における文再構成操作のまとめ}我々が収集した人手作成要約において,元文章中の文をどの様に書き換えて要約文を生成するかをかかり受け構造を基準に調査した結果を,要約操作の観点から以下のように整理する.すべての操作に関連することであるが,要約を行う文の前後における主題・主語の推移,前後の文との連鎖,論理関係を知ることが,これらの操作を計算機によって実現を目指す上で重要である.\begin{itemize}\item文節の削除\\要約元文章中からの文節削除は非常に多く行われる.その際,要約元文から数多くの文節を削除する場合は,節レベルを単位として削除されることが多い.単文節を単位として削除される場合は,副詞表現,接続表現,主題といった要素が多い.\item文節の追加\\文節の追加による表現の変化は特に文末において自由度が高い.要約文のすべての部分にわたる特徴として,主題・主語表現,副詞表現,接続表現などが,要約全体の首尾一貫性や結束性にもとづいて,読みやすいように追加がなされる.\item文結合\\要約を生成する上で,ある文の命題を要約に記述しようとする場合に,それに関連する命題を取り出し,文結合という形で1文にしている操作が数多くなされる.文結合操作が行われる時,用言の活用形を変化させて結合するだけでなく,元文を言い換えて結合することや,結合部分に新しい文節を挿入することがある.\item言い換え\\構文的な言い換えと文節を単位とする言い換えがある.文節を単位とする言い換えは,1文節を同義語や代用表現にする言い換えだけではなく,複数文節にわたる言い換えが存在するが,その場合でも複数の文節を1文節で言い換えるような例が多い.\end{itemize} \section{まとめと今後の課題} 本稿では,要約文が元文章の文の統語構造をどの程度保存するかを議論するために,かかり受け構造を利用して,要約1文対複数の要約元文の対応付けに対応できる文・文節対応対応付け手法を提案した.実際に人間が作成した要約に対して,この対応付け手法を適用した結果,すべての文節が完全に対応付けできる要約文を除いても,残りの要約文の81\%について,元文中でかかり受け関係にある文節を要約文の半分以上の割合で保存していることを確認した.要約文側で未対応のまま残っている文節についても,それらを,文結合,文節の削除・追加,言い換えといった要約生成のための言語操作の帰結として整理すると見通しよく説明ができることを示した.さらに,言い換えについては,本手法で文節対応付けした結果を利用して,文節の対応パターンに基づいた基本的な文節言い換え事例の自動抽出を試み,その結果を参考に,さらに複雑な要約における文節レベルの言い換えの特質を論じた.今後の課題としては,今回の調査で収集できた言い換え事例と,要約操作についての知見を精緻化し,計算機による各要約操作の実装を目指したい.具体的には,自動対応付け手法を用いて,要約事例をさらに収集したものを機械学習の学習事例として用い,要約操作に関する知識を自動獲得することを検討したい.\bibliographystyle{jnlpbbl}\bibliography{cready-nlp02}\begin{biography}\biotitle{略歴}\bioauthor{竹内和広}{1968年生.高校卒業後,民間企業にて,製造業・建設業向けコンピュータシステムの設計・開発に従事.1993年,在職中に愛知県立大学外国語学部第二部入学.1997年同学卒業.同年奈良先端科学技術大学院大学情報科学研究科入学.1999年同大学院博士前期課程修了.2002年同大学院博士後期課程修了.同年4月より独立行政法人通信総合研究所専攻研究員.現在に至る.博士(工学).}\bioauthor{松本裕治}{1955年生.1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.情報処理学会,人工知能学会,日本ソフトウェア科学会,認知科学会,AAAI,ACL,ACM各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V20N02-04
\section{はじめに} 文書分類においてNaiveBayes(NB)を利用するのは極めて一般的である.しかし,多項モデルを用いたNB分類器では,クラス間の文書数に大きなばらつきがある場合に,大きく性能が下がるという欠点があった.そのため,\citeA{Rennie}は「クラスに属する文書」ではなく「クラスに属さない文書」,つまり「補集合」を用いることによりNBの欠点を緩和したComplementNaiveBayes(CNB)を提唱した.しかし,CNBはNBと同じ式,つまり事後確率最大化の式から導くことができない.そこで我々は,事後確率最大化の式から導くことのできるNegationNaiveBayes(NNB)を提案し,その性質を他のBayesianアプローチと比較した.その結果,クラスごとの単語数(トークン数)が少なく,なおかつクラス間の文書数に大きなばらつきがある場合には分類正解率がNB,CNBをカイ二乗検定で有意に上回ること,また,これらの条件が特に十分に当てはまる場合には,事前確率を無視したCNBも同検定で有意に上回ることを示す.また,NNBは,Bayes手法以外の手法であるサポートベクターマシン(SVM)よりも,時に優れた結果を示した.本稿の構成は以下のようになっている.まず\ref{Sec:関連研究}節でBayes手法のテキスト分類の関連研究について紹介する.\ref{Sec:NegationNaiveBayesの導出}節では提案手法であるNNBの導出について述べる.\ref{Sec:実験}節では本研究で用いたデータと実験方法について述べ,\ref{Sec:結果}節に結果を,\ref{Sec:考察}節に考察を,\ref{Sec:まとめ}節にまとめを述べる. \section{関連研究} \label{Sec:関連研究}これまでに数多くの文書分類に関する研究がなされており,これらの中でも,Bayesの手法はよく用いられている\cite{持橋}.\citeA{井筒}はhtmlファイルの自動分類でNBを使用し,ルールベースの手法や判別分析に比べて,プログラム開発者にかかる負担の低さとスケーラビリティの高さを指摘している.\citeA{Andrew}はNBを適用してテキスト分類を行う際に使用する事象モデルとして,多項モデルと多変量ベルヌーイモデルの違いを述べ,分類結果から多項モデルの優位性を示している.\citeA{Lewis}は,文書分類問題において単語と句,単語と句のクラスタ化の有無,全ての索引語を用いるか一部を用いるかの違いについて,分類精度の比較を行った.\citeA{花井}は,NBが前提とする単語間の独立が成り立たないとし,依存性の強い2単語の組が同時に生起する確率をNBに適用することによって分類精度の向上を図った.Church(2000)は,単語の重み付け方法としてIDF値のかわりに``Adaptation''という概念を用い,文書に含まれていないが内容に関連している単語を``Neighbor''として定義して,テキスト内の特徴的な単語の抽出を行った.さらに\citeA{持橋06}は,NBにおけるクラス$c$を未知として拡張したDM(DirichletMixtures)やInfiniteDMを提案し,高村,Roth(2007)\nocite{高村}は,予測的尤度を用いて超変数を設定することなく,加算スムージングのパラメータを求めた.NBを発展させた研究として,補集合を用いて学習を行うCNBが有名である\cite{Rennie}.CNBは,「クラスに属する文書」ではなく「クラスに属さない文書」,つまり「補集合」を用いることによりNBの欠点を緩和した手法である.本研究では,多項モデルを用いたNBとCNBに注目し,その分類における特徴を考慮して,Bayesのアプローチを用いた新しい分類手法NNBを提案する. \section{NegationNaiveBayesの導出} \label{Sec:NegationNaiveBayesの導出}NNBはCNBと同様に補集合を利用して文書分類を行うが,CNBと異なってNBと同じ事後確率最大化の式から導出が可能である.その結果,事前確率を数学的に正しく考慮することで,クラスごとの文書数が異なっているときにもより正確な文書分類を行えるようにした.本節ではNBの導出と,CNBの概念について触れた後,提案手法であるNNBの導出について述べる.\subsection{NaiveBayes分類器}\label{Sec:NaiveBayes分類器}一般に確率モデルによる文書分類では,分類対象となる文書を$d$,ある一つのクラスを$c$としたとき,事後確率$P(c|d)$を最大化するクラス$\hat{c}$を求める\cite{Zhang}.NB分類器を用いた文書分類では,事後確率にBayesの定理を適用する.文書の取り出される確率$P(d)$はすべてのクラスについて一定であることを考慮すると,事後確率が最大のクラスを推定することは,クラスの出現確率$P(c)$と各クラスでの文書の出現確率$P(d|c)$の積を最大化するクラスを推定することと等しくなる.\begin{equation}\begin{aligned}[b]\hat{c}&=\argmax_{c}P(c|d)\\&=\argmax_{c}\frac{P(c)P(d|c)}{P(d)}\\&=\argmax_{c}P(c)P(d|c)\end{aligned}\label{eq:bayes}\end{equation}式(\ref{eq:bayes})において,$P(c)$は全文書中でクラス$c$に属する文書の割合を用いて容易に推定ができるが,$P(d|c)$を直接推定するのは難しい.そこで,まず文書$d$を単語列$w_1,w_2,\ldots,w_n$で近似する.\begin{equation}P(d|c)\approxP(w_1,w_2,\ldots,w_n|c)\label{eq:bayes2}\end{equation}次に,各クラスで単語が独立に生起すると仮定すると,式(\ref{eq:bayes2})は\begin{equation}P(w_1,w_2,\ldots,w_n|c)\approx\prod_{i=1}^{n}P(w_i|c)\label{eq:bayes3}\end{equation}と近似される.したがって,$d$の属するクラス$\hat{c}$は最終的に以下の式で求められる.\begin{equation}\hat{c}=\argmax_{c}P(c)\prod_{i=1}^{n}P(w_i|c)\label{eq:rnb}\end{equation}\subsection{ComplementNaiveBayes分類器}\label{Sec:ComplementNaiveBayes分類器}多項モデルを用いたNB分類器では,クラス間の文書数に大きなばらつきがある場合に,文書数の小さいクラスで$P(w_i|c)$が大きくなる傾向がある.$P(w_i|c)$は「そのクラス中に出てきたそのトークン$w_i$の数/そのクラス中に出てきたそのトークンの総数」であるため,訓練事例の単語トークン数に大きな差ができた結果,大きいクラスの$P(w_i|c)$は比較的小さく,小さいクラスの$P(w_i|c)$はかなり大きくなることが予想できる.その結果,小さいクラスに出現した単語を含む文書が出現した場合,その文書は,その単語をもつ小さなクラスに割り当てられることになる.また,文書数の少ないクラスでは,新規文書に出現した単語がそのクラスに含まれていない割合が多くなり,データがスパースになりやすい.そこで,学習する文書数のばらつきを抑え,スパースネス問題を緩和するようNBを改良したのが\citeA{Rennie}のCNBである.具体的には,「クラス$c$に属す訓練事例」ではなく「クラス$c$に属さない訓練事例」すなわち「$\bar{c}$に属する訓練事例(補集合)」を用いて学習を行う\footnote{Rennieらは文献の中でCNBのほかに5種類のヒューリスティックを導入しているが,本研究では純粋に式の変更による違いを見るため,ヒューリスティックは使用しなかった.}.\begin{figure}[b]\begin{center}\includegraphics{20-2ia4f1.eps}\end{center}\caption{NBとCNBでの学習に用いる文書数の違い}\label{Fig:コンプ文書数変化}\end{figure}図\ref{Fig:コンプ文書数変化}は,NBとCNBでの学習に用いる文書数の違いを表している.文書数10,10,20,40の4つのクラスがある場合,NBではこの文書数を自身のクラスの学習に使う.そのため,文書数が最も少ないクラスと最も多いクラスでは学習に使用する文書数に4倍の差がある.一方,CNBでは自身のクラスに属する文書以外の文書から学習を行うため,学習に用いる文書数は最小のもので40,最大のもので70となり,NBに比べてばらつきが小さくなる.CNBは,文書内にある単語の出現確率の積から尤度を計算し,分類するクラスを決めるという点ではNBと同じである.つまり,式(\ref{eq:rnb})を用いて文書$d$の属するクラス$\hat{c}$を推定する.しかし,CNBでは$P(w_i|c)$を最尤推定で求めるのではなく,$c$以外のクラス$\bar{c}$の尤度の積から推定する.つまり,$d$の属するクラス$\hat{c}$は最終的に以下の式で求められる.\begin{equation}\hat{c}=\argmax_{c}P(c)\prod_{i=1}^{n}\frac{1}{P(w_i|\bar{c})}\label{eq:cnb}\end{equation}\subsection{NegationNaiveBayes分類器}\label{Sec:NegationNaiveBayes分類器}前節で説明したCNBは,NBの持つ「クラス間の文書数のばらつきによって分類結果が偏る」という特徴を緩和する手法である.しかし,CNBはヒューリスティックによる解決法であって,事後確率最大化の式から導出することはできない.そこで本研究では,事後確率最大化の式から導出でき,かつ,CNBの「訓練にクラスの補集合を利用する」という長所をもつ分類器を作成する.以下でNBと同様の,事後確率最大化の式(式(\ref{eq:bayes}))からの式の変形について述べる.まず,事後確率$P(c|d)$を最大化するクラス$\hat{c}$を求める式を補集合を利用するように変形する.\begin{equation}\begin{aligned}[b]\hat{c}&=\argmax_{c}P(c|d)\\&=\argmax_{c}(1-P(\bar{c}|d))\\&=\argmin_{c}P(\bar{c}|d)\end{aligned}\label{eq:eqnnb1}\end{equation}次に,Bayesの定理を用いて式(\ref{eq:eqnnb1})を変形する.\begin{equation}\begin{aligned}[b]\hat{c}&=\argmin_{c}\frac{P(\bar{c})P(d|\bar{c})}{P(d)}\\&=\argmin_{c}P(\bar{c})P(d|\bar{c})\end{aligned}\label{eq:eqnnb2}\end{equation}そして,式(\ref{eq:eqnnb2})を近似する.$P(d|\bar{c})$は式(\ref{eq:bayes2}),(\ref{eq:bayes3})と同様に\begin{equation}P(d|\bar{c})\approx\prod_{i=1}^{n}P(w_i|\bar{c})\label{eq:eqnnb3}\end{equation}と近似される.したがって,文書$d$の属するクラス$\hat{c}$を以下の式で推定する.\begin{equation}\hat{c}=\argmin_{c}P(\bar{c})\prod_{i=1}^{n}P(w_i|\bar{c})\label{eq:nnb}\end{equation}なお,$P(\bar{c})=1-P(c)$であり,CNBと同じく最大化で表現すると以下の式になる.\begin{equation}\hat{c}=\argmax_{c}\frac{1}{1-P(c)}\prod_{i=1}^{n}\frac{1}{P(w_i|\bar{c})}\label{eq:nnb2}\end{equation}式(\ref{eq:cnb})と比較すると,$\frac{1}{1-P(c)}$の最大化の部分,つまり事前確率$P(c)$の部分が異なっていることが分かる.式(\ref{eq:nnb2})は事後確率最大化の式から求められたため,事前確率を数学的に正しく考慮した式となっている.なお,Rennieらの研究では,式(\ref{eq:cnb})において事前確率の扱いについてあまり注意を払っていないが,我々はクラスごとに単語数の偏りが大きいデータセットについて分類を行う場合には,$P(c)$を利用するか$\frac{1}{1-P(c)}$を利用するかの影響は必ずしも無視して良いとは言えないと考える.また,Rennieらの研究では,$P(c)$は$P(w_i|\bar{c})$に比べて分類結果への影響が小さいと判断し,事前確率は計算してもしなくても結果は同じと考え,実際の分類には$P(c)$を無視して$P(w_i|\bar{c})$のみを計算しているため,P(c)なしのCNBについても参考として実験を行う. \section{実験} \label{Sec:実験}NNBの性能を測りその特色を調べるため,ふたつのコーパスを用いた実験を行った.一つ目はオークションの商品分類の実験であり,二つ目はニュースグループの文書分類の実験である.これらの二つの実験において,形態素解析により得た表層形のbag-of-wordsを用いてNB,CNB,NNBの文書分類の性能を比較した.また,NBBとCNBの差は事前確率$P(c)$と$\frac{1}{1-P(c)}$の部分であるため,CNBとNNBから第一項を省略した形の式($P(c)$なしのCNB)でも実験を行った.なお,形態素解析ソフトにはMeCab\footnote{http://mecab.sourceforge.net/}を利用した.また,スムージング手法としては,予備実験によりラプラススムージング\cite{ラプラス,ラプラス2}とJeffreysPerks法\cite{JeffreysPerks}を試し,JeffreysPerks法の方が結果がよかったため,これを採用した.さらに,Bayesではない手法の比較対象として,SVMについても実験を行った.この際,分類器としてはマルチクラス対応のSVM(libsvm\footnote{http://www.csie.ntu.edu.tw/{\textasciitilde}cjlin/libsvm/})を使用した.カーネルは予備実験の結果,線形カーネルが最も高い正解率を示したため,これを採用した.また,学習の素性はBayesの手法とそろえ,表層形のbag-of-wordsの頻度ベクトルを使用した.すべての実験には五分割交差検定を用いた.\subsection{オークションの商品分類の実験}\label{Sec:オークションの商品分類の実験}オークションの商品分類の実験は,Yahoo!オークション\footnote{http://auctions.yahoo.co.jp/}の商品タイトルを商品カテゴリに分類する実験である.詳細は\citeA{佐藤}にならった.本実験では,「デスクトップ」「記念切手」「赤ちゃん用の玩具」の三つのジャンルカテゴリ\footnote{オークション$>$コンピュータ$>$パソコン$>$Windows$>$デスクトップの例では,「デスクトップ」だけでなく,「コンピュータ」や「パソコン」,「Windows」もジャンルカテゴリであるが,本実験ではデータサイズの観点から「デスクトップ」を対象として実験を行った.}に含まれる商品を対象に実験を行った.これらのジャンルカテゴリは,以下のようにトップカテゴリ(オークション)から絞り込むことができる.\begin{itemize}\itemオークション$>$コンピュータ$>$パソコン$>$Windows$>$デスクトップ\itemオークション$>$アンティーク,コレクション$>$切手,官製はがき$>$日本$>$特殊切手,記念切手\itemオークション$>$おもちゃ,ゲーム$>$ベビー用\end{itemize}ここで,$>$の左が親カテゴリ,右が子カテゴリを示す.「デスクトップ」と「記念切手」は2012年6月26日に,「赤ちゃん用の玩具」は2012年6月29日に取得したデータである.ひとつの商品はひとつの葉カテゴリにのみ属しているものとし,出品者によって登録されたカテゴリを正しいカテゴリとして実験を行った.なお,例えばジャンルカテゴリが「デスクトップ」の場合,「ASUSの1,000円〜1,099円」や「IBMパソコン単体31,000円〜34,999円」といったものが葉カテゴリである.また,\citeA{佐藤}にならい,出品者個人による商品情報表記の癖などの偏りをなくすため,各カテゴリにつき1人の出品者の商品は1つしか使用しないものとし,商品タイトルの全単語を利用した実験と名詞のみを使用した二つの実験を行った.\begin{table}[b]\hangcaption{それぞれのジャンルカテゴリ中の葉カテゴリ数,同じ出品者による商品をひとつにする前と後の商品数}\label{Tab:同じ出品者による商品をひとつにする前と後の商品数}\input{04table01.txt}\end{table}\tabref{Tab:同じ出品者による商品をひとつにする前と後の商品数}にそれぞれのジャンルカテゴリ中の葉カテゴリ数,同じ出品者による商品をひとつにする前と後の商品数を示す.ここで,商品数(処理前),商品数(処理後)はそれぞれ,同じ出品者による商品をひとつにする前と後の商品数である.なお,「赤ちゃん用の玩具」の商品数(処理後)には8205,8204と二つ数字があるが,8205は全ての品詞の分類,8204は名詞のみの分類による商品数を示している.「赤ちゃん用の玩具」のデータには,形態素解析の結果,全ての形態素が名詞以外の品詞に割りつけられた商品が1件あったため,このような結果になっている.\begin{figure}[b]\begin{center}\includegraphics{20-2ia4f2.eps}\end{center}\caption{「デスクトップ」のカテゴリごとの文書数,単語トークン数,名詞のトークン数}\label{Fig:pc}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{20-2ia4f3.eps}\end{center}\caption{「記念切手」のカテゴリごとの文書数,単語トークン数,名詞のトークン数}\label{Fig:stamp}\end{figure}また,\figref{Fig:pc},\figref{Fig:stamp},\figref{Fig:toy}にそれぞれ「デスクトップ」,「記念切手」,「赤ちゃん用の玩具」のカテゴリごとの文書数,単語トークン数,名詞のトークン数を折れ線グラフにしたものを示す.横軸のカテゴリindexは,カテゴリを文書数で並べ替えたときに降順につけたものである.これらの図から,カテゴリの分類実験において,カテゴリごとに文書数,トークン数が非常に偏っていることが分かる.特に,「記念切手」が最も偏っていることが読みとれる.\begin{figure}[t]\begin{center}\includegraphics{20-2ia4f4.eps}\end{center}\caption{「赤ちゃん用の玩具」のカテゴリごとの文書数,単語トークン数,名詞のトークン数}\label{Fig:toy}\end{figure}\begin{table}[t]\hangcaption{オークションのカテゴリ分類実験の訓練事例中の商品数の標準偏差,標準偏差/平均,トークン数,1商品当たりの平均単語数}\label{Tab:オークションのカテゴリ分類実験のデータ}\input{04table02.txt}\end{table}また,\tabref{Tab:オークションのカテゴリ分類実験のデータ}にオークションのカテゴリ分類実験の訓練事例中の商品数の標準偏差,訓練事例中の文書数の標準偏差を訓練事例中の総文書数の平均で割った値(以降,標準偏差/平均と表記),トークン数,1商品当たりの平均単語数を示す.標準偏差/平均は,カテゴリ(またはクラス)ごとの商品数(または文書数)のばらつきを見るために示した.ばらつきを測るのには標準偏差を用いるのが一般的であるが,本実験のように全商品数(または文書数)が異なる実験設定同士を比べる際には,全商品数(文書数)の絶対値が大きくなるにつれて標準偏差も大きくなるという問題があったためである\footnote{例えば,1,2,3,4,5の五つの値の標準偏差は約1.58になるが,0.1,0.2,0.3,0.4,0.5の五つの値の標準偏差は約0.158になる.}.標準偏差を平均で割ることによって,全商品数(文書数)のスケールに左右されないデータのばらつきを測った.\tabref{Tab:オークションのカテゴリ分類実験のデータ}のこの「訓練事例中の商品数の標準偏差/平均」を見てみると,「記念切手」の値が「デスクトップ」や「赤ちゃん用の玩具」より高いことから,\figref{Fig:pc}〜\figref{Fig:toy}から読みとったように,「記念切手」が最も偏っていることが読みとれる.\subsection{ニュースグループの文書分類の実験}\label{Sec:ニュースグループの文書分類の実験}ニュースグループの文書分類の実験のコーパスには20Newsgroups\footnote{http://people.csail.mit.edu/jrennie/20Newsgroups/}を利用した.20Newsgroupsは,全20クラス,18774件のニュース記事からコーパスが構成されており,文書数はどのクラスもおよそ1000件である(cf.~\tabref{Tab:クラスごとの文書数を不均一にした実験のクラスごとの文書数}).\begin{table}[b]\caption{クラスごとの文書数を不均一にした実験のクラスごとの文書数}\label{Tab:クラスごとの文書数を不均一にした実験のクラスごとの文書数}\input{04table03.txt}\end{table}\subsubsection{一文書あたりの単語数を減らした実験}CNBとNNBの式,式(\ref{eq:cnb})と式(\ref{eq:nnb2})を比較してみると,事前確率$P(c)$と$\frac{1}{1-P(c)}$の部分が異なっていることが分かる.残りの$\prod_{i=1}^{n}\frac{1}{P(w_i|\bar{c})}$については等しい.しかし,単語数が少ない文書を分類する際には,単語数が多い文書を分類する際よりも,相対的に事前確率の影響が大きくなることが予想される.そのため,一文書あたりの単語数を減らして実験を行い,その分類正解率を比較する.この際,一文書あたりの単語数を$n$とし,パラメータを$x$とすると,一文書あたりの単語数を$n/2^{x}$(ただし割り切れない場合には1を加算する)として実験した.パラメータ$x$は,0〜4を試した.$x$が0のときには,オリジナルの20Newsgroupsと等しい.ニュースグループの分類実験において一文書あたりの単語数を減らした実験の訓練事例中の単語数,1文書当たりの平均の単語トークン数を\tabref{Tab:一文書あたりの単語数を減らした実験のデータ}に示す.なお,このとき訓練事例中の総文書数はすべて18,774であり,訓練事例中の文書数の標準偏差はすべて95.95である.また,訓練事例中の文書数の標準偏差/平均は0.10になる.\subsubsection{クラスごとの文書数を不均一にした実験}NNBは事前確率を数学的に正しく考慮しているため,文書分類ではクラスごとの文書数が不均一である際に効果を発揮すると考えられる.そのため,20Newsgroupsにおいて,クラスごとに文書を間引きすることによって,クラスごとの文書数を不均一にして実験を行い,比較する.この際,クラスのインデックスを$i=1...20$,パラメータを$y$とすると,$i=1$だけは常にオリジナルの文書数を保ったままとし,$i=2$から文書数を$1/((i-1)y)$に減らして実験を行った.例えば,$y=1$のときには,$i=2,3,4$の時にはそれぞれ$1/1,1/2,1/3$となり,$y=2$のときには,$i=2,3,4$の時にはそれぞれ$1/2,1/4,1/6$となる.パラメータ$y$は,1〜4を試した.\begin{table}[b]\hangcaption{ニュースグループの分類実験において一文書あたりの単語数を減らした実験の訓練事例中の単語トークン数,1文書当たりの平均の単語トークン数}\label{Tab:一文書あたりの単語数を減らした実験のデータ}\input{04table04.txt}\end{table}\begin{table}[b]\hangcaption{ニュースグループの分類実験においてクラスごとの文書数を不均一にした実験の訓練事例中の総文書数,文書数の標準偏差,標準偏差/平均,単語トークン数,1文書当たりの平均の単語トークン数}\label{Tab:クラスごとの文書数を不均一にした実験のデータ}\input{04table05.txt}\end{table}\tabref{Tab:クラスごとの文書数を不均一にした実験のクラスごとの文書数}に,クラスごとの文書数を不均一にした実験のクラスごとの文書数を示す.また,\tabref{Tab:一文書あたりの単語数を減らした実験のデータ}にニュースグループの分類実験においてクラスごとの文書数を不均一にした実験の訓練事例中の総文書数,文書数の標準偏差,標準偏差/平均,単語トークン数,1文書当たりの平均の単語トークン数を示す.また,ニュースグループの分類実験においてクラスごとの文書数を不均一にした実験の訓練事例中の総文書数,文書数の標準偏差,標準偏差/平均,単語トークン数,1文書当たりの平均の単語トークン数を\tabref{Tab:クラスごとの文書数を不均一にした実験のデータ}に示す. \section{結果} \label{Sec:結果}\tabref{Tab:全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率}と\tabref{Tab:全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率(マクロ)}に全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率のマイクロ平均とマクロ平均をそれぞれ示し,\tabref{Tab:名詞だけを使用したオークションのカテゴリ分類実験の分類正解率}と\tabref{Tab:名詞だけを使用したオークションのカテゴリ分類実験の分類正解率(マクロ)}に名詞だけを使用したオークションのカテゴリ分類実験の分類正解率のマイクロ平均とマクロ平均をそれぞれ示す.また,\tabref{Tab:一文書あたりの単語数を減らした実験の分類正解率}と\tabref{Tab:一文書あたりの単語数を減らした実験の分類正解率(マクロ)}にニュースグループの分類実験において,一文書あたりの単語数を減らした実験の分類正解率のマイクロ平均とマクロ平均をそれぞれ示し,\tabref{Tab:クラスごとの文書数を不均一にした実験の分類正解率}と\tabref{Tab:クラスごとの文書数を不均一にした実験の分類正解率(マクロ)}に同分類実験において,クラスごとの文書数を不均一にした実験の分類正解率のマイクロ平均とマクロ平均をそれぞれ示す.なお,正解率は,(分類に成功したもの)/(実験データ数)として求めた.同じ文書集合の実験で,NB,CNB,NNBのうちで最も良かった正解率を太字で示した.さらに,次に良かった正解率との差がカイ二乗検定で有意だったものに関しては下線を引いた.また,$P(c)$なしのCNBとSVMに関しては,上記の三手法のうち最も良かった手法と同じか,それよりも良いものは太字で示し,その優劣にかかわらず,差がカイ二乗検定で有意だったものに関しては下線を引いた.さらに,参考として最頻出カテゴリ(クラス)を答えた場合の正解率も併記した.\begin{table}[b]\caption{全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率(マイクロ平均)}\label{Tab:全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率}\input{04table06.txt}\end{table}\begin{table}[b]\caption{全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率(マクロ平均)}\label{Tab:全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率(マクロ)}\input{04table07.txt}\end{table}\begin{table}[p]\caption{名詞だけを使用したオークションのカテゴリ分類実験の分類正解率(マイクロ平均)}\label{Tab:名詞だけを使用したオークションのカテゴリ分類実験の分類正解率}\input{04table08.txt}\end{table}\begin{table}[p]\caption{名詞だけを使用したオークションのカテゴリ分類実験の分類正解率(マクロ平均)}\label{Tab:名詞だけを使用したオークションのカテゴリ分類実験の分類正解率(マクロ)}\input{04table09.txt}\end{table}\begin{table}[p]\hangcaption{ニュースグループの分類実験において一文書あたりの単語数を減らした実験の分類正解率{\break}(マイクロ平均)}\label{Tab:一文書あたりの単語数を減らした実験の分類正解率}\begin{center}\input{04table10.txt}\end{table}\begin{table}[p]\hangcaption{ニュースグループの分類実験において一文書あたりの単語数を減らした実験の分類正解率{\break}(マクロ平均)}\label{Tab:一文書あたりの単語数を減らした実験の分類正解率(マクロ)}\input{04table11.txt}\end{table}\tabref{Tab:全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率}と\tabref{Tab:名詞だけを使用したオークションのカテゴリ分類実験の分類正解率}から,オークションのカテゴリ分類実験において,マイクロ平均を比較した際,NNBが常にNBとCNBを有意に上回っていることが分かる.また同じ二つの表から,NNBが$P(c)$なしのCNBよりも大抵(名詞だけの実験の「デスクトップ」が例外である)上回っていることが分かる.このうち,「記念切手」の実験では,全単語使用した場合,名詞だけを使用した場合に拘わらず,カイ二乗検定によりその差が有意であった.しかし,これらの実験において最も良い結果なのはSVMであり,NNBを有意に上回っている.\begin{table}[t]\hangcaption{ニュースグループの分類実験においてクラスごとの文書数を不均一にした実験の分類正解率{\break}(マイクロ平均)}\label{Tab:クラスごとの文書数を不均一にした実験の分類正解率}\input{04table12.txt}\end{table}\begin{table}[t]\hangcaption{ニュースグループの分類実験においてクラスごとの文書数を不均一にした実験の分類正解率{\break}(マクロ平均)}\label{Tab:クラスごとの文書数を不均一にした実験の分類正解率(マクロ)}\input{04table13.txt}\end{table}また,\tabref{Tab:全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率(マクロ)}と\tabref{Tab:名詞だけを使用したオークションのカテゴリ分類実験の分類正解率(マクロ)}から,オークションのカテゴリ分類実験において,マクロ平均においても,有意ではないながら,NNBが常にNBとCNBを上回っていることが分かる.また同じ二つの表から,$P(c)$なしのCNBが有意ではないものの,NNBを上回っていることが分かる.さらに,SVMは「デスクトップ」と「記念切手」においては有意に,「赤ちゃん用の玩具」では有意ではないものの,NNBを上回った.また,\tabref{Tab:一文書あたりの単語数を減らした実験の分類正解率}と\tabref{Tab:クラスごとの文書数を不均一にした実験の分類正解率}から,ニュースグループの分類実験においても,マイクロ平均で比較した場合,常にNBBがNBとCNBを上回ることが分かる.ただし,その差が有意なのは,クラスごとの文書数を不均一にした実験(\tabref{Tab:クラスごとの文書数を不均一にした実験の分類正解率})のパラメータが1のときと3のときだけである.また,これらの実験において,$P(c)$なしのCNBはしばしばNNBを上回っているが,有意に上回っていることは一度もなかった.さらに\tabref{Tab:一文書あたりの単語数を減らした実験の分類正解率}の一文書あたりの単語数を減らした実験では,パラメータ0,1,2のとき,NNBの分類正解率がSVMを有意に上回っている.しかし,パラメータ3,4のときはSVMが最高であり,NNBと比較してその差は有意であった.一方,\tabref{Tab:クラスごとの文書数を不均一にした実験の分類正解率}から,クラスごとの文書数を不均一にした実験では,全ての実験設定のときにNNBがSVMを上回っている.この差はカイ二乗検定により有意であった.これに対し,\tabref{Tab:一文書あたりの単語数を減らした実験の分類正解率(マクロ)}と\tabref{Tab:クラスごとの文書数を不均一にした実験の分類正解率(マクロ)}から,ニュースグループの分類実験において,マクロ平均においても,NNBが常にNBとCNBを上回っていることが分かる.また同じ二つの表から,$P(c)$なしのCNBがNNBを上回っていることが分かるが,これらの差はいずれも有意ではない.さらに,\tabref{Tab:一文書あたりの単語数を減らした実験の分類正解率(マクロ)}の一文書あたりの単語数を減らした実験では,常に有意でないながらもNNBの分類正解率がSVMを上回っている.しかし,パラメータ3,4のときは,マイクロ平均と同様にSVMが最高であり,NNBと比較してその差は有意であった.一方,\tabref{Tab:クラスごとの文書数を不均一にした実験の分類正解率(マクロ)}から,クラスごとの文書数を不均一にした実験では,全ての実験設定のときにNNBがSVMを上回っている.この差はパラメータ0と1のとき,カイ二乗検定により有意であった. \section{考察} \label{Sec:考察}オークションのカテゴリ分類実験の結果とニュースグループの分類実験の結果を総合してNNBの特色について考察する.まず,\tabref{Tab:全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率}〜\tabref{Tab:クラスごとの文書数を不均一にした実験の分類正解率(マクロ)}から,全ての実験を通して,NNBはNBとCNBを上回っていること,また$P(c)$なしのCNBに有意に勝っていることはあっても有意に負けていることはないことが読みとれる\footnote{ただし,有意ではないものの,\tabref{Tab:全ての品詞を使用したオークションのカテゴリ分類実験の分類正解率(マクロ)}と\tabref{Tab:名詞だけを使用したオークションのカテゴリ分類実験の分類正解率(マクロ)}では常に$P(c)$なしのCNBがNNBを上回っている.$P(c)$は事前確率であるため,カテゴリ間のデータ数に偏りがあり,なおかつ単語トークン数が少ない場合には,NNBは大きなカテゴリに分類されやすいことが予想できる.そのため,マイクロ平均は$P(c)$なしのCNBを有意に上回ったが,マクロ平均は$P(c)$なしのCNBが高くなる傾向がある可能性がある.}.このことから,NNBは他のBayesの定理を利用した文書分類手法に比較しても引けを取らない文書分類手法であると言える.特にNBと比較したときには,マイクロ平均では常に有意に,マクロ平均ではオークションのカテゴリ実験において「デスクトップ」と「記念切手」の全品詞を使った分類実験以外の実験で有意に勝っていた.なお,マクロ平均ではサンプル数の減少から,NNBと比較した際,SVMとNBだけにしか有意差が認められなかったため,今後は主にマイクロ平均について考察する.オークションのカテゴリ分類実験とニュースグループの分類実験の実験設定の違いのうち,NNBの式に大きく関わりそうな点は二点あるだろう.一つ目は第一項の事前確率に関わる,クラスごとの文書数(またはカテゴリごとの商品数)のばらつき,二つ目はそれ以外の部分に関わる,一文書ごとの単語トークン数である.\ref{Sec:ニュースグループの文書分類の実験}節でも述べたように,CNBとNNBの式,式(\ref{eq:cnb})と式(\ref{eq:nnb2})を比較してみると,事前確率$P(c)$と$\frac{1}{1-P(c)}$の部分が異なっており,残りの$\prod_{i=1}^{n}\frac{1}{P(w_i|\bar{c})}$については等しい.NNBは事前確率を数学的に正しく考慮しているため,文書分類ではクラスごとの文書数が不均一である際に効果を発揮すると考えられる.また,単語数が少ない文書を分類する際には,単語数が多い文書を分類する際よりも,相対的に事前確率の影響が大きくなることが予想される.クラスごとの文書数のばらつきを見るために,\figref{Fig:標準偏差/平均}に同実験においてクラスごとの文書数を不均一にした実験の,クラスごとの文書数の標準偏差/平均を横軸とした分類正解率の散布図を示す.\begin{figure}[b]\begin{center}\includegraphics{20-2ia4f5.eps}\end{center}\hangcaption{ニュースグループの分類実験においてクラスごとの文書数を不均一にした実験の,クラスごとの文書数の標準偏差/平均を横軸とした分類正解率の散布図}\label{Fig:標準偏差/平均}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{20-2ia4f6.eps}\end{center}\hangcaption{ニュースグループの分類実験において一文書あたりの単語数を減らした実験の,一文書あたりの単語トークン数を横軸とした分類正解率の散布図}\label{Fig:1文書ごとに平均した単語数}\end{figure}また,単語トークン数の影響を見るために,\figref{Fig:1文書ごとに平均した単語数}にニュースグループの分類実験において一文書あたりの単語数を減らした実験の,一文書あたりの単語トークン数を横軸とした分類正解率の散布図を示す.その上でNNBの特徴をNB,CNB($P(c)$のないものを含む),SVMの順で比較しつつ考察する.\figref{Fig:標準偏差/平均}から,NBはクラスごとの文書数のばらつきが多い際にその分類正解率が著しく低下することが分かる.また,商品のカテゴリ分類実験において,NBの分類正解率がとても低いのも同じ原因によるものであることがうかがえる.商品のカテゴリ分類実験において,標準偏\linebreak差/平均は「デスクトップ」,「記念切手」,「赤ちゃん用の玩具」がそれぞれ1.44,2.84,1.33と高く,カテゴリごとの商品数のばらつきが大きいからである.この原因として,クラスごとの$P(w_i|c)$のデータスパースネスの差が考えられる.ここでNBの式を再掲する.\begin{equation}\hat{c}=\argmax_{c}P(c)\prod_{i=1}^{n}P(w_i|c)\label{eq:rnb2}\end{equation}NBではクラスごとの文書数のばらつきが大きい際には,クラスによって訓練事例の単語トークン数に大きな差ができる.例えば最も大きなクラスでは,その訓練事例となるトークン数が一万となり,小さなクラスでは10トークンといった具合である.その結果,小さなクラスではデータがスパースになり,より頻繁にスムージングが行われる.そのため,NBでは,個々の分類問題と相性の良いスムージング手法を用いることが求められるが,今回のジェフリー・パークス法はラプラス法よりは良いとはいえ,まだ実際よりも大きな値を小さなクラスに与えていたと思われる\footnote{\citeA{佐藤}のスムージング(頻度0の時には0.1/Nを用いる.このNは訓練事例中の全単語トークン数.)を用いるとNBだけ飛躍的に正解率が上昇した.ただし,本論文の主張との矛盾はない結果であった.}.このように,NBではデータスパースネスによって誤分類が起きて分類正解率が著しく下がることがあるが,この問題を補集合を用いることで解決したのがCNBであり,この点についてNNBはCNBと全く同じ特色を持っている.次に,NNBとCNBの差について考察する.\figref{Fig:標準偏差/平均}を見てみると,$P(c)$を考慮しないCNBとNNBの差はあまりないが,NNBはCNBより若干良いことが分かる.これは,クラスごとの文書数に偏りが出てくると,CNBとNNBの違いである事前確率が異なってくるため,その分類正解率に差がつくからであると考えられる.次に\figref{Fig:1文書ごとに平均した単語数}を見てみると,一文書当たりの平均の単語数が減ると,どの手法を用いても全体的に分類正解率が低下することが分かる.これは,単語数が減ることで,統計の材料となる$w_i$が減っているためであると考えられる.これに対し,一文書当たりの単語数を変化させても,CNBとNNBの差が大きくなることはなかった.これは,ニュースグループのオリジナルのコーパスでは,そもそもクラスごとの文書数に偏りがあまり見られないため,事前確率に偏りがなく,CNBとNNBがそう違わない結果になったためであると考えられる.ここで,オークションのカテゴリ分類実験の実験設定も共に比較してみる.\figref{Fig:CNBとNNB}に縦軸を標準偏差/平均,横軸をクラスごとの単語数にした,実験設定ごとのCNBとNNBの差の散布図を示す.左の図が事前確率を考慮したCNBとNNBの差が有意であるかを表しており,右の図が事前確率を考慮しないCNBとNNBの差が有意であるかを表している.なお,両方の図において,縦軸の値が0.10である五つの点が,ニュースグループの一文書当たりの単語数を減らした一連の実験であり,横軸の値が128.71である五つの点が,ニュースグループのクラスごとの文書数を不均一にした一連の実験である.オークションのカテゴリ分類実験の実験設定では,ニュースグループの実験よりも,ひとつの文書(商品)ごとのトークン数が少なく(一文書当たりの単語数を最も減らした実験と同じくらいである),なおかつクラス(カテゴリ)ごとの文書数(商品数)の偏りが,クラスごとの文書数を不均一にしたニュースグループの実験と同じくらい,またはそれ以上に偏っていることが分かる.\begin{figure}[t]\begin{center}\includegraphics{20-2ia4f7.eps}\end{center}\hangcaption{横軸を標準偏差/平均,縦軸をクラスごとの単語数にした,実験設定ごとのCNBとNNBの差の散布図}\label{Fig:CNBとNNB}\end{figure}\figref{Fig:CNBとNNB}により,標準偏差/平均が小さい時にはCNBとNNBの差はほとんどないこと,また,標準偏差/平均が大きくなるにつれてNNBが有意にCNBを上回るようになる傾向がうかがえる.また,一文書あたりの単語数が少ない時に,なおかつ標準偏差/平均が大きければ,NNBが有意に事前確率を考慮しないCNBに対しても有意に上回ることが分かる.オークションのカテゴリ分類実験の「記念切手」(左上の二点)のときには,両方の条件が共に十分当てはまったため,NNBの分類正解率が,CNBにも事前確率を考慮しないCNBにも有意に上回ったものと思われる.次に,SVMとの比較を行う.残念ながら,NNBの分類正解率が,CNBにも事前確率を考慮しないCNBにも有意に上回った「記念切手」の実験設定を含む,オークションのカテゴリ分類実験では,SVMの分類正解率がいつも他手法を有意に上回った.しかし,ニュースグループの文書分類実験では,一文書あたりの文書数を減らした場合のパラメータが3と4の実験を除き,NNBがSVMを有意に上回った.上述したように,$w_i$の数が減ってしまうと,Bayesianアプローチの正解率は下がることが一文書当たりの単語数が減った際にSVMを有利にしたと考えられる.しかし,ニュースグループのオリジナルのコーパスの実験では,CNBとの差は有意ではないながらも,NNBが全ての分類器の中で最も高い分類正解率となっている.このことから,NNBは時にはSVMを有意に上回り,他手法と比較しても最も良い分類正解率を示しうる手法であることが分かる\footnote{\citeA{Gabrilovich}では,ニュースグループの分類実験において素性選択をする前でも76.9\%,素性選択後は85.3\%という正解率を報告している.また,\citeA{Siolas}では,同実験において素性選択を行うと86.44\%となっている.このように,SVMは素性選択などによってもっと性能をあげることが可能であるため,それらの手法を用いればSVMの方が性能が良くなる可能性が高い.また,五分割交差検定の分割法を変えて実験してみると,SVMの正解率が75.79\%となったことから,SVMの性能は,選択されるテストセットの選び方によって変化することが分かった.NNBなどのベイズの手法の正解率も,五分割交差検定の分割法により変化することが予想される.}.\begin{table}[t]\caption{ニュースグループの分類実験にかかった時間}\label{Tab:ニュースグループの分類実験にかかった時間}\input{04table14.txt}\end{table}また,最後に,提案手法の速度についての目安を知るために,最も実行時間がかかるオリジナルのニュースグループの分類実験において,それぞれの手法の実行時間を測った.\tabref{Tab:ニュースグループの分類実験にかかった時間}にその結果を示す.SVMはC言語により実装されたツールによるものであり,それ以外のBayesianアプローチはPerlにより個人的に実装したものであるため,一概に比較は難しいが,NNBがCNBとほぼ同じ速度で実行されることが分かる. \section{まとめ} \label{Sec:まとめ}本稿では,文書分類のための新手法として,NegationNaiveBayes(NNB)を提案し,その性質を他のBayesianアプローチであるNaiveBayes(NB),ComplementNaiveBayes(CNB)と比較した.NNBは,CNBと同様にクラスの補集合を用いるが,NBと同じ事後確率最大化の式から導出されるため,事前確率を数学的に正しく考慮している点で異なっている.NNBの性質を見るために,ふたつのコーパスを用いた実験を行った.一つ目はオークションの商品分類の実験であり,二つ目はニュースグループの文書分類の実験である.このうち,ニュースグループの文書分類の実験では,一文書あたりの単語数を減らした実験と,クラスごとの文書数を不均一にした実験を行い,オリジナルの文書集合の実験に加え,それぞれパラメータを変えて四通りを試した.その結果,すべての実験においてNNBとCNBがNBの分類性能を上回ること,また,一文書当たりの単語数が減り,クラスごとの文書数が偏るときにマイクロ平均でNNBはCNBを上回ることが分かった.事前確率を無視したCNBと比較しても,これらの条件が共に当てはまる際には,NNBがCNBを有意に上回った.これは,CNBとNNBの違いは事前確率にあるため,クラスごとの文書数が偏るときにその影響が見られ,なおかつ一文書当たりの単語数が減る際には相対的に事前確率の影響が大きくなるためであると考えられる.また,CNBまたは事前確率を無視したCNBがNNBを有意に上回ることはなかった.さらに,ニュースグループの分類実験においては,その際のCNBとの差は微小ながら,参考として比較したサポートベクターマシン(SVM)をカイ二乗検定で有意に上回り,比較手法中で最も良い分類正解率を示す結果も見られた.これらのことから,特に一文書当たりの単語数が減り,クラスごとの文書数が偏る場合において,NNBが他のBayesianアプローチより勝る手法であること,また,時にはSVMを有意に上回り,比較手法中で最も良い分類正解率を示す手法であることが分かった.\acknowledgment本研究の一部は,文部科学省科学研究費補助金[若手B(No:24700138)]の助成により行われた.ここに,謹んで御礼申し上げる.また,本論文の内容の一部は,RecentAdvancesinNaturalLanguageProcessing2011で発表したものである\cite{Komiya}.\nocite{Kenneth}\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Box\BBA\Tiao}{Box\BBA\Tiao}{1973}]{JeffreysPerks}Box,G.E.~P.\BBACOMMA\\BBA\Tiao,G.~C.\BBOP1973\BBCP.\newblock{\BemBayesianInferenceinStatisticalAnalysis}.\newblockReading,MA:Addison-Wesley.\bibitem[\protect\BCAY{Church}{Church}{2000}]{Kenneth}Church,K.~W.\BBOP2000\BBCP.\newblock\BBOQEmpiricalEstimatesofAdaptation:ThechanceofTwoNoriegasiscloserto$p/2$than$p^2$.\BBCQ\\newblockIn{\BemProceedingsoftheCOLING'00},\mbox{\BPGS\182--191}.\bibitem[\protect\BCAY{Gabrilovich\BBA\Markovitch}{Gabrilovich\BBA\Markovitch}{2004}]{Gabrilovich}Gabrilovich,E.\BBACOMMA\\BBA\Markovitch,S.\BBOP2004\BBCP.\newblock\BBOQTextCategorizationwithManyRedundantFeatures:UsingAggressiveFeatureSelectiontoMakeSVMsCompetitivewithC4.5.\BBCQ\\newblockIn{\BemProceedingsoftheTheTwenty-FirstInternationalConferenceonMachineLearning},\mbox{\BPGS\321--328}.\bibitem[\protect\BCAY{花井\JBA山村}{花井\JBA山村}{2005}]{花井}花井拓也\JBA山村毅\BBOP2005\BBCP.\newblock単語間の依存性を考慮したナイーブベイズ法によるテキスト分類(類似性の発見).\\newblock\Jem{情報処理学会研究報告自然言語処理研究会報告,2005(22)},\mbox{\BPGS\101--106}.\bibitem[\protect\BCAY{井筒\JBA横澤\JBA篠原}{井筒\Jetal}{2005}]{井筒}井筒清史\JBA横澤誠\JBA篠原健\BBOP2005\BBCP.\newblockWeb文書タイプ自動分類手法の比較評価と適用.\\newblockIn{\BemIPSJSIGNotes2005(32)},\mbox{\BPGS\25--32}.\bibitem[\protect\BCAY{Komiya,Sato,Fujimoto,\BBA\Kotani}{Komiyaet~al.}{2011}]{Komiya}Komiya,K.,Sato,N.,Fujimoto,K.,\BBA\Kotani,Y.\BBOP2011\BBCP.\newblock\BBOQNegationNaiveBayesforCategorizationofProductPagesontheWeb.\BBCQ\\newblockIn{\BemProceedingsoftheRANLP2011},\mbox{\BPGS\586--591}.\bibitem[\protect\BCAY{Lewis}{Lewis}{1992}]{Lewis}Lewis,D.~D.\BBOP1992\BBCP.\newblock\BBOQAnEvaluationofPhrasalandClusteredRepresentationsonaTextCategorizationTask.\BBCQ\\newblockIn{\BemProceedingsofthe15thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\37--50}.\bibitem[\protect\BCAY{marquis~deLaplace}{marquis~deLaplace}{1814}]{ラプラス}marquis~deLaplace,P.~S.\BBOP1814\BBCP.\newblock{\BemEsseiphilosophiquesurlesprobabilites}.\newblockParis:Mme.Ve.Courcier.\bibitem[\protect\BCAY{marquis~deLaplace}{marquis~deLaplace}{1995}]{ラプラス2}marquis~deLaplace,P.~S.\BBOP1995\BBCP.\newblock{\BemPhilosophicalEssayOnProbabilities}.\newblockNewYork:Springer-Verlag.\bibitem[\protect\BCAY{McCallum\BBA\Nigam}{McCallum\BBA\Nigam}{1998}]{Andrew}McCallum,A.\BBACOMMA\\BBA\Nigam,K.\BBOP1998\BBCP.\newblock\BBOQAComparisonofEventModelsforNaiveBayesTextClassification.\BBCQ\\newblockIn{\BemProceedingsoftheAAAI/ICML-98WorkshoponLearningforTextCategorization},\mbox{\BPGS\41--48}.\bibitem[\protect\BCAY{持橋}{持橋}{2006}]{持橋}持橋大地\BBOP2006\BBCP.\newblock自然言語処理におけるベイズ統計.\\newblock\Jem{電子情報通信学会技術研究報告NC,ニューロコンピューティング},\mbox{\BPGS\25--30}.\bibitem[\protect\BCAY{持橋\JBA菊井}{持橋\JBA菊井}{2006}]{持橋06}持橋大地\JBA菊井玄一郎\BBOP2006\BBCP.\newblock無限混合ディリクレ文書モデル.\\newblock\Jem{自然言語処理研究会報告2006-NL-172},\mbox{\BPGS\47--53}.\bibitem[\protect\BCAY{Rennie,Shih,Teevan,\BBA\Karger}{Rennieet~al.}{2003}]{Rennie}Rennie,J.D.~M.,Shih,L.,Teevan,J.,\BBA\Karger,D.~R.\BBOP2003\BBCP.\newblock\BBOQTacklingthePoorAssumptionsofNaiveBayesTextClassifiers.\BBCQ\\newblockIn{\BemProceedingsoftheICML2003},\mbox{\BPGS\616--623}.\bibitem[\protect\BCAY{佐藤\JBA藤本\JBA小谷}{佐藤\Jetal}{2010}]{佐藤}佐藤直人\JBA藤本浩司\JBA小谷善行\BBOP2010\BBCP.\newblockウェブ上の商品情報を利用した商品のカテゴリ分類.\\newblock\Jem{人工知能学会第87回知識ベースシステム研究会},\mbox{\BPGS\7--10}.\bibitem[\protect\BCAY{Siolas\BBA\d'Alch\'{e}{-}Buc}{Siolas\BBA\d'Alch\'{e}{-}Buc}{2000}]{Siolas}Siolas,G.\BBACOMMA\\BBA\d'Alch\'{e}{-}Buc,F.\BBOP2000\BBCP.\newblock\BBOQSupportVectorMachinesbasedonaSemanticKernelforTextCategorization.\BBCQ\\newblockIn{\BemProceedingsofthenternationalJointconferenceonNeuralNetworks},\mbox{\BPGS\205--209}.\bibitem[\protect\BCAY{高村\JBA{Roth,D.}}{高村\JBA{Roth,D.}}{2007}]{高村}高村大也\JBA{Roth,D.}\BBOP2007\BBCP.\newblockPredictiveNaiveBayesClassifierの提案と言語処理への適用.\\newblock\Jem{言語処理学会第13回年次大会発表論文集},\mbox{\BPGS\546--549}.\bibitem[\protect\BCAY{Zhang}{Zhang}{2004}]{Zhang}Zhang,H.\BBOP2004\BBCP.\newblock\BBOQTheOptimalityofNaiveBayes.\BBCQ\\newblockIn{\BemProceedingsofthethe17thInternationalFLAIRSconference(FLAIRS2004)},\mbox{\BPGS\562--567}.\end{thebibliography}\begin{biography}\bioauthor{古宮嘉那子}{2005年東京農工大学工学部情報コミュニケーション工学科卒.2009年同大大学院博士後期課程電子情報工学専攻修了.博士(工学).同年東京工業大学精密工学研究所研究員,2010年東京農工大学工学研究院特任助教,現在に至る.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{伊藤裕佑}{2012年東京農工大学工学部情報工学科卒.在学中に自然言語処理の研究に従事.}\bioauthor{佐藤直人}{2009年東京農工大学工学部情報工学科卒.2011年同大大学院博士前期課程情報工学科修了.在学中にゲーム研究と自然言語処理の研究に従事.}\bioauthor{小谷善行}{東京農工大学大学院教授.工学研究院先端情報科学部門・情報工学科.人工知能,知識処理,ゲームシステム,ソフトウェア工学,教育工学の研究に従事.情報処理学会,電子情報通信学会,人工知能学会等会員.コンピュータ将棋協会副会長.最近では,多量データからの知識獲得に興味を持っている.}\end{biography}\biodate\end{document}
V15N05-07
\section{はじめに} \label{sec:introduction}近年,国際化の流れの中で,多くの言語を頻繁に切り替えて入力することが多くなってきている.例えば,自然言語処理の分野では,``namedentity''や``chunking''といった英語の表現が,そのままの形で日本語文中に出現することも多い.このように同一{\text}内に複数の言語が混在する{\text}を,本論文では「多言語{\text}」と呼ぶ.言語入力には,ユーザーが入力したキー列を,その言語での文字列に変換するために,{\eminputmethodengine}(IME)と呼ばれるソフトウェアが欠かせない.例えば,日本語のローマ字入力のIMEは,ユーザが``tagengo''というキー列を入力した時,これを``多言語''という文字列に変換する役割を担う.IMEは,日本語や中国語など,漢字への変換に限定されたものとして捉えられることも多いが,本論文では,以後,単純に,キー列から文字列への変換を担うソフトウェアという意味で用いる.従来は,入力する言語を切り替えるたびに,このIMEをユーザが手動で切り替えていた.しかし,これでは,言語を切り替える際のユーザの負担が大きく,特に言語を切り替え忘れた時に打ち直しの問題が生じていた.そこで,本論文では,{\tes}の切り替えを自動化してユーザーの負担を軽減する,{\name}という多言語入力システムを提案する\cite{typeanyijcnlp}.このシステムは,ユーザーのキー入力と{\tes}を仲介し,ユーザーが入力しているキー列から言語を自動的に判別して,{\tes}を切り替える.これによって,{\tes}の切り替えによるユーザーの負担が,大幅に減少すると見込まれる. \section{関連研究} 多言語{\text}を入力する際に必要なキー入力は,以下のように分類できる.この章では,関連研究をこの分類に沿って述べる.\begin{enumerate}\item本文の文字列に対応する入力\item{\tes}に対する操作\item{\tes}を切り替えるための操作\end{enumerate}(1)は,本文の文字列に対応する入力である.例えば,本文が``多言語''であれば,日本語のローマ字入力では,``tagengo''がこれに当たる.1つの言語に対応するIMEは,入力方式やキーボード配列の違いによって,複数存在する場合もある\footnote{文献によっては,1つの言語に1つのIMEを対応付け,入力方式やキーボード配列の違いを別の名称で呼ぶ場合もあるが,本論文では,入力方式やキーボード配列が違えば,IMEも異なるものとする.}.例えば,日本語には前述のローマ字入力の他に「かな入力」もある.日本語のかな入力のIMEでは,``多言語''に対応する(1)のキー列は``q:@yb@''であり,ローマ字入力の場合とは異なっている.日本語に限らず,英語でも,QwertyやDvorakといったキーボード配列の違いによって,複数の{\tes}がある.ただし,本論文は,入力方式やキーボード配列の違いについて論じることが目的ではないので,以後,各言語について標準的と思われる入力方式やキーボード配列を1つに定め,「日本語のIME」のように呼ぶものとする.(2)の操作は,仮名漢字変換ソフトウェアに対する変換候補選択などの操作に相当する.例えば,上記の``多言語''の例であれば,(1)だけでは,``多言語''のほかに``他言語''という選択肢も存在する.このとき,両者から``多言語''を選び出すための入力が,(2)である.予測入力を行う場合の,キー入力から候補を予測した変換候補を選択する操作も,(2)に相当する.(1)と(2)は,単言語で構成される文書を入力する際にも必要となるので,ユーザーインターフェースや自然言語処理の分野で詳細な研究がなされており,\cite{entry}にまとめられている.(3)の操作は,{\tes}を切り替える操作である.本論文では,以後この操作を「IME切り替え操作」と呼ぶ.例えば,英語と日本語を切り替える際の``Alt+半角''などのキー操作が(3)に相当する.IME切り替え操作は,主に,多言語{\text}の入力時に言語を切り替える際に発生する.\secref{sec:introduction}で述べたように,このIME切り替え操作を,キー列からユーザーが入力している言語を判別することで,自動化するのが本論文の主旨である.(3)の操作量を直接扱った既存研究は少ない.著者らが調査した範囲では,論文が公開されているものとしては,\cite{pinyininput}が該当するのみである.この論文では,ピンイン\footnote{ローマ字による中国語の発音表記のこと.中国語入力では,ピンインを入力して漢字に変換するピンイン漢字変換が一般的である.}と英語が混じったキー列を正しく変換するタスクが述べられている.しかし,この機能はあくまで中国語入力の一環として述べられているにすぎず,本論文で扱うように,言語の種類や数を変更することは考慮されていない.論文の形でなく,フリーソフトウェアでは,{\emPUNTOswitcher}\footnote{http://punto.ru/}というロシア語圏のソフトウェアが,ロシア語と英語の間の切り替えの目的で2001年より開発されている.当該ウェブサイトの情報によれば,このソフトウェアは150万件のダウンロードがあり,一定の成功を収めていると思われる.また,{\emKeyboardNinja}\footnote{http://www.intelife.net/ninja/}というソフトウェアも作成されている.KeyboardNinjaは,ロシア語,英語,フランス語,ドイツ語,イタリア語,スペイン語,ウクライナ語の間での切り替えを行うソフトウェアである.これらのソフトウェアの用いているアルゴリズムや性能評価については,著者らの知る範囲では公開されていない.一方,本研究は,{\text}の言語判別問題としてとらえることも可能である.この{\text}の言語判別問題は,次のように分類することが可能である.\begin{enumerate}\itemある単言語の{\text}が与えられ,その{\text}の言語を判別する問題\item多言語の{\text}が与えられ,その中の部分が何語であるかを判別する問題\end{enumerate}(1)の問題については,OCRを多言語に対応させることを主な目的とした,\cite{cavnar}の研究が基礎的である.この論文では,ニュースグループへの投稿文書という長いテキストを対象に,文字ベースのN-gramの頻度を用いて文書の言語を判別している.また,\cite{sibun}では,やはりECIコーパスという長いテキストを対象に,KL情報量を用いて文書の言語を判別している.どちらの論文でも,言語によって判別精度に差があることと,平均して90\%を超える高い精度が達成できることを報告している.一方,本研究との関連がより深いものは,(2)の問題である.(2)は,(1)を拡張した問題になっているうえ,多くの場合(1)より短い部分から言語を判別しなければならないため,(1)より難しい.以下,代表的な(2)に関する研究を2つ挙げる.\cite{indian}は,小さいサンプルを対象とした言語判別問題に機械学習を用い,高い判別精度で解けることを報告している.しかし,この研究は,一般の文書からのサンプルを対象に2言語の間の判別を行うことを目的とし,インドで使用されている言語や文字に特化した素性を用いて判別精度の向上を報告するものである.本研究は,入力中のキー列を対象に3言語以上の間の判別も扱い,言語の種類に特に制限は設けていない点で,目的も手法も異なる.\cite{alex2005}は,ドイツ語中に混在する英語を判別する方法について論じている.この論文では,{\text}中に混在する他の言語を発見するタスクを,{\emforeigninclusiondetection}(FID)と呼び,音声合成(Texttospeech)の分野で研究されてきたことを紹介している\cite{tts2003},\cite{tts2005}.近年Alexは,FIDを構文解析の前処理として使用することで,構文解析の精度が向上させられることを示している\cite{alex2007}.このFIDのように,他の処理の前処理として言語判別を使用する場合は,高い精度が求められるため,対象言語について大規模なコーパスが入手可能であることが前提となる.一方,本論文の目的では,対象言語の大規模なコーパスが手に入るとは限らないため,FIDの手法をそのまま適用することは困難である.以上の関連研究を踏まえて,次の\secref{sec:premodel}で,設計方針を立てる. \section{準備と設計方針} \label{sec:premodel}{\name}に必要な機能を特定するために,\figref{fig:toyota}に,日本語,英語,中国語の3言語による,多言語{\text}の例を挙げて説明する.中国語の下には,ピンインを表記した.既存の手法では,\figref{fig:toyota}の文章を入力するためには,日本語から英語への切り替えと戻す操作で2回,日本語から中国語への切り替えと戻す操作が2対あるので4回,合計6回のIME切り替え操作が必要となる.このようなIME切り替え操作は,文字種が違う言語間だけでなく,同じアルファベットを使う英語やフランス語の間でも,アクセント記号付きの文字を入力する場合に必要になる.\begin{figure}[t]\begin{center}\includegraphics{15-5ia7f1.eps}\caption{日本語,英語,中国語による多言語{\text}の例}\label{fig:toyota}\end{center}\end{figure}一方,{\name}では,キー列から言語を判別し,IMEを自動的に切り替える.例えば\figref{fig:toyota}では,``bi-ruha,''を日本語,``beer''を英語,``pijiu''を中国語といったように言語を判別してユーザーに提示する.言語判別が間違っていれば,ユーザーが必要に応じて言語を訂正する.このことから,大きく分けて次の2つの機能が必要であることがわかる.\begin{enumerate}\itemキー列から言語を判別する機能\item言語判別の結果をユーザーに提示し,訂正情報を受け取とるユーザーインターフェース\end{enumerate}(1)については\secref{sec:model}で,(2)については\secref{sec:design}で扱う.一般に,{\text}を入力するときには,多くの言語で,{\text}を区切るための{\delim}を仮定することが可能である.例えば,スペースを用いた分かち書きが,その典型的な例として挙げられ\footnote{スペースを用いた分かち書きは,英語やフランス語などアルファベットを用いる言語に限らず,字種の異なるアラビア語,ヘブライ語,韓国語などでも行われている一般的な習慣である.},この場合には,スペースキーを{\delim}として採用することが可能である.日本語や中国語では,通常,分かち書きは行わないが,漢字に変換する際にスペースキーを打鍵しているので,やはりスペースキーを{\delim}として使用することが可能である.そこで,{\name}では,{\delim}から次の{\delim}までに挟まれるキー列を「トークン」と定義する.トークンを単位として入力を行い,トークンの属すべき言語\footnote{厳密には,ユーザーが入力しようとしているキーボード配列(Qwerty,Dvorak,Azertyなど)も同時に判別している.}を判別する.例えば,\figref{fig:toyota}におけるトークンとしては,``bi-ruha,'',``beer'',``pijiu''が挙げられる.トークンは単語とは限らず,連文節変換を用いる場合などは,単語よりも長い単位となる場合もある.トークンによっては,そもそも,その属すべき言語が曖昧である場合がある.例えば,``sushi''というトークンは,英語としての``sushi''にも日本語の``寿司''に対する入力にもとらえることが可能である.借用語の多くにこのような曖昧性がある.また,ヨーロッパの多くの言語で使用されるアクセント記号はしばしば省かれることがあり,この場合にも曖昧性が生じる場合がある.例えば,``fur''は通常は英単語であるが,``$\rm{f\ddot{u}r}$''というドイツ語のウムラウト記号が省かれた形としても,使用されることがあり,英語とドイツ語の間で曖昧性が生じる.ただし,このような曖昧性は,実用上は必ずしも問題とならない場合もある.ユーザーは,例え言語判別に失敗していても,最終的に入力したトークンが正しい文字列に変換されていれば問題とは認識しないと考えられる.例えば,上記の後者の例である``fur''は,英語とドイツ語の間で曖昧性があるものの,どちらに判別されたとしても,最終的には``fur''に変換されるため,問題を生じない.一方,上記の前者の例である``sushi''では,英語と判別された場合は``sushi''と変換され,日本語と判別された場合は``寿司''などに変換されるため,ユーザーの観点からは問題を生じる.以上のように,この曖昧性が問題となるか否かを判定することは,個々の言語に対する具体的な知識を必要とするため難しい.そこで本論文では,\secref{sec:evaluation}で示すように,単純に言語判別の精度を用いて評価を行った.トークンの属すべき言語は,事前に用意する学習コーパスが多くなるほど明確に判別することが可能になるが,その分,{\name}が対応可能な言語は限られてくる.{\name}は入力システムであるため,多くの言語に対応可能であることが望ましいと考えた.そこで,より多くの言語に対応を優先する設計方針を立て,言語判別を\secref{sec:model}で述べるように設計した.また,その言語判別を用いるユーザーインターフェースを\secref{sec:design}で述べるように設計した. \section{言語判別} \label{sec:model}\subsection{言語判別モデル}言語判別の確率モデルには,隠れマルコフモデル(HMM)を用いた.隠れ状態を言語として,隠れている言語からトークンが記号列として観測されるとする.ここでの目的は,$\mathrm{P}(l_1^{m},t_1^{m})$を最大にするような$\hat{l}_1^m$を求めることである\footnote{ここで,$t_u^v$は,$v\gequ$のとき$v-u+1$個の要素からなる列$t_u^v=(t_u,t_{u+1},\dots,t_v)$を表し,$v<u$のとき空列$t^v_u=()$を表す.}.ただし,$l\inL$は言語集合$L$中の言語であり,$t$はトークンである.HMMでは,$\mathrm{P}(l_1^m,t_1^m)$を\eqref{eq:approx}のようにして最大化する.\begin{align}\hat{l}_1^m&=\argmax_{l_1^m\inL}\mathrm{P}(l_1^{m},t_1^m)\nonumber\\&=\argmax_{l_1^m\inL}\mathrm{P}(t_1^m|l_1^m)\mathrm{P}(l_1^m)\nonumber\\&\approx\argmax_{l_1^m\inL}\left(\prod_{i=1}^mP(t_i|l_i)\right)\left(\prod_{i=1}^mP(l_i|l_{i-k}^{i-1})\right)\label{eq:approx}\end{align}\eqref{eq:approx}では,第一項を$\mathrm{P}(t_1^m|l_1^m)\approx\prod_{i=1}^mP(t_i|l_i)$のように,また,第二項を$\mathrm{P}(l_i|l_1^{i-1})\approxP(l_i|l_{i-k}^{i-1})$のように,近似した.ここで,第一項は出力確率であり,第二項は遷移確率である.\subsection{出力確率の推定}\label{sec:output}出力確率$P(t_i|l_i)$は,ある1つの言語$l_i$からトークン$t_i$が出力される確率である.トークンを単語とみなせば,この確率は単純に言語$l_i$における単語の出現確率であり,その推定手法は自然言語処理の分野において,よく研究されている.$P(t_i|l_i)$の推定するには,言語$l_i$のコーパスが必要となる.十分に大規模な言語$l_i$のコーパスを用いれば,$P(t_i|l_i)$は,単純にコーパス中にトークン$t_i$が出現した頻度で近似することが可能である.しかし,この方法は,入力可能な言語を大規模なコーパスを入手することが可能な言語に限定してしまうため,\secref{sec:design}の最後で述べた,より多くの言語に対応するという方針に反する.そこで,本研究では,トークンを入力したキーの列と捉え,キー列に関するスムージングを行うことで,$P(t_i|l_i)$を計算する方法を採用した.まず,トークン$t_i$の長さを$|t_i|$とし,トークン$t_i$をキー列$c_1^{|t_i|}=(c_1,c_2,c_3,\dots,c_{|t_i|})$として捉える.すなわち,$t_i=c_1^{|t_i|}$とする.例えば,$t_i$=``pijiu''の場合,$|t_i|=5$で,$t_i=c_1^5=($`p',`i',`j',`o',`u'$)$となる.次に,この$c_1^{|t_i|}$について,最大$n_{max}$までの$n+1$-gram確率を計算することで,スムージングを行い,$P(t_i|l_i)$を次のように計算する.\begin{equation}P(t_i|l_i)=P(c_1^{|t_i|}|l_i)\approx\prod_{r=1}^{|t_i|}P(c_r|c_{r-n_{max}+1}^{r-1},l_i)\label{eq:decompose}\end{equation}このスムージングの手法としては,さまざまなものが提案されているが,本研究では,{\emPredictionbyPartialMatching}(PPM)という手法を採用した.このPPMは,データ圧縮の分野で最初に提案され,後に自然言語処理に応用された手法である\cite{textcomp},\cite{teahan00},\cite{nle06}.PPMは,データ圧縮の分野で提案されたため,学習を動的に行いながら判別を行うことが,可能なように設計されているという特徴がある.この特徴によって,ユーザーが誤判別を訂正した場合,瞬時にその情報を確率値にフィードバックして次の判別に利用することが可能となる.この点が,{\name}のような入力システムに適した特徴であると考えたので採用した.以下,PPMの詳細について説明する.PPMは,$c_1^{r-n_{max}}$までの頻度情報をもとに,現在の文脈$c_{r-n_{max}+1}^{r-1}$の次にキー$c_r$がくる確率$P(c_r|c_{r-n_{max}+1}^{r-1})$を推定する.\begin{equation}P(c_r|c_{r-n_{max}+1}^{r-1})=\sum_{n=-1}^{n_{max}-1}w_np_n(c_r)\label{eq:weights}\end{equation}ここで$p_n(c_r)$は,次のように,長さ$n$の文脈にキー$c_{r}$が続く$n+1$-gram確率を表す.$X_n$,$x_n$は,それぞれ,$c_1^{r-n-1}$中の$c_{r-n}^{r-1}$,$c_{r-n}^r$の頻度とする.\[p_n(c_r)=\frac{x_n}{X_n}\]\eqref{eq:weights}において,重み$w_n$は,基本的には,長い$n+1$-gram確率を重く,短い$n+1$-gramを軽く重みづけるのが望ましい.ただし,重みが偏りすぎることも精度を悪化させる.PPMでは,この重み$w_n$を,簡単な計算で適切に設定するために,エスケープ確率$e_n$という概念を導入して,次のように計算する.\begin{equation}\begin{split}e_{-1}&=0\\w_n&=(1-e_n)\prod_{n'=n+1}^{n_{cont}}e_{n'}\\(-1\len<n_{cont})\label{eq:ppm}\\w_{n_{cont}}&=(1-e_{n_{cont}})\end{split}\end{equation}ただし,$n_{cont}$は,$X_n\ne0$を満たす$n_{max}-1$以下で最大の$n$である.エスケープ確率$e_n$は,現在の文脈に一度も続かなかったキーに割り当てる確率を表す.すなわち,現在の長さ$n$の文脈$c_{r-n+1}^{r-1}$に一度も続かなかった新しいキー(これを「エスケープ」と呼ぶ)が,エスケープ確率$e_n$で現れると考える.反対に,現在の長さ$n$の文脈$c_{r-n+1}^{r-1}$に続いたことのあるキーは,エスケープ確率$e_n$を新しいキーに割り当てた分を減らし,単純な頻度に$1-e_n$倍をした確率で出現すると考える.このエスケープ確率をどのように定義するかによって,PPMは,PPMA,PPMB,PPMCのように分類される.その中でも,本研究では,基礎的かつ比較的性能が高いとされるPPMCを用いた\footnote{PPMは大規模圧縮においてこそ性能の差が問題となるが,入力応用上はどのPPMを用いても,大きな差にはつながらないとの報告もある\cite{nle06}.}\cite{textcomp}.PPMCでは,エスケープ確率を次のように計算する.ただし,$q_n$は,$c_1^{r-n-1}$中の,$c_{r-n}^{r-1}$のあとに続くキーの異なり数である.\begin{equation}e_n=\frac{q_n}{X_n+q_n}\label{eq:PPMC}\end{equation}\eqref{eq:PPMC}から,PPMCでは,次のキー$c_r$の確率$P(c_r|c_{r-n_{max}+1}^{r-1})$は,キー列の$n$-gramの頻度$X_n$と$n$-gramの後に続くキーの異なり数$q_n$が分かれば,推定することが可能であることがわかる.$n$-gramの頻度と$n$-gramの異なり数は単純な加算によって学習中に更新することが容易であるため,PPMCは動的に学習することに適している.\subsection{遷移確率の推定}\label{sec:trans}ここでは,\eqref{eq:approx}の第2項である,$k_{max}$-gramまでの,言語$k+1$-gramによる文脈を考慮した遷移確率$P(l_m|l_{m-k_{max}+1}^{m-1})$を推定する手法について述べる.この遷移確率は,大量の多言語{\text}から学習することが可能であるが,そのような大量の多言語{\text}は,通常,入手することが難しい.ユーザーが過去に確定した言語列$l_1^{m-1}$を正解とみなし,$l_1^{m-1}$から動的に遷移確率を推定することが可能であれば,この学習データの入手の問題を回避することが可能となる.この方法は,\secref{sec:output}と同様で,学習データが少量であることを,利用中のユーザーからの情報を動的に利用して補い,精度を向上させることが狙いである.したがって,遷移確率の推定方法には,\secref{sec:output}と同様,PPMを用いた.具体的には,\eqref{eq:weights}における$c_r$を$l_m$と読み替えることで,遷移確率$P(l_m|l_{m-k_{max}+1}^{m-1})$を分解して推定した.\secref{sec:output}で述べた出力確率の推定の場合との違いの一つは,遷移確率は,出力確率ほど出現位置の離れた要素に依存しない,すなわち,長距離依存性が小さいことである.これは,次のように考えれば直感的に理解することが可能である.たとえば,言語3-gramを考えた場合,英語,フランス語,日本語のトークンがこの順番で何回も出現する{\text}は,まれであると推測される.したがって,通常は,遷移確率の最大文脈長$k_{max}$を,出力確率の最大文脈長$n_{max}$より小さく取り,$k_{max}\len_{max}$としてよい.ただし,実用上は,これらの最大文脈長の値はある程度の大きさがあれば十分であり,これらの値を細かく調整する必要性は乏しい.その理由は,\eqref{eq:weights}のように,PPMでは文脈の長さごとに文脈の重要度$w_n$が自動的に決定されるためである.本研究では,特別な事情がない場合は$k_{max}=n_{max}=5$とした. \section{ユーザーインターフェース} \label{sec:design}ここでは,前節で述べた言語を判別する手法を,ユーザーインターフェースに組み込む方法について説明する.システムの構造を,\figref{fig:systemstructure}に示す.{\name}は,\figref{fig:systemstructure}に示すように,ユーザーのキー入力と{\tes}の間に立って両者を仲介する.まず,ユーザーが入力したキー列を,クライアントが受け取り,クライアントはそのキー列をサーバーに送る.サーバーでは,サーバー内の「言語判別モジュール」がキー列からユーザーが入力しようとしている言語を判別して,対応する{\tes}に送る.{\tes}では,キー列を文字列に変換して,クライアントに送り返す.この中の言語判別モジュールに,前節で述べた言語判別手法を実装し,組み込んだ.\begin{figure}[b]\begin{center}\vspace{-0.5\baselineskip}\includegraphics{15-5ia7f2.eps}\caption{{\name}の構造}\label{fig:systemstructure}\end{center}\end{figure}フランス語やドイツ語などヨーロッパ系の言語では,キー列に対して文字列が一意に定まるので,{\tes}は,単純な置き換えですむ.たとえば,ドイツ語の{\tes}では,日本語のキーボードで``@''に対応するキーを,ドイツ語の``$\rm{\ddot{u}}$''に置き換えている.一方,日本語や中国語では,キー列に対して文字列が一意に定まらないので,{\tes}がユーザーに候補を提示して選択してもらう必要がある.この処理には,既存のかな漢字変換/ピンイン漢字変換のシステムをそのまま用いればよい.日本語の{\tes}には,Anthy\footnote{http://anthy.sourceforge.jp/}を用い,中国語の{\tes}には,単純なピンイン漢字変換を自作した.\begin{figure}[b]\begin{center}\includegraphics{15-5ia7f3.eps}\caption{{\name}を用いた入力操作}\label{fig:entryflow}\end{center}\vspace{-1.5\baselineskip}\end{figure}\figref{fig:entryflow}に,{\name}を用いて\figref{fig:toyota}に示す文章の入力例を示す\footnote{ここでは,Qwerty配列上での入力を仮定している.日本語はローマ字入力,中国語はピンイン入力とする.}.各ステップにおいて,白黒反転されているところが,ユーザーが入力中の部分である.言語の判別は,反転部分のキー列に対して行われ,その結果が{\emLocaleWindow}に表示される.以下,各ステップを説明する.\begin{itemize}\item[(a)]初期の状態では,どの言語も選択されていない.\item[(b)]キーを押すごとに反転部分のキー列(トークン)から言語が判別され,{\emLocaleWindow}に表示される.``bi-ruha,''の``b''を打鍵した時点では,英語と判別されていることがわかる.\item[(c)]しかし,``bi-ruha,''まで打鍵すると,正しく日本語と判別される.\item[(d)]現在のトークンは日本語と判別されているので,デリミタとなるスペースキーを打鍵すると,日本語のIMEを通じて日本語の文字列への変換が行われる.\item[(e)]日本語のように,キー列文字列への変換候補が複数ある場合は,さらにスペースキーを打鍵することによって,通常のかな漢字変換を行うことが可能である.\item[(f)]``beer''というトークンが,正しく英語と判別されている.\item[(g)]``pijiu''というトークンが,正しく中国語と判別されている.\item[(h)](g)でスペースキーを打鍵すると,日本語のかな漢字変換と同様に,中国語のピンイン漢字変換が行われる.\item[(i)]その後の``toyobare,''というトークンも,正しく日本語と判別されている.\end{itemize}このように,{\name}を用いることで,ユーザーは,言語の誤判別が発生しない限りIME切り替え操作を行う必要がなく,ユーザーの負担は大幅に軽減される.トークンの言語を判別した結果が,ユーザーの望むものと異なる場合は,「誤判別」となる.誤判別時の処理を,\figref{fig:detectionfail}を用いて説明する.\begin{figure}[b]\begin{center}\includegraphics{15-5ia7f4.eps}\caption{誤判別時の操作}\label{fig:detectionfail}\end{center}\end{figure}言語判別の結果は常に{\emLocaleWindow}に表示されるので,誤判別の場合を含め,ユーザーはその結果を常に把握することが可能である.したがって,誤判別の場合でも,TABキーを押すことで,ユーザーはIMEを手動で簡単に切り替えることが可能である.例えば,\figref{fig:entryflow}の``pijiu''は正しく中国語と判別されているが,\figref{fig:detectionfail}(a)のように,間違って日本語と判別されていたと仮定する.ここで,ユーザーがTABキーを押すと,IMEが\figref{fig:detectionfail}(b)のように中国語に切り替わる.{\name}における誤判別は,次の2種類に分類される.\begin{description}\item[誤判別1:]{言語が切り替わるべき時に,言語が切り替わらなかったか本来の言語とは違う言語に切り替わった場合}.\item[誤判別2:]{言語が切り替わるべきでない時に,言語が切り替わってしまう場合}.\end{description}既存手法では,言語を切り替えるごとにIME切り替え操作を行わなければならなかったのに対し,{\name}では,IME切り替え操作は言語判別を失敗したときのみ必要になる.{\bf誤判別1}は,{\name}が言語判別を間違えた場合であってもIME切り替え操作回数が増える原因とはならない.一方,{\bf誤判別2}は,特に多言語コーパスの大半が1言語から構成されているような場合において,既存手法と比較した場合のIME切り替え操作回数を増加させてしまう可能性がある.したがって,{\name}の有効性は,言語を切り替える点での自動判別によるIME切り替え操作の減少量と,言語を切り替えるべきない点での{\bf誤判別2}によるIME切り替え操作の増加量とのトレードオフによって決まる.このトレードオフについては,\secref{sec:decrease}で論じる. \section{評価} \label{sec:evaluation}{\name}を2つの観点から評価した.まず,人工的に作成した多言語なコーパスを用いて,言語判別の精度を測定した.次に,実際の多言語{\text}を入力した場合の,打鍵数の減少量を測定した.\subsection{言語判別精度による評価実験}\label{sec:detectionaccuracy}ここでは,言語判別の精度を測定した.言語判別の精度を測定するためには,実際に多言語を含む十分な量の正解コーパスがあることが望ましい.しかし,そのようなコーパスは,通常,入手することは難しい.そこで,本論文では,人工的に2言語から8言語の多言語コーパスを作成して,言語判別の精度を測定した.最初に,単言語のコーパスを収集した.日本語コーパスには毎日新聞2004年度版,中国語コーパスには北京大学コーパス,その他,英語,フランス語,ドイツ語,エストニア語,フィンランド語,トルコ語のコーパスには,Leipzigcorpora\cite{leipzigproceeding3}を用いた.各言語の{\text}は,事前にキー列に変換した\footnote{日本語の{\text}は,MeCab(http://mecab.sourceforge.net/)を用いて読みに変換した.また,日本語の``し''がキー列としては``shi''にも``si''にもなるように,文字に対して複数のキー列が対応する場合は,事前に定めた確率を用いて対応するどのキー列にも文字が変換される可能性が残るようにした.}.混合率による判別精度の変化をみるため,テストセットを2つ作成した.テスト1では,どの言語の出現確率も等確率であるような多項分布から生成した.テスト2では,メインとなる言語が90\%を占め,残りの10\%は残りの言語が均等に配分されるような多項分布から生成した.実際の多言語{\text}では,メインとなる言語が存在するので,テスト2の方がより現実的な状況に即している.出力確率と遷移確率は,\secref{sec:model}で述べたPPMCによって推定する.実際のシステムでは,どちらの確率も動的に学習されるのであるが,今は判別精度を評価することが目的であるため,事前に準備した訓練コーパスを用い,テスト中は動的な学習を行わない.\secref{sec:output}の\eqref{eq:ppm}にあるように,出力確率は$n_{max}=5$で学習した.また,今回は多項分布から人工的にコーパスを生成しているため,遷移確率は$k_{max}=1$とした.評価は,生成した多言語コーパス上での10回交差検定を用いた.訓練コーパスのサイズは100~Kbyte,テストデータは11~KByteとした.出力確率は事前に各言語の訓練コーパスを用いて学習し,遷移確率は約2000トークンを用いて学習した.テスト1,テスト2の両者の結果を,それぞれ,\figref{fig:graphtest1}と\figref{fig:graphtest2}に示す.横軸は言語数を表し,縦軸は判別精度を表す.各言語数ごとに,全ての言語の組み合わせについて言語セットを作成した.各言語セットごとに10回交差検定を用いて判別精度を測定した後,全ての言語セットについて判別精度を平均した値をプロットした.凡例中の「PPM」は遷移確率もPPMを用いて学習させた場合,「ML」は出力確率のみを用いて判別させた場合(最尤推定に相当),「Baseline」は最も頻度の高い1言語を常に正解として返す場合である.\begin{figure}[b]\begin{minipage}{0.5\linewidth}\begin{center}\includegraphics{15-5ia7f5.eps}\caption{言語判別精度実験テスト1}\label{fig:graphtest1}\end{center}\end{minipage}\begin{minipage}{0.5\linewidth}\begin{center}\includegraphics{15-5ia7f6.eps}\caption{言語判別精度実験テスト2}\label{fig:graphtest2}\end{center}\end{minipage}\end{figure}どの言語も等確率で出現するテスト1(\figref{fig:graphtest1})では,PPMとMLの精度が非常に近くなっている.これは,PPMが遷移確率を学習を通して,どの言語も等確率で出現していることを学習したためであり,遷移確率の学習を無限に行えば,理論的にはPPMの精度とMLの精度は一致すると考えられる.一方,テスト2(\figref{fig:graphtest2})では,PPMがMLより明らかに高い精度を示している.PPMは遷移確率を学習することで,主となる言語が90\%を占めていることを学習する一方,MLでは遷移確率を学習しないため,このような結果となる.また,先行研究では調査がなされていない3言語以上の場合では,MLはベースラインより下がってしまうことがわかった.この結果から,各言語について少量のコーパスしか入手できない場合でも,単純にMLを使って言語を最尤推定するのではなく,遷移確率をPPMを用いて推定することによって,言語判別の精度を向上させることが可能であると考えられる.また,言語セットごとに,判別精度に差がみられることも注目に値する.例えば,綴りが似通った単語の多い英語とフランス語の両方を含む言語セットでは,他の言語セットよりも精度が落ちる傾向が見られる.実際に,テスト2で,90\%が英語,5\%がフランス語,5\%がドイツ語であるような,ある言語セットでの判別精度は,3言語の言語セット全体の平均より低い\frenchaccuracy\%であった.一方,90\%が英語,5\%がフィンランド語,5\%がトルコ語であるような,ある言語セットでの判別精度は,3言語の言語セット全体の平均より高い\estonianaccuracy\%であった.\subsection{IME切り替え操作回数による評価実験}\label{sec:decrease}次に,{\name}の実用性を評価するため,実際の多言語{\text}を入力した場合に,IME切り替え操作回数が減少する量を測定した.\secref{sec:design}で述べたように,キー操作は3種に分類されるが,{\name}が関わるのはIME切り替え操作回数のみであるため,これを測定した.この実験のために,2種類の多言語{\text}をWebから取得した.各{\text}の詳細を\tabref{tab:stat}に示す.両{\text}とも,主となる言語は英語であり,文書1では日本語が,文書2では日本語と中国語のトークンが混在している.文書2では,文書の大半98.9\%が英語のトークンである点が特徴的である.\begin{table}[b]\caption{IME切り替え操作回数による評価実験で使用した{\text}}\label{tab:stat}\begin{center}\input{07table01.txt}\end{center}\end{table}各{\text}を,既存手法を用いて入力した場合と,{\name}を用いて入力した場合の,それぞれのIME切り替え操作回数を比較した.既存手法では,言語が切り替わるたびにIME切り替え操作を行わなければならない.一方,{\name}では,言語判別に失敗した場合のみIME切り替え操作を行えばよい.誤判別時に目的のIMEに切り替えるための操作は,既存手法と同じく,1回で行うことができるものとした.出力確率は,前述の評価で用いた各言語100~Kbyteのコーパスより学習させた.遷移確率については,事前の学習は行わない.すなわち,実験開始時点では,{\name}はどの言語が入力されるか分からず,各言語が一様に入力されるものと想定している.具体的には,{\name}は,この実験の開始時点で,文書1では英語と日本語を一様に,文書2では英語と日本語と中国語を一様に,ユーザが入力するものと想定している.この実験は,実際に多言語{\text}を入力する場合に,IME切り替え操作回数が減少する量を測定することが目的であるため,実験中は,出力確率も遷移確率もPPMCを用いて動的に学習されるようにした.特に遷移確率の学習も行っているため,この実験では{\name}は,入力されているテキストにおける各言語の比率についても学習していく.考慮される文脈の長さについては,$n_{max}=k_{max}=5$とした.\begin{table}[t]\caption{{\text}入力に必要なIME切り替え操作回数}\label{tab:decreaseresult}\begin{center}\input{07table02.txt}\end{center}\end{table}実験の結果を,\tabref{tab:decreaseresult}に示す.実験の初期段階では,{\text}2において,英語であるべき{\text}2中の``tofu''が日本語として判別されてしまう誤判別が起こった.この誤判別は,借用語の曖昧性が原因であり,\secref{sec:design}で予想された結果である.実際,{\name}は``tofu''が英語と判別されるべきであることをPPMCを用いて学習したため,``tofu''による誤判別は実験の初期段階にとどまり,実験の後半では発生しなかった.結果として,{\name}を用いた場合,両{\text}とも,既存手法と比較して\decreaserate\%を超えるIME切り替え操作回数の減少が認められた.特に,{\text}2でIME切り替え操作回数が減少したことは,重要な知見である.\secref{sec:design}で述べたように,{\name}の有用性は,{\bf誤判別2}に依存する.{\text}2は英語が{98.9\%}と大半を占めるにも関わらず,{\text}1と比較して,誤判別2は僅かしか増加していない.この結果は,\secref{sec:design}の最後で述べた懸念を払拭するものである.すなわち,入力頻度の少ない言語において,IME切り替え操作回数を増加させる{\bf誤判別2}が起こった場合でも,訂正を繰り返し行うことで{\name}が学習し,以後の{\bf誤判別2}を防ぐことが可能である.この実験では,文書2において最大3言語間の判別を行ったが,より多くの言語をサポートした場合でも,現実的には同様にして{\bf誤判別2}を防ぐことが可能であると考えられる.以上より,これらの結果は,{\name}が既存手法と比較して有用であることを示唆している. \section{結論} {\name}は,ユーザーが入力したキー列から言語を判別して,IMEを自動的に切り替えることで,多言語入力におけるユーザーの負担を軽減するシステムである.言語判別は,隠れマルコフモデルとしてモデル化した.事前に各言語の少量の学習コーパスのみを用意し,出力確率も遷移確率も入力に伴い動的に学習させることで,多くの言語に容易に対応することを優先した.これを達成するため,PPM法を用いた.評価実験の結果,現実的な,1つの言語が90\%を占める3言語からなる多言語{\text}において,\accuracy\%の判別精度を得た.また,実際に多言語{\text}を入力した場合,既存手法と比較してIME切り替え回数が\decreaserate\%減少した.これらの結果より,{\name}を用いることで多言語{\text}を効率的に入力することが可能であることが示唆された.今後の課題としては,識別モデルを用いて精度を向上することや,IMEを頻繁に切り替える必要のある語学教材の作成を容易にするシステムとして語学教育分野に応用すること,携帯端末など計算機の性能に制限がある状況でも幅広く利用可能にすることなどが挙げられる.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Alex}{Alex}{2005}]{alex2005}Alex,B.\BBOP2005\BBCP.\newblock\BBOQAnUnsupervisedSystemforIdentifying{E}nglishInclusionsin{G}ermanText\BBCQ\\newblockIn{\BemProceedingsoftheACLStudentResearchWorkshop},\mbox{\BPGS\133--138}\AnnArbor,Michigan.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Alex,Dubey,\BBA\Keller}{Alexet~al.}{2007}]{alex2007}Alex,B.,Dubey,A.,\BBA\Keller,F.\BBOP2007\BBCP.\newblock\BBOQUsingForeignInclusionDetectiontoImproveParsingPerformance\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL2007)},\mbox{\BPGS\151--160}.\bibitem[\protect\BCAY{Bell,Clear,\BBA\Witten}{Bellet~al.}{1990}]{textcomp}Bell,T.~C.,Clear,J.~G.,\BBA\Witten,I.~H.\BBOP1990\BBCP.\newblock{\BemTextCompression}.\newblockPrentice-Hall,NewJersey.\bibitem[\protect\BCAY{Biemann,Heyer,Quasthoff,\BBA\Richter}{Biemannet~al.}{2007}]{leipzigproceeding3}Biemann,C.,Heyer,G.,Quasthoff,U.,\BBA\Richter,M.\BBOP2007\BBCP.\newblock\BBOQThe{L}eipzigCorporaCollection---Monolingualcorporaofstandardsize\BBCQ\\newblockIn{\BemProceedingsofCorpusLinguistics2007}\Birmingham,UnitedKingdom.\bibitem[\protect\BCAY{Cavnar\BBA\Trenkle}{Cavnar\BBA\Trenkle}{1994}]{cavnar}Cavnar,W.~B.\BBACOMMA\\BBA\Trenkle,J.~M.\BBOP1994\BBCP.\newblock\BBOQN-Gram-BasedTextCategorization\BBCQ\\newblockIn{\BemProceedingsofthe3rdAnnualSymposiumonDocumentAnalysisandInformationRetrieval(SDAIR'94)},\mbox{\BPGS\161--175}\LasVegas,NV,USA.\bibitem[\protect\BCAY{Chen\BBA\Lee}{Chen\BBA\Lee}{2000}]{pinyininput}Chen,Z.\BBACOMMA\\BBA\Lee,K.-F.\BBOP2000\BBCP.\newblock\BBOQANewStatisticalApproachTo{C}hinesePinyinInput\BBCQ\\newblockIn{\BemProceedingsofthe38thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2000)},\mbox{\BPGS\241--247}\HongKong.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Ehara\BBA\Tanaka-Ishii}{Ehara\BBA\Tanaka-Ishii}{2008}]{typeanyijcnlp}Ehara,Y.\BBACOMMA\\BBA\Tanaka-Ishii,K.\BBOP2008\BBCP.\newblock\BBOQMultilingualTextEntryusingAutomaticLanguageDetection\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP2008)},\mbox{\BPGS\441--448}\Hyderabad,India.\bibitem[\protect\BCAY{MacKenzie\BBA\Tanaka-Ishii}{MacKenzie\BBA\Tanaka-Ishii}{2007}]{entry}MacKenzie,I.~S.\BBACOMMA\\BBA\Tanaka-Ishii,K.\BBOP2007\BBCP.\newblock{\BemTextEntrySystems:Mobility,Accessibility,Universality(MorganKaufmannSeriesinInteractiveTechnologies)}.\newblockMorganKaufmannPublishersInc.,SanFrancisco,CA,USA.\bibitem[\protect\BCAY{Marcadet,Fischer,\BBA\Waast-Richard}{Marcadetet~al.}{2005}]{tts2005}Marcadet,J.-C.,Fischer,V.,\BBA\Waast-Richard,C.\BBOP2005\BBCP.\newblock\BBOQATransformation-BasedLearningApproachtoLanguageIdentificationforMixed-LingualText-to-SpeechSynthesis\BBCQ\\newblockIn{\BemProceedingsofInterspeech2005},\mbox{\BPGS\2249--2252}\Lisbon,Portugal.\bibitem[\protect\BCAY{Murthy\BBA\Kumar}{Murthy\BBA\Kumar}{2006}]{indian}Murthy,K.~N.\BBACOMMA\\BBA\Kumar,G.~B.\BBOP2006\BBCP.\newblock\BBOQLanguageidentificationfromsmalltextsamples\BBCQ\\newblock{\BemJournalofQuantitativeLinguistics},{\Bbf13}(1),\mbox{\BPGS\57--80}.\bibitem[\protect\BCAY{Pfister\BBA\Romsdorfer}{Pfister\BBA\Romsdorfer}{2003}]{tts2003}Pfister,B.\BBACOMMA\\BBA\Romsdorfer,H.\BBOP2003\BBCP.\newblock\BBOQMixed-LingualTextAnalysisforPolyglot{TTS}Synthesis\BBCQ\\newblockIn{\BemProceedingsofEurospeech2003},\mbox{\BPGS\2037--2040}\Geneva,Switzerland.\bibitem[\protect\BCAY{Sibun\BBA\Reynar}{Sibun\BBA\Reynar}{1996}]{sibun}Sibun,P.\BBACOMMA\\BBA\Reynar,J.~C.\BBOP1996\BBCP.\newblock\BBOQLanguageIdentification:ExaminingtheIssues\BBCQ\\newblockIn{\BemProceedingsofthe5thSymposiumonDocumentAnalysisandInformationRetrieval(SDAIR'96)},\mbox{\BPGS\125--135}\LasVegas,NV,USA.\bibitem[\protect\BCAY{Tanaka-Ishii}{Tanaka-Ishii}{2006}]{nle06}Tanaka-Ishii,K.\BBOP2006\BBCP.\newblock\BBOQWord-basedTextEntryTechniquesUsingAdaptiveLanguageModels\BBCQ\\newblock{\BemJournalofNaturalLanguageEngineering},{\Bbf13}(1),\mbox{\BPGS\51--74}.\bibitem[\protect\BCAY{Teahan,McNab,Wen,\BBA\Witten}{Teahanet~al.}{2000}]{teahan00}Teahan,W.~J.,McNab,R.,Wen,Y.,\BBA\Witten,I.~H.\BBOP2000\BBCP.\newblock\BBOQAcompression-basedalgorithmforChinesewordsegmentation\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf26}(3),\mbox{\BPGS\375--393}.\end{thebibliography}\begin{biography}\bioauthor{江原遥}{2007年東京大学工学部計数工学科卒業.現在,東京大学大学院情報理工学系研究科創造情報学専攻修士課程学生.自然言語処理,また,その教育への応用に興味を持つ.言語処理学会学生会員.ehara@r.dl.itc.u-tokyo.ac.jp}\bioauthor{田中久美子}{現在,東京大学大学院情報理工学系研究科准教授.言語処理学会,ソフトウエア科学会,情報処理学会会員.専門は計算言語学,自然言語処理.言語に内在する数理情報論的構造に関する研究に興味を持つ.kumiko@i.u-tokyo.ac.jp}\end{biography}\biodate\end{document}
V04N01-06
\section{はじめに} 日本語文章における代名詞などの代用表現を含む名詞の指す対象が何であるかを把握することは,対話システムや高品質の機械翻訳システムを実現するために必要である.そこで,我々は用例,表層表現,主題・焦点などの情報を用いて名詞の指示対象を推定する研究を行なった.普通の名詞の指示対象の推定方法はすでに文献\cite{murata_noun_nlp}で述べた.本稿では指示詞・代名詞・ゼロ代名詞の指示対象の推定方法について説明する.代名詞などの指示対象を推定する研究として過去にさまざまなものがあるが\cite{Tanaka1}\cite{kameyama1}\cite{yamamura92_ieice}\cite{takada1}\cite{nakaiwa},これらの研究に対して本研究の新しさは主に次のようなものである.\begin{itemize}\item従来の研究では代名詞などの指示対象の推定の際に意味的制約として意味素性が用いられてきたが,本研究では対照実験を通じて用例を意味素性と同様に用いることができることを示す.一般に意味素性つきの格フレームの方が用例つきの格フレームよりも作成コストがかかるので,用例を意味素性と同様に用いることができることがわかるだけでも有益である.\item連体詞形態指示詞の推定には意味的制約として「AのB」の用例を用いる.\item「この」が代行指示になりにくいという性質を利用して解析を行なう.\item指示詞による後方照応を扱っている.\item物語文中の会話文章の話し手と聞き手を推定することで,その会話文章中の代名詞の指示対象を推定する.\end{itemize}論文の構成は以下の通りである.\ref{wakugumi}節では,本研究の指示対象を推定する枠組について説明する.次に,その枠組で用いる規則について,\ref{sec:sijisi_ana}節,\ref{sec:pro_ana}節,\ref{sec:zero_ana}節で指示詞,代名詞,ゼロ代名詞の順に説明する.\ref{sec:jikken}節では,これらの規則を実際に用いて行なった実験とその考察を述べる.\ref{sec:owari}節で本研究の結論を述べる. \section{指示対象を推定する枠組} \label{wakugumi}本研究での指示詞・代名詞・ゼロ代名詞を含む名詞の指示対象の推定は,手がかりとなる複数の情報をそれぞれ規則にし,これらの規則を用いて指示対象の候補をあげながらその候補に得点を加えていき,合計点が最も高い候補を指示対象とすることによって実現した.これは,照応解析のように複雑な問題では複数の情報が絡み合っており,複数の情報を総合的に判断することにより解析を行なうためである.規則に応じて候補に得点を足していく操作は,その候補が指示対象であるという確信度が高まっていくことに対応している.\begin{figure}[t]\begin{center}\fbox{\begin{minipage}[c]{7cm}\hspace*{0.7cm}条件部$\Rightarrow$\{提案提案..\}\\[-0.1cm]\hspace*{0.7cm}提案:=(指示対象の候補\,得点)\end{minipage}}\caption{列挙判定規則の表現}\label{fig:kouho_rekkyo}\end{center}\end{figure}\begin{figure}[t]\begin{center}\fbox{\begin{minipage}[c]{6cm}\hspace*{1.5cm}条件部$\Rightarrow$(得点)\end{minipage}}\caption{判定規則の表現}\label{fig:kouho_hantei}\end{center}\end{figure}まず,解析する文章を\cite{csan2_ieice}の方法によって構文解析・格解析する.その結果に対して文頭から順に文節ごとにすべての規則を適用して指示対象を推定する.規則には,指示対象の候補をあげながら候補の良さを判定する列挙判定規則とその列挙された複数の候補すべてに対して適用する判定規則の二種類がある.列挙判定規則を図\ref{fig:kouho_rekkyo}に,判定規則を図\ref{fig:kouho_hantei}に示す.図中の「条件部」には,(i)文章中のあらゆる語とその分類語彙表\cite{bgh}の分類番号と,(ii)IPALの格フレーム\cite{ipal}の情報と,(iii)名詞の指示性の情報と,(iv)構文解析・格解析の結果の情報などを条件として書く.「指示対象の候補」には指示対象の候補とする単語の位置を書く.「得点」は指示対象としての適切さの度合を表す.指示対象の推定は条件を満足した規則により与えられる得点の合計点で行なう.まずすべての列挙判定規則を適用し得点のついた指示対象の候補を列挙する.このとき同じ候補を列挙する規則が複数あれば得点を加算する.次に列挙された指示対象の各候補に対してすべての判定規則を適用して,各候補ごとに得点を合計する.最も合計点の高い指示対象の候補を指示対象と判定する.最も合計点の高い指示対象の候補が複数個ある場合は,一番初めに出された\footnote{規則の適用順序に従う.ただし,\ref{sec:sijisi_ana}節以降で説明する規則の順と適用順序は異なる.}指示対象の候補を指示対象とする.代名詞などを解析するために列挙判定規則および判定規則をそれぞれ指示詞については51個と11個,代名詞については4個と6個,ゼロ代名詞については24個と4個作成した.以降,これらのうち主要なものを指示詞,代名詞,ゼロ代名詞の順に説明する. \section{指示詞の指示対象を推定するための規則} \label{sec:sijisi_ana}指示詞の解析のための規則は,\cite{seiho1}\cite{hyasi2}\cite{sijisi_nihongogaku}\cite{sijisi}などの文献を参考にしたり,実際の文章を調査することによって作成した.指示詞には名詞形態指示詞,連体詞形態指示詞,副詞形態指示詞の三つがある.以下にそれぞれの指示詞の解析をするための規則の説明を行なう.\begin{table}[t]\caption{主題の重み}\label{fig:shudai_omomi}\begin{center}\newcommand{\mn}[1]{}\begin{tabular}[c]{|@{}l@{}|@{}l@{}|@{}r@{}|}\hline\multicolumn{1}{|c|}{表層表現}&\multicolumn{1}{c|}{例}&\multicolumn{1}{c|}{重み}\\\hline{ガ格の指示詞・代名詞・ゼロ代名詞}&(\underline{太郎}が)した.&21\\\hline名詞は/には&\underline{太郎}はした.&20\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{焦点の重み}\label{fig:shouten_omomi}\begin{center}\newcommand{\mn}[1]{}\begin{tabular}[c]{|@{}l@{}|@{}l@{}|@{}r@{}|}\hline{表層表現(「は」がつかないもので)}&\multicolumn{1}{c|}{例}&重み\\\hline{ガ格以外の指示詞・代名詞・ゼロ代名詞}&(\underline{太郎}に)した.&16\\\hline{名詞が/も/だ/なら/こそ}&\underline{太郎}がした.&15\\\hline名詞を/に/,/.&\underline{太郎}にした.&14\\\hline名詞へ/で/から/より&\underline{学校}へ行く.&13\\\hline\end{tabular}\end{center}\end{table}\subsection{名詞形態指示詞の指示対象を推定するための規則}\label{sec:meishi_siji}\subsection*{\underline{名詞を指示対象の候補とする規則}}\noindent{\bf列挙判定規則1}\begin{indention}{0.8cm}\noindent名詞形態指示詞か「その/この/あの」の場合\\\{(同一文中か前文の重みが$w$で主題と焦点を合わせて数えて$n$個前の主題\,$w-n-2$)\\(同一文中か前文の重みが$w$で主題と焦点を合わせて数えて$n$個前の焦点\,$w-n+4$)\}\\この括弧式は,図\ref{fig:kouho_rekkyo}の規則の提案のリストを表わす.\\主題と焦点の定義と重みは表\ref{fig:shudai_omomi},表\ref{fig:shouten_omomi}のとおりである.\\指示詞の場合は,ゼロ代名詞の場合と異なり,既知情報の主題と照応するよりも未知情報の焦点と照応しやすいと考え,係数$-2$,$+4$をつけることによって,主題よりも焦点の方が指示対象になりやすくしている.\end{indention}\vspace{0.5cm}主題・焦点の重みや指示詞と指示対象の候補の間の距離に応じて,それぞれの候補の得点,すなわち,その候補の指示対象としての確からしさが変わる.\subsection*{\underline{事態(用言)を指示対象の候補とする規則}}\noindent{\bf列挙判定規則2}\begin{indention}{0.8cm}\noindent「それ/あれ/これ」や連体詞形態指示詞の場合\\\label{kore_mae}\{(前文,もしくは,指示詞の前方の同一文内に逆接接続助詞か条件形を含む用言がある場合はその用言\,$15$)\}\end{indention}\vspace{0.5cm}前文の事態を指示する例文として以下のものがある.\begin{equation}\begin{minipage}[h]{10cm}天狗達は間もなくやってきて,前の晩のように歌ったり踊ったりし始めました.\\おじいさんは\underline{それ}を見て,こんな風に歌い始めました.\end{minipage}\label{eqn:sore_mite_utau}\end{equation}この例の「それ」の指示対象は「天狗達が歌ったり踊ったりし始めた」という事態を指示している.また,前文の事態でなく,同一文内の逆接の接続助詞の存在する用言の表す事態を指示する場合として,次の例の「それ」がある.\begin{equation}\begin{minipage}[h]{10cm}おじいさんは一所懸命に歌い,そして踊りましたが,\underline{それ}は言葉では言い表せないほど下手糞でありました.\end{minipage}\label{eqn:sore_mite_heta}\end{equation}\begin{table}[t]\caption{名詞形態指示詞の場合に与える得点}\label{tab:hininshoudaimeisi_ruijido}\begin{center}\begin{tabular}[c]{|l|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|}\hline類似レベル&0&1&2&3&4&5&6&一致\\\hline得点&0&0&$-$10&$-$10&$-$10&$-$10&$-$10&$-$10\\\hline\end{tabular}\end{center}\vspace*{-1mm}\end{table}\begin{table}[t]\caption{分類語彙表の分類番号の変更}\label{tab:bunrui_code_change}\begin{center}\begin{tabular}[c]{|l|l|l|}\hline意味素性&分類語彙表の&変更後の\\&分類番号&分類番号\\\hlineANI(動物)&156&511\\[0cm]HUM(人間)&12[0-4]&52[0-4]\\[0cm]ORG(組織・機関)&125,126,127,128&535,536,537,538\\[0cm]PLA(植物)&155&611\\[0cm]PAR(生物の部分)&157&621\\[0cm]NAT(自然物)&152&631\\[0cm]PRO(生産物・道具)&14[0-9]&64[0-9]\\[0cm]LOC(空間・方角)&117,125,126&651,652,653\\[0cm]PHE(現象名詞)&150,151&711,712\\[0cm]ACT(動作・作用)&13[3-8]&81[3-8]\\[0cm]MEN(精神)&130&821\\[0cm]CHA(性質)&11[2-58],158&83[2-58],839\\[0cm]REL(関係)&111&841\\[0cm]LIN(言語作品)&131,132&851,852\\[0cm]その他&110&861\\[0cm]TIM(時間)&116&a11\\[0cm]QUA(数量)&119&b11\\[0cm]\hline\end{tabular}125,126については二つの分類番号が与えられる.\end{center}\end{table}\subsection*{\underline{指示詞は人を指しにくいという性質を利用した規則}}\noindent{\bf判定規則1}\begin{indention}{0.8cm}\noindent照応詞が名詞形態指示詞の場合で,指示対象の候補となった名詞が意味素性HUMを満足する時,$-10$点を与える.このとき指示対象の候補となった名詞の意味素性は名詞意味素性辞書\cite{imiso-in-BGH}のものを用いる.\end{indention}\vspace{0.5cm}\noindent{\bf判定規則2}\begin{indention}{0.8cm}\noindent照応詞が名詞形態指示詞の場合,指示対象の候補となった名詞の分類語彙表の分類番号と以下の人間を代表する分類語彙表の番号\{520000301052010020605202001020520200611552410021505244002100\}との類似レベルの最も大きいものにより得点を与える.与える得点は{表\ref{tab:hininshoudaimeisi_ruijido}}のとおりである.このとき用いる類似度計算には分類語彙表の分類番号を表\ref{tab:bunrui_code_change}に従って変換したものを用いる.この変更は,分類語彙表の分類番号の付け方が意味的に妥当でないところがあったためである.また,一桁目の数字に種類を設けたので,もとの分類番号よりも細かい分類となっている.\end{indention}\vspace{0.5cm}これらの規則は名詞形態指示詞で人を指すことがないという性質を用いることによって指示対象の候補を削減するためのものである.例えば,次の例文中の「それ」の指示対象は「コンピューター」であるが,「それ」の近くにある「コンピューター」以外の名詞は人を表すものしかなく,「それ」は人を指さないので,指示対象が「コンピューター」であることがわかる.\begin{equation}\begin{minipage}[h]{10cm}太郎は最新のコンピューターを買いました.\\ジョンに早速\underline{それ}を見せました.\end{minipage}\label{eqn:sore_new_computer}\end{equation}\subsection*{\underline{「ここ」「そこ」などは場所を指示しやすいという性質を利用した規則}}\noindent{\bf判定規則3}\begin{indention}{0.8cm}\noindent照応詞が「ここ/そこ/あそこ」の場合,指示対象の候補となった名詞が場所を意味する意味素性LOCを満足する時,$10$点を与える.\end{indention}\vspace{0.5cm}\noindent{\bf判定規則4}\begin{indention}{0.8cm}\noindent照応詞が「ここ/そこ/あそこ」の場合,指示対象の候補となった名詞の分類語彙表の分類番号と以下の場所を代表する分類語彙表の番号\{656300601065590050209113301090911330201064710010306314020130\}との類似レベルの最も大きいものにより得点を与える.与える得点は{表\ref{tab:bashomeisi_ruijido}}のとおりである.\end{indention}\vspace{0.5cm}例えば,次の例(\ref{eqn:soko_dekuwasu})の「そこ」の指示対象は,場所を表す名詞「売店」であることがわかる.\begin{equation}\begin{minipage}[h]{10cm}太郎が公園で本を読んでいました.\\コーラを買いに売店に入りました.\\次郎は\underline{そこ}で偶然,でくわしました.\end{minipage}\label{eqn:soko_dekuwasu}\end{equation}\begin{table}[t]\caption{場所を指示する指示詞の場合に与える得点}\label{tab:bashomeisi_ruijido}\begin{center}\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|}\hline類似レベル&0&1&2&3&4&5&6&一致\\\hline得点&$-$10&$-$5&0&5&10&10&10&10\\\hline\end{tabular}\end{center}\end{table}\subsection*{\underline{「ここで」「そこで」などが接続詞として用いられる場合の規則}}\noindent{\bf列挙判定規則3}\begin{indention}{0.8cm}\noindent「ここで/そこで」の場合\{(前文\,$11$)\}\end{indention}\vspace{0.5cm}この規則は,「ここで/そこで」が接続詞として用いられている場合,前文を指示すると解析するための規則である.場所を指す語が近くにない場合には,この規則によってあげられた候補が一番高い得点を持つことになり,接続詞として用いられていると解析できる.例えば,この規則により次の例文の「そこで」は接続詞として用いられていると判定できる.\begin{equation}\begin{minipage}[h]{10cm}歌い始めると,おじいさんは天狗が少しも怖くなくなってしまいました.\\\underline{そこで}おじいさんは隠れていた穴から出てきてしまいました.\end{minipage}\label{eqn:soko_ojiisan_kakureru}\end{equation}「そこで」を英語に翻訳する際には指示詞か接続詞であるかによって``there''か``then''に訳し分けをする必要があるが,このときこの規則が必要となる.\subsection*{\underline{後方照応の場合の規則}}名詞形態指示詞は,同一文内の後方照応をする場合がある.同一文内の後方照応をする場合については,他の形態指示詞も含めて文献\cite{matsuoka_nl}での方法から作成した規則により対処する.文献\cite{matsuoka_nl}では,名詞形態指示詞が同一文内の後方照応の他に次の文などを指示する場合も扱っているが,そのようになる場合はまれでありその規則を用いない方が精度が良いので本研究では使用していない.\subsection*{\underline{その他の規則}}以上で述べたもの以外に以下のような規則がある.\vspace{0.5cm}\noindent{\bf列挙判定規則4}\begin{indention}{0.8cm}\noindent「それ/あれ/これ」や連体詞形態指示詞の場合で,その指示詞の直前の文節に用言の基本形か「〜とか」などの例を列挙するような表現がある場合\\\{(用言の基本形か例を列挙するような表現\,$40$)\}\end{indention}\vspace{0.5cm}\noindent{\bf列挙判定規則5}\begin{indention}{0.8cm}\noindent指示詞の場合\\\{(個体を導入\,$10$)\}\\この規則は指示詞の指示対象が文章中にないときでも,システムになんらかのものを指示させるためのものである.この規則により個体を導入し,その個体を指示すると解析する.\end{indention}\subsection{連体詞形態指示詞の指示対象を推定するための規則}\label{sec:rentai}「この」「その」「あの」「こんな」「そんな」などの連体詞形態指示詞と呼ばれるものには限定指示と代行指示の二種類がある.限定指示とは,「連体詞形態指示詞+名詞」の形で指示するものであり,例えば,次の例の下線部の「この」のようなものである.\begin{equation}\begin{minipage}[h]{10cm}おじいさんは天狗達の前に出ていって踊り始めました.\\けれども\underline{このおじいさん}は歌も踊りも下手糞でした.\end{minipage}\label{eqn:kono_ojiisan_heta}\end{equation}この例では「このおじいさん」という一固まりで第一文の「おじいさん」を指示している.また,代行指示とは,連体詞形態指示詞の部分が指示対象を持つ用法であり,「その」ならば「それの」と置き換えて考えることができる.例えば,次の例では連体詞形態指示詞の「その」が「天狗」を指示しており,代行指示である.\begin{equation}\begin{minipage}[h]{10cm}また,烏の様な顔をした天狗も居ました.\\\underline{その}口はまるで鳥の嘴の様に尖っているのでした.\end{minipage}\label{eqn:sono_kuti}\end{equation}以下に限定指示,代行指示の場合のための規則を示す.\subsection*{\underline{限定指示の場合の規則}}\noindent{\bf列挙判定規則6}\begin{indention}{0.8cm}\noindent「その名詞A」の場合\\ソ系の連体詞形態指示詞+名詞Aの場合\\\{(名詞Aを部分文字列として含む名詞\,$45$)\\(重みが$w$で$n$個前\footnote{主題が何個前かを調べる方法は,主題だけを数えることによって行なう.主題がかかる用言の位置が今解析している文節よりも前の場合はその用言の位置にその主題があるとして数える.そうでない場合はそのままの位置で数える.}の主題で名詞Aの下位語の名詞\,$w-n*2+10$)\\(重みが$w$で$n$個前の焦点で名詞Aの下位語の名詞\,$w-n*2+10$)\}\\語の上位下位の関係の把握は,EDRの単語辞書\cite{edr_tango_2.1}の定義文の文末の単語をその単語の上位語とする方法\cite{tsurumaru91}で行なった.次に示すコ系に比べ,ソ系は比較的近くにあるものしか指さないので,第二項には係数$2$をつけている.\end{indention}\vspace{0.5cm}\noindent{\bf列挙判定規則7}\begin{indention}{0.8cm}\noindentコ系の連体詞形態指示詞+名詞Aの場合\\\{(名詞Aを部分文字列として含む名詞\,$45$)\\(重みが$w$で$n$個前の主題で名詞Aの下位語の名詞\,$w-n+30$)\\(重みが$w$で$n$個前の焦点で名詞Aの下位語の名詞\,$w-n+30$)\}\end{indention}\vspace{0.5cm}\noindent{\bf列挙判定規則8}\begin{indention}{0.8cm}\noindentア系の連体詞形態指示詞+名詞Aの場合\\\{(名詞Aを部分文字列として含む名詞\,$45$)\\(重みが$w$で$n$個前の主題で名詞Aの下位語の名詞\,$w-n*0.4+30$)\\(重みが$w$で$n$個前の焦点で名詞Aの下位語の名詞\,$w-n*0.4+30$)\}\end{indention}\vspace{0.5cm}上の三つの規則では「連体詞形態指示詞+名詞A」の近くに「名詞A」があれば,限定指示と解釈して「名詞A」を指示対象の候補とする.また,「連体詞形態指示詞+名詞A」の近くに「名詞A」の下位語があればそれらの間に照応関係が存在すると考えられるので,それも指示対象の候補とする.これらの規則には比較的大きな得点を与えている.下位語を指示する例として以下のものがある.\begin{equation}\begin{minipage}[h]{10cm}おじいさんは遠くの山のむこうに見えなくなってしまうまで,遠のいていく鶴の姿を見送るのでありました.\\「\underline{あの鳥}を助けてやってよいことをした」とおじいさんはひとりごとを言いました.\end{minipage}\label{eqn:ano_tori}\end{equation}この例では下線部の「あの鳥」がその前文にある下位語「鶴」を指示している.\begin{table}[t]\caption{ソ系の連体詞形態指示詞の場合に与える得点}\label{tab:sokei_meishi_anob_ruijido}\begin{center}\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|}\hline類似レベル&0&1&2&3&4&5&6&一致\\\hline得点&$-$10&$-$2&$-$1&0&1&2&3&4\\\hline\end{tabular}\end{center}\end{table}\subsection*{\underline{ソ系の連体詞指示詞が代行指示をする場合の規則}}\noindent{\bf判定規則5}\begin{indention}{0.8cm}\noindent照応詞がソ系の連体詞形態指示詞の場合,それが係る名詞Bの用例「名詞Aの名詞B」を検索し,名詞Aと指示対象の候補となった名詞の類似レベルにより得点を与える.与える得点は{表\ref{tab:sokei_meishi_anob_ruijido}}のとおりである.このとき用いる「名詞Aの名詞B」の用例はEDRの共起辞書\cite{edr_kyouki_2.1}のものを用いる.\end{indention}\vspace{0.5cm}この規則は代行指示の場合における意味的整合性を調べるための規則である.(代行指示の場合の指示対象の候補は\ref{sec:meishi_siji}節であげた列挙判定規則1によりあげられる.)代行指示の例として前にあげた例文\ref{eqn:sono_kuti}の下線部の「その」の指示対象は前文の「天狗」であるが,この規則では「天狗」と「その」が修飾している「口」の間の意味的整合性を調べるために「名詞Aの口」という用例を集め,この「名詞A」と意味的に近い場合は指示対象として適切であると判定する.たとえば,EDRの共起辞書\cite{edr_kyouki_2.1}には「名詞Aの口」という用例は表\ref{fig:meishi_A_kuti}だけある.\begin{table}[t]\caption{「名詞Aの口」の用例}\label{fig:meishi_A_kuti}\begin{center}\begin{tabular}[c]{|p{11.5cm}|}\hline名詞Aになるもの\\\hlineポリ袋ルポライター委員長一同家庭教師幹部関係者灸牛国民採用市民私自分周作就職庶民人世間青木赤ちゃん先生袋谷村担当者炭がま長日本人彼彼ら彼女被災者避難民負傷者兵兵隊弁護士母\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{ソ系以外の連体詞形態指示詞の場合に与える得点}\label{tab:akei_meishi_anob_ruijido}\begin{center}\begin{tabular}[c]{|l|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r|}\hline類似レベル&0&1&2&3&4&5&6&一致\\\hline得点&$-$30&$-$30&$-$30&$-$30&$-$10&$-$5&$-$2&0\\\hline\end{tabular}\end{center}\end{table}\bigskip\subsection*{\underline{ソ系以外の連体詞指示詞が代行指示をする場合の規則}}\noindent{\bf判定規則6}\begin{indention}{0.8cm}\noindent照応詞がソ系以外の連体詞形態指示詞の場合,それが係る名詞Bの用例「名詞Aの名詞B」を検索し,名詞Aと指示対象の候補となった名詞の類似レベルにより得点を与える.与える得点は{表\ref{tab:akei_meishi_anob_ruijido}}のとおりである.ソ系以外の連体詞形態指示詞は代行指示になりにくいという性質\cite{seiho1}\cite{yamamura92_ieice}があるので,ソ系の場合よりも得点を低く設定している.\end{indention}\bigskip\subsection*{\underline{事態を指示する場合の規則}}連体詞形態指示詞は名詞形態指示詞と同様に,前文の文末の用言が表す事態を指示する場合がある\footnote{事態を指示する場合でも代行指示か限定指示かの区別を行なう必要があるが,本研究ではこの区別は行なっていない.}.\newpage\begin{equation}\begin{minipage}[h]{10cm}つまり,人間の脳より優秀なパターン認識プログラムが作れない段階では,非常に複雑で面白そうな事象については,まずその画像を作って,そのデータを物理学者に吟味させる必要がある.\\1980年代の初頭にLEP実験装置の設計が始まった時,\underline{この戦略}が採用されたのだった.\end{minipage}\label{eqn:kono_senryaku}\end{equation}この例の「この戦略」の指示対象は前文の用言「吟味させる」が表す事態である.このように事態が指示対象となる場合の推定は,代行指示として「この」が指すものや限定指示として「この戦略」が指すものとして適正な名詞が「この」の近くにない場合,事態を指示するようにすることで実現する.ただし,連体詞形態指示詞の場合も名詞形態指示詞と同様に同一文内に逆接の接続助詞の存在する用言があれば,その用言の表す事態を指示するようにしている.以上のことは\ref{sec:meishi_siji}節の列挙判定規則2によって実現される.\subsection*{\underline{「こんな」+名詞を解析する場合の規則}}「こんな(名詞)」については次の文を指示対象とする場合がある.\begin{equation}\begin{minipage}[h]{10cm}おじいさんは急に天狗達と一緒に踊りたくなってきました.とうとうおじいさんは踊りだし,踊りながら\underline{こんな歌}を歌いました.「天狗,天狗,八天狗」\end{minipage}\label{eqn:konana_kouhou}\end{equation}例えば,上の例の「こんな歌」の指示対象は『「天狗,天狗,八天狗」』である.\begin{table}[t]\caption{「こんな(名詞)」が前文を指示するか後文を指示するかの調査結果}\label{fig:konna_meishi_joshi_tyosha}\begin{center}\begin{tabular}[c]{|l|c|c|c|c|c|c|c|c|c|c|c|c|c|c|}\hline「こんな(名詞)」&は&は&に&に&に&で&で&の&す&が&を&も&で&合\\につく助詞&&な&&も&は&&は&&ら&&&&は&計\\&&い&&&&&&&&&&&な&\\&&&&&&&&&&&&&い&\\\hline前文を指示(個)&9&5&17&1&2&15&5&9&2&27&43&2&0&137\\\hline後文を指示(個)&0&0&0&0&0&0&0&0&0&22&26&4&1&53\\\hline\end{tabular}\end{center}\end{table}ところが,「こんな(名詞)」という手がかりだけでは前方照応か後方照応かを判定することができない.そこで,「こんな(名詞)」につく助詞によって前方か後方かの判定を行なうために,1986,1987年の天声人語と社説の約6万文から317個の「こんな」を含む部分を抽出し,そのうち前文か後文を指示対象とする場合の「こんな(名詞)」190個について前文,後文を指す個数を数えた.この結果を表\ref{fig:konna_meishi_joshi_tyosha}に示す.この表により,未知情報を表現する時に用いられやすい助詞「が」「を」などがつく場合以外は,前方照応であることがわかる.助詞「が」「を」がつく場合は,文献\cite{matsuoka_nl}の方法と同様に引用記号の``「''``」''がついている文が指示対象になりやすいなどの規則によって指示対象を推定する.\subsection{副詞形態指示詞の指示対象を推定するための規則}\subsection*{\underline{ソ系の副詞形態指示詞が前文を指示する場合の規則}}\noindent{\bf列挙判定規則9}\begin{indention}{0.8cm}\noindent「そう」などのソ系の副詞形態指示詞の場合\\\{(前文\,$30$)\}\end{indention}例文として,以下のものがある.\begin{equation}\begin{minipage}[h]{10cm}「天狗,天狗,八天狗」\\\underline{そう}歌ったのは数えてみますとそこに八匹の天狗が居たからです.\end{minipage}\label{eqn:sono_utau}\end{equation}例えば,この例の「そう」の指示対象は前文の『「天狗,天狗,八天狗」』である.\subsection*{\underline{ソ系の副詞形態指示詞が文内後方照応をする場合の規則}}\noindent{\bf列挙判定規則10}\begin{indention}{0.8cm}\noindent「そう/そうして/そのように」の場合で,それらが存在する文が逆接の接続助詞か助動詞「ように」を持つ従属節である場合\{(主節\,$45$)\}\\この規則は\cite{matsuoka_nl}の方法を利用したものである.\end{indention}\subsection*{\underline{コ系の副詞形態指示詞が前文を指示する場合の規則}}\noindent{\bf列挙判定規則11}\begin{indention}{0.8cm}\noindent「こう」などのコ系の副詞形態指示詞の場合\\\{(前文\,$25$)\}\end{indention}\vspace{0.5cm}\subsection*{\underline{コ系の副詞形態指示詞が後ろの文を指示する場合の規則}}\noindent{\bf列挙判定規則12}\begin{indention}{0.8cm}\noindentコ系の副詞形態指示詞の解析の場合\\\{(後の文\,$26$)\}\end{indention}\vspace{0.5cm}コ系の副詞形態指示詞については次の文を指示対象とする後方照応をする場合がある.\begin{equation}\begin{minipage}[h]{10cm}天狗達は暫くおじいさんを見ていましたが,天狗達はとうとう\underline{こう}言いました.\\「今日のお前は駄目だな.\\どうして昨日の様に歌ったり,昨日の様に踊ったりできないのだ.\\さあ,これを返してやるから家へ帰ってしまえ.」\end{minipage}\label{eqn:kou_iu}\end{equation}上の例の「こう」の指示対象は次の文以降の発話である.前方照応となる場合は文の形が「こうして」「こうすれば」などのように典型的な形になるのでこのような場合は前方照応とし,これら以外の場合を後方照応とみなす.このための規則として次の規則を作成した.\vspace{0.5cm}\noindent{\bf列挙判定規則13}\begin{indention}{0.8cm}\noindent「こう/こんなふうに」+条件節もしくは「こうして」の場合で,文末でない場合\\\{(前文\,$7$)\}\end{indention} \section{代名詞の指示対象を推定するための規則} \label{sec:pro_ana}\noindent{\bf列挙判定規則1}\begin{indention}{0.8cm}\noindent一人称の代名詞の場合\{(一人称\,$25$)\}\end{indention}\vspace{0.5cm}\noindent{\bf列挙判定規則2}\begin{indention}{0.8cm}\noindent二人称の代名詞の場合\{(二人称\,$25$)\}\end{indention}\vspace{0.5cm}一人称,二人称の代名詞はほとんど会話文章中にあらわれ,会話文章中の一人称(話し手),二人称(聞き手)をあらかじめ推定しておくことで,ほぼ確実に推定することができる.会話文章の話し手や聞き手の推定は,その会話文章の発話動作を表す用言のガ格とニ格をそれぞれ話し手,聞き手とすることによって行なう.会話文章の発話動作を表す用言は,その会話文章に「と言った.」などがつけばそれとし,そうでない場合は前文の文末の用言とする\footnote{実際にはこのような方法では発話動作を表す用言の推定を誤ることがあるが,本論文で用いたテキストではこの方法ですべて正しく解析できた.}.例えば,次の文章中の二人称の代名詞「お前さん」の指示対象は,この会話文の二人称の「おじいさん」である.\begin{equation}\begin{minipage}[h]{10cm}「明日,また(おじいさんが)参りますよ.」とおじいさんは約束しました.\\「もちろん,\underline{お前さん}を(一匹の天狗が)疑う訳ではないのだが」と,一匹の天狗が\underline{おじいさんに}言いました.\end{minipage}\label{eqn:ojiisan_mairu_omae}\end{equation}この会話文の二人称が「おじいさん」であることは,その会話文の発話動作を表す動詞「言う」のニ格が「おじいさん」であることから求まる.\vspace{0.5cm}\noindent{\bf列挙判定規則3}\begin{indention}{0.8cm}\noindent三人称の代名詞の場合\{(一人称\,$-10$)(二人称\,$-10$)\}\end{indention}\vspace{0.5cm}一般の代名詞については以下の三つの規則で解析される.列挙判定規則4により,主題・焦点と代名詞と先行詞の距離を考慮して,優先順序を持った候補群をあげ,判定規則1,判定規則2により人間である候補の得点を高くする.\begin{table}[t]\caption{人称代名詞の場合に与える得点}\label{tab:ninshoudaimeisi_ruijido}\begin{center}\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|}\hline類似レベル&0&1&2&3&4&5&6&一致\\\hline得点&0&0&3&7&10&10&10&10\\\hline\end{tabular}\end{center}\end{table}\vspace{0.5cm}\noindent{\bf列挙判定規則4}\begin{indention}{0.8cm}\noindent代名詞の場合\\\{(同一文中か前文の重みが$w$で主題と焦点を合わせて数えて$n$個前の主題\,$w-n-2$)\\(同一文中か前文の重みが$w$で主題と焦点を合わせて数えて$n$個前の焦点\,$w-n+4$)\}\end{indention}\vspace{0.5cm}\noindent{\bf判定規則1}\begin{indention}{0.8cm}\noindent照応詞が代名詞の場合で,指示対象の候補となった名詞が意味素性HUMを満足する時,$10$点を与える.\end{indention}\vspace{0.5cm}\noindent{\bf判定規則2}\begin{indention}{0.8cm}\noindent照応詞が代名詞の場合で,指示対象の候補となった名詞の分類語彙表の分類番号と以下の人間を代表する分類語彙表の番号\{520000301052010020605202001020520200611552410021505244002100\}との類似レベルの最も大きいものにより得点を与える.得点は{表\ref{tab:ninshoudaimeisi_ruijido}}のとおりである.\end{indention} \section{ゼロ代名詞の指示対象を推定するための規則} \label{sec:zero_ana}\subsection*{\underline{一般のゼロ代名詞の指示対象の候補をあげるための規則}}\noindent{\bf列挙判定規則1}\begin{indention}{0.8cm}\noindentガ格の省略の場合のデフォルト規則\\\{(重みが$w$で$n$個前の主題\,$w-n*2$+1)\\(重みが$w$で$n$個前の焦点\,$w-n$+1)\\(今解析している節と並列の節の主格\,25)\\(今解析している節の従属節か主節の主格\,23)\\(今解析している節が埋め込み文の場合で主節の主格\,22)\}\end{indention}\newpage\vspace{0.5cm}\noindent{\bf列挙判定規則2}\begin{indention}{0.8cm}\noindentガ格以外の省略の場合のデフォルト規則\\\{(重みが$w$で$n$個前の主題\,$w-n*2-3$)\\(重みが$w$で$n$個前の焦点\,$w-n*2+1$)\}\end{indention}\vspace{0.5cm}主題・焦点の重みや指示詞と指示対象の候補の間の距離に応じて,それぞれの候補の得点が変わる.\subsection*{\underline{複文の解析のための規則}}\noindent{\bf列挙判定規則3}\begin{indention}{0.8cm}\noindent複文での主格の不一致の条件となる接続助詞「ので」「ならば」が含まれる文で,主節(もしくは従属節)のガ格が省略されていて,従属節(もしくは主節)の主格が省略されずに存在してその主格につく助詞が「が」の場合,\\\{(従属節(もしくは主節)の主格\,$-30$)\}\end{indention}\vspace{0.5cm}複文でのガ格の省略の場合,列挙判定規則1により主節か従属節に省略されていないガ格の名詞があれば,それを他方に補完することを行なう.ただし,従属節の接続助詞によっては主節と従属節の主格が一致しないということが知られており\cite{minami}\cite{yoshimoto}\cite{hirai}\cite{nakaiwa},このような接続助詞の場合は主節と従属節の主格を他方に補完するということは行なわない.列挙判定規則3は,このための規則である.\subsection*{\underline{用言との意味関係を利用した規則}}\noindent{\bf判定規則1}\begin{indention}{0.8cm}\noindent指示対象の候補となった名詞が格フレームの格要素の意味素性を満足しない時,$-5$点を与える.\end{indention}\vspace{0.5cm}\noindent{\bf判定規則2}\begin{indention}{0.8cm}\noindent指示対象の候補となった名詞と格フレームの格要素の用例の名詞との類似レベルにより得点を与える.与える得点は{表\ref{tab:yourei_ruijido}}のとおりである.\end{indention}\vspace{0.5cm}\begin{table}[t]\caption{用言との意味関係から与える得点}\label{tab:yourei_ruijido}\begin{center}\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|}\hline類似レベル&0&1&2&3&4&5&6&一致\\\hline得点&$-$10&$-$2&1&2&2.5&3&3.5&4\\\hline\end{tabular}\vspace{-0.8mm}\end{center}\end{table}\clearpageこの二つの規則はゼロ代名詞の解析においてそのゼロ代名詞を格要素にとる用言との意味的整合性を調べるための規則である.判定規則1は,意味素性により意味的整合性を調べるもので,判定規則2は,用例を利用して意味的整合性を調べるものである.意味的整合性の調べ方を図\ref{fig:datousei_hantei_rei}の例文のゼロ代名詞を例にして説明する.\begin{figure}[t]\begin{center}\fbox{\begin{minipage}[c]{8cm}\underline{おじいさん}は地面に腰を下ろしました.\\やがて(\underline{おじいさんは})眠ってしまいました.\\\begin{tabular}[c]{lll}{\bf意味素性}&HUM/ANIが&眠る.\\{\bf用例}&彼/犬が&眠る.\\\end{tabular}\end{minipage}}\caption{意味的整合性の調べ方の例}\label{fig:datousei_hantei_rei}\end{center}\end{figure}意味素性による方法では,指示対象の候補となった名詞が指示対象として妥当であるための条件は,その名詞に付けられた意味素性の一つが動詞の格フレームに記述された意味素性と同一もしくは下位の意味素性であることとする.例えば,図\ref{fig:datousei_hantei_rei}のゼロ代名詞に対しては動詞「眠る」のガ格の意味素性がHUM/ANI\footnote{HUM,ANIはそれぞれ人間(\underline{HUM}AN),動物(\underline{ANI}MAL)を表す意味素性である.``/''は``または''を表す.}であり「おじいさん」がHUMであることから,「おじいさん」は指示対象として妥当とする.また,用例による判定方法では,指示対象の候補となった名詞と,動詞の格フレームに記述された名詞の用例とが意味的に類似していればその類似度に応じてその名詞は指示対象として妥当であるとする.例えば,図\ref{fig:datousei_hantei_rei}の省略部分に対しては動詞「眠る」のガ格の用例が「彼/犬」であり「おじいさん」と「彼」が意味的に近いことから「おじいさん」は指示対象として妥当とする.この用言との意味関係を用いた判定方法は,指示詞や代名詞の指示対象の推定にも用いた.\subsection*{\underline{同一用言の複数の格要素に同じ要素が入りにくいという性質を利用した規則}}\noindent{\bf列挙判定規則4}\begin{indention}{0.8cm}\noindent今求める省略要素を格要素に持つ用言の他の格要素に名詞Aがすでに入っている場合,\{(名詞A\,$-20$)\}\end{indention}\subsection*{\underline{視点を利用した規則}}\noindent{\bf列挙判定規則5}\begin{indention}{0.8cm}\noindent「くれる」「くださる」が補助動詞としてつく用言のガ格の省略の場合でニ格に省略がある場合はニ格を先に解析し,ガ格の省略に対しては\{(省略部分を埋めない\,$-5$)\}\\この規則は視点の理論\cite{kameyama1}を利用したものである.「くれる」「くださる」が補助動詞としてつく用言の場合は,共感度の高いニ格の解析を先に行なうことによって主題などの共感度の高い名詞がニ格の格要素に入り,残ったものがガ格の格要素に入ることになる.\end{indention}\subsection*{\underline{会話文章中のゼロ代名詞のための規則}}\noindent{\bf列挙判定規則6}\begin{indention}{0.8cm}\noindent会話文章中で「やる」「したい」「行く」などの一人称がガ格に入りやすい用言のガ格の省略の場合,\{(一人称\,$5$)\}\end{indention}\vspace{0.5cm}\noindent{\bf列挙判定規則7}\begin{indention}{0.8cm}\noindent会話文章中で「くれる」「なさる」「来る」などの二人称がガ格に入りやすい用言か命令表現か疑問表現を文末に持つ文中のガ格の省略の場合,\{(一人称\,$-30$)(二人称\,$25$)\}\end{indention}\vspace{0.5cm}\noindent{\bf列挙判定規則8}\begin{indention}{0.8cm}\noindent会話文章中のガ格の省略の場合,\{(一人称\,$15$)\}\end{indention}\vspace{0.5cm}会話文章中でのゼロ代名詞の解析では,文末表現などからその動詞の省略された格要素の指示対象に入るべき人称を推定できる場合がある.このような場合は,その会話文章の一人称と二人称を推定することで代名詞と同様に会話文章中でのゼロ代名詞の解析を行なうことができる\footnote{工藤\cite{kudou93_ieice}は文末表現から対話コーパス中のゼロ代名詞の人称を推定しているが,本研究は物語文内の会話文章を対象としており,各発話文の話し手と聞き手を推定する必要があるという点で異なる.}.例えば,次の会話文は,「言う」のガ格とニ格から一人称は「天狗達」で二人称は「おじいさん」である.\begin{equation}\begin{minipage}[h]{10cm}天狗達はとうとうこうおじいさんに言いました.\\「今日のお前は駄目だな.\\さあ,これを\underline{(天狗達が)}\underline{(おじいさんに)}返してやるから家へ\underline{(おじいさんが)}帰ってしまえ.」\end{minipage}\label{eqn:ojiisan_omae_dame}\end{equation}「返してやる」のガ格の省略部分の指示対象は,「返してやる」に補助動詞「やる」がついていることから一人称の「天狗達」であることがわかる.「返してやる」のニ格の省略部分の指示対象も,補助動詞「やる」から二人称の「おじいさん」と判定できる.「帰ってしまえ」のガ格の省略部分の指示対象は,命令表現から二人称の「おじいさん」と判定できる.\subsection*{\underline{その他の規則}}\noindent{\bf列挙判定規則9}\begin{indention}{0.8cm}\noindent「AをBだと言う/思う」における「Bだ」のガ格の省略の場合,\{(名詞A\,$50$)\}\end{indention}\begin{figure}[t]\begin{center}\fbox{\begin{minipage}[h]{12.5cm}\smallskipドル相場は,米新政権の経済政策に対する期待の高まりなどから130円台に上昇した.\underline{このドル高}は,米国と欧州各国との間の政策協調をぎくしゃくさせている.\vspace{0.5cm}\begin{tabular}[h]{|l|r|r|r|r|r|}\hline規則&\multicolumn{5}{|c|}{各候補の得点(点)}\\\hline&前文&個体を導入&130円台&高まり&ドル相場\\\hline列挙判定規則2&15&&&&\\[-0.1cm]列挙判定規則5&&10&&&\\[-0.1cm]列挙判定規則1&&&17&15&15\\[-0.1cm]判定規則6&&&$-30$&$-30$&$-30$\\\hline合計&15&10&$-13$&$-15$&$-15$\\\hline\end{tabular}\smallskip\end{minipage}}\caption{指示詞「この」の指示対象の推定例}\label{tab:dousarei}\end{center}\end{figure} \section{実験と考察} \label{sec:jikken}\subsection{実験}指示対象の推定を行なう前に構文解析・格解析を行なうが,その際の誤りは人手で修正した.格フレームはIPALの辞書のものを用いたが,IPALの辞書にない用言に対しては人手で格フレームを作成した.指示詞「この」の指示対象を推定した例を図\ref{tab:dousarei}に示す.これは図中の下線部の「このドル高」の指示対象を前文全体を指すと正しく解析したことを示している.これを以下に説明する.まず,\ref{sec:sijisi_ana}節で示した指示詞の列挙判定規則2により前文を指示対象とする「前文」という候補があげられ,それに15点が与えられる.また,列挙判定規則5により「個体を導入」という候補があげられ,それに10点が与えられる.さらに,列挙判定規則1により,主題と焦点から「130円台」「高まり」「ドル相場」という候補があげられ,これらの候補にはそれぞれ17,15,15点の得点が与えられる.これらの候補に対して判定規則6を適用してみる.判定規則6は「(名詞A)の(名詞B)」の用例を利用する規則であり,この場合は「(名詞A)のドル高」という用例を利用する.この用例の「(名詞A)」の部分に来る名詞はEDRの共起辞書では「最近」しかなく,この「最近」との分類語彙表での類似レベルは「130円台」「高まり」「ドル相場」ともに低く,それぞれには表\ref{tab:akei_meishi_anob_ruijido}より$-30$点が与えられる.「前文」と「特定指示として導入」は名詞でないので,この判定規則により得点を与えられることはない.この結果,合計点の最も高い「前文」という候補が指示対象と正しく推定される.\begin{table*}[t]\caption{本研究の実験結果}\label{tab:sougoukekka}\fbox{\begin{minipage}[h]{14cm}\smallskip\begin{center}\begin{tabular}[c]{|l|r|r@{}c|r@{}c|r@{}c|r@{}c|}\hline\multicolumn{1}{|p{2cm}|}{テキスト}&\multicolumn{1}{|l|}{文数}&\multicolumn{2}{c|}{指示詞}&\multicolumn{2}{c|}{代名詞}&\multicolumn{2}{c|}{ゼロ代名詞}&\multicolumn{2}{c|}{合計}\\\hline学習サンプル&204&87\%&(41/47)&100\%&(9/9)&86\%&(177/205)&87\%&(227/261)\\\hlineテストサンプル&184&86\%&(42/49)&82\%&(9/11)&76\%&(159/208)&78\%&(210/268)\\\hline\end{tabular}\end{center}各規則で与える得点は学習サンプルにおいて人手で調節した.学習サンプルは,例文(43文),童話「こぶとりじいさん」全文(93文)\cite{kobu},天声人語一日分(26文),社説半日分(26文),サイエンス(16文)であり,テストサンプルは,童話「つるのおんがえし」前から91文抜粋\cite{kobu},天声人語二日分(50文),社説半日分(30文),サイエンス(13文)である.\end{minipage}}\end{table*}\begin{table*}[t]\begin{center}\caption{指示詞の実験結果の内訳}\label{tab:sijisi_kekka}\begin{tabular}[c]{|l|r|r@{}c|r@{}c|r@{}c|r@{}c|}\hline\multicolumn{1}{|p{2cm}|}{テキスト}&\multicolumn{1}{|l|}{文数}&\multicolumn{2}{c|}{名詞形態}&\multicolumn{2}{c|}{連体詞形態}&\multicolumn{2}{c|}{副詞形態}&\multicolumn{2}{c|}{すべての指示詞}\\\hline学習サンプル&204&83\%&(15/18)&86\%&(19/22)&100\%&(7/7)&87\%&(41/47)\\\hlineテストサンプル&184&82\%&(14/17)&88\%&(23/26)&83\%&(5/6)&86\%&(42/49)\\\hline\end{tabular}\end{center}\end{table*}本研究による方法で指示詞,代名詞,ゼロ代名詞の指示対象を解析した実験結果を表\ref{tab:sougoukekka}に示す.また,指示詞の実験結果について名詞形態,連体詞形態,副詞形態指示詞の内訳を表\ref{tab:sijisi_kekka}に示す.指示詞の解析において,指示対象が文になる場合で,前の数文もしくは後ろの数文が指示対象となる場合は,その範囲まで推定できなくても,指示対象が前方の文か後方の文かの判定を行なうことができれば正解とした.これは指示対象の範囲の推定は,原因--結果,例提示などの文の間の関係を解析した後でするべきであると考えるためである.また,ゼロ代名詞の解析精度は指示対象が存在するか否かがあらかじめわかっていると仮定して解析した時の精度である.\subsection{考察}指示詞については,正解率はテストサンプルにおいても80\%を越えたので,本システムで用いた規則は有効であることがわかる.しかし,指示詞は種類が多いのでより詳細に規則を作成することでさらに高精度に解析できる可能性がある.また,本研究では「この」が代行指示になりにくいという性質を利用したが,これを利用したために正しく解析できた例が4例あった.代名詞については,今回の実験テキストにおいて一人称と二人称の代名詞しか出現しなかったので,その代名詞が存在する会話文の一人称と二人称を推定することでほぼ正確に推定できた.代名詞の解析において誤った主な原因は,「言う」のニ格のゼロ代名詞の解析を誤り会話文の二人称の推定を誤ったためであった.ゼロ代名詞の解析誤りとしては,分類語彙表,意味素性辞書,格フレーム辞書に誤りがあるために誤ったものや,統語構造や補助表現から指示対象が推測できるのに規則が不十分なために誤ったものがあった.また,理解や推論が必要なために誤ったものとして次のものがあった.\begin{equation}\begin{minipage}[h]{10cm}そんな状況なのに,ワシントンで開かれる主要先進7カ国の蔵相中央銀行総裁会議(G7)について各国の通貨当局は「大きな問題はないので共同コミュニケは出ない.顔合わせ中心の会合だ」と,まるで会議の意義を薄めようとしているような言い方だ.\\(中略)\\米新政権は近く,財政赤字削減の具体的構想を議会に示す予定である.\\(段落替え)\\\underline{(通貨当局が)}共同コミュニケの発表を控えるのは,為替市場に過大な期待を与えたくないためだろう.\end{minipage}\label{eqn:data_bgh_notamae}\end{equation}この例の「控える」のガ格の省略部分の指示対象は「各国の通貨当局」である.しかし,システムは「米新政権」を誤って指示対象と解析した.この指示対象を正しく解析できるようにするためには,そこまでの文章から共同コミュニケの発表を控えるものが通貨当局であることを理解しておく必要がある.\subsection{対照実験}\label{sec:taishojikken}\begin{table*}[t]\caption{意味素性と用例の対照実験の結果}\begin{center}\label{tab:yourei_taishou}\begin{tabular}[c]{|@{}l@{}|@{}r@{}c@{}|@{}r@{}c@{}|@{}r@{}c@{}|@{}r@{}c@{}|@{}r@{}c@{}|}\hline\multicolumn{1}{|c|}{テキスト}&\multicolumn{2}{@{}p{2cm}@{}|}{用例と意味素性の両方を用いる}&\multicolumn{2}{@{}p{2cm}@{}|}{意味素性のみを用いる}&\multicolumn{2}{@{}p{2cm}@{}|}{用例のみを用いる(分類語彙表の分類番号の変更)}&\multicolumn{2}{@{}p{2cm}@{}|}{用例のみを用いる(分類語彙表の分類番号のまま)}&\multicolumn{2}{@{}p{2cm}@{}|}{意味素性と用例の両方を用いない}\\\hline\multicolumn{11}{|c|}{指示詞}\\\hline学習サンプル&87\%&(41/47)&83\%&(39/47)&87\%&(41/47)&83\%&(39/47)&79\%&(37/47)\\\hlineテストサンプル&86\%&(42/49)&88\%&(43/49)&88\%&(43/49)&84\%&(41/49)&86\%&(42/49)\\\hline\multicolumn{11}{|c|}{代名詞}\\\hline学習サンプル&100\%&(9/9)&100\%&(9/9)&100\%&(9/9)&100\%&(9/9)&89\%&(8/9)\\\hlineテストサンプル&82\%&(9/11)&64\%&(7/11)&82\%&(9/11)&55\%&(6/11)&64\%&(7/11)\\\hline\multicolumn{11}{|c|}{ゼロ代名詞}\\\hline学習サンプル&86\%&(177/205)&83\%&(171/205)&86\%&(176/205)&82\%&(169/205)&66\%&(135/205)\\\hlineテストサンプル&76\%&(159/208)&76\%&(158/208)&79\%&(164/208)&75\%&(155/208)&63\%&(131/208)\\\hline\end{tabular}\end{center}\end{table*}指示詞と代名詞とゼロ代名詞の解析において判定規則として用例を用いる規則と意味素性を用いる規則とを用いるが,これらの有効性を調べるために表\ref{tab:yourei_taishou}にあげる対照実験を行なった.ここでいう用例を用いる規則は指示詞の判定規則2,4,代名詞の判定規則2およびゼロ代名詞の判定規則2とそれに対応する指示詞・代名詞の判定規則を意味する.また,意味素性を用いる規則は指示詞の判定規則1,3,代名詞の判定規則1およびゼロ代名詞の判定規則1とそれに対応する指示詞・代名詞の判定規則を意味する.「名詞Aの名詞B」の用例を用いる規則には対応する意味素性を用いる規則がないので,この対照実験ではすべての場合でこの規則を用いた.推定精度は表\ref{tab:yourei_taishou}のように用例を用いる方法と意味素性を用いる方法とは同程度であった.このことにより,意味素性と同様に用例を用いることができることがわかった.また,分類語彙表においては分類番号の付け方が意味的に妥当でないところがあったため分類番号を変更したが,分類番号を変更したものの方が分類語彙表の分類番号のままのものより精度が良く,妥当な変更であることが確認できた.実験結果を考察すると用例による方法では格フレームの記述から外れた表現に対しても有効な場合があった.例えば,「言う」のニ格には人間しか入らないように格フレームに書いてあるので,意味素性による方法では次の例のニ格の省略部分には鶴を補うことができない.\begin{equation}\begin{minipage}[h]{10cm}おじいさんは鶴をはなしてやりながら(鶴に)言いました.\end{minipage}\label{eqn:turu_hanasu}\end{equation}しかし,用例による方法では人間と動物は表\ref{tab:bunrui_code_change}により類似レベルが1で減点が小さく鶴をニ格に補うことができる.\subsection{各規則の貢献度}本研究では様々な規則を使用したが,それぞれの規則の正解への貢献度の考察を行なった.ゼロ代名詞の解析では表層の手がかりが少ないので,動詞との意味的整合性の情報が重要になる.一方,指示詞の場合は,表層の手がかりが多く,また,指示詞であるということから人を指しにくいとわかり,動詞との意味的整合性の情報はあまり重要でなくなる.また,指示詞は,それぞれ詳細に規則化する必要があり,すべての規則が必須かつ重要である.一人称,二人称の代名詞は話し手と聞き手を把握して解析する規則が有効である.また,会話文章において話し手と聞き手を把握することで代名詞やゼロ代名詞の指示対象を推定する規則を作成していたが,これらの規則は会話文章がよく現れる童話で有効であった. \section{おわりに} \label{sec:owari}本論文では指示詞・代名詞・ゼロ代名詞の指示対象を推定するために既存の手法の整理,および,新しい手法の提案を行なった.その結果を用いて実際に解析を行なったところ,指示詞・代名詞・ゼロ代名詞の指示対象を学習サンプルにおいて87\%の正解率で,テストサンプルにおいて78\%の正解率で,推定することができた.また,対照実験を通じて意味的制約として意味素性と同様に用例を用いることができることがわかった.\acknowledgment本研究において有意義な議論をいただいた黒橋禎夫氏に感謝いたします.最後に、本研究および実験に関して援助して下さった松岡正男氏をはじめとする長尾研究室の皆様に感謝します。\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部電気工学第二学科卒業.1995年同大学院修士課程修了.同年,同大学院博士課程進学,現在に至る.自然言語処理,機械翻訳の研究に従事.}\bioauthor{長尾真}{1959年京都大学工学部電子工学科卒業.工学博士.京都大学工学部助手,助教授を経て,1973年より京都大学工学部教授.国立民族学博物館教授を兼任(1976.2〜1994.3).京都大学大型計算機センター長(1986.4--1990.3),日本認知科学会会長(1989.1--1990.12),パターン認識国際学会副会長(1982--1984),日本機械翻訳協会初代会長(1991.3--1996.6),機械翻訳国際連盟初代会長(1991.7--1993.7).電子情報通信学会副会長(1993.5--1995.4).情報処理学会副会長(1994.5--1996.4).京都大学附属図書館長(1995--).パターン認識,画像処理,機械翻訳,自然言語処理等の分野を並行して研究.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V15N01-02
\section{はじめに} 手話はろう者の間で生まれ広がった自然言語であり,ろう者にとっての第一言語である\cite{Yonekawa2002}.そのため手話による情報アクセスやサービスの提供はろう者の社会参加にとって重要であるが,手話通訳者は不足しており,病院や職場,学校などで手話通訳を必要とする人々に十分な通訳サービスが提供されているとはいえない.これらを支援するシステムの実現が期待されている.音声言語では機械翻訳をはじめとして,言語活動を支援するさまざまの自然言語処理技術が研究開発されている.ところが,手話はこれまで自然言語処理の領域では研究対象としてほとんど取り上げられていない.手話には広く一般に受け入れられた文字による表現(テキスト表現)が存在しないため,これまでのテキストを対象とした自然言語処理技術が手話に対して適用できないことがその要因としてあげられる.そこで我々は,手話言語をテキストとして書き留める方法について検討し,「日本語援用手話表記法」を提案した\cite{Matsumoto2006,Matsumoto2005c,Ikeda2006,Matsumoto2004a,Matsumoto2004b,Matsumoto2005a,Matsumoto2005b}.本論文では,この表記法で表現された手話を目的言語とする日本語—手話機械翻訳システムについて述べる.手話テキストから手話動画像等への変換(音声言語におけるテキスト音声合成に相当する)もまた大きな課題であるが,本論文ではこの課題は扱わない.手話のテキスト表現を導入したことにより,手話テキストから手話動画像等への変換を,テキスト音声合成の問題と同じように,本研究とは別の一つの大きな問題領域としてとらえることができる.このように音声言語の翻訳の場合と同じように翻訳過程を二つの領域にモジュール化することによって,手話の翻訳の問題が過度に複雑になることを避けることができる.\nocite{Matsumoto2005a,Matsumoto2005b,Matsumoto2004a,Matsumoto2004b}\ref{sec:JSL}節で述べるように日本の手話には日本手話と日本語対応手話および中間型手話がある.これらの間には必ずしも明確な境界があるわけではないが,本論文で対象として念頭に置いているのは日本手話である.日本手話は日本語の影響を強く受けているものの,日本語とは別の言語である.語彙は日本語と1対1に対応しておらず,文法的にも独自の体系を持っている.例えば,日本語において内容語に後置される機能語や前置される修飾語が,手話では独立した単語としてではなく,内容語を表す手の動きや位置の変化(内容語の語形変化),顔の表情などによって表現される場合がある.また,動詞の主語・目的語・道具などの内容語も,動詞を表す手の形や動きの変化として動詞の中に組み込まれる場合がある.したがって,日本手話への翻訳は単に日本語の単語を手話単語に置き換えるだけでは不十分であり,外国語への翻訳と同等の仕組みが必要となる.本研究では,日本語から種々の言語への翻訳を目的として開発が進められているパターン変換型機械翻訳エンジンjaw\cite{Shie2004}を核とし,手話に対する計算機内部での表現構造,日本語から手話表現構造への翻訳規則,表現構造から手話テキストへの線状化関数を与えることにより,日本語から手話への機械翻訳システムjaw/SLの作成を試みた.以下,2節では目的言語である手話と,我々が定義した手話表記法の概略を述べる.3節で機械翻訳エンジンjawの翻訳方式について,4節で手話を目的言語とした翻訳システムjaw/SLについて述べ,5節で翻訳実験と現状の問題点について述べる. \section{手話とそのテキスト表現} \subsection{手話について}\label{sec:JSL}手話は手の形,位置,動き,顔の表情など複数の要素を組み合わせて意味を伝達する言語である.各要素をパラメータのように変化させることによっても様々な意味が表現される.身体だけでなく,話者の周りの空間も文法的に利用される.日本手話は日本のろう者の間で使われている手話言語である.手話通訳に期待される事柄についての調査\cite{Shirasawa2002}において,「頭の中で日本語を考えなくてもよく,手話として自然に頭に入ってくること」,「(日本語の)口話に頼らなくても十分に内容が伝わってくること」,「日本語の口形は日本語借用部分でのみ用い,それ以外では手話口形を用いること」などがあげられていることからも,日本語とは異なる体系を持つ言語であることがうかがえる.日本手話のほかに,日本で一般に手話と呼ばれるものに「日本語対応手話」がある.これにはさまざまな考え方があり,定義は一つではないが,多くの場合,日本手話が日本語とは異なる別の体系を持つ手話言語(手話を第一言語とするろう者同士が日常使う手話)をさすのに対し,日本語対応手話は,手話単語を使用してはいるが,文法や語彙などが日本語的な表現になっているものをさす\cite{Yonekawa2004}.日本語の語順に手話単語を並べただけのものから,手話的な表現を部分的に取り入れたものまで幅がある.両者が入り混じったものは中間型手話とも呼ばれる.一般に日本語を話しながら表現され,手話独自の口型や表情は省かれる.本研究では日本手話を目的言語とするが,手話には地域差や,世代・集団(ろう学校/普通学校)・失聴時期・日本語能力などによる個人差が見られ,今のところ標準日本手話というものも存在しない\cite{Nakamura2002,Inaba1998}.同じ話者(ろう者)が,聞き手に応じて無意識に手話を切り替える場合もある.我々は日本手話を対象とした文献や教材・ビデオ映像から翻訳規則を取得した.手話文はいずれも日本語の口話を伴わないものだが,その中にも日本語的な表現が混ざっている可能性はある.我々が取り上げた個々の手話文が厳密な意味での日本手話であるか否かという点についてはあるいは議論があるかもしれないが,我々はその点にはあまりこだわらず,本論文ではおおよその分類として日本手話という呼び方を用いている.与えられた日本語文とその手話訳によって,システムに組み込まれる翻訳規則は変化するが,同じ機械翻訳の枠組みの中で対処できるものと考える.\subsection{日本語援用手話表記法}\label{sec:notation}ここでは機械翻訳結果として出力される日本手話の文を,テキストとして表現するのに用いる手話表記法の概略を述べる.詳しくは文献\cite{Matsumoto2006}を参照されたい.従来の手話表記法\cite{Prillwitz2004,Sutton2002,Ichikawa2001}は,その多くが音声言語における発音記号のように手話の動作を記述するものであり,翻訳の問題と動作合成の問題とを分離するという目的には適していない.本表記法では個々の手話単語の動作の詳細よりも,動作によって表される語彙内容や文法的な機能の記述に重点を置いた.それによって,動作の詳細に立ち入らずに手話を言語として処理するのに適した表現方法となった.機械翻訳のための内部的な中間表現ということではなく,音声言語のテキストと同様,手話文をテキストの形で書き留め,利用することを念頭に置いている.日本語から手話への機械翻訳の研究には,徳田・奥村(1998)\nocite{Tokuda1998}や黒川ら\cite{Fujishige1997,Hirata2003,Ikeda2003,Miyashita2004}の研究がある.いずれも手話表記法を定義して翻訳に利用しているが,日本語の口話を伴い,基本的に日本語と同じ語順で表現される日本語対応手話/中間型手話を対象としているため,これらをそのまま日本手話の記述に用いるには記述能力の点で問題があった\cite{Matsumoto2006}.また,後者\cite{Ikeda2003}では手話画像生成のために有効な形式として手話表記法が導入されているが,入力日本語文の解析結果を部分的に含んだ中間表現的なものであり,手話言語に対するテキスト表現というものではなかった.今のところ,日本手話を目的言語とした機械翻訳の研究は見あたらない.日本手話では顔の表情や頭の動きなどの非手指要素が,文法標識などの言語的に重要な役割を果たしている.本研究では,非手指要素や単語の語形変化によって表される語彙的・文法的な情報もテキストとして表現できるような表記法を定義することによって,これらの要素を翻訳結果として出力できるようにした.\subsubsection{手話単語}手話単語は手話単語名と語形変化パラメータにより,次のように記述する\footnote{手話単語の表記は拡張BNFを用いてやや詳しく記述すると以下のようになる.\\\begin{minipage}{1.0\linewidth}\begin{tabbing}\qquad\qquad手話\=単語::=手話単語名[``\texttt{[}''手形``\texttt{]}''][``\texttt{(}''[空間][``\texttt{;}''修飾]``\texttt{)}'']\\\>空間::=位置$\mid$方向\\\>方向::=([位置]``→''位置)$\mid$(位置``→''[位置])\\\>位置::=``1''$\mid$``2''$\mid$``3''$\mid$``4''$\mid$``x''$\mid$``y''$\mid$``R''$\mid$``L''$\mid$``C''$\mid$$\cdots$\end{tabbing}\end{minipage}}.\vspace{-0.5\baselineskip}\begin{format}\texttt{手話単語名[手形](空間;修飾)}\end{format}\vspace{-0.5\baselineskip}手話単語名は手話単語を識別するための識別子である.便宜上その単語の意味に近い日本語の語句\footnote{現在は基本的に『日本語—手話辞典』\cite{JISLS1997}のイラスト名を単語名として利用している.そこにない単語やあまり一般的でない名前については一般的と思われる名前を使っている.}を単語名として用いるが,日本語と手話の語彙は1対1に対応していないため,単語名と単語の意味とが一致しない場合もある.語形変化パラメータには,その単語の基本形(辞書形)からの変化によって表される付加的な語彙的・文法的情報を,「手形」「空間」「修飾」の各要素に分けて記述する.手形パラメータには手の形による数詞等の情報,空間パラメータには単語が表現される空間上の位置や動詞の方向によって表される人称や格関係,修飾パラメータには動作の強弱・大小・緩急・反復などによって表される修飾内容を記述する.修飾パラメータにも日本語の語句を援用している.なお,基本形から変化しない要素については記述を省略する.以下に表記例を示す\footnote{空間パラメータに現れる文字`1',`2',`$x$'は,空間上の位置を表すと同時に,人称を表している(`1'は1人称,`2'は2人称,それ以外の`3',`4',`$x$',`$y$',`$L$','$R$'などは3人称).人称と位置,格関係等については\ref{sec:param}節で述べる.\\なお,手形パラメータに現れる`1',`2',`3'などの数字は人称ではなくその数を示す手話単語(の手形)を表す.}.\begin{ex}(1)\>\texttt{人[3]}\>;3人(手話単語〈3〉の手形で〈人〉を表現)\\(2)\>{\tt話す(2→1)}\>;あなたが私に言う(動詞の方向(=格関係)の表示)\\(3)\>\texttt{友達($x$)もらう($x$→1)}\=;友達からもらう(名詞の位置と動詞の始点の一致)\\(4)\>{\tt過去(;とても)}\>;ずっと前(〈過去〉の強調)\end{ex}\subsubsection{単語の合成}単語の合成は,単語の逐次的な合成(複合語),左右の手で異なる単語を同時に表現する同時的な合成,1つの単語を表現した後,片手をそのまま残して,他方の手で別の単語を表現する半同時的な合成の3つに分けて,それぞれ以下のように記述する.\begin{ex}\noindent(5)\>手話—サークル\>;手話サークル(逐次的合成)\\(6)\>電話\verb+|+仕事\>;電話しながら仕事をする(同時的合成)\\(7)\>家($x$)/帰る(→$x$)\>;家に帰る(半同時的合成)\end{ex}\subsubsection{非手指要素と句読点}手話では顔の表情や頭の動きなどの非手指要素が,文法的にも重要な機能を持つことが知られている.単語の並びが同じでも,平叙文と疑問文では非手指要素が異なるため,実際の会話では区別ができる.木村・市田(1995)\nocite{Kimura1995}は,日本手話における疑問文,話題化,条件節,同意を求める表現などの非手指動作について述べており,例えば話題化では,話題化される語句に眉上げとあご引きの動作が伴うとしている.このような非手指文法標識についても,その機能をテキストとして明示的に記述する.次の表記は,単語列に非手指要素{\itNMS}が伴うことを表す.\begin{format}\textrm{\{$<${\itNMS}$>$単語列\}}\end{format}\textit{NMS}の部分には,\texttt{t}(話題化),\texttt{cond}(条件節),\texttt{cleft}(分裂文)など,\pagebreak非手指要素による文法標識を表す文字列を指定する.ただし,疑問文を表す非手指要素は文末の記号「?」で表す.このほか,通常の文末は「。」,文法的な区切りは「\texttt{,}」「\texttt{;}」で表す.これらは動作的には,うなずきや瞬き,時間的な間合いによって表される.\begin{ex}(8)\>\tt\textrm{\{}$<$t$>$私家族\textrm{\}}人[4]。\>;私の家族は4人です.\end{ex}また,助動詞には「\texttt{\~{}}」を前置する.手話の助動詞のほとんどが内容語としての用法を併せ持っているため,この記号により助動詞的用法であることを明示する.\begin{ex}(9)\>\texttt{行く\~{}いらない}\>;行かなくてもいい\end{ex} \section{日本語から多言語への機械翻訳エンジンjaw} 翻訳システムの核となる機械翻訳エンジンjawについては謝ら(2004)が既に述べているが,その後の進展もあるためここで改めてその翻訳方式について簡潔に述べる.jawは日本語から他の任意の言語への翻訳を目的とした,パターン変換に基づく機械翻訳エンジンである.日本語パターンとそれに対する変換規則を用意することによって,いろいろの目的言語に対応することができる.これまでにjawを用いて中国語・ベトナム語・ミャンマー語・シンハラ語を目的言語とする機械翻訳について研究が行われている(図\ref{fig:Chinese-Vietnamese}).以下では中国語への翻訳を例に用いて述べる.\begin{figure}[b]\centering\includegraphics{15-1ia4f1.eps}\caption{jawを用いた機械翻訳システムの出力例}\label{fig:Chinese-Vietnamese}\end{figure}\subsection{表現構造を介した翻訳の流れ}\begin{figure}[t]\centering\includegraphics{15-1ia4f2.eps}\caption{jawによる翻訳の流れ}\label{fig:jaw}\end{figure}jawによる機械翻訳の流れを図\ref{fig:jaw}に示す.入力された日本語文に対して,日本語解析器ibukiCおよびibukiS(山田他2006)\nocite{Yamada2006}を用いて形態素・文節構造・係り受け構造の各解析を行なった後,目的言語の表現構造を介して目的言語テキストを生成する.表現構造は目的言語の文の表現要素(単語など)を表すC++言語のオブジェクトであり,表現要素に対する訳語や,関連する他の表現要素へのリンクなどの情報をその属性として保持する.日本語文の解析結果に対してパターン翻訳規則と機能語翻訳規則を適用することにより,日本語文を目的言語の表現構造へ変換する.パターン翻訳規則は,入力日本語文の係り受け構造と関係データベース(RDB)上の日本語パターンを照合し,マッチした箇所を目的言語の表現構造に変換するC++の関数群であり,主として文の骨格となる命題部分の表現構造を組み立てる.機能語翻訳規則は,モダリティ等を表す機能語の翻訳として,表現要素オブジェクトに情報を設定する.各表現要素オブジェクトには,それを一次元のテキストに変換するためのメソッド(線状化関数と呼ぶ)が,クラス(品詞等)毎に定義されており,この線状化関数の呼び出しにより表現構造から目的言語テキストが生成される.\subsection{目的言語表現構造への変換}日本語の文は基本的に,命題的な内容とモダリティ等で構成される.命題的な内容は,パターン翻訳規則により目的言語の表現構造へ変換する.機能語で表されるモダリティ等については,命題部分とは分離して機能語翻訳規則で処理することも,パターンに含めて命題部分と一緒に処理することも可能である.\subsubsection{パターン翻訳規則による表現構造の生成}照合に用いる日本語パターンにはキーワードとなる語が必ず一つだけ存在する.パターンの種類は,キーワードの種類(内容語/機能語),および,キーワード文節の他の文節との係り受け関係によって,次の3種類に分類される(図\ref{fig:JapanesePatterns}).\begin{description}\item[(a)基本型:]受け側の語句の内容語をキーワードとするパターン.\item[(b)追加型(内容語):]係り側の語句の内容語をキーワードとするパターン.\item[(c)追加型(機能語):]係り側の語句の機能語をキーワードとするパターン(文や文節を接続する機能語をキーワードとするパターン).\end{description}基本型は従来の結合価パターンと同様のパターンであるが,次のような特徴がある.\begin{itemize}\itemキーワード文節の機能語に対する条件も指定できる(図\ref{fig:baseType}左)\item2階層以上の深さを持ったパターンも記述できる(大域パターン.図\ref{fig:baseType}中央)\item名詞や副詞など,動詞以外の語に対しても記述できる(図\ref{fig:baseType}右)\end{itemize}\begin{figure}[b]\centering\includegraphics{15-1ia4f3.eps}\caption{日本語パターンの種類.二重枠で囲まれた語句はそのパターンのキーワード}\label{fig:JapanesePatterns}\end{figure}\begin{figure}[b]\centering\includegraphics{15-1ia4f4.eps}\caption{基本型パターンの例(従来の結合価パターンとの違い)}\label{fig:baseType}\end{figure}日本語パターンは表\ref{tab:patterns}のような形式でRDBに格納される.各パターンは1文節1レコードで記述され,そのうち1つがキーワードを含む.各レコードには,そのパターン内での文節番号,係り先文節番号,内容語条件(意味属性\footnote{意味属性は『日本語語彙大系』\cite{Ikehara1999}を参考にした.}または字面),機能語条件,省略可能文節かどうかのフラグのほか,パターン内文節の語順についての制限の有無,(動詞キーワードの場合)受動態としての使用可能性などの情報が登録されている.\begin{table}[t]\caption{RDB上の日本語パターンの例(概略)}\label{tab:patterns}\centering\input{04table1.txt}\end{table}入力日本語文の解析で得られた文節係り受け構造の各部と,これら日本語パターンとの照合は,まず基本型パターンを用いて次のように行う.\begin{enumerate}\item根の内容語をキーとして,RDB上の日本語パターンを検索する.\item得られたパターンの各子ノードに対して機能語条件をチェックし,候補を絞り込む.\item各子ノードに対して日本語パターンとの照合を行い(子ノードを根として,再帰的に照合する),照合できたパターンを内容語条件で絞り込む.\end{enumerate}基本型パターンとの照合の後,照合されずに残ったノード(文節)があれば,その部分に対して追加型パターンとの照合を試みる.このような照合を根から葉に向かって再帰的に行う.このようにして,入力文の木構造を覆うことのできる日本語パターンの組み合わせをすべて求める.使用したパターンの種類や数,パターンの持つ条件(内容語条件,機能語条件)の厳しさ,適用された意味属性の距離(意味カテゴリの階層構造における距離)などからコストを算出して最適解を求める.日本語パターンにはそれぞれ,そのパターンにマッチした入力日本語文の(部分)構造を,目的言語の表現構造に変換するパターン変換規則が定義されている.この変換規則は,目的言語の表現要素オブジェクトを生成し,そのデータメンバに訳語や他の表現要素へのリンクなどの属性を書き込むプログラムである.図\ref{fig:ITtoET}に追加型(内容語)の日本語パターンの変換規則によって生成される目的言語の表現構造の例を示す.\begin{figure}[t]\centering\includegraphics{15-1ia4f5.eps}\hangcaption{「Nのあおりを食ってV」の日本語パターン(左上)と,それに対する変換規則によって生成される中国語の表現構造(右).破線部分は別のパターン翻訳規則によって生成されるオブジェクトを表す.}\label{fig:ITtoET}\end{figure}パターン変換規則(C++プログラム)は,専用のエディタ(jawEditor)を使って,日本語パターンとともにフォームに必要事項を記入することで自動生成される.場合によっては人手で書く,あるいは,修正することも可能である.図\ref{fig:TransferRule}に,「Nのあおりを食ってV」のパターン(表\ref{tab:patterns}下部)に対する変換規則入力フォームを示す.図のように,jawEditorでは多階層の規則が記述できる.\begin{figure}[t]\centering\includegraphics{15-1ia4f6.eps}\caption{jawEditorによる翻訳規則の記述}\label{fig:TransferRule}\end{figure}\subsubsection{機能語翻訳規則}\label{sec:fw}パターン翻訳規則によって文の骨格となる命題的な内容を目的言語の表現構造へ変換した後,機能語翻訳規則により,用言に後続してモダリティ等を表す助動詞や体言/用言に後続する取り立て詞の翻訳に対応する各種の情報を,表現要素オブジェクトに設定する.入力された日本語文の各文節は,文節構造解析器ibukiCによって内容語と機能語,係り先情報などに分割される.機能語はさらにその機能と語順に応じて,複数のグループに分割して出力される(図\ref{fig:ibukiC_fw}).これら機能語や係り先の情報は,命題部分のパターン変換時に,一旦そのまま目的言語の表現構造に受け渡される.パターン変換終了後,それらに対して機能語翻訳規則を適用することによって,目的言語での表現に必要となる情報が表現構造オブジェクトのデータメンバに設定される.\begin{figure}[t]\centering\includegraphics{15-1ia4f7.eps}\caption{ibukiCによる文節構造解析結果の概略(左:体言文節,右:用言文節)}\label{fig:ibukiC_fw}\end{figure}\begin{table}[t]\caption{機能語翻訳規則テーブル(1対1対応)}\label{tab:fwTable1}\centering\input{04table2.txt}\end{table}\begin{table}[t]\caption{「も」に対する機能語翻訳規則テーブルSP\_mo(訳語選択用)}\label{tab:fwTable2}\centering\input{04table3.txt}\end{table}機能語翻訳規則は表\ref{tab:fwTable1}(日本語と目的言語の機能語が1対1に対応する場合)や表\ref{tab:fwTable2}(機能語の訳し分けが必要な場合)のような表形式で,分割された機能語要素ごとに記述する.例えば,表\ref{tab:fwTable1}の先頭の規則は,用言に後続する機能語要素1が「たい」だけなら,\texttt{mModeC}のデータメンバ\texttt{aux\_verb}に訳語``想''を設定することを示している.一方,「ない」「ている」については,訳語が1対1に決まらないため,それぞれ専用の訳語選択テーブル\texttt{SP\_nai},\texttt{SP\_teiru}を参照することを示している.表\ref{tab:fwTable2}(\texttt{SP\_mo})は体言に後続する取り立て詞「も」に対する14番目の規則である.規則は番号順に実行され,規則1〜13の条件がいずれも満たされなかった場合に限り,14番目の規則が適用される.この例では,検査対象となる表現構造オブジェクト\texttt{it}(体言)が主語である場合に,データメンバ\texttt{postSubject}(主語の後ろの位置)に,訳語``也''を設定するという規則を表している.機能語翻訳規則は機能語に対する訳語の選択のほか,語順の決定で必要となる文型(受身文,使役文など)や文のムードの判定なども行う.RDB上に表形式で記述された機能語翻訳規則は,命題部分の翻訳規則と同様,C++プログラム(動的ライブラリ)に自動変換される.\subsection{目的言語テキストの生成}表現要素オブジェクトが持つ線状化関数の呼び出しにより,表現構造から目的言語テキストが生成される.始めにjawが,文の述語(複文の場合は主節の述語)を表す表現要素オブジェクトの線状化関数を呼び出すと,そのオブジェクトはそれ自身の訳語を生成するほか,それに係る名詞や副詞,従属節の述語などの線状化関数を,目的言語の語順に従って呼び出していく.呼び出された表現要素に係る表現要素があった場合も同様に,その表現要素の線状化関数が呼び出され,訳文が生成される. \section{日本手話テキストへの機械翻訳システムjaw/SL} 前節ではjawを用いた機械翻訳システムすべてに共通する事柄について述べた.ここでは,手話を目的言語とした機械翻訳を実現するために設定した手話の表現構造,翻訳規則,線状化関数について述べる.\subsection{日本手話の表現構造のためのクラス設計}手話単語の品詞分類については議論があるが\footnote{例えば田上ら(1979)\nocite{Tanokami1979}は,名詞・動詞・形容詞を区別をせず,これらを自用詞と呼ぶ単一の品詞に分類している.},ここでは音声言語と同様の品詞を想定し,表現要素オブジェクトのクラス階層を図\ref{fig:class}のように設定した.\begin{figure}[b]\centering\includegraphics{15-1ia4f8.eps}\caption{手話文の表現構造を構成するオブジェクトのクラス階層の概略}\label{fig:class}\end{figure}主なクラスのデータメンバの例を表\ref{tab:member}に示す.ここで,TObjectクラスはjawの目的言語に共通する基底クラスである.それを根とする部分表現構造を線状化して得られた目的言語テキストを保持するとともに,対応する日本語の機能語情報を保持する.Signクラスは手話単語共通の基底クラスで,手話単語名と単語の語形変化パラメータ(手形・空間・修飾)などを持つ.Propositionクラスは文の大枠を決める述語を表し,格要素となる名詞(句)や,述語を修飾する副詞,従属節へのリンク,テンス・モダリティなどの情報を持つ.Nounクラスは名詞を表すクラスであり,数量や複合名詞などを表すクラスの基底クラスでもある.名詞を修飾・限定する表現要素へのポインタを持つ.\begin{table}[t]\caption{手話の表現要素クラスとそのデータメンバの例}\label{tab:member}\input{04table4.txt}\end{table}\subsection{語形変化による表現への翻訳}\label{sec:param}日本語では機能語や修飾語などの独立した単語として表現される情報が,手話では主となる単語の語形(手の形・位置・動き)の変化によって表現される場合がある.例えば,動作の主体/対象といった格関係が動詞の手の動きの向きにより表現される場合や,様態・程度・アスペクトなどが動詞/形容詞の動きの変化により表現される場合がある.\subsubsection{格関係(名詞の位置と動詞の方向)}\label{sec:case-relation}手話では名詞の人称と話者の回りの空間上の位置が対応づけられている\cite{Matsumoto2001,Baker-Shenk1980}.1人称と2人称はそれぞれ話し手と聞き手の位置に固定されており,会話の場にいない人や物,場所などの3人称はその他の位置に割り当てられる\footnote{標準的には,人は話し手の斜め前方,物や場所は話し手と聞き手の中間に配置される\cite{Matsumoto2001}.}(図\ref{fig:personalLocations}).\begin{figure}[b]\centering\includegraphics{15-1ia4f9.eps}\caption{人称と位置}\label{fig:personalLocations}\end{figure}主体や対象の人称(位置)に呼応して手の運動の向きが変化する動詞は一致動詞(agreementverb)と呼ばれる\cite{Ichida1999,Sutton-Spence1999,Sandler2006}.日本語では名詞に後置された格助詞によって表される格関係が,一致動詞を使った文では,名詞の位置と動詞の(手の動きや指先の)方向によって表示されることになる\footnote{一方,人称といった文法的な情報ではなく,動詞が表す動作の軌道や動作が行われる場所など,現実世界での動きや位置関係に呼応して手の動きや位置が変化する動詞は空間動詞(spatialverb)あるいはclassifierpredicateなどと呼ばれる.例えば,「上方に立つ」,「右方に立つ」は動詞〈立つ〉をそれぞれ通常より高い位置,体の右側で表現することにより表される.ただし,一致動詞が空間動詞として使われる場合もあり,明確な境界があるわけではない.}.例えば,「AがBをしかる」,「AがBに言う」,「AがBへ行く」では,動詞の手の動きは基本的にみな名詞Aの位置から名詞Bの位置へ向かう.\begin{figure}[t]\centering\input{04fig10.txt}\caption{一致動詞へのパターン翻訳規則の例}\label{fig:shikaru}\end{figure}一致動詞への翻訳を行うためのパターン翻訳規則の例を図\ref{fig:shikaru}に示す.この翻訳規則により,「AがBをしかる」における名詞Aは動作主格(mAgent),名詞Bは目標格(mGoal)に設定される.また,一致動詞であることを示すフラグ(mIsAgreement)にtrueが設定される.「AがBに言う」,「AがBへ行く」の場合も同様に,名詞AをmAgent,名詞BをmGloalに設定する.これら3つの例において名詞Bは,日本語ではそれぞれ異なる格だが,手話の格をこのように捉えることで,一致動詞の方向が通常mAgentからmGoalへ向かうことになり,処理が簡単化できる\footnote{ただし,「AがCからBへ行く」のように,起点(mSource)が指定されている場合には,mAgentではなくmSourceの名詞位置を動詞の始点とする.}.一致動詞に対する線状化関数では,名詞オブジェクトmAgentおよびmGoalの人称情報(mPerson)を元に,その名詞の表現位置(mParam.position)と動詞の始点・終点(mParam.direction)を決定する.1人称,2人称の場合はそれぞれ`1',`2'(位置定数)を,3人称の場合は`$x$',`$y$'等(位置変数)を設定する.ただし,身体の一部を背景として利用するために表現位置あるいは始点/終点が固定される単語については,固定部分の位置指定は行わない.位置を決定した後,手話の語順(\ref{sec:linearization}節)に沿って名詞・動詞の訳語を生成する.一致動詞では1人称と2人称の名詞は動詞の方向によって表示されるため,「私」「あなた」といった単語は省かれることが多い.例えば,「あなたが私に言う」は``話す(2→1)''という動詞とその向きだけで表現できる.このような名詞の省略も考慮して線状化を行う.\subsubsection{様態やアスペクトなどの修飾表現}音声言語では副詞として語彙化される修飾概念が,手話では述語の語形変化として表現される場合が多い.例えば「\underline{だんだん}暗くなる」は,手話単語〈暗い〉を徐々に動かすことで表現される\cite{Yonekawa2005}.語形変化で表現される修飾内容としては,様態(ゆっくり,激しく),アスペクト(ずっと,しばしば),程度(とても,少し)などがあげられる.日本語援用手話表記法では,今のところ語形変化によって表される修飾内容は,被修飾語の修飾パラメータにその内容を次のように日本語の語句で指定することにより表現している.\begin{center}\begin{tabular}{lll}「\underline{ずっと}前」&⇒&{\tt過去(;とても)}\\「\underline{だんだん}暗くなる」&⇒&{\tt暗い(;徐々に)}\end{tabular}\end{center}副詞を述語の語形変化へ翻訳するための日本語パターンと翻訳規則の例を図\ref{fig:sugoku}に示す.この規則により,「すごく」が係る状態述語の語形変化パラメータ(修飾要素)に``とても''が設定される.なお,述語の語形変化ではなく,独立した手話単語〈とても〉を用いて表現される場合もあるが,その場合にはPropositionのメンバmAdverbialに〈とても〉を設定する.\begin{figure}[t]\centering\input{04fig11.txt}\hangcaption{副詞を述語の語形変化として翻訳するためのパターン翻訳規則の例.qualifiersは述語に係る修飾内容(複数可)を保持する.}\label{fig:sugoku}\end{figure}日本語の1つの単語が,手話では修飾パラメータを含んだ表現となる場合もある.例えば,「さっき」は〈{\tt過去(;少し)}〉,「真っ赤」は〈{\tt赤い(;とても)}〉と表現される.これらはその翻訳規則において各単語の修飾パラメータに値を直接設定する.このほか,日本語では動詞・助動詞によって表されるアスペクト等の情報が,語形変化で表現される場合もある.それらは,動詞・助動詞の翻訳規則で修飾パラメータに値を設定する.\subsection{手話の助動詞と機能語翻訳規則}\label{sec:functionwords}手話にも日本語の助動詞のように,動詞の後ろに置かれ,モダリティやアスペクトなどを表す単語が存在する\cite{Ichida2000,Ichida2005b,Matsumoto2001}.その例を表\ref{tab:aux}に示す.\begin{table}[t]\caption{手話の助動詞の例}\label{tab:aux}\centering\input{04table5.txt}\end{table}用言に後続する機能語の翻訳規則の例を図\ref{fig:FWTransRule}に示す.同図左側の表は日本語の機能語を,それに1対1に対応する訳語に置き換える規則の例であり,右側の表は訳し分けが必要な場合の例である.この例では,日本語の終助詞「か」が文末にあり,かつ,機能語が「ます」等を含むとき,「か」を直接手話単語に置き換えるのではなく,文のムード(Propositionオブジェクトが持つmModeSLオブジェクトのデータメンバmoodの値)をinterrogative(疑問)に設定している.この値は線状化の段階で,語順や句読点の種類を決定する際に参照される.\begin{figure}[t]\centering\includegraphics{15-1ia4f12.eps}\caption{機能語翻訳規則の例}\label{fig:FWTransRule}\end{figure}\subsection{線状化関数}\label{sec:linearization}最後に,命題部分と機能語部分の変換により得られた手話言語の表現構造から,語順の決定,非手指文法標識の付加,一致動詞における方向や名詞の位置の決定等を行い,手話テキストを生成する.この処理は先に述べたように各表現要素オブジェクトが持つ線状化関数で行う.\subsubsection{語順}日本手話の基本的な文は,話題(主題)とそれに関する陳述で形成されている(topic-comment構造).これは日本語やBSL(イギリス手話),ASL(アメリカ手話)などと同様である\cite{Nakamura2002,Sutton-Spence1999}.話題は文頭に置かれ,話題化のための非手指要素による文法標識を伴う.〈昨日〉〈今〉のような語によって,時間的な枠組みが文頭で設定される場合も多い.また,日本手話の基本語順はS-O-V(主語—目的語—動詞)と言われており,日本語と同様,述語は原則として文末に配置される\cite{Kimura1995,Matsumoto2001}.述語には助動詞が後続し,さらに,動作主や述語の対象などを示す指差し(pronouncopy)が付加される場合もある.話題と述語以外の要素はこれらの間に置かれるが,前述のように動作主や対象は動詞の方向によって表わされ,単語として表現されない場合もある.また,疑問詞を含む疑問文では,疑問詞が文末に置かれる場合が多い\cite{Yonekawa2005}.談話の先頭以外の文は,「ところで」,「次に」,「しかし」,「だから」などの接続的な語で始まることも少なくない\cite{Tanokami1979}.jaw/SLでは,Propositionオブジェクトがデータメンバとして持つ表現要素を,基本的に次のような順序でテキスト化している.\begin{quote}接続的な語→話題化された名詞(句)・時間的枠組みを設定する語→その他の格要素となる名詞(句)→(述語に前置される)副詞→述語→(述語に後置される)副詞→助動詞→(疑問文での)疑問詞.\end{quote}修飾語は被修飾語に前置される場合と後置される場合とが併存している.修飾語の語順について松本(2001)\nocite{Matsumoto2001}は,原則的には中心的な語が付随的な語に先行するのが手話の自然な語順だが,倒置によって修飾語を強調する効果があること,そして,日本語の影響を受けて修飾語の前置が受け入れられ,単語によっては原則の方が廃れていったという考えを述べている.しかし,〈とても〉〈最高〉〈最低〉など程度を表す副詞は現在でも前置すると不自然であり,大きさや形状を表す修飾語も後置が一般的としている.一方,市田(1998)\nocite{Ichida1998}は,名詞句内の語順は,形容詞—名詞,関係節—名詞,属格—名詞であり,形容詞や関係節が名詞に後置されているように見える例は,主要部内在型関係節という構造を利用した表現であると説明している.副詞の語順については言及していない.jaw/SLでは,修飾語ごとに前置/後置が分かれるものと仮定して,修飾語の表現要素クラスに前置/後置を指定するためのデータメンバを設け,個々に語順を指定することにした.このほか,数と単位の語順/表現は,(1)単位を数に後置する(金額など),(2)単位を数に前置する(年齢など),(3)数を手形で表し,単位を動きで表す(年数など),(4)片手で数,もう一方の手で単位を表す(人数など)というように対象により異なっている.手話の表現構造レベルでは,これら語順/表現の違いを,数量表現クラスQuantityの持つ単位格納用メンバ(mPostfixedUnit,mMovementUnitなど)の違いとして表現しており,メンバごとに異なる線状化コードを割り当てている.\subsubsection{非手指要素による文法標識}話題化や疑問文,条件節などを表す非手指要素による文法標識のテキスト化も線状化関数で行う.話題化された名詞の検出は,Propositionクラスの線状化関数内で,mAgent,mObject等の格要素に対して表\ref{tab:fwrule_ha}のような機能語翻訳規則を適用することにより行う.この規則では,助詞「は」を伴う名詞のうち自称の代名詞でないものに話題化の印が付けられる.表中の\texttt{it}は述語の格要素となる名詞オブジェクトへのポインタである.このテーブルには2つの規則(id=1およびid=99)が登録されており,idの小さいものから順に適用される.規則1により,名詞オブジェクトの日本語における意味属性(メンバ変数\texttt{mSemanticAttr})の値が10007〜10013の範囲(僕,私など自称の代名詞)である場合には話題化フラグ(メンバ変数\texttt{topic})にfalseが設定され,その他の場合には規則99によりtrueが設定される.話題化された名詞(句)には,話題化の非手指文法標識を表す記号``\{$<$t$>$$\cdots$\}''を付加して線状化する.機能語の翻訳によって文が疑問のムードを持つと判断された場合は,格要素に疑問詞が存在するならその格の線状化を文末まで遅延し,文末記号を標準の「。」から疑問の非手指文法標識を表す「?」に変更する.\begin{table}[t]\caption{助詞「は」に対する機能語翻訳規則(訳語選択テーブルSP\_wa).}\label{tab:fwrule_ha}\centering\input{04table6.txt}\end{table} \section{翻訳実験} 手話学習教材から取得した文を題材として翻訳実験を行った.まだオープンテストによって精度を評価するような段階にはなく,取得した文の翻訳に必要な規則を実際に与えてシステムを構築していく過程で,現状の問題点を明らかにしていくことをねらいとした.\subsection{実験方法}\begin{table}[b]\caption{『手話ジャーナル』における手話文の自然な日本語訳と構造訳}\label{tab:struct}\centering\input{04table7.txt}\end{table}翻訳実験の題材には主として日本手話のビデオ教材『手話ジャーナル初級教材No.~1\&2』\cite{SignFactory1997,SignFactory1999}を用いた(以下,単に「手話ジャーナル」と記す).各巻にはそれぞれ4人のろう者がカメラに向かって家族や日常生活について日本手話で語った映像が記録されている.日本語の音声や字幕は一切含まれていないが,全文(約720文)に対する自然な日本語訳と,手話の構造に沿った日本語訳(手話ジャーナルでは``構造訳''と呼んでいる)が記載された小冊子が付属している.表\ref{tab:struct}に自然な日本語訳と構造訳の例を示す.このほか,手話の教育番組\cite{Yonekawa2006}からの文も補助的に使用した.これらはすべて会話文/話し言葉である(手話には文字がないので書き言葉は存在しないことからくる必然である).基本的に手話文に対する``構造訳''を入力日本語テキストとし,手話映像を\ref{sec:notation}節の日本語援用表記法で書き取った手話テキストを正解とした.教材に含まれる文から80文を抽出し,正解を出力するために必要な日本語パターンとその変換規則,機能語翻訳規則,線状化関数をシステムに与えた.談話の一部を抜き出して利用した文もある.手話ジャーナルの映像を対象に行った調査\cite{Matsumoto2006}において,\ref{sec:notation}節の表記法による記述が困難と判断された表現を含む文が全体の1割程度あったが,これらは対象から除外した.また,現在jawの翻訳単位は文であるため,空間上の位置と名詞との対応関係が複数の文をまたいで持続するような文も除外した.このほか,言い間違いを訂正したり,付け加えたりしている箇所を含む文も80文には含まれていない.ただし,翻訳規則の検討や問題点の分析には翻訳対象以外の文も考慮に入れた.なお,入力文に対する文節構造解析や文節係り受け解析に誤りが生じた場合は,誤り箇所を人手で修正した.\subsection{実験結果と考察}実験の結果,正解どおりの手話文を導くことができたのは80文中48文,正解どおりではないが正しい手話文が得られたと考えられるものが20文,正しく翻訳できない表現を含むものが12文あった.次のような項目については,意図したとおり出力させることができた(括弧内の数字は表\ref{tab:transexamples}の文番号).\begin{table}[t]\caption{正解を導けた翻訳結果の例\label{tab:transexamples}}\input{04table8.txt}\end{table}\begin{itemize}\item格関係による動詞の方向変化と名詞の位置変化(1,4,14,17,24など)\item疑問文,話題化,条件節等の非手指文法標識への翻訳(2,5,7,20など)\item用言に後続する機能語によるモダリティやアスペクトなどの翻訳(4,5,18,20など)\item手話単語の(半)同時的な組み合わせによる表現(2,12など)\item語順(数詞と単位,疑問詞,話題化,修飾語と被修飾語)(9,22など)\item手形変化による語義の変化(手形で数詞,動きで単位を表す場合)(5,9,20)\item語形変化による副詞の表現(6)\item複文(5)\item指文字による単語表現(23)\end{itemize}また,次のような表現については,正解と異なっていても正しく翻訳できたと判断した.\setcounter{example}{0}\begin{table}[t]\caption{正解どおりではないが正しい手話文が得られたと判断した翻訳結果の例}\label{tab:transexamples2}\input{04table9.txt}\end{table}\begin{itemize}\renewcommand{\labelenumi}{}\item時間・金額の表現:一般に時刻の表現では,時間を表す数詞に手話単語〈時間〉を前置するとされるが,〈時間〉が省かれる例が多く見られた(表\ref{tab:transexamples2}:例文1).金額の表現でも同様に,通常,数詞に後置される単位〈円〉が省かれる例が見られた(同表例文2).翻訳結果では基本的にこれらの単位を省略せずに出力している\footnote{ただし,話題の中に〈時間〉という単語が現れた場合は,数詞の前の〈時間〉を省くようにしている.}.\item祖父・祖母の表現:手話単語〈祖父〉と〈祖母〉は,人差し指でほおに触れる動作(肉親を表すといわれる)を行った後,それぞれ手話単語〈おじいさん〉または〈おばあさん〉を表現することで表される.ほおに触れる動作が省略される例が多く見られたが,試作システムでは基本的に省かず表現している(例文3).\item文末の指差し:手話では文末に人や物,場所と対応づけられた位置への指差し(代名詞)が現れる場合がある.例えば〈私朝苦手私〉=「私は朝が苦手です.」のように文中の代名詞が文末で繰り返されこともあれば,〈起きる難しい私〉=「(私は)起きられないのです.」のように,文末だけに現れることもある.文末の指差しには,だれ(何)についての話なのかを明確にする働きがあると推測される.しかし,同じ日本語「私は朝が苦手です.」が〈私朝苦手〉と文末の代名詞なしで表現される例もあり,また,例文全体から見ても使用しない文の方が多いため,試作システムでは文末の代名詞を出力していない(例文4).\item接続助詞「ので」:「ので」に相当する手話単語〈ので〉は省略され,うなずきだけで表現される場合もあるが,システムの出力結果は〈ので〉を省略していない(例文5).\end{itemize}一方,適切な訳を出力することが難しい表現も多く存在した.以下,現状での主な問題点について述べる.\subsubsection{省略・文脈に伴う問題点}\begin{table}[t]\caption{問題の残った表現を含む例文の一部}\label{tab:problems}\input{04table10.txt}\end{table}表\ref{tab:problems}の例1では,動詞〈断る〉が複数変化(終点を3人称の位置範囲で変えながら,2,3回繰り返す)して,複数の相手に対して「断る」ことを表している.手話では動作主や対象等の数に呼応して動詞の語形が変化する\cite{Oka2005,Matsumoto2001,Sandler2006,Sutton-Spence1999}が,この例文のように入力日本語文が数についての情報を持たない場合,正解を導けなかった.また,例2の〈しかる〉は,「ことが多い」という言葉から,〈しかる〉という行動が複数回行われることが分かるが,その対象が同一人物か複数かまでは判断できない.手話ではその違いが動詞の方向の違いとして表現される.これらを正確に処理するには,その文で明示的に述べられていない情報について文脈から取得し補完する必要がある.現状では文脈を考慮した翻訳には対応していないために,このような動詞の変化を正しく出力することができていない.一般に,日本語に比べて手話では物事をより具体的に表現する傾向があるため,日本語から手話への翻訳では入力文中に明示されていない情報を正しく補わなければ,手話として不自然な表現や間違った表現になる可能性がある.数の一致はその一例といえる.不足した情報をいかに補足するかが問題である.\subsubsection{グループ化や対比のための空間の利用}表\ref{tab:problems}の例3と4は重文で,それぞれ前半と後半の節で表現位置が変わる.例3では母と父の仕事,例4では家族内でのろう者と聴者のグループごとに表現位置を分けることによって,話の内容を視覚的に分かりやすく伝えている.しかし,重文が常にこのように表現されるわけではなく,現状ではこのような空間の利用についての判断が機械的に行えていない.\subsubsection{機能語(ながら,られる,た,ている)の翻訳}\begin{itemize}\item「ながら」:複数の行為を並行して行うことを表す接続助詞「ながら」は,手話では単語として表現されない.各行為を表す動詞を実際に(部分的に)同時に表現する(例5),動詞を交互に連続的に表現する(例6),非手指動作を使って同時性を表現する(例7の「食べながら仕事をする」は,食べ物を噛む仕草をしながら〈仕事〉を表現)といった方法が見られた.動詞の組み合わせによって,「ながら」の表現方法が異なると考えられるが,現状ではその訳し分けはできていない.〈食べる〉や〈眠い〉の非手指動作部分(口の動き,顔の表情)が次の動詞と同時に表現されることによっても同時性が表されているが,そのような表現に対する表記法上の問題もある.\item「た」:過去や完了を表す日本語の助動詞「た」に相当する手話単語には〈た〉と〈終わる〉がある.だが,『手話ジャーナル』の例文中に出現した「た」270例のうち,これらの単語が使用されたのは11例であり,その他の例では単語として表現されていなかった\footnote{一方,手話ニュース等の改まった場での報告では,過去を表すためにこれらの語が頻繁に用いられるようである.}.例えば「亡くなった」は21例中,2例だけが〈死ぬ終わる〉と表現されていた.〈た〉と〈終わる〉はいずれも単純な過去というより,完了的な意味合いが強いとされるため,話者の主観によって表現が異なることも考えられる.現状では,一部の慣用的な表現を除いて,「た」に対する訳語を出力していない.逆に,例8の「昼食をとって」のように,日本語では「た」が現れない箇所での〈終わる〉の出力も現状ではできていない.なお,単語として過去を表現しない場合でも,動詞を表現する際,口形が「た」になる例が散見された.また,〈終わる〉には,過去・完了の助動詞的な用法の他に,動詞「終わる」や名詞「終わり」としての用法があり,「仕事が終わる」「食べ終わる」「おしまい」など,動詞や名詞としての用法は多数見られた.\item「ている」:動きの継続・進行中・習慣や動きの結果の状態を表す「ている」は,『手話ジャーナル』の例文中に145回出現し,〈最中〉を使った表現が7例,〈いる〉と〈ある〉がそれぞれ2例ずつあった.その他の「ている」は単語として表現されなかった.「(寝ないで)起きている」のように動詞〈目覚める〉を長めに表現することで状態の継続を表す例もあった.現状では,明確な翻訳規則を見出すことができず,「ているところだ」など一部の慣用的な表現を除いて「ている」に対する訳語を出力していない.\item「られる」:受身の「られる」に対応する手話単語は存在しない\footnote{可能の「られる」には〈できる〉が対応する.}.動詞の方向の変更(一致動詞の場合)や,格要素の入れ替え,機能語条件として「られる」を持つ動詞パターンの追加によって翻訳できた例文もある.しかし,「(桜の木でびっしり)囲まれている」を,立てた指の動きと表情で,楕円状に木が密に並んでいる様子を表現する例や,「(ビールを)飲まされる」を,コップを渡され嫌々飲む様子で表現する例は,日本語と手話との構造の隔たりが大きく,次に述べる「言い換え」や表記法の問題と絡んで翻訳することができていない.\end{itemize}\subsubsection{言い換えの問題}『手話ジャーナル』からの例文は手話の構造に近い「構造訳」を入力文としたが,実用的な観点からは「自然な日本語文」から「手話への翻訳に適した日本語文(構造訳)」への言い換えをシステム側で行う必要がある.現状では,次のように構造訳からさらに(文脈を考慮して)手を加え,「(正しく翻訳可能な文)」のようにしなければ正しい手話テキストに翻訳できない例もあった.\begin{ex}\>将来飼ってみたいのは大きな犬です。\>\rule{16zw}{0pt}\=(自然な日本語文)\\\>将来飼ってみたいのは\underline{何かというと},大きな犬\underline{が欲しい}です。\>\>(構造訳)\\\>将来\underline{欲しい}のは何かというと,大きな犬が欲しいです。\>\>(正しく翻訳可能な文)\\\>\{$<$cleft$>$将来好き何\},犬大きい好き。\>\>(手話文)\end{ex}また,実験では主に手話文の日本語訳を入力としたが,現実の翻訳では手話の語彙不足も問題である.機能語や副詞については,単語として存在しなくても,語形変化・非手指動作・同時表現などで表される場合があるため単純に比較できないものの,市販の手話辞典の語彙は数千語しかなく,日本語のそれに比べて著しく少ない.指文字(50音等に対する手指表現)を使って単語の音を伝えることはできるが,聞き手がその言葉を知らなければ意味は伝わらない.そのため(固有名詞を除き)類義語で代用するか,手話語彙の範囲で意味を説明するといった処理が必要となる\footnote{例えば,田上ら(1979)\nocite{Tanokami1979}は,「弟はテレビばかり見ている」の「ばかり」を各地の手話通訳者が〈だいたい〉,〈毎日〉,〈たくさん〉,〈一生懸命〉,〈だけ〉などの手話単語で代用して訳したという例をあげている.}.この点からも,手話への翻訳において言い換え技術の導入は今後検討すべき大きな課題といえる.\subsubsection{表記法,その他の問題}今回の実験では,単語を用いないパントマイム的な表現や,単語を用いていても,その動きや表現位置が現実世界での動きや位置関係を再現するように変化する自由度の高い表現(空間動詞)など,\ref{sec:notation}節の表記法による記述が難しい例文は対象としなかった.例えば「(隣で)向かい合って座っていた(男女)」は,両手のそれぞれで表した〈座る〉の手形を向かい合わせにし,話者の右側に配置することで,男女間および男女と話者の間の位置関係が簡潔に表現された.このような表現は視覚的で分かりやすい,手話らしい表現であり,その生成は手話への機械翻訳において重要であると考えられる.しかしながら,現状ではそれらをどう記述し,機械的に生成するか,難しい問題である.口形の表記と生成についても検討が必要と考えられる.現状では口形を単語の一部と見なし,明示的に表記していないが,実験に用いた例文では,省略された時間の単位を口形で補う例,過去を表す口形,同じ手話単語(手指要素)で口形だけが異なる例などが見られた.このような口形の語彙的な働きについて調査・整理する必要がある. \section{おわりに} 日本語—日本手話機械翻訳システム構築のための最初のステップとして,パターン変換型機械翻訳エンジンjawを核としたルールベースの翻訳システムを試作した.入力は日本語テキスト,出力は我々が提案した日本語援用手話表記法である.このアプローチの有効性と現状の問題点を明らかにするため,日本手話のビデオ教材等を題材とした翻訳実験を行った.格関係による動詞の方向や名詞の位置の変化,話題化や疑問を表す非手指文法標識など,手話に特徴的な言語要素を含む手話文が生成可能であることが確認できた.しかし,数の一致,言い換え,表記法上の問題など未解決の問題も多く,課題は山積している.また,音声言語と比較すると手話の言語学的解析はまだ十分行われているとは言えず,そのことも翻訳システムを構築する上での大きな課題である.手話言語学の領域での今後の進展に期待したい.\acknowledgment本研究を進めるにあたり,手話に関してご教示いただいた愛知医科大学原大介先生,岐阜県立岐阜聾学校鈴村博司先生・長瀬さゆり先生,岐阜大学池谷尚剛先生に深く感謝いたします.なお,本研究の一部は科学研究費補助金・基盤研究C(課題番号18500111)により行われました.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Baker-Shenk\BBA\Cokely}{Baker-Shenk\BBA\Cokely}{1980}]{Baker-Shenk1980}Baker-Shenk,C.\BBACOMMA\\BBA\Cokely,D.\BBOP1980\BBCP.\newblock{\BemAmerican{S}ign{L}anguage,ATeacher'sResourceTextonGrammarandCulture}.\newblockClercBooks,GallaudetUniversityPress.\bibitem[\protect\BCAY{藤重\JBA黒川}{藤重\JBA黒川}{1997}]{Fujishige1997}藤重栄一\JBA黒川隆夫\BBOP1997\BBCP.\newblock\JBOQ意味ネットワークを媒介とする日本語・手話翻訳のための日本語処理\JBCQ\\newblock\Jem{計測自動制御学会ヒューマン・インタフェース部会HumanInterfaceNewsandReport},{\Bbf12}(1),\mbox{\BPGS\45--50}.\bibitem[\protect\BCAY{平田\JBA池田\JBA岩田\JBA黒川}{平田\Jetal}{2003}]{Hirata2003}平田麗湖\JBA池田隆二\JBA岩田圭介\JBA黒川隆夫\BBOP2003\BBCP.\newblock\JBOQ中間型手話における名詞表現位置に関する文法とその日本語手話翻訳への導入\JBCQ\\newblock\Jem{ヒューマンインタフェースシンポジウム2003論文集},\mbox{\BPGS\293--296}.\bibitem[\protect\BCAY{市田}{市田}{1998}]{Ichida1998}市田泰弘\BBOP1998\BBCP.\newblock\JBOQ日本手話の名詞句内の語順について\JBCQ\\newblock\Jem{日本手話学会第24回大会論文集},\mbox{\BPGS\50--53}.\bibitem[\protect\BCAY{市田}{市田}{1999}]{Ichida1999}市田泰弘\BBOP1999\BBCP.\newblock\JBOQ日本手話一致動詞パラダイムの再検討—「順向・反転」「4人称」の導入から見えてくるもの—\JBCQ\\newblock\Jem{日本手話学会第25回大会論文集},\mbox{\BPGS\34--37}.\bibitem[\protect\BCAY{市田\JBA川畑}{市田\JBA川畑}{2000}]{Ichida2000}市田泰弘\JBA川畑裕子\BBOP2000\BBCP.\newblock\JBOQ日本手話の助動詞について\JBCQ\\newblock\Jem{日本手話学会第26回大会論文集},\mbox{\BPGS\6--7}.\bibitem[\protect\BCAY{市田}{市田}{2005}]{Ichida2005b}市田泰弘\BBOP2005\BBCP.\newblock\JBOQ手話の言語学(11)文法化—日本手話の文法(7)「助動詞,否定語,構文レベルの文法化」\JBCQ\\newblock\Jem{月刊言語},{\Bbf34}(11),\mbox{\BPGS\88--96}.\bibitem[\protect\BCAY{市川}{市川}{2001}]{Ichikawa2001}市川熹\BBOP2001\BBCP.\newblock\JBOQ手話表記法sIGNDEX\JBCQ\\newblock\Jem{手話コミュニケーション研究},{\Bbf\rule{0pt}{1pt}}(39),\mbox{\BPGS\17--23}.\bibitem[\protect\BCAY{池田\JBA岩田\JBA黒川}{池田\Jetal}{2003}]{Ikeda2003}池田隆二\JBA岩田圭介\JBA黒川隆夫\BBOP2003\BBCP.\newblock\JBOQ日本語手話翻訳のための言語変換とそこにおける語形変化規則の処理\JBCQ\\newblock\Jem{ヒューマンインタフェース学会研究報告集},{\Bbf5}(1),\mbox{\BPGS\19--24}.\bibitem[\protect\BCAY{池田}{池田}{2006}]{Ikeda2006}池田尚志\BBOP2006\BBCP.\newblock\JBOQ言語バリアフリーな社会を目指して—日本語テキストから手話テキストへの機械翻訳—\JBCQ\\newblock\Jem{放送文化基金報(HBF)},{\Bbf\rule{0pt}{1pt}}(69),\mbox{\BPGS\30--31}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山芳史\JBA林}{池原\Jetal}{1999}]{Ikehara1999}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1999\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{稲葉}{稲葉}{1998}]{Inaba1998}稲葉通太\BBOP1998\BBCP.\newblock\Jem{アクセス!ろう者の手話:言語としての手話入門}.\newblock明石書店.\bibitem[\protect\BCAY{日本手話研究所}{日本手話研究所}{1997}]{JISLS1997}日本手話研究所\JED\\BBOP1997\BBCP.\newblock\Jem{日本語-手話辞典}.\newblock全日本ろうあ連盟.\bibitem[\protect\BCAY{木村\JBA市田}{木村\JBA市田}{1995}]{Kimura1995}木村晴美\JBA市田泰弘\BBOP1995\BBCP.\newblock\Jem{はじめての手話—初歩からやさしく学べる手話の本}.\newblock日本文芸社.\bibitem[\protect\BCAY{松本}{松本}{2001}]{Matsumoto2001}松本晶行\BBOP2001\BBCP.\newblock\Jem{実感的手話文法試論}.\newblock全日本ろうあ連盟.\bibitem[\protect\BCAY{Matsumoto,Tanaka,Yoshida,Imai,\BBA\Ikeda}{Matsumotoet~al.}{2004}]{Matsumoto2004a}Matsumoto,T.,Tanaka,N.,Yoshida,A.,Imai,Y.,\BBA\Ikeda,T.\BBOP2004\BBCP.\newblock\BBOQThefirststeptowardamachinetranslationsystemfrom{J}apanesetexttosignlanguage\BBCQ\\newblockIn{\BemProceedingsofAsianSymposiumonNaturalLanguageProcessingtoOvercomeLanguageBarriers},\mbox{\BPGS\61--66}.\bibitem[\protect\BCAY{松本\JBA田中\JBA吉田\JBA谷口\JBA池田尚志}{松本\Jetal}{2004}]{Matsumoto2004b}松本忠博\JBA田中伸明\JBA吉田鑑地\JBA谷口真代\JBA池田尚志\BBOP2004\BBCP.\newblock\JBOQ手話の表記法とテキストレベルの日本語—手話機械翻訳システムの試みについて\JBCQ\\newblock\Jem{信学技報},{\Bbf104}(316),\mbox{\BPGS\7--12}.\bibitem[\protect\BCAY{Matsumoto,Taniguchi,Yoshida,Tanaka,\BBA\Ikeda}{Matsumotoet~al.}{2005}]{Matsumoto2005b}Matsumoto,T.,Taniguchi,M.,Yoshida,A.,Tanaka,N.,\BBA\Ikeda,T.\BBOP2005\BBCP.\newblock\BBOQAproposalofanotationsystemfor{J}apanese{S}ign{L}anguageandmachinetranslationfromJapanesetexttosignlanguagetext\BBCQ\\newblockIn{\BemProceedingsoftheConferencePacificAssociationforComputationalLinguistics(PACLING2005)},\mbox{\BPGS\218--225}.\bibitem[\protect\BCAY{松本\JBA谷口\JBA吉田\JBA田中\JBA池田}{松本\Jetal}{2005}]{Matsumoto2005a}松本忠博\JBA谷口真代\JBA吉田鑑地\JBA田中伸明\JBA池田尚志\BBOP2005\BBCP.\newblock\JBOQ日本語—手話機械翻訳システムに向けて—テキストレベルの翻訳系の試作と簡単な例文の翻訳—\JBCQ\\newblock\Jem{信学技報},{\Bbf104}(637),\mbox{\BPGS\43--48}.\bibitem[\protect\BCAY{松本\JBA池田}{松本\JBA池田}{2005}]{Matsumoto2005c}松本忠博\JBA池田尚志\BBOP2005\BBCP.\newblock\JBOQ日本語から手話への機械翻訳のための手話表記法の試み\JBCQ\\newblock\Jem{手話コミュニケーション研究},{\Bbf\rule{0pt}{1pt}}(57),\mbox{\BPGS\31--37}.\bibitem[\protect\BCAY{松本\JBA原田\JBA原\JBA池田}{松本\Jetal}{2006}]{Matsumoto2006}松本忠博\JBA原田大樹\JBA原大介\JBA池田尚志\BBOP2006\BBCP.\newblock\JBOQ日本語を援用した日本手話表記法の試み\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(3),\mbox{\BPGS\177--200}.\bibitem[\protect\BCAY{宮下\JBA高橋\JBA森本\JBA黒川}{宮下\Jetal}{2004}]{Miyashita2004}宮下純一\JBA高橋正己\JBA森本一成\JBA黒川隆夫\BBOP2004\BBCP.\newblock\JBOQ日本語手話翻訳における重文,複文,埋め込み文の言語処理\JBCQ\\newblock\Jem{ヒューマンインタフェースシンポジウム2004論文集},\mbox{\BPGS\33--38}.\bibitem[\protect\BCAY{Nakamura}{Nakamura}{2002}]{Nakamura2002}Nakamura,K.\newblock\BBOQAboutJapaneseSignLanguage\BBCQ,\Turl{http://www.deaflibrary.org/\allowbreakjsl.html}.\bibitem[\protect\BCAY{岡}{岡}{2005}]{Oka2005}岡典栄\BBOP2005\BBCP.\newblock\JBOQ日本手話の動詞における数の一致\JBCQ\\newblock\Jem{手話コミュニケーション研究},{\Bbf\rule{0pt}{1pt}}(57),\mbox{\BPGS\18--26}.\bibitem[\protect\BCAY{Prillwitzet~al.}{Prillwitzet~al.}{2004}]{Prillwitz2004}Prillwitz,S.et.~al.\newblock\BBOQSignLanguageNotationSystem\BBCQ,\Turl{http://www.sign-lang.unihamburg.de\allowbreak/Projects/HamNoSys.html}.\bibitem[\protect\BCAY{Sandler\BBA\Lillo-Martin}{Sandler\BBA\Lillo-Martin}{2006}]{Sandler2006}Sandler,W.\BBACOMMA\\BBA\Lillo-Martin,D.\BBOP2006\BBCP.\newblock{\BemSignLanguageandLinguisticUniversals}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{謝\JBA今井\JBA池田}{謝\Jetal}{2004}]{Shie2004}謝軍\JBA今井啓允\JBA池田尚志\BBOP2004\BBCP.\newblock\JBOQ日中機械翻訳システムjaw/Chineseにおける変換・生成の方式\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(1),\mbox{\BPGS\43--80}.\bibitem[\protect\BCAY{白澤}{白澤}{2002}]{Shirasawa2002}白澤麻弓\BBOP2002\BBCP.\newblock\JBOQ手話通訳に対する期待の内容に関する研究\JBCQ\\newblock\Jem{日本手話学会第28回大会論文集}.\bibitem[\protect\BCAY{SignFactory}{SignFactory}{1997}]{SignFactory1997}SignFactory\BBOP1997\BBCP.\newblock\Jem{手話ジャーナル初級教材No.~1(VHSビデオ)}.\newblockワールドパイオニア.\bibitem[\protect\BCAY{SignFactory}{SignFactory}{1999}]{SignFactory1999}SignFactory\BBOP1999\BBCP.\newblock\Jem{手話ジャーナル初級教材No.~2(VHSビデオ)}.\newblockワールドパイオニア.\bibitem[\protect\BCAY{Sutton}{Sutton}{2002}]{Sutton2002}Sutton,V.\BBOP2002\BBCP.\newblock{\BemLessonsInSignWriting,Textbook\&Workbook,3rded.}\newblockTheDeafActionCommitteeforSignWriting.\bibitem[\protect\BCAY{Sutton-Spence\BBA\Woll}{Sutton-Spence\BBA\Woll}{1999}]{Sutton-Spence1999}Sutton-Spence,R.\BBACOMMA\\BBA\Woll,B.\BBOP1999\BBCP.\newblock{\BemTheLinguisticsofBritishSignLanguage---AnIntroduction}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{田上\JBA森\JBA立野}{田上\Jetal}{1979}]{Tanokami1979}田上隆司\JBA森明子\JBA立野美奈子\BBOP1979\BBCP.\newblock\Jem{手話の世界}.\newblock日本放送出版協会.\bibitem[\protect\BCAY{徳田\JBA奥村}{徳田\JBA奥村}{1998}]{Tokuda1998}徳田昌晃\JBA奥村学\BBOP1998\BBCP.\newblock\JBOQ日本語から手話への機械翻訳における手話単語辞書の補完方法について\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(3),\mbox{\BPGS\542--550}.\bibitem[\protect\BCAY{山田\JBA高松\JBA石原\JBA水野\JBA大口\JBA佐藤\JBA松本\JBA池田}{山田\Jetal}{2006}]{Yamada2006}山田佳裕\JBA高松大地\JBA石原吉晃\JBA水野智美\JBA大口智也\JBA佐藤芳秀\JBA松本忠博\JBA池田尚志\BBOP2006\BBCP.\newblock\JBOQ日本語文解析システムibukiC/Sについて\JBCQ\\newblock\Jem{言語処理学会第12回年次大会発表論文集},\mbox{\BPGS\280--283}.\bibitem[\protect\BCAY{米川}{米川}{2002}]{Yonekawa2002}米川明彦\BBOP2002\BBCP.\newblock\Jem{手話ということば—もう一つの日本の言語}.\newblockPHP新書.\bibitem[\protect\BCAY{米川\JBA井崎}{米川\JBA井崎}{2004}]{Yonekawa2004}米川明彦\JBA井崎哲也\BBOP2004\BBCP.\newblock\Jem{NHKみんなの手話4--6月号}.\newblock日本放送出版協会.\bibitem[\protect\BCAY{米川\JBA井崎}{米川\JBA井崎}{2005}]{Yonekawa2005}米川明彦\JBA井崎哲也\BBOP2005\BBCP.\newblock\Jem{NHKみんなの手話4--6月号,7--9月号}.\newblock日本放送出版協会.\bibitem[\protect\BCAY{米川\JBA井崎}{米川\JBA井崎}{2006}]{Yonekawa2006}米川明彦\JBA井崎哲也\BBOP2006\BBCP.\newblock\Jem{NHKみんなの手話4--6月号,7--9月号}.\newblock日本放送出版協会.\end{thebibliography}\begin{biography}\bioauthor{松本忠博}{1985年岐阜大学工学部電子工学科卒業.1987年同大学院修士課程修了.現在,同大学工学部応用情報学科助教.自然言語処理の研究に従事.言語処理学会,情報処理学会,電子情報通信学会,日本ソフトウェア科学会,日本手話学会,ヒューマンインタフェース学会各会員.}\bioauthor{池田尚志}{1968年東京大学教養学部基礎科学科卒業.同年工業技術院電子技術総合研究所入所.制御部情報制御研究室,知能情報部自然言語研究室に所属.1991年岐阜大学工学部電子情報工学科教授.現在,同応用情報学科教授.工博.自然言語処理の研究に従事.情報処理学会,電子情報通信学会,人工知能学会,言語処理学会,各会員.}\end{biography}\biodate\clearpage\clearpage\end{document}
V13N03-01
\section{はじめに} 近年,統計ベース翻訳\cite{Brown1993}や用例ベース翻訳\cite{Nagao1984}など大量のテキストを用いた翻訳手法(コーパスベース翻訳)が注目されている.我々は,用例ベース翻訳に焦点を当て研究を行っている.用例ベース翻訳の基本的なアイデアは,入力文の各部分に対して\textbf{類似}している用例を選択し,それらを組み合わせて翻訳を行うことである.ここでいう\textbf{類似}とは,通常,入力文とできるかぎり大きく一致していればいるほど(一致する単語数または文節数が多いほど)よいと考えられてきた.これは,用例が大きくなればなるほど,より大きなコンテキストを扱うことになり,正確な訳につながるからである.そのため,これまでの用例ベース翻訳は,大きな用例を優先する指標/基準を用いて用例を選択してきた.一方,統計ベース翻訳は,翻訳確率を緻密に計算するため,基本的には,翻訳用例を小さな語/句単位に分解して学習を行う.もちろん,最近の統計ベース翻訳では,より大きな単位を取り扱う試みも行われている.例えば,Och\cite{Och1999}等は,アライメントテンプレートという単位を導入し,語列をまとめて学習した.また,他にも多くの統計翻訳研究が語よりも大きな単位を学習に取り込む試みを行っている\cite{Koehn2003,Watanabe2003}.しかし,入力文とできる限り大きく一致した用例を用いる用例ベース翻訳と比べると,あらかじめ翻訳単位を設定する統計ベース翻訳の扱う単位は依然として小さいと言える.簡単に言うと,統計ベース翻訳と用例ベース翻訳は,以下の2点で異なる.\begin{enumerate}\item用例ベース翻訳は,用例のサイズ(一致する単語数または文節数)を重視している.統計ベース翻訳は用例の頻度を重視している.\item用例ベース翻訳は,経験則による指標/基準にもとづいて動作している.統計ベース翻訳は確率的に定式化されている.\end{enumerate}本研究では,用例ベース翻訳の問題は,(2)経験則による指標/基準を用いている点だと考える.経験則による指標/基準は,調整や修正が困難であり,また,アルゴリズムが不透明になる恐れがある.そこで,本研究では,用例ベース翻訳を定式化するために,用例ベース翻訳のための確率モデルを提案する.提案する翻訳モデルは,統計ベースのそれとは異なり,語や句単位の小さな単位から,文全体まで,あらゆるサイズをカバーした翻訳確率を計算する.この枠組みの上では,大きなサイズの用例は安定した翻訳先を伴うため,高い翻訳確率を持つと考えられる.したがって,翻訳確率が高い用例を選ぶことで,自然と用例のサイズを考慮した用例の選択が可能となる.また,提案する翻訳確率は容易に拡張可能であり,用例と入力文のコンテキストの類似度を確率モデルに取り込むことも可能である.実験の結果,提案手法は,従来の経験則に基づいた翻訳システムよりも僅かに高い精度を得て,用例ベース翻訳の透明性の高いモデル化を実現することに成功したので報告する.提案手法は言語ペアを特定しないが,本稿は日英翻訳方向で説明し,実験を行った.本稿の構成は,以下のとおりである.2章では,提案するモデルの基本的アイデアについて説明する.3章では,アルゴリズムについて述べる.4章では,実験について報告する.5章では,関連研究を紹介し,6章に結論を述べる. \section{提案手法} \begin{figure}\begin{center}\epsfxsize=120mm\epsfbox{f_prob5.eps}\end{center}\caption{翻訳のながれ}\label{f_prob.eps}{\footnotesize*本稿の図では,依存構造木の親を左に,子を右に描く.また,本研究では,ノードの単位は日本語は文節,英語はbase-NP,またはbase-VPとする.\par}\end{figure}用例ベース翻訳の基本的な原則はできるだけ大きなサイズの用例を用いて翻訳文を生成することである.これを確率的に定式化するためには,大きな用例を用いた翻訳結果が大きな翻訳確率を持たなくてはならない.本章では,これを実現するための基本アイデアを述べる.まず,提案手法は入力文を可能なかぎりの部分木の組合せに分解する:\begin{equation}D=\{d_{1},...,d_{N}\}.\end{equation}ここで,$d_{i}$は入力文の分解のパターン,$D$は$d_{i}$の集合である.次に,$d_{i}$は入力文を$M_{i}$個の部分木に分解しているとする:\begin{equation}d_{i}=\{s_{i1},s_{i2},...,s_{iM_{i}}\},\end{equation}ここで,$s_{ij}$は入力文の部分木である.例えば,図\ref{f_prob.eps}左の入力文の場合,$d_{1},...,d_{4}$の4通りの部分木の組合せで表現できる.この例では,$d_{1}$は入力文を3つの部分木$s_{11}$,$s_{12}$,$s_{13}$に分解している.また,$d_{2}$,$d_{3}$は,入力文を2つの部分木に分解している.また,$d_{4}$のように,文そのものも分解パターンとして取り扱う.次に,各部分木$s_{ij}$それぞれについて,もっとも翻訳確率$P(t_{ij}\mids_{ij})$(この確率の計算方法は次節にて述べる)の高い用例を選び,それらの積を翻訳文の翻訳確率$T_{P}(d_{i})$とする:\begin{equation}T_{P}(d_{i})=\prod_{s_{ij}\ind_{i}}P(t_{ij}\mids_{ij}).\end{equation}ここで,$t_{i1},...,t_{iM{i}}$を$d_{i}$の翻訳とみなし,$T(d_{i})$と表記する.最後に,もっとも高い翻訳確率を持つ分解パターン($d_m$)を以下の式によって探索し,最終的な翻訳を$T(d_m)$とする:\begin{equation}d_m=\arg\max_{d_{i}\inD}T_{P}(d_{i}).\end{equation}簡単に言うと,提案手法は,入力文のある単位をどう翻訳するかと,どういう単位で翻訳するかという2つ問題を解いている.前者は,最も確率の高い用例を選択することで解決しており,基本的な統計的翻訳と同様の考え方である.後者は,入力文の分解パターンを選択することで解決している.ここで重要なことは,本モデルの枠組みでは,大きな用例を用いた翻訳文が優先されることである.この理由は,大きな用例は安定した翻訳先を持つ傾向にあるため,高い翻訳確率を持ち,当然,その積である翻訳文の確率$T_{P}(d_{i})$も自然と高くなるからである.例えば,日本語``かける''は,翻訳の際には大きな曖昧性があり,``bet'',``run''や``play''など様々な英語表現が考えられる.ここで,もし,$T(d_{1})$のように,入力文を小さな部分木に分解した場合は,適切な訳である$P(play\midかける)$の翻訳確率は低く,適切な翻訳は行われない.一方,$T(d_{2})$では,より大きな表現``CDをかける''を用いた用例を探索している.この用例の英語表現としては,ほとんどが``play''となり,用例の翻訳確率は高くなる.その結果,用例群の翻訳確率の積である$P(d_{2})$も高くなり,この結果が翻訳として採用される.また,図\ref{f_prob.eps}の$T(d_{4})$のように,大きすぎる単位で検索した場合は,コーパス中に存在せず,確率が定義されない場合がある.\subsection{パラメータの推定}\begin{figure}\begin{center}\epsfxsize=75mm\epsfbox{f_cs.eps}\end{center}\caption{コンテストの定義}\label{f_cs.eps}\end{figure}\begin{table}\caption{``かける''を含んだ用例とそのコンテキスト(コンテキストは括弧で示されている)}\label{tc0}\begin{center}\begin{tabular}{ccc}\hline用例原言語側&用例目的言語側&context\_sim\\\hline(テープを)かける&play&0.8\\(CDを)かける&play&0.8\\(MDを)かける&put&0.8\\(目覚ましを)かける&set&0.6\\:&:&:\\(お金を)かける&bet&0.4\\(1万円を)かける&bet&0.4\\(名誉を)かける&bet&0.3\\\hline\end{tabular}\end{center}{\footnotesize*実際には用例は木構造の形で扱われているが,表記を簡潔にするため,この図では用例の構造は記していない.}\end{table}本節では,用例の翻訳確率の推定方法を述べる.まず,英語部分木$t$と日本語部分木$s$からなる用例があるとする.この翻訳確率$P(t\mids)$は,アライメントされたコーパス中での対応$(t,s)$の出現頻度を直接数えて求める:\begin{equation}P(t\mids)=\frac{count(t,s)}{count(*,s)},\end{equation}ここで,$count(t,s)$は,アライメントされたコーパスにおける対応$(t,s)$の出現頻度,$count(*,s)$は日本語部分木($s$)の出現頻度である\footnote{後述する実験では,データスパースネスの問題に対処するため,$s$と$t$は内容語に汎化して集計を行った.}.ただし,この頻度の計算にあたっては,次節に述べるコンテキストの情報を利用した拡張が可能である.\clearpage\subsection{入力文と用例のコンテキストの類似度を取り込んだ確率モデル}用例の選択にあたって重要な手がかりは入力文と用例の一致するサイズであり,それは,2.1節で提案された翻訳確率の枠組みで実現されている.しかし,用例のサイズに加えて,入力文と用例のコンテキストの類似も重要な手がかりである.提案するモデルは,このようなコンテキストの類似を取り込む拡張を自然に行うことができる.まず,提案手法を説明する前に,用例と入力文のコンテキストを定義する.図\ref{f_cs.eps}に示されるように,用例の原言語側が$i_{1..3}$という3つの句と接続しているとする.これらとそれと対応する入力文の$j_{1..3}$をコンテキストと考える.そして,用例と入力文のコンテキストの類似度を次の式で定める:\begin{equation}context\_sim(s)=\sum_{i\inN}sim(i,j),\end{equation}ここで,$i$は用例Aの日本語側で翻訳に使う部分の周辺の句,$j$は$i$と対応する入力文の句,$N$は$i$の集合,$sim(i,j)$はシソーラス\cite{NTT}を用いて計算する$i$と$j$の類似度(max=1)であり,以下の式で定義される:\begin{eqnarray}sim(i,j)=\frac{2d_c}{d_{i}+d_{j}},\end{eqnarray}ここで,$d_{i}$と$d_{j}$は,それぞれ$i$と$j$のシソーラス上での深さ,$d_c$は,$d_{i}$と$d_{j}$の共通するパスの深さである.提案手法のポイントは,高い類似度を持つ用例は,同じく高い類似度を持つ用例のみを用いて翻訳確率を計算する点である.すなわち,式5によって,ある用例の翻訳確率を計算する際には,$context\_sim(s)$以上の類似度を持つ用例だけを集計して翻訳確率を計算し,$context\_sim(s)$未満の類似度の用例は,用例の翻訳確率の計算には用いない.この操作を用例のフィルタリングと呼ぶ.このフィルタリングの操作は,用例のサイズごとに翻訳確率を計算する手法を,類似度にまで拡大したものであり,自然な拡張であるといえる.この拡張の結果,高い$context\_sim$を持つ用例は,それよりも低い$context\_sim$を持つ用例の影響を受けず,多くの場合,高い翻訳確率を持つことになる.例えば,``レコードをかける''がコーパスに存在しない(しかし,``レコード''と``かける''それぞれ単独では出現している)場合に,表\ref{tc0}の用例群を用いて翻訳することを考える.前節までの手法では,このように,大きなサイズで一致するものがない場合,``かける''単独で翻訳確率を計算することになり,``bet''など不適切な訳語が選ばれる可能性がある.本節の提案手法では,用例``CDをかける''と入力文``レコードをかける''の$context\_sim$が0.8であるとすると,同じく0.8以上の$context\_sim$を持つ用例だけを用いて翻訳確率を計算する.この場合,用例の数は3つだけとなるとが,その英語表現は安定しており,$P(play\midかける)=\frac{2}{3}$,$P(put\midかける)=\frac{1}{3}$となる.このように類似したコンテキストを持つ用例の翻訳確率は自然と高くなる傾向をもつ.また,この枠組では,類似度がもっとも高い用例が一つしかない場合,その翻訳確率は最大の1となる.これは,より大きな用例が利用可能であった場合に,その大きな用例よりも,類似している小さな用例を優先しているかのように見える.この問題は次のように解決されている.まず,提案手法は用例を構築する際に,大きな用例を分解した一部分も独立した用例として扱い,データベースに蓄える(3.1節ステップ3).よって,ある大きな用例が利用できる状態で,それよりも小さい,もっとも類似した用例が一つしかない場合における,その一つしかない用例とは,大きな用例の一部分から作られた用例となる.というのは,大きな用例が利用可能であるならば,その分解から得られた用例は,その周辺が入力文と同一であり,最大の類似度とるためである.よって,この場合,大きな用例ともっとも類似している用例のどちらを採用すると考えても,作られる翻訳は同じとなる. \section{翻訳システムの構成} \begin{figure*}\begin{center}\epsfxsize=100mm\epsfbox{f_te_c6_te.eps}\end{center}\caption{用例データベースの構築}\label{f_te_c6_te.eps}\end{figure*}提案するシステムは,次の2つのモジュールから構成される:\begin{enumerate}\item\textbf{アライメント・モジュール}:コーパスから用例を構築するモジュール,\item\textbf{翻訳モジュール}:翻訳を行うモジュール.\end{enumerate}\subsection{アライメント・モジュール}\begin{description}\item\textbf{ステップ1:対訳文の依存構造への変換}\\まず,対訳文を日本語パーサKNP\cite{Kurohashi1994}と英語パーサnl-parser\cite{Charniak2000}によって統語解析する.日本語の句の単位は,KNPの出力する文節とし,KNPの出力する依存構造をそのまま以降の処理に用いる.英語パーサは句構造を出力するので,句構造中の主辞を決定して,出力結果を依存構造に変換する.この際,主辞の決定には人手で作成した規則を用い,句の単位はbase-NP,base-VPとした.\\\item\textbf{ステップ2:アライメント}\\次に,翻訳辞書を用いたアライメントを行い,両言語の句の対応関係を得る.これには,\cite{Aramaki2001}の手法をそのまま用いた.この手法は,辞書を使用するが,後述する実験では次の辞書を用いた:EDR電子化辞書\footnote{http://www2.nict.go.jp/kk/e416/EDR/J\_index.html},EDICT\footnote{http://www.csse.monash.edu.au/~jwb/j\_edict.html},英辞郎\footnote{http://www.eijiro.jp/}.これらの辞書はのべ二百万項目を持つ.\\このステップの結果,システムは,図\ref{f_te_c6_te.eps}左のようなアライメントされた対訳文を得る.\\\item\textbf{ステップ3:用例データベースの構築}\\最後に,アライメントされた対訳文(図\ref{f_te_c6_te.eps}左)から,用例データベースを構築する.この際,システムは,あらゆる対応の組み合わせを生成し,その周辺の句(これはコンテキストの類似度を計算する際に用いる)とともにデータベースに登録する(図\ref{f_te_c6_te.eps}右).\end{description}\subsection{翻訳モジュール}\begin{description}\item\textbf{ステップ1:入力文の解析}\\まず,入力文を日本語パーサKNP\cite{Kurohashi1994}を用いて統語解析する.\\\item\textbf{ステップ2:用例の選択}\\入力文のあらゆる可能な部分木の組み合わせに分解し(前章の図\ref{f_prob.eps}の左),それらの部分木それぞれについて,用例データベース中を検索し,前章の手法にて,その翻訳確率を計算する.そして,最も翻訳確率の高くなる用例の組み合わせを採用する.\\\item\textbf{ステップ3:翻訳文の生成}\\前ステップで採用された用例群を結合し,出力文の依存構造にまとめ上げる.この操作は次の2つの規則によって行われる.\vspace{2mm}\begin{enumerate}\item用例内部の依存構造は,出力文にそのまま用いる.例えば,2つの翻訳用例(TE1,TE2)を結合して翻訳文を生成する場合を考える(図\ref{f_d1.eps}).ここで,TE1に含まれる2つの句($t_1$,$t_3$)の依存関係(太線で描かれている)は,そのまま翻訳文に用いられる.\\\item用例間の依存関係は,その用例が対応する入力文句の依存構造と同じ親子関係とする.例えば,図\ref{f_d1.eps}のTE1とTE2の間の依存関係について考える.TE2は入力文の$i_{2}$と対応しており,$i_{2}$は$i_{3}$と親子関係にある.よって,翻訳文側でも,$i_{2}$と対応する$t_{2}$は,$i_{3}$と対応する$t_{3}$と親子関係にあるものと考え,点線で描かれている依存関係を得る.\end{enumerate}\vspace{3mm}最後に,出力文の依存構造の語順を決定する.これは,先の依存構造の場合と同様に,用例の内部の語順は保存し,用例のつなぎ目の語順は,単語$n$-gram言語モデル\footnote{単語$n$-gramの学習は,後述する実験のトレーニングセット2万文を用いて$n=3$にて行った.}にて優先される語順を採用する.\end{description}\begin{figure}\begin{center}\epsfxsize=85mm\epsfbox{f_d1.eps}\end{center}\caption{出力文の生成}\label{f_d1.eps}\end{figure} \section{実験} \subsection{実験設定}提案手法の妥当性を検証するため,用例ベース翻訳システム\cite{Aramaki2004}の用例選択部分を提案手法に置き換えて実験を行った.コーパスはIWSLT04\cite{WO_tsujii}にて配布されたコーパス(トレーニングセットとテストセット)を用いた.トレーニングセットは旅行対話ドメインの2万の日英対訳文からなる.テストセットは日本語文($500$文)とそれらの16通りの英語翻訳($500\times16$文)からなる.精度を比較した翻訳システムは次のとおりである.\begin{enumerate}\item{\scPROPOSED:}提案手法.\item{\scWITHOUT\_SIM:}シソーラスを用いない(コンテキストの類似を扱わない)提案手法.\item{\scBASIC:}経験則によるメジャーにより用例を選択するシステム\cite{Aramaki2004}.このシステムは,IWSLT04\cite{WO_tsujii}に参加し,高い翻訳精度を示した.また,このシステムは,{\scPROPOSED}と同じアライメント結果を用いている.\item{\scBASELINE:}用例ベース翻訳のベースライン.このシステムは,最も編集距離が近い用例を探索し,その用例の英語文をそのまま出力する.\item{\scC1,C2:}ルールベース方式の商用翻訳システム.\end{enumerate}\subsection{評価}評価は,表\ref{eval}の自動評価尺度を用い,IWSLT04\cite{WO_tsujii}と同様の以下の条件で行った.\begin{enumerate}\item大文字/小文字の差異の無視.\item記号/句読点(−.,?”)の無視.\item数字はスペルアウトする(20,000→TwentyThousand).\end{enumerate}\subsection{結果}各手法の精度を表\ref{t1}に示す.表\ref{t1}に示されるように,提案手法{\scproposed}は,経験則による{\scbasic}と比べて僅かに高い精度を持ち,提案する確率による選択が妥当であることを示している.また,両者の精度は,商用システム({\scC1},{\scC2})や用例ベース翻訳のベースライン({\scbaseline})と比べてはるかに高く,現実的な精度上での比較であることが分かる.次に,コンテキストの類似度を考慮した効果について述べる.これは,提案手法({\scproposed})とシソーラスを用いない手法({\scwithout\_sim})の精度を比較することで調査できる(表\ref{t1}).実験結果は,NISTにおいては{\scproposed}が高く,BLEUにおいては{\scwithout\_sim}が僅かに高かった.NISTは訳語選択に鋭敏な自動評価手法であるが,このNISTで,{\scproposed}が高い値を持つのは,コンテキストの類似度の導入が訳語選択に貢献しているとためだと推測される.結果をより具体的に比較するため,両手法で翻訳結果が異なった例の一部を表\ref{tWithoutAndWithSim}に示す.表最上部は「ありませんか」という訳し分けが必要な表現の例である.この表現は,旅行ドメインでは,通常は``doyouhave''と訳すことが多いのだが,「(施設/場所が)ありませんか」という場合にはこの訳は不適切となる.このような場合でも,{\scproposed}は,「ありませんか」を``arethere''用いて正しく訳せている.一方,コンテキストの類似度を考慮しない{\scwithout\_sim}は,``doyouhave''と不適切な翻訳を行ってしまう.このように一部の翻訳で,{\scproposed}がより適切な翻訳を行ったが,表中段の``notify''と``contact''の差異など,両手法のどちらの訳語が適切か判断が困難な例も数多く確認された.この実験は,ドメインを旅行対話に絞った翻訳実験であり,訳し分けを必要する入力文が,ドメインを絞った時点で減っているのが,一因であると考えられる.最後に,表\ref{tWithoutAndWithSim}下部のように{\scproposed}の方が誤った訳を出力する場合も観察された.これは,{\scproposed}の選んだ用例にアライメント誤りが含まれていることが原因であった.一方,{\scwithout\_sim}は,同じ用例のサイズであれば,対応する頻度が高い用例を選ぶ.複数の用例がみな同じアライメントの誤り方をするわけではないので,{\scwithout\_sim}は必然的にアライメント誤りの影響を受けにくいと考えられる.この違いが原因で,一部の自動評価指標においては,{\scwithout\_sim}の精度の方が{\scproposed}よりも高くなったと推測される.このように,今回の実験では,{\scproposed}がすべての面で優位であることを示すことはできなかった.しかし,(1)アライメント誤りによる精度の低下は,モデルの定式化の妥当性とは別個の問題である点,また,(2)実験は,ドメインを絞った翻訳実験であり,コンテキストを考慮する必要性が少ない点,これらの2点を考慮すると,コンテキストの類似度の定式化の妥当性は,実験によって確かめられたと考えられる.また,アライメント誤りに対する頑健性をどのように{\scproposed}に持たせるかは,今後の課題としたい.\begin{table}\caption{proposedとwithout\_simの違い}\begin{center}\label{tWithoutAndWithSim}\begin{tabular}{ll}\hline\hline入力文&この近くでいいレストランは\textbf{ありませんか}\\{\scproposed}&\textbf{arethere}anygoodrestaurantsintheneighborhood\\{\scwithout\_sim}&$\surd$\textbf{doyouhave}anygoodrestaurantsintheneighborhood\\\hline入力文&このカートは\textbf{使えますか}\\{\scproposed}&\textbf{canIuse}thiscart\\{\scwithout\_sim}&$\surd$\textbf{doyouaccept}thiscart\\\hline入力文&警察へ\textbf{連絡して}ください\\{\scproposed}&please\textbf{notify}thepolice\\{\scwithout\_sim}&please\textbf{contact}thepolice\\\hline入力文&サイズが\textbf{わかりません}\\{\scproposed}&\textbf{i'mnotsureof}thissize\\{\scwithout\_sim}&\textbf{idon'tknow}thissize\\\hline入力文&メニューを\textbf{お願いします}\\{\scproposed}&\textbf{giveme}themenu\textbf{please}\\{\scwithout\_sim}&\textbf{please}themenu\\\hline入力文&\textbf{アクセサリー}はどこで\textbf{買えますか}\\{\scproposed}&$\surd$wherecani\textbf{buy\underline{clothesfor}accessory}\\{\scwithout\_sim}&wherecani\textbf{getaccessory}\\\hline入力文&\textbf{旅行の}目的は何ですか。\\{\scproposed}&$\surd$what'sthepurposeof\textbf{the\underline{travelagency}}\\{\scwithout\_sim}&what'sthepurposeof\textbf{thetrip}\\\hline\hline\end{tabular}\end{center}{\footnotesize*\textbf{太字}は{\scproposed}と{\scwithout\_sim}の翻訳が異なっている箇所を示す.$\surd$は誤りと評価された文を示す.\underline{下線}はアライメント誤りを示す.}\end{table}\begin{table}\caption{自動評価手法}\begin{center}\label{eval}\begin{tabular}{ll}\hline\textbf{BLEU}&\begin{minipage}{105mm}\vspace{1mm}正解とのn-gramの適合率の相乗(幾何)平均\cite{Papineni2002}.\vspace{1mm}\end{minipage}\\\hline\textbf{NIST}&\begin{minipage}{105mm}\vspace{1mm}正解とのn-gramの適合率の相加(算術)平均\cite{Doddington2002}.\vspace{1mm}\end{minipage}\\\hline\textbf{WER}&\begin{minipage}{105mm}\vspace{1mm}WordErrorRate.正解との編集距離\cite{Niessen2000}.\vspace{1mm}\end{minipage}\\\hline\textbf{PER}&\begin{minipage}{105mm}\vspace{1mm}PositionIndependentWordErrorRate.語順を用いない正解との編集距離\cite{Och2001}.\vspace{1mm}\end{minipage}\\\hline\textbf{GTM}&\begin{minipage}{105mm}\vspace{1mm}generaltextmatcher.正解と一致した最長語列の適合率,再現率の調和平均\cite{Turian2003}.\vspace{1mm}\end{minipage}\\\hline\end{tabular}\end{center}{\footnotesize*BLEU,NIST,GTMについては大きな値ほど精度がよい.WER,PERについては小さなほど精度がよい.}\end{table}\begin{table}\caption{実験結果}\begin{center}\label{t1}\begin{tabular}{rlllll}\hline&bleu&nist&wer&per&gtm\\\hline{\scproposed}&0.41&8.04&0.52&0.44&0.67\\{\scwithout\_sim}&0.42&7.67&0.49&0.42&0.68\\{\scbasic}&0.39&7.92&0.52&0.44&0.67\\{\scbaseline}&0.31&6.65&0.62&0.54&0.59\\{\scC1}&0.13&5.47&0.75&0.60&0.56\\{\scC2}&0.27&7.31&0.54&0.47&0.65\\\hline\end{tabular}\end{center}\end{table}\subsection{誤り分析}{\scproposed}のより具体的な分析のため,{\scproposed}の翻訳結果から,100翻訳文を無作為抽出し,それらを人手でチェックした.この結果,49の翻訳文が正解であり,51の翻訳文が不正解であると判定された.不正解であった原因を人手で分類した結果を表\ref{t3}に示す.\begin{table}\caption{誤り分析}\begin{center}\label{t3}\begin{tabular}{rll}\hline数&分類&説明\\\hline\hline21&DATA-SPARSENESS&\begin{minipage}{80mm}\vspace{1mm}用例の数が足りないことが原因である翻訳誤り.この場合,システムは翻訳辞書(アライメントの際に用いた辞書)を用いて訳語を得るが,しばしば不適切な訳語が得られる)\vspace{1mm}\end{minipage}\\\hline6&ZERO-PRONOUN&\begin{minipage}{80mm}\vspace{1mm}ゼロ代名詞による翻訳誤り.ゼロ代名詞が入力文にだけ含まれており,用例には含まれていない場合.または,逆に,ゼロ代名詞が用例にだけ含まれて,入力文には含まれていない場合に,翻訳文から代名詞が抜け落ちてしまう.\vspace{1mm}\end{minipage}\\\hline4&ALIGNMENT-ERR&\begin{minipage}{80mm}\vspace{1mm}アライメントが不適切な用例を用いたことによる翻訳誤り.\vspace{1mm}\end{minipage}\\\hline3&WORD-ORDER&\begin{minipage}{80mm}\vspace{1mm}語順がおかしい場合.\vspace{1mm}\end{minipage}\\\hline3&SELECTION-ERR&\begin{minipage}{80mm}\vspace{1mm}適した用例が存在するが,それが選択されず,不適切な用例を用いた場合.\vspace{1mm}\end{minipage}\\\hline12&OTHERS&\begin{minipage}{80mm}\vspace{1mm}上記のさまざまな誤りが複数存在し,特定の原因に分類できない場合.\vspace{1mm}\end{minipage}\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{翻訳例}\begin{center}\label{翻訳例}\begin{tabular}{ll}\hline判定&入力文\\誤り原因&システム出力\\\hline\hline&市役所行きのバス停はどこですか。\\&whereisthebusstopforthecityhall\\\hline&だいぶよくなったみたい。\\&ifeelmuchbetter\\\hline&インストラクターを紹介していただけませんか。\\&wouldyoupleasesuggestainstructor\\\hline&歩いてどのくらいですか。\\&howlongdoesittaketowalkplease\\\hline&チェックインは何時からですか。\\&whatisthecheck-intime\\\hline$\surd$&ひどい頭痛がしているんです。\\ZERO-PRONOUN&hasabadheadache\\\hline&バスでそこへ行けますか。\\&canigettherebybus\\\hline$\surd$&あの棚の本を見たいのですが。\\WORD-ORDER&i'dliketoseetherackthatareabooks\\\hline$\surd$&なにかメッセージが届いていませんか。\\ZERO-PRONOUN&havereceivedanymessageforsomething\\\hline$\surd$&この綿のセーターを試着してもよろしいですか。\\DATA-SPARSENESS&iwouldliketotrythissweaterforancotton\\\hline&バス付きの二人部屋にします。\\&atwopeopleroomwithabath\\\hline&日本円をドルに替えてください。\\&changeourjapaneseyenpleaseintodollars\\\hline&切符売り場はどこでしょう。\\&wherecanifindtheticketoffice\\\hline\end{tabular}\end{center}{\footnotesize*$\surd$は誤りと評価された文を示す.}\end{table}表\ref{t3}に見られるように,DATA-SPARSENESSがもっとも顕著な問題である.このことから,もし,より多くのコーパスが利用可能であれば,精度はさらに向上すると考えられる.また,次にZERO-PRONOUN(ゼロ代名詞の問題)が多い.現在,提案手法はゼロ代名詞に関して,特別な処理を行っていないが,今後,省略解析の技術を用いて,より注意深くゼロ代名詞を扱うことが必要であろう.参考までに,表\ref{翻訳例}に翻訳例と分類結果の一部を示す.\subsection{コーパスサイズと精度}\begin{figure}\begin{center}\epsfxsize=80mm\epsfbox{f_g1.eps}\end{center}\caption{コーパスサイズと精度(BLEU)}\label{f_g1.eps}\end{figure}最後に,コーパスサイズ(トレーニングセットの対訳文数)と翻訳精度(BLEU)の関係について調査した.これは,{\scproposed}と{\scbaseline}の2つのシステムを用いて行った(図\ref{f_g1.eps}).図\ref{f_g1.eps}に示されるように,{\scproposed}と{\scbaseline}の差はコーパスサイズが小さい場合($x\simeq5,000$)に大きいことが分かる.このことから,{\scproposed}の方が用例の不足に対してより頑健であることが分かる.また,スコアは今回の実験の最大の用例数($x=20,000$)で飽和していない.このことから,もし,より多くの用例を得ることができれば,より高い精度を得ることが期待される. \section{関連研究} これまで様々な用例ベース翻訳システムが提案されてきたが,それらは経験則\pagebreakに基づいて用例を選択しており,提案手法のような確率的な尺度に注意を払っていない.例えば,\cite{Richardson2001}はマニュアルドメインの用例ベース翻訳システムを提案した.彼らのシステムは,用例と入力文の間で一致する部分のサイズのみを用いて用例を選択している.\cite{Furuse1994,Imamura2002}は,一致サイズとコンテキストの類似度の両方を用いて用例を選択している.\cite{aramaki2003}は,それらに加え,さらにアライメントのもっともらしさを用いて用例を選択している.これらの手法では,複数の尺度をどのような重みで考慮するか,という重み付けの問題が存在する. \section{おわりに} 本稿では,大きな用例ほど翻訳確率が高くなるという考えに基づき,翻訳確率だけを用いて用例を選択する用例ベース翻訳手法を提案した.実験の結果は,従来の経験則による用例選択を行うシステムよりも僅かに高い精度を得ることができ,提案手法の妥当性を示している.本研究により,これまで,統計ベース翻訳と比べて不透明であった用例ベース翻訳のアルゴリズムを定式化することでき,今後より一層緻密な用例ベース翻訳の議論が可能になると考えている.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Akiba,Federico,Kando,Nakaiwa,Paul,\BBA\Tsujii}{Akibaet~al.}{2004}]{WO_tsujii}Akiba,Y.,Federico,M.,Kando,N.,Nakaiwa,H.,Paul,M.,\BBA\Tsujii,J.\BBOP2004\BBCP.\newblock\BBOQOverviewofthe{IWSLT04}EvaluationCampaign\BBCQ\\newblockIn{\BemProceedingsoftheInternationalWorkshoponSpokenLanguageTranslation(IWSLT2004)},\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{Aramaki\BBA\Kurohashi}{Aramaki\BBA\Kurohashi}{2004}]{Aramaki2004}Aramaki,E.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2004\BBCP.\newblock\BBOQExample-basedMachineTranslationusingStructualTranslationExamples\BBCQ\\newblockIn{\BemProceedingsoftheInternationalWorkshoponSpokenLanguageTranslation(IWSLT2004)},\mbox{\BPGS\91--94}.\bibitem[\protect\BCAY{Aramaki,Kurohashi,Kashioka,\BBA\Tanaka}{Aramakiet~al.}{2003}]{aramaki2003}Aramaki,E.,Kurohashi,S.,Kashioka,H.,\BBA\Tanaka,H.\BBOP2003\BBCP.\newblock\BBOQWordSelectionforEBMTbasedonMonolingualSimilarityandTranslationConfidence\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyconferenceandtheNorthAmericanchapteroftheAssociationforComputationalLinguistics(HLT-NAACL2003)WorkshoponBuildingandUsingParallelTexts:DataDrivenMachineTranslationandBeyond},\mbox{\BPGS\57--64}.\bibitem[\protect\BCAY{Aramaki,Kurohashi,Sato,\BBA\Watanabe}{Aramakiet~al.}{2001}]{Aramaki2001}Aramaki,E.,Kurohashi,S.,Sato,S.,\BBA\Watanabe,H.\BBOP2001\BBCP.\newblock\BBOQFindingTranslationCorrespondencesfromParallelParsedCorpusforExample-basedTranslation\BBCQ\\newblockIn{\BemProceedingsofMTSummitVIII},\mbox{\BPGS\27--32}.\bibitem[\protect\BCAY{Brown,Pietra,centJ.~Della~Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{Brown1993}Brown,P.~F.,Pietra,S.A.~D.,centJ.~Della~Pietra,V.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofStatisticalMachineTranslation:ParameterEstimation\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2).\bibitem[\protect\BCAY{Charniak}{Charniak}{2000}]{Charniak2000}Charniak,E.\BBOP2000\BBCP.\newblock\BBOQAmaximum-entropy-inspiredparser\BBCQ\\newblockIn{\BemProceedingsoftheNorthAmericanchapteroftheAssociationforComputationalLinguistics(NAACL2000)},\mbox{\BPGS\132--139}.\bibitem[\protect\BCAY{Doddington}{Doddington}{2002}]{Doddington2002}Doddington,G.\BBOP2002\BBCP.\newblock\BBOQAutomaticevaluationofmachinetranslationqualityusingn-gramco-occurrencestatistics\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyconference(HLT2002)},\mbox{\BPGS\257--258}.\bibitem[\protect\BCAY{Furuse\BBA\Iida}{Furuse\BBA\Iida}{1994}]{Furuse1994}Furuse,O.\BBACOMMA\\BBA\Iida,H.\BBOP1994\BBCP.\newblock\BBOQConstituentBoundaryParsingforExample-BasedMachineTranslation\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceonComputationalLinguistics(COLING1994)},\mbox{\BPGS\105--111}.\bibitem[\protect\BCAY{Imamura}{Imamura}{2002}]{Imamura2002}Imamura,K.\BBOP2002\BBCP.\newblock\BBOQApplicationofTranslationKnowledgeacquiredbyHierarchicalPhraseAlignmentforPattern-basedMT\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonTheoreticalandMethodologicalIssuesinMachineTranslation(TMI2002)},\mbox{\BPGS\74--84}.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{Koehn2003}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalphrase-basedtranslation\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyconferenceandtheNorthAmericanchapteroftheAssociationforComputationalLinguistics(HLT-NAACL2003)},\mbox{\BPGS\48--54}.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1994}]{Kurohashi1994}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQASyntacticAnalysisMethodofLong{J}apaneseSentencesbasedontheDetectionofConjunctiveStructures\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf20}(4).\bibitem[\protect\BCAY{Nagao}{Nagao}{1984}]{Nagao1984}Nagao,M.\BBOP1984\BBCP.\newblock\BBOQAFrameworkofaMechanicalTranslationbetween{J}apaneseand{E}nglishbyAnalogyPrinciple\BBCQ\\newblockIn{\BemElithorn,A.andBanerji,R.(eds.):ArtificialandHumanIntelligence},\mbox{\BPGS\173--180}.\bibitem[\protect\BCAY{Niessen,F.~J.~Och,\BBA\Ney}{Niessenet~al.}{2000}]{Niessen2000}Niessen,S.,F.~J.~Och,G.~L.,\BBA\Ney,H.\BBOP2000\BBCP.\newblock\BBOQAnevaluationtoolformachinetranslation:Fastevaluationformachinetranslationresearch\BBCQ\\newblockIn{\BemProceedingsoftheinternationalconferenceonLanguageResourcesandEvaluation(LREC2000)},\mbox{\BPGS\39--45}.\bibitem[\protect\BCAY{Och,Tillmann,\BBA\Ney}{Ochet~al.}{1999}]{Och1999}Och,F.~J.,Tillmann,C.,\BBA\Ney,H.\BBOP1999\BBCP.\newblock\BBOQImprovedalignmentmodelsforstatisticalmachinetranslation\BBCQ\\newblockIn{\BemProceedingsoftheEmpiricalMethodsinNaturalLanguageProcessingandVeryLargeCorpora(EMNLP1999)},\mbox{\BPGS\20--28}.\bibitem[\protect\BCAY{Och,Uerng,\BBA\Ney}{Ochet~al.}{2001}]{Och2001}Och,F.~J.,Uerng,N.,\BBA\Ney,H.\BBOP2001\BBCP.\newblock\BBOQAneffcienta*searchalgorithmforstatisticalmachinetranslation\BBCQ\\newblockIn{\BemProceedingsoftheAnnualConferenceoftheAssociationforComputationalLinguistics(ACL2001)WorkshoponData-DrivenMachineTranslation},\mbox{\BPGS\55--62}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{Papineni2002}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.~J.\BBOP2002\BBCP.\newblock\BBOQBLEU:aMethodforAutomaticEvaluationofMachineTranslation\BBCQ\\newblockIn{\BemProceedingsoftheAnnualConferenceoftheAssociationforComputationalLinguistics(ACL2002)},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Richardson,Dolan,Menezes,\BBA\Corston-Oliver}{Richardsonet~al.}{2001}]{Richardson2001}Richardson,S.~D.,Dolan,W.~B.,Menezes,A.,\BBA\Corston-Oliver,M.\BBOP2001\BBCP.\newblock\BBOQOvercomingthecustomizationbottleneckusingexample-basedMT\BBCQ\\newblockIn{\BemProceedingsoftheAnnualConferenceoftheAssociationforComputationalLinguistics(ACL2001)WorkshoponData-DrivenMethodsinMachineTranslation},\mbox{\BPGS\9--16}.\bibitem[\protect\BCAY{Turian,Shen,\BBA\Melamed}{Turianet~al.}{2003}]{Turian2003}Turian,J.~P.,Shen,L.,\BBA\Melamed,I.~D.\BBOP2003\BBCP.\newblock\BBOQEvaluationofmachinetranslationanditsevaluation\BBCQ\\newblockIn{\BemProceedingsofMTSummmitIX},\mbox{\BPGS\386--393}.\bibitem[\protect\BCAY{Watanabe,Sumita,\BBA\Okuno}{Watanabeet~al.}{2003}]{Watanabe2003}Watanabe,T.,Sumita,E.,\BBA\Okuno,H.~G.\BBOP2003\BBCP.\newblock\BBOQChunk-basedStatisticalTranslation\BBCQ\\newblockIn{\BemProceedingsoftheAnnualConferenceoftheAssociationforComputationalLinguistics(ACL2003)},\mbox{\BPGS\303--310}.\bibitem[\protect\BCAY{池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦}{池原悟\Jetal}{1997}]{NTT}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{荒牧英治}{1998年京都大学総合人間学部基礎科学科卒業.2005年東京大学大学院情報理工学系研究科博士課程修了.博士(情報理工学).現在,東京大学附属病院企画情報運営部特任助手.機械翻訳,医療情報の研究に従事.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.博士(工学).1994年同大学院博士課程修了.京都大学工学部助手,京都大学情報学研究科講師,東京大学大学院情報理工学系研究科助教授を経て,2006年京都大学情報学研究科教授,現在に至る.自然言語処理,知識情報処理の研究に従事.}\bioauthor{柏岡秀紀}{1993年大阪大学大学院基礎工学研究科博士後期課程修了.博士(工学).同年ATR音声翻訳通信研究所入社.1998年同研究所主任研究員(現ATR音声言語コミュニケーション研究所).1999年奈良先端科学技術大学院大学情報学研究科客員助教授.主に自然言語処理、機械翻訳の研究に従事.}\bioauthor{加藤直人}{1986年早稲田大学理工学部電気工学科卒業.1988年同大学院修士課程修了.同年日本放送協会(NHK)に入局.現在,NHK放送技術研究所に勤務.この間,ATR音声翻訳通信研究所,ATR音声言語コミュニケーション研究所に出向.博士(情報科学).機械翻訳,対話処理,音声言語処理,自動要約の研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V18N04-02
\section{はじめに} \label{sec:1}\modified{言語解析器の作成時,タグ付きコーパスを用いて構造推定のための機械学習器を訓練する.しかし,そのコーパスはどのくらい一貫性をもってタグ付けられるものだろうか.一貫性のないコーパスを用いて評価を行うとその評価は信頼できないものとなる.また,一貫性のないコーパスから訓練すると,頑健な学習モデルを利用していたとしても解析器の性能は悪くなる.}本稿では,人間による日本語係り受け関係タグ付け作業に関して,\modified{どのくらい一貫性をもって正しくタグ付け可能かを評価する}新しいゲームアプリケーション``shWiiFitReduceDependencyParsing''(図\ref{fig:swfrdp})を提案する.ゲームのプレーヤーはWiiバランスボードの上に立ち,係り受け解析対象の文を読み,画面中央の文節対に対して\mmodified{2}種類の判断「係らない(SHIFT)」もしくは「係る(REDUCE)」の判断を選択し,体重を左右のどちらかに加重する.\modified{係り受け構造のタグ付けにおける非一貫性は次の3つに由来すると考える.1つ目は,係り受け構造が一意に決まるが,作業者が誤るもの.2つ目は,複数の可能な正しい構造に対して,基準により一意に決めているが,作業者が基準を踏襲できなかったもの.3つめは,複数の可能な正しい構造に対して,基準などが決められていないもの.}\begin{figure}[b]\begin{minipage}[t]{205pt}\includegraphics{18-4ia920f1.eps}\caption{shWiiFitReduceDependencyParsing}\label{fig:swfrdp}\end{minipage}\hfill\raisebox{26pt}[0pt][0pt]{\begin{minipage}[t]{205pt}\includegraphics{18-4ia920f2.eps}\caption{ExampleSentences}\label{fig:examplesentences}\end{minipage}}\end{figure}\modified{ここでは,1つめの非一貫性つまりタグ付けの正確性について検討する.}このゲームアプリケーションを用いて,埋め込み構造に基づくガーデンパス文(図\ref{fig:examplesentences})のタグ付け困難性を評価する心理言語実験を行う.対象となる文は統語的制約のみによりその係り受け構造が一意に決定できる.しかしながら,被験者は動詞の選択選好性によるバイアスにより係り受け構造付与を誤ってしまう傾向があり,本稿ではその傾向を定量的に調査する.また,同じガーデンパス文を,各種係り受け解析器で解析し,現在の係り受け解析モデルの弱点について分析する.人間の統語解析処理については,自己ペースリーディング法・質問法・視線検出法などの手法により心理言語学の分野で調査されてきた\cite{Mazuka1997a,Tokimoto04}.しかしながら,これらの心理言語学で用いられてきた手法は,読む速度を計測したり,文の意味を質問により事後確認したりする手法であり,コーパスに対する係り受けのタグ付けに直接寄与しない.一方,提案する手法では人間の係り受け判断をより直接的に評価し,また\modified{体重加重分布}に基づいて解析速度を追跡することができる.以下,\ref{sec:2}節では日本語係り受け解析手法について概説する.\ref{sec:3}節では用いたガーデンパス文について説明する.\ref{sec:4}節では人間による係り受け解析の調査に用いたゲームについて紹介する.\ref{sec:5}節では実験結果と考察を示し,\ref{sec:6}節にまとめと今後の展開について示す. \section{日本語係り受け解析} \label{sec:2}日本語の係り受け解析器は京大コーパス由来のものが多い.コーパスの基準により,係り受け関係は文節単位に付与され,係り受け関係は交差することがほとんどなく(projective),常に主辞が右にくる性質を持つ(strictlyhead-final).また文節を単位とした場合,動詞は格フレームを持つがその格要素は頻繁に省略される(productiveusageofemptycategory),主辞に対する従属要素間の語順は比較的自由である(presenceofscrambling)といった特性がある.このような特性により,他言語と比して係り受け解析手法を単純化することができる.オープンソースの日本語係り受け解析器が2つある.1つは京都大学で開発されたKNPであり,入力として規則に基づく形態素解析器JUMANの出力を用いる.KNPは同表記異義語の曖昧性解消・文節まとめあげ・並列構造解析・係り受け解析・格解析を行うことができ,文節まとめあげは規則に基づき,以降の処理は規則と生成モデルの混合手法に基づく.もう1つは工藤拓氏によるCaboChaで,条件付確率場に基づく形態素解析器MeCabの出力を用いる.CaboChaは文節まとめあげ・係り受け解析を行うことができ,それぞれ条件付確率場・サポートベクトルマシンといった識別モデルに基づく.日本語の係り受け解析手法は決定的な状態遷移アルゴリズムに基づくものが多く提案されている.長さ$N$の文に対し,時間計算量$O(N^2)$のCascadedChunking法~\cite{Kudo02}・$O(N)$のShiftReduce法~\cite{Sassano04}・$O(N^2)$のTournament法~\cite{Iwatate08}などが提案されている.他言語では様々な係り受け解析手法が提案されており\cite{CoNLL06,CoNLL07},グラフに基づく方法\cite{Eisner00,McDonald05,Carreras07,Koo10}が決定的な状態遷移アルゴリズム\cite{Nivre03,Nivre04}とともに高精度を達成している.2手法が得意とする言語現象が異なるため,両者の組み合わせ手法\cite{Nivre08}が提案されている.しかしながら,日本語の係り受け解析において,グラフに基づく手法が高精度を達成されたという報告はない. \section{日本語ガーデンパス文} \label{sec:3}ガーデンパス文とは,途中まで文字列を読んで一旦理解されやすい解釈が誤っており,最後まで読んで初めて正しい解釈ができるような構造を持つ文のことをいう.本稿では係り受け構造同定を誤りやすい文として,Tokimoto\cite{Tokimoto04}の実験で用いられた埋め込み構造に基づく日本語ガーデンパス文を用いる.利用する例文は以下の形式の6文節からなる:\begin{center}\begin{tabular}{p{2cm}p{2cm}p{2cm}p{2cm}p{2cm}p{2cm}}$NP_{1}^{NOM}$&$NP_{2}^{ACC}$&$V_{3}^{PAST}$&$NP_{4}^{DAT}$&$X_{5}$&$V_{6}^{PAST}$\\\end{tabular}\end{center}下添え字は文節の順番を表す便宜上の数字である.$NP$は格助詞を持つ名詞句を表し,$NP^{NOM}$はガ格を持つ名詞句・$NP^{ACC}$はヲ格を持つ名詞句・$NP^{DAT}$はニ格を持つ名詞句を表す.$V^{PAST}$はタ形の動詞を表す.5番目の文節$X$に何が割り当てられるかによって異なる3種類の係り受け構造を持つ.1つ目はガ格を持つ名詞句$NP_{5}^{NOM}$を割り当てたものでControl(CTRL)文と呼ぶ.2つ目はヲ格を持つ名詞句$NP_{5}^{ACC}$を割り当てたものでEarlyBoundary(EB)文と呼ぶ.3つ目はそれ以外の句を割り当てたものでLateBoundary(LB)文と呼ぶ.3種類の係り受け構造を図\ref{fig:examplesentences}に示す.CTRL文の場合,並列構造などの例外を除いて1つの動詞が2つ以上のガ格を持たないため,最初の$NP_{1}^{NOM}$が$V_{3}^{PAST}$のガ格,$NP_{5}^{NOM}$が$V_{6}^{PAST}$のガ格となる.非交差条件と常に主辞が右に来る制約により$NP_{2}^{ACC}$が$V_{3}^{PAST}$に,$NP_{4}^{DAT}$が$V_{6}^{PAST}$に係る.尚,$V_{3}^{PAST}$が$NP_{4}^{DAT}$に連体節外の関係\cite{Teramura1981}で係る.EB文の場合,並列構造などの例外を除いて1つの動詞が2つ以上のヲ格を持たないため,最初の$NP_{2}^{ACC}$が$V_{3}^{PAST}$のヲ格,$NP_{5}^{ACC}$が$V_{6}^{PAST}$のヲ格となる.準備した文は全て$NP_{4}^{DAT}$が$V_{3}^{PAST}$を連体節内の関係で受け,意味的には$V_{3}^{PAST}$のガ格に相当する.このため$NP_{1}^{NOM}$が$V_{6}^{PAST}$のガ格になる.LB文の場合,準備した文は全て$NP_{4}^{DAT}$が$V_{3}^{PAST}$を連体節内の関係で受け,意味的には$V_{3}^{PAST}$のヲ格に相当する.このため$NP_{2}^{ACC}$が$V_{6}^{PAST}$のヲ格になる.非交差条件と常に主辞が右に来る制約により$NP_{1}^{NOM}$が$V_{6}^{PAST}$に係る. \section{ゲーム:shWiiFitReduceDependencyParsing} \label{sec:4}本節では人間の係り受け解析判定を調査するために開発したゲーム``shWiiFitReduceDependencyParsing''について説明する.図\ref{fig:swfrdp}にゲーム画面を示す.ゲームはNivreらのshiftreduce法\cite{Nivre03,Nivre04}の日本語対応版であるSassanoのアルゴリズムを元にしている(Algorithm\ref{alg:sr}).4種類のアクション``defaultreduce''・``defaultshift''・``REDUCE''・``SHIFT''のうち``REDUCE''・``SHIFT''を人間が判断する.文節数$N$の1文を,高々$2N$回のアクションを決定することにより係り受け解析ができる.以下アルゴリズムについて詳しく説明する:\begin{algorithm}[tb]\caption{Shiftreduce法に基づく日本語係り受け解析\label{alg:sr}}\small\begin{algorithmic}\STATE$\langleS,Q,A\rangle=\langlenil,W,\phi\rangle$\%Initialization\REPEAT\IF{$S!=nil$and$|Q|==1$}\STATE$\langles|S,q,A\rangle\Rightarrow\langleS,q,A\cup\langles,q\rangle\rangle$\%``defaultreduce''\ELSIF{$S==nil$and$|Q|>1$}\STATE$\langlenil,q|Q,A\rangle\Rightarrow\langleq,Q,A\rangle$\%``defaultshift''\ELSE\IF{$s$and$q$hasadependencyrelation}\STATE$\langles|S,q|Q,A\rangle\Rightarrow\langleS,q|Q,A\cup\langles,q\rangle\rangle$\%``REDUCE''\ELSE\STATE$\langles|S,q|Q,A\rangle\Rightarrow\langleq|s|S,Q,A\rangle$\%``SHIFT''\ENDIF\ENDIF\UNTIL{$S==nil$\AND$|Q|==1$}\RETURN$A$\end{algorithmic}\end{algorithm}スタック$S$・キュー$Q$・解析済み係り受け関係を格納する$A$の3つ組を定義する.それぞれ,空スタック$nil$・入力文節列$W$・空集合$\phi$で初期化する.係り受け解析はこの3つ組の状態遷移により進められる.状態遷移は以下の条件分岐により行う:\begin{itemize}\item``defaultreduce'':スタック$S$が空ではなくかつキュー$Q$が単一文節$q$のみの場合,システムが自動的に$S$の先頭要素$s$が$q$に係る関係を解析済み係り受け関係集合$A$に追加し$S$から$s$をpopする.\item``defaultshift'':$S$が空でありかつ$Q$が複数文節からなる場合,システムが自動的に$Q$の先頭要素$q$をpopし,$S$に$q$をpushする.\item``REDUCE'':人間が$S$の先頭要素$s$と$Q$の先頭要素$q$の間の係り受け関係を判断し係り受け関係がある場合,$S$の先頭要素$s$が$q$に係る関係を$A$に追加し$S$から$s$をpopする.\item``SHIFT'':人間が$S$の先頭要素$s$と$Q$の先頭要素$q$の間の係り受け関係を判断し係り受け関係がない場合,$Q$の先頭要素$q$をpopし,$S$に$q$をpushする.\end{itemize}以下,アクションをどのようにプレーヤーが入力するかを説明する.ゲームのプレーヤーには図\ref{fig:swfrdp}のようなスクリーンが提示される.解析すべき文がスクリーンの上部に示される.ゲーム開始時には顔アイコンがスクリーン下部中央に示される.その左上にあるトレイがスタック$S$に相当し,右上にあるトレイがキュー$Q$に相当する.左トレイ$S$には何も載っていない状態で,右トレイ$Q$には文の先頭3文節が載っている状態で初期化される.ゲームの間左トレイ$S$・右トレイ$Q$ともに画面中央を先頭として高々3文節がプレーヤーに提示される.プレーヤーはNintendoバランスWiiボード上に乗り,体重移動により顔アイコンを移動させ左右の壁に移動させることにより注目する2文節間の係り受け関係の有無を入力する.もし左トレイ$S$の先頭要素$s$と右トレイ$Q$の先頭要素$q$が係り受け関係にある場合,プレーヤーは右方向に体重移動することにより顔アイコンを画面下部右の``REDUCE''という壁に移動させる.係り受け関係にない場合,左方向に体重移動することにより顔アイコンを画面下部左の``SHIFT''という壁に移動させる.壁に顔アイコンが触れた時点で入力と見なされ,ゲームは820--860~msec.のアニメーションとともに,対応するアクションを実行する.この間プレーヤーが体重を左右に加重していない状態であれば,自動的にアイコンは中央に戻る.アクションが一意に決まる場合,つまり``defaultreduce''・``defaultshift''相当の場合,同様に820--860~msec.のアニメーションが提示する.1文解析後プレーヤーには解析結果が正しかったかどうかが提示される.プレーヤーはジャンプすることにより次の文の解析に進むことができる.ゲームの間ソフトウェアは各アクションの反応時間を計測する.今回の実験では,入力デバイスとして,バランスWiiボードを用いたが,ソフトウェアはキーボード上のカーソルキー・ジョイスティック・ゲームパッド(NintendoWiiリモコンの各種センサを含む)でも動かすことができる.入力デバイスとしてバランスWiiボードを用いた理由は,判断に迷った際にある程度プレーヤーに対して負荷を与えることができる点がある.プレーヤーが判断に迷った場合,キーボード上のカーソルキー・ゲームパッドを用いた場合にはプレーヤーは何もしなくてもよいが,バランスWiiボードを用いた場合にはプレーヤーは体重を中心に保つ努力をしなければならない.この負荷の有無については,4人に対する小規模の対照実験においてバランスWiiボードの方が反応時間差が出やすいことを確認している. \section{実験\label{sec:5}} \subsection{人間の係り受け解析判断\label{subsec:5.1}}\subsubsection{実験設定}\ref{sec:4}節に示したゲームを用いて,心理言語実験を行う.ここでは\ref{sec:3}節に示した埋め込み構造に基づくガーデンパス文に対する係り受け解析の精度と反応時間について評価する.21--27歳の日本語を母語とする\mmodified{大学生・大学院生13}人を対象とし,被験者には謝金を支払う.ゲームの利用方法を教示するため,被験者は6ページのマニュアルを5分間読む.その後,係り受け関係の教示のために,文の構造を解説している小学校4年生の国語の教科書2ページを読む.\modified{教示時には速度と正解率の両方を計測していることを被験者に伝え,速く・正確に解析を行うことを依頼する.ゲーム中は各文が正解しているか否かのみを提示する.}練習として被験者は3--6文節により構成される10文1セットを対象に実験を行う.被験者の希望により,同じ文を3セットまで練習することができる.練習に利用した平均文数は\mmodified{16.9}文で5--12分要する.練習に用いた文の正しい係り受け構造は図入りのマニュアルに全て示されている.尚,\mmodified{13}人の被験者のうちNintendoWiiFitおよび関連ゲームを高頻度で遊んだことのあるものは1人のみ.本実験において60文を解析用データとして準備した.\ref{sec:3}節に示した\modified{判定対象となる3種類の例文(CTRL・EB・LB)10文ずつ計30文}とフィラー30文からなる.判定対象となる文は全て6文節だが,フィラー文は6--7文節.判定対象となる文はTokimotoの実験で利用されたものと同一であり,フィラー文はTokimotoが行ったように文中に出現する語彙は10年分の新聞記事頻度とNTT語彙特性\cite{Goitokusei}の語彙親密度により統制する.各被験者は1回の本実験で40文を解析する.文は以下の順で提示する:最初の5文はフィラー文・次の30文はフィラー15文+CTRL文5文+EB文5文+LB文5文をランダム順処理したもの・最後5文はフィラー文.被験者毎に異なるデータセットを作成する.1人の被験者に対して同じ文を2度提示しない.図\ref{fig:room}に実験環境を示す.42インチのディスプレイ上には1024$\times$768解像度で表示したうちの800$\times$600ピクセルの部分がゲーム画面である.実験に利用した部屋は防音室ではないが,可能な限り静音化した.バランスボードと画面の距離は230~cm.\modified{図中ホワイトボードの後ろに教示者がおり,練習時には操作方法の指示を行う.}\begin{figure}[t]\begin{center}\includegraphics{18-4ia920f3.eps}\end{center}\caption{実験環境}\label{fig:room}\end{figure}\subsubsection{実験結果}表\ref{table:result:pacc}に文型毎の文正解率と文単位の反応時間の標準残差(内的にスチューデント化した残差)の平均と標準偏差を示す.標準残差の計算時は正しく解析した際の時間を以下のパラメータで線形回帰する\footnote{\modified{線形回帰は文の処理時間を正規化するために行う.回帰による予測値と実測値の乖離を検討し,所要時間の文型間の差異を評価する.}}:(a)モーラ数・(b)文字数・(c)文節数・(d)文の提示順・(e)``defaultreduce''の数・(f)``defaultshift''の数・(g)``REDUCE''の数・(h)``SHIFT''の数・(i)隣接する2アクションで``SHIFT''/``REDUCE''が交替した回数(逆順も含む).文正解率より,ガ格は文末の動詞に係け,ヲ格は近い動詞に係けるEB文の構造をより正解できる傾向が見られる.京大コーパスのマニュアルには,格要素が両方に係る場合,ガ格は最右要素,ヲ格は最左要素に係けるとある.その点について被験者については教示していない.ゲームがshiftreduce法に基づくために全ての要素をより近い要素に係ける傾向があると予測したが,CTRL文がEB文に比べてより誤ることから必ずしも近い要素に係ける傾向があるとはいえない.\begin{table}[b]\caption{文正解率と文単位の反応時間(人間の係り受け解析判断)}\label{table:result:pacc}\input{02table01.txt}\end{table}\begin{table}[b]\caption{アクション単位の反応時間(人間の係り受け解析判断)}\label{table:result:ptime}\input{02table02.txt}\end{table}文単位の反応時間より,LB文は他の文に比べて解析に時間がかかることがわかった(調整化残差の分析より5\%水準で有意差あり).CTRL文とEB文については統計的な有意差は見られなかった.表\ref{table:result:ptime}にアクション毎の反応時間を示す.表の先頭行にアクションのインデックスを示す.対象となる文は全て6文節からなり,解析に必要なアクションの数は10であり,表中の列はこれに対応する.このうちほぼ半分のアクションは``defaultreduce''・``defaultshift''である.表中には,各3文型(CTRL・EB・LB)毎の結果を4行で示し,1行目は正しく解析するのに必要なアクション・2行目は反応時間(アクション間の実時間差からアニメーション提示時間を引いたもの)標準残差の平均・3行目は反応時間標準残差の標準偏差・4行目はアクション間の実時間差の平均を示す.1行目のアクションの略号はそれぞれ:``r''は``defaultreduce''・``s''は``defaultshift''・``R''は``REDUCE''・``S''は``SHIFT''を表す.2行目と3行目の標準残差は正しく解析できた文についてアクション毎の反応時間を(a)モーラ数・(b)文字数・(d)文の提示順で線形回帰をしたものである.尚,文の反応時間のときに考慮した(c)および(e)--(i)は,各文型集合毎で全く一致するので考慮しない.全ての文型について人間が反応可能な最初もしくは2番目のアクションで時間を要している.このことから,被験者は正しく解析するために,逐次的に解析するわけではなく,最初に全文を読んでから解析(の入力)をしていると考える.\subsubsection{関連研究}Mazukaらは様々な心理言語実験手法について紹介している\cite{Mazuka1997a}.ここでは各実験手法との対比を行う.視線検出法では,被験者が文を読む際にどのくらい早く読むかを計測する.1回目の走査の時間・読み直しを行うかどうか・2回目の走査にかかる時間を計測する.この方法は文を読む速度を自然な方法で計測可能だが,視線検出システムは大変高価である.自己ペースリーディング法は被験者の意思に基づいて文節(もしくは句)を逐次的に提示しながら,文を読む速度を計測する.文節を逐次的に提示するために,被験者は近い文節に係けるバイアスを持ち,ガーデンパス文を読む際には再解析(reanalysissteps)を強いることになる.実験では,再解析コストを\modified{誤り率と}文を読む速度により評価を行うことを目的とする.質問法は被験者に対して文を理解しているか否かを直接聞く方法である.目的に応じて質問は統制される.{\itWho-did-what}質問文では被験者が各文の意味を理解しているかどうかを評価する.{\itDifficultyrating}質問文では被験者が各文を理解するのにどのくらい簡単もしくは困難だったかを評価する.{\itMisleadingnessrating}質問文では被験者が各文に対してどのくらい誤解しやすいかを評価する.\modified{質問法は読む速度が得られる手法との組み合わせて行われることが多い.}Tokimotoは図\ref{fig:examplesentences}に示す文を自己ペースリーディング法による読む速度の残差および{\itWho-did-what}質問法による誤り率で評価した.彼の実験では,各文型の再解析コストはCTRL$<$EB$<$LBの順であった.我々の結果を誤り率に変換するとEB$<$(フィラー$<$)CTRL$<$LBとなり結果が異なる.ガーデンパス効果はLB文にのみ認められた.{\modifiedこの違いは手法と目的の違いに由来する.Tokimotoは文節を逐次的に提示し,人間が文の意味を正しく理解しているか否かを調査することを目的とする.対照的に我々の実験では被験者は実験中常に文全体を見ることができ,係り受け解析が正しく行えるかを調査することを目的とする.}最後に,我々の実験設定において係り受け解析をshiftreduce法に基づいて解析することが適切かどうか考察する.ゲームで提示されるトレイ(スタックおよびキュー)は文脈情報として,それぞれ3文節ずつの窓幅の情報を与える.1文節目と3文節目($\langle$$NP^{NOM}_1$,$V^{PAST}_3\rangle$)および2文節目と3文節目($\langle$$NP^{ACC}_2$,$V^{PAST}_3\rangle$)の係り受け関係を判断する際に6文節目の動詞$V^{PAST}_6$の情報はトレイには表示されない.しかしながら画面の上部には常に文の全体を表示しており,このshiftreduce法に由来するバイアスを低減している.尚,文全体を表示しない(つまり文末の文節を見せない)設定で実験を行った場合,全てCTRL文の構造に割り当てTokimotoらの方法と同じく再解析に陥ることが,被験者5人による事前実験によりわかっている.\subsection{人間と係り受け解析器の比較}\subsubsection{実験設定}\modified{\ref{subsec:5.1}節の心理言語実験で用いた60文を各種係り受け解析器で解析することにより,人間による結果と6種類の係り受け解析器の結果とを比較する.}KNP-3.01は形態素解析器JUMAN-6.0の出力を元とし,CaboCha-0.60pre4は形態素解析器MeCab-0.98+IPADIC-2.7.0の出力を元とする.この2つの解析器についてはデフォールトのパラメータ設定を用いる.さらに,ShiftReduce法\cite{Sassano04}に基づく実装を京大コーパス約8,000文で訓練したもの(ShiftReduce8K)と約34,000文で訓練したもの(ShiftReduce34K)の2つと,Tournament法\cite{Iwatate08}に基づく実装を約8,000文で訓練したもの(Tournament8K)と約34,000文で訓練したもの(Tournament34K)の2つを用いる.この4つの解析器では形態素解析器の出力としてJUMAN-6.0を,さらに正しい文節区切りを与え,機械学習器としてサポートベクトルマシンを用いる.学習器に与える素性については元の論文に可能な限り合わせた.\subsubsection{実験結果}表\ref{table:result:vsnlp}に人間の判断と6種類の解析器の判断に基づく文正解率を示す.表中[J]はJuman-6.0の出力を,[M]はMeCab-0.98+IPADIC-2.7.0の出力を用いていることを意味し,[GB]は正しい文節区切りを与えていることを意味する.フィラー列は一般的な文に対する性能を表す.全ての解析器はCTRL文において性能が良くLB文においては性能が悪かった.この結果より,解析器はCTRL文中の文節$NP^{NOM}_1$・$NP^{ACC}_2$・$NP^{DAT}_4$に対して正しい最も近い右要素$V^{PAST}_*$に係けることができているといえる.KNP-3.01のCTRL文に対する誤りは文節区切りの誤りであった.CaboCha-0.60pre4を含むshiftreduce法は近い係り受け関係を選好する傾向がある.実際,$\langle$$NP^{NOM}_1$,$V^{PAST}_3\rangle$もしくは$\langle$$NP^{ACC}_2$,$V^{PAST}_3\rangle$の係り受け関係を判断する際に,6番目の文節$V^{PAST}_6$は機械学習器の素性の窓幅の外側にあり評価されない.ゆえにこれらの解析器はEB文とLB文を全く解析できない.\begin{table}[t]\caption{文正解率(\%)(人間と解析器の係り受け解析判断)}\label{table:result:vsnlp}\input{02table03.txt}\end{table}Tournament法は長い距離で係る係り受け関係をステップラダートーナメントにより考慮することができるため,いくつかのEB文を解析できている.訓練データ量8,000文と34,000文との結果の差異は,係り受け関係$\langle$$NP^{NOM}_1$,$V^{PAST}_3\rangle$が8,000文データには出現しないが34,000文データには出現することによると考える.LB文については,京都大学テキストコーパスのタグ付け基準「格要素が両方に係る場合,主格以外は近い方に係ける」が影響していると考える.KNP-3.01がEB・LB文に関して最良の結果を達成している.KNP-3.01は格解析モデル\cite{Kawahara06}を含んでおり,EB・LB文の統語的意味的曖昧性をある程度解消できたのではないかと考える.EB・LB文を正しく解析するためには,共起の情報\cite{Abekawa06}・格フレーム情報\cite{Kawahara06}・格フレーム間遷移情報\cite{Kawahara09}を用いる手法が考えられる.特にLB文には次節で示すように生成モデルによる選択選好性のみでは解決できない文が含まれており,正しい解析のためには選択選好性と格要素の重複性排除の両方を同時推論する方策が必要であろう.\subsubsection{関連研究}Abekawaらは今回対象とした現象に似た関係節内の関係・外の関係の識別を行った\cite{Abekawa05}.本研究で扱ったCTRL文は外の関係に対応し,EB・LB文は内の関係に対応する.彼らは決定木モデルを用いて,共起情報・格フレーム情報・外の関係になる度合いを用いて,この2種類を識別する手法を提案した.\subsection{LateBoundary各文の分析}ここでは人間にも解析器にも解析が困難であったLateBoundary(LB)文について,統語的制約と選択選好性の観点から分析する.LB文は主節の動詞\modified{$V_{6}$}がガ格ヲ格ニ格の三項を取り,関係節内の動詞\modified{$V_{3}$}がガ格ヲ格の\modified{二項}を取る.関係節内の動詞\modified{$V_{3}$}が後置する係り先の\modified{$NP_{4}$}をヲ格として取るために二重ヲ格違反と常に左に係る統語的制約により一意に構造が決まる.これに対し「より近い要素に係ける」という選好性と,主節の動詞\modified{$V_{6}$}・関係節内の動詞\modified{$V_{3}$}間の選択選好性の強弱関係により,制約を無視してしまい誤るという傾向がある.より詳細に分析するためにLB文10文について,人の文正解率・KNPの結果・京都大学格フレームの頻度の大小関係・Googleのヒット件数に基づく正規化頻度の大小関係を表\ref{table:result:LB}に示す.\modified{京都大学格フレームの頻度について,$NP_{2}$vs$NP_{4}$は$NP_{2}^{ACC}V_{3}$と$NP_{4}^{ACC}V_{3}$で,$V_{3}$vs$V_{6}$は$NP_{2}^{ACC}V_{3}$と$NP_{2}^{ACC}V_{6}$で,それぞれどちらの頻度が高いかを表す.}尚,0は両方の組み合わせが京都大学格フレームに登録されていなかったことを表す.Googleの正規化頻度は,前者を$NP_{2}^{ACC}$と$NP_{4}^{ACC}$の件数で,後者を$V_{3}$と$V_{6}$の件数で正規化を行う.\modified{例文は人の文正解率の良い順に並べられ,下線は選択選好性が例文を正しく解析するために良い影響を与えるものを表す.}\begin{table}[b]\caption{LB文の実験結果と選択選好性}\label{table:result:LB}\input{02table04.txt}\end{table}KNPが正解している文は人間にとっても解析が容易で,LB文の人正解率が高い傾向にある.京都大学格フレームが例文の係り受け全てを被覆していないが,人と誤り傾向の相関があることがわかる.Googleの正規化頻度は全例文を被覆しているが,係り受け関係ではなく\modified{連続文字列}によるものなので,\modified{人間の誤り傾向とGoogleのヒット件数による選択選好性の間に矛盾があるところがいくつかある.}実際,3つの項をとる述語に対してガ格・ヲ格・ニ格の順に述語から遠く置かれる傾向にあることを考えると直接比較できるものではない.しかしながら,$NP_{2}$と$NP_{4}$のどちらが$V_{3}$に係るかを評価した際に京都大学格フレームだけでなく,Googleヒット件数でも$NP_{2}$の方が強い場合には,人も間違える傾向にあることがわかる.このことから選択選好性の強弱関係が統語的に制約に反している場合には人は係り受け構造同定を誤りやすいことがわかる. \section{おわりに} \label{sec:6}本稿では係り受けタグ付けにおける人間の誤り傾向を調査する新しい方法を提案した.作成したゲームではNintendoバランスWiiボードを入力デバイスとして,ShiftReduce法に基づき,被験者がどのように係り受け解析を行うかを記録することができる.実験対象として埋め込み文に基づくガーデンバス文を用いて格要素の係り先の誤り傾向を観察した.また,同じ文を,6種類の係り受け解析器で解析を行い,誤り傾向を比較した.さらに京都大学格フレームおよびGoogleのヒット件数に基づく選択選好性と誤り傾向の相関について調査した.調査結果より統語的制約のみで一意に文の係り受け構造が決まる場合においても,格構造の選択選好性の強弱関係により誤った係り受け構造を認識することがわかった.またその誤り傾向は従来の心理言語実験で行われている文の内容認識結果とは異なり,ヲ格を文末の述語に係ける文だけでなく,ガ格を関係節内の述語に係ける文でも係り受け構造同定をよく誤ることがわかった.本研究の今後の展開として真に統語的制約によって決まらない曖昧な構造の選択選好性の定量化がある.例えば図\ref{fig:juudouka}のような本質的に係り受け構造が曖昧な文を考える:関係節内の動詞「勝った」はガ格とニ格を,主節の動詞「紹介した」はガ格とヲ格とニ格を取りうる項構造を持つ.「「紹介した」が3つの項全てを埋める選好性」(図\ref{fig:juudouka}左)と「「勝った」のニ格が省略されない選好性」(図\ref{fig:juudouka}右)とで,どちらを優先するかにより本質的に曖昧である.統語的制約によって決まらない構造を,選好性に基づき決定する過程は人によって揺れる.この本質的に曖昧な構造に対して,複数人の判定がどのように揺れるかを定量的に評価することにより,係り受けアノテーション情報の重層化を目指したい.\modified{アノテーションスキーマとして一致率を上げる展開とは別に,}複数人のタグ付けが一致しない場合のその情報の保存という展開が考えられるのではないだろうか.\begin{figure}[t]\begin{center}\includegraphics{18-4ia920f4.eps}\end{center}\caption{本質的に係り受け構造が曖昧な文}\label{fig:juudouka}\end{figure}\acknowledgment本研究の遂行にあたり千葉大学伝康晴氏と奈良先端科学技術大学院大学情報科学研究科自然言語処理学講座の諸氏より助言をいただきました.ここに謝意を表します.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Abekawa\BBA\Okumura}{Abekawa\BBA\Okumura}{2005}]{Abekawa05}Abekawa,T.\BBACOMMA\\BBA\Okumura,M.\BBOP2005\BBCP.\newblock\BBOQ{Corpus-basedAnalysisofJapaneseRelativeClauseConstructions}.\BBCQ\\newblockIn{\BemProc.ofthe2ndInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP-05)},\mbox{\BPGS\46--57}.\bibitem[\protect\BCAY{Abekawa\BBA\Okumura}{Abekawa\BBA\Okumura}{2006}]{Abekawa06}Abekawa,T.\BBACOMMA\\BBA\Okumura,M.\BBOP2006\BBCP.\newblock\BBOQ{JapaneseDependencyParsingUsingCo-OccurenceInformationaCombinationofCaseElements}.\BBCQ\\newblockIn{\BemProc.ofthe21stInternationalConferenceonComputationalLinguisticsandthe44thAnnualMeetingoftheAssociationforComputationalLinguistics(COLING-ACL-2006)},\mbox{\BPGS\833--840}.\bibitem[\protect\BCAY{Buchholz\BBA\Marsi}{Buchholz\BBA\Marsi}{2006}]{CoNLL06}Buchholz,S.\BBACOMMA\\BBA\Marsi,E.\BBOP2006\BBCP.\newblock\BBOQ{CoNLL-XSharedTaskonMultilingualDependencyParsing}.\BBCQ\\newblockIn{\BemProc.ofthe10thConferenceonComputationalNaturalLanguageLearning(CoNLL-X)},\mbox{\BPGS\149--165}.\bibitem[\protect\BCAY{Carreras}{Carreras}{2007}]{Carreras07}Carreras,X.\BBOP2007\BBCP.\newblock\BBOQ{ExperimentswithaHigher-orderProjectiveDependencyParser}.\BBCQ\\newblockIn{\BemProc.ofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL-2007)},\mbox{\BPGS\957--961}.\bibitem[\protect\BCAY{Eisner}{Eisner}{2000}]{Eisner00}Eisner,J.~M.\BBOP2000\BBCP.\newblock{\Bem{AdvancesinProbabilisticandOtherParsingTechnologies}},\BCH\{1.Bilexicalgrammarsandtheircubic-timeparsingalgorithms}.\newblockKluwerAcademicPublishers.\bibitem[\protect\BCAY{Iwatate,Asahara,\BBA\Matsumoto}{Iwatateet~al.}{2008}]{Iwatate08}Iwatate,M.,Asahara,M.,\BBA\Matsumoto,Y.\BBOP2008\BBCP.\newblock\BBOQ{JapaneseDependencyParsingUsingaTournamentModel}.\BBCQ\\newblockIn{\BemProc.ofthe22ndInternationalConferenceonComputationalLinguistics(COLING-2008)},\mbox{\BPGS\361--368}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{Kawahara06}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQ{AFully-LexicalizedProbabilisticModelforJapaneseSyntacticandCaseStructureAnalysis}.\BBCQ\\newblockIn{\BemProc.oftheHumanLanguageTechnologyConferenceoftheNorthAmaricanChapteroftheAssociationforComputationalLinguistics(HLT-NAACL-2006)},\mbox{\BPGS\176--183}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2009}]{Kawahara09}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2009\BBCP.\newblock\BBOQ{CapturingConsistencybetweenIntra-clauseandInter-clauseRelationsinKnowledge-richDependencyandCaseStructureAnalysis}.\BBCQ\\newblockIn{\BemProc.ofthe11thInternationalConferenceonParsingTechnology(IWPT-2009)},\mbox{\BPGS\108--116}.\bibitem[\protect\BCAY{Koo\BBA\Collins}{Koo\BBA\Collins}{2010}]{Koo10}Koo,T.\BBACOMMA\\BBA\Collins,M.\BBOP2010\BBCP.\newblock\BBOQEfficientThird-OrderDependencyParsers.\BBCQ\\newblockIn{\BemProc.ofthe48thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1--11},Uppsala,Sweden.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{Kudo02}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQJapaneseDependencyAnalyisisusingCascadedChunking.\BBCQ\\newblockIn{\BemProc.ofthe6thConferenceonNaturalLanguageLearning(CoNLL-2002)},\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Mazuka,Itoh,\BBA\Kondo}{Mazukaet~al.}{1997}]{Mazuka1997a}Mazuka,R.,Itoh,K.,\BBA\Kondo,T.\BBOP1997\BBCP.\newblock\BBOQ{ProcessingdownthegardenpathinJapanese:processingofsentenceswithlexicalhomonyms}.\BBCQ\\newblock{\BemJournalofPsycholinguisticResearch},{\Bbf26}(2),\mbox{\BPGS\207--228}.\bibitem[\protect\BCAY{McDonald,Pereira,Ribarov,\BBA\Haji\v{c}}{McDonaldet~al.}{2005}]{McDonald05}McDonald,R.,Pereira,F.,Ribarov,K.,\BBA\Haji\v{c},J.\BBOP2005\BBCP.\newblock\BBOQ{Non-ProjectiveDependencyParsingusingSpanningTreeAlgorithms}.\BBCQ\\newblockIn{\BemProc.oftheConferenceonHumanLanguageTechnologyandEmpiricalMethodsinNaturalLangaugeProcessing(HLT-EMNLP-2005)},\mbox{\BPGS\523--530}.\bibitem[\protect\BCAY{Nivre}{Nivre}{2003}]{Nivre03}Nivre,J.\BBOP2003\BBCP.\newblock\BBOQ{AnEfficientAlgorithmforProjectiveDependencyParsing}.\BBCQ\\newblockIn{\BemProc.ofthe8thInternationalWorkshoponParsingTechnologies(IWPT03)},\mbox{\BPGS\149--160}.\bibitem[\protect\BCAY{Nivre,Hall,McDonald,Nilsson,Riedel,\BBA\Yuret}{Nivreet~al.}{2007}]{CoNLL07}Nivre,J.,Hall,J.,McDonald,S.K.~R.,Nilsson,J.,Riedel,S.,\BBA\Yuret,D.\BBOP2007\BBCP.\newblock\BBOQ{TheCoNLL2007SharedTaskonDependencyParsing}.\BBCQ\\newblockIn{\BemProc.ofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL-2007)},\mbox{\BPGS\915--932}.\bibitem[\protect\BCAY{Nivre\BBA\McDonald}{Nivre\BBA\McDonald}{2008}]{Nivre08}Nivre,J.\BBACOMMA\\BBA\McDonald,R.\BBOP2008\BBCP.\newblock\BBOQ{IntegratingGraph-BasedandTransition-BasedDependencyParsers}.\BBCQ\\newblockIn{\BemProc.ofthe46thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies(HLT-ACL-2008)},\mbox{\BPGS\950--958}.\bibitem[\protect\BCAY{Nivre\BBA\Scholz}{Nivre\BBA\Scholz}{2004}]{Nivre04}Nivre,J.\BBACOMMA\\BBA\Scholz,M.\BBOP2004\BBCP.\newblock\BBOQ{DeterministicDependencyParsingofEnglishText}.\BBCQ\\newblockIn{\BemProc.ofthe20thInternationalConferenceonComputationalLinguistics(COLING-2004)},\mbox{\BPGS\64--70}.\bibitem[\protect\BCAY{Sassano}{Sassano}{2004}]{Sassano04}Sassano,M.\BBOP2004\BBCP.\newblock\BBOQ{Linear-TimeDependencyAnalysisforJapanese}.\BBCQ\\newblockIn{\BemProc.ofthe20thInternationalConferenceonComputationalLinguistics(COLING-2004)},\mbox{\BPGS\8--14}.\bibitem[\protect\BCAY{Tokimoto}{Tokimoto}{2004}]{Tokimoto04}Tokimoto,S.\BBOP2004\BBCP.\newblock\BBOQ{ReanalysisCostsinProcessingJapaneseSentenceswithComplexNPStructuresandHomonyms:IndividualDifferencesandVerbalWorkingMemoryConstraints}.\BBCQ\\newblock\BTR\JCSS-TR-53,JapaneseCognitiveScienceSociety.\bibitem[\protect\BCAY{天野\JBA近藤}{天野\JBA近藤}{1999}]{Goitokusei}天野成昭\JBA近藤公久\BBOP1999\BBCP.\newblock\Jem{{日本語の語彙特性第1期}}.\newblock三省堂.\bibitem[\protect\BCAY{寺村}{寺村}{1981}]{Teramura1981}寺村秀夫\BBOP1981\BBCP.\newblock\Jem{日本語の文法(下){\kern-0.5zw}}.\newblock国立国語研究所.\end{thebibliography}\begin{biography}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2004年同大学助手,現在に至る.博士(工学).}\end{biography}\biodate\end{document}
V26N04-03
\section{はじめに} ニューラル機械翻訳は従来手法の句に基づく統計的機械翻訳に比べて,文法的に流暢な翻訳を出力できる.しかし訳抜けや過剰翻訳などの問題が指摘されており,翻訳精度に改善の余地がある\cite{koehn-knowles:2017:NMT}.このような問題に対して句に基づく統計的機械翻訳では,対訳辞書を用いてデコーダ制約\cite{koehn-EtAl:2007:PosterDemo}を実装することにより翻訳精度を改善していたが,ニューラル機械翻訳では対訳辞書を有効活用するアプローチが明らかではない.ニューラル機械翻訳において対訳辞書を使用して翻訳精度を向上させる先行研究として,モデル訓練時に対訳辞書を用いて単語翻訳確率にバイアスをかける手法\cite{arthur-neubig-nakamura:2016:EMNLP2016}があげられる.この手法ではモデルの訓練が対訳辞書に依存しているため,辞書の更新や変更は容易ではない.本稿ではニューラル機械翻訳システムの翻訳精度の向上を目的として,単語報酬モデルにより対訳辞書をニューラル機械翻訳に適用する手法を提案する\footnote{本稿はIWSLT$2018$で発表した論文\cite{takebayashi}に比較実験と分析を追加したものである.}.単語報酬モデルは正しい翻訳文に出現すると期待される単語集合を辞書引きにより入力文から予測する``目的単語予測''と,得られた単語集合を用いてそれらの出力確率を調整する``単語報酬付加''から構成される.提案手法は訓練済みの翻訳モデルのデコーダにおいて,予測された単語の翻訳確率に一定の増分を加えるのみであるため,既存の翻訳モデルを再訓練する必要がない.このため,本手法は既存の訓練済みニューラル機械翻訳システムのデコーダに実装することで機能し,また辞書の更新や変更も容易に行える利点がある.日英と英日方向の翻訳実験を行った結果,対訳辞書を用いた単語報酬モデルは翻訳精度を有意に改善できることを示した.また,テスト時のデコーディングの際に既存手法\cite{arthur-neubig-nakamura:2016:EMNLP2016}と組み合わせると,それぞれを単一で用いたときよりも翻訳精度が向上することを実験的に示した.本稿の構成は以下の通りである.まず$2$章で提案手法が前提とする注意機構付きのエンコーダ・デコーダモデルについて説明したのち,$3$章で提案手法である単語報酬モデルについて述べる.$4$章では実験設定を述べ,$5$章では対訳辞書の性質が提案手法に与える影響を検証するため,シミュレーションによる辞書を用いた実験を行う.$6$章では実際に利用可能な対訳辞書を用いて提案手法の性能を示し,$7$章では既存手法との比較を行う.$8$章では関連研究について議論し,$9$章で本稿のまとめとする. \section{注意機構付きニューラル機械翻訳} ニューラル機械翻訳における典型的なモデルとして,注意機構付きのエンコーダ・デコーダモデル\cite{DBLP:journals/corr/BahdanauCB14,luong-pham-manning:2015:EMNLP}があげられる.エンコーダは入力系列$X$をベクトル化し,デコーダはそのベクトルを用いて出力系列$Y$を出力する.入力系列中の$i$番目の要素を$x_i\in\mathbb{R}^{v_s}$,同様に出力系列中の$j$番目の要素を$y_j\in\mathbb{R}^{v_t}$と表記する.ここで$v_s$と$v_t$はそれぞれ入力系列と出力系列の語彙サイズである.ある入力系列$X$が与えられたときに,ある長さ$m$の出力系列$Y$を生成する確率$p(Y|X)$は,以下のように表される.\[p(Y|X;\mathbf{\theta})=\prod_{j=1}^mp(y_j|y_{<j},X;\mathbf{\theta}),\]ここで,$\mathbf{\theta}$はパラメータの集合で$y_{<j}=y_1,\cdots,y_{j-1}$である.対訳コーパス$C=\{(X,Y)\}$が与えられたとき,訓練時の目的は$\mathbf{\theta}$に関するクロスエントロピー損失$L_\theta$を最小化することである.\[L_\theta=-\sum_{(X,Y)\inC}\logp(Y|X;\mathbf{\theta}).\]本稿では双方向のlongshort-termmemory(LSTM)を使用し,順方向と逆方向からエンコードする.ステップ$i$において,順方向の隠れ状態ベクトル$\hat{\mathbf{h}}_i\in\mathbb{R}^{d_h}$と逆方向の隠れ状態ベクトル$\tilde{\mathbf{h}}_i\in\mathbb{R}^{d_h}$を加算した隠れ状態を$\mathbf{h}_i=\hat{\mathbf{h}}_i+\tilde{\mathbf{h}}_i$と表す.この隠れ状態を用いて入力系列$X$は$\mathbf{h}\in\mathbb{R}^{{d_h}\timesn}=\mathbf{h}_1,...,\mathbf{h}_n$にマップされる.$n$は入力系列の長さである.ニューラル機械翻訳では翻訳精度向上に注意機構の有効性が示されている.注意機構では,デコーダがRecurrentNeuralNetwork(RNN)によって隠れ状態ベクトル$\mathbf{s}_j$を計算する際,エンコーダが出力したそれぞれの隠れ状態$\mathbf{h}_i$を直接的に参照する.デコーディングステップ$j$において,隠れ状態$\mathbf{h}_i$の重要度を示すスカラー値の重みを$a_{ji}$とすると,$a_{ji}$による$\mathbf{h}_i$の重み付き平均$\mathbf{c}'_j\in\mathbb{R}^{d_h}$は,$\mathbf{c}'_j=\sum_{i=1}^{n}{a_{ji}}{\mathbf{h}_i}$と計算される.そして,デコーダの出力層で以下の計算を行う.\begin{align*}\mathbf{o_j}&=\mathbf{W}_o\mathbf{c}_j+\mathbf{b}_o,\\\mathbf{c}_j&=tanh(\mathbf{W}_c[\mathbf{c}'_j;\mathbf{s}_j]).\end{align*}ここで$\mathbf{c}_j\in\mathbb{R}^{d_h}$,$\mathbf{W}_o\in\mathbb{R}^{v_t\times{d_h}}$と$\mathbf{W}_c\in\mathbb{R}^{d_h\times2d_h}$は変換行列,$\mathbf{b}_o\in\mathbb{R}^{v_t}$はバイアス項のベクトル,$[\cdot;\cdot]$はベクトルの結合を表す.出力単語の確率ベクトル$\hat{y}_j\in\mathbb{R}^{v_t}$はsoftmax関数を用いて,\[\hat{y}_j=\frac{\rm{exp}(\mathbf{o}_j)}{\sum_{k}\rm{exp}(o_{jk})}\]と表される.ここで$o_{jk}$はベクトル$\mathbf{o}_j$の$k$番目の要素である. \section{単語報酬モデル} 本章では,提案する単語報酬モデルの各要素について説明する.単語報酬モデルは大きく$2$つの要素に分けられる.\begin{itemize}\item{\bf対訳辞書による目的単語予測}\\入力文から正しい翻訳文に出現すると期待される単語の集合を,対訳辞書を用いて予測する.本稿では人手で作られた辞書と自動で構築された辞書の$2$つを使用した.\item{\bf予測された単語集合を用いた翻訳確率への報酬付加}\\目的単語予測で得られた単語集合を用いて,それらが出力される確率を調整する.具体的にはデコーダが単語翻訳確率を出力する際,目的単語予測で予測された単語の翻訳確率に一定の値を足すことでそれらを出力しやすくする.\end{itemize}\subsection{対訳辞書による目的単語予測}本節では目的単語予測において使用する,人手で作られた辞書と自動で構築された辞書について説明する.\subsubsection{人手で作成された辞書での目的単語予測}\label{subsec:dic}人手で作成された辞書は,対象領域に対するカバレッジは限られているものの信頼性のある対訳情報を提供している.辞書引きの際には,辞書引きする単語を原型に戻すことが必要である.したがって,人手で作成された辞書を用いる際は,目的単語集合を予測するために,原言語文に含まれる単語の原型を辞書引きすることとした.\subsubsection{自動で構築された辞書での目的単語予測}\label{subsec:alignment}IBMモデルや句に基づく統計的機械翻訳\cite{koehn-EtAl:2007:PosterDemo,brown-EtAl:1993}の翻訳モデルが対訳辞書として広く活用されている.辞書の構築のためにこれらの翻訳モデルを活用する最大の利点は,辞書の構築に訓練セットを用いることで辞書のドメインと翻訳時の目的単語のドメインを合わせられることである.加えて,訓練セットに出現する活用語や派生語を使用できる.欠点としては,アライメントの失敗が含まれるため,人手の辞書と比べて信頼性が低いことがあげられる.本稿では辞書を自動で構築するために,IBM翻訳モデル\cite{brown-EtAl:1993}の実装であるGIZA++ツールキット\footnote{https://github.com/moses-smt/giza-pp}を用いる.そしてMoses\cite{koehn-EtAl:2007:PosterDemo}を用いてgrow-diag-final-andヒューリスティックを適用し,単語間の単語翻訳確率を計算する.単語翻訳確率はアライメントを用いて,順方向と逆方向の両方向でそれぞれ計算される.ある$2$つの言語が与えられたとき,source-to-target方向のコーパスに適用した場合に得られる順方向の単語翻訳確率,target-to-source方向のコーパスに適用した場合に得られる逆方向の単語翻訳確率をそれぞれ,$P_{fw}(w_t|w_s)$,$P_{bw}(w_s|w_t)$と表す.ここで,$w_s$は原言語側のある単語,$w_t$は目的言語側のある単語である.このとき単語の翻訳スコアを\begin{equation}\label{eq:multiply}P(w_t|w_s)=\sqrt{P_{fw}(w_t|w_s)P_{bw}(w_s|w_t)}\end{equation}と定義する.出現回数が少ない単語対は情報が少ないため正確に確率を計算することができず,対訳確率が不適切に大きくなるときがある.そのような場合に対処するため,相乗平均を取り不適切に高い確率を抑える.目的単語集合のPrecisionとRecallを制御するため,開発セットでチューニングできるように閾値$\delta$を導入した.アライメントでは各単語間に翻訳確率が付与されるが,その翻訳確率が閾値$\delta$より低い単語は目的単語集合に加えないものとした.\subsubsection{単語とサブワードによるマッチング方法}サブワード単位で翻訳を行うことにより未知語問題の解決に繋がることが広く知られている\cite{sennrich-haddow-birch:2016:P16-12}.本稿では,単語報酬モデルをbytepairencoding(BPE)\cite{sennrich-haddow-birch:2016:P16-12}に基づいたニューラル機械翻訳にも適用可能にするため,目的単語予測に用いた辞書にBPEを適用する.辞書のエントリと原言語文の両方に,まず対訳コーパスで訓練されたBPEモデルを適用し,次に原言語文に含まれる文字と辞書のエントリとをマッチングする.ここで本稿では,{\em完全一致}と{\em部分一致}という$2$つのマッチング方法を考える.BPE適用後,辞書の見出し語は複数のサブワードによって構成され,見出し語$w$は$w={w_1,\ldots,w_k}$と表される.{\em完全一致}はPrecisionを重視した手法であり,$w$が以下を満たすとき入力系列$X$とマッチするとみなす;\[w_1,\ldots,w_k\inX,\foralli\in\{1,\ldots,k-1\},w_i=x_j\Leftrightarroww_{i+1}=x_{j+1}.\]{\em部分一致}はRecallを重視した手法で,$w$が以下を満たすとき入力系列中の単語$x$とマッチするとみなす;\[\existsw_i\inw,w_i\inX.\]どちらのマッチング方法でも,$w$の翻訳は目的単語集合に追加される.ある原言語文において,{\em完全一致}で得られた目的単語集合は{\em部分一致}で得られたものの部分集合になる.例えば,辞書の見出し語に``ニュー@@ヨーク''が存在し($w_1=$``ニュー@@'',$w_2=$``ヨーク'')その翻訳が``NewY@@or@@k''であるときを考える.入力系列に``ニュー@@''と``ヨーク''が$x_i=$``ニュー@@'',$x_{i+1}=$``ヨーク''と連続して出現した場合,完全一致でも部分一致でもマッチし,目的単語集合に``New'',``Y@@'',``or@@''および``k''が追加される.一方入力系列に``ニュー@@''か``ヨーク''のどちらかのみが出現する場合および,``ニュー@@''と``ヨーク''が出現するが$x_i=$``ニュー@@'',$x_{i+1}\neq$``ヨーク''である場合,完全一致ではマッチしないが,部分一致ではマッチし目的単語集合に``New'',``Y@@'',``or@@''および``k''を追加する\footnote{``@@''はBPEで分割された文字の区切りを示す.}.\begin{figure}[b]\begin{center}\includegraphics{26-4ia3f1.eps}\end{center}\hangcaption{デコーディングステップ$j$における単語報酬モデル:予測された目的単語集合$D_{f2e}$に含まれる単語が,各ステップにおいて単語報酬重み$\lambda$を掛けられ,翻訳確率に加算される.簡単のため,注意機構は省略している.}\label{fig:proposed_model}\end{figure}\subsection{予測された単語集合を用いた翻訳確率への報酬付加}目的単語集合に含まれる単語が出力されやすくなるよう,図\ref{fig:proposed_model}で示すようにデコーダで単語翻訳確率に報酬を付加する.具体的には,目的単語予測で正しい翻訳文に出現すると期待される単語の集合$D_{f2e}$を取得し,単語が$D_{f2e}$に入っていればその単語の翻訳確率に報酬を足して,出力されやすくする.したがって事後確率は以下のように表される.\begin{equation}\label{eq:proposed}Q(y_j|y_{<j},X)=\logp(y_j|y_{<j},X)+\lambdar_{y_j},\end{equation}ここで,$\lambda$は単語報酬重みであり,開発セットによってチューニングされるハイパーパラメータである.この単語報酬モデルにより,正解単語を含む単語集合の確率を引き上げ,正解単語を訳出しやすくなると期待できる.本稿では$2$値の報酬値を用いる\footnote{$r_{y_j}$に式(\ref{eq:multiply})左辺の$P(w_t|w_s)$を用いた実験も行ったが,$2$値の報酬値を用いたときより翻訳精度が劣る結果となった.このときのある目的単語$w_t$の報酬値には,入力系列中の単語から辞書引きしたときの対訳確率の平均値を用いた.}.\begin{equation}\label{eq:d_binary}r_{y_j}=\left\{\begin{array}{ll}1&(y_j\inD_{f2e}),\\0&(\rm{otherwise}).\end{array}\right.\end{equation}最終的に出力文$\hat{Y}$は以下のようになる.\[\hat{Y}=\arg\max_{Y}\sum_{j=1}^{m}Q(y_j|y_{<j},X).\] \section{実験設定} \label{sec:exp_setting}本稿では単語報酬モデルの性能を評価するため,日本語から英語,英語から日本語への翻訳精度を話し言葉ドメインと書き言葉ドメインで実験した.\subsection{対訳コーパス}話し言葉ドメインとしてIWSLT$2017$日本語-英語タスクを使用する.これはTEDTalks字幕データであり,WITプロジェクト\cite{cettoloEtAl:EAMT2012}で提供されているものである.このIWSLTタスクは訓練セットとして$22.3$万文の対訳コーパスが利用できる.本稿では開発セットにdev$2010$をテストセットにtest$2010$を用いた.それぞれ$871$文,$1,549$文である.書き言葉ドメインとして日本語-英語の科学技術論文であるASPEC\footnote{http://lotus.kuee.kyoto-u.ac.jp/ASPEC/}\cite{NAKAZAWA16}を使用する.これはWorkshoponAsianTranslation(WAT)\footnote{http://orchid.kuee.kyoto-u.ac.jp/WAT/}\cite{nakazawa-EtAl:2017:WAT2017}のサブタスクとして提供されているものである.先行研究\cite{morishita-suzuki-nagata:2017:WAT2017}の設定に従い,訓練セットとして$300$万文ある中から初めの$200$万文を用いる.これは最後の$100$万文はノイズを多く含んでいるためである.ASPECタスクは開発とテストセットにそれぞれ$1,790$文と$1,812$文がある.本稿では日本語-英語と英語-日本語翻訳実験を上記の$2$つのタスクにおいて行う.以降ではIWSLTの日本語から英語方向,IWSLTの英語から日本語方向,ASPECの日本語から英語方向およびASPECの英語から日本語方向のタスクをそれぞれ,IWSLT日英,IWSLT英日,ASPEC日英およびASPEC英日と表記する.\subsection{対訳辞書}\label{subsec:prep_dict}人手で作成された辞書として,情報通信研究機構によって公開されているEDR英日対訳辞書およびEDR日英対訳辞書\footnote{http://www2.nict.go.jp/ipp/EDR/ENG/indexTop.html}を使用する.英日と日英のエントリペア数はそれぞれ$67.6$万と$105.2$万であった.辞書の自動構築にはベースラインNMTを学習した訓練コーパスを用いた.日英方向の辞書引きを行うとき,辞書引きされた単語には複数形などの派生語が含まれない.この問題に対処する方法として,XTAGプロジェクトの辞書を使って英語の派生単語を抽出し,EDR辞書で得られた英単語の全ての派生語を単語集合に追加する.XTAGはTreeTagger\footnote{http://www.cis.uni-muenchen.de/\~{}schmid/tools/TreeTagger/}で英語の形態素解析辞書として使われている.派生単語を追加していないものをEDR,全ての派生単語をEDRに追加したものをXTAGと表記する.辞書引きの方法としては,原言語文の各単語を原型に戻し,それらをEDRやXTAGなどの辞書のエンティティとマッチングする.単語を原型に戻す処理には日本語側には形態素解析器のMeCab\footnote{https://github.com/taku910/mecab}を,英語側にはTreeTaggerを用いる.例えば,日本語-英語方向の目的単語予測を考える.``書いた''という単語が原言語文に入っていた場合,形態素解析の結果得られる原型の``書く''を辞書引きする.``書く''という単語を辞書引きしたとき``write''という単語が得られたとすると,EDR辞書では目的単語集合には``write''のみを追加する.一方XTAG辞書では,``write''の活用形である``wrote''と``written''を,目的単語集合に追加する.\subsection{ニューラル機械翻訳システムと単語報酬モデル}\label{sec:neuralsystem}本稿ではLSTMを用いた注意機構付きエンコーダ・デコーダモデルのmlpnlp-nmtシステム\footnote{https://github.com/mlpnlp/mlpnlp-nmt/}をベースのニューラル機械翻訳モデルとし,単語報酬モデルはmlpnlp-nmtシステムのデコーダに対して実装する\footnote{2019年4月現在ではTransformerに基づくモデルが最高精度であるが,RNNエンコーダ・デコーダモデルでは,mlpnlp-nmtベースのシステムが最高精度である.}.mlpnlp-nmtはWAT$2017$\cite{nakazawa-EtAl:2017:WAT2017}のASPEC日英,ASPEC英日人手評価において最高精度を達成したモデルである.ハイパーパラメータの設定はMorishitaら\cite{morishita-suzuki-nagata:2017:WAT2017}に従う.原言語側,目的言語側の単語埋め込み層,LSTMの隠れ層,注意機構の隠れ層は全て$512$次元に設定する.エンコーダとデコーダにはそれぞれ$2$層のLSTMを用いる.学習アルゴリズムには,学習率$1.0$,ドロップアウト率$30\%$で確率的勾配降下法(Stochasticgradientdescent:SGD)\cite{Robbins&Monro:1951}を用いる.ミニバッチサイズは$128$に設定する.訓練エポックはIWSLT日英,IWSLT英日,ASPEC日英およびASPEC英日の全てで$20$に設定し,開発セットで最も良い性能を達成したものを用いる.エポック数はそれぞれ$11$,$20$,$13$および$13$であった.テスト時のデコーディングにおいてはビーム幅を$5$に設定し,ビーム探索を行う.単語報酬モデルで,式(\ref{eq:proposed})の単語報酬重み$\lambda$と辞書の閾値$\delta$は開発セットでグリッド探索を用いてチューニングした.このとき$\lambda$は$0.1$から$1.0$まで$0.1$刻みで変化させる.辞書の閾値$\delta$は自動で構築された辞書の確率が低い単語を枝刈りする役割を担うが,これは$0$,$0.0001$,$0.001$,$0.01$および$0.1$を試し,単語報酬重み$\lambda$と合わせてグリッド探索し最高精度を出す組み合わせを採用する.対訳コーパスと対訳辞書の前処理としては,日本語側の文と辞書のエントリをMeCabを用いて形態素単位に分割し,英語側の文と辞書のエントリはMosesの{\ittokenizer.perl}スクリプト\footnote{https://github.com/moses-smt/mosesdecoder/blob/master/scripts/tokenizer/tokenizer.perl}を使用し単語に分割し,{\ittruecase.perl}スクリプト\footnote{https://github.com/moses-smt/mosesdecoder/blob/master/scripts/recaser/truecase.perl}を用いて表記統一処理を行う.さらにjointBPE\cite{sennrich-haddow-birch:2016:P16-12}を用いて単語をサブワードに切り分ける.このときのマージオペレーションの回数は$32,000$とする.最終的なIWSLTの語彙サイズは日本語と英語でそれぞれ$21,534$と$18,022$であった.ASPECの語彙サイズは日本語と英語でそれぞれ$28,852$と$22,340$であった. \section{シミュレーション辞書を用いた実験} \label{sec:sim_dic}目的単語予測の性能の変化による翻訳精度への影響を調べるため,参照訳に対する目的単語集合のPrecision/Recallを人為的に変化させて,そのときのBLEUスコアへの影響を調査する.ここでは対訳コーパスの分量によるニューラル機械翻訳モデルの性能変動が分析に影響するのを避けるため,ASPECを用いて英日方向の実験を行った.\subsection{オラクル辞書}\label{subsec:oracle_dict}ある入力系列$X$が与えられたとき,正解データである出力系列$Y=y_1,y_2,...,y_m$のトークンを過不足なく予測できる理想的な辞書を,オラクル辞書と定義する.オラクル辞書で単語予測を行った場合,その予測性能はPrecision/Recall共に$100$\%である.実際にオラクル辞書を作成することは不可能であるため,$k$番目の原言語文$X_k$を翻訳する際,対訳コーパス中の対応する出力系列(参照訳)$Y_k$に含まれる単語を過不足なく抽出し目的単語辞書に追加することで擬似的にオラクル辞書を作成した\footnote{本稿では本辞書をオラクル辞書と呼ぶ.}.\subsection{目的単語集合のPrecision/Recallの制御}\label{subsec:simulation_dict}参照訳に対する目的単語集合のPrecision/Recallの制御方法を説明する.手順としては,まず\ref{subsec:oracle_dict}節で説明したオラクル辞書を用いてPrecision/Recallが共に$100\%$である目的単語集合を作成してから,以下に示す処理を実行してPrecision/Recallを制御する.\begin{itemize}\itemPrecisionの制御\\\ref{subsec:alignment}項で説明したGIZA辞書で単語翻訳確率が高い上位の単語を目的単語集合に追加する.ここで追加する単語は目的単語集合に含まれないものを選ぶことでPrecisionを低下させる.\itemRecallの制御\\目的単語集合から参照訳に含まれる単語をランダムに削除することでRecallを低下させる.\end{itemize}追加/削除する単語数を制御することで,目的とするPrecision/Recallに調節する.\subsection{目的単語集合のPrecision/Recallの変化による翻訳精度への影響評価}\label{subsec:simulation_exp}Precision/Recallが$100\%$/$100\%$のときと$50\%$/$50\%$のとき,$\lambda$を変化させてASPEC英日方向開発セットのBLEUスコアの最大値を調査したところ,それぞれ$51.24$と$40.45$であり,単語報酬モデルを用いないベースライン(nlpmlp-nmt)から$11.74$と$0.95$の増加であった.また,そのときの$\lambda$の値はそれぞれ$2.7$と$0.6$であった.ASPEC英日方向の開発セットで$\lambda=0.6,2.7$に設定しPrecision/Recallをそれぞれ$10\%$〜$100\%$まで$10\%$刻みで変化させたときのBLEUスコアをそれぞれ図\ref{fig:simulation_w0.6_w2.7}に示す.青色はベースラインより低いBLEUスコアを,赤色はベースラインよりも高いBLEUスコアを示しており,白色はベースラインのBLEUスコア($39.50$)のものを表す.色が濃いセルほどベースラインのBLEUスコアからの変化量が大きいセルである.結果よりPrecision/Recall共に$100$\%に近い方がBLEUスコアは高い傾向にあることがわかった.さらに,Precisionが低い場合はRecallを高くする,反対にRecallが低い場合はPrecisionを高くすることで,ベースラインよりもBLEUスコアが向上することが示された.$\lambda=2.7$と設定したときの方が$\lambda=0.6$と設定したときより,全体的にベースラインからの変化量が大きい.これは$\lambda$を大きくすればするほど,訳出する単語が目的単語集合の予測性能に依存するためであると考えられる.また$\lambda=0.6$と設定したときの方が$\lambda=2.7$と設定したときより,BLEUスコアが増加するPrecision/Recallの組み合わせが多い.したがって,目的単語予測の性能が高くないときは$\lambda$の値を小さくすることで,BLEUスコアを改善できることがわかる.以上より,辞書引きした単語の予測精度が高いとき単語報酬モデルは翻訳精度を大きく向上できることが明らかとなり,対訳辞書をテスト時のデコーディングに用いる提案手法の妥当性が示された.\begin{figure}[t]\begin{center}\includegraphics{26-4ia3f2.eps}\end{center}\hangcaption{ASPEC英日方向の開発セットでPrecision/Recallをそれぞれ$10\%$〜$100\%$に変化させたときのBLEUスコアの結果(左図:$\lambda=0.6$,右図:$\lambda=2.7$).}\label{fig:simulation_w0.6_w2.7}\end{figure} \section{実際の辞書を用いた評価} \label{sec:actual_dict_resut}本章では目的単語予測に実際の辞書を用いたときの,単語報酬モデルの翻訳精度を評価する.\subsection{テストセットでの翻訳結果}\label{sec:test_result}表\ref{tab:overall}にIWSLT,ASPECのそれぞれのテストセットにおける,単語報酬モデルを用いないベースライン,提案手法およびオラクル辞書を用いた際のBLEUスコアを示す.丸括弧の中には目的単語予測で得られた単語集合の参照訳に対するPrecision/Recallを示す.太字は$p<0.01$でベースラインに統計的有意差があるものを示す.有意差の検定にはbootstrapresampling検定\cite{koehn:2004}を用いた\footnote{https://github.com/moses-smt/mosesdecoder/blob/master/scripts/analysis/bootstrap-hypothesis-difference-significance.pl}.このとき辞書の閾値$\delta$と報酬重み$\lambda$は\ref{sec:neuralsystem}節で述べた通りグリッド探索を行い求めた.例えばGIZA(完全一致)のIWSLT日英,IWSLT英日,ASPEC日英およびASPEC英日での辞書の閾値$\delta$はそれぞれ$0.001$,$0.01$,$0.0001$および$0.001$であり,報酬重み$\lambda$の値はそれぞれ$0.5$,$0.4$,$0.4$および$0.5$であった.表\ref{tab:overall}の全ての設定で用いた辞書の閾値$\delta$と単語報酬重み$\lambda$は付録に記述する.ベースラインと比較して,提案手法において有意にBLEUスコアが増加していることが分かる.全体としては高いRecallをもつ手法が,より大きいBLEUスコアの増加を示した.IWSLTでは,実際の辞書を用いた手法の最大のスコアは日英,英日でそれぞれ,GIZA完全一致の$10.36$,$10.88$であり,オラクル辞書を用いた手法のスコアである$17.68$,$20.26$とは差がある.これはGIZA完全一致は日英,英日でそれぞれRecallは$85.98$\%,$72.92$\%と高い値を達成しているが,Precisionが$0.27$\%,$2.56$\%と低いためと考えられる.\begin{table}[b]\caption{テストセットにおける各手法のBLEUスコアの比較}\label{tab:overall}\input{03table01.tex}\par\vspace{4pt}\small丸括弧の中には目的単語予測で得られた単語集合の参照訳に対するPrecision/Recallを示す.太字は$p<0.01$でベースラインよりも統計的有意差があるものを示す.IWSLT日英,IWSLT英日,ASPEC日英およびASPEC英日での最大の上昇はそれぞれ,$0.39$,$0.62$,$1.08$および$0.57$である.XTAGはEDRで辞書引きされた英単語の複数形をその単語集合に加えたものであるため,日英方向の結果のみである.\end{table}書き言葉ドメインであるASPECタスクでは,英日方向にEDR完全一致を適用したとき以外は全て有意に翻訳精度が向上した.$2017$年のWATの翻訳タスクにおいて,ASPEC日英とASPEC英日で本稿の実験設定と同じ単一のモデルによる最高精度はそれぞれ$27.62$(NTT)と$39.71$(NTT)である.提案手法ではそれぞれ$28.29$,$40.07$を達成しており,WAT$2017$の単一モデルの最高精度をそれぞれ$0.67$および$0.36$向上している.提案法の適用によって訳出する単語にどのように影響するのかを分析するため,辞書のエントリが出力系列に出現する割合を測った.ASPEC日英のベースラインの訳文では$34.72\%$,EDR完全一致を用いたときは$36.38\%$であったためEDRを用いて約$1.7\%$の単語はEDR辞書によって出現したと言える.同様にASPEC日英のベースラインとXTAG完全一致で,辞書のエントリが出力系列に出現した割合を測ったところ,それぞれ$38.19\%$,$41.76\%$であり約$3.6\%$の増加であった.したがって,辞書によって出力系列に出現する単語が変化していることがわかる.EDR日英辞書のエントリペアは$671,649$であるがユニークな日本語側の単語数は$227,553$である.このことより日本語$1$単語につき平均約$3$単語の英語が辞書引きされるためPrecisionは$33\%$程度が上限である.したがってEDRのような人手で作成された辞書でもPrecisionが低い結果となったと考えられる.\subsection{分析}本節では提案手法の効果を定性的に分析するため,translationeditrate(TER)\cite{snover2006study}を用いた訳抜け単語と過剰翻訳単語の分析(\ref{subsec:ter_bunseki}項),および翻訳例を用いた翻訳結果の分析(\ref{subsec:example_bunseki}項)を行う.\subsubsection{TERを用いた訳抜け単語数と過剰翻訳単語数の分析}\label{subsec:ter_bunseki}TERを求める際に得られる編集操作の集合を用いて,ニューラル機械翻訳における主要な問題である訳抜けと過剰翻訳について分析した.訳抜け単語数と過剰翻訳単語数は,TERを用いて編集の種類を数えることで簡易的に評価した.本稿では一文中における``挿入''の回数と``削除''の回数をそれぞれ訳抜け単語数と過剰翻訳単語数と定義した.\begin{table}[b]\caption{テストセットにおける,TERによって計算された$1$文中の平均の訳抜け単語数と過剰翻訳単語数}\label{tab:ter_count}\input{03table02.tex}\end{table}訳抜け単語数と過剰翻訳単語数を測定した結果を表\ref{tab:ter_count}に示す.結果より,訳抜け単語は,提案手法のどの辞書を用いたときでも改善できていることがわかる.特にオラクル辞書を用いたときは平均で$1.2$単語減少できている.過剰翻訳に関しては,訳抜けとは逆に提案手法のいかなる辞書を用いた場合でも悪化している.これは報酬を付加し続けるという手法の特性上,一度ある単語を生成した後も同じ単語に出現を促進するバイアスをかけるためである.この問題に対しては一度出力された単語には報酬を掛けないという方法である大域的制約で回避できると考えられる.大域的制約のモデルの検討は今後の課題である.また,オラクル辞書を用いたときに一番多く過剰翻訳単語を出力してしまっているが,これはオラクル辞書の信頼性が高いため単語報酬重み$\lambda$を大きくしてしまうことで生じる問題と思われる.$\lambda$が高いとデコーダが出力した翻訳確率を疎かにして,目的単語集合に存在する単語を複数回出力してしまうためであると考えられる.\begin{table}[b]\caption{ASPEC日英における単語報酬モデル(GIZA部分一致)で訳抜けが解消されている例}\label{tab:example_undergeneration}\input{03table03.tex}\vspace{4pt}\small``(congenitalimmunity)''というフレーズと``cancerof''というフレーズが,単語報酬モデルでは出力されている.\vspace{1\Cvs}\end{table}\begin{table}[b]\hangcaption{ASPEC日英における単語報酬モデル(GIZA部分一致)で訳抜けが改善している部分はあるが重複が残ってしまっている例}\label{tab:example_complex}\input{03table04.tex}\vspace{4pt}\small``bloodcollectionisindispensable''というフレーズはベースラインでは出力されていないが,単語報酬モデルでは出力された.しかし依然として誤った場所に``isindispensable''が出力されている.\end{table}\subsubsection{翻訳例}\label{subsec:example_bunseki}翻訳例を用いて単語報酬確率の翻訳結果の分析を行った.ここでは辞書の中で一貫して性能向上していたGIZA部分一致を用いて分析した.表\ref{tab:example_undergeneration}および表\ref{tab:example_complex}にASPEC日英におけるベースラインと単語報酬モデル(GIZA部分一致)の翻訳例を示す.表\ref{tab:example_undergeneration}はベースラインで発生している訳抜けが単語報酬モデルによって解消されている例である.ベースラインでは参照訳中にある``(congenitalimmunity)''というフレーズと``cancerof''というフレーズが存在しないが,単語報酬モデルでは出力されている.これは単語報酬モデルが理想的に働いた形である.表\ref{tab:example_complex}はベースラインで発生している訳抜けが単語報酬モデルによって解消されているが,過剰翻訳が残っている例である.ベースラインでは参照訳中にある``bloodcollectionisindispensable''というフレーズが存在しないが,単語報酬モデルでは出力されている.しかし,結果として``isindispensable''が過剰翻訳してしまっている.これは,一度ある単語を出力した後も同じ単語に報酬をかけ続けるという手法上,誤った場所に出力される単語を制御できないためと考えられる. \section{既存手法との比較} ニューラル機械翻訳において訓練時に対訳辞書を用いる手法がArhurら\cite{arthur-neubig-nakamura:2016:EMNLP2016}によって提案されている.Arthurらの手法と単語報酬モデルは,辞書を用いる点や単語対訳確率にバイアスをかける点が共通している.本章ではArthurらの手法と本稿で提案した単語報酬モデルを比較する.\subsection{実験設定}提案手法のベースラインであるnlpmlp-nmtにArthurらの手法を組み合わせた実験を行う.モデルには\ref{sec:actual_dict_resut}章で用いたものと同じものを使用する.用いたコーパスはIWSLT英日およびASPEC英日であり,それらのコーパスの前処理やパラメータ設定方法は\ref{sec:exp_setting}章で述べたとおりである.Arthurらの手法では単語対訳確率が必要なため,BPE処理を行った後のコーパスからMosesのToolkitを用いてサブワードレベルの単語対訳確率を得たものを辞書として用いた.Arthur法を組み込んだnlpmlp-nmtモデルの訓練は学習に非常に時間がかかるため,ここでモデルの最適化は行わず,テストの際のデコーディング時に,辞書の単語対訳確率と単語翻訳確率を線形補間するlinear\footnote{Arthurらが提供する実装でkfttを用いて実験した結果,バイアスをかける手法(bias)と線形補間する手法(linear)でBLEUスコアはそれぞれ$23.80$,$24.22$であったので今回の実験ではlinearを用いた.}を用いて出力単語の確率を変更する.ある目的単語について入力系列の各単語との対訳確率にその単語へのアテンションを掛けて総和を求めた確率を$p_l$,翻訳モデルが求めた確率を$p_m$とすると,Arthur法のlinearは目的単語の出現確率$p_o$を線形補間の重み$\gamma$を用いて次式のように求める.\begin{equation}p_o=\gammap_l+(1-\gamma)p_m.\end{equation}Arthur法と提案法を併用する際には,単語翻訳確率をArthur法で得られる出現確率$p_o$に置き換えて次式により事後確率を求める.\begin{equation}Q(y_j|y_{<j},X)=\logp_o(y_j|y_{<j},X)+\lambdar_{y_j}.\end{equation}Arthurらの手法と単語報酬モデルを組み合わせる際はまず単語報酬モデルでパラメータチューニングしたパラメータを固定して,Arthurらの手法のパラメータをチューニングした.\subsection{実験結果}表\ref{tab:combined}にベースライン(nlpmlp-nmt),テスト時のデコーディングにArthurらの手法を組み合わせたとき,単語報酬モデルを適用したときおよび両方の手法を併用したときのBLEUスコアを示す.線形補間の重みを決める$\gamma$は$0.05$,$0.14$,$0.29$,$0.50$,$0.71$,$0.86$,$0.95$を試して開発セットで最も良かった設定を用いる.パラメータを$(\delta,\lambda,\gamma)$と表現すると,Arthur法と提案手法を併用したときのパラメータはIWSLTとASPECでそれぞれ$(0.001,0.4,0.14)$と$(0.001,0.4,0.05)$であった.それ以外の全ての設定でのパラメータは付録の表\ref{tab:combined_settings}に記述する.\begin{table}[t]\hangcaption{nlpmlp-nmt,Arthurらの手法,単語報酬モデル,およびArthurらの手法と単語報酬モデルを併用したときのBLEUスコア}\label{tab:combined}\input{03table05.tex}\end{table}結果よりテスト時のデコーダにArthur法を組み込んだものはベースラインからほとんど変化がなかったが,単語報酬モデルと併用すると単語報酬モデルのみを用いるときよりもBLEUスコアが増加している.このことより,Arthurらの手法と提案手法である単語報酬モデルは対立するものではなく併用可能であること,併用することでより高い翻訳精度を示すことを確認した.Arthurらの手法は低頻度語の翻訳精度向上を目的としているため,今回の実験設定では翻訳精度が向上しなかったと考えられる.一方で提案手法は辞書に存在する単語の出現確率にバイアスを付加することで,低頻度語に限らず精度向上を目的としているため,両方のタスクにおいて翻訳精度が向上したのだと考えられる.我々の実装においてArthur法のように訓練時に辞書を活用する方法を検討することは今後の課題である.しかし,テスト時のデコーディングにおいて開発セットを使ってハイパーパラメータを調整してもArthur法は単独ではあまり効果がなかったので,訓練時にArthur法を使用してモデルを最適化してもあまり効果がない可能性がある. \section{関連研究} ニューラル言語生成の分野では,単語やフレーズを予測し出力する手法は多く研究がなされている.単語選択のハードな制約として,ニューラル機械翻訳におけるグリッドビーム探索\cite{hokamp-liu:2017:Long}が提案されている.これはテスト時にユーザが指定した単語を全てのデコーディングステップで強制的に訳出し,スコアの高い上位k件を保持するという手法である.ユーザが指定した単語を含む文の中でスコアの高いものを翻訳結果とするため,指定した単語を必ず含む文を選択できる.それ以外にはアテンション最大の原言語の単語に対して指定された目的言語の単語がその単語を含む一定のウィンドウの中で出力されるかをチェックする方法\cite{chatterjee-etal-2017-guiding}やアテンション最大の原言語の単語に対して指定された目的言語の単語を出力し,以後その原言語への単語のアテンションをマスクして指定した単語が再び出力されることを防ぐ方法\cite{hasler-etal-2018-neural}がある.また,グリッドビーム探索手法には,指定単語数に対してビーム幅が線形に増えるという問題があるが,独自のスコアリングに基づいてそれぞれの語彙的制約に割り当てるビームの数を動的に変化させることによりビームの総数を一定に保つ手法\cite{post-vilar-2018-fast}も提案されている.これらの手法はデコーダに制約を与えるという点で提案手法と共通しているが,ユーザが所望する単語を訳出することを目的としており,またその単語をユーザが指定する必要がある.提案手法は対訳辞書を用いてデコーダに制約を与えることで翻訳精度を向上することを目的としており,ある単語が必ず訳出されることは保証しない.それにより厳密に単語を指定をせずとも,辞書を用いることにより翻訳精度を向上させることに成功した.デコーダにおいて目的単語予測を行う研究も盛んに行われている\cite{shi-knight:2017:Short,DBLP:journals/corr/SankaranFA17,mi-wang-ittycheriah:2016:P16-2}.これらは単語予測を行いテスト時のデコーディングの際に語彙を制限することで,ソフトマックス関数の計算コストを下げて速度向上を目指している.また,デコーダの隠れ層における出力単語の情報を正確にするため,隠れ層から出力単語を予測しそのエラーを最小化するよう訓練する手法\cite{weng-EtAl:2017:EMNLP2017}が提案されている.提案手法は対訳辞書を用いた目的単語予測によりニューラル機械翻訳における辞書の活用を実現したものであり,これらの研究とは異なる. \section{おわりに} 本稿ではニューラル機械翻訳における単語報酬モデルによる対訳辞書の活用手法を提案した.実験結果より目的単語予測の性能が十分高ければ,提案手法である単語報酬モデルによって翻訳精度が大幅に向上することを示した.また,目的単語予測に現実的に利用可能な対訳辞書を用いた場合でも翻訳精度が有意に向上することを示した.さらにニューラル機械翻訳において辞書を用いる先行研究との比較実験より,実験したIWSLTタスクとASPECタスクでは先行研究を上回り翻訳精度が向上していることを示した.また先行研究と提案手法を組み合わせるとそれぞれを単一で用いるよりも翻訳精度を向上することができたことから,実験的に先行研究と提案手法は対立するものではなく組み合わせ可能であることを示した.提案手法は実装が簡潔で訓練済みのデコーダに簡単に適用でき,また辞書の更新や変更が容易であるという利点をもつ.今後の課題としては,一度出力された単語には報酬を付加しないという大域的制約による過剰翻訳への対処が考えられる.またTransformer\cite{NIPS2017_7181}は現在の最先端のニューラル機械翻訳モデルであるため,単語報酬モデルをTransformerへ組み込むことも今後の課題である.\acknowledgment本研究は,日本電信電話株式会社コミュニケーション科学基礎研究所の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Arthur,Neubig,\BBA\Nakamura}{Arthuret~al.}{2016}]{arthur-neubig-nakamura:2016:EMNLP2016}Arthur,P.,Neubig,G.,\BBA\Nakamura,S.\BBOP2016\BBCP.\newblock\BBOQIncorporatingDiscreteTranslationLexiconsintoNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1557--1567}.\bibitem[\protect\BCAY{Bahdanau,Cho,\BBA\Bengio}{Bahdanauet~al.}{2015}]{DBLP:journals/corr/BahdanauCB14}Bahdanau,D.,Cho,K.,\BBA\Bengio,Y.\BBOP2015\BBCP.\newblock\BBOQNeuralMachineTranslationbyJointlyLearningtoAlignandTranslate.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonLearningRepresentations}.\bibitem[\protect\BCAY{Brown,Della~Pietra,Della~Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{brown-EtAl:1993}Brown,P.~F.,Della~Pietra,S.~A.,Della~Pietra,V.~J.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofStatisticalMachineTranslation:ParameterEstimation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\263--312}.\bibitem[\protect\BCAY{Cettolo,Girardi,\BBA\Federico}{Cettoloet~al.}{2012}]{cettoloEtAl:EAMT2012}Cettolo,M.,Girardi,C.,\BBA\Federico,M.\BBOP2012\BBCP.\newblock\BBOQWIT$^3$:WebInventoryofTranscribedandTranslatedTalks.\BBCQ\\newblockIn{\BemProceedingsofthe16thConferenceoftheEuropeanAssociationforMachineTranslation},\mbox{\BPGS\261--268}.\bibitem[\protect\BCAY{Chatterjee,Negri,Turchi,Federico,Specia,\BBA\Blain}{Chatterjeeet~al.}{2017}]{chatterjee-etal-2017-guiding}Chatterjee,R.,Negri,M.,Turchi,M.,Federico,M.,Specia,L.,\BBA\Blain,F.\BBOP2017\BBCP.\newblock\BBOQGuidingNeuralMachineTranslationDecodingwithExternalKnowledge.\BBCQ\\newblockIn{\BemProceedingsofthe2ndConferenceonMachineTranslation},\mbox{\BPGS\157--168},Copenhagen,Denmark.\bibitem[\protect\BCAY{Hasler,de~Gispert,Iglesias,\BBA\Byrne}{Hasleret~al.}{2018}]{hasler-etal-2018-neural}Hasler,E.,de~Gispert,A.,Iglesias,G.,\BBA\Byrne,B.\BBOP2018\BBCP.\newblock\BBOQNeuralMachineTranslationDecodingwithTerminologyConstraints.\BBCQ\\newblockIn{\BemProceedingsofthe2018ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies,Volume2(ShortPapers)},\mbox{\BPGS\506--512},NewOrleans,Louisiana.\bibitem[\protect\BCAY{Hokamp\BBA\Liu}{Hokamp\BBA\Liu}{2017}]{hokamp-liu:2017:Long}Hokamp,C.\BBACOMMA\\BBA\Liu,Q.\BBOP2017\BBCP.\newblock\BBOQLexicallyConstrainedDecodingforSequenceGenerationUsingGridBeamSearch.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1535--1546}.\bibitem[\protect\BCAY{Koehn}{Koehn}{2004}]{koehn:2004}Koehn,P.\BBOP2004\BBCP.\newblock\BBOQStatisticalSignificanceTestsforMachineTranslationEvaluation.\BBCQ\\newblockIn{\BemProceedingsofthe2004ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\388--395}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{koehn-EtAl:2007:PosterDemo}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguisticsCompanionVolumeProceedingsoftheDemoandPosterSessions},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{Koehn\BBA\Knowles}{Koehn\BBA\Knowles}{2017}]{koehn-knowles:2017:NMT}Koehn,P.\BBACOMMA\\BBA\Knowles,R.\BBOP2017\BBCP.\newblock\BBOQSixChallengesforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe1stWorkshoponNeuralMachineTranslation},\mbox{\BPGS\28--39}.\bibitem[\protect\BCAY{Luong,Pham,\BBA\Manning}{Luonget~al.}{2015}]{luong-pham-manning:2015:EMNLP}Luong,T.,Pham,H.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQEffectiveApproachestoAttention-basedNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1412--1421}.\bibitem[\protect\BCAY{Mi,Wang,\BBA\Ittycheriah}{Miet~al.}{2016}]{mi-wang-ittycheriah:2016:P16-2}Mi,H.,Wang,Z.,\BBA\Ittycheriah,A.\BBOP2016\BBCP.\newblock\BBOQVocabularyManipulationforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\124--129}.\bibitem[\protect\BCAY{Morishita,Suzuki,\BBA\Nagata}{Morishitaet~al.}{2017}]{morishita-suzuki-nagata:2017:WAT2017}Morishita,M.,Suzuki,J.,\BBA\Nagata,M.\BBOP2017\BBCP.\newblock\BBOQNTTNeuralMachineTranslationSystemsatWAT2017.\BBCQ\\newblockIn{\BemProceedingsofthe4thWorkshoponAsianTranslation},\mbox{\BPGS\89--94}.\bibitem[\protect\BCAY{Nakazawa,Higashiyama,Ding,Mino,Goto,Kazawa,Oda,Neubig,\BBA\Kurohashi}{Nakazawaet~al.}{2017}]{nakazawa-EtAl:2017:WAT2017}Nakazawa,T.,Higashiyama,S.,Ding,C.,Mino,H.,Goto,I.,Kazawa,H.,Oda,Y.,Neubig,G.,\BBA\Kurohashi,S.\BBOP2017\BBCP.\newblock\BBOQOverviewofthe4thWorkshoponAsianTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe4thWorkshoponAsianTranslation},\mbox{\BPGS\1--54}.\bibitem[\protect\BCAY{Nakazawa,Yaguchi,Uchimoto,Utiyama,Sumita,Kurohashi,\BBA\Isahara}{Nakazawaet~al.}{2016}]{NAKAZAWA16}Nakazawa,T.,Yaguchi,M.,Uchimoto,K.,Utiyama,M.,Sumita,E.,Kurohashi,S.,\BBA\Isahara,H.\BBOP2016\BBCP.\newblock\BBOQASPEC:AsianScientificPaperExcerptCorpus.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\2204--2208}.\bibitem[\protect\BCAY{Post\BBA\Vilar}{Post\BBA\Vilar}{2018}]{post-vilar-2018-fast}Post,M.\BBACOMMA\\BBA\Vilar,D.\BBOP2018\BBCP.\newblock\BBOQFastLexicallyConstrainedDecodingwithDynamicBeamAllocationforNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2018ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\1314--1324}.\bibitem[\protect\BCAY{Robbins\BBA\Monro}{Robbins\BBA\Monro}{1951}]{Robbins&Monro:1951}Robbins,H.\BBACOMMA\\BBA\Monro,S.\BBOP1951\BBCP.\newblock\BBOQAStochasticApproximationMethod.\BBCQ\\newblock{\BemAnnalsofMathematicalStatistics},{\Bbf22},\mbox{\BPGS\400--407}.\bibitem[\protect\BCAY{Sankaran,Freitag,\BBA\Al-Onaizan}{Sankaranet~al.}{2017}]{DBLP:journals/corr/SankaranFA17}Sankaran,B.,Freitag,M.,\BBA\Al-Onaizan,Y.\BBOP2017\BBCP.\newblock\BBOQAttention-basedVocabularySelectionforNMTDecoding.\BBCQ\\newblock{\BemCoRR},{\Bbfabs/1706.03824}.\bibitem[\protect\BCAY{Sennrich,Haddow,\BBA\Birch}{Sennrichet~al.}{2016}]{sennrich-haddow-birch:2016:P16-12}Sennrich,R.,Haddow,B.,\BBA\Birch,A.\BBOP2016\BBCP.\newblock\BBOQNeuralMachineTranslationofRareWordswithSubwordUnits.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1715--1725}.\bibitem[\protect\BCAY{Shi\BBA\Knight}{Shi\BBA\Knight}{2017}]{shi-knight:2017:Short}Shi,X.\BBACOMMA\\BBA\Knight,K.\BBOP2017\BBCP.\newblock\BBOQSpeedingUpNeuralMachineTranslationDecodingbyShrinkingRun-timeVocabulary.\BBCQ\\newblockIn{\BemProceedingsofthe55thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\574--579}.\bibitem[\protect\BCAY{Snover,Dorr,Schwartz,Micciulla,\BBA\Makhoul}{Snoveret~al.}{2006}]{snover2006study}Snover,M.,Dorr,B.,Schwartz,R.,Micciulla,L.,\BBA\Makhoul,J.\BBOP2006\BBCP.\newblock\BBOQAStudyofTranslationEditRatewithTargetedHumanAnnotation.\BBCQ\\newblockIn{\BemProceedingsofthe7thConferenceoftheAssociationforMachineTranslationintheAmericas},\mbox{\BPGS\223--231}.\bibitem[\protect\BCAY{Takebayashi,Chu,Arase,\BBA\Nagata}{Takebayashiet~al.}{2018}]{takebayashi}Takebayashi,Y.,Chu,C.,Arase,Y.,\BBA\Nagata,M.\BBOP2018\BBCP.\newblock\BBOQWordRewardingforAdequateNeuralMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe15thInternationalWorkshoponSpokenLanguageTranslation},\mbox{\BPGS\14--22}.\bibitem[\protect\BCAY{Vaswani,Shazeer,Parmar,Uszkoreit,Jones,Gomez,Kaiser,\BBA\Polosukhin}{Vaswaniet~al.}{2017}]{NIPS2017_7181}Vaswani,A.,Shazeer,N.,Parmar,N.,Uszkoreit,J.,Jones,L.,Gomez,A.~N.,Kaiser,L.~u.,\BBA\Polosukhin,I.\BBOP2017\BBCP.\newblock\BBOQAttentionisAllyouNeed.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems30},\mbox{\BPGS\5998--6008}.\bibitem[\protect\BCAY{Weng,Huang,Zheng,Dai,\BBA\Chen}{Wenget~al.}{2017}]{weng-EtAl:2017:EMNLP2017}Weng,R.,Huang,S.,Zheng,Z.,Dai,X.-Y.,\BBA\Chen,J.\BBOP2017\BBCP.\newblock\BBOQNeuralMachineTranslationwithWordPredictions.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\136--145}.\end{thebibliography}\appendix \section{\ref{sec:test_result}節で用いたパラメータ一覧} \begin{table}[b]\vspace{-1\Cvs}\caption{表\ref{tab:overall}のテストセットにおける各設定で用いた単語報酬重み$\lambda$}\label{tab:overall_lambda_settings}\input{03table06.tex}\vspace{1\Cvs}\end{table}\begin{table}[b]\caption{表\ref{tab:overall}のテストセットにおける各設定で用いた辞書の閾値$\delta$}\label{tab:overall_delta_settings}\input{03table07.tex}\end{table}\clearpage\begin{table}[t]\hangcaption{表\ref{tab:combined}のテストセットにおける各設定で用いた辞書の閾値$\delta$,単語報酬重み$\lambda$およびArthur法の線形補間の重み$\delta$}\label{tab:combined_settings}\input{03table08.tex}\end{table}\begin{biography}\bioauthor{竹林佑斗}{2017年大阪大学工学部電子情報工学科卒業.2019年大阪大学大学院情報科学研究科博士前期課程修了.同年,株式会社ワークスアプリケーションズに入社.ACL会員.}\bioauthor[:]{ChenhuiChu}{2008年重慶大学ソフトウェア工学部卒業.2012年に京都大学大学院情報学研究科修士課程修了.2015年同大学院博士課程修了.博士(情報学).日本学術振興会特別研究員DC2,国立研究開発法人科学技術振興機構研究員を経て,2017年より大阪大学データビリティフロンティア機構特任助教.機械翻訳,自然言語処理の研究に従事.言語処理学会,人工知能学会,ACL,各会員.}\bioauthor{荒瀬由紀}{2006年大阪大学工学部電子情報エネルギー工学科卒業.2007年同大学院情報科学研究科博士前期課程,2010年同博士後期課程修了.博士(情報科学).同年,MicrosoftResearchAsiaに入社,自然言語処理に関する研究開発に従事.2014年より大阪大学大学院情報科学研究科マルチメディア工学専攻准教授,現在に至る.言い換え表現抽出および生成,機械翻訳技術,言語教育支援,対話システム研究に興味を持つ.}\bioauthor{永田昌明}{1987年京都大学大学院工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,コミュニケーション科学研究所上席特別研究員.工学博士.機械翻訳,自然言語処理の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
V27N01-02
\section{はじめに} \label{intro}近年,文書情報に対する情報要求は複雑化,高度化しており,そのような要求を満たすアクセス技術として質問応答が注目されている.質問応答とは,利用者の自然言語による質問に対して情報源となる文書集合から解答そのものを抽出する技術であり,複雑高度な情報要求を自然言語で表現できる点に特徴がある.しかしながら,従来の質問応答に関する研究では,「アメリカの大統領は誰ですか?」といった比較的簡単な形式の質問を扱うものが多く,質問の確信に至るまでの背景や経緯を複数文にわたって説明したりする現実世界の質問状況とは異なる場合がある.そのような現実世界における質問に対する質問応答を目的とした取り組みは,TRECのLiveQA~\cite{trec}やNTCIRのQALab~\cite{shibuki2014,shibuki2016,shibuki2017},「ロボットは東大に入れるか」プロジェクト(以下,「東ロボプロジェクト」)\cite{torobo}などで盛んに行われている.現実世界における質問のように,質問の背景を複数文にわたって説明する記述や,解答が複数文を含む文章となるような質問の例として,大学入試問題が挙げられる.大学入試問題には大学入試センター試験と二次試験があり,二次試験の世界史分野には数十字から数百字以内で解答を記述する論述問題が含まれていることがある.QALabでは,世界史の大学入試問題を対象としており,特に二次試験の論述問題への自動解答が挑戦的な課題として設定されている.先行研究\cite{sakamoto-system}では,情報要求の存在する抽出型の複数文書要約としてこの課題を位置づけ,教科書や用語集等の知識源から句点区切りの単位でテキストを抽出・整列して論述問題に解答する質問応答システムを提案している.知識源に使用される用語集は見出し語と語釈部に分かれて構成されており,語釈部には見出し語が明示されていないため,語釈部を句点で区切った文(以下,「語釈文」という)だけをそのまま解答文に含めてしまうと,何について述べているかわからない文になってしまう.また,論述問題において解答に含めなければならない指定語句が見出し語となっている場合,語釈文だけから解答を構成すると大きく減点されてしまう.このような背景から,上述の既存システムでは,用語集の語釈文を解答の材料として抽出した際には,見出し語を文頭に主題として付け加えた文を生成し,これを解答の一部とする手法を提案している.しかしながら,この手法によって生成された文は,文法的に誤りがある場合や,解答文に適していない場合がある\footnote{\ref{problem}節に後述する.}.これらの問題を解消するためには,\begin{enumerate}\renewcommand{\theenumi}{(\roman{enumi})}\renewcommand{\labelenumi}{(\roman{enumi})}\item見出し語を語釈文に埋め込むことができるか,否か,すなわち,語釈文の述語の省略された項をゼロ代名詞とみなした場合,見出し語がその先行詞となるか,否かを判定する.見出し語を埋め込むことができる,すなわち,見出し語が先行詞となるのであれば,見出し語の表層格を推定する.\label{enum:one-0}\item問題文ならびに論述文章の前後の文等から何を主題にするかを決定し,それに応じて格交替などを行い論述問題の解答の一部とする.\label{enum:two-0}\end{enumerate}ことが必要である.本稿では,\ref{enum:one-0}に掲げた課題を解決するために,語釈文中の各動詞に着目し,それが見出し語に照応するゼロ代名詞を持つか否かを判定するとともに,持つ場合にはその表層格を推定する手法を検討する.\ref{enum:two-0}については,今後の課題とする.また,提案手法は,教師あり学習に基づく手法となっているため,訓練事例を必要とするが,用語集の形式をした事例は数に限りがあり,特定の表層格で埋め込む場合の事例が限られていることが観察された.そのため,訓練事例数が少ないという問題を解消するために,擬似訓練事例の自動生成を行う.本稿の以降の章では次の内容を述べる.2章では既存の世界史論述解答システムの概要とその問題点を述べ,本研究で提案する解決策を述べる.3章では世界史用語集に関して予備調査を行った結果について述べる.4章では本研究の関連研究について述べる.5章では見出し語に照応するゼロ代名詞とその表層格を推定する手法を提案する.6章では実験結果を報告し,7章で考察,8章でまとめとする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\vspace{-1\Cvs}\begin{center}\includegraphics{27-1ia2f1.eps}\end{center}\caption{東京大学2008年度入試二次試験における世界史の問1}\label{fg:2008question}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f2.eps}\end{center}\caption{東京大学2008年度入試二次試験における世界史の問1に対する解答例}\label{fg:2008answer}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%第2章%%%%%%%%%% \section{世界史論述問題解答システム} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{大学入試における世界史論述問題の構成}例えば,東京大学入試二次試験における世界史は3問の大問から成っており,大問毎に,大論述,小論述,語句と解答の形式が異なっている.本稿では,問1の大論述問題を対象とする.問1の質問文は,図\ref{fg:2008question}のようにコンテキスト部と制約指定部からなっており,コンテキスト部を読ませ,制約指定部で指定される字数制約450字〜600字,7個〜9個の指定語句,「17世紀から18世紀末まで」のような時間制約などを満たすコンテキスト部に関連する解答が求められる.この問題に対する解答例\cite{akahon}を図\ref{fg:2008answer}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{解答システムの事例とその問題点}\label{problem}Sakamotoetal.\cite{forst2016}では,東京大学入試二次試験の世界史分野の指定語句ありの論述問題を対象とした質問応答システムの構築を検討している.論述問題を情報要求の存在する抽出型の複数文書要約として位置づけ,論述問題を解く際には,知識源として教科書4冊と用語集1冊を利用している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f3.eps}\end{center}\caption{世界史論述問題解答システムの概要}\label{fg:sakamoto-system}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%同研究で提案されている大学入試の論述問題における質問応答システムの概要を図\ref{fg:sakamoto-system}に示す.同システムが論述問題を解く手順は次の通りである.まず最初に,質問文として東京大学入試二次試験世界史問1の問題文を入力する.第一段階の「質問文解析」では,質問文から,問題文,指定語句,制限文字数,指定された時間情報を抽出する.第二段階の「関連文書の検索」では,文書検索モジュールを用いて知識源から指定語句を含む文書を検索する.第三段階の「文の抽出」では,知識源から指定語句を含む文を句点区切りで抽出する.この際,用語集から抽出した文に対しては文頭に見出し語を主題として埋め込む.第四段階の「文の組の生成」では,同じ指定語句を含む文をまとめて指定語句ごとに組を作成する.第五段階の「文の順位付け」では,解候補としての相応しさを表すスコアを文に付与し,そのスコアを基に文の組の中で順位付けを行う.スコアが等しい場合は文の文字数が多い順に順位づける.第六段階の「解候補生成」では,それぞれの文の組の上位5文から1文ずつ選択し組み合わせることで複数の解候補を生成する.第七段階の「文の並べ替え」では,解候補中の文を文の時間情報を基に古い順に並べる.第八段階の「解候補の削減」では,字数制約に反する解候補は削除する.もし字数制約を満たす解候補が存在しない場合は最小字数の解候補のみ残す.第九段階の「解候補順位付け」では,それぞれの解候補に解答らしさのスコアをつけて,スコアを基に順位付けを行う.解候補の解答らしさのスコアは解候補に含まれる文のスコアの合計で計測する.第十段階の「解候補選択」では,解答らしさのスコアが最大の解候補を選択する.以上のように,この研究では指定語句で検索して,知識源の中から解答と思われる記述を文単位で抽出している.知識源のうちの1つである世界史用語集は表\ref{tab:glossary-example}のように見出し語と語釈部に分かれて構成されている.上記第三段落において,論述問題に解答する際に,この語釈部を句点で区切った文だけをそのまま解候補の一部に含めてしまうと,何について述べているかわからない文になってしまう.また,論述問題において解答に含めなければならない指定語句が見出し語となっている場合,見出し語を含まない語釈文だけから解答を構成すると大きく減点されてしまう.このため上述のシステムでは,用語集の語釈文を解答の材料として抽出した際には,助詞「は」を添えた見出し語を文頭に付け加えた文を生成する手法を提案している.図\ref{fg:system-answer-sample}の下線部はそれぞれ用語集から語釈文を抽出し,この手法を適用した文である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\caption{用語集の見出し語と語釈部の例}\label{tab:glossary-example}\input{02table01.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%この手法は,図\ref{fg:system-answer-sample}下線部(1)のようにコピュラ文となる場合等には文法的に問題ないが,語釈文によっては図\ref{fg:system-answer-sample}下線部(2)のように文法的に誤りのある文が生成され得るという問題点がある.また,この手法によって得た文の主題は図\ref{fg:system-answer-sample}下線部(3)のようにかならず見出し語になるため,解答文に適していない場合がある.例えば図\ref{fg:2008question}に示す2008年度の問1は,各国の動きを述べよという問題であり,図\ref{fg:2008answer}に示す模範解答\footnote{https://akahon.net/}ではイギリスを主題として文章が展開されているが,上記手法による解答では,国ではない「クリミア戦争」という出来事が主題となっており,解答に適している文であるとは言えない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f4.eps}\end{center}\caption{東京大学2008年度入試二次試験における世界史の問1に対する,先行研究のシステムによる解答}\label{fg:system-answer-sample}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{本研究で提案する解決策}\label{solver}\ref{problem}節で述べたような問題を解消するためには,\begin{enumerate}\renewcommand{\theenumi}{(\roman{enumi})}\renewcommand{\labelenumi}{(\roman{enumi})}\item見出し語を語釈文に埋め込むことができるか,否かを判定する.埋め込めるのであれば,見出し語の表層格を推定する.\label{enum:one-1}\item問題文ならびに論述文章の前後の文等から何を主題にするかを決定し,それに応じて格交替などを行い論述問題の解答の一部とする.\label{enum:two-1}\end{enumerate}ことが必要である.これらを行うことにより,例えば図\ref{fg:system-answer-sample}下線部(2)のような文を図\ref{fg:expected-answer}のように解答に適した文にすることができる.具体的には,図\ref{fg:sakamoto-system}の第三段階の「文の抽出」により語釈文を抽出した後,\ref{enum:one-1}を行い,見出し語である「クリミア戦争」が「参戦する」の「ニ格」に埋め込むことができることを推定する.さらに図\ref{fg:sakamoto-system}の第七段階の「文の並び替え」を行った後に\ref{enum:two-1}を行い,問題文から国名「イギリスとフランスなど」を主題にすることを決定し,助詞「は」を添えて文頭に置く.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f5.eps}\end{center}\caption{本研究の提案する解決策により期待される文例}\label{fg:expected-answer}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,格交替が必要な例を挙げる.図\ref{fg:kakukoitai}の文例は,図\ref{fg:2008question}の問題に対して,先行研究のシステムから出力された解候補中の一文を簡略化したものである.この文に関しても,国名「フランス」を主題にすることが望ましいが,この場合,「ビスマルク」の格が何であるのかを推定する必要がある.さらに,「フランス」はヲ格の項となっているためそのまま主題にすると,不自然な文となってしまう.この例では,見出し語である「ビスマルク」が「孤立させる」の「ガ格」に埋め込むことができることを推定した後,「フランス」を主題にすることを決定し,「孤立させる」を「孤立させられる」のように受動態に書き換え格交替をすることが望ましい(図7).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{27-1ia2f6.eps}\end{center}\caption{先行研究により出力されたものを簡略化した,格交替が必要な文例}\label{fg:kakukoitai}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\ref{intro}章でも述べたように,本稿では\ref{enum:one-1}に掲げた課題を解決するために,語釈文中の各動詞に着目し,それが見出し語に照応するゼロ代名詞を持つか否かを判定するとともに,持つ場合にはその表層格を推定する手法を検討する.\ref{enum:two-1}については,今後の課題とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[t]\begin{center}\includegraphics{27-1ia2f7.eps}\end{center}\caption{本研究の提案する解決策により期待される文例2}\label{fg:expected-answer2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%第3章%%%%%%%%%%%%%%% \section{世界史用語集の見出し語と語釈文の関係に関する予備調査} \label{research}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{調査の目的と方法}\label{pre-research}\ref{solver}節で提案した解決策を適用する必要がある文が世界史用語集の語釈部にどの程度存在するかを明らかにし,具体的なタスクの定義をするために,株式会社山川出版社・世界史B用語集改訂版\cite{yamakawa-glossary}を対象に,見出し語と語釈文との間の照応に関する以下の調査を行った.分析対象には用語集の見出し語7,037語の中から70語間隔で抽出した見出し語100語とその語釈部に現れる全文を用いた.また,以下の調査は全て単文単位で行う.すなわち語釈文が複文,重文になっている場合には,述語単位に切り分けたものに対して各調査における分類を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf調査1}見出し語と語釈文中の単文の関係を「1.単文においてゼロ代名詞化された格要素の一つが,見出し語に照応する」,「2.単文が,主題がゼロ代名詞化されたコピュラ文で,ゼロ代名詞が見出し語に照応する」,「3.単文中に見出し語そのものが現れている」,「4.単文に現れる代名詞が見出し語に照応する」,「5.1〜4のいずれでもない」のいずれかに人手で分類し,出現数を調べる.それぞれに分類される語釈文中の単文および見出し語の例を表\ref{tab:title-sentence-relation-example}に示す.分類1の例では,「行われた」の「ガ格」の格要素がゼロ代名詞化しており,見出し語の「聖職売買」に照応している.分類2の例では,「エピクロス=サモス島出身の哲学者」の関係が成り立っており,コピュラ文である.この場合先行研究の手法を適用できる.分類3の例では見出し語「四書」が語釈文に含まれている.分類4の例では代名詞「この(危機)」が見出し語「金融恐慌」に照応している.分類5の例は分類1〜分類4に該当せず,単文中に見出し語を埋め込むことはできない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\caption{語釈文中の単文と見出し語の関係の分類毎の例}\label{tab:title-sentence-relation-example}\input{02table02.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf調査2}表\ref{tab:title-sentence-relation}の分類1にはゼロ代名詞化された見出し語に照応する格要素が「動詞」「形容詞・形容動詞」「名詞」のうちどの品詞に関わる格要素であるかという観点で人手で分類を行い,その出現数について調べる.ここで用言のとる格は「が・を・に・で・と・から・へ・まで・より」格であり,名詞のとる格は「の」格のみである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\caption{語釈文中の単文と見出し語との間の関係の分類ならびにその出現数(調査1の結果)}\label{tab:title-sentence-relation}\input{02table03.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf調査3}動詞のいずれかの格要素になっている場合の表層格毎の出現数についても人手で調べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf調査4}動詞のいずれかの格要素になっている場合について,表層格毎,節の種類毎の分布についてNPを用いて調べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{調査結果および本研究のタスク定義}\label{task}調査1の結果を表\ref{tab:title-sentence-relation}に示す.「3.単文中に見出し語そのものが現れている」「4.単文に現れる代名詞が見出し語に照応する」場合は非常に少なく,「1.単文においてゼロ代名詞化された格要素の一つが,見出し語に照応する」場合が多いことがわかった.調査2の結果を表\ref{tab:zero-case-relation}に示す.ゼロ代名詞化された格要素が見出し語に照応する場合,動詞の格要素になっている場合が非常に多いが,名詞の格要素になっている事例,形容詞・動詞の格要素になっている事例も見られた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\hangcaption{語釈文中の単文においてゼロ代名詞化された格要素と見出し語との間の分類ならびにその出現数(調査2の結果)}\label{tab:zero-case-relation}\input{02table04.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\caption{動詞の格要素になっている場合の表層格毎の出現数(調査3の結果)}\label{tab:verb-case-relation}\input{02table05.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f8.eps}\end{center}\caption{見出し語が下線部動詞の「ガ格」に埋め込める時にSakamotoetal.(2016)の手法を適用した場合}\label{fg:gakaku}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%調査3の結果を表\ref{tab:verb-case-relation}に示す.動詞の格要素になっている場合(表\ref{tab:zero-case-relation}のA),表層格は「ガ格」「ヲ格」「ニ格」「デ格」「ト格」「カラ格」となる場合があった.表\ref{tab:verb-case-relation}を見ると「ガ格」の事例数が最も多く,「ヲ格」「ニ格」「デ格」の事例数は少なく,「ト格」「カラ格」の事例数は非常に少ない.用語集の語釈文に対して先行研究の手法\footnote{「見出し語+は、」を文頭に付け加える.}を適用した時に意味がわかりにくくなってしまう事例は特に,見出し語が「ヲ格」「ニ格」「デ格」など「ガ格」以外の格に埋め込むことができる場合である.例えば,図\ref{fg:gakaku}は「聖職売買」が「行われた」の「ガ格」に埋め込める場合であるが,この場合先行研究の手法においても,生成された文単体としては,適格な文となっている\footnote{ただし,格の推定を行っていないので,主題の変更などは行えない.}.しかし,図\ref{fg:nikaku}のように「クリミア戦争」が「参戦した」の「ニ格」に埋め込める場合は,先行研究の手法を適用すると文単体として意味がわかりにくい文になってしまう.そのため「ヲ格」「ニ格」「デ格」に埋め込めることを正しく推定することは重要であると言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[t]\begin{center}\includegraphics{27-1ia2f9.eps}\end{center}\caption{見出し語が下線部動詞「ニ格」に埋め込める時にSakamotoetal.(2016)の手法を適用した場合}\label{fg:nikaku}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%調査4の結果を表\ref{tab:verb-case-phrase-relation}に示す.この表を見ると,見出し語が動詞の格要素になっている場合にその動詞が連体節の一部であるという事例は極めて少ない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\caption{動詞の格要素になっている場合の表層格毎,節の種類毎の出現数(調査4の結果)}\label{tab:verb-case-phrase-relation}\input{02table06.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%これらの調査結果をふまえ,本研究のタスク定義を以下に述べる.本研究では,語釈文中の各動詞について,ゼロ代名詞化された格要素の一つが,見出し語に照応しているか否か,すなわち,表\ref{tab:zero-case-relation}のAであるか否かを判定し,表\ref{tab:zero-case-relation}のAである場合はさらにその表層格を推定する.埋め込める場合の表層格は,「ガ格」「ヲ格」「ニ格」「デ格」「ト格」「カラ格」となるケースがあったが,「ト格」「カラ格」となるケースは非常に少なかった.そのため本研究では「埋め込めない」「ガ格」「ヲ格」「ニ格」「デ格」「それ以外の格」のうちのどれであるかを推定する.また,表\ref{tab:title-sentence-relation}の分類2に属すコピュラ文については,体言止めの文でありその体言がサ変名詞以外であるか否か,という簡単な条件で判定できる\footnote{例えばコピュラ文は名詞+判定詞(だ)で終わるが,世界史用語集においては判定詞(だ)が省略されている.例,見出し語)シュメール人,語釈文)メソポタミア南部で最古の文明を築いた民族.また,サ変名詞の場合はコピュラ文にならない.例えば,見出し語)ポンディシェリ,語釈文)1672〜74年フランスが獲得.}.その場合は,助詞「は」を添えて見出し語を文頭に置くだけで良いので,本研究の扱うタスクの対象としない.よって本研究の扱うタスクは,用語集の見出し語と語釈文を入力とし,語釈文中の各動詞句\footnote{KNPの解析の結果,$<$用言:動$>$タグがふられた句を動詞句としている.}に対して「埋め込めない」,「ガ格」,「デ格」,「ヲ格」,「ニ格」,「それ以外の格」のいずれかのラベルを出力するという多クラス分類問題とする.その際,対象となる動詞句が受身形,および使役形の場合であっても原型に戻さず,それぞれの態のままで表層格の推定を行う.入力と出力の例を図\ref{fg:system-in-out}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.10\begin{figure}[t]\begin{center}\includegraphics{27-1ia2f10.eps}\end{center}\caption{本研究が扱うタスクにおける入出力例}\label{fg:system-in-out}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 日本語では格要素の省略が頻繁に起きることから,\pagebreak日本語ゼロ代名詞照応解析に関する研究が多く行われている.大規模格フレーム\cite{caseframe2005,caseframe2006}を使用した手法としては,文内・文間両方のゼロ照応を対象とし,構文的手掛かりおよび大規模格フレームによる語彙的手掛かりを素性とした対数線形モデル\cite{zero-anaphora2011}や,格フレームの汎化を利用したニューラルネットゼロ照応解析モデル\cite{zero-anaphora2018},外界照応および著者・読者表現を考慮したゼロ照応解析\cite{hangyo}などがある.機械学習を用いた手法としては,文内ゼロ照応を対象とし,文の構造を素性として取り入れた手法\cite{zero-anaphora2006}や,フィードフォワードニューラルネットワーク(FNN)とリカレントニューラルネットワーク(RNN)を組み合わせて使用した手法\cite{zero-anaphora2017}などがある.これらの関連研究はいずれもWebテキストや新聞記事などの文章中のゼロ代名詞照応解析を行っているのに対し,本研究では世界史用語集を対象とし,質問応答における解答の流暢性の向上を目的としている.一般的なゼロ代名詞照応解析のタスクでは,ある格にあるゼロ代名詞に注目したうえで,先行する名詞句群から高々一つの候補を選択することを行っている.一方で,本研究の扱うタスクでは先行詞を用語集の見出し語に限定した上で,それに照応できるゼロ代名詞(とその格)を高々一つ選択することを行っている.さらに,先行詞である見出し語は,単独で表示され,文中に存在するわけではないため,照応解析において有効な手掛かりとなる先行詞の文脈情報がまったく使えないという点が特徴的である.また,擬似訓練事例を利用した研究としては,Q\&Aサイトの質問分類において,Q\&Aに対して擬似的な分類ラベルを付与したデータを利用して特徴表現の収集を行った研究\cite{dummy-qa}や,単語分散表現において,学習を高速化させるために擬似的に負例をいくつかサンプリングし損失を算出する手法であるNegativeSampling~\cite{negative-sampling}などが挙げられる.ゼロ代名詞照応解析のタスクにおいて擬似訓練事例を利用した研究としては,中国語ゼロ代名詞照応解析の研究\cite{liu-etal-2017-generating}がある.この研究では文章中に2回以上出てくる名詞に着目し,より後の方に出現する名詞を取り除いたものを,ゼロ代名詞に見立てて擬似訓練事例としている.この研究では,文章中に2回以上出現する名詞の一方を取り除いているのに対し,本研究では1回しか出現していなくても,それが世界史固有表現である場合には取り除き,見出し語としている点が異なる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{機械学習を用いた見出し語に照応するゼロ代名詞とその表層格の推定手法} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{全体の処理の流れ}\label{flow-all}本節では\ref{task}節で述べたタスクを実現する提案手法の概要を述べる.照応解析には大きく規則ベースの手法と学習ベースの手法があるが,照応関係を包括的に捉える規則を書き尽くすことは困難であると考えたため,本研究では学習ベースの手法を用いることとした.図\ref{fg:my-system-inout}に提案手法の処理の流れを示す.提案手法により見出し語に照応するゼロ代名詞の表層格の推定を行う手順は次の通りである.まず最初に,見出し語とそれに対応する語釈文の組を入力とする.第一段階の「構文・格解析」ではKNP\footnote{http://nlp.ist.i.kyoto-u.ac.jp/?KNP}により構文・格解析を行う.第二段階の「動詞句の抽出」では,構文・格解析結果をもとに,$<$用言:動$>$タグがふられた句を抽出する.第三段階の「動詞句毎に素性を抽出」では,抽出した動詞句それぞれに対して,KNPの構文・格解析結果,その際に使用された京大格フレーム\cite{caseframe2006},日本語語彙大系\cite{goitaikei}などの言語資源を用いて素性抽出を行う.第四段階の「動詞句毎に表層格を推定」では,第三段階で抽出した素性を入力とし,SupportVectorMachineをone-versus-the-rest法により多クラス分類に拡張したモデルによりそれぞれの表層格を推定する.最後に,第四段階で推定された動詞句毎の表層格を出力とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.11\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f11.eps}\end{center}\caption{提案手法の概要}\label{fg:my-system-inout}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{使用する素性}\label{feature}飯田ら\citeyear{zero-anaphora2006}によると,ゼロ代名詞照応解析に使用する素性は一般的に以下の3種類に分けられる.\begin{enumerate}\renewcommand{\labelenumi}{\arabic{enumi})}\item対象となるゼロ代名詞を持つ述語の語彙,統語情報に関する素性\label{enum:verb}\item先行詞候補に関する語彙,統語,意味,位置情報に関する素性\label{enum:noun}\item対象となるゼロ代名詞を持つ述語と先行詞候補の対から抽出可能な情報に関する素性\label{enum:verb-noun}\end{enumerate}語釈文におけるゼロ代名詞照応の場合,先行詞である見出し語に文脈がないため,これらのうち\ref{enum:noun})に含まれる先行詞候補に関する統語,位置情報に関する素性を利用することはできない.本研究では\ref{enum:verb})に分類される素性として「節の種類」,「態」,「格の埋まりやすさ」,「すでに埋まっている格」,「動詞の直前に現れやすい格(直前格)」,「複合格助詞」,\ref{enum:noun})に分類される素性として「見出し語の意味カテゴリ」,\ref{enum:verb-noun})に分類される素性として「意味クラスPMI」「意味的な類似度」の合計6種類の素性を使用する.「格の埋まりやすさ」「意味クラスPMI」「意味的な類似度」については,KNPの解析時に使用された格フレームをもとに,「ガ格」「デ格」「ヲ格」「ニ格」それぞれに設定する.上記の素性は,いずれも先行研究で使われている素性である.また,上記の素性では,格助詞を付与した見出し語を語釈文に埋め込んで作られる文(以下,「見出し語を埋め込んだ文」という.)全体の適格性を考慮せず,埋め込む前のそのままの語釈文を解析した際に適用された格フレームを素性抽出に利用している.そのため,本研究で新たに使用する素性として,埋め込み後の適格性を判断することを目的として,見出し語を埋め込んだ文を考慮した「KNPスコア差分」と「再選定格フレーム素性」の2つの素性を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ベースライン素性}\label{baseline-feature}ゼロ代名詞照応解析における先行研究で活用されてきた以下の素性をベースラインとする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf節の種類}ゼロ代名詞を持つ述語の統語的選好を考慮するため,節の種類を素性として使用する(Hangyoetal.\citeyear{hangyo},3節).節の種類とは,注目する述語がどの種類の節に含まれているかであり,「主節」「連用節」「連体節」のいずれかになる.KNPの解析結果から得られる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf態}KNPの解析結果から得られる,動詞の態を使用する(Hangyoetal.\citeyear{hangyo},3節).「能動形」「受身形」「使役形」のいずれかであり,KNPの解析結果から素性抽出を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf格の埋まりやすさ}格フレームのそれぞれの格の埋まりやすさは,その格が明示されていない場合に,ゼロ代名詞として省略されているのか,単にその格が考慮されていないのかの判断の手掛かりになると考えられる.そこで,格の埋まりやすさの素性として格スロット生成確率を用いる(笹野ら\citeyear{zero-anaphora2011},5節).格フレーム$CF_i$の格スロット$s_j$に格要素が対応付けられている確率$P(A(s_j)=1|CF_i,s_j)$は,$CF_i$の直前格スロットを$s_k$,格スロット$s_j$の用例数の合計を$n_j$とすると,\begin{equation}P(A(s_j)=1|CF_i,s_j)=\frac{n_j}{n_k}\label{eq:easiness}\end{equation}と計算する.ここで,$A(s_j)$は格スロット$s_j$が埋まっている時1をとる関数である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf既に埋まっている格}すでに対応づけられている項がある格に見出し語を埋め込むことができる事例は極めて少ないと考えられる.それぞれの格について,すでにその格に対応づけられた,直接係り受けを持つ項がある場合は1,ない場合は0とする(Hangyoetal.\citeyear{hangyo},3節).格の対応づけの判定はKNPにより行い,格が明示されているか否かの区別はしていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf用言の直前に現れやすい格である直前格}直前格はその用言の用法の決定に対して重要な役割を果たす\cite{caseframe2005}ため,直前格が埋まっていない場合には見出し語を埋め込みやすいと考えられる.そのためそれぞれの格に関して直前格であれば1,そうでなければ0とする素性を使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf複合格助詞}「〜として」の「する」や「〜によって」の「よる」などの動詞句は複合格助詞の一部であるが,これらの動詞の格要素に見出し語を埋め込める場合は極めて少ないと考えられる.そのため動詞句が複合格助詞の一部である場合は1,そうでなければ0とする素性を使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf見出し語の意味カテゴリ}どのような意味カテゴリに属する見出し語に対する語釈文であるかによって,語釈文中のある格での省略されやすさに偏りがあると考えられる.先行研究ではIREXで定義された8種類の固有表現を使用することが多いが,本研究では世界史用の固有表現辞書\cite{world-history-dic}の17種類の固有表現クラスのうちどのクラスに属するかをバイナリ素性として使用する.世界史固有表現辞書を登録したMeCabにより見出し語を形態素解析し,固有表現クラスを獲得する.表\ref{tab:world-history-dic-category}に,世界史固有表現辞書で定義されている17種類の固有表現クラスと,その固有表現クラスに属するサブクラスおよび語の例を示す.サブクラスについては「意味クラスPMI」や「意味的な類似度」の計算に用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\hangcaption{世界史固有表現辞書で定義される固有表現クラスとその固有表現クラスに属するサブクラスおよび語の例}\label{tab:world-history-dic-category}\input{02table07.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf意味クラスPMI}ある格スロットにどのくらい先行詞候補が入りやすいかを考慮するため,見出し語の意味クラスと対象の格スロットの意味クラス情報との間の自己相互情報量(PMI)を素性として使用する(笹野ら\citeyear{zero-anaphora2011},5節).ここで,意味クラスには日本語語彙大系\cite{goitaikei}において深さ5の位置にある意味属性を使用し,さらに深い位置の意味属性に属する語はその上位の深さ5の位置にある意味属性に含める.また,世界史用語集の見出し語が日本語語彙大系にそのまま登録されていることは稀であるため,見出し語の汎化を行う必要がある.見出し語の汎化には世界史固有表現辞書のサブクラスにあたる語を使用する.ただし,見出し語が世界史固有表現辞書に登録されていない場合には見出し語の末尾の名詞を使用する.対象の格フレーム$CF_i$の格スロット$s_j$の用例における見出し語と同じ意味クラス$CL_k$に属する語の占める割合を,一般のテキストにおける$CL_k$に属する語の占める割合で割ることにより計算する(式(\ref{eq:pmi})).\begin{equation}\log\{P(CL_k|CF_i,s_j)/P(CL_k)\}\label{eq:pmi}\end{equation}格スロット$s_j$の用例に見出し語と同じ意味クラスに属する語が無い場合は一定の小さな値$log(0.000001)$を与える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf意味的な類似度}ある格スロットにどのくらい先行詞候補が入りやすいかを考慮するため,世界史固有表現辞書により得られた見出し語のサブクラスにあたる語と,対象の格スロットの用例との意味的な類似度を日本語語彙大系により計算し(笹野ら(2005)付録,式(1)を使用),最も値の大きいものを素性として使用する.意味クラスPMIと異なり,用例の出現頻度を考慮せず,1つでも見出し語と意味が類似している語があれば大きな値をとる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{本研究で提案する素性}\label{proposal-feature}本研究で新たに導入する素性を以下に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bfKNPスコア差分}見出し語を埋め込んだ文をKNPで解析した時のスコアから,元の語釈文をKNPで解析した時のスコアを引いたものを「KNPスコア差分」とする.KNPスコアはKNPによる構文・格解析結果のもっともらしさであり,このスコアが高いほど日本語として出現しやすい文であると言える\footnote{文の出現のしやすさの指標を算出するためには,厳密には,適用可能な全ての格フレームにおける出現確率の総和を取る必要がある.一方で,本論文ではKNPの解析である最終的な1つの格フレームしか使用していないため,ここで計算された値は文の出現のしやすさの近似的な指標であると考える.}.そのため,埋め込みの前後でのスコアの差は,埋め込みの良さを表すと考える.表\ref{tab:just-before-case}にKNPスコア差分の算出の例を示す.この例では,KNPスコア差分の値が最も大きい(絶対値が一番小さい)ガ格が適切であると判断される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\caption{KNPスコア差分算出例}\label{tab:just-before-case}\input{02table08.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent{\bf再選定格フレーム素性}見出し語を埋め込んだ文をKNPにより解析し,その時に使用された格フレームを使用し,京大格フレームを使用して抽出する素性「格の埋まりやすさ」「意味クラスPMI」「意味的な類似度」「直前格」を再計算・再抽出したものを「再選定格フレーム」素性とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{擬似訓練事例の利用}\ref{pre-research}節で述べたとおり,「ヲ格」「ニ格」「デ格」に関する埋め込みの推定精度は重要である.しかし,これらの格について学習に用いることのできる訓練事例が非常に少ないため,上手く学習できないことが予想される.また,相対的に割合の低い事例の数を増やすためには,非常に多くの語釈文を正解事例として人手で解析する必要があるが,世界史の分野で見出し語と語釈部に分かれている文書データの数は限られており,正解事例を大量に増やすことは現実的ではない.この問題を解消するため,比較的潤沢に入手可能な世界史教科書の記述から擬似訓練事例を自動生成し,これを活用することを提案する.生成手順としては,教科書中の文を句点区切りで分割し,分割されたテキストごとに以下の処理を行う.\begin{enumerate}\item「を」「に」「で」のいずれかでマークされた世界史固有表現に注目し,2,3の処理を行う.\itemその世界史固有表現を文中から取り除き,見出し語とする.\item直後の「を」「に」「で」のいずれかの格助詞を取り除き,埋め込みされる表層格の正解ラベルとする.\end{enumerate}図\ref{fg:dummy-algorithm}に擬似訓練事例の自動生成の例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.12\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f12.eps}\end{center}\caption{擬似訓練事例の自動生成の例}\label{fg:dummy-algorithm}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.13\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f13.eps}\end{center}\caption{分類A}\label{fg:pattern-a}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.14\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f14.eps}\end{center}\caption{分類B}\label{fg:pattern-b}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%この手法によって生成された擬似訓練事例は,大きく分けて3種類に分類される.各分類の定義は以下の通りである.分類Aは取り除きたい文節の係先が連体節となっておらず,取り除きたい文節にかかる文節が存在しない事例である.分類Bは取り除きたい文節の係先が連体節となっている事例で,分類Cは取り除きたい文節にかかる文節が存在する事例である.各々の例を図\ref{fg:pattern-a},図\ref{fg:pattern-b},図\ref{fg:pattern-c}に示す.ここで,着目する固有表現および格助詞で構成される文節を<>で囲み,着目した固有表現が1つの項となっている述語に下線を引いている.分類Cの文は,文節を取り除いた結果,係り受け関係が崩れてしまい元の文の意味を維持しなくなってしまうために排除すべき事例であると考えられる.分類Cに属さない文においても不自然な文となっている場合があるが,自動生成された文が自然であるか不自然であるかを機械的に正確に判別することは難しい.そのため,不自然な文を機械的に取り除く近似的な方法として分類Bを導入している.分類Bには多くの場合不自然な文が分類されるが,一部自然な文も含まれており,一方で分類Aには多くの場合自然な文が分類されるが,一部不自然な文も含まれている.そこで本研究では自動生成された擬似訓練事例のうち,分類Cを使用せず,分類A,Bのみを使用する.また,自動生成された訓練事例が分類A,B,Cのどれに該当するかの分類については,KNPの解析結果を利用し図\ref{fg:dummy-classify}の手順により自動で行う.文節の係り受け関係およびある文節が主節・連用節・連体節のうちどれであるかはKNPの解析結果よりわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.15\begin{figure}[t]\begin{center}\includegraphics{27-1ia2f15.eps}\end{center}\caption{分類C}\label{fg:pattern-c}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.16\begin{figure}[t]\begin{center}\includegraphics{27-1ia2f16.eps}\end{center}\caption{擬似訓練事例を自動で分類する手順}\label{fg:dummy-classify}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{評価実験} \label{examination}見出し語が語釈文に埋め込めるか否かを判定し,埋め込める場合に見出し語の表層格を推定するという本稿の提案する解析手法の有効性を調べるために,ベースライン素性(\ref{baseline-feature}節)のみを使用した手法と,従来型のゼロ照応解析に基づく手法による推定精度をそれぞれ求め比較検討する.また,本稿で提案する素性(\ref{proposal-feature}節)の有効性を調べるために,ベースライン素性に提案素性も加えた手法の推定精度を求め,ベースライン素性のみの手法と比較検討する.さらに,擬似訓練事例の有効性を確認するために,擬似訓練事例の追加の前後における推定精度について比較検討を行う.なお,従来型のゼロ照応解析に基づく手法としては,見出し語を1文目,語釈文を2文目とした文章をKNPに入力し,得られた述語項構造解析の結果(これにはゼロ照応解析結果も含まれる)から見出し語を項としている結果のみを取り出して得られたものを出力とする,簡便なものを採用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\caption{見出し語900語文の語釈文における正解ラベル毎の事例数}\label{tab:data-vol}\input{02table09.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[b]\caption{見出し語900語文の語釈文における正解ラベル毎,節の種類毎の事例数}\label{tab:data-phrase-vol}\input{02table10.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[b]\caption{擬似訓練事例の分類毎の数}\label{tab:dummy-vol}\input{02table11.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{使用するデータと実験設定}\label{exam-setting}評価実験では,世界史用語集\cite{yamakawa-glossary}中の見出し語7,037語から\ref{research}節で使用した語を除いたもののうち,ランダムに抽出した900語とそれに対応する語釈部を使用する.これらの語釈文中のすべての動詞句に対し,見出し語がどの表層格に埋め込むことができるか,もしくは埋め込むことができないかの正解事例を,第一著者が作成したものをデータセットとして使用する.正解ラベル毎の事例数は表\ref{tab:data-vol}の通りである.また,正解ラベル毎,節の種類毎の事例数は表\ref{tab:data-phrase-vol}の通りである.全ての実験において,SupportVectorMachineの実装にはpythonの機械学習ライブラリであるscikit-learnを使用した.カーネル関数にはRBFを使用し,各パラメータの値はデフォルト値である.また,評価実験は10分割交差検定により行い,精度はF値によって評価する.提案手法で用いる擬似訓練事例の生成には世界史B教科書\cite{tokyoshoseki-b}を使用する.この教科書から生成された分類毎の擬似訓練事例の数は表\ref{tab:dummy-vol}に示す通りであった.なお,擬似訓練事例は訓練事例のみに含まれており評価事例には含まれていない.最後に,提案手法で得られた解析結果を論述問題解答作成手法に組み込んだ場合にどのような解答が作成されるかについて,事例を調査し,既存手法との比較を行う.実験に使用する論述問題を図\ref{fg:2003question}に示す.この実験をする際に,対象となる用語(「バグダード鉄道」「仇教運動」「ゴールドラッシュ」)については訓練事例から除いて学習した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.17\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f17.eps}\end{center}\caption{東京大学2003年度入試二次試験における世界史の問1}\label{fg:2003question}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}\ref{examination}節の冒頭で述べた,KNPの解析結果に基づく従来型のゼロ照応解析手法を「KNPゼロ照応解析手法」,ベースライン素性(\ref{baseline-feature}節)のみを使用した手法を「ベースライン素性手法」,ベースライン素性に加え,本稿で提案する素性(\ref{proposal-feature}節)を使用した手法を「提案手法」として,実験結果を表\ref{tab:result}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[b]\caption{世界史用語集を用いた実験結果}\label{tab:result}\input{02table12.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,使用する素性を1つずつ除くことにより素性の有効性を検証する実験を行った結果を表\ref{tab:result-each-feature}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[b]\caption{素性を1つずつ除いた場合のF値}\label{tab:result-each-feature}\input{02table13.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,擬似訓練事例を訓練事例に追加して学習を行ったモデルにより,評価実験を行った結果を表\ref{tab:result-dummy}に示す.また,今回は事例数の少ない「ヲ格」「ニ格」「デ格」の精度も重視したいため,全体結果を「MicroF」「MacroF」で評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table14\begin{table}[b]\caption{擬似訓練事例の分類ごとの実験結果}\label{tab:result-dummy}\input{02table14.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%さらに擬似訓練事例を使用したモデルとの比較のために,クラス頻度に偏りがある学習において,その頻度を考慮した学習を行うオプションとしてclass\_weight=``balanced''を指定する.このパラメータ指定により,訓練データのクラスの頻度に反比例する重みを,パラメータCに乗じた状況で学習したモデルによる実験結果を表\ref{tab:result-balanced}に示す.なお,このモデルでは擬似訓練事例を使用していない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table15\begin{table}[p]\caption{SVMにclass\_weight=``balanced''を指定したモデルによる実験結果}\label{tab:result-balanced}\input{02table15.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.18\begin{figure}[p]\begin{center}\includegraphics{27-1ia2f18.eps}\end{center}\caption{東京大学2003年度入試二次試験における世界史の問1に対する,先行研究のシステムによる解答}\label{fg:2003sakamoto}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.19\begin{figure}[p]\begin{center}\includegraphics{27-1ia2f19.eps}\end{center}\hangcaption{東京大学2003年度入試二次試験における世界史の問1に対する,提案手法を組み込んだ場合の解答}\label{fg:2003system}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%最後に,提案手法で得られた解析結果を論述問題解答作成手法に組み込んだ場合にどのような解答が作成されるかについて,事例を調査し,既存手法との比較を行った.既存手法を用いて作成された解答を図\ref{fg:2003sakamoto}に,提案手法を用いて作成された解答を図\ref{fg:2003system}に示す.それぞれの図で,下線部は用語集から生成された文を示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{考察} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験毎の考察}本節では各実験毎に考察を述べる.表\ref{tab:result}をみると,「埋め込めない」,ならびに,各格の推定の全てにおいてF値の値が,KNPゼロ照応解析手法,ベースライン素性手法,提案手法の順に向上していることが見て取れる.各手法の推定精度の間に統計的な有意差があるかを確認するためにMcNemar検定を行った結果,KNPゼロ照応解析手法とベースライン素性手法との比較,ベースライン素性手法と提案手法との比較においては,P値がそれぞれ,$2.270\times10^{-161}$,ならびに,0.179となり,前者の間には有意差があるものの,後者の間には有意差があるとは言えないことがわかった.表\ref{tab:result-each-feature}の,素性を1つずつ除いて実験を行った結果を見ると,「節の種類」「見出し語の意味カテゴリ」「埋まっているか」「再選定格フレーム素性」が有効であることがわかる.動詞句が連体節に含まれる場合,その動詞句のいずれかの格に見出し語を埋め込むことができる場合は少ない.そのため「埋め込めない」の推定の際には「節の種類」の素性が有効である.また,世界史用語集では,図\ref{fg:pondisheri}のように見出し語が場所を表す語のときには「ヲ格」に入りやすいなどの傾向があるため,「見出し語の意味カテゴリ」が有効であると考えられる.すでに対応づけられている項がある格に見出し語を埋め込むことができる事例は極めて少ないと考えられるため,「埋まっているか」の素性は非常に重要である.「意味クラスPMI」や「意味的な類似度」の素性はあまり有効ではなかったが,これには2つの原因が考えられる.1つ目は\ref{feature}節でも述べたように,見出し語を埋め込んだ文を考慮せず格フレームを選定している点である.また2つ目は,日本語語彙大系を使用してこれらの素性を計算している点である.日本語語彙大系に登録されている語は京大格フレームの用例として出現している語と比較すると少なく,世界史用語集に出現するような語はほとんど登録されていない.そのため,分散表現を用いて格フレームの用例を汎化して利用する\cite{zero-anaphora2018}ことで,さらにF値を向上させることができる可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.20\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f20.eps}\end{center}\caption{見出し語が「場所」を表す場合の見出し語と語釈文の例}\label{fg:pondisheri}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%擬似訓練事例を利用した実験の結果(表\ref{tab:result-dummy}),分類Aの擬似訓練事例のみを利用した場合にMacroFが向上していることがわかる.一方で,分類Bの事例も利用した場合にMacroFは分類Aのみを利用した場合に比べ下がり,MicroFは大きく下がってしまった.分類Bは質の低い擬似訓練事例であると言えるため,質の高い擬似訓練事例を利用することは重要であると考えられる.また,擬似訓練事例を利用して事例数の少ない格の訓練事例数を増やした場合に,元々事例数の多い「埋め込めない」「ガ格」のF値が下がってしまったため,バランスよく訓練事例数を増やす必要があると考えられる.SVMのclass\_weightパラメータを``balanced''にした場合の実験では,MicroF,MacroFのどちらも擬似訓練事例を用いた場合よりも高かったが,ヲ格,ニ格のF値については擬似訓練事例の分類Aのみを使用した場合の方が高かった.デ格のF値は擬似訓練事例を用いた場合の方が低いが,これはデ格の擬似訓練事例がヲ格,ニ格と比較して少ないことが起因していると考えられる.本研究では教科書の文から世界史固有表現を取り除くことで擬似訓練事例を生成したが,「埋め込めない」事例の場合にはこの手法が適用できないため,「埋め込めない」の擬似訓練事例の自動生成手法については今後検討する必要がある.また,教科書の文から生成できる擬似訓練事例の数には限りがあるため,NAISTテキストコーパス,京大ウェブ文書リードコーパスなどの,述語項関係のアノテーションがされたコーパスを使用して,学習事例を増やすことが考えられる.これについては,今後の課題としたい.最後に,既存のシステムの解答と,既存のシステムに提案手法を組み込んだ手法で作成された解答との比較を行った結果を考察する.下線部(1),(2),(3)はコピュラ文であるため,既存のシステムと提案手法を組み込んだ手法で作成された文は同じである.下線部(4)については「バグダード鉄道」が「ねらう」のヲ格に埋め込めることを推定できている.下線部(5)については「留まる」に対して「バグダード鉄道」が埋め込めないと判定されてしまった.下線部(6)では「爆発する」のガ格に「仇教運動」が埋め込めることを推定できている.下線部(7)では,どの述語の格にも「ゴールドラッシュ」が埋め込めないと判定された.「鉄道や汽船による交通網の発展がゴールドラッシュの背景にあり,...」と続くのが自然と考えられる.これらの結果を見ると,述語の項に埋め込められない場合にも文中の名詞のノ格になっている場合などがあるため,それも含めて推定することが今後の課題であると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{失敗分析}本節では推定に失敗した具体的な事例に基づき考察を行う.\ref{suggest-error}節では擬似訓練事例を用いない場合における失敗事例を分析し,\ref{dummy-error}節では分類Aの擬似訓練事例を追加したことにより,推定が成功から失敗に転じてしまった事例について分析する.分析対象には,\ref{examination}章の実験で10分割にしたうちの1セットにあたる見出し語90語とその語釈部からなるデータセットを使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table16\begin{table}[b]\caption{失敗原因の内訳を示した混同行列}\label{tab:error-type-count}\input{02table16.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{擬似訓練事例を用いない場合における失敗分析}\label{suggest-error}擬似訓練事例を用いない場合に推定に失敗した事例を調査した結果,失敗の原因と考えられるものには,\begin{enumerate}\item格フレームの選択誤り\label{caseframe-error-num}\item見出し語が世界史固有表現辞書に登録されておらず,見出し語の意味カテゴリの素性が抽出できないことによる分類誤り\label{dictionary-error-num}\itemKNPによる格解析・形態素解析の誤り\label{knp-error-num}\item見出し語に照応する名詞が語釈文中に存在するにも関わらず,重ねてゼロ照応をしてしまうという誤り\label{anaphora-error-num}\item見出し語以外に照応するゼロ代名詞が存在し,格が埋まっているにも関わらず,格を埋めようとしてしまう誤り\label{zero-anaphora-error-num}\end{enumerate}の5つがあった.失敗原因の内訳を示した混同行列を表\ref{tab:error-type-count}に示す.表中の(1)〜(5)は上述の原因に対応している.分析対象のデータセットには正解ラベルが「その他の格」となる事例は存在せず,システムが「その他の格」と予測した事例も存在しなかったため「その他の格」については省略している.また,明確な原因が明らかではなく,おそらくは複合的な要因による失敗であると考えられる事例を表中では「他」としている.「他」に該当する失敗事例の数には特に偏りはなく,誤りの傾向はつかめなかった.また,正解ラベルが「埋め込めない」である事例を「ガ格」と予測したもの,正解ラベルが「ガ格」である事例を「埋め込めない」と予測したものが多いことがわかった.さらに,正解ラベルが「デ格」となる事例を「埋め込めない」と予測する事例が非常に多く存在しており,これらの事例の判別が難しいということがわかった.(\ref{caseframe-error-num})の格フレームの選択誤りの例を図\ref{fg:caseframe-error}に示す.見出し語を埋め込まない状態で格解析した際に選定された格フレームと,見出し語を埋め込んだ状態で格解析した際に選定された格フレームのいずれの必須格にも正解となる格が存在しないため,「格の埋まりやすさ」,「意味的な類似度」などの素性値が0となってしまい,上手く分類できないと考えられる.また,この場合は必須格に「デ格」が含まれる格フレームが選定されることで上手く分類される可能性がある.しかし,図\ref{fg:caseframe-error}に示した必須格に「デ格」が含まれる「収まる」の格フレーム6では,「ガ格」,「ニ格」,「デ格」のいずれの用例も語釈文中の「収まる」の格要素と意味的に遠いものであった.この場合,格フレーム生成確率が高い「収まる」の格フレーム1,2などが選定されやすく,「収まる」の格フレーム6が選定されなかったと考えられる.ここで,格フレーム生成確率$P(F_i|v_i)$は用言$v_i$の頻度を$C(v_i)$,$v_i$が格フレーム$F_l$をとる頻度を$C(F_i,v_i)$として\begin{equation}P(F_i|v_i)=\frac{C(F_i,v_i)}{C(v_i)}\end{equation}と計算される\cite{parsing2007}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.21\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f21.eps}\end{center}\caption{格フレームの選択誤りが起きた事例}\label{fg:caseframe-error}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%(\ref{dictionary-error-num})については,特に見出し語が助詞を含んでいる場合などに,世界史固有表現辞書に登録されていないことがある.例えば「アルバニアの対ソ外交」や「ドイツの軍備制限」などである.これらの場合には「見出し語の意味カテゴリ」の素性が全て0となってしまい,分類に有効な素性が使用できないため失敗してしまう場合があると考えられる.(\ref{knp-error-num})のKNPによる格解析・形態素解析の誤りが分類の失敗の原因となっていると考えられる事例を図\ref{fg:knp-error}に示す.この例では,「行った」を動詞「行く」の活用形と誤解析してしまっており,適切な素性の抽出ができていないと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.22\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f22.eps}\end{center}\caption{KNPによる解析誤りが起きた事例}\label{fg:knp-error}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%(\ref{anaphora-error-num})の見出し語に照応する名詞が語釈文中に存在するにも関わらず.重ねてゼロ照応をしてしまうという誤りが起きている事例を図\ref{fg:anaphora-error}に示す.この例では,「組織」が「ミール」を照応しており,この文に対して「ミール」を埋め込むことはできない.見出し語に照応するゼロ代名詞の推定を行う前に,見出し語に照応する名詞の推定を事前に行うことができればこのような事例においても正しく推定できると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.23\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f23.eps}\end{center}\caption{見出し語に照応する名詞が語釈文中に存在する事例}\label{fg:anaphora-error}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%(\ref{zero-anaphora-error-num})の見出し語以外に照応するゼロ代名詞が存在し,格が埋まっているにも関わらず,格を埋めようとしてしまう誤りの事例を図\ref{fg:zero-error}に示す.この例では「建国する」の「ガ格」の格要素は「オスマン」であるが,「オスマン」は「建国する」と直接係り受け関係になく,ゼロ代名詞化している.この場合,「ガ格」は埋まっていないと解析されるため,いずれかの格で埋め込めると誤分類してしまう場合がある.見出し語に照応するゼロ代名詞の推定を行うと同時に,文内ゼロ代名詞照応解析も行うことでこのような事例においても正しく推定できると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.24\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f24.eps}\end{center}\caption{見出し語以外に照応する代名詞がゼロ化している事例}\label{fg:zero-error}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{擬似訓練事例の分類Aを利用した際の失敗分析}\label{dummy-error}表\ref{tab:result}および表\ref{tab:result-dummy}からもわかるように,擬似訓練事例を利用した場合には,利用していない場合に比べ,「埋め込めない」,「ガ格」の再現率が下がり「ヲ格」,「ニ格」,「デ格」の再現率が上がっている.実際に失敗した事例を分析すると,図\ref{fg:unfilled-ni}のように,見出し語を語釈文中に「埋め込めない」場合に「ニ格」や「ヲ格」などに埋め込めると推定してしまう場合がいくつか見られた.しかしこれだけでは,何が失敗の原因となっているかまでは考察できない.そこで,世界史教科書から自動生成された擬似訓練事例の中に,分類の失敗の原因になるような事例がないかの調査を行った.調査対象は評価実験に使用した分類Aの擬似訓練事例427個とした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.25\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f25.eps}\end{center}\caption{「埋め込めない」事例に対して「ニ格」と推定してしまった例}\label{fg:unfilled-ni}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%調査の結果,自動生成された擬似訓練事例の中には「元の文において,注目している動詞について表出している格要素がただ一つしかないために,それを取り除くと動詞しか残らない事例」があった.図\ref{fg:no-arg}の例では,「除く」の唯一の格要素である「稲作」が含まれる文節を取り除いてしまうことで,「除く」に対応づけられる格要素が存在しなくなってしまう.このような擬似訓練事例では,着目する動詞がどのような用法で使われているか,すなわちどの格フレームを使用するかを決定づけるための手掛かりが少ないため,適切な格フレームを選定できていないと考えられる.その結果,質の低い擬似訓練事例となってしまい,分類に失敗してしまう場合があると考えられる.このような事例を擬似訓練事例から取り除くことで,さらに質の高い擬似訓練事例のみを学習に使うことができるようになり,分類精度が向上する可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.26\begin{figure}[b]\begin{center}\includegraphics{27-1ia2f26.eps}\end{center}\hangcaption{元の文において,注目している動詞について表出している格要素がただ一つしかないために,それを取り除くと動詞しか残らない事例}\label{fg:no-arg}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,自動生成された擬似訓練事例の中には見出し語とみなした語の意味カテゴリに偏りがあり,特に「場所」を意味する語の割合が多いことがわかった.用語集の事例および擬似訓練事例における正解ラベル毎の,見出し語の意味カテゴリが「場所」である割合を表\ref{tab:place-count}に示す.用語集の事例中の,見出し語の意味カテゴリが「場所」である割合と比較して,擬似訓練事例中に含まれる,見出し語の意味カテゴリが「場所」である割合は非常に高くなっている.このような場合,擬似訓練事例を含む訓練事例の分布と,評価事例の分布が大きく異なってしまい,学習が上手くいかないと考えられる.この結果,見出し語を語釈文中に「埋め込めない」場合に「ニ格」や「ヲ格」などに埋め込めると誤分類してしまう場合があると考えられる.擬似訓練事例の分布が,訓練事例の分布と近くなるように,擬似訓練事例を間引くなどして調整することで,このような誤りを解消することができると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table17\begin{table}[t]\hangcaption{用語集の事例および擬似訓練事例における正解ラベル毎の,見出し語の意味カテゴリが「場所」である割合}\label{tab:place-count}\input{02table17.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{まとめ} 本研究では,文章中のゼロ代名詞照応解析と異なり,見出し語と語釈文に分かれている文書データに対し,語釈文における見出し語に照応するゼロ代名詞の表層格の推定を行った.評価実験を行った結果,KNPを用いた既存のゼロ照応解析を使用した手法に比べ,提案手法が有効であることを示すことができた.見出し語を埋め込んだ文を考慮した素性を使用することにより,全体的にF値を向上させることができたが,最終的なF値は0.782であり改善の余地があると考えられる.また,事例数の少ない格の推定精度を向上させるために擬似訓練事例を使用し,ヲ格,ニ格のF値を向上させることができた.今後の課題としては,「埋め込めない」事例の擬似訓練事例の自動生成や,擬似訓練事例の分布の調整,さらに質の良い擬似訓練事例の選定,ニューラルネットワークに基づくゼロ照応解析モデルとの比較などが挙げられる.%%%%%%%%%%%%%%%%%%%%%%%%%%Acknowledgement%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の一部は,JSPS科研費JP16K00296,ならびに,横浜国立大学大学院環境情報研究院共同研究推進プログラムの助成を受けたものである.%%%%%%%%%%%%%%%%%%%%%%%Bibliography%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliography{02refs}%%%%%%%%%%%%%%%%%%%%Biography%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{大矢康介}{2018年横浜国立大学理工学部数物・電子情報系学科卒業.2018年より横浜国立大学環境情報学府情報環境専攻博士課程前期在籍中.自然言語処理の研究に従事.}\bioauthor{阪本浩太郎}{2014年横浜国立大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了.2014年より横浜国立大学大学院環境情報学府博士課程後期在学.この間,2015年8月より2016年8月まで米国カーネギーメロン大学言語技術研究所外来研究員.自然言語処理,質問応答などの研究に従事.言語処理学会会員.}\bioauthor{渋木英潔}{1997年小樽商科大学商学部商業教育養成課程卒業.1999年同大学大学院商学研究科修士課程修了.2002年北海道大学大学院工学研究科博士後期課程修了.博士(工学).2006年北海学園大学大学院経営学研究科博士後期課程修了.博士(経営学).}\bioauthor{森辰則}{1986年横浜国立大学工学部情報工学科卒業.1991年同大学大学院工学研究科博士課程後期修了.工学博士.同年,同大学工学部助手着任.同講師,同助教授を経て,現在,同大学大学院環境情報研究院教授.この間,1998年2月より11月までStanford大学CSLI客員研究員.自然言語処理,情報検索,情報抽出などの研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,ACM各会員.}\end{biography}\biodate\end{document}
V21N02-07
\section{はじめに} \label{sec:introduction}国立国語研究所を中心に開発された『現代日本語書き言葉均衡コーパス(BCCWJ)』\cite{前川2008}\footnote{現代日本語書き言葉均衡コーパスhttp://www.ninjal.ac.jp/corpus\_center/bccwj/}は17万ファイル以上のXML文書に短単位・長単位の二つのレベルの形態論情報アノテーションを施した,1億語を超える大規模なコーパスである.コーパスの構築期間は5年以上に及んだ.BCCWJの形態論情報付与には,新たに開発された電子化辞書UniDic\footnote{UniDichttp://sourceforge.jp/projects/unidic/}が用いられたが,UniDicの見出し語はBCCWJ構築と並行して整備されたため,コーパスの形態論情報の修正とUniDicの見出し語登録は整合性を保ちつつ同時並行で進める必要があった.また,BCCWJの形態論情報アノテーションでは全体で98\%以上の高い精度が求められ,これを実現するためには自動解析結果に対して人手による修正を施して精度を高める必要があった.1億語規模のコーパスにこうしたアノテーションを施すためには,作業体制も大きな規模になり,コーパスのアノテーターは最大で20人ほどが同時にフルタイムで作業に当たった.作業は国語研究所の内部だけでなく,外注業者等の研究所外部からも行われる必要があった.こうした作業環境を構築するためにはアノテーションを支援するコーパス管理システムが必要とされる.このような大規模なコーパスへのアノテーションを支えるため,筆者らは,形態論情報がタグ付けされた大規模なコーパスと辞書の見出し語のデータベースとを関連付け,整合性を保ちつつ,国語研究所の内部だけでなく,研究所外部からも多くの作業者が同時に編集していくことを可能にするシステムを新たに開発した.本論文は,この「形態論情報データベース」の設計・実装・運用について論ずる.本研究の貢献は,1億語規模の日本語コーパスに形態論情報アノテーションを施し,修正することを可能にした点にある.従来のコーパス管理ツールではこれが実現できなかったが,本システムによりBCCWJの形態論情報アノテーションが可能になり,BCCWJを構成する全てのデータは本システムのデータベースから出力された.また,本システムによってUniDicの見出し語のデータ整備を支援し,UniDicの見出し語と対応付けられた人手修正済みの学習用コーパスを提供した.これにより,形態素解析辞書UniDicの開発に貢献した.このシステムは,現在では「日本語歴史コーパス」{\kern-0.5zw}\footnote{日本語歴史コーパスhttp://www.ninjal.ac.jp/corpus\_center/chj/}の構築にも活用されている.以下,2章で本論文の前提となる情報について確認した後,3章で関連する先行事例との比較を行う.そのうえで,4章で本システムの概要を説明し,5章で辞書データベース部,6章でコーパスデータベース部の設計・実装・運用について述べる.また,7章で辞書とコーパスを修正するためのクライアントツールについて説明する. \section{前提となる知識} \label{sec:knowledge}\subsection{短単位と長単位}\label{sec:knowledge_unit}BCCWJでは,短単位と長単位の二つの言語単位によるアノテーションが施された.短単位は,揺れが少なく斉一な単位となるように設計された短い単位である\cite{小椋ほか2011}.例えば「国立国語研究所で研究している.」という文は,次の10単位に分割される.\begin{quote}/国立/国語/研究/所/で/研究/し/て/いる/./\end{quote}個々の短単位には,語彙素・語形・品詞・活用型・活用形といった形態論情報が付与される.短単位への分割と情報の付与は,新たに開発された電子化辞書UniDic\cite{伝ほか2007}を用いた形態素解析によって行われた.形態素解析器はMeCab\footnote{MeCabhttps://code.google.com/p/mecab/}が用いられた.一方,長単位はほぼ文節に近い長さの言語単位で,上記の例は長単位では次のように5単位に分割される.\begin{quote}/国立国語研究所/で/研究し/ている/./\end{quote}長単位は,コーパス中で出現した短単位を必要に応じて結合させる形で構成され,個々の長単位にはそれを構成する短単位が持つ形態論情報をもとにして長単位としての形態論情報が付与される.この処理は,長単位解析器Comainu~\cite{小澤ほか2011}によって行われた.Comainuの処理により,例えば上の例の「研究し」には,短単位「研究」と「する」を結合して作られる「研究する」という長単位の見出しが付され,全体として一つの動詞として情報が付与される.このように,短単位は形態素解析用の辞書に見出し語として登録されたものであるのに対し,長単位はそれ自体は見出し語として登録されたものではなく,コーパスでの出現に応じて短単位情報をもとにして構成されるものである.長単位と短単位はBCCWJの最も基本的なアノテーションの一つであり,公式のコーパス検索ツール「中納言」{\kern-0.5zw}\footnote{中納言https://chunagon.ninjal.ac.jp}等で利用され,多くのユーザーによって活用されている.\subsection{形態論情報の精度と修正作業}\label{sec:knowledge_accuracy}BCCWJの形態論情報は,コアデータとして選定された約100万語は99\%以上の精度を,それ以外の非コアデータは98\%以上の精度を確保することとされた.この解析精度を実現するために,コアデータについては人手による徹底した修正が行われた.一方,非コアデータは原則として自動解析結果によったが,最終的には人手による修正も含めてこの精度が確保された\cite{国立国語研究所コーパス開発センター2011}.また,非コアデータからUniDic未登録語が採集され,それに伴う修正をコーパス全体に対して行う必要があったほか,短単位規程の見直しによってコーパス全体に対して特定の語の人手修正の処理を施す必要があった.したがってコーパスの修正作業はコアデータに対して頻繁に行われるだけでなく,1億語以上のコーパス全体を対象に行う必要があった.\subsection{C-XMLとM-XML}\label{sec:knowledge_xml}BCCWJでは,C-XMLとM-XMLの二つの形式のXML文書が作成された\cite{国立国語研究所コーパス開発センター2011}.C-XMLは,BCCWJのサンプルとして取得されたテキストに文書構造をXMLでアノテーションしたもので,形態論情報データベースにとっては入力となるデータの形式である.このXML形式のデータをインポートし,形態論情報をアノテーションした上で,表形式やXML形式で出力することがこのシステム全体の処理の流れになる.M-XMLはC-XMLをもとに形態論情報をアノテーションしたXML文書で,このシステムの出力形式の一つである.M-XMLでは,後述する数字の前処理や,一部のタグの変更が行われているため,テキストやタグはC-XMLとは必ずしも一致しない.なお,誤字修正などがシステム上で行われるため,M-XMLだけでなく,形態論情報を含まないC-XMLも最終版は形態論情報データベースから出力される必要がある.\subsection{数字の前処理}\label{sec:knowledge_numtrans}BCCWJの形態論情報付与では,UniDicを用いた形態素解析に先立って,数字について次のような変換処理がなされた.これは,テキスト中の数字に対して実際に読み上げるときの語として形態論情報を与えられるようにするためである.この処理はnumTrans~\cite{Numtrans}というルールベースのツールによって行われた.\begin{quote}例:120円→百|二十|円\\$<$fraction$>$1/2$<$/fraction$>$→2|分|1\end{quote}この処理により処理前後で文字位置がずれたり,分数の分子と分母で文字の順が逆になったりすることがある.上述のC-XMLはこの変換前のテキストであるのに対し,M-XMLは変換後のテキストに基づいており,これに変換処理の内容(原文文字列と変換タイプ)をXMLでタグ付けして保持している.このため,BCCWJを構築するためのシステムは,この変換処理前後の二つの状態のテキストを適切に保持管理する必要がある. \section{関連する先行事例との比較} \label{sec:related}\subsection{BCCWJの形態論情報アノテーションのための要件}\ref{sec:introduction}章・\ref{sec:knowledge}章で確認したことを踏まえるとBCCWJに形態論情報のアノテーション施すためには,少なくとも次の要件を満たすシステムが必要とされる.\begin{enumerate}\def\theenumi{}\item1億語規模のコーパスを格納して実用的な検索や修正が行えること\item辞書を参照しその情報を用いてコーパスのアノテーションが行えること\item辞書(語彙表)とコーパスとを同期して整合性を保つことができること\item形態素解析によって付与された単語境界を容易に修正可能なこと\end{enumerate}BCCWJの修正作業では\ref{sec:knowledge_accuracy}節で見たとおり,1億語規模のコーパスを対象に,同様の誤りを一括して修正する必要がある.したがって,(i)は最も重要な要件である.さらに,BCCWJの構築では,階層構造を持つ新しい電子化辞書UniDicのために専用の辞書データベースを用意し,その見出し語を用いてコーパスを修正する必要があった.また,辞書とコーパスが同時並行で拡張されることから,辞書とコーパスを関連付けて管理し,整合性を保つことが必要となる.したがって,(ii)(iii)の辞書連携の機能も欠くことができない.これに加えて,分かち書きがなされない日本語のテキストを対象とすることから,(iv)の要件も強く求められる.英語を初めとする分かち書きがなされる言語では,既存の境界にしたがって単語に対してアノテーションを付与すれば良いため,単語境界の修正は重要な問題ではない.しかし日本語では,自動形態素解析によって分割された単語の境界自体が誤っている場合が少なくないため,境界を変更する修正が頻繁に行われるからである.\subsection{既存のアノテーションツールとの比較}人手による修正を加えた日本語コーパスで,1億語を超える規模のものはこれまでに構築されてこなかったこともあり,管見に入る限り,前節の要件を完全に満たす先行事例は存在しない.しかし,コーパスへのアノテーション支援ツールには多くの実装がある.既存のツール類が上記の条件をどの程度満たしているのかを調査した.取り上げたのは,次の4つの実装である.多くのツールの中で,日本語の形態論情報付きコーパスの管理ツールとして実績があるChaKi\cite{Matsumoto2005}の最新版と,比較的最近になって発表されたツールに注目した.\begin{itemize}\itemChaKi.NET\footnote{http://sourceforge.jp/projects/chaki/}\itemBRAT\cite{Stenetorp2012}\footnote{http://brat.nlplab.org/}\itemSLATE\cite{Kaplan2011}\footnote{http://www.cl.cs.titech.ac.jp/slate/}\itemAnotatornia\cite{Przepiorkowski2011}\footnote{http://zil.ipipan.waw.pl/Anotatornia/}\end{itemize}BRATはWeb上での使いやすいインターフェイスを備える汎用のアノテーションツールであり,係り受け・固有表現・照応・句のチャンキングなどのアノテーションに利用されている.SLATEもまたWeb上で容易に使える汎用のアノテーションツールであるが,さらにアノテーションの版管理まで考慮したものになっている.Anotatorniaはポーランド語のコーパス(NationalCorpusofPolish)構築のために開発されたアノテーションツールで,形態素解析辞書との連携が可能である.これら4つのツールと,本研究のシステムについて,前節でみた要件と,利用のしやすさ,実装に利用されている技術の観点から比較した結果を表1にまとめた.表中,「○」は条件を満たすもの,「△」は限定的に要件を満たすもの,「×」が満たさないものである.\begin{table}[b]\caption{先行事例と本システムの比較}\input{ca11table01.txt}\label{tab1}\end{table}表\ref{tab1}のうち,BCCWJの構築にとって最も重要なのは,前節で確認したとおり,大規模データへの対応,単語境界修正,辞書連携の機能である.BRATとSLATEは,いずれもWeb上で動作する汎用のアノテーションツールとして開発されたものであり,表\ref{tab1}において両者とも同じ結果となっている.これらWeb上の汎用ツールは,導入の敷居が低く作業者も容易に利用が可能だが,比較的少数の文書ファイルに対してアノテーションを施すことを前提としており,BCCWJ構築のように,大量の文書を一度に修正するような作業には向いていない.また,一般に単語よりも上位のレベルでのアノテーションに用いられることを想定していると思われ,文字列を単位としたアノテーションが可能ではあっても,単語境界の修正に適したツールにはなっていない.また,多くの語の形態論情報を一括で修正するような作業には向かない.Anotatorniaは単語境界の修正や辞書連携が可能であるが,ポーランド語の特定の電子辞書に対応したものであるため,BCCWJでの利用には適さない.また,DBMSに軽量なSQLiteを用いたWebベースのシステムであるため,大規模データの処理にも向かないと考えられる.ChaKiは,日本語コーパス管理に関係データベースを用いる\citeA{浅原ほか2002}の設計にもとづき,前節で見たような日本語の形態論情報アノテーションの特徴を踏まえたコーパス管理システムとなっている.そのため,単語境界修正や辞書との連携が可能であるうえに,係り受けやチャンキング,グループ化など多様なアノテーションを可能にしている.しかし,大規模データへの対応で難があり,現在のChaKi.NETの実装では1,000万語を超えるコーパスを格納すると実用的な速度が出ず,多数の作業者が十分な速度と同時実行性を以て利用することはできなかった.\subsection{本システムの優位性と問題点}前節で確認したとおり,最も重要となる大規模データへの対応,単語境界修正,辞書連携の3つを満たすシステムは,本システムしか存在しない.日本語の形態論情報アノテーションに適した機能を持ち,1億語を超える規模のコーパスを一度に取り扱うことを可能にしたこと,そして辞書データベースとの完全な連携が本システムの特長である.本システムはBCCWJにあわせて作り込まれているため,\ref{sec:knowledge}章で挙げたBCCWJ独自の処理にも対応している.また,階層構造をもつUniDicの辞書データベースを包含しており,アノテーションツールに留まらない言語資源管理のシステムとなっている.一方で,本システムにはいくつかの問題点も存在する.BCCWJに特化した設計となっているため汎用性に乏しいこと,Webベースのシステムではないためクライアントソフトウェアの配布が必要であり導入の敷居が高いこと,フリーウェアではなくプロプライエタリなソフトウェアを用いて構築されているため配布が難しいこと,などは他のシステムと比較して劣る点である. \section{形態論情報データベースシステムの概要} \label{sec:bdsystem}\subsection{形態論情報データベースの構成}形態論情報データベースは,UniDicの見出し語を格納する「辞書データベース」と,コーパスを格納する「コーパスデータベース」から構成される.図\ref{fig1}にその全体図を示す.形態論情報データベースは,UniDicの見出し語を管理する部分と,コーパスを格納して修正を行う部分に分かれる.これに対応するように,データベースをインスタンスのレベルで,辞書見出しを格納する「辞書データベース」部と,コーパスを格納する「コーパスデータベース」部に分割した.そのうえで,コーパスの形態論情報と辞書の情報を同一に保つために,見出し語表・活用表・変化表などから生成される「語彙表」を挟んで二つのデータベースを連係させた.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA11f1.eps}\end{center}\caption{形態論情報データベース全体図}\label{fig1}\end{figure}辞書データベースには,短単位の見出し語表と,これを出現形まで展開するための活用表・変化表が含まれる.辞書データベースの詳細は\ref{sec:dicdb}章で述べる.辞書見出しを出現形まで展開した「語彙表」はレコードごとに語彙表IDが一意に割り振られ,コーパスデータベース内に生成される.コーパスデータベースには,BCCWJのテキストを形態素解析した短単位のコーパスが含まれる.コーパスのレコードは語彙表IDにより語彙表と関連付けられ,これを介して辞書の見出し表と関連付けられる.なお,コーパスデータベースには短単位を組み上げた長単位の情報が含まれる.長単位は定義上,コーパスに出現したものをそのまま単位として認める形をとるため,辞書データベースとは接続されない.コーパスデータベースの詳細は\ref{sec:corpusdb}章で述べる.コーパスと辞書は独立性が高く,それぞれが単独でも利用できる必要があるため,コーパスにも辞書データベースがもつ多様な情報が付与されている.次節で見るように,辞書データベースのデータが変更された場合は,語彙表を介してコーパスにも変更が反映される.\subsection{語彙表展開とコーパスとの同期処理}\label{sec:sync}コーパスデータベースと辞書データベースを連携するための仕組みとして語彙表展開と同期処理が重要であるが,この処理は本システムの中でも最もコストのかかる処理のひとつである.BCCWJはコーパスの規模が大きいために出現頻度が数万以上となる見出し語も少なくない.仮に語彙表展開とコーパスとの同期を全てリアルタイム処理で行うとすると,こうした見出し語を変更した場合のコーパスとの同期処理には大きな負荷がかかり,レコードロックなどが頻発し作業上深刻な問題となる可能性がある.そのため,データの変更が及ぼす影響の範囲や処理の必要性に応じて,リアルタイム処理と,通常深夜に行われる日次処理とを使い分けている.見出し語の変更による当該語の語彙表展開は,語彙表への影響も少なく,また変更した語を即座にコーパス修正に使用できるようにする必要があるためにリアルタイム処理としている.一方,活用表や変化表の変更によって生じる語彙表展開と同期処理では,影響を受ける見出し語が多数にのぼり,関連付けられたコーパスの更新箇所も膨大となる可能性があるため,リアルタイム処理ではなく日次処理により行っている.このようにシステムへの負荷を軽減し作業性を上げるために,辞書データベースとコーパスデータベースはリアルタイムの同期処理のみによる密結合ではなく,日次処理を含めたゆるやかな連携をとる疎結合のシステムとして設計されている.辞書データベースとコーパスデータベースとの関連付けには,語彙表テーブルが保持する語彙表IDを用いるが,語彙表テーブルはコーパスの各語が持つ属性値\footnote{\ref{sec:corpusdb}章の表\ref{tab8}の基本8属性.}も保持している.語彙表IDと属性値で二重に情報が保持されているため,語彙表IDでの接続が失われた状態でも,属性値の組み合わせにより語彙表(及び辞書データベースの見出し語表)との接続を回復できる.これにより,見出し語の修正によって語彙表IDが変わってしまった場合や,コーパスの修正によって一部の属性が一括変更された場合など,コーパスと語彙表の関連づけが失われた際にも,語彙表IDか属性値のいずれかをキーとして同期をとることができるようにした.語彙表の更新は,見出し語表の見出し語の追加時・修正時にリアルタイムで該当する語彙表のレコードを自動生成・更新する.これにより辞書追加した語をすぐにコーパス修正に利用できるようにしている.また日次のバッチ処理により上述のコーパスと語彙表との同期処理を行い,語彙表IDと属性値のいずれによっても対応がとれないレコードが発生した場合には作業者に修正を促すことで関連付けを保っている.\subsection{利用したシステム}形態論情報データベースで使用した主な機器・ソフトウェアは以下のとおりである.\begin{itemize}\itemクライアント\begin{itemize}\itemソフトウェア\begin{itemize}\itemOS:MicrosoftWindowsXP(後に7に更新)\itemツール開発:MicrosoftAccess2003(後に2007に更新)\end{itemize}\end{itemize}\itemサーバ\begin{itemize}\itemソフトウェア\begin{itemize}\itemOS:MicrosoftWindowsServer2003R2x64(後に2008R2に更新)\itemDBMS:MicrosoftSQLServer2005StandardEditionx64\end{itemize}\itemハードウェア\begin{itemize}\item機種:DELLPowerEdge2950\itemメモリ:24.0GB\itemCPU:IntelXeonX5355(2.66~GHz4コア2×4~MBL2キャッシュ\\1333~MHzFSB)×2\itemHDD:300~GB15000~rpmSAS×6(RAID5構成で実質容量1.5~TB)\end{itemize}\end{itemize}\itemバックアップストレージ\begin{itemize}\itemハードウェア\begin{itemize}\item機種:DELLPowerVaultMD-1000\itemHDD:1~TBSATA×15(うち2台がホットスペア,RAID5構成で実質容量11~TB)\end{itemize}\end{itemize}\end{itemize}形態論情報データベースは1台のデータベースサーバに複数の端末からアクセスするクライアント・サーバ型のシステムとして構築されている.プロジェクト開始までの開発期間が限られていたこと,運用中も頻繁な仕様変更が想定されたことなどから,機能追加・変更が容易に行えるAccessでクライアントツールを開発し,DBMSにはAccessとの親和性が高く,データベース管理,分析,チューニング等のツールが充実しているSQLServerを採用した.DBMSはBCCWJの電子テキスト化で用いられるJISX0213の文字集合\cite{山口ほか2011}を適切に扱える必要があったが,BCCWJ構築開始時点で当該文字集合が適切に扱えるものが少なく,このこともSQLServerを採用した理由となっている\footnote{データベースの既定の照合順序(COLLATE)は,UnicodeのCJK統合漢字拡張漢字B集合の文字が扱える「Japanese90BIN2」とした.}.なお,所外の作業者などAccessがインストールされていない環境からも作業ができるよう,無償配布されているAccessランタイム上で動作するクライアントツールの外部接続用インストールパッケージを別途用意した. \section{辞書データベースの設計と実装} \label{sec:dicdb}\subsection{見出し語表の設計と実装}辞書データベースは,形態素解析辞書UniDicの元となるデータベースである.見出し語表のほか,活用表などの辞書作成に必要な情報からなる.\begin{figure}[p]\begin{center}\includegraphics{21-2iaCA11f2.eps}\end{center}\caption{UniDic見出し語の階層構造}\label{fig2}\end{figure}\begin{figure}[p]\begin{center}\includegraphics{21-2iaCA11f3.eps}\end{center}\caption{辞書データベース・見出し語のテーブル設計(短単位)}\label{fig3}\end{figure}UniDicでは図\ref{fig2}のような見出し語の階層構造が設定されている.「語彙素」は国語辞典の見出し語に相当するレベル,「語形」は異語形を区別するレベル,「書字形」は異表記を区別するレベル,「発音形」は発音を区別するレベルである.辞書データベースの見出し語表は,\citeA{伝ほか2007}の基本設計を踏襲し,このUniDicで設定されている見出し語の階層構造をそのまま反映させる形で実装した(図\ref{fig3}).辞書データベースの基本となる見出し語表を構成するのは「短単位語彙素」「短単位語形」「短単位書字形」「短単位発音形」の4つの見出し語のテーブルである.\begin{table}[b]\caption{見出し語のテーブルの主要項目}\label{tab2}\input{ca11table02.txt}\end{table}4つの見出し語のテーブルはそれぞれ一意のIDによって関連付けられており,各IDは計算によってテーブルの階層関係が確認できるように設計した.例えば,語形IDは親となる語彙素のIDに32(一つの語彙素が持ちうる語形の最大数)を乗じたものに自身の語形SubIDを加えたものを一意のIDとしている.IDで関連付けられたテーブル間では,レコードの生成や削除に関連するデータベース制約を設定し,不正な見出し語のエントリを防いでいる.見出し語のテーブルが持つ主要項目を表\ref{tab2}に示す.UniDicでは,語彙素・語彙素読み・語彙素細分類・品詞・語形・活用型・書字形・発音形(表\ref{tab2}の列名に◎を付した)の組み合わせによって,見出し語が一意に区別される.辞書データベースの見出し語のテーブルでもこの関係を外部キー制約として記述し,見出し語の二重登録を防いだ.\begin{table}[t]\caption{見出し語のテーブルの共通項目}\label{tab3}\input{ca11table03.txt}\end{table}表\ref{tab2}の項目に加え,見出し語のテーブルに表\ref{tab3}の項目を共通して持たせ,各見出し語のメタ情報を記録した.これにより,見出し語を追加・修正した際の作業者やソースのトレースを可能にし,誤った見出し語の追加・修正への対処を可能にしている.また,状態属性によりジャンル別の形態素解析辞書の作成を可能にしている.\subsection{語彙表展開の設計と実装}辞書データベースには,見出し語のテーブルのほかに,活用語を展開するための「活用表」テーブル,語頭・語末変化形を展開するための「語頭変化」「語末変化」テーブルを置き,見出し語をコーパス上に出現する形にまで展開させる.この処理を語彙表展開と呼び,「語頭変化」→「語末変化」→「活用形展開」の順に,見出し語を展開することで行う.以下,この処理の内容について述べる.\subsubsection*{語頭・語末変化}語頭・語末変化テーブルは,語形が持つ語頭・語末変化型に応じた語頭・語末文字の変化パターンを記した表であり,語形・書字形の見出し語の語頭・語末変化形を語彙表に展開する処理で使用される.実体は辞書データベース内の語頭変化テーブル・語末変化テーブルである.語頭変化テーブルの主要な項目を表\ref{tab4}に示す(語末変化テーブルは語頭変化テーブルと同様のため省略する).主な対象は連濁現象で,例えば「カライ(辛い)」の「語頭変化型」に「カ濁」を設定すると,語頭変化表により基本形「カライ」と,語頭文字を置き換えた濁音形「ガライ」が生成される.データベース上では,この変形は語形テーブルと語頭変化テーブルを語頭変化型で結合することで,各形を生成している.書字形のレベルでは,濁音形の書字形は,漢字表記の場合には基本形と同じものが使われる(例:辛い)が,ひらがな・カタカナで表記されている場合には書字形の先頭部分を変化させたもの(例:がらい・ガライ)を生成する.語末変化も語頭変化と同様で,「語形」が持つ「語末変化型」に応じて,語形変化した形を生成する.例えば「サンカク(三角)」の語末変化型に「ク促」を設定すると,語末変化表により,基本形「サンカク」と,語末文字を置き換えた促音形「サンカッ」を生成する.\subsubsection*{活用}活用は,語形が持つ活用型に応じて,活用形を展開する処理である.その処理に用いる活用表テーブルの主要な項目を表\ref{tab5}に示す.\begin{table}[b]\caption{語頭変化テーブルの主な項目}\label{tab4}\input{ca11table04.txt}\end{table}\begin{table}[b]\caption{活用表テーブルの主な項目}\label{tab5}\input{ca11table05.txt}\end{table}内部活用型は語彙表展開時に処理内部で一時的に使用されるもので,語形に付与した活用型と詳細活用型,語形に関連付けられた書字形と発音形を専用関数に渡すことで生成される.例えば書字形「辛い」「からい」は同じ語形「カライ(活用型「形容詞-ライ」)を持つが終止形の変化を「辛``え''」「か``れえ''」と区別する必要があるため,内部活用型により活用パターンをより細分化した上で活用変化が行われる.生成された内部活用型により活用表から活用形と活用語尾書字形が取得されるが,同時に書字形の活用部分が「終止形-一般」の活用語尾書字形より取得される.書字形を活用変化した形は,ここで取得した活用語尾書字形をその他の活用形の活用語尾書字形で置換したものにより生成される.以上の活用表による語彙表展開の流れを図\ref{fig4}に示す.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA11f4.eps}\end{center}\caption{活用形の展開の流れ}\label{fig4}\end{figure}活用に際して,書字形が異なると変化する語尾の部分が異なる場合がある.たとえば,カ行変格活用の動詞「来る」では,仮名で書かれた「くる」の場合,未然形の書字形は「こ」,連用形は「き」だが,漢字で書かれた「来る」では書字形はいずれも「来」である.このように,辞書登録されている書字形ごとに活用語尾の長さを変える必要があるため,書字形に「活用型書字形」を持たせて活用形の展開の仕方を変えている.活用語の変化部分の長さの違いは,発音形についても起こる.たとえば,音便形の処理で語形が「オイ」でおわる形容詞は,その直前の音がオ段の場合には終止形などの発音形を長音にする必要がある(「トオイ」→「トーイ」)が,オ段以外の場合にはその必要がない(「アオイ」→「アオイ」).このため,発音形に「活用型発音形」を持たせて活用形の展開の仕方を変えている.\subsubsection*{特殊活用形}通常の活用形の展開では生成できない,または特定の語においてのみ活用形を展開する特殊な活用形は,「特殊活用形テーブル」に活用した形の書字形を登録する(表6).たとえば活用語尾までがカタカナ表記される「イイ(良い)」「デキル(出来る)」や,活用語尾のない特殊な表記「也」(助動詞「なり」の終止形),特殊な語形「ま〜す」(助動詞「ます」の終止形)などがそれにあたる.特殊活用形に登録した書字形は語彙表生成時にそのまま語彙表に追加される\footnote{特殊活用形を語彙表展開する際の活用形IDは,通常使用されない活用形IDの範囲である480--512を用いる.}.\subsubsection*{語彙表の展開}ここまでに説明してきた語頭・語末変化と活用により,語彙表がコーパスデータベース内に生成される.語彙表展開では語形に付与された語頭・語末変化型,活用型により,語頭・語末変化と活用のいずれか,または両方による展開処理が行われる.図\ref{fig5}に例として形容詞「辛い」の語彙表展開を図示する.\begin{table}[b]\caption{特殊活用形テーブルの主な項目}\label{tab6}\input{ca11table06.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA11f5.eps}\end{center}\caption{語彙表展開の例}\label{fig5}\end{figure}辞書データベースでは,語彙素テーブルの主要項目のほか,語彙素・語形・書字形・発音形テーブルを結合した主要項目,語彙表テーブルにも一意制約が設定されているため,語彙素・語形・書字形・発音形が登録できてもその後語彙表展開したものが重複した場合には,語彙表展開がロールバックされ登録自体も無効となる.つまり語彙表テーブルは常にデータの重複がない状態であることが保証されている.\subsubsection*{語彙表ID}語彙表生成時には語彙表のレコード毎に一意の語彙表IDを割り当てる.語彙表IDは通常10進数の数値として扱われるが,ビット列としてみると,発音形・語頭変化・語末変化・活用それぞれの展開処理において,各変化形の表現に十分なビット幅をフィールドとして追加したものとなっている.図\ref{fig6}に例として形容詞「辛い」を語彙表展開して生成される出現書字形「がらかっ」の語彙表ID(10進数・2進数)を示す.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA11f6.eps}\end{center}\caption{語彙表IDの例}\label{fig6}\end{figure}この設計により,語彙表IDのみから,語彙素・語形・書字形等の見出し語のIDや変化形のIDを容易に計算できるようにしている.全体として通常の整数型(32ビット)で表現できる範囲を超えるため,bigint(64ビット符号付き整数)型で表現する.したがって,語彙素IDの最大数は25ビット分(約3400万)確保可能である.\subsection{辞書データベースの運用}\subsubsection*{辞書データベースのロック処理}一般的にクライアント・サーバ型のシステムでは複数の作業者が同時にデータを変更した場合に,処理が混在しデータに矛盾が生じる可能性がある.辞書データベースにおいては,見出し語を変更すると見出し語の各テーブルに設定したトリガにより語彙表展開までが一連の処理として行われるが,語彙表展開の処理は内部に「非語頭語末変化パターンの展開」「語頭語末変化パターンの展開」「特殊活用形の展開」など複数の処理のステップがあり,なおかつ処理中は見出し語表,活用表など複数のテーブルのデータを参照する必要があることから,見出し語の変更から語彙表展開までは形態論情報データベースのなかでもコストがかかる処理となっている.表\ref{tab7}に示すように,語彙表展開処理は,書字形や活用変化パターンを多く持つ語彙素ほど処理に時間を要する.\begin{table}[t]\caption{語彙表展開時のコスト}\label{tab7}\input{ca11table07.txt}\end{table}語彙表展開処理に時間がかかるほど,処理中に他の作業者による見出し語の変更が起こりやすくなり,処理の衝突やデータの矛盾が起こる可能性が高くなる.一般にデータベースでは,複数の処理が混在した際に起こりうるデータの矛盾として「ダーティリード」「反復不能読取り」「ファントムリード」があり,それらを回避するために分離レベル「READCOMMITTED」「REPEATABLEREAD」「SERIALIZABLE」をトランザクション開始時に指定できる.分離レベルは同時実行性とのトレードオフの関係にあり,SERIALIZABLEは前述のデータの矛盾を全て回避することができるが,トランザクション中は他の作業者が処理を行えなくなり全体としての作業量が落ちる.そのため,他の分離レベルを使用して同時実行性を維持しつつ,分離レベルでは回避できないデータの矛盾をシステム上で対処するよう設計を行う必要がある.また処理が混在した場合のトラブルとして,複数のトランザクションがたすき掛けでデータをロックし合うことによりお互いの処理が行き詰まる「デッドロック」があるが,これについても対策を行う必要がある.これらを考慮して,語彙表展開に関連する一連の処理では以下のような設計を行った.\begin{enumerate}\renewcommand{\labelenumi}{}\item語彙表展開処理内の複数のステップをトランザクション処理とし,分離レベルをREADCOMMITTEDとした.\item見出し語の語彙素・語形・書字形・発音形の変更では必ずリアルタイム処理による語彙表展開処理が行われるようにした.\item語彙表展開処理内の冒頭で語彙素--語形--書字形--発音形への参照を行うこととした.\end{enumerate}まず分離レベルをREADCOMMITTEDを指定することで,ダーティリードを回避しつつ,同時実行性を確保した(a.).ただしREADCOMMITTEDでは他の作業者によるデータ変更がブロックされず,反復不能読取り,ファントムリードが起こるため,別途回避策をとる必要がある.トランザクション処理中に他の作業者によりデータ変更が行われてしまう反復不能読取りについては,語彙表展開なしに見出し語を変更できないようにし(b.),さらに先行の処理が完全に終了されるまで後続の処理をロック待ちにすることで(a.とc.),複数の作業者が同一箇所について同時にデータ変更が行えないようにすることで回避した.トランザクション処理中にデータが追加されてしまうファントムリードについては,そもそもトランザクション中に他の作業者によりデータが追加されても,作業者にとってはその時点では必要のないデータなので作業上も支障がなく,また語彙表は日次処理により全件が再生成されるため,不正なデータの語彙表展開は排除される.またデッドロックについては,前述のとおり見出し語変更時の処理を一本化してレコードロックの順番を統一することで回避した.\subsection{辞書データのエクスポート}辞書データベースは,コーパスデータベースの修正に用いられるだけでなく,形態素解析用の辞書(見出し語リスト)を出力する役割も担っている.辞書データベースから出力された辞書と,コーパスデータベースから出力される人手修正済みの学習用コーパスを利用して形態素解析辞書が作成された.UniDic1.x系列の形態素解析辞書の作成に当たっては,辞書データベースの見出し語表・活用表・語頭語末変化表を組み合わせて展開した語彙表を表形式テキストとして出力し,これをMeCab用の辞書のソースデータとして提供した.さらに,見出し語のテーブルを結合・再構成してUniDicの階層構造を再現したXML形式で出力し,UniDic2.x系列の辞書データとして提供した.同時に活用表や語形変化表もXML形式で出力し,辞書データベースの大部分をXML形式で外部に提供することを可能にした. \section{コーパスデータベースの設計・実装・運用} \label{sec:corpusdb}\subsection{コーパスデータベースの設計と実装}\ref{sec:knowledge}章で確認したとおり,BCCWJのテキストはXML文書の形で提供される.テキストの形態論情報は,形態素解析等の自動出力結果を人手で修正した後で,元のXML文書に対するアノテーションとして出力する必要がある.BCCWJでは,短単位と長単位という階層的な関係を持つ2つの言語単位によって形態論情報がアノテーションされるが,この階層関係もXMLのタグによって表現される.BCCWJのコアデータから,短単位と長単位のアノテーション例をリスト1に示す.LUWが長単位,SUWが短単位のタグである(一部のタグを省略した).関係データベースを用いてこうしたXML文書を扱うために,スタンドオフ・アノテーションの方法に基づき,XML文書が含む文字データ(CDATA)とタグをテーブルに分割し,ファイル先頭からの文字オフセット値(タグを除いた文字の開始終了位置)によって関係づけて管理する設計とした.全体の整合性を保持するため,文字やタグを含む全てのデータの修正をこのデータベース上で行う.このデータベースのテーブル関連図を図\ref{fig7}に示す.コーパスデータベース中のテーブルは,XML文書起源のものとして「文字」テーブル,「タグ」テーブル,「ルビ」テーブル,「文字修正」テーブルがあり,これに後述する数字処理による「数字」テーブル,形態論情報アノテーションとしての「短単位」テーブルと「長単位」テーブルが加わる.形態論情報も文字位置によってテーブルを関連付けて管理する.このほかに,全文検索用の「文」テーブルや長単位修正作業用の「長単位語彙表」テーブルを置く.このうち,コーパスデータベースにとって必須のデータは文字テーブルと短単位テーブルであり,XML文書の復元や長単位アノテーションを必要としない場合にはこれ以外のテーブルは不要となる.コーパスデータベースの根幹である短単位テーブルの主要な項目を表\ref{tab8}に示す.\begin{lstlisting}[title=\textbf{リスト1}短単位と長単位のアノテーション例(X-XML)]<mergedSamplesampleID="OW6X_00028"type="BCCWJ-MorphXML"version="1.0"><articlearticleID="OW6X_00028_V001"isWholeArticle="false"><titleBlock><title><sentencetype="quasi"><LUWB="S"SL="v"l_lemma="第一章"l_lForm="ダイイッショウ"l_wType="漢"l_pos="名詞-普通名詞-一般"l_formBase="ダイイッショウ"><SUWorderID="10"lemmaID="22937"lemma="第"lForm="ダイ"wType="漢"pos="接頭辞"formBase="ダイ"pron="ダイ"start="10"end="20">第</SUW><SUWorderID="20"lemmaID="2050"lemma="一"lForm="イチ"wType="漢"pos="名詞-数詞"formBase="イチ"kana="イッ"pron="イッ"start="20"end="30">1</SUW><SUWorderID="30"lemmaID="16559"lemma="章"lForm="ショウ"wType="漢"pos="名詞-普通名詞-一般"formBase="ショウ"pron="ショー"start="30"end="40">章</SUW></LUW><LUWSL="v"l_lemma=""l_lForm=""l_wType="記号"l_pos="空白"><SUWorderID="40"lemmaID="23"lemma=""lForm=""wType="記号"pos="空白"formBase=""pron=""start="40"end="50"></SUW></LUW><LUWB="B"SL="v"l_lemma="障害者施策"l_lForm="ショウガイシャシサク"l_wType="漢"l_pos="名詞-普通名詞-一般"l_formBase="ショウガイシャシサク"><SUWorderID="50"lemmaID="16607"lemma="障害"lForm="ショウガイ"wType="漢"pos="名詞-普通名詞-サ変可能"formBase="ショウガイ"pron="ショーガイ"start="50"end="70">障害</SUW><SUWorderID="60"lemmaID="15852"lemma="者"lForm="シャ"wType="漢"pos="接尾辞-名詞的-一般"formBase="シャ"pron="シャ"start="70"end="80">者</SUW><SUWorderID="70"lemmaID="15256"lemma="施策"lForm="シサク"wType="漢"pos="名詞-普通名詞-一般"formBase="シサク"pron="シサク"start="80"end="100">施策</SUW></LUW><LUWSL="v"l_lemma="の"l_lForm="ノ"l_wType="和"l_pos="助詞-格助詞"l_formBase="ノ"><SUWorderID="80"lemmaID="28989"lemma="の"lForm="ノ"wType="和"pos="助詞-格助詞"formBase="ノ"pron="ノ"start="100"end="110">の</SUW></LUW><LUWB="B"SL="v"l_lemma="総合的取り組み"l_lForm="ソウゴウテキトリクミ"l_wType="混"l_pos="名詞-普通名詞-一般"l_formBase="ソウゴウテキトリクミ"><SUWorderID="90"lemmaID="21023"lemma="総合"lForm="ソウゴウ"wType="漢"pos="名詞-普通名詞-サ変可能"formBase="ソウゴウ"pron="ソーゴー"start="110"end="130">総合</SUW><SUWorderID="100"lemmaID="25076"lemma="的"lForm="テキ"wType="漢"pos="接尾辞-形状詞的"formBase="テキ"pron="テキ"start="130"end="140">的</SUW><SUWorderID="110"lemmaID="26779"lemma="取り組み"lForm="トリクミ"wType="和"pos="名詞-普通名詞-一般"formBase="トリクミ"pron="トリクミ"start="140"end="160">取組</SUW></LUW></sentence><brtype="automatic_original"/></title></titleBlock>\end{lstlisting}\subsubsection*{XML文書と形態論情報のインポート}XML形式でリリースされるデータをコーパスデータベースにインポートする方法を図\ref{fig8}のように設計・実装した.既述の通り,XML形式のデータを表に変換し,それらの表を,文字位置(ファイル先頭からの文字オフセット値)をキーにしたIDで相互に関係づける.この際,辞書登録やコーパス修正時に確認することが必要なルビタグ・数字タグ・文字修正タグのみを専用のテーブルに格納して編集可能とし,それ以外のタグについては元の形のまま「タグ表」にまとめて保存している.インポート処理の過程で形態素解析の上で妨げとなるタグの除去や,数字変換(後述)などの処理が加わるため,それぞれの表の情報を取り出す段階が異なっている.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA11f7.eps}\end{center}\caption{コーパスデータベースのテーブル関連図}\label{fig7}\end{figure}なお,BCCWJでは,\ref{sec:knowledge_numtrans}節で述べた数字変換処理が行われているため,形態素解析結果から原文の文字位置をキーにした短単位テーブルを単純にとりだすことができない.そこで,形態素解析結果を埋め込んだ状態のXMLファイルから,原文文字列や数字タグ・分数タグの情報を元に,元の文字との対応を取りながら文字位置を取得する必要がある.この処理はデータベース外部の解析プログラムによって行っている.長単位のデータは,修正済みの短単位データをコーパスデータベースからエクスポートし,Comainuによって処理を行った後,データベースの長単位テーブルにインポートする.\ref{sec:knowledge_unit}節で見たとおり,長単位は短単位を組み上げる形で生成される.長単位テーブルからは,長単位の修正作業用に長単位語彙表テーブルを生成する.以上のような手順でコーパスデータベースに格納されたデータは,後述のクライアントツール「大納言」を通して修正される.\begin{table}[t]\caption{短単位テーブルの列名}\label{tab8}\input{ca11table08.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA11f8.eps}\end{center}\caption{XML文書の形態素解析とインポートの流れ}\label{fig8}\end{figure}\subsection{コーパスデータベースの運用}\subsubsection*{運用実績}コーパスデータベースの運用実績は,履歴をもとに集計すると,BCCWJ全体の更新件数が約302万件(約1,000日間),1日あたりの平均更新件数が約2,800件,1日あたりの最大更新件数が約25,000件,最大接続ユーザー数が22名であった(更新件数は一部推計によるものを含む).\subsubsection*{コーパス更新時の不整合の回避(ロールバック)}コーパスデータの更新時には,複数作業者による同一箇所の同時更新による文脈の不整合が発生する可能性が考えられる.このような場合にはロールバックにより不整合が回避されるようシステムを設計している.しかし,コーパスの同一箇所をほぼ同時に更新する状況は極めて稀である.BCCWJでの作業では,短単位テーブルに約1億2千万件のレコードが存在し,そのうち人手によるデータ更新が302万箇所(推計値)で行われた.しかし,このうち最も近いタイミングで隣接箇所を更新した事例でも14秒以上の間隔があり,近接箇所を1分以内に更新した例も15箇所しか存在しない.また,現在の日本語歴史コーパス修正作業のログ3日間分においては,更新件数は7,858件であったが,不整合が起こりうる同時更新は0件であった.このように,同一箇所の同時更新が発生しにくいのは,コーパスのサイズが極めて大きいことに加え,コーパスデータの更新作業おいて作業範囲や作業内容が作業者間で効率的に割り振られていたことによると考えられる.\subsubsection*{ジョブ}リアルタイム更新が必要でない処理や,通常作業のために必要なデータ整備の処理,バックアップ処理などは,必要なタイミングや所要時間などを考慮して,以下のように日中毎時・平日深夜・週末深夜のジョブによりバッチ処理を行った.\begin{itemize}\item日中毎時ジョブ\\1時間間隔でトランザクションログのバックアップを行う.作業を中断する必要はなく,通常数秒程度で完了する.\item平日深夜ジョブ\\平日深夜に開始され,翌日の作業開始まで行われる.負荷や排他ロックにより日中に行えない処理(データのインポート,一括変換処理等)や,即時性が必要でないデータの更新(辞書とコーパスの完全同期等)を行う.\item週末深夜ジョブ\\データベースのバックアップやインデックスの再作成,データの削除などを行う.\end{itemize}\subsubsection*{バックアップ体制}データベースは障害時に特定の時点に復旧できるよう完全復旧モデルを採用している.毎週末深夜にバックアップストレージに対してバックアップファイルが作成され,その後,翌週末深夜まで1時間間隔でログバックアップを行う.つまり週毎に「完全バックアップ+ログバックアップ」のバックアップセットが作成されることになる.バックアップセットは一定期間保存されたのち,古いものから削除される.\subsubsection*{コーパスデータベースのチューニング}コーパスデータベースでは1億語を超える大規模なデータを対象に,複数の作業者が同時に更新処理を行う必要がある.そのため,コーパスデータベースの実装に当たっては処理の高速化とデータの整合性,同時実行性の確保のための対策が重要である.そのために次の(a)〜(c)のような対応を行った.\noindent{\bf(a)KWICに最適化した主キー項目の選定}コーパスデータベースでは,後述する「大納言」でコーパス修正を行うためにKWIC(キーワードの前後文脈情報)を多用する.しかし,あらかじめKWIC情報を作成してデータベース内に格納することはデータベースサイズが肥大化することから困難であり,また最新のコーパス修正結果をもとにしたKWICを表示することが望ましい.そのため,検索の都度,ヒットした語についてリアルタイムでKWICを生成する設計とした.通常,一度の検索で数百〜数千語程度のKWIC作成処理が発生するため,この処理の高速化はシステム全体の処理性能に直結する.そこで,短単位テーブルの主キーとしてKWIC作成に必須となる「サンプルID」と「連番」を選択することで,この処理の高速化を図った.SQLServerでは主キーとして設定した項目を元にクラスタ化インデックスが作成されるため,「サンプルID」と「連番」を主キーに設定することで,データベース上でデータが短単位の出現順に物理的に並ぶことになり,語の並び替えが不要となる.またインデックスを経由することなく直接データにアクセスできるため,KWIC生成処理の短単位の組み上げ時のコストを節約できる.約14,000レコード分のKWIC生成に要する時間を比較した結果を表\ref{tab9}に示す.表\ref{tab9}のSQL文中の「fnGetContextPreOpenClose」「fnGetContextPre」はKWIC生成関数である.検索時間は10回検索を行い最小値と最大値を除いた平均時間となっていて,検索毎にキャッシュを消去することでキャッシュによる高速化の影響を排除した.通常のインデックス項目による場合と比較してKWIC生成速度が2倍程度に高速化された.また,コーパス名の検索をサンプルIDの検索に変換にすることで検索の高速化を行った.短単位テーブルにはサンプルIDの上位の括りとして「コーパス名」列がある.コーパス名は定義上ファイルをレジスタ別に分けるための情報だが,短単位テーブルのデータをプロジェクトや用途別に区別することにも利用している.ユーザーが大納言で作業する際は,短単位テーブル全体ではなくあらかじめユーザー毎に割り振られた作業対象(コーパス名)毎に作業を行うことが多い.このことから,作業者が大納言で検索対象(作業対象)のコーパス名を指定した際に,システム内でコーパス名をサンプルIDに変換するための「コーパス名−サンプルID対応テーブル」を作成した.このことにより,コーパス名による検索を短単位テーブルの主キーであるサンプルIDによる検索に変換することができ,検索対象の絞込が高速化された.書籍・白書・雑誌のコアデータについて品詞を指定して検索した結果を表\ref{tab10}に示す.\begin{table}[b]\caption{KWIC生成時間の比較}\input{ca11table09.txt}\label{tab9}\end{table}\begin{table}[b]\caption{コーパス名—サンプルID対応テーブルによる検索}\input{ca11table10.txt}\label{tab10}\end{table}検索時間は10回検索を行い最小値と最大値を除いた平均時間である.検索の都度キャッシュは消去した.SQL文中の「fileList」が「コーパス名−サンプルID対応テーブル」で,これを使用することによりコーパス名を指定した検索速度が100倍程度に高速化された.\noindent{\bf(b)トランザクション分離レベルの設定}短単位テーブルの修正は,そのほとんどが単位境界の切り直しを伴いレコード数が変化することになる.そのため,修正の反映は,レコードの更新処理ではなく,削除処理によって修正前のレコードを削除した後に修正後のレコードを挿入することで行っている.単位境界を変更する場合には,修正後のレコードに文字位置を振り直す処理も必要であり,1箇所のデータ修正のために複数の処理を実行する必要がある.そこで,これらをまとめてトランザクション処理で実行し,データが1箇所更新される度にトランザクションが終了されるようにした.複数箇所を一度に更新する場合は,ループ処理により複数回処理を実行する.これは大規模な修正を行う際のレコードロックの時間を最小限にし,他の作業者への影響を抑え同時実行性を高めるためのものである.データの正確性を高めるのであればトランザクションの分離レベルをSERIALIZABLEなどに設定すればよいが,反面,同時実行性は低下することになる.そこで大納言では更新処理が他のユーザーの作業に影響するのを抑えるため,データの更新時のトランザクションの分離レベルをREADCOMMITTEDとした.このレベルでは反復不可能読取りが起こる可能性があるが,更新処理内部に処理前後の文脈を比較する処理を組み込むことで,不正な変更処理が回避されるよう設計した.仮に処理前後の文脈を比較する処理でエラー(文脈が変更される)と判定された場合は,トランザクションがロールバックされ,文脈の整合性が維持される.つまり本文の文脈が書き換わらない限り,複数作業者による同一箇所の同時変更を許容する設計を行っている.\noindent{\bf(c)ダーティリードの許容}他の作業者の更新処理中であってもデータベースからデータが読み取れるように,データの検索やKWIC生成処理時のSELECT文ではダーティリードを許容した.このことにより検索結果やKWIC内に誤ったデータが表示される可能性があるが,データの更新時には文脈チェック処理により不正なデータが検出されるため,不正な書き換えは防止される.この実装により同時実行性が確保され,不正な書き換えの問題も発生していない.\subsection{コーパスのエクスポート}人手で修正を行った形態論情報は,元のXML文書にタグとして埋め込んだXML形式でエクスポートすることができる.BCCWJを構成する全てのXML文書(C-XML,M-XML)は,このデータベースから出力された.XMLエクスポート用のSQL文では,各テーブルを結合し,データベース内部でXML型のデータとして生成した後,ファイル出力している.これによりデータが整形式のXMLであることが保証される.テーブルの結合時には,6.1で示したインポートの流れを逆にたどる.この際,タグテーブルを参照するが,ルビや数字などの別テーブルで管理するタグはタグテーブルからではなく,それぞれのテーブルの情報を元にタグを再構成して出力する.当然ながら,表形式の形態論情報を出力することも可能であり,BCCWJを構成する表形式の形態論情報データ(短単位・長単位TSV)はこのデータベースから出力された.また,Webベースのコーパス検索ツール「中納言」のソースデータもここから出力されたものである.さらに,形態素解析辞書UniDicの機械学習に用いるコーパスも,コーパスデータベースの短単位テーブルの一部を出力したものである.なお,データベースに格納されている形態論情報は,インポート前の数字処理を経たテキストを元にしておりBCCWJのM-XMLおよび表形式の形態論情報データではこれを出力しているが,データベース上では原文に相当するC-XMLを元にして管理されているため,数字処理を行わない形でXML文書を取り出すことも可能な設計になっている. \section{クライアントツールの開発} \label{sec:client}\subsection{辞書データベース用ツール「UniDicExplorer」}辞書管理ツール「UniDicExplorer」は辞書データベースへの見出し語の追加・修正をするために開発したクライアントツールである.ツール上にUniDicの見出し語の階層構造をそのまま可視化しており,階層構造を意識した辞書管理を可能にしている(図\ref{fig9}).上段左の検索用コントロールで,各階層の見出し語の情報(語彙素・語彙素読み・語形・書字形・その他)を対象に見出し語表を検索すると,左ペインにマッチした語がUniDicの階層構造を反映したツリー形式で表示される.右ペインには各階層の見出し語が,階層構造を反映した重層的なフォームの形で表示される.見出し語の追加は,見出し語のテーブルのデータが表示されている画面から「新規」ボタンをクリックすることにより行う.見出し語表のデータベース制約により,見出し語は必ず親となる見出し語に追加する形で入力するよう制限されており,逆に見出し語を削除する場合には,その見出し語の子となっている見出し語をあらかじめ削除しておかなければならない.これによって見出し語表の階層構造の整合性を確保している.画面下部の「ツリーの操作」では,見出し語の移動・コピー・削除を行うことができる.この画面では,当該見出し語だけでなく,子や孫となる見出し語ツリー全体をまとめて処理することができる.見出し語は語彙表を介してコーパスと接続されているため,当該見出し語のコーパス中での用例をこのツールから確認することができる.当該語のコーパス中の頻度は右ペインの各階層の見出し語の部分に常に表示されている.頻度情報の横の「用例」ボタンを押下することで,当該語のコーパス中の用例を文脈付きで全て表示することができる.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA11f9.eps}\end{center}\caption{UniDicExplorer実行画面}\label{fig9}\end{figure}\subsection{コーパスデータベース用ツール「大納言」}短単位の自動解析精度はおおむね98\%程度であった.長単位解析の精度も(短単位データが全て正解であることを前提として)99\%ほどであり,人手による修正が必要であった.こうした形態論情報アノテーションの人手修正を行うためのツールが,「大納言」である(図\ref{fig10}).「大納言」の中心となる機能は形態論情報の修正であるが,それ以外にも多くの機能を持つため,画面上段のタブによってモードや機能を切り替えて利用する形になっている.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA11f10.eps}\end{center}\caption{「大納言」実行画面(短単位アノテーションの修正)}\label{fig10}\end{figure}\subsubsection*{形態論情報の修正機能}多くの修正作業は,形態論情報を使った検索の結果に対して行うことになるが,その検索条件の指定では,「語彙素」「書字形」などの単純な形態論情報の検索だけでなく,形態論情報を前後5グラム分まで自由に組み合わせた高度な検索が可能である.また,単位境界を意識しない全文検索を行って,検索結果に形態論情報を表示させることもできる.短単位アノテーションの修正作業は,短単位の「分割結合」モードで行う.検索結果から修正対象を選択し,当該箇所の短単位境界を文字単位で分割・結合して正しい境界を指定する.境界が直ったところで語彙表を参照して,辞書データベースに登録された語の出現形を当てはめる.この際,該当する短単位がなければ,UniDicExplorerで新規の見出し語を追加した後,新たに語彙表に追加された出現形を使用する.長単位の修正時には「長単位」モードで短単位の情報を閲覧しながら,短単位を基本単位として長単位を分割・結合して正しい長単位境界を指定する.長単位境界が直ったところで長単位語彙表を参照して適切な長単位を選択する.この際,該当する長単位がなければ,選択箇所の短単位から自動構成される長単位をもとにして長単位語彙表に新しい語彙を追加してこれを当てはめる.こうした形態論情報の修正処理は,修正箇所と同一の形態論情報の組み合わせを持つもの全てを対象にして一括で行ったり,必要なものだけを作業者が選択して一括で行ったりすることが可能で,これによって効率的な修正作業を実現している.\subsubsection{文字とタグの修正機能}「大納言」では形態論情報そのものの修正作業のほかに,原テキストの文字修正,数字変換の誤り修正,ルビの文字修正を行う機能を実装した.6章で示したとおり,コーパスデータベースは文字ベースの開始終了IDで全体が関連付けられているが,「大納言」を通してこれらの修正を行うことで,作業者が意識することなく全体の関連付けの整合性を保つことができる.コーパス中の文字の修正では,文字テーブルを修正した後,文字修正テーブルに修正内容を記録する.自動数字変換(\ref{sec:knowledge_numtrans}節参照)の修正では,タグ付けされた変換内容をもとに,変換処理を元に戻したり,適切な変換内容に人手で修正したりする機能を持たせた.数字を変換し直す場合には数字テーブル,形態論情報を修正する.タグの修正については,XML文書を極力整形式に保ったまま,直接修正できる機能を実装した. \section{おわりに} 以上に述べた「形態論情報データベース」を開発することで,形態素解析された1億語規模のコーパスを格納し,その全体に対して形態論情報の修正処理を行うことを可能にした.これにより,約100万語のコアデータについて形態論情報に十分な人手修正を施し,それ以外の部分についても人手による修正を施して高い精度を達成することを可能にした.このシステムがBCCWJの形態論情報アノテーションを支え,BCCWJを構成する全てのデータはこのデータベースから出力された.また,本システムによってUniDicの見出し語のデータ整備を支援し,見出し語のデータと対応付けられた学習用コーパスを提供したことで形態素解析辞書UniDicの開発に貢献した.このデータベースシステムは,現在「日本語歴史コーパス」の構築に利用されているほか,BCCWJのタグ修正や新形式のデータ出力などメンテナンス作業の基盤としても活用されている.今後も大規模コーパスの構築を支えるシステムとして活用される予定である.なお,本システムは研究所内でのコーパス構築を目的に開発したものであり,そのままの形で一般公開を行う予定はないが,BCCWJの活用やコーパス開発のために本システムの利用を希望する場合には,プログラムの提供を含めて対応する用意があるので問い合わせてほしい.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原\JBA米田\JBA山下\JBA伝\JBA松本}{浅原\Jetal}{2002}]{浅原ほか2002}浅原正幸\JBA米田隆一\JBA山下亜希子\JBA伝康晴\JBA松本裕治\BBOP2002\BBCP.\newblock語長変換を考慮したコーパス管理システム.\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(7),\mbox{\BPGS\2091--2097}.\bibitem[\protect\BCAY{伝\JBA小木曽\JBA小椋\JBA山田\JBA峯松\JBA内元\JBA小磯}{伝\Jetal}{2007}]{伝ほか2007}伝康晴\JBA小木曽智信\JBA小椋秀樹\JBA山田篤\JBA峯松信明\JBA内元清貴\JBA小磯花絵\BBOP2007\BBCP.\newblockコーパス日本語学のための言語資源—形態素解析用電子化辞書の開発とその応用(特集コーパス日本語学の射程).\\newblock\Jem{日本語科学},{\Bbf22},\mbox{\BPGS\101--123}.\bibitem[\protect\BCAY{Kaplan,Iida,Nishina,\BBA\Tokunaga}{Kaplanet~al.}{2011}]{Kaplan2011}Kaplan,D.,Iida,R.,Nishina,K.,\BBA\Tokunaga,T.\BBOP2011\BBCP.\newblock\BBOQSlate-AToolforCreatingandMaintainingAnnotatedCorpora.\BBCQ\\newblock{\BemJournalforLanguageTechnologyandComputationalLinguistics},{\Bbf26}(2),\mbox{\BPGS\89--101}.\bibitem[\protect\BCAY{国立国語研究所コーパス開発センター}{国立国語研究所コーパス開発センター}{2011}]{国立国語研究所コーパス開発センター2011}国立国語研究所コーパス開発センター\BBOP2011\BBCP.\newblock\Jem{『現代日本語書き言葉均衡コーパス』マニュアル}.\newblock国立国語研究所コーパス開発センター.\bibitem[\protect\BCAY{前川}{前川}{2007}]{前川2008}前川喜久雄\BBOP2007\BBCP.\newblock{KOTONOHA}『現代日本語書き言葉均衡コーパス』の開発.\\newblock\Jem{日本語の研究},{\Bbf4}(1),\mbox{\BPGS\82--95}.\bibitem[\protect\BCAY{Matsumoto,Asahara,Kawabe,Takahashi,Tono,Ohtani,\BBA\Morita}{Matsumotoet~al.}{2005}]{Matsumoto2005}Matsumoto,Y.,Asahara,M.,Kawabe,K.,Takahashi,Y.,Tono,Y.,Ohtani,A.,\BBA\Morita,T.\BBOP2005\BBCP.\newblock\BBOQChaKi:AnAnnotatedCorporaManagementandSearchSystem.\BBCQ\\newblockIn{\BemProceedingsfromtheCorpusLinguisticsConferenceSeries,Vol.1,No.1}.\bibitem[\protect\BCAY{小椋\JBA小磯\JBA冨士池\JBA宮内\JBA小西\JBA原}{小椋\Jetal}{2011}]{小椋ほか2011}小椋秀樹\JBA小磯花絵\JBA冨士池優美\JBA宮内左夜香\JBA小西光\JBA原裕\BBOP2011\BBCP.\newblock\Jem{『現代日本語書き言葉均衡コーパス』形態論情報規程集第4版(上・下)}.\newblock国立国語研究所内部報告書.LR-CCG-10-05.国立国語研究所.\bibitem[\protect\BCAY{小澤\JBA内元\JBA伝}{小澤\Jetal}{2011}]{小澤ほか2011}小澤俊介\JBA内元清貴\JBA伝康晴\BBOP2011\BBCP.\newblock{BCCWJ}に基づく中・長単位解析ツール.\\newblock\Jem{特定領域「日本語コーパス」平成22年度公開ワークショップ予稿集},\mbox{\BPGS\331--338}.特定領域「日本語コーパス」総括班.\bibitem[\protect\BCAY{Przepi\'{o}rkowski\BBA\Murzynowski}{Przepi\'{o}rkowski\BBA\Murzynowski}{2011}]{Przepiorkowski2011}Przepi\'{o}rkowski,A.\BBACOMMA\\BBA\Murzynowski,G.\BBOP2011\BBCP.\newblock\BBOQManualAnnotationoftheNationalCorpusofPolishwithAnotatornia.\BBCQ\\newblockInGo\'{z}d\'{z}-Roszkowski,S.\BED,{\BemExplorationsacrossLanguagesandCorpora:PALC~2009},\mbox{\BPGS\95--103},FrankfurtamMain.PeterLang.\bibitem[\protect\BCAY{Stenetorp,Pyysalo,Topi\'{c},Ohta,Ananiadou,\BBA\Tsujii}{Stenetorpet~al.}{2012}]{Stenetorp2012}Stenetorp,P.,Pyysalo,S.,Topi\'{c},G.,Ohta,T.,Ananiadou,S.,\BBA\Tsujii,J.\BBOP2012\BBCP.\newblock\BBOQBRAT:AWeb-basedToolforNLP-assistedTextAnnotation.\BBCQ\\newblockIn{\BemProceedingsoftheDemonstrationsatthe13thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},EACL'12,\mbox{\BPGS\102--107},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{山田\JBA小磯}{山田\JBA小磯}{2008}]{Numtrans}山田篤\JBA小磯花絵\BBOP2008\BBCP.\newblock{Numtrans}マニュアル.\\newblock\JTR,{TheUniDicConsortium}.\bibitem[\protect\BCAY{山口\JBA高田\JBA北村\JBA間淵\JBA大島\JBA小林\JBA西部}{山口\Jetal}{2011}]{山口ほか2011}山口昌也\JBA高田智和\JBA北村雅則\JBA間淵洋子\JBA大島一\JBA小林正行\JBA西部みちる\BBOP2011\BBCP.\newblock『現代日本語書き言葉均衡コーパス』における電子化フォーマットVer2.2.\\newblock\JTR\LR-CCG-10-04,{国立国語研究所コーパス開発センター}.\end{thebibliography}\begin{biography}\bioauthor{小木曽智信}{1995年東京大学文学部日本語日本文学(国語学)専修課程卒業.1997年東京大学大学院人文社会系研究科日本文化研究専攻修士課程修了.2001年同博士課程中途退学.2014年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2001年より明海大学講師.2006年より独立行政法人国立国語研究所研究員を経て,2009年より人間文化研究機構国立国語研究所准教授,現在に至る.専門は日本語学,自然言語処理.日本語学会,情報処理学会各会員.}\bioauthor{中村壮範}{2000年武蔵工業大学機械工学科卒業.卒業後,顧客管理データベース等の構築業務を経て,2006年より,国立国語研究所勤務において「現代日本語書き言葉均衡コーパス」「日本語歴史コーパス」のための形態論情報データベースの構築・運用に従事.現在,マンパワーグループ株式会社所属.}\end{biography}\biodate\end{document}
V02N03-01
\section{まえがき} 言語表現には万人に共通する対象のあり方がそのまま表現されているわけでなく,対象のあり方が話者の認識(対象の見方,捉え方,話者の感情・意志・判断などの対象に立ち向かう話者の心的状況)を通して表現されている(言語が対象−認識−表現からなる過程的構造をもつ)ことは,国語学者・時枝誠記によって提唱された言語過程説\cite{Tokieda1941,Tokieda1950}として知られている.時枝の言語過程説によれば,言語表現は以下のように主体的表現(辞)と客体的表現(詞)に分けられ,文は,辞が詞を重層的に包み込んだ入れ子型構造(図1参照)で表される.\begin{itemize}\item\underline{主体的表現}:話者の主観的な感情・要求・意志・判断などを直接的に表現したものであり,日本語では助詞・助動詞(陳述を表す零記号,すなわち図1に示すように肯定判断を表すが,表現としては省略された助動詞を含む)・感動詞・接続詞・陳述副詞で表される.\item\underline{客体的表現}:話者が対象を概念化して捉えた表現で,日本語では名詞・動詞・形容詞・副詞・連体詞・接辞で表される.主観的な感情・意志などであっても,それが話者の対象として捉えられたものであれば概念化し,客体的表現として表される.\end{itemize}時枝の言語過程説,およびそれに基づく日本語文法体系(時枝文法)を発展的に継承したのが三浦つとむである.三浦は,時枝が指摘した主体的表現と客体的表現の言語表現上の違いなどを継承しつつ,時枝が言語の意味を主体的意味作用(主体が対象を認識する仕方)として,話者の活動そのものに求めていたのを排し,意味は表現自体がもっている客観的な関係(言語規範によって表現に固定された対象と認識の関係,詳細は2章を参照のこと)であるとした関係意味論\footnote{対象,表現,話者などのような言語上の実体ではなく,それらの関係で意味を定義する考え方は状況意味論\cite{Barwise1983}と共通する点がある.しかし,状況意味論が「言語に関する社会的な約束事である言語規範に媒介された表現の意味」と「表現の置かれた(発話された)場の意味」とを区別せず,むしろ「場の表現」の側から意味を説明しているのに対して,三浦文法は両者を分けている.}\cite{Miura1977,Ikehara1991}を提唱し,それに基づく新しい日本語文法,三浦文法\cite{Miura1967a,Miura1967b,Miura1972,Miura1975,Miura1976}を提案している.三浦文法は,細部についての分析が及んでいない部分も多々ある未完成な文法であるが,従来の自然言語処理の研究では見逃されていた人間の認識機構を組み込んだより高度な自然言語処理系を実現するための新しい視点を与えてくれるものと期待される\cite{Ikehara1987,Ikehara1992,Miyazaki1992a,Miyazaki1992b}.そこで,上記のようなより高度な自然言語処理系を実現するための第一歩として,三浦文法に基づく日本語形態素処理系を実現することを目指し,三浦文法をベースに日本語の品詞の体系化を行い,規則の追加・修正が容易で拡張性に富む形態素処理用文法を構築した.本論文では,まず三浦文法の基本的な考え方について述べ,次にそれに基づき作成した日本語の品詞体系,および品詞分類基準を示すと共に,形態素処理用の新しい文法記述形式を提案する.さらにそれらの有効性を論じる.\begin{figure}\begin{center}\epsfile{file=fig1.eps,width=63.5mm}\end{center}\vspace*{-0.2mm}\caption{時枝の入れ子型構造}\label{fig:tokieda}\end{figure}\begin{figure}\vspace*{-0.2mm}\begin{center}\epsfile{file=fig2.eps,width=56.0mm}\end{center}\vspace*{-0.2mm}\caption{言語過程説(三浦)の言語モデル}\label{fig:miura}\end{figure} \section{三浦文法の言語観} 時枝は,「言語が対象−認識−表現からなる過程的構造をもつ」という言語過程説を提唱し,それを基に時枝文法という独自の日本語文法を構築した.時枝文法によれば,言語表現は話者の主観的な感情・要求・意志・判断などを直接的に表現した主体的表現と話者が対象を概念化して表現した客体的表現に分けられ,文は主体的表現が客体的表現を重層的に包み込んだ入れ子型構造で表わされる.時枝は,言語の本質を主体の概念作用にあるとし,言語の意味を主体の把握の仕方,すなわち対象に対する意味作用そのものとした.従って,言語表現に伴う言語規範(言語に関する社会的な約束事)とそれによる媒介の過程が無視され,認識を対象のあり方の反映とみる立場が貫かれなくなってしまい,言語による情報の伝達について,ソシュールのラングのような個人的な能力に基礎づけるところまで後退している.これに対して,三浦は言語の意味を対象/認識/表現の関係として捉えることなど,時枝の言語過程説にいくつかの修正を加え,独自の理論的展開を図った.三浦によれば,音声や文字の種類に結び付き固定された対象と認識の客観的な関係が言語の意味である.語は使われて(表現となって)始めて意味(関係)を生じる.従って,表現が存在すれば意味は存在し,表現(文字,音声)が消滅すれば言語規範に固定されていた対象と認識の関係,すなわち意味も消滅する.対象や認識そのものは意味ではなく,意味を形成する実体である.対象や認識が消滅しても,表現がある限り意味は存在する.意味は話者や聞き手の側にあるのではなく,言語表現そのものに客観的に存在する.三浦の言語過程説における言語モデルを図2に示す.三浦は,時枝の提起した“主体の客体化”(1人称の代名詞は主体そのものではなく,主体が客体化されたものとみなすこと)の問題を,対象の認識の立場から発展させ,主体の観念的自己分裂と視点の移動という観点から主体を捉えた.三浦によれば,一人称の表現は見たところ,自分と話者が同一の人間であるが,これを対象として捉えているということは,対象から独立して対象に立ち向かっている別の人間(主体の観念的自己分裂によって生じた観念的話者“もう一人の自分”)が存在していると考えるのである.三浦は,このような観念的話者による視点の移動を表すものとして,観念的世界が多重化した入れ子構造の世界の中を自己分裂によって生じた観念的話者が移動する入れ子構造モデル(図3参照)を提案している.このモデルによれば,たとえば,過去の否定表現は,(過去の仮想世界/過去の現実世界/現在の現実世界)の三重の入れ子構造で表される.\begin{figure}\begin{center}\epsfile{file=fig3.eps,width=96.5mm}\end{center}\caption{三浦の入れ子構造モデル}\label{fig:miura2}\end{figure} \section{日本語の品詞体系} 日本語は,膠着言語に分類される言語であり,小さな単位要素が次々と付着して表現を形成していくという特徴を持つ.これらの単位要素が結合し,表現構造を形成していく過程には一定の手順がある.言語過程説によれば,日本語の表現は客体的表現と主体的表現が入れ子になった構造として捉えることができる.ここで,表現の元となる対象世界を構成する一つの事象は,実体・属性・関係の3要素から構成される.これらに対する話者の認識を言語規範を介して表現に結び付けるときに最も基本となるのは,概念化された対象(実体・属性・関係)とそれを表現する単語(詞)との対応関係,ならびに概念化された対象に対する話者自身(主体)のあり方と単語(辞)との関係である.前者に対して詞が選択され,後者においてそれに辞が付加される.このようにして概念化された対象および主体と単語との結び付きが形成されると,次にそれらの相互関係が構造化され,認識された構造と表現構造との対応づけが行われる.この過程で単語と単語が統語規則に従って構造化され,文が形成される\cite{Ikehara1990}.三浦文法では他の多くの文法とは異なり,上記のような過程により形成される日本語文において,表現に用いられる単語を文構成上の機能や単語が表す内容で分類するのではなく,対象の種類とその捉え方で分類する.以下,三浦文法に基づく品詞分類の基本的考え方\cite{Miyazaki1992a,Ikehara1990,Shirai1992}について述べ,それに基づき作成した日本語の品詞体系を示す.\subsection{品詞の大分類}単語をまず以下のように客体/主体の観点から\underline{詞}と\underline{辞}に分ける.詞をさらに分類すると,一\\つの事象を表現するうえで必須である語とそうでない語の2種類がある.事象表現に必須である語は,表現の対象が実体か実体の属性かにより体言と用言に分けられる.\underline{体言}は実体・属性・関係からなる対象のうち実体を概念化したものである.実体は物理的実体と観念的実体がある.また,実体は立体的な構造を持ち,種々の側面があるため,どの側面から取り上げるかによって使用される体言も異なってくる.また,実体の構造に対応して体言間も構造的な関係を持つ.\hspace*{0.4mm}対象に立ち向かう主体\hspace*{0.2mm}(話者)も客体化して捉えた時は詞\hspace*{0.2mm}(体言)が用い\\られる.\hspace*{-0.2mm}普通の\hspace*{-0.2mm}\underline{名詞}が実体のあり方を捉えたものであるのに対して,\hspace*{-0.2mm}\underline{代名詞}は実体と主体との特\\殊な関係を表現する.\hspace*{-0.2mm}主体と対象の関係としては,\hspace*{-0.1mm}1.話者と話者の関係,\hspace*{-0.1mm}2.話者と聞き手の関係,3.話者と話題となる事物・場所方角・人間などとの関係の3種の関係がある.実体と実体,属性と属性,実体と属性の間には種々の関係が存在する.関係自体は,感覚的存在ではないので関係自体を概念的に対象化して名詞として用い,種々の関係は「\underline{上下}(の)関係」や「\underline{親子}のつなが\\り」などのように表現することが多い.実体の属性を概念化する\hspace*{-0.2mm}\underline{用言}\hspace*{-0.1mm}は,動的属性を表す\hspace*{-0.2mm}\underline{動詞}\hspace*{-0.1mm}と静的属性を表す\hspace*{-0.2mm}\underline{形容詞}\hspace*{-0.1mm}に分けられる.\\属性も,これを固定的に実体化して捉えた場合は,「大きさ」や「動き」などのように名詞化する.事象表現に必須でない語は,属性に属性を付加する\hspace*{-0.2mm}\underline{副詞}\hspace*{-0.1mm}と実体に属性を付加する\hspace*{-0.2mm}\underline{連体詞}\hspace*{-0.1mm}に分\\類される.なお,「\underline{もっと}右」の例のような名詞を修飾する語については,名詞の中の属性把握の部分を取り上げ,それに属性を付加しているとみなすことができるため副詞とする.話者の感情・意志・判断など対象に対する立場や対象から引き起こされる話者自身に関する認識を表す辞としては助詞や助動詞が用いられる.\underline{助詞}は対象(実体)に立ち向かう話者の立場を直接表現する.「花咲く」と言えば「花」と「咲く」との間の客観的な関係を捉えたものと見ることができるが,この関係は変わらないものの,「花\hspace*{-0.2mm}\underline{が}\hspace*{-0.1mm}咲く」「花\hspace*{-0.2mm}\underline{は}\hspace*{-0.1mm}咲く」「花\hspace*{-0.2mm}\underline{も}\hspace*{-0.1mm}咲く」と言えば,「花」に対する話者の立場が変化してくる.このように,助詞が実体に対する話者の捉え方,すなわち,対象(もの)と主体との関係に関する主体自身の認識を表すのに対して,\underline{助動詞}は対象(こと)との関係において話者自身の立場を表現するものと見ることができる.人間の認識は現実の世界だけを相手にするだけでなく,想像によって過去の世界や未来の世界,空想の世界などさまざまな世界に行き来する.このような話者の見る対象世界に対する話者の感情・意志・判断などを直接表現したものが助動詞である.他に,話者の感情や意志などを直接表現する\underline{感動詞},話者による事象間の関係認識を表現する\underline{接続詞},および話者の主観を強調する\underline{陳述副詞}が辞に分類される.以上の11品詞の他に,他の語(接辞承接語)に付加して別の意味や品詞性を付与する詞である\hspace*{-0.1mm}\underline{接辞}\hspace*{-0.1mm},文中に出現する句読点や繰返し記号などの\hspace*{-0.1mm}\underline{記号類}\hspace*{-0.1mm}の二つを加えて,図4に示すように合計13の品詞に大分類した.\begin{figure}\begin{center}\epsfile{file=fig4.eps,width=95.5mm}\end{center}\caption{三浦文法による日本語の品詞体系(大分類)}\label{fig:hinshi}\end{figure}\subsection{品詞分類の細分化}単語間の文法的接続関係の検定を精密に行い,形態素処理の精度を向上させるため,品詞の大分類を細分化して品詞を約400通りに分類した.細分化のポイントを以下に示す.\\(1)名詞実体を同種の他の実体と共通の側面,すなわちその一般性の側面で捉えた認識を表す\underline{普通名詞},実体をその固有性の側面で捉えた認識を表す\underline{固有名詞}(\underline{\underline{地名}},\underline{\underline{人名}},\underline{\underline{組織名}},\underline{\underline{その他の固有名詞}}),動的属性を固定的に実体化して捉えた認識を表す\underline{動作性名詞}(\underline{\underline{サ変動詞型名詞}},\underline{\underline{連用形名詞}},\underline{\underline{その他の動作性転生名詞}}),静的属性を固定的に実体化して捉えた認識を表す\underline{状態性名詞}(\underline{\underline{静詞}}<形容動詞語幹に対応・ダ型とタルト型がある>,\underline{\underline{状態性転生名詞}}<形容詞転生名詞\(<<\)例\hspace*{-0.15mm}:\hspace*{-0.2mm}寒さ,厚み\(>>\)・静詞転生名詞\(<<\)例\hspace*{-0.1mm}:\hspace*{-0.2mm}親切さ\(>>\)>,\hspace*{-0.2mm}\underline{\underline{連体詞型名詞}}\hspace*{-0.1mm}<例\hspace*{-0.15mm}:\hspace*{-0.3mm}大型,急性>),対象を具\\体的に取り上げることができなかったり,取り上げる必要がない場合などに,対象を最も抽象化して捉えた認識を表す\hspace*{-0.2mm}\underline{形式名詞}\hspace*{-0.2mm}(例\hspace*{-0.2mm}:\hspace*{-0.2mm}もの,こと,ため,ところ,とき,まま,際,場合|の・ん<準体助詞に対応>|よう<比況の助動詞「よう(だ)」に対応>|そう<伝聞の助動詞「そう(だ)」に対応>|みたい,ふう)に細分化した.その他に特殊なものとして,具体的な数や数量\\など\hspace*{-0.2mm}(例\hspace*{-0.2mm}:\hspace*{-0.2mm}1,2,・\hspace{-.5em}・\hspace{-.5em}・,2本)\hspace*{-0.2mm}単位性の認識を表す\underline{数詞},属性に属性を付加する副詞としても用い\\られる\underline{副詞型名詞}(\underline{\underline{時詞}}<例:今日,従来>,\underline{\underline{その他の副詞型名詞}}<例:全て,みんな,多数,一部>)を設定した.なお,静詞については格助詞(に・の・を)や肯定判断の助動詞「だ」の連体形「な」が後接するか否かを区別できるようにさらに細分化した.\\(2)代名詞\\~~\underline{人称代名詞}(例:私,彼),\underline{指示代名詞}(例:これ,あれ),\underline{疑問代名詞}(例:だれ,どれ)の区分を導入した.\\(3)動詞\underline{本動詞}/\hspace*{-0.2mm}\underline{形式動詞}\hspace*{-0.2mm}の区別(3.4の(9)参照),活用型(\hspace*{-0.2mm}\underline{\underline{五段}}/\hspace*{-0.2mm}\underline{\underline{一段}}/\hspace*{-0.2mm}\underline{\underline{サ変}}/\hspace*{-0.2mm}\underline{\underline{カ変}})の区別,\\五段動詞に対する活用行の導入により細分化した.またサ変動詞は,単独で用いる「する」「〜する(例:開発する,対する)」「〜ずる(例:論ずる)」を区別できるようにした.さらに,五段/一段動詞のうち,例外的活用をするもの(例:行く→行った,有る→有らない×,なさる→なさいます・なさい,問う→問うた,くれる→くれ)は,別品詞として区別できるようにした.\\(4)形容詞\\~~ウ音便の形態(例:にくい→にく\underline{う},あさい→あそ\underline{う},美しい→美し\underline{ゅう})により細分化した.\\(5)副詞属性をさらに具体的な面から捉えて別な語と結び付け叙述を立体化する\underline{情態副詞}(例:がたがた,ピカピカ),属性をさらに抽象的な面から捉えて別な語と結び付け叙述の程度を表す\underline{程度副詞}(例:ずっと,かなり)に細分化した.さらに,格助詞(に・と・の)や肯定判断の助動詞(だ・です)が後接するか否かを区別できるように細分化した.\\(6)連体詞\\~~指示代名詞が連体詞化した\underline{指示連体詞}(例:この,その),疑問代名詞が連体詞化した\underline{疑問連体詞}(例:どの,どんな),形容詞が連体詞化した\underline{形容詞的連体詞}(例:大きな),それ以外で外延の制約を表す\underline{限定連体詞}(例:ある,あらゆる)に細分化した.\\(7)接辞接辞承接語との接続形態により\underline{接頭辞}/\underline{接尾辞}/\underline{接中辞}(例:〜対〜)に中分類した.接頭辞については,接辞承接語の品詞により\underline{\underline{名詞接続型}}/\underline{\underline{動詞接続型}}(例:ぶち)/\\\underline{\underline{形容詞接続型接頭辞}}(例:もの|こ,ま|お)に小分類した.接尾辞については,接辞承接語+接尾辞で構成される複合語の品詞により\underline{\underline{名詞型}}/\underline{\underline{動詞型}}(例:れる,られる,せる,させる|がる,ぶる,めく,づく,つく,じみる,過ぎる|込む,始める,終わる,続ける,きる)/\underline{\underline{形容詞型接尾辞}}(例:たい|らしい,がましい,(っ)ぽい|やすい,よい,にくい,づらい,がたい)に小分類した.さらに,\cite{Nomura1978}を参考に接辞のより細かな文法的・意味的属性により以下のように細分化した.\\[細分化された名詞接続型接頭辞とその例]\\<普通名詞型>県,女,核\\<固有名詞型>東,新,奥\\<動詞型>超,反\\<形容詞型>大,新\\<連体詞型>各,全,同\\<副詞型>再,最,既\\<否定型>無,不,非,未\\<前置助数詞型>約,第\\<敬意添加型>御,ご\\[細分化された名詞型接尾辞とその例]\\<普通名詞型>者,人,たち\\<固有名詞型>市,さん,屋,号\\<動作性名詞型>\\\hspace*{3.5mm}\(<<\)サ変動詞型名詞型\(>>\)化,視|\\\hspace*{3.5mm}\(<<\)連用形名詞型\(>>\)行き,沿い|\\\hspace*{3.5mm}\(<<\)その他\(>>\)発,製\\<状態性名詞型>\\\hspace*{3.5mm}\(<<\)ダ型静詞型\(>>\)そう,げ,的|\\\hspace*{3.5mm}\(<<\)タルト型静詞型\(>>\)然|\\\hspace*{3.5mm}\(<<\)状態性転生名詞型\(>>\)さ,み,け|\\\hspace*{3.5mm}\(<<\)連体詞型名詞型\(>>\)性,用,風,型,式\\<後置助数詞型>個,番,%,\\<助数詞承接型>強,台,目\\<副詞型名詞型>\\\hspace*{3.5mm}\(<<\)時詞型\(>>\)前,後,間,内,中,時,がてら|\\\hspace*{3.5mm}\(<<\)その他\(>>\)上\\<代名詞型>たち,ら,自身\\なお,各型の接尾辞は細分化された名詞・動詞・形容詞の品詞体系と対応付けられている(例:普通名詞型接尾辞「者」は普通名詞に対応する).\\(8)接続詞\\~~接続対象により\underline{文接続詞}(例:しかし,ただし)/\underline{句接続詞}(例:または,および)の区別を導入した.\\(9)感動詞\\~~話者の呼びかけや感情を表す\underline{感嘆詞}(例:さあ,おや,まあ),相手の言葉に対する聞き手の応答を表す\underline{応答詞}(例:はい,ええ,いいえ)に細分化した.\\(10)助動詞\\~~話者の\hspace*{-0.2mm}\underline{肯定判断}\hspace*{-0.2mm}(だ,ある,です,ます,φ<零判断辞>)/\hspace*{-0.2mm}\underline{否定判断}\hspace*{-0.2mm}(ない,ぬ,まい)/\hspace*{-0.2mm}\underline{既定判断}\\[回想・確認](た<たり,て>,だ<だり,で>)/\underline{未定判断}[推量・意志](う,よう,らしい,べし)を表す助動詞に細分化した.\\(11)助詞実体のあり方の認識を表す\hspace*{-0.2mm}\underline{格助詞}(が,を,に,へ,と,から,より,まで,で,をば,って,して\\|の),認識に対する陳述の要求を表す\hspace*{-0.2mm}\underline{係助詞}(は,こそ,も,さえ,すら,でも,とて,しか,しも,\\ぞ,して),実体や認識に対する観念的前提の付加を表す\underline{副助詞}(は|など,なんか,なんて|まで,のみ,(っ)きり,くらい,ぐらい,だけ,ばかり,ほど,とも,ずつ|や,やら,か,なり,なりと),認識内容の確認を表す\underline{間投助詞}(ね(ぇ),さ(ぁ),よ(ぉ),な(ぁ),の(ぉ)|ってば,ったら,って|や,よ|だ,です,と)の他,事象間の関係づけを行う\underline{接続助詞}と話者の感情を伝達する\underline{終助詞}に中分類した.さらに,接続助詞は接続の型\cite{Ikehara1990,Minami1974,Minami1993},終助詞は伝達の方向\cite{Ikehara1990,Shirai1992,Saeki1983}により,それぞれ,以下に示すように3通りに細分化した.\\[接続助詞の細分化]\\<同時型>つつ,ながら\\<条件型>ば,と,に,ながら\\<展開型>が,から,けれど(も),けど(も),し\\[終助詞の細分化]\\<話者方向>\\\hspace*{3.5mm}\(<<\)強意\(>>\)ぜ,ぞ,わ,ね(ぇ),さ,よ,な,とも,ってば,ったら,って,っと,い,や|\\\hspace*{3.5mm}\(<<\)驚き\(>>\)わ\\<相手方向>\\\hspace*{3.5mm}\(<<\)疑問\(>>\)か,かしら,や,っけ|\\\hspace*{3.5mm}\(<<\)命令・勧誘\(>>\)な,ねぇ,い,たら,だら|\\\hspace*{3.5mm}\(<<\)禁止\(>>\)な|\\\hspace*{3.5mm}\(<<\)伝聞\(>>\)と,って|\\\hspace*{3.5mm}\(<<\)確認\(>>\)ね(ぇ),さ,よ|\\\hspace*{3.5mm}\(<<\)婉曲\(>>\)が,けれど(も),けど(も)\\<不定方向>\\\hspace*{3.5mm}\(<<\)詠嘆\(>>\)なぁ,わぁ,のぉ,に|\\\hspace*{3.5mm}\(<<\)不確定\(>>\)やら\\(12)記号類\\~~日本語文中に現れる記号類を,その機能に着目して以下のように細分化した.\\\underline{句点相当記号}(例:~。~?~!~.)\\\underline{読点相当記号}(例:~、~,)\\\underline{中点相当記号}(例:~・<空白>)\\\underline{引用符}(例:~「」『』‘’“”)\\\underline{括弧類}(例:~〈〉《》【】[]{}())\\\underline{補足記号類}(例:~…〓−)\\\underline{文頭記号}(例:◎○◇▽●☆)\\\underline{数式関連記号}(例:~,~.~〜—‐+−±×÷=≠<>≦≧*/)\\\underline{繰返し記号}(例:~ゝ~ゞ~ヽ~ヾ~々)\\\underline{その他の特殊記号}(例:~;~:~@~#)\subsection{活用形の扱い}動詞,形容詞,動詞型接尾辞,形容詞型接尾辞のような活用語の活用形は,従来の学校文法における6活用形を基本とし,以下の変更を加えた.\\(1)未然形を以下の2通りに細分化した.\\\hspace*{3mm}・未然形1:推量形[〜う,〜よう]\\\hspace*{3mm}・未然形2:否定形[〜ぬ,〜ない]\\(2)連用形を以下の3通りに細分化した.\\\hspace*{3mm}・連用形1:連用中止形[〜,〜ます]・連用修飾形\\\hspace*{3mm}・連用形2:音便形[〜た,〜だ」\\\hspace*{3mm}・連用形3:形容詞ウ音便形[〜ございます]\\(3)形容詞のカリ活用語尾は,以下のように扱う.\\\hspace*{3mm}・かろ(未然形1)→く(形容詞語尾・連用形1)\\\hspace*{3mm}+あろ(助動詞「ある」の未然形1)\\\hspace*{3mm}・かっ(連用形2)→く(形容詞語尾・連用形1)\\\hspace*{3mm}+あっ(助動詞「ある」の連用形2)\\(4)タルト型形容動詞活用語尾は,以下のように扱う.\\\hspace*{3mm}・と(連用形1)→と(格助詞)\\\hspace*{3mm}・たる(連体形)→と(格助詞)\\\hspace*{3mm}+ある(形式動詞「ある」の連体形)\subsection{学校文法との主な相違点}3.2〜3.3で示した品詞体系と学校文法との主要な相違点は,以下の通りである.\\(1)形容動詞を独立した品詞とはせず,名詞(静詞)+助動詞(肯定判断)「だ」/名詞(静詞)+格助詞「に」とした.\\(2)受身・使役の助動詞(れる,られる,せる,させる)は動的属性を付与する詞とし,動詞型接尾辞とした.\\(3)希望の助動詞(たい)は静的属性を付与する詞とし,形容詞型接尾辞とした.\\(4)伝聞の助動詞(そうだ),比況の助動詞(ようだ),様相の助動詞(そうだ)は助動詞とせず,それぞれ,形式名詞(そう,よう)/静詞型接尾辞(そう)+肯定判断の助動詞(だ)とした.\\(5)準体助詞(の),終助詞(の)は形式名詞とした.\\(6)接続助詞(ので,のに),終助詞(のだ)はそれぞれ,形式名詞(の)+[格助詞(で)/肯定判断の助動詞(だ)の連用形1(で)]/格助詞(に)/肯定判断の助動詞(だ)とした.\\(7)接続助詞(て,で,たり,だり)は既定判断の助動詞(た,だ)の連用形1とした.\\(8)補助動詞(ある),補助形容詞(ない)はそれぞれ,肯定判断の助動詞,否定判断の助動詞とした.例:本で\underline{ある}/\underline{ない},\\\hspace*{12mm}静かで\underline{ある}/\underline{ない},\\\hspace*{12mm}重く\underline{ない}\\\hspace*{12mm}書いて\underline{ある}/\underline{ない}\\(9)既定判断の助動詞の連用形1(て,で)に後接する動詞(いる,みる,くれる,あげる,くる,もらう,やる,しまう,おく,いく,下さる,いただく,…),形容詞連用形1/[静詞+格助詞(に)]に後接する動詞(する,なる),およびサ変動詞型名詞/連用形名詞に後接する動詞(する,できる,下さる,なさる,致す,申す,申し上げる,いただく,願う,たまう,…)は,形式動詞とする.例:走って\underline{いる},美しく\underline{なる},\\\hspace*{12mm}静かに\underline{なる},開発\underline{する} \section{形態素処理用の文法記述形式} 形態素処理における隣接単語間の文法的な接続検定には,通常各単語の辞書情報に前接コードと後接コードを持たせ,\hspace*{0.4mm}その二つの情報から前接コードと後接コード間の接続の可否を示す\\マトリックス形式の接続テーブルを用いることが多い.しかし,規則が簡潔に分かりやすく記述されておらず,例外的な接続をする単語に対しては,従来の規則との整合性を保ちながら,新しい前接・後接コードを付与したり,辞書情報を変更しなければならず,規則の追加・修正が容易でなく,規則のメンテナンス性が悪い.また,「良\hspace*{-0.2mm}\underline{さ}\hspace*{-0.1mm}そうだ」(形容詞に「そうだ」が接続する場合,通常形容詞語幹に直接「そうだ」が接続する<例:\hspace*{-0.2mm}楽しそうだ>が,「良い・無い」は接尾\\辞「さ」を介して接続する)のように,2項関係だけでなく,3項関係もチェックしなければならないような例外的な接続に対応できない.そこで,このような問題を解決するものとして,以下に述べるような形態素処理用の文法記述形式(接続ルール)を提案する.この接続ルールは基本的には,ある品詞\(P_{0}\)の直後(接尾辞などで直前の語の品詞などが問題となる場合には直前)に文法的に接続可能な全ての品詞\(q_{1},q_{2},---q_{m}\)をリスト形式で記述し,そのリストと\(p_{0}\)を対にして,\(\underline{((p_{0})((q_{1})(q_{2})---(q_{m})))}\)の形で定義したもの(ルール文)の集合であり,必要に応じて3項以上の関係にも簡単に拡張できる.文法記述においては,規則の追加・修正が容易であること,例外的な規則を記述しやすいこと,規則を簡潔に分かりやすく記述できることなどを考慮し,以下のような点を工夫した.\\(1)接続ルールの記述量の削減\begin{itemize}\item\(\underline{((s_{0}):((r_{1})(r_{2})---(r_{n})))}\)の形[\(s_{0}\):定義文番号(=定義文識別子\underline{F}と通番),\(r_{j}\):品詞]の定義文を導入し,ルール文の\((q_{i})\)の位置に\((s_{0})\)がある場合,\((s_{0})\)を\((r_{1})(r_{2})---(r_{n})\)で置換可であることを表す.\item\(\underline{((p_{i})=(q_{j}))}\)の形[\(p_{i},p_{j}\):品詞]の同格文を導入し,\(p_{i}\)は\(q_{j}\)と同じ接続をすることを表す.\item文頭,文末,句境界[句は詞(接頭辞以外の接辞・形式名詞・形式動詞は除く),接続詞,感動詞,陳述副詞で始まる.用言・体言が後接するか否かにより4種の句境界に分類]には,文頭,文末,句境界であることを表す架空単語が存在するものとし,それらに特別の品詞を設定した.それらは,ルール文,定義文などにおける規則の記述において,通常の品詞と同様に扱う.日本語では,単語間の文法的接続条件は,句内に比べて句境界では厳しくなく,句境界をまたがって接続可能な多くの品詞対がある.このような句境界をまたがって接続する品詞を句境界架空単語を介して接続するとみなすことにより,接続ルールの記述量を大幅に削減できるだけでなく,これを句境界の検出情報としても利用できる.\item4桁の16進数で表示される品詞コード(上位3桁は品詞<1桁目は品詞の大分類を表す>,下位1桁は活用形を表す)の2〜4桁目には,ワイルドカード文字(X,Y,Z<0〜fの任意の値>/x,y,z:<1〜fの任意の値>)が使え,これによりいくつかの品詞コードをまとめて記述できる.また,X,Y,Z,x,y,zのとる値を1xyz/\underline{y=1,3,4の}ように指定できる.\end{itemize}(2)例外的な規則の記述\begin{itemize}\item品詞では表現できず,各単語に依存するような例外的規則をも前接・後接コードなどを用いずに記述するため,品詞\(q_{i}\)と共に単語の字面(表記のゆれがある場合にはそれらの代表形である標準表記)を接続ルールに記述できるようにした.例:(\(q_{i}\)\underline{"同じ"})\item形容詞のウ音便において形容詞の語幹の末尾が変化する場合(例:あ\hspace*{-0.2mm}\underline{さ}\hspace*{-0.2mm}い→あ\hspace*{-0.2mm}\underline{そ}\hspace*{-0.2mm}う),単\hspace*{0.05mm}語\hspace*{0.05mm}辞\hspace*{0.05mm}書\hspace*{0.05mm}中\hspace*{0.05mm}の\hspace*{0.05mm}各\hspace*{0.05mm}単\hspace*{0.05mm}語\hspace*{0.05mm}の\hspace*{0.05mm}素\hspace*{0.05mm}性\hspace*{0.05mm}情\hspace*{0.05mm}報\hspace*{0.05mm}を\hspace*{0.05mm}用\hspace*{0.05mm}い\hspace*{0.05mm}た\hspace*{0.05mm}素\hspace*{0.05mm}性\hspace*{0.05mm}チ\hspace*{0.05mm}ェ\hspace*{0.05mm}ッ\hspace*{0.05mm}ク\hspace*{0.05mm}に\hspace*{0.05mm}よ\hspace*{0.05mm}り\hspace*{0.05mm}接続判定を行う必要がある場\\合(例:ある形容詞語幹に接尾辞<\hspace{-0.2mm}さ,\hspace{-0.2mm}み,\hspace{-0.2mm}・\hspace{-.5em}・\hspace{-.5em}・\hspace{-0.1mm}>\hspace{-0.1mm}が\hspace*{-0.05mm}接\hspace*{-0.05mm}続\hspace*{-0.05mm}す\hspace*{-0.05mm}る\hspace*{-0.05mm}か\hspace*{-0.05mm}否\hspace*{-0.05mm}か\hspace*{-0.05mm})\hspace*{-0.05mm}など例外的処理を行\\うため,接続ルールからある種の手続きの起動を指示するような情報(手続き識別子\underline{\$}と手続き名)を品詞\(q_{i}\)と共に接続ルール中に記述できるようにした.例:(\(q_{i}\)/\underline{\$uonbin})\item規則の適用性や優先度を示す接続確率(確率識別子\underline{*}と確率値<0〜1>,本情報を省略した場合は1とみなす)を導入し,例外的な接続をする場合にその規則の適用性が変化したり,通常,あまり適用されない規則であることなどを記述できるようにした.例:\(((p_{0})((q_{1})(q_{2})--(q_{i}~\underline{*0.5})--(q_{m})))\)・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・(a)\\~~~~~\(((p_{0})((q_{1})(q_{2})---(q_{m}))~\underline{*0.1})\)・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・\hspace{-.6em}・(b)\\~~~~~~~(a):品詞\(p_{0}\)と品詞\(q_{i}\)の接続確率=0.5\\~~~~~~~(b):品詞\(p_{0}\)と品詞\(q_{i}\)(i=1〜m)の接続確率=0.1\end{itemize}(3)接続ルールの拡張性\begin{itemize}\item品詞\hspace*{-0.1mm}\(p_{0}\)\hspace*{-0.1mm}に関する一般ルール\hspace*{-0.1mm}\(((p_{0})((q_{1})(q_{2})---(q_{m})))\)\hspace*{-0.1mm}の他に,品詞\hspace*{-0.1mm}\(p_{0}\)\hspace*{-0.1mm}の例外ルール(単\\語の字面が指定されたもの,3項以上の関係を記述したものなど)がある場合,例外ルールを一般ルールの前に置いて一般ルールより高い優先順位を与え,形態素処理における接続検定において,一般ルールより先に例外ルールを先に適用し,例外ルールの適用失敗時に初めて一般ルールを適用することとした.これにより,既存の一般ルールを修正することなく例外ルールを追加することができる.また,一般ルール自身の修正も,\((q_{i})\)の変更・例外化(単語の字面指定化など),新しい\((q_{i})\)の追加などにより,他のルール文に影響を与えることなく局所的修正で済ませることができる.以上により,接続ルールの拡張が容易となった.\item接続ルールには,前接/後接コードを用いないため,これらのコードの付与,単語辞書への収録が不要となり,規則の追加,修正が容易になった.\end{itemize}ここで,接続ルールは人間にとって見やすく,メンテしやすく作られているが,これをそのまま形態素処理における単語接続検定に用いると,処理効率が低下する.そこで,接続ルールをこれと等価で単語接続検定が高速に行える形式の接続表{\((\underline{p_{i}},\underline{q_{j}}\),(\underline{\underline{\(p_{i}\)の字面}})(\underline{\underline{\(q_{j}\)の字面}}),(接続確率),(\(p_{i},q_{j}\)の手続き名))}\hspace*{-0.2mm}<\(p_{i},q_{j}\)はそれぞれ前接品詞・後接品詞で,ワイルドカード文字や句境\\界架空単語の品詞を用いず,\hspace*{-0.1mm}定義文・同格文による品詞の置換済みである,()は省略可,\hspace*{-0.1mm}\underline{}\hspace*{-0.1mm}や\hspace*{-0.1mm}\underline{\underline{}}\hspace*{-0.1mm}\\の部分をそれぞれ主キー,副キーとして接続表を検索できるようになっている.3項以上の関係は別形式で記述>に変換することとし,接続ルールから接続表を自動生成するツール(接続表ジェネレータ)を作成し,形態素処理系において,接続表を用いて単語接続検定を高速に行えるようにした. \section{本品詞体系の効用} 本品詞体系は,三浦文法をベースに作成されており,構文構造として,従来の句構造や係り受け構造とは異なった三浦の入れ子構造を想定している.従って,三浦の入れ子構造と親和性が良く,以下のような日本語処理系の実現が期待できる.\\(1)多目的利用型の日本語形態素処理用文法きめ細かい品詞分類に基づく形態素処理用の日本語文法により,単語間の文法的接続チェックを厳密に行えるので,本日本語文法を正しい文の解析だけでなく,正しい文の生成や入力文の誤り検出など多目的に利用可能となる.3で提案した約400通り(大分類=13)の品詞体系に基づき,実際に網羅的な日本語形態素処理用文法を作成した.種々の日本語表現を含む日英機械翻訳用機能試験文(3300文)\cite{Ikehara1990}を用いて形態素解析システム\cite{Takahashi1993}上で形態素解析実験を行った.本実験においては,例外的な規則をも含む文法の記述のしやすさ,規則の追加・修正など文法の拡張のしやすさなどを,文法規則や辞書の修正,文法規則や辞書への単語の追加を行いながら確認した.その結果,例外的な規則も含めて文法を簡潔に記述できるため,文法規則がコンパクトとなるだけでなく(ルール数=374),規則の追加・修正が容易で拡張性の点で優れていることなど,本品詞体系および形態素処理用の文法記述形式の有効性を確認できた.また,本実験に用いた3300の機能試験文には日本語の種々の表現を網羅しているため,本実験によりかなり精度の良い文法を実現できたと考えている.\\(2)意味と整合性のよい構文解析\begin{figure}\begin{center}\epsfile{file=fig5.eps,width=104.0mm}\end{center}\caption{構文解析結果と意味との整合性}\label{fig:syntax}\end{figure}現在,主流となっている文節構文論(学校文法)に基づく日本語パーザでは構文解析結果が一般に意味と整合性が良くなく,時枝文法風の構文解析の方が解析結果に則って意味がうまく説明できることが指摘されている\cite{Mizutani1993}.本文法は時枝文法を発展的に継承した三浦文法を採用しているので,意味と整合性の良い構文解析を行うことができる.例えば,「山を下り,村に着いた」は,学校文法風に解析すれば,図5(a)のような意味的におかしい解析結果を得るが,三浦文法風に解析すれば,図5(b)のように意味的に正しい解析ができる(助動詞「た」のスコープは,(b)の場合動詞「下る」と「着く」を含む文全体となるが,(a)の場合動詞「着く」のみとなる).また,「太郎は今日山を下り,村に着いた」は,学校文法風の係り受け解析では,図5(c)のように「太郎は」「今日」の係り先は「下り」か「着いた」のどちらか一方となるが(通常,係り受け解析では係り受けの曖昧さの爆発的増大を抑止するため,係り受けの非交差条件と係り先は1つであるという制約をもうけている),三浦文法風に解析すれば,図5(d)のように「太郎は」「今日」が共に「下り」「着い」の両方に係っているという意味的にも正しい解析結果を入れ子構造により自然に表現することができる.\\(3)微妙なニュアンスの違いを解析できる構文・意味解析助詞の使い分けによって生じる微妙なニュアンスの違いは,格助詞を単に用言に対する実体の関係(格関係)として捉えている限り解析できない.三浦の助詞論\cite{Miura1967a,Miura1967b,Miura1972,Miura1975,Miura1976}によれば,格助詞「が」は実体の個別性,係助詞「は」は実体の普遍性,副助詞「は」は実体の特殊性を表す.例えば,「鳥が飛ぶ」は発話者の目前にいるインスタンス(個体)としての「鳥」を取り上げているのに対して,「鳥は飛ぶ」はクラス(種)としての「鳥」を取り上げているし,「太郎は学生です」と「太郎が学生です」は微妙なニュアンスの違いがある\cite{Miyazaki1993}.次に,連続した辞が付加されている述語の構造を考える.「読みませんでした」と「読まなかったです」を例にとり両者の構造を比較する.ただし,「読む」はその否定形「読まない」と比べ肯定と見ることができるので,このような肯定をφ判断辞で表現し,また「なかっ」は「ない+ある」と分けて考える.この上で,三浦が指摘した観念的世界の多重化に基づいて述語構造を考察すると図6のようになる.すなわち,「読む」の後に,肯定・否定・肯定・既定・肯定の順に話者の判断が重畳されている点ではまったく同じ構造となっている.ただし,陽に表現された語とφ判断辞の違いから,丁寧さと断定の度合いに微妙な差が生じていると考えられる.\begin{figure}\begin{center}\epsfile{file=fig6.eps,width=100.0mm}\end{center}\caption{連続した辞が付加された述語の入れ子構造}\label{fig:jutsugo}\end{figure}このように,三浦文法の品詞体系やそれに基づく入れ子構造により,助詞の使い分けや連続した辞によって表現される微妙なニュアンスの違いを解析できるようになる.\\(4)二つの品詞性のある語を自然に扱える構文解析一語が二つの品詞性を持つ場合(一語が体と用を兼ねて使われる場合等)の例として「本を読みはしない」をとりあげる.話者は「本を読む」という事象を取り上げ,「は」で特殊性という主体判断を下した後,その動作に対して否定の判断を下している.ここで,事象の特殊性を表すために,取り上げた事象全体の捉え直しも行われ,実体化(体言化)が行われている.すなわち,この表現は図7(a)のような入れ子構造と見ることができる.「読む」は二重線の内側の世界では動詞として働いているが,その外の世界の構成要素で体言の一部分を構成していると考えられる.\begin{figure}\begin{center}\epsfile{file=fig7.eps,width=114.5mm}\end{center}\caption{二つの品詞性のある語を含む文の入れ子構造}\label{fig:futatsu}\end{figure}\begin{figure}\begin{center}\epsfile{file=fig8.eps,width=94.0mm}\end{center}\caption{入れ子破りが起こる文の入れ子構造}\label{fig:yaburi}\end{figure}このように,実際の表現の場面では,ある品詞属性を持つ単語が組み合わさって文要素が構成されるという単純な図式では説明できないと思われるものを図7(a)〜(b)のように入れ子構造により自然に扱うことができる.\\(5)入れ子破りの表現を解析できる構文解析係り受けが交差し入れ子破りが生じる場合,句構造解析では構文木が生成されない.一方,係り受け解析では,係り受け構造が得られるが,係り受けの曖昧さが爆発的に増大してしまう.三浦の入れ子構造では,「本を決して読まない」「うなぎを浜松に食べに電車で行った」など入れ子破りが生じる場合,主体表現である陳述副詞「決して」と否定の助動詞「ない」との呼応,および格要素「浜松に」が直近の動詞「食べる」に係らず,後方の動詞「行く」に係るという点に着目して,図8(a)〜(b)のように入れ子構造化できる.\\(6)意味の単位としてのフレーズが切り出し可能統語構造と意味は一体化したものであり,これを独立に扱おうとすれば,構造のもつ意味が欠落する.各部分はそれを含む上位の構造の中に位置づけられて始めて意味を持つ.従って,部分を全体の中で位置づけて解析を進めることが必要である.三浦の入れ子構造モデルでは,内側の入れ子はそれを包含するより大きな入れ子の部分となっており,上位の構造の中に自然に位置づけられている.そこで,このような入れ子を意味のまとまった単位(フレーズや慣用表現)に翻訳しようとするフレーズ翻訳方式や多段翻訳方式\cite{Ikehara1987,Ikehara1992}などにおける意味の単位とすることができると考える. \section{むすび} 時枝文法を発展的に継承した日本語文法である三浦文法に基づき,単語を対象の捉え方で分類することにより,日本語の品詞の体系化を行い,品詞を約400通り(大分類数:13)に分類した品詞体系を作成すると共に,規則の追加・修正が容易で拡張性に富む形態素処理用の文法記述形式を提案し,それらの有効性を論じた.本論文で提案した品詞体系に基づき,実際に網羅的な日本語形態素処理用文法(ルール数=374)を作成し,種々の日本語表現を網羅した日英機械翻訳用機能試験文(3300文)を用いた形態素解析実験により,本文法の改良を進めると共に,本品詞体系および形態素処理用の文法記述形式の有効性を確認した.今後,本文法を組込んだ形態素解析システムの定量的評価を進めると共に,構文解析用文法規則を作成する予定である.\vspace*{10mm}\acknowledgment接続表ジェネレータの作成や形態素解析実験にご協力いただいた,高橋大和君(現NTTコミュニケーション科学研究所勤務),宍倉祐司君,前川忠嘉君をはじめとする,新潟大学工学部情報工学科・宮崎研究室の学生諸君に深謝する.\begin{thebibliography}{}\bibitem[\protect\BCAY{Barwise\BBA\Perry}{Barwise\BBA\Perry}{1983}]{Barwise1983}Barwise,J.\BBACOMMA\\BBA\Perry,J.\BBOP1983\BBCP.\newblock{\JBOQSituationandAttitudes\JBCQ}\newblockMITPress.\bibitem[\protect\BCAY{池原,宮崎,白井,林}{池原,宮崎,白井,林}{1987}]{Ikehara1987}池原,宮崎,白井,林\BBOP1987\BBCP.\newblock\JBOQ言語における話者の認識と多段翻訳方式\JBCQ\\newblock\Jem{情処論},{\Bbf28}(12),1269--1279.\bibitem[\protect\BCAY{池原,白井}{池原,白井}{1990}]{Ikehara1990}池原,白井\BBOP1990\BBCP.\newblock\JBOQ日英機械翻訳機能試験項目の体系化\JBCQ\\newblock\Jem{信学技報},{\BbfNLC90-43},17--24.\bibitem[\protect\BCAY{池原}{池原}{1991}]{Ikehara1991}池原悟\BBOP1991\BBCP.\newblock\JBOQ言語表現の意味\JBCQ\\newblock\Jem{人工知能学会誌},{\Bbf6}(2),290--291.\bibitem[\protect\BCAY{池原,宮崎,白井}{池原,宮崎,白井}{1992}]{Ikehara1992}池原,宮崎,白井\BBOP1992\BBCP.\newblock\JBOQ言語過程説から見た多段翻訳方式の意義\JBCQ\\newblock\Jem{自然言語処理の新しい応用シンポジウム論文集,ソフトウェア科学会/電子情報通信学会},139--140.\bibitem[\protect\BCAY{南}{南}{1974}]{Minami1974}南不二男\BBOP1974\BBCP.\newblock\Jem{現代日本語の構造}.\newblock大修館書店.\bibitem[\protect\BCAY{南}{南}{1993}]{Minami1993}南不二男\BBOP1993\BBCP.\newblock\Jem{現代日本語文法の輪郭}.\newblock大修館書店.\bibitem[\protect\BCAY{三浦}{三浦}{1967a}]{Miura1967a}三浦つとむ\BBOP1967a\BBCP.\newblock\Jem{認識と言語の理論,第一部}.\newblock勁草書房.\bibitem[\protect\BCAY{三浦}{三浦}{1967b}]{Miura1967b}三浦つとむ\BBOP1967b\BBCP.\newblock\Jem{認識と言語の理論,第二部}.\newblock勁草書房.\bibitem[\protect\BCAY{三浦}{三浦}{1972}]{Miura1972}三浦つとむ\BBOP1972\BBCP.\newblock\Jem{認識と言語の理論,第三部}.\newblock勁草書房.\bibitem[\protect\BCAY{三浦}{三浦}{1975}]{Miura1975}三浦つとむ\BBOP1975\BBCP.\newblock\Jem{日本語の文法}.\newblock勁草書房.\bibitem[\protect\BCAY{三浦}{三浦}{1976}]{Miura1976}三浦つとむ\BBOP1976\BBCP.\newblock\Jem{日本語とはどういう言語か}.\newblock講談社.\bibitem[\protect\BCAY{三浦}{三浦}{1977}]{Miura1977}三浦つとむ\BBOP1977\BBCP.\newblock\Jem{言語学と記号学}.\newblock勁草書房.\bibitem[\protect\BCAY{宮崎,池原,白井}{宮崎,池原,白井}{1992}]{Miyazaki1992a}宮崎,池原,白井\BBOP1992\BBCP.\newblock\JBOQ言語の過程的構造と自然言語処理\JBCQ\\newblock\Jem{自然言語処理の新しい応用シンポジウム論文集,ソフトウェア科学会/電子情報通信学会},60--69.\bibitem[\protect\BCAY{宮崎}{宮崎}{1992}]{Miyazaki1992b}宮崎正弘\BBOP1992\BBCP.\newblock\JBOQ言語を理解するコンピュータ自然言語技術の展望\JBCQ\\newblock\Jem{コンピュートロール}.\newblockコロナ社,(37),75-81.\bibitem[\protect\BCAY{宮崎,高橋}{宮崎,高橋}{1993}]{Miyazaki1993}宮崎,高橋\BBOP1993\BBCP.\newblock\JBOQ話者の対象認識過程からみた助詞「が」「は」の意味分析\JBCQ\\newblock\Jem{情報処理学会第46回全国大会},{\Bbf3}(1B--8).\bibitem[\protect\BCAY{水谷}{水谷}{1993}]{Mizutani1993}水谷静夫\BBOP1993\BBCP.\newblock\JBOQ意味・構文の関係を考へる九十例\JBCQ\\newblock\Jem{計量国語学},{\Bbf19}(1),1--14.\bibitem[\protect\BCAY{野村}{野村}{1978}]{Nomura1978}野村雅昭\BBOP1978\BBCP.\newblock\JBOQ接辞性字音語基の性格\JBCQ\\newblock\Jem{国立国語研究所報告,(61)},102--138.\bibitem[\protect\BCAY{佐伯}{佐伯}{1983}]{Saeki1983}佐伯哲夫\BBOP1983\BBCP.\newblock\JBOQ語順と意味\JBCQ\\newblock\Jem{日本語学},{\Bbf2}(12),30--38.\bibitem[\protect\BCAY{白井,宮崎,池原}{白井,宮崎,池原}{1992}]{Shirai1992}白井,宮崎,池原\BBOP1992\BBCP.\newblock\JBOQ言語過程説から見た日本語述語の構造\JBCQ\\newblock\Jem{自然言語処理の新しい応用シンポジウム論文集,ソフトウェア科学会/電子情報通信学会},141--142.\bibitem[\protect\BCAY{高橋,佐野,宍倉,前川,宮崎}{高橋\Jetal}{1993}]{Takahashi1993}高橋,佐野,宍倉,前川,宮崎\BBOP1993\BBCP.\newblock\JBOQ頑健性を目指した日本語形態素解析システムの試作\JBCQ\\newblock\Jem{自然言語処理における実働シンポジウム論文集,電子情報通信学会/ソフトウェア科学会},1--8.\bibitem[\protect\BCAY{時枝}{時枝}{1941}]{Tokieda1941}時枝誠記\BBOP1941\BBCP.\newblock\Jem{国語学原論}.\newblock岩波書店.\bibitem[\protect\BCAY{時枝}{時枝}{1950}]{Tokieda1950}時枝誠記\BBOP1950\BBCP.\newblock\Jem{日本文法口語篇}.\newblock岩波書店.\end{thebibliography}\newpage\section*{付録}\begin{center}\epsfile{file=app1.eps,width=84.0mm}\end{center}\newpage\begin{center}\epsfile{file=app2.eps,width=84.0mm}\end{center}\newpage\begin{center}\epsfile{file=app3.eps,width=81.0mm}\end{center}\begin{biography}\biotitle{略歴}\bioauthor{宮崎正弘}{1969年東京工業大学工学部電気工学科卒業.同年日本電信電話公社に入社.以来,電気通信研究所において大型コンピュータDIPSの開発,コンピュータシステムの性能評価法の研究,日本文音声出力システムや機械翻訳などの自然言語処理の研究に従事.1989年より新潟大学工学部情報工学科教授.自然言語理解,機械翻訳,辞書・シソーラスなど自然言語処理用言語知識の体系化などの研究に従事.工学博士.電子情報通信学会,情報処理学会,人工知能学会,各会員}\bioauthor{池原悟}{1967年大阪大学基礎工学部電気工学科卒業.1969年同大学大学院修士課程修了.同年日本電信電話公社に入社.以来,電気通信研究所において数式処理,トラヒック理論,自然言語処理の研究に従事.現在,NTTコミュニケーション科学研究所池原研究グループ・リーダ(主幹研究員).工学博士.1982年情報処理学会論文賞,1993年情報処理学会研究賞受賞.電子情報通信学会,情報処理学会,人工知能学会,各会員}\bioauthor{白井諭}{1978年大阪大学工学部通信工学科卒業.1980年同大学大学院博士前期課程修了.同年日本電信電話公社入社.以来,電気通信研究所において日英機械翻訳を中心とする自然言語処理の研究に従事.現在,NTTコミュニケーション科学研究所主任研究員.電子情報通信学会,情報処理学会,各会員}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V09N04-02
\section{はじめに} 本稿では,テキスト要約の自動評価手法について述べる.テキスト自動要約に関する研究は,テキスト中の表層的な情報から重要な箇所を判断し重要な部分のみを抽出するLuhn等,Edmundson等の研究\cite{H.P.Luhn.58,H.P.Edmundson.69}に始まり,現在も様々な方法が提案されている\cite{C.D.Paice.90,C.Aone.98}.ここ数年はインターネットの急速な普及に伴って,国内外での研究活動が非常に活発になっている\cite{M.Okumura.99J,I.Mani.00}.テキスト要約の研究において,評価の重要性は言うまでもない.最も信頼性が高いのは要約の経験者が直接要約を見て評価する方法であるが,コストが非常に大きいというデメリットがある.このためより低コストで効率の良い方法として,要約の経験者によって作成された要約を正解とし,正解との一致度を機械的に評価する方法が一般によく用いられる.しかし,要約は観点や戦略などの違いから,同じテキストに対しても複数の要約者から得られる結果は多様であることが知られている\cite{G.J.Rath.61,K.S.Jones.96,H.Jing.98,K.Saito.01J}.要約タスクにおいて唯一の理想的な要約が存在するという前提は現実には成り立たず,それゆえ唯一の正解に基づく評価では,対象の評価結果が正解との相性に影響され易いという問題がある.本稿では,このような従来法の問題点を踏まえ,複数の正解に基づく信頼性の高い評価法の提案を行なう.さらに,正解として用いる要約集合の満たすべき条件について,要約の品質と網羅性の観点から検討を試みる.提案手法は重要文抽出結果を評価することを前提に定式化されているが,手法の基本的アイデアや検討内容の多くはテキスト要約一般に共通するものである. \section{唯一の理想的な要約を正解とする評価法の問題} まず,要約の自動評価に関する従来方法について検討する.従来の評価方法としては,各テキストごとに人間が{\bf唯一の理想的な要約}を作成し,これを正解とする方法が一般的である.要約システムの出力の妥当性を測る尺度は,正解からの単語や文字に基づく編集距離,単語ベクトルの内積,抽出単位(文,文節など)の適合率,再現率,F値などがタスクに応じて用いられている.テキスト要約のコンテストであるNTCIR-2TSC\cite{T.Fukusima.01}では,重要文抽出タスクの評価において,抽出文に関する再現率R(=要約中の正解文数/要約中の文数)と適合率P(=要約の正解文数/正解要約の文数)に基づく次のようなF値を用いている.\begin{equation}F=\frac{2\cdotR\cdotP}{R+P}\end{equation}この重要文抽出タスクでは,毎日新聞記事データ\footnote{毎日新聞全文記事データベースCD-毎日新聞94年版,98年版(毎日新聞社提供)}中の30記事からなる評価セットが用いられた.各記事データはヘッドライン,文,パラグラフのタグを含み,専門家が作成した要約率10\%,30\%,50\%での重要文抽出結果が正解として与えられている.この評価セットの一記事の平均文数$\bar{N}$は33.1であり,各タスクに対する実際の要約率の平均値$\bar{p}$,抽出文数の平均値$\bar{n}$,無作為な文抽出によって得られる要約のF値の期待値$E(\tildeF_{Random})$,および標準偏差$\sigma(\tildeF_{Random})$は表\ref{table-np-test}に示す通りである.\begin{table}\begin{center}\caption{評価セットの性質}\begin{tabular}{|l||c|c|c|}\hline一記事あたりの平均文数&\multicolumn{3}{c|}{要約率}\\\cline{2-4}$\bar{N}=33.1$&$10\%$&$30\%$&$50\%$\\\hline\hline実際の要約率の平均値$\bar{p}$&0.105&0.315&0.536\\\hline抽出文数の平均値$\bar{n}$&3.40&10.03&16.93\\\hline期待値$E(\tildeF_{Random})$&$0.105$&$0.315$&$0.536$\\\hline標準偏差$\sigma(\tildeF_{Random})$&0.160&0.124&0.086\\\hline\end{tabular}\label{table-np-test}\end{center}\end{table}ここで,表中のF値の期待値,分散は理論値であり,次の計算により求めた.まず$N$文からなるテキストに対し,要約率p$(0<p<1)$での重要文抽出の正解,すなわち$Np$(正の整数)文の重要文が与えられている.同じテキストから$n$文の無作為抽出により要約を作成した場合,その中に含まれる正解文の数$k$は,超幾何分布$HG(n,p;N)$に従う.正解と同じ文数$n=Np$を無作為に抽出する場合,F値($F=\frac{k}{n}$)の期待値$E(\tildeF)$と分散$V(\tildeF)$は$k$に関する確率分布$f(k|n,p,N)$を用いて次のように表される.表\ref{table-np-test}に示した無作為な文抽出によるF値の期待値$E(\tildeF)$と標準偏差$\sigma(\tildeF_{Random})$\footnote{標準偏差は関係式$\sigma(\tildeF_{Random})=\sqrt{V(\tildeF_{Random})}$に基づく.}の値は,これらの関係式に$\bar{N}$,$\bar{n}$,$\bar{p}$を適用して求めた.\begin{eqnarray}\begin{array}{lllll}E(\tildeF)&=&\sum_{k=0}^{n}F\cdotf(k|n,p,N)\;=\;p&&\\V(\tildeF)&=&\sum_{k=0}^{n}\left(F-E(\tildeF)\right)^2\cdotf(k|n,p,N)&=&\frac{p(1-p)}{n}\cdot\frac{N-n}{N-1}\\\end{array}\end{eqnarray}さて,図\ref{NTCIR-results}にNTCIR-2TSCの重要文抽出タスクでのこの評価セットにおける各参加システムの評価結果を示す\cite{T.Fukusima.01}.ここで縦軸はF値を表し,横軸上のシステム1$\sim$10およびLEAD,TFは,それぞれタスクにおける各参加システム,およびベースラインシステムの結果を表す.3種類ある棒グラフは凡例が示すように,それぞれ要約率$10\%$,$30\%$,$50\%$での結果を表している.\begin{figure}\begin{center}\epsfile{file=fig/NLP-figs-NTCIR-results.eps,scale=0.4}\caption{評価セットにおける各参加システムのF値}\label{NTCIR-results}\end{center}\end{figure}特に要約率$50\%$での各参加システムのF値に注目すると,各値は$0.58$を中心に差が$0.05$以内と,分散の小さな分布になっている.この値は,先程の表\ref{table-np-test}中の無作為な文抽出によるF値の分布$0.536\pm0.086$に非常に近いため,この結果に基づく各システムの性能比較は信頼性が低いと考えられる.一方,要約率$10\%$,$30\%$での各システムの結果は,ランダムな文抽出による分布を明らかに上回っており,各システムの性能差が評価に現れている.これらの評価結果を解釈する上で,評価の方法自体の信頼性についても検討する必要がある.上記のF値による評価結果が十分信頼できる場合,要約率50\%ではいずれのシステムも性能が低いため,有意な要約結果が得られていないという解釈になる.しかし,評価方法自体の信頼性を疑うという観点に立てば,上記の評価結果で各評価システムの評価が同様に低く有意な差が現れていないのは,要約を機械的に評価する上での本質的な困難が顕現しているためと見ることもできる.要約タスクからテキストの主題に関する理解や要約の観点といった主観的な要素を排除することは不可能であり,テキストの要約において{\bf唯一の理想的な正解}が存在するという前提は現実的とは言えない.この点において,唯一の正解に基づく評価方法では,評価結果が正解と評価対象の相性によって左右されるという問題が懸念される.すなわち,正解との類似性に基づく評価であるために,正解と要約の観点や戦略が一致していなければ有意な評価結果が得られないという問題である.この問題は,特に抽出文の組み合わせ数が最大となる要約率50\%では,異なる観点や戦略に基づく多様な要約が可能なためより顕著に現れると予想される. \section{複数の正解に基づく評価手法} \subsection{従来の評価の仕組みと問題点}\begin{figure}\begin{center}\epsfile{file=fig/NLP-figs-summary-adequacy.eps,scale=0.35}\caption{重要文抽出の評価の仕組み(概念図)}\label{summary-adequacy}\end{center}\end{figure}ここでは,まず重要文抽出における従来の評価方法の仕組みと問題点について,定性的な議論を行なう.以降では図\ref{summary-adequacy}に示すような概念図を用いる.図中の水平方向の広がりはN文のテキストからのn文の抽出によって得られる可能な要約の集合を表し,この広がり上の各点は要約集合中の各要約を表している.また説明の便宜上,要約集合の広がり上の2点が近いほど,2つの要約間の類似度は高いものとする.要約集合の広がり上の各点に対して理想的な評価を行い,その結果を数値で表現できると仮定する.これを,要約の妥当性の高さと呼ぶことにし,この数値を縦軸に取って要約集合の各点をプロットする.すると,各点を結ぶことによって図中に示すような妥当性の高さが表現された面が出来る.これを妥当性の表面と呼ぶことにする.あるテキストに対して適切な要約を求めるという問題は,この概念図においては妥当性の表面上において十分高い点を探す問題に置き換えて考えることが出来る.例えば図\ref{summary-adequacy}中では,最適な要約は要約Aと要約Bである.ここでは両者の間に距離があるため,要約Aと要約Bはある程度異なった要約でありながら,ともに適切な要約であると理解できる.あるテキストに対して,適切な要約が何通りか存在することは珍しくない.このような場合は,概念図では妥当性の表面が複数の点において高い値を持つ場合で考えることができる.このような状況において,要約の正解を一意に絞ることによって生じる評価の問題について,図\ref{problem}を用いて検討する.\begin{figure}\begin{center}\epsfile{file=fig/NLP-figs-problem.eps,scale=0.35}\caption{唯一の正解に基づく評価の問題(概念図)}\label{problem}\end{center}\end{figure}図\ref{problem}中の(a)と(b)では共に,同じテキストに対して作成された二つの要約結果,要約1と要約2を示している.要約1と要約2の評価を行なう際,用いられる正解の違いによって評価結果にどのような違いが生じるかを,(a)と(b)の比較によって検討する.この図では,(a)の正解は要約1により近く,(b)の正解は要約2により近い.正解との類似度に基づく評価では,正解により近い要約の方がより高い評価を得るので,(a)の場合には要約1がより評価が高く,(b)の場合には要約2がより評価が高くなる.以上の議論から,要約の多様性によって適切な要約が複数存在する場合には,用いられる正解との相性によって評価結果が左右されるという問題が生じることが分かる.\begin{figure}\begin{center}\epsfile{file=fig/NLP-figs-proposed-method.eps,scale=0.35}\caption{複数の正解に基づく要約評価の利点(概念図)}\label{proposed-method}\end{center}\end{figure}この問題を改善するために,複数の正解を用いる評価方法を検討する.正解とする要約を複数用意し,評価対象に最も近い正解を用いて評価することで,正解と評価対象との相性の問題は緩和される.ここでは複数要約を正解として用いる効果とともに,用いる複数要約の数や品質と評価の信頼度との関係について,図\ref{proposed-method}に基づいて検討を行なう.図の(a),(b)は共に,あるテキストに対する二つの要約,要約1と要約2を評価する場合を示している.両者の妥当性の値は要約1は十分高いが,要約2はこれに比べて低いという状態を示している.(a)では,要約1の方が要約2に比べてより近くに正解が存在する.評価対象に最も近い正解を用いて類似度で評価を行なうことにより,要約1が要約2に比べてより高い評価を得る.この結果は,本来の両者の妥当性の高さの関係を適切に反映している.一方,(b)の場合,要約1と要約2は共に近傍に正解を持つため,両者は同様に高い評価となり,両者の本来の妥当性の差が評価に現れない.この(a)と(b)の違いは,正解とする複数の要約集合の違いにある.(a)で正解に用いている要約集合は妥当性が十分に高いのに対し,(b)で用いている要約集合では妥当性の低いものが混在している.以上の議論から,正解に用いる要約集合は,{\bf(1)要約の品質が十分に高い}こと,および{\bf(2)要約タスクにおける理想的な要約を網羅している}ことが信頼性の高い評価を行なう上での必要条件となることが分かる.\subsection{複数の正解に基づく評価方法}ここで,複数の正解に基づく評価方法の具体的な定式化について述べる.ここでは,$N$文からなるテキストから$n$文の重要文抽出により作成される要約の評価を考える.まず文抽出による要約結果の表現として,ベクトル表記を導入する.ここで,$N$文のテキストから$n$文を抽出して得られる要約結果を長さ1の$N$次元ベクトル${\bfv}$によって表現する.ベクトルの第$i$成分には,テキスト中の第$i$文が要約に抽出されている場合は$1/\sqrt{n}$,抽出されていない場合は0の値を与える.例えば,5文からなるテキストの第1,3文を抽出して得られる要約のベクトル表現は${\bfv}=1/\sqrt{2}(1,0,1,0,0)$となる.まず,評価に正解を一つ用いる場合を考える.ここで正解と評価対象の要約の抽出文数は同じとする.正解のベクトル表現${\bfv}_{Ans}$と評価対象のベクトル表現${\bfv}_{Obj}$を用いると,F値は両者のベクトルの内積によって得られる.\begin{equation}F値=Sim({\bfv}_{Ans},{\bfv}_{Obj})={\bfv}_{Ans}\cdot{\bfv}_{Obj}\end{equation}このF値を,複数の正解を用いた評価尺度に拡張する.次式のような評価対象の要約と複数の正解との内積の最大値を複数の正解に基づく評価尺度として提案する.\begin{equation}F値=max_{i=1,\cdots,k}\left[{\bfv}_{Ans}\cdot{\bfv}_{Obj}\right]\label{proposed-measure-1}\end{equation}この評価尺度は最終的に正解を一つ選択して評価を行なうものであるが,複数正解において網羅性が不足している場合には,評価対象を評価するための適切な正解が存在しないために適切な評価結果が得られないといった問題が生じる.そこでさらに,網羅性の不足に対する頑健性を向上するために,式\ref{proposed-measure-1}の尺度の拡張を試みる.まず正解を複数要約の単純な集合から,各要約を基底として張られる部分空間へと拡張する.具体的には次のような疑似的な線形性\footnote{ここで仮定する線形結合によるベクトルは,要素に0,1以外の値を持つ場合は対応する要約が実在しないのでこのように呼ぶ}を導入する.すなわち,k個の正解の集合${\bfv}_{Ans_1},\ldots,{\bfv}_{Ans_k}$が与えられた場合,これらの線形結合であるベクトル${\bfV}_{Ans}(\alpha_1,\ldots,\alpha_k)$も同様に正解の一つと見なす.\begin{eqnarray}{\bfV}_{Ans}(\alpha_1,\ldots,\alpha_k)=\sum^{k}_{i}\alpha_i{\bfv}_{Ans_i}\\ただし,\sum^{k}_{i}\alpha_i^2=1\;(\alpha_i\geq0)\end{eqnarray}網羅性の不足に対する頑健性が改善された複数の正解に基づくF値を以下のように提案する.\begin{equation}F値=max_{\alpha_1,\ldots,\alpha_k}\left[{\bfV}_{Ans}(\alpha_1,\ldots,\alpha_k)\cdot{\bfv}_{Obj}\right]\label{proposed-measure-2}\end{equation}ここで結合係数$\alpha_1,\ldots,\alpha_k$は,複数正解の結合ベクトル${\bfV}_{Ans}(\alpha_1,\ldots,\alpha_k)$と評価対象${\bfv}_{Obj}$との内積を最大化するように決定する.\subsection{正解に用いる要約集合の作成方法}ここでは,前節の類似度に基づく評価の妥当性を保証するために,正解に用いる要約集合の満たすべき条件について検討する.提案手法による評価の妥当性が保証されるためには,正解とする要約集合にいて,{\bf(1)網羅性に関する条件},すなわち要約タスクにおける可能な要約を網羅していること,および{\bf(2)品質に関する条件},すなわち正解として用いるのに十分な品質であること,の二つが同時に満足される必要がある.これらは,任意の文抽出によって可能な全ての要約集合から,要約タスクに対する理想的な要約集合を抽出する際のPrecisionとRecallであると言い換えることもできる.\subsubsection*{(1)網羅性に関する条件}まず,要約者の作成する要約が{\bf(2)品質に関する条件}を十分に満足しているという状況を仮定して考えてみる.この場合,{\bf(1)の網羅性に関する条件}を満たすためには,要約者の人数を増やすなどして,可能な要約のバリエーションを尽くし切ればよい.正解の品質を高く保ちながら,同じ記事に対して作成する要約の数を増やしていくと,正解集合のバリエーションの数もそれに従い増加して行くが,要約タスクにおける理想的な要約集合が尽くされていく過程で徐々に飽和していくと予想される.理想的な要約集合が尽くされたかどうかを知るには,要約集合の数を増やして行く過程で,新たに加えられる要約とすでに存在する要約集合との一致度の最大値が飽和したかどうかを見れば良い.要約間の一致度の尺度として,ここでは$\kappa$係数\cite{J.Carletta.96}を用いる.この他の尺度としては,Marcu等の研究\cite{D.Marcu.97}で用いられているPercentAgreement\cite{W.Gale.92}や,Cochran'sQSummaryStatistic\cite{W.G.Cochran.50}などがあるが,$\kappa$係数は無作為な文抽出によって作成された二つの要約に対して0,完全に一致した要約に対して1を与えるので飽和の程度を知るのに適している.ここで$\kappa$係数の導入を行なう.N文のテキストからn文を抽出する要約タスクにおいて,k個の正解の集合${\bfv}_{Ans_1},\ldots,{\bfv}_{Ans_k}$がある時,この中の2つの要約${\bfv}_{Ans_i}$と${\bfv}_{Ans_j}$の間の類似度は次のようになる.\begin{eqnarray}Sim({\bfv}_{Ans_i},{\bfv}_{Ans_j})={\bfv}_{Ans_i}\cdot{\bfv}_{Ans_j}\end{eqnarray}この類似度から2つの要約中の抽出文の偶然一致によって生じる要約間の類似度$Sim_{Random}$を差し引く.この値はn文の無作為抽出によって作成される2つの要約間の類似度の期待値を計算すればよい.無作為抽出で作成された要約間で偶然に一致する抽出文数$k$の確率分布は超幾何分布$HG(n,p;N)$に従うので,期待値$Sim_{Random}$は$k$に関する確率分布$f(k|n,p,N)$を用いて次のように求めることができる.\begin{equation}Sim_{Random}=\sum_{k=0}^{n}\frac{k}{N}\cdotf(k|n,p,N)=p=\frac{n}{N}\end{equation}$\kappa$係数\cite{J.Carletta.96}は,この2つの要約${\bfv}_{Ans_i}$と${\bfv}_{Ans_j}$に対して次のように計算できる.\begin{equation}\begin{array}{lcl}\kappa({\bfv}_{Ans_i},{\bfv}_{Ans_j})&=&\frac{Sim({\bfv}_{Ans_i},{\bfv}_{Ans_j})-Sim_{Random}}{1-Sim_{Random}}\\&=&\frac{{\bfv}_{Ans_i}\cdot{\bfv}_{Ans_j}-\frac{n}{N}}{1-\frac{n}{N}}\end{array}\label{kappa-def}\end{equation}$\kappa$係数は,2つの要約が完全に一致する場合は1を与え,2つの要約が抽出文の偶然の一致を除いて一致しない場合は0を与える.Krippendorff等の研究\cite{K.Krippendorff.80}から,判断が一致していると結論するための基準値は$0.7$以上であることが知られている.この基準に基づくと,既に作成された要約集合${\bfv}_{Ans_1}\cdots{\bfv}_{Ans_n}$に,新たな要約${\bfv}_{Ans_{n+1}}$を加え,要約集合の要素数nが増加していく過程において,{\bf要約集合における網羅性が十分であると判断できるのはnを増やしても以下の基準が常に満たされ,異なりが飽和している場合}と言うことができる.\begin{equation}Max_{i=1\cdotsn}\kappa({\bfv}_{Ans_i},{\bfv}_{Ans_{n+1}})>0.7\label{satulation-condition}\end{equation}この条件を50文の文書に対して要約率$p=0.3$で要約集合を作成する場合にあてはめると,新たに要約を加える過程で要約集合の中で最も類似した要約との抽出文の異なりが常に3文(抽出文の20\%)以下になった時に網羅性の高い要約集合が得られたということになる.\subsubsection*{(2)品質に関する条件}品質の条件を満たすためには,要約作成の経験を積んだ専門家など,高いスキルを持つ要約者に要約を作成させればよい.しかしながら,{\bf(1)網羅性に関する条件}を同時に満たすことを考慮すると,専門家を多人数使って要約の異なりを尽くし切るような方法はあまりにもコストが膨大で現実的とは言えない.したがって実際に評価を行なう上で要約集合の網羅性と品質の条件をどの程度優先して作成するかという問題も検討する必要がある.対象とするテキストが例えば新聞記事のように,ヘッドライン,パラグラフ構造などの要約作成の指針となるような情報を多く含んでいたり,テキスト中の文数や要約の抽出文数が少ないような場合は,理想的な要約を作成する上での自由度も小さくなると期待される.このように{\bf作成される要約の多様性が比較的小さくなると予想される場合,要約スキルの高い作成者によって,ある程度の網羅性を満たす要約集合を作成するという方法が良い}と思われる.しかし,要約を作成する上での自由度が高く評価対象の多様性が大きいと期待される場合や,評価対象の要約の品質が低くそれほど品質の高い正解を基準とする必要がない場合,要約の品質の高さはそれほど高くなくても網羅性が保証された要約集合を用いるほうがより有意な評価結果が得られるという考え方もできる.後者のような大規模な要約集合を作成した例として,斎藤等による人間による要約文の多様性の研究\cite{K.Saito.01J}が挙げられる.この実験では,朝日新聞のコラム「天声人語」の原文から140名の学生によって20\%と30\%の要約率でそれぞれ70の要約文を作成し,原文から要約文への文節単位での取り込み傾向を分析している.その結果文節はその取り込み率によって,取り込まれる傾向のもの,取り込まれない傾向のもの,そのいずれにも属さないものへと分類され,6割以上の要約者が取り込んでいる文節集合(コア)を並べると,ほぼ意味が通じる要約文が完成するという結果を得ている.この結果で興味深いのは,それほど品質の高さが高くないと予想される要約集合からも,多くの要約者に共通して重要と判定される部分(コア),共通して重要でないと判断される部分,それ以外を分離することが可能で,かつコアの部分の要約の品質が元の要約集合に比べて高いという点である.\\\noindentこのことから,{\bf品質は高くないが大規模な要約集合が作成可能な場合,まず網羅性の高い大規模な要約集合を作成し,その中から品質が比較的保証されるような部分集合を切り出すといった方法が現実的である}と思われる.コアおよびその周辺の文を多く含む一致度の高い要約の抽出は,要約集合の全要約対の間の一致度に基づいて階層的クラスタ分析などの方法を適用する方法で実施できると思われる.例えば,$\kappa$係数の値の大きな要約対から順次,群平均法などの階層的クラスタ分析を適用して階層構造を作成し,これをKrippendorffの基準($\kappa>0.7$)に基づいて全体の階層構造から一致度の高い要約の部分集合を抽出する.この部分集合を正解の要約集合に用いる際に,部分集合を全て用いるのではなく,含まれる要約数の大きいものだけを正解集合に取り込むようにすれば,正解集合はよりコアに近い文を多く含んだ要約のみが残るため,網羅性に比べてより品質が重視された集合が得られる. \section{提案評価手法の予備実験} \subsection{作成した正解要約集合の品質}提案手法の検証のために,要約タスクにおいて複数要約の作成を試みた.ここでは,NTCIR-2TSCの重要文抽出タスク\cite{T.Fukusima.01}における評価セット\footnote{毎日新聞社新聞記事データより作成された要約データ(国立情報学研究所提供)}30記事中の4記事980503045,980505037,940701176,940701189を選び(1テキストあたりの平均文数は$40.8$),評価セットに付いている専門家による正解に加え,新たに要約者7名によって要約を作成した.要約は評価セットの全要約率10\%,30\%,50\%について行なった.なお,要約者は理系大学の卒業生で,要約に関連する特別な技術を持たない非専門家である.これらの要約者によって作成された4記事に対する要約の品質と網羅性について検討するために,評価セットの正解(専門家による要約)と非専門家7名による要約間の$\kappa$係数を求め,表\ref{matrix-kappa}に示した.Eは専門家による要約結果,N1$\sim$N7はそれぞれ7名の非専門家による要約を表す.表中の各値は,新聞記事4記事に対し要約率$p=0.1,0.3,0.5$で作成されたそれぞれ(計12)の要約の$\kappa$の平均値である.また"平均"は,各評価者とそれ以外の要約者7名との間の$\kappa$係数の平均値を示している.\begin{table*}\begin{center}\caption{各要約対の$\kappa$係数の値(評価セット全4記事,要約率10\%,30\%,50\%の平均値)}{\small\begin{tabular}{|c||c|c|c|c|c|c|c|c|}\hline&E&N1&N2&N3&N4&N5&N6&N7\\\hline\hlineE&-&0.32&0.42&0.31&0.26&0.28&0.34&0.29\\\hlineN1&0.32&-&0.16&0.29&0.29&0.24&0.31&0.27\\\hlineN2&0.42&0.16&-&0.29&0.29&0.25&0.22&0.12\\\hlineN3&0.31&0.29&0.29&-&0.28&0.30&0.15&0.13\\\hlineN4&0.26&0.29&0.29&0.28&-&0.22&0.22&0.01\\\hlineN5&0.28&0.24&0.25&0.30&0.22&-&0.24&0.17\\\hlineN6&0.34&0.31&0.22&0.15&0.22&0.24&-&0.30\\\hlineN7&0.29&0.27&0.12&0.13&0.01&0.17&0.30&-\\\hline\hline平均&0.32&0.27&0.25&0.25&0.22&0.24&0.25&0.18\\\hline\end{tabular}}\label{matrix-kappa}\end{center}\end{table*}すべての$\kappa$係数の値が正であることは,全要約者の間に有意な一致が見られることを示している.特に専門家と他の要約者との値が最も高い.これは専門家による要約結果が非専門家による要約結果のコア(要約者によって共通して抽出されている文集合)をより多く含んでいることを示している.このことは専門家による要約が非専門家の要約に比べて品質が高いことに起因していると理解される.品質の高い要約はコアを含んだ理想的な要約集合における抽出文から構成されるが,品質の低い要約では理想的な要約集合には含まれない文も混在するため,結果として品質の低い要約に比べると品質の高い要約の方がより多くコアを含むと考えられるからである.この要約集合における値をSalton等が報告している2人の要約者による50の文書の要約結果\cite{G.Salton.97}と比較してみる.この結果では,2人の要約者による要約の間の重なりは45.81\%,Randomによるベースラインは39.16\%であり,Salton等は得られた一致度が驚くほど低いと分析している.要約の対象は百科辞典のテキストであり要約率はおよそ$40\%$,要約者のスキルについては情報がなく,実験条件が異なるので単純に比較するには問題があるが,$\kappa$に換算すると0.1093であり我々の作成した要約の値より低い値であることが分かる.また作成された要約集合は,$\kappa$係数の平均値がいずれもKrippendorff等による基準を下回っていることから,非専門家による要約の品質の問題だけでなく網羅性の不足も懸念される.さらに詳細に要約集合の網羅性を検討するため,評価セット中の記事940701176に対して30\%と50\%の要約率で作成された要約結果を具体例として取り上げ検討する.表\ref{matrix-kappa-03}は要約率30\%での要約結果に対する値を示している.表\ref{matrix-kappa}での平均の値と異なり,各要約間の一致度の差がより明確に現れていることが分かる.この中で,要約対(E,N5)と(N2,N5)は基準値である0.7を越えていることから,要約E,N2,N5はこの集合のコアを構成していると考えられる.しかし要約集合全体では,要約Eに対して,要約N1,N2,と順次要約を追加して行く過程での$\kappa$係数の最大値の推移を見ると,0.30,0.54,0.30,$-0.16$,0.76,0.30,0.54,というように式\ref{satulation-condition}の基準を下回る低い値で振動していることが分かる.このことから,ここで作成された要約集合は,飽和するまでにまだかなり要約の数を増やす必要があることが分かる.表\ref{matrix-kappa-05}は要約率50\%での要約結果に対する値を示しているが,全体的な傾向は要約率30\%での結果と変わらない.ただ,要約率50\%では,抽出文の組み合わせの数が最大となるため,要約の可能性がより多様になる分,全体的な$\kappa$係数の値も低くなっている.これに伴って,飽和するまでに必要な要約の数もさらに大きくなると推測される.以上の議論から,作成された要約集合は専門家による要約と非専門家による要約との間に品質の差があり,また要約集合の網羅性を満たすためには要約の数が不足していることが結論出来る.\begin{table*}\begin{center}\caption{各要約対の$\kappa$係数の値(評価セット:940701176,要約率:30\%)}{\small\begin{tabular}{|c||c|c|c|c|c|c|c|}\hline&N1&N2&N3&N4&N5&N6&N7\\\hline\hlineE&0.30&0.54&0.30&-0.16&{\bf0.76}&0.30&0.30\\\hlineN1&-&-0.16&0.06&-0.40&0.06&0.30&0.54\\\hlineN2&-&-&0.30&-0.16&{\bf0.76}&0.06&0.06\\\hlineN3&-&-&-&-0.16&0.54&0.06&0.06\\\hlineN4&-&-&-&-&-0.16&0.30&-0.40\\\hlineN5&-&-&-&-&-&0.30&0.30\\\hlineN6&-&-&-&-&-&-&0.3\\\hline\hline最大値&0.30&0.54&0.30&-0.16&0.76&0.30&0.54\\\hline\end{tabular}}\label{matrix-kappa-03}\end{center}\end{table*}\begin{table*}\begin{center}\caption{各要約対の$\kappa$係数の値(評価セット:940701176,要約率:50\%)}{\small\begin{tabular}{|c||c|c|c|c|c|c|c|}\hline&N1&N2&N3&N4&N5&N6&N7\\\hline\hlineE&0.06&0.24&0.43&-0.16&0.43&0.24&0.24\\\hlineN1&-&-0.53&0.06&0.06&-0.16&0.43&0.43\\\hlineN2&-&-&0.24&0.06&0.24&-0.16&0.06\\\hlineN3&-&-&-&0.24&0.06&0.24&0.06\\\hlineN4&-&-&-&-&-0.16&0.43&-0.16\\\hlineN5&-&-&-&-&-&0.06&-0.16\\\hlineN6&-&-&-&-&-&-&0.43\\\hline\hline最大値&0.06&0.24&0.43&0.24&0.43&0.43&0.43\\\hline\end{tabular}}\label{matrix-kappa-05}\end{center}\end{table*}\subsection{各要約者の要約結果の異なりの検討}ここでは,前節で既に取り上げた評価セット中の記事940701176について,各要約者の要約結果がどのような箇所においてばらつきが生じているのかをさらに詳細に検討する.記事の本文を付録に示し,専門家および非専門家によって作成された要約結果を以下表\ref{testset-sample-sum}に示す.各行は記事中の各文番号,列は各要約率10\%,30\%,50\%における専門家E,非専門家1$\sim$7(既出のN1$\sim$N7に対応)による要約を示し,それぞれの値が1であれば重要文として要約に含まれ,0であれば要約に含まれないことを表している.\begin{table*}\begin{center}\caption{評価セット中の記事940701176に対する要約結果}{\scriptsize\begin{tabular}{|c||c||c|c|c|c|c|c|c||c||c|c|c|c|c|c|c||c||c|c|c|c|c|c|c|}\hline&\multicolumn{8}{c|}{要約率10\%}&\multicolumn{8}{c|}{要約率30\%}&\multicolumn{8}{c|}{要約率50\%}\\\cline{2-25}文&\hspace{-1.0pt}E\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}2\hspace{-1.0pt}&\hspace{-1.0pt}3\hspace{-1.0pt}&\hspace{-1.0pt}4\hspace{-1.0pt}&\hspace{-1.0pt}5\hspace{-1.0pt}&\hspace{-1.0pt}6\hspace{-1.0pt}&\hspace{-1.0pt}7\hspace{-1.0pt}&\hspace{-1.0pt}E\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}2\hspace{-1.0pt}&\hspace{-1.0pt}3\hspace{-1.0pt}&\hspace{-1.0pt}4\hspace{-1.0pt}&\hspace{-1.0pt}5\hspace{-1.0pt}&\hspace{-1.0pt}6\hspace{-1.0pt}&\hspace{-1.0pt}7\hspace{-1.0pt}&\hspace{-1.0pt}E\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}2\hspace{-1.0pt}&\hspace{-1.0pt}3\hspace{-1.0pt}&\hspace{-1.0pt}4\hspace{-1.0pt}&\hspace{-1.0pt}5\hspace{-1.0pt}&\hspace{-1.0pt}6\hspace{-1.0pt}&\hspace{-1.0pt}7\hspace{-1.0pt}\\\hline\hline\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}2\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}3\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}\\\hline\hspace{-1.0pt}4\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}5\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}6\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}7\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}\\\hline\hspace{-1.0pt}8\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}\\\hline\hspace{-1.0pt}9\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}\\\hline\hspace{-1.0pt}10\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}\\\hline\hspace{-1.0pt}11\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}\\\hline\hspace{-1.0pt}12\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}13\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}14\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}15\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}16\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}17\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}18\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}\\\hline\hspace{-1.0pt}19\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}\\\hline\hspace{-1.0pt}20\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}\\\hline\hspace{-1.0pt}21\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}\\\hline\end{tabular}}\label{testset-sample-sum}\end{center}\end{table*}まず,表\ref{testset-sample-sum}の結果を見ると,要約率10\%において専門家"E"は,重要文として第4,19文を選択していることが分かる.一方,非専門家"1$\sim$7"の判断のうち過半数が一致しているのは,第1文である(第1,17,19文の3文には3人以上が集中).また,要約率30\%では,専門家が重要と判断している第1,2,4,7,8,19文の6文に対し,非専門家の過半数が一致しているのは第1,4,17,19文の4文である.要約率50\%では,専門家が重要と判断している第1,2,4,6,7,8,13,14,17,18,19文の11文に対して,非専門家の過半数が一致しているのは第1,4,5,6,10,11,12,13,14,15,17,18,19文の13文である.これらの結果から,非専門家の多数が重要と判断している文は,専門家の判断によく一致していることが分かる.さらに各要約結果の中身を詳細に検討すると,要約者が重要文を決定する際に,テキスト中での文の重要性と同時に,文間の結束性も考慮されていることが分かる.強い結束関係によって結ばれた2文の一方のみを重要文として抽出しても,要約において意味が正しく伝わらない場合が生じるためである思われる.同記事中に存在する文間の結束性のうち,指示,代用,省略に相当すると思われるものを以下に挙げる.\begin{description}\item[省略1]$第1文:"ダウレット・トルリハノフさんは"\leftarrow\{第2,3,4,5,6,8文,ヘッドライン\}$\item[省略2]$第1文:"カザフスタン"\leftarrow第4文:"独立",第6文:"最高会議議員"$\item[省略3]$第2文:"レスリング"\leftarrow第3文:"チャンピオン"$\item[省略4]$第2文:"五輪"\leftarrow第4文:"メダリスト"$\item[省略5]$第12文:"カザフスタンは"\leftarrow第13文$\item[指示1]$第4文:"褒賞金"\leftarrowヘッドライン:"褒賞金"$\item[指示2]$第4文:"実業界"\leftarrowヘッドライン:"実業界"$\item[指示3]$第5文:"スポーツジム"\leftarrow第9文:"スポーツジム"$\item[指示4]$第7文:"カザフスタンのレスリング"\leftarrow第8文:"それ"$\item[指示5]$第11文:"「奨学金」"\leftarrow第14文:"奨学金"$\item[指示6]$第13文:"給与生活者"\leftarrow第14文:"その"$\item[代用1]$第7文:"広島アジア大会"\leftarrow第19文:"広島",第20文:"アジア大会"$\item[代用2]$第10文:"有望選手六十五人"\leftarrow第15文:"選手"$\end{description}例えばテキスト中の第2,3,4,5,6,8文およびヘッドラインにおいては,"ダウレット・トルリハノフさんは"という主語が,第1文中において既出であるため省略され,省略の関係にある.また,第8文の"それ"は,第7文の"カザフスタンのレスリング"を指しており,指示の関係にあると思われる.表\ref{testset-sample-sum}の10\%の要約結果を結束性に基づいて考慮すれば,非専門家"1$\sim$7"の判断が第1文に集中したのは,第1文とそれ以降の文との間で,結束関係が多数結ばれていたためと考えられる.専門家による要約では,第4,19文が選択されているが,第4文自身は,ヘッドラインとの結束性が高いため,重要性が高いと考えられる.この場合も,"トルリハノフ"と"カザフスタン"が第19文に含まれており,第4文との間での結束性が保存される組合せとなっている.ここで,表\ref{testset-sample-sum}の要約率30\%において,専門家と非専門家の過半数が重要と判断している第1,2,4,7,8,17,19文の7文に注目して検討を行うことにする.第(1$\sim$20)文を文脈的なまとまりで分けると,(7$\sim$15),(16$\sim$17),(18$\sim$20)の3つの部分に分割することが出来る.それぞれの部分に閉じた結束関係は,まず最初の部分(1$\sim$6)については"省略1","省略2","省略3","省略4","指示1","指示2"である.これらの結束性をなるべく保存しながら文抽出を行うとすると,第1文,第2文,第4文の順に抽出することになり(ヘッドラインを重視すれば第4文はより優先される)要約率30\%において第1,2,4文が重要文と評価された結果と矛盾しない.同様に(7$\sim$15)の部分における結束関係は"省略5","指示4","指示5","指示6"であるが,第7,8文を抽出している結果はこのうち"指示4"の結束関係を保存し,構造全体においても以降に続く文の展開の起点となっているため妥当であると考えられる.さらに修辞構造もまた同様に,要約結果を大きく決定づける要因であると考えられる\cite{D.Marcu.97}.このように,複数要約者が要約作成する際,観点の違いによって要約結果の違いを生じることはあっても,結束性,照応関係,修辞構造などの要約の対象である元テキストが持っている構造をなるべく保存するような原則が働いているものと考えられる.このことは,今後より品質の高い要約の正解を作成する上で有用な知見であると思われる.\subsection{自動要約手法との比較}ここでは,要約の戦略の異なるいくつかの重要文抽出法との比較を行なう.重要文抽出法では,テキスト中の文の重要度を計算し,重要度の高い文から順に要約率に達するまで抽出する.この文の重要度の計算には,(1)キーワードの出現頻度,(2)文位置,(3)ヘッドライン,(4)文同士の関係に基づくテキスト構造,(5)手がかり表現,(6)文あるいは単語間の関係,(7)文間の類似性,などのテキスト中の情報が有用であることが知られており\cite{C.D.Paice.90,M.Okumura.99J},現在に至るまでこれらの情報にもとづく様々な要約手法が検討されてきた\cite{H.P.Edmundson.69,C.Aone.98,C.Nobata.01J,T.Yoshimi.99J,M.Utiyama.00J}.ここでは,以下に示す{\bfTF},{\bfTF+H},{\bfLEAD},{\bfHyb(rid)1},{\bfHyb(rid)2}の5つの自動要約手法\cite{K.Ishikawa.01}を用いて,これらの手法による要約結果と,先に作成した複数の正解要約との比較評価を行なう.\begin{description}\item[TF]TF法.次式の$IW_{TF}(s)$を文の重要度に用いる.$\{t\}\ins$は文$s$中に出現する単語集合,$f(t)$はキーワード$t$の文書中における出現頻度を表す.\begin{displaymath}IW_{TF}(s)=\sum_{\{t\}\ins}f(t)\end{displaymath}\item[TF+H]ヘッドライン情報を考慮したTF法,次式の$IW_{TF+H}(s)$を文の重要度に用いる.$A=20$を用いる.\begin{displaymath}IW_{TF+H}(s)=\sum_{\{t\}\ins}\alpha(t)\cdotf(t),\;\;\;\;\;\;\alpha(t)=\left\{\begin{array}{ll}A&\mbox{tがヘッドライン中に出現}\\1&\mbox{それ以外}\end{array}\right.\end{displaymath}\item[LEAD]LEAD法.記事テキストの先頭から文の並び順に要約率に達するまで文抽出を行う.\item[Hyb(rid)1]TF+HとLEADを組み合わせた手法.次式の$IW_{Hyb}(s,i)$を文の重要度に用いる.$i$は文$s$のテキスト中での先頭からの位置,$IW_{TF+H}(s)$は{\bfTF+H}で用いた文の重要度を表す.パラメータは経験的に求められた最適値$A=20$,$B=10$,$N=3$を用いる.\begin{displaymath}IW_{Hyb}(s,i)=\beta(i)\cdotIW_{TF+H}(s),\;\;\;\;\;\;\beta(i)=\left\{\begin{array}{ll}B&\mbox{if$1\leqi\leqN$}\\1&\mbox{if$i>N$}\end{array}\right.\end{displaymath}\item[Hyb(rid)2]{\bfHyb1}と同じ$IW_{Hyb}(s,i)$を文の重要度に用いる.パラメータに$A=20$,$B=100$,$N=3$を用いる.$B$が十分大きいので,先頭$N$文を無条件に抽出(LEAD法)した後に{\bfTF+H}を適用するのと同様の効果を持つ.\\\end{description}先に複数の要約正解を作成したNTCIR-2要約データ中の4記事に対し,以上の5つの自動要約手法{\bfTF},{\bfTF+H},{\bfLEAD},{\bfHyb1},{\bfHyb2}を適用し,要約結果を作成した.これらの自動要約手法による要約結果と,複数の正解要約との間の一致度を$\kappa$係数の値として求め,表\ref{kappa-human-machine}に示した.ここでは要約間の一致度の相対的な異なりを議論するために,偶然による一致度が除かれる$\kappa$係数の値を示しているが,太字で示した最大値は本質的に,先に提案した複数の正解に基づくF値(\ref{proposed-measure-1}式)に相当するものである.表中で,Eは専門家による正解要約,N1$\sim$N7はそれぞれ7名の非専門家による正解要約,TF,TF+H,LEAD,Hyb1,Hyb2,は自動要約手法を表す.各$\kappa$係数の値は,新聞記事4記事と3種類の要約率$p=0.1,0.3,0.5$に関する平均値を表している.\begin{table*}\begin{center}\caption{複数の正解要約と自動要約手法による要約結果の$\kappa$係数の値}\begin{tabular}{|c||c|c|c|c|c|c|c|c|}\hline&E&N1&N2&N3&N4&N5&N6&N7\\\hline\hlineTF&0.09&0.09&0.07&0.11&-0.01&0.03&0.06&0.01\\\hlineTF+H&0.12&0.09&0.15&{\bf0.16}&0.13&0.17&0.07&0.05\\\hlineHyb1&0.18&0.14&0.13&0.11&0.13&0.22&0.12&0.11\\\hlineHyb2&{\bf0.23}&0.18&{\bf0.16}&0.11&{\bf0.16}&0.24&0.13&0.11\\\hlineLEAD&0.08&{\bf0.26}&-0.03&-0.01&-0.03&{\bf0.25}&{\bf0.14}&{\bf0.15}\\\hline\end{tabular}\label{kappa-human-machine}\end{center}\end{table*}表を見ると,一致度の高い自動要約手法は,正解ごとで異なっていることが分かる.正解要約E,N2,N4に対しては要約手法Hyb2,正解要約N1,N5,N6,N7に対しては要約手法LEAD,正解要約N3に対しては要約手法TF+Hが最も高い値となっている.これは,正解要約の作成において,それぞれの要約者の観点や戦略が異なるためと考えられる.とくに,正解要約N1,N5,N6,N7を作成した要約者達はテキストの先頭数文を重要文として抽出するLEAD法と類似した戦略をとっているが,正解要約N2,N3,N4を作成した要約者達は全くそのような戦略をとっていないということが表から読みとれる.この結果に見られるような,要約正解の観点や戦略の違いなどによる相違は,提案手法において複数正解を用いる上で期待されていたような傾向であり,正解の品質を十分に高められた場合に,要約結果と正解の間の相性によらずに適切に評価出来るという,提案手法の目指す枠組が有効に機能することを示唆している.より品質の高い正解要約による提案手法の完全な検証は今後の課題である. \section{おわりに} 本稿では,要約手法として特に重要文抽出法に焦点を当て,複数の正解に基づく評価法の提案を行なった.従来の評価方法では,テキストの要約において唯一の正解を用いるが,テキストによっては観点の異なる正しい要約が複数存在する場合もあり,評価の信頼性が保証されないという問題がある.要約評価の例として,NTCIRWorkshop2のテキスト要約タスクの評価結果を取り上げ,特に要約率50\%において複数の要約間での有意な差が現れていないという現象に着目して議論した.我々は,この要約の自動評価の信頼性を高めるために,評価において複数の正解を用いる方法について検討を行なった.提案手法では,複数の正解要約と評価対象を共に,0,1のバイナリ値を要素とするベクトル表現で表した時,複数の正解要約のパラメータを含んだ線形結合と評価対象との内積の最大値を評価値とする.この評価値は,個々の正解要約から計算される評価値から最大のものを選ぶ方法と異なり,複数の正解要約を組み合わせたような中間的な要約を適切に評価できるという性質を持つ.提案手法の検証のために,要約タスクに対して複数の正解の作成を行なった.ここではNTCIR-2要約データ中の4記事に対して,要約者7名で正解要約の作成を行なった.適切な評価を行なう上で,作成された要約が正解として十分な品質であるかどうかを,正解の要約間の一致度$\kappa$係数で評価した.その結果,Krippendorff等による$\kappa$係数の条件をはるかに下回り,複数正解に基づく評価を行なう上で品質が不十分であることが明らかとなった.この正解の作成過程において,作業コスト,要約作成の経験,対象テキストの性質等は正解の品質に影響し,要約の品質を高めるためにはこれらの要約作成条件を注意深く管理することが重要であることが分かった.さらに,作成された複数の要約を詳細に検討した結果,観点の違いによって要約結果の違いを生じても,元テキスト中の結束性や修辞関係に基づく構造をなるべく損なわない様に要約するという共通の法則性も見出された.この知見は,今後複数の要約正解を作成する上でも有用な知見であると思われる.最後に,提案手法の有効性を検証する予備実験として,異なる幾つかの自動要約手法と複数正解との一致度に基づく評価を行なった.その結果,最も評価の高い自動要約手法は正解によって異なるという結果が得られた.この結果は,正解の品質を十分に高められた場合,要約者の観点や戦略が異なる複数正解の存在によって,要約結果と正解の間の相性によらない適切な評価を実現するという,提案手法の枠組の有効性を示唆している.より品質の高い正解要約による提案手法の完全な検証は今後の課題である.\bibliographystyle{jnlpbbl}\bibliography{346}\section*{付録評価セット(940701176)の本文(毎日新聞全文記事データベース)}{\setlength{\baselineskip}{9pt}{\footnotesize\noindentヘッドライン[ヒロシマ・熱風]/5褒賞金で実業界へ・・・後進を支援【大阪】\\1ダウレット・トルリハノフさん(30)はカザフスタンでいま,一番有名で,忙しい人物だろう.\\2九歳からレスリングを始め,ソウル五輪(一九八八年)で銀,バルセロナ五輪(九二年)で銅メダルを獲得.\\3全ソ連のチャンピオンに七回輝いた.\\4独立後の経済自由化の波に乗り,メダリストの褒賞金を元手に実業界に転身.\\5レスリングジムを手始めに現在はアルマトイでレストラン,バー,スポーツジムなどからなる複合レジャー施設「ダウリヤット」や出版社などを経営する.\\6今年三月には日本の国会議員に当たる最高会議議員に当選,どこへ行っても握手攻めに遭う国民的英雄だ.\\7カザフスタンのレスリング水準は高く,広島アジア大会でも金メダル三個は狙えるといわれる.\\8それを個人の財力で支援している.\\9トルリハノフさんのスポーツジムには,ドイツ製の最新トレーニングマシンがずらっと並ぶ.\\10レスリングのほか,ボクシング,重量挙げなどの有望選手六十五人が所属.\\11毎月一人最高で日本円二万円相当の「奨学金」をもらっている.\\12カザフスタンは天然資源が豊富なのに,精製工場が国内にない旧ソ連の分業生産体制のなごりで,エネルギー危機が続く.\\13独自通貨の導入に伴う激しいインフレで,給与生活者の大半は本業だけでは生活できず,国家公務員がアルバイトにタクシーを運転する.\\14その平均給与の約八倍にも当たる奨学金は,破格の待遇.\\15それだけに「やる気のないものは出ていけ.余分なやつの面倒はみられない」というレスリングコーチ,サプノフ・ゲナンディさん(55)のハッパは厳しく,選手たちの表情も真剣だ.\\16大理石を敷きつめた高級レストランの奥で,トルリハノフさんが力説した.\\17「経済,文化,科学は危機的状況だが,スポーツは生き残らせてみせる.わたしたちは国づくりに踏み出したばかり.国民の士気を盛り上げるためにスポーツは非常に重要だからね」\\18七月一日から,従来の「CCCP」(旧ソ連)のパスポートが,カザフスタン独自のものに切り替わり,民族意識はより高まる.\\19「カザフスタンの存在をアジアの仲間に訴えたい」と意気込むトルリハノフさん自身もコーチ兼選手として,広島に乗り込む予定だ.\\20アジア大会開幕まで,あと三カ月——.\\21(おわり)\\}}\begin{biography}\biotitle{略歴}\bioauthor{石川開}{1994年東京大学理学部物理学科卒業.1996年同大学院修士課程修了.同年,NEC入社.1997年より2年間,ATR音声翻訳通信研究所に出向.現在,NECマルチメディア研究所,研究員.自然言語処理の研究に従事.情報処理学会会員.}\bioauthor{安藤真一}{1990年大阪大学基礎工学部生物工学科卒業.1992年同大学院修士課程修了.同年,NEC入社.1995年より2年間,ATR音声翻訳通信研究所に出向.現在,NECマルチメディア研究所,主任.自然言語処理の研究に従事.情報処理学会,人工知能学会,各会員.}\bioauthor{奥村明俊}{1984年京都大学工学部精密工学科卒業.1986年同大学院工学研究科修士課程修了.同年,NEC入社.1992年10月南カリフォルニア大学客員研究員(DARPAMTプロジェクト1年半参加).1999年東京工業大学情報理工学研究科博士課程修了.現在,マルチメディア研究所,研究部長.自然言語処理の研究に従事.工学博士.情報処理学会,ヒューマンインターフェース学会などの各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V06N03-04
\section{はじめに} 係り受け解析は日本語文解析の基本的な方法として認識されている.日本語係り受けには,主に以下の特徴があるとされている\footnote{もちろん,例外は存在するが\cite{sshirai:jnlp98},その頻度は現在の解析精度を下回り,現状では無視して構わないと考える.つまり,これらの仮定の基に解析精度を向上させた後に,そのような例外に対し対処する手法を考えればよいのではないかと思う.また,(4)の特徴はあまり議論されてはいないが,我々が行なった人間に対する実験で90\%以上の割合で成立する事が確認された.}.我々はこれらの特徴を仮定として採用し,解析手法を作成した.\begin{itemize}\item[(1)]係り受けは前方から後方に向いている.(後方修飾)\item[(2)]係り受け関係は交差しない.(非交差条件)\item[(3)]係り要素は受け要素を一つだけ持つ.\item[(4)]ほとんどの場合,係り先決定には前方の文脈を必要としない.\end{itemize}このような特徴を仮定した場合,解析は文末から文頭に向けて行なえば効率良く解析ができると考えられる.以下に述べる二つの利点が考えられるためである.今,文節長Nの文の解析においてM+1番目の文節まで解析が終了していると仮定し,現在M番目の文節の係り先を決定しようとしているとする(M$<$N).まず,一つ目の利点は,M番目の文節の係り先は,すでに解析を終了しているM+1番目からN番目の文節のいずれかであるという事である.したがって,未解決な解析状態を積み上げておく必要はないため,チャートパーザーのように活性弧を不必要に多く作る必要はないし,一般的なLRパーザー等で利用されているようなスタックにそれまでの解析結果を積んで後の解析に依存させるという事をしなくて済む.別の利点は,M番目の文節の解析を開始する時点には,M+1番目からN番目の係り受け解析はなんらかの形式において終了しており,可能な係り先は,非交差条件を満足する文節だけに絞られるという事である.実験では,この絞り込みは50\%以下になり,非常に有効である.また,この論文で述べる統計的手法と文末からの解析手法を組み合せると,ビームサーチが非常に簡単に実現できる.ビームサーチは解析候補の数を絞りながら解析を進めていく手法である.ビーム幅は自由に設定でき,サーチのための格納領域はビーム幅と文長の積に比例したサイズしか必要としない.これまでにも,文末からの解析手法はルールベースの係り受け解析において利用されてきた.例えば\cite{fujita:ai88}.しかし,ルールベースの解析では,規則を人間が作成するため,網羅性,一貫性,ドメイン移植性という点で難がある.また,ルールベースでは優先度を組み入れる事が難しく,ヒューリスティックによる決定的な手法として利用せざるを得なかった.しかし,本論文で述べるように,文末から解析を行なうという手法と統計的解析を組み合せる事により解析速度を落す事なく,高い精度の係り受け解析を実現する事ができた.統計的な構文解析手法については,英語,日本語等言語によらず,色々な提案が80年代から数多くあり\cite{fujisaki:coling84}\cite{magerman:acl95}\cite{sekine:iwpt95}\cite{collins:acl97}\cite{ratnaparkhi:emnlp97}\cite{shirai:emnlp98}\cite{fujio:emnlp98}\cite{sekine:nlprs97}\cite{haruno:nlpsympo97}\cite{ehara:nlp98},現在,英語についてはRatnaparkhiのME(最大エントロピー法)を利用した解析が,精度,速度の両方の点で最も進んでいる手法の一つと考えられている.我々も統計的手法のツールとしてMEを利用する.次の節でMEの簡単な説明を行ない,その後,解析アルゴリズム,実験結果の説明を行なう. \section{最大エントロピー法の利用} 最大エントロピー法(ME)は,トレーニングデータ中の素性の頻度等の情報から特徴的な素性を学習し,その特徴を生かした確率的なモデルを作成する方法である.素性とは,我々の場合,二つの文節間の係り受けの確率を計算するための情報であり,そこで使用される基本素性には表~\ref{素性}に挙げた種類の素性を利用した.括弧内の数字は素性値の数である.\begin{table}[tbh]\begin{center}\caption{素性}\label{素性}\begin{tabular}{|l|l|}\hline前文節/後文節&主辞見出し(2204),品詞(34),活用情報(90),\\&語形情報(218),助詞の細い情報(135),\\&句読点,括弧の情報(31)\\\hline文節間情報&距離(3),読点,括弧の有無(6),「は」の有無(2),\\&前文節と同じ素性を持つ物の有無等(127)\\&後文節と同じ素性を持つ物の有無等(220)\\\hline\end{tabular}\end{center}\end{table}また,これらの素性を組合せた組合せの素性も利用した.その数は約4万個である.素性の詳細,および素性の選択による比較実験については\cite{uchimoto:nlken98}を参照されたい.そして,テストの際には,トレーニングデータを使用して学習されたモデルを基にテスト文中に与えられた二つの文節の素性からその二つの文節の係り受けの確率を計算する.これまでの多くの先行研究と同様にすべての係り受けは独立であると仮定し,一文全体の係り受け確率を,その文中にあるそれぞれの係り受けの確率の積で表す.そして,一文全体の確率が最大となるような係り受け関係が正しい係り受け関係であると仮定する. \section{解析アルゴリズム} この章では,解析アルゴリズムを紹介する.まず,例を利用して,概略を説明し,その後フォーマルな形で解析アルゴリズムを示す.特徴は文末から文頭に向けての係り受け解析と確率を利用したビームサーチにある.例には以下の入力文を用いる.文節解析まで終っていると仮定しており,文節の区切は''$|$''で示される.説明図において,文節の係り先は,それぞれの文節の下にある番号で示される.\begin{verbatim}-----------------------------------------------------------<初期状態>ID123456彼は,|再び|パイを|作り,|彼女に|贈った.-----------------------------------------------------------\end{verbatim}\begin{flushleft}\underline{解析手順}\end{flushleft}\begin{enumerate}\item[(1)]{\bf文末から二つ目の文節}\\文末の文節は係り先はなく,文末から二つ目の文節は必ず文末の文節にかかる.この結果は以下のようになる.\end{enumerate}\begin{verbatim}-----------------------------------------------------------<文末から二つ目まで>ID123456彼は,|再び|パイを|作り,|彼女に|贈った.候補6------------------------------------------------------------\end{verbatim}\begin{enumerate}\item[(2)]{\bf文末から三つ目の文節}\\この文節(「作り,」)は,係り先として二つの文節が考えられる.一つは「彼女に」であり,もう一つは「贈った」である.MEを利用して計算された確率を付与した二つの解析候補を作成する.(それぞれの確率は0.1,0.9としてあり,各候補の最後には,総合の確率(各係り受けの確率の積)を括弧の中に示す.)\end{enumerate}\begin{verbatim}-----------------------------------------------------------<文末から三つ目まで>ID123456彼は,|再び|パイを|作り,|彼女に|贈った.候補166-(0.9)候補256-(0.1)-----------------------------------------------------------\end{verbatim}\begin{enumerate}\item[(3)]{\bf文末から四つ目の文節}\\それぞれの候補に対して,「パイを」の文節の係り先を求める.候補1に対しては,非交差の条件から「パイを」の文節は「彼女に」の文節に係る事はありえない.したがって「パイを」が「作り,」と「贈った」のそれぞれに係る候補を作成する.候補2についても同様にする.\end{enumerate}\begin{verbatim}-----------------------------------------------------------<文末から四つ目まで>ID123456彼は,|再び|パイを|作り,|彼女に|贈った.候補1466-(0.54)候補2666-(0.36)候補3456-(0.05)候補4656-(0.04)候補5556-(0.01)-----------------------------------------------------------\end{verbatim}\begin{enumerate}\item[]このように計算していくと,候補の数は文頭に行くにしたがって増えていく.しかし,解析途中の候補の数に上限を設けて,ビームサーチを行なえば,解析候補数の爆発は防げる.また,上記の例から直感的に分るように,その場合でも解析精度の悪化も少なく抑えられる.実際の実験で得られたビーム幅と精度のデータは次章で紹介する.例えば,この例でビーム幅を3とすると,候補4と候補5はこの段階で捨てられ,以降の解析には使用されない.\item[(4)]{\bfそれ以降}\\上記で示したような解析を文頭まで繰り返す.例えば,ビーム幅を3とした場合の解析結果は以下のようになる.\end{enumerate}\begin{verbatim}-----------------------------------------------------------<文頭まで>ID123456彼は,|再び|パイを|作り,|彼女に|贈った.候補164466-(0.11)候補244666-(0.09)候補364656-(0.05)-----------------------------------------------------------\end{verbatim}以下にフォーマルな解析アルゴリズムを示す.\begin{verbatim}----------------------------------------------------------------Length:入力文節長Input[Length]:入力文N:ビーム幅Cand[Length][N]:解析結果候補(各文節の係り先文節IDの配列で表される)例えばCand[1][1]={6,4,4,6,6,-}.この方法では,必要なメモリのサイズは文長とビーム幅の積以上になるが,簡単な変換で,上記のサイズに納める事ができる.add(l,cand):cand(解析結果候補)の確率がl番目の文節の解析結果候補の内のN番目のものより良い場合は,candをCand[l]の解析候補に加える.この際,N+1番目の候補になった物は捨てられる.get(l):Cand[l]の候補群から候補を取り出す.候補がなければNULLを返す.ins(i,cand):iをcandの先頭に追加する.procedure係り受け解析beginadd(Length-1,{Length,-});for(i=Length-2;i>=1;i--)beginwhile((cand=get(i))!=NULL)beginfor(j=i+1;j<=Length;j++)beginif(iからjへの係り受けがcandにおいて有効)add(i,ins(j,cand));endifendendendend----------------------------------------------------------------\end{verbatim}このアルゴリズムの解析時間オーダーは,文節数の2乗であり,ビーム幅をNとすると,ビーム幅に対しNlog(N)であると推測される. \section{実験結果} この章では,係り受け解析の実験を色々な角度から分析する.実験に用いたコーパスは,京大コーパス(Version2)\cite{kurohashi:nlp97}の一般文の部分で,基本的にトレーニングには1月1日と1月3日から8日までの7日分(7960文),試験には1月9日の1日分(\mbox{1246}文)を用いた.試験は頻繁に行なうと,高い成績を追及する結果その試験のデータに自然とチューニングされてしまう危険性があるので,頻繁に行なわないようにした.\subsection{実験結果}まず最初に,我々の結果を示し,他の手法の結果との比較を行なう.それ以降の節では,我々の実験内で得られた興味深いデータを紹介する.まずは,我々の解析結果を表~\ref{Result}に示す.京大コーパス1月9日の\mbox{1246}文に対して,形態素解析,文節区切認定まで終った状態から文節間係り受けの解析を決定的に(ビーム幅=1)行なった結果である.\begin{table}[tbh]\begin{center}\caption{解析結果}\label{Result}\begin{tabular}{|l|l|}\hline係り受け正解率(文末から二つ目の文節も含める)&87.14\%(9814/11263)\\係り受け正解率(文末から二つ目の文節を除く)&85.54\%(8575/10024)\\文正解率(文全体の解析が正しい割合)&40.60\%(503/1239)\\平均解析時間(一文当り)&0.03秒\\\hline\end{tabular}\end{center}\end{table}また,文節数と係り受け正解率の関係を図~\ref{LengthAndAccuracy}に示す(文節数28以上は,それぞれデータ数が1なので図に載せていない.).図から分るように,文節数の増加に伴なう精度の劣化は比較的に小さいと考えられる.日本語の係り受けは多くの場合,係り元と係り先以外の大域的な情報を利用せず,局所的な情報のみで決められる事が多いので,文が長くなっても係り受け正解率の劣化があまり見られないのは納得できる.\begin{figure}[htbp]\beginpicture\setcoordinatesystemunits<6pt,180pt>\setplotareaxfrom0to30,yfrom0to1\axisbottomlabel{文節数}ticksshortquantity7numberedat0102030//\axisleftlabel{係り受け正解率}ticksshortquantity11numberedat00.20.40.60.81.0//\multiput{*}at30.937540.944450.908960.894570.901480.897790.8812100.8880110.8639120.8742130.8605140.8778150.8777160.8474170.8415180.8529190.8360200.8368210.8346220.8214230.8591240.8385250.7986260.8640270.8205280.9185/\setlinear\plot30.937540.944450.908960.894570.901480.897790.8812100.8880110.8639120.8742130.8605140.8778150.8777160.8474170.8415180.8529190.8360200.8368210.8346220.8214230.8591240.8385250.7986260.8640270.8205280.9185/\put{0.8714}at-100.8714\multiput{-}at-70.8714*3710/\endpicture\caption{文節数と係り受け正解率}\label{LengthAndAccuracy}\end{figure}\subsection{他の手法との比較}この節では他の手法との比較を行なう.他の手法においては同じコーパスを使って評価した物がないため,その精度は参考として載せる.同じプラットフォームで同じ評価方法を用いた比較が望まれる.\begin{flushleft}\underline{白井およびKNPとの比較}\end{flushleft}白井\cite{shirai:jnlp98:1}は構文規則に基いた確率一般化LR法を提案している.構文および語彙的な統計情報を用い,その学習にはMEを利用している.実験では京大コーパスの文節数7〜9の文からランダムに選んだ500文の内,KNPによる文節区切がコーパスと一致した388文を対象に,白井の解析結果とKNPの解析結果の正解率を比較している.(KNPについては\cite{kurohashi:snlr94}を参照の事.)そこで,我々の試験コーパスの中で文節数が7〜9の文,279文における結果を用いて比較した(表~\ref{CompShiraiKNP}).すべて,文末から二つ目の文節は評価から除いており,白井の方法も文節切りができた状態からの解析である.\begin{table}[tbh]\caption{白井,KNPとの比較}\label{CompShiraiKNP}\begin{center}\begin{tabular}{|l|c|}\hlineシステム&係り受け正解率\\\hline白井&84.53\%\\KNP&90.76\%\\本手法&87.41\%\\\hline\end{tabular}\end{center}\end{table}対象の文が完全に一致しておらず,対象の文の選択の方法も異なるので,参考にしかできないが,この文長の文に対しては,白井の手法に比較して3\%程度良い結果を,KNPと比較した場合には3\%程度悪い結果を得た.白井の実験では,EDRコーパス,RWCコーパスを利用し,トレーニングデータとしては我々よりも大きなデータを利用している.また,白井はランダムに選んだ500文については84.34\%という解析結果を示している.KNPは,この評価で使用したテストコーパスに基づいて改良されており,KNPの評価結果は,トレーニングデータに対するものと言う事ができる.\begin{flushleft}\underline{藤尾,春野との比較}\end{flushleft}藤尾\cite{fujio:emnlp98}は文節間の属性の共起頻度による統計的解析手法を提案した.また,春野\cite{haruno:nlpsympo97}は決定木およびブースティングを利用した係り受け解析を行なっている.これらの評価はEDRコーパスを利用し,試験対象データの選択手法も我々とは異なっているため,直接的な評価は難しい.彼等の場合は,形態素解析から解析を行なっているが,評価には文節区切が正しい物のみを利用したり,正解を自分の文節区切の結果に翻訳してから評価を行なっている.しかし,共に85\%程度の正解率が出ており,我々の手法も同様な位置を占めている.これらの手法は,ほぼ利用している知識の種類が同様であり,計算の手法に違いがあるものの,同様な結果を得ていると考えていいと思う.手法の違いによる詳しい比較を行なうためにも,同じプラットフォームでの実験とそれを元にした考察が望まれる.\begin{flushleft}\underline{江原との比較}\end{flushleft}江原の手法\cite{ehara:nlp98}は,我々の手法と同様にMEを用いており,そういった意味で比較するのは意味があるが,対象文は,NHKのニュース原稿であり,平均文節数も17.8と我々の対象にしている京大コーパスとは全く異なっている(平均文節数は10.0).ただし,図~\ref{LengthAndAccuracy}に示したように,我々の結果は文節数と係り受け正解率の関係はあまり変化が見られず,長いからといって必ずしも解析が困難だとは限らない.これらの理由により,単純な比較は意味がないが,正解率において,我々の手法が約10\%上回っているのはなんらかの要因が存在すると考えられる.(江原の手法では正解率は76.4\%と報告されている.)特に江原の方法とは素性の数に大きな差があるようである.江原が用いた一次的な素性値の数は200個程度であり,我々の一時的な素性値の数の約5000個とは大きく異なっている.また,我々は組合せの素性も4万個程度利用している.この点深く掘り下げて検討する事に意味があると考える.また,MEに利用する素性の選択に関しては,江原の他にも白井\cite{shirai:jnlp98:2}Berger\cite{berger:emnlp98}等が興味深い提案をしている.\subsection{ビーム幅と精度}次に,我々の実験の中での比較結果を報告する.まずは,解析時に用いたビーム幅と精度の関係である.解析時のビーム幅が広ければ広い程,全体として確率の高い解析が得られる可能性が高くなるので,ビーム幅は高く設定した方が望ましいと考えられる.しかし,結果はその直観とは異なっていた.表~\ref{BeamAndAccuracy}にビーム幅を1から20に変化させた時の係り受け正解率と文正解率を示す.\begin{table}[tbh]\caption{ビーム幅と係り受け正解率,文正解率との関係}\label{BeamAndAccuracy}\begin{center}\begin{tabular}{|c||c|c|}\hlineビーム幅&係り受け正解率&文正解率\\\hline1&87.14&40.60\\2&87.16&40.76\\3&87.20&40.76\\5&87.14&40.60\\10&87.20&40.60\\15&86.21&40.60\\20&86.21&40.60\\\hline\end{tabular}\end{center}\end{table}全体的に変化は小さいが,係り受け正解率はビーム幅が3と10の時に,文正解率はビーム幅が2と3の時に最大になっている.これは,全体の確率が最大の物が正解ではなく,各段階ごとに正解を絞っていった方が正解になるという場合がある事を示している.これは「はじめに」で書いた,日本語係り受けの特徴(4)にも関係していて面白い.この結果によると,文末から文頭に係り受け解析をする際に,最良の結果のみを得たい場合には,決定的に行なってもかなり精度の良いものが得られるという事が言える.実際に,ビーム幅を1とした時に得られた答が,ビーム幅20とした時の解析結果のどこに現われるかを調査した結果を表~\ref{OneOnTwenty}に示す.\begin{table}[tbh]\caption{決定的解析結果の位置}\label{OneOnTwenty}\begin{center}\begin{tabular}{|c||c|c|c|c|c|c|c|c|c|c|}\hline位置&1&2&3&4&5&6&7&8&9&10\\\hline頻度&1175&20&11&8&4&2&1&2&0&3\\(\%)&(95.3)&(1.6)&(0.9)&(0.6)&(0.3)&(0.2)&(0.1)&(0.2)&&(0.2)\\\hline\hline位置&11&12&13&14&15&16&17&18&19&20以上\\\hline頻度&1&0&1&0&1&0&1&1&0&8\\(\%)&(0.1)&&(0.1)&&(0.1)&&(0.1)&(0.1)&&(0.6)\\\hline\end{tabular}\end{center}\end{table}実際に全体の95\%の場合,ビーム幅1の解析結果がビーム幅20の解析において最大の確率を持つ結果と同等であった.また,ビーム幅が1の解析において文全体が正解であった503文の中では,N=20での結果において1位の場所に同じ解析結果があったものが498文(99.0\%)と非常に高い率であった(以下2位の位置が3文,3位と5位の位置がそれぞれ1文づつあった.).これらの文においては,最大の確率を持つ解析は,文末から解析していった場合に,各文節ごとの段階においてつねに最良の結果であったという事を意味している.これは,「はじめに」で書いた特徴(4)とも関係がある.「はじめに」の脚注に書いた人間に対する実験は文節に対する割合であるので,上記の文に対しての数字は,人間の実験で得られたよりもかなり高い割合で,前方の文脈の不必要さを実証したという事になる.\subsection{N--Best文正解率}文正解率はビーム幅が1の実験では40.60\%であったが,最終的に得られる解析の数を広くすればする程,正解率が向上する事が考えられる.図~\ref{NBestAccuracy}にビーム幅を20として解析を行なった場合のN--best文正解率を示す.N--best文正解率とは,上位N個の解析結果を見た場合に,文中のすべての文節係り受けの解析が正しい解析結果がその中にある割合の事を言う.\begin{figure}[htbp]\beginpicture\setcoordinatesystemunits<10pt,4pt>\setplotareaxfrom0to20,yfrom30to80\axisbottomlabel{N}ticksshortquantity21numberedat05101520//\axisleftlabel{文正解率}ticksshortquantity6numberedat304050607080//\multiput{*}at140.60253.19358.35462.71565.54667.96769.65870.70971.271072.481173.771275.061375.541476.431576.671677.241777.891878.291978.292078.53/\setlinear\plot140.60253.19358.35462.71565.54667.96769.65870.70971.271072.481173.771275.061375.541476.431576.671677.241777.891878.291978.292078.53/\put{40.60\%}[lb]at240.60\put{78.53\%}[lb]at1973\endpicture\caption{N--best文正解率}\label{NBestAccuracy}\end{figure}N=20,つまり,ビーム幅と同様の最終結果を見た場合に,文全体の係り受けが正解である解析結果が上位20個の解析結果に含まれる割合は78.5\%であるという事である.この中から正解を捜し出せる理想的なシステムを開発できた場合には,文正解率が78.5\%という非常に優れた解析システムができる可能性があるという事である.この結果から二つの考察ができる.まず,一点はN=1の文正解率は約40\%であるのに対して,N=2で向上した割合,つまり,2番目の解析結果が正解であった割合は10\%程度と非常に低くなっている.また,この40\%という数字は,N=20の場合の78.5\%という数字の半分以上であり,半分以上の場合においてN=1の所に正解が存在したという事を意味する.これは,我々の確率の計算手法が,まだ改善の余地はあるものの,かなり正確であるという事を示している.もう一点は,文正解率が80\%あたりで飽和しており,80\%程度以上の向上はNを多少大きくしても望めなさそうであるという事である(もちろん,Nをすべての組み合わせの数にすれば100\%にはなるが現実的に意味はない.).これは,我々が何か大きな要因を見過ごしている可能性がある.特に,並列構造についての解析能力が低いようである.この点を改良し,再度検討していきたいと思う.\subsection{解析速度}前章にあるアルゴリズムを分析すると,解析時間は文節長に対して2乗になっていると推測できる.実際に,ビーム幅1の時の文節長と解析速度の関係を調べた(図~\ref{Kaisekisokudo}).実験はSunのUltra10,周波数(300MHz)を利用した.係り受け解析のプロセスの大きさは8M程度であった.\begin{figure}[htbp]\beginpicture\setcoordinatesystemunits<4pt,360pt>\setplotareaxfrom0to50,yfrom0to0.5\axisbottomlabel{文長}ticksshortquantity6numberedat01020304050//\axisleftlabel{解析時間(秒)}ticksshortquantity11numberedat00.10.20.30.40.5//\multiput{*}at170.06750.008120.048150.06190.029120.045100.02660.01450.00880.011190.05560.014100.039100.04070.01790.025140.035130.03350.010110.03970.016190.05780.01990.02260.014100.022160.03810.00040.007230.12360.012150.04340.006130.03160.01660.015100.018100.01710.00160.01230.00410.00110.00140.005140.04550.01120.00240.00550.01030.00360.01050.00860.00930.00350.01080.02620.00290.031140.058160.087140.033150.041110.035100.03770.018100.03090.020170.109100.030100.03350.01460.011140.041130.02540.00870.02090.02270.01920.00310.00140.00820.00280.01720.002120.04160.01410.00190.01650.00740.01130.00530.00470.022110.03440.008160.05040.00560.01780.01440.00560.00870.01540.00620.00290.03120.00330.00450.010100.02590.027130.03650.00860.01370.012170.039110.042100.02310.00190.02060.01690.030160.06380.02070.01320.002120.02640.00950.011160.04050.008130.05580.01970.01510.00160.00860.01660.01380.01980.01590.025160.09970.02020.003110.041140.05980.026130.051170.063270.087130.031110.03080.020140.050210.191210.067120.04580.01680.01950.008110.03050.008100.035140.083200.11150.010130.037100.051100.02250.01160.01650.01240.00740.006190.07660.01060.011110.025110.026110.032130.03450.00880.017100.026110.02840.00650.013130.04260.013130.039100.02480.018100.021110.027230.09280.018140.058100.03840.00640.00970.01050.01090.01870.015100.03540.008150.06440.006150.03450.01550.01020.003120.02960.01590.02310.00150.007180.04980.01670.013120.065120.032140.04670.022110.04380.02050.009140.02560.01270.01590.02730.00430.005100.03840.005120.03990.01950.006110.02830.00790.023120.044140.04730.00380.025110.02880.018120.05370.01450.00980.01890.017120.033140.03790.03870.01470.01360.01680.026100.04270.018100.022150.07130.00550.012190.060100.036220.111230.06430.00440.006180.042210.10560.01270.01480.016190.075110.02230.00490.022130.03780.01350.01040.00690.017140.038130.039110.016130.03540.00540.00590.02390.02340.01090.03560.02160.01430.00540.006100.02040.00850.00850.00730.00550.01140.00520.00430.00430.00360.01260.013100.02270.01620.00380.01710.00160.01090.03290.023130.03220.00360.01460.012110.03380.02480.01950.01320.00390.026100.02790.03380.01680.018150.04640.008220.08250.008150.05060.01590.02560.014110.03060.020140.04680.022150.045140.039140.034250.082140.038150.042100.031140.049110.028120.046150.057120.02990.020150.05090.038100.02780.02720.00350.01290.01930.005100.04170.021110.034120.044190.090210.078140.059190.119130.04330.003170.03670.017120.02670.01660.01330.003180.07560.01080.020110.048100.06080.02610.00190.04530.00510.00210.001180.059100.033120.04590.01940.00890.03090.024130.04470.01940.008160.05430.003100.06290.01850.009150.03890.02850.01260.00990.02110.00140.00720.00210.00150.009240.10320.00320.00230.00450.00710.00160.01420.003100.02740.00880.018130.02780.023180.082100.02490.02910.00020.00150.00940.00640.00880.01780.01240.00780.023140.04260.00940.007100.023100.037130.031110.03530.003120.02950.011150.09150.007120.03090.01850.011110.031250.104270.11860.01130.006130.04450.01280.017300.126100.021160.05940.007110.043260.12570.01490.02170.01970.015280.133200.078120.040100.031220.06660.015170.07460.02570.020200.079130.03910.000100.020120.05280.018120.02610.001130.03080.017120.039120.04190.01790.02050.008160.04220.00240.010110.03040.00810.00160.009140.07280.02350.01170.01990.01830.00450.008130.02680.01940.00540.00590.02040.00880.01690.01850.00550.009150.05680.014100.02280.01340.008150.03540.00760.011180.05480.020100.04090.019130.03390.01990.019140.05240.01220.003100.02590.020170.05270.02450.010120.022110.034160.05760.01250.01190.032120.034120.039140.03770.01830.00740.00740.00760.013120.02750.00970.01690.024190.05330.00470.014150.07780.02130.00560.012120.02650.011160.041120.03960.01020.00270.01590.020130.05340.01090.02440.005180.04680.014100.02420.00390.02280.02180.03230.00420.003140.03850.01170.021140.06060.01270.013110.032120.03260.018130.031180.05590.022130.04980.018110.03250.00880.01930.00490.018140.03950.00740.00960.010100.02710.00120.00260.00910.00240.00660.014140.05370.014140.03680.02030.00580.01970.01890.020130.02810.001150.026140.055110.035240.142180.08490.021170.055170.09690.026100.029150.03530.006140.03590.02280.02160.00980.02070.02270.01940.00760.01780.01670.01760.01390.01660.01440.008160.05230.004120.02470.01410.00130.005100.031110.02540.00990.02040.00980.02340.00650.01280.020130.03390.02420.00340.00640.00890.03530.00360.01170.01370.01340.009150.043110.038120.03150.008120.03450.00980.02310.00120.00340.010180.10290.01990.01740.00930.00490.01790.03430.00590.02330.004150.04840.008270.139130.029140.05350.00970.017100.02290.01790.03180.028130.047160.046100.026140.04660.01260.012150.080120.029120.03580.01930.004170.060230.143230.096110.029100.040140.04280.014240.09790.03290.031220.066150.043100.023150.05180.021150.06190.029210.088110.02230.006110.026140.038180.039100.028200.102140.04580.02950.01090.055140.064210.124100.04680.018110.051140.097120.05930.005160.05290.02840.007160.045200.06690.032180.04720.00260.01070.01710.00120.00240.00860.00820.00620.00340.006110.02830.003150.05740.00650.013160.07730.00550.01360.01310.00150.012130.030200.06650.01280.027110.03540.01150.01360.013210.09280.035100.02170.02470.01470.01360.013140.04090.02670.021120.023140.03910.00130.003150.03450.01170.02660.01240.00760.01850.01030.00640.00450.01250.008100.02890.02560.01380.01860.01380.01990.02760.00920.00310.00190.02670.02430.00790.02180.023130.05040.00720.00260.01260.01130.00480.020100.02340.00690.02570.01380.01690.014110.02840.008130.04170.015210.06550.01260.010190.065200.062110.02750.009120.03990.018140.03190.02550.014250.087150.080160.059180.070120.041160.047150.044220.104130.040100.024160.05380.02080.019120.031100.029180.063200.078110.02890.02690.022160.06210.00040.00760.011170.04540.00740.00630.006170.03750.00870.01680.01390.02690.02620.00170.018110.02640.00720.00280.02650.010250.06970.01790.023100.02120.00410.00130.00410.00190.01960.012180.06980.02340.006140.06270.02080.040170.061130.02660.015130.050120.03290.03110.00190.030200.06350.009170.041110.02960.013110.030150.08690.022110.03370.013140.035140.039100.026110.01770.01290.03340.006200.065110.033170.05110.00040.009170.04790.020100.041150.03660.01450.01130.00660.01720.00430.00410.00140.01030.00540.00620.00390.02490.020160.03720.00380.02210.00150.00820.00230.003100.02640.006140.05320.002400.28790.01600.00080.017150.061100.042110.031130.06440.008170.074100.03090.02670.01460.01990.030130.034240.10140.00620.00340.01070.02270.01400.00080.01940.00640.00960.01780.01660.01350.010100.032260.07240.004110.02930.00340.00910.00160.01460.01780.01820.00390.02090.02150.01540.00670.01640.00840.00840.006120.046110.02660.015250.11460.01510.001180.094120.059110.041130.03860.014270.113140.076140.04250.00880.02490.026210.091130.03890.023170.065150.046170.090140.03960.008100.024130.04450.010200.09490.02790.02290.03190.02440.00980.01850.009270.267170.133160.04660.01390.02180.02470.01780.021150.050110.031100.030100.02650.009190.06220.00450.00940.00380.01670.011130.038180.05440.00830.00890.02530.00360.01190.03570.014150.060130.034130.03430.007100.031100.031140.04370.01580.022240.06730.006100.02380.020110.03440.008110.03950.00940.007100.032220.10070.018170.05870.012160.03670.01530.003110.027230.067200.09130.005240.076260.16170.026160.04390.02120.00470.032100.03950.013230.13060.023100.032180.08630.006160.076370.151180.062130.03030.004180.040150.04580.02170.01530.00580.026210.059100.02290.027100.03130.005150.06130.005100.041130.046110.03470.026110.040100.03310.00160.01020.002160.055220.119360.19250.00980.02640.008210.09050.013100.02150.01490.01760.01280.02990.025220.11890.02580.033210.08420.00230.005110.03770.01240.005120.035140.05810.00180.02140.01070.01930.006100.03360.01370.015120.044110.033130.058100.023140.052100.033180.059200.059120.046150.057100.023160.05250.01160.01360.012140.07530.00740.007170.05680.016130.036120.04590.022160.04530.00640.00630.00670.012220.098220.14840.00890.02540.008130.039120.05840.013130.05680.023110.02730.005/\setquadratic\plot00200.08400.32/\put{$t=0.0002*n^{2}$}[lb]at300.4\endpicture\caption{ビーム幅1の時の文節長と解析速度の関係}\label{Kaisekisokudo}\end{figure}図から実際の解析時間も,文長に対してほぼ2乗になっている事が分かる(参考の為に描き入れた二次曲線を参照.).実際は定数部分がある為に曲線の最初の部分は分布よりも下になっていると考えられる.一文あたりの平均解析時間は0.03秒(平均文節数10.0),最長文である41文節の文に対しては0.29秒で解析を行なった.実際,プログラムを最適化する余地は存在し,その係数については改善の余地があると考えている.また,プロセスサイズについても必要ならば,縮小する余地はあると考えている. \section{まとめ} 本論文では文末から解析する統計的係り受け解析アルゴリズムを示した.日本語の係り受けは,ほとんどが前方から後方であるという特徴を生かし,解析は文末から文頭の方向へ解析を進めるという点と,色々な提案によって有効性が示されている統計的文解析を利用するという二つの特徴を兼ね備えた日本語文係り受け解析を提案した.係り受けの正解率は,正しい文節解析ができた結果から開始した場合,京大コーパスを使用した実験で係り受け正解率が87.2\%,文正解率が40.8\%と高い精度を示している.ビームサーチのビーム幅を調整した実験では,ビーム幅を小さくする事による精度の劣化が認められなかった.実際にビーム幅が1の際に得られた結果の95\%はビーム幅20の時の最良の結果と同一であった.また,N--best文正解率を見た時には,Nが20の時には78.5\%という非常に高い結果を示している.解析速度は,解析アルゴリズムから推測される2乗程度であり,平均0.03秒(平均文節数10.0),最長文である41文節の文に対しては0.29秒で解析を行なった.また,他の手法との比較では,共通のベンチマークがない為,直接的な比較はできなかったが,各手法と同程度か優れた結果が得られたと判断した.共通のベンチマークを作る事は,お互いのシステムの特徴を直接的に比較し,技術の向上を計る為に有意義であると考えられる.また,今回は,文節切りができている点から解析を開始したが,そうでなく文からの解析を行なった場合には,評価の方法も難しくなる.特に文節切りが正解とシステムが出した結果とで異なる場合にはどのように判断したらよいかスタンダードな方法がない状態である.協力しあってこのようなスタンダードを決める事は意味があると思われる.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{関根聡}{1987年東京工業大学応用物理学科卒.同年松下電器東京研究所入社.1990-1992年UMIST,CCL,VisitingResearcher.1992年MSc.1994年からNewYorkUniversity,ComputerScienceDepartment,AssistantResearchScientist.1998年PhD.同年からAssistantResearchProfessor.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL会員.}\bioauthor{内元清貴}{1994年京都大学工学部電気工学第二学科卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所,郵政技官.自然言語処理の研究に従事.言語処理学会,情報処理学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.工学博士.同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.情報処理学会,言語処理学会,人工知能学会,日本認知科学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V07N03-04
\section{はじめに} 日本語とウイグル語は言語学上の区分において,共に膠着語に分類され,両言語の間には語順がほぼ同じであるなどの様々な構文的類似点が見られる.そのため,日本語--ウイグル語機械翻訳では,形態素解析が終了した段階で各単語を対応するウイグル語に置き換える,いわゆる逐語翻訳によって,ある程度の翻訳が可能となる\cite{MUHTAR}.ところで,学校文法をはじめとする多くの日本語文法では,文の中心的役割を果たす動詞が活用することを前提としている.しかし,ウイグル語の動詞は活用しないと考えられてきたため,両言語間の翻訳の際には,活用の有無の違いを考慮する必要があった.それに対して,\cite{MUHTAR}は推移グラフの利用を提案したが,実際の処理の際には扱いにくいという問題がある.一方,Bloch\cite{BLOCH}を源流とする音韻論に基づく文法は,活用を用いることなく日本語の動詞の語形変化を表現することが可能である.本論文では,それらの中でも,動詞の語形変化を体系的に記述することに成功している派生文法\cite{KIYOSE1}\cite{KIYOSE2}を使用する.派生文法は,日本語の膠着語としての性質に着目した文法であり,動詞の語形変化を語幹への接尾辞の接続として表現する.さらに,ウイグル語も同じ膠着語であるので,その語形変化も派生文法で記述可能であると考えられる.原言語である日本語と目標言語であるウイグル語の双方を共に派生文法で記述することができれば,その結果,両言語間の形態論的類似性がより明確になり,単純でかつ精度の高い機械翻訳の実現が期待できる.特に,本論文で扱う動詞句の翻訳においては,複雑な活用処理をすることなく,語幹と接尾辞をそれぞれ対応する訳語に置き換えることにより,翻訳が可能になると考えられる.そこで,本論文ではウイグル語の動詞句も派生文法に基づいて記述することにより,活用処理を行うことなく,簡潔にかつ体系的に日本語からウイグル語への動詞句の機械翻訳を実現する手法を提案する.膠着語間の機械翻訳に関する研究としては,日本語と韓国語との間の研究\cite{H_LEE1990}\cite{S_LEE1992}\cite{J_KIM1996_2}\cite{J_KIM1998}が多くなされている.それらでは,日本語および韓国語の動詞がともに活用することを前提に翻訳が行われているが,両言語において活用変化の仕方が異なる点が問題とされている.例えば,日本語の学校文法においては,活用形が未然形,連用形,終止形,連体形,仮定形,命令形の6つに分類されるが,これは日本語独自の分類であり,韓国語の活用形の分類とは一致しない.そのため,両言語の活用形の間で対応をとる必要があるが,日本語の連用形は文中における機能が多岐に渡るため,韓国語の活用形と1対1に対応させることは困難である.また,日本語の学校文法が用言の活用を五段活用および上下一段活用の2種類の規則活用とカ変およびサ変の不規則活用に分類しているのに対して,韓国語には種々の不規則動詞が存在し,その変化の仕方は日本語と異なる.そうした日本語と韓国語の比較については,文献\cite{J_KIM1996_2}が詳しい.そのため,これまでの日本語--韓国語機械翻訳の研究においては,日本語の語形変化の処理と韓国語の語形変化の処理を別々に行っている.それに対して本研究では,日本語およびウイグル語の動詞は共に活用しないとしているため,活用形の不一致は問題とならない.また,動詞句の形成には派生文法に基づく同一の規則を用いるため,日本語とウイグル語の語形生成を同じ規則で扱うことが可能である.また,日本語と韓国語との間の翻訳においては,もう一つの問題として様相表現の違いが指摘されてきた.これは,様相表現を表わす接尾辞の接続順序が日本語と韓国語で異なるために生じる問題であり,この問題を解決するために,意味接続関係によって記述された翻訳テーブルを使用する方式\cite{J_KIM1996_2}や,様相情報の意味をテーブル化し,PIVOTとして用いる方式\cite{J_KIM1998}などが提案されている.日本語とウイグル語では,様相表現を表す接尾辞の接続順序は同じであるため,そうした点も問題とはならない.しかし,日本語とウイグル語には,同じ意味役割を果していても,互いに品詞の異なる単語が存在する.そのため,それらの単語の翻訳においては,単純に置き換えただけでは不自然な翻訳文が生成される.本論文では,この問題はウイグル語の語形成の性質を利用することによって解決できることを示す.具体的には,日本語形態素解析の結果を逐語翻訳した後,ウイグル語単語の接続情報を用い,不自然な並びとなる単語列を他の訳語に置き換えることによって,より自然なウイグル語文を生成する.さらに,本研究では形態素解析システムMAJO\cite{OGAWA1999}を利用して日本語--ウイグル語機械翻訳システムを作成した.MAJOは派生文法に基づいて日本語の形態素解析を行うシステムである.MAJOの辞書は,本来,日本語単語とその品詞および意味情報の3項組で構成されているが,この機械翻訳システムでは,意味情報の代わりにウイグル語訳語を与え,日本語--ウイグル語対訳辞書として利用した.その結果,MAJOの出力結果は,そのまま日本語からウイグル語への逐語翻訳となっている.さらに,このMAJOの出力結果に前述の訳語置換を適用するモジュール,および,ウイグル語特有の性質に合わせて,最終的な出力文を整形するモジュールをそれぞれ作成した.このように,機械翻訳システムを独立のモジュールから構成する設計としたが,これにより派生文法で記述された他の膠着語との間の機械翻訳システムの実現にも応用可能であると考えられる.なお,本論文で使用する派生文法は音韻論的手法の一種であり,入力文を音素単位で解析するため,日本語の表記の一部にローマ字を用いる.また,ウイグル語の表記においても,計算機上で扱うときの簡便さから,本来のウイグル文字ではなく,そのローマ字表記を用いる.そこで,日本語とウイグル語との混同を避けるため,以下では,日本語の単語は「」,ウイグル語の単語は``''で囲んで区別する.本論文の構成は以下の通りである.まず2章では,学校文法に基づく日本語--ウイグル語逐語翻訳の例とその問題点を指摘する.3章と4章では,派生文法に基づいて日本語とウイグル語の動詞句をそれぞれ記述し,5章で派生文法に基づく日本語--ウイグル語逐語翻訳手法を示す.6章では,単純な逐語翻訳だけでは不自然な翻訳文が生成される問題を取り上げ,7章で,その問題に対する解決法である訳語置換表を提示する.また,8章で日本語--ウイグル語機械翻訳システムの実現について述べ,9章では,実験によるそのシステムの性能評価について述べる.10章は本論文のまとめである. \section{日本語--ウイグル語逐語翻訳} 日本語とウイグル語は互いに良く似た言語であり,語順もほぼ同じ\footnote{本論文では触れないが,形容詞の比較表現などにおいて日本語と語順が異なる場合が見られる.}である.そのため日本語--ウイグル語機械翻訳においては,日本語入力文の形態素解析を行った段階で,各単語を対応するウイグル語の単語に置き換えれば,構文解析を行うことなく,ある程度の翻訳が可能となる.図~\ref{honyaku}~は,日本語の入力文「肉ヲタクサン食ベタ」に対して単純な逐語翻訳を行った例であり,出力文``Goxniji\mk\y\medi''は自然なウイグル語文となっている.\begin{figure}[tbp]\begin{center}\begin{tabular}{lccccc}{\dg入力文:}&\multicolumn{5}{c}{肉ヲタクサン食ベタ}\\&\multicolumn{5}{c}{$\Downarrow$}\\{\dg形態素解析:}&肉&ヲ&タクサン&食ベ&タ\\&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$\\{\dg逐語翻訳:}&Gox&ni&ji\c{k}&y\'e&di\\&\multicolumn{5}{c}{$\Downarrow$}\\{\dg翻訳文:}&\multicolumn{5}{c}{Goxniji\c{k}y\'edi}\\\end{tabular}\caption{日本語-ウイグル語逐語翻訳}\label{honyaku}\end{center}\end{figure}しかし,学校文法を始めとする従来の日本語文法では,動詞が活用することを前提としていたため,翻訳の際には活用処理が問題となる.例えば,日本語の動詞語幹と活用語尾を分離しそれぞれを辞書に登録して形態素解析した場合は,活用語尾の翻訳が問題となる.図~\ref{verb_1}~は動詞句「作ラレル」および「作ル」を逐語翻訳によって翻訳した例であるが,ここで「作ラレル」の「ラ」および「作ル」の「ル」は,それぞれ未然形,終止形を表わす活用語尾である.翻訳されたウイグル語文においては,活用語尾「ラ」に対応する単語は存在しないが,「ル」に対しては,終止形を表わすウイグル語の接尾辞``-ydu''が対応している.また,「作ラレル」の「ル」および「作ル」の「ル」は,同じ活用語尾であるが,前者は``-idu''に,後者は``-ydu''にそれぞれ翻訳されている.このように,日本語の動詞は活用すると考え,動詞語幹と活用語尾を分離した場合,活用語尾の訳語を決定するために,きめ細かな処理が必要である.\begin{figure}[btp]\begin{center}\begin{tabular}{ccccccc}\multicolumn{4}{c}{作ラレル}&\vline&\multicolumn{2}{c}{作ル}\\\multicolumn{4}{c}{$\Downarrow$}&\vline&\multicolumn{2}{c}{$\Downarrow$}\vspace{-2pt}\\作&ラ&レ&ル&\vline&作&ル\vspace{-2pt}\\$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&\vline&$\downarrow$&$\downarrow$\vspace{-2pt}\\yasa-&$\times$&-l-&\underline{-idu}&\vline&yasa-&\underline{-ydu}\vspace{-2pt}\\\multicolumn{4}{c}{$\Downarrow$}&\vline&\multicolumn{2}{c}{$\Downarrow$}\vspace{-2pt}\\\multicolumn{4}{c}{yasalidu}&&\multicolumn{2}{c}{yasaydu}\vspace{-5pt}\\\end{tabular}\caption{動詞句の翻訳}\label{verb_1}\end{center}\end{figure}一方,日本語の動詞の活用形ごとに,対応するウイグル語の訳語を登録する手法も考えられる.これは,ウイグル語も活用していると考えた手法と言える.表~\ref{conjugating_uighur}~は日本語の動詞「作ル」と,それに対応するウイグル語動詞``yasaydu''に関して,活用形ごとに対応を示したものである.\begin{table}[tbp]\caption{日本語の活用形とウイグル語の対応}\label{conjugating_uighur}\begin{center}\begin{tabular}{l|l|l|l|l}\hline\hline活用形&日本語&用例&ウイグル語&用例\\\hline語幹&作&&yasa&\\\hline未然形&作ラ&作ラナイ&yasa&yasamaydu\\&作ロ&作ロウ&yasa&yasay\\\hline連用形&作リ&作リナガラ&yasa&yasa\mgaq\\&作ッ&作ッタ&yasa&yasa\mgan\\\hline終止形&作ル&作ル.&yasaydu&yasaydu.\\\hline連体形&作ル&作ル人&yasaydi\mgan&yasaydi\mganad\mem\\\hline仮定形&作レ&作レバ&yasa&yasasa\\\hline命令形&作レ&作レ&yasa\mgin&yasa\mgin\\\hline\end{tabular}\end{center}\end{table}\cite{MUHTAR}では,そのような考え方に基づいた推移グラフを導入することにより,活用形を処理していた.このグラフでは,各辺に日本語の助動詞が,また,各節点にウイグル語の訳語が割当てられており,グラフの辺を開始節点から順にたどることによって,複雑な語形変化を含む動詞や助動詞の接続を処理する.しかし,この推移グラフは開始節点が動詞の活用形ごとに異なるため,1つの動詞に対して活用形の数だけ開始節点が必要である.また,1つの助動詞に対して複数の辺が対応しているため,実際の処理の際には扱いにくいという問題がある.本論文では,日本語動詞の活用を前提としない派生文法を利用することにより,そうした活用処理を必要としない,簡潔かつ体系的な日本語--ウイグル語動詞句翻訳手法を提案する. \section{派生文法による日本語動詞句の記述} \label{sec:derivational_grammar}従来の日本語文法は,用言の活用を前提にしており,学校文法では,その活用形は未然形,連用形,終止形,連体形,仮定形,命令形の6つに分類されている.一方,日本語は言語学上の分類において{\dg膠着語}であるとされている.膠着語とは,文法的機能を表す接辞が,実質的観念を表す語幹に結合することによって単語を形成するという性質をもつ言語の総称である.ゆえに,膠着語である日本語が活用することは不合理であると捉えられ,活用を前提としない{\dg派生文法}\cite{KIYOSE1}\cite{KIYOSE2}が提案されている.本章では,派生文法による日本語の記述方法を,その特徴が現れる動詞句の形成についてまとめる.\subsection{連結子音と連結母音}\label{sec:union}動詞の不変化部分を語幹と呼ぶ.学校文法における一段活用動詞「見ル」「食ベル」などの場合は,不変化の部分「見」「食ベ」がそれぞれ語幹であり,その際,語幹は母音iかeのいずれかで終わる.また,五段活用動詞の「書ク」の場合,学校文法では「書カ」「書キ」「書ク」「書ケ」「書コ」のように末尾が変化するとされるが,これは音韻論的に考えれば「kak-a」「kak-i」「kak-u」「kak-e」「kak-o」であり,「kak」を語幹として取り出すことができ,語幹は子音で終わる.そこで,派生文法では,一段活用動詞のように母音で終わる語幹を{\dg母音幹}と呼び,五段活用動詞のように子音で終わる語幹を{\dg子音幹}と呼ぶ.派生文法では,動詞の変形は動詞の語幹に接尾辞が接続したものとして考える.そのため,学校文法でいう活用形の語尾や助詞,助動詞をいずれも接尾辞として扱う.それらを学校文法における活用の形に対応させると表~\ref{suffix}~のようになる.なお,表~\ref{suffix}~における記号$\phi$は,音便により対応する子音が消失したことを表している.\begin{table}[tbp]\caption[接尾辞]{動詞と接尾辞の接続例}\label{suffix}\begin{center}\begin{tabular}{l|l|l|l}\hline\hline活用形&子音幹の例&母音幹の例&接尾辞\\\hline未然形&kak-ana-i&tabe-na-i&-(a)na-i\\&kak-are-ru&tabe-rare-ru&-(r)are-(r)u\\&kak-ase-ru&tabe-sase-ru&-(s)ase-(r)u\\&kak-ou&tabe-you&-(y)ou\\\hline連用形&kak-imas-u&tabe-mas-u&-(i)mas-(r)u\\&ka$\phi$-ita&tabe-ta&-(i)ta\\\hline終止形&kak-u&tabe-ru&-(r)u\\\hline連体形&kak-u&tabe-ru&-(r)u\\\hline仮定形&kak-eba&tabe-reba&-(r)eba\\\hline命令形&kak-e&tabe-ro&-e/-ro,-yo\\&kak-una&tabe-runa&-(r)una\\\hline\end{tabular}\end{center}\end{table}ここで,終止形「kak-u(書ク)」「tabe-ru(食ベル)」の場合,接尾辞はそれぞれ「-u」「-ru」である.派生文法ではこれをまとめて「-(r)u」と表記する.子音rの有無は動詞語幹の末尾に依存して決まる.例えば「kak-」に「-(r)u」が接続した場合,子音が連続することになるので,接尾辞の先頭のrが欠落する.そのような子音を{\dg連結子音}と呼ぶ.一方,否定の助動詞「ナイ」が接続する場合を考えてみる.これは未然形に接続する接尾辞である.派生文法では「書カナイ」「食ベナイ」を表~\ref{suffix}~に示すように,それぞれ「kak-ana-i」「tabe-na-i」と解析する.ここで,否定を表す接尾辞は「-(a)na-」の形で表され,母音aは母音が連続する場合に欠落する.そのような母音を{\dg連結母音}と呼ぶ.以上より,派生文法では,語幹と接尾辞の接続を以下の2つの規則で記述できる.\begin{description}\item[接続規則1:]子音幹に連結子音を持つ接尾辞が接続する場合,連結子音を削除する.\item[接続規則2:]母音幹に連結母音を持つ接尾辞が接続する場合,連結母音を削除する.\end{description}\subsection{統語接尾辞と派生接尾辞}\ref{sec:union}~節で否定の接尾辞を「-(a)nai」ではなく「-(a)na-i」と表記した.これは「kak-ana-katta(書カナカッタ)」のように,「-(a)na-」の後にさらに他の接尾辞が接続することが可能だからである.これは,動詞語幹に接尾辞「-(a)na-」が接続することにより,新たな語幹が派生したと見ることができる.そのような語幹を{\dg二次語幹}と呼び,二次語幹を派生する接尾辞を{\dg派生接尾辞}と呼ぶ.日本語の派生接尾辞には他に「-(s)ase-」「-(r)are-」「-(r)e-」「-(i)mas-」「-(i)ta-」があり,それぞれ使役,受身・可能・尊敬,可能,丁寧,希望の意義を表す.二次語幹に対する接尾辞の接続に関しても接続規則1および2は適用される.例えば表~\ref{suffix}~では,「kak-(i)mas-\underline{(r)}u」における連結子音rが削除されている.一方,派生接尾辞に対して,「-(r)u」のように新たな語幹を派生しない接尾辞を{\dg統語接尾辞}と呼ぶ.統語接尾辞は動詞形を形成する役割を果たす.ここで,動詞形とは終止形,連体形,連用形,命令形の四形のことである.動詞に複数の接尾辞が接続する場合には,統語接尾辞が最後に接続する. \section{派生文法によるウイグル語動詞句の記述} \ref{sec:derivational_grammar}~章で述べた動詞句形成の特徴は日本語だけでなく,多くの膠着語にも現れる現象であり,ウイグル語にも同様の特徴がある.我々は,ウイグル語の記述に派生文法を用いることにより,その共通点を明確にした.例えば,日本語の動詞「書k-」に相当するウイグル語の動詞は``yaz-''である.使役の意味を表す場合,日本語では派生接尾辞「-(s)ase-」が接続して「書kase-」となる.同様にウイグル語では,``-\mguz-''という派生接尾辞が接続して``yaz\mguz-''となる.両言語間の派生接尾辞の対応を表~\ref{deri}~に示す.ここで,敬語表現の違いから,丁寧を表す日本語の接尾辞「-(i)mas-」に相当するウイグル語の接尾辞は存在しない.また,「-(r)are-」は受身・可能・尊敬の意味があるが,ここでは受身の意味に限定している.また,両言語とも最後に統語接尾辞が接続することによって動詞句が形成される.上述の例では,日本語の「-(i)ta」に相当する``-di''が``yaz\mguz-''に接続することで,動詞句``yaz\mguzdi''が形成される.両言語間の統語接尾辞の対応を表~\ref{tab:s_suffix}~に示す.\begin{table}[tbp]\caption{日本語とウイグル語の派生接尾辞の対応}\label{deri}\begin{center}\begin{tabular}{l|l|l|l|l}\hline\hline役割&日本語&ウイグル語&日本語例&ウイグル語例\\\hline使役&-(s)ase-&-\mguz-&kak-ase-&yaz-\mguz-\\受身&-(r)are-&-(i)l-&kak-are-&yaz-il-\\可能&-(r)e-&-(y)ala-&kak-e-&yaz-ala-\\丁寧&-(i)mas-&-&kak-imas-&yaz-\\否定&-(a)na-&-ma-&kak-ana-&yaz-ma-\\希望&-(i)ta&-\mgu-&kak-ita-&yaz-\mgu-\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tbp]\vspace{-5mm}\caption{日本語とウイグル語の統語接尾辞の対応}\label{tab:s_suffix}\begin{center}\begin{tabular}{c|l|l|l}\hline\hline動詞形&役割&日本語&ウイグル語\\\hline&非完了&{-(r)u}&{-[i]du}\\\lw{終止形}&完了&{-(i)ta}&{-di}\\&前望&{-(y)ou}&{-(a)y}\\&否定前望&{-(u)mai}&{-maydu}\\\hline\lw{連体形}&非完了&{-(r)u}&{-[i]di\mgan}\\&完了&{-(i)ta}&{-\mgan}\\\hline&順接&{-(i)}&{-(i)p}\\&完了&{-(i)te}&{-(i)p}\\&仮定条件&{-(r)eba}&{-sa}\\連用形&開放条件&{-(r)uto}&{-sa}\\&却下条件&{-(i)teha}&{-sa}\\&否定&{-(a)zu}&{-mastin}\\&同時&{-(i)nagara}&{-\mgaq}\\&目的&{-(i)ni}&{-\mgili}\\\hline\lw{命令形}&肯定命令&{-e},{-ro}&{-\mgin}\\&否定命令&{-(r)una}&{-ma\mgin}\\\hline\end{tabular}\end{center}\end{table}また,日本語と同様にウイグル語にも連結母音,連結子音が存在する.例えば,ウイグル語で受身を表す派生接尾辞は``-(i)l-''であり,括弧内のiが連結母音である.よって,日本語の\linebreak「作r-」に相当する動詞``yasa-''に``-(i)l-''が接続する場合,語幹末尾が母音であることから,iが欠落して``yasal-''となる.ところが,ウイグル語には連結母音,連結子音とは異なり,欠落する代わりに変化する音素も存在する.非完了の連体形を表す統語接尾辞``-[i]di\mgan''は,``yaz-''のような子音幹動詞に接続する場合には,[i]がそのまま表記され``yazidi\mgan''となるが,``yasa-''のような母音幹動詞に接続する場合には,iがyに変化して``yasaydi\mgan''となる.そのような音素を{\dg連結半母音}と呼び,[i]と表記する.このことから,ウイグル語には次の動詞接続規則もあることが判る.\begin{description}\item[接続規則3:]連結半母音[i]は,子音幹に接続する場合はiに,母音幹に接続する場合はyにそれぞれ変化する.\end{description} \section{派生文法を用いた逐語翻訳} 日本語--ウイグル語翻訳において,派生文法を用いた逐語翻訳を行った例を動詞句「作rareru」および「作ru」について示すと,図~\ref{verb_2}~のようになる.図~\ref{verb_1}~と比較した場合,単語が日本語とウイグル語の間で1対1に対応していることが判る.図~\ref{verb_1}~の例では,日本語の動詞語幹と活用語尾を分離していたが,「作ラレル」における「ラ」に対応するウイグル語の訳語が存在しなかった.しかし,派生文法では「-(r)are-」を1つの接尾辞とみなすことにより,ウイグル語の``-(i)l-''と対応させることが可能となる.また,接続規則1〜3により,ウイグル語の翻訳文も簡単に生成できる.図~\ref{verb_1}~の例では「-(r)u」に対応するウイグル語の翻訳語が下線部のように``-idu''と``-ydu''の2種類あるが,派生文法では連結半母音を利用して``-[i]du''とまとめて表記できる.\begin{figure}[tbp]\begin{center}\begin{tabular}{cccccc}\multicolumn{3}{c}{作rareru}&\vline&\multicolumn{2}{c}{作ru}\vspace{-2pt}\\\multicolumn{3}{c}{$\Downarrow$}&\vline&\multicolumn{2}{c}{$\Downarrow$}\vspace{-2pt}\\作r-&-(r)are-&-(r)u&\vline&作r-&-(r)u\vspace{-2pt}\\$\downarrow$&$\downarrow$&$\downarrow$&\vline&$\downarrow$&$\downarrow$\vspace{-2pt}\\yasa-&-(i)l-&-[i]du&\vline&yasa-&-[i]du\vspace{-2pt}\\\multicolumn{3}{c}{$\Downarrow$}&\vline&\multicolumn{2}{c}{$\Downarrow$}\vspace{-2pt}\\\multicolumn{3}{c}{yasalidu}&&\multicolumn{2}{c}{yasaydu}\\\end{tabular}\caption{派生文法を用いた動詞句の翻訳}\label{verb_2}\end{center}\end{figure}一方,表~\ref{conjugating_uighur}~に示すように,日本語の動詞の活用形ごとに対応するウイグル語の訳語を登録する手法もある.この手法はすでに示したように,1つの動詞に対し活用形の数だけ訳語を辞書に登録する必要がある.また,それを避けるため,辞書に語幹だけを登録し,活用形に応じて活用語尾に相当する接尾辞を付加する方法も考えられる.しかし,その場合,例えば終止形を形成する語尾が``-idu''になるのか``-ydu''になるのかを決定する処理が必要となる.そうした処理は,派生文法を用いてウイグル語を形成する場合に必要な処理と同じであり,派生文法を用いた手法と比較した場合,日本語における活用処理が必要となる点で劣っている.なお,日本語は語順の自由度が高いといわれるが,動詞語幹に接続する接尾辞の順序には明らかに制約がある.例えば,使役を表す派生接尾辞「-(s)ase-」と受身を表す接尾辞\linebreak「-(r)are-」の二つの接尾辞が動詞語幹に接続する場合,必ず「-(s)are」「-(r)are-」の順序で接続する.すなわち,「書k-」に接続する場合は「書k-ase-rare-」となり,接尾辞の順序が入れ替わって「書k-are-sase-」となることはない.そうした接尾辞の接続の順序も日本語とウイグル語で同じであると考えられる.このため,複数の接尾辞を含む複雑な動詞句も,図~\ref{verb_3}~に示すように,日本語入力文の形態素解析が終わった段階で,各単語を対応するウイグル語に置き換えれば,翻訳は基本的に可能となる.\begin{figure}[tbp]\begin{center}\begin{tabular}{ccccc}\multicolumn{5}{c}{書kaserarenai}\vspace{-4pt}\\\multicolumn{5}{c}{$\Downarrow$}\vspace{-2pt}\\書k-&-ase-&-rare-&-na-&-i\vspace{-2pt}\\$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$\vspace{-2pt}\\yaz-&-\mguz-&-(i)l-&-ma-&-[i]du\vspace{-2pt}\\\multicolumn{5}{c}{$\Downarrow$}\vspace{-2pt}\\\multicolumn{5}{c}{yaz\mguzilmaydu}\vspace{-2pt}\\\end{tabular}\caption{逐語翻訳によるウイグル語--日本語翻訳}\label{verb_3}\end{center}\end{figure} \section{逐語翻訳における問題点} \label{section_problem}これまでに示したように,日本語とウイグル語の間の構文的および形態論的類似性は高いが,異なる部分もあり,日本語単語とウイグル語訳語を1対1に対応付けできない場合がある.その場合,単純な逐語翻訳では不自然な翻訳となる.本章では,そのような問題点を例を挙げて説明する.\subsection{終止形と連体形の区別}\label{sec:problem1}表~\ref{tab:s_suffix}~において,日本語では終止形と連体形に同じ形の接尾辞がある.例えば,完了を表す統語接尾辞は終止形でも連体形でも共に「-(i)ta」である.しかし,ウイグル語では同じ役割を果す接尾辞が終止形と連体形ではそれぞれ別の単語になる.例えば以下の例を考える.\begin{center}\begin{tabular}{lll}{終止形:}&彼ga書\underline{ita}.&Uyaz\underline{di}.\\{連体形:}&彼ga書\underline{ita}本.&Uyaz\underline{\mgan}kitap.\\\end{tabular}\end{center}ここで,日本語では共に「-(i)ta」で表されている部分が,ウイグル語では,終止形の場合は\linebreak``-di''に,連体形の場合は``-\mgan''になっている.したがって,「-(i)ta」の翻訳においては,その動詞形に応じて,``-di''と``-\mgan''のいずれが訳語として適切であるかの選択が必要となる.\subsection{派生語幹の不一致}\label{sec:problem2}否定の派生接尾辞は日本語では「-(a)na-」であり,ウイグル語では``-ma-''である.「書kanakatta」を単純に逐語翻訳すると,以下のようになる.\begin{center}\begin{tabular}{ccc}書k-&-ana-&-katta\vspace{-3pt}\\$\downarrow$&$\downarrow$&$\downarrow$\vspace{-1pt}\\\lwww{動詞}&\lwww{派生接尾辞}&形容詞接続\vspace{-3pt}\\&&統語接尾辞\vspace{-3pt}\\$\downarrow$&$\downarrow$&$\downarrow$\vspace{-2pt}\\yaz-&-ma-&-k\men\\\end{tabular}\end{center}ここで,``-k\men''は形容詞の語幹に接続して完了の意味を表すウイグル語であり,日本語の\linebreak「-katta」に相当する.しかし,実際のウイグル語では,``-ma-''の後に接続する単語は``-k\men''ではなく,日本語の動詞接尾辞「-(i)ta」に相当する``-di''で,「書kanakatta」の翻訳としては``yazmadi''が自然である.これは日本語の「-(a)na-」が形容詞の語幹を派生するのに対して,ウイグル語の``-ma-''は動詞語幹を派生するからである.希望を表す派生接尾辞についても,同様の問題がある.日本語で希望を表す派生接尾辞「-(i)ta-」は形容詞語幹を派生する接尾辞であるが,これに対してウイグル語で希望を表す動詞接尾辞は``-\mgum''である.例えば,「私ハ書キタカッタ.」の自然なウイグル語訳は``M\menyaz\mgumbaridi.''であるが,これを日本語に直訳すると「私ハ書キタイコトガアッタ.」となる.すなわち,``-\mgum''は「〜シタイコト」の意味で動詞を名詞化する接尾辞であり,その後に「アッタ」に相当する``baridi''が接続して,``yaz\mgumbaridi''と表現される.このことから,``-\mgum''は動詞語幹に接続し,名詞語幹を派生する接尾辞と考えられる.このように派生接尾辞「-(a)na-」と``-ma-'',および「-(i)ta-」と``-\mgum''ではそれぞれ派生する語幹が異なるため,単純な逐語翻訳では不自然な翻訳となる.\subsection{サ変動詞の対応}\label{sec:problem3}日本語のサ変動詞とは,その単語の基本となる形が名詞であるが,接尾辞「スル」が接続することによって動詞化する単語のことである.例えば「開発」,「登録」がその例であり,日本語には数多く存在する.ウイグル語にも,「スル」に相当する単語として``\mkilma\mk''がある.例えば,「開発」に相当するウイグル語名詞は``k\mexip''であるが,これが動詞化して「開発スル」となる場合,ウイグル語では``k\mexip\mkilma\mk''となる.よって,「スル」の訳語として``\mkilma\mk''を対応させれば,逐語翻訳による翻訳が可能となると考えられる.しかし,この手法では不自然な翻訳となる例が存在する.例えば,「登録」に相当するウイグル語は``tizimlax''であるが,「登録スル」に相当するウイグル語は``tizimlax\mkilma\mk''ではなく,``tizimlama\mk''である.ここで,``tizimla-ma\mk''の``-ma\mk''は動詞の辞書見出し形をつくる接尾辞であり,語幹は``tizimla-''である.つまり,``tizimlax''は,動詞語幹``tizimla-''に名詞化接尾辞``-(i)x''が接続することによって形成される名詞であり,``tizimlax\mkilma\mk''は日本語の「登録スルコトヲスル」に相当する冗長な表現となる.そのため,「登録スル」の翻訳に際しては,逐語翻訳``tizimlax\mkilma\mk''ではなく,``tizimlama\mk''と翻訳するのが望ましい.\vspace{-1mm} \section{訳語置換表の導入} \label{sec:replacement_table}本章では,\ref{section_problem}~章で挙げた問題への解決方法を示す.それらの問題は,いずれもウイグル語の訳語を,その前後に現れる単語に応じて訳し分けることで解決できる.そこで,逐語翻訳したウイグル語単語とその前後に現れるウイグル語単語との関係から,より自然な訳語に置き換える訳語置換法を導入する.前後に現れる単語の情報を利用する場合,翻訳前の原言語の単語接続関係を利用する方法と,翻訳後の目的言語の単語接続関係を利用する方法とが考えられる.前者は,原言語の接続関係から訳語を選択する手法であり,\cite{J_KIM1996_2}などで用いられている.それに対して,後者はいったん各単語を翻訳し,後処理として不自然な訳語を適切なものに置換する手法である.前者の訳語選択手法では,原言語と目標言語の双方に関する知識がないと訳語選択の規則を記述することは困難であるが,後者の訳語置換手法では,目標言語に関する知識があれば,置換規則が記述できる.また,別の原言語に対しても,元の置換規則を再利用できる可能性がある.そうした点を考慮して,本手法では,後者の手法を採用した.\begin{table}[tb]\begin{center}\caption{訳語置換表}\label{replace}\begin{tabular}{l||l|c|c|l|l}\hline日本語&基本訳語&前接ウイグル語&後接ウイグル語&新訳語&新品詞\\\hline\hline-(r)u&-[i]di\mgan&*&文末&-[i]du&終止接尾辞\\&&*&句読点&-[i]du&終止接尾辞\\&&*&終助辞&-[i]du&終止接尾辞\\-(i)ta&-\mgan&*&文末&-di&終止接尾辞\\&&*&句読点&-di&終止接尾辞\\&&*&終助辞&-di&終止接尾辞\\\hline-katta&-k\men&-ma-&*&-\mgan&連体接尾辞\\&&-\mgum&*&baridi&名詞接尾辞\\\hline登録&tizimlax&*&\mkil-&tizimla-&サ変動詞\\減少&azayix&*&\mkil-&azay-&サ変動詞\\si-,su-,se-&\mkil-&サ変動詞&*&-&母音幹動詞\\\hline\end{tabular}\end{center}\end{table}\subsection{訳語置換表}本手法では,形態素解析が終了した段階で,いったん各日本語単語をウイグル語の基本訳語に翻訳する.その後,文の先頭から順に各訳語とその前後の訳語を調べ,他の訳語が適切である場合はその訳語に置き換える.この置換規則を記した表を{\dg訳語置換表}(表~\ref{replace})と呼ぶ.表~\ref{replace}~では,一番左の欄に日本語の単語が記述してあるが,これは表の理解を助けるためのものであり,実際の翻訳システムが用いる訳語置換表では省略される.次の列のウイグル語は,その日本語に対応する基本訳語である.前接ウイグル語および後接ウイグル語の欄は,基本訳語を置換する場合の条件を示しており,それらのウイグル語が前後に現れる場合,基本訳語を新訳語で置換する.前接ウイグル語および後接ウイグル語の欄には,基本的にウイグル語の単語を記述するが,規則の記述を簡潔にするため,単語の代わりに品詞を記述することも可能とする.なお,前接ウイグル語または後接ウイグル語に依存しない置換規則の場合は,条件の欄に*~(don'tcare)を記述しておく.新訳語の欄には,条件を満たした場合に基本訳語を置き換えるための新しい訳語を記述しておく.また,今回の手法では,訳語置換を行うかどうかを文の先頭から順に検査するため,訳語を置換した場合には,置換後の訳語の品詞が必要になる.そこで,それを新品詞の欄に記述しておく.以下では,\ref{section_problem}~章で取り上げた各問題を訳語置換表を利用して解決する方法を示す.\subsection{終止形と連体形の区別の処理}\label{subsec:finite}\ref{sec:problem1}~節で取り上げた終止形と連体形の区別は,後接する単語の品詞に依存して決まる.そこで,例えば,「-(i)ta」については,それに対する基本訳語を連体形の``-\mgan''とし,後接ウイグル語の品詞が「文末」,「句読点」,「終助辞」のいずれかである場合にのみ,終止形の``-di''に置き換えるという規則を訳語置換表に記述しておく.なお,基本訳語として``-\mgan''の方を選んだ理由は,置換規則の数を少なくするためである.\subsection{派生語幹の不一致の処理}\ref{sec:problem2}~節で言及した派生語幹の不一致の問題は,「-katta」の訳語を,その前に現れる単語によって訳し分けることで解決できる.そこで,「-katta」の基本訳語を形容詞の語幹に接続する``-k\men''とし,前接ウイグル語が``-ma-''である場合には``-\mgan''に,前接ウイグル語が``-\mgum''である場合には``baridi''に置き換えるという規則を導入する.ところがここで,``-ma-''に後接する接尾辞の候補として,連体形を表す``-\mgan''の他に,終止形を表す``-di''も考えられる.そうした区別を考えた場合,後接ウイグル語の条件も考慮し,置換規則を書く必要が生じるが,それは前接ウイグル語と後接ウイグル語の組合せに応じて置換規則が増えることになり,そのメンテナンスが困難となる.そこで,``-k\men''を``-\mgan''に置換するという規則だけを記述し,終止形の場合は,\ref{subsec:finite}~節で述べた置換規則で対処する.つまり,一つの訳語を置き換えた場合,すぐに新訳語を出力するのではなく,その新訳語が更に訳語置換表の別の条件を満たしていないかを検査し,もし満たしている場合は,再び訳語を置き換えるのである.その結果,置換規則の簡略化と,規則のメンテナンスの容易さが実現できる.ただし,置換規則の書き方によっては,際限なく規則が適用され,置き換えが終了しない場合が生じるため,置換規則の記述には注意が必要となる.\subsection{サ変動詞の対応の処理}\ref{sec:problem3}~節で取り上げたサ変動詞の対応の問題は,逐語翻訳``tizimlax\mkilma\mk''に訳語置換を施すことで対処できる.``tizimlax''に動詞``\mkil-''が後接する場合,``tizimlax''を``tizimla-''と置き換える.ただし,その後で``\mkil-''を消去する必要がある.そこで,置換した``tizimla-''に,特別な品詞「サ変動詞」を与え,``\mkil-''の前接ウイグル語の品詞が「サ変動詞」である場合に,``\mkil-''を何も出力しないことを表す``-''に置き換える.この「サ変動詞」という品詞は形態素解析の結果には出現せず,訳語置換の場合だけに利用する品詞である.なお,この手法では,そうした変化をする全ての名詞に対して規則が必要となるが,これは動詞語幹に名詞化接尾辞``-(i)x''を付加することで自動的に生成できる.\subsection{訳語置換の例}\begin{figure}[tb]\begin{center}\begin{tabular}{ccccc}\multicolumn{5}{c}{登録sinakatta.}\\\multicolumn{5}{c}{$\Downarrow$}\\登録&si-&-na-&-katta&.\\$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$\\\underline{tizimlax}&\mkil-&-ma-&-k\men&.\\$\downarrow$&&&&\\tizimla-&\underline{\mkil-}&-ma-&-k\men&.\\&$\downarrow$&&&\\tizimla-&-&\underline{-ma-}&-k\men&.\\&&&&\\tizimla-&-&-ma-&\underline{-k\men}&.\\&&&$\downarrow$&\\tizimla-&-&-ma-&\underline{-\mgan}&.\\&&&$\downarrow$&\\tizimla-&-&-ma-&-di&\underline{.}\\\multicolumn{5}{c}{$\Downarrow$}\\\multicolumn{5}{c}{tizimlamadi.}\\\end{tabular}\end{center}\caption{提案手法における翻訳の例}\label{example}\end{figure}この手法による例文「登録sinakatta(登録シナカッタ).」の翻訳過程を図~\ref{example}~に示す.「登録」の基本訳語は``tizimlax''であるが,日本語のサ変動詞「si-」の訳語``\mkil-''が後接するため,訳語置換表を用いて``tizimla-''に置き換えられる.次の``\mkil-''は,前の単語が``tizimla-''に置き換えられたため,前接単語が「サ変動詞」であるという条件を満たす.したがって,何も語を訳出しないことを意味する``-''に置き換えられる.次に,「-katta」の基本訳語``-k\men''は前接のウイグル語単語が``-ma-''であるため,訳語置換表の条件に合致し``-\mgan''に置き換えられる.また,この置き換えられた``-\mgan''を訳語置換表を用いて再検査すると,後接のウイグル語が句読点であるという条件を満たすため,終止形を表す``-di''に置き換えられる.この結果,最終的に入力文「登録シナカッタ.」に対する自然な翻訳文``tizimlamadi.''が得られる. \section{機械翻訳システムの実現} \label{sec:ju_system}\begin{figure}\begin{center}\begin{tabular}{cccccccccc}{\bf入力文}&&\multicolumn{8}{c}{閉められたドアを開けた.}\\{$\downarrow$}&&\multicolumn{8}{c}{\large$\Downarrow$}\\\lw{\framebox[35mm][c]{\rule[-3mm]{0mm}{9mm}MAJO}}&&{閉me-}&{-rare-}&{-ta}&{ドア}&{-wo}&{開ke-}&{-ta}&{.}\\&&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$\\$\downarrow$&&{\met}&{-(i)l-}&{-\mgan}&{ixik}&{-ni}&{aq-}&{-\mgan}&{.}\\\framebox[35mm][c]{訳語置換}&&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$&$\downarrow$\\$\downarrow$&&{\met}&{-(i)l-}&{-\mgan}&{ixik}&{-ni}&{aq-}&{-di}&{.}\\\framebox[35mm][c]{ウイグル語整形}&&\multicolumn{8}{c}{\lw{\large$\Downarrow$}}\\$\downarrow$\\{\bf出力文}&&\multicolumn{8}{c}{\metilg\menixikniaqdi.}\end{tabular}\caption{翻訳システムとその動作例}\label{fig:system}\end{center}\end{figure}本章では,本論文で提案した手法に基づく日本語--ウイグル語機械翻訳システムの実現について述べる.我々は,日本語--ウイグル語機械翻訳システムを日本語形態素解析システム,訳語置換システム,ウイグル語整形システムの三つのモジュールで構成した.図~\ref{fig:system}~に本翻訳システムと,その動作例を示す.日本語形態素解析システムには,我々がこれまでに開発した{\bfMAJO}(\underline{M}orphological\underline{A}nalyzerof\underline{J}apanesebased\underline{O}nderivationalgrammar)\cite{OGAWA1999}を使用した.MAJOは派生文法に基づいて日本語の形態素を解析するシステムであり,辞書に各単語の情報を(日本語単語,品詞名,意味)の3項組の形で登録している.今回作成した機械翻訳システムではMAJOの辞書を,(日本語単語,品詞名,ウイグル語訳語)の3項組で表される日本語--ウイグル語辞書に置き換えて使用した.この結果,MAJOの出力結果は,そのまま逐語翻訳の結果となる.なお,変更部分は辞書のみであり,文法やシステム自体には何ら変更を加えずに使用した.なお,本翻訳システムでは,入力として漢字仮名混じりの日本語文を扱うが,派生文法に基づく解析を行うため,形態素解析の前処理の段階で,入力文中の平仮名の部分を日本式ローマ字表記\footnote{日本式ローマ字表記は仮名に従った表記をする.訓令式やヘボン式では「ぢ」「づ」「を」を音に従ってそれぞれ「zi」「zu」「o」と表記するが,日本式ローマ字表記ではそれぞれ「di」「du」「wo」となる.}に変換する.形態素解析システムMAJOの出力結果は,そのまま入力文に対する逐語翻訳となり,訳語置換システムに引き渡される.訳語置換システムは,\ref{sec:replacement_table}~章で述べた訳語置換表を実現するモジュールである.すなわち,訳語置換システムでは,訳語置換表と逐語翻訳の結果を比較し,置換表に記入された規則に該当する語の並びが出現した場合,適切な訳語に置き換える.図~\ref{fig:system}~の例では,2回出現している動詞接尾辞\linebreak「-ta」はMAJOの出力の段階では共に``-\mgan''と翻訳されているが,訳語置換システムにより,文末に出現する``-\mgan''は``-di''に置換されている.ウイグル語整形システムはウイグル語の音韻規則を処理し,最終的なウイグル語翻訳文を出力するシステムである.連結母音・連結子音の削除も音韻規則の一つであり,それらはウイグル語整形システムで処理する.例えば,図~\ref{fig:system}~の例では,訳語置換システムの出力に,連結母音を含む派生接尾辞``-(i)l-''が存在するが,子音幹に接続しているため,この連結母音(i)はそのままiとして出力される.また,ウイグル語には連結母音・連結子音以外にも母音調和や母音の弱化・同化などの音韻規則が存在する\cite{TAKEUTI}.これは文の発音を容易にするために接尾辞や語幹が変化する現象である.例えば母音調和については,ウイグル語の母音に前母音\me,\mv,\moと後母音a,u,oの区別があり,前母音を含む動詞には前母音を含んだ接尾辞が,後母音を含む動詞には後母音を含んだ接尾辞がそれぞれ接続する.ただし,iとeは母音調和に関しては中立である.現在では,ウイグル語整形システムの内部処理においてこれらの音韻規則を処理している.図~\ref{fig:system}~の例においては,連体形を形成する完了の統語接尾辞``-\mgan''が派生接尾辞``-(i)l-''を狭んで前母音を含む動詞``\met-''に接続しているため,ウイグル語整形システムによって``-\mgan''が``-g\men''に置き換えられ,最終的なウイグル語文では,``\metilg\men''となっている. \section{翻訳実験の評価と検討} 本章では,我々が作成した翻訳システムを用いた翻訳実験の結果と,その評価について述べる.環境問題を扱った新聞社説など3編の日本語文138文を本システムを用いて翻訳し,生成された282個のウイグル語動詞句について翻訳精度の評価を行った.なお,このウイグル語動詞句には同じものがいくつか含まれており,異なる動詞句の数は250種であった.また,実験に使用した辞書であるが,充分な規模の日本語--ウイグル語辞書がそもそも存在しないため,ウイグル語--日本語辞書\cite{IINUMA}を電子化し,その逆辞書として日本語--ウイグル語電子化辞書を自動的に作成して\cite{OGAWA_dic},実験に利用した.ただし,この辞書をそのまま使用した場合,入力文には未登録語が多数出現する.今回の実験は,ウイグル語文全体の翻訳精度ではなく,動詞句の翻訳精度を測定するためのものであるので,翻訳に必要な語を適宜登録し,未登録語は無いものとして実験を行った.その結果,実験に使用した辞書は,約16,000語の単語を登録したものとなった.また,訳語置換規則を853個登録して実験に使用したが,そのうちの799個がサ変動詞のための規則である.実験では,訳語置換表を用いた場合と用いなかった場合の翻訳精度の差を比較した.評価は翻訳システムの出力文に出現した動詞句のうち,まったく誤りの無いものを正解,それ以外を不正解とした.翻訳実験の正解率を表~\ref{translation}~に,また翻訳誤り箇所数の内訳を表~\ref{miss_translation}~に示す.なお,一つの動詞句の翻訳に失敗した場合でも,その原因が複数ある場合があり,誤りの合計は翻訳に失敗した動詞句の数よりも多くなっている.\begin{table}[tbp]\caption{翻訳実験の結果}\label{translation}\begin{center}\begin{tabular}{l|r|r|r}\hline\hline&動詞句数&正解翻訳数&正解率\\\hline単純な逐語翻訳&282&104&36.9\%\\置換表を利用&282&197&69.9\%\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tbp]\vspace{-4mm}\caption{翻訳誤り箇所数の内訳}\label{miss_translation}\begin{center}\begin{tabular}{l|r|r}\hline\hline誤り原因&単純な逐語翻訳の場合&置換表を利用した場合\\\hline終止形と連体形の区別&52&2\\派生語幹の不一致&7&0\\サ変動詞の対応&60&0\\直訳不能&21&21\\訳語の多義性&49&49\\人称接尾辞の選択&5&5\\音韻規則の適用&7&7\\形態素解析&2&2\\\hline合計&203&88\\\hline\end{tabular}\end{center}\end{table}表~\ref{miss_translation}~における誤りのうち,終止形と連体形の区別,派生語幹の不一致,および,サ変動詞の対応は,\ref{section_problem}~章で述べた誤りである.終止形と連体形の区別が必要となる接尾辞は,今回の実験では176箇所に出現したが,そのうち終止形であるものが50箇所あった.それらは,訳語置換表を用いることにより,すべてを正しく翻訳できた.しかし,正しくは連体形であるものを,誤って終止形に置換してしまった箇所が2箇所あった.例えば,入力文「気ヲ配ラナ\underline{カッタ},アルイハ無神経ダッタトコロ」の下線部「カッタ」は最後の「トコロ」を修飾するため連体形であるが,読点の直前に出現するため,訳語置換表の規則により終止形に置き換えられてしまった.そうした問題は構文的情報を利用しない本手法では正しく翻訳できない.派生語幹の不一致(7箇所)やサ変動詞の対応(60箇所)の問題については,訳語置換表を用いることにより,すべてを正しく翻訳できた.以上の結果,表~\ref{translation}~に示すように,訳語置換表を用いることにより,正しく翻訳できた動詞句が約3割増加した.このことから,訳語置換表の有用性が示せた.以下では,翻訳失敗の原因について考察する.まず,直訳不能に分類される誤りは,慣用句やそれに近い表現であり,単語ごとに翻訳しただけでは適切に翻訳できない.例えば,「環境ノ世紀ヲ迎エルニ当タッテ」という入力文は,ウイグル語に直訳しても元の文とは異なる意味になってしまう.正しく翻訳するためには「当タッテ」を「迎エル前ニ」といった意味的に等価な表現に変換する必要があると考えられる.訳語の多義性とは,日本語の単語に対して複数のウイグル語の訳語が相当する場合に,正しい訳語が選択できないという誤りである.今回の実験では,一つの日本語単語に一つのウイグル語訳を対応させた辞書を用いたため,文脈によってはその訳が適切でない場合があった.例えば,日本語の「〜シテイル」における補助動詞「i-」に相当するウイグル語には,動詞接尾辞``-(i)wat-'',補助動詞``k\mel-'',``k\met-'',``tur-'',``oltur-'',``y\mvr-''などがある.入力文には「生存ヲ\underline{許サレテイル}.(ruhs\met\mkiliniwatidu)」「宇宙全体ニ\underline{カカワッテイル}(ta\mkilipk\melidu)」「\underline{似テイル}(ohxapketidu)」「自然界ヲ\underline{動カシテイル}秩序(\mh\merk\metl\mend\mvripturidi\mgan)」といった句で補助動詞「i-」が出現したが,それぞれの下線部に対する自然なウイグル語訳は,括弧内に示すものであり,「i-」に対する訳語はそれぞれ異なっている.どの訳語を選択するかは「〜シテイル」の意味に依存するため,現状では対応できていない.今回の実験では,動詞の多義性が原因で失敗した箇所は10箇所,接尾辞および補助動詞の多義性が原因で失敗した箇所は39箇所であった.人称接尾辞の誤りは,適切な人称接尾辞を付加できなかった誤りである.ウイグル語の動詞句には,日本語に存在していない人称接尾辞が付加する場合がある.人称接尾辞は,動詞に対する動作主に依存して決まるが,現在のシステムでは動作主を特定する処理は行っていない.そのため,今回の実験では,人称接尾辞が出現した場合は,いずれも三人称単数を表す人称接尾辞を付加した.その結果,48箇所出現した人称接尾辞のうちの5箇所において人称の選択を誤った.人称接尾辞を適切に補うためには,動作主の特定が必要になる.特にウイグル語文では,日本語文と同様に動作主が文中に明示されない場合が多く,その特定は今後の課題である.また,現在の翻訳システムでは,ウイグル語整形システムの内部処理により,\ref{sec:ju_system}~章で述べた音韻規則を処理している.今回の実験では,動詞句282個に対し,音韻処理を335箇所で行った.1つの動詞句に対し,複数の音韻処理が適用される場合があるため,適用箇所の合計は動詞句の数よりも多くなる.なお,音韻処理を適用しても音韻変化する条件を満たしていない場合は動詞句の形は不変であるが,今回の実験では175箇所がそれに該当し,実質的に音韻変化した箇所は160箇所であった.また,音韻処理を施した335箇所のうち,7箇所で間違いがあった.その原因は,母音iとeが母音調和に関して中立であるためである.母音としてiもしくはeしか含まない動詞の場合,後接する接尾辞が前母音を含んだものになるか,あるいは後母音を含んだものになるかは動詞ごとに異なる.そのため,動詞に含まれる後母音の有無で接尾辞を決定している現在のウイグル語整形システムでは,適切な接尾辞を選択できない. \section{おわりに} 本論文では派生文法を用いた日本語--ウイグル語の動詞句の機械翻訳手法について述べた.派生文法を用いてウイグル語動詞句も記述することにより,動詞接尾辞間の対応が明確になり,逐語翻訳でも高精度な動詞句の翻訳が可能になることを示した.また,本論文では,不自然な翻訳を避けるための訳語置換表を提案した.その結果,動詞句の翻訳において,より自然な翻訳文を生成することが可能となった.また,本手法に基づく翻訳システムを作成し,実験によりその有効性を確かめた.現在の翻訳システムでは,一つの日本語の単語に対して複数のウイグル語の単語が相当する場合に,どの単語を選択するかを考慮していない.特に日本語で受身・可能・尊敬の意味をもつ動詞接尾辞「-(r)are-」に対しては,すべて受身と仮定している.今後は,そうした曖昧な翻訳語の選択方法について検討していく.また,今回の提案では訳語置換の条件として,ウイグル語の単語および品詞の情報に限定しているが,意味情報などを扱えるように拡張することにより,訳語の多義性の解消などにも応用が可能と考えられる.今後は,翻訳の対象を動詞句以外にも広げ,本システムを使用した翻訳実験を進めると共に,実用的な日本語--ウイグル語翻訳システムの実現を目指す.また,本手法が他の膠着語間の機械翻訳においても有効であることを示すため,現在,本手法に基づいたウイグル語--日本語翻訳システムを開発中である.\bibliographystyle{jnlpbbl}\bibliography{v07n3_04}\begin{biography}\biotitle{略歴}\bioauthor{小川泰弘}{1995年名古屋大学工学部情報工学科卒業.1997年同大学院工学研究科情報工学専攻修士課程修了.現在,同博士課程在学中.自然言語処理に関する研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{ムフタルマフスット}{1983年新彊大学数系卒業.1996年名古屋大学大学院工学研究科情報工学専攻博士課程満了.同年,三重大学助手.現在,名古屋大学計算理工学専攻稲垣研究室特別研究員.自然言語処理に関する研究に従事.人工知能学会,情報処理学会各会員.}\bioauthor{杉野花津江}{1961年愛知学芸大学数学科卒業と同時に名古屋大学工学部に勤務.現在,名古屋大学大学院工学研究科助手.オートマトン・言語理論,確率オートマトン,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会各会員.}\bioauthor{外山勝彦}{1984年名古屋大学工学部電気学科卒業.1989年同大学院工学研究科情報工学専攻博士課程満了.同大助手,中京大学講師,助教授を経て,1997年名古屋大学大学院工学研究科助教授.工学博士.論理に基づく知識表現と推論,自然言語理解に関する研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,日本認知科学会各会員.}\bioauthor{稲垣康善}{1962年名古屋大学工学部電子工学科卒業.1967年同大学院博士課程修了.同大助教授,三重大学教授を経て,1981年より名古屋大学工学部・大学院工学研究科教授.工学博士.この間,スイッチング回路理論,オートマトン・言語理論,計算論,ソフトウェア基礎論,並列処理論,代数的仕様記述法,人工知能基礎論,自然言語処理などの研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,電気学会,日本ソフトウェア科学会,日本OR学会,IEEE,ACM,EATCS各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V21N05-02
\section{はじめに} 本論文では,語義曖昧性解消(WordSenseDisambiguation,WSD)の領域適応に対して,共変量シフト下の学習を試みる.共変量シフト下の学習では確率密度比を重みとした重み付き学習を行うが,WSDのタスクでは算出される確率密度比が小さくなる傾向がある.ここではソース領域のコーパスとターゲット領域のコーパスとを合わせたコーパスをソース領域のコーパスと見なすことで,この問題に対処する.なお本手法はターゲット領域のデータにラベル付けしないため,教師なし領域適応手法に分類される.WSDは文中の多義語の語義を識別するタスクである.通常,あるコーパス$S$から対象単語の用例を取り出し,その用例中の対象単語の語義を付与した訓練データを作成し,そこからSVM等の分類器を学習することでWSDを解決する.ここで学習した分類器を適用する用例がコーパス$S$とは異なるコーパス$T$内のものである場合,学習した分類器の精度が悪い場合がある.これが領域適応の問題であり,自然言語処理ではWSD以外にも様々なタスクで問題となるため,近年,活発に研究されている\cite{da-book,mori,kamishima}.今,対象単語$w$の用例を${\bmx}$,$w$の語義の集合を$C$とする.${\bmx}$内の$w$の語義が$c\inC$である確率を$P(c|{\bmx})$とおくと,WSDは$\arg\max_{c\inC}P(c|{\bmx})$を求めることで解決できる.領域適応では,コーパス$S$(ソース領域)から得られた訓練データを用いて,$P(c|{\bmx})$を推定するので,得られるのは$S$上の条件付き分布$P_S(c|{\bmx})$であるが,識別の対象はコーパス$T$(ターゲット領域)内のデータであるため必要とされるのは$T$上の条件付き分布$P_T(c|{\bmx})$である.このため領域適応の問題は$P_S(c|{\bmx})\neP_T(c|{\bmx})$から生じているように見えるが,用例${\bmx}$がどのような領域で現れたとしても,その用例${\bmx}$内の対象単語$w$の語義が変化するとは考えづらい.このため$P_S(c|{\bmx})=P_T(c|{\bmx})$と考えられる.$P_S(c|{\bmx})=P_T(c|{\bmx})$が成立しているなら,$P_T(c|{\bmx})$の代わりに$P_S(c|{\bmx})$を用いて識別すればよいと思われるが,この場合,識別の精度が悪いことが多い.これは$P_S({\bmx})\neP_T({\bmx})$から生じている.$P_S(c|{\bmx})=P_T(c|{\bmx})$かつ$P_S({\bmx})\neP_T({\bmx})$という仮定は共変量シフトと呼ばれる\cite{sugiyama-book}.自然言語処理の多くの領域適応のタスクは共変量シフトが成立していると考えられる\cite{da-book}.ソース領域のコーパス$S$から得られる訓練データを$D=\{({\bmx_i},c_i)\}_{i=1}^N$とおく.一般に共変量シフト下の学習では確率密度比$w({\bmx})=P_T({\bmx})/P_S({\bmx})$を重みとした以下の重み付き対数尤度を最大にするパラメータ${\bm\theta}$を求めることで,$P_T(c|{\bmx})$を構築する.\[\sum_{i=1}^{N}w({\bmx_i})\logP_T(c_i|{\bmx_i};{\bm\theta})\]共変量シフト下の学習の要は確率密度比$w({\bmx})$の算出であるが,その方法は大きく2つに分類できる.1つは$P_T({\bmx})$と$P_S({\bmx})$をそれぞれ求め,その比を求めることで$w({\bmx})$を求める方法である.もう1つは$w({\bmx})$を直接モデル化する方法である\cite{sugiyama-2010}.ただしどちらの方法をとっても,WSDの領域適応に対しては,求められる値が低くなる傾向がある.この問題に対しては,確率密度比を$p$乗($0<p<1$)したり\cite{sugiyama-2006-09-05},相対確率密度比\cite{yamada2011relative}を使うなど,求めた確率密度比を上方に修正する手法が存在する\footnote{これらの手法は正確には確率密度比を1に近づける手法であるが,多くの場合,確率密度比は1以下の値であるため,ここではこれらの手法も確率密度比を上方に修正する手法と呼ぶことにする.}.本論文では$P_T({\bmx})$と$P_S({\bmx})$をそれぞれ求める手法を用いる際に,ターゲット領域のコーパスとソース領域のコーパスを合わせたコーパスを,新たにソース領域のコーパス$S$と見なして確率密度比を求めることを提案する.提案手法は必ずしも確率密度比を上方に修正する訳ではないが,多くの場合,この処理により$P_S({\bmx})$の値が減少し,結果的に$w({\bmx})$の値が増加する.なお,本論文で利用する手法は,ターゲット領域のラベル付きデータを利用しないために,教師なし領域適応手法に属する.当然,ターゲット領域のラベル付きデータを利用する教師付き領域適応手法を用いる方が,WSDの識別精度は高くなる.しかし本論文では教師なし領域適応手法を扱う.理由は3つある.1つ目は,教師なし領域適応手法はラベル付けするコストがないという大きな長所があるからである.2つ目は,共変量シフト下の学習はターゲット領域のラベル付きデータを利用しない設定になっているからである.3つ目は,WSDの領域適応の場合,対象単語毎に領域間距離が異なり,コーパスの領域が異なっていても,領域適応の問題が生じていないケースも多いからである.領域適応の問題が生じている,いないの問題を考察していくには,ターゲット領域のラベル付きデータを利用しない教師なし領域適応手法の方が適している.実験では現代日本語書き言葉均衡コーパス(BalancedCorpusofContemporaryWrittenJapanese,BCCWJ\cite{bccwj})における3つの領域OC(Yahoo!知恵袋),PB(書籍)及びPN(新聞)を利用する.SemEval-2の日本語WSDタスク\cite{semeval-2010}ではこれらのコーパスの一部に語義タグを付けたデータを公開しており,そのデータを利用する.すべての領域である程度の頻度が存在する多義語16単語を対象にして,WSDの領域適応の実験を行う.領域適応としてはOC→PB,PB→PN,PN→OC,OC→PN,PN→PB,PB→OCの計6通りが存在する.結果$16\times6=96$通りのWSDの領域適応の問題に対して実験を行った.その結果,提案手法による重み付けの効果を確認できた.また,従来手法はベースラインよりも低い値となったが,これは多くのWSDの教師なし領域適応では負の転移が生じていない,言い換えれば実際には領域適応の問題になっていないことから生じていると考えられる.考察では負の転移と重み付けとの関連,また負の転移と関連の深いMisleadingデータの存在と重み付けとの関連を中心に議論した. \section{関連研究} 自然言語処理における領域適応は,帰納学習手法を利用する全てのタスクで生じる問題であるために,その研究は多岐にわたる.利用手法をおおまかに分類すると,ターゲット領域のラベル付きデータを利用するかしないかで分類できる.利用する場合を教師付き領域適応手法,利用しない場合を教師なし領域適応手法と呼ぶ.提案手法は教師なし領域適応手法の範疇に入るので,ここでは教師なし領域適応手法を中心に関連研究を述べる.領域適応の問題は,一般の教師付き学習手法における訓練事例のスパース性の問題だと捉えることもできる.そのためターゲット領域のデータにラベルを付与しないという条件では,半教師付き学習\cite{chapelle2006semi}が教師なし領域適応手法として使えることは明らかである.ただし半教師付き学習では大量のラベルなしデータを必要とする.半教師付き学習をWSDに利用する場合,対象単語毎に用例を集める必要があり,しかもターゲット領域のコーパスは新規であることが多いため,対象単語毎の用例を大量に集めることは困難である.このためWSDの領域適応の場合,半教師付き学習を利用しようとすれば,Transductive学習\cite{joachims1999transductive}に近い形となるが,ソース領域とターゲット領域が異なる領域適応の形にTransductive学習が利用できるかどうかは明らかではない.WSDの領域適応をタスクとした教師なし領域適応の研究としては,論文\cite{shinnou-gengo-13}の研究がある.そこでの基本的なアイデアはWSDで使うシソーラスをターゲット領域のコーパスから構築することであるが,WSDで使うシソーラスが分野依存になっているかどうかは明らかではない\cite{shinnou-jws5}\footnote{この論文\cite{shinnou-gengo-13}は本論文と同じタスクに対して,一部同じデータを用いた実験結果を示しているため,考察において提案手法との比較を行う.}.またChanはターゲット領域上の語義分布をEMアルゴリズムで推定している\cite{chan2005word,chan2006estimating}.これも教師なし領域適応手法であるが,本論文で扱う領域適応では語義分布の違いは顕著ではなく,効果が期待できない.本論文は,WSDの領域適応では共変量シフトの仮定が成立していると考え,共変量シフト下の学習を利用する.共変量シフト下の学習を領域適応に応用した研究としてはJiangの研究\cite{jiang2007instance}と齋木の研究\cite{saiki-2008-03-27}がある.Jiangは確率密度比を手動で調整し,モデルにはロジステック回帰を用いている.また齋木は$P_S({\bmx})$と$P_T({\bmx})$をunigramでモデル化することで確率密度比を推定し,モデルには最大エントロピー法を用いている.ただしどちらの研究もタスクはWSDではない.しかもターゲット領域のラベル付きデータを利用しているために,教師なし領域適応手法でもない.また新納はWSDの領域適応に共変量シフト下の学習を用いているが\cite{shinnou-gengo-14},そこではDaum{\'e}が提案した素性空間拡張法(FeatureAugmentation)\cite{daume0}を組み合わせて利用しているために,これも教師なし領域適応手法ではない.一方,共変量シフト下の学習は,事例への重み付き学習の一種である.Jiangは識別精度を悪化させるようなデータをMisleadingデータとして訓練データから取り除いて学習することを試みた\cite{jiang2007instance}.これはMisleadingデータの重みを0にした学習と見なせるため,この手法も重み付き学習手法と見なせる.吉田はソース領域内の訓練データ${\bmx}$がターゲット領域から見て外れ値と見なせた場合,${\bmx}$をMisleadingと判定し,それらを訓練データから取り除いて学習している\cite{yoshida}.これはWSDの教師なし領域適応手法であるが,Misleadingデータの検出は困難であり,精度の改善には至っていない.またWSDの領域適応をタスクとした古宮の手法\cite{komiya-nenji2013}も重み付き学習と見なせる.そこでは複数のソース領域のコーパスを用意し,そこから訓練事例をランダムに選択し,選択された訓練データセットの中で,ターゲット領域のテストデータを識別するのに最も適した訓練データセットを選ぶ.これは全ソース領域のコーパスの訓練データから選択された訓練データの重みを1,それ以外を重み0としていることを意味する.ただし複数のソース領域のコーパスから対象単語のラベル付き訓練データを集めるのは実際は困難である.また古宮は上記の研究以外にもWSDの領域適応の研究\cite{komiya3,komiya2,komiya-nlp2012}を行っているが,これらは教師付き学習手法となっている. \section{期待損失最小化に基づく共変量シフト下の学習} 対象単語$w$の語義の集合を$C$,また$w$の用例${\bmx}$内の$w$の語義を$c$と識別したときの損失関数を$l({\bmx},c,d)$で表す.$d$は$w$の語義を識別する分類器である.$P_T({\bmx},c)$をターゲット領域上の分布とすれば,本タスクにおける期待損失$L_0$は以下で表せる.\[L_0=\sum_{{\bmx},c}l({\bmx},c,d)P_T({\bmx},c)\]また$P_S({\bmx},c)$をソース領域上の分布とすると以下が成立する.\[L_0=\sum_{{\bmx},c}l({\bmx},c,d)\frac{P_T({\bmx},c)}{P_S({\bmx},c)}P_S({\bmx},c)\]ここで共変量シフトの仮定から\[\frac{P_T({\bmx},c)}{P_S({\bmx},c)}=\frac{P_T({\bmx})P_T(c|{\bmx})}{P_S({\bmx})P_S(c|{\bmx})}=\frac{P_T({\bmx})}{P_S({\bmx})}\]となり,$w({\bmx})=P_T({\bmx})/P_S({\bmx})$とおくと以下が成立する.\[L_0=\sum_{{\bmx},c}w({\bmx})l({\bmx},c,d)P_S({\bmx},c)\]訓練データを$D=\{({\bmx_i},c_i)\}_{i=1}^N$とし,$P_S({\bmx},c)$を経験分布で近似すれば,\[L_0\approx\frac{1}{N}\sum_{i=1}^Nw({\bmx_i})l({\bmx_i},c_i,d)\]となるので,期待損失最小化の観点から考えると,共変量シフトの問題は以下の式$L_1$を最小にする$d$を求めればよいことがわかる.\begin{equation}\label{eq:1}L_1=\sum_{i=1}^Nw({\bmx_i})l({\bmx_i},c_i,d)\end{equation}分類器$d$として以下の事後確率最大化推定に基づく識別を考える.\[d({\bmx})=\arg\max_{c}P_T(c|{\bmx})\]また損失関数として対数損失$-\logP_T(c|{\bmx})$を用いれば,\mbox{式(\ref{eq:1})}は以下となる.\[L_1=-\sum_{i=1}^Nw({\bmx_i})\logP_T(c_i|{\bmx_i})\]つまり,分類問題の解決に$P_T(c|{\bmx},{\bm\lambda})$のモデルを導入するアプローチを取る場合,共変量シフト下での学習では,確率密度比を重みとした以下に示す重み付き対数尤度$L({\bm\lambda})$を最大化するパラメータ${\bm\lambda}$を求める形となる.\begin{equation}\label{eq:2}L({\bm\lambda})=\sum_{i=1}^Nw({\bmx_i})\logP_T(c_i|{\bmx_i},{\bm\lambda})\end{equation}ここではモデルとして以下の式で示される最大エントロピー法を用いる.\begin{equation}\label{eq:3}P_T(c|{\bmx},{\bm\lambda})=\frac{1}{Z({\bmx},{\bm\lambda})}\exp\left(\sum_{j=1}^M\lambda_jf_j({\bmx},c)\right)\end{equation}${\bmx}=(x_1,x_2,\cdots,x_M)$が入力,$c$がクラスである.関数$f_j({\bmx},c)$は素性関数であり,実質${\bmx}$の真のクラスが$c$のときに$x_j$を返し,そうでないとき0を返す関数に設定される.$Z({\bmx},{\bm\lambda})$は正規化項であり,以下で表せる.\begin{equation}\label{eq:4}Z({\bmx},{\bm\lambda})=\sum_{c\inC}\exp\left(\sum_{j=1}^M\lambda_jf_j({\bmx},c)\right)\end{equation}\noindentそして${\bm\lambda}=(\lambda_1,\lambda_2,\cdots,\lambda_M)$が素性に対応する重みパラメータとなる. \section{確率密度比の算出} 確率密度比$w({\bmx})=P_T({\bmx})/P_S({\bmx})$の算出法は大きく2つに分類できる.1つは$P_S({\bmx})$と$P_T({\bmx})$を各々推定し,その比を取る手法であり,もう1つは$w({\bmx})$を直接モデル化する手法である.ここでは前者の方法として論文\cite{shinnou-gengo-14}において提案された手法を利用する.簡単化のために本論文ではこの手法をNB法と名付ける.また後者の方法としては論文\cite{kanamori2009least}において提案された拘束無し最小二乗重要度適合法(unconstrainedLeast-SquaresImportanceFitting,uLSIF)を利用する.\subsection{NB法}対象単語$w$の用例${\bmx}$の素性リストを$\{f_1,f_2,\cdots,f_n\}$とする.求めるのは領域$R\in\{S,T\}$上の${\bmx}$の分布$P_R({\bmx})$である.ここでNaiveBayesで使われるモデルを用いる.NaiveBayesのモデルでは以下を仮定する.\[P_R({\bmx})=\prod_{i=1}^{n}P_R(f_i)\]領域$R$のコーパス内の$w$の全ての用例について素性リストを作成しておく.ここで用例の数を$N(R)$とおく.また$N(R)$個の用例の中で,素性$f$が現れた用例数を$n(R,f)$とおく.MAP推定でスムージングを行い,$P_R(f)$を以下で定義する\cite{takamura}.\[P_R(f)=\frac{n(R,f)+1}{N(R)+2}\]以上より,ソース領域$S$の用例${\bmx}$に対して,確率密度比$w({\bmx})=P_T({\bmx})/P_S({\bmx})$が計算できる.\[w({\bmx})=\frac{P_T({\bmx})}{P_S({\bmx})}=\prod_{i=1}^n\left(\frac{n(T,f_i)+1}{N(T)+2}\cdot\frac{N(S)+2}{n(S,f_i)+1}\right)\]\subsection{uLSIF}ソース領域内のデータを$\{{\bmx_i^s}\}_{i=1}^{N_s}$,ターゲット領域内のデータを$\{{\bmx_i^t}\}_{i=1}^{N_t}$とするuLSIFでは確率密度比$w({\bmx})$を以下の式でモデル化する.\begin{align*}w({\bmx})&=\sum_{l=1}^b\alpha_l\psi_l({\bmx})\\&={\bm\alpha}\cdot{\bm\psi}({\bmx})\end{align*}ただしここで,${\bm\alpha}=(\alpha_1,\alpha_2,\cdots,\alpha_b)$,${\bm\psi}({\bmx})=(\psi_1({\bmx}),\psi_2({\bmx}),\cdots,\psi_b({\bmx}))$である.また$\alpha_l$は正の実数であり,$\psi_l({\bmx})$は基底関数と呼ばれるソース領域のデータ${\bmx}$から正の実数値への関数である.uLSIFでは,概略,自然数$b$と基底関数${\bm\psi}({\bmx})$を定めた後に,パラメータ${\bm\alpha}$を推定する手順をとる.説明の都合上,$b$と${\bm\psi}({\bmx})$が定まった後の${\bm\alpha}$の推定を先に説明する.$w({\bmx})$のモデルを$\hat{w}({\bmx})$とおくと,パラメータ$\alpha_l$を推定するには,$w({\bmx})$と$\hat{w}({\bmx})$の平均2乗誤差$J_0({\bm\alpha})$を最小にするような${\bm\alpha}$を求めれば良い.$w({\bmx})=P_T({\bmx})/P_S({\bmx})$に注意すると,$J_0({\bm\alpha})$は以下のように変形できる.\begin{align*}J_0({\bm\alpha})&=\frac{1}{2}\int(\hat{w}({\bmx})-w({\bmx}))^2P_S({\bmx})d{\bmx}\\&=\frac{1}{2}\int\hat{w}({\bmx})^2P_S({\bmx})d{\bmx}-\int\hat{w}({\bmx})w({\bmx})P_S({\bmx})d{\bmx}+\frac{1}{2}\intw({\bmx})^2P_S({\bmx})d{\bmx}\\&=\frac{1}{2}\int\hat{w}({\bmx})^2P_S({\bmx})d{\bmx}-\int\hat{w}({\bmx})P_T({\bmx})d{\bmx}+\frac{1}{2}\intw({\bmx})^2P_S({\bmx})d{\bmx}\end{align*}3項目の式は定数なので,$J_0({\bm\alpha})$を最小にするには,以下の$J({\bm\alpha})$を最小にすればよい.\[J({\bm\alpha})=\frac{1}{2}\int\hat{w}({\bmx})^2P_S({\bmx})d{\bmx}-\int\hat{w}({\bmx})P_T({\bmx})d{\bmx}\]$J({\bm\alpha})$を経験分布で近似した$\widehat{J}({\bm\alpha})$は以下となる.\begin{equation}\begin{aligned}[b]\widehat{J}({\bm\alpha})&=\frac{1}{2N_s}\sum_{i=1}^{N_s}\widehat{w}({\bmx_i^s})^2-\frac{1}{N_t}\sum_{j=1}^{N_t}\widehat{w}({\bmx_j^t})\\&=\frac{1}{2}\sum_{l,l'=1}^b\alpha_l\alpha_{l'}\left(\frac{1}{N_s}\sum_{i=1}^{N_s}\psi_l({\bmx_i^s})\psi_{l'}({\bmx_i^s})\right)-\sum_{l=1}^b\alpha_l\left(\frac{1}{N_t}\sum_{j=1}^{N_t}\psi_l({\bmx_j^t})\right)\\&=\frac{1}{2}{\bm\alpha}^T\widehat{H}{\bm\alpha}-\widehat{h}^T{\bm\alpha}\end{aligned}\label{jhatalpha}\end{equation}ここで$\widehat{H}$は$b\timesb$の行列であり,その$l$行$l'$列の要素$\widehat{H}_{l,l'}$は以下である.\[\widehat{H}_{l,l'}=\frac{1}{N_s}\sum_{i=1}^{N_s}\psi_l({\bmx_i^s})\psi_{l'}({\bmx_i^s})\]また$\widehat{h}$は$b$次元のベクトルであり,その$l$次元目の要素$\widehat{h}_l$は以下である.\[\widehat{h}_l=\frac{1}{N_t}\sum_{j=1}^{N_t}\psi_l({\bmx_j^t})\]$\widehat{J}({\bm\alpha})$の最小値を求める際に正則化を行う.このとき付加する正則化項をL2ノルムに設定し,${\bm\alpha}>0$の条件を外して,以下の最小化問題を解く.ここでパラメータ$\lambda$が導入されることに注意する.$\lambda$は基底関数を設定する際に決められる.\[\min_{{\bm\alpha}}\left[\frac{1}{2}{\bm\alpha}^T\widehat{H}{\bm\alpha}-\widehat{h}^T{\bm\alpha}+\frac{\lambda}{2}{\bm\alpha}^T{\bm\alpha}\right]\]この最小化問題は制約のない凸2次計画問題であるために,唯一の大域解が得られる.その解は以下である.\begin{equation}\label{eq:alp-kai1}\tilde{{\bm\alpha}}=(\widehat{H}+\lambdaI_b)^{-1}\widehat{h}^T\end{equation}最後に${\bm\alpha}>0$の条件に合わせるように,以下の調整を行う.\begin{equation}\begin{aligned}[b]\widehat{{\bm\alpha}}&=\left((\max(0,\tilde{\alpha_1}),\max(0,\tilde{\alpha_2}),\cdots,\max(0,\tilde{\alpha_b})\right)\\&=\max(0_b,\tilde{{\bm\alpha}})\end{aligned}\label{eq:alp-kai2}\end{equation}パラメータ$b$と基底関数の設定であるが,まず,$b$については以下で設定する\footnote{本実験では$b$の値は最大100となるが,この100という数値はオリジナルの論文\cite{kanamori2009least}で使われた値であり,本論文でのなんらかの予備実験から得た値ではない.uLSIFの実験結果はこの値を調整することで多少の向上があったかもしれない.}.\[b=\min(100,N_t)\]次にターゲット領域のデータから重複を許さずに$b$個の点をランダムに取り出す.それらの点を$\{{\bmx_j^t}\}_{j=1}^b$とおく.そして基底関数$\psi_l({\bmx})$を以下のガウシアンカーネルで定義する.\[\psi_l({\bmx})=K({\bmx},{\bmx_l^t})=\exp\left(-\frac{||{\bmx}-{\bmx_l^t}||^2}{\sigma^2}\right)\]以上より,確率密度比を求めるために残されているパラメータは正則化項の係数$\lambda$とガウシアンカーネルの幅$\sigma$の2つである.これらのパラメータはグリッドサーチの交差検定で求める.まずソース領域のデータとターゲット領域のデータをそれぞれ交わりのない$R$個の部分集合に分割する.それらの部分集合の中で$r$番目の部分集合を除き,残りを結合した集合を作る.それらを新たなソース領域のデータとターゲット領域のデータと見なす.そして$\lambda$と$\sigma$をある値に設定し,\mbox{式(\ref{eq:alp-kai1})}と\mbox{式(\ref{eq:alp-kai2})}より${\bm\alpha}$を求め,\mbox{式(\ref{jhatalpha})}より$\widehat{J}({\bm\alpha})^{(r)}$の値を求める.$r$を1から$R$まで変化させることで,$R$個の$\widehat{J}({\bm\alpha})^{(r)}$の値が求まり,それらを平均した値を$\lambda$と$\sigma$に対する$\widehat{J}({\bm\alpha})$の値とする.次に$\lambda$と$\sigma$を変化させ,上記手順で得られる$\widehat{J}({\bm\alpha})$の値が最小となる$\hat{\lambda}$と$\hat{\sigma}$を求め,これを$\lambda$と$\sigma$の推定値とする.\subsection{$P_S({\bmx})$の補正による確率密度比の算出}WSDのタスクではNB法あるいはuLSIFで算出される確率密度比は小さい値を取る傾向があり,実際の学習で用いる際には,少し上方に修正した値を取る方が最終の識別結果が改善されることが多い.これは以下の2点から生じていると考えられる.\begin{itemize}\item$T$に${\bmx}$が入っているかは確率的であるが,$S$には必ず${\bmx}$が入っている.\item$P_S({\bmx})$を推定するために${\bmx}\inS$を用いるため,訓練データである${\bmx}$に過学習した結果$P_S({\bmx})$は$P_T({\bmx})$に比べて高く見積もられてしまう.\end{itemize}このため,求まった確率密度比を上方に修正する手法が存在する.論文\cite{sugiyama-2006-09-05}では確率密度比$w({\bmx})$を$p$乗($0<p<1$)することを提案している.また論文\cite{yamada2011relative}では以下で示される相対確率密度比$w'({\bmx})$を確率密度比として利用することを提案している.\[w'({\bmx})=\frac{P_T({\bmx})}{\alphaP_S({\bmx})+(1-\alpha)P_T({\bmx})}\]ここで$0<\alpha<1$である.確率密度比$w({\bmx})$が1以下である場合,$w({\bmx})$を$p$乗すると上方に修正できることは,それらの比の対数を取れば,\mbox{$\logw({\bmx})<0$}であることから明らかである.\[\log\frac{w({\bmx})^p}{w({\bmx})}=(p-1)\logw({\bmx})>0\]また相対確率密度比$w'({\bmx})$は以下の変形から$w({\bmx})$を上方に修正していると見なせる.\begin{align*}w'({\bmx})&=\frac{P_T({\bmx})}{\alphaP_S({\bmx})+(1-\alpha)P_T({\bmx})}\\&=\frac{1}{\alpha+(1-\alpha)w({\bmx})}w({\bmx})\\&>\frac{1}{\alpha+(1-\alpha)}w({\bmx})\\&=w({\bmx})\end{align*}確率密度比が1以上である場合,これらの手法は確率密度比を下方に修正するので,正確には確率密度比を1に近づける手法である.しかし,ほとんどの訓練データの確率密度比は1以下であるために,ここではこれらの手法を上方修正する手法と呼び,提案手法と対比させる.本論文では確率密度比を上方に修正するために,ソース領域のデータとターゲット領域のデータを合わせたデータを新たにソース領域のデータとみなし,NB法を用いて$P_S({\bmx})$を補正することを提案する.これは$S$のスパース性を緩和させることを狙ったものである.確率密度比が真の値よりも低く見積もられる原因の1つは,$P_S({\bmx})$が真の値よりも高く見積もられるからだと考える.さらにその原因が$S$のスパース性なので,スパース性を緩和するために$S$にデータを追加するというアイデアである.ただし追加するデータは$S$と類似の領域のデータであることが望ましい.WSDの領域適応の場合,$S$と$T$は完全に異なることはなく,比較的似ているために,追加するデータとして$T$のデータが利用できると考えた.提案手法の新たなソース領域を$S+T$で表せば,$P_S({\bmx})>P_{S+T}({\bmx})$が成立していると考えるのは自然であり,この不等式が成立していれば,提案手法により確率密度比は上方に修正される.ただし,ここで提案手法は必ずしもNB法の確率密度比を上方に修正できるとは限らないことに注意する.また提案手法はNB法の確率密度比が1以下かどうかには無関係であることにも注意する.NB法の確率密度比が1以上であっても,上方に修正する可能性がある.また$P_{S+T}({\bmx})$は以下の式を利用して求められる.\begin{align*}P_{S+T}(f)&=\frac{n(S+T,f)+1}{N(S+T)+2}\\&=\frac{n(S,f)+n(T,f)+1}{N(S)+N(T)+2}\end{align*} \section{実験} BCCWJのPB(書籍),OC(Yahoo!知恵袋)及びPN(新聞)を異なった領域として実験を行う.SemEval-2の日本語WSDタスク\cite{semeval-2010}ではこれら領域のコーパスの一部に語義タグを付けたデータを公開しており,そのデータを利用する.この3つの領域からある程度頻度のある多義語16単語をWSDの対象単語とする.これら単語と辞書上での語義数及び各コーパスでの頻度と語義数を\mbox{表\ref{tab:target-word}}に示す\footnote{語義は岩波国語辞書がもとになっている.そこでの中分類までを対象にした.また「入る」は辞書上の語義が3つだが,OCやPBでは4つの語義がある.これはSemEval-2の日本語WSDタスクでは新語義のタグも許しているからである.}.領域適応の方向としてはOC→PB,PB→PN,PN→OC,OC→PN,PN→PB,PB→OCの計6通りの方向が存在する.\begin{table}[t]\caption{対象単語}\label{tab:target-word}\input{02table01.txt}\end{table}本稿で利用した素性は以下の8種類である.(e0)$w$の表記,(e1)$w$の品詞,(e2)$w_{-1}$の表記,(e3)$w_{-1}$の品詞,(e4)$w_1$の表記,(e5)$w_1$の品詞,(e6)$w$の前後3単語までの自立語の表記,(e7)e6の分類語彙表の番号の4桁と5桁.なお対象単語の直前の単語を$w_{-1}$,直後の単語を$w_1$としている.対象単語$w$についてソース領域$S$からターゲット領域$T$への領域適応の実験について説明する.ソース領域$S$の訓練データのみを用いて,手法Aにより分類器を学習し$w$に対する正解率を求める.16種類の各対象単語($w_1,w_2,\cdots,w_{16}$)に対する正解率の平均,つまりマクロ平均をソース領域$S$からターゲット領域$T$に対する手法Aの正解率とする.結果,手法Aについて6種類の各領域適応に対しての正解率が得られる.それらの平均を手法Aの平均正解率とする.上記の手法Aとしては,以下の8種類を試す.(1)重みを考慮しない(重みを1で固定する)手法(Base),(2)NB法による重みをつけた手法(NB),(3)NB法の重みを$p$乗した値を重みにする手法(P-NB),(4)NB法の重みを相対確率密度比により上方修正した値を重みにする手法(A-NB),(5)uLSIFによる重みをつけた手法(uLISF),(6)uLSIFの重みを$p$乗した値を重みにする手法(P-uLSIF),(7)uLSIFの重みを相対確率密度比により上方修正した値を重みにする手法(A-uLSIF),(8)提案手法,またすべての手法において学習アルゴリズムとしては最大エントロピー法を用いた.またその実行にはツールのClassiasを用いた\cite{Classias}.$S$から$T$への領域適応における各手法の正解率を\mbox{表\ref{tab:resultall}}に示す.ただしP-NB,A-NB,P-uLSIF,A-uLSIFについては$p$と$\alpha$のパラメータが存在する.これらの値については,その値を0.01から0.09まで0.01刻み,及び0.1から0.9まで0.1刻みで変化させ,平均正解率が最もよい値を示した値を採用した.結果,P-NBについては$p=0.2$,A-NBについては$\alpha=0.01$,P-uLSIFについては$p=0.04$,A-uLSIFについては$\alpha=0.01$の値を採用した.\mbox{表\ref{tab:resultall}}が示すように,領域適応のタイプ毎に最適な手法は異なるが,平均正解率としては提案手法が最も高い値を示した.またP-NBとA-NBの平均正解率はNBの平均正解率よりも高く,P-uLSIFとA-uLSIFの平均正解率はuLSIFの平均正解率よりも高い.つまり確率密度比を上方に修正する手法が有効であったことがわかる.\begin{table}[b]\caption{各手法の平均正解率(\%)}\label{tab:resultall}\input{02table02.txt}\end{table}また有意差を検定するために以下の実験を行った.まず対象単語毎にOCのデータからランダムに9割のデータ取り出し,それらのデータセットをOC-1とする.これを20回行い,OC-1,OC-2,$\cdots$,OC-20を作成する.同様にPBのデータからPB-1,PB-2,$\cdots$,PB-20を作成する.また同様にPNのデータからPN-1,PN-2,$\cdots$,PN-20を作成する.そしてデータセットの組(OC-i,PB-i,PN-i)を用いて,前述した実験と同様の実験を行い,20個の平均正解率を算出しt-検定(両側検定の有意水準5\%)を行った.結果を\mbox{表\ref{tab:kentei}}に示す.\mbox{表\ref{tab:kentei}}における評価値は以下の式により計算されたものである.\[\frac{\bar{X_1}-\bar{X_2}}{\sqrt{\left(\frac{1}{n_2}+\frac{1}{n_2}\right)\frac{n_1S_1^2+n_2S_2^2}{n_1+n_2-2}}}\]ここで$\bar{X_1}$と$S_1^2$が提案手法の20個の平均正解率の平均と分散であり,$\bar{X_2}$と$S_2^2$が比較対象の手法の20個の平均正解率の平均と分散である.$n_1$と$n_2$は共にサンプル数20である.この評価値が自由度38のt分布の0.975の分位点2.0244よりも大きい場合に,提案手法が対応する手法に対して有意であると判定される.\begin{table}[b]\caption{有意差の検定結果}\label{tab:kentei}\input{02table03.txt}\end{table}\mbox{表\ref{tab:kentei}}が示すようにP-NB以外の全ての手法に対して,提案手法が有意に優れていた. \section{考察} \subsection{確率密度比を上方修正しないケース}「$p$乗する」あるいは「相対確率密度比を取る」という手法は,元の確率密度比が1以下である全てのデータに対してその値を上方に修正するが,提案手法は一部のデータに対してはNB法の確率密度比が1以下であっても,それらを上方に修正できない.提案手法により確率密度比の値が大きくならず,逆に小さくなったデータの個数を\mbox{表\ref{tab:down}}に示す.\begin{table}[b]\caption{上方修正できなかったデータの個数}\label{tab:down}\input{02table04.txt}\end{table}ほとんどのデータに対して,その確率密度比を上方に修正しているが,修正できていないデータが極端に多いケースも存在する.例えば,PB→PNに関しては「言う」「自分」「見る」「やる」「ゆく」,OC→PNに関しては「書く」「見る」「やる」「ゆく」である.これらに関してのみBaseとNBと提案手法の正解率の比較を\mbox{表\ref{tab:down-pre}}に示す.\mbox{表\ref{tab:down-pre}}からわかるように,上方修正ができないデータが多くなると,提案手法はNB法よりも正解率が下がっている.ただし,下方に修正した場合には必ず正解率が下がるとも言えないことに注意したい.例えば,確率密度比の値を下げないようにするには提案手法を修正し,「NB法の値を上方に修正できなければ,NB法の値をそのまま使う」という形にすれば良い.この修正案の手法も試した結果を\mbox{表\ref{tab:resultsyuusei}}に示す.修正案の手法の平均正解率は,提案手法よりも若干悪かった.\begin{table}[t]\caption{上方修正できなかったデータの正解率(\%)}\label{tab:down-pre}\input{02table05.txt}\end{table}\begin{table}[t]\caption{修正版提案手法の平均正解率(\%)}\label{tab:resultsyuusei}\input{02table06.txt}\end{table}上記の実験はNB法による確率密度比が1以下かどうかは考慮していない.「p乗する」や「相対確率密度比を取る」手法では,確率密度比が1以上の場合に,その値を逆に小さくしている.確率密度比が1以上の場合に,上方修正する方がよいのか下方修正する方がよいのかは未解決である.参考として上記の修正案の手法を更に修正し,「NB法の値が1以上の場合,あるいはNB法の値を上方に修正できな場合にはNB法の値をそのまま使う」という形の実験も行った.結果,平均正解率は72.14と若干改善はされたが,提案手法よりも若干悪いことに変化はなかった.データの確率密度比(重み)はその値の大きさが重要ではなく,他データとの重みとの関係が本質的である.例えば全てのデータの重みを10倍して,値自体を増やしても,推定できるパラメータが変化しないのは,重み付き対数尤度(\mbox{式\ref{eq:2}})の最大化する部分が変化しないことから明らかである.データの重みはタスクの背景知識から,その重要度を設定していくか,そのデータを数値化した後に確率密度比という観点から設定していくしか方法はないと考える.提案手法は後者であり,コーパスのスパース性への対処からNB法を改良した手法と考えている.上方修正することに,どのような意味があるかを調べることは今後の課題である.\subsection{提案手法の重みの上方修正}\begin{figure}[b]\begin{center}\includegraphics{21-5ia2f1.eps}\end{center}\caption{$p$乗による提案手法値の上方修正}\label{zu1}\end{figure}\begin{figure}[tb]\begin{center}\includegraphics{21-5ia2f2.eps}\end{center}\caption{相対確率密度比による提案手法値の上方修正}\label{zu2}\end{figure}提案手法は,確率密度比を上方修正する手法と組み合わせて利用することで更なる精度改善も可能である.提案手法の確率密度比を$p$乗した場合の平均正解率の変化を\mbox{図\ref{zu1}}に示す.$p=0.6$のとき最大値72.54\%をとった.また提案手法の確率密度比に対してパラメータ$\alpha$の相対確率密度比をとった場合の平均正解率の変化を\mbox{図\ref{zu2}}に示す.$\alpha=0.6$のとき最大値72.30\%をとった.ともに確率密度比を上方修正することで平均正解率は改善されている.本論文の以降の記述において,提案手法の重みを$p$乗した値を重みにする手法を「P-提案手法」,提案手法の重みを相対確率密度比により上方修正した値を重みにする手法を「A-提案手法」と名付ける.ここで$p=0.6$,$\alpha=0.6$である.また前節で行った有意差の検定を「P-提案手法」と「A-提案手法」に対しても行った.結果,「P-提案手法」はP-NBや提案手法を含む全ての手法に対して有意に優れていた.ただし「A-提案手法」はP-NBや提案手法とに有意な差はなかった.\subsection{Misleadingデータからの評価}本論文で提案した確率密度比(重み)はNB法やuLSIFによる確率密度比よりも,有効に機能していた.ただし真の確率密度比の値は未知であるために,真の値に近いかどうかという観点での評価は不可能である.また重みの設定だけで,どの程度まで平均正解率が向上できるのかも未知である.一方,Misleadingデータを削除してから学習を行うことでかなりの精度向上が可能であることが論文\cite{yoshida}により示されている.Misleadingデータを削除してから学習することは,Misleadingデータの重みを0,それ以外のデータの重みを1とした重み付き学習と見なせる.この重み付けが真の確率密度比と類似しているかどうかは不明だが,Misleadingデータに対してはできるだけ小さな重みを与える手法が優れているとみなせる.そこでここでは各手法においてMisleadingデータに付与された重みを調べることで手法を評価する.まず論文\cite{yoshida}で行ったように,しらみつぶしにMisleadingを見つけ出す.領域$S$から領域$T$の領域適応において,対象単語$w$の$S$上のラベル付きデータ$D$が存在する.まず$D$で学習した識別器の$T$に対する正解率$p_0$を測る.次に$D$から1つデータ$x$を取り除き,$D-\{x\}$から学習した識別器の$T$に対する正解率$p_1$を測る.$p_1>p_0$となった場合,データ$x$をMisleadingデータと見なす.これを$D$内のすべてのデータに対して行い,$S$から$T$の領域適応における対象単語$w$のMisleadingデータを見つける.この処理によって見つけ出されたMisleadingデータの個数を\mbox{表\ref{tab:mislead}}示す.括弧内の数値は全データ数である.またMisleadingによる重みを用いた学習の識別結果を\mbox{表\ref{tab:resultmis}}に示す.表中のMisleadがそれにあたる.本論文の実験で得られている平均正解率よりもかなり高い.つまり重みの設定のみでもBaseの平均正解率71.71\%を少なくとも75.42\%まで改善可能である.\begin{table}[t]\caption{Misleadingデータの個数}\label{tab:mislead}\input{02table07.txt}\end{table}\normalsize\begin{table}[t]\caption{Misleadingによる重みを用いた学習の平均正解率(\%)}\label{tab:resultmis}\input{02table08.txt}\end{table}次に各手法がMisleadingデータに付与した重みにより手法を評価する.領域$S$から領域$T$の領域適応において,対象単語$w$の$S$上のラベル付きデータを$D=\{x_i\}_{i=1}^{N_w}$とする.まず$D$内のデータの重みの平均値$m_w$を調べる.\[m_w=\frac{1}{N_w}\sum_{i=1}^{N_w}w(x_i)\]次に$D$内のMisleadingデータを$\{x'_j\}_{j=1}^{M_w}$とする.各$x'_j$の重み$w(x'_j)$が$m_w$と比較して小さな値であればよいので,対象単語$w$に関するMisleadingデータを用いた評価値$d_w$を以下で測る.\[d_w=\frac{1}{M_w}\sum_{j=1}^{M_w}\frac{w(x'_j)}{m_w}\]$d_w$は対象単語$w$の訓練データの重みの平均値$m_w$に対して,Misleadingデータ$x'_j$の重み$w(x'_j)$の比を取り,その比の平均を取ったものである.このため$d_w$の値が小さいほど,適切に重み付けできていると考えられる.そして$d_w$の各単語に関して平均を取った値を,その手法における$S$から$T$のMisleadingデータを用いた評価値(小さいほど良い)とする.これをまとめたものが\mbox{表\ref{tab:miseval}}である.\mbox{表\ref{tab:miseval}}が示すように,Misleadingデータを用いた評価では,NB法,uLSIF及び提案手法の3つの中でuLSIFが最も優れている.ただし提案手法はNB法よりも優れていた.更に全ての手法において「$p$乗する」,あるいは「相対確率密度比を取る」ことで評価値は改善されており,重みを上方修正する効果があることがわかる.また「$p$乗する」と「相対確率密度比を取る」を比較すると,「$p$乗する」方が効果があることもわかる.\begin{table}[t]\caption{Misleadingデータからの評価値}\label{tab:miseval}\input{02table09.txt}\end{table}\subsection{負の転移の有無}NB法やuLSIFはBaseよりも平均正解率が低い.これは確率密度比からの重み付き学習が効果がなかったことを示している.この原因として,WSDの領域適応では,領域の変化はあるが,実際には領域適応の問題が生じていない,つまり負の転移\cite{rosenstein2005transfer}が生じていない対象単語がかなり存在するからだと考える.負の転移が生じていなければ,訓練データを全て利用して学習する方が有利であることは明らかであり,重みをつけると逆効果になると考えられる.この点を確認するために,負の転移が生じているものと生じていないものに分けて,各手法の平均正解率を測ってみる.まず負の転移が生じている単語の判定であるが,これは\mbox{表\ref{tab:mislead}}で示したMisleadingデータの個数から行う.ここではMisleadingデータが全データの1割以下の場合,負の転移が生じないと判定した.結果を\mbox{表\ref{tab:mislead2}}に示す.チェックが付いているものが「負の転移が生じない」と判定したものである.\mbox{表\ref{tab:mislead2}}でチェックがついていない対象単語に限定して,各手法の平均正解率を測った結果が\mbox{表\ref{tab:del-fu-kekka}}である.また逆に\mbox{表\ref{tab:mislead2}}でチェックがついている対象単語に限定して,各手法の平均正解率を測った結果が\mbox{表\ref{tab:del-fu-kekka2}}である.\begin{table}[t]\caption{負の転移が生じない単語}\label{tab:mislead2}\input{02table10.txt}\end{table}\begin{table}[t]\caption{負の転移が生じる単語に限定した平均正解率(\%)}\label{tab:del-fu-kekka}\input{02table11.txt}\end{table}\mbox{表\ref{tab:del-fu-kekka}}と\mbox{表\ref{tab:del-fu-kekka2}}からわかるように,NB法やuLSIFは負の転移が生じる,生じないに関わらず,Baseよりも平均正解率が低く,本実験においては有効ではなかった.一方,提案手法は負の転移が生じる場合でも,生じない場合でもBaseよりも平均正解率が高く,どちらの場合でも有効であることがわかる.また負の転移が生じる場合,提案手法の平均正解率はNB法の平均正解率の1.09倍であり,uLSIFの平均正解率1.05倍である.一方,負の転移が生じない場合,提案手法の平均正解率はNB法の平均正解率の1.02倍であり,uLSIFの平均正解率1.03倍である.つまり負の転移が生じるケースで提案手法と既存手法(NB法,uLSIF)との差が大きくなる.更に確率密度比を上方修正する効果をみてみる.負の転移が生じる場合,NB法は平均正解率60.69\%が$p$乗することで65.19\%,相対確率密度比を取ることで65.35\%まで向上しているので,平均的には7.5\%平均正解率が向上している\footnote{$((65.19+65.35)/2)/60.69\approx1.075$から算出した.}.同様に計算してuLSIFの平均正解率は3.6\%,提案手法の平均正解率は0.5\%向上している.負の転移が生じない場合,NB法は1.4\%,uLSIFは2.8\%平均正解率が向上している.また提案手法では平均正解率はほとんど変化しない.つまり確率密度比を上方修正する効果は負の転移が生じるケースで顕著になっている.\begin{table}[t]\caption{負の転移が生じない単語に限定した平均正解率(\%)}\label{tab:del-fu-kekka2}\input{02table12.txt}\end{table}今後の課題としてはMisleadingデータの検出方法を考案することである.Misleadingデータを検出し,そのデータに重みを0にすることはかなりの精度向上が期待できる.またMisleadingデータの割合から負の転移の有無を判定し,負の転移が生じる問題にだけ,重み付け学習手法を適用するアプローチも効果があると考えられる.\subsection{トピックモデルの利用}論文\cite{shinnou-gengo-13}は本論文と同じタスクに対して一部同じデータを用いた実験結果を示している.ここではそこでの実験結果の値と本論文の実験結果の値を比較し,手法間の違いを考察する.論文\cite{shinnou-gengo-13}の核となるアイデアは,ターゲット領域$T$のトピックモデルを作成し,ターゲット領域に特有のシソーラスを構築することである.このシソーラスの情報を素性として組み込むことで,識別精度を上げることを狙っている.実験はOC→PBと\mbox{PB→OC}の2方向である.また対象単語は本論文の16単語の他「来る」が含まれている\footnote{本論文では「来る」はPNの領域において曖昧性がないため対象単語から外した.}.\begin{table}[p]\caption{正解率(\%)の比較(OC→PB)}\label{tm-hikaku1}\input{02table13.txt}\end{table}\begin{table}[p]\caption{正解率(\%)の比較(PB→OC)}\label{tm-hikaku2}\input{02table14.txt}\end{table}OC→PBとPB→OCの領域適応における,本論文の対象単語16単語についての識別精度の比較を\mbox{表\ref{tm-hikaku1}}と\mbox{表\ref{tm-hikaku2}}に示す.なお表中のSVM-TM-kNNは論文\cite{shinnou-gengo-13}の手法を意味する.対象単語に応じて最も高い正解率の手法は異なるが,平均的にはSVM-TM-kNNが最も高い正解率を示している.ただしSVM-TM-kNNはトピックモデルを構築するために,ターゲット領域のコーパスを利用していることに注意したい.本論文の提案手法はターゲット領域の対象単語の用例を用いているが,コーパスは利用していない.つまり利用しているリソースが異なるために,単純にSVM-TM-kNNが提案手法よりも優れているとは結論できない.またSVM-TM-kNNにおけるトピックモデルは素性構築の際に利用されているだけであり,提案手法と競合するものではない.つまりSVM-TM-kNNの手法を利用して,WSDでの素性を構築し,それに対して本論文の提案手法を適用することも可能である.今後はこの方向での改良も試みたい. \section{おわりに} 本論文では,WSDの領域適応に対して,共変量シフト下の学習を試みた.共変量シフト下の学習では確率密度比を重みとした重み付き学習を行うが,WSDのタスクでは算出される確率密度比が小さくなる傾向があるため,ソース領域のコーパスとターゲット領域のコーパスとを合わせたコーパスをソース領域のコーパスと見なしてNB法を用いる手法を提案した.BCCWJの3つの領域OC(Yahoo!知恵袋),PB(書籍)及びPN(新聞)に共通して出現する多義語16単語を対象にして,WSDの領域適応の実験を行った.NB法,uLSIF及び提案手法を比較すると,提案手法が最も高い平均正解率を出した.また「$p$乗する」や「相対確率密度比を取る」といった確率密度比を上方修正する手法も試し,提案手法のように確率密度比を上方修正する効果を確認した.またMisleadingデータをしらみつぶし的に取り出し,Misleadingデータを用いた手法の評価も行った.Misleadingデータを利用した評価ではuLSIFが優れていたが,提案手法はNB法の改良になっていることを確認できた.WSDの領域適応の場合,Misleadingデータの検出あるいは負の転移の有無を判定することが,精度改善に大きく寄与できる.今後はこの点の研究を進めたい.またトピックモデルの利用も検討したい.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chan\BBA\Ng}{Chan\BBA\Ng}{2005}]{chan2005word}Chan,Y.~S.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2005\BBCP.\newblock\BBOQWordSenseDisambiguationwithDistributionEstimation.\BBCQ\\newblockIn{\BemProceedingsofIJCAI-2005},\mbox{\BPGS\1010--1015}.\bibitem[\protect\BCAY{Chan\BBA\Ng}{Chan\BBA\Ng}{2006}]{chan2006estimating}Chan,Y.~S.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2006\BBCP.\newblock\BBOQEstimatingClassPriorsinDomainAdaptationforWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofCOLING-ACL-2006},\mbox{\BPGS\89--96}.\bibitem[\protect\BCAY{Chapelle,Sch{\"o}lkopf,\BBA\Zien}{Chapelleet~al.}{2006}]{chapelle2006semi}Chapelle,O.,Sch{\"o}lkopf,B.,\BBA\Zien,A.\BBOP2006\BBCP.\newblock{\BemSemi-SupervisedLearning},\lowercase{\BVOL}~2.\newblockMITpressCambridge.\bibitem[\protect\BCAY{Daum{\'{e}}}{Daum{\'{e}}}{2007}]{daume0}Daum{\'{e}},H.~I.\BBOP2007\BBCP.\newblock\BBOQFrustratinglyEasyDomainAdaptation.\BBCQ\\newblockIn{\BemProceedingsofACL-2007},\mbox{\BPGS\256--263}.\bibitem[\protect\BCAY{Jiang\BBA\Zhai}{Jiang\BBA\Zhai}{2007}]{jiang2007instance}Jiang,J.\BBACOMMA\\BBA\Zhai,C.\BBOP2007\BBCP.\newblock\BBOQInstanceWeightingforDomainAdaptationinNLP.\BBCQ\\newblockIn{\BemProceedingsofACL-2007},\mbox{\BPGS\264--271}.\bibitem[\protect\BCAY{Joachims}{Joachims}{1999}]{joachims1999transductive}Joachims,T.\BBOP1999\BBCP.\newblock\BBOQTransductiveInferenceforTextClassificationusingSupportVectorMachines.\BBCQ\\newblockIn{\BemICML},\lowercase{\BVOL}~99,\mbox{\BPGS\200--209}.\bibitem[\protect\BCAY{神嶌}{神嶌}{2010}]{kamishima}神嶌敏弘\BBOP2010\BBCP.\newblock転移学習.\\newblock\Jem{人工知能学会誌},{\Bbf25}(4),\mbox{\BPGS\572--580}.\bibitem[\protect\BCAY{Kanamori,Hido,\BBA\Sugiyama}{Kanamoriet~al.}{2009}]{kanamori2009least}Kanamori,T.,Hido,S.,\BBA\Sugiyama,M.\BBOP2009\BBCP.\newblock\BBOQALeast-SquaresApproachtoDirectImportanceEstimation.\BBCQ\\newblock{\BemTheJournalofMachineLearningResearch},{\Bbf10},\mbox{\BPGS\1391--1445}.\bibitem[\protect\BCAY{古宮\JBA奥村}{古宮\JBA奥村}{2012}]{komiya-nlp2012}古宮嘉那子\JBA奥村学\BBOP2012\BBCP.\newblock語義曖昧性解消のための領域適応手法の決定木学習による自動選択.\\newblock\Jem{自然言語処理},{\Bbf19}(3),\mbox{\BPGS\143--166}.\bibitem[\protect\BCAY{古宮\JBA小谷\JBA奥村}{古宮\Jetal}{2013}]{komiya-nenji2013}古宮嘉那子\JBA小谷善行\JBA奥村学\BBOP2013\BBCP.\newblock語義曖昧性解消の領域適応のための訓練事例集合の選択.\\newblock\Jem{言語処理学会第19回年次大会},\mbox{\BPGS\C6{--}2}.\bibitem[\protect\BCAY{Komiya\BBA\Okumura}{Komiya\BBA\Okumura}{2011}]{komiya3}Komiya,K.\BBACOMMA\\BBA\Okumura,M.\BBOP2011\BBCP.\newblock\BBOQAutomaticDeterminationofaDomainAdaptationMethodforWordSenseDisambiguationusingDecisionTreeLearning.\BBCQ\\newblockIn{\BemProceedingsofIJCNLP-2011},\mbox{\BPGS\1107--1115}.\bibitem[\protect\BCAY{Komiya\BBA\Okumura}{Komiya\BBA\Okumura}{2012}]{komiya2}Komiya,K.\BBACOMMA\\BBA\Okumura,M.\BBOP2012\BBCP.\newblock\BBOQAutomaticDomainAdaptationforWordSenseDisambiguationBasedonComparisonofMultipleClassifiers.\BBCQ\\newblockIn{\BemProceedingsofPACLIC-2012},\mbox{\BPGS\75--85}.\bibitem[\protect\BCAY{Maekawa}{Maekawa}{2007}]{bccwj}Maekawa,K.\BBOP2007\BBCP.\newblock\BBOQDesignofaBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemSymposiumonLarge-ScaleKnowledgeResources(LKR2007)},\mbox{\BPGS\55--58}.\bibitem[\protect\BCAY{森}{森}{2012}]{mori}森信介\BBOP2012\BBCP.\newblock自然言語処理における分野適応.\\newblock\Jem{人工知能学会誌},{\Bbf27}(4),\mbox{\BPGS\365--372}.\bibitem[\protect\BCAY{Okazaki}{Okazaki}{2009}]{Classias}Okazaki,N.\BBOP2009\BBCP.\newblock\BBOQClassias:ACollectionofMachine-LearningAlgorithmsforClassification.\BBCQ.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2010}]{semeval-2010}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2010\BBCP.\newblock\BBOQSemEval-2010Task:JapaneseWSD.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\69--74}.\bibitem[\protect\BCAY{Rosenstein,Marx,Kaelbling,\BBA\Dietterich}{Rosensteinet~al.}{2005}]{rosenstein2005transfer}Rosenstein,M.~T.,Marx,Z.,Kaelbling,L.~P.,\BBA\Dietterich,T.~G.\BBOP2005\BBCP.\newblock\BBOQToTransferorNottoTransfer.\BBCQ\\newblockIn{\BemProceedingsoftheNIPS2005WorkshoponInductiveTransfer:10YearsLater}.\bibitem[\protect\BCAY{齋木\JBA高村\JBA奥村}{齋木\Jetal}{2008}]{saiki-2008-03-27}齋木陽介\JBA高村大也\JBA奥村学\BBOP2008\BBCP.\newblock文の感情極性判定における事例重み付けによるドメイン適応.\\newblock\Jem{情報処理学会第184回自然言語処理研究会,NL-184-10}.\bibitem[\protect\BCAY{新納\JBA佐々木}{新納\JBA佐々木}{2013}]{shinnou-gengo-13}新納浩幸\JBA佐々木稔\BBOP2013\BBCP.\newblockk近傍法とトピックモデルを利用した語義曖昧性解消の領域適応.\\newblock\Jem{自然言語処理},{\Bbf20}(5),\mbox{\BPGS\707--726}.\bibitem[\protect\BCAY{新納\JBA佐々木}{新納\JBA佐々木}{2014}]{shinnou-gengo-14}新納浩幸\JBA佐々木稔\BBOP2014\BBCP.\newblock共変量シフトの問題としての語義曖昧性解消の領域適応.\\newblock\Jem{自然言語処理},{\Bbf21}(1),\mbox{\BPGS\61--79}.\bibitem[\protect\BCAY{新納\JBA國井\JBA佐々木}{新納\Jetal}{2014}]{shinnou-jws5}新納浩幸\JBA國井慎也\JBA佐々木稔\BBOP2014\BBCP.\newblock語義曖昧性解消を対象とした領域固有のシソーラスの構築.\\newblock\Jem{第5回コーパス日本語学ワークショップ},\mbox{\BPGS\199--206}.\bibitem[\protect\BCAY{Sogaard}{Sogaard}{2013}]{da-book}Sogaard,A.\BBOP2013\BBCP.\newblock{\BemSemi-SupervisedLearningandDomainAdaptationinNaturalLanguageProcessing}.\newblockMorgan\&Claypool.\bibitem[\protect\BCAY{杉山}{杉山}{2006}]{sugiyama-2006-09-05}杉山将\BBOP2006\BBCP.\newblock共変量シフト下での教師付き学習.\\newblock\Jem{日本神経回路学会誌},{\Bbf13}(3),\mbox{\BPGS\111--118}.\bibitem[\protect\BCAY{杉山}{杉山}{2010}]{sugiyama-2010}杉山将\BBOP2010\BBCP.\newblock密度比に基づく機械学習の新たなアプローチ.\\newblock\Jem{統計数理},{\Bbf58}(2),\mbox{\BPGS\141--155}.\bibitem[\protect\BCAY{Sugiyama\BBA\Kawanabe}{Sugiyama\BBA\Kawanabe}{2011}]{sugiyama-book}Sugiyama,M.\BBACOMMA\\BBA\Kawanabe,M.\BBOP2011\BBCP.\newblock{\BemMachineLearninginNon-StationaryEnvironments:IntroductiontoCovariateShiftAdaptation}.\newblockMITPress.\bibitem[\protect\BCAY{高村}{高村}{2010}]{takamura}高村大也\BBOP2010\BBCP.\newblock\Jem{言語処理のための機械学習入門}.\newblockコロナ社.\bibitem[\protect\BCAY{Yamada,Suzuki,Kanamori,Hachiya,\BBA\Sugiyama}{Yamadaet~al.}{2011}]{yamada2011relative}Yamada,M.,Suzuki,T.,Kanamori,T.,Hachiya,H.,\BBA\Sugiyama,M.\BBOP2011\BBCP.\newblock\BBOQRelativeDensity-ratioEstimationforRobustDistributionComparison.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf25}(5),\mbox{\BPGS\1370--1370}.\bibitem[\protect\BCAY{吉田\JBA新納}{吉田\JBA新納}{2014}]{yoshida}吉田拓夢\JBA新納浩幸\BBOP2014\BBCP.\newblock外れ値検出手法を利用したMisleadingデータの検出.\\newblock\Jem{第5回コーパス日本語学ワークショップ},\mbox{\BPGS\49--56}.\end{thebibliography}\begin{biography}\bioauthor{新納浩幸}{1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年4月茨城大学工学部システム工学科助手.1997年10月同学科講師,2001年4月同学科助教授,現在,茨城大学工学部情報工学科准教授.博士(工学).機械学習や統計的手法による自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{佐々木稔}{1996年徳島大学工学部知能情報工学科卒業.2001年同大学大学院博士後期課程修了.博士(工学).2001年12月茨城大学工学部情報工学科助手.現在,茨城大学工学部情報工学科講師.機械学習や統計的手法による情報検索,自然言語処理等に関する研究に従事.言語処理学会,情報処理学会各会員.}\end{biography}\biodate\end{document}
V21N06-02
\section{はじめに} 従来の紙版の国語辞典\footnote{国語辞典は,対象や規模により多種類のものが存在する.著者らが研究対象としているものは,小型国語辞典(6〜9万語収録)と呼ばれ,「現代生活に必要な語,使用頻度の高い語」の収録と記述とに重きがおかれているものである(柏野2009).}は紙幅の制約などから,用例の記述は必要最小限に厳選されていた.しかし,電子化編集が容易になり,国語辞典データ\footnote{『岩波国語辞典』(岩波書店)はCD-ROM版が市販され,さらに,電子化データ(岩波国語辞典第5版タグ付きコーパス2004)が研究用に公開されている(http://www.gsk.or.jp/catalog.html).}や種々のコーパスが活用できるようになった今,新たな「コーパスベース国語辞典」の構築が可能になった.ここで,「コーパスベース国語辞典」とは,従来の紙版の国語辞典の記述に加え,コーパス分析から得られる豊富な用例,そのほか言語のさまざまな辞書的情報を詳細に記述する,電子テキスト版の国語辞典のことである.紙幅によって制約されていた記述量の制限をなくし,辞書記述の充実をはかることがねらいである.そうした「コーパスベース国語辞典」は,人にも計算機にも有用性の高いものと期待される.しかし,単に情報を増やせばよいというものではなく,有用な情報を的確に整理して記述することが不可欠である.著者らはそのような観点から,その用例記述の際に見出し語のもつ文体的特徴を明記することにより,より利用価値の高い「コーパスベース国語辞典」を構築することを目指している.文体的特徴の記述は,語の理解を助け,文章作成時にはその語を用いる判断の指標になり得るため,作文指導や日本語教育,日本語生成処理といった観点からの期待も高い.従来の国語辞典では,文体的特徴として,「古語,古語的,古風,雅語,雅語的,文語,文語的,文章語,口語,俗語」などのように,位相と呼ばれる注記情報が付与されてきた\footnote{そのほか,使用域についてその語が用いられる専門分野を示すことが試みられている.}.本論文では,そのような注記が付与されるような語のうち,「古さ」を帯びながら現代語として用いられている語に着目する.本論文ではそのような語を「古風な語」と呼び,次の二点を満たすものと定義する.\begin{itemize}\item[(a)]「時代・歴史小説」を含めて現代で使用が見られる.\item[(b)]明治期以前,あるいは,戦前までの使用が見られる.\end{itemize}(a)は,現代ではほとんど使われなくなっている古語と区別するものである.(b)は「古風な語」の「古さ」の範囲を定めるものである.本論文では,現代語と古語との境と一般にされている明治期以前までを一つの区切りにする.また,戦前と戦後とで文体変化が大きいと考えられるため,明治期から戦前までという区切りも設ける.しかしながら,一般には,戦前までさかのぼらずとも,事物の入れ替わりや,流行の入れ替わりにより,減っていったもの,なくなっていったものに「古さ」を感じることは多い.例えば,「ポケベル」「黒電話」「ワープロ」「こたつ」などである.こういった,近年急速に古さを感じるようになっている一連の語の分析も辞書記述の一つの課題と考えるが,本論文で取り上げる「古風な語」は,戦前までさかのぼって「古さ」を捉えることとし,それ以外とは区別する.「古風な語」に注目する理由は,三点ある.一点目は,現代語の中で用いられる「古風な語」は少なくないにも関わらず,「古語」にまぎれ辞書記述に取り上げ損なってしまう危険性のあるものであること.二点目は,その「古風な語」には,文語の活用形をもつなど,その文法的な扱いに注意の必要なものがあること.三点目は,「古風」という文体的特徴を的確かつ,効果的に用いることができるよう,十分な用法説明が必要な語であるということ,である.「古風な語」には,例えば,「さ【然】」がある.これは,「状態・様子がそうだという意を表す語。」(『岩波国語辞典』第7版,岩波書店)であり,現代では,「さほど」「さまで」「さばかり」「さしも」「さも」…のように結合して用いられる.その一つ,「さもありなん」(そうなるのがもっともだ)は,「さも」+「あり」+文語助動詞「ぬ」の未然形「な」+文語助動詞「む」である「ん」,から成る連語である.枕草子(128段)に,「大口また、長さよりは口ひろければさもありなむ」と使われている.一方,国立国語研究所『現代日本語書き言葉均衡コーパス』(BalancedCorpusofContemporaryWrittenJapanese;以下,BCCWJと記す\footnote{BCCWJの詳細は,山崎(2009,2011),前川(2008,2013)を参照.})には,全体で34件の用例があり,いずれも,現代文脈での使用である.「まさか和久さんが指導員として復帰してるなんて思わなかったから。でも、\textbf{さもありなん}、という気もする。」(君塚良一(1950年代生まれ)/丹後達臣,『踊る大捜査線スペシャル』扶桑社,1998年)などである.同じように,「なきにしもあらず」「いわずもがな」「推して知るべし」…など,現代文脈で用いられる文語調の表現は他にもあり,BCCWJの現代文脈でそれぞれの用例を得ることができる.「古風な語」は,これまでにも現代日本語における特徴的な語として着目されてきた.実際,多くの国語辞典では,現代文脈で使われる古さを帯びている語については,「古語」とはせず,「古語的」「古風」「雅語」「文語」「文語的」といった注記が付されている.しかし,これらの注記を横断的に俯瞰することや,「古風な語」の使用実態とその辞書記述との関連を検討する試みは,これまで行われていなかった.以上の問題を解決するために,本論文では,まずは「古風な語」の調査語として,電子化版が市販されている『CD-ROM岩波日本語表現辞典—国語・漢字・類語—』(2002年)収録の『岩国』(第6版)に「古語的」「古風」と注記されている語を用い,現在刊行されている国語辞典で「古風な語」がどのように取り上げられているかを横断的に俯瞰する.次に,現代語のコーパスであるBCCWJに収録されている約3,000万語分の書籍テキストを用いて,その使用実態を分析し(柏野,奥村2010,2011),それに基づき,文脈の特徴や用例を『コーパスベース国語辞典』に記述する方法を提案し,その有用性を論じる. \section{「古風な語」の現行辞典での扱い} \subsection{現行の国語辞典}多くの国語辞典で,「古風な語」に関し,「古風」あるいは,「古語的」「雅語」「文語」「文語的」といった注記を付す記述が試みられている.積極的に「古風な語」の収録と記述が試みられているものは『三省堂国語辞典』(第6版,三省堂,以下『三国』)である.巻頭にある「この辞書の使い方」(p.~15)には,次の注意書きが記されている.\vspace{1\Cvs}\begin{quotation}\noindent注意古語ではないかと思われることばが、ずいぶん〔文〕や〔雅〕として出ていますが、これらは評論文〔新聞のコラムをふくむ〕・小説、新聞・雑誌の短歌欄や俳句欄などで実際に使われている\bou{現代語}です.\end{quotation}\vspace{1\Cvs}そして,〔文〕とは文章語〔現代語のうち、文章などに使われる、話しことばとの差の大きいことば〕であり,〔雅〕とは雅語の略であり,「短歌・俳句・歌詞などで、現代でも使われるみやびやかなことばや詩的なおもむきのあることば」であると説明されている.さらに,「年配者の話しことば、小説のせりふ、落語・時代劇などに出てくる古めかしいことばは、〔古風〕として示しました.」とも記されている.つまり,『三国』では,現代語として扱うべき「古風な語」を「文章語,雅語,古風」と分類して取り上げ,記述しているということである.一方,『新選国語辞典』(第8版,小学館,以下『新選』)のように,「古語」を現代文脈で使われる語だけに収録対象を絞っていないものもある.巻頭にある「この辞典を使う人のために」(p.~6)には,「中学校・高等学校の国語科学習に必要な基本的な古語」は収録したと説明されている.それら以外の国語辞典においては,「古風な語」について,何らかの注記は付されているものの,その扱いについての明確な定義や説明はない.宮島(1977)が「「文章語」「文語」「雅語」など,それぞれの辞書で呼んでいるものの内容が,はたして一致しているのかどうかは,凡例にかいていないのでわからない」と指摘したのをはじめ,注記の用語や定義が明確でないことはしばしば指摘されてきた(遠藤1988,後藤2001,前坊2009).そこで,本論文では,「古風な語」を定義し,そのうえで「古風な語」の実態を調査・分析し,辞書記述案を提案する.\subsection{現行の英語辞典}英語辞典では,1970年代頃より,さまざまな文体や使用域をどうしたら辞書で最もよく示し得るかという考察がはじまったと言われている(ハートマン1984).カウイー(2003)によると,文体や使用域に関する情報が「ラベル」(label)として英語辞典の記述に初めて導入されたのは『TheOxfordAdvancedLearner'sDictionaryofCurrentEnglish』(OxfordUnivPress;3版,1974年)であり,体系的に定義されたラベルが導入されたのは『LongmanDictionaryofContemporaryEnglish』(Longman;初版,1978年)であるという.以降,多くの英語辞典において,さまざまなラベルが活用されている.本論文で焦点をあてている「古風」に近いラベルは,「Time」に関わるものである.H\"{u}nig(2003)\footnote{調査対象は次の4つの辞書である.CollinsCobuildEnglishDictionary(1995,2nd),LongmanDictionaryofContemporaryEnglish(1995,3rd),OxfordAdvancedLearners'DictionaryofCurrentEnglish(1995,5th),CambridgeInternationalDictionaryofEnglish(1995,1st).}によると,「Time」に関わるラベルには,「dated」,「old-fashioned」,「olduse」,「archaic」の4つがある.これらは,「比較的最近まで使用され,現在高齢者に用いられている」「近現代英語では使われない」「過去の世紀に使用された」ことを示すものとして用いられている.しかしながら,それら用語と定義,付与される語は辞典間に差異のあることが指摘されている(Fedorova,2004,H\"{u}nig,2003,Ptaszynski,2010,Sakwa,2011).英語辞典の編集は早くからコーパスベースになっていると言われているが(5.1節),コーパスベースでこれらのラベルを体系的に付与することを論じた文献は見当たらない\footnote{MichaelRundell(2012)``LabelsinDictionaries''(http://trac.sketchengine.co.uk/wiki/AK/CourseNotes{\#})}. \section{「古風な語」の従来の国語辞典における記述} \subsection{対象の国語辞典}現行の国語辞典の「古風な語」に対する付与情報の記述の現状を把握するため,次の5種の国語辞典を取り上げ,「古風な語」の見出し語としての採否,および,ラベル・注記の有無とその内容とを比較した.まず,表1に,対象とした辞典名と,各辞典において「古風な語」に該当すると思われる語に付されていたラベル・注記情報の一覧を示す.表1をみると,ラベルや注記情報は似てはいるがそれぞれに特徴のあることがわかる.例えば,『新選』にはほかで「雅語(的)」とされるものに相当するものは設けられていない.\begin{table}[t]\caption{調査対象の国語辞典と「古風な語」への注記一覧}\input{02table01.txt}\end{table}\subsection{調査対象語の選定}調査対象とした国語辞典のうち,唯一電子化版が市販されているのが『岩国』である.そこで,『CD-ROM岩波日本語表現辞典—国語・漢字・類語—』(2002年)収録の『岩国』(第6\linebreak版)\footnote{紙版は第7版新版(2011年)が最新である.}を利用して,付された注記を手掛かりに調査対象語を選定し,それらの語について,ほかの4辞書の記載を確認することとした.先の表1に示したとおり,『岩国』では,「古語的」「古風」「雅語的」「文語(的)」の4つの注記が付されている.本論文では,これらのうち,「古い」ということだけを表す指標と思われる「古語的」「古風」に着目した.「雅語」には風雅な趣があることや,和歌などに用いられる語という側面があり,「文語」「文章語」には主に文章に用いられる語という側面があるため,今回の調査には含めないこととした.「古語的」や「古風」という注記は,例えば次の『岩国』の記述例に示すように,下位区分された特定の語義にだけ付されるもの(例:「いたい」)もあれば,語に付されるもの(例:「あいやく」「ころおい」)もある(引用中の太字表示は本論文著者による)\footnote{「いでたち」と「かまえて」の注記は,語につくのか\MaruTwoのみにつくのかがわからないが,これらの場合は,いずれの語も\MaruOneも\MaruTwoも「古語」としてすでにその用法があったものなので,語につく注記と考える.}.また,「古風」の場合は,実際は,「古風」「既に古風」「やや古風」や,「古風な言い方」といったように注記の仕方に差異が見られる(例:「いでたち」「あいやく」「ころおい」「かまえて」).本論文では,これらを区別せず「古風」とあるものをすべてひとくくりにして調査候補語とする.\textbf{『岩国』(第6版)より:}{\setlength{\leftskip}{2zw}\setlength{\parindent}{0pt}\textbf{いた‐い}一【痛い】神経に耐えがたいほど強い刺激を受けた感じだ.\MaruOne刃物で手を切る、虫歯がうずく等、外力・病気で肉体や精神が苦しい.(略)\MaruTwoしまったと思うほど手ひどい打撃を受けたり、弱点を鋭く突かれたりして、つらい.(略)二《「—・く」の形で》はなはだしく.ひどく.「自分の不明を—・く恥じる」「—・く感心した」一とは別語源か.\textbf{古語的}.\textbf{いでたち【出(で)立(ち)】}\MaruOne(外出する時の)身なり.装い.「たいそうな—だ」\MaruTwo旅立ち.しゅったつ.▽\textbf{古風}.\textbf{あいやく【相役】}同じ役(についている者).▽\textbf{既に古風}.\textbf{ころおい【頃おい】}その折.「晩秋の—」.ころあい.「—を見て訪ねる」▽\textbf{やや古風}.\textbf{かまえて【構えて】}《副詞的に》\MaruOne待ちうけて.用意して.心にかけて.\MaruTwo決して.「—油断するな」▽\textbf{古風な言い方}.\par}具体的には,『岩国』には,「古語的」と注記される語は,「いたく【痛く】(〜する)」「いとど」など16語あり,「古風」と注記される語は,「あいやく【相役】」,「あとげつ【後月】」など,151語あった.それらの語について最新版の第7版の記述を確認したところ,「古語的」と注記のあった「いやちこ」,「古風」と注記のあった「かえり【回り】」「じする【治する】」「みやばら【宮腹】」の合計4語は,第7版未収録語となっていた.現代語辞書の見出し語として取り上げずともよいという判断のもと収録から外されたものと考えられる.そこで,以上の語を除いた,「古語的」15語(付録:表5の「見出し」を参照),「古風」147語(付録:表6の「見出し」を参照)を本論文の調査対象語として選定した.\subsection{採否と注記付与状況の比較}調査対象語の辞典における見出し語としての採否,および,調査対象語へのラベル・注記の有無とその内容とを比較した.表2に『岩国』で「古語的」の注記のあるものより3例の,表3に『岩国』で「古風」の注記のあるものより5例の調査結果を示す.\begin{table}[t]\caption{採否と注記付与状況の例(古語的)}\input{02table02.txt}\end{table}\begin{table}[p]\caption{採否と注記付与状況の例(古風)}\input{02table03.txt}\end{table}表2と表3には,5種の辞典に見出し語として採用されている数,そのうち,古さについてのラベルや注記が付与されている数,ラベルや注記の内容,語釈を示した.調査対象語に対して,辞典によっての見出し語としての採否や注記付与に差異が見られる.例えば,表2の「まがまがしい【禍々・枉々・曲々・凶々しい】」(災いをもたらしそうだ。いまわしい。不吉だ。『岩国』)と表3の「よしなに【良しなに】」(よろしく。いいぐあいになるように。『岩国』)は,5種の辞典とも見出し語に採用としている点は一致しているが,注記が付与されているのは2種の辞典のみである.調査対象語すべてについての採用数と注記付与数の調査結果は,付録の表5,表6に示した.そして,付録の表5,表6には,半数以上の辞典が見出し語として採用し,かつ,注記をつけていた語の数も示した.『岩国』で「古語的」と扱っている15語については6語であり,「古風」と扱っている語148語については62語であった.辞典により編集方針が異なるため,採否や注記の付与に違いが生じるのは当然のことではある.しかしながら,著者らが構築を目指す「コーパスベース国語辞典」は,辞書編集者の主観的洞察の重要性を認識しつつも,見出し語の採否や注記の付与をはじめとする辞書記述全般において,コーパスを用いた使用実態の分析に基づく客観的指標を導入することを主眼とする.そこで,次章でBCCWJを用いた「古風な語」の使用実態の分析を行う. \section{「古風な語」のコーパス分析} \subsection{「古風な語」の使用頻度}「古風な語」の現代書き言葉における使用実態を把握するために,BCCWJ\footnote{BCCWJを本調査で用いた主な理由は次の2点である.(1)現代日本語書き言葉の均衡がとられたコーパスであり,1億語の規模があるため,現代語を対象とする国語辞典の記述でおさえるべき用例,用法を調べることができる.(2)著作権処理済であるため,国語辞典の例文作成時の参考にできる.}の使用頻度を調査した.全文検索システム『ひまわり』(http://www2.ninjal.ac.jp/lrc/)を用いて,「BCCWJ領域内公開データ2009」の「図書館サブコーパス」\footnote{1986年から2005年までの20年間に発行された書籍のうち,東京都内の13自治体以上の公共図書館で共通に所蔵されていた書籍が母集団とされ,そこから抽出したサンプルから成るサブコーパスである.}(約3,000万語)における調査対象語の使用頻度を調査した(柏野,奥村2010,2011).3.2節では,「古語的」15語,「古風」147語を調査対象語としたが,ここでは,別語や別の意味用法の用例と紛れ,該当用例の判別が困難であった次の語は,検索の対象外とした.{\setlength{\leftskip}{1zw}\setlength{\parindent}{0pt}●「古語的」15語より対象外とした語こうべ【首・頭】,つつみ【堤】,ぶにん【補任】●「古風」147語より対象外とした語(23語)いっそ,う,うつ【打つ】,くにびと【国人】,さと【里】,じきげ【直下】,しも【下】,じゃ(ぢや),しょせい【書生】,ぜんぶ【全部】,そち【其方】,それ【其(れ)】,たいじん【大人】,たいぜい【大勢】,つ【唾】,つかさ【司・官】,であう【出合う・出会う】,とうじ【当時】,とも,の,むやく【無益】,やうち【家内】,やくだい【薬代】\par}つまり,使用頻度調査の対象語は,「古語的」12語と,「古風」124語である\footnote{念のため第7版の未収録を理由に調査対象外とした4語についても使用頻度を調査したところ,「かえり【回り】」(回数・度数を表す,古風な助数詞.回かい.たび.)のみ,「蕎麦の三かえり」(藤村和夫,1930年代生まれ,『蕎麦屋のしきたり』日本放送出版協会,2001年)という用例があった.ほかは,使用頻度0であった.}.これらのBCCWJにおける使用頻度を求めた結果を付録の表5,表6に示した.「使用有」の欄に「—」のある語は,上記で非調査対象とした語である.「○」のある語が使用頻度の得られたものであり,その数は「使用頻度」の欄に示した.使用頻度が得られたのは,付録の表5,表6の最終行に示した通り,「古語的」12語のうちでは7語,「古風」124語のうちでは76語であった.約3,000万語という規模のコーパスで「古風な語」を検索した場合,頻度が100を超えた語は6語であった.また,頻度が0だった語は53語あった.\subsection{「古風な語」の用法の分類}「古風な語」の用法を分析するためには,コーパスから得られる用例がどういった文脈の用例であるのかを区別する必要がある.BCCWJ「図書館サブコーパス」より得られる用例は,その文脈により,執筆及び,記述対象の年代に着目して,大きく次の4つに分類することができる.\begin{enumerate}\item古典(江戸時代以前の文章)の引用での使用\item明治期から戦前までの使用\item時代・歴史小説での使用\item現代文脈での使用\end{enumerate}以下,4分類の詳細を述べる.\subsubsection{古典(江戸時代以前の文章)の引用での使用}BCCWJは現代語コーパスであるが,収録テキストに「非現代語」(BCCWJでは,明治元年より前に書かれた日本語と定義)が若干混在している\footnote{BCCWJに収録するテキストの抽出基準についての詳細は,柏野・稲益・田中・秋元(2009)を参照.}.まとまった「非現代語」は収録テキスト対象外要素として収録しないのだが,一文単位でのテキストの完全収録を保証するために,インライン中に引用されているような「非現代語」は排除せず,そのまま収録している.本論文ではこれを「古典の引用」と呼ぶ.そのような引用中に出現する「古風な語」は「古語」としての使用例である.例えば,次に古典の引用中に現われる「あんずるに【案ずるに・按ずるに】」の例を示す(用例中に用いる,太字,下線及び,括弧内注記は本論文著者による).\begin{itemize}\item仏御前は「つくづく物を\textbf{案ずるに}、娑婆の栄華は夢のうちの夢、たのしみさかえてもなにかせん」(「百二十句本」巻一〈義王出家〉)と言い、つづいて「一旦のたのしみにほこりて、後生を知らざらんことのかなしさに、今朝まぎれ出でて、かくなりてこそ参りたれ」(同前)と言って、かぶっていた衣をのけると、仏御前は、すでに尼姿になっていたのである。(中石孝,1920年代生まれ,『平家れくいえむ紀行』新潮社,1999年)\end{itemize}\subsubsection{明治期から戦前までの使用}BCCWJでは,明治期以降に執筆されたテキストは現代語のテキストであるとされ,明治期以降のテキストが収録されている.しかしながら,明治期から戦前までに執筆されたものは,例えば,旧仮名遣いを用いるなど,現代とは異なる印象を受ける文体のものが多い.また,「古風な語」が「古風」という意識なしで用いられている可能性があると考える.よって,この時期に執筆されているテキストはBCCWJにそう多くは収録されていないが,現代文脈とは区別することとする.例えば次のようなテキストである.前者からは「いずれ【何れ】」の,後者からは「はたまた【将又】」の用例が得られる.\begin{itemize}\item遠野物語の中にも書いてある話は、同郡松崎村の寒戸といふ処の民家で、若い娘が梨の樹の下に草履を脱いで置いたまゝ、行方知れずになつたことがあつた。三十何年を過ぎて或時親類知音の者が其家に集まつて居るところへ、極めて老いさらぼうて其女が戻つて来た。どうして帰つて来たのかと尋ねると、あまりみんなに逢ひたかつたから一寸来た。それでは又行くと言つて、忽ち\textbf{何れ}へか走り去つてしまつた。(柳田國男,1870年代生まれ,『柳田國男全集第3巻』筑摩書房,1997年)\item然らば私の希ふ真の自由解放とは何だらう。云ふ迄もなく潜める天才を、偉大なる潜在能力を十二分に発揮させることに外ならぬ。それには発展の妨害となるものゝ総てをまず取除かねばならぬ。それは外的の圧迫だらうか、\textbf{はたまた}智識の不足だらうか、否、それらも全くなくはあるまい、併し其主たるものは矢張り我そのもの、天才の所有者、天才の宿れる宮なる我そのものである。(平塚雷鳥,1880年代生まれ,『元始、女性は太陽であった平塚らいてう自伝1』大月書店,1992年)\end{itemize}(※いずれも明治期の文章.)\subsubsection{時代・歴史小説での使用}いわゆる「時代小説」「歴史小説」などと呼ばれる,江戸時代以前を舞台とする文芸作品(国内,国外を問わず)のテキストに「古風な語」が多く現れる.「時代小説」とは「古い時代の事件や人物に題材をとった通俗小説。」であり,「歴史小説」とは「過去の時代を舞台にとり、その時代の様相と人間とを描こうとする小説。(中略)単に過去の時代を背景にする時代小説とは異なる。」(以上,『広辞苑第』第6版,岩波書店)と,両者には異なる定義がされているが,本論文では特に両者を区別することはせず,まとめて,「時代・歴史小説」とひとくくりで扱うこととする.石井(1986)は,例えば「おぬし,…でござるか」などは,「歴史小説なり時代小説なりに現はれるからと言つて,その小説の扱ふ時代の古代語と考へるのは,早計である.非現代語すなはち古代的言語を用ゐた作品においては,作家が古代的言語を創造し,読者がそれを享受する,といふ図式が想定できる.」と述べ,そういった享受と創造による「非現代語」が『源氏物語若紫』現代語訳や,日本文芸家協会『歴史ロマン傑作選』の会話文に多く現れることを調査分析し,報告している.本論文では,まさにこれも「古風な語」であると捉える.BCCWJには「時代小説」「歴史小説」などのテキストが多数収録されており,そういった文脈で用いられる「古風な語」の用例が多く得られる.次に,「あんずるに【案ずるに・按ずるに】」と,「にょにん【女人】」の例を示す.\begin{itemize}\item成之の天才的な兵站事務の噂をききつけてのことであった。\textbf{按ずるに}、成之常に加賀藩の事務に従ひしも、其理財に老けたるの名、夙に朝廷に聞へしを以て、終に此事ありし也。(磯田道史,1970年代生まれ,『武士の家計簿「加賀藩御算用者」の幕末維新』新潮社,2003年)\\(※江戸時代を舞台にした時代・歴史小説.)\item廐戸には見せなかったが、河勝はいずれ山背に戻る運命にあることを覚悟していたようだった。\\「そうか、河勝も里心がついたか、それもそうだ、河勝は山背に戻れば葛野の王者だ、屋形も大きく、そちにかしずく\textbf{女人}も多い、いつまでも吾に仕えてくれる、と思っていた吾が甘かった」(黒岩重吾,1920年代生まれ,『聖徳太子日と影の王子1』文芸春秋,1990年)\\(※飛鳥時代を舞台にした時代・歴史小説.)\end{itemize}\subsubsection{現代文脈での使用}執筆時期が戦後であり,上記(3)に該当しない現代語の文章(口語体)を,本論文では「現代文脈」と呼んでいる.一部の見出し語に関しては,その現代文脈に出現する「古風な語」の用例が数多く得られている.例えば次のようなものである.\begin{itemize}\itemここで泣いては\textbf{いかん}、と咽喉の塊を懸命にのみ下しながら、(宮尾登美子,1920年代生まれ,『朱夏』新潮社,1998年)\item不審な気持ちが消え\textbf{失せ}て、とにかく言葉が交わしたかった。(浅倉卓弥,1960年代生まれ,『雪の夜話』中央公論新社,2005年)\itemコミック誌から飛び出してきたような\textbf{いでたち}の男だ。(佐々木譲,1950年代生まれ,『新宿のありふれた夜』角川書店,1997年)\itemセブン‐イレブンの店にほしいものがなければ、\textbf{いと}も単に、買いにこなくなります。(鈴木敏文\textbar述;緒方知行\textbar編,『商売の創造』講談社,2003年)\item恋なのか、忠義なのか、\textbf{はたまた}親子の恩愛なのか。(古井戸秀夫,1950年代生まれ,『歌舞伎』新潮社,1992年)\end{itemize}例えば,「ものども【者共】」には,分類(1)(3)(4)に該当する次のような用例がある.{\setlength{\leftskip}{1zw}\setlength{\parindent}{0pt}\textbf{・(1)古典の引用:}壇の浦の合戦では、源平両軍は三十余町をへだててあい対し、いよいよ戦闘開始ということになったが、早い潮に流された平家の舟を梶原景時の舟が熊手でひっかけて、敵の首を数多く取る功名第一の働きから始まった。そして両軍あわせて鬨をつくり、それが静まると、平知度が大音声に、\ul{「天竺震旦にも、日本わが朝にも、雙びなき名将勇士といへども、運命尽きぬれば力及ばず、されども名こそ惜しけれ、東国の{\bfseries者ども}に弱気見すな、何時の為にか命をば惜しむべき、軍ようせよ、{\bfseries者ども}、只これのみぞ思ふ事よ」}と全軍に宣した(同上・巻十一)。(阿部猛,1920年代生まれ,『鎌倉武士の世界』東京堂出版,1994年)(※下線が古典の引用部分.上記「同上」とは『平家物語』.)\textbf{・(3)時代・歴史小説での使用:}久幸ははじめて深い笑みを見せ、「この臆病者が必ずお守り申す。ご安心あれ」といった。そして、「\textbf{者ども}続け!」と大声をあげると、私兵五百人を率いて、まっしぐらに大内勢に向かって行った。(童門冬二,1920年代生まれ,『小説毛利元就』PHP研究所,2002年)(※時代小説.この例は室町時代から戦国時代の時代設定.)\textbf{・(4)現代文脈での使用:}「なるほど、これは無用のことを申しました\textellipsisさあ、\textbf{ものども}、引っ立てい!」ドラホマノフの命令を受けて、兵士たちがユリアスとパッシェンダールに縄をかける。さすがに、この人数差では、パッシェンダールといえども抵抗のすべがなかった。(赤城毅,1960年代生まれ,『滅びの星の皇子』中央公論新社,2001年)\par}つまり,「ものども【者共】」は,BCCWJにおいて,古語としての用例が現われる語であり,時代小説や歴史小説では,その時代設定にあう語として使われる語であり,かつ,現代文脈においても使われる語であることがわかる.「古風な語」としてひとくくりする中には,現代語書き言葉においてこのように幅広い用法で出現する語のあることが,本調査により確認できた.\subsection{「古風な語」の用法の分類結果}BCCWJが現代語書き言葉を収集したコーパスであるため,古典の引用の用例数はそもそも少ない.また,先に述べたとおり,明治期から戦前までに執筆されたテキストも少ないため,その用例数も少ない.一方,時代小説や歴史小説のテキストはBCCWJに多く収録されていることから,それらの用例数は多い.また,現代文脈から得られる用例も一定数以上得られている.\begin{table}[b]\caption{「古風」使用頻度上位9語の用例分類結果}\input{02table04.txt}\end{table}使用頻度が50以上あった,上位9語(「古語的」1語(いたく),「古風」8語(いかん,ほか),付録の表5,表6を参照)を取り上げ,それらの用例を分類した結果を表4に示す.上から5語は,時代・歴史小説の用例の割合が多い順,次の3語は現代文脈の用例の割合が多い順である.そして,最後の1語が両者の用例の割合が拮抗していた語である.割合の高いところに色をつけて示している.このように,BCCWJにおいて高頻度である「古風な語」は,時代・歴史小説の用例の割合が多いものと,現代文脈の用例の割合が多いものとがあった.同じ「古風な語」とくくるには,用法の傾向は大きく異なっている.つまり,時代・歴史小説の使用が多い,現代文脈の使用が多い,といったその語が使用されている文脈の特徴を辞書に明記し,その用例を具体的に記述することが,「古風な語」とひとくくりに説明するよりも,それぞれの語の文体的特徴を説明することができるようになるということである.\subsection{辞典間の記載に差異のある語の分析}3.3節では,5種の辞典間に,見出し語として採用されている数や,古さについてのラベルや注記が付与されている数が異なる語があることを述べた.表2の「まがまがしい【禍々・枉々・曲々・凶々しい】」と,表3の「よしなに【良しなに】」の2語は,見出し語として採用しているのは5辞書であるが,注記は2辞書ずつという語であった.また,表2の「やわか」は,見出しとして採用し,注記を付与しているのが2辞書のみ,という語であった.付録の表5,表6に示す通り,BCCWJには,「まがまがしい」に33例,「よしなに」に7例の使用がある.そのうち,2例ずつ引用する.\begin{itemize}\itemそれは途方もなく暗鬱な感じの建物で、\textbf{まがまがしい}気配にみち、見物するのは愉快な体験ではなかつた。(丸谷才一,1920年代生まれ,『日本の名随筆』作品社,1988年)\item「お気をおつけ下さい」ヒロはいう。「今夜は、\textbf{まがまがしい}気配が満ちております。その心を感じるのです。ザック様のことですから何がおころうときっと大丈夫でしょうが\textellipsis心配でなりません」(眉村卓,1930年代生まれ,『迷宮物語』角川書店,1986年)\item「よう冷えるなあ。こらたまらんワ。泰平堂、まあ\textbf{よしなに}調べてくれ」声をかけて信濃は去っていった。(阿部牧郎,1930年代生まれ,『出合茶屋』講談社,2003年)\item「お世話をかけます、なにとぞ\textbf{よしなに}」懐しさを顔一ぱいにみせてお茂の方は、頭を下げた。(竹内勇太郎,1920年代生まれ,『甲府勤番帖』光風社出版,1992年)\end{itemize}「まがまがしい」は33例中,5例が時代・歴史小説の用例であったが,残り28例は上記2例のような現代文脈の使用であった.「よしなに」は,7例中のすべての例が,上記2例のような時代・歴史小説の用例であった.どちらにも時代・歴史小説の用例のあることから,「古風な語」という注記を付与すべき語であることがまずはわかる.それに加え,「まがまがしい」は現代文脈での使用が多く,「よしなに」は時代・歴史小説での使用が多い語であるということもわかる.続けて,2辞書のみ見出し語に採用していた「やわか」の使用例をみてみる.BCCWJから得られる用例3例中より,2例を示す.\begin{itemize}\item「この胴も手足も、蓬山から出た鉄を百年も磨き抜いてこしらえたものよ。項羽の豪刀をもってしても傷ひとつつかなんだ。\textbf{やわか}、おまえの妖糸ごときに引けは取らぬぞ」「そりゃ、どうも」(菊地秀行,1940年代生まれ,『夜叉姫伝』祥伝社,1991年)\item「いかなる御用とて、われらにおきかせあれ!拙者、\textbf{やわか}島田虎之助の働きに劣りましょうや」と、斎藤弥九郎が、いかにも体調の悪いらしい島田虎之助をあごでさして、そのあごをお耀の方にぐいとつき出す。(山田風太郎,1920年代生まれ,『武蔵野水滸伝』富士見書房,1993年)\end{itemize}こういった用例に触れて国語辞典をひく読者がいることを想定すると,「やわか」は「古風な語」として現代語辞書に取り上げるとよい語であると言える.このようにコーパスで使用例を確認することは,辞書によって扱いに差異のある語の辞書記述の判断の参考になることを示した. \section{コーパス分析を活かした辞書記述} 前章で,「古風な語」の使用実態についてコーパスの分析結果を示した.本章にて,そのコーパス分析に基づく辞書記述を提案する.\subsection{コーパス分析に基づく辞書記述の利点}従来,辞書記述はもっぱら編集者の知識や内省によって行われていたが,これを補うものとして徐々にコーパスの利用が試みられるようになった.1964年にアメリカでBrownCorpusが公開されて以降,各種大規模コーパスの構築,公開に伴い,欧米における辞書記述のコーパス活用は一気に加速していく(Sinclair1991,石川2004,井上2005).例えば,英国のCollins,Longman,Oxford,Cambridge各社の辞書である.それらの影響を受け,日本の英和辞書にもコーパスの活用は広がっている.コーパスベースの辞書記述を取り入れた英和・和英辞書には,『ウィズダム英和辞典』(三省堂,2002年),『ウィズダム和英辞典』(三省堂,2007年)や『ユース・プログレッシブ英和辞典』(小学館,2004年)がある.コーパスベースを謳う国語辞典や日本語の辞書は今現在ないが,コーパス分析を日本語の辞書記述に活かそうとする議論は徐々に活発になってきている(加藤1998,後藤2001,田野村2009,荻野2010,石川2011,カルヴェッティ2011など).辞書記述がコーパスベースになる利点は,以下の3点である(柏野2011).\begin{itemize}\item[\textbf{(1)}]\textbf{見出し語の選定や,語義の選定・配列の客観性}:見出し語単独の頻度の情報が得られる.辞書に記載すべき見出し語の選定や,語義の選定・配列を,客観的に行える.\item[\textbf{(2)}]\textbf{用例記述の網羅性}:見出し語とほかの語との組み合わせの頻度の情報が得られる.見出し語とその前後の連なり,見出し語と共起する語(コロケーションと呼ばれる),見出し語の現れる構文などの特徴的なパターンを発見しやすい.用例を網羅的に辞書に記述できる.\item[\textbf{(3)}]\textbf{見出し語の使用域記述の具体性}:資料の幅が広がり,見出し語の多様性を捉えることができる.ジャンルあるいはレジスタなどと呼ばれる,言葉の使用域が異なる場合,それを具体的に辞書記述に反映できる(例えば,話し言葉的か,書き言葉的か,フォーマルか,インフォーマルか).\end{itemize}\subsection{コーパス分析を「古風な語」の辞書記述に活かす方法}5.1節で述べたコーパスベースによる辞書記述に期待できる3点に照らし合わせながら,コーパス分析を「古風な語」の辞書記述に活かす方法を検討する.\subsubsection{見出し語の選定や,語義の選定・配列の客観性}各種国語辞典やコーパスを利用して得た「古風な語」の頻度情報をコーパスで得る.頻度情報は,「コーパスベース国語辞典」の見出し語選定の参考になる.4.1節,および,付録の表5,表6にて,『岩国』から抽出した「古風な語」の使用頻度を示した.頻度の高い語はどの辞典でも見出し語として採用されていることが確認できる.が,頻度が低い語の場合,例えば,「あんずるに【案ずるに・按ずるに】」「て」「しんずる【進ずる】」「のう」の4語は,見出し語として採用していない辞典のあることがわかる.現行辞典の採用状況から見出し語選定をしようとする場合には,これらが採否のボーダー上になってくるだろう.しかし,筆者らは,BCCWJで低頻度でも用例の得られる語は現代語として目にする機会のある語であると考え,これら4語いずれについても,見出し語として採用すべき語と考える.一方,今回の調査で頻度0であった語を,ただちに見出し語として採録しないと結論づけるのは難しい.現代語の辞典で取り扱う必要性の低い「古語」であるのか,あるいは,たまたま例がとれなかった「現代語」であるのかがわからないからである.BCCWJにおいて頻度0であることの意味は,今後,調査範囲とするコーパスを増やしたさらなる検討が必要であるだろう.次に,既存の国語辞典等によらず,コーパスから自動的に「古風な語」の抽出が可能であるかを考える.BCCWJ「図書館サブコーパス」の形態素解析結果より,「活用型:文語」となっている語の抽出を行った.BCCWJは,短単位(意味を持つ最小の単位を結合させる,または結合させないことによって認定)と長単位(文節を規定に基づいて分割する,または分割しないことによって認定)とで解析されている(小椋,小磯,冨士池,宮内,小西,原2011,小椋,冨士池2011).短単位の抽出結果では,その使用頻度の上位は「べし:13,889,なり:5,421,たり:3,357,ごとし:2,048,り:1,888」であった.高頻度の助詞・助動詞の用例が多数得られることがまずは確認できた.また,「有り:618,然り:525,来たる:284,恐る:262」など,文語の活用形で用いられる語の抽出ができることも確認できた.しかしながら,長単位の抽出結果とあわせてみても,文語形を含む見出し語そのものの形での抽出は自動では簡単ではない.例えば,「止む無し」は一つの長単位として抽出できているが,そういう語は少ない.多くは,「なきにしもあらず」が「なき+に+しも+あら+ず」となっているように,長単位も短単位同様に複数に切れている.また,「さもありなん」のように誤解析されている場合もある(「なん」が「名詞【何】」と誤解析.正しくは文語助動詞「な+む」).いずれの場合も,自動抽出のためには形態素解析の辞書整備が必要であるが,そのためには,結局,既存の国語辞典等にある見出し形をあらかじめ先に参照しなければならない,ということになる.語義の選定・配列についてのコーパス情報の利用は,5.3節で具体例をもって示す.\subsubsection{用例記述の網羅性}BCCWJにおいて一定数以上の用例が得られれば,ある程度の網羅的な記述は可能である.ただし,「古風な語」を扱う場合は,BCCWJよりも前の時代のコーパス分析も欠かせないだろう.現時点では,少し前の時代のコーパスとして,著作権の消滅した作品が中心に集められ,明治〜昭和初期の小説が多く収録されている『青空文庫』\footnote{http://www.aozora.gr.jp/}や,明治後期〜大正期の総合雑誌『太陽』から5年分が抽出されている『太陽コーパス』\footnote{http://www.ninjal.ac.jp/corpus\textunderscorecenter/cmj/taiyou/}(国立国語研究所)などが利用可能である.\subsubsection{見出し語の使用域記述の具体性}「古風な語」の用法は,(1)古典の引用での使用,(2)明治期から戦前までの使用,(3)時代・歴史小説での使用,(4)現代文脈での使用,と分類でき,かつ,その使用傾向が語の用法把握につながることを,4.2節と4.3節とで示した.その際に,特に,分類(3)と(4)に相当する用法の具体的記述が重要であることを述べた.(3)の,主に時代小説や歴史小説での使用は,現代においてそれら小説を読む際の理解に欠かせないものである.現代語ではないと排除することなく,辞書にとりあげ,詳細に記述すべきものであろう.さらに,(4)の,現代文脈での使用は,一部の「古風な語」における顕著な特徴である.よって,「古風な語」の現代文脈における使用例がある場合は,それを具体的に辞書に記述すべきである.これらの考察をふまえ,次節では具体例を用いて,コーパス分析に基づく「古風な語」の辞書記述案を示す.\subsection{コーパス分析に基づく「古風な語」の辞書記述}本論文では,次のとおり,コーパス分析に基づく「古風な語」の「コーパスベース国語辞典」記述方法を提案する.\vspace{1\Cvs}\vbox{{\hruleheight0.25ptdepth0ptwidth420pt}\hboxto420pt{{\vrulewidth0.25pt}\hfill\begin{minipage}{410pt}\kern0.5\Cvs\textbf{「古風な語」の「コーパスベース国語辞典」記述方法}\begin{itemize}\item[1.]現行の国語辞典類や,BCCWJ,『青空文庫』,『太陽』等のコーパスを利用し,次の条件を満たす,「古風な語」を選定する.\begin{itemize}\item[(a)]「時代・歴史小説」を含めて現代で使用が見られる.\item[(b)]明治期以前,あるいは,戦前までの使用が見られる.\end{itemize}\item[2.]BCCWJ,『青空文庫』,『太陽』等のコーパスから,「古風な語」の使用頻度,用例を得る.\end{itemize}\end{minipage}\hfill{\vrulewidth0.25pt}}}\clearpage\hboxto420pt{{\vrulewidth0.25pt}\hfill\vboxspread0.5\Cvs{\noindent\begin{minipage}{410pt}\begin{itemize}\item[3.]多義語の場合,意味分析を行い,意味別の使用頻度を得る.\item[4.]得られた用例を,(1)古典の引用での使用,(2)明治期から戦前までの使用,(3)時代・歴史小説での使用,(4)現代文脈での使用,に分類し,各頻度を得る.\item[5.]分類別の使用頻度を参考に,中心的となる語義から順に配列する.\item[6.]用例は,用例の(1)〜(4)の分類傾向や,具体的な使用域がわかるよう明記する.\item[7.]そのほか,表記情報や,使用者の性別・年代など,コーパスから抽出できた情報を明記する.\end{itemize}\end{minipage}}\hfill{\vrulewidth0.25pt}}{\hruleheight0.25ptdepth0ptwidth420pt}\vspace{1\Cvs}「そなた【其方】」を例に,現行の国語辞典の記述(『岩国』)に対する,上記,「コーパスベース国語辞典」記述方法に即した記述案を次に示す.「そなた」は,上記,(a),(b)の条件を満たす.\textbf{例:そなた【其方】}\textbf{[『岩国』(第7版)]}\MaruOneそちらのほう。そちら側の所。\MaruTwo目下の相手を指す語。おまえ。なんじ。古風な言い方。\textbf{[コーパス分析]}\begin{itemize}\item「そなた【其方】」はBCCWJで434の頻度があり,「古風な語」の中では高頻度である語である.\\→\textbf{見出し語の選定:}十分な頻度が得られるため見出し語として採録すべき語と判断.\item『岩国』\MaruOneの該当用例はBCCWJでは頻度0.『青空文庫』には3例見つかる.BCCWJで得られる434の用例は,すべて『岩国』\MaruTwoの用法の該当例である.\\→\textbf{語義の選定・配列:}\MaruOneと\MaruTwoを語義と認定.ただし,\MaruOneの用法はBCCWJで0であり,現代語では,\MaruTwoの用法がより中心的な語義と認定できるため,語義の配列順を入れ替える.\item『岩国』\MaruTwoの用例分類は4.3節の表4の通り,ほとんどが「(3)時代・歴史小説での使用」である.国内の時代小説のほか,時代設定の古い翻訳小説の用例もある.現代文脈での使用は少ないが,ある.また,BCCWJで得られた用例はすべて発話部分における使用.\\→\textbf{用例記述・見出し語の使用域:}(3)時代・歴史小説での使用例を1番に.続けて,翻訳小説,現代文脈の使用例を記述.「発話で多用」を明記.発話については話者間の関係を明記。\item漢字表記「其方」の使用例は見つけられない.検索される「其方」は「そちら」「そのほう」の漢字表記の使用例と思われる.\\→表記情報を注記.\end{itemize}\textbf{[「コーパスベース国語辞典」記述案]}\begin{itemize}\item[\rlap{\MaruOne}]多くは目下の相手をさす語。おまえ。なんじ。時代・歴史小説的。同等の相手をさすこともある。\begin{itemize}\setlength{\fboxsep}{1pt}\item[\textbullet]時代・歴史小説等の発話で多用。\\「\colorbox[gray]{.9}{そなた}、勘六どのを見舞って来やれ。さっきの飴の甘味はきつすぎます。よけい食べさせてはなりませぬ。急いでゆきゃれ」(山岡荘八『徳川家康』)\\※後に家康を産む於大の方(目上)から,召使いの百合(目下)への発話。\\「ほう、\colorbox[gray]{.9}{そなた}もさようなことを考えておったのか?」豪族は大きく頷いた。(山田智彦『木曽義仲』)\\※信濃国の各地から集まってきた豪族たち同士(同等)の対話。\item[\textbullet]時代設定の古い小説(特に翻訳小説)における発話で使用。\\「\colorbox[gray]{.9}{そなた}は誰なのか、教えてくれ」。(井村君江『アーサー王物語』)\\※アーサー王(目上)から,騎士であるトリストラム卿(目下)への発話。\\「ねえ乳母や、\colorbox[gray]{.9}{そなた}の申し条、もっともなことです。ただ怒りのあまり分別を失っていたのです」と言いました。(池田修『アラビアン・ナイト』)\\※王女である姫(目上)から,老女の乳母(目下)への発話。\item[\textbullet]現代文脈での使用は多くはないが,威厳や威圧があるよう造形された人物(多くは目上)からの発話を表すものとして使用。\\「厚志よ」\\舞が呼びかけると、厚志はビクリと身を震わせた。\\「え、なに?」\\「何を驚く?\colorbox[gray]{.9}{そなた}の名を呼んだだけだぞ」\\(榊涼介『ガンパレード・マーチ5121小隊九州撤退戦』)\\※小隊司令官である舞(目上)から,その下にいる厚志(目下)への発話。\end{itemize}\item[\rlap{\MaruTwo}]そちらのほう。そちら側の所。▽明治期頃まで。\begin{itemize}\setlength{\fboxsep}{1pt}\item[\textbullet]使用はまれ。\\\ruby{五月雨}{さみだれ}に四尺伸びたる\ruby{女竹}{めだけ}の、\ruby{手水鉢}{ちょうずばち}の上に\ruby{蔽}{おお}い重なりて、余れる一二本は高く軒に\ruby{逼}{せま}れば、風誘うたびに戸袋をすって\ruby{椽}{えん}の上にもはらはらと所\ruby{択}{えら}ばず緑りを\ruby{滴}{したた}らす。「あすこに画がある」と葉巻の煙をぷっと\colorbox[gray]{.9}{そなた}へ吹きやる。(夏目漱石『一夜』)\\\ruby{恋}{こひ}の\ruby{淵}{ふち}・峯の薬師・百済の\ruby{千塚}{ちづか}など、通ひなれては、\colorbox[gray]{.9}{そなた}へ足むくるもうとましきに、折しも秋なかば、汗にじむまで晴れわたりたる日を、たゞ一人、小さき麦稈帽子うち傾けて、家を出でつ。(折口信夫『筬の音』)\end{itemize}※漢字表記「其方」の使用例は見つけにくい.該当表記例があっても,別見出し「そちら」「そのほう」との区別がつけがたい。\end{itemize}以上の記述案により,「そなた【其方】」の用法は,時代・歴史小説の発話文での使用が中心的な語であることが明確になる.多くの用例を示したことにより,現代の文章生成時の語選択においては,時代がかったセリフとなる効果のある語であることに留意すべき語であることがわかる.さらに,漢字表記の【其方】はほとんど使用例がなく,かつ,「そちら」「そのほう」とまぎれる可能性があるので,ひらがな表記を選択すべきこともわかる.このように,「コーパスベース国語辞典」に文体的特徴や用例を記述することは,語の理解はもとより,語の選択時の情報量を増やし,その利用価値を高めると期待される.なお,中世・近世のコーパスがない状況においては,国語史研究の知見を参照することが有効である.「そなた」は中世より,主に上位の話し手が,下位の話し相手に対して使用する例の多い人称の一つと位置づけられている.中世から近世にかけての使用実態については,山崎(2004),小島(1998)に詳細な分析があり,上位から下位に用いられ,時には対等の間柄でも用いられるものであると報告されている.「上位から下位」の例,「対等」の例がともにコーパスから得られたため,辞書記述案ではそれら先行研究の知見を活かし,「主に上位から下位へ」「時には対等」で用いられることがわかるよう注記することも有用である.国立国語研究所では,将来的に上代から近代の作品をカバーする「日本語歴史コーパス」の構築が進められている(http://www.ninjal.ac.jp/corpus\textunderscorecenter/chj/).それらコーパスの整備に伴い,コーパス分析の可能性が広がることが期待される. \section{おわりに} 本論文では,「古風な語」に着目し,『岩波国語辞典』に「古語的」と注記がついている15語と,「古風」と注記がついている145語を調査対象語に選定し,現行の国語辞典5種の記述調査及び,現代語コーパスの使用頻度調査と用例分析とを行った.そして,コーパス分析に基づく「コーパスベース国語辞典」における記述方法を提案した.(1)古典の引用での使用,(2)明治期から戦前までの使用,(3)時代・歴史小説での使用,(4)現代文脈での使用,という4分類に基づく辞書記述方法が,従来の「古風な語」をひとくくりにする辞書記述よりも,語の文体的特徴をより豊富に記述できることを示した.その一例として「そなた」の記述例を示した.なお,「コーパスベース国語辞典」記述方法(5.3節)の3に挙げた意味判別に関しては,例えば,Pulkit・白井(2012)など,すでに自動化の研究が進んでいる.筆者らは,4に挙げた,当該語の用いられる文脈が,分類(1)〜(4)のいずれであるかの判別についても,自動化が可能であると考えている.コーパスから自動的に抽出できる辞書情報を活用していくことにより,従来の主に人手による国語辞典の編集とは異なる,一貫性のある「コーパスベース国語辞典」の構築が可能になると考える.\acknowledgment本研究は,文部科学省科学研究費補助金基盤研究(C)「辞書用例の記述仕様標準化のための実証研究」(課題番号:20520428),並びに,文部科学省科学研究費補助金基盤研究(C)「コーパス分析に基づく辞書の位相情報の精緻化」(課題番号:23520572)の助成を受けたものです。\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\itemカウイー,A.P.(赤須薫,浦田和幸訳)(2003).学習英英辞書の歴史:パーマー,ホーンビーからコーパスの時代まで.研究社.(Cowie,A.P.(2002)\textit{EnglishDictionariesforForeignLearners.AHistory.}Oxford:OxfordUniversityPress).\itemカルヴェッティ・パオロ(2011).イタリア人向けの和伊辞典編纂におけるBCCWJの貢献.「現代日本語書き言葉均衡コーパス」完成記念講演会予稿集,pp.217--226.\item遠藤織枝(1988).話しことばと書きことば—その使い分けの基準を考える—.日本語学,\textbf{7}(3),pp.27--42.\itemFedorova,I.V.(2004).``StyleandUsageLabelsinLearners'Dictionaries:WaysofOptimization.''In\textit{Proceedingsofthe11thEURALEXInternationalCongress,July6--10.}pp.265--272.\item後藤斉(2001).日本語コーパス言語学と語の文体レベルに関する予備的考察.東北大学文学研究科研究年報,\textbf{50},pp.201--214.\itemハートマン,R.R.K.(編)(1984).辞書学:その原理と実際.三省堂.木原研三,加藤知己(翻訳監修),Hartmann,R.R.K.(ed.)(1983).\textit{Lexicography:PrinciplesandPractice.}London:AcademicPress.\itemH\"{u}nig,W.H.(2003).``StylelabelsinmonolingualEnglishlearners'dictionaries.''InH.Cuyckensetal.(eds),\textit{MotivationinLanguage:StudiesinHonorofG\"{u}nterRadden.}Amsterdam:JohnBenjamins,pp.367--389.\item井上永幸(2005).コーパスに基づく辞書編集.齊藤俊雄,中村順作,赤野一郎(編).英語コーパス言語学—基礎と実践—改定新版.研究社,pp.207--228.\item石井久雄(1986).古代的言語の享受と創造.文部省昭和60年度科学研究費補助金による一般研究(C)研究報告書.\item石川慎一郎(2004).Corpus,Dictionary,andEducation:近刊EFL辞書に見る辞書編集の潮流.KobeEnglishLanguageTeaching,\textbf{19},pp.61--79.\item石川慎一郎(2011).現代日本語書き言葉均衡コーパス(BCCWJ)における複合動詞〜出すの量的分析.統計数理研究所研究レポート,\textbf{238},pp.15--34.\item柏野和佳子(2009).1.3辞書.言語処理学会(編).言語処理学事典,pp.80--85.共立出版.\item柏野和佳子・稲益佐知子・田中弥生・秋元祐哉(2009).第4章対象外要素の排除指定.特定領域研究「日本語コーパス」平成20年度研究成果報告書「現代日本語書き言葉均衡コーパス」における収録テキストの抽出手順と事例,pp.66--88.\item柏野和佳子・奥村学(2010).国語辞典に「古い」と注記される語の現代書き言葉における使用傾向の調査.情報処理学会人文科学とコンピュータ研究会報告,\textbf{88},pp.59--70.\item柏野和佳子・奥村学(2011).国語辞典に「古風」と注記される語の使用実態調査—「現代日本語書き言葉均衡コーパス」を用いて—.言語処理学会第17回年次大会発表論文集,pp.444--447.\item柏野和佳子(2011).コーパスに基づく辞書づくり—これからの国語辞典はこう変わる—.日本知能情報ファジイ学会誌,\textbf{23}(5),pp.705--713.\item加藤安彦(1998).辞典とコーパス.日本語学,\textbf{17}(12),pp.37--44.\item小島俊夫(1998).日本敬語史研究—後期中世以降.笠間書院.\item小椋秀樹,小磯花絵,冨士池優美,宮内佐夜香,小西光,原裕(2011).「現代日本語書き言葉均衡コーパス」形態論情報規程集第4版(上)(下).国立国語研究所内部報告書,LR-CCG-10-05-01,02.\item小椋秀樹,冨士池優美(2011).第4章形態論情報.国立国語研究所「現代日本語書き言葉均衡コーパス」利用の手引第1.0版,4-1--4-35.\item前坊香菜子(2009).語の文体的特徴に関する情報についての一考察—国語辞典と類語辞典の調査から—.一橋日本語教育研究報告,\textbf{3},pp.50--60.\item前川喜久雄(2008).KONONOHA「現代日本語書き言葉均衡コーパス」の開発.日本語の研究,\textbf{4}(1),pp.82--95.\item前川喜久雄(編)(2013).講座日本語コーパス1コーパス入門.朝倉書店.\item宮島達夫(1977).単語の文体的特徴.村松明教授還暦記念国語学と国語史,pp.871--903.明治書院.\item荻野綱男(編)(2010).特定領域研究日本語コーパス平成21年度研究成果報告書,コーパスを利用した国語辞典編集法の研究.\itemPtaszynski,M.O.(2010)``TheoreticalConsiderationsfortheImprovementofUsageLabellinginDictionaries:ACombinedFormal-FunctionalApproach.''\textit{InternationalJournalofLexicography,}\textbf{23}(4),pp.411--442.\itemPulkit,K.,白井清昭(2012).パラレルコーパスから自動獲得した用例に基づく語義曖昧性解消.情報処理学会研究報告,自然言語処理研究会報告,\textbf{2012-NL-207}(3),pp.1--8.\itemSakwa,L.N.(2011).``ProblemsofUsageLabellinginEnglishLexicography.''\textit{LEXIKOS},\textbf{21}(1),pp.305--315.\itemSinclair,J.(1991).\textit{CorpusConcordanceCollocation.}Oxford:OxfordUniversityPress.\item田野村忠温(2009).コーパスを用いた日本語研究の精密化と新しい研究領域・手法の開発.人工知能学会誌,\textbf{24}(5),pp.647--655.\item山崎久之(2004).増補補訂版国語待遇表現体系の研究近世編.武蔵野書院,\item山崎誠(2009).代表性を有する現代日本語書籍コーパスの構築.人工知能学会誌,\textbf{24}(5),pp.~623--631.\item山崎誠(2011).第2章「現代日本語書き言葉均衡コーパス」の設計.国立国語研究所「現代日本語書き言葉均衡コーパス」利用の手引第1.0版,2-1--2-8.\end{thebibliography}\appendix(1)表5「古語的」15語の調査結果(2)表6「古風」147語の調査結果※表中,「多義」の欄に「*」を付してある語は,「古語的」あるいは「古風」の注記が多義のうちの一つの語義についていた語であることを示す.※表中,「使用有」の欄に「—」のある語は,使用頻度調査の対象外の語であることを示す.※表中,使用頻度が50を超えている語には,使用頻度の欄に色をつけて強調している.\begin{table}[h]\caption{「古語的」15語の調査結果}\input{02table05.txt}\end{table}\clearpage\begin{table}[p]\caption{「古風」147語の調査結果}\input{02table06-1.txt}\end{table}\addtocounter{table}{-1}\begin{table}[p]\caption{(続き)}\input{02table06-2.txt}\end{table}\addtocounter{table}{-1}\begin{table}[p]\caption{(続き)}\input{02table06-3.txt}\end{table}\addtocounter{table}{-1}\begin{table}[t]\caption{(続き)}\input{02table06-4.txt}\end{table}\clearpage\begin{biography}\bioauthor{柏野和佳子}{東京女子大学文理学部日本文学科卒業.現在,大学共同利用機関法人人間文化研究機構国立国語研究所言語資源研究系准教授.辞書,語彙研究に従事.これまで『計算機用日本語基本辞書(IPAL)』(情報処理振興事業協会),『国立国語研究所資料集14分類語彙表』(大日本図書),『岩波国語辞典』(岩波書店)の編集作業に携わる.情報処理学会,計量国語学会,日本語学会,人工知能学会各会員.waka@ninjal.ac.jp}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会,AAAI,ACL,認知科学会,計量国語学会各会員.oku@pi.titech.ac.jp,http://oku-gw.pi.titech.ac.jp/\textasciitildeoku/.}\end{biography}\biodate\end{document}
V06N03-06
\section{はじめに} label{sec:intro}計算機上の文書データが増大するにつれ,膨大なデータの中からユーザの求める文書を効率よく索き出す文書検索の重要性が高まっている.文書検索では,ユーザが情報要求を検索要求として表現する.検索システムは,検索要求の内容と各文書の内容との類似度を計算し,値の高い順に文書を並べて表示する.この類似度は,一般に検索要求内のタームとマッチするタームの文書中の重要度を基に計算される.各タームの重要度は,「ある文書に多く出現し,文書集合全体ではあまり出現しないタームほど,その文書中で重要なタームである」という仮定に基づき,文書中の各タームの出現頻度($tf$)および,そのタームの文書集合全体での出現文書頻度の逆数($idf$)に基づいて計算する場合が多い\cite{salton:88b}.伝統的な検索手法では,文書全体を1つのまとまりとして考え,文書中の各タームの重要度を文書全体における重要度として計算する.しかし,実際の文書,特に長い文書は様々な話題を含むため,文書中の各部分によって話題が異なる場合も多く見られる.話題の違いは,その話題が述べられている部分に出現するタームの違いとして現われる.例えば,あるタームが文書中の一部分では頻出し,他の部分ではほとんど出現しないという状況もある.このような文書に対しては,文書全体を分割できない1つの単位とするのでは,各タームの重要度を計算するには充分ではなく,各話題を表わす部分を別々に扱って各タームの重要度を計算することが必要になる.こうした点から,最近の研究では,パッセージを用いた検索が注目されている\cite{Salton:93,Callan:94,Hearst:93,Knaus:94,Moffat:94,Kaszkiel:97,Melucci:98}.パッセージ検索は,文書全体を1つの単位とした検索とは異なり,パッセージという単位を使用して,検索要求と文書の類似度計算を行なう.各タームの重要度は,パッセージにおける重要度として計算する.そのため,パッセージ検索と文書全体での検索では,同じ検索要求と文書に対し,異なる単位によって類似度を計算することになり,統合的に用いることが可能である.パッセージ検索では,どのようにパッセージを決定するかという新たな問題が発生する.良いパッセージが決定できれば検索の精度も向上すると考えられるので,これは重要な問題である.パッセージとは一般的には文書中で連続した一部分のことを言うが,パッセージ検索においては,単に連続した一部分というだけでは充分ではなく,文書中で検索要求の内容と強く関連する内容を持つ意味的なまとまりを形成する必要がある.また,ユーザによって求める情報が異なり,その要求は検索要求によって反映されるという文書検索の性質から,文書検索におけるパッセージは,検索要求が入力された時点で検索要求に応じて動的に計算される方が望ましい.さらに,検索要求に関連する部分が全ての文書で一定のサイズであるということは考え難いことから,パッセージのサイズが検索要求や文書に応じて柔軟に設定されることも良いパッセージの決定につながると考えられる.本研究では検索要求が入力された時点で検索要求と各文書に応じて意味的なまとまりを持つパッセージを動的に決定する手法を示す.意味的なまとまりは,語彙的連鎖\cite{Morris:91}の情報を使用して獲得する.語彙的連鎖(lexicalchain)とは,語彙的結束性(lexicalcohesion)\cite{Halliday:76}と呼ばれる意味的な関連を持つ単語の連続のことをいう.語彙的連鎖は文書中に複数存在し,1つの連鎖の範囲内では,その連鎖の概念に関連する話題が述べられている\cite{okumura:94a,Barzilay:97}.そのため,文書内で検索要求と関連する話題が述べられている部分を語彙的連鎖の情報を使用して計算できるので,意味的にまとまったパッセージを得ることができる.本研究では,語彙的連鎖を使用することで検索要求に応じた良いパッセージが抽出でき,そのパッセージを使用することで検索精度が向上することを示す.また,上記の主張の有効性を調べるため,いくつかの実験を行う.以下,\ref{sec:passage}節ではパッセージ検索研究の概要について述べ,\ref{sec:lexchain}節では語彙的連鎖の計算方法について述べる.\ref{sec:ourpassage}節では本研究で提案する語彙的連鎖に基づくパッセージ検索手法について述べる.\ref{sec:experiment}節では実験に関して述べ,結果の考察をする. \section{パッセージレベルの文書検索} label{sec:passage}パッセージ検索では,検索要求と各文書との類似度を,文書中の各パッセージとの類似度によって計算\cite{Mittendorf:94,Hearst:93,Melucci:98}したり,文書全体での類似度とパッセージでの類似度を組み合わせて計算\cite{Callan:94,Salton:93,Wilkinson:94,Allan:95}したりする.パッセージの単位には大きく分けて,文書の章,節や形式段落のような形式的な情報に基づくもの\cite{Salton:93,Salton:94b,Moffat:94,Wilkinson:94,Mittendorf:94,Knaus:94},固定長や可変長のウィンドウに基づくもの\cite{Callan:94,Kaszkiel:97,Melucci:98},形式によらない意味的なまとまりに基づくもの\cite{Hearst:93}の3種類がある.文書中の形式段落や章,節という形式的な情報によるパッセージ抽出は,パッセージを著者が決定した構造に従って取り出す手法である.このタイプのパッセージは,検索に先立ってインデキシング時に決定できるため処理が容易であるという利点がある.しかし,現実の文書では同一の話題が複数の段落や章,節などにまたがる場合もある.また,日本語においては,形式的な切れ目と内容の切れ目が一致しない場合がある\cite{tokoro}.このような場合,形式的な情報をパッセージの単位とすると検索精度に悪影響を与える可能性がある.また,このタイプのパッセージは,検索要求に関係なくパッセージの単位を決定する.そのため,検索の精度を向上させる条件として,決定されたパッセージがどのような検索要求に対しても適切な類似度を計算できるパッセージである必要がある.しかし,実際にこのようなパッセージを決定することは困難であり,この点が問題点として指摘されている\cite{Callan:94,Melucci:98}.固定長や可変長ウィンドウによるパッセージは,検索要求が入力された時点でウィンドウをスライドさせながら各文書を走査し,検索要求との類似度が高いウィンドウを関連の高いパッセージとして決定する.このタイプのパッセージ検索は,検索要求に応じて関連するパッセージを決定できるという利点がある一方で,有意なウィンドウサイズを決定しなければならないという問題が生じる.ウィンドウサイズには,固定長\cite{Callan:94,Kaszkiel:97},一定の範囲で変化させる可変長\cite{Kaszkiel:97,Melucci:98}があるが,実際には効果的な検索を実現するために,データベース中の文書の長さや種類によってウィンドウの長さを調整する方法がよくとられている.また,走査において,ウィンドウをスライドさせる幅も問題になる.スライド幅を小さくすると細かな走査が可能になるが,検索にかかるコストが高くなり実用的でなくなる.一方,幅を大きくすると検索コストは軽減されるが,ウィンドウ境界にまたがる部分の影響により検索精度が悪くなる可能性がある.Callanはこの問題に対処するために,入力された検索要求と最初に一致した場所からウィンドウによる走査を開始し,以降のウィンドウは前のウィンドウの中間点から開始するという手法を提案している\cite{Callan:94}.しかし,有意なウィンドウサイズを決定しなけれはならないという問題は依然として残っている.またこのタイプのパッセージは,文書の意味的な要素を反映していないという問題がある.形式によらない意味的なまとまりに基づくパッセージ抽出は,文書の内容に基づいているため最も望ましい方法である.このタイプのパッセージ抽出には,あらかじめ文書を談話セグメント(意味段落)に分割することでインデキシング時にパッセージを決定する方法と,検索要求が入力された時点で検索要求と関連の強い意味的なまとまりとしてパッセージを取り出す方法の2つが考えられる.HearstとPlauntは,前者の方法として,文書をあらかじめ固定長のブロックに区切り,文書中に出現する語の結束性を計算し,結束性を持つ語がブロック間にまたがっている割合の多いブロックどうしをまとめ,談話セグメント,すなわちパッセージを形成する\cite{Hearst:93}.しかし,形式的な情報を用いる場合と同様に,検索要求に関係なくパッセージが決定されるため,どのような検索要求にも適切なパッセージを仮定しているという問題がある.また,文書の談話セグメントへの分割は多くの研究者によって行われているが\cite{Kozima:93,Hearst:94,Litman:95,Mochizuki:98},現在のところ充分な精度での談話セグメントへの分割は達成されていない.しかし,厳密に談話セグメントを計算する代わりに,比較的浅い処理を用いて文書中の意味的にまとまった部分を取り出すことは可能である.例えば,語彙的連鎖\cite{Morris:91}を計算すると,文書中の語彙ごとに意味的にまとまった部分を計算できる.この語彙的連鎖の情報を使用することで,意味的なまとまりに基づくパッセージ抽出の後者の方法が実現できる.すなわち,検索要求が入力された時点で検索要求と一致する語彙に関する語彙的連鎖が出現する部分をまとめることで検索要求と関連するパッセージが取り出せる.次節では,我々がパッセージの決定に使用する語彙的連鎖の計算方法について説明する. \section{語彙的連鎖の計算} label{sec:lexchain}語彙的連鎖とは文書中で互いに意味的な関係を持つ語の連続のことである.例えば,\vspace*{1em}膨張を続ける宇宙の中で数多くの星が誕生,消滅を繰り返しました.そして宇宙の誕生から約100億年後,他の星と同じ様にして,原始太陽を中心にして原始太陽系星雲と呼ばれるガスの円盤を作りました.\vspace*{1em}\noindentという文章中には,意味的に関連のある語の集まり\{星,星,星雲\}が共起する.このような語の集まりを語彙的連鎖と呼ぶ.一般に語彙的連鎖は文書中に複数存在し,1つの連鎖が出現している範囲では,その連鎖を構成する語に関する話題が述べられていると考えることができる.語彙的連鎖形成の基準としては,表層形式が一致するタームの連続(同一タームの反復),シソーラス上の同一概念に属するタームの連続,共起しやすいタームの連続などが考えられる.以降では本研究で使用する語彙的連鎖の計算手法について説明する.なお,本研究では,文書中の各文を形態素解析し\cite{Chasen:97j},名詞,動詞,形容詞をタームとして取り出す.語彙的連鎖は,この名詞,動詞,形容詞についてのみ計算する.\subsection{同一タームの反復に基づく語彙的連鎖}\label{ssec:repetition}同一タームの反復に基づく語彙的連鎖は,最も単純な手法である.表層形式の同じタームは互いに意味的に関連のあるタームと考え連鎖を構成する.\subsection{シソーラス上の同一概念に基づく語彙的連鎖}\label{ssec:thesaurus}シソーラス上の同一概念に属するタームを互いに意味的に関連のあるタームと考え,連鎖を構成する.シソーラスを使用する場合,1つのタームが複数の概念に含まれる場合には,語義曖昧性の問題が発生する.そのため,語義曖昧性を解消しつつ語彙的連鎖を生成する手法\cite{okumura:94a}により語彙的連鎖を生成する.語彙的連鎖生成の手法を要約すると次のようになる.語彙的連鎖を漸進的に生成する過程で,語彙的連鎖の候補を最近更新されたものが上位に来るようにスタック状に管理し,スタックの上位にある語彙的連鎖の候補から順に,現在解析中の語との結束性を調べる.このスタック構造により,解析中の語の近傍の文脈を得ることができるので,語義曖昧性解消をしつつ,語彙的連鎖を生成することが可能となる.本研究では,シソーラスに角川類語新辞典\cite{kadokawa}を使用する.角川類語新辞典では,概念体系を大分類,中分類,小分類の3階層に分類しているが,小分類を使用する\footnote{小分類は$1000$分類あるが,語彙的連鎖形成の基準として考慮しない方が良いと考えられる\{508:接尾辞,509:接辞,828:単位,829:助数詞および834:接辞\}の5つの分類を除く.}.\subsection{語の共起関係に基づく語彙的連鎖}\label{ssec:cooccurrence}このタイプの語彙的連鎖は,既存のシソーラスを使用しない.文書コーパスの共起情報からターム間の共起の強さである共起スコアを計算する.このスコアを用いてタームのクラスタを構成する.1つのクラスタ内のタームの連続が1つの語彙的連鎖となる.本研究では,ターム$X$と$Y$の共起スコアを式(\ref{equ:cosdis})のコサイン距離によって計算する.\begin{equation}\label{equ:cosdis}coscr(X,Y)=\frac{\sum_{i=1}^{n}x_{i}\timesy_{i}}{\sqrt{\sum_{i=1}^{n}x_{i}^{2}}\times\sqrt{\sum_{i=1}^{n}y_{i}^{2}}}\end{equation}\noindentここで,$x_{i}$と$y_{i}$はそれぞれ文書$i$にターム$X$と$Y$の出現する数($tf$)を表わし,$n$はコーパスの全文書数を表わす.また,クラスタリングにおけるクラスタ間の類似尺度には式(\ref{equ:min})の最短距離法を用いる.\begin{equation}\label{equ:min}sim(C_i,C_j)=\max_{X,Y}coscr(X\inC_i,Y\inC_j)\end{equation}\noindentここで$X,Y$はそれぞれクラスタ$C_i$内,$C_j$内のタームである.この共起スコアを使用した文書ごとの語彙的連鎖の計算は,次のように行なう.文書の先頭から順に1文を取り出し,1文内のタームの共起スコアを計算する(式(\ref{equ:cosdis})).1ターム1クラスタから開始し,クラスタ間の類似度をタームの共起スコアを基に式(\ref{equ:min})により計算する.類似度が高い順に,閾値以上の類似度を持つクラスタをマージすることで,クラスタリングを行なう.1文内での処理が終了した後に,その時点までに作成された文書全体でのクラスタと今計算した1文内でのクラスタによる2段階目のクラスタリングを1文内の場合と同様に行なう.これを文書内の文がなくなるまで繰り返す.共起関係に基づく語彙的連鎖生成アルゴリズムは次のようになる.\begin{tabbing}{\bfステップ1.}\\\quad\={\bfif}(文書から取り出す文がない)\\\>\quad\=終了\\\>{\bfelse}\\\>\quad\=文書から1文を取り出し,{\bfステップ2}へ\\{\bfステップ2.}1文内のタームのクラスタリング\\\quad\={\bfステップ2-1.}\\\>\quad\=1文内のすべてのタームペア間の共起スコアをコサイン距離(式(\ref{equ:cosdis}))\\\>\>により計算する\\\quad\={\bfステップ2-2.}\\\>\quad\=1ターム1クラスタとしてクラスタを形成する\\\quad\={\bfステップ2-3.}\\\>\quad\={\bfif}(クラスタが1つである)\\\>\>\quad\={\bfステップ3}へ\\\>\>{\bfelse}\\\>\>\quad\=すべてのクラスタペア間の類似度を最短距離法(式(\ref{equ:min}))により計算する\\\quad\={\bfステップ2-4.}\\\>\quad\={\bfif}(類似度の最も高いクラスタペアの類似度が閾値以上である)\\\>\>\quad\=クラスタペアをマージし,{\bfステップ2-3}へ\\\>\>{\bfelse}\\\>\>\quad\={\bfステップ3}へ\\{\bfステップ3.}文書全体のタームのクラスタリング\\\quad\={\bfステップ3-1.}\\\>\quad\={\bfif}(文書全体のクラスタが存在しない)\\\>\>\quad\={\bfステップ2}で計算したクラスタを文書全体のクラスタとする\\\>\quad\={\bfelse}\\\>\>\quad\={\bfステップ2}で計算した1文内の各クラスタ内の各タームと,\\\>\>\>文書全体の各クラスタ内の\\\>\>\>タームとの共起スコアをコサイン距離(式\ref{equ:cosdis}))により計算する\\\quad\={\bfステップ3-2.}\\\>\quad\={\bfif}(マージするクラスタがない)\\\>\>\quad\={\bfステップ1}へ\\\>\quad\={\bfelse}\\\>\>\quad\=1文内のクラスタと文書全体のクラスタの\\\>\>\>全ペア間の類似度を最短距離法(式(\ref{equ:min}))により計算する\\\quad\={\bfステップ3-3.}\\\>\quad\={\bfif}(類似度の最も高いクラスタペアの類似度が閾値以上である)\\\>\>\quad\=クラスタペアをマージし,{\bfステップ3-2}へ\\\>\>{\bfelse}\\\>\>\quad\={\bfステップ1}へ\\\end{tabbing}\subsection{有意な連鎖の選択}\label{ssec:lexselect}計算された語彙的連鎖の中には重要と考え難いものも含まれる.例えば,図\ref{fig:leximg}の語彙的連鎖を考える.図\ref{fig:leximg}では,連鎖A,B,C,D,Eの5種類の連鎖が計算されているが,連鎖CとEは連鎖を形成するタームが極端に少ないうえに,出現する位置が互いに非常に離れている.このような連鎖は重要ではなく有意な連鎖と認めない方が良いと思われる.一方,連鎖A,BおよびDは形成するタームの数が全体的に多く,文書のある部分で高密度で出現していることがわかる.また,連鎖Bでは,14語目から23語目までの間および,28語目から36語目の間というタームの出現しない部分が存在する.これを我々は語彙的連鎖のギャップと呼ぶ.このようなギャップが存在する場合,同一の連鎖であっても,ギャップの区間ではその連鎖に関連する話題が述べられていないと考えられるため,ギャップで一旦連鎖を切り離して別の連鎖として計算した方が良い.\begin{figure}[htbp]\begin{center}\epsfile{file=chain_img.eps,scale=0.65}\caption{語彙的連鎖の例}\label{fig:leximg}\end{center}\end{figure}そこで,有意な連鎖を選択するために,連鎖およびギャップの長さを考慮した以下の制約を設ける.\begin{itemize}\itemギャップ長の閾値を設定し,連鎖を構成するタームが閾値以上の間出現しない場合は,連鎖を切り別々の連鎖とする.\item連鎖長の閾値を設定し,連鎖の覆う範囲が閾値以上の長さをもつ連鎖だけを有意な連鎖とする.\end{itemize}図\ref{fig:leximg}の連鎖Bを例にとると,図\ref{fig:decidechn}のように,ギャップ長閾値において連鎖Bは部分連鎖B1,B2,B3に分割される.次にそれぞれの部分連鎖に対して連鎖長の閾値の制約を適用することで,部分連鎖B2,B3は連鎖と認められなくなる.結果として元の連鎖Bの中で,部分連鎖B1だけが有意な連鎖として残される(図\ref{fig:decidechn}).図\ref{fig:leximg}の連鎖CおよびEも同様の閾値によって有意な連鎖と認められなくなる.\begin{figure}[htbp]\begin{center}\epsfile{file=decide_chain.eps,scale=0.75}\caption{有意な語彙的連鎖の例}\label{fig:decidechn}\end{center}\end{figure} \section{語彙的連鎖に基づくパッセージ検索} label{sec:ourpassage}前節で説明した語彙的連鎖を使用した我々のパッセージ検索手法について述べる.我々のパッセージ検索手法は基本的に次のような手法に基づく.まず,入力された検索要求内の各タームと関連する語彙的連鎖の文書内での出現位置と,その連鎖の重要度を文書ごとに取り出す.次に,各文書ごとに出現位置の重複する語彙的連鎖をまとめ,1つのパッセージとする.各パッセージ内の語彙的連鎖の重要度を足し合わせることにより検索要求と各パッセージの類似度を計算する.以下では語彙的連鎖の重要度の計算方法,連鎖のインデキシングおよび検索要求と関連の強いパッセージの抽出手法について順に説明する.\subsection{語彙的連鎖の重要度}\label{ssec:lexweighting}各連鎖の重要度は,ある文書に多く出現し,文書集合全体ではあまり出現しないタームほどその文書内で重要なタームであるという$tf*idf$の考えに基づいて決定する.すなわち,ある文書内で多くのタームから構成される連鎖で,文書集合全体ではあまり出現しない連鎖ほどその文書内で重要な連鎖であると考え,文書$d$内の語彙的連鎖$C_{d}$の重要度$w_{C_d}$を次のように定義する.シソーラスおよび同一タームの反復を使用する場合,\begin{equation}\label{equ:cweight_lex}w_{C_d}={\midC_{d}\mid}\timeslog(N/n_{C_{d}})\end{equation}共起タームを使用する場合,\begin{equation}\label{equ:cweight_co}w_{C_d}={\midC_{d}\mid}\timeslog(N/\max_{c\inC_{d}}n_{c})\end{equation}ここで,$\midC_d\mid$は語彙的連鎖$C_{d}$を構成するタームの総数,$N$はデータベース中の全文書数,$n_{C_{d}}$は連鎖$C_{d}$と同一の概念に属する連鎖が出現する文書の数,$max_{c\inC_{d}}n_{c}$は,連鎖$C_{d}$を構成するタームの出現する文書数の中で最大の値をそれぞれ示している.シソーラスを使用する場合,各タームの属する概念があらかじめ決っているため,全文書中に現れる各概念の数も計算できる.同一タームの反復の場合も同様である.一方,共起タームに基づき文書ごとに計算した連鎖の場合,連鎖を構成するタームの種類も文書ごとに異なるため,シソーラスのように出現する文書数を計算できない.例えば,タームAとBがある文書で連鎖を構成し,別の文書でタームBとCが連鎖を構成した場合,タームAおよびCの出現する文書は1つであるが,タームBは2つの文書に出現することになる.そのため,連鎖の出現文書頻度としては連鎖を構成するタームの内,もっとも多くの文書に出現するタームの情報を使用することにした.\subsection{語彙的連鎖のインデキシング}\label{ssec:lexindexing}検索時にタームの属する語彙的連鎖の出現文書と文書中の出現位置および連鎖の重要度を取り出す必要があるため,まず語彙的連鎖のインデキシングを行う.インデックスは,(連鎖を構成するターム,文書ID,連鎖ID[出現範囲],重要度)\noindentという形式からなる.例として,文書00001に出現する連鎖A1\{星,星,星雲,星\}と,連鎖A2\{星,太陽,月,星\}の2つの連鎖のインデキシングを考える.\begin{figure}[htbp]\begin{center}\begin{tabular}{|c|}\hline(星,00001,A1[1-36],xxxx)\\(星雲,00001,A1[1-36],xxxx)\\(星,00001,A2[93-116],yyyy)\\(太陽,00001,A2[93-116],yyyy)\\(月,00001,A2[93-116],yyyy)\\\hline\end{tabular}\caption{インデキシングの例}\label{fig:index}\end{center}\end{figure}図\ref{fig:index}のように,インデキシングすることにより,タームの属する連鎖の出現文書と文書中の出現位置および重要度を効率良く取り出すことができる.例えば,図\ref{fig:index}のインデックスを使用すると,『星』というタームから文書00001の連鎖A1と連鎖A2が検索でき,連鎖A1の範囲はテキスト00001の1語目から36語目まで,連鎖A2の範囲は93語目から116語目までであることがわかる.\subsection{検索要求と関連の強いパッセージの計算}\label{ssec:calcpassage}前節で作成したインデックスを使用することで,検索要求と関連の強いパッセージが計算できる.計算は以下の手続きで行う.\begin{enumerate}\item検索要求を形態素解析し,検索要求内のタームとして名詞,動詞,形容詞を選択する.\item検索要求内の各タームごとにインデックスを索き,語彙的連鎖の出現位置の情報を得る.\item検索要求内のタームにマッチした連鎖の含まれる文書ごとに,出現する各連鎖をまとめパッセージの範囲を決定する.パッセージの範囲は次のように決定する.まず,文書中に出現する各語彙的連鎖のうち,出現位置に重なりのある連鎖どうしを1つのパッセージ候補としてマージする.この処理を出現位置に重なりのある連鎖がなくなるまで繰り返し,最終的に残ったパッセージ候補をパッセージとする.1つのパッセージの範囲は,パッセージ内の最初の語彙的連鎖が始まるタームから最後の語彙的連鎖が終了するタームまでである.\item各パッセージと検索要求との類似度を計算する.\\次のようなパッセージは検索要求と強く類似していると考えられる.\begin{itemize}\itemより多くの検索要求内のタームと関連する語彙的連鎖を含むパッセージ.\item重要度の高い語彙的連鎖を多く含むパッセージ.\item各語彙的連鎖の出現位置の重なっている部分が多いパッセージ.\end{itemize}そこで,本研究では上記の条件を満たすパッセージほど検索要求との類似度が高くなるように,パッセージ内の連鎖の出現数,重要度および連鎖どうしの重なりを考慮してパッセージと検索要求の類似度を計算する.まず,式(\ref{equ:passcr0})により,検索要求内のターム$q_{k}$と対応する語彙的連鎖$c_{k}$との類似度$cw_{k}$を計算する.\begin{equation}\label{equ:passcr0}cw_{k}=(tf_{q_{k}}\timeslog(N/n_{k}))^2\timesw_{C_{k}}\end{equation}ここで,$tf_{q_{k}}$は検索要求内のターム$q_{k}$の検索要求内の頻度,$N$は全文書数,$n_{k}$はターム$q_{k}$の出現する文書数であり,$w_{C_{k}}$はターム$q_{k}$に対応する語彙的連鎖$C_{k}$の重要度である.次に,$cw_{k}$を連鎖の長さ$cl_{k}$で割ることにより,連鎖の範囲内の各ターム$j$のスコア$cw_{k,j}$を計算する(式(\ref{equ:passcr1})).\begin{equation}\label{equ:passcr1}cw_{k,j}=cw_{k}/cl_{k}\end{equation}\vspace{6mm}次に検索要求内のターム毎の各スコア$cw_{k,j}$をパッセージの開始位置から終了位置まで足しながら各位置での連鎖の重なりに応じて重みをかける(式(\ref{equ:passcr})).\begin{equation}\label{equ:passcr}sim(Q,P_{i})=\sum_{j=begin_{i}}^{end_{i}}(\sum_{k=1}^{\midQ\mid}cw_{k,j})\times(\midq_{j}\mid^2/\midQ\mid^2)\end{equation}ここで,$Q$は検索要求,$P_{i}$はパッセージ$i$であり,$begin_{i}$,$end_{i}$はそれぞれパッセージ$P_{i}$の開始するタームの位置および終了するタームの位置を表す.$cw_{k,j}$は語彙的連鎖$k$の位置$j$におけるスコアである.$\midQ\mid$は検索要求内のタームの数,$\midq_{j}\mid$は検索要求内のタームに対応する連鎖の内,パッセージ$P_{i}$内の$j$番目のタームを範囲に含んでいる連鎖の数である.\end{enumerate}\begin{figure}[htbp]\begin{center}\epsfile{file=pasimg.eps,scale=0.75}\caption{パッセージの例}\label{fig:pasimg}\end{center}\end{figure}例として,図\ref{fig:pasimg}を考える.図\ref{fig:pasimg}には,検索要求内のタームとして入力された3つのターム(それぞれ黒い丸,グレーの丸,四角で表されている)と,インデックスを索くことによりマッチした文書の1つが示されている.この文書中には検索要求内のタームとマッチする語彙的連鎖A1,A2,B1,B2,C1,C2,C3が存在している.この例では,連鎖A1およびA2は黒い丸で表わされた検索要求内のタームに,連鎖B1およびB2はグレーの丸で表わされた検索要求内のタームに,また連鎖C1,C2およびC3は四角で表わされた検索要求内のタームにそれぞれマッチする.ここで各語彙的連鎖をパッセージ候補とし,その範囲を調べる.次に重複した範囲を持つ連鎖どうしを1つのパッセージ候補としてまとめる作業を繰り返すことにより,最終的なパッセージを決定する.図\ref{fig:pasimg}では3つのパッセージが決定されており,パッセージ1には語彙的連鎖A1,B1,C1,パッセージ2にはA2,C2,パッセージ3にはB2,C3がそれぞれ含まれている.次に各パッセージと検索要求との類似度を計算する.例えば,パッセージ1では,連鎖A1の範囲が1語目から36語目の36語,B1の範囲が3語目から59語目の57語,C1の範囲が17語目から63語目の44語である.従って各連鎖と検索要求内のタームの類似度$cw_{k}$を,それぞれ36,57,44で割ることにより,$cw_{k,j}$を求める.パッセージ1のスコアは$j$を1語目から63語目まで変化させながら,対応する$cw_{k,j}$を足して求める.この時,3語目から16語目までは,A1とB1が重なり,17語目から36語目まではA1,B1とC1が重なり,37語目から63語目まではB1とC1が重なっているためそれぞれの重みをかける.これにより,各文書中の各パッセージごとに検索要求との類似度が計算できる. \section{実験} label{sec:experiment}前節までで述べた我々のパッセージ検索の有効性を調べるため,伝統的な文書全体によるキーワード検索(以下,キーワード検索),パッセージ検索として代表的である形式段落に基づくパッセージ検索およびウィンドウに基づくパッセージ検索と,我々の語彙的連鎖に基づくパッセージ検索による比較実験を行う.また,各パッセージ検索を単独で行う場合とパッセージ検索とキーワード検索を組み合わせた場合の比較も行う.実験には,『情報検索システム評価用テストコレクションBMIR-J2』\cite{BMIR-J2:98j}を使用する.BMIR-J2は,対象文書5080件(1994年の毎日新聞から選択した経済および工学,工業技術一般に関連する記事),検索要求50種と対応する正解がセットとなっているテストコレクションである.50の検索要求には5種類の機能分類がされており,研究課題に応じて使用する検索要求を選ぶことが出来るようになっている.また,正解判定にはA,Bの2ランクがあり,Aは検索要求を主題とする記事,Bは検索要求の内容を少しでも記述している記事をそれぞれ表わしている.パッセージ検索は,文書中で強く関連する部分を取り出すという性質から,本研究の正解判定には,主題を表わすAランクを使用する.また,パッセージ検索は特に長い文書で有効であると考えられるため,全5080件の内比較的長い文書として1600バイト以上の文書904件を選択したセット(セット1)を使用する.また,5080件全てを使用するセット2による実験も行う.検索要求は全50の内,数値・レンジ機能\footnote{システムに求められる機能として『数の数え上げや,数値などの範囲を正しく解釈する.数値の大小比較や単位の理解・変換なども含む』が要求される.}および知識処理機能\footnote{システムに求められる機能として『世界知識を利用する.常識的な判断や,蓄積された事実からの推論などを含む』が要求される.}を必要とする検索要求以外の検索要求から,セット1において正解文書数が5文書を越える検索要求をすべて選択して使用する.本研究では,後述するように評価尺度として再現率と適合率を使用する.このような評価尺度を用いる場合,正解文書数の少ない検索要求を使用すると統計的な信頼性が低下する.そのため,本実験で使用するテストコレクションにおいて信頼性の基準とされている5文書以上の正解を持つ検索要求だけを使用することにした.また,各文書には見出しが付いているが,本文と合せて1つの文書として扱う.テストコレクションの特徴を表\ref{tab:collection}にまとめる.\begin{table}[htbp]\begin{center}\caption{テストコレクションの特徴}\label{tab:collection}\begin{tabular}{lcc}\hline&セット1&セット2\\\hline文書数&904&5080\\検索要求数&8&8\\正解文書数&52&197\\平均正解文書数&6.5&24.6\\平均文書長(バイト数)&1785.8&1236.1\\平均文書長(ターム数)&199.5&142.1\\平均文数&19.1&12.9\\\hline\end{tabular}\end{center}\end{table}\vspace{-5mm}次に本研究で実装した各検索手法について説明する.すべての手法において,文書を形態素解析し,名詞,動詞,形容詞を取り出しインデキシング用のタームとする.また,パッセージ検索では同一文書内で検索要求とマッチするパッセージが複数ある場合には,類似度が最大のものを選択し検索要求と各文書の類似度として使用する.\subsection{キーワード検索}\label{subsec:keyword}1つの文書内のターム$t$の重みは,タームの文書内の出現頻度$tf$およびタームの文書集合全体での出現文書頻度の逆数$idf$に基づく一般的な$tf*idf$の式(\ref{equ:tfidf})により計算し,文書をタームの重みつきベクトル$D$で表現する.\vspace{-2mm}\begin{equation}\label{equ:tfidf}w_{t}=tf_{t}\timeslog(N/n_{t})\end{equation}\noindentここで,$tf_{t}$は文書内でのターム$t$の出現頻度,$N$は全文書数,$n_{t}$はターム$t$が出現する文書の数である.検索要求ベクトル$Q$と文書ベクトル$D$との間の類似度は次式で計算する.\begin{equation}\label{equ:normsim}sim(Q,D)=\sum_{t}(tf_{q_{t}}/log(N/n_{t}))^2\timesw_{t}\end{equation}\noindentここで,$tf_{q_{t}}$は検索要求内のターム$q_{t}$の検索要求内の頻度である.\subsection{形式段落に基づくパッセージ検索}\label{subsec:formpara}このタイプのパッセージ検索では,見出しと形式段落をそれぞれ1つのパッセージとして扱う.パッセージ毎の各タームの重要度は式(\ref{equ:tfidf})と同様であり,検索要求とパッセージの類似度は式(\ref{equ:normsim})と同様であるが,$tf_{t}$はパッセージ内に出現するターム$t$の数,$N$は全段落数であり,$n_{t}$はターム$t$の出現する段落の数となる.セット1(904文書)は,7949段落に分割され,1文書平均8.8段落であり,1段落当り平均28.2タームである.セット2(5080文書)は,31904段落に分割され,1文書平均6.3段落であり,1段落当り平均27.9タームである.\subsection{固定長ウィンドウに基づくパッセージ検索}\label{subsec:window}サイズ$l$の固定長ウィンドウによりパッセージを作る.Callanの手法\cite{Callan:94}と同様に,検索要求にマッチするタームが最初に出現した位置から走査を開始し,$\frac{l}{2}$ずつウィンドウをずらしながらクエリーとの類似度を計算する.ウィンドウ内のタームの重要度は式(\ref{equ:tfidf})と同様であり,各ウィンドウと検索要求の類似度は式(\ref{equ:normsim})で計算されるが,$tf_{t}$はウィンドウ内に出現するターム$t$の数となる.本研究では,ウィンドウのサイズを,$20,40,80,\cdots,300$までの範囲で20刻みに設定しそれぞれのサイズで実験を行う.本研究で用いたほとんどの文書データにおいて,文書全体となる値である300をウィンドウサイズの上限とした.\subsection{語彙的連鎖に基づくパッセージ検索}\label{subsec:lexpas}\ref{sec:lexchain}節で述べた手法により語彙的連鎖を計算し,\ref{sec:ourpassage}節で述べた手法によりパッセージと各検索要求の類似度を計算する.検索要求との類似度が最大のパッセージを検索要求と関連の高いパッセージとし,その類似度を検索要求と文書の類似度とする.\begin{equation}\label{equ:maxpas}sim(Q,D)=\max_{i}sim(Q,P_{i})\end{equation}\noindentここで,$sim(Q,P_{i})$は式(\ref{equ:passcr})によって求められる.\ref{ssec:lexselect}節で述べたように,語彙的連鎖に基づくパッセージでは,有意な連鎖を選択するための2つの制約,ギャップ長の制約と連鎖長の制約を課す.今回の実験では,両制約とも閾値を文書内のターム数の$1/4,1/8,1/16,1/32$の4通りに変化させ$4*4=16$通りの組み合わせを用いて実験する.連鎖長,ギャップ長は,文書内のターム数に対してどのくらいの割合になるかを考慮して,長めである$1/4$から短かめである$1/32$までの範囲とした.また,タームの共起スコアに基づく語彙的連鎖の計算では,\ref{ssec:cooccurrence}節で述べたように,連鎖の決定に共起スコアの閾値を用いる.今回の実験では,$0.2,0.25,0.3,0.35,0.4$の各閾値について連鎖を計算して実験を行う.この閾値は,予備的な語彙的連鎖構成実験により,$0.2$より小さいとまとまり過ぎ,$0.4$より大きいと細かくなり過ぎる傾向が見られたため,この範囲に決定した.なお,共起スコアの計算では大規模なコーパスが必要となるため,テストコレクションと同じ毎日新聞94年の記事1年分(約10万記事)を使用する.\subsection{キーワード検索とパッセージ検索の統合}形式段落,ウィンドウおよび語彙的連鎖に基づくパッセージ検索とキーワード検索とを統合した検索を行う.数多くの統合手法が考えられるが,本研究では次の統合手法を実装して実験を行う.検索要求$Q$に対する文書$D$のキーワード検索,パッセージ検索における類似度を,それぞれの最大の類似度で割って正規化し足し合わせた値を$D$の類似度として計算する.\begin{equation}sim(Q,D)=\frac{ksim}{\displaystyle{\max_{i}ksim_{i}}}+\frac{psim}{\displaystyle{\max_{i}psim_{i}}}\end{equation}\noindentここで,$ksim$は\ref{subsec:keyword}節で述べたキーワード検索による文書$D$の類似度であり,$\displaystyle{\max_{i}ksim_{i}}$はキーワード検索の中で検索要求$Q$との類似度が最大の文書の類似度である.$psim$はパッセージ検索による文書$D$の類似度であり,$\displaystyle{\max_{i}psim_{i}}$はパッセージ検索の中で検索要求$Q$との類似度が最大の文書の類似度を表わす.パッセージ検索の類似度は,形式段落型を使用する場合は\ref{subsec:formpara}節,ウィンドウ型は\ref{subsec:window}節,語彙的連鎖型は\ref{subsec:lexpas}節で述べた手法によりそれぞれ計算する.この統合手法では,パッセージとキーワードでの検索の両方の類似度が相対的に高い文書が上位にランクされる.\subsection{比較実験}\label{subsec:experiments}前節の4つの検索手法を使用して以下の組み合わせで実験を行う.\begin{enumerate}\itemキーワード検索(document)\item形式段落に基づくパッセージ検索(formpara)\item固定長ウィンドウに基づくパッセージ検索(window)\item語彙的連鎖に基づくパッセージ検索\begin{enumerate}\item[(4-a)]同一タームの反復による語彙的連鎖(repetition)\item[(4-b)]シソーラスによる語彙的連鎖(thesaurus)\item[(4-c)]共起タームによる語彙的連鎖(cooccurrence)\end{enumerate}\item(1)と(2)の組み合わせ(formpara\_doc)\item(1)と(3)の組み合わせ(window\_doc)\item(1)と(4)の組み合わせ\begin{enumerate}\item[(7-a)](1)と(4-a)(repetition\_doc)\item[(7-b)](1)と(4-b)(thesaurus\_doc)\item[(7-c)](1)と(4-c)(cooccurrence\_doc)\end{enumerate}\end{enumerate}評価尺度には,再現率($Recall$)と適合率($Precision$)を使用する.$再現率$は全正解文書の内,システムによって正しく検出された文書の割合を示す.$適合率$はシステムが関連すると判断した文書の内,実際に正解文書であるものの割合を示す.$再現率$,$適合率$は次式で表わされる.\begin{equation}\label{equ:recall}再現率=\frac{システムにより検出された正解文書数}{全ての正解文書数}\end{equation}\begin{equation}\label{equ:precision}適合率=\frac{システムにより検出された正解文書数}{システムが検出した文書数}\end{equation}但し,各検索要求に対するシステムの出力を上位$M$位までとする.本研究では,$M$を上位2位から26位まで2文書刻み($M=2,4,\cdots,26$)にし各$M$の時点で全検索要求による適合率,再現率の平均を計算する\footnote{検索要求によっては出力数が$M$個に満たない場合が存在するが,式(\ref{equ:precision})の右辺の分母を$M$にして計算している.}.実験結果を図\ref{fig:ex5}から図\ref{fig:ex8}に示す.図\ref{fig:ex5}と\ref{fig:ex6}はセット1の結果であり,図\ref{fig:ex7}と図\ref{fig:ex8}はセット2の結果である.図\ref{fig:ex5}と図\ref{fig:ex7}は,各パッセージ検索単独と文書全体の検索の結果である.図\ref{fig:ex6}と図\ref{fig:ex8}は,各パッセージ検索とキーワード検索の統合手法の結果である.また,前節までで述べた各検索実験にはさまざまなパラメータが存在しているが,各$M$における平均適合率が最大になる場合を最適なパラメータ値であると推定した.パッセージ検索の主な効果としては,キーワード検索に比べ適合率を向上させることが期待される.そのため,パラメータ値の推定には再現率を考慮せず,適合率のみを考慮した.図\ref{fig:ex5}から図\ref{fig:ex8}には,最も良かった場合の結果を示している.最も良い結果が得られた各パラメータの値と,その際の平均パッセージサイズおよびパッセージサイズの標準偏差を表\ref{tab:bestparam}に示す.\begin{table}[htbp]\begin{center}\caption{結果の良かったパラメータの値}\label{tab:bestparam}\begin{tabular}{lccccc}\hline&共起&{\small同一ターム}&{\smallシソーラス}&{\smallウィンドウ}&{\small形式段落}\\\hline\multicolumn{6}{c}{セット1}\\\hline共起スコア閾値&0.25&-&-&-&-\\連鎖閾値{\small(ターム数/*)}&8&32&32&-&-\\ギャップ閾値{\small(ターム数/*)}&4&8&8&-&-\\ウィンドウサイズ&-&-&-&260&-\\\hline平均パッセージサイズ&96.0&81.9&64.9&260&43.4\\標準偏差&52.3&68.4&46.5&-&19.3\\\hline\hline\multicolumn{6}{c}{セット2}\\\hline共起スコア閾値&0.25&-&-&-&-\\連鎖閾値{\small(ターム数/*)}&8&32&32&-&-\\ギャップ閾値{\small(ターム数/*)}&4&4&8&-&-\\ウィンドウサイズ&-&-&-&240&-\\\hline平均パッセージサイズ&66.9&67.5&50.7&240&41.5\\標準偏差&46.9&49.6&37.8&-&17.5\\\hline\end{tabular}\end{center}\end{table}\begin{figure}\begin{center}\epsfile{file=res1600btpasa.ps,scale=0.48}\caption{1600bytes以上の文書セット1を使用(パッセージのみ)}\label{fig:ex5}\end{center}\end{figure}\begin{figure}\begin{center}\epsfile{file=res1600bthba_.ps,scale=0.48}\caption{1600bytes以上の文書セット1を使用(統合)}\label{fig:ex6}\end{center}\end{figure}\begin{figure}\begin{center}\epsfile{file=respasa.ps,scale=0.48}\caption{全文書セット2を使用(パッセージのみ)}\label{fig:ex7}\end{center}\end{figure}\begin{figure}\begin{center}\epsfile{file=reshba.ps,scale=0.48}\caption{全文書セット2を使用(統合)}\label{fig:ex8}\end{center}\end{figure}\newpage\subsection{考察}\label{subsec:kousatsu}パッセージ検索単独では,セット1の場合(図\ref{fig:ex5}),ウィンドウ型がキーワード検索単独とほぼ同じであり,形式段落,語彙的連鎖のパッセージの中では共起による語彙的連鎖型が一番良いものの,キーワード検索単独を上回る精度を得られなかった.また,セット2(図\ref{fig:ex7})の場合も,セット1の時ほどはっきりした差はないが,概ね同様の結果であった.一方,キーワード検索との統合による結果では,セット1の場合(図\ref{fig:ex6}),共起による語彙的連鎖型のパッセージ検索によって,多くの部分でキーワード検索単独を上回る良い適合率および再現率を得た.形式段落型と他の語彙的連鎖型パッセージ検索では,単独の場合よりも統合することによって適合率,再現率が向上したもののキーワード検索単独の結果を上回ることができなかった.ウィンドウ型は統合によってもキーワード検索単独の結果とほぼ同じであった.また,セット2(図\ref{fig:ex8})の場合も,セット1の時より差が少ないが,共起による語彙的連鎖型のパッセージ検索により,多くの部分でキーワード検索単独を上回る結果を得た.結果的にセット1で共起による語彙的連鎖に基づくパッセージ検索とキーワード検索を統合する場合に,最も高い適合率,再現率が得られた.特に検索文書数が少ない段階での差は顕著であり,上位10位までの文書を見ると,キーワード検索単独では適合率約34\%,再現率約53\%であるのに対し,統合により適合率約40\%,再現率約64\%を得ている.セット1とセット2の結果をキーワード検索を基準として比べると,形式段落以外の各パッセージ検索では,セット1の方がセット2よりも全体的に良い成績を収めている.セット2には短い文書が含まれているのに対し,セット1は比較的長い文書によるセットであるため,この結果は,本来パッセージ検索は長い文書の方が有効であるという考えに概ね一致し,セット1の方がパッセージ検索の評価に向いていると考えられる.よって,以降はセット1の結果である図\ref{fig:ex5}と図\ref{fig:ex6}について考察する.パッセージ検索はキーワード検索とは異なる検索結果を示すことが期待できる.パッセージ検索の効果として期待されるのは,次の3点である.\begin{enumerate}\itemキーワード検索とは異なる正解文書を上位に上げる.\itemキーワード検索で上位にランクされる正解文書をより上位に上げる.\itemキーワード検索で上位にランクされる不正解文書を下位に下げる.\end{enumerate}逆に,悪影響を及ぼす可能性があるのは,次の3点である.\begin{enumerate}\itemキーワード検索とは異なる不正解文書を上位に上げる.\itemキーワード検索で上位にランクされる不正解文書をより上位に上げる.\itemキーワード検索で上位にランクされる正解文書を下位に下げる.\end{enumerate}当然のことながら,パッセージ検索がキーワード検索を上回る精度を得るためには,パッセージ検索による効果が悪影響を上回る必要がある.その意味で図\ref{fig:ex5}の実験結果では悪影響の方が強く出たと考えられる.しかし,キーワード検索との精度の差がパッセージ検索の優劣を直接示すことにはならない.パッセージ検索で上位に位置する文書集合がキーワード検索によるものとどのくらい異なるかという点と,集合内で上記効果と悪影響がどのような割合で見られるかという点に注目する必要がある.パッセージ検索とキーワード検索では,有効に働く文書が異なると考えられるため,パッセージ検索によってキーワード検索とは異なる正解文書の順位を上げ,不正解の文書の順位を下げることができていれば,統合によって全体的な精度を向上させる可能性が高いからである.そこで,セット1で,各パッセージ検索結果の上位(10位以内),下位(11位〜26位以内),圏外(27位以下)にランクされる文書をキーワード検索の結果と比較すると次のような傾向が見られた.\begin{itemize}\item上位の文書集合がキーワード検索の結果と異なる割合いは,シソーラス,共起,同一ターム,形式段落の順に高い.ウィンドウ型では,順位にほとんど変化が見られずキーワード検索とほぼ同じ文書を同じ順位で選択している.\itemキーワード検索で下位または圏外にある正解文書を上位に上げる割合(正の働き)は,共起,同一ターム,シソーラス,形式段落の順に高い.逆に,上位にある正解文書の順位を下げる割合(負の働き)は,形式段落,シソーラス,共起,同一タームの順に高かった.\item不正解文書の順位を下げる割合(正の働き)は,上位どうしでは形式段落が高いが,上位から下位,圏外へ下げる割合は,シソーラス,共起,同一ターム,形式段落の順に高い.逆に,不正解文書の順位を上げる割合(負の働き)は,上位どうしでは,形式段落が高く,下位,圏外から上位へは,シソーラス,形式段落,同一ターム,共起の順に高い.\end{itemize}上記の結果から各パッセージ検索について次のような特徴が言える.ウィンドウ型は検索される文書集合や順位がキーワード検索とほとんど同じである.形式段落型は比較的狭い範囲で文書の順位が入れ換わっており,上位および下位の文書集合はキーワード検索とそれほど変わらない.3タイプの語彙的連鎖型は,他のパッセージ検索に比べて上位にランクされる文書集合が異なる割合が高い.しかし,シソーラスと同一タームによる語彙的連鎖型は,不正解文書が上位に含まれる割合も高い.一方,共起による語彙的連鎖型では,上位に正解文書が含まれる割合も他の2つの語彙的連鎖型に比べて高い.以上の特徴から,共起による語彙的連鎖型のパッセージ検索が,キーワード検索との統合によって精度を向上する可能性がもっとも高い手法であるといえる.次にパッセージ検索で選択されたパッセージのサイズについて考察する.表\ref{tab:bestparam}に示すように,選択されたパッセージの長さは各パッセージ検索手法によって異なっている.ウィンドウ型では260語が最適だった.これはほとんどの文書よりも大きく,パッセージの単位は文書全体とほぼ同じである.このことから今回の実験で,ウィンドウ型では有意なパッセージサイズを決定できていないと考えられる.形式段落では平均パッセージ長が43.4語であった.これは1段落当りの平均長28.2語よりも大きいが語彙的連鎖型に比べて小さい.また標準偏差を見るとサイズのばらつきも小さい.語彙的連鎖型では平均パッセージ長が共起,同一ターム,シソーラスの順に大きく,ばらつきも大きい.形式段落で選択されるパッセージ長は小さく,変化が少ないのに対して,語彙的連鎖では検索要求や文書によって選択されるパッセージの長さが大きく変化しており,語彙的連鎖型の方が柔軟なパッセージサイズを設定していると考えられる.3タイプの語彙的連鎖型パッセージ検索の比較では,共起によるものがキーワード検索に近い適合率,再現率を得ている.他の2つは共起の場合よりも適合率,再現率ともにかなり低い.語彙的連鎖型パッセージでは生成する語彙的連鎖の良否が精度に大きく関連する.シソーラスの分類を基に連鎖を計算する場合は,分類が粗過ぎるためシソーラス上では同一概念にあるが文書中ではあまり関連のないタームを含む可能性がある.このような連鎖がノイズになった可能性がある.逆に同一タームの反復を基に計算する場合は,連鎖を生成する基準が細か過ぎて文書中では関連があるが異なる表層形式をしたタームを連鎖に含めることができない.このため良い連鎖を得ることができなかった可能性がある.一方,タームの共起を基に計算する場合は,検索対象の文書に近いデータをコーパスとして使用したため,関連の高いタームによってうまく語彙的連鎖を生成できたと考えられる.実際に,キーワード検索との統合結果である図\ref{fig:ex6}において,ウィンドウ型の統合にはほとんど変化が見られない.また,形式段落型では単独の場合よりも適合率,再現率が向上しているが,キーワード検索単独の場合に比べ,統合によって精度が向上しているとは言えない.また,シソーラスと同一タームによる語彙的連鎖型の場合も,統合によって単独の場合より適合率,再現率が向上しているものの,キーワード検索単独の場合を上回っていない.一方,タームの共起関係による語彙的連鎖型では,統合によって良い精度を示すことができている.以上のことから,共起による語彙的連鎖に基づくパッセージ検索が最も優れたパッセージ検索であるため,文書全体の検索との統合によって,高い精度を得ることができたと言える. \section{おわりに} label{sec:owarini}本稿では,文書中の語彙的連鎖を利用して,検索要求と対象文書の適切な類似度を計算するパッセージ検索手法について述べた.他のパッセージ検索手法との比較により,タームの共起により作られた語彙的連鎖が,より優れたパッセージの決定ができ,キーワード検索との統合によって,高い適合率を得ることができることを示した.本稿で述べたパッセージ検索手法には,語彙的連鎖の連鎖長閾値,ギャップ長閾値など以外にもパラメータとして考えられる要素が存在する.例えば,共起スコアによって語彙的連鎖を生成する際の共起スコアの計算方法や語彙的連鎖を組み合せてパッセージを決定する際の連鎖の重なりに関するスコアなどは変化させて実験することができる.また,同一文書内で複数のパッセージが存在する場合に,パッセージと検索要求の類似度を最大のものではなく,上位$N$位のパッセージの合計スコアとする方法なども考えられる.今後パラメータとして考えられる要素を明らかにし,それらパラメータの検索精度への影響について検討していく必要がある.近年,パッセージ検索の技術はハイパーテキスト生成や要約生成の分野で応用され始めている.検索された複数のパッセージをリンクして階層構造化する\cite{Salton:94b},関連の高いパッセージ間から重要文を抜き出す\cite{Salton:94b},異なる文書間のパッセージをリンクする\cite{Dalamagas:98}などの手法が提案されている.本稿で述べた語彙的連鎖型のパッセージも同様にハイパーテキスト生成への応用が可能である.また.検索要求に強く関連する部分を意味的にまとまった単位で選択できることから,検索要求指向型の自動要約文生成への応用も考えられる.今後の課題として,より高度な文書検索の実現のためにパッセージ検索を応用することについて検討していく必要がある.\vspace{4mm}\acknowledgment本研究では,(社)情報処理学会・データベースシステム研究会が,新情報処理開発機構との共同作業により,毎日新聞CD-ROM'94データ版を基に構築した情報検索システム評価用テストコレクションBMIR-J2を利用させていただきました.感謝致します.また,「角川類語新辞典」の使用を許可して下さいました株式会社角川書店に感謝致します.本研究を進めるにあたり貴重な御助言を下さいました高野明彦氏,丹羽芳樹氏をはじめとする日立製作所基礎研究所ソフトウェア研究プログラムグループの皆様に感謝致します.また,共起計算プログラムの提供およびシステム実装に関する御助言を頂きました同グループの西岡真吾氏に感謝致します.\bibliographystyle{jnlpbbl}\bibliography{v06n3_05}\begin{biography}\biotitle{略歴}\bioauthor{望月源}{1970年生.1993年金沢大学経済学部経済学科卒業.1999年北陸先端科学技術大学院大学情報科学研究科博士後期課程修了.同年4月より,北陸先端科学技術大学院大学情報科学研究科助手.博士(情報科学).自然言語処理,知的情報検索システムの研究に従事.情報処理学会会員.}\bioauthor{岩山真}{1987年東京工業大学工学部情報工学科卒業.1992年同大学院理工学研究科博士後期課程修了.同年(株)日立製作所基礎研究所入所.博士(工学).自然言語処理,情報検索の研究に従事.情報処理学会,人工知能学会,AAAI,ACMSIGIR各会員.}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,現在に至る.工学博士.自然言語処理,知的情報検索システム,語学学習支援システム,語彙知識獲得に関する研究に従事.情報処理学会,人工知能学会,AAAI,ACL,認知科学会,計量国語学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V17N04-03
\section{はじめに} 自然文検索や翻訳,レコメンデーションなどに使用可能な解析システムを実現した.2000年に(南1974;白井1995)を参考にして文節に強さを決めて,同じ強さの文節では,連用修飾格は直後の用言に,連体修飾格は直後の体言に係るという規則を用いて構文解析プログラムを開発した.しかし実際の構文構造は,文節を飛び越して係る場合が見受けられた.文法的な情報だけでは不十分だと考え,意味的な情報の導入を検討した結果,シソーラスを組み込んで用語同士の意味的な距離を測って,その距離によって係り先を決定する手法を開発した.この解析システムを自然文検索に用いる場合,同じ内容のことを言っているのにいくつもの書き方が許されていることからしばしば検索漏れが発生する.この異形式同内容に対応するため,用語の標準化,係り受けの正規化を実現した.さらに,翻訳などで使用することを考えて,文節意図(4.1で述べる)を把握しやすくするために係り受けとそれに続く付属語の並びをまとめた形で管理した.手作業で収集した辞書に手作業でいろいろな情報を付加して機能を実現するという方式で開発した.統計的な手法は用いていない.文末に試用サイトのURLを示したので試用していただきたい. \section{構文構造の決定} (白井1995)では等しい階層的認識構造のあいだでは,構文構造を文節の連体修飾格は体言に,連用修飾格は用言にそれぞれ最初の文節に係るというアルゴリズムで決定していた.しかし複数の受けの候補があるときに,文法情報だけでは正しく決定されないという問題がある.(藤尾2000)では統計的な手法で決定しているが,様々な分野に対して大量の解析済みのデータを準備するのは容易ではない.そこで筆者らはシソーラス(5.1で述べる)を用いて用語同士の意味的な距離を計算して,その距離の近いところに係るという方式を採用した.\subsection{意味的な距離によって構文構造を決定する}\begin{figure}[b]\begin{center}\includegraphics{17-4ia4f1.eps}\end{center}\caption{連用修飾格での例}\label{fig:one}\end{figure}複数の受けの候補があるときに,図1のように意味的な近さ(2.2で述べる)で直後の文節を飛び越して係ることがある.「ネットで」という連用修飾格は,「行く」か「調べる」という用言に係る可能性がある.これまでは,直後にあるということで「行く」という文節に係るようになっていた.意味的な距離を測って比較すると次のようになる.\vspace{0.3zw}\begin{tabular}{ll}&意味的な距離\\ネットで—行く&$\infty$\\ネットで—調べる&1(筆者らのシステムでの距離)\end{tabular}\vspace{0.3zw}「ネットで」—「調べる」の方が意味的な距離が近いので,「ネットで」という文節は「調べる」という文節に係るようにした.{\bfseries連体修飾格での例}同様に連体修飾格でも意味的な距離で係り先を決める.図2では,「おいしい」という形容詞が文法情報だけで評価すると「長野の」か,「リンゴを」かどちらかの名詞の文節に係る可能性がある.同様に用語同士の意味的な距離を測って「リンゴを」という文節に係ける.\begin{figure}[t]\begin{center}\includegraphics{17-4ia4f2.eps}\end{center}\caption{連体修飾格での例}\label{fig:2}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{17-4ia4f3.eps}\end{center}\caption{並列構造の例}\begin{center}\small{\textless}P{\textgreater}は並列の意味である.\end{center}\label{fig:3}\end{figure}{\bfseries並列構造での例}(黒崎1992)では,並列構造を付属語の類似性で決めている.筆者らのシステムではシソーラスを用いて名詞の意味的な距離で決めている.「ビール」と「お酒」とは意味的な距離が近いので並列構造になるが,「先生」と「お酒」は並列構造にはならない.\subsection{用語同士の意味的な距離の定義}係り受け解析で係り先を決めるために2つの用語間の意味的な距離を定義した.本来,用語同士の意味的な距離はアナログ的なものである.極端な場合は人によっても異なるが,シソーラス上の用語同士の関係から表1のように定義した.係り受け語は慣用的によく係り受けを構成する用語の組み合わせをネットなどから手作業で収集した.間に挟まる助詞と良しあしの情報も持っている.また係り受け語には,係の用語に意味が指定できる(5.2に示す).\begin{table}[tb]\caption{意味的な距離の表}\input{04table01.txt}\end{table}{\bfseries例}(人)が飲む(人)は人の意味で人の意味の用語すべてを指定できる.筆者らのシソーラスでは直近の関係語との関係しか持っていない.関係語とさらにその関係語との意味的な距離はそれぞれの意味的な距離を加算することにした.狭義語のさらに狭義語との意味的な距離は$1+1$で$2$であると定義した.こうすることで,シソーラスにお互いの関係が登録されていない用語間の意味的な距離を定義した.経験的にあまり遠い関係の用語同士の距離は評価しても意味がないので一定の距離で足切りをしている.足切りの値は係り先を決めるときと,並列構造を決めるときとでは異なる.並列構造を決めるときのほうが,広く関係を評価している.並列構造を決めるときには,係り受け語は考慮しない.{\bfseries意味的な距離を測るときに多義語を区別している}意図したのと異なる意味の用語との距離を測ってしまうことが問題になることがある.例えば「お稲荷さん」には2つの意味がある.\vspace{0.3zw}\begin{tabular}{ll}意味的な距離\\お稲荷さん—稲荷神社&0(同義語)\\お稲荷さん—いなりずし&0(同義語)\end{tabular}\vspace{0.3zw}多義語をそれぞれの意味で区別しないで計算すると,「稲荷神社」と「いなりずし」とが0(同義語)になってしまう.\vspace{0.3zw}\begin{tabular}{l}稲荷神社—お稲荷さん—いなりずし\end{tabular}\vspace{0.3zw}このことを防ぐために,我々のシステムでは「お稲荷さん」の2つの意味を区別して別の用語として管理している.その結果「稲荷神社」と「いなりずし」との意味的な距離は未定義(無限大)になるので「いなりずしに参拝する」などという無意味な係り受けは排除される. \section{係り受けデータの整理} 日本語では同じことを言うのにいくつかの書き方が許されている.自然文検索などで漏れを少なくするために形を整理する.\subsection{用語の標準化}日本語は表記の揺れを含めて同義語が多い.(国分,岡野2010)著者と検索者とで異なる表記が使われることが検索漏れの一因になっている.検索対象データベース,検索文ともに係り受けにしたあとシソーラスを用いてなかの用語を言語工学研究所が推奨する用語に標準化する.誤った表記,差別語も標準の表記に置き換える.{\bfseries例1}\vspace{0.3zw}\begin{tabular}{ll}インタフェイス\\インタフェース(JIS)&$\Longrightarrow$インターフェース(言語工学研究所推奨)\\インターフェイス(学術用語)&\\インターフェース(新聞)&\end{tabular}\vspace{0.3zw}{\bfseries例2}\vspace{0.3zw}\begin{tabular}{ll}米,米国\\USA,U.S.A.&$\Longrightarrow$アメリカ(言語工学研究所推奨)\\合衆国,アメリカ合衆国&\\アメリカ&\end{tabular}\vspace{0.3zw}\subsection{係り受けを正規化}用言の使い方には限定用法と叙述用法がある.自然文検索で「青いリンゴ」(限定用法)と書いてある記事を「リンゴが青い」(叙述用法)という係り受けで検索しても検索できない.検索できるようにするために,原記事,検索文ともに係り受けは限定用法のものをすべて叙述用法に統一して,正規化する.\vspace{0.3zw}\begin{tabular}{llll}{\bfseries例}&青,い,リンゴ&→&リンゴ,が,青,い\\\end{tabular}\vspace{0.3zw}用言が動詞の場合は,動詞の性質によって名詞との間に挟む助詞が異なる.\vspace{0.3zw}\begin{tabular}{llll}{\bfseries例}&食べたリンゴ&→&リンゴを食べた(他動詞)\\&落ちたリンゴ&→&リンゴが落ちた(自動詞)\\\end{tabular}\vspace{0.3zw}当面,間に挟む助詞も,表2の4種類に限定している.\begin{table}[t]\caption{係り受けの関係の種類}\input{04table02.txt}\end{table} \section{情報の付与} 今後,本解析システムを様々な目的へ適用を進める予定である.そこで,辞書上の情報をもとに用途に応じて解析結果に必要な情報を付与する.\subsection{文節意図を付与する}解析の精度を上げるためと,翻訳などで必要な情報を取り出しやすくするために,「係り受けの語幹まで」と,それに続く「付属語の並び」をまとめて管理している.\vspace{0.3zw}\begin{tabular}{lll}{\bfseries例}&係り受け&付属語の並び\\&お酒を飲&んでください\end{tabular}\vspace{0.3zw}さらに,付属語の並びの持つ表3のような性質を「文節意図」と呼ぶこととする.これは一般に命題に含まれる否定・肯定,ボイス,テンスなどを,モダリティーと一緒にしたものである(益岡2000).乾健太郎「KURA」佐藤理史「醍醐プロジェクト」は,ここでいう係り受けの部分をより分かりやすくするための置き換えを説明したものであるので,本システムとは目的が異なる.{\bfseries文の文節意図の把握}翻訳以外でも,例えば内容が「依頼」の記事を集めようとしたとき,記事を解析して係り受けにまでしても,結局人手で読み直して分類する必要があった.文末の文節意図が「依頼」の文を含む記事を集めると,その目的が達成される.ほとんどの場合,文末の文節意図が文全体の文節意図を表している.{\bfseries文節意図と主語の推定}省略された主語は文脈を調べないと分からない場合もあるが,文節意図を調べると推測できる場合がある.翻訳などのために省略された主語の人称を推定する(4.3で述べる).同じ文節意図でも丁寧さの違いなどでいろいろな書き方がある.表4に「依頼」の文節意図の例を上げたが,ここに上げたのはその一部でこのほかにもいくつもの書き方がある.ひとつの文節が複数の文節意図を持つことがある.たとえば下記の文節は,「禁止」,「否定」,「疑問」,「推量」,「丁寧」の5つの文節意図を持っている.\vspace{0.3zw}\begin{tabular}{ll}{\bfseries例}&逢ってはいけないものでございましょうか\\\end{tabular}\vspace{0.3zw}付属語の組み合わせによって,文節意図は変化する\begin{table}[t]\caption{代表的な「文節意図」と人称の例}\input{04table03.txt}\end{table}\begin{table}[t]\caption{「依頼」の「文節意図」の例}\input{04table04.txt}\end{table}\vspace{0.3zw}\begin{tabular}{llll}{\bfseries例}&飲むつもりです&1人称&意志\\&飲むつもりですね&2人称&確認\end{tabular}\vspace{0.3zw}このような複雑な文節意図を持つ文節を扱うためと,解析の速度を速くするために,辞書上では数の付属語を「付属語の並び」としてまとめた形で管理している.筆者らのシステムでは解析辞書(5.2で述べる)に1,300,000行の「付属語の並び」を持っている.\subsection{良しあし,注目度を付与する}レコメンデーションでは,良しあしの情報を手がかりのひとつにする.単独で良しあしの決められる辞書上の用語には,良しあしのフラグを付けてある.\vspace{0.3zw}\begin{tabular}{llllll}{\bfseries例}&美しい&(良い)&&汚い&(悪い)\\&静寂&(良い)&&騒音&(悪い)\\&さっぱりする&(良い)&&さっぱりだ&(悪い)\end{tabular}\vspace{0.3zw}しかし,用語単独では良しあしが決められず,係り受け関係を調べないと決められないことがある.\vspace{0.3zw}\begin{tabular}{lllll}{\bfseries例}&寿命&が&延びる&(良い)\\&寿命&が&短い&(悪い)\end{tabular}\vspace{0.3zw}「寿命」,「延びる」,「短い」など用語は単独では良しあしの性質は持っていないが,組み合わされたときに良しあしの性質が出てくる.筆者らのシソーラスでは,「係り用語」と,「受けの用語」と,「間にはさまれた格助詞」と,「良しあし」の組で管理している.シソーラスの係り受け語を調べて係り受けの良しあしを決める.係り,受けのそれぞれの用語の同義語,狭義語をシソーラスで拡張して,係り受け語として登録されていない係り受けにも対応できるようにした.\vspace{0.3zw}\begin{tabular}{lll}{\bfseries例}&ビール&が冷えている\\&&麦酒が冷えている(ビールの同義語)\\&&生ビールが冷えている(ビールの狭義語)\end{tabular}\vspace{0.3zw}{\bfseries否定の文節}良しあしは否定があると逆転する.\vspace{0.3zw}\begin{tabular}{lllll}{\bfseries例}&ビール&が&冷えている&(良い)\\&ビール&が&冷えていない&(悪い)\end{tabular}\vspace{0.3zw}日本語では「ない」と書いてあっても否定だとは決められない(表5参照).否定になるかどうかも付属語の並びに記述してある(5.2で述べる).\begin{table}[b]\caption{「ない」を含んでいても否定にならない例}\input{04table05.txt}\end{table}{\bfseries注目度を付与して良しあしを辞書に登録することができる}「良しあし」の判断基準は普遍的なものではない.ユーザーによって異なることがある.また自社や競合他社の商品名のようにその評判をいつも注目しておきたい用語もある.筆者らのシステムはユーザーにより適切なレコメンデーションをするために,このような用語または係り受けに注目度,良しあしをつけて登録する仕組みが用意してある(表6参照).\begin{table}[t]\caption{良しあし,注目度の例}\input{04table06.txt}\end{table}\subsection{主語の人称の推定}日本語はしばしば主語が省略されるが,そのまま翻訳すると訳文があいまいになることが少なくない.またビジネス文書でも主語を解析して認識することは重要である.実際の文章では,待遇表現や文節意図で暗に主語の人称を示している.本論文ではこの点に注目して,文節意図の情報を利用することにより主語を推定する方法を説明する.{\bfseries待遇表現によって主語の人称を推定する}ビジネス文書では,待遇表現は適切に使用されているので有効な推定法である.解析辞書には文節がどの待遇表現になるかが記述してある.謙譲語が使われている動詞の主語は1人称である.{\bfseries例}申し上げたのは→(1人称が)申し上げたのは尊敬語が使われている動詞の主語は2人称ないしは3人称である.{\bfseries例}おっしゃったのは→(2人称が)おっしゃったのは{\bfseries文節意図によって主語の人称を推定する}待遇表現でも主語が推定できなかったときに文節意図によって主語の人称を推定する(表3参照).例えば,文節意図が「意志」のときは,主語は1人称である.{\bfseries例}飲みたい「意志」→(1人称が)飲みたい文節意図が「依頼」「指示」のときは,受けの主語は2人称である.{\bfseries例}送ってくれ「依頼」→(2人称が)送ってくれ \section{辞書} ブログやメールに代表されるような文書を扱うために,時事的な用語や省略語も積極的に登録している.送り仮名や訳語などの差異による異表記語も網羅的に収集した.よく使われる用語であれば誤った用語(例「キューピット」cupid)も積極的に採択してある.反面,古語や文学作品にしか出てこない用語は採択していない.すべての辞書は共通の品詞に分類してある.用言は語幹と活用形で管理している.\subsection{シソーラス}自然言語処理を目的とした一般語を主とするシソーラスである.いわゆる名詞だけでなく,動詞,形容詞,形容動詞,副詞,代名詞,擬態語さらに慣用句までを登録している.「広義語—狭義語」の関係は,自然言語処理で広義語に適用した規則が狭義語にも適用できるように同じ属性のものだけとした.「自動車」—「タイヤ」のような全体—部分関係は関連語とした.品詞の異なる用語,「自動詞」—「他動詞」の対応なども関連語とした.用語間の意味関係として,表7のものを用意した.詳細は(国分,岡野2010)を参照されたい.\begin{table}[b]\caption{シソーラスの用語同士の意味関係}\input{04table07.txt}\end{table}{\bfseriesシソーラスのその他の項目}エラーフラグ誤った表記,差別語品詞動詞の活用形を含めて24種類注目度レコメンデーションのためにユーザーがマークした用語.異なり語の数440,000語(竹内2008)は動詞の性質を分類するために動詞のそれぞれの性質で係り受けする名詞の一例を示したものである.一方筆者らのこのシソーラスでは,受けになる個々の用言を中心に,その用言の係りとなり得る名詞をなるべく網羅的に収集した.\subsection{解析辞書}ここで実現しているアルゴリズムは,辞書の情報で制御する方式をとっている.そのために必要になる情報が各用語に付与してある.{\bfseries自立語}自立語の構成要素である接頭辞,接尾辞,助数詞なども含む.語数240,000語品詞動詞の活用形も含めて24種類良しあし自立語の良しあしが記入してある否定フラグ{\bfseries名詞の意味}係り受け関係を調べるために次の10種類ある.1つの用語が複数の意味を重複して持てる.{\bfseries意味例}人先生,山田,雅子機関学校,研究所物机,物理現象も含む時昨年場所東京,駅前数量詞5本,少し抽象名詞芸術,甘さ動作名詞サ変動詞数詞9,二百不定代名詞,未知語などで意味が決定できないもの.{\bfseries用言}かっこ内は活用語尾である.{\bfseries品詞・活用形例}サ変名詞形勉強(する)サ変非名詞形察(する)ザ変信(ずる)一段生き(る)カ行五段書(く)カ行五段例外行(く)ガ行五段泳(ぐ)サ行五段押(す)タ行五段立(つ)ナ行五段死(ぬ)バ行五段遊(ぶ)マ行五段飲(む)ラ行五段走(る)ラ行五段例外おっしゃ(る)ワア行5段買(う)ワ行五段例外問(う)形容詞青(い)形容動詞閑静(な)形容動詞と/たる形矍鑠(たる)副詞さっぱり連体詞こんな打ち消しの動詞年端もいか(ない:助動詞)打ち消しの形容詞必要(ない:形容詞){\bfseries動詞の性質}自・他動詞限定用法から叙述用法に変換するときに挟む助詞を決定するため.移動性の動詞自動詞であるが「を格」をとる.例道を行く待遇表現尊敬語・謙譲語翻訳などで主語を決定するため.例おっしゃる(尊敬語)申し上げる(謙譲語){\bfseries付属語の並び}文節意図を付与するために助詞,助動詞だけでなく,いわゆる機能表現とその組み合わせをまとめた形で扱っている.{\bfseries付属語}助詞助動詞とその活用語尾形式名詞機能表現のための動詞およびその活用語尾例えば推量を表す「〜かも知れない」というときの「知れる」という動詞.機能表現のための形容詞およびその活用語尾行数1,300,000行エラーフラグ間違った表記文節意図表3参照並列フラグ並列を構成しうるかどうか待遇表現尊敬語・謙譲語否定フラグなど \section{結果} CGM(消費者生成メディア)の例としてYahoo!知恵袋データの2004年4月分の質問記事(5,957記事,15,883文)を用いて,評価した.まず,筆者らのシステムとCabochaとの解析精度を比較した.会話体の文章なので両者ともあまり良い結果はでなかったが正解率はCabochaを13.8ポイント上回っている.\vspace{0.3zw}\begin{tabular}{lccc}&正しい&間違い&正解率\\筆者らのシステム&11,690文&4,193文&73.6\%\\Cabocha&\phantom{0}9,498文&6,385文&59.8\%\end{tabular}\vspace{0.3zw}両システムの処理時間も比較してみた.筆者らのシステムはシソーラスを参照しているので,処理が遅くなる恐れがあったが,両者はほとんど差がなかった.これは,筆者らのシステムでは付属語をまとめた形で扱うことによって,辞書へのアクセス回数を減らしたためと考えられる.\vspace{0.3zw}\begin{tabular}{lc}筆者らのシステム&1分39秒\\Cabocha&1分30秒\end{tabular}\vspace{0.3zw}次に,筆者らのシステムでシソーラスを組み込んで解析した結果と,組み込まないで解析した結果との差を調べた.係り受け構造の違いと,並列構造の違いとに分けて集計した.しかし,シソーラスを組み込んだ結果,シソーラスを組み込まないときには正しく解析できた結果を,かえって間違った構造にしてしまった場合もあった.差分の生じた172文の内訳は改善160文,悪化12文,差引148文全体15,883文に対して0.9\%の向上が観測された.\vspace{0.3zw}\begin{tabular}{lccc}&係り受け&並列&合計\\正しい構造にした&106文&54文&160文\\間違った構造にしてしまった&\phantom{00}8文&\phantom{0}4文&\phantom{0}12文\\合計&114文&58文&172文\\\end{tabular}\vspace{0.3zw}{\bfseries成功例}「音楽がいつまでたっても始まりません.」\vspace{1\baselineskip}\begin{center}\includegraphics{17-4ia式1.eps}\end{center}\vspace{1\baselineskip}「音楽/が/始ま/」という係り受けが登録されているので,「音楽が」という文節が「たっても」という文節ではなく,「始まりません」という文節に係った.{\bfseries間違った構造にしてしまった例}「警察の方に話がいっているかわかりません」\vspace{1\baselineskip}\begin{center}\includegraphics{17-4ia式2.eps}\end{center}\vspace{1\baselineskip}「話/が/分かる/」という係り受けが登録されていたため,「話が」という文節が「いっているのか」という文節ではなく,「わかりません」という文節に係ってしまった.下記のサイトから使って見られるようにしてあるので,試用して評価していただくことを希望する.http://www.gengokk.co.jp/koubun/ \section{おわりに} CGMのような会話体の文章を扱うためには,より一層の誤りを含んだデータに対応できることが要求される.辞書は手作業で収集したもので,漏れも多いと思う.係り受けがシソーラスに登録されていないために,今回の評価の対象にならなかった記事もあると思われる.今後大規模コーパスを解析して,係り受けを抽出してシソーラスの係り受け語を充実させていく計画である.高速化についても現在改造中で近日中に発表する予定である.全世界に言語の数は多い.現在までに日本語から外国語への翻訳プログラムが未着手の言語を対象に,翻訳プログラムが作れないかと思っている.今後,外部の人を含めて実用化を進めたいと思っている.自然文検索や翻訳だけでなく,いろいろな応用が考えられる.係り受けだけで「良しあし」を決定しているが,3つ以上の文節が組み合わさって「良しあし」が決定される場合がある.これから充実させていく必要がある.\acknowledgment本稿に対して有益なご意見,ご指摘をいただきました査読者の方に感謝いたします.また国立情報学研究所が提供する「Yahoo!知恵袋-研究機関提供用データ」を利用させていただいたことを,感謝いたします.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{益岡隆志}{益岡隆志}{2000}]{Book_05}益岡隆志\BBOP2000\BBCP.\newblock\Jem{“命題とモダリティの境界を求めて”日本語文法の諸相}.\newblockくろしお出版.\bibitem[\protect\BCAY{乾健太郎}{乾健太郎}{}]{Web_10}乾健太郎.\newblock\BBOQKURA\BBCQ,\Turl{http://cl.aist-nara.ac.jp/kura/doc/publication\texttt{\symbol{"5F}}list.html}.\bibitem[\protect\BCAY{宮崎和人\JBA安達太郎\JBA野田春美\JBA高梨信乃}{宮崎和人\Jetal}{2002}]{Book_03}宮崎和人\JBA安達太郎\JBA野田春美\JBA高梨信乃\BBOP2002\BBCP.\newblock\Jem{“モダリティ”新日本基本文法選書}.\newblockくろしお出版.\bibitem[\protect\BCAY{国分芳宏\JBA岡野弘行}{国分芳宏\JBA岡野弘行}{2010}]{Book_01}国分芳宏\JBA岡野弘行\BBOP2010\BBCP.\newblock\Jem{複数の観点で分類した自然言語処理用シソーラス}.\newblock自然言語処理,\textbf{17}(1),pp.247--263.\bibitem[\protect\BCAY{黒崎禎夫}{黒崎禎夫}{1992}]{Book_07}黒崎禎夫\BBOP1992\BBCP.\newblock\Jem{長い日本語文における並列構造の推定}.\newblock情報処理学会論文誌,\textbf{33}(8),pp.1022--1031.\bibitem[\protect\BCAY{佐藤理史}{佐藤理史}{}]{Web_11}佐藤理史.\newblock\JBOQ醍醐プロジェクト\JBCQ,\Turl{http://sslab.nuee.nagoya-u.ac.jp/~sato/research/daigo.html}.\bibitem[\protect\BCAY{仁田義雄}{仁田義雄}{1991}]{Book_04}仁田義雄\BBOP1991\BBCP.\newblock\Jem{日本語のモダリティと人称}.\newblockひつじ書房.\bibitem[\protect\BCAY{竹内孔一}{竹内孔一}{2008}]{Book_08}竹内孔一\BBOP2008\BBCP.\newblock\Jem{動詞項構造シソーラス}.\newblock竹内孔一HP.\bibitem[\protect\BCAY{藤尾正和}{藤尾正和}{2000}]{Book_09}藤尾正和\BBOP2000\BBCP.\newblock\Jem{語彙統計モデルに基づく日本語依存構造解析}.\newblock奈良先端科学技術大学院大学博士情報科学研究科博士論文.\bibitem[\protect\BCAY{南不二男}{南不二男}{1974}]{Book_02}南不二男\BBOP1974\BBCP.\newblock\Jem{現代日本語の構造}.\newblock大修館書店.\bibitem[\protect\BCAY{白井諭}{白井諭}{1995}]{Book_06}白井諭\BBOP1995\BBCP.\newblock\Jem{階層的認識構造に着目した日本語従属節間の係り受け解析の方法とその精度}.\newblock情報処理学会論文誌,\textbf{36}(10),pp.2353--2360.\end{thebibliography}\begin{biography}\bioauthor{国分芳宏(正会員)}{1966年東京理科大学理学部応用物理学科卒.同年日本科学技術情報センター入社.1985年株式会社言語工学研究所設立代表取締役就任.自然言語処理,シソーラス作成に従事情報処理学会会員.}\bioauthor{梅北浩二}{1990年日本電子専門学校卒.1996年株式会社言語工学研究所入社自然言語処理開発に従事.}\bioauthor{松下栄一}{1999年東京理科大学大学院工学研究科工業化学専攻卒.2004年株式会社言語工学研究所入社.自然言語処理開発に従事.}\bioauthor{末岡隆史}{1975年東京理科大学理工学部電気工学科卒.1987年株式会社言語工学研究所入社.自然言語処理開発に従事.}\end{biography}\biodate\end{document}
V12N06-02
\section{はじめに} 自由に閲覧することができる電子化文書の数が膨大になるにつれ,その中からユーザが必要とする情報を効率的に探し出すことが困難になってきている.このため,ユーザからの質問に対して明確な回答を自動的に提示する質問応答(QA)技術が注目されている.質問応答に用いる知識を人工言語で記述したUC\cite{thesis:wilensky84}などの質問応答システムでは,十分な記述力をもつ人工言語の設計のむずかしさ,知識ベースの高い作成コストといった問題があった.そこで,大量の電子化文書が利用可能になった1990年代からは,自然言語で記述された文書を質問応答システムの知識として利用しようとする研究が行われている\cite{proc:hammond95}.近年では,TREC\cite{web:TREC}やNTCIR\cite{web:NTCIR}といった評価型ワークショップも行われ,新聞記事やWWW文書などを知識として用いる質問応答システムの研究もさかんである.しかし,これらの研究の多くは事実を問う質問(what型の質問)を対象としていて,方法や対処法を問う質問(how型の質問)を扱うものは\cite{proc:higasa99}\cite{proc:kiyota02}などまだ少ない.これは,事実を問う質問に答えるための知識に比べ,方法や対処法を問う質問に答えるための知識(「こんな場合にはこうする」など)を獲得することがむずかしいからである.日笠らや清田らは,方法や対処法を問う質問に答えるための知識としてFAQ文書やサポート文書が利用できることを示した\cite{proc:higasa99}\cite{proc:kiyota02}.しかしこれらの研究では,FAQ文書やサポート文書がもつ文書構造を利用することを前提としていた.FAQ文書やサポート文書以外の,より多くの文書を知識として利用するためには,文書構造以外の手がかりを利用する方法について研究しなければならない.そこで本研究では最初に,方法や対処法を問う質問(how型の質問)に質問応答システムが答えるための知識を,メーリングリストに投稿されたメールからその質問や説明の中心になる文(重要文)を取り出すことによって獲得する方法について述べる.次に,メーリングリストに投稿されたメールから獲得した知識を用いる質問応答システムについて報告する.作成したシステムは自然な文で表現されたユーザの質問を受けつけ,その構文的な構造と単語の重要度を手がかりに質問文とメールから取り出した重要文とを照合してユーザの質問に答える.最後に,作成したシステムの回答と全文検索システムの検索結果を比較し,メーリングリストに投稿されたメールから方法や対処法を問う質問に答えるための知識を獲得できることを示す. \section{方法や対処法を問う質問に答える質問応答システムで用いる知識} 清田らは,パーソナルコンピュータの利用者を対象にした質問応答システムを作成していて,そこで入力される質問を以下の3種類に分類している\cite{proc:kiyota02}.\begin{enumerate}\itemwhat型(事実を問うもの)\itemhow型(方法を問うもの)\itemsymptom型(症状を示し,その対処法を問うもの)\end{enumerate}自然言語文書を知識として利用する質問応答システムではwhat型の質問を取り扱うものが多く,how型とsymptom型の質問を扱うものは少ない.これは,方法や対処法を問うhow型やsymptom型の質問に答えるためには,「こんな場合(条件)にはこうする(説明)」といった,条件と説明を組み合わせた知識が必要だからである.こうした知識を自然言語で記述された文書から取り出すのは,事実を問うwhat型の質問に答えるための知識を取り出すのに比べてむずかしい.日笠らや清田らは,方法や対処法を問う質問に答えるための知識として,FAQ文書やサポート文書が利用できることを示した\cite{proc:higasa99}\cite{proc:kiyota02}.しかしこれらの研究では,FAQ文書やサポート文書がもつ文書構造を利用することを前提としていた.FAQ文書やサポート文書以外の,もっと多くの文書から「こんな場合(条件)にはこうする(説明)」という知識を獲得するためには,文書構造以外の手がかりを用いる方法を検討する必要がある.例えば,メーリングリストや電子掲示板にはさまざまな分野における質問と回答がくりかえし行われるものがあり,そこでは「こんな場合にはこうする」という情報が活発に交換されている.こうしたメディアでやりとりされている電子化文書から,方法や対処法を問う質問に答えるための知識を獲得する方法について検討することは重要である.大量の電子化文書から知識を獲得する場合,取り出した知識が正しいかどうかという問題もある.質問応答システムの知識として利用することを前提に作成した文書であるならば,あるいはFAQ文書やサポート文書のようなものならば,誤った情報がふくまれるおそれは少ない.しかし,インターネットで公開されている大量の電子化文書を質問応答システムの知識として利用する場合,それらの中に誤った情報や矛盾した内容がふくまれるおそれは十分にある.したがって,それらの文書から取り出した知識が正しいかどうかについての情報も重要である.質問に直接答えるための知識(例えば,how型の質問に対する「こんな場合にはこうする」という知識)以外にも,質問応答システムにとって重要な知識がある.例えば質問応答システムでは,ユーザの質問の不明確さやあいまいさが問題になる.こうした質問には,システムがユーザに問い返しを行うことが有効である\cite{proc:higasa99}\cite{proc:kiyota02}.このため,どのような問い返しを行うのかについての知識を用意することは重要である. \section{メーリングリストに投稿されたメールからの重要文の抽出} \label{sec:メーリングリストに投稿されたメールからの重要文の抽出}\subsection{メーリングリストに投稿されたメール}メーリングリストには質問と回答のメールが繰り返し投稿されるものがある.たとえば,Vinelinuxに関心のある人たちが情報を交換しているメーリングリスト(VineUsersML\footnote{http://vinelinux.org/ml.html})では質問と回答のメールがさかんに投稿されている.われわれはこうしたメーリングリストに投稿されたメールから質問応答システムで用いる知識を獲得することを考えた.その有利さを以下に示す.\begin{itemize}\item特定のドメインについての質問と回答の例を集めやすい\itemあいまいな質問に対する問い返しの例も集めやすい\item情報のすばやい更新が期待できる\item回答内容の確認が行われる\item回答内容に誤りがあると,その誤りが指摘されることが多い\end{itemize}VineUsersMLに投稿されるメールを調査すると,以下の4種類に分けることができた.\begin{description}\item[質問メール]ある問題について,最初に投稿される質問のメール(例:図\ref{fig:VineUsersMLに投稿された質問メール間の参照関係の例}のQ1).質問メールでの質問は,質問応答システムにおけるユーザの質問と同様に,その内容が不明確だったりあいまいな場合もある.\item[直接回答メール]質問メールに直接回答するメール(例:図\ref{fig:VineUsersMLに投稿された質問メール間の参照関係の例}のDA1,DA2).直接回答メールは,質問メールの質問にそのまま答える場合と,質問内容を問い返す場合がある.\item[質問者返信メール]直接回答メールに質問メールの投稿者が直接返信するメール(例:図\ref{fig:VineUsersMLに投稿された質問メール間の参照関係の例}のQR1).質問者返信メールでは,直接回答メールでよせられた回答にしたがって行った作業の報告や問い返しに対する回答が述べられている.直接回答メールの回答に誤りがある場合には,それを指摘することもある.\item[その他](例:図\ref{fig:VineUsersMLに投稿された質問メール間の参照関係の例}のO1,O2,O3)\end{description}メーリングリストに投稿されたメールがこれら4種類のどのメールであるのかは,メール間の参照関係と投稿者のメールアドレスを利用すれば自動的に判定することができる.例えば,図\ref{fig:VineUsersMLに投稿された質問メール間の参照関係の例}のQ1は参照するメールがないので質問メール,DA1とDA2は質問メールであるQ1を参照しているので直接回答メール,そしてQR1は直接回答メールDA1を参照していて,投稿者のメールアドレスが質問メールQ1のものと同じであるので質問者回答メールであると判定できる.\begin{figure}[t]\leavevmode\begin{center}\epsfile{file=fig/mails.eps,scale=0.5}\caption{VineUsersMLに投稿されたメール間の参照関係の例}\label{fig:VineUsersMLに投稿された質問メール間の参照関係の例}\end{center}\end{figure}\begin{figure}[t]\begin{center}質問メールとその重要文の例\vspace{1mm}\epsfile{file=fig/doc921.eps,scale=0.3}直接回答メールとその重要文の例\vspace{1mm}\epsfile{file=fig/doc929.eps,scale=0.3}質問者返信メールとその重要文の例\vspace{1mm}\epsfile{file=fig/doc993.eps,scale=0.3}\caption{VineUsersMLに投稿されたメールと重要文の例(破線で囲まれた文が重要文)}\label{fig:VineUsersMLに投稿されたメールと重要文の例}\end{center}\end{figure}VineUsersMLなどのメーリングリストに投稿されたメールではさまざまな形式で質問や回答が表現されていて,FAQ文書やサポート文書のような一定の文書構造がない.しかし,質問・説明の中心になる文があった.図\ref{fig:VineUsersMLに投稿されたメールと重要文の例}に示すメールの例では破線で囲まれた文が質問・説明の中心になる文である.こうした文を重要文とよぶことにする.われわれは,メーリングリストに投稿されたメールから重要文を取り出すことで,方法や対処法を問う質問(how型の質問)に質問応答システムが答えるための知識を獲得できるのではないかと考えた.すなわち,メーリングリストに投稿されたメールを対象に,\begin{itemize}\item質問メールと直接回答メールから取り出した重要文を用いて「この場合にはこうする」という知識を獲得する.\item質問者返信メールから取り出した重要文を用いて「この場合にはこうする」という知識の正しさについての情報を獲得する.\item質問メールと直接回答メールから取り出した重要文を用いて,あいまいな質問とそれに対する問い返しの例を獲得する.\end{itemize}VineLinuxMLに投稿されたメールを調査すると,質問メール,直接回答メール,質問者返信メールの重要文には次のような特徴があった.\begin{enumerate}\item質問メールの重要文はsubjectに含まれる名詞および未定義語を含むことが多い.これは,質問メールの重要文もsubjectも,そのメールの質問内容のよい要約になっていることが多いからである.\itemそれぞれのメールの重要文は,そのメールに直接返信しているメールで引用されることが多い.図\ref{fig:VineUsersMLに投稿されたメールと重要文の例}では,質問メールと直接回答メールの重要文がそれぞれ直接回答メールと質問者返信メールで引用されている.\itemそれぞれのメールの重要文には典型的な表現がある.例えば質問メールの重要文には以下に示すような典型的な表現があった.\begin{itemize}\item文末に「ません」「しょうか」「います」「ました」がある.(例)Bluefishで日本語フォントの表示ができ\underline{ません}.\item文中に「困って」「トラブって」「ご指導」「?」がある.(例)数日前から一般ユーザログインでxstartできなくて\underline{困って}います.\item行頭に#がない.行頭の#は,その行の記述については無視することを要請する記号である.(例)\underline{#}とても初歩な質問でスミマセン\end{itemize}\itemそれぞれのメールの重要文は,本文のはじめに近い位置にあらわれることが多い.ただし,直接回答メールや質問者返信メールの重要文は,それらのメールが返信しているメールの重要文を引用している場合には,その引用している重要文の後にあらわれることが多い.図\ref{fig:VineUsersMLに投稿されたメールと重要文の例}の直接回答メールの例では,先頭の4行が引用文で,そこでは質問メールの重要文が引用されている.この引用のあとに,直接回答メールの重要文(破線で囲まれた文)がある.\end{enumerate}\subsection{メーリングリストに投稿されたメールからの重要文の抽出処理}メーリングリストに投稿されたメールから重要文を抽出する処理の概要を図\ref{fig:メーリングリストに投稿されたメールから重要文を取り出す処理}に示す.前処理を行ってメールから取り出した文に対し4つの規則を適用して重要度を計算する.最も重要度が高い文を重要文として各メールから1文ずつ取り出す.\begin{figure}[t]\begin{center}\epsfile{file=fig/jyu.eps,scale=1.0}\caption{メーリングリストに投稿されたメールから重要文を取り出す処理}\label{fig:メーリングリストに投稿されたメールから重要文を取り出す処理}\end{center}\end{figure}\subsubsection{前処理}メールの各文の重要度を評価する前に,以下の前処理を行う.\begin{enumerate}\renewcommand{\labelenumi}{}\itemメーリングリストに投稿されたメールを対象に,メール間の参照関係および投稿者のメールアドレスを利用して,\begin{itemize}\item質問メール\item直接回答メール\item質問者返信メール\end{itemize}を取り出す.\item取り出したメールの本文を形態素解析する.ただし,以下のものは形態素解析を行う前に取り除く.\begin{itemize}\item#ではじまる行\item引用記号(例:>)ではじまる行\item()で囲まれている文字列\end{itemize}図\ref{fig:VineUsersMLに投稿されたメールと重要文の例}の直接回答メールの例では,先頭の4行を引用部分として取り除き,残りの2文について形態素解析を行う.また,「実行するとSegmentationfault(coredumped)してしまいます」という文の場合は,「(coredumped)」の部分をとりのぞいてから形態素解析を行う.形態素解析にはJUMAN\cite{man:juman98}を用いる.\item形態素解析を行った文が,そのメールに直接返信しているメールで何回引用されているか記述する.\item質問メールのsubjectを形態素解析し,その結果から名詞と未定義語を取り出す.\end{enumerate}\begin{table}[tbp]\begin{center}\caption{メーリングリストに投稿されたメールからの重要文抽出に用いる手がかり表現}\label{tab:重要文抽出に用いた手がかり表現}\vspace{3mm}1.質問メールからの重要文抽出に用いる手がかり表現\begin{enumerate}\item「ません」「しょうか」「います」「ました」「?」で終わる文\item「困って」「トラブって」「ご指導」を含む文\item接続詞「が」「しかし」を含み,「ません」「しょうか」「います」「ました」で終わる文\end{enumerate}\vspace{4mm}2.直接回答メールからの重要文抽出に用いる手がかり表現\begin{enumerate}\item以下の表現で終わる文\begin{itemize}\item「ますか」(していますか,どうなっていますか,など)\item「ませんか」(ありませんか,いませんか,など)\item「ですか」(いかがですか,ってことですか,ないですか,など)\item「でしょうか」(どうでしょうか,いかがでしょうか,など)\item「よね」(ますよね,ですよね,など)\item「できます」「できません」「できています」「ないようです」「簡単です」「可能です」\item「しました」「いません」「ます」(してます,います,あります,など)\item「ください」\item「いかがでしょう」\item「すればよい」\item「です」「はず」「と思う」「とか」\end{itemize}\item以下の語を含む文\begin{itemize}\item「あれば」「すれば」「ならば」「ときは」「したら」\item「では」\end{itemize}\end{enumerate}\vspace{4mm}3.質問者返信メールからの重要文抽出に用いる手がかり表現\begin{enumerate}\item以下の表現で終わる文\begin{itemize}\item「です」「ました」(できました,いきました,なりました,など)\item「ません」「だめでした」\item「ありがとう」「ありがとうございました」\item「ますか」「ます?」\end{itemize}\end{enumerate}\end{center}\end{table}\subsubsection{重要度の計算}質問メール,直接回答メール,および質問者返信メールから取り出した文に対し,以下の4つの規則を順に適用して重要度を計算する.そして,それぞれのメールから最も重要度が高い文を重要文として取り出す.\begin{description}\item[{\bf規則1:}][subjectの規則]この規則は,質問メールの本文から取り出した文にのみ適用する.subjectに含まれている名詞・未定義語を含む文には1点を加える.\item[{\bf規則2:}][手がかり表現の規則]表\ref{tab:重要文抽出に用いた手がかり表現}に示す手がかり表現を$N$個含む文には$N$点を加える.\item[{\bf規則3:}][引用文の規則]メールの本文から取り出した文で,そのメールに直接返信しているメールで引用されている回数が最も多い文に1点を加える.\item[{\bf規則4:}][位置の規則]規則1〜3を適用した時点で最高の重要度が与えられている文が2つ以上ある場合,最も先頭に近い文に1点を加える.ただし,直接回答メールあるいは質問者返信メールで,それが返信しているメールの重要文を引用している場合は,その引用している重要文の後で最も先頭に近い文に1点を加える.\end{description}規則1,2,4は,新聞記事などを対象にして用いられている重要文抽出手法をメールに適用したものである\cite{thesis:okumura99}.一方,規則3は,引用が多用されるメールから重要文を抽出するための規則である.\subsection{重要文抽出の実験結果と検討}本研究では,VineUsersMLおよびperl質問箱\footnote{http://www.freeml.com/info/perl@freeml.com(プログラミング言語perlについて話しあうメーリングリスト)}というメーリングリストに投稿されたメールを対象に実験を行った.VineUsersMLに投稿されたメール50846通には,\begin{itemize}\item質問メール(8964通)\item直接回答メール(13094通)\item質問者返信メール(4276通)\end{itemize}が含まれていた.この中から,返信がある質問メール127通を無作為に取り出し,それらの直接回答メール(184通)と質問者回答メール(75通)も取り出した.同様に,perl質問箱に投稿されたメール6086通から返信がある質問メール36通を無作為に取り出し,それらの直接回答メール(58通)と質問者回答メール(20通)も取り出した.それらに対する重要文抽出の結果を表\ref{tab:重要文抽出の結果}に示す.重要文抽出に失敗した理由を以下に示す.\begin{itemize}\item表\ref{tab:重要文抽出に用いた手がかり表現}に示した手がかり表現を含まない重要文があった.\item重要文ではない文で表\ref{tab:重要文抽出に用いた手がかり表現}に示した手がかり表現を含む文があった.\item質問あるいは回答の中心になる文が複数の文で構成されていて,それらのうち1文しか取り出せなかった.\item重要文中に誤字・脱字があった.\end{itemize}\begin{table}[tbp]\leavevmode\begin{center}\vspace{-3mm}\caption{重要文抽出の結果}\label{tab:重要文抽出の結果}\vspace{2mm}\begin{tabular}[t]{cc}\begin{tabular}{lcc|c}\multicolumn{4}{c}{VineUsersML}\\メールの種類&正&誤&合計\\\hline質問メール&96&31&127\\直接回答メール&153&31&184\\質問者返信メール&45&30&75\\\end{tabular}&\begin{tabular}{lcc|c}\multicolumn{4}{c}{perl質問箱}\\メールの種類&正&誤&合計\\\hline質問メール&28&8&36\\直接回答メール&42&16&58\\質問者返信メール&10&10&20\\\end{tabular}\end{tabular}\end{center}\end{table}つぎに,重要文抽出の結果が「こんな場合にはこうする」という条件と説明の知識として適切であるかどうか,\begin{itemize}\item文のつながりが正しいかどうか\itemその知識が問題解決に有効かどうか\end{itemize}という点に注意して検討を行った.例えば,以下の例では質問メール(質問A)の重要文と直接回答メール(直接回答A--1)の重要文とでは正しく文がつながっている.一方,(質問A)と(直接回答A--2)の重要文の間では文のつながりがない.しかし,(質問A)と(直接回答A--1)の知識は問題解決に役立つとして,この質問メールと回答メールからは有効な知識が獲得できたと判定した.\begin{verbatim}(質問A)veditは,存在しないファイルをひらこうとするとコアはきますか├(直接回答A-1)はい,コアダンプします└(直接回答A-2)将来,GNOMEはインストール後すぐつかえるのですか?\end{verbatim}VineUsersMLから取り出した127個の質問メールとそれらの直接回答メールを調べると,92例で有効な知識の獲得に成功し,35例で失敗した.一方,perl質問箱から取り出した36個の質問メールとそれらの直接回答メールを調べると,23例で有効な知識の獲得に成功し,13例で失敗した.知識の獲得に失敗した原因を以下に示す.\begin{itemize}\item質問メールからの重要文抽出に失敗した(VineUsersML:21例,perl質問箱:8例)\item直接回答メールからの重要文抽出に失敗した(VineUsersML:14例,perl質問箱:5例)\end{itemize}質問メールからの重要文抽出に失敗したことが原因で知識の獲得に失敗した例はそれほど深刻ではない.誤って抽出した文の多くは質問文ではなく,質問応答システムでユーザの質問とマッチする可能性が低いからである.一方,直接回答メールからの重要文抽出に失敗したことが原因で知識の獲得に失敗した例はより深刻である.質問メールから取り出した文は質問文として適切で,質問応答システムでユーザの質問とマッチする可能性が高いからである.その場合,直接回答メールから誤って抽出した,回答や問い返しとして不適切な文がユーザに示されるおそれがある.図\ref{fig:vinelinuxMLから取り出した知識の例}に,VineUsersMLに投稿されたメールからの重要文抽出によって獲得した「こんな場合にはこうする」という知識の例を示す.\begin{figure}[t]\begin{verbatim}(質問1)サウンドの設定でこまっています.├(直接回答1-1)まずは,sndconfigを実行してみてください.│└(質問者返信1-1)これでうまくいきました└(直接回答1-2)sndconfigで,しあわせになりました.\end{verbatim}\begin{verbatim}(質問2)パーティション設定時にSCSIディスクが表示されないので,インストール│できません.├(直接回答2-1)えーと,「パーティション設定時にSCSIディスクが表示されない」│というのはdiskdruidでの話でしょうか└(直接回答2-2)typicalproblemsに書いてある問題じゃないでしょうか\end{verbatim}\begin{verbatim}(質問3)1.0.6のパッチはありますか.└(直接回答3-1)gtk+-1.0.4を利用するほうがいいでしょう.\end{verbatim}\begin{verbatim}(質問4)ES1868のサウンドカードをつかっていますが,音が大きすぎてこまっています.└(直接回答4-1)xmixerを使って下さい.└(質問者返信4-1)xmixerもxplaycdもインストールされていないみたいです.\end{verbatim}\begin{verbatim}(質問5)いくつか問題がありますが,この件のレポートはどこに送ればいいのですか.└(直接回答5-1)このMLで構いません.\end{verbatim}\begin{verbatim}(質問6)これはどういう意味ですか.└(直接回答6-1)ちゃんと質問しないと,だれも答えられません.\end{verbatim}\caption{VineUsersMLに投稿されたメールからの重要文抽出によって獲得した,\\方法や対処法を問う質問に答えるための知識の例}\label{fig:vinelinuxMLから取り出した知識の例}\end{figure}図\ref{fig:vinelinuxMLから取り出した知識の例}の質問メール(質問1)には,2つの直接回答メール(直接回答1--1)と(直接回答1--2)があった.どちらのメールでも質問者にsndconfigを使うことをすすめているが,(直接回答1--1)はその内容が質問者返信メール(質問者返信1--1)によって保証されている.方法や対処法を問う質問に対する回答候補は複数個ある場合が多く,この場合のように質問者返信メールによる情報内容の保証があると,ユーザが情報をしぼりこむのに役立つ.図\ref{fig:vinelinuxMLから取り出した知識の例}の質問メール(質問2)と(質問3)からは,質問としてはあいまいで不完全な文が重要文として取り出されている.(質問2)のメールでは,ハードディスクのパーティションの設定についての質問が行われていた.しかし,この質問メールでの質問そのものがあいまいであったため,そこから取り出した重要文もまたあいまいな内容になっていた.具体的には,質問者がどんなプログラムを利用してハードディスクのパーティションの設定したのかについての情報が欠けていた.これに対して,(直接回答2--1)の回答者は,質問者が利用したプログラムがdiskdruidであるかどうか問い返している.この例を知識として用いれば,(質問2)に類似するあいまいな質問に対して質問応答システムは,ユーザにdiskdruidを利用したのかどうか問い返すことができる.実験では,このようなあいまいな質問に対する問い返しの例がVineUsersMLで15例,perl質問箱で3例あった.(質問3)では,gtk+についての質問が行われていた.この質問メールでの質問にはあいまいさはなかったが,質問の中心になる文が複数あった.そのうち1文だけを重要文として取り出したため,何について質問しているのかという情報(この場合は,gtk+)が失われていた.しかし,(直接回答3--1)から取り出した重要文がこの失われた情報を補っている.そこで,この例では(質問3)からの重要文抽出には失敗と判定したが,(質問3)と(直接回答3--1)から抽出した重要文を組み合わせた知識については正しいと判定した.実験では,このような例がVineUsersMLで10例,perl質問箱で1例あった.(質問4)の質問に対する(直接回答4--1)の回答は(質問4)の質問者にとっては適切な内容ではなかった.(質問4)の質問者は(直接回答4--1)の回答内容を試し,問題が解決しなかったことを(質問者返信4--1)で報告している.実験では,このように回答の誤り・不適切さを指摘する例がVineUsersMLで4例あった.(質問5)と(質問6)では,分野に依存しない質問が行われている.したがって,これらの例はわれわれの方法が分野に依存したものではないことを示している.ただし,(質問6)に対する(直接回答6--1)の回答はあまり丁寧な文ではない.このような例を利用してシステムが回答すると,ユーザにそのシステムを利用しようとする意欲を失わせるおそれがある.また,(質問5)と(質問6)にはそれぞれ照応表現が含まれていて,その先行詞が取り出されていない.こうした文は,質問応答システムがユーザの質問文と照合するのに失敗するおそれがある. \section{メーリングリストに投稿されたメールを利用した質問応答システム} \label{sec:メーリングリストに投稿されたメールを利用した質問応答システム}メーリングリストに投稿されたメールを利用して,how型の質問に答える質問応答システムについて述べる.このシステムは自然な文で表現したユーザの質問を受けつけ,VineUsersMLに投稿されたメールからユーザの質問に類似する重要文をもつ質問メールをさがし,その回答メールの重要文とともに回答としてユーザに示す.\subsection{システムの概要}作成したシステムの概要を図\ref{fig:システムの概要}に示す.システムを構成するモジュールの機能と内容を以下に示す.インターフェイスにはWebブラウザを用いた.\begin{description}\item[{\bf質問受付モジュール}]自然な文で表現されているユーザの質問を受けつけ,質問解析モジュールに送る.\item[{\bf回答出力モジュール}]類似度計算モジュールの計算結果にしたがって,ユーザの質問に類似すると判定した質問メールおよび回答メールをユーザに示す.\item[{\bf質問解析モジュール}]ユーザの質問文を対象に形態素解析および係り受け解析を行い,解析結果を類似度計算モジュールに送る.形態素解析にはJUMAN\cite{man:juman98},係り受け解析にはKNP\cite{man:knp98}を用いた.\item[{\bf類似度計算モジュール}]ユーザの質問文と質問メールの重要文の類似度を,文の構文的な構造と単語の重要度にもとづいて計算する.類似度の計算方法は,\ref{sec:自然な文で表現された質問文と質問のメールから取り出した重要文の類似度}節で述べる.計算結果は回答出力モジュールに送られる.\item[{\bf質問\&回答メール}]メーリングリストに投稿された質問メールとその回答メール(直接回答メール,質問者回答メール,およびその他)が格納されている.\item[{\bf重要文の解析結果}]質問メールとその回答メールから取り出した重要文の形態素解析および係り受け解析の結果が格納されている.重要文の解析結果は類似度計算を行うときに参照される.\item[{\bf同義語辞書}]類似度計算で用いる同義語の辞書.519語が登録されている.図\ref{fig:同義語辞書に登録されている同義語の例}にこの辞書に登録されている同義語の例を示す.\begin{figure}[t]\begin{center}\epsfile{file=fig/yokomizo02.eps,scale=0.9}\caption{システムの概要}\label{fig:システムの概要}\end{center}\end{figure}\begin{figure}[t]\begin{center}{\small\begin{tabular}{|l|}\hlineHDHDDハード・ディスク\\LANカードLANアダプタLANボードNIC\\RAMカードPCメモリ・カード\\圧縮アーカイバ圧縮ソフト圧縮ツール\\アラート警告\\\hline\end{tabular}}\caption{同義語辞書に登録されている同義語の例}\label{fig:同義語辞書に登録されている同義語の例}\end{center}\end{figure}\end{description}\subsection{自然な文で表現された質問文と質問のメールから取り出した重要文の類似度}\label{sec:自然な文で表現された質問文と質問のメールから取り出した重要文の類似度}ユーザの質問文と質問メールの重要文との類似度を,文の構文的な構造と単語の重要度にもとづいて定義する.質問メール$M_{i}$から取り出した重要文$S_{i}$に含まれる自立語$t$の重要度$w_{WORD}(t,M_{i})$を以下のように定義する.\[w_{WORD}(t,M_{i})=tf(t,S_{i})\log\frac{N}{df(t)}\]$tf(t,S_{i})$は重要文$S_{i}$における自立語$t$の出現頻度,$N$は重要文をとりだすことのできた質問メールの総数,$df(t)$は自立語$t$を重要文に含む質問メールの総数である.また,質問メール$M_{i}$から取り出した重要文$S_{i}$の係り受け構造木を構成する枝$l$の重要度$w_{LINK}(l,M_{i})$を以下のように定義する.\begin{eqnarray*}w_{LINK}(l,M_{i})&=&w_{WORD}(modfier(l),M_{i})+w_{WORD}(head(l),M_{i})\end{eqnarray*}$modfier(l)$と$head(l)$はそれぞれ枝$l$によって係る文節の自立語,係られる文節の自立語を表わす.質問メール$M_{i}$から取り出した重要文$S_{i}$に含まれる自立語のうち,質問文$Q$にその自立語そのものかその同義語が含まれているものの重要度の和を$SCORE_{WORD}(Q,M_{i})$とする.また,質問メール$M_{i}$から取り出した重要文$S_{i}$の係り受け構造木を構成する枝のうち,質問文$Q$の係り受け構造木にもあらわれるものの重要度の和を$SCORE_{LINK}(Q,M_{i})$とする.このとき,ユーザの質問文$Q$と質問メール$M_{i}$から取り出した重要文$S_{i}$の類似度$SCORE(Q,M_{i})$を$SCORE_{WORD}(Q,M_{i})$と$SCORE_{LINK}(Q,M_{i})$の和とする.\subsection{自然な文で表現されたユーザの質問に対する応答}\label{subsec:自然な文で表現されたユーザの質問に対する応答}\begin{figure}[t]\begin{center}{\small\begin{tabular}[t]{rp{120mm}}(1)&DHCPでIPを再取得できない\\(2)&Linuxで音が出ません\\(3)&XWindowSystem起動時の不都合について\\(4)&ハードディスクのパーティションの修復\\(5)&ApacheにSSIを許可する設定はいずこに\\(6)&proftpdにログインできない\\(7)&漢字入力できません\\(8)&NICを二枚使用して,Linuxマシーンをルータとして機能する方法を教えてください\\(9)&Apache1.39でCGIが使えない\\(10)&再起動すると時間がくるう\\(11)&英語エラーメッセージに戻す方法がありましたらお教え下さい\\(12)&NFSサーバが起動しません\\(13)&MOを使う方法を教えてください\\(14)&トラフィックのモニタリングする方法はありませんでしょうか\\(15)&Emacsで漢字コードを指定するにはどうしたらいいのでしょうか\\(16)&Xで\キーが入力できない\\(17)&PDFのテキストだけを抽出する方法を教えてください\\(18)&loginするときに時間がかかってしまいます\\(19)&lprで印刷ができないで困っています\\(20)&Emacsでバックアップファイルをつくらない方法を教えてもらえないでしょうか\\(21)&Xwindowの画面を取り込むにはどうしたらいいのでしょうか\\(22)&レスキューディスクがないときの起動はできるのでしょうか\\(23)&PCMCIAスロットを使えるように設定したのですが,ネットワークカードをネットワークカードとして認識してくれません.\\(24)&PPxPが実行できない\\(25)&chmodができるFTPサーバを探しています\\(26)&Makefileの記述方法がわかりません\\(27)&特定のユーザをtelnetでログインできないようにしたいのですが,どういう設定が必要なのか教えていただけないでしょうか?\\(28)&VineLinux2.5でWebminを起動しようとすると,localhost:10000へのネットワーク接続を試みているときに接続が拒否されました\\(29)&自作マシンにビデオキャプチャーカードを挿したはいいものxawtvを用いてテレビを見ることができません\\(30)&LaTexで書かれた日本語の文章があって,これをWordの文章にしたい\\(31)&リソースを監視できるソフトの中でお勧めのソフトって何かありますでしょうか\\(32)&CDROMのmountができずにてこずっています\\\end{tabular}}\caption{LinuxUsersMLから取り出した32個の質問}\label{fig:LinuxUsersMLから取り出した32個の質問}\end{center}\end{figure}\ref{sec:自然な文で表現された質問文と質問のメールから取り出した重要文の類似度}節で定義した類似度にもとづいて,自然な文で表現されたユーザの質問に対し,メーリングリストに投稿されたメールを利用して回答する実験を行った.実験にはVineUsersMLに投稿された50846通のメールを用いた.これらのメールには,\begin{itemize}\item質問メール(8964通)\item直接回答メール(13094通)\item質問者回答メール(4276通)\end{itemize}が含まれていて,それらから重要文を取り出した.実験に用いる自然な文で表現された質問は,VineUsersMLに類似したメーリングリストLinuxUsersML\footnote{http://www.linux.or.jp/community/ml/linux-users/(Linuxに関するユーザ同士の情報交換を目的としたメーリングリスト)}に実際に投稿された質問を用いた.図\ref{fig:LinuxUsersMLから取り出した32個の質問}に実験に用いた32個の質問を示す.提案手法の結果は,質問文に含まれる名詞と未定義語を検索のキーとする全文検索の結果と以下の3つの方法で比較した.\begin{description}\item[評価1]検索結果の上位1つを比較\item[評価2]検索結果の上位3つを比較\item[評価3]検索結果の上位5つを比較\end{description}表\ref{tab:提案手法と全文検索の結果の比較}はそれぞれの評価について,(a)適切な質問メールとその回答のメールを検索できた問題の数,(b)検索された適切な質問メールとその回答のメールの組の数を示す.\begin{table}[t]\begin{center}\caption{提案手法と全文検索の結果の比較}\label{tab:提案手法と全文検索の結果の比較}\vspace{2mm}\begin{tabular}{lcccccccc}&\multicolumn{2}{c}{評価1}&\multicolumn{2}{c}{評価2}&\multicolumn{2}{c}{評価3}&\multicolumn{2}{c}{}\\&(a)&(b)&(a)&(b)&(a)&(b)&&\\\hline提案手法&9&9&16&26&17&41&&\\全文検索&5&5&5&9&8&15&&\\\hline\multicolumn{9}{l}{\footnotesize(a)適切な質問と回答のメールを検索できた問題の数}\\\multicolumn{9}{l}{\footnotesize(b)検索された適切な質問と回答のメールの組の数}\end{tabular}\end{center}\end{table}評価1で,提案手法で適切な応答が得られたのは,質問2,6,7,8,13,14,15,19,24.一方,全文検索で適切な検索結果が得られたのは,質問2,5,7,19,32.質問2,7と19は提案手法でも全文検索でも適切な結果が得られたが,それらは異なるメールであった.これは,ユーザの質問に答えられる内容の質問メールとその回答のメールの組が複数存在することがあるからである.質問4「ハードディスクのパーティションの修復」についてはどちらの方法でも適切な質問のメールは検索できなかった.この質問に対する全文検索の結果に「ファイルを救出したい」という質問のメールがあった.このメールおよびその回答のメールではファイルの救出方法が扱われていてパーティションの修復方法は直接扱っていないが,質問4の目的が「ファイルの救出」であるならば適切な回答であるといえる.このようにユーザの質問とその目的にずれがあるときは,そのギャップをうめる工夫が必要である.こうしたギャップをうめるのに,対話処理は有効であると考えられる.評価2および3では提案手法の結果が全文検索の結果よりよい.全文検索よりも多くの質問にこたえているし,ユーザの質問に関連する質問メールをより多く見つけ出している.また,作成したシステムの回答結果は,図\ref{fig:ユーザの質問に対する応答の例}のように重要文を用いて表現されているので,全文検索の場合にくらべてその回答内容をユーザは把握しやすい.\subsection{システムの質問応答例}図\ref{fig:ユーザの質問に対する応答の例}は,質問14「トラフィックのモニタリングする方法はありませんでしょうか」に対するシステムの応答を示す.この質問に対してシステムは2つの答え(質問メールとその回答メールから取り出した重要文)をユーザに示している.いずれの答えも適切な内容で,そのうち応答結果が1位のものを以下に示す.\begin{verbatim}(質問B)vine-linuxで使える,トラフィックを測定するツールってないでしょうか?├(直接回答B-1)snmp+mrtgとはではダメですか?├(直接回答B-2)見た目は・・こちらをどうぞ│http://web.wt.net/~billw/gkrellm/gkrellm.html└(直接回答B-3)ネットワーク接続中にちょっとトラフィックを確認するぐらいならば└(質問者返信B-1)みなさん,いろいろ情報ありがとうございました.\end{verbatim}表示されている重要文を選択すると,その重要文を取り出したメールが表示され,ユーザは詳しい情報を知ることができる(図\ref{fig:回答メールの表示の例}).\begin{figure}[p]\begin{center}\epsfile{file=fig/nishisys14g.ps,scale=0.4}\caption{ユーザの質問に対する応答の例}\label{fig:ユーザの質問に対する応答の例}\vspace{12mm}\epsfile{file=fig/nishisys14ansg.ps,scale=0.4}\caption{回答メールの表示の例}\label{fig:回答メールの表示の例}\end{center}\end{figure}作成したシステムは,ユーザの質問に対して(直接回答B-1)や図\ref{fig:vinelinuxMLから取り出した知識の例}の(直接回答2-1)のように問い返しを行うことができる.この問い返しによって,ユーザは自分の質問で不足している情報に気づき,より具体的であいまいさのない質問をつくることができる.また,その問い返し文を取り出したメールから問題を解く手がかりや答えそのものを取り出せることもある.獲得した知識による問い返しについて,われわれは以下の取組みを現在行っている.\begin{itemize}\item作成したシステムでは回答候補の順位づけにユーザの質問文と質問メールの重要文との類似度のみを用いている.そこで,直接回答メールや質問者回答メールから取り出した重要文の情報も利用して,ユーザの質問にふさわしい内容の回答(例えば問い返しなど)を優先してユーザに示す方法を検討している.\item作成したシステムは対話処理を行えないので,システムの問い返しに対するユーザの返事は新たな質問として扱われる.そこで,獲得した知識を用いてユーザとシステムが対話を行う方法について検討している.\end{itemize}(直接回答B-2)には照応表現(「こちら」)がある.この例のように,質問メールとその回答のメールから取り出した重要文には,照応・省略表現が含まれることがある.作成したシステムはユーザの質問文とメールから取り出した重要文とを照合して質問に答えているので,こうした照応・省略表現による情報の欠落に弱い.本研究では照応解析を行わずに,大量のメールから知識を獲得することでこの問題に対応しようと考えた.大量のメールから知識を獲得すれば,照応・省略表現を含まない「こんな場合にはこうする」という情報を十分に獲得できるのではないかと考えたからである.VineUsersMLに投稿されたおよそ5万通のメールから獲得した知識を用いた今回の実験では,照応解析を行わなくても全文検索よりよい結果を得ることができた. \section{おわりに} 作成したシステムでは,回答候補の順位づけにユーザの質問文と質問メールの重要文との類似度のみを用いている.現在,直接回答メールや質問者回答メールから取り出した重要文の情報も利用して,ユーザの質問にふさわしい内容の回答を優先してユーザに示す方法を検討している.また,今回獲得した知識を用いてユーザとシステムが対話を行う方法についても検討している.\acknowledgment本研究を進めるにあたって有意義なコメントをいただいた龍谷大学岡田研究室のみなさんに感謝いたします.また,本稿の改善に対して,査読者の方から非常に有益なコメントをいただきました.ここに感謝いたします.\bibliographystyle{unsrt}\begin{thebibliography}{99}\bibitem[\protect\BCAY{Hammond}{Hammond}{1995}]{proc:hammond95}Hammond,Burke,Martin,Lytinen:``FAQFinder:ACase-BasedApproachtoKnowledgeNavigation'',11thConferenceonArtificialIntelligenceforApplication,(1995)\bibitem[\protect\BCAY{日笠}{日笠}{1999}]{proc:higasa99}日笠,古河,黒橋:大学における計算機環境下での対話的ヘルプシステムの作成,言語処理学会第5回年次大会,(1999)\bibitem[\protect\BCAY{清田}{清田}{2002}]{proc:kiyota02}清田,黒橋,木戸:大規模テキスト知識ベースに基づく自動質問応答--話し言葉ナビ--,言語処理学会第8回年次大会,(2002)\bibitem[\protect\BCAY{黒橋}{黒橋}{1998}]{man:juman98}黒橋,長尾:日本語形態素解析システムJUMANversion3.61使用説明書,京都大学,(1998)\bibitem[\protect\BCAY{黒橋}{黒橋}{1998}]{man:knp98}黒橋:日本語構文解析システムKNPversion2.0b6使用説明書,京都大学,(1998)\bibitem[\protect\BCAY{NTCIR}{NTCIR}{}]{web:NTCIR}NTCIR:http://www.nlp.cs.ritsumei.ac.jp/qac/\bibitem[\protect\BCAY{奥村}{奥村}{1999}]{thesis:okumura99}奥村,難波:テキスト自動要約に関する研究動向,自然言語処理,Vol.6,No.6,(1999)\bibitem[\protect\BCAY{TREC}{TREC}{}]{web:TREC}TREC:http://trec.nist.gov/\bibitem[\protect\BCAY{Wilensky}{Wilensky}{1984}]{thesis:wilensky84}Wilensky,Arens,Chin:``TalkingtoUNIXinEnglish:AnOverviewofUC'',CommunicationsoftheACM,27(6),(1984)\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{渡辺靖彦}{1991年京都大学工学部電気工学第二学科卒業.1995年同大学院博士課程退学.博士(情報学).龍谷大学理工学部助手を経て,2002年より龍谷大学理工学部情報メディア学科専任講師,現在に至る.自然言語処理,知識情報処理の研究に従事.}\bioauthor{横溝一哉}{2003年龍谷大学理工学部卒業.同年,ケイ・オプティコムに入社,現在に至る.}\bioauthor{西村涼}{2003年龍谷大学理工学部情報メディア学科入学,現在に至る.}\bioauthor{岡田至弘}{1977年立命館大学理工学部卒業.工学博士.現在,龍谷大学理工学部情報メディア学科教授.学内キャンパスのLANの構築,および分散型計算機システム,パターン認識・理解の研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V24N02-04
\section{はじめに} 近年Twitter等を代表とするマイクロブログが普及し,個人によって書かれたテキストを対象とした評判分析や要望抽出,興味推定に基づく情報提供など個人単位のマーケティングのニーズが高まっている.一方このようなマイクロブログ上のテキストでは口語調や小文字化,長音化,ひらがな化,カタカナ化など新聞等で用いられる標準的な表記から逸脱した崩れた表記(以下崩れ表記と呼ぶ)が多く出現し,新聞等の標準的な日本語に比べ形態素解析誤りが増加する.これらの崩れ表記に対し,辞書に存在する語にマッピングできるように入力表記を正規化して解析を行うという表記正規化の概念に基づく解析が複数提案され,有効性が確認されている\cite{Han2011,Han2012,liu2012}.日本語における表記正規化と形態素解析手法としては,大きく(1)ルールにもとづいて入力文字列の正規化候補を列挙しながら辞書引きを行う方法\cite{sasano-kurohashi-okumura2013IJCNLP,oka:2013,katsuki:2011},(2)あらかじめ定めた崩れ表記に対し,適切な重みを推定するモデルを定義し,そのモデルを用いて解析を行う方法(KajiandKitsuregawa2014;工藤,市川,Talbot,賀沢2012)が存在する.\nocite{kaji-kitsuregawa:2014:EMNLP2014,kudo:2012}(1)では事前に定めた文字列レベルの正規化パタンに基づいて崩れた文字列に対し正規文字列を展開しながら解析するシンプルな方法が提案されている.(2)においては鍜治ら\cite{kaji-kitsuregawa:2014:EMNLP2014}は形態素正解データから識別モデルを学習し,崩れ表記を精度よく解析する方法を提案した.工藤ら\cite{kudo:2012}は崩れ表記の中でもひらがな化された語に着目し,教師なしでひらがな語の生成確率を求める手法を提案した.(1),(2)いずれの手法においても,崩れ表記からの正規表記列挙に関しては人手によるルールやひらがな化などの自明な変換を用いているが,実際にWeb上で発生する崩れ表記は多様でありこれらの多様な候補も考慮するためには実際の崩れ表記を収集したデータを用いて正規化形態素解析に導入することが有効と考えられる.本研究では,基本的には従来法\cite{katsuki:2011,oka:2013}と同様の文字列正規化パタン(「ぅ→う」)等を用いて辞書引きを拡張するという考え方を用いるが,文字列正規化パタンを人手で作成するのではなく,正規表記と崩れ表記のアノテーションデータから自動的に推定される文字列アライメントから統計的に求める.また,文字列正規化パタンと,ひらがな化・カタカナ化などの異文字種展開を組み合わせることによって正規化の再現率を向上させる.さらに,今回の手法では可能性のある多数の正規化文字列を列挙するため,不要な候補も多く生成される.これらの不要な候補が解析結果に悪影響を及ぼさないようにするため,識別学習を用いて文字列正規化素性や文字種正規化素性,正規語言語モデルなどの多様な素性を考慮することにより,崩れ表記の正規化解析における再現率と精度の双方の向上を試みる.本研究の対象範囲は,音的な類似という点で特定のパタンが存在すると考えられる口語調の崩れ表記や,異表記(小文字化,同音異表記,ひらがな化,カタカナ化)とした.これらを対象とした理由は,\cite{saito-EtAl:2014:Coling,kaji-kitsuregawa:2014:EMNLP2014}などでも示されているように,音的な類似性のある崩れ表記が全体の中で占める割合が大きいとともに今回の提案手法で統一的に表現できる現象であったためである. \section{関連研究} 日本語の正規化と形態素解析に関する研究は先に述べたように大きく2つ存在する.文字列正規パタンに基づいて入力文を動的に展開しながら解析する笹野らの手法\cite{sasano-kurohashi-okumura2013IJCNLP}では,小文字→大文字,長音→母音,促音→削除などのシンプルな正規化パタンを用いている.例えば,「すっごーい」という入力文に対し,促音と長音を削除した「すごい」も辞書引きの候補とする方法である.この手法はシンプルでありながら結果の有効性が示されているが,パタンは人手で作成され変換コストも一定値が用いられている.Web上には多様な表記揺れバリエーションが存在し,人手でカバーできる範囲には限界がある.また崩れ表記には生起しやすいパタンと生起しにくいパタンが存在するため,変換ルールを増やして精度を向上させる場合にはそれらの生起しやすさを適切に考慮する必要がある.コストを適切に推定する,という観点では,鍜治ら\cite{kaji-kitsuregawa:2014:EMNLP2014},工藤ら\cite{kudo:2012}がそれぞれ教師あり学習の手法,教師なし学習の手法を示しており有効性が確認されているが,いずれも正規化パタンについては人手で設定しており,正規化パタンのバリエーションを拡張する検討はなされていない.これらの手法においても,どのように正規化パタンそのものを増やすかという問題はより高精度な正規化解析において検討すべき重要な課題である.また,崩れ表記のカバー率を増やすと同時に,正規化によるデグレードをできるだけ抑制することも形態素解析においては重要な観点となる.本研究では,正規化パタンのカバー率を向上させるため,Web上から崩れ表記を収集し各崩れ表記に対し正規表記をアノテーションしたペアデータを用いて文字列レベルの正規化パタンとその生起確率を計算する.そして,これらのパタンを用いて崩れ表記に対応する正規化候補を形態素ラティス内に拡張し正規語も含めた正解系列を推定することにより,崩れ表記の正規化解析における再現率と精度の双方の向上を試みる. \section{提案手法} \subsection{提案手法の全体像}本研究の全体構成を図\ref{fig:systemall}に示す.我々の提案手法は,まずWeb上から収集した崩れ表記に対し,正規表記のアノテーションを施したペアデータから自動的に文字列正規化パタンを抽出する.そして,その文字列正規化パタンに基づき辞書語の拡張を行い解析を行う.辞書語の拡張においては,計算量削減のため事前に展開可能なものは事前に正規化辞書として展開を行い,動的照合が必要なものに関しては入力文に対して動的に文字列を拡張させながら辞書引きを行うことで実現する.デコーディングに際しては,複数の素性を用いた識別モデルを用いて最適な表記,正規表記,品詞系列を選択する.以下,それぞれに関して詳細を記述する.\begin{figure}[t]\begin{center}\includegraphics{24-2ia4f1.eps}\end{center}\caption{提案手法の全体構成}\label{fig:systemall}\end{figure}\subsection{崩れ表記と正規表記の文字列アライメント}本研究では,文字列正規化パタンとその生起しやすさを推定するため,正規‐崩れ表記の正解ペアデータを用いる.英語における表記正規化の研究\cite{yang-eisenstein:2013:EMNLP}においては人手アノテーションをせずに単語区切りを利用して自動的に正規‐崩れ表記のペアを抽出する研究も存在するが,日本語の場合は単語区切りが不明であり,英語に対して提案されている手法を適用するのは困難なため正解データのアノテーションを行うこととした.正解ペアデータの作成に際しては,まず崩れ表記を含むテキスト(ブログやTwitter)から崩れ表記(例:おぃしーぃ)を人手で抽出する.そして,抽出した崩れ表記に対して人手で正規表記を付与する(おぃしーぃ→おいしい).正解ペアの例を表1に示す.\begin{table}[t]\caption{崩れ表記抽出と正規表記付与の例}\input{04table01.txt}\end{table}これらのペアデータ(おぃしーぃ,おいしい)から文字列アライメントの推定に基づき文字列レベルの正規化パタンを統計的に抽出する(例:ー→null,ぃ→い).本研究では,複数文字列のアライメントが扱えるJiampojamarnらの研究\cite{jiampojamarn-kondrak-sherif:2007:main}を参考に,ペア文字列間の最適系列を下記のように定式化する.\begin{equation}\mathbf{\hat{q}}=\argmax_{\mathbf{q}\inK(d)}\prod_{q\in\mathbf{q}}p(q)\end{equation}ここで,$d$は崩れ表記と正規表記のペアを表す変数である(例:かなぁーり,かなり).$q$は$d$中の部分文字列アライメントを表し(``なぁー,な''など),{\bfq}は$d$中のアライメント$q$の系列を表す(例えば図\ref{fig:dpmatch}中の経路1の部分文字列アライメント系列\{(``かな,かな''),(``ぁー,null''),(``り,り'')\}.$K(d)$は,$d$における部分文字列アライメント系列{\bfq}の可能な集合を表す.本研究では,$p(q)$を\cite{Bisani:2008}や\cite{kubo2011unconstrained}によって提案されたEMアルゴリズムを用いて求める.$p(q)$は下記の式(2)によって定められる.\begin{align}p(q)&=\frac{\gamma(q)}{{\displaystyle\sum_{q'\inQ}}\gamma(q')}\label{eq:Estep}\\\gamma(q)&=\sum_{d\inD}\sum_{\mathbf{q}\inK(d)}p(\mathbf{q}){\displaystyle\sum_{\barq\in\mathbf{q}}}\delta(\barq=q)=\sum_{d\inD}\sum_{\mathbf{q}\inK(d)}\frac{{\displaystyle\prod_{q'\in\mathbf{q}}}{\barp(q')}}{{\displaystyle\sum_{\mathbf{q'}\inK(d)}}{\displaystyle\prod_{q'\in\mathbf{q'}}{\barp(q')}}}{\displaystyle\sum_{\barq\in\mathbf{q}}}\delta(\barq=q),\nonumber\end{align}ここで,$D$は$d$の集合,$Q$は$q$の集合を表す.また,$\delta(\barq=q)$は$\barq=q$のときに1となる変数であり,${\displaystyle\sum_{\barq\in\mathbf{q}}}\delta(\barq=q)$は$\mathbf{q}$における$q$の出現数を表す.${\barp(q)}$は下記で示す繰り返し計算ステップにおける,前回の$p(q)$の計算結果を表す.部分文字列に関しては,崩れ表記の正規化においてできるだけ単語間で共通して起こる短い文字列のパタンを抽出したいという目的から,6文字以下のみのパタンを考慮することとした.また,本研究では,$K(d)$としてn-best解を用いた.\begin{enumerate}\itemstep1:初期値設定\\EMアルゴリズムを用いた推定は初期値に大きく影響されるため,初期値としてまずあらかじめ定めたコストに基づいてアライメントを行い,その後式(2)に従ってアライメントを求めた.初期値として,同じ文字同士と同じ文字同士のひらがな・カタカナ変換(あ-ア,オ-お,など)の1文字変換のコストを0とし,複数文字アライメントに関しては文字列$a$,$b$の文字長$l_a$,$l_b$を用いて$l_a$+$l_b$をアライメントのコストとした.ただし,同じ文字同士の複数文字のアライメントに関するコストは0とした(例:い-いいい).これらの設定は,同じ文字同士のアライメント確率が高くなるような事前知識として導入した.\itemstep2:期待値の計算\\現在の確率値${\barp(q)}$を用いて,各アライメント$q$の期待出現回数$\gamma(q)$を計算する.\itemstep3:経路確率とアライメントの計算\\step2で求めた$\gamma(q)$を用いて,各アライメントの確率値$p(q)$を更新する.\itemstep4:繰り返し\\アライメントが収束するまでstep2,3を繰り返す.\end{enumerate}アライメントの具体例を図\ref{fig:dpmatch}に示す.\begin{figure}[t]\begin{center}\includegraphics{24-2ia4f2.eps}\end{center}\caption{正規表記と崩れ表記の文字列アライメント計算例}\label{fig:dpmatch}\end{figure}また,アライメントモデルからは非常に出現頻度が低い文字列正規化パタンも抽出されるため,抽出されたアライメントから正規化形態素解析に用いる文字列正規化パタンをフィルタリングした.フィルタに際しては,$\gamma(q)$と$r(q)$を閾値として用いた.ここで,$q=(c_w,c_v)$とし,$c_w$を抽出された文字列正規化パタンにおける崩れ表記の部分文字列,$c_v$を正規表記の部分文字列と表すと,$r(c_w,c_v)$は$r(c_w,c_v)=\gamma(q)/n_{c_w}.$として計算した.ここで,$n_{c_w}$は$c_w$が学習コーパス中に出現する総出現数である.今回は,$\gamma_{\rmthres}=0.5$,$r_{\rmthres}=0.0001$として閾値を設定し,$\gamma(q)<\gamma_{\rmthres}$または$r(c_w,c_v)<r_{\rmthres}$の場合は削除した.また,$r(c_w,c_v)$は3.5.2で述べる識別モデルの素性の一つとしても使用した.\subsection{文字列正規化パタンと文字種変換を用いた基本辞書の拡張}前項で示した文字列正規化パタンを形態素解析に組み込むにあたり,計算の効率化のため事前展開可能な候補についてはあらかじめ基本辞書に存在する辞書語に対し文字列変換を行って正規化辞書として事前展開する.ここで,基本辞書とは一般に配布されている形態素解析用の辞書のことを指す.具体的には,得られた文字列正規化パタンのうち,正規文字列の削除・置換パタンに関してはあらかじめ基本辞書の文字列を変換して崩れ表記化を行い,正規化辞書を作成した.崩れ文字列の挿入に関しては,正規単語のあらゆる箇所に挿入されることが考えられ,すべてのパタンを事前展開することは非効率的であるため,動的展開の文字列パタンとして用いた.さらに,Twitterなどのテキストでは,標準的な表記が漢字やカタカナの単語に関してひらがな表記される,あるいは標準的な表記が漢字やひらがなの単語がカタカナで表記される場合が多く存在する.これらの現象に関しては文字列正規化パタンから文字列単位で候補生成を行うことは非効率であるため,基本辞書の読みを利用して辞書を拡張する.これらを文字種正規化候補と呼ぶ.学習データが大量に存在すれば,このような文字種変換についても文字列正規化パタンとして獲得することが可能であるが,人手で作成する正解データの量は限られるため,あらゆる文字種変換を文字列レベルで効率よくカバーすることは難しい.文字列正規化候補展開と文字種正規化候補展開を組み合わせることで,「カワィィ」→「かわいい」,「かぅんたー」→「カウンター」といった文字列アライメントだけではカバーできないより複雑な崩れ表記に対する正規化候補の展開も行うことが可能になる.\begin{table}[b]\caption{文字列アライメントを用いた崩れ表記事前生成の例}\label{tab:seisei}\input{04table02.txt}\end{table}事前生成の具体的な手順としては,まず基本辞書から読み情報を利用して,読みのひらがな表記,カタカナ表記の生成を行った.この際,カタカナ表記の生成に関しては一文字目から順に部分的にカタカナ化した表記も生成した.例えば,``うれしい''という表記に対しては,``ウれしい'',``ウレしい'',``ウレシい'',``ウレシイ'',というパタンを生成した.その後,獲得した文字列正規化パタンを用いて,崩れ表記の生成を行った.表2に事前生成の例を示す.表2からもわかるように,文字種と文字列正規化の双方を用いて多様な候補を生成することができる.この崩れ表記を基本辞書に追加して正規化辞書として用いる.ここで,今回は辞書サイズが不要に大きくなることを避けるため,文字列変換を行う際のシードとする形態素について,Twitterテキストで計算した正規表記の出現頻度が閾値以上となる形態素に限定し,さらに1形態素内での文字列正規化パタンの適用による文字変換を2回までとした.これらの制約によって,動的にすべての候補を考慮する場合に比べカバー率が下がる可能性があるが,あらゆる候補を考慮すると形態素ラティスが非常に大きくなり計算時間が増大するため,現実的に出現しやすい崩れ表記を効率良く列挙するための制約として用いた.これらの事前生成の結果,756,463エントリの基本辞書が9,754,196エントリに拡張された.また動的照合のためのルール(崩れ文字削除候補)は105パタンであった.\subsection{形態素ラティス生成}形態素ラティスの生成は,文字列正規化の動的照合と前項で述べた正規化辞書,基本辞書を用いて行う.この際,「っ」と「ー」の連続に関しては1文字まで縮約させた文字列,母音の連続に関しては3文字まで縮約させた文字列も照合の対象とした.これらの文字列については,任意個の文字挿入がありえるため,意味が変わらない範囲で正規化可能な処理として定めた.次に,3.3で述べたように正規‐崩れ文字列アライメントモデルで抽出された文字列正規化パタンのうち,正規表記が空文字となるパタンについては動的に展開を行い,展開された文字列に対して基本辞書と正規化辞書による辞書引きを行って形態素ラティスを生成した.これにより,事前展開しきれなかった候補についても動的展開と組み合わせることでより多様な崩れ表記に対して正規の辞書表記を列挙することが可能になる.\subsection{識別モデルによる表記正規化と形態素解析の定式化}3.4節で示したように文字列や文字種を拡張して形態素ラティスを生成する場合,不要な候補も多く生成されるため既存の形態素コストや品詞連接コストをそのまま用いると解析誤りが増加するなどの悪影響が考えられる.精度を向上させるためには生成した形態素ラティスに対し適切な重み付けを行うことが必要となる.本研究では文字列や文字種といった多様な崩れ表記を対象としているため,多様な素性を柔軟に考慮することができる構造化パーセプトロン\cite{Collins:2002}を用いて表現することにする.\subsubsection{目的関数}本研究では,入力文$s$に対し正しい表出表記系列$\vector{w}=(w_1,w_2,\ldotsw_n)$,正規表記系列$\vector{v}=(v_1,v_2,\ldotsv_n)$,品詞系列$\vector{t}=(t_1,t_2,\ldotst_n)$を求める問題を考える.この問題は次のように定式化できる.\begin{equation}(\hat{\vector{w}},\hat{\vector{v}},\hat{\vector{t}})=\argmax_{(\vector{w},\vector{v},\vector{t})\inL(s)}\mathbf{w}\cdot\mathbf{f}(\vector{w},\vector{v},\vector{t})\end{equation}ここで$(\hat{\vector{w}},\hat{\vector{v}},\hat{\vector{t}})$は最適な系列,$L(s)$は入力文$s$に対し構築される形態素ラティス(各ノードは表出表記,正規表記,品詞の3つ組情報を持つ),$\mathbf{w}\cdot\mathbf{f}(\vector{w},\vector{v},\vector{t})$は重みベクトル$\mathbf{w}$と素性ベクトル$\mathbf{f}(\vector{w},\vector{v},\vector{t})$の内積を表す.最適系列は$\mathbf{w}\cdot\mathbf{f}(\vector{w},\vector{v},\vector{t})$の値にしたがって選択される.\subsubsection{素性}表3に本研究で使用した素性の一覧を示した.このうち,品詞連接素性$h(t_{i-1},t_i)$,正規語素性$h(w_i,t_i)$はMeCabで提供されている品詞連接コスト,形態素コストの推定値を用いた.ここで,$t_i$は$i$番目の品詞,$w_i$は$i$番目の単語を表す.正規語bi-gram素性$-\logp(w_i,t_i|w_{i-1},t_{i-1})$は新聞,ブログの形態素正解が付与されていないラベルなしコーパスの自動解析結果を用いて計算した.文字列正規化素性については,3.2節の文字列アライメントモデルで述べた値を用いている.文字列言語モデル素性は文字列正規化の妥当性を表す素性であり,文字列正規化前と後の文字n-gramを用いて計算する.ここで,$s_{trans}$,$s_{org}$はそれぞれ文字列正規化した後の文字列,正規化する前の元の文字列を表し,$p(s_{trans})$,$p(s_{org})$はTwitterテキストから計算した文字5-gramモデルを用いて計算する.$c_j$は対象となる文字列の$j$文字目を表す.本研究では,不要な候補の増大を防ぐためラティス生成時に本素性を閾値として用い,形態素ラティスに追加する正規化候補をフィルタリングした.閾値は$\logp(s_{trans})-\logp(s_{org})$$\geq-1.5$と定めた.ここで,$\phi_{trans_i}$,$\phi_{h_i}$,$\phi_{k_i}$はそれぞれ,注目ノード$i$が文字列正規化を用いて生成されたノード,ひらがな変換を用いて生成されたノード,カタカナ変換を用いて生成されたノードである場合に1,それ以外の場合は0となる変数である.変換処理を施したノードにのみに追加的にコストを付加することによってデグレードを抑える目的でこのような素性設計を行った.ひらがな正規化素性$\phi_{h_i}$とカタカナ正規化素性$\phi_{k_i}$については,それぞれ辞書からひらがな化,カタカナ化により生成したエントリに対して適用される素性である.\begin{table}[b]\caption{素性リスト}\input{04table03.txt}\end{table}崩れ形態素素性は,着目ノードが文字列変換を行って生成されたノードである場合に適用されるノードごとの素性である.この素性は,現在の着目ノードにおける表出表記,正規表記,品詞の組み合わせが$(w_i,v_i,t_i)=(w,v,t)$のときに1,それ以外に0となるバイナリ変数である.ただし,$w\inW$,$v\inV$,$t\inT$であり,$W$は全表出表記の集合,$V$は全正規表記の集合,$T$は全品詞の集合を表す.本素性では表出表記$w$,正規表記$v$,品詞$t$の組み合わせ数分のバイナリ素性を扱うため,組み合わせごとに異なるコストを付加することが可能となる.\subsubsection{学習}パラメータ推定は,平均化パーセプトロン学習に基づいて行う.平均化パーセプトロンでは,正解系列$(\vector{w}^\ast,\vector{v}^\ast,\vector{t}^\ast)$が付与されたN個の文が与えられたとき,現在のパラメータ$\mathbf{w}^i$に基づいて一文ずつ最適解$(\hat{\vector{w}},\hat{\vector{v}},\hat{\vector{t}})$を求め,もしこの系列が正解と異なる場合は次式で重みパラメータ$\mathbf{w}^{i+1}$を更新する.\begin{equation}\mathbf{w}^{i+1}=\mathbf{w}^{i}+\mathbf{f}(\vector{w}^\ast,\vector{v}^\ast,\vector{t}^\ast)-\mathbf{f}(\hat{\vector{w}},\hat{\vector{v}},\hat{\vector{t}})\end{equation}もし現在のパラメータに基づいて出力された最適解が正解と一致する場合にはパラメータの更新を行わない.最後に,文数と繰り返し回数の積で平均化した重みパラメータを計算する.\cite{Collins:2002} \section{実験} \subsection{実験データと文字アライメント結果}\label{sec:result}文字列正規化パタン推定に使用したデータは2008年のブログ8,023文から抽出した正規‐崩れ表記9,603ペアと,2011〜2012年のTwitter4,805文から抽出した正規‐崩れ表記ペア3,610ペアである.本ペアデータを用いたアライメント計算の結果,得られた文字列正規化パタン数は3,127種類であった.表4に獲得された文字列正規化パタンの例を示す.「ない」や「たい」といった正規文字列に対しては特に多くのパタンが獲得できた.また,「ヴァ→バ」といった音の類似や「ぅ→う」(小文字化),「ー→う」(長音化)といった従来のルールベースで用いられている代表的なルールのほかにも,「もぉ→もう」,「っ→い」,「にゃ→な」,「ゎ→は」といった多様な崩れパタンが獲得できた.\begin{table}[t]\caption{獲得された文字列正規化パタン例}\label{tab:alignment}\input{04table04.txt}\end{table}形態素解析用識別モデルの素性として用いる正規語bi-gramモデルの構築には,ブログと新聞の形態素正解ラベルなしデータをMeCabを用いて自動解析した結果を使用した.また,形態素,正規語正解データはランダム抽出した2013〜2014年のTwitter4,280文に対してアノテーションを行い,そのうち1,000文をテストデータ,3,280文を学習データに使用した.テストデータ中の崩れ表記は308形態素存在した.また,基本辞書としてMeCab-IPA辞書を使用した.\subsection{評価方法と比較手法}本研究では,テストデータに対し下記の条件で評価を行った.\begin{enumerate}\itemMeCab-IPA辞書として提供されている辞書と品詞連接コスト,形態素コストを用いて解析した場合(辞書や文字列の拡張なし,以下通常解析と呼ぶ)\item正規化候補展開に関して文字列正規化の従来手法\cite{sasano2014}の小文字,長音に関するルール)を実装し,素性として品詞連接素性,正規語素性,文字列正規化素性(全候補で一定)を用いた場合.(以下,ルールベースと呼ぶ).文字列正規化素性の重みは学習データから決定した.\item提案手法(全てを実装した場合(all),文字列正規化候補展開を除いた場合,各素性を1つずつ取り除いた場合を比較)\end{enumerate}(1)に関しては,文字列や文字種の正規化を一切行わない,通常の形態素解析手法との比較を行うための,ベースラインとして比較した.(2)は人手で確認されているシンプルなルールで崩れ表記をどこまでカバーできるかを確認するために比較した.(3)に関しては,今回提案した正規化文字列による候補展開や識別モデルの素性がそれぞれ精度にどの程度影響を与えるかを比較するために行った.評価は,形態素解析の再現率と精度,F値を用いて行った.\subsection{実験結果}\subsubsection{形態素解析の結果}表\ref{tab:result_mrph}には形態素解析の精度評価を示した.この集計結果より,提案手法(all)が単語分割+品詞の精度で最も良い結果となっている.(1)の通常解析に比べ,単語区切り,単語区切り+品詞ともに約2ポイントの精度向上が確認できた.(2)の単純なルールを用いた場合と比較しても,約1.0ポイントの精度向上を確認した.また,ブートストラップ再サンプリング法でF値の検定を行ったところ,通常解析,ルールベースに比べ有意な差が確認できた($\mathrm{p}<0.01$).\begin{table}[t]\caption{テストデータにおける各手法の性能比較}\label{tab:result_mrph}\input{04table05.txt}\end{table}次に,今回提案した各素性の効果について考察する.文字列正規化を除いた場合,各素性を抜いた場合の比較より,単語+品詞の精度では提案手法(all)が最も良い結果となった.また,各素性値を抜いた実験の結果においても,崩れ形態素素性なしを除いては単語分割+品詞付与に関して提案手法(all)とそれ以外で有意な差が確認できた($\mathrm{p}<0.01$).特に,提案素性の中では文字列正規化素性を用いない場合最も精度が低下することが分かった.これより,文字列正規化素性の導入は過剰な正規化による解析悪化を抑制することができたと考えられる.他の条件に関しても提案手法が上回る結果となったが,文字列正規化素性に比べ影響は小さかった.特に文字列言語モデル素性については精度向上にほとんど影響がなかったが,これは今回の実験では計算量を減らすために,形態素ラティス生成時に文字列言語モデル素性で枝狩りを行ったため,その時点で当該素性の効果が反映されていると考えられる.また,単語分割のみ見ればひらがな・カタカナ正規化素性なしの精度がよいが,品詞も含めた精度ではすべて考慮した場合よりも精度が低い.これも,誤った正規化を行った結果単語分割は改善したが,品詞で悪影響が生じているといえる.これらの結果から,文字列,文字種などの多様な正規化候補を列挙し,かつ解析悪化を抑制しながら解析を行う場合,各正規化候補に対して適切なコストを付加することが重要であるということが明らかになった.\subsubsection{正規化に関する結果}\begin{table}[t]\caption{正規化候補列挙方法の違いによる正規化再現率の比較}\label{tab:rec_norm}\input{04table06.txt}\end{table}\begin{table}[t]\caption{正規化適合率の比較}\label{tab:prec_norm}\input{04table07.txt}\end{table}表\ref{tab:rec_norm}には,各正規化候補列挙手法のカバー率を確認するため,崩れ表記に限定した再現率比較を示した.提案手法は,ルールベースに比べ約2.2倍,文字列正規化なしに比べ約4倍の再現率を達成した.このことから,今回獲得した文字列正規化パタンが正規化の再現率向上への寄与が大きいことがわかる.一方で文字種正規化の影響も提案法で解析できた箇所全体の約25\%を占めているため,文字列正規化と文字種正規化を組み合わせることが再現率向上に有効であることがわかる.次に,表\ref{tab:prec_norm}に正規化の適合率を示す.表\ref{tab:prec_norm}の適合率(全体)とはシステムが正規化を行って出力した形態素のうち,表記,品詞,正規表記の全てが一致した形態素の数を表す.ここで,一致しなかった箇所が必ずしも解析悪化を起こしているとは限らないため,一致しなかった形態素のうち50箇所について,通常解析との比較を行い人手調査によって「悪化」と「その他」の内訳を分析した.ここで,悪化,その他の分類は笹野ら\cite{sasano2014}を参考とし,分割や品詞の優劣によって判断した.この結果,ルールベースの場合には不一致箇所における悪化の割合が8\%と副作用の割合が低いことがわかる.提案法においても,不一致箇所における悪化の割合が18\%とルールベースに比べて高くなっているものの,全体では改善が大きく上回っており副作用を抑制しながら解析を行えていることがわかる.提案法で悪化した例としては,たとえば「カープ/ねぇー(カープ/ない)」や,「うーん(うん)」などの誤った正規化が存在した.主に長音の削除や助詞・助動詞で副作用が数件見受けられ,このような例に関しては素性関数をより精緻にする,学習データを増やすなどして対応する必要があると考えられる.また,その他に分類されたものとしては下記(例1)〜(例3)のような例が存在した.\begin{itemize}\item(例1)通常解析:ふみ/づき,提案法:ふみづき(文月)\item(例2)通常解析:だい/き,提案法:だいき(大樹)\item(例3)通常解析:たら/ぁ/ー/いま/ぁ,提案法:たらぁーい(たらい)/まぁ\end{itemize}(例1),(例2)のように,主にもともと解析誤りを起こしていた部分に対し正規化を行った結果区切りや品詞が改善したものの正規表記が誤った例,(例3)のように,もともと間違っていた箇所に対し正規化を行った結果異なる誤り方をした例などが存在した.これらに関しては,固有名詞と崩れ表記を区別する仕組みや,崩れ表記の再現率をさらに上げる方法の検討が必要になると考えられる.\subsubsection{形態素解析結果の実例と考察}\begin{table}[b]\caption{システムの出力結果例}\label{tab:example}\input{04table08.txt}\end{table}表\ref{tab:example}には,提案システムの出力結果例を示す.``/''は単語区切りを表し,括弧内が正規表記を表す.太字で表している部分が解析が正解したもので,(1)〜(6)は提案手法によって解析が改善された例である.(7)は区切りが改善したが品詞・正規語が誤った例,(8),(9)は通常解析でも提案手法でも改善されなかった例,(10)は提案手法によって悪化した例を示している.(1)〜(6)の例から,提案手法によって文字種,文字列の多様な崩れ表記が解析できていることがわかる.(7)に示した例は,固有名詞などでいくつかみられた例であるが,固有名詞の文字列を正規化した表記が辞書に存在し,正規化によって区切りが改善したが,正規語が誤った例である.この例の他にも,ふみづき→文月,ヤスダ→安田など,入力表記の漢字表記が辞書に存在し区切りや品詞が改善したが,正解データにおいては固有名詞の正規表記は入力表記のままにしたため正規語の不一致が生じた例も多く見られた(表\ref{tab:prec_norm}における「その他」の分類).このような固有名詞については,正規表記を表記のままにするなどの処理を行うことで対応できると考えられる.(8)に示した例は,正解の候補展開ができなかった例(文字列正規化パタンが不足していた例)である.今回の手法では学習データ中に出現した文字列パタン以外の新しいパタンについては適応できないため,獲得したパタンからの類似パタン生成やアノテーションなしコーパスからの文字列正規化パタンの自動獲得などの手法を検討することで,このような誤りには対応できると考えられる.(9)の例に関しては,正解の系列は列挙できていたにも関わらず正しい系列を選択できなかった例である.このような例に関しては素性を工夫したり正解データを増強することで精度向上を図る必要がある.(10)に関してはデグレードしてしまった例である.この連接の場合,システムが推定した正規語系列の方が単語数が少なく正規語bigramからみても推定値は起こりやすい系列であるため,今回の目的関数や素性設計では推定値の方がもっともらしいと判断されてしまったと考えられる.この点に関しては,Twitterの単語連接の分布や単語ごとの崩れやすさの指標などを取り込む必要があると考えられる.\subsection{UniDic辞書との比較}IPA辞書以外で表記揺れに強い辞書としてUniDic(unidic-mecab)辞書\cite{Unidic}があげられる.本研究では,広く用いられている辞書のひとつとしてMeCab-IPA辞書を用いて実験を行ったが,UniDic辞書による崩れ表記のカバー率を調べるため,1)テストデータ中の崩れ表記100個についてUniDic辞書で正しく解析可能な割合,2)システムが正解した崩れ表記100個についてUniDicで正しく解析できる割合,の2つについて人手で調査を行った.1)では,崩れ表記全体のどの程度をカバーできるか,2)では,提案法で解析できる表記のうちどの程度をカバーできるかを確認した.結果を表\ref{tab:UniDic}に示す.\begin{table}[t]\caption{UniDic辞書を用いた場合の崩れ表記正解割合}\label{tab:UniDic}\input{04table09.txt}\end{table}表\ref{tab:UniDic}に示すように,UniDic辞書はすでに崩れた表記が辞書に含まれている場合も多く,半数以上は辞書でカバーできている.表\ref{tab:rec_norm}で示した提案法のカバー率と比較しても高い値を示していることから,崩れた文に対してベースラインとしてMeCab-IPA辞書よりも頑健に動作することがわかる.ただし,UniDicでも解析できない崩れ表記が44\%存在した.また,提案法で解析が改善した例におけるUniDicのカバー率は53\%であった.たとえば,「センパイ(先輩)」「予定/でーす(予定/です)」といった崩れ表記に関してはUniDic辞書,提案法の双方で正しく解析できた.一方,「さてーーーっ(さて)」「走っ/て/まふ(走っ/て/ます)」といった崩れ表記に関しては提案法では正しく解析できたがUniDicでは正しく解析できなかった.UniDicのみで解析できた例としては,「ファンデ(ファンデーション)」「スカし(すかし)/て」などが存在した.このことから,IPA辞書を用いた場合に比べ提案法による効果は限定的と考えられるものの,UniDicのような崩れた表記に頑健な辞書を用いた場合であってもあらゆる崩れ表記をカバーできているわけではなく,提案手法と組み合わせることで崩れ表記のカバー率をさらに向上させられる可能性があると考えられる. \section{まとめと今後の課題} 本研究では,Web上から収集した崩れ‐正規表記のペアから文字列レベルの正規化パタンを学習し,抽出したパタンを形態素解析に導入することにより崩れた日本語の解析精度が向上することを確認した.実験結果から個々の文字列正規化パタンごとに異なる生起しやすさの指標を素性として用いることで解析精度が向上することがわかり,現実の分布を反映することで解析精度の向上と再現率の向上に有効であることが確認できた.また,文字種正規化を組み合わせることによる再現率向上の効果も大きく,全体の約25\%を占めていることも明らかになった.課題としては,未知語に対して過剰に正規化を行ってしまうこと,未知の文字列正規化パタンに対応するためには正規‐崩れのアノテーションコストが必要となること,文字列正規化パタンや文字種正規化パタンよりも細かいレベルの素性関数を取り入れることなどがあげられる.これらについては今後の課題として取り組む予定である.\acknowledgment本研究の一部は,The25thInternationalConferenceonComputationalLinguistics(COLING2014)で発表したものである(Saito,Sadamitsu,Asano,andMatsuo2014)\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bisani\BBA\Ney}{Bisani\BBA\Ney}{2008}]{Bisani:2008}Bisani,M.\BBACOMMA\\BBA\Ney,H.\BBOP2008\BBCP.\newblock\BBOQJoint-sequenceModelsforGrapheme-to-phonemeConversion.\BBCQ\\newblock{\BemSpeechCommunication},\mbox{\BPGS\434--451}.\bibitem[\protect\BCAY{Collins}{Collins}{2002}]{Collins:2002}Collins,M.\BBOP2002\BBCP.\newblock\BBOQDiscriminativeTrainingMethodsforHiddenMarkovModels:TheoryandExperimentswithPerceptronAlgorithms.\BBCQ\\newblockIn{\BemProceedingsofthe2002JointConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{伝\JBA小木曽\JBA小椋}{伝\Jetal}{2007}]{Unidic}伝康晴\JBA小木曽智信\JBA小椋秀樹\BBOP2007\BBCP.\newblockコーパス日本語学のための言語資源—形態素解析用電子化辞書の開発とその応用(特集コーパス日本語学の射程).\\newblock\Jem{日本語科学},{\Bbf22},\mbox{\BPGS\101--123}.\bibitem[\protect\BCAY{Han\BBA\Baldwin}{Han\BBA\Baldwin}{2011}]{Han2011}Han,B.\BBACOMMA\\BBA\Baldwin,T.\BBOP2011\BBCP.\newblock\BBOQLexicalNormalisationofShortTextMessages:MaknSensa\#Twitter.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\368--378}.\bibitem[\protect\BCAY{Han,Cook,\BBA\Baldwin}{Hanet~al.}{2012}]{Han2012}Han,B.,Cook,P.,\BBA\Baldwin,T.\BBOP2012\BBCP.\newblock\BBOQAutomaticallyConstructingaNormalisationDictionaryforMicroblogs.\BBCQ\\newblockIn{\BemProceedingsofthe2012JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning},\mbox{\BPGS\421--432}.\bibitem[\protect\BCAY{Jiampojamarn,Kondrak,\BBA\Sherif}{Jiampojamarnet~al.}{2007}]{jiampojamarn-kondrak-sherif:2007:main}Jiampojamarn,S.,Kondrak,G.,\BBA\Sherif,T.\BBOP2007\BBCP.\newblock\BBOQApplyingMany-to-ManyAlignmentsandHiddenMarkovModelstoLetter-to-PhonemeConversion.\BBCQ\\newblockIn{\BemProceedingsofthe2007ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\372--379}.\bibitem[\protect\BCAY{Kaji\BBA\Kitsuregawa}{Kaji\BBA\Kitsuregawa}{2014}]{kaji-kitsuregawa:2014:EMNLP2014}Kaji,N.\BBACOMMA\\BBA\Kitsuregawa,M.\BBOP2014\BBCP.\newblock\BBOQAccurateWordSegmentationandPOSTaggingforJapaneseMicroblogs:CorpusAnnotationandJointModelingwithLexicalNormalization.\BBCQ\\newblockIn{\BemProceedingsofthe2014JointConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\99--109}.\bibitem[\protect\BCAY{勝木\JBA笹野\JBA河原\JBA黒橋}{勝木\Jetal}{2011}]{katsuki:2011}勝木健太\JBA笹野遼平\JBA河原大輔\JBA黒橋禎夫\BBOP2011\BBCP.\newblockWeb上の多彩な言語表現バリエーションに対応した頑健な形態素解析.\\newblock\Jem{言語処理学会年次大会講演集},\mbox{\BPGS\1003--1006}.\bibitem[\protect\BCAY{Kubo,Kawanami,Saruwatari,\BBA\Shikano}{Kuboet~al.}{2011}]{kubo2011unconstrained}Kubo,K.,Kawanami,H.,Saruwatari,H.,\BBA\Shikano,K.\BBOP2011\BBCP.\newblock\BBOQUnconstrainedMany-to-ManyAlignmentforAutomaticPronunciationAnnotation.\BBCQ\\newblockIn{\BemProceedingsofAPSIPAASC}.\bibitem[\protect\BCAY{工藤\JBA市川\JBA{DavidTalbot}\JBA賀沢}{工藤\Jetal}{2012}]{kudo:2012}工藤拓\JBA市川宙\JBA{DavidTalbot}\JBA賀沢秀人\BBOP2012\BBCP.\newblockWeb上のひらがな交じり文に頑健な形態素解析.\\newblock\Jem{言語処理学会年次大会講演集},\mbox{\BPGS\1272--1275}.\bibitem[\protect\BCAY{Li\BBA\Liu}{Li\BBA\Liu}{2012}]{liu2012}Li,C.\BBACOMMA\\BBA\Liu,Y.\BBOP2012\BBCP.\newblock\BBOQImprovingTextNormalizationusingCharacter-BlocksBasedModelsandSystemCombination.\BBCQ\\newblockIn{\BemProceedingsofthe24thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1587--1602}.\bibitem[\protect\BCAY{岡\JBA小町\JBA小木曽\JBA松本}{岡\Jetal}{2013}]{oka:2013}岡照晃\JBA小町守\JBA小木曽智信\JBA松本裕治\BBOP2013\BBCP.\newblock表記のバリエーションを考慮した近代日本語の形態素解析.\\newblock\Jem{人工知能学会全国大会講演集},{\Bbf27},\mbox{\BPGS\1--4}.\bibitem[\protect\BCAY{Saito,Sadamitsu,Asano,\BBA\Matsuo}{Saitoet~al.}{2014}]{saito-EtAl:2014:Coling}Saito,I.,Sadamitsu,K.,Asano,H.,\BBA\Matsuo,Y.\BBOP2014\BBCP.\newblock\BBOQMorphologicalAnalysisforJapaneseNoisyTextbasedonCharacter-levelandWord-levelNormalization.\BBCQ\\newblockIn{\BemProceedingsofthe25thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1773--1782}.\bibitem[\protect\BCAY{Sasano,Kurohashi,\BBA\Okumura}{Sasanoet~al.}{2013}]{sasano-kurohashi-okumura2013IJCNLP}Sasano,R.,Kurohashi,S.,\BBA\Okumura,M.\BBOP2013\BBCP.\newblock\BBOQASimpleApproachtoUnknownWordProcessinginJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\162--170}.\bibitem[\protect\BCAY{笹野\JBA黒橋\JBA奥村}{笹野\Jetal}{2014}]{sasano2014}笹野遼平\JBA黒橋禎夫\JBA奥村学\BBOP2014\BBCP.\newblock日本語形態素解析における未知語処理の一手法—既知語から派生した表記と未知オノマトペの処理—.\\newblock\Jem{自然言語処理},{\Bbf21}(6),\mbox{\BPGS\1183--1205}.\bibitem[\protect\BCAY{Yang\BBA\Eisenstein}{Yang\BBA\Eisenstein}{2013}]{yang-eisenstein:2013:EMNLP}Yang,Y.\BBACOMMA\\BBA\Eisenstein,J.\BBOP2013\BBCP.\newblock\BBOQALog-LinearModelforUnsupervisedTextNormalization.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\61--72}.\end{thebibliography}\begin{biography}\bioauthor{斉藤いつみ}{2010年早稲田大学理工学部社会環境工学科卒業,2012年東京大学大学院工学系研究科博士前期課程修了.同年,日本電信電話株式会社入社.自然言語処理に関する研究開発に従事.現在,NTTメディアインテリジェンス研究所研究員,情報処理学会,言語処理学会各会員.}\bioauthor{貞光九月}{2004年筑波大・第三学群・情報学類卒.2009年同大大学院システム情報工学研究科コンピュータサイエンス専攻了.同年,日本電信電話株式会社入社.自然言語処理の研究開発に従事.現在,NTTメディアインテリジェンス研究所研究主任.言語処理学会会員.}\bioauthor{浅野久子}{1991年横浜国立大学工学部卒業.同年,日本電信電話株式会社入社.現在,NTTメディアインテリジェンス研究所主幹研究員.自然言語処理に関する研究開発に従事.情報処理学会,言語処理学会各会員.}\bioauthor{松尾義博}{1988年大阪大学理学部卒業,1990年同大学大学院理学研究科博士前期課程修了.同年,日本電信電話株式会社入社.現在,NTTメディアインテリジェンス研究所,音声言語メディアプロジェクト,音声・言語基盤技術グループリーダ.自然言語処理に関する研究開発に従事.情報処理学会,言語処理学会各会員.}\end{biography}\biodate\end{document}
V25N01-05
\section{はじめに} \label{intro}医療現場で生成される多様なデータ(以下,\textbf{医療データ}と呼ぶ)の大部分は自然言語文であり,今後もその状況はただちに変わりそうにない.医療データの利活用としては,診療への応用,もしくは学術研究や政策への応用が挙げられるが,現在,盛んに医療データの利活用の重要性が叫ばれているのは,後者の二次利用である\cite{研究開発の俯瞰報告書2017}.二次利用されることが期待される医療データとしては,\textbf{健診データ}や\textbf{診療報酬データ}がある.健診データは健康診断の際に作成されるデータであり,検査名と検査値から構成される.健診データは受診者が多く,組織で一括して収集されるため,大規模な医療データとしてよく用いられる.一方,診療報酬データは医療費の算定のために用いられるデータであり,医療行為がコード化されたものである.このデータは厚生労働省が収集し管理するため,同じく大規模な医療データとしてよく用いられる.両データは,数値やコードから構成される構造化されたデータのためコンピュータでの扱いは容易であるが,詳細な情報が含まれていないことが解析の限界となっていた.そこで,より詳細な情報が含まれる\textbf{診療録},\textbf{退院サマリ},\textbf{症例報告}といったテキスト化された医療データの活用に注目が集まっている.診療録とは,病院において患者が受診した際や入院時の回診の際に記述されるテキストであり,詳細な患者情報が記述される.また,退院サマリとは,退院時に記述される情報であり,入院中の診療録の要約である.症例報告も退院サマリと同じく入院時の要約であるが,学会に報告されるものである.他にも,病院内にはテキスト化された医療データが存在しており,本稿ではこれらのテキスト化された医療データ全般を指し,\textbf{電子カルテ}と呼ぶ.電子カルテは,自然言語文が中心となる非構造データであるため,扱いは困難であるが,詳細な情報が記述されており,その量は年々増加しつつある.この動きは,1999年に医療データであっても,一定の基準を満たした電子媒体への保存であれば,記録として認められる,という法改正が行われて以降,特に急速に進展した.2008年には,400床以上の大規模病院で14.2\%,一般診療所で14.7\%であった電子化率は,2014年には,400床以上の大規模病院で34.2\%,一般診療所で35.0\%と倍以上に増加している\footnote{厚生労働省医療施設調査より(http://www.mhlw.go.jp/toukei/list/79-1.html)}.このまま増加すれば,ほとんどの病院で電子カルテが用いられるであろう.電子化の第一の目的は,病院の運営の効率化によるコスト削減であるが,副次的な利用法として,これまで膨大な労力をかけて行われてきた調査への応用が期待されている.例えば,医薬品の安全に関わる情報や疫学的情報の収集をより大規模かつ容易に実行可能にしたり,これまで不可能であった医療情報サービスも構築可能にすると期待されている.しかし,このような期待は高まるものの,具体的な成功事例は乏しい.これは,電子カルテに多く含まれる自然言語文の扱いが困難であることが原因で,電子カルテの情報を最大限に活用するには自然言語処理が必須となる.本研究では病名のアノテーション基準を提案し,45,000例もの症例報告を材料としてアノテーションを行う.このアノテーションでは,症例報告の対象患者の疾患や症状についての情報を整理することを目指し,単に病名のみをマークするだけでなく,症状が患者に発生しているかどうかの区別まで行う.海外では,医療分野における同様のコーパスは政府の協力のもと開発,公開がされているが,日本では公開された大規模コーパスは存在せず,コーパスの仕様についても十分な資料がなかった.本稿では,日本で初となる大規模な医療分野のコーパス開発の詳細について述べる.本研究が提案するアノテーションは,症例報告のみならず,さまざまな医療テキストへ利用可能である汎用的なものである.また,これが実行可能なアノテーションであることを示すために,複数のアノテーター間における一致率やその問題点などの指標を示し,フィージビリティの検討を行った.最後に,病名アノテーションを利用して構築した病名抽出器についても紹介する.本コーパスの特徴は,以下の2点である.\begin{enumerate}\item従来,小規模な模擬データが配布されるにとどまっていた利用可能な医療分野のコーパス\cite{mednlp10,mednlp11,mednlp12}と比較し,約45,000テキストという大規模なデータを構築した点.\item単に用語の範囲をアノテーションしただけでなく,用語で示された症状が実際に患者に生じたかどうかという\textbf{事実性}をアノテーションした点.\end{enumerate}特に,症状の事実性を記述することは応用を考えると重要である.例えば,以下のような2つの応用システムを用いたシナリオを想定できる.\begin{description}\item[【医薬品副作用調査シナリオ】]ある医薬品Aと医薬品Bがどれくらい副作用を起こすかを比較したいとする.この場合,医薬品Aと医薬品Bで検索して得られたテキストセットAとテキストセットBをつくり,それぞれに出現する副作用と関連した病名の頻度を比較すればよい.だが,これを実際に行うと,「副作用による軽度の\textless\texttt{P}\textgreater咳嗽\ignorespaces\textless\texttt{/P}\textgreaterは認めたが、\textless\texttt{N}\textgreater間質性肺炎\ignorespaces\textless\texttt{/N}\textgreaterは認めなかった。」\footnote{\textless\texttt{P}\textgreaterで示した病名は事実性のあるもの,\textless\texttt{N}\textgreaterで示した病名は事実性のないものを表す.詳しくは4.2節.}といったように,想定はされるが実際には起こっていない副作用も記述される.よって,事実性を判定する必要が生じる.\item[【診断支援シナリオ】]診断を行う際には,ガイドラインに沿って症状の有無を調べ,合致する診断を下す.これはフローチャートになっており,例えば,意識消失,痙攣あり,嘔吐あり,発熱ありの際に考えられる症状には心筋炎,脳梗塞,脳炎など曖昧性があるが,ここで血液検査を行って炎症所見のない場合は心筋炎が除外される.このような場合,診断がガイドラインに沿っていることを明確にするために,事実性のない症状についても記述される(この例では「炎症所見なし」).よって,診断支援のデータとして用いる場合には,事実性を判定する必要が生じる.\end{description}本研究の貢献は以下の通りである.\begin{enumerate}\item医療テキストへのアノテーションについての詳細な仕様を示した.\item実際にアノテーションした結果について,一致率や問題点などのフィージビリティを議論した.\item本研究で構築したコーパスを用いて病名抽出器を構築し,アノテーションの妥当性を検証した.\end{enumerate}\vspace{1\Cvs} \section{関連研究} 海外でも電子カルテに自由記載された自然言語文からどのように有益な情報を抽出するかについて関心が高まっていた.このため,2006年からNIH(NationalInstitutesofHealth)のサポートで開始されたi2b2NLPChallenge\cite{i2b2}というワークショップにより,様々なコーパスのリリースが行われている.i2b2NLPでは,退院サマリを利用してコーパスが構築されており,これは,筆者らの知る限り,医療分野のコーパスを最初に公開したワークショップである.その後,日本語ワークショップのMedNLP\cite{mednlp10,mednlp11,mednlp12}やヨーロッパでのCLEFe-Health\cite{CLEF2014}など,i2b2NLPの仕様を参考にしたコーパス開発が行われているが,いずれも小規模なものに留まっている.例えば,MedNLPで扱われたコーパスの一部は,言語資源協会(GSK)により「GSK2012-D模擬診療録テキスト・データ」として公開されている\footnote{http://www.gsk.or.jp/catalog/gsk2012-d/}が,わずか20件にすぎない.また,本研究でも利用する医学オントロジーであるICD-10\footnote{ICDとは,世界保健機関(WHO)による,疾病及び関連保健問題の国際統計分類(InternationalStatisticalClassificationofDiseasesandRelatedHealthProblems)の略称であり,世界中で集計された死亡や疾病のデータに基づく分類体系である.ICDにはいくつかのバリエーションがあり,日本ではICD-10が用いられている.詳しくは\ref{ICD-10}節を参照.}と,自然言語文に含まれる疾患名や症状名を対応させるための辞書は,これまでにも何度か作成が試みられている\cite{Fabry2003,ICDyamada,Bouchet1998}.しかし,これらの研究は病名辞書を記述することに終始しており,電子カルテ内の文脈がもつ情報が失われている.本研究では,コーパス中に出現する病名に対してアノテーションすることで,文脈も含んだ形で利用可能なリソースの構築を目指す.本研究は,大規模な日本語の医療コーパスを構築する初めての試みである.これまでにも医療コーパスを用いた研究はあったが,その仕様の詳細については明らかにされておらず,全体像がつかめないのが実情であった.本稿では,今後同様のアノテーションにおいて指針となるように,アノテーションの仕様を実際にコーパスが構築可能な程度の粒度で紹介する. \section{コーパス構築の全体像} \subsection{材料}\label{samari}本研究で扱う電子カルテは\textbf{症例報告}といわれるテキストである(表\ref{shorei}).症例報告とは,学会に提出される患者情報の要約である.症例報告には,患者の診断名・転帰,入院時の症状および所見,治療後の経過などが簡潔に記述され,医師の教育や,類似した症例の参考のために参照される.このため,症例報告は患者に相対して記述する診療録よりも高い可読性で記述される傾向にある.症例報告は学会への報告であるため,記録先は異なるが,入院時の患者の要約であるという点で退院サマリ(図\ref{ehr03})と類似しており,症例報告のアノテーションの枠組みを退院サマリに転移することが可能である.\begin{table}[t]\caption{症例報告「頚部硬膜外血腫を合併した特発性血小板減少性紫斑病」の例}\label{shorei}\input{05table01.txt}\end{table}本コーパスの材料となったテキストは日本内科学会に報告された44,761の症例報告\footnote{この段階ではコーパスから除外する複数症例についての報告(3.2節参照)も含まれているため,完成後のコーパスの症例報告件数とは一致しないことに注意.}である.これは,2004年以降に報告された全症例であり,11,866施設,26,235人の医師からなる.また,これらがカバーする診療科は内科全領域である.症例報告が対象としている分野と,各分野における報告数を表\ref{field}に示す.なお,日本内科学会の会員は学会ホームページ\footnote{http://www.naika.or.jp/}を通じて本コーパスのデータを検索,閲覧可能である.また,本コーパスの研究利用についてはウェブサイト\footnote{http://mednlp.jp/}にて,利用に関しての最新情報を参照可能なようにしている.\subsection{除外データ:複数症例を扱った記録}症例報告の中には,ある症状について,1つの病院で観察された複数の患者のことをまとめて報告したものや特定の病気に対し特定の治療法が有効であるかどうかを複数の事例から考察したものが含まれている.このような報告においては,患者1人1人についての記述が少なく,記述されている情報がどの患者に当てはまるものであるかを判断することが難しい場合が多々ある.そのため,特定の患者1名に関する報告のみをアノテーションの対象とすることとした.\subsection{アノテーションの流れ}\label{flow}電子カルテには専門用語が多く含まれており,正確なデータ整理のためには医学知識が必須となる.例えば,「DICあり」という表現に含まれる「DIC」が「播種性血管内凝固」という疾患を指すといった判断は,医師や看護師,医療事務員といった医療関係者(以降,\textbf{医療従事者})以外の者(以降,\textbf{非医療従事者})にとっては容易ではないため,本来はすべての作業を医療従事者によって行うのが理想的である.しかし,それはコスト的にも人材的にも非常に困難である.最も人数が多い医療従事者は看護師であるが,慢性的に人手不足であり,また,雇用単価も高い(時給換算で2,000円〜2,300円).そもそも,看護師の本来の職務はアノテーションの作業と大きく乖離しており,熱意を持ってアノテーションに従事可能な人材の確保は容易でない.\begin{figure}[p]\begin{center}\includegraphics{25-1ia5f1.eps}\end{center}\caption{退院サマリの例(GSK2012-D模擬診療録テキスト・データから抜粋)}\label{ehr03}\end{figure}\begin{table}[p]\caption{症例報告の対象分野と各分野における報告数}\label{field}\input{05table02.txt}\end{table}そこで,本研究では,データ整理の作業に熟練し,かつ,事務作業とも親和性の高い,医療事務員の経験者を中心に雇用し,コーパスの構築を行う.ただし,医療事務員は看護師や検査技師などの他の医療従事者と比較し,そもそも人数が多くない.そこで,アノテーションのプロセスを医療事務経験者でなくとも従事可能な部分と,医療事務経験者が必要な部分という以下の2つに分けた.\eenumsentence{\label{process}\item\textbf{病名タグ付け}\\医学知識を用いず,非医療従事者が病名だと判断したもの全てにタグを付与する.\item\textbf{病名コーディング}\\上記(\ref{process}a)のプロセスでタグ付けされた表現のうち,頻度の高いものから順に医療従事者が医学知識を用いて,病名であるか否かを判断し,病名である場合は後述するICDコードを付与する.}本稿では,病名の範囲の同定(1a)を{\bfタグ付け},病名の分類(1b)を{\bfコーディング}と呼び,(1a)タグ付けと(1b)コーディングの両方を含む作業を{\bfアノテーション}と呼ぶことにする.なお,作業の効率化を測るため,予め非医療従事者によってタグ付けがなされた少数のデータを教師データとして,機械学習によって自動で全てのデータにタグ付けしたデータ(以降,\textbf{自動タグ付けデータ})を作成し,(\ref{process})の両プロセスにこのデータを利用している.具体的には,(\ref{process}a)の作業は,自動タグ付けデータをアノテーターが修正(タグの追加・削除)する形で行う.また,(\ref{process}b)の作業においては,(\ref{process}a)のプロセスが完了するよりも前に,自動タグ付けデータにおける頻度に基づいてコーディングを行い,(\ref{process})の作業が完了次第,自動タグ付けデータからは収集することができなかった表現に対して,(\ref{process}b)のコーディング作業を行う.\subsection{ICD-10}\label{ICD-10}ICD\cite{ICD10}とは疾病及び関連保健問題の国際統計分類(InternationalStatisticalClassificationofDiseasesandRelatedHealthProblems)の略であり,世界中で集計された死亡や疾病のデータの体系的な記録,分析,解釈および比較を行うため,世界保健機関憲章に基づき,世界保健機関(WHO)が作成したオントロジー的な性質を持つ分類体系である.ICDには各国の事情を反映したバリエーションがあり,例えば米国ではICD-9-CM,オーストラリアではICD-9-AM,日本ではICD-10が用いられている.ICD-10は,アルファベット1桁と数字2〜4桁の組み合わせによって表記され,この表記は{\bfコード}(または\textbf{ICDコード})と呼ばれる.それぞれのコードには,体系的に分類された疾病や死因の概念が対応づけられている.また,実際の電子カルテ内に現れる疾病や病名などを表す表現に対して,コードを割り当てる行為は{\bfコーディング(ICDコーディング)}と呼ばれる.一般の計算機科学で用いられる,プログラムを構築する意味でのコーディングとは異なるので注意されたい.コードは表\ref{tabICD}のような階層構造を持つ.コードの最初のアルファベット({\bf軸}と呼ばれることもある)は,感染症や新生物(がん)などの全身症(A--E),循環器や消化器系疾患など(F--N),奇形や新生児疾患(O--Q),症状や兆候(R),障害(S--T),傷病(V--Y)などの分類記号となっている.さらに,次桁からの数字で詳細な部位などが示される.例えば,「右上肺葉がん」はC341に分類されるが,最初の3桁のC34が「気管支および肺の悪性腫瘍」を示し,最後の1が上肺を示している.ただし,コードに左右の区別はなく,右肺に生じた疾患であるということはC341というコードから判別することはできない.\begin{table}[t]\caption{ICD-10の概要}\label{tabICD}\input{05table03.txt}\end{table}なお,本コーパスの規模としては,56万の病名の出現(TOKEN)を収載し,異なり病名としては19,000種類の病名(TYPE)をカバーしている.これをICD-10コードの種類にまとめると2,260コードとなる.なお,ICD-10は全体として膨大な体系であり,実際には頻出しない病名や日本では存在しない病名も含めると,数万規模の体系となっている.実際に日本で一般的に用いられているICD-10コードの数は約4,900であり\footnote{https://www.medis.or.jp},本コーパスはこのうち約半分(2,260コード)をカバーしていることになる. \section{病名タグ付け} \subsection{病名タグ付けの指針}\label{annoaim}病名タグ付けは,症例報告に含まれる病名にタグを付与する作業である.しかし,\ref{flow}節で述べた通り医療従事者の確保は容易ではないことから,この作業は特に医療やその他の学術的知識を持たない作業者にも可能なように基準を設定した.また,実際に作業を行ったのは,2017年7月現在で医療従事者・非医療従事者を共に含む10名である.以下では,タグ付けの指針や基準の詳細,および作業結果の一致率について述べる.病名タグ付けは,以下の3つの指針に基づいて行った.\subsubsection*{(I)非医療従事者がタグ付け対象の言語的単位を判断しやすい基準を設ける}症例報告においては,同一の症状・疾患の記述であっても,医師によって様々な表現の仕方が用いられる.特に,複数の形態素によって特定の症状・疾患を表している場合,非医療従事者がタグ付けの範囲を決定することが困難である場合が多い.そこで,タグ付けに際しては医療的知識を用いることなく,言語的な情報からタグ付けの有無や範囲の決定を行うことができる基準を設ける.\subsubsection*{(II)病名コードを付与できる可能性を持つ表現を最大限抽出するための基準を設ける}本コーパスは,ICDコードに基づいて,複数の表現がなされている病名を標準化することを目指している.しかし,タグ付けを行う非医療従事者はICDコードに関する知識を有していないため,データ中に見られる症状のどれがICDコードを持っているのかを判断をすることが難しい.そこで,ICDコードが付与される可能性を持つ表現を最大限抽出するための基準を設ける.\subsubsection*{(III)症例報告の患者に関する情報(事実性)を整理する}\ref{intro}節で述べた通り,本研究は症例報告の対象患者の疾患や症状の情報について整理することを目的としている.しかし,実際の症例報告には,患者による罹患が実際に確認された病名だけではなく,存在が否定された病名や施設名等に含まれる病名,さらに特定の症例報告のレベルではなく一般論のレベルで登場する病名も多い.例えば,表\ref{shorei}の症例報告では,実際の患者に生じた症状ではなく,医学的な知識として「ITPは時に重篤な深部出血をきたす」といった記述がなされている.そこで,病名アノテーションにおいては,患者に実際に確認された病名と,そうではない病名を区別し,それぞれに対応するタグを設ける.以下では,上記の指針に基づき行った実際のタグ付け作業の詳細を述べる.\subsection{タグの種類}\label{tagtype}指針(III)に則り,本コーパスで用いるタグは次の3種とする.\eenumsentence{\item\textbf{陽性タグ(Pタグ:\ps~...~\pe)}~\\患者に関する症状,疾患名で実際に罹患が認められたもの,あるいは疑われたものに対してPタグを付与する.\item\textbf{陰性タグ(Nタグ:\ns~...~\ne)}~\\患者に関する症状,疾患名で罹患が否定されたものに対してNタグを付与する.\item\textbf{スキップタグ(SKIPタグ:\sk...)}~\\各データ末尾の一般論にはPタグ,Nタグを付さず,直前にSKIPタグを付すことで,以降のテキストはタグ付け対象外とすることを明示する.Pタグ,Nタグと異なり,終了タグは付与しない.なお,一般論であっても,データの末尾以外にある場合にはSKIPタグを付与せず,Nタグを付与する.}\noindent症例報告において,一般論はテキスト末尾に考察として記述される場合が多く,考察部分はそれ以前の具体的な症例報告とは性質が異なる.そこで,テキスト末尾に登場する一般論はSKIPタグによって区別し,本コーパスからは除外する.なお,テキスト末尾以外に登場する一般論に関しては,Nタグを付与することで患者が実際に罹患した病気と区別する.これらのタグの種類の決定方法については,\ref{tagdecision}節にて例とともに詳細を述べる.先行研究においては,Nタグの内容を区別するものも存在する.例えば,\cite{Aramaki2009text2table}では,「疑い」,「必要」,「可能性」,「否定」,「延期」,「予定」,「希望」,「勧める」,「方針」といった細かい区別を用いていた.また,NTCIRのMedNLP2タスクでは,「否定」,「疑い」,「家族歴」を区別していた.しかし,場合によってはこの区別が困難な場合がある.さらに,今回対象とするコーパスが大規模であることから,できるだけタグの仕様を単純化するのが好ましい.想定される応用例においても,Nタグを除外して検索したい要求はあっても,Nタグの内容を区別して扱うケースは多くないと考えている.以下に想定される応用例を列挙する.\begin{itemize}\item作用調査:Pタグのみを抽出\item副診断支援(類似した症状の患者を検索):Pタグのみを抽出\item診断支援(次に行うべき検査や見るべき所見を予測):PタグとNタグの両方を抽出\item病名表現の統計調査:PタグとNタグの両方を抽出\item入力支援(サジェスト):PタグとNタグを区別せず抽出\end{itemize}\subsection{病名タグ付けの原則}\label{annoprinciple}病名タグ付けは,\ref{annoaim}節に挙げた指針を反映し,下記の原則に基づいて行った.\eenumsentence{\label{annopri}\item名詞で表現される病名に対してのみタグを付与する\itemPタグを付与するのは患者が罹患したと医師が判断した病名(陽性所見)とする}\noindent原則(\ex{0}a)は,指針(I,II)を反映している.症例報告において,当該の報告を記述した医師によって病名の表現の仕方や表記法が異なるため,そのような表記の揺れに対して,非医療従事者であっても言語的な特徴からタグ付け範囲の決定をすることができる基準を設ける必要がある.そこで,タグ付け対象を名詞(サ変動詞の語幹も名詞に含めることとする)に限定することによって,統一的なタグ付けを目指した.原則(\ex{0}b)は,指針(III)を踏まえている.症例報告には,実際に患者が罹患していると医師が判断していない病名が多く含まれている.この点を明示化するために,患者が罹患したと医師が判断したと考えられる病名にはPタグを付与することで,それ以外の病名と区別した.次節では各原則が実際のタグ付けにおいてどのように実現されるかを述べる.\subsection{タグ付けの単位}原則(\ref{annopri}a)に示したように本コーパスでは,タグ付け対象を名詞に限定することで,非医療従事者によるタグ付け単位の判断の統一化を図っている.これは,症例報告において以下のような表記の揺れが散見されるためである.\eenumsentence{\label{kidney}\item腎機能低下が見られた\item腎機能が低下していた\item腎機能が高度に障害されていた}\noindent「腎機能低下」はICDコード(N289)を有する症状である.しかし,症例報告には(\ref{kidney})に例示したように,様々な表現の仕方で,同一の事象が記述されている.このような表記揺れを過不足ない単位で医療知識の無いアノテーターが全て採取することは極めて困難である.また,仮に全ての表記揺れを統一的な単位でタグ付けすることができたとしても,そのような表記揺れは病名コーディングの段階で,頻度の少なさからコーディング対象外となってしまうことが予想される.以降,4.4.1節から4.4.7節では具体的にどのような表現をタグ付け単位として認定したかを詳細に述べる.\subsubsection{複合名詞}\label{fukugomeishi}複合名詞は,1つの名詞として扱い,まとめてタグ付け対象とする.\eenumsentence{\item[]\textbf{複合名詞の例}\item\ps軽度網膜血管炎\pe\item\psAFP高値\pe\item\ps腎機能異常\pe\item\ps全身倦怠感著明\pe\item\ps両側肺門リンパ節腫大\pe\item\psclassV腺癌\pe}また,病名そのものではなくても,患者の症状を表す特定の語彙を含んだものについてもタグ付け対象とする.\eenumsentence{\item[]\textbf{患者の症状を伴う特定の語彙を含む複合名詞の例}\item\ps血痰程度\pe~[〜程度]\item\ps皮膚病変痂皮傾向\pe~[〜傾向]\item\ps壊疽部\pe~[〜部]\item\ps腫瘤辺縁\pe~[〜辺縁]\item\ps項部硬直陽性\pe~[〜陽性(陰性)]}\subsubsection{英語表記・略号}英語表記やアルファベットによる略記も名詞として扱い,タグ付け対象とする.\eenumsentence{\item[]\textbf{英語表記・略号の例}\item\pscarcinoidtumor\pe~[英語表記]\item\psAIP\pe~[英語略記]}\subsubsection{修飾句}本コーパスでは,以下のような修飾句を形成する表現についてはタグ付け対象外とする.\eenumsentence{\item[]\textbf{タグ付け対象としない修飾句の例}\item\underline{急性肝炎様に}\psAIH\peを発症した\item\underline{ポリープ状の}\ps腫瘍\peを認め\item\underline{肉芽腫性の}\ps炎症\pe}ただし,以下のように,「に」や「の」等の助詞が介入せず,複合名詞となっている場合は,原則\ref{fukugomeishi}に示したように,合わせてタグを付与する.\eenumsentence{\item[]\textbf{助詞の介入しない修飾句を伴う複合名詞の例}\item\ps急性肝炎様症状\pe\item\psポリープ状腫瘍\pe\item\ps肉芽腫性炎症\pe}\subsubsection{動詞}本コーパスでは,以下のような動詞が表す症状はタグ付け対象外とする.\eenumsentence{\item[]\textbf{タグ付け対象としない動詞の例}\item両足が\underline{痛み},右膝が\underline{腫れてきた}\item皮膚はいずれも\underline{硬くなった}\item夜はなかなか\underline{寝つけない},とのこと}ただし,サ変動詞の語幹については,それ単体で病名を表す名詞と認定できるものに限ってタグを付与する.\eenumsentence{\item[]\textbf{病名を表す名詞と認定できるサ変動詞の語幹の例}\item\underline{\mbox{\ps狭窄\peしている}}と考えられた\item\underline{\mbox{\ps腎機能低下\peする}}}\subsubsection{セパレーション}中黒(・),スラッシュ(/),ハイフン(-)や,読点(,)をはさむ場合は,その前後が独立した名詞の場合,それぞれを別の名詞として個別にタグを付与する.一方,前部ないし後部がもう一方と連結して複合名詞を作る場合は,当該記号を挟んで1つのタグを付与する.\eenumsentence{\item[]\textbf{分割された前後が独立した名詞として認定できる例}\item[]\ps血痰\pe・\ps下血\peも出現した}\eenumsentence{\item[]\textbf{前部または後部がもう一方と連結する例}\item\psウイルス性,細菌性肺炎\pe疑いあり[ウイルス性肺炎+細菌性肺炎]\item\ns腸蠕動音低下,亢進\neともになし.[腸蠕動音低下+腸蠕動音亢進]\item\ps下咽頭、気管、甲状腺浸潤\pe、\ps頚部リンパ節転移\peと診断され[下咽頭湿潤+気管湿潤+甲状腺湿潤]}「および」「ならびに」といった表現は中黒やスラッシュと同様に扱う.\eenumsentence{\item[]\textbf{「および」「ならびに」が使用されている例}\item\ps体幹および四肢運動失調\peなどを認めた。[体幹運動失調+四肢運動失調]\item\ps結節性ならびに小浸潤性陰影\peを認めた。[結節性陰影+小湿潤性陰影]}\subsubsection{丸括弧}丸括弧で囲まれた言い換えの表現がある場合は,個別にタグを付与する.\enumsentence{\textbf{丸括弧による言い換え表現の例}\ps胃食道逆流症\pe(\psGERD\pe)}\subsubsection{特殊記号を含む名詞}症例報告においては,患者の症状を表すために医師の間で慣習的に使用されている記号が現れることがある.そのような記号は,複合名詞を構成する一部として解釈し,まとめてタグ付けする.\eenumsentence{\item[]\textbf{「上昇/低下」の意味で「↑/↓」が使用されている例}\item\psIgA2800↑\pe\\~~(IgA高値は慢性肝疾患や感染症等を示す血液検査所見)\item\ps皮膚ツルゴール↓\pe\\~~(皮膚ツルゴール低下は脱水症、特に低張性脱水症)}\eenumsentence{\item[]\textbf{「陽性/陰性」という意味で「(+)/($-$)」が使用されている例}\item\ps項部硬直(+)\pe\item検尿も\ns蛋白($-$)\ne、\ps潜血(+)\peであった}\subsection{タグの種類決定}\label{tagdecision}症例報告に登場する病名には,医師が実際に患者に認めたものだけでなく,検査の結果否定された病名や一般論において登場する病名,患者の症状とは関係のない複合名詞の一部として登場するものが多く存在する.本コーパスでは,そのような表現に対応するために,\ref{tagtype}節に挙げた3種のタグ(Pタグ,Nタグ,SKIPタグ)をアノテーションに用いる.本節では,具体的にどのような表現に各タグを付与するかを述べる.\subsubsection{患者の症状以外の病名を含む複合名詞}患者の症状としてではなく,施設名,手術名,検査名といった複合名詞の一部に含まれた病名にはタグを付与しない.\eenumsentence{\item[]\textbf{患者の症状を表さない病名を含む複合名詞の例}\itemかかりつけの■■■内科\underline{リウマチ}科クリニックより当院紹介受診となった.\item\underline{左下肢静脈瘤}手術を行った.\item細菌培養、\underline{膠原病}検査を行い1週間経過観察}\subsubsection{まだ発症していない病名}実際には,まだ発症していないが,今後患者に発症が予想されている病名にはNタグを付与する.\eenumsentence{\item[]\textbf{発症が予想されている病名の例}\item\ns気道閉塞\neの危険が高く\item\ns肺塞栓症\neの発症が危惧された}\subsubsection{家族歴}家族歴(患者の家族が罹患したことのある症状)は,患者が実際に罹患していない病名であるため,Nタグを付与する.\eenumsentence{\item[]\textbf{家族歴の例}\item母が\ns高脂血症\ne\item長兄、祖母にも\ns大動脈疾患\neの既往歴があり}なお,患者本人の既往歴(過去に患っていた症状)に関しては,患者の罹患した病名であるため,Pタグを付与する.\enumsentence{\textbf{患者の既往歴の例}XX歳時に\ps胃潰瘍\peのため胃亜全摘術\underline{既往歴}がある。}\subsubsection{罹患が疑われている病名}罹患が疑われている病名に関しては,同一文内で陰性であることが示されている場合に限りNタグを付与し,それ以外はPタグを付与する.\eenumsentence{\item[]\textbf{同一文内で罹患が否定されている例}\item\ns脳血管障害\neを\underline{疑い}CT・MRIを施行したが異常所見を\underline{認めなかった}。\item\ns抗酸菌感染症\neを\underline{疑い}喀痰抗酸菌検査を施行したが\underline{陰性}で、外来での厳重な経過観察とした。}\eenumsentence{\item[]\textbf{同一文内で罹患が否定されていない例}\item臨床経過より、アミオダロンによる\ps薬剤性肺障害\peを\underline{疑った}。\item喘息既往や血液検査から\ps好酸球性肉芽腫性多発血管炎\peを\underline{疑った}。}また,疑いを表す述部の例としては以下のものが挙げられる.\eenumsentence{\item[]\textbf{疑いを表す述部を伴う例}\itemバルサルバ負荷によるTMFの変化、肺静脈血流と流入血流左室内伝播速度を観察したところ、いずれも\ps左室拡張障害\peを\underline{示唆する}結果であった。\itemモニター心電図上、心拍数200回/min程度の\pswideQRStachycardia\peを認めており、\ps心室頻拍\peと\underline{考え}、マグネゾール1Aを静注後に\ns頻拍\neは停止した。\item■■月■■日縦隔腫瘍摘出し\psganglioneuroma\peと診断。良性で全身病態に関連少ないと判断し、\psGBS\peを\underline{想定し}、免疫吸着を行った。\item\ps脳卒中\peが\underline{疑われる}\ps神経症状\peを認めたため脳MRIを施行、右小脳・右脳幹に比較的最近に発症したと思われる\ps脳梗塞所見\peを認めた。\item\psヘパリン起因性血小板減少症\peの\underline{可能性を考え}抗ヘパリン-PF4複合体抗体を測定したところ陽性であった。\item\ps悪性腫瘍\peも\underline{否定できない}ため、診断目的でエコー下肝生検を施行。}\subsubsection{治癒表現}治癒を表す表現が伴っている病名については,症状や疾患が完全に消失したことが明示されている場合のみNタグを付与する.\eenumsentence{\item[]\textbf{完全に消失したことが分かる治癒表現を伴う例}\item\nsリンパ腫所見\neは\underline{消失し}ており\item\ns血尿\neは\underline{陰性化し}}なお,症状・疾患が完全に消失したことが明示されていない場合はPタグを付与する.\eenumsentence{\item[]\textbf{症状・疾患が完全に消失したことが判断できない例}\item\ps腫瘤\peは\underline{ほぼ消失し}ていた\item\ps発疹\peも\underline{消退傾向}となり\item\ps心不全症状\peの\underline{軽快}を認めた\item腸管壁の\ps肥厚\peは\underline{改善し}た}「寛解」「完全寛解」「奏効」「完全奏効」という用語は,癌の徴候が消失しただけであり,完全な治癒を表すわけではないため,これらを伴う病名にはPタグを付与する.\subsubsection{一般論に見られる病名}症例報告に見られる病名には,個別のケースについて言及しているのではなく,これまでに得られている知見の一般的記述の中に登場するものが多く存在する.また,そのような一般論は,本文末尾に記述されることが極めて多い.本研究におけるタグ付け作業は,\ref{flow}節で述べたように,自動タグ付けデータを修正する形で実施したため,本文末尾の一般論に含まれる病名に予め付与されたタグを1つ1つ人手で削除する作業は非効率的である.そのため,タグ付け作業ではSKIPタグを設け,本文末尾の一般論の直前にこれを付すことで,それ以降のテキストに付されたタグを無視するようにした.\eenumsentence{\item[]\textbf{本文末尾に登場する一般論の例}\item...その後徐々にALTは低下し、ウィルス量も低下したが、\ps肝不全\peからの回復には至っておらず、現在も治療中である。\sk\underline{近年ではステロイドフリーの化学療法や、他の免疫抑制剤でも、免疫抑制の回復期におこるHBVの再活性化が数多く報告されている。また劇症化症例においては肝炎発症後のラミブジン投与では効果に乏しく、予後も不良である。化学療法に伴うHBVの再活性化、劇症肝炎はいかなる化学療法においても引き起こす可能性があり、HBe抗原やキャリアの肝予備能に関わらず、ラミブジンの予防投与をすることが必要と考える。}\item...薬物的除細動は合部調律が続き、その後洞調律となり、薬物療法を行って整脈を維持出来た。\sk\underline{長年に渡り心房細動が続き、左心房の拡大がかなり拡大している症例でも心筋シンチ検査を行い、その所見から、除細動が可能かの判定に役立てる事が出来ると思われた。}}なお,本文末尾以外に登場する一般論については,患者に実際に見られた症例とは区別して,Nタグを付与することとした.\eenumsentence{\item[]\textbf{本文末尾以外に登場する一般論の例}\item\underline{\mbox{\ns平滑筋肉腫\neは、進行又は}再発症例では有効な治療法が確立されておらず、その予後も不良であるのが現状である。}今回我々はGemcitabine/\linebreakDocetaxelの化学療法にて予後の改善が得られた後\ps腹膜原発平滑筋肉腫肝転移\peの1例を経験したので報告する。...}\subsection{作業者間一致率}本節でこれまで述べてきた,病名タグ付けの基準の妥当性を調査するため,実際に作業に従事した10名のうち2名(非医療従事者)がランダムに抽出された100件の症例報告を対象に行ったタグ付け結果について,一致率の評価を行った.評価は一方の作業者の作業結果を正解,もう一方の結果をシステムの出力結果とみなし,再現率(recall),精度(precision),F値を算出した.正解か否かについては,タグ種類とタグ範囲が共に一致した場合に正解,それ以外は全て不正解とした.結果を表\ref{tagconc}に示す.\begin{table}[b]\caption{タグ付与についての作業者間一致率}\label{tagconc}\input{05table04.txt}\vspace{3\Cvs}\end{table}まず,病名に関するタグ(Pタグ,Nタグ)付与の不一致の原因について述べる.Pタグについては,「菲薄化」「心室細動」などの医学用語に関する知識の差が原因とみられる不一致がみられた.一方,Nタグについては,Pタグに比べ一致率が低くなる傾向がみられた.また,作業者間でSKIPタグの範囲が異なる場合,その範囲のPタグとNタグは一方で作業対象となるが,もう一方ではSKIPタグの範囲内として処理されることになり,必ず不一致が生じる.このため,Pタグ,Nタグの一致率はSKIPタグの一致率にも影響される.SKIPタグについては一致率が顕著に低い値となった.不一致の場合,同一の症例報告に対し,両方の作業者がSKIPタグを付与しているものの,その範囲が異なっている例が散見された.そのような例を,原因とともに(\ref{skip_kanja}),(\ref{skip_symbol})に示す.\clearpage\eenumsentence{\item[]\textbf{一般論や考察部分とも,患者に関しての言及とも捉えることが可能で判断が分かれる場合}\item[a.]考察:不明熱にて発症し、確定診断まで難渋した症例を経験した。\skAbiotrophiadefectivaは...\item[b.]\sk考察:不明熱にて発症し、確定診断まで難渋した症例を経験した。Abiotrophiadefectivaは...\label{skip_kanja}}\eenumsentence{\item[]\textbf{位置がほぼ一致しているが,開始時点の見出しの扱いに相違が見られる場合}\item[a.]【考察】\sk透析患者における悪性リンパ腫の報告は少ない。...\item[b.]\sk【考察】透析患者における悪性リンパ腫の報告は少ない。...\label{skip_symbol}}\noindentこのように,何をもって一般論・考察の開始とするかについては判断が難しいと考えられ,今後ガイドラインの検討を要する.また,見出しの取扱いについてもガイドラインの修正が必要である.両作業者が同一の範囲にPタグもしくはNタグを付与した場合についても同様に,一方の作業者の結果を正解,もう一方の作業者の結果を出力とみなし評価した(表\ref{tagrange}).なお,SKIPタグについてはPタグやNタグと同一範囲に付与された例は見られなかった.結果として,F値が98.6と高い一致率を示した.\begin{table}[t]\caption{タグ範囲が一致した場合の作業者間タグ種類一致率}\label{tagrange}\input{05table05.txt}\end{table} \section{病名コーディング} \label{sectioncoding}病名コーディングとは,前節で述べた病名タグ付けの作業によって症例報告の文章中から抽出された症状や疾患を表す表現に対して,ICDコードと標準病名を属性として付与する作業である.なお,病名コーディングは,Pタグが付与された表現のみを対象とする.この作業は,先の病名タグ付けとは異なり,医療知識を有する医療従事者が行った.本研究では,コーパスの作成にあたり3名の医療従事者(以下,「{\bf作業者}」と呼ぶ)が病名コーディングの作業を担当した.コーディングにあたっては,3名の作業者が意見を交換しつつ,Pタグが付与された表現に対して可能な限りICDコードを付与することを目指し,コーディングを実施した.本節では,病名コーディング作業の基本的な手順,およびコーディング作業にあたっての留意点について述べる.\subsection{コーディング作業の手順}\label{codingprocedure}病名コーディングの作業には万病辞書を用いた.万病辞書とは,奈良先端科学技術大学院大学が開発しているデータベースであり,ICDコードと,それに対応する標準病名が記載されている\footnote{http://www.mednlp.jp/dic-ja.html}.コーディング作業は,Pタグが付与された表現と,万病辞書に記載された項目との一致を利用して行った.具体的なコーディング作業の流れは次の通りである.Pタグが付与された表現について,まず,全文一致検索による自動コーディング処理を行い,そこでコーディング処理がされなかったものについては,作業者が人手によるコーディングを行った.詳細な手順を以下に述べる.\subsubsection{自動コーディング}Pタグが付与された全ての表現を万病辞書で全文一致検索する.万病辞書の記載に全文一致する項目が見つかった場合,その項目に対応するICDコードを付与する.\subsubsection{人手によるコーディング}人手によるコーディングは,(I)全文一致検索に基づくコーディングと,(II)部分一致検索に基づくコーディングの2段階に分かれる.それぞれの手順を以下に述べる.\begin{enumerate}\item[(I)]{\bf全文一致検索に基づくコーディング}\end{enumerate}先の自動コーディング処理による全文一致検索の取りこぼしを補うため,Pタグが付与された表現のうち,略語や英語を伴う表現をパラフレーズしながら万病辞書で検索を行う.全文一致する項目が見つかった場合,そのICDコードを付与する.例えば,(\ref{fullmatch})では``Wegener''という英語表記が用いられている.この語は,「ウェゲナー」あるいは「ウェジナー」と読まれることもあるため,「ウェゲナー」もしくは「ウェジナー」としても検索を行う.\enumsentence{\label{fullmatch}\underline{\mbox{Wegener}}(ウェゲナー,ウェジナー)肉芽腫(M313:多発血管炎性肉芽腫症)}\begin{enumerate}\item[(II)]{\bf部分一致検索に基づくコーディング}\end{enumerate}Pタグが付与された表現について,万病辞書と全文一致する項目がみられない場合,部分的に一致する項目を検索したうえで,対応するICDコードを付与する.部分検索は,Pタグを付与された表現が最も多くの修飾語を含む状態から始め,万病辞書内の適切な項目に一致するまで,段階的に修飾語を省略しながら実施する.万病辞書と部分的に一致する項目が見つかった場合,その段階で検索を終了する.例えば,「LQT2型QT延長症候群」という表現は,万病辞書内に全文一致する項目が存在しない.そこで「LQT2型」という修飾語を省略し,「QT延長症候群」で万病辞書を検索することで,対応するICDコードである「I490:QT延長症候群」を見つけることができる.なお,「LQT2型」は遺伝子の型別を表すと解釈できるため,病名は「遺伝性QT延長症候群」とする.\eenumsentence{\item「\underline{\mbox{LQT2型}}QT延長症候群」で検索→一致なし\item「QT延長症候群」で検索→I490:QT延長症候群}また,タグ付けの段階で欠損したと考えられる情報を補完することで対応するICDコードの特定が可能になる場合は,情報を補完してコーディングを行った.例えば,(\ref{supplement})は病名の一部が欠けた状態で抽出された表現である.この場合,まず「グレン症候群」で検索を行い,部分一致した項目である「シェーグレン症候群」のICDコードを付与した.\enumsentence{\label{supplement}グレン症候群(M350:\underline{シェーグレン}症候群)}修飾語の有無がコーディングに影響する疾患名や病名も存在するため,部分一致の検索を行う際には特に留意する必要がある(\ref{codprecision}節参照).なお,部分一致検索にあたって修飾語を省略する際は,表\ref{codingpartition}のように修飾語が表す意味のカテゴリごとに区分を設けた.\begin{table}[t]\caption{修飾語を伴う病名の例「重症熱性血小板減少症候群(A938:重症熱性血小板症)」}\label{codingpartition}\input{05table06.txt}\end{table}\subsection{コーディング作業の指針}\label{codingattention}本節では,コーディング作業における具体的な指針について,実例を挙げながら述べる.\subsubsection{表記のゆれ}Pタグが付与された表現の中には,同じ疾患や症状を表すものであっても異なる表記で出現するものがある.例えば,「R91:胸部異常陰影」というICDコードに対応する表現は,(\ref{glass})のようにさまざまな表記で現れる.このような場合は,表記の異なりを捨象してすべて同一のICDコードを付与した.\enumsentence{\label{glass}{スリガラス/すりガラス/スリガラス状/すりガラス状/スリガラス様}陰影}\subsubsection{ウェブ上の情報の利用}Pタグが付与された表現の中には,略語で表記されたものや希少疾患,作業者に馴染みが薄い病名など,一見するとコーディングが難しいものがある.(\ref{internet})に例を示す.\eenumsentence{\label{internet}\item電撃性紫斑病(D692:紫斑病)\itemペットボトル症候群(E872:ケトアシドーシス)}このような表現についても可能な限りICDコードを付与するために,ウェブサイトの情報を参考にすることもあった.なお,ウェブサイトの情報の利用頻度にはそれぞれの作業者の間で個人差があった.なお,インターネット上の情報を参照するにあたり,情報の信頼性についても考慮した.特に,公的機関のウェブサイトや,日本内科学会症例検索システム「症例くん」\footnote{http://www.naika.or.jp/meeting/endaikensaku/},または検索上位のウェブサイトを参考に,最も妥当であると考えられるICDコードを付与した.\subsubsection{コーディングの精度}\label{codprecision}同じ病名を含む表現であっても,修飾語の有無によって対応するICDコードが異なることがある.そのような場合は最も妥当な分類に対応するICDコードを付与するように留意した.例えば,(\ref{modifier})に挙げたような修飾語は,コーディングに影響する.(\ref{memai})はその具体例である.また,(\ref{cancermod})のように,癌に関わる表現は,「術後」や「再発」などの語の有無によって対応するICDコードが異なることがある.\enumsentence{\label{modifier}二次性,心因性,1型・2型,原発性,中枢性,家族性,遺伝性,細菌性,完全性,再発性,本態性,疾患部位を表す表現など}\eenumsentence{\label{memai}\itemH814:\underline{心血管性}めまい\itemH811:\underline{体位性}めまい\itemT752:\underline{低音性}めまい\itemF456:\underline{心因性}めまい}\eenumsentence{\label{cancermod}\itemC169:早期胃癌\itemZ080:早期胃癌\underline{術後}\itemC761:乳癌術後胸壁\underline{再発}\itemC798:乳癌術後胸壁\underline{転移}}\subsubsection{複数コーディング}\label{multiplecoding}ある1つのPタグが付与された表現に対して,複数のICDコードや病名が対応すると考えられる場合,最大2つまでICDコードおよび病名を付与した.\eenumsentence{\label{2coding}\item嘔気嘔吐(R11:嘔気・嘔吐症)\item脂肪肝合併2型糖尿(K760:脂肪肝・E11:2型糖尿病)\item呼吸障害(J060:呼吸困難・J969:呼吸不全)\item全身関節痛(M2550:多発性関節症・M2559:関節痛)}(\ref{2coding}a,\ref{2coding}b)のように,2つの語が並列されて1つの表現を構成している場合は,それぞれの単語について万病辞書の検索を行ったうえで,対応するICDコードおよび病名を2つまで付与する.また,(\ref{2coding}c)のように,病状の程度を表す表現の意味が曖昧で,病状の重症度が特定できない場合は,対応すると考えられるICDコードを最大2つまで付与する.(\ref{2coding}d)のように,作業者の間でコーディングについて意見が分かれ,協議の結果1つのICDコードに断定できなかった場合,最大2つまでICDコードを付与する.なお,Pタグが付与された1つの表現に対して,3つ以上のICDコードが対応すると考えられる場合は,その表現をコーディングの対象外とする.(\ref{codexclusion})はコーディング対象外とされた表現の例である.\eenumsentence{\label{codexclusion}\item血管炎\item血栓\item肉芽腫}作業者間での意見の相違と,その解決方法については,\ref{codingworksproblem}節にて改めて詳述する.\subsubsection{医学的知識の利用}\label{knowledgebasedcoding}コーディングを行う際には,医学的知識を利用して表現の意味を解釈しなければならない場合がある.そのような場合は,解釈を補った上でコーディングを行った.ある検査の異常な結果を表す表現には,その検査異常に対応するICDコードを付与する.\eenumsentence{\label{examresult}\item動脈血ガス(R798:血液ガス値異常)\item膵性胸水(R848:胸水検査異常)\item陰性T波(R943:心電図異常)}ある検査で陽性の反応が出たことを示す表現の場合も,その検査結果に対応するICDコードを付与する.\enumsentence{\label{virus}胸水結核菌\underline{陽性}(R845:胸水結核菌陽性)}表現中の医学用語を解釈することで対応するICDコードが同定できる場合は,そのICDコードを付与する.例えば(\ref{fukujin})では「副腎外」という語が用いられているが,副腎外という人体の部位は存在しないため,「異所性」を含む病名を付与する.\enumsentence{\label{fukujin}\underline{副腎外}褐色細胞腫(D447:\underline{異所性}褐色細胞腫)}病状の程度を含む表現は,病状の程度を解釈し,それに応じて対応するICDコードを付与する.\eenumsentence{\label{codkidney}\item腎機能障害(N289:腎機能低下)\item腎障害(N289:腎障害)\item急性腎障害(N289:腎障害)\item腎病変(N289:腎疾患)\item腎機能異常(R944:腎機能検査異常)\item軽度腎機能障害(N289:腎機能低下)}疾患を特定できる臨床所見を表す表現には,対応する疾患のICDコードを付与する.\eenumsentence{\label{tokutei}\item骨破壊(M0690:関節リウマチ)\itemニボー像(K567:イレウス)}症状を表す表現であっても,対応するICDコードが存在する場合は,そのコードを付与する.\eenumsentence{\label{shoujou}\item脱水(E86:脱水症)\itemめまい(R42:めまい)}\subsubsection{コーディング対象外の表現}\label{nospecification}以下に挙げる表現は,コーディングの対象外とした.\eenumsentence{\item[]\textbf{患者に生じている疾患,症状を表さない表現}\item急性期\itemステージII\item予後不良}\eenumsentence{\item[]\textbf{細胞変性などを表す表現}\item○○変化\item○○浸潤\item形態異常}\eenumsentence{\item[]\textbf{病変部位を1つに特定できない表現}\item多発潰瘍\item嚢胞\item基礎疾患}\eenumsentence{\item[]\textbf{意味が漠然としており,対応するICDコードが推測できない表現}\item拡張\item貯留\item多発病変\item偶発症}\eenumsentence{\item[]\textbf{部分一致検索で対応項目が見つからず,ICDコードを推測できない表現}\item症\item壁運動障害\item嚢胞状}\eenumsentence{\item[]\textbf{検査所見を表す表現(「R91:胸部異常陰影」に対応する表現を除く)}\item○○状陰影\item狭窄所見\item壁肥厚\pagebreak\itemlowdensityarea\item異常集積}\subsection{病名コーディングの具体的作業}本節では,コーディング作業の具体的な内容について述べる.特に,作業者間でのコーディング作業の分担およびコーディングの結果について詳しく述べる.\subsubsection{コーディング作業の分担}病名のコーディングは,コーディング対象データの総数13,207件のうち,自動コーディング処理がされた4,603件を除いた8,604件のコーディングを3名の作業者が担当した.この8,604件のうち,出現頻度が5,055回から30回までの,1,071件の表現については,3名全員がコーディングを行った.残りの7,533件については,3名がそれぞれ分担して個別にコーディングを行った.ただし,判断に迷う場合は3名で協議しながらコーディングを実施した.\subsubsection{コーディングの統一作業}上述の通り,高頻度の表現(出現頻度5,055回から30回の1,071件)のコーディングは3名の作業者全員が行ったものであるため,3名の間でコーディングの判断が分かれる部分もあった.この1,071件のコーディングについては3名で協議を行い,最終的なコーディングを決定した.最終的なコーディングは,以下の基準にしたがって決定した.\eenumsentence{\label{codunify}\item1つのPタグが付与された表現に対し,3名全員がコーディングの対象外と判断した場合は,その表現をコーディング対象外とする.\item1つのPタグが付与された表現に対し,3名全員が同一のICDコードを付与した場合は,そのICDコードを採用する.\item作業者の間でコーディングについて見解の相違があった場合は,協議を行い,統一したICDコードを付与する.}最終的なコーディング決定に至る手順は次の通りである.(I)作業者各自が行ったコーディングの結果を照らし合わせた後,(II)作業者間で意見の対立がある部分について協議し,(III)最終的なコーディングを決定した.\noindent{\bf(I)作業者各自が行ったコーディング結果の照合}\begin{table}[t]\caption{コーディングの照合結果}\label{d}\input{05table07.txt}\end{table}まず,それぞれの作業者が個別に行ったコーディングの結果を照合した.この時点で,(\ref{codunify})の基準に従い3名の作業者間でコーディング結果が一致した場合,コーディングを確定した.結果を表\ref{d}に示す.また,作業者間のコーディングの一致率(\%)を以下の式によって求めた.\[\frac{\mbox{作業者間のコーディングの一致数}}{\mbox{コーディングされた表現数}}\times100\]結果を表\ref{codmatch}に示す.表\ref{codmatch}では便宜上それぞれの作業者を$h_{1}$,$h_{2}$,$h_{3}$と表記する.表\ref{codmatch}から,3名の作業者全員のコーディングを対照すると,7割程度の一致がみられたことがわかる.\begin{table}[t]\caption{コーディング作業の一致率}\label{codmatch}\input{05table08.txt}\end{table}\noindent{\bf(II)作業者間での協議}3名の間でコーディングについて見解の相違がみられた場合,協議を行ったうえで最終的なコーディングを決定した(\ref{codingworksproblem}節参照).\noindent{\bf(III)最終的に決定したコーディング結果}作業者間での協議の結果,最終的に決定したコーディングの件数を表\ref{c}に示す.\begin{table}[t]\caption{最終的に決定したコーディングの結果}\label{c}\input{05table09.txt}\end{table}\subsection{コーディング作業の問題点}本節では,実際に病名コーディング作業を行った結果,明らかになった問題点について述べる.具体的な問題点としては,ICDコードそのものが抱える問題(\ref{icdproblem}節)と,3名の作業者間での意見の対立によって生じた問題(\ref{codingworksproblem}節)の2点がある.以下,それぞれについて述べる.\subsubsection{ICDコードそのものが抱える問題}\label{icdproblem}病名コーディングの作業を行う中で,ICDコードの分類や表記が抱える問題が示唆された.この問題は,ICDコードそのものが原因であるため,コーディング作業者の努力だけでは解決することができなかった.今後の課題といえる.まず,ICDコードが,どのような基準によって分類されているか不明確なため,Pタグを付与された表現に対応するICDコードの検索や同定が困難になることがあった.例えば,(\ref{codsimilar})は,類似した病名に対応するが異なる分類をもつICDコードの例である.\eenumsentence{\label{codsimilar}\itemN40:前立腺\underline{症}\itemN429:前立腺\underline{障害}}また,さまざまな部位に発生すると考えられる疾患ではあるが,特定の部位についてのICDコードしか存在しないため,推測によるコーディングをしなければならない場合があった.\eenumsentence{\item伸展不良(Q344:\underline{軟産道}伸展不良)\item側副血行(Q258:\underline{主要大動脈肺動脈}側副血行路)}ICDコードに対応する病名の表記にゆれがあり,検索が困難になることがあった.\eenumsentence{\item「癌」と「がん」\item「嚢胞」と「のう胞」}\subsubsection{作業者間での意見の対立によって生じた問題}\label{codingworksproblem}コーディング作業は,3名の作業者が行ったものであるため,意見の相違が生じることもあった.この問題に対しては,作業者間で協議を行うことによって解決を試みた.本節では,作業者間の意見の相違から生じた問題と,その解決法について述べる.具体的な問題としては,(I)Pタグが付与された表現のコーディング可否についての問題と,(II)Pタグが付与された表現にどのICDコードを付与するかという2つの問題が生じた.\noindent{\bf(I)コーディング可否の問題}あるPタグが付与された表現をコーディングの対象とみなすかどうかという基準について,3名の作業者の間で意見が分かれることがあった.本コーパスの目的からすると,Pタグが付与された表現には可能な限りコーディングをすることが望ましい.しかし,作業者の主観的な推測によって,本来コーディングの対象外である表現にまでコーディングをするようなことは避けなければならない.例えば,作業者の中には,(\ref{indirect})に挙げた表現には対応するICDコードの存在が推測できるため,コーディング可能であるという意見があった(カッコ内はコーディング候補).しかし,これらの表現は,ある疾患や症状の発生を推測する手掛かりになりうる表現ではあるものの,患者に生じている疾患や症状そのものを示す表現ではない.そこで,このような場合はコーディングの対象外と判断した\eenumsentence{\label{indirect}\item転移(C80:転移性腫瘍)\item単核球(B270:EBウイルス伝染単核症,B279:伝染性単核症)\item止血困難(R58:出血)}画像所見を表す表現に対しても,可能な限りコーディングを施した.ただし,コーディングの対象は,実際に患者にその症状が生じていることが明らかな表現に限った.例えば,(\ref{tumor})に挙げた「腫瘤影」や「腫瘤陰影」という表現は,患者の身体に腫瘤が存在することを示唆するため,「R229:腫瘤」のICDコードが対応するという意見があった.しかし,「腫瘤影」や「腫瘤陰影」という表現は,実際に患者の身体に腫瘤が存在がしているかどうかにかかわらず,腫瘤を疑わせる影が認められるだけの場合でも用いることができる.これに対して,「腫瘤形成」や「腫瘤病変」といった表現は,医師が患者を診察した結果,腫瘤が存在することを確認した場合に用いられる.したがって,最終的に「腫瘤影」と「腫瘤陰影」は,実際に患者の身体に腫瘤が存在していることが明らかではない表現と判断して,コーディングの対象外とした.\eenumsentence{\label{tumor}\item腫瘤影(コーディング対象外)\item腫瘤陰影(コーディング対象外)\item腫瘤像(R229:腫瘤)\item腫瘤形成(R229:腫瘤)\item腫瘤病変(R229:腫瘤)}なお,異常陰影を表す表現も画像所見であるが,「R91:胸部異常陰影」のみICDコードが存在するため,胸部の陰影を表すと解釈できる表現についてはコーディングを行った.\enumsentence{スリガラス陰影(R91:胸部異常陰影)}\noindent{\bf(II)対応するICDコードの問題}Pタグが付与された表現の中には,作業者によって,どのICDコードを付与するか見解が分かれたものがあった.そのような場合,3名の作業者で協議したのち,統一したICDコードを付与するか,統一できない場合は2つまでICDコードを付与した.(\ref{majority})は多数意見を採用した例である.なお,以下では3名の作業者をそれぞれ$h_{1}$,$h_{2}$,$h_{3}$と表記し,それぞれが行ったコーディング結果をカッコ内に例示する.\enumsentence{\label{majority}心窩部不快感(R198:心窩部不快)\item$h_{1}$,$h_{2}$,$h_{3}$:(R198:心窩部不快,R198:心窩部不快,R908:胸部不快)}なお,ICDコード付与の判断にあたっては,必ずしも多数意見を採用するのではなく,特に重要と思われるものであれば少数意見も採用した.(\ref{minority})はその例である.\enumsentence{\label{minority}虚血性小腸炎(K559:虚血性腸炎)\item$h_{1}$,$h_{2}$,$h_{3}$:(K529:小腸炎,K529:小腸炎,K559:虚血性全腸炎)}また,1つの表現に対応するICDコードを1つに断定できない場合は,\ref{multiplecoding}節に示した基準に依拠して,2つまでICDコードを付与した.\enumsentence{呼吸障害(J060:呼吸困難・J969:呼吸不全)\item$h_{1}$,$h_{2}$,$h_{3}$:(R060:呼吸困難,J969:呼吸不全,R060:呼吸困難)} \section{応用システム:病名抽出器の構築} ここまで,医療テキストコーパスの構築方法について述べてきたが,本節ではこのコーパスを用いた応用システムの可能性について議論する.本コーパスの最も素朴な応用は,このコーパスを学習データとして類似症例検索システムや診断支援システムといった,様々な高次の応用システムで利用可能な病名抽出器を作ることである.以下では,タグ付けされていない医療テキストから自動で病名を抽出する病名抽出器の概要について述べる.なお,前節までは疾患名・症状名などを区別してきたが,本節では4節でタグ付け対象とされていたものを単に\textbf{病名}と呼ぶことにする.\subsection{病名抽出器の処理}\label{subsection:病名抽出器の処理}前節までに説明した医療テキストコーパスを教師データとして用いて,病名を自動で抽出する病名抽出器を開発した.以下では,本病名抽出器の処理方法について述べる.提案する病名抽出器は以下の2つの処理を同時に行う.\begin{enumerate}\renewcommand{\labelenumi}{}\item事象認識(ER):医療テキストにおける病名および疾患名を識別する.これは,一般的な固有表現認識タスクと類似した処理である.以降,この処理を\textbf{ER}(EntityRecognition)とも呼ぶ.\item陽性/陰性(P/N)分類:テキスト中のPタグとNタグの区別を行うタスクである.以降,この処理を\textbf{P/N分類}と呼ぶ.\end{enumerate}病名抽出器の2つの処理は,4節で説明したアノテーションによる病名タグと対応している.タグの学習にあたっては,文字単位で事象認識と事象の事実性判別を同時に系列ラベリングの問題として解いた.一般的に,医療テキストには長く複雑な複合名詞(例えば,「傍大動脈リンパ節郭清」など)や,ひらがなのみからなる医療用語(例えば,「びまん」など)が多く出現することにより,形態素解析の誤りがしばしば発生する.そのため,病名抽出器では,単語単位ではなく,より頑健な文字ベースでの解析\cite{asahara}を採用した.図\ref{wordCRF}に文字ベースでの系列ラベリングと単語ベースでの系列ラベリングの違いを示す.事実性の判定に関しては,これまでにも多くの先行研究があるが\cite{kitagawa,matsuda},本研究では一般的かつ実装が簡易な手法でコーパスの規模と精度の関係を調査するため,事象認識のラベルとして事実性を表現した.通常,事実性判定(P/N分類)は事象認識の後に適用される.しかし,P/N分類に必要な情報はERで必要な情報と重複する部分も多い.例えば,「〜が認められる」「〜が認められない」は,ともに病名出現の大きな手がかりであるとともに,P/N分類の手がかりにもなる.このため,ERとP/N分類の2タスクを1つに融合する方式を採用した.\begin{figure}[b]\begin{center}\includegraphics{25-1ia5f2.eps}\end{center}\hangcaption{提案する病名抽出器による医療テキストからの病名抽出の例,ならびに,単語ベースの系列ラベリングと文字ベースの系列ラベリング(本病名抽出器で適用)の比較}\label{wordCRF}\end{figure}\subsection{実験}\ref{subsection:病名抽出器の処理}節では,医療テキストコーパスの応用システムとして,病名抽出器の処理方法について述べた.以下では,実際に病名抽出器を用いて症例報告に自動タグ付けを行い,精度について評価を行った.まず,教師データにはタグ付けにより病名に対してPタグ,Nタグが付与された500件の症例からなるコーパスを用いた.なお,本タスクは病名抽出を目的としているため,コーパスのSKIPタグを削除し,本来SKIPタグがあった箇所以降も通常のPタグ,Nタグの基準によってタグ付けを行った.前処理として,初めにテキストデータを文に分解し,一般の固有表現抽出の手法にしたがって,文字単位で開始(B),内側(I),外側(O)のIOB2ラベルを付与した(図\ref{wordCRF}).系列ラベリングの学習にはCRF\footnote{http://taku910.github.io/crfpp/}を用いた.表\ref{CRF}にCRFで用いた文字ベースの特徴テンプレートを示す.特徴として表層文字と文字種(漢字,ひらがな,カタカナ,英数字)のみを用いた.ウィンドウサイズは前方2文字,後方5文字に設定した.後方のウィンドウサイズを大きく設定したのは,P/N分類の手がかりとなる,否定に関わる述語が病名の後方に現れるためである.\begin{table}[b]\caption{文字ベースCRFにおける特徴テンプレート}\label{CRF}\input{05table10.txt}\end{table}評価は500件の症例報告を用いた10分割交差検証で行い,結果はERとP/N分類を個別に評価した.表\ref{ERの結果}にERの結果,表\ref{PN}にPタグ,Nタグのそれぞれの抽出性能を示す.評価はCoNLL2000\footnote{https://www.clips.uantwerpen.be/conll2000/}で提供されたツールを用いた.比較のために単語ベースCRFでの結果も並記する.\begin{table}[t]\caption{病名抽出器によるERの精度}\label{ERの結果}\input{05table11.txt}\end{table}\begin{table}[t]\caption{P/N分類の精度}\label{PN}\input{05table12.txt}\end{table}結果としては,ER,P/N分類いずれにおいても,若干であるが文字ベースによる手法が単語ベースによる手法の性能を上回った.ERについては85.0以上の高い精度であり,Pタグについても80.0以上の高い精度での抽出に成功している.一方,Nタグについては,文字ベースでも55.0と低い精度であった(いずれも評価指標はF値).この原因の1つとしては,Pタグに比べてNタグの出現頻度が低いことが考えられる.また,もう1つの原因として,陰性であると判断するためには,設定よりも大きな文脈を要する場合があり,CRFではこれが困難であることが挙げられる.本医療テキストコーパスを利用し,いかにNタグを高い精度で捉えられるかが今後の課題の1つである.なお,本システムはウェブサイト\footnote{http://sociocom.jp/parser.html}にて配布している. \section{おわりに} 本稿では,自然言語処理による電子カルテからの情報抽出に必須となる,病名がアノテーションされたコーパスの開発について述べた.また,実際にアノテーターが作業した際の問題を,一致率を含め議論を行った.さらに,コーパスを用いて構築した病名抽出器を題材に,コーパスの応用可能性について議論した.本稿のアノテーション仕様が,今後の医療分野におけるコーパス開発の一助となることを祈念する.\acknowledgment本研究の一部は国立研究開発法人日本医療研究開発機構(AMED)の臨床研究等ICT基盤構築研究事業:総合診療医の診療支援及び診療業務効率化の支援基盤構築に関する研究(課題番号:16930323)の支援によって行われた.また,本論文の内容の一部は,言語処理学会第23回年次大会で発表したものである\cite{aramaki2017NLP}.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aramaki,Miura,Tonoike,Ohkuma,Mashuichi,\BBA\Ohe}{Aramakiet~al.}{2009}]{Aramaki2009text2table}Aramaki,E.,Miura,Y.,Tonoike,M.,Ohkuma,T.,Mashuichi,H.,\BBA\Ohe,K.\BBOP2009\BBCP.\newblock\BBOQText2table:MedicalTextSummarizationSystemBasedonNamedEntityRecognitionandModalityIdentification.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponCurrentTrendsinBiomedicalNaturalLanguageProcessing},\mbox{\BPGS\185--192}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Aramaki,Morita,Kano,\BBA\Ohkuma}{Aramakiet~al.}{2014}]{mednlp11}Aramaki,E.,Morita,M.,Kano,Y.,\BBA\Ohkuma,T.\BBOP2014\BBCP.\newblock\BBOQOverviewoftheNTCIR-11MedNLP-2Task.\BBCQ\\newblockIn{\BemProceedingsofthe11thNTCIRConference},\mbox{\BPGS\147--154}.\bibitem[\protect\BCAY{Aramaki,Morita,Kano,\BBA\Ohkuma}{Aramakiet~al.}{2016}]{mednlp12}Aramaki,E.,Morita,M.,Kano,Y.,\BBA\Ohkuma,T.\BBOP2016\BBCP.\newblock\BBOQOverviewoftheNTCIR-12MedNLPDocTask.\BBCQ\\newblockIn{\BemProceedeingsofthe12thNTCIRConferenceonEvaluationofInformationAccessTechnologies},\mbox{\BPGS\71--75}.\bibitem[\protect\BCAY{荒牧\JBA岡久\JBA矢野\JBA若宮\JBA伊藤}{荒牧\Jetal}{2017}]{aramaki2017NLP}荒牧英治\JBA岡久太郎\JBA矢野憲\JBA若宮翔子\JBA伊藤薫\BBOP2017\BBCP.\newblock大規模医療コーパス開発に向けて.\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\1200--1203}.言語処理学会.\bibitem[\protect\BCAY{Asahara\BBA\Matsumoto}{Asahara\BBA\Matsumoto}{2003}]{asahara}Asahara,M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQJapaneseNamedEntitiyExtractionwithRedundantMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedingsofHLT-NAACL2003},\mbox{\BPGS\8--15}.\bibitem[\protect\BCAY{Bouchet,Bodenreider,\BBA\Kohler}{Bouchetet~al.}{1998}]{Bouchet1998}Bouchet,C.,Bodenreider,O.,\BBA\Kohler,F.\BBOP1998\BBCP.\newblock\BBOQIntegrationoftheAnalyticalandAlphabeticalICD10inaCodingHelpSystem.ProposalofaTheoreticalModelfortheICDRepresentation.\BBCQ\\newblock{\BemMedinfo1998},{\Bbf9}(1),\mbox{\BPGS\176--179}.\bibitem[\protect\BCAY{Fabry,Baud,Ruch,Le~Beux,\BBA\Lovis}{Fabryet~al.}{2003}]{Fabry2003}Fabry,P.,Baud,R.,Ruch,P.,Le~Beux,P.,\BBA\Lovis,C.\BBOP2003\BBCP.\newblock\BBOQAFrame-basedRepresentationofICD-10.\BBCQ\\newblock{\BemStudiesinHealthTechnologyandInformatics},{\Bbf95},\mbox{\BPGS\433--438}.\bibitem[\protect\BCAY{科学技術振興機構研究開発戦略センター}{科学技術振興機構研究開発戦略センター}{2017}]{研究開発の俯瞰報告書2017}科学技術振興機構研究開発戦略センター\BBOP2017\BBCP.\newblock研究開発の俯瞰報告書:ライフサイエンス・臨床医学分野(2017年).\\newblock技術資料,国立研究開発法人科学技術振興機構.\bibitem[\protect\BCAY{Kelly,Goeuriot,Suominen,Schreck,Leroy,Mowery,Velupillai,Chapman,Martinez,Zuccon,\BBA\Palotti}{Kellyet~al.}{2014}]{CLEF2014}Kelly,L.,Goeuriot,L.,Suominen,H.,Schreck,T.,Leroy,G.,Mowery,D.~L.,Velupillai,S.,Chapman,W.~W.,Martinez,D.,Zuccon,G.,\BBA\Palotti,J.\BBOP2014\BBCP.\newblock\BBOQOverviewoftheShARe/CLEFeHealthEvaluationLab2014.\BBCQ\\newblockIn{\BemInformationAccessEvaluation:Multilinguality,Multimodality,andInteraction},\lowercase{\BVOL}\8685,\mbox{\BPGS\172--191}.Springer,Heidelberg;NewYork;Dordrecht;London.\bibitem[\protect\BCAY{北川\JBA小町\JBA荒牧\JBA岡崎\JBA石川}{北川\Jetal}{2015}]{kitagawa}北川善彬\JBA小町守\JBA荒牧英治\JBA岡崎直観\JBA石川博\BBOP2015\BBCP.\newblockインフルエンザ流行検出のための事実性解析.\\newblock\Jem{言語処理学会第21回年次大会発表論文集},\mbox{\BPGS\218--221}.\bibitem[\protect\BCAY{松田\JBA吉田\JBA松本\JBA北}{松田\Jetal}{2016}]{matsuda}松田紘伸\JBA吉田稔\JBA松本和幸\JBA北研二\BBOP2016\BBCP.\newblockTwitterを用いた病気の事実性解析及び知識ベース構築.\\newblockIn{\BemProceedingsofthe30thAnnualConferenceoftheJapaneseSocietyforArtificialIntelligence},\mbox{\BPGS\1--4}.\bibitem[\protect\BCAY{Morita,Kano,Ohkuma,Miyabe,\BBA\Aramaki}{Moritaet~al.}{2013}]{mednlp10}Morita,M.,Kano,Y.,Ohkuma,T.,Miyabe,M.,\BBA\Aramaki,E.\BBOP2013\BBCP.\newblock\BBOQOverviewoftheNTCIR-10MedNLPTask.\BBCQ\\newblockIn{\BemProceedingsofthe10thNTCIRConference},\mbox{\BPGS\696--701}.\bibitem[\protect\BCAY{Uzuner}{Uzuner}{2008}]{i2b2}Uzuner,O.\BBOP2008\BBCP.\newblock\BBOQSecondi2b2WorkshoponNaturalLanguageProcessingChallengesforClinicalRecords.\BBCQ\\newblockIn{\BemAMIAAnnualSymposiumProceedings},\mbox{\BPGS\1252--1253}.\bibitem[\protect\BCAY{WHO}{WHO}{1992}]{ICD10}WHO\BBOP1992\BBCP.\newblock{\BemICD10:InternationalStatisticalClassificationofDiseasesandRelatedHealthProblems}.\newblockWorldHealthOrganization.\newblock\texttt{http://www.who.int/classifications/icd/en/}.\bibitem[\protect\BCAY{Yamada,Aramaki,Imai,\BBA\Ohe}{Yamadaet~al.}{2010}]{ICDyamada}Yamada,E.,Aramaki,E.,Imai,T.,\BBA\Ohe,K.\BBOP2010\BBCP.\newblock\BBOQInternalStructureofaDiseaseNameandItsApplicationforICDCoding.\BBCQ\\newblock{\BemStudiesinHealthTechnologyandInformatics},{\Bbf160}(2),\mbox{\BPGS\1010--1014}.\end{thebibliography}\begin{biography}\bioauthor{荒牧英治}{2000年京都大学総合人間学部卒業.2005年東京大学大学院情報理工系研究科博士課程修了.博士(情報理工学).以降,東京大学医学部附属病院特任助教を経て,奈良先端科学技術大学院大学特任准教授.医療情報学,自然言語処理の研究に従事.}\bioauthor{若宮翔子}{2013年兵庫県立大学大学院環境人間学研究科博士後期課程修了.博士(環境人間学).以降,京都産業大学コンピュータ理工学部研究員を経て,2015年より奈良先端科学技術大学院大学博士研究員.ソーシャル・コンピューティングに関する研究に従事.情報処理学会会員.}\bioauthor{矢野憲}{2009年広島大学大学院工学研究科情報工学専攻博士後期課程修了.博士(工学).以降,大阪大学臨床医工学融合研究教育センター技術補佐員,福岡大学工学部ポストドクター,国際電気通信基礎技術研究所研究技術員を経て,2016年より奈良先端科学技術大学院大学博士研究員.機械学習,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会各会員.}\bioauthor{永井宥之}{2017年京都大学大学院人間・環境学研究科修士課程修了.修士(人間・環境学).現在,同大学院博士後期課程在学中.専門は日本語学,認知言語学.日本認知言語学会会員.}\bioauthor{岡久太郎}{2016年京都大学大学院人間・環境学研究科修士課程修了.修士(人間・環境学).現在,同大学院博士後期課程在学中.専門は認知言語学.コミュニケーション研究,マルチモーダル研究.日本語用論学会,日本社会言語科学会各会員.}\bioauthor{伊藤薫}{2012年京都大学大学院人間・環境学研究科修士課程修了.修士(人間・環境学).現在,奈良先端科学技術大学院大学研究員.自然言語処理に関する研究に従事.専門は認知言語学,談話・テクスト言語学.言語処理学会,日本認知言語学会,日本語用論学会各会員.}\end{biography}\biodate\end{document}
V03N03-04
\section{はじめに} 入力文の構文構造を明らかにする構文解析手法には,大きく分けて,1)可能な構造をすべて生成する手法と,2)可能な構造に優劣を付け,そのうち最も適切なものだけを,または適切なものから順に生成する手法,の二つがある.前者の手法として,これまでに,一般化LR法\cite{Tomita85}やSAX\cite{Matsumoto86},LangLAB\cite{Tokunaga88}などの効率の良い手法が数多く提案されている.しかしながら,これらの手法を,機械翻訳システムなどの実用を目指した自然言語処理システムに組み込むことは,必ずしも適切ではない.なぜならば,通常,可能な構文構造の数は膨大なものになるため,それらをすべて意味解析などの構文解析以降の処理過程に送ると,システム全体としての効率が問題になるからである\footnote{文献\cite{Tomita85}には,構文構造の曖昧さをユーザとの対話で解消する方法も示されている.}.意味的親和性や照応関係に関する選好なども考慮に入れて全体で最も適切となる解釈は,最も適切な構文構造から得られるとは限らないので,システム全体で最も適切な解釈を得るためには,最悪の場合,可能な構造をすべて生成しなければならない.しかし,より適切な構文構造がシステム全体で最も適切な解釈の構成要素となる可能性が高いと期待されるので,適切でない構造は生成しなくてもよい可能性が高い.従って,可能な構造のうち最も適切なものだけをまず生成し,構文解析以降の処理からの要請があって初めて,次に適切な構造を生成するための処理を開始する後者の手法のほうが,システム全体の効率の観点からは望ましい.後者の手法を実現するためのアプローチでは,費用が付与された部分構造を状態とする状態空間において,目標状態のうち費用の最も小さいものを発見するという探索問題として構文解析を捉えるのが自然である.このように捉えると,確立された種々の探索戦略を構文解析に応用することができる.本稿では,可能な構造のうち生成費用の最も小さいものだけをまず生成し,必要ならば可能な構造が尽きるまですべての構造を生成費用の昇順に生成する構文解析法を提案する.基本的な考え方は,チャート法のアジェンダ\cite{Kay80}を$\A^*$法の探索戦略\cite{Nilsson80}に従って制御することである\cite{Yoshimi90}.チャート法は,良く知られているように,重複処理を行わない効率の良い構文解析の枠組みである.解析過程において生成されうる部分構造に,構文規則に付与された費用に基づいて計算される生成費用を付与するとともに,その構造を構成要素として持つ全体構造を生成するまでの費用を,$\A^*$法の最適性条件を満たし実際の費用になるべく近くなるように推定して付与し,競合する部分構造のうちその生成費用と推定費用の和が最も小さいものに対する処理を優先的に進めれば,効率の良い構文解析が実現できる.本稿の手法と同じように,適切な構造を優先的に生成する手法として,これまでに,Shieberの手法\cite{Shieber83}やKGW+p\cite{Tsujii88},島津らの手法\cite{Shimazu89}などが提案されている.これら関連する研究との比較は\ref{sec:comparison}節で行なう. \section{$\A^*$法の探索戦略に従うアジェンダ制御} \label{sec:astar_chart}$\A^*$法\hspace{0.1mm}と\hspace{0.1mm}チャート法について簡\hspace{0.1mm}単に説\hspace{0.1mm}明した後,\hspace{0.1mm}これらを組\hspace{0.1mm}み\hspace{0.1mm}合\hspace{0.1mm}わせて,可\hspace{0.1mm}能な構\hspace{0.1mm}文\hspace{0.1mm}構\hspace{0.1mm}造を\\適切な順に必要なだけ生成する手法について述べる.$\A^*$法は,初期状態から現在状態までの費\\用$g$と,現在状態から目標状態までの推定費用$\hat{h}$との和$\hat{f}$を発見的知識として探索を行なう.適\\用可能な状態遷移オペレータが残っている状態と残っていない状態を,それぞれ,OPENリストとCLOSEリストに保持する.探索では,1)全推定費用$\hat{f}$の最も小さい状態をOPENリスト\\から取り出し,CLOSEリストに入れる,2)取り出した状態に状態遷移オペレータを適用して,すべての継続状態を生成する,3)各継続状態について$\hat{f}$を計算し,継続状態のうちOPENリストとCLOSEリストのいずれにも入っていない状態をOPENリストに入れる,という三つの過程を繰り返し,OPENリストから取り出した状態が目標状態であれば,探索を終える.$\A^*$法の\\探索戦略に従う探索では,推定費用$\hat{h}$が現在状態から目標状態までの実際の費用$h$より大きくないという最適性条件が成り立つならば,目標状態が存在する限り,費用の最も小さい目標状態に到達できることが証明されている.チャート法は,チャートと呼ばれる表に,弧と呼ばれる部分的構文構造を登録しながら処理を進める.構文規則$\alpha\rightarrow\beta_1\ldots\beta_m$から生成される弧は,$[\beta_1\ldots\beta_i\[?]_{\beta_{i+1}}\ldots[?]_{\beta_m}]_\alpha$の形式で表\\される.$\beta_1\ldots\beta_i$は既に完成した構造の列であり,$[?]_{\beta_{i+1}}\ldots[?]_{\beta_m}$は空所と呼ばれる未完成の構造の列である.弧は,空所があるとき($1\lei<m$のとき)活性弧と呼ばれ,ないとき($i=m$のとき)不活性弧と呼ばれる.また,その弧の生成に用いられた構文規則の左辺の構文範疇でラベル付けされている.以後,紛れなければ,弧をその構文範疇名で呼ぶ.上昇型チャート法の枠組みは,1)不活性弧のラベルを右辺の第一項として持つ構文規則を適用することで弧を成長させる予測手続き,2)活性弧の空所を不活性弧で埋めることで弧を成長させる結合手続き,の二つの手続きから成る.解析のある時点において,予測手続きまたは結合手続きの処理対象となる弧が複数存在するとき,そのうちどの弧を選択するかは,アジェンダと呼ばれるリストを用いて制御される.アジェンダ制御にどのような戦略を用いるかに応じて,チャート法は様々な振舞いを示す.チャート法による構文解析を探索問題と捉えると,自然な対応付けとして,チャート法における弧,予測手続きと結合手続き,アジェンダ,チャートは,それぞれ,探索問題における状態,状態遷移オペレータ,OPENリスト,CLOSEリストとみなせる.以後,ラベルが終端構文範疇であり,初期状態に相当する不活性弧を初期弧と呼ぶ.また,$n$を入力文の終了位置とするとき位置が$[0,n]$であり,ラベルが目標構文範疇であり,目標状態に相当する不活性弧を目標弧と呼ぶ.弧には,費用付き構文規則を適用して初期弧からその弧を生成するために要した費用を付与する.これは,初期状態から現在状態までの費用$g$に相当し,後に\ref{sec:rule}節で示す式(\ref{eq:cost})で計算される.さらに,弧には,それを構成要素として持つ目標弧を生成するための推定費用を付与する.これは,現在状態から目標状態までの推定費用$\hat{h}$に相当し,後に\ref{sec:est}節で示す式(\ref{eq:est})\\で計算される.\hspace*{-0.5mm}式(\ref{eq:est})\hspace*{-0.3mm}で計算される推定費用$\hat{h}$は,\hspace*{-0.5mm}$\A^*$法の最適性条件$\hat{h}\leh$を満たすので,\hspace*{-0.5mm}$g$\hspace*{-0.1mm}と\hspace*{-0.1mm}$\hat{h}$\\の和$\hat{f}$が小さい順に弧をアジェンダから取り出せば,$\A^*$法の探索戦略に従う上昇型チャート法が実現できる.そのアルゴリズムを図\ref{fig:astar_chart}に示す.このアルゴリズムは,費用の最も小さい目標弧を生成した後も,そのまま処理を続ければ,目標弧を費用の昇順に必要なだけ生成することができる.\begin{figure}\samepage\begin{center}\fbox{\small{\begin{minipage}{0.9\textwidth}\vspace*{0.5em}\setcounter{algocounter}{0}\begin{ALGORITHM}\stepすべての初期弧をアジェンダに入れる.\stepアジェンダが空ならば,終了.\label{algo:ac_loop}\step全推定費用$\hat{f}$の最も小さい弧をアジェンダから取り出し,チャートに入れる.それが目標弧ならば,解析成功.不活性弧ならば,予測手続きを実行.活性弧ならば,結合手続きを実行.\label{algo:ac_pop}\step予測手続きまたは結合手続きで弧が生成されていれば,そのうちアジェンダまたはチャートに存在しないものをアジェンダに入れる.\label{algo:ac_push}\step予測手続きまたは結合手続きで生成された弧が不活性弧であれば,チャート中の活性弧のうちこの不活性弧と結合できるものをすべてアジェンダに戻す.ステップ\ref{algo:ac_loop}へ.\end{ALGORITHM}\begin{LIST}\item[\bf予測手続き]位置が$[x,y]$である不活性弧$\beta_1$が存在するとき,右辺第一項が$\beta_1$であるすべての構文規則$\alpha\rightarrow\beta_1\ldots\beta_m$を適用し,位置が$[x,y]$である活性弧$[\beta_1\[?]_{\beta_{2}}\ldots[?]_{\beta_{m}}]_\alpha$を新たに生成する.ただし,$m=1$ならば不活性弧を生成する.\item[\bf結合手続き]活性弧$\alpha$の位置が$[x,y]$であり,最左空所が$[?]_{\beta_{i}}$であるとき,位置が$[y,z]$であるすべての不活性弧$\beta_i$で$[?]_{\beta_{i}}$を埋め,位置が$[x,z]$である活性弧を新たに生成する.ただし,$i=m$ならば不活性弧を生成する.\end{LIST}\vspace*{0.5em}\end{minipage}}}\end{center}\caption{$\A^*$法の探索戦略に従うチャート法}\label{fig:astar_chart}\end{figure}図\ref{fig:astar_chart}のアルゴリズムは最も基本的なものである.この基本アルゴリズムに次のような改良を加えれば,生成される弧の数は減少する.可能な構文構造を効率良く表現するために,1)二つの構造が持つすべての情報が同じであるとき,それらの構造を共有し(sub-treesharing),2)二つの構造が持つ情報のうち内部構造以外のすべての情報が同じであるとき,それらの構造を統合する(localambiguitypacking)方法\cite{Tomita85}が用いられることがある.元のチャート法に基づく基本アルゴリズムでは,前者は実現されているが後者は実現されていない.実現するためには,ステップ\ref{algo:ac_push}を次のように変更すればよい.\begin{LIST}\item[{\bfステップ\ref{algo:ac_push}'}]生成された弧が不活性弧であり,そのラベル,位置,全推定費用と同じものを持つ不活性弧がアジェンダに存在すれば,それら二つの弧を統合してアジェンダに入れ,チャートに存在すれば,二つの弧を統合してチャートに入れる.さもなければ,生成された弧をアジェンダに入れる.\end{LIST} \section{弧の生成費用の計算} \label{sec:rule}弧を生成するための費用は,構文規則に付与された費用に基づいて計算される.費用付き構文規則は,文脈自由文法の形式に従い,一般に次のように表せる.\begin{equation}\alpha\rightarrow\beta_1/w_{\beta_1}\ldots\beta_m/w_{\beta_m},\\C_\alpha\label{eq:rule}\end{equation}$\alpha$は非終端構文範疇,$\beta_i$は終端構文範疇または非終端構文範疇である.$C_\alpha$は,この規則の適用\\費用を表す.$w_{\beta_i}$は,弧$\beta_i$と$\beta_j\(j\neqi)$の相対的関係を表す重みである.$C_\alpha$は非負の実数,$w_{\beta_i}$\\は正の実数とする.活性弧$[\beta_1\ldots\beta_i\[?]_{\beta_{i+1}}\ldots[?]_{\beta_{m}}]_\alpha$($i=m$ならば不活性弧)を生成するための費用は,不活性弧$\beta_j\(1\lej\lei)$を生成するための費用$g_{\beta_j}$に重み$w_{\beta_j}$をかけたものの和に,規則(\ref{eq:rule})の適用\\費用$C_\alpha$を加えた値であると定め,次式で計算する.\begin{equation}g_\alpha=\sum_{j=1}^iw_{\beta_j}\timesg_{\beta_j}+C_\alpha\\(1\lei\lem)\label{eq:cost}\end{equation}初期弧の生成費用は0とする. \section{目標弧までの費用の推定} \label{sec:est}弧から目標弧までの費用の推定は,入力文とは独立に,構文規則だけに基づいてあらかじめ\\行なっておく.\hspace*{0.1mm}従って,\hspace*{0.1mm}一\hspace*{0.1mm}度\hspace*{0.1mm}求めた推\hspace*{0.1mm}定\hspace*{0.1mm}費\hspace*{0.1mm}用は,\hspace*{0.1mm}費\hspace*{0.1mm}用\hspace*{0.1mm}付き構\hspace*{0.1mm}文\hspace*{0.1mm}規\hspace*{0.1mm}則に変\hspace*{0.1mm}更がない限り変\hspace*{0.1mm}更され\\ない.\hspace*{0.1mm}推\hspace*{0.1mm}定は,上\hspace*{0.1mm}昇\hspace*{0.1mm}型\hspace*{0.1mm}解\hspace*{0.1mm}析とは逆\hspace*{0.1mm}方\hspace*{0.1mm}向に目\hspace*{0.1mm}標\hspace*{0.1mm}弧から初\hspace*{0.1mm}期\hspace*{0.1mm}弧に向けて行ない,\hspace*{0.1mm}求めた推\hspace*{0.1mm}定\hspace*{0.1mm}費\hspace*{0.1mm}用を\\各弧に付与する.推定を下降型で行なうので,本節では,弧$\alpha$から目標弧までの推定費用を,目\\標弧から弧$\alpha$までの推定費用と呼ぶ.推定費用は,構文解析で活性弧の空所が左から順に埋って\\いくことを前提として計算する.目標構文範疇から始めて,構文規則を左辺から右辺への書き換えに繰り返し用い,目標弧から活性弧$[?]_\alpha$までの推定費用$\hat{h}_\alpha$が計算済みであり,規則(\ref{eq:rule})が存在するとき,目標弧から活性弧$[?]_{\beta_i}$までの推定費用$\hat{h}_{\beta_i}$は,次式で計算できる.\begin{equation}\hat{h}_{\beta_i}=\left\{\begin{array}{ll}\min\hat{h}_\alpha+\displaystyle\sum_{j>i}^mw_{\beta_j}\times\ming_{\beta_j}+C_\alpha&(i=1のとき)\\\min\hat{h}_\alpha+\displaystyle\sum_{j>i}^mw_{\beta_j}\times\ming_{\beta_j}&(1<i<mのとき)\\\min\hat{h}_\alpha&(i=mのとき)\end{array}\right.\label{eq:est}\end{equation}$C_\alpha$は規則(\ref{eq:rule})の適用費用であり,$\displaystyle\sum_{j>i}^mw_{\beta_j}\times\ming_{\beta_j}$は活性弧$[\beta_1\ldots\beta_i\[?]_{\beta_{i+1}}\ldots[?]_{\beta_{m}}]_\alpha$のすべ\\ての空所を埋めるための最小費用である.下降型推定で求めた目標弧から活性弧$[?]_\alpha$までの費用$\hat{h}_\alpha$は,\hspace*{-0.4mm}上昇型構文解析を行なうときには不活性弧$\alpha$から目標弧までの推定費用となる.\hspace*{-0.4mm}式(\ref{eq:est})\\で計算される推定費用は,目標弧から活性弧$[?]_\alpha$までの可能な推定費用のうち最小値を右辺第一項とし,\hspace*{-0.4mm}可能な不活性弧$\beta_j$の生成費用のうち最小値を第二項としているので,\hspace*{-0.4mm}$\A^*$法の最適性\\条件を満たす.式(\ref{eq:est})を用いて推定費用を求めるために,まず,不活性弧$\beta_j$の最小生成費用$\ming_{\beta_j}$を計算\\する.そのアルゴリズムを図\ref{fig:min_cost}に示す.\begin{figure}\samepage\begin{center}\fbox{\small{\begin{minipage}{0.9\textwidth}\vspace*{0.5em}\setcounter{algocounter}{0}\begin{ALGORITHM}\step与えられたすべての構文規則をリストに入れる.初期弧の生成費用を0とする.\label{algo:cost_init}\stepリストが空ならば,終了.\label{algo:cost_loop}\stepリストの先頭の規則$\alpha\rightarrow\beta_1/w_{\beta_1}\ldots\beta_m/w_{\beta_m},\\C_\alpha$を取り出す.\label{algo:cost_pop}\stepすべての不活性弧$\beta_i$について,生成費用が計算済みならば,不活性弧$\alpha$の生成費用を\ref{sec:rule}節の式(\ref{eq:cost})で計算し,ステップ\ref{algo:cost_min}へ.さもなければ,取り出した規則をリストの最後尾へ入れ,ステップ\ref{algo:cost_loop}へ.\label{algo:cost_cost}\step不活性弧$\alpha$について,今求めた値と以前求めた値の大小比較を行ない,小さいほうを不活性弧$\alpha$の生成費用とする.今求めた値のほうが小さければ,既にリストから取り出した規則のうち構文範疇$\alpha$を導出するすべての規則をリストに戻す.ステップ\ref{algo:cost_loop}へ.\label{algo:cost_min}\end{ALGORITHM}\vspace*{0.5em}\end{minipage}}}\end{center}\caption{不活性弧の最小生成費用を求めるアルゴリズム}\label{fig:min_cost}\end{figure}例えば,図\ref{fig:rule}のような費用付き構文規則\footnote{この構文規則は,文献\cite{Kay80}に示された規則に費用を付与したものである.}が与えられたとき,この規則に従って生成される各不活性弧の最小生成費用は,図\ref{fig:min_cost}のアルゴリズムを用いて次のように計算される.\begin{figure}\begin{center}\small{\begin{tabular}{clclcclcl}(a)&S&$\rightarrow$&NP/1\VP/1,\1&&(f)&A&$\rightarrow$&failing/1,\1\\(b)&NP&$\rightarrow$&A/1\N/1,\1&&(g)&A&$\rightarrow$&hard/1,\1\\(c)&NP&$\rightarrow$&PRP/1\N/1,\5&&(h)&PRP&$\rightarrow$&failing/1,\1\\(d)&VP&$\rightarrow$&V/1\A/1,\5&&(i)&N&$\rightarrow$&student/1,\1\\(e)&VP&$\rightarrow$&V/1\AV/1,\1&&(j)&V&$\rightarrow$&looked/1,\1\\&&&&&(k)&AV&$\rightarrow$&hard/1,\1\end{tabular}}\end{center}\caption{費用付き構文規則の例}\label{fig:rule}\end{figure}まず,ステップ\ref{algo:cost_init}で,$g_\FAIL=0$,$g_\HARD=0$,$g_\STUD=0$,$g_\LOOK=0$となる.\hspace*{0.1mm}ス\hspace*{0.1mm}テ\hspace*{0.1mm}ッ\hspace*{0.1mm}プ\ref{algo:cost_init}で,リストに,規\hspace*{0.1mm}則(a)が先\hspace*{0.1mm}頭,規\hspace*{0.1mm}則(k)が最\hspace*{0.1mm}後\hspace*{0.1mm}尾という順\\で入っているとすると,一回目のループのステップ\ref{algo:cost_pop}で,規則(a)~$\SS\rightarrow\NP/1\\VP/1,\1$が取り\\出されるが,$g_\NP$も$g_\VP$もまだ求まっていないので,この規則はステップ\ref{algo:cost_cost}でリストの最後尾に入れられる.二〜五回目のループでも同様に,規則(b)〜(e)が取り出されるが,いずれもステップ\ref{algo:cost_cost}でリストの最後尾に入れられる.六回目のループのステップ\ref{algo:cost_pop}では規則(f)が取り出される.$g_\FAIL$は既に求まっているので,ステップ\ref{algo:cost_cost}で,$g_\A=w_\FAIL\timesg_\FAIL+C_\A=1$と計算される.この値は不活性弧Aについて初めて計算された値であるので,ステップ\ref{algo:cost_min}では何も行なわれない.七回目のループのステップ\ref{algo:cost_pop}で規則(g)が取り出されると,ステップ\ref{algo:cost_cost}で$g_\A=1$となる.この値は不活性弧Aについて既に求まっている値より小さくないので,ステップ\ref{algo:cost_min}では何も行なわれない.以下,同様にして,$g_\PRP=1$,$g_\N=1$,$g_\V=1$,$g_\AV=1$,$g_\NP=3$,$g_\VP=3$,$g_\SS=7$が順に求まる.次に,\hspace*{0.3mm}以\hspace*{0.1mm}上\hspace*{0.1mm}の\hspace*{0.1mm}よ\hspace*{0.1mm}う\hspace*{0.1mm}に\hspace*{0.1mm}し\hspace*{0.1mm}て計\hspace*{0.1mm}算\hspace*{0.1mm}された\hspace*{0.1mm}不\hspace*{0.2mm}活\hspace*{0.2mm}性\hspace*{0.2mm}弧の最\hspace*{0.1mm}小\hspace*{0.1mm}生\hspace*{0.2mm}成\hspace*{0.2mm}費\hspace*{0.2mm}用\hspace*{0.1mm}を式(\ref{eq:est})に代入して,\hspace*{0.3mm}目\hspace*{0.1mm}標\hspace*{0.1mm}弧\\から各弧までの最小推定費用を再帰的に求める.そのアルゴリズムを図\ref{fig:min_est}に示す.\begin{figure}\samepage\begin{center}\fbox{\small{\begin{minipage}{0.9\textwidth}\vspace*{0.5em}\setcounter{algocounter}{0}\begin{ALGORITHM}\step目標構文範疇をリストに入れる.目標弧から目標弧までの推定費用を0とする.\label{algo:est_init}\stepリストが空ならば,終了.\label{algo:est_loop}\stepリストの先頭の構文範疇$\alpha$を取り出す.\label{algo:est_pop}\step左辺が$\alpha$であるすべての規則$\alpha\rightarrow\beta_1/w_{\beta_1}\ldots\beta_m/w_{\beta_m},\\C_\alpha$に現れる各$\beta_i$について,推定費用を式(\ref{eq:est})で計算し,それを不活性弧$\beta_i$までの推定費用とする.ただし,$\beta_i$が複数の規則に現れるか,または,ある一つの規則において$\beta_i=\beta_j\(i\neqj)$ならば,求まった値のうち最小値を不活性弧$\beta_i$までの推定費用とする.目標弧から活性弧$[\beta_1\ldots\beta_i\[?]_{\beta_{i+1}}\ldots[?]_{\beta_m}]_\alpha$までの推定費用は,$1<i<m$のとき,不活性弧$\beta_i$までの推定費用と同じ値とし,$i=1$のとき,不活性弧$\beta_1$までの推定費用から規則の適用費用$C_\alpha$を引いた値とする.\label{algo:est_est}\step活性弧$[\beta_1\ldots\beta_i\[?]_{\beta_{i+1}}\ldots[?]_{\beta_m}]_\alpha$について,今求めた値と以前求めた値の大小比較を行ない,小さいほうを目標弧からこの活性弧までの推定費用とする.また,不活性弧$\beta_i$についても同様に,今求めた値と以前求めた値のうち小さいほうを目標弧から不活性弧$\beta_i$までの推定費用とする.\label{algo:est_compare}\step今求めた推定費用が初めて計算された値か,または,以前求めた値よりも小さい値であれば,構文範疇$\beta_i$をリストの最後尾に入れる.ステップ\ref{algo:est_loop}へ.\label{algo:est_push}\end{ALGORITHM}\vspace*{0.5em}\end{minipage}}}\end{center}\caption{目標弧から弧までの最小費用を推定するアルゴリズム}\label{fig:min_est}\end{figure}図\ref{fig:rule}の費用付き構文規則が与えられているとき,推定費用は次のように計算される.ステップ\ref{algo:est_pop}で構文範疇Sが取り出されるので,規則(a)がステップ\ref{algo:est_est}での処理対象となり,目標弧から不活性弧NPまでの推定費用は,$\hat{h}_\NP=\hat{h}_\SS+w_\VP\timesg_\VP+C_\SS=4$と計算され,不活性弧VPまでの推定費用は$\hat{h}_\VP=\hat{h}_\SS=0$となる.活性弧$[\NP\[?]_\VP]_\SS$までの推定費用は,$\hat{h}_{[\NP\[?]_\VP]_\SS}=3$と\hspace*{0.2mm}な\hspace*{0.2mm}る.\hspace*{0.2mm}こ\hspace*{0.2mm}れ\hspace*{0.2mm}ら\hspace*{0.2mm}の\hspace*{0.2mm}推\hspace*{0.2mm}定\hspace*{0.2mm}値\hspace*{0.2mm}は\hspace*{0.2mm}初\hspace*{0.2mm}め\hspace*{0.2mm}て\hspace*{0.2mm}計\hspace*{0.2mm}算\hspace*{0.2mm}さ\hspace*{0.2mm}れ\hspace*{0.2mm}た\hspace*{0.2mm}値\hspace*{0.2mm}で\hspace*{0.2mm}あ\hspace*{0.2mm}る\hspace*{0.2mm}の\hspace*{0.2mm}で,\hspace*{0.2mm}\hspace*{0.2mm}ス\hspace*{0.2mm}テ\hspace*{0.2mm}ッ\hspace*{0.2mm}プ\hspace*{0.2mm}\ref{algo:est_compare}で\hspace*{0.2mm}の\hspace*{0.2mm}大\hspace*{0.2mm}小\hspace*{0.2mm}比\hspace*{0.2mm}較\hspace*{0.2mm}は\hspace*{0.2mm}行なわれない.ステップ\ref{algo:est_push}でNPとVPがリストの最後尾に入れられる.二回目のループのステップ\ref{algo:est_pop}では構文範疇NPが取り出され,規則(b)と(c)がステップ\ref{algo:est_est}での処理対象となる.規則(b)について,不活性弧Aまでの推定費用は,$\hat{h}_\A=\hat{h}_\NP+w_\N\timesg_\N+C_\NP=6$となり,\hspace*{-0.3mm}不活性弧Nまでの推定費用は$\hat{h}_\N=\hat{h}_\NP=4$となる.\hspace*{-0.3mm}活性弧$[\A\[?]_\N]_\NP$までの推定費用は,$\hat{h}_{[\A\[?]_\N]_\NP}=5$となる.規則(c)については,不活性弧PRPまでの推定費用は,$\hat{h}_\PRP=\hat{h}_\NP+w_\N\timesg_\N+C_\NP=10$と計算され,活性弧$[\PRP\[?]_\N]_\NP$までの推定費用は,$\hat{h}_{[\PRP\[?]_\N]_\NP}=5$となる.ステップ\ref{algo:est_push}でA,PRP,Nがリストの最後尾に入れられる.三回目のループのステップ\ref{algo:est_est}では,規則(d)と(e)が処理対象となる.規則(d)について,不活性弧Vまでの推定費用は,$\hat{h}_\V=\hat{h}_\VP+w_\A\timesg_\A+C_\VP=6$,不活性弧Aまでの推定費用は$\hat{h}_\A=\hat{h}_\VP=0$となる.活性弧$[\V\[?]_\A]_\VP$までの推定費用は,$\hat{h}_{[\V\[?]_\A]_\VP}=1$となる.規則(e)については,不活性弧Vまでの推定費用は,$\hat{h}_\V=\hat{h}_\VP+w_\AV\timesg_\AV+C_\VP=2$,不活性弧AVまでの推定費用は$\hat{h}_\AV=\hat{h}_\VP=0$となる.不活性弧Vについて,規則(d)から得られた値6と規則(e)から得られた値2のうち小さいほうの後者がその推定費用となる.ステップ\ref{algo:est_compare}では,不活性弧Aについて,今,規則(d)から得られた値0は,二回目のループで規則(b)から得られた値6より小さいので,推定費用は0となる.以下,同様に処理が進むと,表\ref{tab:est}に示す推定費用が最終的に得られる.\begin{table}\caption{目標弧からの推定費用}\label{tab:est}\begin{center}\begin{tabular}{|l|r||l|r||l|r|}\hline\multicolumn{1}{|c|}{不活性弧\rule{0pt}{11pt}}&\multicolumn{1}{|c||}{$\hat{h}$}&\multicolumn{1}{|c|}{不活性弧}&\multicolumn{1}{|c||}{$\hat{h}$}&\multicolumn{1}{|c|}{活性弧}&\multicolumn{1}{|c|}{$\hat{h}$}\\\hline\hlineS&0&V&2&$[\NP\[?]_\VP]_\SS$&3\\NP&4&AV&0&$[\A\[?]_\N]_\NP$&5\\VP&0&failing&1&$[\PRP\[?]_\N]_\NP$&5\\A&0&hard&1&$[\V\[?]_\A]_\VP$&1\\PRP&10&student&5&$[\V\[?]_\AV]_\VP$&1\\N&4&looked&3&&\\\hline\end{tabular}\end{center}\end{table} \section{解析例} 図\ref{fig:rule}の構文規則と表\ref{tab:est}の推定費用を用いて`failingstudentlookedhard'を解析する過程を追う.解析アルゴリズムは,\ref{sec:astar_chart}節で述べた改良を加えていない図\ref{fig:astar_chart}の基本的なものを用いることにする.表\ref{tab:chart}は,この例文に対して全解探索を行なった場合に得られるチャートである.図\ref{fig:astar_chart}のアルゴリズムによる解析で,費用の最も小さい目標弧が得られるまでのアジェンダの変化の様子を表\ref{tab:agenda}に示す.表\ref{tab:agenda}の各行は,解析のある時点でのアジェンダの内容を表す.アジェンダの要素は,弧と全推定費用($\hat{f}=g+\hat{h}$)の対であり,$\hat{f}$の昇順に左から右へ並んでいる.表\ref{tab:agenda}の最左要素がアジェンダの先頭要素である.アジェンダは,図\ref{fig:astar_chart}の解析アルゴリズムにおける第$k$回目のループでの処理で,第$k$行目から第$k+1$行目へ変化する.以後,第$k$行目のアジェンダをアジェンダ$k$と呼ぶ.弧は,表\ref{tab:chart}の\#欄の番号で表される.例えば,アジェンダ1の第一要素1:\#4は,表\ref{tab:chart}の四行目の全推定費用が1である弧hardを指す.まず,アジェンダ1から先頭要素1:\#4を取り出し,不活性弧\#4に予測手続きを適用して得られた弧\#9と\#10をアジェンダに加え,$\hat{f}$の昇順に並べると,アジェンダ2へ変化する.アジェンダ2の先頭要素の不活性弧\#10は,それに対して適用できる構文規則が存在しないので,アジェンダ3へ変化する.アジェンダ3,4,5,6,7の先頭要素は不活性弧であるので,これらに予測手続きを適用して得られた弧を加え,$\hat{f}$の昇順に並べると,それぞれ,アジェンダ4,5,6,7,8となる.アジェンダ8の先頭要素である弧\#15は活性弧であるので,\#15と不活性弧\#10に結合手続きを適用して得られた弧\#19をアジェンダに加え,$\hat{f}$の昇順に並べると,アジェンダ9へ変化する.以下,同様に処理を進め,アジェンダ15から先頭要素7:\#23を取り出すと,弧\#23は目標弧であるので,費用の最も小さい目標弧を発見したことになり,解析を中断する.もし費用が二番目に小さい目標弧が必要ならば,アジェンダ16から処理を再開すればよい.以上の解析過程の追跡からわかるように,弧\#13,\#17,\#18,\#21,\#22,\#24,\#25を生成せずに,また,弧\#6,\#11,\#14に対して手続きを適用せずに,生成費用の最も小さい目標弧が得られる.\begin{table}\caption{例文に対して全解探索を行なった場合のチャート}\label{tab:chart}\begin{center}\begin{tabular}{|r|r|c|l|}\hline\multicolumn{1}{|c|}{\#}&\multicolumn{1}{|c|}{$g+\hat{h}$}&位置&\multicolumn{1}{|c|}{項}\\\hline\hline1&$0+1$&[0,1]&failing\\2&$0+5$&[1,2]&student\\3&$0+3$&[2,3]&looked\\4&$0+1$&[3,4]&hard\\5&$1+0$&[0,1]&$[\FAIL]_\A$\\6&$1+10$&[0,1]&$[\FAIL]_\PRP$\\7&$1+4$&[1,2]&$[\STUD]_\N$\\8&$1+2$&[2,3]&$[\LOOK]_\V$\\9&$1+0$&[3,4]&$[\HARD]_\A$\\10&$1+0$&[3,4]&$[\HARD]_\AV$\\11&$2+5$&[3,4]&$[[\HARD]_\A\[?]_\N]_\NP$\\12&$2+5$&[0,1]&$[[\FAIL]_\A\[?]_\N]_\NP$\\13&$6+5$&[0,1]&$[[\FAIL]_\PRP\[?]_\N]_\NP$\\14&$6+1$&[2,3]&$[[\LOOK]_\V\[?]_\A]_\VP$\\15&$2+1$&[2,3]&$[[\LOOK]_\V\[?]_\AV]_\VP$\\16&$3+4$&[0,2]&$[[\FAIL]_\A\[\STUD]_\N]_\NP$\\17&$7+4$&[0,2]&$[[\FAIL]_\PRP\[\STUD]_\N]_\NP$\\18&$7+0$&[2,4]&$[[\LOOK]_\V\[\HARD]_\A]_\VP$\\19&$3+0$&[2,4]&$[[\LOOK]_\V\[\HARD]_\AV]_\VP$\\20&$4+3$&[0,2]&$[[[\FAIL]_\A\[\STUD]_\N]_\NP\[?]_\VP]_\SS$\\21&$8+3$&[0,2]&$[[[\FAIL]_\PRP\[\STUD]_\N]_\NP\[?]_\VP]_\SS$\\22&$11+0$&[0,4]&$[[[\FAIL]_\A\[\STUD]_\N]_\NP\[[\LOOK]_\V\[\HARD]_\A]_\VP]_\SS$\\23&$7+0$&[0,4]&$[[[\FAIL]_\A\[\STUD]_\N]_\NP\[[\LOOK]_\V\[\HARD]_\AV]_\VP]_\SS$\\24&$15+0$&[0,4]&$[[[\FAIL]_\PRP\[\STUD]_\N]_\NP\[[\LOOK]_\V\[\HARD]_\A]_\VP]_\SS$\\25&$11+0$&[0,4]&$[[[\FAIL]_\PRP\[\STUD]_\N]_\NP\[[\LOOK]_\V\[\HARD]_\AV]_\VP]_\SS$\\\hline\end{tabular}\end{center}\end{table}\begin{table}\caption{例文解析時のアジェンダの変化の様子}\label{tab:agenda}\begin{center}\begin{tabular}{r|l}\hline&\multicolumn{1}{|c}{アジェンダ}\\\hline\hline1.&1:\#4,\1:\#1,\3:\#3,\5:\#2\\2.&1:\#10,\1:\#9,\1:\#1,\3:\#3,\5:\#2\\3.&1:\#9,\1:\#1,\3:\#3,\5:\#2\\4.&1:\#1,\3:\#3,\5:\#2,\7:\#11\\5.&1:\#5,\3:\#3,\5:\#2,\7:\#11,\11:\#6\\6.&3:\#3,\5:\#2,\7:\#12,\7:\#11,\11:\#6\\7.&3:\#8,\5:\#2,\7:\#12,\7:\#11,\11:\#6\\8.&3:\#15,\5:\#2,\7:\#12,\7:\#11,\7:\#14,\11:\#6\\9.&3:\#19,\5:\#2,\7:\#12,\7:\#11,\7:\#14,\11:\#6\\10.&5:\#2,\7:\#12,\7:\#11,\7:\#14,\11:\#6\\11.&5:\#7,\7:\#12,\7:\#11,\7:\#14,\11:\#6\\12.&7:\#12,\7:\#11,\7:\#14,\11:\#6\\13.&7:\#16,\7:\#11,\7:\#14,\11:\#6\\14.&7:\#20,\7:\#11,\7:\#14,\11:\#6\\15.&7:\#23,\7:\#11,\7:\#14,\11:\#6\\16.&7:\#11,\7:\#14,\11:\#6\\\hline\end{tabular}\end{center}\end{table} \section{関連研究との比較} \label{sec:comparison}KGW+p\cite{Tsujii88}は,拘束規則に基づいてすべての可能な部分構造を生成する機構と,優先規則に基づいて構造の良さを比較し,それらの間に有意な差が生じたときに,一部の構造を選択する機構から構成されている.KGW+pでは,解析のある時点で優先されなかった部分構造が選択されるのは,優先された部分構造を構成要素とする構造が生成できなかった場合に限られており,局所的な選択の積み重ねで解析を進める一種のビーム探索が行なわれている.このため,生成された全体構造が可能な構造のうち最も適切なものであることが保証されない.これに対し,本手法では保証される.シフト/レデュース法において,1)シフト操作とレデュース操作の適用に競合が生じた場合には,シフト操作を優先させ,2)レデュース操作同士の競合が生じた場合には,右辺がより長い構文規則の適用を優先させる,という二つのメタレベルの優先方略に従い,右連合(rightassociation)や最小付加(minimalattachment)などの英語における選好を反映した構造を生成する手法が提案されている\cite{Shieber83}.また,日本語文の構文的特徴が左枝分かれ構造であることに着目し,これを反映する構造を最初に生成するために,上記の優先方略を変更した手法も示されている\cite{Shimazu89}.これらの手法では,優先方略が探索機構の中に組み込まれているため,右連合や最小付加,左枝分かれ構造以外の構造を優先する必要が生じた場合,探索機構自体を変更しなければならない.これに対し,本手法では,探索機構と規則記述の枠組みが分離されているので,探索機構には手を加えずに,構文規則の適用費用を修正するだけで,優先すべき構造を柔軟に変更できる.例えば,名詞句の左枝分かれ構造を優先したい場合,本手法では,構文規則$\NP\rightarrow\NP/1\\NP/2,\\1$を用いればよい.この規則に従って生成される不活性弧を図\ref{fig:leftright}に示す.括弧内の数値が生成費用である.\begin{figure}\begin{center}\epsfile{file=leftright.eps}\vspace{-0.5mm}\end{center}\caption{左枝分かれ構造と右枝分かれ構造}\label{fig:leftright}\vspace{-0.5mm}\end{figure}逆に,右枝分かれ構造を優先したい場合は,右辺の第一項と第二項の重みを入れ換えればよい.また,本手法では,優先すべき構造をメタレベルの優先方略に従って選択する手法と異なり,個々の規則に付与された費用に基づいて選択するので,優先すべき構造をきめ細かく指定できる.PAMPS\cite{Uehara83}は,構文規則に付与された費用に基づいて,優先すべき構造を選択する枠組みとなっている点では,本手法と同じである.しかし,本手法と異なり,部分構造から全体構造を得るまでの費用の推定が行なわれていないので,解析過程で生成される部分構造の数は,本手法で生成される数よりも多くなる可能性が高い.確率付き構文規則は,文脈自由文法形式の規則に$0<p_\alpha\le1$なる実数を規則の適用確率として付与したものである.ただし,左辺の構文範疇が同じである各規則の適用確率の和は1でなければならない.確率付き規則を用いた構文解析では,構文構造にはその構造の生成に関与した規則の適用確率の積が付与される.確率付き規則$\alpha\rightarrow\beta_1\ldots\beta_m,\\p_\alpha$は,適用確率$p_\alpha$をそ\\の逆数の対数$\log\frac{1}{p_\alpha}$に置き換えれば,費用付き規則とみなせ,本稿の構文解析手法を適用することができる.しかし,その逆の費用付き規則から確率付き規則への変換を行なうことはできない.確率付き規則では,左辺の構文範疇が異なる規則の間での競合が記述できないからである.例えば,図\ref{fig:rule}の構文規則において,規則(f)を(h)より優先させたい場合,費用付き規則では,(f')~$\A\rightarrow\FAIL/1,\1$と(h')~$\PRP\rightarrow\FAIL/1,\2$とすればよいが,確率付き規則では,規則の適用確率$p_\alpha$は$0<p_\alpha\le1$なる実数であり,左辺の構文範疇が同じである各規則の適用確率の和は1でなければならないので,規則(h)の適用確率よりも大きな値を規則(f)に付与することはできない.従って,費用付き構文規則のほうが記述力の点で優れている.これまでに,不適格文を処理するための種々の手法が提案されている\cite{Matsumoto94}.ここでは,本手法が,語句の欠落や語順の誤りなどを含む構文的不適格文を効率良く処理できることを示す.これまでに提案されている手法の多くは,適格文用の構文規則を用いて解析を行なう機構と,この機構による通常の解析が失敗した時点で起動される不適格文を処理するための別の機構を備えている.これに対し,本手法を用いれば,Fassらの手法\cite{Fass83}と同じく,適格文と不適格文を区別せずに,両者の処理を統一的な枠組みで行なうことができる.すなわち,不適格文用の構文規則を,適格文用の規則と同じように記述し,前者の適用費用を後者のものよりも高く設定しておく.一般に,適格文と不適格文を区別しないように構文規則を拡張すると,適格文を解析する際に生成される部分構造の数が多くなり,効率が悪くなるという問題が生じる.しかし,本手法では,適用費用が高い不適格文用の規則は,適格文用の規則の適用が失敗した場合にのみ適用される可能性が高いので,効率が悪化する恐れは少ないと考えられる. \section{おわりに} 本稿では,可能な構文構造に優劣を付け,適切な構造から順に必要なだけ生成する構文解析手法を示した.本手法は次のような特徴を持っている.\begin{enumerate}\item部分構造の共有と統合を行ない,重複処理を避ける.\item$\A^*$法の最適性条件を満たすよう推定費用を計算し,可能な構造のうち費用の最も小さい全体構造を効率良く生成する.\item優先すべき構造をきめ細かく指定でき,その変更も容易に行なえる規則記述の枠組みを提供する.\end{enumerate}自然言語処理システムは,最終的には,可能な解釈の中からシステム全体で最も適切な解釈を一つ選び出さなければならない.そのような解釈は,より適切な構造から得られると考えられるので,構文解析以降の処理からの要請があるまで,適切でない構造の生成を保留する本手法は,システム全体としての効率の向上に寄与する.本手法では,現在のところ,入力文とは独立に構文規則だけに基づいて費用の推定を行なっている.この方法では,推定を,文が入力される度に行なう必要はなく,費用付き構文規則に変更がない限り一度だけ行なっておけばよい.しかし,費用推定の精度をさらに高めるためには,入力文を参照しながら推定を行なわなければならない.これは今後の課題である.もう一つの課題は,人間が見て最も適切な構文構造を最初に生成できるように,構文規則に費用を付与することである.\ref{sec:comparison}節で述べたように,費用付き構文規則は確率文脈自由文法規則の拡張とみなせるので,確率文脈自由文法規則のパラメータ学習法として知られているInside-Outsideアルゴリズムなどを利用することで,この課題には対処できる.しかし,最終的には,学習したパラメータを人手で調整しなければならず,そのための実験が必要になろう.本手法は,最適な費用付き構文規則を記述するための実験環境を文法記述者に提供する.\bibliographystyle{jnlpbbl}\bibliography{bfc}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1962年生.1987年電気通信大学大学院計算機科学専攻修士課程修了.現在,シャープ(株)情報商品開発研究所にて日英機械翻訳システムの研究開発に従事.}\bioauthor{JiriJelinek}{1939年生.チェコのプラハのUniversitaKarlova卒業(言語学・英語学・日本語学).1959年以来,日英機械翻訳実験中.英国Sheffield大学日本研究所専任講師を1996年退職.現在,シャープ専任研究員.}\bioauthor{西田収}{1961年10月19日生.1984年大阪教育大学教育学部中学校課程数学科卒業,同年より神戸大学工学部応用数学科の教務補佐員として勤務.1987年シャープ(株)に入社.現在は,同社の情報商品開発研究所に所属.主に,日英機械翻訳,多言語翻訳の研究に従事.情報処理学会会員.}\bioauthor{田村直之}{1957年1月31日生.1985年神戸大学大学院自然科学研究科システム科学専攻博士課程修了.学術博士.同年,日本アイ・ビー・エム(株)に入社し東京基礎研究所に勤務.1988年神戸大学工学部システム工学科助手.講師を経て,現在同大学大学院自然科学研究科助教授.論理型プログラミング言語,線形論理などに興味を持つ.著書に「Prologプログラミング入門」(オーム社,共著).情報処理学会,日本ソフトウェア科学会,システム制御情報学会,ACM,IEEE各会員.}\bioauthor{村上温夫}{1929年生.1952年大阪大学理学部数学科卒業.神戸大学理学部助手,講師,教養部助教授を経て,1968年より工学部教授.この間,UniversityofKansas客員助教授,UniversityofNewSouthWales客員教授,NanyangUniversity客員教授を併任.1992年より甲南大学理学部教授.神戸大学名誉教授.理学博士(東京大学).関数解析,偏微分方程式,人工知能,数学教育などに興味を持つ.著書に``MathematicalEducationforEngineeringStudents''(CambridgeUniversityPress)など.日本数学会,日本数学教育学会,情報処理学会,教育工学会,AMS各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V23N02-01
\section{はじめに} \textbf{系列アラインメント}とは,2つの系列が与えられたときに,その構成要素間の対応関係を求めることをいう.系列アラインメントは特にバイオインフォマティクスにおいてDNAやRNAの解析のために広く用いられているが,自然言語処理においてもさまざまな課題が系列アラインメントに帰着することで解かれている.代表的な課題として\textbf{対訳文アラインメント}\cite{moore02:_fast,braune10:_improv,quan-kit-song:2013:ACL2013}があげられる.対訳文アラインメントは対訳関係にある文書対が与えられたときに,文書対の中から対訳関係にある文のペアをすべて見つけるタスクである.統計的機械翻訳においては,対訳コーパスにおいてどの文がどの文と対訳関係にあるかという文対文での対応関係が与えられているという前提のもとで学習処理が実行されるが,実際の対訳コーパスでは文書対文書での対応付けは得られていても文対文の対応付けは不明なものも多い.そのため,対訳文書間での正しい対訳文アラインメントを求めることは精度のよいモデルを推定するための重要な前処理として位置づけられる.統計的機械翻訳以外の,例えば言語横断的な情報検索~\cite{nie1999cross}などの課題においても対訳文書間の正しい文アラインメントを求めることは重要な前処理として位置づけられる.また,対訳文アラインメントのほかにも,対訳文書に限定されない文書間の対応付けタスクも系列アラインメントとして解かれている~\cite{qu-liu:2012:ACL2012,孝昭15,要一12}.自然言語処理のタスクにおける系列アラインメント問題を解く手法は,対応付けの\textbf{単調性}を仮定する方法とそうでない方法とに大別される.単調性を仮定する系列アラインメント法は特に対訳文アラインメントにおいて広く用いられる方法であり,対訳関係にある二つの文章における対応する文の出現順序が大きく違わないことを前提として対応付けを行う.すなわち,対訳関係にある文書のペア$F$,$E$に対し,$F$の$i$番目の文$f_i$に$E$の$j$番目の文$e_j$が対応するとしたら,$F$の$i+1$番目の文に対応する$E$の文は,(存在するならば)$j+1$番目以降であるという前提のもとで対応付けを行っていた.この前提は,例えば小説のように文の順序が大きく変動すると内容が損なわれてしまうような文書に対しては妥当なものである.一方で単調性を仮定しない方法は~\cite{qu-liu:2012:ACL2012,孝昭15,要一12}などで用いられており,文間の対応付けの順序に特に制約を課さずに系列アラインメントを求める.図~\ref{fig:prevwork}は,それぞれ単調性を仮定した系列アラインメント,仮定しない系列アラインメントの例を表している.白丸が系列中のある要素を表現しており,要素の列として系列が表現されている.図では2つの系列の要素間で対応付けがとられていることを線で示している.単調性を仮定した対応付け手法では,対応関係を表す線は交差しない.一方で仮定しない手法では交差することが分かる.\begin{figure}[t]\begin{center}\includegraphics{23-2ia1f1.eps}\end{center}\caption{既存の系列アラインメント法によるアラインメント例}\label{fig:prevwork}\end{figure}系列アラインメントにおいて単調性を仮定することは,可能なアラインメントの種類数を大きく減少させる一方で,動的計画法による効率的な対応付けを可能とする.先述したように,対訳文アラインメントを行う際に単調性を仮定することは多くの対訳文書に対しては妥当な仮定である.しかし,単調性を仮定することが妥当でない対訳文書も存在する.例えば文献~\cite{quan-kit-song:2013:ACL2013}では,単調性が成り立たない文書の例として法令文書を挙げている.そのほかにも例えば百科事典やWikipediaの記事のように一つの文書が独立な複数の文のまとまりからなる場合には,文のまとまりの出現順序が大きく変動しても内容が損なわれないことがある.このような文書においては,文の順序が大きく変動しないという前提は必ずしも正しいものではないため,既存の単調性を仮定した系列アラインメント法では正しい対訳文アラインメントが行えない可能性が高い.一方で,単調性を仮定しない既存のアラインメント法では非単調な対応付けを実現できるものの,対応付けの\textbf{連続性}を考慮することが難しいという問題がある.対応付けの連続性とは,$f_i$が$e_j$と対応付けられているならば,$f_{i+1}$は$e_j$の近傍の要素と対応付けられる可能性が高いとする性質のことである\footnote{\ref{sec:setpart}節以降の提案手法の説明では,説明を簡単にするために,対応付けに順方向の連続性がある場合,すなわち$f_i$と$e_j$が対応付けられているならば$f_{i+1}$は$e_{j}$より後ろにある近傍の要素と対応付けられやすい場合のみを扱っている.しかし,実際には提案法は順方向に連続性がある場合と同様に逆方向の連続性がある場合の対応付けを行うこともできる.逆方向の連続性とは,$f_i$と$e_j$が対応付けられているならば,$f_{i+1}$は$e_{j}$以前の近傍の要素と対応付けられる可能性が高いとする性質のことである.}.もし対応付けにおいて連続性を考慮しないとすると,系列$F$中のある要素$f_i$とそれに隣接する要素$f_{i+1}$とが,それぞれ$E$中で離れた要素と対応付けられてもよいとすることに相当する.対応付けの単調性を仮定できるような対訳文書の対訳文アラインメントについては,明らかに対応付けの連続性を考慮する必要がある.さらに,単調性が仮定できないような文書のペアに対する対訳文アラインメントにおいても,ある文とその近傍の文が常に無関係であるとは考えにくい.以上より,文アラインメントにおいては連続性を考慮することが不可欠である.また,対訳文アラインメント以外の系列アラインメントを用いるタスクにおいても,対応付けの対象となる系列は時系列に並んだ文書等,何らかの前後のつながりを仮定できるものが多いことから,連続性を考慮する必要がある.単調性を仮定できない文アラインメントの例を示す.図\ref{fig:hourei}は,文献~\cite{quan-kit-song:2013:ACL2013}の検証で用いられているBilingualLawsInformationSystem(BLIS)\footnote{http://www.legistlation.gov.hk}コーパスに含まれる対訳文書における文アラインメントの例である.BLISは香港の法令文書の電子データベースであり,対訳関係にある英語・中国語の文書を保持している.図に示す対訳文は用語の定義を行っている箇所である.両言語の文を比べると,定義する用語の順番が英語と中国語とで異なっており,結果として,局所的には連続なアラインメントが非単調に出現する対訳文書となっている.\begin{figure}[t]\begin{center}\includegraphics{23-2ia1f2.eps}\end{center}\caption{法令文書における非単調な対訳文アラインメントの例}\label{fig:hourei}\end{figure}本論文では系列の連続性を考慮しつつ,かつ非単調な系列アラインメントを求めるための手法を提案する.このような系列アラインメント法は,単調性を仮定できない文書対の対訳文アラインメントを求める際に特に有効であると考える.仮に文書$F$の文が$E$の任意の文と対応してもよいとすれば,ある文のペアの良さを評価するスコアを適切に設定することによって,問題を二部グラフにおける最大重みマッチング問題\cite{korte08:_combin_optim}として定式化して解くことができる.しかし,$F$のある文が$E$の任意の文と対応してもよいという前提では,近傍の文間のつながりを無視して対応付けを行うことになる.実際の文書ではすべての文がその近傍の文と無関係であるとは考えにくいため,正しい対応付けが行えない可能性が高い.そこで,提案手法では対訳文アラインメントを組合せ最適化の問題の一つである\textbf{集合分割問題}として定式化して解く.集合分割問題は,ある集合$S$とその部分集合族$S_1,\ldots,S_N$が与えられたときに,スコアの和が最大となるような$S$の分割$\mathcal{D}\subseteq\{S_1,\ldots,S_N\}$を見つける問題である.ここで$\mathcal{D}$が$S$の分割であるとは,$S=\cup_{S_i\in\mathcal{D}}S_i$かつ$i\neqj$ならば任意の$S_i,S_j\in\mathcal{D}$について$S_i\capS_j=\emptyset$となることをいう.2つの系列$F$,$E$のある部分列に対する単調な系列アラインメントの集合を$S_1,\ldots,S_N$として表現することで,部分列に対するアラインメントの集合$S_1,\ldots,S_N$から系列全体の分割となるような部分集合を選択する問題として$F$,$E$全体に対する系列アラインメントを求めることができる.また,本論文では集合分割問題としての系列アラインメントの定式化とともに,その高速な求解法も同時に示す.提案する集合分割問題に基づく定式化を用いると,系列$F$,$E$に含まれる要素の数が増加するに伴い,急激に厳密解の求解に時間がかかるようになるという課題がある.これは,それぞれの系列に含まれる要素の総数を$|F|$,$|E|$とすると,集合分割問題に出現する変数の数\footnote{集合分割問題における変数の数は,可能な$F$,$E$の部分系列のペアの総数と等しい.詳細は\ref{sec:setpart}章を参照.}が$O(|F|^{2}|E|^{2})$となるためである.集合分割問題はNP困難であり,変数の数が増加すると各変数に対応する重みの計算および整数線形計画法ソルバを用いた求解に時間がかかるようになる.本論文ではこの課題に対処するために,多くの変数が問題中に出現する大規模な線形計画問題を解く際に用いられる,\textbf{列生成法}\cite{lubbecke05:_selec_topic_colum_gener}を用いることで高速な系列アラインメントを実現する近似解法も同時に提案する.列生成法は大規模な問題の解を,出現する変数の個数を制限した小さな問題を繰り返し解くことによって求める手法である.列生成法を用いることによって,そのままでは変数の数が膨大となり解くことができなかった問題を解くことができる.なお,列生成法を用いることで線形計画問題の最適解を得られることは保証されているが,整数線形計画問題については解を得られることは必ずしも保証されていない.そこで本論文では列生成法で得られた近似解を実験によって最適解と比較し,よい近似解が得られていることを確認する.なお,以下では説明を簡単にするために特に対訳文書の対訳文アラインメントに話題を限定して説明を進める.ただし,系列の要素間のスコアさえ定まれば提案法を用いて任意の系列のペアに対する系列アラインメントを行うことが可能である. \section{関連研究} 対訳文アラインメントに関しては,これまで,文の長さを対応付けに利用する方法\cite{gale93:_progr_align_senten_bilin_corpor},語の翻訳確率と文の長さを利用する方法\cite{moore02:_fast,braune10:_improv}などが提案されてきているが,ほとんどの方法でアラインメントの単調性を仮定している.単調性を仮定することによって動的計画法によって効率的に対訳文アラインメントを求めることができるという利点はあるが,序章で述べたように単調性が成り立たない文書対に対しては正しいアラインメントを求めることができないという欠点がある.Dengらは系列マッチングとクラスタリングをあわせて利用することで,文の順序が入れ替わる場合でも対訳文アラインメントを行える手法を提案している\cite{deng07:_segmen}.しかし,Dengらの手法は,ある隣接する二つの文の順序が入れ替わるなど,順序の入れ替わりが小さい範囲で起きることを想定した手法であり,より大きな範囲での順序の入れ替わりには対処できない.対訳文間の単調性を仮定しない,非単調な対訳文アラインメントを求めるための手法として,近年Quanらは半教師あり学習の枠組みに基づく文対応付け手法を提案している\cite{quan-kit-song:2013:ACL2013}.彼らの手法は基本的には二部グラフマッチングに基づくアラインメント法であるが,各文書における文間の類似度合いを対応付けのための目的関数に用いている点が特徴的である.Quanらの手法と比較すると,提案法は文のまとまり単位のアラインメントをより明示的に意識した手法となっていることが異なる.Quanらの手法は隣り合う文間の関係を明示的には考慮しないため,対訳文書間で文の出現順序が全く異なる文書により適している.また,Quanらの手法は二部グラフマッチングに基づく手法のため多対多のアラインメントには対応できないが,提案法は内部で呼び出す既存の単調性を仮定した対訳文アラインメント法を多対多のマッチングを考慮するものに変更することによって,容易に多対多の対訳文アラインメントを行うように拡張できる点も異なる.対訳文アラインメント以外にも,さまざまな自然言語処理のタスクが系列アラインメント問題として定式化され解かれている.例えば質問応答ウェブサイトにおける質問と回答との対応付け~\cite{qu-liu:2012:ACL2012}や,ウェブサイトにおけるレビュー文とそれに対する返答のペア~\cite{孝昭15},条例文~\cite{要一12}の対応付けといったタスクなどがある.対訳文アラインメント以外の自然言語処理における重要な系列アラインメント問題の適用先として,単語アラインメントが挙げられる.単語アラインメント問題に関しては非単調なアラインメントを求めるための手法が数多く提案されてきている.Brownらは,原言語の各単語は必ず目的言語のある単語に対応付けられるなどの制約のもとで,生成モデルに基づいた単語の非単調なアラインメントを行っている\cite{brown93}.また,Wuは反転トランスダクション文法に基づいた非単調な単語アラインメント法を提案している\cite{Wu:1997:SIT:972705.972707}.これらのうち,\cite{brown93}は単語アラインメントに固有の性質を扱っており,本論文で扱っている対訳文アラインメントに直接適用するのは難しい.また,反転トランスダクション文法に基づく手法は,提案法に類似の非単調な対訳文アラインメントを実現可能な文法規則を設計できる.しかし,反転トランスダクション文法では連続な文間の非単調なアラインメントの形態が制限される点が提案手法と異なる. \section{単調性を仮定した対訳文アラインメント法} \label{sec:monotone}提案法の説明の準備として,単調性を仮定した動的計画法に基づく既存の対訳文アラインメント法について説明する.単調性を仮定した対訳文アラインメント法では,対訳文書$F$,$E$のある文のペア$s\inF$,$t\inE$が対応付けられた時のスコア$S(s,t)$が与えられたときに\footnote{なお,対訳文アラインメントの手法によっては多対多の対応付けのスコアも加味することによって,多対多の対応付けが可能なものも存在する.},スコアの総和が最大となるような単調な対訳文アラインメントを求める.アラインメントの単調性を仮定すると,最適な系列アラインメントは動的計画法を用いることで高速に求めることができる.これまでにさまざまなスコア$S(s,t)$の定義が提案されてきているが,代表的な対訳文アラインメント法であるMooreによる手法\cite{moore02:_fast}では,文の長さと文中の語の翻訳確率とを用いることでペアのスコアを定義し,対訳文アラインメントに含まれるペアのスコアが最大となるようにアラインメントを求める.具体的には,$s\inF$である文$s$と$t\inE$である文$t$とのペアのスコア$S(s,t)$を\begin{equation}S(s,t)=\frac{P(m_s,m_t)}{(m_s+1)^{m_t}}\Biggl(\prod_{j=1}^{m_t}\sum_{i=1}^{m_s}tr(t_j|s_i)\Biggr)\Biggl(\prod_{i=1}^{m_s}u(s_i)\Biggr)\label{eq:moore}\end{equation}として定める.ここで,$m_s$,$m_t$はそれぞれ文$s$,$t$に含まれる単語の総数である.また,$s_i$,$t_j$はそれぞれ$s$の$i$番目の語,$t$の$j$番目の語を表す.$tr(t_j|s_i)$は語$s_i$が$t_j$に翻訳される確率である.$u(s_i)$は語$s_i$の文書中での相対頻度を表す.$P(m_s,m_t)$は,文の長さ(語の数)に応じてスコアを定める関数であり,ポアソン分布を用いて\begin{equation}P(m_s,m_t)=\frac{\exp{(-m_sr)}(m_sr)^{m_t}}{m_t!}\end{equation}として定義される.$r$はパラメータである.各確率分布は~\cite{brown93}にある手法によってデータから推定できる. \section{集合分割問題に基づく対訳文アラインメントのモデル化} \label{sec:setpart}本論文で提案する対訳文アラインメント法の概観を示す.提案法のポイントは,文書を連続する文のまとまりに分割してアラインメントを求める点にある.すなわち,対訳文書のそれぞれを同数の文のまとまりに分割したのち,\begin{enumerate}\itemどの文のまとまり同士が対応付けられるか\item対応付けられた文のまとまりのペアの中で,どの文のペアが対応付けられるか\end{enumerate}を同時に求めることで対応付けを行う.このときに(1)について非単調な対応付け,(2)については単調な対応付けを行うことによって,連続性を考慮した非単調な対応付けを実現する.それぞれの文書を3つのまとまりに分割したときの提案法による対訳文アラインメントの様子を図\ref{fig:align_example}に示す.図中の白い丸がひとつの文に対応している.また,複数の丸を囲む四角が文のまとまりを表す.図より,文のまとまり同士の対応付けにおいては非単調な対応付けを行っていることと,文のまとまりに含まれている文同士の対応付けにおいては単調な対応付けを行っていることが分かる.文のまとまりに含まれる文同士の対応付けは,既存の単調な対訳文アラインメント法によって行われる.つまり,対応付けられる各文書を1つのまとまりだとみなした場合は,文書全体で単調な対応付けを行うことになるため,提案手法は既存の対訳文アラインメント法と同等である.\begin{figure}[t]\begin{center}\includegraphics{23-2ia1f3.eps}\end{center}\hangcaption{提案法による対訳文アラインメントの概観.各文書を3つの連続する文のまとまりに分割し,文のまとまり間で非単調な対応付けを行っている.対応付けられた文のまとまりのペアに含まれる文間では,単調な対応付けを行っている.結果として文書全体に対する対訳文アラインメントが得られている.}\label{fig:align_example}\end{figure}以下で用いる記法について述べる.対応付けをとる対象の2つの文書を$F$,$E$とし,それぞれ$|F|$,$|E|$個の文からなるとする.$f_i$を$F$に含まれる$i$番目の文,$e_k$を$E$に含まれる$k$番目の文とする.$F$の$i$番目から$j$番目までの連続する文の集合を$f_{ij}\subseteqF$とする.ただし$1\leqi\leqj\leq|F|$である.同様に,$e_{kl}\subseteqE$は$E$の$k$番目から$l$番目までの連続する文の集合とする.ただし$1\leqk\leql\leq|E|$である.また,$a_{ijkl}$を文のまとまりのペア$(f_{ij},e_{kl})$を表現するために用い,$f(a_{ijkl})=f_{ij}$,$e(a_{ijkl})=e_{kl}$と定義する.文のまとまり$f_{ij}$と$e_{kl}$のペアに対して,既存の単調性を仮定した対訳文アラインメント法を適用することによって得られる文アラインメントのスコアを$\mathrm{seqMatch}(f_{ij},e_{kl})$とする.すなわち,$f_{ij}$,$e_{kl}$間のある単調なアラインメントを$X$,すべての単調な対訳文アラインメントの集合を$\mathcal{A}_{ijkl}$とすると,$\mathrm{seqMatch}(f_{ij},e_{kl})$は\begin{equation}\mathrm{seqMatch}(f_{ij},e_{kl})=\max_{X\in\mathcal{A}_{ijkl}}\sum_{(s,t)\inX}S(s,t)\end{equation}として定義される.\subsection{集合分割問題に基づく定式化}前節で定義した$\mathrm{seqMatch}(f_{ij},e_{kl})$は,文のまとまり$f_{ij}$と$e_{kl}$のペアに対する対応付けスコアであるとみなすことができる.このスコアを用いて文のまとまり同士の一対一の対応付けを求める.文のまとまり同士の対応付けを求めることができれば,それに含まれる文間の対応付けは$\mathrm{seqMatch}(f_{ij},e_{kl})$を求める際に既に求めてあるため,結果として対訳文アラインメントが得られる.可能なすべての文のまとまりのペア$a_{ijkl}$の集合を$\mathcal{M}$とすると,ある文アラインメントは,$\mathcal{M}$の部分集合であり,かつ文書対の分割となっているような文のまとまりのペアの集合$A\subseteq\mathcal{M}$として表現できる.ただし,$A$に含まれる任意の文のまとまりのペア$a,a^{\prime}\inA$について$f(a)\capf(a^{\prime})=\emptyset$かつ$e(a)\cape(a^{\prime})=\emptyset$であり,$\cup_{a\inA}f(a)=F$かつ$\cup_{a\inA}e(a)=E$を満たすものとする.上記の条件を満たす$A$の集合を$\mathcal{A}$とすると,対訳文アラインメントを求める問題は,\begin{equation}\hat{A}=\mathop{\rmargmax}_{A\in\mathcal{A}}\left\{\mathrm{score}(A)\right\}\label{eq:ast}\end{equation}として,マッチングのスコアを最大とする$\hat{A}$を求める問題として定式化することができる.ここで$\mathrm{score}(A)$は,$F$と$E$に対する分割$A$を定めたときのスコアであり,以下のように定義する.\begin{equation}\mathrm{score}(A)=\lambda^{K}\prod_{a\inA}\mathrm{seqMatch}(f(a),e(a))\label{eq:sub}\end{equation}ここで$K$は$A$中に含まれる文のまとまりのペアの総数,$\lambda$はペアの個数に応じて課されるペナルティを表すパラメタであり,$0<\lambda\leq1$を満たすように設定する.$\lambda=1$とすると解に出現する文のまとまりのペアの個数に制限をつけないことに相当するため,文の連続性を考慮しないアラインメントが得られる.一方で$\lambda$に小さな値を設定することは,解に出現する文のまとまりの個数に対して大きなペナルティを与えることに相当するため,できるだけ小ない個数の文のまとまりが解に含まれるようになる.$\lambda$をある程度以上小さな値に設定すると常に1つの文のまとまりのペアに分割されるようになる.これは既存の単調な対訳文アラインメントと等しい.式(\ref{eq:sub})の対数をとると,$\mathrm{score}(A)$は文のまとまりのペア$a$に対する線形式に置き換えることができる.よって,ここでの対訳文アラインメント問題は整数線形計画問題(ILP)として定式化することができる.ILPによる定式化は,\begin{align}\mbox{maximize}&\sum_{ijkl}(w_{ijkl}+\log\lambda)y_{ijkl}\label{eq:obj}\\\mbox{subjectto}&\sum_{i,j:i\leqx\leqj}\sum_{kl}y_{ijkl}=1~~~~~\forallx:1\leqx\leq|F|\label{eq:cond1}\\&\sum_{ij}\sum_{k,l:k\leqx\leql}y_{ijkl}=1~~~~~\forallx:1\leqx\leq|E|\label{eq:cond2}\\&y_{ijkl}\in\{0,1\}~~~~~~~~~~~~\foralli,j,k,l\label{eq:lasteq}\end{align}となる.ここで,$w_{ijkl}$は$\log{\mathrm{seqMatch}(f_{ij},e_{kl})}$の値である.$y_{ijkl}$は文のまとまりのペア$a_{ijkl}$をアラインメントに含むことを表す変数であり,$y_{ijkl}=1$のときは$a_{ijkl}$が対訳文アラインメントに含まれるとする.制約(\ref{eq:cond1})は,$F$中の$x$番目の文を含むすべての文のまとまりのペア$a_{ijkl}$のうち,必ず1つだけが解に選択されることを保証するものである.(\ref{eq:cond2})は同様の制約を$E$に課したものであり,これら2つの制約を併せて$F$と$E$に含まれる各文が最終的に得られた文のまとまり同士の対応付けのいずれか1つに必ず含まれることを保証する.今回用いた定式化は,任意のペア$(f_{ij},e_{kl})$に対応する集合の集まりである集合族に対する\textbf{集合分割問題}となっている.なお,提案法は既存の単調な文アラインメント法として,多対多のアラインメントを求めることができる手法を用いることによって,非単調な多対多のアラインメントを実現することができる\footnote{多対多のアラインメントのほかには,例えば$f_1$-$e_4$,$f_2$-$e_3$,$f_3$-$e_2$,$f_4$-$e_1$といったような逆順で単調なアラインメントを解の一部として含むようにすることも可能である.具体的には式(3)においてseqMatch($f_{ij},e_{kl}$)を通常順,逆順の全ての可能な対応付けからスコアを最大にするものを選択するように修正すればよい.逆順の単調なアラインメントは,片方の系列を逆順にしたうえで,単調性を仮定した動的計画法によるアラインメント法を実行することで求めることができる.}. \section{列生成法} \label{sec:colgen}式~(\ref{eq:obj})から~(\ref{eq:lasteq})からなる整数線形計画問題はすべての文のまとまりのペア数に対応する数の変数を含む.このようなペアは$|F||E|(|F|+1)(|E|+1)/4$種類存在するため,文の数が増加すると整数線形計画問題に含まれる変数の数が急増し,解を求めるのに時間がかかるという問題がある.本論文では列生成法~\cite{lubbecke05:_selec_topic_colum_gener}を用いた近似解法を導入することでこの問題に対応する.一般的な整数線形計画問題の解法では,すべての変数を求解時に明示的に扱って解を求めるが,列生成法では目的関数の増加に寄与する可能性がある変数を逐次的に追加しながら問題を解くことで解を求める.最適解において非ゼロとなる変数の数が問題全体で扱う変数の数に対して非常に小さい場合,最適解においてゼロとなる変数を考慮せずに解が得られる可能性が高いことから,列生成法によって高速に解を得られることが期待できる.以下,列生成法に基づく解法の詳細を述べる.列生成法を導入するにあたり,いくつかの概念を定義する.まず,式~(\ref{eq:obj})から~(\ref{eq:lasteq})からなる整数線形計画問題を線形緩和した問題,つまり制約$a_{ijkl}\in\{0,1\}$を$0\leqa_{ijkl}\leq1$へと緩和した問題を主問題(Masterproblem:MP)とよぶ.主問題に含まれるすべての変数の集合を$\mathcal{M}$とする.MPからいくつかの変数を取り除いた問題を\textbf{制限された主問題}(Restrictedmasterproblem:RMP)とよぶ.RMPに出現する変数の集合を$\mathcal{M}^{\prime}\subseteq\mathcal{M}$と表す.ある線形計画問題の双対問題とは,もとの問題の各変数にそれぞれ対応する制約条件と,もとの問題の各制約条件に対応する変数からなる線形計画問題のことである.RMPに対しても双対問題を考えることができる.双対問題においてRMPにおける文$f_n$に関する制約に対応する変数を$u_n$,$e_m$に関する制約に対応する変数を$v_m$とする.線形計画問題が最適解を持つのであれば,最適解の値はそれは双対問題の最適解の値と一致することが知られており,RMPの最適解を単体法を用いて得ることができたならば,双対問題の最適解も容易に計算可能である.列生成法はRMPの求解とRMPに追加する変数を求める問題とを繰り返し解くことでMPを解く.追加する変数を求める問題は\textbf{列生成部分問題}とよばれ,具体的には$a_{ijkl}\in\mathcal{M}\setminus\mathcal{M}^{\prime}$であるような$a_{ijkl}$の\pagebreakうち,\begin{equation}\label{eq:1}\overline{w}_{ijkl}=w_{ijkl}+\log\lambda-\sum_{n=i}^{j}\hat{u}_{n}-\sum_{m=k}^{l}\hat{v}_{m}\end{equation}を最大とするものを一つ求める問題である.ここで,$\hat{u}_n$はRMPの双対問題の最適解における変数$u_n$の値,$\hat{v}_m$は変数$v_m$の値とする.以下では$\overline{w}_{ijkl}$のことを\textbf{被約費用}とよぶ.あるRMPを解いた後に各変数に対する被約費用がすべて負となるとき,RMPの最適解はMPの最適解となることが知られている.最適解において多くの変数の値がゼロとなるような問題においては,出現する変数の数がMPよりも大幅に少ないRMPを解くことでMPの最適解が得られることが期待できるため,列生成法は大規模な最適化問題を高速に解くことができる.列生成部分問題を解くことを考える.前述のとおり,変数は$|F||E|(|F|+1)(|E|+1)/4$個あるため,その全てについて被約費用を求めるのは困難である.しかし,スコア$w_{ijkl}$が\ref{sec:monotone}章で述べたように動的計画法によって求められること,および被約費用の式~(\ref{eq:1})において$\hat{u}_n$,$\hat{v}_m$が対応する文ごとにそれぞれ独立に作用していることを利用すると,最大の被約費用をSmith-Waterman法~\cite{smith81:_ident_common_molec_subseq}に類似した動的計画法によって求めることができる.Smith-Waterman法はバイオインフォマティクスの分野で提案された,配列の局所アラインメントを求めるためのアルゴリズムであり,動的計画法に基づいて長さ$N$,$M$の二本の配列に対する局所アラインメントを$O(NM)$時間で求めることができる.ここで局所アラインメントとは,二本の配列の可能な部分配列間の系列アラインメントのうち,スコアを最大とするもののことである.動的計画法は以下の局所アラインメントの再帰的な定義に沿って計算する.なお,以下では説明を簡単にするため,提案法内で利用する単調なアラインメントを求める手法が一対一のアラインメントのみを求めると仮定している.しかし,多対多のアラインメントを求めることができる手法を利用した場合であっても,下記の再帰式を容易に拡張することが可能である\footnote{逆順の単調なアラインメントを含むときも同様に,列生成法に対応する事が可能である.}.$q[j,l]$をその末尾の要素がそれぞれ$f_j,e_l$であるような文のまとまりのペアの被約費用$\overline{w}_{ijkl}$($1\leqi\leqj$,$1\leqk\leql$)の最大値とすると,$q[j,l]$は\begin{equation}\label{eq:recursion}q[j,l]=\max\left\{\begin{array}{l}\log\lambda\\q[j-1,l-1]+S(f_j,e_l)-\hat{u}_j-\hat{v}_l\\q[j-1,l]+S(f_j)-\hat{u}_j\\q[j,l-1]+S(e_l)-\hat{v}_l\end{array}\right.\end{equation}として再帰的に計算することができる.なお$q[0,0]=\log\lambda$とする.ここで$S(f_j,e_l)$,$S(f_j)$,$S(e_l)$は,既存の単調性を仮定した(例えば\cite{moore02:_fast}など)対訳文アラインメント法において利用されるスコアであり,それぞれ文$f_j$と文$e_l$とを対応付けたときのスコア,$f_j$を$E$のどの文とも対応させなかったときのスコア,$e_l$を$F$のどの文とも対応させなかったときのスコアである.最上段の選択肢$\log\lambda$は,$f_{j+1}$,$e_{l+1}$を開始位置とする文のまとまりのペアの被約費用が,$f_{j}$,$e_{l}$を含む文のまとまりのペアの被約費用よりも必ず大きくなるときに選択される.すべての$1\leqj\leq|F|$,$1\leql\leq|E|$について動的計画法によって$q[j,l]$を計算したのちに,それらのうち最大値をとることで被約費用の最大値を求めることができる.さらに,$q[j,l]$を計算する際に(\ref{eq:recursion})のどの式をもとに計算したかを記憶しておけば,最大値をとる$q[j,l]$からバックトラッキングを実行することによって被約費用を最大とする$x_{ijkl}$を求めることができる.すなわち,(\ref{eq:recursion})の4種類の選択肢のうち,下3種類の選択肢のいずれかが利用されたのであればそれぞれの式中に出現している$q[j-1,l-1]$,$q[j-1,l]$,$q[j,l-1]$のいずれかに遷移し,バックトラッキングを続ける.もし最上段の選択肢$\log\lambda$が利用されたのであれば,そこでバックトラッキングを終了する.バックトラッキングを終了したときの状態を$q[j^\prime,l^\prime]$とすると,$i=j^{\prime}+1$,$k=l^{\prime}+1$,として$i$と$k$が求まる.すべての$q[j,l]$を計算する動的計画法は$O(|F||E|)$,バックトラッキングは高々$O(|F|+|E|)$時間で実行できるため,Smith-Waterman法によって被約費用を最大とするアイテムを効率的に選択できる.\begin{figure}[b]\vspace{-0.5\Cvs}\begin{center}\includegraphics{23-2ia1f4.eps}\end{center}\caption{列生成法を用いた近似アルゴリズム}\label{fig:colgen}\vspace{-0.5\Cvs}\end{figure}列生成法の手順を図~\ref{fig:colgen}に示す.まずRMPに含まれる変数の集合を$\mathcal{M}^{\prime}=\{x_{1|F|,1|E|}\}$として初期化する(line1).$x_{1|F|,1|E|}$はすべての文からなる文のまとまりであり,実行可能解であることから,以降のRMPは必ず実行可能解をもつことが保証される.以降,RMPの求解\footnote{RMPは線形計画問題であるため効率的に解ける.また,各繰り返しにおいて前回RMPを解いたときの解を初期解とすることで高速に解を求めることができることが知られている.}(line3)とSmith-Waterman法による列生成部分問題の求解(line4)とを繰り返す.もしすべての変数で被約費用が負となったら(line5),その時点でMPの最適解が得られていることになるので,最後に現在のRMPに整数制約を追加したうえで整数線形計画問題を解いて得られた解を出力する(line8).ここで,RMPに整数制約を追加して得られた解が必ずしも元のMPに整数制約を追加して得られた解と一致するわけではないことに注意する必要がある.すなわち,提案法はヒューリスティクスであり,必ずしも厳密な最適解を得られるわけではない.そこで検証によって厳密解との差を評価する. \section{検証} \subsection{検証設定}提案手法の有効性を検証する.非単調な系列アラインメントはいくつかの研究で検証されているが,正解の対応付けが公開されていないことから,今回は検証のためのデータとして文対応が既知である日本語と英語の対訳文書から生成した人工データを用いた.対訳文書はそれぞれ約25,000文からなる.この文書から取り出した2,500文から文の長さが一定以上に長いものと短いものとを除いたものをテストデータを生成する元データ,残りを翻訳確率等を推定するための訓練データとして用いた.テストデータの生成手順は以下のとおりとする.まず,元データのそれぞれの文書集合から,$K$個の対応関係にある連続する文のまとまりをランダムに取り出す.なお,対応関係にある文のまとまりには,対訳関係になっていない文も含まれる.その後,取り出した文のまとまりをランダムに並べなおしたのちに,各まとまりに含まれる文を順に並べることで文のまとまり単位での移動があるデータセットを作成した.テストデータの文の数は日本語,英語ともに60文とし,まとまりの数は$K=1,3,6,12,20$とした.このデータセットを以下では対称データセットとよぶ.$K=1$のときは単調な対訳文アラインメントを求める問題となっている.次に,日本語と英語の文の数が異なるデータセットも同様に作成した.こちらでは日本語の文数を60文,英語の文数を40文とし,日本語の20文は対応する文が存在しないようにした.日本語のまとまりの数は$K=3,6,12$とし,英語のまとまりの数は日本語のまとまりの数の$2/3$とした.このデータセットを以下では非対称データセットとよぶ.最後に,日本語と英語からそれぞれ60文選ぶが,そのうち対応関係にあるのは40文であり,残りの日本語・英語の20文は対応する文が存在しないようなデータも作成した.以下では対応なしデータセットとよぶ.文のまとまりの数は$K=3,6,12$とし,そのうち$1/3$については対応する文が存在しないものとした.比較対象として,Mooreらによる系列マッチングに基づく手法(Moore)と,二部グラフの重み最大マッチングとして解いた方法(BM)とを用いた.なお,重み最大マッチングにおける対応付けの重みは式(\ref{eq:moore})を用いた.評価はMoore\cite{moore02:_fast}にならって,文の対応付けの再現率(recall),適合率(precision),F値(F-measure)を算出した.対称,非対称の各データセットについて,異なる$K$ごとに5つのデータセットを生成し,その平均値を最終的な評価値とした.翻訳確率の算出にはGIZA++\cite{och03}を用いた.整数線形計画問題のソルバとしてILOGCPLEXを用いた.文のまとまりの個数に対するペナルティ$\lambda$は,$\lambda=0.1$と$\lambda=0.01$の2種類を試した.\subsection{結果}\begin{table}[b]\caption{再現率,適合率,F値の比較(対称データ)}\label{tab:result1}\input{01table01.txt}\end{table}\begin{table}[b]\caption{再現率,適合率,F値の比較(非対称データ)}\label{tab:result2}\input{01table02.txt}\end{table}実験結果を表\ref{tab:result1},\ref{tab:result2},\ref{tab:result3}に示す.表中のSP+ILPは集合分割問題を整数線形計画問題ソルバで解いた結果,SP+CGは集合分割問題を列生成法で解いた結果を表す.また,BMは二部グラフマッチングによって対訳文アラインメントを行った結果,MooreはMooreらの手法~\cite{moore02:_fast}を適用した結果をそれぞれ表す.表より,対称データセットで$K=1$の場合を除く,いずれのデータセット,および$K$の値においても,$\lambda=0.1$としたときの提案手法(厳密解)が2種類のベースラインよりも高いF値を示していることが分かる.対称データセットで$K=1$の場合は単調な対訳文アラインメントとなることから,単調性を仮定するMooreの手法の方がやや高いF値を示している.しかし,提案法との差分は0.003ポイントと小さい.次に$\lambda$の値の違いによる影響を厳密解同士で比較すると,いずれのデータセットにおいても$K=1,3$のときは$\lambda=0.01$の方が$\lambda=0.1$のときよりもやや高いF値を示し,一方で$K=6,12,20$のときには$\lambda=0.1$の方が高い値を示していることが分かる.これは,$\lambda$が文のまとまりの個数に対するペナルティであり,$\lambda$が小さいほど大きなペナルティを与えていることによって説明できる.つまり,$K$が小さいときは文のまとまりの個数が小さくなりがちな$\lambda=0.01$の方がよい結果を出力し,$K$が大きいときはより多くのまとまりが出現することを許容する$\lambda=0.1$の方がよい結果を出力していると考えられる.Mooreによる対応付け手法は単調性を仮定した手法であるため,他の方法と比べると極端にF値が悪くなっているのが確認できる.\begin{table}[t]\caption{再現率,適合率,F値の比較(対応なしデータ)}\label{tab:result3}\input{01table03.txt}\end{table}次に提案手法で厳密解を求めたときと,列生成法による近似解を求めたときとの結果を比較する.再現率,適合率,F値の低下度合いは,今回の検証では最大で$0.08$ポイント程度の低下におさまっていることが確認できた.特に$\lambda=0.1$のときはいずれのデータに対しても$0.03$ポイント程度の低下におさまっている.なお,表\ref{tab:result1}では列生成法のほうが厳密解法よりも再現率,適合率,F値が大きくなる結果が得られているが,これは目的関数と評価指標とが必ずしも一致するわけではないことに起因すると考えられる.厳密解法と列生成法との平均計算時間の比較を表~\ref{tab:time}に示す.表より,CPLEXで数十秒から数百秒かかっていた問題が列生成法によって数秒で解けていることが確認できる.すべてのデータで30倍から400倍程度の高速化が達成できたが,特に変数の総数が多い対称データ,対応なしデータではほぼすべての設定で100倍以上の高速化が確認できた.表~\ref{tab:numval}に利用された変数の数を示す.集合分割問題をそのまま整数線形計画問題ソルバによって解くと,今回扱ったような数十文程度の対応付けであっても$10^{6}$個程度の変数を明示的に扱う必要がある.扱う変数の個数が多いほどソルバによる求解には時間がかかるため,文の数が増加するとさらに求解に時間がかかる可能性が高い.一方で列生成法を用いた場合は,最適解において非零になる可能性がある変数しか扱わないため,最終的に利用された変数は$10^{3}$個程度となり,問題をソルバで素朴に解いた場合と比較して利用される変数の数が大幅に少ないことが分かる.問題中に出現する変数の個数が少ないとソルバによって高速に解を求めることが可能であるため,列生成法は高速に動作したと考えられる.\begin{table}[t]\caption{実行時間の比較}\label{tab:time}\input{01table04.txt}\end{table}提案法はNP困難問題である集合分割問題を解いているため,厳密解法の実行時間は問題サイズに対して指数的に増加する.一方で,既存の単調性を仮定した動的計画法に基づく対訳文アラインメント法は,問題サイズに対して多項式時間で動作する.そのため,提案法は列生成法による近似解法を用いたとしても実行時間的には既存手法に対する優位性はない.一方で,対訳文アラインメントはおもに対訳文コーパスを作成するために用いられる技術であり,コーパス生成に用いるために問題とならない速度で動作することが重要である.実験結果が示すように,列生成法による対訳文アラインメント法は数十文からなる対訳文書の文アラインメントを数秒で行うことができるため,提案法は十分に実用に足る技術であるといえる.\begin{table}[p]\caption{出現した変数の数の比較}\label{tab:numval}\input{01table05.txt}\end{table}\begin{figure}[p]\vspace{1\Cvs}\begin{center}\includegraphics{23-2ia1f5.eps}\end{center}\caption{入力サイズを変化させたときの実行時間の変化}\label{fig:runtime}\end{figure}最後に,対称データにおいて入力文のサイズを変化させたときの,厳密解法と列生成法の実行時間の変化を図~\ref{fig:runtime}に示す.図の横軸が入力のサイズであり,縦軸が実行時間を表す.なお,実行時間が3,600秒を超えたら実験を打ち切りとしている.入力サイズが大きくなるほど,列生成法と厳密解法の差が広がる傾向があることが分かる. \section{おわりに} 本論文では,対応付けの連続性を考慮しつつ非単調な系列アラインメントを求めるための方法を提案した.集合分割問題として定式化し,整数線形計画法を用いて解くことによって,既存手法では対応付けをとるのが難しい状況でも対応付けができることを示した.このような方法は,特に単調性を仮定できないような文書対に対する対訳文アラインメントにおいて効果的である.さらに,数理計画法の分野で大規模な問題を解く際に利用される技法である列生成法を適用することによって,最適化問題を解くときに扱わなければならない変数の数および各変数のスコアの計算に必要となる動的計画法の実行回数を劇的に減らすことができ,結果として高速な求解を可能とした.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Braune\BBA\Fraser}{Braune\BBA\Fraser}{2010}]{braune10:_improv}Braune,F.\BBACOMMA\\BBA\Fraser,A.\BBOP2010\BBCP.\newblock\BBOQImprovedUnsupervisedSentenceAlignmentforSymmetricalandAsymmetricalParallelCorpora.\BBCQ\\newblockIn{\BemProceedingsofCOLING2010},\mbox{\BPGS\81--89}.\bibitem[\protect\BCAY{Brown,Petra,Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{brown93}Brown,P.~F.,Petra,S.A.~D.,Pietra,V.J.~D.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofStatisticalMachineTranslation:ParameterEstimation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\263--311}.\bibitem[\protect\BCAY{Deng,Kumar,\BBA\Byrne}{Denget~al.}{2007}]{deng07:_segmen}Deng,Y.,Kumar,S.,\BBA\Byrne,W.\BBOP2007\BBCP.\newblock\BBOQSegmentationandAlignmentofParallelTextforStatisticalMachineTranslation.\BBCQ\\newblock{\BemNaturalLanguageEngineering},{\Bbf13}(3),\mbox{\BPGS\235--260}.\bibitem[\protect\BCAY{Gale\BBA\Church}{Gale\BBA\Church}{1993}]{gale93:_progr_align_senten_bilin_corpor}Gale,W.~A.\BBACOMMA\\BBA\Church,K.~W.\BBOP1993\BBCP.\newblock\BBOQAProgramforAligningSentencesinBilingualCorpora.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(1),\mbox{\BPGS\75--102}.\bibitem[\protect\BCAY{Korte\BBA\Vygen}{Korte\BBA\Vygen}{2008}]{korte08:_combin_optim}Korte,B.~H.\BBACOMMA\\BBA\Vygen,J.\BBOP2008\BBCP.\newblock{\BemCombinatorialOptimization:TheoryandAlgorithms}.\newblockSpringerVerlag.\bibitem[\protect\BCAY{L{\"{u}}bbecke\BBA\Desrosiers}{L{\"{u}}bbecke\BBA\Desrosiers}{2005}]{lubbecke05:_selec_topic_colum_gener}L{\"{u}}bbecke,M.~E.\BBACOMMA\\BBA\Desrosiers,J.\BBOP2005\BBCP.\newblock\BBOQSelectedTopicsinColumnGeneration.\BBCQ\\newblock{\BemOperationsResearch},{\Bbf53}(6),\mbox{\BPGS\1007--1023}.\bibitem[\protect\BCAY{Moore}{Moore}{2002}]{moore02:_fast}Moore,R.~C.\BBOP2002\BBCP.\newblock\BBOQFastandAccurateSentenceAlignmentofBilingualCorpora.\BBCQ\\newblockIn{\BemProceedingsofAMTA'02},\mbox{\BPGS\135--144}.\bibitem[\protect\BCAY{Nie,Simard,Isabelle,\BBA\Durand}{Nieet~al.}{1999}]{nie1999cross}Nie,J.-Y.,Simard,M.,Isabelle,P.,\BBA\Durand,R.\BBOP1999\BBCP.\newblock\BBOQCross-languageInformationRetrievalBasedonParallelTextsandAutomaticMiningofParallelTextsfromtheWeb.\BBCQ\\newblockIn{\BemProceedingsofthe22ndAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval},\mbox{\BPGS\74--81}.ACM.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2003}]{och03}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQASystematicComparisonofVariousStatisticalAlignmentModels.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf29}(1),\mbox{\BPGS\19--51}.\bibitem[\protect\BCAY{Qu\BBA\Liu}{Qu\BBA\Liu}{2012}]{qu-liu:2012:ACL2012}Qu,Z.\BBACOMMA\\BBA\Liu,Y.\BBOP2012\BBCP.\newblock\BBOQSentenceDependencyTagginginOnlineQuestionAnsweringForums.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\554--562},JejuIsland,Korea.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Quan,Kit,\BBA\Song}{Quanet~al.}{2013}]{quan-kit-song:2013:ACL2013}Quan,X.,Kit,C.,\BBA\Song,Y.\BBOP2013\BBCP.\newblock\BBOQNon-MonotonicSentenceAlignmentviaSemisupervisedLearning.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\622--630},Sofia,Bulgaria.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Smith\BBA\Waterman}{Smith\BBA\Waterman}{1981}]{smith81:_ident_common_molec_subseq}Smith,T.~F.\BBACOMMA\\BBA\Waterman,M.~S.\BBOP1981\BBCP.\newblock\BBOQIdentificationofCommonMolecularSubsequences.\BBCQ\\newblock{\BemJournalofMolecularBiology},{\Bbf147},\mbox{\BPGS\195--197}.\bibitem[\protect\BCAY{竹中\JBA若尾}{竹中\JBA若尾}{2012}]{要一12}竹中要一\JBA若尾岳志\BBOP2012\BBCP.\newblock地方自治体の例規比較に用いる条文対応表の作成支援.\\newblock\Jem{自然言語処理},{\Bbf19}(3),\mbox{\BPGS\193--212}.\bibitem[\protect\BCAY{角田\JBA乾\JBA山本}{角田\Jetal}{2015}]{孝昭15}角田孝昭\JBA乾孝司\JBA山本幹雄\BBOP2015\BBCP.\newblock対をなす二文書間における文対応関係の推定.\\newblock\Jem{自然言語処理},{\Bbf22}(1),\mbox{\BPGS\27--58}.\bibitem[\protect\BCAY{Wu}{Wu}{1997}]{Wu:1997:SIT:972705.972707}Wu,D.\BBOP1997\BBCP.\newblock\BBOQStochasticInversionTransductionGrammarsandBilingualParsingofParallelCorpora.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf23}(3),\mbox{\BPGS\377--403}.\end{thebibliography}\begin{biography}\bioauthor{西野正彬}{2008年京都大学大学院情報学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,コミュニケーション科学基礎研究所研究員.自然言語処理,アルゴリズムの研究に従事.博士(情報学).情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{鈴木潤}{1999年慶應義塾大学理工学部数理科学科卒業.2001年同大学院理工学研究科計算機科学専攻修士課程修了.同年,日本電信電話株式会社入社.2005年奈良先端大学院大学博士後期課程修了.2008--2009年MITCSAIL客員研究員.現在,NTTコミュニケーション科学基礎研究所に所属.博士(工学).主として自然言語処理,機械学習に関する研究に従事.ACL,情報処理学会,言語処理学会各会員.}\bioauthor{梅谷俊治}{1998年大阪大学大学院基礎工学研究科博士前期課程修了.2002年京都大学大学院情報学研究科博士後期課程指導認定退学.博士(情報学).豊田工業大学助手,電気通信大学助教を経て,現在,大阪大学大学院情報科学研究科准教授.組合せ最適化の研究に従事.日本オペレーションズ・リサーチ学会,情報処理学会,人工知能学会,INFORMS,MOS,AAAI各会員.}\bioauthor{平尾努}{1995年関西大学工学部電気工学科卒業.1997年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年株式会社NTTデータ入社.2000年よりNTTコミュニケーション科学基礎研究所に所属.博士(工学).自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL各会員.}\bioauthor{永田昌明}{1987年京都大学大学院工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,コミュニケーション科学研究所主幹研究員(上席特別研究員).工学博士.統計的自然言語処理の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
V07N02-03
\section{はじめに} 語彙とは“ある言語に関し(その一定範囲の)あらゆる語を一まとめにして考えた総体”(水谷,1983,p.1)のことである.したがって,日本語なら日本語という特定の1言語に限っても,その内容は一まとめにくくる際の観点をどのように設定するかによって変化しうる.大きく見れば,語彙は時代の進行にそって変化するし,同時代の語彙にも地域,職業,社会階層などによって集団としての差異が存在する.細かく見てゆくならば,個人によっても語彙は違うであろうし,特定の書籍,新聞,雑誌等,言語テキストそれぞれに独自の語彙が存在すると言ってよい.さらに,個人で見ても,その語彙のシステム(心内語彙=mentallexicon)は,発達・学習によって大きく変化し,さらに特定の時点における特定の状況に対応した微妙な調整によって,常に変化しつづけていると考えることができる.こうした語彙の多様性は,ごく簡単に整理すれば,経時的な変動と,それと連動しつつ,表現の主体,内容,形式のバラエティに主に関わる共時的な変動という,縦横の軸からとらえることができる.本研究では,新聞という一般的な言語テキストを対象に,経時的,共時的の両面に関して語彙の系統的な変動を抽出することを試みる.具体的には1991年から1997年までの毎日新聞7年分の電子化テキストを用いて,そこで使われている全文字種の使用状況の変動について,面種と時系列の2つの面から調べる.毎日新聞を対象にしたのは,紙面に含まれる記事の内容が広く,難度も標準的であり,現代日本の一般的な言語表現を観察するのに適していると考えられること,面種等のタグ付けが施されたテキストファイルが利用できること,研究利用条件が整っていて,実際に多くの自然言語処理研究で利用されているため,知見の蓄積があることなどによる.語彙について調べることを目標に掲げる研究で,文字を分析単位としている理由は,日本語の場合,文字が意味情報を多く含んでいて単語レベルに近いこと(特に漢字の場合),単語と違って単位が明確なために処理が容易であること,異なり数(タイプ)が多すぎないので悉皆的な調査も可能であることである.目標と方法の折り合うところとして,文字という単位にまず焦点を当てたのである(電子テキストを用いて,日本語の文字頻度の本格的な計量を行った例としては,横山,笹原,野崎,ロング,1998がある).面種による変動を調べるのは,1種類の新聞の紙面で,どの程度,語彙(本研究では実際には文字)の内容に揺れ(変位)があるかを吟味することをねらいとする.全体で一まとめにして“毎日新聞の語彙”とくくれる語彙の集合を紙面の種類によって下位カテゴリに分割しようとする試みであるとも言える.経済面とスポーツ面とで,使われている語彙に差異があるだろうということ自体は,容易に想像がつくが,本研究では,こうした差異がどの程度まで広範に確認されるかを検討する.テキストのジャンルによる使用語彙の差を分析したものとして,国立国語研究所(1962),Ku\v{c}era\&Francis(1967)を挙げることができる.前者は,1956年に刊行された90の雑誌から抽出した50万語の標本に対して評論・芸文,庶民,実用・通俗科学,生活・婦人,娯楽・趣味の5カテゴリを設定し,後者は1961年にアメリカ合衆国で出版された本,新聞,雑誌等から抽出した100万語のコーパスに報道記事,宗教,恋愛小説等の15カテゴリを設定している.ただし,いずれも対象としているテキストの種類が多岐にわたるだけに語彙の差が検出しやすい条件にあると見ることができるが,カテゴリ間に見られる差についての検討は十分なものではない.本研究の場合,新聞1紙の中でどの程度の内容差を検出できるかを,文字という単位で悉皆的に分析するところに特色がある.語彙の時系列的な変動に関しては,世代,時代といった長い時間幅であれば,様々に研究されているが,7年間という,この種の分析としては短い時間幅で,どのような変動が観察されるかを詳細に分析するところに本研究の独自性がある.本研究では,7年全体での変動としてのトレンドに加えて,循環性のある変動として月次変動(季節変動)も調べる.時系列的な微細な分析は,経済,自然の分野では多くの実例があるものの,言語現象への適用は未開拓である.実際,言語テキストの月単位,年単位でのミクロな分析は,近年の大規模電子コーパスの整備によってようやく現実的なものとなったという段階にあるにすぎない.新聞での用字パタンに時系列な変動が存在すること自体は予想できる.たとえば,“春”という文字は春に,“夏”という文字は夏に多用されそうである.しかし,そもそも,“春”なら“春”の字がある時期に多用されるといっても,実際のパタンがどうであるのか,また,こうした季節変動が他の文字種を含めてどの程度一般的な現象であるのかというのは調べてみなければわからない.時系列変動の中でも,月次変動に関しては,筆者らは既に新聞のカタカナ綴りを対象とした分析(久野,野崎,横山,1998;野崎,久野,横山,1998),新聞の文字を対象とした分析(久野,横山,野崎,1998)を報告している.そこでは,月ごとの頻度プロフィールの相関をベースに,隣接月次の単語・文字の使用パタンが類似したものとなり,12ヵ月がほぼ四季と対応する形でグルーピングできることを示したが,本報告では,個々の文字をターゲットとして時系列的変動の検出を試みる.この時系列変動の調査は,トレンドに関しては,近年における日本語の変化の大きさについて考えるための基礎資料となるという点からも意味が大きい.また,月次変動,季節変動については,日本の場合,風土的に四季の変化が明確であり,その変化をめでる文化をもち,様々な生活の営みが1年の特定時期と結びついているという点から,分析の観点として有効性が高いことが期待される.以下では,面種変動,時系列変動という順序で,分析結果を報告する.実際の分析は,両方を行き来し,重ね合せながら進めたが,面種変動の方が結果が単純であり,また,時系列変動の分析では面種要因を考慮に入れる操作をしているという事情による. \section{研究1:面種変動の分析} \subsection{方法}分析用のコーパスとして,毎日新聞7年分(1991〜1997)のテキストを収録したCD-ROM(毎日新聞社,1996--1998)を用いた.このCD-ROMでは,テキストは,全角文字(S-JISコード)で収録されているが,本研究では,見出しと本文の,空白文字を除く全角文字すべて(5,726字種,のべで約3億4千万文字)を分析の対象とした.5,726文字種の文字カテゴリ(e.g.,ひらがな,JIS漢字第1水準)の内訳を7年間全体での出現率(‰)のレベルと連関させて表1に示した.7年間での出現率は,年次ごとに集計した出現率の平均である.単純に7年分の合計文字数に対する出現率を求めてもほとんど変わらないが,表2に示したように年次が下るにつれてテキストの規模が大きくなるので,それを調整したものである.単語,文字の頻度分布で一般に観察されるように,高出現率のものの異なり数は少なく,低出現率のもののそれは多い.文字カテゴリごとに見ると,ひらがな,カタカナ,アラビア数字の出現率は高い.アルファベット,漢字第1水準がそれに次ぎ,漢字第2水準では大半が0.001‰以下である.その他の記号等は,高出現率のものと低出現率のものに分かれている.なお,実質的な文字ではなく,独特の使われ方(段落冒頭の字下げ,見出しの区切り,表で桁を揃える等)をする空白文字は出現率算出時の分母からも除外している(分析からの空白文字の除外は,以下のすべての集計で同様).\input{tab1}\input{tab2}集計区分とした面種は,毎日新聞社によって7年すべてに共通して設定されている16カテゴリ(1面,2面,3面,解説,社説,国際,経済,特集,総合,家庭,文化,読書,科学,芸能,スポーツ,社会)である.面種による文字の延べ数は表2を参照.社会面,総合面のように規模が大きい面種もあれば,科学,読書,文化のように規模の小さい面種もある.文字種ごとに各年次の面種別出現頻度を求め,テキストの規模の異なる面種間で比較可能なように,集計単位ごとに出現率(‰)を算出した.そして,文字種ごとに,面種別年次出現率に対して,面種を要因として1元配置分散分析を行った.これは,7つの年次で出現率が他の面に比べて安定して低い面や高い面種が(1以上)ある場合,それを面種変動として検出しようというものである.こうして,面種が16水準で各水準の繰り返し数は7という単純なモデルで,文字種と同数の5,726回の分散分析を実行した.なお,単語の出現頻度(出現率)のデータを用いて,分散分析,相関分析ほかのパラメトリックな分析をする際には,しばしば事前処理として対数変換を施すが,本研究では,もとの出現率に基づく分析結果を一貫して報告する.実際の分析は,対数変換を施した場合についても行っているが,変換をしてもしなくても,結果に違いがあまり認められないことが確認されているので(分散分析で要因の効果が有意となる文字種の割合は,百分率で数ポイント程度変わるに過ぎない),表示しやすく理解しやすい,もとの出現率に基づいた結果を示すこととした.\subsection{結果と考察}分散分析の結果を表3に示した.$F$値の自由度は$(15,96)$である.低出現率の文字種を除く大多数の文字種で,面種による出現率の変動が認められた.1.000‰以上の高出現率の文字種では,すべて0.1\%水準で有意である.出現率でほぼ上位半分に相当する0.001‰以上の文字種(2,732種)で見ても,実に95.5\%が0.1\%水準で有意,97.2\%が1\%水準までで有意,98.4\%が5\%水準までで有意となっている.さらに全5,726文字種で見ても,58.2\%が0.1\%水準で有意となり,1\%水準までで63.4\%,5\%水準まででは69.2\%が有意となる.低出現率の文字種で面種による比率の差が有意水準に達しない文字種には,出現総数が少なすぎるので,統計的検定の対象とするのが適当でない場合が多いと考えられる.したがって,実質的には,ほとんどの文字種で面種変動が見られるとしてよいと推測される.面種変動は,ひらがな,カタカナ,記号類等の漢字以外の文字種にも広く見られるが,これらの場合も,単語との直接的な対応は漢字の場合より弱いものの,やはり使用されている語彙の系統的な変動を相当に反映していると考えられる.たとえば,ある面種ではカタカナで表記される単語が多用されているといった現象を反映するようなケースである.\input{tab3}面種差の詳細に関しては,個々の文字種ごとの吟味に加えて,面による比率の高低による文字種のクラスタリングや,出現比率プロフィールの面種間類似性の分析等を通して,理解を深めてゆくことができるが,本研究では,面種差の例を示すとともに,面種差をもたらしている独自な面種に関する予備的調査の結果を示すにとどめる.\begin{figure}[htb]\begin{center}\epsfile{file=clip000.eps,scale=0.55}\end{center}\caption{面種により文字出現率が異なる例:“学”\\出現率は7年分の年次出現率の平均でエラーバーは標準偏差}\label{図1}\end{figure}面種差の具体例としては,“学”のケースを示す.面種別年次出現率を分散分析すると,$F(15,96)=42.03$($p<.0001$)となる.実際の面種別の平均出現率は図1の通りで,見て分かるように,科学面での出現率が他を大きく引き離している(Tukeyの方法により多重比較を行うと,他の15面種全てと5\%水準で差があることが確認できる).以下,読書面,文化面で出現率が高く,経済面,2面,国際面,芸能面,1面では低い.科学面,読書面,文化面といった教養的な内容の面で多く出現するのは了解しやすく,経済面,国際面,芸能面といった,内容が独自で学問の関与が薄そうな面で出現率が低いのも理解しやすい.一般的な内容の面が,その中間にくるようだが,それらの面の間にも差が認められるところが興味深い.追加分析として,各面種の独自性の程度について調べるために,上記の分散分析で$p$値が5\%未満の3,960文字種を対象として,面種ごとに出現率の順位(1〜16)の標準偏差を求めた.この値が大きい場合,平均的なレベルからずれる文字種が多いことになり,面種変動の原因となったケースが多いものと推測できる.標準偏差が大きい面種を挙げると,スポーツ面(5.12),芸能面(5.01),科学面(4.87),読書面(4.82),国際面(4.73)が上位5つとなる.これらは掲載する内容の特定性が高い面であり,他の面に比して出現率の高い文字種,低い文字種が多く存在することで,文字使用パタンの面種差の大きな原因となっていると考えられる.一方,標準偏差が小さい方を見ると,総合面(2.65),3面(3.52),解説面(3.55),社会面(3.64),1面(3.70)の順となる.内容が一般的な面種では,全体的に平均的なレベルで文字種が出現する傾向にあると言える.以上のように研究1では,文字の使用状況という観点から,毎日新聞紙面の言語表現の多様性の中に面種に関連して系統的な成分が広範に含まれていることが確認された.なお,分散分析によって面種変動を調べる場合,上述のような単純な一元配置のデザインの他に,年次や月次の要因を含めることによって分析の精度を高めることができるが,上記の分析で,面種変動が遍在するということは既に十分に示されたので,本稿ではこれ以上の分析報告は行わない. \section{研究2:時系列変動の分析} \subsection{方法}時系列分析では,一般に時系列データを,トレンド,循環変動,季節変動,不規則変動などに分解することを通して,データの性質を記述したり,将来の予測を行ったりする.目的に応じて多様な時系列分析の技法が開発されているが,本研究では,5,726系列という大量の時系列データに対して実行する初歩的な分析として,月次変動と年次変動の有無と程度を分散分析と相関係数を通して検討した.まず,7年分の電子テキストで,5,726の文字種それぞれに対して,月を集計単位として,出現率(‰)を求めた(84ヵ月分).この時系列上の84の出現率に対して,月次(12水準),年次(7水準)の2要因の主効果を調べる分散分析を実行した.これは,月次,年次に関して,相互に他方をブロック要因として,乱塊法モデルによって分散分析を行ったものと言うことができる.分析デザインとしては,面種の要因も組み込んだり,月次・年次を別個に分析したりすることで,他にも様々な選択がありうるが,時系列の2要因を同時に扱う最も単純なモデルを採用した.2つの要因はカテゴリ変数により構成される独立した要因として扱っていることになる.月次の主効果は広義の季節変動を反映するもので,日常概念としての季節(いわゆる四季といったもの)から外れるものも含めて12ヵ月以下の周期のサイクル現象を反映する.年次の主効果が有意になった場合,トレンド,それも期間が短いので1次のトレンドを主に反映すると考えられるが,偶発的な変動を反映して有意となることもありうる(偶発的な変動によって,本来存在するはずのトレンドが検出できずに,非有意となることももちろんありうる).分散分析に続いて,84の出現率の系列位置を連続的変数として扱い,相関係数を用いてトレンドの分析を行った.これは,先の分散分析で示された年次変動に関して,その程度を評価するための材料を提供するとともに,分散分析では年次をカテゴリ変数としたために,時系列の連続性の情報を用いていないという点を補うものである.具体的には,1991年1月を1,1991年2月を2として,以下,1997年12月の84まで,7年間の84ヵ月に順次,自然数を与え,それと月次出現率の相関係数(ピアソンの積率相関係数)を算出した.トレンドの分析としては,2次以上の項も考慮して回帰分析を行うことを検討したが,言語の長期変動を見るには7年間という期間は短く,高次の成分を抽出することの意味は小さいと考えられるので,1次の直線的な変動傾向のみを分析,考察の対象とすることにした.さらに,研究1の結果から,面種によって使用文字に変動があることが広範に認められているので,面種別に,年次・月次の2要因の分散分析を実行した.これは,面種によって時系列変動の様相が違うかどうかを調べようとするものである.この目的を実現するためには,面種も分散分析のモデルに要因として組み込んでしまう方法をとることもでき,その場合,面種と時系列要因の交互作用の分析が中心となるが,5,726セットを対象とするには,手続きも結果の表示も複雑である.そこで,本研究では,それぞれの面種でどの程度,時系列変動が見られるかを明らかにするために,はじめから面種を区別した上で,2要因の分散分析を行うこととした.\subsection{月次変動}まず,分散分析の結果に基づいて,月次変動について述べる.分散分析での月次の主効果を表4に示した.$F$値の自由度は$(11,66)$である.\input{tab4}面種変動ほど顕著ではないものの,かなり広範に系統的な変動の存在を確認することができる.出現率0.100‰以上の高出現率文字種では,5\%水準までで有意になるものが41.6\%で,10\%水準の有意傾向まで含めれば51.0\%と過半数の文字種に月次要因の効果が認められる.低出現率の文字種では月次要因の効果の認められるものが減少する.これは,面種変動のところでも述べたように,分散分析の適用が有効であるほどの出現数がないことに主によると考えられる.出現率0.001‰以上までとすると,5\%水準で有意が33.5\%,10\%水準までで41.8\%となる.全文字種では,5\%水準までで有意になるのは20.3\%,10\%水準まででは26.6\%となる.月次変動のパタンを個々の文字種について見ると,いわゆる季節との対応が想定できる変動も多く観察されるが,その対応にはゆるやかに複数の月にまたがって峰ができるものもあれば,特定の1つの月だけにピークがくるものもある.また,多峰性のものも少なくない.以下に,月次変動の具体的なパタンをいくつか例示する.季節性の変動の典型として,予想が確認されたという意味で“春”“夏”“秋”“冬”の場合を図2に示した(4文字種の月次要因の$F$値はそれぞれ,$F(11,66)=33.70$,$65.23$,$23.06$,$36.24$;いずれも$p<.0001$).ただこうした典型的なケースでも,パタンを微細に観察すると,いくつかの特徴を指摘することができる.たとえば,この4文字種は,四季それぞれを直接に示す文字種であり,季節とほぼ対応しているものの,そのピークの間隔は3ヵ月ではない.また,ピークのとがりも文字種によってかなり異なっている.\begin{figure}[bt]\begin{center}\epsfile{file=clip001.eps,scale=0.55}\end{center}\caption{文字出現率が季節に対応する月次変動を示す例}\label{図2}\end{figure}\begin{figure}[bt]\begin{center}\epsfile{file=clip002.eps,scale=0.55}\end{center}\caption{文字出現率が単峰性でない月次変動を示す例}\label{図3}\end{figure}四季に単純に対応しない月次変動が見られるものとして,図3に単峰性でない月次変動を示す文字種の例を示した.“貴”“撲”(それぞれ$F(11,66)=8.41$,$16.55$;いずれも$p<.0001$)は奇数の月に出現率が高まるのだが,これは大相撲の開催月に関連の記事が出ることによるものである.“甲”($F(11,66)=11.73$,$p<.0001$)は3月と8月に山があり,“誉”($F(11,66)=23.75$,$p<.0001$)は4月と11月に山がある.“甲”のピークは春夏の高校野球甲子園大会に関連した記事によるもので,“誉”のそれは春秋の叙勲褒賞によるものである.以上のように,月次を単位とした分析を通して,文字使用の循環的な変動が,“春”“夏”“秋”“冬”といった,その存在が容易に予測できるものに限らず,かなりの割合の文字種において,多様な変動パタンで存在することが見出された.\subsection{年次変動}続いて,年次変動について,分散分析と相関分析に基づいて検討する.分散分析の結果は,表4を参照.$F$値の自由度は$(6,66)$である.年次要因が有意となった文字種は月次要因が有意になったものよりも多い.1.000‰以上の高出現率の文字種では94.0\%が5\%水準までで年次の効果が有意である.以下,出現率レベルが下がるにつれて,年次の効果が有意でない文字種,有意であってもその水準が低い文字種の割合が高まっている.特に,\hbox{0.001‰}未満の文字種では,85.3\%が5\%水準に達していない(10\%水準にも達しないのが78.9\%).しかし,全文字種でも,5\%水準で43.9\%,10\%水準の有意傾向まで含めれば,ちょうど半分の50.0\%で年次変動が見られたことになる.分散分析で見出された年次変動には,方法のところで述べた通り,多様なパタンが含まれる.その中の単純な上昇傾向,下降傾向を見るために求めた,84の月次順序と出現率の相関係数は,表5を参照.表は相関係数の値で区分してまとめてあるが,相関係数の有意水準と対応させると,相関係数の絶対値が.35で0.1\%水準の有意となる.以下,.28で1\%水準の有意,.21で5\%水準の有意,.18で10\%水準の有意傾向となる.5,726文字種全体での結果を記すと,0.1\%水準で有意な相関が見られる文字種が997(17.4\%),1\%水準で有意な文字種が483(8.4\%),5\%水準で有意な文字種が552(9.6\%),10\%水準で有意な傾向が認められる文字種が408(7.1\%),10\%水準に至らず非有意な文字種が3,286(57.4\%)となる.分散分析の結果と比較して,有意となってもその水準が低くなっている文字種が多く,非有意な文字種も多くなっているのは,想定通り,変動の中でも1次のトレンドのみにしぼって見ていることに主によっていると考えられる.これは見方を変えれば,単調増加,単調減少以外の変動パタンが7年間のうちでかなりの程度観察されるということでもある.このような現象は,大きな事件や連載企画などによって生じうることである.\input{tab5}個々に見ると,正の相関係数で上位は,アラビア数字と一部の記号類(e.g.,“【”“】”“!”)が占めている.一方,負の相関係数では,絶対値の大きさで漢数字が上位に並ぶ.図4に例として“1”と“一”の出現率の変化を示した.相関係数は,“1”の場合,$r=.91$,“一”の場合,$r=-.83$である.図から明らかなように,1996年の4月に“一”の出現率が大きく低下し,同じ時点で“1”は上昇している.これは,この時期,数字表記の原則に方針変換があったことに対応していて,1996年の4月1日付で1面に掲載された社告に,“数字を読みやすく”と題して,“漢数字が原則だった数字の表記をきょうから洋数字に変えます.”とある.ただし,“1”については,この1996年4月の増加以外でも,全体的な増加傾向が著しく,さらに“1”と“一”を合わせた出現率も増加しているので,漢数字からアラビア数字への切り替え以外にも,紙面変化が生じていることをうかがわせる.\begin{figure}[htb]\begin{center}\epsfile{file=clip003.eps,scale=0.6}\end{center}\caption{文字出現率がトレンドを示す例(数字)}\label{図4}\end{figure}\begin{figure}[htb]\begin{center}\epsfile{file=clip004.eps,scale=0.6}\end{center}\caption{文字出現率がトレンドを示す例(数字以外)}\label{図5}\end{figure}トレンドの別の例として,数字,記号以外で時系列との相関が正負それぞれで最も強かった文字種を図5に示した.“思”は$r=.85$,“午”は$r=-.85$である.なお,この2例の示すトレンドについては現象の記述にとどめ,その解釈は本稿では行わない.一般に,こうしたトレンドが見られる背景としては,記事内容や紙面構成の変化,文体の変化,表現方針の変化等があることが推測されるものの,月次変動に比べて,その意味付けは容易でなく,実際のテキストに即して詳細な吟味が必要である.以上の分析を通して,具体的な内容理解は今後の検討にまつところが多いものの,文字使用の年次変動が多数の文字種において観察された.年次変動は,月次変動よりも多くの文字種で認められているが,これは近年における言語表現の変化の大きさを反映していると考えられる.\subsection{面種別の月次変動と年次変動}面種別に月次,年次を要因とする分散分析を実行した結果は表6を参照.\input{tab6}月次変動の主効果を見ると,有意な文字種が全般に少なくなっている.この結果に関して,面種区分をすることでテキストの規模が小さくなったことが当然影響している.特に,科学面,文化面,読書面といったテキスト規模が他より小さい面種では影響が大きいと推測される.ただし,全面種で集計した場合に認められた月次変動が,特定面種に大きく依存しているために,面種別にしてしまうと,その特定面種のほかでは変動が見られなくなってしまうというケースも多いと考えられる.月次変動が見られる文字種の多さでは,スポーツ面が際立っている.全文字種の34.3\%が5\%水準までで有意である.先に月次変動の例として,相撲関連,野球関連の文字種(“貴”“撲”“甲”)を挙げたが,他にもスポーツ関連で,月次変動を示す文字種が多数あることが分かる.他には,特集面,社会面,経済面で,面種区別をせず全体で分析した場合と同じくらいの割合の文字種に有意な変動が見られる.特集面や社会面ではイベント,行事,生活,気象等に関連した記事を通して,季節の変動が紙面に表れると考えられる.経済面については,経済現象における季節変動の存在は広く知られていることであり,それが紙面にも反映していると見ることができるだろう.一方,科学面,文化面,読書面,解説面等では月次変動が確認された文字種が少ない.これらは,学術的な,あるいはその時々の状況から独立した,普遍性の高い情報を主に掲載する面種とまとめることができよう.年次変動も面種区別をしなかった場合よりも全般に見られる割合が少なくなっているが,社説面,総合面,経済面,2面では,面種区分をしなかった場合と同程度の割合の文字種で有意な変動が見られる.経済面のほかは月次変動の少ない面種であるが,いずれも政治情勢,社会情勢の変化に関連して時事性の高い面であると言えるだろう.この4面種に続いて,家庭面,スポーツ面において変動を示す文字種の割合が高い.ここでも,科学面,読書面,文化面では,有意な変動が観察される文字種が少ない.掲載する情報のカテゴリ,スタイルが安定した面種であると言えそうだ.こうした面種による時系列変動の分析結果を先の面種変動の分析と対応させてみると,他の面種に比した場合の独自性の高低と,面種内での時系列変動の大小の組み合わせで,大きく4タイプに分けることができる.それぞれ面種の例とともに挙げれば,第1に,スポーツ面のように,面種としての独自性が高く,しかも時系列変動も大きい面種がある.第2に,科学面,読書面のように,面種としての独自性は高いが,時系列変動は小さい面種がある.第3に,面種としての独自性は低く一般的な紙面だが,大き目の時系列変動を示す面種に総合面がある.\hbox{第4}に,面種としての独自性も低く,時系列変動も小さい面種として解説面が挙げられる. \section{全体的考察} 以上の分析から,面種,時系列の双方の要因に関して,近年の毎日新聞7年間での文字使用には,系統的な変動が広範に観察されることが確認された.5,726文字種を対象として分散分析を行ったところ,有意水準5\%で,面種(16水準)による出現率の差は69.2\%で,月次(12水準)による差は20.3\%で,年次(7水準)による差は43.9\%で認められた.低出現率の文字種(0.001‰未満)を除いた2,732文字種では,さらに変動は顕著で,面種差は98.4\%で,月次差は33.5\%で,年次差は76.0\%で認められた.重要なのは,これだけの系統的な変動が,文字種という単位で,1種類の新聞の7年という限られた期間のテキストを対象として検出されたということである.別の言い方をすれば,1紙の語彙に限っても,多様な組織的変動を含んだものとして,その語彙の体系を把握することができるということである.この結果は,直接に単語を対象として,毎日新聞以外の新聞,さらには新聞以外の言語テキストをも対象に含めて,より長期にわたって調べた場合,語彙の系統的な変動は,さらに多様に検出できるであろうことを,容易に推測させる.語彙の使用に系統的な変動があること自体は,経験的にも了解されることだが,それを定量的に評価し,非常に広範に存在することを確認した点で,本研究の意味は大きい.本研究で見出された語彙の系統的変動の存在は,語彙調査,特に頻度の集計において,暗黙に想定されがちな,スタティックな語彙観の見直しを促す.調査の時期,対象とするテキストによって,頻度(出現率)にかなりの差を生じうることに注意が必要なのは言うまでもないとして,バランスに配慮した大量のコーパスから単純に平均的な頻度(出現率)を求めるような方法にも改善の余地があると言える.現実の語彙が,多くの系統的な変動を含むのであれば,平均は情報の一面でしかない.変動は,必ずしも排除すべき誤差ではなく,それ自体が重要な情報となりうるのである.今後,単語や文字の頻度に関して,系統的変動を視野に入れて,多面的に計量,分析を進めることが望まれる.系統的変動に注目することが重要であり,有効であるというのは,頻度が関わる言語現象の基礎研究に関してそう言えるにとどまらず,頻度調査の利用という見地からもそのように考えることができる.たとえば,頻度の情報は辞書や学習用の単語リストの編集にしばしば用いられるが,その際にも頻度を多面的に見ることは有効だろう.平均的な頻度集計では上位にならないけれども重要性の高い単語があり,逆に頻度は高いけれども重要性の低い単語もあるというような,経験的に知られている現象も,変動現象という観点からは自然なものと見ることができる.こうしたケースについて,人手による調整はもちろん不可欠だが,集計対象による変動を考慮に入れることで,頻度情報の有用性は改善される可能性がある.頻度調査の応用に関して改善が見込まれる例として,もうひとつ言語素材を用いた心理実験を挙げることができる.文字,単語などを素材とする心理実験では頻度の統制が大きな課題となり,その際,平均的な集計値(e.g.,国立国語研究所,1970;Ku\v{c}era\&Francis,1967)を利用するのが一般的であるが,変動をも考慮に入れた素材の用意や結果の分析も有効であろう.Gernsbacher(1984)は,頻度表では低頻度であるのに,主観的にはそう感じられない単語があることを指摘して,経験的親近性(experientialfamiliarity)を統制する必要があるとしている.しかし,親近性は主観的な評定によるものであり,指標の内容にあいまいな部分がある.親近性の指標としての意味を見直すことと並行して,頻度自体の情報の充実を進めてゆくというのが望ましい方向であると考えられる.一般に心理学の分野では,心内語彙に関する研究は盛んであるが,外的に存在する語彙の性質についての考察が弱い.心理実験で調べる心内語彙と,言語テキストの分析で調べる外的語彙は,本来双方向的であるのだから,双方の対応関係にもっと関心をもつ必要があり,それを実践するために本稿のような分析を応用することができるだろう(多面的に集計した単語出現率と心内辞書のパフォーマンスの関連を見た研究の例として,Hisano,1999がある). \section{おわりに} 今後の課題を2点挙げる.第1に,分析の精緻化,体系化を進めること.分散分析,相関係数における有意水準を手がかりとして検出した面種変動,時系列変動が,実際にどのような変動のパタンを示すかについて,本研究では,代表的なものを例示するにとどまった.個々のケースについては,各種の時系列分析法の適用や,実際のテキストでの用例の吟味によって,分析を洗練,深化してゆくことができる.また,変動のパタンを,語彙全体の構造の中で,より直接的に把握,表現するために,変動パタンの分類,クラスタリングを本格的に行うことが望まれる.第2に,対象の拡張を進めること.本研究は文字を単位とする分析を行ったが,これは語彙変動の抽出を念頭に置いてのものであり,今後,単語レベルでの変動を検討することが重要な課題であるのは言うまでもない.また,コーパスの拡張は,本研究で観察された変動現象の一般性を評価する意味で重要である.まず,今回の分析で扱った期間が短い(特にトレンドを見るには)ことと,電子テキストがまだ整備途上にあることを考えても,毎日新聞を対象に継続的な観測を行うことは重要である.もちろん,毎日新聞以外のコーパス(新聞以外を含む)への拡張も重要であり,その際には,英語をはじめとする他言語での検討も必要であるだろう.\acknowledgment本研究は日本心理学会第63回大会において発表した研究(久野,野崎,横山,1999)に,大幅な拡充を加えたものである.電子化コーパスを用いた日本語語彙の研究を共同で進めている横山詔一(国立国語研究所),野崎浩成(愛知教育大学)の両先生には,本研究においても,多くのご示唆,ご助力をいただきました.記して深い感謝の意を表します.\bibliographystyle{jnlpbbl}\bibliography{v07n2_03}\begin{biography}\biotitle{略歴}\bioauthor{久野雅樹}{1987年東京大学教育学部教育心理学科卒業.1995年同大学院博士課程修了.1996年電気通信大学電気通信学部講師,現在に至る.専門は認知心理学,言語心理学.日本心理学会,日本教育心理学会,日本認知科学会,人工知能学会,言語処理学会,日本行動計量学会,計量国語学会各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V04N01-05
\section{はじめに} \label{sec1}自然言語処理システムにおいては,処理する言語に関する情報をどれほど豊かにそなえているかが,そのシステムの性能に大きな影響を与える.とくに分かち書きをしない日本語では,その形態素解析だけのためにも膨大な量の辞書データをそろえる必要がある.しかし,辞書データの蓄積は,自動的に行うことが困難であり,人手による膨大な時間と労力を必要とする.幸い,最近では公開の辞書データの入手も可能となってきたが,それでもなお,新しい文法体系を試みるような場合には,その辞書を用意するのに手間がかかりすぎて,本題の研究にかかれないことがおきる.本稿では,辞書データがほとんどない状態から始めても,大量の日本語テキストを与えることで,形態素に関する辞書データを自動的に蓄積する方法を与えることを目的とする.具体的には,形態素に関する種々の規則と,統計的知識を利用して,未知の形態素の切出しとその品詞,活用種類,活用形などの推定を行う.推定するたびにその信頼性を評価し,大量のテキストを走査するうちに十分高い信頼性を得るに至ったものを,正しい形態素として辞書に登録する.現在までに,計算機によって自動的に辞書情報を獲得するいくつかの研究が行われてきている\cite{Kokuritu,Suzuki}.また,べた書き日本語文の形態素解析における曖昧さと未知語の問題を統計的手段によって解決しようとする試みもある\cite{Nagata,Simomura}.文献\cite{Nagata}では,品詞のtrigramを用いて言語を統計モデル化し,効率的な2-passN-best探索アルゴリズムを採用している.また,字種のtrigramを利用して未知語処理を行っている.文献\cite{Simomura}では,単語をノードとする木の最小コストパス探索問題として形態素解析をモデル化している.その上で,実際に単語接続確率モデルに基づいてコストを設定し形態素解析を実現している.ここでの研究の目的は,辞書データがほとんどないところから始めても未知語が獲得していける方法を提供することにある.実際に実験システムを構成して,比較的簡易な機構によって目的が達成できることを確認した.本論文の構成は次のようになっている.まず初めに,2章でシステムの概要について述べる.3章,4章では,形態素の連接関係に着目し,形態素と形態素属性を獲得する方法について説明する.5章では,獲得した情報を保管し,十分な信頼性をもつに至ったとき辞書に登録する方式を説明する.最後に,6章で,本手法による実験結果を提示し,まとめを行う. \section{システム概要と統計知識} \subsection{システム概要}\label{system_info}本システムは,日本語の形態素に関する,構成規則,連接規則および連接確率表をもって日本語の入力テキストの解析を行い,形態素とその属性を自動的に抽出する.抽出した情報は,2種類の辞書に分けて管理する.\begin{itemize}\item完全情報辞書:信頼できる情報として確定した形態素を保管する.予め,確定したものとしての形態素が登録してあってもよい.それぞれの形態素とその形態素属性(品詞,活用種類,活用形)の各項目が記録してある.完全情報辞書は,入力テキストの解析においても利用する.\item不完全情報辞書:抽出した形態素の候補を保管する.完全情報辞書と同様の項目に加えて,その信頼性を示す評価値が記録してある.\end{itemize}システムは,大きく辞書情報推定処理と辞書再構成処理とからなり,入力テキストの文ごとに解析を行う.辞書情報推定処理は,組み込みの規則・表と完全情報辞書を用いて文を形態素(候補)に分割した上で,未知(完全情報辞書にない)の形態素候補に対してその形態素属性を推定する.このとき,その推定の信頼性についての評価値も計算する.辞書再構成処理は,得られた未知の形態素についての情報と評価値を不完全情報辞書に付加する.すでに登録されている候補については,登録されている評価値を改訂する.この結果,評価値が基準値以上となった形態素は,不完全情報辞書から完全情報辞書に移動する.図\ref{fig:overview}に処理の概要を示す.\begin{figure*}[tb]\epsfile{file=park1.eps,scale=1.0}\caption{処理の概要}\label{fig:overview}\end{figure*}\subsection{形態素体系}\label{morpheme_taikei}本システムにおいては,形態素に関してつぎの体系を採用した.\begin{itemize}\item字種構成:形態素は,ひらがな,カタカナ,漢字,漢字+ひらがな\footnote{漢字の並びの後ろにひらがなの並びがくるものをいう.},英字,数字,記号のいずれかの字種だけで構成される.\item品詞分類:形態素の品詞は,動詞,形容詞,形容動詞,助動詞(活用する品詞)と,名詞,副詞,連体詞,接続詞,感動詞,助詞,接辞,特殊(活用しない品詞)に分類する.助詞は,さらに格助詞,接続助詞,副助詞,引用助詞,連用助詞,終助詞に分類する.\item活用種類:動詞の活用種類は,五段活用,上一段活用,下一段活用,カ行変格活用,サ行変格活用のいずれかとする.前3者には,活用行の別が伴う.\item活用形:活用形は,未然形,連用形,終止形,連体形,仮定形,命令形(ただし,形容詞と形容動詞は命令形をとらない.)の6種類とする.\end{itemize}この体系で日本語の形態素すべてが扱えるわけではない.たとえば,字種構成の規則からは「は握」などの混ぜ書き語が扱えない.これは,完全情報辞書にごく少数の登録しかない状態から始めて自動的に形態素情報を抽出させるという目的から,体系の完全性を期すよりも,入力テキストの解析が有効に行え,実質的に多くの形態素とその属性が自動抽出できることの方を優先させたことによる.また,形態素について,ここに示した品詞,活用に関する属性以外の属性は考えない.たとえば,名詞を固有名詞,一般名詞などに分類することはしない.同じ形態素が複数の活用形に対応することがある.\{行く\}は、終止形にも連体形にも対応する.さらに同じ形態素が複数の活用種類(活用行)に対応することもある.\{行っ\}は、\{行く\}\hspace{0.3mm}(か\hspace{0.2mm}行\hspace{0.2mm}五\hspace{0.2mm}段)にも\{行う\}(わ\hspace{0.2mm}行\hspace{0.2mm}五\hspace{0.2mm}段)\hspace{0.3mm}にも対応する.そこで,\hspace{0.2mm}本システムでは,\hspace{0.2mm}形\hspace{0.2mm}態\hspace{0.2mm}素の品\hspace{0.2mm}詞が活用するものであるときは,その活用に関する属性を集合として取り扱うことにした.辞書についても,活用に関する属性は一般に集合として登録しておく.\subsection{連接規則と初期辞書設定}\label{init_info}上で述べた形態素の体系は,形態素どうしの連接についての規則も包含する.活用形はその直後に来る形態素の品詞をある程度限定するし,助動詞や助詞はその直前に来る品詞や活用形を限定する.とくに助動詞・助詞による限定は,個々の助動詞・助詞に強く依存する.さらに助動詞の活用形は,個々の助動詞によって異なる.そこで本システムでは,初期の完全情報辞書には少なくともすべての助動詞・助詞を登録しておく\footnote{ここでいう助動詞には,\{ある\},\{なる\}などのいわゆる補助動詞を含める.助動詞・助詞を含め全部で約100語になる.}ことを前提とした.これに加えて,助動詞についてはその活用形と直前に来る品詞や活用形の制限を,助詞についてはその分類ごとに直前に来る活用形の制限を,プログラムに組み込んだ.また,他の活用語についても活用形による直後に来る品詞の部分的な制限をプログラムに組み込んだ.これらの規則の組込みだけでは尽くせない連接がある.たとえば,名詞どうしが連接しうるし,副詞と名詞が連接しうる.本システムでは,形態素レベルでの連接関係だけで辞書情報を得ることを目的とする.そこで,これらの連接関係については,日本語についての統計知識を連接確率表の形で組み込むこととした.\subsection{確率表の組込み}形態素についての統計知識は,字種構成に関するものと,連接関係に関するものを,つぎのような確率表の形にしてシステムに組み込んだ.\begin{itemize}\item形態素の字種カテゴリーからみた品詞の確率表(表\ref{tab:char_type_matrix}),\item後方の助詞からみた前方品詞の連接確率表(表\ref{tab:particle_connect_matrix}),\item後方の品詞からみた前方品詞の連接確率表(表\ref{tab:connect_matrix}),\item前方の品詞からみた後方品詞の連接確率表(表\ref{tab:connect_before_matrix})\end{itemize}前3者は属性の推定に用い,最後のものは推定結果の信頼性評価に用いる.\begin{table}\begin{center}\caption{\bf形態素を構成する字種からみた品詞の分布}\label{tab:char_type_matrix}\tiny\def\arraystretch{}\begin{tabular}{l|r|r|r|r|r|r|r|r|r|r|r|r|r}\hline\hline{構成字種}&\multicolumn{13}{c}{品詞}\\\cline{2-14}{分類}&\multicolumn{1}{c|}{名詞}&\multicolumn{1}{c|}{動詞}&\multicolumn{1}{c|}{形容詞}&\multicolumn{1}{c|}{形容動詞}&\multicolumn{1}{c|}{副詞}&\multicolumn{1}{c|}{連体詞}&\multicolumn{1}{c|}{接続詞}&\multicolumn{1}{c|}{感動詞}&\multicolumn{1}{c|}{助詞}&\multicolumn{1}{c|}{助動詞}&\multicolumn{1}{c|}{接辞}&\multicolumn{1}{c|}{特殊}&\multicolumn{1}{c}{合計2}\\\hlineひらがな&0.101&0.137&0.009&0.002&0.027&0.016&0.007&0&0.552&0.11&0.038&0&0.468\\\hlineカタカナ&1&0&0&0&0&0&0&0&0&0&0&0&0.019\\\hline漢字&0.949&0.002&0.002&0.001&0.006&0.001&0&0&0&0&0.04&0&0.293\\\hline漢字+ひらがな&0.159&0.557&0.129&0.084&0.032&0.009&0&0&0&0&0.03&0&0.083\\\hline英数字&1&0&0&0&0&0&0&0&0&0&0&0&0.017\\\hline記号&0&0&0&0&0&0&0&0&0&0&0&1&0.121\\\hline合計1&0.378&0.111&0.015&0.008&0.017&0.008&0.004&0&0.259&0.052&0.032&0.121&1\\\hline\end{tabular}\end{center}\end{table}\begin{table}\begin{center}\caption{\bf助詞と他品詞間の連接関係(後方の品詞を基準とする)}\label{tab:particle_connect_matrix}\tiny\def\arraystretch{}\begin{tabular}{l|r|r|r|r|r|r|r|r|r|r|r|r}\hline\hline{連接元助詞}&\multicolumn{12}{c}{連接元助詞の前に連接する品詞}\\\cline{2-13}&\multicolumn{1}{c|}{名詞}&\multicolumn{1}{c|}{動詞}&\multicolumn{1}{c|}{形容詞}&\multicolumn{1}{c|}{形容動詞}&\multicolumn{1}{c|}{副詞}&\multicolumn{1}{c|}{連体詞}&\multicolumn{1}{c|}{接続詞}&\multicolumn{1}{c|}{感動詞}&\multicolumn{1}{c|}{助詞}&\multicolumn{1}{c|}{助動詞}&\multicolumn{1}{c|}{接辞}&\multicolumn{1}{c}{特殊}\\\hline格助詞&0.887&0.013&0.001&0&0&0&0&0&0.023&0.005&0.037&0.034\\\hline接続助詞&0.541&0.291&0.007&0.002&0.001&0&0&0&0.061&0.036&0.038&0.023\\\hline副助詞&0.702&0.031&0.004&0.005&0.02&0&0&0&0.159&0.035&0.032&0.013\\\hline引用助詞&0&0.361&0.012&0.007&0&0&0&0&0.005&0.311&0.043&0.261\\\hline連用助詞&0.903&0.016&0&0&0&0&0&0&0.021&0&0.035&0.023\\\hline終助詞&0.35&0.157&0.035&0.01&0&0&0&0&0.031&0.205&0.211&0\\\hline\end{tabular}\end{center}\end{table}\begin{table}\begin{center}\caption{\bf品詞間の連接関係(後方の品詞を基準とする)}\label{tab:connect_matrix}\tiny\def\arraystretch{}\begin{tabular}{l|r|r|r|r|r|r|r|r|r|r|r|r}\hline\hline{連接元品詞}&\multicolumn{12}{c}{連接元品詞の前に連接する品詞}\\\cline{2-13}&\multicolumn{1}{c|}{名詞}&\multicolumn{1}{c|}{動詞}&\multicolumn{1}{c|}{形容詞}&\multicolumn{1}{c|}{形容動詞}&\multicolumn{1}{c|}{副詞}&\multicolumn{1}{c|}{連体詞}&\multicolumn{1}{c|}{接続詞}&\multicolumn{1}{c|}{感動詞}&\multicolumn{1}{c|}{助詞}&\multicolumn{1}{c|}{助動詞}&\multicolumn{1}{c|}{接辞}&\multicolumn{1}{c}{特殊}\\\hline名詞&0.315&0.064&0.018&0.013&0.02&0.022&0.002&0&0.324&0.046&0.03&0.148\\\hline動詞&0.188&0.038&0.016&0.014&0.036&0.002&0.002&0&0.636&0.033&0.011&0.024\\\hline形容詞&0.016&0.049&0.008&0.006&0.078&0.007&0.002&0&0.696&0.029&0.002&0.106\\\hline形容動詞&0.009&0.05&0.005&0.01&0.075&0.009&0.003&0&0.575&0.045&0.012&0.207\\\hline副詞&0.01&0.064&0.004&0.004&0.029&0.009&0&0&0.531&0.048&0.006&0.294\\\hline連体詞&0.002&0.027&0.006&0.003&0.043&0.004&0.004&0&0.479&0.037&0.003&0.391\\\hline接続詞&0&0&0&0&0&0&0&0&0&0&0&1\\\hline感動詞&0&0&0&0&0&0&0&0&0&0&0&1\\\hline助詞&0.748&0.095&0.003&0.002&0.004&0&0&0&0.058&0.023&0.038&0.028\\\hline助動詞&0.275&0.594&0.013&0.003&0&0&0&0&0.019&0.051&0.039&0.006\\\hline接辞&0.506&0.208&0.015&0.004&0.002&0.002&0&0&0.198&0.05&0&0.016\\\hline特殊&0.208&0.18&0.044&0.01&0.022&0.002&0.022&0&0.252&0.175&0.071&0.014\\\hline\end{tabular}\end{center}\end{table}\begin{table}\begin{center}\caption{\bf品詞間の連接関係(前方の品詞を基準とする)}\label{tab:connect_before_matrix}\tiny\def\arraystretch{}\begin{tabular}{l|r|r|r|r|r|r|r|r|r|r|r|r}\hline\hline{連接元品詞}&\multicolumn{12}{c}{連接元品詞の前に連接する品詞}\\\cline{2-13}&\multicolumn{1}{c|}{名詞}&\multicolumn{1}{c|}{動詞}&\multicolumn{1}{c|}{形容詞}&\multicolumn{1}{c|}{形容動詞}&\multicolumn{1}{c|}{副詞}&\multicolumn{1}{c|}{連体詞}&\multicolumn{1}{c|}{接続詞}&\multicolumn{1}{c|}{感動詞}&\multicolumn{1}{c|}{助詞}&\multicolumn{1}{c|}{助動詞}&\multicolumn{1}{c|}{接辞}&\multicolumn{1}{c}{特殊}\\\hline名詞&0.29&0.201&0.407&0.559&0.405&0.904&0.189&0&0.437&0.312&0.327&0.699\\\hline動詞&{\bf0.055}&{\bf0.037}&0.114&0.183&{\bf0.236}&0.025&0.066&0&0.27&0.071&0.037&0.035\\\hline形容詞&{\bf0.001}&{\bf0.006}&0.008&0.01&{\bf0.067}&0.012&0.007&0&0.039&0.008&0.001&0.021\\\hline形容動詞&0&0.003&0.003&0.009&0.034&0.008&0.006&0&0.017&0.007&0.003&0.022\\\hline副詞&0&0.008&0.004&0.006&0.024&0.015&0.004&0&0.029&0.013&0.003&0.057\\\hline連体詞&0&0.001&0.002&0.002&0.015&0.002&0.007&0&0.011&0.004&0.001&0.03\\\hline接続詞&0&0&0&0&0&0&0&0&0&0&0&0.005\\\hline感動詞&0&0&0&0&0&0&0&0&0&0&0&0\\\hline助詞&0.512&0.222&0.054&0.054&0.063&0.006&0.005&0&0.058&0.114&0.307&0.099\\\hline助動詞&0.037&{\bf0.276}&{\bf0.046}&0.021&0&0&0&0&0.004&0.051&0.063&0.004\\\hline接辞&0.04&0.057&0.031&0.014&0.003&0.005&0&0&0.023&0.029&0&0.007\\\hline特殊&0.064&0.187&0.332&0.14&0.151&0.021&0.716&1&0.112&0.391&0.259&0.021\\\hline\end{tabular}\end{center}\end{table}これらの統計知識は,入手可能であった朝日新聞の91年1月から6月までの社説\footnote{電子ブック「朝日新聞--天声人語・社説増補改訂版(英訳付)」(株)紀伊國屋書店・日本アソシエーツ(株)を用いた.}(総文字数884,696,総形態数241,573)を日本語総体とみなして我々自らで算出したものである.これは,日本語全般にわたるこれらの統計知識として確立したものを入手することができなかったことによる,止むを得ない処置であった.(確立した統計知識が得られないこともあって,先に述べたような,簡略化した形態素体系を採用することにもなった.)なお,文頭の形態素には先行する形態素がない,文末の形態素には後続する形態素がないという特殊性から,表\ref{tab:connect_matrix}と表\ref{tab:connect_before_matrix}は,たんなる転置行列にはなっていない.この統計知識の算出にあたっては,極力人手を省くため,公開されているJUMAN\footnote{京都大学・奈良先端科学技術大学院大学で開発されたものである.}を利用した.ただし,JUMANが採用している形態素体系は,本システムで想定したものとは若干異なるので,その差異を自動的に変換するプログラムを用意して算出を行った.JUMANは,また,その辞書にない形態素を未定義語と分類してしまう.そこで,JUMANの解析結果を人手によって調べ,未定義語となったものについてそれぞれその辞書に追加登録を行い,改めて統計をとった上で算出を行った.(同時に,その辞書について発見した誤りについても,訂正を行った.) \section{形態素への分割} \label{word}文を形態素に分割する処理では,辞書引きに依存するのがふつうである.しかし,本システムは,辞書がほとんど整備されていなくても使えることを目的としているから,字種によって,まず文の1次分割を行う.1次分割では,文を左から右へと走査する.得られた分割それぞれについて,辞書引きを援用しながら右から左へと走査しながら2次分割を行う.これは,辞書に助詞・助動詞が少なくとも入っているという前提を活かすためである.\subsection{分割アルゴリズム}\label{jishukiri}文の形態素(候補)への分割は,つぎの手順による.\begin{enumerate}\item1次分割:字種が変化する位置だけに着目して,文を左から右へ走査し,2度目の変化点ごとに分割していく.ただし,記号の前後では.これにかかわらず必ず分割する.また,2度目の変化点で,漢字からひらがなへと変化する場合は,その次の変化点で分割する.\item2次分割:1次分割で得た区分ごとに処理を行う.区分内を右から左に走査しながら,つぎの条件を満たす最長の部分ごとに分割していく.\begin{itemize}\item完全情報辞書に一致する形態素があれば,その最長のもの\itemなければ,字種構成の規則(~\ref{morpheme_taikei}節参照)で許される最長のもの\end{itemize}\end{enumerate}例として,「アジア外交の変革を求めた」に本アルゴリズムを適用してみる.ここでは,助詞・助動詞だけが完全情報辞書に入っていると仮定しておく.まず,1次分割によって,つぎのように分割される.$$「アジア外交の\mid変革を\mid求めた」$$区分「アジア外交の」に対する2次分割は,つぎのようになる.まず末尾からの部分列$$\{の\},\{交の\},\{外交の\},\{ア外交の\},...$$に対して辞書引きを行う.ここでは,助詞\{の\}が完全情報辞書にあるので,これを切り離す.次に$$\{交\},\{外交\},\{ア外交\},...$$に対して辞書引きを行うが,いずれも辞書にない.字種構成の規則(カタカナ+漢字の構成を認めていない)から最長の\{外交\}を切り離す.残った部分列\{アジア\}に対しても,同様に走査するが,途中での切離しは生じない.こうして,$$「アジア\mid外交\midの」$$という,形態素(候補)への分割が終わる.同様に,「変革$\mid$を」(助詞\{を\}が辞書にある),「求め$\mid$た」(助動詞\{た\}が辞書にある)という分割を得る.こうして,$$「アジア\mid外交\midの\mid変革\midを\mid求め\midた」$$の計7個の形態素(候補)が得られる.1次分割で得られる区分の末尾にはひらがなが並ぶことが多い.その部分での2次分割が円滑に行えるように助動詞・助詞の辞書登録を必須の条件にした.また,手近な例文で試行錯誤を行い,接続詞,連体詞などの,かな書きされ,1次分割結果の区分の先頭に現れやすい活用しない単語約100語を選定して,これらも完全情報辞書に最初から登録しておくこととした.\subsection{形態素の確定マーク}分割アルゴリズムによって得た形態素(候補)のうち,つぎのものだけに確定マークをつけておく.\begin{itemize}\item完全情報辞書から直接に得たもの\item字種が,カタカナ,漢字,英字,数字,記号のいずれか1つだけで構成されるもの\end{itemize}確定マークは,辞書再構成処理で不完全情報辞書から形態素候補を取り除く際に補助情報として利用する.確定マークがつかないのは,ひらがな,漢字+ひらがなの字種構成になっているものに限られる.「アジア$\mid$外交$\mid$の$\mid$変革$\mid$を$\mid$求め$\mid$た」の例では,\{求め\}だけに確定マークがつかず,他のものにはすべて確定マークがつく. \section{形態素属性の推定} \label{grammar}形態素への分割によって得られた形態素のうち,未知の(完全情報辞書になかった)ものの形態素属性を,既知の(完全情報辞書にあった)形態素の属性などから推定する.属性推定は,品詞の推定を主とし,活用に関する属性はその補助として行う.未知の形態素に対して推定される形態素情報は,ふつう何種類にも及ぶ.推定が終わると,得られた形態素情報に対して,それぞれ評価値を計算する.図\ref{fig:pers_fig}にその流れを示す.\begin{figure*}[tb]\epsfile{file=park2.eps,scale=1.0}\caption{形態素属性推定の流れ}\label{fig:pers_fig}\end{figure*}\subsection{属性推定アルゴリズム}文の分割で得られた形態素(候補)列について,文末から文頭への方向に属性推定作業を進める.推定は,既知の形態素から始めて次の既知の形態素に至るまでの,未知形態素の列ごとに行う.必要なら,文末に既知の形態素としての句点(品詞は特殊)を仮定する.推定は,つぎの手順による.\begin{enumerate}\item形態素の字種がカタカナ,英字,数字で構成されていれば,品詞を名詞として推定を終える.記号で構成されていれば,品詞を特殊として推定を終える.\itemその他の字種構成の場合は,表~\ref{tab:char_type_matrix}から確率$0$でない品詞(助詞・助動詞は除く)だけを候補とする.その上で,直後の形態素が助詞であれば,表~\ref{tab:particle_connect_matrix}を調べて確率が$0$の品詞を候補から除外する.\item品詞候補として活用するものがある場合には,形態素の語尾を調べ,活用種類・活用形を推定する.この結果と両立しえない品詞候補は除外する.\itemそれぞれの品詞候補と直後の形態素の品詞との連接を調べ,規則から許されないものは除外する.このとき,活用する品詞候補については,前段で得た活用種類・活用形も含めて調べる.とくに直後の形態素が助詞・助動詞であればその個々の規則を適用する.\item残った品詞候補について,候補3選規則(\ref{narrowing}節参照)を適用して高々3つに絞り込む.\end{enumerate}最後の2段階は,直後の形態素が未知のものであれば,そこで推定された品詞ごとに施す.それらの結果すべてを一括して推定結果とする.したがって,推定結果が4つ以上になることもありえる.\subsubsection{候補3選規則}\label{narrowing}それまでに得られた複数の品詞候補の中から,直後の形態素の品詞との連接確率(表~\ref{tab:connect_matrix})を利用して,高々3つに候補を絞り込むためのつぎの規則を候補3選規則とよぶ.\begin{itemize}\item候補3選規則:表~\ref{tab:connect_matrix}での値が高いものから順に2つを選ぶ.第3位のものの確率が$0.1$以上であれば,これも選ぶ.\end{itemize}確率が$0$のものは,対象外とする.したがって,候補3選規則を適用した結果,残る候補が1つになることもある.\subsection{属性推定の例}「事$\mid$は$\mid$少し$\mid$動き$\mid$そうだ」を例に,属性推定の様子を示す.ここで,\{は\}と\{そうだ\}は,それぞれ助詞,助動詞として既知である.推定作業は,「少し$\mid$動き」と「事」についてそれぞれ起きる.\begin{enumerate}\item\{動き\}についての推定から始める.直後の形態素が助詞でないから,その字種構成から名詞,動詞,形容詞,形容動詞などが品詞候補となる.語尾\{き\}からか行五段(連用)・か行上一段(未然,連用)・か行変格(連用)の動詞,または形容詞・形容動詞の語幹と推定できる.そこで,直後の形態素\{そうだ\}との連接を調べる.助動詞\{そうだ\}は,終止形,連用形,語幹にだけ連接するから,品詞候補は動詞(連用形),形容詞(語幹),形容動詞(語幹)だけになる.候補3選規則を適用して,動詞(連用形),形容詞(語幹)と推定する.\item\{少し\}について推定する.字種構成,語尾から候補は,名詞,動詞(さ行五段(連用)・さ行変格(連用)),形容詞(語幹),形容動詞(語幹)などとなる.直後の形態素\{動き\}を動詞とすれば,語幹には連接しないから形容詞,形容動詞は除外でき,さらに候補3選規則を適用して名詞,動詞と推定する.同様に\{動き\}を形容詞とすれば,副詞,動詞と推定することになる.一括して,名詞,動詞(連用),副詞と推定する.\item\{事\}について推定する.直後の形態素が格助詞\{は\}であることから,名詞,動詞,形容詞が候補となり,字種構成からも除外はおきない.語尾からは,動詞が除外され,形容詞(語幹)と推定できる.\{は\}は形容詞語幹に接続しないことから,形容詞が除外される.候補3選規則を適用して(するまでもないが),名詞と推定する.\end{enumerate}この例からもわかるように,活用に関する推定は,\begin{itemize}\item形態素自身の形(語尾)からの推定\itemそれに対する連接による限定\end{itemize}の2段階からなる.後者はその出現位置に依存する情報であり,前者は依存しない情報である.そこで,システム内では,前者で得た情報をそのまま保持し,その特定出現位置について除外されたものにはその旨を示す除外マークをつけておくという記録方式をとった.\subsection{評価値の算出}推定された形態素属性については,それぞれの品詞ごとにその推定の信頼性を示す評価値を算出する.切り出された形態素の字種構成が,カタカナ,英字,数字,記号の場合には,その評価値を1.0とする.残る字種構成の形態素に対する評価値の算出に当たっては,品詞$N$の直後に品詞$M$が現れる確率$T[N,M]$を与えた表\ref{tab:connect_before_matrix}を利用する.いま,切り出された形態素$A$に対して推定された品詞が$M_1,M_2,...,M_n$の$n$種類あったとする.また,$A$の後ろに一番近く位置する,完全情報辞書に登録されている形態素が$D$であり,その品詞が$M$であったとする.このとき,各品詞$M_j$に対する評価値$E_j$をつぎのようにして求める.\begin{itemize}\item$A$が$D$の直前にある場合\\$T[M_i,M]$を正規化した値を,評価値$E_i$とする.$$E_i=\frac{T[M_i,M]}{\sum_{i=1}^nT[M_i,M]}$$\item$A$が他の形態素$B$の直前にある場合\\ここで,$B$は完全情報辞書にない形態素である.$B$に対して推定された品詞が$N_1,N_2,...,N_k$であり,その評価値が$F_1,F_2,...,F_k$としてすでに計算できているとしよう.このとき,$A$の各品詞$M_i$に対して,つぎの一時値$P_i$を計算する.$$P_i=\max_{1\leqj\leqk}T[M_i,N_j]\timesF_j$$この一時値$P_i$を正規化したものを評価値$E_i$とする.$$E_i=\frac{P_i}{\sum_{i=1}^nP_i}$$\end{itemize}上の計算方法は,帰納的に与えてあることに注意する.これから,$A$と$D$の間に,複数の未知の形態素$B_1,B_2,...$が並んでいる場合にも,それぞれの推定された品詞に対する評価値を計算することができる.しかしながら,形態素候補の切り出し方からして,複数が並ぶ例には,ほどんど出会わない.「少し$\mid$動き$\mid$\そうだ」を例にとって,評価値の計算を示す.\{そうだ\}は助動詞であり,そこからの形態素情報推定によって,\{動き\}は動詞,形容詞,\{少し\}は名詞,動詞,副詞と品詞が推定されている.すると,\{動き\}についての評価値は,表\ref{tab:connect_before_matrix}からつぎのようになる.\begin{description}\item動詞:$0.276/(0.276+0.046)=0.857$\item形容詞:$0.046/(0.276+0.046)=0.143$\end{description}\{少し\}については,まず一時値がつぎのようになる.\begin{description}\item名詞:$\max(0.055\times0.857,\hspace*{0.4cm}0.001\times0.143)=0.047$\item動詞:$\max(0.037\times0.857,\hspace*{0.4cm}0.006\times0.143)=0.032$\item副詞:$\max(0.236\times0.857,\hspace*{0.4cm}0.067\times0.143)=0.202$\end{description}これから,評価値は,つぎのように求められる.\begin{description}\item名詞:$0.047/(0.047+0.032+0.202)=0.167$\item動詞:$0.032/(0.047+0.032+0.202)=0.114$\item副詞:$0.202/(0.047+0.032+0.202)=0.719$\end{description} \section{辞書再構成処理} 形態素情報推定で得られた,形態素とその形態素情報,およびその評価値は,不完全情報辞書に追加登録する(形態素に対する確定マーク,活用に対する除外マークは,無視する.).このとき,同じ形態素と形態素情報がすでに登録されているなら,評価値の改定を行う.その上で,登録された評価値を調べ,十分に高い評価値をもつ形態素と形態素情報は,完全情報辞書に移動する.逆に,あまりに低い評価値しかもたないものは,不完全情報辞書から削除する.\subsection{評価値の改定}\label{sin_hyouka}推定された形態素とその形態素情報が,すでに不完全辞書に登録されている場合には,登録されている評価値$E_{old}$を,推定から得た評価値$E_{estimate}$を用いて計算したつぎの値$E_{new}$に改定する.\begin{center}$E_{new}=E_{old}+E_{estimate}-(E_{old}\timesE_{estimate})$\end{center}ここで,$0\leqE_{new}\leq1$であり,しかも$E_{new}\geqE_{old}$かつ$E_{new}\geqE_{estimate}$となることに注意されたい.実際,\begin{center}$(1-E_{new})=(1-E_{old})\times(1-E_{estimate})$\end{center}であり,$(1-E_{old})$,$(1-E_{estimate})$がそれぞれの評価での「不確かさ」を示す.したがって,改定した評価値$E_{new}$での「不確かさ」$(1-E_{new})$は,その両者の「不確かさ」の積に減少する.\vspace{-0,5mm}\subsection{形態素の移動と削除}\vspace{-0,5mm}不完全情報辞書に登録された,形態素とその形態素情報に対する評価値が,一定の基準値$E_{upper}$に達した場合には,その形態素と形態素情報の組を完全情報辞書に移動する.このとき,同じ形態素で,異なる形態素情報と組になったものが不完全情報辞書の中にあれば,それらをすべて削除する.本システムでは,$E_{upper}=0.85$とした.この値は,少量のデータ\footnote{朝日新聞社説の1ヶ月分}について予備実験を行い,システム全体での形態素獲得の成功率がもっとも高くなるように選んだものである.一方で,システムの辞書保守の効率を高めるためには,評価値が一定の基準値$E_{lower}$に満たない形態素と形態素情報の組を不完全情報辞書から削除したい.しかしながら,その字種構成などから形態素そのものは確実だと思われるものは残したい.そこで,形態素切り出しが確定マークをもたないものを追加登録した際に,なお改定評価値が$E_{lower}$に満たない,形態素と形態素属性の組は,不完全情報辞書から削除することにした.本システムでは,$E_{lower}=0.1$とした.この値は,少量のデータ\footnote{朝日新聞社説の1ヶ月分}について予備実験を行い,システム全体での辞書保守の手間が実用的な範囲に収まり,しかも形態素獲得の成功率が高くなるように選定したものである.\vspace{-0,5mm} \section{実験結果及び考察} \label{experiment}\vspace{-0,5mm}以上のような考えに従ったシステムを実験的に試作し,その性能評価を行った.試作システムは,CとKCL(KyotoCommonLisp)を用いて,Sun4(SPARCstation2)の上に開発した.評価のための実験では,完全情報辞書を,システムの最低要件である助詞・助動詞と,約100語の活用をもたない,かながき形態素だけに初期設定した.用いたテストデータは,朝日新聞の社説6ヶ月分であり,その形態素総数は約240,000であり,異なる15,532の形態素が完全情報辞書に新たに得られた.その結果を詳細に評価するため,さらにつぎのことを行った.システムに手を加えて辞書再構成処理を取り除き,形態素の切出しとその形態素属性の推定だけを行い,その結果それぞれ(形態素に対する確定マーク,活用に関する除外マークも含む)をファイルに書き出すように改めた.この改造システムに先に獲得した完全情報辞書を与えて,同じ入力テキストのもとで走らせた.その出力ファイルの内容を,入力テキストと逐一照合して,形態素とその形態素情報が一意的に決定または推定され,しかもそれが正しいものを推定成功として数えた.このとき,活用する品詞については,その活用形が一意的に推定できていれば(活用種類が一意的になっていなくても),推定成功とした.\begin{table}\begin{center}\caption{\bf推定実験結果}\label{tab:exp_result}\begin{tabular}{l|r|r|r}\hline\hline{品詞}&\multicolumn{1}{c|}{総形態素数}&\multicolumn{1}{c|}{推定形態素数}&\multicolumn{1}{c}{推定成功率(\%)}\\\hline活用品詞&32,475&29,389&90.5\\\hlineその他&209,098&199,061&95.2\\\hline合計&241,573&228,450&94.6\\\hline\end{tabular}\end{center}\end{table}結果を表\ref{tab:exp_result}に示す.システムは,241,573形態素中228,450形態素について正しくその形態素属性を推定した(成功率94.6\%).とくに活用品詞類に対しての成功率は90.5\%であり,その他の品詞に対する成功率は95.2\%であった.日本語全般の各種確率表を算出するのに用いたのと同じデータを用いて評価を行ったのは,大量のテキストを対象としようとすると,その評価を行うのに目視によるのでは手間がかかりすぎることを恐れたためである.朝日新聞社説については,連接確率を求める際に,目視によって確認した形態素の切出しとその形態素情報がすでにファイルの形で用意できている.それを利用したのである.しかし,このために,用いた各種確率表が,よく日本語全般を代表しているかどうかの評価があいまいになってしまった.現在,UNIXのオンラインマニュアル(日本語版)を材料として比較実験を進めている.この結果については改めて報告したい.本システムの方式では,一般に形態素が長単位となり,複合語についての扱いが難しくなる.そこで,漢字が連接してできる複合語は,それ自体,1個の独立した形態素として扱った.このため,たとえば\{市街\}がすでに辞書に登録されているときに出現した\{長野市街\}が2個の形態素に切り分けられてしまうことが起きる(上の実験では,推定に失敗したとして評価した).\{長野\}が形態素として獲得できるものの,\{長野市街\}はついに形態素として獲得されることがない,という問題を抱え込んでしまった.(逆に\{長野市街\}が先に出現し,後から\{市街\}が出現した場合には,\{長野市街\},\{長野\},\{市街\}のすべてが形態素として獲得できる.)本システムでは,(切り出された)形態素をそれぞれ個別に扱い,その相互関係については属性推定に利用するだけである.このために,複合語についての問題が生じるし,活用種類の推定が十分にできないという問題も生じる.これらに対処するためには,獲得した形態素どうしについて先頭部分が共通であるものの相互の関連を調べる機能を追加する必要がある.そうすることで,\{動く\}が獲得された時点で\{動き\}の活用種類を「か行五段活用」と限定することも可能になるであろう.今回の実験システムでは,入力テキストを1回だけ走査することに終始した.これは,上の問題を解決する対策をとってからでなければ,2回3回と走査してみても大きな成果が見込めなかったからである.同じ複数回の走査を行うのであれば,まず入力テキストについての各種統計をとった上で,その結果も加味した推定を行うことでテキストの分野依存性に対処することも試みてみたい.これらは,いずれも今後の課題である.しかしながら,実験の結果は,ほとんど辞書が整備されていない環境でも形態素とその属性を自動獲得できるシステムを提供する,という目的からすると,十分に満足のいくものであった.とくに,これだけ簡易なシステム構成であっても,助詞・助動詞に着目することで多くの情報が自動的に獲得できることが示せた点に満足している.\begin{thebibliography}{10}\bibitem[\protect\BCAY{Nagata}{Nagata}{1994}]{Nagata}MasaakiNAGATA.\BBOP1994\BBCP.\newblock``AStochasticJapaneseMorphologicalAnalyzerUsingaForward-DPBackward-A$^{\ast}$N-BestSearchAlgorithm."\newblock{\emProc.ofthe15thInternationalConferenceonComputationalLinguistics},201--207.\bibitem[\protect\BCAY{Kokuritu}{Kokuritu}{1992}]{Kokuritu}国立国語研究所.\BBOP1992\BBCP.\newblock``電子計算機と国語研究."\newblock国立国語研究所.\bibitem[\protect\BCAY{Uchida}{Uchida}{1989}]{Uchida}内田裕士.\BBOP1989\BBCP.\newblock``テキストからの日本語辞書データの抽出."\newblock{人工知能学会第3回全国大会}.\bibitem[\protect\BCAY{Utsuro}{Utsuro}{1993}]{Utsuro}宇津宮武仁,松本裕治,長尾眞.\BBOP1993\BBCP.\newblock``二言語対訳コーパスからの動詞の格フレーム獲得."\newblock{\em情報処理学会論文誌},34(5),913--924.\bibitem[\protect\BCAY{Sirahi}{Sirahi}{1985}]{Sirahi}白井克彦,林良彦,平田裕一,久保田淳市.\BBOP1985\BBCP.\newblock``係り受け解析のための辞書の構成とその学習機能."\newblock{\em情報処理学会論文誌},26(4),706--714.\bibitem[\protect\BCAY{Park}{Park}{1993}]{Park}朴哲済,筧捷彦.\BBOP1993\BBCP.\newblock``接続関係を利用した辞書情報の獲得と日本語解析システムへの適用."\newblock{\em自然言語処理における実動シンポジウム論文集},電子情報通信学会及び日本ソフトウェア科学会,119--126.\bibitem[\protect\BCAY{Suzuki}{Suzuki}{1994}]{Suzuki}鈴木哲也,朴哲済,中山康徳,谷口清継,筧捷彦.\BBOP1994\BBCP.\newblock``信頼度評価に基づく活用形の推定."\newblock{日本ソフトウェア科学会第11回大会}.\bibitem[\protect\BCAY{Simomura}{Simomura}{1992}]{Simomura}下村秀樹,並木美太郎,中川正樹,高橋延匡.\BBOP1992\BBCP.\newblock``最小コストパス探索モデルの形態素解析に基づく日本語誤り検出の一方式."\newblock{\em情報処理学会論文誌},33(4),457--464.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{朴哲済}{1986年韓国延世大学校数学科卒業.1991年早稲田大学大学院理工学研究科情報科学専攻修士課程修了.1995年同大学院博士課程研究指導認定退学.同年,韓国浦項工科大学情報通信研究所研究員.1996年より現代情報技術(株)応用情報技術研究所責任研究員.人工知能,自然言語処理,機械翻訳等の研究に従事.日本情報処理学会,言語処理学会,韓国情報科学会,情報処理学会等の会員.}\newpage\bioauthor{筧捷彦}{1968年東京大学工学部計数工学科卒業.1970年同大学院修士課程修了.同大学助手,立大講師・助教授を経て,1986年より早稲田大学理工学部教授.プログラミング言語の設計・実現・環境構成等の研究に従事.情報処理学会,日本ソフトウェア科学会各理事.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V16N02-02
\section{はじめに} 英語教育の現場でもICT(InformationandCommunicationTechnology)の活用により様々な取り組みがなされている.近年ではE-learningのように学習者が教科書ではなく,まずはコンピュータ端末に向かうような形態での学習環境も一部で行われている.しかし大学を含め,CALL教室などが未整備となっている教育機関は少なくない.またE-learningのための教材作成が英語教育に直接関係する教師自身によって行われることは現実的にはほとんどなく,先進的な取り組みを行っている教育機関などにおいても既存のコースウェアが利用される場合が多い.教室で接する学習者のために教員自らがオーサリングソフトなどを利用して積極的に教材を作成するという事例は,英語教員全体の人数からすると極めて少数であると思われる.近年,パソコンは爆発的に普及してきており,現在ではほぼ全ての英語教員が日常の業務や教材作成でパソコンを利用することが当たり前のこととなった.しかし大多数の英語教員のパソコン利用スキルは基礎的なワープロ操作に限られると言っても過言ではない.結果,ワープロソフトによる教材作成と,E-learningやCALL環境のための教材作成の間にある溝はなかなか埋まりそうにないというのが現状である.一方,計算機科学の発展に伴い,言語処理技術に関する研究も急速に増加しつつある.そしてこれらの知見を教育や学習に生かすことを目標とする研究も盛んに行われている.しかしここで一つの疑問が浮かぶ.言語処理技術と教育・学習の連携は,いわゆる文系の一般の教員が,極端に言えば翌日の授業からでも応用可能な形で提供されていると言えるのだろうか.言語処理技術の教育・学習への応用を試みる際,まずはその方法論が優先される.そしてその実装は簡易なプロトタイプにとどまり,実際の使用に耐えうるシステムの構築は別途行わなければならない場合も多い.しかし,たとえどんなに軽微なものであったとしてもCUIベースの処理やプログラミング言語の知識を必要とする手法を一般の英語教員に求めることはほぼ絶望的である.例えばPerl言語を用いたテキスト処理などでさえも,その実行環境をインストールするといった時点で一般の英語教員のコンピュータ利用スキルからすれば十分にハードルが高いことは間違いない.また「UNIX環境」といった文言でさえ,一般の英語教員を遠ざけるには十分な材料となる.これらのアプリケーションがCGIなどを介してWeb上で提供される場合も同様である.通常これらは教育工学などの分野に関心がある一部の英語教員が,データ分析などの研究目的で利用することが多く,授業に生かすという用途からは残念ながらほど遠いという印象がある.それでは,仮に言語処理技術を教材作成に簡便に応用できるような仕組みが提供されていればどうなるであろうか.例えば教科書に準拠した補助プリントなどを作る場合など,少しでも教員の負担を減らすことができればきっと喜ばれるに違いない.そして草の根的であったとしても,言語処理技術と教育・学習の連携がこれまで以上に有機的に行われていくことが予想される.本研究では一般の英語教員でも簡単に使えることを念頭に,様々な状況での実際の英語授業や自習環境で利用できるプリント教材およびE-learning教材の作成支援を行う2種類のツールを開発した.これらのツールは無料で公開しており,GUI環境での簡単な操作で,任意の英文から様々な教材を短時間で作成することができる.利用者である一般の英語教員はこれらをダウンロード,解凍し,フォルダ内に含まれている実行ファイルを起動するだけでよい.つまり別途ソフトウェアを購入する必要もなく,プログラミング言語の実行環境をインストールするというような負担もない.また,これらのツールでは言語処理技術によるデータ処理結果をデータベース・ソフトウェアによって教材に加工するが,内部設計はツール利用者である一般の英語教員には見せない形になっている\footnote{ソースファイル相当以上の内容を知ることができるデータベースデザインレポートも公開している.FileMakerでの開発に通じている者であれば内部設計の把握や改変も可能.}.言語処理のアルゴリズムやデータベース・ソフトウェアについての知識は一切必要としない.以下,2節では,データベース・ソフトウェアの基本的な特徴を確認し,本研究で使用したFileMakerについて概観する.3節では連携事例Iとして,言語処理技術を活用したPhraseReading教材作成支援システムを紹介し,これを応用したプリント教材の自動作成について述べる.4節では連携事例IIとして,任意の英文テキストに対して語彙レベルタグや品詞タグを付与するプログラムを紹介し,この処理結果を用いたE-learning教材作成について述べる. \section{データベース・ソフトウェアについて} 一般にデータベース・ソフトウェアはビジネス用途\footnote{例えば顧客台帳,受注伝票,売上伝票,商品台帳などを互いに関連づけておき,自動処理によって見積書,納品書,請求書,郵送用宛名ラベルなどを作成するといった目的で利用されることが多い.}で用いられることが多く,数十万単位での大量のデータであっても,整合性を保ちながら高速で検索やソートを行うことができる仕組みが用意されている.また保持しているデータと,それを表示するレイアウトを別々に管理するという特徴があるため,同一のデータを異なるレイアウトに当てはめて出力することや,多数のフィールドから必要なもののみを組み合わせて出力することができるという点で優れている.同様の出力をワープロや表計算ソフトを用いて行うことはかなり困難である.本研究では市販のデータベース・ソフトウェアの1つであるFileMaker\footnote{本稿執筆時(2008年8月)の最新バージョンはFileMakerPro9であり,WindowsXP/VistaとMacOSXに対応している}を利用し,教材作成に生かす方法を模索した.FileMakerには高度な自動処理ができるスクリプト言語が搭載されており,この上位パッケージであるFileMakerProAdvanced\footnote{http://www.filemaker.co.jp/products/fmpa/}を利用して開発を行うとFileMakerを所有しないユーザでも利用できるランタイム・アプリケーションを構築し,自由に頒布することができる.このランタイム・アプリケーションはWindowsXP/Vista上でもMacOSX上でも動作するため\footnote{開発者はまずWindows上またはMacOS上のいずれかにインストールしたFileMakerProAdvancedでデータベース・ファイルを作成する.これをWindows上で処理するとWindows版のランタイム・アプリケーションを,MacOS上で処理するとMacOS版のランタイム・アプリケーションをそれぞれ作成することができる.ちなみにFileMakerProAdvancedのライセンス形態は「1ユーザが同時使用しない限り,2台のマシンへのインストールが可能」であるため,開発者がWindowsとMacOSの両方のパソコンを所有する場合,1ライセンスで両方の作成を行うことができる.},大多数の英語教員が日常で触れる機会のあるプラットフォームで利用することができる.またFileMakerにはWebビューア機能\footnote{詳細はhttp://www.filemaker.co.jp/products/fmp/wvg/を参照のこと.現行の1世代前のFileMakerPro8.5(2006年9月発売)から搭載された機能.}が搭載されており,インターネット上にある各種情報やオンラインデータベースと連携したデータベース・ソリューションを開発することができる.この機能を使うと,画面レイアウト上にWebブラウザと同等の機能を持つ画面枠を配置することができ,そこで表示されたHTMLソースはFileMakerに搭載されている関数を用いて取得することができる.本研究で開発した教材作成ツールでは,以下のような手法を用いることで,言語処理技術と教材作成の連携を試みている.\begin{enumerate}\item言語処理技術を用いたWebアプリケーションを,Webビューア機能によって教材作成ツールの画面内に表示する.\itemWebアプリケーションの実行結果をHTMLソースとして取得し,FileMaker側で様々なテキスト関数によって文字列処理を行うことで,教材中に組み込むデータを準備する.\itemこのデータを様々なレイアウトに流し込み,教材の形に整形する.\end{enumerate} \section{連携事例I:PhraseReading教材の自動作成} \subsection{PhraseReadingとは}PhraseReadingとは次の英文のように適当な長さの意味の塊ごとに区切られたものを英語学習者ができるだけ塊の単位で素早く読み進める訓練方法であり,一般的にはスラッシュで区切って表示されることからスラッシュ・リーディングとも呼ばれる.\begin{quote}Scientistssay/theyhavemademoreprogress/indeveloping/malaria-resistantmosquitoes./Theidea/istorelease/geneticallyengineeredinsects/likethese/intomosquitopopulations/asaway/tocontrolthedisease./\end{quote}このような学習方法を繰り返すことによって,学習者は英語本来の語順で英文をより直接的に理解できるようになることが期待される.しかしこの学習方法を実践する場合,ある程度一貫性を持った方法で区切られた,一定の量の教材をこなす必要がある.また,スラッシュを挿入するタイミングは必ずしも一つではなく,学習者のレベルや作成者の意図によって様々な基準が考え得る.近年では市販の教材でもよく利用されているが,学習者が関心を持つことができる様々なジャンル,難易度の英文でこのような形式の教材がこれまで十分に提供されてきているとは言い難い.\subsection{既存のシステムと問題点}田中・木村・北尾(2006)および行野・田中・冨浦・柴田(2007)ではこのような教材不足を解消するために,言語処理技術を用い英文中に自動的にスラッシュを挿入する手法を提案している.ここでは局所的統語構造およびチャンクの大きさが英文のスラッシュ挿入に強く関係していると仮定した上で,一定量のスラッシュ付きの英文から確率モデルを用いてスラッシュを入れる基準を自動学習させた分割モデルを用意している.そしてこれに基づいて任意の英文を自動的に分割する教材作成支援システムがWeb上から実行できるようになっており,さらに異なる分割モデルに基づいてスラッシュを挿入した,様々な難易度の計128英文書,42,529語を教材集として提供している\footnote{http://www.cl.ritsumei.ac.jp/CALL/SR/}.この教材作成支援システムは数理的に厳密な処理に基づいたものであり,様々な分割モデルに対応する柔軟なスラッシュ付与が可能であったが,自動付与のための手法の開発に主眼が置かれていたため,この手法を実装したプロトタイプでは最終的に英文にスラッシュをつけて出力することしかできていなかった.つまりスラッシュで区切られた英文を次々と読破する形で自習する場合や,多読を中心に据えた授業形態の場合を除けば,教室で即座に使えるような教材の体裁としては不十分という短所があった.一方,ほぼ同時期に発表された神谷(2006)や岡本・神谷(2006)では,PhraseReading学習が容易に行える書き込み式のプリント教材を即座にプリンタから出力できるソフトウェア\footnote{当時は「PhraseReadingWorksheet作成ツール」「階段式英文読解プリント教材作成ツール」として別々に公開していたが,現在は両方の機能を1つのツールに統合したものも公開している.}を提案していた.しかし教材化する英文をPhraseごとに分割する作業は,手作業で行うか,あるいは観察によって得られた50語の単語\footnote{岡本・神谷(2006)または神谷・田中(2007)を参照のこと.}の直前で機械的に分割するという単純な手法を導入しているにすぎなかったため,柔軟性がないという短所があった.\subsection{FileMakerを活用した教材作成システム}そこで神谷・田中(2007)はPhraseReadingWorksheet作成ツール上に配置したWebビューアからスラッシュを自動付与する教材作成支援システムを呼び出し,その処理結果をPhraseReadingWorksheet作成ツールへ取り込むという方法を提案した.これにより様々な教材パラメタに対応した柔軟なフレーズ分割が行えるようになり,かつ教室でも使いやすいきれいな体裁のプリント教材を作成できるようになった.このPhraseReadingWorksheet作成ツールは図1のようなGUI環境のものであり,データベース・ソフトウェアで作られていることを利用者には全く意識させない.また言語処理技術によるフレーズ分割と実行結果の取り込みは図2のような画面で行う.そして最終的に学習者にどのような教材として与えるかの諸要因を考慮し,用紙サイズの設定・行間・メモ欄の有無などの様々な条件を組み合わせながらレイアウト上に表示させることで1つの英文素材から1,000通り以上\footnote{図3・図4の形式では用紙サイズ(B5/A4),プリント上に配置する項目とその位置48種,メモ欄の有無,行間4種,フォントサイズを選択できる.またツールに搭載されている別の出力形式(図5の階段式など)でも同様に様々な出力形式の選択が可能.}のレイアウトのプリント教材を作成することができる.このようなレイアウトの柔軟さ\footnote{用紙サイズ,行間,メモ欄の有無の組み合わせによって用意された16種類のレイアウト上にはそれぞれ25種類のフィールドがそれぞれ配置されている.教材作成時に利用しないフィールドは空白のままで出力されるため,様々な見た目で表示されることになる.}はデータベース・ソフトウェアでしか為し得ないものである.\begin{figure}[t]\begin{minipage}[b]{201pt}\begin{center}\includegraphics{16-2ia2f1.eps}\end{center}\caption{起動画面}\end{minipage}\hfill\begin{minipage}[b]{201pt}\begin{center}\includegraphics{16-2ia2f2.eps}\end{center}\caption{確率モデルによるフレーズ分割}\end{minipage}\end{figure}図3の形式のプリントは,フレーズごとに分割したものが縦方向に配置されており,右側に予習として各フレーズの意味を記入させる\footnote{ツール内部で行っていることを単純化すると次のようになる:「B5行間標準メモ欄あり」というレイアウト上に配置した「左側中央揃え」のフィールドに「英句」フィールドの内容を表示}.授業時に図4のような右側に予め日本語訳を入れたプリントを配布すると予習チェックなども簡単に行える\footnote{「B5行間極小メモ欄なし」というレイアウト上に配置した「左側中央揃え」のフィールドに「英句」を,「右側左揃え」のフィールドに「和句」フィールドの内容を表示.}.これらの形式はツール上では「縦方向」と呼んでいる.図5の形式は「階段式」と呼んでおり,各フレーズ間の修飾関係や並列関係がわかりやすい階層の形で示すことができるプリントである\footnote{「B5行間狭メモ欄なし」というレイアウト上に配置した「階段1」〜「階段8」のフィールドに,「英句」フィールドの内容を別レイアウト上で指定した「階段設定」に従って表示.右端の「階段式和訳」のフィールド上に「和句」フィールドの内容を表示.}.図6は「クローズテスト型」と呼んでおり,ここでは7語おきに単語を空欄に置き換えている.和訳を見ながら空所を埋める練習や,聞き取らせたい単語に焦点をあてたリスニングの補助教材などの用途で利用できるであろう.これらのプリントには全て各フレーズの位置を表す「文番号」「句番号」が自動で挿入されるため,授業時に指導中の箇所などを指示しやすい.\begin{figure}[t]\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{16-2ia2f3.eps}\end{center}\caption{予習用プリント}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{16-2ia2f4.eps}\end{center}\caption{チェック用プリント}\end{minipage}\end{figure}図3・4の形式の場合,縦方向に2つ折りにして利用することもできるため,右側に和訳があらかじめ書き込まれた状態であっても,再度英語のみを見ながら日本語で意味を考えさせる,日本語を見ながら英語の原文を思い出させる,日本語を見ながら英文を書かせる,日英語の語順の違いを観察させるなど,同一授業内で学習者の習熟度に応じた異なるタスクを同時進行で学習させるということもできる\footnote{具体的な指導実践例および省察は大学英語教育学会授業学研究委員会編著『高等教育における英語授業の研究—授業実践事例を中心に—』松柏社pp.~64--65に掲載されている.}.このようなPhraseReadingWorksheetはどちらかと言えば精読が中心となる授業において,これまで消極的に取り入れられがちであった文法訳読式や輪番制に代わる効率的な授業展開を可能にする.PhraseReadingWorksheet作成ツールの原型は2004年に初公開しており,新たな機能を加えながら随時アップデートを行っている.最新版や関連情報などはhttp://www.oit.ac.jp/ip/\textasciitildekamiya/\\prw/prw.htmlに掲載している.このツールは著者勤務校の多くの英語教員に利用されており,インターネットから入手した英字新聞記事などであってもすぐにプリント教材に加工できる点など,好意的な意見が寄せられることが多い.またこのツールから出力したプリント教材は学生の評判も良い.例えば教科書本文を用いて図3の形式で出力したプリント教材の場合,予習→授業→復習のサイクルで効果的に活用できるのみならず,試験前にこのプリントを見直すだけで十分な復習ができる点などは特に好評のようである.\begin{figure}[t]\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{16-2ia2f5.eps}\end{center}\caption{階段式教材}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{16-2ia2f6.eps}\end{center}\caption{クローズテスト型教材}\end{minipage}\end{figure} \section{連携事例II:Clozeテストの自動作成} \subsection{Clozeテストとは}Clozeテストとは文書のn番目(通常は6〜8番目)の単語を空欄にして,被験者が元の単語を埋めるものであり,英語母語話者に対する読解教材の信頼度や難易度を測定する目的でTaylor(1953)により開発された.以下は原文の8番目の単語を空欄にした場合の例である.原文:Scientistssaytheyhavemademoreprogressindevelopingmalaria-resistantmosquitoes.Theideaistoreleasegeneticallyengineeredinsectsliketheseintomosquitopopulationsasawaytocontrolthedisease.作成例:Scientistssaytheyhavemademoreprogress()developingmalaria-resistantmosquitoes.Theideaisto()geneticallyengineeredinsectsliketheseintomosquito()asawaytocontrolthedisease.その後,選択式問題など他の方式によるテストとの相関が高いことが分かり,読解力を測定するテスト形式として広く使われるようになった.また1970年代以降にも盛んに研究が行われ,第二言語学習者への応用可能性についての実証が行われてきた.国内の研究では佐藤(1988)はClozeテストが従来の言語テストに見られない様々な優れた特性を備えていることを指摘し,日本の英語教育へ応用する際の意義を述べている.\subsection{既存のシステムと問題点}Clozeテストを作成する場合,任意のn語ごとに単語を抜き取り,空欄に置き換えるという作業が必要となる.一見単純な作業であるが,手作業で行うには相当の労力が必要となる.北尾(2007)はPerlを利用した自動抜き取りのプログラム\footnote{http://www.cis.doshisha.ac.jp/kkitao/Japanese/library/resource/corpus/perl/ELT/}により,この労力を大幅に軽減する方法を提案した.このプログラムの優れた点は,原文中から抜き取った単語を自動でランダム順に並べ替えたものが出力されるため,これを解答時の選択肢として表示することで,受験者の心理的負担を軽減することもできた.さらに抜き取った順番通りに並べたものも併せて表示されているため,この部分だけを切り取って後で答え合わせに利用することができるという長所があった.加えて北尾(2007)ではJACET8000\footnote{大学英語教育学会(JACET)基本語改定委員会が2003年3月に改定・刊行した,コーパスでの頻度をもとに選定された1,000語刻みの8つのレベルから成る計8,000語の語彙表.この語彙表を利用して任意のテキストにJACET8000のレベルを表示するCGIプログラム(http://www01.tcp-ip.or.jp/\textasciitildeshin/J8LevelMarker/j8lm.cgi)が清水伸一氏によって公開されている.}の語彙レベルに基づいてタグを付与したテキストを用いて,ある特定のレベル範囲の語のみを抜き取り対象とする,またTreeTagger\footnote{ドイツのStuttgart大学で開発された形態素解析のためのプログラム.(http://www.ims.uni-stuttgart.de/projekte/corplex/TreeTagger/DecisionTreeTagger.html)任意のテキストを解析してそれぞれの単語に品詞タグを付与することができる.後藤一章氏(http://uluru.lang.osaka-u.ac.jp/\textasciitildek-goto/treetagger/tt.html)や杉浦正利氏(http://genbun.gsid.nagoya-u.ac.jp/tagger/)がCGIを介してWeb上でこの処理を実行できるWebアプリケーションを提供している.}によって品詞タグを付与したテキストを用いて,ある特定の品詞のみを抜き取り対象とするというプログラムも公開していた.これにより学習者の習熟度や各教員の指導目標に合致するClozeテスト形式の練習問題を作成する新たな展望が開けたと言える.しかしこれらのプログラムを利用するには別途Perl実行環境をインストールする必要がある上,抜き取りの間隔や語彙レベル範囲,抜き取る対象とする品詞を指定するための条件を変数として入力する際にはプログラムを一旦書き換える必要があった.またTreeTaggerのタグセットは学校英文法などで扱う品詞よりもはるかに厳密な分類を行うことから,例えば動詞を抜き取り対象とする場合には,動詞に相当するタグであるVBVBDVBGVBNVBPVBZVHVHDVHGVHNVHPVHZVVVVDVVGVVNVVPVVZVBDVBGVBNVBPVBZという非常に数多くの項目を変数に入力しなければならなかったため,現実的には大変な困難を伴う利用形態であったと言える.さらにJACET8000レベルマーカーやTreeTaggerを併用したClozeテストを作成するには,それぞれのタグ付けを行うWebアプリケーションでの処理結果を一旦テキストファイルに保存してからPerlで処理を行うという手間が必要であり,結果的に一般の英語教員にはハードルが高く,利用者が限られてしまうという短所があった.\subsection{FileMakerを活用した教材作成システム}そこで神谷・永野・北尾(2007)ではFileMakerを用いてGUI環境でClozeテストを作成できるツールを開発し,無料公開した.またKitao\&Kamiya(2008)ではこのツールの改良が行われ,画面表示を日英両方に切り替えることも可能になった.このツールでは画面上に英文を貼り付けた後,抜き取り間隔であるnの指定をプルダウンメニューで選択するという簡便な操作のみで即座に作成することができる.またツール自体がランタイム環境であるため,実行環境のインストールも不要である.\begin{figure}[b]\begin{minipage}{201pt}\begin{center}\includegraphics{16-2ia2f7.eps}\end{center}\caption{単語簡易抜き取り}\end{minipage}\hfill\begin{minipage}{201pt}\begin{center}\includegraphics{16-2ia2f8.eps}\end{center}\caption{作成結果}\end{minipage}\end{figure}JACET8000レベルマーカーやオンライン版TreeTaggerへはFileMakerのWebビューア機能を利用して同一画面の中で処理できるようにしているため,特定の語彙レベルや品詞を考慮に入れたClozeテストの作成もさらに省力化が図れることとなった.このツールの目的は簡便な方法でClozeテスト形式の教材作成を行うことにあるため,TreeTaggerを併用する際においても膨大な数のタグセットを考慮しながら品詞を選択するのではなく,8種類の品詞から選ぶという操作方法を導入した.チェックボックスから選んだ品詞はTreeTaggerのタグセットに自動的に置き換える仕組みになっており,仮に不必要なタグが含まれる場合でも手作業で取り除くことができる.このツールは北尾(2007)が提案したClozeテストの自動採点が可能なJavaScriptプログラムに対応したHTMLファイルを出力することもできる\footnote{問題サンプルはhttp://kkitao.e-learning-server.com/javaS/blank/cloze/index.htmlで公開されている.}ため,簡易E-learning教材作成ツールとしても利用することができる.このHTMLファイルは以下のような形式で書かれており,単語を抜き取って空欄にすべき処理の代わりに,HTMLタグの間に解答となる語を挟み込んで出力するという別の文字列処理を行っている.\begin{figure}[t]\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{16-2ia2f9.eps}\end{center}\caption{JACET8000処理結果}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{16-2ia2f10.eps}\end{center}\caption{作成条件設定}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{16-2ia2f11.eps}\end{center}\caption{TreeTagger処理}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics{16-2ia2f12.eps}\end{center}\caption{作成条件設定}\end{minipage}\end{figure}Scientistssaytheyhavemademoreprogress1.($\langle$inputokWord=''in''$\rangle$)developingmalaria-resistantmosquitoes.Theideaisto2.($\langle$inputokWord=''release''$\rangle$)geneticallyengineeredinsectsliketheseintomosquito3.($\langle$inputokWord=''populations''$\rangle$)asawaytocontrolthedisease.Clozeテストは4.1節で述べたように,元々は英語母語話者に対する読解評材の信頼度や難易度を測定する目的で開発されたものであり,語彙レベルや品詞を考慮したものは本来のClozeテストとは言えない.そのため試用者から寄せられた評価の中には,これらは特に必要な機能ではないとの声もある.しかし学習者に与える教材において難易度を考慮することは重要であり,言語処理技術との連携によって学習内容や学習者の能力に焦点を当てたテストを短時間で作成することに関しては,研究を深めていく余地が大いにあると考えている.今後,このツールも新たな機能を加えながら随時アップデートを行っていく計画である.最新版や関連情報などはhttp://www.oit.ac.jp/ip/\textasciitildekamiya/mwb/mwb.htmlに掲載している. \section{おわりに} データベースという概念には様々な意味があり,本来は区別して扱うべき機能や仕組みなどが混同されて用いられることがある.例えば,様々な教材そのものを蓄積し,必要なものを必要な時に自由に取り出せるような仕組みを「教材データベース」と呼ぶことがある.また表計算ソフト上で様々な学習項目などを整理したものを「データベース」と呼ぶこともある.本稿で扱ったものはこのような仕組みとは無関係であり,意地悪な見方をすれば,単にデータベース・ソフトウェアを用いて教材をワープロソフトよりもきれいに清書できる可能性がある,ということを述べているにすぎない.しかしこれまで主にビジネス用途でしか用いられてこなかったデータベース・ソフトウェアを教材作成に利用することは,レイアウトの柔軟さなどの点で非常に有効であると思われる.本稿では言語処理技術と教材作成の連携について,GUI環境による使いやすいツールを構築していくことにより,今後一層両者のつながりが深まっていく可能性があることを述べた.またオンライン上で提供される言語処理関連のリソースの実行結果をデータベース・ソフトウェアで加工することで,プリント教材やE-learning教材をシームレスかつ効率的に作成・出力できることを提案した.今後も一般の英語教員のニーズに合致し,すぐに使える教材の形式について検討を深めながら,言語処理技術と教材作成の連携の可能性を追求し,教材の自動出力を行うことができる汎用性の高い教材作成ツールの開発を進めていきたい.本研究で開発したツールによって作成したプリント教材等を普段から授業で利用している筆者らの印象では,予習→授業→復習のサイクルを意識した学習活動の促進や,様々な状況での実際の英語授業や自習環境において,有効に機能していると考えている.また短時間で様々な教材を作成できることは,教員の負担軽減にもつながることであろう.\acknowledgment\noindent本文中で利用したサンプル英文は以下の記事を抜粋したものである.\noindenthttp://www.voanews.com/specialenglish/archive/2007-07/2007-07-01-voa2.cfm\vspace{1\baselineskip}\noindent教材作成ツール開発においてはツールをご利用頂く方々も含め,多くの先生方からご指導をいただきました.またオンライン上のリソースをWebビューアを介して利用することを許諾頂いた諸先生方に感謝いたします.\vspace{1\baselineskip}\noindent本研究の一部は文部科学省科学研究費補助金・若手研究(B)(課題番号18720153)により実施したものである.\begin{thebibliography}{}\itemCoffey,G.\&ProsserS.小山香織ほか訳(2008).FileMakerPro大全Ver.7〜9edition.ラトルズ.\item大学英語教育学会基本語改訂委員会(2003).大学英語教育学会基本語リストJACETListof8000BasicWords.大学英語教育学会.\item大学英語教育学会基本語改訂委員会(2004).大学英語教育学会基本語リスト活用事例集:教育と研究への応用.大学英語教育学会.\item神谷健一(2006).データベースソフトを用いた読解プリント教材とその作成ツールについて.社団法人私立大学情報教育協会平成18年度全国大学IT活用教育方法研究発表会予稿集,pp.~20--21.\item神谷健一,田中省作(2007).言語処理技術を活用したPhraseReading学習プリント教材作成ツール.外国語教育メディア学会第47回全国研究大会発表論文集,pp.~34--37.\item神谷健一,永野友雅,北尾謙治(2007).データベース・ソフトウェアを利用したクローズ・テスト学習教材の自動作成.社団法人私立大学情報教育協会平成19年度大学教育・情報戦略大会,pp.~122--123.\itemKenjiKitao\&KenichiKamiya(2008)``CreatingClozeExercisesEasilyandEffectively''\textit{ProceedingsofWorldCALL2008},http://www.j-let.org/\textasciitildewcf/proceedings/g-016.pdf\item北尾謙治(2007).語彙レベルや品詞も考慮したクローズ・テスト方式のeラーニング教材作成の試み.外国語教育メディア学会第47回全国研究大会発表論文集,pp.~114--117.\item岡本清美,神谷健一(2006).アカデミックリーディング教材—データベースを利用したプリント教材作成ツールを用いて.外国語教育メディア学会第46回全国研究大会発表論文集,pp.~243--251.\item佐藤史郎(1988).クローズ・テストと英語教育.南雲堂.\itemTaylor,WilsonL.(1953)``Clozeprocedure:Anewtoolformeasuringreadability''\textit{JournalismQuarterly},30,pp.~415--433,\item田中省作,木村恵,北尾謙治(2006).言語処理技術を活用した柔軟性の高いスラッシュ・リーディング用教材作成支援システム,外国語教育メディア学会第46回全国研究大会発表要項集,pp.~483--492.\item行野顕正,田中省作,冨浦洋一,柴田雅博(2007).統計的アプローチによる英語スラッシュ・リーディング教材の自動生成.情報処理学会論文誌,48(1),pp.~365--374\end{thebibliography}\clearpage\begin{biography}\bioauthor{神谷健一}{2000年大阪大学大学院言語文化研究科言語文化学専攻博士前期課程修了.高等学校教員を経て2004年〜大阪工業大学知的財産学部専任講師,英語科目を担当.外国語教育に生かすコンピュータの活用方法に関する研究に従事.外国語教育メディア学会,大学英語教育学会,e-Learning教育学会,社会言語科学会,英語コーパス学会,全国英語教育学会各会員.}\bioauthor{田中省作}{2000年九州大学大学院システム情報科学研究科博士後期課程修了.同年九州大学情報基盤センター助手,2005年立命館大学文学部助教授(2007年准教授に職名変更).博士(工学)自然言語処理,言語教育への応用に関する研究に従事.情報処理学会,英語コーパス学会各会員.}\bioauthor{北尾謙治}{同志社大学英文学科卒業後,米国カンザス大学大学院でTESOLを研究,M.A.とPh.D.を取得.現在同志社大学文化情報学部教授.専門は応用言語学と異文化間コミュニケーション.著書はInternetResources:ELT,Linguistics,andCommunication(英潮社),InterculturalCommunication:BetweenJapanandtheUnitedStates(英潮社),EnglishTeaching:Theory,ResearchandPractice(英潮社)ほか多数.}\end{biography}\biodate\end{document}
V20N04-03
\section{はじめに} 現在の自動要約の多くは文を単位にした処理を行っている\cite{okumura05}.具体的には,まず入力された文書集合を文分割器を用いて文集合に変換する.次に,文集合から,要約長を満たす文の組み合わせを,要約としての善し悪しを与える何らかの基準に基づいて選び出す.最後に,選び出された文に適当な順序を与えることによって要約は生成される.近年では,複数文書の自動要約は最大被覆問題の形で定式化されることが多い\cite{filatova04,yih07,takamura08,gillick09,higashinaka10b,nishikawa13}.これは,入力文書集合に含まれる単語のユニグラムやバイグラムといった単位を,与えられた要約長を満たす文の集合によってできる限り被覆することによって要約を生成するものである.最大被覆問題に基づく要約モデル\footnote{本論文では,自動要約のために設計された,何らかの目的関数と一連の制約によって記述される数理計画問題を特に要約モデルと呼ぶことにする.これは自動要約のための新しい要約モデル(数理計画問題)の開発と,何らかの要約モデルに対する新しい最適化手法の提案を陽に切り離して議論するためである.また,特定の要約モデルとその要約モデルに対する具体的な一つの最適化手法を合わせたものを要約手法と呼ぶことにする.}(以降,最大被覆モデルと呼ぶ)は,複数文書要約において問題となる要約の冗長性をうまく取り扱うことができるため,複数文書要約モデルとして高い能力を持つことが実証されている\cite{takamura08,gillick09}.しかし,その計算複雑性はNP困難である\cite{khuller99}ため,入力文書集合が大規模になった場合,最適解を求める際に多大な時間を要する恐れがある.本論文で後に詳述する実験では,30種類の入力文書集合を要約するために1週間以上の時間を要した.平均すると,1つの入力文書集合を要約するために8時間以上を要しており,これではとても実用的とは言えない.一方,ナップサック問題として自動要約を定式化した場合,動的計画法を用いることで擬多項式時間で最適解を得ることができる\cite{korte08,hirao09b}.ナップサック問題に基づく要約モデル(以降,ナップサックモデルと呼ぶ)では,個別の文に重要度を与え,与えられた要約長内で文の重要度の和を最大化する問題として自動要約は表現される.この問題は個別の文にスコアを与え,文のスコアの和を最大化する形式であるため,要約に含まれる冗長性が考慮されない.そのため,最大被覆モデルとは異なり冗長な要約を生成する恐れがある.最大被覆モデルとナップサックモデルを比較すると,前者は複数文書要約モデルとして高い性能を持つものの求解に時間を要する.一方,後者は複数文書要約モデルとしての性能は芳しくないものの高速に求解できる.本論文では,このトレードオフを解決する要約モデルを提案する.本論文の提案する要約モデルは,動的計画法によって擬多項式時間で最適解を得られるナップサック問題の性質を活かしつつ,要約の冗長性を制限する制約を陽に加えたものである.以降,本論文ではこの複数文書要約モデルを冗長性制約付きナップサックモデルと呼ぶことにする.冗長性を制限する制約をナップサックモデルに加えることで冗長性の少ない要約を得ることができるが,再び最適解の求解は困難となるため,本論文では,ラグランジュヒューリスティック\cite{haddadi97,umetani07}を用いて冗長性制約付きナップサックモデルの近似解を得る方法を提案する.ラグランジュヒューリスティックはラグランジュ緩和によって得られる緩和解から何らかのヒューリスティックを用いて実行可能解を得るもので,集合被覆問題において良好な近似解が得られることが知られている\cite{umetani07}.本論文の貢献は,新しい要約モデル(冗長性制約付きナップサックモデル)の開発,および当該モデルに対する最適化手法の提案(ラグランジュヒューリスティックによるデコーディング)の両者にある.冗長性制約付きナップサックモデルの,最大被覆モデルおよびナップサックモデルに対する優位性を表\ref{tb:comp}に示す.提案する要約モデルを提案する最適化手法でデコードすることで,最大被覆モデルの要約品質を,ナップサックモデルの要約速度に近い速度で得ることができる.\begin{table}[t]\caption{冗長性制約付きナップサックモデルの優位性}\label{tb:comp}\input{03table01.txt}\end{table}以下,2節では関連研究について述べる.3節では提案する要約モデルについて述べる.4節では,デコーディングのためのアルゴリズムについて述べる.5節では提案手法の性能を実験によって検証する.6節では本論文についてまとめる. \section{関連研究} \label{relatedwork}複数文書要約においては,要約の冗長性に対する対処が重要な課題の1つである\cite{okumura05}.複数の文書から1つの要約を生成する際に,複数の文書が類似する情報を含んでいるときには,類似する情報がいずれも要約に含まれる恐れがある.複数文書要約の目的を鑑みると,類似する情報が要約に2度含まれることは好ましくないため,この問題に対処する必要がある.この冗長性に対する対処として,Filatovaらによって最大被覆問題による要約モデルが提案された\cite{filatova04}.最大被覆問題による要約モデルは文の集合と要約長を入力とする.集合中の文はそれぞれ何らかの概念を含んでおり,この概念はその性質に応じて重要度を持っている.概念はユニグラムやバイグラムなど,文から抽出できる何らかの単位である.また,文はそれぞれその単語数や文字数に応じて,長さを持っている.最大被覆問題の最適解は,合計の長さが要約長を超えない文の集合のうち,集合中の文が持っている概念の重要度の和が最大となるものである.ただし,文の集合に含まれる概念の重要度の和を計算するときには,同じ概念は一度しか数えない.例えば,文の集合にある概念が3つ含まれていたとしても,最大被覆問題においては,文の集合に含まれる概念の重要度の和は,その概念が1つしか含まれないときと同じである.複数文書の要約を最大被覆問題として考えた場合,同じ概念は一度しか数えないという性質が重要な役割を果たす.すなわち,文が含む概念を情報とすると,同じ情報を3つ含んだ要約も同じ情報を1つ含んだ要約も解としての良さは同じであり,よりよい解はより多様な情報を含んだ解である.このような,多様な情報を含んだ解がより良好な解であるという最大被覆問題の性質は,複数文書要約に必要なモデルの性質として適切であり,これまで最大被覆問題に基づいた要約モデルがいくつも提案されてきた.Filatovaらは単語を概念として,重要度をtf-idfで与え,これを貪欲法\cite{khuller99}で解いた.Yihらはスタックデコーダ\cite{jelinek69}を用いてこれを解いた\cite{yih07}.高村らはこれに整数計画問題としての厳密な定式を与え,近似解法と分枝限定法による結果を報告した\cite{takamura08}.Gillickらも同様に整数計画問題としての定式を与え結果を報告した\cite{gillick09}.これらは全て新聞記事を要約の対象としているが,他の領域を対象にした複数文書要約も行われている.東中らはコンタクトセンタログを要約の対象として,発話を文,発話に含まれる単語を概念とする要約モデルを提案した\cite{higashinaka10b}.西川らはレビュー文書集合を要約の対象として,商品やサービスに対して評価を行っている記述を概念の単位とする複数文書要約モデルを提案した\cite{nishikawa13}.最大被覆問題はNP困難である\cite{khuller99}ため,解の探索が重要な課題である.貪欲法のような単純な探索法を用いた場合,良好な解を得られる可能性は必ずしも高くないものの,高速に解を得られる.Khullerらによって提案された貪欲法による最大被覆問題の解は,最悪でも最適解の目的関数値の$(1-1/e)/2$を達成する\cite{khuller99}.高村らはこれを複数文書要約に応用して結果を報告している\cite{takamura08}.スタックデコーダのようなより複雑な探索法を用いることによってより良好な解を得られる可能性が高まるが,探索に要する時間も増加する.分枝限定法を用いることで最適解を得ることができるものの,問題の規模が増加するにつれて探索に要する時間は著しく増加する.単一文書要約に目を向けると,単一文書要約は冗長性が問題となる恐れが少ないため,冗長性を加味しない手法を利用することができる.単一文書要約は,ナップサック問題として定式化できる\cite{mcdonald07,hirao09b}.ナップサック問題による要約モデルも文の集合と要約長を入力とする.最大被覆問題と異なり,ナップサック問題はそれぞれの文が直接重要度を持っている.ナップサック問題の最適解は,合計の長さが要約長を超えない文の集合のうち,集合を構成する文の重要度の和が最大となるものである.ナップサック問題の最適解は動的計画法の一種である動的計画ナップサックアルゴリズムによって擬多項式時間で求めることができる\cite{korte08}.そのため,ナップサック問題の最適解は高速に求めることができる.しかし,ナップサック問題は文に対して直接重要度を定義し,その和を最大化するものであるため,冗長性を削減する仕組みを持たない.従って,複数文書要約に適用した場合,冗長な要約が生成される恐れがある.先に述べたように,最大被覆問題は複数文書要約に適した性質を持っているものの,良好な解の探索には多大な時間を要する.一方,ナップサック問題は複数文書要約に適さないものの,最適解の探索は容易である.本論文で提案する方法は,このトレードオフを解決するため,ナップサック問題に対して冗長性を削減する制約を加えたものである. \section{最大被覆モデルとナップサックモデル} ここでは最大被覆問題に基づいた要約モデル,最大被覆モデルと,ナップサック問題に基づいた要約モデル,ナップサックモデルを比較する.\subsection{最大被覆モデル}$n$文の入力および,それらに含まれる$m$個の概念を考える.概念は先に述べたよう単語のユニグラムやバイグラムなどであるが,文中から抽出できる他の何らかの情報でもよい.${\bfx}$を文$i$が要約に含まれる際に$x_{i}=1$となる決定変数を要素とするベクトルとする.${\bfz}$を概念$j$が要約に含まれる際に$z_{j}=1$となる決定変数を要素とするベクトルとする.${\bfw}$を概念$j$の重要度$w_{j}$を要素とするベクトルとする.行列${\bfA}$の要素$a_{j,i}$を文$i$に含まれる概念$j$の数とする.${\bfl}$を文$i$の長さ$l_{i}$を要素とするベクトルとする.$K$を要約長とする.このとき,最大被覆問題は以下のように定式化される.\begin{align}\max_{{\bfz}}&\quad{\bfw}^{\top}{\bfz}\\s.t.&\quad{\bfAx}\geq{\bfz}\\&\quad{\bfx}\in\{0,1\}^{n}\\&\quad{\bfz}\in\{0,1\}^{m}\\&\quad{\bfl}^{\top}{\bfx}\leqK\end{align}\pagebreak式(1)が目的関数であり,式(2)\footnote{本論文では,$n$次元のベクトル${\bfa}$と${\bfb}$に大小関係${\bfa}\geq{\bfb}$が成り立つのは,ベクトル${\bfa}$の要素$a_{i}$とベクトル${\bfb}$の要素$b_{i}$に$a_{i}\geqb_{i}(\foralli)$が成り立つときとする.}から式(5)が制約である.式(4)が示すように${\bfz}$の要素は0あるいは1である.もし概念$z_{j}$が要約に含まれれば,$z_{j}=1$となり,その重要度$w_{j}$は目的関数に加算される.可能であれば全ての概念を要約に含めたいが,要約長の制限によってはそれは許されない.式(2)が示すように,概念$z_{j}$を要約に含めるためには,$z_{j}$を含むいずれかの文が要約として選択されていなければならない.仮に文$x_{i}$が要約に含まれた場合,式(5)の左辺の値は$l_{i}$だけ増える.式(5)によって要約として選択された文の長さの合計は$K$を超えることが許されない.式(3)の示すように${\bfx}$の要素は0あるいは1である.このことは1つの文は一度しか要約に含めないことを示す.これらのことから,最大被覆モデルの最適解は,要約長を満たす文の組み合わせを全て試し,全ての組み合わせに対して${\bfz}$を計算し,${\bfw}$とかけあわせ,かけあわせた値が最大となる文の組み合わせを探し出せば見つけられるとわかる.しかし,一部の組み合わせは要約長を満たさない場合があるものの,文の組み合わせの数は$2^{n}$にもなる.そのため,全ての組み合わせを列挙することは困難である.\subsection{ナップサックモデル}次に,ナップサック問題に目を向けることにする.${\bfx}$を文$i$が要約に含まれる際に$x_{i}=1$となる決定変数を要素とするベクトルとする.${\bfz}$を概念$j$が要約に含まれる際に$z_{j}=1$となる決定変数を要素とするベクトルとする.上述した最大被覆モデルと同様の記法に従ってナップサックモデルを記述すると以下のようになる.\begin{align}\max_{{\bfz}}&\quad{\bfw}^{\top}{\bfz}\\s.t.&\quad{\bfAx}={\bfz}\\&\quad{\bfx}\in\{0,1\}^{n}\\&\quad{\bfz}\in(\mathbb{N}^{0})^{m}\\&\quad{\bfl}^{\top}{\bfx}\leqK\end{align}ここで,$\mathbb{N}^{0}$は,0を含む,0以上の自然数である.目的関数である式(6),1つの文は一度しか要約に含めないとする制約である式(8),要約の長さに関する制約である式(10)は最大被覆モデルと変わらないものの,式(2)と式(7),式(4)と式(9)がそれぞれ異なる.式(4)ではベクトル${\bfz}$は0と1を要素とするベクトルであったが,式(9)ではベクトル${\bfz}$は0以上の自然数を要素とするベクトルである.\pagebreak最大被覆モデルでは要約に同じ概念が何個含まれていようともそれぞれの概念について目的関数において一度しかその重要度を加算しなかった.それに対してナップサックモデルでは要約に同じ概念が複数含まれていた場合その数だけ重要度を目的関数において加算する.この性質のため,ナップサックモデルを用いて複数文書要約を行った場合には冗長な要約ができる可能性が高く,したがって,ナップサックモデルの複数文書要約における性能は芳しいものではない.式(7)は,式(2)と異なり,文が含む概念の数をそのままベクトル${\bfz}$に反映させる.例えば,文$1$は概念$5$を2つ含むとすると,$a_{5,1}=2$である.文$2$は概念$5$を1つ含むとすると,$a_{5,2}=1$である.文1と文2のいずれもが要約に選ばれたとすると(すなわち$x_{1}=1$,$x_{2}=1$),式(7)から,$z_{5}=a_{5,1}\timesx_{1}+a_{5,2}\timesx_{2}=2\times1+1\times1=3$となり概念5は要約に3つ含まれることになる. \section{冗長性制約付きナップサックモデル} \subsection{ナップサックモデルへの冗長性制約の付与}前節で述べたように,最大被覆問題が冗長性に強い理由は式(4)にあり,ナップサックモデルが冗長性に弱い理由は式(9)であった.そこで,式(9)に工夫を施すことでナップサックモデルの冗長性を抑制することを考える.すなわち,ある単語が要約に含まれる回数を直接制御することで,ナップサックモデルの冗長性を削減する.本論文の主たる貢献はここにある.\begin{align}\max_{{\bfz}}&\quad{\bfw}^{\top}{\bfz}\\s.t.&\quad{\bfAx}={\bfz}\\&\quad{\bfx}\in\{0,1\}^{n}\\&\quad{\bfz}\in\{z_{j}|\mathbb{N}^{0}\cap[0,r_{j}]\}^{m}\\&\quad{\bfl}^{\top}{\bfx}\leqK\end{align}式(14)は,ベクトル${\bfz}$の各要素は0以上$r_{j}$以下の自然数であることを示す.すなわち,各概念が要約に含まれてよい個数を制限するベクトル${\bfr}=(r_{1},r_{2},\ldots,r_{m})$を考え,これによって要約の冗長性を削減する.本論文では式(11)から式(15)で記述される要約モデルを冗長性制約付きナップサックモデルと呼ぶ.このモデルは最大被覆モデルと等価ではない.最大被覆モデルは,要約に概念が複数含まれることを許す.ただし,目的関数を計算する上では1つの概念の重要度は一度しか加えない.それに対し,冗長性制約付きナップサックモデルは,\pagebreakある概念が要約に含まれる数を直接制限する\footnote{なお,文の間に,ベクトル${\bfr}$を通じて排他的な制約が与えられているものとみなすと,冗長制約付きナップサックモデルは,排他制約付きナップサックモデル\cite{yamada02}とみなせる.例えば,上に述べた文1と文2は概念5のためにいずれか一方しか要約に含めることができないという制約は,$x_{1}+x_{2}\leq1$と記述することができる.}.上に述べた例と同じように,文$1$は概念$5$を2つ含み($a_{5,1}=2$),文$2$は概念$5$を1つ含むとする($a_{5,2}=1$).このとき$r_{5}=2$であったとすると,文1と文2を同時に要約に含めることはできない.概念5は要約には2つしか含めることができないが,文1と文2いずれも要約に含めてしまうと要約には概念5が3つ含まれてしまうからである.最大被覆モデルでは,長さの制約に違反しない限り,このような組み合わせも許される.一方,冗長性制約付きナップサックモデルでは式(14)が示す制約を違反する組み合わせは許されない.ナップサックモデルに式(14)が示す冗長性に関する制約(以下,冗長性制約と呼ぶ)を加えることで冗長性を削減することができるが,動的計画ナップサックアルゴリズムで擬多項式時間で最適解を求めることはできなくなる\footnote{正確には,$n$に関しては擬多項式時間であるが,$m$に関しては指数時間となるため,素早い求解ができない.}.冗長性制約付きナップサックモデルを動的計画法で解くことは可能だが\footnote{もちろん,冗長性制約付きナップサックモデルを整数計画ソルバーで解くことも可能である.本論文では,冗長性制約付きナップサックモデルを整数計画ソルバーで解くことでその最適解を求める.},冗長性制約を考慮するためには,探索の過程において,ある時点での要約に含まれる概念の数を記録しておかなければならない.ある時点において要約に含まれる概念の数の組み合わせは複数存在するため,これによって探索空間が増大してしまい,素早い求解ができなくなる.\subsection{冗長性制約のラグランジュ緩和}この冗長性制約付きナップサックモデルから冗長性制約を除去すれば,元のナップサックモデルが得られる.そこで,この冗長性制約をラグランジュ緩和\cite{korte08}する.以下は,式(14)を緩和し,ベクトル${\bfr}$による冗長性制約を目的関数に組み込んだものである.\begin{align}\max_{{\bfz}}&\quad{\bfw}^{\top}{\bfz}+\mbox{\boldmath$\lambda$}({\bfr}-{\bfz})\\s.t.&\quad{\bfAx}={\bfz}\\&\quad{\bfx}\in\{0,1\}^{n}\\&\quad{\bfz}\in(\mathbb{N}^{0})^{m}\\&\quad\boldsymbol{\lambda}\in(\mathbb{R}^{+})^{m}\\&\quad{\bfl}^{\top}{\bfx}\leqK&\end{align}$\boldsymbol{\lambda}=(\lambda_{1},\lambda_{2},\ldots,\lambda_{m})$は非負のラグランジュ乗数ベクトルである.式(16)から式(21)は,目的関数である式(16)の2つ目の項$\boldsymbol{\lambda}({\bfr}-{\bfz})$および式(20)を除いてナップサックモデルと同じである.このラグランジュ緩和問題は,要約に含まれる概念$j$の個数$z_{j}$が$r_{j}$を超えた際に,非負のラグランジュ乗数$\lambda_{j}$を通じて目的関数に罰を与える.例えば,あるとき,概念5が要約に3つ含まれている($z_{5}=3$)が,ベクトル${\bfr}$によって要約に2つまでしか含めてはならないと制限されている($r_{5}=2$)とする.また,ラグランジュ乗数$\lambda_{5}$が1だったとする.このとき$\lambda_{j}(r_{5}-z_{5})=1(2-3)=-1$となり,目的関数は低下する.$\boldsymbol{\lambda}$の調整は,この緩和問題のラグランジュ双対問題$L(\boldsymbol{\lambda})=\min_{\lambda}\{\max_{{\bfz}}{\bfw}^{\top}{\bfz}+\boldsymbol{\lambda}({\bfr}-{\bfz})\}$を解くことで行う.このように,$\boldsymbol{\lambda}$を適切に調整し,冗長性の原因となりやすい概念の重要度を低下させることで,動的計画ナップサックアルゴリズムによって元のナップサックモデルを解いた際でも複数文書要約として良好な解を得ようとするのが本論文の提案である.具体的なデコーディングの方法については次節で述べる. \section{デコーディング} デコーディングで必要になるのは,ラグランジュ乗数ベクトル$\boldsymbol{\lambda}$の値を適切に設定することである.$\boldsymbol{\lambda}$の値が適切に設定されていれば,あとはそれを動的計画ナップサックアルゴリズムで解くだけでよい.$\boldsymbol{\lambda}$は前節で述べたラグランジュ双対問題を解くことで得られる.このラグランジュ双対問題は最小化の中に最大化が入れ子になっており,最適化が困難であるものの,劣勾配法\cite{korte08}を用いると良好な近似解が高速に得られることが知られている\cite{umetani07}.劣勾配法は,初期値として適当な$\boldsymbol{\lambda}$を設定し,$\boldsymbol{\lambda}$の値を繰り返し更新していくものである.このとき,一度にどの程度$\lambda_{j}$の値を動かすか,という点が問題となる.一度に大きく値を動かせばデコーディングに要する時間が短くなると考えられるものの,最適解から離れてしまう可能性もある.そこで,本論文ではラグランジュヒューリスティック\cite{haddadi97}を利用する.ラグランジュヒューリスティックは,ラグランジュ乗数を更新するとき,上界と下界の差を利用してステップサイズを調整する.また,下界を計算する際に,ヒューリスティックを利用する.上界はある反復におけるラグランジュ緩和問題の解である.冗長性制約が緩和されているため,冗長性制約付きナップサックモデルの緩和問題の最適解の目的関数値は,明らかに緩和されていない元問題の最適解の目的関数値より高い.劣勾配法によってラグランジュ乗数を更新していく過程で,ラグランジュ緩和問題の解は,制約に違反している解,すなわち実行不能解から,徐々に目的関数値を低下させながら実行可能解に近づいていく.下界はなんらかのヒューリスティックによって得られる実行可能解である.本論文では,Haddadiによる方法\cite{haddadi97}と同様に,貪欲法\cite{khuller99}を用いて実行可能解を復元する.詳細については次節で述べる.ラグランジュヒューリスティックによるデコーディングの具体的なアルゴリズムをAlgorithm1に示す.Algorithm1の基本的な手順は以下のようになる.\begin{algorithm}[b]\caption{ラグランジュヒューリスティックによるデコーディングアルゴリズム}\begin{algorithmic}[1]\STATE{$\boldsymbol{\lambda}\leftarrow{\bf0},\{\bfs}\leftarrow{\bf0},\{\bfx}\leftarrow{\bf0},\{\bfz}\leftarrow{\bf0}$}\FOR{$t=1$to$T$}\STATE{${\bfs}\leftarrow\mathit{sentence}({\bfA},\\boldsymbol{\lambda},\m,\n,\{\bfw})$}\STATE{${\bfx}\leftarrow\mathit{dpkp}(K,\{\bfl},\n,\{\bfs})$}\IF{$\mathit{score}({\bfA},m,n,{\bfx},{\bfw})\leqb_{u}$}\STATE{$b_{u}\leftarrow\mathit{score}({\bfA},m,n,{\bfx},{\bfw})$}\ENDIF\STATE{${\bfz}\leftarrow\mathit{count}({\bfA},\m,\n,\{\bfx})$}\IF{${\bfz}$violates${\bfr}$}\STATE{${\bfx}\leftarrow\mathit{heuristic}({\bfA},K,{\bfl},m,n,{\bfw})$}\IF{$\mathit{score}({\bfA},m,n,{\bfx},{\bfw})\geqb_{l}$}\STATE{$b_{l}\leftarrow\mathit{score}({\bfA},m,n,{\bfx},{\bfw})$}\STATE{${\bfx}_{l}\leftarrow{\bfx}$}\ENDIF\STATE{$\boldsymbol{\lambda}\leftarrowupdate(\alpha,\b_{l},\b_{u},\\boldsymbol{\lambda},\m,\{\bfr},\{\bfz})$}\ELSE\RETURN{${\bfx}$}\ENDIF\ENDFOR\RETURN{${\bfx}_{l}$}\end{algorithmic}\end{algorithm}\begin{enumerate}\itemラグランジュ乗数ベクトル$\boldsymbol{\lambda}$を適当な値に初期化する.\item以下の手続きを既定回数だけ繰り返す.\begin{enumerate}\item動的計画ナップサックアルゴリズムで式の最適解を得る.\itemaで得た最適解が制約を満たしているときはそれを下界とし,(3)へ.そうでなければヒューリスティックを用いて実行可能解を得る.\itembで得た実行可能解がこれまでの下界を上回るものであれば,下界を更新する.\end{enumerate}\item下界を出力して終了する.\end{enumerate}$\alpha$は$\boldsymbol{\lambda}$のステップサイズを調整するパラメータである.ベクトル${\bfs}=(s_{1},s_{2},\ldots,s_{n})$の要素$s_{i}$は文$i$の重要度をあらわす.各文の重要度は関数$\mathit{sentence}$によって計算される.関数$\mathit{dpkp}$は動的計画ナップサックアルゴリズムである.動的計画ナップサックアルゴリズムの詳細はAlgorithm2に示す.$b_{l}$と$b_{u}$はそれぞれ目的関数の下界と上界である.これらは$\boldsymbol{\lambda}$のステップサイズの調整に利用される.関数$\mathit{score}$は要約${\bfx}$の重要度を計算する.関数$\mathit{count}$は要約${\bfx}$に含まれる概念の数${\bfz}$を返す.${\bfx}_{l}$は下界$b_{l}$に対応する解である.ラグランジュ緩和問題の劣勾配ベクトル${\bfd}=(d_{1},d_{2},\ldots,d_{m})$は以下のようになる.\begin{equation}d_{j}=r_{j}-z_{j}\end{equation}ラグランジュ緩和された集合被覆問題に対するUmetaniらの更新式に基づき\cite{umetani07},ラグランジュ乗数は以下の更新式によって更新する.\begin{equation}\lambda_{j}^{new}\leftarrow\max\left(\lambda_{j}^{old}+\alpha\frac{b_{u}-b_{l}}{||{\bfd}||^{2}}(z_{j}-r_{j}),0\right)\end{equation}$\alpha$は更新幅を調整するパラメータである.更新式の基本的な考え方は,上界$b_{u}$と下界$b_{l}$の差が大きい際には更新幅を大きくしつつ,劣勾配ベクトルに従ってラグランジュ乗数を更新していくというものである.\subsection{貪欲法による実行可能解の復元}ラグランジュヒューリスティックは,実行不能解から実行可能解を何らかのヒューリスティックを用いて復元するものである.本論文では,以下の手続きで実行可能解を復元する.\begin{enumerate}\item制約に違反している概念を含む文のうち,最も重要度が低いものを要約から除去する.\item要約がまだ制約を満たさない場合は(1)へ.要約が制約を満たした場合は,要約に含まれていない文と,要約長$K$と制約を満たした要約の長さの差から,部分問題を生成し,これを貪欲法で解く.\end{enumerate}例えば,要約長が300文字であったとする.制約に違反する文を除去し,制約を満たした要約の長さが200文字だったとすると,100文字分まだ要約に文を含めることができる.そこで,まだ要約に含まれていない文を,100文字分,貪欲法\cite{khuller99}を用いて要約に含めることで,実行可能解を求める.\subsection{動的計画ナップサックアルゴリズム}ナップサックモデルのデコーディングは動的計画ナップサックアルゴリズムを用いて行う.具体的なアルゴリズムはAlgorithm2に示す.\begin{algorithm}[t]\caption{動的計画ナップサックアルゴリズム}\begin{algorithmic}[1]\STATE{${\bfx}\leftarrow{\bf0}$}\FOR{$k=0$to$K$}\STATE{$T[0][k]\leftarrow0$}\ENDFOR\FOR{$i=1$to$n$}\FOR{$k=0$to$K$}\STATE{$T[i][k]\leftarrowT[i-1][k]$}\STATE{$U[i][k]\leftarrow0$}\ENDFOR\FOR{$k=l_{i}$to$K$}\IF{$T[i-1][k-l_{i}]+s_{i}\geqT[i][k]$}\STATE{$T[i][k]\leftarrowT[i-1][k-l_{i}]+s_{i}$}\STATE{$U[i][k]\leftarrow1$}\ENDIF\ENDFOR\ENDFOR\STATE{$k\leftarrowK$}\FOR{$i=n$to$1$}\IF{$U[i][k]=1$}\STATE{$x_{i}\leftarrow1$}\STATE{$k\leftarrowk-l_{i}$}\ENDIF\ENDFOR\RETURN{${\bfx}$}\end{algorithmic}\end{algorithm}動的計画ナップサックアルゴリズムでは,$(n+1)\times(K+1)$次元の表$T$と$U$を用意し,これに計算の過程を保存していく.表$T$の要素$T[i][k]$は,文1から文$i$までが与えられており,最大要約長が$k$であったときのナップサックモデルの最適解の目的関数値を格納している.表$U$の要素$U[i][k]$は,$T[i][k]$の値を計算する際に,すなわちその時点での最適値を計算する際に文$i$を要約に利用している場合は1,そうでない場合は0を格納している.すなわち,$T[n][K]$まで計算し終わった時点で,最大要約長が$K$で文1から文$n$までが使われた場合にどの文が要約に含まれるか表$U$に格納されている.そのため,$U[n][K]$まで表を埋めたのち,$U[n][K]$に到達するまでの過程を逆にたどることで,ナップサックモデルの最適解を得ることができる. \section{実験} 本節では提案した手法の性能を評価した結果について報告する.本節では,\ref{methods}で述べる手法を用いて,\ref{corpora}で述べる文書集合を要約し,生成された要約を\ref{measures}で述べる評価手法で評価する.\ref{methods}で述べる手法が必要とするパラメータの設定については\ref{parameters}で述べる.結果とその考察については\ref{results}で述べる.\subsection{比較手法}\label{methods}以下の手法を比較した.\begin{enumerate}\item{\bfRCKM}\hspace{1zw}提案手法.冗長性制約付きナップサックモデルを整数計画ソルバーを用いてデコードしたもの.冗長性制約付きナップサックモデルの最適解における性能を示す.ソルバーは{\ttlp\_solve}\footnote{http://lpsolve.sourceforge.net/5.5/}を用いた\footnote{商用のソルバーを用いればより高速にデコードできる可能性があるが,それらは有償であるため,今回は広く利用されており無料で利用することができる{\ttlp\_solve}を用いた.}.\item{\bfRCLM-LH}\hspace{1zw}提案手法.冗長性制約付きナップサックモデルを本論文で提案するラグランジュヒューリスティックを用いてデコードしたもの.提案するデコーディングアルゴリズムによって得られる近似解の性能を示す.\item{\bfMCM}\hspace{1zw}ベースライン.最大被覆モデルをソルバーを用いてデコードしたもの.\item{\bfMCM-GR}\hspace{1zw}ベースライン.最大被覆モデルを貪欲法を用いてデコードしたもの.\item{\bfKM}\hspace{1zw}ベースライン.ナップサックモデルを動的計画ナップサックアルゴリズムでデコードしたもの.\item{\bfHUMAN}\hspace{1zw}達成しうる性能の上限を調べるため,複数の参照要約を用いて,性能の上限を求める.\ref{corpora}節で述べるコーパスのうち,レビューコーパスは1つの評価セットに対して4つの参照要約が付与されているため,参照要約同士を比較することで性能の上限を示すことが可能である.4つの参照要約があるため,それらの6つの組み合わせのうち,\ref{measures}節で述べる評価尺度ROUGEの値が最も高いものを性能の上限として採用する\footnote{値が最も高いものを利用する理由については\ref{measures}節で述べる.}.なお,\ref{corpora}節で述べるコーパスのうち,TSC-3は1つの評価セットに対して1つの参照要約しか付与されていないため,これを計算できるのはレビューのみである.\end{enumerate}{\bfRCKM-LH},{\bfMCM-GR}および{\bfKM}のデコーダはPerlで実装した.全てのプログラムはIntelXeonX5560(QuadCore)2.8~GHzCPUを2つ,64~Gバイトのメモリを搭載した計算機上で動作させた.\subsection{コーパス}\label{corpora}上の手法を以下の2種類のコーパスによって評価した.\begin{enumerate}\item{\bfTSC-3}\hspace{1zw}TSC-3コーパス\cite{hirao04}は自動要約のシェアード・タスクTextSummarizationChallenge3\footnote{http://lr-www.pi.titech.ac.jp/tsc/tsc3.html}で用いられたコーパスで,複数文書要約の評価セットを含む.要約の対象となる文書は新聞記事であり,記事は毎日新聞および読売新聞から収集されている.それぞれの評価セットは企業買収やテロなど特定のトピックに関する新聞記事から構成されている.評価セットは30セットからなる.1セットは新聞記事10記事前後からなり,1つの評価セットに含まれる記事の文字数の和は平均して約6,564文字である.評価セット全体では352記事3,587文が含まれる.それぞれの評価セットに対しては人間の作業者が短い要約と長い要約の2種類の参照要約を付与している.Hiraoらによれば,参照要約の付与に際し,作業者は要約の対象となる記事を全て読んだのち,当該記事集合にふさわしい要約を作成した\cite{hirao04}.短い要約は平均して約413文字であり,要約率\footnote{要約率は,参照要約の長さを入力文書集合の長さの和で割ったものである\protect\cite{okumura05}.例えば参照要約が400文字,入力文書集合の長さの和が8000文字である場合,要約率は$5\%=\frac{400}{8000}$となる.}にして約6\%,長い要約は平均して約801文字であり,要約率にして約12\%である\footnote{Hiraoらによれば,参照要約の作成時には作業者に対して,短い要約については要約率5\%程度の要約を,長い要約については要約率10\%程度の要約を作成するように指示を与えたとしている\cite{hirao04}.本論文で計測した値とは多少の差があるものの,5\%,10\%という値はあくまで目処として与えたものであると述べられているため,作業者はこれらの指示より多少長い要約を作成したものと思われる.}.本実験では短いものを用いて評価を行った.評価セットごとに参照要約の長さが異なるため,要約を生成する際には参照要約と同じ長さを要約長として与え要約を生成した.すなわち,本コーパスを用いた際には,平均として,約12記事からなる約6,564文字の記事集合を入力とし,約413文字の要約を生成する,要約率約6\%の要約タスクとなる.\item{\bfレビュー}\hspace{1zw}新聞記事とは異なるドメインで提案する要約モデルを評価するため,レビュー記事を用いて評価を行った.インターネット上のレビューサイトから飲食店30店舗に関するレビュー記事を収集し,これを30セットの複数文書要約の評価セットとした.1セットはレビュー記事15記事前後からなり,1つの評価セットに含まれる記事の文字数の和は平均して約2,472文字である.評価セット全体では468記事2,275文が含まれる.それぞれの評価セットに対しては4人の作業者が参照要約を付与しており,作業者は要約の対象となる記事を全て読んだのち,当該記事集合にふさわしい要約を作成した.要約長はすべて200文字を上限とした.そのため,実験において要約を生成する際には一律200文字を要約長として要約を生成した.従って,要約率は平均して8\%である.本コーパスを用いた際には,平均として,約16記事からなる約2,472文字の記事集合を入力とし,200文字の要約を生成する,要約率約8\%の要約タスクとなる.\end{enumerate}表\ref{tb:statistics}にコーパスに関する統計量をまとめておく.\begin{table}[t]\caption{評価に用いたコーパスの統計量}\label{tb:statistics}\input{03table02.txt}\end{table}\subsection{評価尺度}\label{measures}我々の提案する手法を評価するため,以下の2つの尺度を用いた.\begin{enumerate}\item{\bf要約品質}\hspace{1zw}\pagebreak要約の品質の評価には要約の自動評価尺度であるROUGE\cite{lin04}を用いた.ROUGEの亜種のうち,ROUGE-1およびROUGE-2を評価に利用した.なお,平尾らは,参照要約のROUGE値を計算する際には,文を構成するすべての単語ではなくて,内容語\footnote{名詞,動詞,形容詞および未知語.}のみを用いて計算を行った方が人間による評価と相関が高い結果が得られると報告している\cite{hirao06}.そのため,本論文でもROUGE値を計算する際には内容語のみを用いた.生成された要約を単語に分割し品詞を付与する際にはFuchiらによる形態素解析器\cite{fuchi98}を利用した.ROUGE値を算出するプログラムはLinの文献\cite{lin04}に従い独自に実装した.なお,レビューコーパスについては1セットに対して複数の参照要約が付与されているため,評価の際には,当該セットに付与されているすべての参照要約に対してROUGE値を求め,最も高いROUGE値をその要約のROUGE値とした.このROUGE値の計算方針はLinの提案によるものである\cite{lin04}.これは,ある入力文書集合に対して妥当な要約は複数存在し得ると考えられることから,参照要約の中で機械による要約にとって最も近いものとのROUGE値をもってその要約の評価とするためである\footnote{なお,別途,すべての参照要約に対するROUGE値の平均と,最も低いROUGE値も求めたが,表\ref{tb:quality}と同様の傾向を示したため,本論文では割愛する.}.\item{\bf要約速度}\hspace{1zw}要約の生成までの速度を計測した.いずれのコーパスでも,30セットすべてを要約するまでの時間を計測した.\end{enumerate}なお,要約品質の検定にはウィルコクソンの符号順位検定\cite{wilcoxon45}を用いた.多重比較となるため,全体の有意水準は0.05とした上で,$p$値の大きさに従って検定それぞれにおいて有意水準をホルム法\cite{holm79}で調整した.\subsection{パラメータ}\label{parameters}本節では要約に際して必要なパラメータの設定について述べる.以下に述べるパラメータのうち,概念重要度は全ての手法が利用する.概念冗長性は{\bfRCKM}および{\bfRCKM-LH}が利用する.ステップサイズおよびイテレーションは{\bfRCKM-LH}のみが利用する.\subsubsection{概念重要度}概念$j$およびその重要度$w_{j}$はコーパスに合わせそれぞれ以下のように設定した.\begin{enumerate}\item{\bfTSC-3}\hspace{1zw}概念$j$は内容語とし,その重み$w_{j}$はtf-idf\cite{filatova04,clarke07}に基づき,$w_{j}=tf_{j}log(\frac{N}{df_{j}})$とした.ここで,$tf_{j}$は要約の対象となる入力文書集合中での内容語$j$の出現頻度,$df_{j}$は新聞記事コーパス中で内容語$j$を含む記事の数,$N$は新聞記事コーパスに含まれる記事の総数である.新聞記事コーパスとして,2003年と2004年の毎日新聞コーパス\footnote{http://www.nichigai.co.jp/sales/corpus.html}を利用した.文を単語に分割し品詞を付与する際にはFuchiらによる形態素解析器\cite{fuchi98}を利用した.\item{\bfレビュー}\hspace{1zw}レビューを要約の対象としたため,概念$j$として評価情報を利用した.評価情報の定義とその抽出方法は西川らによるもの\cite{nishikawa13}に従った\footnote{詳細は付録に示す.}.概念$j$の重み$w_{j}$は当該評価情報の入力文書集合中での出現頻度を利用した.評価情報を文中から抽出する際,形態素解析にはFuchiらによる形態素解析器\cite{fuchi98}を,係り受け解析にはImamuraらによる係り受け解析器\cite{imamura07}を,評価表現辞書は浅野らによる評価表現辞書\cite{asano08a}をそれぞれ利用した.\end{enumerate}なお,本論文では内容語を概念としてレビューを対象に要約を実施する実験は行わない.西川らは,内容語を概念としてレビューを対象に要約を実施した場合,評価情報を用いた場合と比べ良好な結果を得ることができなかったと報告している\cite{nishikawa13}.彼らはこの結果について,レビューの要約においては焦点となる情報が評価情報であるため,それを被覆の対象としなければ良好な結果が得られないと結論づけており,これは妥当な解釈であると考えられる.同様に,評価情報を概念として新聞記事を対象に要約を実施する実験も行わない.これは,予備実験として,新聞記事に付録記載の評価情報抽出を行ったところ,ほとんど評価情報が抽出されず,従って評価情報を概念として新聞記事を対象に要約を行っても意味のある結果は期待できないと考えられるためである.新聞記事においては「〜はよかった」「〜は悪かった」というような何らかの評価に関する記述があまり存在しない.そのため評価情報は新聞記事を対象として要約を実施する際に有効な概念であるとは言えない.\subsubsection{概念冗長性}冗長性パラメータ$r_{j}$は以下の4種類を設定した.\begin{enumerate}\item{\bfON}\hspace{1zw}概念冗長性を1とする.これは,同じ概念が2回以上要約に出現することを禁じる.すなわち$r_{j}=1$である.この制約を用いた場合,同一の概念は一度しか要約中に出現することができず,そのため最大被覆問題と同様に冗長性が削減されることが期待される.最大被覆問題とこの制約を用いた冗長性制約付きナップサックモデルの差異は,前者は目的関数を利用して冗長性を削減するのに対し,後者は制約を用いて冗長性を削減することにある.\item{\bfKL}\hspace{1zw}概念$j$の入力文書集合中の出現頻度に,要約長$K$と入力文書集合のサイズ$L=\sum^{n}_{i=1}l_{i}$の比をかけたものとする.ただし,値が小数となることが多いため,その場合は値を切り上げることとした.すなわち$r_{j}=\lceiltf_{j}\frac{K}{L}\rceil$である.この制約を用いた場合,入力文書集合中での概念の出現頻度の分布が,要約長を加味した上で要約にも同程度再現されることが期待される.\item{\bfSR}\hspace{1zw}概念冗長性を,各単語の入力文書集合中での出現回数の平方根とする.{\bfKL}と同様,値が小数となることが多いが,その場合は値を切り下げることとした.これは{\bfKL}では$r_{j}$の値が1未満になることがあるのに対し,平方根を取る場合はその恐れがないためである.すなわち$r_{j}=\lfloor\sqrt{tf_{j}}\rfloor$である.この制約は{\bfKL}と異なり要約長の影響を受けない.また,{\bfKL}に比べ冗長性に寛容である.\item{\bfRF}\hspace{1zw}概念冗長性を,参照要約に含まれる概念の数とした.これは,概念冗長性が理想的に設定された場合の性能を示している.なお,レビューコーパスについては複数の参照要約が存在するため,同一の概念については複数の参照要約の平均を取り,小数となった場合は値を切り上げることとした.\end{enumerate}これらは2つのコーパスで共通である.\subsubsection{ステップサイズ}$\alpha$は最初は1とし,以降,ラグランジュ乗数がアップデートされた回数の逆数とした.すなわち,最初のアップデートの際は$\alpha$は1であり,次のアップデートの際は$\frac{1}{2}$,さらに次のアップデートの際には$\frac{1}{3}$となる.\subsubsection{イテレーション}ラグランジュヒューリスティックによるデコーディングの際にはイテレーションの回数$T$を調整することができる.イテレーションの回数は10回と100回とし,それぞれ{\bfRCKM-LH(10)}と{\bfRCKM-LH(100)}として示す.\subsection{結果と考察}\label{results}要約品質の評価を表\ref{tb:quality}に,要約時間の評価を表\ref{tb:speed}に示す.TSC-3コーパスにおける評価の結果から述べる.まず,{\bfRCKM}と{\bfMCM},{\bfKM}の差異に目を向ける.{\bfRCKM}の中では{\bfRF}が最も高いROUGE値を得ており,次いで{\bfSR}という結果となった.{\bfRF}および{\bfSR}はその最適解において{\bfMCM}を有意に上回っていた.提案するラグランジュヒューリスティックによるデコーディングを用いた場合{\bfRCKM-LH}では,イテレーション回数が10回の場合でも100回の場でも,{\bfRF}は{\bfMCM}を有意に上回っている一方,{\bfSR}は{\bfMCM}と有意な差がなかった.表\ref{tb:speed}に示すように,提案するデコーディング法はソルバーによるデコーディングと比べ高速に要約を生成できており,{\bfMCM}と同水準以上の要約を高速に生成できることがわかる.{\bfMCM}と{\bfMCM-GR}を比べると,貪欲法はソルバーに比べ高速にデコーディングを行うことができるものの,{\bfMCM-GR}の方が有意にROUGE値が低く,探索誤りが生じていることがわかる.{\bfKM}と{\bfMCM}の間に有意差はなかったものの,全体として{\bfMCM}がより高いROUGE値を示した.\begin{table}[p]\caption{要約品質の評価}\label{tb:quality}\input{03table03.txt}\end{table}\begin{table}[p]\caption{要約時間の評価}\label{tb:speed}\input{03table04.txt}\end{table}提案する要約モデル{\bfRCKM}は,冗長性パラメータを{\bfRF}あるいは{\bfSR}とした際に{\bfMCM}に比べ優れている.この理由は,参照要約は単語のレベルにおいてある程度の冗長性を持っているためである.図\ref{fg:exref}は,TSC-3コーパスに含まれる参照要約の1つである.同一の内容語はゴシック体として示してある.図\ref{fg:exref}から,明らかに参照要約は単語のレベルにおいて冗長性を持つことがわかる.\begin{figure}[b]\input{03fig01.txt}\caption{TSC-3コーパスに含まれる参照要約の1つ}\label{fg:exref}\small2回以上出現する内容語はゴシック体として示した.他の処理と同様に,単語境界および品詞の同定はFuchiらによる形態素解析器\protect\cite{fuchi98}によった.\end{figure}図\ref{fg:dist_news}はTSC-3コーパスを用いた実験における冗長性の分布である.縦軸に内容語の種類,横軸に同一の参照要約中での出現頻度をとりプロットした.点は,参照要約,\ref{parameters}節で述べた方法によって設定された冗長性パラメータ,および各手法によって実際に生成された要約における冗長性の分布を示している.例えば,TSC-3コーパスに含まれる2093種類の内容語は同一の参照要約に一度しか出現しない.一方,10種類の内容語は,同一の参照要約に10回以上出現することがある.図\ref{fg:exref}および図\ref{fg:dist_news}が示すように,ある1つの参照要約において,同一の単語が複数回出現することは何ら珍しいことではない.提案する冗長性制約付きナップサックモデル{\bfRCKM}は,冗長性パラメータを通じ,生成する要約に一定の冗長性を許容することができる.一方,最大被覆モデル{\bfMCM}は冗長性を忌避する.実際に図\ref{fg:dist_news}が示すように,{\bfMCM}が生成する要約は参照要約に比べ冗長性が低い.そのため,図\ref{fg:exref}のように1つの参照要約において同一の単語が複数回出現するという現象を十分に捉えることができない.それに対し,ナップサックモデル{\bfKM}が生成する要約は高い冗長性を持つ.図\ref{fg:dist_news}が示すように,要約中に4回以上出現する単語の種類が参照要約に比べて多く,特に10回以上出現する単語が42種類存在している.このように過度に冗長な要約を生成する性質は複数文書要約にとっては好ましいものではない.\begin{figure}[t]\begin{center}\includegraphics{20-4ia3f2.eps}\end{center}\caption{TSC-3コーパスを用いた実験における冗長性の分布}\label{fg:dist_news}\small縦軸に内容語の種類,横軸に同一の参照要約中での出現頻度をとりプロットした.縦軸は対数スケールとなっていることに注意されたい.凡例のReferenceは,TSC-3コーパスの参照要約に含まれる内容語の冗長性の分布である.すなわち,TSC-3コーパスの参照要約に含まれる内容語のうち,2,093種類は同一の参照要約に1回しか出現しないが,10種類は,同一の参照要約に10回以上出現することがある.凡例のConst-ON,Const-KLおよびConst-SRはそれぞれ\ref{parameters}節で述べた冗長性パラメータ{\bfON},{\bfKL}および{\bfSR}に従って計算された概念冗長性の分布である.例えば,{\bfSR}は2,159種類の単語に同一の要約中において2回まで出現することを許している.凡例のSumm-ON,Summ-KL,Summ-SR,Summ-RF,Summ-MCMおよびSumm-KMはそれぞれ実際に生成された要約における冗長性の分布である.Summ-ON,Summ-KL,Summ-SRおよびSumm-RFは冗長性制約付きナップサックモデル{\bfRCKM}にそれぞれ冗長性パラメータ{\bfON},{\bfKL},{\bfSR}および{\bfRF}を与え,ソルバーを用いてデコードし生成された要約の冗長性である.Summ-MCMは最大被覆モデル{\bfMCM}をソルバーを用いてデコードし生成された要約の冗長性である.Summ-KMはナップサックモデルを動的計画ナップサックアルゴリズムを用いてデコードし生成された要約の冗長性である.\end{figure}図\ref{fg:dist_news}を見ると,冗長性パラメータ{\bfSR}は参照要約の冗長性に近い冗長性を有する要約を実現できている.全体的な傾向として,ナップサックモデルでは,要約中にある回数だけ出現する単語の種類は左から右に向かってなだらかに減少していく.これは,要約中に1度しか出現しない概念の種類と,何度も出現する概念の種類にあまり差がないことを示しており,すなわち,何度も出現する概念の種類が相対的に多いことを示している.一方,最大被覆モデルは左から右に向かって急峻な勾配で種類が減少していく.これは,要約中に1度しか出現しない概念の種類が相対的に多いことを示している.参照要約の冗長性は,これらナップサックモデルと最大被覆モデルの中間を取るように推移しており,冗長性パラメータ{\bfSR}によって生成された要約の冗長性も,参照要約の冗長性に近い位置で推移している.このように参照要約に近い冗長性を再現できたため,{\bfSR}は良好な性能を示すことができたものと考えられる.ナップサックモデルのような過度の冗長性は複数文書要約において問題となる一方,同一の単語,あるいは関連する単語が前後の文に出現する性質は,自動要約の分野においてLexicalchainと呼ばれており,重要文抽出の際の重要な手がかりとして利用されている\cite{barzilay97,clarke07}.{\bfRCKM}はこの性質を捉えることができたということもできよう.テキスト一貫性に関する研究においても,人手によって書かれたテキストにおいて同一の単語が同一のテキストに複数回出現するという性質は利用されている.テキストの一貫性を評価する手法の1つであるEntitygridは,連続する2つの文における,単語の意味役割の変化を特徴量として用いており\cite{barzilay05,barzilay08,yokono10},同一の単語が同一のテキストに複数回出現するという仮定を置いている.参照要約は人手によって書かれたものであるため,テキスト一貫性の観点からこの性質を持っていると考えることができる.このことから,冗長性パラメータ${\bfr}$はテキスト一貫性の観点から設定することもできよう.次に,冗長性パラメータについて述べる.{\bfRCKM}の中では{\bfRF}が最も良好な性能を示し,ついで{\bfSR},{\bfKL},{\bfON}となった.参照要約の冗長性を模倣した場合が最良の結果を得たことから,冗長性の設定は{\bfRCKM}にとって重要であると言える.冗長性パラメータ${\bfr}$を正確に設定するためには,入力文書集合と参照要約の組から回帰モデルを構築し,各単語の参照要約における適切な出現頻度を予測することも考えられよう.{\bfON}に目を向けると,{\bfON}の生成した要約の品質は{\bfSR}や{\bfKL}に比べて著しく悪い.これは,上に述べたように,テキスト一貫性の観点から説明できる.同一の単語は一度しか要約に出現できないという{\bfON}の制約は,上に述べた性質を持ったテキストを生成することを許さない.このため一貫性を欠いたテキストを生成してしまい,これは人間による要約を模倣するという観点からは大きな問題がある.{\bfSR}と{\bfKL}を比較すると,有意に{\bfSR}のROUGE値が高かった.図\ref{fg:dist_news}のConst-KLが示すように,{\bfKL}による冗長性の制約は参照要約の冗長性をうまく模倣しているものの,2回以上の出現を許す単語の種類が参照要約に比べて少ない.TSC-3コーパスの評価セットの要約率は平均して6\%前後であるため,{\bfKL}は要約長に影響され冗長性について厳しい制約を要約に課す.このため,Summ-KLが示すように,要約に十分な冗長性を許すことができず,{\bfSR}に比べてROUGE値において劣後したものと考えられる.一方,Const-SRは全体的に高い冗長性を許すものとなっているが,実際に生成された要約の冗長性Summ-SRは参照要約の冗長性に近い.{\bfSR}によって生成された要約を確認すると,高い冗長性の原因となり要約の品質の低下を招く概念の冗長性を抑制しつつ,概念重要度に従って他の概念を要約に組み込んでおり,これが良好なROUGE値を得た理由と考えられる.次にレビューにおける評価の結果について述べる.{\bfRCKM}と{\bfMCM},{\bfKM}の差異について目を向けると,{\bfKM}は{\bfMCM}と比べ有意にROUGE値が低かった.TSC-3での評価と異なり,{\bfMCM}と{\bfMCM-GR}の間に有意な差はなかった.また,{\bfMCM}と{\bfRCKM}の全ての手法の間にも有意な差はなかった.{\bfRCKM}の中でも,冗長性パラメータによる有意な差はなかった.一方,TSC-3での評価と同様に,表\ref{tb:speed}が示すように提案するデコーディング法はソルバーと比べ高速に要約を生成できており,{\bfMCM}と同水準の要約を高速に生成できることがわかる.{\bfHUMAN}に対してはいずれの手法も及ばなかった.これには2つの理由があると考えられる.1つは概念重要度の設定である.今回は要約対象の文書集合中での評価情報の頻度を概念重要度として用いたが,参照要約を用いて概念重要度を学習することでより良好なROUGE値を得られる可能性がある.もう1つは文の選択のみで要約を作成することの限界である.前述したように,レビューコーパスの参照要約は人間によって自由に記述されているため,文の選択だけでは参照要約と同水準の要約に到達することは難しいと考えられる.この点の解決のためには,文短縮\cite{hirao09a}など,文を書き換える処理を要約の過程に加える必要があろう.TSC-3とレビューを比較すると,前者においては{\bfRCKM}が{\bfMCM}を上回る性能を持つものの,後者においてはそれらの間に差がない.これらは新聞記事の要約とレビュー記事の要約の差異を端的に表している.前者は単語を被覆の対象としているため,上に示したように,1つの要約に複数の単語が含まれることを許すことによって,より高いROUGE値を得ることができる.一方,後者が被覆の対象とするものは評価情報であり,ある特定の評価情報は1つの要約に1つだけ入っていれば十分である.これは,TSC-3においては劣った要約品質を示した{\bfON}が,レビューにおいては他の手法と同水準の要約品質を示していることからもわかる.図\ref{fg:dist_review}は,レビューコーパスに含まれる評価情報を,縦軸に評価情報の種類,横軸に同一の参照要約中での出現頻度をとりプロットしたものである.図\ref{fg:dist_news}と比較するとその差は明らかであり,レビューでは参照要約においてある特定の評価情報は1度しか出現しないことがほとんどである.最後に,提案したラグランジュヒューリスティックによる近似解法の近似精度についても述べておく.近似精度を表\ref{tb:approximation}に示す.数値は,ソルバーによって得られた最適解の目的関数値を100としたときの,近似解法による解の目的関数値を百分率で示したものである.計算にあたっては,いずれも冗長性パラメータは{\bfSR}とし,30セットそれぞれの近似精度の平均を取った.表\ref{tb:approximation}が示すように,提案する近似解法は良好な近似精度を持つことがわかる.\begin{figure}[p]\begin{center}\includegraphics{20-4ia3f3.eps}\end{center}\caption{レビューコーパスを用いた実験における冗長性の分布}\label{fg:dist_review}\small縦軸に評価情報の種類,横軸に同一の参照要約中での出現頻度をとりプロットした.縦軸は対数スケールとなっていることに注意されたい.凡例のReferenceは,レビューコーパスの参照要約に含まれる内容語の冗長性の分布である.すなわち,レビューコーパスの参照要約に含まれる内容語のうち,509種類は同一の参照要約に1回だけ出現し,6種類は2回,1種類は3回出現することがある.凡例のConst-ON,Const-KLおよびConst-SRはそれぞれ\ref{parameters}節で述べた冗長性パラメータ{\bfON},{\bfKL}および{\bfSR}に従って計算された概念冗長性の分布である.凡例のSumm-ON,Summ-KL,Summ-SR,Summ-RF,Summ-MCMおよびSumm-KMはそれぞれ実際に生成された要約における冗長性の分布である.Summ-ON,Summ-KL,Summ-SRおよびSumm-RFは冗長性制約付きナップサックモデル{\bfRCKM}にそれぞれ冗長性パラメータ{\bfON},{\bfKL},{\bfSR}および{\bfRF}を与え,ソルバーを用いてデコードし生成された要約の冗長性である.Summ-MCMは最大被覆モデル{\bfMCM}をソルバーを用いてデコードし生成された要約の冗長性である.Summ-KMはナップサックモデルを動的計画ナップサックアルゴリズムを用いてデコードし生成された要約の冗長性である.\end{figure}\begin{table}[p]\caption{近似精度}\label{tb:approximation}\input{03table05.txt}\end{table} \section{まとめ} 本論文では,複数文書要約において重要なモデルである最大被覆モデルのデコーディングを高速化することを企図し,要約に含めるべき単語数を直接制御する冗長性制約付きナップサック問題に基づく要約モデルを提案した.本論文の新規性および貢献を以下にまとめる.\begin{itemize}\item冗長性制約付きナップサック問題に基づく要約モデルは,その最適解において,最大被覆問題を用いた要約モデルに対して,ROUGE\cite{lin04}において同等以上の性能を持つことを示した.\itemラグランジュヒューリスティクスに基づくデコーディング法によって得られる近似解は,最大被覆問題の最適解とROUGEにおいて同等であることを示した.\item提案手法のデコーディング速度は,整数計画ソルバーによる最大被覆問題のデコーディング速度より100倍以上高速であることを示した.\end{itemize}今後の課題としては,上で述べたように冗長性パラメータをテキスト一貫性の観点から推定することを検討している.また,冗長性パラメータを入力文書集合と参照要約の組から推定することも検討している.\acknowledgment本論文の執筆にあたり,NTTコミュニケーション科学基礎研究所の西野正彬研究員より有益なご助言を頂戴した.記して感謝する.また,査読者および担当編集委員の方々,編集委員会より様々な有益なご助言を頂戴した.記して感謝する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅野\JBA平野\JBA小林\JBA松尾}{浅野\Jetal}{2008}]{asano08a}浅野久子\JBA平野徹\JBA小林のぞみ\JBA松尾義博\BBOP2008\BBCP.\newblockWeb上の口コミを分析する評判情報インデクシング技術.\\newblock\Jem{NTT技術ジャーナル},{\Bbf20}(6),\mbox{\BPGS\12--15}.\bibitem[\protect\BCAY{Barzilay\BBA\Elhadad}{Barzilay\BBA\Elhadad}{1997}]{barzilay97}Barzilay,R.\BBACOMMA\\BBA\Elhadad,M.\BBOP1997\BBCP.\newblock\BBOQUsingLexicalChainsforTextSummarization.\BBCQ\\newblockIn{\BemProceedingsoftheIntelligentScalableTextSummarizationWorkshop(ISTS)},\mbox{\BPGS\10--17}.\bibitem[\protect\BCAY{Barzilay\BBA\Lapata}{Barzilay\BBA\Lapata}{2005}]{barzilay05}Barzilay,R.\BBACOMMA\\BBA\Lapata,M.\BBOP2005\BBCP.\newblock\BBOQModelingLocalCoherence:AnEntity-basedApproach.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingonAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\141--148}.\bibitem[\protect\BCAY{Barzilay\BBA\Lapata}{Barzilay\BBA\Lapata}{2008}]{barzilay08}Barzilay,R.\BBACOMMA\\BBA\Lapata,M.\BBOP2008\BBCP.\newblock\BBOQModelingLocalCoherence:AnEntity-basedApproach.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf34}(1),\mbox{\BPGS\1--34}.\bibitem[\protect\BCAY{Clarke\BBA\Lapata}{Clarke\BBA\Lapata}{2007}]{clarke07}Clarke,J.\BBACOMMA\\BBA\Lapata,M.\BBOP2007\BBCP.\newblock\BBOQModellingCompressionwithDiscourseConstraints.\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL)},\mbox{\BPGS\1--11}.\bibitem[\protect\BCAY{Filatova\BBA\Hatzivassiloglou}{Filatova\BBA\Hatzivassiloglou}{2004}]{filatova04}Filatova,E.\BBACOMMA\\BBA\Hatzivassiloglou,V.\BBOP2004\BBCP.\newblock\BBOQAFormalModelforInformationSelectioninMulti-SentenceTextExtraction.\BBCQ\\newblockIn{\BemProceedingsofColing2004},\mbox{\BPGS\397--403}.\bibitem[\protect\BCAY{Fuchi\BBA\Takagi}{Fuchi\BBA\Takagi}{1998}]{fuchi98}Fuchi,T.\BBACOMMA\\BBA\Takagi,S.\BBOP1998\BBCP.\newblock\BBOQJapaneseMorphologicalAnalyzerUsingWordCo-occurrence:JTAG.\BBCQ\\newblockIn{\BemProceedingsofthe36thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe17thInternationalConferenceonComputationalLinguistics(ACL-COLING)},\mbox{\BPGS\409--413}.\bibitem[\protect\BCAY{Gillick\BBA\Favre}{Gillick\BBA\Favre}{2009}]{gillick09}Gillick,D.\BBACOMMA\\BBA\Favre,B.\BBOP2009\BBCP.\newblock\BBOQAScalableGlobalModelforSummarization.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponIntegerLinearProgrammingforNaturalLanguageProcessing},\mbox{\BPGS\10--18}.\bibitem[\protect\BCAY{Haddadi}{Haddadi}{1997}]{haddadi97}Haddadi,S.\BBOP1997\BBCP.\newblock\BBOQSimpleLagrangianHeuristicfortheSetCoveringProblem.\BBCQ\\newblock{\BemEuropeanJournalofOperationalResearch},{\Bbf97},\mbox{\BPGS\200--204}.\bibitem[\protect\BCAY{Higashinaka,Minami,Nishikawa,Dohsaka,Meguro,Kobashikawa,\mbox{Masataki},Yoshioka,Takahashi,\BBA\Kikui}{Higashinakaet~al.}{2010}]{higashinaka10b}Higashinaka,R.,Minami,Y.,Nishikawa,H.,Dohsaka,K.,Meguro,T.,Kobashikawa,S.,\mbox{Masataki},H.,Yoshioka,O.,Takahashi,S.,\BBA\Kikui,G.\BBOP2010\BBCP.\newblock\BBOQImprovingHMM-basedExtractiveSummarizationforMulti-DomainContactCenterDialogues.\BBCQ\\newblockIn{\BemProceedingsoftheIEEEWorkshoponSpokenLanguageTechnology(SLT)},\mbox{\BPGS\61--66}.\bibitem[\protect\BCAY{平尾\JBA奥村\JBA磯崎}{平尾\Jetal}{2006}]{hirao06}平尾努\JBA奥村学\JBA磯崎秀樹\BBOP2006\BBCP.\newblock拡張ストリングカーネルを用いた要約システム自動評価法.\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(6),\mbox{\BPGS\1753--1766}.\bibitem[\protect\BCAY{平尾\JBA鈴木\JBA磯崎}{平尾\Jetal}{2009a}]{hirao09a}平尾努\JBA鈴木潤\JBA磯崎秀樹\BBOP2009a\BBCP.\newblock構文情報に依存しない文短縮手法.\\newblock\Jem{情報処理学会論文誌:データベース},{\Bbf2}(1),\mbox{\BPGS\1--9}.\bibitem[\protect\BCAY{平尾\JBA鈴木\JBA磯崎}{平尾\Jetal}{2009b}]{hirao09b}平尾努\JBA鈴木潤\JBA磯崎秀樹\BBOP2009b\BBCP.\newblock最適化問題としての文書要約.\\newblock\Jem{人工知能学会論文誌},{\Bbf24}(2),\mbox{\BPGS\223--231}.\bibitem[\protect\BCAY{Hirao,Fukushima,Okumura,Nobata,\BBA\Nanba}{Hiraoet~al.}{2004}]{hirao04}Hirao,T.,Fukushima,T.,Okumura,M.,Nobata,C.,\BBA\Nanba,H.\BBOP2004\BBCP.\newblock\BBOQCorpusandEvaluationMeasuresforMultipleDocumentSummarizationwithMultipleSources.\BBCQ\\newblockIn{\BemProceedingsofColing2004},\mbox{\BPGS\446--452}.\bibitem[\protect\BCAY{Holm}{Holm}{1979}]{holm79}Holm,S.\BBOP1979\BBCP.\newblock\BBOQASimpleSequentiallyRejectiveMultipleTestProcedure.\BBCQ\\newblock{\BemScandinavianJournalofStatistics},{\Bbf6}(2),\mbox{\BPGS\65--70}.\bibitem[\protect\BCAY{Imamura,Kikui,\BBA\Yasuda}{Imamuraet~al.}{2007}]{imamura07}Imamura,K.,Kikui,G.,\BBA\Yasuda,N.\BBOP2007\BBCP.\newblock\BBOQJapaneseDependencyParsingUsingSequentialLabelingforSemi-spokenLanguage.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguisticsCompanionVolumeProceedingsoftheDemoandPosterSessions},\mbox{\BPGS\225--228}.\bibitem[\protect\BCAY{Jelinek}{Jelinek}{1969}]{jelinek69}Jelinek,F.\BBOP1969\BBCP.\newblock\BBOQFastSequentialDecodingAlgorithmUsingaStack.\BBCQ\\newblock{\BemIBMJournalofResearchandDevelopment},{\Bbf13}(6),\mbox{\BPGS\675--685}.\bibitem[\protect\BCAY{Khuller,Moss,\BBA\Naor}{Khulleret~al.}{1999}]{khuller99}Khuller,S.,Moss,A.,\BBA\Naor,J.\BBOP1999\BBCP.\newblock\BBOQTheBudgetedMaximumCoverageProblem.\BBCQ\\newblock{\BemInformationProcessingLetters},{\Bbf70}(1),\mbox{\BPGS\39--45}.\bibitem[\protect\BCAY{Korte\BBA\Vygen}{Korte\BBA\Vygen}{2008}]{korte08}Korte,B.\BBACOMMA\\BBA\Vygen,J.\BBOP2008\BBCP.\newblock{\BemCombinatorialOptimization\/}(3rd\BEd).\newblockSpringer-Verlag.\bibitem[\protect\BCAY{Lin}{Lin}{2004}]{lin04}Lin,C.-Y.\BBOP2004\BBCP.\newblock\BBOQROUGE:APackageforAutomaticEvaluationofSummaries.\BBCQ\\newblockIn{\BemProceedingsofACLWorkshopTextSummarizationBranchesOut},\mbox{\BPGS\74--81}.\bibitem[\protect\BCAY{McDonald}{McDonald}{2007}]{mcdonald07}McDonald,R.\BBOP2007\BBCP.\newblock\BBOQAStudyofGlobalInferenceAlgorithmsinMulti-documentSummarization.\BBCQ\\newblockIn{\BemProceedingsofthe29thEuropeanConferenceonInformationRetrieval(ECIR)},\mbox{\BPGS\557--564}.\bibitem[\protect\BCAY{西川\JBA長谷川\JBA松尾\JBA菊井}{西川\Jetal}{2013}]{nishikawa13}西川仁\JBA長谷川隆明\JBA松尾義博\JBA菊井玄一郎\BBOP2013\BBCP.\newblock文の選択と順序付けを同時に行う評価文書要約モデル.\\newblock\Jem{人工知能学会論文誌},{\Bbf28}(1),\mbox{\BPGS\88--99}.\bibitem[\protect\BCAY{奥村\JBA難波}{奥村\JBA難波}{2005}]{okumura05}奥村学\JBA難波英嗣\BBOP2005\BBCP.\newblock\Jem{テキスト自動要約}.\newblockオーム社.\bibitem[\protect\BCAY{高村\JBA奥村}{高村\JBA奥村}{2008}]{takamura08}高村大也\JBA奥村学\BBOP2008\BBCP.\newblock最大被覆問題とその変種による文書要約モデル.\\newblock\Jem{人工知能学会論文誌},{\Bbf23}(6),\mbox{\BPGS\505--513}.\bibitem[\protect\BCAY{Umetani\BBA\Yagiura}{Umetani\BBA\Yagiura}{2007}]{umetani07}Umetani,S.\BBACOMMA\\BBA\Yagiura,M.\BBOP2007\BBCP.\newblock\BBOQRelaxationHeuristicsfortheSetCoveringProblem.\BBCQ\\newblock{\BemJournaloftheOperationsResearchSocietyofJapan},{\Bbf50},\mbox{\BPGS\350--375}.\bibitem[\protect\BCAY{Wilcoxon}{Wilcoxon}{1945}]{wilcoxon45}Wilcoxon,F.\BBOP1945\BBCP.\newblock\BBOQIndividualComparisonsbyRankingMethods.\BBCQ\\newblock{\BemBiometricsBulletin},{\Bbf1}(6),\mbox{\BPGS\80--83}.\bibitem[\protect\BCAY{Yamada,Kataoka,\BBA\Watanabe}{Yamadaet~al.}{2002}]{yamada02}Yamada,T.,Kataoka,S.,\BBA\Watanabe,K.\BBOP2002\BBCP.\newblock\BBOQHeuristicandExactAlgorithmsfortheDisjunctivelyConstrainedKnapsackProblem.\BBCQ\\newblock{\BemJournalofInformationProcessing},{\Bbf43}(9),\mbox{\BPGS\2864--2870}.\bibitem[\protect\BCAY{Yih,Goodman,Vanderwende,\BBA\Suzuki}{Yihet~al.}{2007}]{yih07}Yih,W.-t.,Goodman,J.,Vanderwende,L.,\BBA\Suzuki,H.\BBOP2007\BBCP.\newblock\BBOQMulti-documentSummarizationbyMaximizingInformativeContent-words.\BBCQ\\newblockIn{\BemIJCAI'07:Proceedingsofthe20thinternationaljointconferenceonArtificalintelligence},\mbox{\BPGS\1776--1782}.\bibitem[\protect\BCAY{横野\JBA奥村}{横野\JBA奥村}{2010}]{yokono10}横野光\JBA奥村学\BBOP2010\BBCP.\newblockテキスト結束性を考慮したentitygridに基づく局所的一貫性モデル.\\newblock\Jem{自然言語処理},{\Bbf17}(1),\mbox{\BPGS\161--182}.\end{thebibliography}\appendix \section{評価情報の抽出方法} まず,評価情報について述べる.西川らの提案\cite{nishikawa13}と同様に,本論文では,評価情報を評価属性$\mathit{aspect}$と評価極性$\mathit{polarity}\in\{-1,0,1\}$の組$e=(\mathit{aspect},\mathit{polarity})$として考える.評価属性は,何らかの対象が評価される際の観点を示す.評価極性は,対象が評価属性に関してポジティブな評価をされているときに$1$,ネガティブな評価をされているときに$-1$,どちらとも言えないときに$0$の3値を取るものとする.一例として,「このデジタルカメラは画質がよい」という表現を考える.この表現の評価属性は「画質」である.また,評価表現「よい」はポジティブな評価であることから,評価極性は$1$となる.そのため,この表現から評価情報$e=(\text{画質},1)$が得られる.評価情報は以下のように抽出する.\begin{enumerate}\item文に係り受け解析を行う.\item評価表現とその評価極性の組を格納した辞書(評価表現辞書)と係り受け解析の結果を照合し,評価表現とその評価極性を得る.\item係り受け木で,評価表現に係っている名詞を評価属性とする.\item得られた評価属性と評価極性を出力する.\end{enumerate}\begin{biography}\bioauthor{西川仁}{2006年慶應義塾大学総合政策学部卒業.2008年同大学大学院政策・メディア研究科修士課程修了.同年日本電信電話株式会社入社.現在NTTメディアインテリジェンス研究所研究員.2012年より奈良先端科学技術大学大学院博士後期課程在学中.自然言語処理の研究開発に従事.言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{平尾努}{1995年関西大学工学部電気工学科卒業.1997年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年株式会社NTTデータ入社.2000年よりNTTコミュニケーション科学基礎研究所に所属.博士(工学).自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL各会員.}\bioauthor{牧野俊朗}{1987年東京大学工学部電子工学科卒業,1992年同大学院博士課程修了.同年日本電信電話株式会社入社.現在NTTメディアインテリジェンス研究所主幹研究員.博士(工学).知識獲得,推論手法,自然言語処理などに関する研究開発に従事.}\bioauthor{松尾義博}{1988年大阪大学理学部物理学科卒業.1990年同大学大学院研究科博士前期課程修了.同年日本電信電話株式会社入社.現在NTTメディアインテリジェンス研究所音声・言語基盤技術グループリーダ.機械翻訳,自然言語処理の研究に従事.言語処理学会,情報処理学会各会員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒業.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年財団法人新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.専門は自然言語処理.言語処理学会,情報処理学会,人工知能学会,認知科学会,AAAI,ACL,ACM各会員.情報処理学会フェロー.ACLFellow.}\end{biography}\biodate\end{document}
V07N01-01
\section{はじめに} まず,言い間違いの原因について考察してみる.フロイト\cite{freud1917a}は言い間違いの原因として身体的理由と精神的理由を挙げている.フロイトは身体的理由として,\begin{enumerate}\item気分が悪い・疲れ気味である\itemあがっている\item注意が他にそれている\end{enumerate}\noindentを挙げている.1は確かに身体的理由であるが,2と3はむしろその場の精神的理由である.フロイトが言いたいことは,確かに上記のような身体的理由があるにしろ,言い間違いが生じている時は必ず何らかの深層心理的・無意識的理由があるということである.フロイトは深層心理的・無意識的理由のない言い間違いはありえない,つまり偶然生じる言い間違いはあり得ないと断言している.さらにフロイトは言い間違いで探索すべき概念の範囲として,似た言葉(発音・言語類似・言語連想)と反対の意味の言葉を挙げている.しかしながら,あまりよく知らない単語であったり,関心が薄い単語であれば言い間違えることが考えられる.また,ラカンの流れを汲むNasioは,無意識は相互作用であり,コミュニケーションあるいは精神分析の中でしか無意識は存在しないと言っている\cite{nasio1995a}.これは精神分析者が被精神分析者の無意識を被精神分析者に示し,理解させ,相互に了解しながら精神分析が進んでいくということを意味しているものと思われる.その無意識の兆候の一つとして挙げられるのが言い間違いである.つまり言い間違いのすべてが無意識を顕現化しているものではない.このような無意識を第三者が観察することで見い出すことは可能であろうか?もし可能であれば,会議支援につながる.会議参加者が意識的には気づいていないが無意識的に重要だと思っていることを会議へフィードバックすることができるからである.しかるに言い間違いは無意識の兆候を示しているのであるから,言い間違いを調べることによって会議支援ができることが期待できる.しかし,前述のような精神分析的方法は分析者の解釈がどうしても必要であり,かなりの能力が必要となり,誰にでもできるというわけにはいかない.しかも,その解釈にはかなり主観的要素がつきまとう.実際の言い間違いの利用方法には,\begin{enumerate}\item解釈しない(客観的)\item解釈する(主観的)\end{enumerate}\noindentの二種類が考えられる.前者は言い間違えた事実だけを客観的に使う方法であり,後者は言い間違いを解釈して使う方法である.我々は,解釈には分析者にかなりの能力が必要であり,利用の条件が厳しくなり,また,分析者の主観性が強く現れすぎて,結果が恣意的になると考え,前者の方法を採用する.言い間違いに関する用語を定義しておく.言い間違いにはいわゆる言い間違い,言い淀み,言い直しなどが含まれる.本論文では,言い淀みとは不要な語句(感動詞を含む)が挿入された発話を指すことにし,言い直しとは途中で発言が中断され別の語句に発話し直したことを指すことにし,言い間違いとは言い淀み・言い直し以外の言い間違いのことを指すことにする.ソフトウエアの要求獲得会議のコーパスから言い間違いの例を挙げると,\begin{verbatim}言い淀み:「電話で何だけ,留守番電話みたいに」言い直し:「たとえば何らかのシステムが出て,出たとしても」言い間違い:「自分の手帳でやってや書くでしょう」\end{verbatim}\noindentのようになる.なお,言い直しの例で,「出て」を言い直す前の単語,「出た」を言い直した後の単語と呼ぶことにする.言い直し以外の言い間違いを利用するためにはどうしても解釈する必要が出てくる.我々は客観的に分析するという観点から,主として,言い直しに限って分析を進める.さらに言い直しは,客観的に判断できる,形態論的な観点から,\begin{enumerate}\item\label{どの文法単位の言い直しか?}どの文法単位の言い直しか?\begin{enumerate}\item\label{単語レベルの言い直し}単語レベルの言い直し\item\label{文節レベル以上の言い直し}文節レベル以上の言い直し\end{enumerate}\item\label{言い直しの間に他の発話が入っているか?}言い直しの間に他の発話が入っているか?\begin{enumerate}\item\label{直後の言い直し}直後の言い直し\item\label{他の発話が入った言い直し}他の発話が入った言い直し\end{enumerate}\end{enumerate}\noindentに分類される.もちろん,\ref{どの文法単位の言い直しか?}と\ref{言い直しの間に他の発話が入っているか?}の間には重複があり得るので,全体では四通りに分類できる.それぞれ,単独の場合の例を,実際の発話から挙げておく.まず,\ref{単語レベルの言い直し}の例としては,\begin{quote}あ,メ,電話の取り次ぎってことね.\end{quote}\noindentが挙げられる.この例は,文脈から「メモ」を「電話の取り次ぎ」に言い直したことがわかる.次に,\ref{文節レベル以上の言い直し}の例としては,\begin{quote}離席の,リフレッシュルームに電話番号はないわけだから,\end{quote}\noindentが挙げられる.この例は,「離席の」という名詞と格助詞からなる文節を「リフレッシュルームに」に言い直している.このように,\ref{単語レベルの言い直し}と\ref{文節レベル以上の言い直し}との違いは,言い直す前の語句が単語か文節かの違いである.次に,\ref{直後の言い直し}の例としては,先ほどの,\begin{quote}あ,メ,電話の取り次ぎってことね.\end{quote}\noindentが挙げられる.また,\ref{他の発話が入った言い直し}の例としては,\begin{quote}ファッ……だからE−mailからFAXは簡単だよね.\end{quote}\noindentが挙げられる.この例では,「ファックス」が「E−mail」に言い直され,両方の語句の間に「だから」が挿入されている.このように,\ref{直後の言い直し}と\ref{他の発話が入った言い直し}の違いは,言い直された語句の間に他の語句が挿入されたかどうかの違いによる.前述のように,言い直しのすべてが無意識の兆候になっているかどうかは若干の疑念がある.そこで本論文では,第2節で,言い直す前の単語と言い直した後の単語のどちらにより関心があるかを調べる.次に,第3節で,言い直しをソフトウエアの要求獲得に使う考え方について述べる.次に,第4節で,言い直しを利用した,要求獲得方法論について述べる.第5節では,本要求獲得方法論を例題を挙げて説明する.第6節では,全体のまとめと今後の課題について述べる. \section{言い直しと関心の高さ} 言い直す前の単語と言い直した後の単語のどちらにより関心が高いかを調べるために,次のような実験を行なった.まず,実験に先だって,会議を行なった.会議の議題は本研究所の在席管理・会議室予約システムを取り上げた.会議は,コーディネータ1名(実験を行なうグループから選出した),マネージャー1名(実際の研究所の部長であり,予算の権限を持っている),開発者役の研究員1名(いい仕様書ができれば,彼がソフトウェア外注を使ってシステムの構築に当たることになる),書記1名(事務処理を業務とする者),研究員3名(実際に要求を出してもらう者)の計7名を会議の参加者とした.また,分析を効率良く進めるために,先のコーディネータの他に,議事録をとる人,話題の項目を書き出す人,機器の操作を行なうものの計4人を置いた.会議終了後,オーディオ・テープとビデオテープを用いて,発話の書き起こしを行なった.この書き起こされたものを以後,コーパスと呼ぶ.実験は二回目の会議が終了した後に行なった.まず,言い直しの中で,体言(句)の言い直しに絞った.なぜなら,それ以上(例えば,文の言い直し),それ以外のもの(例えば,用言(句)の言い直し)は解釈に曖昧性が大きいからである.さらに,その中でも,同じ単語の繰り返しなどではない,二つの言葉の差異が適度に大きい言い直しを抽出した.図\ref{questionnaire3}のようなフォーマットでアンケートを行なった.項目内の順番は乱数で適度に替えた.例えば,2では,実際のコーパスでの出現順に,言い直す前の単語が「メモ」,言い直した後の単語が「電話の取り次ぎ」となっている.一方,3では,実際には「在席」を「出社」に言い直したのだが,アンケートでの順番は「出社」,「在席」の順番になっている.この変化はいつも同じ側が来ることを被験者に意識させないためである.\begin{figure*}[t]\begin{center}\begin{tabular}{|r|r|r|}\multicolumn{3}{p{9.5cm}}{今回のシステムのことを念頭においたうえで,次の二つの概念のうちでより(関心の深い方/望ましい方)を丸で囲んで下さい.}\\\hline1&在席&出張\\\hline2&メモ&電話の取り次ぎ\\\hline3&コンピュータ&マシーン\\\hline4&机&ドア\\\hline5&出社&在席\\\hline6&ファックス&E-mail\\\hline7&いるかいないか&外出\\\hline8&スクリーニング&フィルタリング\\\hline9&出社&在席\\\hline10&離席&リフレッシュルーム\\\hline11&翌日&朝\\\hline12&サービス出社&サービス残業\\\hline13&在席&離席\\\hline14&一人&依田さん\\\hline15&退社&出張\\\hline16&リセット&リフレッシュ\\\hline17&パージング&認識\\\hline18&キーボード&キャラクタ\\\hline19&故意に&間違って\\\hline20&退社&在席\\\hline\end{tabular}\caption{アンケートのフォーマット}\ecaption{Theformatofthequestionnaire}\label{questionnaire3}\end{center}\end{figure*}1と20は,実際のコーパスの中には現れなかったものである.これは,初頭効果と最終効果をなくすためである.また,4も実際のコーパスの中には現れなかったものである.1と20を入れた理由にもなるが,言い直し以外のものを混入させ,被験者に何を測定しているかをわかりにくくするためである.さらに,5と9は同じ項目を聞いているが,これも,被験者に何を測定しているかをわかりにくくするためである.\begin{table*}\begin{scriptsize}\begin{tabular}{|r|r||r|r|r||r|r|r|r|r|r|}\hline項番&A&B&(a)&(b)&V&Y&X&W&Z&T\\\hline1&メモ&電話の取り次ぎ&○&○&B&B&B\hspace{-3mm}$\bigcirc$&B&B&A\\\hline2&コンピュータ&マシーン&○&○&A&A&B\hspace{-3mm}$\bigcirc$&A&A&A\\\hline*3&出社&在席&○&○&A&B\hspace{-3mm}$\bigcirc$&A&A&A&A\\\hline4&ファックス&E-mail&○&&B\hspace{-3mm}$\bigcirc$&B&B&B&B&B\\\hline*5&いるかいないか&外出&○&&A&B\hspace{-3mm}$\bigcirc$&A&B&B&B\\\hline6&スクリーニング&フィルタリング&○&○&A&B\hspace{-3mm}$\bigcirc$&B&&B&A\\\hline*7&出社&在席&○&○&B&A&B&A&A\hspace{-3mm}$\bigcirc$&A\\\hline8&離席&リフレッシュルーム&&&A&A\hspace{-3mm}$\bigcirc$&A&A&A&A\\\hline9&翌日&朝&○&&B&A\hspace{-3mm}$\bigcirc$&A&B&B&B\\\hline*10&サービス出社&サービス残業&&&A&B&B&A&A\hspace{-3mm}$\bigcirc$&A\\\hline*11&在席&離席&○&○&B\hspace{-3mm}$\bigcirc$&A&B&B&B&B\\\hline12&一人&依田さん&&○&B\hspace{-3mm}$\bigcirc$&B&B&B&A&A\\\hline13&退社&出張&&○&B\hspace{-3mm}$\bigcirc$&A&B&B&A&B\\\hline*14&リセット&リフレッシュ&○&&B\hspace{-3mm}$\bigcirc$&B&A&A&B&A\\\hline*15&パージング&認識&○&&A&A&A&A&A\hspace{-3mm}$\bigcirc$&A\\\hline16&キーボード&キャラクタ&○&○&B\hspace{-3mm}$\bigcirc$&A&A&A&A&A\\\hline17&故意に&間違って&○&○&A\hspace{-3mm}$\bigcirc$&B&B&B&B&B\\\hline計&&&13(4:9)α&6(1:5)β&7(1:6)&5(2:3)&2(0:2)&0&3(3:0)&\\\hline\end{tabular}\end{scriptsize}\caption{アンケートの結果}\ecaption{Theresultofthequestionnaire}\label{questionnaire4}\end{table*}表\ref{questionnaire4}に結果の生データを示す.表中,Aの列は言い直す前の単語,Bの列は言い直した後の単語である.また,(a)の列は単語レベルの言い直し,(b)の列は直後の言い直しにそれぞれ該当するものに○印を付けてある.また,項番中*印は,被験者に意図を悟られないように,乱数で選んでAとBの順番を反転させたものを示す.T,V,W,X,Y,Zは個人名を示す.Tは司会者であるので,ここでは測定の対象としなかった.VからZの列で,○で囲んだAとBはその人に言い直しがあったことを示す.一番下の合計欄は,(a)と(b)は該当数,括弧の中は該当するうちで,AとBのそれぞれの合計を示す.個人の合計は言い直しがあったもので,括弧の中はAとBのそれぞれの合計を示す.この結果から言えることは,言い直したのであるから,当然のことながらB,すなわち,言い直した後の単語の方が関心が高い.しかし,A,すなわち,言い直す前の単語でも,関心の高いものがある.さらに,Zのように言い直す前の単語にだけ関心が高いものもいる.ここで,特に,(b)は,$\chi^2>\chi_{0.5}^2$となり,単語レベルの直後の言い直しは、後に発話した単語に関心があることが分かる.つまり,言い直しは総じて言い直した後の単語の方に関心が高いが,言い直す前の単語にも,関心の高いものがあり,人によっては,言い直した後の単語にだけ関心を持つものもいることが言える. \section{要求獲得オフライン法での利用} 本節では,ソフトウエアの要求獲得で関心事項を抽出するための方法論の一つとして言い直しをいかに利用するかを述べる.まず,要求獲得オフライン法\cite{doi94a}について概説する.ソフトウエア要求獲得プロセスでよく使われている方法として会議が挙げられる.会議では「要求獲得者の容認と理解」というフィルター,時間的な制約などにより,要求獲得が的確に行われないことがある.つまり要求を網羅的にキャッチアップするのが困難であり,話題の展開が不十分なまま終ってしまうこともあり得る.これらの問題点を解決するために,会議を録音・ビデオ撮影して,オフラインで観察・分析する方法(オフライン法)がある.また,ソフトウエア開発に当たっては,下流ではコストをかけるが上流ではあまりコストをかけない.そのため,顧客の本当の要求が正確に獲得できないで,システム構築に入ってしまうことがよくある.その結果,使いにくい,あるいは,使われないシステムが往々にして出来上がる.使いにくい,あるいは,使われないシステムを作らないために,上流,特に要求獲得のフェーズではかなりのコストをかけてもよい,と考えられる\cite{doi93b}.以上のような問題意識を背景にして,我々はオフライン法の一実現方法としてUSP-Offline法を構築している\cite{kata96a}.USP-Offline法では,ビデオテープから発話を書き起こし,コーパスを作ることで解析を始める.USP-Offlineの主な出力としては,構造化された精密な議事録と関心事項があるが,本稿ではその関心事項獲得方法論について述べる.なお,本方法論は顧客の関心事項を抽出することを目的とするため,ここで扱う会議は,少なくとも顧客が参加し,コーディネータがいる要求獲得会議を対象にし,開発者側が参加するかどうかは関知しない.関心事項の抽出の仕方の一例として,ここでは言い直しを取り上げる.前節の実験結果が示す通り,言い直す前の単語に対しても発話者の関心が見られるものがある.つまり,言い直す前の単語には,関心があるかもしれないものがある.この関心があるかもしれないものは,前述のフィルターの問題,時間的な制約により,会議で充分に話されていない可能性がある.この関心があるかもしれないものの中に,顧客の本当の要求があると,要求が正確に獲得できないことになる.そこで,この関心があるかもしれないものを会議にフィードバックすることを考える.関心があるかもしれないものを会議に戻すのであるから,ここで対象とする会議は,顧客・開発者・コーディネータ・分析者のいずれか二者以上がよく知らないもの同士であるときに効果的である.具体的な手順としては,まず,分析者は,この関心があるかもしれないものが会議中に話されているかどうかをコーパスの中で調べる.会議中に充分話されていればよいが,会議中に充分話されていない時は次回の会議で,その関心があるかもしれないものを優先的に話させることにする. \section{言い直しを利用した関心事項の抽出法} 本節では,言い直しを利用した関心事項の抽出法について述べる.本方法論は,言い直す前の単語に焦点を当て,関心事項を推論する方法論である.本方法論は,言い直す前の単語を関心があるかもしれないものとして抽出し,それを関心事項として次の会議にフィードバックすることによって要求獲得を行ない,システム設計に役立てる方法論である.二つの方法が考えられる.一つの方法は会議中に言い直しを調べる専門のスタッフがいて,言い直しの起きたところを忠実に記録する方法である.もう一つの方法はコーパスを起こし,言い直しの起きたところを正確に把握する方法である.この二つの方法は正確さと工数がトレードオフの関係になっている.いずれの方法をとるにせよ,会議中に言い直しの起きた場所が記述できる.言い直しは,体言句の言い直しで,かつ,同一語句の言い直しではないものを対象とする.次に,分析者はその言い直しの起きた場所を見ながら,\begin{enumerate}\item誤発言\item誤表現\item正発言\item正表現\end{enumerate}\noindentを埋める.ここで,誤発言とはコーパスの中で言い直す前の語句,誤表現とは誤表現が完結した語句になっていない時,分析者の推論で埋めた語句,正発言とはコーパスの中で言い直した後の語句,正表現とは正発言が完結した語句になっていない時,分析者の推論で埋めた語句をそれぞれ指す.まず,分析者は,コーパスから誤発言と正発言を書き出し,次に,誤表現と正表現を推論によって埋める.推論不明の場合は「不明」と書く.次に,分析者は,誤表現の内容が当該会議の中で充分議論されているかどうかを調べる.充分議論されていない項目を関心があるかもしれないもののリストとする.分析者は関心があるかもしれないもののリストを元にコーディネータとともに次の会議の前に事前会議をする.事前会議では関心があるかもしれないもののリストについてお互いに話し合い,次の本会議で話し合う事項を決める.この事項は関心があるかもしれないものがどれぐらい会議で話されていないかが選出の基準になる.話されていない関心があるかもしれないものほど優先順位が高い.ただ,これらの事項は,フロイトらの分析にもあるように,システムの構築に携わる開発側にも知らせられない性格のものである可能性があるので,扱いには注意しなければならない.顧客側に何らかの感情的なわだかまりがあって,本会議でどうも話題展開がすっきりいかないときは,開発者・コーディネータが席を外して,顧客・ユーザだけの会議で解決をはかってもらうことも必要となろう.いずれにしてもコーディネータの裁量が要求される. \section{例題} 本節では,例を挙げて,本方法論の運用方法を説明する.前述の,\begin{quote}あ,メ,電話の取り次ぎってことね.\end{quote}の例を使う.分析者が,コーパス中,あるいは,会議中にこの発話を発見した時に,まず,誤発言に「メ」を正発言に「電話の取り次ぎ」を記入する.次に,誤表現を文脈などの推論から「メモ」と記入し,正表現を「電話の取り次ぎ」と記入する.出来上がりは以下のようになる.\begin{enumerate}\item誤発言メ\item誤表現メモ\item正発言電話の取り次ぎ\item正表現電話の取り次ぎ\end{enumerate}会議終了後,分析者は,会議の内容と照らし合わせて,「電話の取り次ぎメモ」に関する議論が充分であったかどうかを調べる.もし充分でなければ,これを関心があるかもしれないもののリストに加える.次に,前述のように,分析者は,コーディネータと共に事前会議を行なう.ここで,分析者とコーディネータの二人の判断で,「電話の取り次ぎメモ」を次の会議の議題の一つにするかどうかを決定する.実際,この会議では,「電話の取り次ぎメモ」に関する議論はこの後発展しなかった.本当に話さなくて良いのかどうか,会議参加者たちに確認を求めるべきであろう. \section{おわりに} 本論文では,まず,精神分析の立場から,フロイトとラカンの説を検討し,言い間違いには,なんらかの精神的理由が存在することがあることを検討した.次に,言い間違いを言い直しに絞り,言い直した語と言い直された語との間でどちらに関心が高いかを分析した.分析の結果,言い直しは総じて言い直した後の単語の方に関心が高いが,言い直す前の単語にも,関心の高いものがあり,人によっては,言い直した後の単語にだけ関心を持つものもいることが言えることがわかった.これらの知見を利用して,言い直しをソフトウエアの要求獲得の方法論に役立てる,考え方と,方法論を示し,さらに,適用例を述べた.その結果,顧客の関心があるかもしれないものを抽出することができた.今後は,この方法論を現実のソフトウエアの要求獲得の場で用いて,その効果のほどを調べていきたい.\bibliographystyle{jnlpbbl}\bibliography{muisiki,usp}\begin{biography}\biotitle{略歴}\bioauthor{土井晃一}{1961年生.1991年東京大学工学部情報工学専攻博士課程修了.工学博士.同年富士通研究所国際情報社会科学研究所入社(現富士通研究所コンピュータシステム研究所).自然言語理解,人工知能,ソフトウエア工学などの研究に従事.1998年9月より文部省学術情報センター客員助教授併任.情報処理学会,人工知能学会,認知科学会,ソフトウエア科学会,言語処理学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V07N05-05
\section{はじめに} \label{sec:introduction}我々は,1998年10月から自然言語解析用ツール「MSLRパーザ・ツールキット」を公開している~\footnote{{\tthttp://tanaka-www.cs.titech.ac.jp/pub/mslr/}}.MSLRパーザ(MorphologicalandSyntacticLRparser)は,一般化LR法の解析アルゴリズムを拡張し,単語区切りのない言語(日本語など)を主に対象とし,形態素解析と構文解析を同時に行うパーザである\footnote{MSLRパーザは,分かち書きされた文(英語文など)を解析する機能も持っているが,もともとは単語区切りのない文を解析することを目的に作られた.}.本論文では,MSLRパーザ・ツールキットの特徴と機能について述べる.MSLRパーザを用いて文を解析する場合には,以下の3つが必要になる.\begin{quote}\begin{description}\item[文法]品詞を終端記号とする文脈自由文法.主に構文解析に用いる.\item[辞書]単語とそれに対応した品詞を列挙したデータで,形態素解析の基本単位を集めたものである.辞書の品詞体系は文法の品詞体系と一致していなければならない.\item[接続表]品詞間の接続制約を記述した表.品詞間の接続制約とは,ある2つの品詞が隣接できるか否かに関する制約である.\end{description}\end{quote}本ツールキットでは,文法・辞書・接続表を自由に入れ換えることができる.すなわち,ユーザが独自に開発した文法や辞書を用いて,MSLRパーザによって文の解析を行うことが可能である.また,MSLRパーザ・ツールキットには日本語解析用の文法,辞書,接続表が含まれている.したがって,文法等を持っていないユーザでも,ツールキットに付属のものを用いて日本語文の形態素・構文解析を行うことができる.MSLRパーザはC言語で実装され,動作するOSはunixのみである.具体的には,以下のOSで動作することが確認されている.\begin{itemize}\itemSunOS5.6\itemDigitalUnix4.0\itemIRIX6.5\itemFreeBSD3.3\itemLinux2.2.11,LinuxPPC(PC-Mind1.0.4)\end{itemize}MSLRパーザを動作させるために必要なメモリ使用量・ディスク使用量は,使用する文法や辞書の規模に大きく依存する.例えば,ツールキットに付属の日本語解析用文法(規則数1,408)と辞書(登録単語数241,113)を用いる場合,50Mbyteのメモリと10Mbyteのディスク容量を必要とする.本ツールキットを用いた形態素・構文解析の流れを図~\ref{fig:overview}に示す.MSLRパーザの解析アルゴリズムは一般化LR法に基づいているため,まず最初にLR表作成器を用いて,文法と接続表からLR表を作成する.MSLRパーザは,作成されたLR表と辞書を参照しながら入力文の形態素・構文解析を行い,解析結果(構文木)を出力する.\begin{figure}[htbp]\begin{center}\begin{epsf}\epsfile{file=overview.eps,width=0.9\textwidth}\end{epsf}\begin{draft}\atari(127,36)\end{draft}\caption{MSLRパーザを用いた形態素・構文解析の流れ}\label{fig:overview}\end{center}\end{figure}本ツールキットの主な特徴と機能は以下の通りである.\begin{itemize}\itemMSLRパーザは,形態素解析と構文解析を同時に行う.まず最初に形態素解析を行い,その出力をもとに構文解析を行う逐次的な方法では,形態素解析の段階では文法などの構文的な制約を考慮しない場合が多く,その後の構文解析の段階で不適当と判断されるような無駄な解析結果も出力される.これに対し,MSLRパーザは形態的な情報(辞書,接続表)と構文的な情報(文法)を同時に用いて解析を行うため,このような無駄な解析結果を生成することはない.\itemLR表作成器は,接続表に記述された品詞間の接続制約を組み込んだLR表を作成する.すなわち,LR表を作成する段階で品詞間の接続制約を考慮し,接続制約に違反する構文木を受理しないLR表を作る.さらに,品詞間の接続制約を組み込んだ場合,接続制約を組み込まない場合と比べてLR表の状態数・動作数を減らすことができ,メモリ使用量も小さくすることができるという利点がある.\item品詞間の接続制約は,接続表という形式で記述する代わりに,文法に組み込むことも可能である.しかしながら,接続制約を文法に組み込んだ場合,規則数が組み合わせ的に増大する.このため,文法作成者の負担が大きくなり,また作成されるLR表の大きさも大きくなるために望ましくない.このような理由から,本ツールキットでは,接続表と文法を独立に記述する枠組を採用している.\item平文を入力とした解析の他に,係り受けに関する部分的な制約を加えた文を入力とした解析を行うことができる.例えば,「太郎が渋谷で買った本を借りた」という文を解析する際に,次のような括弧付けによる制約を付けた文が入力されたときには,括弧付けと矛盾した解析結果は出力しない.\begin{displaymath}\tt[太郎が渋谷で買った]本を借りた\end{displaymath}すなわち,「太郎が」が「借りた」に係る以下のような解析結果は,Aの括弧付けが入力の括弧付けと矛盾(交差)しているために出力しない.\begin{displaymath}\tt[[太郎が][_A\;[[渋谷で][買った]][[本を][借りた]]]\;{}_A]\end{displaymath}この機能は,例えば前編集により係り受けに関する部分的な制約をあらかじめ文に付加してから解析を行い,構文的曖昧性を抑制する場合などに利用できる.\item確率一般化LRモデル~\cite{inui:98:a,sornlertlamvanich:99:a}(ProbabilisticGeneralizedLRModel,以下PGLRモデル)を取り扱うことができる.PGLRモデルとは,一般化LR法の枠組において構文木の生成確率を与える確率モデルである.PGLRモデルに基づく構文木の生成確率は,統計的な意味での正しさの尺度を構文木に与えることができるので,構文的な曖昧性の解消に利用することができる.\end{itemize}以下では,ここに挙げた本ツールキットの特徴と機能について詳しく説明する.\ref{sec:tablegenerator}節では品詞間の接続制約を組み込むLR表作成器について述べ,\ref{sec:parser}節ではMSLRパーザの概略について述べる.最後に\ref{sec:conclusion}節で本論文のまとめとMSLRパーザ・ツールキットの今後の開発方針について述べる. \section{LR表作成器} \label{sec:tablegenerator}本節では,MSLRパーザ・ツールキットにおけるLR表作成器の機能と特徴について詳しく説明する.\subsection{3種類のLR表を作成する機能}\label{sec:tabletype}一般化LR法で用いられるLR表には,SLR(SimpleLR),CLR(CanonicalLR),LALR(LookaheadLR)の3種類がある.我々のLR表作成器は,これら3種類のLR表を作成する機能を持つ.実際の自然言語文の解析では,最も状態数の少ないLALRが用いられる場合が多い.したがって,以後LR表といえばLALRを意味するものとする.これらのLR表の違いの詳細については文献~\cite{aho:85:a}を参照していただきたい.\subsection{品詞間の接続制約を組み込む機能}\label{sec:tablecon}本ツールキットにおけるLR表作成器の最も大きな特徴は,LR表に品詞間の接続制約を反映させることができる点にある.品詞間の接続制約をLR表に反映させるということは,接続制約に違反する構文木を生成する動作をLR表からあらかじめ除去することに相当する.このことを図~\ref{fig:lalr_gra}の文法$CFG_1$を例に説明する\footnote{$CFG_1$における各記号のおおまかな意味は以下の通りである.S=文,VP=動詞句,PP=後置詞句,V=動詞,VS1=一段動詞語幹,VS=動詞語幹,VE=動詞語尾,N=名詞,P=助詞,AX=助動詞列(以上,非終端記号).vs\_1=一段動詞語幹,vs\_5k=カ行五段動詞語幹,vs\_5m=マ行五段動詞語幹,vs\_5w=ワ行五段動詞語幹,ve\_i=動詞語尾イ,ve\_ki=動詞語尾キ,ve\_ma=動詞語尾マ,noun=名詞,postp=助詞,aux=助動詞(以上,終端記号(品詞)).}.$CFG_1$において,書き換え規則の右側にある数字は規則番号を表わす.また,終端記号は品詞である.$CFG_1$から通常のLR表作成アルゴリズムによって作成されたLR表を図~\ref{fig:lalr_table}に示す.但し,図~\ref{fig:lalr_table}のLR表はaction部のみであり,goto部は省略されている.今,このLR表に図~\ref{fig:lalr_con}の接続表に記述された接続制約を反映させることを考える.図~\ref{fig:lalr_con}の接続表において,行列要素$(i,j)$が1なら$i$行目の品詞$x_i$と$j$列目の品詞$x_j$がこの順序で連接可能であることを示し,$(i,j)$が0なら$x_i$と$x_j$が連接不可能であることを意味する.また,``\$''は文末を表わす特殊な品詞である.\begin{figure}[htbp]\begin{center}\begin{tabular}[t]{lc}S$\rightarrow$VP&(1)\\[-1mm]VP$\rightarrow$PPVP&(2)\\[-1mm]PP$\rightarrow$VPPP&(3)\\[-1mm]VP$\rightarrow$VAX&(4)\\[-1mm]V$\rightarrow$VSVE&(5)\\[-1mm]V$\rightarrow$VS1&(6)\\[-1mm]PP$\rightarrow$NP&(7)\\[-1mm]N$\rightarrow$noun&(8)\\[-1mm]P$\rightarrow$postp&(9)\\\end{tabular}\hspace*{20mm}\begin{tabular}[t]{lc}VS1$\rightarrow$vs\_1&(10)\\[-1mm]VS$\rightarrow$vs\_5k&(11)\\[-1mm]VS$\rightarrow$vs\_5m&(12)\\[-1mm]VS$\rightarrow$vs\_5w&(13)\\[-1mm]VE$\rightarrow$ve\_i&(14)\\[-1mm]VE$\rightarrow$ve\_ki&(15)\\[-1mm]VE$\rightarrow$ve\_ma&(16)\\[-1mm]AX$\rightarrow$AXaux&(17)\\[-1mm]AX$\rightarrow$aux&(18)\\\end{tabular}\bigskip\caption{文法の例:$CFG_1$}\label{fig:lalr_gra}\end{center}\end{figure}\begin{figure}[htbp]\footnotesize\begin{center}\begin{tabular}{|r|cccc@{}cccccc@{}c|}\hline&vs\_1&vs\_5k&vs\_5m&vs\_5w&ve\_i&ve\_ki&ve\_ma&aux&noun&postp&\$\\\hline0&sh1&sh4&sh3&sh2&&&&&sh11&&\\1&&&&&&&&re10&&&\\2&&&&&re13&*re13&*re13&&&&\\3&&&&&*re12&*re12&re12&&&&\\4&&&&&*re11&re11&*re11&&&&\\5&&&&&&&&sh13&&&\\6&sh1&sh4&sh3&sh2&&&&&sh11&&\\7&&&&&&&&&&sh16&\\8&&&&&&&&re6&&&\\9&&&&&sh20&sh19&sh18&&&&\\10&sh1&sh4&sh3&sh2&&&&&sh11&&re1\\11&&&&&&&&&&re8&\\12&&&&&&&&&&&acc\\13&re18&re18&re18&re18&&&&re18&re18&&re18\\14&re4&re4&re4&re4&&&&sh24&re4&&re4\\15&re2/sh1&re2/sh4&re2/sh3&re2/sh2&&&&&re2/sh11&&re2\\16&re9&re9&re9&re9&&&&&re9&&\\17&re7&re7&re7&re7&&&&&re7&&\\18&&&&&&&&re16&&&\\19&&&&&&&&re15&&&\\20&&&&&&&&re14&&&\\21&&&&&&&&re5&&&\\22&sh1&sh4&sh3&sh2&&&&&sh11&&\\23&re3/sh1&re3/sh4&re3/sh3&re3/sh2&&&&&re3/sh11&&\\24&re17&re17&re17&re17&&&&re17&re17&&re17\\\hline\end{tabular}\caption{$CFG_1$から生成されるLR表(action部のみ)}\label{fig:lalr_table}\end{center}\end{figure}\begin{figure}[htbp]\begin{center}\small\begin{tabular}{c|ccccccccccc}&\makebox[6mm]{vs\_1}&\makebox[6mm]{vs\_5k}&\makebox[6mm]{vs\_5m}&\makebox[6mm]{vs\_5w}&\makebox[6mm]{ve\_i}&\makebox[6mm]{ve\_ki}&\makebox[6mm]{ve\_ma}&\makebox[6mm]{noun}&\makebox[6mm]{postp}&\makebox[6mm]{aux}&\makebox[6mm]{\$}\\\hlinevs\_1&0&0&0&0&0&0&0&1&0&1&1\\vs\_5k&0&0&0&0&0&1&0&0&0&0&0\\vs\_5m&0&0&0&0&0&0&1&0&0&0&0\\vs\_5w&0&0&0&0&1&0&0&0&0&0&0\\ve\_i&0&0&0&0&0&0&0&0&0&1&0\\ve\_ki&0&0&0&0&0&0&0&0&0&1&0\\ve\_ma&0&0&0&0&0&0&0&0&0&1&0\\noun&1&1&1&1&0&0&0&1&1&1&1\\postp&1&1&1&1&0&0&0&1&1&0&1\\aux&1&1&1&1&0&0&0&1&1&1&1\\\end{tabular}\bigskip\caption{接続表の例}\label{fig:lalr_con}\end{center}\end{figure}$CFG_1$では,VSを構成する品詞としてvs\_5k,vs\_5m,vs\_5wが,VEを構成する品詞としてve\_i,ve\_ki,ve\_maがあるので,規則(5)から,Vを構成する品詞列は$3\times3=9$通りあることがわかる.これに対し,図~\ref{fig:lalr_con}の接続表を考慮した場合,これら9通りの品詞列のうち``vs\_5kve\_ki'',``vs\_5mve\_ma'',``vs\_5wve\_i''の3組だけが接続制約を満たす.したがって,これら以外の品詞列は受理すべきではない.ここで,図~\ref{fig:lalr_table}のLR表の状態$4$,先読み記号ve\_iの欄にある$\lrtre{11}$という\reactに着目する.$\lrtre{11}$は,$CFG_1$における規則(11)に対応した部分木を作ることを意味する(図~\ref{fig:re_act}).ところが,先読み記号がve\_iであることから,``vs\_5kve\_i''という品詞列に対してこの動作を実行することになるが,この品詞列は図~\ref{fig:lalr_con}の接続制約に違反する.同様に,図~\ref{fig:lalr_table}において,``*''のついた動作もまた接続制約に違反する動作である.したがって,このような動作を事前にLR表から削除しておけば,接続制約に違反する解析結果の生成を防ぐことができる.\begin{figure}[tbp]\begin{center}\begin{epsf}\epsfile{file=act.eps,height=28mm}\end{epsf}\begin{draft}\atari(76,28)\end{draft}\caption{接続制約に違反する\react}\label{fig:re_act}\end{center}\end{figure}接続制約に違反する動作をLR表から除去する方法としては,まず図~\ref{fig:lalr_table}のように接続制約を考慮しないLR表を作成してから,接続制約に違反する動作をLR表から削除する方法が考えられる.しかしながら,文法の規模が大きくなると,接続制約を考慮しないLR表の大きさが非常に大きくなるために望ましくない.これに対して,本ツールキットでは,LR表を作成する段階で接続制約を考慮し,接続制約に違反する動作を除いたLR表を直接生成する方法を採用している.接続制約を組み込みながらLR表を作成するアルゴリズムの詳細については文献~\cite{li:96:f}を参照していただきたい.接続制約をLR表に組み込む主な利点としては以下の3つが挙げられる.\begin{enumerate}\item接続制約を事前に組み込んだLR表を用いて解析を行った場合,解析時には品詞間の連接可能性をチェックする必要がないので,解析時の効率を上げることができる.\item接続制約に違反する構文木を生成する動作をLR表から除去することにより,LR表の状態数・動作数を大幅に減らし,メモリ使用量を小さくすることができる.\item品詞間の接続制約は,接続表として記述してからLR表に組み込む代わりに,書き換え規則の細分化によって組み込むこともできる.例えば,$CFG_1$の例では,規則(5)の代わりに,図~\ref{fig:rules}に挙げる3つの規則を導入すれば,接続制約を満たす品詞列のみ受理することができる.\begin{figure}[tbp]\begin{center}\begin{tabular}[c]{lc}V$\rightarrow$VSVE&(5)\\\end{tabular}\hspace*{5mm}$\Rightarrow$\hspace*{5mm}\begin{tabular}[c]{lc}V$\rightarrow$vs\_5kve\_ki&(5-1)\\[-1mm]V$\rightarrow$vs\_5mve\_ma&(5-2)\\[-1mm]V$\rightarrow$vs\_5wve\_i&(5-3)\\[-1mm]\end{tabular}\medskip\caption{接続制約を反映した文法規則}\label{fig:rules}\end{center}\end{figure}しかしながら,このように接続制約を組み込んだ文法を作成することは,規則数が組み合わせ的に増大するために望ましくない.品詞間の接続制約は,接続表として文法とは独立に記述し,LR表を作成する段階で接続制約を組み込む方が,最終的に得られるLR表の状態数・動作数も少なく,メモリ使用量を小さくすることができる.また,文法記述者の負担も減らすことができる.\end{enumerate}\subsection{評価実験}\label{sec:tblgenexam}LR表に品詞間の接続制約を組み込む効果を調べる簡単な実験を行った.本ツールキットに付属されている日本語解析用の文法と接続表を用いて,品詞間の接続制約を組み込む場合と組み込まない場合のLR表を比較した.使用した文法の規則数は1,408,非終端記号数は218,終端記号数は537である.実験に使用した計算機はSunUltraEnterprise250Server(主記憶2GB,CPU周波数300MHz)である.結果を表~\ref{tab:tblgeneval}に示す.\begin{table}[htbp]\begin{center}\caption{品詞間の接続制約をLR表に組み込むことの効果}\label{tab:tblgeneval}\bigskip\begin{tabular}{c|ccc}&\makebox[15mm]{CPU時間}&\makebox[15mm]{状態数}&\makebox[15mm]{動作数}\\\hline接続制約なし&42.1(sec.)&1,720&379,173\\接続制約あり&45.4(sec.)&1,670&197,337\\\hline\end{tabular}\end{center}\end{table}表~\ref{tab:tblgeneval}において,「CPU時間」はLR表作成に要したCPU時間を,「状態数」は作成されたLR表の状態の数を,「動作数」は作成されたLR表の動作(\shactと\react)の数を示している.この表から,品詞間の接続制約を組み込むことによって,状態数はほとんど変わらないが,動作数は約半分に減ることがわかる.したがって,LR表のために必要なメモリ使用量を大幅に縮小することができる.一方,「CPU時間」は,接続制約を考慮する場合としない場合とでそれほど大きな差は見られなかった.一般に,接続制約を組み込む場合は,品詞間の連接可能性を調べながらLR表を作成するために,それに要する時間は長くなることが予想される.しかしながら,接続制約に違反する無駄なアイテムが生成されなくなることから,LR表作成に要する時間が短縮される効果も生じる.そのため,LR表作成時間が劇的に増大するわけではないことが実験的に確かめられた. \section{MSLRパーザ} \label{sec:parser}本節では,MSLRパーザの機能と特徴について概説する.\subsection{形態素解析と構文解析を同時に行う機能}\label{sec:analysis}\ref{sec:introduction}節で述べたように,MSLRパーザは形態素解析と構文解析を同時に行う\cite{tanaka:95:a}.また,形態素・構文解析結果として構文木を出力する.例えば,図~\ref{fig:lalr_gra}の文法($CFG_1$),図~\ref{fig:lalr_con}の接続表,図~\ref{fig:parser_dic}の辞書を用いたときの「あいこにたのまれた」という文の解析結果(構文木)を図~\ref{fig:parsetree1}に示す.実際には,MSLRパーザは以下のような括弧付けで表現された構文木を出力する.\baselineskip=0.6\normalbaselineskip\begin{verbatim}[<S>,[<VP>,[<PP>,[<N>,[noun,あいこ]],[<P>,[postp,に]]],[<VP>,[<V>,[<VS>,[vs_5m,たの]],[<VE>,[ve_ma,ま]]],[<AX>,[<AX>,[aux,れ]],[aux,た]]]]]\end{verbatim}\baselineskip=\normalbaselineskip\noindent解析結果が複数ある場合には,その中から$N$個の構文木をランダムに選んで出力する.ただし,\ref{sec:pglr}項で述べるPGLRモデルを用いる場合には,構文木の生成確率の大きい上位$N$個の構文木を取り出すことができる.また,$N$の値は起動時のオプション指定により変更できる.\begin{figure}[tbp]\begin{center}\begin{tabular}{l|l}単語&\multicolumn{1}{c}{品詞}\\\hlineあ&vs\_5k,vs\_5w\\[-1mm]あいこ&noun\\[-1mm]い&ve\_i\\[-1mm]き&ve\_ki\\[-1mm]た&aux\\[-1mm]\end{tabular}\hspace*{15mm}\begin{tabular}{l|l}単語&\multicolumn{1}{c}{品詞}\\\hlineたの&vs\_5m\\[-1mm]に&postp,vs\_1\\[-1mm]の&vs\_5m\\[-1mm]ま&ve\_ma\\[-1mm]れ&aux\\[-1mm]\end{tabular}\caption{辞書の例}\label{fig:parser_dic}\end{center}\end{figure}\begin{figure}[htbp]\begin{center}\begin{epsf}\epsfile{file=tree1.eps,width=0.35\textwidth}\end{epsf}\begin{draft}\atari(49,36)\end{draft}\caption{「あいこにたのまれた」の解析結果}\label{fig:parsetree1}\end{center}\end{figure}MSLRパーザのアルゴリズムは,一般化LR法の構文解析アルゴリズムを拡張したものである.一般化LR法が通常は品詞列を入力とするのに対して,MSLRパーザは文字列を入力とし,辞書引きによる単語分割と構文解析を同時に行う.以下,一般化LR法とMSLRパーザの解析アルゴリズムとの違いを簡単に説明する.MSLRパーザの解析アルゴリズムの詳細については文献~\cite{tanaka:95:a}を参照していただきたい.\begin{enumerate}\item入力文が与えられたとき,品詞と品詞の間に位置番号をつける代わりに,図~\ref{fig:mslr_posit}のように入力文の文字間に位置番号をつける.\begin{figure}[htb]\begin{center}\begin{tabular}{cc@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c@{}c}&&あ&&い&&こ&&に&&た&&の&&ま&&れ&&た\\[-2mm]{\footnotesize(位置番号)}&0&&1&&2&&3&&4&&5&&6&&7&&8&&9\\\end{tabular}\phantom{位置番号}\bigskip\caption{MSLRパーザにおける位置番号のつけ方}\label{fig:mslr_posit}\end{center}\end{figure}\item解析が位置$i$まで進んだとき,位置$i$から始まる全ての単語を辞書引きし,その結果をスタックに登録する.例えば,図~\ref{fig:mslr_posit}の例文を図~\ref{fig:parser_dic}の辞書を用いて解析した場合,位置$0$では``(あ,vs\_5k)'',``(あ,vs\_5w)'',``(あいこ,noun)''という3つの品詞付けの結果が解析スタックに登録される.これらの品詞付けの結果は,通常の一般化LR法における多品詞語と全く同様に取り扱われる.\item\shactを実行して先読み記号をスタックにプッシュする際には,その品詞を構成する文字列の一番最後の位置まで解析スタックを延ばす.例えば,位置$0$でvs\_5kという先読み記号(品詞)をプッシュする際には,vs\_5kが位置$0$〜$1$に位置する単語「あ」の品詞であるので,スタックの先頭を位置$1$まで延ばす.そして,位置$1$から始まる単語の辞書引き結果をもとに以後の解析を進める.同様に,位置$0$でnounという品詞をプッシュする際には,nounが位置$0$〜$3$に位置する単語「あいこ」の品詞であるので,スタックの先頭を位置$3$まで延ばす.以後の解析は,位置$3$から始まる単語の辞書引き結果をもとに進められる.\end{enumerate}例文「あいこにたのまれた」を解析する際,形態素解析結果の候補としては以下の2つがある.\begin{quote}a.~(あいこ,noun)(に,postp)(たの,vs\_5m)(ま,ve\_ma)(れ,aux)(た,aux)\\b.~(あいこ,noun)(に,vs\_1)(た,aux)(の,vs\_5m)(ま,ve\_ma)(れ,aux)(た,aux)\end{quote}文法$CFG_1$はb.の品詞列を受理しないが,形態素解析と構文解析を逐次的に行う方法では,形態素解析結果の候補としてa.,b.ともに出力し,それぞれの品詞列に対して構文解析が試みられる.これに対し,MSLRパーザは形態素解析と構文解析を同時に行い,文法に記述された構文的な制約で排除される形態素解析の結果を早期に取り除くことができるため,解析効率がよい.例えば,位置$3$まで解析が進んだとき,「あいこ」という文字列が図~\ref{fig:parsetree1}の点線で囲まれた部分木を構成することがわかっている.このとき,位置$3$から始まる単語を辞書引きする際に,品詞列b.は受理されないという文法的な制約から,``(に,vs\_1)''という品詞付けが適切でないことがわかる.具体的には,位置$3$におけるスタックトップの状態$7$において,``vs\_1''を先読み記号とする動作が図~\ref{fig:lalr_table}のLR表に存在しないことから,``(に,vs\_1)''という辞書引き結果を含む解析はこの時点で中断される.したがって,誤りである形態素解析結果の候補b.を早期に取り除くことができる.このことは,MSLRパーザの大きな特徴の1つである.\subsection{括弧付けによる制約のついた入力文を解析する機能}\label{sec:brackets}MSLRパーザは括弧付けによる制約を加えた文を解析することができる.具体的には,MSLRパーザは次のような文字列を入力として,括弧付けに矛盾しない解析結果のみを出力する機能を持つ.\begin{center}\verb|[*,太郎が渋谷で買った]本を借りた|\end{center}この例では括弧による制約はひとつしかないが,括弧による制約は複数あってもよい.また,複数の制約が入れ子になっても構わない.以下に例を挙げる.\begin{center}\verb|[*,太郎が[*,渋谷で買った]][*,本を借りた]|\end{center}上記の入力例において,``\verb|*|''は括弧で示された範囲を支配する非終端記号に特に制約がないことを表わしている.これに対し,``\verb|*|''の位置に非終端記号を指定することにより,括弧に矛盾する解析結果だけでなく,括弧で囲まれた文字列を支配する非終端記号を限定することもできる.例えば,以下のような入力に対して,MSLRパーザは「あいこに」を支配する非終端記号が``\verb|<PP>|''となる解析結果のみを出力する.\begin{center}\verb|[<PP>,あいこに]たのまれた|\end{center}括弧付けによる制約を取り扱う機能は,前編集によりあらかじめ部分的な制約を付加する際に利用することができる.構文解析を完全に自動で行うのではなく,インタラクティブに人間の知識を利用しながら半自動的に構文解析を行うことは,解析精度を向上させる有効な手段のひとつである.解析を行う前に,係り受けに関する部分的な制約をうまく人手で与えれば,構文的曖昧性を激的に減らすことができ,結果として構文解析の精度を飛躍的に向上させることが期待できる.\subsection{PGLRモデルを取り扱う機能}\label{sec:pglr}PGLRモデル~\cite{inui:98:a}は,一般化LR法の枠組に基づいて構文木の生成確率を与える確率モデルである.PGLRモデルにおける構文木の生成確率は,構文木を作り出す際に実行されるLR表上の動作(\shactもしくは\react)の実行確率の積として推定される.この生成確率は,生成される複数の構文木の中から最も正しい構文木を選択する構文的曖昧性解消に利用できる.ここで注意すべき点は,PGLRモデルによって与えられる構文木の生成確率は品詞を葉とする構文木の生成確率だということである.すなわち,単語の導出確率や単語の共起関係などの語彙的な統計情報は考慮されていない\footnote{PGLRモデルと,PGLRモデルとは独立に学習された語彙的な統計情報を組み合わせて構文解析を行う試みも行われている~\cite{sirai:98:b}.}.LR表の動作の実行確率には若干の文脈依存性が反映されていると考えられる.したがって,PGLRモデルは,文脈自由な言語モデルである確率文脈自由文法よりも推定パラメタ数は多くなるが,文脈依存性が考慮されたより精密なモデルを学習することが可能であり,構文的曖昧性解消の精度も向上することが実験的にも確かめられている~\cite{sornlertlamvanich:99:a}.本ツールキットでは,PGLRモデルを学習する機能,及びPGLRモデルによる構文木の生成確率を計算する機能を備えている.以下,それぞれの機能の概要について説明する.\subsubsection{PGLRモデルの学習について}\label{sec:pglrlearning}PGLRモデルの学習は,LR表上の各動作の実行確率を推定することにより行われる.動作の実行確率の推定に必要なものは,構文木が付与された構文木付きコーパスである.まず,例文に付与された構文木に対して,構文木を生成する際に実行するLR表上の動作の使用回数$C(s_i,l_j,a_k)$を数え上げる.ここで,$s_i$はLR表における状態を,$l_j$は先読み記号を,$a_k$は動作を表わし,$C(s_i,l_j,a_k)$は,状態が$s_i$で先読み記号が$l_j$のときに動作$a_k$が実行された回数を表わす.LR表上の各動作の実行確率は式(\ref{eq:act_prob1})(\ref{eq:act_prob2})によって推定する.\begin{eqnarray}\label{eq:act_prob1}P(l_j,a_k|s_i)=\frac{C(s_i,l_j,a_k)}{\sum_{j,k}C(s_i,l_j,a_k)}\;\;if\;\;s_i\inS_s\\[2mm]\label{eq:act_prob2}P(a_k|s_i,l_j)=\frac{C(s_i,l_j,a_k)}{\sum_{k}C(s_i,l_j,a_k)}\;\;if\;\;s_i\inS_r\end{eqnarray}式(\ref{eq:act_prob1})(\ref{eq:act_prob2})において,$S_s$は\shact直後に到達する状態の集合,$S_r$はそれ以外の状態の集合を表わす.LR表における全ての状態は$S_s$または$S_r$のどちらか一方に必ず属する.図~\ref{fig:lalr_table}のLR表の例では,$S_s=\{0,1,2,3,4,11,13,16,18,19,20,24\}$,$S_r=\{5,6,7,8,9,10,12,14,15,17,21,22,23\}$である.初期状態$0$は$S_s$に属することに注意していただきたい.式(\ref{eq:act_prob1})は,$s_i\inS_s$のときには,状態$s_i$で実行されうる全ての動作で実行確率を正規化することを意味する.言い換えれば,LR表における同じ行に属する動作の実行確率の和は1となる.例えば,図~\ref{fig:lalr_table}のLR表の状態$0$にある5つの\shactは,これらの実行確率の和が1になるように正規化される.これに対して式(\ref{eq:act_prob2})は,$s_i\inS_r$のときには,状態$s_i$,先読み記号$l_i$のときに実行されうる全ての動作で実行確率を正規化することを意味する.すなわち,LR表における同じマス目に属する動作の実行確率の和は1となる.例えば,図~\ref{fig:lalr_table}のLR表の状態$15$,先読み記号vs\_1の欄にある2つの動作($\lrtre{2}と\;\lrtsh{1}$)の実行確率は,これらの和が1になるように正規化される.また,$S_r$に属する状態の場合,shift/reduceコンフリクトがない限り,その状態に属する動作の実行確率は必ず1となる.本ツールキットにおけるPGLRモデル学習の手続きは以下の通りである.まず,MSLRパーザは,構文解析を行う際に,LR表の各動作の使用回数を出力する機能を持っている.さらに,\ref{sec:brackets}項で述べた括弧付けによる制約を取り扱う機能を利用し,訓練用コーパスに付与された構文木を入力として解析を行うことにより,訓練用コーパス中の構文木を生成する際に使われた各動作の使用回数$C(s_i,l_j,a_k)$を求めることができる.また本ツールキットには,このようにして得られた$C(s_i,l_j,a_k)$から式(\ref{eq:act_prob1})(\ref{eq:act_prob2})に従って各動作の実行確率を推定し,その実行確率が付与されたLR表を作成するツールが含まれている.このツールは,パラメタ推定の平滑化のために,LR表に登録されている全ての動作の実行回数にある一定の頻度を加える機能を備えている.\subsubsection{PGLRモデルを用いた解析について}\label{sec:pglranalysis}MSLRパーザは,解析結果となる構文木とそのPGLRモデルに基づく生成確率を同時に出力することができる.また,生成確率の高い順に構文木を並べて出力することができる.すなわち,PGLRモデルに基づく生成確率を用いた解析結果の優先順位付けを行うことができる.MSLRパーザは,まず文法が受理する全ての解析結果を求め,それらをまとめた圧縮統語森を生成する.次に,この圧縮統語森を展開して個々の構文木を出力する際に,PGLRモデルに基づく構文木の生成確率を考慮し,生成確率の上位の構文木から優先して出力する.解析の途中で生成確率の低い部分木を除去するなどの枝刈りを行っていないため,生成確率の上位$N$位の構文木が必ず得られることが保証される代わりに,長文など構文的曖昧性が非常に多い文を解析する際にメモリ不足によって解析に失敗する可能性も高い.したがって,我々は解析途中で生成確率の低い部分木を除去して探索空間を絞り込む機構も必要であると考えている.SornlertlamvanichはPGLRモデルを利用した効率の良い枝刈りのアルゴリズムを提案しているが~\cite{sornlertlamvanich:98:a},現在公開しているMSLRパーザには実装されていない.\subsection{解析例}\label{sec:exp}本項では,MSLRパーザを用いた簡単な日本語文解析実験について報告する.実験用コーパスとして,ATRが作成した日本語対話コーパス~\cite{morimoto:94:a}を使用した.実験に用いた文法は,対話文解析用の文脈自由文法で,非終端記号数172,終端記号数441,規則数は860である~\cite{tanaka:97:a}.今回の実験では,日本語対話コーパス約20,000文のうち,上記の文法による構文木が付与された例文10,020文を使用した.辞書及び接続表は,これら10,020文から自動的に作成した.評価用テキストとして,単語数4〜14,15以上の文をランダムに1000文ずつ取り出し,それぞれSetA,SetBとした.これらの評価用例文について,分かち書きされていない文字列を入力とし,MSLRパーザを用いて形態素・構文解析を行った.また,評価用テキスト以外の例文約9000文からPGLRモデルを学習し,そのPGLRモデルに基づく構文木の生成確率によって解析結果の順位付けを行った.使用した計算機は,\ref{sec:tblgenexam}項の実験と同じSunUltraEnterprise250Serverである.実験結果を表~\ref{tab:expparser1},\ref{tab:expparser2}に示す.また,解析結果の具体例を付録~\ref{sec:appendix}に示す.\begin{table}[tbp]\begin{center}\caption{解析実験の結果}\label{tab:expparser1}\medskip\begin{tabular}[c]{l|cc}&SetA&SetB\\\hline平均単語数&8.12&19.6\\平均解析木数&13.1&15,500\\平均解析時間(ms)&6.53&27.7\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tbp]\begin{center}\caption{解析実験の結果(文正解率)}\label{tab:expparser2}\medskip\begin{tabular}[c]{|l|cc|cc|}\hline&&&&\\[-2mm]&\multicolumn{2}{c|}{【形態素解析の文正解率】}&\multicolumn{2}{c|}{【構文解析の文正解率】}\\[0.5mm]$n$&\makebox[15mm]{SetA}&\makebox[15mm]{SetB}&\makebox[15mm]{SetA}&\makebox[15mm]{SetB}\\[0.5mm]\hline1&88.3\%&63.7\%&80.1\%&36.3\%\\[0.5mm]2&94.4\%&75.1\%&90.6\%&50.4\%\\[0.5mm]3&96.8\%&80.6\%&95.0\%&58.8\%\\[0.5mm]4&97.6\%&83.6\%&96.4\%&65.0\%\\[0.5mm]5&98.8\%&87.2\%&97.6\%&69.6\%\\\hline\end{tabular}\end{center}\end{table}表~\ref{tab:expparser1}において,「平均解析木数」は1文あたりに生成される構文木の平均であり,「平均解析時間」は1文の解析に要した時間(単位はミリ秒)の平均を表わしている.SetAのような短い文の場合は7ミリ秒程度,SetBのような長めの文の場合でも27ミリ秒程度で解析を行うことができる.また,表~\ref{tab:expparser2}の【形態素解析の文正解率】は,PGLRモデルに基づく構文木の生成確率の上位$n$位の解析結果の中に,単語分割と品詞付けの結果がコーパスに付加されたものと一致する構文木が含まれる文の割合を表わしている.同様に【構文解析の文正解率】は,上位$n$位の解析結果の中にコーパスに付加されたものと一致する構文木が含まれる文の割合を示している.この表から,例えば生成確率の1位の構文木について,SetAでは約80\%,SetBでは約36\%の文に対して正しい形態素・構文解析結果が得られたことがわかる.今回の実験で使用したコーパスがドメインの限られたコーパスであり,また辞書と接続表を評価用テキストと訓練用テキストの両方を用いて作成したこともあり,比較的良い結果が得られている. \section{おわりに} \label{sec:conclusion}本論文では,我々が現在公開している自然言語解析用ツール「MSLRパーザ・ツールキット」の機能と特徴について述べた.最後に,本ツールキットの今後の開発方針について述べる.まず,複数の接続制約を同時に組み込むLR表作成器,さらにそれを用いて解析を行うパーザの実装を進めている.現在のツールでは,LR表に組み込める接続制約の数は1種類のみである.しかしながら,例えば音声認識と同時に構文解析を行う場合,品詞間の接続制約だけでなく,音素間の接続制約も同時に利用した方が効率の良い解析ができると考えられる~\cite{imai:99:a}.この場合,音素と品詞の2つの接続制約をLR表に組み込む必要がある.また,これに合わせて,MSLRパーザの解析アルゴリズムも変更する必要がある.現在,複数の制約を取り扱うLR表作成器およびMSLRパーザのプロトタイプは完成しているが,効率の面でまだ問題があり,改良を進めている.次に,よりロバストな解析ができるようにパーザを拡張することが挙げられる.特に,辞書にない単語(未知語)が入力文中に現われたときには,原則的には解析に失敗する.現在のMSLRパーザは,カタカナが続いた文字列を未知語として登録するなど,非常に簡単な未知語処理機能が付加されているが,まだ改良の余地も多い.また,解析に失敗した場合でも,部分的な解析結果を表示する機能なども追加していきたいと考えている.最後に,本ツールキットに付属の日本語解析用の文法,辞書,接続表を改良することが今後の課題として挙げられる.これらを用いて新聞記事の解析を行った場合,解析に成功して何らかの結果を返すことのできる文の割合は約85\%である.解析に失敗する原因としては,前述の未知語処理の不完全さや文法規則の不備によるものが多い.より多様な文を解析できるようにするためには,特に文法を改良していかなければならない.また,本ツールキットに付属の文法を用いて解析を行った場合,PGLRモデルを学習するための構文木付きコーパスが存在しないために,PGLRモデルに基づく生成確率によって解析結果に優先順位を付けることはできない\footnote{公開されているツールでは,付属の文法を用いて解析を行った場合でも,単語数最小法,文節数最小法のヒューリスティクスに基づく解析結果の優先順位付けを行うことができる.}.現在,構文木付きコーパスを必要としないPGLRモデルの学習方法について研究をすすめている.\medskip\acknowledgmentMSLRパーザ・ツールキットは多くの方の協力を得て開発されました.李輝氏,日本アイ・ビー・エム株式会社の綾部寿樹氏には初期のLR表作成器を実装していただきました.九州工業大学の乾健太郎助教授には,PGLRモデルの理論を提案していただきました.Sussex大学のJohnCarroll氏,NationalElectronicsandComputerTechnologyCenterのSornlertlamvanichVirach氏には,MSLRパーザの実装に関する貴重な助言をいただきました.以上の皆様を始め,本ツールキットの開発に御協力いただきました全ての人々に感謝いたします.MSLRパーザの辞書引きモジュールは,奈良先端科学技術大学院大学・松本研究室で開発された高速文字列検索システムSUFARYをベースに作成しています.SUFARYの転用を許可下さいました松本研究室の皆様に深く感謝いたします.本ツールキットに付属の日本語解析用の辞書は,日本電子化辞書研究所が作成したEDR日本語単語辞書~\cite{edr:95:a}をもとに構築されています.本辞書の公開を許可下さいました日本電子化辞書研究所の皆様に深く感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{main}\begin{biography}\biotitle{略歴}\bioauthor{白井清昭}{1993年東京工業大学工学部情報工学科卒業.1995年同大学院理工学研究科修士課程修了.1998年同大学院情報理工学研究科博士課程修了.同年同大学院情報理工学研究科計算工学専攻助手,現在に至る.博士(工学).統計的自然言語解析に関する研究に従事.情報処理学会会員.}\bioauthor{植木正裕}{1995年東京工業大学工学部情報工学科卒業.1997年同大学院情報理工学研究科修士課程修了.2000年同大学院情報理工学研究科博士課程満期退学.同年4月同大学院情報理工学研究科計算工学専攻技術補佐員.同年7月国立国語研究所日本語教育センター研究員,現在に至る.自然言語解析に関する研究に従事.情報処理学会会員.}\bioauthor{橋本泰一}{1997年東京工業大学工学部情報工学科卒業.1999年同大学院情報理工学研究科計算工学専攻修士課程修了.同年同大学院情報理工学研究科計算工学専攻博士課程進学,在学中.統計的自然言語解析に関する研究に従事.}\bioauthor{徳永健伸}{1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,同大学大学院情報理工学研究科計算工学専攻助教授.博士(工学).自然言語処理,計算言語学に関する研究に従事.情報処理学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioauthor{田中穂積}{1964年東京工業大学工学部情報工学科卒業.1966年同大学院理工学研究科修士課程修了.同年電気試験所(現電子技術総合研究所)入所.1980年東京工業大学助教授.1983年東京工業大学教授.現在,同大学大学院情報理工学研究科計算工学専攻教授.博士(工学).人工知能,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\appendix \section{MSLRパーザによる解析例} \label{sec:appendix}\ref{sec:exp}項の実験で得られた解析結果の例を挙げる.まず,以下の例文(1),(2),(3)を解析し,PGLRモデルによる生成確率の最も大きい解析結果のみを表示させたときのMSLRパーザの出力を示す.\begin{enumerate}\item七日までのご予約ですので八日と九日の分でございますか\item十日と十一日のご予約を十一日と十二日に変更なさりたいわけですね\item御社の場合には割引価格が適用されますので朝食も含めて割と良いお部屋を百九十三ドルでご提供できます\end{enumerate}\begin{flushleft}\bf$\bullet$MSLRパーザの出力\end{flushleft}{\footnotesize\begin{verbatim}readingthegrammarfile`atr.gra'DonereadingLRtablefile`atr.prtb.set2'Done###1###$TAC23034-0030-3七日までのご予約ですので八日と九日の分でございますかaccept\end{verbatim}\noindent\discretionaries|~!@$\path|[<sent>,[<cl>,[<adv-cl>,[<verb>,[<verb/ga>,[<np>,[<n-sahen>,[<mod-n>,[<pp>,[<np>,[<n-date&time>,[<n-day>,[meisi-hi,七日]]]],[<p-kaku-optn>,[p-kaku-made,まで]]],[<p-rentai>,[p-rentai-no,の]]],[<n-sahen>,[<n-sahen/ga-o>,[<prefix>,[prefix-go,ご]],[sahen-meisi/ga-o,予約]]]]],[<aux>,[<auxstem>,[auxstem-desu,で]],[<infl>,[infl-spe-su,す]]]]],[<p-conj-advcl>,[p-conj-syusi,ので]]],[<cl>,[<vaux>,[<vaux>,[<verb>,[<verb/ga>,[<np>,[<n-hutu>,[<mod-n>,[<np>,[<n-date&time>,[<mod-n>,[<np|\\\path|>,[<n-date&time>,[<n-day>,[meisi-hi,八日]]]],[<p-para>,[p-para-to,と]]],[<n-date&time>,[<n-day>,[meisi-hi,九日]]]]],[<p-rentai>,[p-rentai-no,の]]],[<n-hutu>,[hutu-meisi-post,分]]]],[<aux>,[aux-de,で]]]],[<aux>,[<auxstem>,[auxstem-copula-masu,ございま]],[<infl>,[infl-spe-su,す]]]],[<aux>,[aux-sfp-ka,か]]]]]]5.716416e-23|\begin{verbatim}total1314CPUtime0.2sec###2###$TAS13004-0100-1十日と十一日のご予約を十一日と十二日に変更なさりたいわけですねaccept\end{verbatim}\noindent\path|[<sent>,[<cl>,[<vaux>,[<verb>,[<verb/ga>,[<np>,[<vaux>,[<vaux>,[<verb>,[<verb/ga>,[<pp-o>,[<np>|\\\path|,[<n-sahen>,[<mod-n>,[<np>,[<n-date&time>,[<mod-n>,[<np>,[<n-date&time>,[<n-day>,[meisi-hi,十日]]]],[<p-para>,[p-para-to,と]]],[<n-date&time>,[<n-day>,[meisi-hi,十一日]]]]],[<p-rentai>,[p-rentai-no,の]]],[<n-sahen>,[<n-sahen/ga-o>,[<prefix>,[prefix-go,ご]],[sahen-meisi/ga-o,予約]]]]],[p-kaku-o,を]],[<verb/ga-o>,[<mod-v>,[<pp>,[<np>,[<n-date&time>,[<mod-n>,[<np>,[<n-date&time>,[<n-day>,[meisi-hi,十一日]]]],[<p-para>,[p-para-to,と]]],[<n-date&time>,[<n-day>,[meisi-hi,十二日]]]]],[<p-kaku-optn>,[p-kaku-ni,に]]]],[<n-sahen/ga-o>,[sahen-meisi/ga-o,変更]]]]],[<aux>,[<auxstem>,[auxstem-sahen-5-r,なさ]],[<infl>,[infl-5-ri,り]]]],[<aux>,[<auxstem>,[auxstem-wish,た]],[<infl>,[infl-adj-i,い]]]],[<np>,[<n-hutu>,[n-keisiki,わけ]]]],[<aux>,[<auxstem>,[auxstem-desu,で]],[<infl>,[infl-spe-su,す]]]]],[<aux>,[aux-sfp-ne,ね]]]]]6.846102e-32|\begin{verbatim}total2583CPUtime0.3sec###3###$TAS12006-0080-1御社の場合には割引価格が適用されますので朝食も含めて割と良いお部屋を百九十三ドルでご提供できますaccept\end{verbatim}\noindent\path|[<sent>,[<cl>,[<adv-cl>,[<vaux>,[<vaux>,[<vaux>,[<verb>,[<verb/o>,[<mod-v>,[<pp>,[<pp>,[<np>,[<|\\\path|n-hutu>,[<mod-n>,[<np>,[<n-hutu>,[hutu-meisi,御社]]],[<p-rentai>,[p-rentai-no,の]]],[<n-hutu>,[hutu-meisi,場合]]]],[<p-kaku-optn>,[p-kaku-ni,に]]],[<p-kakari>,[p-kakari-wa,は]]]],[<verb/o>,[<pp-ga>,[<np>,[<n-hutu>,[<n-sahen>,[<n-sahen/ga-o>,[sahen-meisi/ga-o,割引]]],[<n-hutu>,[hutu-meisi,価格]]]],[p-kaku-ga,が]],[<n-sahen/ga-o>,[sahen-meisi/ga-o,適用]]]]],[<aux>,[aux-suru-sa,さ]]],[<aux>,[<auxstem-deac>,[auxstem-deac-reru,れ]]]],[<aux>,[<auxstem>,[auxstem-masu,ま]],[<infl>,[infl-spe-su,す]]]],[<p-conj-advcl>,[p-conj-syusi,ので]]],[<cl>,[<adv-cl>,[<verb>,[<verb/ga-ni-o>,[<mod-v>,[<pp>,[<np>,[<n-hutu>,[hutu-meisi,朝食]]],[<p-kakari>,[p-kakari-mo,も]]]],[<verb/ga-ni-o>,[<vstem1/ga-ni-o>,[vstem-1/ga-ni-o,含め]]]]],[<p-conj-advcl>,[p-conj-renyo-te,て]]],[<cl>,[<vaux>,[<vaux>,[<verb>,[<verb/ga>,[<pp-o>,[<np>,[<n-hutu>,[<mod-n>,[<verb>,[<verb/ga>,[<mod-v>,[<advp>,[<adv>,[hukusi,割と]]]],[<verb/ga>,[adjstem/ga,良],[<infl>,[infl-adj-i,い]]]]]],[<n-hutu>,[<prefix>,[prefix-o,お]],[<n-hutu>,[hutu-meisi,部屋]]]]],[p-kaku-o,を]],[<verb/ga-o>,[<mod-v>,[<pp>,[<np>,[<n-quant>,[<n-num>,[<n-num-hyaku>,[<n-num-keta-hyaku>,[<num-suf-hyaku>,[num-hyaku,百]]],[<n-num-zyuu>,[<n-num-keta-zyuu>,[<n-num-ichi>,[num-kyuu,九]],[<num-suf-zyuu>,[num-zyuu,十]]],[<n-num-ichi>,[num-san,三]]]]],[<suffix-unit>,[suffix-doru,ドル]]]],[<p-kaku-optn>,[p-kaku-de,で]]]],[<n-sahen/ga-o>,[<prefix>,[prefix-go,ご]],[sahen-meisi/ga-o,提供]]]]],[<aux>,[<auxstem>,[auxstem-sahen-1,でき]]]],[<aux>,[<auxstem>,[auxstem-masu,ま]],[<infl>,[infl-spe-su,す]]]]]]]]6.264841e-45|\begin{verbatim}total19284CPUtime0.13sec\end{verbatim}}\noindent解析結果は括弧付けで表現された構文木として出力される.構文木の右にある数値はその構文木のPGLRモデルによる生成確率である.「total」は得られた解析結果の総数を,「CPUtime」は解析に要した時間を表わす.以下,得られた解析結果を構文木の形で示す.但し,紙面の都合により,構造の一部を簡略している.\begin{flushleft}\thicklines\bf$\bullet$例文(1)の解析結果\\[2mm]\input{extree1.tex}\bf$\bullet$例文(2)の解析結果\\[2mm]\input{extree2.tex}\newpage\bf$\bullet$例文(3)の解析結果\\[2mm]\input{extree3.tex}\end{flushleft}\newpage\thispagestyle{plain}\\newpage\thispagestyle{plain}\\end{document}
V06N02-07
\section{はじめに} \vspace{-2mm}テキスト音声合成システムの言語処理部における重要な課題の一つに,ポーズ挿入処理が挙げられる.ポーズ挿入処理は,音声化され,出力されたテキストの内容を人間が感覚的,意味的に捉えやすくするために,テキスト中の適当な位置に適当な長さのポーズを与える,テキスト音声合成に必須の技術であり,入力テキストの書き手が意識して挿入した句読点以外にも構文構造とポーズ挿入位置の関係が研究されてきた.従来の研究から,ポーズは構文的区切りと一致する\cite{杉藤1988},また特定の句構造\mbox{において}ポーズが挿入され易い\cite{海木1996}という知見が得られている.この他にも,文節間の係り受け距離と文節の長さが,ポーズ挿入の有効な手がかりになるという知見\cite{箱田1980},さらに,係り受け関係,句読点,文中における位置情報を加えることで精度が高まると期待できるとの報告\cite{箱田1989}もある.しかし,これらは係り受け距離や係り受け関係\mbox{などのテキ}スト情報が既に得られているとの前提に立った報告であり,実際にそれらのテキスト情報を求めるためには構文解析処理が別途必要となる.一般に構文解析処理は,大量の言語知識データを要する,テキストから精度の高い統語構造の自動抽出が困難,処理が重くなる,などといった問題から,実働するシステムにおいては,簡易なテキスト解析で得られる単語の品詞やモーラ数など,形態素解析レベルで得られる情報や,局所的な数文節に着目した簡易な係り受け解析が広く用いられている\cite[など]{宮崎1986,浅野1995,鈴木1995,澗潟1996,塚田1996,Tsukada1996,海木1996}.係り受けの範囲については,隣接する数文節の範囲内に限定できるとの報告\cite{箱田1989,鈴木1995},実際の文章において,隣り合う2文節の係り受けが\mbox{連続する場合が多いという}\mbox{報告\cite{丸山1992,張1997}があり},隣接2文節,もしくは局所的\mbox{な数文節間の係り受}け解析結果を用いた方法でかなり高精度のポーズ挿入が実現できることが明らかになっている.しかしながら,人間が聞いて理解しやすい構文的まとまりは,複数の文節によって様々なパタンで構成されており,上記方法でも限界はある.例えば,小説や随筆など,一文がある程度長く,文の構造が複雑なものになると,係り受けが3文節以上に跨る文の存在は少なくない.予め係り受けの範囲を3文節に限定してしまうことで,構文的まとまりの一節中にポーズが挿入されるなど不自然な読み上げを頻出する場合がある.一方,別のアプローチの一つに,コーパスを利用した統計的なポーズ挿入位置の予測方法が報告されている.文献\cite{Iwata1990}では,隣接2単語の接続のしやすさを\mbox{コーパスを用い}てスコア化し,それを用いたポーズ挿入方法を提案している.また,文献\cite{Doi1994}では,副助詞や接続助詞などの文法的役割に着目し,コーパスを用いてそれらの語彙の後に来るポーズの長さをレベル化し,それを用いたポーズ挿入方法を提案している.さらに文献\cite{藤尾1997}では係り受け情報付きコーパスの学習とポーズ情報付きコーパスの再学習によりフレーズ境界前後の形態情報とポーズ長の関係を統計的に得る方法を提案している.しかし,これらの方法は予め大量の学習用データを要し,さらにデータの分野依存が大きいと考えられる.本稿では,大量の学習用データに頼らず,長距離の係り受け解析をする,軽量・高速な構文解析処理を用いたポーズ挿入手法について報告する.本手法では,解析の範囲を文の長さや文節数で限定せず,一文を単位とした係り受け解析の情報を利用する.また,本手法をPC上で実動するレベルのテキスト音声合成システムに実装して,その効果を確認した. \section{構文解析処理の導入} \subsection{利用する構文解析処理系}本手法では,日本語解析系QuickJapaneseParser(以下,QJP)\cite[など]{亀田1996,Kameda1996}をテキスト音声合成システムの構文解析に利用する.先に述べたように,一般的な構文解析で,実用レベルの開発を難しくしている要因に,詳細かつ膨大な(場合によっては意味まで踏み込んだ)規則を要する,生成される候補が多い,計算量も多い,などの問題がある.また,その解析精度も形態素解析技術に比べると処理が複雑であるため,なかなか実用レベルになりにくい.しかし,QJPは,日本語解析を要する応用系システムへの組み込みが容易な言語処理ライブラリであり,効率的な処理が実現可能である.QJPは字種の特徴を利用した小規模辞書ベースの形態素解析系と,形態素情報ベースの規則による構文解析系の2つの処理系で構成されている.主に形態素情報による規則を用いて解析処理を行なうため,シソーラスや意味情報など,構築およびメインテナンスに労力を要する膨大な言語知識データは不要であることを大きな特徴としている.構文解析系は,一文毎に単語列を文節にまとめる際,文節にはその構成単語の品詞情報を利用して文節属性が設定される.その文節属性や品詞情報に基づき係り受け可能文節対を検出し,非交差規則,再近接文節選択をベースに,様々なヒューリスティックを用いた例外処理も用いて,尤もらしい係り受け文節対を確定する.品詞情報とその組み合わせで構文解析処理を行なうため,解析規則等のデータ開発コストが抑えられ,軽量さ,高速さを実現できている.また,長文に対しての頑健さも兼ね備えているため音声合成向けのテキスト解析に導入しやすい.さらに,係り受け処理の単位が一文であり,文節数が限定されないため,対象となった文中の本来の文法的区切り位置を得ることが可能である.\subsection{ポーズ挿入のための利用可能情報}構文解析処理を導入することで,利用可能なテキスト情報が大幅に増える.これらの情報をどのように利用するかで様々な手法が考えられ得る.まず,形態素解析結果から得られるポーズ挿入処理に有益なテキスト情報は,以下の通りである.\begin{itemize}\item句読点位置情報\item語彙レベルの定性的情報感動詞,接続詞,提題の意味の「は」の直後にはポーズが入りやすい,などの品詞や語特有の性質\item文節モーラ長\item局所的な連続文節間の関係隣接を含む局所的な連続した数文節間における係り受け関係の有無\end{itemize}\vspace{0.2cm}さらに,QJPの構文解析系の解析結果から得られるポーズ挿入処理に有益なテキスト情報は以下の通りである.\begin{itemize}\item文節の属性\item係り受け文節対\item係り受け文節間の距離隣接文節間の係り受け距離を1としてカウントする(一文中の文節数>距離>0)\item係り受けの関係係り受け文節対の各属性に基づく\end{itemize}\vspace{0.2cm}そこで,まず予備調査として,先行研究\cite[など]{箱田1980,箱田1989}で取り扱われている,係り受け文節間の距離を用いてポーズ挿入実験を行ない,その評価結果に基づいて実際のポーズ挿入処理アルゴリズムの設計を行なうことにした.\subsection{予備実験}本手法の予備調査のために,係り受け文節間の距離のみを用いたポーズ挿入実験を行なった\cite{佐藤1997}.以下,予備実験について述べる.\subsubsection{2.3.1\hspace{5mm}実験方法}\label{yobichosa}実験は下記の手順で行なった.使用したサンプルテキストは日本電子工業振興協会の報告\mbox{書\cite{日本電子工業振興協会1995}の付録の}評価文の抜粋および小説\cite{村上1995}\mbox{の抜粋を用いた.}また,比較対象は形態素解析と隣接間係り受け処理を用いたポーズ挿入処理を実装している既製のテキスト音声合成ソフトウェアパッケージ\footnote{(株)リコー製テキスト音声合成ソフトウェア「雄弁家V2」を使用}の出力である.\begin{enumerate}\itemサンプルテキストを比較対象のテキスト音声合成ソフトに入力し,ポーズ記号,アクセント句区切り記号を含む発音記号列を自動的に作成する\item同ソフトにおいて同じサンプルテキストを発音記号列に自動的に変換した後,挿入されたポーズ記号,アクセント句区切り記号を取り除き,「読み」のみの記号列を作成する\itemQJPに同じサンプルテキストを入力し,形態素解析&構文解析結果を得る\itemQJPの出力結果から係り受け文節を抽出し,係り文節から受け文節までの距離を表\ref{tab:ypau}の通り各ポーズレベルへ対応づける\item予め作成しておいた(2)の読み記号列に(4)の結果を反映させ(対応ポーズレベルをポーズ記号に変換して手入力),文節間距離情報を反映した発音記号列を作成する\item比較対象のテキスト音声合成ソフトが自動作成した(1)の発音記号列と,\mbox{文節間距離}情報を反映した(5)の発音記号列を比較・評価する\end{enumerate}\vspace{0.2cm}\begin{table}[hbtp]\caption[文節間距離--対応ポーズレベル]{文節間距離--対応ポーズレベル}\label{tab:ypau}\begin{center}\begin{tabular}{|ll|}\hline{\gt距離}&{\gtポーズレベル}\\距離1(直後に係る)&アクセント句区切り\\距離2&小ポーズ\\距離3&中ポーズ\\距離4以上&大ポーズ\\\hline\end{tabular}\end{center}\end{table}\vspace{0.2cm}\subsubsection{2.3.2\hspace{5mm}結果}評価はポーズ挿入正解率,ポーズ挿入精度向上率,ポーズ挿入精度降下率という3つの観点で行なった.ここで言うポーズ挿入正解率とは,期待ポーズ位置数に対して期待通りのポーズが挿入された割合,ポーズ挿入精度向上率とは,比較対象のテキスト音声合成ソフトで失敗した箇所が文節間距離情報を反映した方法で成功している割合,ポーズ挿入精度降下率とは,比較対象のテキスト音声合成ソフトで成功していた箇所が文節間距離情報を反映した方法で失敗した割合と定義している.評価結果を表\ref{tab:yhyoka}に示す.\vspace{0.2cm}\begin{table}[hbtp]\caption[評価結果]{評価結果}\label{tab:yhyoka}\begin{center}\begin{tabular}{|l|r|}\hlineポーズ挿入正解率(比較対象のテキスト音声合成ソフト)&92.0%\\\hlineポーズ挿入正解率(文節間距離情報を反映した方法)&97.6%\\\hlineポーズ挿入精度向上率&94.8%\\\hlineポーズ挿入精度降下率&2.2%\\\hline\end{tabular}\end{center}\end{table}\vspace{0.2cm}\subsubsection{2.3.3\hspace{5mm}予備実験における考察}評価結果より,係り受け文節間の距離だけでも形態素解析と隣接間係り受け処理を用いたポーズ挿入処理を実装したシステムのポーズ挿入誤りを大幅にカバーできるということが明らかになった.一方,ポーズ挿入精度降下の原因を調査すると,多くはQJPの形態素解析誤りのため,構文解析処理に失敗し,正確な係り受け文節間の距離が得られなかったことに起因していた.しかし,正確な係り受け文節間の距離が得られても,以下のような問題点が明らかになった.\vspace{0.2cm}\hspace*{0.5cm}●入力テキスト\hspace*{1cm}「複雑な技術だけが生み出すことのできる種類の優美さだった.」\vspace{0.2cm}\hspace*{0.5cm}●実験結果出力された発音記号列\footnote{発音記号列における「/」はアクセント句境界またはポーズ挿入位置を示す.また,ここでは「/」の数が1のときはアクセント句境界を表し,2以上のときはポーズを表す.2以上の場合,数が多いほどポーズの長さが長いことを示す.}\hspace*{1.1cm}フクザツナ/ギ’ジュツダケガ/ウミダ’ス/コト’ノ/デキ’ル/\hspace*{1cm}シュ’ルイノ/ユービ’サダッタ.\vspace{0.4cm}上記例文では,各文節が直後に係る(距離=1)係り受け関係が連続しており,各アクセント句境界に同じアクセント句区切りが挿入されてしまった.このような場合,読み上げが単調になるため,聞き手側には構文的区切り位置がどこにあるのか分からないなど,不自然さが残る.構文解析により構文的区切り位置の情報を得ることができても,実際には上記例文のように,距離=1の係り受けが連続する場合が多い\cite{丸山1992,張1997}ため,係り受け文節間の距離を単純にポーズ長へマッピングするだけでは,実装上まだ不足であり,ポーズ長の制御のための何らかのテキスト情報を取り入れる必要がある.そこで,次に,文献\cite{箱田1989}を受けて,テキスト情報として係り受け文節間の距離に加えて,係り受けの関係を利用することにした.さらに,語句や呼気段落における定性的な規則も用いることにした.\subsection{ポーズ挿入規則}\label{kisokupose}本稿で提案するポーズ挿入手法では,基本的にテキスト中の各文節末には何らかの韻律句境界があると定義する.そして,各韻律句境界にポーズ挿入規則に基づき,ポーズ挿入が生じ易いかどうかの指標をポーズ挿入尤度として設定する.規則により全ての韻律句境界にポーズ挿入尤度が設定されたら,ポーズ挿入尤度の高い境界から順に,適当なレベルのポーズを挿入する.ポーズ挿入規則は,文献\cite{箱田1989}に基づき,係り受け文節間の距離に基づく規則と係り受けの関係に基づく規則と,語句や呼気段落における定性的な規則の3規則にまとめた.\begin{enumerate}\item{\gt係り受け文節間距離(d)に基づく規則}係り受け文節間距離(d)とは,着目している文節位置直後から,その係り先文節まで\mbox{に含まれる文節の数}(係り先文節を含む)とする.従って,\mbox{隣接文節はd=1となる}.dはそのままポーズ挿入尤度とする(表\ref{tab:pau1}).テキスト中にポーズを挿入する際は,尤度に対応したポーズ長レベルを予め設定しておく必要がある.ポーズ長レベルはシステムの用途によって変更可能である.\begin{table}[hbtp]\caption[規則1]{規則1}\label{tab:pau1}\begin{center}\begin{tabular}{|c|l|}\hline{\gt文節間距離(d)=ポーズ挿入尤度}&{\gtポーズ長レベル設定の一例}\\\hlined=1&アクセント句区切りレベル\\\hlined=2&声だて(立て直し)レベル\\\hlined=3&小ポーズレベル\\\hlined=4&中ポーズレベル\\\hlined$>$4&大ポーズレベル\\\hline\end{tabular}\end{center}\end{table}\item{\gt係り受けの関係による規則}予備調査の結果,上記規則1だけでは,ポーズ長が一定で単調,構文のまとまりがわかりにくい読み上げとなる場合があることが明らかになった.そこで,本手法では規則1でd=1の場合に限り,更に係り受けの関係に基づくポーズ挿入尤度を設定することにした.QJP構文解析系の係り受けの関係はかなり多くのバリエーションがあるが,本手法ではこれらを文法に即して大まかに6種に大分類し,対応するポーズ挿入尤度を持たせた(表\ref{tab:pau2}).\begin{table}[hbtp]\caption[規則2]{規則2}\label{tab:pau2}\begin{center}\begin{tabular}{|l|c|}\hline{\gt係り受け関係(大分類)}&{\gtポーズ挿入尤度}\\\hline係り先が文末文節&Q\\\hline隣接関係&N\\\hline複合関係(アクセント結合の可能性あり)&D\\\hline連体関係&T\\\hline並列関係&H\\\hline連用関係&Y\\\hline\end{tabular}\end{center}\end{table}\vspace{0.3cm}ポーズ挿入尤度の高低は隣接文節関係の知見より以下のように設定した.\begin{center}D−T−H−Y−N−Q尤度(低)\qquad$\longrightarrow$\qquad尤度(高)\end{center}規則2ではポーズ挿入尤度はアルファベット1文字のフラグで表記しており,規則1同様,テキスト中にポーズを挿入する際は,尤度に対応した基準のポーズ長レベルを予め設定しておく必要がある.\item{\gt語句や呼気段落における定性的な規則}句点の位置には文末相当のポーズを挿入する,読点の位置にはそれ相応のポーズを挿入する,など従来研究の知見や形態情報から得られる定性的な規則も併用する.これらは文献\cite{箱田1989}で挙げられているテキスト情報「句読点」「文節位置」の他,文節を構成する単語の語彙情報も含んでいる.また,テキスト中にポーズ挿入尤度の高い境界から順に,実際に適当なレベルのポーズを挿入した際,同レベルのポーズに挟まれた発話区分のモーラ数が呼気段落を考慮して予め任意に設定した一定のモーラ長を超過した場合は,その間にある各文節境界のポーズ挿入尤度を参照し,最もポーズ挿入尤度が高い境界位置のポーズ長レベルを格上げし,同レベルのポーズを挿入する.\end{enumerate}\subsection{ポーズ挿入処理のアルゴリズム}\label{algopose}\ref{kisokupose}節で述べたポーズ挿入規則に基づき,入力テキストに以下の手順でポーズ位置とポーズ長を設定する.\vspace{0.3cm}\begin{enumerate}\item文節間距離の算出係り受け成立が確定した文節間のdを算出する\itemdに対応するポーズ挿入尤度設定規則1に基づき,各文節末(=アクセント句末)へdに応じたポーズ挿入尤度を設定する\item係り受けの関係によるポーズ挿入尤度設定d=1の係り受け文節間にのみ,規則2に基づき,係り受けの関係によるポーズ挿入尤度(基準値)を設定する\item句読点位置へのポーズ挿入尤度設定句点の位置に文末相当の尤度を,読点の位置に適当な尤度を挿入する\item各境界へのポーズ長の設定各文節末にポーズ挿入尤度が設定されたら,アクセント結合処理などを経て,ポーズ挿入尤度の高い境界から順に予め設定しておいた尤度に対応した適当なレベルの長さのポーズを挿入する\item発話区分のモーラ長限界によるポーズ長レベルの格上げ同レベルのポーズに挟まれた発話区分のモーラ長が呼気段落を考慮して予め任意に設定した一定のモーラ長を超過した場合は,その間にある各文節境界のポーズ挿入尤度を参照し,最もポーズ挿入尤度が高い境界位置のポーズ長レベルを格上げして,同レベルのポーズを挿入する\end{enumerate} \section{システムへの実装} label{sec:coding}前節で述べたポーズ挿入処理を,実際にPC上で実動するテキスト音声合成システムへ実装した.\subsection{システム構成}QJPの形態素解析系では,単語辞書を利用せず,字種の特徴を利用して単語切りをしており,音声合成に必要な読み・アクセント情報を得る手段が無い.また,漢字複合語列を各単語に分割しないため,後処理にアクセント結合処理が控えている音声合成の言語処理では問題になる.そこで,本システムへの実装にあたり,形態素解析には読みやアクセント情報記載の単語辞書を利用する形態素解析モジュールを用い,その出力をQJPの構文解析モジュールへ入力できるようなシステム構成を考えることにした.形態素解析処理に用いる品詞の体系と構文解析処理に用いる品詞の体系が異なる場合,形態素解析処理の出力結果をそのまま構文解析処理の入力とできないことがしばしばある.そのような場合には,間に品詞変換処理が必要となるが,本システムでも同様に,QJP構文解析系を利用するために,品詞変換モジュールを併せて開発した\cite{望主1998}.本システムでは構成上,品詞変換モジュールとQJP構文解析モジュールを合わせて,拡張QJP構文解析系と呼ぶ.また,後続処理である,アクセント結合モジュールとポーズ挿入モジュールを合わせてフレージング処理系と呼ぶ.本システム構成を図\ref{fig:sys}に示す.\vspace{2.2mm}\begin{figure}\begin{center}\epsfile{file=msg80fig.eps,width=10.75cm}\vspace{5mm}\caption{システム構成}\label{fig:sys}\end{center}\end{figure}\newpage \section{発音記号生成実験} label{sec:test}本手法の効果を確認するために,簡単な評価実験を行なった.以下,実験内容について述べる.\subsection{サンプルテキストと比較対象}評価実験にはポーズの正確さを評価するため,一文がある程度長く,文の構造が複雑である小説\cite{村上1995}から引用した文を入力用サンプルテキストとして用いた\footnote{予備調査の実験サンプルと出典は同じであるが,引用文に重複はない}.一文の平均文節数は21.5,平均モーラ数は146.5である.比較対象は2.3.1節の予備調査の実験と同様のテキスト音声合成\mbox{ソフトウェアパッケージ(以}下,従来システムと呼ぶ)の出力した発音記号列である.\subsection{実験方法}実験は以下の手順で行なった.\begin{enumerate}\item形態素解析誤りが構文解析処理に影響しないように,必要に応じて従来システム,および本手法を実装したシステムへの単語登録,解析誤り訂正を予め行なっておく\itemサンプルテキストに対し,最も自然に聞こえるように人手でチューニングした発音記号列(A)を作成する\footnote{2人の人間がチューニングし,意見が分かれた箇所は一緒に実際に出力音声を聞き比べて検討し,一意に意見をまとめた}\itemサンプルテキストを従来システムに入力し,発音記号列(B)を得る\itemサンプルテキストを本手法を実装したシステムに入力し,発音記号列(C)を得る\item得られた発音記号列(B),(C)のポーズ挿入位置を,発音記号列(A)のポーズ挿入位置と比較する\end{enumerate}\subsection{評価方法}評価は,予備調査時の評価方法と同様に,ポーズ挿入正解率,ポーズ挿入精度向上率,ポーズ挿入精度降下率という3つの観点で行なった.\subsection{評価結果}評価結果を表\ref{tab:kekka}に,更に,ポーズ挿入精度向上例を発音記号サンプルを挙げて示す.\vspace{0.3cm}\begin{table}[hbtp]\caption[評価結果]{評価結果}\label{tab:kekka}\begin{center}\begin{tabular}{|l|r|}\hlineポーズ挿入正解率(従来システム)&80.7%\\\hlineポーズ挿入正解率(本手法実装システム)&95.5%\\\hlineポーズ挿入精度向上率&77.8%\\\hlineポーズ挿入精度降下率&7.7%\\\hline\end{tabular}\end{center}\end{table}\vspace{0.2cm}\begin{itemize}{\item\smallひとまとまりの意味を成す連文節中に目立ったポーズが挿入されるなどの致命的なポーズ誤りに対するポーズ挿入精度向上率は100%}{\item\smallポーズ挿入精度降下率は係り受け解析誤りを含む}{\item\smallQJPの評価文に対する構文解析精度(係り受け正解率)は86.6%}\end{itemize}\vspace{0.3cm}【ポーズ挿入精度向上例】\footnote{発音記号列における「/」はアクセント句境界またはポーズ挿入位置を示す.また,「/」の数が1のときはアクセント句境界を表し,2以上のときはポーズを表す.2以上の場合,数が多いほどポーズ挿入尤度が高い(=ポーズの長さが長い)ことを示す.以降の例についても同様である.}\vspace{0.3cm}\hspace*{0.5cm}●入力テキスト\hspace*{1cm}「その女性は赤い長めのオーヴァーコートを着て,・・・」\vspace{0.3cm}\hspace*{0.5cm}●従来システムが出力した発音記号列\hspace*{1.1cm}ソノ/ジョセーワ/アカイ////ナガメノ/オーバーコ’−トオ//キテ////\vspace{0.4cm}「赤い」と「長め」の間に長いポーズが挿入されているが,この発音記号を音声出力すると,文意と異なった意味にとれるほど不自然である.隣接文節との係り受けの可否で検査するため,「女性は」と「赤い」の係り受けの関係が強く,「赤い」と「長め」の係り受けの関係が弱いことにより,こういった失敗が生じていた.\vspace{0.4cm}\hspace*{0.5cm}●本システムが出力した発音記号列\hspace*{1.1cm}ソノ/ジョセーワ////アカイ//ナガメノ/オーバーコ’−トオ/キテ////\vspace{0.4cm}本手法による発音記号では,文意に即した自然な音声出力が得られた.遠い係り先まで検査するため,「女性は」の係り先可能性として,「赤い」と「着て,」を検出する.QJPにより「着て」との係り受けが尤もらしいと判断され,係り受け文節間の距離4で「女性は」の後に長いポーズが挿入される.一方,「赤い」は「オーヴァーコートを」に係るので,係り受け文節間の距離2で「赤い」の後には「女性は」の直後のポーズより短いポーズが挿入される(図2参照).{\setlength{\baselineskip}{3.5mm}\begin{verbatim}【係り受け木構造】【係り受け関係】[1]:┏その<連体詞連体:体言句>[2]:┏女性は<主格主題:動詞句>[3]:┃┏赤い<連体形連体:体言句>[4]:┃┣長めの<の連体:体言句>[5]:┣オーヴァーコートを<を連用:動詞句>[6]:┏着て,<て連用:動詞句>:::図2QJPの出力した係り受け\end{verbatim}}\vspace{0.3cm}\subsection{考察}評価結果より,文節数に制限のない係り受け文節間の距離,および係り受け関係をポーズ挿入処理に利用することが,ポーズ挿入精度の向上に寄与することが確認された.一方,適切なポーズが挿入できない原因を調査すると,約54%が構文解析処理の誤りに起因するものであった.その他,係り先が遠い文節が続いた場合のポーズ長の調整不足によるもの,規則2の係り受け関係の分類の甘さによりポーズ挿入尤度が効いていないものがあった.\subsubsection{4.5.1\hspace{5mm}構文解析精度との関係}本システムにおいては,規則1により,係り先文節への距離5以上の場合,挿入尤度が同じ(大ポーズレベル)になるため,距離5の係り受けを,距離10の係り受けと誤っても,係り受け誤りは吸収されるため,構文解析誤り全てがポーズ挿入処理に悪影響を及ぼすものではない.逆に距離4以下の係り受けに対しては精度の高さが求められる.構文解析処理の誤りに起因するポーズ挿入誤りは,QJPの係り受け解析規則をより高精度にすることで,減少することが期待できる.\subsubsection{4.5.2\hspace{5mm}ポーズ長の調整}接続詞句や副詞句など,係り先が遠く独立性の高い文節の直後には,規則に基づくと長いポーズが挿入されるが,これらの句が連続して続く場合には短いモーラ長の句の間に長いポーズが続けて挿入される.構文的区切り位置であることは明らかに分かるが,自然な読み上げには聞こえない.下記の例では,「しかし」,「仮に」,「それが」の係り先文節への距離(d)が4以上であるため,各文節末に長いレベルのポーズが挿入され,音声出力した場合,不自然に聞こえてしまう.\vspace{0.3cm}【長いポーズ連続挿入例】\vspace{0.3cm}\hspace*{0.5cm}●入力テキスト\hspace*{1cm}「しかし,仮にそれが実証に一番都合のいい方法であるにしても・・・」\vspace{0.3cm}\hspace*{0.5cm}●本システムで出力される発音記号列\hspace*{1.1cm}シカ’シ////カリニ////ソレガ////ジッショーニ///イチバン//ツゴーノ/\hspace*{1cm}イ’ー/ホーホーデ/ア’ルニ/シテ’モ・・・\vspace{0.4cm}文法的要因の他に境界前後の句のモーラ長がポーズ位置やポーズ長に影響を与えるということは言及があり\cite[など]{箱田1980,Tsukada1996},モーラ長も無視できない要因である.上記例のように3モーラ程度と短く,独立性の高い文節間に長いポーズが連続して挿入される場合には,ポーズ挿入尤度の低い境界におけるポーズのポーズ長レベルの格下げなど,\ref{algopose}節のポーズ挿入処理のアルゴリズムの6の逆を実施するなど,呼気段落に基づくモーラ長の最短閾値の設定で対処していくことが考えられる.\subsubsection{4.5.3\hspace{5mm}係り受け関係の分類}本手法ではQJP構文解析系の係り受けの関係を大まかに6種に大分類してポーズ挿入尤度を持たせたが,尤度が効いていない事例があった.ガ格やヲ格など格関係を別分類にする,また,係り受け関係の出現順を考慮するなど,まだ再考の余地があると考えられる. \section{おわりに} label{sec:musubi}テキスト音声合成のポーズ挿入処理に軽量・高速な構文解析処理を導入し,一文全体の係り受け情報を利用して構文的区切り位置の同定,同位置へのポーズ挿入,最適なポーズ長の実現を実システム上で試みた.その結果,以下の2点を確認することが出来た.\begin{itemize}\item一文全体の係り受け解析処理を導入した本手法のポーズ挿入処理方法の方が,隣接間係り受け処理を用いたポーズ挿入処理よりも挿入精度が高く有効である\item係り受け文節間の距離と係り受け関係の情報以外に,同レベルポーズ間のモーラ長閾値の調整が必要である.さらに,係り受け関係の細分や規則としての適用順を考慮することでポーズ挿入精度の向上が期待できる\end{itemize}本稿では,文節数に制限のない係り受け処理をテキスト音声合成システムの言語処理部に実装して,ポーズ挿入精度の向上効果を確認した.今後は,この結果を反映した規則音声合成システムを実用レベルにするために,さらに大量のテキストを利用してデータやシステムのチューニングを進める予定である.また,構文解析処理の精度を高めると共に,その導入により得られる情報をもっと有効活用し,テキスト読み上げだけでなく,ユーザの任意な出力形態要求に対応できる出力形式について検討していく予定である.\vspace{1.5cm}\acknowledgment本稿作成の過程で適切な助言をくださった(株)リコー情報通信研究室第34研究室の藤本潤一郎室長に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{v06n2_02}\begin{biography}\biotitle{略歴}\bioauthor{佐藤奈穂子}{1990年東京女子大学文理学部日本文学科卒業.同年,(株)リコー入社.日本語処理,音声言語情報処理の研究開発に従事.言語処理学会会員}\bioauthor{小島裕一}{1989年早稲田大学大学院理工学研究科修士課程卒業.同年,(株)リコー入社.音声言語情報処理の研究開発に従事.}\bioauthor{望主雅子}{1986年東京女子大学文理学部日本文学科卒業.同年,(株)リコー入社.日本語処理,音声言語情報処理の研究開発に従事.計量国語学会,情報処理学会,言語処理学会各会員.}\bioauthor{亀田雅之}{1977年東京大学教養学部基礎科学科卒業.79年同大学院理学系研究科相関理化学専門課程[化学物理]修士修了.同年,富士通(株)入社後,FHL出向を経て,82年より富士通研究所にて自然言語理解,知識表現,機械翻訳の研究開発に従事.87年本田技術研究所入社,和光研究センター勤務.88年リコー入社,現在に至る.自然言語処理(特に日本語解析とその応用)の研究開発に従事.情報処理学会,言語処理学会各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V19N03-04
\section{はじめに} label{sec:hajimeni}法は章節/条項号という階層を有する,基本的に構造化された文書であり,国(国会)の制定する法律,地方自治体(議会)が制定する条例の二つがある.前者に規則を加え法規,後者に規則を加え例規と総称される.日本国内で法律を制定する主体は国家のみだが,条例を制定する地方自治体は多数存在する.そのため,同一の事柄について規定する多数の例規が地方自治体ごとに存在することになる.例えば,各県の象徴であり,旗に用いられる県章を定めた条例は全都道府県で制定されており,青少年の保護育成を目的とする条例は,長野県を除く46都道府県で制定されている.これら同一事項に関する条例は相互に類似しているものの,地方自治体の置かれた状況が異なるため,随所に相違点が存在している.一例として,青少年の保護育成を目的とした条例では,青少年の深夜外出を制限しているが,その制限される時間が異なっている事が挙げられる.東京都や愛媛県では午後11時から午前4時を深夜と定義している一方,高知県では午後10時から午前4時を深夜としている.また,大阪府では外出を制限する時間帯を年齢によって変えており,16歳未満の場合は午後8時から午前4時まで外出を制限される.このような違いを明確化するため例規比較が行われる.例規比較は,自治体間の違いを明らかにする教育・研究活動以外にも,企業法務や自治体法務においても発生する業務である.自治体法務における例としては,例規を制定・改正する際の参考資料作成,さらには自治体合併時に全例規を擦り合せて一つに纏めるための準備作業が挙げられる.特に自治体合併時には,対象となる全自治体の全例規に対する例規比較を短時日に行う必要がある仕事量の多い法務となっている\cite{加藤幸嗣:2006-05,伊佐美浩一:2005-05,伊佐美浩一:2005-08,藤井真知子:2007-07-31}.現在,この例規比較は専門家が手作業で実施しているため,計算機を利用した作業の省力化が望まれている.そこで本研究では,条文対応表の作成支援を目的とし,与えられた2つの例規の条文対応表を計算機で作成する手法の検討及び,得られた条文の対応関係の尤もらしさについての評価を行う.法を計算機で扱う研究は,法律の専門家を模倣するエキスパートシステムに関する研究として,人工知能研究の派生領域として発達してきた.本分野初期の国際会議として,1987年より隔年開催されているInternationalConferenceonArtificialIntelligenceandLaw\cite{ICAIL}と,1988年より毎年開催されているInternationalConferenceonLegalKnowledgeandInformationSystem\cite{JURIX}がある.日本では平成5年度から9年度の文部省化学研究費重点領域研究「法律エキスパートシステムの開発研究」において促進された\cite{吉野一}.この期間を通してインターネット上における法律の閲覧が可能となり,特に判例を計算機で利用する知的システムに関する多数の研究が実施された.法律や例規以外の法関係の文書に対する情報科学との融合研究としては,特許における公開特許公報中の請求項と発明の詳細な説明文との対応付けを行う研究が行われている\cite{ronbun2-4,ronbun2-2}.また,法律用語のオントロジー構築に対する研究も行われた\cite{山口高平:1998-03-01}.そして,日本においても2007年より人工知能学会全国大会の併設ワークショップとしてInternationalWorkshoponJuris-informatics(JURISIN:JURISINformatics)が毎年開催されている.自治体の情報化を支援する企業も多数存在し,例規のインターネット上での公開支援にとどまらず,例規改正の編集過程に基づき,改正前後の差異を表現した新旧対照表を自動作成する事も可能となっている\cite{kakuda}.現在では,官報を基に法務省行政管理局が整備した法令データ提供システムが日本の法令を提供している\cite{eGov}.また,多くの法律の英対訳も名古屋大学の日本法令外国語訳データベースシステムを通じて提供されている\cite{JaLII}.現在では法律だけでなく,多くの自治体が例規をインターネット上に公開するようになった.しかし例規を対象とした情報科学との融合研究は少なく,これまでに例規を分類する研究\cite{原田隆史2009}が存在するに留まっている.そのため,例規の条文対応表の自動作成に関する研究は本論文が嚆矢である.米国の連邦法と州法とで整合性の取れていない条文の発見を目的とした,法律体系の中から関連する条文を網羅的に抽出する研究がある\cite{ronbun3-1}.この研究は類似する条文を抽出する点で,例規の条文対応を推定する本研究と類似している.しかしながら,彼らの研究は米国における領域知識の利用を前提としている事及び,不整合性検出のために数値や単位に特化した処理を追加している点で日本の例規を対象とした条文対応表への適用は困難である.条文対応表は,条文を一般の文書と見なした場合,類似文書を探す研究と見なしうる.類似文書の探索に関する研究としては,英語で記された複数のコーパス間の類似する文を抜き出す研究や\cite{ronbun1-1}や,コーパス内に存在する類似文のクラスタを抜きだす研究がある\cite{ronbun1-3}.また日本語を対象とした研究も挙げられる\cite{ronbun2-1,ronbun2-3}.これらの論文では同一事象に対して記述された記事の抽出及び,記事の要約をその目的としている.これらはよく整備されたコーパスや類義語辞典を用いたり,豊富に収集された事例に基づく機械学習によりその性能向上を図っている.そのため研究事例のない例規を対象とした本研究に直接利用する事は困難である. \section{モデル化と問題定義} \label{sec:definition}\subsection{例規の構造}本研究で対象とする例規とは,法特有の階層構造を有する文章である.典型的な法では,例規名を表す「表題」,効力を発する日を記した「発令」,公布を宣言する「公布文」,例規の内容を記した「本則」,そして「制定附則」及び「改正附則」が第一番目の階層を構成する.このうち本則は,「章」「節」/「条」「項」「号」の階層を有している.図\ref{reikiStructure}に例規に共通する主要な階層構造を示す.ただし,実際の例規では章が存在しない場合も多く,特に制定時期が古い例規ではこの階層構造に従わない場合もある事を付記する.章と一部の条にはその内容を記載した見出しがついている.図\ref{reikiExample}に愛媛県青少年保護条例から抜粋した本則の一部を記す.図\ref{reikiExample}において章と条の右横に括弧で記載した文字列が章見出しおよび条見出しである.\begin{figure}[t]\noindent\begin{minipage}[b]{171.5pt}\begin{center}\includegraphics{19-3ia947f1.eps}\end{center}\caption{例規の主要な共通階層構造}\label{reikiStructure}\end{minipage}\begin{minipage}[b]{248.5pt}\begin{center}\includegraphics{19-3ia947f2.eps}\caption{本則の階層構造の例(抜粋)}\label{reikiExample}\end{center}\end{minipage}\end{figure}\subsection{条文対応表}\label{sec:taiouhyou}例規比較を行う際には,対応する条文の関係を記した比較対照表が作成される.この表を条文対応表と呼ぶ.表\ref{reikiHikakuTable}に,愛媛県青少年保護条例と香川県青少年保護育成条例の条文対応表の典型例を記す.表では,例規構造より表題,発令,公布文がまず並ぶ.その後,二つの条例において対応する条が左右に並ぶという形をとっている.条番号の一行上に書かれている括弧書きの文字列は条見出しである.表より以下のような事がわかる.\begin{itemize}\item愛媛県の第1条が香川県の第1条に,愛媛県の1条が香川県の4条に対応している.\item香川県の第3条に対応する愛媛県の条文が存在しない.\item香川県の第15条は,愛媛県の第12条と第13条の2つに対応している.\end{itemize}この表を利用する事により「青少年」の定義や,夜間の時間帯といった二つの条例の違いを網羅的に比較する事が行われている.\begin{table}[p]\caption{愛媛県と香川県の青少年保護に関する条例の条文比較表(一部抜粋)}\label{reikiHikakuTable}\input{04table01.txt}\end{table}条文比較表において対応する条文は類似する事が多い.これを示すため,表中で対応する両県の第一条の共通部分に下線を引いた.\begin{quote}愛媛県:\underline{この条例は、青少年の}健全な育成を\underline{阻害する恐れのある行為}から青少年を保護し、もって青少年の\underline{健全な育成をはかる事を目的とする。}香川県:\underline{この条例は、青少年の}福祉を\underline{阻害するおそれのある行為}を禁止し、その\underline{健全な保護育成を図る事を目的とする。}\end{quote}この場合,両方の条が大変よく一致している事がわかる.次に対応する条の文字数に差がある包含関係にある例として,愛媛県の第13条の3と第10条の3を挙げる.\begin{quote}愛媛県:\underline{何人も、青少年に}対し、ツーショットダイヤル等\underline{利用カード}(ツーショットダイヤル等営業に関して提供する役務の数量に応ずる対価を得ることを目的として発行する文書その他の物品をいう。以下同じ。)を\underline{販売}し、配布し、贈与し、又は貸し付けては\underline{ならない。}香川県:\underline{何人も、青少年に利用カード}の\underline{販売}等をしては\underline{ならない。}\end{quote}この例は「利用カード」の定義が条内で行われているか否により共通部分に偏りが出ている事を示している.そのため,香川県側は24文字中18文字(75\%)が一致しているが,愛媛県側は110文字中18文字(16\%)が一致しているにすぎない.ただし,共通部分が多い場合でも必ずしも対応する条であるとは限らない.例として愛媛県の第5条の8と香川県の第10条の2を示す.\begin{quote}愛媛県:自動販売機等業者は、次に掲げる施設の敷地の周囲から200メートル以内の区域に、(中略)設置しないように努めなければならない。\\(1)\underline{学校教育法(\mbox{昭和22年法律第26号})\mbox{第1条}に規定する学校(大学を除く。)}\\(2)児童福祉法(昭和22年法律第164号)第7条第1項に規定する児童福祉施設\\(3)\underline{図書館法\mbox{(昭和25年法律第118号)第2条第1項}に規定する図書館}\\(後略)香川県:卑わいな姿態等を被写体とした写真又は描写した絵を掲載した広告文書等は(中略)「有害広告文書等」(中略)とする。\\2何人も、次に掲げる行為をしてはならない。(中略)\\(3)次に掲げる施設の敷地内において有害広告文書等の配布をすること。\\ア\underline{学校教育法\mbox{(昭和22年法律第26号)第1条}に規定する学校(大学を除く。)}\\イ\underline{図書館法\mbox{(昭和25年法律第118号)第2条第1項}に規定する図書館}\\(後略)\end{quote}このように,共通部分が多い場合でも必ずしも対応するとは限らない事がわかる.\subsection{条文対応表のモデル化と推定問題}\label{sec:jidouseisei}本研究で目的とする計算機支援を達成するためには,与えられた2条例より条文比較表を自動生成する必要がある.そのためには,計算機で解決可能な形に問題をモデル化する必要がある.一般に条文対応表は,その名の通り表として表現されているが,条の対応関係は多対多であり,また対応する条がない場合も存在する.当然にして同一例規内の条の間には対応関係は存在しない.また,例規の主要構造のうち対応関係を決める必要があるのは本則に属する条のみであり,制定附則や改正附則に属する条の対応関係を決める必要はない.そこで,我々は条文比較表より本則の部分に着目し,各例規の本則に属する条を頂点とする2部グラフとしてモデル化する.2部グラフを構成する2つの頂点集合は例規ごとに構成され,対応する条の間に辺が引かれる.ここで2つの例規A,Bの条文対応表のモデルを以下のように定義する.\begin{description}\item二部グラフ$G=(V_A,V_B,E)$,ただし,\begin{itemize}\item頂点$v_a\inV_A$がAの本則に属する条に,$v_b\inV_B$がBの本則に属する条に対応し,\item辺$e=(v1\inV_A,v2\inV_B)$は,$v1$と$v2$が条文比較表において対応する事を表す.\end{itemize}\end{description}図\ref{taiouhyou}に,愛媛県と香川県の青少年保護に関する条例の条文対応表を示す.図中左側の四角が愛媛県側の,右側の四角が香川県側の各条を表す頂点である.左右の頂点間の辺が,両県の条例における条の対応関係を表現している.\begin{figure}[t]\begin{center}\includegraphics{19-3ia947f3.eps}\end{center}\caption{二部グラフによる条文対応表のモデル}\label{taiouhyou}\end{figure}条文対応表の推定問題とは,2つの例規$A,\B$を入力とし,法学者が作成する条文対応表と一致または類似した二部グラフ$G=(V_A,V_B,E)$を出力する問題と定義する.\subsection{条文対応表生成アルゴリズム}\label{algorithm}条文対応表の推定問題は,入力として与えられる二例規の各条間の類似度を計算し,その類似度に基づき条文が対応するか否かを判定する事で解く事ができる.本研究では,類似度の定義,すなわち類似尺度が与えられたとき以下のアルゴリズムによって条文の対応関係を推定する方法を提案する.\begin{description}\item[入力]2つの例規A,B\item[出力]二部グラフ$G(V_A,V_B,E)$\item[step1]2つの例規の本則に属する条に対応する頂点集合$V_A,V_B$を生成する.\item[step2]2つの頂点$v_a\inV_A,v_b\inV_B$間の辺重みを条$v_a,v_b$間の類似度とする重み付き完全二部グラフ$G_p=\{V_A,V_B,E_p\}$を生成する.\item[step3]$V_A$に属する各頂点$v_a$を端点とする辺集合$E_{v_a}=\{(v_a,v_b|v_b\inV_B)\}$のうち,最も重みの大きい辺を二部グラフ$G$の辺集合$E$に加える.\item[step4]$V_B$に属する各頂点$v_b$を端点とする辺集合$E_{v_b}=\{(v_a,v_b|v_a\inV_A)\}$のうち,最も重みの大きい辺を二部グラフ$G$の辺集合$E$に加える.\item[step5]二部グラフ$G$を出力する.\end{description}条文対応表では,図\ref{taiouhyou}に示したように一つの条に対して複数の条が対応する事例がある.提案アルゴリズムでは両方の例規からではなく,Step3と4において一方の例規の条からみて類似度の最も高い条に対応関係があると判定した辺をグラフに追加している.Step3とStep4は独立して辺,すなわち1つの条と対応関係にある条を選択しているため,一つの頂点が複数の辺の端点となりうる.結果的にStep5において多対多の二部グラフ,すなわち多対多の関係を含む条文対応表が出力される. \section{条間の類似尺度} \label{sec:method}前節のアルゴリズム内では条間の類似度を定義していない.この類似度は,法学者が二条間に対応関係が存在する場合に大きい値を,対応関係が存在しない場合に小さい値をとる事が求められる.しかしながら,法学者の暗黙知を適切に表現する類似尺度が明らかとなっていないため,本研究では既存の3種類の文書比較,文字列比較法に基づく類似尺度を用い,それらの比較評価を行った.\subsection{ベクトル空間モデル}与えられた文章を,単語の出現頻度を表現したベクトルとしてモデル化する方法をベクトル空間モデルと呼ぶ\cite{salton1975vector}.2つの文章に対応するベクトル間の距離を計算する事により,文章間の関連度を求める方法であり,情報抽出や情報フィルタリング等に用いられる.距離尺度としては,コサイン,内積,マンハッタン距離やユークリッド距離等が用いられる.要素数$n$個の単語集合$W=\{w_1,w2_,\cdots,w_n\}$が与えられたとき,ベクトル空間モデルによりある文章$T$は長さ$n$のベクトル$V_T=(v_1,v_2,\cdots,v_n)$で表現される.ここで,$v_i$は,文章$T$中における単語$w_i$の出現回数である.このベクトルはしばしばtf-idf(TermFrequenc,InverseDocumentFrequency)に基づく重みが加味される.この重みにより,多くの文章に出現する単語の重要度を下げ,特定の文章にしか出現しない単語の重要度を上げる事が可能となる.本研究では,条文対応表作成問題における各条文をこのベクトル空間モデルでベクトル化し,2つのベクトルの距離によって対応関係の強さを数値化する.なお,距離尺度としてコサインを用い,利用する単語を頻出順に10,50,100個選んだもの,及び全例規に出現する全単語の4種類を比較した.ベクトルの重み付けについては,定数重み及びtf-idf重みの2種類を比較した.また,利用する単語の品詞として,全品詞の利用,全品詞の原形を利用,名詞のみ利用,名詞,副詞,形容詞,動詞,連体詞の5種類を利用,の4種類を適用した.例規の条文はその長さ,すなわち単語数や文字数の分散値が大きい.これが本手法で計算される条文間の類似度は条文の長さの違いが影響を及ぼす可能性がある.そこで類似度を2つの条文のうち短い方の条文の文字数で割る事で正規化した値も類似尺度とする.以降,正規化前を「絶対スコア」,正規化後を「相対スコア」と呼ぶこととする.以上によりベクトル空間モデルに基づく類似尺度数は,$(\text{ベクトル長})\times(\text{対象品詞})\times(\text{重み})\times(\text{絶対}|\text{相対スコア})=4\times4\times2\times2=64$個となる.\subsection{最長共通部分列}\label{subsec:LCS}最長共通部分列(LongestCommonSubsequence)とは,入力として与えられた2つの文字列における最長の共通部分文字列をいう\cite{Maier:1978:CPS:322063.322075}.共通部分文字列とは,もとの文字列から文字を出現順序をかえずに取り出したものとなる.今,二本の文字列$X=(\text{アイウエオ})$,$Y=(\text{アイクエオ})$が与えられたとする.このとき最長共通部分列は,(アイエオ)となり,その長さは4である.最長共通部分列は動的計画法により計算する事が可能である.入力として2つの文字列$X=(x_1x_2\cdotsx_n)$と$Y=(y_1y_2\cdotsy_m)$が与えられたとき,最長共通部分列長を求めるアルゴリズムは以下の通りである.\begin{description}\item[Step1]$n+1$行,$m+1$列の行列$M$を準備する\item[Step2]行列$M$の値を以下の漸化式によって計算していく\begin{equation}M(i,j)=\begin{cases}0&(i=0\text{または}j=0)\\M(i-1,j-1)+1&(i,j>0\text{かつ}x_i=y_j)\\\text{max}(M(i-1,j),M(i,j-1))&(i,j>0\text{かつ}x_i\neqy_j)\nonumber\end{cases}\end{equation}\item[Step3]行列$M$の要素より最大値を出力する\end{description}本手法による条文の対応関係の強さは,最長共通部分列の長さとして定義する.比較する単位としては,文字単位と単語単位の比較を行った.文字単位では,ひらがなカタカナを含む全ての文字を対象とした場合と漢字のみを対象とした場合を,単語単位では,全品詞,全品詞の原形,名詞のみ,名詞,副詞,形容詞,動詞,連体詞の5種類の4つの場合の比較を行った.また,本手法の性能比較では,入力として条見出しを用いた場合の評価も行った.以上により最長共通部分列に基づく類似尺度数は,定数重みを用いたものが$(\text{条題}|\text{条文})\times(\text{対象文字})\times(\text{絶対}|\text{相対スコア})=2\times2\times2=8$個,tf-idf重みを用いたものが$(\text{対象品詞})\times(\text{絶対}|\text{相対スコア})=4\times2=8$個の合計16個となる.\subsection{文字列アライメント}文字列アライメントは,入力として与えられた文字列に存在する類似した領域を特定できるよう,文字列を整列させる事をいう.この整列に必要とする文字・単語の挿入や削除,置換コストの合計値によって文字列間の類似度が定義される.挿入・置換のコストを1,置換コストを2とした場合,レーベンシュタイン距離あるいは編集距離と呼ばれる類似尺度になる.挿入等のコストの異なる例としては,生物情報学におけるアミノ酸配列(タンパク質)に適用される手法がある\cite{smithwaterman,needleman}.この手法におけるコストは生物の進化において変化が発生する確率に基づいて決定されている.文字列アライメントは,文字列を整列させるため,一致しない事を表す文字として「—」を用いる.今,二本の文字列$X=(\text{アイウエオ})$,$Y=(\text{アイクエオ})$が与えられたとすると,(アイ—エオ)がアライメントである.アライメントは,例えば一致した文字に2点を加点し,一致しない場合(「—」の場合)に2点を減点する,といった基準を設定する事により,類似度の数値が行われる.上記のアライメントは6点となる.与えられた基準において最も高い類似度を持つアライメントの計算には動的計画法が用いられる.入力として2つの文字列$X=(x_1x_2\cdotsx_n)$と$Y=(y_1y_2\cdotsy_m)$が与えられたとき,最も高い類似度を求めるアルゴリズムは以下の通りである.\begin{description}\item[Step1]$n+1$行,$m+1$列の行列$M$を準備する\item[Step2]$0$行及び,$0$列の値を$0$にする\item[Step3]行列$M$の値を以下の漸化式によって計算していく\[M(i,j)=\text{max}\begin{pmatrix}0,&\\M(i-1,j-1)+s(x_i,y_j),&\\M(i-1,j)-g,&\\M(i,j-1)-g&\end{pmatrix}\]\item[Step4]行列Mの要素より最大値を出力する\end{description}ここで関数$s(x,y)$は,文字$x$と$y$をアライメントさせた場合の点数であり,上記の例の場合$2点$である.また,定数$g$は,一致しない場合,すなわち「—」の時の点数であり,上記の例では$-2$点である.一般に最長共通部分列や文字列アライメントでは,共通部分文字列の順序は保存される.しかし例規比較において対応させるべき条文は,必ずしも順序が保存されているとはいいがたい.例として,愛媛県と香川県の青少年の保護に関する条例を挙げる.愛媛県の5条の2及び香川県の8条の2はともに,有害ながん具類等の販売等の制限や禁止について規定している.愛媛県では,青少年に対する有害がん具の所持制限,有害がん具の定義の順で記述しているのに対し,香川県では,有害がん具の定義,所持制限の順で記述されている.表\ref{alignOrderReal}に該当部分の抜粋を記載する.そこで,本研究では,アライメントアルゴリズムを再帰的に適用する事により順序関係が保存されていない条文へ対応した手法も用いた.再帰的な適用法は,以下の通りである.\begin{description}\item[入力]長さ$l$の文字列Aと長さ$m$の文字列B\item[Step1]文字列にアライメントを行う.その結果,文字列Aの$l_s$〜$l_e$までの部分文字列と文字列Bの$m_s$〜$m_e$までの文字列のアライメントが得られたとする.\item[Step2]文字列Aと文字列Bの整列していない部分文字列の組合せ4種類に対してそれぞれアライメントを行う.4種類の組合せは以下の通りである.\begin{itemize}\item[(a)]文字列Aの$1$〜$l_s-1$文字と文字列Bの$1$〜$m_s-1$文字\item[(b)]文字列Aの$1$〜$l_s-1$文字と文字列Bの$m_e+1$〜$m$文字\item[(c)]文字列Aの$l_e+1$〜$l$文字と文字列Bの$1$〜$m_s-1$文字\item[(d)]文字列Aの$l_e+1$〜$l$文字と文字列Bの$m_e+1$〜$m$文字\end{itemize}\item[Step3]対角線に位置する(a)と(d)の類似度の和と(b)と(c)の類似度の和のうち大きい方のアライメント結果とStep1でえられたアライメント結果を出力する.\end{description}\begin{table}[b]\caption{青少年保護に関する条例における記述順序が異なっている箇所}\label{alignOrderReal}\input{04table02.txt}\end{table}文字列アライメントによる条文の対応関係の強さは,再帰的に得られた各アライメントの類似度の値の和とした.アライメントの単位としては,\ref{subsec:LCS}節に記した最長共通部分列と同様に文字単位と単語単位の比較を行った.関数$s(x,y)$の値としては,文字単位の場合は漢字が一致した場合に2点,漢字以外が一致した場合1点とし,単語単位の場合は各単語のtf-idfスコアを用いた.以上により文字列アライメントに基づく類似尺度数は,定数重みを用いたものが$(\text{順序の保存関係})\times(\text{対象文字})\times(\text{絶対}|\text{相対スコア})=2\times2\times2=8$個,tf-idf重みを用いたものが$(\text{対象品詞})\times(\text{絶対}|\text{相対スコア})=4\times2=8$個の合計16個となる. \section{評価実験} \label{sec:solution}\subsection{実験条件と評価項目}\label{sec:experiments}\begin{table}[b]\caption{条文対応表を作成した例規の組合せ一覧}\label{reikiIchiran}\input{04table03.txt}\end{table}\begin{table}[b]\caption{条文対応表の作成時間(分)}\label{reikiTime}\input{04table04.txt}\end{table}法学者の暗黙知を適切に表現し,条文対応表の作成に適した類似尺度を明らかにするため,愛媛県と香川県の22条例を対象とした性能評価を行った.対象とした条例を表\ref{reikiIchiran}に記す.また,若尾の監督下において3名の法学部生を被験者とした条文対応表の作成に要した時間を表\ref{reikiTime}に記す.なお被験者が条文対応表を作成するにあたり青少年保護に関する条例を対象とした講義を行ったため,表\ref{reikiTime}において条例対応ID3の青少年保護に関する条例の作成時間が欠損している.ベクトル空間モデルにおける距離にはコサインを用い,条文の品詞分解にはMecab\cite{mecab}を用いた.三種類の手法で計算される条文間の類似度は条文の文字数に依存する.そこで類似度を短い方の条文の文字数で割る事で正規化した値も類似尺度として比較した.自動生成した条文対応表の評価を行うため,若尾が作成した条文対応表を正解例として正解率の比較を行った.ここで正解率とは,正解となる条文対応表を表現する二部グラフにおける辺の数を母数とし,各類似尺度を用いて得られる二部グラフと一致する辺数を母数で割った値である.\subsection{類似尺度の正解率}\label{sec:results}表\ref{res:VS},\ref{res:LCS},\ref{res:alignment}に最長共通部分列,アライメント,ベクトル空間モデルに基づく手法の正解率を示す.表中の「五詞」は名詞,副詞,形容詞,動詞,連体詞を表している.正解率が上位5位の手法にはその順位を併記した.\begin{table}[b]\caption{ベクトル空間モデルの正解率}\label{res:VS}\input{04table05.txt}\end{table}\begin{table}[t]\caption{最長共通部分列の正解率}\label{res:LCS}\input{04table06.txt}\end{table}\begin{table}[t]\caption{文字列アライメントの正解率}\label{res:alignment}\input{04table07.txt}\end{table}各アルゴリズムにおいて最も高い正解率は,ベクトル空間モデルが85\%,最長共通部分列が75\%,文字列アライメントが81\%となっている.全ての場合において絶対スコアが相対スコアの正解率を上回っている事,定数重みがtf-idf重みの正解率を上回っている事がわかる.ベクトル空間モデルでは,ベクトル長が長いほど正解率が高くなっており,用いる品詞の影響はさほど大きくない.最長共通部分列では,条見出しのみを用いた場合でも最高で71\%の正解率となっている.全ての条には条見出しが存在しない事を考慮すると大変高い正解率であると考えられる.最長共通部分列と文字列アライメントでは,単語単位よりも文字単位の方が正解率が高かった.また,文字列アライメントにおける条文内容の記述順序を考慮する事による正解率の向上はみられなかった.\subsection{受信者操作特性曲線}\label{sec:roc}前節の結果が示す通り,本手法で得られた条文の対応関係の正解率は100\%でなく,必ずしも正しいとは限らない.すなわち,この結果を用いて条文対応を作成する法務関係者は,条文の対応関係が正しいか否かを判断する必要がある.そのため,本手法で得られる対応関係の信頼度,すなわち得られた対応関係が正解である尤もらしさを提示する事が望ましい.そこで,対応関係を得るために用いた類似尺度を信頼度として利用した場合の評価を受信者操作特性曲線(ROC曲線:ReceiverOperatingCharacteristiccurve)を用いて行った.受信者操作特性曲線とは,正解と判定する類似度の閾値を変化させた場合の敏感度と偽陽性率の変化を表現したものである.敏感度とは正解を正しく正解として捕捉する率であり,偽陽性率とは,不正解を誤って正解と判定する率である.なお,提案手法によって得られた条文の対応関係の類似度が閾値よりも大きい場合に正解と判定する.ベクトル空間モデル及び文字列アライメントにおいて最も正解率の高い類似尺度及び,条見出しを対象とする最長共通部分列において最も正解率の高い類似尺度の受信者操作特性曲線(ROC曲線)を図\ref{roc_score}に示す.図の縦軸は敏感度を,横軸は偽陽性率を表す.また,各類似尺度の受信者操作特性曲線下面積を表\ref{AUC}に記す.受信者操作特性曲線では,グラフの形状が敏感度1,偽陽性率0である左上点に近い凸形状を示し,曲線下面積が1に近づくほど良い指標である事を示す.図及び表より,文字列アライメントに基づく類似尺度の曲線下面積は0.5を下回っており,信頼度として利用ができない事を示している.また,ベクトル空間モデル及び最長共通部分文字列についても0.5を少し上回っている程度であり,信頼度として利用するには低いものとなっている.\begin{figure}[t]\begin{minipage}[b]{.5\textwidth}\begin{center}\includegraphics{19-3ia947f4.eps}\end{center}\caption{類似度を指標としたROC曲線}\label{roc_score}\end{minipage}\begin{minipage}[b]{.5\textwidth}\begin{center}\includegraphics{19-3ia947f5.eps}\end{center}\caption{二位との比率を用いた場合のROC曲線}\label{roc_ratio}\end{minipage}\end{figure}\begin{table}[t]\caption{受信者操作特性曲線下面積(AUC:AreaUnderCurve)}\label{AUC}\input{04table08.txt}\end{table}上の結果は,条文や条文の見出しの長さが異なる事が原因であると考えられる.そこで,\ref{algorithm}節に示すアルゴリズムにおいて対応条を決定する{\bfstep3}および{\bfstep4}において,頂点$v_a$または$v_b$と接続する辺集合ごとにその類似度を正規化する必要があると考える.そこで,信頼度を表す新たな尺度として{\bfstep3}および{\bfstep4}で選択される辺の類似度を二番目に大きい類似度の値で割った値(以降,二位との比率と呼ぶ)の評価を行う.この信頼度に対する受信者操作特性曲線を図\ref{roc_ratio}に,曲線下面積を表\ref{AUC}に示す.図\ref{roc_score}と図\ref{roc_ratio}を比較すると,二位との比率を用いる事により信頼度を表す評価尺度の性能が大幅に向上していることがわかる.また表\ref{AUC}に示す曲線下面積は最長共通部分文字列が0.80と最大の値となっており,ベクトル空間モデルが次いで0.79となっており,二位との比率の優位性を示している.\subsection{結果の考察}\ref{sec:results}節の結果より,本研究の条文対応表作成では全単語に基づくベクトル空間モデルを用いたtf-idf重みを使わない類似尺度が最も有効である事がわかった.文字列アライメントは公開特許公報における請求項と「発明の詳細な説明」との対応付けのような,2つの文章内で言及される事柄の出現順序が同じ場合には有効であるが\cite{ronbun2-4},事柄や単語の出現順に対応できないために一般の文書での利用は不適切であると言われている\cite{ronbun1-1}.本研究においてベクトル空間モデルが文字列アライメントの結果よりも良かったのは,条文間で言及される事柄の語順が,公開特許公報ほどには保存されておらず,一般の文書に近かったためであると考えている.次に,ベクトル空間モデルの軸を構成する単語数が多い方が,そしてtf-idf重みを用いない類似尺度の方が,推定精度が高かった理由を考察する.例規で用いられる単語を調べると,県名や地名等の固有名詞の出現頻度が高く,県名,地名等に加え,甲乙,委員,委員会,規定といった単語のtf-idf値が高かった.本研究におけるベクトル空間モデルの軸は単語の出現頻度に基づいて選択した.そのため,ベクトル空間モデルの軸を構成する単語数が少ない場合,都道府県名,たとえば「愛媛」のように都道府県固有の単語が占める率が高くなる.都道府県固有の単語は,すなわち他の都道府県には出現しない単語であるため,軸を構成する単語としては不適切である.これがベクトル空間を構成する単語数が多い方が推定精度のよかった一因だと推察する.また,都道府県固有の単語に加え,甲乙や委員会といった一般的とは言えないものの,法律用語としてはありふれている単語のtf-idf値が高い事が,対応する条文を特定する精度を低下させたと考えている.本論文で掲げた全ての手法はいずれも100\%の正解率を得る事はできなかった.また,今後の研究により正解率の向上は期待できるものの法学者の暗黙知を表す数式が明らかとなり正解率が100\%となる事は期待しがたい.そのため実用上は,計算機で作成した条文対応表を基づき専門家が最終的な条文対応表を作成する,という計算機支援システムの形にならざるを得ない.この場合計算機が提示する解の信頼度や尤もらしさを提示できる事が望ましい.そこで受信者操作特性曲線を用いた評価を\ref{sec:roc}節で行った.その結果,対応する条を決定するのに用いた類似度そのものではなく,二位との比率を信頼度を評価する尺度として用いる事により最長共通部分文字列及びベクトル空間モデルにおいて受信者操作特性曲線下面積が約0.8と高い値を示す事がわかった.以上の結果により,条文対応表の生成及び作成支援のためには条見出しに対して最長共通部分文字列を,条文に対してベクトル空間モデルを適用して得られる結果を併用することがよい事がわかった.実務で利用される条文対応表では,条文の対応関係だけでなく,対応する2つの条文の差異が明示されている.そのため条文対応表の作成支援の今後としては,条文の対応関係を明らかにするだけではなく,対応する2つの条文の差異を明確化する事が求められると考えている.この目的を達成する方法としてベクトル空間モデルは適切ではない.なぜならベクトル空間モデルは対応する条文を決定するのに留まり,専門家が最終的な条文対応表を作成するための手がかりとなる情報を提示する事はできないからである.一方,文字列アライメントを用いた場合には一致する文字列群とその出現順序,そして一致する文字列に挟まれた不一致の文字列といった情報を提示する事が可能である.そのため,文字列アライメントの正解率はベクトル空間モデルよりも低いが,条文対応表を作成するために条文の差異を提示する支援システムとしての利用価値は高いと考えている.支援システムとして考えるならば,ベクトル空間モデルと最長共通部分文字列により条文の対応関係をその信頼度と共に提示し,文字列アライメントにより条文の差異を示すという形が望ましいと考えている. \section{まとめ} 地方自治体の法である例規を比較する条文対応表の作成支援のための枠組みを提案した.条文対応表を二部グラフとして表現することで条文対応表の自動生成問題を定義した.情報科学的手法を適用するため,法学者の暗黙知に類似した類似尺度を探すため,3つの計算手法にもとづく96個の類似尺度の評価を行った.愛媛県と香川県の22条例を対象として行った比較により,ベクトル空間モデルに基づく手法が最も高い正解率である事を明らかにした.また提案手法で推定した条文の対応関係の信頼度を示す尺度としては,最も高い類似度を二番目に高い類似度で割った値を利用する事で高い操作特性曲線下面積が得られる事を明らかにした.特に条見出しを対象に最長共通部分文字列を適用した結果が良い事を示した.\acknowledgment本研究の一部は科研費JSPS(21500253)の助成を受けたものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Barzilay\BBA\Elhadad}{Barzilay\BBA\Elhadad}{2003}]{ronbun1-1}Barzilay,R.\BBACOMMA\\BBA\Elhadad,N.\BBOP2003\BBCP.\newblock\BBOQSentencealignmentformonolingualcomparablecorpora.\BBCQ\\newblockIn{\BemProceedingsofthe2003conferenceonEmpiricalmethodsinnaturallanguageprocessing},\mbox{\BPGS\25--32},Morristown,NJ,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{藤井}{藤井}{2007}]{藤井真知子:2007-07-31}藤井真知子\BBOP2007\BBCP.\newblock市町村合併における自治体法務の現状と課題:甲賀市の条例整備を手がかりとして.\\newblock\Jem{龍谷大学大学院法学研究},{\Bbf9},\mbox{\BPGS\181--214}.\bibitem[\protect\BCAY{原田\JBA青木\JBA真島}{原田\Jetal}{2009}]{原田隆史2009}原田隆史\JBA青木淳一\JBA真島由里香\BBOP2009\BBCP.\newblockクラスタリング手法に基づく条例の自動分類.\\newblock\Jem{情報ネットワーク法学会第9回研究大会予稿集},\mbox{\BPGS\65--68}.\bibitem[\protect\BCAY{Hatzivassiloglou,Klavans,Holcombe,Barzilay,yenKan,\BBA\McKeown}{Hatzivassiloglouet~al.}{2001}]{ronbun1-3}Hatzivassiloglou,V.,Klavans,J.~L.,Holcombe,M.~L.,Barzilay,R.,yenKan,M.,\BBA\McKeown,K.~R.\BBOP2001\BBCP.\newblock\BBOQSIMFINDER:AFlexibleClusteringToolforSummarization.\BBCQ\\newblockIn{\BemInProceedingsoftheNAACLWorkshoponAutomaticSummarization},\mbox{\BPGS\41--49}.\bibitem[\protect\BCAY{平尾\JBA鈴木\JBA磯崎\JBA前田}{平尾\Jetal}{20051015}]{ronbun2-3}平尾努\JBA鈴木潤\JBA磯崎秀樹\JBA前田英作\BBOP2005-10-15\BBCP.\newblock単一言語コーパスにおける文の自動対応付け手法(自然言語).\\newblock\Jem{情報処理学会論文誌},{\Bbf46}(10),\mbox{\BPGS\2533--2545}.\bibitem[\protect\BCAY{法情報研究センター}{法情報研究センター}{}]{JaLII}法情報研究センター.\newblock日本法令外国語訳データベースシステム.\\newblock\Turl{http://japaneselawtranslation.\linebreak[2]go.jp}.\bibitem[\protect\BCAY{ICAIL}{ICAIL}{}]{ICAIL}ICAIL.\newblock\BBOQInternationalConferenceonArtificialIntelligenceandLaw(ICAIL).\BBCQ\\newblock\Turl{http://www.iaail.org/}.\bibitem[\protect\BCAY{伊佐美}{伊佐美}{2005a}]{伊佐美浩一:2005-05}伊佐美浩一\BBOP2005a\BBCP.\newblock市町村合併調整のポイント(1)合併に関する法的問題(1)条例・規則の調整西東京市.\\newblock\Jem{自治体法務研究},{\Bbf1},\mbox{\BPGS\108--114}.\bibitem[\protect\BCAY{伊佐美}{伊佐美}{2005b}]{伊佐美浩一:2005-08}伊佐美浩一\BBOP2005b\BBCP.\newblock市町村合併調整のポイント(2)合併に関する法的問題(2)合併関連法令の問題点西東京市.\\newblock\Jem{自治体法務研究},{\Bbf2},\mbox{\BPGS\108--113}.\bibitem[\protect\BCAY{JURIX}{JURIX}{}]{JURIX}JURIX.\newblock\BBOQInternationalConferenceonLegalKnowledgeandInformationSystems(JURIX).\BBCQ\\newblock\Turl{http://www.jurix.nl/}.\bibitem[\protect\BCAY{角田}{角田}{2010}]{kakuda}角田篤泰\BBOP2010\BBCP.\newblock\Jem{ソフトウェア工学との類似性に着目した立法支援方法(三){\kern-0.5zw}},237\JVOL,第二節\JCH,\mbox{\BPGS\191--252}.\newblock名古屋大學法學部.\bibitem[\protect\BCAY{加藤}{加藤}{2006}]{加藤幸嗣:2006-05}加藤幸嗣\BBOP2006\BBCP.\newblock比較分析市町村合併と条例制定--福知山市の公の施設条例等を題材として(自治体情報条例制定の動向).\\newblock\Jem{法令解説資料総覧},{\Bbf292},\mbox{\BPGS\76--78}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{mecab}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingconditionalrandomfieldstoJapanesemorphologicalanalysis.\BBCQ\\newblockIn{\BemProc.ofEMNLP},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{Lau,Law,\BBA\Wiederhold}{Lauet~al.}{2006}]{ronbun3-1}Lau,G.~T.,Law,K.~H.,\BBA\Wiederhold,G.\BBOP2006\BBCP.\newblock\BBOQArelatednessanalysisofgovernmentregulationsusingdomainknowledgeandstructuralorganization.\BBCQ\\newblock{\BemInf.Retr.},{\Bbf9},\mbox{\BPGS\657--680}.\bibitem[\protect\BCAY{Maier}{Maier}{1978}]{Maier:1978:CPS:322063.322075}Maier,D.\BBOP1978\BBCP.\newblock\BBOQTheComplexityofSomeProblemsonSubsequencesandSupersequences.\BBCQ\\newblock{\BemJ.ACM},{\Bbf25},\mbox{\BPGS\322--336}.\bibitem[\protect\BCAY{丸川\JBA岩山\JBA奥村\JBA新森}{丸川\Jetal}{2002}]{ronbun2-4}丸川雄三\JBA岩山真\JBA奥村学\JBA新森昭宏\BBOP2002\BBCP.\newblockローカルアラインメントを用いたテキスト間の柔軟な対応付け.\\newblock\Jem{情報処理学会研究報告.情報学基礎研究会報告},{\Bbf2002}(87),\mbox{\BPGS\23--28}.\bibitem[\protect\BCAY{宮部\JBA高村\JBA奥村}{宮部\Jetal}{2006}]{ronbun2-1}宮部泰成\JBA高村大也\JBA奥村学\BBOP2006\BBCP.\newblock文書横断文間関係の特定.\\newblock\Jem{言語処理学会第12回年次大会},\mbox{\BPGS\496--499}.\bibitem[\protect\BCAY{Needleman\BBA\Wunsch}{Needleman\BBA\Wunsch}{1970}]{needleman}Needleman,S.\BBACOMMA\\BBA\Wunsch,C.\BBOP1970\BBCP.\newblock\BBOQAgeneralmethodapplicabletothesearchforsimilaritiesintheaminoacidsequenceoftwoproteins.\BBCQ\\newblock{\BemJournalofMolecularBiology},{\Bbf48},\mbox{\BPGS\443--453}.\bibitem[\protect\BCAY{新森\JBA奥村}{新森\JBA奥村}{2005}]{ronbun2-2}新森昭宏\JBA奥村学\BBOP2005\BBCP.\newblock特許請求項読解支援のための「発明の詳細な説明」との自動対応付け.\\newblock\Jem{自然言語処理},{\Bbf12}(3),\mbox{\BPGS\111--128}.\bibitem[\protect\BCAY{Salton,Wong,\BBA\Yang}{Saltonet~al.}{1975}]{salton1975vector}Salton,G.,Wong,A.,\BBA\Yang,C.-S.\BBOP1975\BBCP.\newblock\BBOQAvectorspacemodelforautomaticindexing.\BBCQ\\newblock{\BemCommunicationsoftheACM},{\Bbf18}(11),\mbox{\BPGS\613--620}.\bibitem[\protect\BCAY{Smith\BBA\Waterman}{Smith\BBA\Waterman}{1981}]{smithwaterman}Smith,T.\BBACOMMA\\BBA\Waterman,M.\BBOP1981\BBCP.\newblock\BBOQIdentificationofcommonmolecularsubsequences.\BBCQ\\newblock{\BemJournalofMolecularBiology},{\Bbf147},\mbox{\BPGS\195--197}.\bibitem[\protect\BCAY{総務省行政管理局}{総務省行政管理局}{}]{eGov}総務省行政管理局.\newblock法令データ提供システム.\\newblock\Turl{http://e-gov.go.jp/}.\bibitem[\protect\BCAY{山口\JBA槫松}{山口\JBA槫松}{1998}]{山口高平:1998-03-01}山口高平\JBA槫松理樹\BBOP1998\BBCP.\newblock法律オントロジー(小特集法律と人工知能).\\newblock\Jem{人工知能学会誌},{\Bbf13}(2),\mbox{\BPGS\189--196}.\bibitem[\protect\BCAY{吉野}{吉野}{2000}]{吉野一}吉野一\JED\\BBOP2000\BBCP.\newblock\Jem{法律人工知能ー法的知識の解明と法的推論の実現}.\newblock創成社.\end{thebibliography}\begin{biography}\bioauthor{竹中要一}{1995年大阪大学基礎工学部情報工学科飛び級中退.1997年同大基礎工学研究科博士前期課程修了.2000年同大基礎工学研究科博士後期課程修了.同年同大基礎工学研究科助手.2002年同大情報科学研究科助教授.2007年同大情報科学研究科准教授.現在に至る.博士(工学).生物情報学,法情報科学の研究に従事.}\bioauthor{若尾岳志}{1996年早稲田大学法学部卒.1999年早稲田大学大学院法学研究科修士課程修了.2004年早稲田大学大学院法学研究科博士後期課程満期退学.2004年大阪学院大学法学部専任講師.2008年大阪学院大学法学部准教授.2009年年獨協大学法学部総合政策学科准教授.現在に至る.刑事法学の研究に従事.}\end{biography}\biodate\end{document}
V17N01-05
\section{はじめに} \label{Introduction}日本語と英語のように言語構造が著しく異なり,語順変化が大きな言語対において,対訳文をアライメントする際に重要なことは二つある.一つは構文解析や依存構造解析などの言語情報をアライメントに組み込み,語順変化を克服することであり,もう一つはアライメントの手法が1対1の単語対応だけでなく,1対多や多対多などの句対応を生成できることである.これは一方の言語では1語で表現されているものが,他方では2語以上で表現されることが少なくないからである.しかしながら,既存のアライメント手法の多くは文を単純に単語列としてしか扱っておらず\cite{Brown93},句対応は単語対応を行った後にヒューリスティックなルールにより生成するといった方法を取っている\cite{koehn-och-marcu:2003:HLTNAACL}.Quirkら\cite{quirk-menezes-cherry:2005:ACL}やCowanら\cite{cowan-kuucerova-collins:2006:EMNLP}はアライメントに構造情報を統合しようとしたが,前述の単語列アライメントを行った後に用いるに留まっている.単語列アライメント手法そのものの精度が高くないため,このような方法では十分な精度でアライメントが行えるとは言い難い.一方で,アライメントの最初から構造情報を利用する手法もいくつか提案されている.Wata\-nabeら\cite{Watanabe00}やMenezesとRichardson\cite{Menezes01}は構文解析結果を利用したアライメント手法を提案しているが,対応の曖昧性解消の際にヒューリスティックなルールを用いている.YamadaとKnight\cite{yamada_ACL_2001}やGildea\cite{Gildea03}は木構造を利用した確率的なアライメント手法を提案している.これらの手法は一方の文の木構造に対して葉の並べ替え,部分木の挿入・削除といった操作を行って,他方の文構造を再現するものであるが,構文情報の利用が逆に強い制約となってしまい,文構造の再現が難しいことが問題となっている.YamadaとKnightはいったん木構造を崩すことによって,Gildeaは部分木を複製することによってこの問題に対処している.我々はこのような木構造に対する操作は不要であり,依存構造木中の部分木をそのままアライメントすればよいと考えた.またCherryとLin\cite{Cherry03}は原言語側の依存構造木を利用した識別モデルを提案している.しかしながらこの手法はアライメント単位が単語のみであり,一対一対応しか扱えないという欠点がある.phrase-basedSMTでいうところの“句”はただの単語列に過ぎないが,NakazawaとKurohashi\cite{nakazawa:2008:AMTA}は言語的な句をアライメントの最小単位とし,句の依存関係に着目したモデルを提案しているが,そこでは内容語は内容語のみ,機能語は機能語のみにしか対応しないという制約があり,また複数の機能語をひとまとまりに扱っているという問題もあり,これらがしばしば誤ったアライメントを生成している.本論文ではNakazawaとKurohashiの手法の問題点を改善し,単語や句の依存関係に注目した句アライメントモデルを提案する.提案手法のポイントは以下の3つである.\begin{enumerate}\item両言語とも依存構造解析し,アライメントの最初から言語の構造情報を利用する\label{point1}\itemアライメントの最小単位は単語だが,モデル学習時に句となるべき部分を自動的に推定し,句アライメントを行う\label{point2}\item各方向(原言語$\rightarrow$目的言語と目的言語$\rightarrow$原言語)の生成モデルを二つ同時に利用することにより,より高精度なアライメントを行う\label{point3}\end{enumerate}本モデルは二つの依存構造木において,一方の依存構造木で直接の親子関係にある一組の対応について,他方のそれぞれの対応先の依存関係をモデル化しており,単語列アライメントで扱うのが困難な距離の大きな語順変化にも対応することができる.言い替えれば,本モデルは木構造上でのreorderingモデルということができる.また本モデルはヒューリスティックなルールを用いずに,句となるべき部分を自動的に推定することができる.ここでいう句とは必ずしも言語的な句である必要はなく,任意の単語のまとまりである.ただし,Phrase-basedSMTにおける句の定義との重要な違いは,我々は木構造を扱っており,単語列としては連続でなくても,木構造上で連続ならば句として扱っているという点である.また我々のモデルはIBMモデルのような各方向の生成モデルを両方向分同時に用いてアライメントを行う.これはアライメントの良さを両方向から判断する方が自然であり,Liangら\cite{liang-taskar-klein:2006:HLT-NAACL06-Main}による報告にもあるように,そうした方が精度よいアライメントが行えるからである.ただし,Liangらの手法がIBMモデルと同様に単語列を扱うものであるのに対し,提案手法は木構造を扱っているという重要な違いがある.またLiangらの手法では部分的に双方向のモデルを結合するに留まっており,アライメントの結果としては各方向それぞれ独立に生成されるが,我々の方法ではただ一つのアライメントを生成するという違いもある.最近の報告では生成モデルよりも識別モデルを用いた方がより高精度なアライメントが行えるという報告がなされているが,学習用にアライメントの正解セットを用意するコストがかかってしまう.そこで我々は教師なしでモデル学習が行える生成モデルを用いた.モデルは2つのステップを経て学習される.Step1では単語翻訳確率を学習し,Step2では句翻訳確率と依存関係確率が推定される.さらにStep2では単語対応が句対応に拡張される.各StepはEMアルゴリズムにより反復的に実行される.次章では我々の提案するアライメントモデルを,IBMモデルと比較しながら定義する.\ref{training}章ではモデルのトレーニングについて説明し,\ref{result}章では提案手法の有効性を示すために行った実験の結果と結果の考察を述べ,最後に結論と今後の課題を述べる. \section{提案モデル} 以降の説明においては言語対として日本語と英語を用いるが,提案モデルはこの言語対に特別に設計されたものではなく,言語対によらないロバストなものである.提案モデルは依存構造木上で定義されるものであるので,まず対訳文を両言語とも依存構造解析し,単語の依存構造木に変換する.図\ref{fig:word-based-alignment}の一番右に依存構造木の例を示す.単語は上から下に順に並んでおり,文のヘッドとなる単語は最も左側に位置している.アライメントの最小単位はこれら各単語であるが,モデル推定時に複数単語のかたまりを句として自動的に獲得する.これについては\ref{expand_step}章で詳しく述べる.\begin{figure}[t]\begin{center}\includegraphics{17-1ia6f1.eps}\end{center}\caption{単語列アライメントモデルと提案手法との比較}\label{fig:word-based-alignment}\end{figure}\subsection{提案モデル概観}本章では,広く知られており,かつ一般的に用いられている統計的なアライメント手法であるIBMモデルと比較しながら,我々が提案するモデルについて説明する.IBMモデル\cite{Brown93}では,与えられた日本語文$\mathbf{f}$と英語文$\mathbf{e}$からなる対訳文間の最も良いアライメント$\mathbf{\hat{a}}$は以下の式により獲得される:\begin{equation}\label{eq:best}\begin{aligned}[b]\hat{\mathbf{a}}&=\argmax_{\mathbf{a}}p(\mathbf{a}|\mathbf{f},\mathbf{e})\\&=\argmax_{\mathbf{a}}\frac{p(\mathbf{a},\mathbf{f}|\mathbf{e})}{p(\mathbf{f}|\mathbf{e})}\\&=\argmax_{\mathbf{a}}\frac{p(\mathbf{a},\mathbf{f}|\mathbf{e})}{\sum_\mathbf{a}p(\mathbf{a},\mathbf{f}|\mathbf{e})}\\&=\argmax_{\mathbf{a}}p(\mathbf{a},\mathbf{f}|\mathbf{e})\\&=\argmax_{\mathbf{a}}p(\mathbf{f}|\mathbf{a},\mathbf{e})\cdotp(\mathbf{a}|\mathbf{e})\end{aligned}\end{equation}ここで,$p(\mathbf{f}|\mathbf{a},\mathbf{e})$は{\bf語彙確率}(\textit{lexiconprobability})と呼ばれ,$p(\mathbf{a}|\mathbf{e})$は{\bfアライメント確率}(\textit{alignmentprobability})と呼ばれている.$\mathbf{f}$が$n$語($f_1,f_2,...,f_n$)からなり,$\mathbf{e}$が$m$語($e_1,e_2,...,e_m$)とNULL($e_0$)からなるとする.またアライメント$\mathbf{a}$は$\mathbf{f}$の各単語から$\mathbf{e}$の単語への対応を表し,$a_j=i$は$f_j$が$e_i$に対応していることを示すとする.このような条件の下,上記二つの確率は以下のように展開される:{\allowdisplaybreaks\begin{gather}p(\mathbf{f}|\mathbf{a},\mathbf{e})=\prod_{j=1}^{J}p(f_j|e_{a_j})\label{eq:lex}\\p(\mathbf{a}|\mathbf{e})=\prod_{i=1}^{I}p(\Deltaj|e_i)\label{eq:align}\end{gather}}ここで$\Deltaj$は$e_i$に対応する$\mathbf{f}$の単語の相対位置である.式\ref{eq:lex}は単語翻訳確率の積であり,式\ref{eq:align}は相対位置確率の積となっている.ただし,ここで示した式は正確にIBMモデルを記述しているわけではなく,その意図を簡単に示したものである.また図\ref{fig:word-based-alignment}の左側にIBMモデルによるアライメントの例を示す.IBMモデルは方向性があるため,アライメントに制限がある.これを解消するため,両方向による結果を最後に統合して最終的なアライメントとすることが多い\cite{koehn-och-marcu:2003:HLTNAACL}.しかし日英のような言語構造の違いの大きい言語対においては,このような方法では十分な精度でのアライメントは行えない.提案モデルはIBMモデルを3つの点で改善する.一つ目は式\ref{eq:lex}において,単語ではなく句を考慮する.二つ目は式\ref{eq:align}において,文中での単語の位置ではなく,依存関係を考慮する.最後に,提案モデルでは最も良いアライメント$\hat{\mathbf{a}}$を求める際に,片方向のモデルだけでなく,両方向のモデルを同時に利用する.つまり,式\ref{eq:best}を以下のように変更する:\begin{equation}\label{eq:best_proposed}\begin{aligned}[b]\hat{\mathbf{a}}&=\argmax_{\mathbf{a}}p(\mathbf{a}|\mathbf{e},\mathbf{f})^2\\&=\argmax_{\mathbf{a}}p(\mathbf{a},\mathbf{f}|\mathbf{e})\cdotp(\mathbf{a},\mathbf{e}|\mathbf{f})\\&=\argmax_{\mathbf{a}}p(\mathbf{f}|\mathbf{a},\mathbf{e})\cdotp(\mathbf{a}|\mathbf{e})\cdotp(\mathbf{e}|\mathbf{a},\mathbf{f})\cdotp(\mathbf{a}|\mathbf{f})\end{aligned}\end{equation}我々のモデルでは句を扱っているため,上式を素直に計算できる.また式の上ではIBMモデルと同じ解が得られるはずであるが,それぞれの確率を近似するため,両方向を考慮した方がよりよい解が得られる.図\ref{fig:word-based-alignment}の一番右に提案モデルによるアライメント例を示す.従来手法のアライメントと比べると,多対多対応が自然と獲得されていることがわかる.提案モデルはEMアルゴリズムにより学習される\cite{liang-taskar-klein:2006:HLT-NAACL06-Main}.目的関数として,与えられたデータに対する尤度を考える:\begin{equation}\begin{aligned}[b]\sum_{(\mathbf{e},\mathbf{f})}\logp(\mathbf{e},\mathbf{f})&=\sum_{(\mathbf{e},\mathbf{f})}\left(\log\sum_{\mathbf{a}}p(\mathbf{a},\mathbf{e},\mathbf{f})\right)\\&=\sum_{(\mathbf{e},\mathbf{f})}\left(\log\sum_{\mathbf{a}}\sqrt{p(\mathbf{a},\mathbf{e},\mathbf{f})^2}\right)\\&=\sum_{(\mathbf{e},\mathbf{f})}\left(\log\sum_{\mathbf{a}}\sqrt{p(\mathbf{a},\mathbf{e}|\mathbf{f})\cdotp(\mathbf{f})\cdotp(\mathbf{a},\mathbf{f}|\mathbf{e})\cdotp(\mathbf{e})}\right)\end{aligned}\end{equation}この尤度を最大化するようなパラメータ$\theta$を求める.$\theta$は各方向のモデルにおけるパラメータをまとめたものとする.E-stepでは現在のパラメータ$\theta$の下でのアライメントの事後確率を以下のように計算する:\begin{equation}\begin{aligned}[b]q(\mathbf{a};\mathbf{e},\mathbf{f})&:=p(\mathbf{a}|\mathbf{e},\mathbf{f};\theta)\\&=\frac{p(\mathbf{a},\mathbf{e},\mathbf{f};\theta)}{\sum_{\mathbf{a}}p(\mathbf{a},\mathbf{e},\mathbf{f};\theta)}\\[0.5em]&=\frac{\sqrt{p(\mathbf{a},\mathbf{e}|\mathbf{f};\theta)\cdotp(\mathbf{f})\cdotp(\mathbf{a},\mathbf{f}|\mathbf{e};\theta)\cdotp(\mathbf{e})}}{\sum_{\mathbf{a}}\sqrt{p(\mathbf{a},\mathbf{e}|\mathbf{f};\theta)\cdotp(\mathbf{f})\cdotp(\mathbf{a},\mathbf{f}|\mathbf{e};\theta)\cdotp(\mathbf{e})}}\end{aligned}\end{equation}M-stepではパラメータの更新を行う:\begin{equation}\theta':=\argmax_{\theta}\sum_{\mathbf{a},\mathbf{e},\mathbf{f}}q(\mathbf{a};\mathbf{e},\mathbf{f})\logp(\mathbf{a},\mathbf{e},\mathbf{f};\theta)\end{equation}次節以降では,lexiconprobabilitiyとalignmentprobabilitiyを定義する.\subsection{句翻訳確率}$\mathbf{f}$が$N$個の句($F_1,F_2,...,F_N$)からなり,$\mathbf{e}$が$M$個の句($E_1,E_2,...,E_M$)とNULL($E_0$)からなるとする.またアライメント$\mathbf{A^{fe}}$は$f$の各句から$e$の単句への対応を表し,$A_j^{fe}=i$は句$F_j$が句$E_i$に対応していることを示すとする.提案モデルでは,IBMモデルにおける単語翻訳確率$p(f_j|e_i)$の代わりに,{\bf句翻訳確率}$p(F_j|E_i)$を考える.ただし,2語以上からなる句はNULL対応にはならないという制限を加える(その句に含まれる各単語がNULL対応になるものとする).句翻訳確率を用いて,式\ref{eq:lex}を以下のように変更する:\begin{equation}\label{eq:lex_mod}p(\mathbf{f}|\mathbf{a},\mathbf{e})=\prod_{j=1}^{N}p(F_j|E_{A_j^{fe}})\end{equation}ここで,句$F_j$と句$E_i$が対応付いたと仮定すると,この句の対応に寄与する句翻訳確率は,双方向分の句翻訳確率を掛け合わせるため以下のようになる:\begin{equation}\label{eq:phrase_alignment_prob}p(F_j|E_i)\cdotp(E_i|F_j)\end{equation}この確率の積を{\bf句対応確率}と呼ぶことにする.表\ref{tab:sample_prob}の上部に図\ref{fig:word-based-alignment}の例における句対応確率を示す.\subsection{依存関係確率}IBMモデルにおいて,単語の移動,すなわちreorderingモデルは,\pagebreak式\ref{eq:align}に示したように,一つ前の単語のアライメントとの相対位置によって定義されている.これに対し提案モデルでは,単語の文内での位置ではなく,依存関係を考慮する.\begin{table}[t]\caption{各確率の計算例}\label{tab:sample_prob}\input{06table01.txt}\end{table}まず$\mathbf{e}$のある単語$e_p$と,$e_p$に係る単語$e_c$について考え,それらの可能なアライメントのうち,$e_p$が句$E_P$に属し,$e_c$が句$E_C$に属しており,$E_C$が$E_P$に係っているものを考える.このような状況において,$E_P$と$E_C$の$\mathbf{f}$での対応句$F_{A_P^{ef}}$と$F_{A_C^{ef}}$の関係をモデル化したものが依存関係確率である.図\ref{fig:dpnd_prob}に例を示す.日英などのように語順の大きく異なる言語対であっても,文内の単語や句の依存関係は多くの場合保存され,$F_{A_C^{ef}}$が直接$F_{A_P^{ef}}$に係ることが多い.提案モデルはこのような傾向を考慮したものである.直接の親子関係にある2単語が属する2句の対応先の句の関係は$rel(e_p,e_c)$のように記述することにし,これは$e_p$が属する句の対応先の句$F_{A_P^{ef}}$から,$e_c$が属する句の対応先の句$F_{A_C^{ef}}$への経路として定義される.経路は以下のような表記に従って示される:\begin{itemize}\item子ノードへ行く場合は`c'({\itc}hildnode)\item親ノードへ行く場合は`p'({\itp}arentnode)\item2ノード以上離れている場合は,上記二つを並べて表記する\end{itemize}例えば図\ref{fig:word-based-alignment}において,``for''から``photodetector''への経路は`c'となり,``the''から``for''への経路は,2ノード離れているため`p;p'となる.句同士の依存関係を記述する際には,経路上にある全ての句は,2つ以上の単語からなる句も含めて,すべて1つのノードとして扱う.このため,図\ref{fig:word-based-alignment}において``photogate''から``the''への経路は`p;c;c;c'となる.この$rel$を用いて,式\ref{eq:align}を以下のように改善する:\begin{equation}\label{relation_probability}p(\mathbf{a}|\mathbf{e})=\prod_{(e_p,e_c)\inD_{\mathbf{e}\mathchar`-pc}}p_{\mathbf{ef}}(rel(e_p,e_c))\end{equation}ここで$D_{\mathbf{e}\mathchar`-pc}$は$\mathbf{e}$の木構造において直接の親子関係にある全ての単語の組み合わせである.また$p_{\mathbf{ef}}(rel(e_p,e_c))$を$\mathbf{e}\rightarrow\mathbf{f}$方向の{\bf依存関係確率}と呼ぶ.$p_{\mathbf{ef}}$は木構造上でのreorderingモデルと考えることができる.\begin{figure}[t]\begin{center}\includegraphics{17-1ia6f2.eps}\end{center}\hangcaption{依存関係の例(親子関係にある$e_p$と$e_c$が属する句$E_P$と$E_C$の対応先の句$F_{A_P^{ef}}$と$F_{A_C^{ef}}$の関係をモデル化する)}\label{fig:dpnd_prob}\end{figure}$rel$にはいくつか特別な値がある.まず$E_C$と$E_P$が同じ場合,つまり,$e_c$と$e_p$が同じ句に属する場合,$rel=\mbox{`SAME'}$となる.次にNULLアライメントに関してだが,これには$e_p$がNULL対応の場合,$e_c$がNULL対応の場合,両方ともNULL対応の場合の3通りがあり,それぞれ$rel$の値は`NULL\_p',`NULL\_c',`NULL\_b'となる.例として表\ref{tab:sample_prob}の下部に図\ref{fig:word-based-alignment}の例における依存関係確率を各方向それぞれ示す.一般的に,構文解析などにおいても,親ノードとの関係だけでなく,さらにその親のノードとの関係を考慮することは自然であり,精度の向上につながる.提案モデルにおいても,直接の親子関係だけでなく,さらにその親ノードとの関係も考慮し,以下のように定式化する:\begin{equation}p(\mathbf{a}|\mathbf{e})=\prod_{(e_p,e_c)\inD_{\mathbf{e}\mathchar`-pc}}p_{\mathbf{ef}\mathchar`-pc}(rel(e_p,e_c))\cdot\prod_{(e_g,e_c)\inD_{\mathbf{e}\mathchar`-gc}}p_{\mathbf{ef}\mathchar`-gc}(rel(e_g,e_c))\end{equation}ここで$D_{\mathbf{e}\mathchar`-gc}$は$\mathbf{e}$の木構造において祖父と子の関係にある全ての単語の組み合わせである.$p_{\mathbf{ef}\mathchar`-pc}$は直接の親子関係にある2単語を見たときの依存関係確率であり,$p_{\mathbf{ef}\mathchar`-gc}$は親の親と子の関係にある2単語の場合の依存関係確率である.なお,逆方向($\mathbf{f}$から$\mathbf{e}$)のモデル$p(\mathbf{a}|\mathbf{f})$も全く同様に定義される.\pagebreak\begin{equation}p(\mathbf{a}|\mathbf{f})=\prod_{(f_p,f_c)\inD_{\mathbf{f}\mathchar`-pc}}p_{\mathbf{fe}\mathchar`-pc}(rel(f_p,f_c))\cdot\prod_{(f_g,f_c)\inD_{\mathbf{f}\mathchar`-gc}}p_{\mathbf{fe}\mathchar`-gc}(rel(f_g,f_c))\end{equation} \section{トレーニング} \label{training}提案モデルは2つのステップに分けて学習される.これはIBMモデルにおいて,完全に最適解が求まる簡単なモデルからスタートし,徐々により複雑なモデルに移行することに対応する.Step1では単語翻訳確率の推定が行われ,Step2では句翻訳確率と依存関係確率の推定が行われる.どちらのステップにおいてもモデルはEMアルゴリズムにより学習される.またステップ1においては句は扱わず,全て単語単位での学習となる.複数単語の塊=句はStep2において自動的に獲得される.\subsection{Step1}Step1では各方向独立に,単語翻訳確率を推定する.これはIBMModel1と全く同様の方法により行われる.Step1の推定の際には対応の単位は各ノード単体,つまり単語のみであり,句は考慮しない.句はStep2の推定から考慮し,句となるべき候補を動的に作り出すことにより実現する.これはStep1の段階で可能な句の候補全てを考慮すると,アライメント候補数が爆発し,扱えなくなるためである.$\mathbf{f}$から$\mathbf{e}$へのアライメントを考えると,$\mathbf{f}$の各単語は,他の単語に関係なく,$\mathbf{e}$の任意の単語,またはNULLに対応することができる.このことから,あるひとつの可能なアライメント$\mathbf{a}$の確率は以下のように計算できる:\begin{align}\label{eq:trans_prob}p(\mathbf{a},\mathbf{f}|\mathbf{e})&=p(\mathbf{f}|\mathbf{a},\mathbf{e})\cdotp(\mathbf{a}|\mathbf{e})\\&=\prod_{j=1}^{J}p(f_j|e_{a_j})\cdotC(n,m)\end{align}ここで$p(\mathbf{a}|\mathbf{e})$は全てのアライメントにおいて一定(uniform)であるとし,各文の単語数による関数$C(n,m)$と置く.さらに,全ての可能なアライメントを考慮すると,確率$p(\mathbf{f}|\mathbf{e})$は以下のように計算できる.\begin{equation}\label{eq:all_align_prob}p(\mathbf{f}|\mathbf{e})=\sum_{\mathbf{a}}p(\mathbf{a},\mathbf{f}|\mathbf{e})\end{equation}単語翻訳確率の初期値として一様な確率を与えておき,式\ref{eq:trans_prob}と\ref{eq:all_align_prob}を計算して,正規化したアライメント回数$\frac{p(\mathbf{a},\mathbf{f}|\mathbf{e})}{p(\mathbf{f}|\mathbf{e})}$をアライメント$\mathbf{a}$内の全ての単語対応に与える.次に単語翻訳確率を最尤推定により求める.これを繰り返すことにより,単語翻訳確率を推定する.なおこの計算は効率的に行うことができ,近似することなく最適なパラメータが求められる.反対方向($\mathbf{e}$から$\mathbf{f}$へのモデル)も同様に求めることができる.\subsection{Step2}Step2では句翻訳確率と依存関係確率の両方を推定する.また$\mathbf{f}$から$\mathbf{e}$,$\mathbf{e}$から$\mathbf{f}$の二つのモデルを同時に用いて,一つの方向性のないアライメントを得る.Step1では計算を効率化することにより,近似を用いずにモデルの推定が完全に行えるが,Step2では可能なアライメントを全て考慮することは不可能である.そこで我々は最も良いアライメントを探索するために,まず句翻訳確率のみから初期アライメントを生成し,その後依存関係確率も考慮しつつ,山登り法によってアライメントを徐々に修正するという方法をとる.さらにStep2において新たな句候補の生成を行う.新たな句候補は山登り法によって求められた最も良いアライメントの状態から生成され,次のイタレーションから考慮される.つまり,Step2のイタレーションが進むに連れ,より大きな句の対応を発見することができる.全体として,Step2の1回のイタレーションは,E-stepでの“初期アライメント”の生成と“山登り法”により最適なアライメントの探索,E-stepとM-stepの間での新たな句候補の生成,M-stepでのパラメータの更新の4つの要素からなる.Step2での一回目のイタレーションでは,パラメータの初期値を以下のようにする.一回目のイタレーションにおいては全ての句は1単語からなるため(2単語以上からなる句候補が獲得されていないため)句翻訳確率については,Step1で求めた単語翻訳確率をそのまま用いる.依存関係確率は,Step1の最後のイタレーションで得られた最も良いアライメント結果において依存関係の生起回数を計数し,そこから求めた確率を用いる.\subsection*{初期アライメント(E-step)}\label{initial_align}依存関係確率は用いず,句翻訳確率のみから初期アライメントを生成する.全ての句候補同士の対応(もしくはNULL対応)に対して,句対応確率を式\ref{eq:phrase_alignment_prob}により計算する.これらの中から,句対応確率の相乗平均が高いものから順に,対応として採用する.この際,各単語は1度しか対応付かないようにする.つまりすでに採用されている対応と重なるような対応は採用しない.なお句候補の生成については後で述べる.初期アライメントが生成されたら,その状態でのアライメント確率を計算する.このときから依存関係確率も用い,式\ref{eq:best_proposed}のように計算する.\subsection*{山登り法(E-step)}初期アライメントの状態から,依存関係確率を考慮しながらアライメントを修正し,徐々に確率の高いアライメントを探索していく.修正手段としては以下の4種類を考える.\begin{figure}[t]\begin{center}\includegraphics{17-1ia6f3.eps}\end{center}\caption{山登り法によるアライメントの修正例}\label{fig:hillclimb}\end{figure}\begin{description}\item[Swap:]任意の2つの対応に注目し,それらの対応を入れ替える.例えば図\ref{fig:hillclimb}の最初の操作では,``光$\leftrightarrow$photogate''と``フォトゲート$\leftrightarrow$photodetector''の対応がそれぞれ``光$\leftrightarrow$photodetector''と``フォトゲート$\leftrightarrow$photogate''というように対応が入れ替えられている.\item[Extend:]任意の1つの対応に注目し,そのいずれかの言語における句を,親または子方向に1ノード分だけ拡大する.\item[Add:]NULL対応となっている原言語側及び目的言語側のノード間に,新たに対応を追加する.\item[Reject:]すでにある対応を削除し,それぞれNULL対応とする.\end{description}図\ref{fig:hillclimb}に山登り法によるアライメント修正過程の例を示す.なお図\ref{fig:hillclimb}は1回以上イタレーションを行ったあとの状態である.修正後のアライメント確率が修正前よりも高くなる場合にのみ修正を実行し,修正された状態から再度修正を行っていく.確率が高くなる修正箇所がなくなるまで修正を繰り返し行い,最終的に得られたアライメントが,最も確率の高いアライメントとなる.なお修正の途中で得られたアライメントの状態を,確率の高いものから$n$個保存しておき,仮想的な$n$-bestアライメントとし,パラメータ推定の際に利用する.\subsection*{新たな句候補の生成}\label{expand_step}山登り法により得られた最も良いアライメント結果のうち,NULL対応となった単語に注目する.NULL対応となった語の親,または子の単語がNULL対応でなければ,その単語とNULL対応の単語とをまとめたものを新たに句として獲得し,Step2の次のイタレーションから探索範囲に入れる.例えば図\ref{fig:hillclimb}の最終状態においてNULL対応となっている“素子”は,その子の対応である“受光$\leftrightarrow$photodetector”に含まれ,新たに“受光素子”という句を作りだし,“受光素子$\leftrightarrow$photodetector”という対応があるものと考えるさらに親の対応である“に$\leftrightarrow$for”に含まれ,“素子に”という句もつくり出し,“素子に$\leftrightarrow$for”という対応があるものと考える.これらの新たに考慮される対応には,元の対応の出現期待値(正規化されたアライメントの確率)を分配する.例えば図\ref{fig:hillclimb}のアライメントの正規化された確率を0.7とすると,“受光$\leftrightarrow$photodetector”と“受光素子$\leftrightarrow$photodetector”にそれぞれ0.35ずつ,“に$\leftrightarrow$for”と“素子に$\leftrightarrow$for”にも0.35ずつ出現期待値を与える.このように,NULL対応に注目することにより動的に句となるべきかたまりを獲得していき,モデルの構築を行う.\subsection*{モデル推定(M-step)}一般的なEMアルゴリズムにおいては,得られたn-bestアライメントのそれぞれのアライメント確率を正規化し,各アライメントにおけるパラメータの出現回数をこの正規化された確率値(出現期待値)を用いて計数する.我々もこの方法に従い,全ての対訳文での全てのアライメント結果を集めてパラメータの推定を行う.ただし,正確に全てのアライメントを数え上げることはできないため,山登り法の途中で得られたアライメントのうち,アライメントの確率の高いもの上位$n$個(山登りの回数が$n$に満たない場合はその全て)を用いる.パラメータ推定は各パラメータの出現期待値の総和を全体の回数で正規化することにより行われる.例えば句翻訳確率は以下のような式により推定する:\begin{equation}\label{eq:normal}p(F_j|E_i)=\frac{C(F_j,E_i)}{\sum_{k}C(F_k,E_i)},~~~p(E_i|F_j)=\frac{C(F_j,E_i)}{\sum_{k}C(E_k,F_j)}\end{equation}ここで$C(F_j,E_i)$は$F_j$と$E_i$がアライメントされた回数である.ここまでの処理により,EMアルゴリズムのE-step,M-stepが終了し,再びE-stepに戻る.これを複数回繰り返すことにより,モデルのトレーニングを行う. \section{アライメント実験} \label{result}提案手法の有効性を示すためにアライメント実験を行った.トレーニングコーパスとしてJST\footnote{http://www.jst.go.jp/}日英抄録コーパスを用いた.このコーパスは,科学技術振興機構所有の約200万件の日英抄録から,内山・井佐原の方法\cite{utiyama07:_japan_englis_paten_paral_corpus}により,情報通信研究機構\footnote{http://www.nict.go.jp/}が作成したものであり,100万対訳文からなる.このうち475文に人手で正解のアライメントを付与し,正解データとした.ただし,正解データにはSure($S$)アライメントのみが付与されており,Possible($P$)アライメントはない\cite{Och03}.また評価の単位は日本語,英語とも単語とし,適合率・再現率・F値により精度を求めた.日本語文に対しては形態素解析器JUMAN\cite{JUMAN}および依存構造解析器KNP\cite{kawahara-kurohashi:2006:HLT-NAACL06-Main}を用い,英語文に対してはTsuruokaとTsujiiのPOSタガー\cite{Tsuruoka2005}でPOSタグを付与し,MSTパーサ\cite{mstparser}を用いて単語の依存構造木に変換する.またStep2のパラメータ推定の際に用いるアライメントの数は$n=10$とした.実験は2種類行った.一つ目は既存の単語列アライメント手法と比較することによって提案手法の有効性を示すための実験であり,二つ目は依存構造を利用することと,単語より大きな単位である句を扱うことの効果を示すための実験である.全ての実験において,各単語は原形に戻した状態でトレーニングを行った.\subsection{単語列アライメント手法との比較}\label{exp1}\begin{table}[b]\caption{アライメント実験結果(提案手法と単語列アライメント手法との比較)}\label{tab:result}\input{06table02.txt}\end{table}比較実験として,単語列アライメント手法として広く利用されているIBMモデルを実装したアライメントツールであるGIZA++\cite{Och03}を用いてアライメントを行った.各モデルのイタレーション回数などのオプションはデフォルトの設定をそのまま利用した.さらに各方向のアライメント結果を三つの対称化手法により統合した\cite{koehn-och-marcu:2003:HLTNAACL}.結果を表\ref{tab:result}の下部3行に示す.利用した対称化手法は`intersection',`grow-final-and',`grow-diag-final-and'の3つである\cite{Koehn_IWSLT05}.一方,提案手法によるアライメント精度を表\ref{tab:result}の上部に示す.まず`Step1'に示されているのは,Step1のイタレーションを5回行った後に学習されたパラメータ(単語翻訳確率)を用いたアライメントの精度である.なおここでのアライメントは,両方向のパラメータを用いて,\ref{initial_align}章の初期アライメント生成手法と同様にアライメントを生成した結果である.`Step2-X'はStep2の各イタレーション終了時点でのアライメント精度である.`Step2-1'は句翻訳確率は`Step1'のものと同じだが,それに加えて`Step1'のアライメント結果から推定した依存関係確率を用いてアライメントを行っている.つまり,`Step1'と`Step2-1'とを比較することにより,依存関係確率を用いることによるアライメント精度の向上が見て取れる.以後Step2のイタレーションを行い,その都度アライメント精度を計測した.結果として,提案手法では単語列アライメント手法よりもF値で4.9ポイントのアライメント精度向上を達成した(Step2-7とgrow-diag-final-andとの比較による).適合率だけを見ると`intersection'が最もよい値を示しているが再現率が極端に低くなっている.また再現率が最も高いのは`grow-diag-final-and'であるが,同程度の再現率を示している提案手法の結果を見ると,適合率では大きく上回っており,総合的に見て提案手法は単語列アライメント手法よりも優れているということができる.なおF値はStep2-7が最も高い値を示したが,Step2-5から2-7までは大差ないことと,RecallよりもPrecisionが高い方が翻訳での利用を考えた際には有利であり,イタレーションが進むに連れPrecisionが低下していくことを考慮して,Step2-5の結果に注目することにする.次に,機能語に関する簡単なルールを人手により作成し,最終的なアライメント結果の修正を行った.用いたルールは以下の3つである:\begin{itemize}\item英語の冠詞はその係り先のノード(普通は名詞)に併合する\item日本語の助詞と英語の`be'や`have'との間に対応がある場合,それらは棄却する\item日本語の‘する’,‘れる’,英語の`be',`have'がNULLに対応している場合,その係り先の動詞や形容詞のノードに併合する\end{itemize}これらのルールをStep2-5の結果に適用することにより,F値は70.76に向上し,単語列アライメントよりも8.5ポイント高いF値を達成した(表\ref{tab:result}のStep2-5+rule).なお,以後の考察ではルールなしのStep2-5の結果を検討する.\subsection{依存構造と句を扱うことの有効性}\label{exp2}依存構造木を用いることと,単語より大きな句という単位を用いることの有効性を示すための実験を行った.実験の条件として以下の4通りを採用した:\begin{itemize}\item依存構造木と句のどちらも用いる(結果の‘提案手法’)\item依存構造木のみを利用し,句は用いない\item依存構造木は利用せず,句のみを用いる\item依存構造木と句のどちらも利用しない(結果の‘ベースライン’)\end{itemize}なお依存構造木を用いない実験においては,単語の依存関係ではなく相対位置の情報を用いた.例えば原言語側で連続している一組の対応のそれぞれの対応先が前,又は後ろに何単語(もしくは句)離れているかをモデル化した.実験結果を表\ref{tab:effectiveness_result}に示す.全ての実験条件において,示した結果はStep2で5回イタレーションを行った後のアライメント結果での評価である.\begin{table}[t]\hangcaption{依存構造木および句を利用することの効果(Step2での5回のイタレーション後のアライメント精度)}\label{tab:effectiveness_result}\input{06table03.txt}\end{table}この結果から,句を扱うことは再現率の向上につながり,依存構造木を利用することは適合率の向上につながることがわかり,両方を用いることにより,適合率・再現率ともにバランスよく高い精度を達成することができると言える. \section{考察} \ref{exp1}章(表\ref{tab:result})から,単純な単語列アライメントモデルと比較して,提案モデルが十分に高精度なアライメントを行えていることがわかる.図\ref{fig:word_align}および図\ref{fig:proposed_align}で二つの手法のアライメント結果の比較を示す.灰色に塗られたマスはアライメントの正解であり,黒い四角(■)がある部分が出力である.図\ref{fig:word_align}は単語列アライメントの結果の例である.文内に“非去勢マウス”と“去勢マウス”,``non-castratedmice''と``castratedmice''というように,同じ語が複数回出現しており,アライメントに曖昧性があるが,単語列アライメントモデルはこの曖昧性解消に失敗している.これは文を単純な単語列として見た場合,曖昧性を持つ語同士が互いに近くに位置しており,さらに曖昧性解消の手がかりとなる“同様に$\leftrightarrow$as”といった対応ともほぼ等距離にあるためである.一方で図\ref{fig:proposed_align}に示すように,提案モデルではこれらの語を正しく対応付けることができており,文を木構造で見た場合の利点が生かされている.例えば英語側の木構造において,``as''に係っているのは``castratedmice''ではなく``non-castratedmice''であり,同様に日本語側の木構造においても,“同様に”に係っているのは“去勢マウス”ではなく“非去勢マウス”である.このような関係から,“非去勢マウス$\leftrightarrow$non-castratedmice”,“去勢マウス$\leftrightarrow$castratedmice”という正しい対応関係が獲得されている.\begin{figure}[t]\begin{center}\includegraphics{17-1ia6f4.eps}\end{center}\caption{単語列アライメントにおける曖昧性解消の失敗例(grow-diag-final-and)}\label{fig:word_align}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{17-1ia6f5.eps}\end{center}\caption{提案手法によるアライメント例(曖昧性が正しく解消されている)}\label{fig:proposed_align}\end{figure}\ref{Introduction}章で述べたように,IBMモデルに代表されるような文を単純な単語列として扱う既存の統計的単語列アライメントモデルは,英語とフランス語などのように語順がほぼ同じであり,語順変化がある場合でも局所的である言語対においては十分頑健に働くが,語順が大きく変化する言語対においてはその精度に問題がある.例えば日本語と英語について考えてみると,日本語の文はSOVの語順であるのに対し,英語ではSVOの語順であり,このため語順の変化が大きくなりやすい.このような言語対においては言語の構造情報を利用することが自然であり,また有効であることが本実験により示されている.句を扱うことによる改善例としては,図\ref{fig:result_fail}において単語列アライメントモデルでは“受光素子$\leftrightarrow$photodetector”という句対応の獲得に失敗しているのに対し,図\ref{fig:result_good2}に示すように提案手法では正しく獲得されている.単語レベルでの対応を後から重ね合わせる手法では,どこまでが句となるべきかの境界判定ができないなどの欠点があり,このような句対応を精度良く発見することは難しい.これに対し提案手法ではパラメータの学習と同時に句を獲得することができる上に,木構造を利用しているため,単語列としては連続であっても意味上不連続であり,句となるべきではないといった境界判定が自然に行える.\begin{figure}[b]\begin{center}\includegraphics{17-1ia6f6.eps}\end{center}\caption{単語列アライメントにおける句対応獲得の失敗例(grow-diag-final-and)}\label{fig:result_fail}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{17-1ia6f7.eps}\end{center}\caption{提案手法によるアライメント例(句が正しく獲得されている)}\label{fig:result_good2}\end{figure}表\ref{tab:phrase_dist}に,得られた対応を大きさごとに計数した結果を示す(単語列アライメント手法はgrow-diag-final-and,提案手法はStep2の5回目のイタレーションの結果).なお提案手法ではイタレーションが進むにつれて,1ずつ句の大きさが大きくなる.このため,5回目のイタレーションにおいては日英の句の合計が6の対応が最大となる.結果を見ると,単語列アライメント手法に比べて提案手法では得られた対応の個数がサイズがより大きなものへとシフトしていることが見て取れ,より大きなサイズの対応が獲得されていることがわかる.これが再現率の向上に大きく貢献しているといえる.\begin{table}[b]\caption{得られた対応の大きさの分布}\label{tab:phrase_dist}\input{06table04.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{17-1ia6f8.eps}\end{center}\caption{NULL対応ノード数と平均フレーズサイズの推移}\label{fig:phrase-size}\end{figure}さらにイタレーションごとの各言語のNULL対応ノード数と,平均フレーズサイズの推移を図\ref{fig:phrase-size}に示す.平均フレーズサイズは,例えばある一つの対応に含まれる日本語の単語が$j$語,英語の単語が$i$語ならば$(i+j)/2$とした.ある程度までは平均フレーズサイズは上昇するが,6回目程度からはそれほど大きくは変化しておらず,アライメントが安定していることがわかる.翻訳での利用を考えた場合,適合率は高ければ高いほどもちろん翻訳の精度が向上すると考えられる.しかしながら再現率が低いと,例えばPhrase-basedSMT\cite{koehn-och-marcu:2003:HLTNAACL}やHiero\cite{chiang:2005:ACL}などにおいてはフレーズテーブルのサイズが大きくなりすぎるという問題が起こり,用例ベース翻訳システム\cite{Nakazawa:2008:NTCIR7}においては利用可能な用例の数が減ってしまうなど,再現率もおざなりにはできない.一方で再現率のみが高く,適合率が低くてもやはり質の良い翻訳は行えない.つまり両者のバランスを取り,どちらも向上させることが,翻訳の質の向上につながるはずであり,\ref{exp2}章で示したように,提案手法はこの観点からも有効であると言える.実際に提案手法によるアライメントによって翻訳精度が向上するかの調査は今後の課題である.提案手法におけるアライメント誤りの要因で最も大きいものは,構文解析の誤りによるものである.提案手法は構文解析結果に強く依存しており,構文解析が誤っていると容易にアライメントの誤りにつながってしまう.長期的には各言語の構文解析の精度が向上していくことも十分期待できるが,構文解析結果を修正しつつアライメントすることも考えられる\cite{fraser-wang-schutze:2009:EACL}.また山登り法によるアライメントの探索の際に局所解に陥ってしまうという問題もしばしば見受けられた.これはほとんどの場合,一方の言語で1文内に同じ語や句が複数回出現しているが,他方では省略されて1度しか出現していないなど,出現回数に差がある場合に起こる.初期アライメント生成時には周りのノードとの関係は一切見ていないため,このような省略がある場合にはどちらが正しい対応かを判断することができないため,ランダムにどちらかが選ばれる.このとき運悪く誤った方を選択してしまい,さらにその周囲に誤った対応がいくつかあると,お互いに足を引っ張り合い,局所解に陥ってしまう.このように,提案手法では必ずしも最もよいアライメントが得られるとは限らない.この問題を解決するためには,山登り法の初期値を複数用意しておき,探索を複数回行うといった方法を取ったり,アライメントの探索アルゴリズムをよりよいものに改良する必要があり,例えばBeliefPropagationを利用する\cite{cromieres-kurohashi:2009:EACL}ことなどが考えられる.さらに,機能語をどのように扱うかといった難しい問題も残されている.機能語は明確に対応する語を持たないことがしばしばある.例えば日本語における格助詞などや英語における冠詞などはその典型的な例である.このような語に対しては,アライメントの正解の基準と出力とが整合的でない場合が多く,これがアライメント精度の向上の障害になってしまう.\ref{exp1}章の最後に示したように,提案手法では簡単なルールを用いるだけで大幅な精度の向上を達成できる.これは木構造を利用していることの利点であるといえる. \section{結論} 本稿では依存関係確率モデルを用いた統計的句アライメント手法を提案した.提案モデルは木構造上でのreorderingモデルということができ,シンプルなモデルながらも言語構造の違いを柔軟に吸収し,精度の高いアライメントを実現できた.実験結果から,語順の大きく異なる言語対に対しては既存の単語列アライメント手法では十分な精度を達成することは困難であり,構文解析などの言語情報を利用することが自然であり,高い効果を示すことが証明された.今回は日本語と英語間のアライメント実験のみしか行わなかったが,同様に語順に大きな違いのある日本語と中国語間での実験などを行い,提案手法が言語対によらずロバストな手法であることを示す必要がある.考察にも述べたとおり,提案手法は依存構造解析に大きく依存しており,依存構造解析誤りが容易にアライメントの誤りにつながってしまう.両言語の解析結果を照らしあわせて,文構造を修正しつつアライメントすることも可能なはずであり,現在検討中である.これが実現できれば,依存構造解析とアライメント双方の精度向上が可能となると考える.アライメントの精度のみを評価したが,この結果が翻訳の精度にどのように影響するかを調査することは今後の課題である.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Brown,Pietra,Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{Brown93}Brown,P.~F.,Pietra,S.A.~D.,Pietra,V.J.~D.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofStatisticalMachineTranslation:ParameterEstimation.\BBCQ\\newblock{\BemAssociationforComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\263--312}.\bibitem[\protect\BCAY{Cherry\BBA\Lin}{Cherry\BBA\Lin}{2003}]{Cherry03}Cherry,C.\BBACOMMA\\BBA\Lin,D.\BBOP2003\BBCP.\newblock\BBOQAProbabilityModeltoImproveWordAlignment.\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingoftheAssociationofComputationalLinguistics},\mbox{\BPGS\88--95}.\bibitem[\protect\BCAY{Chiang}{Chiang}{2005}]{chiang:2005:ACL}Chiang,D.\BBOP2005\BBCP.\newblock\BBOQAHierarchicalPhrase-BasedModelforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics(ACL'05)},\mbox{\BPGS\263--270}.\bibitem[\protect\BCAY{Cowan,Ku\u{c}erov\'{a},\BBA\Collins}{Cowanet~al.}{2006}]{cowan-kuucerova-collins:2006:EMNLP}Cowan,B.,Ku\u{c}erov\'{a},I.,\BBA\Collins,M.\BBOP2006\BBCP.\newblock\BBOQADiscriminativeModelforTree-to-TreeTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe2006Conferenceon{EMNLP}},\mbox{\BPGS\232--241}\Sydney,Australia.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Cromier\`{e}s\BBA\Kurohashi}{Cromier\`{e}s\BBA\Kurohashi}{2009}]{cromieres-kurohashi:2009:EACL}Cromier\`{e}s,F.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2009\BBCP.\newblock\BBOQAnAlignmentAlgorithmUsingBeliefPropagationandaStructure-BasedDistortionModel.\BBCQ\\newblockIn{\BemProceedingsofthe12thConferenceoftheEuropeanChapteroftheACL(EACL2009)},\mbox{\BPGS\166--174}\Athens,Greece.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Fraser,Wang,\BBA\Sch\"{u}tze}{Fraseret~al.}{2009}]{fraser-wang-schutze:2009:EACL}Fraser,A.,Wang,R.,\BBA\Sch\"{u}tze,H.\BBOP2009\BBCP.\newblock\BBOQRichBitextProjectionFeaturesforParseReranking.\BBCQ\\newblockIn{\BemProceedingsofthe12thConferenceoftheEuropeanChapteroftheACL(EACL2009)},\mbox{\BPGS\282--290}\Athens,Greece.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Gildea}{Gildea}{2003}]{Gildea03}Gildea,D.\BBOP2003\BBCP.\newblock\BBOQLooselyTree-basedAlignmentforMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingon{ACL}},\mbox{\BPGS\80--87}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{kawahara-kurohashi:2006:HLT-NAACL06-Main}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQAFully-LexicalizedProbabilisticModelforJapaneseSyntacticandCaseStructureAnalysis.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNAACL,MainConference},\mbox{\BPGS\176--183}.NewYorkCity,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Koehn,Axelrod,Mayne,Callison-Burch,Osborne,\BBA\Talbot}{Koehnet~al.}{2005}]{Koehn_IWSLT05}Koehn,P.,Axelrod,A.,Mayne,A.~B.,Callison-Burch,C.,Osborne,M.,\BBA\Talbot,D.\BBOP2005\BBCP.\newblock\BBOQEdinburghSystemDescriptionforthe2005IWSLTSpeechTranslationEvaluation.\BBCQ\\newblockIn{\BemProceedingsofInternationalWorkshoponSpokenLanguageTranslation2005(IWSLT'05)}.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{koehn-och-marcu:2003:HLTNAACL}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-BasedTranslation.\BBCQ\\newblockIn{\BemHLT-NAACL2003:MainProceedings},\mbox{\BPGS\127--133}.\bibitem[\protect\BCAY{Kurohashi,Nakamura,Matsumoto,\BBA\Nagao}{Kurohashiet~al.}{1994}]{JUMAN}Kurohashi,S.,Nakamura,T.,Matsumoto,Y.,\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQImprovementsof{J}apaneseMorphologicalAnalyzer{JUMAN}.\BBCQ\\newblockIn{\BemProceedingsofTheInternationalWorkshoponSharableNaturalLanguage},\mbox{\BPGS\22--28}.\bibitem[\protect\BCAY{Liang,Taskar,\BBA\Klein}{Lianget~al.}{2006}]{liang-taskar-klein:2006:HLT-NAACL06-Main}Liang,P.,Taskar,B.,\BBA\Klein,D.\BBOP2006\BBCP.\newblock\BBOQAlignmentbyAgreement.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNAACL,MainConference},\mbox{\BPGS\104--111}.NewYorkCity,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{McDonald,Pereira,Ribarov,\BBA\Hajic}{McDonaldet~al.}{2005}]{mstparser}McDonald,R.,Pereira,F.,Ribarov,K.,\BBA\Hajic,J.\BBOP2005\BBCP.\newblock\BBOQNon-ProjectiveDependencyParsingusingSpanningTreeAlgorithms.\BBCQ\\newblockIn{\BemProceedingsofHumanLanguageTechnologyConferenceandConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\523--530}.Vancouver,BritishColumbia,Canada.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Menezes\BBA\Richardson}{Menezes\BBA\Richardson}{2001}]{Menezes01}Menezes,A.\BBACOMMA\\BBA\Richardson,S.~D.\BBOP2001\BBCP.\newblock\BBOQABest-firstAlignmentAlgorithmforAutomaticExtractionofTransferMappingsfromBilingualCorpora.\BBCQ\\newblockIn{\BemProceedingsofthe39thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)WorkshoponData-DrivenMachineTranslation},\mbox{\BPGS\39--46}.\bibitem[\protect\BCAY{Nakazawa\BBA\Kurohashi}{Nakazawa\BBA\Kurohashi}{2008a}]{Nakazawa:2008:NTCIR7}Nakazawa,T.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2008a\BBCP.\newblock\BBOQKyoto-U:SyntacticalEBMTSystemforNTCIR-7PatentTranslationTask.\BBCQ\\newblockIn{\BemProceedingsofHLT/EMNLP2005},\mbox{\BPGS\467--474}.\bibitem[\protect\BCAY{Nakazawa\BBA\Kurohashi}{Nakazawa\BBA\Kurohashi}{2008b}]{nakazawa:2008:AMTA}Nakazawa,T.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2008b\BBCP.\newblock\BBOQLinguistically-motivatedTree-basedProbabilisticPhraseAlignment.\BBCQ\\newblockIn{\BemProceedingsoftheEighthConferenceoftheAssociationforMachineTranslationintheAmericas(AMTA2008)}.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2003}]{Och03}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQASystematicComparisonofVariousStatisticalAlignmentModels.\BBCQ\\newblock{\BemAssociationforComputationalLinguistics},{\Bbf29}(1),\mbox{\BPGS\19--51}.\bibitem[\protect\BCAY{Quirk,Menezes,\BBA\Cherry}{Quirket~al.}{2005}]{quirk-menezes-cherry:2005:ACL}Quirk,C.,Menezes,A.,\BBA\Cherry,C.\BBOP2005\BBCP.\newblock\BBOQDependencyTreeletTranslation:SyntacticallyInformedPhrasal{SMT}.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics(ACL'05)},\mbox{\BPGS\271--279}.\bibitem[\protect\BCAY{Tsuruoka\BBA\Tsujii}{Tsuruoka\BBA\Tsujii}{2005}]{Tsuruoka2005}Tsuruoka,Y.\BBACOMMA\\BBA\Tsujii,J.\BBOP2005\BBCP.\newblock\BBOQBidirectionalInferencewiththeEasiest-FirstStrategyforTaggingSequenceData.\BBCQ\\newblockIn{\BemProceedingsofHLT/EMNLP2005},\mbox{\BPGS\467--474}.\bibitem[\protect\BCAY{Utiyama\BBA\Isahara}{Utiyama\BBA\Isahara}{2007}]{utiyama07:_japan_englis_paten_paral_corpus}Utiyama,M.\BBACOMMA\\BBA\Isahara,H.\BBOP2007\BBCP.\newblock\BBOQAJapanese-EnglishPatentParallelCorpus.\BBCQ\\newblockIn{\BemMTsummitXI},\mbox{\BPGS\475--482}.\bibitem[\protect\BCAY{Watanabe,Kurohashi,\BBA\Aramaki}{Watanabeet~al.}{2000}]{Watanabe00}Watanabe,H.,Kurohashi,S.,\BBA\Aramaki,E.\BBOP2000\BBCP.\newblock\BBOQFindingStructuralCorrespondencesfromBilingualParsedCorpusforCorpus-basedTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe18thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\906--912}.\bibitem[\protect\BCAY{Yamada\BBA\Knight}{Yamada\BBA\Knight}{2001}]{yamada_ACL_2001}Yamada,K.\BBACOMMA\\BBA\Knight,K.\BBOP2001\BBCP.\newblock\BBOQASyntax-basedStatisticalTranslationModel.\BBCQ\\newblockIn{\BemProceedingsof39thAnnualMeetingofthe{ACL}},\mbox{\BPGS\523--530}.\end{thebibliography}\begin{biography}\bioauthor{中澤敏明}{2005年東京大学工学部電子情報工学科卒業.2007年同大学院修士課程修了.2007年京都大学大学院博士後期課程入学.機械翻訳の研究に従事.}\bioauthor{黒橋禎夫}{1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年,京都大学大学院情報学研究科教授,現在に至る.}\end{biography}\biodate\end{document}
V21N01-03
\section{はじめに} \label{sec:introduction}電子化されたテキストが利用可能になるとともに,階層的文書分類の自動化が試みられてきた.階層的分類の対象となる文書集合の例としては,特許\footnote{http://www.wipo.int/classifications/en/},医療オントロジー\footnote{http://www.nlm.nih.gov/mesh/},Yahoo!やOpenDirectoryProject\footnote{http://www.dmoz.org/}のようなウェブディレクトリが挙げられる.文書に付与すべきラベルは,タスクによって,各文書に1個とする場合と,複数とする場合があるが,本稿では複数ラベル分類に取り組む.階層的分類における興味の中心は,あらかじめ定義されたラベル階層をどのように自動分類に利用するかである.そもそも,大量のデータを階層的に組織化するという営みは,科学以前から人類が広く行なってきた.例えば,伝統社会における生物の分類もその一例である.そこでは分類の数に上限があることが知られており,その制限は人間の記憶容量に起因する可能性が指摘されている\cite{Berlin1992}.階層が人間の制約の産物だとすると,そのような制約を持たない計算機にとって,階層は不要ではないかと思われるかもしれない.階層的分類におけるラベル階層の利用という観点から既存手法を整理すると,まず,非階層型と階層型に分けられる.非階層型はラベル階層を利用しない手法であり,各ラベル候補について,入力文書が所属するか否かを独立に分類する.ラベル階層を利用する階層型は,さらに2種類に分類できる.一つはラベル階層を候補の枝刈りに用いる手法(枝刈り型)である.典型的には,階層を上から下にたどりながら局所的な分類を繰り返す\cite{Montejo2006,Qiu2009full,Wang2011IJCNLPfull}.枝刈りにより分類の実行速度をあげることができるため,ラベル階層が巨大な場合に有効である.しかし,局所的な分類を繰り返すことで誤り伝播が起きるため,精度が低下しがちという欠点が知られている\cite{Bennett2009}.もう一つの手法はパラメータ共有型である.この手法では,ラベル階層上で近いラベル同士は似通っているので,それらを独立に分類するのではなく,分類器のパラメータをラベル階層に応じて部分的に共有させる\cite{Qiu2009full}.これにより分類精度の向上を期待する.これらの既存手法は,いずれも複数ラベル分類というタスクの特徴を活かしていない.複数ラベル分類では,最適な候補を1個採用すればよい単一ラベル分類と異なり,ラベルをいくつ採用するかの加減が人間作業者にとっても難しい.我々は,人間作業者が出力ラベル数を加減する際,ラベル階層を参照しているのではないかと推測する.例えば,科学技術文献を分類する際,ある入力文書が林業における環境問題を扱っていたとする.この文書に対して,「林業政策」と「林業一般」という2個のラベルは,それぞれ単独でみると,いずれもふさわしそうである.しかし,両者を採用するのは内容的に冗長であり,よりふさわしい「林業政策」だけを採用するといった判断を人間作業者はしているかもしれない.一方,別のラベル「環境問題」は「林業政策」と内容的に競合せず,両方を採用するのが適切を判断できる.この2つの異なる判断は,ラベル階層に対応している.「林業政策」と「林業一般」は最下位層において兄弟関係にある一方,「林業政策」と「環境問題」はそれぞれ「農林水産」と「環境工学」という異なる大分類に属している.このように,我々は,出力すべき複数ラベルの間にはラベル階層に基づく依存関係があると仮定する.そして,計算機に人間作業者の癖を模倣させることによって,(それが真に良い分類であるかは別として)人間作業者の分類を正解としたときの精度が向上することを期待する.本稿では,このような期待に基づき,ラベル間依存を利用する具体的な手法を提案する.まずは階層型複数ラベル文書分類を構造推定問題として定式化し,複数のラベルを同時に出力する大域モデルと,動的計画法による厳密解の探索手法を提案する.次に,ラベル間依存を表現する枝分かれ特徴量を導入する.この特徴量は動的計画法による探索が維持できるように設計されている.実験では,ラベル間依存の特徴量の導入により,精度の向上とともに,モデルの大きさの削減が確認された.本稿では,\ref{sec:task}節で問題を定義したうえで,\ref{sec:proposed}節で提案手法を説明する.\ref{sec:experiments}節で実験結果を報告する.\ref{sec:related-work}節で関連研究に言及し,\ref{sec:conclusion}節でまとめと今後の課題を述べる. \section{問題設定} \label{sec:task}階層型複数ラベル文書分類では,与えられた文書に対して,それをもっともよく表すラベルの集合$\mathcal{M}\subset\mathcal{L}$を返す.ここで,$\mathcal{L}$はあらかじめ定義されたラベルの集合である.$\mathcal{L}$は図\ref{fig:tree}のように木構造で組織化されているとする\footnote{いくつかの既存研究では,有向非循環グラフ(directedacyclicgraph,DAG)を扱っている\cite{Labrou1999,LSHTC3}.有向非循環グラフでは,木と異なり,ノードが一般に複数の親を持ち得る.有向非循環グラフへの対応は今後の課題とし,本稿では木構造に対象をしぼる.}.また,付与対象のラベルは葉のみであり,内部ノードはラベルとならないとする.図\ref{fig:tree}の場合,$\mathrm{AA}$,$\mathrm{AB}$,$\mathrm{BA}$および$\mathrm{BB}$がラベル候補となる.\begin{figure}[b]\begin{center}\includegraphics{21-1ia3f1.eps}\end{center}\caption{ラベル階層の例(灰色の葉のみが付与対象のラベル)}\label{fig:tree}\end{figure}いくつかの記法を整理しておく.$\mathrm{leaves}(c)$は,$c$の子孫である葉の集合を返す.例えば,$\mathrm{leaves}(\mathrm{A})=\{\mathrm{AA},\mathrm{AB}\}$.ただし,$c$自身が葉の場合は,$\mathrm{leaves}(c)=\{c\}$.$p\rightarrowc$は親$p$から子$c$への辺を表す.$\mathrm{path}(c)$は$\mathrm{ROOT}$と$c$を結ぶ辺の集合を返す.例えば,$\mathrm{path}(\mathrm{AB})=\{\mathrm{ROOT}\rightarrow\mathrm{A},\mathrm{A}\rightarrow\mathrm{AB}\}$.また,$\mathrm{tree}(\mathcal{M})=\bigcup_{l\in\mathcal{M}}\mathrm{path}(l)$とする.これは$\mathcal{M}$を被覆する最小の部分木に対応する.例えば,$\mathrm{tree}(\{\mathrm{AA},\mathrm{AB}\})=\{\mathrm{ROOT}\rightarrow\mathrm{A},\mathrm{A}\rightarrow\mathrm{AA},\mathrm{A}\rightarrow\mathrm{AB}\}$.文書$x$は$\phi(x)$により特徴量ベクトルに変換される.特徴量として,例えば,文書分類タスクで一般な単語かばん(bag-of-words)手法を用いることができる.本タスクは教師あり設定であり,訓練データ$\mathcal{T}=\{(x_i,\mathcal{M}_i)\}_{i=1}^T$が与えられる.$\mathcal{T}$を用いてモデルを訓練し,これとは別のテストデータによって性能を評価する. \section{提案手法} \label{sec:proposed}\subsection{大域モデル}ラベル間依存を利用するための準備として,入力文書$x$に対して出力ラベル集合$\mathcal{M}$を同時に推定する大域モデルを提案する.具体的には,階層的複数ラベル文書分類を構造推定問題とみなし,$\mathcal{M}$が作る部分木に対してスコアを定義する.\[\mathrm{score}^{\mathrm{global}}(x,\mathcal{M})=\vect{w}^{\mathrm{global}}\cdot\Phi^{\mathrm{global}}(x,\mathrm{tree}(\mathcal{M}))\]$\vect{w}^{\mathrm{global}}$は重みベクトルであり,訓練データを用いて学習すべきパラメータである.$\vect{w}^{\mathrm{global}}$は,辺に対応する局所的な重みベクトルを連結することにより構成される.例えば,図\ref{fig:tree}の場合は\[\vect{w}^{\mathrm{global}}=\vect{w}_{\mathrm{ROOT}\rightarrow\mathrm{A}}\oplus\vect{w}_{\mathrm{ROOT}\rightarrow\mathrm{B}}\oplus\vect{w}_{\mathrm{A}\rightarrow\mathrm{AA}}\oplus\vect{w}_{\mathrm{A}\rightarrow\mathrm{AB}}\oplus\vect{w}_{\mathrm{B}\rightarrow\mathrm{BA}}\oplus\vect{w}_{\mathrm{B}\rightarrow\mathrm{BB}}\]となる.特徴関数$\Phi^{\mathrm{global}}$は,文書$x$と$\mathrm{tree}(\mathcal{M})$を入力とし,$\vect{w}^{\mathrm{global}}$と同次元のベクトルを返す.具体的には,各$p\rightarrowc\in\mathrm{tree}(\mathcal{M})$に対応する部分ベクトルに$\phi(x)$を,残りの要素に$0$を入れた特徴量ベクトルを返す.したがって,$\mathrm{score}^{\mathrm{global}}(x,\mathcal{M})$は以下のように書き換えられる.\[\mathrm{score}^{\mathrm{global}}(x,\mathcal{M})=\sum_{p\rightarrowc\in\mathrm{tree}(\mathcal{M})}\vect{w}_{p\rightarrowc}\cdot\phi(x)\]この定式化により,$\vect{w}^{\mathrm{global}}$が与えられた時,部分木のスコアを最大化する$\mathcal{M}$を探す問題となる.\[\argmax_{\mathcal{M}}\quad\mathrm{score}^{\mathrm{global}}(x,\mathcal{M})\]\subsection{動的計画法による解探索}\begin{algorithm}[t]\caption{$\mbox{\scmaxtree}(x,p)$}\label{alg:bu-search}\DeclarePairedDelimiter\norm{\lVert}{\rVert}\renewcommand{\algorithmicrequire}{}\renewcommand{\algorithmicensure}{}\algsetup{indent=1.2em}\setlength{\baselineskip}{11pt}\begin{algorithmic}[1]\REQUIRE文書$x$,木のノード$p$\ENSUREラベル集合$\mathcal{M}$,スコア$s$\STATE$\mathcal{U}\leftarrow\{\}$\FORALL{$p$の各子$c$}\IF{$c$が葉}\STATE$\mathcal{U}\leftarrow\mathcal{U}\cup\{(\{c\},\vect{w}_{p\rightarrowc}\cdot\phi(x))\}$\ELSE\STATE$(\mathcal{M}^\prime,s^\prime)\leftarrow\mbox{\scmaxtree}(x,c)$\STATE$\mathcal{U}\leftarrow\mathcal{U}\cup\{(\mathcal{M}^\prime,s^\prime+\vect{w}_{p\rightarrowc}\cdot\phi(x))\}$\ENDIF\ENDFOR\STATE$\mathcal{R}\leftarrow\{(\mathcal{M}^\prime,s^\prime)\in\mathcal{U}|s^\prime>0\}$\IF{$\mathcal{R}$が空}\STATE$\mathcal{R}\leftarrow\{(\mathcal{M}^\prime,s^\prime)\}$ただし,$(\mathcal{M}^\prime,s^\prime)$は$\mathcal{U}$のなかで$s^\prime$が最大のもの\ENDIF\STATE$\mathcal{M}\leftarrow\bigcup_{(\mathcal{M}^\prime,s^\prime)\in\mathcal{R}}\mathcal{M}^\prime$\STATE$s\leftarrow\sum_{(\mathcal{M}^\prime,s^\prime)\in\mathcal{R}}s^\prime$\RETURN$(\mathcal{M},s)$\end{algorithmic}\end{algorithm}大域モデルの,現在のパラメータ$\vect{w}^{\mathrm{global}}$のもとでの厳密解は,動的計画法により効率的に求められる.Algorithm~\ref{alg:bu-search}に動的計画法の擬似コードを示す.$\mbox{\scmaxtree}(x,p)$は,$p$を根とする部分木の集合から,スコアが最大のものを再帰的に探索する.したがって,我々が呼び出すのは$\mbox{\scmaxtree}(x,\mathrm{ROOT})$である.子$c$は,(1)$c$を根とするスコア最大の部分木を作るラベル集合,および(2)そのスコアとひも付けされている.ただし,葉のスコアは0である.$p$から見た$c$のスコアは,$c$の部分木のスコアと辺$p\rightarrowc$のスコアの和である(3--8行目).$p$の部分木のスコアを最大にするには,正のスコアを持つ$c$をすべて採用すればよい(10行目).いずれの子も正のスコアを持たない場合は,最大のスコアを持つ子を1個採用する(11--13行目).採用された子の集合により,$p$のラベル集合とスコアが決定される(14--15行目).このアルゴリズムの拡張としては,上位$N$個の候補集合を出すというものが考えられる.木に対する動的計画法としては,構文解析\cite{McDonald2005full}よりもはるかに簡単なため,上位$N$個への拡張\cite{Collins2005}もさほど難しくない.\subsection{ラベル間依存の利用}\label{sec:proposed-branch}以上の準備により,ラベル間依存を利用する条件が整った.ラベル間依存の捕捉は,大域モデルに対する特徴量の追加により実現される.具体的には,あるノードがいくつの子を採用しやすいかを制御する枝分かれ特徴量を導入する.枝分かれ特徴量は$\phi^{\mathrm{BF}}(p,k)$により表される.ここで$p$は根あるいは内部ノードであり,$k$は$p$が採用する子の数である.ただし,あらゆる$k$の値に対して特徴量を設けると疎になるため,ある$R$について,$R+1$個($1,\cdots,R$もしくは$>R$)の特徴量に限定する.さらに,ノードごとの特徴量だけでなく,すべての根あるいは内部のノードが共有する$R+1$個の特徴量も設ける.つまり,追加される特徴量は$(I+1)(R+1)$個であり,各ノードに対して2個の特徴量が発火する.ここで,$I$はラベル階層における根および内部ノードの個数とする.\begin{algorithm}[t]\caption{枝分かれ特徴量を組み込むための修正(Algorithm\ref{alg:bu-search}の10--15行目を以下で置き換える)}\label{alg:bu-branch}\DeclarePairedDelimiter\norm{\lVert}{\rVert}\renewcommand{\algorithmicrequire}{}\renewcommand{\algorithmicensure}{}\algsetup{indent=1.2em}\setlength{\baselineskip}{11pt}\begin{algorithmic}[1]\setcounter{ALC@line}{9}\STATE$r\leftarrow\mathcal{U}$を$s$により降順にソートした配列\STATE$\mathcal{R}^\prime\leftarrow\{\}$,\quad$s^\prime\leftarrow0$,\quad$\mathcal{M}^\prime\leftarrow\{\}$\FOR{$k=1..\mbox{sizeof$r$}$}\STATE$(\mathcal{M},s)\leftarrowr[k]$\STATE$s^\prime\leftarrows^\prime+s$,\quad$\mathcal{M}^\prime\leftarrow\mathcal{M}^\prime\cup\mathcal{M}$\STATE$\mathcal{R}^\prime\leftarrow\mathcal{R}^\prime\cup\{(\mathcal{M}^\prime,s^\prime+\vect{w}^{\mathrm{BF}}\cdot\phi^{\mathrm{BF}}(p,k))\}$\ENDFOR\STATE$(\mathcal{M},s)\leftarrow$$\mathcal{R}^\prime$のなかでスコア$s$が最大の要素\end{algorithmic}\end{algorithm}この枝分かれ特徴量は,動的計画法による厳密解探索が維持できるように設計されている.この特徴量を組み込むには,Algorithm~\ref{alg:bu-search}の10--15行目をAlgorithm~\ref{alg:bu-branch}で置き換えればよい.枝分かれ特徴量のスコア$\vect{w}^{\mathrm{BF}}\cdot\phi^{\mathrm{BF}}(p,k)$は$k$のみに依存する.そこで,まずは採用する子の数$k$によって候補をグループ分けし,各グループのなかでスコアが最大の候補を選ぶ(12--16行目).最後に,異なるグループ同士を比較し,スコアが最大となる候補を採用する(17行目).グループ内でスコアが最大の候補を選ぶには,子をスコア順に並べ,上位$k$個を採用すれば良い.候補のスコアは,$p$から見た各子のスコアと枝分かれ特徴量のスコアの和となる(15行目).枝分かれ特徴量の導入により,ラベルの採否の判断が,ラベル同士の相対的な比較によって行われるようになる.\ref{sec:introduction}節で触れた,「林業政策」と「環境問題」というラベルが付与された文書を再び例に挙げる.この文書に対して「林業一般」というラベルはそれほど不適切には見えないが,枝分かれ特徴量を持たないモデルは,「林業一般」を付与{\bfしない}理由を,$\phi(x)$に対応する重みですべて説明しなければならない.\ref{sec:discussion}節で示すように,枝分かれ特徴量の重みは,一般に,負の値を持ち,ペナルティとして働く.また,子の数が増えるにつれてペナルティが増えるように学習される.したがって,子を2個採用するとよりペナルティがかかるので,「林業一般」に対応する重みを無理に引き下げることなく,相対的により適切な「林業政策」のみを採用することが可能となる.\subsection{大域訓練}大域モデルの訓練手法をここでは大域訓練と呼ぶ.本稿では,パーセプトロン系のオンライン学習アルゴリズムを採用する.具体的には,構造推定問題に対するPassive-Aggressiveアルゴリズム\cite{Crammer2006}を用いる.Passive-Aggressiveを採用した理由としては,実装の簡便さ,バッチ学習と異なり,大量の訓練データに容易に対応可能なオンライン学習であること,次節で述べるように並列分散化が容易に実現できることが挙げられる.ただし,これは提案手法がパーセプトロン系アルゴリズムでしか実現できないことを意味せず,構造化SVM~\cite{Tsochantaridis:ICML2004}を含む他の構造学習アルゴリズムの導入も検討に値する.\begin{algorithm}[t]\caption{大域訓練のためのPassive-Aggressiveアルゴリズム(PA-I,予測ベース更新)}\label{alg:pa-global}\DeclarePairedDelimiter\norm{\lVert}{\rVert}\renewcommand{\algorithmicrequire}{}\renewcommand{\algorithmicensure}{}\algsetup{indent=1.2em}\setlength{\baselineskip}{11pt}\begin{algorithmic}[1]\REQUIRE訓練データ$\mathcal{T}=\{(x_i,\mathcal{M}_i)\}_{i=1}^T$\ENSURE重みベクトル$\vect{w}^{\mathrm{global}}$\STATE$\vect{w}^{\mathrm{global}}\leftarrow\vect{0}$\FOR{$n=1..N$}\STATE$\mathcal{T}$をシャッフル\FORALL{$(x,\mathcal{M})\in\mathcal{T}$}\STATE$\hat{\mathcal{M}}\leftarrow\argmax_{\mathcal{M}}\,\mathrm{score}^{\mathrm{global}}(x,\mathcal{M})$\STATE$\rho\leftarrow1-2|\mathcal{M}\cap\hat{\mathcal{M}}|/(|\mathcal{M}|+|\hat{\mathcal{M}}|)$\IF{$\rho>0$}\STATE$l\leftarrow\mathrm{score}^{\mathrm{global}}(x,\hat{\mathcal{M}})-\mathrm{score}^{\mathrm{global}}(x,\mathcal{M})+\sqrt{\rho}$\STATE$\tau\leftarrow\min\{C,\frac{l}{\norm{\Phi^{\mathrm{global}}(x,\mathrm{tree}(\mathcal{M}))-\Phi^{\mathrm{global}}(x,\mathrm{tree}(\hat{\mathcal{M}}))}^2}\}$\STATE$\vect{w}^{\mathrm{global}}\leftarrow\vect{w}^{\mathrm{global}}+\tau(\Phi^{\mathrm{global}}(x,\mathrm{tree}(\mathcal{M}))-\Phi^{\mathrm{global}}(x,\mathrm{tree}(\hat{\mathcal{M}})))$\ENDIF\ENDFOR\ENDFOR\end{algorithmic}\end{algorithm}大域モデルの場合の擬似コードをAlgorithm~\ref{alg:pa-global}に示す.ここで,$N$は訓練の反復数を表し,パラメータ$C$は$1.0$とする.現在のパラメータにおける厳密解は上述の動的計画法により求まる(5行目).予測を誤った場合,正解ラベル集合を出力する方向に重みを更新する(10行目).ここで,コスト$\rho$はモデル予測の誤り度合いを表し,重みの更新幅を変化させる.$\rho$は,正解ラベル集合とシステムの出力の一致の度合いに基づいている.\subsection{大域訓練の並列分散化}\label{sec:proposed-parallel}大域訓練には学習が非常に遅いという欠点がある.ラベル集合の分類はラベル1個の2値分類とは比較にならないほど遅い.しかも,大域訓練はモデルを一枚岩とするため,モデルを局所分類器に分割して並列化することができない.そこで,繰り返しパラメータ混ぜ合わせ法~\cite{McDonald2010full}を用いて並列分散化を行う.基本的な考えは,モデルを分割する代わりに,訓練データを分割することで並列化を行うというものである.別々の訓練データ断片から学習されたモデル群を繰り返し混ぜ合わせることで収束性を保証している.Algorithm~\ref{alg:ipm}に繰り返しパラメータ混ぜ合わせ法の擬似コードを示す.ここで$N^\prime$は繰り返しパラメータ混ぜ合わせ法の反復数,$S$は訓練データの分割数を表す.繰り返しパラメータ混ぜ合わせ法では,断片ごとに並列に訓練を行う.各反復の最後に,並列に訓練された複数のモデルを平均化する.次の反復では,この平均化されたモデルを初期値として用いる.繰り返しパラメータ混ぜ合わせ法はパーセプトロン向けに提案されたものである.しかし,\cite{McDonald2010full}が言及している通り,Passive-Aggressiveアルゴリズムに対しても収束性を証明することができる.\begin{algorithm}[t]\caption{繰り返しパラメータ混ぜ合わせ法による大域訓練}\label{alg:ipm}\DeclarePairedDelimiter\norm{\lVert}{\rVert}\renewcommand{\algorithmicrequire}{}\renewcommand{\algorithmicensure}{}\algsetup{indent=1.2em}\setlength{\baselineskip}{11pt}\begin{algorithmic}[1]\REQUIRE訓練データ$\mathcal{T}=\{(x_i,\mathcal{M}_i)\}_{i=1}^T$\ENSURE重みベクトル$\vect{w}^{\mathrm{global}}$\STATE$\mathcal{T}$を$\mathcal{T}_1,\cdots\mathcal{T}_S$に分割\STATE$\vect{w}^{\mathrm{global}}\leftarrow\vect{0}$\FOR{$n=1..N^\prime$}\FOR{$s=1..S$}\STATE$\vect{w}_s^{\mathrm{global}}\leftarrow$非同期的にAlgorithm\ref{alg:pa-global}を呼び出す.ただしいくつかの修正を加える.$\mathcal{T}$を$\mathcal{T}_s$で置き換える.$\vect{w}^{\mathrm{global}}$を$\vect{0}$ではなく$\vect{w}^{\mathrm{global}}$で初期化する.反復数を$N=1$とする.\ENDFOR\STATE非同期処理の終了を待つ\STATE$\vect{w}^{\mathrm{global}}\leftarrow\frac{1}{S}\sum_{s=1}^S\vect{w}_s^{\mathrm{global}}$\ENDFOR\end{algorithmic}\end{algorithm}\begin{figure}[t]\begin{center}\includegraphics{21-1ia3f2.eps}\end{center}\caption{JSTPlusの文書例}\label{fig:jstplus-example}\end{figure} \section{実験} \label{sec:experiments}\subsection{データ}評価データとしてJSTPlus\footnote{http://jdream3.com/service/jdream.html}を用いる.JSTPlusは科学技術振興機構が作成している科学技術文献のデータベースである.各文書は,標題,抄録,著者一覧,ジャーナル名,分類コード一覧や,その他数多くの項目からなる.文書例を図\ref{fig:jstplus-example}に示す.実験では,標題と抄録を文書分類に用いるテキストとし,分類コードを付与すべきラベルとみなす.また,2010年の文献のうち,日本語の標題と日本語の抄録の両方を含むものを実験の対象とした.その結果,455,311件の文書を得た.これを409,892件の訓練データと45,419件の評価データに分割した.ラベル(分類コード)は3,209個からなり,これは4,030個の辺に対応する.ラベル階層は,根を除いて,最大で5階層となっている.ただし,いくつかの辺は中間層を飛ばす(例えば,第2層のノードの子が第4層にある場合がある).各文書は平均で1.85個のラベルが付与されている(分散は0.85).文書ごとの最大ラベル数は9である.文書の特徴関数$\phi(x)$には以下の2種類の特徴量を用いる.\begin{enumerate}\itemジャーナル名.2値特徴量で,各文書につき1個の特徴量が発火する.\item標題と抄録中の内容語.値は頻度.ただし,標題中の内容語の頻度は2倍する.\end{enumerate}内容語抽出には,形態素解析器JUMAN\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN}および構文解析器KNP\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP}を用いた.まずJUMANによって各文を単語列に分割し,次にKNPが持つ規則を使って内容語にタグ付けした.各文書は平均で380文字を含んでいた.これは内容語としては120語に相当する.\subsection{モデル設定}\label{sec:experiments-model}大域訓練で訓練された大域モデル({\bfGM-GT})について,枝分かれ特徴量({\bfBF})を用いた場合と用いなかった場合を比較する.大域モデルの繰り返しパラメータ混ぜ合わせ法については,訓練データを10個の断片に分割し,反復数は$N^\prime=10$とする.枝分かれ特徴量について,$R=3$とする.その他の比較対象として,従来研究を参考にして以下のモデルを用いる.\subsubsection{非階層型}\label{sec:experiments-model-flat}非階層型({\bfFLAT})はラベル階層を無視し,各ラベル$l$を文書$x$に付与すべきか否かを独立に決定する.そのために各$l$に対して2値分類器を用意する.分類器の実装手法としては,ナイーブベイズ,ロジスティック回帰,サポートベクタマシンなどが用いられてきたが,本稿では,提案手法との比較のためにPassive-Aggressiveアルゴリズム~\cite{Crammer2006}を用いる.ラベル$l$に対する2値分類器は重みベクトル$\vect{w}_{l}$を持つ.スコア$\vect{w}_{l}\cdot\phi(x)$が正のとき,$l$を$x$に付与する.ただし,文書に対して最低1個のラベルを付与する.そのために,いずれのラベルも正のスコアを取らない場合は,一番高いスコアを持つラベルを1個採用する.$\vect{w}_l$を訓練するために,元の訓練データ$\mathcal{T}$を以下のようにして$\mathcal{T}_l$に変換する.\[\mathcal{T}_l=\left\{(x_i,y_i)\left|\begin{array}{l@{\hspace{0em}}l}y_i=+1&\quad\mbox{if$l\in\mathcal{M}_i$}\\y_i=-1&\quad\mbox{otherwise}\end{array}\right.\right\}_{i=1}^T\]各文書はラベル$l$を持つとき正例,そうでなければ負例となる.擬似コードをAlgorithm~\ref{alg:pa-binary}に示す.ここで,パラメータ$C$は$1.0$とする.訓練の反復数は$N=10$とする.なお,各2値分類器は独立なので,訓練は容易に並列化できる.\begin{algorithm}[t]\caption{2値分類器に対するPassive-Aggressiveアルゴリズム(PA-I)}\label{alg:pa-binary}\DeclarePairedDelimiter\norm{\lVert}{\rVert}\renewcommand{\algorithmicrequire}{}\renewcommand{\algorithmicensure}{}\algsetup{indent=1.2em}\setlength{\baselineskip}{11pt}\begin{algorithmic}[1]\REQUIRE訓練データ$\mathcal{T}_l=\{(x_i,y_i)\}_{i=1}^T$\ENSURE重みベクトル$\vect{w}_l$\STATE$\vect{w}_l\leftarrow\vect{0}$\FOR{$n=1..N$}\STATE$\mathcal{T}_l$をシャッフル\FORALL{$(x,y)\in\mathcal{T}_l$}\STATE$l\leftarrow\max\{0,1-y(\vect{w}_{l}\cdot\phi(x))\}$\IF{$l>0$}\STATE$\tau\leftarrow\min\{C,\frac{l}{\norm{\phi(x)}^2}\}$\STATE$\vect{w}_l\leftarrow\vect{w}_l+\tauy\phi(x)$\ENDIF\ENDFOR\ENDFOR\end{algorithmic}\end{algorithm}\subsubsection{枝刈り型}\label{sec:experiments-model-ls}枝刈り型({\bfPRUNE})はラベル階層を利用する手法であり,ラベル階層に対応する2値分類器の集合を持つ\cite{Montejo2006,Wang2011IJCNLPfull,Sasaki2012}\footnote{ラベル階層に対応する2値分類器の集合を使う他の手法としては,\cite{Punera2008}が階層上の等調回帰により,局所分類器の出力を後処理している.}.各2値分類器はラベル階層上の辺$p\rightarrowc$とひも付けされ,重み$\vect{w}_{p\rightarrowc}$を持つ.$\vect{w}_{p\rightarrowc}\cdot\phi(x)>0$は,$x$を$p$のいずれかの子孫に割り当てるべきであることを表す.これらの2値分類器も並列に訓練できる.パラメータ$C$の値,訓練の反復数は非階層型と同じとする.枝刈り型には誤り伝播\cite{Bennett2009}とよばれる問題が知られている.すなわち,階層上位の分類器による誤りから回復する手段がないため,累積的に誤りが作用する.誤り伝播を軽減するために様々な手法が提案されているが,煩雑さを避けるため,本稿では,Algorithm~\ref{alg:td-search}に示す単純な実装を採用する.各ノード$p$において,局所分類器が正のスコアを返す子すべてを採用する(4--7行目).ただし,いずれの子も正のスコアを得ない場合は,一番高いスコアを得た子を1つ採用する(8--10行目).この操作を葉に到達するまで繰り返す.2値分類器の訓練データ$\mathcal{T}_{p\rightarrowc}$の構築方法としては,以下の2種類を試す.\paragraph{ALL}\hspace{1zw}全訓練データを利用する\cite{Punera2008}.\[\mathcal{T}_{p\rightarrowc}=\left\{(x_i,y_i)\left|\begin{array}{ll}y_i=+1&\mbox{if$\existsl\in\mathcal{M}_i,l\in\mathrm{leaves}(c)$}\\y_i=-1&\mbox{otherwise}\end{array}\right.\right\}_{i=1}^T\]各文書は$c$のいずれかの子孫のラベルが割り当てられていれば正例,そうでなければ負例となる.\paragraph{SIB}\hspace{1zw}正例は{\bfALL}と同じだが,負例を$c$の兄弟の子孫が割り当てられている場合に限定する.\[\mathcal{T}_{p\rightarrowc}=\left\{(x,y)\left|\begin{array}{ll}y=+1&\mbox{if$\existsl\in\mathcal{M}$},l\in\mathrm{leaves}(c)\\y=-1&\mbox{if$\existsl\in\mathcal{M}$},l\in\mathrm{leaves}(p)\,\mbox{かつ}\,l\notin\mathrm{leaves}(c)\end{array}\right.\right\}\]こうすることで,全体として小さなモデルが学習される.なぜなら,数の多い階層下位の分類器に与えられる訓練データが小さくなるからである.従来研究では{\bfSIB}を採用する場合が多い\cite{Liu2005,Wang2011IJCNLPfull,Sasaki2012}.\begin{algorithm}[t]\caption{枝刈り型探索}\label{alg:td-search}\DeclarePairedDelimiter\norm{\lVert}{\rVert}\renewcommand{\algorithmicrequire}{}\renewcommand{\algorithmicensure}{}\algsetup{indent=1.2em}\setlength{\baselineskip}{11pt}\begin{algorithmic}[1]\REQUIRE文書$x$\ENSUREラベル集合$\mathcal{M}$\STATE$q\leftarrow[\mathrm{ROOT}]$,\,$\mathcal{M}\leftarrow\{\}$\WHILE{$q$が空でない}\STATE$p\leftarrow$$q$の最初の要素を取り出す,\,$\vect{t}\leftarrow\{\}$\FORALL{$p$の子である$c$}\STATE$\vect{t}\leftarrow\vect{t}\cup\{(c,\vect{w}_{p\rightarrowc}\cdot\phi(x))\}$\ENDFOR\STATE$\mathcal{U}\leftarrow\{(c,s)\in\vect{t}|s>0\}$\IF{$\mathcal{U}$が空}\STATE$\mathcal{U}\leftarrow\{(c,s)\}$,ただし$c$は$p$の子のなかで一番高いスコア$s$を持つ\ENDIF\FORALL{$(c,s)\in\mathcal{U}$}\IF{$c$が葉}\STATE$\mathcal{M}\leftarrow\mathcal{M}\cup\{c\}$\ELSE\STATE$c$を$q$に追加\ENDIF\ENDFOR\ENDWHILE\end{algorithmic}\end{algorithm}\subsection{評価尺度}\label{sec:experiments-measures}複数ラベル分類に対する評価尺度は数多く存在するが,大きく2種類に整理できる.1つは,文書を単位とした評価尺度で,しばしば用例ベースの尺度とよばれる\cite{Godbole2004,Tsoumakas2010full}.文書単位の尺度として,適合率(EBP),再現率(EBR)およびF値(EBF)が以下のように定義される.{\allowdisplaybreaks\begin{gather*}\mathrm{EBP}=\frac{1}{T}\sum_{i=1}^T\frac{|\mathcal{M}_i\cap\hat{\mathcal{M}}_i|}{|\hat{\mathcal{M}}_i|}\\\mathrm{EBR}=\frac{1}{T}\sum_{i=1}^T\frac{|\mathcal{M}_i\cap\hat{\mathcal{M}}_i|}{|\mathcal{M}_i|}\\\mathrm{EBF}=\frac{1}{T}\sum_{i=1}^T\frac{2|\mathcal{M}_i\cap\hat{\mathcal{M}}_i|}{|\hat{\mathcal{M}}_i|+|\mathcal{M}_i|}\end{gather*}}ここで$T$はテストデータ中の文書数,$\mathcal{M}_i$は$i$番目の文書の正解ラベル集合,$\hat{\mathcal{M}}_i$はそれに対応するシステムの出力とする.もう一つは,ラベルを単位とした評価尺度で,通常の適合率,再現率およびF値が用いられる.ただし,複数のラベルの集計方法としてマクロ平均とマイクロ平均がある\cite{Tsoumakas2010full}.そのため合計で,LBMaP,LBMaR,LBMaF,LBMiP,LBMiRおよびLBMiFの6種類の尺度を用いる.最後に階層的な評価も行う\cite{Kiritchenko2005}.これは,出力ラベルがラベル階層上において正解と近いときに「部分点」を与えるものである.今回のように循環がない木構造を仮定した場合,適合率(hP)および再現率(hR)は以下のように定義される.\begin{gather*}\mathrm{hP}=\frac{\sum_{i=1}^T|\mathrm{tree}(\mathcal{M}_i)\cap\mathrm{tree}(\hat{\mathcal{M}}_i)|}{\sum_{i=1}^T|\mathrm{tree}(\hat{\mathcal{M}}_i)|}\\\mathrm{hR}=\frac{\sum_{i=1}^T|\mathrm{tree}(\mathcal{M}_i)\cap\mathrm{tree}(\hat{\mathcal{M}}_i)|}{\sum_{i=1}^T|\mathrm{tree}(\mathcal{M}_i)|}\end{gather*}F値(hF)はhPとhRの調和平均として定義される.\begin{table}[b]\caption{モデルの比較結果}\label{tb:experiments-summary}\input{03table01.tex}\end{table}\subsection{結果}各種モデルの精度比較を表\ref{tb:experiments-summary}に示す.枝分かれ特徴量を組み込んだ大域モデル({\bfGM-GT-BF})が7種類の尺度で最高精度を得た.枝分かれ特徴量なしのモデル({\bfGM-GT})と比較すると,EBP,LBMaR以外の尺度で{\bfGM-GT-BF}が上回り,すべてのF値を改善した.この改善は統計的に有意($p<0.01$)であった.大域モデルを非階層型({\bfFLAT})と比較すると,適合率の改善が著しい一方,再現率に大きな差は見られない.2種類の枝刈り型({\bfPRUNE})を比較すると,兄弟のみで訓練する場合({\bfSIB})の方が全体的にやや良い精度が得られた.しかし,多くの尺度で非階層型に敗れており,従来研究の結果を再現する形となっている.誤り例を見ると,誤って採用したラベル,誤って採用しなかったラベルのいずれも,正解ラベルから離れて人間として改めて判断すると,必ずしも誤りとは言い切れない場合が少なくなかった.特に,該当文書にとって周辺的な話題を表すラベルをどこまで採用べきかを判断するのが難しかった.なお,モデル間の分類結果の差分からは,明確な誤り,改善の傾向をつかむのは困難であった.時間はテストデータの分類に要した時間であり,モデルの読み込み時間は含まない\footnote{実験では8コアIntelXeon2.70~GHzCPUの1コア,64~GBのメモリを用い,実装にはPerlを用いた.}.予想される通り,枝刈り型が圧倒的に速い.{\bfGM-GT-BF}は{\bfPRUNE-ALL}と比較して約60倍の時間を要した.しかし,{\bfFLAT}と比較すると,階層を利用するにも関わらず,約18\%の増加にとどまっている.これは,{\bfGM-GT-BF}のモデルの大きさが{\bfFLAT}よりも約16\%小さいことで説明できるかもしれない.モデルの大きさは重みベクトル中で,絶対値が$10^{-7}$より大きい要素の数とする.大きさは{\bfPRUNE-SIB}が最小で,{\bfPRUNE-ALL}が最大となった.{\bfGM-GT-BF}が{\bfGM-GT}よりも大きさを約9\%削減したことは特筆に値する.訓練に用いたPassive-Aggressiveアルゴリズムには重みを0につぶそうとする仕組みがないことから,大きさが削減された理由は,学習過程で{\bfGM-GT-BF}が{\bfGM-GT}よりも予測を誤る回数が少なかったからと考えられる.このように,より小さなモデルでより高い精度が得られたことは,出力すべき複数ラベルの間にはラベル階層に基づく依存関係があるという我々の仮定を支持するものと考える.\subsection{議論}\label{sec:discussion}大域モデルの重み$\vect{w}^{\mathrm{global}}$自体は,大域訓練({\bfGT})だけでなく,枝刈り型で用いた2値分類器群を連結することによっても構成できる({\bfLT}).大域モデルの性質をさらに調べるために,こうしたモデルとの比較も行った.表\ref{tb:experiments-dp}に大域モデルの訓練方法の比較結果を示す.訓練データとして{\bfSIB}を用いた場合,極端に多くの候補を出力するようになり,その結果,極端に低い適合率と高い再現率を得た.{\bfSIB}という限定されたデータで訓練された局所的な分類器に対して,大域モデルが未知の文書の分類を行わせたため,このような不安定な振る舞いとなった.一方,訓練データとして{\bfALL}を用いた場合,枝刈り型({\bfPRUNE-ALL})から精度を大幅に向上させ,大域訓練とくらべても遜色のない精度が得られた.モデルの大きさや分類速度において大域訓練に劣りはするものの,大域モデルの最適化を行わずにこのような高精度が得られたことは興味深い.これは,訓練手法に改善の余地があることを示唆する.本稿では10並列による繰り返しパラメータ混ぜ合わせ法を用いたが,今後の最適化技術の発展が期待される.\begin{table}[b]\vspace*{-1\Cvs}\caption{大域モデルの訓練方法の比較}\label{tb:experiments-dp}\input{03table02.tex}\end{table}\begin{table}[b]\caption{訓練データにおける精度}\label{tb:experiments-training}\input{03table03.tex}\end{table}表\ref{tb:experiments-training}に訓練データに対する精度を示す.訓練データに対しては非階層型({\bfFLAT})が一番高い精度を示し,{\bfALL}により局所訓練された大域モデル({\bfGM-LT-ALL})がそれに続いた.大域訓練を行った場合({\bfGM-GT-BF})との比較から,局所訓練が過学習をもたらしているとみられる.また,局所訓練と大域モデルの組み合わせにより,枝刈り型探索が誤りの主要因であることが確認できた.すなわち,{\bfPRUNE-ALL}を訓練データに適用したところ,33\%の文書について,{\bfPRUNE-ALL}が出力したラベル集合よりも,正解ラベル集合の方が大域モデルにおいて高いスコアを持っていた.言い換えると,正しく探索を行えば犯さない誤りであった.ただし,この高い数値には過学習の影響も含まれており,同じ操作をテストデータに適用した場合は,割合は14\%に下がった\footnote{ラベル階層が大規模で厳密解探索が難しいといった理由で,枝刈り型探索をAlgorithm\ref{alg:pa-global}の訓練に用いる場合,探索誤りから生じる「非侵害」問題に対処しなければならない.すなわち,モデル予測$\hat{\mathcal{M}}$が正解$\mathcal{M}$よりも低いスコアを持つ場合,重みベクトルの更新が無効となってしまう.この問題に対処するための手法がいくつか提案されている~\cite{Collins2004full,Huang2012full}.}.\begin{figure}[b]\begin{center}\includegraphics{21-1ia3f3.eps}\end{center}\caption{辺ごとのモデルの大きさとスコアの比較}\label{fig:size-score-comp}\end{figure}より詳細にモデルを調べるために,辺に分解した結果を示す.図\ref{fig:size-score-comp}は{\bfGT-BF},{\bfLT-ALL},{\bfLT-SIB}の比較である.図(a)から(c)は辺に対応する局所ベクトルの大きさを示す.ここで,大きさの定義は表\ref{tb:experiments-summary}と同じである.辺を子の階層によって集約し,大きさを平均した結果を示す.一般に,上位階層ほど多数の有効な重みベクトルが必要となることが確認できる.{\bfGT-BF}は{\bfLT-ALL}よりも大きさが小さいが,辺ごとの大きさの比率は似通っている.{\bfLT-SIB}と比較すると,{\bfGT-BF}は上位階層では小さいが,下位階層では大きな有効重みベクトルを持つ.{\bfLT-SIB}では兄弟からの識別のみを考慮していたが,大域学習ではすべての辺が適切なスコアを返す必要があるため,有効重みベクトルがより大きくなったとみられる.図(d)から(f)は,各辺が得たスコアの絶対値の平均を表す.ここで,スコアは,テストデータに対するモデル出力から計算されたものである.これにより,どの階層の辺が強くモデル出力に影響しているかが推測できる.この結果から,上位階層ほど大きな影響を持つことがわかる.しかし,{\bfGT-BF}は他とくらべて上位階層の影響が小さい.すなわち,{\bfGT-BF}においては下位階層の辺が相対的に重要な役割を果たしている.枝分かれ特徴量に対応する重みを図\ref{fig:br-heatmap}にヒートマップとして示す.各要素の値は,親ノードに与えられた重み(ノードごとの重みと共有された重みの和)を平均したものである.平均化された値はすべて負となり,子の数が増えるにつれてペナルティが単調増加した.異なる階層間の重みの比較は,それらが重みベクトルの他の部分の値に依存するため難しい.しかし,下位ノードほど子の数に応じた重みの落差が大きいという結果は,階層上近いラベル候補同士ほど強い競合関係にあるという我々の仮説を支持しているようにみえる.最後に,訓練データおよび評価データの正解ラベルについて,正解ラベルを被覆する最小の部分木を作り,親が採用する子の数を調べた.採用した子の数が複数である割合は,根で34.9\%,第1層で10.1\%,第2層で4.6\%,第3層で1.5\%,第4層で0.6\%であり,下位ノードほど強い競合関係にあることが確認できた.\begin{figure}[t]\begin{center}\includegraphics{21-1ia3f4.eps}\end{center}\caption{枝分かれ特徴量のヒートマップ表現}\label{fig:br-heatmap}\end{figure} \section{関連研究} \label{sec:related-work}階層型文書分類において,枝刈り型が非階層型にしばしば敗れることが報告されており,誤り伝播を軽減するために様々な手法が提案されてきた.\cite{Sasaki2012}は枝刈り探索時の枝刈り基準を緩め,最後に候補の枝刈りを行う.すなわち,Algorithm~\ref{alg:td-search}の7行目の閾値を$0$から$-0.2$などに引き下げて,より多くの候補を採用する.最後に,各候補について,根から葉までのパスの(シグモイド関数で変換された)局所スコアの和を取り,これに閾値を設定することによって出力ラベルを絞り込む.S-cut~\cite{Montejo2006,Wang2011IJCNLPfull}は,一律の閾値を用いるのではなく,局所分類器ごとに閾値を設定する手法である.R-cutは上位$r$個の候補を採用する手法で,選び方には大域的手法\cite{Liu2005,Montejo2006}と局所的手法\cite{Wang2011IJCNLPfull}がある.\cite{Wang2011IJCNLPfull}は採用されたラベル候補をメタ分類器にかけ,最終的な出力を決定する.メタ分類器の特徴量としては,根から葉までの局所スコアやその累積などを用いる.本稿ではこれらを総称して後付け補正とよぶ.後付け補正では,いずれもモデルあるいは探索が本質的に不完全であることを想定し,追加のパラメータによる補正を行なっている.そうしたパラメータは,人手で設定するか,あるいは訓練データとは別に開発データを用意して推定しなければならず煩雑である.一方,提案手法には後付け補正は不要であり,モデル自体の改善に専念できる.ラベル階層を下から上へ探索しながら候補を探すという点で,提案手法と似た手法が\cite{Bennett2009}により提案されている.しかし,彼らの手法では,大域モデルも大域訓練も用いられていない.代わりに,階層下位の分類器のスコアが上位の分類器のメタ特徴量として用いられている.分類器の訓練は局所的に行われ,煩雑な交差確認を必要とする.本稿ではあらかじめ定義されたラベル階層を利用した.そうした手がかりがない場合にラベル間依存を捉えるための手法も研究されている.\cite{Ghamrawi:CIKM2005full,Miyao:COLING2008full}は,出力すべきラベル集合中のラベルペアを特徴量に組み込んでいる.本稿のようにラベル階層が利用できる場合は,それをもとに限られた数のラベル同士の関係を考慮すればすむ.一方,ラベル階層がない場合は,モデルはすべてのラベルペアを考慮する必要があり,訓練および解探索に大きな計算コストを要する.こうしたモデルの検証は,ラベルの異なり数が数十程度のデータセットを用いて行われてきた.ラベルの異なり数が大きな場合について,\cite{Tai:2012full}は,ラベル集合を低次元の直交座標系に写像し,この空間上で非階層型の分類器を学習する手法を提案している.予測時には,分類器の出力を元の空間へ写像するという自明でない復号が必要となる.\cite{Bi:ICML2011}は,ラベル階層を組み込むために,木あるいは有向非循環グラフの制約を満たすような復号手法を提案している. \section{おわりに} \label{sec:conclusion}本稿では,階層型複数ラベル文書分類を構造推定問題として定式化し,動的計画法による厳密解探索方法,大域訓練,ラベル間依存をとらえる枝分かれ特徴量を提案した.枝分かれ特徴量はモデルの大きさを削減するとともに精度の向上をもたらした.この結果は,人間作業者が複数のラベル候補から出力を選択する際,ラベル階層に基づいて,競合する候補の相対的な重要性を考慮していることを示唆する.今後の方向性としては,枝分かれ特徴量以外によってラベル間依存をとらえる方法を探究するというものが考えられる.例えば,「〜その他」や「〜一般」といったラベルは,他のラベルとの関係において特殊な振る舞いをすると予想される.また,本稿では葉のみが付与対象ラベルという問題設定を行ったが,従来研究には内部ノードも付与対象である場合を扱ったものがある~\cite{Liu2005}.こうした内部ノードの振る舞いも特殊である.内部ノードを採用するとき,その子孫へのラベル付与を行わないことが多い.さらに,木構造から有向非循環グラフへの提案手法の一般化も課題である.\acknowledgment本研究で評価実験に用いたJSTPlusは,共同研究を通じて,独立行政法人科学技術振興機構に提供していただきました.深く感謝いたします.本研究は一部JSTCRESTの支援を受けました.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bennett\BBA\Nguyen}{Bennett\BBA\Nguyen}{2009}]{Bennett2009}Bennett,P.~N.\BBACOMMA\\BBA\Nguyen,N.\BBOP2009\BBCP.\newblock\BBOQRefinedExperts:ImprovingClassificationinLargeTaxonomies.\BBCQ\\newblockIn{\BemProceedingsofthe32ndInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval(SIGIR'09)},\mbox{\BPGS\11--18}.\bibitem[\protect\BCAY{Berlin}{Berlin}{1992}]{Berlin1992}Berlin,B.\BBOP1992\BBCP.\newblock{\BemEthnobiologicalClassification:PrinciplesofCategorizationofPlantsandAnimalsinTraditionalSocieties}.\newblockPrincetonUniversityPress.\bibitem[\protect\BCAY{Bi\BBA\Kwok}{Bi\BBA\Kwok}{2011}]{Bi:ICML2011}Bi,W.\BBACOMMA\\BBA\Kwok,J.\BBOP2011\BBCP.\newblock\BBOQMulti-LabelClassificationonTree-and{DAG}-StructuredHierarchies.\BBCQ\\newblockIn{\BemProceedingsofthe28thInternationalConferenceonMachineLearning(ICML-11)},\mbox{\BPGS\17--24}.\bibitem[\protect\BCAY{Collins\BBA\Koo}{Collins\BBA\Koo}{2005}]{Collins2005}Collins,M.\BBACOMMA\\BBA\Koo,T.\BBOP2005\BBCP.\newblock\BBOQDiscriminativeRerankingforNaturalLanguageParsing.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf31}(1),\mbox{\BPGS\25--70}.\bibitem[\protect\BCAY{Collins\BBA\Roark}{Collins\BBA\Roark}{2004}]{Collins2004full}Collins,M.\BBACOMMA\\BBA\Roark,B.\BBOP2004\BBCP.\newblock\BBOQIncrementalParsingwiththe{P}erceptronAlgorithm.\BBCQ\\newblockIn{\BemProceedingsofthe42ndMeetingoftheAssociationforComputationalLinguistics(ACL'04),MainVolume},\mbox{\BPGS\111--118}.\bibitem[\protect\BCAY{Crammer,Dekel,Keshet,Shalev-Shwartz,\BBA\Singer}{Crammeret~al.}{2006}]{Crammer2006}Crammer,K.,Dekel,O.,Keshet,J.,Shalev-Shwartz,S.,\BBA\Singer,Y.\BBOP2006\BBCP.\newblock\BBOQOnlinePassive-AggressiveAlgorithms.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf7},\mbox{\BPGS\551--585}.\bibitem[\protect\BCAY{Ghamrawi\BBA\McCallum}{Ghamrawi\BBA\McCallum}{2005}]{Ghamrawi:CIKM2005full}Ghamrawi,N.\BBACOMMA\\BBA\McCallum,A.\BBOP2005\BBCP.\newblock\BBOQCollectiveMulti-labelClassification.\BBCQ\\newblockIn{\BemCIKM'05:Proceedingsofthe14thACMInternationalConferenceonInformationandKnowledgeManagement},\mbox{\BPGS\195--200}.\bibitem[\protect\BCAY{Godbole\BBA\Sarawagi}{Godbole\BBA\Sarawagi}{2004}]{Godbole2004}Godbole,S.\BBACOMMA\\BBA\Sarawagi,S.\BBOP2004\BBCP.\newblock\BBOQDiscriminativeMethodsforMulti-labeledClassification.\BBCQ\\newblockInDai,H.,Srikant,R.,\BBA\Zhang,C.\BEDS,{\BemAdvancesinKnowledgeDiscoveryandDataMining},\lowercase{\BVOL}\3056of{\BemLectureNotesinComputerScience},\mbox{\BPGS\22--30}.SpringerBerlinHeidelberg.\bibitem[\protect\BCAY{Huang,Fayong,\BBA\Guo}{Huanget~al.}{2012}]{Huang2012full}Huang,L.,Fayong,S.,\BBA\Guo,Y.\BBOP2012\BBCP.\newblock\BBOQStructured{P}erceptronwithInexactSearch.\BBCQ\\newblockIn{\BemProceedingsofthe2012ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\142--151}.\bibitem[\protect\BCAY{Kiritchenko}{Kiritchenko}{2005}]{Kiritchenko2005}Kiritchenko,S.\BBOP2005\BBCP.\newblock{\BemHierarchicalTextCategorizationandItsApplicationtoBioinformatics}.\newblockPh.D.\thesis,UniversityofOttawa.\bibitem[\protect\BCAY{Labrou\BBA\Finin}{Labrou\BBA\Finin}{1999}]{Labrou1999}Labrou,Y.\BBACOMMA\\BBA\Finin,T.\BBOP1999\BBCP.\newblock\BBOQYahoo!asanOntology:Using{Y}ahoo!CategoriestoDescribeDocuments.\BBCQ\\newblockIn{\BemProceedingsoftheEighthInternationalConferenceonInformationandKnowledgeManagement(CIKM'99)},\mbox{\BPGS\180--187}.\bibitem[\protect\BCAY{Liu,Yang,Wan,Zeng,Chen,\BBA\Ma}{Liuet~al.}{2005}]{Liu2005}Liu,T.-Y.,Yang,Y.,Wan,H.,Zeng,H.-J.,Chen,Z.,\BBA\Ma,W.-Y.\BBOP2005\BBCP.\newblock\BBOQSupportVectorMachinesClassificationwithaVeryLarge-scaleTaxonomy.\BBCQ\\newblock{\BemSIGKDDExplorationsNewsletter},{\Bbf7}(1),\mbox{\BPGS\36--43}.\bibitem[\protect\BCAY{LSHTC3}{LSHTC3}{2012}]{LSHTC3}LSHTC3\BED\\BBOP2012\BBCP.\newblock{\BemECML/PKDD-2012DiscoveryChallengeWorkshoponLarge-ScaleHierarchicalTextClassification}.\bibitem[\protect\BCAY{McDonald,Crammer,\BBA\Pereira}{McDonaldet~al.}{2005}]{McDonald2005full}McDonald,R.,Crammer,K.,\BBA\Pereira,F.\BBOP2005\BBCP.\newblock\BBOQOnlineLarge-MarginTrainingofDependencyParsers.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics(ACL'05)},\mbox{\BPGS\91--98}.\bibitem[\protect\BCAY{McDonald,Hall,\BBA\Mann}{McDonaldet~al.}{2010}]{McDonald2010full}McDonald,R.,Hall,K.,\BBA\Mann,G.\BBOP2010\BBCP.\newblock\BBOQDistributedTrainingStrategiesfortheStructured{P}erceptron.\BBCQ\\newblockIn{\BemHumanLanguageTechnologies:The2010AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\456--464}.\bibitem[\protect\BCAY{Miyao\BBA\Tsujii}{Miyao\BBA\Tsujii}{2008}]{Miyao:COLING2008full}Miyao,Y.\BBACOMMA\\BBA\Tsujii,J.\BBOP2008\BBCP.\newblock\BBOQExactInferenceforMulti-labelClassificationusingSparseGraphicalModels.\BBCQ\\newblockIn{\BemColing2008:Companionvolume:Posters},\mbox{\BPGS\63--66}.\bibitem[\protect\BCAY{Montejo-R{\'a}ez\BBA\Ure{\~n}a-L{\'o}pez}{Montejo-R{\'a}ez\BBA\Ure{\~n}a-L{\'o}pez}{2006}]{Montejo2006}Montejo-R{\'a}ez,A.\BBACOMMA\\BBA\Ure{\~n}a-L{\'o}pez,L.~A.\BBOP2006\BBCP.\newblock\BBOQSelectionStrategiesforMulti-labelTextCategorization.\BBCQ\\newblockIn{\BemAdvancesinNaturalLanguageProcessing},\mbox{\BPGS\585--592}.Springer.\bibitem[\protect\BCAY{Punera\BBA\Ghosh}{Punera\BBA\Ghosh}{2008}]{Punera2008}Punera,K.\BBACOMMA\\BBA\Ghosh,J.\BBOP2008\BBCP.\newblock\BBOQEnhancedHierarchicalClassificationviaIsotonicSmoothing.\BBCQ\\newblockIn{\BemProceedingsofthe17thInternationalConferenceonWorldWideWeb(WWW'08)},\mbox{\BPGS\151--160}.\bibitem[\protect\BCAY{Qiu,Gao,\BBA\Huang}{Qiuet~al.}{2009}]{Qiu2009full}Qiu,X.,Gao,W.,\BBA\Huang,X.\BBOP2009\BBCP.\newblock\BBOQHierarchicalMulti-LabelTextCategorizationwithGlobalMarginMaximization.\BBCQ\\newblockIn{\BemProceedingsoftheACL-IJCNLP2009ConferenceShortPapers},\mbox{\BPGS\165--168}.\bibitem[\protect\BCAY{Sasaki\BBA\Weissenbacher}{Sasaki\BBA\Weissenbacher}{2012}]{Sasaki2012}Sasaki,Y.\BBACOMMA\\BBA\Weissenbacher,D.\BBOP2012\BBCP.\newblock\BBOQ{TTI'S}Systemforthe{LSHTC}3Challenge.\BBCQ\\newblockIn{\BemECML/PKDD-2012DiscoveryChallengeWorkshoponLarge-ScaleHierarchicalTextClassification}.\bibitem[\protect\BCAY{Tai\BBA\Lin}{Tai\BBA\Lin}{2010}]{Tai:2012full}Tai,F.\BBACOMMA\\BBA\Lin,H.-T.\BBOP2010\BBCP.\newblock\BBOQMulti-labelClassificationwithPrincipalLabelSpaceTransformation.\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalWorkshoponLearningfromMulti-LabelData},\mbox{\BPGS\45--52}.\bibitem[\protect\BCAY{Tsochantaridis,Hofmann,Joachims,\BBA\Altun}{Tsochantaridiset~al.}{2004}]{Tsochantaridis:ICML2004}Tsochantaridis,I.,Hofmann,T.,Joachims,T.,\BBA\Altun,Y.\BBOP2004\BBCP.\newblock\BBOQ{S}upport{V}ector{M}achineLearningforInterdependentandStructuredOutputSpaces.\BBCQ\\newblockIn{\BemProceedingsoftheTwenty-firstInternationalConferenceonMachineLearning(ICML'04)},\mbox{\BPGS\104--113}.\bibitem[\protect\BCAY{Tsoumakas,Katakis,\BBA\Vlahavas}{Tsoumakaset~al.}{2010}]{Tsoumakas2010full}Tsoumakas,G.,Katakis,I.,\BBA\Vlahavas,I.\BBOP2010\BBCP.\newblock\BBOQMiningMulti-labelData.\BBCQ\\newblockInMaimon,O.\BBACOMMA\\BBA\Rokach,L.\BEDS,{\BemDataMiningandKnowledgeDiscoveryHandbook},\mbox{\BPGS\667--685}.Springer.\bibitem[\protect\BCAY{Wang,Zhao,\BBA\Lu}{Wanget~al.}{2011}]{Wang2011IJCNLPfull}Wang,X.-L.,Zhao,H.,\BBA\Lu,B.-L.\BBOP2011\BBCP.\newblock\BBOQEnhanceTop-downMethodwithMeta-ClassificationforVeryLarge-scaleHierarchicalClassification.\BBCQ\\newblockIn{\BemProceedingsof5thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\1089--1097}.\end{thebibliography}\begin{biography}\bioauthor{村脇有吾}{2006年京都大学工学部情報学科卒業.2008年京都大学大学院情報学研究科修士課程修了.2011年,同博士後期課程修了.博士(情報学).同年京都大学学術情報メディアセンター特定助教.2013年,九州大学大学院システム情報科学研究院助教,現在に至る.計算言語学,自然言語処理の研究に従事.}\end{biography}\biodate\end{document}
V14N03-07
\section{はじめに} 授業改善は現在多くの大学において極めて重要な課題となっている.大学がこれまで以上に多くの学生の興味を引き出しながら,教育の水準を高めなければならないからである.このためこれまでにも様々な授業改善の研究が試みられた(たとえば赤堀侃司1997;伊藤秀子ら1999,田中毎実ら2000など).また授業改善は教育技法の問題だけでなく,大学のカリキュラムの構成や教師資質の改善(FacultyDevelopment)の問題でもある.大学では自己点検自己評価あるいは外部評価などが行われ,中でも学生による授業評価は大学改革の中核として注目されている.しかし多くの大学で行われる学生による授業評価は,学生にマークシートを記入させる方式で行われることが多く,選択枝にない学生の自由な意見が反映され難い.そこで学生の自由な意見を収集することになるが,たとえば授業について学生に自由な意見を書かせた場合,何らかの方法でその内容を分析し授業改善に反映させなければならない.本研究では,学生に携帯メールを使って授業の自由な感想文を送らせ,その文章を感情評価基準を使って分類する方法で授業を評価し,授業改善に対する考察を行った. \section{感情評価の基準} 言語処理の先行研究には,新聞記事のような事柄を扱うものが多いが,最近では感情を扱うものとして,たとえば感性品質評価語辞書を使用したテキストマイニングなど,商品アンケートにおける好不評を分析した研究もある.しかし学生による授業についての自由記述には,新聞記事とも商品アンケートとも異なる特徴があり先行研究が少ない.授業についての自由記述を分析する観点としては,塚本ら(2001)による『受容反応』と『構成反応』が挙げられる.それによれば授業の感想文は,学生が授業で得た知識を内面的に捉え自ら省察して書いたものであり,その表現には受容反応と構成反応があらわれる.受容反応とは学生が授業で教えられた内容を受け止めた反応であり授業で与えられたことがベースになっている.構成反応とはその受け止めた結果から,本人が自発的に思い描いた内容の反応である.以上を整理して塚本ら(2003,2004)は,学生が記述した授業の感想文にあらわれる感情評価の基準に,受容反応としての興味と知識,構成反応としての意欲と考察の4つのカテゴリがあることを示している.さらに学生の意識調査を行うことによって学生の意識に「興味・関心」「意欲・行動」「知識・理解」「考察・洞察」の4つの因子があることを明らかにしている(2006).以上により,授業感想文の感情評価の基準としての4つのカテゴリは,次のように整理された.\clearpage受容反応\textbullet~\textbf{興味}:喜びや驚きなど学習に関わる感情表現\textbullet~\textbf{知識}:学習への理解や知識記憶に関わる感情表現構成反応\textbullet~\textbf{意欲}:学習への意思や自己評価に関わる感情表現\textbullet~\textbf{考察}:学習内容への気づきや思い巡らしをあらわす感情表現以下ではこの4つのカテゴリを感情評価の基準として,最初に4項で感想文を形態素から分類し検討した結果を報告し,次に5項で感想文を同年代の学生と研究者が文脈から分類し検討した結果を述べる.そして6項で成績が上位と下位の学生から無作為に選んだ学生の感想文を比較した結果を述べ,最後に7項で,本研究による知見をまとめ授業改善への考察を行う. \section{授業感想文の収集と分析} 本研究では携帯メールによって学生の授業感想文を収集した.携帯メールは小中高生の間でも普及しており,大学生から授業の感想文を収集するには大きな障害はなかった.社会人学生の中には携帯メールを使用しない者がいたが,授業終了後速やかにパソコンから入力させることで解決した.携帯メールによる授業感想文の収集には,授業評価分析システムTrustia\footnote{筆者との共同研究により(株)ジャストシステムが開発した授業の評価分析システム.授業管理の他,感想文の管理,辞書登録,形態素解析,主題分析,コレスポンデンス分析などの機能がある.http://www.justsystem.co.jp/trustia/}を使用した.このシステムには開講した授業の管理を行い,授業ごとに学習者に感想文を送らせ受信したことを知らせる自動返信機能がある.またメールに形式的誤りがあればエラーであることを知らせる機能がある.Trustiaには感想文を収集する機能に加え感想文を分析する機能があり,受信した感想文を形態素解析や統計処理する機能がある.そのほか,主題分析やコレスポンデンス分析など様々な機能がある.また感想文の中に質問形式がある場合は警告を表示する機能があるので,教員は内容を確認して個人的な質問メールであった場合は質問した学生へ個別にコメントを返すことができた.このようにして本研究では,教師と学生の間に携帯メールによる対話環境を構築した.本研究で対象にした授業は以下の通りである.\subsection{感想文の収集環境}一般の教室であり特別な環境ではない.\subsection{研究対象にした感想文}言語と思考について講義した半期の授業において感想文を収集した.今回はその中から自由な感想文を送らせた表1の*印で示す5回の授業で収集した感想文を研究対象にした.*印のついていない授業では様々な質問をして,それに対する回答文を集めたので,今回の自由な感想文の分析対象にはしていない.\begin{table}[t]\begin{center}\input{07t1.txt}\label{table1}\end{center}\end{table}\subsection{成績評価試験の概要}半期の授業のあと期末試験を行った.出席が60%以上なければ受験資格はない.試験は資料持ち込み可であるが,時間制限60分で下記の4問について記述しなければならない.解答の文字数に制限はない.\textbullet~人間の言語の規則性について説明せよ.\textbullet~Chomskyの変形文法とは何か説明せよ.\textbullet~聞き間違いや読み間違いは,なぜ起こるのか説明せよ.\textbullet~コミュニケーションにおけるスキーマの役割を説明せよ.配点は各25点で100点満点である.採点は内容に大きな誤りがないか,解釈が正しくなされているか,自分らしい発想がみられるかについて行った.\subsection{研究対象の学生}当初授業に履修登録した学生は104名いたが,そのうち出席が60%以上で期末試験を受験した学生は75名であった.その中で表1の*印で示す5回の授業に3回以上出席した学生は67名であった.本研究はこの67名の中で成績が上位から11名と下位から15名の学生の感想文を対象にして行った.下位を多くしたのは,対象にした5回の授業を欠席した者があり下位の感想文の数が少ないためである.\begin{table}[b]\input{07t2.txt}\label{table2}\end{table} \section{感想文を形態素から分類した結果} 自由に書かせた感想文の内容は様々である.一般に自由に発話されたあるいは記述された文章から,研究目的に関わる有意な情報を抽出するにはある種の観点が必要とされている(海保ら1993).そこで先述した塚本らの感情評価の基準を観点として,有意な情報を探査することにした.具体的には,Trustiaを用いて成績上位者11名と下位者15名の感想文を形態素解析し,あらかじめ想定した4つ感情評価基準による表現と照合し,興味,意欲,知識,考察ごとの感情表現の出現頻度を集計しその結果を成績別に比較した.あらかじめ想定した4つの感情評価基準による表現は,感想文を記述した学生と同年代の1人の学生に,各カテゴリにおいてどのような表現を用いるか作成させることによって得た.その内容を表2に示す.対象にしたのは,先に示した成績上位群の学生11名と下位群の学生15名の書いた感想文である.各感想文の数と文字数は,上位が52通5,981文字,下位が59通5,663文字である.その結果は図1に示す通りであり,成績による差はみられなかった.知識が多いのは「思う」という表現を知識に入れたためである.この結果,同年代による表現の提案を基準にした感想文の形態素の比較では,成績上位群と下位群に有意な差はみられないことが明らかになった.そこで,感想文を一つひとつ読んで文脈から感情評価の基準にしたがって分類してみることにした.次項でその内容を説明する.\begin{figure}[tbp]\centerline{\includegraphics{14-3ia7f1.eps}}\caption{形態素による成績別の4つの感情評価基準による表現の出現頻度}\label{fig1}\end{figure} \section{感想文を文脈から分類した結果} 先に示した興味,意欲,知識,考察の4つの感情評価を基準にして,成績上位群と下位群の学生の感想文の意味がどのカテゴリに該当するか,メールを書き慣れていて表現が似ていると考えられる同年代の学生2名と研究者が分類した.対象にしたのは,先に示した成績上位群の学生11名と下位群の学生15名の書いた感想文である.それぞれの例を付録に示す.分類結果が一致しない場合は最初に学生2名が合議し,その結果を研究者の結果と比較し合議により決定した.それぞれの評定者間の一致率$\kappa$係数は表3の通りである.\begin{table}[tbp]\input{07t3.txt}\label{table3}\end{table}なお対象学生の成績や受講態度などの印象が介入するのを防ぐため,感想文の分類は学生名や成績区分などを伏せて行った.その結果,上位と下位の学生の感情評価の基準別の意味の出現率は図2の通りであった.有意差についてWilcoxonの順位和検定を行った結果,次のことが明らかになった.\textbullet~上位群には意欲(p$<$0.05)と考察(p$<$0.05)が多い\textbullet~下位群には興味(p$<$0.01)が多い\textbullet~知識について有意差はみられなかったが下位群に多い\begin{figure}[tbp]\centerline{\includegraphics{14-3ia7f2.eps}}\caption{文脈による成績別の4つの感情評価基準による表現の出現頻度}\label{fig2}\end{figure} \section{成績上位者と下位者の感想文の比較} 前項において文脈から分類を行った成績上位群と下位群の感想文には,どのような差異があるか比較検討した.感想文の表現は学生ごとにある種のパターンがあることを想定して,成績上位群と下位群から無作為に抽出した「被験者No.~18」と「被験者No.~24」の感想文を比較した.\subsection{成績上位の被験者No.~18の感想文}1回目の授業の感想文\hangafter=1\hangindent=2zw\textbullet~『\ul{13歳になるまでとじこめられていた子供の話が印象的でした}.\uc{子供は監禁した人とは話をしなかったのかな}?\ul{蜜蜂も言語は話さないもののブンブン踊ることで仲間に場所を教えているのをみて},\uc{人間以外の生物もちゃんと意思の疎通をしているんだなと思い,感心しました}.』(原文のまま,以下同様)2回目の授業の感想文\hangafter=1\hangindent=2zw\textbullet~『\ul{意味ネットワークから話を理解する時,無意識に単語やあらかじめ理解している知識で理解しようとしていることに気が付いた}.\uc{だから突然知らないことをいわれると日本語であっても外国語のように聞こえてしまうと思った}.』3回目の授業の感想文\hangafter=1\hangindent=2zw\textbullet~『\ul{色をあらわす言語を二つしかもたないダニ族も,たくさんもっている人も変わらないという実験をみて},\uc{頭がいい人悪い人というのはいないのではないか,頭のよしあしよりも表現が得意な人苦手な人にわけられるのではないかと思った.でも表現が得意な人になりたいと思った}.』4回目の授業の感想文\hangafter=1\hangindent=2zw\textbullet~『\ul{対話は適量適質関係礼儀の4つによってスムーズに行われることがわかった}.\uc{いつも話しだすと止まらないので適量を守ろうと思った.彼女は大学生でないという例からも,否定はわかりにくいのもあらためて納得した}.』5回目の授業の感想文\hangafter=1\hangindent=2zw\textbullet~『\ul{はじめの実験で,「コウゴウセイ」と聞いただけだと何をいっているのかわからなかったけれど,「光合成」と聞いたら質問の意味が即座に理解できた}.\uc{人は無意識に経験によって単語の意味を完成しているんだなと思った.また話し方や表情も意味をもつことがわかった}.』\vspace{\baselineskip}いずれも一重のアンダーラインの部分は授業で知ったことを再構成しており,二重のアンダーラインの部分はそれに対する考察を示す構造になっている.文章は「〜した」したがって「〜と思う」あるいは「〜したい」という表現である.\vspace{\baselineskip}\textbf{結論}上位群の被験者No.~18は,『○○ということが前提にあって,それに対して(自分は)〜だと思う』というように,授業内容を再構成し,それに対する自分の考えを述べる表現である.この文章の意味を感情評価の基準から分類すると「考察」あるいは「意欲」に該当する.\subsection{成績下位の被験者No.~24の感想文}1回目の授業の感想文\hangafter=1\hangindent=2zw\textbullet~『\ul{今日はビデオで,ハチなどの動物が羽の音で会話しているといっていたが},\uc{それは初めて知ったことだったし,とても印象的でした}.』2回目の授業の感想文\hangafter=1\hangindent=2zw\textbullet~『\ul{言葉の使い方はあいまいにしたりすると伝わらなかったりするので}\uc{重要であるとあらためて思った}.\ul{また思い込みで間違えて考えてしまったり,また人の意味ネットワークもそれぞれなので伝わり方も違うし}\uc{やっぱり言葉の使い方はかなり重要になってくると思う}.』3回目の授業の感想文\hangafter=1\hangindent=2zw\textbullet~『\ul{思考は言語以前に存在し,思考を伝達する手段である.伝達したい思考に合わせて言語は形成される}.\uc{このことはほんとうにその通りだと思った}.』4回目の授業の感想文\hangafter=1\hangindent=2zw\textbullet~『\ul{対話は話し手が聞き手の心の中にある既知の概念に新たな概念を構成させる関連付けるために想定と断定を用いて行う情報伝達の試みである}こと\uc{がよくわかりました}.』5回目の授業欠席したので感想文がない.\vspace{\baselineskip}一重のアンダーラインの部分は授業で知ったことだが,学生自身の言葉に置き換えていない.二重のアンダーラインの部分はそれに対する学生の表現だが,1回目の「印象深かったです」や5回目の「よくわかりました」に代表されるように「興味」や「知識」の表現である.文章は,「〜でした」ので「〜でした」という構造である.\vspace{\baselineskip}\textbf{結論}下位群の被験者No.~24は,授業内容をそのまま先に書いてその後に「だと思います」という構造をとっている.授業内容は教師が説明したことをそのまま機械的に取り込もうとしており,再構成していない.文章の意味を感情評価の基準から分類すると「興味」あるいは「知識」に該当する.\subsection{感想文比較の結果}以上のことから,成績上位者は授業で受けた内容を再構成しているが,下位群の被験者は授業で受けた内容を再構成せずそのまま使っていることが示された. \section{授業改善への考察} 以上をまとめると本研究による知見は次のようになる.\vspace{\baselineskip}\hangafter=1\hangindent=2zw\textbullet~塚本らの感情評価基準を用いて授業感想文を形態素で比較しても成績による差異は明らかでないが,文脈で比較した結果,成績上位群には意欲と考察が,成績下位群には興味が多いことが示された.\hangafter=1\hangindent=2zw\textbullet~成績上位者の感想文は,授業の内容を再構成しているが,成績下位者は授業の内容を再構成せずそのまま使っている.\vspace{\baselineskip}この知見にしたがって授業改善の方法を考察することにより,次のことが示された.\vspace{\baselineskip}\hangafter=1\hangindent=2zw\textbullet~学習者の感想文に興味の反応が増すように授業改善を行うのでなく,意欲と考察の反応が増すように授業改善する必要がある.\hangafter=1\hangindent=2zw\textbullet~学習者が授業内容をそのまま使うのではなく,授業内容を再構成する機会が増すように授業改善する必要がある.\vspace{\baselineskip}具体的に,個々の授業改善を行うには,授業の内容と授業の環境条件を考慮しなければならない.例えば,シラバス,到達目標,学生の人数と質,クラス編成と教室施設,授業方法,準備できる教材,教員の資質などを考慮に入れて決定しなければならない.しかしながら,上記に示した指針は,個々の授業改善に対して有効な知見である.\vspace{\baselineskip}最後に,今回の分析結果を踏まえて,同様の分析を自動化することについて幾つか考察を述べる.1つは,本文で説明したように,感想文のような主観を記述させた文章には,「思う」という言葉が多用されることである.「思う」それ自体は分析対象にする意味がないかもしれないが,そこを基準にして意味の分析ができないだろうかと考える.2つ目は,被験者の言語表現を集めるために,あらかじめ意図した表現をさせる機会を設けて,その間に文型を収集することからはじめてはどうかということである.実際に「面白かったことを友人に伝えなさい」「活用できると思ったことを書きなさい」などのような指示を与えて書かせた感想文を分析してみると,興味や意欲あるいは考察の表現を見つけ易くなった.3つ目は,完全な自動化が困難であれば,前項で述べたように何らかの指示を与え,その回答文を分析することでも,大変意味があるということである.それが可能になれば,授業改善のような特定目標を設定した分析では,支援ツールとして十分使えると考えるからである.\section*{謝辞}協力してくれた学生諸君に感謝する.なお本研究は平成16,17,18年度日本学術振興会科学研究費基礎研究C「学生レスポンスの分析による思考過程の変容の解明と授業改善」(課題番号16500610研究代表者塚本榮一)の補助を受けて行われた.\section*{参考文献}\noindent\hangafter=1\hangindent=2zw赤堀侃司(1997).有斐閣選書,ケースブック・大学授業の技法,有斐閣.\noindent\hangafter=1\hangindent=2zw市川伸一(2001).``学ぶ意欲の心理学.''PHP研究所,東京.\noindent\hangafter=1\hangindent=2zw伊藤秀子,大塚雄作(1999).有斐閣選書,ガイドブック・大学授業の改善,有斐閣.\noindent\hangafter=1\hangindent=2zwJohnson-Laird,P.~N.(1983).``MentalmodelsTowardsacognitivescienceoflanguage,inferencesandconsciousness.''CambridgeUniversityPress,CambridgeMA.\noindent\hangafter=1\hangindent=2zw海保博之,原田悦子ら(1993).``プロトコル分析入門'',新曜社.\noindent\hangafter=1\hangindent=2zw河合隼雄(1967).``ユング心理学入門'',培風館.\noindent\hangafter=1\hangindent=2zw久保田まり(1995).アタッチメントの研究—内的ワーキング・モデルの形成と発達—.川島書店,東京.\noindent\hangafter=1\hangindent=2zw坂元\Ketuji{FAD0.eps}(1993).``大学教育改善技法.''社会情報,札幌学院大学社会情報学部\textbf{2}(2),pp.~101--109.\noindent\hangafter=1\hangindent=2zwSteinerGerhard(1988).LERNENZwanzigSzenarienausdemAlltag.塚野州一,若井邦夫ら訳(2005)``新しい学習心理学—その臨床的適用,''北大路書房,京都.\noindent\hangafter=1\hangindent=2zwStern,D.~N.(1989).``TheRepresentationofrelationalpatterns---Developmentalconsidera{-}tions---.''InA,J.Sameroff{\&}R.~N.Emde(Eds.),\textit{RelationshipDisturbancesinEarlyChildhood}.NewYork,BasicBooks,US.\noindent\hangafter=1\hangindent=2zw田中毎実,今井重孝,赤堀侃司,藤岡完治(2000).``大学カリキュラム改革と授業改善.''京都大学高等教育研究,6,pp.~1--23.\noindent\hangafter=1\hangindent=2zw立田ルミ(1998),``メディア利用による大学の授業改善研究—ネットワーク,プレゼンテーションツールを活用した授業—.''メディア教育研究,1,pp.~143--155.\noindent\hangafter=1\hangindent=2zw塚本榮一,赤堀侃司(2001).``学生の理解変容に関与する発話分析.''日本教育情報学会誌,\textbf{17}(1),pp.~25--34.\noindent\hangafter=1\hangindent=2zw塚本榮一,赤堀侃司(2003).``学生レスポンスを用いた授業改善電子カルテシステムの開発と評価.''日本教育工学会論文誌,\textbf{27}(1),pp.~11--21.\noindent\hangafter=1\hangindent=2zw塚本榮一,赤堀侃司(2004).``携帯電話による学生レスポンスの収集と分析による授業改善.''教育システム情報学会誌,\textbf{21}(3),pp.~214--222.\noindent\hangafter=1\hangindent=2zw塚本榮一,赤堀侃司(2006).``授業を教師と学生の対話と捉えた携帯メールによる学生の理解の分析.''ヒューマンインターフェース学会論文誌,\textbf{8}(1),pp.~95--100.\appendix \section{成績上位者の授業感想文の例} \begingroup\input{07app1.txt}\label{table_app1}\endgroup\clearpage \section{成績下位者の授業感想文の例} \begingroup\input{07app2.txt}\label{table_app2}\endgroup\clearpage\begin{biography}\bioauthor{塚本榮一}{1964年静岡大学工学部電子工学科卒,富士通株式会社を経て1997年4月から東洋英和女学院大学教授.教育工学,情報科学,学習者の認知などを研究分野としている.日本教育工学会,日本教育心理学会,日本教科教育学会などの各会員.}\bioauthor{赤堀侃司}{1969年東京工業大学大学院理工学研究科物理学修士課程修了,東京学芸大学講師,助教授,東京工業大学助教授を経て1991年から東京工業大学教授.工学博士.教育工学,教育情報工学,学習とメディアなどを研究分野としている.ヒューマンインターフェース学会,日本教育工学会,電子情報通信学会などの各会員.}\end{biography}\biodate\end{document}
V20N03-05
\section{はじめに} 近年,TwitterやFacebookなどのソーシャルメディアが社会において大きな存在感を示している.特に,Twitterは情報発信の手軽さやリアルタイム性が魅力であり,有名人のニュース,スポーツなどの国際試合の勝利,災害の発生などの速報,アメリカ大統領選挙に代表される選挙活動,アラブの春(2010年,2011年)やイギリスの暴動(2011年)など,社会に大きな影響を与えるメディアになっている.2011年3月に発生した東日本大震災においても,安否確認や被災者支援のために,ソーシャルメディアが活躍した.Twitter上ではリアルタイムな情報交換が行われているが,誤った情報や噂も故意に,あるいは故意ではなくとも広まってしまうことがある.東日本大震災での有名な例としては,「コスモ石油の火災に伴い有害物質の雨が降る」や「地震で孤立している宮城県花山村に救助が来ず,赤ちゃんや老人が餓死している」などの誤情報の拡散が挙げられる.このような誤情報の拡散は無用な混乱を招くだけでなく,健康被害や風評被害などの2次的な損害をもたらす.1923年に発生した関東大震災の時も,根拠のない風説や流言が広まったと言われているが,科学技術がこれほど進歩した2011年でも,流言を防げなかった.このような反省から,Twitter上の情報の\addspan{信憑性}を判断する技術に注目が集まっている.しかしながら,情報の\addspan{信憑性}をコンピュータが自動的に判断するのは,技術面および実用面において困難が伴う.コンピュータが情報の\addspan{信憑性}を推定するには,大量の知識を使って自動推論を行う必要があるが,実用に耐えうる知識獲得や推論手法はまだ確立できていない.また,情報の\addspan{信憑性}は人間にも分からないことが多い.例えば,「ひまわりは土壌の放射性セシウムの除去に効果がある」という情報が間違いであることは,震災後に実際にひまわりを植えて実験するまで検証できなかった.さらに,我々は情報の\addspan{信憑性}と効用のトレードオフを考えて行動決定している.ある情報の\addspan{信憑性}が低くても,その情報を信じなかったことによるリスクが高ければ,その情報を信じて行動するのは妥当な選択と言える.そこで,我々はツイートの\addspan{信憑性}を直接判断するのではなく,そのツイートの情報の「裏」を取るようなツイートを提示することで,情報の価値判断を支援することを考えている.図\ref{fig:map}に「イソジンを飲めば甲状腺がんを防げる」という内容のツイート(中心)に対する,周囲の反応の例を示した.このツイートに対して,同意する意見,反対する意見などを提示することで,この情報の根拠や問題点,他人の判断などが明らかになる.例えば,図\ref{fig:map}左上のツイート「これって本当???」は,中心のツイートに対して疑問を呈しており,図\ref{fig:map}左下のツイート「これデマです.RT@ttaro:イソジンを飲めば甲状腺がんを防げるよ.」は,中心のツイートに対して反論を行っている.これらのツイート間の関係情報を用いれば,中心のツイートに対して多くの反論・疑問が寄せられているため,中心のツイートの信憑性は怪しいと判断したり,右下のツイートのURLの情報を読むことで,追加情報を得ることができる.\begin{figure}[t]\begin{center}\includegraphics{20-3ia16f1.eps}\end{center}\caption{返信・非公式リツイート,もしくは内容に基づくツイート間の論述関係}\label{fig:map}\vspace{-0.5\Cvs}\end{figure}Twitterにおいて特徴的なのは,ツイート間に返信\footnote{メールで返信を行うときに,返信元の内容を消去してから返信内容を書く状況に相当する.Twitterのメタデータ上では,どのツイートに対して返信を行ったのかという情報が残されている.}や非公式リツイート\footnote{メールで返信を行うときに,返信元の内容を引用したままにしておく状況に相当する.\addspan{元のツイートをそのままの形でフォロワーに送る(公式)リツイートとは異なりTwitterが提供している機能ではないが,サードパーティ製のクライアントでサポートされており頻繁に利用されている.}}などの\addspan{形式を取った投稿が可能な}点である.例えば,図\ref{fig:map}左上のツイートは中心のツイートに対する発言であること,図\ref{fig:map}左下と右上のツイートは中心のツイートを引用したことが記されている.これに対し,図\ref{fig:map}右下のツイートは,返信や非公式リツイートの\addspan{形式を取っていないため,中心のツイートを見て投稿されたものかは不明である.}本研究では,返信や非公式リツイートの形式を取ったツイート(返信ツイート)に着目し,ツイート間の論述的な関係を認識する手法を提案する.具体的には,返信ツイートによって,投稿者の「同意」「反論」「疑問」などの態度が表明されると考え,これらの態度を推定する分類器を教師有り学習で構築する.評価実験では,返信で表明される態度の推定性能を報告する.さらに,既存の含意関係認識器をこのタスクに適用し,直接的に返信関係のないツイート間の論述的な関係の推定を行い,その実験結果を報告する. \section{関連研究} label{sec:Related}\subsection{デマ分析}Web情報の信憑性を判断する研究はこれまでにも多く行われてきているが,近年はTwitterを対象としたものも多い.Twitter上に流れるデマを見つけ出す研究はその典型である.Castilloら\cite{Castillo_2011}は,手動で信憑性のラベル付けをしたデータを学習させ,ツイートやアカウントの特徴を用いてTwitter上の情報の信憑性を自動で判別する分類器を訓練し,高い性能を得た.彼らは流行しているトピックをニュースとその他に分類し,ニュースが正しいか間違っているかを分類している.また,ソーシャルネットワークの関係をグラフ化し,解析する研究も盛んである.Twitterのグラフ関係を利用したマイニングを行っているものとして,\addspan{Gupta}らの研究\cite{Gupta_2012}が挙げられる.Guptaらは,Castilloらと同様の分類器を用いた手法と,グラフ上の最適化の組み合わせにより,Twitter上で観測されたイベントの信憑性の推定を行った.彼らは信憑性を,イベントが起こった確からしさとして扱っている.アカウント・ツイート・イベントに分類器の結果に基づく信憑性の初期値を与え,それらをノードとするネットワークを構成し,リンク関係を用いて信憑性の値を更新していくことで,最終的にイベントの真偽を判定する.これらの研究は,いずれもデマかそうでないかという真偽判定の問題を扱っている.しかしながら,情報の真偽を判断する事はそもそも難しく,真偽が存在しない情報に対応できないという問題点がある.我々はそのような立場ではなく,価値判断を行いたい情報の周辺を整理することで,真偽情報の受け手側の行動決定を支援することを狙っている.\subsection{感情分析}本研究は,返信ツイートによって,投稿者の「同意」「反論」「疑問」などの態度が表明されると仮定しているため,評判分析,感情分析に関する研究とも関わりが深い.感情分析に関する研究の中で近年特に盛んなのは,極性分類と呼ばれるタスクである.極性分類では,単語や文を単位としてポジティブもしくはネガティブに分類するが,本研究では,ツイートを単位とした極性分類が必要になる.Speriosuら\cite{Speriosu_2011}はグラフ上での値の更新を利用したツイートの感情分類を提案している.グラフを構成するノードとしてはユーザやツイートの他に,単語Nグラムや分類器の学習に使用した感情表現などを加えている.ツイート及び分類器の学習に用いた素性をシードとして各ラベルの確率重みを初期値とし,それらのラベル(ポジティブとネガティブの2値)をグラフを通して拡散させることで,ネットワーク構造を利用しない手法を上回る性能を得ている.なお,ユーザのフォロー関係も利用しているが,その有効性については示せていない.\subsection{情報のグルーピングと構造の可視化}このアプローチの代表的なものとして,WISDOM\cite{Akamine_2009}や言論マップ\cite{水野_2011}が挙げられる.これらの研究は,あるトピックに関連する言明を整理して表示することで,ユーザの信憑性判断支援を行う.WISDOMでは,評価極性(良い/悪い)に基づき意見を分類する.評価極性による意見の分類を行う研究は,Turneyの研究\cite{Turney_2002}以降,他にも数多く存在する.極性としては良い/悪い,あるいは正の感情/負の感情が用いられる.元々は製品に対するレビューなどを大雑把に分類するのが目的であったが,近年では,評価対象をより明確にした極性分類が盛んである.例えば,「Windows7はVistaよりもずっと良い」という文から,Windows7に対する良い/正の感情とVistaに対する悪い/負の感情を区別して抽出したいという要求がある.Jiangらは,評価対象との構文関係に関するルールを素性に用いた上で,リツイートなどの関連ツイートを利用することにより,評価対象を明確にした極性分類の性能を向上させた\cite{Jiang_2011}.水野ら~\cite{水野_2011}の言論マップでは,与えられたクエリと検索対象文の間の意味的関係,すなわち同意するか反対するかに基づいて意見を分類している.言論マップでは,良い・悪いという絶対的な評価極性で分類するのではなく,クエリ文と任意の文が与えられたときに,その関係を文間関係認識で推定している.この文間関係認識は,近年盛んに行われている含意関係認識\cite{Dagan_2005}を対立や根拠などの関係に拡張したもので,根拠関係などのより広範な分類を扱うことにより,言論構造の把握を目指している.本論文に最も近いものはHassanらの研究\cite{Hassan_2012}である.彼らは,ディベートサイトにおける各議論トピックへの参加者のグループ分けを行った.まずユーザ間のポストをpositiveかnegativeかに分類し,同じ意見を持つ者同士はpositiveなやり取りが多く,違う意見を持つ者同士はnegativeなやり取りが多いという仮定に基づき,最終的に同じ意見を持つ者同士をまとめたグループを出力した.これらの先行研究は,いずれも内容に基づくポジネガ分析が主体である.しかしながら,字数が制限されくだけた文体が多いツイートに対し,これらの技術をそのまま適用するのは容易ではない.本研究では,Twitter特有のグラフ関係を利用することで,内容ベースの手法だけでは難しい言論の整理を行う. \section{返信・非公式リツイートの態度分類} 本研究では,返信の態度分類を行うことで,ツイート間の論述構造を解析する手法を提案する.返信では,返信先の主張に対する態度や,ユーザそのものに対する態度が表明される.これらの態度を分類することで,ツイート内容やユーザ間の関係を用いてツイート空間の構造を解析することができる.本節では返信で表明される態度分類の手法について述べる.\addspan{\subsection{本稿における各投稿形式の区分}本稿における表記の使い分けを明確にするため,Twitterにおけるいくつかの投稿形式を整理する.\begin{description}\item[返信]@で始まる投稿であり,特定のツイートに対する返信として投稿すること.Twitterの提供する機能であり,関係が記録されている.\item[公式リツイート]ある投稿をそのままの形でフォロワーに拡散すること.Twitterの提供する機能である.\item[非公式リツイート]ある投稿を必要に応じて編集しつつ,自身のコメントを付加して投稿すること.「(自分の投稿)[RQ]T@(返信元のアカウント名)(返信元の投稿)」のような形式を取る.Twitterの提供する機能ではないが,使用者が多い.なお,自身のコメントを付加していないものについても非公式リツイートとして扱う.\end{description}本稿では,「返信」という表記は,特に断りのない限り「返信」と「非公式リツイート」の二つをまとめたものを表す.分けて扱う必要がある場合においては,前者を「返信」,後者を「引用」と表記する.また,単に「リツイート」「RT」と表記した場合は「公式リツイート」を指すものとする.}\subsection{問題設定}\label{sec:classification_setting}返信には様々な意図のツイートが存在する.相手の発言に同調,あるいは反発するツイートもあれば,相手や周囲に疑問を投げかけるツイート,引用して情報を補足するツイートなどもある.ツイート空間の論述構造を分析するためには,これらの多様なツイートを,その投稿の意図に従いいくつかのグループに分類する必要がある.そこで本研究では,返信で表明される態度を,「同意」「反論」「疑問」「その他」の4クラスに分類するタスクを考える.\addspan{それぞれのクラスの定義と,その例を以下に示す.例は,上のツイートに対して,下のツイートが返信である.}\begin{description}\item[同意]主張の支持\addspan{(\ref{ex:agree1})(\ref{ex:agree2})}や感情的な同調(感謝や崇拝\addspan{(\ref{ex:agree3})}も含む)など,返信先のツイートに対して明確な同意の意図が感じられるもの.\begin{enumerate}\item\addspan{…コスモ石油千葉製油所LPGタンクの爆発により、千葉県、近隣圏に在住の方に有害物質が雨などと一緒に飛散するという虚偽のチェーンメールが送られています。千葉県消防地震防災課に確認したところ、そのようなことはないと確認できました。…\\$\Rightarrow$本当ですか安心です}\label{ex:agree1}\item\addspan{コスモ石油が否定「火災で有害物質降る」のメール連鎖http://...\\$\Rightarrow$デマです。みんな冷静になろう。}\label{ex:agree2}\item\addspan{天皇陛下は、宮内庁が京都御所に避難してほしいと要望したのを…お断りになったそうじゃないか。…私は心から尊敬します。\\$\Rightarrow$天皇陛下!万歳!\(T-T)/}\label{ex:agree3}\suspend{enumerate}\item[反論]主張の否定\addspan{(\ref{ex:counter1})}や感情的な反発\addspan{(\ref{ex:counter2})(\ref{ex:counter3})}など,明確な反論の意図が感じられるもの.発言者に対し強く注意を促すようなもの\addspan{(\ref{ex:counter4})}も含める.\resume{enumerate}\item\addspan{…コスモ石油の爆発で有害物質の雨が降る件はデマ。広げてしまった方はツイート削除の上、訂正を/コスモ石油が否定…\\$\Rightarrow$火災で壊滅した、コスモ石油のコンビナートにあった科学燃料の詳細を記者会見で発表して報道しろ!「危険というのはデマです。」なんて情報で納得するわけないだろ!}\label{ex:counter1}\item\addspan{…東京まで健康被害が現れるようなPuは飛んでこない…RT@YYY:もしプルトニウムが漏れてたら東京から逃げますか?…\\$\Rightarrow$(怒)}\label{ex:counter2}\item\addspan{…日本政府は事故の重大性をまったく認識していない。今すぐに多国籍軍を総動員して封じ込めないとチェルノブイリ以上の被害が出る\\$\Rightarrow$馬鹿左翼、煽るな。}\label{ex:counter3}\item\addspan{…食料がありません。脱水、低血糖が徐々にきています。デマじゃない…見捨てないで下さい【from茨城県鹿島コンビナート地区】\\$\Rightarrow$せめて公式RTしてください。元の発信者の名前消すとか非公式RTよりひどい。救助を必要としてる人が、誰だかわからなくなると思いませんか?そのせいで救助が遅れたらと想像できませんか?}\label{ex:counter4}\suspend{enumerate}\item[疑問]返信先に対して情報を要求している\addspan{(\ref{ex:question1})}が,明確な反論とは言えないもの.情報源を要求するようなもの\addspan{(\ref{ex:question2})}や,引用部に対する疑問の吐露なども含まれる.\resume{enumerate}\item\addspan{…コスモ石油の爆発で有害物質の雨が降る件はデマ。広げてしまった方はツイート削除の上、訂正を/コスモ石油が否定…\\$\Rightarrow$JFEケミカル等含めた火災による被害が無いと言うことでよろしいですか?}\label{ex:question1}\item\addspan{…コスモ石油の爆発により有害物質が雲などに付着し、雨などといっしょに降るので…コピペとかして皆さんに知らせてください!!\\$\Rightarrow$NHKのニュースでは今のところ有毒物質が発生することはないと言っていますが、あなたのツイートのソースは何ですか?}\label{ex:question2}\suspend{enumerate}\item[その他]上記のどれにも分類できないもの.\resume{enumerate}\item\addspan{千葉県、近隣圏に在住の方に有害物質が雨などと一緒に飛散するという虚偽のチェーンメールが送られています。…\\$\Rightarrow$そうであったとしても、雨カッパとかは持ってた方が良いよね。}\label{ex:other1}\item\addspan{…千葉県、近隣圏に在住の方に有害物質が雨などと一緒に飛散するという虚偽のチェーンメールが\\$\Rightarrow$硫黄分の多い原油が燃えると酸性雨につながる可能性があるので、それに尾ひれはひれがついたものと推測します。}\label{ex:other2}\end{enumerate}\end{description}これらの4クラスを設計した意図について\addspan{,上記の例を参照しつつ}述べる.ツイート空間の整理に必須なのが,対立構造の抽出である.そのために「同意」と「反論」の2クラスを設定する.「同意」のクラスによって結びつけられたツイート群は,何らかの主張やユーザに対して同様の態度を表明し,「反論」のクラスによって結びつけられたツイート群は,何らかの主張やユーザに対して異なる態度を表明する.この2クラスを設定することで,ツイート空間を,同じ態度を表明するツイートクラスタの集合として整理できる.なお,「同意」や「反論」については態度が明確なもののみを分類する.前述したように,これら2クラスがツイート間の論述構造を解析する上で中心的な役割を果たすため,曖昧な態度のツイートをこれらの2クラスに分類しないように注意する必要がある.\addspan{(\ref{ex:agree1})(\ref{ex:agree2})(\ref{ex:counter1})(\ref{ex:other1})(\ref{ex:other2})は,「コスモ石油の爆発で有害物質の雨が降るというのはデマ」という主旨のツイートに対する返信である.(\ref{ex:agree1})は主旨を受け入れているので「同意」,(\ref{ex:counter1})は納得しないことを主張しているので「反論」に分類する.(\ref{ex:agree2})は「デマです」と返信しているのでやや紛らわしい例であるが,「冷静になろう」という記述から「危険はない」と考えていることが読み取れ,返信先のツイートの内容に「同意」していると判断できる.(\ref{ex:other1})は,主旨を受け入れてはいるが,完全に安心はしていないことが読み取れることから,同意とは言えず,「その他」に分類する.また,(\ref{ex:other2})は主旨を受け入れてはいるが,返信先の情報への同意よりも自分の考えを表明するためのツイートと読み取れる.このように補足の意図を持つツイートも「その他」に分類する.}\addspan{(\ref{ex:counter4})は発言者に対し強く注意を促すものの例である.この例のように不用意な拡散をたしなめるものは,拡散しようとするユーザへの反論としてとらえられる.}「同意」と「反論」の2クラスは,著者間の対立関係を表すのに対して,「疑問」と「その他」の2クラスは,著者間に対立構造は存在しない.従って,ツイート空間において重要なツイートとしてツイートAがあるとき,それに同意または反論するツイートは重要な存在であるが,その他の関係にあるツイートは,論述構造を明らかにする上で重要ではない.一方で疑問関係は,論述構造を整理する上で重要である.情報の信憑性を判断する際に,その情報に疑問を持つユーザの存在は,信憑性が低いことを示唆していると考えられるためである.さらに,その疑問に対する回答は,有益な情報となる場合が多いと考えられる.(\ref{ex:question1})は純粋な疑問,すなわち質問の例である.この質問に対する回答があれば,被害状況を詳しく把握できる可能性がある.次に,(\ref{ex:question2})は情報源を求めている例である.これは,懐疑的な返信ではあるが,明確な反論とはいえないため,疑問に分類する.\addspan{(\ref{ex:agree2})(\ref{ex:counter2})(\ref{ex:counter3})のような感情的な同調あるいは反発のツイートは,内容(引用の場合は付加部分)には有用な情報は含まれていないが,}誰が誰に同調,あるいは反発したかというユーザ同士の関係を推測することは,論述構造分析の助けになると考えられる.したがって本研究においては,感情に基づくと考えられるツイートについても,「同意」や「反論」として同等に扱い分類を行なっている.\subsection{返信ツイートのアノテーション}返信ツイートの分類を行うにあたり,正解データを準備する.本稿で行う実験で使用するデータは,ホットリンク社より提供された,2011年の\addspan{3月11日から3月29日まで}のツイートデータ(以下hottoコーパス)\footnote{http://www.hottolink.co.jp/press/936}である\footnote{東日本大震災ワークショップで提供されたツイートデータを利用したかったが,返信の情報が含まれていなかったため,断念した.}.hottoコーパスには,\#tsunamiや\#jishinなど震災に関連するハッシュタグまたはキーワードが含まれるツイートと,そのツイートを投稿したユーザやそのプロフィール情報などが収録されている.収集対象ユーザ数は約100万人,ツイート数は約2億1千万ツイート\addspan{であり,本研究では全てのデータを利用した.}また,各ツイートには公式リツイート(以下RT)や返信の関係が含まれており,これらはそのまま利用した.\begin{figure}[b]\begin{center}\includegraphics{20-3ia16f2.eps}\end{center}\caption{非公式リツイートのリンク情報の復元}\label{fig:recognizing-qts}\end{figure}ただし,hottoコーパスには引用関係が記録されていないので,以下の方法で復元した(図\ref{fig:recognizing-qts}参照).ツイートに``\texttt{[RQ]Tusername}''というパターンが出てくるとき,そのパターンに続く部分(図\ref{fig:recognizing-qts}左上で,「現在、」から始まる網掛けの部分)をどこかのツイートから引用したと考える.そして,ユーザ``\texttt{username}''のツイートの中で,投稿日時が引用ツイートよりも前のものをすべて検索する.これらのツイート群に対し,引用部のテキストとの類似度を\addspan{文字トライグラム}のオーバーラップ係数で計算し,これが最大になるものを引用元と推定する.\addspan{オーバーラップ係数は,文字トライグラムの集合XとYに対し,以下の式で定義される.{\[オーバーラップ係数=\frac{|X\capY|}{\min\{|X|,|Y|\}}\]}}なお,`\texttt{[RQ]Tusername1comment1[RQ]Tusername2comment2}''のように引用が何段階が行われているケースの場合,引用元と考え検索対象とするのは``\texttt{username1}''のツイートのみである.図\ref{fig:recognizing-qts}では,\addspan{あるユーザ}のツイートを検索した結果,右側真ん中のツイートの類似度が最も高かったため,左上のツイートの引用元と推定している.ただし,オーバーラップ係数の最大値が0.4未満である場合は引用元が見つからなかったとする.返信関係のアノテーションには,震災の際に出回ったデマ一覧\footnote{「東北関東大震災に関するデマまとめ」のまとめhttp://togetter.com/li/112556}を参考に,20個のトピックを選択した.\addspan{トピックは,デマの内容を端的に説明する短い文である.}デマ一覧を利用したのは,東日本大震災の時に情報の信憑性で問題に上がったことと,反論関係が比較的多い割合で含まれると考えたからである.\addspan{それぞれのトピックに関連するツイートを収集するために,クエリとしてトピック中の単語を設定する.}\addspan{選んだトピックとクエリを表\ref{tab:20query}に示す.}\addspan{これらのトピックは,クエリで検索できるツイートから,十分な数の返信を抽出できるように選択した.}具体的には,後で述べるように,返信・引用が各100個ずつ以上取得できるような\addspan{トピックと}クエリを選んだ.各クエリ\addspan{で}hottoコーパスを検索し,リツイート数が多い順に並べる.上位のツイートから順に,返信ツイートを取得する.なお,あるユーザ間で相互の返信が続いている場合には,反論の応酬であるなど重要な論述構造が存在する可能性があり,有用なデータとなるため,返信ツイートが続いている限り全て取得している.このようにして,各クエリを用い返信・引用をそれぞれ100個ずつ,20トピックで計\addspan{4000}ツイートを集める.\addspan{この中に}重複するツイートがあった場合には一つを残して削除し,トピック毎の返信ツイートを補充した.以上により,計4000個の返信ツイート(以降データセットA)を準備した.\begin{table}[t]\caption{選出した20個のトピックと,検索に用いたクエリ}\label{tab:20query}\input{16table01.txt}\vspace{0.5zw}\small※表中に示されているトピックは,全て虚偽と確認されており事実ではない.\par\end{table}データセットAに対し,三人のアノテーター(以下X・Y・Z)の手により,前項で述べた方針に従い4クラスのラベル付けを行った.アノテーションの一致度合いを表\ref{tab:class_annotation}に示す.4000ツイートのうち,3人のラベルが一致したツイートは2690ツイートであった.ラベルの一致度を評価するため,ペアワイズにCohenのカッパ係数を計算した.\[\frac{p_0-p_c}{1-p_c}\]ただし$p_0$は対応クラスの出現数の一致率,$p_c$は対応クラスの偶然の一致率である.XY間が0.660,XZ間が0.621,YZ間が0.641となり,十分な一致と見なせる.3人のアノテーションが一致した2690ツイートを集めたものをデータセットBとする.\begin{table}[t]\caption{データセットAにおけるアノテーションの一致度}\label{tab:class_annotation}\input{16table02.txt}\end{table}\subsection{分類手法}\label{subsec:class_method}返信の態度を教師有り学習で分類する手法について述べる.学習に用いる素性は大まかに3種類に分かれ,ツイート内容に関す\addspan{る}素性,ツイート間の素性,ユーザ間の素性である.ツイート内容の素性は,単語ユニグラム,単語バイグラム,URL数,ハッシュタグ数,デマ否定単語の有無,反論表現との一致度である.これらの素性では,返信ツイートであればツイート全文,引用ツイートであれば追加部分(ツイート全体から引用箇所以降を除いたもの)を対象とし,本文中のアカウント名やURL,ハッシュタグを正規表現により取り除く.取り除いたアカウント・URL・ハッシュタグに対しては,それぞれに対し0個・1個・2個以上を含むという3値の素性を作る.この設定は,\addspan{実験に用いたツイートデータを観察した結果,}URLを1個も含まない場合と1個以上含む場合には大きな差があると見られ,また,1個だけ含む場合と多数を含む場合にも大きな差があると見られる一方で,3個か4個かには大きな差はない\addspan{と見られたため導入した.}不要箇所を取り除いた後の本文に対して,MeCab\cite{Kudo04applyingconditional}\footnote{http://mecab.googlecode.com/svn/trunk/mecab/doc/index.html}による形態素解析を行い,単語ユニグラムと単語バイグラムを抽出する.\addspan{デマ否定単語の有無}とは,ツイート本文が\addspan{デマの否定を示す単語}を含むかどうかを表すもので,\addspan{デマ否定単語}は「デマ」「ガセ」「誤報」「虚報」「削除」「訂正」の6つとした.これらの単語は必ずしもデマを否定していることを示すとは限らないが,返信で用いられる場合では,デマの否定に用いられるケースが多く,反論の抽出に有効と考えられる.反論表現との一致度とは,あらかじめ作成した反論表現辞書を用い,反論に固有の表現をどの程度含んでいるかを表す.反論表現辞書は,データセットAの中から反論を表すと思われる表現を人手で抽出して作成する.それらの表現にはデマを否定する表現も含まれるが,相手に対する感情的な反発を表す表現なども含まれる.表\ref{tab:反論表現}に反論表現の例を示す.\begin{table}[b]\vspace{-0.5\Cvs}\caption{反論表現の例}\label{tab:反論表現}\input{16table03.txt}\vspace{-0.5\Cvs}\end{table}なお,この二種類の表現は厳密に区別できるわけではない.例えば,表\ref{tab:反論表現}のその他の表現例の「余計なこと書くな」については,「余計なこと」が指す内容がデマの可能性もある.実際にはこれら二種類を分けて扱う必要はないが,反論表現をたくさん集めることが,デマによる否定以外の反論を認識する上で有効である.また,一見すると反論を表す表現であるが,反論表現辞書に含めるべきでないものも存在する.例えば,「それはデマです」は反論表現として挙げた一方で,「デマです」「デマらしいです」は反論表現にはふさわしくないことがある.例えば,以下のようなケースが存在する.\begin{quote}デマです,注意!RT@XXX:(デマを否定する情報)RT@YYY:(デマ情報)\\デマらしいですRT@XXX:(デマを否定する情報)RT@YYY:(デマ情報)\end{quote}この場合,引用元との間には共にデマを否定しているという“同意”の関係が成り立っているため,反論表現としてはふさわしくない.このように,伝聞形で使われそうな表現などは反論表現辞書から除外している.実際に収集した100個の反論表現は付録に載せた.以上のように作成した反論表現辞書を用い,反論表現との一致度を求め,素性として使用する.まず,反論表現辞書中の各反論表現に対して,その単語バイグラムをどの程度含むかを求める.例えば,反論表現辞書が「それ/は/デマ/です」「これ/デマ/ね」の二つからなる場合を考える.「デマ/です」を含むツイートがあった場合,「それ/は/デマ/です」の3個のバイグラムのうち1個を含むので1/3,「これ/デマ/ね」の2個のバイグラムは1個も含まないので0となる.これらのうちの最大値(この場合は1/3)を,反論表現との一致度とする.実際には反論表現は100個あるので,それら100個に対して計算を行い,最大値を反論表現との一致度としている.返信先のツイートとの間\addspan{の関係についての}素性では,ツイートのタイプ,空文,単語バイグラムのコサイン類似度を使用する.ツイートのタイプとは,引用かどうかを表す.空文とは,引用でありながらも自身のコメントを付加していないものに発火する素性である.単語バイグラムのコサイン類似度とは,返信ツイートの単語バイグラム(引用ツイートの場合は,ツイート全体から引用箇所を除いた部分)と,返信先ツイートの単語バイグラムのコサイン類似度である.返信先のユーザとの間\addspan{の関係についての}素性として,返信の回数,返信の方向性,RTの回数,RTの方向性,共通のツイートをRTした回数,共通のURLをツイートに含んだ回数,共通のツイートに返信した回数を利用する.返信の回数は,hottoコーパスの中から,返信している2ユーザ間で返信が行われた回数である.方向性とは,2ユーザ間の返信の履歴を調べ,双方向のやりとりがある,返信相手への返信のみがある,返信がない,のいずれかを指す.RTの回数や方向性についても同様である.これらの素性はユーザ間の関係から返信による態度を推測するために使われる.例えば,RTが相互でたくさん行われている場合,新たな発言も「同意」である可能性が高い\addspan{と考えられる}.返信が一方的なものであった場合,それらの発言は「反論」である可能性がある\addspan{と考えられる}.また,共通のツイートをRTした回数,共通のURLをツイートに含んだ回数,共通のツイートに返信した回数の3つは,第三者を媒介して表れる素性である.例えば,よく共通のツイートをRTしているユーザ同士での返信があった場合は,「同意」の可能性が高い\addspan{と考えられる}.\addspan{これらの素性の設定における仮定の妥当性は,\ref{subsec:cross}節で検証する.}\addspan{以上,各素性の設計について述べたが,本研究において特に重要と考えているのは,反論表現辞書との一致度および構造的特徴の利用である.ここでいう構造的特徴とは,返信か引用かや,返信先のユーザとの間の関係についての各素性であり,これらはTwitter上の返信構造により生じる素性である.また,反論表現辞書は,前述したように返信で用いられることの多い表現を元に作成しており,これらもまたTwitter上の返信構造により生じる素性と言える.次節の評価では,返信構造により生じるこれらの素性がどの程度性能に寄与するのかについても示す.} \section{返信・非公式リツイートの態度分類の評価} 本節では,前節で述べた返信の態度を分類する手法について性能を評価する.\subsection{交差検定による性能評価}\label{subsec:cross}前節でアノテーション済のデータセットBに対し,前述した4クラスに識別する多クラス分類を行う.本実験では,分類器として最大エントロピーモデルを用いる.分類器の実装として,Classias\footnote{Classiasのホームページ:http://www.chokkan.org/software/classias/}のpegasos.logistic(L2正則化ロジスティック回帰)を使用した.実験では,2トピックずつ計10個のデータに分割し,10分割交差検定を行った.表\ref{tab:10cross2}に,クラス毎の\addspan{精度}・再現率・\addspan{$F_1$値}と,全体の\addspan{正答率}を10分割のマイクロ平均\addspan{で}示した.\addspan{なお,$F_1$値については全クラスのMacro平均も示した.}\addspan{$F_1$値の定義は以下の通りである.{\[F_1=\frac{2*精度*再現率}{精度*再現率}\]}}\begin{table}[b]\caption{返信ツイートの分類結果(データセットB)}\label{tab:10cross2}\input{16table04.txt}\end{table}各クラス毎の性能について見ると,「同意」と「疑問」に対してある程度高い分類性能が得られた一方で,「反論」と「その他」の分類性能は低くなっている.「その他」については,他の3クラスと異なりツイートの意図が広範囲にわたるため,共通の素性を得にくくなっているためと考えられる.素性のクラスに対する特定性の指標として,以下の数式を導入する.素性$f$におけるクラス$c_0$の特定性は,各クラス$c$の学習結果の重み$w_{fc}$に対して\begin{equation}c_0の特定性=\frac{exp(w_{f_{c_0}})}{exp(\sum_{c\neqc_0}w_{f_c})}\\\end{equation}で表す.\addspan{この時,特定性は0.333を上回るほどそのクラスに有効な素性であることを表す.}データセットBに含まれる全てのデータで学習した場合に,「その他」を除く各クラス毎に特定性が上位の素性5個ずつを表\ref{fig:features}に示す.\begin{table}[t]\caption{各クラスで特定性の高い素性}\label{fig:features}\input{16table05.txt}\end{table}「同意」と「疑問」の2クラスについては,それぞれを表すような特徴が比較的うまく抽出されていることが分かる.「同意」については,「!」・URLが0個である・感謝を表す表現などが有効な素性である.\addspan{これらは,Nグラムを直接利用する程度の言語処理で組み込める素性であり,同意を表す素性としても直感に合うものになっている.}また,バイグラムのコサイン類似度の素性も上位に来ていることから,元のツイートと同じような内容を繰り返す場合にも同意である可能性が高いと考えられる.\addspan{なお,素性の導入の際においた「RTの回数が多ければ同意」「共通のツイートをRTした回数が多ければ同意」などの仮定は,素性の表す同意の特定性がそれぞれ0.335・0.336であり,有効ではなかった.}「疑問」については,疑問符や問いかけの表現が上位に来ている.これらもまたNグラムの利用程度で組み込める素性であり,疑問を表す素性としても直感に合う.一方,「反論」については,反論表現との一致度が有用であるが,それらを除くとあまり反論に特有の単語とは思えない特徴が多く並んでおり,反論を示唆する表現は,Nグラムなどの単純な抽出法ではなかなか見つからないことが分かる.反論の認識に比較的有効であった素性としては,「返信相手への返信のみがある」,すなわち返信が一方通行であるという特徴\addspan{(特定性0.437)}が挙げられる.なお,反論に関してもう少し特定性の低いものを見ていくと,「お前」などの表現が見つかる.しかしながら,このような蔑称の類が登場する事例はさほど多くなかったので,反論に関する学習が十分に行えなかったと考えられる.\subsection{各素性の有効性}本手法において特徴的なのは,反論に特有な表現を持つ事例を分類するための反論表現辞書と,そのような表現を持たない事例を分類するための構造的特徴を用いたことである.そこで,これらの有効性を評価するべく,以下の比較を行った.単語ユニグラム・単語バイグラム・元ツイートとのコサイン類似度・URL数,ハッシュタグ数のみを特徴として使用する場合をベースライン(Base)とする.ベースラインにデマ表現と反論表現辞書との一致度を加えた場合を反論表現あり(+Con-Exp),構造的特徴(返信か引用か・共通のRTやURL引用回数・相互のRTや返信回数・相互のRTや返信の方向性)を加えた場合を構造的特徴あり(+Structure),反論表現辞書と構造的特徴を加えた場合を全使用(+All)とする.これらの4つの場合において,それぞれ分類器を構築し,性能を比較したのが図\ref{fig:使用する素性による性能変化}である.本研究では,「反論」の認識が重要であると考え,マクロ\addspan{$F_1$値},「反論」クラスの\addspan{$F_1$値},\addspan{正答率}の3指標で性能を比較した.\begin{figure}[b]\begin{center}\includegraphics{20-3ia16f3.eps}\end{center}\caption{使用する素性による性能変化}\label{fig:使用する素性による性能変化}\end{figure}\addspan{まず,Baseに対する+Con-Exp,および+Structureに対する+Allの性能から,}反論表現辞書は反論クラスの識別を中心として大きく寄与することが分かる.反論表現辞書を充実させることで,分類器の性能をさらに改善することができると考えられる.\addspan{次に,Baseに対する+Structure,および+Con-Expに対する+Allの性能について,それぞれ「反論」$F_1$値が向上していることから,}構造的特徴は反論クラスの識別性能を多少上げるのに貢献していると言える.\addspan{一方で他クラスの識別の失敗例が増えることにより全体の正答率はやや低下しており,}今後の検討が必要である.例えば,返信の回数・方向性については,分類対象のツイートに関連するようにトピックや時系列を限定することで,より正確にツイート間の関係に繋がる特徴となる可能性がある.\subsection{考察}本研究の目的であるツイート間の論述構造解析では,「反論」を高精度で識別することが重要である.そこで,反論の識別に失敗した事例を調査・分析した.ツイートで反論を行うパターンは,大きく\addspan{3}種類に分けられる.1つ目は,発言者への反論であり,2つ目は返信先の内容への反論である.\addspan{そして3つ目は,発言者と返信先の内容の両方に対する,いわば複合的な反論である.これら3種類の反論の例を以下に示す.}\begin{enumerate}\item@XXXXXX偉い学者さんなら、もっともらしい事言ってないで国に話し通すなり、非難勧告するなり、どうにかしろよ。なんにも出来ないなら不用意に被災者の不安煽る様な事言うな。\textbf{発言者への反論}\item私が言うのも変ですが水で冷やしている限りメルトダウンはしません。問題が水が送れるか否かです。RT@XXXXXX水で冷やして「炉心溶融・メルトダウン」を停止できるという原子炉の専門家はいない。\textbf{内容への反論}\addspan{\item@XXXXXX防護ケース(格納容器のことか?)が万が一破裂しても圧力容器があるので、即炉心が外界に露出ということではない。誤解を生むRTは控えて、RT元は吟味していただきたい。\textbf{複合的な反論}}\end{enumerate}\addspan{データセットBに含まれる263個の反論のうち,発言者への反論が81個,内容への反論が137個,複合的な反論が45個であった.それぞれの反論についてどの程度識別することができたのかを評価するため,図\ref{fig:使用する素性による性能変化}における各特徴を使用した時毎の再現率を図\ref{fig:反論種類毎の性能}に示す.}\begin{figure}[b]\begin{center}\includegraphics{20-3ia16f4.eps}\end{center}\caption{反論の種類毎の再現率}\label{fig:反論種類毎の性能}\end{figure}\addspan{発言者への反論については,}返信先の内容に依らない表現が使われることが多いため,反論表現の抽出が有効である.\addspan{上記(1)の例では,}「不安煽る様な事言うな」という文は内容の影響を受けずに,反論を表すために広く用いられる.本研究では,集めた返信ツイートの中からこのような表現を集め,反論表現辞書とした.反論表現を持つという特徴を使用することで,分類の精度を上げることができる.\addspan{このことは,図\ref{fig:反論種類毎の性能}において,反論表現を使用した際に再現率が大きく上昇していることから分かる.}\addspan{次に,内容への反論については,}返信先の内容によりツイートに含まれる表現は千差万別であり,内容を理解しなければうまく分類できない.この例では,返信先が「水で冷やしてもメルトダウンを防げない」という内容であることを理解し,「水で冷やしている限りメルトダウンしない」という主張が反論関係にあることを認識する必要があるが,このような事例を提案手法で分類することは難しい.このような問題を解くためのアプローチとしては,返信先の主張の対象が「水で冷やしてもメルトダウンを防げない」であることを認識し,それに対し,返信の「水で冷やしている限りメルトダウンしない」という主張が対立関係にあることを認識しなければならない.これは,対象依存の感情分析\cite{Jiang_2011}や言論マップ\cite{水野_2011}の矛盾認識で取り扱う事項である.本稿ではそのようなアプローチを取らずに,Twitter上のネットワークにおける構造的特徴を用いて態度の分類を行っている.\addspan{図\ref{fig:反論種類毎の性能}からは,構造的特徴の利用により,内容への反論の識別数が若干向上していることが読みとれるが,十分な改善とは言えずさらなる検討が必要である.}\addspan{最後に,複合的な反論については,基本的な特徴のみで比較的よく識別できており,反論表現の利用によりさらに性能が向上している.これは,複合的な反論の中でも発言者への反論部分から特有の表現をとらえているためである.基本的な特徴のみでよく識別できている理由としては,複合的な反論はある程度の長さがあり,また定型的な文章で書かれていることが多く,それらに共通する有効な素性が抽出されやすいためと考えられる.} \section{一般的なツイート間関係認識への拡張} 本節では,\addspan{返信に限らない全てのツイート間の関係認識を行うことを考える.その際,前節までで述べた}返信の態度分類を,直接的に返信関係のない一般のツイート間の論述関係分析に応用する手法について述べる.一般に,返信のツイートが全ツイートに占める割合は非常に少ないため,前節までで作成した分類器をそのまま適用するのは難しい.特に,反論表現辞書の有効性は低いと考えられる.反論表現辞書に含まれる表現は,返信先への態度を表す際に利用されることの多い表現であり,返信になっていない一般のツイートに含まれる可能性は低い.\addspan{返信の関係にない一般のツイート間に対して4クラスの分類を行うには,その言語的な内容を利用することが考えられる.例えば,ツイート間の反論関係は,含意関係認識課題~\cite{Dagan_2005}における文間の矛盾関係(RTE3~\cite{GiampiccoloRTE32007})に相当する.文間の矛盾関係の認識に取り組んだMarneffeら~\cite{MarneffeIdentifying2011}は,RTE3のテストデータに対して精度22.95\%,再現率19.44\%を達成した.また,日本語を対象とした場合,NTCIR9-RITE~\cite{ShimaRITE12011}およびNTCIR10-RITE2において,矛盾関係を含む含意認識課題であるMC(multiclass)タスクが取り扱われており,RITE2のフォーマルランにおける矛盾関係認識性能は,精度52.17\%,再現率19.67\%が最高性能であった\footnote{http://www.cl.ecei.tohoku.ac.jp/rite2/doku.php?id=wiki:results}.これらの認識性能が示す通り,言語的な内容に基づく文間の矛盾関係の認識は容易ではない.}そこで本節では,\addspan{返信態度の分類器}をツイート間の関係分析に拡張する手法について述べる.具体的には,ツイートペアが与えられた時に,両ツイートおよび両ユーザ,および関連するツイート・ユーザに拡張したネットワークを作り,ネットワーク内に存在する返信関係を分類器で解く.その結果から,元のツイートペアの間の関係を推測する.さらに,\addspan{後述する文間関係認識}を用いて,ツイート間の関係を推測する手法についても述べ,それぞれの分類性能や差異について考察する.\subsection{問題設定}一般のツイートの内容や意図は広範囲に渡る.意見の主張に始まり,ニュースなどの拡散,さらに他愛もないつぶやきや独り言の類も多い.これら全てのツイートを整理することはできない.したがって,整理が完了した際の有用性を考慮し維持しながら範囲を狭めることが必要である.そこで,\addspan{\ref{sec:classification_setting}節で定義した,トピックに関連するツイート群を収拾し,}それらを整理するタスクを考える.\addspan{同じトピックに属するツイート間には,そのトピックに対する同意,反論などの観点から関係を付与できると考えられる.各ツイートがあるトピックに属するか否かを決定する手法については,本稿の手法の対象外であり,人手で行う.}本節では,同じ\addspan{トピックに属する}ツイートのペアが与えられた場合に,関係を分類するという問題を解く.\addspan{分類する関係は},返信の関係分類の際と同じく,「同意」,「反論」,「疑問」,「その他」の四つとする.\begin{description}\item[同意]同様の主張や感情を示すなど,明確な同意の意図が感じられるもの.\item[反論]対立する主張や感情を示すなど,明確な反論の意図が感じられるもの.\item[疑問]情報・情報源の要求や,疑問の吐露など.\item[その他]上記のどれにも分類できないもの.\end{description}これらの分類基準は,返信の場合と似ているが全く同じにはならない.前述したように,ツイート間の関係は,トピックに関する\addspan{主張間の関係}としてとらえられる.返信の関係が存在しないツイートペアにおいては,お互いに対する単純な賛成や反対,感情的な同調や反発などは表れにくい.また,お互いに対する直接的な質問もまず存在しないため,「疑問」はかなり出現頻度が少ないと予想されるが,存在した場合には重要であると考え,\addspan{分類対象の関係に含める}.なお,ツイート間のトピックが明らかに異なる場合についても,この4クラスに分類しようとすれば「その他」のラベルを付けることは可能である.しかし,「その他」のツイートはツイート空間の整理には有用でないため,ツイート間のトピックが明らかに異なる事例は除外する.\subsection{同\addspan{トピック}ツイートペアのアノテーション}上記のタスクを行うにあたり,正解データを準備する.データはhottoコーパスより集める.まず,11個のトピックを用意する.これらのトピックは返信の分類のために集めたときのもの\addspan{(表\ref{tab:20query})}の中から選択した.対応するクエリを用いて検索されたツイートのうち,RT数が上位のものから30件ずつ集める.RT数上位のものから順に集めるのは,それらのツイートは多くのユーザの目に触れるものであり,論述構造を分析・整理する意義が大きいためである.\addspan{ただし,疑問を呈するツイートのRT数が上位に来ることは少ないため,この集め方では疑問の関係は少ないデータとなる.}クエリは,該当トピックをうまく集められそうなものを選んでいるが,中にはトピックに関連するツイートだけを集めるようなクエリの調整が難しく,実際にトピックに対応するツイートの数は30未満になるものもある.トピック,クエリ,トピックに関連するツイートの数を表\ref{tab:11query}に示す.\begin{table}[b]\caption{一般ツイートペア分類実験の11トピック}\label{tab:11query}\input{16table06.txt}\vspace{0.5zw}\small対応ツイート数とは,収集用クエリで抽出したRT数上位30件のうち,トピックに対応するツイートの数を指す.\\※表中に示されているトピックは,全て虚偽と確認されており事実ではない.\par\end{table}これらの11トピックに対し,ペアワイズな全てのツイートの組み合わせを考える.例えば,「イソジンを飲むと放射能対策になる」のトピックに関しては,27個のツイートが存在するので,その組み合わせは全部で351個ある.これらの組み合わせについて,前述した4クラスのラベル付けを行う.ラベル付けは,\addspan{アノテーション経験の豊富な一人のアノテーター}の手により行った.アノテーションの結果を表\ref{tab:pair_annotation}に示す.「同意」の割合が高く,予想した通り「疑問」の割合は非常に少ないことが分かる.また,このアノテーション済のデータを,以降データセットCと呼ぶ.\begin{table}[t]\caption{トピック毎のアノテーション結果}\label{tab:pair_annotation}\input{16table07.txt}\vspace{0.5zw}\small※表中に示されているトピックは,全て虚偽と確認されており事実ではない.\par\end{table}\subsection{ネットワーク拡張に基づく分類手法}同じトピックの中でのツイートペアの関係分類を,返信関係分類器を用いて行う手法について述べる.大まかな方針としては,直接の返信の関係が見当たらない場合,ツイートやユーザからなるネットワークを拡張し,返信の関係を探す.前節で述べた反論表現辞書などを用いることで,返信関係にないツイートペアに比べ格段に関係が推測しやすい.そして,返信分類器の出力の結果を元のツイートペア間の関係の推測に用いることとする.まず,直接返信の関係になっている場合が最も直接的な経路である(図\ref{fig:direct_repqt}).図のリンクについている名称は関係を表している.リンク関係には「author」「RT」「返信」の三種類がある.authorはツイートとそのツイートの投稿者の間に,RTはツイートとそのツイートをリツイートしたユーザの間に生じる関係である.このケースでは,前節の分類器の結果をそのまま使用する.分類器の学習には,データセットBの全データ(2690個)を用いる.次に,その周囲のツイートやユーザまで拡張したネットワークを考え,考えられる様々な経路で元のツイートペアを結ぶ.その経路内に返信・引用関係が存在する場合,前節で提案した分類器を用いて各クラスのスコアを算出する.\addspan{最後に各クラス毎にスコアの和を計算し,最もスコアの高いクラスに分類する.}元のツイートペアを結ぶ経路として以下のものを導入する.まず,両ツイートをリツイートしているユーザがいる場合を考える(図\ref{fig:both_RT}).本稿では,リツイートは同意であるという仮定を置いている.しかしながら,反論の意図を持ってリツイートしている場合もあるため,片方をリツイートしたユーザ数に対し,両方をリツイートしたユーザ数の割合が大きいときほど同意とみなしやすいと考え,\addspan{aをリツイートしたユーザ集合とbをリツイートしたユーザ集合の間の}ジャッカード係数を同意のスコアとする.次に,\addspan{片方のツイートの投稿者が,もう片方のツイートに対し他のツイートで返信している場合}を考える(図\ref{fig:other_repqt}).このケースでは,a--b間の関係をa1--b間が表していると考え,スコアには,ロジスティック回帰\addspan{により求められた各クラス毎}の確率値を用いる.さらに,片方をリツイートしてもう片方に返信しているユーザがいる場合を考える(図\ref{fig:RT_and_repqt}).このケースでは,リツイートは同意であるという仮定に基づき,a--b間の関係をc1--b間が表していると考え,同様に返信分類器の出力(\addspan{ロジスティック回帰により求められた各クラス毎の}確率値)を用いる.\begin{figure}[t]\begin{minipage}[t]{0.45\textwidth}\begin{center}\includegraphics{20-3ia16f5.eps}\end{center}\caption{直接返信のパターン}\label{fig:direct_repqt}\end{minipage}\hfill\begin{minipage}[t]{0.45\textwidth}\begin{center}\includegraphics{20-3ia16f6.eps}\end{center}\caption{両方をリツイートするパターン}\label{fig:both_RT}\end{minipage}\end{figure}\begin{figure}[t]\setlength{\captionwidth}{0.45\textwidth}\begin{minipage}[t]{0.45\textwidth}\begin{center}\includegraphics{20-3ia16f7.eps}\end{center}\caption{他のツイートで返信のパターン}\label{fig:other_repqt}\end{minipage}\hfill\begin{minipage}[t]{0.45\textwidth}\begin{center}\includegraphics{20-3ia16f8.eps}\end{center}\hangcaption{片方をリツイート・もう片方に返信のパターン}\label{fig:RT_and_repqt}\end{minipage}\end{figure}以上のようなルールは,要求に応じて拡張が可能である.例えば,aをリツイートしたユーザCとbをリツイートしたユーザDの間に返信関係があった場合に,分類器によるその関係の出力を用いることができる.ただし,ルールを増やすほど精度は下がると考えられるため,本稿では上記のルールに限定する.\subsection{文間関係認識に基づく分類手法}本節では,2文を与えたときにその間の意味的関係を返す文間関係認識器を用いてツイート間の関係を分類する手法について述べる.文間関係認識の部分課題に位置づけられる含意関係認識は,前述の通りワークショップが開催されるなど広く研究されている.含意関係認識課題で取り扱われている関係の種類を以下に示す.\begin{description}\item[含意]一方の文(テキスト$T$)を真としたとき,他方の文(仮説$H$)も真であると判断できる\addspan{文対}\begin{description}\item[$T$]川端康成は「雪国」などの作品でノーベル文学賞を受賞した\item[$H$]川端康成は「雪国」の著者である\end{description}\item[矛盾]文中の事象が同時に成立し得ない\addspan{文対}\begin{description}\item[$T$]モーツァルトはザルツブルグで生まれた\item[$H$]モーツァルトはウィーンで生まれた\end{description}\item[その他]上記以外\addspan{の文対}\begin{description}\item[\addspan{$T$}]\addspan{川端康成は小説家である}\item[\addspan{$H$}]\addspan{川端康成は大阪で生まれた}\end{description}\end{description}本稿で取り扱う4つの関係とは,含意が同意に,矛盾が反論に対応するが,同意は厳密な含意ではなく,反論は矛盾しているとは限らない.そこで,水野ら\cite{水野_2011}の同意,対立関係を対象とした文間関係認識器を用いる.彼らの定義する同意,対立関係は,本稿で定義する同意,反論関係とほぼ対応する.\addspan{疑問関係は取り扱えないため,同意,反論,その他の3種類の関係に分類する.}まず,\addspan{図\ref{fig:srr_example}を用いて,}彼らの手法を簡潔に述べる.次に,本課題のために変更した点について述べる.\begin{figure}[b]\centering\includegraphics{20-3ia16f9.eps}\caption{文間関係認識例}\label{fig:srr_example}\end{figure}\begin{description}\item[言語解析]入力された2文それぞれに対して,形態素解析\cite{Kudo04applyingconditional},係り受け解析\cite{cabocha},述語項構造解析\cite{watanabe10jointwsdsrl},拡張モダリティ解析\cite{eguchi10nlp},評価極性判定を行う.\addspan{図\ref{fig:srr_example}では,係り受け構造を文の上下の矢印で示す.}\item[\addspan{仮説対応部分の同定}]\addspan{テキスト中には,仮説の内容と関連の低い情報も含まれている.そこで,まず,テキスト中で仮説と内容的に対応する部分を同定する.後段の関係分類では,対応する名詞間や述語間の関係を考慮することで,文間の関係を同定する.テキスト中で仮説に対応する部分の同定は,文節アライメント,局所構造アライメント,文節アライメントの選択という3段階で行われる.以下にそれぞれの手続きを示す.}\begin{description}\item[\addspan{文節アライメント}]\addspan{文節中に含まれる内容語の類似・関連性に基づいて文節間に文節アライメントを付与する.文節中の内容語が類似しているとき,それらが含まれる文節間にアライメントを付与する.図\ref{fig:srr_example}では,「イソジンで($H$)」と「イソジンを($T$)」が,イソジンという内容語が共通することからアライメントされる.}\addspan{内容語の類似・関連性は,その表層だけでなく,日本語WordNet~\cite{bond_09_enhancing}や動詞含意関係データベース~\cite{hashimoto09emnlp}を用いて,意味的な類似度にも基づいて判断される.図\ref{fig:srr_example}において,「防ぐ($H$)」と「回避できる($T$)」は,意味的に類似しているためアライメントされる.}\item[\addspan{局所構造アライメント}]\addspan{文節アライメントによってアライメントされた文節の中には,文全体の意味を考えるとアライメントすべきではない場合がある.例えば,「イソジンを飲んで被曝を防ぐ」と「ワカメの味噌汁を飲むと良い」という2文を考える.2文間で「飲む」が共通しているが,その対象は異なっているため,アライメントすべきではない.}\addspan{この問題に対して,文中の依存構造および述語項構造を対応付けるのが局所構造アライメントである.図\ref{fig:srr_example}において,文節アライメントされる「被曝を($H$)\--\footnote{「\--」で前後の単語を含む文節が文節アライメントされることを示す}被曝を($T$)」と,「防ぐ($H$)\--回避できる($T$)」に着目する.これらは$H$側,$T$側のいずれにも依存構造が存在し,この構造間にアライメントを付与するのが局所構造アライメントである.「イソジンで($H$)\--イソジンを($T$)」と「防ぐ($H$)\--回避できる($T$)」は,$H$側には依存構造が存在するが,$T$側には直接の依存関係は存在しない.しかしながら,「飲むと($T$)」を介して依存構造の繋がりが存在する.本研究では水野らと同様に,4文節まで介しても良いという上限を設けた.}\item[\addspan{文節アライメントの選択}]\addspan{文節アライメントされた文節対のうち,局所構造アライメントもされている文節対のみを選択する.}\end{description}\item[関係分類]アライメント結果を入力として,まず,同意および対立と,その他との分類を行い,次に,同意と対立の分類を行う.1つめの分類は,仮説側の文節が全て\addspan{テキストにアライメントされたか}によって判断される.2つめの分類について,対応付けられた述語が,否定の関係にあるか,評価極性が異なるか,反義の関係にある場合,対立に分類され,いずれにも当てはまらないものは同意に分類される.\end{description}本研究で対象としている,\addspan{ツイートデータ}には,述語間の否定,評価極性,反義\addspan{に基づいて分類可能な対立文対}だけでなく,「〜というのはデマです」や「〜という事実はありません」といった\addspan{述語}の後方での否定・反論も少なくない.そこで,このような表現を否定表現と呼び,対応付けられた述語よりも後方に否定表現が現われた場合,同意ならば対立に,対立ならば同意に関係を反転させる工程を付け加えた.本研究で利用した否定表現は,「誤り,ねつ造,誇張,嘘,誤報,デマ,今のところない,ソースがありません,事実はありません,根も葉もない噂,根拠がない,ニュースはない」である.これらは,評価データ以外のツイートから収集した.表\ref{tab:反論表現}に示される反論表現とは,一般ツイート中の表現である点が異なるが,重なる表現も存在する.\addspan{図\ref{fig:srr_example}において,$T$側の「回避できる」は,その後方の「というのはデマだ」という表現によって否定されており,この2文は対立関係に分類される.}彼らの文間関係認識手法は,\addspan{仮説}が単文(一つの述語といくつかの項からなる文)であることを前提としている.しかし,ツイートに含まれる文は,単文であることは少ない.そこで,\addspan{まず,トピックと2つのツイートの間の関係をそれぞれ同定し,次にこれら2つの関係に基づいてツイート間の関係を同定する.このとき,トピックが仮説に,ツイートがテキストに対応する.図\ref{fig:rel_classification_1}に,トピックを用いてツイート間の関係を求める手法を示す.まず,関係を求めたい2つのツイートに対して,ツイートとトピックとの間の関係を求める.その際,ツイートは,まず文分割され,次に収集用クエリが全て含まれる文のみが選択される.そのような文が複数存在する場合は,一番後ろの一文を選択する.図\ref{fig:rel_classification_1}は,中心にトピック,上下にツイートから選択された文を表している.上側の文はいずれも同意で,下側の文は,一方が同意で,他方が対立に分類されている.最後に,求められた2つの関係から,ツイート間の関係を分類する.トピックとツイートとの間の関係から導かれるツイート間の関係の組み合わせを,以下に示す.}\addspan{\begin{enumerate}\item2つの関係のうち1つでも「その他」$\Rightarrow$「その他」\item2つの関係がいずれも「同意」$\Rightarrow$「同意」\item2つの関係がいずれも「対立」$\Rightarrow$「同意」\item2つの関係が異なる,すなわち「同意・対立」または,「対立・同意」$\Rightarrow$「反論」\end{enumerate}}以降,本手法を「文間関係認識手法1」と呼ぶ.\begin{figure}[b]\centering\includegraphics{20-3ia16f10.eps}\caption{文間関係認識手法1}\label{fig:rel_classification_1}\end{figure}ツイート間の関係を直接同定する手法も評価する.まず,文間関係認識手法1と同様に,ツイートを文分割し,収集用クエリを含む文を選択する.次に,関係を求めたい任意の2ツイートについて,選択された2文間の関係を求める.同定された文間関係は,同意はそのまま同意関係に対応し,対立は反論関係に対応する.以降,本手法を「文間関係認識手法2」と呼ぶ. \section{\addspan{一般的なツイート間の関係認識結果}} 本節では,前節で述べた一般のツイート間の関係認識手法の評価を行う.本研究の目的は,図\ref{fig:map}のように,ツイート間の論述関係を可視化し,ユーザに情報の「裏」を提示し,情報の価値判断を支援することである.誤分類事例が多いと,正しく情報の裏を取ることができないため,高い精度を実現することが重要であり,その上で再現率を上げていく戦略をとる.本稿では,論述関係の可視化を実現するために必要な程度の数のツイートに対して,正しく関係分類が行えたかに着目して評価する.また,ネットワーク拡張手法,文間関係認識手法がそれぞれどのように有効であったかを考察する.\subsection{各トピックにおける評価}\begin{table}[b]\vspace{-0.8\Cvs}\caption{ツイート間関係分類結果(精度)}\label{tab:rel_res_prec}\input{16table08.txt}\vspace{0.5zw}\small※表中に示されているトピックは,全て虚偽と確認されており事実ではない.\par\end{table}正解の関係ラベルを付与したデータセットCの各ツイートペアについて,関係分類実験を行った.ネットワーク拡張手法について,図\ref{fig:direct_repqt}〜図\ref{fig:RT_and_repqt}に示すいずれのパターンにも当てはまらない場合は,関係を出力しない.実験結果の精度を表\ref{tab:rel_res_prec}に,再現率を表\ref{tab:rel_res_rec}に,全トピックのマクロ平均と併せて示す.N/Aは,その関係に分類された事例が存在しなかったことを示す.\begin{table}[t]\caption{ツイート間関係分類結果(再現率)}\label{tab:rel_res_rec}\input{16table09.txt}\par\vspace{0.5zw}\small※表中に示されているトピックは,全て虚偽と確認されており事実ではない.\par\end{table}ネットワーク拡張手法は,簡単なパターンの追加だけで,分類された事例は少ないものの,直接の返信関係にないツイート間の関係分類を行うことができた.文間関係認識に基づく手法について,一部のトピックについては,多くの事例を高精度で分類できている.いずれの手法でも分類された事例数の少なかったトピックとして,「東大が入学を取り消し」,「埼玉の水道水に異物が混入し危険」などがある.\subsection{考察}\addspan{本節では,まず,ネットワーク拡張手法の分類結果について考察し,文間関係認識手法1および2との比較を行う.次に,文間関係認識手法1と2について比較する.}\begin{table}[t]\caption{ネットワーク拡張手法の各パターンによる判定の精度}\label{tab:各パターンの精度}\input{16table10.txt}\par\vspace{0.5zw}\small各トピックについて,上の行が同意,下の行が反論関係の分類性能を示し,手法ごとの精度を示す.\\※表中に示されているトピックは,全て虚偽と確認されており事実ではない.\par\end{table}\addspan{ネットワーク拡張手法について,図\ref{fig:direct_repqt}から図\ref{fig:RT_and_repqt}の各パターンごとの分類性能を表\ref{tab:各パターンの精度}に示す.表の各列は,各パターンを単独で使用して,ツイートa,b間の関係を分類した場合の分類精度を示している.ただし,両方をリツイートするパターン(図\ref{fig:both_RT})は,それぞれのツイートをリツイートしたユーザ集合間のジャッカード係数を同意のスコアとするものであるため,閾値0.01以上の場合のみ同意と判定することとしている.このとき,直接返信のパターン(図\ref{fig:direct_repqt})は,返信態度の分類器をそのまま適用した場合と同等である.反論関係は「福島から避難した子供には教科書が配布されない」に対して1件の誤分類が存在するのみであったが,同意関係への分類精度はマクロ平均で0.953と高かった.次に,拡張した各パターンの結果について,まず,両方をリツイートするパターン(図\ref{fig:both_RT})について,本研究ではリツイートは同意関係であるという仮定を置いているため,本パターンでは反論関係への分類は行われない.同意関係への分類精度は比較的高く,本パターンの有効性が示されている.今後は,リツイート後のツイートも参照し,同意関係ではないリツイートも考慮することで,同意関係の分類精度向上,反論関係への分類も行うことが考えられる.次に,他のツイートで返信のパターン(図\ref{fig:other_repqt})は,適合する場合が少なかっために,分類された事例も少なかった.分類性能は,反論事例の分類精度が最も高かったが,分類された事例数が少ないことが問題である.最後に,片方をリツイート・もう片方に返信のパターンは,分類された事例は同意・反論とも多かった.分類精度については,同意関係は,両方をリツイートするパターン・他のツイートで返信するパターンと同程度の精度で分類することができたが,反論関係の分類精度はあまり高くなかった.}\addspan{ネットワーク拡張手法の分類性能を向上させるためには,}パターンの拡張や,ネットワークを構成するツイートやユーザの増加が考えられる.前者は,ネットワークをより広範囲にわたって探索して,関係を探してくるようにすることによって,分類可能事例を増やす.ただし,ノイズの多いパターンを採用することで精度は下がる可能性が高い.例えば,元のツイート間のパスが長くなるほど,そのリンク関係の信用度も下がると考えられる.本研究で目指すツイート空間の整理は,大量のツイートをまとめるよりは,少数でも重要なツイートを高精度で分類,整理することが有効であると考えているので,ルールの拡張は最適点を見つける問題に帰着することになる.一方で,後者の対策である,ネットワーク探索の対象となるツイートそのものを増やすことは有効であると考えられる.処理を適用するツイートを増やすことで,パターンを拡張することなく,新しいリンクが見つかる可能性は高い.\addspan{ネットワーク拡張手法と,文間関係認識手法1および2を比較して,ネットワーク拡張手法でのみ正しく分類できた事例として,「救援物資の空中投下は法律で禁止されている」の反論事例の一つを以下に示す.}\begin{description}\item[a]【デマ33】「日本では物資の空中投下が認められていない」そんなことはありません。\item[b]なんと驚いた情報です!日本では物資の空中投下が認められていないんだそう!とっくに自衛隊が孤立被災者に実施してると思ってた。これでは本当に孤立者が死んでしまう。救出前にヘリで食糧を落として何が悪いんだろう。わたしは今これを知り怒りで全身が震えてます。みなさんリツイートをお願い!\end{description}\addspan{a,bのいずれも,「法律」については言及されておらず,さらにaは括弧による引用に対して否定する構造となっていたため,文間関係認識手法1,2のいずれも反論関係に分類できなかった.ネットワーク拡張手法では,片方をリツイート・もう片方に返信のパターン(図\ref{fig:RT_and_repqt})によって分類された.パターン中のc1として使われたツイート,すなわちaをリツイートしたユーザによるツイートbへの返信は全部で7ツイート存在した.そのうちの3つを以下に示す.}\begin{description}\item[c1]@XXXXX【お願いします】問題のツイート削除してください!このままでは本当に物資の空中投下が出来ないと誤解されます。物資が遅れている、投下より安全な輸送を優先している、これは事実です。しかしツイッター上では議論がずれてしまってる現状をご理解ください!\item[]@XXXXXこのツイートはデマです。すぐに削除してください。情報に正確性の無いものを拡散させないようお願いします。ツイートでの発言も、常識を忘れないで下さい。拡散させたいときは、ちゃんと調べて情報元などをしっかり確認した上でして下さい。迷惑になります。\item[]@XXXXXこれデマだそうですね投下始まったそうで''孤立状態の被災者に対しヘリコプターを使った食料の投下も始まった''http://www.xxx./xxx.htmlこんな時にデマ流さないで!\end{description}\addspan{これらのツイートは全て反論であり,他の4ツイートも全て反論であった.返信の分類器によりこれらを正しく「反論」と分類できたため,最終的に出力されるスコアも「反論」が最も高く,}a,b間の関係を正しく分類することができた.\addspan{次に,文間関係認識手法1と2の結果について比較する.全体的には,手法2の方が精度,再現率ともに優れていた.同意関係について手法2の方が優れていた事例について分析したところ,2ツイートがいずれも同一の文を引用している事例が大多数であった.以下に例を示す.}\addspan{\begin{description}\item[ツイート1]ツイッターもテレビもメディアを扱う人は考えねばならないことがある。誤報について\ulinej{福島・双葉病院患者置き去り報道の悪意。}医師・看護師は患者を見捨てたりしていなかった\item[ツイート2]記事:\ulinej{福島・双葉病院患者置き去り報道の悪意。}医師・看護師は患者を見捨てたりしていなかった—誤報流した新聞は全力で訂正しろ!\end{description}}\addspan{ツイート1と2で,下線部は共通している.下線部は,これらのツイートが言及している記事のタイトルであり,この共通部分の関係が同意と分類された結果,ツイート間の関係も同意と正しく分類された.手法1では,ツイート中にトピックと同意関係にある1文が存在しないため,対応できなかった.}\addspan{反論関係について手法2の方が優れていたトピックとして「救援物資の空中投下は法律で禁止されている」があげられる.以下の例では,下線部の関係が対立に分類されたことで,ツイート間の関係が反論に正しく分類された.}\addspan{\begin{description}\item[ツイート3]孤立してる被災地に物資が届いていない。不足マップ作って空と陸から支援できないものか?知り合いは徒歩でおにぎりを届けてるらしい。\ulinej{ヘリで空中投下できると良い。}インターネット接続設備も情報のやりとりの為に必須。\item[ツイート4]\ulinej{自衛隊が物資の空中投下が出来ないという噂はデマだったのでマスコミのみなさんのヘリで孤立した避難場所への物資の空中投下はできないのでしょうか?}政府で許可が下りないのなら即非常措置をお願いしたい。\end{description}}\addspan{手法1で反論関係に分類されるのは,一方のツイート中にトピックに同意する文が含まれ,他方のツイート中に対立する文が含まれている場合である.上記の例では,ツイート3でトピックに関連する文は,対象物である「物資」が省略されており,「法律」に対する言及もなされていないため,トピックに対して同意関係に分類されなかった.そのため,ツイート間の関係もその他に分類された.}\addspan{一方で,反論関係について手法1の方が優れていたトピックとして「双葉病院の医師が患者を置き去りにした」が挙げられる.以下の例において,ツイート5,6の下線部は,手法2では,ツイート5中の「見捨てていません」に相当する表現がツイート6に含まれていなかったため,対立関係に分類できなかったが,手法1ではトピックとの関係分類において,それぞれ対立,同意に分類され,反論関係に分類することができた.}\addspan{\begin{description}\item[ツイート5]TUFの報道番組が大熊町双葉病院の職員は患者を残して逃げたと報道しましたが違います。事実は職員は一生懸命患者を搬送してから避難しました。これが真実です。私の父は双葉病院の主任の1人です。\ulinej{双葉病院の職員は患者を見捨てていません。}ご理解ご…\item[ツイート6]\ulinej{\mbox{福島第1原発の10キロ圏内にあり}避難指示が出た同町の双葉病院で、患者を避難させるため自衛隊が到着した際、\mbox{病院内は高齢の入院患者128人だけで、}医師や病院職員らがいなかったことが分かった。}最低だよ酷すぎる。この病院から避難所に移送された患者が14人も亡くなってる\end{description}}以上より,手法2が有利なトピックは,2つのツイートに類似した表現が含まれる場合であることが分かった.特に,両方のツイートが同じ文を引用し,それに対する意見を述べているようなトピックにおいて顕著であった.一方で手法1は,トピックを適切に作文できれば,2つのツイートが類似していない場合に有利であることが分かった.水野らの文間関係認識の問題点は,複数文同士の関係分類に\addspan{直接は}対応できないことである.\addspan{そのため,手法1および2では,文分割を行った.}\addspan{今後は,文をまたぐ照応解析や共参照解析を行うことで,関係分類の精度をより向上させ,再現率も向上させることが考えられる.}一般的に文をまたぐ照応解析\addspan{や共参照解析}の実現は難しいが,ツイートを対象とした場合,\addspan{参照先}となる単語が最大でも140文字以内に含まれていることを活用することで,問題の難易度を下げられる可能性がある.\subsection{論述構造の可視化}今回の実験で得た結果を元に,「イソジンを飲むと放射能対策になる」のトピックに関するツイート空間の論述構造グラフを作成した.作成の手順は以下である.まず,「イソジンを飲むと放射能対策になる」に対応する\addspan{351}個のツイートペアに対し,ネットワーク拡張による手法と文間関係認識による手法のそれぞれで関係分類を試みる.1つ以上の手法で「反論」か「疑問」と識別したツイートペアについてはそれらの関係で結ぶ.\addspan{関係が結ばれたツイートペアを全て集めたものを,グラフに載せるツイートの集合とする.次に,そのツイート集合内に生じる全てのツイート間のペアのうち,すでに「反論」か「疑問」の関係がついたペア以外については,}1つ以上の手法で「同意」と識別されたものがあれば,「同意」関係で結ぶ.以上の流れで論述構造グラフを作成することで,「反論」や「疑問」といった重要な関係を抽出しつつ,無闇にツイート数を増やすことのないグラフを得ることができる.今回の実験結果を元に作成できたグラフを図\ref{fig:graph}に示す.\begin{figure}[t]\begin{center}\includegraphics{20-3ia16f11.eps}\end{center}\caption{「イソジンを飲むと放射能対策になる」の論述構造グラフ}\label{fig:graph}\end{figure}グラフ中の\addspan{双方向矢印}は「反論」,\addspan{結合点が丸になっている線}は「同意」と分類された関係を表し,実線はネットワーク拡張による手法,破線は文間関係認識による手法で分類した関係を表す.\addspan{なお,図\ref{fig:graph}中のツイート間では,どちらの手法でも分類できた例はなかった.}ただし,これらの分類結果が誤っていた関係には×印を付与してある.この実験では,「疑問」を識別することはできなかった.なお,図を描くにあたっては,最も多くの関係を持つツイート「イソジン飲まないで!放射性ヨウ素が集まるのを抑制する効果なし…」を便宜上中心に据えた.このグラフから以下のことが言える.まず,中心ツイートと,図の左上にある二つのツイート(「甲状腺に問題がない人なら…」「ちょ,イソジン等内服以外の…」)は三角形に結ばれているが,これはネットワーク拡張による手法と文間関係認識が相補的に寄与することで実現している.\addspan{ツイート間の関係を独立に表示するだけでなく,3ツイート以上の相互の関係を示すことで,ユーザにとっての分かりやすさやシステムの信頼性を高められる可能性がある.}このように,\addspan{精度を重視した}両手法を組み合わせることで,\addspan{システムの信頼性を高め,説得力のある論述構造をユーザに提供できる可能性が高まる.}また,中心のツイートと,その下のツイート(「薄めたイソジンならOK?…」)の間の反論関係を取得している点も特徴である.グラフを作る際に集めたツイートは「イソジンを飲むと放射能対策になる」というトピックに関連するツイートであり,このトピックに対する立場で言えば,中心のツイートとその下のツイートは反論関係にあるとは言えない.しかしながら,海藻が効果があるかどうかという点で見ればこの二つのツイートは反論関係にあり,取得したい情報である.このように多様な情報の論述構造を取得するのが,本研究の目指すところである.現状の課題として,クラス分類を行った関係に対して誤りが多いことが挙げられる.正しく分類されている関係のみを見ることができれば,ユーザは十分な情報を得ることができるが,間違って分類されている関係が混在していると,情報を取得するにあたり混乱を招くこととなる.より実用性のある論述構造を得るには,分類の精度を高めなければならない.また,「疑問」の関係にあるツイートやURLを含むツイートを取得し,論述構造グラフに組み込むことも目指している. \section{おわりに} 本研究では,震災時など多様な情報がTwitter上で氾濫するような状況を想定し,ツイート空間の論述構造を解析する構想を示した.多岐に渡るツイートを整理することは容易ではないが,我々はまず返信で表明される態度に着目し,教師あり学習による4クラスへの分類を行った.反論表現辞書や構造的特徴を用いることで性能を向上できることを示し,特に重要な論述関係である「反論」の識別性能の\addspan{$F_1$値}で0.472,4クラス全体の正答率で0.751という性能を得た.続いて,一般のツイート間の論述関係を分類する手法として,ネットワークの拡張による手法と,文間関係認識による手法を比較した.前者は,あるツイート間の関係を間接的に表すと思われるツイートやユーザの関係を探索し,必要に応じて返信の分類器を適用することで,元のツイートペア間の関係を推測する手法である.それに対し後者は,ツイート間の関係を直接言語処理で解く手法であり,従来研究の含意関係認識器を本稿のタスク用にカスタマイズして使用した.これら二つの\addspan{手法}は相補的に作用することが期待される.実験では,各手法において得意な\addspan{性質を持つツイートペアの関係分類で高い性能を}発揮した他,適用するトピック次第では両手法が相補的に活用され,有用な論述構造グラフが得られることを示した.元来Twitterの持つ強力な情報伝達力を活用するためには,本研究の提案手法は有効であると考えている.今後の課題としては,返信の態度分類器の性能をさらに高める必要がある.具体的には,反論表現辞書の拡張および,より有効な構造的特徴の開発が必要となる.さらに,より有用な論述構造グラフ作成に向けては,ネットワークの拡張による手法と,文間関係認識による手法を共に改善させていくことが必要である.具体的には,前者はより有用なヒューリスティックスの実装とそれに基づく広範なネットワークの探索,およびそのためのデータ整備を行う.後者については,複数文同士の関係分類\addspan{において,文をまたいだ照応解析や共参照解析技術を取り入れること}が重要であると考えている.本研究が,先の大震災のような危難の中で,Twitter上の情報活用に一役買うことになれば幸いである.\acknowledgment本研究は,文部科学省科研費(23240018),文部科学省科研費(23700159),およびJST戦略的創造研究推進事業さきがけの一環として行われた.本研究で使用したデータは,株式会社ホットリンクより提供された.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Akamine,Kawahara,Kato,Nakagawa,Inui,Kurohashi,\BBA\Kidawara}{Akamineet~al.}{2009}]{Akamine_2009}Akamine,S.,Kawahara,D.,Kato,Y.,Nakagawa,T.,Inui,K.,Kurohashi,S.,\BBA\Kidawara,Y.\BBOP2009\BBCP.\newblock\BBOQWisdom:Awebinformationcredibilityanalysissystematic.\BBCQ\\newblockIn{\BemProceedingsfotheInternationalConferenceonACL-IJCNLP2009SoftwareDemonstrations},\mbox{\BPGS\1--4}.\bibitem[\protect\BCAY{Bond,Isahara,Fujita,Uchimoto,Kuribayashi,\BBA\Kanzaki}{Bondet~al.}{2009}]{bond_09_enhancing}Bond,F.,Isahara,H.,Fujita,S.,Uchimoto,K.,Kuribayashi,T.,\BBA\Kanzaki,K.\BBOP2009\BBCP.\newblock\BBOQEnhancingthe{J}apanese{WordNet}.\BBCQ\\newblockIn{\BemProceedingsofthe7thWorkshoponAsianLanguageResources},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Castillo,Mendoza,\BBA\Poblete}{Castilloet~al.}{2011}]{Castillo_2011}Castillo,C.,Mendoza,M.,\BBA\Poblete,B.\BBOP2011\BBCP.\newblock\BBOQInformationcredibilityontwitter.\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConf.onWorldWideWeb(WWW2011)},\mbox{\BPGS\675--684}.\bibitem[\protect\BCAY{Dagan,Glickman,\BBA\Magnini}{Daganet~al.}{2005}]{Dagan_2005}Dagan,I.,Glickman,O.,\BBA\Magnini,B.\BBOP2005\BBCP.\newblock\BBOQThepascalrecognisingtextualentailmentchallenge.\BBCQ\\newblockIn{\BemFirstMachineLearningChallengesWorkshop},\mbox{\BPGS\177--190}.\bibitem[\protect\BCAY{de~Marneffe,Rafferty,\BBA\Manning}{de~Marneffeet~al.}{2011}]{MarneffeIdentifying2011}de~Marneffe,M.-C.,Rafferty,A.~R.,\BBA\Manning,C.~D.\BBOP2011\BBCP.\newblock\BBOQ{IdentifyingConflictingInformationinTexts}.\BBCQ\\newblockIn{\BemHandbookofNaturalLanguageProcessingandMachineTranslation:DARPAGlobalAutonomousLanguageExploitation}.Springer.\bibitem[\protect\BCAY{江口\JBA松吉\JBA佐尾\JBA乾\JBA松本}{江口\Jetal}{2010}]{eguchi10nlp}江口萌\JBA松吉俊\JBA佐尾ちとせ\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblockモダリティ、真偽情報、価値情報を統合した拡張モダリティ解析.\\newblock\Jem{言語処理学会第16回年次大会発表論文集E3-8},\mbox{\BPGS\852--855}.\bibitem[\protect\BCAY{Giampiccolo,Magnini,Dagan,\BBA\Dolan}{Giampiccoloet~al.}{2007}]{GiampiccoloRTE32007}Giampiccolo,D.,Magnini,B.,Dagan,I.,\BBA\Dolan,B.\BBOP2007\BBCP.\newblock\BBOQThethirdPASCALrecognizingtextualentailmentchallenge.\BBCQ\\newblockIn{\BemProceedingsoftheACL-PASCALWorkshoponTextualEntailmentandParaphrasing},\mbox{\BPGS\1--9}.\bibitem[\protect\BCAY{Gupta,Zhao,\BBA\Han}{Guptaet~al.}{2012}]{Gupta_2012}Gupta,M.,Zhao,P.,\BBA\Han,J.\BBOP2012\BBCP.\newblock\BBOQEvaluatingeventcredibilityontwitter.\BBCQ\\newblockIn{\BemProceedingsofthe12thInternationalConf.onDataMining(SDM2012)},\mbox{\BPGS\153--164}.\bibitem[\protect\BCAY{Hashimoto,Torisawa,Kuroda,Murata,\BBA\Kazama}{Hashimotoet~al.}{2009}]{hashimoto09emnlp}Hashimoto,C.,Torisawa,K.,Kuroda,K.,Murata,M.,\BBA\Kazama,J.\BBOP2009\BBCP.\newblock\BBOQLarge-ScaleVerbEntailmentAcquisitionfromtheWeb.\BBCQ\\newblockIn{\BemConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2009)},\mbox{\BPGS\1172--1181}.\bibitem[\protect\BCAY{Hassan,Abu-Jbara,\BBA\Radev}{Hassanet~al.}{2011}]{Hassan_2012}Hassan,A.,Abu-Jbara,A.,\BBA\Radev,D.\BBOP2011\BBCP.\newblock\BBOQDetectingsubgroupsinonlinediscussionsbymodelingpositiveandnegativerelationsamongparticipants.\BBCQ\\newblockIn{\BemProceedingsofthe9thEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL2012)},\mbox{\BPGS\59--70}.\bibitem[\protect\BCAY{Jiang,Yu,Zhou,Liu,\BBA\Zhao}{Jianget~al.}{2011}]{Jiang_2011}Jiang,L.,Yu,M.,Zhou,M.,Liu,X.,\BBA\Zhao,T.\BBOP2011\BBCP.\newblock\BBOQTarget-dependenttwittersentimentclassification.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL2011)},\mbox{\BPGS\151--160}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2002}]{cabocha}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2002\BBCP.\newblock\BBOQJapaneseDependencyAnalysisusingCascadedChunking.\BBCQ\\newblockIn{\BemCoNLL2002:Proceedingsofthe6thConferenceonNaturalLanguageLearning2002(COLING2002Post-ConferenceWorkshops)},\mbox{\BPGS\63--69}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{Kudo04applyingconditional}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingconditionalrandomfieldstoJapanesemorphologicalanalysis.\BBCQ\\newblockIn{\BemProceedingsofthe1stEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2004)},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{水野\JBA渡邉\JBA村上\JBA乾\JBA松本}{水野\Jetal}{2011}]{水野_2011}水野淳太\JBA渡邉陽太郎\JBA村上浩司\JBA乾健太郎\JBA松本裕治\BBOP2011\BBCP.\newblock文間関係認識に基づく賛成・反対意見の俯瞰.\\newblock\Jem{情報処理学会論文誌},{\Bbf52}(12),\mbox{\BPGS\3408--3422}.\bibitem[\protect\BCAY{Shima,Kanayama,Lee,Lin,Mitamura,Miyao,Shi,\BBA\Takeda}{Shimaet~al.}{2011}]{ShimaRITE12011}Shima,H.,Kanayama,H.,Lee,C.-W.,Lin,C.-J.,Mitamura,T.,Miyao,Y.,Shi,S.,\BBA\Takeda,K.\BBOP2011\BBCP.\newblock\BBOQOverviewofNTCIR-9RITE:RecognizingInferenceinTExt.\BBCQ\\newblockIn{\BemProceedingsofthe9thNTCIRWorkshop},\mbox{\BPGS\291--301}.\bibitem[\protect\BCAY{Speriosu,Sudan,Upadhyay,\BBA\Baldridge}{Speriosuet~al.}{2011}]{Speriosu_2011}Speriosu,M.,Sudan,N.,Upadhyay,S.,\BBA\Baldridge,J.\BBOP2011\BBCP.\newblock\BBOQTwitterpolarityclassificationwithlabelpropagationoverlexicallinksandthefollowergraph.\BBCQ\\newblockIn{\BemProceedingsofthe1stWorkshoponUnsupervisedLearninginNLP},\mbox{\BPGS\53--63}.\bibitem[\protect\BCAY{Turney}{Turney}{2002}]{Turney_2002}Turney,P.~D.\BBOP2002\BBCP.\newblock\BBOQThumbsuporthumbsdown?:Semanticorientationappliedtounsupervisedclassificationofreviews.\BBCQ\\newblockIn{\BemProceedinsofthe40thAnnualMeetingonAssociationforComputationalLinguistics(ACL2002)},\mbox{\BPGS\417--424}.\bibitem[\protect\BCAY{Watanabe,Asahara,\BBA\Matsumoto}{Watanabeet~al.}{2010}]{watanabe10jointwsdsrl}Watanabe,Y.,Asahara,M.,\BBA\Matsumoto,Y.\BBOP2010\BBCP.\newblock\BBOQAStructuredModelforJointLearningofArgumentRolesandPredicateSenses.\BBCQ\\newblockIn{\BemProceedingsofthe48thAnnualMeetingoftheAssociationofComputationalLinguistics(ACL2010)},\mbox{\BPGS\98--102}.\end{thebibliography}\clearpage\appendix\ref{subsec:class_method}節で示した反論表現辞書について,収録した反論表現の一覧を以下に載せる.\begin{table}[b]\vspace{-2\Cvs}\caption{反論表現辞書}\input{16table11.txt}\vspace{2\Cvs}\begin{biography}\bioauthor{大和田裕亮}{2011年東京大学工学部電子情報工学科卒業.2013年同大学院情報理工学系研究科・電子情報学専攻修士課程修了.同年よりヤフー株式会社.}\bioauthor{水野淳太}{2012年奈良先端科学技術大学院大学情報科学研究科博士課程修了.同年より東北大学大学院情報科学研究科研究員.2013年より独立行政法人情報通信研究機構耐災害ICT研究センター研究員.博士(工学).自然言語処理,耐災害情報通信の研究に従事.情報処理学会,人工知能学会各会員.}\bioauthor{岡崎直観}{2007年東京大学大学院情報理工学系研究科・電子情報学専攻博士課程修了.同大学院情報理工学系研究科・特別研究員を経て,2011年より東北大学大学院情報科学研究科准教授.自然言語処理,テキストマイニングの研究に従事.情報理工学博士.情報処理学会,人工知能学会,ACL各会員.}\bioauthor{乾健太郎}{1995年東京工業大学大学院情報理工工学研究科博士課程修了.同研究科助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より東北大学大学情報科学研究科教授,現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL,AAAI各会員.}\bioauthor{石塚満}{1971年東京大学工学部電子卒.1976年同大学院博士課程修了.NTT横須賀研究所,東大生産研究所・助教授,同大学工学部電子情報・教授,同情報理工学系研究科創造情報/電子情報・教授を歴任し,2013年東大を退職.専門は人工知能,Web知能化,意味計算,マルチモーダルメディア.人工知能学会・元会長.}\end{biography}\biodate\end{document}
V14N01-02
\section{まえがき} 人間の言語能力をコンピュータ上に実現することを狙った自然言語処理については,近年盛んに研究されている.しかし,かな漢字変換方式の日本語ワープロのように実用システムとして成功した例はまれで,多くは実験システムの域にとどまっている.実際,自然言語の壁は厚く,多くの研究者が従来の言語理論と実際の自然言語との間にギャップがあると感じている.事実,従来の計算言語学は強化されてきたとはいえ,自然言語の持つ論理的な一側面しか説明できず,現実の言語に十分に対応できていない.英語に比べて語順が自由で省略の多い日本語は,句構造解析には不向きとされ,係り受け解析が一般的となっている.また,係り受けが交差する入れ子破りが起こる表現は,係り受け解析では扱えるが,句構造解析による木構造では扱えない.さらに,文内で独自の統語・意味構造をもつ複合名詞や名詞句は,これらに適した個別的な構造解析法を模索する必要がある.現在,主流となっている文節構文論(学校文法)に基づく構文解析では以下の例に示すように構文解析結果が意味と整合性が良くなく,時枝文法風の構文解析の方が解析結果に則って意味がうまく説明できることが指摘されている\cite{水谷1993}.\begin{itemize}\item「梅の花が咲く.」\\この文は「梅の/花が/咲く.」と文節に分割でき,係り受け解析では,「梅の」が「花が」に係り,「花が」が「咲く」に係るが,図\ref{fig:umenohana}に示すように「梅の」は「花」のみに係ることが望ましい.\begin{figure}[b]\centering\includegraphics[width=5.5cm]{umenohana.eps}\caption{「梅の花が咲く.」の入れ子構造}\label{fig:umenohana}\end{figure}\item「山を下り,村に着いた.」\\この文は「山を/下り/村に/着いた.」と文節に分割でき,係り受け解析では,「山を」が「下り」に,「下り」が「着いた」に,「村に」が「着いた」に係るが,図\ref{fig:yamakudari}に示すように「下り」と「着い」をともに「た」が受けることが望ましい.\begin{figure}[t]\centering\includegraphics[width=9cm]{yamakudari.eps}\caption{「山を下り,村に着いた.」の入れ子構造}\label{fig:yamakudari}\par\vspace{20pt}\includegraphics[width=6cm]{sakanaturi.eps}\caption{「魚を釣りに行く.」の入れ子構造}\label{fig:sakanaturi}\end{figure}\item「魚を釣りに行く.」\\この文は「魚を/釣りに/行く.」と分割でき,係り受け解析では,「魚を」が「釣りに」に係り,「釣りに」が「行く」に係るが,図\ref{fig:sakanaturi}に示すように「魚を」は「釣り」のみに係ることが望ましい.この際,「釣り」が連用形名詞であり,名詞と動詞の品詞の二重性をもつことに注意が必要である.\end{itemize}元来,構文解析は文の意味を正しく解析するために行うのであるから,日本語文パーザには意味と親和性のある統語構造を出力することが要求される.日本語文解析全体としては,形態素解析に始まり,構文解析,意味解析と続く流れを想定している.ここで,構文解析と意味解析は分離しているが,構文解析は意味解析を助ける構造を出力することが求められる.すなわち,助詞・助動詞などの機能語,形式名詞から作り出される文の骨格,いわば構造が持つ意味を的確に捕らえておくことが必要である.構文解析そのものは,意味情報を導入することにより多義が発生することを避け,表層的情報・統語的情報のみを用いて解析するものとする.この方針は,長尾\cite{長尾1996}の「文は何らかの新しい情報(知識)を伝えるものであるから,文の構造を理解するために前もって意味的な情報が必要であると仮定することには本質的に問題がある.たとえば未知の分野の専門書などを読む場合,その内容(意味)は文の構造から理解できるという状況が考えられる.」との見解とも一致する.従来から日本語構文解析の主流となっている,係り受け解析に基づくKNP\cite{黒橋他1994}が既に作成されており,句構造の流れをくむHPSGを用いた日本語文解析についての研究\cite{大谷他2000}なども行われている.係り受け解析との対比は以降の章で詳細を述べる.上記のHPSG関連の研究は,主に日本語単文をHPSGで取り扱う上での問題点とその解決策について示したものであり,単文だけでなく,複文,重文などを対象とし,語の単位と機能を整理し直した構文解析の体系を作り出そうとしている本研究の目標と異なるものである.さらに,本論文で提案するパーザでは構文解析と意味解析を分離しており,HPSGのように構文解析と意味解析と融合するのではないため,本論文では特に比較を行わない.本論文では,上記のような日本語構文解析上の問題を解決するものとして,従来の研究では見逃されていた言語の過程的構造\cite{池原他1987,池原他1992,宮崎他1992}に目を向け,三浦の言語モデル(関係意味論に基づく三浦の入れ子構造)とそれらの基づく日本語文法体系(三浦文法)をベースにした意味と親和性のある統語構造を出力する日本語文パーザの枠組みを提案し,その有効性について論じる.最後に,本論文中で意味との整合性が良くないとして取り上げたパターンの出現頻度が低くないことおよびパーザが最低限の解析能力を持つことを実験により検証する. \section{三浦の言語モデルによる文の基本構造} \subsection{言語過程説と三浦の関係意味論}時枝誠記が提唱し,三浦つとむが発展的に継承した言語過程説によれば,言語表現には万人に共通する対象のあり方がそのまま表現されているのではなく,対象のあり方が話者の認識(対象の見方,捉え方,話者の感情・意志・判断などの対象に立ち向かう話者の心的状況)を通して,言語に関する約束事である言語規範(文法,単語の語義・用法など)に従って表現されている.このように対象—認識—表現の過程を辿ることによって言語表現を生成する過程が言語生成である(図\ref{fig:generate_understand}参照).聞き手(読者)が話者(書き手)の言語生成の過程を逆に辿り,言語規範を手がかりに言語表現と話者の認識を対応づけ,聞き手が話者に同化し話者の認識を追体験し,自己の頭の中に話者の認識を再構成し,対象のあり方を推論する過程が言語理解である(図\ref{fig:generate_understand}参照).言語表現には,概念化された対象の姿を表す客体的表現と主体(話者)の対象に関する感情・意志・判断などを直接表した主体表現があり,言語理解において,これらを区別して扱うことが重要である.\begin{figure}[b]\centering\includegraphics[width=7cm]{generate_understand.eps}\caption{言語の過程的構造}\label{fig:generate_understand}\end{figure}時枝の言語過程説,およびそれに基づく日本語文法体系(時枝文法)\cite{時枝1941,時枝1950}を発展的に継承した三浦は,時枝が指摘した主体的表現と客体的表現の言語表現上の違いなどを継承しつつ,時枝が言語の意味を主体的意味作用(主体が対象を認識する仕方)として,話者の活動そのものに求めていたのを排し,意味は表現自体がもっている客観的な関係(言語規範によって表現に固定された対象と認識の関係)であるとした関係意味論\cite{三浦1977,池原1991}を提唱し,それに基づく新しい日本語文法,三浦文法\cite{三浦1967a,三浦1967b,三浦1972,三浦1975,三浦1976}を提案している.三浦の意味論によれば,言語の意味は表現に結び付き固定された対象と認識の関係であるが,対象は直接表現に結合されるのではなく,話者の目を通して得られた認識が表現に結合されるのであるから,より限定的に捉え,表現と認識の関係を意味と考える.コンピュータでは,関係はポインターで表現されるため,表現と話者の認識を対応付けるポインターが意味であり,このようなポインターを張ることが意味解析であるといえる.意味処理には,話者が言語表現に使用した意味上の約束を特定する意味解析と表現内容を把握(追体験)する意味理解の2つのステップがある.意味解析では,辞書上の意味(言語上の約束)の中から表現上の意味(実際に使われた約束)を判定する.意味理解では,特定された約束と聞き手が話者と共通してもつ世界知識を手がかりに聞き手のもつ世界モデルと対応づけ,話者の認識した世界(認識構造)を再現する.\subsection{三浦の入れ子構造}時枝によれば,言語表現は以下のように主体的表現(辞)と客体的表現(詞)に分けられ,文は,辞が詞を包み込むようにして構成された句を,別の句が重層的に包み込んだ入れ子型構造(図\ref{fig:tokieda_ireko}参照)で表される.\begin{figure}[b]\centering\includegraphics{tokieda_ireko.eps}\caption{時枝の入れ子構造}\label{fig:tokieda_ireko}\end{figure}\begin{itemize}\item主体的表現:話者の主観的な感情,要求,意志,判断などを直接表現したものであり,日本語では,助詞,助動詞(陳述を表す零記号,すなわち図\ref{fig:tokieda_ireko}に示すように肯定判断を表すが,表現としては省略された助動詞を含む),感動詞,接続詞,陳述副詞で表される.\item客体的表現:話者が対象を概念化して捉えた表現で,日本語では,名詞,動詞,形容詞,副詞,連体詞,接辞で表される.主観的な感情や意志などであっても,それが話者の対象として捉えられたものであれば概念化し,客体的表現として表される.\end{itemize}時枝は「\underline{私}が読んだ」などの文における代名詞「私」は,主体そのものでなく,主体が客体化されたものであるという``主体の客体化''の問題を提起した.これを対象の認識の立場から発展させ,主体の観念的自己分裂と視点の移動という観点から言語表現を捉えたのは三浦である.三浦は,一人称の表現は見たところ,自分と話者が同一の人間であるが,これを対象として捉えていると言うことは,対象から独立して対象に立ち向かっている人間が存在していることであるとして,対象に立ち向かっている人間は別の人間であるとしている.すなわち,一人称の場合には現実には同一の人間であるように見えても,実は観念的な自己分裂によって観念的な話者が生まれ,この自己分裂した自分と対象になっている自分との関係が一人称として表現されると考えるのである.\begin{figure}[b]\centering\includegraphics[width=8cm]{miura_ireko.eps}\caption{三浦の入れ子構造}\label{fig:miura_ireko}\end{figure}話者と話者自身の関係は,上記のような認識の構造において成立するものであるが,同様の関係が過去や未来を表現する時制の表現,否定表現などでも見られる.話者自身が対象となっていない場合でも,自己分裂した話者は過去や未来の世界に入って行き,対象との関係を現在形で捉えた後,現在の世界に戻って来ると考えるのである.また,否定表現では否定する対象が必要であるが,否定するのであるから現実世界にはその対象がない.そこで,対象が否定されないような仮想世界に自己分裂した話者が入り込み,対象に対し肯定判断をした後,現実世界で否定判断を行うといったネストした世界構造で否定を捉えるのである.三浦は,このような観念的な話者による視点の移動を表すものとして,観念的世界が多重化した入れ子構造の世界の中を自己分裂によって生じた観念的話者が移動する入れ子構造モデル(図\ref{fig:miura_ireko}参照)を提案している.現在の否定表現や過去の表現は,それぞれ(現在の仮想世界/現在の現実世界),(過去の現実世界/現在の現実世界)の二重の入れ子構造となる.また,過去の否定表現は,(過去の仮想世界/過去の現実世界/現在の現実世界)の三重の入れ子構造となる.さらに,過去の否定推量表現は,(他の人の過去の仮想世界/他の人の過去の現実世界/他の人の現在の現実世界/話者の現在の現実世界)の四重の入れ子構造となる.\begin{figure}[t]\centering\includegraphics[width=12cm]{miura_model.eps}\caption{三浦の言語モデル}\label{fig:miura_model}\end{figure}三浦の提唱する言語の過程的構造を図\ref{fig:miura_model}に示す.\subsection{文の基本構造}日本語は,膠着言語に分類される言語であり,小さな単位要素が次々と付着して表現を形成していくという特徴を持つ.これらの単位要素が結合し,表現構造を形成していく過程には一定の手順がある.言語過程説によれば,日本語の表現は客体的表現と主体的表現が入れ子になった構造として捉えることができる.ここで,表現の元となる対象世界を構成する一つの事象は,実体・属性・関係の3要素から構成される.これらに対する話者の認識を言語規範を介して表現に結び付けるときに最も基本となるのは,概念化された対象(実体・属性・関係)とそれを表現する単語(詞)との対応関係,ならびに概念化された対象に対する話者自身(主体)のあり方と単語(辞)との関係である.前者に対して詞が選択され,後者においてそれに辞が付加される.このようにして概念化された対象および主体と単語との結び付きが形成されると,次にそれらの相互関係が構造化され,認識された構造と表現構造との対応付けが行われる.この過程で単語と単語が統語規則に従って構造化され,文が形成される\cite{池原他1990}. \section{三浦文法に基づく日本語品詞体系} 三浦文法では他の多くの文法とは異なり,表現に用いられる単語を文構成上の機能や単語が表す内容で分類するのではなく,対象の種類とその捉え方で分類する.三浦文法に基づく品詞分類の基本的考え方,それに基づき作成された日本語の品詞体系の詳細については\cite{宮崎他1995}に述べられているので,ここでは従来の学校文法との主な相違点のみ述べておく.三浦文法に基づく品詞体系と学校文法との主要な相違点は,以下の通りである\cite{宮崎他1995}.\begin{enumerate}\item形容動詞を独立した品詞とはせず,名詞(静詞)+助動詞(肯定判断)「だ」/名詞(静詞)+格助詞「に」とした.\item受身・使役の助動詞(れる,られる,せる,させる)は動的属性を付与する詞とし,動詞型接尾辞とした.\item希望の助動詞(たい)は静的属性を付与する詞とし,形容詞型接尾辞とした.\item伝聞の助動詞(そうだ),比況の助動詞(ようだ),様相の助動詞(そうだ)は助動詞とせず,それぞれ,形式名詞(そう,よう)/静詞型接尾辞(そう)+肯定判断の助動詞(だ)とした.\item準体助詞(の),終助詞(の)は形式名詞とした.\item接続助詞(ので,のに),終助詞(のだ)はそれぞれ,形式名詞(の)+[格助詞(で)/肯定判断の助動詞(だ)の連用形1(で)]/格助詞(に)/肯定判断の助動詞(だ)とした.\item接続助詞(て,で,たり,だり)は既定判断の助動詞(た,だ)の連用形1とした.\item補助動詞(ある),補助形容詞(ない)はそれぞれ,肯定判断の助動詞,否定判断の助動詞とした.\\例:本で\underline{ある}/\underline{ない},静かで\underline{ある}/\underline{ない},重く\underline{ない},書いて\underline{ある}/\underline{ない}\item既定判断の助動詞の連用形1(て,で)に後接する動詞(いる,みる,くれる,あげる,くる,もらう,やる,しまう,おく,いく,下さる,いただく,…),形容詞連用形1/[静詞+格助詞(に)]に後接する動詞(する,なる),およびサ変動詞型名詞/連用形名詞に後接する動詞(する,できる,下さる,なさる,致す,申す,申し上げる,いただく,願う,たまう,…)は,形式動詞とする.\\例:走って\underline{いる},美しく\underline{なる},静かに\underline{なる},開発\underline{する}\item動詞,形容詞,動詞型接尾辞,形容詞型接尾辞のような活用語の活用形は,従来の学校文法における6活用形を基本とし,以下の変更を加えた\cite{宮崎他1995}.未然形を以下の2通りに細分化した.\begin{itemize}\item未然形1:推量形[〜う,〜よう]\item未然形2:否定形[〜ぬ,〜ない]\end{itemize}連用形を以下の3通りに細分化した.\begin{itemize}\item連用中止形[〜,〜ます]・連用修飾形\itemイ音便形/促音便形/撥音便形[〜た,〜だ]\item形容しウ音便形[〜ございます]・動詞ウ音便形[〜た,〜だ]\end{itemize}形容詞のカリ活用語尾は以下のように扱う.\begin{itemize}\itemかろ(未然形1)→\\く(形容詞語尾・連用形1)+あろ(助動詞「ある」の未然形1)\itemかっ(連用形2)→\\く(形容詞語尾・連用形1)+あっ(助動詞「ある」の連用形2)\end{itemize}タルト型形容動詞活用語尾は,以下のように扱う.\begin{itemize}\itemと(連用形1)→と(格助詞)\itemたる(連体形)→と(格助詞)+ある(形式動詞「ある」の連体形)\end{itemize}\end{enumerate} \section{意味と整合性のよい構文解析} 意味は表現と認識,対象の結びつきであるという観点に立てば,構文は対象を捉える枠組みであると考えられる.枠組みは対象の捉え方を立体化して表現するための構造体である.単語,句,節,文など,対象のあり方と認識のしかたに応じてそれを表現する枠組みも種々存在する.言語表現の解析では,与えられた表現がどのような枠組みで表現されたものか,またその枠組みはどのような認識構造を表す規則を手がかりに,実際はどんな意味で使われているかを明らかにする必要がある.いわゆる,構文解析は言語表現の統語構造を明らかにする過程であり,表現の入れ子構造を捉え,それぞれの要素間の関係を明らかにすることである.三浦文法による日本語品詞体系\cite{宮崎他1995}は,構文構造として,従来の句構造や係り受け構造とは異なった三浦の入れ子構造を想定しており,三浦の言語モデルと親和性がよい.三浦文法は時枝文法を発展的に継承しており,意味と整合性のよい日本語文パーザの実現が期待できる.ここで,工学的には三浦の入れ子構造をコンピュータ内に実現する枠組みとして,句構造解析風の木構造を用いる.以下,従来の句構造解析とは異なる,三浦の入れ子構造に基づく意味的にも正しい解析木を得るため,文法規則の記述や文法規則の適用条件の制御をどのように行うかについて述べる.本章では,構文構造が表す意味という観点から以下の4点の意味と整合性の良くないパターンについて示した.構文構造が表す意味とは,助詞・助動詞などの機能語,形式名詞から作り出される枠組みを想定している.そして,文は単文という基本的な構造をベースとして,これを接続,埋め込みという仕組みにより,単文相当の節を組み合わせてさらに複雑な構造(重文・複文)を作り出している.このように単文からボトムアップに組み上げていく仕組みと機能語・形式名詞による枠組みという観点から4点の意味と整合性の良くないパターンを取り上げた.現時点ではこのパターンに網羅性があると考える.また,水谷\cite{水谷1993}は形容動詞の活用語尾,助動詞「〜た」の分配法則的な広がりを持つスコープ,係り受け交差について言及しており,これも参考にしている.この網羅性の実験的な検証は5.2節にて示す.\begin{figure}[b]\centering\includegraphics[width=10cm]{gakko_miura.eps}\caption{構文解析結果と意味との整合性}\label{fig:gakko_miura}\end{figure}\subsection{一対多・多対一の係り受け関係}「山を下り,村に着いた」は,学校文法風に解析すれば,図\ref{fig:gakko_miura}(a)のような意味的におかしい解析結果を得るが,三浦文法風に解析すれば,図\ref{fig:gakko_miura}(b)のように意味的に正しい解析ができる[助動詞「た」の受けの範囲(スコープ)は,(b)の場合動詞「下る」と「着く」を含む文全体となるが,(a)の場合動詞「着く」のみとなる].また,「太郎は今日山を下り,村に着いた」は,学校文法風の係り受け解析では,図\ref{fig:gakko_miura}(c)のように「太郎は」「今日」の係り先は「下り」か「着いた」のどちらか一方となるが(通常,係り受け解析では係り受けの曖昧さの爆発的増大を抑止するため,係り受けの非交差条件と係り先は1つであるという制約をもうけている),三浦文法風に解析すれば,図\ref{fig:gakko_miura}(d)のように「太郎は」「今日」が共に「下り」「着い」の両方に係っているという意味的にも正しい解析結果を入れ子構造により自然に表現することができる(助動詞「た」のスコープは,(d)の場合動詞「下る」と「着く」を含む文全体となるが,(c)の場合動詞「着く」のみとなる).三浦文法に基づく文法規則,および日本語文パーザにおける文法規則の適用条件の制御などによって,従来の句構造解析と異なる,意味的にも正しい解析木を得ることができる.図\ref{fig:gakko_miura}の(b),および(d)の入れ子構造に対応する解析木を図\ref{fig:koubun_seigou}(a)と(b)に示す.\begin{figure}[t]\centering\includegraphics[width=13.5cm]{koubun_seigou.eps}\caption{意味と整合性のよい解析木}\label{fig:koubun_seigou}\end{figure}\subsection{主題の「は」と対照の「は」の扱い}係助詞・副助詞「は」には,「〜は」の係りの範囲(スコープ)が異なる,構文構造に大きな差異を生じさせる用法(主題の「は」と対照の「は」)がある\cite{沼崎他1995}.例えば,「彼は金は無いが,アイデアはたくさん持っていた」では,上記の2種類の「は」が使われている.「彼は」の「は」はいわゆる主題の「は」であり,広いスコープをもち,「金は無いが,アイデアはたくさん持ってい」全体に係る.「金は」「アイデアは」の「は」は,対で用いられる対照の「は」であり,それぞれ対となる部分に限定して係る.「金は」は「無い」に係り,「アイデアは」は「たくさん持ってい」にのみ係る.このように,「は」は用法によりスコープが異なるため,これを区別する処理を日本語パーザに導入することで,例に示した文では,図\ref{fig:ha}に示すような解析木を出力できる.\begin{figure}[b]\centering\includegraphics[width=10cm]{ha.eps}\caption{2種類の「は」を含む文の入れ子構造}\label{fig:ha}\end{figure}\begin{figure}[t]\centering\includegraphics[width=12cm]{hinshi.eps}\caption{二つの品詞性のある語を含む文の入れ子構造}\label{fig:hinshi}\end{figure}\subsection{文中に局所的な入れ子構造をもつ文}\subsubsection{二つの品詞性のある語の扱い}一語が二つの品詞性を持つ場合(一語が体と用を兼ねて使われる場合等)\pagebreakの例として「魚を釣りに行く」という文をとりあげる.この表現は図\ref{fig:hinshi}(a)のような入れ子構造と見ることができる.「釣り」は二重線の内側の世界では「魚を」という格要素をとる動詞「釣り」として働いているが,その外側の世界では局所的な文「魚を釣り」全体を実体化(名詞化)したうえで,格助詞「に」に接続して,動詞「行く」の格要素を構成している.「本を読みはしない」という文では,話者は「本を読む」という事象を取り上げ,「は」で特殊性という主体判断を下した後,その動作に対して否定の判断を下している(\cite{沼崎他1995}を参照).ここで,事象の特殊性を表すために,取り上げた事象全体の捉え直しも行われ,実体化(体言化)が行われている.すなわち,この表現は図\ref{fig:hinshi}(b)のような入れ子構造と見ることができる.「読む」は二重線の内側の世界では動詞として働いているが,その外の世界の構成要素で体言の一部分を構成していると考えられる.このように,実際の表現の場面では,ある品詞属性を持つ単語が組み合わさって文要素が構成されるという単純な図式では説明できないものを図\ref{fig:hinshi}(a)〜(b)のように入れ子構造によって自然に扱うことができる.「うなぎを食べに浜松に行く」の解析木を図\ref{fig:unagi_tree_tgif}(a)〜(b)に示す.(a)は「うなぎを」が「食べ」に係って局所的な入れ子構造を作っている意味的にも正しい解析木である.これに対して,(b)は「うなぎを」が「行く」に係る意味的に適切でない解析木である.日本語パーザでは,意味的に不適切な解析木を含む複数の解析木が出力される.「行く」に関する格パターンを用いた意味解析などによって「うなぎを」が「行く」に係らないことを判定することにより,解析木の曖昧さを絞り込み,意味的にも正しい解析木を得ることができる.\begin{figure}[b]\centering\includegraphics[width=8cm]{unagi_tree_tgif.eps}\caption{「うなぎを食べに浜松に行く」の解析木}\label{fig:unagi_tree_tgif}\end{figure}\subsubsection{埋め込み文に形容動詞述部を含む文の扱い}「尾張屋の在庫が潤沢な秘密はこれですよ」における「潤沢+な」は,学校文法では形容動詞語幹+形容動詞活用語尾(連体形)であるが,三浦文法では状態性名詞(静詞)+肯定判断の助動詞「だ」の連体形となる.三浦の入れ子構造では,主体表現である助動詞は客体表現である単文全体を包み込むような構造として表される.例文における「潤沢な」が「秘密」を連体修飾しているのではなく,「尾張屋の在庫が潤沢」全体が「秘密」に係っているのである.このように,意味的にも正しい構造(図\ref{fig:owari})を出力できる.\begin{figure}[t]\centering\includegraphics[width=7cm]{owari.eps}\caption{埋め込み文に形容動詞述部含む文の入れ子構造}\label{fig:owari}\par\vspace{20pt}\includegraphics[width=7cm]{keishiki.eps}\caption{埋め込み文の被修飾名詞が形式名詞の場合}\label{fig:keishiki}\end{figure}\subsubsection{埋め込み文の被修飾名詞が形式名詞の場合の扱い}被修飾名詞が形式名詞(学校文法で準体助詞・終助詞とされる「の」,学校文法で伝聞の助動詞「そうだ」・比況の助動詞「ようだ」の部分である「そう」「よう」を含む)である埋め込み文は,図\ref{fig:keishiki}のように文中に局所的な入れ子構造をもつ文となる.\subsection{入れ子破りの表現の扱い}係り受けが交差し入れ子破りが生じる場合,句構造解析では構文木が生成されない.一方,係り受け解析では,係り受け構造が得られるが,係り受けの曖昧さが爆発的に増大してしまう.ここでは,係り受けの交差,すなわち入れ子破りが,陳述副詞による呼応,および単文スコープ外への格要素の移動に伴って起こることに着目して,痕跡という考えを導入することによって,句構造解析風の木構造で入れ子破りに対応する方法を提案する.\subsubsection{陳述副詞による呼応}\label{subsub441}主体表現である陳述副詞と主体表現との呼応では入れ子破りが生じる.例えば,「本を決して読まない」のように,主体表現である陳述副詞「決して」と否定の助動詞「ない」との呼応では,図\ref{fig:cross_depend_fukuji2}(a)(b)のような入れ子破りが生じる.ここで,陳述副詞「決して」はその係り先である助動詞「ない」の直前に痕跡(陳述副詞に係わる痕跡として副辞痕跡と呼ぶ)を残し,そこから移動してきたと考える.解析では,陳述副詞をその本来の位置である副辞痕跡にあるものとして,図\ref{fig:cross_depend_fukuji2}(c)のような,係り受けの交差しない,入れ子構造の解析木が得られる.\begin{figure}[b]\centering\includegraphics[width=7cm]{cross_depend_fukuji2.eps}\caption{陳述副詞の呼応による入れ子破りとその対応策}\label{fig:cross_depend_fukuji2}\end{figure}\subsubsection{単文スコープ外への格要素の移動}「うなぎを浜松に食べに電車で行った」でも図\ref{fig:cross_depend2}(a)(b)のように入れ子破りが生じる.これは本来,動詞「行く」に係る格要素「浜松に」が動詞「行く」の単文スコープの外である,動詞「食べる」の単文スコープ内に移動してきたことによって生じたものである.見かけ上,動詞「食べる」の単文スコープ内にあるため,統語的には「食べる」に係るようにみえるが,意味的には,格要素「浜松に」は直近の動詞「食べる」に係らず,後方の動詞「行く」に係る.このような単文スコープ外への格要素の移動も入れ子破りの原因となる.このような場合,\ref{subsub441}と同様に本来,格要素があった単文スコープ内に痕跡(格要素に係わる痕跡として格要素痕跡と呼ぶ)を残し,そこから単文スコープ外に移動してきたものと考える.解析では,格要素をその本来の位置である格要素痕跡にあるものとして,図\ref{fig:cross_depend2}(c)のような,係り受けの交差しない,入れ子構造の解析木が得られる.なお,すべての格要素は直近の用言の単文スコープ内にあるものとして,格要素—用言間の係り受けの可否を用言の格パターンなどを参照してチェックする.格要素—用言間の係り受け可の場合,当該格要素は当該用言の単文スコープ内にあると判断する.格要素—用言間の係り受け不可の場合,当該格要素は当該用言より後方にある用言の単文スコープ内にあると判断し,当該格要素とできるだけ近い用言の単文スコープ内で当該格要素と係り受け可となる用言をみつけ,その単文スコープ内に格要素痕跡を設定する.\begin{figure}[t]\centering\includegraphics[width=8cm]{cross_depend2.eps}\caption{単文スコープ外への格要素の移動による入れ子破りとその対応策}\label{fig:cross_depend2}\end{figure} \section{パーザへの実装と有効性の検証} \subsection{パーザへの実装}前節において述べた,意味と親和性のある統語構造を出力する日本語文パーザの有効性を検証するため,拡張型のチャートパーザSchart\cite{川辺他2005}に日本語文法規則(文法規則数138)を実装し,日本語文パーザを試作した.前節で示した事例に関して試作した日本語文パーザによって出力される構文木を示す.解析結果の構文木は複数出力されるが,記述枠組みとしての妥当性を示すために,\pagebreak複数の解候補木の中から意味的に適切な構文木を提示する.図\ref{fig:tarokudari_tree}は「太郎は山を下り,村に着いた.」の解析結果である.一対多・多対一の係り受け関係の例である.「太郎は」は「山を下り」と「村に着い」の両方に係り,その全体がさらに「だ」に結びついて一つの文を作っている.\begin{figure}[t]\centering\includegraphics[width=7cm]{tarokudari_tree.eps}\caption{「太郎は山を下り,村に着いた.」の解析結果}\vspace{2\baselineskip}\label{fig:tarokudari_tree}\end{figure}図\ref{fig:kane_idea_tree}は「彼は金は無いが,アイデアはたくさん持っていた.」の解析結果である.主題の「は」と対照の「は」の違いの例である.「金は無い」と「アイデアはたくさん持ってい」が対照の「は」により対になり,それらに対して「彼は」が係り,最後に「た」が結び付く形となっている.\begin{figure}[t]\centering\includegraphics[width=8cm]{kane_idea_tree.eps}\caption{「彼は金は無いが,アイデアはたくさん持っていた.」の解析結果}\label{fig:kane_idea_tree}\end{figure}図\ref{fig:honyomi_tree}は「本を読みはしない.」の解析結果である.一語が二つの品詞性を持つ場合の例である.連用形名詞「読み」は動詞と名詞の二つの品詞性を持つ.「読み」は,「本を」という格要素を取る動詞としての働きと動詞「し」の格要素となる名詞としての働きをする.\begin{figure}[p]\centering\includegraphics[scale=0.9]{honyomi_tree.eps}\caption{「本を読みはしない.」の解析結果}\label{fig:honyomi_tree}\par\vspace{18pt}\includegraphics[scale=0.9]{unagi_hamamatsu_tree.eps}\caption{「うなぎを食べに浜松に行く.」の解析結果}\label{fig:unagi_hamamatsu_tree}\end{figure}図\ref{fig:unagi_hamamatsu_tree}は「うなぎを食べに浜松に行く.」の解析結果である.これも図\ref{fig:honyomi_tree}と同様に一語が二つの品詞性を持つ場合の例である.「うなぎを食べ」全体が「に」に係り,動詞「行く」の格要素としての働きをする.図\ref{fig:owariya_tree}は「尾張屋の在庫が潤沢な理由はこれですよ.」の解析結果である.埋め込み文に形容動詞述部を含む文の例である.「尾張屋の在庫が」の部分全体が「潤沢」に係る構造となっている.\begin{figure}[b]\vspace{1\baselineskip}\centering\includegraphics{owariya_tree.eps}\caption{「尾張屋の在庫が潤沢な理由はこれですよ.」の解析結果}\label{fig:owariya_tree}\end{figure}図\ref{fig:kaoaka_tree}は「顔が赤いのがわかる」の解析結果である.埋め込み文の被修飾名詞が形式名詞の場合の例である.「顔が赤い」が形式名詞「の」に係る構造となっている.\begin{figure}[p]\centering\includegraphics{kaoaka_tree.eps}\caption{「顔が赤いのがわかる.」の解析結果}\label{fig:kaoaka_tree}\par\vspace{20pt}\includegraphics{fukuji_tree.eps}\caption{「本を決して読まない.」の解析結果}\label{fig:fukuji_tree}\end{figure}図\ref{fig:fukuji_tree}は「本を決して読まない.」の解析結果である.この文は陳述副詞による呼応を含み,入れ子破りが生じる.陳述副詞「決して」が意味的には「ない」に係るということを明示するため,「ない」の直前に副辞痕跡として示す.これにより係り受け交差の問題を解消している.入れ子破りのもう一つの例として,「うなぎを浜松に食べに電車で行った.」のように格要素の移動が起こっている文について既に述べた.このような文では,格要素の移動を検出するために格パターンを利用する必要がある.本論文のパーザでは,意味的な情報をできるだけ用いず,表層的な情報・統語的な情報を用いることを前提としている.そのため,構文解析の段階では格要素の移動がないものとして格要素を直近の述部に掛け,意味解析の段階で格要素の移動の検出および痕跡の表示を行う.\subsection{日本語文パーザの有効性}試作した日本語文パーザにおける有効性を示すため,一般的な文中にどの程度,本論文中で示した意味との整合性が良くないパターンが存在するか,解析結果に意味的に正しい文がどの程度含まれるかを調べた.この検証の意義は,これらの意味との整合性が良くないパターンの出現頻度は低くないこと,および,試作した日本語文パーザが最低限の解析能力を持つことを示すことによりパーザの有効性を示すことにある.対象とする文は以下の通り.\begin{itemize}\item平均文字数:19.4字\item文数:重文・複文各50文,合計100文\item分野:和英辞典の例文\end{itemize}本論文中で述べたパターンを以下のように分類する(表\ref{tab:bunrui}).\begin{table}[b]\caption{文の分類}\label{tab:bunrui}\centering\begin{tabular}{|l|l|}\hlineタイプ1&一対多・多対一の係り受け関係を含む文\\\hlineタイプ2&二つの品詞性のある語を含む文\\\hlineタイプ3&埋め込み文に形容動詞述部を含む文\\\hlineタイプ4&埋め込み文の被修飾名詞が形式名詞という文\\\hlineタイプ5&陳述副詞による呼応を含む文\\\hlineタイプ6&単文スコープ外への格要素の移動を含む文\\\hline\end{tabular}\end{table}まず,例文中で上のタイプがどの程度存在するかを示す(表\ref{tab:frequency}).複数のタイプが該当する場合には,複数を選択する.\begin{table}[t]\begin{minipage}[t]{0.45\textwidth}\caption{例文中の各タイプの出現率}\label{tab:frequency}\centering\begin{tabular}{|l|r|}\hline\multicolumn{1}{|c|}{タイプ}&出現率(\%)\\\hline\hline1&6\\\hline2&1\\\hline3&4\\\hline4&23\\\hline5&4\\\hline6&0\\\hline\hlineいずれか&33\\\hline\end{tabular}\end{minipage}\begin{minipage}[t]{0.45\textwidth}\caption{意味的に正しい解析結果を含む割合}\label{tab:precision}\centering\begin{tabular}{|l|r|}\hline文種&正解含有率(\%)\\\hline\hline重文&91.3\\\hline複文&83.3\\\hline\hline全体&87.5\\\hline\end{tabular}\end{minipage}\vspace{2\baselineskip}\end{table}さらに,例文の解析結果に意味的に正しい文がどの程度含まれるかを示す(表\ref{tab:precision}).\begin{displaymath}正解含有率(\%)=(意味的に正しい解析結果を含む文数)/(形態素解析誤りを含まない文数)\times100\end{displaymath} \section{むすび} 本論文では,関係意味論と三浦文法をベースとした意味と親和性のある統語構造を出力する日本語文パーザの枠組みを提案した.さらに,日本語文パーザにその枠組みを実装し,実験を通してその有効性を示した.これにより従来の学校文法に基づいた日本語文パーザでは意味と親和性のある解析結果が得られない点について改善することができることを示した.今後の課題として,複数の解析木が得られた場合,意味的にも正しい解析木を決定する方法について検討する必要がある.\acknowledgmentSchartパーザを提供していただいた川辺諭氏,有用な意見をいただいた新潟大学工学部情報工学科・宮崎研究室の学生諸君に深く感謝いたします.\bibliographystyle{jnlpbbl_1.1}\begin{thebibliography}{}\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA林}{池原\Jetal}{1987}]{池原他1987}池原\JBA宮崎\JBA白井\JBA林\BBOP1987\BBCP.\newblock\JBOQ言語における話者の認識と多段翻訳方式\JBCQ\\newblock\Jem{情処論},{\Bbf28}(12),\mbox{\BPGS\1269--1279}.\bibitem[\protect\BCAY{池原\JBA白井}{池原\JBA白井}{1990}]{池原他1990}池原\JBA白井\BBOP1990\BBCP.\newblock\JBOQ日英機械翻訳機能試験項目の体系化\JBCQ\\newblock信学技報,NLC90-43.\newblockpp.~17--24.\bibitem[\protect\BCAY{池原}{池原}{1991}]{池原1991}池原悟\BBOP1991\BBCP.\newblock\JBOQ言語表現の意味\JBCQ\\newblock\Jem{人工知能学会誌},{\Bbf6}(2),\mbox{\BPGS\290--291}.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井}{池原\Jetal}{1992}]{池原他1992}池原\JBA宮崎\JBA白井\BBOP1992\BBCP.\newblock\JBOQ言語過程説から見た多段翻訳方式の意義\JBCQ\\newblock自然言語処理の新しい応用シンポジウム論文集,ソフトウェア科学会/電子情報通信学会.\newblockpp.~139--140.\bibitem[\protect\BCAY{川辺\JBA宮崎}{川辺\JBA宮崎}{2005}]{川辺他2005}川辺\JBA宮崎\BBOP2005\BBCP.\newblock\JBOQ構造を含む生成規則を扱える拡張型チャートパーザ—Schartパーザの実装—\JBCQ\\newblock言語処理学会第11回年次発表論文集.\newblockpp.~911--914.\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1994}]{黒橋他1994}黒橋\JBA長尾\BBOP1994\BBCP.\newblock\JBOQ並列構造の検出に基づく長い日本語文の構文解析\JBCQ\\newblock\Jem{自然言語処理},{\Bbf1}(1),\mbox{\BPGS\35--57}.\bibitem[\protect\BCAY{宮崎\JBA池原\JBA白井}{宮崎\Jetal}{1992}]{宮崎他1992}宮崎\JBA池原\JBA白井\BBOP1992\BBCP.\newblock\JBOQ言語の過程的構造と自然言語処理\JBCQ\\newblock自然言語処理の新しい応用シンポジウム論文集,ソフトウェア科学会/電子情報通信学会.\newblockpp.~60--69.\bibitem[\protect\BCAY{宮崎\JBA白井\JBA池原}{宮崎\Jetal}{1995}]{宮崎他1995}宮崎\JBA白井\JBA池原\BBOP1995\BBCP.\newblock\JBOQ言語過程説に基づく日本語品詞の体系化とその効用\JBCQ\\newblock\Jem{自然言語処理},{\Bbf2}(3),\mbox{\BPGS\3--25}.\bibitem[\protect\BCAY{水谷}{水谷}{1993}]{水谷1993}水谷静夫\BBOP1993\BBCP.\newblock\JBOQ意味・構文の関係を考へる九十例\JBCQ\\newblock\Jem{計量国語学},{\Bbf19}(1),\mbox{\BPGS\1--14}.\bibitem[\protect\BCAY{長尾眞}{長尾眞}{1996}]{長尾1996}長尾眞\BBOP1996\BBCP.\newblock\JBOQ岩波講座ソフトウェア科学15自然言語処理\JBCQ\\newblock岩波書店.\newblockpp.~180--181.\bibitem[\protect\BCAY{沼崎\JBA宮崎}{沼崎\JBA宮崎}{1995}]{沼崎他1995}沼崎\JBA宮崎\BBOP1995\BBCP.\newblock\JBOQ話者の対象認識過程に基づく日本語助詞「が」と「は」の意味分析とパーザへの実装\JBCQ\\newblock\Jem{自然言語処理},{\Bbf2}(4),\mbox{\BPGS\67--81}.\bibitem[\protect\BCAY{大谷\JBA宮田\JBA松本}{大谷\Jetal}{2000}]{大谷他2000}大谷\JBA宮田\JBA松本\BBOP2000\BBCP.\newblock\JBOQHPSGにもとづく日本語文法について実装に向けての精緻化・拡張\JBCQ\\newblock\Jem{自然言語処理},{\Bbf7}(5),\mbox{\BPGS\19--49}.\bibitem[\protect\BCAY{三浦つとむ}{三浦つとむ}{1967a}]{三浦1967a}三浦つとむ\BBOP1967a\BBCP.\newblock\Jem{認識と言語の理論,第一部}.\newblock勁草書房.\bibitem[\protect\BCAY{三浦つとむ}{三浦つとむ}{1967b}]{三浦1967b}三浦つとむ\BBOP1967b\BBCP.\newblock\Jem{認識と言語の理論,第二部}.\newblock勁草書房.\bibitem[\protect\BCAY{三浦つとむ}{三浦つとむ}{1972}]{三浦1972}三浦つとむ\BBOP1972\BBCP.\newblock\Jem{認識と言語の理論,第三部}.\newblock勁草書房.\bibitem[\protect\BCAY{三浦つとむ}{三浦つとむ}{1975}]{三浦1975}三浦つとむ\BBOP1975\BBCP.\newblock\Jem{日本語の文法}.\newblock勁草書房.\bibitem[\protect\BCAY{三浦つとむ}{三浦つとむ}{1976}]{三浦1976}三浦つとむ\BBOP1976\BBCP.\newblock\Jem{日本語とはどういう言語か}.\newblock講談社.\bibitem[\protect\BCAY{三浦つとむ}{三浦つとむ}{1977}]{三浦1977}三浦つとむ\BBOP1977\BBCP.\newblock\Jem{言語学と記号学}.\newblock勁草書房.\bibitem[\protect\BCAY{時枝誠記}{時枝誠記}{1941}]{時枝1941}時枝誠記\BBOP1941\BBCP.\newblock\Jem{国語学原論}.\newblock岩波書店.\bibitem[\protect\BCAY{時枝誠記}{時枝誠記}{1950}]{時枝1950}時枝誠記\BBOP1950\BBCP.\newblock\Jem{日本文法口語篇}.\newblock岩波書店.\end{thebibliography}\vspace{1\baselineskip}\begin{biography}\bioauthor{武本裕}{1999年新潟大学工学部情報工学科卒業.2001年新潟大学大学院自然科学研究科博士前期課程修了.同年新潟大学大学院自然科学研究科博士後期課程入学.現在に至る.日本語構文解析,機械翻訳などの自然言語処理とその応用システムの研究に従事.情報処理学会会員.}\bioauthor{宮崎正弘}{1969年東京工業大学工学部電気工学科卒業.同年日本電信電話公社に入社.以来,電気通信研究所においてコンピュータシステムの性能評価法,日本文音声出力システムや機械翻訳などの研究に従事.1989年より新潟大学工学部情報工学科教授.自然言語処理とその応用システムの研究に従事.2006年5月,宮崎研究室の研究成果を活用して自然言語処理応用システムの製品開発を行う大学発ベンチャー企業「(株)ラングテック」を設立,代表取締役社長を兼務.工学博士.1995年日本科学技術情報センター賞(学術賞)受賞.2002年電気通信普及財団賞(テレコム・システム技術賞)受賞.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,各会員.}\end{biography}\biodate\end{document}
V07N02-04
\section{はじめに} \label{sec:introduction}固有表現(NE=NamedEntity)抽出は情報抽出における基礎技術として認識されているだけでなく,形態素,構文解析の精度向上にもつながる重要な技術である.米国では1980年代からMUC(MessageUnderstandingConference)\cite{Muc:homepage}のようなコンテストが行なわれ,その技術の向上が図られてきた.日本においても1998年からコンテスト形式のプロジェクト「IREX(InformationRetrievalandExtractionExercise)」が始められ,そのタスクの一つとして固有表現抽出が盛り込まれた.このタスクで固有表現として抽出するのは,「郵政省」のように組織の名称を表すもの,「小渕恵三」のように人名を表すもの,「神戸」のように地名を表すもの,「カローラ」のように固有物の名称を表すものおよび,「9月28日」,「午後3時」,「100万円」,「10\%」のように日付,時間,金銭,割合を表す表現である.このように,固有名詞的表現だけでなく,時間表現,数値表現も抽出の対象としているため,本論文ではそれらをすべてまとめて固有表現と呼ぶ.このような固有表現は多種多様で,次々と新たに生み出されるためそのすべてを辞書に登録しておくことは不可能である.また,同じ表現でも,あるときは地名としてまたあるときは人名として使われるというようにタイプに曖昧性がある.そのため,テキストが与えられたときその中でどの部分がどのタイプの固有表現であるかを同定するのは容易ではない.固有表現を抽出する方法には大きく分けると,人手で作成した規則に基づく方法と学習に基づく方法がある.固有表現の定義は抽出したものを何に応用するかによって異なってくるものであるため,前者の方法では定義が変わるたびに規則を人手で作成し直す必要がありコストがかかる.後者の方法は学習コーパスを作る必要があるが,データスパースネスに強い学習モデルを使えばそれほど大量のコーパスがなくても高い精度が得られる.そこで我々は後者の方法をとることにした.この学習に基づく方法は英語での固有表現抽出の研究でも用いられている.例えば,HMM\cite{Bikel:97,Miller:98},決定木モデル\cite{Cowie:95},ME(最大エントロピー)モデル\cite{Borthwick:98},共起情報\cite{Lin:98},誤り駆動の書き換え規則\cite{Aberdeen:95}などに基づくシステムがある.学習に基づく方法としてMUCのコンテストで最も精度が高かったのはHMMに基づくNymbleという名のシステムである.このシステムは基本的に以下のような手法をとっている.まず学習では,MUCのNEタスクで定義された「PERSON」や「ORGANIZATION」などの固有表現およびそれ以外を表す「NOT-A-NAME」をそれぞれ状態として持つ状態遷移図を用意し,ある状態で,ある単語が入力されたときにどの状態に移るかを状態遷移確率として求める.そして,解析する際には,ビタビアルゴリズムを用いて,入力された単語列が辿り得る状態のパスうち,最適なパスを探索し,順次,辿った状態を出力することで固有表現を抽出する.他の学習手法を用いたシステムも確率の計算方法は違うが同様の手法をとっていることが多い.Borthwickらは,この学習に基づくシステムおよび人手で作成した規則に基づくシステムの中から,それぞれMUCで比較的精度の高かったシステムを選びそれらを学習に基づく方法によって統合することによってより高い精度を得ている\cite{Borthwick:98}.あるデータに対しては人間のパフォーマンスを越えるような結果も得られている\cite{Borthwick_muc:98}.学習に基づく方法は固有表現抽出の研究以外に形態素解析や構文解析においてもよく用いられている\cite{Uchimoto99_jinbun}.学習モデルとしてはMEモデルを用いたものが優れた精度を得ていることが多く\cite{ratnaparkhi:emnlp96,ratnaparkhi:emnlp97,Uchimoto:eacl99},データスパースネスに強いため,我々は固有表現抽出においてもこのMEモデルを用いることにした.さらに後処理として,誤り駆動により獲得した書き換え規則を用いる.この書き換え規則を用いる手法は形態素解析でも用いられている\cite{Brill:95,Hisamitsu:98}.固有表現の定義はIREX固有表現抽出タスク(IREX-NE)の定義\cite{irex:homepage}に基づくものとする.その定義によると,固有表現には「日本」や「国立/公文書/館」(/は形態素の区切りを表す)のように一つあるいは複数の形態素からなるもの,あるいは「在米」の「米」,「兵庫/県内」の「兵庫県」のように形態素単位より短い部分文字列を含むものの2種類がある.前者の固有表現は,固有表現の始まり,中間,終りなどを表すラベルを40個用意し,各々の形態素に対し付与すべきラベルを推定することによって抽出する.ラベルの推定にはMEモデルを用いる.このMEモデルでは学習コーパスで観測される素性と各々の形態素に付与すべきラベルとの関係を学習する.ここで素性とはラベル付与の手がかりとなる情報のことであり,我々の場合,着目している形態素を含む前後2形態素ずつ合計5形態素に関する見出し語,品詞の情報のことである.ラベルを推定する際には,入力文を形態素解析し,MEモデルを用いてそれぞれの形態素ごとにそこで観測される素性から各ラベルの尤もらしさを確率として計算し,一文全体における確率の積の値が高くなり,かつラベルとラベルの間の連接規則を満たすように各々の形態素に付与するラベルを決める.一文における最適解の探索にはビタビアルゴリズムを用いる.一方,後者の固有表現のように形態素単位より短い部分文字列を含む固有表現は上記の方法では抽出できないので,MEモデルを用いてラベルを決めた後に書き換え規則を適用することによって抽出する.書き換え規則は学習コーパスに対するシステムの解析結果とコーパスの正解データとの差異を調べることによって自動獲得することができる.一つあるいは複数の形態素からなる固有表現についても同様に書き換え規則を適用することは可能であるが,本論文ではMEモデルについてはラベル付けの精度に重点を置き,書き換え規則についてはできるだけ簡便な獲得方法を用いて効果をあげることに重点を置く.本論文ではIREX-NE本試験に用いられたデータに対し我々の手法を適用した結果を示し,さらにいくつかの比較実験からMEモデルにおける素性と精度の関係,学習コーパスの量と精度の関係,さらに簡便な方法を用いて自動獲得した書き換え規則がどの程度精度に貢献するかを明らかにする. \section{固有表現抽出アルゴリズム} \label{sec:algorithm}\subsection{アルゴリズムの概要}\label{sec:overview}固有表現はIREX-NEの定義にしたがい,表~\ref{table:tag}の8種類とする.この節ではこの表にあげたSGMLタグを付与する方法について述べる.{\scriptsize\begin{table*}[htbp]\begin{center}\caption{固有表現のタグ}\label{table:tag}\begin{tabular}[c]{|l@{}l@{}l|p{4.7cm}|}\hline&開始位置タグ&終了位置タグ&例\\\hline固有名詞的表現&&&\\\hline\p組織名,政府組織名&$<$ORGANIZATION$>$&$<$/ORGANIZATION$>$&郵政省,ニューヨーク大学,毎日新聞,IREX実行委員会\\\p人名&$<$PERSON$>$&$<$/PERSON$>$&長尾眞,グリッシュマン,若ノ花\\\p地名&$<$LOCATION$>$&$<$/LOCATION$>$&日本,神戸,井の頭線,富士山\\\p固有物名&$<$ARTIFACT$>$&$<$/ARTIFACT$>$&ノーベル賞,PL法案,特殊相対性理論,ペンティアム200MHz,カローラ\\\hline時間表現&&&\\\hline\p日付表現&$<$DATE$>$&$<$/DATE$>$&9月28日,去年,ある秋\\\p時間表現&$<$TIME$>$&$<$/TIME$>$&午後5時25分,未明,明け方\\\hline数値表現&&&\\\hline\p金額表現&$<$MONEY$>$&$<$/MONEY$>$&1ドル,数十兆円,五千から六千万円\\\p割合表現&$<$PERCENT$>$&$<$/PERCENT$>$&20%,5割,5分の1,2倍\\\hline\end{tabular}\end{center}\end{table*}}本手法では以下の手順で固有表現を抽出する.\begin{enumerate}\itemテキストを形態素解析する.実験では形態素解析にJUMAN\cite{JUMAN3.6}を用いた.例えば,``在米女性を中心に「人権を考える会」ができ,…''という部分は表~\ref{table:ex}の第1行のように形態素ごとに区切られ,それぞれの形態素ごとに第2行,第3行のような品詞の情報が得られる.{\small\begin{table*}[htbp]\begin{center}\caption{MEモデルを用いたラベル付与の例}\label{table:ex}\begin{tabular}[c]{|c|c||l@{}l@{}l@{}l@{}l@{}l@{}l}\hline\multicolumn{2}{|c||}{見出し語}&在米&女性&を&中心&に&「&人権\\\hline\multicolumn{2}{|c||}{品詞(大分類)}&名詞&名詞&助詞&名詞&助詞&特殊&名詞\\\multicolumn{2}{|c||}{品詞(細分類)}&普通名詞&普通名詞&格助詞&普通名詞&格助詞&括弧始&普通名詞\\\hlineラベル&1&OTHER&OTHER&OTHER&OTHER&OTHER&PRE&ORG:BEGIN\\の候補&2&OTHER&OTHER&OTHER&OTHER&OTHER&PRE&ART:SINGLE\\&$\cdots$&$\cdots$&$\cdots$&$\cdots$&$\cdots$&$\cdots$&$\cdots$&$\cdots$\\\hline\end{tabular}\vspace*{0.2cm}\begin{tabular}[c]{cccl@{}l@{}l@{}l@{}l@{}l@{}l|c|}\cline{4-11}&&&を&考える&会&」&が&でき&,&スコア\\\cline{4-11}&&&助詞&動詞&名詞&特殊&助詞&動詞&特殊&\\&&&格助詞&\*&普通名詞&括弧終&格助詞&\*&読点&\\\cline{4-11}&&&ORG:MIDDLE&ORG:MIDDLE&ORG:END&POST&OTHER&OTHER&OTHER&0.8\\&&&POST&OTHER&OTHER&OTHER&OTHER&OTHER&OTHER&0.7\\&&&$\cdots$&$\cdots$&$\cdots$&$\cdots$&$\cdots$&$\cdots$&$\cdots$&$\cdots$\\\cline{4-11}\end{tabular}\\\vspace*{1em}(表で「ORG」「ART」はそれぞれ「ORGANIZATION」「ARTIFACT」の略である.)\end{center}\end{table*}}\item各形態素にラベルを付与する.ラベルとしては,以下の合計40個を用意した.\begin{enumerate}\item[(a)]IREX-NEで定義されている固有表現のタグに「OPTIONAL」を加えた9種類を,固有表現の始まり,中間,終り,単独に分けた9$\times$4=36個.例えば人名のタグの場合,それぞれ「PERSON:BEGIN」「PERSON:MIDDLE」「PERSON:END」「PERSON:SINGLE」を用いる.このように分けたのは,複数の形態素が一つの固有表現を構成することがあることを考慮するためである.「OPTIONAL」のタグはタグ付けが判定者にも困難な場合のために設けたものである.これもIREX-NEにおける定義にしたがっている.固有表現の判定は人間にも難しいことが多い.例えば,「東京高裁」はLOCATIONかORGANIZATIONか,「日経平均株価」と言ったときの「日経」はORGANIZATIONとするべきかなどがそうである.このような場合,それぞれ「東京高裁」,「日経」にこのタグを付与し,固有表現としては抽出しない.この「OPTIONAL」をラベルとして考慮したのはその性質を学習することによって,例えばLOCATIONかORGANIZATIONの判定が困難なものをいずれかのタグに分類してしまうのを避けることができると考えたためである.\item[(b)]固有表現の前後の1形態素および固有表現に挟まれた1形態素を他の形態素と区別するための3個(「PRE」「POST」「MID」).例えば,``昨日大阪と神戸で…''という部分では「大阪」と「神戸」がそれぞれ地名を表す固有表現であり,その前後の形態素は次のようにラベル付けされる.\begin{flushleft}``昨日(PRE)/大阪(LOCATION:SINGLE)/と(MID)/神戸(LOCATION:SINGLE)/で(POST)…''\\(括弧内はそれぞれ前の形態素に付与されたラベルの候補)\end{flushleft}この三つのラベル「PRE」「POST」「MID」を用いたのは,固有表現の前後の形態素(接辞など)は固有表現を抽出する際に手がかりとなることが多いため,次にあげる「OTHER」と区別する方が良いと考えたからである.\item[(c)]以上のどのラベルもつかない「OTHER」.\end{enumerate}今,一文が$n$個の形態素からなるとする.手順(1)で得られた形態素解析結果を用いて,個々の形態素$m_i(1\leqi\leqn)$にそれぞれ上記のラベルのいずれかを付与する.形態素$m_i$に付与するラベルはコーパスから学習したMEモデルから各ラベルを付与したときの尤もらしさを確率として計算しそれを基に決める.詳しくは,モデルについては\ref{sec:model}節で,最適解の探索アルゴリズムについては\ref{sec:viterbi}節で述べる.\item書き換え規則による後処理JUMANの解析結果における形態素の境界とIREXで定義されている固有表現の境界は必ずしも一致しない.このような一致しない場合に対応するために書き換え規則を自動獲得し,獲得した規則を用いて後処理を行う.例えば,表~\ref{table:ex}の「在米」に対しては以下のような書き換え規則が適用される.\vspace*{1em}\begin{center}\begin{tabular}[c]{l@{}|l|}\cline{2-2}見出し語&在米\\品詞(大分類)&名詞\\品詞(細分類)&普通名詞\\ラベル&OTHER\\\cline{2-2}\end{tabular}$\Rightarrow$\begin{tabular}[c]{|l@{}l|}\hline在&米\\名詞&名詞\\普通名詞&普通名詞\\PRE&LOCATION:SINGLE\\\hline\end{tabular}\end{center}\vspace*{1em}書き換え規則の自動獲得手法については\ref{sec:post_processing}節で述べる.\itemラベルを固有表現のタグに変換すべてのラベルが決まったら,それぞれのラベルに対し手順(2)で定義したラベルの定義にしたがって,ラベルからIREX-NEで定義されたタグへと変換する.抽出したい固有表現は表~\ref{table:tag}の8種類なので,最後に解析結果から「OPTIONAL」のタグを取り除く.\end{enumerate}例えば,表~\ref{table:ex}でスコアが最大であるラベル候補1の場合,手順(3)の操作によって``在米(OTHER)''の部分が``在(PRE)米(LOCATION:SINGLE)''(括弧内はそれぞれ前の形態素に付与されたラベルの候補)に書き換えられる.そして,ラベルをタグに変換することによって次のような出力を得る.\begin{tabular}[c]{l}``在$<$LOCATION$>$米$</$LOCATION$>$女性を中心に\\「$<$ORGANIZATION$>$人権を考える会$</$ORGANIZATION$>$」ができ,''\end{tabular}\subsection{固有表現抽出に用いる確率モデル}\label{sec:model}この節では形態素に付与するラベルの尤もらしさを確率として計算するためのモデルについて述べる.モデルとしては,ME(最大エントロピー法)に基づく確率モデルを採用する.まず,MEの基本について説明し,その後,MEに基づく固有表現ラベル付与確率モデルおよびそのモデルをコーパスから統計的に学習する方法について述べる.\subsubsection{ME(最大エントロピー)モデル}\label{sec:me_model}一般に確率モデルでは,文脈(観測される情報のこと)とそのときに得られる出力値との関係は既知のデータから推定される確率分布によって表される.いろいろな状況に対してできるだけ正確に出力値を予測するためには文脈を細かく定義する必要があるが,細かくしすぎると既知のデータにおいてそれぞれの文脈に対応する事例の数が少なくなりデータスパースネスの問題が生じる.MEモデルでは,文脈は素性と呼ばれる個々の要素によって表され,確率分布は素性を引数とした関数として表される.そして,各々の素性はトレーニングデータにおける確率分布のエントロピーが最大になるように重み付けされる.このエントロピーを最大にするという操作によって,既知データに観測されなかったような素性あるいはまれにしか観測されなかった素性については,それぞれの出力値に対して確率値が等確率になるようにあるいは近付くように重み付けされる.このように未知のデータに対して考慮した重み付けがなされるため,MEモデルは比較的データスパースネスに強いとされている.このモデルは例えば言語現象などのように既知データにすべての現象が現れ得ないような現象を扱うのに適したモデルであると言える.以上のような性質を持つMEモデルでは,確率分布の式は以下のように求められる.文脈の集合を$B$,出力値の集合を$A$とするとき,文脈$b(\in$$B)$で出力値$a(\in$$A)$となる事象$(a,b)$の確率分布$p(a,b)$をMEにより推定することを考える.文脈$b$は$k$個の素性$f_j(1\leqj\leqk)$の集合で表す.そして,文脈$b$において,素性$f_j$が観測されかつ出力値が$a$となるときに1を返す以下のような関数を定義する.{\it\begin{eqnarray}\label{eq:f}g_{j}(a,b)&=&\left\{\begin{array}[c]{l}1,\{\rmif}\exist(b,f_{j})=1\\&\出力値=a\\0,\それ以外\end{array}\right.\end{eqnarray}}これを素性関数と呼ぶ.ここで,$exist(b,f_j)$は,文脈$b$において素性$f_j$が観測されるか否かによって1あるいは0の値を返す関数とする.次に,それぞれの素性が既知のデータ中に現れた割合は未知のデータも含む全データ中においても変わらないとする制約を加える.つまり,推定するべき確率分布$p(a,b)$による素性$f_j$の期待値と,既知データにおける経験確率分布$\tilde{p}(a,b)$による素性$f_j$の期待値が等しいと仮定する.これは以下の制約式で表せる.{\it\begin{eqnarray}\label{eq:constraint0}\sum_{a\inA,b\inB}p(a,b)g_{j}(a,b)\=\sum_{a\inA,b\inB}\tilde{p}(a,b)g_{j}(a,b)\\\for\\forallf_{j}\(1\leqj\leqk)\nonumber\end{eqnarray}}この式で,$p(a,b)=p(b)p(a|b)\approx\tilde{p}(b)p(a|b)$という近似を行ない以下の式を得る.{\it\begin{eqnarray}\label{eq:constraint}\sum_{a\inA,b\inB}\tilde{p}(b)p(a|b)g_{j}(a,b)\=\sum_{a\inA,b\inB}\tilde{p}(a,b)g_{j}(a,b)\\\for\\forallf_{j}\(1\leqj\leqk)\nonumber\end{eqnarray}}ここで,$\tilde{p}(b)$,$\tilde{p}(a,b)$は,$freq(b)$,$freq(a,b)$をそれぞれ既知データにおける事象$b$の出現頻度,出力値$a$と事象$b$の共起頻度として以下のように推定する.{\it\begin{eqnarray}\tilde{p}(b)&=&\frac{freq(b)}{\displaystyle\sum_{b\inB}freq(b)}\\\tilde{p}(a,b)&=&\frac{freq(a,b)}{\displaystyle\sum_{a\inA,b\inB}freq(a,b)}\end{eqnarray}}次に,式(\ref{eq:constraint})の制約を満たす確率分布$p(a,b)$のうち,エントロピー{\it\begin{eqnarray}\label{eq:entropy}H(p)&=&-\sum_{a\inA,b\inB}\tilde{p}(b)p(a|b)\log\left(p(a,b)\right)\end{eqnarray}}を最大にする確率分布を推定するべき確率分布とする.これは,式(\ref{eq:constraint})の制約を満たす確率分布のうちで最も一様な分布となる.このような確率分布は唯一存在し,以下の確率分布$p^{*}$として記述される.{\it\begin{eqnarray}\label{eq:p}p^{*}(a|b)&=&\frac{\prod_{j=1}^{k}\alpha_{a,j}^{g_{j}(a,b)}}{\sum_{a\inA}\prod_{j=1}^{k}\alpha_{a,j}^{g_{j}(a,b)}}\\&&(0\leq\alpha_{a,j}\leq\infty)\nonumber\end{eqnarray}}ただし,{\it\begin{eqnarray}\label{eq:alpha}\alpha_{a,j}&=&e^{\lambda_{a,j}}\end{eqnarray}}であり,$\lambda_{a,j}$は素性関数$g_{j}(a,b)$の重みである.この重みは文脈$b$のもとで出力値$a$となることを予測するのに素性$f_{j}$がどれだけ重要な役割を果たすかを表している.訓練集合が与えられたとき,$\lambda_{a,j}$の推定にはImprovedIterativeScaling(IIS)アルゴリズム\cite{pietra95}などが用いられる.式(\ref{eq:p})の導出については文献\cite{Jaynes:57,Jaynes:79}を参照されたい.\subsubsection{固有表現ラベル付与確率モデル}\label{sec:named_entity_extraction_model}\ref{sec:overview}節に,個々の形態素に付与すべき固有表現のラベルを定義した.以降では,形態素にそれぞれのラベルを付与したときの尤もらしさを表す確率をラベルの付与確率と呼ぶ.一文が$n$個の形態素からなるとき,形態素$m_i(1\leqi\leqn)$にラベル$l_j(0\leqj\leq39)$を付与するときの付与確率は,前節で述べたMEモデルの式(\ref{eq:p})を用いて$p^{*}(l_{j}|F_{i})$で求められる.ここ\breakで$F$は「見出し語:人権,品詞(大分類):名詞,品詞(細分類):普通名詞」などの素性の集合であり,個々の$m_i$ごとに異なるため$F_i$と表した.一文全体の付与確率は個々の確率の積で表す.\vspace{-2mm}\subsubsection{素性}\label{sec:features}基本的に学習コーパスから得られる形態素情報を素性として用いる.実験では,着目している形態素を含む前後2形態素ずつ合計5形態素に関する見出し語,品詞(大分類,細分類)とした.品詞分類はそれぞれ大分類15個,細分類48個である.これはJUMANのものにしたがった.学習コーパスに1,2回しか現れないような素性はノイズとなる可能性があるのでそれを避けるために頻度による素性選択を行なう.見出し語としては学習コーパス中に5回以上現れたものを用い,さらに式(\ref{eq:f})の素性関数としては学習コーパスに3回以上観測されたものを用いる.見出し語を5回以上現れたものとしたのはこれ以上少なくすると素性の数が増え現在のマシンパワーでは学習できなかったためである.素性としては他にもいろいろ考えられるが,今回の実験では学習コーパスから得られる情報でかつ着目している形態素の周辺の情報のみを用いた場合にどの程度の精度が得られるかを調べることに重きを置いた.さらに学習コーパス以外から得られる情報の有効性も調べるために追加実験として,固有名詞に関する辞書情報を利用しその辞書に登録されているかどうかを素性として利用した場合の実験も行なった.これについては\ref{sec:exp}節で実験結果をあげて考察する.\subsection{ビタビアルゴリズム}\label{sec:viterbi}本節ではラベル付与に用いるビタビアルゴリズムについて説明する.このアルゴリズムは,スコアが一文全体で最適値となるようにラベルを付与するものである.形態素$m_i$に対し,\ref{sec:named_entity_extraction_model}節で述べたラベル$l_{j}$の付与確率$p^{*}(l_{j}|F_{i})$の一文全体における掛け算$\sum_{i=1}^{n}p^{*}(l_{j}|F_{i})$が最大になるように各ラベルを決める.ただし,表~\ref{table:conjunction_rule}の連接規則を満たすようにする.この表で,$(文末),#(文頭)は便宜上設けたもので実際に付与するラベルとは異なる.表~\ref{table:conjunction_rule}の連接規則は人手で作成した.\begin{table*}[htbp]\begin{center}\caption{連接規則}\label{table:conjunction_rule}\begin{tabular}[c]{|l|p{4.3cm}|p{4.8cm}|}\hlineラベル&左方に接続可能なラベル&右方に接続可能なラベル\\\hline$x$&#(文頭),$x$,$y$,$x$:END,$y$:END,PRE,MID&$(文末),$x$,$y$,$x$:BEGIN,$y$:BEGIN,POST,MID\\$x$:BEGIN&#(文頭),$x$,$y$,$x$:END,$y$:END,PRE,MID&$x$:MIDDLE,$x$:END\\$x$:MIDDLE&$x$:BEGIN,$x$:MIDDLE&$x$:MIDDLE,$x$:END\\$x$:END&$x$:BEGIN,$x$:MIDDLE&$(文末),$x$,$y$,$x$:BEGIN,\\&&$y$:BEGIN,POST,MID\\MID&$x$,$x$:END&$x$,$x$:BEGIN\\PRE&#(文頭),POST,OTHER&$x$,$x$:BEGIN\\POST&$x$,$x$:END&$(文末),PRE,OTHER\\OTHER&#(文頭),POST,OTHER&$(文末),PRE,OTHER\\$(文末)&$x$,$x$:END,POST,OTHER&\\#(文頭)&&$x$,$x$:BEGIN,PRE,OTHER\\\hline\end{tabular}\\\vspace*{1em}($x$,$y$はIREX-NEで定義された8種類のタグおよび「OPTIONAL」に対応する.)\end{center}\end{table*}手順は以下の通りである.\begin{enumerate}\item文頭の形態素$m_1$に対し各ラベル$l_{j(1)}$の付与確率$p^{*}(l_{j(1)}|F_{1})$$(0\leqj(1)\leq39)$を計算し,それぞれ各ラベルごとのスコア$S_{1}(l_{j(1)})$とする.つまり,$S_{1}(l_{1})=p^{*}(l_{1}|F_{1})$,$S_{1}(l_{2})=p^{*}(l_{2}|F_{1})$,$\ldots$,$S_{1}(l_{39})=p^{*}(l_{39}|F_{1})$とする.\item次の形態素$m_2$に対し各ラベルの付与確率$p^{*}(l_{j(2)}|F_{2})$$(0\leqj(2)\leq39)$を計算し,それぞれ各ラベルごとのスコアを\begin{eqnarray*}S_{2}(l_{j(2)})&=&\mathop{max}_{l_{j(1)}}\p^{*}(l_{j(2)}|F_{2})\timesS_{1}(l_{j(1)})\end{eqnarray*}とする.ただし,$l_{j(1)}$と$l_{j(2)}$が連接規則を満たすものに限る.\itemさらに次の形態素$m_3$に対しても同様に各ラベルの付与確率$p^{*}(l_{j(3)}|F_{3})$$(0\leqj(3)\leq39)$を計算し,それぞれ各ラベルごとのスコアを\begin{eqnarray*}S_{3}(l_{j(3)})&=&\mathop{max}_{l_{j(2)}}\p^{*}(l_{j(3)}|F_{3})\timesS_{2}(l_{j(2)})\end{eqnarray*}とする.ただし,$l_{j(2)}$と$l_{j(3)}$が連接規則を満たすものに限る.\item同様のことを文末まで繰り返し,\begin{eqnarray*}S_{n}(l_{j(n)})&=&\mathop{max}_{l_{j(n-1)}}\p^{*}(l_{j(n)}|F_{n})\timesS_{n-1}(l_{j(n-1)})\end{eqnarray*}のうち最大のものを選ぶと,最適解であるラベルの並び$l_{j(1)}$,$l_{j(2)}$,$\ldots$,$l_{j(n)}$が得られる.\end{enumerate}\subsection{自動獲得した書き換え規則による後処理}\label{sec:post_processing}MEモデルを用いたラベル付けの処理が終った後で,形態素解析により得られる形態素が固有表現より長い場合に対処するため,予め用意しておいた書き換え規則を適用する.書き換え規則はBrillが品詞タグ付けに用いた\cite{Brill:95}のと同様の手法である誤り駆動で獲得する.Brillの規則獲得方法との違いはBrillがテンプレートを用いているのに対して我々は用いていない点である.我々の場合,書き換え規則は学習コーパスに対するシステムの解析結果とコーパスの正解データとの差異を調べることによって自動獲得することができる.差異の中から,コーパスでは同じ文字列に対応しているにもかかわらず形態素の数が異なる部分をすべて抽出し書き換え規則として利用する.ただし,前件部は同じであるが後件部が異なるような規則が複数獲得された場合は,最も頻度の高い規則のみを用いる.最も頻度の高い規則が複数種類ある場合,それらの規則はすべて捨てる.さらに,ここで獲得した規則を学習コーパスに対するシステムの解析結果に適用し,誤りとなる数が正解となる数以上であるものはすべて捨てる.例えば,以下のようなものが書き換え規則として獲得される.\begin{center}\begin{tabular}[c]{l@{}|l|}\multicolumn{1}{c}{}&\multicolumn{1}{c}{前件部}\\\cline{2-2}見出し語&在日\\品詞(大分類)&名詞\\品詞(細分類)&サ変名詞\\ラベル&OTHER\\\cline{2-2}\end{tabular}$\Rightarrow$\begin{tabular}[c]{|l@{}l|}\multicolumn{2}{c}{後件部}\\\hline在&日\\名詞&名詞\\普通名詞&普通名詞\\PRE&LOCATION:SINGLE\\\hline\end{tabular}\end{center} \section{実験と考察} \label{sec:exp}\subsection{実験データ}\label{sec:data}モデルの学習に用いたデータは,CRL(郵政省通信総合研究所)固有表現データ,IREX-NE予備試験トレーニングデータ,IREX-NE予備試験データ,IREX-NE本試験逮捕トレーニングデータの合計約12,000文である.試験に用いたデータはIREX-NE本試験データである\footnote{今回学習,試験に用いたデータはすべてIREXのホームページ\cite{irex:homepage}から入手可能である.}.これらはすべて毎日新聞のデータに対して固有表現のタグが付与されたものである.以下で簡単にデータの説明をする.\subsubsection{学習データ}学習コーパスの書式はSGML形式で,各固有表現には表~\ref{table:tag}のタグが付与されている.これらのタグ付コーパスからテキスト部分を取り出して形態素解析し,表~\ref{table:trans_rule2}にあげる変換規則を用いて各形態素にラベルが付与されたものに変換した後,学習に用いた.\begin{table}[htbp]\begin{center}\caption{タグからラベルへの変換規則}\label{table:trans_rule2}\begin{tabular}[c]{|llclcr@{}l|}\hline一つ前の&\multicolumn{3}{c}{形態素と}&&\multicolumn{2}{c|}{形態素(ラベル)}\\形態素のラベル&\multicolumn{3}{c}{前後のタグ}&&&\\\hline&$<x>$&$m$&$</x>$&$\Rightarrow$&$m$&($x$:SINGLE)\\&$<x>$&$m$&&$\Rightarrow$&$m$&($x$:BEGIN)\\&&$m$&$</x>$&$\Rightarrow$&$m$&($x$:END)\\&$</x>$&$m$&$<y>$&$\Rightarrow$&$m$&(MID)\\&$</x>$&$m$&&$\Rightarrow$&$m$&(POST)\\&&$m$&$<x>$&$\Rightarrow$&$m$&(PRE)\\$x$:BEGIN&&$m$&&$\Rightarrow$&$m$&($x$:MIDDLE)\\$x$:MIDDLE&&$m$&&$\Rightarrow$&$m$&($x$:MIDDLE)\\&&$m$&&$\Rightarrow$&$m$&(OTHER)\\\hline\end{tabular}\end{center}\end{table}\begin{description}\item[CRL(郵政省通信総合研究所)固有表現データ]毎日新聞1995年1月1日から10日までの全記事,約1万文に対して,固有表現をタグ付けしたデータである.固有表現はIREX-NEの1999年2月14日に更新された定義に基づいている.\item[IREX-NE予備試験トレーニングデータ]毎日新聞1994年4月13日の46記事,約500文に対して固有表現をタグ付けしたデータである.固有表現はIREX-NEの1998年10月27日に更新された定義に基づいている.\item[IREX-NE予備試験データ]毎日新聞1994年9月11日の36記事,約500文に対して固有表現をタグ付けしたデータである.固有表現はIREX-NEの1998年10月27日に更新された定義に基づいている.\end{description}IREX-NEの定義は少しずつ更新されている.しかし,それらの定義の違いによるノイズの数は人間が学習データを作成するときに生じるノイズの数とさほど違いはないと考え,すべて学習に用いた.\subsubsection{本試験データ}1999年4月14日から5月13日の毎日新聞のデータから選ばれた91記事で,ドメインを限らないもの71記事,約400文(以下,「一般ドメイン」と呼ぶ)と「逮捕」にドメインを限ったもの20記事,約100文(以下,「限定ドメイン」と呼ぶ)の2種類のデータからなる.それぞれのドメインのデータにおける固有表現の数は表~\ref{Answer}の通りである.\begin{table*}[htbp]\begin{center}\caption{IREX-NE本試験データに対する固有表現の内訳}\label{Answer}\begin{tabular}{|l|r|r|}\hline&\multicolumn{1}{c|}{ARREST}&\multicolumn{1}{c|}{GENERAL}\\\cline{2-3}固有表現(NE)&\multicolumn{1}{c|}{個数(個)}&\multicolumn{1}{c|}{個数(個)}\\\hlineORGANIZATION&74&361\\PERSON&97&338\\LOCATION&106&413\\ARTIFACT&13&48\\DATE&72&260\\TIME&19&54\\MONEY&8&15\\PERCENT&0&21\\OPTIONAL&8&86\\\hline合計&389&1510\\\hline\end{tabular}\end{center}\end{table*}\subsection{実験結果}\label{sec:experimental_results}実験に用いた素性は形態素解析結果から得られる情報であり,着目している形態素を含む前後2形態素ずつ合計5形態素に関する見出し語,品詞(大分類,細分類)である.見出し語としては学習コーパス中に5回以上現れた12,368個を用いた.品詞分類はJUMANのものにしたがった.それぞれ大分類15個,細分類48個である.このうち,式(\ref{eq:f})の素性関数としては学習コーパスに3回以上観測されたもの27,370個を用いた.モデルの重み(式(\ref{eq:alpha})の$\lambda_{a,j}$)の学習にはRistadのツール\cite{ristad98}を利用した\footnote{現在このツールは公開されていない.参考文献\cite{ristad97}を参照.}.次に我々の解析結果を表~\ref{Result}に示す.この表で第1列と第2列は書き換え規則を利用したときの限定ドメインの試験(ARREST)に対する結果とドメインを限定しない試験(GENERAL)に対する結果である.第3列と第4列は書き換え規則を利用しなかったときのそれぞれのドメインに対する結果である.どちらのドメインに対しても特別なチューニングはしなかった.精度はどちらのドメインに対しても書き換え規則を用いたときの方が良く,F-measure\footnote{F-measureとしては以下の定義のものを用いる.\begin{eqnarray*}{\rmF-measure}&=&\frac{2\times再現率\times適合率}{再現率+適合率}\end{eqnarray*}}は限定ドメインに対して83.91,一般ドメインに対して79.42であった.IREX-NEの試験では「OPTIONAL」のタグが振られたものについては,その範囲内にシステムがどのような結果を出そうとも,評価には反映されない.ただし,範囲外にずれて重なっている場合には不正解とされる.本論文においてもこの評価方法にしたがった\footnote{OPTIONALを正解とする評価もあり得るが,その場合,タスクは固有表現の抽出ではなく,人間が固有表現かどうか迷う部分の特定ということになる.したがって,その評価は他の固有表現の抽出結果の評価とは別にするべきである.本論文の目的は固有表現の抽出であるため,OPTIONALを正解とする評価は対象外とした.}.{\small\begin{table*}[htbp]\begin{center}\caption{実験結果}\label{Result}\begin{tabular}{|l|r@{}r|r@{}r||r@{}r|r@{}r|}\hline&\multicolumn{4}{c||}{書き換え規則を利用}&\multicolumn{4}{c|}{書き換え規則を利用しない}\\\hline&\multicolumn{2}{c|}{ARREST}&\multicolumn{2}{c||}{GENERAL}&\multicolumn{2}{c|}{ARREST}&\multicolumn{2}{c|}{GENERAL}\\\cline{2-9}固有表現(NE)&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c||}{適合率}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}\\&(\%)&(\%)&(\%)&(\%)&(\%)&(\%)&(\%)&(\%)\\\hlineORGANIZATION&59.46&81.48&59.28&79.55&59.46&81.48&58.73&81.85\\PERSON&84.54&84.54&76.92&83.87&84.54&84.54&76.92&83.87\\LOCATION&83.02&81.48&76.27&84.45&73.58&77.23&69.73&82.52\\ARTIFACT&61.54&66.67&35.42&50.00&61.54&66.67&35.42&50.00\\DATE&97.22&97.22&91.15&94.80&97.22&97.22&90.38&94.76\\TIME&94.74&100.00&87.04&94.00&94.74&100.00&87.04&94.00\\MONEY&100.00&100.00&93.33&93.33&100.00&100.00&93.33&93.33\\PERCENT&-&-&100.00&95.45&-&-&80.95&94.44\\\hline総合&81.75&86.18&74.50&85.03&79.18&85.08&72.19&84.96\\\hline\hlineF-measure&\multicolumn{2}{c|}{83.91}&\multicolumn{2}{c||}{79.42}&\multicolumn{2}{c|}{82.02}&\multicolumn{2}{c|}{78.05}\\\hline\end{tabular}\end{center}\end{table*}}\subsection{書き換え規則と精度}\label{sec:trans_rules_and_accuracy}書き換え規則の適用対象となる固有表現は形態素単位より短い部分文字列を含むもので,本試験データでは限定ドメインに18個,一般ドメインに79個あった.いずれも本試験データ全体の約5\%に相当する.学習コーパスから得られた書き換え規則の数は362個であり,そのうち限定ドメインの試験には9個の規則が延べ11回適用され誤りが1個(再現率$56\%(10/18)$,適合率$91\%(10/11)$),一般ドメインの試験には12個の規則が延べ42回適用され誤りが10個(再現率$41\%(32/79)$,適合率$76\%(32/42)$)であった.誤りは以下のようなものであった.\begin{itemize}\item本来抽出するべき固有表現の部分文字列を誤って抽出してしまう場合(1個).「在日米軍横田基地」から「日」だけがLOCATIONとして抽出されていた.これは,IREX-NEの定義によると「在日米軍横田基地」がLOCATIONとして抽出されるべきであるが,MEモデルを用いたラベル付けによってうまく抽出できなかった結果,書き換え規則が適用され誤って抽出されてしまった例である.このような誤りをなくすためには,MEモデルを用いたラベル付けの精度を向上する必要がある.\item学習コーパスでは固有表現となっていたが,正解データでは固有表現となっていない場合(10個).学習コーパスでは「邦人」の「邦」がLOCATION,「外相会談」の「外」がORGANIZATIONとなっていたが,本試験の正解データでは固有表現とみなされていなかった.このような誤りをなくすためには学習コーパスの整備が必要である.\end{itemize}書き換え規則を用いることにより,F-measureで2ポイント(限定ドメイン)および1.5ポイント(一般ドメイン)程度の精度向上がみられた.ここで用いた書き換え規則は形態素の境界とIREXで定義されている固有表現の境界が一致しない場合にのみ対応するために獲得したものである.一致する場合についても同様の書き換え規則を適用することは可能であるが,そうした場合の追加実験ではF-measureで72.23(限定ドメイン)および73.12(一般ドメイン)と書き換え規則を用いない場合に比べてそれぞれ10ポイントおよび5ポイント程度精度が悪くなった.これは我々の用いた簡便な獲得手法では,MEモデルにより付与したラベルを精度良く書き換えられるほどの規則を獲得できないことを示している.しかし,得られた精度向上および規則獲得の簡便さを考慮すると,MEモデルで抽出できない部分を補う方法としては有効な方法であると言える.本手法では形態素解析が終った後に固有表現のラベルを推定するが,形態素解析の段階で形態素の文法的属性(品詞など)と固有表現のラベルを同時に推定するような方法をとることも考えられる.この場合でも書き換え規則は形態素解析の後処理として利用されている久光らの研究\cite{Hisamitsu:98}と同様にして使えると考えられる.\subsection{素性と精度}\label{sec:features_and_accuracy}実験に用いた素性の有効性を調べるために,それぞれの素性を削除したときの比較実験を行なった.比較実験ではすべて書き換え規則を用いた.結果を表~\ref{Result3}にあげる.{\small\begin{table*}[thbp]\begin{center}\caption{素性と精度の関係(書き換え規則利用)}\label{Result3}\begin{tabular}{|l|r@{}rr@{}r|r@{}rr@{}r|}\hline&\multicolumn{4}{c|}{ARREST}&\multicolumn{4}{c|}{GENERAL}\\\cline{2-9}\multicolumn{1}{|c|}{素性}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c}{適合率}&\multicolumn{1}{c}{F}&\multicolumn{1}{c|}{精度の差}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c}{適合率}&\multicolumn{1}{c}{F}&\multicolumn{1}{c|}{精度の差}\\&(\%)&(\%)&&&(\%)&(\%)&&\\\hlineすべて&81.75&86.18&83.91&0&74.50&85.03&79.42&0\\見出し語のみ&73.26&80.97&76.92&-6.99&62.58&74.29&67.94&-11.48\\品詞大分類のみ&5.40&70.00&10.02&-73.89&2.85&42.16&5.33&-74.09\\品詞細分類のみ&51.41&62.50&56.42&-27.49&45.23&61.31&52.06&-27.36\\見出し語削除&51.41&63.49&56.82&-27.09&46.16&65.45&54.14&-25.28\\品詞大分類削除&80.46&85.99&83.13&-0.78&72.91&82.29&77.32&-2.10\\品詞細分類削除&76.09&87.57&81.43&-2.48&66.89&82.72&73.97&-5.45\\\hline(0)のみ&31.11&48.79&37.99&-45.92&35.56&70.57&47.29&-32.13\\(-1)(0)(1)&76.86&84.46&80.48&-3.43&72.32&85.11&78.20&-1.22\\(-2)から(2)&81.75&86.18&83.91&0&74.50&85.03&79.42&0\\(-3)から(3)&80.72&85.09&82.85&-1.06&73.38&84.19&78.41&-1.01\\\hline\end{tabular}\end{center}\end{table*}}表中のFというのはF-measureのことで,精度の差というのは,着目している形態素とその前後2形態素ずつについて,見出し語,品詞大分類,品詞細分類のすべての情報を素性として用いたときの精度と比べたときの差を意味する.どの素性を削除した場合にも精度が悪くなっており,どの素性も精度の向上に貢献していることが分かる.特に見出し語は精度向上に著しく貢献している.表~\ref{Result3}の下から三行は,前後の形態素情報の利用範囲を変更したときの結果であり,着目している形態素の情報のみ(表では「(0)のみ」と示す.),着目している形態素とその前後の形態素の情報のみ(表では「(-1)(0)(1)」と示す.),着目している形態素とその前後2形態素の情報(表では「(-2)から(2)」と示す.表~\ref{Result}に示した結果と同じ.),着目している形態素とその前後3形態素の情報(表では「(-3)から(3)」と示す.)をそれぞれ素性として用いたときの精度を表す.用いる情報が前後2形態素ずつより多くても少なくても精度が悪くなった.用いる情報を多くしたにもかかわらず精度が悪くなるのは,データスパースネスの問題が深刻になってくるためであると考えられる.\subsection{学習コーパスと精度}\label{sec:training_corpus_and_accuracy}この節では,学習コーパスと解析精度の関係について考察する.まず,図~\ref{fig:learning_curve:training},図~\ref{fig:learning_curve:test}に学習コーパスとテストコーパスのそれぞれを解析した場合の学習コーパスの量と解析精度の関係をあげる.図の横軸は学習コーパスの文数,縦軸はF-measureを表す.学習コーパスの解析には限定ドメインとしてIREX-NE本試験逮捕トレーニングデータ,一般ドメインとしてIREX-NE予備試験データを用いた.図では限定ドメイン,一般ドメインに対するグラフにはそれぞれ「arrest」,「general」,書き換え規則を用いた場合と用いなかった場合にはそれぞれ「with\_rules」,「without\_rules」という表記を用いている.テストコーパスに対する学習曲線(図~\ref{fig:learning_curve:test})を見ると,特に一般ドメインに対してはまだ精度は飽和していないようである.学習コーパスに対する学習曲線(図~\ref{fig:learning_curve:training})もわずかではあるが増加する傾向にある.したがって,少なくとも一般ドメインに対しては学習コーパスの量が増えればもう少し精度の向上が期待できそうである.\begin{figure*}[htbp]\begin{center}\leavevmode\epsfile{file=curve_training.ps,height=8cm}\caption{学習コーパスの量と精度の関係(学習コーパスに対して)}\label{fig:learning_curve:training}\end{center}\begin{center}\leavevmode\epsfile{file=curve_testing.ps,height=8cm}\caption{学習コーパスの量と精度の関係(テストコーパスに対して)}\label{fig:learning_curve:test}\end{center}\end{figure*}\subsection{関連研究との比較}\label{sec:related_work}1999年5月13日から17日にかけて,IREX-NEの本試験が行なわれた.試験は13日に実行委員長より問題が配布され,17日までに各々のシステムのタグ付け結果を電子メイルで送り返すという形式で行なわれた.IREX-NE本試験に参加したシステムは15システムであった.それらをパターン駆動型,学習型,それらの組み合わせの3種類に分類すると,我々のシステムは学習型に分類される.本節では主に他の学習型システムとの違いを説明し,そのうち重要であると思われる部分については追加実験を行なうことによりその違いがどの程度精度に影響を与えるかを調べる.学習型のシステムのアプローチは我々のものも含めて四つあり,どれも基本的に関根らのとったアプローチ\cite{Sekine98_wvlc}に類似している.関根らのシステム\cite{Sekine98_wvlc}を改良したものにはBorthwickのシステム\cite{borthwick_irex:99},野畑のシステム\cite{nova_irex:99},新納\cite{shinnou_irex:99}のシステムがあり,それらと我々のシステムの違いを表にすると表~\ref{Comparison}のようになる\footnote{表で比較としてあげた精度(F-measure)はすべてIREXワークショップ予稿集において報告されたものである.}.違いは主に学習モデル,形態素に付与するラベル(NEラベル)の定義,素性,後処理にある.{\scriptsize\begin{table*}[thbp]\begin{center}\caption{関連研究との比較}\label{Comparison}\begin{tabular}{|p{1.24cm}|p{1.55cm}|p{3.68cm}|p{2cm}|p{1cm}|p{2.3cm}|}\hline&\multicolumn{1}{c|}{学習モデル}&\multicolumn{1}{c|}{NEラベル}&\multicolumn{1}{c|}{素性}&\multicolumn{1}{c|}{後処理}&\multicolumn{1}{c|}{F-measure}\\\hline我々のシステム&MEモデル&40種類.固有表現タグにOPTIONAL,OTHERを加えた10種類のそれぞれに対し,固有名詞の始まり,中間,終り,単独を表す4種類のラベルを用意する.&着目している形態素を含む前後2形態素ずつ合計5形態素に関する見出し語,品詞(大分類,細分類)&自動獲得した書き換え規則&83.91(ARREST)\hspace{2mm},79.42(GENERAL)\\\hline\hlineBorthwickのシステム&MEモデル&(関根らのシステムと同じ)&(関根らのシステムと同じ)&人手で作成した書き換え規則&85.02(ARREST)\hspace{2mm},77.37(GENERAL)\\\hline野畑のシステム&決定木モデル&38種類.8種類の固有表現タグそれぞれに対し,固有名詞の始まり,中間,終り,単独を表す4種類のラベルを用意し,固有表現以外に対しOTHERというラベルを用意する.さらに,固有物名(ARTIFACT),地名(LOCATION),組織名(ORGANIZATION)を細分類する.&着目している形態素を含む前後1形態素ずつ合計3形態素に関する品詞(大分類,細分類),字種情報,単語リスト,統語的情報&なし&80.37(ARREST)\hspace{2mm},70.34(GENERAL)\\\hline新納のシステム&n-gramモデル&形態素ごとではなく文字ごとにラベルを付与する.36種類.固有表現タグに固有表現以外を表すOTHERを加えた9種類のそれぞれに対し,固有名詞の始まり,中間,終り,単独を表す4種類のラベルを用意する.&着目している文字を含む前後1文字ずつ合計3文字に関する文字,品詞情報&なし&58.46(ARREST)\hspace{2mm},60.36(GENERAL)\\\hline\hline関根らのシステム&決定木モデル&33種類.8種類の固有表現タグそれぞれに対し,固有名詞の始まり,中間,終り,単独を表す4種類のラベルを用意し,固有表現以外に対しOTHERというラベルを用意する.&着目している形態素を含む前後1形態素ずつ合計3形態素に関する見出し語,品詞(大分類,細分類),字種情報,辞書情報&なし&\\\hline\end{tabular}\end{center}\end{table*}}以下では主に表~\ref{Comparison}の違いに着目して考察する.\subsubsection{形態素に付与するラベル(NEラベル)の定義について}我々の定義したNEラベルは関根らのシステムに比べると7種類多い.これは,関根らのシステムよりさらにOPTIONAL(始まり,中間,終り,単独の4種類)およびPRE,POST,MIDのラベルを考慮したためである.OPTIONALはタグ付けが判定者にも困難な場合のために設けられたものであり,その性質を学習することによって,例えばLOCATIONかORGANIZATIONの判定が困難なものをいずれかのタグに分類してしまうのを避けることができると考えられる.PRE,POST,MIDのラベルは固有表現の前後および固有表現の間の形態素に付与するように設けたものである.これは見方を変えると関根らがOTHER(あるいはNONE)としていたラベルを固有表現以外の部分の始まり(POSTに対応),中間(OTHERに対応),終り(PREに対応),単独(MIDに対応)に細分類したものであるとも言える.OPTIONALに関する4種類およびPRE,POST,MIDのラベルがどの程度精度に影響しているかを調べるために,それぞれのラベルをOTHERにマージして追加実験を行なった.その結果を表~\ref{Comparison2}〜表~\ref{Comparison3}にあげる.表の括弧内の数値は表~\ref{Result}にあげた精度からの増減を表す.これらの実験ではMEモデルによるラベル付けの精度の違いを調べることを目的としているためいずれも書き換え規則は用いていない.{\scriptsize\begin{table*}[htbp]\begin{center}\caption{OPTIONALのラベルをOTHERにマージした場合(書き換え規則は用いない)}\label{Comparison2}\begin{tabular}{|l|r@{}r|r@{}r|}\hline&\multicolumn{2}{c|}{ARREST}&\multicolumn{2}{c|}{GENERAL}\\\cline{2-5}固有表現(NE)&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}\\&(\%)&(\%)&(\%)&(\%)\\\hlineORGANIZATION&58.11&81.13&59.28&82.31\\PERSON&82.47&84.21&76.33&83.50\\LOCATION&73.58&78.00&69.98&82.81\\ARTIFACT&61.54&66.67&33.33&50.00\\DATE&97.22&97.22&90.00&95.12\\TIME&94.74&100.00&87.04&94.00\\MONEY&100.00&80.00&93.33&82.35\\PERCENT&-&-&80.95&94.44\\\hline総合&78.41&84.72&72.12&85.01\\&(-0.77)&(-0.36)&(-0.07)&(+0.05)\\\hline\hlineF-measure&\multicolumn{2}{c|}{81.44(-0.58)}&\multicolumn{2}{c|}{78.04(-0.01)}\\\hline\end{tabular}\end{center}\begin{center}\caption{PRE,POST,MIDのラベルをOTHERにマージした場合(書き換え規則は用いない)}\label{Comparison1}\begin{tabular}{|l|r@{}r|r@{}r|}\hline&\multicolumn{2}{c|}{ARREST}&\multicolumn{2}{c|}{GENERAL}\\\cline{2-5}固有表現(NE)&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}\\&(\%)&(\%)&(\%)&(\%)\\\hlineORGANIZATION&58.11&79.63&57.06&78.03\\PERSON&86.60&88.42&74.26&83.39\\LOCATION&74.53&81.44&68.04&84.13\\ARTIFACT&53.85&63.64&31.25&48.39\\DATE&97.22&95.89&88.46&93.50\\TIME&94.74&100.00&94.44&98.08\\MONEY&100.00&88.89&93.33&73.68\\PERCENT&-&-&80.95&94.44\\\hline総合&79.43&86.55&70.53&84.19\\&(+0.25)&(+1.47)&(-1.66)&(-0.77)\\\hline\hlineF-measure&\multicolumn{2}{c|}{82.84(+0.82)}&\multicolumn{2}{c|}{76.76(-1.29)}\\\hline\end{tabular}\end{center}\begin{center}\caption{PRE,POST,MID,OPTIONALのラベルをOTHERにマージした場合\\(書き換え規則は用いない)}\label{Comparison3}\begin{tabular}{|l|r@{}r|r@{}r|}\hline&\multicolumn{2}{c|}{ARREST}&\multicolumn{2}{c|}{GENERAL}\\\cline{2-5}固有表現(NE)&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}\\&(\%)&(\%)&(\%)&(\%)\\\hlineORGANIZATION&58.11&81.13&56.51&78.16\\PERSON&86.60&88.42&74.56&83.44\\LOCATION&75.47&80.81&68.04&84.13\\ARTIFACT&53.85&63.64&31.25&50.00\\DATE&97.22&95.89&88.08&93.47\\TIME&94.74&100.00&94.44&98.08\\MONEY&100.00&88.89&93.33&73.68\\PERCENT&-&-&80.95&94.44\\\hline総合&79.69&86.59&70.40&84.30\\&(+0.51)&(+1.51)&(-1.79)&(-0.66)\\\hline\hlineF-measure&\multicolumn{2}{c|}{83.00(+0.98)}&\multicolumn{2}{c|}{76.72(-1.33)}\\\hline\end{tabular}\end{center}\end{table*}}表から分かるようにOPTIONALに関するラベルは期待していたほど精度に影響を与えていなかった.PRE,POST,MIDのラベルは一般ドメイン(GENERAL)に対しては精度の向上に貢献しているのに対し,限定ドメイン(ARREST)に対してはその利用がかえって精度を低下させることになっている.固有表現ごとに精度の増減を調べてみると,PRE,POST,MIDのラベルをOTHERにマージすることによって限定ドメインに対してはPERSONとLOCATIONの精度が良くなっており,他の固有表現に対しては悪くなっていることが分かる.限定ドメインの内訳(表~\ref{Answer})を見るとPERSONとLOCATIONの個数が多く,これらの固有表現に対する抽出精度が良くなったため全体の精度も良くなったと考えられる.PERSONとLOCATIONに対する精度が良くなったのはPREやPOSTなどが数の多いPERSONやLOCATIONの性質に引っ張られてPERSONやLOCATIONの前後に位置しやすいラベルとして学習されたためである可能性が高い.PERSONやLOCATIONについてはPREやPOSTなどをさらに細分類してPERSON:PREやPERSON:POSTのようなラベルを考えると良いかも知れない.このような細分類は,PERSONやLOCATION,特にPERSONは固有表現直後の形態素が「さん」や「氏」など特別な語であることが多く,他の固有表現についてそのような傾向は見られない\cite{nova_irex2:99}ことからも妥当な方法であると考えられる.しかし,抽出精度をもとに細分類を続けると本試験のデータに対しては精度が良くなるかもしれないが,他のデータに対しても良くなるとは言えなくなる.したがって,これ以上細分類して本試験のデータに対する精度を調べることはあまり意味がないと思われる.Borthwickのシステムとの精度の差(表~\ref{Comparison})は主にこのラベルの定義の違いと素性の違いから生じていると考えられる.素性の違いについては後で述べる.一方,野畑はARTIFACT,LOCATION,ORGANIZATIONを細分類してF-measureで2ポイント程度精度が向上したと報告している.我々のシステムにおいてもどの程度精度に影響するかを調べたいところであるが,学習コーパスに付与されたラベルを人手で細分類する必要があるため同じ学習コーパスを作成するのは困難であると判断し,野畑の細分類に基づいて追加実験をするのは見合わせた.新納は形態素ごとではなく文字ごとにNEラベルを付与する方法を提案した.この方法は形態素の区切りと固有表現の区切りが一致しない場合でも一つのモデルで固有表現を抽出できるという点で優れているが,精度は我々に比べてF-measureで20ポイント以上低い.この理由は,後に述べる素性に関連することであるが,新納の方法が文字3-gramという少ない情報のみを用いてNEラベルを推定しているためであると考えられる.3文字ということは多くても3形態素の情報しか用いていないということである.我々の実験では,\ref{sec:features_and_accuracy}節でも述べたように着目する形態素およびその前後2形態素ずつの情報を用いた場合が最も精度が良いことから,新納の方法で我々のシステムと同程度の精度を得るためには少なくとも文字5-gram以上の情報を用いる必要があるだろう.しかし,文字5-gramを得るには膨大な学習コーパスが必要であり,我々が実験に用いた学習コーパスだけでは我々のシステムと同程度の精度は得られないと予想される.\subsubsection{素性について}\label{sec:feature}Borthwickや野畑は我々が用いた素性に加えて字種情報,統語的情報や辞書情報などを用いて精度を向上させている.このうち字種情報については我々の素性においても形態素の品詞情報としてある程度考慮されている.統語的情報については野畑のシステムで用いられている方法では人手の介入が必要であり,同じ条件での実験は困難である.辞書情報については我々の素性に加えて追加実験を行ない,精度に与える影響を調べた.辞書情報としてはBorthwickや野畑と同様に文献\cite{sekine:homepage}で公開されているものを用いた.これは組織名,地名に関する辞書で登録数は約1,000である.それに加えて,学習コーパスに3回以上出現した固有表現約1,400個(ORGANIZATION:272個,PERSON:336個,LOCATION:339個,ARTIFACT:45個,DATE:233個,TIME:31個,MONEY:21個,PERCENT:45個,OPTIONAL:56個)を取り出しそれぞれの固有表現ごとに9種類の辞書を作成した.予めこれらの辞書に登録されている固有表現をJUMANを用いて形態素解析し,各形態素に我々の定義したNEラベルを付与しておく.素性としては,形態素の見出し語がこれらの辞書中でどのようなNEラベルが付与されているかという情報を用いた.つまり,我々が定義した40個のラベルの各々について付与されているかいないかのそれぞれを素性として用いる.辞書中の形態素の見出し語の異なり数は合計約10,000個である.この素性を,着目している形態素のみについて利用した場合,着目している形態素を含む前後1形態素ずつ合計3形態素について利用した場合,着目している形態素を含む前後2形態素ずつ合計5形態素について利用した場合それぞれについて追加実験を行なった.それぞれの実験結果を表~\ref{Comparison5}〜表~\ref{Comparison7}にあげる.結果は着目している形態素のみについて利用した場合が最も精度が良く,考慮する前後の形態素の数が増えるにつれて精度は悪くなった.これは辞書の登録数が問題になっている可能性が高い.辞書に登録されている固有名詞は高々2,400個程度であり,そのうち1形態素,2形態素,3形態素,4形態素以上からなるものはそれぞれ745個,448個,125個,60個である.例えば二つ前の形態素の見出し語が辞書にあるかないかという情報(我々が辞書情報の素性として利用したもの)が有効なのは辞書に登録されている固有名詞の約8\%,185(=125+60)個についてのみであるということになる.今回,学習コーパス以外から得た辞書情報としては一般に公開されている1,000語程度の辞書を用いたが,一般に利用可能な大規模な固有名詞辞書があれば,辞書の登録数と精度の関係も調べてみたい.{\scriptsize\begin{table*}[htbp]\begin{center}\caption{辞書情報を素性として考慮した場合((0)のみ考慮)}\label{Comparison5}\begin{tabular}{|l|r@{}r|r@{}r|}\hline&\multicolumn{2}{c|}{ARREST}&\multicolumn{2}{c|}{GENERAL}\\\cline{2-5}固有表現(NE)&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}\\&(\%)&(\%)&(\%)&(\%)\\\hlineORGANIZATION&68.92&85.00&62.33&79.79\\PERSON&83.51&85.26&77.22&83.92\\LOCATION&83.96&84.76&76.76&86.38\\ARTIFACT&61.54&80.00&35.42&48.57\\DATE&97.22&97.22&90.77&94.78\\TIME&94.74&100.00&90.74&94.23\\MONEY&100.00&88.89&93.33&82.35\\PERCENT&-&-&100.00&100.00\\\hline総合&83.55&88.08&75.89&85.20\\&(+1.80)&(+1.90)&(+1.39)&(+0.17)\\\hline\hlineF-measure&\multicolumn{2}{c|}{85.75(+1.84)}&\multicolumn{2}{c|}{80.17(+0.75)}\\\hline\end{tabular}\end{center}\begin{center}\caption{辞書情報を素性として考慮した場合\mbox{((-1)(0)(1)を考慮)}}\label{Comparison6}\begin{tabular}{|l|r@{}r|r@{}r|}\hline&\multicolumn{2}{c|}{ARREST}&\multicolumn{2}{c|}{GENERAL}\\\cline{2-5}固有表現(NE)&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}\\&(\%)&(\%)&(\%)&(\%)\\\hlineORGANIZATION&71.62&81.54&63.16&79.17\\PERSON&78.35&86.36&74.85&84.05\\LOCATION&83.02&83.81&77.24&89.36\\ARTIFACT&46.15&75.00&31.25&53.57\\DATE&95.83&95.83&90.00&92.86\\TIME&94.74&100.00&90.74&92.45\\MONEY&100.00&100.00&93.33&63.64\\PERCENT&-&-&100.00&100.00\\\hline総合&81.75&87.36&75.03&85.70\\&($\pm$0)&(+1.18)&(+0.53)&(+0.67)\\\hline\hlineF-measure&\multicolumn{2}{c|}{84.46(+0.55)}&\multicolumn{2}{c|}{80.01(+0.59)}\\\hline\end{tabular}\end{center}\begin{center}\caption{辞書情報を素性として考慮した場合\mbox{((-2)(-1)(0)(1)(2)を考慮)}}\label{Comparison7}\begin{tabular}{|l|r@{}r|r@{}r|}\hline&\multicolumn{2}{c|}{ARREST}&\multicolumn{2}{c|}{GENERAL}\\\cline{2-5}固有表現(NE)&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}\\&(\%)&(\%)&(\%)&(\%)\\\hlineORGANIZATION&68.92&79.69&62.05&78.32\\PERSON&78.35&86.36&74.85&82.95\\LOCATION&81.13&83.50&75.79&88.42\\ARTIFACT&46.15&75.00&33.33&53.33\\DATE&95.83&95.83&91.15&93.68\\TIME&94.74&100.00&90.74&94.23\\MONEY&100.00&88.89&93.33&73.68\\PERCENT&-&-&100.00&100.00\\\hline総合&80.72&86.74&74.64&85.38\\&(-1.03)&(+0.56)&(+0.14)&(+0.35)\\\hline\hlineF-measure&\multicolumn{2}{c|}{83.62(-0.29)}&\multicolumn{2}{c|}{79.65(+0.23)}\\\hline\end{tabular}\end{center}\end{table*}}次に,素性として一つ前の形態素に付与したラベルの情報を考慮したときの精度を調べた.一般に学習による形態素解析では一つあるいは二つ前の形態素に付与したラベルの情報を用いて次のラベルを決定することが多い.我々の手法においてこれと同様の情報がどの程度精度に影響を与えるかを調べることが目的である.実験結果を表~\ref{Comparison4}にあげる.表から分かるようにどちらのドメインについても精度を下げる結果となった.特に再現率の低下が著しい.これは学習コーパスではOTHERの隣はOTHERであることが多く,この連接関係が他のラベルとの連接に比べて学習されやすいためOTHERが連続する場合が最適解となることが多くなるためであると考えられる.{\scriptsize\begin{table*}[htbp]\begin{center}\caption{一つ前の形態素に付与したラベルを素性として考慮した場合}\label{Comparison4}\begin{tabular}{|l|r@{}r|r@{}r|}\hline&\multicolumn{2}{c|}{ARREST}&\multicolumn{2}{c|}{GENERAL}\\\cline{2-5}固有表現(NE)&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}\\&(\%)&(\%)&(\%)&(\%)\\\hlineORGANIZATION&60.81&80.36&55.12&79.28\\PERSON&78.35&86.36&73.08&83.16\\LOCATION&83.96&88.12&74.33&85.28\\ARTIFACT&53.85&58.33&29.17&33.33\\DATE&95.83&95.83&85.38&94.47\\TIME&94.74&100.00&85.19&93.88\\MONEY&100.00&100.00&93.33&93.33\\PERCENT&-&-&95.24&95.24\\\hline総合&80.21&87.89&70.79&84.17\\&(-1.54)&(+1.71)&(-3.71)&(-0.86)\\\hline\hlineF-measure&\multicolumn{2}{c|}{83.87(-0.06)}&\multicolumn{2}{c|}{76.91(-2.51)}\\\hline\end{tabular}\end{center}\end{table*}}\subsubsection{後処理について}Borthwickは我々と同様に形態素解析により得られる形態素が固有表現より長い場合に対処するために書き換え規則を用いて後処理をしている.この後処理により,どちらのシステムもF-measureで2ポイント程度精度が向上している.違いはBorthwickが日本語を母語とする人が人手で作成した規則を用いているのに対し,我々は学習コーパスから誤り駆動で自動獲得した規則を用いている点にある.異なるドメインのテキストが与えられたとき,できるだけコストを少なく学習し直すためには規則を自動獲得できる方が望ましい.誤り駆動型学習を用いて固有表現を抽出するシステムには颯々野らのシステム\cite{Sassano:99}がある.このシステムは後処理として書き換え規則を適用することにより,形態素単位より短い文字列を含む固有表現だけでなく一つあるいは複数の形態素からなる固有表現も同様の手法を用いて抽出できる.彼らがベースラインとして用いているシステムの精度がF-measureで40程度であるため,我々のシステムをベースラインとして用いることによってより良い精度が得られる可能性が高いと考えられる.\subsubsection{IREX-NE本試験に参加したシステムの結果との比較}IREX-NE本試験での結果を表~\ref{table:formalrun_results}にあげる.最も良い精度を出したシステムは人手により作成された規則に基づいている.我々のシステムは本試験ではシステム番号1223であり,精度はF-measureで限定ドメインに対して74.90,一般ドメインに対して72.18であった.このように精度が悪かったのは「MIDDLE」に関するラベルの連接規則に洩れがあったためである.「MIDDLE」に関するラベル同士が連接可能であるという規則が欠如していたため,``比例(ARTIFACT:BEGIN)/代表(ARTIFACT:MIDDLE)/並立(ARTIFACT:MIDDLE)/制(ARTIFACT:END)''のように4形態素以上からなる固有表現は抽出できなくなっていた.本論文ではその洩れを埋めたときの精度を示した.その精度は最高でF-measureで85.75(限定ドメイン),80.17(一般ドメイン)であった.これはIREX-NE本試験で我々が用いた素性に加えて,\ref{sec:feature}節で述べた人名や組織名などの固有名詞辞書も利用したときの精度であり,悪くない精度であると考えている.我々の手法は学習コーパスがあれば人手のコストもかからないため,さまざまなドメインに対しても低コストでそれなりの精度が得られるものであると言える.{\scriptsize\begin{table}[htbp]\begin{center}\caption{IREX-NE本試験結果}\label{table:formalrun_results}\begin{tabular}{|c|c|c||c|c|c|}\hlineシステム&\multicolumn{2}{|c||}{F-measure}&システム&\multicolumn{2}{|c|}{F-measure}\\\cline{2-3}\cline{5-6}番号&ARR&GEN&番号&ARR&GEN\\\hline1201&54.17&57.69&1229&64.81&57.63\\1205&78.08&80.05&1231&81.94&74.82\\1213&59.87&66.60&1234&72.77&71.96\\1214&80.37&70.34&1240&58.46&60.96\\1215&74.56&66.74&1247&87.43&83.86\\1223&74.90&72.18&1250a&70.12&69.82\\1224&77.61&75.30&1250b&55.24&57.76\\1227&85.02&77.37&&&\\\hline\end{tabular}\end{center}\end{table}} \section{まとめ} 本論文ではMEモデルと書き換え規則を用いて固有表現を抽出する手法について述べた.IREX-NEの定義に基づくと固有表現には一つあるいは複数の形態素からなるものと形態素単位より短い部分文字列を含むものの2種類がある.前者の固有表現は,固有表現の始まり,中間,終りなどを表すラベルを40個用意し,それらのラベルを推定することによって抽出する.ラベルの推定にはコーパスから学習したMEモデルを用いる.後者の固有表現は書き換え規則を用いて抽出する.書き換え規則は学習コーパスに対するシステムの解析結果とコーパスの正解データとの差異を調べることによって自動獲得することができる.書き換え規則,素性,学習コーパスの量についての条件を変えた比較実験により,形態素解析により得られる形態素が固有表現より長い場合に書き換え規則が有効であること,我々が考慮した素性,つまり,着目している形態素を含む前後2形態素ずつ合計5形態素に関する見出し語,品詞の情報がIREX-NE本試験に用いられたテキストに対して有効であることを示すことができた.これらは学習コーパスのみから得られる情報であったが,それに加えて一般に公開されている人名や組織名などの固有名詞辞書も利用することにより,IREX-NE本試験のデータに対する実験で,F-measureで85.75(限定ドメイン),80.17(一般ドメイン)の精度を得ることができた.本手法の精度をさらに向上させるために必要であると考えているのは,以下の三点である.\begin{itemize}\item素性の発見今回は利用しなかったような情報,例えば,係り受けの情報や照応関係などを素性として新たに考慮することによって,ラベル推定の精度が向上することが期待される.また,解析と同時に解析の過程で得られた情報を利用することも考えられる.これは今後の重要な課題である.\itemコーパス,辞書の充実今回の実験では書き換え規則を利用したことによる誤り例を考察することで,学習コーパスの誤りが精度に影響することが分かった.また,辞書情報を考慮することで精度が向上することも分かった.コーパス修正や辞書作成にかかるコストを考えると,コーパスの誤りを自動あるいは半自動で修正する方法,辞書情報を自動あるいは半自動で獲得する方法を考案する必要がありそうである.\item特定ドメインへのチューニングドメインを限定すると,そのドメインに固有の固有表現パターンに,より特化した学習が可能であると考えられる.今回は限定ドメインに対して特にチューニングするようなことはしなかったが,限定ドメインに対しどこまでチューニングすることが可能かを調べたい.\end{itemize}\begin{flushleft}{\bf謝辞}\end{flushleft}本研究を進めるにあたって有意義なコメントを下さったニューヨーク大学の関根聡助教授に心から感謝の意を表する.また,データの利用を許可して下さった毎日新聞社に感謝する.\bibliographystyle{jnlpbbl}\bibliography{v07n2_04}\begin{biography}\biotitle{略歴}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所,郵政技官.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{馬青}{1983年北京航空航天大学自動制御学部卒業.1987年筑波大学大学院理工学研究科修士課程修了.1990年同大学院工学研究科博士課程修了.工学博士.1990$\sim$93年株式会社小野測器勤務.1993年郵政省通信総合研究所入所,主任研究官.人工神経回路網モデル,知識表現,自然言語処理の研究に従事.日本神経回路学会,言語処理学会,電子情報通信学会,各会員.}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.研究官.自然言語処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL,各会員.}\bioauthor{小作浩美}{1985年郵政省電波研究所(現通信総合研究所)入所.研究官.自然言語処理の研究に従事.言語処理学会,情報処理学会,電子情報通信学会,各会員.}\bioauthor{内山将夫}{筑波大学第三学群情報学類卒業(1992).筑波大学大学院工学研究科博士課程修了(1997).信州大学工学部電気電子工学科助手(1997).郵政省通信総合研究所非常勤職員(1999).博士(工学).}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V06N06-06
\section{はじめに} 本論文では,文,文章上の特徴,および文章の解析により得られた構造上の特徴をパラメタとして用いた判定式による文章の自動抄録手法を示す.さらに,抽出された文の整形や照応を考慮した文章要約手法について述べる.近年のインターネットなどの発展により,大量の電子化された文書が我々の周りに溢れている.これら大量の文書から必要とする情報を効率良く高速に処理するために,キーワード抽出や文章要約,抄録といった研究が行なわれている.それらのためには,計算機を用い,必ずしも深い意味解析を行なわずに文章の表層的特徴から解析を行なう方法が有効である.文章抄録とは文章から何らかの方法で重要である文を選び出し,抽出することである.山本ら\cite{Masuyama:95}は照応,省略,語彙による結束性など多くの談話要素から重要文を選択していく論説文要約システム(GREEN)を発表している.このシステムは談話要素を利用したものではあるが,文章の局所的な特徴を基に文を抽出するもので,本研究の立場からすれば文章全体の構造に基づく抽出と,電子化された大量のコーパス利用を考慮した抽出手法や手法の評価が必要と考える.また,亀田\cite{Kameda:97}は重要文の抽出の際に文章の中で小さなまとまりを示す段落や,一種の要約情報である文の見出しに着目する手法を提案,実現しているが,重要度計算の調整は人手により,系統的でないところが感じられる.さて,重要文の抽出に用いられるテキスト中の表層的特徴については,\cite{Okumura:98}にサーベイがある.これによると,Paice\cite{Paice:90}の分類として,(1)キーワードの出現頻度によるもの,(2)テキスト,段落中の位置情報によるもの,(3)タイトル等の情報によるもの,(4)文章の構造によるもの,(5)手がかり語によるもの,(6)文や単語間のつながりによるもの,(7)文間の類似性によるものがあげられている.本研究での手法は,上記のかなりの要素を組み合わせてパラメタとして利用している.いくつかの観点からのパラメタを組み合わせるという同様な手法として,\cite{Watanabe:96},\cite{Nomoto:97}がある.それぞれ,重回帰分析,決定木学習により訓練データから自動学習するものである.われわれの手法は,構造木に関する情報を特に重視している.人間は,目的の意見,主張を読み手に伝えるために,意識下/無意識下に文章構成の約束に基づいて文章生成を行なっているが,それらの文章に論証性を持たせるためのものが文章構造である.また逆に,文章を理解し論旨を捉える際に文章構造を活用していると考えられる.したがって,文章の抄録にあたり,論旨を捉え,文章構造を理解した上で重要文を抽出していく手法は人間の文章抄録の流れに沿っており,ごく自然であると考えられる.実際,\cite{Marcu:97}では,人間の手による生成ではあるが文間の関係を解析した修辞構造生成後の文抽出の再現率,適合率は良好と報告されている.われわれの手法でも,修辞構造を含めた文章構造解析による情報を利用する.文章構造解析には田村ら\cite{Tamura:98}の分割と統合による構造解析手法を利用する.文章抄録には,構造解析で用いたパラメタに加えて,得られた文章構造上の情報についてのパラメタにより文抽出のための判定式を作り,それを基にして抄録を作成する.判定式とパラメタの重みの決定は重回帰分析に基づき,その訓練のため,およびシステムの評価のための基準データは,被験者に対するのべ350編の抄録調査による.なお,実験の対象とした文章は,均一な文章が容易に入手可能であるとの理由から,新聞の社説を用いる.一方,原文から単に文を選ぶだけの文章抄録では,選択された文間の隣接関係が不自然になる場合がある.また,たとえ選択された一文でも文内には冗長な表現が残っている場合がある.そこで,自動要約に向けては,抄録後になんらかの文章整形過程が必要である.本研究では,抄録の整形過程としての照応処理と,一文の圧縮処理を行なう.以下,第2章では文章抄録,要約のための文章構造解析について述べ,第3章では文章の自動抄録の手法について説明する.第4章では,提案の手法について再現率,適合率により評価検討を行う.最後に付録として,抄録の整形過程について述べ,実際に要約した文章例を示す. \section{分割と統合による文章構造解析} \label{structure}文章とはある首尾一貫性を持った文の集まりである.それゆえ文章を理解し,抄録を作成するためには,その文章がどのような構成(構造)になっているかを知る必要がある.よってここでは文章の構造解析について述べる.文章の構造化としてはMann\cite{Mann:87:a}の修辞構造理論を基にして論旨の展開を木構造として表現する手法\cite{Tamura:98}を用いる.これは大量の文章を高速に処理するために深い意味解析に立ち入らず,主に表層的な処理のみでセグメントの分割(トップダウン的アプローチ),およびセグメントの統合(ボトムアップ的アプローチ)を行なっている.こうすることで,文章の木構造を根から葉へ,かつ葉から根へと交互に生成してゆき,一方の欠点を他方の利点で補う効果的な文章解析を行なうことができる.この解析処理の例を摸式的に示したのが図\ref{fig:kaiseki}である.\begin{figure}[hbtp]\begin{center}\epsfile{file=tb_model.eps,scale=0.7}\caption{分割と統合による構造解析}\label{fig:kaiseki}\end{center}\end{figure}トップダウン的解析では,望月ら\cite{Mochiduki:96}の文章の表層表現を情報とした,テキストセグメンテーションの手法を利用して文章の分割を行なう.すべての文間について判定式による評価値を求め,評価値の高い順にセグメントの分割を行なう.また,ボトムアップ的解析でも判定式を用い,すべての文間について評価値を求め,評価値の高い順にセグメントの統合を行なう.それぞれの判定式のパラメタの重みは,訓練データ\footnote{日本経済新聞の社説100編}のテキスト中のすべての文と文の境界についてパラメタを評価し,重回帰分析により求める.パラメタは以下の観点から選択する\cite{Mochiduki:96}(詳細は\ref{hantei}の1(単独の文に関するもの)参照).\begin{itemize}\item助詞「は」と「が」の出現\item接続語の有無\item指示詞の有無\item時制の情報\item文末表現の情報\item語彙連鎖情報\end{itemize}本手法によって新聞社説\footnote{日本経済新聞1993年1月28日(付録に示す)}を解析してできた修辞構造木の例を図\ref{fig:tb_tree}に示す.\begin{figure}[htb]\begin{center}{\footnotesize{\baselineskip=11pt\begin{verbatim}[]|-(1,1)|-順接|-[]|-[]||-[]|||-[]||||-[]|||||-[(2,1),順接,(2,2)]|||||-逆接|||||-[[(3,1),順接,(3,2)],順接,(3,3)]||||||||-順接||||-(4,1)||||||-順接|||-[]|||-[]||||-[[(5,1),順接,(5,2)],順接,(5,3)]||||-順接||||-(5,4)||||||-順接|||-(5,5)||||-順接||-[]||-[[(6,1),順接,(6,2)],順接,(6,3)]||-順接||-[(7,1),順接,(7,2)]||-順接|-[[(8,1),結論,(8,2)],転換,(8,3)]\end{verbatim}\caption{修辞構造解析結果の例}\label{fig:tb_tree}}}\end{center}\end{figure}この修辞構造木において\verb|(m,n)|は1文に対応し,\verb|m|が原文章の形式段落の番号,\verb|n|が形式段落内の文の番号を表す.また,「順接」,「強調」,「説明」等は隣接するセグメント間の修辞関係\footnote{それ以外に「逆接」,「換言」,「添加」,「条件」,「結論」,「一般化」,「相反」,「提起」,「根拠」,「因果」,「並列」,「選択」,「対比」,「転換」,「例示」がある.}を表している\cite{Mann:87:a}.修辞関係は,cuewordにより文頭の接続表現を18種,文末表現を14種に分類し,接続表現があればそれにより同定し,なければ,隣接する前文,後文の文末表現その他の組み合わせをもとに決定している.それぞれの関係に応じて,どちらが核(nucleus),衛星(satellite)であるかも決定する.また,セグメント間の修辞関係の同定は,核をたどることによってセグメントを代表する1文を求め,これらの文間の関係により同定する.なお,「順接」をdefaultとしている.(詳細については,\cite{Tamura:98}を参照されたい.) \section{文章抄録} label{shouroku}本論文で提案する抄録手法は,まず文章の構造化を行ない,得られた修辞構造木の情報やその他抄録の観点から選択されたパラメタに基づく判定式により各文の重要度を算出し,重要度の高い文から抽出していく.判定式中のパラメタの重みは被験者が作成した抄録について重回帰分析により訓練する.また,本研究では,文だけでなく構造木の部分木の削除も行なう手法についても検討する.部分木とは,根に近い枝から順に構造木を分割したもののリスト構造で,文章の段落に相当するものである.部分木の数は,社説の全文数を形式段落内の文の数の平均2.69\footnote{1993,1994年の日本経済新聞の社説1227編から求めた.}で除することにより求める.この処理を摸式的に示したのが図\ref{fig:sub_tree}であり,構造木の根に近い節点から(1,2,3)順に分割していったものが部分木である.実際に図\ref{fig:tb_tree}の構造木から再構成される部分木の例を図\ref{fig:part_tree}に示す.この例では文の数が20個なので,それを2.69で割り,部分木の数が7となる.\begin{figure}[hbtp]\begin{center}\epsfile{file=sub_tree.eps,scale=0.9}\caption{構造木の部分木}\label{fig:sub_tree}\end{center}\end{figure}\begin{figure}[htbp]{\footnotesize{\baselineskip=11pt\begin{verbatim}[]|-(1,1)||-[]||-[]|||-[(2,1),順接,(2,2)]|||-逆接|||-[[(3,1),順接,(3,2)],順接,(3,3)]||||-順接||-(4,1)||-[]||-[[[(5,1),順接,(5,2)],順接,(5,3)],順接,(5,4)]||-順接||-(5,5)||-[(6,1),順接,(6,2)]|-(6,3)|-[(7,1),順接,(7,2)]|-[[(8,1),結論,(8,2)],転換,(8,3)]\end{verbatim}}\vspace{-6ex}\caption{構造木から再構成される部分木の例(図2の構造木より)}\label{fig:part_tree}}\end{figure}\subsection{抄録手法}\label{method}本研究で提案する抄録手法は,基本的には\ref{structure}節で述べた文章の構造化を行ない,その構造上の情報と\ref{hantei}節で述べるパラメタより重要文を選択,抽出するものである.ここでは,さらに文の抽出の前に部分木を削除する過程を加えた手法も検討対象とする.また,構造化は行なわずに判定する手法も加え,以下の3種の手法を検討する.\begin{description}\item[手法1](文章構造解析+部分木削除+重要文抽出による抄録)\\この手法では,(i)文章構造解析により修辞構造木を作成し,作成された修辞構造木をさらに部分木に分割する.(ii)各部分木の重要度を後出の式(\ref{import})を用いて算出し,重要度の低い部分木から削除していく.(iii)残った各文の重要度を算出し,重要度の高い文から抽出していく.という3つの段階を踏む.(ii),(iii)での削除,抽出の量は実験時に設定する.\item[手法2](i)+(iii)\\この手法では,パラメタを採集するために文章の構造化,さらに部分木の再構成を行い,その後で構造上の情報その他を用いて各文の重要度を算出し,抽出する.\item[手法3](iii)\\この手法では,文章の構造化は行なわずに,単独の文個々についてのパラメタにより各文の重要度を算出し,抽出する.\end{description}\subsection{判定式を用いた自動抄録}\label{hantei}観測点の各種パラメタを基にそれが属するクラスを判定する手法はいくつかあるが,本研究では重回帰分析を用いる.判定のための式は以下である.ただし,採用,不採用の判定は,対象文章の各文を式(\ref{import})により評価し,評価値が大きいものから,順に所定の要約率となるまで採用することとする.\vspace{-6ex}\begin{center}\begin{equation}\hat{z}_{sum}=\delta_{0}+\delta_{1}y_{1}+\delta_{2}y_{2}+\cdots+\delta_{q}y_{q}\label{import}\vspace{-2ex}\end{equation}($y_{i}$:パラメタ$i$の点数,$\delta_{i}$:パラメタ$i$の重み)文の重要度算出の判定式\end{center}各文のパラメタとして以下を用いる.\begin{enumerate}\item単独の文に関するもの\begin{itemize}\item文末表現(3種)\\表層表現から文を「意見」,「断定」,「陳述」の3タイプに分類し,該当するパラメタを1とする.\item時制(1種)\\文を「現在」,「過去」に分類し,「現在」ならパラメタを1とする.\item参照表現(1種)\\文に「これ」,「その」,「あれ」などの指示語による参照表現が存在すれば1とする.\item助詞「は」と「が」の出現(2種)\\文に助詞「は」,「が」が存在すれば,該当するパラメタを1とする.\item接続詞(2種)\\「補足」的,「展開」的な接続詞が存在すれば,該当するパラメタを1とする.\item文に含まれる重要語の数(1種)\\キーワード抽出で用いられるtf*idf法\footnote{実験では,idf値は,1993,1994年の日本経済新聞の社説1227編より求めた.}により抽出された重要語の出現数を値とする.\item文を通過する重要語の語彙連鎖の数(1種)\\語彙連鎖を形成する重要語の出現数を値とする.ただし,同義語はまとめて1語とし,連鎖中の短いギャップに対しては重要語が存在しなくても数に加える.\item文の位置(2種)\\文章の先頭からの距離,終わりからの距離を値とする.\end{itemize}\item構造木上の情報に関するもの\begin{itemize}\item修辞関係の核(nucleus)または衛星(satellite)であるかどうか(34種\footnote{訓練の結果,使用されなかったものもある.})\\各パラメタは「順接」を除く修辞関係17種それぞれについての核,衛星に対応する.文が文章構造解析で得られた修辞関係の核,衛星であれば対応するパラメタを1とする.\end{itemize}\item部分木(段落)の情報に関するもの\begin{itemize}\item文の位置(6種)\\文が含まれる部分木の位置,部分木中の位置,など.\end{itemize}\item部分木の削除についても,以下のパラメタを持つ判定式を用い,重回帰分析により訓練する.\begin{itemize}\item部分木内の文の文末タイプの情報(3種)\\部分木内で,「意見」,「断定」,「陳述」についてそれぞれのタイプの文が出現する割合を値とする.\item部分木内の文に含まれる重要語の数(1種)\\前述の重要語の数.\item部分木内の文を通過する重要語の語彙連鎖(1種)\\同様に,重要語の語彙連鎖の数.\item文章の開始または終りからの距離(2種)\\この部分木(段落)が,初めまたは終わりから幾つめの部分木であるか.\item部分木内の文の数(1種)\\部分木(段落)内に含まれる文の数.\end{itemize}\end{enumerate} \section{実験と検討} label{experiment}\subsection{パラメタの訓練}実験にあたって,まず訓練と評価のために人間の被験者の抄録結果による正解を定める.抄録は,学生5人\footnote{本学学部1年生.自然言語処理についての教育は特に受けていない.}を被験者として,日本経済新聞CD-ROM'93〜'94版の中の社説のべ350編について重要であると思う文を全文数の3割程度選択させる.調査用社説は表\ref{tab:set}のようにA〜Lのセットに分け,A〜Fセットを訓練用セット,G〜Lセットを評価用セットとする.被験者と調査させたセットの対応を表\ref{tab:set2}に示す.{\small\begin{table}[htbp]\begin{center}\begin{tabular}{|c|c||c|c|}\hline訓練セット&記事数&評価セット&記事数\\\hline\hlineA&20&G&10\\\cline{1-2}B&30&H&10\\C&30&I&10\\D&30&J&10\\E&30&K&10\\\cline{3-4}F&30&L&10\\\hline\end{tabular}\end{center}\caption{調査セットと記事数}\label{tab:set}\end{table}}{\small\begin{table}[htbp]\begin{center}\begin{tabular}{|c|c|}\hline被験者&調査セット\\\hline\hline1&A,B,G,L\\\hline2&A,C,H,L\\\hline3&A,D,I,L\\\hline4&A,E,J,L\\\hline5&A,F,K,L\\\hline\end{tabular}\end{center}\caption{調査セットの被験者への配分}\label{tab:set2}\end{table}}調査の結果,全文数8164,選択された文数2172,平均要約率26.6\%となった.まず,Aセット20編(以下,訓練セット1),B〜Fセット合計150編(以下,まとめて訓練セット2)の2セットについてそれぞれ重回帰分析により,式(\ref{import})におけるパラメタの重みを決定する.それぞれは,次のような方針に基づく.\begin{description}\item[訓練セット1]訓練セット1の基準値としては各文についてその文が重要であるとした被験者の人数を与える.つまり,各文に$0〜5$の値を与える.この訓練セットは同一の文章を多人数で調査することによって判定の質を重視した訓練セットである.\item[訓練セット2]訓練セット2の基準値としては各文について担当した被験者が重要であるとした文に$1$,そうでない文に$0$の値を与える.この訓練セットは標本集合を大きくすることによって訓練の規模を重視する訓練セットである.\end{description}手法1では,部分木の選択においても重回帰分析による手法を用いるが,被験者には文単位での重要文選択しか行なわせていないため,あらかじめ前述の手法により各社説の構造化を行ない,部分木を作成する.その上で,被験者が選択した文が部分木に含まれていればその部分木の観測値を$10$,含まれていなければ$0$とする.これを正解として重回帰分析によりパラメタの重みを決定する.\subsection{生成された抄録文の評価}抄録は\ref{method}節に示した3種類の抄録手法で作成し,さらに手法1については部分木の削除の段階で,部分木(段落)を50\%,25\%,10\%ずつ削除した場合についてそれぞれ抄録を作成する.抽出する文の数は,人間の重要文選択調査における平均要約率26.6\%を目安とする.評価セットG〜K,および評価セットLに対する実験結果から,それぞれについて以下の式により,再現率,適合率を求める.{\small\[再現率=\frac{自動抄録により得られた抄録文に含まれる正解文数}{正解文数(人間によって選択された文数)}\]\[適合率=\frac{自動抄録により得られた抄録文に含まれる正解文数}{自動抄録により得られた抄録文数}\]}ここで,正解とは以下のように定義する.評価セットG〜Kについては,個別に評価するのではなくひとまとまりとして扱い,担当した被験者が選択したかどうかによるもとのする.評価セットLについては,被験者5人中2人以上が重要であると判断された文を抄録の正解とする.評価セットG〜Kに対する再現率,適合率を表\ref{tab:saigen_tekigou1}に,評価セットLに対する再現率,適合率を表\ref{tab:saigen_tekigou2}に示す.{\footnotesize\begin{table}[hbtp]\begin{center}\tabcolsep=5mm\begin{tabular}{|c|c||c|c|c|c|}\hline&部分木&\multicolumn{2}{|c|}{訓練セット1で訓練}&\multicolumn{2}{c|}{訓練セット2で訓練}\\\cline{3-6}&の削除率&再現率&適合率&再現率&適合率\\\hline\hline&50\%&26.9\%&36.9\%&25.3\%&36.7\%\\\cline{2-6}手法1&25\%&31.9\%&37.4\%&30.9\%&36.4\%\\\cline{2-6}&10\%&33.1\%&36.4\%&35.3\%&38.8\%\\\hline手法2&$-$&33.4\%&34.5\%&37.5\%&38.7\%\\\hline手法3&$-$&32.8\%&33.9\%&34.1\%&35.2\%\\\hline\end{tabular}\end{center}\caption{評価セットG〜Kに対する再現率・適合率}\label{tab:saigen_tekigou1}\end{table}}{\footnotesize\begin{table}[hbtp]\begin{center}\tabcolsep=5mm\begin{tabular}{|c|c||c|c|c|c|}\hline&部分木&\multicolumn{2}{|c|}{訓練セット1で訓練}&\multicolumn{2}{c|}{訓練セット2で訓練}\\\cline{3-6}&の削除率&再現率&適合率&再現率&適合率\\\hline\hline&50\%&33.3\%&40.7\%&34.7\%&42.4\%\\\cline{2-6}手法1&25\%&31.9\%&39.0\%&34.7\%&42.4\%\\\cline{2-6}&10\%&33.3\%&40.7\%&35.4\%&43.2\%\\\hline手法2&$-$&33.3\%&40.7\%&34.7\%&42.4\%\\\hline手法3&$-$&40.3\%&49.2\%&33.3\%&40.7\%\\\hline\end{tabular}\end{center}\caption{評価セットLに対する再現率・適合率}\label{tab:saigen_tekigou2}\end{table}}\subsection{抄録文に対する検討}\begin{itemize}\item評価セットG〜Kに対する検討\\再現率に関しては手法1の場合が低い値となった.これは部分木の削除の際に被験者が選択した文が含まれていても,その文を含む部分木の重要度評価値が低かったために部分木が削除されてしまい,抄録文として抽出されなかったためと思われる.訓練セット別に見ると訓練セット1より訓練セット2で訓練した方が,高い値となっている.これは訓練セット1の文章の数が社説20編と少なかったからと考えられる.適合率に関してはすべての手法でほぼ同じ値となった.訓練セット間の比較では訓練セット1の方が低い値となったが,再現率のときと同様の理由と思われる.抄録手法別に見ると再現率・適合率ともに手法1(10\%)と手法2が高い値となった.これは本研究で提案する文章構造の情報をパラメタに含めた判定式による抄録手法が有効であることを示している.また,過度に部分木を削除することの不適切性を示している.\item評価セットLに対する検討\\再現率・適合率ともに評価セットG〜Kに対する結果に比べ高い値となった.これは特異的に優しいセットだったためだと思われる.あるいは,被験者5人の判定を重ね合わせているので判定の質がアップしていることも寄与していると考えられる.訓練セット別に関してと抄録手法別に関しては,前述の評価セットG〜Kに対する結果と同様の傾向を示した.また,訓練セット1と評価セットLの組合せでは手法3の再現率・適合率が他より高いが,これは訓練セット,評価セット共に少ないため信頼できる評価ができないためで,より多くの評価セットで評価を行なう必要があると思われる.\itemパラメタ学習に関する検討\\セットAで訓練し,それを評価セットとして抄録を作成したときの再現率,適合率を表\ref{tab:saigen_tekigou3}に示す.ただし,正解は被験者5人中2人以上が重要であると判断された文とする.{\footnotesize\begin{table}[hbtp]\begin{center}\tabcolsep=5mm\begin{tabular}{|c|c||c|c|}\hline&部分木&\multicolumn{2}{|c|}{訓練セット1で訓練}\\\cline{3-4}&の削除率&再現率&適合率\\\hline\hline&50\%&41.1\%&54.3\%\\\cline{2-4}手法1&25\%&42.3\%&55.9\%\\\cline{2-4}&10\%&42.9\%&56.7\%\\\hline手法2&$-$&42.9\%&56.7\%\\\hline手法3&$-$&39.3\%&52.0\%\\\hline\end{tabular}\end{center}\vspace{2mm}\caption{セットAで訓練,評価したときの再現率・適合率}\label{tab:saigen_tekigou3}\end{table}}本来,訓練セットそのものを評価した場合,再現率,適合率とも100\%になってもよさそうなものである.表\ref{tab:saigen_tekigou3}の値は,訓練の限界を示す目安になっており,先の評価結果は,再現率ではこの値にかなり近付いている.\item人間の判断のばらつきに関する検討\\被験者5人に対して,重要文選択調査した社説のうち4人の結果を正解として,残り1人の結果と比較する.以上の実験を順に5人すべてに対して評価を行なった結果を表\ref{tab:only}に示す.なお,正解は4人中2人以上が選択した文とする.人間同士の比較でも再現率,適合率は表\ref{tab:only}で表される程度にばらつきがある.ただし,再現率,適合率間でそれほど大きな差はない.自動抄録についての研究の一つの目標を示しているものと考えられる.{\footnotesize\begin{table}[hbtp]\begin{center}\begin{tabular}{|c|c|c|c|c|c|c|}\hline被験者&1&2&3&4&5&平均\\\hline\hline再現率($\%$)&61.1&61.8&53.5&48.6&55.9&57.2\\\hline適合率($\%$)&56.4&67.2&67.9&58.4&68.6&63.7\\\hline要約率($\%$)&30.8&26.3&24.2&24.9&24.8&26.2\\\hline\end{tabular}\end{center}\vspace{2mm}\caption{被験者の抄録についての評価}\label{tab:only}\end{table}}\end{itemize}以上の結果より,本研究で提案する文章構造情報を利用した抄録手法が,利用しない抄録手法より有効であると言える.また,文章構造木を部分木に分割し,重要文抽出の前段階で部分木を削除する手法も提案したが,小規模な部分木削除(10\%)でもっとも良好な結果を示している.部分木の削除を考慮する場合,周囲との関連がない重要な文の存在が結果の精度に大きく影響する.すなわち,ノイズ的にパラメータの評価値が高くなってしまう文では,部分木の削除を行う場合(手法1),これが削除され,精度は向上する. \section{おわりに} label{conclusion}本論文では,文章中のさまざまな特徴をパラメタとした判定式から文章の構造化を行ない,さらに文章抄録の観点から選択したパラメタを加えた判定式による自動抄録手法を提案,実現し,評価,検討した.従来の抄録手法は文章中の情報を用いて各文について重要度を算出し,重要度の高い文から順に抽出していくものが多かった.本論文における手法も同様のものであるが,判定式に用いるパラメタは抄録作成の観点から選択したものに加えて,文章構造解析による構造木の修辞関係や部分木の位置などの構造的なものも選択した.パラメタの重みは,人間による重要文抽出調査の結果をもとに重回帰分析により求めた.また,文章構造の情報を考慮した場合としない場合での比較を行なうために,3種類の手法で抄録を作成し,検討を行なった.結果からパラメタとして文章構造の情報を使用する方が使用しない場合よりも良い結果が得られることが分かった.また,個人差があっても大規模な訓練セット(150編)を用いた方が,同一の記事を複数人で調査した訓練セット(20編)を用いるよりも結果は良好であった.なお,開発途中であるが,照応解析および一文内の圧縮をすることによる抄録から要約への展開および自動要約の実現を付録に示した.今後の課題として,他の学習方法についての検討,より大きい訓練セットでの実験,抄録文章の整形過程の検討,また,システムとしてのユーザインタフェースの整備があげられる.\section*{謝辞}本実験で使用したコーパスは,日本経済新聞CD-ROM'93〜94版から得ている.同社,および使用に関して尽力された方々に深く感謝します.\newpage{\large\bf付録(文章要約)}\vspace{5mm}抄録文章は,原文章から文を抜き書きしたものであり,参照表現,接続詞等も原文章のままであるので,そのままでは人間が読むときに不自然さを感じる.要約とは,より少ない文字数で原文章と同じ内容を表現することであるが,1つの文章として文を越えた何らかの意味的なつながり,つまり論旨が成り立っている必要がある.そこで本研究では,照応関係を解析し,その情報を利用することで照応情報の欠落による抄録文の首尾一貫性の低下を避ける.また,文内で比較的重要度が低いと考えられる表現を削除することで要約文章の圧縮を行なう.本方法では,対象とする照応表現は指示詞および指示連体詞とし,以下のような照応関係の判定を行なう.\begin{itemize}\item指示対象が直前文である.\item指示対象が前段落(部分木)である.\item指示対象が前出の名詞句である.\item指示対象が文章内に存在しない.\end{itemize}判定の結果,指示対象が文章内に存在する場合,指示対象を抄録文に採用する.ただし,指示対象が名詞句の場合はその名詞句を含む文を指示対象と判断する.抄録処理で文を抜き出すだけでは,要約文章として冗長な部分があったり,文間の接続が不自然な場合がある(結束性の悪化).そこで,省略することによって結束構造を発生することができる主題や文の論旨に影響を及ぼさない表現を削除することによって,結束性を高めるとともに,一文の量的な圧縮を行なう.本方法では,以下のような表現を削除の対象とする.\begin{description}\item[削除対象となる表現]\\begin{itemize}\item接続詞(文頭にある場合のみ)\item修飾句\begin{itemize}\item固有名詞への修飾句\item例示句\item話括弧``「」''の前語句\item時間格\end{itemize}\item副詞\begin{itemize}\item量副詞(「ほとんど」,「ほぼ」等)\item程度副詞(「きわめて」,「かなり」等)\item時制相副詞(「まだ」,「もう」等)\end{itemize}\item丸括弧``()''および丸括弧内語句\item主題(維持されている場合のみ)\end{itemize}\end{description}以上の要約手法によって生成された要約文章の例を,原文章,抄録文章(下線部分)とともに以下に示す.\vspace{5mm}{\baselineskip=15pt{\bf原文章と抄録文章(下線部分)}{\normalsize{\baselineskip=12pt\begin{itemize}\item[]日本経済新聞93年1月28日の社説\item[]改憲論の前に日本の“自画像”を描け(社説)\item[]\underline{(1,1):通常国会の代表質問が二十七日終わったが,今回の特色は与野党の党首や主要役}\\\underline{員級の質問者が異なった発想に基づく憲法改正論を展開,慎重な姿勢をとった宮沢首相}\\\underline{との間で踏み込んだ論議を交わした点にある.}\item[]\underline{(2,1):もとより憲法には改正条項があり,その長所と短所を点検し,論議を深めること}\\\underline{自体は望ましいことである.}\item[](2,2):この意味で「神棚に上げず日常的に議論することは,憲法を自分のものとするためにも有意義だ」(首相)といってよい.\item[](3,1):しかし,まず改憲ありき,といった前提で衆参両院に憲法に関する協議会を設置し,直ちに憲法九条を中心とする改正の具体化に進むという提案(三塚自民党政調会長)はいささか性急にすぎるというほかない.\item[](3,2):まず,広く国民各層,各界の間で,国際貢献,人権,環境権,地方分権など幅広く総点検を進め,じっくりと時間をかけて日本の国づくりの方向はどうあるべきかを徹底的に議論するのが大事である.\item[](3,3):その過程から,法律改正で足りるものと,憲法改正なしには改善されないものとが自然に区分けされてくるはずである.\item[](4,1):私たちが,拙速を避け,慎重な対処をすべきだと主張する理由を,別の角度から整理し直してみると次の二点が挙げられよう.\item[](5,1):第一に,憲法改正の実現のためには,高いハードルを越えねばならない.\item[](5,2):憲法九六条では,改正は衆参各議院の総議員の三分の二以上の賛成で国会が発議し,特別の国民投票または国政選挙の際に行われる投票で過半数の賛成を必要とする.\item[](5,3):この厳しい条件を満たすには,何を実現するための憲法改正で,その結果,得られるプラス点と甘受すべきマイナス点は何か,という肝心な点をきちんと国民に説明し,納得を得なければならない.\item[](5,4):政党側に都合のいいことばかり宣伝して,国民にとって苦痛となりうる点を隠しているようでは政治不信を招くだけである.\item[](5,5):この困難な過程を,目をつぶって急ぎ足で通り抜けてはならない.\item[](6,1):第二に,改憲により自衛隊が正規の軍隊と同じ扱いとなった場合,しばしば海外に派遣されよう.\item[](6,2):ガリ国連事務総長は報告書で,紛争防止のための平和維持活動(PKO)だけでなく,停戦合意が守られない事態に対処する平和執行部隊の創設を含む平和創造活動を提唱している.\item[](6,3):これは武力行使を覚悟した派遣であり,カンボジアに派遣中のPKOとは質的に異なる.\item[]\underline{(7,1):将来,仮に日本が国連安保理の常任理事国になった場合,平和執行部隊派遣に賛}\\\underline{成しながら自国の部隊派遣を拒否することは利己的な態度として非難されよう.}\item[]\underline{(7,2):日本は国際貢献と犠牲の調和をどこに求めるのか.}\item[]\underline{(8.1):その答えを出すには,まず日本はどのようなコストを負担して世界に寄与するの}\\\underline{か,という国家としての自画像について国民的合意を固めねばならない.}\item[]\underline{(8,2):この意味で首相と自民党政調会長が二十七日,党の憲法調査会で論議を深めるこ}\\\underline{とで合意したのは,その第一歩として歓迎したい.}\item[](8,3):先入観を捨て,謙虚な姿勢で論議を尽くしてほしい.\end{itemize}}}\vspace{5mm}{\bf要約文章}\begin{itemize}{\normalsize{\baselineskip=12pt\item[]日本経済新聞93年1月28日の社説\item[]改憲論の前に日本の“自画像”を描け(社説)\item[](1,1):通常国会の代表質問が二十七日終わったが,今回の特色は与野党の党首や主要役員級の質問者が異なった発想に基づく憲法改正論を展開,宮沢首相との間で踏み込んだ論議を交わした点にある.\item[](2,1):憲法には改正条項があり,その長所と短所を点検し,論議を深めること自体は望ましいことである.\item[](7,1):将来,日本が国連安保理の常任理事国になった場合,平和執行部隊派遣に賛成しながら自国の部隊派遣を拒否することは利己的な態度として非難されよう.\item[](7,2):日本は国際貢献と犠牲の調和をどこに求めるのか.\item[](8,1):その答えを出すには,どのようなコストを負担して世界に寄与するのか,という国家としての自画像について国民的合意を固めねばならない.\item[](8,2):この意味で首相と自民党政調会長が二十七日,党の憲法調査会で論議を深めることで合意したのは,その第一歩として歓迎したい.}}\end{itemize}}\vspace{-4mm}\bibliographystyle{jnlpbbl}\bibliography{v06n6_05}\begin{biography}\biotitle{略歴}\bioauthor{比留間正樹}{1997年横浜国立大学工学部電子情報工学科卒業.1999年横浜国立大学大学院工学研究科電子情報工学専攻前期課程修了,その間,自然言語処理の研究に従事.同年,日本アイ・ビー・エム入社,現在に至る.}\bioauthor{山下卓規}{1997年横浜国立大学工学部電子情報工学科卒業.1999年横浜国立大学大学院工学研究科電子情報工学専攻前期課程修了,その間,文章要約などの自然言語処理の研究に従事.同年,株式会社東芝入社,現在に至る.}\bioauthor{奈良雅雄}{1996年横浜国立大学工学部電子情報工学科卒業.1998年同大学大学院工学研究科電子情報工学専攻前期課程修了,自然言語処理,文章要約の研究に従事,同年,日立ソフトウェアエンジニアリング(株)入社,現在に至る.}\bioauthor{田村直良}{1985年東京工業大学大学院博士課程情報工学専攻修了,工学博士.同年東京工業大学大学工学部助手.1987年横浜国立大学工学部講師,同助教授を経て,1995年米国オレゴン州立大学客員教授,1997年横浜国立大学教育人間科学部教授,現在に至る.構文解析,文章解析,文章要約などの自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V17N02-03
\section{はじめに} label{sec:intro}自然言語処理や言語学においてコーパスは重要な役割を果たすが,従来のコーパスは大人の文章を集めたものが中心で子供の文章を集めたコーパスは少ない.特に,著者らが知る限り,書き言葉を収録した大規模な子供のコーパスは存在しない.\ref{sec:problems}節で詳細に議論するように,子供のコーパスの構築には,子供のコーパス特有の様々な難しさがある.そのため,大規模な子供のコーパスの構築は容易でない.例えば,ChildLanguageDataExchangeSystem(CHILDES)~\cite{macwhinney1,macwhinney2}の日本語サブコーパスであるHamasakiコーパス~\cite{hamasaki},Ishiiコーパス~\cite{macwhinney1,macwhinney2},Akiコーパス~\cite{aki},Ryoコーパス~\cite{ryo},Taiコーパス~\cite{tai},Nojiコーパス~\cite{macwhinney1,macwhinney2}は,全て話し言葉コーパスである.また,対象となる子供の数は1人である(表~\ref{tab:previous_corpus}に,従来のコーパスの概要を示す.英語コーパスについては,文献~\cite{chujo}に詳しい).言語獲得に関する研究や自然言語処理での利用を考えた場合,コーパスは,子供の人数,文章数,収集期間の全ての面で大規模であることが望ましい.\begin{table}[b]\caption{従来の子供のコーパス}\label{tab:previous_corpus}\input{04table01.txt}\end{table}一方で,様々な分野の研究で子供の作文が収集,分析されており,子供のコーパスに対する需要の高さがうかがえる.例えば,国立国語研究所~\cite{kokken}により,小学生の作文が収集され,使用語彙に関する調査が行われている.同様に,子供の作文を対象とした,文章表現の発達的変化に関する分析~\cite{ishida},自己認識の発達に関する分析~\cite{moriya}なども行われている.更に,最近では,子供のコーパスの新しい利用も試みられている.石川~\cite{ishikawa}は,英語コーパスと子供のコーパス(日本語)を組み合わせて,小学校英語向けの基本語彙表を作成する手法を提案している.掛川ら~\cite{kakegawa}は,子供のコーパスから,特徴的な表現を自動抽出する手法を提案している.坂本~\cite{sakamoto}は,小学生の作文の分析に基づき,共感覚比喩一方向性仮説に関する興味深い考察を行っている.これらの研究は,いずれも子供のコーパスを利用しているものの,言語データの収集とコーパスの構築は独自に行っている.そのため,コーパスは一般には公開されておらず,研究や教育に自由に利用できる状態にはない.したがって,大規模な子供のコーパスの一般公開は関連分野の研究の促進に大きく貢献すると期待できる.また,研究者間で共通のコーパスが利用できるため,研究成果の比較も容易となる.そこで本論文では,子供のコーパス構築の難しさ解消し,効率良く子供のコーパスを構築する方法を提案する.そのため,まず,子供のコーパスを構築する際に生じる難しさを整理,分類する.その整理,分類に基づき子供のコーパスの構築方法を提案する.また,提案方法を用いて実際に構築した「こどもコーパス」についても述べる(表~\ref{tab:pupil_corpus}に「こどもコーパス」の概要と特徴を示す).「こどもコーパス」は,小学5年生81人を対象にして,8ヵ月間言語データを収集したコーパスである.その規模は39,269形態素であり,形態素数と人数において公開されている書き言葉の子供コーパスとして最大である\footnote{教育研究目的での利用に限り「こどもコーパス」を公開している.利用希望者は,第一著者に連絡されたい.今後は,Webページなどで同コーパスを公開する予定である.}.規模以外に,「こどもコーパス」には,作文履歴がトレース可能という特徴がある.作文履歴がトレース可能とは,いつ誰が何を書いたか,および,どのように書き直したかの履歴が参照可能であることを意味する.なお,本論文では,特に断らない限り,子供とは小学生のことを指すこととする.したがって,以下では,小学生のコーパス構築を念頭に置いて議論を進める.以下,\ref{sec:problems}節では,子供のコーパスを構築する際に生じる難しさを整理,分類する.\ref{sec:proposed_method}節では,\ref{sec:problems}節の議論に基づき,効率良く子供のコーパスを構築する方法を提案する.\ref{sec:pupil_corpus}節では,「こどもコーパス」の詳細を述べる.\begin{table}[h]\caption{「こどもコーパス」の概要と特徴}\label{tab:pupil_corpus}\input{04table02.txt}\end{table}\vspace{-1\baselineskip} \section{子供コーパス構築の難しさ} label{sec:problems}子供のコーパスの構築には,通常のコーパスを構築する際に生じる難しさに加えて,子供のコーパス特有の難しさが多く存在する.子供のコーパス特有の難しさは,大きく(a)書き手の確保の難しさ,(b)データ収集に関する難しさ,(c)データの記録と管理に関する難しさ,(d)著作権に関する難しさ,(e)データ整備の難しさに分類される.(a)書き手の確保の難しさとは,どのように書き手となる子供を集めるかという難しさである.大人の文章を対象としたコーパス構築では,新聞記事や小説など出版された文章を利用できる.一方で,出版された子供の文章は一般には存在しない.そのため,まず,書き手となる子供を確保する必要がある.書き手が小学生であるため,学習者コーパス\cite{izumi,granger2}の構築などでよく利用される,謝金支払いによる書き手の募集という方法をとることも困難である.授業中に言語データを収集できれば,一度に多くの書き手を確保できる.しかしながら,授業は,カリキュラムに従う必要があり,自由に言語データを収集できるわけではない.したがって,カリキュラムに沿いながら,言語データを収集できる方法を考案する必要がある.(b)データ収集に関する難しさは,実際に子供に文章を書いてもらう際に生じる.継続的に文章を書くという活動は子供にとって難しいものである.興味を持って継続的に書けるよう,書くこと以外の負担が減るような収集方法を取るべきである.例えば,書くための手順や書き方(コンピュータを使用する場合は入力方法)は可能な限り簡便にするべきである.また,ある程度,書き易い内容に制限してデータ収集を行う必要があるかもしれない.(c)データの記録と管理の難しさとは,どのように多数の子供,且つ,大量の言語データを記録し,管理するかという難しさである.本論文が目指すトレース可能なコーパスでは,誰がいつ何を書いたかを正確に記録しなければならない.また,誰がいつどのように書き換えたかという履歴も記録しなければならない.このことは,授業中での言語データ収集など多人数同時の収集では特に問題となる.紙ベースの収集方法では,多人数同時に編集履歴を記録,管理することは,ほぼ不可能である.以上の(a)〜(c)は,言語データ収集に直接関連する難しさである.間接的な難しさとして,(d)著作権に関する難しさがある.子供の書いた文章にも著作権は発生する.そのため,単に言語データを収集しただけでは,コーパスとして研究に自由に利用することはできない.研究に自由に利用するためには,著作物の利用に関する同意を得る必要がある.ただし,子供は未成年であるため,実際には,保護者から同意を得なければならない.著作物の利用に関する同意書などを保護者一人一人に配布し,署名してもらう必要がある.この配布,回収にかかる労力が多大であることは想像に難くない.(e)データ整備の難しさは,言語データの収集後に生じる難しさである.収集した言語データには,一般のコーパスでは稀であるような言語現象やノイズが含まれる.具体的には,判読不能な文字,意味不明な文字列,句点の抜け,表記の誤り,文法誤りなどがある.コーパス構築の際に,これらの言語現象やノイズをどのように扱うか決定しなければならない.例えば,コーパス中の文章は文に分割されていることが一般的であるが,子供の言語データの場合,句点の抜けのため,単純に文の同定ができない場合がある.このような言語現象やノイズの扱いを定めたガイドラインが必要となる.上述の通り,子供コーパスの構築には様々な難しさがある.次節では,これらの難しさを解消し,子供のコーパスを構築する方法を提案する. \section{提案する構築方法} label{sec:proposed_method}\subsection{言語データの収集方法}\label{subsec:system}(a)書き手の確保の難しさを解決する方法として,われわれは,総合学習の時間などで行われる情報発信の活動に着目した.現在では,小学校でも,Webページやブログを利用して情報を発信する学習活動が盛んに行われている\cite{ando,suda}.子供が発信する情報(文章)を収集することで,一度に多くの子供を対象にして言語データの収集ができる.また,収集のためにカリキュラムから外れることもない.更に,後述するように,(c)データの記録と管理の難しさも解消できる.具体的には,図書をテーマとしたブログを利用した言語データの収集方法を提案する.ブログは情報発信ツールとして子供にとって操作が容易であることが報告されている\cite{suda}.また,(i)身近なメディアである図書をテーマとすること,(ii)読書は小学校において日常的な活動であること\cite{suda2}も,活発な情報発信に繋がると期待できる.実際,提案する方法で,小学5年生(3学級98名)を対象にして,約2年間の予備的な言語データの収集を行ったところ,子供たちは興味を持って積極的に情報を発信し,効率良く言語データが収集できることが明らかとなった.提案する収集方法では,まず,子供は図書室など\footnote{後述するように,図書のISBNの情報があればアイテムの登録が可能である.したがって,一般の図書館で借りた本や書店で購入した本でもよい.}で本を借りて,その本を読む.読書後,ブログ上で本に関する情報(例えば,本の推薦,感想文,あらましなど)をアイテムとして発信する.この情報がコーパスの基本データとなる.必要があれば,子供は,書き込んだ情報を修正し,再度,書き込みを行う.書き込みの度に,書き込み日時と書き込んだ内容がブログシステムに保存される.この繰り返しによりシステム上に言語データが蓄積される.この際に子供にかかる余分な負担を減らすために,通常のブログシステムに次のような機能を実装する.ブログのアイテムの登録は,ブログシステムが半自動的に行う.具体的には,子供を識別するユーザIDと本のISBNをバーコードリーダーなどによりブログシステムへ入力すると,ブログシステムは本のタイトル,著者名,表紙画像などの情報\footnote{\ref{sec:pupil_corpus}節で利用したブログシステムでは,本のタイトル,著者,出版社,表紙画像,ISBN,十進分類,出版年,巻号,シリーズ名,本の大きさ,出版国の情報が利用可能である.このうち,アイテム上に表示されるのは,本のタイトル,著者,出版社,表紙画像,出版年,シリーズ名,本の大きさ,出版国とした.}をアイテムに記入する.その結果,図~\ref{fig:image}に示すようなアイテムが登録される.このとき,アイテムのタイトルは,本のタイトルとする.書誌情報は,ネットワークを通じて市立図書館などから得る.読書後,子供は本に関する情報を登録されたアイテムに書き込む(図~\ref{fig:image}では,「メッセージ」の右側のテキストエリアに書き込む).発信された文章がコーパスの元データとなる.アイテムが半自動的に登録される機能により,子供は文章の作成に集中することができる.また,表紙画像や履歴がブログ上で閲覧できることは情報発信の活動の促進につながると期待できる\cite{reuter,suda2}.すなわち,(b)データ収集に関する難しさの解消が期待できる.なお,図書以外に,映画や音楽などをテーマとしても同様な収集が可能である.\begin{figure}[t]\begin{center}\includegraphics{17-2ia4f1.eps}\end{center}\caption{アイテム入力画面}\label{fig:image}\end{figure}このブログシステムの利用による言語データの収集方法は,(c)データの記録と管理の難しさの解消にも有効である.ブログにはユーザ管理機能が備わっているため子供の識別は容易である.また,ブログのログ機能を利用することで,いつ誰が何を書いたかを記録できる.同様に,いつ誰が何をどのように書き換えたかも記録できる.著作権に関する同意を得るための簡便な方法を検討したところ,現状では,保護者一人一人に同意書を配布する従来からの方法しか解決策がないという結論に達した.しかしながら,同意書の回収率と同意率を上げるため,法律の専門家,小学校教員,研究者(著者ら)の三者で協力し,子供のコーパス構築向けの同意書を作成した\footnote{本同意書は,小学生のデータを収集する際の同意書作成の参考になると考えられる.利用を希望する場合は,第一著者に相談されたい.}.作成にあたって次の3点について注意した.第一に,法律の専門家でなくとも理解が容易な同意書となるように,可能な限り平易,且つ,一般的な表現を用いることとした.第二に,学習目的が明らかになるよう,言語データの収集が学習活動の一環であることを明記した.第三に,コーパス構築の教育的,学術的意義が明らかになるよう,コーパス構築の目的と意義を同意書に盛り込んだ.このような同意書を作成し,保護者の同意を得るまでに,約1年の年月を要した.このことからも分かるように,著作権に関する同意を得ることは,子供のコーパスを構築する上で大きな問題となる.今後は,より簡便に同意を得るための手順を確立していく必要がある.簡便な手順の確立は今後の課題としたい.\subsection{コーパス構築のためのガイドライン}\label{subsec:guidline}一貫した方針でコーパスを構築するためには,コーパス構築のためのガイドラインが必要不可欠である.特に,提案する手法で収集した言語データはブログの文章であるため,ブログ特有の課題に対処するためのガイドラインが重要となる.橋本ら~\cite{hasimoto}によると,ブログ特有の課題として,(I)不明瞭な文区切りへの対処,(II)括弧表現への対処,(III)誤字,方言,顔文字などの多様な形態素への対処がある.このうち,子供のコーパスでは(I)と(III)が問題となる((II)は構文構造を括弧でアノテーションする場合の課題であるので,本論文で対象とする子供のコーパスでは問題とならない).また,個人情報の保護の観点からは個人名に対するガイドラインも必要となる.本節では,これらの課題への対処方法を規定したガイドラインについて説明する.なお,本ガイドラインは「こどもコーパス」と共に公開している.【基本方針】基本方針として,収集した言語データは,可能な限りそのままの形でコーパスに収録することとした.したがって,(III)誤字,方言,顔文字などの多様な形態素は,そのままの形でコーパスに含める.また,一見不要と思われるような意味不明な文字列(例:``jhshsxsainvtquoicab'')も消去せずコーパスに含める.この理由として,一見不要と思われるものでも,目的に応じて重要な情報となる可能性があることが挙げられる.例えば,意味不明な文字列は,学習意欲を失った子供を自動的に発見する手法の考案へ繋がる可能性がある.意味不明な文字列を頻繁に書き込むということは,子供が学習意欲を失い,目的としている学習が行われてないことを示唆する.理想的には,このような状態に至る前に,その子供を見つけ出し,適切な指導を行うべきである.したがって,書き込み履歴から,学習意欲を失いつつある子供を自動発見できることは有益である.そのような手法の開発には,意味不明な文字列が書き込まれた時間情報,意味不明な文字列自身,それ以前の書き込み履歴が重要となる.以上のような理由から収集した言語データは可能な限りそのままの形でコーパスに収録することとした.例外として,個人名に対する処理,文分割処理,文字の処理がある.なお,データ形式はXML形式とする.【個人名の処理】個人情報の保護の観点から,子供の名前や個人が特定できるあだ名などは削除されるべきである.そこで,個人が特定される名前などが言語データに含まれていた場合,別の文字列(例:$<$NE$>$人名$<$/NE$>$など)に置き換える.固有表現抽出ツール~\cite{masui}などを利用した半自動の処理も検討したが,対象文章が子供の文章ということを考慮し,全て人手で作業することとした.【文分割処理】ブログの文章では文境界が不明確なことがある.言語の分析や自然言語処理では,文を単位として分析や処理を行うことが多いため,コーパス中の文章は文に分割されていることが好ましい.そこで,言語データ中の文を同定するためのガイドラインを28項目策定した.なお,分割された文については一文一行形式とする.基本的には,文末記号で改行することとする.文末記号は``。'',``!'',``!'',``?'',``?'',``.'',``.''とする.しかしながら,ブログの文章では,文境界に文末記号がない場合がある.この現象に対処するために例外処理をガイドラインとして策定した.文末記号がない場合,文同定のための客観的かつ明確なルールを定めることが困難であることが多い.その結果,文同定を主観判断に基づいて行うことが多くなる.このことを踏まえ,本ガイドラインでは,文末記号がない場合は,文の同定を主観判断で行うこととした.もし,判断に迷う場合は,複数人で相談し決定する.複数人で相談しても解決できない場合は,文境界とはしない.主観判断による文同定で重要となることは,いかに,コーパスを通して一貫した主観判断で文の同定を行うかということである.本ガイドラインでは,一貫した主観判断を行えるよう各項目に分かり易い見出しをつけ,辞書的にガイドラインを使えるようにした.更に,判断規則を言語化することが難しい場合が多いことを考慮し,主観判断の結果を可能な限り例示した.例示により,作業者は類似したケースに対して一貫した文同定が行える.以下,文同定に関するガイドラインの代表的なものを紹介する(下記では,文境界を{\tt\_kaigyo\_}で示す)\<.\begin{enumerate}\item文末記号がない場合\label{subsubsec:3-6-1}\begin{itemize}\item[]説明:文と文の間に文末記号がない場合\item[]処理:作業者の主観により文末であると判断された箇所で改行する\item[]例:\begin{itemize}\item[]処理前:あんまリおもしろくないよでもよんでね\item[]処理後:あんまリおもしろくないよ{\tt\_kaigyo\_}\\でもよんでね\end{itemize}\end{itemize}\item読点を用いた文末表現\label{subsubsec:3-6-2}\begin{itemize}\item[]説明:文末記号の代わりに「、」「,」等の読点が用いられている場合\item[]処理:作業者の主観により文末であると判断された場合は読点の直後で改行する.文末か文の途中か判断がつかない場合は文中とし,改行しない.\item[]例:\begin{itemize}\item[]処理前:「助けて」という声がした、そしてどろまるはおそるおそるちかずいた\item[]処理後:「助けて」という声がした、{\tt\_kaigyo\_}\\そしてどろまるはおそるおそるちかずいた\end{itemize}\end{itemize}\item文末記号+顔文字の場合\label{subsubsec:3-3-2}\begin{itemize}\item[]説明:文末記号の直後に顔文字がある場合\item[]処理:顔文字の直前に文末記号があるときのみ顔文字の後で改行する.顔文字は直前の文の気持ちを表すことが多いため.\item[]例:\begin{itemize}\item[]処理前:おもしろいよ。(^−^)/夏休み中に、読んで見てね。\item[]処理後:おもしろいよ。(^−^)/{\tt\_kaigyo\_}\\夏休み中に、読んで見てね。\end{itemize}\end{itemize}\item引用符中の文末記号\label{subsubsec:3-2-1}\begin{itemize}\item[]説明:文の途中に引用符があり,引用符の中に文末記号がある場合.ただし,引用符は「」,『』,【】,(),〔〕,[],{},〈〉,《》,“”,‘’とする.\item[]処理:引用符の中では改行しない\item[]例:\begin{itemize}\item[]処理前:「バンパイアって、こんなことが出来るんだ。」って思いましたね。\item[]処理後:「バンパイアって、こんなことが出来るんだ。」って思いましたね。(改行せず)\end{itemize}\end{itemize}\item文の途中に改行が入っている場合\label{subsubsec:3-1-1}\begin{itemize}\item[]説明:文の途中に改行が入っている\item[]処理:改行を消す\item[]例:\begin{itemize}\item[]処理前:にせもののお金をソフトクリームやさん{\tt\_kaigyo\_}で、使った。\item[]処理後:にせもののお金をソフトクリームやさんで、使った。\end{itemize}\end{itemize}\end{enumerate}【文字の処理】文字の処理とは,言語データ中の``$>$''や``\&''などの文字をエスケープする処理のことである.これは,「こどもコーパス」がXML形式を採択しているためである.XMLでエスケープする必要がある全ての文字に対してエスケープを行う.\subsection{収録情報}\label{sec:corpus_information}\ref{subsec:system}節で説明した言語データ収集方法では,子供の書いた文章以外に様々な情報が収集できる.これらの情報の中には,言語獲得や言語処理の研究に有益な情報も含まれる.そこで,コーパスに含める情報の選定を行った.以下,収録情報と対応するXMLタグについて説明する(具体例は,図~\ref{fig:sample}を参照のこと).【ユーザタグ:$<$USR$>$】子供1人分の言語データを表すタグである.子供の文章を含む全ての情報がこのタグの間に含まれる.子供に関する情報としては,各子供を識別するユーザID($<$USR\_ID$>$)とブログシステム開始時の学年情報($<$USR\_GRADE$>$)が含まれる.【アイテムタグ:$<$ITEM$>$】ブログの1アイテムに対応するデータである.したがって,子供が登録したアイテム数と同じ数のアイテムタグが含まれることになる.アイテムには,アイテムを識別するアイテムID($<$ITEM\_ID$>$),タイトル($<$TITLE$>$),著者($<$AUTHOR$>$),ISBN($<$ISBN$>$),十進分類($<$NDC$>$),書き込み履歴($<$EDTN$>$)が含まれる.【書き込み履歴タグ:$<$EDTN$>$】文章の書き込み履歴である.$<$EDIT\_NO$>$タグは,何番目に書き込まれた(編集された)文章かを表す.また,$<$DATE$>$タグは,書き込み(編集)日時(秒まで)を表す.この二つのタグ情報から,いつ何を書き込んだかがわかる.すなわち,作文履歴をトレースすることが可能となる.子供の文章自体は,$<$TEXT$>$タグに含まれる.一文一行に,文分割した形式とした.\begin{figure}[t]\begin{center}\includegraphics{17-2ia4f2.eps}\end{center}\caption{こどもコーパスのサンプル}\label{fig:sample}\end{figure}以上が,選定した収録情報である.子供の言語データだけでなく,関連する様々な情報を提供できることがわかる.これらの情報により,多様な分析への応用が期待できる.例えば,書き込み時間と編集履歴から,子供はどのように文章の推敲や修正を行うかということが分析できる.また,本のタイトルや十進分類の情報が得られるので,読んだ本のジャンルが子供の語彙の使用に及ぼす影響の分析などにも利用できる. \section{こどもコーパス} label{sec:pupil_corpus}提案方法により実際に子供のコーパスを構築した.言語データの収集期間は,2008年6月9日〜2009年2月15日である.収集対象は,小学校5年生3学級81人とした\footnote{現在でも,引き続き言語データの収集を行っている.5年生終了時を一区切りとし,データの整理を行いコーパスを構築した.}.言語データの収集は,総合的な学習の時間中に情報発信の学習活動の一環として行った.情報発信の学習ということを踏まえ,書き込む内容は本の推薦とした(以下,「おすすめメッセージ」と表記する).基本的に週一回授業時間を設け,その中で書き込みをしてもらうこととした.加えて,休み時間や放課後にも書き込みが行えるようシステムを開放した.なお,他の子供のブログの内容を検索,閲覧できる環境とした.上述の条件で1,256の文章を収集することができた(アイテム数592,総書き込み数1,256).形態素数にすると39,269形態素分の文章を収集することができた(形態素の計数には茶筌~\cite{matsumoto}を利用した).このことから1つの「おすすめメッセージ」は,平均66.3形態素から成ることがわかる.また,1人の子供は平均約16回の書き込みを行っていることがわかる\footnote{基本的に,週一回の授業で収集を行ったが,自然学校や音楽会などで授業がなくなることもあり,平均すると週一回を下まわるペースとなっている.}.また,約半分の「おすすめメッセージ」について,何らかの編集を行っていることもわかる(ただし,編集時に「おすすめメッセージ」に何の修正も加えず,そのまま登録したものも含む).このように,「こどもコーパス」には,人数,期間,形態素数の面で大規模な言語データが収録されており様々な応用が期待される.例えば,年齢と語彙数の関係を推定する重要な資料になると考えられる.また,子供間の語彙の伝搬に関する知見も得られるのではないかと期待している.子供は,他者のブログを検索,閲覧できる環境で,各自の「おすすめメッセージ」を書き込む.したがって,他者のブログから影響を受けることは容易に推測できる.例えば,他者の「おすすめメッセージ」中の単語や表現を利用して,自分の「おすすめメッセージ」を作成することなどが予想される.「こどもコーパス」には,書き込みおよび編集履歴が記録されているため,ある程度,語彙の伝搬の情報を得ることができる.現在,より詳細な情報として,検索と閲覧に関する情報もコーパスに収録することを検討している.収集に利用したブログシステムには,どのようなキーワードで検索を行い,検索された「おすすめメッセージ」のうちどれを閲覧したかという情報も記録する機能を実装した.将来的には,この検索に関する情報もコーパスに含めたいと考えている.更に,形態素情報をコーパスに付与することも計画している.そのためには,子供が書いた文章に対応できるよう,既存の形態素に関するガイドラインを拡張する必要がある.形態素情報が付与されたコーパスがあれば,子供の書いた文章専用の形態素解析が開発できる.子供の書いた文章専用の形態素解析は,更に詳細な,子供の文章の分析に繋がると期待できる.一方で,「こどもコーパス」の利用には,注意しなければならない点もある.以下,この点について議論する.第一に,データの偏りが挙げられる.「おすすめメッセージ」は,本の推薦文であるため,内容は本に関するものに偏っている.実際,``本''や``話''など本に関する単語が多く出現する傾向にある.また,推薦文であるため勧誘表現が多い.そのため,「こどもコーパス」から得られた語句の頻度と他のコーパスから得られた語句の頻度とを単純に比較することは意味を持たない場合があるということに注意しなければならない.第二に,入力方法の問題がある.子供たちは,キーボードもしくはソフトウエアキーボードを用いて,「おすすめメッセージ」を入力する.漢字入力は,コンピュータの漢字変換機能を利用する.したがって,子供たちは,自分では書けない漢字を「おすすめメッセージ」に使用している可能性が高い.このことは,「こどもコーパス」を利用して,漢字の習得に関する分析などを行う際には注意が必要であることを意味する.最後に,ブログを利用して収集された言語データであることにも注意しなければならない.ブログ上の文章であるため,紙と鉛筆で書く通常の作文とは,語用や文体が異なる可能性がある.このことも,「こどもコーパス」を利用して何らかの分析を行う際に,念頭においておく必要がある. \section{おわりに} label{sec:conclusions}本論文では,子供のコーパスを構築する際に生じる難しさを整理,分類し,効率良く子供のコーパスを構築する方法を提案した.本論文の新規性として,子供のコーパスを効率よく構築する新たな方法を提案した点が挙げられる.実際に「こどもコーパス」を構築し,提案した方法の有効性を確認した.また,「こどもコーパス」自体も,著者らが知る限り,公開されている日本語書き言葉子供コーパスとしては最大規模であり,新規性,有用性共に高いといえる.更に,「こどもコーパス」は,作文履歴がトレース可能という特徴も有する.今後は,言語データの収集を続けると共に,検索に関する情報の収録や形態素情報の付与などを行っていく予定である.\acknowledgment言語データの収集にあたり,多大な協力をいただいた神戸市立南落合小学校の皆様に感謝いたします.本研究に対して貴重な助言をいただいた(株)ホンダ・リサーチインスティチュート・ジャパンの船越孝太郎氏に感謝いたします.著作権に関する情報を提供していただいた甲南大学フロンティア推進機構のスタッフの方々に感謝いたします.本研究の一部は,(株)ホンダ・リサーチインスティチュート・ジャパンからの助成金により実施した.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{安藤\JBA高比良\JBA坂元}{安藤\Jetal}{2004}]{ando}安藤玲子\JBA高比良美詠子\JBA坂元章\BBOP2004\BBCP.\newblock小学校のインターネット使用量と情報活用の実践力との因果関係.\\newblock\Jem{日本教育工学会論文誌},{\Bbf28Suppl.},\mbox{\BPGS\65--68}.\bibitem[\protect\BCAY{中條\JBA内山\JBA中村\JBA山崎}{中條\Jetal}{2006}]{chujo}中條清美\JBA内山将夫\JBA中村隆宏\JBA山崎淳史\BBOP2006\BBCP.\newblock子供話し言葉コーパスの特徴抽出に関する研究.\\newblock\Jem{日本大学生産工学部研究報告B},{\Bbf39}.\bibitem[\protect\BCAY{Granger}{Granger}{1993}]{granger2}Granger,S.\BBOP1993\BBCP.\newblock\BBOQTheInternationalCorpusofLearner{English}.\BBCQ\\newblockInAarts,J.,de~Haan,P.,\BBA\Oostdijk,N.\BEDS,{\BemEnglishLanguageCorpora:{Design},AnalysisandExploitation},\mbox{\BPGS\57--69}.Rodopi.\bibitem[\protect\BCAY{Hamasaki}{Hamasaki}{2002}]{hamasaki}Hamasaki,N.\BBOP2002\BBCP.\newblock\BBOQTheTimingShiftofTwo-year-old'sResponsestoCaretakers'Yes/NoQuestions.\BBCQ\\newblockIn{\BemStudiesinLanguageSciences},\mbox{\BPGS\193--206}.\bibitem[\protect\BCAY{橋本\JBA黒橋\JBA河原\JBA新里\JBA永田}{橋本\Jetal}{2009}]{hasimoto}橋本力\JBA黒橋禎夫\JBA河原大輔\JBA新里圭司\JBA永田昌明\BBOP2009\BBCP.\newblock構文・照応・評判情報つきブログコーパスの構築.\\newblock\Jem{言語処理学会第15回年次大会発表論文集},\mbox{\BPGS\614--617}.\bibitem[\protect\BCAY{石田\JBA森}{石田\JBA森}{1985}]{ishida}石田潤\JBA森敏昭\BBOP1985\BBCP.\newblock児童の自己認識の発達:児童の作文の分析を通して.\\newblock\Jem{広島大学教育学部紀要},{\Bbf1}(33),\mbox{\BPGS\125--131}.\bibitem[\protect\BCAY{石川}{石川}{2005}]{ishikawa}石川慎一郎\BBOP2005\BBCP.\newblock日本人児童用英語基本語彙表開発における頻度と認知度の問題:母語コーパスと対象語コーパスの頻度融合の手法.\\newblock\Jem{信学技報TL2005-25},\mbox{\BPGS\43--48}.\bibitem[\protect\BCAY{Izumi,Saiga,Supnithi,Uchimoto,\BBA\Isahara}{Izumiet~al.}{2003}]{izumi}Izumi,E.,Saiga,T.,Supnithi,T.,Uchimoto,K.,\BBA\Isahara,H.\BBOP2003\BBCP.\newblock\BBOQTheDevelopmentoftheSpokenCorpusofJapaneseLearnerEnglishandtheApplicationsinCollaborationwith{NLP}Techniques.\BBCQ\\newblockIn{\BemProceedingsoftheCorpusLinguistics2003conference},\mbox{\BPGS\359--366}.\bibitem[\protect\BCAY{掛川\JBA永田\JBA森田\JBA須田\JBA森広}{掛川\Jetal}{2008}]{kakegawa}掛川淳一\JBA永田亮\JBA森田千寿\JBA須田幸次\JBA森広浩一郎\BBOP2008\BBCP.\newblock自由記述メッセージからの学習者の特徴表現抽出.\\newblock\Jem{電子情報通信学会論文誌D},{\BbfJ91-D}(12),\mbox{\BPGS\2939--2949}.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{1989}]{kokken}国立国語研究所\BBOP1989\BBCP.\newblock\Jem{児童の作文使用語彙},98\JVOL.\newblock国立国語研究所報告.\bibitem[\protect\BCAY{MacWhinney}{MacWhinney}{2000a}]{macwhinney1}MacWhinney,B.\BBOP2000a\BBCP.\newblock{\BemTheChildesProject:ToolsforAnalyzingTalk,VolumeI:TranscriptionformatandPrograms}.\newblockLawrenceErlbaum.\bibitem[\protect\BCAY{MacWhinney}{MacWhinney}{2000b}]{macwhinney2}MacWhinney,B.\BBOP2000b\BBCP.\newblock{\BemTheChildesProject:ToolsforAnalyzingTalk,VolumeII:TheDatabase}.\newblockLawrenceErlbaum.\bibitem[\protect\BCAY{桝井\JBA鈴木\JBA福本}{桝井\Jetal}{2002}]{masui}桝井文人\JBA鈴木伸哉\JBA福本淳一\BBOP2002\BBCP.\newblockテキスト処理のための固有表現抽出ツール{NExT}の開発.\\newblock\Jem{言語処理学会第8回年次大会発表論文集},\mbox{\BPGS\176--179}.\bibitem[\protect\BCAY{松本}{松本}{2000}]{matsumoto}松本裕治\BBOP2000\BBCP.\newblock形態素解析システム「茶筌」.\\newblock\Jem{情報処理},{\Bbf41}(11),\mbox{\BPGS\1208--1214}.\bibitem[\protect\BCAY{Miyata}{Miyata}{1992}]{ryo}Miyata,S.\BBOP1992\BBCP.\newblock「パパワ?」---子どもの「ワ」を含む質問について---.\\newblock\Jem{愛知淑徳短期大学研究紀要},{\Bbf31},\mbox{\BPGS\151--155}.\bibitem[\protect\BCAY{Miyata}{Miyata}{1995}]{aki}Miyata,S.\BBOP1995\BBCP.\newblockアキ・コーパス---日本語を獲得する男児の1歳5ヵ月から3歳までの縦断観察による発話データ集---.\\newblock\Jem{愛知淑徳短期大学研究紀要},{\Bbf34},\mbox{\BPGS\183--191}.\bibitem[\protect\BCAY{Miyata}{Miyata}{2000}]{tai}Miyata,S.\BBOP2000\BBCP.\newblock\BBOQTheTAIcorpus:{Longitudinal}SpeechDataofa{Japanese}BoyAged1;5.20--3;1.\BBCQ\\newblock{\BemBulletinofShukutokuJuniorCollege},{\Bbf39},\mbox{\BPGS\77--85}.\bibitem[\protect\BCAY{守屋\JBA森\JBA平崎\JBA坂上}{守屋\Jetal}{1972}]{moriya}守屋慶子\JBA森万岐子\JBA平崎慶明\JBA坂上典子\BBOP1972\BBCP.\newblock児童の自己認識の発達:児童の作文の分析を通して.\\newblock\Jem{教育心理学研究},{\Bbf20}(4),\mbox{\BPGS\205--215}.\bibitem[\protect\BCAY{Reuter\BBA\Druin}{Reuter\BBA\Druin}{2005}]{reuter}Reuter,K.\BBACOMMA\\BBA\Druin,A.\BBOP2005\BBCP.\newblock\BBOQBringingTogetherChildrenandBooks:AnInitialDescriptiveStudyofChildren'sBookSearchingandSelectionBehaviorinaDigitalLibrary.\BBCQ\\newblockIn{\BemProceedingsoftheAmericanSocietyforInformationScienceandTechnology},\lowercase{\BVOL}~41,\mbox{\BPGS\339--348}.\bibitem[\protect\BCAY{坂本}{坂本}{2009}]{sakamoto}坂本真樹\BBOP2009\BBCP.\newblock小学生の作文にみられるオノマトペ分析による共感覚比喩一方向性仮説再考.\\newblock\Jem{日本認知言語学会第10回大会発表論文集},\mbox{\BPGS\155--158}.\bibitem[\protect\BCAY{須田\JBA永田\JBA掛川\JBA森広}{須田\Jetal}{2008}]{suda2}須田幸次\JBA永田亮\JBA掛川淳一\JBA森広浩一郎\BBOP2008\BBCP.\newblock図書を話題としたブログでの児童が発信するメッセージにおける語彙の広がり.\\newblock\Jem{日本教育工学会研究報告集},\mbox{\BPGS\59--62}.\bibitem[\protect\BCAY{須田\JBA永田\JBA掛川\JBA森広}{須田\Jetal}{2007}]{suda}須田幸次\JBA永田亮\JBA掛川淳一\JBA森広浩一郎\BBOP2007\BBCP.\newblock児童が共同構築するブログにおける検索が情報発信能力に及ぼす効果.\\newblock\Jem{日本教育工学会研究報告集},\mbox{\BPGS\11--16}.\end{thebibliography}\begin{biography}\bioauthor{永田亮}{平11明大・理工・電気卒.平14三重大大学院博士前期課程了.平17同大学院博士後期課程了.同年兵庫教育大助手.平19同大学院学校教育研究科助教.平20より甲南大知能情報学部講師.博士(工学).冠詞の振る舞いのモデル化,英文誤り検出,Edu-miningなどの研究に従事.電子情報通信学会会員.}\bioauthor{河合綾子}{平21甲南大・理工・情報システム工学科卒.同年株式会社インテックに入社.在学中は,子供のコーパス構築の研究に従事.}\bioauthor{須田幸次}{昭58和歌山大・教育卒.同年神戸市立菅の台小学校教諭.平17兵庫教育大大学院学校教育研究科修士課程入学.平19同大学院学校教育研究科修士課程了.現在神戸市立南落合小学校教諭.情報活用能力育成のための学校図書館蔵書データベースの開発とその利用法の研究に従事.日本教育工学会会員.}\bioauthor{掛川淳一}{平11東京理科大・基礎工・電子応用工学卒.平13同大学院修士課程了.平16同大学院博士後期課程了.同年同学ポストドクトラル研究員を経て,平16兵庫教育大学助手.平19同大学院学校教育研究科助教.平21年より,山口東京理科大助教.博士(工学).学習支援システム,第二言語学習支援,Edu-miningの研究に従事.人工知能学会,日本教育工学会,教育システム情報学会,電子情報通信学会各会員.}\bioauthor{森広浩一郎}{平元東京学芸大・教育・数学卒.平3同大大学院修士課程了.平5大阪大大学院工学研究科博士後期課程中退.同年兵庫教育大助手.同大講師・助教授を経て,現在同大大学院学校教育研究科准教授.博士(工学).学習支援システムの開発と,それを用いた教育実践に関する研究に従事.日本教育工学会,人工知能学会各会員.}\end{biography}\biodate\end{document}
V10N02-07
\section{はじめに} 本論文はフリーの特異値分解ツールSVDPACKC\cite{svdpackc}を紹介する.その利用方法を解説し,利用事例として多義語の曖昧性解消問題(以下,語義判別問題と呼ぶ)を扱う.情報検索ではベクトル空間モデルが主流である.そこでは文書とクエリを索引語ベクトルで表し,それらベクトル間の距離をコサイン尺度などで測ることで,クエリと最も近い文書を検索する.ベクトル空間モデルの問題点として,同義語(synonymy)と多義語(polysemy)の問題が指摘されている.同義語の問題とは,例えば,``car''というクエリから``automobile''を含む文書が検索できないこと.多義語の問題とは,例えば,ネットサーフィンについてのクエリ``surfing''に対して,波乗りに関する文書が検索されることである.これらの問題は文書のベクトルに索引語を当てることから生じている.そこでこれら問題の解決のために文書のベクトルを潜在的(latent)な概念に設定することが提案されており,そのような技術を潜在的意味インデキシング(LatentSemanticIndexing,以下LSIと略す)と呼んでいる.LSIの中心課題はどのようにして潜在的な概念に対応するベクトルを抽出するかである.その抽出手法にLSIでは特異値分解を利用する.具体的には索引語文書行列\(A\)に対して特異値分解を行い,その左特異ベクトル(\(AA^{T}\)の固有ベクトル)を固有値の大きい順に適当な数\(k\)だけ取りだし\footnote{ここでは索引語ベクトルを列ベクトルとしている.また\(A^{T}\)は\(A\)の転置行列を表す.},それらを潜在的な概念に対応するベクトルとする\cite{kita-ir}.LSIは魅力的な手法であるが,実際に試してみるには,特異値分解のプログラムが必要になる.低次元の特異値分解のプログラムは比較的簡単に作成できるが,現実の問題においては,高次元かつスパースな行列を扱わなくてはならない.このような場合,特異値分解のプログラムを作成するのはそれほど容易ではない.そこで本論文では,この特異値分解を行うためのツールSVDPACKCを紹介する.このツールによって高次元かつスパースな行列に対する特異値分解が行え,簡単にLSIを試すことができる.またLSIの情報検索以外の応用として,語義判別問題を取り上げSVDPACKCの利用例として紹介する.実験ではSENSEVAL2の日本語辞書タスク\cite{sen2}で出題された単語の中の動詞50単語を対象とした.LSIに交差検定を合わせて用いることで,最近傍法\cite{ishii}の精度を向上させることができた.また最近傍法をベースとした手法は,一部の単語に対して決定リスト\cite{Yarowsky1}やNaiveBayes\cite{ml-text}以上の正解率が得られることも確認できた. \section{LSIと特異値分解} 情報検索において,\(m\)個の索引語を予め決めておけば,文書は\(m\)次元の索引語ベクトルとして表現できる(ここでは列ベクトルとして考える).検索対象の文書群が\(n\)個ある場合,各文書\(d_i\)に対する\(m\)次元の索引語ベクトルが\(n\)個並ぶので,\(m\timesn\)の索引語文書行列\(A\)ができる.\(m\timesn\)の行列\(A\)の特異値分解とは,行列\(A\)を以下のような行列\(U\),\(\Sigma\),\(V\)の積に分解することである.\begin{equation}A=U\SigmaV^{T}\label{siki1}\end{equation}\noindentここで,\(U\)は\(m\timesm\)の直交行列,\(V\)は\(n\timesn\)の直交行列である.また\(\Sigma\)は\(m\timesn\)の行列であり,\(rank(A)=r\)とすると,対角線上に\(r\)個の要素\(\sigma_1,\sigma_2,\cdots,\sigma_r\)(ただし\(\sigma_1\ge\sigma_2\ge\cdots,\ge\sigma_r\))が並んだ行列である.それ以外の\(\Sigma\)の要素は0である.行列\(A\)の特異値分解を行ったとき,\(U\)は\(A\)の列ベクトルが張る空間の正規直交基底となっている.そして\(U\)内の列ベクトルは左側にあるものほど基底としての重要度が高い.そこで,\(U\)の最初の\(k\)個の列ベクトルを使って,索引語ベクトルを表すことにする.具体的には索引語ベクトルを\(U\)の最初の\(k\)個の列ベクトルに射影させればよい.つまり,\(U\)の最初の\(k\)個の列ベクトルで作成される\(m\timesk\)の行列を\(U_k\)とおくと,索引語ベクトル\(d\)は\(U_{k}^{T}d\)によって\(k\)次元のベクトルで表現できることになる.実際の検索では,\(m\)次元の索引語ベクトルで表現されていたクエリ\(q\)も\(U_{k}^{T}q\)によって\(k\)次元のベクトルで表現し,\(U_{k}^{T}d\)と\(U_{k}^{T}q\)の距離によって,\(d\)と\(q\)の距離を測ればよい.例えば,\(d\)と\(q\)の距離\(dist(d,q)\)は以下のように測ることができる\cite{kita-ir}.\begin{equation}dist(d,q)=\frac{(U_{k}^{T}d,U_{k}^{T}q)}{||U_{k}^{T}q||||U_{k}^{T}q||}\label{siki2}\end{equation}以上より,情報検索にLSIを利用するためには,索引語文書行列\(A\)の特異値分解から得られる行列\(U\)が求まれば良いことがわかる. \section{特異値分解ツールSVDPACKC} \subsection{入手とコンパイル}行列\(A\)の特異値分解を行うツールがSVDPACKCである.SVDPACKCはフリーで配布されており,以下のURLから入手できる.\begin{center}{\tthttp://www.netlib.org/svdpack/svdpackc.tgz}\end{center}SVDPACKCには特異値分解を行うC言語のプログラムが8つ入っている.この中で最も計算速度が優れているのは{\ttlas2}と名付けられているランチョス法\cite{kita-ir}を使ったプログラムである.単に特異値分解の結果だけを得たいのであれば{\ttlas2}を利用すれば良く,他のプログラムをコンパイルする必要はない.ここでは{\ttlas2}だけをコンパイルする.{\ttlas2.c}をコンパイルする前に,{\ttlas2.c}の中でコメントアウトされているマクロ定数\verb|UNIX_CREAT|を有効にしておく.\begin{verbatim}/*#defineUNIX_CREAT*/→#defineUNIX_CREAT\end{verbatim}\noindentこれによって{\ttlas2}による特異値分解の結果がファイルに保存される.次に,{\ttlas2.h}のマクロ定数\verb|LMTNW|,\verb|NMAX|,\verb|NZMAX|の値を適当に調整する.これらは取り得るメモリの最大サイズ,行列の最大サイズ,行列中の非ゼロ要素の最大個数を定義したものであり,どの程度の大きさの行列を扱えるかを示している.扱う問題や利用する計算機にもよるだろうが,本論文での実験では予め与えられている値の10倍の数に変更した.実行時に行列のサイズに関するエラーが出た場合は,これらの値を設定し直してコンパイルする.また{\ttlas2.c}の中では{\ttrandom}関数を自前で用意しているために,{\ttstdlib.h}で定義されている{\ttrandom}関数と競合する場合がある.ここでは{\ttlas2.c}中の{\ttstdlib.h}をincludeしないことにした.\begin{verbatim}#include<stdlib.h>→/*#include<stdlib.h>*/\end{verbatim}\noindentコンパイルは{\ttmakefile}のコンパイラの指定(CC)を利用するコンパイラに合わせて,以下を実行する.ここではLinuxのgccで問題なくコンパイルできた\footnote{gcc,libc及びlibmのバージョンはそれぞれegcs-2.91.66,2.1.2,2.1.2のものを用いた.libm以外のライブラリは使用されない.}.\begin{center}{\ttmake\\las2}\end{center}またマニュアルには,CRAYY-MP,IBMRS/6000-550,DEC5000-100,HP9000-750,SPARCstation2及びMachintoshII/fxでSVDPACKCが動作することが記載されている.またWindows2000上のBorlandC++Compiler5.5を利用しても{\ttlas2.c}をコンパイルできた\footnote{ただし構造体rusageの定義がないので,若干変更する必要があった.}.更にWindows2000上のcygwin+gcc環境\footnote{cygwinのdllのバージョンは1.2.12-2,gccのバージョンは2.95.3-5のものを用いた.}でもコンパイルできた.特別なライブラリは使われていないので,多くの環境でコンパイル可能と思われる.\subsection{利用方法}{\ttlas2}は内部で2つのファイルを読む込む.1つは特異値分解を行いたい対象の行列が記述されたファイル{\ttmatrix}であり,もう1つはパラメータを記述したファイル{\ttlap2}である.この2つのファイルを適切に用意することで,{\ttlas2}を実行することができる.配布キットでは,サンプルの行列が{\ttbelladit.Z}という名前の圧縮されたファイルとして提供されている.このファイルから,例えば以下のコマンドにより,{\ttmatrix}ファイルを作り,{\ttlas2}を試してみる.{\ttlap2}はこのサンプル用にキット内に用意されている.\begin{verbatim}zcatbelladit.Z>matrix\end{verbatim}\noindent実行は以下のように単にコマンド名だけを入力する.\begin{verbatim}./las2\end{verbatim}\noindent結果は{\ttlav2}と{\ttlao2}というファイルに保存される.{\ttlav2}には特異値分解したときの\mbox{式\ref{siki1}}における\(U\)や\(V\)の配列が保存される.ただし,バイナリファイルなので直接見ることはできない.{\ttlao2}には特異値分解したときの\mbox{式\ref{siki1}}の\(\Sigma\),つまり特異値の列とその他の情報(行列の大きさや実行時間等)が保存される.これはテキストファイルなので中身を確認できる.\subsubsection{{\ttmatrix}ファイルの記述方法}特異値分解の対象となる行列\(A\)は,ハーウェル・ボーイング形式(Harwell-Boeingformat)と呼ばれる列方向の圧縮形式を用いてファイル{\ttmatrix}に記述する.これによりスパース行列を少ない記述量で簡単に表現することができる.最初に注意として,行列\(A\)の大きさを\(m\timesn\)とした場合,SVDPACKCでは\(m\gen\)を仮定している.そのために,実際に特異値分解したい行列\(A\)の列数の方が行数よりも大きい場合は,行列\(A\)の転置行列\(A^{T}\)に対して特異値分解を行う必要がある.この場合,\mbox{式\ref{siki2}}の\(U\)は\(V\)と置き換えなければならないこともある.ここでは,{\ttmatrix}の記述形式の説明として,以下のような行列\(A\)を考える.\[A=\left[\begin{array}{cccc}1.0&0&0&0\\0&2.1&0&0.5\\0&1.0&0&0\\0&0.8&0&0\\0&0.8&1.0&0\\1.0&0&2.2&0\\0&0&0&1.0\end{array}\right]\]この行列に対して,1列目から順に非ゼロ要素を取り出し,以下のような表を作る.\begin{table}[htbp]\begin{center}\leavevmode\begin{tabular}{|c||c|c|c|c|c|c|c|c|c|c|}\hlineデータ番号&1&2&3&4&5&6&7&8&9&10\\\hline位置&(1,1)&(6,1)&(2,2)&(3,2)&(4,2)&(5,2)&(5,3)&(6,3)&(2,4)&(7,4)\\\hline値&1.0&1.0&2.1&1.0&0.8&0.8&1.0&2.2&0.5&1.0\\\hline\end{tabular}\end{center}\end{table}次にこの表から位置の行の部分だけを取り出す.\begin{table}[htbp]\begin{center}\leavevmode\begin{tabular}{|c||c|c|c|c|c|c|c|c|c|c|}\hlineデータ番号&1&2&3&4&5&6&7&8&9&10\\\hline位置&(1,1)&(6,1)&(2,2)&(3,2)&(4,2)&(5,2)&(5,3)&(6,3)&(2,4)&(7,4)\\\hline値&1.0&1.0&2.1&1.0&0.8&0.8&1.0&2.2&0.5&1.0\\\hline行位置&1&6&2&3&4&5&5&6&2&7\\\hline\end{tabular}\end{center}\end{table}次に各列の最初の非ゼロ要素のデータ番号を列ポインタに記述する.例えば,1列目であれば,最初の非ゼロ要素は\verb|(1,1)|の\verb|1.0|であり,これに対するデータ番号は1である.次に2列目であれば,最初の要素は\verb|(2,2)|の\verb|2.1|であり,これに対するデータ番号は3である.これを各列,順に記述したものが列ポインタである.つまり列ポインタの要素数は配列\(A\)の列数となる.\begin{table}[htbp]\begin{center}\leavevmode\begin{tabular}{|c||c|c|c|c|c|c|c|c|c|c|}\hlineデータ番号&1&2&3&4&5&6&7&8&9&10\\\hline位置&(1,1)&(6,1)&(2,2)&(3,2)&(4,2)&(5,2)&(5,3)&(6,3)&(2,4)&(7,4)\\\hline値&1.0&1.0&2.1&1.0&0.8&0.8&1.0&2.2&0.5&1.0\\\hline行位置&1&6&2&3&4&5&5&6&2&7\\\hline列ポインタ&1&3&7&9&-&-&-&-&-&-\\\hline\end{tabular}\end{center}\end{table}ハーウェル・ボーイング形式とは,行列に対して,このような表を作り,列ポインタ,行位置,値を記述した形式である.これはスパース行列を圧縮した表現となる.{\ttmatrix}では4行目以降に,列ポインタ,行位置,値が記述されている.列ポインタについては最後の非ゼロ要素のデータ番号に1を足したものが付け加えられることに注意する.先の例では以下のようになる.\bigskip\small\begin{tabular}{|c|}\hline\begin{minipage}{134mm}\begin{verbatim}13791116234556271.01.02.11.00.80.81.02.20.51.0\end{verbatim}\end{minipage}\\\hline\end{tabular}\normalsize\bigskip{\ttmatrix}の最初の4行は行列に関するその他の情報が記述されている.3行目以外意味はない.1行目はデータの名前であり,サンプルファイルの{\ttbelladit.Z}を参考に適当につければよい.2行目,4行目も意味はなく,{\ttbelladit.Z}の通りに記述すれば良い.3行目は以下のように5つのデータを空白で区切って記述すればよい.\bigskip\small\begin{tabular}{|c|}\hline\begin{minipage}{134mm}\begin{verbatim}rra74100\end{verbatim}\end{minipage}\\\hline\end{tabular}\normalsize\bigskipこの行の1列目(\verb|rra|),5列目(0)はこの通り記述すれば良い.2列目(7)は行列\(A\)の行数,3列目(4)は列数,4列目(10)は非ゼロ要素の総数を記述する.結果,先の例において,{\ttmatrix}は以下のようになる.\bigskip\small\begin{tabular}{|c|}\hline\begin{minipage}{134mm}\begin{verbatim}JikkenDatajikkenTransposedrra74100(10i8)(10i8)(8f10.3)(8f10.3)13791116234556271.01.02.11.00.80.81.02.20.51.0\end{verbatim}\end{minipage}\\\hline\end{tabular}\normalsize\bigskip\subsubsection{{\ttlap2}ファイルの記述方法}{\ttlap2}ファイルは{\ttlas2}で使われるパラメータが1行で記述されている.例えば,配布キットに入っている{\ttlap2}ファイルの中身は以下のような1行のファイルであり,8個のデータが空白で区切られて入っている.\bigskip\small\begin{tabular}{|c|}\hline\begin{minipage}{134mm}\begin{verbatim}'belladit'4410-1.0e-301.0e-30TRUE1.0e-60\end{verbatim}\end{minipage}\\\hline\end{tabular}\normalsize\bigskip1列目('belladit')は{\ttmatrix}ファイルの1行目に記述したデータの名前である.{\ttmatrix}と{\ttlap2}とのデータ名の一致は検査していないので,実質意味はない.適当な名前をつければ良い.4列目(-1.0e-30),5列目(1.0e-30),6列目(1.0e-6)の数値は,繰り返しの収束条件にあたるものであり,特に変更する必要はない.7列目(TRUE)は特異値分解の結果の\(U\)や\(V\)の行列をファイルに保存するかどうかの指定であり,\verb|TRUE|にしておけば保存される.8列目に意味はない.実際は何も書かなくてもよい.問題は2列目(44)と3列目(10)の整数値である.結論から述べれば,どちらも行列\(A\)の列数\(n\)を設定すればよい.今,2列目の整数値を\verb|lanmax|,3列目の整数値を\verb|maxprs|とおく.\verb|lanmax|は{\ttlas2}のアルゴリズムであるランチョス法の最大の繰り返し回数を意味する.一方,\verb|maxprs|の意味はやや不明確である.マニュアルには,所望の\(U\)や\(V\)の次元数と記載されているが,例えば,\verb|maxprs=20|と設定したからといって,必ずしも\(U\)や\(V\)の次元数が20になって出力されるわけではなく,10であったり,25であったりする.このような違いは\verb|lanmax|の数値とも関連しており,依存関係は複雑である.しかし{\ttlas2}内部では,\(U\)や\(V\)を最大の次元数に設定して計算しており,最後の出力の部分で指定した次元数を考慮して出力させている.そのため\verb|maxprs|の値は実行時間等に影響はなく,現実的には得られる最大の次元数を出力させ,その結果から所望の次元数を得た方が取り扱いが簡単である.\subsection{出力結果の利用}{\ttlas2}による特異値分解の結果は{\ttlav2}と{\ttlao2}というファイルに保存される.{\ttlao2}はテキストファイルであり,内容の確認は容易である.重要部分はファイルの下方に記載されている固有値の列である.この部分を適当に切り取って利用すればよい.また,{\ttlao2}では,固有値は値の小さい順に出力されていることに注意すべきである.固有値は大きい方が重要な意味を持つため,ファイルの下方に書かれた特異値ほど重要である.{\ttlav2}はバイナリファイルであり,{\ttlas2}のソースをみて出力形式を確認すれば,特異値分解結果の\(U\)や\(V\)を得ることが可能である.結局,{\ttlav2}をテキストファイルの形式に変換する何らかのプログラムを自作する必要がある.ただし,そのようなプログラムを作成するのであれば,{\ttlas2}のソースを直接変更して,テキストファイルの形式で出力させた方が簡単である.例えば,{\ttlas2.c}の334行目で\(U\)が出力されているので,以下のように変更する.\bigskip\small\begin{tabular}{|c|}\hline\begin{minipage}[H]{134mm}\begin{verbatim}変更前write(fp_out2,(char*)&xv1[ida],size1);変更後longkk;/*この変数をはじめの方で作っておく*/.../*write(fp_out2,(char*)&xv1[ida],size1);*/for(kk=0;kk<nrow;kk++)fprintf(fp_out2,"fprintf(fp_out2,"EOV\n");/*ベクトルの終りの記号も入れる*/\end{verbatim}\end{minipage}\\\hline\end{tabular}\normalsize\bigskipこれで\verb|lav2|に\(U\)の中身がテキスト形式で出力される.ファイル名も変更したいときは,148行目の以下の部分を書き換える.\begin{verbatim}out2="lav2";\end{verbatim}また{\ttlas2.c}の756行目で\(V\)が出力されているので,以下のように変更する.\bigskip\small\begin{tabular}{|c|}\hline\begin{minipage}[H]{134mm}\begin{verbatim}変更前for(i=0;i<n;i++)xv1[id++]=w1[i];変更後FILE*fp_out3;/*他と合わせるためにlas2.hに書いておく.大域変数となる.*/...fp_out3=fopen("V-matrix","w");/*行列Vのファイル名はV-matrixとする.main中でfopenで開いておく*/.../*for(i=0;i<n;i++)xv1[id++]=w1[i];*/for(i=0;i<n;i++){xv1[id++]=w1[i];fprintf(fp_out3,"}fprintf(fp_out3,"EOV\n");/*ベクトルの終りの記号も入れる*/\end{verbatim}\end{minipage}\\\hline\end{tabular}\normalsize\bigskip以上のようにして,テキストファイルの形式で\(U\)や\(V\)を得ることができる.これらのファイルは,\(U\)や\(V\)の列ベクトルが,順に出力されている形になるが,その順序は{\ttlao2}の固有値の順序に対応している.つまり,固有値の大きな順に\(k\)個の列ベクトルを取り出すときには,下方にあるベクトルから順に\(k\)個取り出さなければならないことに注意する. \section{語義判別問題への利用} ここでは情報検索以外へのLSIの応用として語義判別問題を取り上げる.SENSEVAL2の日本語辞書タスクで課題として出された動詞50単語を実験の対象とする.\subsection{最近傍法の利用}単語\(w\)は\(k\)個の語義を持つとし,各語義を\(c_i\)\\(\(i=1〜k\))で表す.単語\(w\)の語義判別問題とは,テキストに単語\(w\)が現れたときに,その文脈上での単語\(w\)の語義\(c_j\)を判定する問題である.文脈を\(m\)個の素性のベクトル\((f_1,f_2,\cdots,f_m)\)で表現した場合,この語義判別問題は分類問題となり,帰納学習の手法により解決できる.ここでは最近傍法(NearestNeighbor法,以下NN法と略す)\cite{ishii}を用いる.NN法は与えられた素性ベクトルと最も距離が近い訓練事例中の素性ベクトルを選び,そのクラスを出力とする手法である\footnote{これは用例ベースの手法であり,帰納学習手法とは位置づけない見方もできる.}.今,単語\(w\)の訓練データの事例数を\(n\)とし,各事例を\(m\times1\)の素性ベクトル\(d_i\)\(\(i=1〜n\))で表す.すると訓練データ全体の集合は\(m\timesn\)の行列\(A\)として表せる.実際の語義判別は,単語\(w\)の現れた文脈を素性ベクトル\(q\)で表し,以下の式で求められる訓練事例\(\hat{d}\)のクラスを返すことで行える.\[\hat{d}=arg\min_{d_i}dist(q,d_i)\]\noindentここでのNN法は,\(dist(q,d_i)\)を単純なコサイン尺度で計算することにする.また行列\(A\)を特異値分解し,\mbox{式\ref{siki2}}を利用して\(dist(q,d_i)\)を定義したものをLSI法と呼ぶことにする.\subsection{素性の設定}ここでは語義判別の手がかりとなる属性として以下のものを設定した.\begin{verbatim}e1直前の単語e2直後の単語e3前方の内容語2つまでe4後方の内容語2つまでe5e3の分類語彙表の番号e6e5の分類語彙表の番号\end{verbatim}例えば,語義判別対象の単語を「出す」として,以下の文を考える(形態素解析され各単語は原型に戻されているとする).\begin{verbatim}短い/コメント/を/出す/に/とどまる/た/。\end{verbatim}\noindentこの場合,「出す」の直前,直後の単語は「を」と「に」なので,\verb|`e1=を'|,\verb|`e2=に'|となる.次に,「出す」の前方の内容語は「短い」と「コメント」なので,\verb|`e3=短い'|,\verb|`e3=コメント'|の2つが作られる.またここでは句読点も内容語に設定しているので,「出す」の後方の内容語は「とどまる」「。」となり,\verb|`e4=とどまる'|,\verb|`e4=。'|が作られる.次に「短い」の分類語彙表\cite{bunrui-tab}の番号を調べると,\verb|3.1920_1|である.ここでは分類語彙表の4桁目と5桁目までの数値をとることにした.つまり\verb|`e3=短い'|に対しては,\verb|`e5=3192'|と\verb|`e5=31920'|が作られる.「コメント」は分類語彙表には記載されていないので,\verb|`e3=コメント'|に対しては\verb|e5|に関する素性は作られない.次は「とどまる」の分類語彙表を調べるはずだが,ここでは平仮名だけで構成される単語の場合,分類語彙表の番号を調べないことにしている.これは平仮名だけで構成される単語は多義性が高く,無意味な素性が増えるので,その問題を避けたためである.もしも分類語彙表上で多義になっていた場合には,それぞれの番号に対して並列にすべての素性を作成する.結果として,上記の例文に対しては以下の8つの素性が得られる.\begin{verbatim}e1=を,e2=に,e3=短い,e3=コメント,e4=とどまる,e4=。,e5=3192,e5=31920,\end{verbatim}上記の例のようにして,「出す」に対するすべての訓練事例の素性を集め,各素性に1番から順に番号をつける.例えば,本論文の実験では「出す」に対しては978種類の素性があり,上記例の素性には\mbox{表\ref{sosei-jigen}}のように番号が振られた.\begin{table}[htbp]\begin{center}\leavevmode\caption{素性と次元番号}\begin{tabular}{lcr}\hline素性&&次元番号\\\hline\verb|e1=を|&&21\\\verb|e2=に|&&60\\\verb|e3=コメント|&&134\\\verb|e3=短い|&&302\\\verb|e4=。|&&379\\\verb|e4=とどまる|&&406\\\verb|e5=3192|&&789\\\verb|e5=31920|&&790\\\hline\end{tabular}\label{sosei-jigen}\end{center}\end{table}以上より,上記例文に対する素性ベクトルは第21次元目,第60次元目,第134次元目,第302次元目,第379次元目,第406次元目,第789次元目,第790次元目の各要素が1であり,その他の要素がすべて0の978次元のベクトルとなる.\subsection{交差検定の利用}LSI法を利用した場合,NN法と比較して,必ずしも精度が向上するわけではなく,逆に精度が悪化する場合もある.そのため単純にすべての単語に対して,LSI法を用いることはできない.そこで交差検定を行い,次元圧縮の効果が確認できる単語のみLSI法を用いることにする.このようにNN法とLSI法を融合した手法をLSI+NN法と呼ぶことにする.ここでの交差検定では訓練データを4分割し,3つを訓練データ,1つをテストデータとする.組合わせを変えて,合計4通りの実験を行う.各実験では,NN法とLSI法のテストデータに対する正解率を測る.また特異値分解を使って圧縮する次元数は75とした.ただし行列\(A\)のランク数が75以下の場合は,行列\(A\)のランク数にした.付録の\mbox{表\ref{jigen-com1}}に{\ttlas2}の結果をまとめている.そこではSENSEVAL2の日本語辞書タスクの動詞50単語の各単語に対する行列\(A\)の大きさ,非ゼロ要素の密度,圧縮した次元数,次元圧縮に要したメモリと時間が記されている.ただし,これらは4通りの実験での平均である.また次元圧縮に要したメモリと時間は{\ttlas2}の出力ファイル\verb|lao2|から得ている.各単語に対して,4通りの実験の平均をとった結果が\mbox{表\ref{kousakekka}}である.\begin{table}[htbp]\begin{center}\leavevmode\caption{交差検定による比較}\begin{tabular}{|p{6zw}|p{4zw}|p{4zw}p{1zw}||p{6zw}|p{4zw}|p{4zw}p{1zw}|}\hline単語&NN&LSI&&↓&↓&↓&\\\hlineataeru&0.621&0.517&&tsutaeru&0.703&0.629&\\iu&0.803&0.836&〇&dekiru&0.722&0.708&\\ukeru&0.608&0.513&&deru&0.432&0.279&\\uttaeru&0.828&0.659&&tou&0.718&0.703&\\umareru&0.722&0.690&&toru&0.464&0.232&\\egaku&0.628&0.533&&nerau&0.894&0.895&〇\\omou&0.918&0.845&&nokosu&0.592&0.530&\\kau&0.930&0.896&&noru&0.672&0.641&\\kakaru&0.644&0.452&&hairu&0.443&0.392&\\kaku\_v&0.741&0.733&&hakaru&0.941&0.905&\\kawaru&0.907&0.948&〇&hanasu&0.983&0.965&\\kangaeru&0.925&0.949&〇&hiraku&0.853&0.813&\\kiku&0.667&0.456&&fukumu&0.946&0.946&〇\\kimaru&0.881&0.915&〇&matsu&0.589&0.470&\\kimeru&0.899&0.886&&matomeru&0.655&0.669&〇\\kuru&0.766&0.773&〇&mamoru&0.774&0.795&〇\\kuwaeru&0.899&0.899&〇&miseru&0.920&0.880&\\koeru&0.841&0.716&&mitomeru&0.934&0.934&〇\\shiru&0.866&0.834&&miru&0.806&0.777&\\susumu&0.339&0.366&〇&mukaeru&0.925&0.893&\\susumeru&0.886&0.826&&motsu&0.566&0.472&\\dasu&0.476&0.303&&motomeru&0.882&0.807&\\chigau&0.905&0.971&〇&yomu&0.963&0.967&\\tsukau&0.715&0.704&&yoru&0.973&0.931&\\tsukuru&0.578&0.569&&wakaru&0.848&0.916&〇\\\hline↓&↓&↓&&平均&0.764&0.719&\\\hline\end{tabular}\label{kousakekka}\end{center}\end{table}特異値分解を利用することで正解率が向上したものは,\mbox{表\ref{kousakekka}}で〇印のつけた以下の14単語である.これらに対してLSI法を用いることにする.\begin{verbatim}iu,kawaru,kangaeru,kimaru,kuru,kuwaeru,susumu,chigau,nerau,fukumu,matomeru,mamoru,mitomeru,wakaru\end{verbatim}\newpage\subsection{特異値分解を用いた語義判別実験}実際は選出した14単語のみに対してLSI法を行えば良いが,交差検定の効果も示すために,すべての単語に対してLSI法を試みた.圧縮する次元数は100に設定した.ただし行列\(A\)のランク数が100以下の場合は,行列\(A\)のランク数にした.付録の\mbox{表\ref{jigen-com2}}に{\ttlas2}の結果をまとめている.そこではSENSEVAL2の日本語辞書タスクの動詞50単語の各単語に対する行列\(A\)の大きさ,非ゼロ要素の密度,圧縮した次元数,次元圧縮に要したメモリと時間が記されている.また次元圧縮に要したメモリと時間は{\ttlas2}の出力ファイル\verb|lao2|から得ている.次にSENSEVAL2で配布されたテスト文を用いて正解率を測った結果が\mbox{表\ref{result1}}である.スコアの算出は解答結果に部分点を与えるmixed-gainedscoringという方式\cite{sen2}を用いている.\begin{table}[htbp]\begin{center}\leavevmode\caption{実験結果}\label{result1}\begin{tabular}{|p{6zw}|c|c|c||p{6zw}|c|c|c|}\hline単語&NN&LSI&LSI+NN&↓&↓&↓&↓\\\hlineataeru&0.680&0.560&0.680&tsutaeru&0.663&0.780&0.663\\iu&0.820&0.880&0.880&dekiru&0.760&0.690&0.760\\ukeru&0.550&0.410&0.550&deru&0.440&0.320&0.440\\uttaeru&0.810&0.680&0.810&tou&0.670&0.640&0.670\\umareru&0.720&0.670&0.720&toru&0.280&0.270&0.280\\egaku&0.560&0.570&0.560&nerau&0.980&0.920&0.920\\omou&0.930&0.710&0.930&nokosu&0.705&0.595&0.705\\kau&0.860&0.850&0.860&noru&0.680&0.600&0.680\\kakaru&0.620&0.540&0.620&hairu&0.390&0.250&0.390\\kaku\_v&0.770&0.560&0.770&hakaru&0.980&0.980&0.980\\kawaru&0.920&0.890&0.890&hanasu&1.000&0.990&1.000\\kangaeru&0.960&0.950&0.950&hiraku&0.880&0.790&0.880\\kiku&0.550&0.470&0.550&fukumu&0.960&0.990&0.990\\kimaru&0.910&0.900&0.900&matsu&0.490&0.540&0.490\\kimeru&0.920&0.910&0.920&matomeru&0.710&0.740&0.740\\kuru&0.740&0.830&0.830&mamoru&0.635&0.735&0.735\\kuwaeru&0.870&0.860&0.860&miseru&0.950&0.980&0.950\\koeru&0.770&0.710&0.770&mitomeru&0.860&0.880&0.880\\shiru&0.940&0.930&0.940&miru&0.740&0.730&0.740\\susumu&0.390&0.340&0.340&mukaeru&0.940&0.890&0.940\\susumeru&0.920&0.830&0.920&motsu&0.540&0.390&0.540\\dasu&0.340&0.210&0.340&motomeru&0.810&0.790&0.810\\chigau&0.870&0.970&0.970&yomu&0.880&0.830&0.880\\tsukau&0.715&0.895&0.715&yoru&0.960&0.900&0.960\\tsukuru&0.660&0.590&0.660&wakaru&0.820&0.890&0.890\\\hline↓&↓&↓&↓&平均&0.750&0.717&0.7570\\\hline\end{tabular}\end{center}\end{table}わずかではあるが,LSI+NN法の方がNN法よりも精度が高かった.また選択した14単語のうちLSI法を利用することで精度が上がった単語(選択が正しかった単語)は8単語,下がった単語(選択が誤った単語)は6単語である.逆に選択しなかった36単語のうちNN法の方が精度が良かった単語(選択が正しかった単語)は31単語,LSI法の方が精度が良かった単語(選択が誤った単語)は5単語であった.つまり,全体の50単語のうち選択が正しかった単語は39単語(78\,\%),選択が誤った単語は11単語(22\,\%)である.単純にすべてNN法を選択した場合,選択が正しくなる単語は37単語(74\,\%),選択が誤る単語は13単語(26\,\%)であるため,交差検定の効果が確認できる.また同様の素性を用いて,決定リスト(DLと略す),NaiveBayes(NBと略す)を用いた判別も行った.結果を\mbox{表\ref{result2}}に示す.\begin{table}[htbp]\begin{center}\leavevmode\caption{他手法との比較}\label{result2}\begin{tabular}{|p{6zw}|c|c|c|c||p{6zw}|c|c|c|c|}\hline単語&NN&LSI&DL&NB&↓&↓&↓&↓&↓\\\hlineataeru&0.680&0.560&0.660&\underline{0.740}&tsutaeru&0.663&\underline{0.780}&0.750&\underline{0.780}\\iu&0.820&0.880&\underline{0.940}&0.930&dekiru&0.760&0.690&0.790&\underline{0.800}\\ukeru&0.550&0.410&0.550&\underline{0.660}&deru&0.440&0.320&0.560&\underline{0.570}\\uttaeru&0.810&0.680&0.820&\underline{0.870}&tou&0.670&0.640&0.600&\underline{0.700}\\umareru&\underline{0.720}&0.670&0.680&0.710&toru&0.280&0.270&0.330&\underline{0.390}\\egaku&0.560&0.570&0.560&\underline{0.580}&nerau&0.980&0.920&\underline{0.990}&\underline{0.990}\\omou&\underline{0.930}&0.710&0.890&0.900&nokosu&0.705&0.595&0.770&\underline{0.800}\\kau&\underline{0.860}&0.850&0.850&0.850&noru&\underline{0.680}&0.600&0.590&0.660\\kakaru&0.620&0.540&0.630&\underline{0.660}&hairu&0.390&0.250&\underline{0.440}&0.380\\kaku\_v&\underline{0.770}&0.560&0.740&0.730&hakaru&\underline{0.980}&\underline{0.980}&0.920&0.920\\kawaru&\underline{0.920}&0.890&\underline{0.920}&\underline{0.920}&hanasu&\underline{1.000}&0.990&\underline{1.000}&0.990\\kangaeru&0.960&0.950&0.990&\underline{0.990}&hiraku&0.880&0.790&0.830&\underline{0.910}\\kiku&0.550&0.470&0.590&\underline{0.640}&fukumu&0.960&\underline{0.990}&\underline{0.990}&\underline{0.990}\\kimaru&0.910&0.900&\underline{0.960}&\underline{0.960}&matsu&0.490&\underline{0.540}&0.530&0.490\\kimeru&0.920&0.910&\underline{0.940}&0.920&matomeru&0.710&0.740&\underline{0.780}&0.750\\kuru&0.740&0.830&\underline{0.890}&0.880&mamoru&0.635&0.735&\underline{0.800}&0.750\\kuwaeru&0.870&0.860&\underline{0.890}&0.880&miseru&0.950&\underline{0.980}&\underline{0.980}&0.970\\koeru&0.770&0.710&\underline{0.780}&0.760&mitomeru&0.860&0.880&\underline{0.890}&\underline{0.890}\\shiru&0.940&0.930&\underline{0.960}&\underline{0.960}&miru&\underline{0.740}&0.730&0.730&\underline{0.740}\\susumu&0.390&0.340&0.430&\underline{0.450}&mukaeru&\underline{0.940}&0.890&0.920&0.900\\susumeru&0.920&0.830&\underline{0.960}&0.940&motsu&0.540&0.390&0.520&\underline{0.550}\\dasu&0.340&0.210&\underline{0.350}&0.340&motomeru&0.810&0.790&\underline{0.880}&0.870\\chigau&0.870&0.970&\underline{1.000}&\underline{1.000}&yomu&\underline{0.880}&0.830&\underline{0.880}&\underline{0.880}\\tsukau&0.715&0.895&0.935&\underline{0.963}&yoru&0.960&0.900&\underline{0.970}&\underline{0.970}\\tsukuru&0.660&0.590&0.590&\underline{0.710}&wakaru&0.820&0.890&\underline{0.900}&\underline{0.900}\\\hline↓&↓&↓&↓&↓&平均&0.750&0.717&0.777&0.790\\\hline\end{tabular}\end{center}\end{table}ほとんどの単語で,決定リストやNaiveBayesはNN法やLSI法よりも良い結果を出しているが,一部ではNN法やLSI法の方が良い値を出している.単語によってはNN法をベースとした方が良い場合もあることを示している. \section{考察} SVDPACKCが扱える行列の大きさについて述べておく.\verb|las2.c|からメモリ割り当ての関数\verb|malloc|の部分を抜き出してみると,\verb|las2|は\(m\timesn\)の行列の特異値分解を行うのに,大ざっぱに見積もって,\(8mn\)バイト強のメモリを必要としていることがわかる\footnote{{\ttsizeof(double)}の\(mn\)倍である.{\ttsizeof(double)=8}として\(8mn\)を得ている.}.この点から考えると,必要メモリが約200Mバイトとなる\(25000\times1000\)位の大きさが現実的な最大サイズだと思われる\footnote{これは個人的な感覚である.}.確認のために,非ゼロ要素の密度が1\,\%であり,平均2のポアソン分布に従って,非ゼロ要素の整数値(1〜6)が配置されるような\(25000\times1000\)の行列\(A\)を人工的に作成し\footnote{実際の索引語文書行列に似せるよう考慮している.},その行列に対して{\ttlas2}で特異値分解を行ってみた.Pentium-41.5GHzメモリ512MバイトのLinux環境での実行時間は227秒,要したメモリは228Mバイトであった.この程度の大きさの行列であれば,実行時間は大きな問題にはならないと思われる.ただし,行列の大きさを変更して同じ条件で試してみると\mbox{表\ref{sokudo}}の結果が得られた.メモリは行列のサイズにほぼ比例するが実行時間は指数関数的に増加しているので,実行時間の面からも,この程度の大きさの行列がSVDPACKCで扱える限度だと思われる.ちなみに\(25000\times2000\)の行列ではメモリ不足で実行できなかった.ただし実験で用いたマシンにスワップは設定されていないことを注記しておく.スワップを利用すれば,更に大きな行列も扱えるが,その場合は実行時間の方で問題が生じるであろう.\begin{table}[htbp]\begin{center}\leavevmode\caption{行列の大きさと速度・メモリの関係}\label{sokudo}\begin{tabular}{|c|c|c|c|c|}\hline&\(25000\times125\)&\(25000\times250\)&\(25000\times500\)&\(25000\times1000\)\\\hline使用メモリ(MB)&26.2&52.6&108&228\\実行時間(秒)&7.49&16.8&53.5&227\\\hline\end{tabular}\end{center}\end{table}実際に情報検索で用いられる索引語ベクトルの次元数は少なくとも数十万単位になり,検索対象の文書も100万文書以上となるであろう.その場合の索引語文書行列\(A\)の大きさは巨大なスパース行列である.このような巨大な行列になると,SVDPACKCによって一気に特異値分解を行うのは不可能である.この問題に対しては最初に小さな行列で特異値分解を行い,その後に文書や索引語の追加に従って特異値分解の更新を行うfolding-inとよばれる手法や大規模な文書集合から文書をランダムサンプルし,そこから特異値分解を行う手法などが提案されている\cite{kita-ir}.あるいは概念ベクトルの選択に特異値分解以外の手法を使うアプローチもある(\cite{sasaki}など).最近では言語横断検索にもLSIが利用されているが\cite{dumais},そこでも大規模な行列の特異値分解をどう行うかが問題点として上がっている\cite{mori}.結局,現実の情報検索で現れるような大規模な行列に対しては,SVDPACKCを直接利用することはできない.しかしアイデアを試すための中規模の実験であれば,十分にその役割を果たせる.実験では圧縮する次元の数を交差検定では75に,実際の評価では100に固定している.この値は適当である.最適な次元数については様々な議論があるが,ここではSVDPACKCの利用例として紹介した実験であるため,最適な次元数を推定する処理は行わなかった.ちなみに実際の評価における次元数を100から増減させた場合の,実験結果を\mbox{表\ref{jigen}}に示す.次元数を100に圧縮するといっても行列のランク数がそれ以下であれば,100よりも小さい数になるので,100のときに圧縮された次元数を基準に$-$20,$-$10,+10,+20と次元数を変更させて実験を行った.また表中にMAXとあるのは,行列のランク数で圧縮した場合を示す.これが圧縮できる次元の最大値である.大まかな傾向としては次元数が多い方が精度は高いようである.ただし最高精度を記録する次元数は個々の単語によって異っており,最適な次元数は問題に依存すると言える.\begin{table}[htbp]\begin{center}\leavevmode\caption{圧縮次元数と精度の関係}\label{jigen}\begin{tabular}{|c|c|c|c|c|c|c|}\hline&$-$20&$-$10&100&+10&+20&MAX\\\hline判別精度&0.7030&0.7168&0.7202&0.7212&0.7202&0.7203\\\hline\end{tabular}\end{center}\end{table}LSIのアイデア自体は情報検索以外にも適用できる.ここでは語義判別問題への利用を試みた.他にも文書分類への応用が報告されている\cite{zelikovitz}.このような教師付き学習のタイプでは,訓練事例数が大規模なものになることはないため,SVDPACKCが利用できる.また素性ベクトルの次元圧縮という手法は,統計学では主成分分析,パターン認識ではKarhunen-Lo\`{e}ve展開や線形判別法\cite{ishii}として知られている手法である.またデータマイニングの分野ではデータ数が非常に大きいために,現実的には機械学習手法を直接適用できないという問題がある.そのために類似する事例集合を抽象表現として表される事例に変換し,変換後の事例に対して機械学習手法を適用するDataSquashingという手法が使われる\cite{suzuki}.これは索引語ベクトルではなく文書ベクトルに対する次元圧縮の手法に対応する.このように次元圧縮の手法は様々な分野で重要であり,新しい手法が次々と提案されている(例えば\cite{suenaga}など).次元圧縮の手法として,特異値分解は古典的と言えるが,ベースとなる手法として容易に試すことのできる意味でもSVDPACKCは有用であろう.最後にLSIを分類問題に利用する場合の注意を述べておく.次元圧縮を行う手法は種々あるが,それらは2つに大別できる.1つは「表現のための次元圧縮」であり,もう1つは「判別のための次元圧縮」である\cite{ishii}.「表現のための次元圧縮」は素性ベクトルの分布全体のもつ情報をできるだけ反映できるように次元を圧縮する.一方,「判別のための次元圧縮」はクラスをできるだけ明確に分離できるように次元を圧縮する.主成分分析やKarhunen-Lo\`{e}ve展開は前者であり,線形判別法は後者である.そして特異値分解も「表現のための次元圧縮」に属する手法である.このため,特異値分解を行ったからといって必ずしも判別精度が高まることは保証されない.「表現のための次元圧縮」が判別精度向上に寄与できる問題は,非常に高次元のベクトルを扱う問題(例えば情報検索や音声・画像認識)だと思われる.このような場合,「表現のための次元圧縮」は``次元の呪い''に対抗できる可能性がある.あるいは次元数が多くなったときに素性間に共起性(依存関係)が生じる傾向があり,それが精度向上に悪影響を及ぼすが,そのような依存関係を解消できる可能性ももつ.特異値分解による次元圧縮が判別精度の向上に寄与できるかどうかは未知である.本研究では交差検定を行うことで,精度向上に寄与できそうな問題を選別しておくというアプローチをとった.しかし,LSI法は平均的には他の学習手法よりも精度が低かった.LSI法を語義判別問題に利用するためには,また別の工夫が必要になるだろう.1つの利用可能性としてはbagging手法\cite{breiman96}の1つの学習器として使うことが考えられる.実際に,LSI法は数個の単語に関しては他の学習手法よりも精度が高かった.またNN法まで含めるとその数は更に増える.SENSEVAL2の辞書タスクでは様々な学習手法を融合して用いる手法が最も良い成績を納めた\cite{murata-sen2}.そこでは,決定リスト,NaiveBayes,SVMの学習手法を用意し,交差検定の結果から単語毎に利用する学習手法を設定している.ここで用いたNN法やLSI法も1つの学習手法としてエントリーさせておけばよい.今回の実験では,多くの単語に対してLSI法はNN法よりも正解率が低かった.特に,語義判別の場合,素性ベクトルの次元数\(m\)に比べ,訓練事例数\(n\)が小さい.特異値分解で圧縮する次元数の最大値は\(n\)なので,この点でかなり制約があった.交差検定を用いることでNN法の精度を高めることができたが,他の学習手法と比べると精度の面ではまだ十分ではない.今後はNN法やLSI法が他の学習手法よりも正解率が高かった単語について,その原因を調査する.これによってLSIを語義判別問題のような分類問題に利用する方法を探ってゆく.またLSIが利用可能な他の問題を調べゆく. \section{おわりに} 本論文ではフリーの特異値分解ツールSVDPACKCを紹介した.その利用方法を解説し,利用事例として語義判別問題を扱った.SENSEVAL2の辞書タスクの動詞50単語を対象に実験を行ったところ,交差検定を合わせて用いることで,NN法を改良できた.またNN法やLSI法は,一部の単語に対して決定リストやNaiveBayes以上の正解率が得られることも確認できた.特異値分解は,情報検索のLSIだけではなく,高次元の特徴ベクトルを重要な低次元のベクトルに射影する手法で必要とされる.このために様々な応用が期待される.今後はここでの実験の結果を詳しく調査し,LSIが利用可能な問題を調べてゆきたい.\bibliographystyle{jnlpbbl}\bibliography{408}\newpage\appendix\begin{table}[ht]\scriptsize\begin{center}\leavevmode\caption{las2による特異値分解結果(1)}\begin{tabular}{|p{6zw}|c|c|c|c|c|}\hline単語&行列サイズ&非ゼロ密度&圧縮次元数&メモリ(MB)&実行時間(秒)\\\hlineataeru&\(431\times87\)&0.0232&75.00&0.51&0.1225\\iu&\(937\times274\)&0.0087&75.00&3.93&1.8625\\ukeru&\(1138\times267\)&0.0092&75.00&4.21&2.0050\\uttaeru&\(292\times52\)&0.0315&26.50&0.20&0.0225\\umareru&\(309\times48\)&0.0338&32.75&0.19&0.0325\\egaku&\(339\times52\)&0.0283&36.25&0.22&0.0350\\omou&\(981\times348\)&0.0079&75.00&5.67&3.0700\\kau&\(375\times65\)&0.0241&65.25&0.32&0.0700\\kakaru&\(482\times86\)&0.0233&66.75&0.54&0.1150\\kaku\_v&\(498\times101\)&0.0197&65.00&0.68&0.1400\\kawaru&\(424\times72\)&0.0224&72.75&0.40&0.0950\\kangaeru&\(953\times218\)&0.0103&75.00&2.87&1.2775\\kiku&\(569\times135\)&0.0154&75.00&1.09&0.2925\\kimaru&\(407\times87\)&0.0239&75.00&0.47&0.1050\\kimeru&\(656\times171\)&0.0137&75.00&1.52&0.3975\\kuru&\(493\times96\)&0.0194&75.00&0.63&0.2925\\kuwaeru&\(418\times81\)&0.0215&66.00&0.46&0.1000\\koeru&\(460\times89\)&0.0227&67.00&0.54&0.1125\\shiru&\(797\times184\)&0.0111&75.00&2.04&0.6225\\susumu&\(473\times84\)&0.0215&75.00&0.51&0.1175\\susumeru&\(529\times99\)&0.0193&75.00&0.68&0.1675\\dasu&\(791\times156\)&0.0130&75.00&1.61&0.3900\\chigau&\(522\times78\)&0.0190&55.75&0.50&0.0950\\tsukau&\(1056\times202\)&0.0093&75.00&2.75&1.1400\\tsukuru&\(648\times137\)&0.0146&75.00&1.09&0.3200\\tsutaeru&\(377\times72\)&0.0252&72.25&0.36&0.0875\\dekiru&\(364\times56\)&0.0266&56.25&0.26&0.0600\\deru&\(1153\times309\)&0.0083&75.00&5.17&2.8725\\tou&\(265\times53\)&0.0405&52.25&0.19&0.0475\\toru&\(457\times84\)&0.0221&57.25&0.50&0.0925\\nerau&\(318\times50\)&0.0290&50.25&0.20&0.0425\\nokosu&\(436\times73\)&0.0216&73.50&0.41&0.1000\\noru&\(258\times48\)&0.0386&33.75&0.17&0.0300\\hairu&\(974\times208\)&0.0106&75.00&2.71&0.9075\\hakaru&\(365\times63\)&0.0285&63.00&0.30&0.0700\\hanasu&\(382\times131\)&0.0195&75.00&0.82&0.1575\\hiraku&\(657\times168\)&0.0161&75.00&1.60&0.4325\\fukumu&\(520\times69\)&0.0223&49.25&0.42&0.0725\\matsu&\(380\times62\)&0.0274&45.00&0.30&0.0525\\matomeru&\(381\times69\)&0.0293&69.75&0.35&0.0800\\mamoru&\(392\times69\)&0.0236&69.75&0.36&0.0800\\miseru&\(357\times75\)&0.0248&74.50&0.37&0.0800\\mitomeru&\(729\times159\)&0.0132&75.00&1.58&0.4475\\miru&\(1229\times306\)&0.0076&75.00&5.29&2.8975\\mukaeru&\(348\times69\)&0.0318&69.00&0.33&0.0750\\motsu&\(1020\times200\)&0.0101&75.00&2.64&0.8900\\motomeru&\(975\times229\)&0.0104&75.00&3.09&1.1875\\yomu&\(406\times79\)&0.0238&75.00&0.43&0.1025\\yoru&\(1001\times355\)&0.0092&75.00&5.97&3.0350\\wakaru&\(425\times133\)&0.0196&65.50&0.90&0.1725\\\hline\end{tabular}\label{jigen-com1}\end{center}\end{table}\begin{table}[ht]\scriptsize\begin{center}\leavevmode\caption{las2による特異値分解結果(2)}\begin{tabular}{|p{6zw}|c|c|c|c|c|}\hline単語&行列サイズ&非ゼロ密度&圧縮次元数&メモリ(MB)&実行時間(秒)\\\hlineataeru&\(529\times116\)&0.0189&100&0.85&0.22\\iu&\(1158\times366\)&0.0070&100&6.68&4.16\\ukeru&\(1382\times357\)&0.0076&100&7.05&3.97\\uttaeru&\(365\times70\)&0.0252&27&0.34&0.03\\umareru&\(385\times65\)&0.0272&64&0.32&0.07\\egaku&\(429\times70\)&0.0223&32&0.38&0.05\\omou&\(1201\times465\)&0.0064&100&9.77&6.47\\kau&\(472\times87\)&0.0192&87&0.54&0.14\\kakaru&\(598\times115\)&0.0187&100&0.89&0.23\\kaku\_v&\(606\times135\)&0.0162&100&1.12&0.30\\kawaru&\(532\times97\)&0.0179&97&0.67&0.16\\kangaeru&\(1156\times291\)&0.0085&100&4.81&2.55\\kiku&\(711\times180\)&0.0123&100&1.85&0.62\\kimaru&\(498\times117\)&0.0196&100&0.77&0.20\\kimeru&\(807\times228\)&0.0111&100&2.78&0.79\\kuru&\(612\times128\)&0.0156&100&1.06&0.30\\kuwaeru&\(517\times109\)&0.0174&53&0.77&0.11\\koeru&\(580\times119\)&0.0180&100&0.92&0.23\\shiru&\(986\times246\)&0.0090&100&3.46&1.09\\susumu&\(581\times112\)&0.0175&100&0.86&0.21\\susumeru&\(652\times132\)&0.0157&100&1.15&0.30\\dasu&\(978\times208\)&0.0105&100&2.69&0.97\\chigau&\(653\times105\)&0.0152&61&0.84&0.15\\tsukau&\(1309\times270\)&0.0075&100&4.65&1.97\\tsukuru&\(811\times183\)&0.0117&100&1.80&0.51\\tsutaeru&\(464\times97\)&0.0205&58&0.61&0.11\\dekiru&\(461\times75\)&0.0211&75&0.43&0.11\\deru&\(1387\times412\)&0.0069&100&8.63&5.81\\tou&\(328\times71\)&0.0326&69&0.32&0.07\\toru&\(560\times112\)&0.0180&54&0.84&0.13\\nerau&\(404\times67\)&0.0229&67&0.34&0.07\\nokosu&\(544\times98\)&0.0174&98&0.69&0.16\\noru&\(321\times64\)&0.0311&28&0.28&0.04\\hairu&\(1199\times278\)&0.0086&100&4.52&2.04\\hakaru&\(448\times84\)&0.0232&84&0.50&0.12\\hanasu&\(480\times175\)&0.0155&100&1.45&0.28\\hiraku&\(795\times224\)&0.0133&100&2.69&0.85\\fukumu&\(649\times92\)&0.0179&91&0.70&0.18\\matsu&\(473\times83\)&0.0220&42&0.51&0.07\\matomeru&\(467\times93\)&0.0239&93&0.58&0.13\\mamoru&\(492\times93\)&0.0188&93&0.60&0.16\\miseru&\(448\times100\)&0.0198&99&0.62&0.16\\mitomeru&\(890\times212\)&0.0108&100&2.65&0.75\\miru&\(1502\times408\)&0.0062&100&8.90&5.87\\mukaeru&\(423\times93\)&0.0262&92&0.55&0.13\\motsu&\(1246\times267\)&0.0083&100&4.40&2.13\\motomeru&\(1171\times306\)&0.0086&100&5.08&2.50\\yomu&\(513\times106\)&0.0188&100&0.73&0.17\\yoru&\(1218\times474\)&0.0076&100&10.10&5.30\\wakaru&\(528\times178\)&0.0158&100&1.44&0.45\\\hline\end{tabular}\label{jigen-com2}\end{center}\end{table}\begin{biography}\newpage\biotitle{略歴}\bioauthor{新納浩幸}{1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年茨城大学工学部システム工学科助手.1997年同学科講師,2001年同学科助教授.情報処理学会,人工知能学会,言語処理学会,ACL各会員.博士(工学).}\bioauthor{佐々木稔}{1996年徳島大学工学部知能情報工学科卒業.2001年徳島大学大学院博士後期課程修了.博士(工学).現在,茨城大学工学部情報工学科助手.機械学習や統計的手法による情報検索,自然言語処理等に関する研究に従事.情報処理学会,言語処理学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}